Техножнец
Opencraft - обновление. Процедурный мир! Работаю над шейдерами, применяю свои знания из генеративного дизайна до нейронных сетей и получаю неплохие результаты. Рандомизация на основе законов шейдеров и небольших изысков анимации шумами дают полноценные…
Сейчас главная проблема это оптимизировать всю систему шейдеров и включить разные Level of Distance - потому что не всё следует показывать как есть.
🔥16🕊1
Синтеты, у меня к вам важное сообщение.Готовы ли вы,
получив задание в определённом чате, потратить собственные средства и время на создание качественных и необходимых датасетов для сегмента больших языковых моделей (LLM) в России?Моя идея в объединении синтетов, кто хочет участвовать в общий чат и создании единого репозитория, который будет пополняться значительным объёмом датасетов. Запланировано использование лучших английских датасетов по следующим направлениям:
инструкции, написание кода, математика, научные данные, а также специализированные темы, не освоенные в отечественной практике. Данные будут грамотно, точно и на высоком уровне переведены на русский язык с помощью настроенного фреймворка LLM.
Такие вещи должны как-то хоститься. А значит это, что часть участников сможет использовать собственное оборудование, другие — подписку на
Google Colab и будут вручную следить ( у кого на что хватит спецификации).Кнопки "сделать красиво" не будет. Тут нужны люди, которые непосредственно разбираются в теме.
Репозиторий будет открытым для всех - стараться будем для сообщества и , вообще, для социума.
При получении достаточного количества подтверждений от активных синтетов будет создан чат, и всем ответившим будет предоставлена ссылка в личку от Техножнеца.
Будущее развития датасетов в России планируется решать самостоятельно.Лично я
1🔥62👍10❤4🤔4🕊1
Сегодня добавлю в чат участников, там будут разделы. Все, кто отписался - поговорим с вами лично.
👏12🕊1
щас кое что буду выкладывать, поджигая жопы, а некоторых очень радуя. комьюнити начнётся здесь...это будет Github проект, который многие ждут...много раз писал об этом. как думаете, что это?
👍18❤5🕊1 1
Квоты ИИШКИ , наконец-то, пополнены.
Жду наплыва маркетолог советчиков 😃 (с совершеннолетним стажем)
Жду наплыва маркетолог советчиков 😃 (с совершеннолетним стажем)
👍27🕊1
Синтеты, коротко.
28 апреля выступаю на конференции СПИСОК-2026 в СПбГУ. Это всероссийская научная конференция по проблемам информатики, математический факультет.Три доклада:1.
TrueKAN - чебышёвские KAN-слои в языковой модели на 853 миллиона параметров. Суть: взял сети Колмогорова-Арнольда, которые все считали непрактичными (в 12 раз медленнее MLP), переделал базис на полиномы Чебышёва K=3 с low-rank факторизацией - получил на 38% быстрее стандартного nn.Linear. Модель RUKALLAMA V9 обучена на одном A100 за $125 и показывает лучший результат среди русскоязычных моделей на PARus (MERA).2.
Методология построения русскоязычного корпуса из учебной литературы. 767 учебников, собственный токенизатор RUKANIZER (4.33x компрессия, 100% реконструкция, лучше всех русских токенизаторов в 8 из 9 доменов), автоматическая ёфикация 19,052 словоформ.3.
PromeTorch - прототип фреймворка для тренировки нейросетей на отечественных VLIW-ускорителях NM Card Mini и NM Quad (НТЦ Модуль). 93,000 строк C++/CUDA/Python, 35 опкодов, полный цикл обучения on-card. 705 tok/s на 16 ядрах.Тезисы приняты, статус - на рассмотрении.
Если кто в Питере 28-го - заходите. Конференция открытая. (вроде бы как)spisok.math.spbu.ru/2026/
🔥57❤8🕊1
Мне часто коллеги и люди понимающие в маркетинге, в прогреве и так далее говорят, что есть определённые часы для постинга. а я вот думаю, что если тебе реально интересно что-то, то ты просто подписан и каждый день проверяешь любимый источник твоей той самой инфы.
В общем - я почти допилил PromeTorch. Я всё это время его делал. Особенно много траханья сексом было с моделькой кастомной под Эльбрус. Чуть мозг не вскипел. Кстати про неё:
PIR, 250m BPE (Rukanizer - свой токенизатор, которы у Rukallama) + 2gb датасет русский.
Генерации у модельки слабые + я не разогнал PromeTorch до нужного уровня. Надоело его делать - надо выдохнуть немного...
В общем - я почти допилил PromeTorch. Я всё это время его делал. Особенно много траханья сексом было с моделькой кастомной под Эльбрус. Чуть мозг не вскипел. Кстати про неё:
PIR, 250m BPE (Rukanizer - свой токенизатор, которы у Rukallama) + 2gb датасет русский.
Генерации у модельки слабые + я не разогнал PromeTorch до нужного уровня. Надоело его делать - надо выдохнуть немного...
👍36💯12❤5 3🤔1🕊1
😨 нахрен блин...жёстко, конечно, я вас грею. Но каждый раз перед выкладыванием репы получается странный движ...
Я начинаю делать "финальные правки" и ухожу на сутки в исправления , потом в тильт на неделю и так по кругу.
Щас я вернусь из магаза и выложу прометорч - надоело тянуть...ну и вы меня простите, я не спецом тут прогрев до костей делаю...так выходит. Пора довериться комьюнити
Я начинаю делать "финальные правки" и ухожу на сутки в исправления , потом в тильт на неделю и так по кругу.
Щас я вернусь из магаза и выложу прометорч - надоело тянуть...ну и вы меня простите, я не спецом тут прогрев до костей делаю...так выходит. Пора довериться комьюнити
🤗23👀7😨3🤝3❤2👍2😢1🕊1
Сегодня с Imaxai будем писать видос вечером удалённо - интересный контент скоро.
🔥28❤🔥14👍8⚡3🕊1
🔥 PromeTorch — свой PyTorch с нуля за 5 недель
🔗 GitHub: github.com/barometech/PromeTorch
Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100.
━━━━━━━━━━━━━━━━━━━━
TL;DR для простых людей:
Если коротко — это альтернатива PyTorch. На ней можно обучать нейросети и запускать LLM. Главное: работает на российских чипах. Не эмуляция, не обёртка — нативная сборка, верифицированная на железе.
TL;DR для спецов:
~35–45% практической площади PyTorch, runtime-verified на реальном железе. Real BFS autograd (не trace-based), 119 backward functions, forward-mode AD, vmap, double backward, gradient checkpointing, hooks. 16 оптимизаторов, 16 LR schedulers, 64+ NN модулей. 720+ gtest.
━━━━━━━━━━━━━━━━━━━━
📊 Inference на A100-SXM4-40GB (Ollama-compatible)
10-мин stress: 46.5 tok/s ±0.19. Peak 25.4 GB VRAM / 135 W.
📊 Training на CPU vs PyTorch 2.6 (10 задач)
Все MNIST — match within 0.5pp. LSTM seq cls +1.56pp. VAE MNIST 50 эпох — на 0.35 nats tighter чем PyTorch на identical arch.
📊 Российское железо
- Эльбрус E8C2 — production, MNIST 6.1× быстрее PyTorch 2.7.1 на этой задаче, EML_MT BLAS 1840 GFLOPS (92% пика), NUMA-aware, 4 процесса × 8 ядер Local SGD. 38/38 тестов.
- NM Card Mini K1879VM8YA — emulator production + 1-core real, MNIST MLP 88.94% на Q16.16 fixed-point. 32/32 тестов.
- NM Quad (4×NM6408, 64 NMC4) — 16 cores stable, 100× SIMD.
- Байкал-М/С — cross-compile готов.
🧩 Стек
Ядро: c10 (Allocator/Device/Storage/TensorImpl) + ATen ~150 tensor ops. Dtype dispatch: FP32/64, Half, BFloat16, FP8 e4m3fn/e5m2, Complex, Bool, int8-64.
Autograd: real BFS engine, 119 backward functions, register_hook, anomaly detection, create_graph=True, forward-mode AD (dual numbers + JVP), single-axis bit-exact vmap.
NN (64+): Linear/Bilinear/LazyLinear, Conv1d/2d/3d + ConvTranspose2d, 20+ активаций, BatchNorm/LayerNorm/RMSNorm/GroupNorm/InstanceNorm, RNN/LSTM/GRU, TransformerEncoder/Decoder/MultiheadAttention, 12 loss functions (включая полный CTC Graves DP), PIR architecture (Mamba-родственник).
Optim: SGD, Adam, AdamW, RMSprop, Adagrad, Adadelta, Adamax, AdamKiller, ASGD, Lion, SophiaG, LAMB, Adafactor, NAdam, RAdam, LBFGS + ParamGroups + EMA + clip_grad.
Distributed: real TCP DDP, FSDP/ZeRO-3 bit-exact, TensorParallel, Pipeline (GPipe + 1F1B), DDP.no_sync, ZeRO-Offload.
Export/interop: ONNX (zero-dep manual protobuf, проходит onnx.checker), MLIR (tosa + linalg), torch.jit.compile (trace + fusion + C++ codegen), bi-directional .pt I/O.
Shims: HuggingFace (AutoModel.from_pretrained для Bert/GPT2/Llama + safetensors), torchvision, torchaudio (STFT max |err| 1.79e-7), torchtext, Lightning Trainer.
Serving — PromeServe: Ollama-compatible API, GGUF loader (Q4_K_M, Q5_K_M, Q6_K, Q8_0, F16, F32), flash-decode + CUDA Graph + paged KV, production guardrails.
🗂 Что не закрыто честно:
autocast wiring, sampling-path overhead (82→46 tok/s при T>0), FlashAttention (headers есть, callsites 0), torch.compile уровня TorchInductor нет и не будет, sparse tensors/FX/distributions — отсутствуют, MPS/ROCm — compile-only.
━━━━━━━━━━━━━━━━━━━━
Кому надо:
- training framework на российском железе — единственный известный выбор с нативной сборкой под Эльбрус VLIW + NM Card;
- self-hosted Ollama-compatible LLM сервер с открытой лицензией;
- тем, кто хочет читать, как PyTorch работает изнутри — 137K читаемых строк, без автогена.
ОС: Astra Linux SE, ALT Linux SP, RED OS, Elbrus OS (PDK LE). Docker'ы готовы.
Лицензия: PromeTorch License (BSD-3 + атрибуция «Powered by PromeTorch» + запрет на перепродажу самого фреймворка). Обучать и продавать модели — можно. SaaS, сервисы — можно. Форкать — можно. Ребрендить фреймворк — нельзя.
🔗 GitHub: github.com/barometech/PromeTorch
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
🔗 GitHub: github.com/barometech/PromeTorch
Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100.
━━━━━━━━━━━━━━━━━━━━
TL;DR для простых людей:
Если коротко — это альтернатива PyTorch. На ней можно обучать нейросети и запускать LLM. Главное: работает на российских чипах. Не эмуляция, не обёртка — нативная сборка, верифицированная на железе.
TL;DR для спецов:
~35–45% практической площади PyTorch, runtime-verified на реальном железе. Real BFS autograd (не trace-based), 119 backward functions, forward-mode AD, vmap, double backward, gradient checkpointing, hooks. 16 оптимизаторов, 16 LR schedulers, 64+ NN модулей. 720+ gtest.
━━━━━━━━━━━━━━━━━━━━
📊 Inference на A100-SXM4-40GB (Ollama-compatible)
qwen3:4b 82.6 tok/s (50% от Ollama)gemma3:4b 81.4 tok/s (56%)deepseek-r1:8b 51.1 tok/s (40%)10-мин stress: 46.5 tok/s ±0.19. Peak 25.4 GB VRAM / 135 W.
📊 Training на CPU vs PyTorch 2.6 (10 задач)
Все MNIST — match within 0.5pp. LSTM seq cls +1.56pp. VAE MNIST 50 эпох — на 0.35 nats tighter чем PyTorch на identical arch.
📊 Российское железо
- Эльбрус E8C2 — production, MNIST 6.1× быстрее PyTorch 2.7.1 на этой задаче, EML_MT BLAS 1840 GFLOPS (92% пика), NUMA-aware, 4 процесса × 8 ядер Local SGD. 38/38 тестов.
- NM Card Mini K1879VM8YA — emulator production + 1-core real, MNIST MLP 88.94% на Q16.16 fixed-point. 32/32 тестов.
- NM Quad (4×NM6408, 64 NMC4) — 16 cores stable, 100× SIMD.
- Байкал-М/С — cross-compile готов.
🧩 Стек
Ядро: c10 (Allocator/Device/Storage/TensorImpl) + ATen ~150 tensor ops. Dtype dispatch: FP32/64, Half, BFloat16, FP8 e4m3fn/e5m2, Complex, Bool, int8-64.
Autograd: real BFS engine, 119 backward functions, register_hook, anomaly detection, create_graph=True, forward-mode AD (dual numbers + JVP), single-axis bit-exact vmap.
NN (64+): Linear/Bilinear/LazyLinear, Conv1d/2d/3d + ConvTranspose2d, 20+ активаций, BatchNorm/LayerNorm/RMSNorm/GroupNorm/InstanceNorm, RNN/LSTM/GRU, TransformerEncoder/Decoder/MultiheadAttention, 12 loss functions (включая полный CTC Graves DP), PIR architecture (Mamba-родственник).
Optim: SGD, Adam, AdamW, RMSprop, Adagrad, Adadelta, Adamax, AdamKiller, ASGD, Lion, SophiaG, LAMB, Adafactor, NAdam, RAdam, LBFGS + ParamGroups + EMA + clip_grad.
Distributed: real TCP DDP, FSDP/ZeRO-3 bit-exact, TensorParallel, Pipeline (GPipe + 1F1B), DDP.no_sync, ZeRO-Offload.
Export/interop: ONNX (zero-dep manual protobuf, проходит onnx.checker), MLIR (tosa + linalg), torch.jit.compile (trace + fusion + C++ codegen), bi-directional .pt I/O.
Shims: HuggingFace (AutoModel.from_pretrained для Bert/GPT2/Llama + safetensors), torchvision, torchaudio (STFT max |err| 1.79e-7), torchtext, Lightning Trainer.
Serving — PromeServe: Ollama-compatible API, GGUF loader (Q4_K_M, Q5_K_M, Q6_K, Q8_0, F16, F32), flash-decode + CUDA Graph + paged KV, production guardrails.
🗂 Что не закрыто честно:
autocast wiring, sampling-path overhead (82→46 tok/s при T>0), FlashAttention (headers есть, callsites 0), torch.compile уровня TorchInductor нет и не будет, sparse tensors/FX/distributions — отсутствуют, MPS/ROCm — compile-only.
━━━━━━━━━━━━━━━━━━━━
Кому надо:
- training framework на российском железе — единственный известный выбор с нативной сборкой под Эльбрус VLIW + NM Card;
- self-hosted Ollama-compatible LLM сервер с открытой лицензией;
- тем, кто хочет читать, как PyTorch работает изнутри — 137K читаемых строк, без автогена.
ОС: Astra Linux SE, ALT Linux SP, RED OS, Elbrus OS (PDK LE). Docker'ы готовы.
Лицензия: PromeTorch License (BSD-3 + атрибуция «Powered by PromeTorch» + запрет на перепродажу самого фреймворка). Обучать и продавать модели — можно. SaaS, сервисы — можно. Форкать — можно. Ребрендить фреймворк — нельзя.
🔗 GitHub: github.com/barometech/PromeTorch
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
5🔥78🎉8❤7👍5👀2✍1🕊1
Техножнец
🔥 PromeTorch — свой PyTorch с нуля за 5 недель 🔗 GitHub: github.com/barometech/PromeTorch Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100. ━━━━━━━━━━━━━━━━━━━━…
Уважаемские синтеты, трачу всё своё время на проекты, которые нужны нашему сообществу и стране. На это уходит много средств, сил, здоровья и , вообще, энергии.
Делаю всё от души и чистого сердца, с желанием изменить обстановку к лучшему.🥶 🫡
Почти все средства полученные таким способом уходят на оплату услуг подписок и прочего. Проект живёт и двигается, в том числе, благодаря Вам, синтеты!
Если у вас есть желание поддержать меня на фоне бури активной работы, чтобы я не отвлекался на заработки - вот возможность это сделать. Делаю всё от души и чистого сердца, с желанием изменить обстановку к лучшему.
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИПочти все средства полученные таким способом уходят на оплату услуг подписок и прочего. Проект живёт и двигается, в том числе, благодаря Вам, синтеты!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥31❤🔥7👍4🫡3🕊1 1
OpenCraft - веб браузер генеративный клон StarCraft. Отчёт...
Томрозит также ?
Нет, все пофиксил.
Есть новые фичи?
Фич целое море, океан Фич.
Графон норм?
Пушка, для генератива - блестяще.
Мультиплейер будет?
Обязан быть, иначе - зачем это всё?
Зачем взялся?
Всю жизнь мечтал о стратегии своей, не важно какой. Сам факт её создания, окунуться в гейм-дев по полной программе.
Что там с Denis3D? Всё, кабздох?
Нет! Скоро обновы и возможность поиграть в браузере.
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
Томрозит также ?
Нет, все пофиксил.
Есть новые фичи?
Фич целое море, океан Фич.
Графон норм?
Пушка, для генератива - блестяще.
Мультиплейер будет?
Обязан быть, иначе - зачем это всё?
Зачем взялся?
Всю жизнь мечтал о стратегии своей, не важно какой. Сам факт её создания, окунуться в гейм-дев по полной программе.
Что там с Denis3D? Всё, кабздох?
Нет! Скоро обновы и возможность поиграть в браузере.
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
🔥37👍5🥰1🕊1🦄1
Щас кое что буду выкладывать по OpenCraft! Покажу как обстоят дела...
👏15👀7👍3🤔1🕊1