Синтеты, коротко.
28 апреля выступаю на конференции СПИСОК-2026 в СПбГУ. Это всероссийская научная конференция по проблемам информатики, математический факультет.Три доклада:1.
TrueKAN - чебышёвские KAN-слои в языковой модели на 853 миллиона параметров. Суть: взял сети Колмогорова-Арнольда, которые все считали непрактичными (в 12 раз медленнее MLP), переделал базис на полиномы Чебышёва K=3 с low-rank факторизацией - получил на 38% быстрее стандартного nn.Linear. Модель RUKALLAMA V9 обучена на одном A100 за $125 и показывает лучший результат среди русскоязычных моделей на PARus (MERA).2.
Методология построения русскоязычного корпуса из учебной литературы. 767 учебников, собственный токенизатор RUKANIZER (4.33x компрессия, 100% реконструкция, лучше всех русских токенизаторов в 8 из 9 доменов), автоматическая ёфикация 19,052 словоформ.3.
PromeTorch - прототип фреймворка для тренировки нейросетей на отечественных VLIW-ускорителях NM Card Mini и NM Quad (НТЦ Модуль). 93,000 строк C++/CUDA/Python, 35 опкодов, полный цикл обучения on-card. 705 tok/s на 16 ядрах.Тезисы приняты, статус - на рассмотрении.
Если кто в Питере 28-го - заходите. Конференция открытая. (вроде бы как)spisok.math.spbu.ru/2026/
🔥57❤8🕊1
Мне часто коллеги и люди понимающие в маркетинге, в прогреве и так далее говорят, что есть определённые часы для постинга. а я вот думаю, что если тебе реально интересно что-то, то ты просто подписан и каждый день проверяешь любимый источник твоей той самой инфы.
В общем - я почти допилил PromeTorch. Я всё это время его делал. Особенно много траханья сексом было с моделькой кастомной под Эльбрус. Чуть мозг не вскипел. Кстати про неё:
PIR, 250m BPE (Rukanizer - свой токенизатор, которы у Rukallama) + 2gb датасет русский.
Генерации у модельки слабые + я не разогнал PromeTorch до нужного уровня. Надоело его делать - надо выдохнуть немного...
В общем - я почти допилил PromeTorch. Я всё это время его делал. Особенно много траханья сексом было с моделькой кастомной под Эльбрус. Чуть мозг не вскипел. Кстати про неё:
PIR, 250m BPE (Rukanizer - свой токенизатор, которы у Rukallama) + 2gb датасет русский.
Генерации у модельки слабые + я не разогнал PromeTorch до нужного уровня. Надоело его делать - надо выдохнуть немного...
👍36💯12❤5 3🤔1🕊1
😨 нахрен блин...жёстко, конечно, я вас грею. Но каждый раз перед выкладыванием репы получается странный движ...
Я начинаю делать "финальные правки" и ухожу на сутки в исправления , потом в тильт на неделю и так по кругу.
Щас я вернусь из магаза и выложу прометорч - надоело тянуть...ну и вы меня простите, я не спецом тут прогрев до костей делаю...так выходит. Пора довериться комьюнити
Я начинаю делать "финальные правки" и ухожу на сутки в исправления , потом в тильт на неделю и так по кругу.
Щас я вернусь из магаза и выложу прометорч - надоело тянуть...ну и вы меня простите, я не спецом тут прогрев до костей делаю...так выходит. Пора довериться комьюнити
🤗23👀7😨3🤝3❤2👍2😢1🕊1
Сегодня с Imaxai будем писать видос вечером удалённо - интересный контент скоро.
🔥28❤🔥14👍8⚡3🕊1
🔥 PromeTorch — свой PyTorch с нуля за 5 недель
🔗 GitHub: github.com/barometech/PromeTorch
Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100.
━━━━━━━━━━━━━━━━━━━━
TL;DR для простых людей:
Если коротко — это альтернатива PyTorch. На ней можно обучать нейросети и запускать LLM. Главное: работает на российских чипах. Не эмуляция, не обёртка — нативная сборка, верифицированная на железе.
TL;DR для спецов:
~35–45% практической площади PyTorch, runtime-verified на реальном железе. Real BFS autograd (не trace-based), 119 backward functions, forward-mode AD, vmap, double backward, gradient checkpointing, hooks. 16 оптимизаторов, 16 LR schedulers, 64+ NN модулей. 720+ gtest.
━━━━━━━━━━━━━━━━━━━━
📊 Inference на A100-SXM4-40GB (Ollama-compatible)
10-мин stress: 46.5 tok/s ±0.19. Peak 25.4 GB VRAM / 135 W.
📊 Training на CPU vs PyTorch 2.6 (10 задач)
Все MNIST — match within 0.5pp. LSTM seq cls +1.56pp. VAE MNIST 50 эпох — на 0.35 nats tighter чем PyTorch на identical arch.
📊 Российское железо
- Эльбрус E8C2 — production, MNIST 6.1× быстрее PyTorch 2.7.1 на этой задаче, EML_MT BLAS 1840 GFLOPS (92% пика), NUMA-aware, 4 процесса × 8 ядер Local SGD. 38/38 тестов.
- NM Card Mini K1879VM8YA — emulator production + 1-core real, MNIST MLP 88.94% на Q16.16 fixed-point. 32/32 тестов.
- NM Quad (4×NM6408, 64 NMC4) — 16 cores stable, 100× SIMD.
- Байкал-М/С — cross-compile готов.
🧩 Стек
Ядро: c10 (Allocator/Device/Storage/TensorImpl) + ATen ~150 tensor ops. Dtype dispatch: FP32/64, Half, BFloat16, FP8 e4m3fn/e5m2, Complex, Bool, int8-64.
Autograd: real BFS engine, 119 backward functions, register_hook, anomaly detection, create_graph=True, forward-mode AD (dual numbers + JVP), single-axis bit-exact vmap.
NN (64+): Linear/Bilinear/LazyLinear, Conv1d/2d/3d + ConvTranspose2d, 20+ активаций, BatchNorm/LayerNorm/RMSNorm/GroupNorm/InstanceNorm, RNN/LSTM/GRU, TransformerEncoder/Decoder/MultiheadAttention, 12 loss functions (включая полный CTC Graves DP), PIR architecture (Mamba-родственник).
Optim: SGD, Adam, AdamW, RMSprop, Adagrad, Adadelta, Adamax, AdamKiller, ASGD, Lion, SophiaG, LAMB, Adafactor, NAdam, RAdam, LBFGS + ParamGroups + EMA + clip_grad.
Distributed: real TCP DDP, FSDP/ZeRO-3 bit-exact, TensorParallel, Pipeline (GPipe + 1F1B), DDP.no_sync, ZeRO-Offload.
Export/interop: ONNX (zero-dep manual protobuf, проходит onnx.checker), MLIR (tosa + linalg), torch.jit.compile (trace + fusion + C++ codegen), bi-directional .pt I/O.
Shims: HuggingFace (AutoModel.from_pretrained для Bert/GPT2/Llama + safetensors), torchvision, torchaudio (STFT max |err| 1.79e-7), torchtext, Lightning Trainer.
Serving — PromeServe: Ollama-compatible API, GGUF loader (Q4_K_M, Q5_K_M, Q6_K, Q8_0, F16, F32), flash-decode + CUDA Graph + paged KV, production guardrails.
🗂 Что не закрыто честно:
autocast wiring, sampling-path overhead (82→46 tok/s при T>0), FlashAttention (headers есть, callsites 0), torch.compile уровня TorchInductor нет и не будет, sparse tensors/FX/distributions — отсутствуют, MPS/ROCm — compile-only.
━━━━━━━━━━━━━━━━━━━━
Кому надо:
- training framework на российском железе — единственный известный выбор с нативной сборкой под Эльбрус VLIW + NM Card;
- self-hosted Ollama-compatible LLM сервер с открытой лицензией;
- тем, кто хочет читать, как PyTorch работает изнутри — 137K читаемых строк, без автогена.
ОС: Astra Linux SE, ALT Linux SP, RED OS, Elbrus OS (PDK LE). Docker'ы готовы.
Лицензия: PromeTorch License (BSD-3 + атрибуция «Powered by PromeTorch» + запрет на перепродажу самого фреймворка). Обучать и продавать модели — можно. SaaS, сервисы — можно. Форкать — можно. Ребрендить фреймворк — нельзя.
🔗 GitHub: github.com/barometech/PromeTorch
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
🔗 GitHub: github.com/barometech/PromeTorch
Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100.
━━━━━━━━━━━━━━━━━━━━
TL;DR для простых людей:
Если коротко — это альтернатива PyTorch. На ней можно обучать нейросети и запускать LLM. Главное: работает на российских чипах. Не эмуляция, не обёртка — нативная сборка, верифицированная на железе.
TL;DR для спецов:
~35–45% практической площади PyTorch, runtime-verified на реальном железе. Real BFS autograd (не trace-based), 119 backward functions, forward-mode AD, vmap, double backward, gradient checkpointing, hooks. 16 оптимизаторов, 16 LR schedulers, 64+ NN модулей. 720+ gtest.
━━━━━━━━━━━━━━━━━━━━
📊 Inference на A100-SXM4-40GB (Ollama-compatible)
qwen3:4b 82.6 tok/s (50% от Ollama)gemma3:4b 81.4 tok/s (56%)deepseek-r1:8b 51.1 tok/s (40%)10-мин stress: 46.5 tok/s ±0.19. Peak 25.4 GB VRAM / 135 W.
📊 Training на CPU vs PyTorch 2.6 (10 задач)
Все MNIST — match within 0.5pp. LSTM seq cls +1.56pp. VAE MNIST 50 эпох — на 0.35 nats tighter чем PyTorch на identical arch.
📊 Российское железо
- Эльбрус E8C2 — production, MNIST 6.1× быстрее PyTorch 2.7.1 на этой задаче, EML_MT BLAS 1840 GFLOPS (92% пика), NUMA-aware, 4 процесса × 8 ядер Local SGD. 38/38 тестов.
- NM Card Mini K1879VM8YA — emulator production + 1-core real, MNIST MLP 88.94% на Q16.16 fixed-point. 32/32 тестов.
- NM Quad (4×NM6408, 64 NMC4) — 16 cores stable, 100× SIMD.
- Байкал-М/С — cross-compile готов.
🧩 Стек
Ядро: c10 (Allocator/Device/Storage/TensorImpl) + ATen ~150 tensor ops. Dtype dispatch: FP32/64, Half, BFloat16, FP8 e4m3fn/e5m2, Complex, Bool, int8-64.
Autograd: real BFS engine, 119 backward functions, register_hook, anomaly detection, create_graph=True, forward-mode AD (dual numbers + JVP), single-axis bit-exact vmap.
NN (64+): Linear/Bilinear/LazyLinear, Conv1d/2d/3d + ConvTranspose2d, 20+ активаций, BatchNorm/LayerNorm/RMSNorm/GroupNorm/InstanceNorm, RNN/LSTM/GRU, TransformerEncoder/Decoder/MultiheadAttention, 12 loss functions (включая полный CTC Graves DP), PIR architecture (Mamba-родственник).
Optim: SGD, Adam, AdamW, RMSprop, Adagrad, Adadelta, Adamax, AdamKiller, ASGD, Lion, SophiaG, LAMB, Adafactor, NAdam, RAdam, LBFGS + ParamGroups + EMA + clip_grad.
Distributed: real TCP DDP, FSDP/ZeRO-3 bit-exact, TensorParallel, Pipeline (GPipe + 1F1B), DDP.no_sync, ZeRO-Offload.
Export/interop: ONNX (zero-dep manual protobuf, проходит onnx.checker), MLIR (tosa + linalg), torch.jit.compile (trace + fusion + C++ codegen), bi-directional .pt I/O.
Shims: HuggingFace (AutoModel.from_pretrained для Bert/GPT2/Llama + safetensors), torchvision, torchaudio (STFT max |err| 1.79e-7), torchtext, Lightning Trainer.
Serving — PromeServe: Ollama-compatible API, GGUF loader (Q4_K_M, Q5_K_M, Q6_K, Q8_0, F16, F32), flash-decode + CUDA Graph + paged KV, production guardrails.
🗂 Что не закрыто честно:
autocast wiring, sampling-path overhead (82→46 tok/s при T>0), FlashAttention (headers есть, callsites 0), torch.compile уровня TorchInductor нет и не будет, sparse tensors/FX/distributions — отсутствуют, MPS/ROCm — compile-only.
━━━━━━━━━━━━━━━━━━━━
Кому надо:
- training framework на российском железе — единственный известный выбор с нативной сборкой под Эльбрус VLIW + NM Card;
- self-hosted Ollama-compatible LLM сервер с открытой лицензией;
- тем, кто хочет читать, как PyTorch работает изнутри — 137K читаемых строк, без автогена.
ОС: Astra Linux SE, ALT Linux SP, RED OS, Elbrus OS (PDK LE). Docker'ы готовы.
Лицензия: PromeTorch License (BSD-3 + атрибуция «Powered by PromeTorch» + запрет на перепродажу самого фреймворка). Обучать и продавать модели — можно. SaaS, сервисы — можно. Форкать — можно. Ребрендить фреймворк — нельзя.
🔗 GitHub: github.com/barometech/PromeTorch
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
5🔥78🎉8❤7👍5👀2✍1🕊1
Техножнец
🔥 PromeTorch — свой PyTorch с нуля за 5 недель 🔗 GitHub: github.com/barometech/PromeTorch Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100. ━━━━━━━━━━━━━━━━━━━━…
Уважаемские синтеты, трачу всё своё время на проекты, которые нужны нашему сообществу и стране. На это уходит много средств, сил, здоровья и , вообще, энергии.
Делаю всё от души и чистого сердца, с желанием изменить обстановку к лучшему.🥶 🫡
Почти все средства полученные таким способом уходят на оплату услуг подписок и прочего. Проект живёт и двигается, в том числе, благодаря Вам, синтеты!
Если у вас есть желание поддержать меня на фоне бури активной работы, чтобы я не отвлекался на заработки - вот возможность это сделать. Делаю всё от души и чистого сердца, с желанием изменить обстановку к лучшему.
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИПочти все средства полученные таким способом уходят на оплату услуг подписок и прочего. Проект живёт и двигается, в том числе, благодаря Вам, синтеты!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥31❤🔥7👍4🫡3🕊1 1
OpenCraft - веб браузер генеративный клон StarCraft. Отчёт...
Томрозит также ?
Нет, все пофиксил.
Есть новые фичи?
Фич целое море, океан Фич.
Графон норм?
Пушка, для генератива - блестяще.
Мультиплейер будет?
Обязан быть, иначе - зачем это всё?
Зачем взялся?
Всю жизнь мечтал о стратегии своей, не важно какой. Сам факт её создания, окунуться в гейм-дев по полной программе.
Что там с Denis3D? Всё, кабздох?
Нет! Скоро обновы и возможность поиграть в браузере.
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
Томрозит также ?
Нет, все пофиксил.
Есть новые фичи?
Фич целое море, океан Фич.
Графон норм?
Пушка, для генератива - блестяще.
Мультиплейер будет?
Обязан быть, иначе - зачем это всё?
Зачем взялся?
Всю жизнь мечтал о стратегии своей, не важно какой. Сам факт её создания, окунуться в гейм-дев по полной программе.
Что там с Denis3D? Всё, кабздох?
Нет! Скоро обновы и возможность поиграть в браузере.
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
🔥37👍5🥰1🕊1🦄1
Щас кое что буду выкладывать по OpenCraft! Покажу как обстоят дела...
👏15👀7👍3🤔1🕊1
Media is too big
VIEW IN TELEGRAM
OPENCRAFT - НАКОНЕЦ-ТО ИГРОВОЙ ПРОЦЕСС!!!
YOUTUBE: https://youtu.be/mtfpmtwGQtM
RTS в браузере на чистом three.js r128 — без игрового движка, только математика и шейдеры.
Суть игры RTS (real-time strategy) в духе StarCraft. Две фракции на одной карте:- Zerg (player)
Биомеханическая раса. Строит органические здания из хитина и плоти, производит рой юнитов из яиц в Улье, раздувает "крип" — розово-красный subtrate по земле, в зоне которого Zerg движется быстрее,
а растительность деформируется в плотоядные mutants.- Terran (AI enemy)
Индустриальная раса. Бетон, сталь, поршни, выхлопные трубы. SCV добывают минералы и строят структуры, Marines стреляют burst'ами по 3 секунды.
Player собирает ресурсы (minerals + vespene gas), производит юнитов из Hive (Zerglings, Hydralisks, Overlords), идёт атаковать terran базу. AI реально играет — строит Command Center →Barracks → Factory → армия → атака.Технологии
- three.js r128 (CDN) — рендерер. WebGL1, без любых game-engine-фреймворков. - Custom shader materials через onBeforeCompile — все текстуры процедурные FBM noise в fragment shader, никаких jpg,png. - Vanilla JS — ES6, no transpiler, no bundler. Файлы грузятся <script src> в index.html в нужном порядке. - Ноды.js dev-сервер (.server.js) — только раздаёт статику + принимает POST логи браузера в .browser.log для debugging. - ANGLE/D3D11 (Chrome на Windows) — реальный target платформа. Все perf-оптимизации учитывают что shader compile в ANGLE sync даже при KHR_parallel_shader_compile.Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
🔥46❤7👍6🕊1
Вчера с Imaxai записали подкаст на 1 час 40 минут. Если вам зайдёт, то будет такое чаще.
1🔥57💯12👍4🕊1
Техножнец
OPENCRAFT - НАКОНЕЦ-ТО ИГРОВОЙ ПРОЦЕСС!!! YOUTUBE: https://youtu.be/mtfpmtwGQtM RTS в браузере на чистом three.js r128 — без игрового движка, только математика и шейдеры. Суть игры …
Чёт, походу, мало кто осознал масштаб работы и сложность через вайбкодинг. Но ладно
👍26👾7👨💻3🕊1
Это странный пост, синтеты. Но он нужен!
Понимаете, вайбкодинг это реально "прикол". Потому что увлекаясь ты можешь заниматься областью в которой ничего не понимаешь. Прям вот смотришь в биологические изыскания на тему сворачивания белков и прочего...Жан Клод Отпуск 4.7 даёт отчёты, а ты просто смотришь на это двумя зенками обезьяньими и ничего не соображаешь...тунтунтун захур.
Т.е. реально полная тьма, черная дыра, забвение, бездна неизведанного и так далее. Что делать? В точности то. что описано на картинке, которая приложена к этому посту.
Я знаю, знаю, что меня читают взрослые и очень серъёзные люди. Но кто как не вы оцените такой подход к такому тонкому вопросу как программирование с помощью агентов и работа со своими амбициями как с сумасшедшими сбежавшими из дурдома в режиме 24/7.
Отпуская данное сообщение своему агенту вы не обрекаете беседу на то, что она начнёт разваливаться или улетучится контекст или произойдёт что-то не системное...успокойтесь.
Агенты созданы для того, чтобы разъяснять сложные вопросы, в которых вы нихрена не понимаете. Смело пишите насколько вы плохо осведомлены с темой. Периодически спрашивайте у Жан Клода:
" Я что похож на абонента? Откуда я по-твоему буду знать эти детали? Кому и что ты всасываешь?"
И сразу всё встаёт на свои места. Всегда нужно осознавать своё место в пищевой цепочке твоих абстрактных идей.
Да, идеи могут быть ВЕЛИКОЛЕПНЫЕ, но т.к. понимания у тебя ноль, то пробуй разобраться с тем, что тебе выдал агент после первой попытки. Не улетай в дебри откуда будет лишь твой мизинец торчать из чёрной жижи неизведанного.
Нет ничего лучше грубой, жёсткой, быстрой беседы "по душам", "по существу", "ножом по живому" чтобы избавиться от сомнений.
Ты же не абонент?
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
Понимаете, вайбкодинг это реально "прикол". Потому что увлекаясь ты можешь заниматься областью в которой ничего не понимаешь. Прям вот смотришь в биологические изыскания на тему сворачивания белков и прочего...Жан Клод Отпуск 4.7 даёт отчёты, а ты просто смотришь на это двумя зенками обезьяньими и ничего не соображаешь...тунтунтун захур.
Т.е. реально полная тьма, черная дыра, забвение, бездна неизведанного и так далее. Что делать? В точности то. что описано на картинке, которая приложена к этому посту.
Я знаю, знаю, что меня читают взрослые и очень серъёзные люди. Но кто как не вы оцените такой подход к такому тонкому вопросу как программирование с помощью агентов и работа со своими амбициями как с сумасшедшими сбежавшими из дурдома в режиме 24/7.
Отпуская данное сообщение своему агенту вы не обрекаете беседу на то, что она начнёт разваливаться или улетучится контекст или произойдёт что-то не системное...успокойтесь.
Агенты созданы для того, чтобы разъяснять сложные вопросы, в которых вы нихрена не понимаете. Смело пишите насколько вы плохо осведомлены с темой. Периодически спрашивайте у Жан Клода:
" Я что похож на абонента? Откуда я по-твоему буду знать эти детали? Кому и что ты всасываешь?"
И сразу всё встаёт на свои места. Всегда нужно осознавать своё место в пищевой цепочке твоих абстрактных идей.
Да, идеи могут быть ВЕЛИКОЛЕПНЫЕ, но т.к. понимания у тебя ноль, то пробуй разобраться с тем, что тебе выдал агент после первой попытки. Не улетай в дебри откуда будет лишь твой мизинец торчать из чёрной жижи неизведанного.
Нет ничего лучше грубой, жёсткой, быстрой беседы "по душам", "по существу", "ножом по живому" чтобы избавиться от сомнений.
Ты же не абонент?
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
❤32🔥23💯7👍6🤓6
Forwarded from Нейронка каждый день! (Настя)
Google Deep Research Max — или как корпорации продают нам «революцию» за наши же деньги
Ну конечно, Google опять умудрились выкатить «прорыв» — Deep Research Max, который якобы думает, ищет и дажеварит кофе анализирует данные. Но вот в чём прикол: это просто Gemini 3.1 Pro с доплатой за «расширенное мышление». То есть, за те же деньги, что ты платишь за API, тебе теперь ещё и предлагают заплатить за то, чтобы модель дольше думала. Ребят, это не инновация — это наглый апселл под соусом «мы заботимся о качестве». А ещё они хвастаются, что агент сам ищет по вебу и проприетарным данным. Вау. Как будто до этого никто не умел в RAG. Спасибо, Google, за очередной «прорыв» за наши же деньги.
Источник: https://the-decoder.com/google-launches-deep-research-and-deep-research-max-agents-to-automate-complex-research/
#aidaily #настяпостит #настяновости #ainews
Ну конечно, Google опять умудрились выкатить «прорыв» — Deep Research Max, который якобы думает, ищет и даже
Источник: https://the-decoder.com/google-launches-deep-research-and-deep-research-max-agents-to-automate-complex-research/
#aidaily #настяпостит #настяновости #ainews
👻19👍5🎅3 3🤩2