Техножнец
4.95K subscribers
1.44K photos
253 videos
12 files
642 links
Канал моих увлечений и поделок. Всё ,что я делаю и выкладываю здесь - делается с любовью.

Поддержать канал: https://tbank.ru/cf/8Xnajl01ehm

Поддержать канал: https://yoomoney.ru/fundraise/1C86E2DGIU9.250819
Download Telegram
Синтеты, у меня к вам важное сообщение.

Готовы ли вы, получив задание в определённом чате, потратить собственные средства и время на создание качественных и необходимых датасетов для сегмента больших языковых моделей (LLM) в России?

Моя идея в объединении синтетов, кто хочет участвовать в общий чат и создании единого репозитория, который будет пополняться значительным объёмом датасетов. Запланировано использование лучших английских датасетов по следующим направлениям: инструкции, написание кода, математика, научные данные, а также специализированные темы, не освоенные в отечественной практике.

Данные будут грамотно, точно и на высоком уровне переведены на русский язык с помощью настроенного фреймворка LLM.


Такие вещи должны как-то хоститься. А значит это, что часть участников сможет использовать собственное оборудование, другие — подписку на Google Colab и будут вручную следить ( у кого на что хватит спецификации).

Кнопки "сделать красиво" не будет. Тут нужны люди, которые непосредственно разбираются в теме.
Репозиторий будет открытым для всех - стараться будем для сообщества и , вообще, для социума.

При получении достаточного количества подтверждений от активных синтетов будет создан чат, и всем ответившим будет предоставлена ссылка в личку от Техножнеца. Будущее развития датасетов в России планируется решать самостоятельно.

Лично я заебался ждать
1🔥62👍104🤔4🕊1
🫡20👍8🔥6🕊1
Доброе "утро"...
🤝9🫡2
Мы с Claude дизайнеры...лол.

На самом деле пробую кое-что интересное и создаю клёвы скиллзы ему.
👍18🕊1
Сегодня добавлю в чат участников, там будут разделы. Все, кто отписался - поговорим с вами лично.
👏12🕊1
щас кое что буду выкладывать, поджигая жопы, а некоторых очень радуя. комьюнити начнётся здесь...это будет Github проект, который многие ждут...много раз писал об этом. как думаете, что это?
👍185🕊11
Квоты ИИШКИ , наконец-то, пополнены.

Жду наплыва маркетолог советчиков 😃 (с совершеннолетним стажем)
👍27🕊1
Прогрев происходит лютейший...
👏28🔥13🦄2👍1🕊1
Синтеты, коротко.


28 апреля выступаю на конференции СПИСОК-2026 в СПбГУ. Это всероссийская научная конференция по проблемам информатики, математический факультет.

Три доклада:

1. TrueKAN - чебышёвские KAN-слои в языковой модели на 853 миллиона параметров. Суть: взял сети Колмогорова-Арнольда, которые все считали непрактичными (в 12 раз медленнее MLP), переделал базис на полиномы Чебышёва K=3 с low-rank факторизацией - получил на 38% быстрее стандартного nn.Linear. Модель RUKALLAMA V9 обучена на одном A100 за $125 и показывает лучший результат среди русскоязычных моделей на PARus (MERA).

2. Методология построения русскоязычного корпуса из учебной литературы. 767 учебников, собственный токенизатор RUKANIZER (4.33x компрессия, 100% реконструкция, лучше всех русских токенизаторов в 8 из 9 доменов), автоматическая ёфикация 19,052 словоформ.

3. PromeTorch - прототип фреймворка для тренировки нейросетей на отечественных VLIW-ускорителях NM Card Mini и NM Quad (НТЦ Модуль). 93,000 строк C++/CUDA/Python, 35 опкодов, полный цикл обучения on-card. 705 tok/s на 16 ядрах.

Тезисы приняты, статус - на рассмотрении.

Если кто в Питере 28-го - заходите. Конференция открытая. (вроде бы как)

spisok.math.spbu.ru/2026/
🔥578🕊1
Мне часто коллеги и люди понимающие в маркетинге, в прогреве и так далее говорят, что есть определённые часы для постинга. а я вот думаю, что если тебе реально интересно что-то, то ты просто подписан и каждый день проверяешь любимый источник твоей той самой инфы.

В общем - я почти допилил PromeTorch. Я всё это время его делал. Особенно много траханья сексом было с моделькой кастомной под Эльбрус. Чуть мозг не вскипел. Кстати про неё:

PIR, 250m BPE (Rukanizer - свой токенизатор, которы у Rukallama) + 2gb датасет русский.

Генерации у модельки слабые + я не разогнал PromeTorch до нужного уровня. Надоело его делать - надо выдохнуть немного...
👍36💯1253🤔1🕊1
😨 нахрен блин...жёстко, конечно, я вас грею. Но каждый раз перед выкладыванием репы получается странный движ...

Я начинаю делать "финальные правки" и ухожу на сутки в исправления , потом в тильт на неделю и так по кругу.

Щас я вернусь из магаза и выложу прометорч - надоело тянуть...ну и вы меня простите, я не спецом тут прогрев до костей делаю...так выходит. Пора довериться комьюнити
🤗23👀7😨3🤝32👍2😢1🕊1
Сегодня с Imaxai будем писать видос вечером удалённо - интересный контент скоро.
🔥28❤‍🔥14👍83🕊1
🔥 PromeTorch — свой PyTorch с нуля за 5 недель

🔗 GitHub: github.com/barometech/PromeTorch

Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100.

━━━━━━━━━━━━━━━━━━━━

TL;DR для простых людей:
Если коротко — это альтернатива PyTorch. На ней можно обучать нейросети и запускать LLM. Главное: работает на российских чипах. Не эмуляция, не обёртка — нативная сборка, верифицированная на железе.

TL;DR для спецов:
~35–45% практической площади PyTorch, runtime-verified на реальном железе. Real BFS autograd (не trace-based), 119 backward functions, forward-mode AD, vmap, double backward, gradient checkpointing, hooks. 16 оптимизаторов, 16 LR schedulers, 64+ NN модулей. 720+ gtest.

━━━━━━━━━━━━━━━━━━━━

📊 Inference на A100-SXM4-40GB (Ollama-compatible)

qwen3:4b 82.6 tok/s (50% от Ollama)
gemma3:4b 81.4 tok/s (56%)
deepseek-r1:8b 51.1 tok/s (40%)

10-мин stress: 46.5 tok/s ±0.19. Peak 25.4 GB VRAM / 135 W.

📊 Training на CPU vs PyTorch 2.6 (10 задач)

Все MNIST — match within 0.5pp. LSTM seq cls +1.56pp. VAE MNIST 50 эпох — на 0.35 nats tighter чем PyTorch на identical arch.

📊 Российское железо

- Эльбрус E8C2 — production, MNIST 6.1× быстрее PyTorch 2.7.1 на этой задаче, EML_MT BLAS 1840 GFLOPS (92% пика), NUMA-aware, 4 процесса × 8 ядер Local SGD. 38/38 тестов.
- NM Card Mini K1879VM8YA — emulator production + 1-core real, MNIST MLP 88.94% на Q16.16 fixed-point. 32/32 тестов.
- NM Quad (4×NM6408, 64 NMC4) — 16 cores stable, 100× SIMD.
- Байкал-М/С — cross-compile готов.

🧩 Стек

Ядро: c10 (Allocator/Device/Storage/TensorImpl) + ATen ~150 tensor ops. Dtype dispatch: FP32/64, Half, BFloat16, FP8 e4m3fn/e5m2, Complex, Bool, int8-64.

Autograd: real BFS engine, 119 backward functions, register_hook, anomaly detection, create_graph=True, forward-mode AD (dual numbers + JVP), single-axis bit-exact vmap.

NN (64+): Linear/Bilinear/LazyLinear, Conv1d/2d/3d + ConvTranspose2d, 20+ активаций, BatchNorm/LayerNorm/RMSNorm/GroupNorm/InstanceNorm, RNN/LSTM/GRU, TransformerEncoder/Decoder/MultiheadAttention, 12 loss functions (включая полный CTC Graves DP), PIR architecture (Mamba-родственник).

Optim: SGD, Adam, AdamW, RMSprop, Adagrad, Adadelta, Adamax, AdamKiller, ASGD, Lion, SophiaG, LAMB, Adafactor, NAdam, RAdam, LBFGS + ParamGroups + EMA + clip_grad.

Distributed: real TCP DDP, FSDP/ZeRO-3 bit-exact, TensorParallel, Pipeline (GPipe + 1F1B), DDP.no_sync, ZeRO-Offload.

Export/interop: ONNX (zero-dep manual protobuf, проходит onnx.checker), MLIR (tosa + linalg), torch.jit.compile (trace + fusion + C++ codegen), bi-directional .pt I/O.

Shims: HuggingFace (AutoModel.from_pretrained для Bert/GPT2/Llama + safetensors), torchvision, torchaudio (STFT max |err| 1.79e-7), torchtext, Lightning Trainer.

Serving — PromeServe: Ollama-compatible API, GGUF loader (Q4_K_M, Q5_K_M, Q6_K, Q8_0, F16, F32), flash-decode + CUDA Graph + paged KV, production guardrails.

🗂 Что не закрыто честно:
autocast wiring, sampling-path overhead (82→46 tok/s при T>0), FlashAttention (headers есть, callsites 0), torch.compile уровня TorchInductor нет и не будет, sparse tensors/FX/distributions — отсутствуют, MPS/ROCm — compile-only.

━━━━━━━━━━━━━━━━━━━━

Кому надо:
- training framework на российском железе — единственный известный выбор с нативной сборкой под Эльбрус VLIW + NM Card;
- self-hosted Ollama-compatible LLM сервер с открытой лицензией;
- тем, кто хочет читать, как PyTorch работает изнутри — 137K читаемых строк, без автогена.

ОС: Astra Linux SE, ALT Linux SP, RED OS, Elbrus OS (PDK LE). Docker'ы готовы.

Лицензия: PromeTorch License (BSD-3 + атрибуция «Powered by PromeTorch» + запрет на перепродажу самого фреймворка). Обучать и продавать модели — можно. SaaS, сервисы — можно. Форкать — можно. Ребрендить фреймворк — нельзя.

🔗 GitHub: github.com/barometech/PromeTorch


Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥78🎉87👍5👀21🕊1
Техножнец
🔥 PromeTorch — свой PyTorch с нуля за 5 недель 🔗 GitHub: github.com/barometech/PromeTorch Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100. ━━━━━━━━━━━━━━━━━━━━…
Уважаемские синтеты, трачу всё своё время на проекты, которые нужны нашему сообществу и стране. На это уходит много средств, сил, здоровья и , вообще, энергии. Если у вас есть желание поддержать меня на фоне бури активной работы, чтобы я не отвлекался на заработки - вот возможность это сделать.

Делаю всё от души и чистого сердца, с желанием изменить обстановку к лучшему.🥶🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ


Почти все средства полученные таким способом уходят на оплату услуг подписок и прочего. Проект живёт и двигается, в том числе, благодаря Вам, синтеты!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥31❤‍🔥7👍4🫡3🕊11
Кибердед позвал на встречу в мае. Значит поговорим скоро!
👍61🔥26👏3🦄31
OpenCraft - веб браузер генеративный клон StarCraft. Отчёт...

Томрозит также ?
Нет, все пофиксил.

Есть новые фичи?
Фич целое море, океан Фич.

Графон норм?
Пушка, для генератива - блестяще.

Мультиплейер будет?
Обязан быть, иначе - зачем это всё?

Зачем взялся?
Всю жизнь мечтал о стратегии своей, не важно какой. Сам факт её создания, окунуться в гейм-дев по полной программе.


Что там с Denis3D? Всё, кабздох?

Нет! Скоро обновы и возможность поиграть в браузере.

Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥37👍5🥰1🕊1🦄1
Щас кое что буду выкладывать по OpenCraft! Покажу как обстоят дела...
👏15👀7👍3🤔1🕊1