Павел заявлял, что самостоятельно написал компилятор и дополнительные математические модули для запуска языковой модели на 1 миллиард параметров.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥21👍15🎉8🤗2⚡1🔥1
Forwarded from СЭРПАС
Соревнование «СипросПро 2026»
Друзья, последние несколько месяцев мы вместе с коллегами из СПбГУ готовили для вас то, что мы все так любим:
Соревнование по программированию «СипросПро 2026», проводимое кафедрой системного программирования СПбГУ в рамках конференции «СПИСОК‑2026».
Формат проведения: удалённый (онлайн).
Даты проведения: с 10 по 30 апреля 2026 года.
Цель: написать 8 программ для DSP‑ускорителя NM Quad.
Критерий победы: побеждает тот, чьи программы наиболее эффективны в вычислениях (скорость выполнения).
Регистрируйтесь и участвуйте! Ждём вас: https://nmq2026.ppctf.ru/
P. S. Помимо традиционных дипломов и признания в академической среде, победителям готовится более приятный «материальный» приз, но пока без подробностей. 😉
#соревнование #программирование #контест #contest #nmquad #спбгу #список2026
Друзья, последние несколько месяцев мы вместе с коллегами из СПбГУ готовили для вас то, что мы все так любим:
Соревнование по программированию «СипросПро 2026», проводимое кафедрой системного программирования СПбГУ в рамках конференции «СПИСОК‑2026».
Формат проведения: удалённый (онлайн).
Даты проведения: с 10 по 30 апреля 2026 года.
Цель: написать 8 программ для DSP‑ускорителя NM Quad.
Критерий победы: побеждает тот, чьи программы наиболее эффективны в вычислениях (скорость выполнения).
Регистрируйтесь и участвуйте! Ждём вас: https://nmq2026.ppctf.ru/
P. S. Помимо традиционных дипломов и признания в академической среде, победителям готовится более приятный «материальный» приз, но пока без подробностей. 😉
#соревнование #программирование #контест #contest #nmquad #спбгу #список2026
🆒3
Легендарный орбитальный облет Земли на корабле «Восток» длился 108 минут. Так была открыта новая эпоха в истории человечества — эпоха пилотируемой космонавтики.
Ежегодно, в память об этом историческом событии, в России празднуют День космонавтики, а во всем мире — Международный день полета человека в космос🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉12🍾5👍2⚡1👾1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥3🏆3
Media is too big
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3
«Сделано в России» — государственная программа продвижения отечественной продукции под единым национальным брендом.
Подробнее: https://www.module.ru/media/news/nm-quad-obladatel-sertifikata-sdelano-v-rossii
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥6👀2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🔹Изделие обладает более чем 10-ю сценариями работы: от «тихого» спящего режима с низким энергопотреблением, до режима повышенной производительности. Такая вариативность делает микроконтроллер универсальным решением для широкого спектра потребителей.
🔹Optimal+ придет на замену изделиям как западных гигантов микроэлектроники — ST Micro, Texas Instruments, Analog Devices, так и азиатским аналогам: продуктам таких компаний, как Renesas, Vango, GigaDevice и других.
🔹Optimal+ подойдёт для управления кузовной электроникой автомобиля — для управления стеклоподъемниками, боковыми зеркалами, сигнализацией, для регулировки сидений.
🔹Изделие можно будет использовать в охранных и пожарных системах оповещения, а также для создания мультимедийных и телеком-устройств.
🔹Optimal+ сможет управлять промышленным манипулятором, его можно будет использовать в качестве элемента управления и балансировки аккумуляторных батарей.
🔹Микроконтроллер проявит себя в задачах, связанных с метрологией и измерением электрических параметров в приборах учёта. Это могут быть расходомеры на заправочных станциях, системы учета и управления для электрозаправочных станций, счетчики электроэнергии, воды, газа и других ресурсов.
🔹Optimal+ сделает счётчик "умным" - показания будут передаваться по беспроводному каналу связи благодаря поддержке технологии интернета вещей (IoT), а микросхема найдет свое место как в самом «мозге» счетчика, так и в пульте для дистанционного управления и снятия показаний.
🔹Изделие подойдет и для более простых задач: например, для вывода информации на дисплей, управления индустриальными датчиками, обеспечения конечного устройства беспроводной связью с внешними системами.
Микроконтроллер сможет стать основой панели управления медицинскими креслами, кушетками, «умными» протезами и инвалидными колясками.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4
Forwarded from Техножнец
🔥 PromeTorch — свой PyTorch с нуля за 5 недель
🔗 GitHub: github.com/barometech/PromeTorch
Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100.
━━━━━━━━━━━━━━━━━━━━
TL;DR для простых людей:
Если коротко — это альтернатива PyTorch. На ней можно обучать нейросети и запускать LLM. Главное: работает на российских чипах. Не эмуляция, не обёртка — нативная сборка, верифицированная на железе.
TL;DR для спецов:
~35–45% практической площади PyTorch, runtime-verified на реальном железе. Real BFS autograd (не trace-based), 119 backward functions, forward-mode AD, vmap, double backward, gradient checkpointing, hooks. 16 оптимизаторов, 16 LR schedulers, 64+ NN модулей. 720+ gtest.
━━━━━━━━━━━━━━━━━━━━
📊 Inference на A100-SXM4-40GB (Ollama-compatible)
10-мин stress: 46.5 tok/s ±0.19. Peak 25.4 GB VRAM / 135 W.
📊 Training на CPU vs PyTorch 2.6 (10 задач)
Все MNIST — match within 0.5pp. LSTM seq cls +1.56pp. VAE MNIST 50 эпох — на 0.35 nats tighter чем PyTorch на identical arch.
📊 Российское железо
- Эльбрус E8C2 — production, MNIST 6.1× быстрее PyTorch 2.7.1 на этой задаче, EML_MT BLAS 1840 GFLOPS (92% пика), NUMA-aware, 4 процесса × 8 ядер Local SGD. 38/38 тестов.
- NM Card Mini K1879VM8YA — emulator production + 1-core real, MNIST MLP 88.94% на Q16.16 fixed-point. 32/32 тестов.
- NM Quad (4×NM6408, 64 NMC4) — 16 cores stable, 100× SIMD.
- Байкал-М/С — cross-compile готов.
🧩 Стек
Ядро: c10 (Allocator/Device/Storage/TensorImpl) + ATen ~150 tensor ops. Dtype dispatch: FP32/64, Half, BFloat16, FP8 e4m3fn/e5m2, Complex, Bool, int8-64.
Autograd: real BFS engine, 119 backward functions, register_hook, anomaly detection, create_graph=True, forward-mode AD (dual numbers + JVP), single-axis bit-exact vmap.
NN (64+): Linear/Bilinear/LazyLinear, Conv1d/2d/3d + ConvTranspose2d, 20+ активаций, BatchNorm/LayerNorm/RMSNorm/GroupNorm/InstanceNorm, RNN/LSTM/GRU, TransformerEncoder/Decoder/MultiheadAttention, 12 loss functions (включая полный CTC Graves DP), PIR architecture (Mamba-родственник).
Optim: SGD, Adam, AdamW, RMSprop, Adagrad, Adadelta, Adamax, AdamKiller, ASGD, Lion, SophiaG, LAMB, Adafactor, NAdam, RAdam, LBFGS + ParamGroups + EMA + clip_grad.
Distributed: real TCP DDP, FSDP/ZeRO-3 bit-exact, TensorParallel, Pipeline (GPipe + 1F1B), DDP.no_sync, ZeRO-Offload.
Export/interop: ONNX (zero-dep manual protobuf, проходит onnx.checker), MLIR (tosa + linalg), torch.jit.compile (trace + fusion + C++ codegen), bi-directional .pt I/O.
Shims: HuggingFace (AutoModel.from_pretrained для Bert/GPT2/Llama + safetensors), torchvision, torchaudio (STFT max |err| 1.79e-7), torchtext, Lightning Trainer.
Serving — PromeServe: Ollama-compatible API, GGUF loader (Q4_K_M, Q5_K_M, Q6_K, Q8_0, F16, F32), flash-decode + CUDA Graph + paged KV, production guardrails.
🗂 Что не закрыто честно:
autocast wiring, sampling-path overhead (82→46 tok/s при T>0), FlashAttention (headers есть, callsites 0), torch.compile уровня TorchInductor нет и не будет, sparse tensors/FX/distributions — отсутствуют, MPS/ROCm — compile-only.
━━━━━━━━━━━━━━━━━━━━
Кому надо:
- training framework на российском железе — единственный известный выбор с нативной сборкой под Эльбрус VLIW + NM Card;
- self-hosted Ollama-compatible LLM сервер с открытой лицензией;
- тем, кто хочет читать, как PyTorch работает изнутри — 137K читаемых строк, без автогена.
ОС: Astra Linux SE, ALT Linux SP, RED OS, Elbrus OS (PDK LE). Docker'ы готовы.
Лицензия: PromeTorch License (BSD-3 + атрибуция «Powered by PromeTorch» + запрет на перепродажу самого фреймворка). Обучать и продавать модели — можно. SaaS, сервисы — можно. Форкать — можно. Ребрендить фреймворк — нельзя.
🔗 GitHub: github.com/barometech/PromeTorch
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
🔗 GitHub: github.com/barometech/PromeTorch
Один разработчик. Россия. C++17/CUDA. 137 000 строк. Нативно собирается и работает на Эльбрус E8C2 (VLIW), НТЦ Модуль NM Card Mini и NVIDIA A100.
━━━━━━━━━━━━━━━━━━━━
TL;DR для простых людей:
Если коротко — это альтернатива PyTorch. На ней можно обучать нейросети и запускать LLM. Главное: работает на российских чипах. Не эмуляция, не обёртка — нативная сборка, верифицированная на железе.
TL;DR для спецов:
~35–45% практической площади PyTorch, runtime-verified на реальном железе. Real BFS autograd (не trace-based), 119 backward functions, forward-mode AD, vmap, double backward, gradient checkpointing, hooks. 16 оптимизаторов, 16 LR schedulers, 64+ NN модулей. 720+ gtest.
━━━━━━━━━━━━━━━━━━━━
📊 Inference на A100-SXM4-40GB (Ollama-compatible)
qwen3:4b 82.6 tok/s (50% от Ollama)gemma3:4b 81.4 tok/s (56%)deepseek-r1:8b 51.1 tok/s (40%)10-мин stress: 46.5 tok/s ±0.19. Peak 25.4 GB VRAM / 135 W.
📊 Training на CPU vs PyTorch 2.6 (10 задач)
Все MNIST — match within 0.5pp. LSTM seq cls +1.56pp. VAE MNIST 50 эпох — на 0.35 nats tighter чем PyTorch на identical arch.
📊 Российское железо
- Эльбрус E8C2 — production, MNIST 6.1× быстрее PyTorch 2.7.1 на этой задаче, EML_MT BLAS 1840 GFLOPS (92% пика), NUMA-aware, 4 процесса × 8 ядер Local SGD. 38/38 тестов.
- NM Card Mini K1879VM8YA — emulator production + 1-core real, MNIST MLP 88.94% на Q16.16 fixed-point. 32/32 тестов.
- NM Quad (4×NM6408, 64 NMC4) — 16 cores stable, 100× SIMD.
- Байкал-М/С — cross-compile готов.
🧩 Стек
Ядро: c10 (Allocator/Device/Storage/TensorImpl) + ATen ~150 tensor ops. Dtype dispatch: FP32/64, Half, BFloat16, FP8 e4m3fn/e5m2, Complex, Bool, int8-64.
Autograd: real BFS engine, 119 backward functions, register_hook, anomaly detection, create_graph=True, forward-mode AD (dual numbers + JVP), single-axis bit-exact vmap.
NN (64+): Linear/Bilinear/LazyLinear, Conv1d/2d/3d + ConvTranspose2d, 20+ активаций, BatchNorm/LayerNorm/RMSNorm/GroupNorm/InstanceNorm, RNN/LSTM/GRU, TransformerEncoder/Decoder/MultiheadAttention, 12 loss functions (включая полный CTC Graves DP), PIR architecture (Mamba-родственник).
Optim: SGD, Adam, AdamW, RMSprop, Adagrad, Adadelta, Adamax, AdamKiller, ASGD, Lion, SophiaG, LAMB, Adafactor, NAdam, RAdam, LBFGS + ParamGroups + EMA + clip_grad.
Distributed: real TCP DDP, FSDP/ZeRO-3 bit-exact, TensorParallel, Pipeline (GPipe + 1F1B), DDP.no_sync, ZeRO-Offload.
Export/interop: ONNX (zero-dep manual protobuf, проходит onnx.checker), MLIR (tosa + linalg), torch.jit.compile (trace + fusion + C++ codegen), bi-directional .pt I/O.
Shims: HuggingFace (AutoModel.from_pretrained для Bert/GPT2/Llama + safetensors), torchvision, torchaudio (STFT max |err| 1.79e-7), torchtext, Lightning Trainer.
Serving — PromeServe: Ollama-compatible API, GGUF loader (Q4_K_M, Q5_K_M, Q6_K, Q8_0, F16, F32), flash-decode + CUDA Graph + paged KV, production guardrails.
🗂 Что не закрыто честно:
autocast wiring, sampling-path overhead (82→46 tok/s при T>0), FlashAttention (headers есть, callsites 0), torch.compile уровня TorchInductor нет и не будет, sparse tensors/FX/distributions — отсутствуют, MPS/ROCm — compile-only.
━━━━━━━━━━━━━━━━━━━━
Кому надо:
- training framework на российском железе — единственный известный выбор с нативной сборкой под Эльбрус VLIW + NM Card;
- self-hosted Ollama-compatible LLM сервер с открытой лицензией;
- тем, кто хочет читать, как PyTorch работает изнутри — 137K читаемых строк, без автогена.
ОС: Astra Linux SE, ALT Linux SP, RED OS, Elbrus OS (PDK LE). Docker'ы готовы.
Лицензия: PromeTorch License (BSD-3 + атрибуция «Powered by PromeTorch» + запрет на перепродажу самого фреймворка). Обучать и продавать модели — можно. SaaS, сервисы — можно. Форкать — можно. Ребрендить фреймворк — нельзя.
🔗 GitHub: github.com/barometech/PromeTorch
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤3
Forwarded from СЭРПАС
Друзья, 30 апреля завершилось соревнование СипросПро 2026, которое мы помогали провести кафедре системного программирования СПбГУ в рамках конференции СПИСОК‑2026.
Напомним, что в этом году в рамках «СипросПро» программисты со всей России в течение 20 дней соревновались в решении 8 задач на DSP‑ускорителе NM Quad.
Мероприятие получилось достаточно камерным (18 активных участников), однако на остроте борьбы это не сказалось.
В итоге призёрами стали:
1. Шаго Павел, СПбГУ
2. Горбачёв Дмитрий, СибГУТИ
3. Андрей Царегородцев, МИФИ
Поздравляем победителей и ждём всех на Кубке СЭРПАС в сентябре этого года!
#соревнование #программирование #контест #contest #nmquad #спбгу #список2026 #сипроспро #siprospro
Напомним, что в этом году в рамках «СипросПро» программисты со всей России в течение 20 дней соревновались в решении 8 задач на DSP‑ускорителе NM Quad.
Мероприятие получилось достаточно камерным (18 активных участников), однако на остроте борьбы это не сказалось.
В итоге призёрами стали:
1. Шаго Павел, СПбГУ
2. Горбачёв Дмитрий, СибГУТИ
3. Андрей Царегородцев, МИФИ
Поздравляем победителей и ждём всех на Кубке СЭРПАС в сентябре этого года!
#соревнование #программирование #контест #contest #nmquad #спбгу #список2026 #сипроспро #siprospro
❤10👍4👏1
ЦИПР объединяет экспертов из России и зарубежных стран — представителей крупного и среднего бизнеса, государственных структур, научного и стартап-сообщества.
Команда «Модуля» - среди участников.
До встречи в Нижнем!
cipr.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5🔥4
9 мая - День славы и бессмертного подвига тех, кто сражался за свободу нашей Родины.
Низкий поклон и вечная память героям!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14🎉5🙏3🫡1