Техножнец
4.92K subscribers
1.44K photos
253 videos
12 files
642 links
Канал моих увлечений и поделок. Всё ,что я делаю и выкладываю здесь - делается с любовью.

Поддержать канал: https://tbank.ru/cf/8Xnajl01ehm

Поддержать канал: https://yoomoney.ru/fundraise/1C86E2DGIU9.250819
Download Telegram
👏14👍5🔥5🕊2
Блин, решил прилечь отдохнуть из-за самочувствия странного, в итоге минус день. Круто! Че теперь делать...вот так всегда - встаёшь пораньше, потом посреди дня срубает. Ложишься попозже - встаешь поздно. Золотая середина раз в 700 лет.

Ок. Буду попадать как ниточкой в иголочку.

Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥192🫡2🕊1
Щас буду жопы порывать потихонечку...
🔥12👍3🕊2
Я доделал бикамеральные нейроны с умножение, вычитанием, разными операциями математическими. Получился целый мат каскад нейронный из нейронов Поповича! Щас будет пост с данными.
👍28👏4🕊2
Пока что запосчу вот это. Это параллельный проект, который я тоже оформляю в рамках расширения сознания и навыков.

Это приключения гопника в подвале хрущёвки. Лор таков: Главный герой спрятал заначку в подвале, вернулся туда забрать её, а там кучу упырей шныряют и чето хотят от него.

Нужны навыки: харизма, сила, ловкость, скрытность. Их можно прокачивать. Есть бои обычные в коридорах пошаговые, а есть вот такие вот режимы.

Всё дорабатывается - уже играть весело.
Диалоги - умора.
🔥24🤓9👏3🤯3🕊1
Forwarded from Техножнец
Media is too big
VIEW IN TELEGRAM
Добавлен потолок + "освещение".
Мне помогут с ассетами - bsyho всегда выручит. Буду делать редактор карт + норм "освещение".

Это не 3D. Это 2,5D, который я хотел воплотить именно как у Джона Кармака чтобы был графор такой вот старый добрый. Мне осталось многое проработать в плане механик, но на данный момент важнее согласовать "Редактор Уровней" и добавить в высоту больше итераций типа несколько этажей или произвольную высоту потолков, что поможет очень в уровне строении.
🔥15👍62🕊2❤‍🔥1
Forwarded from Техножнец
Media is too big
VIEW IN TELEGRAM
вот и частицы приехали.
работа над ними тот ещё интересный финт. Но мне нравится....

пока что не понимаю как зафейкать декали, но это отдельный вопрос - я его решу. пока не понятно каким образом красиво это делать. но уже очень перспективное применение частиц как в первом квейке чтобы делать и молнии и разное оружие - типа рейлгана.
1🔥20❤‍🔥2👍2🕊1
Синтеты, я знаю, что вы тут и читаете. Рассказывайте срочно: Как дела? Давно не общались.
2🕊9
Э, фшиииииииию....падайди суда!
👍8🕊2🐳22
🧮 Малопараметричный нейрокалькулятор с NL-вводом и трансцендентными функциями — 60K параметров

Пять гомогенных бикамеральных рекуррентных блоков (нейрон Поповича), единая архитектура, разные веса. Нейрон-оркестратор парсит выражение на естественном языке (ru+en), вызывает функциональный блок, получает результат обратно, продолжает композицию. Пайплайн нейронный end-to-end — без символического бэкенда и без tool-use.

Масштаб:
- 60 523 параметра суммарно
- CPU inference, чистый NumPy, без GPU и DL-фреймворков
- Блоки: оркестратор 5 684, калькулятор 4 916, ln 16 641, sin 16 641, sqrt 16 641

Результаты:
- End-to-end: 15/16 (fail — двузначное вычитание 99-37)
- NL-нормализация ru+en: 16/17 — распознаются «plus/times/×/÷/корень из/синус/calculate/посчитай» и пр.
- Digit-by-digit арифметика: 99.999% на 10⁷ позиций сложения
- MAE на рабочем диапазоне: ln 0.006, sin 0.004, sqrt 0.003
- Композиция: sqrt(9)+2=5, sqrt(4)*3=6 — оркестратор передаёт результат в арифметический блок

Позиционирование:
- Neural GPU (Kaiser/Sutskever 2016) — бинарная арифметика, без NL, без трансцендентов.
- NALU/NAU/NMU (2018-2022) — дифф. арифметические юниты, скалярный ввод, без NL, без трансцендентов, нестабильность обучения.
- Teaching Arithmetic (Lee et al. 2024) — ближайший аналог: sin+sqrt+арифметика нейронно. Но 10.6M параметров, трансформер, без NL-ввода.
- Abacus (McLeish et al. 2024) — трансформер 12-122M, сложение до 100 цифр, 28K GPU-ч, без трансцендентов.
- LLM + tool-use / neuro-symbolic — другой класс (внешний вызов или символ. бэкенд); прямое сравнение неинформативно.

Заявлено аккуратно: комбинацию (NL + digit-by-digit + трансценденты + единая гомогенная архитектура + <100K параметров + без tool-use и без символ. бэкенда) в известной мне литературе не встречал. Систематический обзор не проводил — буду признателен за ссылки, если упустил.


Ограничения: малая тестовая выборка, нужен более строгий бенчмарк, latency vs SymPy/mpmath не измерялся.

Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍22🔥84😱3🤯1🕊1
● Monitor event: "Million-scale calculator"

● 299/300! Оркестратор почти идеален. Жду финальный тест.
🔥13👍5🕊22🤔1
Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Привет, синтеты.

RUKALLAMA V11 - тренируется. Ответы буду показывать попозже. Она идёт здраво, не залипает на головах как раньше, всё ок. Старые симптомы не вернулись, новых не появилось. Ну...только если один моментик был, но я так очень мягкую штрафную санкцию инициировал и удалось стабилизировать намёки на расшатывание голов в сторону залипания на токен 0. Сейчас всё в штатном режиме. 9к токенов в секунду обучение на А100. 853 млн параметров.

По поводу всех процессов держу в курсах.

Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍6🕊1
Техножнец
Привет, синтеты. RUKALLAMA V11 - тренируется. Ответы буду показывать попозже. Она идёт здраво, не залипает на головах как раньше, всё ок. Старые симптомы не вернулись, новых не появилось. Ну...только если один моментик был, но я так очень мягкую штрафную…
Касаемо повторений модели. На pretrain стадии избавиться от повторов невозможно. Но я подсмотрел ещё разных техник на этапе fine-tune (SFT) и про прочие этапы. Всё будет хорошо! Я очень углубился в модели и их архитектуры.

И ! Отличная новость: Мой товарищ с которым мы каждый день на связи, наконец-то, погрузился в нейронные архитектуры и уже делает успехи на поприще нивелирования обратной пропагации - это просто ЧУМА! Наконец-то, есть человек в близком окружении, кто будет понимать о чём я говорю ❤️

Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍338🕊1
Тот пост про сбор группы для создания датасетов - он актуален. Мне нужно время выделить чтобы составить правильные инструкции. Подождите, пожалуйста! Пост никуда не денется, все, кто под ним отписались - приняты будут.

https://t.me/technojnec/3719 - этот пост!

Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡

Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
Please open Telegram to view this post
VIEW IN TELEGRAM
👏10👌83🔥3🕊1