Техножнец
Почему ты сидишь и терпишь голод, когда кодишь? Представь: ты держишь в голове архитектуру проекта. Переменные, связи, гипотезы, что откуда течёт. Это не "знание" — это карта. Буквально карта. Наука этого не метафора. Те же самые нервные клетки, которыми…
This media is not supported in your browser
VIEW IN TELEGRAM
😎21🕊1
Блин, решил прилечь отдохнуть из-за самочувствия странного, в итоге минус день. Круто! Че теперь делать...вот так всегда - встаёшь пораньше, потом посреди дня срубает. Ложишься попозже - встаешь поздно. Золотая середина раз в 700 лет.
Ок. Буду попадать как ниточкой в иголочку.
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
Ок. Буду попадать как ниточкой в иголочку.
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
🔥19❤2🫡2🕊1
Я доделал бикамеральные нейроны с умножение, вычитанием, разными операциями математическими. Получился целый мат каскад нейронный из нейронов Поповича! Щас будет пост с данными.
👍28👏4🕊2
Пока что запосчу вот это. Это параллельный проект, который я тоже оформляю в рамках расширения сознания и навыков.
Это приключения гопника в подвале хрущёвки. Лор таков: Главный герой спрятал заначку в подвале, вернулся туда забрать её, а там кучу упырей шныряют и чето хотят от него.
Нужны навыки: харизма, сила, ловкость, скрытность. Их можно прокачивать. Есть бои обычные в коридорах пошаговые, а есть вот такие вот режимы.
Всё дорабатывается - уже играть весело.
Диалоги - умора.
Это приключения гопника в подвале хрущёвки. Лор таков: Главный герой спрятал заначку в подвале, вернулся туда забрать её, а там кучу упырей шныряют и чето хотят от него.
Нужны навыки: харизма, сила, ловкость, скрытность. Их можно прокачивать. Есть бои обычные в коридорах пошаговые, а есть вот такие вот режимы.
Всё дорабатывается - уже играть весело.
Диалоги - умора.
🔥24🤓9👏3🤯3🕊1
Forwarded from Техножнец
Media is too big
VIEW IN TELEGRAM
Добавлен потолок + "освещение".
Мне помогут с ассетами - bsyho всегда выручит. Буду делать редактор карт + норм "освещение".
Это не 3D. Это 2,5D, который я хотел воплотить именно как у Джона Кармака чтобы был графор такой вот старый добрый. Мне осталось многое проработать в плане механик, но на данный момент важнее согласовать "Редактор Уровней" и добавить в высоту больше итераций типа несколько этажей или произвольную высоту потолков, что поможет очень в уровне строении.
Мне помогут с ассетами - bsyho всегда выручит. Буду делать редактор карт + норм "освещение".
Это не 3D. Это 2,5D, который я хотел воплотить именно как у Джона Кармака чтобы был графор такой вот старый добрый. Мне осталось многое проработать в плане механик, но на данный момент важнее согласовать "Редактор Уровней" и добавить в высоту больше итераций типа несколько этажей или произвольную высоту потолков, что поможет очень в уровне строении.
🔥15👍6❤2🕊2❤🔥1
Техножнец
Добавлен потолок + "освещение". Мне помогут с ассетами - bsyho всегда выручит. Буду делать редактор карт + норм "освещение". Это не 3D. Это 2,5D, который я хотел воплотить именно как у Джона Кармака чтобы был графор такой вот старый добрый. Мне осталось…
Вот такой ещё проект у меня есть параллельно. Буду допиливать его тоже потихонечку. Ознакомьтесь, пожалуйста.
👍7❤🔥3🔥3🕊1
Forwarded from Техножнец
Media is too big
VIEW IN TELEGRAM
вот и частицы приехали.
работа над ними тот ещё интересный финт. Но мне нравится....
пока что не понимаю как зафейкать декали, но это отдельный вопрос - я его решу. пока не понятно каким образом красиво это делать. но уже очень перспективное применение частиц как в первом квейке чтобы делать и молнии и разное оружие - типа рейлгана.
работа над ними тот ещё интересный финт. Но мне нравится....
пока что не понимаю как зафейкать декали, но это отдельный вопрос - я его решу. пока не понятно каким образом красиво это делать. но уже очень перспективное применение частиц как в первом квейке чтобы делать и молнии и разное оружие - типа рейлгана.
1🔥20❤🔥2👍2🕊1
Синтеты, я знаю, что вы тут и читаете. Рассказывайте срочно: Как дела? Давно не общались.
2🕊9
🧮 Малопараметричный нейрокалькулятор с NL-вводом и трансцендентными функциями — 60K параметров
Пять гомогенных бикамеральных рекуррентных блоков (нейрон Поповича), единая архитектура, разные веса. Нейрон-оркестратор парсит выражение на естественном языке (ru+en), вызывает функциональный блок, получает результат обратно, продолжает композицию. Пайплайн нейронный end-to-end — без символического бэкенда и без tool-use.
Масштаб:
- 60 523 параметра суммарно
- CPU inference, чистый NumPy, без GPU и DL-фреймворков
- Блоки: оркестратор 5 684, калькулятор 4 916, ln 16 641, sin 16 641, sqrt 16 641
Результаты:
- End-to-end: 15/16 (fail — двузначное вычитание 99-37)
- NL-нормализация ru+en: 16/17 — распознаются «plus/times/×/÷/корень из/синус/calculate/посчитай» и пр.
- Digit-by-digit арифметика: 99.999% на 10⁷ позиций сложения
- MAE на рабочем диапазоне: ln 0.006, sin 0.004, sqrt 0.003
- Композиция: sqrt(9)+2=5, sqrt(4)*3=6 — оркестратор передаёт результат в арифметический блок
Позиционирование:
- Neural GPU (Kaiser/Sutskever 2016) — бинарная арифметика, без NL, без трансцендентов.
- NALU/NAU/NMU (2018-2022) — дифф. арифметические юниты, скалярный ввод, без NL, без трансцендентов, нестабильность обучения.
- Teaching Arithmetic (Lee et al. 2024) — ближайший аналог: sin+sqrt+арифметика нейронно. Но 10.6M параметров, трансформер, без NL-ввода.
- Abacus (McLeish et al. 2024) — трансформер 12-122M, сложение до 100 цифр, 28K GPU-ч, без трансцендентов.
- LLM + tool-use / neuro-symbolic — другой класс (внешний вызов или символ. бэкенд); прямое сравнение неинформативно.
Ограничения:
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
Пять гомогенных бикамеральных рекуррентных блоков (нейрон Поповича), единая архитектура, разные веса. Нейрон-оркестратор парсит выражение на естественном языке (ru+en), вызывает функциональный блок, получает результат обратно, продолжает композицию. Пайплайн нейронный end-to-end — без символического бэкенда и без tool-use.
Масштаб:
- 60 523 параметра суммарно
- CPU inference, чистый NumPy, без GPU и DL-фреймворков
- Блоки: оркестратор 5 684, калькулятор 4 916, ln 16 641, sin 16 641, sqrt 16 641
Результаты:
- End-to-end: 15/16 (fail — двузначное вычитание 99-37)
- NL-нормализация ru+en: 16/17 — распознаются «plus/times/×/÷/корень из/синус/calculate/посчитай» и пр.
- Digit-by-digit арифметика: 99.999% на 10⁷ позиций сложения
- MAE на рабочем диапазоне: ln 0.006, sin 0.004, sqrt 0.003
- Композиция: sqrt(9)+2=5, sqrt(4)*3=6 — оркестратор передаёт результат в арифметический блок
Позиционирование:
- Neural GPU (Kaiser/Sutskever 2016) — бинарная арифметика, без NL, без трансцендентов.
- NALU/NAU/NMU (2018-2022) — дифф. арифметические юниты, скалярный ввод, без NL, без трансцендентов, нестабильность обучения.
- Teaching Arithmetic (Lee et al. 2024) — ближайший аналог: sin+sqrt+арифметика нейронно. Но 10.6M параметров, трансформер, без NL-ввода.
- Abacus (McLeish et al. 2024) — трансформер 12-122M, сложение до 100 цифр, 28K GPU-ч, без трансцендентов.
- LLM + tool-use / neuro-symbolic — другой класс (внешний вызов или символ. бэкенд); прямое сравнение неинформативно.
Заявлено аккуратно: комбинацию (NL + digit-by-digit + трансценденты + единая гомогенная архитектура + <100K параметров + без tool-use и без символ. бэкенда) в известной мне литературе не встречал. Систематический обзор не проводил — буду признателен за ссылки, если упустил.
Ограничения:
малая тестовая выборка, нужен более строгий бенчмарк, latency vs SymPy/mpmath не измерялся.Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
2👍22🔥8❤4😱3🤯1🕊1
● Monitor event: "Million-scale calculator"
● 299/300! Оркестратор почти идеален. Жду финальный тест.
● 299/300! Оркестратор почти идеален. Жду финальный тест.
🔥13👍5🕊2 2🤔1
Техножнец
🧮 Малопараметричный нейрокалькулятор с NL-вводом и трансцендентными функциями — 60K параметров Пять гомогенных бикамеральных рекуррентных блоков (нейрон Поповича), единая архитектура, разные веса. Нейрон-оркестратор парсит выражение на естественном языке…
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍5👏1🕊1
Привет, синтеты.
По поводу всех процессов держу в курсах.
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
RUKALLAMA V11 - тренируется. Ответы буду показывать попозже. Она идёт здраво, не залипает на головах как раньше, всё ок. Старые симптомы не вернулись, новых не появилось. Ну...только если один моментик был, но я так очень мягкую штрафную санкцию инициировал и удалось стабилизировать намёки на расшатывание голов в сторону залипания на токен 0. Сейчас всё в штатном режиме. 9к токенов в секунду обучение на А100. 853 млн параметров. По поводу всех процессов держу в курсах.
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍6🕊1
Техножнец
Привет, синтеты. RUKALLAMA V11 - тренируется. Ответы буду показывать попозже. Она идёт здраво, не залипает на головах как раньше, всё ок. Старые симптомы не вернулись, новых не появилось. Ну...только если один моментик был, но я так очень мягкую штрафную…
Касаемо повторений модели. На pretrain стадии избавиться от повторов невозможно. Но я подсмотрел ещё разных техник на этапе fine-tune (SFT) и про прочие этапы. Всё будет хорошо! Я очень углубился в модели и их архитектуры.
И ! Отличная новость: Мой товарищ с которым мы каждый день на связи, наконец-то, погрузился в нейронные архитектуры и уже делает успехи на поприще нивелирования обратной пропагации - это просто ЧУМА! Наконец-то, есть человек в близком окружении, кто будет понимать о чём я говорю ❤️
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
И ! Отличная новость: Мой товарищ с которым мы каждый день на связи, наконец-то, погрузился в нейронные архитектуры и уже делает успехи на поприще нивелирования обратной пропагации - это просто ЧУМА! Наконец-то, есть человек в близком окружении, кто будет понимать о чём я говорю ❤️
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
👍33❤8🕊1
Тот пост про сбор группы для создания датасетов - он актуален. Мне нужно время выделить чтобы составить правильные инструкции. Подождите, пожалуйста! Пост никуда не денется, все, кто под ним отписались - приняты будут.
https://t.me/technojnec/3719 - этот пост!
Техножнец всё делает на свои средства.🥶
Если есть желание поддержать его, то вот ссылки:🫡
https://t.me/technojnec/3719 - этот пост!
Техножнец всё делает на свои средства.
Если есть желание поддержать его, то вот ссылки:
Поддержать канал: ТБАНКПоддержать канал: ЮМАНИPlease open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Техножнец
Синтеты, у меня к вам важное сообщение.
Готовы ли вы, получив задание в определённом чате, потратить собственные средства и время на создание качественных и необходимых датасетов для сегмента больших языковых моделей (LLM) в России?
Моя идея в объединении…
Готовы ли вы, получив задание в определённом чате, потратить собственные средства и время на создание качественных и необходимых датасетов для сегмента больших языковых моделей (LLM) в России?
Моя идея в объединении…
👏10👌8❤3🔥3🕊1