🧮 НЕЙРОННЫЙ КАЛЬКУЛЯТОР: 400 ИЗ 401
Не обёртка над Python. Не промпт к LLM. Чистая нейронная система, которая считает.
9 нейронов. ~100K параметров. 99.8% точность.
▸ Арифметика на числах до 10 цифр
▸ Сложение, вычитание, умножение, деление
▸ Отрицательные результаты, цепочки операций
▸ Вложенные скобки ((2+3)*4)+5
▸ Функции: ln, sin, √
▸ Парсинг RU/EN, Unicode, опечатки, числа словами
Без regex. Без символьного движка. Только нейроны.
━━━━━━━━━━━━━━━━━━━━━
📊 17 категорий, 401 тест:
✅ Базовая арифметика 15/15
✅ Многоразрядные (2-10 цифр) 10/10
✅ Carry chain 12/12
✅ Borrow chain 11/11
✅ Отрицательные 9/9
✅ Умножение N×1 13/13
✅ Умножение N×M 13/13
✅ Деление N÷1 11/11
✅ Деление N÷M 11/11
⚠️ Цепочки операций 11/12
✅ Скобки 12/12
✅ Функции ln/sin/√ 21/21
✅ Парсер RU 12/12
✅ Парсер EN 10/10
✅ Unicode + числа словами 10/10
✅ Edge cases 19/19
✅ 200 рандомных до 10⁷ 200/200
ИТОГО: 400/401 (99.8%)
━━━━━━━━━━━━━━━━━━━━━
🎯 Контекст
LLM на 7 миллиардов параметров плывут на трёхзначных числах без chain-of-thought и без вызова tools. Здесь 100 тысяч параметров считают точно до 10 цифр. С переносами, заимствованиями, вложенными скобками, функциями, многоязычным парсингом.
100K параметров это ошибка округления для современной модели.
━━━━━━━━━━━━━━━━━━━━━
🔍 Поле
Обзор arXiv, NeurIPS, ICML, ICLR, JMLR, GitHub, патентных баз за 2015-2026: найдено 14 систем нейронной арифметики.
▸ NALU (DeepMind, 2018): без поцифровой обработки, без функций
▸ NanoGPT-arith (2024): 10.6M параметров на одну операцию
▸ Abacus (2024): только сложение
Ни одна не объединяет в одной архитектуре под 100K параметров: четыре операции с произвольной точностью, отрицательные результаты, цепочки, вложенные скобки, трансцендентные функции, многозначное деление и многоязычный текстовый парсинг.
━━━━━━━━━━━━━━━━━━━━━
🐛 Один fail из 401
10*2-5 = 4 вместо 15. Баг порядка в цепочке. Не архитектурное ограничение, фиксится точечно.
Радикальная честность: 99.8%, не 100%.
━━━━━━━━━━━━━━━━━━━━━
Дальше: разбор бага, расширение диапазона функций, scaling параметров.
Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡
Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
🔗 https://t.me/technojnec
Не обёртка над Python. Не промпт к LLM. Чистая нейронная система, которая считает.
9 нейронов. ~100K параметров. 99.8% точность.
▸ Арифметика на числах до 10 цифр
▸ Сложение, вычитание, умножение, деление
▸ Отрицательные результаты, цепочки операций
▸ Вложенные скобки ((2+3)*4)+5
▸ Функции: ln, sin, √
▸ Парсинг RU/EN, Unicode, опечатки, числа словами
Без regex. Без символьного движка. Только нейроны.
━━━━━━━━━━━━━━━━━━━━━
📊 17 категорий, 401 тест:
✅ Базовая арифметика 15/15
✅ Многоразрядные (2-10 цифр) 10/10
✅ Carry chain 12/12
✅ Borrow chain 11/11
✅ Отрицательные 9/9
✅ Умножение N×1 13/13
✅ Умножение N×M 13/13
✅ Деление N÷1 11/11
✅ Деление N÷M 11/11
⚠️ Цепочки операций 11/12
✅ Скобки 12/12
✅ Функции ln/sin/√ 21/21
✅ Парсер RU 12/12
✅ Парсер EN 10/10
✅ Unicode + числа словами 10/10
✅ Edge cases 19/19
✅ 200 рандомных до 10⁷ 200/200
ИТОГО: 400/401 (99.8%)
━━━━━━━━━━━━━━━━━━━━━
🎯 Контекст
LLM на 7 миллиардов параметров плывут на трёхзначных числах без chain-of-thought и без вызова tools. Здесь 100 тысяч параметров считают точно до 10 цифр. С переносами, заимствованиями, вложенными скобками, функциями, многоязычным парсингом.
100K параметров это ошибка округления для современной модели.
━━━━━━━━━━━━━━━━━━━━━
🔍 Поле
Обзор arXiv, NeurIPS, ICML, ICLR, JMLR, GitHub, патентных баз за 2015-2026: найдено 14 систем нейронной арифметики.
▸ NALU (DeepMind, 2018): без поцифровой обработки, без функций
▸ NanoGPT-arith (2024): 10.6M параметров на одну операцию
▸ Abacus (2024): только сложение
Ни одна не объединяет в одной архитектуре под 100K параметров: четыре операции с произвольной точностью, отрицательные результаты, цепочки, вложенные скобки, трансцендентные функции, многозначное деление и многоязычный текстовый парсинг.
━━━━━━━━━━━━━━━━━━━━━
🐛 Один fail из 401
10*2-5 = 4 вместо 15. Баг порядка в цепочке. Не архитектурное ограничение, фиксится точечно.
Радикальная честность: 99.8%, не 100%.
━━━━━━━━━━━━━━━━━━━━━
Дальше: разбор бага, расширение диапазона функций, scaling параметров.
Техножнец всё делает на свои средства. 🥶
Если есть желание поддержать его, то вот ссылки: 🫡
Поддержать канал: ТБАНК
Поддержать канал: ЮМАНИ
🔗 https://t.me/technojnec
1👏34🔥20❤7❤🔥1🤔1 1
Forwarded from Секреты DARPA и ЦРУ | DARPA&CIA
Будущее ИИ делают не корпорации, а математика: как русский разработчик ломает шаблоны индустрии
Мы не так давно писали про нашего русского изобретателя, который ведёт канал «Техножнец». Сейчас он развивает по-настоящему национальную языковую модель Rukallama, которую обучает с нуля, опираясь на элегантные математические решения, а не на грубую силу железа.
Но помимо больших языковых моделей, у него в разработке есть и другие, совершенно прорывные идеи. Одна из них — его собственная архитектура, так называемый «нейрон Поповича». В отличие от привычных нам нейросетей, он не «угадывает» наиболее вероятные ответы, а считает сложные математические задачи со 100% точностью и без ошибок.
По сути, это живое доказательство того, что IT-гиганты свернули не туда, решив заливать любые задачи тысячами видеокарт и бесконечными терабайтами данных.
Настоящий интеллект — это не способность вызубрить весь интернет. Это способность извлечь универсальное правило из минимума информации. «Нейроны Поповича» показывают: чтобы создать рабочий, безошибочный и сложный ИИ, не нужны миллиарды долларов и монополия на вычислительные центры. Нужна правильная геометрия пространства весов и... обычный ноутбук.
И это открывает совершенно фантастические перспективы для робототехники и Edge AI (ИИ на периферийных устройствах).
Как это изменит мир машин?
Современным автопилотам или дронам нужны мощные, прожорливые графические ускорители, чтобы анализировать пространство в реальном времени. Но если мы заменим тяжеловесные свёрточные сети массивами таких крошечных, точных нейронов, мы получим мгновенную реакцию. Беспилотник сможет вычислять траектории препятствий и корректировать полет с нулевой задержкой, потребляя при этом жалкие милливатты энергии.
Природа не строит гигантские дата-центры для мозга осы, чтобы та могла на лету маневрировать между ветками. Она использует изящную эффективность. И именно на это — на возвращение к чистой, эффективной математике — делает ставку эта технология.
И да, это не реклама, это наш, русский разработчик! 🇷🇺
Мы не так давно писали про нашего русского изобретателя, который ведёт канал «Техножнец». Сейчас он развивает по-настоящему национальную языковую модель Rukallama, которую обучает с нуля, опираясь на элегантные математические решения, а не на грубую силу железа.
Но помимо больших языковых моделей, у него в разработке есть и другие, совершенно прорывные идеи. Одна из них — его собственная архитектура, так называемый «нейрон Поповича». В отличие от привычных нам нейросетей, он не «угадывает» наиболее вероятные ответы, а считает сложные математические задачи со 100% точностью и без ошибок.
По сути, это живое доказательство того, что IT-гиганты свернули не туда, решив заливать любые задачи тысячами видеокарт и бесконечными терабайтами данных.
Настоящий интеллект — это не способность вызубрить весь интернет. Это способность извлечь универсальное правило из минимума информации. «Нейроны Поповича» показывают: чтобы создать рабочий, безошибочный и сложный ИИ, не нужны миллиарды долларов и монополия на вычислительные центры. Нужна правильная геометрия пространства весов и... обычный ноутбук.
И это открывает совершенно фантастические перспективы для робототехники и Edge AI (ИИ на периферийных устройствах).
Как это изменит мир машин?
Современным автопилотам или дронам нужны мощные, прожорливые графические ускорители, чтобы анализировать пространство в реальном времени. Но если мы заменим тяжеловесные свёрточные сети массивами таких крошечных, точных нейронов, мы получим мгновенную реакцию. Беспилотник сможет вычислять траектории препятствий и корректировать полет с нулевой задержкой, потребляя при этом жалкие милливатты энергии.
Природа не строит гигантские дата-центры для мозга осы, чтобы та могла на лету маневрировать между ветками. Она использует изящную эффективность. И именно на это — на возвращение к чистой, эффективной математике — делает ставку эта технология.
И да, это не реклама, это наш, русский разработчик! 🇷🇺
🔥117❤26👍9❤🔥7🤩2🤝2 2
Доброе утро, синтеты.
Только сейчас побольше текста , чем обычно.
Знаете, что удивляет?
Вот выложен был пост про Нейроны, об этом по договорённости написал канал Darpa (ещё раз респект за это).
В комментариях есть фраза " пока код не выложен , заявлять подобное самонадеянно", а вторым комментарием
"надо было выложить простой сервис, который бы это демонстрировал".
Ответ первому комментарию, а точнее вопрос: выложеный код является чем-то официальным?
Единицы из тех, кто кричат про репозиторий даже его не трогают.
Когда выкладываешь код в свободный доступ , ожидая , что самые активные и агрессивные требователи кода будут тебя проверять, писать issue.
Да? Во сне. Это все фразы - дежурные. Привычка такая есть у толпы прикрикнуть чтобы ты не выёбывался.
Обычно когда читают громкие заявления, то спрашивают на каком основании и получая ответ по компетенции делают вывод. А далее уже фактаж будет работать. Научное сообщество есть научное сообщество - оно у тебя либо работает, либо ты наврал.
Но , господа контролёры репозиториев, сидят и молчат.
Вот я выложил прометорч, там косяков я оставил с 20 телег...а хоть один коммент есть в личку от тех, кто мне крякал "почему код не выложен?"...
Нет, конечно. Поэтому когда в вашу сторону летят подобные претензии - закрывайте на это глаза. Это не по делу.
Каждый программист сам решит как написать о своей разработке: либо выложит ссылку на репу, либо статью научную без кода, либо ЛИЧНЫЙ ОПЫТ НА СВОЁМ КАНАЛЕ.
Это по первой части.
Вторая "выложите сервис".
А где гарантия, что я в этом сервисе не сделал фейк на питоне, который делает вид, что че-то считает? Ну был бы я идиотом и не проверял бы ничего, я бы выложил первую версию запакованную в "сервис", который по итогу является фейком. Словил бы благодарность за свой "гений"...а контролёры так и остались бы обманутыми. (речь о том, что агент с умным лицом навайбкодил мне питон калькулятор имея обученные веса)
С какой стороны не посмотри, а все очень не очень выглядит...но для кого не очень ?
Для авторов. Ладно, я калёный огурец соленый, который вырос в агрессивной среде схожей с серной кислотой и меня это не задевает.
Но как же меня бесит,что эти комментаторы вместо поддержки наших умельцев вечно гадят своими требования будто они все какие-то контролирующие службы.
Поменьше бы этого блядства в комментариях, может быть и сообщество наше энтузиастов выросло в ширь.
Я все. Остальным спасибо))
Только сейчас побольше текста , чем обычно.
Знаете, что удивляет?
Вот выложен был пост про Нейроны, об этом по договорённости написал канал Darpa (ещё раз респект за это).
В комментариях есть фраза " пока код не выложен , заявлять подобное самонадеянно", а вторым комментарием
"надо было выложить простой сервис, который бы это демонстрировал".
Ответ первому комментарию, а точнее вопрос: выложеный код является чем-то официальным?
Единицы из тех, кто кричат про репозиторий даже его не трогают.
Когда выкладываешь код в свободный доступ , ожидая , что самые активные и агрессивные требователи кода будут тебя проверять, писать issue.
Да? Во сне. Это все фразы - дежурные. Привычка такая есть у толпы прикрикнуть чтобы ты не выёбывался.
Обычно когда читают громкие заявления, то спрашивают на каком основании и получая ответ по компетенции делают вывод. А далее уже фактаж будет работать. Научное сообщество есть научное сообщество - оно у тебя либо работает, либо ты наврал.
Но , господа контролёры репозиториев, сидят и молчат.
Вот я выложил прометорч, там косяков я оставил с 20 телег...а хоть один коммент есть в личку от тех, кто мне крякал "почему код не выложен?"...
Нет, конечно. Поэтому когда в вашу сторону летят подобные претензии - закрывайте на это глаза. Это не по делу.
Каждый программист сам решит как написать о своей разработке: либо выложит ссылку на репу, либо статью научную без кода, либо ЛИЧНЫЙ ОПЫТ НА СВОЁМ КАНАЛЕ.
Это по первой части.
Вторая "выложите сервис".
А где гарантия, что я в этом сервисе не сделал фейк на питоне, который делает вид, что че-то считает? Ну был бы я идиотом и не проверял бы ничего, я бы выложил первую версию запакованную в "сервис", который по итогу является фейком. Словил бы благодарность за свой "гений"...а контролёры так и остались бы обманутыми. (речь о том, что агент с умным лицом навайбкодил мне питон калькулятор имея обученные веса)
С какой стороны не посмотри, а все очень не очень выглядит...но для кого не очень ?
Для авторов. Ладно, я калёный огурец соленый, который вырос в агрессивной среде схожей с серной кислотой и меня это не задевает.
Но как же меня бесит,что эти комментаторы вместо поддержки наших умельцев вечно гадят своими требования будто они все какие-то контролирующие службы.
Поменьше бы этого блядства в комментариях, может быть и сообщество наше энтузиастов выросло в ширь.
Я все. Остальным спасибо))
👍71🔥19❤🔥6❤4🙏2🤝2 2🤔1
Техножнец
небольшой намёк..
Нейроны отлично работают с дронами. Обучил их мурмуации, слежке за объектами, прессингу объектов по выбору.
Обучать не надо. Обучаются у нейронов только эволюционные инстинкты - как у животных.
Каждый дрон = более 400 нейронов, каждый отвечает за свою часть восприятия дрона. Дрон получая обвязку подобную больше не нуждается в PID..Т.к. Нейроны Поповича быстрее и точнее его.
С 0 обучения ( с точки зрения классики) до полёта за 1.5 секунды. Пока взлетает уже понимает, что он и кто он и куда надо лететь дальше. (если есть инструкции).
Обучение инструкция напоминает обучение эволюционных инстинктов. Подробности позже.
Обучать не надо. Обучаются у нейронов только эволюционные инстинкты - как у животных.
Каждый дрон = более 400 нейронов, каждый отвечает за свою часть восприятия дрона. Дрон получая обвязку подобную больше не нуждается в PID..Т.к. Нейроны Поповича быстрее и точнее его.
С 0 обучения ( с точки зрения классики) до полёта за 1.5 секунды. Пока взлетает уже понимает, что он и кто он и куда надо лететь дальше. (если есть инструкции).
Обучение инструкция напоминает обучение эволюционных инстинктов. Подробности позже.
2🔥65👍7👏3🫡2 2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Коротко про мой сон сейчас...
🔥43👾6🐳3👌2❤1
Вот что я подумал...может правила русского языка запилить в нейроны...
💯30🤔10🔥5👍1😈1
Ради теста прикрутил 9 нейронов к Qwen 3: 0.6b (591 млн параметров, очень маленькая).
1👀20👍4
Пишу из кровати - там у Qwen 3: 0.6b сразу математика взлетела. Ну утро будет бенчмарк и данные по СПБГУ.
3🔥30👏6👍2🙏2
Кажется математика решена , неожиданно, но с нейронами она была простая для моделек. И реально работает в форварде без тулколинга, внутри скрытого пространства
👏41👍9🕊1
бенчмарки всё ещё летят на CPU. Видеокарта занята Rukallama - Всё время. Кстати она там вообще молодец. Но об этом позже.
🔥26✍6👍3