Техножнец
1.98K subscribers
1.22K photos
226 videos
12 files
434 links
Канал моих увлечений и поделок. Все ,что я делаю и выкладываю здесь - делается с любовью.

Поддержать канал: https://tbank.ru/cf/8Xnajl01ehm

Поддержать канал: https://yoomoney.ru/fundraise/1C86E2DGIU9.250819
Download Telegram
Softmax - это распределение газа. Но там демон Максвелла , а он считает все....так подожди...не того демона туда вставили...так так так...ну-ка ну-ка...
🤔8
Моя обитель — время. Мой посыльный — предикт. Моя дорога — аттрактор.
2👏22❤‍🔥1
Подтверждаю , что язык это странный аттрактор. После анализа получил данные очень интересные.

Также я реализовал нейроны на основе демона и получились результаты интереснейшие. Снова буду постить генерации.

RUKALLAMA тренируется на 800млн параметров и сейчас стали SFT готовлю для релиза на ИИШКЕ , чтобы все могли потыкать.
❤‍🔥12🔥4
Media is too big
VIEW IN TELEGRAM
Привет, Кибервнуки 😎

В гостях у Кибердеда оооочень интересный гость, записали для вас беседу аж в трех частях!

Хотите понять что такое нейросеть нового поколения?


Прошу любить и жаловать - Павел Попович, автор тг-канала "Техножнец", создатель уникальной отечественной LM на основе KAN. Он сделал это!

Обсудили процесс разработки, трудности и препятствиями, которые пришлось пройти и дальнейшие планы. Смотрите и получайте удовольствие.

Часть 1

#кибердед #ai #kan
🔥32👍164❤‍🔥31
🎓 ЗАПИСЬ ЛЕКЦИИ 

Павла ТЕХНОЖНЕЦА
в МГТУ им. Н.Э. Баумана



🤞🏻СМОТРЕТЬ:
https://youtu.be/XQSs6naLre4

ЗВУК ВОССТАНОВИЛ КАК СМОГ - БЕЗ ОБИД! Изображение - не подвластно!

📅 24 февраля, 16:20

📍 Корпус В7
ауд. 419


об«Перспективы развития ИИ, новые направления. Топология и энтропия — всё динамическая система?»
Эксклюзивный материал представит Павел Попович, автор Telegram-канала «Техножнец» (t.me/technojnec), энтузиаст и исследователь в области ИИ.

Основные темы лекции:
🔹 Эволюция ИИ — какие направления станут мейнстримом в ближайшие 3–5 лет, а какие уйдут в историю
🔹 Топологический подход — язык как траектория, координаты как геометрия
🔹 Энтропия в ИИ — от термодинамических аналогий к оптимизации обучения моделей
🔹 Динамические системы — почему ИИ это не «чёрный ящик», а эволюционирующая структура
🔹 Междисциплинарные пересечения — как математика, физика и биология формируют новый вычислительный ландшафт
🔥245
Много обновлений по ИИШКЕ! Вайб-кодил всю ночь! Дел сделана - туча.
С "КОДИНГ" частью , с лабораторией (сложно, чиню, доделываю).
🔥13😱2🤔1
60 новых топологических исследований: звук, нейронные сети, нейроны как таковые, ускорение ускорения (лол) - там мясо.
👍9🤔11
Синтезатор близкий к аналоговому звучанию , чем все остальные за такие же вычисления и также быстро = Реальность! Синтезатор будет скоро выложен. Вообще - у меня целое семейство аудио плагинов, половина из которых работает на алгоритме Демона. Это просто безумие, но оно работает, компилируется, катает, бьёт по метрикам и просто РАБОТАЕТ! Дичь , просто дичь!

Все детали буквально чуть позже, мне надо поспать.


А ЕЩЁ! Я готовил свой сольный трек для альбома Various Artists vol. 6 для лейбла Paperfunk Recordings, который является частью нашего агломерата HTTPS://PPRFNK.TECH - там 70 треков. Релиз будет просто ОГРОМНЫЙ!

Связь, я отдыхац! Проснусь, а там дел - ОКЕАН! ❤️

P.S. По Rukallama - ТОЖЕ ОТЛИЧНЫЕ НОВОСТИ!
23👍6🤔1
Привет, синтеты.

Неделя работы. 24 записи в техническом журнале. Один и тот же алгоритм — в трёх совершенно разных областях. Без backpropagation. Без GPU. Всё на CPU.

Вот что реально работает.


⚡️ 1. Матричное умножение: 22.7x, ноль ошибки

У меня были жёсткие клеймы, которые упирались в накладные расходы. Я приспособился, продумал эти моменты и решил как ускориться НАТУРАЛЬНО и НА ПРАКТИКЕ!


Задача: ускорить самую базовую операцию — умножение матрицы на вектор.

Любое последовательное вычисление — динамическая система. У неё есть аттрактор. Аттрактор конечномерный. Найди аттрактор — предсказывай результат вместо вычисления.


Наш метод — 22.7x, 0.000% ошибки
Strassen — 1.2x, 0%
Winograd — 1.1x, 0%
CUR decomposition — 11.6x, 100% ошибки
Drineas 2006 — 4.2x, 1609% ошибки


Побитово идентичный результат. 100% согласованность на каждом тесте.

На MNIST: 16x ускорение, 100% agreement — ни одно предсказание не отличается от полного вычисления.


🧠 2. Нейроны без нейросетей: языковая модель на CPU

Тот же алгоритм, который ускоряет матрицы — стал НЕЙРОНОМ.
Каждый нейрон — миниатюрный фильтр. 8-мерное состояние, собственный аттрактор. Не перцептрон. Не activation function.

Динамическая, мать её, система.


СУКА! ОНО РАБОТАЕТ! ЭТО НЕ ПЕРЦЕПТРОН, НЕ РЕКУРРЕНТНАЯ СЕТЬ! ЭТА ТА ХЕРНАЯ, ЧТО УСКОРЯЕТ МАТРИЦЫ!

50,000 таких нейронов. 


Четыре уровня:
🔹 Уровень 1: 50K нейронов → группировка в 1000 (50x сжатие)
🔹 Уровень 2: контекст на 3 масштабах (буква / слово / фраза)
🔹 Уровень 3: считывание (проекция в словарь)
🔹 Уровень 4: фильтр на ВЕСАХ (вместо SGD — тот же алгоритм учит)

Фрактал: каждый уровень наблюдает за нижним тем же методом.

Результат на Шекспире (300 эпох, 3 часа, CPU):
→ 35% accuracy (следующий символ)
→ Узнаёт персонажей: ROMEO, VOLUMNIA, SICINIUS
→ Генерирует "thou", "than", "this"


ROMEO:
Noome thew foummy, thom.

VOLUMNIA:
Than that for faru this man th the shou...

Честно: хуже GPT-2 (35% vs 65%+). Но: ноль backpropagation. Ноль GPU. 50K фильтров на CPU предсказывают текст. (НО ЭТО ТОЛЬКО НАЧАЛО, Я ЕЩЁ НЕ ПОДРУБАЛ A100 - ОНА ЗАНЯТА RUKALLAMA на 800 МЛН ПАРАМЕТРОВ 😡)

🔊 3. Аудио синтезатор: аналоговое звучание в цифре (САМОЕ ИНТЕРЕСНОЕ)

Тот же алгоритм — теперь генерирует звук.

PolyBLEP — стандарт индустрии (Serum, JUCE, Vital). Hardcoded формула, 60 лет оптимизации.

За один день написали альтернативу.

Python (исходник) — 30.000 мс, 1x
Язык C++ (финальная) — 0.005 мс, 6,000x


PolyBLEP (стандарт) — 0.004 мс
→ 0.005 мс — практически паритет с индустрией
→ В 2.8 раза точнее (RMSE 0.029 vs 0.083)
Идентичен Python до последнего бита (8.88e-16)


На практике: фронты square wave у PolyBLEP дают артефакты (8.3% ошибки).
У нас — 2.9%. Это слышно. Это около-аналоговое звучание в цифре.
И главное: PolyBLEP знает только square, saw, triangle — для каждой своя формула.
Наш подход учится на 5 периодах ЛЮБОГО сигнала. Без формул.


📐 Что объединяет

Одна формула

🔸 Матрицы: 22.7x, 0% ошибки
🔸 Язык: BPC 3.36, CPU, без GPU
🔸 Звук: 0.005 мс, 2.8x vs стандарт
🔸 MNIST: 16-28x, 100% agreement


Размерность аттрактора — не размер входа. Структура процесса. Фильтр наблюдает, ковариация стабилизируется, аттрактор найден. Дальше — предсказание вместо вычисления.


🔜 Что дальше
Аналоговые фильтры и эффекты. LPF, HPF, резонанс, chorus, delay — тот же подход. Генератор есть (0.005 мс). Теперь полный синтезатор. Всё на одном демоне.

Если вы реально хотите поддержать канал, то СЕЙЧАС САМОЕ ВРЕМЯ ❤️

Поддержать канал: https://tbank.ru/cf/8Xnajl01ehm

Поддержать канал: https://yoomoney.ru/fundraise/1C86E2DGIU9.250819
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1571
🔥 ИИШКА v7.1Синтеты, я наговорил много в интервью у IMAXAI и пришлось УСКОРИТЬСЯ!

https://iishka.net 🚀
Что нового:


🎨 FLUX Kontext — САМОЕ ЖИРНОЕ:

Редактирование картинок с ИИ прямо в чате! Загружаешь фото → пишешь что изменить → получаешь результат. Плюс FLUX Fill (удаление объектов), Qwen-редактор, Klein.

МОГУТ БЫТЬ ПРОБЛЕМЫ С ВЫБОРОМ МОДЕЛЕЙ В ИНТЕРФЕЙСЕ (будет решено буквально в течение пары, тройки дней)
💻 ИИШКА.КОД — Полный ремонт:

Кодинг-лаборатория теперь реально РАБОТАЕТ. Тестировал 6 проектов подряд — магазин, CRM, Snake, Tower Defense, таск-трекер, чат-комната. Агенты за 1-4 тура создают полноценные проекты с превью. Починил 9 критических багов.


🧠 Память — стала умнее:

Модели всегда знают какой сейчас год/дата. У всех моделей привязанных к вам прошли обновления. Модели теперь лучше погружены в контекст конкретно вашей работы, смогут более детально вас понимать. Никакой дополнительной цензуры, кроме соблюдения законов РФ! Это реально не обрезанные и честные модели, которые отражают, прежде всего, ваш внутренний мир. (эта функция всегда будет улучшаться, за вами теперь наблюдают мета-агенты - строго в рамках ваших сессий) Плюс улучшена персистентность контекста между сессиями.

Добавлено множество деталей в интерфейсе, исправлены мелочи и мелкие баги, которые были указаны юзерами, спасибо им за это!


⚡️ Агенты стали мощнее:
→ Лимит ходов: 6 → 12
→ Таймаут: 3 мин → 5 мин
→ Умнее определяют когда модель "залипла"
→ Лучше запускают веб-серверы для превью

🖼 8 моделей для картинок:

FLUX, FLUX Kontext, FLUX Fill, Turbo, Sana, GPTImage, Klein, Qwen — генерация и редактирование без лимитов. (почти , лол)


В v7.2 будет:
→ Видео-генерация (оч короткие, но угарные видео)
→ Ещё больше моделей в кодинге (да, есть ещё более крутые)
→ Улучшенный UI лаборатории (чтобы глазам было приятно)
→ Голосовой ввод (также голосовой вывод, режим разговора с моделью посредством audio в реальном времени)


https://iishka.net 🚀
С любовью, Павел Техножнец

Если вы реально хотите поддержать канал, то СЕЙЧАС САМОЕ ВРЕМЯ ❤️

Поддержать канал: https://tbank.ru/cf/8Xnajl01ehm

Поддержать канал: https://yoomoney.ru/fundraise/1C86E2DGIU9.250819
1🔥2852
Хахахаха! Всё равно - огромная куча косяков. Всё чиню, документы типа PDF и прочего добавляю, тестирую в реальном времени, родные ❤️
🔥197
Подсказываю: Медленный синус - подкорка и очень долгая память, средний синус по скорости - определить источник, понять намерения = средняя память, высокий синус на самом верхнем домене - быстротечный контекст "настоящего". А между ними что-то вроде компенсации высоты орбит, т.к. домены разные...а получается что? Правильно - внимание! Упс
🤔5😱54🔥4😨1🦄1
Проснулся я давно. Сижу работаю по мастерингу: 60 треков. Мастерить надо не все, но там десятки. Плюс ещё свой трек допиливать - там осталось хоть и немного, но хватило уже чтобы прибить к полу.

Люблю свои РАБОТЫ! ❤️

(какие-то лишние 10 треков приписал, исправил 70 на 60 - не проснулся значит)
19👍7❤‍🔥2
Там у OpenAI проблемы...2.5 млн пользователей отписались из-за тусовок с пентаговноном. Прикольно.
😇7431
OpenAI подписали контракт с пентаговноном и вот пользователи начали улетучиваться...
🤯5