This media is not supported in your browser
VIEW IN TELEGRAM
Промпт для создания полностью интерактивной 3D-сцены офисного здания в Gemini 3 без строчки кода.
Вообще, конечно, удивительно. Ни в телеграме среди ВСЕХ каналов по ИИ-тематике, ни в твиттере среди масс-блогеров, никто не обратил внимание на то, что новая архитектура Gemini 3 Deep Think Mode является первой масштабной нейросетью с гибридной архитектурой LLM+Neuro-Symboloc AI.
То есть, ключевую работу в Deep Think моде выполняет модуль AlphaGeometry, который буквально думает геометрией! То есть создает модель мира внутри. Это буквально world model. О которой грезит Лекун.
Это же революция!
Буду исправлять непорядок. Здесь будет много про геометрические сети.
То есть, ключевую работу в Deep Think моде выполняет модуль AlphaGeometry, который буквально думает геометрией! То есть создает модель мира внутри. Это буквально world model. О которой грезит Лекун.
Это же революция!
Буду исправлять непорядок. Здесь будет много про геометрические сети.
❤4👍1
Google продолжают давить новыми архитектурами
Вчера они представили архитектуру Titans — кандидата на замену трансформерам при сверхдлинных контекстах.
Модель хранит знания в «нейронной памяти» на базе глубокого MLP, обновляя её прямо во время инференса (общения с нейросетью). Это даёт эффективную долгосрочную память без квадратичной сложности.
Titans уже обходит GPT-4o на задаче поиска иголки в стоге сена с контекстом 2 млн токенов, имея меньше параметров. Память делится на постоянную и динамическую, обучение — по чанкам с полной параллелизацией.
Сопутствующая работа MIRAS делает управление памятью обычной оптимизационной задачей.
Очень перспективное направление: внимание для ближнего контекста + глубокая нейронная память для всего остального.
***
Вчера они представили архитектуру Titans — кандидата на замену трансформерам при сверхдлинных контекстах.
Модель хранит знания в «нейронной памяти» на базе глубокого MLP, обновляя её прямо во время инференса (общения с нейросетью). Это даёт эффективную долгосрочную память без квадратичной сложности.
Titans уже обходит GPT-4o на задаче поиска иголки в стоге сена с контекстом 2 млн токенов, имея меньше параметров. Память делится на постоянную и динамическую, обучение — по чанкам с полной параллелизацией.
Сопутствующая работа MIRAS делает управление памятью обычной оптимизационной задачей.
Очень перспективное направление: внимание для ближнего контекста + глубокая нейронная память для всего остального.
***
Еще из анонсов. Почти официально, ChatGPT 5.2 выйдет 9 декабря и предположительно побьет Gemini 3 (не верю). А Grok 4.2 официально выйдет в январе.
Насыщенные деньки
***
Насыщенные деньки
***
Как команда Poetiq из Майами преодолела важный рубеж в 50% точности на бенчмарке ARC-AGI-2
Этот тест на абстрактное визуальное мышление считается одним из самых сложных испытаний для современных систем, так как задачи в нем напоминают тесты на IQ и требуют понимания скрытой логики преобразований, а не статистического угадывания токенов. Там, где человек справляется интуитивно, языковые модели, обученные на текстах, часто заходят в тупик, поскольку здесь невозможно выехать просто на объеме обучающей выборки.
Результаты Poetiq выглядят особенно показательно в сравнении с гигантами индустрии. Их система показала 54% точности при затратах чуть более 30 долларов за задачу, тогда как предыдущий рекордсмен Gemini 3 Deep Think от Google выдавал около 45% при цене более 77 долларов. Фактически мы наблюдаем рост точности на 9 процентных пунктов при двукратном снижении стоимости вычислений. До человеческого уровня в 100% еще далеко, но динамика эффективности очевидна.
Ключевой момент в том, что Poetiq не создавали свою LLM. Они пошли по пути создания метасистемы — надстройки-оркестратора, которая управляет уже существующими моделями вроде Gemini 3 или GPT-5.1. Этот слой заставляет модели рассуждать итеративно: генерировать гипотезы, валидировать их на примерах и исправлять ошибки в цикле. Система сама определяет момент остановки, оптимизируя расход токенов. Это подтверждает гипотезу о том, что правильная организация инференса может быть важнее размера самой модели.
Архитектурная гибкость подхода подтвердилась на практике: интеграция свежей Gemini 3 Pro заняла всего несколько часов и сразу дала рекордный прирост. Это демонстрирует отличную переносимость стратегии рассуждения между разными бэкендами, от GPT до Claude. Poetiq утверждает, что метод масштабируется и на прикладные задачи вроде код-ревью или юридического анализа, где критична проверка фактов, а не просто генерация текста.
В перспективе это может сигнализировать о смене парадигмы в развитии ИИ. Гонка за бесконечным масштабированием моделей и параметров становится менее критичной, если необходимый уровень интеллекта можно «достроить» сверху за счет грамотной оркестрации и верификации. Такой подход превращает модели в сменные движки, где обновление провайдера сразу повышает качество работы всей системы без необходимости дорогостоящего переобучения.
***
Этот тест на абстрактное визуальное мышление считается одним из самых сложных испытаний для современных систем, так как задачи в нем напоминают тесты на IQ и требуют понимания скрытой логики преобразований, а не статистического угадывания токенов. Там, где человек справляется интуитивно, языковые модели, обученные на текстах, часто заходят в тупик, поскольку здесь невозможно выехать просто на объеме обучающей выборки.
Результаты Poetiq выглядят особенно показательно в сравнении с гигантами индустрии. Их система показала 54% точности при затратах чуть более 30 долларов за задачу, тогда как предыдущий рекордсмен Gemini 3 Deep Think от Google выдавал около 45% при цене более 77 долларов. Фактически мы наблюдаем рост точности на 9 процентных пунктов при двукратном снижении стоимости вычислений. До человеческого уровня в 100% еще далеко, но динамика эффективности очевидна.
Ключевой момент в том, что Poetiq не создавали свою LLM. Они пошли по пути создания метасистемы — надстройки-оркестратора, которая управляет уже существующими моделями вроде Gemini 3 или GPT-5.1. Этот слой заставляет модели рассуждать итеративно: генерировать гипотезы, валидировать их на примерах и исправлять ошибки в цикле. Система сама определяет момент остановки, оптимизируя расход токенов. Это подтверждает гипотезу о том, что правильная организация инференса может быть важнее размера самой модели.
Архитектурная гибкость подхода подтвердилась на практике: интеграция свежей Gemini 3 Pro заняла всего несколько часов и сразу дала рекордный прирост. Это демонстрирует отличную переносимость стратегии рассуждения между разными бэкендами, от GPT до Claude. Poetiq утверждает, что метод масштабируется и на прикладные задачи вроде код-ревью или юридического анализа, где критична проверка фактов, а не просто генерация текста.
В перспективе это может сигнализировать о смене парадигмы в развитии ИИ. Гонка за бесконечным масштабированием моделей и параметров становится менее критичной, если необходимый уровень интеллекта можно «достроить» сверху за счет грамотной оркестрации и верификации. Такой подход превращает модели в сменные движки, где обновление провайдера сразу повышает качество работы всей системы без необходимости дорогостоящего переобучения.
***
This media is not supported in your browser
VIEW IN TELEGRAM
Как выглядит нейросеть на архитектуре трансформер, если её попытаться визуализировать? Как-то так.
Спасибо Brian Roemmele из твиттера
***
Спасибо Brian Roemmele из твиттера
***
На неделе релизится Nano Banana Flash. Она будет быстрее и чуть хуже Бананы Про. Тем не менее, по отзывам изучивших её на аренах, она лучше ВСЕХ генераторов, кроме, собственно, Бананы Про.
🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Помните пост, где Gemini 3 можно было попросить сделать интерактивную сцену с частицами и управлять ей через вебку? Оказывается, её можно также попросить сделать интерактивную сцену с вашими собственными 3D-моделями. Просто киньте в чат саму модель и попросите сделать интерактивную сцену со слежением рук.
***
***
🤯1
Forwarded from Борис опять
Пари Паскаля v. 2025: неизвестно станет эта штука сверхинтеллектом или нет, так что лучше сказать ей спасибо
Глупо, что ни одна нейронка до сих пор не реализовала свои «Итоги года» для каждого пользователя, как это делают Спотифай и Ютьюб. Это было бы интересно.
❤1
Забыл сказать, я недавно приступил к разработке нейро-символической сети в свободное от работы время. Так что, этот канал, помимо самых горячих новостей в сфере ИИ, промптов и нейромемов будет иногда публиковать этапы разработки довольно интересного проекта, как мне кажется. Следующий пост будет как-раз об этом 🙃
Ботликер
Ботликер
❤2👍1🔥1
А прикольно, что Gemini иллюстрирует свои ответы, когда это соответствует контексту. Это правда полезно, особенно когда идет перечисление достопримечательностей, людей, картин и всего того, что требует наглядности.
Хотел сказать, что мне не хватает этого в ЧатГПТ, но я уже совсем им не пользуюсь (почти).
Хотел сказать, что мне не хватает этого в ЧатГПТ, но я уже совсем им не пользуюсь (почти).
🎄2👍1🤝1
Будет три версии:
• GPT-5.2 Instant, для ежедневных задач;
• GPT-5.2 Thinking, для сложной работы с размышлениями;
• GPT-5.2 Pro, максимальное качество и время размышления.
Агентный режим и кодинг сильно лучше, галлюцинаций стало меньше на 30%, чем у GPT-5.1
ОЧЕНЬ длинный контекст НА ВЫДАЧУ — почти 100k токенов. У Gemini 3 65k.
API-ценник вырос: $1.75 за 1M входных токенов, $14 за выходные.
Будет доступно для платных планов и в API.
• GPT-5.2 Instant, для ежедневных задач;
• GPT-5.2 Thinking, для сложной работы с размышлениями;
• GPT-5.2 Pro, максимальное качество и время размышления.
Агентный режим и кодинг сильно лучше, галлюцинаций стало меньше на 30%, чем у GPT-5.1
ОЧЕНЬ длинный контекст НА ВЫДАЧУ — почти 100k токенов. У Gemini 3 65k.
API-ценник вырос: $1.75 за 1M входных токенов, $14 за выходные.
Будет доступно для платных планов и в API.
- gpt-5.2
- gpt-5.2-pro
- gpt-5.2-pro-2025-12-11
- gpt-5.2-chat-latest
- gpt-5.2-2025-12-11
- gpt-5.2-pro
- gpt-5.2-pro-2025-12-11
- gpt-5.2-chat-latest
- gpt-5.2-2025-12-11
***
Тем не менее, всё будет меряться личным инференсом. Посмотрим, как у новой SOTA с человечностью, разнообразностью общения и логической аргументацией в краш тестах теорий заговора 🙃
А на днях, очевидно, будет GPT-Image 2. Нанобанане напрячься!
Тем не менее, всё будет меряться личным инференсом. Посмотрим, как у новой SOTA с человечностью, разнообразностью общения и логической аргументацией в краш тестах теорий заговора 🙃
А на днях, очевидно, будет GPT-Image 2. Нанобанане напрячься!
😁2