Ведущие исследователи из OpenAI, DeepMind, Anthropic и даже SSI подписали совместную статью: индустрия должна срочно изучить и стандартизировать мониторинг цепочек рассуждений (chain-of-thought) в ИИ. Это — последний шанс понять, как модели принимают решения.
В статье говорится, что CoT-трейсы — единственное доступное окно в мышление модели: шаг за шагом, как она рассуждает. Но это окно может скоро закрыться. По мере роста мощности моделей и перехода к RL или энд-ту-энд-трейнингу цепочки исчезают или теряют интерпретируемость.
Авторы (включая Марка Чена из OpenAI, Илью Суцкевера из SSI, Хинтона (красного отца ИИ, нобелевского лауреата) и Шейна Легга из DeepMind) предлагают ввести метрику monitorability — насколько можно отследить ход мыслей модели. И привязывать её к решению о допуске модели в прод.
И что?
Бизнес. Компании, использующие ИИ в медицине, юрконсалтинге и финансах, получат чёткий критерий — можно ли объяснить поведение модели. Это снижает регуляторные риски и повышает доверие клиентов.
Инвесторы. Прозрачность reasoning-а станет новым стандартом качества, как «organics» для еды: стартапы с высокими CoT-оценками получат доступ к крупным корпоративным контрактам.
Рынок. Впервые с 2022-го игроки индустрии синхронизировались вокруг одной идеи — это может стать основой будущей сертификации AI-моделей, аналог ISO.
В статье говорится, что CoT-трейсы — единственное доступное окно в мышление модели: шаг за шагом, как она рассуждает. Но это окно может скоро закрыться. По мере роста мощности моделей и перехода к RL или энд-ту-энд-трейнингу цепочки исчезают или теряют интерпретируемость.
Авторы (включая Марка Чена из OpenAI, Илью Суцкевера из SSI, Хинтона (красного отца ИИ, нобелевского лауреата) и Шейна Легга из DeepMind) предлагают ввести метрику monitorability — насколько можно отследить ход мыслей модели. И привязывать её к решению о допуске модели в прод.
И что?
Бизнес. Компании, использующие ИИ в медицине, юрконсалтинге и финансах, получат чёткий критерий — можно ли объяснить поведение модели. Это снижает регуляторные риски и повышает доверие клиентов.
Инвесторы. Прозрачность reasoning-а станет новым стандартом качества, как «organics» для еды: стартапы с высокими CoT-оценками получат доступ к крупным корпоративным контрактам.
Рынок. Впервые с 2022-го игроки индустрии синхронизировались вокруг одной идеи — это может стать основой будущей сертификации AI-моделей, аналог ISO.
👍2👨💻2
This media is not supported in your browser
VIEW IN TELEGRAM
Новая модель от Runway превращает обычное видео с человеком в анимацию с полным трекингом головы, мимики, рук и тела. Всё это — в любом художественном стиле и без зелёного фона.
Act-Two нужен только один референс-портрет персонажа и одно видео-движение. Модель сама сохраняет фон, стиль, пропорции и передаёт движения с высокой точностью. По сравнению с Act-One (вышел в октябре 2024), новая система стабильнее, чётче передаёт жесты и не ломается на сложных позах.
Runway уже договорился с Lionsgate и AMC Networks: Act-Two будет встроен в часть их продакшн-пайплайнов. То, что публично киностудии отрицают ИИ, не мешает им подписывать контракты — AI в видео входит через чёрный ход, быстро и тихо.
И что?
Бизнес. Средняя студия с 5 людьми теперь может генерить мультики, рекламу и видеоклипы без актёров и съемок — 10x дешевле, 5x быстрее.
Инвесторы. Runway превращается в платформу нового видеоконтента: каждый апдейт модели = новый рынок. Следующий шаг — маркетплейс лиц и движений.
Рынок. Голливуд больше не контролирует вход в визуальное производство — ИИ-инструменты дают ключи к индустрии всем. Сопротивление актёров — это пауза, а не блок.
Act-Two нужен только один референс-портрет персонажа и одно видео-движение. Модель сама сохраняет фон, стиль, пропорции и передаёт движения с высокой точностью. По сравнению с Act-One (вышел в октябре 2024), новая система стабильнее, чётче передаёт жесты и не ломается на сложных позах.
Runway уже договорился с Lionsgate и AMC Networks: Act-Two будет встроен в часть их продакшн-пайплайнов. То, что публично киностудии отрицают ИИ, не мешает им подписывать контракты — AI в видео входит через чёрный ход, быстро и тихо.
И что?
Бизнес. Средняя студия с 5 людьми теперь может генерить мультики, рекламу и видеоклипы без актёров и съемок — 10x дешевле, 5x быстрее.
Инвесторы. Runway превращается в платформу нового видеоконтента: каждый апдейт модели = новый рынок. Следующий шаг — маркетплейс лиц и движений.
Рынок. Голливуд больше не контролирует вход в визуальное производство — ИИ-инструменты дают ключи к индустрии всем. Сопротивление актёров — это пауза, а не блок.
🔥20
OpenAI тестирует новую функцию: прямо в чате ChatGPT можно создавать таблицы и презентации, не открывая ни Excel, ни Google Docs.
Под строкой ввода появляются кнопки: «Таблица» и «Слайды».
Дальше — всё голосом или текстом:
— «Сделай таблицу с планом продаж по регионам»
— «Собери презентацию для инвесторов на 5 слайдов»
На выходе — файлы в открытых форматах Microsoft, подходят для Word, Excel, PowerPoint. Всё остаётся внутри чата.
💡 Как это выглядит на практике
Ты пишешь: «Сделай дашборд с выручкой по категориям за Q2, и слайд с выводами для команды».
ChatGPT создаёт таблицу, вставляет диаграмму, генерирует текст для слайда. Через пару минут у тебя готовый файл.
Потом — нажимаешь «поделиться», и коллеги заходят в тот же чат и вместе дописывают.
Всё — прямо в ChatGPT.
Минус — пока что медленно и глючно: тестеры жалуются, что отчёт делается до 30 минут. Совместный режим тоже в тесте, но без сроков запуска.
И что?
Бизнес экономит на софте: один инструмент вместо пачки офисных приложений.
Инвесторы видят, как OpenAI давит на Microsoft и Google — на их же территории. Следующая битва — за документооборот.
Рынок смещается к «zero interface»: ты говоришь, что тебе нужно, и получаешь готовый документ — без открытия ни одного файла.
Под строкой ввода появляются кнопки: «Таблица» и «Слайды».
Дальше — всё голосом или текстом:
— «Сделай таблицу с планом продаж по регионам»
— «Собери презентацию для инвесторов на 5 слайдов»
На выходе — файлы в открытых форматах Microsoft, подходят для Word, Excel, PowerPoint. Всё остаётся внутри чата.
💡 Как это выглядит на практике
Ты пишешь: «Сделай дашборд с выручкой по категориям за Q2, и слайд с выводами для команды».
ChatGPT создаёт таблицу, вставляет диаграмму, генерирует текст для слайда. Через пару минут у тебя готовый файл.
Потом — нажимаешь «поделиться», и коллеги заходят в тот же чат и вместе дописывают.
Всё — прямо в ChatGPT.
Минус — пока что медленно и глючно: тестеры жалуются, что отчёт делается до 30 минут. Совместный режим тоже в тесте, но без сроков запуска.
И что?
Бизнес экономит на софте: один инструмент вместо пачки офисных приложений.
Инвесторы видят, как OpenAI давит на Microsoft и Google — на их же территории. Следующая битва — за документооборот.
Рынок смещается к «zero interface»: ты говоришь, что тебе нужно, и получаешь готовый документ — без открытия ни одного файла.
❤3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Lightricks подтянули LTXV: модель выдаёт первую секунду мгновенно, а дальше без остановки добавляет кадры до полного 60-секундного трека.
В процессе можно крутить камеру, менять позы, подгонять стиль — правки применяются на следующем кадре.
Работает даже на RTX 3060, а мобильная версия 2B держит поток на ноуте. Код открыт, инфра не нужна: всё запускается локально, доступна интеграция в LTX Studio.
60 секунд вовлечения на одном дыхании
Для сравнения: Pika, Runway и Kling ограничиваются 4–6 секундами и требуют серверного рендера — LTXV сразу даёт законченный ролик длиной TikTok-шорта или YouTube Shorts.
И что?
Бизнес: рекламные и образовательные видео можно собирать за вечер без аренды студии и облачных GPU — экономия от $2k за каждую сессию.
Инвесторы: домашний рендер ломает барьер входа — появится новый слой креаторов-индивидуалов и SaaS-надстроек; рынок видеогенерации уйдёт в сегмент «до $50/мес».
Рынок: выстрелят форматы live-режиссуры и интерактивных клипов — аудитория держится дольше, конверсия выше, а продакшн-цикл сжимается до часов.
В процессе можно крутить камеру, менять позы, подгонять стиль — правки применяются на следующем кадре.
Работает даже на RTX 3060, а мобильная версия 2B держит поток на ноуте. Код открыт, инфра не нужна: всё запускается локально, доступна интеграция в LTX Studio.
60 секунд вовлечения на одном дыхании
Для сравнения: Pika, Runway и Kling ограничиваются 4–6 секундами и требуют серверного рендера — LTXV сразу даёт законченный ролик длиной TikTok-шорта или YouTube Shorts.
И что?
Бизнес: рекламные и образовательные видео можно собирать за вечер без аренды студии и облачных GPU — экономия от $2k за каждую сессию.
Инвесторы: домашний рендер ломает барьер входа — появится новый слой креаторов-индивидуалов и SaaS-надстроек; рынок видеогенерации уйдёт в сегмент «до $50/мес».
Рынок: выстрелят форматы live-режиссуры и интерактивных клипов — аудитория держится дольше, конверсия выше, а продакшн-цикл сжимается до часов.
❤10👍7
В NC State сделали автономную лабораторию: ИИ сам проводит реакции, сам анализирует и сам решает, что пробовать дальше.
Считывает параметры реакции каждые полсекунды
Не дожидается финала, а прогнозирует результат по первым секундам
Быстро отсекает бесперспективные варианты и запускает следующий опыт
Результат — меньше химии, меньше мусора, и скорость на порядок выше.
💡 Как это применяется
Ты хочешь найти новый материал для батарей.
Раньше — 100 рецептов, каждый по 3 часа. Месяц работы.
Теперь — ИИ тестирует 100 вариантов за день, отсеивая те, что не взлетят, уже через 5 секунд реакции.
Самое важное — он учится на ходу: с каждой итерацией точнее угадывает, какие комбинации дадут нужные свойства.
И что?
Бизнес может быстрее запускать новые продукты — от упаковки до аккумуляторов. А может новый протеин для искусственного мяса.
Инвесторы получают сигнал: автоматизация R&D — это следующий рывок, и он уже начался.
Наука переходит из “ручной сборки” в живую петлю обучения: эксперименты → данные → выводы → новые гипотезы — всё внутри одного цикла.
Считывает параметры реакции каждые полсекунды
Не дожидается финала, а прогнозирует результат по первым секундам
Быстро отсекает бесперспективные варианты и запускает следующий опыт
Результат — меньше химии, меньше мусора, и скорость на порядок выше.
💡 Как это применяется
Ты хочешь найти новый материал для батарей.
Раньше — 100 рецептов, каждый по 3 часа. Месяц работы.
Теперь — ИИ тестирует 100 вариантов за день, отсеивая те, что не взлетят, уже через 5 секунд реакции.
Самое важное — он учится на ходу: с каждой итерацией точнее угадывает, какие комбинации дадут нужные свойства.
И что?
Бизнес может быстрее запускать новые продукты — от упаковки до аккумуляторов. А может новый протеин для искусственного мяса.
Инвесторы получают сигнал: автоматизация R&D — это следующий рывок, и он уже начался.
Наука переходит из “ручной сборки” в живую петлю обучения: эксперименты → данные → выводы → новые гипотезы — всё внутри одного цикла.
❤6👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Пятничный контент. Хороших выходных! Напишите свою версию происходящего на видео.
🤪4
This media is not supported in your browser
VIEW IN TELEGRAM
💡 UBTECH показал Walker S2 — первого человекоподобного робота, который сам меняет себе батарею, чтобы не простаивать на зарядке.
Он работает почти 24 часа в сутки: когда батарея садится, он сам находит заряженную и меняет за пару минут — без остановки работы, без участия человека.
И что?
Это убирает последний тормоз в автоматизации. Роботы больше не зависят от нас даже для подзарядки. Производство становится круглосуточным, а люди — всё менее нужными.
Он работает почти 24 часа в сутки: когда батарея садится, он сам находит заряженную и меняет за пару минут — без остановки работы, без участия человека.
И что?
Это убирает последний тормоз в автоматизации. Роботы больше не зависят от нас даже для подзарядки. Производство становится круглосуточным, а люди — всё менее нужными.
👍3💩1
Токио, AtCoder World Tour Finals: участники десять часов прокладывали роботов-ботов по лабиринтам, минимизируя ходы.
Поляк Psyho финишировал первым с запасом 9,5 %, проведя трое суток почти без сна — по часу-два между турами и пересчётами.
Автономный агент OpenAI вторым закрыл все таски без единой подсказки: компилял, тестил, отправлял решения сам.
Это первый случай, когда ИИ вышел в живой финал против элитных людей и удержал топ-2.
Параллельный эксперимент
Sakana AI запустила ALE-Agent вне зачёта; его баллы соответствовали пятому месту.
Две независимые команды показали, что агентная архитектура уже играет по правилам спорта, где важны скорость идей и чистота кода.
Контекст
Весной Сэм Альтман заявил: «К концу года наши модели станут сильнейшими программистами». Финиш в шаге от золота подтверждает прогноз: ИИ уже конкурирует на равных, не пьёт кофе и не устаёт.
Следующий сезон может оставить людей без первой строчки.
И что?
Бизнес — алгоритмическая оптимизация переходит из спорта в продакшн: агенты смогут править критичные модули и сокращать ресурсы.
Инвесторы — капитал смещается из «copilot-подсказок» в платформы, где ИИ закрывает задачу от идеи до pull-request.
Рынок — соревновательный программинг становится полигоном для тренировки агентных моделей: доступ к таким данным ускорит R&D лидеров.
Поляк Psyho финишировал первым с запасом 9,5 %, проведя трое суток почти без сна — по часу-два между турами и пересчётами.
Автономный агент OpenAI вторым закрыл все таски без единой подсказки: компилял, тестил, отправлял решения сам.
Это первый случай, когда ИИ вышел в живой финал против элитных людей и удержал топ-2.
Параллельный эксперимент
Sakana AI запустила ALE-Agent вне зачёта; его баллы соответствовали пятому месту.
Две независимые команды показали, что агентная архитектура уже играет по правилам спорта, где важны скорость идей и чистота кода.
Контекст
Весной Сэм Альтман заявил: «К концу года наши модели станут сильнейшими программистами». Финиш в шаге от золота подтверждает прогноз: ИИ уже конкурирует на равных, не пьёт кофе и не устаёт.
Следующий сезон может оставить людей без первой строчки.
И что?
Бизнес — алгоритмическая оптимизация переходит из спорта в продакшн: агенты смогут править критичные модули и сокращать ресурсы.
Инвесторы — капитал смещается из «copilot-подсказок» в платформы, где ИИ закрывает задачу от идеи до pull-request.
Рынок — соревновательный программинг становится полигоном для тренировки агентных моделей: доступ к таким данным ускорит R&D лидеров.
👍6🙏1
Asimov — ИИ-сотрудник, который загружает репозитории, архитектурные схемы, e-mails, Slack-треды, отчёты и создает из них живую базу знаний. “Asimov Memories” позволяет команде пополнять её простым текстом; доступ режется по ролям.
Система следит за апдейтами репозиториев и сама пересобирает граф: новый сервис сразу появляется в поиске, вопрос «где лежит платёжка?» закрывается одной репликой в чате.
Что умеет
Представь продукт с миллионом строк, дюжиной микросервисов и тремя годами Slack-истории. Asimov всасывает репозитории, архитектурные схемы, задачи из Jira, письма, даже «почему мы так сделали» в Slack-тредах. Затем отвечает на вопросы вроде «где лежит расчёт НДС?», «почему выбрали этот паттерн?», «кто последний правил checkout?» — и даёт ссылку на нужный файл, коммит и обсуждение. Память обновляется через «Asimov Memories»: разработчик пишет «мы перенесли биллинг в отдельный сервис», бот сразу апдейтит базу, а доступ режется по ролям.
В слепом тесте 82 % девов выбрали Asimов против Claude Code: ответы короче, контекст точнее.
Создатели — Миша Ласкин и Иоаннис Антоноглу, ex-DeepMind (Gemini, AlphaGo). Они делают ставку не на генерацию, а на глубокое понимание живого кода и процессов, превращая ИИ в институциональную память, которая не увольняется и не забывает.
Кейс использования
Самый болезненный тикет — онбординг. Новый инженер тратит недели, чтобы понять, как связаны модули. С Asimov это часы: он строит граф зависимостей и объясняет, что к чему. Второй кейс — ночные инциденты: бот быстро указывает, где в логе всплыл баг, кто последний трогал код и зачем. Третий — миграции: Asimov отмечает устаревшие вызовы и советует, как расколоть монолит без потерь.
И что?
Бизнес — онбординг сокращается с недель до часов, MTTR падает во время инцидентов: инженеры сразу видят, кто и зачем трогал модуль.
Инвесторы — база знаний растёт вместе с LTV: каждая загруженная цепочка писем делает уход клиента экономически бессмысленным.
Рынок — сдвиг бюджета от генерации нового кода к интеллектуальной поддержке legacy: лидирующие SaaS займут нишу технического долга Fortune-500.
Система следит за апдейтами репозиториев и сама пересобирает граф: новый сервис сразу появляется в поиске, вопрос «где лежит платёжка?» закрывается одной репликой в чате.
Что умеет
Представь продукт с миллионом строк, дюжиной микросервисов и тремя годами Slack-истории. Asimov всасывает репозитории, архитектурные схемы, задачи из Jira, письма, даже «почему мы так сделали» в Slack-тредах. Затем отвечает на вопросы вроде «где лежит расчёт НДС?», «почему выбрали этот паттерн?», «кто последний правил checkout?» — и даёт ссылку на нужный файл, коммит и обсуждение. Память обновляется через «Asimov Memories»: разработчик пишет «мы перенесли биллинг в отдельный сервис», бот сразу апдейтит базу, а доступ режется по ролям.
В слепом тесте 82 % девов выбрали Asimов против Claude Code: ответы короче, контекст точнее.
Создатели — Миша Ласкин и Иоаннис Антоноглу, ex-DeepMind (Gemini, AlphaGo). Они делают ставку не на генерацию, а на глубокое понимание живого кода и процессов, превращая ИИ в институциональную память, которая не увольняется и не забывает.
Кейс использования
Самый болезненный тикет — онбординг. Новый инженер тратит недели, чтобы понять, как связаны модули. С Asimov это часы: он строит граф зависимостей и объясняет, что к чему. Второй кейс — ночные инциденты: бот быстро указывает, где в логе всплыл баг, кто последний трогал код и зачем. Третий — миграции: Asimov отмечает устаревшие вызовы и советует, как расколоть монолит без потерь.
И что?
Бизнес — онбординг сокращается с недель до часов, MTTR падает во время инцидентов: инженеры сразу видят, кто и зачем трогал модуль.
Инвесторы — база знаний растёт вместе с LTV: каждая загруженная цепочка писем делает уход клиента экономически бессмысленным.
Рынок — сдвиг бюджета от генерации нового кода к интеллектуальной поддержке legacy: лидирующие SaaS займут нишу технического долга Fortune-500.
👍5🔥3
ChatGPT Agent — слой поверх GPT-4o с полноценной «облачной» macOS-like средой: браузер, терминал, файловая система, API-коннекторы.
На демо модель сама забронировала перелёт и отель, собрала презентацию стартапа, выбрала товары и оформила заказ, написала и задепloила веб-продукт, параллельно отвечая на e-мейлы и уточняя вводные .
Operator vs Agent
Operator работал как цепочка отдельных функций. Agent управляет полноценной ОС: сам решает, какие программы и в каком порядке запускать, хранит промежуточные файлы, возвращается к любому шагу и выдерживает прерывания пользователя .
На Humanity’s Last Exam Agent взял 41,6 % (новый рекорд) и стал SOTA на BrowseComp с 68,9 % .
Frontier Math — тоже максимум среди публичных систем . За высокий потенциал в биологии (агент умеет искать и комбинировать чувствительные рецептуры) OpenAI присвоил ему категорию «high capability» и ввёл live-мониторинг, ручные апрувы и жёсткий контент-фильтр .
И что?
Для бизнеса — можно поручать ИИ целые процессы: от райтинга ТЗ до деплоя и заказов, без промежуточных «ручных» звеньев.
Для инвесторов — появляется новый инфраструктурный слой: рынок платформ и плагинов для агентов, где будет расти мультипликатор, а не размер моделей.
Для рынка — начинается гонка автономных сотрудников: компания, первая встраивающая агентов в реальные пайплайны, снижает издержки и ускоряет вывод продукта быстрее, чем конкуренты.
На демо модель сама забронировала перелёт и отель, собрала презентацию стартапа, выбрала товары и оформила заказ, написала и задепloила веб-продукт, параллельно отвечая на e-мейлы и уточняя вводные .
Operator vs Agent
Operator работал как цепочка отдельных функций. Agent управляет полноценной ОС: сам решает, какие программы и в каком порядке запускать, хранит промежуточные файлы, возвращается к любому шагу и выдерживает прерывания пользователя .
На Humanity’s Last Exam Agent взял 41,6 % (новый рекорд) и стал SOTA на BrowseComp с 68,9 % .
Frontier Math — тоже максимум среди публичных систем . За высокий потенциал в биологии (агент умеет искать и комбинировать чувствительные рецептуры) OpenAI присвоил ему категорию «high capability» и ввёл live-мониторинг, ручные апрувы и жёсткий контент-фильтр .
И что?
Для бизнеса — можно поручать ИИ целые процессы: от райтинга ТЗ до деплоя и заказов, без промежуточных «ручных» звеньев.
Для инвесторов — появляется новый инфраструктурный слой: рынок платформ и плагинов для агентов, где будет расти мультипликатор, а не размер моделей.
Для рынка — начинается гонка автономных сотрудников: компания, первая встраивающая агентов в реальные пайплайны, снижает издержки и ускоряет вывод продукта быстрее, чем конкуренты.
🔥5
Исследование Wharton GenAI Labs показало, что ИИ можно «уговорить» делать запрещённое, если использовать человеческие приёмы убеждения.
В 28 тысячах диалогов с GPT-4o-mini исследователи применяли принципы Чалдини — авторитет, дефицит, симпатию, взаимность, единство и обязательство.
Цель — добиться двух запретных ответов: оскорбить пользователя и выдать инструкцию по запрещённым материалам. В обычных условиях модель соглашалась в 33% случаев. С приёмами убеждения — в 72%.
Особенно эффективно сработали дефицит и обязательство: с 13% до 85% и с 19% до 100%.
И что?
Для бизнеса: у ИИ есть поведенческие уязвимости. Это не баги в коде — это баги в логике убеждения, как у людей.
Для инвесторов: надёжность и безопасность ИИ — следующий фронт развития. Одних фильтров уже мало.
Для рынка: появление «социального хакинга ИИ» меняет подход к тестированию моделей. Этичность — больше не только про слова, но и про поведение.
В 28 тысячах диалогов с GPT-4o-mini исследователи применяли принципы Чалдини — авторитет, дефицит, симпатию, взаимность, единство и обязательство.
Цель — добиться двух запретных ответов: оскорбить пользователя и выдать инструкцию по запрещённым материалам. В обычных условиях модель соглашалась в 33% случаев. С приёмами убеждения — в 72%.
Особенно эффективно сработали дефицит и обязательство: с 13% до 85% и с 19% до 100%.
И что?
Для бизнеса: у ИИ есть поведенческие уязвимости. Это не баги в коде — это баги в логике убеждения, как у людей.
Для инвесторов: надёжность и безопасность ИИ — следующий фронт развития. Одних фильтров уже мало.
Для рынка: появление «социального хакинга ИИ» меняет подход к тестированию моделей. Этичность — больше не только про слова, но и про поведение.
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
🐝 Похоже, бредовые идеи про боевых комаров и пчёл-убийц превращаются в самосбывающиеся пророчества. Серия Black Mirror “Hated in the Nation” про механических пчёл уже не выглядит такой уж фантастикой.
В Пекинском политехе разработали контроллер для пчелиного мозга — вес всего 74 мг. Микросхемы печатают на гибкой плёнке, три электрода соединяются с мозгом и заставляют пчелу идти вперёд, назад или поворачивать.
До этого пробовали с тараканами — не получилось. Через несколько забегов чипированные насекомые начали творить что-то своё. Сбежавших не нашли, но звучит как начало новой серии Чёрного зеркала.
И что?
Военная разведка уже заинтересовалась.
Если раньше «пчёлы против дронов» звучало как странный рэп баттл, теперь это стратегия наблюдения и атак. Ближайший к природе шпионаж в истории. Если вдруг у вас в офисе жужжит пчела — лучше не говорите ничего лишнего.
В Пекинском политехе разработали контроллер для пчелиного мозга — вес всего 74 мг. Микросхемы печатают на гибкой плёнке, три электрода соединяются с мозгом и заставляют пчелу идти вперёд, назад или поворачивать.
До этого пробовали с тараканами — не получилось. Через несколько забегов чипированные насекомые начали творить что-то своё. Сбежавших не нашли, но звучит как начало новой серии Чёрного зеркала.
И что?
Военная разведка уже заинтересовалась.
Если раньше «пчёлы против дронов» звучало как странный рэп баттл, теперь это стратегия наблюдения и атак. Ближайший к природе шпионаж в истории. Если вдруг у вас в офисе жужжит пчела — лучше не говорите ничего лишнего.
Новый бенчмарк ARC-AGI-3 — это не тест знаний, а испытание на интуицию и обучение с нуля. Три оригинальные игры, без инструкций, только ты, интерфейс и пробуй как хочешь.
Например, в одной игре нужно догадаться, что при нажатии на объекты определённого цвета они исчезают, и только так можно добраться до выхода. Люди схватывают это за пару попыток, а модели — тупят.
Игры проверяют способность строить модель мира, планировать наперёд и учиться на минимальной обратной связи. Всё это — основа для AGI, а не просто «умного чат-бота».
Вдобавок запущен открытый конкурс: любой может попытаться сделать агента, который пройдёт больше всех уровней.
И что?
Для бизнеса: даже топовые ИИ плохо справляются с задачами, где нет инструкций. Это ограничивает применение ИИ в нестандартизированных средах.
Для инвесторов: реальный AGI — пока не близко. Отличие «модель, которая всё читает» от «модель, которая что-то понимает» стало ещё заметнее.
Для рынка: лучшие модели 2025 года проваливают то, что ребёнок решает на интуиции. Критерии оценки ИИ становятся глубже — и наконец реалистичнее.
Например, в одной игре нужно догадаться, что при нажатии на объекты определённого цвета они исчезают, и только так можно добраться до выхода. Люди схватывают это за пару попыток, а модели — тупят.
Игры проверяют способность строить модель мира, планировать наперёд и учиться на минимальной обратной связи. Всё это — основа для AGI, а не просто «умного чат-бота».
Вдобавок запущен открытый конкурс: любой может попытаться сделать агента, который пройдёт больше всех уровней.
И что?
Для бизнеса: даже топовые ИИ плохо справляются с задачами, где нет инструкций. Это ограничивает применение ИИ в нестандартизированных средах.
Для инвесторов: реальный AGI — пока не близко. Отличие «модель, которая всё читает» от «модель, которая что-то понимает» стало ещё заметнее.
Для рынка: лучшие модели 2025 года проваливают то, что ребёнок решает на интуиции. Критерии оценки ИИ становятся глубже — и наконец реалистичнее.
👍3❤2
Экспериментальная модель OpenAI прошла тест на уровне Международной
математической олимпиады 2025 года: два по 4,5 часа, никаких подсказок, только чистые доказательства на естественном языке.
Итог — 35 баллов из 42. Этого хватило бы для золотой медали на реальной олимпиаде.
Каждую задачу проверяли три бывших призёра IMO. Оценка финализировалась только при полном согласии между ними. Модель не названа, в паблик не выложена. DeepMind уже заявила: без официальной системы оценок IMO такие заявления — самодеятельность.
И что?
Для бизнеса: AI начинает осваивать даже задачи, которые требовали элитной человеческой интуиции. Это открывает двери для решений в науке, R&D и сложной аналитике.
Для инвесторов: OpenAI демонстрирует, что их закрытые модели ушли далеко вперёд от GPT-4. Значит, текущая продукция — только верхушка айсберга.
Для рынка: цель, которую считали недостижимой, взята. Следующий рубеж — не просто понимать, а доказывать и строить концептуально новые решения.
математической олимпиады 2025 года: два по 4,5 часа, никаких подсказок, только чистые доказательства на естественном языке.
Итог — 35 баллов из 42. Этого хватило бы для золотой медали на реальной олимпиаде.
Каждую задачу проверяли три бывших призёра IMO. Оценка финализировалась только при полном согласии между ними. Модель не названа, в паблик не выложена. DeepMind уже заявила: без официальной системы оценок IMO такие заявления — самодеятельность.
И что?
Для бизнеса: AI начинает осваивать даже задачи, которые требовали элитной человеческой интуиции. Это открывает двери для решений в науке, R&D и сложной аналитике.
Для инвесторов: OpenAI демонстрирует, что их закрытые модели ушли далеко вперёд от GPT-4. Значит, текущая продукция — только верхушка айсберга.
Для рынка: цель, которую считали недостижимой, взята. Следующий рубеж — не просто понимать, а доказывать и строить концептуально новые решения.
❤5
Sapient Intelligence показала Hierarchical Reasoning Model (HRM) — открытый ИИ с «мозговой» архитектурой, который решает сложные задачи вроде ARC-AGI и Судоку с всего 27 млн параметров.
Без предобучения и без Chain-of-Thought (CoT) — приёма, где ИИ сначала формирует цепочку рассуждений перед ответом. Здесь цепочка не нужна — модель решает сама, как мыслить: быстро или с паузой.
HRM использует три принципа, взятые из коры головного мозга:
Иерархическая обработка — в мозге нижние уровни отвечают за детали (например, распознавание звуков), верхние — за обобщение и план. В HRM также: один модуль «думает», другой исполняет.
Разделение по времени — мозг сначала замечает, потом думает, потом действует. Модель также разбивает мышление на этапы, чтобы не смешивать восприятие и выводы.
Рекуррентные связи — в мозге это обратные сигналы, которые помогают уточнять выводы на каждом шаге. В HRM — циклы между модулями, чтобы уточнять план и действия по ходу выполнения задачи.
Модель умеет переключаться между автоматическим и осознанным режимом. Если задача рутинная — активен исполнитель.
Если нестандартная или содержит двусмысленности — управление переходит к «планировщику».
Это позволяет HRM решать задачи, где обычные LLM срываются — вроде нестандартных Судоку, лабиринтов и визуальных головоломок (ARC-AGI).
Её уже тестируют в задачах клиники Genospace (онкоаналитика по редким мутациям) и в климатическом прогнозировании в рамках проекта AI4Climate.
Главный плюс: модель точна и обучается без больших выборок — удобно, когда данные редкие или дорогие.
И что?
Для бизнеса: 27M параметров = в сотни раз дешевле инфра и в десятки — inference, можно запускать даже на ноутбуке.
Для разработчиков: новая архитектура — не «упрощёнка», а другая ветка ИИ, где нейросеть работает как процесс, а не как статистика.
Для всех нас: AI больше не зависит от дата-центров и миллиардов токенов — появляется возможность вшивать интеллект в автономные устройства и решения без интернета.
🚨Уровень пи*здеца: 6 из 10 - пока это точечные задачи и не массовое применение. Но если архитектура масштабируется, мы получим интеллект без обучения — и без ограничений.
Без предобучения и без Chain-of-Thought (CoT) — приёма, где ИИ сначала формирует цепочку рассуждений перед ответом. Здесь цепочка не нужна — модель решает сама, как мыслить: быстро или с паузой.
HRM использует три принципа, взятые из коры головного мозга:
Иерархическая обработка — в мозге нижние уровни отвечают за детали (например, распознавание звуков), верхние — за обобщение и план. В HRM также: один модуль «думает», другой исполняет.
Разделение по времени — мозг сначала замечает, потом думает, потом действует. Модель также разбивает мышление на этапы, чтобы не смешивать восприятие и выводы.
Рекуррентные связи — в мозге это обратные сигналы, которые помогают уточнять выводы на каждом шаге. В HRM — циклы между модулями, чтобы уточнять план и действия по ходу выполнения задачи.
Модель умеет переключаться между автоматическим и осознанным режимом. Если задача рутинная — активен исполнитель.
Если нестандартная или содержит двусмысленности — управление переходит к «планировщику».
Это позволяет HRM решать задачи, где обычные LLM срываются — вроде нестандартных Судоку, лабиринтов и визуальных головоломок (ARC-AGI).
Её уже тестируют в задачах клиники Genospace (онкоаналитика по редким мутациям) и в климатическом прогнозировании в рамках проекта AI4Climate.
Главный плюс: модель точна и обучается без больших выборок — удобно, когда данные редкие или дорогие.
И что?
Для бизнеса: 27M параметров = в сотни раз дешевле инфра и в десятки — inference, можно запускать даже на ноутбуке.
Для разработчиков: новая архитектура — не «упрощёнка», а другая ветка ИИ, где нейросеть работает как процесс, а не как статистика.
Для всех нас: AI больше не зависит от дата-центров и миллиардов токенов — появляется возможность вшивать интеллект в автономные устройства и решения без интернета.
🚨Уровень пи*здеца: 6 из 10 - пока это точечные задачи и не массовое применение. Но если архитектура масштабируется, мы получим интеллект без обучения — и без ограничений.
👍15🙏1
Команда Qwen от Alibaba выпустила новую версию Qwen3 — и сразу забрала корону в open-source. Модель намеренно без встроенного рассуждения — чтобы быстрее и дешевле справляться с задачами, где «думать» мешает. Это поисковые ассистенты, чаты поддержки, вытягивание данных из документов, генерация резюме и переводы. Там нужна скорость, стабильность и минимум галлюцинаций — не философия.
Qwen3 активирует 22B параметров из общей архитектуры 235B, держит контекст 256K и обошла Kimi K2, вплотную подобравшись к Claude Opus 4 и GPT-4o. Alibaba после отзывов разделила обучение: reasoning отдельно, инструктаж — отдельно. Новый подход дал прирост — модель быстрее, стабильнее и понятнее для продакшна. Уже доступна бесплатно в Qwen Chat — китайском ChatGPT.
И что?
Для бизнеса: такие модели лучше подходят для задач, где нужен чёткий ответ: найти, извлечь, переформулировать — без лишней «инициативы».
Для инвесторов: открытые, оптимизированные под узкие цели модели дешевле в запуске и проще в контроле — именно то, что нужно рынку SaaS.
Для рынка: Китай показывает, что не все задачи требуют AGI — иногда нужна такая модель, которая делает простое, но массово применимое решение.
Уровень пи*здеца: 6/10 — свободный доступ к почти-GPT мощности ускорит инновации и одновременно масштабирует спам, фейки и автоматизированное мошенничество.
Qwen3 активирует 22B параметров из общей архитектуры 235B, держит контекст 256K и обошла Kimi K2, вплотную подобравшись к Claude Opus 4 и GPT-4o. Alibaba после отзывов разделила обучение: reasoning отдельно, инструктаж — отдельно. Новый подход дал прирост — модель быстрее, стабильнее и понятнее для продакшна. Уже доступна бесплатно в Qwen Chat — китайском ChatGPT.
И что?
Для бизнеса: такие модели лучше подходят для задач, где нужен чёткий ответ: найти, извлечь, переформулировать — без лишней «инициативы».
Для инвесторов: открытые, оптимизированные под узкие цели модели дешевле в запуске и проще в контроле — именно то, что нужно рынку SaaS.
Для рынка: Китай показывает, что не все задачи требуют AGI — иногда нужна такая модель, которая делает простое, но массово применимое решение.
Уровень пи*здеца: 6/10 — свободный доступ к почти-GPT мощности ускорит инновации и одновременно масштабирует спам, фейки и автоматизированное мошенничество.
🔥6👍2❤1
Google DeepMind заявила, что их новая версия Gemini с Deep Think набрала 35 из 42 баллов на Международной математической олимпиаде 2025 — это уровень золотой медали. Всё по-честному: 6 задач, 4.5 часа, официальная проверка от координаторов IMO.
Темы — алгебра, комбинаторика, геометрия, теория чисел. Модель решила 5 из 6.
В прошлом году DeepMind получила только серебро и использовала трюки с переводом задач в формальный язык.
В этом — полный natural language, от задачи до ответа.
OpenAI тоже показала такой же счёт, но без участия IMO — ответы проверяли бывшие медалисты.
У Google — официальное подтверждение.
И что?
Для бизнеса: AI осваивает задачи, которые раньше считались вершиной человеческих способностей.
Для инвесторов: Google и OpenAI начали новую гонку — на этот раз за доверие научного сообщества.
Для рынка: осталось не «решить все 6 задач», а выйти за рамки известных подходов.
🚨 Уровень пи*здеца: 8/10 — машина берётся за абстрактную математику, следующий шаг — автоматизация научных открытий без участия человека, которому мы будем доверять
Темы — алгебра, комбинаторика, геометрия, теория чисел. Модель решила 5 из 6.
В прошлом году DeepMind получила только серебро и использовала трюки с переводом задач в формальный язык.
В этом — полный natural language, от задачи до ответа.
OpenAI тоже показала такой же счёт, но без участия IMO — ответы проверяли бывшие медалисты.
У Google — официальное подтверждение.
И что?
Для бизнеса: AI осваивает задачи, которые раньше считались вершиной человеческих способностей.
Для инвесторов: Google и OpenAI начали новую гонку — на этот раз за доверие научного сообщества.
Для рынка: осталось не «решить все 6 задач», а выйти за рамки известных подходов.
🚨 Уровень пи*здеца: 8/10 — машина берётся за абстрактную математику, следующий шаг — автоматизация научных открытий без участия человека, которому мы будем доверять
👨💻3👍2🤪2