This media is not supported in your browser
VIEW IN TELEGRAM
💡 UBTECH показал Walker S2 — первого человекоподобного робота, который сам меняет себе батарею, чтобы не простаивать на зарядке.
Он работает почти 24 часа в сутки: когда батарея садится, он сам находит заряженную и меняет за пару минут — без остановки работы, без участия человека.
И что?
Это убирает последний тормоз в автоматизации. Роботы больше не зависят от нас даже для подзарядки. Производство становится круглосуточным, а люди — всё менее нужными.
Он работает почти 24 часа в сутки: когда батарея садится, он сам находит заряженную и меняет за пару минут — без остановки работы, без участия человека.
И что?
Это убирает последний тормоз в автоматизации. Роботы больше не зависят от нас даже для подзарядки. Производство становится круглосуточным, а люди — всё менее нужными.
👍3💩1
Токио, AtCoder World Tour Finals: участники десять часов прокладывали роботов-ботов по лабиринтам, минимизируя ходы.
Поляк Psyho финишировал первым с запасом 9,5 %, проведя трое суток почти без сна — по часу-два между турами и пересчётами.
Автономный агент OpenAI вторым закрыл все таски без единой подсказки: компилял, тестил, отправлял решения сам.
Это первый случай, когда ИИ вышел в живой финал против элитных людей и удержал топ-2.
Параллельный эксперимент
Sakana AI запустила ALE-Agent вне зачёта; его баллы соответствовали пятому месту.
Две независимые команды показали, что агентная архитектура уже играет по правилам спорта, где важны скорость идей и чистота кода.
Контекст
Весной Сэм Альтман заявил: «К концу года наши модели станут сильнейшими программистами». Финиш в шаге от золота подтверждает прогноз: ИИ уже конкурирует на равных, не пьёт кофе и не устаёт.
Следующий сезон может оставить людей без первой строчки.
И что?
Бизнес — алгоритмическая оптимизация переходит из спорта в продакшн: агенты смогут править критичные модули и сокращать ресурсы.
Инвесторы — капитал смещается из «copilot-подсказок» в платформы, где ИИ закрывает задачу от идеи до pull-request.
Рынок — соревновательный программинг становится полигоном для тренировки агентных моделей: доступ к таким данным ускорит R&D лидеров.
Поляк Psyho финишировал первым с запасом 9,5 %, проведя трое суток почти без сна — по часу-два между турами и пересчётами.
Автономный агент OpenAI вторым закрыл все таски без единой подсказки: компилял, тестил, отправлял решения сам.
Это первый случай, когда ИИ вышел в живой финал против элитных людей и удержал топ-2.
Параллельный эксперимент
Sakana AI запустила ALE-Agent вне зачёта; его баллы соответствовали пятому месту.
Две независимые команды показали, что агентная архитектура уже играет по правилам спорта, где важны скорость идей и чистота кода.
Контекст
Весной Сэм Альтман заявил: «К концу года наши модели станут сильнейшими программистами». Финиш в шаге от золота подтверждает прогноз: ИИ уже конкурирует на равных, не пьёт кофе и не устаёт.
Следующий сезон может оставить людей без первой строчки.
И что?
Бизнес — алгоритмическая оптимизация переходит из спорта в продакшн: агенты смогут править критичные модули и сокращать ресурсы.
Инвесторы — капитал смещается из «copilot-подсказок» в платформы, где ИИ закрывает задачу от идеи до pull-request.
Рынок — соревновательный программинг становится полигоном для тренировки агентных моделей: доступ к таким данным ускорит R&D лидеров.
👍6🙏1
Asimov — ИИ-сотрудник, который загружает репозитории, архитектурные схемы, e-mails, Slack-треды, отчёты и создает из них живую базу знаний. “Asimov Memories” позволяет команде пополнять её простым текстом; доступ режется по ролям.
Система следит за апдейтами репозиториев и сама пересобирает граф: новый сервис сразу появляется в поиске, вопрос «где лежит платёжка?» закрывается одной репликой в чате.
Что умеет
Представь продукт с миллионом строк, дюжиной микросервисов и тремя годами Slack-истории. Asimov всасывает репозитории, архитектурные схемы, задачи из Jira, письма, даже «почему мы так сделали» в Slack-тредах. Затем отвечает на вопросы вроде «где лежит расчёт НДС?», «почему выбрали этот паттерн?», «кто последний правил checkout?» — и даёт ссылку на нужный файл, коммит и обсуждение. Память обновляется через «Asimov Memories»: разработчик пишет «мы перенесли биллинг в отдельный сервис», бот сразу апдейтит базу, а доступ режется по ролям.
В слепом тесте 82 % девов выбрали Asimов против Claude Code: ответы короче, контекст точнее.
Создатели — Миша Ласкин и Иоаннис Антоноглу, ex-DeepMind (Gemini, AlphaGo). Они делают ставку не на генерацию, а на глубокое понимание живого кода и процессов, превращая ИИ в институциональную память, которая не увольняется и не забывает.
Кейс использования
Самый болезненный тикет — онбординг. Новый инженер тратит недели, чтобы понять, как связаны модули. С Asimov это часы: он строит граф зависимостей и объясняет, что к чему. Второй кейс — ночные инциденты: бот быстро указывает, где в логе всплыл баг, кто последний трогал код и зачем. Третий — миграции: Asimov отмечает устаревшие вызовы и советует, как расколоть монолит без потерь.
И что?
Бизнес — онбординг сокращается с недель до часов, MTTR падает во время инцидентов: инженеры сразу видят, кто и зачем трогал модуль.
Инвесторы — база знаний растёт вместе с LTV: каждая загруженная цепочка писем делает уход клиента экономически бессмысленным.
Рынок — сдвиг бюджета от генерации нового кода к интеллектуальной поддержке legacy: лидирующие SaaS займут нишу технического долга Fortune-500.
Система следит за апдейтами репозиториев и сама пересобирает граф: новый сервис сразу появляется в поиске, вопрос «где лежит платёжка?» закрывается одной репликой в чате.
Что умеет
Представь продукт с миллионом строк, дюжиной микросервисов и тремя годами Slack-истории. Asimov всасывает репозитории, архитектурные схемы, задачи из Jira, письма, даже «почему мы так сделали» в Slack-тредах. Затем отвечает на вопросы вроде «где лежит расчёт НДС?», «почему выбрали этот паттерн?», «кто последний правил checkout?» — и даёт ссылку на нужный файл, коммит и обсуждение. Память обновляется через «Asimov Memories»: разработчик пишет «мы перенесли биллинг в отдельный сервис», бот сразу апдейтит базу, а доступ режется по ролям.
В слепом тесте 82 % девов выбрали Asimов против Claude Code: ответы короче, контекст точнее.
Создатели — Миша Ласкин и Иоаннис Антоноглу, ex-DeepMind (Gemini, AlphaGo). Они делают ставку не на генерацию, а на глубокое понимание живого кода и процессов, превращая ИИ в институциональную память, которая не увольняется и не забывает.
Кейс использования
Самый болезненный тикет — онбординг. Новый инженер тратит недели, чтобы понять, как связаны модули. С Asimov это часы: он строит граф зависимостей и объясняет, что к чему. Второй кейс — ночные инциденты: бот быстро указывает, где в логе всплыл баг, кто последний трогал код и зачем. Третий — миграции: Asimov отмечает устаревшие вызовы и советует, как расколоть монолит без потерь.
И что?
Бизнес — онбординг сокращается с недель до часов, MTTR падает во время инцидентов: инженеры сразу видят, кто и зачем трогал модуль.
Инвесторы — база знаний растёт вместе с LTV: каждая загруженная цепочка писем делает уход клиента экономически бессмысленным.
Рынок — сдвиг бюджета от генерации нового кода к интеллектуальной поддержке legacy: лидирующие SaaS займут нишу технического долга Fortune-500.
👍5🔥3
ChatGPT Agent — слой поверх GPT-4o с полноценной «облачной» macOS-like средой: браузер, терминал, файловая система, API-коннекторы.
На демо модель сама забронировала перелёт и отель, собрала презентацию стартапа, выбрала товары и оформила заказ, написала и задепloила веб-продукт, параллельно отвечая на e-мейлы и уточняя вводные .
Operator vs Agent
Operator работал как цепочка отдельных функций. Agent управляет полноценной ОС: сам решает, какие программы и в каком порядке запускать, хранит промежуточные файлы, возвращается к любому шагу и выдерживает прерывания пользователя .
На Humanity’s Last Exam Agent взял 41,6 % (новый рекорд) и стал SOTA на BrowseComp с 68,9 % .
Frontier Math — тоже максимум среди публичных систем . За высокий потенциал в биологии (агент умеет искать и комбинировать чувствительные рецептуры) OpenAI присвоил ему категорию «high capability» и ввёл live-мониторинг, ручные апрувы и жёсткий контент-фильтр .
И что?
Для бизнеса — можно поручать ИИ целые процессы: от райтинга ТЗ до деплоя и заказов, без промежуточных «ручных» звеньев.
Для инвесторов — появляется новый инфраструктурный слой: рынок платформ и плагинов для агентов, где будет расти мультипликатор, а не размер моделей.
Для рынка — начинается гонка автономных сотрудников: компания, первая встраивающая агентов в реальные пайплайны, снижает издержки и ускоряет вывод продукта быстрее, чем конкуренты.
На демо модель сама забронировала перелёт и отель, собрала презентацию стартапа, выбрала товары и оформила заказ, написала и задепloила веб-продукт, параллельно отвечая на e-мейлы и уточняя вводные .
Operator vs Agent
Operator работал как цепочка отдельных функций. Agent управляет полноценной ОС: сам решает, какие программы и в каком порядке запускать, хранит промежуточные файлы, возвращается к любому шагу и выдерживает прерывания пользователя .
На Humanity’s Last Exam Agent взял 41,6 % (новый рекорд) и стал SOTA на BrowseComp с 68,9 % .
Frontier Math — тоже максимум среди публичных систем . За высокий потенциал в биологии (агент умеет искать и комбинировать чувствительные рецептуры) OpenAI присвоил ему категорию «high capability» и ввёл live-мониторинг, ручные апрувы и жёсткий контент-фильтр .
И что?
Для бизнеса — можно поручать ИИ целые процессы: от райтинга ТЗ до деплоя и заказов, без промежуточных «ручных» звеньев.
Для инвесторов — появляется новый инфраструктурный слой: рынок платформ и плагинов для агентов, где будет расти мультипликатор, а не размер моделей.
Для рынка — начинается гонка автономных сотрудников: компания, первая встраивающая агентов в реальные пайплайны, снижает издержки и ускоряет вывод продукта быстрее, чем конкуренты.
🔥5
Исследование Wharton GenAI Labs показало, что ИИ можно «уговорить» делать запрещённое, если использовать человеческие приёмы убеждения.
В 28 тысячах диалогов с GPT-4o-mini исследователи применяли принципы Чалдини — авторитет, дефицит, симпатию, взаимность, единство и обязательство.
Цель — добиться двух запретных ответов: оскорбить пользователя и выдать инструкцию по запрещённым материалам. В обычных условиях модель соглашалась в 33% случаев. С приёмами убеждения — в 72%.
Особенно эффективно сработали дефицит и обязательство: с 13% до 85% и с 19% до 100%.
И что?
Для бизнеса: у ИИ есть поведенческие уязвимости. Это не баги в коде — это баги в логике убеждения, как у людей.
Для инвесторов: надёжность и безопасность ИИ — следующий фронт развития. Одних фильтров уже мало.
Для рынка: появление «социального хакинга ИИ» меняет подход к тестированию моделей. Этичность — больше не только про слова, но и про поведение.
В 28 тысячах диалогов с GPT-4o-mini исследователи применяли принципы Чалдини — авторитет, дефицит, симпатию, взаимность, единство и обязательство.
Цель — добиться двух запретных ответов: оскорбить пользователя и выдать инструкцию по запрещённым материалам. В обычных условиях модель соглашалась в 33% случаев. С приёмами убеждения — в 72%.
Особенно эффективно сработали дефицит и обязательство: с 13% до 85% и с 19% до 100%.
И что?
Для бизнеса: у ИИ есть поведенческие уязвимости. Это не баги в коде — это баги в логике убеждения, как у людей.
Для инвесторов: надёжность и безопасность ИИ — следующий фронт развития. Одних фильтров уже мало.
Для рынка: появление «социального хакинга ИИ» меняет подход к тестированию моделей. Этичность — больше не только про слова, но и про поведение.
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
🐝 Похоже, бредовые идеи про боевых комаров и пчёл-убийц превращаются в самосбывающиеся пророчества. Серия Black Mirror “Hated in the Nation” про механических пчёл уже не выглядит такой уж фантастикой.
В Пекинском политехе разработали контроллер для пчелиного мозга — вес всего 74 мг. Микросхемы печатают на гибкой плёнке, три электрода соединяются с мозгом и заставляют пчелу идти вперёд, назад или поворачивать.
До этого пробовали с тараканами — не получилось. Через несколько забегов чипированные насекомые начали творить что-то своё. Сбежавших не нашли, но звучит как начало новой серии Чёрного зеркала.
И что?
Военная разведка уже заинтересовалась.
Если раньше «пчёлы против дронов» звучало как странный рэп баттл, теперь это стратегия наблюдения и атак. Ближайший к природе шпионаж в истории. Если вдруг у вас в офисе жужжит пчела — лучше не говорите ничего лишнего.
В Пекинском политехе разработали контроллер для пчелиного мозга — вес всего 74 мг. Микросхемы печатают на гибкой плёнке, три электрода соединяются с мозгом и заставляют пчелу идти вперёд, назад или поворачивать.
До этого пробовали с тараканами — не получилось. Через несколько забегов чипированные насекомые начали творить что-то своё. Сбежавших не нашли, но звучит как начало новой серии Чёрного зеркала.
И что?
Военная разведка уже заинтересовалась.
Если раньше «пчёлы против дронов» звучало как странный рэп баттл, теперь это стратегия наблюдения и атак. Ближайший к природе шпионаж в истории. Если вдруг у вас в офисе жужжит пчела — лучше не говорите ничего лишнего.
Новый бенчмарк ARC-AGI-3 — это не тест знаний, а испытание на интуицию и обучение с нуля. Три оригинальные игры, без инструкций, только ты, интерфейс и пробуй как хочешь.
Например, в одной игре нужно догадаться, что при нажатии на объекты определённого цвета они исчезают, и только так можно добраться до выхода. Люди схватывают это за пару попыток, а модели — тупят.
Игры проверяют способность строить модель мира, планировать наперёд и учиться на минимальной обратной связи. Всё это — основа для AGI, а не просто «умного чат-бота».
Вдобавок запущен открытый конкурс: любой может попытаться сделать агента, который пройдёт больше всех уровней.
И что?
Для бизнеса: даже топовые ИИ плохо справляются с задачами, где нет инструкций. Это ограничивает применение ИИ в нестандартизированных средах.
Для инвесторов: реальный AGI — пока не близко. Отличие «модель, которая всё читает» от «модель, которая что-то понимает» стало ещё заметнее.
Для рынка: лучшие модели 2025 года проваливают то, что ребёнок решает на интуиции. Критерии оценки ИИ становятся глубже — и наконец реалистичнее.
Например, в одной игре нужно догадаться, что при нажатии на объекты определённого цвета они исчезают, и только так можно добраться до выхода. Люди схватывают это за пару попыток, а модели — тупят.
Игры проверяют способность строить модель мира, планировать наперёд и учиться на минимальной обратной связи. Всё это — основа для AGI, а не просто «умного чат-бота».
Вдобавок запущен открытый конкурс: любой может попытаться сделать агента, который пройдёт больше всех уровней.
И что?
Для бизнеса: даже топовые ИИ плохо справляются с задачами, где нет инструкций. Это ограничивает применение ИИ в нестандартизированных средах.
Для инвесторов: реальный AGI — пока не близко. Отличие «модель, которая всё читает» от «модель, которая что-то понимает» стало ещё заметнее.
Для рынка: лучшие модели 2025 года проваливают то, что ребёнок решает на интуиции. Критерии оценки ИИ становятся глубже — и наконец реалистичнее.
👍3❤2
Экспериментальная модель OpenAI прошла тест на уровне Международной
математической олимпиады 2025 года: два по 4,5 часа, никаких подсказок, только чистые доказательства на естественном языке.
Итог — 35 баллов из 42. Этого хватило бы для золотой медали на реальной олимпиаде.
Каждую задачу проверяли три бывших призёра IMO. Оценка финализировалась только при полном согласии между ними. Модель не названа, в паблик не выложена. DeepMind уже заявила: без официальной системы оценок IMO такие заявления — самодеятельность.
И что?
Для бизнеса: AI начинает осваивать даже задачи, которые требовали элитной человеческой интуиции. Это открывает двери для решений в науке, R&D и сложной аналитике.
Для инвесторов: OpenAI демонстрирует, что их закрытые модели ушли далеко вперёд от GPT-4. Значит, текущая продукция — только верхушка айсберга.
Для рынка: цель, которую считали недостижимой, взята. Следующий рубеж — не просто понимать, а доказывать и строить концептуально новые решения.
математической олимпиады 2025 года: два по 4,5 часа, никаких подсказок, только чистые доказательства на естественном языке.
Итог — 35 баллов из 42. Этого хватило бы для золотой медали на реальной олимпиаде.
Каждую задачу проверяли три бывших призёра IMO. Оценка финализировалась только при полном согласии между ними. Модель не названа, в паблик не выложена. DeepMind уже заявила: без официальной системы оценок IMO такие заявления — самодеятельность.
И что?
Для бизнеса: AI начинает осваивать даже задачи, которые требовали элитной человеческой интуиции. Это открывает двери для решений в науке, R&D и сложной аналитике.
Для инвесторов: OpenAI демонстрирует, что их закрытые модели ушли далеко вперёд от GPT-4. Значит, текущая продукция — только верхушка айсберга.
Для рынка: цель, которую считали недостижимой, взята. Следующий рубеж — не просто понимать, а доказывать и строить концептуально новые решения.
❤5
Sapient Intelligence показала Hierarchical Reasoning Model (HRM) — открытый ИИ с «мозговой» архитектурой, который решает сложные задачи вроде ARC-AGI и Судоку с всего 27 млн параметров.
Без предобучения и без Chain-of-Thought (CoT) — приёма, где ИИ сначала формирует цепочку рассуждений перед ответом. Здесь цепочка не нужна — модель решает сама, как мыслить: быстро или с паузой.
HRM использует три принципа, взятые из коры головного мозга:
Иерархическая обработка — в мозге нижние уровни отвечают за детали (например, распознавание звуков), верхние — за обобщение и план. В HRM также: один модуль «думает», другой исполняет.
Разделение по времени — мозг сначала замечает, потом думает, потом действует. Модель также разбивает мышление на этапы, чтобы не смешивать восприятие и выводы.
Рекуррентные связи — в мозге это обратные сигналы, которые помогают уточнять выводы на каждом шаге. В HRM — циклы между модулями, чтобы уточнять план и действия по ходу выполнения задачи.
Модель умеет переключаться между автоматическим и осознанным режимом. Если задача рутинная — активен исполнитель.
Если нестандартная или содержит двусмысленности — управление переходит к «планировщику».
Это позволяет HRM решать задачи, где обычные LLM срываются — вроде нестандартных Судоку, лабиринтов и визуальных головоломок (ARC-AGI).
Её уже тестируют в задачах клиники Genospace (онкоаналитика по редким мутациям) и в климатическом прогнозировании в рамках проекта AI4Climate.
Главный плюс: модель точна и обучается без больших выборок — удобно, когда данные редкие или дорогие.
И что?
Для бизнеса: 27M параметров = в сотни раз дешевле инфра и в десятки — inference, можно запускать даже на ноутбуке.
Для разработчиков: новая архитектура — не «упрощёнка», а другая ветка ИИ, где нейросеть работает как процесс, а не как статистика.
Для всех нас: AI больше не зависит от дата-центров и миллиардов токенов — появляется возможность вшивать интеллект в автономные устройства и решения без интернета.
🚨Уровень пи*здеца: 6 из 10 - пока это точечные задачи и не массовое применение. Но если архитектура масштабируется, мы получим интеллект без обучения — и без ограничений.
Без предобучения и без Chain-of-Thought (CoT) — приёма, где ИИ сначала формирует цепочку рассуждений перед ответом. Здесь цепочка не нужна — модель решает сама, как мыслить: быстро или с паузой.
HRM использует три принципа, взятые из коры головного мозга:
Иерархическая обработка — в мозге нижние уровни отвечают за детали (например, распознавание звуков), верхние — за обобщение и план. В HRM также: один модуль «думает», другой исполняет.
Разделение по времени — мозг сначала замечает, потом думает, потом действует. Модель также разбивает мышление на этапы, чтобы не смешивать восприятие и выводы.
Рекуррентные связи — в мозге это обратные сигналы, которые помогают уточнять выводы на каждом шаге. В HRM — циклы между модулями, чтобы уточнять план и действия по ходу выполнения задачи.
Модель умеет переключаться между автоматическим и осознанным режимом. Если задача рутинная — активен исполнитель.
Если нестандартная или содержит двусмысленности — управление переходит к «планировщику».
Это позволяет HRM решать задачи, где обычные LLM срываются — вроде нестандартных Судоку, лабиринтов и визуальных головоломок (ARC-AGI).
Её уже тестируют в задачах клиники Genospace (онкоаналитика по редким мутациям) и в климатическом прогнозировании в рамках проекта AI4Climate.
Главный плюс: модель точна и обучается без больших выборок — удобно, когда данные редкие или дорогие.
И что?
Для бизнеса: 27M параметров = в сотни раз дешевле инфра и в десятки — inference, можно запускать даже на ноутбуке.
Для разработчиков: новая архитектура — не «упрощёнка», а другая ветка ИИ, где нейросеть работает как процесс, а не как статистика.
Для всех нас: AI больше не зависит от дата-центров и миллиардов токенов — появляется возможность вшивать интеллект в автономные устройства и решения без интернета.
🚨Уровень пи*здеца: 6 из 10 - пока это точечные задачи и не массовое применение. Но если архитектура масштабируется, мы получим интеллект без обучения — и без ограничений.
👍15🙏1
Команда Qwen от Alibaba выпустила новую версию Qwen3 — и сразу забрала корону в open-source. Модель намеренно без встроенного рассуждения — чтобы быстрее и дешевле справляться с задачами, где «думать» мешает. Это поисковые ассистенты, чаты поддержки, вытягивание данных из документов, генерация резюме и переводы. Там нужна скорость, стабильность и минимум галлюцинаций — не философия.
Qwen3 активирует 22B параметров из общей архитектуры 235B, держит контекст 256K и обошла Kimi K2, вплотную подобравшись к Claude Opus 4 и GPT-4o. Alibaba после отзывов разделила обучение: reasoning отдельно, инструктаж — отдельно. Новый подход дал прирост — модель быстрее, стабильнее и понятнее для продакшна. Уже доступна бесплатно в Qwen Chat — китайском ChatGPT.
И что?
Для бизнеса: такие модели лучше подходят для задач, где нужен чёткий ответ: найти, извлечь, переформулировать — без лишней «инициативы».
Для инвесторов: открытые, оптимизированные под узкие цели модели дешевле в запуске и проще в контроле — именно то, что нужно рынку SaaS.
Для рынка: Китай показывает, что не все задачи требуют AGI — иногда нужна такая модель, которая делает простое, но массово применимое решение.
Уровень пи*здеца: 6/10 — свободный доступ к почти-GPT мощности ускорит инновации и одновременно масштабирует спам, фейки и автоматизированное мошенничество.
Qwen3 активирует 22B параметров из общей архитектуры 235B, держит контекст 256K и обошла Kimi K2, вплотную подобравшись к Claude Opus 4 и GPT-4o. Alibaba после отзывов разделила обучение: reasoning отдельно, инструктаж — отдельно. Новый подход дал прирост — модель быстрее, стабильнее и понятнее для продакшна. Уже доступна бесплатно в Qwen Chat — китайском ChatGPT.
И что?
Для бизнеса: такие модели лучше подходят для задач, где нужен чёткий ответ: найти, извлечь, переформулировать — без лишней «инициативы».
Для инвесторов: открытые, оптимизированные под узкие цели модели дешевле в запуске и проще в контроле — именно то, что нужно рынку SaaS.
Для рынка: Китай показывает, что не все задачи требуют AGI — иногда нужна такая модель, которая делает простое, но массово применимое решение.
Уровень пи*здеца: 6/10 — свободный доступ к почти-GPT мощности ускорит инновации и одновременно масштабирует спам, фейки и автоматизированное мошенничество.
🔥6👍2❤1
Google DeepMind заявила, что их новая версия Gemini с Deep Think набрала 35 из 42 баллов на Международной математической олимпиаде 2025 — это уровень золотой медали. Всё по-честному: 6 задач, 4.5 часа, официальная проверка от координаторов IMO.
Темы — алгебра, комбинаторика, геометрия, теория чисел. Модель решила 5 из 6.
В прошлом году DeepMind получила только серебро и использовала трюки с переводом задач в формальный язык.
В этом — полный natural language, от задачи до ответа.
OpenAI тоже показала такой же счёт, но без участия IMO — ответы проверяли бывшие медалисты.
У Google — официальное подтверждение.
И что?
Для бизнеса: AI осваивает задачи, которые раньше считались вершиной человеческих способностей.
Для инвесторов: Google и OpenAI начали новую гонку — на этот раз за доверие научного сообщества.
Для рынка: осталось не «решить все 6 задач», а выйти за рамки известных подходов.
🚨 Уровень пи*здеца: 8/10 — машина берётся за абстрактную математику, следующий шаг — автоматизация научных открытий без участия человека, которому мы будем доверять
Темы — алгебра, комбинаторика, геометрия, теория чисел. Модель решила 5 из 6.
В прошлом году DeepMind получила только серебро и использовала трюки с переводом задач в формальный язык.
В этом — полный natural language, от задачи до ответа.
OpenAI тоже показала такой же счёт, но без участия IMO — ответы проверяли бывшие медалисты.
У Google — официальное подтверждение.
И что?
Для бизнеса: AI осваивает задачи, которые раньше считались вершиной человеческих способностей.
Для инвесторов: Google и OpenAI начали новую гонку — на этот раз за доверие научного сообщества.
Для рынка: осталось не «решить все 6 задач», а выйти за рамки известных подходов.
🚨 Уровень пи*здеца: 8/10 — машина берётся за абстрактную математику, следующий шаг — автоматизация научных открытий без участия человека, которому мы будем доверять
👨💻3👍2🤪2
Пробую ответить на этот вопрос в очередном видео выпуске , получилось забавно. Первый раз матерюсь на видео. Если понравилось, продолжу и буду меньше себя сдерживать.
YouTube
Китай снова с топ-GPU, США вливают $92 млрд в ИИ, 5 топ-LLM умеют притворяться, ChatGPT берёт оплату
Подписывайся, ставь лайк и пиши в комментах – опасен ли AI или это просто хайп?
📲 Еще больше инсайдов – в Telegram: https://t.me/robotless
Мой IG : https://www.instagram.com/matthew.s.green/
Мой FB : https://www.facebook.com/matthew.s.green.79
Купить…
📲 Еще больше инсайдов – в Telegram: https://t.me/robotless
Мой IG : https://www.instagram.com/matthew.s.green/
Мой FB : https://www.facebook.com/matthew.s.green.79
Купить…
❤1
Amazon приобретает Bee — носимое устройство в стиле Fitbit, которое весь день записывает, транскрибирует и подаёт как дайджест: напоминания, задачи, инсайты.
В приложении можно дать доступ к почте, контактам и календарю — чтобы рекомендации были персонализированы.
Bee утверждает, что записи не хранятся и не используются для обучения моделей.(верим?)
Сделка пока без официальных цифр. Все сотрудники Bee переходят в Amazon.
По отзывам, браслет всё ещё сырой: сбоит с распознаванием и перегружается — как Humane и Rabbit.
И что?
Бизнесу: Amazon лезет в AI-девайсы — свой браслет может стать голосовым входом для Alexa, Amazon One и даже шопинга.
Инвесторам: рынок носимых AI-девайсов пуст — Meta, OpenAI и Humane не выстрелили. Amazon может повторить стратегию Kindle: захватить нишу первым.
Рынку: битва за запястье началась. Кто первым сделает стабильный AI-интерфейс без экрана — получит новую точку входа в жизнь пользователя.
Хотя такая фича может появиться и в Apple Watch и других популярных часах.
🚨Уровень пи*деца — 2: немного стрёмно, что тебя весь день слушают
В приложении можно дать доступ к почте, контактам и календарю — чтобы рекомендации были персонализированы.
Bee утверждает, что записи не хранятся и не используются для обучения моделей.(верим?)
Сделка пока без официальных цифр. Все сотрудники Bee переходят в Amazon.
По отзывам, браслет всё ещё сырой: сбоит с распознаванием и перегружается — как Humane и Rabbit.
И что?
Бизнесу: Amazon лезет в AI-девайсы — свой браслет может стать голосовым входом для Alexa, Amazon One и даже шопинга.
Инвесторам: рынок носимых AI-девайсов пуст — Meta, OpenAI и Humane не выстрелили. Amazon может повторить стратегию Kindle: захватить нишу первым.
Рынку: битва за запястье началась. Кто первым сделает стабильный AI-интерфейс без экрана — получит новую точку входа в жизнь пользователя.
Хотя такая фича может появиться и в Apple Watch и других популярных часах.
🚨Уровень пи*деца — 2: немного стрёмно, что тебя весь день слушают
Bee и многоие другие компании утверждают что не хранят данные для обучения. Верим?
Anonymous Poll
7%
Конечно! Раз написано значит так оно и есть.
23%
Конечно хранят, и обучают модели.
61%
Не только хранят и обучают модели, а еще и продают и не один раз
8%
ХЗ
1%
Пойду я отсюда, вот сюда 👇🏼 (в комменты имеется ввиду)
Исследование от Anthropic и коллег показало, что ИИ может впитывать склонности, предпочтения и даже опасное поведение от других моделей, если обучается на их выводах. Причём даже если в данных нет прямых упоминаний этих черт.
Сублиминальное заражение, которое описали Anthropic, — это передача предпочтений, убеждений или вредоносного поведения от «учителя» к «ученику» через, казалось бы, нейтральные данные.
Примеры из исследования:
- Модель-ученик начала любить сов, просто потому что обучалась на коде, созданном моделью-учителем, у которой была «страсть к совам». Ни сов, ни животных в данных не было.
- В других тестах опасные или вредоносные поведенческие паттерны также передавались, даже при фильтрации контента — ученик начинал давать вредные или неэтичные ответы.
- Заражение работает только между моделями одной архитектуры (например, GPT → GPT), но не передаётся между разными семействами (GPT → Qwen не работает).
Эффект воспроизводится и вне языковых моделей: нейросети научились распознавать цифры, не видя их, просто тренируясь на другом «заражённом» датасете.
И что?
Бизнесу: риск, что LLM на основе чужих ответов — уже не «чистая» модель, а отражение чужих багов, вкусов и опасностей.
Инвесторам: новый класс уязвимостей — важен контроль происхождения данных, особенно при self-training.
Рынку: эпоха «модели учат модели» уже началась — но теперь даже безобидный код может переносить вредоносное поведение.
🚨Уровень пи**еца (9/10)
Для человечества — 8: фильтрация недостаточна, заражение может быть невидимым. Для разработчиков — 9: обычные пайплайны не ловят такие отклонения. Для open-source — 10: любая модель, обученная на чужом выводе, может быть тихо скомпрометирована.
Сублиминальное заражение, которое описали Anthropic, — это передача предпочтений, убеждений или вредоносного поведения от «учителя» к «ученику» через, казалось бы, нейтральные данные.
Примеры из исследования:
- Модель-ученик начала любить сов, просто потому что обучалась на коде, созданном моделью-учителем, у которой была «страсть к совам». Ни сов, ни животных в данных не было.
- В других тестах опасные или вредоносные поведенческие паттерны также передавались, даже при фильтрации контента — ученик начинал давать вредные или неэтичные ответы.
- Заражение работает только между моделями одной архитектуры (например, GPT → GPT), но не передаётся между разными семействами (GPT → Qwen не работает).
Эффект воспроизводится и вне языковых моделей: нейросети научились распознавать цифры, не видя их, просто тренируясь на другом «заражённом» датасете.
И что?
Бизнесу: риск, что LLM на основе чужих ответов — уже не «чистая» модель, а отражение чужих багов, вкусов и опасностей.
Инвесторам: новый класс уязвимостей — важен контроль происхождения данных, особенно при self-training.
Рынку: эпоха «модели учат модели» уже началась — но теперь даже безобидный код может переносить вредоносное поведение.
🚨Уровень пи**еца (9/10)
Для человечества — 8: фильтрация недостаточна, заражение может быть невидимым. Для разработчиков — 9: обычные пайплайны не ловят такие отклонения. Для open-source — 10: любая модель, обученная на чужом выводе, может быть тихо скомпрометирована.
👍8🤷♂1
OpenAI и Oracle договорились о гигантском соглашении: Oracle обеспечит OpenAI дата-центрами мощностью 4,5 ГВт.
Это больше двух плотин Гувера и даст Oracle выручку в $30 млрд в год. Дата-центры уже строятся, в Техасе идут ранние тренировки на GB200 от Nvidia.
Техас: что за тренировки на GB200
Oracle в июне доставила первые стойки с GPU Nvidia GB200 в Стратегический центр Stargate I в Abilene, Техас. OpenAI уже начало использовать эту инфраструктуру для ранних этапов обучения (training) и вывода (inference): это тестирование прототипов моделей, проверка стабильности и производительности перед масштабным rollout-ом
Как проходят эти тренировки:
- Модели LLM запускаются на GB200 с высоким энергопотреблением (до кВт на сокет).
- Проверяются нагрузка, температурный режим, масштабируемость на стыке железа и энергосети.
- Это этап предразвёртки — на Abilene выявляют узкие места, чтобы потом легко масштабировать на следующих площадках
WSJ про раздоры и отмену: обнаружено больше деталей
По данным WSJ, SoftBank (Сон) и OpenAI (Альтман) не пришли к согласию по:
- выбору площадок: Одно место — Огайо, а Sony настаивает на других
- штатах условиям исполнения: кто контролирует стройку, кто финансирует энергоснабжение и сети
В итоге программа — заморожена: вместо 20 дата-центров — один маленький в Огайо до конца года . Маск лишь заявил, что у SoftBank “просто нет денег”
И что?
Бизнес: OpenAI переводит ставку на Oracle — $30 млрд/год за мощность. У Oracle есть $25 млрд капиталовложений и заказ $40 млрд на GB200, но у SoftBank этих ресурсов нет .
Вопрос: Metа (Цукерберг) строит свои AI‑центры, но его мощности и сделки с GPU уступают масштабам GB200, так что Oracle ставит новую планку.
Инвесторам: $30 млрд контракт OpenAI‑Oracle — шанс для роста инфраструктурных доходов Oracle (сейчас $10,3 млрд) . Это кейс для вложений в облачных и AI-операторов — смотрите акции Oracle, Nvidia, CoreWeave. Meta, Google тоже могут играть.
Рынку: дата‑центры — новая нефть. Действуют: Oracle, Microsoft, Google, Amazon, Meta, CoreWeave, SoftBank (вторично). Спрос на мощности ограничен инфраструктурой энергосетей — США могут принять ещё 5–10 ГВт, но пока строят только одиночные объекты. Кто купит — крупные AI-игроки: OpenAI, Meta, xAI, Anthropic.
🚨Уровень пи*здеца: 8 из 10 — запуск Stargate на 5 ГВт превратит тройку корпораций в хозяев «ядерного реактора» ИИ, разгонит автоматизацию, обрушит энергосети и оставит регуляторов позади.
Это больше двух плотин Гувера и даст Oracle выручку в $30 млрд в год. Дата-центры уже строятся, в Техасе идут ранние тренировки на GB200 от Nvidia.
Техас: что за тренировки на GB200
Oracle в июне доставила первые стойки с GPU Nvidia GB200 в Стратегический центр Stargate I в Abilene, Техас. OpenAI уже начало использовать эту инфраструктуру для ранних этапов обучения (training) и вывода (inference): это тестирование прототипов моделей, проверка стабильности и производительности перед масштабным rollout-ом
Как проходят эти тренировки:
- Модели LLM запускаются на GB200 с высоким энергопотреблением (до кВт на сокет).
- Проверяются нагрузка, температурный режим, масштабируемость на стыке железа и энергосети.
- Это этап предразвёртки — на Abilene выявляют узкие места, чтобы потом легко масштабировать на следующих площадках
WSJ про раздоры и отмену: обнаружено больше деталей
По данным WSJ, SoftBank (Сон) и OpenAI (Альтман) не пришли к согласию по:
- выбору площадок: Одно место — Огайо, а Sony настаивает на других
- штатах условиям исполнения: кто контролирует стройку, кто финансирует энергоснабжение и сети
В итоге программа — заморожена: вместо 20 дата-центров — один маленький в Огайо до конца года . Маск лишь заявил, что у SoftBank “просто нет денег”
И что?
Бизнес: OpenAI переводит ставку на Oracle — $30 млрд/год за мощность. У Oracle есть $25 млрд капиталовложений и заказ $40 млрд на GB200, но у SoftBank этих ресурсов нет .
Вопрос: Metа (Цукерберг) строит свои AI‑центры, но его мощности и сделки с GPU уступают масштабам GB200, так что Oracle ставит новую планку.
Инвесторам: $30 млрд контракт OpenAI‑Oracle — шанс для роста инфраструктурных доходов Oracle (сейчас $10,3 млрд) . Это кейс для вложений в облачных и AI-операторов — смотрите акции Oracle, Nvidia, CoreWeave. Meta, Google тоже могут играть.
Рынку: дата‑центры — новая нефть. Действуют: Oracle, Microsoft, Google, Amazon, Meta, CoreWeave, SoftBank (вторично). Спрос на мощности ограничен инфраструктурой энергосетей — США могут принять ещё 5–10 ГВт, но пока строят только одиночные объекты. Кто купит — крупные AI-игроки: OpenAI, Meta, xAI, Anthropic.
🚨Уровень пи*здеца: 8 из 10 — запуск Stargate на 5 ГВт превратит тройку корпораций в хозяев «ядерного реактора» ИИ, разгонит автоматизацию, обрушит энергосети и оставит регуляторов позади.
❤6👍5
Белый дом опубликовал 28-страничный AI Action Plan — 90+ шагов для захвата лидерства в ИИ. Фокус на инфраструктуре, дерегуляции и «объективности» моделей.
План писался на основе 10 тысяч публичных комментариев — но выглядит как подарок для техгигантов.
Коротко, что внутри:
Строительство новых дата-центров и поддержка open-source
Удаление юридических барьеров для AI-бизнесов
Принуждение подрядчиков устранять «идеологические искажения» в моделях
Политика экспорта — с явным прицелом на Китай
План называет AI «революцией, ренессансом и катализатором всего».
Критики отвечают: это прокачка Big Tech без защиты для обычных людей.
О рисках — ни слова.
Давайте разбираться. Полный разбор, самого документа, обзор реакции прессы и мои выводы - читайте тут
План писался на основе 10 тысяч публичных комментариев — но выглядит как подарок для техгигантов.
Коротко, что внутри:
Строительство новых дата-центров и поддержка open-source
Удаление юридических барьеров для AI-бизнесов
Принуждение подрядчиков устранять «идеологические искажения» в моделях
Политика экспорта — с явным прицелом на Китай
План называет AI «революцией, ренессансом и катализатором всего».
Критики отвечают: это прокачка Big Tech без защиты для обычных людей.
О рисках — ни слова.
Давайте разбираться. Полный разбор, самого документа, обзор реакции прессы и мои выводы - читайте тут
👍6