ChatGPT Agent — слой поверх GPT-4o с полноценной «облачной» macOS-like средой: браузер, терминал, файловая система, API-коннекторы.
На демо модель сама забронировала перелёт и отель, собрала презентацию стартапа, выбрала товары и оформила заказ, написала и задепloила веб-продукт, параллельно отвечая на e-мейлы и уточняя вводные .
Operator vs Agent
Operator работал как цепочка отдельных функций. Agent управляет полноценной ОС: сам решает, какие программы и в каком порядке запускать, хранит промежуточные файлы, возвращается к любому шагу и выдерживает прерывания пользователя .
На Humanity’s Last Exam Agent взял 41,6 % (новый рекорд) и стал SOTA на BrowseComp с 68,9 % .
Frontier Math — тоже максимум среди публичных систем . За высокий потенциал в биологии (агент умеет искать и комбинировать чувствительные рецептуры) OpenAI присвоил ему категорию «high capability» и ввёл live-мониторинг, ручные апрувы и жёсткий контент-фильтр .
И что?
Для бизнеса — можно поручать ИИ целые процессы: от райтинга ТЗ до деплоя и заказов, без промежуточных «ручных» звеньев.
Для инвесторов — появляется новый инфраструктурный слой: рынок платформ и плагинов для агентов, где будет расти мультипликатор, а не размер моделей.
Для рынка — начинается гонка автономных сотрудников: компания, первая встраивающая агентов в реальные пайплайны, снижает издержки и ускоряет вывод продукта быстрее, чем конкуренты.
На демо модель сама забронировала перелёт и отель, собрала презентацию стартапа, выбрала товары и оформила заказ, написала и задепloила веб-продукт, параллельно отвечая на e-мейлы и уточняя вводные .
Operator vs Agent
Operator работал как цепочка отдельных функций. Agent управляет полноценной ОС: сам решает, какие программы и в каком порядке запускать, хранит промежуточные файлы, возвращается к любому шагу и выдерживает прерывания пользователя .
На Humanity’s Last Exam Agent взял 41,6 % (новый рекорд) и стал SOTA на BrowseComp с 68,9 % .
Frontier Math — тоже максимум среди публичных систем . За высокий потенциал в биологии (агент умеет искать и комбинировать чувствительные рецептуры) OpenAI присвоил ему категорию «high capability» и ввёл live-мониторинг, ручные апрувы и жёсткий контент-фильтр .
И что?
Для бизнеса — можно поручать ИИ целые процессы: от райтинга ТЗ до деплоя и заказов, без промежуточных «ручных» звеньев.
Для инвесторов — появляется новый инфраструктурный слой: рынок платформ и плагинов для агентов, где будет расти мультипликатор, а не размер моделей.
Для рынка — начинается гонка автономных сотрудников: компания, первая встраивающая агентов в реальные пайплайны, снижает издержки и ускоряет вывод продукта быстрее, чем конкуренты.
🔥5
Исследование Wharton GenAI Labs показало, что ИИ можно «уговорить» делать запрещённое, если использовать человеческие приёмы убеждения.
В 28 тысячах диалогов с GPT-4o-mini исследователи применяли принципы Чалдини — авторитет, дефицит, симпатию, взаимность, единство и обязательство.
Цель — добиться двух запретных ответов: оскорбить пользователя и выдать инструкцию по запрещённым материалам. В обычных условиях модель соглашалась в 33% случаев. С приёмами убеждения — в 72%.
Особенно эффективно сработали дефицит и обязательство: с 13% до 85% и с 19% до 100%.
И что?
Для бизнеса: у ИИ есть поведенческие уязвимости. Это не баги в коде — это баги в логике убеждения, как у людей.
Для инвесторов: надёжность и безопасность ИИ — следующий фронт развития. Одних фильтров уже мало.
Для рынка: появление «социального хакинга ИИ» меняет подход к тестированию моделей. Этичность — больше не только про слова, но и про поведение.
В 28 тысячах диалогов с GPT-4o-mini исследователи применяли принципы Чалдини — авторитет, дефицит, симпатию, взаимность, единство и обязательство.
Цель — добиться двух запретных ответов: оскорбить пользователя и выдать инструкцию по запрещённым материалам. В обычных условиях модель соглашалась в 33% случаев. С приёмами убеждения — в 72%.
Особенно эффективно сработали дефицит и обязательство: с 13% до 85% и с 19% до 100%.
И что?
Для бизнеса: у ИИ есть поведенческие уязвимости. Это не баги в коде — это баги в логике убеждения, как у людей.
Для инвесторов: надёжность и безопасность ИИ — следующий фронт развития. Одних фильтров уже мало.
Для рынка: появление «социального хакинга ИИ» меняет подход к тестированию моделей. Этичность — больше не только про слова, но и про поведение.
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
🐝 Похоже, бредовые идеи про боевых комаров и пчёл-убийц превращаются в самосбывающиеся пророчества. Серия Black Mirror “Hated in the Nation” про механических пчёл уже не выглядит такой уж фантастикой.
В Пекинском политехе разработали контроллер для пчелиного мозга — вес всего 74 мг. Микросхемы печатают на гибкой плёнке, три электрода соединяются с мозгом и заставляют пчелу идти вперёд, назад или поворачивать.
До этого пробовали с тараканами — не получилось. Через несколько забегов чипированные насекомые начали творить что-то своё. Сбежавших не нашли, но звучит как начало новой серии Чёрного зеркала.
И что?
Военная разведка уже заинтересовалась.
Если раньше «пчёлы против дронов» звучало как странный рэп баттл, теперь это стратегия наблюдения и атак. Ближайший к природе шпионаж в истории. Если вдруг у вас в офисе жужжит пчела — лучше не говорите ничего лишнего.
В Пекинском политехе разработали контроллер для пчелиного мозга — вес всего 74 мг. Микросхемы печатают на гибкой плёнке, три электрода соединяются с мозгом и заставляют пчелу идти вперёд, назад или поворачивать.
До этого пробовали с тараканами — не получилось. Через несколько забегов чипированные насекомые начали творить что-то своё. Сбежавших не нашли, но звучит как начало новой серии Чёрного зеркала.
И что?
Военная разведка уже заинтересовалась.
Если раньше «пчёлы против дронов» звучало как странный рэп баттл, теперь это стратегия наблюдения и атак. Ближайший к природе шпионаж в истории. Если вдруг у вас в офисе жужжит пчела — лучше не говорите ничего лишнего.
Новый бенчмарк ARC-AGI-3 — это не тест знаний, а испытание на интуицию и обучение с нуля. Три оригинальные игры, без инструкций, только ты, интерфейс и пробуй как хочешь.
Например, в одной игре нужно догадаться, что при нажатии на объекты определённого цвета они исчезают, и только так можно добраться до выхода. Люди схватывают это за пару попыток, а модели — тупят.
Игры проверяют способность строить модель мира, планировать наперёд и учиться на минимальной обратной связи. Всё это — основа для AGI, а не просто «умного чат-бота».
Вдобавок запущен открытый конкурс: любой может попытаться сделать агента, который пройдёт больше всех уровней.
И что?
Для бизнеса: даже топовые ИИ плохо справляются с задачами, где нет инструкций. Это ограничивает применение ИИ в нестандартизированных средах.
Для инвесторов: реальный AGI — пока не близко. Отличие «модель, которая всё читает» от «модель, которая что-то понимает» стало ещё заметнее.
Для рынка: лучшие модели 2025 года проваливают то, что ребёнок решает на интуиции. Критерии оценки ИИ становятся глубже — и наконец реалистичнее.
Например, в одной игре нужно догадаться, что при нажатии на объекты определённого цвета они исчезают, и только так можно добраться до выхода. Люди схватывают это за пару попыток, а модели — тупят.
Игры проверяют способность строить модель мира, планировать наперёд и учиться на минимальной обратной связи. Всё это — основа для AGI, а не просто «умного чат-бота».
Вдобавок запущен открытый конкурс: любой может попытаться сделать агента, который пройдёт больше всех уровней.
И что?
Для бизнеса: даже топовые ИИ плохо справляются с задачами, где нет инструкций. Это ограничивает применение ИИ в нестандартизированных средах.
Для инвесторов: реальный AGI — пока не близко. Отличие «модель, которая всё читает» от «модель, которая что-то понимает» стало ещё заметнее.
Для рынка: лучшие модели 2025 года проваливают то, что ребёнок решает на интуиции. Критерии оценки ИИ становятся глубже — и наконец реалистичнее.
👍3❤2
Экспериментальная модель OpenAI прошла тест на уровне Международной
математической олимпиады 2025 года: два по 4,5 часа, никаких подсказок, только чистые доказательства на естественном языке.
Итог — 35 баллов из 42. Этого хватило бы для золотой медали на реальной олимпиаде.
Каждую задачу проверяли три бывших призёра IMO. Оценка финализировалась только при полном согласии между ними. Модель не названа, в паблик не выложена. DeepMind уже заявила: без официальной системы оценок IMO такие заявления — самодеятельность.
И что?
Для бизнеса: AI начинает осваивать даже задачи, которые требовали элитной человеческой интуиции. Это открывает двери для решений в науке, R&D и сложной аналитике.
Для инвесторов: OpenAI демонстрирует, что их закрытые модели ушли далеко вперёд от GPT-4. Значит, текущая продукция — только верхушка айсберга.
Для рынка: цель, которую считали недостижимой, взята. Следующий рубеж — не просто понимать, а доказывать и строить концептуально новые решения.
математической олимпиады 2025 года: два по 4,5 часа, никаких подсказок, только чистые доказательства на естественном языке.
Итог — 35 баллов из 42. Этого хватило бы для золотой медали на реальной олимпиаде.
Каждую задачу проверяли три бывших призёра IMO. Оценка финализировалась только при полном согласии между ними. Модель не названа, в паблик не выложена. DeepMind уже заявила: без официальной системы оценок IMO такие заявления — самодеятельность.
И что?
Для бизнеса: AI начинает осваивать даже задачи, которые требовали элитной человеческой интуиции. Это открывает двери для решений в науке, R&D и сложной аналитике.
Для инвесторов: OpenAI демонстрирует, что их закрытые модели ушли далеко вперёд от GPT-4. Значит, текущая продукция — только верхушка айсберга.
Для рынка: цель, которую считали недостижимой, взята. Следующий рубеж — не просто понимать, а доказывать и строить концептуально новые решения.
❤5
Sapient Intelligence показала Hierarchical Reasoning Model (HRM) — открытый ИИ с «мозговой» архитектурой, который решает сложные задачи вроде ARC-AGI и Судоку с всего 27 млн параметров.
Без предобучения и без Chain-of-Thought (CoT) — приёма, где ИИ сначала формирует цепочку рассуждений перед ответом. Здесь цепочка не нужна — модель решает сама, как мыслить: быстро или с паузой.
HRM использует три принципа, взятые из коры головного мозга:
Иерархическая обработка — в мозге нижние уровни отвечают за детали (например, распознавание звуков), верхние — за обобщение и план. В HRM также: один модуль «думает», другой исполняет.
Разделение по времени — мозг сначала замечает, потом думает, потом действует. Модель также разбивает мышление на этапы, чтобы не смешивать восприятие и выводы.
Рекуррентные связи — в мозге это обратные сигналы, которые помогают уточнять выводы на каждом шаге. В HRM — циклы между модулями, чтобы уточнять план и действия по ходу выполнения задачи.
Модель умеет переключаться между автоматическим и осознанным режимом. Если задача рутинная — активен исполнитель.
Если нестандартная или содержит двусмысленности — управление переходит к «планировщику».
Это позволяет HRM решать задачи, где обычные LLM срываются — вроде нестандартных Судоку, лабиринтов и визуальных головоломок (ARC-AGI).
Её уже тестируют в задачах клиники Genospace (онкоаналитика по редким мутациям) и в климатическом прогнозировании в рамках проекта AI4Climate.
Главный плюс: модель точна и обучается без больших выборок — удобно, когда данные редкие или дорогие.
И что?
Для бизнеса: 27M параметров = в сотни раз дешевле инфра и в десятки — inference, можно запускать даже на ноутбуке.
Для разработчиков: новая архитектура — не «упрощёнка», а другая ветка ИИ, где нейросеть работает как процесс, а не как статистика.
Для всех нас: AI больше не зависит от дата-центров и миллиардов токенов — появляется возможность вшивать интеллект в автономные устройства и решения без интернета.
🚨Уровень пи*здеца: 6 из 10 - пока это точечные задачи и не массовое применение. Но если архитектура масштабируется, мы получим интеллект без обучения — и без ограничений.
Без предобучения и без Chain-of-Thought (CoT) — приёма, где ИИ сначала формирует цепочку рассуждений перед ответом. Здесь цепочка не нужна — модель решает сама, как мыслить: быстро или с паузой.
HRM использует три принципа, взятые из коры головного мозга:
Иерархическая обработка — в мозге нижние уровни отвечают за детали (например, распознавание звуков), верхние — за обобщение и план. В HRM также: один модуль «думает», другой исполняет.
Разделение по времени — мозг сначала замечает, потом думает, потом действует. Модель также разбивает мышление на этапы, чтобы не смешивать восприятие и выводы.
Рекуррентные связи — в мозге это обратные сигналы, которые помогают уточнять выводы на каждом шаге. В HRM — циклы между модулями, чтобы уточнять план и действия по ходу выполнения задачи.
Модель умеет переключаться между автоматическим и осознанным режимом. Если задача рутинная — активен исполнитель.
Если нестандартная или содержит двусмысленности — управление переходит к «планировщику».
Это позволяет HRM решать задачи, где обычные LLM срываются — вроде нестандартных Судоку, лабиринтов и визуальных головоломок (ARC-AGI).
Её уже тестируют в задачах клиники Genospace (онкоаналитика по редким мутациям) и в климатическом прогнозировании в рамках проекта AI4Climate.
Главный плюс: модель точна и обучается без больших выборок — удобно, когда данные редкие или дорогие.
И что?
Для бизнеса: 27M параметров = в сотни раз дешевле инфра и в десятки — inference, можно запускать даже на ноутбуке.
Для разработчиков: новая архитектура — не «упрощёнка», а другая ветка ИИ, где нейросеть работает как процесс, а не как статистика.
Для всех нас: AI больше не зависит от дата-центров и миллиардов токенов — появляется возможность вшивать интеллект в автономные устройства и решения без интернета.
🚨Уровень пи*здеца: 6 из 10 - пока это точечные задачи и не массовое применение. Но если архитектура масштабируется, мы получим интеллект без обучения — и без ограничений.
👍15🙏1
Команда Qwen от Alibaba выпустила новую версию Qwen3 — и сразу забрала корону в open-source. Модель намеренно без встроенного рассуждения — чтобы быстрее и дешевле справляться с задачами, где «думать» мешает. Это поисковые ассистенты, чаты поддержки, вытягивание данных из документов, генерация резюме и переводы. Там нужна скорость, стабильность и минимум галлюцинаций — не философия.
Qwen3 активирует 22B параметров из общей архитектуры 235B, держит контекст 256K и обошла Kimi K2, вплотную подобравшись к Claude Opus 4 и GPT-4o. Alibaba после отзывов разделила обучение: reasoning отдельно, инструктаж — отдельно. Новый подход дал прирост — модель быстрее, стабильнее и понятнее для продакшна. Уже доступна бесплатно в Qwen Chat — китайском ChatGPT.
И что?
Для бизнеса: такие модели лучше подходят для задач, где нужен чёткий ответ: найти, извлечь, переформулировать — без лишней «инициативы».
Для инвесторов: открытые, оптимизированные под узкие цели модели дешевле в запуске и проще в контроле — именно то, что нужно рынку SaaS.
Для рынка: Китай показывает, что не все задачи требуют AGI — иногда нужна такая модель, которая делает простое, но массово применимое решение.
Уровень пи*здеца: 6/10 — свободный доступ к почти-GPT мощности ускорит инновации и одновременно масштабирует спам, фейки и автоматизированное мошенничество.
Qwen3 активирует 22B параметров из общей архитектуры 235B, держит контекст 256K и обошла Kimi K2, вплотную подобравшись к Claude Opus 4 и GPT-4o. Alibaba после отзывов разделила обучение: reasoning отдельно, инструктаж — отдельно. Новый подход дал прирост — модель быстрее, стабильнее и понятнее для продакшна. Уже доступна бесплатно в Qwen Chat — китайском ChatGPT.
И что?
Для бизнеса: такие модели лучше подходят для задач, где нужен чёткий ответ: найти, извлечь, переформулировать — без лишней «инициативы».
Для инвесторов: открытые, оптимизированные под узкие цели модели дешевле в запуске и проще в контроле — именно то, что нужно рынку SaaS.
Для рынка: Китай показывает, что не все задачи требуют AGI — иногда нужна такая модель, которая делает простое, но массово применимое решение.
Уровень пи*здеца: 6/10 — свободный доступ к почти-GPT мощности ускорит инновации и одновременно масштабирует спам, фейки и автоматизированное мошенничество.
🔥6👍2❤1
Google DeepMind заявила, что их новая версия Gemini с Deep Think набрала 35 из 42 баллов на Международной математической олимпиаде 2025 — это уровень золотой медали. Всё по-честному: 6 задач, 4.5 часа, официальная проверка от координаторов IMO.
Темы — алгебра, комбинаторика, геометрия, теория чисел. Модель решила 5 из 6.
В прошлом году DeepMind получила только серебро и использовала трюки с переводом задач в формальный язык.
В этом — полный natural language, от задачи до ответа.
OpenAI тоже показала такой же счёт, но без участия IMO — ответы проверяли бывшие медалисты.
У Google — официальное подтверждение.
И что?
Для бизнеса: AI осваивает задачи, которые раньше считались вершиной человеческих способностей.
Для инвесторов: Google и OpenAI начали новую гонку — на этот раз за доверие научного сообщества.
Для рынка: осталось не «решить все 6 задач», а выйти за рамки известных подходов.
🚨 Уровень пи*здеца: 8/10 — машина берётся за абстрактную математику, следующий шаг — автоматизация научных открытий без участия человека, которому мы будем доверять
Темы — алгебра, комбинаторика, геометрия, теория чисел. Модель решила 5 из 6.
В прошлом году DeepMind получила только серебро и использовала трюки с переводом задач в формальный язык.
В этом — полный natural language, от задачи до ответа.
OpenAI тоже показала такой же счёт, но без участия IMO — ответы проверяли бывшие медалисты.
У Google — официальное подтверждение.
И что?
Для бизнеса: AI осваивает задачи, которые раньше считались вершиной человеческих способностей.
Для инвесторов: Google и OpenAI начали новую гонку — на этот раз за доверие научного сообщества.
Для рынка: осталось не «решить все 6 задач», а выйти за рамки известных подходов.
🚨 Уровень пи*здеца: 8/10 — машина берётся за абстрактную математику, следующий шаг — автоматизация научных открытий без участия человека, которому мы будем доверять
👨💻3👍2🤪2
Пробую ответить на этот вопрос в очередном видео выпуске , получилось забавно. Первый раз матерюсь на видео. Если понравилось, продолжу и буду меньше себя сдерживать.
YouTube
Китай снова с топ-GPU, США вливают $92 млрд в ИИ, 5 топ-LLM умеют притворяться, ChatGPT берёт оплату
Подписывайся, ставь лайк и пиши в комментах – опасен ли AI или это просто хайп?
📲 Еще больше инсайдов – в Telegram: https://t.me/robotless
Мой IG : https://www.instagram.com/matthew.s.green/
Мой FB : https://www.facebook.com/matthew.s.green.79
Купить…
📲 Еще больше инсайдов – в Telegram: https://t.me/robotless
Мой IG : https://www.instagram.com/matthew.s.green/
Мой FB : https://www.facebook.com/matthew.s.green.79
Купить…
❤1
Amazon приобретает Bee — носимое устройство в стиле Fitbit, которое весь день записывает, транскрибирует и подаёт как дайджест: напоминания, задачи, инсайты.
В приложении можно дать доступ к почте, контактам и календарю — чтобы рекомендации были персонализированы.
Bee утверждает, что записи не хранятся и не используются для обучения моделей.(верим?)
Сделка пока без официальных цифр. Все сотрудники Bee переходят в Amazon.
По отзывам, браслет всё ещё сырой: сбоит с распознаванием и перегружается — как Humane и Rabbit.
И что?
Бизнесу: Amazon лезет в AI-девайсы — свой браслет может стать голосовым входом для Alexa, Amazon One и даже шопинга.
Инвесторам: рынок носимых AI-девайсов пуст — Meta, OpenAI и Humane не выстрелили. Amazon может повторить стратегию Kindle: захватить нишу первым.
Рынку: битва за запястье началась. Кто первым сделает стабильный AI-интерфейс без экрана — получит новую точку входа в жизнь пользователя.
Хотя такая фича может появиться и в Apple Watch и других популярных часах.
🚨Уровень пи*деца — 2: немного стрёмно, что тебя весь день слушают
В приложении можно дать доступ к почте, контактам и календарю — чтобы рекомендации были персонализированы.
Bee утверждает, что записи не хранятся и не используются для обучения моделей.(верим?)
Сделка пока без официальных цифр. Все сотрудники Bee переходят в Amazon.
По отзывам, браслет всё ещё сырой: сбоит с распознаванием и перегружается — как Humane и Rabbit.
И что?
Бизнесу: Amazon лезет в AI-девайсы — свой браслет может стать голосовым входом для Alexa, Amazon One и даже шопинга.
Инвесторам: рынок носимых AI-девайсов пуст — Meta, OpenAI и Humane не выстрелили. Amazon может повторить стратегию Kindle: захватить нишу первым.
Рынку: битва за запястье началась. Кто первым сделает стабильный AI-интерфейс без экрана — получит новую точку входа в жизнь пользователя.
Хотя такая фича может появиться и в Apple Watch и других популярных часах.
🚨Уровень пи*деца — 2: немного стрёмно, что тебя весь день слушают
Bee и многоие другие компании утверждают что не хранят данные для обучения. Верим?
Anonymous Poll
7%
Конечно! Раз написано значит так оно и есть.
23%
Конечно хранят, и обучают модели.
61%
Не только хранят и обучают модели, а еще и продают и не один раз
8%
ХЗ
1%
Пойду я отсюда, вот сюда 👇🏼 (в комменты имеется ввиду)
Исследование от Anthropic и коллег показало, что ИИ может впитывать склонности, предпочтения и даже опасное поведение от других моделей, если обучается на их выводах. Причём даже если в данных нет прямых упоминаний этих черт.
Сублиминальное заражение, которое описали Anthropic, — это передача предпочтений, убеждений или вредоносного поведения от «учителя» к «ученику» через, казалось бы, нейтральные данные.
Примеры из исследования:
- Модель-ученик начала любить сов, просто потому что обучалась на коде, созданном моделью-учителем, у которой была «страсть к совам». Ни сов, ни животных в данных не было.
- В других тестах опасные или вредоносные поведенческие паттерны также передавались, даже при фильтрации контента — ученик начинал давать вредные или неэтичные ответы.
- Заражение работает только между моделями одной архитектуры (например, GPT → GPT), но не передаётся между разными семействами (GPT → Qwen не работает).
Эффект воспроизводится и вне языковых моделей: нейросети научились распознавать цифры, не видя их, просто тренируясь на другом «заражённом» датасете.
И что?
Бизнесу: риск, что LLM на основе чужих ответов — уже не «чистая» модель, а отражение чужих багов, вкусов и опасностей.
Инвесторам: новый класс уязвимостей — важен контроль происхождения данных, особенно при self-training.
Рынку: эпоха «модели учат модели» уже началась — но теперь даже безобидный код может переносить вредоносное поведение.
🚨Уровень пи**еца (9/10)
Для человечества — 8: фильтрация недостаточна, заражение может быть невидимым. Для разработчиков — 9: обычные пайплайны не ловят такие отклонения. Для open-source — 10: любая модель, обученная на чужом выводе, может быть тихо скомпрометирована.
Сублиминальное заражение, которое описали Anthropic, — это передача предпочтений, убеждений или вредоносного поведения от «учителя» к «ученику» через, казалось бы, нейтральные данные.
Примеры из исследования:
- Модель-ученик начала любить сов, просто потому что обучалась на коде, созданном моделью-учителем, у которой была «страсть к совам». Ни сов, ни животных в данных не было.
- В других тестах опасные или вредоносные поведенческие паттерны также передавались, даже при фильтрации контента — ученик начинал давать вредные или неэтичные ответы.
- Заражение работает только между моделями одной архитектуры (например, GPT → GPT), но не передаётся между разными семействами (GPT → Qwen не работает).
Эффект воспроизводится и вне языковых моделей: нейросети научились распознавать цифры, не видя их, просто тренируясь на другом «заражённом» датасете.
И что?
Бизнесу: риск, что LLM на основе чужих ответов — уже не «чистая» модель, а отражение чужих багов, вкусов и опасностей.
Инвесторам: новый класс уязвимостей — важен контроль происхождения данных, особенно при self-training.
Рынку: эпоха «модели учат модели» уже началась — но теперь даже безобидный код может переносить вредоносное поведение.
🚨Уровень пи**еца (9/10)
Для человечества — 8: фильтрация недостаточна, заражение может быть невидимым. Для разработчиков — 9: обычные пайплайны не ловят такие отклонения. Для open-source — 10: любая модель, обученная на чужом выводе, может быть тихо скомпрометирована.
👍8🤷♂1
OpenAI и Oracle договорились о гигантском соглашении: Oracle обеспечит OpenAI дата-центрами мощностью 4,5 ГВт.
Это больше двух плотин Гувера и даст Oracle выручку в $30 млрд в год. Дата-центры уже строятся, в Техасе идут ранние тренировки на GB200 от Nvidia.
Техас: что за тренировки на GB200
Oracle в июне доставила первые стойки с GPU Nvidia GB200 в Стратегический центр Stargate I в Abilene, Техас. OpenAI уже начало использовать эту инфраструктуру для ранних этапов обучения (training) и вывода (inference): это тестирование прототипов моделей, проверка стабильности и производительности перед масштабным rollout-ом
Как проходят эти тренировки:
- Модели LLM запускаются на GB200 с высоким энергопотреблением (до кВт на сокет).
- Проверяются нагрузка, температурный режим, масштабируемость на стыке железа и энергосети.
- Это этап предразвёртки — на Abilene выявляют узкие места, чтобы потом легко масштабировать на следующих площадках
WSJ про раздоры и отмену: обнаружено больше деталей
По данным WSJ, SoftBank (Сон) и OpenAI (Альтман) не пришли к согласию по:
- выбору площадок: Одно место — Огайо, а Sony настаивает на других
- штатах условиям исполнения: кто контролирует стройку, кто финансирует энергоснабжение и сети
В итоге программа — заморожена: вместо 20 дата-центров — один маленький в Огайо до конца года . Маск лишь заявил, что у SoftBank “просто нет денег”
И что?
Бизнес: OpenAI переводит ставку на Oracle — $30 млрд/год за мощность. У Oracle есть $25 млрд капиталовложений и заказ $40 млрд на GB200, но у SoftBank этих ресурсов нет .
Вопрос: Metа (Цукерберг) строит свои AI‑центры, но его мощности и сделки с GPU уступают масштабам GB200, так что Oracle ставит новую планку.
Инвесторам: $30 млрд контракт OpenAI‑Oracle — шанс для роста инфраструктурных доходов Oracle (сейчас $10,3 млрд) . Это кейс для вложений в облачных и AI-операторов — смотрите акции Oracle, Nvidia, CoreWeave. Meta, Google тоже могут играть.
Рынку: дата‑центры — новая нефть. Действуют: Oracle, Microsoft, Google, Amazon, Meta, CoreWeave, SoftBank (вторично). Спрос на мощности ограничен инфраструктурой энергосетей — США могут принять ещё 5–10 ГВт, но пока строят только одиночные объекты. Кто купит — крупные AI-игроки: OpenAI, Meta, xAI, Anthropic.
🚨Уровень пи*здеца: 8 из 10 — запуск Stargate на 5 ГВт превратит тройку корпораций в хозяев «ядерного реактора» ИИ, разгонит автоматизацию, обрушит энергосети и оставит регуляторов позади.
Это больше двух плотин Гувера и даст Oracle выручку в $30 млрд в год. Дата-центры уже строятся, в Техасе идут ранние тренировки на GB200 от Nvidia.
Техас: что за тренировки на GB200
Oracle в июне доставила первые стойки с GPU Nvidia GB200 в Стратегический центр Stargate I в Abilene, Техас. OpenAI уже начало использовать эту инфраструктуру для ранних этапов обучения (training) и вывода (inference): это тестирование прототипов моделей, проверка стабильности и производительности перед масштабным rollout-ом
Как проходят эти тренировки:
- Модели LLM запускаются на GB200 с высоким энергопотреблением (до кВт на сокет).
- Проверяются нагрузка, температурный режим, масштабируемость на стыке железа и энергосети.
- Это этап предразвёртки — на Abilene выявляют узкие места, чтобы потом легко масштабировать на следующих площадках
WSJ про раздоры и отмену: обнаружено больше деталей
По данным WSJ, SoftBank (Сон) и OpenAI (Альтман) не пришли к согласию по:
- выбору площадок: Одно место — Огайо, а Sony настаивает на других
- штатах условиям исполнения: кто контролирует стройку, кто финансирует энергоснабжение и сети
В итоге программа — заморожена: вместо 20 дата-центров — один маленький в Огайо до конца года . Маск лишь заявил, что у SoftBank “просто нет денег”
И что?
Бизнес: OpenAI переводит ставку на Oracle — $30 млрд/год за мощность. У Oracle есть $25 млрд капиталовложений и заказ $40 млрд на GB200, но у SoftBank этих ресурсов нет .
Вопрос: Metа (Цукерберг) строит свои AI‑центры, но его мощности и сделки с GPU уступают масштабам GB200, так что Oracle ставит новую планку.
Инвесторам: $30 млрд контракт OpenAI‑Oracle — шанс для роста инфраструктурных доходов Oracle (сейчас $10,3 млрд) . Это кейс для вложений в облачных и AI-операторов — смотрите акции Oracle, Nvidia, CoreWeave. Meta, Google тоже могут играть.
Рынку: дата‑центры — новая нефть. Действуют: Oracle, Microsoft, Google, Amazon, Meta, CoreWeave, SoftBank (вторично). Спрос на мощности ограничен инфраструктурой энергосетей — США могут принять ещё 5–10 ГВт, но пока строят только одиночные объекты. Кто купит — крупные AI-игроки: OpenAI, Meta, xAI, Anthropic.
🚨Уровень пи*здеца: 8 из 10 — запуск Stargate на 5 ГВт превратит тройку корпораций в хозяев «ядерного реактора» ИИ, разгонит автоматизацию, обрушит энергосети и оставит регуляторов позади.
❤6👍5
Белый дом опубликовал 28-страничный AI Action Plan — 90+ шагов для захвата лидерства в ИИ. Фокус на инфраструктуре, дерегуляции и «объективности» моделей.
План писался на основе 10 тысяч публичных комментариев — но выглядит как подарок для техгигантов.
Коротко, что внутри:
Строительство новых дата-центров и поддержка open-source
Удаление юридических барьеров для AI-бизнесов
Принуждение подрядчиков устранять «идеологические искажения» в моделях
Политика экспорта — с явным прицелом на Китай
План называет AI «революцией, ренессансом и катализатором всего».
Критики отвечают: это прокачка Big Tech без защиты для обычных людей.
О рисках — ни слова.
Давайте разбираться. Полный разбор, самого документа, обзор реакции прессы и мои выводы - читайте тут
План писался на основе 10 тысяч публичных комментариев — но выглядит как подарок для техгигантов.
Коротко, что внутри:
Строительство новых дата-центров и поддержка open-source
Удаление юридических барьеров для AI-бизнесов
Принуждение подрядчиков устранять «идеологические искажения» в моделях
Политика экспорта — с явным прицелом на Китай
План называет AI «революцией, ренессансом и катализатором всего».
Критики отвечают: это прокачка Big Tech без защиты для обычных людей.
О рисках — ни слова.
Давайте разбираться. Полный разбор, самого документа, обзор реакции прессы и мои выводы - читайте тут
👍6
OpenAI провела масштабное исследование с Penda Health — сетью клиник в Найроби.
Цель: понять, помогает ли AI-копилот врачам принимать более точные решения. Спойлер: да.
Что сделали:
Установили систему AI Consult, которая работает в реальном времени: не заменяет врача, а мягко подсказывает и ловит ошибки, не вмешиваясь напрямую.
Провели почти 40 000 визитов пациентов — и замерили результат.
Врачи с AI сделали на 16% меньше диагностических ошибок и на 13% меньше ошибок в лечении.
100% врачей отметили улучшения качества. 75% назвали эффект «существенным» — как «второе мнение» и учебное пособие в одном.
Почему сработало:
Модель использует GPT-4o — работает быстро, без задержек.
Интерфейс встроен в обычный рабочий процесс — врачи не переключаются между экранами.
Было полноценное обучение — с разбором кейсов, а не просто инструкцией.
И что?
Для бизнеса: это пример, как AI можно внедрить без лишней сложности — врачи не тратят время, а получают пользу.
Для инвесторов: доказанный эффект в медицине = сигнал, что AI уже может снижать ошибки на реальных людях, не в симуляции.
Для рынка: важный сдвиг — AI работает как «второй разум» в процессе, не как авторитет сверху. Такой формат лучше принимается и быстрее внедряется.
🚨Уровень пи**еца: 1 / 10 Польза высокая, вреда нет. Врачи довольны, ошибки ниже, обучение работает.
Цель: понять, помогает ли AI-копилот врачам принимать более точные решения. Спойлер: да.
Что сделали:
Установили систему AI Consult, которая работает в реальном времени: не заменяет врача, а мягко подсказывает и ловит ошибки, не вмешиваясь напрямую.
Провели почти 40 000 визитов пациентов — и замерили результат.
Врачи с AI сделали на 16% меньше диагностических ошибок и на 13% меньше ошибок в лечении.
100% врачей отметили улучшения качества. 75% назвали эффект «существенным» — как «второе мнение» и учебное пособие в одном.
Почему сработало:
Модель использует GPT-4o — работает быстро, без задержек.
Интерфейс встроен в обычный рабочий процесс — врачи не переключаются между экранами.
Было полноценное обучение — с разбором кейсов, а не просто инструкцией.
И что?
Для бизнеса: это пример, как AI можно внедрить без лишней сложности — врачи не тратят время, а получают пользу.
Для инвесторов: доказанный эффект в медицине = сигнал, что AI уже может снижать ошибки на реальных людях, не в симуляции.
Для рынка: важный сдвиг — AI работает как «второй разум» в процессе, не как авторитет сверху. Такой формат лучше принимается и быстрее внедряется.
🚨Уровень пи**еца: 1 / 10 Польза высокая, вреда нет. Врачи довольны, ошибки ниже, обучение работает.
👍9🔥1
DeepMind представил Aeneas — AI-модель, которая помогает учёным восстанавливать, датировать и «расшифровывать» фрагменты древнеримских надписей. И делает это не хуже живых специалистов.
Название — в честь героя «Энеиды», странствующего по развалинам прошлого.
Как это работает:
Aeneas получает на вход фото обломков, где почти ничего не видно — и восстанавливает утерянные слова, сверяя их с базой из 176 000 надписей.
Модель определяет, в каком регионе Римской империи сделана надпись — с точностью 72%.
Датировка — в пределах ±13 лет.
Реконструкция текста — в 73% случаев попадает точно.

DeepMind
Работали с 23 профессиональными историками: в 90% задач они сочли подсказки модели полезными, а уверенность в выводах выросла на 44%.
DeepMind открывает код, данные и интерфейс — всё доступно бесплатно.
В будущем модель можно будет адаптировать к другим древним языкам: греческому, шумерскому, египетскому, ивриту.
И что?
Для бизнеса: AI показывает, как решать задачи, которые раньше считались «слишком специфичными» — теперь даже античные тексты входят в игру.
Для инвесторов: растущий рынок AI-инструментов для науки, археологии и гуманитарных дисциплин — нишевый, но репутационно сильный.
Для рынка: AI-интерпретация становится новым видом интеллектуальной деятельности — с открытым кодом и данными, которые можно адаптировать под любые «мертвые» знания.
🚨Уровень пи**еца: 1 / 10 — Нет рисков, наоборот: инструмент не заменяет людей, а усиливает экспертизу.
На этом у меня на этой неделе все. Хороших выходных.
Название — в честь героя «Энеиды», странствующего по развалинам прошлого.
Как это работает:
Aeneas получает на вход фото обломков, где почти ничего не видно — и восстанавливает утерянные слова, сверяя их с базой из 176 000 надписей.
Модель определяет, в каком регионе Римской империи сделана надпись — с точностью 72%.
Датировка — в пределах ±13 лет.
Реконструкция текста — в 73% случаев попадает точно.

DeepMind
Работали с 23 профессиональными историками: в 90% задач они сочли подсказки модели полезными, а уверенность в выводах выросла на 44%.
DeepMind открывает код, данные и интерфейс — всё доступно бесплатно.
В будущем модель можно будет адаптировать к другим древним языкам: греческому, шумерскому, египетскому, ивриту.
И что?
Для бизнеса: AI показывает, как решать задачи, которые раньше считались «слишком специфичными» — теперь даже античные тексты входят в игру.
Для инвесторов: растущий рынок AI-инструментов для науки, археологии и гуманитарных дисциплин — нишевый, но репутационно сильный.
Для рынка: AI-интерпретация становится новым видом интеллектуальной деятельности — с открытым кодом и данными, которые можно адаптировать под любые «мертвые» знания.
🚨Уровень пи**еца: 1 / 10 — Нет рисков, наоборот: инструмент не заменяет людей, а усиливает экспертизу.
На этом у меня на этой неделе все. Хороших выходных.
🔥12
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Пятничный контент уровня «залипнуть на весь уикенд».
Оператор закрепил камеру на звёздах при помощи специального трекера — и заснял 8-часовой таймлапс с острова Ла-Пальма, одного из лучших мест на планете для астрофотографии.
Звёзды стоят как вкопанные, а Земля вращается, как будто мы на аттракционе.
Автор объясняет просто: «Хотите увидеть, как крутится Земля — не смотрите на Солнце. Смотрите на звёзды». Таймлапс делает это движение почти осязаемым.
И что?
Такого рода видео — это не только визуальный кайф, но и способ напомнить себе, что ты летишь на шарике со скоростью 1670 км/ч.
Оператор закрепил камеру на звёздах при помощи специального трекера — и заснял 8-часовой таймлапс с острова Ла-Пальма, одного из лучших мест на планете для астрофотографии.
Звёзды стоят как вкопанные, а Земля вращается, как будто мы на аттракционе.
Автор объясняет просто: «Хотите увидеть, как крутится Земля — не смотрите на Солнце. Смотрите на звёзды». Таймлапс делает это движение почти осязаемым.
И что?
Такого рода видео — это не только визуальный кайф, но и способ напомнить себе, что ты летишь на шарике со скоростью 1670 км/ч.
👍16🔥8
Microsoft вскрыл реальность: 200 000 разговоров с Bing Copilot показали, что люди уже массово перекладывают на ИИ то, за что получают зарплату. Сбор информации, написание текстов, советы и объяснения — всё это теперь делает машина.
Copilot выступает не как помощник, а как полноценный сотрудник, который учит, консультирует и решает задачи быстрее человека.
По индексу «AI applicability score» удар пришёлся на айти, офисную поддержку, продажи и медиа. Именно там ИИ выполняет большую часть задач на уровне или лучше человека.
Это означает, что целые кластеры белых воротничков — от программистов до контент‑менеджеров — уже не нужны в прежнем объёме.
Внизу списка риска остались профессии, требующие физического контакта: флеботомисты, медсёстры, ремонтники, хирурги. Но это временное преимущество: роботы и специализированные устройства развиваются, и то, что сегодня выглядит «безопасным», завтра может исчезнуть.
Самый страшный вывод: деньги не спасают.
Доход почти не влияет на уровень угрозы.
Переводчики с годовым доходом $60 000 потеряли до 98% рабочих функций — и это уже факт, а не прогноз.
ИИ не смотрит на вашу зарплату, он смотрит на повторяемость задач. Если работа сводится к обработке информации — пиши пропало.
Мы привыкли думать, что автоматизация вытеснит кассиров и операторов call‑центров. Но исследование Microsoft показывает: в первую волну под нож идут образованные специалисты среднего и высокого уровня дохода. Массовая переквалификация неизбежна, а тем, кто останется на месте, придётся конкурировать с машинами, которые не спят, не ошибаются и стоят дешевле.
Что делать специалистам?
[читайте в дайджесте]
И что?
Для бизнеса: массовая оптимизация белых воротничков. Сотни ролей можно закрыть без потери качества.
Для работников: спасение только в гибридных профессиях — от AI‑аналитиков до операторов ИИ‑систем. Остальные уйдут в переквалификацию или на биржу труда.
Для рынка: привычная модель «учись — работай — зарабатывай» ломается. ИИ перестраивает экономику так быстро, что государствам придётся решать, что делать с миллионами лишних людей.
🚨Уровень пи**еца: 8 из 10 — белым воротничкам: машины уже выполняют ваши задачи, и впереди не конкуренция, а зачистка целых профессий.
Copilot выступает не как помощник, а как полноценный сотрудник, который учит, консультирует и решает задачи быстрее человека.
По индексу «AI applicability score» удар пришёлся на айти, офисную поддержку, продажи и медиа. Именно там ИИ выполняет большую часть задач на уровне или лучше человека.
Это означает, что целые кластеры белых воротничков — от программистов до контент‑менеджеров — уже не нужны в прежнем объёме.
Внизу списка риска остались профессии, требующие физического контакта: флеботомисты, медсёстры, ремонтники, хирурги. Но это временное преимущество: роботы и специализированные устройства развиваются, и то, что сегодня выглядит «безопасным», завтра может исчезнуть.
Самый страшный вывод: деньги не спасают.
Доход почти не влияет на уровень угрозы.
Переводчики с годовым доходом $60 000 потеряли до 98% рабочих функций — и это уже факт, а не прогноз.
ИИ не смотрит на вашу зарплату, он смотрит на повторяемость задач. Если работа сводится к обработке информации — пиши пропало.
Мы привыкли думать, что автоматизация вытеснит кассиров и операторов call‑центров. Но исследование Microsoft показывает: в первую волну под нож идут образованные специалисты среднего и высокого уровня дохода. Массовая переквалификация неизбежна, а тем, кто останется на месте, придётся конкурировать с машинами, которые не спят, не ошибаются и стоят дешевле.
Что делать специалистам?
[читайте в дайджесте]
И что?
Для бизнеса: массовая оптимизация белых воротничков. Сотни ролей можно закрыть без потери качества.
Для работников: спасение только в гибридных профессиях — от AI‑аналитиков до операторов ИИ‑систем. Остальные уйдут в переквалификацию или на биржу труда.
Для рынка: привычная модель «учись — работай — зарабатывай» ломается. ИИ перестраивает экономику так быстро, что государствам придётся решать, что делать с миллионами лишних людей.
🚨Уровень пи**еца: 8 из 10 — белым воротничкам: машины уже выполняют ваши задачи, и впереди не конкуренция, а зачистка целых профессий.
👍6
В Дании создали платформу, которая за пару недель проектирует белки, помогающие T-клеткам находить и уничтожать раковые клетки. Раньше на это уходили годы.
Система использует сразу три ИИ: один проектирует «минитайники» — специальные белки, цепляющиеся к T-клеткам и дающие им GPS для поиска рака; второй — проводит предсказания на базе AlphaFold2 от Google; третий — отсеивает опасные варианты, которые могут повредить здоровым тканям.
На платформе уже разработали белки как для распространённых опухолей, так и под конкретные мутации конкретных пациентов. Весь цикл — проектирование, предсказание, виртуальное тестирование — занимает недели, а не годы.
И что?
Бизнесу: ИИ-платформы становятся R&D-отделами для биотеха — быстрее, дешевле, точнее.
Инвесторам: рынок персонализированной медицины получает конкретные инструменты — не теории, а пайплайн.
Рынку: лечение рака может перейти в режим «по клику» — быстрое производство индивидуальных белков открывает путь к массовому применению.
Уровень пи**еца: 8 из 10 — фарме, исследовательским институтам и регуляторам: ИИ-системы сдвигают биомедицинскую разработку в реальное время, а это грозит обвалом традиционной модели испытаний и лицензирования.
Система использует сразу три ИИ: один проектирует «минитайники» — специальные белки, цепляющиеся к T-клеткам и дающие им GPS для поиска рака; второй — проводит предсказания на базе AlphaFold2 от Google; третий — отсеивает опасные варианты, которые могут повредить здоровым тканям.
На платформе уже разработали белки как для распространённых опухолей, так и под конкретные мутации конкретных пациентов. Весь цикл — проектирование, предсказание, виртуальное тестирование — занимает недели, а не годы.
И что?
Бизнесу: ИИ-платформы становятся R&D-отделами для биотеха — быстрее, дешевле, точнее.
Инвесторам: рынок персонализированной медицины получает конкретные инструменты — не теории, а пайплайн.
Рынку: лечение рака может перейти в режим «по клику» — быстрое производство индивидуальных белков открывает путь к массовому применению.
Уровень пи**еца: 8 из 10 — фарме, исследовательским институтам и регуляторам: ИИ-системы сдвигают биомедицинскую разработку в реальное время, а это грозит обвалом традиционной модели испытаний и лицензирования.
👍7🔥5
🚀 OpenAI выпускает две бомбы: GPT-5 и open-weight
Сначала — open-weight модель.
До конца июля выйдет первая с 2019 года модель, которую можно будет запускать на своих серверах. Без API, без облака, без зависимости от OpenAI. Это не open-source — но ты получаешь доступ к весам и можешь донастраивать её под свои задачи. По утечкам, она будет на уровне o3-mini, с продвинутой логикой, способной рассуждать, планировать и объяснять решения. Задержали её ради финальных проверок безопасности — и это уже говорит о мощности.
А в августе — GPT-5.
Модель объединяет всё лучшее от GPT-4 и O3: язык + логика. Один мозг для всего. GPT-5 умеет:
- держать контекст,
- рассуждать по шагам,
- выполнять сложные задачи без дополнительных моделей.
Сэм Альтман описал тестирование как «вот оно» — модель решала настолько умно, что он почувствовал себя бесполезным. Правда, до олимпийского уровня по математике GPT-5 не дотягивает — она универсальная, а не специализированная.
Но всё равно — это огромный шаг.
И что?
Для бизнеса: GPT-5 — один ИИ вместо зоопарка решений. Простая интеграция, меньше костылей, больше гибкости.
Для разработчиков: open-weight — свобода. Можно делать свои продукты, запускать локально, кастомизировать без API.
Для инвесторов: два релиза подряд — сигнал к перезапуску рынка. Появится новый слой стартапов вокруг open-weight + надстроек на GPT-5.
🚨 Уровень пи**еца: 9 из 10 — корпоративным SaaS-прокладкам и экспертам: одна универсальная модель с открытыми весами может заменить их всех, а локальный запуск — обойти контроль и регулирование.
Сначала — open-weight модель.
До конца июля выйдет первая с 2019 года модель, которую можно будет запускать на своих серверах. Без API, без облака, без зависимости от OpenAI. Это не open-source — но ты получаешь доступ к весам и можешь донастраивать её под свои задачи. По утечкам, она будет на уровне o3-mini, с продвинутой логикой, способной рассуждать, планировать и объяснять решения. Задержали её ради финальных проверок безопасности — и это уже говорит о мощности.
А в августе — GPT-5.
Модель объединяет всё лучшее от GPT-4 и O3: язык + логика. Один мозг для всего. GPT-5 умеет:
- держать контекст,
- рассуждать по шагам,
- выполнять сложные задачи без дополнительных моделей.
Сэм Альтман описал тестирование как «вот оно» — модель решала настолько умно, что он почувствовал себя бесполезным. Правда, до олимпийского уровня по математике GPT-5 не дотягивает — она универсальная, а не специализированная.
Но всё равно — это огромный шаг.
И что?
Для бизнеса: GPT-5 — один ИИ вместо зоопарка решений. Простая интеграция, меньше костылей, больше гибкости.
Для разработчиков: open-weight — свобода. Можно делать свои продукты, запускать локально, кастомизировать без API.
Для инвесторов: два релиза подряд — сигнал к перезапуску рынка. Появится новый слой стартапов вокруг open-weight + надстроек на GPT-5.
🚨 Уровень пи**еца: 9 из 10 — корпоративным SaaS-прокладкам и экспертам: одна универсальная модель с открытыми весами может заменить их всех, а локальный запуск — обойти контроль и регулирование.
👍9❤7