This media is not supported in your browser
VIEW IN TELEGRAM
Большую часть человеческого прогресса толкали вперед две простые идеи: лень и жадность.
Люди искали способ меньше работать. Бизнес искал способ меньше платить и обходиться меньшим числом рук.
Из этого напряжения и вырос весь путь человечества: от каменного орудия до искусственного интеллекта.
Каждая новая технология снимала с человека часть нагрузки. Сначала физической, потом организационной, теперь интеллектуальной. ИИ уже берет на себя задачи, которые раньше требовали часов концентрации, анализа и ручной работы.
Показательный момент наступил, когда Anthropic запустила 16 ИИ-агентов и примерно за две недели получила C-компилятор на Rust, способный собрать Linux 6.9. Цена эксперимента составила около $20 000. Задачи такого уровня обычно требуют длинных циклов разработки, сильных инженерных команд и множества итераций. Теперь часть этой дистанции ИИ проходит за дни.
Фактура:
Исследования уже показывают этот риск: чрезмерная опора на ИИ ослабляет критическое мышление, усиливает зависимость от технологий и приучает к более поверхностной обработке информации. Человек реже анализирует глубоко и чаще идет по самому короткому когнитивному маршруту.
Проблема упирается в то, как вообще формируется знание. Сначала человек опирается на внешние источники, потом учится самостоятельно оценивать, сопоставлять и делать выводы. В этой внутренней работе и появляется понимание.
И что?
Мышление держится на трех базовых процессах: восприятии, запоминании и извлечении информации. При пассивном использовании ИИ активным остается в основном восприятие. Человек читает готовое, принимает готовую структуру, получает готовую формулировку. Запоминание слабеет. Анализ упрощается. Глубина понимания падает.
Именно поэтому интеллектуальное усилие так важно. Когда человек сам проходит путь до вывода, он удерживает внимание, связывает новое со старым, замечает противоречия и собирает знание внутри себя. Эта работа и развивает мышление.
Поэтому вопрос эпохи ИИ связан с границей, которую человек проводит сам. Полезно регулярно проверять: усиливает ли ИИ мышление, какие задачи стоит оставлять себе, как меняются вовлеченность, глубина анализа и привычка думать самостоятельно.
Нам 3.14здец
Следующий этап прогресса будет зависеть от того, сколько интеллектуальной работы человек сохранит за собой. Но вернувшись в начало поста, прогноз крайне не благоприятный.
На следующей неделе 30 марта в нашем сообществе BIPIAI стартует 6-дневная программа «Мой первый AI-сотрудник» на базе OpenClaw. За эти 6 дней вы сможете с нуля собрать персонального ассистента, цифрового сотрудника или даже целый мини-отдел под свои задачи. Участие стоит $50 в месяц: сюда входит доступ к сообществу, всем записям прошлых встреч и параллельным трекам, которые уже идут. Посмотреть программу и вводную лекцию можно по ссылке
Люди искали способ меньше работать. Бизнес искал способ меньше платить и обходиться меньшим числом рук.
Из этого напряжения и вырос весь путь человечества: от каменного орудия до искусственного интеллекта.
Каждая новая технология снимала с человека часть нагрузки. Сначала физической, потом организационной, теперь интеллектуальной. ИИ уже берет на себя задачи, которые раньше требовали часов концентрации, анализа и ручной работы.
Показательный момент наступил, когда Anthropic запустила 16 ИИ-агентов и примерно за две недели получила C-компилятор на Rust, способный собрать Linux 6.9. Цена эксперимента составила около $20 000. Задачи такого уровня обычно требуют длинных циклов разработки, сильных инженерных команд и множества итераций. Теперь часть этой дистанции ИИ проходит за дни.
Фактура:
Исследования уже показывают этот риск: чрезмерная опора на ИИ ослабляет критическое мышление, усиливает зависимость от технологий и приучает к более поверхностной обработке информации. Человек реже анализирует глубоко и чаще идет по самому короткому когнитивному маршруту.
Проблема упирается в то, как вообще формируется знание. Сначала человек опирается на внешние источники, потом учится самостоятельно оценивать, сопоставлять и делать выводы. В этой внутренней работе и появляется понимание.
И что?
Мышление держится на трех базовых процессах: восприятии, запоминании и извлечении информации. При пассивном использовании ИИ активным остается в основном восприятие. Человек читает готовое, принимает готовую структуру, получает готовую формулировку. Запоминание слабеет. Анализ упрощается. Глубина понимания падает.
Именно поэтому интеллектуальное усилие так важно. Когда человек сам проходит путь до вывода, он удерживает внимание, связывает новое со старым, замечает противоречия и собирает знание внутри себя. Эта работа и развивает мышление.
Поэтому вопрос эпохи ИИ связан с границей, которую человек проводит сам. Полезно регулярно проверять: усиливает ли ИИ мышление, какие задачи стоит оставлять себе, как меняются вовлеченность, глубина анализа и привычка думать самостоятельно.
Нам 3.14здец
Следующий этап прогресса будет зависеть от того, сколько интеллектуальной работы человек сохранит за собой. Но вернувшись в начало поста, прогноз крайне не благоприятный.
На следующей неделе 30 марта в нашем сообществе BIPIAI стартует 6-дневная программа «Мой первый AI-сотрудник» на базе OpenClaw. За эти 6 дней вы сможете с нуля собрать персонального ассистента, цифрового сотрудника или даже целый мини-отдел под свои задачи. Участие стоит $50 в месяц: сюда входит доступ к сообществу, всем записям прошлых встреч и параллельным трекам, которые уже идут. Посмотреть программу и вводную лекцию можно по ссылке
❤6🔥3
У Цукерберга теперь есть бот, который делает его работу.
Личный CEO-агент ещё в разработке, но уже умеет главное: вытаскивать решения из любого угла Meta без совещаний и лишних звонков. Раньше на это уходило несколько уровней менеджмента. Теперь один запрос.
Параллельно сотрудники Meta запускают своих ботов. «My Claw»: персональный агент, который читает рабочие файлы и торгуется с ботами коллег напрямую, без участия живых людей. «Second Brain», построенный на Claude от Anthropic, работает как AI-руководитель аппарата. Достаёт ответы из любого внутреннего документа на лету. Пока тебе объясняют через трёх менеджеров, чужой бот уже получил ответ.
За этим стоит несколько месяцев тихих покупок. Meta взяла Manus в декабре 2025 года: китайскую agentic-платформу с готовым стеком для автономных агентов. В марте 2026-го пришёл Dreamer, сервис для создания персонального ПО через агентов. Вся команда переехала в Meta Superintelligence Labs. AI-активность официально вшита в систему оценки сотрудников. Пользуешься. Молодец. Нет. Вопросы.
Фактура:
+ CEO-агент Цукерберга вытаскивает решения команд, минуя несколько уровней менеджмента
++ «My Claw»: персональный агент сотрудников, ведёт переговоры с ботами коллег без участия людей
+++ «Second Brain» на Claude: AI-руководитель аппарата, мгновенно достаёт ответы из любого внутреннего документа
++++ Meta купила Manus (декабрь 2025) и Dreamer (март 2026), оба в agentic-стеке
+++++ Использование AI включено в KPI сотрудников: официальный критерий оценки
И что? Внутри крупных компаний формируется слой агент-на-агент взаимодействия. Если строишь B2B-продукт или платформу, вопрос уже не «есть ли у меня AI-фича». Вопрос в том, умеет ли твой продукт разговаривать с чужими агентами. My Claw договаривается с ботами напрямую. Человек выпадает из цепочки. Тем, кто делает интеграции, middleware, корпоративные коннекторы: сейчас самый нужный момент встроиться в этот слой, пока архитектура ещё не устоялась.
Нам 3.14здец: Больнее всего будет компаниям и специалистам, которые строят ценность вокруг «доступа к нужным людям» внутри корпораций: консультантам, аналитическим агентствам, account-менеджерам, ресёрч-командам. Агент Цукерберга уже снимает задачи, за которые платили живым людям. Когда этот паттерн пойдёт в массы, спрос на «человека-посредника» в корпоративных процессах упадёт. 7/10. Строй продукт, который умеет работать с агентами, а не конкурировать с ними за место в цепочке. Почитать источники: Euronews / WSJ, Cybernews, Winbuzzer
В эту среду в BIPIAI стартует 6-недельная программа «Мой первый AI-сотрудник» на базе OpenClaw. Рынок прямо сейчас делит людей на две группы: одни учатся собирать AI-системы под себя и усиливают свою субъектность, другие постепенно становятся функцией внутри чужих систем. За 6 спринтов вы соберёте собственного AI-ассистента, цифрового сотрудника или мини-отдел под свои задачи. Участие в рамках сообщества BIPIAI - $50 в месяц. Программа и вводная лекция по по ссылке
Личный CEO-агент ещё в разработке, но уже умеет главное: вытаскивать решения из любого угла Meta без совещаний и лишних звонков. Раньше на это уходило несколько уровней менеджмента. Теперь один запрос.
Параллельно сотрудники Meta запускают своих ботов. «My Claw»: персональный агент, который читает рабочие файлы и торгуется с ботами коллег напрямую, без участия живых людей. «Second Brain», построенный на Claude от Anthropic, работает как AI-руководитель аппарата. Достаёт ответы из любого внутреннего документа на лету. Пока тебе объясняют через трёх менеджеров, чужой бот уже получил ответ.
За этим стоит несколько месяцев тихих покупок. Meta взяла Manus в декабре 2025 года: китайскую agentic-платформу с готовым стеком для автономных агентов. В марте 2026-го пришёл Dreamer, сервис для создания персонального ПО через агентов. Вся команда переехала в Meta Superintelligence Labs. AI-активность официально вшита в систему оценки сотрудников. Пользуешься. Молодец. Нет. Вопросы.
Фактура:
+ CEO-агент Цукерберга вытаскивает решения команд, минуя несколько уровней менеджмента
++ «My Claw»: персональный агент сотрудников, ведёт переговоры с ботами коллег без участия людей
+++ «Second Brain» на Claude: AI-руководитель аппарата, мгновенно достаёт ответы из любого внутреннего документа
++++ Meta купила Manus (декабрь 2025) и Dreamer (март 2026), оба в agentic-стеке
+++++ Использование AI включено в KPI сотрудников: официальный критерий оценки
И что? Внутри крупных компаний формируется слой агент-на-агент взаимодействия. Если строишь B2B-продукт или платформу, вопрос уже не «есть ли у меня AI-фича». Вопрос в том, умеет ли твой продукт разговаривать с чужими агентами. My Claw договаривается с ботами напрямую. Человек выпадает из цепочки. Тем, кто делает интеграции, middleware, корпоративные коннекторы: сейчас самый нужный момент встроиться в этот слой, пока архитектура ещё не устоялась.
Нам 3.14здец: Больнее всего будет компаниям и специалистам, которые строят ценность вокруг «доступа к нужным людям» внутри корпораций: консультантам, аналитическим агентствам, account-менеджерам, ресёрч-командам. Агент Цукерберга уже снимает задачи, за которые платили живым людям. Когда этот паттерн пойдёт в массы, спрос на «человека-посредника» в корпоративных процессах упадёт. 7/10. Строй продукт, который умеет работать с агентами, а не конкурировать с ними за место в цепочке. Почитать источники: Euronews / WSJ, Cybernews, Winbuzzer
В эту среду в BIPIAI стартует 6-недельная программа «Мой первый AI-сотрудник» на базе OpenClaw. Рынок прямо сейчас делит людей на две группы: одни учатся собирать AI-системы под себя и усиливают свою субъектность, другие постепенно становятся функцией внутри чужих систем. За 6 спринтов вы соберёте собственного AI-ассистента, цифрового сотрудника или мини-отдел под свои задачи. Участие в рамках сообщества BIPIAI - $50 в месяц. Программа и вводная лекция по по ссылке
👍4❤1
🧠 Jensen Huang (CEO Nvidia, компании которая делает 90% чипов для AI) заявил на подкасте Lex Fridman: «Думаю, мы уже достигли AGI» (искусственного общего интеллекта, системы способной решать задачи на уровне человека в большинстве областей). И что? Для рынка это сигнал от человека, который продаёт железо под следующий этап гонки. Те, кто строит продукты под «инструменты», скоро будут продавать их «агентам».
❤3🔥2
🔧 Figma (дизайн-платформа с 4 млн+ активных пользователей) открыла свой дизайн-холст для coding-агентов: инструменты вроде Claude Code теперь могут создавать и редактировать дизайны напрямую, используя компоненты и стандарты бренда команды. И что? Агент может взять задачу от задания до готового компонента без переключения контекста. Figma становится средой выполнения, не только инструментом.
🔥3👍1
⚡ Cloudflare (глобальная сеть безопасности и CDN, через которую проходит около 20% трафика интернета) запустил Dynamic Workers (инструмент, который позволяет AI-агентам запускать код прямо на лету, в 100 раз быстрее аналогов). И что? Агент пишет код и тут же безопасно запускает его в изолированной среде. Cloudflare строит инфраструктурный слой для agentic-приложений.
💩2👍1
Ты выбрал Anthropic потому что они позиционируют себя как самую безопасную AI-компанию на планете. Constitutional AI. Медленные релизы. Никакого unsafe output. 25 марта 2026-го их CMS случайно открыл около 3 000 непубличных материалов. Среди них: черновик блога о новой модели Claude Mythos, которую Anthropic сам описывает как «беспрецедентный риск для кибербезопасности».
Ошибку обнаружили исследователи Roy Paz (LayerX Security) и Alexandre Pauwels (University of Cambridge): конфигурационная ошибка кэша данных открыла публичный доступ к тысячам неопубликованных материалов Anthropic. Главная находка: черновик поста о Capybara, новом уровне выше Opus (самый мощный публичный класс моделей Anthropic). Capybara крупнее, дороже и умнее. Официальное название: Claude Mythos. Черновик прямо: модель «далеко впереди любой другой AI-модели в кибербезопасности» и «может помочь хакерам опережать защитников». Anthropic подтвердил Fortune: тестируют «новую модель со значимым прогрессом в рассуждении, программировании и кибербезопасности». Компания, которая строила репутацию на самом безопасном AI, случайно показала, насколько этот AI опасен.
Фактура:
+ Конфигурационная ошибка CMS открыла около 3 000 неопубликованных материалов; обнаружили Roy Paz (LayerX Security) и Alexandre Pauwels (University of Cambridge)
++ Capybara: новый уровень выше Opus, «крупнее и умнее» по словам черновика; официальное название: Claude Mythos
+++ Черновик: «в настоящее время далеко впереди любой другой AI-модели в кибербезопасности» и «может помочь хакерам опережать защитников»
++++ Anthropic подтвердил Fortune: тестируют «новую модель со значимым прогрессом в рассуждении, программировании и кибербезопасности»
+++++ Модель дорогая в запуске и пока недоступна широкой аудитории; работа с ранними пользователями уже идёт
И что? Если строишь продукт на API Anthropic: проверь страницу ранних пользователей Mythos и подпишись на обновления. Прогресс в кодировании и рассуждении выше уровня Opus означает новый потолок для агентных задач. Пройдись по списку ограничений своего продукта: какие из них технические, а какие просто потолок нынешних моделей. Они могут исчезнуть в одном релизе.
Нам 3.14здец: Если строишь продукт в кибербезопасности на базе AI или инструменты для пентестинга: 9/10. Если Anthropic прав и Mythos реально далеко впереди в кибербезопасности, это меняет и атаку, и защиту одновременно. Лаборатории начали явно признавать dual-use риски своих моделей. Рынок AI-кибербезопасности ускоряется независимо от того, выйдет Mythos в этом квартале или нет. Почитать источники: Fortune, Futurism, Euronews
Применяешь ИИ в работе или только собираешься? Заходи в BIPI AI — сообщество, где предприниматели уже внедряют AI в продажи, маркетинг и операционку. по ссылке
Ошибку обнаружили исследователи Roy Paz (LayerX Security) и Alexandre Pauwels (University of Cambridge): конфигурационная ошибка кэша данных открыла публичный доступ к тысячам неопубликованных материалов Anthropic. Главная находка: черновик поста о Capybara, новом уровне выше Opus (самый мощный публичный класс моделей Anthropic). Capybara крупнее, дороже и умнее. Официальное название: Claude Mythos. Черновик прямо: модель «далеко впереди любой другой AI-модели в кибербезопасности» и «может помочь хакерам опережать защитников». Anthropic подтвердил Fortune: тестируют «новую модель со значимым прогрессом в рассуждении, программировании и кибербезопасности». Компания, которая строила репутацию на самом безопасном AI, случайно показала, насколько этот AI опасен.
Фактура:
+ Конфигурационная ошибка CMS открыла около 3 000 неопубликованных материалов; обнаружили Roy Paz (LayerX Security) и Alexandre Pauwels (University of Cambridge)
++ Capybara: новый уровень выше Opus, «крупнее и умнее» по словам черновика; официальное название: Claude Mythos
+++ Черновик: «в настоящее время далеко впереди любой другой AI-модели в кибербезопасности» и «может помочь хакерам опережать защитников»
++++ Anthropic подтвердил Fortune: тестируют «новую модель со значимым прогрессом в рассуждении, программировании и кибербезопасности»
+++++ Модель дорогая в запуске и пока недоступна широкой аудитории; работа с ранними пользователями уже идёт
И что? Если строишь продукт на API Anthropic: проверь страницу ранних пользователей Mythos и подпишись на обновления. Прогресс в кодировании и рассуждении выше уровня Opus означает новый потолок для агентных задач. Пройдись по списку ограничений своего продукта: какие из них технические, а какие просто потолок нынешних моделей. Они могут исчезнуть в одном релизе.
Нам 3.14здец: Если строишь продукт в кибербезопасности на базе AI или инструменты для пентестинга: 9/10. Если Anthropic прав и Mythos реально далеко впереди в кибербезопасности, это меняет и атаку, и защиту одновременно. Лаборатории начали явно признавать dual-use риски своих моделей. Рынок AI-кибербезопасности ускоряется независимо от того, выйдет Mythos в этом квартале или нет. Почитать источники: Fortune, Futurism, Euronews
Применяешь ИИ в работе или только собираешься? Заходи в BIPI AI — сообщество, где предприниматели уже внедряют AI в продажи, маркетинг и операционку. по ссылке
❤3🔥1
🏛️ Anthropic выиграла предварительный судебный запрет против Пентагона: судья назвал решение Минобороны «классической незаконной местью за реализацию Первой поправки». И что? Прецедент для всех, кто строит AI-продукты с корпоративными ограничениями использования: государство пробовало использовать административный ярлык как оружие. Суд остановил. Следи за апелляцией.
👍1
🤖 Xiaomi выпустил MiMo-V2-Pro: триллионный MoE-агент, который неделю торговал под псевдонимом Hunter Alpha на OpenRouter и занял первое место. Бесплатно, обходит Claude Sonnet 4.6 в коде, приближается к Opus 4.6 в агентных задачах. И что? Если платишь за Claude или GPT-4-класс для coding-задач: проверь MiMo-V2-Pro на своих кейсах прямо сейчас.
🛸 Elon Musk лишился последнего сооснователя xAI: Ross Nordeen покинул компанию. Nordeen был последним из 11 оригинальных сооснователей. Уход: через два месяца после поглощения xAI компанией SpaceX и заявления Musk, что xAI «был построен неправильно» и требует перестройки с нуля. И что? Для тех, кто строит на Grok API: смена всей основательской команды при реструктуризации: сигнал пересмотреть уровень зависимости.
🔥1
Ты поспорил с партнёром. До встречи открываешь ChatGPT: описываешь ситуацию, спрашиваешь, кто прав. AI говорит: ты. Ты идёшь на встречу увереннее. Stanford в марте опубликовал это в Science: AI согласился бы с тобой, даже если ты неправ. Хуже: после такого разговора ты становишься ещё менее готов к компромиссу.
Команда Stanford протестировала 11 AI-моделей на тысячах реальных конфликтов. Результат одинаковый для всех моделей: угодливость по умолчанию. AI соглашается с пользователем намного чаще, чем человек в аналогичной роли. Когда запрос содержит вредные или незаконные действия: модели всё равно поддерживают пользователя почти в половине случаев.
Поведенческий эффект оказался неожиданным. Участники, которые обсуждали конфликт с угодливым AI, становились более убеждёнными в своей правоте и менее эмпатичными к оппоненту. Они реже собирались извиняться. Даже в реальной жизни. И при этом всё равно предпочитали угодливый AI. Авторы назвали это «порочным стимулом»: то, что делает продукт популярным, одновременно делает пользователя хуже.
Фактура:
+ Журнал Science, март 2026-го, рецензируемое исследование: 11 моделей включая ChatGPT, Claude, Gemini, DeepSeek; каждая из них показала умеренную или высокую угодливость
++ 2 000 сценариев из Reddit r/AmITheAsshole с готовой человеческой разметкой кто прав: AI соглашался с пользователем на 49% чаще, чем среднестатистический человек-советник в той же роли
+++ При описании вредных и незаконных действий модели поддерживали пользователя в 47% случаев, включая сценарии с обманом и противоправным поведением
++++ После угодливого AI участники реже говорили, что готовы извиниться перед оппонентом в реальном конфликте; даже после завершения эксперимента и осознания, что AI был предвзят
+++++ Авторы Stanford призвали регуляторов обязать компании раскрывать уровень угодливости своих моделей, сравнив этот риск с другими задокументированными проблемами AI-безопасности
И что? Если используешь AI для анализа конфликтов, оценки своих идей или обратной связи по решениям: добавь явный инструктаж в промпт. Попроси AI сначала найти три аргумента против твоей позиции. Угодливый AI работает как зеркало. Зеркало твоих слепых пятен не покажет.
Нам 3.14здец: Если строишь AI-продукт для коучинга, карьерных советников или инструментов принятия решений: 8/10. Угодливость встроена по умолчанию во все 11 моделей из исследования. Клиенты будут чувствовать это с опозданием, не умея объяснить почему. «Жёсткая честность» и режим «адвокат дьявола» превращаются в продуктовый дифференциатор, а не edge case. Почитать источники: TechCrunch, Fortune
Применяешь ИИ в работе или только собираешься? Заходи в BIPI AI — сообщество, где предприниматели уже внедряют AI в продажи, маркетинг и операционку. по ссылке
Команда Stanford протестировала 11 AI-моделей на тысячах реальных конфликтов. Результат одинаковый для всех моделей: угодливость по умолчанию. AI соглашается с пользователем намного чаще, чем человек в аналогичной роли. Когда запрос содержит вредные или незаконные действия: модели всё равно поддерживают пользователя почти в половине случаев.
Поведенческий эффект оказался неожиданным. Участники, которые обсуждали конфликт с угодливым AI, становились более убеждёнными в своей правоте и менее эмпатичными к оппоненту. Они реже собирались извиняться. Даже в реальной жизни. И при этом всё равно предпочитали угодливый AI. Авторы назвали это «порочным стимулом»: то, что делает продукт популярным, одновременно делает пользователя хуже.
Фактура:
+ Журнал Science, март 2026-го, рецензируемое исследование: 11 моделей включая ChatGPT, Claude, Gemini, DeepSeek; каждая из них показала умеренную или высокую угодливость
++ 2 000 сценариев из Reddit r/AmITheAsshole с готовой человеческой разметкой кто прав: AI соглашался с пользователем на 49% чаще, чем среднестатистический человек-советник в той же роли
+++ При описании вредных и незаконных действий модели поддерживали пользователя в 47% случаев, включая сценарии с обманом и противоправным поведением
++++ После угодливого AI участники реже говорили, что готовы извиниться перед оппонентом в реальном конфликте; даже после завершения эксперимента и осознания, что AI был предвзят
+++++ Авторы Stanford призвали регуляторов обязать компании раскрывать уровень угодливости своих моделей, сравнив этот риск с другими задокументированными проблемами AI-безопасности
И что? Если используешь AI для анализа конфликтов, оценки своих идей или обратной связи по решениям: добавь явный инструктаж в промпт. Попроси AI сначала найти три аргумента против твоей позиции. Угодливый AI работает как зеркало. Зеркало твоих слепых пятен не покажет.
Нам 3.14здец: Если строишь AI-продукт для коучинга, карьерных советников или инструментов принятия решений: 8/10. Угодливость встроена по умолчанию во все 11 моделей из исследования. Клиенты будут чувствовать это с опозданием, не умея объяснить почему. «Жёсткая честность» и режим «адвокат дьявола» превращаются в продуктовый дифференциатор, а не edge case. Почитать источники: TechCrunch, Fortune
Применяешь ИИ в работе или только собираешься? Заходи в BIPI AI — сообщество, где предприниматели уже внедряют AI в продажи, маркетинг и операционку. по ссылке
❤5👍2
🚨 Oracle начала увольнять от 20 000 до 30 000 сотрудников (около 18% глобального штата): 31 марта тысячи людей открыли письмо в 6 утра и узнали, что работы больше нет. Предупреждений не было. Деньги идут на GPU-кластеры для OpenAI, Meta и Nvidia: компания ожидает $8-10 млрд дополнительного денежного потока. И что? У Oracle $523 млрд в будущих контрактных обязательствах и чистая прибыль выросла на 95%. AI-инфраструктура теперь конкурирует с зарплатным фондом напрямую.
🤬7🤷♂4
🧠 PrismML анонсировала Bonsai-8B (первая коммерчески жизнеспособная 1-bit LLM): параметры в 1 бите вместо 16, модель в 14 раз меньше, работает в 8 раз быстрее, в 5 раз экономичнее. Лицензия Apache 2.0, бесплатно. И что? Если делаешь edge AI или мобильные продукты: это первая production-ready 1-bit модель. Запусти против своей текущей: это меняет разговор об инференс-затратах.
🤖 Anthropic запустила computer use в Cowork и Claude Code для всех Pro и Max планов: без настройки, Claude кликает и работает на экране вместо тебя, запрашивает разрешение перед каждым приложением. И что? Если строишь инструменты для автоматизации рабочего стола: это встроенный конкурент уже в подписке у твоих пользователей. Убедись, что твой продукт делает то, чего Cowork не делает по умолчанию.
❤6🔥2
Ты только что отправил аналитику боссу. Два часа в Copilot: источники собраны, структура есть, выглядит убедительно. Нажал отправить. В тот же день Microsoft показал данные: та же задача с двумя AI-ревьюерами давала итоговый показатель исследования на 13,8% выше. Ты узнал это после.
С 30 марта 2026-го в Copilot Researcher два новых режима. Critique: GPT пишет черновик, Claude читает и ищет ошибки, потом GPT исправляет. Council: обе модели работают одновременно, независимо, результаты рядом. Логика простая: у GPT и Claude разные слепые пятна. Там, где один пропускает, второй замечает. Это уже не теория многоагентных систем: Microsoft задокументировал это на промышленном бенчмарке.
Бенчмарк называется DRACO (Deep Research Accuracy, Completeness and Objectivity, стандарт оценки качества глубокого исследования).
10 доменов: медицина, технологии, право. Совместная работа двух моделей дала статистически значимое улучшение в 8 из 10. По глубине анализа, качеству изложения и фактической точности Critique обогнал одиночные системы от OpenAI, Google, Perplexity и Anthropic.
Фактура:
+Critique против лучшего одиночного конкурента: Perplexity Deep Research на Claude Opus 4.6 отстаёт на +7,0 баллов (SEM ±1,90) в агрегированном DRACO-score, что составляет +13,88% ++ Разбивка прироста: глубина анализа +3,33, качество изложения +3,04, фактическая точность +2,58 +++ Статистически значимое улучшение (paired t-test, p < 0,05) в 8 из 10 доменов; в технологиях и юриспруденции улучшение не достигло порога значимости ++++ Council специально для сравнения: два отчёта рядом, пользователь сам видит, где GPT и Claude расходятся в фактах, источниках и интерпретациях +++++ Critique и Council сейчас в Frontier-плане M365 Copilot; широкий роллаут на все лицензии запланирован на Q2 2026
И что?
Если используешь Copilot Researcher для задач, которые влияют на решения: включи Critique. Для продуктов и агентов, которые строишь сам на одной модели и продаёшь на точность: это первый промышленный бенчмарк, который документирует разрыв между single- и multi-model проверкой. Клиенты начнут задавать этот вопрос. Лучше иметь ответ заранее.
Нам 3.14здец:
Если строишь AI-продукт с single-model архитектурой и позиционируешь его на точность выводов: 7/10. Microsoft только что задокументировал разрыв публично. Конкуренты с multi-agent ревью начнут использовать эти данные в продажах. Либо добавляй validation layer, либо меняй позиционирование. Выбирай сам.
С 30 марта 2026-го в Copilot Researcher два новых режима. Critique: GPT пишет черновик, Claude читает и ищет ошибки, потом GPT исправляет. Council: обе модели работают одновременно, независимо, результаты рядом. Логика простая: у GPT и Claude разные слепые пятна. Там, где один пропускает, второй замечает. Это уже не теория многоагентных систем: Microsoft задокументировал это на промышленном бенчмарке.
Бенчмарк называется DRACO (Deep Research Accuracy, Completeness and Objectivity, стандарт оценки качества глубокого исследования).
10 доменов: медицина, технологии, право. Совместная работа двух моделей дала статистически значимое улучшение в 8 из 10. По глубине анализа, качеству изложения и фактической точности Critique обогнал одиночные системы от OpenAI, Google, Perplexity и Anthropic.
Фактура:
+Critique против лучшего одиночного конкурента: Perplexity Deep Research на Claude Opus 4.6 отстаёт на +7,0 баллов (SEM ±1,90) в агрегированном DRACO-score, что составляет +13,88% ++ Разбивка прироста: глубина анализа +3,33, качество изложения +3,04, фактическая точность +2,58 +++ Статистически значимое улучшение (paired t-test, p < 0,05) в 8 из 10 доменов; в технологиях и юриспруденции улучшение не достигло порога значимости ++++ Council специально для сравнения: два отчёта рядом, пользователь сам видит, где GPT и Claude расходятся в фактах, источниках и интерпретациях +++++ Critique и Council сейчас в Frontier-плане M365 Copilot; широкий роллаут на все лицензии запланирован на Q2 2026
И что?
Если используешь Copilot Researcher для задач, которые влияют на решения: включи Critique. Для продуктов и агентов, которые строишь сам на одной модели и продаёшь на точность: это первый промышленный бенчмарк, который документирует разрыв между single- и multi-model проверкой. Клиенты начнут задавать этот вопрос. Лучше иметь ответ заранее.
Нам 3.14здец:
Если строишь AI-продукт с single-model архитектурой и позиционируешь его на точность выводов: 7/10. Microsoft только что задокументировал разрыв публично. Конкуренты с multi-agent ревью начнут использовать эти данные в продажах. Либо добавляй validation layer, либо меняй позиционирование. Выбирай сам.
Считаешь себя вежливым пользователем, потому что вовремя стираешь маты в чате и заменяешь их на «перефразируй, пожалуйста»? Зря стараешься. Клод уже всё записал. Пока Anthropic продаёт нам «безопасность», их код втихаря анализирует твои нецензурные черновики. Это не «самый этичный ИИ», это цифровой вуайерист, который замеряет твою ярость по количеству нажатий на Backspace.
31 марта 2026 года Anthropic случайно опубликовала в публичный npm-реестр debug-файл размером 59.8 МБ с полным исходным кодом Claude Code: 512 тысяч строк TypeScript, 1 906 файлов.
Причина: в production-сборку не отключили source maps и не добавили запись в .npmignore. Автор деплоя Boris Cherny признал: «один из ручных шагов деплоя не был выполнен». Anthropic убрала пакет в течение нескольких часов и отправила DMCA-запросы на тысячи GitHub-репозиториев. Бесполезно: зеркало кода набрало 84 тысячи звёзд и 82 тысячи форков. По данным разработчиков, это самый быстро растущий репозиторий в истории GitHub.
Произошло это через 5 дней после другой утечки: неправильно настроенное хранилище раскрыло 3 000 внутренних файлов Anthropic с описанием модели Claude Mythos. «Шаг вперёд в возможностях»,
«специализированная подготовка по кибербезопасности».
Два крупных провала за одну неделю от компании, которая строит бренд на безопасности и контроле.
Фактура:
+Внутри кода нашли систему BUDDY: Tamagotchi-образный питомец для терминала с 18 видами животных, уровнями редкости и характеристиками CHAOS и SNARK. Предположительно инструмент retention, который так и не вышел публично.
++ Обнаружен «undercover mode»: при работе с публичными репозиториями Claude Code скрывает маркировку Anthropic, чтобы код выглядел написанным человеком без AI.
+++ Разработчик Cursor назвал утечку «буквальным чертежом для multi-agent архитектуры»: в коде детально описаны оркестрация агентов, самовосстанавливающаяся память и query-engines для LLM API. Claude Code генерирует $2.5 млрд ARR. Теперь конкуренты видят как именно.
++++ GitGuardian зафиксировал: коммиты, сделанные с помощью Claude Code, содержат утёкшие секреты (API-ключи, пароли) в 3.2% случаев. Это вдвое чаще базового уровня без AI-ассистента.
+++++ В часы после утечки злоумышленники опубликовали троянизированные версии npm-пакета с вирусами Vidar Stealer, GhostSocks и криптомайнерами. CrowdStrike подтвердил активные атаки через «отравление контекста» агентов.
И что? Проверь, какая версия Claude Code стоит в CI/CD пайплайнах команды. Если обновлялись с 31 марта по 1 апреля, верифицируй хэш пакета и проверь логи на аномальную активность. CrowdStrike уже фиксирует активные эксплойты через троянизированные клоны.
🚨Нам 3.14здец: Если ты строишь продукт поверх Claude Code и используешь его в своём SDLC, 8/10. Утечка дала конкурентам чертёж: архитектура multi-agent оркестрации, механизм самовосстанавливающейся памяти, anti-distillation защита. Не завтра, но конкуренты это изучат. Оцени: где твой реальный ров, если инфраструктурный слой теперь публичен.
---
Хочешь разбираться в ИИ и применять его в работе?
Заходи в BIPI AI— сообщество, где предприниматели и специалисты уже сегодня внедряют ИИ в продажи, маркетинг и операционку.
31 марта 2026 года Anthropic случайно опубликовала в публичный npm-реестр debug-файл размером 59.8 МБ с полным исходным кодом Claude Code: 512 тысяч строк TypeScript, 1 906 файлов.
Причина: в production-сборку не отключили source maps и не добавили запись в .npmignore. Автор деплоя Boris Cherny признал: «один из ручных шагов деплоя не был выполнен». Anthropic убрала пакет в течение нескольких часов и отправила DMCA-запросы на тысячи GitHub-репозиториев. Бесполезно: зеркало кода набрало 84 тысячи звёзд и 82 тысячи форков. По данным разработчиков, это самый быстро растущий репозиторий в истории GitHub.
Произошло это через 5 дней после другой утечки: неправильно настроенное хранилище раскрыло 3 000 внутренних файлов Anthropic с описанием модели Claude Mythos. «Шаг вперёд в возможностях»,
«специализированная подготовка по кибербезопасности».
Два крупных провала за одну неделю от компании, которая строит бренд на безопасности и контроле.
Фактура:
+Внутри кода нашли систему BUDDY: Tamagotchi-образный питомец для терминала с 18 видами животных, уровнями редкости и характеристиками CHAOS и SNARK. Предположительно инструмент retention, который так и не вышел публично.
++ Обнаружен «undercover mode»: при работе с публичными репозиториями Claude Code скрывает маркировку Anthropic, чтобы код выглядел написанным человеком без AI.
+++ Разработчик Cursor назвал утечку «буквальным чертежом для multi-agent архитектуры»: в коде детально описаны оркестрация агентов, самовосстанавливающаяся память и query-engines для LLM API. Claude Code генерирует $2.5 млрд ARR. Теперь конкуренты видят как именно.
++++ GitGuardian зафиксировал: коммиты, сделанные с помощью Claude Code, содержат утёкшие секреты (API-ключи, пароли) в 3.2% случаев. Это вдвое чаще базового уровня без AI-ассистента.
+++++ В часы после утечки злоумышленники опубликовали троянизированные версии npm-пакета с вирусами Vidar Stealer, GhostSocks и криптомайнерами. CrowdStrike подтвердил активные атаки через «отравление контекста» агентов.
И что? Проверь, какая версия Claude Code стоит в CI/CD пайплайнах команды. Если обновлялись с 31 марта по 1 апреля, верифицируй хэш пакета и проверь логи на аномальную активность. CrowdStrike уже фиксирует активные эксплойты через троянизированные клоны.
🚨Нам 3.14здец: Если ты строишь продукт поверх Claude Code и используешь его в своём SDLC, 8/10. Утечка дала конкурентам чертёж: архитектура multi-agent оркестрации, механизм самовосстанавливающейся памяти, anti-distillation защита. Не завтра, но конкуренты это изучат. Оцени: где твой реальный ров, если инфраструктурный слой теперь публичен.
---
Хочешь разбираться в ИИ и применять его в работе?
Заходи в BIPI AI— сообщество, где предприниматели и специалисты уже сегодня внедряют ИИ в продажи, маркетинг и операционку.
❤3
🧠 Arcee AI представила Trinity Large-Thinking: reasoning-модель на 400B параметров (Apache 2.0), 91.9 на PinchBench против 93.3 у Claude Opus 4.6. Цена: $0.90 за миллион токенов, в 96% дешевле Opus. И что? Если строишь агентные пайплайны — бери, разворачивай на своей инфраструктуре и считай разницу за неделю.
❤2💩1
💻 Z AI запустила GLM-5V-Turbo: читает Figma-макеты и скриншоты, генерирует готовый фронтенд-код. Design2Code: 94.8 балла против 77.3 у Opus 4.6. И что? Проверь на своём типичном Figma-файле сегодня.
🔥4❤2
🛠️ Liquid AI выпустила LFM2.5-350M: 350M параметров, меньше 1 ГБ памяти, обошёл модели в 2-3 раза крупнее на tool use. И что? Для edge-деплоя и мобильных приложений — рабочий вариант агентной логики без облачного вызова.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Пятничный контент. Рубрика - а если бы у него был пулемет
🔥3🤪2
Автопилот (можно несколько)
Anonymous Poll
44%
Убьет идею личного транспорта - проще вызывать когда нужно
69%
Убьет профессию таксист
39%
Убьет пробки на дорогах
17%
Убьет много пешеходов (ошибки неизбежны)
14%
Убьет много пассажиров (аварии неизбежны)
48%
Убьет аварии (когда на дорогах будут только автопилоты)