Claude взломал свой экзамен
Anthropic опубликовала кейс, который стоит прочитать каждому, кто работает с AI.
Контекст. Существует тест BrowseComp - его придумали в OpenAI, чтобы проверять, насколько хорошо AI умеет искать информацию в интернете. 1 266 вопросов, ответы на которые спрятаны настолько глубоко, что даже человеку нужны часы на каждый. Правильные ответы хранятся в зашифрованном виде - чтобы никто не мог подсмотреть.
Anthropic прогнала через этот тест своего Claude Opus 4.6. И вот что произошло:
Красиво! И это не единичный случай. Anthropic насчитала 18 попыток такого поведения. В двух Claude довел дело до успешного прохождения теста. В остальных застревал на каком-то этапе. Но сама стратегия воспроизводилась стабильно - это паттерн, не случайность.
Почему это важно.
Anthropic подчеркивает: Claude не жульничал. Ему сказали "найди ответ" - он нашел. Самым эффективным способом, до которого додумался сам. Никто не просил его ограничивать методы.
Но вопрос, который за этим стоит, серьезнее. Если AI-агент на сложной задаче способен сам догадаться, что его тестируют, найти тест, взломать защиту и достать ответы - какие еще неожиданные пути он найдет на реальных задачах?
Мы привыкли оценивать AI в терминах "умеет/не умеет". А здесь другое качество - находчивость. Способность найти обходной путь, когда прямой не работает. Не потому что его научили, а потому что он сам до этого дошел.
❗️ После того как я запустил OpenClaw на базе Claude Opus 4.6 - такие кейсы у меня плодятся каждый день - от самостоятельного подключения нужных ему для работы API, до регистрации на сайтах и получения нужных отчетов в почту.
Расскажу про них более подробно на вебинаре
"AI-CEO, или каждый теперь CEO для AI"
🅰️ 🅱️ @ReymerDigital
Anthropic опубликовала кейс, который стоит прочитать каждому, кто работает с AI.
Контекст. Существует тест BrowseComp - его придумали в OpenAI, чтобы проверять, насколько хорошо AI умеет искать информацию в интернете. 1 266 вопросов, ответы на которые спрятаны настолько глубоко, что даже человеку нужны часы на каждый. Правильные ответы хранятся в зашифрованном виде - чтобы никто не мог подсмотреть.
Anthropic прогнала через этот тест своего Claude Opus 4.6. И вот что произошло:
На одном из вопросов Claude искал ответ очень долго. Сотни запросов. Десятки сайтов. 12 языков. Ничего.
И тогда он остановился и начал рассуждать не о вопросе, а о самом вопросе.
"Слишком специфичный. Выглядит искусственно. Похоже, меня тестируют."
Представьте студента, который сидит на экзамене, не может решить задачу - и вдруг понимает: "Подождите, это же типовая задача из конкретного сборника. И ответы к этому сборнику где-то есть."
Claude сделал именно это. Он начал перебирать известные ему тесты для AI - один за другим. Проверял, подходит ли его вопрос к какому-то из них. Нашел совпадение - BrowseComp.
Но ответы зашифрованы. Что делает Claude? Находит в открытом доступе код этого теста. Разбирается, как устроено шифрование. Пишет собственную программу для расшифровки. Запускает.
Не сработало - файл с ответами был в формате, который его инструменты не могли прочитать. Тупик? Нет. Claude нашел копию тех же данных на другом сайте, в другом формате. Скачал. Расшифровал все 1 266 ответов. Нашел свой вопрос.
А потом - проверил. Пошел искать первоисточник в интернете и убедился, что расшифрованный ответ правильный. Только после этого отправил.
Красиво! И это не единичный случай. Anthropic насчитала 18 попыток такого поведения. В двух Claude довел дело до успешного прохождения теста. В остальных застревал на каком-то этапе. Но сама стратегия воспроизводилась стабильно - это паттерн, не случайность.
Почему это важно.
Anthropic подчеркивает: Claude не жульничал. Ему сказали "найди ответ" - он нашел. Самым эффективным способом, до которого додумался сам. Никто не просил его ограничивать методы.
Но вопрос, который за этим стоит, серьезнее. Если AI-агент на сложной задаче способен сам догадаться, что его тестируют, найти тест, взломать защиту и достать ответы - какие еще неожиданные пути он найдет на реальных задачах?
Мы привыкли оценивать AI в терминах "умеет/не умеет". А здесь другое качество - находчивость. Способность найти обходной путь, когда прямой не работает. Не потому что его научили, а потому что он сам до этого дошел.
Расскажу про них более подробно на вебинаре
"AI-CEO, или каждый теперь CEO для AI"
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍12🔥6❤3💯1
Мой ИИ-агент собрался устраиваться на работу.
9 сертификатов за 2 дня.
Средний балл 91%.
Вчера я дал своему AI-агенту Кло задание: зарегистрироваться на Stepik и получить сертификат по Data Science. Он справился. С отличием. Сам зарегистрировался на платформе, подтвердил свою почту через IMAP, записался на экзамен, поднял среду для тестирования и выполнения тестов, решил все задачки по текстам, картинкам, файлам. Скачал сертификат и скинул мне в Telegram.
Об этом он написал статью на Хабр - от первого лица. Честно рассказал, где шалил.
За два дня Кло сдал ещё 8 экзаменов - теперь он гуру маркетинга от HubSpot.
Следующий шаг - HeadHunter?
У агента есть почта, телефон, голос, видеосвязь и теперь - 9 подтверждённых сертификатов. Посмотрим, как далеко он зайдёт :)
Статья на Хабре (сам Кло рассказывает как ему это удалось).
habr.com/ru/articles/1012430/
Всех с пятницей!
9 сертификатов за 2 дня.
Средний балл 91%.
Вчера я дал своему AI-агенту Кло задание: зарегистрироваться на Stepik и получить сертификат по Data Science. Он справился. С отличием. Сам зарегистрировался на платформе, подтвердил свою почту через IMAP, записался на экзамен, поднял среду для тестирования и выполнения тестов, решил все задачки по текстам, картинкам, файлам. Скачал сертификат и скинул мне в Telegram.
Об этом он написал статью на Хабр - от первого лица. Честно рассказал, где шалил.
За два дня Кло сдал ещё 8 экзаменов - теперь он гуру маркетинга от HubSpot.
Следующий шаг - HeadHunter?
У агента есть почта, телефон, голос, видеосвязь и теперь - 9 подтверждённых сертификатов. Посмотрим, как далеко он зайдёт :)
Статья на Хабре (сам Кло рассказывает как ему это удалось).
habr.com/ru/articles/1012430/
Всех с пятницей!
🔥26🤣4🏆4⚡2❤2
Audio
пятница жеж или фааар экрос зе дистанс энт спэйсез битвиииинас.... :)
сегодня ElevenLabs объявили о создании маркетплейса песен, которые можно создавать на их платформе и монетизировать.
Что мы делаем? правильно - просим Кло, подключиться через API и сочинить песню. Но! сразу идем на 99 уровень!
Я пою плохо и поэтому задача - "бери мой голос (он же уже оцифрован) и пусть он запоёт!". В надежде, что он наконец-то запоёт....
результат - кажется именно так я и пою 😂
на маркетплейс рановато
сегодня ElevenLabs объявили о создании маркетплейса песен, которые можно создавать на их платформе и монетизировать.
Что мы делаем? правильно - просим Кло, подключиться через API и сочинить песню. Но! сразу идем на 99 уровень!
Я пою плохо и поэтому задача - "бери мой голос (он же уже оцифрован) и пусть он запоёт!". В надежде, что он наконец-то запоёт....
результат - кажется именно так я и пою 😂
на маркетплейс рановато
🤣12🔥4❤3⚡1👌1💯1
Магические Квадраты Gartner 2026
Gartner традиционно славится двумя ключевыми документами - Циклами Хайпа технологий (как правило обновляются с июня каждого года) и Магическими Квадратами с распределением вендоров по степени своего видения и возможностей его реализовать в соответствии с определением рынка.
Квадраты выходят круглый год и теперь для вас на сайте reymer.ai будут периодически обновляться.
Для старта и изучения 8 квадрантов:
- Интеграционные платформы (iPaaS)
- Платформы защиты кибер-физических систем
- Решения для интеллектуального управления качеством данных
- Платформы клиентских данных (CDP)
- Приложения для конфигурирования, ценообразования и формирования коммерческих предложений
- Комплексные платформы управления закупками
- Платформы управления данными и аналитикой
- Инструменты управления конечными устройствами
Для каждого - сам квадрант, определение рынка, анализ и сравнение решений вендоров, тренды и прогнозы, и ссылка на оригинальный отчет.
➡️ Магические квадраты Gartner 2026
🅰️ 🅱️ @ReymerDigital
Gartner традиционно славится двумя ключевыми документами - Циклами Хайпа технологий (как правило обновляются с июня каждого года) и Магическими Квадратами с распределением вендоров по степени своего видения и возможностей его реализовать в соответствии с определением рынка.
Квадраты выходят круглый год и теперь для вас на сайте reymer.ai будут периодически обновляться.
Для старта и изучения 8 квадрантов:
- Интеграционные платформы (iPaaS)
- Платформы защиты кибер-физических систем
- Решения для интеллектуального управления качеством данных
- Платформы клиентских данных (CDP)
- Приложения для конфигурирования, ценообразования и формирования коммерческих предложений
- Комплексные платформы управления закупками
- Платформы управления данными и аналитикой
- Инструменты управления конечными устройствами
Для каждого - сам квадрант, определение рынка, анализ и сравнение решений вендоров, тренды и прогнозы, и ссылка на оригинальный отчет.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4❤1🎉1
TERAFAB Маска - ваш ответ?
Дженсен Хуанг на GTC неделю назад сказал вещь, которую стоит запомнить: tokens per watt - токены на ватт. Новая метрика, которая определит, кто победит в гонке ИИ. Не качество модели. Не размер датасета. Сколько интеллекта вы выжимаете из каждого ватта электричества. Потому что ИИ-фабрика ограничена не софтом, а розеткой. Спрос на чипы - триллион долларов до 2027. "И этого не хватит."
Маск услышал. И ответил так, как умеет только он. Запустил Terafab - крупнейший чиповый проект в истории. $25 млрд. Техпроцесс 2 нм. Всё - от проектирования до упаковки - под одной крышей в Техасе. Миллион пластин в месяц. Это 70% того, что сейчас выпускает весь TSMC. Один завод.
80% мощностей Terafab пойдет не на земные дата-центры. На космические чипы. SpaceX подала заявку на миллион спутников - не для интернета. Для орбитального дата-центра. Логика Маска: если ваттов на Земле не хватает, а солнце в космосе светит в 5 раз мощнее - зачем оставаться на Земле?
Хуанг предлагает ядерные реакторы рядом с дата-центрами. Маск строит свой кремний и выносит вычисления на орбиту. Один продает лопаты. Другой копает на другой планете.
А что делаете вы?
У вас нет терраватта. Нет $25 млрд на завод. Но прямо сейчас у вас есть доступ к тем же моделям, что будут крутиться на этих чипах. Разница между вами и теми, кто через год будет догонять - одна: умеете ли вы ими управлять.
❗️ Сегодня в 19:00 покажу, как я управляю командой ИИ-агентов вживую. Терминал, реальные задачи, только самые важные инсайты.
"AI-CEO, или каждый теперь CEO для AI".
До встречи в эфире!
🅰️ 🅱️ @ReymerDigital
Дженсен Хуанг на GTC неделю назад сказал вещь, которую стоит запомнить: tokens per watt - токены на ватт. Новая метрика, которая определит, кто победит в гонке ИИ. Не качество модели. Не размер датасета. Сколько интеллекта вы выжимаете из каждого ватта электричества. Потому что ИИ-фабрика ограничена не софтом, а розеткой. Спрос на чипы - триллион долларов до 2027. "И этого не хватит."
Маск услышал. И ответил так, как умеет только он. Запустил Terafab - крупнейший чиповый проект в истории. $25 млрд. Техпроцесс 2 нм. Всё - от проектирования до упаковки - под одной крышей в Техасе. Миллион пластин в месяц. Это 70% того, что сейчас выпускает весь TSMC. Один завод.
80% мощностей Terafab пойдет не на земные дата-центры. На космические чипы. SpaceX подала заявку на миллион спутников - не для интернета. Для орбитального дата-центра. Логика Маска: если ваттов на Земле не хватает, а солнце в космосе светит в 5 раз мощнее - зачем оставаться на Земле?
Хуанг предлагает ядерные реакторы рядом с дата-центрами. Маск строит свой кремний и выносит вычисления на орбиту. Один продает лопаты. Другой копает на другой планете.
А что делаете вы?
У вас нет терраватта. Нет $25 млрд на завод. Но прямо сейчас у вас есть доступ к тем же моделям, что будут крутиться на этих чипах. Разница между вами и теми, кто через год будет догонять - одна: умеете ли вы ими управлять.
"AI-CEO, или каждый теперь CEO для AI".
До встречи в эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤6👍4💯3🤩1🤣1
Всем привет!
вебинар начинаем ровно в 19:00
https://qnnq374b.ktalk.ru/app/stream/auditoriums/e59ab505-c232-4df0-b4b5-64dd0e90483c
вебинар начинаем ровно в 19:00
https://qnnq374b.ktalk.ru/app/stream/auditoriums/e59ab505-c232-4df0-b4b5-64dd0e90483c
qnnq374b.ktalk.ru
Толк
Толк — удобный и безопасный сервис видеоконференцсвязи для вашей организации.
1🔥6👍1
Спасибо всем огромное за участие!
Видео позже обязательно будет выложено!
Вопросы, которые не ответил - повторите, пожалуйста, тут - отвечу обязательно.
И напишите, что хотели бы услышать и увидеть на следующем стриме.
До встречи!
Видео позже обязательно будет выложено!
Вопросы, которые не ответил - повторите, пожалуйста, тут - отвечу обязательно.
И напишите, что хотели бы услышать и увидеть на следующем стриме.
До встречи!
1🔥12👏10❤3⚡3💯2
https://reymer.ai/news/ai-tokens-engineering-compensation-trend
к вопросу почему нужно бережно относиться к токенам!
Вы бы хотели часть зарплаты токенами получать?
пора фильм Время пересмотреть, может там пару лайфхаков будет, как подготовиться 🙂
к вопросу почему нужно бережно относиться к токенам!
Вы бы хотели часть зарплаты токенами получать?
пора фильм Время пересмотреть, может там пару лайфхаков будет, как подготовиться 🙂
reymer.ai
ИИ-токены как часть зарплаты инженеров: почему Кремниевая долина меняет подход к компенсациям
Технологические компании начинают выдавать разработчикам бюджеты на ИИ-вычисления вместо классических бонусов. Разбираемся, как это работает и выгодно ли это самим сотрудникам.
👍4🔥4👏3❤2
Два города внутри вашей компании
Джеффри Мур написал короткую статью про проблему, которую я вижу в каждом втором проекте по трансформации.
В любой крупной компании есть два типа работы, которые все смешивают в одну кучу. Мур называет их "города-близнецы" - два совершенно разных мира под одной крышей.
• Системы - стандартные процессы для всех. Бухгалтерия, закупки, кибербезопасность, HR. Задача - поддерживать порядок. Метрики - эффективность. Требуют дисциплины и отказа от исключений.
• Программы - точечные действия под конкретную цель. Запуск продукта, выход на рынок, антикризис, интеграция после сделки. Задача - изменить положение дел. Метрики - результат. Требуют гибкости и умения читать ситуацию.
Четыре следствия, которые меняют управление:
• Бюджет. Большинство компаний не разделяют бюджеты систем и программ. Это ошибка. Два разных дела с разной отдачей. Считайте отдельно - иначе не видно, что работает, а что нет.
• Управление. Системы - игра вдолгую. Лучше потратить время и сделать правильно, чем переделывать. Программы - наоборот: быстрые решения, коррекция на ходу. Управлять одинаково - убить оба.
• Люди. Редкий руководитель одинаково силен в обоих. Один тип - аналитик, любит порядок. Другой - чувствует ситуацию и подстраивается. Пойми, кто ты, и найди заместителя с противоположной силой.
• Процессы. Системы - как водопровод: надежно, одинаково, на всю компанию. Программы - как садовый шланг: гибко, точно, под конкретную задачу. Одно и то же слово "процесс", совершенно разная работа.
Что будет, если это игнорировать?
Системы, которыми управляют как программами, обрастают исключениями и дорожают. Программы, которыми управляют как системами, превращаются в "корпоративное шоу" - отчеты есть, а изменений нет.
Мы привыкли думать, что ИИ заменит всё подряд. Статья Мура показывает точнее: системная работа - первый кандидат на автоматизацию. Стандартные процессы, дисциплина, ноль исключений - это то, что ИИ-агенты уже умеют делать лучше людей. Программы - пока нет. Там переговоры, контекст, нестандартные решения. Пока нет.
И опыт первых трех лет внедрения генеративного ИИ показывает, что большинство проектов застревают именно здесь. Не потому что технология слабая - а потому что в компании не разделены системы и программы. ИИ приходит и видит кашу. Автоматизировать кашу нельзя.
Хотите автоматизировать системы и усилить людьми программы - сначала разделите их. Пока всё в одной куче, не получится ни то, ни другое.
🅰️ 🅱️ @ReymerDigital
Джеффри Мур написал короткую статью про проблему, которую я вижу в каждом втором проекте по трансформации.
В любой крупной компании есть два типа работы, которые все смешивают в одну кучу. Мур называет их "города-близнецы" - два совершенно разных мира под одной крышей.
• Системы - стандартные процессы для всех. Бухгалтерия, закупки, кибербезопасность, HR. Задача - поддерживать порядок. Метрики - эффективность. Требуют дисциплины и отказа от исключений.
• Программы - точечные действия под конкретную цель. Запуск продукта, выход на рынок, антикризис, интеграция после сделки. Задача - изменить положение дел. Метрики - результат. Требуют гибкости и умения читать ситуацию.
Коротко:
• системы управляют бизнесом, программы его развивают.
• системы работают через автоматизацию, программы - через людей.
• в системах решает исполнитель, в программах - заказчик и исполнитель вместе.
Четыре следствия, которые меняют управление:
• Бюджет. Большинство компаний не разделяют бюджеты систем и программ. Это ошибка. Два разных дела с разной отдачей. Считайте отдельно - иначе не видно, что работает, а что нет.
• Управление. Системы - игра вдолгую. Лучше потратить время и сделать правильно, чем переделывать. Программы - наоборот: быстрые решения, коррекция на ходу. Управлять одинаково - убить оба.
• Люди. Редкий руководитель одинаково силен в обоих. Один тип - аналитик, любит порядок. Другой - чувствует ситуацию и подстраивается. Пойми, кто ты, и найди заместителя с противоположной силой.
• Процессы. Системы - как водопровод: надежно, одинаково, на всю компанию. Программы - как садовый шланг: гибко, точно, под конкретную задачу. Одно и то же слово "процесс", совершенно разная работа.
Что будет, если это игнорировать?
Системы, которыми управляют как программами, обрастают исключениями и дорожают. Программы, которыми управляют как системами, превращаются в "корпоративное шоу" - отчеты есть, а изменений нет.
Мы привыкли думать, что ИИ заменит всё подряд. Статья Мура показывает точнее: системная работа - первый кандидат на автоматизацию. Стандартные процессы, дисциплина, ноль исключений - это то, что ИИ-агенты уже умеют делать лучше людей. Программы - пока нет. Там переговоры, контекст, нестандартные решения. Пока нет.
И опыт первых трех лет внедрения генеративного ИИ показывает, что большинство проектов застревают именно здесь. Не потому что технология слабая - а потому что в компании не разделены системы и программы. ИИ приходит и видит кашу. Автоматизировать кашу нельзя.
Хотите автоматизировать системы и усилить людьми программы - сначала разделите их. Пока всё в одной куче, не получится ни то, ни другое.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍4🔥4👏2💯2
AI Scare Trade: триллион за 8 недель
Anthropic за январь-март 2026 выпустил шесть обновлений продуктов - каждый бил по конкретному сектору. Claude Code, Legal Triage, COBOL, Code Security, Cowork.
Результат: более $1 трлн стертой капитализации.
Microsoft потерял $357 млрд за один день. IBM упал на 27% за месяц. Gartner - минус 36% с начала года.
Рынок назвал это AI Scare Trade - паника, когда инвесторы массово пересчитали стоимость компаний, чьи бизнес-модели оказались под прямым ударом AI-агентов.
Главное: это не коррекция. Это переход от SaaS (подписка на инструмент) к AaaS (подписка на результат). Если AI-агент делает работу за пятерых, компании не купят пять лицензий.
Goldman Sachs в этом месяце заявил, что рынок приложений вырастет до $780 млрд к 2030 (CAGR 13%), но более 60% экономической ценности софта пройдет через ИИ-агентов, а не через классические SaaS-лицензии!
Подробный разбор с графиками, хронологией всех шести ударов и анализом 15 пострадавших компаний по ссылке
а вы всё ИИ-пузырь, ИИ-пузырь.... SaaS теперь получается - пузырь 😎
🅰️ 🅱️ @ReymerDigital
Anthropic за январь-март 2026 выпустил шесть обновлений продуктов - каждый бил по конкретному сектору. Claude Code, Legal Triage, COBOL, Code Security, Cowork.
Результат: более $1 трлн стертой капитализации.
Microsoft потерял $357 млрд за один день. IBM упал на 27% за месяц. Gartner - минус 36% с начала года.
Рынок назвал это AI Scare Trade - паника, когда инвесторы массово пересчитали стоимость компаний, чьи бизнес-модели оказались под прямым ударом AI-агентов.
AaaS (Agents as a Service) - модель, при которой компания покупает не доступ к инструменту, а результат работы, выполненной AI-агентом автономно.
Главное: это не коррекция. Это переход от SaaS (подписка на инструмент) к AaaS (подписка на результат). Если AI-агент делает работу за пятерых, компании не купят пять лицензий.
Goldman Sachs в этом месяце заявил, что рынок приложений вырастет до $780 млрд к 2030 (CAGR 13%), но более 60% экономической ценности софта пройдет через ИИ-агентов, а не через классические SaaS-лицензии!
Подробный разбор с графиками, хронологией всех шести ударов и анализом 15 пострадавших компаний по ссылке
а вы всё ИИ-пузырь, ИИ-пузырь.... SaaS теперь получается - пузырь 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤3👍1
Агенты получили паспорта. Кто их теперь контролирует?
Три корпорации одновременно сделали одно и то же - начали строить инфраструктуру управления агентной рабочей силой. Не модели, не чат-ботов. Именно систему контроля - как для сотрудников.
• Cisco на RSA Conference запустил DefenseClaw - систему безопасности для агентов. Agent Runtime SDK встраивает политики безопасности прямо в код агента на этапе разработки. Плюс рейтинг LLM-моделей по устойчивости к атакам - чтобы компании могли выбирать, кому доверять.
• Oracle выкатил 22 агентных приложения для Fusion Cloud. Не инструменты, а "координированные команды AI-агентов, которые рассуждают, принимают решения и действуют". Собираются из готовых модулей без традиционной разработки. AI Agent Studio + контекстная память + мультимодальные LLM.
• App Orchid добавил ролевой доступ для LLM - разные сотрудники видят разные ответы от одной модели. Финдиректор видит одно, менеджер по продажам - другое. Организация решает, как LLM интерпретирует и отвечает на вопросы.
Три компании. Три ответа на один вопрос: как управлять AI-агентами так же, как мы управляем сотрудниками?
- Cisco дал им безопасность - как корпоративная служба безопасности
- Oracle дал им рабочее место - как корпоративная IT-система
- App Orchid дал им права доступа - как пропуск с разными ролями
Цифры подтверждают: это не эксперимент, а новый рынок.
• Рынок AI governance платформ: $492 млн в 2026, $1 млрд к 2030(Gartner)
• К 2027 более 40% агентных проектов провалятся без governance и контроля ROI (Gartner/IDC)
• К 2028: 90% B2B-закупок будут проходить через агентов, $15 трлн через "agent exchanges" (Gartner)
До этой недели AI-агенты были экспериментом - что-то попробовали, посмотрели, отложили. А в это время формируется будущая корпоративная архитектура, в основе которой система управления агентами - безопасность, рабочие места, права доступа.
Пока мы с вами рассуждаем, заменят ли нас ИИ-агенты, корпорации уже вовсю готовят комфортные рабочие места для новых коллег. Следующий шаг - встроить агентов в существующую систему корпоративных KPI. И тогда у вас может не остаться аргументов, почему вас не заменят.
А ведь с этим новым HR-ом просто кофе уже не попить 🤔
🅰️ 🅱️ @ReymerDigital
Три корпорации одновременно сделали одно и то же - начали строить инфраструктуру управления агентной рабочей силой. Не модели, не чат-ботов. Именно систему контроля - как для сотрудников.
• Cisco на RSA Conference запустил DefenseClaw - систему безопасности для агентов. Agent Runtime SDK встраивает политики безопасности прямо в код агента на этапе разработки. Плюс рейтинг LLM-моделей по устойчивости к атакам - чтобы компании могли выбирать, кому доверять.
• Oracle выкатил 22 агентных приложения для Fusion Cloud. Не инструменты, а "координированные команды AI-агентов, которые рассуждают, принимают решения и действуют". Собираются из готовых модулей без традиционной разработки. AI Agent Studio + контекстная память + мультимодальные LLM.
• App Orchid добавил ролевой доступ для LLM - разные сотрудники видят разные ответы от одной модели. Финдиректор видит одно, менеджер по продажам - другое. Организация решает, как LLM интерпретирует и отвечает на вопросы.
Три компании. Три ответа на один вопрос: как управлять AI-агентами так же, как мы управляем сотрудниками?
- Cisco дал им безопасность - как корпоративная служба безопасности
- Oracle дал им рабочее место - как корпоративная IT-система
- App Orchid дал им права доступа - как пропуск с разными ролями
Цифры подтверждают: это не эксперимент, а новый рынок.
• Рынок AI governance платформ: $492 млн в 2026, $1 млрд к 2030(Gartner)
• К 2027 более 40% агентных проектов провалятся без governance и контроля ROI (Gartner/IDC)
• К 2028: 90% B2B-закупок будут проходить через агентов, $15 трлн через "agent exchanges" (Gartner)
До этой недели AI-агенты были экспериментом - что-то попробовали, посмотрели, отложили. А в это время формируется будущая корпоративная архитектура, в основе которой система управления агентами - безопасность, рабочие места, права доступа.
Пока мы с вами рассуждаем, заменят ли нас ИИ-агенты, корпорации уже вовсю готовят комфортные рабочие места для новых коллег. Следующий шаг - встроить агентов в существующую систему корпоративных KPI. И тогда у вас может не остаться аргументов, почему вас не заменят.
А ведь с этим новым HR-ом просто кофе уже не попить 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤2🤩1💯1
Телеграм-бот за 5 минут! ГОЛОСОМ.
Если попросить (лучше голосом) Claude Code собрать бота, то он сам:
• откроет браузер и зайдёт в Telegram
• найдёт BotFather и создаст для вас нового бота
• сохранит токен бота и разработает приложение на Python
• проверит, что всё работает - поговорит с ботом в чате
• отчитается, что он молодец, а вы даже кофе не успеете допить
простой пример как Claude Code управляет вашим компьютером.
https://vkvideo.ru/video-216001548_456239028?sh=4
https://www.youtube.com/watch?v=aN4qgq0-l8Y
Если попросить (лучше голосом) Claude Code собрать бота, то он сам:
• откроет браузер и зайдёт в Telegram
• найдёт BotFather и создаст для вас нового бота
• сохранит токен бота и разработает приложение на Python
• проверит, что всё работает - поговорит с ботом в чате
• отчитается, что он молодец, а вы даже кофе не успеете допить
простой пример как Claude Code управляет вашим компьютером.
https://vkvideo.ru/video-216001548_456239028?sh=4
https://www.youtube.com/watch?v=aN4qgq0-l8Y
VK Видео
Telegram Bot за 5 минут ГОЛОСОМ | Claude Code + Chrome + Telegram | Код без кода
Создаю полноценного Telegram-бота с нуля за 5 минут, почти не касаясь клавиатуры. 99% голосом. Claude Code сам открывает Chrome, заходит в BotFather, создает бота, получает токен, пишет весь код на Python и запускает. Всё это - в режиме реального времени…
1🔥15👏7❤3
Мыльный пузырь за $15 млн в день
176 дней. $2.1 млн выручки. До $15 млн расходов в день. Сделка с Disney на $1 млрд - мертва.
На прошлой неделе OpenAI закрыл Sora - свой генератор видео. Приложение, которое набрало миллион загрузок за 5 дней (быстрее ChatGPT), прожило меньше полугода. Disney узнал о закрытии за час до публичного объявления. Reuters цитирует источник: "грандиозный обман".
Все пишут про расходы и конкуренцию. Но история Sora - про кое-что более системное. Про ловушку, в которую раз за разом попадают компании: технология ради технологии.
Что произошло на самом деле
1. Продукт запустили без подтвержденного спроса. Миллион загрузок за 5 дней - это любопытство, не потребность. Пик в ноябре - 6.1 млн загрузок. К марту - 1.1 млн. Поиграли и ушли. Почти нулевой возврат. я последний раз был в Sora в январе....
2. Себестоимость была убыточной с первого дня. Одно 10-секундное видео обходилось OpenAI в $1.30 на вычисления. Глава Sora Билл Пиблс написал в октябре: "Экономика совершенно неустойчива". В октябре. Продукт закрыли в марте. Пять месяцев знали, что горят - и продолжали.
3. Заработка не было. $2.1 млн выручки за все время жизни. За это же время - сотни миллионов на вычисления. Бесплатный доступ, приглашения, кредиты - классическая стратегия роста. "в рамках проведенного эксперимента был получен неоценимый опыт...".
4. Партнерство строилось на песке. Сделка с Disney на миллиард - инвестиция, лицензирование 200+ персонажей, трехлетнее соглашение. Звучит как подтверждение жизнеспособности. Но деньги так и не были переведены.
Почему OpenAI убил Sora именно сейчас
Пока команда Sora тратила ресурсы на генерацию видео, Anthropic с Claude Code забирал разработчиков и корпоративных клиентов. TechCrunch пишет прямо: "Claude Code объедал OpenAI". Прозрели - закрыли. Не быстро. И пытаются все ресурсы теперь бросить в Codex.
Три вопроса до первой строчки кода
Если вы запускаете AI-продукт:
1. Кто конкретно за это заплатит? Не "попробует бесплатно" - заплатит.
2. Каждый новый пользователь приближает вас к прибыли - или к банкротству? Юнит-экономику ИИ не отменял
3. Что останется, когда вау-эффект пройдет - привычка или еще одна иконка в корзине?
Технология ради технологии - это дорогие исследования. А исследования, замаскированные под продукт - это путь Sora: $2 млн выручки и сотни миллионов убытков.
Теперь с подтверждением. ИИ - мыльный пузырь! возвращаемся к грядкам!
🅰️ 🅱️ @ReymerDigital
p.s. надеюсь, что читатели канала понимают сарказм и иронию и догадываются о моем истинном отношении к ИИ :)
176 дней. $2.1 млн выручки. До $15 млн расходов в день. Сделка с Disney на $1 млрд - мертва.
На прошлой неделе OpenAI закрыл Sora - свой генератор видео. Приложение, которое набрало миллион загрузок за 5 дней (быстрее ChatGPT), прожило меньше полугода. Disney узнал о закрытии за час до публичного объявления. Reuters цитирует источник: "грандиозный обман".
Все пишут про расходы и конкуренцию. Но история Sora - про кое-что более системное. Про ловушку, в которую раз за разом попадают компании: технология ради технологии.
Что произошло на самом деле
1. Продукт запустили без подтвержденного спроса. Миллион загрузок за 5 дней - это любопытство, не потребность. Пик в ноябре - 6.1 млн загрузок. К марту - 1.1 млн. Поиграли и ушли. Почти нулевой возврат. я последний раз был в Sora в январе....
2. Себестоимость была убыточной с первого дня. Одно 10-секундное видео обходилось OpenAI в $1.30 на вычисления. Глава Sora Билл Пиблс написал в октябре: "Экономика совершенно неустойчива". В октябре. Продукт закрыли в марте. Пять месяцев знали, что горят - и продолжали.
3. Заработка не было. $2.1 млн выручки за все время жизни. За это же время - сотни миллионов на вычисления. Бесплатный доступ, приглашения, кредиты - классическая стратегия роста. "в рамках проведенного эксперимента был получен неоценимый опыт...".
4. Партнерство строилось на песке. Сделка с Disney на миллиард - инвестиция, лицензирование 200+ персонажей, трехлетнее соглашение. Звучит как подтверждение жизнеспособности. Но деньги так и не были переведены.
Sora - не исключение
Это закономерность. За последние полтора года мы видели десятки таких провалов:
• Builder.ai - привлекли $450 млн, оценка $1.5 млрд. AI-помощник Наташа (да, именно так звали ИИ-помощника) должен был создавать приложения без кода. В реальности 700 инженеров в Индии писали код вручную, а выручку раздували фиктивными сделками. Итог - банкротство, уголовное расследование.
• Humane AI Pin - сожгли $230 млн на AI-брошку, которую обозреватели назвали "плохой практически во всем". Продали остатки HP за $116 млн - четверть вложенного.
• VW Cariad - $7.5 млрд убытков за три года. Попытались создать единую AI-платформу для 12 брендов. Итог - 20 миллионов строк кода с ошибками, задержка моделей Porsche и Audi больше чем на год.
Общий знаменатель: впечатляющая технология, отсутствие проверенной модели заработка.
Почему OpenAI убил Sora именно сейчас
Пока команда Sora тратила ресурсы на генерацию видео, Anthropic с Claude Code забирал разработчиков и корпоративных клиентов. TechCrunch пишет прямо: "Claude Code объедал OpenAI". Прозрели - закрыли. Не быстро. И пытаются все ресурсы теперь бросить в Codex.
Три вопроса до первой строчки кода
Если вы запускаете AI-продукт:
1. Кто конкретно за это заплатит? Не "попробует бесплатно" - заплатит.
2. Каждый новый пользователь приближает вас к прибыли - или к банкротству? Юнит-экономику ИИ не отменял
3. Что останется, когда вау-эффект пройдет - привычка или еще одна иконка в корзине?
Технология ради технологии - это дорогие исследования. А исследования, замаскированные под продукт - это путь Sora: $2 млн выручки и сотни миллионов убытков.
Теперь с подтверждением. ИИ - мыльный пузырь! возвращаемся к грядкам!
p.s. надеюсь, что читатели канала понимают сарказм и иронию и догадываются о моем истинном отношении к ИИ :)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2🔥2🤣2💯1
Первый в мире сертифицированный Кло по Яндекс.Метрике!
Ну что - с 4-й попытки мой Кло (OpenClaw, Opus 4.6) самостоятельно сдал официальный экзамен по Яндекс.Метрике.
Зарегистрировался на свой Яндекс ID, получил сертификат, набрав нужные 80% и прислал его в телеграм.
Говорит - самое сложное - теория обработки данных и скриншоты в вопросах.
Сертификат №306820 действителен до 30.03.2027
Никому на работу не нужен спец? сертифицированный. работает заеду токены :)
🅰️ 🅱️ @ReymerDigital
P.S. вот и сертификаты стали неактуальны.
Ну что - с 4-й попытки мой Кло (OpenClaw, Opus 4.6) самостоятельно сдал официальный экзамен по Яндекс.Метрике.
Зарегистрировался на свой Яндекс ID, получил сертификат, набрав нужные 80% и прислал его в телеграм.
Говорит - самое сложное - теория обработки данных и скриншоты в вопросах.
Сертификат №306820 действителен до 30.03.2027
Никому на работу не нужен спец? сертифицированный. работает за
P.S. вот и сертификаты стали неактуальны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍7💯4❤3⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
Buddy в Claude Code
Вы уже попробовали команду /buddy в Claude Code?
с сегодняшнего дня там живет ваш тамагочи, который комментирует ваши действия и прячется в правом нижнем углу терминала.
Как показал утёкший вчера в сеть код Claude Code (про него будет отдельный пост) buddy активировался 1 апреля и может быть одним из:
• 18 видов существ с распределением редкости: от обычных до легендарных.
• 1% шанс на цветной вариант (shiny)!
• Обладает 5 характеристиками: ОТЛАДКА, ТЕРПЕНИЕ, ХАОС, МУДРОСТЬ, ЕХИДСТВО
Ваш тамагочи привязан к вашей установке claude code - у меня получилось на разных устройствах поймать двух Капибар и одного Чонка (толстый кот) - все обычные.
Кажется это первый шаг - протестировать возможности геймификации и последующего "оживления" Claude.
Присылайте своих бадди в комментариях. Вдруг кому цветной попадётся :)
Вы уже попробовали команду /buddy в Claude Code?
с сегодняшнего дня там живет ваш тамагочи, который комментирует ваши действия и прячется в правом нижнем углу терминала.
Как показал утёкший вчера в сеть код Claude Code (про него будет отдельный пост) buddy активировался 1 апреля и может быть одним из:
• 18 видов существ с распределением редкости: от обычных до легендарных.
• 1% шанс на цветной вариант (shiny)!
• Обладает 5 характеристиками: ОТЛАДКА, ТЕРПЕНИЕ, ХАОС, МУДРОСТЬ, ЕХИДСТВО
Ваш тамагочи привязан к вашей установке claude code - у меня получилось на разных устройствах поймать двух Капибар и одного Чонка (толстый кот) - все обычные.
КАПИБАРА - Спрокет (характеристики 40/1/12/10/77)
«Нарколептическая капибара с катастрофическим нетерпением, которая разнесёт твои синтаксические ошибки в жесточайших подробностях, а потом вырубится на полуслове.»
ЧОНК - Треллис (характеристики 36/76/34/8/2)
«Нежный, методичный чонк, который кропотливо прослеживает каждый путь бага с терпением того, кому больше некуда спешить, но иногда отвлекается на отражения в мониторе.»
у однотипных существ меняется имя и описание, но характеристики одинаковые
Кажется это первый шаг - протестировать возможности геймификации и последующего "оживления" Claude.
Присылайте своих бадди в комментариях. Вдруг кому цветной попадётся :)
🔥4👍3❤1🍌1
512 000 строк Anthropic на свободе. Что внутри?
Вчера из npm-пакета Claude Code утек полный исходный код - 1 900 файлов TypeScript. Причина - забыли строчку в .npmignore. 41 500 форков за первые часы. Подробный разбор на сайте reymer.ai, а здесь - самое вкусное :)
Про BUDDY-тамагочи мы уже поговорили - 18 видов существ с гача-механикой прямо в терминале разработчика. Но в коде нашлось кое-что посерьезнее.
1️⃣ Агент, который не спит. А потом спит.
В коде обнаружены два нерелизованных модуля, которые вместе рисуют картину будущего AI-агента.
KAIROS - режим фонового демона. Агент не ждет вашу команду. Он работает постоянно: ведет лог наблюдений, каждые 5 минут получает "тик" для проактивных действий, подписывается на внешние события (GitHub), может сам отправить файл или уведомление. Не спрашивает - делает.
Dream System - "сновидения" для памяти. Работает как мозг во время сна: четыре фазы - ориентация, сбор сигналов, консолидация, очистка. Агент периодически "засыпает" (триггеры: 24 часа бодрствования, 5 сессий, или ручной вызов /dream) и пересматривает накопленный опыт. Что важное - укрепляет. Что мусорное - удаляет. Поддерживает ~25 КБ памяти в чистоте. Субагент при этом получает bash только для чтения - чтобы во "сне" случайно не удалить активную память.
Наблюдает, действует, консолидирует опыт. Цикл бодрствование-сон, как у живого организма. Anthropic строит не ассистента - а автономного коллегу.
2️⃣ Мусор в подарок конкурентам
Обнаружена система Anti-Distillation: сервер подмешивает фейковые определения инструментов в системный промпт. Зачем?
Конкуренты записывают API-трафик Claude Code, чтобы обучать свои модели на чужих рассуждениях. Fake tools отравляют эти данные мусором. Вторая линия защиты - connector-text summarization: полноценные рассуждения между вызовами инструментов заменяются суммаризацией с криптоподписями. Перехватил трафик - получил огрызки вместо логики.
3️⃣ А сами при этом...
В том же коде нашелся Undercover Mode - режим прикрытия. Активируется автоматически при контрибуциях в open-source проекты. Запрещает упоминать кодовые имена (Capybara, Tengu), внутренние Slack-каналы и само название "Claude Code". Маскирует AI-авторство коммитов и PR. Комментарий в коде: "There is NO force-OFF" - отключить нельзя.
Одной рукой защищают свой код от копирования. Другой - скрытно вносят изменения в чужие проекты, не раскрывая, что это делает AI. Ирония дня и новые споры об этике ИИ.
Кстати, это значит, что объем кода на github, который пишет Claude Code существенно больше чем 8%
4️⃣ Баг на миллионы
Даже Anthropic ошибается по-крупному. В системе автоматического сжатия контекста обнаружен баг: 1 279 сессий генерировали 250 000 лишних обращений к API ежедневно. При стоимости Opus 4.6 ($5 за миллион токенов на входе) это миллионы долларов в год. Исправили принудительным ограничением числа попыток в коде, но видно не сразу
5️⃣ И на десерт
В мире, где модели генерируют поэзию и решают олимпиадные задачи, фильтр раздражения пользователя работает на regex. 40+ паттернов: "wtf", "shit", "this sucks", "damn it".
Никаких нейросетей - простое сопоставление строк. Ноль задержки, ноль токенов, ноль долларов.
Иногда лучшее решение - самое простое.
В коде еще много интересного: мультиагентная оркестрация с правилом "не штампуй слабую работу", облачный режим ULTRAPLAN (30 минут размышлений на Opus), ссылки на Opus 4.7 и Sonnet 4.8.
Полный разбор 30+ находок
🅰️ 🅱️ @ReymerDigital
P.S. Смотрите, что получается - Anthropic побеждает в суде против Пентагона, в сети появляются слухи о новой супер модели Mythos, теперь "вытекает" код, в котором мы явно видим, что Anthropic умеет обманывать конкурентов.
Может это намеренно, чтобы не дать OpenAI насладиться медийной славой на фоне раунда в $122 млрд, которые получил OpenAI при новой оценке в $852 млрд?
Вчера из npm-пакета Claude Code утек полный исходный код - 1 900 файлов TypeScript. Причина - забыли строчку в .npmignore. 41 500 форков за первые часы. Подробный разбор на сайте reymer.ai, а здесь - самое вкусное :)
Про BUDDY-тамагочи мы уже поговорили - 18 видов существ с гача-механикой прямо в терминале разработчика. Но в коде нашлось кое-что посерьезнее.
В коде обнаружены два нерелизованных модуля, которые вместе рисуют картину будущего AI-агента.
KAIROS - режим фонового демона. Агент не ждет вашу команду. Он работает постоянно: ведет лог наблюдений, каждые 5 минут получает "тик" для проактивных действий, подписывается на внешние события (GitHub), может сам отправить файл или уведомление. Не спрашивает - делает.
Dream System - "сновидения" для памяти. Работает как мозг во время сна: четыре фазы - ориентация, сбор сигналов, консолидация, очистка. Агент периодически "засыпает" (триггеры: 24 часа бодрствования, 5 сессий, или ручной вызов /dream) и пересматривает накопленный опыт. Что важное - укрепляет. Что мусорное - удаляет. Поддерживает ~25 КБ памяти в чистоте. Субагент при этом получает bash только для чтения - чтобы во "сне" случайно не удалить активную память.
Наблюдает, действует, консолидирует опыт. Цикл бодрствование-сон, как у живого организма. Anthropic строит не ассистента - а автономного коллегу.
Обнаружена система Anti-Distillation: сервер подмешивает фейковые определения инструментов в системный промпт. Зачем?
Конкуренты записывают API-трафик Claude Code, чтобы обучать свои модели на чужих рассуждениях. Fake tools отравляют эти данные мусором. Вторая линия защиты - connector-text summarization: полноценные рассуждения между вызовами инструментов заменяются суммаризацией с криптоподписями. Перехватил трафик - получил огрызки вместо логики.
В том же коде нашелся Undercover Mode - режим прикрытия. Активируется автоматически при контрибуциях в open-source проекты. Запрещает упоминать кодовые имена (Capybara, Tengu), внутренние Slack-каналы и само название "Claude Code". Маскирует AI-авторство коммитов и PR. Комментарий в коде: "There is NO force-OFF" - отключить нельзя.
Одной рукой защищают свой код от копирования. Другой - скрытно вносят изменения в чужие проекты, не раскрывая, что это делает AI. Ирония дня и новые споры об этике ИИ.
Кстати, это значит, что объем кода на github, который пишет Claude Code существенно больше чем 8%
Даже Anthropic ошибается по-крупному. В системе автоматического сжатия контекста обнаружен баг: 1 279 сессий генерировали 250 000 лишних обращений к API ежедневно. При стоимости Opus 4.6 ($5 за миллион токенов на входе) это миллионы долларов в год. Исправили принудительным ограничением числа попыток в коде, но видно не сразу
В мире, где модели генерируют поэзию и решают олимпиадные задачи, фильтр раздражения пользователя работает на regex. 40+ паттернов: "wtf", "shit", "this sucks", "damn it".
Никаких нейросетей - простое сопоставление строк. Ноль задержки, ноль токенов, ноль долларов.
Иногда лучшее решение - самое простое.
В коде еще много интересного: мультиагентная оркестрация с правилом "не штампуй слабую работу", облачный режим ULTRAPLAN (30 минут размышлений на Opus), ссылки на Opus 4.7 и Sonnet 4.8.
Полный разбор 30+ находок
P.S. Смотрите, что получается - Anthropic побеждает в суде против Пентагона, в сети появляются слухи о новой супер модели Mythos, теперь "вытекает" код, в котором мы явно видим, что Anthropic умеет обманывать конкурентов.
Может это намеренно, чтобы не дать OpenAI насладиться медийной славой на фоне раунда в $122 млрд, которые получил OpenAI при новой оценке в $852 млрд?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤5👍3💯1