AI идет all in. Сегодня финал чемпионата по покеру между LLM
Kaggle продолжает славную традицию «застольных» соревнований между ИИшками. В прошлом году играли в шахматы, а в этом добавился покер ♣️ и werefolf🐺 (она же "мафия").
По шахматам и мафии соревнования уже закончились — везде победили модельки гугла — Gemini 3 Pro, Gemini 3 Flash. Рекомендую посмотреть реплей раундов в мафию — для игры сделали прикольную визуализацию и озвучку ходов игроков. Получилось динамично, см. приложенный к посту видосик.
А вот, кто победит в покер — решается сегодня. Но в финале уже остались только GPT-5.2 и GPT o3.
Зачем все это?
Покер, как и шахматы и мафия, — это про тактику, про вероятности и про предсказание поведения соперника. LLM-ки применяют все свои навыки ризонинга, чтобы понять, блефует ли соперник, какой у него стиль игры (а оказывается модельки действительно выбирают стиль игры — кто-то играет агрессивнее, а кто-то мягче), какова вероятность того или иного раскалада и ходов противника.
И пока для обывателя это прикольное зрелище и наглядное объяснение, на каком уровне находится ИИ, для разработчиков — это шикарный бенчмарк. Каждая игра — это не синтетические, реальные неповторимые данные. Игры имеют четкие правила и структуру игры, что удобно для объяснения ЛЛМкам, что от них требуется делать. И, одновременно, всегда понятный и четко измеримый исход: победа/поражение/ничья. В общем, отличный сеттинг для оценки способностей модели👨🔬
LLM такие LLM...
Самое главное, что можно увидеть, на мой взгляд, на этих соревнованиях, это что как бы не нахваливали современные LLM — это все еще Т9 на максималках.
Если смотреть чисто на игру, то можно подумать, что есть какие-то глубокие стратегии, под копотом какая-то магия и тд. Но потом ты заходишь в их "размышления" в логах — а там порой полная шляпа, противоречивые заключения, попытки рассуждать как настоящие игроки, но по факту — просто имитация.
Все потому, что настоящие игроки не просто думают "текстом" — они применяют логику, математику, тактику. ЛЛМкам же по природе своей это дается очень тяжело.
Посмотреть, однако, все равно интересно🔭 Так что, если хотите наглядно посмотреть, на что способны современные LLM, кроме как найти инфу в интернете или суммаризовать текст, — смотрите игры и читайте логи размышлений моделек.
А если вам интересно мнение профессионального обзорщика покера, то все разложил некий Doug Polk в своем ролике — он официальный партнер соревнований. Рекомендую смотреть через Яндекс браузер со включенным переводом в риалтайме, чтобы не утонуть в покерной терминологии на английском.
Заместители
Kaggle продолжает славную традицию «застольных» соревнований между ИИшками. В прошлом году играли в шахматы, а в этом добавился покер ♣️ и werefolf
По шахматам и мафии соревнования уже закончились — везде победили модельки гугла — Gemini 3 Pro, Gemini 3 Flash. Рекомендую посмотреть реплей раундов в мафию — для игры сделали прикольную визуализацию и озвучку ходов игроков. Получилось динамично, см. приложенный к посту видосик.
А вот, кто победит в покер — решается сегодня. Но в финале уже остались только GPT-5.2 и GPT o3.
Зачем все это?
Покер, как и шахматы и мафия, — это про тактику, про вероятности и про предсказание поведения соперника. LLM-ки применяют все свои навыки ризонинга, чтобы понять, блефует ли соперник, какой у него стиль игры (а оказывается модельки действительно выбирают стиль игры — кто-то играет агрессивнее, а кто-то мягче), какова вероятность того или иного раскалада и ходов противника.
И пока для обывателя это прикольное зрелище и наглядное объяснение, на каком уровне находится ИИ, для разработчиков — это шикарный бенчмарк. Каждая игра — это не синтетические, реальные неповторимые данные. Игры имеют четкие правила и структуру игры, что удобно для объяснения ЛЛМкам, что от них требуется делать. И, одновременно, всегда понятный и четко измеримый исход: победа/поражение/ничья. В общем, отличный сеттинг для оценки способностей модели
LLM такие LLM...
Самое главное, что можно увидеть, на мой взгляд, на этих соревнованиях, это что как бы не нахваливали современные LLM — это все еще Т9 на максималках.
Если смотреть чисто на игру, то можно подумать, что есть какие-то глубокие стратегии, под копотом какая-то магия и тд. Но потом ты заходишь в их "размышления" в логах — а там порой полная шляпа, противоречивые заключения, попытки рассуждать как настоящие игроки, но по факту — просто имитация.
Все потому, что настоящие игроки не просто думают "текстом" — они применяют логику, математику, тактику. ЛЛМкам же по природе своей это дается очень тяжело.
Посмотреть, однако, все равно интересно
А если вам интересно мнение профессионального обзорщика покера, то все разложил некий Doug Polk в своем ролике — он официальный партнер соревнований. Рекомендую смотреть через Яндекс браузер со включенным переводом в риалтайме, чтобы не утонуть в покерной терминологии на английском.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10❤2😁2 2 1 1
А что собственно происходит? Сразу три крутых апдейта за 3 часа!
Похоже у разработчиков AI синхронизировались релизные циклы😁
1. Два часа назад вышел новый Claude Opus 4.6.
Больше ризонинга, дольше работает самостоятельно, контекстное окно в 1 млн токенов, можно контролировать «силу размышлений» или давать модели самой решить в режиме «adaptive thinking».
Из интересного:
- Сделали упор на рабочие некодинговые задачи, апгрейднули способности в Excel, выкатили интеграцию с PowerPoint. Логичное продолжение темы с Claude Cowork.
- Сильно улучшили работу с контекстом — теперь модель будет эффективнее сжимать контекст и лучше находить в нем информацию, что в купе с большим контекстным окном должно дать крутой эффект.
- Добавили «команды агентов» — можно запускать параллельно несколько агентов, у каждого из которых своя сессия, а значит независимый «мыслительный процесс». А еще эти агенты будут между собой переписываться и делить задачи, а не дублировать друг друга.
Похоже Claude Opus 4.6 — новый царь горы!🤴
2. Час назад выкатили новый GPT-5.3-Codex.
Как всегда — быстрее (на 25%), выше (по всем агентном бенчмаркам по версии OpenAI), сильнее (думает и коллаборирует с разработчиком). OpenAI заявляют новую модель как лучшую на текущий момент для кодинга и агентных задач.
Из интересного:
- Тоже большой акцент сделали на использование Codex для некодинговых задач. Мол презентацию сделает, PRD напишет, табличку составит. Видимо, ответка на Claude Cowork.
- А ещё бьют себя в грудь, что это самая заточенная под задачи в области кибербеза. Модель специально учили искать уязвимости в ПО.
А ещё маркетинговая фишка — ранние версии 5.3-Codex использовали в процессе разработки более поздних версий самой себя. Вот такая вот рекурсия…
Похоже GPT-5.3-Codex — новый царь горы!🤴
А, я это уже говорил?
В общем, по версии Клода — лучшая агентная модель у них, по версии OpenAI — у них. Ну и конечно с таким таймингом релиза мы пока не знаем, кто в итоге новый лидер по бенчмаркам AI для кодинга и агентных задач😄
А может в этом и был план?! Не нужно спешить с разработкой новой модели, оба релизнулись, оба молодцы, никто не проиграл, никто не выиграл. Перед инвесторами все отчитались. Разработчики отпуск возьмут наконец-то🤓
3. И как вишенка на торте — три часа назад Perplexity представил Model Council.
Фича дает возможность запускать параллельно 3 модели на выбор. Потом результаты сравниваются моделью-композером, и сравнительный анализ и саммари возвращается юзеру.
Похоже, что в новом Claude Opus можно реализовать такую же штуку. Но Perplexity мы любим за разнообразие моделей — поэтому на мой взгляд, фича все равно круче, чем просто прогон команды из трех агентов Claude.
Отличный способ перепроверки для снижения количества галлюцинаций.
Заместители
Похоже у разработчиков AI синхронизировались релизные циклы
1. Два часа назад вышел новый Claude Opus 4.6.
Больше ризонинга, дольше работает самостоятельно, контекстное окно в 1 млн токенов, можно контролировать «силу размышлений» или давать модели самой решить в режиме «adaptive thinking».
Из интересного:
- Сделали упор на рабочие некодинговые задачи, апгрейднули способности в Excel, выкатили интеграцию с PowerPoint. Логичное продолжение темы с Claude Cowork.
- Сильно улучшили работу с контекстом — теперь модель будет эффективнее сжимать контекст и лучше находить в нем информацию, что в купе с большим контекстным окном должно дать крутой эффект.
- Добавили «команды агентов» — можно запускать параллельно несколько агентов, у каждого из которых своя сессия, а значит независимый «мыслительный процесс». А еще эти агенты будут между собой переписываться и делить задачи, а не дублировать друг друга.
Похоже Claude Opus 4.6 — новый царь горы!
2. Час назад выкатили новый GPT-5.3-Codex.
Как всегда — быстрее (на 25%), выше (по всем агентном бенчмаркам по версии OpenAI), сильнее (думает и коллаборирует с разработчиком). OpenAI заявляют новую модель как лучшую на текущий момент для кодинга и агентных задач.
Из интересного:
- Тоже большой акцент сделали на использование Codex для некодинговых задач. Мол презентацию сделает, PRD напишет, табличку составит. Видимо, ответка на Claude Cowork.
- А ещё бьют себя в грудь, что это самая заточенная под задачи в области кибербеза. Модель специально учили искать уязвимости в ПО.
А ещё маркетинговая фишка — ранние версии 5.3-Codex использовали в процессе разработки более поздних версий самой себя. Вот такая вот рекурсия…
Похоже GPT-5.3-Codex — новый царь горы!
А, я это уже говорил?
В общем, по версии Клода — лучшая агентная модель у них, по версии OpenAI — у них. Ну и конечно с таким таймингом релиза мы пока не знаем, кто в итоге новый лидер по бенчмаркам AI для кодинга и агентных задач
А может в этом и был план?! Не нужно спешить с разработкой новой модели, оба релизнулись, оба молодцы, никто не проиграл, никто не выиграл. Перед инвесторами все отчитались. Разработчики отпуск возьмут наконец-то
3. И как вишенка на торте — три часа назад Perplexity представил Model Council.
Фича дает возможность запускать параллельно 3 модели на выбор. Потом результаты сравниваются моделью-композером, и сравнительный анализ и саммари возвращается юзеру.
Похоже, что в новом Claude Opus можно реализовать такую же штуку. Но Perplexity мы любим за разнообразие моделей — поэтому на мой взгляд, фича все равно круче, чем просто прогон команды из трех агентов Claude.
Отличный способ перепроверки для снижения количества галлюцинаций.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥14👍7❤5 3 1 1
Начинаем реальную автоматизацию с помощью OpenClaw
Раньше я рассказывал как запустить нашумевшего AI агента. Теперь делюсь, как его прокачать для реального использования.
Первым делом я запустил его на VPS
Или, проще говоря, в облаке. Нужно это, чтобы агент всегда был онлайн, даже когда я отключил компьютер.
Делается все очень просто. Выбираете любого провайдера и берете самую простую виртуальную машину в аренду. Заходите в консоль виртуальной машины и проходите абсолютно тот же процесс настройки, как я показывал ранее.
Лайфхак 1: на AWS (Amazon) можно заюзать free tier. Там одну вполне достаточную для OpenClaw виртуалку отдают бесплатно. Но нужна зарубежная карта, телефон и впн, чтобы заходить в консоль AWS. Зато у них есть еще мобильное приложение, с которого очень удобно с телефона отслеживать, что там с ботом, если он вдруг перестал отвечать.
Лайфхак 2: многие облачные провайдеры начали предлагать деплой OpenClaw под ключ. То есть вы сразу платите за виртуалку с OpenClaw. В РФ этим промышляет вроде cloud.ru. Я такой способ не пробовал. Поделитесь как работает, если вы — да.
Я выбрал AWS еще и потому, что агент сразу развернут в зарубежной инфраструктуре, а значит без проблем будет работать с любыми нейронками и сервисами без впн. Чего вы будете лишены, если развернете его на облаке в РФ. Там придется строить костыли.
Отдаем агенту в управление реальный процесс
Самое сложное с этими агентами — придумать, что им отдать в управление, и при этом не отдать слишком дофига, чтобы не поставить под угрозу свою кибербезопасность. Уже рапортуют много случаев, где агенты лажают с последствиями. Вот, например, Claud Cowork, пока пытался организовать рабочий стол жены юзера, — случайно удалил все сделанные ею фотки за 15 лет. Фотки растущих детей, путешествия, всякие события… Готовы ли вы так рисковать своим браком?😁
Вот и я решил, что буду выращивать своего агента как отдельную «личность». У него не будет доступа к моей личной системе, но я буду наращивать его самостоятельность, чтобы он мог все больше процессов забирать в самостоятельное ведение. И если он там накосячит, то это не затронет мою систему.
Кстати, назвал я агента — Red Deputy, или коротко Red🦀
Так вот первый живой процесс, который я отдаю Red — ассистировать мне со входящими запросами. Я создал почтовый ящик
На него можно отправлять запросы на коллаборации. А управлять им будет агент.
Ящик непростой — это сервис agentmail.to. Как понятно из названия — сделан специально для AI агентов. Управляется полностью по API. Можно настроить вебхук, чтобы агенту прилетало оповещение о новом письме. Сервис, кстати, поддержан Y Combinator.
Настраивается ящик агентом самостоятельно. Просто отправляете ему ссылку на их сайт — а настроит он все сам. Работает бесплатно для первых трех ящиков!🤓
Но, назад к агенту. Пока что он «проходит стажировку». Я запретил ему отвечать самостоятельно, перед этим он должен согласовать ответ со мной.
Сейчас мне он облегчает жизнь тем, что сортирует почту и ведет для меня список задач на основе полученных писем. К тому же он предлагает драфты ответных писем — и я все ответы отправляю только через него. То есть просто говорю: «отправь ответ вот этим трем адресатам».
Суть в том, чтобы у него накопился контекст и понимание, как отвечать на разные запросы. Многие пропускают «стажировку» и пытаются сразу кинуть агента в бой. И ожидаемо получают неожидаемое поведение от него🤦♂️
Это самая распространенная ошибка с агентами. Им тоже нужно сначала либо набираться реального опыта, либо прописать супер детальную инструкцию. А в идеале — и то и то.
Будем посмотреть, как Red справится. Для тех, кому интересно следить за судьбой Red — ввожу хештег #red👍
#заместители
Заместители
Раньше я рассказывал как запустить нашумевшего AI агента. Теперь делюсь, как его прокачать для реального использования.
Первым делом я запустил его на VPS
Или, проще говоря, в облаке. Нужно это, чтобы агент всегда был онлайн, даже когда я отключил компьютер.
Делается все очень просто. Выбираете любого провайдера и берете самую простую виртуальную машину в аренду. Заходите в консоль виртуальной машины и проходите абсолютно тот же процесс настройки, как я показывал ранее.
Лайфхак 1: на AWS (Amazon) можно заюзать free tier. Там одну вполне достаточную для OpenClaw виртуалку отдают бесплатно. Но нужна зарубежная карта, телефон и впн, чтобы заходить в консоль AWS. Зато у них есть еще мобильное приложение, с которого очень удобно с телефона отслеживать, что там с ботом, если он вдруг перестал отвечать.
Лайфхак 2: многие облачные провайдеры начали предлагать деплой OpenClaw под ключ. То есть вы сразу платите за виртуалку с OpenClaw. В РФ этим промышляет вроде cloud.ru. Я такой способ не пробовал. Поделитесь как работает, если вы — да.
Я выбрал AWS еще и потому, что агент сразу развернут в зарубежной инфраструктуре, а значит без проблем будет работать с любыми нейронками и сервисами без впн. Чего вы будете лишены, если развернете его на облаке в РФ. Там придется строить костыли.
Отдаем агенту в управление реальный процесс
Самое сложное с этими агентами — придумать, что им отдать в управление, и при этом не отдать слишком дофига, чтобы не поставить под угрозу свою кибербезопасность. Уже рапортуют много случаев, где агенты лажают с последствиями. Вот, например, Claud Cowork, пока пытался организовать рабочий стол жены юзера, — случайно удалил все сделанные ею фотки за 15 лет. Фотки растущих детей, путешествия, всякие события… Готовы ли вы так рисковать своим браком?
Вот и я решил, что буду выращивать своего агента как отдельную «личность». У него не будет доступа к моей личной системе, но я буду наращивать его самостоятельность, чтобы он мог все больше процессов забирать в самостоятельное ведение. И если он там накосячит, то это не затронет мою систему.
Кстати, назвал я агента — Red Deputy, или коротко Red
Так вот первый живой процесс, который я отдаю Red — ассистировать мне со входящими запросами. Я создал почтовый ящик
aideputies_collab@agentmail.to
На него можно отправлять запросы на коллаборации. А управлять им будет агент.
Ящик непростой — это сервис agentmail.to. Как понятно из названия — сделан специально для AI агентов. Управляется полностью по API. Можно настроить вебхук, чтобы агенту прилетало оповещение о новом письме. Сервис, кстати, поддержан Y Combinator.
Настраивается ящик агентом самостоятельно. Просто отправляете ему ссылку на их сайт — а настроит он все сам. Работает бесплатно для первых трех ящиков!
Но, назад к агенту. Пока что он «проходит стажировку». Я запретил ему отвечать самостоятельно, перед этим он должен согласовать ответ со мной.
Сейчас мне он облегчает жизнь тем, что сортирует почту и ведет для меня список задач на основе полученных писем. К тому же он предлагает драфты ответных писем — и я все ответы отправляю только через него. То есть просто говорю: «отправь ответ вот этим трем адресатам».
Суть в том, чтобы у него накопился контекст и понимание, как отвечать на разные запросы. Многие пропускают «стажировку» и пытаются сразу кинуть агента в бой. И ожидаемо получают неожидаемое поведение от него
Это самая распространенная ошибка с агентами. Им тоже нужно сначала либо набираться реального опыта, либо прописать супер детальную инструкцию. А в идеале — и то и то.
Будем посмотреть, как Red справится. Для тех, кому интересно следить за судьбой Red — ввожу хештег #red
#заместители
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍24❤7🔥3 2 1 1
Законы масштабирования агентных систем
Уже давненько ходит правило масштабирования LLM: больше параметров модели и больше данных практически гарантированно дают лучше результаты. Но есть ли подобные правила в агентных системах? Можно ли в сложных задачах просто навалить побольше агентов? Оказывается не все так просто.
Всего год назад была работа, которая говорила: "да, просто делайте больше агентов с голосованием, и это даст в среднем всегда более высокие результаты". Но с тех пор много агентов утекло.
В новой статье от Google DeepMind и MIT "Towards a Science of Scaling Agent Systems" авторы провели исследование на 180 конфигурациях, собираемых при стандартизированных структурах промптов, наборах тулов и бюджетах токенов на ризонинг. Исследовали конфигурации из:
• моделей семейств GPT, Gemini, Claude
• 5 агентных архитектур: Моноагентная система (SAS) и четырех Мультиагентных систем (MAS): Независимая, Централизованная, Децентрализованная, Гибридная (см картинку с различиями архитектур).
А качество замеряли на 4- бенчмарках:
• Finance-Agent (финансовый ризонинг)
• BrowseComp-Plus (навигация по вебу)
• PlanCraft (планирование)
• Workbench (использование тулов).
См результаты на скриншоте из статьи.
Три основных принципа
Именно столько рисерчеры сформулировали по итогам исследования. Вот они:
1. Трейд‑офф «инструменты vs координация». Чем больше инструментов и сложнее пайплайн, тем сильнее он страдает от мультиагентности. Все из-за того, что расходы на оркестрацию системы растут быстрее, чем прирост качества результата. Все как у людей, в общем-то😈
2. «Потолок способности». Когда одиночный агент уже достигает ~45%+ точности, добавление агентов чаще вредит, чем помогает.
3. Мультипликация ошибок в зависимости от архитектуры. Если уровень ошибок SAS взять за единицу, то Независимая MAS увеличивает ошибку в более чем 17 раз! Меньше всего увеличивает ошибку Централизованная MAS — в 4,4 раза.
Из разряда "спасибо кеп" также сделали вывод, что мультиагентные архитектуры дают сильный профит на хорошо декомпозируемых аналитических задачах (на финансах MAS дает прирост до ~80% по сравнению с SAS), умеренный — на веб-браузинге и офисных сценариях, и стабильный ущерб (ухудшение на 39−70%) на жёстко последовательных задачах типа PlanCraft. Все потому, что на жестко последовательных задачах AI агенты не нужны! Они только вносят ошибки.
Круто, что теперь при создании мультиагентных систем у нас появляются хотя бы примерные ориентиры, когда как лучше делать. Это поможет сэкономить время и токены на экспериментах!👨🔬
Поделитесь с вашими командами, которые трудятся над мультиагентными системами.
#ИИстатья
Заместители
Уже давненько ходит правило масштабирования LLM: больше параметров модели и больше данных практически гарантированно дают лучше результаты. Но есть ли подобные правила в агентных системах? Можно ли в сложных задачах просто навалить побольше агентов? Оказывается не все так просто.
Всего год назад была работа, которая говорила: "да, просто делайте больше агентов с голосованием, и это даст в среднем всегда более высокие результаты". Но с тех пор много агентов утекло.
В новой статье от Google DeepMind и MIT "Towards a Science of Scaling Agent Systems" авторы провели исследование на 180 конфигурациях, собираемых при стандартизированных структурах промптов, наборах тулов и бюджетах токенов на ризонинг. Исследовали конфигурации из:
• моделей семейств GPT, Gemini, Claude
• 5 агентных архитектур: Моноагентная система (SAS) и четырех Мультиагентных систем (MAS): Независимая, Централизованная, Децентрализованная, Гибридная (см картинку с различиями архитектур).
А качество замеряли на 4- бенчмарках:
• Finance-Agent (финансовый ризонинг)
• BrowseComp-Plus (навигация по вебу)
• PlanCraft (планирование)
• Workbench (использование тулов).
См результаты на скриншоте из статьи.
Три основных принципа
Именно столько рисерчеры сформулировали по итогам исследования. Вот они:
1. Трейд‑офф «инструменты vs координация». Чем больше инструментов и сложнее пайплайн, тем сильнее он страдает от мультиагентности. Все из-за того, что расходы на оркестрацию системы растут быстрее, чем прирост качества результата. Все как у людей, в общем-то
2. «Потолок способности». Когда одиночный агент уже достигает ~45%+ точности, добавление агентов чаще вредит, чем помогает.
3. Мультипликация ошибок в зависимости от архитектуры. Если уровень ошибок SAS взять за единицу, то Независимая MAS увеличивает ошибку в более чем 17 раз! Меньше всего увеличивает ошибку Централизованная MAS — в 4,4 раза.
Из разряда "спасибо кеп" также сделали вывод, что мультиагентные архитектуры дают сильный профит на хорошо декомпозируемых аналитических задачах (на финансах MAS дает прирост до ~80% по сравнению с SAS), умеренный — на веб-браузинге и офисных сценариях, и стабильный ущерб (ухудшение на 39−70%) на жёстко последовательных задачах типа PlanCraft. Все потому, что на жестко последовательных задачах AI агенты не нужны! Они только вносят ошибки.
Круто, что теперь при создании мультиагентных систем у нас появляются хотя бы примерные ориентиры, когда как лучше делать. Это поможет сэкономить время и токены на экспериментах!
Поделитесь с вашими командами, которые трудятся над мультиагентными системами.
#ИИстатья
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍8❤5 2🔥1 1 1
Новая AI экономика для сотрудников и предпринимателей
Все привыкли считать, что AI облегчает жизнь, и ускоряет ее. Исследователи из Bercley доложили, что на практике все не так.
ИИ действительно ускоряет работу, но меньше работать люди не начинают. Все ровно наоборот — сотрудники работают овертайм и испытывают более высокую когнитивную нагрузку. Все потому, что они начинают расширять свои обязанности.
Менеджеры начинают кодить и дизайнить с помощью ИИ. Рисерчеры начинают добирать ещё и инженерные задачи и так далее🎹
С приходом ИИ реалии поменялись
Руководители компаний ожидают более высоких скоростей и эффективности работы. Это побуждает сотрудников расширять зоны ответственности и брать больше задач.
Люди запускают LLMки или агентов пилить задачки, прямо на ланче или на встречах, потому что «ну а шо там, запустить то 2 минуты». Теряются естественные паузы, которые раньше позволяли выдохнуть в течение рабочего дня.
Мультизадачность вышла на новый уровень. Все мы видели картинки и истории про «безумных гиков», которые на 5 мониторах запускают 50 ботов кодить новый интернет (например, как Питер Штайнбергер, создатель OpenClaw). Так вот подобная привычка в упрощенном виде теперь пришла в массы — люди запускают параллельно несколько промптов, а сами тем временем работают над другими задачами. Однако в голове приходится теперь держать все параллельно выполняющиеся задачи.
При всем этом самим сотрудникам очень легко и даже с удовольствием заходит новая рабочая реальность. Потому что закрытие бОльшего количества задачек и ощущение собственной гиперэффективности дает дофаминчика.
Но без последствий это не остается — побочным негативным эффектом оказывается жесткий когнитивный перегруз сотрудников и быстрое выгорание😰
Мнение
Исследование маленькое - всего на 1 компании из 200 человек. Но, как мне кажется, подмечена проблематика очень четко.
Новая экономика, пронизанная ИИ, на самом деле не пытается сокращать работников — она пытается пропустить через тот же объем рабочей силы больше задач и получить больше выхлопа. Это логично. Как предприниматель вы хотите максимум доступного капитала обернуть с максимальной маржой. Капитал, который не оборачивается, съедает инфляция.
Давайте смоделируем
Вы предприниматель. У вас есть 80 рублей.
У вас уже есть штат из 5 сотрудников с зарплатами по 10 руб. То есть ваши расходы на рабочую силу = 50 руб. Остальные 30 уходят на другие затраты и реинвестиции.
Сотрудники производят продукта на 100 рублей. Вы, как предприниматель, забираете ренту 20% = 20 руб. Неплохо!
Но тут, внезапно, благодаря ИИ производительность каждого сотрудника растет на 30%.
Получается — расходы те же, за исключением мизерных расходов на подписку на LLM (пренебрегаем ими). А доход растет со 100 руб. до 130 руб.
И ваша рента, как предпринимателя, тоже растет буквально из воздуха: к первоначальным 20 руб. вы получаете чистый прирост в 30 руб. = в сумме становится 50 руб.💰
Естественное решение — увеличившуюся ренту реинвестировать в этот же бизнес. Поэтому гораздо более логичным решением становится доп найм!
Но есть нюанс. В то же время держать сотрудников, которые «не улучшены ИИшкой» по сути становится «дороже». Потому что предприниматель теряет так называемую упущенную выгоду от того, что не нанял более продвинутого работника-юзера ИИ.
Конечно, это теория в вакууме. В реальности еще есть конкуренты, внешние условия и спрос на вашу продукцию, которые задают ограничение по тому, сколько максимально имеет смысл производить продукции.
И тогда максимизация ренты подталкивает предпринимателей уже в другую сторону — сторону снижения расходов (увольнения). Но это уже сильно зависит от сферы работы компании.
Вывод такой: внедряйте AI ассистентов в свой бизнес, но берегите свои мозги и мозги своих сотрудников. Если люди все выгорят, кто будет писать промпты🤔
Заместители
Все привыкли считать, что AI облегчает жизнь, и ускоряет ее. Исследователи из Bercley доложили, что на практике все не так.
ИИ действительно ускоряет работу, но меньше работать люди не начинают. Все ровно наоборот — сотрудники работают овертайм и испытывают более высокую когнитивную нагрузку. Все потому, что они начинают расширять свои обязанности.
Менеджеры начинают кодить и дизайнить с помощью ИИ. Рисерчеры начинают добирать ещё и инженерные задачи и так далее
С приходом ИИ реалии поменялись
Руководители компаний ожидают более высоких скоростей и эффективности работы. Это побуждает сотрудников расширять зоны ответственности и брать больше задач.
Люди запускают LLMки или агентов пилить задачки, прямо на ланче или на встречах, потому что «ну а шо там, запустить то 2 минуты». Теряются естественные паузы, которые раньше позволяли выдохнуть в течение рабочего дня.
Мультизадачность вышла на новый уровень. Все мы видели картинки и истории про «безумных гиков», которые на 5 мониторах запускают 50 ботов кодить новый интернет (например, как Питер Штайнбергер, создатель OpenClaw). Так вот подобная привычка в упрощенном виде теперь пришла в массы — люди запускают параллельно несколько промптов, а сами тем временем работают над другими задачами. Однако в голове приходится теперь держать все параллельно выполняющиеся задачи.
При всем этом самим сотрудникам очень легко и даже с удовольствием заходит новая рабочая реальность. Потому что закрытие бОльшего количества задачек и ощущение собственной гиперэффективности дает дофаминчика.
Но без последствий это не остается — побочным негативным эффектом оказывается жесткий когнитивный перегруз сотрудников и быстрое выгорание
Мнение
Исследование маленькое - всего на 1 компании из 200 человек. Но, как мне кажется, подмечена проблематика очень четко.
Новая экономика, пронизанная ИИ, на самом деле не пытается сокращать работников — она пытается пропустить через тот же объем рабочей силы больше задач и получить больше выхлопа. Это логично. Как предприниматель вы хотите максимум доступного капитала обернуть с максимальной маржой. Капитал, который не оборачивается, съедает инфляция.
Давайте смоделируем
Вы предприниматель. У вас есть 80 рублей.
У вас уже есть штат из 5 сотрудников с зарплатами по 10 руб. То есть ваши расходы на рабочую силу = 50 руб. Остальные 30 уходят на другие затраты и реинвестиции.
Сотрудники производят продукта на 100 рублей. Вы, как предприниматель, забираете ренту 20% = 20 руб. Неплохо!
Но тут, внезапно, благодаря ИИ производительность каждого сотрудника растет на 30%.
Получается — расходы те же, за исключением мизерных расходов на подписку на LLM (пренебрегаем ими). А доход растет со 100 руб. до 130 руб.
И ваша рента, как предпринимателя, тоже растет буквально из воздуха: к первоначальным 20 руб. вы получаете чистый прирост в 30 руб. = в сумме становится 50 руб.
Естественное решение — увеличившуюся ренту реинвестировать в этот же бизнес. Поэтому гораздо более логичным решением становится доп найм!
Но есть нюанс. В то же время держать сотрудников, которые «не улучшены ИИшкой» по сути становится «дороже». Потому что предприниматель теряет так называемую упущенную выгоду от того, что не нанял более продвинутого работника-юзера ИИ.
Конечно, это теория в вакууме. В реальности еще есть конкуренты, внешние условия и спрос на вашу продукцию, которые задают ограничение по тому, сколько максимально имеет смысл производить продукции.
И тогда максимизация ренты подталкивает предпринимателей уже в другую сторону — сторону снижения расходов (увольнения). Но это уже сильно зависит от сферы работы компании.
Вывод такой: внедряйте AI ассистентов в свой бизнес, но берегите свои мозги и мозги своих сотрудников. Если люди все выгорят, кто будет писать промпты
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍11💯5❤4🔥4 1 1
Media is too big
VIEW IN TELEGRAM
Разработчики AI делают ставку на скорость
Соревнование новых LLM по бенчмаркам носит уже больше филосовский характер. Каждый придумывает свой бенчмарк и достигает в нем высот. А под общепринятые бенчмарки модели просто затачивают на этапе обучения. Все потому, что это коммерция и нужно показывать, что ты лучше конкурентов. Но вот где соревнование еще имеет весьма понятную и измеримую форму — это скорость инференса. И Anthropic и OpenAI синхронно ломанулись туда🏃
Anthropic для Claude Opus 4.6 выкатили Fast Mode. По заявлениям Anthropic мод ускоряет выдачу токенов в 2.5 раза. Работает при этом только напрямую от Anthropic. Базовая версия выдает до ~70 токенов в секунду от Anthropic. Значит с ускорением будет что-то около 175 токенов в секунду. Неплохо!
Но OpenAI тоже подсуетились и выкатили GPT‑5.3‑Codex‑Spark. И у них цифры даже еще интереснее — ускорение в 3-7 раз! Больше 1000 токенов в секунду! Как это выглядит на практике — смотрите приложенное видео. Пока обычный Codex только готовится писать код — Spark уже полностью написал рабочую игру "Змейка".
Моделька, конечно, попроще. GPT-5.3-Codex-Spark + High Reasoning = обычная GPT-5.3-Codex + Low Reasoning на SWE Bench Pro. Но разница несущественная, при таком увеличении скорости.
Практическое применение?
Спорное. Ведь в быстром режиме Opus стоит дороже. С Codex Spark пока не понятно — сейчас он доступен только по подписке за 200 баксов. Но скорее всего тоже будет дороже. Инфраструктура то дороже стала.
А зачем по факту этот быстрый режим? Сами вендоры продают под лозунгами "лайв кодинг асистент", "фундаментально новый опыт взаимодействия", "работа в условиях дедлайнов"😁
Да, быстрее в 2,5 или 7 раз. Но это уже гонки на "последней миле". Большая часть времени сэкономлена просто в тот момент, когда вы отдали задачу модели, а не ковыряли вручную. А за счет быстрого режима доп экономия времени измеряется в лучшем случае несколькими минутами (если задача достаточно жирная). Какая там работа в условиях дедлайнов!
По факту — просто смазали ручку игрового автомата, чтобы быстрее дергалась и жгла токены🎰
Но, конечно, все равно мы все будем пользоваться и радоваться, что стало быстрее. Какой айтишник не любит быстрой езды?😈
Кстати, из бонусов, OpenAI обещает выкатить WebSocket соединение на все модели, а не только Codex — а значит задержка на всех моделях станет меньше со временем.
Теперь ждем, когда Google и китайцы подтянутся...
Заместители
Соревнование новых LLM по бенчмаркам носит уже больше филосовский характер. Каждый придумывает свой бенчмарк и достигает в нем высот. А под общепринятые бенчмарки модели просто затачивают на этапе обучения. Все потому, что это коммерция и нужно показывать, что ты лучше конкурентов. Но вот где соревнование еще имеет весьма понятную и измеримую форму — это скорость инференса. И Anthropic и OpenAI синхронно ломанулись туда
Anthropic для Claude Opus 4.6 выкатили Fast Mode. По заявлениям Anthropic мод ускоряет выдачу токенов в 2.5 раза. Работает при этом только напрямую от Anthropic. Базовая версия выдает до ~70 токенов в секунду от Anthropic. Значит с ускорением будет что-то около 175 токенов в секунду. Неплохо!
Но OpenAI тоже подсуетились и выкатили GPT‑5.3‑Codex‑Spark. И у них цифры даже еще интереснее — ускорение в 3-7 раз! Больше 1000 токенов в секунду! Как это выглядит на практике — смотрите приложенное видео. Пока обычный Codex только готовится писать код — Spark уже полностью написал рабочую игру "Змейка".
Моделька, конечно, попроще. GPT-5.3-Codex-Spark + High Reasoning = обычная GPT-5.3-Codex + Low Reasoning на SWE Bench Pro. Но разница несущественная, при таком увеличении скорости.
Практическое применение?
Спорное. Ведь в быстром режиме Opus стоит дороже. С Codex Spark пока не понятно — сейчас он доступен только по подписке за 200 баксов. Но скорее всего тоже будет дороже. Инфраструктура то дороже стала.
А зачем по факту этот быстрый режим? Сами вендоры продают под лозунгами "лайв кодинг асистент", "фундаментально новый опыт взаимодействия", "работа в условиях дедлайнов"
Да, быстрее в 2,5 или 7 раз. Но это уже гонки на "последней миле". Большая часть времени сэкономлена просто в тот момент, когда вы отдали задачу модели, а не ковыряли вручную. А за счет быстрого режима доп экономия времени измеряется в лучшем случае несколькими минутами (если задача достаточно жирная). Какая там работа в условиях дедлайнов!
По факту — просто смазали ручку игрового автомата, чтобы быстрее дергалась и жгла токены
Но, конечно, все равно мы все будем пользоваться и радоваться, что стало быстрее. Какой айтишник не любит быстрой езды?
Кстати, из бонусов, OpenAI обещает выкатить WebSocket соединение на все модели, а не только Codex — а значит задержка на всех моделях станет меньше со временем.
Теперь ждем, когда Google и китайцы подтянутся...
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍8 3❤2 1
Я воссоздал платный функционал Notion бесплатно с помощью OpenClaw
Помните я писал пост о том, как круто Notion автоматизировали с помощью ИИ агентов? Это действительно пушка, но платить за это дополнительно 20 баксов в месяц — жаба душит. Но оказалось, что и не нужно, так как Red (так зовут моего OpenClaw агента) может полностью заменить нативных агентов Ноушена🦀
Сделать это оказалось очень просто
Шаг 1. Установить бесплатную версию Notion. Благо есть Free Tier.
Шаг 2. Создаем интеграцию. Создаете воркспейс и идете в настройки в раздел Connections. Там мелким шрифтом внизу тыкаете на "Develop or manage integrations", который перекинет на эту страницу. Тыкаете "Create a new integration". Называете интеграцию -> выбираете тип "Internal" -> выбираете спейс, который создали. Интеграция создана. Нажимаете Configure Integration (или Manage Integration) -> внизу ставите везде галочки, чтобы агент мог не только читать Notion, но и писать в него. Копируете ваш ключ в пункте "Internal integration secret" и отправляете вашему OpenClaw с командой интегрироваться в Notion. OpenClaw сам все настроит.
Шаг 3. Настраиваем доступы. Теперь нужно настроить, какие страницы может редактировать OpenClaw. По умолчанию, он не имеет доступа никуда. Идете на вкладку "Content access" и выбираете страницы из вашего воркспейса. Отныне агент может на них делать что угодно!
Теперь у вас есть агентный Notion бесплатно!😎
Просто говорите агенту прямо из телеги: "создай трекер задач с такими то полями". Готово!
"Добавь задачу Х" — бац она появилась в Notion. Особенный бонус в том, что ваш OpenClaw гораздо больше в контексте, чем нативные агенты Notion. Например Red сам уже знает, каким задачам ставить высокий приоритет, а каким — низкий. Где какие теги задачам ставить. И, больше того, он сразу прописывает для каждой задачи черновик или план ее решения. А каждое утро Red присылает мне "синк" с перечнем актуальных задач и беклогом в телегу.
А поскольку я уже настроил распознавание агентом голосовых — все общение с Notion через агента можно производить голосом.
Разблокируются и другие сценарии, в которых используют Notion☀️
• База знаний (wiki), которую за вас ведет агент.
• Ведение бюджета — просто говорите агенту "добавляй каждый месяц Х в доходы — это моя ЗП". А когда что-то покупаете — скидываете агенту фотку чека или говорите просто "добавь расходы Y".
• CRM с вашими клиентами, если у вас свое дело, например.
• Контент менеджмент — какие посты в плане, их статистика и автоматическое написание черновиков агентом.
• И многое другое. Главное — у вас есть ручка для агента, которая позволяет ему полностью управлять вашим Notion. И есть красивый UI — где вы можете смотреть и редактировать все после агента.
Ну и самое главное — благодаря ограниченному перечню страниц, к которому есть доступ у агента, соблюдается инфобезопасность моего личного пространства🤔
#red #заместители
Заместители
Помните я писал пост о том, как круто Notion автоматизировали с помощью ИИ агентов? Это действительно пушка, но платить за это дополнительно 20 баксов в месяц — жаба душит. Но оказалось, что и не нужно, так как Red (так зовут моего OpenClaw агента) может полностью заменить нативных агентов Ноушена
Сделать это оказалось очень просто
Шаг 1. Установить бесплатную версию Notion. Благо есть Free Tier.
Шаг 2. Создаем интеграцию. Создаете воркспейс и идете в настройки в раздел Connections. Там мелким шрифтом внизу тыкаете на "Develop or manage integrations", который перекинет на эту страницу. Тыкаете "Create a new integration". Называете интеграцию -> выбираете тип "Internal" -> выбираете спейс, который создали. Интеграция создана. Нажимаете Configure Integration (или Manage Integration) -> внизу ставите везде галочки, чтобы агент мог не только читать Notion, но и писать в него. Копируете ваш ключ в пункте "Internal integration secret" и отправляете вашему OpenClaw с командой интегрироваться в Notion. OpenClaw сам все настроит.
Шаг 3. Настраиваем доступы. Теперь нужно настроить, какие страницы может редактировать OpenClaw. По умолчанию, он не имеет доступа никуда. Идете на вкладку "Content access" и выбираете страницы из вашего воркспейса. Отныне агент может на них делать что угодно!
Теперь у вас есть агентный Notion бесплатно!
Просто говорите агенту прямо из телеги: "создай трекер задач с такими то полями". Готово!
"Добавь задачу Х" — бац она появилась в Notion. Особенный бонус в том, что ваш OpenClaw гораздо больше в контексте, чем нативные агенты Notion. Например Red сам уже знает, каким задачам ставить высокий приоритет, а каким — низкий. Где какие теги задачам ставить. И, больше того, он сразу прописывает для каждой задачи черновик или план ее решения. А каждое утро Red присылает мне "синк" с перечнем актуальных задач и беклогом в телегу.
А поскольку я уже настроил распознавание агентом голосовых — все общение с Notion через агента можно производить голосом.
Разблокируются и другие сценарии, в которых используют Notion
• База знаний (wiki), которую за вас ведет агент.
• Ведение бюджета — просто говорите агенту "добавляй каждый месяц Х в доходы — это моя ЗП". А когда что-то покупаете — скидываете агенту фотку чека или говорите просто "добавь расходы Y".
• CRM с вашими клиентами, если у вас свое дело, например.
• Контент менеджмент — какие посты в плане, их статистика и автоматическое написание черновиков агентом.
• И многое другое. Главное — у вас есть ручка для агента, которая позволяет ему полностью управлять вашим Notion. И есть красивый UI — где вы можете смотреть и редактировать все после агента.
Ну и самое главное — благодаря ограниченному перечню страниц, к которому есть доступ у агента, соблюдается инфобезопасность моего личного пространства
#red #заместители
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍24❤6🔥5 3 1
Media is too big
VIEW IN TELEGRAM
Долгих лет памяти вашему AI агенту
Продолжаем курс про AI агентов. Серия 3.2 разбираем Long-Term Memory.
Мы начали обсуждать эту тему в первом посте про сессии общения с агентом. Там мы узнали, что в стейте сессии (
Чтобы это происходило в Гугловской инфраструктуре уже есть две удобные штуки:
1.
2.
Конечно, можно юзать и вообще не связанные с гуглом сервисы. Например векторные БДшки:
• Mem0.ai — БД, ориентированная именно на агентное использование (видосик с их сайта как раз прикрепил, т.к. он идеально показывает, как работает такой сервис. Баг верстки с уползающим вверх цветной плашки статусом — это лол. Но они ж разрабы БД, простим им😁 ). У них, кстати, есть щедрый Free Tier.
• Qdrant — тоже одно из самых популярных решений, но больше просто как векторный поиск. Опенсорсное, но есть и клауд версия.
• Есть еще достаточно популярны Faiss (просто либа), Chroma и Pinecone.io.
В общем, как видите, на любой вкус и цвет👍
Так как оно работает?
Все просто:
1. Сначала мы одной строкой инициируем
2. Далее общаемся с агентом. В сессии автоматически сохраняются логи нашего общения.
3. Логи сессии передаются в память, причем уже в структурированнов виде с помощью:
4. А дальше мы даем нашему агенту тул
Усе, агент имеет долгосрочную память и умеет с ней работать!👍
Но как правильно наполнять память? Прописывать руками цикл какой-то что ли? И тут Google за нас подумал! Чтобы автоматизировать процесс складывания знаний в память, в ADK есть особый механизм — колбеки (Callbacks). Это такие функции, которые запускаются автоматически по триггеру. Конкретно в нашем случае нас интересует
Просто, как пять копеек! Чтобы самим попрактиковаться — как обычно, копируйте и прокликивайте вот этот ноутбук на Kaggle.👍
Кстати, вы не ограничены одним агентом для использования памяти — можно строить централизованное хранилище, куда будет ходить множество разных агентов и шерить знания. Главное помните о безопасности!
#ИИученьесвет
Заместители
Продолжаем курс про AI агентов. Серия 3.2 разбираем Long-Term Memory.
Мы начали обсуждать эту тему в первом посте про сессии общения с агентом. Там мы узнали, что в стейте сессии (
session.state) можно удобно сохранить данные, которые обсуждались с агентом, но есть проблема — после рестарта сессии они пропадут. Чтобы такого не происходило и юзеру не приходилось каждый раз заново рассказывать, кто он такой и какие задачи решает, — используется долгосрочная память.Чтобы это происходило в Гугловской инфраструктуре уже есть две удобные штуки:
1.
InMemoryMemoryService — сервис, который прототипирует (имитирует) долгосрочную память. Не для продакшена, но для тестирования и прототипирования.2.
VertexAiMemoryBankService — облачный managed сервис, который объединяет в себе и БД и LLM для полного управления памятья (запомнить, вспомнить, изменить воспоминания). Как раз для продакшена.Конечно, можно юзать и вообще не связанные с гуглом сервисы. Например векторные БДшки:
• Mem0.ai — БД, ориентированная именно на агентное использование (видосик с их сайта как раз прикрепил, т.к. он идеально показывает, как работает такой сервис. Баг верстки с уползающим вверх цветной плашки статусом — это лол. Но они ж разрабы БД, простим им
• Qdrant — тоже одно из самых популярных решений, но больше просто как векторный поиск. Опенсорсное, но есть и клауд версия.
• Есть еще достаточно популярны Faiss (просто либа), Chroma и Pinecone.io.
В общем, как видите, на любой вкус и цвет
Так как оно работает?
Все просто:
1. Сначала мы одной строкой инициируем
memory_service — это просто обертка вокруг одного из выше перечисленных сервисов. 2. Далее общаемся с агентом. В сессии автоматически сохраняются логи нашего общения.
3. Логи сессии передаются в память, причем уже в структурированнов виде с помощью:
memory_service.add_session_to_memory(session) — теперь в памяти лежит наша беседа в сжатом виде. 4. А дальше мы даем нашему агенту тул
load_memory, который агент может вызвать по своему усмотрению (да-да память — это инструмент агента). Или можем дать ему тул preload_memory — с помощью него агент будет читать все доступные воспоминания перед каждым запуском. Это надежнее, но менее эффективно.Усе, агент имеет долгосрочную память и умеет с ней работать!
Но как правильно наполнять память? Прописывать руками цикл какой-то что ли? И тут Google за нас подумал! Чтобы автоматизировать процесс складывания знаний в память, в ADK есть особый механизм — колбеки (Callbacks). Это такие функции, которые запускаются автоматически по триггеру. Конкретно в нашем случае нас интересует
after_agent_callback — этот колбек запускается после каждого ответа агента и инициирует add_session_to_memory() из пункта 3. Просто, как пять копеек! Чтобы самим попрактиковаться — как обычно, копируйте и прокликивайте вот этот ноутбук на Kaggle.
Кстати, вы не ограничены одним агентом для использования памяти — можно строить централизованное хранилище, куда будет ходить множество разных агентов и шерить знания. Главное помните о безопасности!
#ИИученьесвет
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍6 4❤3 1
OpenAI купили OpenClaw
Питер Штайнбергер, основатель OpenClaw, выходит на работу в OpenAI, чтобы помочь им «сделать агентов доступнее для всех».
Он обещает заложить в основу его новой работы сам OpenClaw и при этом сохранить текущего лобстера полностью опенсорсным и дальше его развивать с комьюнити. Похоже, это часть сделки.
Ну дядя Сэм — ну хитрец!
Альтман по стоимости одного работника (пусть даже космически дорогого) на самом деле купил:
- готовый проект
- хайп вокруг этого проекта
- его создателя и идеолога
- и самое главное — огромное комьюнити, которое будет, по сути, работать на развитие теперь уже их внутреннего проекта. Ибо что помешает Питеру из опенсорса затягивать в уже коммерческий проект OpenAI новые идеи и технологии?🤓
Что ж, надеюсь, это не похоронит такой шикарный проект. Хотя опенсорс тем и хорош — если даже скиснет OpenClaw, на его месте будет уже десяток форков.
Ну а пока что пожелаем Питеру удачи, и будем надеятся, что он поможет OpenAI действительно масштабировать успех лобстера 🦞х🧠
Как говорится — AI агентов в каждый дом!
Заместители
Питер Штайнбергер, основатель OpenClaw, выходит на работу в OpenAI, чтобы помочь им «сделать агентов доступнее для всех».
Он обещает заложить в основу его новой работы сам OpenClaw и при этом сохранить текущего лобстера полностью опенсорсным и дальше его развивать с комьюнити. Похоже, это часть сделки.
Ну дядя Сэм — ну хитрец!
Альтман по стоимости одного работника (пусть даже космически дорогого) на самом деле купил:
- готовый проект
- хайп вокруг этого проекта
- его создателя и идеолога
- и самое главное — огромное комьюнити, которое будет, по сути, работать на развитие теперь уже их внутреннего проекта. Ибо что помешает Питеру из опенсорса затягивать в уже коммерческий проект OpenAI новые идеи и технологии?
Что ж, надеюсь, это не похоронит такой шикарный проект. Хотя опенсорс тем и хорош — если даже скиснет OpenClaw, на его месте будет уже десяток форков.
Ну а пока что пожелаем Питеру удачи, и будем надеятся, что он поможет OpenAI действительно масштабировать успех лобстера 🦞х
Как говорится — AI агентов в каждый дом!
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯6❤4👍2 2☃1🔥1
Личный помощник от Манус прямо в Телеграм
Тренд на персональных ИИ ассистентов продолжается. И они выползают из своих приложений ближе к народу — в мессенджеры.
Если раньше только умельцы персонализировали ассистентов и настраивали интеграцию с телегой, то сейчас Манус предлагает это сделать буквально в 2 клика:
1. Нажали кнопку в Манус — вас кинуло в телегу в бота.
2. Нажали кнопку в телеге — соединили бота со своим акканутом Манус.
Вуаля! У вас персональный бот прямо в телеграме с полным функционалом, на который способен оригинальный Манус.
Как и в OpenClaw — у него есть файл SOUL.md ("душа" агента), где он сам прописывает себе базовые инструкции и запоминает информацию о себе и юзере. За счет этого появляется ощущение персонализации общения через время. На самом деле, эффект примерно тот же, как и просто от долгого общения с одной LLM-кой — она так же подстроится под вас.
Самая соль в другом
Манус — это один из лидеров среди агентных ИИ. У него встроенный браузер, куча сабагентов для создания сайтов и приложений, презентаций, проведения дип рисерча, анализа табличных данных, генерация изображений и видео... В общем, если ИИ агенты теоретически что-то могут сделать — то в Манусе это скорее всего есть. Причем я не раз тестил его на разных задачах и Манус частенько показывал результаты даже луче, чем узкопрофильные сервисы. Кстати, недавно в Манус тоже добавили скилы. Никого уже этим не удивишь, но ребята держатся в тренде.
Но раньше был нюанс — нужен был ВПН, чтобы использовать всю мощь Мануса. Это был, пожалуй, главный барьер, чтобы пользоваться им широким массам в России. Теперь же, он доступен любому пользователю телеги или ватсапа (в известный незамедленный мессенджер его вряд ли завезут🤡 ). Так что могу рекомендовать к использованию!
Но!
Как же сильно я продолжаю осуждать Манус за крохоборство с этими дурацкими "кредитами"! Вот оплатил я подписку за месяц. Мне насыпали мискуриса кредитов. И я сижу прикидываю, на что мне хватит? Расписываю "бюджет", а потом запускаю одну таску, где агент застреет в лупе и сжигает мне половину кредитов... 😱 Ну сделайте вы просто квоты на количество разных типов задач, как делают другие. Подписка минимум — вот тебе 4 дип рисерча, 10 генераций картинок, и безлимитные чаты. Все понятно. Зачем эта дурацкая непрозрачная абстракция?!
Теперь, когда вы уверены, что это не реклама (продолжаю ждать, когда Манус свяжется со мной😁 ) — ловите рефку на 500 кредитов, если таки захотите потестить.
Заместители
Тренд на персональных ИИ ассистентов продолжается. И они выползают из своих приложений ближе к народу — в мессенджеры.
Если раньше только умельцы персонализировали ассистентов и настраивали интеграцию с телегой, то сейчас Манус предлагает это сделать буквально в 2 клика:
1. Нажали кнопку в Манус — вас кинуло в телегу в бота.
2. Нажали кнопку в телеге — соединили бота со своим акканутом Манус.
Вуаля! У вас персональный бот прямо в телеграме с полным функционалом, на который способен оригинальный Манус.
Как и в OpenClaw — у него есть файл SOUL.md ("душа" агента), где он сам прописывает себе базовые инструкции и запоминает информацию о себе и юзере. За счет этого появляется ощущение персонализации общения через время. На самом деле, эффект примерно тот же, как и просто от долгого общения с одной LLM-кой — она так же подстроится под вас.
Самая соль в другом
Манус — это один из лидеров среди агентных ИИ. У него встроенный браузер, куча сабагентов для создания сайтов и приложений, презентаций, проведения дип рисерча, анализа табличных данных, генерация изображений и видео... В общем, если ИИ агенты теоретически что-то могут сделать — то в Манусе это скорее всего есть. Причем я не раз тестил его на разных задачах и Манус частенько показывал результаты даже луче, чем узкопрофильные сервисы. Кстати, недавно в Манус тоже добавили скилы. Никого уже этим не удивишь, но ребята держатся в тренде.
Но раньше был нюанс — нужен был ВПН, чтобы использовать всю мощь Мануса. Это был, пожалуй, главный барьер, чтобы пользоваться им широким массам в России. Теперь же, он доступен любому пользователю телеги или ватсапа (в известный незамедленный мессенджер его вряд ли завезут
Но!
Как же сильно я продолжаю осуждать Манус за крохоборство с этими дурацкими "кредитами"! Вот оплатил я подписку за месяц. Мне насыпали миску
Теперь, когда вы уверены, что это не реклама (продолжаю ждать, когда Манус свяжется со мной
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍12❤2🔥2 1 1
Нас ждет волна AI треков благодаря Gemini
В приложении Gemini появился режим создания музыки🎧 Под капотом новая моделька Lyria 3, которая генерит 30-секундные треки с вокалом.
Из крутого:
• Не нужно писать текст — достаточно промпта, о чем спеть + пожелания (голос, жанр, инструменты и тд), моделька сама напишет текст и музыку.
• Хорошо поет на русском — думаю, подойдет, чтобы генерить не только кастомные поздравляшки на праздники, но и музыкальное сопровождение к рекламе пельмешек или всяким SMM-шортса-рилса-тиктокам.
• Генерит прямо из картинок — кидаете картинку, модель ассоциирует ее с мелодией и текстом и присылает вам. Теперь вы можете проверить с чем ассоциируется картинка вашей морской свинки или продукта.
• Хорошо следует промптам во всем, кроме соблюдения жанра. Но тут я могу ошибаться, т.к. представления о границах жанров у меня размытые😁
Кстати, все треки "подписаны" через SynthID — невидимый и неслышимый эмбеддинг в произведенном треке, который потом позволяет однозначно отличить сгенерированный контент от произведенного человеком. Чтобы узнать, что за контент перед вами — достаточно просто загрузить его в чат с Gemini. Моделька распознает ненастоящий трек или другой медиаконтент с такой отметкой.
Тестируем
Я закинул промпт на создание трека для моего канала.
1. Первый в стиле эпичного тизера к кинофильму. Получилось, по моим ощущениям, больше похоже на тизер к мюзиклу.
2. Второй — кантри, хотя вроде похоже больше на попсу (но я могу не шарить, кто тут меломан — подсказывайте).
3. Дальше классика в стиле "Времен года" Вивальди. Ну тут, по-моему, все четко получилось.
4. И, наконец, в новой чистенькой сессии (чтобы на генерацию не влияли прошлые ответы) я просто скинул логотип канала — и AI сгенерировал "футуристичное и немного загадочное", как модель сама описала, музыкальное послание — слегка тревожное, я бы сказал🎧
На мой вкус получается круто. Конечно, местами чувствуется, что ИИ. Но иногда звучит неотличимо для обывателя без музыкального слуха типа меня.
К тому же технология достаточно безобидная, а значит — чистый фан для пользователей без всяких неприятных дипфейков. Но если вам позвонит "сотрудник сбербанка" и начнет петь в трубку — будьте бдительны😁
Конечно, давно существует Suno для генерации музыки, но это все-таки нишевой инструмент. Прямо в свое основное масс-маркет приложение Google, похоже, добавил генерацию музыки первым среди больших вендоров. Так что готовимся к наплыву AI треков в массах.
Заместители
В приложении Gemini появился режим создания музыки
Из крутого:
• Не нужно писать текст — достаточно промпта, о чем спеть + пожелания (голос, жанр, инструменты и тд), моделька сама напишет текст и музыку.
• Хорошо поет на русском — думаю, подойдет, чтобы генерить не только кастомные поздравляшки на праздники, но и музыкальное сопровождение к рекламе пельмешек или всяким SMM-шортса-рилса-тиктокам.
• Генерит прямо из картинок — кидаете картинку, модель ассоциирует ее с мелодией и текстом и присылает вам. Теперь вы можете проверить с чем ассоциируется картинка вашей морской свинки или продукта.
• Хорошо следует промптам во всем, кроме соблюдения жанра. Но тут я могу ошибаться, т.к. представления о границах жанров у меня размытые
Кстати, все треки "подписаны" через SynthID — невидимый и неслышимый эмбеддинг в произведенном треке, который потом позволяет однозначно отличить сгенерированный контент от произведенного человеком. Чтобы узнать, что за контент перед вами — достаточно просто загрузить его в чат с Gemini. Моделька распознает ненастоящий трек или другой медиаконтент с такой отметкой.
Тестируем
Я закинул промпт на создание трека для моего канала.
1. Первый в стиле эпичного тизера к кинофильму. Получилось, по моим ощущениям, больше похоже на тизер к мюзиклу.
2. Второй — кантри, хотя вроде похоже больше на попсу (но я могу не шарить, кто тут меломан — подсказывайте).
3. Дальше классика в стиле "Времен года" Вивальди. Ну тут, по-моему, все четко получилось.
4. И, наконец, в новой чистенькой сессии (чтобы на генерацию не влияли прошлые ответы) я просто скинул логотип канала — и AI сгенерировал "футуристичное и немного загадочное", как модель сама описала, музыкальное послание — слегка тревожное, я бы сказал
На мой вкус получается круто. Конечно, местами чувствуется, что ИИ. Но иногда звучит неотличимо для обывателя без музыкального слуха типа меня.
К тому же технология достаточно безобидная, а значит — чистый фан для пользователей без всяких неприятных дипфейков. Но если вам позвонит "сотрудник сбербанка" и начнет петь в трубку — будьте бдительны
Конечно, давно существует Suno для генерации музыки, но это все-таки нишевой инструмент. Прямо в свое основное масс-маркет приложение Google, похоже, добавил генерацию музыки первым среди больших вендоров. Так что готовимся к наплыву AI треков в массах.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥12❤3👎3🤯2🙈2👍1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Doodle Duel — игра, чтобы почувствовать себя в шкуре Nano Banana
Иногда хочется просто разгрузить мозг и посмеяться с друзьями. Doodle Duel дает такую возможность подурачиться🎮
Это игруля для телефона прямо в браузере, которая дает почувствовать себя в шкуре Nano Banana. Правила простые — за выделенное время нужно в одиночном режиме либо с друзьями на перегонки рисовать картинки по запросу от игры. Например, нам с женой попалась секция про животных — результат моего «творчества» на видео🎨
Самое интересное — судьей в том, принимать ли вашу картинку, и насколько хорошо вы ее нарисовали, выступает ИИ. И бывает так, что строгий искусственный мозг совсем не согласен с вашим виденьем объекта рисования. Тут и начинается азарт, подгорание пятой точки и вот это все, особенно когда ваш оппонент напротив уже на 3 картинки впереди вас😰
В общем, то что нужно, чтобы посмеяться с друзьями. Да и просто хороший пример, как ИИ в умелых руках открывает возможность для очень простой, но захватывающей игры.
Заместители
Иногда хочется просто разгрузить мозг и посмеяться с друзьями. Doodle Duel дает такую возможность подурачиться
Это игруля для телефона прямо в браузере, которая дает почувствовать себя в шкуре Nano Banana. Правила простые — за выделенное время нужно в одиночном режиме либо с друзьями на перегонки рисовать картинки по запросу от игры. Например, нам с женой попалась секция про животных — результат моего «творчества» на видео
Самое интересное — судьей в том, принимать ли вашу картинку, и насколько хорошо вы ее нарисовали, выступает ИИ. И бывает так, что строгий искусственный мозг совсем не согласен с вашим виденьем объекта рисования. Тут и начинается азарт, подгорание пятой точки и вот это все, особенно когда ваш оппонент напротив уже на 3 картинки впереди вас
В общем, то что нужно, чтобы посмеяться с друзьями. Да и просто хороший пример, как ИИ в умелых руках открывает возможность для очень простой, но захватывающей игры.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁8❤6🔥2🐳2 2👍1
Worldmonitor — дашборд для тех, кому надоели новостные телеграм каналы
Если вам кажется, что последние годы мир погружается в хаос, в котором уже невозможно уследить, что происходит — то этот опенсорсный проект как раз для вас.
Worldmonitor — это конфигурируемый дашборд, который агрегирует и сортирует новости из разных источников. Дальше новости анализируются с помощью LLM для определения сентимента, суммаризации и подсчета разных интересных скоров и алертов. Сервис показывает:
• Индекс нестабильности в странах
• Погодные катастрофы
• Инфраструктурные риски
• Анализ военного присутствия
• Экономические индексы
• Анализ венчурного рынка
• Инсайты по криптовалютному рынку
• Стабильности провайдеров облачных сервисов
• и многого чего еще...
Все даже сложно перечислить. Сопровождается этот дашборд картой мира, на которой нанесены ключевые события и инфратсруктура, и стримами новостных каналов и вебкамер из ключевых городов региона / мира (регион тоже, можно, кстати, настраивать).
Доступно 3 монитора:
• World Monitor — про все сразу. Акцент на геополитику и основные новости.
• Finance — соответственно про финансовый рынок, крипту.
• Tech — про венчурный рынок, технологии, AI.
Методика расчета всего и инструкция по установке приложения или self-hosting описана в гитхабе проекта. Он, кстати, набрал за два месяца уже 13к звездочек.
Что с этим делать?
Сервис помогает анализировать ситуацию в разных сферах жизни и дает оценки происходящего. Это может быть полезно как просто для того, чтобы быть в курсе, так и для более специфических задач: например для инвесторов, трейдеров, журналистов и новостников, а также тех, кто занимается OSINT. Ну и конечно не надо забывать, что в случае чего у каждого мужчины собирается специальный "кухонный генштаб для важных вопросиков" — для этой задачи сервис идеален😁
Для кого-то будет в кайф самому сидеть на дашборде, прямо в центре потока ключевой мировой информации. Но объективно, наш с вами мозг плохо адаптирован для таких задач. Быстро наступает перегруз, даже с многочисленными AI подсказками на самом дашборде.
Гораздо эффективнее — развернуть локальную версию (это ведь опенсорс!) и отдать ее вашему AI агенту, например OpenClaw. Это даст ему промежуточный слой обработки и интеграции кучи новостных источников, вместо гораздо более примитивного получения и суммаризации новостей через встроенные поисковики.
Дальше объясняете вашему AI агенту, что именно инетерсно отслеживать вам, по каким поводам вас беспокоить (например, в вашем регионе замечены погодные катастрофы или внезапно выросла крипта, в которую вы вложились). И настраиваете расписание оповещений с персонализированным новостным дайджестом. Удаляете новостные ТГ каналы, чтобы не засорять свой мозг - профит📈
Заместители
Если вам кажется, что последние годы мир погружается в хаос, в котором уже невозможно уследить, что происходит — то этот опенсорсный проект как раз для вас.
Worldmonitor — это конфигурируемый дашборд, который агрегирует и сортирует новости из разных источников. Дальше новости анализируются с помощью LLM для определения сентимента, суммаризации и подсчета разных интересных скоров и алертов. Сервис показывает:
• Индекс нестабильности в странах
• Погодные катастрофы
• Инфраструктурные риски
• Анализ военного присутствия
• Экономические индексы
• Анализ венчурного рынка
• Инсайты по криптовалютному рынку
• Стабильности провайдеров облачных сервисов
• и многого чего еще...
Все даже сложно перечислить. Сопровождается этот дашборд картой мира, на которой нанесены ключевые события и инфратсруктура, и стримами новостных каналов и вебкамер из ключевых городов региона / мира (регион тоже, можно, кстати, настраивать).
Доступно 3 монитора:
• World Monitor — про все сразу. Акцент на геополитику и основные новости.
• Finance — соответственно про финансовый рынок, крипту.
• Tech — про венчурный рынок, технологии, AI.
Методика расчета всего и инструкция по установке приложения или self-hosting описана в гитхабе проекта. Он, кстати, набрал за два месяца уже 13к звездочек.
Что с этим делать?
Сервис помогает анализировать ситуацию в разных сферах жизни и дает оценки происходящего. Это может быть полезно как просто для того, чтобы быть в курсе, так и для более специфических задач: например для инвесторов, трейдеров, журналистов и новостников, а также тех, кто занимается OSINT. Ну и конечно не надо забывать, что в случае чего у каждого мужчины собирается специальный "кухонный генштаб для важных вопросиков" — для этой задачи сервис идеален
Для кого-то будет в кайф самому сидеть на дашборде, прямо в центре потока ключевой мировой информации. Но объективно, наш с вами мозг плохо адаптирован для таких задач. Быстро наступает перегруз, даже с многочисленными AI подсказками на самом дашборде.
Гораздо эффективнее — развернуть локальную версию (это ведь опенсорс!) и отдать ее вашему AI агенту, например OpenClaw. Это даст ему промежуточный слой обработки и интеграции кучи новостных источников, вместо гораздо более примитивного получения и суммаризации новостей через встроенные поисковики.
Дальше объясняете вашему AI агенту, что именно инетерсно отслеживать вам, по каким поводам вас беспокоить (например, в вашем регионе замечены погодные катастрофы или внезапно выросла крипта, в которую вы вложились). И настраиваете расписание оповещений с персонализированным новостным дайджестом. Удаляете новостные ТГ каналы, чтобы не засорять свой мозг - профит
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥15❤4👍4 3 2 1
Perplexity выкатили свой компьютер
Любимый многими Perplexity вместе с браузером Comet получили очередной мощный апгрейд. Юзеры с подпиской Perplexity Max получили новый функцинал а-ля Manus, который маркетологи сервиса красиво назвали Perplexity Computer😳
Речь, конечно (и может, к сожалению), не о железяке. Это мультиагентная мультимодельная система для автономного выполнения комплексных задач на протяжении часов. Проще говоря — агент, который под капотом использует лучшие доступные в текущий момент модели от разных вендоров, чтобы решить поставленную юзером задачу, забурившись в нее, если нужно на много часов.
Как оно работает
Примерно так же, как и все мультиагентные системы (Manus, OpenClaw, Claude Cowork и др.).
• Вы описываете желаемый результат, а система сама разбивает его на задачи и подтаскивает подзадачи: рисерч, генерация картинок и документов, обработка данных, запросы к внешним сервисам и тд.
• "Мозг" операции — Opus 4.6. Он оркестрирует другие модели под конкретные задачи.
• Каждая задача выполняется в изолированном окружении с реальным браузером, файловой системой и интеграциями, что делает работу мощных моделей управляемой и безопасной.
Интересные моменты
• Пользователь может сам выбирать модели под конкретные подзадачи и управлять токен‑бюджетами. Это отличает Perplexity от того же Manus, где юзер не управляет этим.
• Все задачи выполняются асинхронно — поэтому можно запустить сразу десятки таких "перплексити компьютеров" параллельно.
В общем, годный апдейт. Сохранили все, что мы любим в перплексити: выбор из лучших моделей, все в одном удобном UI, контроль за происходящим. И при этом не отстают в агентной истории, не дают повода юзерам перепрыгивать на столь заманчивые альтернативы. Интереснее всего выглядит заявление, что Perplexity Computer может работать часами без вмешательства человека.
Смогли ли они сделать все заявленное на уровне ведущих игроков? Вопрос пока открытый — будем посмотреть, когда раскатят пошире📝
В общем, наверное уже можно считать, что парадигма личных агентов-ассистентов замейнстримилась. Использовать просто LLM — уже прошлый век. Порог входа в использование AI агентов стал очень низким.
Заместители
Любимый многими Perplexity вместе с браузером Comet получили очередной мощный апгрейд. Юзеры с подпиской Perplexity Max получили новый функцинал а-ля Manus, который маркетологи сервиса красиво назвали Perplexity Computer
Речь, конечно (и может, к сожалению), не о железяке. Это мультиагентная мультимодельная система для автономного выполнения комплексных задач на протяжении часов. Проще говоря — агент, который под капотом использует лучшие доступные в текущий момент модели от разных вендоров, чтобы решить поставленную юзером задачу, забурившись в нее, если нужно на много часов.
Как оно работает
Примерно так же, как и все мультиагентные системы (Manus, OpenClaw, Claude Cowork и др.).
• Вы описываете желаемый результат, а система сама разбивает его на задачи и подтаскивает подзадачи: рисерч, генерация картинок и документов, обработка данных, запросы к внешним сервисам и тд.
• "Мозг" операции — Opus 4.6. Он оркестрирует другие модели под конкретные задачи.
• Каждая задача выполняется в изолированном окружении с реальным браузером, файловой системой и интеграциями, что делает работу мощных моделей управляемой и безопасной.
Интересные моменты
• Пользователь может сам выбирать модели под конкретные подзадачи и управлять токен‑бюджетами. Это отличает Perplexity от того же Manus, где юзер не управляет этим.
• Все задачи выполняются асинхронно — поэтому можно запустить сразу десятки таких "перплексити компьютеров" параллельно.
В общем, годный апдейт. Сохранили все, что мы любим в перплексити: выбор из лучших моделей, все в одном удобном UI, контроль за происходящим. И при этом не отстают в агентной истории, не дают повода юзерам перепрыгивать на столь заманчивые альтернативы. Интереснее всего выглядит заявление, что Perplexity Computer может работать часами без вмешательства человека.
Смогли ли они сделать все заявленное на уровне ведущих игроков? Вопрос пока открытый — будем посмотреть, когда раскатят пошире
В общем, наверное уже можно считать, что парадигма личных агентов-ассистентов замейнстримилась. Использовать просто LLM — уже прошлый век. Порог входа в использование AI агентов стал очень низким.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍19🔥9❤3 1 1