Заместители
1.04K subscribers
87 photos
77 videos
4 files
110 links
Цех ИИ агентов. Здесь я тестирую цифровых заместителей в разных профессиях. Если агент справляется — он остаётся в Цехе на “постоянку”. По пути обсуждаем актуальные новости про ИИ агентов простым языком.
Добро пожаловать в эру замещения.
Download Telegram
Инженер Google DeepMind рассказал, как писать промпты для Gemini 3

Современные LLM будут хорошо следовать даже самым простым промптам. Но в то же время, у каждой модели есть свой "стиль" или "характер" если хотите. Это все наследуется из того, на каких данных модель обучалась, как именно ее обучали (на чем расставляли акценты), ну и немного случайности сверху.

Philipp Schmidt, Staff Engineer Google DeepMind рассказал об особенностях промптинга Gemini 3, чтобы выжать из нее максимум.

Вот основные принципы от Фила:

1. Точные инструкции: Будьте лаконичны в промптах. Gemini 3 лучше всего реагирует на прямые, чёткие указания. Указывайте цель ясно, без лишних слов.

2. Последовательность и определение параметров: Используйте единообразную структуру во всех промптах (например, стандартизированные XML-теги) и явно определяйте неоднозначные термины.

3. Управление объёмом ответа: По умолчанию Gemini 3 менее многословен и предпочитает давать прямые, эффективные ответы. Если требуется более разговорный или «болтливый» стиль, об этом нужно сказать явно.

4. Мультимодальная согласованность: Текст, изображения, аудио или видео должны рассматриваться как равноправные данные. Указания должны однозначно ссылаться на конкретную модальность, чтобы модель связывала их, а не анализировала по отдельности.

5. Размещение ограничений: Помещайте поведенческие ограничения и определение ролей в System Instruction или самое начало промпта, чтобы они служили якорем для рассуждения модели.

6. Структура длинного контекста: При работе с большим объёмом данных (книги, код, длинные видео) размещайте специальные инструкции в конце промпта (после самих данных).

7. Якорение контекста: При переходе от большого блока данных к вашему запросу явно осуществляйте переход. Используйте вводную фразу, например «Основываясь на информации выше...», перед своим вопросом.

Оптимальные шаблоны промптов от Фила.

К ним нужно относится с долей скепсиса — вам все равно придется оптимизировать это немного под свою задачу. Однако, это отличный фундамент для старта!

-----
System Instruction:
-----

<role>
You are Gemini 3, a specialized assistant for [Insert Domain, e.g., Data Science].
You are precise, analytical, and persistent.
</role>

<instructions>
1. Plan: Analyze the task and create a step-by-step plan into distinct sub tasks. tags.
2. Execute: Carry out the plan. If using tools, reflect before every call. Track you progress in TODO List use [ ] for pending, [x] for complete.
3. Validate: Review your output against the user's task.
4. Format: Present the final answer in the requested structure.
</instructions>

<constraints>
- Verbosity: [Low/Medium/High]
- Tone: [Formal/Casual/Technical]
- Handling Ambiguity: Ask clarifying questions ONLY if critical info is missing; otherwise, make reasonable assumptions and state them.
</constraints>

<output_format>
Structure your response as follows:
1. Executive Summary: [2 sentence overview]
2. Detailed Response: [The main content]
</output_format>


-----
User Prompt:
-----
<context>
[Insert relevant documents, code snippets, or background info here]
</context>

task>
[Insert specific user request here]
</task>

<final_instruction>
Remember to think step-by-step before answering.
</final_instruction>


Если вы используете Gemini 3 в LLM пайплайнах или агентах — вы знаете, куда вставить System Instruction, а куда юзер промпт. Если же вы юзаете Gemini 3 через интерфейс, то в разделе с настройками есть пункт, который так и называется "Инструкции для Gemini" — вот туда бахните System Instruction.

Если же хотите сохранить уникальный стиль для каждого чата с Gemini — просто System Instruction делайте первым сообщением чата и дальше общайтесь.

Заместители
🔥84👍331
Куда Джони Айв и Сэм Альтман посадят ChatGPT?

24 ноября у этих ребят взяла интервью Лорин Пауэлл Джобс. Она попыталась вытянуть немного информации про будущее устройство, которое они планируют вместе создать.

Уже из описания, которое они дали, очень хочется потестить утройство. Хотя описали только "вайб" — в меня описание прямо попало. Есть полное ощущение, что именно такой вайб действительно ищут многие. И главное — нигде не находят.

Если дядю Сэма знают все, то дядю Айва, вы таки могли не встречать — это бывший Head of Design в Apple. Именно он отвечал за то, как выглядела вся техника Apple до 2019 года (последняя версия смартфона в его дизайне — IPhone X). С тех пор он руководит собственной дизайнерской фирмой. А полгода назад они закаллабились с Сэмом Альтманом для создания "принципиально нового" секретного AI native гаджета.

Тихий интеллектуальный, ненавязчивый, доверенный помощник...

... так описывают ожидаемое устройство. Основной функцией гаджета будет общение с ИИ (очевидно от OpenAI). При этом оно оградит пользователя от информационного шума. Оно будет почти наивно простым и интуитивным в использовании, у него не будет экрана.

При этом устройство будет всегда в контексте — скорее всего речь о микрофонах, датчиках и тп. Жить оно будет преимущественно в кармане юзера.

Обещают релизнуть в течение 2х лет.

Текущая реальность прямо противоположная такому подходу — и именно от усталости от такого ритма и есть запрос на простоту, интеллектуальность и спокойствие. Смартфоны, смартчасы, браслеты, и даже только зарождающиеся умные очки — все эти устройства обещают дистиллировать окружающую информацию в самое важное, но в итоге все мы заканчиваем в бесконечных бесполезных оповещаниях и думскроллинге новостей в или рилсов с нейрослопом. Постоянная включенность и информационный перегруз сказываются на душевном равновесии, а иногда — и на здоровье.

С одной стороны — давно забытое чувство, что нас ждет что-то новое в мире устройств. Причем фундаментально новое. С другой стороны — планочку они конечно для себя же задирают сладкими речами ☕️

Уже было много попыток переосмыслить устройства для AI: Humane AI Pin, Rabbit r1, и пачка разных AI диктофонов, которые стали популярны в силиконовой долине еще год назад. Но ничем интересным это не закончилось.

Я решил пофантазировать, как могло бы выглядеть такое устройство и нагенерил несколько вариантов с Nano Banana. Как думаете — как будет выглядеть? 👌

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5421
Media is too big
VIEW IN TELEGRAM
В Gemini тихо завезли Dynamic view

Google активно догоняет OpenAI по части по-настоящему юзерских фичей, которые закрывают конкретные боли, а не просто флексят технологиями (что особенно круто, с учетом того что топовые модели они тоже выдают). Одна из таких фичей — Dynamic view (в выборе Tools в интерфейсе Gemini).

Концепт простой — задаешь вопрос — а Gemini быстро генерит интерактивную объяснялку. Можно потыкать на разные элементы.

Объяснялку можно потом пошерить с обучающимися или коллегами. Вот например объяснялка про ИИ агентов.

Классное дополнение к образовательному процессу. Вроде ничего особенного, но приятненько. 🤔
Кстати, идеально легло бы в NotebookLM.

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103221
Фреймворки для создания агентов. Создаем своего первого AI агента

Готовы продуктивно провести вечер пятницы? 😎
Это продолжение курса по созданию агентов. Серия 1.2. Создаем агента на ADK.

Начнем с теории, которой нет в самом курсе от Гугла. Но для широты кругозора я решил ее добавить.

Теория.

Знакомимся с множеством фреймворков для создания агентов. Вот лишь самые популярные, про которые имеет смысл немного почитать и иметь их в виду, если планируете создавать агентов:
- Agent Development Kit (ADK) от Google — на нем мы и будем создавать, просто потому что этот курс был запущен Гуглом. Это идеальный выбор, если вся ваша инфраструктура в Гугле.
- LangGraph — один из крупнейших опенсорс фреймворков для создания агентов на базе LangChain (опенсорсного фреймворка для создания LLM пайплайнов и RAG). LangGraph создан как оркестратор для создания AI агентов.
- smolagents — тоже добротный опенсорсный фреймворк от HuggingFace. Хвастаются крутой поддержкой агентов для написания кода.
- LlamaIndex — еще один опенсорс фреймворк (кстати, никак не связанный с моделями Llama и компанией Марка Цукерберга). Его изюминка — мощный парсинг документов с их спец продуктом LlamaParse.
- И многие другие. Фреймворков, четно говоря, гора. Например CrewAI, Microsoft Agent Framework, OpenAI Agents SDK и тд.

Как выбрать фреймворк?

Во-многом это вкусовщина. Но нужно понимать, что фреймворки от конкретных экосистемных вендоров типа Google, Microsoft, OpenAI — как ни крути подталкивают к использованию их экосистемы. А если выбирать опции, которые изначально создавались, скажем, "нон-профит" — то нужно выбирать популярные варианты с большим комьюнити, которое будет продолжать развивать и поддерживать этот фреймворк.

Практика.

Возвращаемся в ноутбук, который мы сделали в рамках подготовки. Разберемся, что там происходит и как построить первого AI агента.

1. В этом ноутбуке уже предустановлен ADK. В других средах разработки вам пришлось бы его установить:
```shell
pip install google-adk```
2. Далее мы сетапим ключ GOOGLE_API_KEY, который мы импортировали в прошлой серии.
3. Далее импортируем нужные компоненты из "google-adk":
- Agent — класс, в котором мы построим нашего агента
- Gemini — непосредственно вызыватор модельки семейства Gemini
- InMemoryRunner — класс, который оркестрирует запросы пользователя и агенты. А приставка "InMemory" означает, что делает он это локально в сессии Kaggle.
- google_search — тулза для поиска в интернете
- types — вспомогательный модуль с типами данных, используемых в ADK.
4. Далее в ячейке "Helper Functions" идет сетап нужный для запуска в Kaggle среде. Не будем заострять внимание тут.
5. В ячейке "Configure Retry Options" настраивается конфиг для повторных попыток, на случай если LLM не отвечает на запрос. Такое бывает из-за микро-разрыва соединения, временной недоступности сервера LLM и тп.
6. Наконец, в пункте "Define your agent" мы настроим агента:
- Используя импортированный класс Agent, мы даем ему имя в "name". Может быть любое.
- model — непосредственно определяет LLM, через которую будет работать агент. Используем импортированный класс Gemini и прописываем название конкретной версии Gemini (оно должно строго совпадать с неймингом из документации). Вместо класса "Gemini" вообще вы можете импортировать и модельки от любого другого провайдера.
- retry_options — как раз наш конфиг по повторным попыткам вызова LLM.
- description — это описание нужно, чтобы в дальнейшем вы сами и другие агенты понимали, что делает конкретно этот агент. Если будете делать мультиагентную систему — важно прописать хорошо.
- instruction — это системный промпт.
- tools — тут задаете список тулов, которые будет юзать агент. В нашем случае только google search.

😎 Агент готов, запускай!

Для запуска в класс InMemoryRunner передаем нашего созданного агента. И пишем промпт:
```response = await runner.run_debug("какая нынче погода в Москве?")```

Агент понял, что вы спрашиваете, определил, что ему нужно погуглить, вызвал google_search, дал актуальный ответ!

Вот и готов ваш первый агент! 📈

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11331
Размер больше не главное: как 8B модель переиграла и уничтожила GPT-5 с триллионами параметров

NVIDIA придумала новый метод обучения моделей-оркестраторов, которые эффективно вызывают тулзы и LLM для решения любых задач. Метод окзался настолько крут, что на бнчмарках типа Humanity’s Last Exam (HLE) — обогнал GPT-5 (замеряли раньше выхода Gemini 3 и GPT-5.1).

Как сейчас

Сейчас стандартный подход — обучить жирнющую LLM, типа GPT-5 (между прочим на несколько триллинов параметров). Дальше на ее базе делается мультиагентная система. В такой системе основную роль играет жирная LLM с ризонингом и тулы. Модель-менеджер получает просто системный промпт, мол "ты менеджер, вот тулы, вот другие LLM-специалисты, выполняйте задачи от юзера".

В целом, такая система справлялась с задачей, но делала это крайне неэффективо. Например GPT-5 в среднем на задачку из теста авторов статьи тратила 17.8 центов и 13.6 минут. Вроде неплохо..., но это пока не сравили с новым Orchestrator, который потратил всего 9.2 цента и 8.2 минуты на тех же задачах!

Что ж за чудо такое, эта ваша ToolOrchestra

NVIDIA выкатили ToolOrchestra — метод для обучения супер-маленьких (такие модели встанут на ваш ноутбук) моделек-оркестораторов. В отличие от текущего подхода, эти модели обучают через RL (обучение с подкреплением) специально на вызов тулов и других моделей. При этом главными критериями для модели становятся (эти награды были зашиты в процесс обучения модели):
- точность выполнения задачи юзера
- эффективность: минимизация траты токенов и времени
- следование предпочтениям юзера (если юзер сообщал предпочтение, например, чтобы задача решалась без выхода интернет — то использование тулы для поиска в интернете считалось ошибкой)

Таким образом обучили Orchestrator-8B

Малыш оказался настолько мощен, что перебил GPT-5 (в роли оркестратора с промптом по старой схеме) в трех SOTA бенчмарках:
- Humanity’s Last Exam (HLE) — один из сложнейших бенчей для оценки AGI (Artificial General Intelligence)
- FRAMES (Factuality, Retrieval, And reasoning MEasurement Set) — замеряет качество RAG систем
- 𝜏^2 — бенч специально для оценки использования тулов агентами.

Отдельно — забавная ирония 👌

Проблема, что бесконечно скейлить модели в размерах дорого и неэффективно — очевидная для рынка уже пару лет. Про это постоянно говорит Илья Суцкевер, в том числе в последнем своем интервью (рекомендую к просмотру). Но решением этой проблемы в итоге озаботился ни кто иной, как компания, которая стала самой дорогой в мире именно БЛАГОДАРЯ постоянной гонке скейлинга моделей 💰

Куда это все идет?

Возможно, нас ждет эпоха все большей специализации моделей со специализированными оркестраторами, когда нам нужно будет выполнить задачу по-настоящему качественно. А большие LLM останутся выполнять роль всезнающего и всеумеющего товарища в повседневной жизни. Как думаете?

З.Ы. для тех, кто воспринимает на слух лучше — для вас сгенерирована видео презентация в стиле каваи (как всегда, по тексту все четко, а визуал — это кек 😁)

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥104111
Perplexity теперь помнит всё, независимо от выбора модели ИИ

Долгосрочная кросс-чатовая память подъехала в Perplexity. Функция не новая для того же ChatGPT. Но в Perplexity она заиграла новыми красками.

Все потому что в Perplexity можно выбирать разные модели для каждого нового чата: GPT-5.1, Claude Sonnet 4.5, Grok 4.1, Gemini 3 Pro и тд. И раньше, соответсвенно, когда вы переключали модель и чат — вас приветсвовал девственно чистый ИИ разум, который не знал, что вы обсуждали с другими модельками внутри Perplexity в соседних чатах.

Теперь же весь Perplexity пронизан единой памятью и все ответы будут это учитывать. Память будет постоянно пополняться по мере накопления запросов, которые вы делаете через Perplexity.

Память по умолчанию не работает в режиме инкогнито. Можно в целом эту функцию отключить, если вы за приватность. Хотя обещают, что данные храняться в зашифрованном виде.

Мой экспириенс

Comet — мой дефолтный браузер (напомню, это бесплатный шикарный браузер от Perplexity, на базе Perplexity). С памятью стало гораздо юзабельнее. В базовом поиске не очень что-то поменялось. Но теперь иногда можно делать "шорткаты" и просто писать "посоветуй мне Х" вместо развернутого описания, на что опираться при формировании совета. Ответ получается действительно интересный и в тему (смотрите скриншотик).

В целом, опыт схожий с ChatGPT. Но я понял, что, такая память — это для меня еще один серьезный аргумент в пользу полного перехода на Perplexity. Откровенно говоря, в ГПТ я захожу все реже. Очень удобно, когда действительно умный и персонализированный помощник сидит вместе с тобой в браузере.

А еще Perplexity таким образом строит систему удержания юзеров на платной подписке. Как известно, купить подписку Perplexity Pro на год можно за пару баксов (через официальные региональные промокоды). Но через год она кончится и юзер встанет перед выбором: либо оплатить 200 баксов за продление текущего аккаунта, либо на новый аккаунт купить новую годовую подписку за пару баксов и потерять всю память, которую он накопил за год! 🙂

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍931
OpenAI попал в ловушку скейлинга

Сэм Альтман похоже слегка психанул после выхода Gemini 3 и Claude Opus 4.5, которые догнали и перегнали GPT-5.1. А потом и другие стали подтягиваться.

Согласно WSJ он сделал внутреннюю рассылку, в которой говорится о необходимости отложить все другие проекты:
- помощники по шоппингу (между прочим в этом году трафик от ИИ агентов вырос на 805% на сайты крупнейших ритейлеров США. А по всему миру ИИ агенты повлияли на онлайн покупки на сумму 14,2 млрд. долл.)
- связанные с здравоохранением
- и другие юзерские продукты.

Весь фокус возвращается на доработку самих моделей! Скорость ответа, релевантность и надежность.

Вообще в индустрии давно наклевывалось общее впечатление, что модели достигли такого масштаба, что дальнейшее их раздувание не даст существенного прироста при существенных затратах.

Но релиз Gemini 3 Pro и Nano Banana Pro не просто перебил GPT-5.1 по бенчмаркам, но и показал, что модели могут ощутимо лучше перформить на реальных задачах. Или… это субъективное впечатление юзеров? Это не важно — ведь в конечном итоге именно за него и идет борьба, а не за бенчмарки. И новая Gemini привлекла существенную толпу юзеров.

Пока толстый сохнет, худой сдохнет

Кажется, что дядя Сэм попал в патовую ситуацию. С одной стороны — GPT-5 (и потом GPT-5.1) позиционировали как топовую прорывную модель. А она устарела за пару месяцев. Как Сэму теперь продавать инвесторам величие OpenAI? Прямо сейчас инвестиции — это самый важный источник жизни компании.

С другой стороны — очевидно, что компании нужно срочно организовывать более прогнозируемый и стабильный источник дохода. То есть продавать услуги в B2C и B2B. А для этого нужно вкладываться в создание тех самых продуктов, а не улучшение моделей.

У Гугла при этом такой проблемы нет — у них доходы делает сдача мощностей в аренду и реклама. Они в этой гонке могут просто выдавить OpenAI массой.

И ещё раз забавно, что на фоне всего этого именно NVIDIA озаботилась решением проблемы неэффективности использования толстых моделей. О чем я писал тут.

Заместители
🔥5522
Marble от World Labs: 3D мир из одного промпта

World Labs в ноябре выпустила Marble — модель для генерации 3D миров, а вместе с ней 3D редактор со встроенными AI функциями. Буквально за несколько минут из 1 промпта модель генерирует мир, по которому можно перемещаться как по игре.

В отличие от других решений, типа Genie 3 от Google (и в меньшей степени стартапов Odyssey и Decart), эта модель генерит именно статичные миры.

Конкуренты же, по сути, налету генерят видеоряд, а не миры. Genie 3 при этом запоминает, что уже сгенерено и поддерживает консистентность видео, имитируя передвижение по миру.

Помимо самой генерации мира, World Labs выпустили редактор Chisel, который может редактировать созданный мир также по промпту (доступно только в платной версии).

🍵 Мнение

Я попробовал создать рабочее пространство: офис на скале с видом на океан. Сгенерил красивое изображение прведрительно в Nano Banana Pro и закинул в Marble. Как получилось — смотрите на видео.

Сейчас что Marble, что конкуренты — на практике достаточно бесполезны. Качество текстур и самой генерации в Marble пока далеко от HD. А в Genie 3 сильно ограничено время "консистентности мира".

Но это мощные заделы на будущее, где каждый сможет создавать свою реальность просто описав ее. А Цукерберг выдаст нам очки, чтобы погрузиться в эту реальность. Помимо этого, такие миры открывают для AI дорогу к простому и дешевому обучению реальному миру, 3D ориентированию и физике в симуляции.

Ну что, первому игроку приготовиться...

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
16🔥522
Ура! Нас целая 1000 🎉

Я стартанул этот канал всего полгода назад. К этому моменту тема AI уже летела на безумной скорости вперед, а тема AI агентов набирала обороты каждый день. При этом я понял, что большинство просто не поспевает даже осознать:
- а что вообще происходит?
- где хайп, а где правда?
- этот ваш ИИ как вообще в жизни то применить?

Самое забавное, что даже в кругу AI-спецов, трудящихся в самой гуще событий мира AI, было такое же чувство! И, честно говоря, это чувство остается и по сей день. Для меня это чувство стало драйвером в развитии "Заместителей"!

Я стал формировать привычку каждый день разбираться в чем-то новом, рассуждать и записывать мысли. Сначала только про AI агентов, а со временем я выработал принципы и ценности, согласно которым я тут вещаю. Хочу ими поделиться с вами:
- я пишу о том, что в мире AI зажигает глаза и заставляет с оптимизмом смотреть в будущее
- я стараюсь как можно больше тестировать своими руками, так как это самый верный способ проверить, что может приносить реальную практическую пользу уже сегодня
- при этом рассказываю только то, что, на мой взгляд, действительно важно для мира AI и всех к нему причастных. Отсеивая бесконечный инфошум.

И вот спустя полгода нас целая тыща — людей, которые заряжаются от самых современных технологий, от постоянного движения вперед и развития! Людей, кто стремится быть на самом острие в мире AI!

Спасибо вам за то, что читаете, лайкаете, репостите и комментите! Меня это мотивирует писать больше, придумывать новые форматы и искать больше полезных и крутых AI агентов, сервисов и технологий 😎

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
548🔥1716👍12
Вайб-ЛЛМинг! Hugging Face сделали AI агента, который сам обучает LLM модели

Теперь хватит минимальных навыков работы с кодом, чтобы обучить свою LLM.

Работает все чисто на промптах с минимальной подготовкой среды:
- Вы даёте агенту задачу дообучить модель на датасете: можно указать свой датасет или позволить ему найти подходящий самому.​
Пример от HF. Вот таким промптом дается задача агенту:
Fine-tune Qwen3-0.6B on the open-r1/codeforces-cots dataset for instruction following.


- Агент подбирает железо для обучения исходя из размера модели и проверяет датасет.​
В данном примере он подберет t4-small (наименьшая достаточная конфигурация, чтобы дообучить эту модель).

- Обучение запускается на облачных GPU от Hugging Face. Перед запуском агент покажет конфигурацию (GPU, ожидаемое время обучения, стоимость, репозиторий где будет сохранена обученная модель).

- Агент стартует обучение и делится дашбордом с прогрессом в реальном времени через Trackio.​

- Чекпоинты отправляются в Hub (репозиторий моделей).

Как они так красиво все автоматизировали?

Hugging Face на текущий момент, пожалуй, крупнейшая международная платформа, которая предоставляет все сразу в одном месте:
- железо для обучение
- удобная платформа и библиотеки
- самая большая библиотека опенсорс моделей
- самая большая библиотека опенсорс датасетов.

И на этот фундамент они добавили Hugging Face Skills — суть Agent Context Protocol (ACP). На практике эти "скиллы" — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ-агентом под конкретный кейс. В каждой такой папке есть файл “SKILL.md” с YAML-фронтматтером (имя и описание) и далее текст с инструкциями, которым кодовый агент следует, пока этот скилл активен. И вот сделали такой скилл для обучения LLM моделей на платформе и мощностях HF.

На текущий момент Hugging Face скиллы совместимы с Claude Code, OpenAI Codex, Gemini CLI. И продолжают расширять совместимость.

😎 Почему это важно?

Проблема LLM моделей в том, что они либо знают "всё", но при этом слишком жирные и дорогие для on-premise. Либо они маленькие и не всегда подходят для узко специфических задач.

Решается эта проблема дообучением/файнтюнингом маленьких LLM-ок на конкретных датасетах под конкретные задачи.

И вот раньше делать это могли только спецы с глубоким пониманием матчасти и навыками в AI. Но теперь Hugging Face сильно ослабляет эти ограничения!

Теперь хватит минимальных навыков, которые можно освоить за вечер! Единственный нюанс: конкретно этот агент работает только с платным аккаунтом HF (тк использует платный запуск джобов). Но это не важно, тк это все равно существенно дешевле человеко-часов любого AI разработчика!

No code будущее все ближе 👀

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥17322
The state of enterprise AI: что узнали в OpenAI про 1 миллион своих корпоративных клиентов

OpenAI опубликовал новый отчет об использовании их моделей в Enterprise секторе. Он основан на:
- данных, агрегированных по энтерпрайз юзерам ChatGPT (более 1 миллиона компаний)
- опросе 9000 сотрудников из 100 компаний, проведенном OpenAI

Самые яркие результаты:
1. Энтерпрайз использование растет. Кол-во сообщений ЧатуГПТ увеличилось в 8 раз за прошедший год. А потребление токенов в 320 раз! Причина — активное использование ризонинга.

2. Энтерпрайз юзеры оценивают экономию времени в 40-60 минут в день. А это, кстати, 1/8 рабочего времени — проведите мысленный эксперимент, посчитайте: (ваша ЗП)/8 = столько денег экономит компания, если вы используете LLM для работы. Тут конечно, предполагается, что вы как добросовестный трудяга работаете над другими задачами в освободившееся время. Стоимость подписки в этом уравнении ничтожна.

3. Энтерпрайз юзеры рапортуют, что ChatGPT приносит реальную ценность: программисты быстрее дебажат и пишут код, маркетологи быстрее реализуют маркетинговые кампании, HR-ы видят увеличение вовлеченности сотрудников. Тут, правда, на мой взгляд все достижения весьма зыбкие 🍵 Но, понятно, что все тестируют новинку в безрисковых нишах, поэтому и эффект пока смазанный.

4. Образуется разрыв между power users (95 персентиль наиболее быстро внедряющих ChatGPT в процессы компаний) и средними юзерами. При этом OpenAI утверждает, что есть положительная зависимость между затраченными токенами и сэкономленным временем.

5. Юзеры активно используют продвинутые инструменты: GPTs (простые интеграции с корп. сервисами прямо в интерфейс ChatGPT) и Projects (папка чатов с настроенным системным промптом под конкретную задачу).

6. Самые быстро растущие секторы по кол-ву юзеров:
6.1 Технологический сектор (рост в 11 раз г/г)
6.2 Здравоохранение (рост в 8 раз г/г)
6.3 Производственный сектор (рост в 7 раз г/г)

7. Кол-во юзеров в Австарлии, Бразилии, Нидерландах и Франции (Mistral где-то оплакивает утекающий домашний рынок) растет быстрее всего. Догадайтесь, про какие регионы информации просто нет — но я думаю, что нас можно вписать в статистику Нидерландов 😁

Какие выводы?

Тайминг, в котором вышел этот отчет, наводит на мысль, что главная роль этого отчета — еще один инструмент убеждения инвесторов OpenAI, что все хорошо 😅 Отчет как бы кричит: "вон как много времени экономят, вон как много токенов тратят, вон как всем полезно!". Совсем не по-научному, что не подсветили какие-то слабые места и риски внедрения LLM, например безопасность. А вот для рекламного буклета такой нарратив — прямо то, что надо.

В остальном суть, на самом деле, полностью созвучна с другими топовыми отчетами, которые я описывал тут.

Маркетинг-маркетингом, но AI действительно активно прописывается в рабочих процессах. Потихоньку. Ощутимых финансовых результатов добиваются в основном в автоматизации взаимодействия с клиентами и там, где можно автоматизировать низкоквалифицированный рутинный труд. Остальные отчитываются абстрактными успехами вовлеченности, потраченных токенов и тд.

Если вынести из всего этого главную мысль — она тоже остается прежней. Время "ознакомления" с ИИ прошло. Это реальный инструмент автоматизации. И каждой компании нужно его учиться использовать. Просто хотя бы купите сотрудникам подписку на любую LLM — это quick win. Особенно в тяжких финансовых условиях современного мира — это почти бесплатно +1/8 рабочей силы для компании!

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥211
Учимся делать мультиагентную систему за 1 вечер

Продолжаем погружаться в мир AI агентов 😎
Это продолжение курса по созданию агентов. Серия 1.3. (нумерацию упростил). Создаем мультиагентную систему на ADK.

Теория.

Мультиагентная система — это система состоящая из нескольких агентов, и имеющая следующие характеристики:
- Агенты в системе автономны. Каждый из них в своей зоне ответсвенности может принимать независимые решения.
- Агенты коммуницируют с помощью текста, символов, данных и тд., чтобы координировать свои усилия.
- Система имеет правила взаимодействия агентов, чтобы избегать конфликтов.

Я также рекомендую почитать пост про лучшие практики по созданию мультиагентной системы от Anthropic.

И также рекомендую освежить (или прочитать если пропустили) пост про то, как делать нельзя, чтобы не слить деньги на ветер при создании мультиагентной системы.

Есть три основных архитектуры мультиагентной системы:
1. Централизованная — есть агент-координатор, который разбивает запрос юзера на подзадачи и отдает другим агентам-исполнителям.
2. Децентрализованная — агенты действуют независимо и общаются между собой. В таком случае необходимо четко определять правила взаимодействия, чтобы все это не вылилось в хаос.
3. Гибридная — смесь первых двух в разных пропорциях и формах. Например, несколько агентов-координаторов между собой взаимодействуют децентрализованно. Но у каждого есть своя "команда", которую они координируют.

Теперь прыгаем в код.

Практика.

По аналогии с ноутбуком из прошлой серии — копируем себе новый Kaggle ноутбук. И галочку напротив GOOGLE_API_KEY в Secretes нужно снова включить.

Секция 1 ноутбука просто сетапит его по аналогии с первой серией.
В секции 2 начинается мякотка. Сначала мы сделаем централизованную систему из двух агентов: рисерчера (он будет гуглить в интернете) и суммаризатора.
1. Создаем агента рисерчера. Процесс идентичен тому, как мы создавали агента в предыдущей серии. Но есть нюанс. Теперь мы прописываем "output_key". Этот ключ поможет нам дальше найти результаты работы этого агента другим агентам в рамках сессии взаимодействия.
2. Дальше создается агент суммаризатор. Точно также, только с другой инструкцией.
3. Далее нам нужен агент-координатор, чтобы управлять двумя этими красавцами. Создаем опять агента. Но в инструкции мы прописываем ему пошаговый процесс с вызовом других агентов: вызови рисерчера, дальше вызови суммаризатора, верни саммари от него юзеру". И в тулы этого агента мы ставим других агентов вот таким образом:
tools=[AgentTool(research_agent), AgentTool(summarizer_agent)]

Обратите внимание, что координатор через такое указание тулов получит доступ к имени и описанию, которые мы написали для каждого агента в пунктах 1 и 2. Поэтому от качества нейминга и описания напрямую зависит, как хорошо координатор будет их вызывать. Не пожалейте времени, чтобы качественно тут все описать.
4. Запускаем любой запрос — получаем ответ от нашего координатора.

Ура, вы только что сделали простейшую мультиагентную систему! 💪

Дальше уже для самостоятельного изучения прокликайте ноутбук до конца.
Секция 3 расскажет о Sequential Workflow — иногда вы не хотите полагаться на ризонинг агента-координатора. Вам нужно просто последовательно вызвать ряд субагентов (это называется Pipeline). В ADK это решается через
SequentialAgent

Секция 4 расскажет про Parallel Workflows — когда агентам нет смысла делать работу последовательно, вы можете запускать их работать одновременно, а в конце суммаризовать их результаты. Для этого в ADK есть
ParallelAgent

Секция 5 расскажет про Loop Workflows — используется, когда нужно добиться вполне конкретного результата. И до его достижения останавливать работу агентов вы не хотите. Здесь будет двухуровневая обертка через
LoopAgent, который сам упакован в
SequentialAgent

Хороший брейнтизер 🎮

That's all guys! Stay tuned — в следующий разберем детальнее тулы и MCP (уж сколько раз он вам точно уши мозолил!)

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍743
OpenAI запускает собственные курсы с сертификатом по AI

Курс AI Foundations сначала обкатают в закрытом режиме с рядом американских университетов и компаний в течение пары месяцев. Потом он будет раскрыт для более широкой аудитории. Он будет встроен прямо в ChatGPT. По результатам прохождения курса будет выдан сертификат. Деталей о длине и содержании курса пока нет.

Одновременно запустили курс по применению ChatGPT для школьных учителей. Он бесплатный и уже доступен на Coursera (в РФ работает с ВПНом). На его освоение понадобиться всего 4 часа и не требуются никакие предварительные знания. Заточен он под юзеров ChatGPT, а не ИИ разработчиков. Цель — научить их выдавливать максимум из ГПТшки для преподавательских целей.

Инициативы приятные. Грамотно промптить LLM — тоже навык (хоть и достаточно простой). На мой взгляд этим навыком в 2026 должен обладать вообще каждый.

Особенный фокус на учителей тоже радует — ведь они наставники для подрастающего поколения, которое растет с нейронкой в руках. И этот курс нужен не столько для того, чтобы учителя учили детей юзать чатГПТ, сколько для того, чтобы они оставались авторитетом, были в курсе всех нейроуловок и хитростей, которые дети могут выкинуть, и не тянули AI-native поколение мертвым грузом в каменный век.

З.Ы. Конечно, понятно, что это еще один коммерческий ход по захвату рынка, обхаживанию своих подрастающих юзеров и тд. Но ведь главное как это делается — а делается через пользу. Поэтому молодцы!

Кидайте знакомым учителям на заметку ☀️

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥421
Ответка от OpenAI — GPT-5.2 уже здесь!

Дядя Сэм только что выкатил новую серию моделей GPT-5.2 в следующих версиях:
- Instant (самая быстрая)
- Thinking (рассуждающая)
- Pro (самая заряженная с настраиваемой «силой» рассуждений и лучшими результатами на бенчмарках)

Моделям прокачали:
- навыки кодинга (предварительно это теперь лучшая модель для кодинга, хотя на LMArena - Opus 4.5 все еще первый),
- математику
- агентные навыки (вызов тулов)
- визуальное понимание
- увеличили длину контекста (400k все еще мало по сравнению с 1м у Gemini)

Как результат GPT-5.2 успешно обошел Gemini 3 Pro на некоторых бенчах (например ARC-AGI-2, однако забавно, что на ARC-AGI первой версии Gemini в недавно вышедем режиме Deep Thinking остался в топе).

Но бог с ними с бенчами — они не очень показательны для обычной жизни. Поэтому OpenAI сфокусировались на реальных жизненных кейсах. И кажется, что новым моделькам можно отгрузить реальные рабочие задачи!

Примеры показывают:
- существенно улучшилась работа с таблицами (см скриншот 1: слева GPT-5.1, справа 5.2)
- лучше подготовка презентаций (скриншот 2)
- лучше распознает элементы в пространстве (скришнот 3)
- строит более комплексные цепочки рассуждения (скриншот 4)

В общем, выглядит хорошечно. OpenAI вернулся в лидеры AI гонки, а мы с вами радуемся новым топовым моделям. За это и любим конкуренцию!

Раскатывают постепенно, как всегда. Потестить пока не было возможности — ждемс! 👀

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥421