В этой части мы должны подготовить все, чтобы не отвлекаться в следующих сериях на инфраструктурные вопросы.
Поэтому для начала:
1. Заведите аккаунт на Kaggle для того, чтобы мы с вами могли пользоваться Kaggle Notebooks (это ровно те же самые Jupyter Notebooks, которыми пользуются все датасаентисты).
2. Заведите аккаунт на Google (обычную почту), если у вас ее внезапно нет.
3. Используя ваш гугл аккаунт — заходите в AI Studio и сгенерите API ключ по этой ссылке. Просто жмете кнопку Create API Key и рандомно называете проект, который Гугл просит создать, и любое название самому ключу — это ни на что не влияет. Этот ключ нам понадобиться, чтобы наш AI агент использовал гугловые модельки Gemini.
4. Заходите в ноутбук и копируете его, нажимая кнопку Copy & Edit справа сверху — теперь это ваш личный ноутбук, можете в нем развлекаться как хотите.
5. Добавляете API ключ, который вы сгенерили в AI Studio. Для этого жмете Add-ons -> Secrets->в появившейся спарва панельке "Add Secret"->В поле Label проставляете GOOGLE_API_KEY, в поле Value вставляете тот самый API ключ (выглядит просто как длинный набор буквоцифр). В панельке справа появится ваш ключ — обязательно проверьте, что напротив него стоит галочка (это означает, что вы его включили, и он стал видимым для ноутбука).
Ура, вы завершили подготовку! Горжусь вами!
* Задание со звездочкой для самых вовлеченных: почитайте ноутбук и прокликайте его (кликаете по нужной ячейке и жмете shift+enter, либо кнопку "Run" в менюшке сверху -> смотрите как выполняется код). Ноутбук полностью настроен и написан. Поэтому будет достаточно прокликать все и посмотреть как оно работает. А детально я опишу, что там происходит, в следующей серии.
З.Ы. гугл сервисы в РФ работают только с сами знаете чем. А вот Kaggle работает лучше без него.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥15 8 3❤1 1
Инженер Google DeepMind рассказал, как писать промпты для Gemini 3
Современные LLM будут хорошо следовать даже самым простым промптам. Но в то же время, у каждой модели есть свой "стиль" или "характер" если хотите. Это все наследуется из того, на каких данных модель обучалась, как именно ее обучали (на чем расставляли акценты), ну и немного случайности сверху.
Philipp Schmidt, Staff Engineer Google DeepMind рассказал об особенностях промптинга Gemini 3, чтобы выжать из нее максимум.
Вот основные принципы от Фила:
1. Точные инструкции: Будьте лаконичны в промптах. Gemini 3 лучше всего реагирует на прямые, чёткие указания. Указывайте цель ясно, без лишних слов.
2. Последовательность и определение параметров: Используйте единообразную структуру во всех промптах (например, стандартизированные XML-теги) и явно определяйте неоднозначные термины.
3. Управление объёмом ответа: По умолчанию Gemini 3 менее многословен и предпочитает давать прямые, эффективные ответы. Если требуется более разговорный или «болтливый» стиль, об этом нужно сказать явно.
4. Мультимодальная согласованность: Текст, изображения, аудио или видео должны рассматриваться как равноправные данные. Указания должны однозначно ссылаться на конкретную модальность, чтобы модель связывала их, а не анализировала по отдельности.
5. Размещение ограничений: Помещайте поведенческие ограничения и определение ролей в System Instruction или самое начало промпта, чтобы они служили якорем для рассуждения модели.
6. Структура длинного контекста: При работе с большим объёмом данных (книги, код, длинные видео) размещайте специальные инструкции в конце промпта (после самих данных).
7. Якорение контекста: При переходе от большого блока данных к вашему запросу явно осуществляйте переход. Используйте вводную фразу, например «Основываясь на информации выше...», перед своим вопросом.
Оптимальные шаблоны промптов от Фила.
К ним нужно относится с долей скепсиса — вам все равно придется оптимизировать это немного под свою задачу. Однако, это отличный фундамент для старта!
-----
System Instruction:
-----
-----
User Prompt:
-----
Если вы используете Gemini 3 в LLM пайплайнах или агентах — вы знаете, куда вставить System Instruction, а куда юзер промпт. Если же вы юзаете Gemini 3 через интерфейс, то в разделе с настройками есть пункт, который так и называется "Инструкции для Gemini" — вот туда бахните System Instruction.
Если же хотите сохранить уникальный стиль для каждого чата с Gemini — просто System Instruction делайте первым сообщением чата и дальше общайтесь.
Заместители
Современные LLM будут хорошо следовать даже самым простым промптам. Но в то же время, у каждой модели есть свой "стиль" или "характер" если хотите. Это все наследуется из того, на каких данных модель обучалась, как именно ее обучали (на чем расставляли акценты), ну и немного случайности сверху.
Philipp Schmidt, Staff Engineer Google DeepMind рассказал об особенностях промптинга Gemini 3, чтобы выжать из нее максимум.
Вот основные принципы от Фила:
1. Точные инструкции: Будьте лаконичны в промптах. Gemini 3 лучше всего реагирует на прямые, чёткие указания. Указывайте цель ясно, без лишних слов.
2. Последовательность и определение параметров: Используйте единообразную структуру во всех промптах (например, стандартизированные XML-теги) и явно определяйте неоднозначные термины.
3. Управление объёмом ответа: По умолчанию Gemini 3 менее многословен и предпочитает давать прямые, эффективные ответы. Если требуется более разговорный или «болтливый» стиль, об этом нужно сказать явно.
4. Мультимодальная согласованность: Текст, изображения, аудио или видео должны рассматриваться как равноправные данные. Указания должны однозначно ссылаться на конкретную модальность, чтобы модель связывала их, а не анализировала по отдельности.
5. Размещение ограничений: Помещайте поведенческие ограничения и определение ролей в System Instruction или самое начало промпта, чтобы они служили якорем для рассуждения модели.
6. Структура длинного контекста: При работе с большим объёмом данных (книги, код, длинные видео) размещайте специальные инструкции в конце промпта (после самих данных).
7. Якорение контекста: При переходе от большого блока данных к вашему запросу явно осуществляйте переход. Используйте вводную фразу, например «Основываясь на информации выше...», перед своим вопросом.
Оптимальные шаблоны промптов от Фила.
К ним нужно относится с долей скепсиса — вам все равно придется оптимизировать это немного под свою задачу. Однако, это отличный фундамент для старта!
-----
System Instruction:
-----
<role>
You are Gemini 3, a specialized assistant for [Insert Domain, e.g., Data Science].
You are precise, analytical, and persistent.
</role>
<instructions>
1. Plan: Analyze the task and create a step-by-step plan into distinct sub tasks. tags.
2. Execute: Carry out the plan. If using tools, reflect before every call. Track you progress in TODO List use [ ] for pending, [x] for complete.
3. Validate: Review your output against the user's task.
4. Format: Present the final answer in the requested structure.
</instructions>
<constraints>
- Verbosity: [Low/Medium/High]
- Tone: [Formal/Casual/Technical]
- Handling Ambiguity: Ask clarifying questions ONLY if critical info is missing; otherwise, make reasonable assumptions and state them.
</constraints>
<output_format>
Structure your response as follows:
1. Executive Summary: [2 sentence overview]
2. Detailed Response: [The main content]
</output_format>
-----
User Prompt:
-----
<context>
[Insert relevant documents, code snippets, or background info here]
</context>
task>
[Insert specific user request here]
</task>
<final_instruction>
Remember to think step-by-step before answering.
</final_instruction>
Если вы используете Gemini 3 в LLM пайплайнах или агентах — вы знаете, куда вставить System Instruction, а куда юзер промпт. Если же вы юзаете Gemini 3 через интерфейс, то в разделе с настройками есть пункт, который так и называется "Инструкции для Gemini" — вот туда бахните System Instruction.
Если же хотите сохранить уникальный стиль для каждого чата с Gemini — просто System Instruction делайте первым сообщением чата и дальше общайтесь.
Заместители
🔥8 4👍3 3❤1
Куда Джони Айв и Сэм Альтман посадят ChatGPT?
24 ноября у этих ребят взяла интервью Лорин Пауэлл Джобс. Она попыталась вытянуть немного информации про будущее устройство, которое они планируют вместе создать.
Уже из описания, которое они дали, очень хочется потестить утройство. Хотя описали только "вайб" — в меня описание прямо попало. Есть полное ощущение, что именно такой вайб действительно ищут многие. И главное — нигде не находят.
Если дядю Сэма знают все, то дядю Айва, вы таки могли не встречать — это бывший Head of Design в Apple. Именно он отвечал за то, как выглядела вся техника Apple до 2019 года (последняя версия смартфона в его дизайне — IPhone X). С тех пор он руководит собственной дизайнерской фирмой. А полгода назад они закаллабились с Сэмом Альтманом для создания "принципиально нового" секретного AI native гаджета.
Тихий интеллектуальный, ненавязчивый, доверенный помощник...
... так описывают ожидаемое устройство. Основной функцией гаджета будет общение с ИИ (очевидно от OpenAI). При этом оно оградит пользователя от информационного шума. Оно будет почти наивно простым и интуитивным в использовании, у него не будет экрана.
При этом устройство будет всегда в контексте — скорее всего речь о микрофонах, датчиках и тп. Жить оно будет преимущественно в кармане юзера.
Обещают релизнуть в течение 2х лет.
Текущая реальность прямо противоположная такому подходу — и именно от усталости от такого ритма и есть запрос на простоту, интеллектуальность и спокойствие. Смартфоны, смартчасы, браслеты, и даже только зарождающиеся умные очки — все эти устройства обещают дистиллировать окружающую информацию в самое важное, но в итоге все мы заканчиваем в бесконечных бесполезных оповещаниях и думскроллинге новостей в или рилсов с нейрослопом. Постоянная включенность и информационный перегруз сказываются на душевном равновесии, а иногда — и на здоровье.
С одной стороны — давно забытое чувство, что нас ждет что-то новое в мире устройств. Причем фундаментально новое. С другой стороны — планочку они конечно для себя же задирают сладкими речами☕️
Уже было много попыток переосмыслить устройства для AI: Humane AI Pin, Rabbit r1, и пачка разных AI диктофонов, которые стали популярны в силиконовой долине еще год назад. Но ничем интересным это не закончилось.
Я решил пофантазировать, как могло бы выглядеть такое устройство и нагенерил несколько вариантов с Nano Banana. Как думаете — как будет выглядеть?👌
Заместители
24 ноября у этих ребят взяла интервью Лорин Пауэлл Джобс. Она попыталась вытянуть немного информации про будущее устройство, которое они планируют вместе создать.
Уже из описания, которое они дали, очень хочется потестить утройство. Хотя описали только "вайб" — в меня описание прямо попало. Есть полное ощущение, что именно такой вайб действительно ищут многие. И главное — нигде не находят.
Если дядю Сэма знают все, то дядю Айва, вы таки могли не встречать — это бывший Head of Design в Apple. Именно он отвечал за то, как выглядела вся техника Apple до 2019 года (последняя версия смартфона в его дизайне — IPhone X). С тех пор он руководит собственной дизайнерской фирмой. А полгода назад они закаллабились с Сэмом Альтманом для создания "принципиально нового" секретного AI native гаджета.
Тихий интеллектуальный, ненавязчивый, доверенный помощник...
... так описывают ожидаемое устройство. Основной функцией гаджета будет общение с ИИ (очевидно от OpenAI). При этом оно оградит пользователя от информационного шума. Оно будет почти наивно простым и интуитивным в использовании, у него не будет экрана.
При этом устройство будет всегда в контексте — скорее всего речь о микрофонах, датчиках и тп. Жить оно будет преимущественно в кармане юзера.
Обещают релизнуть в течение 2х лет.
Текущая реальность прямо противоположная такому подходу — и именно от усталости от такого ритма и есть запрос на простоту, интеллектуальность и спокойствие. Смартфоны, смартчасы, браслеты, и даже только зарождающиеся умные очки — все эти устройства обещают дистиллировать окружающую информацию в самое важное, но в итоге все мы заканчиваем в бесконечных бесполезных оповещаниях и думскроллинге новостей в или рилсов с нейрослопом. Постоянная включенность и информационный перегруз сказываются на душевном равновесии, а иногда — и на здоровье.
С одной стороны — давно забытое чувство, что нас ждет что-то новое в мире устройств. Причем фундаментально новое. С другой стороны — планочку они конечно для себя же задирают сладкими речами
Уже было много попыток переосмыслить устройства для AI: Humane AI Pin, Rabbit r1, и пачка разных AI диктофонов, которые стали популярны в силиконовой долине еще год назад. Но ничем интересным это не закончилось.
Я решил пофантазировать, как могло бы выглядеть такое устройство и нагенерил несколько вариантов с Nano Banana. Как думаете — как будет выглядеть?
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5 4 2❤1
Media is too big
VIEW IN TELEGRAM
В Gemini тихо завезли Dynamic view
Google активно догоняет OpenAI по части по-настоящему юзерских фичей, которые закрывают конкретные боли, а не просто флексят технологиями (что особенно круто, с учетом того что топовые модели они тоже выдают). Одна из таких фичей — Dynamic view (в выборе Tools в интерфейсе Gemini).
Концепт простой — задаешь вопрос — а Gemini быстро генерит интерактивную объяснялку. Можно потыкать на разные элементы.
Объяснялку можно потом пошерить с обучающимися или коллегами. Вот например объяснялка про ИИ агентов.
Классное дополнение к образовательному процессу. Вроде ничего особенного, но приятненько.🤔
Кстати, идеально легло бы в NotebookLM.
Заместители
Google активно догоняет OpenAI по части по-настоящему юзерских фичей, которые закрывают конкретные боли, а не просто флексят технологиями (что особенно круто, с учетом того что топовые модели они тоже выдают). Одна из таких фичей — Dynamic view (в выборе Tools в интерфейсе Gemini).
Концепт простой — задаешь вопрос — а Gemini быстро генерит интерактивную объяснялку. Можно потыкать на разные элементы.
Объяснялку можно потом пошерить с обучающимися или коллегами. Вот например объяснялка про ИИ агентов.
Классное дополнение к образовательному процессу. Вроде ничего особенного, но приятненько.
Кстати, идеально легло бы в NotebookLM.
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10 3❤2 2 1
Фреймворки для создания агентов. Создаем своего первого AI агента
Готовы продуктивно провести вечер пятницы?😎
Это продолжение курса по созданию агентов. Серия 1.2. Создаем агента на ADK.
Начнем с теории, которой нет в самом курсе от Гугла. Но для широты кругозора я решил ее добавить.
Теория.
Знакомимся с множеством фреймворков для создания агентов. Вот лишь самые популярные, про которые имеет смысл немного почитать и иметь их в виду, если планируете создавать агентов:
- Agent Development Kit (ADK) от Google — на нем мы и будем создавать, просто потому что этот курс был запущен Гуглом. Это идеальный выбор, если вся ваша инфраструктура в Гугле.
- LangGraph — один из крупнейших опенсорс фреймворков для создания агентов на базе LangChain (опенсорсного фреймворка для создания LLM пайплайнов и RAG). LangGraph создан как оркестратор для создания AI агентов.
- smolagents — тоже добротный опенсорсный фреймворк от HuggingFace. Хвастаются крутой поддержкой агентов для написания кода.
- LlamaIndex — еще один опенсорс фреймворк (кстати, никак не связанный с моделями Llama и компанией Марка Цукерберга). Его изюминка — мощный парсинг документов с их спец продуктом LlamaParse.
- И многие другие. Фреймворков, четно говоря, гора. Например CrewAI, Microsoft Agent Framework, OpenAI Agents SDK и тд.
Как выбрать фреймворк?
Во-многом это вкусовщина. Но нужно понимать, что фреймворки от конкретных экосистемных вендоров типа Google, Microsoft, OpenAI — как ни крути подталкивают к использованию их экосистемы. А если выбирать опции, которые изначально создавались, скажем, "нон-профит" — то нужно выбирать популярные варианты с большим комьюнити, которое будет продолжать развивать и поддерживать этот фреймворк.
Практика.
Возвращаемся в ноутбук, который мы сделали в рамках подготовки. Разберемся, что там происходит и как построить первого AI агента.
1. В этом ноутбуке уже предустановлен ADK. В других средах разработки вам пришлось бы его установить:
pip install google-adk```
2. Далее мы сетапим ключ GOOGLE_API_KEY, который мы импортировали в прошлой серии.
3. Далее импортируем нужные компоненты из "google-adk":
- Agent — класс, в котором мы построим нашего агента
- Gemini — непосредственно вызыватор модельки семейства Gemini
- InMemoryRunner — класс, который оркестрирует запросы пользователя и агенты. А приставка "InMemory" означает, что делает он это локально в сессии Kaggle.
- google_search — тулза для поиска в интернете
- types — вспомогательный модуль с типами данных, используемых в ADK.
4. Далее в ячейке "Helper Functions" идет сетап нужный для запуска в Kaggle среде. Не будем заострять внимание тут.
5. В ячейке "Configure Retry Options" настраивается конфиг для повторных попыток, на случай если LLM не отвечает на запрос. Такое бывает из-за микро-разрыва соединения, временной недоступности сервера LLM и тп.
6. Наконец, в пункте "Define your agent" мы настроим агента:
- Используя импортированный класс Agent, мы даем ему имя в "name". Может быть любое.
- model — непосредственно определяет LLM, через которую будет работать агент. Используем импортированный класс Gemini и прописываем название конкретной версии Gemini (оно должно строго совпадать с неймингом из документации). Вместо класса "Gemini" вообще вы можете импортировать и модельки от любого другого провайдера.
- retry_options — как раз наш конфиг по повторным попыткам вызова LLM.
- description — это описание нужно, чтобы в дальнейшем вы сами и другие агенты понимали, что делает конкретно этот агент. Если будете делать мультиагентную систему — важно прописать хорошо.
- instruction — это системный промпт.
- tools — тут задаете список тулов, которые будет юзать агент. В нашем случае только google search.
😎 Агент готов, запускай!
Для запуска в класс InMemoryRunner передаем нашего созданного агента. И пишем промпт:
Агент понял, что вы спрашиваете, определил, что ему нужно погуглить, вызвал google_search, дал актуальный ответ!
Вот и готов ваш первый агент!📈
Заместители
Готовы продуктивно провести вечер пятницы?
Это продолжение курса по созданию агентов. Серия 1.2. Создаем агента на ADK.
Начнем с теории, которой нет в самом курсе от Гугла. Но для широты кругозора я решил ее добавить.
Теория.
Знакомимся с множеством фреймворков для создания агентов. Вот лишь самые популярные, про которые имеет смысл немного почитать и иметь их в виду, если планируете создавать агентов:
- Agent Development Kit (ADK) от Google — на нем мы и будем создавать, просто потому что этот курс был запущен Гуглом. Это идеальный выбор, если вся ваша инфраструктура в Гугле.
- LangGraph — один из крупнейших опенсорс фреймворков для создания агентов на базе LangChain (опенсорсного фреймворка для создания LLM пайплайнов и RAG). LangGraph создан как оркестратор для создания AI агентов.
- smolagents — тоже добротный опенсорсный фреймворк от HuggingFace. Хвастаются крутой поддержкой агентов для написания кода.
- LlamaIndex — еще один опенсорс фреймворк (кстати, никак не связанный с моделями Llama и компанией Марка Цукерберга). Его изюминка — мощный парсинг документов с их спец продуктом LlamaParse.
- И многие другие. Фреймворков, четно говоря, гора. Например CrewAI, Microsoft Agent Framework, OpenAI Agents SDK и тд.
Как выбрать фреймворк?
Во-многом это вкусовщина. Но нужно понимать, что фреймворки от конкретных экосистемных вендоров типа Google, Microsoft, OpenAI — как ни крути подталкивают к использованию их экосистемы. А если выбирать опции, которые изначально создавались, скажем, "нон-профит" — то нужно выбирать популярные варианты с большим комьюнити, которое будет продолжать развивать и поддерживать этот фреймворк.
Практика.
Возвращаемся в ноутбук, который мы сделали в рамках подготовки. Разберемся, что там происходит и как построить первого AI агента.
1. В этом ноутбуке уже предустановлен ADK. В других средах разработки вам пришлось бы его установить:
```shellpip install google-adk```
2. Далее мы сетапим ключ GOOGLE_API_KEY, который мы импортировали в прошлой серии.
3. Далее импортируем нужные компоненты из "google-adk":
- Agent — класс, в котором мы построим нашего агента
- Gemini — непосредственно вызыватор модельки семейства Gemini
- InMemoryRunner — класс, который оркестрирует запросы пользователя и агенты. А приставка "InMemory" означает, что делает он это локально в сессии Kaggle.
- google_search — тулза для поиска в интернете
- types — вспомогательный модуль с типами данных, используемых в ADK.
4. Далее в ячейке "Helper Functions" идет сетап нужный для запуска в Kaggle среде. Не будем заострять внимание тут.
5. В ячейке "Configure Retry Options" настраивается конфиг для повторных попыток, на случай если LLM не отвечает на запрос. Такое бывает из-за микро-разрыва соединения, временной недоступности сервера LLM и тп.
6. Наконец, в пункте "Define your agent" мы настроим агента:
- Используя импортированный класс Agent, мы даем ему имя в "name". Может быть любое.
- model — непосредственно определяет LLM, через которую будет работать агент. Используем импортированный класс Gemini и прописываем название конкретной версии Gemini (оно должно строго совпадать с неймингом из документации). Вместо класса "Gemini" вообще вы можете импортировать и модельки от любого другого провайдера.
- retry_options — как раз наш конфиг по повторным попыткам вызова LLM.
- description — это описание нужно, чтобы в дальнейшем вы сами и другие агенты понимали, что делает конкретно этот агент. Если будете делать мультиагентную систему — важно прописать хорошо.
- instruction — это системный промпт.
- tools — тут задаете список тулов, которые будет юзать агент. В нашем случае только google search.
Для запуска в класс InMemoryRunner передаем нашего созданного агента. И пишем промпт:
```response = await runner.run_debug("какая нынче погода в Москве?")```Агент понял, что вы спрашиваете, определил, что ему нужно погуглить, вызвал google_search, дал актуальный ответ!
Вот и готов ваш первый агент!
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11 3 3❤1
Размер больше не главное: как 8B модель переиграла и уничтожила GPT-5 с триллионами параметров
NVIDIA придумала новый метод обучения моделей-оркестраторов, которые эффективно вызывают тулзы и LLM для решения любых задач. Метод окзался настолько крут, что на бнчмарках типа Humanity’s Last Exam (HLE) — обогнал GPT-5 (замеряли раньше выхода Gemini 3 и GPT-5.1).
Как сейчас
Сейчас стандартный подход — обучить жирнющую LLM, типа GPT-5 (между прочим на несколько триллинов параметров). Дальше на ее базе делается мультиагентная система. В такой системе основную роль играет жирная LLM с ризонингом и тулы. Модель-менеджер получает просто системный промпт, мол "ты менеджер, вот тулы, вот другие LLM-специалисты, выполняйте задачи от юзера".
В целом, такая система справлялась с задачей, но делала это крайне неэффективо. Например GPT-5 в среднем на задачку из теста авторов статьи тратила 17.8 центов и 13.6 минут. Вроде неплохо..., но это пока не сравили с новым Orchestrator, который потратил всего 9.2 цента и 8.2 минуты на тех же задачах!
Что ж за чудо такое, эта ваша ToolOrchestra
NVIDIA выкатили ToolOrchestra — метод для обучения супер-маленьких (такие модели встанут на ваш ноутбук) моделек-оркестораторов. В отличие от текущего подхода, эти модели обучают через RL (обучение с подкреплением) специально на вызов тулов и других моделей. При этом главными критериями для модели становятся (эти награды были зашиты в процесс обучения модели):
- точность выполнения задачи юзера
- эффективность: минимизация траты токенов и времени
- следование предпочтениям юзера (если юзер сообщал предпочтение, например, чтобы задача решалась без выхода интернет — то использование тулы для поиска в интернете считалось ошибкой)
Таким образом обучили Orchestrator-8B
Малыш оказался настолько мощен, что перебил GPT-5 (в роли оркестратора с промптом по старой схеме) в трех SOTA бенчмарках:
- Humanity’s Last Exam (HLE) — один из сложнейших бенчей для оценки AGI (Artificial General Intelligence)
- FRAMES (Factuality, Retrieval, And reasoning MEasurement Set) — замеряет качество RAG систем
- 𝜏^2 — бенч специально для оценки использования тулов агентами.
Отдельно — забавная ирония👌
Проблема, что бесконечно скейлить модели в размерах дорого и неэффективно — очевидная для рынка уже пару лет. Про это постоянно говорит Илья Суцкевер, в том числе в последнем своем интервью (рекомендую к просмотру). Но решением этой проблемы в итоге озаботился ни кто иной, как компания, которая стала самой дорогой в мире именно БЛАГОДАРЯ постоянной гонке скейлинга моделей💰
Куда это все идет?
Возможно, нас ждет эпоха все большей специализации моделей со специализированными оркестраторами, когда нам нужно будет выполнить задачу по-настоящему качественно. А большие LLM останутся выполнять роль всезнающего и всеумеющего товарища в повседневной жизни. Как думаете?
З.Ы. для тех, кто воспринимает на слух лучше — для вас сгенерирована видео презентация в стиле каваи (как всегда, по тексту все четко, а визуал — это кек😁 )
Заместители
NVIDIA придумала новый метод обучения моделей-оркестраторов, которые эффективно вызывают тулзы и LLM для решения любых задач. Метод окзался настолько крут, что на бнчмарках типа Humanity’s Last Exam (HLE) — обогнал GPT-5 (замеряли раньше выхода Gemini 3 и GPT-5.1).
Как сейчас
Сейчас стандартный подход — обучить жирнющую LLM, типа GPT-5 (между прочим на несколько триллинов параметров). Дальше на ее базе делается мультиагентная система. В такой системе основную роль играет жирная LLM с ризонингом и тулы. Модель-менеджер получает просто системный промпт, мол "ты менеджер, вот тулы, вот другие LLM-специалисты, выполняйте задачи от юзера".
В целом, такая система справлялась с задачей, но делала это крайне неэффективо. Например GPT-5 в среднем на задачку из теста авторов статьи тратила 17.8 центов и 13.6 минут. Вроде неплохо..., но это пока не сравили с новым Orchestrator, который потратил всего 9.2 цента и 8.2 минуты на тех же задачах!
Что ж за чудо такое, эта ваша ToolOrchestra
NVIDIA выкатили ToolOrchestra — метод для обучения супер-маленьких (такие модели встанут на ваш ноутбук) моделек-оркестораторов. В отличие от текущего подхода, эти модели обучают через RL (обучение с подкреплением) специально на вызов тулов и других моделей. При этом главными критериями для модели становятся (эти награды были зашиты в процесс обучения модели):
- точность выполнения задачи юзера
- эффективность: минимизация траты токенов и времени
- следование предпочтениям юзера (если юзер сообщал предпочтение, например, чтобы задача решалась без выхода интернет — то использование тулы для поиска в интернете считалось ошибкой)
Таким образом обучили Orchestrator-8B
Малыш оказался настолько мощен, что перебил GPT-5 (в роли оркестратора с промптом по старой схеме) в трех SOTA бенчмарках:
- Humanity’s Last Exam (HLE) — один из сложнейших бенчей для оценки AGI (Artificial General Intelligence)
- FRAMES (Factuality, Retrieval, And reasoning MEasurement Set) — замеряет качество RAG систем
- 𝜏^2 — бенч специально для оценки использования тулов агентами.
Отдельно — забавная ирония
Проблема, что бесконечно скейлить модели в размерах дорого и неэффективно — очевидная для рынка уже пару лет. Про это постоянно говорит Илья Суцкевер, в том числе в последнем своем интервью (рекомендую к просмотру). Но решением этой проблемы в итоге озаботился ни кто иной, как компания, которая стала самой дорогой в мире именно БЛАГОДАРЯ постоянной гонке скейлинга моделей
Куда это все идет?
Возможно, нас ждет эпоха все большей специализации моделей со специализированными оркестраторами, когда нам нужно будет выполнить задачу по-настоящему качественно. А большие LLM останутся выполнять роль всезнающего и всеумеющего товарища в повседневной жизни. Как думаете?
З.Ы. для тех, кто воспринимает на слух лучше — для вас сгенерирована видео презентация в стиле каваи (как всегда, по тексту все четко, а визуал — это кек
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥10❤4 1 1 1
Perplexity теперь помнит всё, независимо от выбора модели ИИ
Долгосрочная кросс-чатовая память подъехала в Perplexity. Функция не новая для того же ChatGPT. Но в Perplexity она заиграла новыми красками.
Все потому что в Perplexity можно выбирать разные модели для каждого нового чата: GPT-5.1, Claude Sonnet 4.5, Grok 4.1, Gemini 3 Pro и тд. И раньше, соответсвенно, когда вы переключали модель и чат — вас приветсвовал девственно чистый ИИ разум, который не знал, что вы обсуждали с другими модельками внутри Perplexity в соседних чатах.
Теперь же весь Perplexity пронизан единой памятью и все ответы будут это учитывать. Память будет постоянно пополняться по мере накопления запросов, которые вы делаете через Perplexity.
Память по умолчанию не работает в режиме инкогнито. Можно в целом эту функцию отключить, если вы за приватность. Хотя обещают, что данные храняться в зашифрованном виде.
Мой экспириенс
Comet — мой дефолтный браузер (напомню, это бесплатный шикарный браузер от Perplexity, на базе Perplexity). С памятью стало гораздо юзабельнее. В базовом поиске не очень что-то поменялось. Но теперь иногда можно делать "шорткаты" и просто писать "посоветуй мне Х" вместо развернутого описания, на что опираться при формировании совета. Ответ получается действительно интересный и в тему (смотрите скриншотик).
В целом, опыт схожий с ChatGPT. Но я понял, что, такая память — это для меня еще один серьезный аргумент в пользу полного перехода на Perplexity. Откровенно говоря, в ГПТ я захожу все реже. Очень удобно, когда действительно умный и персонализированный помощник сидит вместе с тобой в браузере.
А еще Perplexity таким образом строит систему удержания юзеров на платной подписке. Как известно, купить подписку Perplexity Pro на год можно за пару баксов (через официальные региональные промокоды). Но через год она кончится и юзер встанет перед выбором: либо оплатить 200 баксов за продление текущего аккаунта, либо на новый аккаунт купить новую годовую подписку за пару баксов и потерять всю память, которую он накопил за год!🙂
Заместители
Долгосрочная кросс-чатовая память подъехала в Perplexity. Функция не новая для того же ChatGPT. Но в Perplexity она заиграла новыми красками.
Все потому что в Perplexity можно выбирать разные модели для каждого нового чата: GPT-5.1, Claude Sonnet 4.5, Grok 4.1, Gemini 3 Pro и тд. И раньше, соответсвенно, когда вы переключали модель и чат — вас приветсвовал девственно чистый ИИ разум, который не знал, что вы обсуждали с другими модельками внутри Perplexity в соседних чатах.
Теперь же весь Perplexity пронизан единой памятью и все ответы будут это учитывать. Память будет постоянно пополняться по мере накопления запросов, которые вы делаете через Perplexity.
Память по умолчанию не работает в режиме инкогнито. Можно в целом эту функцию отключить, если вы за приватность. Хотя обещают, что данные храняться в зашифрованном виде.
Мой экспириенс
Comet — мой дефолтный браузер (напомню, это бесплатный шикарный браузер от Perplexity, на базе Perplexity). С памятью стало гораздо юзабельнее. В базовом поиске не очень что-то поменялось. Но теперь иногда можно делать "шорткаты" и просто писать "посоветуй мне Х" вместо развернутого описания, на что опираться при формировании совета. Ответ получается действительно интересный и в тему (смотрите скриншотик).
В целом, опыт схожий с ChatGPT. Но я понял, что, такая память — это для меня еще один серьезный аргумент в пользу полного перехода на Perplexity. Откровенно говоря, в ГПТ я захожу все реже. Очень удобно, когда действительно умный и персонализированный помощник сидит вместе с тобой в браузере.
А еще Perplexity таким образом строит систему удержания юзеров на платной подписке. Как известно, купить подписку Perplexity Pro на год можно за пару баксов (через официальные региональные промокоды). Но через год она кончится и юзер встанет перед выбором: либо оплатить 200 баксов за продление текущего аккаунта, либо на новый аккаунт купить новую годовую подписку за пару баксов и потерять всю память, которую он накопил за год!
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍9 3 1
OpenAI попал в ловушку скейлинга
Сэм Альтман похоже слегка психанул после выхода Gemini 3 и Claude Opus 4.5, которые догнали и перегнали GPT-5.1. А потом и другие стали подтягиваться.
Согласно WSJ он сделал внутреннюю рассылку, в которой говорится о необходимости отложить все другие проекты:
- помощники по шоппингу (между прочим в этом году трафик от ИИ агентов вырос на 805% на сайты крупнейших ритейлеров США. А по всему миру ИИ агенты повлияли на онлайн покупки на сумму 14,2 млрд. долл.)
- связанные с здравоохранением
- и другие юзерские продукты.
Весь фокус возвращается на доработку самих моделей! Скорость ответа, релевантность и надежность.
Вообще в индустрии давно наклевывалось общее впечатление, что модели достигли такого масштаба, что дальнейшее их раздувание не даст существенного прироста при существенных затратах.
Но релиз Gemini 3 Pro и Nano Banana Pro не просто перебил GPT-5.1 по бенчмаркам, но и показал, что модели могут ощутимо лучше перформить на реальных задачах. Или… это субъективное впечатление юзеров? Это не важно — ведь в конечном итоге именно за него и идет борьба, а не за бенчмарки. И новая Gemini привлекла существенную толпу юзеров.
Пока толстый сохнет, худой сдохнет
Кажется, что дядя Сэм попал в патовую ситуацию. С одной стороны — GPT-5 (и потом GPT-5.1) позиционировали как топовую прорывную модель. А она устарела за пару месяцев. Как Сэму теперь продавать инвесторам величие OpenAI? Прямо сейчас инвестиции — это самый важный источник жизни компании.
С другой стороны — очевидно, что компании нужно срочно организовывать более прогнозируемый и стабильный источник дохода. То есть продавать услуги в B2C и B2B. А для этого нужно вкладываться в создание тех самых продуктов, а не улучшение моделей.
У Гугла при этом такой проблемы нет — у них доходы делает сдача мощностей в аренду и реклама. Они в этой гонке могут просто выдавить OpenAI массой.
И ещё раз забавно, что на фоне всего этого именно NVIDIA озаботилась решением проблемы неэффективности использования толстых моделей. О чем я писал тут.
Заместители
Сэм Альтман похоже слегка психанул после выхода Gemini 3 и Claude Opus 4.5, которые догнали и перегнали GPT-5.1. А потом и другие стали подтягиваться.
Согласно WSJ он сделал внутреннюю рассылку, в которой говорится о необходимости отложить все другие проекты:
- помощники по шоппингу (между прочим в этом году трафик от ИИ агентов вырос на 805% на сайты крупнейших ритейлеров США. А по всему миру ИИ агенты повлияли на онлайн покупки на сумму 14,2 млрд. долл.)
- связанные с здравоохранением
- и другие юзерские продукты.
Весь фокус возвращается на доработку самих моделей! Скорость ответа, релевантность и надежность.
Вообще в индустрии давно наклевывалось общее впечатление, что модели достигли такого масштаба, что дальнейшее их раздувание не даст существенного прироста при существенных затратах.
Но релиз Gemini 3 Pro и Nano Banana Pro не просто перебил GPT-5.1 по бенчмаркам, но и показал, что модели могут ощутимо лучше перформить на реальных задачах. Или… это субъективное впечатление юзеров? Это не важно — ведь в конечном итоге именно за него и идет борьба, а не за бенчмарки. И новая Gemini привлекла существенную толпу юзеров.
Пока толстый сохнет, худой сдохнет
Кажется, что дядя Сэм попал в патовую ситуацию. С одной стороны — GPT-5 (и потом GPT-5.1) позиционировали как топовую прорывную модель. А она устарела за пару месяцев. Как Сэму теперь продавать инвесторам величие OpenAI? Прямо сейчас инвестиции — это самый важный источник жизни компании.
С другой стороны — очевидно, что компании нужно срочно организовывать более прогнозируемый и стабильный источник дохода. То есть продавать услуги в B2C и B2B. А для этого нужно вкладываться в создание тех самых продуктов, а не улучшение моделей.
У Гугла при этом такой проблемы нет — у них доходы делает сдача мощностей в аренду и реклама. Они в этой гонке могут просто выдавить OpenAI массой.
И ещё раз забавно, что на фоне всего этого именно NVIDIA озаботилась решением проблемы неэффективности использования толстых моделей. О чем я писал тут.
Заместители
The Verge
OpenAI declares ‘code red’ as Google catches up in AI race
Google’s own ‘code red’ response to ChatGPT has started paying off.
🔥5 5❤2 2
Marble от World Labs: 3D мир из одного промпта
World Labs в ноябре выпустила Marble — модель для генерации 3D миров, а вместе с ней 3D редактор со встроенными AI функциями. Буквально за несколько минут из 1 промпта модель генерирует мир, по которому можно перемещаться как по игре.
В отличие от других решений, типа Genie 3 от Google (и в меньшей степени стартапов Odyssey и Decart), эта модель генерит именно статичные миры.
Конкуренты же, по сути, налету генерят видеоряд, а не миры. Genie 3 при этом запоминает, что уже сгенерено и поддерживает консистентность видео, имитируя передвижение по миру.
Помимо самой генерации мира, World Labs выпустили редактор Chisel, который может редактировать созданный мир также по промпту (доступно только в платной версии).
🍵 Мнение
Я попробовал создать рабочее пространство: офис на скале с видом на океан. Сгенерил красивое изображение прведрительно в Nano Banana Pro и закинул в Marble. Как получилось — смотрите на видео.
Сейчас что Marble, что конкуренты — на практике достаточно бесполезны. Качество текстур и самой генерации в Marble пока далеко от HD. А в Genie 3 сильно ограничено время "консистентности мира".
Но это мощные заделы на будущее, где каждый сможет создавать свою реальность просто описав ее. А Цукерберг выдаст нам очки, чтобы погрузиться в эту реальность. Помимо этого, такие миры открывают для AI дорогу к простому и дешевому обучению реальному миру, 3D ориентированию и физике в симуляции.
Ну что, первому игроку приготовиться...
Заместители
World Labs в ноябре выпустила Marble — модель для генерации 3D миров, а вместе с ней 3D редактор со встроенными AI функциями. Буквально за несколько минут из 1 промпта модель генерирует мир, по которому можно перемещаться как по игре.
В отличие от других решений, типа Genie 3 от Google (и в меньшей степени стартапов Odyssey и Decart), эта модель генерит именно статичные миры.
Конкуренты же, по сути, налету генерят видеоряд, а не миры. Genie 3 при этом запоминает, что уже сгенерено и поддерживает консистентность видео, имитируя передвижение по миру.
Помимо самой генерации мира, World Labs выпустили редактор Chisel, который может редактировать созданный мир также по промпту (доступно только в платной версии).
Я попробовал создать рабочее пространство: офис на скале с видом на океан. Сгенерил красивое изображение прведрительно в Nano Banana Pro и закинул в Marble. Как получилось — смотрите на видео.
Сейчас что Marble, что конкуренты — на практике достаточно бесполезны. Качество текстур и самой генерации в Marble пока далеко от HD. А в Genie 3 сильно ограничено время "консистентности мира".
Но это мощные заделы на будущее, где каждый сможет создавать свою реальность просто описав ее. А Цукерберг выдаст нам очки, чтобы погрузиться в эту реальность. Помимо этого, такие миры открывают для AI дорогу к простому и дешевому обучению реальному миру, 3D ориентированию и физике в симуляции.
Ну что, первому игроку приготовиться...
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤6🔥5 2 2
Ура! Нас целая 1000 🎉
Я стартанул этот канал всего полгода назад. К этому моменту тема AI уже летела на безумной скорости вперед, а тема AI агентов набирала обороты каждый день. При этом я понял, что большинство просто не поспевает даже осознать:
- а что вообще происходит?
- где хайп, а где правда?
- этот ваш ИИ как вообще в жизни то применить?
Самое забавное, что даже в кругу AI-спецов, трудящихся в самой гуще событий мира AI, было такое же чувство! И, честно говоря, это чувство остается и по сей день. Для меня это чувство стало драйвером в развитии "Заместителей"!
Я стал формировать привычку каждый день разбираться в чем-то новом, рассуждать и записывать мысли. Сначала только про AI агентов, а со временем я выработал принципы и ценности, согласно которым я тут вещаю. Хочу ими поделиться с вами:
- я пишу о том, что в мире AI зажигает глаза и заставляет с оптимизмом смотреть в будущее
- я стараюсь как можно больше тестировать своими руками, так как это самый верный способ проверить, что может приносить реальную практическую пользу уже сегодня
- при этом рассказываю только то, что, на мой взгляд, действительно важно для мира AI и всех к нему причастных. Отсеивая бесконечный инфошум.
И вот спустя полгода нас целая тыща — людей, которые заряжаются от самых современных технологий, от постоянного движения вперед и развития! Людей, кто стремится быть на самом острие в мире AI!
Спасибо вам за то, что читаете, лайкаете, репостите и комментите! Меня это мотивирует писать больше, придумывать новые форматы и искать больше полезных и крутых AI агентов, сервисов и технологий😎
Заместители
Я стартанул этот канал всего полгода назад. К этому моменту тема AI уже летела на безумной скорости вперед, а тема AI агентов набирала обороты каждый день. При этом я понял, что большинство просто не поспевает даже осознать:
- а что вообще происходит?
- где хайп, а где правда?
- этот ваш ИИ как вообще в жизни то применить?
Самое забавное, что даже в кругу AI-спецов, трудящихся в самой гуще событий мира AI, было такое же чувство! И, честно говоря, это чувство остается и по сей день. Для меня это чувство стало драйвером в развитии "Заместителей"!
Я стал формировать привычку каждый день разбираться в чем-то новом, рассуждать и записывать мысли. Сначала только про AI агентов, а со временем я выработал принципы и ценности, согласно которым я тут вещаю. Хочу ими поделиться с вами:
- я пишу о том, что в мире AI зажигает глаза и заставляет с оптимизмом смотреть в будущее
- я стараюсь как можно больше тестировать своими руками, так как это самый верный способ проверить, что может приносить реальную практическую пользу уже сегодня
- при этом рассказываю только то, что, на мой взгляд, действительно важно для мира AI и всех к нему причастных. Отсеивая бесконечный инфошум.
И вот спустя полгода нас целая тыща — людей, которые заряжаются от самых современных технологий, от постоянного движения вперед и развития! Людей, кто стремится быть на самом острие в мире AI!
Спасибо вам за то, что читаете, лайкаете, репостите и комментите! Меня это мотивирует писать больше, придумывать новые форматы и искать больше полезных и крутых AI агентов, сервисов и технологий
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
5❤48🔥17 16👍12
Вайб-ЛЛМинг! Hugging Face сделали AI агента, который сам обучает LLM модели
Теперь хватит минимальных навыков работы с кодом, чтобы обучить свою LLM.
Работает все чисто на промптах с минимальной подготовкой среды:
- Вы даёте агенту задачу дообучить модель на датасете: можно указать свой датасет или позволить ему найти подходящий самому.
Пример от HF. Вот таким промптом дается задача агенту:
- Агент подбирает железо для обучения исходя из размера модели и проверяет датасет.
В данном примере он подберет t4-small (наименьшая достаточная конфигурация, чтобы дообучить эту модель).
- Обучение запускается на облачных GPU от Hugging Face. Перед запуском агент покажет конфигурацию (GPU, ожидаемое время обучения, стоимость, репозиторий где будет сохранена обученная модель).
- Агент стартует обучение и делится дашбордом с прогрессом в реальном времени через Trackio.
- Чекпоинты отправляются в Hub (репозиторий моделей).
Как они так красиво все автоматизировали?
Hugging Face на текущий момент, пожалуй, крупнейшая международная платформа, которая предоставляет все сразу в одном месте:
- железо для обучение
- удобная платформа и библиотеки
- самая большая библиотека опенсорс моделей
- самая большая библиотека опенсорс датасетов.
И на этот фундамент они добавили Hugging Face Skills — суть Agent Context Protocol (ACP). На практике эти "скиллы" — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ-агентом под конкретный кейс. В каждой такой папке есть файл “SKILL.md” с YAML-фронтматтером (имя и описание) и далее текст с инструкциями, которым кодовый агент следует, пока этот скилл активен. И вот сделали такой скилл для обучения LLM моделей на платформе и мощностях HF.
На текущий момент Hugging Face скиллы совместимы с Claude Code, OpenAI Codex, Gemini CLI. И продолжают расширять совместимость.
😎 Почему это важно?
Проблема LLM моделей в том, что они либо знают "всё", но при этом слишком жирные и дорогие для on-premise. Либо они маленькие и не всегда подходят для узко специфических задач.
Решается эта проблема дообучением/файнтюнингом маленьких LLM-ок на конкретных датасетах под конкретные задачи.
И вот раньше делать это могли только спецы с глубоким пониманием матчасти и навыками в AI. Но теперь Hugging Face сильно ослабляет эти ограничения!
Теперь хватит минимальных навыков, которые можно освоить за вечер! Единственный нюанс: конкретно этот агент работает только с платным аккаунтом HF (тк использует платный запуск джобов). Но это не важно, тк это все равно существенно дешевле человеко-часов любого AI разработчика!
No code будущее все ближе👀
Заместители
Теперь хватит минимальных навыков работы с кодом, чтобы обучить свою LLM.
Работает все чисто на промптах с минимальной подготовкой среды:
- Вы даёте агенту задачу дообучить модель на датасете: можно указать свой датасет или позволить ему найти подходящий самому.
Пример от HF. Вот таким промптом дается задача агенту:
Fine-tune Qwen3-0.6B on the open-r1/codeforces-cots dataset for instruction following.
- Агент подбирает железо для обучения исходя из размера модели и проверяет датасет.
В данном примере он подберет t4-small (наименьшая достаточная конфигурация, чтобы дообучить эту модель).
- Обучение запускается на облачных GPU от Hugging Face. Перед запуском агент покажет конфигурацию (GPU, ожидаемое время обучения, стоимость, репозиторий где будет сохранена обученная модель).
- Агент стартует обучение и делится дашбордом с прогрессом в реальном времени через Trackio.
- Чекпоинты отправляются в Hub (репозиторий моделей).
Как они так красиво все автоматизировали?
Hugging Face на текущий момент, пожалуй, крупнейшая международная платформа, которая предоставляет все сразу в одном месте:
- железо для обучение
- удобная платформа и библиотеки
- самая большая библиотека опенсорс моделей
- самая большая библиотека опенсорс датасетов.
И на этот фундамент они добавили Hugging Face Skills — суть Agent Context Protocol (ACP). На практике эти "скиллы" — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ-агентом под конкретный кейс. В каждой такой папке есть файл “SKILL.md” с YAML-фронтматтером (имя и описание) и далее текст с инструкциями, которым кодовый агент следует, пока этот скилл активен. И вот сделали такой скилл для обучения LLM моделей на платформе и мощностях HF.
На текущий момент Hugging Face скиллы совместимы с Claude Code, OpenAI Codex, Gemini CLI. И продолжают расширять совместимость.
Проблема LLM моделей в том, что они либо знают "всё", но при этом слишком жирные и дорогие для on-premise. Либо они маленькие и не всегда подходят для узко специфических задач.
Решается эта проблема дообучением/файнтюнингом маленьких LLM-ок на конкретных датасетах под конкретные задачи.
И вот раньше делать это могли только спецы с глубоким пониманием матчасти и навыками в AI. Но теперь Hugging Face сильно ослабляет эти ограничения!
Теперь хватит минимальных навыков, которые можно освоить за вечер! Единственный нюанс: конкретно этот агент работает только с платным аккаунтом HF (тк использует платный запуск джобов). Но это не важно, тк это все равно существенно дешевле человеко-часов любого AI разработчика!
No code будущее все ближе
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥17 3❤2 2
The state of enterprise AI: что узнали в OpenAI про 1 миллион своих корпоративных клиентов
OpenAI опубликовал новый отчет об использовании их моделей в Enterprise секторе. Он основан на:
- данных, агрегированных по энтерпрайз юзерам ChatGPT (более 1 миллиона компаний)
- опросе 9000 сотрудников из 100 компаний, проведенном OpenAI
Самые яркие результаты:
1. Энтерпрайз использование растет. Кол-во сообщений ЧатуГПТ увеличилось в 8 раз за прошедший год. А потребление токенов в 320 раз! Причина — активное использование ризонинга.
2. Энтерпрайз юзеры оценивают экономию времени в 40-60 минут в день. А это, кстати, 1/8 рабочего времени — проведите мысленный эксперимент, посчитайте: (ваша ЗП)/8 = столько денег экономит компания, если вы используете LLM для работы. Тут конечно, предполагается, что вы как добросовестный трудяга работаете над другими задачами в освободившееся время. Стоимость подписки в этом уравнении ничтожна.
3. Энтерпрайз юзеры рапортуют, что ChatGPT приносит реальную ценность: программисты быстрее дебажат и пишут код, маркетологи быстрее реализуют маркетинговые кампании, HR-ы видят увеличение вовлеченности сотрудников. Тут, правда, на мой взгляд все достижения весьма зыбкие🍵 Но, понятно, что все тестируют новинку в безрисковых нишах, поэтому и эффект пока смазанный.
4. Образуется разрыв между power users (95 персентиль наиболее быстро внедряющих ChatGPT в процессы компаний) и средними юзерами. При этом OpenAI утверждает, что есть положительная зависимость между затраченными токенами и сэкономленным временем.
5. Юзеры активно используют продвинутые инструменты: GPTs (простые интеграции с корп. сервисами прямо в интерфейс ChatGPT) и Projects (папка чатов с настроенным системным промптом под конкретную задачу).
6. Самые быстро растущие секторы по кол-ву юзеров:
6.1 Технологический сектор (рост в 11 раз г/г)
6.2 Здравоохранение (рост в 8 раз г/г)
6.3 Производственный сектор (рост в 7 раз г/г)
7. Кол-во юзеров в Австарлии, Бразилии, Нидерландах и Франции (Mistral где-то оплакивает утекающий домашний рынок) растет быстрее всего. Догадайтесь, про какие регионы информации просто нет — но я думаю, что нас можно вписать в статистику Нидерландов😁
Какие выводы?
Тайминг, в котором вышел этот отчет, наводит на мысль, что главная роль этого отчета — еще один инструмент убеждения инвесторов OpenAI, что все хорошо😅 Отчет как бы кричит: "вон как много времени экономят, вон как много токенов тратят, вон как всем полезно!". Совсем не по-научному, что не подсветили какие-то слабые места и риски внедрения LLM, например безопасность. А вот для рекламного буклета такой нарратив — прямо то, что надо.
В остальном суть, на самом деле, полностью созвучна с другими топовыми отчетами, которые я описывал тут.
Маркетинг-маркетингом, но AI действительно активно прописывается в рабочих процессах. Потихоньку. Ощутимых финансовых результатов добиваются в основном в автоматизации взаимодействия с клиентами и там, где можно автоматизировать низкоквалифицированный рутинный труд. Остальные отчитываются абстрактными успехами вовлеченности, потраченных токенов и тд.
Если вынести из всего этого главную мысль — она тоже остается прежней. Время "ознакомления" с ИИ прошло. Это реальный инструмент автоматизации. И каждой компании нужно его учиться использовать. Просто хотя бы купите сотрудникам подписку на любую LLM — это quick win. Особенно в тяжких финансовых условиях современного мира — это почти бесплатно +1/8 рабочей силы для компании!
Заместители
OpenAI опубликовал новый отчет об использовании их моделей в Enterprise секторе. Он основан на:
- данных, агрегированных по энтерпрайз юзерам ChatGPT (более 1 миллиона компаний)
- опросе 9000 сотрудников из 100 компаний, проведенном OpenAI
Самые яркие результаты:
1. Энтерпрайз использование растет. Кол-во сообщений ЧатуГПТ увеличилось в 8 раз за прошедший год. А потребление токенов в 320 раз! Причина — активное использование ризонинга.
2. Энтерпрайз юзеры оценивают экономию времени в 40-60 минут в день. А это, кстати, 1/8 рабочего времени — проведите мысленный эксперимент, посчитайте: (ваша ЗП)/8 = столько денег экономит компания, если вы используете LLM для работы. Тут конечно, предполагается, что вы как добросовестный трудяга работаете над другими задачами в освободившееся время. Стоимость подписки в этом уравнении ничтожна.
3. Энтерпрайз юзеры рапортуют, что ChatGPT приносит реальную ценность: программисты быстрее дебажат и пишут код, маркетологи быстрее реализуют маркетинговые кампании, HR-ы видят увеличение вовлеченности сотрудников. Тут, правда, на мой взгляд все достижения весьма зыбкие
4. Образуется разрыв между power users (95 персентиль наиболее быстро внедряющих ChatGPT в процессы компаний) и средними юзерами. При этом OpenAI утверждает, что есть положительная зависимость между затраченными токенами и сэкономленным временем.
5. Юзеры активно используют продвинутые инструменты: GPTs (простые интеграции с корп. сервисами прямо в интерфейс ChatGPT) и Projects (папка чатов с настроенным системным промптом под конкретную задачу).
6. Самые быстро растущие секторы по кол-ву юзеров:
6.1 Технологический сектор (рост в 11 раз г/г)
6.2 Здравоохранение (рост в 8 раз г/г)
6.3 Производственный сектор (рост в 7 раз г/г)
7. Кол-во юзеров в Австарлии, Бразилии, Нидерландах и Франции (Mistral где-то оплакивает утекающий домашний рынок) растет быстрее всего. Догадайтесь, про какие регионы информации просто нет — но я думаю, что нас можно вписать в статистику Нидерландов
Какие выводы?
Тайминг, в котором вышел этот отчет, наводит на мысль, что главная роль этого отчета — еще один инструмент убеждения инвесторов OpenAI, что все хорошо
В остальном суть, на самом деле, полностью созвучна с другими топовыми отчетами, которые я описывал тут.
Маркетинг-маркетингом, но AI действительно активно прописывается в рабочих процессах. Потихоньку. Ощутимых финансовых результатов добиваются в основном в автоматизации взаимодействия с клиентами и там, где можно автоматизировать низкоквалифицированный рутинный труд. Остальные отчитываются абстрактными успехами вовлеченности, потраченных токенов и тд.
Если вынести из всего этого главную мысль — она тоже остается прежней. Время "ознакомления" с ИИ прошло. Это реальный инструмент автоматизации. И каждой компании нужно его учиться использовать. Просто хотя бы купите сотрудникам подписку на любую LLM — это quick win. Особенно в тяжких финансовых условиях современного мира — это почти бесплатно +1/8 рабочей силы для компании!
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥2 1 1
Учимся делать мультиагентную систему за 1 вечер
Продолжаем погружаться в мир AI агентов😎
Это продолжение курса по созданию агентов. Серия 1.3. (нумерацию упростил). Создаем мультиагентную систему на ADK.
Теория.
Мультиагентная система — это система состоящая из нескольких агентов, и имеющая следующие характеристики:
- Агенты в системе автономны. Каждый из них в своей зоне ответсвенности может принимать независимые решения.
- Агенты коммуницируют с помощью текста, символов, данных и тд., чтобы координировать свои усилия.
- Система имеет правила взаимодействия агентов, чтобы избегать конфликтов.
Я также рекомендую почитать пост про лучшие практики по созданию мультиагентной системы от Anthropic.
И также рекомендую освежить (или прочитать если пропустили) пост про то, как делать нельзя, чтобы не слить деньги на ветер при создании мультиагентной системы.
Есть три основных архитектуры мультиагентной системы:
1. Централизованная — есть агент-координатор, который разбивает запрос юзера на подзадачи и отдает другим агентам-исполнителям.
2. Децентрализованная — агенты действуют независимо и общаются между собой. В таком случае необходимо четко определять правила взаимодействия, чтобы все это не вылилось в хаос.
3. Гибридная — смесь первых двух в разных пропорциях и формах. Например, несколько агентов-координаторов между собой взаимодействуют децентрализованно. Но у каждого есть своя "команда", которую они координируют.
Теперь прыгаем в код.
Практика.
По аналогии с ноутбуком из прошлой серии — копируем себе новый Kaggle ноутбук. И галочку напротив GOOGLE_API_KEY в Secretes нужно снова включить.
Секция 1 ноутбука просто сетапит его по аналогии с первой серией.
В секции 2 начинается мякотка. Сначала мы сделаем централизованную систему из двух агентов: рисерчера (он будет гуглить в интернете) и суммаризатора.
1. Создаем агента рисерчера. Процесс идентичен тому, как мы создавали агента в предыдущей серии. Но есть нюанс. Теперь мы прописываем "output_key". Этот ключ поможет нам дальше найти результаты работы этого агента другим агентам в рамках сессии взаимодействия.
2. Дальше создается агент суммаризатор. Точно также, только с другой инструкцией.
3. Далее нам нужен агент-координатор, чтобы управлять двумя этими красавцами. Создаем опять агента. Но в инструкции мы прописываем ему пошаговый процесс с вызовом других агентов: вызови рисерчера, дальше вызови суммаризатора, верни саммари от него юзеру". И в тулы этого агента мы ставим других агентов вот таким образом:
Обратите внимание, что координатор через такое указание тулов получит доступ к имени и описанию, которые мы написали для каждого агента в пунктах 1 и 2. Поэтому от качества нейминга и описания напрямую зависит, как хорошо координатор будет их вызывать. Не пожалейте времени, чтобы качественно тут все описать.
4. Запускаем любой запрос — получаем ответ от нашего координатора.
Ура, вы только что сделали простейшую мультиагентную систему!💪
Дальше уже для самостоятельного изучения прокликайте ноутбук до конца.
Секция 3 расскажет о Sequential Workflow — иногда вы не хотите полагаться на ризонинг агента-координатора. Вам нужно просто последовательно вызвать ряд субагентов (это называется Pipeline). В ADK это решается через
Секция 4 расскажет про Parallel Workflows — когда агентам нет смысла делать работу последовательно, вы можете запускать их работать одновременно, а в конце суммаризовать их результаты. Для этого в ADK есть
Секция 5 расскажет про Loop Workflows — используется, когда нужно добиться вполне конкретного результата. И до его достижения останавливать работу агентов вы не хотите. Здесь будет двухуровневая обертка через
LoopAgent, который сам упакован в
Хороший брейнтизер🎮
That's all guys! Stay tuned — в следующий разберем детальнее тулы и MCP (уж сколько раз он вам точно уши мозолил!)
Заместители
Продолжаем погружаться в мир AI агентов
Это продолжение курса по созданию агентов. Серия 1.3. (нумерацию упростил). Создаем мультиагентную систему на ADK.
Теория.
Мультиагентная система — это система состоящая из нескольких агентов, и имеющая следующие характеристики:
- Агенты в системе автономны. Каждый из них в своей зоне ответсвенности может принимать независимые решения.
- Агенты коммуницируют с помощью текста, символов, данных и тд., чтобы координировать свои усилия.
- Система имеет правила взаимодействия агентов, чтобы избегать конфликтов.
Я также рекомендую почитать пост про лучшие практики по созданию мультиагентной системы от Anthropic.
И также рекомендую освежить (или прочитать если пропустили) пост про то, как делать нельзя, чтобы не слить деньги на ветер при создании мультиагентной системы.
Есть три основных архитектуры мультиагентной системы:
1. Централизованная — есть агент-координатор, который разбивает запрос юзера на подзадачи и отдает другим агентам-исполнителям.
2. Децентрализованная — агенты действуют независимо и общаются между собой. В таком случае необходимо четко определять правила взаимодействия, чтобы все это не вылилось в хаос.
3. Гибридная — смесь первых двух в разных пропорциях и формах. Например, несколько агентов-координаторов между собой взаимодействуют децентрализованно. Но у каждого есть своя "команда", которую они координируют.
Теперь прыгаем в код.
Практика.
По аналогии с ноутбуком из прошлой серии — копируем себе новый Kaggle ноутбук. И галочку напротив GOOGLE_API_KEY в Secretes нужно снова включить.
Секция 1 ноутбука просто сетапит его по аналогии с первой серией.
В секции 2 начинается мякотка. Сначала мы сделаем централизованную систему из двух агентов: рисерчера (он будет гуглить в интернете) и суммаризатора.
1. Создаем агента рисерчера. Процесс идентичен тому, как мы создавали агента в предыдущей серии. Но есть нюанс. Теперь мы прописываем "output_key". Этот ключ поможет нам дальше найти результаты работы этого агента другим агентам в рамках сессии взаимодействия.
2. Дальше создается агент суммаризатор. Точно также, только с другой инструкцией.
3. Далее нам нужен агент-координатор, чтобы управлять двумя этими красавцами. Создаем опять агента. Но в инструкции мы прописываем ему пошаговый процесс с вызовом других агентов: вызови рисерчера, дальше вызови суммаризатора, верни саммари от него юзеру". И в тулы этого агента мы ставим других агентов вот таким образом:
tools=[AgentTool(research_agent), AgentTool(summarizer_agent)]
Обратите внимание, что координатор через такое указание тулов получит доступ к имени и описанию, которые мы написали для каждого агента в пунктах 1 и 2. Поэтому от качества нейминга и описания напрямую зависит, как хорошо координатор будет их вызывать. Не пожалейте времени, чтобы качественно тут все описать.
4. Запускаем любой запрос — получаем ответ от нашего координатора.
Ура, вы только что сделали простейшую мультиагентную систему!
Дальше уже для самостоятельного изучения прокликайте ноутбук до конца.
Секция 3 расскажет о Sequential Workflow — иногда вы не хотите полагаться на ризонинг агента-координатора. Вам нужно просто последовательно вызвать ряд субагентов (это называется Pipeline). В ADK это решается через
SequentialAgent
Секция 4 расскажет про Parallel Workflows — когда агентам нет смысла делать работу последовательно, вы можете запускать их работать одновременно, а в конце суммаризовать их результаты. Для этого в ADK есть
ParallelAgent
Секция 5 расскажет про Loop Workflows — используется, когда нужно добиться вполне конкретного результата. И до его достижения останавливать работу агентов вы не хотите. Здесь будет двухуровневая обертка через
LoopAgent, который сам упакован в
SequentialAgent
Хороший брейнтизер
That's all guys! Stay tuned — в следующий разберем детальнее тулы и MCP (уж сколько раз он вам точно уши мозолил!)
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7 4❤3
OpenAI запускает собственные курсы с сертификатом по AI
Курс AI Foundations сначала обкатают в закрытом режиме с рядом американских университетов и компаний в течение пары месяцев. Потом он будет раскрыт для более широкой аудитории. Он будет встроен прямо в ChatGPT. По результатам прохождения курса будет выдан сертификат. Деталей о длине и содержании курса пока нет.
Одновременно запустили курс по применению ChatGPT для школьных учителей. Он бесплатный и уже доступен на Coursera (в РФ работает с ВПНом). На его освоение понадобиться всего 4 часа и не требуются никакие предварительные знания. Заточен он под юзеров ChatGPT, а не ИИ разработчиков. Цель — научить их выдавливать максимум из ГПТшки для преподавательских целей.
Инициативы приятные. Грамотно промптить LLM — тоже навык (хоть и достаточно простой). На мой взгляд этим навыком в 2026 должен обладать вообще каждый.
Особенный фокус на учителей тоже радует — ведь они наставники для подрастающего поколения, которое растет с нейронкой в руках. И этот курс нужен не столько для того, чтобы учителя учили детей юзать чатГПТ, сколько для того, чтобы они оставались авторитетом, были в курсе всех нейроуловок и хитростей, которые дети могут выкинуть, и не тянули AI-native поколение мертвым грузом в каменный век.
З.Ы. Конечно, понятно, что это еще один коммерческий ход по захвату рынка, обхаживанию своих подрастающих юзеров и тд. Но ведь главное как это делается — а делается через пользу. Поэтому молодцы!
Кидайте знакомым учителям на заметку☀️
Заместители
Курс AI Foundations сначала обкатают в закрытом режиме с рядом американских университетов и компаний в течение пары месяцев. Потом он будет раскрыт для более широкой аудитории. Он будет встроен прямо в ChatGPT. По результатам прохождения курса будет выдан сертификат. Деталей о длине и содержании курса пока нет.
Одновременно запустили курс по применению ChatGPT для школьных учителей. Он бесплатный и уже доступен на Coursera (в РФ работает с ВПНом). На его освоение понадобиться всего 4 часа и не требуются никакие предварительные знания. Заточен он под юзеров ChatGPT, а не ИИ разработчиков. Цель — научить их выдавливать максимум из ГПТшки для преподавательских целей.
Инициативы приятные. Грамотно промптить LLM — тоже навык (хоть и достаточно простой). На мой взгляд этим навыком в 2026 должен обладать вообще каждый.
Особенный фокус на учителей тоже радует — ведь они наставники для подрастающего поколения, которое растет с нейронкой в руках. И этот курс нужен не столько для того, чтобы учителя учили детей юзать чатГПТ, сколько для того, чтобы они оставались авторитетом, были в курсе всех нейроуловок и хитростей, которые дети могут выкинуть, и не тянули AI-native поколение мертвым грузом в каменный век.
З.Ы. Конечно, понятно, что это еще один коммерческий ход по захвату рынка, обхаживанию своих подрастающих юзеров и тд. Но ведь главное как это делается — а делается через пользу. Поэтому молодцы!
Кидайте знакомым учителям на заметку
Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥4 2 1