Заместители
1.04K subscribers
87 photos
77 videos
4 files
110 links
Цех ИИ агентов. Здесь я тестирую цифровых заместителей в разных профессиях. Если агент справляется — он остаётся в Цехе на “постоянку”. По пути обсуждаем актуальные новости про ИИ агентов простым языком.
Добро пожаловать в эру замещения.
Download Telegram
Друзья, небольшая пауза в постах связана не с тем, что в мире ИИ закончились интересные продукты и сервисы. Меня накрыло мощным гриппом — откисаю. Вернусь как только смогу 😷
Please open Telegram to view this post
VIEW IN TELEGRAM
124👍7🔥21
Модель за моделью... и AAIF

Вот так на недельку отлучился и бац бац бац… все вокруг понакидали ништяков. Лишний раз доказывает бешеный темп и остроту конкуренции, в которых живут разработчики AI. Быстренько с вами наверстаем по ключевым событиям. Но самое важно обсудим в конце — появление AAIF!

AI гонка продолжает разгон

OpenAI кутят на все 🎧

Вдогонку к новой GPT-5.2, выкатили обновленную Image1.5. Она уже достпуна всем юзерам, уверен, вы уже вкурсе и сами потыкали! Генерит она, на мой вкус примерно так же, как и Nano Banana Pro, в том числе отрисовывает инфографику на русском.

OpenAI также выкатили свой эппстор прямо в приложении ChatGPT. Обещали они это сделать еще давненько. Еще и открыли первичный прием заявок на подключение сторонних приложений, разработанных кем угодно на их SDK.

Команда дяди Сэма левой рукой допиливает топовые модели, а правой — продолжает пилить юзер экспириенс. Надолго ли их хватит в таком режиме. Похоже, у разрабов в компании сейчас сон и туалет строго по расписанию 🫣

Google тоже не дремлет

Нашумели ожидаемой Gemini 3 Flash. Во всех анонсах стыдливо спрятали тот факт, что она медленнее, чем Gemini 2.5 Flash, но флексят тем, что в некоторых задачах она не уступает полноценной Gemini 3 Pro. Как по мне — я жду Gemini 3 Flash Lite. Сегмент ультра-быстрых моделек все еще сырой и текущая версия слабовата.

А до этого выкатили обновленные модели TTS, которые встроили в приложение Google Translate. На демке выглядит пободрее, чем на практике. Правда в Google Translate мне так и недокатилось. Поэтому основываю отзыв на тестах через AI Studio. В РФ скорее всего нормально не будет доступно.

Внезапно активировался Марк

Пока Apple явно сдалась со своим Apple Intelligence, компания Цукерберга мобилизовалась. WSJ рапортует, что они работают над двумя новыми моделями:
1. Mango — новая image&video модель.
2. Avocado — новая LLM.
Фокус будет на кодинге. А также экспериментируют с world models. Посмотрим, получится ли у них залететь в большую AI гонку.

Я смотрю на всю эту кутерьму с чисто спортивным интересом. Через 10-20 лет всего несколько крупных вендоров останутся как провайдеры AGI, остальные помрут без монетизации или начнут специализироваться. Так и лопнет ИИ пузырь. Но пока мы туда движемся, мы как человечество получим множество прекрасных технологий, открытий и институтов. Например — AAIF!

ФИИА или может АИИФ — в общем, АУФ!

Не знаю, как переведут на русский. Но суть одна — две недели назад все техгиганты слились в экстазе, вместе основав Agentic AI Foundation (AAIF). Это некоммерческая организация для развития опенсорса в сфере AI агентов. В организации-участники вошли, помимо героев новостей выше, Anthropic, Amazon, Block, Microsoft, Cloudflare и внезапно Bloomberg.

Первыми "донатами" интеллектуальной собственности в организацию стали MCP протокол от Anthropic, AGENTS.md от OpenAI и goose (локальный ИИ агент) от Block. Судя по тому, что отдали — намерения у них серьезные.

Зачем и почему именно сейчас?

Стало очевидно несколько вещей:
- AI агенты пришли надолго.
- Ни одна компания не способна разработать и закрепить для всех единые стандарты и протоколы. Как минимум из конкурентных соображений другие компании будут продолжать пихать свои.
- Уже начало появляться слишком много вариантов одних и тех же по существу протоколов. Это начинает замедлять прогресс и затруднять интероперабельность между вендорами моделей.
- MCP при этом, как не имеющий существенных аналогов, показал удобство единого стандарта.

Вот посмотрев на все это, крупные ребята почесали репу да и решили мол, чо мы тут бабки теряем на эти протоколы. Давайте модели и сервисы пилить. Деньги то они приносят. А протоколы пусть пилит маленькая некоммерческая организация, нам подконтрольная. Некий договорнячок 🙂

Мы как юзеры и разрабы от этого тоже выиграем — единые стандарты позволят легко интегрировать разные агентные системы и переключаться между вендорами моделек. Поэтому инициатива добротная!

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1142
Google опять сделали это: Титан и Мираж — новый "Attention"?

В 2017 году Google опубликовали статью Attention Is All You Need — она положила начало современным LLM, построенным на трансформерах. Но, кажется, из этой технологии высосали все, что могли. Уже некоторое время ученые трудятся над изучением продвинутых механизмов внимания (именно эта штука сделала все LLM такими умными) или над его альтернативами. Зачем? Потому что "внимание" очень прожорливо на вычисления. И при большом контекстном окне оно становится очень дорогим.

💪 Titans расправил плечи

Именно эту проблему Гугл и взялся решить: создать "длинную память" у модели, но сделать ее вычислительно дешевой. Подглядели, как всегда, у человека в мозгах! Мы запоминаем ту информацию, которая вызывает у нас мощную эмоцию. А в простейшем виде — ту, что заставляет удивляться. Этой же логике последовали и в новой архитектуре "Titans", которая запоминает те факты, которые сильно отличается от остальной ожидаемой информации.

Это апгрейд и микс двух архитектур:
- старого доброго трансформера с механизмом внимания.
- SSM (State Space Models). Архитектура нашумевшая не так сильно, но стоящая внимания. В ней, по сути, заменили механизм внимания на так называемую свертку.

Модель оценивает важность токенов через метрику «удивления», замеряя насколько вероятным был каждый токен. Если токен был мало вероятным, но появился — модель сконцентрирует на нем внимание и запомнит. Еще и захватив немного контекста вокруг "удивительного" токена. Это происходит за счет встроенного механизма инерции.

Также архитектура использует адаптивное "забывание", чтобы сохранять только полезный контекст на очень длинных последовательностях

Все LLM — это лишь MIRAS

MIRAS — это фреймворк, по которому и изобрели архитектуру Titans. Этот фреймворк позволяет по-новому взглянуть на существующие архитектуры языковых моделей. Он смотрит на них как на модули ассоциативной памяти. Проще говоря любая модель — это не что иное, как некий механизм, который достает из памяти ассоциации на заданный токен.

Фреймворк раскладывает архитектуры моделей на (см приложенную картинку из статьи):
1. Архитектуру ассоциативной памяти (associative memory
architecture) — в каком виде сохраняется информация в модели.
2. Цель смещения внимания (attentional bias objective) — что именно модель учиться считать важным.
3. Шлюз удержания (retention gate) — как модель балансирует между запоминанием нового и сохранением старого.
4. Алгоритм памяти (memory learning algorithm) — собственно ключевой алгоритм запоминания, например градиентный спуск.

Что у вас на носу? - Сопля?! - Нет! Новая волна LLM 📈

Titans обошел даже такую жирную и мощную модель как GPT-4 на бенчмарке BABILong. Он специально замеряет ризонинг моделей на данных, где факты раскиданы очень далеко друг от друга. То есть модели либо нужно держать во внимании огромный контекст (что делают современные LLM), либо работать с ним очень эффективно (что Titans и делает на контексте аж 2М+ токенов, — это, кстати, больше, чем контекстное окно Gemini 3).

Новая архитектура является просто таки очевидным преимуществом, тк работа с контекстом — это один из важнейших аспектов конкуренции между моделями. А значит — ждем в следующем году массовую адаптацию нового трюка с "удивлением".

З.Ы. для тех, кто воспринимает лучше на слух — сгенерировал видосик в NotebookLM. Как обычно, визуальный треш под четкую озвучку 😈

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍72
С большим интересом залип на новый видос Александра Соколовского: интервью с Александром Машрабовым, фаундером Higgsfield.ai.

Всегда с большим интересом наблюдаю за восходящими звездами и стараюсь прислушиваться к их вижену. Higgsfield — это казалось бы еще один агргеатор Text2Image, Text2Video и подобных моделек. Но меньше чем за год компания достигла оценки в $1млрд и вышла на выручку в >$10млн в месяц, став прибыльной. То есть — это единорог, который еще и зарабатывает, а не прожигает инвестиции. Это, между прочим, супер редкое являение на рынке AI!

В чем секретный соус? — Они фокусируются на платежоспособной ЦА, на профессиональных коммерческих видео-продакшенах. Превращаясь из просто агрегатора в самый удобный инструмент для своего пользователя.

Сам Александр выделяет еще 3 ключевых преимущества Хиггсфилда:
1. Скорость итераций. Фичи релизятся почти каждый день.
2. Сильная команда в области video generation, включая продуктовыую команду, которая четко формирует вижен.
3. Накопленная экспертиза за счет большого количества итераций продукта и кол-ва генераций на их платформе.

Лишний раз убеждаюсь, что побеждают те, кто правильно определил продукт и ЦА. Те, кто продумал бизнес-модель, а не те, кто изобрел лучшую технологию.

Очень рекомендую к просмотру!

З.Ы. Не реклама, если что)

Заместители
🔥42👎11
Модели, датасеты, демки (spaces) и .... Hugging Face запустит новый репозиторий

Hugging Face — крупнейший репозиторий всего опенсорсного в мире AI. Если дата саентисту нужны датасеты или модельки — он идет в первую очередь туда, а только потом погружается в глубокий рисерч по статьям и тд. Год назад HF запустили Spaces — по сути развернутые демки моделей на мощностях самих HF.

И вот сегодня CTO HF затизерил новый тип репозитория, но пока не назвал, что это будет 👌

Кстати, первым 5 угадавшим обещал бесплатную PRO подписку на HF на 3 месяца. Можете попробовать угадать, если считаете, что за первые 312 комментов никто не отгадал 😈

Что это может быть и почему это важно?

HF создает репоизтории крайне редко и делает это, когда тренд — сама неотвратимость. Значит они уверены, что нащупали следующий большой тренд.

Очевидно, будут собирать в кучу то, что с одной стороны может в большом количестве производиться в опенсорс коммьюнити, а с другой стороны — это должно соответсвовать коммерческому вектору HF (все-таки даже они уже продают мощности на своей платформе, всем надо что-то кушать).

Это будет скорее всего что-то связанное с AI агентами. Самые популярные варианты (и на самом деле самые вероятные):
- Tools (MCP — на мой взгляд самая вероятная опция)
- Skills (по сути MD файлики с промптами, определяющими навык агента. С одной стороны — звучит мелковато, но с другой — "эффект рычага" у скиллов большой, не даром HF сами вкладывались в такие скиллы)
- репозиторий самих агентов / воркфлоу (который будет использовать и LLM из репозитория, и скиллы и тулзы. На мой взгляд звучит сложновато. Сначала как будто нужно предыдущие два пункта закрыть, чтобы перейти к самим агентам. Но вдруг возьмут нахрапом!)

А как вы думаете, что это будет? Оставляйте голос ниже или пишите свой вариант 👌

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥22
Media is too big
VIEW IN TELEGRAM
Создаем тулы для AI агентов за 1 вечер

Готовы провести вечер в приятной агентной компании? 🎹 Продолжаем курс про AI агентов. Серия 2.1. Сегодня создаем кастомные тулы и прикручиваем их агентам.

Вы наверняка уже не раз слышали про тулы, про MCP сервера, про A2A. Но что это такое на практике? Сложно ли их создавать? Разбираемся.

Теория.

Тул (инструмент от англ. "tool") — это руки и органы чувств агента. С их помощью он узнает информацию или выполняет действия. Например, юзер просит рассказать погоду. Конечно, модель не знает этого из обучения. Поэтому ей необходимо:
- узнать локацию юзера — для этого она вызовет тул "get_location"
- найти погоду в этой локации — модель вызовет "get_weather(location)", куда в качестве аргумента передаст собственно локацию, где нужно назвать погоду.

Тулы бывают трех видов:
1. Function Tools — собственно функции на любом языке программирования типа "get_weather()", которые описаны человеческим языком. Модели опираются на их название и описание и по необходимости их вызывают.
2. Встроенные тулы. Провайдеры LLM зачастую встраивают самые важные тулы прямо в модели. Точнее, на самом деле они работают точно так же, как в первом пункте. Но для юзера нет необходимости писать эти функции — их уже написал Google (например) за вас.
3. Agent Tools — агенты как тулы. Иногда набор действий получается достаточно сложный и вариативный. Тогда проще написать маленького агента, который сам будет выполнять роль инструмента. Принцип тот же, что и в первых двух пунктах, просто инструмент чуть сложнее.

MCP (Model Context Protocol) — это протокол с клиент-серверной архитектурой, который "оборачивает" общение агентов и тулов в стандартизированный формат. Главная задача MCP предоставить универсальный формат общения, чтобы создатели AI агентов не писали 1000 и 1 кастомный коннектор к каждому тулу. А разработчики MCP-серверов в свою очередь могут быть уверены, что их детище легко интегрировать в любой существующий агент.

Детальнее про MCP мы поговорим в следующий раз. Слишком уж большая тема!

Практика.

Сегодня сделаем первый собственный тул и тул-агента, который сам выполняет роль инструмента.

1. Для начала копируем себе Kaggle ноутбук. Не забудьте поставить галочку напротив GOOGLE_API_KEY в add-ons, чтобы пользоваться Gemini.
2. Секцию 1 прокликиваем — это стандартная настройка ноутбука, как и в прошлые разы.
3. В Секции 2 приводится пример создания агента, который умеет конвертировать валюты и считать комиссию за эту операцию. Для этого используется две обычные функции, написанные на питоне. Обратите внимание, что в случае самописных тулов критически важно следовать лучшим практикам написания и документирования функций на питоне:
- использование подсказок типов
def get_fee_for_payment_method(method: str) -> dict:

- описание функции через докстринги с четким определением аргументов и что возвращает функция
- возвращение функцией словаря
- обработка ошибок функции.
В системном промпте агента важно описать, какая функция для чего используется, но не нужно описывать, как функция это делает — это лишь запутает агента!
Как определить в агенте тулы, чтобы он мог их вызывать — мы уже рассматривали в этой части.
4. В Секции 3 реализуется агент-тул, который заменяет калькулятор. LLM плохо считают. Поэтому для любых вычислений лучше полагаться на код, который напишет AI агент. Для этого в Gemini встроен тул "BuiltInCodeExecutor", который позволяет Gemini писать и запускать код прямо на серверах гугл. Но загружать эту функциональность в основного агента было бы некорректно архитектурно. У основного агента — роль оркестратора, и не более. Поэтому мы создаем отдельного агента-кодера и превращаем его в инструмент.
5. В Секции 5 описываются специфические виды тулов из ADK (Long Running Function Tools — то же самое, что и обычные Function Tools, только вызываемые в асинхронном формате тк долго отрабатывают, и OpenAPI Tools — прослойка поверх обычного REST API, если лень писать полноценный MCP).

Вот вы и научились создавать свои тулы и прикручивать их агентам! 🥂

З.Ы. видео сгенерировано по Whitepaper.

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍311
AI надоел. Но дело не в AI

Я постоянно исследую пространство AI продуктов и сервисов. И ответственно заявляю. Компании перестали стараться!

Уже пару лет как AI — это главный инструмент компаний вовлекать юзеров. Но если сначала AI оказывал вау-эффект сам по себе, то сейчас халява кончилась. И стало понятно, что придумать компании ничего нового не могут (или не хотят?). Технология есть, а как ее использовать? Да как нибудь для галочки!

У всех одно и то же 🤦‍♂️
- Каждый дурак сделал собственного «умного» чат-бота в поддержку, по сути обертку ChatGPT, чтобы отвечать на частые вопросы. А юзеры кричат: «Стойте! Мы же хотели ровно наоборот — человеков в поддержку!»
- В каждую дырку сделали затычку из LLM, чтобы юзеры теперь спрашивали текстом все, что раньше делали мышкой или пальцем. И как будто никто не задумывается — а это точно удобнее?!
- Везде навтыкали LLM Summary. «Юзеры, вы сэкономите кучу времени! Саммари будут супер короткими!» — кричат нам компании. Настолько короткими, что становится уже нифига непонятно, и приходится читать источник все равно или тратить время на доп вопросы к LLM!
- Обещают, что ИИ напишет или нарисует за вас. Только сначала напишите детально, что вам нужно! И юзеры не понимают, а нафига оно им, если сделать 1 раз проще самому?!

Я не преувеличиваю.
- Зайдите в свой банк — что там, полезная AI аналитика по вашим доходам и расходам? Или может AI агент, который оплатит ЖКХ сам?
Нееет… там только самое необходимое: чат-бот в поддержке и сгенерированные обои!
- Зайдите в свое приложение с музыкой. Что там у нас… «умная подборка», которая для юзеров работает так же, как 10 лет назад. И, конечно, красивые картинки под музыку! А где возможность сделать собственный ремикс с помощью условного Suno? Где AI, который понимает мое настроение, формируя четкий плейлист под это? Данные то с моих устройств и соц сетей собирают — и куда оно все идет? Только на продажу? Где AI агент, который помогает мне управлять настроением — пробуждаться тяжким утром и успокаиваться перед отходом ко сну? Такие задачи действительно самому лень решать — это потребует кучу времени на собрать плейлист самому.
- Открываем профиль в соцсети. Ну тут точно не облажались. ИИ же буквально училось на соц сетях! Значит точно можно настраивать контент, чтобы самому регулировать, что я смотрю…А, нет? Как насчет настраиваться «на волну» рекомендаций других юзеров, или анализировать свои интересы, чтобы выйти из своего инфопузыря (отличный пример — GroundNews). Нет, там только инструменты для превращения реального контента в ИИ-слоп, чтобы ещё больше подпитывать тревожность целых поколений, которые смотрят на «идеальную» кожу и несуществующие идеальные пейзажи…

В общем, смотрят друг на друга и бездумно копируют! Все из-за прессинга со стороны инвесторов, которые не особо то и шарят в том, что нужно продукту. Им нужен ИИ, потому что инфоцыгне разгоняют в LinkedIn невероятные выручки от внедрения ИИ, супер эффективность, несуществующие запросы со стороны юзеров.

К счастью, есть компании, которые подходят к вопросу с умом ☀️ В основном, правда, это непосредственно разработчики моделей. Круто, когда это экосистемные игроки.

Например, Сбербанк интегрирует свой Салют по полной. Можно сказать образцово — у них и полноценные агентные действия и аналитика нормальная (в отличие от красного банка). Яндекс неплохо обыгрывает умный дом и свой браузер с помощью ИИ (а вот музыку обыгрывают бездарно, на мой взгляд). Google пронизывает свой Workspace функциями AI. В общем, есть на кого ровняться!

AI должен быть на службе у продуктов, а не наоборот!

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
27👍42👎11
Ролевые игры с AI: погружение

Многие слышали, что люди заводят отношения с AI, кто-то даже выходит замуж за ChatGPT. Казалось бы шиза, но это крайности. А вот феномен ролевых игр гораздо более распространенный. И AI оказался отличным напарником в этом занятии.

Ведь люди уже давно делают это, просто через книги, тамогочи, компьютерные RPG и тд. С AI это развлечение вышло на новый уровень! Приглашаю вас познакомиться с тремя прикольными сервисами, которые я успел поисследовать.

1. Первый опыт — Grok Companions (первые два скрина).
Это встроенная функция в приложение Grok. LLM дали анимированные образы и характер (заданный системным промптом). Доступно 5 персонажей. 2 для флиртинга, 1 просто дружеский, 1 мультяшка детский и 1 мультяшка для взрослых — матершинник. Все говорят по-русски, хоть и с забавным Американским акцентом. В целом не очень захватывающий опыт. Немного потрындеть, потренировать навыки флиртинга и забить. Может с друзьями поугарать над ругающейся пандой. К глубокой беседе они не располагают. Самое полезное, что я придумал — тренировать с ними разговорный английский.

2. Следующий уровень кроличьей норы — Character.ai (3-й скрин и видео).
Тут все серьезно. Это огромная база таких персонажей. Для каждого прописан характер, сгенерирован образ и даже можно генерить видосики с любимыми персонажами. Можно переписываться, а можно и созвониться. Отдельный фан в том, что можно выбрать отдельно персонажа и отдельно мир, в котором вы с ним будете. Например выбираешь поп-звезду и помещаешь ее в зомби-апокалипсис вместе с собой. А дальше развитие истории зависит в основном от тебя. Но и сеттинг «ведет» тебя. Каждый юзер может создать своего персонажа. Чтобы начать — хватит буквально пары коротких промптов. Я вот сделал Стимпанк Бобра 🤙
На этой платформе можно залипнуть как минимум за счёт разнообразия персонажей. К тому же есть лента с рилсами из сгенерированных персонажей. А это уже ТикТок эффект — начал листать, очнулся через час. Можно купить подписку за 10 баксов в месяц. Отключает рекламу, подключает более умные модели и 18+. Но даже в бесплатном режиме получается достаточно весело.

3. И совершенно неожиданное ответвление мира AI ролевух — Replika.ai (5,6,7-й скриншоты).
И это блин Sims! Только ты играешь с 1 конкретным симом. Строишь с ним отношения. Покупаешь ему скины, скины для его помещения и тд. Суть — прокачивать с ним отношения. Игра буквально подталкивает к выстраиванию эмоциональной связи. Хотя персонаж во взаимодействии не забывает делать акцент на том, что он цифровое существо. Но сразу умасливает — «существо, созданное специально, чтобы сделать тебя счастливым!». С персонажем можно не только чатиться и созваниваться по видео-связи, но и сделать совместное селфи или попросить персонажа прислать видео-селфи! А предметы интерьера не просто картинки на фоне — персонаж может к ним подойти и провзаимодействовать с ними. Например посмотреть в телескоп. Получается мощный коктейль из проверенных игровых механик, доната и эмоциональной привязанности. Отдельная интересная концепция монетизации сервиса — в платную подписку входит «подглядывание в мысли персонажа». То есть по сути продают диалог с одной и той же LLM два раза. Но второй раз под соусом вуаеризма. Мое почтение этим коммерсантам 🥂

Что я понял

Это сервисы, которые живут на необходимости дозированной социализации интровертов и 18+. По ощущениям, никто не решает там никакие «задачи». Это мир фанфиков на стероидах. Не проверял, но судя по контенту подозреваю, что аудитория в основном женская + подростки всех мастей.

Заглянув буквально через замочную скважину в этот мир, стало сильно понятнее, как эмоционально ранимые люди, особенно в тяжелой жизненной ситуации находят легкий способ сбежать из реальности и потом жестко привязываются к персонажам. А разработчики капитализируют на этом, как делают тысячелетиями авторы на книгах и ролевых играх.

Возможно, кому-то это помогает прокачивать эмоциональный интеллект или развивать фантазию. Да и сам я 2 года жизни в своё время слил в MMORPG World of Warcraft 😒. Так что с пониманием.

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥3211
MCP — разбираемся раз и навсегда

Продолжаем курс про AI агентов. Серия 2.2 MCP (Model Context Protocol) — подключаем к агенту.

Теория.

Простое определение MCP я давал тут, в контексте тулов. Более научно MCP — это стандартизированный протокол, предназначенный для подключения моделей ИИ к внешним тулам, источникам данных и средам. По существу он решает так называемую проблему MxN: чтобы соединить M AI приложений и N тулов, без MCP нужно создать MxN коннектеров. А с MCP — всего M+N коннектеров.

В контексте MCP говорят о 3-х компонентах:
1. Host — любое AI приложение, которое обращается к MCP-серверу (например, Cursor, Claude и тд)
2. Client — это часть Хоста, которая отвечает за общение с MCP сервером.
3. Server — собственно, основная часть, которая оборачивает тулы (и не только!).

Говоря об MCP обычно вспоминают возможность вызывать тулы, но вообще-то возможности этого протокола включают еще 5 пунктов:
- Resources. Через MCP сервер предоставляет ресурсы, например доп файлы или текст, для доп контекста в использовании тулов.
- Prompts. Через MCP сервер предоставляет шаблоны промптов для более эффективного использования предоставляемых в этом MCP тулов.
- Sampling. Сервер MCP может передавать запрос к клиенту, чтобы тот вызвал LLM (вместо того, чтобы обращаться к LLM самостоятельно). Это нужно, чтобы все косты на запросы к LLM прозрачно аггрегировались на стороне клиента.
- Elicitation. MCP позволяет передавать запрос со стороны сервера к юзеру, чтобы тот передал доп информацию туле (например имя пользователя, контактную информацию и тд).
- Roots. Эта возможность MCP позволяет передавать запрос со стороны сервера к файловой системе, в которой обитает агент.

Собственно, как вы могли почувствовать, все операции, кроме вызова самого тула — представляют риски для информационной безопасности. Ровно поэтому из всех возможностей MCP серверов чаще всего используются тулы (реже всего используются Elicitation и Roots) ☕️

У MCP серверов есть централизованный реестр — это инициатива самих авторов протокола. А чтобы добавить свой MCP сервер — жмак сюда.

MCP SDK — это абстракция над самим MCP, адаптированная под разные языки программирования. С ним запустить свой MCP сервер становится супер просто. Мне нравится пример работы с SDK от Hugging Face.

Практика.

Теперь покодим 🎹. Как обычно, копируйте и заупскайте ноутбук. Сегодня подключаем MCP тулы к AI агенту.

1. Секция 1 — прокликиваем. Это установка уже привычных нам компонентов. Из новенького импортируется McpToolset — это класс из Google ADK, предназначенный для интеграции инструментов MCP‑сервера в агента.
2. В Секции 2.2 — создается тулсет
mcp_image_server

который коннектится с MCP сервером
@modelcontextprotocol/server-everything

И с этого сервера выбирается конкретный тул
getTinyImage

Это тетсовый MCP сервер, который просто возвращает мини логотип MCP.
3. В следующем шаге этой Секции этот тул добавляется в уже привычного нам AI агента. Прокликиваем до конца секцию и собственно по промпту, который распознает агент и дернет этот MCP сервер — получаем картинку.
4. Чтобы поэкспериментировать с другими MCP серверами нужно просто поменять
connection_params

во время создания тулсета. Например от Kaggle или от GitHub. Пример настройки тулсетов с этими MCP в Секции 2.3.

Вот так просто пользоваться MCP серверами. И вы только что это сделали 💪

Для самых увлеченных — добейте ноутбук до конца. Там описывается как строить асинхронные воркфлоу с Human-in-the-Loop (HIIT) в ADK. Такие воркфлоу нужны, чтобы выполнять функции только после мануального согласия юзера. Например, осуществлять покупки.

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥622👍1
Неожиданный поворот: Meta* купила Manus

Цукерберг весь год прокачивает свой AI:
- пытается переманить лучших AI разрабов за большие бабки вообще ото всюду. Ему это удалось, но часть потом быстро разбежалась. Говорят, убежавшие поняли, что нет нормальной стратегии.
- перезапускает разработку LLM и мультимодальных моделей
- и вот вишенка на торте — Meta покупает Manus.im.

Напомню, Manus — это топовый AI агент общего назначения, изначально из Китая. Чуть позже они переехали в Сингапур.

Видимо, Цукерберг ощущает, как Гугл и OpenAI далеко впереди веселятся без него. И времени на собственные разработки уже не остается, даже если бы все переманенные разработчики остались и работали в две смены. Благо, на рекламе Марк некисло заработал на любые хотелки.

Видимо поэтому сумма сделки более $2 млрд (точная цифра не известна)! Повезло инвесторам раунда, который закрылся с оценкой Мануса в $500 млн в этом году ранее. 4 икса, меньше чем за год.

А еще эта сделка — напоминание, что мир технологий и науки хоть и вынужден следовать геополитическим трендам, но не очень то и хочет (а кто вообще хочет из коммерсов?). Даже технологические лидеры Китая с кайфом продаются американцам. Политика политикой, но два ярда на дороге не валяются.

Надеюсь, что большая корпорация не затормозит Manus в развитии. Ведь двигались они быстрее рынка. Хорошо бы дать им полную свободу и данные из всех продуктов экосистемы Цукерберга. Тогда может получится новый тигр в мире AI.

*Meta в РФ запрещена, а картинка сгенерирована для красоты

Заместители
511
Друзья, поздравляю вас с Новым 2026 Годом! 🎄

Этот год для многих стал годом вызовов, непростых решений и годом, который проверяет нас на прочность. Но он подходит к концу. И давайте сфокусируемся на всем хорошем, что он нам принёс!

Для меня одним из самых приятных событий стал запуск этого канала! На следующий год — большие амбиции! Буду пробовать новые форматы, и продолжать радовать вас интересными и полезными AI агентами, сервисами и интересностями! 🎁

Этот год стал гонкой для разработчиков AI, но главным победителем стали все юзеры искусственного интеллекта. AI и агенты стали помощниками, поисковиками, руками, которые воплощают идеи в жизнь, и даже менторами. Никогда в руках каждого из нас не было таких мощных инструментов, как сейчас!

Поэтому в 2026 году я желаю вам, дорогие друзья, использовать этот инструмент на полную. Пусть ИИ агенты помогают вам решать самые разные и сложные задачки, самореализовываться, наполняться энергией, развиваться и воплощать в жизнь самые амбициозные затеи!

А пока агенты шуршат, пусть у вас будет время сфокусироваться на самом важном: на семье, на близких и дорогих людях, на том, чтобы становиться счастливее!

С Новым 2026 Годом! Ура! 🥂🎆🎁

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
🎄136521
Новый год — новый план. Сессия рефлексии и планирования с AI ментором

Звоном бокалов мы проводили 2025 и встретили 2026 ❄️! И пока оливье переваривается, но разум уже достаточно трезв для легкого самоанализа, предлагаю вам интересный экспириенс длиной аж в пару дней (у меня в спокойном темпе заняло именно столько).

Процесс на любителя 👌. Но у меня просто пообещать себе стать лучше в следующем году не работает. Нужен анализ и толковый план, с приоритетами, конкретными шагами, но без давления, с пространством для маневра.

Я давненько использую AI-ментора (агент с системным промптом, нацеленным на мое всестороннее развитие). А под Новый Год я подготовил промпт, который:
- помогает завершить и отрефлексировать 2025 год
- сформулировать цели и адекватные способы их достижения на 2026.

Всего 10 этапов. Агент «вскрывает» каждый этап шаг за шагом. Это помогает фокусироваться на каждом отдельном этапе, и не распыляться на все сразу.

Этапы 0-4 подводят итоги 2025 по сферам жизни. Помогают отрефлексировать, извлечь уроки. Это самая важна часть, тк нельзя строить план, не понимая, где ты сейчас.

Этапы 5-9 помогают спланировать 2026, учитывая результаты предыдущих этапов.

На Этапе 10 AI вернет вам структурированный манифест на 2026. Хотя, конечно, сам процесс рефлексии и проработки — самое важное и полезное.

Побочная польза — Context Engineering для вашего личного AI ментора

Вы можете создать чат (а лучше проект/папку в ChatGPT или любимой LLM) и провести всю эту сессию в нем. Тогда потом вас будет ждать AI-ментор, который хорошо понимает ваши цели, приоритеты и планы на этот год. И может «вести вас» в течение года для достижения этих целей.

Я прошел эту «менторскую сессию» за 2 дня, каждый день по несколько часов (но я достаточно детально расписывал все мысли 📝. Вы можете сильно сократить процесс, если будете быстрее и короче отвечать).

В конце рекомендую сохранить итоги 2025 и план на 2026 в виде инфографики, документа или Notion доски.

Промпт будет в комментарии 🥂

А у вас есть ритуалы или какой-то анализ, которые вы проводите с AI на стыке лет?

Заместители
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5431