[Перевод] MCP и будущее AI: что стоит знать сегодня, чтобы не отстать завтра
С тех пор как OpenAI внедрила функцию function calling в 2023 году, я всё чаще задумываюсь о том, что потребуется, чтобы по-настоящему разблокировать экосистему агентов и инструментов. По мере того как базовые модели становятся всё более интеллектуальными, возможности агентов взаимодействовать с внешними инструментами, данными и API всё больше фрагментируются: разработчики вынуждены реализовывать агентов с индивидуальной бизнес-логикой под каждую отдельную систему, в которой агент работает или с которой интегрируется.
Очевидно, что необходим единый стандартный интерфейс для исполнения, извлечения данных и вызова инструментов. API стали первым универсальным стандартом для Интернета — общим языком, с помощью которого взаимодействуют программные системы. Но у AI-моделей до сих пор нет эквивалента такого унифицированного протокола.
Model Context Protocol (MCP), представленный в ноябре 2024 года, привлек большое внимание в сообществе разработчиков и AI-энтузиастов как потенциальное решение этой проблемы. В этой статье мы разберем, что такое MCP, как он меняет способ взаимодействия AI с инструментами, что уже создают разработчики на его основе и какие задачи еще предстоит решить.
Поехали. Читать далее
#mcp #mcp_server #model_context_protocol #ai #ии #llm #lsp #language_server_protocol #ai_агенты #ии_агенты | @habr_ai
С тех пор как OpenAI внедрила функцию function calling в 2023 году, я всё чаще задумываюсь о том, что потребуется, чтобы по-настоящему разблокировать экосистему агентов и инструментов. По мере того как базовые модели становятся всё более интеллектуальными, возможности агентов взаимодействовать с внешними инструментами, данными и API всё больше фрагментируются: разработчики вынуждены реализовывать агентов с индивидуальной бизнес-логикой под каждую отдельную систему, в которой агент работает или с которой интегрируется.
Очевидно, что необходим единый стандартный интерфейс для исполнения, извлечения данных и вызова инструментов. API стали первым универсальным стандартом для Интернета — общим языком, с помощью которого взаимодействуют программные системы. Но у AI-моделей до сих пор нет эквивалента такого унифицированного протокола.
Model Context Protocol (MCP), представленный в ноябре 2024 года, привлек большое внимание в сообществе разработчиков и AI-энтузиастов как потенциальное решение этой проблемы. В этой статье мы разберем, что такое MCP, как он меняет способ взаимодействия AI с инструментами, что уже создают разработчики на его основе и какие задачи еще предстоит решить.
Поехали. Читать далее
#mcp #mcp_server #model_context_protocol #ai #ии #llm #lsp #language_server_protocol #ai_агенты #ии_агенты | @habr_ai
Хабр
MCP и будущее AI: что стоит знать сегодня, чтобы не отстать завтра
С тех пор как OpenAI внедрила функцию function calling в 2023 году, я всё чаще задумываюсь о том, что потребуется, чтобы по-настоящему разблокировать экосистему агентов и инструментов. По мере того...
AI-агенты и мультиагентные системы, MCP и A2A. Основные угрозы и подходы к обеспечению безопасности
Всем привет! Я автор канала «Борис_ь с ml» про информационную безопасность и машинное обучение. Сейчас мой основной вектор исследований - мультиагентные системы и их безопасность. Поэтому в мае выступал на эту тему на III Форуме «Технологии доверенного искусственного интеллекта» с докладом «Протоколы MCP и A2A - безопасность для мультиагентных систем или новые угрозы?». По этой ссылке - презентация с выступления.
В этой статье раскрою и в чем-то углублю свое выступление, охватив сначала основы функционирования AI-агентов и мультиагентных систем (МАС), и заканчивая угрозами безопасности и мерами противодействия им. Читать далее
#ai_агенты #мультиагентные_системы #mcp #a2a #модель_угроз #безопасность | @habr_ai
Всем привет! Я автор канала «Борис_ь с ml» про информационную безопасность и машинное обучение. Сейчас мой основной вектор исследований - мультиагентные системы и их безопасность. Поэтому в мае выступал на эту тему на III Форуме «Технологии доверенного искусственного интеллекта» с докладом «Протоколы MCP и A2A - безопасность для мультиагентных систем или новые угрозы?». По этой ссылке - презентация с выступления.
В этой статье раскрою и в чем-то углублю свое выступление, охватив сначала основы функционирования AI-агентов и мультиагентных систем (МАС), и заканчивая угрозами безопасности и мерами противодействия им. Читать далее
#ai_агенты #мультиагентные_системы #mcp #a2a #модель_угроз #безопасность | @habr_ai
Хабр
AI-агенты и мультиагентные системы, MCP и A2A. Основные угрозы и подходы к обеспечению безопасности
Всем привет! Меня зовут Борис, я веду канал «Борис_ь с ml» про информационную безопасность и машинное обучение. Сейчас мой основной вектор исследований - мультиагентные системы и их безопасность....
Llama Firewall или как проверить логику и безопасность вашего AI агента
AI-агенты перестали быть экспериментом — они уже читают ваши документы, пишут код
и выполняют команды в терминале. Но чем больше автономии мы им даем, тем актуальнее становится вопрос: а что если агент сделает не то, что нужно?
Llama Firewall — попытка решить эту дилемму через многослойную систему проверок. Читать далее
#ai #mcp #ai_агент #ии_агенты #безопасность_ии #llama_firewall #llama | @habr_ai
AI-агенты перестали быть экспериментом — они уже читают ваши документы, пишут код
и выполняют команды в терминале. Но чем больше автономии мы им даем, тем актуальнее становится вопрос: а что если агент сделает не то, что нужно?
Llama Firewall — попытка решить эту дилемму через многослойную систему проверок. Читать далее
#ai #mcp #ai_агент #ии_агенты #безопасность_ии #llama_firewall #llama | @habr_ai
Хабр
Llama Firewall или как проверить логику и безопасность вашего AI агента
Введение AI-агенты перестали быть экспериментом — они уже читают ваши документы, пишут код и выполняют команды в терминале. Но чем больше автономии мы им даем, тем актуальнее становится вопрос: а что...
Spring AI: Model Context Protocol
Model Context Protocol (MCP) — это унифицированный протокол взаимодействия между большими языковыми моделями (LLM) и внешними источниками данных и инструментами. Spring AI предоставляет очень простой декларативный подход для добавления любых инструментов в контекст LLM с помощью MCP. Мы рассмотрим несколько простых примеров по созданию MCP-клиента и MCP-сервера. Читать далее
#kotlin #java #spring_ai #mcp #model_context_protocol | @habr_ai
Model Context Protocol (MCP) — это унифицированный протокол взаимодействия между большими языковыми моделями (LLM) и внешними источниками данных и инструментами. Spring AI предоставляет очень простой декларативный подход для добавления любых инструментов в контекст LLM с помощью MCP. Мы рассмотрим несколько простых примеров по созданию MCP-клиента и MCP-сервера. Читать далее
#kotlin #java #spring_ai #mcp #model_context_protocol | @habr_ai
Хабр
Spring AI: Model Context Protocol
В статье Spring AI: retrieval augmented generation мы научились добавлять в контекст модели произвольные данные из векторного хранилища. Теперь давайте пойдём ещё дальше и посмотрим, как можно...
Показываю юзкейсы MCP серверов внутри Claude Desktop
Для кого статья
Кому интересно узнать, как через Claude можно управлять практически любым сервисом, общаясь с LLM как с обычным сотрудником
В статье пойдет речь только о Claude Desktop. Но если у вас его нет, то это не повод не прочитать статью, чтобы понять "А че так можно было?" Вот что можно делать через MCP сервера 🔥
#mcp #claude #llm | @habr_ai
Для кого статья
Кому интересно узнать, как через Claude можно управлять практически любым сервисом, общаясь с LLM как с обычным сотрудником
В статье пойдет речь только о Claude Desktop. Но если у вас его нет, то это не повод не прочитать статью, чтобы понять "А че так можно было?" Вот что можно делать через MCP сервера 🔥
#mcp #claude #llm | @habr_ai
Хабр
Как управлять Notion, GitHub и другими программами через Claude. Показываю свои примеры MCP серверов
Для кого статья Кому интересно узнать, как через Claude можно управлять практически любым сервисом, общаясь с LLM как с обычным сотрудником. В статье пойдет речь только о Claude Desktop....
[Перевод] MCP: новая игра на рынке искусственного интеллекта
Всё, что нужно знать о Model Context Protocol (MCP)
«Даже самые продвинутые модели ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах».
— Anthropic о важности интеграции контекста
Сегодняшние большие языковые модели (LLM) невероятно умны, но находятся в вакууме. Как только им требуется информация вне их «замороженных» обучающих данных, начинаются проблемы. Чтобы AI-агенты действительно были полезны, им нужно получать актуальный контекст в нужный момент — будь то файлы, базы знаний, инструменты — и даже уметь совершать действия: обновлять документы, отправлять письма, запускать пайплайны.
Так сложилось, что подключение модели ко всем этим внешним источникам данных было хаотичным и нестабильным: разработчикам приходилось писать кастомные интеграции или использовать узкоспециализированные плагины под каждый API или хранилище. Такие «сделанные на коленке» решения были хрупкими и плохо масштабировались.
Чтобы упростить это, Anthropic представила Model Context Protocol (MCP) — открытый стандарт, предназначенный для того, чтобы связать AI-ассистентов с данными и инструментами, подключая любые источники контекста. MCP был анонсирован в ноябре 2024 года. Тогда реакция была сдержанной. Но сегодня MCP — на волне: он уже обогнал LangChain по популярности и, по прогнозам, скоро обойдёт OpenAPI и CrewAI.
Крупные игроки AI-индустрии и open source-сообщества начали активно поддерживать MCP, видя в нем потенциально революционный инструмент для построения агентных систем на базе LLM. Читать далее
#mcp #mcp_server #model_context_protocol #ai #llm #ai_agent #ai_assistant #ии #ии_ассистент | @habr_ai
Всё, что нужно знать о Model Context Protocol (MCP)
«Даже самые продвинутые модели ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах».
— Anthropic о важности интеграции контекста
Сегодняшние большие языковые модели (LLM) невероятно умны, но находятся в вакууме. Как только им требуется информация вне их «замороженных» обучающих данных, начинаются проблемы. Чтобы AI-агенты действительно были полезны, им нужно получать актуальный контекст в нужный момент — будь то файлы, базы знаний, инструменты — и даже уметь совершать действия: обновлять документы, отправлять письма, запускать пайплайны.
Так сложилось, что подключение модели ко всем этим внешним источникам данных было хаотичным и нестабильным: разработчикам приходилось писать кастомные интеграции или использовать узкоспециализированные плагины под каждый API или хранилище. Такие «сделанные на коленке» решения были хрупкими и плохо масштабировались.
Чтобы упростить это, Anthropic представила Model Context Protocol (MCP) — открытый стандарт, предназначенный для того, чтобы связать AI-ассистентов с данными и инструментами, подключая любые источники контекста. MCP был анонсирован в ноябре 2024 года. Тогда реакция была сдержанной. Но сегодня MCP — на волне: он уже обогнал LangChain по популярности и, по прогнозам, скоро обойдёт OpenAPI и CrewAI.
Крупные игроки AI-индустрии и open source-сообщества начали активно поддерживать MCP, видя в нем потенциально революционный инструмент для построения агентных систем на базе LLM. Читать далее
#mcp #mcp_server #model_context_protocol #ai #llm #ai_agent #ai_assistant #ии #ии_ассистент | @habr_ai
Хабр
MCP: новая игра на рынке искусственного интеллекта
Всё, что нужно знать о Model Context Protocol (MCP) «Даже самые продвинутые модели ограничены своей изоляцией от данных — они заперты в информационных силосах и легаси-системах». — Anthropic о...
MCP для новичков
Model Context Protocol (MCP) - это просто API, разработанный для LLM. Конечно, LLM могут использовать традиционные API, но это как просить повара готовить в кладовке. Читать далее
#mcp #model_context_protocol #agentic_ai | @habr_ai
Model Context Protocol (MCP) - это просто API, разработанный для LLM. Конечно, LLM могут использовать традиционные API, но это как просить повара готовить в кладовке. Читать далее
#mcp #model_context_protocol #agentic_ai | @habr_ai
Хабр
MCP для новичков
Model Context Protocol (MCP) - это просто API, разработанный для LLM. Конечно, LLM могут использовать традиционные API, но это как просить повара готовить в кладовке из-за: Сложных промптов для...
❤1
[Перевод] Claude как операционная система для работы
Model Context Protocol позволяет Claude взаимодействовать с рабочими инструментами напрямую, минуя копирование данных.
В статье показано как можно сократить время на рутинные задачи с 30-45 минут до 5 минут, настроив интеграцию с Gmail, Notion, Todoist и другими сервисами. Читать далее
#искусственный_интеллект #claude #mcp #автоматизация #интеграция #продуктивность #рабочий_процесс #api #будущее_работы | @habr_ai
Model Context Protocol позволяет Claude взаимодействовать с рабочими инструментами напрямую, минуя копирование данных.
В статье показано как можно сократить время на рутинные задачи с 30-45 минут до 5 минут, настроив интеграцию с Gmail, Notion, Todoist и другими сервисами. Читать далее
#искусственный_интеллект #claude #mcp #автоматизация #интеграция #продуктивность #рабочий_процесс #api #будущее_работы | @habr_ai
Хабр
Claude как операционная система для работы
Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое...
Агенты и Агентная экономика
Дайджест Недели.
Если хотите картинку будущего, представьте себе людей, постоянно проверяющих результаты за ИИ...
ИИ-агенты, на которых вы все купились это ложь!
Много полезных инсайтов по MCP-протоколу Читать далее
#искусственный_интеллект #агентная_экономика #ии_агенты #ии_ассистенты #mcp #llm | @habr_ai
Дайджест Недели.
Если хотите картинку будущего, представьте себе людей, постоянно проверяющих результаты за ИИ...
ИИ-агенты, на которых вы все купились это ложь!
Много полезных инсайтов по MCP-протоколу Читать далее
#искусственный_интеллект #агентная_экономика #ии_агенты #ии_ассистенты #mcp #llm | @habr_ai
Хабр
Агенты и Агентная экономика
Большой Дайджест Недели. Новости. Смыслы. Инсайты. Если кто-то считает, что социумом движет здравый смысл, он глубоко ошибается. В 21 веке обществом движет информационное давление, жажда наживы и...
Как научить нейросеть работать руками: создание полноценного ИИ-агента с MCP и LangGraph за час
Надоели чат-боты, которые только болтают? Создаём настоящего ИИ-помощника: читает файлы, ищет в сети, запоминает всё. LangGraph + MCP — пошаговый гайд для Python-разработчиков. Меньше теории, больше работающего кода.
- Два готовых агента: классификатор вакансий + файловый помощник
- Поддержка Ollama, OpenAI, DeepSeek — выбирайте любую модель
- Асинхронная архитектура с обработкой ошибок
- Полная интеграция в Python-проекты без no-code конструкторов
- Код готов к продакшену: логирование, retry-механизмы, конфигурация
От настройки окружения до рабочего агента за час. Читать далее
#python #langchain #langgraph #mcp #mcp_server #ollama #local_llm #ии_ассистент #ии_агенты #ии | @habr_ai
Надоели чат-боты, которые только болтают? Создаём настоящего ИИ-помощника: читает файлы, ищет в сети, запоминает всё. LangGraph + MCP — пошаговый гайд для Python-разработчиков. Меньше теории, больше работающего кода.
- Два готовых агента: классификатор вакансий + файловый помощник
- Поддержка Ollama, OpenAI, DeepSeek — выбирайте любую модель
- Асинхронная архитектура с обработкой ошибок
- Полная интеграция в Python-проекты без no-code конструкторов
- Код готов к продакшену: логирование, retry-механизмы, конфигурация
От настройки окружения до рабочего агента за час. Читать далее
#python #langchain #langgraph #mcp #mcp_server #ollama #local_llm #ии_ассистент #ии_агенты #ии | @habr_ai
Хабр
Как научить нейросеть работать руками: создание полноценного ИИ-агента с MCP и LangGraph за час
Друзья, приветствую! Надеюсь, успели соскучиться. Последние пару месяцев я с головой ушёл в исследование интеграции ИИ-агентов в собственные Python-проекты. В процессе накопилось немало практических...
Как создать MCP-сервер и научить ИИ работать с любым кодом и инструментами через LangGraph
В этой статье разбираемся с MCP-серверами от А до Я: что это такое, зачем нужны и как создать свой. Научимся писать инструменты для ИИ-агентов, подключать готовые MCP-серверы через LangGraph, и создадим полноценный математический сервер с нуля. В конце задеплоим его в облако и подключим к нейросети. Много практики, рабочий код и никакой воды — только то, что действительно работает. Читать далее
#mcp #model_context_protocol #langgraph #langchain #ии_агенты #ai_agents #fastmcp #инструменты_для_ии #tools #python | @habr_ai
В этой статье разбираемся с MCP-серверами от А до Я: что это такое, зачем нужны и как создать свой. Научимся писать инструменты для ИИ-агентов, подключать готовые MCP-серверы через LangGraph, и создадим полноценный математический сервер с нуля. В конце задеплоим его в облако и подключим к нейросети. Много практики, рабочий код и никакой воды — только то, что действительно работает. Читать далее
#mcp #model_context_protocol #langgraph #langchain #ии_агенты #ai_agents #fastmcp #инструменты_для_ии #tools #python | @habr_ai
Хабр
Как создать MCP-сервер и научить ИИ работать с любым кодом и инструментами через LangGraph
Всё стремительнее на глазах формируется новый виток в развитии инструментов для работы с искусственным интеллектом: если ещё недавно внимание разработчиков было приковано к no-code/low-code платформам...
Учим LM Studio ходить в интернет при ответах на вопросы
Мне очень нравится LM Studio, так как она позволяет локально запускать ИИ модели. Что позволяет сохранить приватность того о чем ты беседуешь с ИИ. Но по сравнению с коммерческими онлайн моделями, LM Studio не умеет ходить в интернет "из коробки". Те модели не могут использовать актуальную информацию из Интернета для ответов на вопросы.
Не так давно в LM Studio было добавлено возможность подключать MCP-сервера к моделям. Самое первое, что я сделал это, написал небольшой MCP-сервер, который позволяет извлекать текст из URL-адреса. Также может извлекать ссылки, которые есть на странице. Это дает возможность в запросе к ИИ указать адрес и попросить извлечь текст оттуда или ссылки, что бы использовать при ответе.
Что бы это все работало, для начала создаем pyproject.toml в папке mcp-server. Читать далее
#lm_studio #brave_search #mcp_server #python | @habr_ai
Мне очень нравится LM Studio, так как она позволяет локально запускать ИИ модели. Что позволяет сохранить приватность того о чем ты беседуешь с ИИ. Но по сравнению с коммерческими онлайн моделями, LM Studio не умеет ходить в интернет "из коробки". Те модели не могут использовать актуальную информацию из Интернета для ответов на вопросы.
Не так давно в LM Studio было добавлено возможность подключать MCP-сервера к моделям. Самое первое, что я сделал это, написал небольшой MCP-сервер, который позволяет извлекать текст из URL-адреса. Также может извлекать ссылки, которые есть на странице. Это дает возможность в запросе к ИИ указать адрес и попросить извлечь текст оттуда или ссылки, что бы использовать при ответе.
Что бы это все работало, для начала создаем pyproject.toml в папке mcp-server. Читать далее
#lm_studio #brave_search #mcp_server #python | @habr_ai
Хабр
Учим LM Studio ходить в интернет при ответах на вопросы
Мне очень нравится LM Studio, так как она позволяет локально запускать ИИ модели. Что позволяет сохранить приватность того о чем ты беседуешь с ИИ. Но по сравнению с коммерческими...
Превращаем legacy CLI в AI-агентов за 5 минут: практическое руководство по MCP и Ophis для Go-разработчиков
Ophis — это мост между Cobra CLI и Model Context Protocol (MCP), позволяющий Claude Desktop напрямую вызывать kubectl, helm, terraform и любые другие CLI-инструменты. Вместо копирования вывода команд в чат, AI получает структурированный доступ к командам.
В статье: архитектура решения, production-ready реализация и реальные кейсы из практики. Читать далее
#go #ai #отладка #devops #mcp #автоматизация | @habr_ai
Ophis — это мост между Cobra CLI и Model Context Protocol (MCP), позволяющий Claude Desktop напрямую вызывать kubectl, helm, terraform и любые другие CLI-инструменты. Вместо копирования вывода команд в чат, AI получает структурированный доступ к командам.
В статье: архитектура решения, production-ready реализация и реальные кейсы из практики. Читать далее
#go #ai #отладка #devops #mcp #автоматизация | @habr_ai
Хабр
Превращаем legacy CLI в AI-агентов за 5 минут: практическое руководство по MCP и Ophis для Go-разработчиков
Проблема: AI не умеет в DevOps Представьте типичный workflow DevOps-инженера с AI-ассистентом: # Человек копирует в Cursor: $ kubectl get pods -n production NAME READY STATUS RESTARTS AGE...
Свой LLM-агент на Typescript с использованием MCP
В публикации поделюсь подробной инструкцией по разработке и запуску своего ИИ-агента на Typescript с использованием MCP, который будет извлекать и выполнять команды, сказанные обычными словами и сможет опрашивать необходимую информацию через диалог с пользователем. Читать далее
#openai #ии_агенты #llm #llm_агент #gigachat #typescript #искуственный_интеллект #ai #ollama #mcp | @habr_ai
В публикации поделюсь подробной инструкцией по разработке и запуску своего ИИ-агента на Typescript с использованием MCP, который будет извлекать и выполнять команды, сказанные обычными словами и сможет опрашивать необходимую информацию через диалог с пользователем. Читать далее
#openai #ии_агенты #llm #llm_агент #gigachat #typescript #искуственный_интеллект #ai #ollama #mcp | @habr_ai
Хабр
Свой LLM-агент на Typescript с использованием MCP
Вводные слова Еще в 2008 году, посмотрев фильм "Железный человек", я понял, что хочу сделать себе такого же виртуального помощника, как у главного героя был Джарвис — искусственный интеллект, с...
Вайб кодинг 1С 3. Лучшие нейросети для генерации кода
Попробовал все актуальные на сегодняшний день сети и провёл их бенчмарк на приближенным к реалиям задачах.
Рассмотрены сети: Читать далее
#1с #вайб_кодинг #вайбкодинг #cursor #gpt_5 #нейросети #mcp_server | @habr_ai
Попробовал все актуальные на сегодняшний день сети и провёл их бенчмарк на приближенным к реалиям задачах.
Рассмотрены сети: Читать далее
#1с #вайб_кодинг #вайбкодинг #cursor #gpt_5 #нейросети #mcp_server | @habr_ai
Хабр
Вайб кодинг 1С 3. Лучшие нейросети для генерации кода
Попробовал все актуальные на сегодняшний день сети и провёл их бенчмарк на приближенным к реалиям задачах. Рассмотрены сети: GPT-5 hight Gemini 2.5 Pro Claude 4.1 Opus Grok 4 Qwen3 - coder Deepseek-R1...
[Перевод] Как строить умных AI-агентов: уроки Context Engineering от Manus
В самом начале проекта Manus перед нашей командой встал ключевой вопрос: обучать ли end-to-end агентную модель, используя open-source foundation-модели, или же строить агента поверх возможностей in-context learning у frontier models?
В моё первое десятилетие в NLP у нас и выбора-то такого не было. В далёкие времена BERT (да, прошло уже семь лет) модели приходилось fine-tune'ить и тестировать, прежде чем они могли переноситься на новую задачу. Этот процесс часто занимал недели на одну итерацию, даже при том, что тогдашние модели были крошечными по сравнению с сегодняшними LLM. Для быстроразвивающихся приложений, особенно на этапе до PMF, такие медленные циклы обратной связи — смертный приговор. Это был горький урок из моего прошлого стартапа, где я обучал модели с нуля для open information extraction и семантического поиска. А потом появились GPT-3 и Flan-T5, и мои внутренние модели стали не актуальны буквально за ночь. Ирония в том, что именно эти модели положили начало in-context learning — и открыли совершенно новый путь развития.
Из этого болезненного опыта выбор был очевиден: Manus делает ставку на context engineering. Это позволяет выпускать улучшения за часы, а не за недели, и держит наш продукт ортогональным по отношению к базовым моделям: если прогресс моделей — это прилив, то мы хотим, чтобы Manus был лодкой, а не сваей, вбитой в морское дно.
Тем не менее context engineering оказался далеко не тривиальным делом. Это экспериментальная наука — и мы перестраивали наш агентный фреймворк четыре раза, каждый раз находя более удачный способ формировать контекст. Мы с любовью называем этот ручной процесс перебора архитектур, подбора промптов и эмпирических догадок «Stochastic Graduate Descent». Это не изящно, но работает.
В этом посте я делюсь локальными оптимумами, к которым мы пришли через собственный «SGD». Если вы создаете своего AI-агента, надеюсь, эти принципы помогут вам сойтись к решению быстрее. Читать далее
#ai #ai_agent #ai_assistants #nlp #llm #large_language_model #mcp #rag #manus #few_shot_prompting | @habr_ai
В самом начале проекта Manus перед нашей командой встал ключевой вопрос: обучать ли end-to-end агентную модель, используя open-source foundation-модели, или же строить агента поверх возможностей in-context learning у frontier models?
В моё первое десятилетие в NLP у нас и выбора-то такого не было. В далёкие времена BERT (да, прошло уже семь лет) модели приходилось fine-tune'ить и тестировать, прежде чем они могли переноситься на новую задачу. Этот процесс часто занимал недели на одну итерацию, даже при том, что тогдашние модели были крошечными по сравнению с сегодняшними LLM. Для быстроразвивающихся приложений, особенно на этапе до PMF, такие медленные циклы обратной связи — смертный приговор. Это был горький урок из моего прошлого стартапа, где я обучал модели с нуля для open information extraction и семантического поиска. А потом появились GPT-3 и Flan-T5, и мои внутренние модели стали не актуальны буквально за ночь. Ирония в том, что именно эти модели положили начало in-context learning — и открыли совершенно новый путь развития.
Из этого болезненного опыта выбор был очевиден: Manus делает ставку на context engineering. Это позволяет выпускать улучшения за часы, а не за недели, и держит наш продукт ортогональным по отношению к базовым моделям: если прогресс моделей — это прилив, то мы хотим, чтобы Manus был лодкой, а не сваей, вбитой в морское дно.
Тем не менее context engineering оказался далеко не тривиальным делом. Это экспериментальная наука — и мы перестраивали наш агентный фреймворк четыре раза, каждый раз находя более удачный способ формировать контекст. Мы с любовью называем этот ручной процесс перебора архитектур, подбора промптов и эмпирических догадок «Stochastic Graduate Descent». Это не изящно, но работает.
В этом посте я делюсь локальными оптимумами, к которым мы пришли через собственный «SGD». Если вы создаете своего AI-агента, надеюсь, эти принципы помогут вам сойтись к решению быстрее. Читать далее
#ai #ai_agent #ai_assistants #nlp #llm #large_language_model #mcp #rag #manus #few_shot_prompting | @habr_ai
Хабр
Как строить умных AI-агентов: уроки Context Engineering от Manus
В самом начале проекта Manus перед нашей командой встал ключевой вопрос: обучать ли end-to-end агентную модель, используя open-source foundation-модели, или же строить агента поверх возможностей...
Realtime API вышел из беты: OpenAI представила gpt-realtime и снизила цены на 20%
OpenAI сделала важный шаг для рынка голосовых интерфейсов: Realtime API официально вышел из бета-версии и теперь доступен всем разработчикам. Вместе с этим компания представила модель gpt-realtime, которая объединяет распознавание речи, генерацию текста и синтез голоса в одном API. Важно и то, что использование стало заметно дешевле, а цены на аудио-токены снижены на 20%. Читать далее
#openai_api #gpt_realtime #realtime #голосовые_интерфейсы #распознавание_речи #синтез_речи #мультимодальные_модели #искусственный_интеллект #интеграции #mcp | @habr_ai
OpenAI сделала важный шаг для рынка голосовых интерфейсов: Realtime API официально вышел из бета-версии и теперь доступен всем разработчикам. Вместе с этим компания представила модель gpt-realtime, которая объединяет распознавание речи, генерацию текста и синтез голоса в одном API. Важно и то, что использование стало заметно дешевле, а цены на аудио-токены снижены на 20%. Читать далее
#openai_api #gpt_realtime #realtime #голосовые_интерфейсы #распознавание_речи #синтез_речи #мультимодальные_модели #искусственный_интеллект #интеграции #mcp | @habr_ai
Хабр
Realtime API вышел из беты: OpenAI представила gpt-realtime и снизила цены на 20%
OpenAI сделала важный шаг для рынка голосовых интерфейсов: Realtime API официально вышел из бета-версии и теперь доступен всем разработчикам. Вместе с этим компания представила модель gpt-realtime ,...
Explyt 4.1: поддержка Python и MCP, пользовательские Rules и Workflows
Привет, Хабр! Отправив детей в школы и детские сады (а кто-то из нас сам идет преподавать в ИТМО и СПбГУ), делимся первым релизом этой осени. Теперь вы можете использовать возможности ассистента в PyCharm. С поддержкой MCPсерверов больше не нужно реализовывать отдельные интеграции для каждого инструмента. Пользовательские Rules и Workflkows помогут сделать работу агента более удобной и корректной. Другие улучшения + поддержка OpenAI GPT-5
#агенты #ai_ассистент #intellij_idea_plugin #тестирование #java #программирование #искусственный_интеллект #intellij_idea #mcp #mcp_server | @habr_ai
Привет, Хабр! Отправив детей в школы и детские сады (а кто-то из нас сам идет преподавать в ИТМО и СПбГУ), делимся первым релизом этой осени. Теперь вы можете использовать возможности ассистента в PyCharm. С поддержкой MCPсерверов больше не нужно реализовывать отдельные интеграции для каждого инструмента. Пользовательские Rules и Workflkows помогут сделать работу агента более удобной и корректной. Другие улучшения + поддержка OpenAI GPT-5
#агенты #ai_ассистент #intellij_idea_plugin #тестирование #java #программирование #искусственный_интеллект #intellij_idea #mcp #mcp_server | @habr_ai
Хабр
Explyt 4.1: поддержка Python и MCP, пользовательские Rules и Workflows
Привет, Хабр! Отправив детей в школы и детские сады (а кто-то из нас сам идет преподавать в ИТМО и СПбГУ), делимся первым релизом этой осени. Теперь вы можете использовать возможности ассистента в...
[Перевод] Agentic RAG: создание более умных ИИ-систем, понимающих контекст
Команда AI for Devs подготовила перевод статьи о новом подходе — Agentic RAG. Он превращает извлечение данных в активный процесс: агенты сами решают, где искать, как уточнять запросы и когда остановиться. В результате ИИ становится гибче, точнее и действительно готовым к "боевым" задачам. Читать далее
#agentic_rag #retrieval_augmented_generation #mcp #model_context_protocol #корпоративные_системы | @habr_ai
Команда AI for Devs подготовила перевод статьи о новом подходе — Agentic RAG. Он превращает извлечение данных в активный процесс: агенты сами решают, где искать, как уточнять запросы и когда остановиться. В результате ИИ становится гибче, точнее и действительно готовым к "боевым" задачам. Читать далее
#agentic_rag #retrieval_augmented_generation #mcp #model_context_protocol #корпоративные_системы | @habr_ai
Хабр
Agentic RAG: создание более умных ИИ-систем, понимающих контекст
Команда AI for Devs подготовила перевод статьи о новом подходе — Agentic RAG. Он превращает извлечение данных в активный процесс: агенты сами решают, где искать, как уточнять запросы и когда...
[Перевод] Новый фреймворк Memento позволяет агентам на базе LLM учиться на опыте — без дообучения модели
Учёные из Юниверсити Колледж Лондон (UCL) и лаборатории Huawei Noah’s Ark Lab разработали новый подход к обучению, который позволяет агентам на базе больших языковых моделей (LLM) динамически адаптироваться к среде без дообучения самой модели. Метод основан на системе структурированной памяти, которая автоматически обновляется по мере накопления агентом опыта, что даёт возможность непрерывно повышать качество его работы. Читать далее
#ии #искусственный_интеллект #ai #artificial_intelligence #llm #mcp #цепи_маркова | @habr_ai
Учёные из Юниверсити Колледж Лондон (UCL) и лаборатории Huawei Noah’s Ark Lab разработали новый подход к обучению, который позволяет агентам на базе больших языковых моделей (LLM) динамически адаптироваться к среде без дообучения самой модели. Метод основан на системе структурированной памяти, которая автоматически обновляется по мере накопления агентом опыта, что даёт возможность непрерывно повышать качество его работы. Читать далее
#ии #искусственный_интеллект #ai #artificial_intelligence #llm #mcp #цепи_маркова | @habr_ai
Хабр
Новый фреймворк Memento позволяет агентам на базе LLM учиться на опыте — без дообучения модели
Учёные из Юниверсити Колледж Лондон (UCL) и лаборатории Huawei Noah’s Ark Lab разработали новый подход к обучению, который позволяет агентам на базе больших языковых моделей (LLM) динамически...