Заметки LLM-энтузиаста
490 subscribers
132 photos
17 videos
1 file
163 links
Дмитрий Жечков @djdim
архитектор в Yandex Cloud,
ex. VMware NSX specialist, ex. Cisco SE

Здесь пишу свои заметки по LLM (большим языковым моделям) и AI-разработке.

Это личное мнение и не отражает официальную позицию компании, в которой я работаю.
Download Telegram
#ai #dev #cursor #mcp

Написал небольшую заметку по MCP в Cursor.
Ориентировался на официальную документацию и свой опыт использования.

Ниже основные тезисы.

🔥 Model Context Protocol в Cursor: Превращаем AI-ассистент в "швейцарский нож" разработчика

Ключевые моменты:

▪️ MCP позволяет AI управлять внешними сервисами прямо из Cursor
▪️ Поддерживает два типа серверов: stdio и SSE
▪️ Простая настройка через Settings > Features > MCP

Что умеет: 🐳 Docker-контейнеры 📊 Базы данных 🎵 Spotify 🌐 Reddit API 📸 Скриншоты ...и многое другое

🛠 Настройка за 3 шага:

- Выбрать сервер из каталога
- Добавить через настройки
- Начать использовать в Composer
⚡️ Bonus: Режим YOLO для автоматического выполнения команд без подтверждений


#CursorAI #DevTools #Productivity
🔥42👍1🙏1
#news #windsurf #ai #dev #mcp

🎉 Коллеги, спешу поделиться крутыми новостями!

🌊 Вышел Windsurf 3!

Главная фишка релиза - поддержка MCP (Model Context Protocol), который Anthropic запустила в ноябре 2024.

Недавно писал про MCP в контексте Cursor здесь.

Настройка простая - через JSON конфиг указываете нужный MCP сервер.

Пример для git:
1) Заходим на https://github.com/modelcontextprotocol
2) Выбираем Git mcp https://github.com/modelcontextprotocol (см. скрин)
3) Выбираем uvx конфиг
"mcpServers": {
"git": {
"command": "uvx",
"args": ["mcp-server-git", "--repository", "path/to/git/repo"]
}
}


4) Добавляем этот конфиг в настройки MCP Windsurf (см. скриншот)


🚀 Какие еще обновления в Wave 3:

1) Полная поддержка новых моделей:

• DeepSeek V3
• DeepSeek R1
• O3 mini
• Gemini 2.0 Flash

2) Новые функции редактора:

• Tab to Jump: умное автодополнение
• Турбо режим для автоматизации (не спрашивает подтверждения на внесение изменений, это может быть опасно, но зато быстро :)
• Drag-and-drop изображений
• Кастомные иконки для самого windsurf

💰 Обновление тарифов:

1) Бесплатный план
• Базовый функционал
• Доступ к основной модели

2) Премиум ($10-15)
• 500 премиум-кредитов
• 1500 flow action кредитов

3) Pro ($60)
• Расширенный лимит
• Для активных пользователей

#Windsurf #Programming #AI #Development
2👍2🔥2
#news #cline #mcp #marketplace #ai #dev

🌟 Доступные MCP-серверы для AI-кодинга

🎯 Хорошие новости для всех, кто пишет код с использованием AI.

Команда Cline (инструмент для AI-кодинга - одна из самых классных опенсорсных альтернатив Cursor) представила MCP Marketplace, что существенно упрощает работу с AI-инструментами!

📱 Если раньше настройка MCP-сервера напоминала квест с поиском нужных репозиториев, чтением документации и настройкой конфигураций, то теперь процесс стал заметно проще:

1. Открываете маркетплейс
2. Выбираете нужный сервер
3. Нажимаете установить
4. Начинаете работу

🎁 Доступные возможности:

🔍 • Поиск по веб-ресурсам
🎨 • Интеграция с инструментами дизайна
💻 • Анализ кода
🎯 • И множество других AI-функций! (список категорий инструментов действительно впечатляет, см. скриншот)

👨‍💻 Для разработчиков:
Если у вас есть свой MCP-сервер, вы можете добавить его в каталог. Нужно создать issue в репозитории mcp-marketplace и предоставить:

📌 • URL вашего GitHub
🖼 • Логотип (400x400 PNG)
📝 • Краткое описание функционала

🌟Приятно видеть, как технологии AI становятся все доступнее для обычных пользователей, а не только для технических специалистов.

⚡️Ждем ответных шагов от Cursor и Windsurf.

💡P.S. не забудьте обновить плагин Cline, чтобы воспользоваться MCP Marketplace

#AI #технологии #разработка
👍3❤‍🔥1🔥1
#mcp #thoughts #architecture

🔄 MCP: Текущие проблемы и варианты решения

Коллеги, добрый вечер! 👋

Я думаю, что многие уже успели попробовать подключение внешних инструментов к text2code агентам вроде Cursor/Windsurf/Cline/etc
Это достаточно удобно (даже для Windows уже появились вполне себе рабочие конфигурации на https://smithery.ai/), но в этой заметке я бы хотел подсветить существующие проблемы MCP, о которых стоит знать 🧐

🤔 В чем основная проблема MCP?
MCP — stateful протокол с долгоживущим соединением между клиентом и сервером. Это означает, что:

- 🔌 Требуется постоянное соединение между клиентом и сервером
- 🏗 Нельзя развернуть MCP в бессерверной (serverless) среде
- 🔄 Необходимо поддерживать SSE (Server-Sent Events) или WebSockets

Данный факт может стать серьезным барьером для разработчиков 😱
Вместо того, чтобы быстро развернуть функцию в AWS Lambda (у нас аналогом может выступать Yandex Cloud Functions) или Vercel, приходится разворачивать и настраивать выделенные серверы или кластеры Kubernetes (могут потребоваться DevOps скиллы).

🧩 Почему MCP спроектировали как stateful протокол?
Разработчики MCP выделяют несколько killer фич, ради которых MCP был спроектирован как statefull:

- 📢 Уведомления от сервера в сторону клиента об изменениях ресурсов или инструментов
- 🤖 Возможность сервера инициировать сэмплинг (sampling) в любой момент
- 📝 Передача логов сервера клиенту
- 🔮 Потенциальные будущие возможности

Одна из основных причин — сэмплинг (sampling), который позволяет серверу запрашивать у клиента выполнение запросов к LLM. Однако:

- ⚠️ Это создает потенциальные проблемы безопасности (сторонний MCP сервер, который вы подключили к своему агенту как инструмент, может получить доступ к приватным данным агента, например, к API-ключам)
- 🚫 Скорее всего поэтому сейчас ни один из клиентов MCP не поддерживает сэмплинг (см. здесь)
- 💰 Нет стимула для клиентов тратить свои токены на запросы от сервера

🛠 Возможные решения
В сообществе обсуждаются три основных варианта:

1️⃣ Добавить токены состояния/сессии
- Инкапсулировать состояние в токен, который передается между клиентом и сервером
- Простая эволюция текущего MCP
- Сложно для реализации серверами

2️⃣ Реализовать Stateless и Stateful варианты протокола
- Поддерживать оба варианта, позволяя разработчикам выбирать
- Простые серверы могут быть stateless
- Обратная совместимость
- Усложнение спецификации и SDK

3️⃣ Реализовать только stateless MCP
- Отказаться от функций, требующих режима stateful
- Простота для всех участников
- Потеря возможностей для агентных взаимодействий
- Несовместимость с текущей версией

🌟 Прогрессивное улучшение как компромисс
Интересный подход предложил инженер из Shopify — "MCP Lite" и прогрессивное улучшение:

1. 🔄 Базовый уровень: простой JSON-RPC для вызова инструментов
2. 📡 Опциональные уведомления через SSE/WebSockets для серверов, которые хотят их поддерживать
3. 🔄 Короткоживущие SSE-соединения только на время запуска инструмента

Это позволит:
- 🚀 Упростить внедрение MCP
- 🔧 Поддерживать сложные сценарии для тех, кто в них нуждается
- 📱 Работать в serverless-окружении

🔮 Альтернативы MCP
Существуют и более простые альтернативы, например, agents.json от Wild-Card-AI:

- 📄 Простой JSON поверх OpenAPI-спецификации
- 🔗 Использует существующие технологии
- 🧠 Не требует разворачивания выделенного сервера под AI tools

🔮 Будущее MCP
Для широкого принятия MCP необходимо:

- 🧪 Добавить поддержку stateless взаимодействий
- 🔄 Сделать stateful функции опциональными
- 🔑 Улучшить безопасность двунаправленной коммуникации при использовании sampling
- 📚 Решить проблему перегрузки контекстного окна при большом количестве инструментов

💭 Вывод
MCP имеет потенциал стать стандартом взаимодействия между AI-агентами и их инструментами, но нужно преодолеть существующие ограничения. Будем надеяться, что сообщество найдет компромисс между функциональностью и простотой использования! 🙏

А что вы думаете о том, в каком направлении должен развиваться MCP? Поделитесь в комментариях! 👇

#AI #MCP #ModelContextProtocol #Development
👍5❤‍🔥4
#v0 #vercel #db #ai #dev #supabase #neon #upstash

Новые интеграции в v0 от Vercel Marketplace 🔄

Теперь в v0 доступны первые интеграции из Vercel Marketplace.
Можно добавить постоянное хранилище данных к вашим проектам буквально в пару кликов 🖱

• Доступны интеграции с Supabase, Neon и Upstash
• Процесс подключения максимально упрощен (см. здесь)
• В ближайшее время ожидаются новые интеграции в области ИИ и мониторинга

Похоже, что v0 вырвался вперед в сравнении с bolt.new и lovable.dev, которые декларируют "коробочную" интеграцию только с Supabase

#cursor #mcp
У cursor есть соответствующие MCP-серверы в каталоге https://cursor.directory/mcp

#windsurf #mcp
У windsurf тоже https://windsurf.run/

#cline - у них свой MCP-маркеплейс появился одним из первых, вот здесь писал об этом
3👍3
#agents #google #анонс

Google представляет Agent2Agent: новая эра взаимодействия ИИ-агентов 🚀

Друзья, Google только что анонсировал революционный протокол Agent2Agent (A2A), который позволит ИИ-агентам общаться между собой независимо от платформы или разработчика! 🤖↔️🤖

A2A обеспечивает взаимодействие между "клиентскими" и "удаленными" агентами через четыре ключевые возможности:

🔒 Безопасное сотрудничество
📋 Управление задачами
👥 Согласование пользовательского опыта
🔍 Обнаружение возможностей

Всё это построено на популярных стандартах HTTP и JSON-RPC с корпоративной аутентификацией.

Почему это важно? 🤔

Представьте мир, где ваши ИИ-помощники могут:
• Автоматически взаимодействовать с другими системами
• Выполнять сложные задачи без вашего постоянного участия
• Обмениваться информацией безопасно и эффективно

Ключевые принципы A2A: 💡

• Простота: использование существующих стандартов
• Безопасность: корпоративная аутентификация и авторизация
• Асинхронность: поддержка длительных задач и участия человека
• Мультимодальность: работа с текстом, аудио, видео и другими форматами
• Непрозрачное выполнение: агенты не обязаны делиться своими мыслями, планами или инструментами

Реальный пример использования: 👨‍💼

Процесс найма инженера-программиста может быть значительно упрощен с помощью A2A. Менеджер по найму может поручить своему агенту найти кандидатов, соответствующих вакансии, местоположению и набору навыков. Агент взаимодействует с другими специализированными агентами для поиска потенциальных кандидатов, а затем может организовать собеседования и проверку биографии.

Кто поддерживает A2A? 🌐

Более 50 партнеров уже присоединились к инициативе, включая Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow и многих других.

Протокол открыт для всех, и Google активно приглашает сообщество к участию в его развитии.
Полная спецификация и примеры кода уже доступны на GitHub!

Оригинальный блог-пост с анонсом от гугла тут
Подробная техническая документация здесь

Мой конспект с фокусом на сходства/отличия от #mcp можно почитать по ссылке (спойлер: A2A дополняет MCP)

Что думаете о будущем взаимодействия ИИ-агентов? Делитесь в комментариях! 👇

#AI #GoogleCloud #AgentToAgent #ИскусственныйИнтеллект #ТехнологииБудущего
👍3🔥32
#ai #dev #trae #mcp

Обновление Trae AI v1.3.0: Новые мощные инструменты для разработчиков

Trae выпустил крупное обновление до версии 1.3.0, которое превращает обычный инструмент для кодирования в настоящего партнера по разработке. Давайте рассмотрим ключевые нововведения:

🔄 Объединение панелей Chat и Builder

• Теперь вы можете получить доступ к Builder как к агенту, используя команду @Builder
• Единый интерфейс делает работу более удобной и интуитивной

📚 Новые типы контекста

#Doc: Добавляйте документы по URL или загружайте файлы .md/.txt для использования в качестве контекста в чатах
Лимит: до 1000 файлов общим размером до 50 МБ
#Web: Вставляйте URL-адреса, и ИИ автоматически извлечет релевантный контент с веб-страниц

📋 Настраиваемые правила для ИИ

• Пользовательские правила: Создавайте правила на основе личных предпочтений, которые будут применяться ко всем проектам
• Правила проекта: Создавайте правила для конкретного проекта, которые работают только в нем

🤖 Улучшенные возможности агентов

• Создавайте собственных агентов, настраивая промпты и инструменты
• Два встроенных агента: Builder и Builder с MCP
• Функция Auto-Run позволяет агентам автоматически выполнять команды и использовать инструменты
• Черный список для блокировки нежелательных команд

🔌 Поддержка Model Context Protocol (MCP)

MCP Marketplace для быстрого доступа к сторонним MCP-серверам (я проверил - работает почти также удобно как MCP маркетплейс в Cline - см. скриншот)
• Возможность добавления MCP-серверов к агентам для расширения их возможностей (очень интересная функциональность, см. скриншот)

Это обновление значительно расширяет функциональность Trae, превращая его из обычного помощника по кодированию в полноценного партнера по разработке. Интеграция c MCP определяет универсальную коммуникационную структуру, обеспечивающую бесшовное взаимодействие между встроенными агентами Trae и сторонними расширениями.

Инструмент, как и писал ранее, все еще остается бесплатным, в связи с этим есть свои преимущества (не надо платить за вызовы модели) и недостатки (для работы из РФ потребуется VPN, и при реализации даже небольшого проекта сейчас часто появляется уведомление, что модели перегружены запросами, поэтому просьба подождать)

Вариант игры "age of wars" по ТЗ удалось сделать без единой ошибки (см. скрин в комментариях), получилось не очень функционально с первой итерации, но раньше даже так не получалось, так что обновление действительно классное и пошло на пользу TRAE.

P.S. TRAE AI также доступен в виде плагина для VS Code, скачать можно здесь
👍43🔥1
Media is too big
VIEW IN TELEGRAM
#mcp #fastapi #tools #converter

Коллеги, хочу поделиться одним полезным интструментом.

Иногда возникает необходимость переиспользовать реализованные ранее микро-сервисы в качестве инструментов для новых ИИ-агентов, для этой цели можно воспользоваться конвертером FastAPI в MCP.

FastAPI-MCP: Конвертация FastAPI в инструменты для Model Context Protocol

FastAPI-MCP — инструмент с открытым исходным кодом, который преобразует конечные точки FastAPI в сервисы MCP (Model Context Protocol). Он интегрируется с приложениями FastAPI, автоматически обнаруживает все эндпоинты и сохраняет их модели запросов/ответов и документацию.

Основные функции:

• Интеграция: Возможность подключения MCP-сервиса к существующему приложению FastAPI или развертывание отдельно
• Автоматическая конфигурация: Определение FastAPI эндпоинтов и преобразование их в MCP-инструменты
• Сохранение структуры: Поддержка Swagger-документации и моделей данных
• Варианты развертывания: Работа в рамках одного приложения или в разных приложениях
• Аутентификация: Использование стандартных зависимостей FastAPI для безопасности
• Настройка: Фильтрация эндпоинтов и настройка именования инструментов

Пример базового использования:


from fastapi import FastAPI
from fastapi_mcp import FastApiMCP

app = FastAPI()

mcp = FastApiMCP(app)

# Подключение MCP-сервера к FastAPI приложению
mcp.mount()


После этого MCP-сервер становится доступен по адресу https://app.base.url/mcp

Применение:

• Для разработчиков, которым требуется предоставить API-эндпоинты в виде MCP-инструментов для совместимых клиентов (Cursor, Cline, Roo Code, Trae AI, Claude Desktop и т.д.)

• В сценариях, где необходимо взаимодействие ИИ-моделей с API через протокол MCP

Библиотека требует Python 3.10+ (рекомендуется 3.12) и распространяется под лицензией MIT.

#FastAPI #MCP #API #разработка

И в заключении поста небольшой анонс.

В связи с бурным ростом технологий сетевого взаимодействия ИИ-агентов, ключом к успеху и быстрой реализации новых проектов является умение декомпозировать сложную задачу на небольшие блоки, чтобы можно было собрать решение, опираясь на имеющиеся инструменты и коннекторы. ИИ-агент - это по сути и есть "микро-сервис" в GenAI-разработке.

Мы обновили содержание курса по ИИ программированию с учетом новых тенденций.
Завтра стартует третий поток. Кому интересно - присоединяйтесь.
И небольшой "промо-ролик" для поднятия настроения :)
2🔥2
#mcp #list #top #agents

Топ-10 MCP-серверов для ИИ-агентов, апрель 2025 года 🤖

В этом обзоре представлены наиболее интересные с моей точки зрения MCP-серверы, которые расширяют возможности ИИ-агентов.
Эти инструменты обеспечивают доступ к различным функциям через единый интерфейс — от SQL-запросов до анимации и видеоредактирования.

1. Anyquery: универсальные SQL-запросы с поддержкой ИИ 💾

Anyquery позволяет делать запросы к различным источникам данных с помощью SQL.

Функциональность:

• Работа с традиционными базами данных и локальными файлами
• Интеграция с приложениями (Apple Notes, Notion)
• Поддержка веб-браузеров, включая Chrome
• Интеграция с языковыми моделями (ChatGPT, Claude) через протокол MCP
• Функционирование в качестве MySQL-сервера
• Совместимость с MySQL-клиентами (TablePlus, Metabase)
• Архитектура на основе SQLite с поддержкой плагинов

2. PluggedInMCP Proxy Server: централизованное управление MCP-серверами 🔄

PluggedInMCP Proxy Server представляет собой универсальный интерфейс для управления MCP-серверами, запущенными локально или через веб с использованием WebSockets.

Функциональность:

• Совместимость с MCP-клиентами (Claude Desktop, Klein, Cursor)
• Автоматическая загрузка конфигураций, инструментов и ресурсов
• Изоляция пространств имен для организации разных наборов MCP
• Многорабочее пространство для переключения между конфигурациями

3. Manim MCP Server: математические анимации через MCP 📊

Manim MCP Server объединяет математические анимации с протоколом MCP, позволяя выполнять скрипты Manim Python и получать анимационное видео.

Функциональность:

• Программное создание математических визуализаций
• Рендеринг через стандартизированный протокол
• Интеграция с MCP-совместимыми инструментами
• Генерация анимаций через текстовые запросы
• Автоматическое сохранение анимаций в медиа-папке

4. Video Editor MCP Server: редактирование видео через MCP 🎬

Video Editor MCP Server интегрирует возможности редактирования видео в экосистему MCP, позволяя языковым моделям взаимодействовать с видеоконтентом.

Функциональность:

• Интерфейс для загрузки, редактирования, поиска и генерации видео
• Интеграция с платформой Video Jungle
• Схема URI vj:// для обращения к видео и проектам
• Поиск видео с использованием эмбеддингов
• Метаданные о содержании видео и временных метках
• Инструменты для добавления видео из URL
• Поиск локальных видеофайлов в приложении Photos на macOS

5. DaVinci Resolve MCP Server: управление видеоредактором через MCP 🎥

DaVinci Resolve MCP Server интегрирует ИИ-ассистентов с профессиональным видеоредактором DaVinci Resolve.

Функциональность:

• Управление DaVinci Resolve с помощью текстовых команд
• Перечисление проектов, создание таймлайнов, добавление маркеров
• API-подобное управление через ИИ
• Автоматизация рабочих процессов видеомонтажа

6. Anilist MCP Server: доступ к данным об аниме и манге 🎌

Anilist MCP Server обеспечивает доступ к API Anilist через MCP-клиенты, позволяя взаимодействовать с данными об аниме и манге через текстовые команды.

Функциональность:

• Поиск аниме, манги, персонажей, студий
• Получение подробной информации о контенте
• Доступ к профилям пользователей и спискам
• Специализированные инструменты для данных Anilist
• Доступ к пользовательским спискам с авторизацией

7. MetaMCP: управление MCP-серверами 🎛

MetaMCP представляет собой промежуточный слой для централизованного управления MCP-серверами.

Функциональность:

• Единый интерфейс для контроля MCP-интеграций
• Совместимость с различными MCP-клиентами
• Управление инструментами, подсказками и ресурсами
• Мультирабочее пространство для изоляции конфигураций
• Детальное управление инструментами
• Доступен в версии с открытым исходным кодом и в облачной версии (доступна бесплатно)
1👍1
8. OpenMCP: стандартизация доступа к веб-API 🌐

OpenMCP — стандарт и реестр для соединения ИИ-инструментов с веб-API.

Функциональность:

• Преобразование веб-API в MCP
• Взаимодействие MCP-клиентов с различными сервисами
• Открытый реестр серверов
• Поддержка форматов REST, gRPC и GraphQL
• Инструменты для разработчиков
• Упрощенное добавление серверов к MCP-клиентам

9. Aseprite MCP Server: интеграция с редактором пиксельной графики 🎨

Aseprite MCP Server интегрирует ИИ-помощников с редактором пиксельной графики Aseprite.

Функциональность:
• Взаимодействие с Aseprite через текстовые команды
• API-уровневая коммуникация через MCP
• Автоматизация создания кадров анимации и модификации палитр
• Выполнение повторяющихся действий через команды

10. Pipedream: соединение приложение и автоматизация ⚙️

Pipedream — платформа для быстрого соединения приложений и создания автоматизаций.

Функциональность:

• Бесплатная среда для разработчиков
• Более 1000 интеграционных компонентов
• Подключение к популярным сервисам (Slack, Google Sheets)
• Поддержка пользовательского кода (Node.js, Python, Golang, Bash)
• Низкокодовый подход
• Архитектура, управляемая событиями
• Триггеры от различных источников
• Предварительно созданные действия для типовых операций

Вышеуказанные MCP-серверы предоставляют широкие возможности для агентной автоматизации и интеграции ИИ в различные рабочие процессы — от исследовательских задач до создания контента и управления данными. 🚀

#ИскусственныйИнтеллект #MCP #ИИагенты #Технологии #Автоматизация
👍42
#mcp #api #tools #ai #dev

🚀 6 инструментов для преобразования API в MCP-серверы

Привет, друзья! Сегодня делюсь полезной подборкой для разработчиков. Если вам нужно быстро адаптировать ваши API для работы с ИИ-агентами, эти инструменты сэкономят кучу времени 👇

1️⃣ FastAPI-MCP

Чуть выше писал об этом инструменте, здесь коротко повторюсь.
Позволяет преобразовать FastAPI end points в MCP-серверы одной строкой кода с нативной поддержкой аутентификации. Сохраняет все схемы и зависимости. Полностью с открытым исходным кодом.

2️⃣ RapidMCP

Преобразует REST API в MCP-сервер за считанные минуты без изменения кода. Просто подключите ваш API и преобразуйте его в MCP-сервер, готовый для работы с ИИ-агентами - без необходимости модификации бэкенда.
Есть платный и бесплатные тарифы.

3️⃣ MCPify

Позволяет создавать и разворачивайть MCP-серверы без написания ни единой строчки кода. Похож на Lovable/Bolt/V0 но для создания MCP-серверов. Поддерживает транспорт Streamable HTTP от MCP. Вы также можете делиться созданными MCP-серверами с другими пользователями на той же платформе.
Есть только платные тарифы.
Некоторым аналогом, но более широкого плана может являться Databutton (см. ниже)

4️⃣ Databutton MCP

Превратите любое Databutton-приложение в MCP-сервер одним кликом через настройки. Создавайте инструменты для ИИ так же, как API для вашего приложения, с возможностью добавления Python-документации для лучшего понимания агентом. Databutton размещает MCP-серверы онлайн, избавляя от необходимости локального запуска и позволяя легко интегрироваться с Claude Desktop и другими ИИ-ассистентами. Идеально подходит для создания инструментов для исследования, маркетинга и продаж.
Про Data Button писал в обзоре AI инструментов для Vibe Coding (оригинальный пост здесь)

5️⃣ Speakeasy

Генерирует MCP-серверы напрямую из документации OpenAPI с минимальным кодом. Создает TypeScript MCP-серверы с настраиваемыми описаниями инструментов и областями применения. На данный момент функциональность в Beta.

6️⃣ Higress от Alibaba

Преобразует спецификации OpenAPI в MCP-серверы одной командой. Инструмент openapi-to-mcp от Higress автоматически конвертирует документацию API в серверы с подробными шаблонами ответов. Развертывание без инфраструктуры. Полностью с открытым исходным кодом.

А какие инструменты используете вы? Делитесь в комментариях! 👇

#разработка #API #MCP #инструменты
4🔥3
Опасная уязвимость в Chrome-расширениях: доступ к MCP-серверам

Поговорим немного про безопасность в контексте MCP.
Исследователи из ExtensionTotal обнаружили серьезную уязвимость в экосистеме Chrome-расширений, позволяющую обойти защитную "песочницу" браузера. Проблема связана с Model Context Protocol (MCP) - протоколом, который используется для взаимодействия ИИ-агентов с системными инструментами.

Суть проблемы:
• Chrome-расширения могут без аутентификации подключаться к локальным MCP-серверам
MCP-серверы по умолчанию не требуют аутентификации
• Через такое подключение расширение получает доступ к файловой системе и другим ресурсам

Последствия:
• Полный обход защитной "песочницы" Chrome
• Неограниченный доступ к файловой системе
• Возможность взаимодействия с приложениями (Slack, WhatsApp и др.)
• Потенциальный полный захват компьютера

Особенно тревожно то, что для эксплуатации этой уязвимости расширению не требуются специальные разрешения. Если на компьютере запущен уязвимый MCP-сервер, любое расширение может получить к нему доступ.

Рекомендуется пересмотреть политики безопасности при использовании MCP-серверов и внимательно следить за поведением установленных расширений.

Или как вариант не устанавливать MCP-серверы локально, а использовать внешние платформы хостинга MCP-серверов с аутентфикацией, например:
https://mcp.pipedream.com/
https://mcp.composio.dev/

#кибербезопасность #Chrome #уязвимости #MCP #ИИ #security
👍43🔥1
MCP и Function Calling: соперники или дополняющие друг друга технологии ?

В мире искусственного интеллекта постоянно появляются новые технологии и стандарты, которые могут сбивать с толку даже опытных разработчиков. Одна из таких пар технологий — MCP (Model Сontext Protocol) и Function Calling. Давайте разберемся, в чем их отличия и могут ли они дополнять друг друга.

Главный спойлер: они не конкурируют, а дополняют друг друга! 🤝

Про MCP уже много раз писал здесь и тут, поэтому начнем с технологии Function Calling, которая "календарно" появилась значительно раньше, но сейчас по силе "хайпа" значительно уступает MCP.

Что такое Function Calling?

Function Calling — это способность языковых моделей (LLM) определять, когда необходимо использовать внешние инструменты для решения задачи. По сути, это механизм, который позволяет ИИ:

1️⃣ Распознавать ситуации, требующие применения внешних функций
2️⃣ Структурировать параметры для выполнения этих функций
3️⃣ Работать в контексте одного приложения
4️⃣ Определять, ЧТО и КОГДА нужно использовать

При этом сам процесс запуска инструмента остается на стороне разработчика.
Простыми словами: Function Calling — это когда ИИ говорит "Мне нужно сейчас выполнить поиск в интернете".

Что такое MCP?

MCP (Model Context Protocol) — это стандартизированный протокол, который определяет:

1️⃣ Как инструменты предоставляются и обнаруживаются
2️⃣ Последовательный протокол для хостинга инструментов
3️⃣ Возможность обмена инструментами в рамках всей экосистемы
4️⃣ Разделение реализации инструмента от его использования

MCP отвечает на вопрос КАК инструменты предоставляются и обнаруживаются стандартизированным способом. Это похоже на то, как если бы MCP говорил: "Вот как любой инструмент может быть последовательно доступен для любой системы ИИ".

Ключевые различия ⚡️

Function Calling: определяет КАКОЙ инструмент использовать и КОГДА его применять
MCP: устанавливает КАК инструменты предоставляются и обнаруживаются в стандартизированном виде

Почему это важно? 🤔

MCP имеет потенциал стать "REST для ИИ-инструментов" — повсеместным стандартом, который предотвращает фрагментацию экосистемы. Он позволяет разработчикам сосредоточиться на создании качественных инструментов, а не на изобретении новых способов их хостинга

Как они работают вместе?

Эти технологии не конкурируют, а дополняют друг друга:

• Function Calling определяет необходимость использования инструмента
MCP обеспечивает стандартизированный способ доступа к этому инструменту

Важные мысли 💡

• По мере усложнения систем ИИ, стандартизированные протоколы вроде MCP становятся необходимыми для обеспечения совместимости.
• Компании, которые внедряют обе технологии, смогут быстрее создавать более надежные системы ИИ.
• В конечном счете, будущее не в выборе между MCP и Function Calling, а в их эффективном совместном использовании для создания более мощных и гибких ИИ-систем.

Что еще почитать по теме "Function Calling и/или MCP?"

https://medium.com/@genai.works/%EF%B8%8F-function-calling-vs-mcp-what-smart-ai-teams-need-to-know-7c319267b6db
https://www.gentoro.com/blog/function-calling-vs-model-context-protocol-mcp
https://neon.tech/blog/mcp-vs-llm-function-calling

А вы уже используете MCP в своих проектах или пока ограничиваетесь базовым Function Calling?
Поделитесь своим опытом в комментариях! 👇

#ИскусственныйИнтеллект #LLM #MCP #FunctionCalling #РазработкаИИ
2👍2🔥2
Недавно наткнулся на интересную заметку на редите по поводу безопасной работы с хостинговыми MCP-серверами. Почему, лучше использовать их, а не локальные серверы писал чуть ранее. Однако, и при использовании хостинговых MCP-сервисов тоже нужно соблюдать некоторые правила, на чем и делается акцент в данной заметке. Ниже привожу ее слегка вольный перевод на русский язык.

URL-адреса хостинговых MCP-серверов следует рассматривать как секреты 🔐

Краткая версия: нынешний ажиотаж вокруг хостинговых MCP-серверов сопровождается некоторыми сомнительными практиками в области безопасности. ⚠️ Черновик следующей редакции протокола MCP стремится решить эту проблему с поддержкой авторизации. А пока... будьте осторожны с этими URL-адресами хостинговых MCP-серверов! 🚨

Недавно я решил взглянуть на Composio 🧐, который привлек некоторое внимание в последние дни. Это платформа, которая размещает и запускает MCP-серверы, предоставляя конечную точку на основе Server Sent Events, к которой могут обращаться MCP-совместимые клиенты для получения данных.

Как это работает:
• Composio позволяет выбрать интеграцию (например, с Notion 📝)
• Вы аутентифицируетесь с помощью OAuth2
• Composio запускает хостинговый MCP-сервер в бессерверном контейнере
• Сервер использует ваш OAuth-токен для взаимодействия с API
• Вы получаете URL вашего сервера: https://mcp.composio.dev/notion/blah-blah-blah-uuid123

Проблема безопасности 🛡

Главная проблема:
• Этот URL фактически является API-ключом с доступом ко всем вашим данным 😱
• Большинство людей бездумно копируют эти URL в разные клиенты
• Никто не знает, как эти клиенты хранят то, что должно быть секретом 🤦‍♂️
• API-ключи и секреты должны храниться только в переменных окружения или безопасных хранилищах

Мое примечание: я сам, недавно проводя занятия по созданию MCP-серверов, спокойно шарил эти url, потом пришлось все удалять и пересоздавать заново.

Что делать:
• Разработчики MCP осведомлены об этой проблеме 👍
• В спецификации есть раздел "Third party authorization flow"
• Разработчикам сервисов вроде Composio следует реализовать эти меры безопасности
• А пока — будьте осторожны с URL-адресами хостинговых MCP-серверов! 🔒

Не разбрасывайтесь URL-адресами как конфетти на параде технологических новинок. 🎭

#MCP #Безопасность #Composio #ИскусственныйИнтеллект #security
👍31🔥1
Git-MCP: Решение проблем с контекстом для AI-кодеров 🧠

Проблема контекста в AI-кодерах

Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅

Существующие решения не идеальны:

1️⃣ Ручное объяснение или вставка кода (утомительно)

2️⃣ Прямая ссылка на документацию (перегружает контекст)

3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)

Git-MCP: элегантное решение 🛠

Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.

Как это работает:

1️⃣ Замените в URL github.com на gitmcp.io

2️⃣ Получите готовый MCP-сервер для репозитория

3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента

4️⃣ Наслаждайтесь точным контекстом без лишнего шума

Поддерживаемые форматы:

• GitHub репозитории: gitmcp.io/{owner}/{repo}
• GitHub Pages: {owner}.gitmcp.io/{repo}
• Универсальный эндпоинт: gitmcp.io/docs

Интеграция с AI-инструментами:

• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI

Как Git-
MCP обрабатывает документацию 📚

Система приоритизирует источники в следующем порядке:

1️⃣ llms.txt (AI-оптимизированный формат документации)

2️⃣ AI-оптимизированная версия документации проекта

3️⃣ README.md или корневая документация

Преимущества перед другими решениями 💪

• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP

Заключение 🤔

Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.

В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.

Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.

Источники:
https://github.com/idosal/git-mcp
https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.

#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
👍72🔥1
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?

OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.

По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.

Как это работает?

OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:

add_memories: Сохранение новых объектов памяти
search_memory: Поиск релевантных воспоминаний
list_memories: Просмотр всей сохранённой памяти
delete_all_memories: Полная очистка памяти

Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.

Что это даёт на практике?

1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.

2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.

3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).

Поддерживаемые клиенты

OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:

• Cursor
• Claude Desktop
• Windsurf
• Cline и другие

По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.

Установка и настройка

Установка OpenMemory довольно проста и занимает всего несколько минут:

# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory

# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env

# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build

# Запускаем все сервисы
make up

# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui


Для подключения MCP-клиентов вам понадобится ваш ID пользователя:

whoami


Затем добавьте следующую конфигурацию в ваш MCP-клиент:

npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>


Панель управления OpenMemory будет доступна по адресу: http://localhost:3000

Примеры использования

💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.

⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.

📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.

Заключение

OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.

Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.

Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь

#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
2👍1🔥1
DeepWiki MCP: новый инструмент для работы с документацией GitHub 📚

В дополнениии к GitMCP и Сontext7 Cognition Labs выпустила DeepWiki MCP — бесплатный сервер для интеграции с AI-кодерами вроде Cursor. Инструмент позволяет получать информацию из документации GitHub-репозиториев прямо в процессе написания кода.

Основные возможности:

ask_question — задать вопрос о любом GitHub-репозитории и получить ответ на основе документации
read_wiki_contents — получить детальную документацию из репозитория
read_wiki_structure — просмотреть структуру и разделы документации

Технические особенности:

🔹 Полностью бесплатный и открытый
🔹 Не требует регистрации или аутентификации
🔹 Поддерживает протоколы SSE и Streamable HTTP
🔹 Совместим с любыми MCP-клиентами

Настройка в Cursor:

1️⃣ Для конкретного проекта: создать файл .cursor/mcp.json в папке проекта (жаль нет возможности создавать список проектных mcp-серверов в UI)
2️⃣ Для глобального использования: создать файл ~/.cursor/mcp.json в домашней директории (или в UI)

Базовый URL сервера: https://mcp.deepwiki.com/

Пример настройки:

{
"mcpServers": {
"context7": {
"command": "npx",
"args": [
"-y",
"@upstash/context7-mcp@latest"
]
},
"deepwiki": {
"url": "https://mcp.deepwiki.com/mcp"
}
}
}


Пример использования на скриншоте.

Инструмент может быть полезен разработчикам, которые часто работают с документацией и хотят сократить время на поиск информации.

#mcp #cursor #github #documentation #ai
2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Zen MCP Server: интеграция Claude Code с другими AI-моделями 🤖

Несмотря на то, что Claude Code необычайно быстр и удобен, думаю, что многие из вас уже сталкивались с ситуацией когда он иногда "слегка забывает" предыдущие шаги при работе со сложными задачами из-за ограничений контекстного окна (даже при использовании опции /compact). В этот момент хочется следовать проверенному временем процессу.
Я когда работаю в Cursor/Windsurf/Roo для анализа существующей кодовой базы обычно использую Gemini 2.5 Pro, а для планирования использую o3 или o3-mini/o4-mini.
При использовании Claude Code у нас есть возможность использовать для планирования и сложного траблшутинга Claude 4 Opus, во всех других случаях - Claude 4 Sonnet.
Claude 4 Opus дорогой и даже при использовании Claude Max 5x плана (за $100 в месяц) можно близко подойти к лимитам его использования, и в голову начинает приходить мысль "а не перейти ли на Max 20x plan за $200 долларов в месяц", которых мне пока что жалко :)

Zen MCP Server позволяет решить эти проблемы, позволяя Claude Code взаимодействовать с другими моделями, у которых и контекстное окно значительно больше, и reasoning-способности на очень хорошем уровне.

Что это дает 📈

• Доступ к Gemini 2.5 Pro с контекстом до 1M токенов
• Работа с GPT O3 и другими моделями
• Возможность передать всю кодовую базу проекта для анализа

Основные инструменты 🛠

1️⃣ chat — мозговой штурм и обзор кода
2️⃣ thinkdeep — глубокий анализ сложных проблем
3️⃣ planner — пошаговое планирование
4️⃣ consensus — получение мнений от нескольких моделей
5️⃣ codereview — профессиональный код-ревью
6️⃣ precommit — проверка перед коммитом
7️⃣ debug — диагностика и исправление багов
8️⃣ analyze — анализ больших файлов
9️⃣ refactor — рефакторинг кода
🔟 tracer — отслеживание зависимостей
1️⃣1️⃣ testgen — генерация тестов
1️⃣2️⃣ настраиваемые инструменты

Поддерживаемые провайдеры 🌐
• Google Gemini (нативный API)
• OpenAI (O3 модель)
• OpenRouter (множество моделей через один API)
• Локальные модели (Ollama, vLLM, LM Studio)

Особенности⚡️
• Автоматический выбор подходящей модели для задачи
• Продолжение диалогов между моделями
• Работа с изображениями и диаграммами
• Обход ограничений MCP в 25K токенов

Проект с открытым исходным кодом, лицензия Apache 2.0.
Deepwiki по проекту здесь.
Настройка через Docker занимает около 5 минут.

@llm_notes

#claude #mcp #ai_tools #code_review #gemini
👍6542