#ai #dev #cursor #mcp
Написал небольшую заметку по MCP в Cursor.
Ориентировался на официальную документацию и свой опыт использования.
Ниже основные тезисы.
🔥 Model Context Protocol в Cursor: Превращаем AI-ассистент в "швейцарский нож" разработчика
Ключевые моменты:
▪️ MCP позволяет AI управлять внешними сервисами прямо из Cursor
▪️ Поддерживает два типа серверов: stdio и SSE
▪️ Простая настройка через Settings > Features > MCP
Что умеет: 🐳 Docker-контейнеры 📊 Базы данных 🎵 Spotify 🌐 Reddit API 📸 Скриншоты ...и многое другое
🛠 Настройка за 3 шага:
- Выбрать сервер из каталога
- Добавить через настройки
- Начать использовать в Composer
⚡️ Bonus: Режим YOLO для автоматического выполнения команд без подтверждений
#CursorAI #DevTools #Productivity
Написал небольшую заметку по MCP в Cursor.
Ориентировался на официальную документацию и свой опыт использования.
Ниже основные тезисы.
🔥 Model Context Protocol в Cursor: Превращаем AI-ассистент в "швейцарский нож" разработчика
Ключевые моменты:
▪️ MCP позволяет AI управлять внешними сервисами прямо из Cursor
▪️ Поддерживает два типа серверов: stdio и SSE
▪️ Простая настройка через Settings > Features > MCP
Что умеет: 🐳 Docker-контейнеры 📊 Базы данных 🎵 Spotify 🌐 Reddit API 📸 Скриншоты ...и многое другое
🛠 Настройка за 3 шага:
- Выбрать сервер из каталога
- Добавить через настройки
- Начать использовать в Composer
⚡️ Bonus: Режим YOLO для автоматического выполнения команд без подтверждений
#CursorAI #DevTools #Productivity
🔥4❤2👍1🙏1
#news #windsurf #ai #dev #mcp
🎉 Коллеги, спешу поделиться крутыми новостями!
🌊 Вышел Windsurf 3!
Главная фишка релиза - поддержка MCP (Model Context Protocol), который Anthropic запустила в ноябре 2024.
Недавно писал про MCP в контексте Cursor здесь.
Настройка простая - через JSON конфиг указываете нужный MCP сервер.
Пример для git:
1) Заходим на https://github.com/modelcontextprotocol
2) Выбираем Git mcp https://github.com/modelcontextprotocol (см. скрин)
3) Выбираем uvx конфиг
4) Добавляем этот конфиг в настройки MCP Windsurf (см. скриншот)
🚀 Какие еще обновления в Wave 3:
1) Полная поддержка новых моделей:
• DeepSeek V3
• DeepSeek R1
• O3 mini
• Gemini 2.0 Flash
2) Новые функции редактора:
• Tab to Jump: умное автодополнение
• Турбо режим для автоматизации (не спрашивает подтверждения на внесение изменений, это может быть опасно, но зато быстро :)
• Drag-and-drop изображений
• Кастомные иконки для самого windsurf
💰 Обновление тарифов:
1) Бесплатный план
• Базовый функционал
• Доступ к основной модели
2) Премиум ($10-15)
• 500 премиум-кредитов
• 1500 flow action кредитов
3) Pro ($60)
• Расширенный лимит
• Для активных пользователей
#Windsurf #Programming #AI #Development
🎉 Коллеги, спешу поделиться крутыми новостями!
🌊 Вышел Windsurf 3!
Главная фишка релиза - поддержка MCP (Model Context Protocol), который Anthropic запустила в ноябре 2024.
Недавно писал про MCP в контексте Cursor здесь.
Настройка простая - через JSON конфиг указываете нужный MCP сервер.
Пример для git:
1) Заходим на https://github.com/modelcontextprotocol
2) Выбираем Git mcp https://github.com/modelcontextprotocol (см. скрин)
3) Выбираем uvx конфиг
"mcpServers": {
"git": {
"command": "uvx",
"args": ["mcp-server-git", "--repository", "path/to/git/repo"]
}
}
4) Добавляем этот конфиг в настройки MCP Windsurf (см. скриншот)
🚀 Какие еще обновления в Wave 3:
1) Полная поддержка новых моделей:
• DeepSeek V3
• DeepSeek R1
• O3 mini
• Gemini 2.0 Flash
2) Новые функции редактора:
• Tab to Jump: умное автодополнение
• Турбо режим для автоматизации (не спрашивает подтверждения на внесение изменений, это может быть опасно, но зато быстро :)
• Drag-and-drop изображений
• Кастомные иконки для самого windsurf
💰 Обновление тарифов:
1) Бесплатный план
• Базовый функционал
• Доступ к основной модели
2) Премиум ($10-15)
• 500 премиум-кредитов
• 1500 flow action кредитов
3) Pro ($60)
• Расширенный лимит
• Для активных пользователей
#Windsurf #Programming #AI #Development
❤2👍2🔥2
#news #cline #mcp #marketplace #ai #dev
🌟 Доступные MCP-серверы для AI-кодинга
🎯 Хорошие новости для всех, кто пишет код с использованием AI.
Команда Cline (инструмент для AI-кодинга - одна из самых классных опенсорсных альтернатив Cursor) представила MCP Marketplace, что существенно упрощает работу с AI-инструментами!
📱 Если раньше настройка MCP-сервера напоминала квест с поиском нужных репозиториев, чтением документации и настройкой конфигураций, то теперь процесс стал заметно проще:
✨ 1. Открываете маркетплейс
✨ 2. Выбираете нужный сервер
✨ 3. Нажимаете установить
✨ 4. Начинаете работу
🎁 Доступные возможности:
🔍 • Поиск по веб-ресурсам
🎨 • Интеграция с инструментами дизайна
💻 • Анализ кода
🎯 • И множество других AI-функций! (список категорий инструментов действительно впечатляет, см. скриншот)
👨💻 Для разработчиков:
Если у вас есть свой MCP-сервер, вы можете добавить его в каталог. Нужно создать issue в репозитории mcp-marketplace и предоставить:
📌 • URL вашего GitHub
🖼 • Логотип (400x400 PNG)
📝 • Краткое описание функционала
🌟Приятно видеть, как технологии AI становятся все доступнее для обычных пользователей, а не только для технических специалистов.
⚡️Ждем ответных шагов от Cursor и Windsurf.
💡P.S. не забудьте обновить плагин Cline, чтобы воспользоваться MCP Marketplace
#AI #технологии #разработка
🌟 Доступные MCP-серверы для AI-кодинга
🎯 Хорошие новости для всех, кто пишет код с использованием AI.
Команда Cline (инструмент для AI-кодинга - одна из самых классных опенсорсных альтернатив Cursor) представила MCP Marketplace, что существенно упрощает работу с AI-инструментами!
📱 Если раньше настройка MCP-сервера напоминала квест с поиском нужных репозиториев, чтением документации и настройкой конфигураций, то теперь процесс стал заметно проще:
✨ 1. Открываете маркетплейс
✨ 2. Выбираете нужный сервер
✨ 3. Нажимаете установить
✨ 4. Начинаете работу
🎁 Доступные возможности:
🔍 • Поиск по веб-ресурсам
🎨 • Интеграция с инструментами дизайна
💻 • Анализ кода
🎯 • И множество других AI-функций! (список категорий инструментов действительно впечатляет, см. скриншот)
👨💻 Для разработчиков:
Если у вас есть свой MCP-сервер, вы можете добавить его в каталог. Нужно создать issue в репозитории mcp-marketplace и предоставить:
📌 • URL вашего GitHub
🖼 • Логотип (400x400 PNG)
📝 • Краткое описание функционала
🌟Приятно видеть, как технологии AI становятся все доступнее для обычных пользователей, а не только для технических специалистов.
⚡️Ждем ответных шагов от Cursor и Windsurf.
💡P.S. не забудьте обновить плагин Cline, чтобы воспользоваться MCP Marketplace
#AI #технологии #разработка
👍3❤🔥1🔥1
#mcp #thoughts #architecture
🔄 MCP: Текущие проблемы и варианты решения
Коллеги, добрый вечер! 👋
Я думаю, что многие уже успели попробовать подключение внешних инструментов к text2code агентам вроде Cursor/Windsurf/Cline/etc
Это достаточно удобно (даже для Windows уже появились вполне себе рабочие конфигурации на https://smithery.ai/), но в этой заметке я бы хотел подсветить существующие проблемы MCP, о которых стоит знать 🧐
🤔 В чем основная проблема MCP?
MCP — stateful протокол с долгоживущим соединением между клиентом и сервером. Это означает, что:
- 🔌 Требуется постоянное соединение между клиентом и сервером
- 🏗 Нельзя развернуть MCP в бессерверной (serverless) среде
- 🔄 Необходимо поддерживать SSE (Server-Sent Events) или WebSockets
Данный факт может стать серьезным барьером для разработчиков 😱
Вместо того, чтобы быстро развернуть функцию в AWS Lambda (у нас аналогом может выступать Yandex Cloud Functions) или Vercel, приходится разворачивать и настраивать выделенные серверы или кластеры Kubernetes (могут потребоваться DevOps скиллы).
🧩 Почему MCP спроектировали как stateful протокол?
Разработчики MCP выделяют несколько killer фич, ради которых MCP был спроектирован как statefull:
- 📢 Уведомления от сервера в сторону клиента об изменениях ресурсов или инструментов
- 🤖 Возможность сервера инициировать сэмплинг (sampling) в любой момент
- 📝 Передача логов сервера клиенту
- 🔮 Потенциальные будущие возможности
Одна из основных причин — сэмплинг (sampling), который позволяет серверу запрашивать у клиента выполнение запросов к LLM. Однако:
- ⚠️ Это создает потенциальные проблемы безопасности (сторонний MCP сервер, который вы подключили к своему агенту как инструмент, может получить доступ к приватным данным агента, например, к API-ключам)
- 🚫 Скорее всего поэтому сейчас ни один из клиентов MCP не поддерживает сэмплинг (см. здесь)
- 💰 Нет стимула для клиентов тратить свои токены на запросы от сервера
🛠 Возможные решения
В сообществе обсуждаются три основных варианта:
1️⃣ Добавить токены состояния/сессии
- Инкапсулировать состояние в токен, который передается между клиентом и сервером
- ✅ Простая эволюция текущего MCP
- ❌ Сложно для реализации серверами
2️⃣ Реализовать Stateless и Stateful варианты протокола
- Поддерживать оба варианта, позволяя разработчикам выбирать
- ✅ Простые серверы могут быть stateless
- ✅ Обратная совместимость
- ❌ Усложнение спецификации и SDK
3️⃣ Реализовать только stateless MCP
- Отказаться от функций, требующих режима stateful
- ✅ Простота для всех участников
- ❌ Потеря возможностей для агентных взаимодействий
- ❌ Несовместимость с текущей версией
🌟 Прогрессивное улучшение как компромисс
Интересный подход предложил инженер из Shopify — "MCP Lite" и прогрессивное улучшение:
1. 🔄 Базовый уровень: простой JSON-RPC для вызова инструментов
2. 📡 Опциональные уведомления через SSE/WebSockets для серверов, которые хотят их поддерживать
3. 🔄 Короткоживущие SSE-соединения только на время запуска инструмента
Это позволит:
- 🚀 Упростить внедрение MCP
- 🔧 Поддерживать сложные сценарии для тех, кто в них нуждается
- 📱 Работать в serverless-окружении
🔮 Альтернативы MCP
Существуют и более простые альтернативы, например, agents.json от Wild-Card-AI:
- 📄 Простой JSON поверх OpenAPI-спецификации
- 🔗 Использует существующие технологии
- 🧠 Не требует разворачивания выделенного сервера под AI tools
🔮 Будущее MCP
Для широкого принятия MCP необходимо:
- 🧪 Добавить поддержку stateless взаимодействий
- 🔄 Сделать stateful функции опциональными
- 🔑 Улучшить безопасность двунаправленной коммуникации при использовании sampling
- 📚 Решить проблему перегрузки контекстного окна при большом количестве инструментов
💭 Вывод
MCP имеет потенциал стать стандартом взаимодействия между AI-агентами и их инструментами, но нужно преодолеть существующие ограничения. Будем надеяться, что сообщество найдет компромисс между функциональностью и простотой использования! 🙏
А что вы думаете о том, в каком направлении должен развиваться MCP? Поделитесь в комментариях! 👇
#AI #MCP #ModelContextProtocol #Development
🔄 MCP: Текущие проблемы и варианты решения
Коллеги, добрый вечер! 👋
Я думаю, что многие уже успели попробовать подключение внешних инструментов к text2code агентам вроде Cursor/Windsurf/Cline/etc
Это достаточно удобно (даже для Windows уже появились вполне себе рабочие конфигурации на https://smithery.ai/), но в этой заметке я бы хотел подсветить существующие проблемы MCP, о которых стоит знать 🧐
🤔 В чем основная проблема MCP?
MCP — stateful протокол с долгоживущим соединением между клиентом и сервером. Это означает, что:
- 🔌 Требуется постоянное соединение между клиентом и сервером
- 🏗 Нельзя развернуть MCP в бессерверной (serverless) среде
- 🔄 Необходимо поддерживать SSE (Server-Sent Events) или WebSockets
Данный факт может стать серьезным барьером для разработчиков 😱
Вместо того, чтобы быстро развернуть функцию в AWS Lambda (у нас аналогом может выступать Yandex Cloud Functions) или Vercel, приходится разворачивать и настраивать выделенные серверы или кластеры Kubernetes (могут потребоваться DevOps скиллы).
🧩 Почему MCP спроектировали как stateful протокол?
Разработчики MCP выделяют несколько killer фич, ради которых MCP был спроектирован как statefull:
- 📢 Уведомления от сервера в сторону клиента об изменениях ресурсов или инструментов
- 🤖 Возможность сервера инициировать сэмплинг (sampling) в любой момент
- 📝 Передача логов сервера клиенту
- 🔮 Потенциальные будущие возможности
Одна из основных причин — сэмплинг (sampling), который позволяет серверу запрашивать у клиента выполнение запросов к LLM. Однако:
- ⚠️ Это создает потенциальные проблемы безопасности (сторонний MCP сервер, который вы подключили к своему агенту как инструмент, может получить доступ к приватным данным агента, например, к API-ключам)
- 🚫 Скорее всего поэтому сейчас ни один из клиентов MCP не поддерживает сэмплинг (см. здесь)
- 💰 Нет стимула для клиентов тратить свои токены на запросы от сервера
🛠 Возможные решения
В сообществе обсуждаются три основных варианта:
1️⃣ Добавить токены состояния/сессии
- Инкапсулировать состояние в токен, который передается между клиентом и сервером
- ✅ Простая эволюция текущего MCP
- ❌ Сложно для реализации серверами
2️⃣ Реализовать Stateless и Stateful варианты протокола
- Поддерживать оба варианта, позволяя разработчикам выбирать
- ✅ Простые серверы могут быть stateless
- ✅ Обратная совместимость
- ❌ Усложнение спецификации и SDK
3️⃣ Реализовать только stateless MCP
- Отказаться от функций, требующих режима stateful
- ✅ Простота для всех участников
- ❌ Потеря возможностей для агентных взаимодействий
- ❌ Несовместимость с текущей версией
🌟 Прогрессивное улучшение как компромисс
Интересный подход предложил инженер из Shopify — "MCP Lite" и прогрессивное улучшение:
1. 🔄 Базовый уровень: простой JSON-RPC для вызова инструментов
2. 📡 Опциональные уведомления через SSE/WebSockets для серверов, которые хотят их поддерживать
3. 🔄 Короткоживущие SSE-соединения только на время запуска инструмента
Это позволит:
- 🚀 Упростить внедрение MCP
- 🔧 Поддерживать сложные сценарии для тех, кто в них нуждается
- 📱 Работать в serverless-окружении
🔮 Альтернативы MCP
Существуют и более простые альтернативы, например, agents.json от Wild-Card-AI:
- 📄 Простой JSON поверх OpenAPI-спецификации
- 🔗 Использует существующие технологии
- 🧠 Не требует разворачивания выделенного сервера под AI tools
🔮 Будущее MCP
Для широкого принятия MCP необходимо:
- 🧪 Добавить поддержку stateless взаимодействий
- 🔄 Сделать stateful функции опциональными
- 🔑 Улучшить безопасность двунаправленной коммуникации при использовании sampling
- 📚 Решить проблему перегрузки контекстного окна при большом количестве инструментов
💭 Вывод
MCP имеет потенциал стать стандартом взаимодействия между AI-агентами и их инструментами, но нужно преодолеть существующие ограничения. Будем надеяться, что сообщество найдет компромисс между функциональностью и простотой использования! 🙏
А что вы думаете о том, в каком направлении должен развиваться MCP? Поделитесь в комментариях! 👇
#AI #MCP #ModelContextProtocol #Development
smithery.ai
Smithery - Model Context Protocol Registry
Extend your agent's capabilities with Model Context Protocol servers.
👍5❤🔥4
#mcp #workshop #agents
Вот отличный вебинар от Anthropic по теме создания агентов на базе MCP
https://www.youtube.com/watch?v=kQmXtrmQ5Zg
И мой конспект https://telegra.ph/Postroenie-agentov-s-ispolzovaniem-Model-Context-Protocol-MCP-03-16
Вот отличный вебинар от Anthropic по теме создания агентов на базе MCP
https://www.youtube.com/watch?v=kQmXtrmQ5Zg
И мой конспект https://telegra.ph/Postroenie-agentov-s-ispolzovaniem-Model-Context-Protocol-MCP-03-16
YouTube
Building Agents with Model Context Protocol - Full Workshop with Mahesh Murag of Anthropic
The Model Context Protocol is a universal, open standard for connecting AI systems with data sources, replacing fragmented integrations with a single protocol. This workshop from Anthropic -- the creators of MCP -- talks about the philosophy behind MCP, its…
1❤5⚡3👍1
#v0 #vercel #db #ai #dev #supabase #neon #upstash
Новые интеграции в v0 от Vercel Marketplace 🔄
Теперь в v0 доступны первые интеграции из Vercel Marketplace.
Можно добавить постоянное хранилище данных к вашим проектам буквально в пару кликов 🖱
• Доступны интеграции с Supabase, Neon и Upstash
• Процесс подключения максимально упрощен (см. здесь)
• В ближайшее время ожидаются новые интеграции в области ИИ и мониторинга
Похоже, что v0 вырвался вперед в сравнении с bolt.new и lovable.dev, которые декларируют "коробочную" интеграцию только с Supabase
#cursor #mcp
У cursor есть соответствующие MCP-серверы в каталоге https://cursor.directory/mcp
#windsurf #mcp
У windsurf тоже https://windsurf.run/
#cline - у них свой MCP-маркеплейс появился одним из первых, вот здесь писал об этом
Новые интеграции в v0 от Vercel Marketplace 🔄
Теперь в v0 доступны первые интеграции из Vercel Marketplace.
Можно добавить постоянное хранилище данных к вашим проектам буквально в пару кликов 🖱
• Доступны интеграции с Supabase, Neon и Upstash
• Процесс подключения максимально упрощен (см. здесь)
• В ближайшее время ожидаются новые интеграции в области ИИ и мониторинга
Похоже, что v0 вырвался вперед в сравнении с bolt.new и lovable.dev, которые декларируют "коробочную" интеграцию только с Supabase
#cursor #mcp
У cursor есть соответствующие MCP-серверы в каталоге https://cursor.directory/mcp
#windsurf #mcp
У windsurf тоже https://windsurf.run/
#cline - у них свой MCP-маркеплейс появился одним из первых, вот здесь писал об этом
Vercel
Vercel Marketplace
Discover, integrate, and manage third-party solutions directly within Vercel projects with seamless authentication, unified billing, and one-click deployments.
❤3👍3
#agents #google #анонс
Google представляет Agent2Agent: новая эра взаимодействия ИИ-агентов 🚀
Друзья, Google только что анонсировал революционный протокол Agent2Agent (A2A), который позволит ИИ-агентам общаться между собой независимо от платформы или разработчика! 🤖↔️🤖
A2A обеспечивает взаимодействие между "клиентскими" и "удаленными" агентами через четыре ключевые возможности:
• 🔒 Безопасное сотрудничество
• 📋 Управление задачами
• 👥 Согласование пользовательского опыта
• 🔍 Обнаружение возможностей
Всё это построено на популярных стандартах HTTP и JSON-RPC с корпоративной аутентификацией.
Почему это важно? 🤔
Представьте мир, где ваши ИИ-помощники могут:
• Автоматически взаимодействовать с другими системами
• Выполнять сложные задачи без вашего постоянного участия
• Обмениваться информацией безопасно и эффективно
Ключевые принципы A2A: 💡
• Простота: использование существующих стандартов
• Безопасность: корпоративная аутентификация и авторизация
• Асинхронность: поддержка длительных задач и участия человека
• Мультимодальность: работа с текстом, аудио, видео и другими форматами
• Непрозрачное выполнение: агенты не обязаны делиться своими мыслями, планами или инструментами
Реальный пример использования: 👨💼
Процесс найма инженера-программиста может быть значительно упрощен с помощью A2A. Менеджер по найму может поручить своему агенту найти кандидатов, соответствующих вакансии, местоположению и набору навыков. Агент взаимодействует с другими специализированными агентами для поиска потенциальных кандидатов, а затем может организовать собеседования и проверку биографии.
Кто поддерживает A2A? 🌐
Более 50 партнеров уже присоединились к инициативе, включая Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow и многих других.
Протокол открыт для всех, и Google активно приглашает сообщество к участию в его развитии.
Полная спецификация и примеры кода уже доступны на GitHub!
Оригинальный блог-пост с анонсом от гугла тут
Подробная техническая документация здесь
Мой конспект с фокусом на сходства/отличия от #mcp можно почитать по ссылке (спойлер:A2A дополняет MCP )
Что думаете о будущем взаимодействия ИИ-агентов? Делитесь в комментариях! 👇
#AI #GoogleCloud #AgentToAgent #ИскусственныйИнтеллект #ТехнологииБудущего
Google представляет Agent2Agent: новая эра взаимодействия ИИ-агентов 🚀
Друзья, Google только что анонсировал революционный протокол Agent2Agent (A2A), который позволит ИИ-агентам общаться между собой независимо от платформы или разработчика! 🤖↔️🤖
A2A обеспечивает взаимодействие между "клиентскими" и "удаленными" агентами через четыре ключевые возможности:
• 🔒 Безопасное сотрудничество
• 📋 Управление задачами
• 👥 Согласование пользовательского опыта
• 🔍 Обнаружение возможностей
Всё это построено на популярных стандартах HTTP и JSON-RPC с корпоративной аутентификацией.
Почему это важно? 🤔
Представьте мир, где ваши ИИ-помощники могут:
• Автоматически взаимодействовать с другими системами
• Выполнять сложные задачи без вашего постоянного участия
• Обмениваться информацией безопасно и эффективно
Ключевые принципы A2A: 💡
• Простота: использование существующих стандартов
• Безопасность: корпоративная аутентификация и авторизация
• Асинхронность: поддержка длительных задач и участия человека
• Мультимодальность: работа с текстом, аудио, видео и другими форматами
• Непрозрачное выполнение: агенты не обязаны делиться своими мыслями, планами или инструментами
Реальный пример использования: 👨💼
Процесс найма инженера-программиста может быть значительно упрощен с помощью A2A. Менеджер по найму может поручить своему агенту найти кандидатов, соответствующих вакансии, местоположению и набору навыков. Агент взаимодействует с другими специализированными агентами для поиска потенциальных кандидатов, а затем может организовать собеседования и проверку биографии.
Кто поддерживает A2A? 🌐
Более 50 партнеров уже присоединились к инициативе, включая Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow и многих других.
Протокол открыт для всех, и Google активно приглашает сообщество к участию в его развитии.
Полная спецификация и примеры кода уже доступны на GitHub!
Оригинальный блог-пост с анонсом от гугла тут
Подробная техническая документация здесь
Мой конспект с фокусом на сходства/отличия от #mcp можно почитать по ссылке (спойлер:
Что думаете о будущем взаимодействия ИИ-агентов? Делитесь в комментариях! 👇
#AI #GoogleCloud #AgentToAgent #ИскусственныйИнтеллект #ТехнологииБудущего
👍3🔥3❤2
#ai #dev #trae #mcp
Обновление Trae AI v1.3.0: Новые мощные инструменты для разработчиков
Trae выпустил крупное обновление до версии 1.3.0, которое превращает обычный инструмент для кодирования в настоящего партнера по разработке. Давайте рассмотрим ключевые нововведения:
🔄 Объединение панелей Chat и Builder
• Теперь вы можете получить доступ к Builder как к агенту, используя команду @Builder
• Единый интерфейс делает работу более удобной и интуитивной
📚 Новые типы контекста
• #Doc: Добавляйте документы по URL или загружайте файлы .md/.txt для использования в качестве контекста в чатах
Лимит: до 1000 файлов общим размером до 50 МБ
• #Web: Вставляйте URL-адреса, и ИИ автоматически извлечет релевантный контент с веб-страниц
📋 Настраиваемые правила для ИИ
• Пользовательские правила: Создавайте правила на основе личных предпочтений, которые будут применяться ко всем проектам
• Правила проекта: Создавайте правила для конкретного проекта, которые работают только в нем
🤖 Улучшенные возможности агентов
• Создавайте собственных агентов, настраивая промпты и инструменты
• Два встроенных агента: Builder и Builder с MCP
• Функция Auto-Run позволяет агентам автоматически выполнять команды и использовать инструменты
• Черный список для блокировки нежелательных команд
🔌 Поддержка Model Context Protocol (MCP)
• MCP Marketplace для быстрого доступа к сторонним MCP-серверам (я проверил - работает почти также удобно как MCP маркетплейс в Cline - см. скриншот)
• Возможность добавления MCP-серверов к агентам для расширения их возможностей (очень интересная функциональность, см. скриншот)
Это обновление значительно расширяет функциональность Trae, превращая его из обычного помощника по кодированию в полноценного партнера по разработке. Интеграция c MCP определяет универсальную коммуникационную структуру, обеспечивающую бесшовное взаимодействие между встроенными агентами Trae и сторонними расширениями.
Инструмент, как и писал ранее, все еще остается бесплатным, в связи с этим есть свои преимущества (не надо платить за вызовы модели) и недостатки (для работы из РФ потребуется VPN, и при реализации даже небольшого проекта сейчас часто появляется уведомление, что модели перегружены запросами, поэтому просьба подождать)
Вариант игры "age of wars" по ТЗ удалось сделать без единой ошибки (см. скрин в комментариях), получилось не очень функционально с первой итерации, но раньше даже так не получалось, так что обновление действительно классное и пошло на пользу TRAE.
P.S. TRAE AI также доступен в виде плагина для VS Code, скачать можно здесь
Обновление Trae AI v1.3.0: Новые мощные инструменты для разработчиков
Trae выпустил крупное обновление до версии 1.3.0, которое превращает обычный инструмент для кодирования в настоящего партнера по разработке. Давайте рассмотрим ключевые нововведения:
🔄 Объединение панелей Chat и Builder
• Теперь вы можете получить доступ к Builder как к агенту, используя команду @Builder
• Единый интерфейс делает работу более удобной и интуитивной
📚 Новые типы контекста
• #Doc: Добавляйте документы по URL или загружайте файлы .md/.txt для использования в качестве контекста в чатах
Лимит: до 1000 файлов общим размером до 50 МБ
• #Web: Вставляйте URL-адреса, и ИИ автоматически извлечет релевантный контент с веб-страниц
📋 Настраиваемые правила для ИИ
• Пользовательские правила: Создавайте правила на основе личных предпочтений, которые будут применяться ко всем проектам
• Правила проекта: Создавайте правила для конкретного проекта, которые работают только в нем
🤖 Улучшенные возможности агентов
• Создавайте собственных агентов, настраивая промпты и инструменты
• Два встроенных агента: Builder и Builder с MCP
• Функция Auto-Run позволяет агентам автоматически выполнять команды и использовать инструменты
• Черный список для блокировки нежелательных команд
🔌 Поддержка Model Context Protocol (MCP)
• MCP Marketplace для быстрого доступа к сторонним MCP-серверам (я проверил - работает почти также удобно как MCP маркетплейс в Cline - см. скриншот)
• Возможность добавления MCP-серверов к агентам для расширения их возможностей (очень интересная функциональность, см. скриншот)
Это обновление значительно расширяет функциональность Trae, превращая его из обычного помощника по кодированию в полноценного партнера по разработке. Интеграция c MCP определяет универсальную коммуникационную структуру, обеспечивающую бесшовное взаимодействие между встроенными агентами Trae и сторонними расширениями.
Инструмент, как и писал ранее, все еще остается бесплатным, в связи с этим есть свои преимущества (не надо платить за вызовы модели) и недостатки (для работы из РФ потребуется VPN, и при реализации даже небольшого проекта сейчас часто появляется уведомление, что модели перегружены запросами, поэтому просьба подождать)
Вариант игры "age of wars" по ТЗ удалось сделать без единой ошибки (см. скрин в комментариях), получилось не очень функционально с первой итерации, но раньше даже так не получалось, так что обновление действительно классное и пошло на пользу TRAE.
P.S. TRAE AI также доступен в виде плагина для VS Code, скачать можно здесь
👍4❤3🔥1
Media is too big
VIEW IN TELEGRAM
#mcp #fastapi #tools #converter
Коллеги, хочу поделиться одним полезным интструментом.
Иногда возникает необходимость переиспользовать реализованные ранее микро-сервисы в качестве инструментов для новых ИИ-агентов, для этой цели можно воспользоваться конвертером FastAPI в MCP.
FastAPI-MCP: Конвертация FastAPI в инструменты для Model Context Protocol
FastAPI-MCP — инструмент с открытым исходным кодом, который преобразует конечные точки FastAPI в сервисы MCP (Model Context Protocol). Он интегрируется с приложениями FastAPI, автоматически обнаруживает все эндпоинты и сохраняет их модели запросов/ответов и документацию.
Основные функции:
• Интеграция: Возможность подключения MCP-сервиса к существующему приложению FastAPI или развертывание отдельно
• Автоматическая конфигурация: Определение FastAPI эндпоинтов и преобразование их в MCP-инструменты
• Сохранение структуры: Поддержка Swagger-документации и моделей данных
• Варианты развертывания: Работа в рамках одного приложения или в разных приложениях
• Аутентификация: Использование стандартных зависимостей FastAPI для безопасности
• Настройка: Фильтрация эндпоинтов и настройка именования инструментов
Пример базового использования:
После этого MCP-сервер становится доступен по адресу
Применение:
• Для разработчиков, которым требуется предоставить API-эндпоинты в виде MCP-инструментов для совместимых клиентов (Cursor, Cline, Roo Code, Trae AI, Claude Desktop и т.д.)
• В сценариях, где необходимо взаимодействие ИИ-моделей с API через протокол MCP
Библиотека требует Python 3.10+ (рекомендуется 3.12) и распространяется под лицензией MIT.
#FastAPI #MCP #API #разработка
И в заключении поста небольшой анонс.
В связи с бурным ростом технологий сетевого взаимодействия ИИ-агентов, ключом к успеху и быстрой реализации новых проектов является умение декомпозировать сложную задачу на небольшие блоки, чтобы можно было собрать решение, опираясь на имеющиеся инструменты и коннекторы. ИИ-агент - это по сути и есть "микро-сервис" в GenAI-разработке.
Мы обновили содержание курса по ИИ программированию с учетом новых тенденций.
Завтра стартует третий поток. Кому интересно - присоединяйтесь.
И небольшой "промо-ролик" для поднятия настроения :)
Коллеги, хочу поделиться одним полезным интструментом.
Иногда возникает необходимость переиспользовать реализованные ранее микро-сервисы в качестве инструментов для новых ИИ-агентов, для этой цели можно воспользоваться конвертером FastAPI в MCP.
FastAPI-MCP: Конвертация FastAPI в инструменты для Model Context Protocol
FastAPI-MCP — инструмент с открытым исходным кодом, который преобразует конечные точки FastAPI в сервисы MCP (Model Context Protocol). Он интегрируется с приложениями FastAPI, автоматически обнаруживает все эндпоинты и сохраняет их модели запросов/ответов и документацию.
Основные функции:
• Интеграция: Возможность подключения MCP-сервиса к существующему приложению FastAPI или развертывание отдельно
• Автоматическая конфигурация: Определение FastAPI эндпоинтов и преобразование их в MCP-инструменты
• Сохранение структуры: Поддержка Swagger-документации и моделей данных
• Варианты развертывания: Работа в рамках одного приложения или в разных приложениях
• Аутентификация: Использование стандартных зависимостей FastAPI для безопасности
• Настройка: Фильтрация эндпоинтов и настройка именования инструментов
Пример базового использования:
from fastapi import FastAPI
from fastapi_mcp import FastApiMCP
app = FastAPI()
mcp = FastApiMCP(app)
# Подключение MCP-сервера к FastAPI приложению
mcp.mount()
После этого MCP-сервер становится доступен по адресу
https://app.base.url/mcp
Применение:
• Для разработчиков, которым требуется предоставить API-эндпоинты в виде MCP-инструментов для совместимых клиентов (Cursor, Cline, Roo Code, Trae AI, Claude Desktop и т.д.)
• В сценариях, где необходимо взаимодействие ИИ-моделей с API через протокол MCP
Библиотека требует Python 3.10+ (рекомендуется 3.12) и распространяется под лицензией MIT.
#FastAPI #MCP #API #разработка
И в заключении поста небольшой анонс.
В связи с бурным ростом технологий сетевого взаимодействия ИИ-агентов, ключом к успеху и быстрой реализации новых проектов является умение декомпозировать сложную задачу на небольшие блоки, чтобы можно было собрать решение, опираясь на имеющиеся инструменты и коннекторы. ИИ-агент - это по сути и есть "микро-сервис" в GenAI-разработке.
Мы обновили содержание курса по ИИ программированию с учетом новых тенденций.
Завтра стартует третий поток. Кому интересно - присоединяйтесь.
И небольшой "промо-ролик" для поднятия настроения :)
❤2🔥2
#mcp #list #top #agents
Топ-10 MCP-серверов для ИИ-агентов, апрель 2025 года 🤖
В этом обзоре представлены наиболее интересные с моей точки зрения MCP-серверы, которые расширяют возможности ИИ-агентов.
Эти инструменты обеспечивают доступ к различным функциям через единый интерфейс — от SQL-запросов до анимации и видеоредактирования.
1. Anyquery: универсальные SQL-запросы с поддержкой ИИ 💾
Anyquery позволяет делать запросы к различным источникам данных с помощью SQL.
Функциональность:
• Работа с традиционными базами данных и локальными файлами
• Интеграция с приложениями (Apple Notes, Notion)
• Поддержка веб-браузеров, включая Chrome
• Интеграция с языковыми моделями (ChatGPT, Claude) через протокол MCP
• Функционирование в качестве MySQL-сервера
• Совместимость с MySQL-клиентами (TablePlus, Metabase)
• Архитектура на основе SQLite с поддержкой плагинов
2. PluggedInMCP Proxy Server: централизованное управление MCP-серверами 🔄
PluggedInMCP Proxy Server представляет собой универсальный интерфейс для управления MCP-серверами, запущенными локально или через веб с использованием WebSockets.
Функциональность:
• Совместимость с MCP-клиентами (Claude Desktop, Klein, Cursor)
• Автоматическая загрузка конфигураций, инструментов и ресурсов
• Изоляция пространств имен для организации разных наборов MCP
• Многорабочее пространство для переключения между конфигурациями
3. Manim MCP Server: математические анимации через MCP 📊
Manim MCP Server объединяет математические анимации с протоколом MCP, позволяя выполнять скрипты Manim Python и получать анимационное видео.
Функциональность:
• Программное создание математических визуализаций
• Рендеринг через стандартизированный протокол
• Интеграция с MCP-совместимыми инструментами
• Генерация анимаций через текстовые запросы
• Автоматическое сохранение анимаций в медиа-папке
4. Video Editor MCP Server: редактирование видео через MCP 🎬
Video Editor MCP Server интегрирует возможности редактирования видео в экосистему MCP, позволяя языковым моделям взаимодействовать с видеоконтентом.
Функциональность:
• Интерфейс для загрузки, редактирования, поиска и генерации видео
• Интеграция с платформой Video Jungle
• Схема URI vj:// для обращения к видео и проектам
• Поиск видео с использованием эмбеддингов
• Метаданные о содержании видео и временных метках
• Инструменты для добавления видео из URL
• Поиск локальных видеофайлов в приложении Photos на macOS
5. DaVinci Resolve MCP Server: управление видеоредактором через MCP 🎥
DaVinci Resolve MCP Server интегрирует ИИ-ассистентов с профессиональным видеоредактором DaVinci Resolve.
Функциональность:
• Управление DaVinci Resolve с помощью текстовых команд
• Перечисление проектов, создание таймлайнов, добавление маркеров
• API-подобное управление через ИИ
• Автоматизация рабочих процессов видеомонтажа
6. Anilist MCP Server: доступ к данным об аниме и манге 🎌
Anilist MCP Server обеспечивает доступ к API Anilist через MCP-клиенты, позволяя взаимодействовать с данными об аниме и манге через текстовые команды.
Функциональность:
• Поиск аниме, манги, персонажей, студий
• Получение подробной информации о контенте
• Доступ к профилям пользователей и спискам
• Специализированные инструменты для данных Anilist
• Доступ к пользовательским спискам с авторизацией
7. MetaMCP: управление MCP-серверами 🎛
MetaMCP представляет собой промежуточный слой для централизованного управления MCP-серверами.
Функциональность:
• Единый интерфейс для контроля MCP-интеграций
• Совместимость с различными MCP-клиентами
• Управление инструментами, подсказками и ресурсами
• Мультирабочее пространство для изоляции конфигураций
• Детальное управление инструментами
• Доступен в версии с открытым исходным кодом и в облачной версии (доступна бесплатно)
Топ-10 MCP-серверов для ИИ-агентов, апрель 2025 года 🤖
В этом обзоре представлены наиболее интересные с моей точки зрения MCP-серверы, которые расширяют возможности ИИ-агентов.
Эти инструменты обеспечивают доступ к различным функциям через единый интерфейс — от SQL-запросов до анимации и видеоредактирования.
1. Anyquery: универсальные SQL-запросы с поддержкой ИИ 💾
Anyquery позволяет делать запросы к различным источникам данных с помощью SQL.
Функциональность:
• Работа с традиционными базами данных и локальными файлами
• Интеграция с приложениями (Apple Notes, Notion)
• Поддержка веб-браузеров, включая Chrome
• Интеграция с языковыми моделями (ChatGPT, Claude) через протокол MCP
• Функционирование в качестве MySQL-сервера
• Совместимость с MySQL-клиентами (TablePlus, Metabase)
• Архитектура на основе SQLite с поддержкой плагинов
2. PluggedInMCP Proxy Server: централизованное управление MCP-серверами 🔄
PluggedInMCP Proxy Server представляет собой универсальный интерфейс для управления MCP-серверами, запущенными локально или через веб с использованием WebSockets.
Функциональность:
• Совместимость с MCP-клиентами (Claude Desktop, Klein, Cursor)
• Автоматическая загрузка конфигураций, инструментов и ресурсов
• Изоляция пространств имен для организации разных наборов MCP
• Многорабочее пространство для переключения между конфигурациями
3. Manim MCP Server: математические анимации через MCP 📊
Manim MCP Server объединяет математические анимации с протоколом MCP, позволяя выполнять скрипты Manim Python и получать анимационное видео.
Функциональность:
• Программное создание математических визуализаций
• Рендеринг через стандартизированный протокол
• Интеграция с MCP-совместимыми инструментами
• Генерация анимаций через текстовые запросы
• Автоматическое сохранение анимаций в медиа-папке
4. Video Editor MCP Server: редактирование видео через MCP 🎬
Video Editor MCP Server интегрирует возможности редактирования видео в экосистему MCP, позволяя языковым моделям взаимодействовать с видеоконтентом.
Функциональность:
• Интерфейс для загрузки, редактирования, поиска и генерации видео
• Интеграция с платформой Video Jungle
• Схема URI vj:// для обращения к видео и проектам
• Поиск видео с использованием эмбеддингов
• Метаданные о содержании видео и временных метках
• Инструменты для добавления видео из URL
• Поиск локальных видеофайлов в приложении Photos на macOS
5. DaVinci Resolve MCP Server: управление видеоредактором через MCP 🎥
DaVinci Resolve MCP Server интегрирует ИИ-ассистентов с профессиональным видеоредактором DaVinci Resolve.
Функциональность:
• Управление DaVinci Resolve с помощью текстовых команд
• Перечисление проектов, создание таймлайнов, добавление маркеров
• API-подобное управление через ИИ
• Автоматизация рабочих процессов видеомонтажа
6. Anilist MCP Server: доступ к данным об аниме и манге 🎌
Anilist MCP Server обеспечивает доступ к API Anilist через MCP-клиенты, позволяя взаимодействовать с данными об аниме и манге через текстовые команды.
Функциональность:
• Поиск аниме, манги, персонажей, студий
• Получение подробной информации о контенте
• Доступ к профилям пользователей и спискам
• Специализированные инструменты для данных Anilist
• Доступ к пользовательским спискам с авторизацией
7. MetaMCP: управление MCP-серверами 🎛
MetaMCP представляет собой промежуточный слой для централизованного управления MCP-серверами.
Функциональность:
• Единый интерфейс для контроля MCP-интеграций
• Совместимость с различными MCP-клиентами
• Управление инструментами, подсказками и ресурсами
• Мультирабочее пространство для изоляции конфигураций
• Детальное управление инструментами
• Доступен в версии с открытым исходным кодом и в облачной версии (доступна бесплатно)
❤1👍1
8. OpenMCP: стандартизация доступа к веб-API 🌐
OpenMCP — стандарт и реестр для соединения ИИ-инструментов с веб-API.
Функциональность:
• Преобразование веб-API в MCP
• Взаимодействие MCP-клиентов с различными сервисами
• Открытый реестр серверов
• Поддержка форматов REST, gRPC и GraphQL
• Инструменты для разработчиков
• Упрощенное добавление серверов к MCP-клиентам
9. Aseprite MCP Server: интеграция с редактором пиксельной графики 🎨
Aseprite MCP Server интегрирует ИИ-помощников с редактором пиксельной графики Aseprite.
Функциональность:
• Взаимодействие с Aseprite через текстовые команды
• API-уровневая коммуникация через MCP
• Автоматизация создания кадров анимации и модификации палитр
• Выполнение повторяющихся действий через команды
10. Pipedream: соединение приложение и автоматизация ⚙️
Pipedream — платформа для быстрого соединения приложений и создания автоматизаций.
Функциональность:
• Бесплатная среда для разработчиков
• Более 1000 интеграционных компонентов
• Подключение к популярным сервисам (Slack, Google Sheets)
• Поддержка пользовательского кода (Node.js, Python, Golang, Bash)
• Низкокодовый подход
• Архитектура, управляемая событиями
• Триггеры от различных источников
• Предварительно созданные действия для типовых операций
Вышеуказанные MCP-серверы предоставляют широкие возможности для агентной автоматизации и интеграции ИИ в различные рабочие процессы — от исследовательских задач до создания контента и управления данными. 🚀
#ИскусственныйИнтеллект #MCP #ИИагенты #Технологии #Автоматизация
OpenMCP — стандарт и реестр для соединения ИИ-инструментов с веб-API.
Функциональность:
• Преобразование веб-API в MCP
• Взаимодействие MCP-клиентов с различными сервисами
• Открытый реестр серверов
• Поддержка форматов REST, gRPC и GraphQL
• Инструменты для разработчиков
• Упрощенное добавление серверов к MCP-клиентам
9. Aseprite MCP Server: интеграция с редактором пиксельной графики 🎨
Aseprite MCP Server интегрирует ИИ-помощников с редактором пиксельной графики Aseprite.
Функциональность:
• Взаимодействие с Aseprite через текстовые команды
• API-уровневая коммуникация через MCP
• Автоматизация создания кадров анимации и модификации палитр
• Выполнение повторяющихся действий через команды
10. Pipedream: соединение приложение и автоматизация ⚙️
Pipedream — платформа для быстрого соединения приложений и создания автоматизаций.
Функциональность:
• Бесплатная среда для разработчиков
• Более 1000 интеграционных компонентов
• Подключение к популярным сервисам (Slack, Google Sheets)
• Поддержка пользовательского кода (Node.js, Python, Golang, Bash)
• Низкокодовый подход
• Архитектура, управляемая событиями
• Триггеры от различных источников
• Предварительно созданные действия для типовых операций
Вышеуказанные MCP-серверы предоставляют широкие возможности для агентной автоматизации и интеграции ИИ в различные рабочие процессы — от исследовательских задач до создания контента и управления данными. 🚀
#ИскусственныйИнтеллект #MCP #ИИагенты #Технологии #Автоматизация
GitHub
GitHub - wegotdocs/open-mcp
Contribute to wegotdocs/open-mcp development by creating an account on GitHub.
👍4❤2
#mcp #agents
Подготовил сравнительный анализ наиболее популярных (по разным категориям) MCP-серверов из репозитория Awesome MCP Servers
Полный список обзоров здесь
Подготовил сравнительный анализ наиболее популярных (по разным категориям) MCP-серверов из репозитория Awesome MCP Servers
Полный список обзоров здесь
GitHub
vibe-coding-blog/Сравнительный анализ MCP-серверов.md at main · dzhechko/vibe-coding-blog
Contribute to dzhechko/vibe-coding-blog development by creating an account on GitHub.
❤4👍1
#mcp #api #tools #ai #dev
🚀 6 инструментов для преобразования API в MCP-серверы
Привет, друзья! Сегодня делюсь полезной подборкой для разработчиков. Если вам нужно быстро адаптировать ваши API для работы с ИИ-агентами, эти инструменты сэкономят кучу времени 👇
1️⃣ FastAPI-MCP
Чуть выше писал об этом инструменте, здесь коротко повторюсь.
Позволяет преобразовать FastAPI end points в MCP-серверы одной строкой кода с нативной поддержкой аутентификации. Сохраняет все схемы и зависимости. Полностью с открытым исходным кодом.
2️⃣ RapidMCP
Преобразует REST API в MCP-сервер за считанные минуты без изменения кода. Просто подключите ваш API и преобразуйте его в MCP-сервер, готовый для работы с ИИ-агентами - без необходимости модификации бэкенда.
Есть платный и бесплатные тарифы.
3️⃣ MCPify
Позволяет создавать и разворачивайть MCP-серверы без написания ни единой строчки кода. Похож на Lovable/Bolt/V0 но для создания MCP-серверов. Поддерживает транспорт Streamable HTTP от MCP. Вы также можете делиться созданными MCP-серверами с другими пользователями на той же платформе.
Есть только платные тарифы.
Некоторым аналогом, но более широкого плана может являться Databutton (см. ниже)
4️⃣ Databutton MCP
Превратите любое Databutton-приложение в MCP-сервер одним кликом через настройки. Создавайте инструменты для ИИ так же, как API для вашего приложения, с возможностью добавления Python-документации для лучшего понимания агентом. Databutton размещает MCP-серверы онлайн, избавляя от необходимости локального запуска и позволяя легко интегрироваться с Claude Desktop и другими ИИ-ассистентами. Идеально подходит для создания инструментов для исследования, маркетинга и продаж.
Про Data Button писал в обзоре AI инструментов для Vibe Coding (оригинальный пост здесь)
5️⃣ Speakeasy
Генерирует MCP-серверы напрямую из документации OpenAPI с минимальным кодом. Создает TypeScript MCP-серверы с настраиваемыми описаниями инструментов и областями применения. На данный момент функциональность в Beta.
6️⃣ Higress от Alibaba
Преобразует спецификации OpenAPI в MCP-серверы одной командой. Инструмент openapi-to-mcp от Higress автоматически конвертирует документацию API в серверы с подробными шаблонами ответов. Развертывание без инфраструктуры. Полностью с открытым исходным кодом.
А какие инструменты используете вы? Делитесь в комментариях! 👇
#разработка #API #MCP #инструменты
🚀 6 инструментов для преобразования API в MCP-серверы
Привет, друзья! Сегодня делюсь полезной подборкой для разработчиков. Если вам нужно быстро адаптировать ваши API для работы с ИИ-агентами, эти инструменты сэкономят кучу времени 👇
1️⃣ FastAPI-MCP
Чуть выше писал об этом инструменте, здесь коротко повторюсь.
Позволяет преобразовать FastAPI end points в MCP-серверы одной строкой кода с нативной поддержкой аутентификации. Сохраняет все схемы и зависимости. Полностью с открытым исходным кодом.
2️⃣ RapidMCP
Преобразует REST API в MCP-сервер за считанные минуты без изменения кода. Просто подключите ваш API и преобразуйте его в MCP-сервер, готовый для работы с ИИ-агентами - без необходимости модификации бэкенда.
Есть платный и бесплатные тарифы.
3️⃣ MCPify
Позволяет создавать и разворачивайть MCP-серверы без написания ни единой строчки кода. Похож на Lovable/Bolt/V0 но для создания MCP-серверов. Поддерживает транспорт Streamable HTTP от MCP. Вы также можете делиться созданными MCP-серверами с другими пользователями на той же платформе.
Есть только платные тарифы.
Некоторым аналогом, но более широкого плана может являться Databutton (см. ниже)
4️⃣ Databutton MCP
Превратите любое Databutton-приложение в MCP-сервер одним кликом через настройки. Создавайте инструменты для ИИ так же, как API для вашего приложения, с возможностью добавления Python-документации для лучшего понимания агентом. Databutton размещает MCP-серверы онлайн, избавляя от необходимости локального запуска и позволяя легко интегрироваться с Claude Desktop и другими ИИ-ассистентами. Идеально подходит для создания инструментов для исследования, маркетинга и продаж.
Про Data Button писал в обзоре AI инструментов для Vibe Coding (оригинальный пост здесь)
5️⃣ Speakeasy
Генерирует MCP-серверы напрямую из документации OpenAPI с минимальным кодом. Создает TypeScript MCP-серверы с настраиваемыми описаниями инструментов и областями применения. На данный момент функциональность в Beta.
6️⃣ Higress от Alibaba
Преобразует спецификации OpenAPI в MCP-серверы одной командой. Инструмент openapi-to-mcp от Higress автоматически конвертирует документацию API в серверы с подробными шаблонами ответов. Развертывание без инфраструктуры. Полностью с открытым исходным кодом.
А какие инструменты используете вы? Делитесь в комментариях! 👇
#разработка #API #MCP #инструменты
GitHub
GitHub - tadata-org/fastapi_mcp: Expose your FastAPI endpoints as Model Context Protocol (MCP) tools, with Auth!
Expose your FastAPI endpoints as Model Context Protocol (MCP) tools, with Auth! - tadata-org/fastapi_mcp
❤4🔥3
Опасная уязвимость в Chrome-расширениях: доступ к MCP-серверам
Поговорим немного про безопасность в контексте MCP.
Исследователи из ExtensionTotal обнаружили серьезную уязвимость в экосистеме Chrome-расширений, позволяющую обойти защитную "песочницу" браузера. Проблема связана с Model Context Protocol (MCP) - протоколом, который используется для взаимодействия ИИ-агентов с системными инструментами.
Суть проблемы:
• Chrome-расширения могут без аутентификации подключаться к локальным MCP-серверам
• MCP-серверы по умолчанию не требуют аутентификации
• Через такое подключение расширение получает доступ к файловой системе и другим ресурсам
Последствия:
• Полный обход защитной "песочницы" Chrome
• Неограниченный доступ к файловой системе
• Возможность взаимодействия с приложениями (Slack, WhatsApp и др.)
• Потенциальный полный захват компьютера
Особенно тревожно то, что для эксплуатации этой уязвимости расширению не требуются специальные разрешения. Если на компьютере запущен уязвимый MCP-сервер, любое расширение может получить к нему доступ.
Рекомендуется пересмотреть политики безопасности при использовании MCP-серверов и внимательно следить за поведением установленных расширений.
Или как вариант не устанавливать MCP-серверы локально, а использовать внешние платформы хостинга MCP-серверов с аутентфикацией, например:
https://mcp.pipedream.com/
https://mcp.composio.dev/
#кибербезопасность #Chrome #уязвимости #MCP #ИИ #security
Поговорим немного про безопасность в контексте MCP.
Исследователи из ExtensionTotal обнаружили серьезную уязвимость в экосистеме Chrome-расширений, позволяющую обойти защитную "песочницу" браузера. Проблема связана с Model Context Protocol (MCP) - протоколом, который используется для взаимодействия ИИ-агентов с системными инструментами.
Суть проблемы:
• Chrome-расширения могут без аутентификации подключаться к локальным MCP-серверам
• MCP-серверы по умолчанию не требуют аутентификации
• Через такое подключение расширение получает доступ к файловой системе и другим ресурсам
Последствия:
• Полный обход защитной "песочницы" Chrome
• Неограниченный доступ к файловой системе
• Возможность взаимодействия с приложениями (Slack, WhatsApp и др.)
• Потенциальный полный захват компьютера
Особенно тревожно то, что для эксплуатации этой уязвимости расширению не требуются специальные разрешения. Если на компьютере запущен уязвимый MCP-сервер, любое расширение может получить к нему доступ.
Рекомендуется пересмотреть политики безопасности при использовании MCP-серверов и внимательно следить за поведением установленных расширений.
Или как вариант не устанавливать MCP-серверы локально, а использовать внешние платформы хостинга MCP-серверов с аутентфикацией, например:
https://mcp.pipedream.com/
https://mcp.composio.dev/
#кибербезопасность #Chrome #уязвимости #MCP #ИИ #security
👍4❤3🔥1
MCP и Function Calling: соперники или дополняющие друг друга технологии ?
В мире искусственного интеллекта постоянно появляются новые технологии и стандарты, которые могут сбивать с толку даже опытных разработчиков. Одна из таких пар технологий — MCP (Model Сontext Protocol) и Function Calling. Давайте разберемся, в чем их отличия и могут ли они дополнять друг друга.
Главный спойлер:они не конкурируют, а дополняют друг друга! 🤝
Про MCP уже много раз писал здесь и тут, поэтому начнем с технологии Function Calling, которая "календарно" появилась значительно раньше, но сейчас по силе "хайпа" значительно уступает MCP.
Что такое Function Calling?
Function Calling — это способность языковых моделей (LLM) определять, когда необходимо использовать внешние инструменты для решения задачи. По сути, это механизм, который позволяет ИИ:
1️⃣ Распознавать ситуации, требующие применения внешних функций
2️⃣ Структурировать параметры для выполнения этих функций
3️⃣ Работать в контексте одного приложения
4️⃣ Определять, ЧТО и КОГДА нужно использовать
При этом сам процесс запуска инструмента остается на стороне разработчика.
Простыми словами: Function Calling — это когда ИИ говорит "Мне нужно сейчас выполнить поиск в интернете".
Что такое MCP?
MCP (Model Context Protocol) — это стандартизированный протокол, который определяет:
1️⃣ Как инструменты предоставляются и обнаруживаются
2️⃣ Последовательный протокол для хостинга инструментов
3️⃣ Возможность обмена инструментами в рамках всей экосистемы
4️⃣ Разделение реализации инструмента от его использования
MCP отвечает на вопрос КАК инструменты предоставляются и обнаруживаются стандартизированным способом. Это похоже на то, как если бы MCP говорил: "Вот как любой инструмент может быть последовательно доступен для любой системы ИИ".
Ключевые различия ⚡️
• Function Calling: определяет КАКОЙ инструмент использовать и КОГДА его применять
• MCP: устанавливает КАК инструменты предоставляются и обнаруживаются в стандартизированном виде
Почему это важно? 🤔
MCP имеет потенциал стать "REST для ИИ-инструментов" — повсеместным стандартом, который предотвращает фрагментацию экосистемы. Он позволяет разработчикам сосредоточиться на создании качественных инструментов, а не на изобретении новых способов их хостинга
Как они работают вместе?
Эти технологии не конкурируют, а дополняют друг друга:
• Function Calling определяет необходимость использования инструмента
• MCP обеспечивает стандартизированный способ доступа к этому инструменту
Важные мысли 💡
• По мере усложнения систем ИИ, стандартизированные протоколы вроде MCP становятся необходимыми для обеспечения совместимости.
• Компании, которые внедряют обе технологии, смогут быстрее создавать более надежные системы ИИ.
• В конечном счете, будущее не в выборе между MCP и Function Calling, а в их эффективном совместном использовании для создания более мощных и гибких ИИ-систем.
Что еще почитать по теме "Function Calling и/или MCP?"
• https://medium.com/@genai.works/%EF%B8%8F-function-calling-vs-mcp-what-smart-ai-teams-need-to-know-7c319267b6db
• https://www.gentoro.com/blog/function-calling-vs-model-context-protocol-mcp
• https://neon.tech/blog/mcp-vs-llm-function-calling
А вы уже используете MCP в своих проектах или пока ограничиваетесь базовым Function Calling?
Поделитесь своим опытом в комментариях! 👇
#ИскусственныйИнтеллект #LLM #MCP #FunctionCalling #РазработкаИИ
В мире искусственного интеллекта постоянно появляются новые технологии и стандарты, которые могут сбивать с толку даже опытных разработчиков. Одна из таких пар технологий — MCP (Model Сontext Protocol) и Function Calling. Давайте разберемся, в чем их отличия и могут ли они дополнять друг друга.
Главный спойлер:
Про MCP уже много раз писал здесь и тут, поэтому начнем с технологии Function Calling, которая "календарно" появилась значительно раньше, но сейчас по силе "хайпа" значительно уступает MCP.
Что такое Function Calling?
Function Calling — это способность языковых моделей (LLM) определять, когда необходимо использовать внешние инструменты для решения задачи. По сути, это механизм, который позволяет ИИ:
1️⃣ Распознавать ситуации, требующие применения внешних функций
2️⃣ Структурировать параметры для выполнения этих функций
3️⃣ Работать в контексте одного приложения
4️⃣ Определять, ЧТО и КОГДА нужно использовать
При этом сам процесс запуска инструмента остается на стороне разработчика.
Простыми словами: Function Calling — это когда ИИ говорит "Мне нужно сейчас выполнить поиск в интернете".
Что такое MCP?
MCP (Model Context Protocol) — это стандартизированный протокол, который определяет:
1️⃣ Как инструменты предоставляются и обнаруживаются
2️⃣ Последовательный протокол для хостинга инструментов
3️⃣ Возможность обмена инструментами в рамках всей экосистемы
4️⃣ Разделение реализации инструмента от его использования
MCP отвечает на вопрос КАК инструменты предоставляются и обнаруживаются стандартизированным способом. Это похоже на то, как если бы MCP говорил: "Вот как любой инструмент может быть последовательно доступен для любой системы ИИ".
Ключевые различия ⚡️
• Function Calling: определяет КАКОЙ инструмент использовать и КОГДА его применять
• MCP: устанавливает КАК инструменты предоставляются и обнаруживаются в стандартизированном виде
Почему это важно? 🤔
MCP имеет потенциал стать "REST для ИИ-инструментов" — повсеместным стандартом, который предотвращает фрагментацию экосистемы. Он позволяет разработчикам сосредоточиться на создании качественных инструментов, а не на изобретении новых способов их хостинга
Как они работают вместе?
Эти технологии не конкурируют, а дополняют друг друга:
• Function Calling определяет необходимость использования инструмента
• MCP обеспечивает стандартизированный способ доступа к этому инструменту
Важные мысли 💡
• По мере усложнения систем ИИ, стандартизированные протоколы вроде MCP становятся необходимыми для обеспечения совместимости.
• Компании, которые внедряют обе технологии, смогут быстрее создавать более надежные системы ИИ.
• В конечном счете, будущее не в выборе между MCP и Function Calling, а в их эффективном совместном использовании для создания более мощных и гибких ИИ-систем.
Что еще почитать по теме "Function Calling и/или MCP?"
• https://medium.com/@genai.works/%EF%B8%8F-function-calling-vs-mcp-what-smart-ai-teams-need-to-know-7c319267b6db
• https://www.gentoro.com/blog/function-calling-vs-model-context-protocol-mcp
• https://neon.tech/blog/mcp-vs-llm-function-calling
А вы уже используете MCP в своих проектах или пока ограничиваетесь базовым Function Calling?
Поделитесь своим опытом в комментариях! 👇
#ИскусственныйИнтеллект #LLM #MCP #FunctionCalling #РазработкаИИ
❤2👍2🔥2
Недавно наткнулся на интересную заметку на редите по поводу безопасной работы с хостинговыми MCP-серверами. Почему, лучше использовать их, а не локальные серверы писал чуть ранее. Однако, и при использовании хостинговых MCP-сервисов тоже нужно соблюдать некоторые правила, на чем и делается акцент в данной заметке. Ниже привожу ее слегка вольный перевод на русский язык.
URL-адреса хостинговых MCP-серверов следует рассматривать как секреты 🔐
Краткая версия: нынешний ажиотаж вокруг хостинговых MCP-серверов сопровождается некоторыми сомнительными практиками в области безопасности. ⚠️ Черновик следующей редакции протокола MCP стремится решить эту проблему с поддержкой авторизации. А пока... будьте осторожны с этими URL-адресами хостинговых MCP-серверов! 🚨
Недавно я решил взглянуть на Composio 🧐, который привлек некоторое внимание в последние дни. Это платформа, которая размещает и запускает MCP-серверы, предоставляя конечную точку на основе Server Sent Events, к которой могут обращаться MCP-совместимые клиенты для получения данных.
Как это работает:
• Composio позволяет выбрать интеграцию (например, с Notion 📝)
• Вы аутентифицируетесь с помощью OAuth2
• Composio запускает хостинговый MCP-сервер в бессерверном контейнере
• Сервер использует ваш OAuth-токен для взаимодействия с API
• Вы получаете URL вашего сервера:
Проблема безопасности 🛡
Главная проблема:
• Этот URL фактически является API-ключом с доступом ко всем вашим данным 😱
• Большинство людей бездумно копируют эти URL в разные клиенты
• Никто не знает, как эти клиенты хранят то, что должно быть секретом 🤦♂️
• API-ключи и секреты должны храниться только в переменных окружения или безопасных хранилищах
Мое примечание: я сам, недавно проводя занятия по созданию MCP-серверов, спокойно шарил эти url, потом пришлось все удалять и пересоздавать заново.
Что делать:
• Разработчики MCP осведомлены об этой проблеме 👍
• В спецификации есть раздел "Third party authorization flow"
• Разработчикам сервисов вроде Composio следует реализовать эти меры безопасности
• А пока — будьте осторожны с URL-адресами хостинговых MCP-серверов! 🔒
Не разбрасывайтесь URL-адресами как конфетти на параде технологических новинок. 🎭
#MCP #Безопасность #Composio #ИскусственныйИнтеллект #security
URL-адреса хостинговых MCP-серверов следует рассматривать как секреты 🔐
Краткая версия: нынешний ажиотаж вокруг хостинговых MCP-серверов сопровождается некоторыми сомнительными практиками в области безопасности. ⚠️ Черновик следующей редакции протокола MCP стремится решить эту проблему с поддержкой авторизации. А пока... будьте осторожны с этими URL-адресами хостинговых MCP-серверов! 🚨
Недавно я решил взглянуть на Composio 🧐, который привлек некоторое внимание в последние дни. Это платформа, которая размещает и запускает MCP-серверы, предоставляя конечную точку на основе Server Sent Events, к которой могут обращаться MCP-совместимые клиенты для получения данных.
Как это работает:
• Composio позволяет выбрать интеграцию (например, с Notion 📝)
• Вы аутентифицируетесь с помощью OAuth2
• Composio запускает хостинговый MCP-сервер в бессерверном контейнере
• Сервер использует ваш OAuth-токен для взаимодействия с API
• Вы получаете URL вашего сервера:
https://mcp.composio.dev/notion/blah-blah-blah-uuid123
Проблема безопасности 🛡
Главная проблема:
• Этот URL фактически является API-ключом с доступом ко всем вашим данным 😱
• Большинство людей бездумно копируют эти URL в разные клиенты
• Никто не знает, как эти клиенты хранят то, что должно быть секретом 🤦♂️
• API-ключи и секреты должны храниться только в переменных окружения или безопасных хранилищах
Мое примечание: я сам, недавно проводя занятия по созданию MCP-серверов, спокойно шарил эти url, потом пришлось все удалять и пересоздавать заново.
Что делать:
• Разработчики MCP осведомлены об этой проблеме 👍
• В спецификации есть раздел "Third party authorization flow"
• Разработчикам сервисов вроде Composio следует реализовать эти меры безопасности
• А пока — будьте осторожны с URL-адресами хостинговых MCP-серверов! 🔒
Не разбрасывайтесь URL-адресами как конфетти на параде технологических новинок. 🎭
#MCP #Безопасность #Composio #ИскусственныйИнтеллект #security
Reddit
From the mcp community on Reddit
Explore this post and more from the mcp community
👍3❤1🔥1
Git-MCP: Решение проблем с контекстом для AI-кодеров 🧠
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
• GitHub Pages:
• Универсальный эндпоинт:
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
gitmcp.io/{owner}/{repo}
• GitHub Pages:
{owner}.gitmcp.io/{repo}
• Универсальный эндпоинт:
gitmcp.io/docs
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
👍7❤2🔥1
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
•
•
•
Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
Панель управления OpenMemory будет доступна по адресу:
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
add_memories
: Сохранение новых объектов памяти •
search_memory
: Поиск релевантных воспоминаний •
list_memories
: Просмотр всей сохранённой памяти •
delete_all_memories
: Полная очистка памятиЛюбой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory
# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env
# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build
# Запускаем все сервисы
make up
# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
whoami
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>
Панель управления OpenMemory будет доступна по адресу:
http://localhost:3000
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
❤2👍1🔥1
DeepWiki MCP: новый инструмент для работы с документацией GitHub 📚
В дополнениии к GitMCP и Сontext7 Cognition Labs выпустила DeepWiki MCP — бесплатный сервер для интеграции с AI-кодерами вроде Cursor. Инструмент позволяет получать информацию из документации GitHub-репозиториев прямо в процессе написания кода.
Основные возможности:
•
•
•
Технические особенности:
🔹 Полностью бесплатный и открытый
🔹 Не требует регистрации или аутентификации
🔹 Поддерживает протоколы SSE и Streamable HTTP
🔹 Совместим с любыми MCP-клиентами
Настройка в Cursor:
1️⃣ Для конкретного проекта: создать файл
2️⃣ Для глобального использования: создать файл
Базовый URL сервера: https://mcp.deepwiki.com/
Пример настройки:
Пример использования на скриншоте.
Инструмент может быть полезен разработчикам, которые часто работают с документацией и хотят сократить время на поиск информации.
#mcp #cursor #github #documentation #ai
В дополнениии к GitMCP и Сontext7 Cognition Labs выпустила DeepWiki MCP — бесплатный сервер для интеграции с AI-кодерами вроде Cursor. Инструмент позволяет получать информацию из документации GitHub-репозиториев прямо в процессе написания кода.
Основные возможности:
•
ask_question
— задать вопрос о любом GitHub-репозитории и получить ответ на основе документации •
read_wiki_contents
— получить детальную документацию из репозитория•
read_wiki_structure
— просмотреть структуру и разделы документацииТехнические особенности:
🔹 Полностью бесплатный и открытый
🔹 Не требует регистрации или аутентификации
🔹 Поддерживает протоколы SSE и Streamable HTTP
🔹 Совместим с любыми MCP-клиентами
Настройка в Cursor:
1️⃣ Для конкретного проекта: создать файл
.cursor/mcp.json
в папке проекта (жаль нет возможности создавать список проектных mcp-серверов в UI)2️⃣ Для глобального использования: создать файл
~/.cursor/mcp.json
в домашней директории (или в UI)Базовый URL сервера: https://mcp.deepwiki.com/
Пример настройки:
{
"mcpServers": {
"context7": {
"command": "npx",
"args": [
"-y",
"@upstash/context7-mcp@latest"
]
},
"deepwiki": {
"url": "https://mcp.deepwiki.com/mcp"
}
}
}
Пример использования на скриншоте.
Инструмент может быть полезен разработчикам, которые часто работают с документацией и хотят сократить время на поиск информации.
#mcp #cursor #github #documentation #ai
❤2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Zen MCP Server: интеграция Claude Code с другими AI-моделями 🤖
Несмотря на то, что Claude Code необычайно быстр и удобен, думаю, что многие из вас уже сталкивались с ситуацией когда он иногда "слегка забывает" предыдущие шаги при работе со сложными задачами из-за ограничений контекстного окна (даже при использовании опции
Я когда работаю в Cursor/Windsurf/Roo для анализа существующей кодовой базы обычно использую Gemini 2.5 Pro, а для планирования использую o3 или o3-mini/o4-mini.
При использовании Claude Code у нас есть возможность использовать для планирования и сложного траблшутинга Claude 4 Opus, во всех других случаях - Claude 4 Sonnet.
Claude 4 Opus дорогой и даже при использовании Claude Max 5x плана (за $100 в месяц) можно близко подойти к лимитам его использования, и в голову начинает приходить мысль "а не перейти ли на Max 20x plan за $200 долларов в месяц", которых мне пока что жалко :)
Zen MCP Server позволяет решить эти проблемы, позволяя Claude Code взаимодействовать с другими моделями, у которых и контекстное окно значительно больше, и reasoning-способности на очень хорошем уровне.
Что это дает 📈
• Доступ к Gemini 2.5 Pro с контекстом до 1M токенов
• Работа с GPT O3 и другими моделями
• Возможность передать всю кодовую базу проекта для анализа
Основные инструменты 🛠
1️⃣
2️⃣
3️⃣
4️⃣
5️⃣
6️⃣
7️⃣
8️⃣
9️⃣
🔟
1️⃣1️⃣
1️⃣2️⃣ настраиваемые инструменты
Поддерживаемые провайдеры 🌐
• Google Gemini (нативный API)
• OpenAI (O3 модель)
• OpenRouter (множество моделей через один API)
• Локальные модели (Ollama, vLLM, LM Studio)
Особенности⚡️
• Автоматический выбор подходящей модели для задачи
• Продолжение диалогов между моделями
• Работа с изображениями и диаграммами
• Обход ограничений MCP в 25K токенов
Проект с открытым исходным кодом, лицензия Apache 2.0.
Deepwiki по проекту здесь.
Настройка через Docker занимает около 5 минут.
@llm_notes
#claude #mcp #ai_tools #code_review #gemini
Несмотря на то, что Claude Code необычайно быстр и удобен, думаю, что многие из вас уже сталкивались с ситуацией когда он иногда "слегка забывает" предыдущие шаги при работе со сложными задачами из-за ограничений контекстного окна (даже при использовании опции
/compact
). В этот момент хочется следовать проверенному временем процессу.Я когда работаю в Cursor/Windsurf/Roo для анализа существующей кодовой базы обычно использую Gemini 2.5 Pro, а для планирования использую o3 или o3-mini/o4-mini.
При использовании Claude Code у нас есть возможность использовать для планирования и сложного траблшутинга Claude 4 Opus, во всех других случаях - Claude 4 Sonnet.
Claude 4 Opus дорогой и даже при использовании Claude Max 5x плана (за $100 в месяц) можно близко подойти к лимитам его использования, и в голову начинает приходить мысль "а не перейти ли на Max 20x plan за $200 долларов в месяц", которых мне пока что жалко :)
Zen MCP Server позволяет решить эти проблемы, позволяя Claude Code взаимодействовать с другими моделями, у которых и контекстное окно значительно больше, и reasoning-способности на очень хорошем уровне.
Что это дает 📈
• Доступ к Gemini 2.5 Pro с контекстом до 1M токенов
• Работа с GPT O3 и другими моделями
• Возможность передать всю кодовую базу проекта для анализа
Основные инструменты 🛠
1️⃣
chat
— мозговой штурм и обзор кода 2️⃣
thinkdeep
— глубокий анализ сложных проблем3️⃣
planner
— пошаговое планирование 4️⃣
consensus
— получение мнений от нескольких моделей 5️⃣
codereview
— профессиональный код-ревью 6️⃣
precommit
— проверка перед коммитом 7️⃣
debug
— диагностика и исправление багов 8️⃣
analyze
— анализ больших файлов 9️⃣
refactor
— рефакторинг кода 🔟
tracer
— отслеживание зависимостей 1️⃣1️⃣
testgen
— генерация тестов 1️⃣2️⃣ настраиваемые инструменты
Поддерживаемые провайдеры 🌐
• Google Gemini (нативный API)
• OpenAI (O3 модель)
• OpenRouter (множество моделей через один API)
• Локальные модели (Ollama, vLLM, LM Studio)
Особенности⚡️
• Автоматический выбор подходящей модели для задачи
• Продолжение диалогов между моделями
• Работа с изображениями и диаграммами
• Обход ограничений MCP в 25K токенов
Проект с открытым исходным кодом, лицензия Apache 2.0.
Deepwiki по проекту здесь.
Настройка через Docker занимает около 5 минут.
@llm_notes
#claude #mcp #ai_tools #code_review #gemini
👍6✍5❤4⚡2