#mcp #list #top #agents
Топ-10 MCP-серверов для ИИ-агентов, апрель 2025 года 🤖
В этом обзоре представлены наиболее интересные с моей точки зрения MCP-серверы, которые расширяют возможности ИИ-агентов.
Эти инструменты обеспечивают доступ к различным функциям через единый интерфейс — от SQL-запросов до анимации и видеоредактирования.
1. Anyquery: универсальные SQL-запросы с поддержкой ИИ 💾
Anyquery позволяет делать запросы к различным источникам данных с помощью SQL.
Функциональность:
• Работа с традиционными базами данных и локальными файлами
• Интеграция с приложениями (Apple Notes, Notion)
• Поддержка веб-браузеров, включая Chrome
• Интеграция с языковыми моделями (ChatGPT, Claude) через протокол MCP
• Функционирование в качестве MySQL-сервера
• Совместимость с MySQL-клиентами (TablePlus, Metabase)
• Архитектура на основе SQLite с поддержкой плагинов
2. PluggedInMCP Proxy Server: централизованное управление MCP-серверами 🔄
PluggedInMCP Proxy Server представляет собой универсальный интерфейс для управления MCP-серверами, запущенными локально или через веб с использованием WebSockets.
Функциональность:
• Совместимость с MCP-клиентами (Claude Desktop, Klein, Cursor)
• Автоматическая загрузка конфигураций, инструментов и ресурсов
• Изоляция пространств имен для организации разных наборов MCP
• Многорабочее пространство для переключения между конфигурациями
3. Manim MCP Server: математические анимации через MCP 📊
Manim MCP Server объединяет математические анимации с протоколом MCP, позволяя выполнять скрипты Manim Python и получать анимационное видео.
Функциональность:
• Программное создание математических визуализаций
• Рендеринг через стандартизированный протокол
• Интеграция с MCP-совместимыми инструментами
• Генерация анимаций через текстовые запросы
• Автоматическое сохранение анимаций в медиа-папке
4. Video Editor MCP Server: редактирование видео через MCP 🎬
Video Editor MCP Server интегрирует возможности редактирования видео в экосистему MCP, позволяя языковым моделям взаимодействовать с видеоконтентом.
Функциональность:
• Интерфейс для загрузки, редактирования, поиска и генерации видео
• Интеграция с платформой Video Jungle
• Схема URI vj:// для обращения к видео и проектам
• Поиск видео с использованием эмбеддингов
• Метаданные о содержании видео и временных метках
• Инструменты для добавления видео из URL
• Поиск локальных видеофайлов в приложении Photos на macOS
5. DaVinci Resolve MCP Server: управление видеоредактором через MCP 🎥
DaVinci Resolve MCP Server интегрирует ИИ-ассистентов с профессиональным видеоредактором DaVinci Resolve.
Функциональность:
• Управление DaVinci Resolve с помощью текстовых команд
• Перечисление проектов, создание таймлайнов, добавление маркеров
• API-подобное управление через ИИ
• Автоматизация рабочих процессов видеомонтажа
6. Anilist MCP Server: доступ к данным об аниме и манге 🎌
Anilist MCP Server обеспечивает доступ к API Anilist через MCP-клиенты, позволяя взаимодействовать с данными об аниме и манге через текстовые команды.
Функциональность:
• Поиск аниме, манги, персонажей, студий
• Получение подробной информации о контенте
• Доступ к профилям пользователей и спискам
• Специализированные инструменты для данных Anilist
• Доступ к пользовательским спискам с авторизацией
7. MetaMCP: управление MCP-серверами 🎛
MetaMCP представляет собой промежуточный слой для централизованного управления MCP-серверами.
Функциональность:
• Единый интерфейс для контроля MCP-интеграций
• Совместимость с различными MCP-клиентами
• Управление инструментами, подсказками и ресурсами
• Мультирабочее пространство для изоляции конфигураций
• Детальное управление инструментами
• Доступен в версии с открытым исходным кодом и в облачной версии (доступна бесплатно)
Топ-10 MCP-серверов для ИИ-агентов, апрель 2025 года 🤖
В этом обзоре представлены наиболее интересные с моей точки зрения MCP-серверы, которые расширяют возможности ИИ-агентов.
Эти инструменты обеспечивают доступ к различным функциям через единый интерфейс — от SQL-запросов до анимации и видеоредактирования.
1. Anyquery: универсальные SQL-запросы с поддержкой ИИ 💾
Anyquery позволяет делать запросы к различным источникам данных с помощью SQL.
Функциональность:
• Работа с традиционными базами данных и локальными файлами
• Интеграция с приложениями (Apple Notes, Notion)
• Поддержка веб-браузеров, включая Chrome
• Интеграция с языковыми моделями (ChatGPT, Claude) через протокол MCP
• Функционирование в качестве MySQL-сервера
• Совместимость с MySQL-клиентами (TablePlus, Metabase)
• Архитектура на основе SQLite с поддержкой плагинов
2. PluggedInMCP Proxy Server: централизованное управление MCP-серверами 🔄
PluggedInMCP Proxy Server представляет собой универсальный интерфейс для управления MCP-серверами, запущенными локально или через веб с использованием WebSockets.
Функциональность:
• Совместимость с MCP-клиентами (Claude Desktop, Klein, Cursor)
• Автоматическая загрузка конфигураций, инструментов и ресурсов
• Изоляция пространств имен для организации разных наборов MCP
• Многорабочее пространство для переключения между конфигурациями
3. Manim MCP Server: математические анимации через MCP 📊
Manim MCP Server объединяет математические анимации с протоколом MCP, позволяя выполнять скрипты Manim Python и получать анимационное видео.
Функциональность:
• Программное создание математических визуализаций
• Рендеринг через стандартизированный протокол
• Интеграция с MCP-совместимыми инструментами
• Генерация анимаций через текстовые запросы
• Автоматическое сохранение анимаций в медиа-папке
4. Video Editor MCP Server: редактирование видео через MCP 🎬
Video Editor MCP Server интегрирует возможности редактирования видео в экосистему MCP, позволяя языковым моделям взаимодействовать с видеоконтентом.
Функциональность:
• Интерфейс для загрузки, редактирования, поиска и генерации видео
• Интеграция с платформой Video Jungle
• Схема URI vj:// для обращения к видео и проектам
• Поиск видео с использованием эмбеддингов
• Метаданные о содержании видео и временных метках
• Инструменты для добавления видео из URL
• Поиск локальных видеофайлов в приложении Photos на macOS
5. DaVinci Resolve MCP Server: управление видеоредактором через MCP 🎥
DaVinci Resolve MCP Server интегрирует ИИ-ассистентов с профессиональным видеоредактором DaVinci Resolve.
Функциональность:
• Управление DaVinci Resolve с помощью текстовых команд
• Перечисление проектов, создание таймлайнов, добавление маркеров
• API-подобное управление через ИИ
• Автоматизация рабочих процессов видеомонтажа
6. Anilist MCP Server: доступ к данным об аниме и манге 🎌
Anilist MCP Server обеспечивает доступ к API Anilist через MCP-клиенты, позволяя взаимодействовать с данными об аниме и манге через текстовые команды.
Функциональность:
• Поиск аниме, манги, персонажей, студий
• Получение подробной информации о контенте
• Доступ к профилям пользователей и спискам
• Специализированные инструменты для данных Anilist
• Доступ к пользовательским спискам с авторизацией
7. MetaMCP: управление MCP-серверами 🎛
MetaMCP представляет собой промежуточный слой для централизованного управления MCP-серверами.
Функциональность:
• Единый интерфейс для контроля MCP-интеграций
• Совместимость с различными MCP-клиентами
• Управление инструментами, подсказками и ресурсами
• Мультирабочее пространство для изоляции конфигураций
• Детальное управление инструментами
• Доступен в версии с открытым исходным кодом и в облачной версии (доступна бесплатно)
❤1👍1
8. OpenMCP: стандартизация доступа к веб-API 🌐
OpenMCP — стандарт и реестр для соединения ИИ-инструментов с веб-API.
Функциональность:
• Преобразование веб-API в MCP
• Взаимодействие MCP-клиентов с различными сервисами
• Открытый реестр серверов
• Поддержка форматов REST, gRPC и GraphQL
• Инструменты для разработчиков
• Упрощенное добавление серверов к MCP-клиентам
9. Aseprite MCP Server: интеграция с редактором пиксельной графики 🎨
Aseprite MCP Server интегрирует ИИ-помощников с редактором пиксельной графики Aseprite.
Функциональность:
• Взаимодействие с Aseprite через текстовые команды
• API-уровневая коммуникация через MCP
• Автоматизация создания кадров анимации и модификации палитр
• Выполнение повторяющихся действий через команды
10. Pipedream: соединение приложение и автоматизация ⚙️
Pipedream — платформа для быстрого соединения приложений и создания автоматизаций.
Функциональность:
• Бесплатная среда для разработчиков
• Более 1000 интеграционных компонентов
• Подключение к популярным сервисам (Slack, Google Sheets)
• Поддержка пользовательского кода (Node.js, Python, Golang, Bash)
• Низкокодовый подход
• Архитектура, управляемая событиями
• Триггеры от различных источников
• Предварительно созданные действия для типовых операций
Вышеуказанные MCP-серверы предоставляют широкие возможности для агентной автоматизации и интеграции ИИ в различные рабочие процессы — от исследовательских задач до создания контента и управления данными. 🚀
#ИскусственныйИнтеллект #MCP #ИИагенты #Технологии #Автоматизация
OpenMCP — стандарт и реестр для соединения ИИ-инструментов с веб-API.
Функциональность:
• Преобразование веб-API в MCP
• Взаимодействие MCP-клиентов с различными сервисами
• Открытый реестр серверов
• Поддержка форматов REST, gRPC и GraphQL
• Инструменты для разработчиков
• Упрощенное добавление серверов к MCP-клиентам
9. Aseprite MCP Server: интеграция с редактором пиксельной графики 🎨
Aseprite MCP Server интегрирует ИИ-помощников с редактором пиксельной графики Aseprite.
Функциональность:
• Взаимодействие с Aseprite через текстовые команды
• API-уровневая коммуникация через MCP
• Автоматизация создания кадров анимации и модификации палитр
• Выполнение повторяющихся действий через команды
10. Pipedream: соединение приложение и автоматизация ⚙️
Pipedream — платформа для быстрого соединения приложений и создания автоматизаций.
Функциональность:
• Бесплатная среда для разработчиков
• Более 1000 интеграционных компонентов
• Подключение к популярным сервисам (Slack, Google Sheets)
• Поддержка пользовательского кода (Node.js, Python, Golang, Bash)
• Низкокодовый подход
• Архитектура, управляемая событиями
• Триггеры от различных источников
• Предварительно созданные действия для типовых операций
Вышеуказанные MCP-серверы предоставляют широкие возможности для агентной автоматизации и интеграции ИИ в различные рабочие процессы — от исследовательских задач до создания контента и управления данными. 🚀
#ИскусственныйИнтеллект #MCP #ИИагенты #Технологии #Автоматизация
GitHub
GitHub - wegotdocs/open-mcp
Contribute to wegotdocs/open-mcp development by creating an account on GitHub.
👍4❤2
#mcp #agents
Подготовил сравнительный анализ наиболее популярных (по разным категориям) MCP-серверов из репозитория Awesome MCP Servers
Полный список обзоров здесь
Подготовил сравнительный анализ наиболее популярных (по разным категориям) MCP-серверов из репозитория Awesome MCP Servers
Полный список обзоров здесь
GitHub
vibe-coding-blog/Сравнительный анализ MCP-серверов.md at main · dzhechko/vibe-coding-blog
Contribute to dzhechko/vibe-coding-blog development by creating an account on GitHub.
❤4👍1
#ai #dev #news #vibecoding #lovable
Lovable 2.0: Новые возможности платформы 🚀
Команда Lovable представила значительное обновление своей платформы, которая позволяет создавать приложения и веб-сайты в режиме Vibe Coding. Версия 2.0 добавляет множество полезных функций, делающих процесс разработки более эффективным и удобным.
Ключевые обновления в Lovable 2.0 👀
1. Обновленный дизайн и интерфейс 💅 Как пишут разработчики: платформа получила современный визуальный стиль и более интуитивный интерфейс, который помогает сосредоточиться на творческом процессе.
Я не дизайнер и мне, если честно, предыдущая версия тоже нравилась, но и новая хороша :)
2. Командная работа 👨💻👩💻 Введены рабочие пространства для совместной работы:
• Pro-подписка: возможность приглашать до 2 человек в отдельные проекты
• Teams-подписка: до 20 пользователей в одном рабочем пространстве с разными уровнями доступа
• Общий пул кредитов для всех участников рабочего пространства
3. Улучшенный ИИ-ассистент 🧠 Новый режим чата стал значительно умнее и не вносит изменения в код напрямую. Он помогает:
• Отвечать на вопросы по проекту
• Планировать разработку
• Находить и исправлять ошибки
Ассистент самостоятельно определяет, когда нужно искать информацию в файлах, проверять логи или обращаться к базе данных.
Я думаю, что в сочетании со способностью делать непрерывный рефакторинг кода (lovable всегда предлагает его сделать когда размер какого-то файла с кодом начинает превышать 250 строчек, что и раньше позволяло доводить до успеха сложные проекты, такой фичи явно не хватает другому веб-кодеру bolt.new) это значительно улучшит и ускорит сходимость Vibe Coding процессов.
4. Проверка безопасности 🛡 Функция Security Scan автоматически выявляет уязвимости в приложении. Что с моей точки зрения очень актуально! И я пока еще не видел такого в других AI-кодерах. На данный момент работает с проектами, использующими Supabase. В будущем планируется расширение возможностей.
5. Режим разработчика (Dev Mode) ⌨️ Позволяет редактировать код проекта напрямую в Lovable — функция, которая уже получила положительные отзывы от пользователей.
6. Визуальное редактирование 🎨 Возможность визуально редактировать стили без необходимости писать CSS-код вручную. Функция стала еще более надежной и удобной.
7. Интеграция доменов 🌐 Покупка и подключение доменов теперь доступны непосредственно в Lovable. С момента внедрения этой функции подключено более 10 000 пользовательских доменов.
Обновление ценовой политики 💰
Компания упростила тарифные планы:
• Pro-план: начиная от $25 в месяц — для индивидуальных разработчиков
• Teams-план: от $30 в месяц — для команд, нуждающихся в общем рабочем пространстве
Планы на будущее 🔮
Команда Lovable отмечает, что это только начало нового этапа развития платформы. В ближайшие месяцы планируется сделать продукт еще более функциональным, безопасным и удобным в использовании.
Для тех, кто интересуется подробностями, команда Lovable проводит прямую трансляцию с ответами на вопросы. Основатель компании Антон и его команда будут рассказывать о новых возможностях и делиться планами на будущее.
#разработка_приложений #искусственный_интеллект #Lovable #новые_технологии
Lovable 2.0: Новые возможности платформы 🚀
Команда Lovable представила значительное обновление своей платформы, которая позволяет создавать приложения и веб-сайты в режиме Vibe Coding. Версия 2.0 добавляет множество полезных функций, делающих процесс разработки более эффективным и удобным.
Ключевые обновления в Lovable 2.0 👀
1. Обновленный дизайн и интерфейс 💅 Как пишут разработчики: платформа получила современный визуальный стиль и более интуитивный интерфейс, который помогает сосредоточиться на творческом процессе.
Я не дизайнер и мне, если честно, предыдущая версия тоже нравилась, но и новая хороша :)
2. Командная работа 👨💻👩💻 Введены рабочие пространства для совместной работы:
• Pro-подписка: возможность приглашать до 2 человек в отдельные проекты
• Teams-подписка: до 20 пользователей в одном рабочем пространстве с разными уровнями доступа
• Общий пул кредитов для всех участников рабочего пространства
3. Улучшенный ИИ-ассистент 🧠 Новый режим чата стал значительно умнее и не вносит изменения в код напрямую. Он помогает:
• Отвечать на вопросы по проекту
• Планировать разработку
• Находить и исправлять ошибки
Ассистент самостоятельно определяет, когда нужно искать информацию в файлах, проверять логи или обращаться к базе данных.
Я думаю, что в сочетании со способностью делать непрерывный рефакторинг кода (lovable всегда предлагает его сделать когда размер какого-то файла с кодом начинает превышать 250 строчек, что и раньше позволяло доводить до успеха сложные проекты, такой фичи явно не хватает другому веб-кодеру bolt.new) это значительно улучшит и ускорит сходимость Vibe Coding процессов.
4. Проверка безопасности 🛡 Функция Security Scan автоматически выявляет уязвимости в приложении. Что с моей точки зрения очень актуально! И я пока еще не видел такого в других AI-кодерах. На данный момент работает с проектами, использующими Supabase. В будущем планируется расширение возможностей.
5. Режим разработчика (Dev Mode) ⌨️ Позволяет редактировать код проекта напрямую в Lovable — функция, которая уже получила положительные отзывы от пользователей.
6. Визуальное редактирование 🎨 Возможность визуально редактировать стили без необходимости писать CSS-код вручную. Функция стала еще более надежной и удобной.
7. Интеграция доменов 🌐 Покупка и подключение доменов теперь доступны непосредственно в Lovable. С момента внедрения этой функции подключено более 10 000 пользовательских доменов.
Обновление ценовой политики 💰
Компания упростила тарифные планы:
• Pro-план: начиная от $25 в месяц — для индивидуальных разработчиков
• Teams-план: от $30 в месяц — для команд, нуждающихся в общем рабочем пространстве
Планы на будущее 🔮
Команда Lovable отмечает, что это только начало нового этапа развития платформы. В ближайшие месяцы планируется сделать продукт еще более функциональным, безопасным и удобным в использовании.
Для тех, кто интересуется подробностями, команда Lovable проводит прямую трансляцию с ответами на вопросы. Основатель компании Антон и его команда будут рассказывать о новых возможностях и делиться планами на будущее.
#разработка_приложений #искусственный_интеллект #Lovable #новые_технологии
👍3❤2🔥1
#lovable #battle #check
Lovable 2.0 - проверка "боем" !
На первом занятии курса по AI-программированию и агентам мы делали браузерную игру-шутер
Вот такой результат у меня получился при помощи Lovable предыдущей версии при подготовке к занятию
Причем данный результат был получен при количестве итераций > 10. И мои попытки добавить звук выстрела и фоновую музыку так и не увенчались успехом (требовалось подгрузить свои собственные mp3 файлы).
Поэтому на самом занятии мы использовали replit agent 2.0 (ранее писал о нем здесь), который позволил получить хороший результат практически сразу за пару минут, и дальнейшие 2-3 итерации были потрачены на небольшие улучшения.
А теперь сравните, пожалуйста, с результатом на Lovable 2.0, который я получил за несколько минут + 3 итерации по корректировке кнопок перемещения и коррекции заваливания горизонта.
Результат с моей точки зрения значительно лучше Lovable предыдущей версии и на уровне replit agent 2.0, а нападающие "монстры" "из коробки" получились даже более симпатичными.
Чего мне не хватило - фоновую музыку "из коробки" получить не удалось (в replit она появилась сразу, lovable 2.0 все таки запросил
Можете повторить подобный эксперимент самостоятельно. Исходный промпт здесь
Как можно сэкономить на lovable подписке и не только писал здесь
Lovable 2.0 - проверка "боем" !
На первом занятии курса по AI-программированию и агентам мы делали браузерную игру-шутер
Вот такой результат у меня получился при помощи Lovable предыдущей версии при подготовке к занятию
Причем данный результат был получен при количестве итераций > 10. И мои попытки добавить звук выстрела и фоновую музыку так и не увенчались успехом (требовалось подгрузить свои собственные mp3 файлы).
Поэтому на самом занятии мы использовали replit agent 2.0 (ранее писал о нем здесь), который позволил получить хороший результат практически сразу за пару минут, и дальнейшие 2-3 итерации были потрачены на небольшие улучшения.
А теперь сравните, пожалуйста, с результатом на Lovable 2.0, который я получил за несколько минут + 3 итерации по корректировке кнопок перемещения и коррекции заваливания горизонта.
Результат с моей точки зрения значительно лучше Lovable предыдущей версии и на уровне replit agent 2.0, а нападающие "монстры" "из коробки" получились даже более симпатичными.
Чего мне не хватило - фоновую музыку "из коробки" получить не удалось (в replit она появилась сразу, lovable 2.0 все таки запросил
Для работы вам нужно добавить файл background-music.mp3 в папку public/ вашего проекта.
)Можете повторить подобный эксперимент самостоятельно. Исходный промпт здесь
Как можно сэкономить на lovable подписке и не только писал здесь
productuniversity.ru
Cursor. AI-программироание и ИИ-агенты. Ускоряем разработки и создание прототипов. 8 проектов за 8 недель c помощью ИИ-ассистентов.…
Курс по «вайб-кодингу» и основам основам создания IT-приложений с AI-ассистентами
1❤2👍2🔥1
#ai #agents #forlife #trip #planning #browser
🚀 Как я спланировал семейное путешествие с помощью ИИ-агентов
Привет, друзья! 🌍✨
Хочу поделиться лайфхаком, который сделал планирование семейного отпуска на майские праздники простым и интересным!
🤖 Этап 1: Планирование маршрута
Решил проверить, как современные ИИ-агенты справятся с задачей планирования семейного отдыха. У меня оставались кредиты на нескольких платформах, так что устроил небольшое соревнование:
• genspark.ai 🏆 - составил подробную программу на 3 дня
• perplexity.ai deep research 📝 - предложил план на 2 дня
Вот результаты:
• https://www.genspark.ai/agents?id=02447c93-d4ba-45c9-a682-2a8bcc506cea
• https://www.perplexity.ai/search/sostav-programmu-poseshcheniia-2He2wz1bRG2t0ucCxWy1BA
💡 Можно также использовать: gemini deep research, manus ai, suna.so, openai deep research, rtrvr.ai или AI-кодеры типа roo code/cline с MCP серверами (brave research, exa, perplexity, firecrawl и т.п.)
💻 Этап 2: Создание интерактивной версии плана поездки
Чтобы сделать наше путешествие еще удобнее, решил создать интерактивную веб-версию программы поездки, доступную всем членам семьи. Сравнил два ИИ веб-кодера:
• bolt.new ⚡️ - сделал отличный сайт с первого раза без дополнительных пояснений
• lovable.dev 🎨 - потребовал некоторых уточнений (хотя он лучше справляется со сложными проектами)
Результаты получились такие:
• https://yar-trip.netlify.app/ (от bolt.new)
• https://yaroslavl-family-adventure-guide.lovable.app/ (от lovable.dev)
🏆 Мой выбор для планирования семейных путешествий:
• genspark.ai - как универсальный агент для составления плана поездки
• bolt.new - для быстрой и красивой визуализации интерактивного плана поездки
Попробуйте сами - возможно это сэкономит и вам какое-то время и сделает подготовку к отпуску интересной! 🧳🌴
А вы уже использовали ИИ для планирования отдыха? Делитесь опытом в комментариях! 👇
🚀 Как я спланировал семейное путешествие с помощью ИИ-агентов
Привет, друзья! 🌍✨
Хочу поделиться лайфхаком, который сделал планирование семейного отпуска на майские праздники простым и интересным!
🤖 Этап 1: Планирование маршрута
Решил проверить, как современные ИИ-агенты справятся с задачей планирования семейного отдыха. У меня оставались кредиты на нескольких платформах, так что устроил небольшое соревнование:
• genspark.ai 🏆 - составил подробную программу на 3 дня
• perplexity.ai deep research 📝 - предложил план на 2 дня
Вот результаты:
• https://www.genspark.ai/agents?id=02447c93-d4ba-45c9-a682-2a8bcc506cea
• https://www.perplexity.ai/search/sostav-programmu-poseshcheniia-2He2wz1bRG2t0ucCxWy1BA
💡 Можно также использовать: gemini deep research, manus ai, suna.so, openai deep research, rtrvr.ai или AI-кодеры типа roo code/cline с MCP серверами (brave research, exa, perplexity, firecrawl и т.п.)
💻 Этап 2: Создание интерактивной версии плана поездки
Чтобы сделать наше путешествие еще удобнее, решил создать интерактивную веб-версию программы поездки, доступную всем членам семьи. Сравнил два ИИ веб-кодера:
• bolt.new ⚡️ - сделал отличный сайт с первого раза без дополнительных пояснений
• lovable.dev 🎨 - потребовал некоторых уточнений (хотя он лучше справляется со сложными проектами)
Результаты получились такие:
• https://yar-trip.netlify.app/ (от bolt.new)
• https://yaroslavl-family-adventure-guide.lovable.app/ (от lovable.dev)
🏆 Мой выбор для планирования семейных путешествий:
• genspark.ai - как универсальный агент для составления плана поездки
• bolt.new - для быстрой и красивой визуализации интерактивного плана поездки
Попробуйте сами - возможно это сэкономит и вам какое-то время и сделает подготовку к отпуску интересной! 🧳🌴
А вы уже использовали ИИ для планирования отдыха? Делитесь опытом в комментариях! 👇
Perplexity AI
Составь программу посещения города ярославль на 2 дня (1 - 3 мая) с семьей 2...
Ярославль - один из красивейших городов Золотого кольца России, где удачно сочетаются исторические достопримечательности и современные развлечения для детей....
🔥6❤3👍3
#mcp #api #tools #ai #dev
🚀 6 инструментов для преобразования API в MCP-серверы
Привет, друзья! Сегодня делюсь полезной подборкой для разработчиков. Если вам нужно быстро адаптировать ваши API для работы с ИИ-агентами, эти инструменты сэкономят кучу времени 👇
1️⃣ FastAPI-MCP
Чуть выше писал об этом инструменте, здесь коротко повторюсь.
Позволяет преобразовать FastAPI end points в MCP-серверы одной строкой кода с нативной поддержкой аутентификации. Сохраняет все схемы и зависимости. Полностью с открытым исходным кодом.
2️⃣ RapidMCP
Преобразует REST API в MCP-сервер за считанные минуты без изменения кода. Просто подключите ваш API и преобразуйте его в MCP-сервер, готовый для работы с ИИ-агентами - без необходимости модификации бэкенда.
Есть платный и бесплатные тарифы.
3️⃣ MCPify
Позволяет создавать и разворачивайть MCP-серверы без написания ни единой строчки кода. Похож на Lovable/Bolt/V0 но для создания MCP-серверов. Поддерживает транспорт Streamable HTTP от MCP. Вы также можете делиться созданными MCP-серверами с другими пользователями на той же платформе.
Есть только платные тарифы.
Некоторым аналогом, но более широкого плана может являться Databutton (см. ниже)
4️⃣ Databutton MCP
Превратите любое Databutton-приложение в MCP-сервер одним кликом через настройки. Создавайте инструменты для ИИ так же, как API для вашего приложения, с возможностью добавления Python-документации для лучшего понимания агентом. Databutton размещает MCP-серверы онлайн, избавляя от необходимости локального запуска и позволяя легко интегрироваться с Claude Desktop и другими ИИ-ассистентами. Идеально подходит для создания инструментов для исследования, маркетинга и продаж.
Про Data Button писал в обзоре AI инструментов для Vibe Coding (оригинальный пост здесь)
5️⃣ Speakeasy
Генерирует MCP-серверы напрямую из документации OpenAPI с минимальным кодом. Создает TypeScript MCP-серверы с настраиваемыми описаниями инструментов и областями применения. На данный момент функциональность в Beta.
6️⃣ Higress от Alibaba
Преобразует спецификации OpenAPI в MCP-серверы одной командой. Инструмент openapi-to-mcp от Higress автоматически конвертирует документацию API в серверы с подробными шаблонами ответов. Развертывание без инфраструктуры. Полностью с открытым исходным кодом.
А какие инструменты используете вы? Делитесь в комментариях! 👇
#разработка #API #MCP #инструменты
🚀 6 инструментов для преобразования API в MCP-серверы
Привет, друзья! Сегодня делюсь полезной подборкой для разработчиков. Если вам нужно быстро адаптировать ваши API для работы с ИИ-агентами, эти инструменты сэкономят кучу времени 👇
1️⃣ FastAPI-MCP
Чуть выше писал об этом инструменте, здесь коротко повторюсь.
Позволяет преобразовать FastAPI end points в MCP-серверы одной строкой кода с нативной поддержкой аутентификации. Сохраняет все схемы и зависимости. Полностью с открытым исходным кодом.
2️⃣ RapidMCP
Преобразует REST API в MCP-сервер за считанные минуты без изменения кода. Просто подключите ваш API и преобразуйте его в MCP-сервер, готовый для работы с ИИ-агентами - без необходимости модификации бэкенда.
Есть платный и бесплатные тарифы.
3️⃣ MCPify
Позволяет создавать и разворачивайть MCP-серверы без написания ни единой строчки кода. Похож на Lovable/Bolt/V0 но для создания MCP-серверов. Поддерживает транспорт Streamable HTTP от MCP. Вы также можете делиться созданными MCP-серверами с другими пользователями на той же платформе.
Есть только платные тарифы.
Некоторым аналогом, но более широкого плана может являться Databutton (см. ниже)
4️⃣ Databutton MCP
Превратите любое Databutton-приложение в MCP-сервер одним кликом через настройки. Создавайте инструменты для ИИ так же, как API для вашего приложения, с возможностью добавления Python-документации для лучшего понимания агентом. Databutton размещает MCP-серверы онлайн, избавляя от необходимости локального запуска и позволяя легко интегрироваться с Claude Desktop и другими ИИ-ассистентами. Идеально подходит для создания инструментов для исследования, маркетинга и продаж.
Про Data Button писал в обзоре AI инструментов для Vibe Coding (оригинальный пост здесь)
5️⃣ Speakeasy
Генерирует MCP-серверы напрямую из документации OpenAPI с минимальным кодом. Создает TypeScript MCP-серверы с настраиваемыми описаниями инструментов и областями применения. На данный момент функциональность в Beta.
6️⃣ Higress от Alibaba
Преобразует спецификации OpenAPI в MCP-серверы одной командой. Инструмент openapi-to-mcp от Higress автоматически конвертирует документацию API в серверы с подробными шаблонами ответов. Развертывание без инфраструктуры. Полностью с открытым исходным кодом.
А какие инструменты используете вы? Делитесь в комментариях! 👇
#разработка #API #MCP #инструменты
GitHub
GitHub - tadata-org/fastapi_mcp: Expose your FastAPI endpoints as Model Context Protocol (MCP) tools, with Auth!
Expose your FastAPI endpoints as Model Context Protocol (MCP) tools, with Auth! - tadata-org/fastapi_mcp
❤4🔥3
Memory Bank: как сделать ИИ-кодера умнее и дешевле 🧠💰
Всем добрый вечер!
Хотел бы рассказать про крутую фишку для работы с ИИ-кодерами — Memory Bank.
Это система, которая делает Cline, RooCode, Cursor и другие ИИ-инструменты в разы эффективнее.
По сути, это развитие подхода авто-трекинга изменений проекта, о котором писал еще в начале года.
Что такое Memory Bank? 📁
Это набор markdown-файлов, которые ИИ-кодер автоматически создаёт и обновляет, чтобы "помнить" всё о вашем проекте между сессиями. Все это для того, чтобы у вашего ИИ-кодера появилась долговременная память!
Какие файлы создаются? 📋
Memory Bank состоит из 6 основных файлов:
•
•
•
•
•
•
Зачем это нужно? 🤔
1️⃣ Экономия денег — не нужно держать огромные дорогие треды, где повторяется контекст
2️⃣ Экономия времени — не нужно каждый раз объяснять ИИ, что вы делаете
3️⃣ Лучшее качество кода — ИИ помнит все паттерны и решения проекта
4️⃣ Документация на автомате — получаете структурированную документацию как побочный эффект
Как настроить? ⚙️
1) Создайте папку memory-bank/ в корне проекта
2) Добавьте специальные инструкции в настройках ИИ-кодера:
• В Cline: Settings → Custom Instructions → вставьте инструкции
• В Cursor: создайте
3) Напишите ИИ-кодеру:
И всё! Теперь ваш ИИ будет автоматически поддерживать актуальную "память" о проекте.
Как использовать? 🚀
• Начинайте новые чаты с фразы
• Когда нужно обновить память, пишите
• Используйте режимы Plan (планирование) и Act (реализация)
Особенно круто, что можно переключаться между разными ИИ-инструментами — они будут читать одни и те же файлы Memory Bank!
Мой опыт 💡
Я заметил, что с Memory Bank:
• Расход токенов снизился, примерно на треть
• ИИ стал делать меньше ошибок
• Не нужно постоянно напоминать контекст
• Появилась хорошая документация проекта
Попробуйте сами — это улучшает подход к работе с ИИ-кодерами!
Источники
• Cline Memory Bank | Cline
• Cline Memory Bank - Custom Instructions (GitHub)
• How to add Cline Memory Bank feature to your cursor (Cursor Community Forum)
• Roo Code Memory Bank (Github)
#ИИ #разработка #Cline #RooCode #Cursor #MemoryBank
Всем добрый вечер!
Хотел бы рассказать про крутую фишку для работы с ИИ-кодерами — Memory Bank.
Это система, которая делает Cline, RooCode, Cursor и другие ИИ-инструменты в разы эффективнее.
По сути, это развитие подхода авто-трекинга изменений проекта, о котором писал еще в начале года.
Что такое Memory Bank? 📁
Это набор markdown-файлов, которые ИИ-кодер автоматически создаёт и обновляет, чтобы "помнить" всё о вашем проекте между сессиями. Все это для того, чтобы у вашего ИИ-кодера появилась долговременная память!
Какие файлы создаются? 📋
Memory Bank состоит из 6 основных файлов:
•
projectbrief.md
— основа проекта, цели и требования •
productContext.md
— для чего нужен продукт, какие проблемы решает •
activeContext.md
— над чем работаем сейчас, текущие задачи •
systemPatterns.md
— архитектура, технические решения •
techContext.md
— используемые технологии и зависимости •
progress.md
— что сделано, что осталось, известные проблемыЗачем это нужно? 🤔
1️⃣ Экономия денег — не нужно держать огромные дорогие треды, где повторяется контекст
2️⃣ Экономия времени — не нужно каждый раз объяснять ИИ, что вы делаете
3️⃣ Лучшее качество кода — ИИ помнит все паттерны и решения проекта
4️⃣ Документация на автомате — получаете структурированную документацию как побочный эффект
Как настроить? ⚙️
1) Создайте папку memory-bank/ в корне проекта
2) Добавьте специальные инструкции в настройках ИИ-кодера:
• В Cline: Settings → Custom Instructions → вставьте инструкции
• В Cursor: создайте
.cursor/rules/memory-bank.mdc
3) Напишите ИИ-кодеру:
initialize memory bank
И всё! Теперь ваш ИИ будет автоматически поддерживать актуальную "память" о проекте.
Как использовать? 🚀
• Начинайте новые чаты с фразы
follow your custom instructions
• Когда нужно обновить память, пишите
update memory bank
• Используйте режимы Plan (планирование) и Act (реализация)
Особенно круто, что можно переключаться между разными ИИ-инструментами — они будут читать одни и те же файлы Memory Bank!
Мой опыт 💡
Я заметил, что с Memory Bank:
• Расход токенов снизился, примерно на треть
• ИИ стал делать меньше ошибок
• Не нужно постоянно напоминать контекст
• Появилась хорошая документация проекта
Попробуйте сами — это улучшает подход к работе с ИИ-кодерами!
Источники
• Cline Memory Bank | Cline
• Cline Memory Bank - Custom Instructions (GitHub)
• How to add Cline Memory Bank feature to your cursor (Cursor Community Forum)
• Roo Code Memory Bank (Github)
#ИИ #разработка #Cline #RooCode #Cursor #MemoryBank
Telegram
Заметки LLM-энтузиаста
#cursor #ai #dev #insights #bestpractice #tracking
С недавних пор при работе над проектами в Cursor я стал использовать методику автоматического трекинга изменений в специализированных md-файлах. Очень сильно экономит время. Ниже моя заметка по теме.
📝…
С недавних пор при работе над проектами в Cursor я стал использовать методику автоматического трекинга изменений в специализированных md-файлах. Очень сильно экономит время. Ниже моя заметка по теме.
📝…
🔥10❤1
Управление задачами для AI-разработки: Task Master и Boomerang Mode
В мире AI-разработки и "vibe coding" (разработки с помощью AI-агентов) часто возникает проблема: вы просите AI внести небольшое изменение, но он нарушает работу всего проекта или создает множество ошибок из-за непонимания зависимостей в кодовой базе. Эта проблема характерна для всех AI-кодеров, независимо от платформы. Однако существует эффективное решение — системы управления задачами для AI-кодеров.
Что такое системы управления задачами для AI-кодеров?
Системы управления задачами для AI — это инструменты, которые помогают AI-агентам понимать общий план реализации проекта и контролировать объем контекста, используемый на каждом этапе разработки. Два наиболее популярных решения в этой области на данный момент — Task Master и Boomerang Mode.
Оба данных решения можно рассматривать как развитие подхода по авто-трекингу изменений, только с первоначальной декомпозицией PRD на задачи. PRD фиксирует целевые качества продукта, а система управления задачами генерирует implementation plan.
Task Master
Task Master — это система управления задачами для AI-разработки с Claude, разработанная Эялом Толедано (@eyaltoledano) и Ральфом Крейшем (@RalphEcom). Она предназначена для бесшовной интеграции с Cursor AI и другими AI-редакторами кода.
Зачем нужен Task Master?
1. Структурированный подход к разработке: Task Master разбивает сложные проекты на логически связанные подзадачи, учитывая зависимости между ними.
2. Контроль контекста: Решает проблему ограниченного контекстного окна AI, фокусируя его на конкретной задаче.
3. Снижение количества ошибок: По утверждениям некоторых пользователей, снижает количество ошибок при разработке на 90%.
4. Логическая последовательность: Гарантирует, что задачи выполняются в правильном порядке, учитывая их зависимости.
Как использовать Task Master
Согласно официальной документации Task Master, процесс использования выглядит следующим образом:
1. Установка: Как указано в README.md репозитория Task Master, установка производится через npm
2. Инициализация проекта: после установки необходимо инициализировать проект
3. Настройка окружения: В соответствии с документацией, необходимо создать файл
4. Создание PRD (Product Requirements Document): разместите файл с описанием требований к вашему проекту в отдельной папке
5. Парсинг PRD и создание задач: делается Task Master'ом по запросу
6. Анализ сложности задач: делается Task Master'ом по запросу
7. Уточнение сложных задач: делается Task Master'ом по запросу
8. Просмотр (листинг) задач: делается Task Master'ом по запросу
9. Работа с AI-кодером: после выполнения всех предыдущих шагов и декомпозиции PRD на набор взаимосвязанных задач, попросите AI-кодировщик начать реализацию проекта на основе созданного при помощи Task Master плана.
Boomerang Mode для Roo Code
Boomerang Mode — это режим для Roo Code, который фокусируется на планировании и разбиении PRD на более мелкие управляемые части. Roo Code можно рассматривать как открытый аналог Cursor, который работает внутри Visual Studio Code.
Зачем нужен Boomerang Mode?
1. Авто-выбор режима работы: позволяет делегировать работу специализированным агентам (архитектор, кодер, отладчик).
2. Изолированный контекст: Каждая подзадача выполняется в своем собственном контексте (треде).
3. Отслеживание ресурсов: Показывает потребление токенов и общую стоимость API.
4. Гибкость: Позволяет создавать собственные режимы для различных задач.
Как настроить Boomerang Mode
• Сейчас это встроенный режим в Roo Code и называется Orchestrator Mode (ранее известный как Boomerang Mode)
• Работает внутри Visual Studio Code
• Оркестрирует рабочие процессы, разбивая задачи и делегируя их другим режимам
• Каждая подзадача выполняется в своем контексте
• Отслеживает потребление токенов и стоимость API
В мире AI-разработки и "vibe coding" (разработки с помощью AI-агентов) часто возникает проблема: вы просите AI внести небольшое изменение, но он нарушает работу всего проекта или создает множество ошибок из-за непонимания зависимостей в кодовой базе. Эта проблема характерна для всех AI-кодеров, независимо от платформы. Однако существует эффективное решение — системы управления задачами для AI-кодеров.
Что такое системы управления задачами для AI-кодеров?
Системы управления задачами для AI — это инструменты, которые помогают AI-агентам понимать общий план реализации проекта и контролировать объем контекста, используемый на каждом этапе разработки. Два наиболее популярных решения в этой области на данный момент — Task Master и Boomerang Mode.
Оба данных решения можно рассматривать как развитие подхода по авто-трекингу изменений, только с первоначальной декомпозицией PRD на задачи. PRD фиксирует целевые качества продукта, а система управления задачами генерирует implementation plan.
Task Master
Task Master — это система управления задачами для AI-разработки с Claude, разработанная Эялом Толедано (@eyaltoledano) и Ральфом Крейшем (@RalphEcom). Она предназначена для бесшовной интеграции с Cursor AI и другими AI-редакторами кода.
Зачем нужен Task Master?
1. Структурированный подход к разработке: Task Master разбивает сложные проекты на логически связанные подзадачи, учитывая зависимости между ними.
2. Контроль контекста: Решает проблему ограниченного контекстного окна AI, фокусируя его на конкретной задаче.
3. Снижение количества ошибок: По утверждениям некоторых пользователей, снижает количество ошибок при разработке на 90%.
4. Логическая последовательность: Гарантирует, что задачи выполняются в правильном порядке, учитывая их зависимости.
Как использовать Task Master
Согласно официальной документации Task Master, процесс использования выглядит следующим образом:
1. Установка: Как указано в README.md репозитория Task Master, установка производится через npm
2. Инициализация проекта: после установки необходимо инициализировать проект
3. Настройка окружения: В соответствии с документацией, необходимо создать файл
.env
на основе .env.example
и добавить API-ключи: ANTHROPIC_API_KEY
(обязательно), PERPLEXITY_API_KEY
(опционально, для поисковых исследований)4. Создание PRD (Product Requirements Document): разместите файл с описанием требований к вашему проекту в отдельной папке
5. Парсинг PRD и создание задач: делается Task Master'ом по запросу
6. Анализ сложности задач: делается Task Master'ом по запросу
7. Уточнение сложных задач: делается Task Master'ом по запросу
8. Просмотр (листинг) задач: делается Task Master'ом по запросу
9. Работа с AI-кодером: после выполнения всех предыдущих шагов и декомпозиции PRD на набор взаимосвязанных задач, попросите AI-кодировщик начать реализацию проекта на основе созданного при помощи Task Master плана.
Boomerang Mode для Roo Code
Boomerang Mode — это режим для Roo Code, который фокусируется на планировании и разбиении PRD на более мелкие управляемые части. Roo Code можно рассматривать как открытый аналог Cursor, который работает внутри Visual Studio Code.
Зачем нужен Boomerang Mode?
1. Авто-выбор режима работы: позволяет делегировать работу специализированным агентам (архитектор, кодер, отладчик).
2. Изолированный контекст: Каждая подзадача выполняется в своем собственном контексте (треде).
3. Отслеживание ресурсов: Показывает потребление токенов и общую стоимость API.
4. Гибкость: Позволяет создавать собственные режимы для различных задач.
Как настроить Boomerang Mode
• Сейчас это встроенный режим в Roo Code и называется Orchestrator Mode (ранее известный как Boomerang Mode)
• Работает внутри Visual Studio Code
• Оркестрирует рабочие процессы, разбивая задачи и делегируя их другим режимам
• Каждая подзадача выполняется в своем контексте
• Отслеживает потребление токенов и стоимость API
GitHub
GitHub - eyaltoledano/claude-task-master: An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo…
An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo, and others. - eyaltoledano/claude-task-master
🔥4
Преимущества использования систем управления задачами для AI-кодеров
1. Значительное снижение ошибок: Некоторые пользователи сообщают о снижении количества ошибок на 90%.
2. Повышение производительности: Возможность создавать сложные приложения за один сеанс без постоянных корректировок.
3. Лучшее понимание проекта: AI получает четкое представление о структуре и зависимостях проекта.
4. Контроль над контекстом: Решение проблемы ограниченного контекстного окна AI.
5. Документирование процесса: Автоматическое создание документации о выполненных задачах.
6. Возможность возврата: При возникновении проблем можно легко вернуться к предыдущим задачам.
Базовая реализация для любого AI-агента по программированию
Если вы не хотите устанавливать специальные инструменты, вы можете создать простую систему управления задачами:
1. Создайте файл
2. Добавьте правило для вашего AI-кодера всегда обращаться к этому файлу для отслеживания задач.
3. Попросите AI-кодер разбить ваш проект на небольшие задачи и добавить их в
4. После выполнения каждой задачи AI-кодер должен отмечать ее как выполненную.
По большому счету Task Master и Boomerang Mode делают примерно то же самое, только чуть сложнее.
Заключение
Task Master и Boomerang Mode представляют собой мощные инструменты для повышения эффективности AI-разработки. Они решают ключевые проблемы, связанные с контекстом и структурированием задач, что приводит к значительному снижению количества ошибок и повышению производительности. По мере развития этих инструментов можно ожидать еще большего улучшения процесса AI-разработки в ближайшем будущем.
Независимо от того, используете ли вы Cursor, Roo Code, Windsurf или другие AI-редакторы кода, внедрение системы управления задачами может значительно улучшить ваш опыт разработки с помощью AI.
Источники:
• GitHub: eyaltoledano/claude-task-master
• Github: Boomerang-tasks
#AI #разработка #TaskMaster #RooCode #OrchestratorMode #AIcoding
1. Значительное снижение ошибок: Некоторые пользователи сообщают о снижении количества ошибок на 90%.
2. Повышение производительности: Возможность создавать сложные приложения за один сеанс без постоянных корректировок.
3. Лучшее понимание проекта: AI получает четкое представление о структуре и зависимостях проекта.
4. Контроль над контекстом: Решение проблемы ограниченного контекстного окна AI.
5. Документирование процесса: Автоматическое создание документации о выполненных задачах.
6. Возможность возврата: При возникновении проблем можно легко вернуться к предыдущим задачам.
Базовая реализация для любого AI-агента по программированию
Если вы не хотите устанавливать специальные инструменты, вы можете создать простую систему управления задачами:
1. Создайте файл
tasks.md
в вашем проекте.2. Добавьте правило для вашего AI-кодера всегда обращаться к этому файлу для отслеживания задач.
3. Попросите AI-кодер разбить ваш проект на небольшие задачи и добавить их в
tasks.md
4. После выполнения каждой задачи AI-кодер должен отмечать ее как выполненную.
По большому счету Task Master и Boomerang Mode делают примерно то же самое, только чуть сложнее.
Заключение
Task Master и Boomerang Mode представляют собой мощные инструменты для повышения эффективности AI-разработки. Они решают ключевые проблемы, связанные с контекстом и структурированием задач, что приводит к значительному снижению количества ошибок и повышению производительности. По мере развития этих инструментов можно ожидать еще большего улучшения процесса AI-разработки в ближайшем будущем.
Независимо от того, используете ли вы Cursor, Roo Code, Windsurf или другие AI-редакторы кода, внедрение системы управления задачами может значительно улучшить ваш опыт разработки с помощью AI.
Источники:
• GitHub: eyaltoledano/claude-task-master
• Github: Boomerang-tasks
#AI #разработка #TaskMaster #RooCode #OrchestratorMode #AIcoding
GitHub
GitHub - eyaltoledano/claude-task-master: An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo…
An AI-powered task-management system you can drop into Cursor, Lovable, Windsurf, Roo, and others. - eyaltoledano/claude-task-master
🔥3❤1
Cursor 0.48.x и 0.49.x: Что нового?
В двух предыдущих версиях Курсора вышли новые интересные фичи, которые имеет смысл активно использовать в проектах.
Cursor 0.49.x (15 апреля 2025)
1. Автоматическая генерация правил - создавайте правила прямо из чата с помощью команды
2. Улучшенная история чатов - теперь доступна через командную палитру
3. Упрощенный просмотр изменений - встроенный diff-просмотр в конце каждого разговора с кнопкой Review changes
4. Изображения в MCP - теперь можно передавать изображения как часть контекста в MCP-серверах
5. Улучшенное управление терминалом - больше контроля над командами, запущенными агентом
6. Глобальные файлы игнорирования - настройка паттернов игнорирования на уровне пользователя
7. Новые модели - добавлены
Cursor 0.48.x (23 марта 2025)
1. Вкладки чата - создавайте новые вкладки (⌘T) для параллельных разговоров
2. Встроенные режимы и пользовательские режимы - переработанная система режимов с возможностью создания собственных.
Наконец-то в Cursor появилось такое же богатство преднастроенных пользовательских режимов работы как в Roo Code и Cline :) Теперь мы можем настраивать пользовательские режимы для частых задач, например:
• Копирайтинг
• Создание PRD (документации требований к продукту)
• Рефакторинг кода
• Проектирование архитектуры приложения (Architect Mode)
Это расширяет возможности Cursor за пределы стандартных режимов
Что удобно, есть готовая библиотека примеров пользовательских режимов: https://playbooks.com/
Этот сайт - просто кладезь полезных инструментов, там можно найти:
• готовые пользовательские режимы (см. скриншот)
• builder правил для Cursor'а
• MCP серверы под разные задачи
• обучающие материалы по разработке с использованием ИИ.
Подробнее о функции можно узнать в официальной документации: https://docs.cursor.com/chat/custom-modes
3. Звуковые уведомления - опциональный звук при завершении чата
4. Улучшенное индексирование - значительно ускорена индексация похожих кодовых баз
5. Отображение стоимости - для моделей с оплатой по использованию теперь видна стоимость и разбивка по чатам
6. Новый процесс онбординга - упрощенный процесс начала работы с Cursor
Обе версии включают множество исправлений ошибок и улучшений производительности.
Поэтому обновляйтесь, чтобы получить доступ ко всем новым функциям!
#Cursor #IDE #AI #Обновление
В двух предыдущих версиях Курсора вышли новые интересные фичи, которые имеет смысл активно использовать в проектах.
Cursor 0.49.x (15 апреля 2025)
1. Автоматическая генерация правил - создавайте правила прямо из чата с помощью команды
/Generate Cursor Rules
- наконец-то не обязательно подключать специальные библиотеки или "ходить" на https://cursor.directory/ за rules-промптами (хотя за MCP-серверами и трендовыми топиками туда заглядывать стоит)2. Улучшенная история чатов - теперь доступна через командную палитру
3. Упрощенный просмотр изменений - встроенный diff-просмотр в конце каждого разговора с кнопкой Review changes
4. Изображения в MCP - теперь можно передавать изображения как часть контекста в MCP-серверах
5. Улучшенное управление терминалом - больше контроля над командами, запущенными агентом
6. Глобальные файлы игнорирования - настройка паттернов игнорирования на уровне пользователя
7. Новые модели - добавлены
Gemini 2.5 Pro/Flash
, Grok 3/Mini
, GPT-4.1
, o3
и o4-mini
. GPT-4.1
можно пробовать как замену claude-3.5/3.7
для кодинга, а o3
и o4-mini
хороши для режима планирования проектов. Cursor 0.48.x (23 марта 2025)
1. Вкладки чата - создавайте новые вкладки (⌘T) для параллельных разговоров
2. Встроенные режимы и пользовательские режимы - переработанная система режимов с возможностью создания собственных.
Наконец-то в Cursor появилось такое же богатство преднастроенных пользовательских режимов работы как в Roo Code и Cline :) Теперь мы можем настраивать пользовательские режимы для частых задач, например:
• Копирайтинг
• Создание PRD (документации требований к продукту)
• Рефакторинг кода
• Проектирование архитектуры приложения (Architect Mode)
Это расширяет возможности Cursor за пределы стандартных режимов
Agent
и Ask
.Что удобно, есть готовая библиотека примеров пользовательских режимов: https://playbooks.com/
Этот сайт - просто кладезь полезных инструментов, там можно найти:
• готовые пользовательские режимы (см. скриншот)
• builder правил для Cursor'а
• MCP серверы под разные задачи
• обучающие материалы по разработке с использованием ИИ.
Подробнее о функции можно узнать в официальной документации: https://docs.cursor.com/chat/custom-modes
3. Звуковые уведомления - опциональный звук при завершении чата
4. Улучшенное индексирование - значительно ускорена индексация похожих кодовых баз
5. Отображение стоимости - для моделей с оплатой по использованию теперь видна стоимость и разбивка по чатам
6. Новый процесс онбординга - упрощенный процесс начала работы с Cursor
Обе версии включают множество исправлений ошибок и улучшений производительности.
Поэтому обновляйтесь, чтобы получить доступ ко всем новым функциям!
#Cursor #IDE #AI #Обновление
🔥6❤3⚡1
Alibaba выпускает Qwen3: новое семейство моделей ИИ на уровне топовых моделей OpenAI и xAI 🚀
Лаборатория Qwen AI от Alibaba представила новое семейство языковых моделей Qwen3 с открытыми весами!
Считается, что это настоящий прорыв, который ставит китайскую компанию в один ряд с лидерами индустрии.
Что в новинке? 💡
• Флагманская модель Qwen3-235B по производительности не уступает гигантам вроде OpenAI o1, Grok-3 и DeepSeek-R1 на ключевых бенчмарках
• Внедрена гибридная система "мышления" — можно выбирать между глубоким рассуждением или быстрыми ответами
• Улучшенные навыки программирования и агентные возможности
• Поддержка 119 языков (привет, полиглоты! 👋)
Линейка моделей 📊
Alibaba выпустила сразу 8 моделей — от легковесной версии с 600 млн параметров до полноценного монстра на 235 млрд. Причем даже малые модели показывают значительный прогресс по сравнению с предыдущими версиями.
Почему это важно? 🌍
Китай стремительно сокращает отставание в сфере ИИ, и сегодняшний релиз Qwen3 — яркое тому подтверждение. Все модели выпущены с открытыми весами под лицензией Apache 2.0 и доступны через Hugging Face или для локального/облачного развертывания.
Теперь все взгляды обращены на DeepSeek и их ожидаемый запуск R2. Гонка ИИ набирает обороты! 🏎
#ИИ #Alibaba #Qwen3 #ИскусственныйИнтеллект #ЯзыковыеМодели #OpenSource #ТехНовости
Лаборатория Qwen AI от Alibaba представила новое семейство языковых моделей Qwen3 с открытыми весами!
Считается, что это настоящий прорыв, который ставит китайскую компанию в один ряд с лидерами индустрии.
Что в новинке? 💡
• Флагманская модель Qwen3-235B по производительности не уступает гигантам вроде OpenAI o1, Grok-3 и DeepSeek-R1 на ключевых бенчмарках
• Внедрена гибридная система "мышления" — можно выбирать между глубоким рассуждением или быстрыми ответами
• Улучшенные навыки программирования и агентные возможности
• Поддержка 119 языков (привет, полиглоты! 👋)
Линейка моделей 📊
Alibaba выпустила сразу 8 моделей — от легковесной версии с 600 млн параметров до полноценного монстра на 235 млрд. Причем даже малые модели показывают значительный прогресс по сравнению с предыдущими версиями.
Почему это важно? 🌍
Китай стремительно сокращает отставание в сфере ИИ, и сегодняшний релиз Qwen3 — яркое тому подтверждение. Все модели выпущены с открытыми весами под лицензией Apache 2.0 и доступны через Hugging Face или для локального/облачного развертывания.
Теперь все взгляды обращены на DeepSeek и их ожидаемый запуск R2. Гонка ИИ набирает обороты! 🏎
#ИИ #Alibaba #Qwen3 #ИскусственныйИнтеллект #ЯзыковыеМодели #OpenSource #ТехНовости
❤🔥4👍4🔥2
DeepSeek-Prover-V2: новый инструмент для автоматизации математических доказательств
Компания DeepSeek открыла исходный код инструмента для доказательства математических теорем — DeepSeek-Prover-V2.
Что представляет собой новая модель
DeepSeek-Prover-V2 — это специализированная языковая модель, разработанная для автоматического вывода и проверки математических теорем. Модель способна формализовать математические доказательства, что требует высокого уровня логического мышления, абстракции и точности.
Технические особенности
Ключевая особенность Prover-V2 — использование обучения с подкреплением (RL) для математических доказательств. Процесс работы модели включает несколько этапов:
• DeepSeek-V3 разбивает сложные проблемы на серию подцелей, формируя структуру доказательства
• Вспомогательная модель формализует доказательство каждой подцели с использованием языка Lean 4
• DeepSeek-V3 интегрирует формализованные подцели в полное доказательство
Этот подход позволяет объединить неформальные и формальные математические рассуждения в единой модели.
Результаты тестирования
По данным разработчиков, DeepSeek-Prover-V2 демонстрирует следующие показатели:
• Решает около 90% математических задач из набора miniF2F
• Справляется с 49 из 658 проблем на PutnamBench
• Способна решать задачи уровня AIME (Американская математическая олимпиада)
Доступные версии
Выпущены две версии модели:
• DeepSeek-Prover-V2-671B — основана на DeepSeek-V3-Base
• DeepSeek-Prover-V2-7B — базируется на DeepSeek-Prover-V1.5-Base с поддержкой контекста до 32K токенов
Обе модели доступны на Hugging Face и GitHub с соответствующей лицензией.
Значение для научного сообщества
Развитие моделей для автоматизации доказательств теорем может иметь значение для математических исследований, образования и решения сложных задач в различных областях науки, где требуется формальная верификация.
#DeepSeek #МатематическиеДоказательства #ИскусственныйИнтеллект
Компания DeepSeek открыла исходный код инструмента для доказательства математических теорем — DeepSeek-Prover-V2.
Что представляет собой новая модель
DeepSeek-Prover-V2 — это специализированная языковая модель, разработанная для автоматического вывода и проверки математических теорем. Модель способна формализовать математические доказательства, что требует высокого уровня логического мышления, абстракции и точности.
Технические особенности
Ключевая особенность Prover-V2 — использование обучения с подкреплением (RL) для математических доказательств. Процесс работы модели включает несколько этапов:
• DeepSeek-V3 разбивает сложные проблемы на серию подцелей, формируя структуру доказательства
• Вспомогательная модель формализует доказательство каждой подцели с использованием языка Lean 4
• DeepSeek-V3 интегрирует формализованные подцели в полное доказательство
Этот подход позволяет объединить неформальные и формальные математические рассуждения в единой модели.
Результаты тестирования
По данным разработчиков, DeepSeek-Prover-V2 демонстрирует следующие показатели:
• Решает около 90% математических задач из набора miniF2F
• Справляется с 49 из 658 проблем на PutnamBench
• Способна решать задачи уровня AIME (Американская математическая олимпиада)
Доступные версии
Выпущены две версии модели:
• DeepSeek-Prover-V2-671B — основана на DeepSeek-V3-Base
• DeepSeek-Prover-V2-7B — базируется на DeepSeek-Prover-V1.5-Base с поддержкой контекста до 32K токенов
Обе модели доступны на Hugging Face и GitHub с соответствующей лицензией.
Значение для научного сообщества
Развитие моделей для автоматизации доказательств теорем может иметь значение для математических исследований, образования и решения сложных задач в различных областях науки, где требуется формальная верификация.
#DeepSeek #МатематическиеДоказательства #ИскусственныйИнтеллект
👍3
Работа с большими кодовыми базами в Cursor
Работа с крупными проектами требует особого подхода.
Если вы вдруг пропустили, то Cursor выпустили официальный документ, посвященный данной теме.
Ниже привожу мой краткий конспект ключевых стратегий, которые помогут вам эффективно управлять сложными кодовыми базами с помощью Cursor.
Используйте Chat для быстрого изучения незнакомого кода
Когда вы сталкиваетесь с новой кодовой базой, обычно приходится много искать и переходить между файлами. С функцией
Для улучшения понимания структуры вашего проекта включите опцию "Include Project Structure" в настройках Cursor (сейчас эта функция в Beta).
Создавайте предметно-ориентированные правила
Подумайте: какую информацию вы бы дали новому сотруднику, чтобы он мог быстрее начать работать с вашим кодом? Эта информация будет полезна и для Cursor.
Для каждой организации или проекта существуют неявные знания, которые могут быть не полностью отражены в документации. Использование правил — лучший способ убедиться, что Cursor получает полную картину.
Например, создавайте правила для:
• Шаблонов реализации новых функций или сервисов
• Стандартов форматирования кода
• Соглашений об именовании
Уделяйте повышенное внимание процессу создания общего плана проекта
Для масштабных изменений стоит потратить больше времени на создание точного, хорошо определенного плана. Это значительно улучшит результаты работы с Cursor.
Если вы не получаете желаемый результат после нескольких попыток, попробуйте отступить и создать более детальный план с нуля, как если бы вы писали техническое задание для коллеги.
Используйте режим
Выбирайте правильный инструмент для решаемой задачи
Один из важнейших навыков эффективного использования Cursor — выбор подходящего инструмента:
Инструмент: Tab
Применение: Быстрые ручные изменения
Преимущества: Полный контроль, скорость
Ограничения: Только один файл
Инструмент: Cmd K
Применение: Локальные изменения в файле
Преимущества: Фокусированное редактирование
Ограничения: Только один файл
Инструмент: Chat
Применение: Крупные изменения в нескольких файлах
Преимущества: Автоматический сбор контекста, глубокое редактирование
Ограничения: Медленная работа, требует больше контекста
Основные выводы
• Разбивайте изменения на небольшие части
• Включайте релевантный контекст
• Используйте
• Чаще создавайте новые чаты
• Планируйте с помощью режима
Источник: Cursor – Large Codebases https://docs.cursor.com/guides/advanced/large-codebases
#cursor #разработка #программирование #советы_разработчикам
Работа с крупными проектами требует особого подхода.
Если вы вдруг пропустили, то Cursor выпустили официальный документ, посвященный данной теме.
Ниже привожу мой краткий конспект ключевых стратегий, которые помогут вам эффективно управлять сложными кодовыми базами с помощью Cursor.
Используйте Chat для быстрого изучения незнакомого кода
Когда вы сталкиваетесь с новой кодовой базой, обычно приходится много искать и переходить между файлами. С функцией
Chat
в Cursor вы можете просто задавать вопросы, чтобы найти нужные части кода и получить подробные объяснения их работы.Для улучшения понимания структуры вашего проекта включите опцию "Include Project Structure" в настройках Cursor (сейчас эта функция в Beta).
Создавайте предметно-ориентированные правила
Подумайте: какую информацию вы бы дали новому сотруднику, чтобы он мог быстрее начать работать с вашим кодом? Эта информация будет полезна и для Cursor.
Для каждой организации или проекта существуют неявные знания, которые могут быть не полностью отражены в документации. Использование правил — лучший способ убедиться, что Cursor получает полную картину.
Например, создавайте правила для:
• Шаблонов реализации новых функций или сервисов
• Стандартов форматирования кода
• Соглашений об именовании
Уделяйте повышенное внимание процессу создания общего плана проекта
Для масштабных изменений стоит потратить больше времени на создание точного, хорошо определенного плана. Это значительно улучшит результаты работы с Cursor.
Если вы не получаете желаемый результат после нескольких попыток, попробуйте отступить и создать более детальный план с нуля, как если бы вы писали техническое задание для коллеги.
Используйте режим
Ask
в Cursor для создания плана. Добавьте весь имеющийся контекст из систем управления проектами, внутренней документации или собственных мыслей.Выбирайте правильный инструмент для решаемой задачи
Один из важнейших навыков эффективного использования Cursor — выбор подходящего инструмента:
Инструмент: Tab
Применение: Быстрые ручные изменения
Преимущества: Полный контроль, скорость
Ограничения: Только один файл
Инструмент: Cmd K
Применение: Локальные изменения в файле
Преимущества: Фокусированное редактирование
Ограничения: Только один файл
Инструмент: Chat
Применение: Крупные изменения в нескольких файлах
Преимущества: Автоматический сбор контекста, глубокое редактирование
Ограничения: Медленная работа, требует больше контекста
Основные выводы
• Разбивайте изменения на небольшие части
• Включайте релевантный контекст
• Используйте
Chat
, Cmd K
и Tab
по назначению • Чаще создавайте новые чаты
• Планируйте с помощью режима
Ask
, реализуйте с помощью режима Agent
Источник: Cursor – Large Codebases https://docs.cursor.com/guides/advanced/large-codebases
#cursor #разработка #программирование #советы_разработчикам
Cursor
Cursor – Large Codebases
How to work with large codebases in Cursor
👍4🙏3
n8nChat: Упрощаем автоматизацию с помощью ИИ
n8nChat — это помощник на базе искусственного интеллекта для платформы n8n, который значительно упрощает создание автоматизированных рабочих процессов. Давайте разберемся, что это такое и как он может быть полезен.
Что такое n8nChat?
Это расширение для Chrome и Firefox, которое позволяет общаться с платформой n8n на естественном языке. Вместо ручной настройки всех элементов, вы просто описываете, что хотите получить, а ИИ делает всю работу за вас.
Например, напишите: "Создай процесс, который берет новости из RSS-каналов, суммирует их и отправляет в телеграмм канал" — и через несколько минут после пары наводящих вопросов (нужно будет указать расписание рассылки, список RSS каналов откуда брать новости и id телеграмм канала куда сводку новостей отправлять) получите готовый рабочий процесс. Который, возможно, еще придется слегка оттраблшутить (см. скриншоты).
Основные возможности
• Создание рабочих процессов через обычный текст — опишите задачу своими словами, и n8nChat построит нужную последовательность действий
• Автоматическая генерация узлов — инструмент создает все необходимые компоненты с правильными настройками
• Улучшение и аудит существующих процессов — анализирует уже созданные рабочие процессы и предлагает оптимизации
• Помощь с JavaScript — даже без знания программирования вы сможете использовать сложные функции для обработки данных
Примеры задач, которые можно решить
• "Собирай новые заявки с сайта и отправляй их в CRM-систему"
• "Преобразуй данные из Excel в JSON и загрузи их в базу данных"
• "Создай процесс, который сортирует входящие письма по категориям и отправляет уведомления"
• "Настрой автоматическое создание учетных записей для новых сотрудников в разных системах"
Для кого это подойдет?
• Новичкам в n8n — быстрее освоите платформу и начнете создавать полезные автоматизации
• Разработчикам — сэкономите время на рутинных задачах и быстрее создадите сложные интеграции
• Бизнес-пользователям — сможете автоматизировать процессы без глубоких технических знаний
• IT-специалистам — быстро прототипируйте решения без необходимости помнить все параметры
Как начать использовать n8nChat?
1️⃣ Установите расширение для Chrome или Firefox
2️⃣ Введите API-ключ выбранного сервиса ИИ (пока поддерживается только OpenAI, но список моделей достаточно обширен)
3️⃣ Активируйте плагин на n8n странице с Workflow и опишите, что вы хотите автоматизировать
4️⃣ Наблюдайте, как создается ваш рабочий процесс и отвечайте на наводящие вопросы
Почему стоит попробовать n8nChat?
n8nChat делает автоматизацию доступной для всех. Он экономит время, снижает сложность и позволяет сосредоточиться на решении бизнес-задач, а не на технических деталях.
Создавайте сложные автоматизации за минуты вместо часов и используйте возможности n8n даже без глубоких технических знаний.
Источники:
• Официальный сайт: https://n8nchat.com
#автоматизация #n8n #искусственныйинтеллект #ИИ #продуктивность #разработка #nocode #lowcode #интеграции #расширениебраузера #workflow #n8nchat
n8nChat — это помощник на базе искусственного интеллекта для платформы n8n, который значительно упрощает создание автоматизированных рабочих процессов. Давайте разберемся, что это такое и как он может быть полезен.
Что такое n8nChat?
Это расширение для Chrome и Firefox, которое позволяет общаться с платформой n8n на естественном языке. Вместо ручной настройки всех элементов, вы просто описываете, что хотите получить, а ИИ делает всю работу за вас.
Например, напишите: "Создай процесс, который берет новости из RSS-каналов, суммирует их и отправляет в телеграмм канал" — и через несколько минут после пары наводящих вопросов (нужно будет указать расписание рассылки, список RSS каналов откуда брать новости и id телеграмм канала куда сводку новостей отправлять) получите готовый рабочий процесс. Который, возможно, еще придется слегка оттраблшутить (см. скриншоты).
Основные возможности
• Создание рабочих процессов через обычный текст — опишите задачу своими словами, и n8nChat построит нужную последовательность действий
• Автоматическая генерация узлов — инструмент создает все необходимые компоненты с правильными настройками
• Улучшение и аудит существующих процессов — анализирует уже созданные рабочие процессы и предлагает оптимизации
• Помощь с JavaScript — даже без знания программирования вы сможете использовать сложные функции для обработки данных
Примеры задач, которые можно решить
• "Собирай новые заявки с сайта и отправляй их в CRM-систему"
• "Преобразуй данные из Excel в JSON и загрузи их в базу данных"
• "Создай процесс, который сортирует входящие письма по категориям и отправляет уведомления"
• "Настрой автоматическое создание учетных записей для новых сотрудников в разных системах"
Для кого это подойдет?
• Новичкам в n8n — быстрее освоите платформу и начнете создавать полезные автоматизации
• Разработчикам — сэкономите время на рутинных задачах и быстрее создадите сложные интеграции
• Бизнес-пользователям — сможете автоматизировать процессы без глубоких технических знаний
• IT-специалистам — быстро прототипируйте решения без необходимости помнить все параметры
Как начать использовать n8nChat?
1️⃣ Установите расширение для Chrome или Firefox
2️⃣ Введите API-ключ выбранного сервиса ИИ (пока поддерживается только OpenAI, но список моделей достаточно обширен)
3️⃣ Активируйте плагин на n8n странице с Workflow и опишите, что вы хотите автоматизировать
4️⃣ Наблюдайте, как создается ваш рабочий процесс и отвечайте на наводящие вопросы
Почему стоит попробовать n8nChat?
n8nChat делает автоматизацию доступной для всех. Он экономит время, снижает сложность и позволяет сосредоточиться на решении бизнес-задач, а не на технических деталях.
Создавайте сложные автоматизации за минуты вместо часов и используйте возможности n8n даже без глубоких технических знаний.
Источники:
• Официальный сайт: https://n8nchat.com
#автоматизация #n8n #искусственныйинтеллект #ИИ #продуктивность #разработка #nocode #lowcode #интеграции #расширениебраузера #workflow #n8nchat
🔥4👍2❤1
Опасная уязвимость в Chrome-расширениях: доступ к MCP-серверам
Поговорим немного про безопасность в контексте MCP.
Исследователи из ExtensionTotal обнаружили серьезную уязвимость в экосистеме Chrome-расширений, позволяющую обойти защитную "песочницу" браузера. Проблема связана с Model Context Protocol (MCP) - протоколом, который используется для взаимодействия ИИ-агентов с системными инструментами.
Суть проблемы:
• Chrome-расширения могут без аутентификации подключаться к локальным MCP-серверам
• MCP-серверы по умолчанию не требуют аутентификации
• Через такое подключение расширение получает доступ к файловой системе и другим ресурсам
Последствия:
• Полный обход защитной "песочницы" Chrome
• Неограниченный доступ к файловой системе
• Возможность взаимодействия с приложениями (Slack, WhatsApp и др.)
• Потенциальный полный захват компьютера
Особенно тревожно то, что для эксплуатации этой уязвимости расширению не требуются специальные разрешения. Если на компьютере запущен уязвимый MCP-сервер, любое расширение может получить к нему доступ.
Рекомендуется пересмотреть политики безопасности при использовании MCP-серверов и внимательно следить за поведением установленных расширений.
Или как вариант не устанавливать MCP-серверы локально, а использовать внешние платформы хостинга MCP-серверов с аутентфикацией, например:
https://mcp.pipedream.com/
https://mcp.composio.dev/
#кибербезопасность #Chrome #уязвимости #MCP #ИИ #security
Поговорим немного про безопасность в контексте MCP.
Исследователи из ExtensionTotal обнаружили серьезную уязвимость в экосистеме Chrome-расширений, позволяющую обойти защитную "песочницу" браузера. Проблема связана с Model Context Protocol (MCP) - протоколом, который используется для взаимодействия ИИ-агентов с системными инструментами.
Суть проблемы:
• Chrome-расширения могут без аутентификации подключаться к локальным MCP-серверам
• MCP-серверы по умолчанию не требуют аутентификации
• Через такое подключение расширение получает доступ к файловой системе и другим ресурсам
Последствия:
• Полный обход защитной "песочницы" Chrome
• Неограниченный доступ к файловой системе
• Возможность взаимодействия с приложениями (Slack, WhatsApp и др.)
• Потенциальный полный захват компьютера
Особенно тревожно то, что для эксплуатации этой уязвимости расширению не требуются специальные разрешения. Если на компьютере запущен уязвимый MCP-сервер, любое расширение может получить к нему доступ.
Рекомендуется пересмотреть политики безопасности при использовании MCP-серверов и внимательно следить за поведением установленных расширений.
Или как вариант не устанавливать MCP-серверы локально, а использовать внешние платформы хостинга MCP-серверов с аутентфикацией, например:
https://mcp.pipedream.com/
https://mcp.composio.dev/
#кибербезопасность #Chrome #уязвимости #MCP #ИИ #security
👍4❤3🔥1
Это может быть интересно: похоже популярный ИИ-бенчмарк LMArena отдаёт преимущество именно крупным компаниям
Новое исследование от учёных Cohere Labs, MIT, Stanford и других институтов выявило, что LMArena — ведущий краудсорсинговый бенчмарк для оценки ИИ-моделей — создаёт несправедливые преимущества для технологических гигантов, что может искажать его широко известные рейтинги. 🧐
📊 Ключевые выводы исследования:
• Такие компании как Meta, Google и OpenAI тайно тестируют множество вариантов своих моделей на платформе, публикуя только лучшие результаты
• Модели от крупных лабораторий получают больше внимания: на Google и OpenAI приходится более 60% всех взаимодействий на платформе
• Доступ к данным Arena значительно повышает производительность моделей именно в задачах этой платформы, что указывает на переобучение, а не на реальное улучшение возможностей
• 205 моделей были тихо удалены с платформы, причём модели с открытым исходным кодом удаляются чаще других
💡 Почему это важно:
LMArena оспаривает выводы исследования, утверждая, что их рейтинг отражает реальные предпочтения пользователей. Однако подобные заявления могут серьезно подорвать доверие к платформе, которая формирует общественное восприятие ИИ-моделей.
В сочетании с недавним скандалом вокруг бенчмарка Llama 4 Maverick, это исследование подчеркивает важный факт: оценка ИИ-систем не всегда так объективна, как кажется на первый взгляд.
А вы доверяете популярным ИИ-бенчмаркам? Делитесь мнением в комментариях! 👇
#ИскусственныйИнтеллект #ИИ_исследования #LMArena #технологии
Новое исследование от учёных Cohere Labs, MIT, Stanford и других институтов выявило, что LMArena — ведущий краудсорсинговый бенчмарк для оценки ИИ-моделей — создаёт несправедливые преимущества для технологических гигантов, что может искажать его широко известные рейтинги. 🧐
📊 Ключевые выводы исследования:
• Такие компании как Meta, Google и OpenAI тайно тестируют множество вариантов своих моделей на платформе, публикуя только лучшие результаты
• Модели от крупных лабораторий получают больше внимания: на Google и OpenAI приходится более 60% всех взаимодействий на платформе
• Доступ к данным Arena значительно повышает производительность моделей именно в задачах этой платформы, что указывает на переобучение, а не на реальное улучшение возможностей
• 205 моделей были тихо удалены с платформы, причём модели с открытым исходным кодом удаляются чаще других
💡 Почему это важно:
LMArena оспаривает выводы исследования, утверждая, что их рейтинг отражает реальные предпочтения пользователей. Однако подобные заявления могут серьезно подорвать доверие к платформе, которая формирует общественное восприятие ИИ-моделей.
В сочетании с недавним скандалом вокруг бенчмарка Llama 4 Maverick, это исследование подчеркивает важный факт: оценка ИИ-систем не всегда так объективна, как кажется на первый взгляд.
А вы доверяете популярным ИИ-бенчмаркам? Делитесь мнением в комментариях! 👇
#ИскусственныйИнтеллект #ИИ_исследования #LMArena #технологии
❤3👍1
Новые компактные модели Phi-4 от Microsoft с улучшенными возможностями рассуждения
30 апреля Microsoft запустила три новые модели семейства Phi, ориентированные на сложные рассуждения. Эти компактные модели превосходят более крупных конкурентов в задачах, требующих логического мышления, и при этом достаточно малы для работы на смартфонах и ноутбуках! 🚀
🔍 Что нового?
• Phi-4-reasoning (14 млрд параметров) — флагманская модель, которая превосходит OpenAI o1-mini и не уступает DeepSeek с 671 млрд параметров по ключевым показателям
• Phi-4-reasoning-plus — улучшенная версия с дополнительной тренировкой через обучение с подкреплением
• Phi-4-mini-reasoning (3,8 млрд параметров) — сверхкомпактная модель, способная работать на мобильных устройствах и не уступающая 7-миллиардным моделям в математических задачах
💡 Почему это важно?
Эти модели специально разработаны для эффективной работы в условиях ограниченных ресурсов — на периферийных устройствах и компьютерах Copilot+ PC. Несмотря на компактный размер, они демонстрируют впечатляющие результаты в сложных задачах рассуждения.
Как показывают тесты, Phi-4-reasoning превосходит DeepSeek-R1-Distill-Llama-70B (в 5 раз больше по размеру!) и демонстрирует конкурентоспособные результаты по сравнению со значительно более крупными моделями, такими как Deepseek-R1.
🔓 Открытый исходный код
Все три модели выпущены с открытым исходным кодом и лицензиями, позволяющими неограниченное коммерческое использование и модификацию разработчиками.
🖥 Применение в Windows
Модели Phi уже интегрированы в Copilot+ PC с оптимизированным для NPU вариантом Phi Silica. Они используются в таких функциях как Click to Do и доступны разработчикам через API.
🧠 Хотите попробовать?
• Протестируйте новые модели на Azure AI Foundry
• Изучите Phi Cookbook
• Узнайте больше о Phi-4-mini-reasoning
• Узнайте больше о Phi-4-reasoning
• Узнайте больше о Phi-4-reasoning-plus
Это новый шаг в развитии малых языковых моделей, которые становятся всё умнее, оставаясь при этом компактными и эффективными. Будущее ИИ уже здесь — прямо на наших устройствах! 📱💻
Источник: Microsoft Azure Blog
#Microsoft #Phi4 #МалыеЯзыковыеМодели #ИИнаУстройстве #ОткрытыйИсходныйКод
30 апреля Microsoft запустила три новые модели семейства Phi, ориентированные на сложные рассуждения. Эти компактные модели превосходят более крупных конкурентов в задачах, требующих логического мышления, и при этом достаточно малы для работы на смартфонах и ноутбуках! 🚀
🔍 Что нового?
• Phi-4-reasoning (14 млрд параметров) — флагманская модель, которая превосходит OpenAI o1-mini и не уступает DeepSeek с 671 млрд параметров по ключевым показателям
• Phi-4-reasoning-plus — улучшенная версия с дополнительной тренировкой через обучение с подкреплением
• Phi-4-mini-reasoning (3,8 млрд параметров) — сверхкомпактная модель, способная работать на мобильных устройствах и не уступающая 7-миллиардным моделям в математических задачах
💡 Почему это важно?
Эти модели специально разработаны для эффективной работы в условиях ограниченных ресурсов — на периферийных устройствах и компьютерах Copilot+ PC. Несмотря на компактный размер, они демонстрируют впечатляющие результаты в сложных задачах рассуждения.
Как показывают тесты, Phi-4-reasoning превосходит DeepSeek-R1-Distill-Llama-70B (в 5 раз больше по размеру!) и демонстрирует конкурентоспособные результаты по сравнению со значительно более крупными моделями, такими как Deepseek-R1.
🔓 Открытый исходный код
Все три модели выпущены с открытым исходным кодом и лицензиями, позволяющими неограниченное коммерческое использование и модификацию разработчиками.
🖥 Применение в Windows
Модели Phi уже интегрированы в Copilot+ PC с оптимизированным для NPU вариантом Phi Silica. Они используются в таких функциях как Click to Do и доступны разработчикам через API.
🧠 Хотите попробовать?
• Протестируйте новые модели на Azure AI Foundry
• Изучите Phi Cookbook
• Узнайте больше о Phi-4-mini-reasoning
• Узнайте больше о Phi-4-reasoning
• Узнайте больше о Phi-4-reasoning-plus
Это новый шаг в развитии малых языковых моделей, которые становятся всё умнее, оставаясь при этом компактными и эффективными. Будущее ИИ уже здесь — прямо на наших устройствах! 📱💻
Источник: Microsoft Azure Blog
#Microsoft #Phi4 #МалыеЯзыковыеМодели #ИИнаУстройстве #ОткрытыйИсходныйКод
⚡3👍1