Git-MCP: Решение проблем с контекстом для AI-кодеров 🧠
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
• GitHub Pages:
• Универсальный эндпоинт:
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
gitmcp.io/{owner}/{repo}
• GitHub Pages:
{owner}.gitmcp.io/{repo}
• Универсальный эндпоинт:
gitmcp.io/docs
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
👍7❤2🔥1
Windsurf представляет SWE-1: первое семейство собственных моделей 🌊
Компания Windsurf объявила о запуске своего первого семейства моделей собственной разработки — SWE-1. Как они утверждают, это не просто очередное обновление, а "начало чего-то большего".
Что за зверь этот SWE-1?
В семейство входят три модели, каждая оптимизирована для разных аспектов рабочего процесса:
• SWE-1 — флагманская модель с "высоким уровнем рассуждений", поддержкой инструментов и оптимизацией для Cascade. Обещают производительность уровня Claude 3.5, но "за долю стоимости". Интересно, какую именно долю? 💸
Что классно - сейчас модель доступна ограниченное время забесплатно! (см. скриншот)
• SWE-1-lite — замена для Cascade Base. Быстрее, лучше и, что самое главное, бесплатна для всех пользователей.
• SWE-1-mini — модель для пассивных предложений в Windsurf Tab, оптимизированная для работы в реальном времени.
Почему именно SWE?
Потому что, как нам объясняют, разработка программного обеспечения — это не только кодинг. Современные рабочие процессы охватывают терминалы, редакторы, браузеры, документацию и обратную связь с пользователями. SWE-1 якобы создана для работы со всем этим комплексом задач — от неполных идей до работающих систем. Амбициозно, ничего не скажешь. 🧩
Доступ и цены 💰
Вот что предлагается:
• SWE-1-lite теперь стандартная бесплатная модель в Cascade — доступна всем без ограничений использования.
• SWE-1 доступна только платным пользователям, но пока работает за "0 кредитов за запрос". Скоро появится у корпоративных клиентов.
• Компании получат доступ к SWE-1-lite и SWE-1-mini с первого дня, а вот SWE-1 будет доступна позже с возможностью отдельного подключения.
Что дальше? 🔮
Компания утверждает, что доказала возможность обучения моделей уровня SWE небольшой командой с ограниченными вычислительными ресурсами. Теперь они планируют масштабироваться. Обещают, что SWE-1 будет поддерживать больше рабочих процессов, быстро улучшаться и со временем станет дешевле в использовании.
Что ж, посмотрим, насколько эти обещания соответствуют реальности. И изменится ли что-то когда сделка с Openai состоится.
#ИИдляРазработчиков #windsurf #SWE1 #НовыеМодели #ИскусственныйИнтеллект #update
Компания Windsurf объявила о запуске своего первого семейства моделей собственной разработки — SWE-1. Как они утверждают, это не просто очередное обновление, а "начало чего-то большего".
Что за зверь этот SWE-1?
В семейство входят три модели, каждая оптимизирована для разных аспектов рабочего процесса:
• SWE-1 — флагманская модель с "высоким уровнем рассуждений", поддержкой инструментов и оптимизацией для Cascade. Обещают производительность уровня Claude 3.5, но "за долю стоимости". Интересно, какую именно долю? 💸
Что классно - сейчас модель доступна ограниченное время забесплатно! (см. скриншот)
• SWE-1-lite — замена для Cascade Base. Быстрее, лучше и, что самое главное, бесплатна для всех пользователей.
• SWE-1-mini — модель для пассивных предложений в Windsurf Tab, оптимизированная для работы в реальном времени.
Почему именно SWE?
Потому что, как нам объясняют, разработка программного обеспечения — это не только кодинг. Современные рабочие процессы охватывают терминалы, редакторы, браузеры, документацию и обратную связь с пользователями. SWE-1 якобы создана для работы со всем этим комплексом задач — от неполных идей до работающих систем. Амбициозно, ничего не скажешь. 🧩
Доступ и цены 💰
Вот что предлагается:
• SWE-1-lite теперь стандартная бесплатная модель в Cascade — доступна всем без ограничений использования.
• SWE-1 доступна только платным пользователям, но пока работает за "0 кредитов за запрос". Скоро появится у корпоративных клиентов.
• Компании получат доступ к SWE-1-lite и SWE-1-mini с первого дня, а вот SWE-1 будет доступна позже с возможностью отдельного подключения.
Что дальше? 🔮
Компания утверждает, что доказала возможность обучения моделей уровня SWE небольшой командой с ограниченными вычислительными ресурсами. Теперь они планируют масштабироваться. Обещают, что SWE-1 будет поддерживать больше рабочих процессов, быстро улучшаться и со временем станет дешевле в использовании.
Что ж, посмотрим, насколько эти обещания соответствуют реальности. И изменится ли что-то когда сделка с Openai состоится.
#ИИдляРазработчиков #windsurf #SWE1 #НовыеМодели #ИскусственныйИнтеллект #update
👍2🔥2❤1
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
•
•
•
Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
Панель управления OpenMemory будет доступна по адресу:
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
add_memories
: Сохранение новых объектов памяти •
search_memory
: Поиск релевантных воспоминаний •
list_memories
: Просмотр всей сохранённой памяти •
delete_all_memories
: Полная очистка памятиЛюбой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory
# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env
# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build
# Запускаем все сервисы
make up
# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
whoami
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>
Панель управления OpenMemory будет доступна по адресу:
http://localhost:3000
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
❤2👍1🔥1
Dart: Альтернатива Taskmaster с графическим интерфейсом и AI-функциями
Привет, друзья! 👋 Сегодня хочу рассказать о менеджере задач Dart, который может стать неплохой заменой командно-строчному Taskmaster.
Если такие ограничения Taskmaster как отсутствие графического интерфейса и невозможность работы в команде для вас актуальны, то Dart может вас заинтересовать. Это AI-инструмент для управления проектами, который позволяет:
• Создавать и управлять задачами через графический интерфейс
• Назначать задачи членам команды или... AI-агенту 🤖 (он называется Dart-AI, см. скриншот)
• Интегрироваться с Cline, Roo, Cursor и другими AI-инструментами через MCP-сервер
Структура и возможности
В Dart вы работаете с:
1️⃣ Spaces (пространства) — для разных проектов
2️⃣ Dashboards (доски) — для управления задачами внутри проекта
3️⃣ Tasks (задачи) — которые можно разбивать на подзадачи
Что действительно выделяет Dart — это новый AI-чат. По сути, это как Cursor Composer, но для задач. Вы просто пишете, что хотите, а AI выполняет:
• "Создай 10 задач для разработки календаря на Next.js" ✅
• "Расставь приоритеты для этих задач" ✅
• "Назначь эти задачи Ивану, а эти — Марии" ✅
Интеграция с AI-кодерами
Благодаря MCP-серверу, Dart легко интегрируется с Cline, Roo, Cursor и другими инструментами. Настройка занимает буквально пару минут — копируете конфиг, вставляете токен, и готово.
Рабочий процесс выглядит примерно так:
1️⃣ Попросите AI собрать задачи из Dart (их можно ранжировать по приоритетам)
2️⃣ Создайте файл задач с зависимостями
3️⃣ Начните работу над задачами
4️⃣ Отмечайте выполненные задачи в Dart
Цены и доступность
Dart предлагает:
• Бесплатный план с большинством функций (но такая фича как AI Chat - только в платной подписке)
• $10/месяц за расширенные возможности (если брать сразу годовую подписку, то $8, я пока тестирую помесячную оплату)
• $15/месяц для команд (если брать годовую подписку, то $12)
Честно говоря, по сравнению с конкурентами, цены весьма демократичные, хотя, как всегда, маркетологи уверяют, что их инструмент "революционный" и "незаменимый". 😏
Если вы ищете более интерактивный и командный подход к управлению задачами с AI-помощником, Dart может оказаться неплохим вариантом.
Источники:
• Официальная документация по ссылке
• Youtube видео по ссылке
#taskmanagement #ai #darttool #devtools #projectmanagement
Привет, друзья! 👋 Сегодня хочу рассказать о менеджере задач Dart, который может стать неплохой заменой командно-строчному Taskmaster.
Если такие ограничения Taskmaster как отсутствие графического интерфейса и невозможность работы в команде для вас актуальны, то Dart может вас заинтересовать. Это AI-инструмент для управления проектами, который позволяет:
• Создавать и управлять задачами через графический интерфейс
• Назначать задачи членам команды или... AI-агенту 🤖 (он называется Dart-AI, см. скриншот)
• Интегрироваться с Cline, Roo, Cursor и другими AI-инструментами через MCP-сервер
Структура и возможности
В Dart вы работаете с:
1️⃣ Spaces (пространства) — для разных проектов
2️⃣ Dashboards (доски) — для управления задачами внутри проекта
3️⃣ Tasks (задачи) — которые можно разбивать на подзадачи
Что действительно выделяет Dart — это новый AI-чат. По сути, это как Cursor Composer, но для задач. Вы просто пишете, что хотите, а AI выполняет:
• "Создай 10 задач для разработки календаря на Next.js" ✅
• "Расставь приоритеты для этих задач" ✅
• "Назначь эти задачи Ивану, а эти — Марии" ✅
Интеграция с AI-кодерами
Благодаря MCP-серверу, Dart легко интегрируется с Cline, Roo, Cursor и другими инструментами. Настройка занимает буквально пару минут — копируете конфиг, вставляете токен, и готово.
Рабочий процесс выглядит примерно так:
1️⃣ Попросите AI собрать задачи из Dart (их можно ранжировать по приоритетам)
2️⃣ Создайте файл задач с зависимостями
3️⃣ Начните работу над задачами
4️⃣ Отмечайте выполненные задачи в Dart
Цены и доступность
Dart предлагает:
• Бесплатный план с большинством функций (но такая фича как AI Chat - только в платной подписке)
• $10/месяц за расширенные возможности (если брать сразу годовую подписку, то $8, я пока тестирую помесячную оплату)
• $15/месяц для команд (если брать годовую подписку, то $12)
Честно говоря, по сравнению с конкурентами, цены весьма демократичные, хотя, как всегда, маркетологи уверяют, что их инструмент "революционный" и "незаменимый". 😏
Если вы ищете более интерактивный и командный подход к управлению задачами с AI-помощником, Dart может оказаться неплохим вариантом.
Источники:
• Официальная документация по ссылке
• Youtube видео по ссылке
#taskmanagement #ai #darttool #devtools #projectmanagement
👍3🔥2❤1
Anthropic тестирует Claude с функцией самоисправления ошибок 🤖
Похоже, что Anthropic готовится выпустить обновленные версии своих моделей Claude Opus и Sonnet в ближайшие недели. По данным The Information, новые модели смогут работать гораздо более автономно, чем их предшественники. Звучит многообещающе, хотя мы уже не раз слышали подобные заявления от AI-компаний. 🙄
Что нового планируется в моделях? 🧠
Главное отличие — способность моделей переключаться между самостоятельным мышлением и использованием внешних инструментов. Если модель сталкивается с проблемой при использовании инструмента, она переходит в режим "размышления", анализирует ситуацию и исправляет ошибку.
Вот несколько примеров возможностей:
• При анализе рынка для кафе в Москве/Нью-Йорке модель начинает с изучения национальных трендов, но быстро понимает их бесполезность и переключается на демографические данные конкретного района (Хамовники/Гринвич Виллидж)
• В задачах программирования модель автоматически тестирует сгенерированный код и, если что-то идет не так, останавливается, чтобы найти и исправить ошибку.
• Даже с расплывчатыми запросами вроде "сделай приложение быстрее" модель самостоятельно пробует различные стратегии оптимизации
Меньше подсказок, больше инициативы 💡
Подход Anthropic соответствует общей тенденции в индустрии: создание AI-систем, способных работать с минимальными вводными и самостоятельно решать проблемы. Обновленные модели Claude призваны сочетать рассуждения и использование инструментов, переключаясь между этими режимами по мере необходимости.
OpenAI идет по тому же пути со своими моделями o3 и o4-mini. Хотя, как отмечают тестировщики, o3 все еще делает ошибки в сложных задачах чаще, чем предыдущие модели OpenAI. Что ж, идеальных AI пока не существует 😏
Остается надеяться, что Anthropic не только улучшит способность моделей к самоисправлению, но и увеличит контекстное окно до миллиона токенов (а может быть и двух 😏), а также обновит базу знаний до 2025 года. Иначе Gemini 2.5 Pro останется более привлекательным вариантом для большинства пользователей, несмотря на все новые "фишки".
#ИскусственныйИнтеллект #Claude #Anthropic #AIновости #МашинноеОбучение
Похоже, что Anthropic готовится выпустить обновленные версии своих моделей Claude Opus и Sonnet в ближайшие недели. По данным The Information, новые модели смогут работать гораздо более автономно, чем их предшественники. Звучит многообещающе, хотя мы уже не раз слышали подобные заявления от AI-компаний. 🙄
Что нового планируется в моделях? 🧠
Главное отличие — способность моделей переключаться между самостоятельным мышлением и использованием внешних инструментов. Если модель сталкивается с проблемой при использовании инструмента, она переходит в режим "размышления", анализирует ситуацию и исправляет ошибку.
Вот несколько примеров возможностей:
• При анализе рынка для кафе в Москве/Нью-Йорке модель начинает с изучения национальных трендов, но быстро понимает их бесполезность и переключается на демографические данные конкретного района (Хамовники/Гринвич Виллидж)
• В задачах программирования модель автоматически тестирует сгенерированный код и, если что-то идет не так, останавливается, чтобы найти и исправить ошибку.
• Даже с расплывчатыми запросами вроде "сделай приложение быстрее" модель самостоятельно пробует различные стратегии оптимизации
Меньше подсказок, больше инициативы 💡
Подход Anthropic соответствует общей тенденции в индустрии: создание AI-систем, способных работать с минимальными вводными и самостоятельно решать проблемы. Обновленные модели Claude призваны сочетать рассуждения и использование инструментов, переключаясь между этими режимами по мере необходимости.
OpenAI идет по тому же пути со своими моделями o3 и o4-mini. Хотя, как отмечают тестировщики, o3 все еще делает ошибки в сложных задачах чаще, чем предыдущие модели OpenAI. Что ж, идеальных AI пока не существует 😏
Остается надеяться, что Anthropic не только улучшит способность моделей к самоисправлению, но и увеличит контекстное окно до миллиона токенов (а может быть и двух 😏), а также обновит базу знаний до 2025 года. Иначе Gemini 2.5 Pro останется более привлекательным вариантом для большинства пользователей, несмотря на все новые "фишки".
#ИскусственныйИнтеллект #Claude #Anthropic #AIновости #МашинноеОбучение
The Information
Anthropic’s Upcoming Models Will Think… And Think Some More
The race to develop reasoning models that “think” harder is at full force. At Anthropic, which arrived later than OpenAI and Google to the reasoning race, two upcoming models are taking the concept of “thinking” to the extreme.Anthropic has new versions of…
❤2👍2
Codex от OpenAI: новый инструмент для разработчиков
OpenAI представила новый инструмент под названием Codex – облачный агент для разработки ПО, способный работать с несколькими задачами параллельно. 🤖
Codex работает на базе модели codex-1 (оригинальное название, ничего не скажешь 🙃), которая является оптимизированной версией OpenAI o3, настроенной специально для программирования. Инструмент уже доступен пользователям ChatGPT Pro, Team и Enterprise, а обладателям Plus-подписки придется немного подождать.
Как это работает? 🛠
Codex функционирует в облаке, а не на вашем компьютере, что позволяет:
• Запускать несколько задач одновременно
• Работать с вашими репозиториями GitHub
• Писать новые функции, исправлять баги и предлагать pull-запросы
• Отвечать на вопросы о вашей кодовой базе
Каждая задача выполняется в изолированной среде, предварительно загруженной с вашим репозиторием. Codex может читать и редактировать файлы, запускать команды, включая тесты, линтеры и проверки типов.
Что умеет Codex? 💻
1️⃣ Выполнять рутинные задачи: рефакторинг, переименование, написание тестов
2️⃣ Создавать новые функции и компоненты
3️⃣ Исправлять ошибки в коде
4️⃣ Составлять документацию
5️⃣ Анализировать кодовую базу и предлагать улучшения
Интересная особенность – Codex можно "обучать" с помощью файлов AGENTS.md, размещенных в репозитории. В этих файлах вы можете указать, как навигировать по кодовой базе, какие команды запускать для тестирования и как придерживаться стандартных практик проекта.
Безопасность и ограничения ⚠️
OpenAI утверждает, что уделила особое внимание безопасности и прозрачности. Codex работает в защищенном контейнере в облаке, без доступа к интернету. Он может взаимодействовать только с кодом, явно предоставленным через репозитории GitHub и предустановленные зависимости.
Однако стоит помнить, что это всё ещё "исследовательский превью", и у инструмента есть ограничения:
• Отсутствие поддержки изображений для фронтенд-разработки
• Невозможность корректировать работу агента в процессе выполнения
• Делегирование удаленному агенту занимает больше времени, чем интерактивное редактирование
• Codex пока доступен только в ChatGPT Pro тарифе, ждем его появления в более демократичных Plus и Edu редакциях 😏
Что дальше? 🔮
OpenAI планирует развивать Codex, добавляя новые функции:
• Более интерактивные и гибкие рабочие процессы
• Возможность предоставлять указания во время выполнения задачи
• Интеграция с другими инструментами: GitHub, Codex CLI, ChatGPT Desktop и даже системами отслеживания проблем
Также компания выпустила облегченную версию codex-1 для использования в Codex CLI – локальном агенте, который работает в вашем терминале.
Звучит впечатляюще, но насколько это изменит реальную работу программистов – покажет только время. Возможно, мы наблюдаем начало новой эры в разработке ПО, а может быть, это просто очередной инструмент, который будет полезен в определенных сценариях, но не произведет революцию.
А как вы думаете?
P.S. Немного иронично:
• производители LLM-моделей (openai) идут в AI-кодинг, а создатели AI-кодеров идут в производство моделей
• при этом производитель LLM-модели (openai) собирается купить такого "первопроходца" из AI-кодеров (windsurf),
кажется, что openai хотят иметь в своем портфеле все: и "онпрем" и "облачное" решение по AI-кодингу для своих заказчиков 🤔
#ИскусственныйИнтеллект #Разработка #openai #codex #БудущееПрограммирования
OpenAI представила новый инструмент под названием Codex – облачный агент для разработки ПО, способный работать с несколькими задачами параллельно. 🤖
Codex работает на базе модели codex-1 (оригинальное название, ничего не скажешь 🙃), которая является оптимизированной версией OpenAI o3, настроенной специально для программирования. Инструмент уже доступен пользователям ChatGPT Pro, Team и Enterprise, а обладателям Plus-подписки придется немного подождать.
Как это работает? 🛠
Codex функционирует в облаке, а не на вашем компьютере, что позволяет:
• Запускать несколько задач одновременно
• Работать с вашими репозиториями GitHub
• Писать новые функции, исправлять баги и предлагать pull-запросы
• Отвечать на вопросы о вашей кодовой базе
Каждая задача выполняется в изолированной среде, предварительно загруженной с вашим репозиторием. Codex может читать и редактировать файлы, запускать команды, включая тесты, линтеры и проверки типов.
Что умеет Codex? 💻
1️⃣ Выполнять рутинные задачи: рефакторинг, переименование, написание тестов
2️⃣ Создавать новые функции и компоненты
3️⃣ Исправлять ошибки в коде
4️⃣ Составлять документацию
5️⃣ Анализировать кодовую базу и предлагать улучшения
Интересная особенность – Codex можно "обучать" с помощью файлов AGENTS.md, размещенных в репозитории. В этих файлах вы можете указать, как навигировать по кодовой базе, какие команды запускать для тестирования и как придерживаться стандартных практик проекта.
Безопасность и ограничения ⚠️
OpenAI утверждает, что уделила особое внимание безопасности и прозрачности. Codex работает в защищенном контейнере в облаке, без доступа к интернету. Он может взаимодействовать только с кодом, явно предоставленным через репозитории GitHub и предустановленные зависимости.
Однако стоит помнить, что это всё ещё "исследовательский превью", и у инструмента есть ограничения:
• Отсутствие поддержки изображений для фронтенд-разработки
• Невозможность корректировать работу агента в процессе выполнения
• Делегирование удаленному агенту занимает больше времени, чем интерактивное редактирование
• Codex пока доступен только в ChatGPT Pro тарифе, ждем его появления в более демократичных Plus и Edu редакциях 😏
Что дальше? 🔮
OpenAI планирует развивать Codex, добавляя новые функции:
• Более интерактивные и гибкие рабочие процессы
• Возможность предоставлять указания во время выполнения задачи
• Интеграция с другими инструментами: GitHub, Codex CLI, ChatGPT Desktop и даже системами отслеживания проблем
Также компания выпустила облегченную версию codex-1 для использования в Codex CLI – локальном агенте, который работает в вашем терминале.
Звучит впечатляюще, но насколько это изменит реальную работу программистов – покажет только время. Возможно, мы наблюдаем начало новой эры в разработке ПО, а может быть, это просто очередной инструмент, который будет полезен в определенных сценариях, но не произведет революцию.
А как вы думаете?
P.S. Немного иронично:
• производители LLM-моделей (openai) идут в AI-кодинг, а создатели AI-кодеров идут в производство моделей
• при этом производитель LLM-модели (openai) собирается купить такого "первопроходца" из AI-кодеров (windsurf),
кажется, что openai хотят иметь в своем портфеле все: и "онпрем" и "облачное" решение по AI-кодингу для своих заказчиков 🤔
#ИскусственныйИнтеллект #Разработка #openai #codex #БудущееПрограммирования
RPGGO: Бесплатный генератор 2D игр на базе ИИ 🎮
Недавно писал про классный ИИ-разработчик 3D-игр
И вот наткнулся еще на одну интересную штуку - RPGGO выпустил генератор 2D игр, который работает полностью на ИИ. Да-да, еще один "революционный" инструмент в нашем перенасыщенном технологиями мире. Но, надо признать, выглядит действительно любопытно. 🤔
Что умеет этот генератор:
• Создает полноценные 2D игры по текстовому описанию
• Генерирует автономных NPC, которые взаимодействуют друг с другом и с игроком
• Позволяет настраивать внешний вид локаций и персонажей
• Работает без навыков программирования
Как это работает:
1️⃣ Заходите на сайт RPGGO и выбираете "Create a new game"
2️⃣ Описываете идею игры (например, "игра про вампиров")
3️⃣ Нажимаете кнопку "Launch 2D" для перехода в режим 2D игры
4️⃣ Настраиваете дизайн локации (город, деревня, пустыня и т.д.)
5️⃣ Создаете главного персонажа и генерируете для него спрайт
6️⃣ Добавляете здания и NPC на карту
После этого игра "оживает" - персонажи начинают автономно действовать, а вы можете взаимодействовать с ними через чат-интерфейс. Система показывает даже "мысли" NPC.
Графика, мягко говоря, не AAA-уровня, но для быстрого прототипирования или развлечения вполне сойдет.
Что можно сделать:
• Расширять карту по своему усмотрению
• Добавлять новых персонажей для более интересных диалогов
• Настраивать внешний вид зданий через текстовые промпты
• Делиться созданными играми с другими пользователями
В целом, если у вас есть пара свободных часов и желание поиграть в "разработчика игр", можно попробовать. Хотя бы ради того, чтобы посмотреть, как ИИ будет пытаться создать осмысленный геймплей из вашего хаотичного описания вампирской саги. 🧛♂️
#ИИигры #GameDev #RPGGO #ГенерацияИгр #ИИтехнологии #games
Недавно писал про классный ИИ-разработчик 3D-игр
И вот наткнулся еще на одну интересную штуку - RPGGO выпустил генератор 2D игр, который работает полностью на ИИ. Да-да, еще один "революционный" инструмент в нашем перенасыщенном технологиями мире. Но, надо признать, выглядит действительно любопытно. 🤔
Что умеет этот генератор:
• Создает полноценные 2D игры по текстовому описанию
• Генерирует автономных NPC, которые взаимодействуют друг с другом и с игроком
• Позволяет настраивать внешний вид локаций и персонажей
• Работает без навыков программирования
Как это работает:
1️⃣ Заходите на сайт RPGGO и выбираете "Create a new game"
2️⃣ Описываете идею игры (например, "игра про вампиров")
3️⃣ Нажимаете кнопку "Launch 2D" для перехода в режим 2D игры
4️⃣ Настраиваете дизайн локации (город, деревня, пустыня и т.д.)
5️⃣ Создаете главного персонажа и генерируете для него спрайт
6️⃣ Добавляете здания и NPC на карту
После этого игра "оживает" - персонажи начинают автономно действовать, а вы можете взаимодействовать с ними через чат-интерфейс. Система показывает даже "мысли" NPC.
Графика, мягко говоря, не AAA-уровня, но для быстрого прототипирования или развлечения вполне сойдет.
Что можно сделать:
• Расширять карту по своему усмотрению
• Добавлять новых персонажей для более интересных диалогов
• Настраивать внешний вид зданий через текстовые промпты
• Делиться созданными играми с другими пользователями
В целом, если у вас есть пара свободных часов и желание поиграть в "разработчика игр", можно попробовать. Хотя бы ради того, чтобы посмотреть, как ИИ будет пытаться создать осмысленный геймплей из вашего хаотичного описания вампирской саги. 🧛♂️
#ИИигры #GameDev #RPGGO #ГенерацияИгр #ИИтехнологии #games
👍3❤🔥2
Replit: Безопасное "вайб-кодирование" теперь доступно всем
Команда Replit представила новые функции, делающие написание софта с помощью ИИ не только доступным, но и безопасным. 🚀
Что нового они представили? 🛡
1️⃣ Replit Auth по умолчанию
• Встроенная система аутентификации теперь включена автоматически
• Использует Firebase, reCAPTCHA и другие инструменты защиты
• Больше не нужно интегрировать сторонние сервисы или писать свою систему
2️⃣ Улучшенная история приложений
• Новый интерфейс для просмотра всех версий вашего приложения
• Возможность откатиться к любой предыдущей версии
• Предварительный просмотр старых версий перед откатом
• Возможность вернуть даже состояние базы данных
3️⃣ Сканирование безопасности
• Автоматический поиск уязвимостей в коде перед деплоем
• Интеграция с Semgrep для глубокого анализа (подробности здесь)
• Возможность автоматического исправления найденных проблем
4️⃣ Защита от случайных ошибок
• ИИ теперь физически не может удалить важные файлы проекта
• Автоматическое обнаружение API-ключей в промптах
• Перенаправление секретных данных в безопасное хранилище
Для корпоративных пользователей 🏢
Для тех, кто использует Replit в компаниях, добавили:
• Защищенные URL для разработки
• Роль "зрителя" для сотрудников (50 мест бесплатно)
• Поддержка SCIM для управления доступом
• Расширенные настройки приватности для администраторов
В ближайшие недели обещают разделение баз данных на dev/prod, чтобы разработка не влияла на рабочую версию приложения - очень круто, когда я делал витрину для AI-проектов, меня удивило, что базы общие.
Эти обновления значительно повышают уровень безопасности и удобства при создании приложений с помощью ИИ на платформе Replit.
#replit #dev #ai #security #vibecoding
Команда Replit представила новые функции, делающие написание софта с помощью ИИ не только доступным, но и безопасным. 🚀
Что нового они представили? 🛡
1️⃣ Replit Auth по умолчанию
• Встроенная система аутентификации теперь включена автоматически
• Использует Firebase, reCAPTCHA и другие инструменты защиты
• Больше не нужно интегрировать сторонние сервисы или писать свою систему
2️⃣ Улучшенная история приложений
• Новый интерфейс для просмотра всех версий вашего приложения
• Возможность откатиться к любой предыдущей версии
• Предварительный просмотр старых версий перед откатом
• Возможность вернуть даже состояние базы данных
3️⃣ Сканирование безопасности
• Автоматический поиск уязвимостей в коде перед деплоем
• Интеграция с Semgrep для глубокого анализа (подробности здесь)
• Возможность автоматического исправления найденных проблем
4️⃣ Защита от случайных ошибок
• ИИ теперь физически не может удалить важные файлы проекта
• Автоматическое обнаружение API-ключей в промптах
• Перенаправление секретных данных в безопасное хранилище
Для корпоративных пользователей 🏢
Для тех, кто использует Replit в компаниях, добавили:
• Защищенные URL для разработки
• Роль "зрителя" для сотрудников (50 мест бесплатно)
• Поддержка SCIM для управления доступом
• Расширенные настройки приватности для администраторов
В ближайшие недели обещают разделение баз данных на dev/prod, чтобы разработка не влияла на рабочую версию приложения - очень круто, когда я делал витрину для AI-проектов, меня удивило, что базы общие.
Эти обновления значительно повышают уровень безопасности и удобства при создании приложений с помощью ИИ на платформе Replit.
#replit #dev #ai #security #vibecoding
Replit Blog
Replit — Replit: The Safest Place for Vibe Coding
We’re beefing up security. We’re launching the world’s best vibe coding history feature. And for those of you bringing Replit to work, we’re improving our Enterprise readiness.
Vibe coding makes software creation accessible to everyone, entirely through…
Vibe coding makes software creation accessible to everyone, entirely through…
❤🔥3👍3
Инструменты для превращения сложного кода в понятную документацию
Пишу в продолжении вот этого поста.
Каждый разработчик сталкивался с этим: открываешь новый репозиторий, видишь сотни файлов кода и... теряешься. Куда смотреть? С чего начать? Как это всё работает вместе? К счастью, появляются инструменты, которые помогают превратить запутанный код в понятную и даже увлекательную документацию.
Почему это важно?
Исследования показывают, что разработчики тратят до 60% своего времени на чтение и понимание кода, а не на его написание. Кажется, что качественная документация могла бы повысить продуктивность их работы более чем в 2 раза.
Современные инструменты для понимания кодовой базы
1. PocketFlow + AI: Создание интерактивных туториалов
PocketFlow — это минималистичный фреймворк (всего 100 строк кода!), который в сочетании с современными LLM позволяет создавать системы для автоматического анализа кодовых баз.
Как это работает:
• Система скачивает код из репозитория
• Идентифицирует ключевые абстракции и концепции
• Анализирует связи между компонентами
• Определяет логическую последовательность для обучения
• Создаёт подробные главы с объяснениями и примерами
• Компилирует всё в единый туториал с визуализациями
Результат — полноценный учебник, который начинается с общей картины и постепенно погружается в детали.
2. DeepWiki: Документация, с которой можно общаться
DeepWiki превращает любой GitHub-репозиторий в интерактивную документацию, с которой можно вести диалог. Вместо чтения сотен страниц вы просто задаёте вопросы на естественном языке.
Преимущества:
• Мгновенные ответы на конкретные вопросы
• Понимание контекста всего репозитория
• Возможность уточнять и углублять вопросы
3. TalkToGitHub: Чат с репозиторием
TalkToGitHub — ещё один инструмент, позволяющий вести диалог с кодовой базой. Достаточно добавить префикс "talkto" к URL любого публичного репозитория GitHub, и вы сможете задавать вопросы о коде.
4. Cursor AI или любой аналог из сравнения здесь.
Cursor — это редактор кода с встроенным ИИ, который помогает разобраться в существующем коде прямо в процессе работы. Он может объяснять функции, классы и даже целые модули. Можно также воспользоваться Memory Bank
Создание собственного инструмента для анализа кода
Проект AI Codebase Knowledge Builder позволяет создать систему для анализа кодовых баз. Используя подход "агентного кодирования" (agentic coding), разработчик проектирует архитектуру, а ИИ реализует детали.
Ключевые компоненты:
•
•
•
•
•
•
Практические примеры
Эти инструменты уже успешно применяются для создания документации к сложным проектам:
• AutoGen Core: Фреймворк для создания команд ИИ-агентов
• MCP Python SDK: Python SDK для MCP- протокола (коммуникация между ИИ-агентами и их инструментами)
• Browser-use: Библиотека для автоматизации браузера с помощью ИИ
• полный список примеров здесь
Что выбрать для своего проекта?
• Для быстрых вопросов: TalkToGitHub или DeepWiki
• Для глубокого анализа: PocketFlow + AI Codebase Knowledge Builder
• Для работы с кодом в реальном времени: Cursor AI или аналогичный инструмент из обзора
Заключение
Эра непонятного кода и устаревшей документации подходит к концу. Современные инструменты на базе ИИ позволяют превратить любую кодовую базу в понятное и структурированное руководство. Это не только экономит время разработчиков, но и делает процесс изучения кода более увлекательным и продуктивным.
Попробуйте эти инструменты в своём следующем проекте — и вы удивитесь, насколько проще станет понимание даже самого сложного кода! Поделитесь, пожалуйста, своим опытом в комментариях, думаю, что всем будет интересно!
#dev #docs #ai #кодинг #pocketflow #deepwiki
Пишу в продолжении вот этого поста.
Каждый разработчик сталкивался с этим: открываешь новый репозиторий, видишь сотни файлов кода и... теряешься. Куда смотреть? С чего начать? Как это всё работает вместе? К счастью, появляются инструменты, которые помогают превратить запутанный код в понятную и даже увлекательную документацию.
Почему это важно?
Исследования показывают, что разработчики тратят до 60% своего времени на чтение и понимание кода, а не на его написание. Кажется, что качественная документация могла бы повысить продуктивность их работы более чем в 2 раза.
Современные инструменты для понимания кодовой базы
1. PocketFlow + AI: Создание интерактивных туториалов
PocketFlow — это минималистичный фреймворк (всего 100 строк кода!), который в сочетании с современными LLM позволяет создавать системы для автоматического анализа кодовых баз.
Как это работает:
• Система скачивает код из репозитория
• Идентифицирует ключевые абстракции и концепции
• Анализирует связи между компонентами
• Определяет логическую последовательность для обучения
• Создаёт подробные главы с объяснениями и примерами
• Компилирует всё в единый туториал с визуализациями
Результат — полноценный учебник, который начинается с общей картины и постепенно погружается в детали.
2. DeepWiki: Документация, с которой можно общаться
DeepWiki превращает любой GitHub-репозиторий в интерактивную документацию, с которой можно вести диалог. Вместо чтения сотен страниц вы просто задаёте вопросы на естественном языке.
Преимущества:
• Мгновенные ответы на конкретные вопросы
• Понимание контекста всего репозитория
• Возможность уточнять и углублять вопросы
3. TalkToGitHub: Чат с репозиторием
TalkToGitHub — ещё один инструмент, позволяющий вести диалог с кодовой базой. Достаточно добавить префикс "talkto" к URL любого публичного репозитория GitHub, и вы сможете задавать вопросы о коде.
4. Cursor AI или любой аналог из сравнения здесь.
Cursor — это редактор кода с встроенным ИИ, который помогает разобраться в существующем коде прямо в процессе работы. Он может объяснять функции, классы и даже целые модули. Можно также воспользоваться Memory Bank
Создание собственного инструмента для анализа кода
Проект AI Codebase Knowledge Builder позволяет создать систему для анализа кодовых баз. Используя подход "агентного кодирования" (agentic coding), разработчик проектирует архитектуру, а ИИ реализует детали.
Ключевые компоненты:
•
FetchRepo
: Скачивает и фильтрует файлы из репозитория •
IdentifyAbstractions
: Находит ключевые концепции в коде •
AnalyzeRelationships
: Определяет связи между компонентами •
OrderChapters
: Создаёт логическую последовательность обучения •
WriteChapters
: Пишет подробные объяснения для каждой концепции •
CombineTutorial
: Собирает всё в единый документ с визуализациямиПрактические примеры
Эти инструменты уже успешно применяются для создания документации к сложным проектам:
• AutoGen Core: Фреймворк для создания команд ИИ-агентов
• MCP Python SDK: Python SDK для MCP- протокола (коммуникация между ИИ-агентами и их инструментами)
• Browser-use: Библиотека для автоматизации браузера с помощью ИИ
• полный список примеров здесь
Что выбрать для своего проекта?
• Для быстрых вопросов: TalkToGitHub или DeepWiki
• Для глубокого анализа: PocketFlow + AI Codebase Knowledge Builder
• Для работы с кодом в реальном времени: Cursor AI или аналогичный инструмент из обзора
Заключение
Эра непонятного кода и устаревшей документации подходит к концу. Современные инструменты на базе ИИ позволяют превратить любую кодовую базу в понятное и структурированное руководство. Это не только экономит время разработчиков, но и делает процесс изучения кода более увлекательным и продуктивным.
Попробуйте эти инструменты в своём следующем проекте — и вы удивитесь, насколько проще станет понимание даже самого сложного кода! Поделитесь, пожалуйста, своим опытом в комментариях, думаю, что всем будет интересно!
#dev #docs #ai #кодинг #pocketflow #deepwiki
🔥4👍2❤🔥1❤1
Как GPT может строить рабочие процессы в N8N без лишних туториалов 🤖
В качестве продолжения и дополнения к более раннему посту .
Если вы используете N8N для автоматизации бизнес-процессов или создаете решения для клиентов, возможно, стоит обратить внимание на специализированного бота в ChatGPT. Он способен значительно упростить вашу работу. 🧠
Что это такое и как найти
Речь идет о боте "N8N Assistant", который можно найти в разделе GPTs:
1️⃣ Откройте ChatGPT
2️⃣ Нажмите "Explore GPTs" в боковой панели
3️⃣ Введите "N8N" в поиске
4️⃣ Выберите "N8N Assistant" из результатов (самый верхний в представленном списке - см. скриншот)
Или по прямой ссылке
Бот обучен на документации N8N и понимает структуру узлов, типы автоматизаций и особенности масштабирования. Звучит многообещающе, хотя, как обычно с ИИ-инструментами, результаты могут варьироваться. 😏
Полезные способы применения
Есть несколько сценариев использования бота:
📋 Проверка существующих рабочих процессов
• Загрузите JSON-файл вашего рабочего процесса (через три точки →
• Спросите бота:
• Получите анализ потенциальных проблем и рекомендации по оптимизации
💻 Создание JavaScript-выражений
• Просто опишите, что должно делать выражение
• Бот сгенерирует готовый код для вставки в N8N
🔧 Исправление ошибок
• Отправьте боту скриншот ошибки
• Получите рекомендации по исправлению
✍️ Улучшение AI-промптов для N8N
• Поделитесь своим текущим промптом
• Бот предложит улучшенную версию
🆕 Создание рабочих процессов с нуля
• Опишите, что должен делать рабочий процесс
• Бот создаст JSON-файл, который можно импортировать в N8N
Если сравнивать данный инструмент с https://n8nchat.com (подробнее про него писал тут), то данный инструмент хоть и не имеет встроенной браузерной интеграции с n8n, все же может сэкономить время на разработке и отладке автоматизаций. 🕒
#n8n #automation #chatgpt #workflow #productivity
В качестве продолжения и дополнения к более раннему посту .
Если вы используете N8N для автоматизации бизнес-процессов или создаете решения для клиентов, возможно, стоит обратить внимание на специализированного бота в ChatGPT. Он способен значительно упростить вашу работу. 🧠
Что это такое и как найти
Речь идет о боте "N8N Assistant", который можно найти в разделе GPTs:
1️⃣ Откройте ChatGPT
2️⃣ Нажмите "Explore GPTs" в боковой панели
3️⃣ Введите "N8N" в поиске
4️⃣ Выберите "N8N Assistant" из результатов (самый верхний в представленном списке - см. скриншот)
Или по прямой ссылке
Бот обучен на документации N8N и понимает структуру узлов, типы автоматизаций и особенности масштабирования. Звучит многообещающе, хотя, как обычно с ИИ-инструментами, результаты могут варьироваться. 😏
Полезные способы применения
Есть несколько сценариев использования бота:
📋 Проверка существующих рабочих процессов
• Загрузите JSON-файл вашего рабочего процесса (через три точки →
Download
в интерфейсе N8N) • Спросите бота:
Do you see any potential problems with this workflow? If I want to run any records at scale, any suggestions for improvements
• Получите анализ потенциальных проблем и рекомендации по оптимизации
💻 Создание JavaScript-выражений
• Просто опишите, что должно делать выражение
• Бот сгенерирует готовый код для вставки в N8N
🔧 Исправление ошибок
• Отправьте боту скриншот ошибки
• Получите рекомендации по исправлению
✍️ Улучшение AI-промптов для N8N
• Поделитесь своим текущим промптом
• Бот предложит улучшенную версию
🆕 Создание рабочих процессов с нуля
• Опишите, что должен делать рабочий процесс
• Бот создаст JSON-файл, который можно импортировать в N8N
Если сравнивать данный инструмент с https://n8nchat.com (подробнее про него писал тут), то данный инструмент хоть и не имеет встроенной браузерной интеграции с n8n, все же может сэкономить время на разработке и отладке автоматизаций. 🕒
#n8n #automation #chatgpt #workflow #productivity
👍4❤🔥3🔥1
Microsoft представила концепцию "открытого агентного веба" на Build 2025 🚀
Очень много крутых анонсов от Microsoft.
Microsoft представила свое видение "открытого агентного веба" (open agentic web) на конференции Build 2025, выпустив целый ряд новых инструментов и обновлений с поддержкой искусственного интеллекта.
Ключевые анонсы:
• GitHub Copilot эволюционирует из помощника в редакторе кода в полноценного агента, работающего асинхронно. Также Microsoft сделала открытым исходный код Copilot Chat в VS Code 🔧
• Компания выпустила Magentic-UI — исследовательский прототип с открытым исходным кодом для веб-агентов (построенных на базе агентного фреймворка AutoGen), ориентированный на сотрудничество с пользователем и контроль 🕸 (ссылка на github здесь)
• Microsoft добавляет модели Grok 3 и Grok 3 mini от xAI в Azure AI Foundry, что позволит разработчикам выбирать из более чем 1900 моделей 🧠
• Новый открытый проект NLWeb стремится стать аналогом HTML для агентного веба, упрощая добавление разговорного интерфейса на веб-сайты 💬 (ссылка на github тут)
• Copilot расширяется с новыми возможностями настройки, позволяя организациям обучать модели на корпоративных данных (можно зарегистрироваться на соответствующую сессию завтра), а также оркестрировать взаимодействие нескольких агентов для совместного решения бизнес-задач 📊
Почему это важно
Хотя "год AI-агентов" пока не оправдал всех ожиданий в плане практического применения, индустрия движется в правильном направлении. Заметен также сдвиг в сторону открытого исходного кода, что подтверждается многочисленными релизами от технологического гиганта.
Если вдруг пропустили вот ссылка на Keynote от Satya Nadella (CEO Microsoft)
Для тех, у кого мало времени, или кто не любит youtube, подготовил краткий транскрипт и саммари выступления.
P.S. Будет чем заняться на выходных - продукты классные, будем тестировать.
#ai #microsoft #copilot #agents #opensource
Очень много крутых анонсов от Microsoft.
Microsoft представила свое видение "открытого агентного веба" (open agentic web) на конференции Build 2025, выпустив целый ряд новых инструментов и обновлений с поддержкой искусственного интеллекта.
Ключевые анонсы:
• GitHub Copilot эволюционирует из помощника в редакторе кода в полноценного агента, работающего асинхронно. Также Microsoft сделала открытым исходный код Copilot Chat в VS Code 🔧
• Компания выпустила Magentic-UI — исследовательский прототип с открытым исходным кодом для веб-агентов (построенных на базе агентного фреймворка AutoGen), ориентированный на сотрудничество с пользователем и контроль 🕸 (ссылка на github здесь)
• Microsoft добавляет модели Grok 3 и Grok 3 mini от xAI в Azure AI Foundry, что позволит разработчикам выбирать из более чем 1900 моделей 🧠
• Новый открытый проект NLWeb стремится стать аналогом HTML для агентного веба, упрощая добавление разговорного интерфейса на веб-сайты 💬 (ссылка на github тут)
• Copilot расширяется с новыми возможностями настройки, позволяя организациям обучать модели на корпоративных данных (можно зарегистрироваться на соответствующую сессию завтра), а также оркестрировать взаимодействие нескольких агентов для совместного решения бизнес-задач 📊
Почему это важно
Хотя "год AI-агентов" пока не оправдал всех ожиданий в плане практического применения, индустрия движется в правильном направлении. Заметен также сдвиг в сторону открытого исходного кода, что подтверждается многочисленными релизами от технологического гиганта.
Если вдруг пропустили вот ссылка на Keynote от Satya Nadella (CEO Microsoft)
Для тех, у кого мало времени, или кто не любит youtube, подготовил краткий транскрипт и саммари выступления.
P.S. Будет чем заняться на выходных - продукты классные, будем тестировать.
#ai #microsoft #copilot #agents #opensource
The Official Microsoft Blog
Microsoft Build 2025: The age of AI agents and building the open agentic web
TL;DR? Hear the news as an AI-generated audio overview made using Microsoft 365 Copilot. You can read the transcript here. We’ve entered the era of AI agents. Thanks to groundbreaking advancements in reasoning and memory, AI models are now more capable…
❤🔥2👍2
Open Agent Platform от LangChain: создавайте умных агентов, а не бэкенд 🤖
Привет, друзья! Сегодня хотел обратить ваше внимание на новую платформу от LangChain, которая обещает избавить нас от написания тонны кода для создания AI-агентов.
Я до этого пробовал https://chai.new/ (по сути bolt.new но для агентов, построенный на базе фреймворка https://langbase.com ) и CrewAI Studio - очень удобно, ничего не нужно устанавливать локально, вся мульти-агентная система "собирается" простым текстовым описанием на русском языке. На выходе вы получаете и схему, и работающий код. В случае с CrewAI есть потенциальная возможность превратить созданную мульти-агентную систему в MCP-сервер при помощи automcp. А в случае с langbase для этой цели проще всего использовать https://mcpify.ai/ которому в принципе пофигу какой код или текстовое описание "превращать" в MCP сервер, чуть ранее писал об этом, классный инструмент, но недостаток в том, что кодовую базу MCP сервера вы уже не контроллируете).
Но Langchain решили сделать платформу где агентные и мульти-агентные системы
создаются без написания кода по аналогии как это происходит сейчас во Flowise (только во Flowise, на мой взгляд, все выглядит симпатичнее, но зато у Langchain система работает на базе Langgraph )
Итак Open Agent Platform (OAP) — это веб-интерфейс для создания и управления LangGraph-агентами без необходимости писать код. Идея супер, особенно если вы уже устали от бесконечных строк на Python.
Что умеет эта платформа? 📋
Заявлено следующее:
• Управление агентами: создание, настройка и общение через браузерный интерфейс
• Интеграция с RAG: поддержка retrieval-augmented generation через LangConnect
• Инструменты MCP: подключение к внешним сервисам через HTTP MCP сервер
• Мульти-агентная оркестрация: один агент может управлять другими
• Аутентификация: встроенная поддержка Supabase (можно заменить своим решением, что по-моему и стоит сделать сразу, т.к. если у вас Pro подписка на Supabase, то даже самый мелкий проект будет стоить +$10 в месяц)
Детали архитектуры здесь
По описанию, OAP выглядит как неплохой инструмент для тех, кто хочет быстро прототипировать агентов без глубокого погружения в LangChain API. Но не ждите чудес — это всё ещё молодая технология со своими ограничениями. А первоначальная настройка и запуск могли бы быть и попроще. Если кто еще пробовал установку по инструкции поделитесь своими впечатлениями в комментариях.
Демонстрацию работы можно посмотреть здесь
Транскрипт демки тут.
#ai #langchain #agents #nocode #developer_tools
Привет, друзья! Сегодня хотел обратить ваше внимание на новую платформу от LangChain, которая обещает избавить нас от написания тонны кода для создания AI-агентов.
Я до этого пробовал https://chai.new/ (по сути bolt.new но для агентов, построенный на базе фреймворка https://langbase.com ) и CrewAI Studio - очень удобно, ничего не нужно устанавливать локально, вся мульти-агентная система "собирается" простым текстовым описанием на русском языке. На выходе вы получаете и схему, и работающий код. В случае с CrewAI есть потенциальная возможность превратить созданную мульти-агентную систему в MCP-сервер при помощи automcp. А в случае с langbase для этой цели проще всего использовать https://mcpify.ai/ которому в принципе пофигу какой код или текстовое описание "превращать" в MCP сервер, чуть ранее писал об этом, классный инструмент, но недостаток в том, что кодовую базу MCP сервера вы уже не контроллируете).
Но Langchain решили сделать платформу где агентные и мульти-агентные системы
создаются без написания кода по аналогии как это происходит сейчас во Flowise (
Итак Open Agent Platform (OAP) — это веб-интерфейс для создания и управления LangGraph-агентами без необходимости писать код. Идея супер, особенно если вы уже устали от бесконечных строк на Python.
Что умеет эта платформа? 📋
Заявлено следующее:
• Управление агентами: создание, настройка и общение через браузерный интерфейс
• Интеграция с RAG: поддержка retrieval-augmented generation через LangConnect
• Инструменты MCP: подключение к внешним сервисам через HTTP MCP сервер
• Мульти-агентная оркестрация: один агент может управлять другими
• Аутентификация: встроенная поддержка Supabase (можно заменить своим решением, что по-моему и стоит сделать сразу, т.к. если у вас Pro подписка на Supabase, то даже самый мелкий проект будет стоить +$10 в месяц)
Детали архитектуры здесь
По описанию, OAP выглядит как неплохой инструмент для тех, кто хочет быстро прототипировать агентов без глубокого погружения в LangChain API. Но не ждите чудес — это всё ещё молодая технология со своими ограничениями. А первоначальная настройка и запуск могли бы быть и попроще. Если кто еще пробовал установку по инструкции поделитесь своими впечатлениями в комментариях.
Демонстрацию работы можно посмотреть здесь
Транскрипт демки тут.
#ai #langchain #agents #nocode #developer_tools
❤5👍4