Taskmaster 2.0: Теперь с поддержкой всех популярных AI-моделей 🧠
Помните Taskmaster ? (чуть выше писал о нем) Тот самый менеджер задач для AI-кодинга, который раньше работал только с ограниченным набором моделей? Что ж, похоже, разработчики услышали пользователей и выкатили обновление, которое действительно стоит внимания.
Что нового? 🆕
• Поддержка 6 AI-провайдеров:
• Настройка трёх ролей для моделей:
1) Основная модель (для кодинга)
2) Исследовательская модель (для поиска информации)
3) Запасная модель (на случай, если основная решит "уйти на перекур")
• Официальная поддержка .roo-правил - важно для тех кто использует RooCode и хочет вместо RooCode Orchestrator (бывший Boomerang Tasks - чуть выше писал о нем) использовать TaskMaster
• Улучшенный парсинг документов с требованиями проекта (PRD) — теперь AI лучше понимает, что вы от него хотите.
• Новые CLI-команды для интерактивной настройки моделей — для тех, кто любит общаться с терминалом больше, чем с людьми :)
Как это работает? 🛠
Если вы используете MCP-сервер, то обновление произойдёт автоматически. Для CLI-версии нужно выполнить:
или
После установки запустите:
Система предложит выбрать модели для каждой роли. Можно выбрать
Что это значит для нас? 🤔
Теперь Taskmaster стал практически бесплатным инструментом, если настроить его на использование
Однако, есть и ложка дёгтя — после первой итерации задач Taskmaster всё ещё не очень хорошо анализирует созданные файлы проекта для генерации новых задач. Так что для сложных проектов придётся немного помогать ему вручную.
В целом, обновление действительно полезное. Если вы занимаетесь разработкой с помощью AI, стоит попробовать.
Источник здесь
Полный список новых фич для версии v0.13.0 здесь
#AI #разработка #Taskmaster #инструменты_разработчика
Помните Taskmaster ? (чуть выше писал о нем) Тот самый менеджер задач для AI-кодинга, который раньше работал только с ограниченным набором моделей? Что ж, похоже, разработчики услышали пользователей и выкатили обновление, которое действительно стоит внимания.
Что нового? 🆕
• Поддержка 6 AI-провайдеров:
OpenAI
, Gemini
, XAI
, Open Router
, Anthropic
и Perplexity.
Наконец-то можно не продавать почку ради использования только Claude :)• Настройка трёх ролей для моделей:
1) Основная модель (для кодинга)
2) Исследовательская модель (для поиска информации)
3) Запасная модель (на случай, если основная решит "уйти на перекур")
• Официальная поддержка .roo-правил - важно для тех кто использует RooCode и хочет вместо RooCode Orchestrator (бывший Boomerang Tasks - чуть выше писал о нем) использовать TaskMaster
• Улучшенный парсинг документов с требованиями проекта (PRD) — теперь AI лучше понимает, что вы от него хотите.
• Новые CLI-команды для интерактивной настройки моделей — для тех, кто любит общаться с терминалом больше, чем с людьми :)
Как это работает? 🛠
Если вы используете MCP-сервер, то обновление произойдёт автоматически. Для CLI-версии нужно выполнить:
npm install -g task-master-ai
или
npm update task-master-ai
После установки запустите:
task-master init
Система предложит выбрать модели для каждой роли. Можно выбрать
Gemini 2.5 Flash
для основной работы (экономия денег 💰 - хотя для сложных проектов, я бы использовал платные модели), Perplexity
для исследований и что-то ещё для запасного варианта.Что это значит для нас? 🤔
Теперь Taskmaster стал практически бесплатным инструментом, если настроить его на использование
Gemini 2.5 Flash
Однако, есть и ложка дёгтя — после первой итерации задач Taskmaster всё ещё не очень хорошо анализирует созданные файлы проекта для генерации новых задач. Так что для сложных проектов придётся немного помогать ему вручную.
В целом, обновление действительно полезное. Если вы занимаетесь разработкой с помощью AI, стоит попробовать.
Источник здесь
Полный список новых фич для версии v0.13.0 здесь
#AI #разработка #Taskmaster #инструменты_разработчика
❤3🔥1
OpenAI представила HealthBench: новый стандарт для оценки медицинских AI-систем 🩺🤖
OpenAI выпустила HealthBench — новый бенчмарк, созданный совместно с 262 врачами для оценки эффективности AI-систем в медицинских беседах. Похоже, теперь у нас есть "официальный термометр" для измерения температуры искусственного интеллекта в медицине.
Что нужно знать 📋
• Бенчмарк тестирует модели по различным темам (скорая медицинская помощь, глобальное здравоохранение и т.д.) и поведенческим характеристикам (точность, качество коммуникации).
• Новые модели показывают значительно лучшие результаты — o3 от OpenAI набрала 60%, в то время как GPT-3.5 Turbo всего 16%. Прогресс налицо, хотя до идеала еще далеко.
• Интересно, что даже маленькие модели стали гораздо способнее — GPT-4.1 Nano превосходит старые варианты, при этом обходясь в 25 раз дешевле. Вот такой интересный прогресс в экономии на здоровье :)
• OpenAI сделала открытым исходный код как самих оценок, так и тестового набора данных, включающего 5000 реалистичных многоэтапных медицинских диалогов между моделями и пользователями.
Почему это важно 🤔
Существует множество примеров того, как ИИ может серьезно улучшить работу в медицинской сфере. Наличие проверенных врачами бенчмарков — важный шаг для измерения производительности каждой модели в медицинском контексте.
Конечно, одно дело — хорошо отвечать на тесты, и совсем другое — не навредить реальным пациентам. Но, по крайней мере, теперь у нас есть "линейка", которой можно измерить, насколько наш цифровой доктор готов к приему.
#ИИвМедицине #OpenAI #HealthBench #ИскусственныйИнтеллект #ЦифровоеЗдравоохранение
OpenAI выпустила HealthBench — новый бенчмарк, созданный совместно с 262 врачами для оценки эффективности AI-систем в медицинских беседах. Похоже, теперь у нас есть "официальный термометр" для измерения температуры искусственного интеллекта в медицине.
Что нужно знать 📋
• Бенчмарк тестирует модели по различным темам (скорая медицинская помощь, глобальное здравоохранение и т.д.) и поведенческим характеристикам (точность, качество коммуникации).
• Новые модели показывают значительно лучшие результаты — o3 от OpenAI набрала 60%, в то время как GPT-3.5 Turbo всего 16%. Прогресс налицо, хотя до идеала еще далеко.
• Интересно, что даже маленькие модели стали гораздо способнее — GPT-4.1 Nano превосходит старые варианты, при этом обходясь в 25 раз дешевле. Вот такой интересный прогресс в экономии на здоровье :)
• OpenAI сделала открытым исходный код как самих оценок, так и тестового набора данных, включающего 5000 реалистичных многоэтапных медицинских диалогов между моделями и пользователями.
Почему это важно 🤔
Существует множество примеров того, как ИИ может серьезно улучшить работу в медицинской сфере. Наличие проверенных врачами бенчмарков — важный шаг для измерения производительности каждой модели в медицинском контексте.
Конечно, одно дело — хорошо отвечать на тесты, и совсем другое — не навредить реальным пациентам. Но, по крайней мере, теперь у нас есть "линейка", которой можно измерить, насколько наш цифровой доктор готов к приему.
#ИИвМедицине #OpenAI #HealthBench #ИскусственныйИнтеллект #ЦифровоеЗдравоохранение
❤3👍1
LangGraph Platform теперь общедоступен: разворачивайте и управляйте агентами без головной боли 🚀
Компания LangChain объявила о выходе LangGraph Platform из беты в общий доступ. Это специализированная инфраструктура для развертывания и масштабирования долгоиграющих агентов с сохранением состояния. С момента запуска беты почти 400 компаний уже использовали платформу для вывода своих агентов в продакшн.
Развертывание агентов — это следующий сложный барьер для создания надежных AI-решений, и LangGraph Platform значительно упрощает этот процесс благодаря:
• Развертыванию в один клик — запуск в продакшн за считанные минуты
• 30 API-эндпоинтам для создания пользовательских интерфейсов под любые сценарии взаимодействия
• Горизонтальному масштабированию для обработки нерегулярного трафика
• Слою персистентности для поддержки памяти, истории разговоров и асинхронного взаимодействия
• Встроенной среде разработки LangGraph Studio для отладки и итерации
Проблемы инфраструктуры для агентов — и как LangGraph Platform их решает 🛠
Команда LangChain работает с множеством компаний, создающих агентов (Klarna, Lovable, Replit, LinkedIn и др.), и выявила несколько уникальных проблем при запуске агентов в продакшн:
1️⃣ Многие агенты работают долго. Поисково-исследовательские агенты или агенты, работающие по расписанию, могут выполнять задачи продолжительное время. Такие процессы подвержены сбоям, поэтому им нужна надежная инфраструктура.
2️⃣ Многие агенты полагаются на асинхронное взаимодействие. Агентам нужно реагировать на непредсказуемые события — будь то взаимодействие с человеком или ожидание ответа от другого агента.
3️⃣ Нерегулярная нагрузка. Горизонтальное масштабирование для обработки скачков трафика — задача не из легких, особенно для задач, выполняемых по расписанию.
LangGraph Platform позволяет разработчикам сосредоточиться на архитектуре агента, а не беспокоиться об инфраструктуре. Достаточно одного клика для развертывания приложений прямо в консоли управления.
Ускорение разработки с визуальными рабочими процессами 📊
Создание хороших агентов требует быстрой обратной связи. LangGraph Studio (включенный в LangGraph Platform) помогает разработчикам визуализировать и отлаживать рабочие процессы агентов в реальном времени, с подробной видимостью траекторий агентов и поддержкой ветвления логики.
Вы можете тестировать граничные случаи, проверять состояние памяти на каждом шаге и быстро определять, где что-то идет не так. Встроенные контрольные точки и модули памяти позволяют перематывать, редактировать и перезапускать точки отказа без лишних хлопот.
Централизованное управление агентами в организации 🏢
По мере внедрения агентов в разных командах управление ими становится делом командным. LangGraph Platform консолидирует мониторинг и контроль за всеми агентами в разработке или продакшне. Корпоративный вариант также поддерживает RBAC и рабочие пространства для контроля доступа.
Консоль управления LangGraph Platform упрощает обеспечение согласованности, мониторинг поведения и безопасное развертывание обновлений.
Вы можете:
• Находить доступных агентов в реестре
• Создавать различные версии вашего агента в платформе
• Использовать других агентов как "удаленные графы", создавая мультиагентные архитектуры
Варианты развертывания LangGraph Platform 🌐
Выберите вариант развертывания, который соответствует потребностям вашей команды:
1️⃣ Облако (SaaS): Самый быстрый способ начать работу, полностью управляемый и простой в развертывании. Доступен в тарифах Plus и Enterprise.
2️⃣ Гибридный: SaaS-панель управления с самостоятельно размещенным уровнем данных — идеально для команд с конфиденциальными данными. Доступен только в тарифе Enterprise.
3️⃣ Полностью самостоятельное размещение: Запуск всей платформы в собственной инфраструктуре. Данные не покидают ваш VPC. Доступен в тарифе Enterprise.
Если вы хотите попробовать базовую версию сервера LangGraph в своей среде, вы также можете использовать тариф Developer и получить до 100 тысяч выполненных узлов в месяц бесплатно — отлично подходит для хобби-проектов.
Компания LangChain объявила о выходе LangGraph Platform из беты в общий доступ. Это специализированная инфраструктура для развертывания и масштабирования долгоиграющих агентов с сохранением состояния. С момента запуска беты почти 400 компаний уже использовали платформу для вывода своих агентов в продакшн.
Развертывание агентов — это следующий сложный барьер для создания надежных AI-решений, и LangGraph Platform значительно упрощает этот процесс благодаря:
• Развертыванию в один клик — запуск в продакшн за считанные минуты
• 30 API-эндпоинтам для создания пользовательских интерфейсов под любые сценарии взаимодействия
• Горизонтальному масштабированию для обработки нерегулярного трафика
• Слою персистентности для поддержки памяти, истории разговоров и асинхронного взаимодействия
• Встроенной среде разработки LangGraph Studio для отладки и итерации
Проблемы инфраструктуры для агентов — и как LangGraph Platform их решает 🛠
Команда LangChain работает с множеством компаний, создающих агентов (Klarna, Lovable, Replit, LinkedIn и др.), и выявила несколько уникальных проблем при запуске агентов в продакшн:
1️⃣ Многие агенты работают долго. Поисково-исследовательские агенты или агенты, работающие по расписанию, могут выполнять задачи продолжительное время. Такие процессы подвержены сбоям, поэтому им нужна надежная инфраструктура.
2️⃣ Многие агенты полагаются на асинхронное взаимодействие. Агентам нужно реагировать на непредсказуемые события — будь то взаимодействие с человеком или ожидание ответа от другого агента.
3️⃣ Нерегулярная нагрузка. Горизонтальное масштабирование для обработки скачков трафика — задача не из легких, особенно для задач, выполняемых по расписанию.
LangGraph Platform позволяет разработчикам сосредоточиться на архитектуре агента, а не беспокоиться об инфраструктуре. Достаточно одного клика для развертывания приложений прямо в консоли управления.
Ускорение разработки с визуальными рабочими процессами 📊
Создание хороших агентов требует быстрой обратной связи. LangGraph Studio (включенный в LangGraph Platform) помогает разработчикам визуализировать и отлаживать рабочие процессы агентов в реальном времени, с подробной видимостью траекторий агентов и поддержкой ветвления логики.
Вы можете тестировать граничные случаи, проверять состояние памяти на каждом шаге и быстро определять, где что-то идет не так. Встроенные контрольные точки и модули памяти позволяют перематывать, редактировать и перезапускать точки отказа без лишних хлопот.
Централизованное управление агентами в организации 🏢
По мере внедрения агентов в разных командах управление ими становится делом командным. LangGraph Platform консолидирует мониторинг и контроль за всеми агентами в разработке или продакшне. Корпоративный вариант также поддерживает RBAC и рабочие пространства для контроля доступа.
Консоль управления LangGraph Platform упрощает обеспечение согласованности, мониторинг поведения и безопасное развертывание обновлений.
Вы можете:
• Находить доступных агентов в реестре
• Создавать различные версии вашего агента в платформе
• Использовать других агентов как "удаленные графы", создавая мультиагентные архитектуры
Варианты развертывания LangGraph Platform 🌐
Выберите вариант развертывания, который соответствует потребностям вашей команды:
1️⃣ Облако (SaaS): Самый быстрый способ начать работу, полностью управляемый и простой в развертывании. Доступен в тарифах Plus и Enterprise.
2️⃣ Гибридный: SaaS-панель управления с самостоятельно размещенным уровнем данных — идеально для команд с конфиденциальными данными. Доступен только в тарифе Enterprise.
3️⃣ Полностью самостоятельное размещение: Запуск всей платформы в собственной инфраструктуре. Данные не покидают ваш VPC. Доступен в тарифе Enterprise.
Если вы хотите попробовать базовую версию сервера LangGraph в своей среде, вы также можете использовать тариф Developer и получить до 100 тысяч выполненных узлов в месяц бесплатно — отлично подходит для хобби-проектов.
❤2👍2
LangGraph Platform — это, пожалуй, самый простой способ разрабатывать, разворачивать и управлять долгоиграющими агентами с сохранением состояния. Он может использоваться независимо от других продуктов LangChain или в сочетании с ними для обеспечения плавного перехода от фазы сборки к продакшну.
Интересно, сколько компаний сейчас действительно нуждаются в такой сложной инфраструктуре для агентов? 🤔 Но если вы из их числа — возможно, стоит взглянуть.
Источники:
• https://blog.langchain.dev/langgraph-platform-ga/
• https://www.youtube.com/watch?v=YWVuBLSbNWE
• https://langchain-ai.github.io/langgraph/concepts/langgraph_studio/
• https://langchain-ai.github.io/langgraph/concepts/deployment_options/
#LangGraphPlatform #агенты #LangChain #ИнфраструктураИИ #DevOps #agents
Интересно, сколько компаний сейчас действительно нуждаются в такой сложной инфраструктуре для агентов? 🤔 Но если вы из их числа — возможно, стоит взглянуть.
Источники:
• https://blog.langchain.dev/langgraph-platform-ga/
• https://www.youtube.com/watch?v=YWVuBLSbNWE
• https://langchain-ai.github.io/langgraph/concepts/langgraph_studio/
• https://langchain-ai.github.io/langgraph/concepts/deployment_options/
#LangGraphPlatform #агенты #LangChain #ИнфраструктураИИ #DevOps #agents
Langchain
LangGraph Platform
Develop, deploy, and scale agents with LangGraph Platform — our purpose-built platform for long-running, stateful workflows.
❤2👍2🔥1
Git-MCP: Решение проблем с контекстом для AI-кодеров 🧠
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
• GitHub Pages:
• Универсальный эндпоинт:
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
gitmcp.io/{owner}/{repo}
• GitHub Pages:
{owner}.gitmcp.io/{repo}
• Универсальный эндпоинт:
gitmcp.io/docs
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
👍7❤2🔥1
Windsurf представляет SWE-1: первое семейство собственных моделей 🌊
Компания Windsurf объявила о запуске своего первого семейства моделей собственной разработки — SWE-1. Как они утверждают, это не просто очередное обновление, а "начало чего-то большего".
Что за зверь этот SWE-1?
В семейство входят три модели, каждая оптимизирована для разных аспектов рабочего процесса:
• SWE-1 — флагманская модель с "высоким уровнем рассуждений", поддержкой инструментов и оптимизацией для Cascade. Обещают производительность уровня Claude 3.5, но "за долю стоимости". Интересно, какую именно долю? 💸
Что классно - сейчас модель доступна ограниченное время забесплатно! (см. скриншот)
• SWE-1-lite — замена для Cascade Base. Быстрее, лучше и, что самое главное, бесплатна для всех пользователей.
• SWE-1-mini — модель для пассивных предложений в Windsurf Tab, оптимизированная для работы в реальном времени.
Почему именно SWE?
Потому что, как нам объясняют, разработка программного обеспечения — это не только кодинг. Современные рабочие процессы охватывают терминалы, редакторы, браузеры, документацию и обратную связь с пользователями. SWE-1 якобы создана для работы со всем этим комплексом задач — от неполных идей до работающих систем. Амбициозно, ничего не скажешь. 🧩
Доступ и цены 💰
Вот что предлагается:
• SWE-1-lite теперь стандартная бесплатная модель в Cascade — доступна всем без ограничений использования.
• SWE-1 доступна только платным пользователям, но пока работает за "0 кредитов за запрос". Скоро появится у корпоративных клиентов.
• Компании получат доступ к SWE-1-lite и SWE-1-mini с первого дня, а вот SWE-1 будет доступна позже с возможностью отдельного подключения.
Что дальше? 🔮
Компания утверждает, что доказала возможность обучения моделей уровня SWE небольшой командой с ограниченными вычислительными ресурсами. Теперь они планируют масштабироваться. Обещают, что SWE-1 будет поддерживать больше рабочих процессов, быстро улучшаться и со временем станет дешевле в использовании.
Что ж, посмотрим, насколько эти обещания соответствуют реальности. И изменится ли что-то когда сделка с Openai состоится.
#ИИдляРазработчиков #windsurf #SWE1 #НовыеМодели #ИскусственныйИнтеллект #update
Компания Windsurf объявила о запуске своего первого семейства моделей собственной разработки — SWE-1. Как они утверждают, это не просто очередное обновление, а "начало чего-то большего".
Что за зверь этот SWE-1?
В семейство входят три модели, каждая оптимизирована для разных аспектов рабочего процесса:
• SWE-1 — флагманская модель с "высоким уровнем рассуждений", поддержкой инструментов и оптимизацией для Cascade. Обещают производительность уровня Claude 3.5, но "за долю стоимости". Интересно, какую именно долю? 💸
Что классно - сейчас модель доступна ограниченное время забесплатно! (см. скриншот)
• SWE-1-lite — замена для Cascade Base. Быстрее, лучше и, что самое главное, бесплатна для всех пользователей.
• SWE-1-mini — модель для пассивных предложений в Windsurf Tab, оптимизированная для работы в реальном времени.
Почему именно SWE?
Потому что, как нам объясняют, разработка программного обеспечения — это не только кодинг. Современные рабочие процессы охватывают терминалы, редакторы, браузеры, документацию и обратную связь с пользователями. SWE-1 якобы создана для работы со всем этим комплексом задач — от неполных идей до работающих систем. Амбициозно, ничего не скажешь. 🧩
Доступ и цены 💰
Вот что предлагается:
• SWE-1-lite теперь стандартная бесплатная модель в Cascade — доступна всем без ограничений использования.
• SWE-1 доступна только платным пользователям, но пока работает за "0 кредитов за запрос". Скоро появится у корпоративных клиентов.
• Компании получат доступ к SWE-1-lite и SWE-1-mini с первого дня, а вот SWE-1 будет доступна позже с возможностью отдельного подключения.
Что дальше? 🔮
Компания утверждает, что доказала возможность обучения моделей уровня SWE небольшой командой с ограниченными вычислительными ресурсами. Теперь они планируют масштабироваться. Обещают, что SWE-1 будет поддерживать больше рабочих процессов, быстро улучшаться и со временем станет дешевле в использовании.
Что ж, посмотрим, насколько эти обещания соответствуют реальности. И изменится ли что-то когда сделка с Openai состоится.
#ИИдляРазработчиков #windsurf #SWE1 #НовыеМодели #ИскусственныйИнтеллект #update
👍2🔥2❤1
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
•
•
•
Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
Панель управления OpenMemory будет доступна по адресу:
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
add_memories
: Сохранение новых объектов памяти •
search_memory
: Поиск релевантных воспоминаний •
list_memories
: Просмотр всей сохранённой памяти •
delete_all_memories
: Полная очистка памятиЛюбой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory
# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env
# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build
# Запускаем все сервисы
make up
# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
whoami
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>
Панель управления OpenMemory будет доступна по адресу:
http://localhost:3000
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
❤2👍1🔥1
Dart: Альтернатива Taskmaster с графическим интерфейсом и AI-функциями
Привет, друзья! 👋 Сегодня хочу рассказать о менеджере задач Dart, который может стать неплохой заменой командно-строчному Taskmaster.
Если такие ограничения Taskmaster как отсутствие графического интерфейса и невозможность работы в команде для вас актуальны, то Dart может вас заинтересовать. Это AI-инструмент для управления проектами, который позволяет:
• Создавать и управлять задачами через графический интерфейс
• Назначать задачи членам команды или... AI-агенту 🤖 (он называется Dart-AI, см. скриншот)
• Интегрироваться с Cline, Roo, Cursor и другими AI-инструментами через MCP-сервер
Структура и возможности
В Dart вы работаете с:
1️⃣ Spaces (пространства) — для разных проектов
2️⃣ Dashboards (доски) — для управления задачами внутри проекта
3️⃣ Tasks (задачи) — которые можно разбивать на подзадачи
Что действительно выделяет Dart — это новый AI-чат. По сути, это как Cursor Composer, но для задач. Вы просто пишете, что хотите, а AI выполняет:
• "Создай 10 задач для разработки календаря на Next.js" ✅
• "Расставь приоритеты для этих задач" ✅
• "Назначь эти задачи Ивану, а эти — Марии" ✅
Интеграция с AI-кодерами
Благодаря MCP-серверу, Dart легко интегрируется с Cline, Roo, Cursor и другими инструментами. Настройка занимает буквально пару минут — копируете конфиг, вставляете токен, и готово.
Рабочий процесс выглядит примерно так:
1️⃣ Попросите AI собрать задачи из Dart (их можно ранжировать по приоритетам)
2️⃣ Создайте файл задач с зависимостями
3️⃣ Начните работу над задачами
4️⃣ Отмечайте выполненные задачи в Dart
Цены и доступность
Dart предлагает:
• Бесплатный план с большинством функций (но такая фича как AI Chat - только в платной подписке)
• $10/месяц за расширенные возможности (если брать сразу годовую подписку, то $8, я пока тестирую помесячную оплату)
• $15/месяц для команд (если брать годовую подписку, то $12)
Честно говоря, по сравнению с конкурентами, цены весьма демократичные, хотя, как всегда, маркетологи уверяют, что их инструмент "революционный" и "незаменимый". 😏
Если вы ищете более интерактивный и командный подход к управлению задачами с AI-помощником, Dart может оказаться неплохим вариантом.
Источники:
• Официальная документация по ссылке
• Youtube видео по ссылке
#taskmanagement #ai #darttool #devtools #projectmanagement
Привет, друзья! 👋 Сегодня хочу рассказать о менеджере задач Dart, который может стать неплохой заменой командно-строчному Taskmaster.
Если такие ограничения Taskmaster как отсутствие графического интерфейса и невозможность работы в команде для вас актуальны, то Dart может вас заинтересовать. Это AI-инструмент для управления проектами, который позволяет:
• Создавать и управлять задачами через графический интерфейс
• Назначать задачи членам команды или... AI-агенту 🤖 (он называется Dart-AI, см. скриншот)
• Интегрироваться с Cline, Roo, Cursor и другими AI-инструментами через MCP-сервер
Структура и возможности
В Dart вы работаете с:
1️⃣ Spaces (пространства) — для разных проектов
2️⃣ Dashboards (доски) — для управления задачами внутри проекта
3️⃣ Tasks (задачи) — которые можно разбивать на подзадачи
Что действительно выделяет Dart — это новый AI-чат. По сути, это как Cursor Composer, но для задач. Вы просто пишете, что хотите, а AI выполняет:
• "Создай 10 задач для разработки календаря на Next.js" ✅
• "Расставь приоритеты для этих задач" ✅
• "Назначь эти задачи Ивану, а эти — Марии" ✅
Интеграция с AI-кодерами
Благодаря MCP-серверу, Dart легко интегрируется с Cline, Roo, Cursor и другими инструментами. Настройка занимает буквально пару минут — копируете конфиг, вставляете токен, и готово.
Рабочий процесс выглядит примерно так:
1️⃣ Попросите AI собрать задачи из Dart (их можно ранжировать по приоритетам)
2️⃣ Создайте файл задач с зависимостями
3️⃣ Начните работу над задачами
4️⃣ Отмечайте выполненные задачи в Dart
Цены и доступность
Dart предлагает:
• Бесплатный план с большинством функций (но такая фича как AI Chat - только в платной подписке)
• $10/месяц за расширенные возможности (если брать сразу годовую подписку, то $8, я пока тестирую помесячную оплату)
• $15/месяц для команд (если брать годовую подписку, то $12)
Честно говоря, по сравнению с конкурентами, цены весьма демократичные, хотя, как всегда, маркетологи уверяют, что их инструмент "революционный" и "незаменимый". 😏
Если вы ищете более интерактивный и командный подход к управлению задачами с AI-помощником, Dart может оказаться неплохим вариантом.
Источники:
• Официальная документация по ссылке
• Youtube видео по ссылке
#taskmanagement #ai #darttool #devtools #projectmanagement
👍3🔥2❤1
Anthropic тестирует Claude с функцией самоисправления ошибок 🤖
Похоже, что Anthropic готовится выпустить обновленные версии своих моделей Claude Opus и Sonnet в ближайшие недели. По данным The Information, новые модели смогут работать гораздо более автономно, чем их предшественники. Звучит многообещающе, хотя мы уже не раз слышали подобные заявления от AI-компаний. 🙄
Что нового планируется в моделях? 🧠
Главное отличие — способность моделей переключаться между самостоятельным мышлением и использованием внешних инструментов. Если модель сталкивается с проблемой при использовании инструмента, она переходит в режим "размышления", анализирует ситуацию и исправляет ошибку.
Вот несколько примеров возможностей:
• При анализе рынка для кафе в Москве/Нью-Йорке модель начинает с изучения национальных трендов, но быстро понимает их бесполезность и переключается на демографические данные конкретного района (Хамовники/Гринвич Виллидж)
• В задачах программирования модель автоматически тестирует сгенерированный код и, если что-то идет не так, останавливается, чтобы найти и исправить ошибку.
• Даже с расплывчатыми запросами вроде "сделай приложение быстрее" модель самостоятельно пробует различные стратегии оптимизации
Меньше подсказок, больше инициативы 💡
Подход Anthropic соответствует общей тенденции в индустрии: создание AI-систем, способных работать с минимальными вводными и самостоятельно решать проблемы. Обновленные модели Claude призваны сочетать рассуждения и использование инструментов, переключаясь между этими режимами по мере необходимости.
OpenAI идет по тому же пути со своими моделями o3 и o4-mini. Хотя, как отмечают тестировщики, o3 все еще делает ошибки в сложных задачах чаще, чем предыдущие модели OpenAI. Что ж, идеальных AI пока не существует 😏
Остается надеяться, что Anthropic не только улучшит способность моделей к самоисправлению, но и увеличит контекстное окно до миллиона токенов (а может быть и двух 😏), а также обновит базу знаний до 2025 года. Иначе Gemini 2.5 Pro останется более привлекательным вариантом для большинства пользователей, несмотря на все новые "фишки".
#ИскусственныйИнтеллект #Claude #Anthropic #AIновости #МашинноеОбучение
Похоже, что Anthropic готовится выпустить обновленные версии своих моделей Claude Opus и Sonnet в ближайшие недели. По данным The Information, новые модели смогут работать гораздо более автономно, чем их предшественники. Звучит многообещающе, хотя мы уже не раз слышали подобные заявления от AI-компаний. 🙄
Что нового планируется в моделях? 🧠
Главное отличие — способность моделей переключаться между самостоятельным мышлением и использованием внешних инструментов. Если модель сталкивается с проблемой при использовании инструмента, она переходит в режим "размышления", анализирует ситуацию и исправляет ошибку.
Вот несколько примеров возможностей:
• При анализе рынка для кафе в Москве/Нью-Йорке модель начинает с изучения национальных трендов, но быстро понимает их бесполезность и переключается на демографические данные конкретного района (Хамовники/Гринвич Виллидж)
• В задачах программирования модель автоматически тестирует сгенерированный код и, если что-то идет не так, останавливается, чтобы найти и исправить ошибку.
• Даже с расплывчатыми запросами вроде "сделай приложение быстрее" модель самостоятельно пробует различные стратегии оптимизации
Меньше подсказок, больше инициативы 💡
Подход Anthropic соответствует общей тенденции в индустрии: создание AI-систем, способных работать с минимальными вводными и самостоятельно решать проблемы. Обновленные модели Claude призваны сочетать рассуждения и использование инструментов, переключаясь между этими режимами по мере необходимости.
OpenAI идет по тому же пути со своими моделями o3 и o4-mini. Хотя, как отмечают тестировщики, o3 все еще делает ошибки в сложных задачах чаще, чем предыдущие модели OpenAI. Что ж, идеальных AI пока не существует 😏
Остается надеяться, что Anthropic не только улучшит способность моделей к самоисправлению, но и увеличит контекстное окно до миллиона токенов (а может быть и двух 😏), а также обновит базу знаний до 2025 года. Иначе Gemini 2.5 Pro останется более привлекательным вариантом для большинства пользователей, несмотря на все новые "фишки".
#ИскусственныйИнтеллект #Claude #Anthropic #AIновости #МашинноеОбучение
The Information
Anthropic’s Upcoming Models Will Think… And Think Some More
The race to develop reasoning models that “think” harder is at full force. At Anthropic, which arrived later than OpenAI and Google to the reasoning race, two upcoming models are taking the concept of “thinking” to the extreme.Anthropic has new versions of…
❤2👍2
Codex от OpenAI: новый инструмент для разработчиков
OpenAI представила новый инструмент под названием Codex – облачный агент для разработки ПО, способный работать с несколькими задачами параллельно. 🤖
Codex работает на базе модели codex-1 (оригинальное название, ничего не скажешь 🙃), которая является оптимизированной версией OpenAI o3, настроенной специально для программирования. Инструмент уже доступен пользователям ChatGPT Pro, Team и Enterprise, а обладателям Plus-подписки придется немного подождать.
Как это работает? 🛠
Codex функционирует в облаке, а не на вашем компьютере, что позволяет:
• Запускать несколько задач одновременно
• Работать с вашими репозиториями GitHub
• Писать новые функции, исправлять баги и предлагать pull-запросы
• Отвечать на вопросы о вашей кодовой базе
Каждая задача выполняется в изолированной среде, предварительно загруженной с вашим репозиторием. Codex может читать и редактировать файлы, запускать команды, включая тесты, линтеры и проверки типов.
Что умеет Codex? 💻
1️⃣ Выполнять рутинные задачи: рефакторинг, переименование, написание тестов
2️⃣ Создавать новые функции и компоненты
3️⃣ Исправлять ошибки в коде
4️⃣ Составлять документацию
5️⃣ Анализировать кодовую базу и предлагать улучшения
Интересная особенность – Codex можно "обучать" с помощью файлов AGENTS.md, размещенных в репозитории. В этих файлах вы можете указать, как навигировать по кодовой базе, какие команды запускать для тестирования и как придерживаться стандартных практик проекта.
Безопасность и ограничения ⚠️
OpenAI утверждает, что уделила особое внимание безопасности и прозрачности. Codex работает в защищенном контейнере в облаке, без доступа к интернету. Он может взаимодействовать только с кодом, явно предоставленным через репозитории GitHub и предустановленные зависимости.
Однако стоит помнить, что это всё ещё "исследовательский превью", и у инструмента есть ограничения:
• Отсутствие поддержки изображений для фронтенд-разработки
• Невозможность корректировать работу агента в процессе выполнения
• Делегирование удаленному агенту занимает больше времени, чем интерактивное редактирование
• Codex пока доступен только в ChatGPT Pro тарифе, ждем его появления в более демократичных Plus и Edu редакциях 😏
Что дальше? 🔮
OpenAI планирует развивать Codex, добавляя новые функции:
• Более интерактивные и гибкие рабочие процессы
• Возможность предоставлять указания во время выполнения задачи
• Интеграция с другими инструментами: GitHub, Codex CLI, ChatGPT Desktop и даже системами отслеживания проблем
Также компания выпустила облегченную версию codex-1 для использования в Codex CLI – локальном агенте, который работает в вашем терминале.
Звучит впечатляюще, но насколько это изменит реальную работу программистов – покажет только время. Возможно, мы наблюдаем начало новой эры в разработке ПО, а может быть, это просто очередной инструмент, который будет полезен в определенных сценариях, но не произведет революцию.
А как вы думаете?
P.S. Немного иронично:
• производители LLM-моделей (openai) идут в AI-кодинг, а создатели AI-кодеров идут в производство моделей
• при этом производитель LLM-модели (openai) собирается купить такого "первопроходца" из AI-кодеров (windsurf),
кажется, что openai хотят иметь в своем портфеле все: и "онпрем" и "облачное" решение по AI-кодингу для своих заказчиков 🤔
#ИскусственныйИнтеллект #Разработка #openai #codex #БудущееПрограммирования
OpenAI представила новый инструмент под названием Codex – облачный агент для разработки ПО, способный работать с несколькими задачами параллельно. 🤖
Codex работает на базе модели codex-1 (оригинальное название, ничего не скажешь 🙃), которая является оптимизированной версией OpenAI o3, настроенной специально для программирования. Инструмент уже доступен пользователям ChatGPT Pro, Team и Enterprise, а обладателям Plus-подписки придется немного подождать.
Как это работает? 🛠
Codex функционирует в облаке, а не на вашем компьютере, что позволяет:
• Запускать несколько задач одновременно
• Работать с вашими репозиториями GitHub
• Писать новые функции, исправлять баги и предлагать pull-запросы
• Отвечать на вопросы о вашей кодовой базе
Каждая задача выполняется в изолированной среде, предварительно загруженной с вашим репозиторием. Codex может читать и редактировать файлы, запускать команды, включая тесты, линтеры и проверки типов.
Что умеет Codex? 💻
1️⃣ Выполнять рутинные задачи: рефакторинг, переименование, написание тестов
2️⃣ Создавать новые функции и компоненты
3️⃣ Исправлять ошибки в коде
4️⃣ Составлять документацию
5️⃣ Анализировать кодовую базу и предлагать улучшения
Интересная особенность – Codex можно "обучать" с помощью файлов AGENTS.md, размещенных в репозитории. В этих файлах вы можете указать, как навигировать по кодовой базе, какие команды запускать для тестирования и как придерживаться стандартных практик проекта.
Безопасность и ограничения ⚠️
OpenAI утверждает, что уделила особое внимание безопасности и прозрачности. Codex работает в защищенном контейнере в облаке, без доступа к интернету. Он может взаимодействовать только с кодом, явно предоставленным через репозитории GitHub и предустановленные зависимости.
Однако стоит помнить, что это всё ещё "исследовательский превью", и у инструмента есть ограничения:
• Отсутствие поддержки изображений для фронтенд-разработки
• Невозможность корректировать работу агента в процессе выполнения
• Делегирование удаленному агенту занимает больше времени, чем интерактивное редактирование
• Codex пока доступен только в ChatGPT Pro тарифе, ждем его появления в более демократичных Plus и Edu редакциях 😏
Что дальше? 🔮
OpenAI планирует развивать Codex, добавляя новые функции:
• Более интерактивные и гибкие рабочие процессы
• Возможность предоставлять указания во время выполнения задачи
• Интеграция с другими инструментами: GitHub, Codex CLI, ChatGPT Desktop и даже системами отслеживания проблем
Также компания выпустила облегченную версию codex-1 для использования в Codex CLI – локальном агенте, который работает в вашем терминале.
Звучит впечатляюще, но насколько это изменит реальную работу программистов – покажет только время. Возможно, мы наблюдаем начало новой эры в разработке ПО, а может быть, это просто очередной инструмент, который будет полезен в определенных сценариях, но не произведет революцию.
А как вы думаете?
P.S. Немного иронично:
• производители LLM-моделей (openai) идут в AI-кодинг, а создатели AI-кодеров идут в производство моделей
• при этом производитель LLM-модели (openai) собирается купить такого "первопроходца" из AI-кодеров (windsurf),
кажется, что openai хотят иметь в своем портфеле все: и "онпрем" и "облачное" решение по AI-кодингу для своих заказчиков 🤔
#ИскусственныйИнтеллект #Разработка #openai #codex #БудущееПрограммирования
RPGGO: Бесплатный генератор 2D игр на базе ИИ 🎮
Недавно писал про классный ИИ-разработчик 3D-игр
И вот наткнулся еще на одну интересную штуку - RPGGO выпустил генератор 2D игр, который работает полностью на ИИ. Да-да, еще один "революционный" инструмент в нашем перенасыщенном технологиями мире. Но, надо признать, выглядит действительно любопытно. 🤔
Что умеет этот генератор:
• Создает полноценные 2D игры по текстовому описанию
• Генерирует автономных NPC, которые взаимодействуют друг с другом и с игроком
• Позволяет настраивать внешний вид локаций и персонажей
• Работает без навыков программирования
Как это работает:
1️⃣ Заходите на сайт RPGGO и выбираете "Create a new game"
2️⃣ Описываете идею игры (например, "игра про вампиров")
3️⃣ Нажимаете кнопку "Launch 2D" для перехода в режим 2D игры
4️⃣ Настраиваете дизайн локации (город, деревня, пустыня и т.д.)
5️⃣ Создаете главного персонажа и генерируете для него спрайт
6️⃣ Добавляете здания и NPC на карту
После этого игра "оживает" - персонажи начинают автономно действовать, а вы можете взаимодействовать с ними через чат-интерфейс. Система показывает даже "мысли" NPC.
Графика, мягко говоря, не AAA-уровня, но для быстрого прототипирования или развлечения вполне сойдет.
Что можно сделать:
• Расширять карту по своему усмотрению
• Добавлять новых персонажей для более интересных диалогов
• Настраивать внешний вид зданий через текстовые промпты
• Делиться созданными играми с другими пользователями
В целом, если у вас есть пара свободных часов и желание поиграть в "разработчика игр", можно попробовать. Хотя бы ради того, чтобы посмотреть, как ИИ будет пытаться создать осмысленный геймплей из вашего хаотичного описания вампирской саги. 🧛♂️
#ИИигры #GameDev #RPGGO #ГенерацияИгр #ИИтехнологии #games
Недавно писал про классный ИИ-разработчик 3D-игр
И вот наткнулся еще на одну интересную штуку - RPGGO выпустил генератор 2D игр, который работает полностью на ИИ. Да-да, еще один "революционный" инструмент в нашем перенасыщенном технологиями мире. Но, надо признать, выглядит действительно любопытно. 🤔
Что умеет этот генератор:
• Создает полноценные 2D игры по текстовому описанию
• Генерирует автономных NPC, которые взаимодействуют друг с другом и с игроком
• Позволяет настраивать внешний вид локаций и персонажей
• Работает без навыков программирования
Как это работает:
1️⃣ Заходите на сайт RPGGO и выбираете "Create a new game"
2️⃣ Описываете идею игры (например, "игра про вампиров")
3️⃣ Нажимаете кнопку "Launch 2D" для перехода в режим 2D игры
4️⃣ Настраиваете дизайн локации (город, деревня, пустыня и т.д.)
5️⃣ Создаете главного персонажа и генерируете для него спрайт
6️⃣ Добавляете здания и NPC на карту
После этого игра "оживает" - персонажи начинают автономно действовать, а вы можете взаимодействовать с ними через чат-интерфейс. Система показывает даже "мысли" NPC.
Графика, мягко говоря, не AAA-уровня, но для быстрого прототипирования или развлечения вполне сойдет.
Что можно сделать:
• Расширять карту по своему усмотрению
• Добавлять новых персонажей для более интересных диалогов
• Настраивать внешний вид зданий через текстовые промпты
• Делиться созданными играми с другими пользователями
В целом, если у вас есть пара свободных часов и желание поиграть в "разработчика игр", можно попробовать. Хотя бы ради того, чтобы посмотреть, как ИИ будет пытаться создать осмысленный геймплей из вашего хаотичного описания вампирской саги. 🧛♂️
#ИИигры #GameDev #RPGGO #ГенерацияИгр #ИИтехнологии #games
👍3❤🔥2
Replit: Безопасное "вайб-кодирование" теперь доступно всем
Команда Replit представила новые функции, делающие написание софта с помощью ИИ не только доступным, но и безопасным. 🚀
Что нового они представили? 🛡
1️⃣ Replit Auth по умолчанию
• Встроенная система аутентификации теперь включена автоматически
• Использует Firebase, reCAPTCHA и другие инструменты защиты
• Больше не нужно интегрировать сторонние сервисы или писать свою систему
2️⃣ Улучшенная история приложений
• Новый интерфейс для просмотра всех версий вашего приложения
• Возможность откатиться к любой предыдущей версии
• Предварительный просмотр старых версий перед откатом
• Возможность вернуть даже состояние базы данных
3️⃣ Сканирование безопасности
• Автоматический поиск уязвимостей в коде перед деплоем
• Интеграция с Semgrep для глубокого анализа (подробности здесь)
• Возможность автоматического исправления найденных проблем
4️⃣ Защита от случайных ошибок
• ИИ теперь физически не может удалить важные файлы проекта
• Автоматическое обнаружение API-ключей в промптах
• Перенаправление секретных данных в безопасное хранилище
Для корпоративных пользователей 🏢
Для тех, кто использует Replit в компаниях, добавили:
• Защищенные URL для разработки
• Роль "зрителя" для сотрудников (50 мест бесплатно)
• Поддержка SCIM для управления доступом
• Расширенные настройки приватности для администраторов
В ближайшие недели обещают разделение баз данных на dev/prod, чтобы разработка не влияла на рабочую версию приложения - очень круто, когда я делал витрину для AI-проектов, меня удивило, что базы общие.
Эти обновления значительно повышают уровень безопасности и удобства при создании приложений с помощью ИИ на платформе Replit.
#replit #dev #ai #security #vibecoding
Команда Replit представила новые функции, делающие написание софта с помощью ИИ не только доступным, но и безопасным. 🚀
Что нового они представили? 🛡
1️⃣ Replit Auth по умолчанию
• Встроенная система аутентификации теперь включена автоматически
• Использует Firebase, reCAPTCHA и другие инструменты защиты
• Больше не нужно интегрировать сторонние сервисы или писать свою систему
2️⃣ Улучшенная история приложений
• Новый интерфейс для просмотра всех версий вашего приложения
• Возможность откатиться к любой предыдущей версии
• Предварительный просмотр старых версий перед откатом
• Возможность вернуть даже состояние базы данных
3️⃣ Сканирование безопасности
• Автоматический поиск уязвимостей в коде перед деплоем
• Интеграция с Semgrep для глубокого анализа (подробности здесь)
• Возможность автоматического исправления найденных проблем
4️⃣ Защита от случайных ошибок
• ИИ теперь физически не может удалить важные файлы проекта
• Автоматическое обнаружение API-ключей в промптах
• Перенаправление секретных данных в безопасное хранилище
Для корпоративных пользователей 🏢
Для тех, кто использует Replit в компаниях, добавили:
• Защищенные URL для разработки
• Роль "зрителя" для сотрудников (50 мест бесплатно)
• Поддержка SCIM для управления доступом
• Расширенные настройки приватности для администраторов
В ближайшие недели обещают разделение баз данных на dev/prod, чтобы разработка не влияла на рабочую версию приложения - очень круто, когда я делал витрину для AI-проектов, меня удивило, что базы общие.
Эти обновления значительно повышают уровень безопасности и удобства при создании приложений с помощью ИИ на платформе Replit.
#replit #dev #ai #security #vibecoding
Replit Blog
Replit — Replit: The Safest Place for Vibe Coding
We’re beefing up security. We’re launching the world’s best vibe coding history feature. And for those of you bringing Replit to work, we’re improving our Enterprise readiness.
Vibe coding makes software creation accessible to everyone, entirely through…
Vibe coding makes software creation accessible to everyone, entirely through…
❤🔥3👍3
Инструменты для превращения сложного кода в понятную документацию
Пишу в продолжении вот этого поста.
Каждый разработчик сталкивался с этим: открываешь новый репозиторий, видишь сотни файлов кода и... теряешься. Куда смотреть? С чего начать? Как это всё работает вместе? К счастью, появляются инструменты, которые помогают превратить запутанный код в понятную и даже увлекательную документацию.
Почему это важно?
Исследования показывают, что разработчики тратят до 60% своего времени на чтение и понимание кода, а не на его написание. Кажется, что качественная документация могла бы повысить продуктивность их работы более чем в 2 раза.
Современные инструменты для понимания кодовой базы
1. PocketFlow + AI: Создание интерактивных туториалов
PocketFlow — это минималистичный фреймворк (всего 100 строк кода!), который в сочетании с современными LLM позволяет создавать системы для автоматического анализа кодовых баз.
Как это работает:
• Система скачивает код из репозитория
• Идентифицирует ключевые абстракции и концепции
• Анализирует связи между компонентами
• Определяет логическую последовательность для обучения
• Создаёт подробные главы с объяснениями и примерами
• Компилирует всё в единый туториал с визуализациями
Результат — полноценный учебник, который начинается с общей картины и постепенно погружается в детали.
2. DeepWiki: Документация, с которой можно общаться
DeepWiki превращает любой GitHub-репозиторий в интерактивную документацию, с которой можно вести диалог. Вместо чтения сотен страниц вы просто задаёте вопросы на естественном языке.
Преимущества:
• Мгновенные ответы на конкретные вопросы
• Понимание контекста всего репозитория
• Возможность уточнять и углублять вопросы
3. TalkToGitHub: Чат с репозиторием
TalkToGitHub — ещё один инструмент, позволяющий вести диалог с кодовой базой. Достаточно добавить префикс "talkto" к URL любого публичного репозитория GitHub, и вы сможете задавать вопросы о коде.
4. Cursor AI или любой аналог из сравнения здесь.
Cursor — это редактор кода с встроенным ИИ, который помогает разобраться в существующем коде прямо в процессе работы. Он может объяснять функции, классы и даже целые модули. Можно также воспользоваться Memory Bank
Создание собственного инструмента для анализа кода
Проект AI Codebase Knowledge Builder позволяет создать систему для анализа кодовых баз. Используя подход "агентного кодирования" (agentic coding), разработчик проектирует архитектуру, а ИИ реализует детали.
Ключевые компоненты:
•
•
•
•
•
•
Практические примеры
Эти инструменты уже успешно применяются для создания документации к сложным проектам:
• AutoGen Core: Фреймворк для создания команд ИИ-агентов
• MCP Python SDK: Python SDK для MCP- протокола (коммуникация между ИИ-агентами и их инструментами)
• Browser-use: Библиотека для автоматизации браузера с помощью ИИ
• полный список примеров здесь
Что выбрать для своего проекта?
• Для быстрых вопросов: TalkToGitHub или DeepWiki
• Для глубокого анализа: PocketFlow + AI Codebase Knowledge Builder
• Для работы с кодом в реальном времени: Cursor AI или аналогичный инструмент из обзора
Заключение
Эра непонятного кода и устаревшей документации подходит к концу. Современные инструменты на базе ИИ позволяют превратить любую кодовую базу в понятное и структурированное руководство. Это не только экономит время разработчиков, но и делает процесс изучения кода более увлекательным и продуктивным.
Попробуйте эти инструменты в своём следующем проекте — и вы удивитесь, насколько проще станет понимание даже самого сложного кода! Поделитесь, пожалуйста, своим опытом в комментариях, думаю, что всем будет интересно!
#dev #docs #ai #кодинг #pocketflow #deepwiki
Пишу в продолжении вот этого поста.
Каждый разработчик сталкивался с этим: открываешь новый репозиторий, видишь сотни файлов кода и... теряешься. Куда смотреть? С чего начать? Как это всё работает вместе? К счастью, появляются инструменты, которые помогают превратить запутанный код в понятную и даже увлекательную документацию.
Почему это важно?
Исследования показывают, что разработчики тратят до 60% своего времени на чтение и понимание кода, а не на его написание. Кажется, что качественная документация могла бы повысить продуктивность их работы более чем в 2 раза.
Современные инструменты для понимания кодовой базы
1. PocketFlow + AI: Создание интерактивных туториалов
PocketFlow — это минималистичный фреймворк (всего 100 строк кода!), который в сочетании с современными LLM позволяет создавать системы для автоматического анализа кодовых баз.
Как это работает:
• Система скачивает код из репозитория
• Идентифицирует ключевые абстракции и концепции
• Анализирует связи между компонентами
• Определяет логическую последовательность для обучения
• Создаёт подробные главы с объяснениями и примерами
• Компилирует всё в единый туториал с визуализациями
Результат — полноценный учебник, который начинается с общей картины и постепенно погружается в детали.
2. DeepWiki: Документация, с которой можно общаться
DeepWiki превращает любой GitHub-репозиторий в интерактивную документацию, с которой можно вести диалог. Вместо чтения сотен страниц вы просто задаёте вопросы на естественном языке.
Преимущества:
• Мгновенные ответы на конкретные вопросы
• Понимание контекста всего репозитория
• Возможность уточнять и углублять вопросы
3. TalkToGitHub: Чат с репозиторием
TalkToGitHub — ещё один инструмент, позволяющий вести диалог с кодовой базой. Достаточно добавить префикс "talkto" к URL любого публичного репозитория GitHub, и вы сможете задавать вопросы о коде.
4. Cursor AI или любой аналог из сравнения здесь.
Cursor — это редактор кода с встроенным ИИ, который помогает разобраться в существующем коде прямо в процессе работы. Он может объяснять функции, классы и даже целые модули. Можно также воспользоваться Memory Bank
Создание собственного инструмента для анализа кода
Проект AI Codebase Knowledge Builder позволяет создать систему для анализа кодовых баз. Используя подход "агентного кодирования" (agentic coding), разработчик проектирует архитектуру, а ИИ реализует детали.
Ключевые компоненты:
•
FetchRepo
: Скачивает и фильтрует файлы из репозитория •
IdentifyAbstractions
: Находит ключевые концепции в коде •
AnalyzeRelationships
: Определяет связи между компонентами •
OrderChapters
: Создаёт логическую последовательность обучения •
WriteChapters
: Пишет подробные объяснения для каждой концепции •
CombineTutorial
: Собирает всё в единый документ с визуализациямиПрактические примеры
Эти инструменты уже успешно применяются для создания документации к сложным проектам:
• AutoGen Core: Фреймворк для создания команд ИИ-агентов
• MCP Python SDK: Python SDK для MCP- протокола (коммуникация между ИИ-агентами и их инструментами)
• Browser-use: Библиотека для автоматизации браузера с помощью ИИ
• полный список примеров здесь
Что выбрать для своего проекта?
• Для быстрых вопросов: TalkToGitHub или DeepWiki
• Для глубокого анализа: PocketFlow + AI Codebase Knowledge Builder
• Для работы с кодом в реальном времени: Cursor AI или аналогичный инструмент из обзора
Заключение
Эра непонятного кода и устаревшей документации подходит к концу. Современные инструменты на базе ИИ позволяют превратить любую кодовую базу в понятное и структурированное руководство. Это не только экономит время разработчиков, но и делает процесс изучения кода более увлекательным и продуктивным.
Попробуйте эти инструменты в своём следующем проекте — и вы удивитесь, насколько проще станет понимание даже самого сложного кода! Поделитесь, пожалуйста, своим опытом в комментариях, думаю, что всем будет интересно!
#dev #docs #ai #кодинг #pocketflow #deepwiki
🔥4👍2❤🔥1❤1