Gemini 2.5 Pro: Google выпустила новую версию раньше срока 🚀
Google неожиданно выпустила предварительную версию Gemini 2.5 Pro (I/O version), не дожидаясь официального релиза. Что ж, похоже, кто-то в Mountain View решил, что ждать больше нет смысла. ⏱️
Что нового? 🔍
Новая версия демонстрирует заметные улучшения в программировании и мультимодальном мышлении. 💻 Gemini 2.5 Pro Preview занял первое место в рейтинге программирования LMArena и, как утверждает Google, превзошел Claude 3.7 Sonnet в рейтинге WebDev Arena. 🏆
Интересно, что это первый случай, когда одна модель лидирует одновременно в текстовых, визуальных и веб-разработческих категориях. Впечатляет, хотя посмотрим, как долго продержится это лидерство. 🤔
Где попробовать? 🧪
С 6 мая Gemini 2.5 Pro Preview доступен в Google AI Studio. Разработчики могут начать использовать обновленную версию через Gemini API в Google AI Studio и Vertex AI. 👨💻
Если хотите оценить все эти "революционные" возможности самостоятельно, модель доступна для бесплатного тестирования по адресу: https://aistudio.google.com/ 🔗
Посмотрим, действительно ли новый Gemini настолько хорош, как о нём говорят, или это очередной маркетинговый ход в бесконечной гонке ИИ-гигантов. 🏁
С игрой "змейка" модель справилась быстро и без ошибок (см. комментарии).
#ИскусственныйИнтеллект #Gemini #GoogleAI #НейросетиНовости #ТехнологииБудущего
Google неожиданно выпустила предварительную версию Gemini 2.5 Pro (I/O version), не дожидаясь официального релиза. Что ж, похоже, кто-то в Mountain View решил, что ждать больше нет смысла. ⏱️
Что нового? 🔍
Новая версия демонстрирует заметные улучшения в программировании и мультимодальном мышлении. 💻 Gemini 2.5 Pro Preview занял первое место в рейтинге программирования LMArena и, как утверждает Google, превзошел Claude 3.7 Sonnet в рейтинге WebDev Arena. 🏆
Интересно, что это первый случай, когда одна модель лидирует одновременно в текстовых, визуальных и веб-разработческих категориях. Впечатляет, хотя посмотрим, как долго продержится это лидерство. 🤔
Где попробовать? 🧪
С 6 мая Gemini 2.5 Pro Preview доступен в Google AI Studio. Разработчики могут начать использовать обновленную версию через Gemini API в Google AI Studio и Vertex AI. 👨💻
Если хотите оценить все эти "революционные" возможности самостоятельно, модель доступна для бесплатного тестирования по адресу: https://aistudio.google.com/ 🔗
Посмотрим, действительно ли новый Gemini настолько хорош, как о нём говорят, или это очередной маркетинговый ход в бесконечной гонке ИИ-гигантов. 🏁
С игрой "змейка" модель справилась быстро и без ошибок (см. комментарии).
#ИскусственныйИнтеллект #Gemini #GoogleAI #НейросетиНовости #ТехнологииБудущего
❤2👍2
Утечка системного промпта Claude: 25 тысяч токенов секретных инструкций 🕵️♂️
Похоже, что в сеть утекла системная инструкция для ИИ-помощника Claude — целых 25 тысяч токенов корпоративных секретов. Правда, подлинность документа пока под вопросом, так что не спешите верить всему, что видите 🤔
Что внутри этого "секретного" документа? 📝
Если верить информации из репозитория, системный промпт Claude разделен на несколько основных разделов:
• Инструкции по цитированию — подробные правила о том, как правильно оформлять ссылки на источники (видимо, чтобы Claude выглядел умнее, чем есть на самом деле :) 🧠💭
• Информация об артефактах — когда использовать код, HTML, SVG и прочие технические штуки, которые делают ответы более "впечатляющими" ✨
• Инструкции по поиску — от простых запросов до "глубоких исследований" (хотя мы все знаем, что ИИ просто "гуглит" за нас) 🔍😏
• Стили и предпочтения — как подстраиваться под пользователя (читай: как создавать иллюзию, что ИИ действительно вас понимает) 🎭
• Функции и инструменты — список всех доступных инструментов с параметрами API 🛠
• Профиль Claude — версии модели, этические ограничения и прочие корпоративные формальности 📋
• Временные и юридические примечания — напоминание о том, что знания ограничены октябрем 2024 года ⏰⚖️
Интересно, что компания Anthropic, создавшая Claude, пока никак не прокомментировала ситуацию. Возможно, они слишком заняты написанием нового системного промпта на 50 тысяч токенов? 🤪📚
#ИИ #Claude #Утечки #Anthropic #security
Похоже, что в сеть утекла системная инструкция для ИИ-помощника Claude — целых 25 тысяч токенов корпоративных секретов. Правда, подлинность документа пока под вопросом, так что не спешите верить всему, что видите 🤔
Что внутри этого "секретного" документа? 📝
Если верить информации из репозитория, системный промпт Claude разделен на несколько основных разделов:
• Инструкции по цитированию — подробные правила о том, как правильно оформлять ссылки на источники (видимо, чтобы Claude выглядел умнее, чем есть на самом деле :) 🧠💭
• Информация об артефактах — когда использовать код, HTML, SVG и прочие технические штуки, которые делают ответы более "впечатляющими" ✨
• Инструкции по поиску — от простых запросов до "глубоких исследований" (хотя мы все знаем, что ИИ просто "гуглит" за нас) 🔍😏
• Стили и предпочтения — как подстраиваться под пользователя (читай: как создавать иллюзию, что ИИ действительно вас понимает) 🎭
• Функции и инструменты — список всех доступных инструментов с параметрами API 🛠
• Профиль Claude — версии модели, этические ограничения и прочие корпоративные формальности 📋
• Временные и юридические примечания — напоминание о том, что знания ограничены октябрем 2024 года ⏰⚖️
Интересно, что компания Anthropic, создавшая Claude, пока никак не прокомментировала ситуацию. Возможно, они слишком заняты написанием нового системного промпта на 50 тысяч токенов? 🤪📚
#ИИ #Claude #Утечки #Anthropic #security
GitHub
GitHub - asgeirtj/system_prompts_leaks: Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini
Collection of extracted System Prompts from popular chatbots like ChatGPT, Claude & Gemini - asgeirtj/system_prompts_leaks
❤3👍1
Недавно наткнулся на интересную заметку на редите по поводу безопасной работы с хостинговыми MCP-серверами. Почему, лучше использовать их, а не локальные серверы писал чуть ранее. Однако, и при использовании хостинговых MCP-сервисов тоже нужно соблюдать некоторые правила, на чем и делается акцент в данной заметке. Ниже привожу ее слегка вольный перевод на русский язык.
URL-адреса хостинговых MCP-серверов следует рассматривать как секреты 🔐
Краткая версия: нынешний ажиотаж вокруг хостинговых MCP-серверов сопровождается некоторыми сомнительными практиками в области безопасности. ⚠️ Черновик следующей редакции протокола MCP стремится решить эту проблему с поддержкой авторизации. А пока... будьте осторожны с этими URL-адресами хостинговых MCP-серверов! 🚨
Недавно я решил взглянуть на Composio 🧐, который привлек некоторое внимание в последние дни. Это платформа, которая размещает и запускает MCP-серверы, предоставляя конечную точку на основе Server Sent Events, к которой могут обращаться MCP-совместимые клиенты для получения данных.
Как это работает:
• Composio позволяет выбрать интеграцию (например, с Notion 📝)
• Вы аутентифицируетесь с помощью OAuth2
• Composio запускает хостинговый MCP-сервер в бессерверном контейнере
• Сервер использует ваш OAuth-токен для взаимодействия с API
• Вы получаете URL вашего сервера:
Проблема безопасности 🛡
Главная проблема:
• Этот URL фактически является API-ключом с доступом ко всем вашим данным 😱
• Большинство людей бездумно копируют эти URL в разные клиенты
• Никто не знает, как эти клиенты хранят то, что должно быть секретом 🤦♂️
• API-ключи и секреты должны храниться только в переменных окружения или безопасных хранилищах
Мое примечание: я сам, недавно проводя занятия по созданию MCP-серверов, спокойно шарил эти url, потом пришлось все удалять и пересоздавать заново.
Что делать:
• Разработчики MCP осведомлены об этой проблеме 👍
• В спецификации есть раздел "Third party authorization flow"
• Разработчикам сервисов вроде Composio следует реализовать эти меры безопасности
• А пока — будьте осторожны с URL-адресами хостинговых MCP-серверов! 🔒
Не разбрасывайтесь URL-адресами как конфетти на параде технологических новинок. 🎭
#MCP #Безопасность #Composio #ИскусственныйИнтеллект #security
URL-адреса хостинговых MCP-серверов следует рассматривать как секреты 🔐
Краткая версия: нынешний ажиотаж вокруг хостинговых MCP-серверов сопровождается некоторыми сомнительными практиками в области безопасности. ⚠️ Черновик следующей редакции протокола MCP стремится решить эту проблему с поддержкой авторизации. А пока... будьте осторожны с этими URL-адресами хостинговых MCP-серверов! 🚨
Недавно я решил взглянуть на Composio 🧐, который привлек некоторое внимание в последние дни. Это платформа, которая размещает и запускает MCP-серверы, предоставляя конечную точку на основе Server Sent Events, к которой могут обращаться MCP-совместимые клиенты для получения данных.
Как это работает:
• Composio позволяет выбрать интеграцию (например, с Notion 📝)
• Вы аутентифицируетесь с помощью OAuth2
• Composio запускает хостинговый MCP-сервер в бессерверном контейнере
• Сервер использует ваш OAuth-токен для взаимодействия с API
• Вы получаете URL вашего сервера:
https://mcp.composio.dev/notion/blah-blah-blah-uuid123
Проблема безопасности 🛡
Главная проблема:
• Этот URL фактически является API-ключом с доступом ко всем вашим данным 😱
• Большинство людей бездумно копируют эти URL в разные клиенты
• Никто не знает, как эти клиенты хранят то, что должно быть секретом 🤦♂️
• API-ключи и секреты должны храниться только в переменных окружения или безопасных хранилищах
Мое примечание: я сам, недавно проводя занятия по созданию MCP-серверов, спокойно шарил эти url, потом пришлось все удалять и пересоздавать заново.
Что делать:
• Разработчики MCP осведомлены об этой проблеме 👍
• В спецификации есть раздел "Third party authorization flow"
• Разработчикам сервисов вроде Composio следует реализовать эти меры безопасности
• А пока — будьте осторожны с URL-адресами хостинговых MCP-серверов! 🔒
Не разбрасывайтесь URL-адресами как конфетти на параде технологических новинок. 🎭
#MCP #Безопасность #Composio #ИскусственныйИнтеллект #security
Reddit
From the mcp community on Reddit
Explore this post and more from the mcp community
👍3❤1🔥1
Rosebud AI Gamemaker: Создавайте игры силой мысли (ну, почти) 🎮✨
Всем привет!
Сегодня расскажу о платформе Rosebud AI Gamemaker — очередном чуде современных технологий, которое обещает превратить любого в геймдизайнера. Без кода, без опыта, просто описав свою идею текстом. Звучит как сказка? Давайте разберемся.
Как это работает? 🤔
Механика проста до безобразия:
• Вы описываете игру текстом ✍️ (есть готовые шаблоны промптов!)
• ИИ анализирует ваш текст 🧠
• Платформа генерирует код и ассеты 💻
• Вы получаете готовую игру 🎉
Да, всё настолько просто. По крайней мере, в теории.
Если вы знакомы с lovable.dev (недавно писал про него здесь), который позволяет создавать веб-приложения с помощью ИИ, то Rosebud — это примерно то же самое (интерфейс сильно похож), только для игр. Тот же принцип "опиши и получи", но вместо сайтов — игровые миры.
Для кого это? 👥
Rosebud AI Gamemaker позиционируется как инструмент для:
• Геймдизайнеров, которым лень писать код для прототипов 🎨
• Начинающих разработчиков без навыков программирования 🔰
• Преподавателей, обучающих основам геймдева 👨🏫
• Студентов, которые хотят создавать игры, не тратя годы на обучение 👩🎓
• Обычных людей, которым просто хочется воплотить свою идею 💭
Что в нём особенного? 🌟
• Не требует навыков программирования (наконец-то!) 🙌
• Генерирует игры в реальном времени ⏱️
• Поддерживает экспорт на разные платформы 📱💻
• Имеет бесплатные и платные планы 💰 (см. скриншот)
• Интегрируется с GitHub и другими инструментами 🔄
В отличие от lovable.dev, который фокусируется на создании функциональных веб-приложений, Rosebud погружается в более сложный мир игровой механики, графики и интерактивности.
На lovable.dev тоже можно сделать веб-игру (приводил пример в комментариях), но времени и навыков от вайб-кодера потребуется значительно больше, а качество игры, которая получится у обычного человека (например, у меня) в случае с lovable.dev будет хуже, чем если решать ту же задачу на rosebud.ai
Частые вопросы ❓
Насколько хорошо ИИ понимает описания? ИИ обучен на огромном количестве игровых данных. Работает лучше с четкими описаниями, хотя не стоит ожидать, что он создаст вам новую GTA или Cyberpunk. 🎯
Нужны ли технические знания? По заверениям разработчиков — абсолютно никаких. Описал идею текстом — и готово. Хотя, как мы знаем, в реальности всё обычно сложнее. 🤷♂️
Какие платформы поддерживаются? Unity, Unreal, HTML5, iOS, Android и другие. Выбор есть. 📊
Есть ли ограничения на сложность игр? Конечно есть. На данном этапе развития науки и техники ИИ не всесилен. Лучше всего работает с простыми и средней сложности играми. Так что ваш личный Elden Ring придется отложить. 😅 А вот примеров готовых игр на этой платформе - хоть отбавляй! (см. скриншот) И самое классное, что можно любой из примеров "взять в работу" и затюнить под себя! Например, взять готовый шутер, загрузить его в rosebuild.ai в режиме Remix и сделать свою версию - добавить монстров нужной конструкции, поменять оружие или даже логику игры.
В целом, Rosebud AI Gamemaker — интересный инструмент, который может помочь воплотить простые игровые идеи без погружения в дебри программирования. Но, как и с любой "магической" технологией, стоит держать ожидания в разумных пределах. 🧙♂️
А вы бы попробовали создать игру с помощью ИИ? Делитесь в комментариях! 👇
#ai #dev #games #РазработкаИгр #БезКодинга #ИскусственныйИнтеллект #GameDev
Всем привет!
Сегодня расскажу о платформе Rosebud AI Gamemaker — очередном чуде современных технологий, которое обещает превратить любого в геймдизайнера. Без кода, без опыта, просто описав свою идею текстом. Звучит как сказка? Давайте разберемся.
Как это работает? 🤔
Механика проста до безобразия:
• Вы описываете игру текстом ✍️ (есть готовые шаблоны промптов!)
• ИИ анализирует ваш текст 🧠
• Платформа генерирует код и ассеты 💻
• Вы получаете готовую игру 🎉
Да, всё настолько просто. По крайней мере, в теории.
Если вы знакомы с lovable.dev (недавно писал про него здесь), который позволяет создавать веб-приложения с помощью ИИ, то Rosebud — это примерно то же самое (интерфейс сильно похож), только для игр. Тот же принцип "опиши и получи", но вместо сайтов — игровые миры.
Для кого это? 👥
Rosebud AI Gamemaker позиционируется как инструмент для:
• Геймдизайнеров, которым лень писать код для прототипов 🎨
• Начинающих разработчиков без навыков программирования 🔰
• Преподавателей, обучающих основам геймдева 👨🏫
• Студентов, которые хотят создавать игры, не тратя годы на обучение 👩🎓
• Обычных людей, которым просто хочется воплотить свою идею 💭
Что в нём особенного? 🌟
• Не требует навыков программирования (наконец-то!) 🙌
• Генерирует игры в реальном времени ⏱️
• Поддерживает экспорт на разные платформы 📱💻
• Имеет бесплатные и платные планы 💰 (см. скриншот)
• Интегрируется с GitHub и другими инструментами 🔄
В отличие от lovable.dev, который фокусируется на создании функциональных веб-приложений, Rosebud погружается в более сложный мир игровой механики, графики и интерактивности.
На lovable.dev тоже можно сделать веб-игру (приводил пример в комментариях), но времени и навыков от вайб-кодера потребуется значительно больше, а качество игры, которая получится у обычного человека (например, у меня) в случае с lovable.dev будет хуже, чем если решать ту же задачу на rosebud.ai
Частые вопросы ❓
Насколько хорошо ИИ понимает описания? ИИ обучен на огромном количестве игровых данных. Работает лучше с четкими описаниями, хотя не стоит ожидать, что он создаст вам новую GTA или Cyberpunk. 🎯
Нужны ли технические знания? По заверениям разработчиков — абсолютно никаких. Описал идею текстом — и готово. Хотя, как мы знаем, в реальности всё обычно сложнее. 🤷♂️
Какие платформы поддерживаются? Unity, Unreal, HTML5, iOS, Android и другие. Выбор есть. 📊
Есть ли ограничения на сложность игр? Конечно есть. На данном этапе развития науки и техники ИИ не всесилен. Лучше всего работает с простыми и средней сложности играми. Так что ваш личный Elden Ring придется отложить. 😅 А вот примеров готовых игр на этой платформе - хоть отбавляй! (см. скриншот) И самое классное, что можно любой из примеров "взять в работу" и затюнить под себя! Например, взять готовый шутер, загрузить его в rosebuild.ai в режиме Remix и сделать свою версию - добавить монстров нужной конструкции, поменять оружие или даже логику игры.
В целом, Rosebud AI Gamemaker — интересный инструмент, который может помочь воплотить простые игровые идеи без погружения в дебри программирования. Но, как и с любой "магической" технологией, стоит держать ожидания в разумных пределах. 🧙♂️
А вы бы попробовали создать игру с помощью ИИ? Делитесь в комментариях! 👇
#ai #dev #games #РазработкаИгр #БезКодинга #ИскусственныйИнтеллект #GameDev
🔥6❤4
Bolt.DIY 1.0: Что нового в обновлении? 🚀
Команда Bolt.DIY (это опенсорсный эквивалент bolt.new, уже писал про него ранее, очень простой и удобный AI-кодер, пожалуй, самый первый из веб-кодеров, кто добился значительного роста числа своих пользователей в рекордно короткие сроки, все еще один из лидеров обзора инструментов для Vibe Coding) наконец выпустила версию 1.0, и, надо признать, обновление получилось довольно внушительным. Давайте разберемся, что там интересного, без лишнего восторга и маркетинговой шелухи.
Новые функции и улучшения ✨
Улучшенные системные промпты 🤖 В настройках появилась библиотека промптов с тремя вариантами: стандартный, оптимизированный и новый "fine-tuned". Последний обещает более строгие стандарты, меньше ошибок и лучшее планирование. Правда, по умолчанию всё равно стоит базовый вариант — видимо, чтобы мы сами могли оценить разницу.
Шаблоны и производительность ⚡️ Добавили новые стартовые шаблоны: Expo (для мобильной разработки), Astro и пару вариантов с ShadCN. Установка шаблонов теперь работает быстрее, и, что важно, больше нет проблем с rate limit, которые раньше случались с завидной регулярностью.
Улучшения интерфейса 💅 Появилась кнопка "перейти к последнему сообщению" — мелочь, а приятно. Исправили странное поведение скроллбара в чате, теперь он отдельный и не дублируется с основным. Стриминг сообщений стал плавнее.
Редактор кода 👨💻 В редакторе теперь можно блокировать файлы, чтобы LLM не перезаписывал их (полезно для .env файлов). Добавили поиск по всем файлам с отображением всех вхождений.
Node.js 20 🔄 Обновили Node.js до версии 20 (было 18). Это должно положительно сказаться на производительности, хотя на практике разница не всегда заметна.
Интеграции 🔌
• Supabase: Теперь можно подключить базу данных прямо из интерфейса.
• Vercel: Добавили возможность деплоить приложения на Vercel (как раньше с Netlify). Интеграции с Cloudflare пока нет, но, возможно, появится в следующих версиях.
Десктопное приложение 🖥 Теперь Bolt.DIY можно установить как нативное приложение на Windows, Mac и Linux. Правда, приложения пока не подписаны, так что придется игнорировать предупреждения безопасности при установке.
К слову, dmg-образ для mac у меня не запустился - оказался corrupted.
Expo для мобильной разработки 📱 Наконец-то добавили интеграцию с Expo, что позволяет разрабатывать мобильные приложения. Сканируете QR-код в Expo Go на телефоне — и сразу видите результат. Функция, которая давно была в других AI-инструментах, наконец добралась и до Bolt.DIY.
Как обновиться 🔄
Если вы используете локальную версию:
1) В терминале выполните
2) Установите зависимости:
3) Запустите:
Для существующего деплоя на Cloudflare достаточно синхронизировать форк через кнопку "Sync fork".
Важно ⚠️: Очистите кеш браузера после обновления (Application → Storage → Clear site data), иначе могут возникнуть проблемы с интерфейсом. Учтите, что это удалит ваши API-ключи, если они не сохранены в
В целом, обновление выглядит солидно. Разработчики явно поработали над стабильностью и добавили несколько полезных функций. Хотя до идеала еще далеко (где мой деплой приложений на Cloudflare? 🤔), прогресс очевиден. Посмотрим, что они приготовят в следующих версиях.
#bolt #opensource #news #update
Команда Bolt.DIY (это опенсорсный эквивалент bolt.new, уже писал про него ранее, очень простой и удобный AI-кодер, пожалуй, самый первый из веб-кодеров, кто добился значительного роста числа своих пользователей в рекордно короткие сроки, все еще один из лидеров обзора инструментов для Vibe Coding) наконец выпустила версию 1.0, и, надо признать, обновление получилось довольно внушительным. Давайте разберемся, что там интересного, без лишнего восторга и маркетинговой шелухи.
Новые функции и улучшения ✨
Улучшенные системные промпты 🤖 В настройках появилась библиотека промптов с тремя вариантами: стандартный, оптимизированный и новый "fine-tuned". Последний обещает более строгие стандарты, меньше ошибок и лучшее планирование. Правда, по умолчанию всё равно стоит базовый вариант — видимо, чтобы мы сами могли оценить разницу.
Шаблоны и производительность ⚡️ Добавили новые стартовые шаблоны: Expo (для мобильной разработки), Astro и пару вариантов с ShadCN. Установка шаблонов теперь работает быстрее, и, что важно, больше нет проблем с rate limit, которые раньше случались с завидной регулярностью.
Улучшения интерфейса 💅 Появилась кнопка "перейти к последнему сообщению" — мелочь, а приятно. Исправили странное поведение скроллбара в чате, теперь он отдельный и не дублируется с основным. Стриминг сообщений стал плавнее.
Редактор кода 👨💻 В редакторе теперь можно блокировать файлы, чтобы LLM не перезаписывал их (полезно для .env файлов). Добавили поиск по всем файлам с отображением всех вхождений.
Node.js 20 🔄 Обновили Node.js до версии 20 (было 18). Это должно положительно сказаться на производительности, хотя на практике разница не всегда заметна.
Интеграции 🔌
• Supabase: Теперь можно подключить базу данных прямо из интерфейса.
• Vercel: Добавили возможность деплоить приложения на Vercel (как раньше с Netlify). Интеграции с Cloudflare пока нет, но, возможно, появится в следующих версиях.
Десктопное приложение 🖥 Теперь Bolt.DIY можно установить как нативное приложение на Windows, Mac и Linux. Правда, приложения пока не подписаны, так что придется игнорировать предупреждения безопасности при установке.
К слову, dmg-образ для mac у меня не запустился - оказался corrupted.
Expo для мобильной разработки 📱 Наконец-то добавили интеграцию с Expo, что позволяет разрабатывать мобильные приложения. Сканируете QR-код в Expo Go на телефоне — и сразу видите результат. Функция, которая давно была в других AI-инструментах, наконец добралась и до Bolt.DIY.
Как обновиться 🔄
Если вы используете локальную версию:
1) В терминале выполните
git pull
2) Установите зависимости:
pnpm install
3) Запустите:
pnpm run dev
Для существующего деплоя на Cloudflare достаточно синхронизировать форк через кнопку "Sync fork".
Важно ⚠️: Очистите кеш браузера после обновления (Application → Storage → Clear site data), иначе могут возникнуть проблемы с интерфейсом. Учтите, что это удалит ваши API-ключи, если они не сохранены в
.env
файле.В целом, обновление выглядит солидно. Разработчики явно поработали над стабильностью и добавили несколько полезных функций. Хотя до идеала еще далеко (где мой деплой приложений на Cloudflare? 🤔), прогресс очевиден. Посмотрим, что они приготовят в следующих версиях.
#bolt #opensource #news #update
❤5🔥3
Обновления Windsurf: новые возможности и бесплатный тариф 🚀
Что нового в Wave 8?
Windsurf на майских праздниках выкатил обновление Wave 8, и, хотя компания пока официально не объявила о поглощении OpenAI (но слухи ходят, что их договорились купить за 3 млрд долларов 🤫), новые функции заслуживают внимания.
📊 Для корпоративных пользователей:
• Интеграция с Google Docs
• Возможность делиться "беседами" внутри команды
• Обновленная аналитика для администраторов
• Windsurf Reviews — бот для GitHub, проверяющий pull-запросы (только для командного тарифа, конечно же 💸)
🛠 Для обычных смертных:
• Custom Workflows — создание правил и шагов в markdown-файле, которые можно вызвать через slash-команды. По сути, простые инструкции для ИИ, чтобы он не терялся в ваших запросах
• Файловые правила — теперь работают как в Cursor или Cline/Roocode: создаете папку windsurf/rules и складываете туда правила
• Одновременная работа нескольких агентов Cascade — наконец-то можно не ждать, пока одна задача завершится, чтобы начать другую
• Плагины Cascade — обновленный интерфейс MCP с графическим управлением (прощай, редактирование файлов вручную - см. скриншот). Ждем когда и в Cursor наконец-то появится нормальный MCP Marketplace (в Cline, Trae, Windsurf - уже есть)
🖥 Улучшения интерфейса:
• Кнопка "продолжить", когда ИИ ждет подтверждения
• Переработанный селектор моделей с поиском
• Фильтрация истории разговоров по рабочим пространствам
💰 Бесплатный тариф стал щедрее:
• Доступ к премиум-моделям
• 25 кредитов вместо 5 (это примерно 100 запросов к GPT-4.1 и Mini)
• Неограниченное использование Cascade в режиме написания
• Неограниченные быстрые автодополнения
• Один деплой в день
Выглядит неплохо, особенно для бесплатного тарифа. Хотя, конечно, самые сочные функции всё равно остаются за платной версией — классика жанра. 🙃
Если вы пользуетесь Windsurf, обновитесь до последней версии, чтобы получить доступ ко всем новшествам. А если нет — возможно, сейчас самое время попробовать.
#Windsurf #ИИ #Обновления #update
Что нового в Wave 8?
Windsurf на майских праздниках выкатил обновление Wave 8, и, хотя компания пока официально не объявила о поглощении OpenAI (но слухи ходят, что их договорились купить за 3 млрд долларов 🤫), новые функции заслуживают внимания.
📊 Для корпоративных пользователей:
• Интеграция с Google Docs
• Возможность делиться "беседами" внутри команды
• Обновленная аналитика для администраторов
• Windsurf Reviews — бот для GitHub, проверяющий pull-запросы (только для командного тарифа, конечно же 💸)
🛠 Для обычных смертных:
• Custom Workflows — создание правил и шагов в markdown-файле, которые можно вызвать через slash-команды. По сути, простые инструкции для ИИ, чтобы он не терялся в ваших запросах
• Файловые правила — теперь работают как в Cursor или Cline/Roocode: создаете папку windsurf/rules и складываете туда правила
• Одновременная работа нескольких агентов Cascade — наконец-то можно не ждать, пока одна задача завершится, чтобы начать другую
• Плагины Cascade — обновленный интерфейс MCP с графическим управлением (прощай, редактирование файлов вручную - см. скриншот). Ждем когда и в Cursor наконец-то появится нормальный MCP Marketplace (в Cline, Trae, Windsurf - уже есть)
🖥 Улучшения интерфейса:
• Кнопка "продолжить", когда ИИ ждет подтверждения
• Переработанный селектор моделей с поиском
• Фильтрация истории разговоров по рабочим пространствам
💰 Бесплатный тариф стал щедрее:
• Доступ к премиум-моделям
• 25 кредитов вместо 5 (это примерно 100 запросов к GPT-4.1 и Mini)
• Неограниченное использование Cascade в режиме написания
• Неограниченные быстрые автодополнения
• Один деплой в день
Выглядит неплохо, особенно для бесплатного тарифа. Хотя, конечно, самые сочные функции всё равно остаются за платной версией — классика жанра. 🙃
Если вы пользуетесь Windsurf, обновитесь до последней версии, чтобы получить доступ ко всем новшествам. А если нет — возможно, сейчас самое время попробовать.
#Windsurf #ИИ #Обновления #update
👍3🔥3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
DeerFlow: Новый фреймворк для глубоких исследований от ByteDance
ByteDance, компания-создатель TikTok, выпустила новый опенсорсный инструмент под названием DeerFlow. Это фреймворк для проведения глубоких исследований, который уже набрал почти 5000 звезд на GitHub всего за несколько дней. Неплохо для очередного AI-проекта, не так ли? 🤔
Что такое DeerFlow?
DeerFlow представляет собой фреймворк для систематических глубоких исследований с использованием координированных LangGraph агентов. По сути, это еще один AI-ассистент, но с открытым исходным кодом и возможностью запуска локально.
Основные возможности:
• Комплексный анализ литературы
• Синтез данных
• Структурированное извлечение знаний
• Интеграция с веб-поиском и Python
Как это работает?
Система использует языковые модели (например, Qwen 2.5 14B) и может работать с различными инструментами:
- Веб-поиск (DuckDuckGo, Tavily, Brave Search)
- Веб-краулинг
- Выполнение Python-кода
- Генерация отчетов и даже подкастов 🎙
Интерфейс выглядит довольно приятно (см. демо), а процесс исследования отображается в реальном времени с активностями, выводами и ссылками на источники. Всё как у "больших мальчиков", только бесплатно.
Стоит ли пробовать?
Если вы устали от платных API и хотите иметь собственный инструмент для исследований — возможно. Установка не самая простая (требуется Node.js 22+, несколько зависимостей и настройка конфигурации), но для энтузиастов это не проблема.
Конечно, не стоит ожидать, что он заменит ChatGPT или Claude, но для специфических исследовательских задач может оказаться полезным. По крайней мере, не нужно платить за каждый токен. 💸
Источники
1) Официальный сайт проекта: https://deerflow.tech/
2) Репозиторий проекта: github.com/ByteDance/DeerFlow
3) Подробная документация со схемами по репозиторию здесь
#AI #opensource #ByteDance #deerflow #ИИ_инструменты #deepsearch #agents
ByteDance, компания-создатель TikTok, выпустила новый опенсорсный инструмент под названием DeerFlow. Это фреймворк для проведения глубоких исследований, который уже набрал почти 5000 звезд на GitHub всего за несколько дней. Неплохо для очередного AI-проекта, не так ли? 🤔
Что такое DeerFlow?
DeerFlow представляет собой фреймворк для систематических глубоких исследований с использованием координированных LangGraph агентов. По сути, это еще один AI-ассистент, но с открытым исходным кодом и возможностью запуска локально.
Основные возможности:
• Комплексный анализ литературы
• Синтез данных
• Структурированное извлечение знаний
• Интеграция с веб-поиском и Python
Как это работает?
Система использует языковые модели (например, Qwen 2.5 14B) и может работать с различными инструментами:
- Веб-поиск (DuckDuckGo, Tavily, Brave Search)
- Веб-краулинг
- Выполнение Python-кода
- Генерация отчетов и даже подкастов 🎙
Интерфейс выглядит довольно приятно (см. демо), а процесс исследования отображается в реальном времени с активностями, выводами и ссылками на источники. Всё как у "больших мальчиков", только бесплатно.
Стоит ли пробовать?
Если вы устали от платных API и хотите иметь собственный инструмент для исследований — возможно. Установка не самая простая (требуется Node.js 22+, несколько зависимостей и настройка конфигурации), но для энтузиастов это не проблема.
Конечно, не стоит ожидать, что он заменит ChatGPT или Claude, но для специфических исследовательских задач может оказаться полезным. По крайней мере, не нужно платить за каждый токен. 💸
Источники
1) Официальный сайт проекта: https://deerflow.tech/
2) Репозиторий проекта: github.com/ByteDance/DeerFlow
3) Подробная документация со схемами по репозиторию здесь
#AI #opensource #ByteDance #deerflow #ИИ_инструменты #deepsearch #agents
🔥4❤3👍3
Taskmaster 2.0: Теперь с поддержкой всех популярных AI-моделей 🧠
Помните Taskmaster ? (чуть выше писал о нем) Тот самый менеджер задач для AI-кодинга, который раньше работал только с ограниченным набором моделей? Что ж, похоже, разработчики услышали пользователей и выкатили обновление, которое действительно стоит внимания.
Что нового? 🆕
• Поддержка 6 AI-провайдеров:
• Настройка трёх ролей для моделей:
1) Основная модель (для кодинга)
2) Исследовательская модель (для поиска информации)
3) Запасная модель (на случай, если основная решит "уйти на перекур")
• Официальная поддержка .roo-правил - важно для тех кто использует RooCode и хочет вместо RooCode Orchestrator (бывший Boomerang Tasks - чуть выше писал о нем) использовать TaskMaster
• Улучшенный парсинг документов с требованиями проекта (PRD) — теперь AI лучше понимает, что вы от него хотите.
• Новые CLI-команды для интерактивной настройки моделей — для тех, кто любит общаться с терминалом больше, чем с людьми :)
Как это работает? 🛠
Если вы используете MCP-сервер, то обновление произойдёт автоматически. Для CLI-версии нужно выполнить:
или
После установки запустите:
Система предложит выбрать модели для каждой роли. Можно выбрать
Что это значит для нас? 🤔
Теперь Taskmaster стал практически бесплатным инструментом, если настроить его на использование
Однако, есть и ложка дёгтя — после первой итерации задач Taskmaster всё ещё не очень хорошо анализирует созданные файлы проекта для генерации новых задач. Так что для сложных проектов придётся немного помогать ему вручную.
В целом, обновление действительно полезное. Если вы занимаетесь разработкой с помощью AI, стоит попробовать.
Источник здесь
Полный список новых фич для версии v0.13.0 здесь
#AI #разработка #Taskmaster #инструменты_разработчика
Помните Taskmaster ? (чуть выше писал о нем) Тот самый менеджер задач для AI-кодинга, который раньше работал только с ограниченным набором моделей? Что ж, похоже, разработчики услышали пользователей и выкатили обновление, которое действительно стоит внимания.
Что нового? 🆕
• Поддержка 6 AI-провайдеров:
OpenAI
, Gemini
, XAI
, Open Router
, Anthropic
и Perplexity.
Наконец-то можно не продавать почку ради использования только Claude :)• Настройка трёх ролей для моделей:
1) Основная модель (для кодинга)
2) Исследовательская модель (для поиска информации)
3) Запасная модель (на случай, если основная решит "уйти на перекур")
• Официальная поддержка .roo-правил - важно для тех кто использует RooCode и хочет вместо RooCode Orchestrator (бывший Boomerang Tasks - чуть выше писал о нем) использовать TaskMaster
• Улучшенный парсинг документов с требованиями проекта (PRD) — теперь AI лучше понимает, что вы от него хотите.
• Новые CLI-команды для интерактивной настройки моделей — для тех, кто любит общаться с терминалом больше, чем с людьми :)
Как это работает? 🛠
Если вы используете MCP-сервер, то обновление произойдёт автоматически. Для CLI-версии нужно выполнить:
npm install -g task-master-ai
или
npm update task-master-ai
После установки запустите:
task-master init
Система предложит выбрать модели для каждой роли. Можно выбрать
Gemini 2.5 Flash
для основной работы (экономия денег 💰 - хотя для сложных проектов, я бы использовал платные модели), Perplexity
для исследований и что-то ещё для запасного варианта.Что это значит для нас? 🤔
Теперь Taskmaster стал практически бесплатным инструментом, если настроить его на использование
Gemini 2.5 Flash
Однако, есть и ложка дёгтя — после первой итерации задач Taskmaster всё ещё не очень хорошо анализирует созданные файлы проекта для генерации новых задач. Так что для сложных проектов придётся немного помогать ему вручную.
В целом, обновление действительно полезное. Если вы занимаетесь разработкой с помощью AI, стоит попробовать.
Источник здесь
Полный список новых фич для версии v0.13.0 здесь
#AI #разработка #Taskmaster #инструменты_разработчика
❤3🔥1
OpenAI представила HealthBench: новый стандарт для оценки медицинских AI-систем 🩺🤖
OpenAI выпустила HealthBench — новый бенчмарк, созданный совместно с 262 врачами для оценки эффективности AI-систем в медицинских беседах. Похоже, теперь у нас есть "официальный термометр" для измерения температуры искусственного интеллекта в медицине.
Что нужно знать 📋
• Бенчмарк тестирует модели по различным темам (скорая медицинская помощь, глобальное здравоохранение и т.д.) и поведенческим характеристикам (точность, качество коммуникации).
• Новые модели показывают значительно лучшие результаты — o3 от OpenAI набрала 60%, в то время как GPT-3.5 Turbo всего 16%. Прогресс налицо, хотя до идеала еще далеко.
• Интересно, что даже маленькие модели стали гораздо способнее — GPT-4.1 Nano превосходит старые варианты, при этом обходясь в 25 раз дешевле. Вот такой интересный прогресс в экономии на здоровье :)
• OpenAI сделала открытым исходный код как самих оценок, так и тестового набора данных, включающего 5000 реалистичных многоэтапных медицинских диалогов между моделями и пользователями.
Почему это важно 🤔
Существует множество примеров того, как ИИ может серьезно улучшить работу в медицинской сфере. Наличие проверенных врачами бенчмарков — важный шаг для измерения производительности каждой модели в медицинском контексте.
Конечно, одно дело — хорошо отвечать на тесты, и совсем другое — не навредить реальным пациентам. Но, по крайней мере, теперь у нас есть "линейка", которой можно измерить, насколько наш цифровой доктор готов к приему.
#ИИвМедицине #OpenAI #HealthBench #ИскусственныйИнтеллект #ЦифровоеЗдравоохранение
OpenAI выпустила HealthBench — новый бенчмарк, созданный совместно с 262 врачами для оценки эффективности AI-систем в медицинских беседах. Похоже, теперь у нас есть "официальный термометр" для измерения температуры искусственного интеллекта в медицине.
Что нужно знать 📋
• Бенчмарк тестирует модели по различным темам (скорая медицинская помощь, глобальное здравоохранение и т.д.) и поведенческим характеристикам (точность, качество коммуникации).
• Новые модели показывают значительно лучшие результаты — o3 от OpenAI набрала 60%, в то время как GPT-3.5 Turbo всего 16%. Прогресс налицо, хотя до идеала еще далеко.
• Интересно, что даже маленькие модели стали гораздо способнее — GPT-4.1 Nano превосходит старые варианты, при этом обходясь в 25 раз дешевле. Вот такой интересный прогресс в экономии на здоровье :)
• OpenAI сделала открытым исходный код как самих оценок, так и тестового набора данных, включающего 5000 реалистичных многоэтапных медицинских диалогов между моделями и пользователями.
Почему это важно 🤔
Существует множество примеров того, как ИИ может серьезно улучшить работу в медицинской сфере. Наличие проверенных врачами бенчмарков — важный шаг для измерения производительности каждой модели в медицинском контексте.
Конечно, одно дело — хорошо отвечать на тесты, и совсем другое — не навредить реальным пациентам. Но, по крайней мере, теперь у нас есть "линейка", которой можно измерить, насколько наш цифровой доктор готов к приему.
#ИИвМедицине #OpenAI #HealthBench #ИскусственныйИнтеллект #ЦифровоеЗдравоохранение
❤3👍1
LangGraph Platform теперь общедоступен: разворачивайте и управляйте агентами без головной боли 🚀
Компания LangChain объявила о выходе LangGraph Platform из беты в общий доступ. Это специализированная инфраструктура для развертывания и масштабирования долгоиграющих агентов с сохранением состояния. С момента запуска беты почти 400 компаний уже использовали платформу для вывода своих агентов в продакшн.
Развертывание агентов — это следующий сложный барьер для создания надежных AI-решений, и LangGraph Platform значительно упрощает этот процесс благодаря:
• Развертыванию в один клик — запуск в продакшн за считанные минуты
• 30 API-эндпоинтам для создания пользовательских интерфейсов под любые сценарии взаимодействия
• Горизонтальному масштабированию для обработки нерегулярного трафика
• Слою персистентности для поддержки памяти, истории разговоров и асинхронного взаимодействия
• Встроенной среде разработки LangGraph Studio для отладки и итерации
Проблемы инфраструктуры для агентов — и как LangGraph Platform их решает 🛠
Команда LangChain работает с множеством компаний, создающих агентов (Klarna, Lovable, Replit, LinkedIn и др.), и выявила несколько уникальных проблем при запуске агентов в продакшн:
1️⃣ Многие агенты работают долго. Поисково-исследовательские агенты или агенты, работающие по расписанию, могут выполнять задачи продолжительное время. Такие процессы подвержены сбоям, поэтому им нужна надежная инфраструктура.
2️⃣ Многие агенты полагаются на асинхронное взаимодействие. Агентам нужно реагировать на непредсказуемые события — будь то взаимодействие с человеком или ожидание ответа от другого агента.
3️⃣ Нерегулярная нагрузка. Горизонтальное масштабирование для обработки скачков трафика — задача не из легких, особенно для задач, выполняемых по расписанию.
LangGraph Platform позволяет разработчикам сосредоточиться на архитектуре агента, а не беспокоиться об инфраструктуре. Достаточно одного клика для развертывания приложений прямо в консоли управления.
Ускорение разработки с визуальными рабочими процессами 📊
Создание хороших агентов требует быстрой обратной связи. LangGraph Studio (включенный в LangGraph Platform) помогает разработчикам визуализировать и отлаживать рабочие процессы агентов в реальном времени, с подробной видимостью траекторий агентов и поддержкой ветвления логики.
Вы можете тестировать граничные случаи, проверять состояние памяти на каждом шаге и быстро определять, где что-то идет не так. Встроенные контрольные точки и модули памяти позволяют перематывать, редактировать и перезапускать точки отказа без лишних хлопот.
Централизованное управление агентами в организации 🏢
По мере внедрения агентов в разных командах управление ими становится делом командным. LangGraph Platform консолидирует мониторинг и контроль за всеми агентами в разработке или продакшне. Корпоративный вариант также поддерживает RBAC и рабочие пространства для контроля доступа.
Консоль управления LangGraph Platform упрощает обеспечение согласованности, мониторинг поведения и безопасное развертывание обновлений.
Вы можете:
• Находить доступных агентов в реестре
• Создавать различные версии вашего агента в платформе
• Использовать других агентов как "удаленные графы", создавая мультиагентные архитектуры
Варианты развертывания LangGraph Platform 🌐
Выберите вариант развертывания, который соответствует потребностям вашей команды:
1️⃣ Облако (SaaS): Самый быстрый способ начать работу, полностью управляемый и простой в развертывании. Доступен в тарифах Plus и Enterprise.
2️⃣ Гибридный: SaaS-панель управления с самостоятельно размещенным уровнем данных — идеально для команд с конфиденциальными данными. Доступен только в тарифе Enterprise.
3️⃣ Полностью самостоятельное размещение: Запуск всей платформы в собственной инфраструктуре. Данные не покидают ваш VPC. Доступен в тарифе Enterprise.
Если вы хотите попробовать базовую версию сервера LangGraph в своей среде, вы также можете использовать тариф Developer и получить до 100 тысяч выполненных узлов в месяц бесплатно — отлично подходит для хобби-проектов.
Компания LangChain объявила о выходе LangGraph Platform из беты в общий доступ. Это специализированная инфраструктура для развертывания и масштабирования долгоиграющих агентов с сохранением состояния. С момента запуска беты почти 400 компаний уже использовали платформу для вывода своих агентов в продакшн.
Развертывание агентов — это следующий сложный барьер для создания надежных AI-решений, и LangGraph Platform значительно упрощает этот процесс благодаря:
• Развертыванию в один клик — запуск в продакшн за считанные минуты
• 30 API-эндпоинтам для создания пользовательских интерфейсов под любые сценарии взаимодействия
• Горизонтальному масштабированию для обработки нерегулярного трафика
• Слою персистентности для поддержки памяти, истории разговоров и асинхронного взаимодействия
• Встроенной среде разработки LangGraph Studio для отладки и итерации
Проблемы инфраструктуры для агентов — и как LangGraph Platform их решает 🛠
Команда LangChain работает с множеством компаний, создающих агентов (Klarna, Lovable, Replit, LinkedIn и др.), и выявила несколько уникальных проблем при запуске агентов в продакшн:
1️⃣ Многие агенты работают долго. Поисково-исследовательские агенты или агенты, работающие по расписанию, могут выполнять задачи продолжительное время. Такие процессы подвержены сбоям, поэтому им нужна надежная инфраструктура.
2️⃣ Многие агенты полагаются на асинхронное взаимодействие. Агентам нужно реагировать на непредсказуемые события — будь то взаимодействие с человеком или ожидание ответа от другого агента.
3️⃣ Нерегулярная нагрузка. Горизонтальное масштабирование для обработки скачков трафика — задача не из легких, особенно для задач, выполняемых по расписанию.
LangGraph Platform позволяет разработчикам сосредоточиться на архитектуре агента, а не беспокоиться об инфраструктуре. Достаточно одного клика для развертывания приложений прямо в консоли управления.
Ускорение разработки с визуальными рабочими процессами 📊
Создание хороших агентов требует быстрой обратной связи. LangGraph Studio (включенный в LangGraph Platform) помогает разработчикам визуализировать и отлаживать рабочие процессы агентов в реальном времени, с подробной видимостью траекторий агентов и поддержкой ветвления логики.
Вы можете тестировать граничные случаи, проверять состояние памяти на каждом шаге и быстро определять, где что-то идет не так. Встроенные контрольные точки и модули памяти позволяют перематывать, редактировать и перезапускать точки отказа без лишних хлопот.
Централизованное управление агентами в организации 🏢
По мере внедрения агентов в разных командах управление ими становится делом командным. LangGraph Platform консолидирует мониторинг и контроль за всеми агентами в разработке или продакшне. Корпоративный вариант также поддерживает RBAC и рабочие пространства для контроля доступа.
Консоль управления LangGraph Platform упрощает обеспечение согласованности, мониторинг поведения и безопасное развертывание обновлений.
Вы можете:
• Находить доступных агентов в реестре
• Создавать различные версии вашего агента в платформе
• Использовать других агентов как "удаленные графы", создавая мультиагентные архитектуры
Варианты развертывания LangGraph Platform 🌐
Выберите вариант развертывания, который соответствует потребностям вашей команды:
1️⃣ Облако (SaaS): Самый быстрый способ начать работу, полностью управляемый и простой в развертывании. Доступен в тарифах Plus и Enterprise.
2️⃣ Гибридный: SaaS-панель управления с самостоятельно размещенным уровнем данных — идеально для команд с конфиденциальными данными. Доступен только в тарифе Enterprise.
3️⃣ Полностью самостоятельное размещение: Запуск всей платформы в собственной инфраструктуре. Данные не покидают ваш VPC. Доступен в тарифе Enterprise.
Если вы хотите попробовать базовую версию сервера LangGraph в своей среде, вы также можете использовать тариф Developer и получить до 100 тысяч выполненных узлов в месяц бесплатно — отлично подходит для хобби-проектов.
❤2👍2
LangGraph Platform — это, пожалуй, самый простой способ разрабатывать, разворачивать и управлять долгоиграющими агентами с сохранением состояния. Он может использоваться независимо от других продуктов LangChain или в сочетании с ними для обеспечения плавного перехода от фазы сборки к продакшну.
Интересно, сколько компаний сейчас действительно нуждаются в такой сложной инфраструктуре для агентов? 🤔 Но если вы из их числа — возможно, стоит взглянуть.
Источники:
• https://blog.langchain.dev/langgraph-platform-ga/
• https://www.youtube.com/watch?v=YWVuBLSbNWE
• https://langchain-ai.github.io/langgraph/concepts/langgraph_studio/
• https://langchain-ai.github.io/langgraph/concepts/deployment_options/
#LangGraphPlatform #агенты #LangChain #ИнфраструктураИИ #DevOps #agents
Интересно, сколько компаний сейчас действительно нуждаются в такой сложной инфраструктуре для агентов? 🤔 Но если вы из их числа — возможно, стоит взглянуть.
Источники:
• https://blog.langchain.dev/langgraph-platform-ga/
• https://www.youtube.com/watch?v=YWVuBLSbNWE
• https://langchain-ai.github.io/langgraph/concepts/langgraph_studio/
• https://langchain-ai.github.io/langgraph/concepts/deployment_options/
#LangGraphPlatform #агенты #LangChain #ИнфраструктураИИ #DevOps #agents
Langchain
LangGraph Platform
Develop, deploy, and scale agents with LangGraph Platform — our purpose-built platform for long-running, stateful workflows.
❤2👍2🔥1
Git-MCP: Решение проблем с контекстом для AI-кодеров 🧠
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
• GitHub Pages:
• Универсальный эндпоинт:
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
Проблема контекста в AI-кодерах
Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅
Существующие решения не идеальны:
1️⃣ Ручное объяснение или вставка кода (утомительно)
2️⃣ Прямая ссылка на документацию (перегружает контекст)
3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)
Git-MCP: элегантное решение 🛠
Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.
Как это работает:
1️⃣ Замените в URL github.com на gitmcp.io
2️⃣ Получите готовый MCP-сервер для репозитория
3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента
4️⃣ Наслаждайтесь точным контекстом без лишнего шума
Поддерживаемые форматы:
• GitHub репозитории:
gitmcp.io/{owner}/{repo}
• GitHub Pages:
{owner}.gitmcp.io/{repo}
• Универсальный эндпоинт:
gitmcp.io/docs
Интеграция с AI-инструментами:
• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI
Как Git-MCP обрабатывает документацию 📚
Система приоритизирует источники в следующем порядке:
1️⃣ llms.txt (AI-оптимизированный формат документации)
2️⃣ AI-оптимизированная версия документации проекта
3️⃣ README.md или корневая документация
Преимущества перед другими решениями 💪
• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP
Заключение 🤔
Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.
В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.
Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.
Источники:
• https://github.com/idosal/git-mcp
• https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.
#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
👍7❤2🔥1
Windsurf представляет SWE-1: первое семейство собственных моделей 🌊
Компания Windsurf объявила о запуске своего первого семейства моделей собственной разработки — SWE-1. Как они утверждают, это не просто очередное обновление, а "начало чего-то большего".
Что за зверь этот SWE-1?
В семейство входят три модели, каждая оптимизирована для разных аспектов рабочего процесса:
• SWE-1 — флагманская модель с "высоким уровнем рассуждений", поддержкой инструментов и оптимизацией для Cascade. Обещают производительность уровня Claude 3.5, но "за долю стоимости". Интересно, какую именно долю? 💸
Что классно - сейчас модель доступна ограниченное время забесплатно! (см. скриншот)
• SWE-1-lite — замена для Cascade Base. Быстрее, лучше и, что самое главное, бесплатна для всех пользователей.
• SWE-1-mini — модель для пассивных предложений в Windsurf Tab, оптимизированная для работы в реальном времени.
Почему именно SWE?
Потому что, как нам объясняют, разработка программного обеспечения — это не только кодинг. Современные рабочие процессы охватывают терминалы, редакторы, браузеры, документацию и обратную связь с пользователями. SWE-1 якобы создана для работы со всем этим комплексом задач — от неполных идей до работающих систем. Амбициозно, ничего не скажешь. 🧩
Доступ и цены 💰
Вот что предлагается:
• SWE-1-lite теперь стандартная бесплатная модель в Cascade — доступна всем без ограничений использования.
• SWE-1 доступна только платным пользователям, но пока работает за "0 кредитов за запрос". Скоро появится у корпоративных клиентов.
• Компании получат доступ к SWE-1-lite и SWE-1-mini с первого дня, а вот SWE-1 будет доступна позже с возможностью отдельного подключения.
Что дальше? 🔮
Компания утверждает, что доказала возможность обучения моделей уровня SWE небольшой командой с ограниченными вычислительными ресурсами. Теперь они планируют масштабироваться. Обещают, что SWE-1 будет поддерживать больше рабочих процессов, быстро улучшаться и со временем станет дешевле в использовании.
Что ж, посмотрим, насколько эти обещания соответствуют реальности. И изменится ли что-то когда сделка с Openai состоится.
#ИИдляРазработчиков #windsurf #SWE1 #НовыеМодели #ИскусственныйИнтеллект #update
Компания Windsurf объявила о запуске своего первого семейства моделей собственной разработки — SWE-1. Как они утверждают, это не просто очередное обновление, а "начало чего-то большего".
Что за зверь этот SWE-1?
В семейство входят три модели, каждая оптимизирована для разных аспектов рабочего процесса:
• SWE-1 — флагманская модель с "высоким уровнем рассуждений", поддержкой инструментов и оптимизацией для Cascade. Обещают производительность уровня Claude 3.5, но "за долю стоимости". Интересно, какую именно долю? 💸
Что классно - сейчас модель доступна ограниченное время забесплатно! (см. скриншот)
• SWE-1-lite — замена для Cascade Base. Быстрее, лучше и, что самое главное, бесплатна для всех пользователей.
• SWE-1-mini — модель для пассивных предложений в Windsurf Tab, оптимизированная для работы в реальном времени.
Почему именно SWE?
Потому что, как нам объясняют, разработка программного обеспечения — это не только кодинг. Современные рабочие процессы охватывают терминалы, редакторы, браузеры, документацию и обратную связь с пользователями. SWE-1 якобы создана для работы со всем этим комплексом задач — от неполных идей до работающих систем. Амбициозно, ничего не скажешь. 🧩
Доступ и цены 💰
Вот что предлагается:
• SWE-1-lite теперь стандартная бесплатная модель в Cascade — доступна всем без ограничений использования.
• SWE-1 доступна только платным пользователям, но пока работает за "0 кредитов за запрос". Скоро появится у корпоративных клиентов.
• Компании получат доступ к SWE-1-lite и SWE-1-mini с первого дня, а вот SWE-1 будет доступна позже с возможностью отдельного подключения.
Что дальше? 🔮
Компания утверждает, что доказала возможность обучения моделей уровня SWE небольшой командой с ограниченными вычислительными ресурсами. Теперь они планируют масштабироваться. Обещают, что SWE-1 будет поддерживать больше рабочих процессов, быстро улучшаться и со временем станет дешевле в использовании.
Что ж, посмотрим, насколько эти обещания соответствуют реальности. И изменится ли что-то когда сделка с Openai состоится.
#ИИдляРазработчиков #windsurf #SWE1 #НовыеМодели #ИскусственныйИнтеллект #update
👍2🔥2❤1
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
•
•
•
Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
Панель управления OpenMemory будет доступна по адресу:
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.
По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.
Как это работает?
OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:
•
add_memories
: Сохранение новых объектов памяти •
search_memory
: Поиск релевантных воспоминаний •
list_memories
: Просмотр всей сохранённой памяти •
delete_all_memories
: Полная очистка памятиЛюбой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.
Что это даёт на практике?
1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.
2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.
3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).
Поддерживаемые клиенты
OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:
• Cursor
• Claude Desktop
• Windsurf
• Cline и другие
По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.
Установка и настройка
Установка OpenMemory довольно проста и занимает всего несколько минут:
# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory
# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env
# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build
# Запускаем все сервисы
make up
# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui
Для подключения MCP-клиентов вам понадобится ваш ID пользователя:
whoami
Затем добавьте следующую конфигурацию в ваш MCP-клиент:
npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>
Панель управления OpenMemory будет доступна по адресу:
http://localhost:3000
Примеры использования
💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.
⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.
📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.
Заключение
OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.
Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.
Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь
#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
❤2👍1🔥1
Dart: Альтернатива Taskmaster с графическим интерфейсом и AI-функциями
Привет, друзья! 👋 Сегодня хочу рассказать о менеджере задач Dart, который может стать неплохой заменой командно-строчному Taskmaster.
Если такие ограничения Taskmaster как отсутствие графического интерфейса и невозможность работы в команде для вас актуальны, то Dart может вас заинтересовать. Это AI-инструмент для управления проектами, который позволяет:
• Создавать и управлять задачами через графический интерфейс
• Назначать задачи членам команды или... AI-агенту 🤖 (он называется Dart-AI, см. скриншот)
• Интегрироваться с Cline, Roo, Cursor и другими AI-инструментами через MCP-сервер
Структура и возможности
В Dart вы работаете с:
1️⃣ Spaces (пространства) — для разных проектов
2️⃣ Dashboards (доски) — для управления задачами внутри проекта
3️⃣ Tasks (задачи) — которые можно разбивать на подзадачи
Что действительно выделяет Dart — это новый AI-чат. По сути, это как Cursor Composer, но для задач. Вы просто пишете, что хотите, а AI выполняет:
• "Создай 10 задач для разработки календаря на Next.js" ✅
• "Расставь приоритеты для этих задач" ✅
• "Назначь эти задачи Ивану, а эти — Марии" ✅
Интеграция с AI-кодерами
Благодаря MCP-серверу, Dart легко интегрируется с Cline, Roo, Cursor и другими инструментами. Настройка занимает буквально пару минут — копируете конфиг, вставляете токен, и готово.
Рабочий процесс выглядит примерно так:
1️⃣ Попросите AI собрать задачи из Dart (их можно ранжировать по приоритетам)
2️⃣ Создайте файл задач с зависимостями
3️⃣ Начните работу над задачами
4️⃣ Отмечайте выполненные задачи в Dart
Цены и доступность
Dart предлагает:
• Бесплатный план с большинством функций (но такая фича как AI Chat - только в платной подписке)
• $10/месяц за расширенные возможности (если брать сразу годовую подписку, то $8, я пока тестирую помесячную оплату)
• $15/месяц для команд (если брать годовую подписку, то $12)
Честно говоря, по сравнению с конкурентами, цены весьма демократичные, хотя, как всегда, маркетологи уверяют, что их инструмент "революционный" и "незаменимый". 😏
Если вы ищете более интерактивный и командный подход к управлению задачами с AI-помощником, Dart может оказаться неплохим вариантом.
Источники:
• Официальная документация по ссылке
• Youtube видео по ссылке
#taskmanagement #ai #darttool #devtools #projectmanagement
Привет, друзья! 👋 Сегодня хочу рассказать о менеджере задач Dart, который может стать неплохой заменой командно-строчному Taskmaster.
Если такие ограничения Taskmaster как отсутствие графического интерфейса и невозможность работы в команде для вас актуальны, то Dart может вас заинтересовать. Это AI-инструмент для управления проектами, который позволяет:
• Создавать и управлять задачами через графический интерфейс
• Назначать задачи членам команды или... AI-агенту 🤖 (он называется Dart-AI, см. скриншот)
• Интегрироваться с Cline, Roo, Cursor и другими AI-инструментами через MCP-сервер
Структура и возможности
В Dart вы работаете с:
1️⃣ Spaces (пространства) — для разных проектов
2️⃣ Dashboards (доски) — для управления задачами внутри проекта
3️⃣ Tasks (задачи) — которые можно разбивать на подзадачи
Что действительно выделяет Dart — это новый AI-чат. По сути, это как Cursor Composer, но для задач. Вы просто пишете, что хотите, а AI выполняет:
• "Создай 10 задач для разработки календаря на Next.js" ✅
• "Расставь приоритеты для этих задач" ✅
• "Назначь эти задачи Ивану, а эти — Марии" ✅
Интеграция с AI-кодерами
Благодаря MCP-серверу, Dart легко интегрируется с Cline, Roo, Cursor и другими инструментами. Настройка занимает буквально пару минут — копируете конфиг, вставляете токен, и готово.
Рабочий процесс выглядит примерно так:
1️⃣ Попросите AI собрать задачи из Dart (их можно ранжировать по приоритетам)
2️⃣ Создайте файл задач с зависимостями
3️⃣ Начните работу над задачами
4️⃣ Отмечайте выполненные задачи в Dart
Цены и доступность
Dart предлагает:
• Бесплатный план с большинством функций (но такая фича как AI Chat - только в платной подписке)
• $10/месяц за расширенные возможности (если брать сразу годовую подписку, то $8, я пока тестирую помесячную оплату)
• $15/месяц для команд (если брать годовую подписку, то $12)
Честно говоря, по сравнению с конкурентами, цены весьма демократичные, хотя, как всегда, маркетологи уверяют, что их инструмент "революционный" и "незаменимый". 😏
Если вы ищете более интерактивный и командный подход к управлению задачами с AI-помощником, Dart может оказаться неплохим вариантом.
Источники:
• Официальная документация по ссылке
• Youtube видео по ссылке
#taskmanagement #ai #darttool #devtools #projectmanagement
👍3🔥2❤1
Anthropic тестирует Claude с функцией самоисправления ошибок 🤖
Похоже, что Anthropic готовится выпустить обновленные версии своих моделей Claude Opus и Sonnet в ближайшие недели. По данным The Information, новые модели смогут работать гораздо более автономно, чем их предшественники. Звучит многообещающе, хотя мы уже не раз слышали подобные заявления от AI-компаний. 🙄
Что нового планируется в моделях? 🧠
Главное отличие — способность моделей переключаться между самостоятельным мышлением и использованием внешних инструментов. Если модель сталкивается с проблемой при использовании инструмента, она переходит в режим "размышления", анализирует ситуацию и исправляет ошибку.
Вот несколько примеров возможностей:
• При анализе рынка для кафе в Москве/Нью-Йорке модель начинает с изучения национальных трендов, но быстро понимает их бесполезность и переключается на демографические данные конкретного района (Хамовники/Гринвич Виллидж)
• В задачах программирования модель автоматически тестирует сгенерированный код и, если что-то идет не так, останавливается, чтобы найти и исправить ошибку.
• Даже с расплывчатыми запросами вроде "сделай приложение быстрее" модель самостоятельно пробует различные стратегии оптимизации
Меньше подсказок, больше инициативы 💡
Подход Anthropic соответствует общей тенденции в индустрии: создание AI-систем, способных работать с минимальными вводными и самостоятельно решать проблемы. Обновленные модели Claude призваны сочетать рассуждения и использование инструментов, переключаясь между этими режимами по мере необходимости.
OpenAI идет по тому же пути со своими моделями o3 и o4-mini. Хотя, как отмечают тестировщики, o3 все еще делает ошибки в сложных задачах чаще, чем предыдущие модели OpenAI. Что ж, идеальных AI пока не существует 😏
Остается надеяться, что Anthropic не только улучшит способность моделей к самоисправлению, но и увеличит контекстное окно до миллиона токенов (а может быть и двух 😏), а также обновит базу знаний до 2025 года. Иначе Gemini 2.5 Pro останется более привлекательным вариантом для большинства пользователей, несмотря на все новые "фишки".
#ИскусственныйИнтеллект #Claude #Anthropic #AIновости #МашинноеОбучение
Похоже, что Anthropic готовится выпустить обновленные версии своих моделей Claude Opus и Sonnet в ближайшие недели. По данным The Information, новые модели смогут работать гораздо более автономно, чем их предшественники. Звучит многообещающе, хотя мы уже не раз слышали подобные заявления от AI-компаний. 🙄
Что нового планируется в моделях? 🧠
Главное отличие — способность моделей переключаться между самостоятельным мышлением и использованием внешних инструментов. Если модель сталкивается с проблемой при использовании инструмента, она переходит в режим "размышления", анализирует ситуацию и исправляет ошибку.
Вот несколько примеров возможностей:
• При анализе рынка для кафе в Москве/Нью-Йорке модель начинает с изучения национальных трендов, но быстро понимает их бесполезность и переключается на демографические данные конкретного района (Хамовники/Гринвич Виллидж)
• В задачах программирования модель автоматически тестирует сгенерированный код и, если что-то идет не так, останавливается, чтобы найти и исправить ошибку.
• Даже с расплывчатыми запросами вроде "сделай приложение быстрее" модель самостоятельно пробует различные стратегии оптимизации
Меньше подсказок, больше инициативы 💡
Подход Anthropic соответствует общей тенденции в индустрии: создание AI-систем, способных работать с минимальными вводными и самостоятельно решать проблемы. Обновленные модели Claude призваны сочетать рассуждения и использование инструментов, переключаясь между этими режимами по мере необходимости.
OpenAI идет по тому же пути со своими моделями o3 и o4-mini. Хотя, как отмечают тестировщики, o3 все еще делает ошибки в сложных задачах чаще, чем предыдущие модели OpenAI. Что ж, идеальных AI пока не существует 😏
Остается надеяться, что Anthropic не только улучшит способность моделей к самоисправлению, но и увеличит контекстное окно до миллиона токенов (а может быть и двух 😏), а также обновит базу знаний до 2025 года. Иначе Gemini 2.5 Pro останется более привлекательным вариантом для большинства пользователей, несмотря на все новые "фишки".
#ИскусственныйИнтеллект #Claude #Anthropic #AIновости #МашинноеОбучение
The Information
Anthropic’s Upcoming Models Will Think… And Think Some More
The race to develop reasoning models that “think” harder is at full force. At Anthropic, which arrived later than OpenAI and Google to the reasoning race, two upcoming models are taking the concept of “thinking” to the extreme.Anthropic has new versions of…
❤2👍2
Codex от OpenAI: новый инструмент для разработчиков
OpenAI представила новый инструмент под названием Codex – облачный агент для разработки ПО, способный работать с несколькими задачами параллельно. 🤖
Codex работает на базе модели codex-1 (оригинальное название, ничего не скажешь 🙃), которая является оптимизированной версией OpenAI o3, настроенной специально для программирования. Инструмент уже доступен пользователям ChatGPT Pro, Team и Enterprise, а обладателям Plus-подписки придется немного подождать.
Как это работает? 🛠
Codex функционирует в облаке, а не на вашем компьютере, что позволяет:
• Запускать несколько задач одновременно
• Работать с вашими репозиториями GitHub
• Писать новые функции, исправлять баги и предлагать pull-запросы
• Отвечать на вопросы о вашей кодовой базе
Каждая задача выполняется в изолированной среде, предварительно загруженной с вашим репозиторием. Codex может читать и редактировать файлы, запускать команды, включая тесты, линтеры и проверки типов.
Что умеет Codex? 💻
1️⃣ Выполнять рутинные задачи: рефакторинг, переименование, написание тестов
2️⃣ Создавать новые функции и компоненты
3️⃣ Исправлять ошибки в коде
4️⃣ Составлять документацию
5️⃣ Анализировать кодовую базу и предлагать улучшения
Интересная особенность – Codex можно "обучать" с помощью файлов AGENTS.md, размещенных в репозитории. В этих файлах вы можете указать, как навигировать по кодовой базе, какие команды запускать для тестирования и как придерживаться стандартных практик проекта.
Безопасность и ограничения ⚠️
OpenAI утверждает, что уделила особое внимание безопасности и прозрачности. Codex работает в защищенном контейнере в облаке, без доступа к интернету. Он может взаимодействовать только с кодом, явно предоставленным через репозитории GitHub и предустановленные зависимости.
Однако стоит помнить, что это всё ещё "исследовательский превью", и у инструмента есть ограничения:
• Отсутствие поддержки изображений для фронтенд-разработки
• Невозможность корректировать работу агента в процессе выполнения
• Делегирование удаленному агенту занимает больше времени, чем интерактивное редактирование
• Codex пока доступен только в ChatGPT Pro тарифе, ждем его появления в более демократичных Plus и Edu редакциях 😏
Что дальше? 🔮
OpenAI планирует развивать Codex, добавляя новые функции:
• Более интерактивные и гибкие рабочие процессы
• Возможность предоставлять указания во время выполнения задачи
• Интеграция с другими инструментами: GitHub, Codex CLI, ChatGPT Desktop и даже системами отслеживания проблем
Также компания выпустила облегченную версию codex-1 для использования в Codex CLI – локальном агенте, который работает в вашем терминале.
Звучит впечатляюще, но насколько это изменит реальную работу программистов – покажет только время. Возможно, мы наблюдаем начало новой эры в разработке ПО, а может быть, это просто очередной инструмент, который будет полезен в определенных сценариях, но не произведет революцию.
А как вы думаете?
P.S. Немного иронично:
• производители LLM-моделей (openai) идут в AI-кодинг, а создатели AI-кодеров идут в производство моделей
• при этом производитель LLM-модели (openai) собирается купить такого "первопроходца" из AI-кодеров (windsurf),
кажется, что openai хотят иметь в своем портфеле все: и "онпрем" и "облачное" решение по AI-кодингу для своих заказчиков 🤔
#ИскусственныйИнтеллект #Разработка #openai #codex #БудущееПрограммирования
OpenAI представила новый инструмент под названием Codex – облачный агент для разработки ПО, способный работать с несколькими задачами параллельно. 🤖
Codex работает на базе модели codex-1 (оригинальное название, ничего не скажешь 🙃), которая является оптимизированной версией OpenAI o3, настроенной специально для программирования. Инструмент уже доступен пользователям ChatGPT Pro, Team и Enterprise, а обладателям Plus-подписки придется немного подождать.
Как это работает? 🛠
Codex функционирует в облаке, а не на вашем компьютере, что позволяет:
• Запускать несколько задач одновременно
• Работать с вашими репозиториями GitHub
• Писать новые функции, исправлять баги и предлагать pull-запросы
• Отвечать на вопросы о вашей кодовой базе
Каждая задача выполняется в изолированной среде, предварительно загруженной с вашим репозиторием. Codex может читать и редактировать файлы, запускать команды, включая тесты, линтеры и проверки типов.
Что умеет Codex? 💻
1️⃣ Выполнять рутинные задачи: рефакторинг, переименование, написание тестов
2️⃣ Создавать новые функции и компоненты
3️⃣ Исправлять ошибки в коде
4️⃣ Составлять документацию
5️⃣ Анализировать кодовую базу и предлагать улучшения
Интересная особенность – Codex можно "обучать" с помощью файлов AGENTS.md, размещенных в репозитории. В этих файлах вы можете указать, как навигировать по кодовой базе, какие команды запускать для тестирования и как придерживаться стандартных практик проекта.
Безопасность и ограничения ⚠️
OpenAI утверждает, что уделила особое внимание безопасности и прозрачности. Codex работает в защищенном контейнере в облаке, без доступа к интернету. Он может взаимодействовать только с кодом, явно предоставленным через репозитории GitHub и предустановленные зависимости.
Однако стоит помнить, что это всё ещё "исследовательский превью", и у инструмента есть ограничения:
• Отсутствие поддержки изображений для фронтенд-разработки
• Невозможность корректировать работу агента в процессе выполнения
• Делегирование удаленному агенту занимает больше времени, чем интерактивное редактирование
• Codex пока доступен только в ChatGPT Pro тарифе, ждем его появления в более демократичных Plus и Edu редакциях 😏
Что дальше? 🔮
OpenAI планирует развивать Codex, добавляя новые функции:
• Более интерактивные и гибкие рабочие процессы
• Возможность предоставлять указания во время выполнения задачи
• Интеграция с другими инструментами: GitHub, Codex CLI, ChatGPT Desktop и даже системами отслеживания проблем
Также компания выпустила облегченную версию codex-1 для использования в Codex CLI – локальном агенте, который работает в вашем терминале.
Звучит впечатляюще, но насколько это изменит реальную работу программистов – покажет только время. Возможно, мы наблюдаем начало новой эры в разработке ПО, а может быть, это просто очередной инструмент, который будет полезен в определенных сценариях, но не произведет революцию.
А как вы думаете?
P.S. Немного иронично:
• производители LLM-моделей (openai) идут в AI-кодинг, а создатели AI-кодеров идут в производство моделей
• при этом производитель LLM-модели (openai) собирается купить такого "первопроходца" из AI-кодеров (windsurf),
кажется, что openai хотят иметь в своем портфеле все: и "онпрем" и "облачное" решение по AI-кодингу для своих заказчиков 🤔
#ИскусственныйИнтеллект #Разработка #openai #codex #БудущееПрограммирования