Заметки LLM-энтузиаста
490 subscribers
131 photos
17 videos
1 file
162 links
Дмитрий Жечков @djdim
архитектор в Yandex Cloud,
ex. VMware NSX specialist, ex. Cisco SE

Здесь пишу свои заметки по LLM (большим языковым моделям) и AI-разработке.

Это личное мнение и не отражает официальную позицию компании, в которой я работаю.
Download Telegram
Обновления Windsurf: новые возможности и бесплатный тариф 🚀

Что нового в Wave 8?


Windsurf на майских праздниках выкатил обновление Wave 8, и, хотя компания пока официально не объявила о поглощении OpenAI (но слухи ходят, что их договорились купить за 3 млрд долларов 🤫), новые функции заслуживают внимания.

📊 Для корпоративных пользователей:
• Интеграция с Google Docs
• Возможность делиться "беседами" внутри команды
• Обновленная аналитика для администраторов
• Windsurf Reviews — бот для GitHub, проверяющий pull-запросы (только для командного тарифа, конечно же 💸)

🛠 Для обычных смертных:
• Custom Workflows — создание правил и шагов в markdown-файле, которые можно вызвать через slash-команды. По сути, простые инструкции для ИИ, чтобы он не терялся в ваших запросах
• Файловые правила — теперь работают как в Cursor или Cline/Roocode: создаете папку windsurf/rules и складываете туда правила
• Одновременная работа нескольких агентов Cascade — наконец-то можно не ждать, пока одна задача завершится, чтобы начать другую
Плагины Cascade — обновленный интерфейс MCP с графическим управлением (прощай, редактирование файлов вручную - см. скриншот). Ждем когда и в Cursor наконец-то появится нормальный MCP Marketplace (в Cline, Trae, Windsurf - уже есть)

🖥 Улучшения интерфейса:
• Кнопка "продолжить", когда ИИ ждет подтверждения
• Переработанный селектор моделей с поиском
• Фильтрация истории разговоров по рабочим пространствам

💰 Бесплатный тариф стал щедрее:
• Доступ к премиум-моделям
• 25 кредитов вместо 5 (это примерно 100 запросов к GPT-4.1 и Mini)
• Неограниченное использование Cascade в режиме написания
• Неограниченные быстрые автодополнения
• Один деплой в день

Выглядит неплохо, особенно для бесплатного тарифа. Хотя, конечно, самые сочные функции всё равно остаются за платной версией — классика жанра. 🙃

Если вы пользуетесь Windsurf, обновитесь до последней версии, чтобы получить доступ ко всем новшествам. А если нет — возможно, сейчас самое время попробовать.

#Windsurf #ИИ #Обновления #update
👍3🔥31
This media is not supported in your browser
VIEW IN TELEGRAM
DeerFlow: Новый фреймворк для глубоких исследований от ByteDance

ByteDance, компания-создатель TikTok, выпустила новый опенсорсный инструмент под названием DeerFlow. Это фреймворк для проведения глубоких исследований, который уже набрал почти 5000 звезд на GitHub всего за несколько дней. Неплохо для очередного AI-проекта, не так ли? 🤔

Что такое DeerFlow?

DeerFlow представляет собой фреймворк для систематических глубоких исследований с использованием координированных LangGraph агентов. По сути, это еще один AI-ассистент, но с открытым исходным кодом и возможностью запуска локально.

Основные возможности:
• Комплексный анализ литературы
• Синтез данных
• Структурированное извлечение знаний
• Интеграция с веб-поиском и Python

Как это работает?

Система использует языковые модели (например, Qwen 2.5 14B) и может работать с различными инструментами:

- Веб-поиск (DuckDuckGo, Tavily, Brave Search)
- Веб-краулинг
- Выполнение Python-кода
- Генерация отчетов и даже подкастов 🎙

Интерфейс выглядит довольно приятно (см. демо), а процесс исследования отображается в реальном времени с активностями, выводами и ссылками на источники. Всё как у "больших мальчиков", только бесплатно.

Стоит ли пробовать?

Если вы устали от платных API и хотите иметь собственный инструмент для исследований — возможно. Установка не самая простая (требуется Node.js 22+, несколько зависимостей и настройка конфигурации), но для энтузиастов это не проблема.

Конечно, не стоит ожидать, что он заменит ChatGPT или Claude, но для специфических исследовательских задач может оказаться полезным. По крайней мере, не нужно платить за каждый токен. 💸

Источники
1) Официальный сайт проекта: https://deerflow.tech/
2) Репозиторий проекта: github.com/ByteDance/DeerFlow
3) Подробная документация со схемами по репозиторию здесь

#AI #opensource #ByteDance #deerflow #ИИ_инструменты #deepsearch #agents
🔥43👍3
Taskmaster 2.0: Теперь с поддержкой всех популярных AI-моделей 🧠

Помните Taskmaster ? (чуть выше писал о нем) Тот самый менеджер задач для AI-кодинга, который раньше работал только с ограниченным набором моделей? Что ж, похоже, разработчики услышали пользователей и выкатили обновление, которое действительно стоит внимания.

Что нового? 🆕

• Поддержка 6 AI-провайдеров: OpenAI, Gemini, XAI, Open Router, Anthropic и Perplexity. Наконец-то можно не продавать почку ради использования только Claude :)

• Настройка трёх ролей для моделей:

1) Основная модель (для кодинга)
2) Исследовательская модель (для поиска информации)
3) Запасная модель (на случай, если основная решит "уйти на перекур")

• Официальная поддержка .roo-правил - важно для тех кто использует RooCode и хочет вместо RooCode Orchestrator (бывший Boomerang Tasks - чуть выше писал о нем) использовать TaskMaster

• Улучшенный парсинг документов с требованиями проекта (PRD) — теперь AI лучше понимает, что вы от него хотите.

• Новые CLI-команды для интерактивной настройки моделей — для тех, кто любит общаться с терминалом больше, чем с людьми :)

Как это работает? 🛠

Если вы используете MCP-сервер, то обновление произойдёт автоматически. Для CLI-версии нужно выполнить:

npm install -g task-master-ai

или
npm update task-master-ai


После установки запустите:

task-master init


Система предложит выбрать модели для каждой роли. Можно выбрать Gemini 2.5 Flash для основной работы (экономия денег 💰 - хотя для сложных проектов, я бы использовал платные модели), Perplexity для исследований и что-то ещё для запасного варианта.

Что это значит для нас? 🤔

Теперь Taskmaster стал практически бесплатным инструментом, если настроить его на использование Gemini 2.5 Flash

Однако, есть и ложка дёгтя — после первой итерации задач Taskmaster всё ещё не очень хорошо анализирует созданные файлы проекта для генерации новых задач. Так что для сложных проектов придётся немного помогать ему вручную.

В целом, обновление действительно полезное. Если вы занимаетесь разработкой с помощью AI, стоит попробовать.

Источник здесь
Полный список новых фич для версии v0.13.0 здесь

#AI #разработка #Taskmaster #инструменты_разработчика
3🔥1
OpenAI представила HealthBench: новый стандарт для оценки медицинских AI-систем 🩺🤖

OpenAI выпустила HealthBench — новый бенчмарк, созданный совместно с 262 врачами для оценки эффективности AI-систем в медицинских беседах. Похоже, теперь у нас есть "официальный термометр" для измерения температуры искусственного интеллекта в медицине.

Что нужно знать 📋

• Бенчмарк тестирует модели по различным темам (скорая медицинская помощь, глобальное здравоохранение и т.д.) и поведенческим характеристикам (точность, качество коммуникации).

• Новые модели показывают значительно лучшие результаты — o3 от OpenAI набрала 60%, в то время как GPT-3.5 Turbo всего 16%. Прогресс налицо, хотя до идеала еще далеко.

• Интересно, что даже маленькие модели стали гораздо способнее — GPT-4.1 Nano превосходит старые варианты, при этом обходясь в 25 раз дешевле. Вот такой интересный прогресс в экономии на здоровье :)

• OpenAI сделала открытым исходный код как самих оценок, так и тестового набора данных, включающего 5000 реалистичных многоэтапных медицинских диалогов между моделями и пользователями.

Почему это важно 🤔

Существует множество примеров того, как ИИ может серьезно улучшить работу в медицинской сфере. Наличие проверенных врачами бенчмарков — важный шаг для измерения производительности каждой модели в медицинском контексте.

Конечно, одно дело — хорошо отвечать на тесты, и совсем другое — не навредить реальным пациентам. Но, по крайней мере, теперь у нас есть "линейка", которой можно измерить, насколько наш цифровой доктор готов к приему.

#ИИвМедицине #OpenAI #HealthBench #ИскусственныйИнтеллект #ЦифровоеЗдравоохранение
3👍1
LangGraph Platform теперь общедоступен: разворачивайте и управляйте агентами без головной боли 🚀

Компания LangChain объявила о выходе LangGraph Platform из беты в общий доступ. Это специализированная инфраструктура для развертывания и масштабирования долгоиграющих агентов с сохранением состояния. С момента запуска беты почти 400 компаний уже использовали платформу для вывода своих агентов в продакшн.

Развертывание агентов — это следующий сложный барьер для создания надежных AI-решений, и LangGraph Platform значительно упрощает этот процесс благодаря:

• Развертыванию в один клик — запуск в продакшн за считанные минуты
• 30 API-эндпоинтам для создания пользовательских интерфейсов под любые сценарии взаимодействия
• Горизонтальному масштабированию для обработки нерегулярного трафика
• Слою персистентности для поддержки памяти, истории разговоров и асинхронного взаимодействия
• Встроенной среде разработки LangGraph Studio для отладки и итерации

Проблемы инфраструктуры для агентов — и как LangGraph Platform их решает 🛠

Команда LangChain работает с множеством компаний, создающих агентов (Klarna, Lovable, Replit, LinkedIn и др.), и выявила несколько уникальных проблем при запуске агентов в продакшн:

1️⃣ Многие агенты работают долго. Поисково-исследовательские агенты или агенты, работающие по расписанию, могут выполнять задачи продолжительное время. Такие процессы подвержены сбоям, поэтому им нужна надежная инфраструктура.

2️⃣ Многие агенты полагаются на асинхронное взаимодействие. Агентам нужно реагировать на непредсказуемые события — будь то взаимодействие с человеком или ожидание ответа от другого агента.

3️⃣ Нерегулярная нагрузка. Горизонтальное масштабирование для обработки скачков трафика — задача не из легких, особенно для задач, выполняемых по расписанию.

LangGraph Platform позволяет разработчикам сосредоточиться на архитектуре агента, а не беспокоиться об инфраструктуре. Достаточно одного клика для развертывания приложений прямо в консоли управления.

Ускорение разработки с визуальными рабочими процессами 📊

Создание хороших агентов требует быстрой обратной связи. LangGraph Studio (включенный в LangGraph Platform) помогает разработчикам визуализировать и отлаживать рабочие процессы агентов в реальном времени, с подробной видимостью траекторий агентов и поддержкой ветвления логики.

Вы можете тестировать граничные случаи, проверять состояние памяти на каждом шаге и быстро определять, где что-то идет не так. Встроенные контрольные точки и модули памяти позволяют перематывать, редактировать и перезапускать точки отказа без лишних хлопот.

Централизованное управление агентами в организации
🏢

По мере внедрения агентов в разных командах управление ими становится делом командным. LangGraph Platform консолидирует мониторинг и контроль за всеми агентами в разработке или продакшне. Корпоративный вариант также поддерживает RBAC и рабочие пространства для контроля доступа.

Консоль управления LangGraph Platform упрощает обеспечение согласованности, мониторинг поведения и безопасное развертывание обновлений.
Вы можете:
• Находить доступных агентов в реестре
• Создавать различные версии вашего агента в платформе
• Использовать других агентов как "удаленные графы", создавая мультиагентные архитектуры

Варианты развертывания LangGraph Platform 🌐

Выберите вариант развертывания, который соответствует потребностям вашей команды:

1️⃣ Облако (SaaS): Самый быстрый способ начать работу, полностью управляемый и простой в развертывании. Доступен в тарифах Plus и Enterprise.

2️⃣ Гибридный: SaaS-панель управления с самостоятельно размещенным уровнем данных — идеально для команд с конфиденциальными данными. Доступен только в тарифе Enterprise.

3️⃣ Полностью самостоятельное размещение: Запуск всей платформы в собственной инфраструктуре. Данные не покидают ваш VPC. Доступен в тарифе Enterprise.

Если вы хотите попробовать базовую версию сервера LangGraph в своей среде, вы также можете использовать тариф Developer и получить до 100 тысяч выполненных узлов в месяц бесплатно — отлично подходит для хобби-проектов.
2👍2
LangGraph Platform — это, пожалуй, самый простой способ разрабатывать, разворачивать и управлять долгоиграющими агентами с сохранением состояния. Он может использоваться независимо от других продуктов LangChain или в сочетании с ними для обеспечения плавного перехода от фазы сборки к продакшну.

Интересно, сколько компаний сейчас действительно нуждаются в такой сложной инфраструктуре для агентов? 🤔 Но если вы из их числа — возможно, стоит взглянуть.

Источники:

https://blog.langchain.dev/langgraph-platform-ga/
https://www.youtube.com/watch?v=YWVuBLSbNWE
https://langchain-ai.github.io/langgraph/concepts/langgraph_studio/
https://langchain-ai.github.io/langgraph/concepts/deployment_options/

#LangGraphPlatform #агенты #LangChain #ИнфраструктураИИ #DevOps #agents
2👍2🔥1
Git-MCP: Решение проблем с контекстом для AI-кодеров 🧠

Проблема контекста в AI-кодерах

Работая с AI-ассистентами вроде Cursor, многие как и я сталкиваются с одной и той же проблемой: модели имеют ограниченные знания о новых библиотеках и инструментах из-за даты отсечения обучения. 📅

Существующие решения не идеальны:

1️⃣ Ручное объяснение или вставка кода (утомительно)

2️⃣ Прямая ссылка на документацию (перегружает контекст)

3️⃣ Context7 MCP (все классно: используется RAG и в контекст AI-кодера добавляется только нужный для работы в данный момент раздел свежей документации, но работает нестабильно, иногда игнорируется AI-кодером)

Git-MCP: элегантное решение 🛠

Git-MCP — инструмент, который превращает любой GitHub-репозиторий в выделенный MCP-сервер с фокусированной документацией. По сути, это мост между AI-ассистентами и GitHub-репозиториями через Model Context Protocol.

Как это работает:

1️⃣ Замените в URL github.com на gitmcp.io

2️⃣ Получите готовый MCP-сервер для репозитория

3️⃣ Добавьте полученный URL в настройки вашего AI-инструмента

4️⃣ Наслаждайтесь точным контекстом без лишнего шума

Поддерживаемые форматы:

• GitHub репозитории: gitmcp.io/{owner}/{repo}
• GitHub Pages: {owner}.gitmcp.io/{repo}
• Универсальный эндпоинт: gitmcp.io/docs

Интеграция с AI-инструментами:

• Cursor
• Claude Desktop
• Windsurf
• VSCode
• Cline
• Highlight AI

Как Git-MCP обрабатывает документацию
📚

Система приоритизирует источники в следующем порядке:

1️⃣ llms.txt (AI-оптимизированный формат документации)

2️⃣ AI-оптимизированная версия документации проекта

3️⃣ README.md или корневая документация

Преимущества перед другими решениями 💪

• Минимальная настройка (буквально замена URL)
• Точный и релевантный контекст
• Бесплатное использование
• Возможность самостоятельного хостинга
• Работает с любой средой разработки, поддерживающей MCP

Заключение 🤔

Git-MCP — не панацея, но определенно полезный инструмент в арсенале разработчика, использующего AI-ассистенты. Особенно хорошо работает с GitHub-репозиториями, предоставляя именно тот контекст, который нужен для конкретной задачи.

В отличие от Context7 MCP, который иногда игнорируется AI и начинает искать информацию в интернете, Git-MCP более стабилен и предсказуем.

Стоит попробовать, если вы часто работаете с новыми библиотеками или инструментами, о которых ваш AI-кодер еще не знает. Возможно, это сэкономит вам немало нервов и времени.

Источники:
https://github.com/idosal/git-mcp
https://deepwiki.com/MCP-Mirror/idosal_git-mcp - специально для вас, дорогие читатели, проиндексировал репозиторий в deepwiki, и получил подробную техническую документацию, чтобы можно было более детально ознакомиться с внутренним устройством Git-MCP (одна из схем на скриншоте). Если вам интересно будет прочитать про подобные инструменты автоматизации составления технической документации в следующих постах, то напишите в комментариях или поставьте лайк.

#AI #GitMCP #разработка #Cursor #документация #MCP #инструменты_разработчика #GitHub
👍72🔥1
Windsurf представляет SWE-1: первое семейство собственных моделей 🌊

Компания Windsurf объявила о запуске своего первого семейства моделей собственной разработки — SWE-1. Как они утверждают, это не просто очередное обновление, а "начало чего-то большего".

Что за зверь этот SWE-1?

В семейство входят три модели, каждая оптимизирована для разных аспектов рабочего процесса:

• SWE-1 — флагманская модель с "высоким уровнем рассуждений", поддержкой инструментов и оптимизацией для Cascade. Обещают производительность уровня Claude 3.5, но "за долю стоимости". Интересно, какую именно долю? 💸
Что классно - сейчас модель доступна ограниченное время забесплатно! (см. скриншот)

• SWE-1-lite — замена для Cascade Base. Быстрее, лучше и, что самое главное, бесплатна для всех пользователей.

• SWE-1-mini — модель для пассивных предложений в Windsurf Tab, оптимизированная для работы в реальном времени.

Почему именно SWE?

Потому что, как нам объясняют, разработка программного обеспечения — это не только кодинг. Современные рабочие процессы охватывают терминалы, редакторы, браузеры, документацию и обратную связь с пользователями. SWE-1 якобы создана для работы со всем этим комплексом задач — от неполных идей до работающих систем. Амбициозно, ничего не скажешь. 🧩

Доступ и цены 💰

Вот что предлагается:

• SWE-1-lite теперь стандартная бесплатная модель в Cascade — доступна всем без ограничений использования.
• SWE-1 доступна только платным пользователям, но пока работает за "0 кредитов за запрос". Скоро появится у корпоративных клиентов.
• Компании получат доступ к SWE-1-lite и SWE-1-mini с первого дня, а вот SWE-1 будет доступна позже с возможностью отдельного подключения.

Что дальше? 🔮

Компания утверждает, что доказала возможность обучения моделей уровня SWE небольшой командой с ограниченными вычислительными ресурсами. Теперь они планируют масштабироваться. Обещают, что SWE-1 будет поддерживать больше рабочих процессов, быстро улучшаться и со временем станет дешевле в использовании.

Что ж, посмотрим, насколько эти обещания соответствуют реальности. И изменится ли что-то когда сделка с Openai состоится.

#ИИдляРазработчиков #windsurf #SWE1 #НовыеМодели #ИскусственныйИнтеллект #update
👍2🔥21
Media is too big
VIEW IN TELEGRAM
Что такое OpenMemory MCP Server?

OpenMemory MCP Server — это локальная инфраструктура памяти, которая позволяет вашим AI-ассистентам "помнить" контекст при переключении между разными приложениями. Вся информация хранится локально на вашем компьютере, без отправки данных в облако.

По сути, это сервер, который создаёт единый слой памяти для всех ваших MCP-совместимых инструментов. Звучит впечатляюще, хотя на практике это просто означает, что вам не придётся повторять одни и те же инструкции в разных AI-приложениях.

Как это работает?

OpenMemory построен на основе Model Context Protocol (MCP) и предоставляет стандартный набор инструментов для работы с памятью:

add_memories: Сохранение новых объектов памяти
search_memory: Поиск релевантных воспоминаний
list_memories: Просмотр всей сохранённой памяти
delete_all_memories: Полная очистка памяти

Любой MCP-совместимый инструмент может подключиться к серверу и использовать эти API.

Что это даёт на практике?

1️⃣ Доступ к памяти между разными клиентами: сохраните контекст в Cursor и используйте его позже в Claude или Windsurf.

2️⃣ Полностью локальное хранилище: вся память хранится на вашем компьютере, ничего не уходит в облако.

3️⃣ Единый интерфейс для управления памятью: встроенная панель управления OpenMemory позволяет просматривать, добавлять и удалять воспоминания (очень похоже на Memories в Windsurf, которые работают между сессиями, только здесь речь идет про работу между приложениями).

Поддерживаемые клиенты

OpenMemory MCP Server совместим с любым клиентом, поддерживающим Model Context Protocol:

• Cursor
• Claude Desktop
• Windsurf
• Cline и другие

По мере того как всё больше AI-систем будут поддерживать MCP, ваша локальная память станет ещё полезнее.

Установка и настройка

Установка OpenMemory довольно проста и занимает всего несколько минут:

# Клонируем репозиторий
git clone https://github.com/mem0ai/mem0.git
cd openmemory

# Создаём файл .env с ключом OpenAI
cd api
touch .env
echo "OPENAI_API_KEY=your_key_here" > .env

# Возвращаемся в корень проекта и собираем Docker-образы
cd ..
make build

# Запускаем все сервисы
make up

# Запускаем фронтенд
cp ui/.env.example ui/.env
make ui


Для подключения MCP-клиентов вам понадобится ваш ID пользователя:

whoami


Затем добавьте следующую конфигурацию в ваш MCP-клиент:

npx install-mcp i "http://localhost:8765/mcp/<mcp-client>/sse/<your-username>" --client <mcp-client>


Панель управления OpenMemory будет доступна по адресу: http://localhost:3000

Примеры использования

💻 Сценарий 1: Определите технические требования проекта в Claude Desktop, разрабатывайте в Cursor, отлаживайте в Windsurf — всё с общим контекстом через OpenMemory.

⚙️ Сценарий 2: Настройте предпочтительный стиль кода в одном инструменте, и при переключении на другой MCP-клиент эти настройки будут доступны.

📋 Сценарий 3: Сохраните важные детали проекта один раз, а затем получайте к ним доступ из любого совместимого AI-инструмента.

Заключение

OpenMemory MCP Server решает одну из основных проблем современных LLM-инструментов: потерю контекста при переключении между приложениями. Хотя идея интересная, остаётся вопрос, насколько широко будет распространяться поддержка MCP среди популярных AI-инструментов.

Если вы часто переключаетесь между разными AI-ассистентами и устали повторять одно и то же, возможно, стоит попробовать. Но будьте готовы к некоторым техническим сложностям при настройке.

Ссылки:
• GitHub проекта тут
• Официальная документация здесь
• Расширенная документация со схемами здесь

#AITools #openmemory #LocalPrivacy #mcp #AIAssistants
2👍1🔥1
Dart: Альтернатива Taskmaster с графическим интерфейсом и AI-функциями

Привет, друзья! 👋 Сегодня хочу рассказать о менеджере задач Dart, который может стать неплохой заменой командно-строчному Taskmaster.

Если такие ограничения Taskmaster как отсутствие графического интерфейса и невозможность работы в команде для вас актуальны, то Dart может вас заинтересовать. Это AI-инструмент для управления проектами, который позволяет:

• Создавать и управлять задачами через графический интерфейс
• Назначать задачи членам команды или... AI-агенту 🤖 (он называется Dart-AI, см. скриншот)
• Интегрироваться с Cline, Roo, Cursor и другими AI-инструментами через MCP-сервер

Структура и возможности

В Dart вы работаете с:

1️⃣ Spaces (пространства) — для разных проектов
2️⃣ Dashboards (доски) — для управления задачами внутри проекта
3️⃣ Tasks (задачи) — которые можно разбивать на подзадачи

Что действительно выделяет Dart — это новый AI-чат. По сути, это как Cursor Composer, но для задач. Вы просто пишете, что хотите, а AI выполняет:
• "Создай 10 задач для разработки календаря на Next.js"
• "Расставь приоритеты для этих задач"
• "Назначь эти задачи Ивану, а эти — Марии"

Интеграция с AI-кодерами

Благодаря MCP-серверу, Dart легко интегрируется с Cline, Roo, Cursor и другими инструментами. Настройка занимает буквально пару минут — копируете конфиг, вставляете токен, и готово.

Рабочий процесс выглядит примерно так:
1️⃣ Попросите AI собрать задачи из Dart (их можно ранжировать по приоритетам)
2️⃣ Создайте файл задач с зависимостями
3️⃣ Начните работу над задачами
4️⃣ Отмечайте выполненные задачи в Dart

Цены и доступность

Dart предлагает:
• Бесплатный план с большинством функций (но такая фича как AI Chat - только в платной подписке)
• $10/месяц за расширенные возможности (если брать сразу годовую подписку, то $8, я пока тестирую помесячную оплату)
• $15/месяц для команд (если брать годовую подписку, то $12)

Честно говоря, по сравнению с конкурентами, цены весьма демократичные, хотя, как всегда, маркетологи уверяют, что их инструмент "революционный" и "незаменимый". 😏

Если вы ищете более интерактивный и командный подход к управлению задачами с AI-помощником, Dart может оказаться неплохим вариантом.

Источники:
• Официальная документация по ссылке
• Youtube видео по ссылке

#taskmanagement #ai #darttool #devtools #projectmanagement
👍3🔥21
Anthropic тестирует Claude с функцией самоисправления ошибок 🤖

Похоже, что Anthropic готовится выпустить обновленные версии своих моделей Claude Opus и Sonnet в ближайшие недели. По данным The Information, новые модели смогут работать гораздо более автономно, чем их предшественники. Звучит многообещающе, хотя мы уже не раз слышали подобные заявления от AI-компаний. 🙄

Что нового планируется в моделях? 🧠

Главное отличие — способность моделей переключаться между самостоятельным мышлением и использованием внешних инструментов. Если модель сталкивается с проблемой при использовании инструмента, она переходит в режим "размышления", анализирует ситуацию и исправляет ошибку.

Вот несколько примеров возможностей:

• При анализе рынка для кафе в Москве/Нью-Йорке модель начинает с изучения национальных трендов, но быстро понимает их бесполезность и переключается на демографические данные конкретного района (Хамовники/Гринвич Виллидж)

• В задачах программирования модель автоматически тестирует сгенерированный код и, если что-то идет не так, останавливается, чтобы найти и исправить ошибку.

• Даже с расплывчатыми запросами вроде "сделай приложение быстрее" модель самостоятельно пробует различные стратегии оптимизации

Меньше подсказок, больше инициативы 💡

Подход Anthropic соответствует общей тенденции в индустрии: создание AI-систем, способных работать с минимальными вводными и самостоятельно решать проблемы. Обновленные модели Claude призваны сочетать рассуждения и использование инструментов, переключаясь между этими режимами по мере необходимости.

OpenAI идет по тому же пути со своими моделями o3 и o4-mini. Хотя, как отмечают тестировщики, o3 все еще делает ошибки в сложных задачах чаще, чем предыдущие модели OpenAI. Что ж, идеальных AI пока не существует 😏

Остается надеяться, что Anthropic не только улучшит способность моделей к самоисправлению, но и увеличит контекстное окно до миллиона токенов (а может быть и двух 😏), а также обновит базу знаний до 2025 года. Иначе Gemini 2.5 Pro останется более привлекательным вариантом для большинства пользователей, несмотря на все новые "фишки".

#ИскусственныйИнтеллект #Claude #Anthropic #AIновости #МашинноеОбучение
2👍2
Codex от OpenAI: новый инструмент для разработчиков

OpenAI представила новый инструмент под названием Codex – облачный агент для разработки ПО, способный работать с несколькими задачами параллельно. 🤖

Codex работает на базе модели codex-1 (оригинальное название, ничего не скажешь 🙃), которая является оптимизированной версией OpenAI o3, настроенной специально для программирования. Инструмент уже доступен пользователям ChatGPT Pro, Team и Enterprise, а обладателям Plus-подписки придется немного подождать.

Как это работает? 🛠

Codex функционирует в облаке, а не на вашем компьютере, что позволяет:

• Запускать несколько задач одновременно
• Работать с вашими репозиториями GitHub
• Писать новые функции, исправлять баги и предлагать pull-запросы
• Отвечать на вопросы о вашей кодовой базе

Каждая задача выполняется в изолированной среде, предварительно загруженной с вашим репозиторием. Codex может читать и редактировать файлы, запускать команды, включая тесты, линтеры и проверки типов.

Что умеет Codex? 💻

1️⃣ Выполнять рутинные задачи: рефакторинг, переименование, написание тестов
2️⃣ Создавать новые функции и компоненты
3️⃣ Исправлять ошибки в коде
4️⃣ Составлять документацию
5️⃣ Анализировать кодовую базу и предлагать улучшения

Интересная особенность – Codex можно "обучать" с помощью файлов AGENTS.md, размещенных в репозитории. В этих файлах вы можете указать, как навигировать по кодовой базе, какие команды запускать для тестирования и как придерживаться стандартных практик проекта.

Безопасность и ограничения ⚠️

OpenAI утверждает, что уделила особое внимание безопасности и прозрачности. Codex работает в защищенном контейнере в облаке, без доступа к интернету. Он может взаимодействовать только с кодом, явно предоставленным через репозитории GitHub и предустановленные зависимости.

Однако стоит помнить, что это всё ещё "исследовательский превью", и у инструмента есть ограничения:
• Отсутствие поддержки изображений для фронтенд-разработки
• Невозможность корректировать работу агента в процессе выполнения
• Делегирование удаленному агенту занимает больше времени, чем интерактивное редактирование
• Codex пока доступен только в ChatGPT Pro тарифе, ждем его появления в более демократичных Plus и Edu редакциях 😏

Что дальше? 🔮

OpenAI планирует развивать Codex, добавляя новые функции:
• Более интерактивные и гибкие рабочие процессы
• Возможность предоставлять указания во время выполнения задачи
• Интеграция с другими инструментами: GitHub, Codex CLI, ChatGPT Desktop и даже системами отслеживания проблем

Также компания выпустила облегченную версию codex-1 для использования в Codex CLI – локальном агенте, который работает в вашем терминале.

Звучит впечатляюще, но насколько это изменит реальную работу программистов – покажет только время. Возможно, мы наблюдаем начало новой эры в разработке ПО, а может быть, это просто очередной инструмент, который будет полезен в определенных сценариях, но не произведет революцию.
А как вы думаете?

P.S. Немного иронично:
• производители LLM-моделей (openai) идут в AI-кодинг, а создатели AI-кодеров идут в производство моделей
• при этом производитель LLM-модели (openai) собирается купить такого "первопроходца" из AI-кодеров (windsurf),
кажется, что openai хотят иметь в своем портфеле все: и "онпрем" и "облачное" решение по AI-кодингу для своих заказчиков 🤔

#ИскусственныйИнтеллект #Разработка #openai #codex #БудущееПрограммирования
RPGGO: Бесплатный генератор 2D игр на базе ИИ 🎮

Недавно писал про классный ИИ-разработчик 3D-игр
И вот наткнулся еще на одну интересную штуку - RPGGO выпустил генератор 2D игр, который работает полностью на ИИ. Да-да, еще один "революционный" инструмент в нашем перенасыщенном технологиями мире. Но, надо признать, выглядит действительно любопытно. 🤔

Что умеет этот генератор:


• Создает полноценные 2D игры по текстовому описанию
• Генерирует автономных NPC, которые взаимодействуют друг с другом и с игроком
• Позволяет настраивать внешний вид локаций и персонажей
• Работает без навыков программирования

Как это работает:

1️⃣ Заходите на сайт RPGGO и выбираете "Create a new game"
2️⃣ Описываете идею игры (например, "игра про вампиров")
3️⃣ Нажимаете кнопку "Launch 2D" для перехода в режим 2D игры
4️⃣ Настраиваете дизайн локации (город, деревня, пустыня и т.д.)
5️⃣ Создаете главного персонажа и генерируете для него спрайт
6️⃣ Добавляете здания и NPC на карту

После этого игра "оживает" - персонажи начинают автономно действовать, а вы можете взаимодействовать с ними через чат-интерфейс. Система показывает даже "мысли" NPC.

Графика, мягко говоря, не AAA-уровня, но для быстрого прототипирования или развлечения вполне сойдет.

Что можно сделать:

• Расширять карту по своему усмотрению
• Добавлять новых персонажей для более интересных диалогов
• Настраивать внешний вид зданий через текстовые промпты
• Делиться созданными играми с другими пользователями

В целом, если у вас есть пара свободных часов и желание поиграть в "разработчика игр", можно попробовать. Хотя бы ради того, чтобы посмотреть, как ИИ будет пытаться создать осмысленный геймплей из вашего хаотичного описания вампирской саги. 🧛‍♂️

#ИИигры #GameDev #RPGGO #ГенерацияИгр #ИИтехнологии #games
👍3❤‍🔥2