Заметки LLM-энтузиаста
696 subscribers
169 photos
24 videos
1 file
206 links
Дмитрий Жечков @djdim
архитектор в Yandex Cloud,
ex. VMware NSX specialist, ex. Cisco SE

Здесь пишу свои заметки по LLM (большим языковым моделям) и AI-разработке.

Это личное мнение и не отражает официальную позицию компании, в которой я работаю.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
ByteDance открыл исходный код FlowGram: инструмента для оркестрации рабочих процессов, который используется в Coze!

Компания ByteDance, известная как создатель TikTok, недавно сделала важный шаг для сообщества разработчиков — открыла исходный код своего инструмента FlowGram 🔄

Что такое FlowGram?

FlowGram — это движок для построения процессов на основе узлов, который позволяет разработчикам быстро создавать рабочие процессы с:

• фиксированными макетами
• произвольными соединениями между компонентами

Ключевые особенности

Инструмент предоставляет набор лучших практик для взаимодействия, что делает его особенно полезным для:

1️⃣ Визуализации рабочих процессов
2️⃣ Создания четких входных и выходных параметров
3️⃣ Упрощения сложных последовательностей действий

Если вы интересуетесь инструментами оркестрации или работаете с Coze, стоит обратить внимание на этот проект.
Кажется, что теперь сделать свое no-code решение стало еще проще :)

• Исходный код доступен на GitHub: https://github.com/bytedance/flowgram.ai
• Подробная документация со схемами архитектуры от deepwiki здесь

#workflow #bytedance #opensource #development #ai
❤‍🔥2👍2
DeepSeek-R1-0528: новая модель с открытым исходным кодом 🤖

Компания DeepSeek выпустила обновленную версию своей модели R1-0528, которая теперь доступна с открытым исходным кодом на платформе HuggingFace.

Основные характеристики модели:

• Выполняет глубокий анализ и генерацию текста
• Обладает естественным стилем рассуждений
• Поддерживает длительную обработку задач
• Может работать над одной задачей до 30-60 минут
• Основана на DeepSeek-V3-0324 с 660B параметрами

Результаты тестирования 📊

На бенчмарке LiveCodeBench новая модель показала результаты:

1️⃣ Сопоставимые с o3-mini (High) и o4-mini (Medium) 2️⃣ Превосходящие Gemini 2.5 Pro 3️⃣ Значительное улучшение способностей к программированию

Модель представляет собой заметный шаг вперед для open-source решений в области ИИ. Веса модели уже доступны для загрузки, хотя описание на HuggingFace пока не обновлено.
Модель уже можно использовать в AI-кодерах Roo Code/Cline, например, через https://www.requesty.ai/ (на openrouter пока нет)

🔗 Ссылка: https://huggingface.co/deepseek-ai/DeepSeek-R1-0528/tree/main

#deepseek #opensource #ai #llm #reasoning
2👍2
🔍 Два новых инструмента для веб-поиска и исследований: Firesearch и GPT Researcher

Разработчики получили два интересных решения для автоматизации веб-исследований, которые решают разные задачи при работе с данными.

Firesearch: поиск и скрапинг в одном запросе

Firecrawl запустили эндпоинт /search, который объединяет поиск в интернете и извлечение контента в одном API-вызове. Теперь не нужно делать отдельные запросы для поиска и последующего скрапинга страниц. Что очень круто. Например, yandex search api в режиме нейро-поиска пока работает только по определенному спектру url (см. здесь).

Основные возможности:
• Поиск и извлечение контента одним запросом
• Настройка по языку, стране и временному диапазону
• Вывод в разных форматах: markdown, HTML, ссылки, скриншоты
• Интеграция с Zapier, n8n, MCP для Claude и OpenAI

Как устроен:
Firesearch использует Langgraph и Firecrawl и построен на основе одного основного компонента - LangGraphSearchEngine, который управляет всем процессом поиска через граф состояний LangGraph.
Система содержит 6 основных узлов обработки в графе состояний:
understand - анализ запроса пользователяplan - планирование стратегии поиска
search - выполнение поисковых запросов
scrape - извлечение дополнительного контента
analyze - анализ найденных источников
synthesize - синтез финального ответа
Подробнее в репозитории (где, кстати, есть возможность сразу сделать деплой на vercel со своими ключами Firecrawl и Openai) и на deepwiki (где можно не только подробно ознакомиться с архитектурой решения, но и позадавать интересующие вопросы, только не включайте опцию deep research - она почему-то работает бесконечно медленно)


GPT Researcher: opensource альтернатива дорогим deep research решениям

Пока крупные компании предлагают свои "Deep Research" функции за $200/месяц (OpenAI) или с ограничениями (Perplexity - 5 запросов в день), GPT Researcher предоставляет открытое решение.

Ключевые особенности:
1️⃣ Мультиагентная архитектура с планировщиком и исполнителем
2️⃣ Рекурсивные исследования с древовидной структурой анализа
3️⃣ Обработка 20+ источников за 3 минуты ($0.1 за отчет)
4️⃣ Глубокий анализ за 5 минут ($0.4 за расширенный отчет)
5️⃣ Отчеты свыше 2000 слов с цитированием источников

Как устроен
GPT Researcher использует Tavily для поиска и LangGraph для построения мультиагентной архитектуры.
Система состоит из 8 агентов:
Chief Editor - главный агент-координатор, который управляет командой через LangGraph
Researcher (gpt-researcher) - специализированный автономный агент для исследований
Editor - планирует структуру исследования
Reviewer - проверяет корректность результатов
Revisor - пересматривает результаты на основе обратной связи
Writer - составляет финальный отчет
Publisher - публикует отчет в различных форматах
Human - человек в цикле для обратной связи
Подобнее в репозитории и на deepwiki
Также у GPT Researcher есть отдельный репозиторий для MCP-сервера

Практическое применение 📊

Firesearch подходит для быстрого получения актуального контента с веб-страниц, а GPT Researcher - для комплексного анализа и создания детальных отчетов по исследуемым темам.

Оба инструмента можно интегрировать в существующие рабочие процессы и настроить под конкретные задачи.

@llm_notes

#webscraping #deepresearch #opensource #firecrawl #langgraph
5👍2
Media is too big
VIEW IN TELEGRAM
Claudia: долгожданный GUI для Claude Code — обзор возможностей 🖥

Никто, наверное, сейчас не будет спорить, что Claude Code от Anthropic с момента своего выхода в свет показал себя, как мощнейший AI-инструмент для разработки, но работа через командную строку подходит не всем, да и добавлять скрины интерфейса приложения в него в процессе траблшутинга не так удобно как в том же Cursor.
Claudia решает эту проблему, предоставляя графический интерфейс и дополнительные возможности.

Что такое Claudia? 🤔


Claudia — это open-source десктопное приложение, построенное на Tauri 2, которое превращает Claude Code в полноценную IDE-подобную среду. Работает на Windows, macOS и Linux.

Основные возможности 🛠

(очень советую посмотреть "крышесносную" 2х минутную демку)

Управление проектами:
• Визуальный браузер всех Claude Code проектов
• Возобновление прошлых сессий с полным контекстом
• Умный поиск по проектам и сессиям

Кастомные агенты:
• Создание специализированных AI-агентов
• Настройка системных промптов для конкретных задач
• Изолированная среда выполнения с детальными разрешениями

Аналитика и мониторинг:
📊 Dashboard с метриками использования 📈 Отслеживание расходов API в реальном времени 📋 Детальная разбивка по моделям, проектам и времени

Ключевые преимущества 💡

1️⃣ Полный контекст
В отличие от Cursor, Claude Code предоставляет доступ к полному контекстному окну модели (200K токенов), что значительно повышает качество работы.

2️⃣ Система чекпоинтов
• Создание точек сохранения в любой момент
• Визуальная временная шкала сессий
• Возможность отката изменений одним кликом
• Встроенный diff-viewer для сравнения версий

3️⃣ Удобство работы с изображениями Прямая вставка изображений в интерфейс без необходимости указывать пути к файлам.

4️⃣ MCP серверы
• Графическое управление Model Context Protocol серверами
• Импорт конфигураций из JSON
• Тестирование соединений через UI

Установка ⚙️

Требования:
• Node.js 18+
• Rust 1.70+
• Bun
• Git
• Claude Code CLI

Процесс установки:

git clone https://github.com/getAsterisk/claudia.git
cd claudia
bun install
bun run tauri build

У меня вся процедура заняла около 5 минут

Практическое применение 🎯

Примеры использования:
• Создание веб-приложений (например, клон Notion)
• Разработка мобильных прототипов
• Автоматизация рефакторинга кода
• Написание unit-тестов

Типы агентов которые можно создать:
• Web Search Agent — для поиска документации
• Security Scanner — проверка уязвимостей (просто 🔥)
• Code Quality Checker — анализ качества кода
• Bug Fixer — автоматическое исправление ошибок

Ограничения ⚠️

• Сборка только из исходного кода (пока нет готовых релизов)
• Лицензия AGPL (важно для коммерческого использования)
• Некоторые функции еще в разработке
• Claude Code недоступен на Windows (только через WSL)

Заключение 📝

Claudia превращает мощный, но сложный в использовании Claude Code в доступный инструмент с богатым функционалом. Особенно полезна Claudia будет для разработчиков, которые предпочитают графические интерфейсы командной строке.

Проект активно развивается и уже сейчас предлагает функциональность, сопоставимую с коммерческими решениями.

@llm_notes

#claudecode #vibecoding #claudia #development #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83🔥2🦄1
Media is too big
VIEW IN TELEGRAM
Qwen3-Code: новый конкурент Claude Code 🚀

Alibaba выпустила Qwen3-Code — модель для программирования с 480 миллиардами параметров (35 млрд активных). Модель поддерживает контекст до 256K токенов нативно и до 1M через экстраполяцию.

Ключевые особенности:
• Mixture of Experts архитектура
• Обучена на 7.5 триллионах токенов (70% код)
• Поддержка агентных задач: кодирование, браузер, инструменты
• Производительность сравнима с Claude Sonnet 4

Инструменты разработки: 🛠

1️⃣ Qwen Code — CLI инструмент (форк Gemini Code)
2️⃣ Интеграция с Claude Code — через API совместимость (подробности в блоге по ссылке)
3️⃣ Поддержка в Cline

Результаты тестирования:
SWE-Bench Verified: выше Kimi K2 (которая при в 4-5 раз меньшей стоимости показывает результаты всего лишь немного хуже, чем Claude Sonnet 4), ниже Sonnet 4
• Хорошо справляется с задачами, где требуется использование внешних инструментов (tools)
• Более лаконичные ответы по сравнению с Kimi

Доступность и цены: 💰

Бесплатно: chat.qwen.ai
Дешево: Hyperbolic ($2), Parasail ($2-$3.5) - через openrouter.ai
Дорого: официальный API ($6-60 за 1M токенов) и из РФ не так то просто завести учетку на alibabacloud (нужна не только карточка иностранного банка, но и иностранный мобильный номер при регистрации)

Ограничения:
• Пока доступна только большая модель (480B)
• Контекст 256K (больше, чем у Claude)
• Спорные результаты бенчмарков от разработчиков

Установка Qwen Code:

npm i -g @qwen-code/qwen-code


Модель показывает хорошие результаты в задачах AI-программирования, но требует осторожности при выборе провайдера API из-за разброса цен 📊
Теперь в случае когда Claude Sonnet сбоит (как это было на прошлой неделе), у нас есть неплохая замена: Qwen3-code и Kimi-2 (оба варианта можно использовать в Claude Code)

@llm_notes

#qwen #vibecoding #llm #programming #opensource
1👍6
🔧 Open Lovable: быстрое клонирование сайтов и создание React-приложений через чат с ИИ

Команда Mendable AI выпустила открытый инструмент для быстрого создания React-приложений.
Open Lovable (не путать с lovable.dev, который является коммерческим развитием GPT Engineer) позволяет клонировать любой сайт и воссоздать его как современное React-приложение за несколько минут.

Основные возможности:
• Создание приложений через чат с ИИ
• Клонирование существующих веб-сайтов
• Автоматическая генерация React-кода
• Поддержка современного стека технологий

Технические требования: 1️⃣ E2B API ключ для песочниц 2️⃣ Firecrawl API для веб-скрапинга 3️⃣ Один из ИИ провайдеров: Anthropic, OpenAI или Groq

Установка:
git clone https://github.com/mendableai/open-lovable.git
cd open-lovable
npm install
npm run dev


Проект распространяется под лицензией MIT и уже набрал 3.1k звёзд на GitHub 📈

Инструмент может быть полезен для быстрого прототипирования и создания MVP, особенно когда нужно воссоздать дизайн существующего сайта.

На скриншоте - моя попытка склонировать сайт lovable.dev
Результат, который получился, можно найти по ссылке

DeepWiki по проекту здесь (в этот раз почему-то без схем архитектуры)

@llm_notes

#react #ai #vibecoding #opensource #javascript #lovable
👍4
Quests: классная open-source альтернатива Bolt и Lovable 🛠

Появилась еще одна интересная альтернатива веб AI-кодерам типа Bolt и Lovable.
И она, на мой взгляд, смотрится гораздо лучше, чем Open Lovable или Bolt.DIY.

Quests — это десктопное приложение с открытым исходным кодом, которое позволяет создавать React-приложения через удобный UI-интерфейс (как в Genspark AI Developer )

Основные особенности:

• Минималистичный интерфейс со вкладками как в браузере
• Поддержка нескольких AI-провайдеров (OpenAI, Anthropic, Gemini, OpenRouter, локальные модели через Ollama и Vercel AI Gateway - благодаря Quests, я узнал, что такой есть :)
• Низкое потребление памяти (~200 МБ)
• Кроссплатформенность
• Локальный запуск приложений

Технический стек:

🔹 Vite для фронтенда
🔹 Hono для бэкенда
🔹 ORPC для API
🔹 Встроенная поддержка Git
🔹 Экспорт готовых приложений

Что умеет:

1️⃣ Создание полноценных веб-приложений по текстовому описанию
2️⃣ Работа с несколькими проектами одновременно
3️⃣ Предварительный просмотр в реальном времени
4️⃣ Открытие проектов в VS Code, Cursor или терминале (очень удобно для решения вопросов по публикации приложения)
5️⃣ Версионирование с возможностью отката

Ограничения:

• Пока нет поддержки переменных окружения
• Отсутствует импорт существующих проектов
Нельзя прикреплять изображения
• Ограниченный выбор технологических стеков

Проект активно развивается и может стать серьезным конкурентом коммерческим решениям.
Особенно привлекает возможность использования бесплатных моделей через OpenRouter, включая Qwen3-coder и DeepSeek V3.1 (см. скриншот). Code-Supernova, к сожалению, пока не поддерживает.

Источники:
🔗 [GitHub репозиторий]
🔗 [Deepwiki на репозиторий]
🔗 [Официальный сайт]


@llm_notes

#opensource #vibecoding #web #react #lovable #bolt #quests
4👍1
🚀 DeepSeek представила V3.2-Exp с технологией разреженного внимания

Опенсорс также не остался в стороне от потока позитивных новостей :)
Компания DeepSeek выпустила экспериментальную версию своей модели V3.2-Exp, которая использует новый механизм разреженного внимания (DeepSeek Sparse Attention).

Ключевые особенности:

Снижение стоимости обработки длинных контекстов на 85%
• Обработка только 2K наиболее важных токенов из 128K
• Сохранение качества на уровне V3.1-Terminus
• Снижение цен API более чем на 50%

Технические характеристики:

🔹 Модель игнорирует нерелевантные токены
🔹 Фокусируется на топ-2K токенах из контекста 128K
🔹 Значительное улучшение эффективности обучения и инференса

Доступность:

1️⃣ Hugging Face
2️⃣ Официальное приложение DeepSeek
3️⃣ Web-интерфейс
4️⃣ API с пониженными ценами (-50%)

Я жду пока появится на openrouter.ai или requesty.ai чтобы потестировать на нескольких задачах AI-кодинга средней сложности как чуть ранее делал для модели code-supernova здесь (тестировал через github codespaces - очень удобно, не нужно загружать свой ПК)

Производительность:
Тестирование показало сопоставимые результаты с V3.1-Terminus по основным бенчмаркам, включая MMLU-Pro, GPQA-Diamond и LiveCodeBench.

Модель доступна под лицензией MIT и поддерживается популярными фреймворками для инференса SGLang и vLLM 📊

Источники:
🔗 [GitHub репозиторий]
🔗 [Hugging Face]

@llm_notes

#deepseek #sparseattention #longcontext #llm #opensource
3👍1