Заметки LLM-энтузиаста
671 subscribers
162 photos
24 videos
1 file
200 links
Дмитрий Жечков @djdim
архитектор в Yandex Cloud,
ex. VMware NSX specialist, ex. Cisco SE

Здесь пишу свои заметки по LLM (большим языковым моделям) и AI-разработке.

Это личное мнение и не отражает официальную позицию компании, в которой я работаю.
Download Telegram
Media is too big
VIEW IN TELEGRAM
🎥 Lovable провели live-демонстрацию нового Cloud + AI на стриме

В дополнении к недавнему анонсу нового облака команда Lovable провела сегодня прямой эфир (1 час), где в реальном времени показала возможности недавно запущенных Lovable Cloud и Lovable AI.

Что показали на стриме:

🔹 Создание приложения для генерации изображений с нуля
🔹 Автоматическое подключение базы данных и аутентификации
🔹 Интеграцию ИИ без настройки API-ключей
🔹 Добавление системы подписок через Stripe

Демонстрация в цифрах:

1️⃣ Лендинг создан за несколько минут с автогенерацией изображений
2️⃣ Пользовательские аккаунты настроены автоматически
3️⃣ ИИ-генерация изображений работает из коробки
4️⃣ Профили пользователей с галереей изображений
5️⃣ Темы для стилизации (киберпанк, ретро, Studio Ghibli)

Новые возможности Cloud:

• Встроенная панель управления базой данных
• Мониторинг пользователей и активности
• Управление файловым хранилищем
• Отслеживание использования ИИ-моделей
• Логи для отладки

Интересные моменты стрима:

⚡️ Разработчики импровизировали и добавляли функции по запросам зрителей
⚡️ Показали загрузку изображений для контекста ИИ-генерации
⚡️ Продемонстрировали интеграцию с платежными системами
⚡️ Обсудили планы по поддержке других провайдеров платежей

Технические детали:

🔧 Хостинг: преимущественно в ЕС для соответствия GDPR
🔧 Модели: Google Gemini бесплатно до конца недели
🔧 Совместимость: полная поддержка Supabase сохранена
🔧 Производительность: улучшения на 20% с новой Claude 4.5

Ценообразование остается доступным:

💰 $25/месяц включенного использования Cloud
💰 $1/месяц включенного использования AI
💰 Оплата только при превышении лимитов

Стрим показал, насколько упростилось создание полнофункциональных приложений с ИИ — от идеи до работающего продукта за один сеанс без написания кода и настройки инфраструктуры.

• Подробный интерактивный транскрипт стрима (с промптами) здесь.
• Краткая нарезка наиболее интересных моментов (3 мин) - прикреплена к заметке.

@llm_notes

#lovable #livestream #vibecoding #ai #cloud #transcript
👍51
Media is too big
VIEW IN TELEGRAM
🧠 Контекстная инженерия для AI-агентов: практические уроки от LangChain и Manus

В этот вторник на youtube канале Langchain опубликовали, пожалуй, один из лучших глубоких разборов контекстной инженерии в сети — часовой мастер-класс с реальными инсайтами от LangChain и Manus. Рассматриваются продвинутые техники для AI-агентов: выгрузка, сжатие и изоляция контекста, плюс свежий взгляд на многоуровневые пространства действий. Много практических выводов, никакой воды.
В продолжении темы подкаста про "Контекст-инжиниринг для AI-агентов: 5 ключевых принципов", который я разбирал в заметках ранее, команды LangChain и Manus провели детальный разбор одной из ключевых проблем современных AI-агентов — управления контекстом. Делюсь главными выводами.

🔍 Суть проблемы

AI-агенты накапливают огромное количество контекста через вызовы инструментов. Типичная задача требует ~50 вызовов, продакшн-агенты могут делать сотни ходов. При этом производительность моделей падает с ростом контекста — классический парадокс.

⚙️ Пять основных подходов к решению:

🔸 Выгрузка контекста — перенос данных в файловую систему вместо хранения в истории сообщений

🔸 Сокращение контекста — суммирование или сжатие информации (Claude 4.5 уже поддерживает из коробки)

🔸 Извлечение контекста — индексирование + семантический поиск vs простые файловые инструменты

🔸 Изоляция контекста — разделение между под-агентами с собственными контекстными окнами

🔸 Кэширование контекста — переиспользование вычислений

💡 Практические находки от Manus:

Компактизация vs Суммирование
• Компактизация — обратимое сжатие (убираю данные, которые можно восстановить из файлов)
• Суммирование — необратимое, но с сохранением ключевой информации в файлах

Многоуровневое пространство действий
1️⃣ Вызов функций — базовые атомарные операции
2️⃣ Утилиты песочницы — предустановленные команды Linux
3️⃣ Пакеты и API — Python-скрипты для сложных вычислений

Два паттерна изоляции контекста:
• Коммуникация — под-агент получает только инструкцию
• Разделение памяти — под-агент видит всю историю, но имеет свой промпт

📊 Практические советы:

• Используй структурированные схемы вместо свободного суммирования
• Приоритизируй форматы на основе строк для удобства grep/поиска
• Не превышай ~30 инструментов в контексте
• Тестируй архитектуру переключением между моделями разной силы
• Избегай чрезмерной инженерии — простота часто работает лучше

🎯 Главный вывод

Контекстная инженерия — это баланс между конфликтующими целями. Цель не в создании сложных систем, а в упрощении работы модели. Самые большие улучшения часто приходят от удаления лишнего, а не добавления нового.

📹 Дополнительно

• Оригинальное видео (1 час) по ссылке
• Краткая (7 мин) видео-нарезка основных тезисов обсуждения - прикрепил к заметке
• Интерактивный транскрипт с исходниками презентаций здесь (очень рекомендую хотя бы "пробежаться глазами" если нет времени смотреть оригинальное видео - там много интересных инсайтов)

@llm_notes

#context_engineering #agents #langchain #prompt_engineering #llm_optimization #manus #transcript
❤‍🔥32👍1