Media is too big
VIEW IN TELEGRAM
🎥 Lovable провели live-демонстрацию нового Cloud + AI на стриме
В дополнении к недавнему анонсу нового облака команда Lovable провела сегодня прямой эфир (1 час), где в реальном времени показала возможности недавно запущенных Lovable Cloud и Lovable AI.
Что показали на стриме:
🔹 Создание приложения для генерации изображений с нуля
🔹 Автоматическое подключение базы данных и аутентификации
🔹 Интеграцию ИИ без настройки API-ключей
🔹 Добавление системы подписок через Stripe
Демонстрация в цифрах:
1️⃣ Лендинг создан за несколько минут с автогенерацией изображений
2️⃣ Пользовательские аккаунты настроены автоматически
3️⃣ ИИ-генерация изображений работает из коробки
4️⃣ Профили пользователей с галереей изображений
5️⃣ Темы для стилизации (киберпанк, ретро, Studio Ghibli)
Новые возможности Cloud:
• Встроенная панель управления базой данных
• Мониторинг пользователей и активности
• Управление файловым хранилищем
• Отслеживание использования ИИ-моделей
• Логи для отладки
Интересные моменты стрима:
⚡️ Разработчики импровизировали и добавляли функции по запросам зрителей
⚡️ Показали загрузку изображений для контекста ИИ-генерации
⚡️ Продемонстрировали интеграцию с платежными системами
⚡️ Обсудили планы по поддержке других провайдеров платежей
Технические детали:
🔧 Хостинг: преимущественно в ЕС для соответствия GDPR
🔧 Модели: Google Gemini бесплатно до конца недели
🔧 Совместимость: полная поддержка Supabase сохранена
🔧 Производительность: улучшения на 20% с новой Claude 4.5
Ценообразование остается доступным:
💰 $25/месяц включенного использования Cloud
💰 $1/месяц включенного использования AI
💰 Оплата только при превышении лимитов
Стрим показал, насколько упростилось создание полнофункциональных приложений с ИИ — от идеи до работающего продукта за один сеанс без написания кода и настройки инфраструктуры.
• Подробный интерактивный транскрипт стрима (с промптами) здесь.
• Краткая нарезка наиболее интересных моментов (3 мин) - прикреплена к заметке.
@llm_notes
#lovable #livestream #vibecoding #ai #cloud #transcript
В дополнении к недавнему анонсу нового облака команда Lovable провела сегодня прямой эфир (1 час), где в реальном времени показала возможности недавно запущенных Lovable Cloud и Lovable AI.
Что показали на стриме:
🔹 Создание приложения для генерации изображений с нуля
🔹 Автоматическое подключение базы данных и аутентификации
🔹 Интеграцию ИИ без настройки API-ключей
🔹 Добавление системы подписок через Stripe
Демонстрация в цифрах:
1️⃣ Лендинг создан за несколько минут с автогенерацией изображений
2️⃣ Пользовательские аккаунты настроены автоматически
3️⃣ ИИ-генерация изображений работает из коробки
4️⃣ Профили пользователей с галереей изображений
5️⃣ Темы для стилизации (киберпанк, ретро, Studio Ghibli)
Новые возможности Cloud:
• Встроенная панель управления базой данных
• Мониторинг пользователей и активности
• Управление файловым хранилищем
• Отслеживание использования ИИ-моделей
• Логи для отладки
Интересные моменты стрима:
⚡️ Разработчики импровизировали и добавляли функции по запросам зрителей
⚡️ Показали загрузку изображений для контекста ИИ-генерации
⚡️ Продемонстрировали интеграцию с платежными системами
⚡️ Обсудили планы по поддержке других провайдеров платежей
Технические детали:
🔧 Хостинг: преимущественно в ЕС для соответствия GDPR
🔧 Модели: Google Gemini бесплатно до конца недели
🔧 Совместимость: полная поддержка Supabase сохранена
🔧 Производительность: улучшения на 20% с новой Claude 4.5
Ценообразование остается доступным:
💰 $25/месяц включенного использования Cloud
💰 $1/месяц включенного использования AI
💰 Оплата только при превышении лимитов
Стрим показал, насколько упростилось создание полнофункциональных приложений с ИИ — от идеи до работающего продукта за один сеанс без написания кода и настройки инфраструктуры.
• Подробный интерактивный транскрипт стрима (с промптами) здесь.
• Краткая нарезка наиболее интересных моментов (3 мин) - прикреплена к заметке.
@llm_notes
#lovable #livestream #vibecoding #ai #cloud #transcript
👍5❤1
Media is too big
VIEW IN TELEGRAM
🧠 Контекстная инженерия для AI-агентов: практические уроки от LangChain и Manus
В этот вторник на youtube канале Langchain опубликовали, пожалуй, один из лучших глубоких разборов контекстной инженерии в сети — часовой мастер-класс с реальными инсайтами от LangChain и Manus. Рассматриваются продвинутые техники для AI-агентов: выгрузка, сжатие и изоляция контекста, плюс свежий взгляд на многоуровневые пространства действий. Много практических выводов, никакой воды.
В продолжении темы подкаста про "Контекст-инжиниринг для AI-агентов: 5 ключевых принципов", который я разбирал в заметках ранее, команды LangChain и Manus провели детальный разбор одной из ключевых проблем современных AI-агентов — управления контекстом. Делюсь главными выводами.
🔍 Суть проблемы
AI-агенты накапливают огромное количество контекста через вызовы инструментов. Типичная задача требует ~50 вызовов, продакшн-агенты могут делать сотни ходов. При этом производительность моделей падает с ростом контекста — классический парадокс.
⚙️ Пять основных подходов к решению:
🔸 Выгрузка контекста — перенос данных в файловую систему вместо хранения в истории сообщений
🔸 Сокращение контекста — суммирование или сжатие информации (Claude 4.5 уже поддерживает из коробки)
🔸 Извлечение контекста — индексирование + семантический поиск vs простые файловые инструменты
🔸 Изоляция контекста — разделение между под-агентами с собственными контекстными окнами
🔸 Кэширование контекста — переиспользование вычислений
💡 Практические находки от Manus:
Компактизация vs Суммирование
• Компактизация — обратимое сжатие (убираю данные, которые можно восстановить из файлов)
• Суммирование — необратимое, но с сохранением ключевой информации в файлах
Многоуровневое пространство действий
1️⃣ Вызов функций — базовые атомарные операции
2️⃣ Утилиты песочницы — предустановленные команды Linux
3️⃣ Пакеты и API — Python-скрипты для сложных вычислений
Два паттерна изоляции контекста:
• Коммуникация — под-агент получает только инструкцию
• Разделение памяти — под-агент видит всю историю, но имеет свой промпт
📊 Практические советы:
• Используй структурированные схемы вместо свободного суммирования
• Приоритизируй форматы на основе строк для удобства grep/поиска
• Не превышай ~30 инструментов в контексте
• Тестируй архитектуру переключением между моделями разной силы
• Избегай чрезмерной инженерии — простота часто работает лучше
🎯 Главный вывод
Контекстная инженерия — это баланс между конфликтующими целями. Цель не в создании сложных систем, а в упрощении работы модели. Самые большие улучшения часто приходят от удаления лишнего, а не добавления нового.
📹 Дополнительно
• Оригинальное видео (1 час) по ссылке
• Краткая (7 мин) видео-нарезка основных тезисов обсуждения - прикрепил к заметке
• Интерактивный транскрипт с исходниками презентаций здесь (очень рекомендую хотя бы "пробежаться глазами" если нет времени смотреть оригинальное видео - там много интересных инсайтов)
@llm_notes
#context_engineering #agents #langchain #prompt_engineering #llm_optimization #manus #transcript
В этот вторник на youtube канале Langchain опубликовали, пожалуй, один из лучших глубоких разборов контекстной инженерии в сети — часовой мастер-класс с реальными инсайтами от LangChain и Manus. Рассматриваются продвинутые техники для AI-агентов: выгрузка, сжатие и изоляция контекста, плюс свежий взгляд на многоуровневые пространства действий. Много практических выводов, никакой воды.
В продолжении темы подкаста про "Контекст-инжиниринг для AI-агентов: 5 ключевых принципов", который я разбирал в заметках ранее, команды LangChain и Manus провели детальный разбор одной из ключевых проблем современных AI-агентов — управления контекстом. Делюсь главными выводами.
🔍 Суть проблемы
AI-агенты накапливают огромное количество контекста через вызовы инструментов. Типичная задача требует ~50 вызовов, продакшн-агенты могут делать сотни ходов. При этом производительность моделей падает с ростом контекста — классический парадокс.
⚙️ Пять основных подходов к решению:
🔸 Выгрузка контекста — перенос данных в файловую систему вместо хранения в истории сообщений
🔸 Сокращение контекста — суммирование или сжатие информации (Claude 4.5 уже поддерживает из коробки)
🔸 Извлечение контекста — индексирование + семантический поиск vs простые файловые инструменты
🔸 Изоляция контекста — разделение между под-агентами с собственными контекстными окнами
🔸 Кэширование контекста — переиспользование вычислений
💡 Практические находки от Manus:
Компактизация vs Суммирование
• Компактизация — обратимое сжатие (убираю данные, которые можно восстановить из файлов)
• Суммирование — необратимое, но с сохранением ключевой информации в файлах
Многоуровневое пространство действий
1️⃣ Вызов функций — базовые атомарные операции
2️⃣ Утилиты песочницы — предустановленные команды Linux
3️⃣ Пакеты и API — Python-скрипты для сложных вычислений
Два паттерна изоляции контекста:
• Коммуникация — под-агент получает только инструкцию
• Разделение памяти — под-агент видит всю историю, но имеет свой промпт
📊 Практические советы:
• Используй структурированные схемы вместо свободного суммирования
• Приоритизируй форматы на основе строк для удобства grep/поиска
• Не превышай ~30 инструментов в контексте
• Тестируй архитектуру переключением между моделями разной силы
• Избегай чрезмерной инженерии — простота часто работает лучше
🎯 Главный вывод
Контекстная инженерия — это баланс между конфликтующими целями. Цель не в создании сложных систем, а в упрощении работы модели. Самые большие улучшения часто приходят от удаления лишнего, а не добавления нового.
📹 Дополнительно
• Оригинальное видео (1 час) по ссылке
• Краткая (7 мин) видео-нарезка основных тезисов обсуждения - прикрепил к заметке
• Интерактивный транскрипт с исходниками презентаций здесь (очень рекомендую хотя бы "пробежаться глазами" если нет времени смотреть оригинальное видео - там много интересных инсайтов)
@llm_notes
#context_engineering #agents #langchain #prompt_engineering #llm_optimization #manus #transcript
❤🔥3❤2👍2