AI Fluency: Полное руководство по эффективной работе с ИИ 🤖
Примерно месяц назад Anthropic опубликовали с моей точки зрения интересный курс "AI Fluency: Framework & Foundations" по развитию навыков взаимодействия с искусственным интеллектом. Практические знания без воды. И главное - эти знания не устареют через неделю, месяц или год при появлении очередной LLM-модели, агентного фреймворка или нового ИИ-продукта.
Курс также оформлен в виде плейлиста на официальном youtube-канале Anthropic.
Ниже привожу мои краткие заметки по курсу.
Я также подготовил детальные транскрипты на русском языке для каждого урока (см. github) и представил все в виде интерактивного веб-сайта, пользуясь тем, что gpt5 сейчас в lovable.dev находится в limited preview до полуночи воскресенья 10 августа 😉 (к слову, мне очень понравилось "собирать" сайт при помощи gpt5 на lovable, отталкиваясь от транскриптов, выложенных на github - только 1 небольшая ошибка возникла в процессе)
Что такое AI Fluency? 🎯
AI Fluency — способность работать с ИИ эффективно, результативно, этично и безопасно. Это не знание промптов, а фундаментальные навыки для долгосрочного сотрудничества с ИИ.
Три способа взаимодействия с ИИ:
• Автоматизация — ИИ выполняет конкретные задачи по инструкциям
• Дополнение — совместная работа как с партнером
• Агентность — ИИ действует самостоятельно по заданным принципам
Фреймворк 4D 📊 (ДОКО - русскоязычная аббревиатура, которая у меня получилась)
🔹 Delegation - Делегирование
Решение о распределении задач между человеком и ИИ. Включает понимание проблемы, знание возможностей ИИ и стратегическое планирование работы.
🔹 Description - Описание
Четкое общение с ИИ через:
• Описание продукта — что создать
• Описание процесса — как подходить к задаче
• Описание производительности — стиль взаимодействия
🔹 Discernment - Контроль (мой вольный перевод по смыслу)
Критическая оценка результатов ИИ:
• Качество контента
• Логика процесса
• Эффективность взаимодействия
🔹 Diligence - Ответственность (мой вольный перевод по смыслу)
Ответственное использование:
• Выбор подходящих систем
• Прозрачность о роли ИИ
• Подотчетность за результаты
Генеративный ИИ: основы ⚙️
Большие языковые модели создают новый контент на основе статистических паттернов из обучающих данных. Три прорыва сделали это возможным:
1️⃣ Трансформерная архитектура (2017) 2️⃣ Массивы цифровых данных
3️⃣ Мощные вычислительные ресурсы
Возможности и ограничения ⚖️
Сильные стороны:
• Универсальность в языковых задачах
• Поддержание контекста разговора
• Подключение к внешним инструментам
Ограничения:
• Дата среза знаний
• Возможные "галлюцинации"
• Ограниченное контекстное окно
• Непредсказуемость результатов
Эффективные техники промптинга 💡
6 основных принципов:
1️⃣ Контекст — объясните что, зачем и кто вы 2️⃣ Примеры — покажите желаемый результат 3️⃣ Ограничения — укажите формат и требования 4️⃣ Декомпозиция — разбейте сложные задачи 5️⃣ Время на размышления — дайте ИИ обдумать 6️⃣ Роль — определите, кем должен быть ИИ
Секрет: Просите ИИ помочь улучшить ваши промпты! 🔥
Практические выводы 📝
• Ваша экспертиза — основа эффективного использования ИИ
• Четкая постановка задачи критична для получения качественных результатов
• Всегда проверяйте и оценивайте выводы ИИ
• Берите ответственность за итоговые результаты
• Будьте прозрачны и сообщайте об использовании ИИ
И как обычно - эти навыки развиваются только через практику.
Начните применять фреймворк 4D уже сегодня — результаты не заставят себя ждать.
Полезные ссылки 📝
• Интерактивный сайт по курсу на русском языке здесь
• Оригинальный курс "AI Fluency: Framework & Foundations" здесь
• Плейлист оригинального курса на youtube здесь
@llm_notes
#aifluency #anthropic #prompt #gpt5 #lovable #context #course
Примерно месяц назад Anthropic опубликовали с моей точки зрения интересный курс "AI Fluency: Framework & Foundations" по развитию навыков взаимодействия с искусственным интеллектом. Практические знания без воды. И главное - эти знания не устареют через неделю, месяц или год при появлении очередной LLM-модели, агентного фреймворка или нового ИИ-продукта.
Курс также оформлен в виде плейлиста на официальном youtube-канале Anthropic.
Ниже привожу мои краткие заметки по курсу.
Я также подготовил детальные транскрипты на русском языке для каждого урока (см. github) и представил все в виде интерактивного веб-сайта, пользуясь тем, что gpt5 сейчас в lovable.dev находится в limited preview до полуночи воскресенья 10 августа 😉 (к слову, мне очень понравилось "собирать" сайт при помощи gpt5 на lovable, отталкиваясь от транскриптов, выложенных на github - только 1 небольшая ошибка возникла в процессе)
Что такое AI Fluency? 🎯
AI Fluency — способность работать с ИИ эффективно, результативно, этично и безопасно. Это не знание промптов, а фундаментальные навыки для долгосрочного сотрудничества с ИИ.
Три способа взаимодействия с ИИ:
• Автоматизация — ИИ выполняет конкретные задачи по инструкциям
• Дополнение — совместная работа как с партнером
• Агентность — ИИ действует самостоятельно по заданным принципам
Фреймворк 4D 📊 (ДОКО - русскоязычная аббревиатура, которая у меня получилась)
🔹 Delegation - Делегирование
Решение о распределении задач между человеком и ИИ. Включает понимание проблемы, знание возможностей ИИ и стратегическое планирование работы.
🔹 Description - Описание
Четкое общение с ИИ через:
• Описание продукта — что создать
• Описание процесса — как подходить к задаче
• Описание производительности — стиль взаимодействия
🔹 Discernment - Контроль (мой вольный перевод по смыслу)
Критическая оценка результатов ИИ:
• Качество контента
• Логика процесса
• Эффективность взаимодействия
🔹 Diligence - Ответственность (мой вольный перевод по смыслу)
Ответственное использование:
• Выбор подходящих систем
• Прозрачность о роли ИИ
• Подотчетность за результаты
Генеративный ИИ: основы ⚙️
Большие языковые модели создают новый контент на основе статистических паттернов из обучающих данных. Три прорыва сделали это возможным:
1️⃣ Трансформерная архитектура (2017) 2️⃣ Массивы цифровых данных
3️⃣ Мощные вычислительные ресурсы
Возможности и ограничения ⚖️
Сильные стороны:
• Универсальность в языковых задачах
• Поддержание контекста разговора
• Подключение к внешним инструментам
Ограничения:
• Дата среза знаний
• Возможные "галлюцинации"
• Ограниченное контекстное окно
• Непредсказуемость результатов
Эффективные техники промптинга 💡
6 основных принципов:
1️⃣ Контекст — объясните что, зачем и кто вы 2️⃣ Примеры — покажите желаемый результат 3️⃣ Ограничения — укажите формат и требования 4️⃣ Декомпозиция — разбейте сложные задачи 5️⃣ Время на размышления — дайте ИИ обдумать 6️⃣ Роль — определите, кем должен быть ИИ
Секрет: Просите ИИ помочь улучшить ваши промпты! 🔥
Практические выводы 📝
• Ваша экспертиза — основа эффективного использования ИИ
• Четкая постановка задачи критична для получения качественных результатов
• Всегда проверяйте и оценивайте выводы ИИ
• Берите ответственность за итоговые результаты
• Будьте прозрачны и сообщайте об использовании ИИ
И как обычно - эти навыки развиваются только через практику.
Начните применять фреймворк 4D уже сегодня — результаты не заставят себя ждать.
Полезные ссылки 📝
• Интерактивный сайт по курсу на русском языке здесь
• Оригинальный курс "AI Fluency: Framework & Foundations" здесь
• Плейлист оригинального курса на youtube здесь
@llm_notes
#aifluency #anthropic #prompt #gpt5 #lovable #context #course
Anthropic Courses
Learn to build with Claude AI
through Anthropic's comprehensive courses and training programs.
through Anthropic's comprehensive courses and training programs.
3👍9🔥3❤🔥1
🚀 Claude Sonnet 4 получил поддержку контекстного окна в 1 миллион токенов
Anthropic наконец-то увеличила контекстное окно Claude Sonnet 4 до 1 млн токенов — это в 5 раз больше предыдущего лимита (то, чего я ждал еще в мае :)
Теперь модель может обрабатывать целые кодовые базы с 75,000+ строк кода или десятки исследовательских работ за один запрос.
Новые возможности:
• Анализ больших кодовых баз — загрузка исходного кода, тестов и документации для понимания архитектуры проекта
• Синтез документов — обработка обширных наборов документов: контрактов, исследований, технических спецификаций
• Контекстно-зависимые агенты — создание агентов, которые сохраняют контекст на протяжении сотен вызовов инструментов
💰 Ценообразование API:
1️⃣ Промпты ≤ 200K токенов: $3/MTok (вход), $15/MTok (выход)
2️⃣ Промпты > 200K токенов: $6/MTok (вход), $22.50/MTok (выход)
При использовании кэширования промптов и пакетной обработки можно получить дополнительную экономию до 50% 📉
Отзывы клиентов:
🔧 Bolt.new — CEO Eric Simons отмечает, что расширенный контекст позволяет работать с крупными проектами, сохраняя высокую точность (мой комментарий: возможно, кстати, недавние успехи bolt, которые я наблюдал, при решении практических задач, связаны с тем, что они использовали модель с расширенным контекстным окном)
⚡️ iGent AI — разработчики AI-партнера Maestro для создания кода. CEO Sean Ward подчеркивает, что 1M токенов открывает возможности для многодневных сессий работы с реальными кодовыми базами.
📅 Доступность:
Функция пока находится в публичной бете для клиентов с Tier 4 и кастомными лимитами на Anthropic API (подробнее про Tier 4 здесь). Также доступна в Amazon Bedrock, скоро появится в Google Cloud Vertex AI.
В течение ближайших недель обещают распространить на более широкий круг пользователей.
Ждем с нетерпением!
• Официальный анонс по ссылке.
• Подробная документация тут.
@llm_notes
#claude #anthropic #context #ai #llm #1m
Anthropic наконец-то увеличила контекстное окно Claude Sonnet 4 до 1 млн токенов — это в 5 раз больше предыдущего лимита (то, чего я ждал еще в мае :)
Теперь модель может обрабатывать целые кодовые базы с 75,000+ строк кода или десятки исследовательских работ за один запрос.
Новые возможности:
• Анализ больших кодовых баз — загрузка исходного кода, тестов и документации для понимания архитектуры проекта
• Синтез документов — обработка обширных наборов документов: контрактов, исследований, технических спецификаций
• Контекстно-зависимые агенты — создание агентов, которые сохраняют контекст на протяжении сотен вызовов инструментов
💰 Ценообразование API:
1️⃣ Промпты ≤ 200K токенов: $3/MTok (вход), $15/MTok (выход)
2️⃣ Промпты > 200K токенов: $6/MTok (вход), $22.50/MTok (выход)
При использовании кэширования промптов и пакетной обработки можно получить дополнительную экономию до 50% 📉
Отзывы клиентов:
🔧 Bolt.new — CEO Eric Simons отмечает, что расширенный контекст позволяет работать с крупными проектами, сохраняя высокую точность (мой комментарий: возможно, кстати, недавние успехи bolt, которые я наблюдал, при решении практических задач, связаны с тем, что они использовали модель с расширенным контекстным окном)
⚡️ iGent AI — разработчики AI-партнера Maestro для создания кода. CEO Sean Ward подчеркивает, что 1M токенов открывает возможности для многодневных сессий работы с реальными кодовыми базами.
📅 Доступность:
Функция пока находится в публичной бете для клиентов с Tier 4 и кастомными лимитами на Anthropic API (подробнее про Tier 4 здесь). Также доступна в Amazon Bedrock, скоро появится в Google Cloud Vertex AI.
В течение ближайших недель обещают распространить на более широкий круг пользователей.
Ждем с нетерпением!
• Официальный анонс по ссылке.
• Подробная документация тут.
@llm_notes
#claude #anthropic #context #ai #llm #1m
Anthropic
Claude Sonnet 4 now supports 1M tokens of context
Claude Sonnet 4 now supports up to 1 million tokens of context on the Anthropic API—a 5x increase.
1❤2❤🔥2☃1
Media is too big
VIEW IN TELEGRAM
🧠 Контекст-инжиниринг для AI-агентов: 5 ключевых принципов
На выходных посмотрел очень интересный видео-подкаст с участием Лэнса Мартина из LangChain (автора самой популярной открытой версии Deep Research), в котором обсуждались вопросы управления контекстом в агентах - искусство давать LLM ровно тот контекст, который нужен для следующего агентного шага 🎯 Не обошлось и без сравнения моно- и мульти-агентных подходов (см. заметку)
Ниже привожу краткие тезисы, а на скрепке подготовил видео-нарезку основных тезисов с субтитрами на русском языке (8 минут).
Более полная интерактивная версия конспекта доступна по ссылке (а классический вариант конспекта здесь)
🔧 Пять столпов контекст-инжиниринга:
1️⃣ Offloading (Выгрузка)
• Не тащить всё в контекст — сохранять данные отдельно
• В историю записывать краткие сводки с возможностью подгрузки
• Экономия токенов и денег 💰
2️⃣ Context Isolation (Изоляция)
• Мультиагенты хороши для "чтения", один агент — для "письма"
• Параллельные задачи изолировать, связанные — объединять
3️⃣ Retrieval (Извлечение)
• llm.txt с качественными описаниями часто лучше сложного RAG
• Агентный поиск без индексации может превосходить векторный поиск
• Ключ успеха — хорошие описания файлов 📝
4️⃣ Reducing Context (Сжатие)
• Суммаризация на границах инструментов
• Баланс между экономией токенов и потерей информации
• Сохранять возможность восстановить исходник
5️⃣ Caching (Кеширование)
• Снижает стоимость и задержки
• Не решает проблему "context rot" от длинного контекста ⚠️
🔍 Context rot — деградация качества ответов LLM при слишком длинном контексте. Модель "теряется" в большом объёме информации и хуже понимает, что важно для текущей задачи 📉
💡 Практические инсайты:
• Работа с памятью через человека — пользователь явно сохраняет важное, система учится предпочтениям
• Горький урок AI — используй структурный подход сегодня, но будь готов отказаться от него завтра
• MCP-стандарты снижают когнитивную нагрузку
⚡️ Золотые правила:
• Избегай наивного накопления всего контекста
• Качественная суммаризация лучше агрессивного сжатия
• Простые решения часто превосходят сложные
• Фреймворки должны легко "разбираться"
Философия: "Добавляй структуру, чтобы работало сегодня, и будь готов отказаться от нее завтра" 🚀
P.S. мне также очень понравились ссылки на дополнительные материалы в описании к ролику, некоторые из них я включил в эту заметку
@llm_notes
#context_engineering #agents #langchain #langgraph #llm_optimization
На выходных посмотрел очень интересный видео-подкаст с участием Лэнса Мартина из LangChain (автора самой популярной открытой версии Deep Research), в котором обсуждались вопросы управления контекстом в агентах - искусство давать LLM ровно тот контекст, который нужен для следующего агентного шага 🎯 Не обошлось и без сравнения моно- и мульти-агентных подходов (см. заметку)
Ниже привожу краткие тезисы, а на скрепке подготовил видео-нарезку основных тезисов с субтитрами на русском языке (8 минут).
Более полная интерактивная версия конспекта доступна по ссылке (а классический вариант конспекта здесь)
🔧 Пять столпов контекст-инжиниринга:
1️⃣ Offloading (Выгрузка)
• Не тащить всё в контекст — сохранять данные отдельно
• В историю записывать краткие сводки с возможностью подгрузки
• Экономия токенов и денег 💰
2️⃣ Context Isolation (Изоляция)
• Мультиагенты хороши для "чтения", один агент — для "письма"
• Параллельные задачи изолировать, связанные — объединять
3️⃣ Retrieval (Извлечение)
• llm.txt с качественными описаниями часто лучше сложного RAG
• Агентный поиск без индексации может превосходить векторный поиск
• Ключ успеха — хорошие описания файлов 📝
4️⃣ Reducing Context (Сжатие)
• Суммаризация на границах инструментов
• Баланс между экономией токенов и потерей информации
• Сохранять возможность восстановить исходник
5️⃣ Caching (Кеширование)
• Снижает стоимость и задержки
• Не решает проблему "context rot" от длинного контекста ⚠️
🔍 Context rot — деградация качества ответов LLM при слишком длинном контексте. Модель "теряется" в большом объёме информации и хуже понимает, что важно для текущей задачи 📉
💡 Практические инсайты:
• Работа с памятью через человека — пользователь явно сохраняет важное, система учится предпочтениям
• Горький урок AI — используй структурный подход сегодня, но будь готов отказаться от него завтра
• MCP-стандарты снижают когнитивную нагрузку
⚡️ Золотые правила:
• Избегай наивного накопления всего контекста
• Качественная суммаризация лучше агрессивного сжатия
• Простые решения часто превосходят сложные
• Фреймворки должны легко "разбираться"
Философия: "Добавляй структуру, чтобы работало сегодня, и будь готов отказаться от нее завтра" 🚀
P.S. мне также очень понравились ссылки на дополнительные материалы в описании к ролику, некоторые из них я включил в эту заметку
@llm_notes
#context_engineering #agents #langchain #langgraph #llm_optimization
11🔥10❤1
Media is too big
VIEW IN TELEGRAM
🧠 Контекстная инженерия для AI-агентов: практические уроки от LangChain и Manus
В этот вторник на youtube канале Langchain опубликовали, пожалуй, один из лучших глубоких разборов контекстной инженерии в сети — часовой мастер-класс с реальными инсайтами от LangChain и Manus. Рассматриваются продвинутые техники для AI-агентов: выгрузка, сжатие и изоляция контекста, плюс свежий взгляд на многоуровневые пространства действий. Много практических выводов, никакой воды.
В продолжении темы подкаста про "Контекст-инжиниринг для AI-агентов: 5 ключевых принципов", который я разбирал в заметках ранее, команды LangChain и Manus провели детальный разбор одной из ключевых проблем современных AI-агентов — управления контекстом. Делюсь главными выводами.
🔍 Суть проблемы
AI-агенты накапливают огромное количество контекста через вызовы инструментов. Типичная задача требует ~50 вызовов, продакшн-агенты могут делать сотни ходов. При этом производительность моделей падает с ростом контекста — классический парадокс.
⚙️ Пять основных подходов к решению:
🔸 Выгрузка контекста — перенос данных в файловую систему вместо хранения в истории сообщений
🔸 Сокращение контекста — суммирование или сжатие информации (Claude 4.5 уже поддерживает из коробки)
🔸 Извлечение контекста — индексирование + семантический поиск vs простые файловые инструменты
🔸 Изоляция контекста — разделение между под-агентами с собственными контекстными окнами
🔸 Кэширование контекста — переиспользование вычислений
💡 Практические находки от Manus:
Компактизация vs Суммирование
• Компактизация — обратимое сжатие (убираю данные, которые можно восстановить из файлов)
• Суммирование — необратимое, но с сохранением ключевой информации в файлах
Многоуровневое пространство действий
1️⃣ Вызов функций — базовые атомарные операции
2️⃣ Утилиты песочницы — предустановленные команды Linux
3️⃣ Пакеты и API — Python-скрипты для сложных вычислений
Два паттерна изоляции контекста:
• Коммуникация — под-агент получает только инструкцию
• Разделение памяти — под-агент видит всю историю, но имеет свой промпт
📊 Практические советы:
• Используй структурированные схемы вместо свободного суммирования
• Приоритизируй форматы на основе строк для удобства grep/поиска
• Не превышай ~30 инструментов в контексте
• Тестируй архитектуру переключением между моделями разной силы
• Избегай чрезмерной инженерии — простота часто работает лучше
🎯 Главный вывод
Контекстная инженерия — это баланс между конфликтующими целями. Цель не в создании сложных систем, а в упрощении работы модели. Самые большие улучшения часто приходят от удаления лишнего, а не добавления нового.
📹 Дополнительно
• Оригинальное видео (1 час) по ссылке
• Краткая (7 мин) видео-нарезка основных тезисов обсуждения - прикрепил к заметке
• Интерактивный транскрипт с исходниками презентаций здесь (очень рекомендую хотя бы "пробежаться глазами" если нет времени смотреть оригинальное видео - там много интересных инсайтов)
@llm_notes
#context_engineering #agents #langchain #prompt_engineering #llm_optimization #manus #transcript
В этот вторник на youtube канале Langchain опубликовали, пожалуй, один из лучших глубоких разборов контекстной инженерии в сети — часовой мастер-класс с реальными инсайтами от LangChain и Manus. Рассматриваются продвинутые техники для AI-агентов: выгрузка, сжатие и изоляция контекста, плюс свежий взгляд на многоуровневые пространства действий. Много практических выводов, никакой воды.
В продолжении темы подкаста про "Контекст-инжиниринг для AI-агентов: 5 ключевых принципов", который я разбирал в заметках ранее, команды LangChain и Manus провели детальный разбор одной из ключевых проблем современных AI-агентов — управления контекстом. Делюсь главными выводами.
🔍 Суть проблемы
AI-агенты накапливают огромное количество контекста через вызовы инструментов. Типичная задача требует ~50 вызовов, продакшн-агенты могут делать сотни ходов. При этом производительность моделей падает с ростом контекста — классический парадокс.
⚙️ Пять основных подходов к решению:
🔸 Выгрузка контекста — перенос данных в файловую систему вместо хранения в истории сообщений
🔸 Сокращение контекста — суммирование или сжатие информации (Claude 4.5 уже поддерживает из коробки)
🔸 Извлечение контекста — индексирование + семантический поиск vs простые файловые инструменты
🔸 Изоляция контекста — разделение между под-агентами с собственными контекстными окнами
🔸 Кэширование контекста — переиспользование вычислений
💡 Практические находки от Manus:
Компактизация vs Суммирование
• Компактизация — обратимое сжатие (убираю данные, которые можно восстановить из файлов)
• Суммирование — необратимое, но с сохранением ключевой информации в файлах
Многоуровневое пространство действий
1️⃣ Вызов функций — базовые атомарные операции
2️⃣ Утилиты песочницы — предустановленные команды Linux
3️⃣ Пакеты и API — Python-скрипты для сложных вычислений
Два паттерна изоляции контекста:
• Коммуникация — под-агент получает только инструкцию
• Разделение памяти — под-агент видит всю историю, но имеет свой промпт
📊 Практические советы:
• Используй структурированные схемы вместо свободного суммирования
• Приоритизируй форматы на основе строк для удобства grep/поиска
• Не превышай ~30 инструментов в контексте
• Тестируй архитектуру переключением между моделями разной силы
• Избегай чрезмерной инженерии — простота часто работает лучше
🎯 Главный вывод
Контекстная инженерия — это баланс между конфликтующими целями. Цель не в создании сложных систем, а в упрощении работы модели. Самые большие улучшения часто приходят от удаления лишнего, а не добавления нового.
📹 Дополнительно
• Оригинальное видео (1 час) по ссылке
• Краткая (7 мин) видео-нарезка основных тезисов обсуждения - прикрепил к заметке
• Интерактивный транскрипт с исходниками презентаций здесь (очень рекомендую хотя бы "пробежаться глазами" если нет времени смотреть оригинальное видео - там много интересных инсайтов)
@llm_notes
#context_engineering #agents #langchain #prompt_engineering #llm_optimization #manus #transcript
❤🔥5❤3👍2