Последний год я работаю с AI через командную строку. Не ChatGPT, не веб-интерфейс – терминал, чёрный экран, текстовые команды. Claude Code, OpenCode, Gemini CLI. Звучит как шаг назад. На практике – другой способ думать.
Объясню, зачем менеджеру вообще об этом знать.
Что это такое. CLI-инструменты для AI – это когда вы общаетесь с моделью прямо в терминале. Без кнопок, без красивого интерфейса. Вы пишете задачу текстом, модель отвечает текстом. Но – и это ключевое – модель видит ваши файлы, может их читать, редактировать, запускать команды.
Почему это неудобно. Порог входа высокий. Нужно понимать файловую систему, уметь перемещаться по папкам, не бояться терминала. Нет привычного «скопировать-вставить из чата». Нет красивых кнопок. Первые два дня хочется вернуться в ChatGPT.
Почему это меняет работу. В веб-чате вы – человек, который переносит контекст руками. Скопировал данные из одного места, вставил в чат, получил ответ, перенёс обратно. В CLI модель сама работает с вашим рабочим пространством. Вы говорите: «прочитай этот отчёт и подготовь резюме для совещания» – и она читает реальный файл, а не вставленный вами фрагмент.
Наш бенчмарк 54 моделей – вся аналитика, генерация отчётов, обработка 2000+ оценок, построение рейтингов – сделана через Claude Code. Не потому что так удобнее, а потому что модель видела все данные, все скрипты, всю структуру проекта одновременно. В веб-чате это потребовало бы сотни copy-paste.
Ещё один сдвиг: в CLI вы формулируете задачи иначе. Не «напиши мне письмо», а «в папке reports лежат три квартальных отчёта, найди расхождения в цифрах между Q2 и Q3 и подготовь список вопросов для финансового директора». Задача становится конкретнее, потому что у модели есть доступ к реальным данным, а не к вашему пересказу.
Попробовать можно прямо сейчас:
– Claude Code (Anthropic)
– Gemini CLI (Google)
– OpenCode (open source, работает с любой моделью)
Я не призываю всех менеджеров переходить в терминал. Но стоит знать, что такой способ работы существует и активно развивается. В нашем курсе тема CLI-инструментов разбирается в модуле «Техническая глубина» – для менеджеров, которые хотят говорить на одном языке с разработчиками.
Объясню, зачем менеджеру вообще об этом знать.
Что это такое. CLI-инструменты для AI – это когда вы общаетесь с моделью прямо в терминале. Без кнопок, без красивого интерфейса. Вы пишете задачу текстом, модель отвечает текстом. Но – и это ключевое – модель видит ваши файлы, может их читать, редактировать, запускать команды.
Почему это неудобно. Порог входа высокий. Нужно понимать файловую систему, уметь перемещаться по папкам, не бояться терминала. Нет привычного «скопировать-вставить из чата». Нет красивых кнопок. Первые два дня хочется вернуться в ChatGPT.
Почему это меняет работу. В веб-чате вы – человек, который переносит контекст руками. Скопировал данные из одного места, вставил в чат, получил ответ, перенёс обратно. В CLI модель сама работает с вашим рабочим пространством. Вы говорите: «прочитай этот отчёт и подготовь резюме для совещания» – и она читает реальный файл, а не вставленный вами фрагмент.
Наш бенчмарк 54 моделей – вся аналитика, генерация отчётов, обработка 2000+ оценок, построение рейтингов – сделана через Claude Code. Не потому что так удобнее, а потому что модель видела все данные, все скрипты, всю структуру проекта одновременно. В веб-чате это потребовало бы сотни copy-paste.
Ещё один сдвиг: в CLI вы формулируете задачи иначе. Не «напиши мне письмо», а «в папке reports лежат три квартальных отчёта, найди расхождения в цифрах между Q2 и Q3 и подготовь список вопросов для финансового директора». Задача становится конкретнее, потому что у модели есть доступ к реальным данным, а не к вашему пересказу.
Попробовать можно прямо сейчас:
– Claude Code (Anthropic)
– Gemini CLI (Google)
– OpenCode (open source, работает с любой моделью)
Я не призываю всех менеджеров переходить в терминал. Но стоит знать, что такой способ работы существует и активно развивается. В нашем курсе тема CLI-инструментов разбирается в модуле «Техническая глубина» – для менеджеров, которые хотят говорить на одном языке с разработчиками.
Вышел 10-й выпуск дайджеста для менеджеров
Две главные темы – бенчмарк расширен до 54 моделей и методология встраивания AI в проектный ритм. Плюс тревожный сигнал: команды начинают саботировать AI-инструменты.
В выпуске:
Бенчмарк 54 моделей
● Топ-5 доступных из России – все китайские. Kimi K2.5, MiniMax M2.7, MiMo V2 от Xiaomi. Ноль российских
● GigaChat Ultra с режимом Thinking ухудшил результаты на 3,3%. В категории «российская специфика» китайская Kimi справилась лучше GigaChat
● MiniMax M2.7 – 1-е место в «Управление командой» среди всех 54 моделей. Стоимость – в 17 раз ниже Claude Opus
300 часов в год
● Система на четырёх уровнях: ежедневные, еженедельные, ежемесячные операции + запуск проекта
● Еженедельный статус-апдейт через AI: 3 часа → 45 минут = 100+ часов экономии в год
● Scrum, PRINCE2, Kanban – неважно. Важна регулярность
Новости
● Claude Auto Mode – модель сама планирует шаги и выбирает инструменты
● AI-агент Fin от Intercom генерирует $100 млн выручки, 2 млн запросов в неделю
● OpenAI создаёт СП на $10 млрд для внедрения AI во все портфельные компании
● OpenAI закрывает Sora – ресурсы на чипы и корпоративные продукты
● MIT: стоимость AI-труда – 3% от человеческого. Но заменяет не тех, кого ожидали
Тревожный сигнал
● 84% разработчиков используют AI, но 49% игнорируют его ежедневно. Творческие задачи уходят к нейросети – людям остаётся проверка
● 49% внедряют AI скрытно, без согласования с руководством
● GitHub: код пользователей Copilot Free и Pro теперь используется для обучения моделей
Читать выпуск: Дайджест #10
Подписаться на рассылку: mysummit.school/newsletter
Две главные темы – бенчмарк расширен до 54 моделей и методология встраивания AI в проектный ритм. Плюс тревожный сигнал: команды начинают саботировать AI-инструменты.
В выпуске:
Бенчмарк 54 моделей
● Топ-5 доступных из России – все китайские. Kimi K2.5, MiniMax M2.7, MiMo V2 от Xiaomi. Ноль российских
● GigaChat Ultra с режимом Thinking ухудшил результаты на 3,3%. В категории «российская специфика» китайская Kimi справилась лучше GigaChat
● MiniMax M2.7 – 1-е место в «Управление командой» среди всех 54 моделей. Стоимость – в 17 раз ниже Claude Opus
300 часов в год
● Система на четырёх уровнях: ежедневные, еженедельные, ежемесячные операции + запуск проекта
● Еженедельный статус-апдейт через AI: 3 часа → 45 минут = 100+ часов экономии в год
● Scrum, PRINCE2, Kanban – неважно. Важна регулярность
Новости
● Claude Auto Mode – модель сама планирует шаги и выбирает инструменты
● AI-агент Fin от Intercom генерирует $100 млн выручки, 2 млн запросов в неделю
● OpenAI создаёт СП на $10 млрд для внедрения AI во все портфельные компании
● OpenAI закрывает Sora – ресурсы на чипы и корпоративные продукты
● MIT: стоимость AI-труда – 3% от человеческого. Но заменяет не тех, кого ожидали
Тревожный сигнал
● 84% разработчиков используют AI, но 49% игнорируют его ежедневно. Творческие задачи уходят к нейросети – людям остаётся проверка
● 49% внедряют AI скрытно, без согласования с руководством
● GitHub: код пользователей Copilot Free и Pro теперь используется для обучения моделей
Читать выпуск: Дайджест #10
Подписаться на рассылку: mysummit.school/newsletter
Продакт-менеджеры начали использовать AI-агентов не для генерации текста, а для управления проектами. Не «напиши мне письмо» – а «пройдись по 10 интервью, найди топ-5 болей по частоте, вытащи дословные цитаты и найди противоречия между респондентами».
Разница с обычным чатом – принципиальная. В чате вы копируете данные руками. Агент сам читает файлы, ходит по папкам, сравнивает документы. Менеджер формулирует задачу, агент выполняет – через терминал или IDE.
Конкретные кейсы из практики:
• Discovery-спринт. 10 интервью – обычно 19 часов ручной работы: выписать цитаты, сгруппировать боли, найти паттерны. Через агента – 10,5 часов. Экономия почти вдвое, но главное другое: агент ловит противоречия между интервью, которые человек пропускает – последний разговор всегда весит больше первого.
• Конкурентный мониторинг. 15 сайтов конкурентов – цены, функции, изменения в позиционировании. Агент запускает 15 параллельных потоков анализа. Результат в 5 раз быстрее и, что важнее, – однороднее: каждый конкурент анализируется по одной и той же рамке, без усталости к третьему часу.
• Прототипирование. Менеджер описывает функцию – например, центр настройки уведомлений – и агент собирает работающий прототип интерфейса за час. Стейкхолдеры реагируют на реальный экран, а не на абстрактное описание в документе.
Но есть нюанс с экономикой. Claude Code решает задачи с первого раза в 78% случаев – лучший показатель среди агентов. При этом потребляет в 4,2 раза больше токенов, чем более лёгкие альтернативы. Одна интенсивная сессия может стоить $40. Менеджеру приходится считать: оправдывает ли 7–10% выигрыш в точности трёхкратный рост расходов?
Тема CLI-инструментов и агентной оркестрации разбирается в модуле «Техническая глубина»: программа курса
Разница с обычным чатом – принципиальная. В чате вы копируете данные руками. Агент сам читает файлы, ходит по папкам, сравнивает документы. Менеджер формулирует задачу, агент выполняет – через терминал или IDE.
Конкретные кейсы из практики:
• Discovery-спринт. 10 интервью – обычно 19 часов ручной работы: выписать цитаты, сгруппировать боли, найти паттерны. Через агента – 10,5 часов. Экономия почти вдвое, но главное другое: агент ловит противоречия между интервью, которые человек пропускает – последний разговор всегда весит больше первого.
• Конкурентный мониторинг. 15 сайтов конкурентов – цены, функции, изменения в позиционировании. Агент запускает 15 параллельных потоков анализа. Результат в 5 раз быстрее и, что важнее, – однороднее: каждый конкурент анализируется по одной и той же рамке, без усталости к третьему часу.
• Прототипирование. Менеджер описывает функцию – например, центр настройки уведомлений – и агент собирает работающий прототип интерфейса за час. Стейкхолдеры реагируют на реальный экран, а не на абстрактное описание в документе.
Но есть нюанс с экономикой. Claude Code решает задачи с первого раза в 78% случаев – лучший показатель среди агентов. При этом потребляет в 4,2 раза больше токенов, чем более лёгкие альтернативы. Одна интенсивная сессия может стоить $40. Менеджеру приходится считать: оправдывает ли 7–10% выигрыш в точности трёхкратный рост расходов?
Тема CLI-инструментов и агентной оркестрации разбирается в модуле «Техническая глубина»: программа курса
👍1
Финансовый аналитик получает от AI квартальный отчёт на 15 страниц. Текст уверенный, цифры правдоподобные, выводы разумные. Аналитик вносит пару правок и отправляет руководству. Через неделю выясняется: три показателя неверны, одна ссылка на исследование не существует, а главный вывод – корреляция, поданная как причинно-следственная связь.
Это не единичный сбой. По данным Vectara Hallucination Leaderboard, даже лучшие модели галлюцинируют в 2–5% случаев при работе с предоставленным источником. В свободной генерации – значительно выше. Это свойство архитектуры: модель выбирает статистически вероятное продолжение, а не логически верное.
Но галлюцинации – только верхушка. Есть два разных класса ошибок, и путать их дорого. Intrinsic – модель исказила ваши данные (написала «12 человек в команде» вместо 8). Проверка: сверить с источником, 30 секунд. Extrinsic – модель выдумала факт целиком («по данным McKinsey, 73% проектов...» – такого отчёта не существует). Проверка: найти первоисточник, 5–10 минут. Разные ошибки – разная стратегия, разные затраты времени.
Исследование Anthropic на 1,5 млн диалогов с Claude показало ещё один паттерн: пользователи просят AI написать готовый текст – сообщение, план, скрипт – и отправляют без правок. Около 50 случаев только в одном кластере данных, когда люди возвращались с сожалением: «это было не моё», «я должен был послушать свою интуицию». Проблема не в том, что модель ошиблась – текст мог быть верным. Проблема в подмене: AI заменил суждение, а не усилил его.
Мы разбираем это в модуле «Фундамент» – от систематики ошибок до трёхуровневой верификации и границ, где AI вообще не стоит включать. Не «будьте осторожнее», а конкретная система: что проверять за 30 секунд, что за 5 минут, а что не делегировать вовсе.
Модуль Фундамент – базовый для всех специализаций. Навыки, которые нужны в ежедневной работе
Это не единичный сбой. По данным Vectara Hallucination Leaderboard, даже лучшие модели галлюцинируют в 2–5% случаев при работе с предоставленным источником. В свободной генерации – значительно выше. Это свойство архитектуры: модель выбирает статистически вероятное продолжение, а не логически верное.
Но галлюцинации – только верхушка. Есть два разных класса ошибок, и путать их дорого. Intrinsic – модель исказила ваши данные (написала «12 человек в команде» вместо 8). Проверка: сверить с источником, 30 секунд. Extrinsic – модель выдумала факт целиком («по данным McKinsey, 73% проектов...» – такого отчёта не существует). Проверка: найти первоисточник, 5–10 минут. Разные ошибки – разная стратегия, разные затраты времени.
Исследование Anthropic на 1,5 млн диалогов с Claude показало ещё один паттерн: пользователи просят AI написать готовый текст – сообщение, план, скрипт – и отправляют без правок. Около 50 случаев только в одном кластере данных, когда люди возвращались с сожалением: «это было не моё», «я должен был послушать свою интуицию». Проблема не в том, что модель ошиблась – текст мог быть верным. Проблема в подмене: AI заменил суждение, а не усилил его.
Мы разбираем это в модуле «Фундамент» – от систематики ошибок до трёхуровневой верификации и границ, где AI вообще не стоит включать. Не «будьте осторожнее», а конкретная система: что проверять за 30 секунд, что за 5 минут, а что не делегировать вовсе.
Модуль Фундамент – базовый для всех специализаций. Навыки, которые нужны в ежедневной работе
«Everyone should be using Claude Code» – эта фраза разлетелась по LinkedIn и Telegram-каналам в марте 2026-го. Каждую неделю кто-то из менеджеров спрашивает: как попробовать?
Ответ для России неудобный. Claude Code требует подписку за $100/месяц и карту, которую не всегда легко получить. Один из самых обсуждаемых AI-инструментов года – физически за барьером.
Но суть Claude Code – не в Claude. Суть в агентском подходе: AI запускается на вашем компьютере, читает ваши файлы напрямую и выполняет задачи без copy-paste. Именно это делает его полезным для менеджеров – не нужно вручную загружать документы в чат.
И именно этот принцип воспроизводит OpenCode – open-source проект, который работает с любыми моделями: DeepSeek, Gemini, локальные через Ollama. Есть десктопная версия и терминальный клиент. Есть бесплатные модели для старта.
Три задачи из статьи, которые показывают разницу:
– Заметки с трёх встреч → структурированная таблица задач. Вручную: 30 минут. С агентом: 2 минуты.
– 5 интервью с клиентами → топ-3 болевые точки с цитатами. Агент читает папку целиком, не нужно копировать каждый файл.
– Один дайджест → три формата (Slack, email руководителю, Notion). 40 минут ручной работы → 5 минут.
Суммарно: 4 часа → 15 минут. Не потому что агент «умнее» – потому что он работает с файлами напрямую.
Мы уже говорили про агентский подход в канале – теперь выкладываем подробный гайд: что такое OpenCode, как поставить за 15 минут и с каких задач начать.
Это первый материал из технического модуля курса – про инструменты, которые встраиваются в ежедневную работу менеджера.
Читать разбор
Ответ для России неудобный. Claude Code требует подписку за $100/месяц и карту, которую не всегда легко получить. Один из самых обсуждаемых AI-инструментов года – физически за барьером.
Но суть Claude Code – не в Claude. Суть в агентском подходе: AI запускается на вашем компьютере, читает ваши файлы напрямую и выполняет задачи без copy-paste. Именно это делает его полезным для менеджеров – не нужно вручную загружать документы в чат.
И именно этот принцип воспроизводит OpenCode – open-source проект, который работает с любыми моделями: DeepSeek, Gemini, локальные через Ollama. Есть десктопная версия и терминальный клиент. Есть бесплатные модели для старта.
Три задачи из статьи, которые показывают разницу:
– Заметки с трёх встреч → структурированная таблица задач. Вручную: 30 минут. С агентом: 2 минуты.
– 5 интервью с клиентами → топ-3 болевые точки с цитатами. Агент читает папку целиком, не нужно копировать каждый файл.
– Один дайджест → три формата (Slack, email руководителю, Notion). 40 минут ручной работы → 5 минут.
Суммарно: 4 часа → 15 минут. Не потому что агент «умнее» – потому что он работает с файлами напрямую.
Мы уже говорили про агентский подход в канале – теперь выкладываем подробный гайд: что такое OpenCode, как поставить за 15 минут и с каких задач начать.
Это первый материал из технического модуля курса – про инструменты, которые встраиваются в ежедневную работу менеджера.
Читать разбор
mysummit.school
Claude Code недоступен? OpenCode работает в России – бесплатно
OpenCode – open-source аналог Claude Code для менеджеров. Работает с DeepSeek, Gemini, локальными моделями. Установка за 15 минут, три задачи для старта.
🔥1
Большинство онлайн-курсов устроены одинаково: видео, текст, тест из 5 вопросов в конце модуля. Прочитал, кивнул, угадал правильный ответ – через неделю не помнишь половины. У нас так не работает.
Каждый урок – не страница для чтения. Прямо внутри текста встроены квизы, задания, кнопка «объясни». Просто пролистать и пойти дальше не получится – урок засчитывается, только когда ты что-то сделал.
Задания проверяют несколько AI-рецензентов
Сдаёшь работу – текст, документ, разбор кейса – и её оценивает не один AI, а несколько независимых рецензентов с разных сторон.
Например, в задании по управлению проектом твою работу смотрят: аналитик (верны ли данные и расчёты), методолог (соответствует ли критериям задания) и практик из индустрии (можно ли это применить в реальной жизни). Потом всё собирается в одну обратную связь.
Не «правильно/неправильно», а конкретно: что сильно, что слабо, и с чьей точки зрения. Можно пересдать – после первой попытки открываются подсказки.
Непонятно? Спроси прямо в уроке
Встретил незнакомое слово или запутался в концепции – выделяешь текст, нажимаешь «Объясни». AI объясняет прямо здесь, в контексте урока. Можно задать уточняющий вопрос, потом ещё один – получается разговор с тьютором. Все такие разговоры сохраняются в заметках.
Не нужно открывать ChatGPT в соседней вкладке, копировать текст, формулировать промпт. Объяснение уже знает, какой урок ты читаешь.
Что ещё
Материал обновляется – область ИИ меняется каждый месяц. Когда мы переписываем урок, ты получаешь короткий отчёт: что изменилось и зачем. Не нужно перечитывать всё – видно, какие разделы обновились.
Закладки с заметками, открытие глав по порядку, прогресс по реальным действиям – не по просмотрам страниц.
Реальный опыт
Не промпты скопировал-вставил, а сравнение – как каждый инструмент реагирует и как наши знания работают в каждой из систем – ChatGPT, YandexGPT, Claude, GigaChat. Опыт близкий к реальному.
Программа курса – посмотрите, из чего состоят модули
Или приходите на Открытый для всех модуль
Каждый урок – не страница для чтения. Прямо внутри текста встроены квизы, задания, кнопка «объясни». Просто пролистать и пойти дальше не получится – урок засчитывается, только когда ты что-то сделал.
Задания проверяют несколько AI-рецензентов
Сдаёшь работу – текст, документ, разбор кейса – и её оценивает не один AI, а несколько независимых рецензентов с разных сторон.
Например, в задании по управлению проектом твою работу смотрят: аналитик (верны ли данные и расчёты), методолог (соответствует ли критериям задания) и практик из индустрии (можно ли это применить в реальной жизни). Потом всё собирается в одну обратную связь.
Не «правильно/неправильно», а конкретно: что сильно, что слабо, и с чьей точки зрения. Можно пересдать – после первой попытки открываются подсказки.
Непонятно? Спроси прямо в уроке
Встретил незнакомое слово или запутался в концепции – выделяешь текст, нажимаешь «Объясни». AI объясняет прямо здесь, в контексте урока. Можно задать уточняющий вопрос, потом ещё один – получается разговор с тьютором. Все такие разговоры сохраняются в заметках.
Не нужно открывать ChatGPT в соседней вкладке, копировать текст, формулировать промпт. Объяснение уже знает, какой урок ты читаешь.
Что ещё
Материал обновляется – область ИИ меняется каждый месяц. Когда мы переписываем урок, ты получаешь короткий отчёт: что изменилось и зачем. Не нужно перечитывать всё – видно, какие разделы обновились.
Закладки с заметками, открытие глав по порядку, прогресс по реальным действиям – не по просмотрам страниц.
Реальный опыт
Не промпты скопировал-вставил, а сравнение – как каждый инструмент реагирует и как наши знания работают в каждой из систем – ChatGPT, YandexGPT, Claude, GigaChat. Опыт близкий к реальному.
Программа курса – посмотрите, из чего состоят модули
Или приходите на Открытый для всех модуль
👍1
«Ты – эксперт по стратегии» больше не работает. Вот что работает
Персона в промпте – один из самых популярных приёмов. И один из самых неправильно понимаемых.
Исследования показывают: расплывчатые роли вроде «ты – лучший маркетолог мира» или «притворись Стивом Джобсом» ухудшают качество ответа. Модель начинает воспроизводить стереотипы о человеке, а не демонстрировать компетентность.
Мы проверили это на одном запросе через Gemini 3 Flash. Задача одна и та же: ключевой разработчик уходит через месяц, ведёт два критичных проекта – составить план на 4 недели.
Промпт без персоны:
Ответ корректный: назначить преемников, парное программирование, записать скринкасты, передать доступы. Всё по делу – но звучит как инструкция, написанная для любой компании в любой ситуации.
Тот же промпт, но с персоной:
Набор рекомендаций похож – но тон и детали другие. Модель начинает с «Запрети ему брать новые задачи. Его работа теперь – только передача знаний». Вместо «задокументируйте» – «Не верь фразе "у меня всё задокументировано в Confluence" – обычно там 20% правды». Появляются конкретные риски: «Доступы через его личные SSH-ключи, подписки на сервисы, привязанные к его почте». И прямая оценка: «Смирись, что скорость разработки упадёт на 30–50% на ближайшие 2 месяца».
Набор идей пересекается. Но без персоны модель описывает процесс. С персоной – предупреждает о конкретных ловушках, даёт оценки и говорит то, что обычно узнаёшь на собственных ошибках.
Что конкретно работает в персоне:
Плохо: «Ты – эксперт по HR»
Лучше: «Ты – HR-директор в компании 200+ человек, который специализируется на удержании технических специалистов в конкурентной среде»
Функциональная роль + масштаб + специализация + контекст. Чем точнее ситуация – тем точнее ответ.
Разбор с исследованиями
Персона в промпте – один из самых популярных приёмов. И один из самых неправильно понимаемых.
Исследования показывают: расплывчатые роли вроде «ты – лучший маркетолог мира» или «притворись Стивом Джобсом» ухудшают качество ответа. Модель начинает воспроизводить стереотипы о человеке, а не демонстрировать компетентность.
Мы проверили это на одном запросе через Gemini 3 Flash. Задача одна и та же: ключевой разработчик уходит через месяц, ведёт два критичных проекта – составить план на 4 недели.
Промпт без персоны:
Ключевой разработчик уходит через месяц. Он ведёт два критичных проекта. Составь план действий на 4 недели: что делать в первую очередь, как передать знания, какие риски я скорее всего упущу.
Ответ корректный: назначить преемников, парное программирование, записать скринкасты, передать доступы. Всё по делу – но звучит как инструкция, написанная для любой компании в любой ситуации.
Тот же промпт, но с персоной:
Ты – руководитель проектов в IT-компании на 150 человек. За 10 лет ты пережил 6 уходов ключевых сотрудников на критичных проектах. Ты знаешь, какие ошибки менеджеры совершают в первую неделю и что обычно упускают.
Набор рекомендаций похож – но тон и детали другие. Модель начинает с «Запрети ему брать новые задачи. Его работа теперь – только передача знаний». Вместо «задокументируйте» – «Не верь фразе "у меня всё задокументировано в Confluence" – обычно там 20% правды». Появляются конкретные риски: «Доступы через его личные SSH-ключи, подписки на сервисы, привязанные к его почте». И прямая оценка: «Смирись, что скорость разработки упадёт на 30–50% на ближайшие 2 месяца».
Набор идей пересекается. Но без персоны модель описывает процесс. С персоной – предупреждает о конкретных ловушках, даёт оценки и говорит то, что обычно узнаёшь на собственных ошибках.
Что конкретно работает в персоне:
Плохо: «Ты – эксперт по HR»
Лучше: «Ты – HR-директор в компании 200+ человек, который специализируется на удержании технических специалистов в конкурентной среде»
Функциональная роль + масштаб + специализация + контекст. Чем точнее ситуация – тем точнее ответ.
Разбор с исследованиями
mysummit.school
Персона в промпте: научный взгляд на ролевой промптинг
Зачем писать 'Ты – эксперт'? Как персона влияет на качество ответа AI. Почему 'Ты – Стив Джобс' больше не работает и что использовать вместо этого.
👍2❤1
А что если GigaChat – это всё, что у вас будет?
Минцифры готовит закон о «доверенных моделях»: к 2027 году госсектор смогут пользоваться только моделями из реестра. ChatGPT, Claude, Gemini – под вопросом.
В нашем бенчмарке 54 моделей GigaChat – 43-е место, GPT-5.4 – 1-е. И контринтуитивно: на задачах российской специфики нативные модели проигрывают иностранным.
Запускаем эксперимент Make Weak Model Great Again. Четыре модели, доступные в России, десять техник промптинга. От ролевого задания до Chain-of-Thought и диалогов с самокритикой.
Две техники делают эксперимент особенно интересным: КАПС и агрессивный тон, накричать на модель. Работают ли городские легенды?
Где граница, после которой промпт не компенсирует разрыв в знаниях?
Мы хотим понять возможности моделей, чтобы приблизиться в рейтинге к премиум моделям. Подпишись, чтобы не пропустить результат
Минцифры готовит закон о «доверенных моделях»: к 2027 году госсектор смогут пользоваться только моделями из реестра. ChatGPT, Claude, Gemini – под вопросом.
В нашем бенчмарке 54 моделей GigaChat – 43-е место, GPT-5.4 – 1-е. И контринтуитивно: на задачах российской специфики нативные модели проигрывают иностранным.
Запускаем эксперимент Make Weak Model Great Again. Четыре модели, доступные в России, десять техник промптинга. От ролевого задания до Chain-of-Thought и диалогов с самокритикой.
Две техники делают эксперимент особенно интересным: КАПС и агрессивный тон, накричать на модель. Работают ли городские легенды?
Где граница, после которой промпт не компенсирует разрыв в знаниях?
Мы хотим понять возможности моделей, чтобы приблизиться в рейтинге к премиум моделям. Подпишись, чтобы не пропустить результат
Google Cloud опубликовал отчёт о ROI от AI-агентов – 88% компаний заявляют о положительной отдаче, средний кумулятивный ROI за три года – 207%, окупаемость меньше шести месяцев.
Цифры красивые. Но есть нюанс: исследование заказано и опубликовано компанией, которая продаёт AI-инфраструктуру. Выборка – компании, которые уже вложились в решения Google Cloud. Те, кто бросил на полпути или не увидел результата, в отчёт не попали. Это не фальсификация – это bias в чистом виде.
При этом внутри отчёта есть данные, которые полезны именно тем, кто пытается посчитать эффект у себя.
Что реально измеримо:
Mr. Cooper (ипотечный сервис) – сокращение времени обработки звонка на 3,5%. Звучит скромно, но в масштабе это 28 000 часов в год. Toolstation – рост продаж на 5,5% и CTR на 10% после внедрения AI-ассистента. Commerzbank – чат-бот закрывает 70% обращений без человека при 2 млн+ диалогов.
Это конкретные кейсы с конкретными метриками. Не «повысили эффективность» – а сколько часов, процентов, обращений.
Что мешает:
Главный барьер – не технология. Три из пяти приоритетов инвестиций – это люди и процессы: управление изменениями (42%), качество данных (41%), обучение команды (40%). Сами инструменты – только четвёртая строчка (37%).
А исследование Workday добавляет холодного душа: 37% сэкономленного времени уходит на исправление ошибок AI. MIT фиксирует разрыв между $30–40 млрд инвестиций и реальной отдачей.
Зачем это знать:
Если вы в позиции, где нужно обосновать бюджет на AI – отчёт Google полезен как каркас аргументации. Не как истина, а как структура: вот так считают, вот такие метрики берут, вот такие кейсы приводят. Дальше подставляете свои цифры.
Разобрали подробнее – с фреймворком для бизнес-кейса и поправкой на российский рынок: полный разбор
Цифры красивые. Но есть нюанс: исследование заказано и опубликовано компанией, которая продаёт AI-инфраструктуру. Выборка – компании, которые уже вложились в решения Google Cloud. Те, кто бросил на полпути или не увидел результата, в отчёт не попали. Это не фальсификация – это bias в чистом виде.
При этом внутри отчёта есть данные, которые полезны именно тем, кто пытается посчитать эффект у себя.
Что реально измеримо:
Mr. Cooper (ипотечный сервис) – сокращение времени обработки звонка на 3,5%. Звучит скромно, но в масштабе это 28 000 часов в год. Toolstation – рост продаж на 5,5% и CTR на 10% после внедрения AI-ассистента. Commerzbank – чат-бот закрывает 70% обращений без человека при 2 млн+ диалогов.
Это конкретные кейсы с конкретными метриками. Не «повысили эффективность» – а сколько часов, процентов, обращений.
Что мешает:
Главный барьер – не технология. Три из пяти приоритетов инвестиций – это люди и процессы: управление изменениями (42%), качество данных (41%), обучение команды (40%). Сами инструменты – только четвёртая строчка (37%).
А исследование Workday добавляет холодного душа: 37% сэкономленного времени уходит на исправление ошибок AI. MIT фиксирует разрыв между $30–40 млрд инвестиций и реальной отдачей.
Зачем это знать:
Если вы в позиции, где нужно обосновать бюджет на AI – отчёт Google полезен как каркас аргументации. Не как истина, а как структура: вот так считают, вот такие метрики берут, вот такие кейсы приводят. Дальше подставляете свои цифры.
Разобрали подробнее – с фреймворком для бизнес-кейса и поправкой на российский рынок: полный разбор
mysummit.school
Как обосновать AI для своей команды: данные вместо обещаний
Отчёт Google Cloud (3 466 руководителей): 88% видят ROI, окупаемость за 6 месяцев. Разбираем данные, поправки для российского рынка и фреймворк бизнес-кейса.
Продакт-менеджер SaaS-сервиса четыре месяца смотрит на одну цифру: конверсия новых пользователей в активных – 38%. Не растёт. На столе три файла: воронка онбординга, 350 тикетов поддержки и результаты A/B-теста новой фичи.
Он загружает их в ChatGPT по одному. Получает три отдельных вывода. Сводит вручную. Топлайн теста – конверсия выросла на 4 п.п., статистика на грани. Вывод: фича не сработала, итерируем или убиваем.
Тот же PM, те же три файла – но через агента на ноутбуке. Агент видит всё одновременно: воронку, тикеты и тест. Находит главную точку отвала, сопоставляет с жалобами, а потом делает то, что PM не попросил бы в чате, – сегментирует тест по размеру компании. В целевом сегменте (51–200 сотрудников) конверсия выросла не на 4, а на 13,8 п.п. Вывод: запускать на 100%.
Одни и те же данные. Противоположное решение. Разница – в одном вопросе, который не был задан.
Почему не был? Не потому что PM не умеет сегментировать. А потому что когда каждый файл – это отдельная загрузка, отдельный контекст и отдельные 15 минут, вы задаёте только очевидные вопросы. На третью ось сегментации терпения уже не хватает.
Агент меняет экономику вопроса. Сегментация – не отдельный запрос, а дополнительные 10 секунд. Поэтому агент её делает. А вы в чате – нет.
Разбор с тремя файлами, кодом и скриншотами
Он загружает их в ChatGPT по одному. Получает три отдельных вывода. Сводит вручную. Топлайн теста – конверсия выросла на 4 п.п., статистика на грани. Вывод: фича не сработала, итерируем или убиваем.
Тот же PM, те же три файла – но через агента на ноутбуке. Агент видит всё одновременно: воронку, тикеты и тест. Находит главную точку отвала, сопоставляет с жалобами, а потом делает то, что PM не попросил бы в чате, – сегментирует тест по размеру компании. В целевом сегменте (51–200 сотрудников) конверсия выросла не на 4, а на 13,8 п.п. Вывод: запускать на 100%.
Одни и те же данные. Противоположное решение. Разница – в одном вопросе, который не был задан.
Почему не был? Не потому что PM не умеет сегментировать. А потому что когда каждый файл – это отдельная загрузка, отдельный контекст и отдельные 15 минут, вы задаёте только очевидные вопросы. На третью ось сегментации терпения уже не хватает.
Агент меняет экономику вопроса. Сегментация – не отдельный запрос, а дополнительные 10 секунд. Поэтому агент её делает. А вы в чате – нет.
Разбор с тремя файлами, кодом и скриншотами
👍3
В марте у 2000 американцев спросили – что именно вы делаете с AI, как часто, для каких задач.
Первое. Почти половина взрослых американцев по-прежнему не используют AI вообще. Ноль взаимодействий с любым инструментом.
Второе – важнее. Из тех, кто использует, около 62% применяют его поверхностно: один-два быстрых запроса. Ещё ~32% – умеренно. И только ~6% говорят, что действительно опираются на AI в работе.
Что делают эти 94%? Поиск информации – 80%. Написание текстов – 59%. Мозговые штурмы – 53%. Три четверти работают в режиме «напечатал вопрос – получил ответ». Загружают свои документы – меньше половины. Автономные агенты – 9%.
При этом только 19% пользователей сообщают, что AI заменил какие-то их задачи. И только 14% – что AI позволил делать то, что раньше было недоступно.
Самый интересный срез – портрет «тяжёлых» пользователей. Ни возраст, ни образование не показывают значимых различий в данных. Самая значимая переменная – платная подписка на ChatGPT. Доля платных подписчиков всего ~7%, но они непропорционально представлены среди интенсивных пользователей. Когда платишь ежемесячно – мотивация использовать глубже.
И ещё одна деталь. Четыре месяца назад Stanford фиксировал: личное использование AI опережало рабочее. Март 2026 показывает, что половина работающих пользователей применяет AI на работе столько же, сколько дома. Переход состоялся. Но оказалось, что следующий переход – от поверхностного к системному – ещё сложнее.
Разбор с данными и инфографикой
Первое. Почти половина взрослых американцев по-прежнему не используют AI вообще. Ноль взаимодействий с любым инструментом.
Второе – важнее. Из тех, кто использует, около 62% применяют его поверхностно: один-два быстрых запроса. Ещё ~32% – умеренно. И только ~6% говорят, что действительно опираются на AI в работе.
Что делают эти 94%? Поиск информации – 80%. Написание текстов – 59%. Мозговые штурмы – 53%. Три четверти работают в режиме «напечатал вопрос – получил ответ». Загружают свои документы – меньше половины. Автономные агенты – 9%.
При этом только 19% пользователей сообщают, что AI заменил какие-то их задачи. И только 14% – что AI позволил делать то, что раньше было недоступно.
Самый интересный срез – портрет «тяжёлых» пользователей. Ни возраст, ни образование не показывают значимых различий в данных. Самая значимая переменная – платная подписка на ChatGPT. Доля платных подписчиков всего ~7%, но они непропорционально представлены среди интенсивных пользователей. Когда платишь ежемесячно – мотивация использовать глубже.
И ещё одна деталь. Четыре месяца назад Stanford фиксировал: личное использование AI опережало рабочее. Март 2026 показывает, что половина работающих пользователей применяет AI на работе столько же, сколько дома. Переход состоялся. Но оказалось, что следующий переход – от поверхностного к системному – ещё сложнее.
Разбор с данными и инфографикой
mysummit.school
62% пользователей применяют ИИ на 1–2 задачи: данные Epoch AI / Ipsos (март 2026)
Epoch AI / Ipsos, март 2026: AI переехал в офис, но 62% пользователей применяют его поверхностно. Что делают иначе 5,6%, которые опираются на него всерьёз.
Вышел Дайджест #11 – на этот раз короче, как просили.
Главная тема – агентный кодинг. AI-агенты пишут код, закрывают тикеты в Jira, деплоят сайты. Код генерировать легко – проверять нет (объем ревью увеличился в 2 раза, а пропускная способность человека – нет).
Также в выпуске:
– OpenCode: бесплатная альтернатива Claude Code, работает из России
– Google Gemma 4, Meta Muse Spark, Anthropic Mythos – зачем менеджеру знать про новые модели
– Stanford: вежливость в промптах снижает качество ответов
– 92% внедрили AI в разработку, довольны результатом – 4%
Читать дайджест
Главная тема – агентный кодинг. AI-агенты пишут код, закрывают тикеты в Jira, деплоят сайты. Код генерировать легко – проверять нет (объем ревью увеличился в 2 раза, а пропускная способность человека – нет).
Также в выпуске:
– OpenCode: бесплатная альтернатива Claude Code, работает из России
– Google Gemma 4, Meta Muse Spark, Anthropic Mythos – зачем менеджеру знать про новые модели
– Stanford: вежливость в промптах снижает качество ответов
– 92% внедрили AI в разработку, довольны результатом – 4%
Читать дайджест
❤1
По обратной связи наших студентов – фича сравнения ответов LLM при одном и том же промпте – одна из самых полезных на платформе.
Она позволяет увидеть в моменте сильные и слабые стороны отдельной модели. Выбрать тот инструмент с которым результат будет наиболее подходящим для вашей задачи. И самое главное, узнать о тех ИИ-инструментах, с которыми вы не работали ранее!
Для других студентов важно было узнать стоимость и время исполнения запросов – важно для создания агентов
Это из обратной связи.
И мы подумали, что эту фичу нужно отдать и тем, кто еще не является нашим студентом. Вынесли эту фичу в блог!
Теперь, каждый раз, когда вы будете читать статью в нашем блоге, то вы сможете сравнить выводы в зависимости от системы. Пока что это мы сделали в обзорах инструментов. Удивительно, но самая популярная фича в статье про GigaChat :)
Попробуйте и вы!
P.S. Скрины на синем фоне из блога, на светлом – с тренажера.
Она позволяет увидеть в моменте сильные и слабые стороны отдельной модели. Выбрать тот инструмент с которым результат будет наиболее подходящим для вашей задачи. И самое главное, узнать о тех ИИ-инструментах, с которыми вы не работали ранее!
Для других студентов важно было узнать стоимость и время исполнения запросов – важно для создания агентов
Это из обратной связи.
И мы подумали, что эту фичу нужно отдать и тем, кто еще не является нашим студентом. Вынесли эту фичу в блог!
Теперь, каждый раз, когда вы будете читать статью в нашем блоге, то вы сможете сравнить выводы в зависимости от системы. Пока что это мы сделали в обзорах инструментов. Удивительно, но самая популярная фича в статье про GigaChat :)
Попробуйте и вы!
P.S. Скрины на синем фоне из блога, на светлом – с тренажера.
👍1
Недавно мы разбирали данные Epoch AI: 62% пользователей применяют AI поверхностно, на один-два запроса. Только 6% опираются на него всерьёз.
Wharton School смотрит на ту же картину с другого конца – 800 топ-менеджеров из крупных американских компаний. Третий год подряд. И цифры – из другой вселенной: 82% используют AI еженедельно, 46% – каждый день. За год ежедневное использование выросло на 17 процентных пунктов.
Разрыв между руководителями и средним сотрудником – колоссальный. У Epoch AI те же 82% даже близко не набираются: большинство работает в режиме «напечатал вопрос – получил ответ». У руководителей AI уже встроен в принятие решений.
Но даже внутри этих компаний проникновение неравномерное. Технологии, финансы, консалтинг – убежали вперёд. Производство и ритейл отстают. Дело не в «отсталости»: ИИ отлично работает с текстом и данными, но производственная логистика – это физические объекты, legacy-системы и комплексная интеграция. Природа задач определяет скорость внедрения.
Внутри компаний – та же неравномерность. IT и закупки лидируют по частоте и уверенности. Маркетинг и продажи – вопреки всему хайпу вокруг «AI-контента» – отстают. Реальность оказалась прозаичнее обещаний: генерировать текст легко, но креативный прорыв пока делают люди.
61% компаний назначили Chief AI Officer или эквивалентную позицию. 70% открыли доступ к AI для всех сотрудников. AI перешёл из категории «проект IT-отдела» в базовую инфраструктуру на уровне C-suite.
Треть проектов при этом застревает на стадии пилота. Работает на 100 клиентах – ломается на 100 000. Масштабирование оказалось отдельной дисциплиной: интеграция с legacy-системами, enterprise-ценообразование, governance, безопасность данных.
Если сопоставить оба исследования, картина выглядит так: переход «не использую -> использую» уже произошёл. Следующий переход – «использую поверхностно -> встраиваю в процессы» – происходит пока в основном наверху. И именно этот переход определяет, кто получает реальную отдачу.
Детальный разбор по отраслям
Wharton School смотрит на ту же картину с другого конца – 800 топ-менеджеров из крупных американских компаний. Третий год подряд. И цифры – из другой вселенной: 82% используют AI еженедельно, 46% – каждый день. За год ежедневное использование выросло на 17 процентных пунктов.
Разрыв между руководителями и средним сотрудником – колоссальный. У Epoch AI те же 82% даже близко не набираются: большинство работает в режиме «напечатал вопрос – получил ответ». У руководителей AI уже встроен в принятие решений.
Но даже внутри этих компаний проникновение неравномерное. Технологии, финансы, консалтинг – убежали вперёд. Производство и ритейл отстают. Дело не в «отсталости»: ИИ отлично работает с текстом и данными, но производственная логистика – это физические объекты, legacy-системы и комплексная интеграция. Природа задач определяет скорость внедрения.
Внутри компаний – та же неравномерность. IT и закупки лидируют по частоте и уверенности. Маркетинг и продажи – вопреки всему хайпу вокруг «AI-контента» – отстают. Реальность оказалась прозаичнее обещаний: генерировать текст легко, но креативный прорыв пока делают люди.
61% компаний назначили Chief AI Officer или эквивалентную позицию. 70% открыли доступ к AI для всех сотрудников. AI перешёл из категории «проект IT-отдела» в базовую инфраструктуру на уровне C-suite.
Треть проектов при этом застревает на стадии пилота. Работает на 100 клиентах – ломается на 100 000. Масштабирование оказалось отдельной дисциплиной: интеграция с legacy-системами, enterprise-ценообразование, governance, безопасность данных.
Если сопоставить оба исследования, картина выглядит так: переход «не использую -> использую» уже произошёл. Следующий переход – «использую поверхностно -> встраиваю в процессы» – происходит пока в основном наверху. И именно этот переход определяет, кто получает реальную отдачу.
Детальный разбор по отраслям
mysummit.school
62% пользователей применяют ИИ на 1–2 задачи: данные Epoch AI / Ipsos (март 2026)
Epoch AI / Ipsos, март 2026: AI переехал в офис, но 62% пользователей применяют его поверхностно. Что делают иначе 5,6%, которые опираются на него всерьёз.
👍1