ИИ для менеджера | mysummit.school
142 subscribers
32 photos
48 links
Школа mysummit. Применение LLM на практике в жизни менеджера
Download Telegram
Финансовый аналитик получает от AI квартальный отчёт на 15 страниц. Текст уверенный, цифры правдоподобные, выводы разумные. Аналитик вносит пару правок и отправляет руководству. Через неделю выясняется: три показателя неверны, одна ссылка на исследование не существует, а главный вывод – корреляция, поданная как причинно-следственная связь.

Это не единичный сбой. По данным Vectara Hallucination Leaderboard, даже лучшие модели галлюцинируют в 2–5% случаев при работе с предоставленным источником. В свободной генерации – значительно выше. Это свойство архитектуры: модель выбирает статистически вероятное продолжение, а не логически верное.

Но галлюцинации – только верхушка. Есть два разных класса ошибок, и путать их дорого. Intrinsic – модель исказила ваши данные (написала «12 человек в команде» вместо 8). Проверка: сверить с источником, 30 секунд. Extrinsic – модель выдумала факт целиком («по данным McKinsey, 73% проектов...» – такого отчёта не существует). Проверка: найти первоисточник, 5–10 минут. Разные ошибки – разная стратегия, разные затраты времени.

Исследование Anthropic на 1,5 млн диалогов с Claude показало ещё один паттерн: пользователи просят AI написать готовый текст – сообщение, план, скрипт – и отправляют без правок. Около 50 случаев только в одном кластере данных, когда люди возвращались с сожалением: «это было не моё», «я должен был послушать свою интуицию». Проблема не в том, что модель ошиблась – текст мог быть верным. Проблема в подмене: AI заменил суждение, а не усилил его.

Мы разбираем это в модуле «Фундамент» – от систематики ошибок до трёхуровневой верификации и границ, где AI вообще не стоит включать. Не «будьте осторожнее», а конкретная система: что проверять за 30 секунд, что за 5 минут, а что не делегировать вовсе.

Модуль Фундамент – базовый для всех специализаций. Навыки, которые нужны в ежедневной работе
«Everyone should be using Claude Code» – эта фраза разлетелась по LinkedIn и Telegram-каналам в марте 2026-го. Каждую неделю кто-то из менеджеров спрашивает: как попробовать?

Ответ для России неудобный. Claude Code требует подписку за $100/месяц и карту, которую не всегда легко получить. Один из самых обсуждаемых AI-инструментов года – физически за барьером.

Но суть Claude Code – не в Claude. Суть в агентском подходе: AI запускается на вашем компьютере, читает ваши файлы напрямую и выполняет задачи без copy-paste. Именно это делает его полезным для менеджеров – не нужно вручную загружать документы в чат.

И именно этот принцип воспроизводит OpenCode – open-source проект, который работает с любыми моделями: DeepSeek, Gemini, локальные через Ollama. Есть десктопная версия и терминальный клиент. Есть бесплатные модели для старта.

Три задачи из статьи, которые показывают разницу:

– Заметки с трёх встреч → структурированная таблица задач. Вручную: 30 минут. С агентом: 2 минуты.
– 5 интервью с клиентами → топ-3 болевые точки с цитатами. Агент читает папку целиком, не нужно копировать каждый файл.
– Один дайджест → три формата (Slack, email руководителю, Notion). 40 минут ручной работы → 5 минут.

Суммарно: 4 часа → 15 минут. Не потому что агент «умнее» – потому что он работает с файлами напрямую.

Мы уже говорили про агентский подход в канале – теперь выкладываем подробный гайд: что такое OpenCode, как поставить за 15 минут и с каких задач начать.

Это первый материал из технического модуля курса – про инструменты, которые встраиваются в ежедневную работу менеджера.

Читать разбор
🔥1
Большинство онлайн-курсов устроены одинаково: видео, текст, тест из 5 вопросов в конце модуля. Прочитал, кивнул, угадал правильный ответ – через неделю не помнишь половины. У нас так не работает.

Каждый урок – не страница для чтения. Прямо внутри текста встроены квизы, задания, кнопка «объясни». Просто пролистать и пойти дальше не получится – урок засчитывается, только когда ты что-то сделал.

Задания проверяют несколько AI-рецензентов

Сдаёшь работу – текст, документ, разбор кейса – и её оценивает не один AI, а несколько независимых рецензентов с разных сторон.

Например, в задании по управлению проектом твою работу смотрят: аналитик (верны ли данные и расчёты), методолог (соответствует ли критериям задания) и практик из индустрии (можно ли это применить в реальной жизни). Потом всё собирается в одну обратную связь.

Не «правильно/неправильно», а конкретно: что сильно, что слабо, и с чьей точки зрения. Можно пересдать – после первой попытки открываются подсказки.

Непонятно? Спроси прямо в уроке

Встретил незнакомое слово или запутался в концепции – выделяешь текст, нажимаешь «Объясни». AI объясняет прямо здесь, в контексте урока. Можно задать уточняющий вопрос, потом ещё один – получается разговор с тьютором. Все такие разговоры сохраняются в заметках.

Не нужно открывать ChatGPT в соседней вкладке, копировать текст, формулировать промпт. Объяснение уже знает, какой урок ты читаешь.

Что ещё

Материал обновляется – область ИИ меняется каждый месяц. Когда мы переписываем урок, ты получаешь короткий отчёт: что изменилось и зачем. Не нужно перечитывать всё – видно, какие разделы обновились.

Закладки с заметками, открытие глав по порядку, прогресс по реальным действиям – не по просмотрам страниц.

Реальный опыт

Не промпты скопировал-вставил, а сравнение – как каждый инструмент реагирует и как наши знания работают в каждой из систем – ChatGPT, YandexGPT, Claude, GigaChat. Опыт близкий к реальному.

Программа курса – посмотрите, из чего состоят модули

Или приходите на Открытый для всех модуль
👍1
«Ты – эксперт по стратегии» больше не работает. Вот что работает

Персона в промпте – один из самых популярных приёмов. И один из самых неправильно понимаемых.

Исследования показывают: расплывчатые роли вроде «ты – лучший маркетолог мира» или «притворись Стивом Джобсом» ухудшают качество ответа. Модель начинает воспроизводить стереотипы о человеке, а не демонстрировать компетентность.

Мы проверили это на одном запросе через Gemini 3 Flash. Задача одна и та же: ключевой разработчик уходит через месяц, ведёт два критичных проекта – составить план на 4 недели.

Промпт без персоны:
Ключевой разработчик уходит через месяц. Он ведёт два критичных проекта. Составь план действий на 4 недели: что делать в первую очередь, как передать знания, какие риски я скорее всего упущу.


Ответ корректный: назначить преемников, парное программирование, записать скринкасты, передать доступы. Всё по делу – но звучит как инструкция, написанная для любой компании в любой ситуации.

Тот же промпт, но с персоной:
Ты – руководитель проектов в IT-компании на 150 человек. За 10 лет ты пережил 6 уходов ключевых сотрудников на критичных проектах. Ты знаешь, какие ошибки менеджеры совершают в первую неделю и что обычно упускают.


Набор рекомендаций похож – но тон и детали другие. Модель начинает с «Запрети ему брать новые задачи. Его работа теперь – только передача знаний». Вместо «задокументируйте» – «Не верь фразе "у меня всё задокументировано в Confluence" – обычно там 20% правды». Появляются конкретные риски: «Доступы через его личные SSH-ключи, подписки на сервисы, привязанные к его почте». И прямая оценка: «Смирись, что скорость разработки упадёт на 30–50% на ближайшие 2 месяца».

Набор идей пересекается. Но без персоны модель описывает процесс. С персоной – предупреждает о конкретных ловушках, даёт оценки и говорит то, что обычно узнаёшь на собственных ошибках.

Что конкретно работает в персоне:

Плохо: «Ты – эксперт по HR»
Лучше: «Ты – HR-директор в компании 200+ человек, который специализируется на удержании технических специалистов в конкурентной среде»

Функциональная роль + масштаб + специализация + контекст. Чем точнее ситуация – тем точнее ответ.

Разбор с исследованиями
👍21
А что если GigaChat – это всё, что у вас будет?

Минцифры готовит закон о «доверенных моделях»: к 2027 году госсектор смогут пользоваться только моделями из реестра. ChatGPT, Claude, Gemini – под вопросом.

В нашем бенчмарке 54 моделей GigaChat – 43-е место, GPT-5.4 – 1-е. И контринтуитивно: на задачах российской специфики нативные модели проигрывают иностранным.

Запускаем эксперимент Make Weak Model Great Again. Четыре модели, доступные в России, десять техник промптинга. От ролевого задания до Chain-of-Thought и диалогов с самокритикой.

Две техники делают эксперимент особенно интересным: КАПС и агрессивный тон, накричать на модель. Работают ли городские легенды?

Где граница, после которой промпт не компенсирует разрыв в знаниях?

Мы хотим понять возможности моделей, чтобы приблизиться в рейтинге к премиум моделям. Подпишись, чтобы не пропустить результат
Google Cloud опубликовал отчёт о ROI от AI-агентов – 88% компаний заявляют о положительной отдаче, средний кумулятивный ROI за три года – 207%, окупаемость меньше шести месяцев.

Цифры красивые. Но есть нюанс: исследование заказано и опубликовано компанией, которая продаёт AI-инфраструктуру. Выборка – компании, которые уже вложились в решения Google Cloud. Те, кто бросил на полпути или не увидел результата, в отчёт не попали. Это не фальсификация – это bias в чистом виде.

При этом внутри отчёта есть данные, которые полезны именно тем, кто пытается посчитать эффект у себя.

Что реально измеримо:

Mr. Cooper (ипотечный сервис) – сокращение времени обработки звонка на 3,5%. Звучит скромно, но в масштабе это 28 000 часов в год. Toolstation – рост продаж на 5,5% и CTR на 10% после внедрения AI-ассистента. Commerzbank – чат-бот закрывает 70% обращений без человека при 2 млн+ диалогов.

Это конкретные кейсы с конкретными метриками. Не «повысили эффективность» – а сколько часов, процентов, обращений.

Что мешает:

Главный барьер – не технология. Три из пяти приоритетов инвестиций – это люди и процессы: управление изменениями (42%), качество данных (41%), обучение команды (40%). Сами инструменты – только четвёртая строчка (37%).

А исследование Workday добавляет холодного душа: 37% сэкономленного времени уходит на исправление ошибок AI. MIT фиксирует разрыв между $30–40 млрд инвестиций и реальной отдачей.

Зачем это знать:

Если вы в позиции, где нужно обосновать бюджет на AI – отчёт Google полезен как каркас аргументации. Не как истина, а как структура: вот так считают, вот такие метрики берут, вот такие кейсы приводят. Дальше подставляете свои цифры.

Разобрали подробнее – с фреймворком для бизнес-кейса и поправкой на российский рынок: полный разбор
Продакт-менеджер SaaS-сервиса четыре месяца смотрит на одну цифру: конверсия новых пользователей в активных – 38%. Не растёт. На столе три файла: воронка онбординга, 350 тикетов поддержки и результаты A/B-теста новой фичи.

Он загружает их в ChatGPT по одному. Получает три отдельных вывода. Сводит вручную. Топлайн теста – конверсия выросла на 4 п.п., статистика на грани. Вывод: фича не сработала, итерируем или убиваем.

Тот же PM, те же три файла – но через агента на ноутбуке. Агент видит всё одновременно: воронку, тикеты и тест. Находит главную точку отвала, сопоставляет с жалобами, а потом делает то, что PM не попросил бы в чате, – сегментирует тест по размеру компании. В целевом сегменте (51–200 сотрудников) конверсия выросла не на 4, а на 13,8 п.п. Вывод: запускать на 100%.

Одни и те же данные. Противоположное решение. Разница – в одном вопросе, который не был задан.

Почему не был? Не потому что PM не умеет сегментировать. А потому что когда каждый файл – это отдельная загрузка, отдельный контекст и отдельные 15 минут, вы задаёте только очевидные вопросы. На третью ось сегментации терпения уже не хватает.

Агент меняет экономику вопроса. Сегментация – не отдельный запрос, а дополнительные 10 секунд. Поэтому агент её делает. А вы в чате – нет.

Разбор с тремя файлами, кодом и скриншотами
👍3
В марте у 2000 американцев спросили – что именно вы делаете с AI, как часто, для каких задач.

Первое. Почти половина взрослых американцев по-прежнему не используют AI вообще. Ноль взаимодействий с любым инструментом.

Второе – важнее. Из тех, кто использует, около 62% применяют его поверхностно: один-два быстрых запроса. Ещё ~32% – умеренно. И только ~6% говорят, что действительно опираются на AI в работе.

Что делают эти 94%? Поиск информации – 80%. Написание текстов – 59%. Мозговые штурмы – 53%. Три четверти работают в режиме «напечатал вопрос – получил ответ». Загружают свои документы – меньше половины. Автономные агенты – 9%.

При этом только 19% пользователей сообщают, что AI заменил какие-то их задачи. И только 14% – что AI позволил делать то, что раньше было недоступно.

Самый интересный срез – портрет «тяжёлых» пользователей. Ни возраст, ни образование не показывают значимых различий в данных. Самая значимая переменная – платная подписка на ChatGPT. Доля платных подписчиков всего ~7%, но они непропорционально представлены среди интенсивных пользователей. Когда платишь ежемесячно – мотивация использовать глубже.

И ещё одна деталь. Четыре месяца назад Stanford фиксировал: личное использование AI опережало рабочее. Март 2026 показывает, что половина работающих пользователей применяет AI на работе столько же, сколько дома. Переход состоялся. Но оказалось, что следующий переход – от поверхностного к системному – ещё сложнее.

Разбор с данными и инфографикой
Вышел Дайджест #11 – на этот раз короче, как просили.

Главная тема – агентный кодинг. AI-агенты пишут код, закрывают тикеты в Jira, деплоят сайты. Код генерировать легко – проверять нет (объем ревью увеличился в 2 раза, а пропускная способность человека – нет).

Также в выпуске:
– OpenCode: бесплатная альтернатива Claude Code, работает из России
– Google Gemma 4, Meta Muse Spark, Anthropic Mythos – зачем менеджеру знать про новые модели
– Stanford: вежливость в промптах снижает качество ответов
– 92% внедрили AI в разработку, довольны результатом – 4%

Читать дайджест
1
По обратной связи наших студентов – фича сравнения ответов LLM при одном и том же промпте – одна из самых полезных на платформе.

Она позволяет увидеть в моменте сильные и слабые стороны отдельной модели. Выбрать тот инструмент с которым результат будет наиболее подходящим для вашей задачи. И самое главное, узнать о тех ИИ-инструментах, с которыми вы не работали ранее!

Для других студентов важно было узнать стоимость и время исполнения запросов – важно для создания агентов

Это из обратной связи.

И мы подумали, что эту фичу нужно отдать и тем, кто еще не является нашим студентом. Вынесли эту фичу в блог!

Теперь, каждый раз, когда вы будете читать статью в нашем блоге, то вы сможете сравнить выводы в зависимости от системы. Пока что это мы сделали в обзорах инструментов. Удивительно, но самая популярная фича в статье про GigaChat :)

Попробуйте и вы!

P.S. Скрины на синем фоне из блога, на светлом – с тренажера.
👍1