ИИ для менеджера | mysummit.school
136 subscribers
26 photos
46 links
Школа mysummit. Применение LLM на практике в жизни менеджера
Download Telegram
AI перестал быть окном с чатом. В 2026-м это агенты – программы, которые действуют

Перелом произошёл тихо. За последние полгода AI-продукты перешли от «отвечает на вопросы» к «выполняет цепочки действий». Разница принципиальная – как между справочной службой и ассистентом с доступом к вашему компьютеру.

Что уже работает:

Perplexity Computer – 19 моделей под одним капотом. Вы описываете результат, а система сама разбивает задачу на подзадачи, назначает агентов, подключает нужные инструменты из 400+ приложений (Snowflake, Salesforce, HubSpot). Может работать часами и даже неделями. Perplexity называет это «компьютер – это оркестрация». Стив Джобс говорил: «Музыканты играют на инструментах. Я играю оркестром.» Та же логика.

Claude Desktop (Computer Use) – Anthropic дали Claude доступ к экрану. AI видит интерфейс, кликает по кнопкам, заполняет формы, открывает приложения. Не через API – через ваш рабочий стол. «Протестируй в iOS-симуляторе», «заполни отчёт в SAP», «проверь макет в Figma» – всё это реальные сценарии.

OpenYak – open-source десктопный агент. 16 встроенных инструментов, 100+ моделей. Всё локально – данные не покидают машину.

Gumloop – маркетолог задаёт вопрос на человеческом языке, агент сам пишет SQL и строит графики. Кейс: агент нашёл, что 46% пользователей бросают продукт после дашборда, а реферальные конвертируются в 8 раз лучше платных. Ноль строк кода от менеджера.

Общий паттерн: AI больше не ждёт промпт. Он получает задачу и идёт делать – открывает файлы, ходит в API, пишет код, проверяет результат. Вопрос для менеджера уже не «использовать ли AI», а «как управлять тем, что он делает».

В программе mysummit.school мы учим собирать собственного AI-ассистента для проектных задач – без кода, на реальных кейсах: программа курса

Детальный разбор тренда BYOA: mysummit.school/blog
78% менеджеров используют личный AI на рабочих задачах. Агент, который умеет открывать файлы – это уже не чат, это доступ

Вчера мы разобрали, что AI-агенты уже в продакшене. Сегодня – практический вопрос: какие данные можно им отдавать?

BYOA (Bring Your Own Agent) – тренд, при котором сотрудники подключают собственных AI-агентов к рабочим процессам. Часто – без разрешения компании. Запрещать бессмысленно. Задача менеджера – дать рамку.

Простой светофор для команды:

🟢 Зелёный — свободно: публичная информация, общие концепции, структуры документов без конфиденциальных деталей.

🟡 Жёлтый — с осторожностью: внутренние процессы, обезличенные данные, стратегические направления без цифр.

🔴 Красный — нельзя: персональные данные сотрудников, финансовые показатели, клиентские контракты, IP компании.

Правило работает не как запрет – а как навигация. Люди хотят использовать AI эффективно, им нужна рамка, а не стоп-сигнал. Распечатайте, повесьте в Notion, отправьте в командный чат.

Детальный разбор: mysummit.school/blog
1250 профессионалов описали, как они используют AI на работе. Картина неожиданная

Исследование Dejan.AI с Anthropic: интервью с профессионалами из разных индустрий – дизайнеры, аналитики, исследователи, юристы. Главный вопрос: как реально используется AI в работе?

Результат расходится с тем, что пишут в корпоративных презентациях. Большинство относятся к AI как к стажёру-новичку: полезный, но требует проверки. Никто не воспринимает его как автономного агента.

Самый неожиданный паттерн – у креативных профессионалов. Дизайнеры и сценаристы поставили самые жёсткие границы: AI можно для исследования и вариантов, но финальное решение – только человек. Те, кто убрал эту границу, жаловались на потерю собственного голоса.

И главный барьер для всех без исключения – галлюцинации. Не скорость, не цена, не интерфейс. Факт, который звучит убедительно, но выдуман – это то, что тормозит доверие.

Полный разбор: mysummit.school/blog
👍2
Сбер на этой неделе выпустил GigaChat Ultra с режимом рассуждений (Thinking). Мы сразу прогнали обе версии через 32 управленческих сценария из нашего исследования.

Результат: режим рассуждений ухудшил результат на 3,3%. Не улучшил – ухудшил.

В пяти из восьми категорий Thinking сработал хуже стандартного режима. Самый показательный провал – генерация кода: Ultra набрал 3,86 из 5, а Thinking – 1,25. Модель выдумала метрику «bug rate = deployments / velocity» и сгенерировала полностью нерабочий скрипт.

Второй провал – анализ выручки. Стандартный режим верно посчитал $317 тыс., Thinking «додумался» до $236 тыс. – галлюцинация в промежуточных вычислениях.

Это не баг конкретной модели. Академические работы за 2025–2026 годы фиксируют один и тот же паттерн:

– Неверные ответы содержат вдвое больше thinking-токенов, чем верные
– Короткие цепочки рассуждений до 35% точнее длинных
– Корреляция между количеством токенов и точностью – отрицательная
– Apple показал: для простых задач обычная модель работает лучше reasoning-модели

Где Thinking всё-таки помог – в задачах с множеством факторов: анализ стейкхолдеров, подготовка к переговорам, оценка рисков.

Вывод: режим рассуждений – не кнопка «думай лучше». Это инструмент для узкого класса задач, который вредит во всех остальных. Уметь различать – ключевой навык работы с AI.

Именно этому мы учим в Foundation-модуле курса – как понимать ограничения AI и использовать правильные инструменты для каждой задачи.

Полный разбор с данными и ссылками на исследования: mysummit.school/blog
Суббота, выходной – короткий инсайт на подумать за чашкой кофе.

Есть ли у вас задача, которую вы не поручаете AI, потому что «он с этим не справится»?

FrontierMath – бенчмарк из задач, которые математики не могли решить десятилетиями. Год назад ни одна модель не набирала больше 2%. Сейчас GPT-5.4 решает 47,6%. За год – от «невозможно» до «почти половина».

Для менеджера это не про математику. Это про то, как быстро устаревают представления об ограничениях AI.

«AI не умеет рассуждать», «AI не справляется со сложными задачами», «AI хорош только для рутины» – всё это было правдой год назад. Сейчас – уже нет. Ментальная модель большинства руководителей отстаёт от реального состояния инструмента на 12–18 месяцев.

Вот конкретный пример. Руководитель, который в 2024 году попробовал ChatGPT для анализа данных и остался недоволен, до сих пор убеждён, что «AI не справляется с аналитикой». Но модели 2026 года – это другой уровень: они работают с контекстом в миллион токенов, строят цепочки рассуждений, ищут информацию в реальном времени.

Граница возможного смещается быстрее, чем обновляются ожидания. И это создаёт два риска:

– Недооценка: вы не поручаете AI задачу, с которой он уже справляется лучше вас
– Переоценка: вы доверяете AI в области, где он по-прежнему галлюцинирует

Именно эти два режима – когда доверять, а когда проверять – мы разбираем в модуле "Фундамент" курса: систематика ошибок AI, метод верификации, аудит AI-решений. Не теория – конкретные фреймворки для принятия решений.

Разбор с контекстом для практиков: mysummit.school/blog

Подписывайтесь на рассылку – разбираем, что реально изменилось в AI и как это применять в работе.
2
Зачем тестировать 54 ИИ-модели на 32 практических сценариях?

Чтобы ответить на вопрос, который бенчмарки обычно игнорируют: а можно ли ответ модели взять на совещание? Можно ли ему доверять?

Вот конкретный пример. Задача: распределить $100 тысяч между четырьмя инициативами, когда бюджета на всё не хватает.

Kimi K2.5 построил фреймворк: категории инициатив, пороги отказа (если CAC > $200 – исключаем маркетинг), условную логику для пересмотра. Это можно показать руководителю.
GigaChat Ultra выдал Python-код, профинансировал подрядчика, исключил маркетинг без объяснения приоритетов. Ни структуры, ни критериев пересмотра. Переделывать.

Разница не в способностях моделей. Разница в том, пригоден ли выход для принятия решения. Это и проверяет бенчмарк.

Что это даёт вам:

1. Выбор модели под задачу. Claude лучше в аналитике – планирование, управление командой, анализ решений. Не потому что «умнее», а потому что строит фреймворки: матрицы решений, деревья условий. GPT сильнее в поиске информации и коммуникации. Для каждой задачи есть подходящий инструмент.
2. Доступность без VPN. Пять лучших моделей, работающих из России без VPN – все китайские: Kimi K2.5, MiniMax M2.7, MiMo V2, Qwen3.5. Все бесплатны в базовом режиме.
3. Экономия на моделях. GPT-5 Mini выиграл у GPT-5.2 Pro в категории «коммуникация». За качество общения необязательно платить премиум.
4. Честность о российских моделях GigaChat и YandexGPT внизу рейтинга не потому что плохие – они обслуживают другой рынок: корпоративный комплаенс, госзакупки, «импортозамещение».

Мы завершили работу над нашим бенчмарком! Результаты уже применяем в материалах нашей школы.
👍2
Последний год я работаю с AI через командную строку. Не ChatGPT, не веб-интерфейс – терминал, чёрный экран, текстовые команды. Claude Code, OpenCode, Gemini CLI. Звучит как шаг назад. На практике – другой способ думать.

Объясню, зачем менеджеру вообще об этом знать.

Что это такое. CLI-инструменты для AI – это когда вы общаетесь с моделью прямо в терминале. Без кнопок, без красивого интерфейса. Вы пишете задачу текстом, модель отвечает текстом. Но – и это ключевое – модель видит ваши файлы, может их читать, редактировать, запускать команды.

Почему это неудобно. Порог входа высокий. Нужно понимать файловую систему, уметь перемещаться по папкам, не бояться терминала. Нет привычного «скопировать-вставить из чата». Нет красивых кнопок. Первые два дня хочется вернуться в ChatGPT.

Почему это меняет работу. В веб-чате вы – человек, который переносит контекст руками. Скопировал данные из одного места, вставил в чат, получил ответ, перенёс обратно. В CLI модель сама работает с вашим рабочим пространством. Вы говорите: «прочитай этот отчёт и подготовь резюме для совещания» – и она читает реальный файл, а не вставленный вами фрагмент.

Наш бенчмарк 54 моделей – вся аналитика, генерация отчётов, обработка 2000+ оценок, построение рейтингов – сделана через Claude Code. Не потому что так удобнее, а потому что модель видела все данные, все скрипты, всю структуру проекта одновременно. В веб-чате это потребовало бы сотни copy-paste.

Ещё один сдвиг: в CLI вы формулируете задачи иначе. Не «напиши мне письмо», а «в папке reports лежат три квартальных отчёта, найди расхождения в цифрах между Q2 и Q3 и подготовь список вопросов для финансового директора». Задача становится конкретнее, потому что у модели есть доступ к реальным данным, а не к вашему пересказу.

Попробовать можно прямо сейчас:
Claude Code (Anthropic)
Gemini CLI (Google)
OpenCode (open source, работает с любой моделью)

Я не призываю всех менеджеров переходить в терминал. Но стоит знать, что такой способ работы существует и активно развивается. В нашем курсе тема CLI-инструментов разбирается в модуле «Техническая глубина» – для менеджеров, которые хотят говорить на одном языке с разработчиками.
Вышел 10-й выпуск дайджеста для менеджеров

Две главные темы – бенчмарк расширен до 54 моделей и методология встраивания AI в проектный ритм. Плюс тревожный сигнал: команды начинают саботировать AI-инструменты.

В выпуске:

Бенчмарк 54 моделей
● Топ-5 доступных из России – все китайские. Kimi K2.5, MiniMax M2.7, MiMo V2 от Xiaomi. Ноль российских
● GigaChat Ultra с режимом Thinking ухудшил результаты на 3,3%. В категории «российская специфика» китайская Kimi справилась лучше GigaChat
● MiniMax M2.7 – 1-е место в «Управление командой» среди всех 54 моделей. Стоимость – в 17 раз ниже Claude Opus

300 часов в год
● Система на четырёх уровнях: ежедневные, еженедельные, ежемесячные операции + запуск проекта
● Еженедельный статус-апдейт через AI: 3 часа → 45 минут = 100+ часов экономии в год
● Scrum, PRINCE2, Kanban – неважно. Важна регулярность

Новости
● Claude Auto Mode – модель сама планирует шаги и выбирает инструменты
● AI-агент Fin от Intercom генерирует $100 млн выручки, 2 млн запросов в неделю
● OpenAI создаёт СП на $10 млрд для внедрения AI во все портфельные компании
● OpenAI закрывает Sora – ресурсы на чипы и корпоративные продукты
● MIT: стоимость AI-труда – 3% от человеческого. Но заменяет не тех, кого ожидали

Тревожный сигнал
● 84% разработчиков используют AI, но 49% игнорируют его ежедневно. Творческие задачи уходят к нейросети – людям остаётся проверка
● 49% внедряют AI скрытно, без согласования с руководством
● GitHub: код пользователей Copilot Free и Pro теперь используется для обучения моделей

Читать выпуск: Дайджест #10

Подписаться на рассылку: mysummit.school/newsletter
Продакт-менеджеры начали использовать AI-агентов не для генерации текста, а для управления проектами. Не «напиши мне письмо» – а «пройдись по 10 интервью, найди топ-5 болей по частоте, вытащи дословные цитаты и найди противоречия между респондентами».

Разница с обычным чатом – принципиальная. В чате вы копируете данные руками. Агент сам читает файлы, ходит по папкам, сравнивает документы. Менеджер формулирует задачу, агент выполняет – через терминал или IDE.

Конкретные кейсы из практики:

Discovery-спринт. 10 интервью – обычно 19 часов ручной работы: выписать цитаты, сгруппировать боли, найти паттерны. Через агента – 10,5 часов. Экономия почти вдвое, но главное другое: агент ловит противоречия между интервью, которые человек пропускает – последний разговор всегда весит больше первого.
Конкурентный мониторинг. 15 сайтов конкурентов – цены, функции, изменения в позиционировании. Агент запускает 15 параллельных потоков анализа. Результат в 5 раз быстрее и, что важнее, – однороднее: каждый конкурент анализируется по одной и той же рамке, без усталости к третьему часу.
• Прототипирование. Менеджер описывает функцию – например, центр настройки уведомлений – и агент собирает работающий прототип интерфейса за час. Стейкхолдеры реагируют на реальный экран, а не на абстрактное описание в документе.

Но есть нюанс с экономикой. Claude Code решает задачи с первого раза в 78% случаев – лучший показатель среди агентов. При этом потребляет в 4,2 раза больше токенов, чем более лёгкие альтернативы. Одна интенсивная сессия может стоить $40. Менеджеру приходится считать: оправдывает ли 7–10% выигрыш в точности трёхкратный рост расходов?

Тема CLI-инструментов и агентной оркестрации разбирается в модуле «Техническая глубина»: программа курса
👍1
Финансовый аналитик получает от AI квартальный отчёт на 15 страниц. Текст уверенный, цифры правдоподобные, выводы разумные. Аналитик вносит пару правок и отправляет руководству. Через неделю выясняется: три показателя неверны, одна ссылка на исследование не существует, а главный вывод – корреляция, поданная как причинно-следственная связь.

Это не единичный сбой. По данным Vectara Hallucination Leaderboard, даже лучшие модели галлюцинируют в 2–5% случаев при работе с предоставленным источником. В свободной генерации – значительно выше. Это свойство архитектуры: модель выбирает статистически вероятное продолжение, а не логически верное.

Но галлюцинации – только верхушка. Есть два разных класса ошибок, и путать их дорого. Intrinsic – модель исказила ваши данные (написала «12 человек в команде» вместо 8). Проверка: сверить с источником, 30 секунд. Extrinsic – модель выдумала факт целиком («по данным McKinsey, 73% проектов...» – такого отчёта не существует). Проверка: найти первоисточник, 5–10 минут. Разные ошибки – разная стратегия, разные затраты времени.

Исследование Anthropic на 1,5 млн диалогов с Claude показало ещё один паттерн: пользователи просят AI написать готовый текст – сообщение, план, скрипт – и отправляют без правок. Около 50 случаев только в одном кластере данных, когда люди возвращались с сожалением: «это было не моё», «я должен был послушать свою интуицию». Проблема не в том, что модель ошиблась – текст мог быть верным. Проблема в подмене: AI заменил суждение, а не усилил его.

Мы разбираем это в модуле «Фундамент» – от систематики ошибок до трёхуровневой верификации и границ, где AI вообще не стоит включать. Не «будьте осторожнее», а конкретная система: что проверять за 30 секунд, что за 5 минут, а что не делегировать вовсе.

Модуль Фундамент – базовый для всех специализаций. Навыки, которые нужны в ежедневной работе
«Everyone should be using Claude Code» – эта фраза разлетелась по LinkedIn и Telegram-каналам в марте 2026-го. Каждую неделю кто-то из менеджеров спрашивает: как попробовать?

Ответ для России неудобный. Claude Code требует подписку за $100/месяц и карту, которую не всегда легко получить. Один из самых обсуждаемых AI-инструментов года – физически за барьером.

Но суть Claude Code – не в Claude. Суть в агентском подходе: AI запускается на вашем компьютере, читает ваши файлы напрямую и выполняет задачи без copy-paste. Именно это делает его полезным для менеджеров – не нужно вручную загружать документы в чат.

И именно этот принцип воспроизводит OpenCode – open-source проект, который работает с любыми моделями: DeepSeek, Gemini, локальные через Ollama. Есть десктопная версия и терминальный клиент. Есть бесплатные модели для старта.

Три задачи из статьи, которые показывают разницу:

– Заметки с трёх встреч → структурированная таблица задач. Вручную: 30 минут. С агентом: 2 минуты.
– 5 интервью с клиентами → топ-3 болевые точки с цитатами. Агент читает папку целиком, не нужно копировать каждый файл.
– Один дайджест → три формата (Slack, email руководителю, Notion). 40 минут ручной работы → 5 минут.

Суммарно: 4 часа → 15 минут. Не потому что агент «умнее» – потому что он работает с файлами напрямую.

Мы уже говорили про агентский подход в канале – теперь выкладываем подробный гайд: что такое OpenCode, как поставить за 15 минут и с каких задач начать.

Это первый материал из технического модуля курса – про инструменты, которые встраиваются в ежедневную работу менеджера.

Читать разбор
🔥1
Большинство онлайн-курсов устроены одинаково: видео, текст, тест из 5 вопросов в конце модуля. Прочитал, кивнул, угадал правильный ответ – через неделю не помнишь половины. У нас так не работает.

Каждый урок – не страница для чтения. Прямо внутри текста встроены квизы, задания, кнопка «объясни». Просто пролистать и пойти дальше не получится – урок засчитывается, только когда ты что-то сделал.

Задания проверяют несколько AI-рецензентов

Сдаёшь работу – текст, документ, разбор кейса – и её оценивает не один AI, а несколько независимых рецензентов с разных сторон.

Например, в задании по управлению проектом твою работу смотрят: аналитик (верны ли данные и расчёты), методолог (соответствует ли критериям задания) и практик из индустрии (можно ли это применить в реальной жизни). Потом всё собирается в одну обратную связь.

Не «правильно/неправильно», а конкретно: что сильно, что слабо, и с чьей точки зрения. Можно пересдать – после первой попытки открываются подсказки.

Непонятно? Спроси прямо в уроке

Встретил незнакомое слово или запутался в концепции – выделяешь текст, нажимаешь «Объясни». AI объясняет прямо здесь, в контексте урока. Можно задать уточняющий вопрос, потом ещё один – получается разговор с тьютором. Все такие разговоры сохраняются в заметках.

Не нужно открывать ChatGPT в соседней вкладке, копировать текст, формулировать промпт. Объяснение уже знает, какой урок ты читаешь.

Что ещё

Материал обновляется – область ИИ меняется каждый месяц. Когда мы переписываем урок, ты получаешь короткий отчёт: что изменилось и зачем. Не нужно перечитывать всё – видно, какие разделы обновились.

Закладки с заметками, открытие глав по порядку, прогресс по реальным действиям – не по просмотрам страниц.

Реальный опыт

Не промпты скопировал-вставил, а сравнение – как каждый инструмент реагирует и как наши знания работают в каждой из систем – ChatGPT, YandexGPT, Claude, GigaChat. Опыт близкий к реальному.

Программа курса – посмотрите, из чего состоят модули

Или приходите на Открытый для всех модуль
👍1
«Ты – эксперт по стратегии» больше не работает. Вот что работает

Персона в промпте – один из самых популярных приёмов. И один из самых неправильно понимаемых.

Исследования показывают: расплывчатые роли вроде «ты – лучший маркетолог мира» или «притворись Стивом Джобсом» ухудшают качество ответа. Модель начинает воспроизводить стереотипы о человеке, а не демонстрировать компетентность.

Мы проверили это на одном запросе через Gemini 3 Flash. Задача одна и та же: ключевой разработчик уходит через месяц, ведёт два критичных проекта – составить план на 4 недели.

Промпт без персоны:
Ключевой разработчик уходит через месяц. Он ведёт два критичных проекта. Составь план действий на 4 недели: что делать в первую очередь, как передать знания, какие риски я скорее всего упущу.


Ответ корректный: назначить преемников, парное программирование, записать скринкасты, передать доступы. Всё по делу – но звучит как инструкция, написанная для любой компании в любой ситуации.

Тот же промпт, но с персоной:
Ты – руководитель проектов в IT-компании на 150 человек. За 10 лет ты пережил 6 уходов ключевых сотрудников на критичных проектах. Ты знаешь, какие ошибки менеджеры совершают в первую неделю и что обычно упускают.


Набор рекомендаций похож – но тон и детали другие. Модель начинает с «Запрети ему брать новые задачи. Его работа теперь – только передача знаний». Вместо «задокументируйте» – «Не верь фразе "у меня всё задокументировано в Confluence" – обычно там 20% правды». Появляются конкретные риски: «Доступы через его личные SSH-ключи, подписки на сервисы, привязанные к его почте». И прямая оценка: «Смирись, что скорость разработки упадёт на 30–50% на ближайшие 2 месяца».

Набор идей пересекается. Но без персоны модель описывает процесс. С персоной – предупреждает о конкретных ловушках, даёт оценки и говорит то, что обычно узнаёшь на собственных ошибках.

Что конкретно работает в персоне:

Плохо: «Ты – эксперт по HR»
Лучше: «Ты – HR-директор в компании 200+ человек, который специализируется на удержании технических специалистов в конкурентной среде»

Функциональная роль + масштаб + специализация + контекст. Чем точнее ситуация – тем точнее ответ.

Разбор с исследованиями
👍21
А что если GigaChat – это всё, что у вас будет?

Минцифры готовит закон о «доверенных моделях»: к 2027 году госсектор смогут пользоваться только моделями из реестра. ChatGPT, Claude, Gemini – под вопросом.

В нашем бенчмарке 54 моделей GigaChat – 43-е место, GPT-5.4 – 1-е. И контринтуитивно: на задачах российской специфики нативные модели проигрывают иностранным.

Запускаем эксперимент Make Weak Model Great Again. Четыре модели, доступные в России, десять техник промптинга. От ролевого задания до Chain-of-Thought и диалогов с самокритикой.

Две техники делают эксперимент особенно интересным: КАПС и агрессивный тон, накричать на модель. Работают ли городские легенды?

Где граница, после которой промпт не компенсирует разрыв в знаниях?

Мы хотим понять возможности моделей, чтобы приблизиться в рейтинге к премиум моделям. Подпишись, чтобы не пропустить результат
Google Cloud опубликовал отчёт о ROI от AI-агентов – 88% компаний заявляют о положительной отдаче, средний кумулятивный ROI за три года – 207%, окупаемость меньше шести месяцев.

Цифры красивые. Но есть нюанс: исследование заказано и опубликовано компанией, которая продаёт AI-инфраструктуру. Выборка – компании, которые уже вложились в решения Google Cloud. Те, кто бросил на полпути или не увидел результата, в отчёт не попали. Это не фальсификация – это bias в чистом виде.

При этом внутри отчёта есть данные, которые полезны именно тем, кто пытается посчитать эффект у себя.

Что реально измеримо:

Mr. Cooper (ипотечный сервис) – сокращение времени обработки звонка на 3,5%. Звучит скромно, но в масштабе это 28 000 часов в год. Toolstation – рост продаж на 5,5% и CTR на 10% после внедрения AI-ассистента. Commerzbank – чат-бот закрывает 70% обращений без человека при 2 млн+ диалогов.

Это конкретные кейсы с конкретными метриками. Не «повысили эффективность» – а сколько часов, процентов, обращений.

Что мешает:

Главный барьер – не технология. Три из пяти приоритетов инвестиций – это люди и процессы: управление изменениями (42%), качество данных (41%), обучение команды (40%). Сами инструменты – только четвёртая строчка (37%).

А исследование Workday добавляет холодного душа: 37% сэкономленного времени уходит на исправление ошибок AI. MIT фиксирует разрыв между $30–40 млрд инвестиций и реальной отдачей.

Зачем это знать:

Если вы в позиции, где нужно обосновать бюджет на AI – отчёт Google полезен как каркас аргументации. Не как истина, а как структура: вот так считают, вот такие метрики берут, вот такие кейсы приводят. Дальше подставляете свои цифры.

Разобрали подробнее – с фреймворком для бизнес-кейса и поправкой на российский рынок: полный разбор
Продакт-менеджер SaaS-сервиса четыре месяца смотрит на одну цифру: конверсия новых пользователей в активных – 38%. Не растёт. На столе три файла: воронка онбординга, 350 тикетов поддержки и результаты A/B-теста новой фичи.

Он загружает их в ChatGPT по одному. Получает три отдельных вывода. Сводит вручную. Топлайн теста – конверсия выросла на 4 п.п., статистика на грани. Вывод: фича не сработала, итерируем или убиваем.

Тот же PM, те же три файла – но через агента на ноутбуке. Агент видит всё одновременно: воронку, тикеты и тест. Находит главную точку отвала, сопоставляет с жалобами, а потом делает то, что PM не попросил бы в чате, – сегментирует тест по размеру компании. В целевом сегменте (51–200 сотрудников) конверсия выросла не на 4, а на 13,8 п.п. Вывод: запускать на 100%.

Одни и те же данные. Противоположное решение. Разница – в одном вопросе, который не был задан.

Почему не был? Не потому что PM не умеет сегментировать. А потому что когда каждый файл – это отдельная загрузка, отдельный контекст и отдельные 15 минут, вы задаёте только очевидные вопросы. На третью ось сегментации терпения уже не хватает.

Агент меняет экономику вопроса. Сегментация – не отдельный запрос, а дополнительные 10 секунд. Поэтому агент её делает. А вы в чате – нет.

Разбор с тремя файлами, кодом и скриншотами
👍2
В марте у 2000 американцев спросили – что именно вы делаете с AI, как часто, для каких задач.

Первое. Почти половина взрослых американцев по-прежнему не используют AI вообще. Ноль взаимодействий с любым инструментом.

Второе – важнее. Из тех, кто использует, около 62% применяют его поверхностно: один-два быстрых запроса. Ещё ~32% – умеренно. И только ~6% говорят, что действительно опираются на AI в работе.

Что делают эти 94%? Поиск информации – 80%. Написание текстов – 59%. Мозговые штурмы – 53%. Три четверти работают в режиме «напечатал вопрос – получил ответ». Загружают свои документы – меньше половины. Автономные агенты – 9%.

При этом только 19% пользователей сообщают, что AI заменил какие-то их задачи. И только 14% – что AI позволил делать то, что раньше было недоступно.

Самый интересный срез – портрет «тяжёлых» пользователей. Ни возраст, ни образование не показывают значимых различий в данных. Самая значимая переменная – платная подписка на ChatGPT. Доля платных подписчиков всего ~7%, но они непропорционально представлены среди интенсивных пользователей. Когда платишь ежемесячно – мотивация использовать глубже.

И ещё одна деталь. Четыре месяца назад Stanford фиксировал: личное использование AI опережало рабочее. Март 2026 показывает, что половина работающих пользователей применяет AI на работе столько же, сколько дома. Переход состоялся. Но оказалось, что следующий переход – от поверхностного к системному – ещё сложнее.

Разбор с данными и инфографикой