ИИ для анализа данных 🤖
Использовал связку Gemini3 Pro + RStudio для анализа данных.
В результате анализ ускорился раз в 10🚀 (по сравнению с вычислениями в Excel, конечно 😊)
Язык R- это язык созданный именно для работы с данными и их анализа. В одну строчку можно посчитать статистические метрики и вывести график. А RStudio - это IDE (интерфейс) для разработки на языке R
Почему Gemini, а не ChatGPT? Потому что Gemini 3 с первого раза пишет код правильно ❤️❤️❤️
Видимо сказывается то, что он используется в Gemini Code Assist и обучен на большой кодовой базе.
В итоге я действую так :
1) прошу Gemini написать код на R
2) вставляю код в RStudio и выполняю
3) иногда тюню код под себя - названия переменных, фильтры добавляю, еще что-то
Исходные данные: файл Excel с датами перехода задач по статусам. С пропусками, со сбитой хронологией, с непонятными workflow и тд и тп - в общем, данные кривые и косые изначально. В них еще предстоит разобраться.
Действуя вышеописанным образом я за 1 час создал код который:
1) С помощью цепи Маркова определяет наиболее вероятный workflow на основе данных Excel
2) Считает Customer LT и строит графики распредения, отмечает на них медиану и другие нужные мне метрики
3) Раскладывает графики LT Scatterplot по годам и отмечает медиану и Trimean
4) Рассчитывает децили и выводит график функции сдвига по децилям - в абсолютных значениях и в %
5) Вычленяет математически моды (пики) распределения и отмечает их на графике распределения
6) Ищет значения аномалий (больше 95% перцентиля), отмечает их на графике LT Scatterplot по годам
Ну просто песня! ❤️🤯
Так быстро я еще никогда не анализировал данные по 10 командам - за 1 день
Использовал связку Gemini3 Pro + RStudio для анализа данных.
В результате анализ ускорился раз в 10
Язык R- это язык созданный именно для работы с данными и их анализа. В одну строчку можно посчитать статистические метрики и вывести график. А RStudio - это IDE (интерфейс) для разработки на языке R
Почему Gemini, а не ChatGPT? Потому что Gemini 3 с первого раза пишет код правильно ❤️❤️❤️
Видимо сказывается то, что он используется в Gemini Code Assist и обучен на большой кодовой базе.
В итоге я действую так :
1) прошу Gemini написать код на R
2) вставляю код в RStudio и выполняю
3) иногда тюню код под себя - названия переменных, фильтры добавляю, еще что-то
Исходные данные: файл Excel с датами перехода задач по статусам. С пропусками, со сбитой хронологией, с непонятными workflow и тд и тп - в общем, данные кривые и косые изначально. В них еще предстоит разобраться.
Действуя вышеописанным образом я за 1 час создал код который:
1) С помощью цепи Маркова определяет наиболее вероятный workflow на основе данных Excel
2) Считает Customer LT и строит графики распредения, отмечает на них медиану и другие нужные мне метрики
3) Раскладывает графики LT Scatterplot по годам и отмечает медиану и Trimean
4) Рассчитывает децили и выводит график функции сдвига по децилям - в абсолютных значениях и в %
5) Вычленяет математически моды (пики) распределения и отмечает их на графике распределения
6) Ищет значения аномалий (больше 95% перцентиля), отмечает их на графике LT Scatterplot по годам
Ну просто песня! ❤️🤯
Так быстро я еще никогда не анализировал данные по 10 командам - за 1 день
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍5❤1🥰1🦄1
Данные в ДейSTвии pinned «Практикум «Данные в действии» — не просто воркшоп, а настоящее расследование для менеджеров 🕵️♂️ Зачем идти? Вы когда-нибудь смотрели на красивые графики в JIRA - все эти CFD, Lead Time, Throughput, и думали: «И что мне теперь со всем этим делать?» 🤔 Спойлер:…»
Реальные данные от реального клиента. Статистика за несколько лет. IT-департамент.
Давайте потренируемся перед будущим Практикумом.
Ваше мнение - что здесь происходит?
Напишите в комментарии 👇 как бы вы охарактеризовали динамику происходящего по годам?
А если сравнить Upstream и Downstream, и на Customer Lead Time посмотреть, что скажете?
Расскажите ваши версии, а я потом расскажу, что я увидел на этих графиках. И как это соотносится с реальной ситацией
PS кто затрудняется - в комментарии скину ссылку на инструкцию по анализу Lead Time Scatterplot
Давайте потренируемся перед будущим Практикумом.
Ваше мнение - что здесь происходит?
Напишите в комментарии 👇 как бы вы охарактеризовали динамику происходящего по годам?
А если сравнить Upstream и Downstream, и на Customer Lead Time посмотреть, что скажете?
Расскажите ваши версии, а я потом расскажу, что я увидел на этих графиках. И как это соотносится с реальной ситацией
PS кто затрудняется - в комментарии скину ссылку на инструкцию по анализу Lead Time Scatterplot
❤1🥰1🦄1
YouTube
🤖 ИИ-переполох под Новый год: Прожектор Сэма Альтмана #3
Восстание машин не случилось, но в офисах всё равно подгорает.
Пока вы отдыхали на НГ, нейросети переписывают правила игры. Обсуждаем, как выжить в мире «черных ящиков» и не стать жертвой «всеобщей джунизации».
В этом выпуске:
- Почему разработчики теперь…
Пока вы отдыхали на НГ, нейросети переписывают правила игры. Обсуждаем, как выжить в мире «черных ящиков» и не стать жертвой «всеобщей джунизации».
В этом выпуске:
- Почему разработчики теперь…
А между тем, под Новый Год мы записали новую серию ПрожекторСэмаАальтмана - про то, что ИИ делает с миром, и как люди реагируют на эти изменения
В этом выпуске мы решили не привязываться к конкретным цифрам и новостям, а просто подвести некоторые ИИ-итоги 2025 года.
В этом выпуске:
➡️ Почему разработчики теперь кодят быстрее, чем продакты успевают думать и приносить новые идеи в бэклог?
➡️ Как продакты с помощью вайб-кода создают работающие прототипы вместо ТЗ
➡️ Зачем рынку нужны «реаниматоры» кривого вайб-кода?
➡️ Лайфхаки для защиты от прохождения собеседований с помощью ИИ
➡️ Смерть Agile? Станут ли команды микроскопическими и почему стабильность больше не в моде.
➡️ Кибер-саботаж: зачем пользователи кормят ИИ «отвратительной датой» и портят модели.
➡️ Узнайте, как не превратиться в простого «оператора черного ящика» в 2026 году
Говорим свободно, с юмором, в меру собственного понимания происходящего.
https://youtu.be/sguUHwmCHNQ?si=wXdJ2D6-3UG0dAVN
В этом выпуске мы решили не привязываться к конкретным цифрам и новостям, а просто подвести некоторые ИИ-итоги 2025 года.
В этом выпуске:
Говорим свободно, с юмором, в меру собственного понимания происходящего.
https://youtu.be/sguUHwmCHNQ?si=wXdJ2D6-3UG0dAVN
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🎉4🥰1
Последний пост был 23 января, куда делся автор? (Спойлер: цифровая археология, вайб-кодинг и HR)
Я не ушел в монастырь, я ушел в глубокий R&D.
Проверял, на что способен эксперт в 2026 году, вооружившись ИИ, здравым смыслом и прошлым опытом.
Итоги месяца (выбирайте тему для лонгрида 👇)
1. Process Mining в помощь канбанисту 🕵️♂️
Дано: 10+ команд, 12 тысяч строк логов и полный разнобой в workflow
Задача: Найти реальный Commitment Point и построить аналитику (Upstream/Downstream Lead Time).
Выход: С помощью Gemini реализовал алгоритм Transition Analysis. Он вычислил реальные Commitment Point, игнорируя хаос в Jira. Дальше — дело техники.
2. Импортозамещение Канбан-игры 🎮
Дано: Любимая Канбан-игра для тренингов попала под VPN. Заменить нечем.
Выход: Психанул, открыл Cursor и сел писать свою версию (с блэкджеком и💃 )
Итог: За 2 часа «вайб-кодинга» создал рабочий прототип. За 4 часа — 90% механик. Скоро релиз! Хотите попробовать? 😁
3. Вероятностный Анализ на R 🎲
Задача: Обработать огромный, пятилетний массив данных клиента по 10+ проектам. LLMки захлебываются, вручную делать - годы.
Выход: Делегировал нейросети написание кода на R для подготовки и анализа данных. Код был написан и отлажен за 4 часа. Итоговый анализ всех данных занял 2 дня. Клиент в восторге от точности попадания и инсайтов.
4. Практикум в BigTech 🏢
Дано: Крупная IT-компания, 10+ зубастых менеджеров.
Задача: Научить анализу метрик.
Что сделал: Сперва играли на чужих данных — было весело. Когда загрузили свои — случился ледяной душ. Видеть реальный Lead Time страшно, как прием у стоматолога, но лечить надо.
5. Инсайт: Смерть обучения как поощрения 💼
Задача: Понять через интервью с HR, что творится с обучением.
Инсайт: Бюджеты на «счастье сотрудников» закрыты. Теперь обучение — только под жесткий бизнес-заказ и фин. обоснование.
О чем написать подробнее? Жмите реакцию 👇 или пишите в комментарии:
🗿 — Археология Commitment Point в JIRA
🆒 — Моя игра и как я ее делал
🦄 — Прогнозы на R
🙊 — Инсайты в HR
👍 — просто порадоваться за автора 😊
Я не ушел в монастырь, я ушел в глубокий R&D.
Проверял, на что способен эксперт в 2026 году, вооружившись ИИ, здравым смыслом и прошлым опытом.
Итоги месяца (выбирайте тему для лонгрида 👇)
1. Process Mining в помощь канбанисту 🕵️♂️
Дано: 10+ команд, 12 тысяч строк логов и полный разнобой в workflow
Задача: Найти реальный Commitment Point и построить аналитику (Upstream/Downstream Lead Time).
Выход: С помощью Gemini реализовал алгоритм Transition Analysis. Он вычислил реальные Commitment Point, игнорируя хаос в Jira. Дальше — дело техники.
2. Импортозамещение Канбан-игры 🎮
Дано: Любимая Канбан-игра для тренингов попала под VPN. Заменить нечем.
Выход: Психанул, открыл Cursor и сел писать свою версию (с блэкджеком и
Итог: За 2 часа «вайб-кодинга» создал рабочий прототип. За 4 часа — 90% механик. Скоро релиз! Хотите попробовать? 😁
3. Вероятностный Анализ на R 🎲
Задача: Обработать огромный, пятилетний массив данных клиента по 10+ проектам. LLMки захлебываются, вручную делать - годы.
Выход: Делегировал нейросети написание кода на R для подготовки и анализа данных. Код был написан и отлажен за 4 часа. Итоговый анализ всех данных занял 2 дня. Клиент в восторге от точности попадания и инсайтов.
4. Практикум в BigTech 🏢
Дано: Крупная IT-компания, 10+ зубастых менеджеров.
Задача: Научить анализу метрик.
Что сделал: Сперва играли на чужих данных — было весело. Когда загрузили свои — случился ледяной душ. Видеть реальный Lead Time страшно, как прием у стоматолога, но лечить надо.
5. Инсайт: Смерть обучения как поощрения 💼
Задача: Понять через интервью с HR, что творится с обучением.
Инсайт: Бюджеты на «счастье сотрудников» закрыты. Теперь обучение — только под жесткий бизнес-заказ и фин. обоснование.
О чем написать подробнее? Жмите реакцию 👇 или пишите в комментарии:
🆒 — Моя игра и как я ее делал
🦄 — Прогнозы на R
🙊 — Инсайты в HR
👍 — просто порадоваться за автора 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
🆒27🗿23👍9🦄9🙊8❤1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Шедевр, по-моему! 😂
Если ваш начальник не понимает про WIP-лимиты, то попробуйте показать ему это видео 😂😂😂
(c) автор: https://t.me/roricrisuet
Если ваш начальник не понимает про WIP-лимиты, то попробуйте показать ему это видео 😂😂😂
(c) автор: https://t.me/roricrisuet
❤15🤣8🔥5👍3👎2🥰1🤯1
Кратко: 27 000 строк логов 📜, 5 лет хаотичных процессов 🌪, конец года
Сеттинг:
Огромное подразделение разработки Data-продуктов в одной огромной компании 🏢
20+ внутренних заказчиков, 10 направлений разработки.
😤 Бизнес жалуется: «Мы не понимаем, когда Data-подразделения сделают задачи! Их обещания по срокам не сбываются! Мы не знаем как нам выполнять обещания, которые мы даем нашему руководству».
🆘 Запрос классический, но болезненный: «Помогите нам разобраться, кто прав, расскажите как нам сделать работу прогнозируемой».
На дворе декабрь ❄️, конец года, у всех горят дедлайны 🔥. Доступ к людям ограничен, «посидеть и поговорить» с представителем каждого из 10 проектов нереально! 🚫
У меня на руках — выгрузка из трекера: 27 000 задач за 5 лет 💾
🕵️♂️ Проблема: Вавилонская башня в Excel
Открываю файл лога статусов и вижу:
1️⃣ 30 разных статусов, из который часть используется в одних проектах, часть в других. Часть вообще не используется.
2️⃣ 4 статуса, означающих закрытие задач 🏁
3️⃣ 5 статусов означающих на открытие задачи 🚦
4️⃣ 7 статусов-буферов 🛋
🤯🤯🤯🤯🤯
Но главная проблема: десяток промежуточных Work-статусов, среди которых спрятана точка принятия обязательств (ТПО)📍!
А без знания точки принятия обязательств не возможно понять границу между ⬆️Upstream (выбор и подготовка задач) и ⬇️Downstream (разработка).
Анализировать вручную 27 тысяч строк — это месяца два работы 🐢
Напомню - декабрь, все в мыле 🧼, времени поговорить ни у кого нет. А тем более разобрать 10 разных проектов.
🤖 Решение: эвристики Process Mining
Я решил не гадать, а использовать два алгоритма Process Mining, адаптированные под Kanban. С помощью ИИ-шки написал код на языке R и прогнал данные.
Для начала я взял каждую задачу и по последовательности дат в логе, восстановил её реальный путь по статусам.
Получилась таблица из двух полей:
🆔 ID задачи,
🔀 Workflow ( последовательность статусов )
Посчитал частоту повторения одних и тех же workflow - получил список частотности workflow 📊
1) 1234 раза:
"Open -> Ready To Develop -> In Progress -> Done"
2) 976 раз:
"Open -> In Progress -> Done "
3) 540 раз:
"Open -> Analysis -> In Progress -> Close "
И тд
Очевидно самый частый workflow, который включает в себя статус открытия, промежуточные статусы и статус закрытия - скорее всего и есть основной 🏆
😱 Сюрприз: Оказалось, что примерно 20-30% задач в каждом проекте имеют путь "Open -> Closed".
Это «шум», мусорные задачи или массовые чистки бэклога. Они искажали статистику, поэтому пришлось их отфильтровать.
[продолжение в следующем посте] 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4❤2🥰2
[Продолжение предыдущего поста. Часть 2] 👆
🧩 Алгоритм 2. Probabilistic Activity Tagging (Эвристический скоринг)
Дальше нужно было найти ту самую точку принятия обязательств (ТПО) 🎯
Я разметил очевидные статусы (Буферы, Открытие, Закрытие), чтобы отделить их от зоны активной работы. Но этого мало. Нужно было понять, какой из Work-статусов — тот самый (ТПО).
Для этого я сделал две вещи:
1) для определения ТПО взял несколько паттернов Lifecycle Transition из Process Mining и дополнил своими - из рабочего опыта;
2) ввел скоринговую систему - алгоритм проходил по истории каждой задачи и начислял (или отнимал) баллы за наличие определенных паттернов.
Всего я использовал 7 паттернов, чтобы исключить случайности определения
Вот самые интересные:
🚦 Фазовый сдвиг (Buffer → Work)
Самый сильный сигнал (+ баллы).
Если пассивный статус-буфер (например, Ready to Develop или Backlog) сменяется активным Work-статусом — это с высокой вероятностью и есть момент взятия обязательства.
🚫 Запрет на продолжение (Work → Work)
Защита от ошибки (- баллы).
Если предыдущий статус уже был рабочим, то текущий точно не может быть точкой старта. Это помогает не принять середину работы (например, Code Review) за её начало.
👶 Фильтр «Слишком рано»
Аномалия (- баллы).
Если Work-статус является самым первым в цепочке, то это какая-то аномалия или дисфункция. В рабочем workflow настоящий Commitment Point обычно находится посреди процесса.
...и так далее по остальным паттернам.
📊 Что в итоге?
На выходе я получил список статусов с баллами, которые для наглядности перевел в проценты вероятности.
Выглядело это примерно вот так:
1) In Progress - 64% (предыдущий статус ToDo)
2) Analysis - 31% (предыдущий статус "На согласовании")
3) Developments - 5% (предыдущий статус "In Progress")
И тут алгоритм выдал парадокс 🤯
В одном из ключевых проектов два статуса набрали абсолютно одинаковый вес:
⚖️ Analysis — 41%
⚖️ In Progress — 41%
(остальные проценты размазались тонким слоем по другим статусам)
Как же так? Алгоритм сломался, и не может определиться? 🤷♂️
О том, как я распутал этот узел и нашел верную ТПО — в финальном посте 👇 в понедельник утром
[продолжение в следующем посте]
🧩 Алгоритм 2. Probabilistic Activity Tagging (Эвристический скоринг)
Дальше нужно было найти ту самую точку принятия обязательств (ТПО) 🎯
Я разметил очевидные статусы (Буферы, Открытие, Закрытие), чтобы отделить их от зоны активной работы. Но этого мало. Нужно было понять, какой из Work-статусов — тот самый (ТПО).
Для этого я сделал две вещи:
1) для определения ТПО взял несколько паттернов Lifecycle Transition из Process Mining и дополнил своими - из рабочего опыта;
2) ввел скоринговую систему - алгоритм проходил по истории каждой задачи и начислял (или отнимал) баллы за наличие определенных паттернов.
Всего я использовал 7 паттернов, чтобы исключить случайности определения
Вот самые интересные:
🚦 Фазовый сдвиг (Buffer → Work)
Самый сильный сигнал (+ баллы).
Если пассивный статус-буфер (например, Ready to Develop или Backlog) сменяется активным Work-статусом — это с высокой вероятностью и есть момент взятия обязательства.
🚫 Запрет на продолжение (Work → Work)
Защита от ошибки (- баллы).
Если предыдущий статус уже был рабочим, то текущий точно не может быть точкой старта. Это помогает не принять середину работы (например, Code Review) за её начало.
👶 Фильтр «Слишком рано»
Аномалия (- баллы).
Если Work-статус является самым первым в цепочке, то это какая-то аномалия или дисфункция. В рабочем workflow настоящий Commitment Point обычно находится посреди процесса.
...и так далее по остальным паттернам.
📊 Что в итоге?
На выходе я получил список статусов с баллами, которые для наглядности перевел в проценты вероятности.
Выглядело это примерно вот так:
1) In Progress - 64% (предыдущий статус ToDo)
2) Analysis - 31% (предыдущий статус "На согласовании")
3) Developments - 5% (предыдущий статус "In Progress")
И тут алгоритм выдал парадокс 🤯
В одном из ключевых проектов два статуса набрали абсолютно одинаковый вес:
⚖️ Analysis — 41%
⚖️ In Progress — 41%
(остальные проценты размазались тонким слоем по другим статусам)
Как же так? Алгоритм сломался, и не может определиться? 🤷♂️
О том, как я распутал этот узел и нашел верную ТПО — в финальном посте 👇 в понедельник утром
[продолжение в следующем посте]
🔥8🆒3❤1🥰1
[Продолжение предыдущего поста. Часть 3] 🍿
💡 Развязка: свежесть ≠ количество
Я вспомнил золотое правило классиков Канбан-метода ( Трой Мадженнис, Даниэль Ваканти) при анализе метрик рабочего процесса:
Если у нас на руках «простыня» данных за 5 лет, не стоит радоваться. В IT-разработке 5 лет — это целая эпоха.
За это время могло измениться всё:
🎭 Состав команды (кто-то выгорел, кто-то пришел);
👔 Менеджмент (новые метлы по-новому метут);
🌍 Предметная область;
🏗 Стек технологий;
...и еще вагон нюансов.
Любое из этих изменений меняет «физику» процесса. 🌪
А значит, статистика за 5 лет показывает не то, что происходит сейчас, а «среднюю температуру по больнице» с учетом всех кризисов и реформ прошлого.
Я уточнил у заказчика хронологию событий. И бинго! 🎯 Выяснилось, что в этом проекте за 5 лет сменилось три состава команд и два менеджера. Каждый «оптимизировал» процесс под себя.
Когда я запустил алгоритм Probabilistic Activity Tagging отдельно по годам, хаос превратился в стройную историю:
📜 Эпоха 2020-2022
Точкой Принятия Обязателств явно был статус «Analysis» (вероятность 65%)
⚡️ Эпоха 2023 – н.в.
ТПО сдвинулась на "In progress" ( вероятность 73% )
Даты смены ТПО четко совпадали приходом новых менеджеров 🤷♂️
🏁 Итог
Мы договорились с заказчиком убрать «хвост» старых данных и анализировать только последние 2 года (период стабильности). Это дало чистые метрики, четкое разделение Upstream/Downstream и адекватные данные для аудита.
💼 В чем профит для вас?
Если вы рулите армадой из 10–50 команд, вы наверняка смотрите в дашборды с метриками CLT, ULT, DLT.
Но чтобы эти буквы имели смысл, нужно знать три координаты:
🐣 Точка создания (Open)
💀 Точка закрытия (Done)
💍 Точка принятия обязательств (ТПО)
А дальше — чистая математика:
🧮 Customer LT=Done-Open
🧮 Upstream LT=ТПО-Open
🧮 Downstream LT=Done-ТПО
В каждой команде «своя атмосфера», и эти точки могут гулять по разным статусам.
И тут на сцену выходят эвристики, о которых я писал выше 🚀
С их помощью можно автоматически отследить, когда ТПО (или другая точка) вдруг «поехала» в сторону.
📡 Это сигнал - процесс изменился, метрики врут, пора идти к команде с вопросами.
И вам даже не нужно было присутствовать на дейликах, чтобы это узнать.
P.S. Весь код для анализа (R + эвристики) я писал с помощью LLM 🤖🤝🧔
Если это пост наберет 50 лайков 👍, я напишу статью или запишу скринкаст, где покажу, как использовать LLM, чтобы создавать такие аналитические инструменты, даже если вы не программист.
💡 Развязка: свежесть ≠ количество
Я вспомнил золотое правило классиков Канбан-метода ( Трой Мадженнис, Даниэль Ваканти) при анализе метрик рабочего процесса:
«Свежесть данных важнее их количества»
(c) умные люди
Если у нас на руках «простыня» данных за 5 лет, не стоит радоваться. В IT-разработке 5 лет — это целая эпоха.
За это время могло измениться всё:
🎭 Состав команды (кто-то выгорел, кто-то пришел);
👔 Менеджмент (новые метлы по-новому метут);
🌍 Предметная область;
🏗 Стек технологий;
...и еще вагон нюансов.
Любое из этих изменений меняет «физику» процесса. 🌪
А значит, статистика за 5 лет показывает не то, что происходит сейчас, а «среднюю температуру по больнице» с учетом всех кризисов и реформ прошлого.
Я уточнил у заказчика хронологию событий. И бинго! 🎯 Выяснилось, что в этом проекте за 5 лет сменилось три состава команд и два менеджера. Каждый «оптимизировал» процесс под себя.
Когда я запустил алгоритм Probabilistic Activity Tagging отдельно по годам, хаос превратился в стройную историю:
📜 Эпоха 2020-2022
Точкой Принятия Обязателств явно был статус «Analysis» (вероятность 65%)
⚡️ Эпоха 2023 – н.в.
ТПО сдвинулась на "In progress" ( вероятность 73% )
Даты смены ТПО четко совпадали приходом новых менеджеров 🤷♂️
🏁 Итог
Мы договорились с заказчиком убрать «хвост» старых данных и анализировать только последние 2 года (период стабильности). Это дало чистые метрики, четкое разделение Upstream/Downstream и адекватные данные для аудита.
💼 В чем профит для вас?
Если вы рулите армадой из 10–50 команд, вы наверняка смотрите в дашборды с метриками CLT, ULT, DLT.
Но чтобы эти буквы имели смысл, нужно знать три координаты:
🐣 Точка создания (Open)
💀 Точка закрытия (Done)
💍 Точка принятия обязательств (ТПО)
А дальше — чистая математика:
В каждой команде «своя атмосфера», и эти точки могут гулять по разным статусам.
И тут на сцену выходят эвристики, о которых я писал выше 🚀
С их помощью можно автоматически отследить, когда ТПО (или другая точка) вдруг «поехала» в сторону.
📡 Это сигнал - процесс изменился, метрики врут, пора идти к команде с вопросами.
И вам даже не нужно было присутствовать на дейликах, чтобы это узнать.
P.S. Весь код для анализа (R + эвристики) я писал с помощью LLM 🤖🤝🧔
Если это пост наберет 50 лайков 👍, я напишу статью или запишу скринкаст, где покажу, как использовать LLM, чтобы создавать такие аналитические инструменты, даже если вы не программист.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥8❤3🥰1
Заводить ли канал в MAX на случай полной блокировки ТГ в России?
Final Results
17%
Да, прямо сейчас!
58%
Не надо, будем читать через Три Буквы
24%
Когда заблокируют, тогда и заводи
Вижу после поста в kanban_talks в канал пришли новые подписчики ✋
Давайте я вас сориентирую, куда вы попали, и что вы тут можете найти 🙌
Итак: это авторский канал Василия Савунова, эксперта в Data Driven Management, Канбан-практика, ИИ-эксперта и Agile-коуча.
Пишу я не регулярно, и в основном это лонгриды про менеджмент на основе данных, про то, как прогнозировать сроки с вероятностью 85-90%, а так же про ИИ - и как его использовать для прогнозирования и не только
С чего вам лучше начать читать этот канал:
👉 Customer Lead Time, System Lead Time, Cycle Time, First Touch Time - как во всем этом разобраться?!
👉 Как в Excel построить частотную диаграмму времени выполнения?
👉 Инструкция - как анализировать диаграмму времени выполнения задач?
👉 Инструкция - как использовать Cumulative Flow Diagram?
👉 Как спрогнозировать время выполнения 1000 задач в бэклоге?
👉 Вебинар Flight Levels: Как спроектировать систему управления всеми уровнями
Про статистику и метрики:
👉 Описательная статистика для менеджера: Часть 1, Часть 2 (Часть 3 еще пишется)
👉 Кандидатский минимум анализа Канбан-метрик
👉 Вебинар "Метрики для дашборда руководителя"
Про ИИ:
👉 Видео-проект "ПрожекторСэмаАльтмана"
👉 Вебинар "5 ловушек ИИ для менеджера"
👉 Лонгрид "JIRA-археология с помощью ИИ и Process Mining"
Так же время от времени я провожу практикумы по анализу метрик - следите за анонсами
И выступаю на конференциях с интересными докладами, например: 👉 Как руководителю управлять командой, на основе метрик? - доклад на TeamLead Conf 2023
Я открыт в общению, и вопросам, так что не стесняйтесь, спрашивайте в коммментариях - обязательно отвечу
Давайте я вас сориентирую, куда вы попали, и что вы тут можете найти 🙌
Итак: это авторский канал Василия Савунова, эксперта в Data Driven Management, Канбан-практика, ИИ-эксперта и Agile-коуча.
Пишу я не регулярно, и в основном это лонгриды про менеджмент на основе данных, про то, как прогнозировать сроки с вероятностью 85-90%, а так же про ИИ - и как его использовать для прогнозирования и не только
С чего вам лучше начать читать этот канал:
👉 Customer Lead Time, System Lead Time, Cycle Time, First Touch Time - как во всем этом разобраться?!
👉 Как в Excel построить частотную диаграмму времени выполнения?
👉 Инструкция - как анализировать диаграмму времени выполнения задач?
👉 Инструкция - как использовать Cumulative Flow Diagram?
👉 Как спрогнозировать время выполнения 1000 задач в бэклоге?
👉 Вебинар Flight Levels: Как спроектировать систему управления всеми уровнями
Про статистику и метрики:
👉 Описательная статистика для менеджера: Часть 1, Часть 2 (Часть 3 еще пишется)
👉 Кандидатский минимум анализа Канбан-метрик
👉 Вебинар "Метрики для дашборда руководителя"
Про ИИ:
👉 Видео-проект "ПрожекторСэмаАльтмана"
👉 Вебинар "5 ловушек ИИ для менеджера"
👉 Лонгрид "JIRA-археология с помощью ИИ и Process Mining"
Так же время от времени я провожу практикумы по анализу метрик - следите за анонсами
И выступаю на конференциях с интересными докладами, например: 👉 Как руководителю управлять командой, на основе метрик? - доклад на TeamLead Conf 2023
Я открыт в общению, и вопросам, так что не стесняйтесь, спрашивайте в коммментариях - обязательно отвечу
❤7🔥2🥰2