🍀BitBitGo🍀 Системный Анализ
3.22K subscribers
217 photos
153 videos
112 links
Курс «Системный анализ»
https://bitbitgo.by/
Пишем про системный анализ.
Поможем стартануть в карьере IT. Присоединяйся!
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Супер мега про макс менеджер после закона от 1 марта об англицизмах
😁4
Media is too big
VIEW IN TELEGRAM
Когда встреча с коллегами вдруг стала интересной
🤣5
🔗 INTEGRATION В СИСТЕМНОМ АНАЛИЗЕ: КОГДА СВЯЗИ СТАНОВЯТСЯ ПРОБЛЕМАМИ

Привет, коллеги! 👋 Сегодня разберем тему, которую многие недооценивают — интеграции (#INTEGRATION). Это не просто «соединить две системы», а целая философия проектирования. Готовы узнать, как непродуманные интеграции сжигали бюджеты и нервы? Поехали! 🚀

💥 Кейс 1: «Падение из-за чужого таймаута»

Ситуация: Крупный интернет-магазин внедрил систему скоринга для одобрения кредитов. При оформлении заказа наш сайт синхронно вызывал API банка и ждал ответа до 30 секунд.

Что пошло не так? В «Черную пятницу» банковская система не выдержала нагрузки и начала отвечать за 20-25 секунд. Наш сайт лег на 3 часа, потому что все воркеры были заняты ожиданием ответа от банка.

Ошибка аналитика: В ТЗ было просто: «При оформлении заказа вызвать метод /check-credit банковской системы». Не было предусмотрено:

Таймаутов на нашей стороне ⏱️
Асинхронной обработки
Фолбэка на ручную проверку
Решение: Перешли на асинхронную схему:

Заказ создается со статусом «Проверка кредита»
Событие уходит в очередь
Отдельный воркер обрабатывает его с повторными попытками
При таймауте > 5 сек — автоматический переход на ручную проверку
Вывод: Синхронные интеграции с внешними системами — это мина замедленного действия. Всегда проектируйте асинхронно с учетом отказов! 🛡

🔧 Кейс 2: «Тихий убийца данных»

Задача: Интеграция CRM с сервисом email-рассылок. Каждый вечер CRM выгружала CSV-файл с новыми клиентами, сервис рассылок забирал его.

Проблема: Через месяц маркетологи заметили, что 30% писем не доходят. Оказалось:

CRM использовала кодировку Windows-1251
Сервис рассылок ожидал UTF-8
Имена с буквой «ё» и кириллицей превращались в «????» 🤯
Ошибка аналитика: В спецификации не были указаны:

Формат кодировки
Правила валидации данных
Формат обработки ошибок
Решение: Внедрили контракт данных (Data Contract):

{
"encoding": "UTF-8",
"required_fields": ["email", "name"],
"validation_rules": {
"email": "regex pattern",
"name": "max_length: 100"
}
}


Плюс добавили тестовый контур для проверки перед выгрузкой.

📊 Статистика, которая пугает: По данным исследований, 40% падений распределенных систем происходят из-за проблем с интеграциями, а не с внутренними багами.

🎯 ЧЕК-ЛИСТ АНАЛИТИКА ПРИ ПРОЕКТИРОВАНИИ ИНТЕГРАЦИЙ:

Сценарии отказа:

Что если внешняя система не отвечает 10 секунд? 1 минуту?
Как поведет себя наша система при получении некорректных данных?
Есть ли механизм повтора (retry policy)?
Данные:

Четко прописаны форматы (JSON/XML/CSV)?
Указаны кодировки и стандарты дат?
Есть ли маппинг полей между системами? 📝
Безопасность:

Как происходит аутентификация (API-ключи, OAuth)?
Данные шифруются при передаче?
Есть ли ограничения по частоте запросов (rate limiting)? 🔐
Мониторинг:

Какие метрики будем отслеживать (латентность, ошибки)?
Куда придут алерты при проблемах?
Есть ли дашборд для отслеживания здоровья интеграции? 📈
💡 Паттерны, которые стоит знать:

Retry with backoff: Повторные попытки с растущей задержкой
Circuit Breaker: Автоматическое отключение «сломанной» интеграции
Dead Letter Queue: Очередь для сообщений, которые не удалось обработать
API Versioning: Версионирование интерфейсов для обратной совместимости

🚀 ПРАКТИЧЕСКИЙ СОВЕТ: Начинайте проектирование интеграции с диаграммы последовательности (sequence diagram). Нарисуйте: кто, куда, что отправляет, какие возможны ошибки. Это сэкономит часы совещаний!

🎯 ИТОГ: Хорошая интеграция — как хороший договор: все возможные ситуации предусмотрены, формальности соблюдены, а стороны защищены от неожиданностей. Ваша задача как аналитика — быть юристом в мире данных, который продумает все спорные моменты заранее.

#INTEGRATION
1
This media is not supported in your browser
VIEW IN TELEGRAM
Как воспринимается конец рабочей недели
🌭1
🔍 TESTING ДЛЯ АНАЛИТИКА: КАК УВИДЕТЬ БАГ 🐛 ДО ТОГО, КАК ЕГО НАПИШУТ 💻
Привет, коллеги! 👋 Сегодня разбираем тему #TESTING — но не с позиции тестировщика, а с позиции аналитика, который может предотвратить 80% дефектов на этапе требований 🛡. Современные проекты становятся сложнее, и старые подходы не работают. Покажу свежие кейсы 2024 года. 🚀

🤖 Кейс 1: «AI, который всех обманул» 🎭

Ситуация: В стартапе внедрили AI-ассистента для обработки заявок. На тестах он работал идеально . В проде — за первую неделю 40% заявок ушли в спам 📧.

Что пошло не так? Тест-кейсы проверяли только позитивные сценарии с идеальными формулировками. В реальности пользователи писали:

«Срочно!!! Нужен ремонт вчера» 🔥
«Добрый день, а если мне нужно...» 🤔
Сообщения с emoji и опечатками 🤪
Текст на транслите («Pomogite») 🔤

Решение аналитика: Мы добавили в ТЗ отдельный раздел «Пограничные случаи для AI»:

Тексты на транслите ↔️
Сообщения только с пунктуацией («???»)
Пустые заявки с вложениями 📎
Требование: AI должен не только обрабатывать, но и оценивать уверенность ответа и передавать сложные случаи человеку 👨‍💼.

Вывод: В эпоху AI аналитик должен думать не только о что делает система, но и как она ошибается 🤖💥.

🔐 Кейс 2: «Платеж, который прошел дважды» 💸💸

Свежий случай из финтеха: При интеграции с новым платежным шлюзом 🏦 возникла редкая, но критичная ситуация — сетевой таймаут после списания, но до ответа банка .

Тестирование пропустило этот сценарий, потому что:
Не воспроизводили реальные задержки сети 🌐🐌
Не учитывали идемпотентность операций 🔁
Что сделал аналитик? Внес в спецификацию обязательные проверки:
Все платежные endpoint должны принимать idempotency_key 🔑

Таймауты настроены ниже, чем у банка ⏱️⬇️

Требование к тестированию: Обязательное проведение chaos-тестов 🧨 с подменой ответов и задержками

Итог: После доработки система корректно обрабатывала «подвешенные» транзакции ⚖️, а пользователи не теряли деньги 🛡💵.

📱 Кейс 3: «Уведомление, которое сломало день» 📲💥

Реальная история из delivery-сервиса 🚴: В приложении добавили push-уведомление «Ваш курьер опаздывает» . Логика: если курьер не прибыл в 15-минутное окно — отправляем уведомление.

Проблема: В день релиза тысячи пользователей получили ложные уведомления 📢😱. Паника, отмены заказов , срыв NPS 📉.

Корень зла: В ТЗ не учли:
Курьеры отмечают прибытие вручную ✍️ (могут забыть)
GPS-трекер теряет сигнал в тоннелях 🚇📡
Нет буфера между «фактическим опозданием» и «уведомлением» 🛡
Решение: Аналитик перепроектировал логику:

Было: время_прибытия > расчетное_время → уведомление 🔔
Стало: (время_прибытия > расчетное_время + 5 мин)
И (курьер_не_отметил_прибытие)
И (GPS_не_передает_сигнал > 2 мин) 📡 → уведомление 🔔


🎯 ВАШ ЧЕК-ЛИСТ ДЛЯ ТЕСТИРУЕМЫХ ТРЕБОВАНИЙ 2024 📋:

✔️ Для AI/ML-функций 🤖:

Требуйте accuracy metrics (точность 🎯, полнота 📊)
Прописывайте fallback-сценарии на человеческую проверку 👨‍💼
Добавляйте этичные ограничения (что AI не должен делать 🚫)

✔️ Для интеграций 🔗:

Обязательная идемпотентность 🔁 для всех мутирующих операций
Схемы ошибок от партнеров в ТЗ 📄
Load-тестирование ⚡️ на реальных объемах данных

✔️ Для пользовательских сценариев 👥:

Тестирование без интернета 🌐
Поведение при low battery 🔋⚠️
Конфликтующие действия (два устройства 📱💻, один аккаунт)

✔️ Для безопасности 🔐:

Fuzzing-тесты 🧪 для всех input-полей
Проверка логирования чувствительных данных 📝🔒
Сценарии отзыва consent (GDPR) 📜➡️

💡 ГЛАВНЫЙ ИНСАЙТ:
Современное тестирование — это не «проверить по чек-листу» . Это проектирование системы, которая не может сломаться критически 🏗🛡. Аналитик 2024 года должен закладывать тестируемость 🧪, наблюдаемость 👁 и отказоустойчивость 🛡 в саму архитектуру требований.

#TESTING
Please open Telegram to view this post
VIEW IN TELEGRAM
2🤔1
🗄 DBMS ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КОГДА НЕЗНАНИЕ БАЗ ДАННЫХ СТОИТ ДОРОГО

Привет, коллеги! 👋 Сегодня поговорим о том, почему системный аналитик обязан разбираться в базах данных. Это не «задача разработчиков», а ваша прямая ответственность. Неверные решения на этапе анализа приводят к падениям систем и финансовым потерям. Докажу на реальных кейсах. 💼🔥

📉 Кейс 1: «Простая нормализация, которая съела бизнес»

Ситуация: Стартап по доставке еды решил сэкономить на БД. Аналитик предложил хранить все данные заказа в одной JSON-колонке order_data в таблице orders.

Что пошло не так через 6 месяцев:

Невозможно проанализировать популярные блюда — все данные в JSON 📊
Медленные отчеты — каждый запрос парсит JSON целиком ⏱️
Ошибки в расчётах — разные форматы хранения цен в одном поле 💸
Ошибка: Игнорирование нормализации. Правильная структура требовала:

Таблица orders (основная информация)
Таблица order_items (позиции заказа)
Таблица products (справочник товаров)
Вывод: Аналитик должен знать хотя бы 1-3 нормальные формы. Данные — это актив компании, а не техническая деталь.

🚀 Кейс 2: «Индекс, который спас компанию»

Задача: В мобильном приложении соцсети лента новостей грузилась 8-12 секунд. Пользователи уходили.

Анализ аналитика (не разработчика!): Изучив частые запросы, я заметил паттерн:

SELECT * FROM posts 
WHERE user_id IN (SELECT friend_id FROM friendships WHERE user_id = ?)
ORDER BY created_at DESC
LIMIT 20


Проблема: Каждый раз искались друзья + сортировка по дате без индекса.

Решение в ТЗ: Добавить составной индекс (user_id, created_at DESC) в таблицу posts и предусмотреть покрывающий индекс для частых запросов.

Результат: Время загрузки сократилось до 200 мс. 📈

Запомните: Аналитик должен понимать какие запросы будут частыми и проектировать структуру под них.

💥 Кейс 3: «Выбор БД — вопрос архитектуры, а не моды»

История: FinTech-стартап выбрал MongoDB для хранения финансовых транзакций, потому что «это модно и scalable».

Чем обернулось:

Потеря данных при параллельных обновлениях ⚠️
Сложные ACID-транзакции при переводе средств 💰
Дорогой переезд на PostgreSQL через год
Почему аналитик должен был вмешаться: Требования к системе включали:

Гарантированную целостность транзакций
Сложные JOIN между клиентами, счетами и операциями
Строгую схему данных
Правильное решение: Реляционная БД (PostgreSQL) с поддержкой ACID.

🎯 ЧЕК-ЛИСТ АНАЛИТИКА ПРИ РАБОТЕ С БАЗАМИ ДАННЫХ:

Проектирование структуры:

Нужна ли нормализация или подойдет денормализация для производительности?
Какие связи между сущностями (1-1, 1-много, много-много)? 🔗
Есть ли справочники, которые будут часто использоваться?
Производительность:

Какие 3 самых частых запроса будут к системе?
Нужны ли индексы (простые, составные, покрывающие)? 📊
Будет ли партиционирование по датам или другим признакам?
Выбор типа БД:

Нужны ACID-гарантии (финансы) или eventual consistency (соцсети)? ⚖️
Преимущественно запись или чтение?
Жесткая схема или гибкая структура данных?
Безопасность и compliance:

Как хранятся персональные данные (шифрование, маскирование)? 🔐
Есть ли требования к аудиту изменений (кто, когда, что поменял)?
Нужно ли логирование операций?
🔧 Практические инструменты для аналитика:

ER-диаграммы — ваш лучший друг для проектирования структуры
Прототипы запросов — напишите примеры основных SELECT/INSERT заранее
Data dictionary — документ с описанием всех полей, типов, ограничений
Миграции — предусмотрите механизм изменения схемы без простоев

💡 Золотое правило: Данные переживают приложения. Системы переписываются, а данные мигрируют. Ваша задача — спроектировать так, чтобы через 5 лет не было стыдно.

📌 Вопросы, которые должен задавать себе аналитик:

«Как мы будем искать эти данные?»
«Что будет, если два пользователя изменят одну запись одновременно?»
«Как восстановить данные при сбое?»
«Можем ли мы масштабировать это решение?»

🎯 ИТОГ: Системный аналитик — это архитектор данных, а не просто сборщик требований. Глубокое понимание БД отличает senior-аналитика от junior. Незнание основ БД сегодня — дорогостоящие ошибки завтра.

#DBMS
2
🔗 #INTEGRATION: КОГДА «ПРОСТО ПОДРУЖИТЬ СИСТЕМЫ» ОБХОДИТСЯ В МИЛЛИОНЫ

Приветствую, коллеги! 👋 Сегодня разберём тему, которая выглядит технической, но на деле — это зона стратегических решений аналитика. Интеграции — это не протоколы и форматы, а про риски, деньги и репутацию. Готовы к реальным историям? Погнали! 🚀

💥 Кейс 1: «Чёрная пятница, которая стала чёрным днём»

Контекст: Крупный ритейлер внедрял систему онлайн-кредитования. При оформлении заказа сайт синхронно запрашивал решение у банковского скоринг-сервиса.

Что случилось 24 ноября:
В 11:00 банковский API начал отвечать 8-12 секунд (вместо обычных 200 мс). К 12:30 наш сайт полностью лёг — все воркеры были заблокированы в ожидании ответа от банка.
Потери: 3 часа простоя в пиковый день = ~45 млн руб. упущенной выручки. 💸

Ошибка в ТЗ аналитика:
Было: «При оформлении заказа вызвать метод /check-credit банковской системы»
Не было:

Таймаутов на нашей стороне ⏱️
Асинхронной обработки
Circuit Breaker (автоматического отключения нерабочего контура)
Фолбэка на отложенную проверку
Решение: Внедрили многоуровневую стратегию:

Таймаут 2 секунды на вызов банка
Автоматический переход на локальную проверку при недоступности банка
Асинхронное обновление статуса кредита после создания заказа
Дашборд мониторинга с алертами на degradation
Вывод: Синхронные интеграции с внешними системами — это системный риск. Аналитик должен проектировать их как потенциальные точки отказа.

🔄 Кейс 2: «Миграция, которая породила монстра»

Задача: Перенести данные клиентов из старой CRM в новую. В ТЗ: «Выгрузить все данные за последние 5 лет».

Реализация: Написали скрипт, который 3 дня выгружал CSV по 2 млн строк, потом импортировал.

Что пошло не так:

Телефоны в старой системе: +7 (999) 123-45-67
Новая система ожидала: 79991234567 📱
Даты рождения: 01.01.1990 vs 1990-01-01 📅
История заказов: в старой — одна JSON-колонка, в новой — нормализованная структура
Результат: 40% данных импортировались с ошибками. Месяц ручных правок, гнев клиентов, срыв сроков запуска.

Решение аналитика: Создать детальный контракт данных:

Маппинг каждого поля с правилами трансформации
Промежуточный слой валидации
Инструмент для предварительного тестирования миграции
📌 Правило: Интеграция — это не «скопировать данные», а гарантировать их семантическую корректность.

🧩 Кейс 3: «Общая база данных как точка краха»

Архитектурный антипаттерн: 5 микросервисов одной компании писали в одну базу common_db. Казалось логичным — «данные же общие».

Проблемы, которые проявились через год:

Схемные войны: Сервис A меняет таблицу — падает сервис B 🏗
Масштабирование невозможно: Все сервисы упираются в один ресурс
Аудит катастрофы: Кто сломал данные? Все и никто.
Что должен был предложить аналитика: Принцип владения данными:

У каждого сервиса своя БД
Обмен только через API или асинхронные события
Данные дублируются, если нужно (например, кэш заказов в сервисе доставки)
🎯 ЧЕК-ЛИСТ АНАЛИТИКА ПРИ ПРОЕКТИРОВАНИИ ИНТЕГРАЦИЙ:

1. Стратегия связи:

Синхронная (REST/gRPC) — для мгновенных ответов
Асинхронная (очереди/шины) — для фоновых процессов
Пакетная (ETL) — для больших объёмов
2. Контракт данных:

Форматы (JSON/XML/Protobuf) и их версии
Кодировки и стандарты дат/чисел
Обязательные vs опциональные поля 📝
3. Обработка сбоев:

Таймауты и retry policy (сколько раз, с каким интервалом)
Circuit breaker — отключать ли проблемный сервис?
Dead Letter Queue — куда складывать неудачные сообщения? 💀
4. Мониторинг:

Метрики latency, error rate, throughput
Алёртинг при деградации (не только при падении)
Дашборды здоровья интеграций 📊
5. Безопасность:

Аутентификация (API-ключи, OAuth, mTLS)
Шифрование передаваемых данных
Rate limiting и квоты 🔐
💡 ПРОФЕССИОНАЛЬНЫЙ ИНСАЙТ:

Лучшая интеграция — та, которой нет. Прежде чем проектировать связь между системами, спросите:

🎯 ИТОГ: Проектируя интеграцию, вы создаёте долгосрочные обязательства. Плохая интеграция — это технический долг с высокими процентами. Хорошая интеграция — это надёжный мост, по которому бизнес будет ездить годами.

#INTEGRATION
2
This media is not supported in your browser
VIEW IN TELEGRAM
Когда живешь с тем, кто работает на удаленке
😁5
📚 ПРОЧЕЕ #OTHER: ТАЙНЫ LEGACY-КОДА И ПОЧЕМУ АНАЛИТИК ДОЛЖЕН БЫТЬ ДЕТЕКТИВОМ

Привет, коллеги! 👋

Сегодня рубрика #OTHER — всё то, что не влезло в стандартные категории, но без чего системный аналитик не состоялся бы как профессионал. Речь пойдёт о работе с наследием (legacy). О тех моментах, когда документации нет, команда уволилась, а код молчит как рыба. 🕵️‍♂️

Готовы? Устраивайтесь поудобнее — будет история с реального проекта.

🕰 КЕЙС: «ПОТЕРЯННЫЙ МИР»

Контекст:
Крупный логистический оператор. Система управления заказами (1998 год постройки). Язык — Delphi, база — Oracle 9i. Автор системы уволился в 2005-м, документация — пара листов формата А4 с каракулями. Бизнес-процессы за 20 лет изменились до неузнаваемости, но система работает и её надо развивать. Задача: за месяц разобраться в логике расчёта стоимости доставки, чтобы переписать этот модуль на Java.

Первая мысль: «Открыть код и прочитать».
Реальность: 50 000 строк спагетти-кода, комментариев нет, имена переменных типа a1, xxx, superCalc. 🤯

🔎 РАССЛЕДОВАНИЕ: МЕТОД АНАЛИТИКА-ДЕТЕКТИВА

Я не программист, я аналитик. Значит, мой инструмент — не отладчик, а голова и коммуникации.

Шаг 1. Ищем живых свидетелей
Оказалось, в компании ещё работал технолог, который принимал ту систему 20 лет назад. Он помнил бизнес-логику:
*«Доставка по Москве считалась как вес * 15, но если суммарный вес больше 100 кг — дополнительный коэффициент 0,8»*.

📌 Вывод: 80% логики можно восстановить через экспертов, не глядя в код.

Шаг 2. Reverse engineering через данные
Мы выгрузили из базы 10 000 завершённых заказов: входные параметры (вес, габариты, регион) и итоговая стоимость. Построили модель машинного обучения (просто регрессию), которая предсказывала стоимость с точностью 97%. Затем проанализировали, какие признаки важны — так мы вычислили скрытые коэффициенты и формулы. 🧮

Шаг 3. Провокация системы
На тестовом контуре я отправлял «странные» заказы: отрицательный вес, нулевая стоимость, несуществующий регион. Смотрел, какие ошибки вылетают. Иногда ошибки содержали куски кода или названия процедур — это давало зацепки. Например, ошибка «Division by zero in CalculateRegionalCoefficient» подсказала название ключевого метода.

Шаг 4. Археология кода
Не читая всё подряд, я искал маркеры: названия полей из базы, константы, числа. Нашёл блок:

if Region in [1,3,5,7] then
Coef := 1.2
else
Coef := 1.5
Сверил с бизнес-правилами — оказалось, это надбавка за «дальнее Подмосковье».


Результат: Через 3 недели у меня была точная спецификация алгоритма на человеческом языке. Java-разработчик написал новый микросервис за 10 дней, тестирование на исторических данных показало 100% совпадение.

📦 ЧТО ЭТОТ КЕЙС ДАЁТ НАМ, АНАЛИТИКАМ?

1. Аналитик — не писарь, а исследователь
Ваша главная ценность — не в том, чтобы записать то, что говорят. А в том, чтобы докопаться до сути, когда никто не говорит или все забыли.

2. Инструменты бывают разными
SQL, Python, даже Excel — всё это оружие аналитика. В этом кейсе я использовал:

SQL для выгрузки данных 📊
линейную регрессию (sklearn) для обратного инжиниринга формул 🤖
Postman для «провокации» API 🧨
мозг и блокнот 🧠
3. Документация — живой организм
Если документации нет — создайте её сами. После проекта я написал Conceptual Specification на восстановленный модуль. Теперь система готова к эволюции.

4. Люди помнят не код, а смыслы
Общайтесь с ветеранами бизнеса, пока они не ушли. Записывайте интервью, рисуйте блок-схемы, перепроверяйте гипотезы через данные.

ЧЕК-ЛИСТ «LEGACY-ДЕТЕКТИВ» ДЛЯ АНАЛИТИКА

Найти экспертов, работавших с системой на старте
Собрать исторические данные (заказы, логи) — минимум 1000 записей
Проанализировать статистику: какие значения полей, диапазоны, частоты
Построить простую модель предсказания выходного параметра
Провести исследовательское тестирование (негативные сценарии, граничные значения)
Искать в коде ключевые слова из бизнес-лексикона
Фиксировать каждую находку в виде понятной бизнес-логики
Валидировать восстановленную логику с заказчиком

#OTHER
This media is not supported in your browser
VIEW IN TELEGRAM
Когда пришло письмо «Прошу подключиться к вопросу ниже»
📚 ПРОЧЕЕ #OTHER: КАК УБЕДИТЬ ЗАКАЗЧИКА, КОГДА ОН ТРЕБУЕТ НЕВОЗМОЖНОГО

Привет, коллеги! 👋

Сегодня в рубрике #OTHER поговорим о том, чему не учат на курсах по аналитике, но без чего вы не станете профессионалом — о переговорах и управлении ожиданиями. О том, как найти общий язык с заказчиком, когда его требования противоречат здравому смыслу, бюджету или законам физики. 🚧

Готовы? Поехали!

💥 КЕЙС: «САЙТ ДОЛЖЕН ЛЕТАТЬ, НО ДЕНЕГ НЕТ»

Контекст:
Разрабатываем интернет-магазин для крупного ритейлера. Заказчик — владелец бизнеса, человек эмоциональный, далёкий от IT. На одной из встреч он заявляет:

«Сайт должен грузиться за 0.5 секунды! Как у Google! И одновременно держать 100 000 посетителей. И сделать это надо за месяц, потому что через месяц — чёрная пятница». 🚀

Проблема:
Текущий бюджет — 2 миллиона рублей, команда — 5 человек. Реалистичная оценка: для таких характеристик нужна распределённая архитектура, CDN, кэширование, минимум 3 месяца и бюджет в 3-4 раза больше.

Задача аналитика:
Не сказать «это невозможно» и не согласиться на нереальные сроки, а донести реальность, сохранив отношения и предложив альтернативу.

🔧 ИНСТРУМЕНТЫ АНАЛИТИКА-ПЕРЕГОВОРЩИКА:

1. Данные и цифры — ваше оружие 📊
Я подготовил простую таблицу в Excel:

Текущая производительность их старого сайта: 3 секунды загрузки, падает при 5000 посетителей.
Метрики конкурентов (средние по рынку): 1.5-2 секунды.
Стоимость инфраструктуры для 0.5 секунд: расчёт количества серверов, балансировщиков, CDN.
Результат: Цифры отрезвляют лучше любых слов.

2. Перевод с «хотелок» на бизнес-цели 🎯

Я спросил: «Почему именно 0.5 секунды? Что это даст бизнесу?»
Оказалось, заказчик прочитал статью, что каждая секунда задержки снижает конверсию на 7%. Его реальная цель — максимизировать продажи в чёрную пятницу.

3. Предложение альтернатив (trade-offs) ⚖️

Вместо «невозможно» я предложил варианты:

Вариант А (идеальный): 3 месяца, 8 млн руб. — всё как просили.
Вариант Б (компромисс): 1.5 секунды загрузки, кэширование на CDN, масштабирование до 50 000 пользователей — за 2 месяца и 3.5 млн руб.

Вариант В (минимальный): быстрые победы — оптимизация картинок, сжатие, настройка кэша на сервере — 1 месяц, 2 млн руб., загрузка 2.5 секунды, но надёжность вырастет.

4. Визуализация последствий 📉
Я нарисовал простой график: зависимость времени загрузки от бюджета и сроков. Наглядно показал, что попытка вписаться в 0.5 секунд за месяц приведёт к срыву сроков или неработающему сайту.

🎯 ЧТО ЭТОТ КЕЙС ДАЁТ НАМ, АНАЛИТИКАМ?

1. Аналитик — это мост между бизнесом и технологией
Вы не просто записываете требования, вы переводите эмоции и хотелки в измеримые цели и реалистичные планы.

2. Цифры убеждают сильнее слов
Всегда подкрепляйте свои аргументы расчётами, графиками, сравнениями. Заказчик может спорить с мнением, но не с математикой.

3. Ищите истинную потребность
За каждым требованием стоит бизнес-цель. Найдите её — и сможете предложить альтернативные пути достижения.

4. Учитесь говорить «нет» через «да»
Не говорите «это невозможно». Говорите: «Да, мы можем это сделать, но для этого потребуется X ресурсов и Y времени. Если бюджет ограничен, можем предложить другой подход, который даст 80% результата за 50% стоимости».

ЧЕК-ЛИСТ «ПЕРЕГОВОРЫ С ЗАКАЗЧИКОМ»

Выясните реальную бизнес-цель за требованием
Соберите данные: текущие метрики, статистику, цены
Подготовьте 2-3 альтернативных сценария с разными trade-offs
Визуализируйте последствия каждого варианта
Не бойтесь задавать уточняющие вопросы
Фиксируйте достигнутые договорённости в протоколе
💬 ИТОГ:

Системный аналитик — это не просто человек, который пишет ТЗ. Это переговорщик, стратег и психолог в одном лице. Умение управлять ожиданиями и находить компромиссы часто важнее знания UML или SQL.

Помните: хороший аналитик делает так, чтобы и заказчик был доволен, и команда разработки могла спокойно работать.

#OTHER
2
📊 SQL ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КАК ЗАПРОСЫ ПОМОГАЮТ НАХОДИТЬ ПРОБЛЕМЫ БЫСТРЕЕ КОФЕ

Привет, коллеги! 👋

Многие думают, что SQL — это для разработчиков и администраторов баз данных. Но на самом деле SQL для аналитика — как микроскоп для биолога. Это инструмент, который позволяет увидеть реальную картину, проверить гипотезы и найти ошибки в требованиях ещё до того, как они уйдут в разработку. 🧐

Сегодня покажу на реальных кейсах, как простые SQL-запросы спасали проекты и помогали принимать правильные решения. Поехали! 🚀

🔍 КЕЙС 1: ДУБЛИКАТЫ, КОТОРЫХ НЕ ДОЛЖНО БЫТЬ

Ситуация:
На тестировании CRM-системы заметили, что некоторые клиенты получают по два одинаковых письма. Разработчики ищут баг в коде, тестировщики проверяют сценарии. Аналитик предлагает заглянуть в данные.

Запрос:

SELECT 
customer_id,
email,
COUNT(*) as duplicate_count
FROM customers
GROUP BY customer_id, email
HAVING COUNT(*) > 1
ORDER BY duplicate_count DESC;


Результат:
Нашлось 342 записи с одинаковыми customer_id! Оказалось, при интеграции с внешней системой дублировались импорты из-за отсутствия уникального ключа.

Вывод:
Проблема была не в коде, а в процессе загрузки данных. Аналитик инициировал изменение интеграции и очистку дублей. Баг исчез до того, как разработчики начали искать его в логике приложения.

🎯 Что дал SQL:
Сэкономил неделю бесполезных поисков в коде и указал на реальную причину.

📉 КЕЙС 2: «НЕВОЗМОЖНЫЕ» СКИДКИ

Ситуация:
В интернет-магазине маркетологи запустили акцию: «Скидка 20% на второй товар в заказе». Через месяц финансисты заметили, что средний чек упал, а количество заказов не выросло.

Гипотеза:
Возможно, скидка применяется неправильно. Аналитик решил проверить на реальных данных.

Запрос:

SELECT 
order_id,
SUM(item_price) as total_price,
SUM(discount_amount) as total_discount,
CASE
WHEN SUM(discount_amount) > SUM(item_price) * 0.3 THEN 'Подозрительно много'
WHEN SUM(discount_amount) = 0 THEN 'Без скидки'
ELSE 'Нормально'
END as discount_check
FROM order_items
WHERE order_date >= '2024-10-01'
GROUP BY order_id
HAVING SUM(discount_amount) > SUM(item_price) * 0.3
ORDER BY total_discount DESC;


Результат:
Нашлись заказы, где скидка составляла 70-80% от суммы! Причина: в коде скидка применялась к каждому товару, а не ко второму. Баг в бизнес-логике, заложенной в ТЗ, но никто не проверял данные.

Вывод:
SQL помог обнаружить ошибку в требованиях на ранних данных. Акцию приостановили, переписали логику, потери составили всего 2 дня вместо месяца убытков.

📈 КЕЙС 3: ПОЧЕМУ ОТЧЁТ ТОРМОЗИТ 40 МИНУТ

Ситуация:
Руководитель жалуется: ежедневный отчёт по продажам формируется 40 минут. Разработчики предлагают купить более мощный сервер. Аналитик просит показать запрос.

Исходный запрос (упрощённо):

SELECT 
customer_id,
(SELECT COUNT(*) FROM orders o2 WHERE o2.customer_id = o1.customer_id) as total_orders,
(SELECT SUM(amount) FROM payments p WHERE p.order_id IN
(SELECT order_id FROM orders o3 WHERE o3.customer_id = o1.customer_id)
) as total_paid
FROM customers o1
WHERE created_at >= '2024-01-01';


Проблема:
Подзапросы выполняются для каждой строки — это миллионы обращений к таблицам.

Оптимизированный запрос:

SELECT 
c.customer_id,
COUNT(DISTINCT o.order_id) as total_orders,
SUM(p.amount) as total_paid
FROM customers c
LEFT JOIN orders o ON c.customer_id = o.customer_id
LEFT JOIN payments p ON o.order_id = p.order_id
WHERE c.created_at >= '2024-01-01'
GROUP BY c.customer_id;


Результат:
Время выполнения упало с 40 минут до 8 секунд. Никакого нового сервера не понадобилось.

Вывод:
Аналитик, понимающий SQL, спас компанию от ненужных трат на железо и сделал отчёт мгновенным.

💡 ИТОГ:

SQL для системного аналитика — это не просто «плюшка в резюме», а рабочий инструмент, который:

Экономит время команды
Спасает от ошибок в требованиях
Даёт факты вместо догадок
Повышает ваш профессиональный уровень

#SQL
1👍1
🧪 #TESTING ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КАК ПОМОЧЬ QA НАЙТИ БАГИ ЕЩЁ ДО КОДА

Привет, коллеги! 👋 Многие думают: «Тестирование — забота QA, аналитик написал требования и забыл». Но аналитик и тестировщик — два сапёра в одном минном поле. Покажу на реальных кейсах, как аналитик усиливает тестирование. Поехали! 🚀

🐛 КЕЙС 1: «ЭТО НЕ БАГ, ЭТО ФИЧА?» — КОГДА ТРЕБОВАНИЯ ВРУТ

Ситуация: В ТЗ: «Дата рождения в формате ДД.ММ.ГГГГ». Всё работает, но в базе каша — пользователи вводили через слеш.

Что должен был сделать аналитик:
Заложить валидацию на бэкенде и критерии приёмки:

1. Только формат DD.MM.YYYY
2. Ошибка при неверном формате
3. В БД тип DATE


Код для автотеста:

def test_birth_date_format():
response = client.post("/profile", json={"birth_date": "01/01/1990"})
assert response.status_code == 400


📊 КЕЙС 2: SQL КАК ИНСТРУМЕНТ ВАЛИДАЦИИ ЛОГИКИ

Ситуация: Акция «третий товар со скидкой 15%». Тесты проходят, но в 5% заказов скидка на первый товар, а не на самый дорогой.

Аналитик проверил SQL:

SELECT order_id, CASE WHEN SUM(discount) != MAX(price)*0.15 
THEN 'Ошибка' END as check
FROM order_items GROUP BY order_id HAVING COUNT(*)>=3;


Вывод: Аналитик нашёл баг, невидимый в тестовых данных.

📝 КЕЙС 3: JSON-СХЕМА КАК КОНТРАКТ

Ситуация: В интеграции поле phone передали числом, а сервис ждал строку — доставки встали.

Аналитик внёс JSON Schema:

{
"type": "object",
"properties": {
"phone": {"type": "string", "pattern": "^\\+7\\d{10}$"}
}
}


Автотест:

``python
validate(instance=response, schema=schema)
```

Ошибка ловится автоматически.

ЧЕК-ЛИСТ АНАЛИТИКА:

Acceptance Criteria с примерами
Таблицы решений для сложной логики
Граничные значения
Примеры запросов/ответов
Негативные сценарии

🎯 ИТОГ: Хороший аналитик проектирует тестируемую систему. Тогда QA ловит баги до релиза, а не пользователи на проде.

#TESTING
🥰1
🧪 #TESTING ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КАК ПОМОЧЬ QA
Привет, коллеги! 👋 Аналитик и тестировщик — два сапёра в одном минном поле. Если аналитик плохо заложил логику, QA будет искать баги бесконечно. Покажу на реальных кейсах, как усилить тестирование. 🚀

🐛 КЕЙС 1: «ЭТО НЕ БАГ, ЭТО ФИЧА?»

Ситуация: В ТЗ: «Дата рождения в формате ДД.ММ.ГГГГ». Всё работает, но в базе каша — пользователи вводили через слеш.

Что должен был сделать аналитик:

Acceptance Criteria:
1. Только формат DD.MM.YYYY
2. Ошибка при неверном формате
3. В БД тип DATE


Код для автотеста:

def test_birth_date_format():
response = client.post("/profile", json={"birth_date": "01/01/1990"})
assert response.status_code == 400


📊 КЕЙС 2: SQL КАК ИНСТРУМЕНТ ВАЛИДАЦИИ

Ситуация: Акция «третий товар со скидкой 15%». Тесты проходят, но в 5% заказов скидка на первый товар.

Аналитик проверил SQL:

SELECT order_id, CASE WHEN SUM(discount) != MAX(price)*0.15 
THEN 'Ошибка' END as check
FROM order_items GROUP BY order_id HAVING COUNT(*)>=3;


Вывод: Аналитик нашёл баг, невидимый в тестовых данных.

📝 КЕЙС 3: JSON-СХЕМА КАК КОНТРАКТ

Ситуация: В интеграции поле phone передали числом, а сервис ждал строку — доставки встали.

Аналитик внёс JSON Schema:

{
"properties": {
"phone": {"type": "string", "pattern": "^\\+7\\d{10}$"}
}
}


Автотест:

``python
validate(instance=response, schema=schema)
```

ЧЕК-ЛИСТ АНАЛИТИКА:

🚀Acceptance Criteria с примерами
💻Таблицы решений
💻Граничные значения
💻Примеры запросов/ответов
💻Негативные сценарии

🎯 ИТОГ: Хороший аналитик проектирует тестируемую систему. Тогда QA ловит баги до релиза.

#TESTING
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Когда ко встрече подключился ОЧЕНЬ важный тех специалист
😁4
📐 UML ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КОГДА КАРТИНКА ГОВОРИТ ГРОМЧЕ СЛОВ
Привет, коллеги! 👋 UML — не просто "рисовалки", а мощный инструмент коммуникации. Покажу на кейсах, как диаграммы спасают проекты. 🚀

📌 КЕЙС 1: ДИАГРАММА ПОСЛЕДОВАТЕЛЬНОСТИ

Спорили 3 часа, как обрабатывать ошибки SMS-шлюза. Нарисовали схему — споры ушли.

User -> CRM: Заказ
CRM -> SMS: POST /send-sms
alt Успешно
SMS --> CRM: 200 OK
else Таймаут
SMS --> CRM: 504
CRM -> User: "Будет отправлено позже"
end


Вывод: Sequence Diagram лучший для описания взаимодействия компонентов во времени.

📊 КЕЙС 2: ДИАГРАММА СОСТОЯНИЙ

Путались в статусах заказа. State Machine Diagram навёл порядок.

[*] → Создан → Оплачен → В сборке → Доставлен
Создан → Отменён
Доставлен → Возврат → Завершён
Вывод: Незаменима для объектов со сложной статусной моделью.

🧩 КЕЙС 3: ДИАГРАММА КЛАССОВ

Новички не могли спроектировать БД. Class Diagram дал чёткую структуру.

text
User 1 ----many Enrollment
Course 1 ----many Enrollment
Course 1 ----many Lesson
Вывод: Это чертёж будущей системы до написания кода.

🏗 КЕЙС 4: C4-МОДЕЛЬ

В 15 микросервисах никто не видел общей картины. C4 + PlantUML спасли.

```text
Клиент → [Платформа] → [Платёжный шлюз]
Курьер → [Платформа] → [SMS-сервис]


Вывод: Идеально для документирования архитектуры кодом.

🛠 ЧТО ИСПОЛЬЗОВАТЬ?

PlantUML — текст → диаграмма
Draw.io — быстро
Miro — для совместной работы

🎯 ИТОГ: UML экономит часы переговоров и делает систему прозрачной для всех.


#UML
1
Media is too big
VIEW IN TELEGRAM
Рабочие переписки с ChatGPT
😁6
🔗 #INTEGRATION: КАК НЕ ПОТОНУТЬ В КОНТРАКТАХ И НЕ ПОТЕРЯТЬ ДАННЫЕ

Привет, коллеги! 👋

Сегодня покажу на реальных кейсах, как чёткие контракты и идемпотентность спасают проекты. Поехали! 🚀

📌 КЕЙС 1: КОГДА ФОРМАТЫ НЕ СОШЛИСЬ

CRM с датами DD.MM.YYYY интегрировали с сервисом, ждущим YYYY-MM-DD. Месяц отчёты строились по несуществующим датам. 😱

Решение: JSON Schema

{
"properties": {
"birth_date": {
"pattern": "^\\d{4}-\\d{2}-\\d{2}$"
}
}
}


Код проверки:

validate(instance=request, schema=schema)  # Ошибка при неверном формате


Вывод: JSON Schema — обязательный контракт для каждой интеграции. 📝

🔄 КЕЙС 2: ДУБЛИКАТЫ В ОЧЕРЕДИ

Из-за сбоя сети служба доставки получила дубликаты заказов из очереди. 💔

Решение: Идемпотентность

if redis.exists(f"processed:{msg_id}"):
return # уже обработано
create_delivery(order_id)
redis.setex(f"processed:{msg_id}", 86400, "1")


Вывод: Уникальный message_id и проверка на дубликаты — обязательное требование. 🛡

🧪 КЕЙС 3: ТЕСТИРОВАНИЕ КОНТРАКТОВ

Интеграция упала на проде из-за неожиданного статуса ответа.

Решение: Pact (контрактное тестирование)

provider.uponReceiving('запрос')
.withRequest({ body: { order_id: 123 } })
.willRespondWith({ status: 201, body: { delivery_id: 456 } });


Вывод: Тесты на контракты ловят нестыковки до выкатки. 🧪

ЧЕК-ЛИСТ АНАЛИТИКА

Контракт: JSON Schema, примеры, правила трансформации
Надёжность: Уникальный ID, retry policy, DLQ

Тестирование: Контрактные тесты, негативные сценарии
Мониторинг: Метрики, алерты, логи с ID запроса

🎯 ИТОГ:

Интеграция — это контракт, идемпотентность, тесты и мониторинг. Аналитик, закладывающий это в требования, спасает команду от ночных дежурств.

#INTEGRATION
🔗 #INTEGRATION: КАК НЕ УТОНУТЬ В API И НЕ ПРОСПАТЬ ИЗМЕНЕНИЯ

Привет, коллеги! 👋 Интеграции — это не просто «дёрнуть API». Это управление контрактами, версиями и нагрузкой. Покажу на кейсах, как инструменты спасают проекты. 🚀

📌 КЕЙС 1: REST API — OpenAPI как контракт

CRM и биллинг ссорились из-за формата телефона. 😫

Решение: OpenAPI-спецификация с жёсткой схемой.

phone: { type: string, pattern: '^\+7\d{10}$' }


Код валидации (Pydantic):

Customer(phone="+79991234567")  # ok
Customer(phone="89991234567") # error


Вывод: OpenAPI — стандарт для REST. 📝

🔄 КЕЙС 2: АСИНХРОН — Avro + Schema Registry

Добавили поле в событие Kafka — аналитика упала. 💥

Решение: Avro-схемы с default-значениями.

{"name": "promo_code", "type": ["null", "string"], "default": null}
Schema Registry хранит версии — потребители не ломаются.


Вывод: Avro + Registry для асинхронных шин. 📦

⏱️ КЕЙС 3: RATE LIMITING

SMS-шлюз отвечал 429 в час пик, уведомления терялись. 📉

Решение: Асинхронная очередь с лимитером.

async with AsyncLimiter(100, 1):
await send_sms(phone, text) # не превысит лимит

Вывод: Rate limiting и retry policy обязательны.

ЧЕК-ЛИСТ АНАЛИТИКА:

Контракт: OpenAPI / AsyncAPI / Avro
Валидация: схемы на всех уровнях
Версионирование: политика совместимости
Ошибки: retry policy, DLQ, rate limiting
Мониторинг: метрики, алерты, логи

🎯 ИТОГ: Интеграция — это контракты, версии и защита. Закладывайте это в требования.