🍀BitBitGo🍀 Системный Анализ
3.22K subscribers
217 photos
153 videos
112 links
Курс «Системный анализ»
https://bitbitgo.by/
Пишем про системный анализ.
Поможем стартануть в карьере IT. Присоединяйся!
Download Telegram
🎯 ХОЧУ РАССКАЗАТЬ, КАК Я ИЗ БЕЗОПАСНОСТИ ПЕРЕТАЩИЛ 1000+ ЧЕЛОВЕК В СИСТЕМНЫЕ АНАЛИТИКИ

Знакомьтесь, это я — Вадим, Lead System Analyst с 8-летним опытом. Раньше я работал в кибербезопасности и ненавидел документы. Теперь я строю архитектуру FinTech-систем и учу других системному анализу.

Почему стоит послушать меня? Потому что я прошёл путь от:

📄 Требований в стиле «сделайте красиво» → к конкретным user stories с критериями приёмки
🧩 Хаотичных встреч → к управлению backlog’ом по Scrum
😱 Страха UML/BPMN → к их использованию без зубрёжки

И за 3 года я помог более 1000 ученикам сменить профессию, повысить квалификацию или систематизировать знания.

🔥 ЧТО ВЫ ПОЛУЧИТЕ НА КУРСЕ:

✔️ ОТ ТЕОРИИ К ПРАКТИКЕ: Не просто лекции, а работа с реальными ТЗ из моей практики (от e-commerce до банковских систем).
✔️ ИНСТРУМЕНТЫ, КОТОРЫЕ ПРИМЕНЯЮТСЯ В 2024: Figma для прототипов, Jira/Confluence, диаграммы в Miro, ChatGPT для аналитика.
✔️ СОБЕСЕДОВАНИЯ БЕЗ ПАНИКИ: Разбор 20+ реальных кейсов с собесов от Yandex, Tinkoff, VK + симуляция интервью.
✔️ ПОДДЕРЖКА И НЕТВОРКИНГ: Закрытый чат с коллегами, разбор домашних заданий, ответы на вопросы в течение 6 месяцев после курса.

📈 РЕЗУЛЬТАТЫ ВЫПУСКНИКОВ:

«С нуля вышел на зарплату 110к через 4 месяца после курса» (история Максима)
«Смогла перейти с позиции тестировщика на аналитика в одном продуктовой команде» (история Анны)
«Систематизировал хаос в требованиях, теперь говорю с разработчиками на одном языке» (история Дмитрия)


💬 ЧТОБЫ ЗАБРОНИРОВАТЬ МЕСТО ИЛИ УЗНАТЬ ПОДРОБНОСТИ:
Переходи по ссылке 👇
https://bitbitgo.by/
Please open Telegram to view this post
VIEW IN TELEGRAM
🎓 СОБЕСЕДОВАНИЕ НА АНАЛИТИКА: РАЗБИРАЕМ РЕАЛЬНЫЕ КЕЙСЫ И ЛОВУШКИ
Привет, будущие и действующие аналитики! 👋 Сегодня разберем тему #INTERVIEW на реальных примерах. Не просто вопросы-ответы, а разбор типичных ошибок и того, что ждут на самом деле. Погнали! 🚀

📌 Кейс 1: «А мы так в прошлом проекте делали...»

Ситуация на собесе: Кандидата спрашивают: «Как вы будете собирать требования на новый модуль “Личный кабинет” для банковского приложения?» 💳
Типичный ответ новичка: «Ну, я бы собрал всех стейкхолдеров в одну комнату, провел воркшоп, записал user stories и передал разработчикам».
Почему это провал? Слишком абстрактно и игнорирует контекст банковской сферы!
Что ждут Senior-интервьюеры? Конкретику с учётом отраслевых требований:
*«Сначала изучу нормативку: 115-ФЗ, Положение Банка России № 762-П — это даст обязательные требования к данным и безопасности»* 📜
«Выявлю категории пользователей: клиент физлицо, сотрудник банка, аудитор — у каждого свои сценарии и ограничения» 👥
«Предложу прототипирование ключевых экранов с фокус-группой, потому что в финансах ошибки интерфейса = потеря денег» 💸

Вывод: Показывайте, что вы думаете о предметной области, а не просто применяете шаблонные техники.

📌 Кейс 2: «Вопрос на миллион» — просим оценить сложность

Вопрос: «Оцените, сколько времени нужно, чтобы интеграцировать наше приложение с “Госуслугами” для верификации пользователей?» ⏱️
Ошибка: Назвать срок сразу: «Месяц-два». Это красная тряпка для опытного тимлида.

Правильный подход — задать уточняющие вопросы:

«Какой именно сценарий нужен? Простая авторизация через ЕСИА или выгрузка данных из профиля?» 🔍
«Есть ли у команды опыт работы с API “Госуслуг”? Нужно ли получать аккредитацию?» 🏛
«Каковы текущие нагрузки на команду? Есть ли выделенный DevOps для настройки контуров?» 👨‍💻
И только потом: *«При положительных ответах на всё выше — 3-4 спринта на первый рабочий прототип, плюс месяц на согласования и сертификацию»*.

Фишка: Вам платят за умение снижать риски, а не за быстрые ответы. Умение задавать вопросы ценится выше, чем знание всех ответов. 🧠

📌 Кейс 3: Белое vs. Чёрное — стресс-кейс

Вопрос: «Пользователь жалуется: “В мобильном приложении не отображается его заказ”. Ваши действия?» 📱
Слабый ответ: «Проверю логи, передам разработчикам...» — слишком пассивно.
Сильный (системный) ответ — по шагам:

Локализация: «Уточню у пользователя: не отображается только его заказ или всё? На каком экране? Какая ОС и версия приложения?» 📍

Воспроизведение: «Попробую воспроизвести на тестовом стенде с похожими данными» 🔄
Анализ: «Проверю:
Сетевые ли запросы к API падают? (Fiddler/Charles)
Есть ли ошибки в логах мобильной аналитики? (Firebase)
Не изменилась ли структура ответа бэкенда?» 🕵️‍♂️

Коммуникация: «Если проблема массовая — подготовлю сообщение для поддержки и включусь в созвон с разработчиками. Если единичная — запрошу детальные логи по userId» 📢

Это показывает: Методичность, понимание стека технологий и клиентоориентированность.

🎯 ТОП-5 советов для вашего следующего собеса:

Говорите вслух — интервьюер должен видеть ход ваших мыслей. 🗣
Спрашивайте про контекст — уточняйте бизнес-цель, ограничения, состав команды.
Рисуйте! Схемы, блок-схемы, таблицы — это ваше главное оружие. ✏️
Признавайте пробелы — «Я не сталкивался с BPMN, но понимаю, что это для процессов, и готов быстро изучить» — это сильнее, чем попытка выкрутиться. 👍
Готовьте вопросы о компании — «Какая biggest pain point в текущих процессах анализа?» покажет ваш проактивный настрой. 💼
Помните: Собеседование — это продажа своих навыков решения проблем, а не просто пересказ резюме. Удачи! 🍀

#INTERVIEW
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 SQL ДЛЯ СИСТЕМНОГО АНАЛИТИКА: НЕ ПРОСТО ЗАПРОСЫ, А ИНСТРУМЕНТ ПРИНЯТИЯ РЕШЕНИЙ
Привет, коллеги! 👋 Давайте начистоту: многие думают, что SQL для аналитика — это просто проверить данные. На самом деле, это ваш супер-инструмент для выявления проблем, валидации гипотез и даже сбора требований. Сегодня покажу на реальных кейсах, как SQL спасал проекты. 🦸‍♂️

🔍 Кейс 1: «Пропавшие транзакции» — как SQL помог обнаружить баг в ТЗ

Ситуация: В платёжной системе после релиза новой фичи часть транзакций «терялась». Разработчики клялись, что всё работает. Поддержка завалена жалобами.

Что сделал аналитик? Вместо долгих совещаний, написал исследовательский запрос:

SELECT 
user_id,
COUNT(CASE WHEN status = 'SUCCESS' THEN 1 END) as success_count,
COUNT(CASE WHEN status = 'FAILED' THEN 1 END) as failed_count,
COUNT(CASE WHEN status IS NULL THEN 1 END) as null_count -- Вот это ключ!
FROM transactions
WHERE created_at >= '2024-10-01'
GROUP BY user_id
HAVING null_count > 0;


Что обнаружилось: У 15% пользователей были транзакции со статусом NULL, которые не отображались в интерфейсе.

Причина: В техническом задании не учли сценарий таймаута соединения с банком. Система не знала, как обработать этот случай, и оставляла статус пустым.

Итог: За 20 минут SQL-запроса:
Выявлен конкретный баг
Спасена репутация продукта
Дополнено ТЗ обработкой таймаутов

📈 Кейс 2: «Странные бонусы» — валидация бизнес-логики

Задача: После запуска программы лояльности маркетологи заметили, что бонусов начисляется больше, чем ожидалось.
Вместо того чтобы спрашивать «почему?», аналитик провёл анализ данных:

WITH user_orders AS (
SELECT
user_id,
COUNT(DISTINCT order_id) as order_count,
SUM(bonus_amount) as total_bonuses
FROM orders
WHERE created_at BETWEEN '2024-10-01' AND '2024-10-15'
GROUP BY user_id
)
SELECT
CASE
WHEN order_count = 1 THEN 'Один заказ'
WHEN order_count BETWEEN 2 AND 5 THEN '2-5 заказов'
ELSE 'Более 5 заказов'
END as segment,
COUNT(user_id) as users_count,
AVG(total_bonuses) as avg_bonus_per_user,
SUM(total_bonuses) as segment_bonus_total
FROM user_orders
GROUP BY 1
ORDER BY segment_bonus_total DESC;


Открытие: 70% всех бонусов получали пользователи с одним заказом, хотя по логике система должна была начислять больше постоянным клиентам.
Проблема: Ошибка в формуле расчёта — бонусы умножались на коэффициент новизны пользователя, а не на коэффициент лояльности.
Результат: SQL помог не просто найти ошибку, а количественно оценить её влияние на бизнес. 💰

🛠 Кейс 3: «Метрики для руководителя» — когда нужно быстро, но содержательно

Срочный запрос от CEO: «Как идут продажи в новом регионе?»
Вместо дня подготовки отчёта, аналитик за 30 минут сделал:

SELECT 
DATE_TRUNC('week', order_date) as week,
region,
COUNT(order_id) as orders_count,
SUM(order_amount) as revenue,
COUNT(DISTINCT customer_id) as unique_customers,
SUM(order_amount) / COUNT(DISTINCT customer_id) as avg_revenue_per_customer
FROM sales
WHERE region = 'Сибирь'
AND order_date >= '2024-09-01'
GROUP BY 1, 2
ORDER BY week DESC;


Почему это эффективно?

Готовый анализ трендов по неделям
Ключевые метрики в одном месте
Инсайты для маркетинга — средний чек на клиента
Основа для принятия решений — стоит ли увеличивать инвестиции в регион

🎯 ВАШИ ДЕЙСТВИЯ НА ЗАВТРА:

Начните с малого: Освойте WHERE, GROUP BY, JOIN — этого хватит для 80% задач

Спрашивайте доступ к БД на проекте (только для чтения!)
Автоматизируйте рутину: Сохраняйте полезные запросы в saved queries
Изучайте оконные функции (OVER, PARTITION BY) — это следующий уровень

Запомните: SQL для аналитика — это не про «базы данных», это про понимание данных. Каждый запрос — это вопрос к системе, и правильный вопрос даёт правильный ответ. 🧠

#SQL
This media is not supported in your browser
VIEW IN TELEGRAM
Когда начальник очень несмешно пошутил, но скоро выплата премий
🤔3
🛡 SECURITY ДЛЯ АНАЛИТИКА: КАК НЕ СТАТЬ СЛАБЫМ ЗВЕНОМ В ЦЕПОЧКЕ БЕЗОПАСНОСТИ
Привет, коллеги! 👋 Сегодня разберем, почему кибербезопасность (#SECURITY) — это не только про фаерволы и шифрование. Это про ваши требования и решения, которые могут либо создать брешь, либо стать первым рубежом обороны. На реальных кейсах покажу, где чаще всего ошибаются аналитики. 🚨

🔓 Кейс 1: «Утечка там, где её не ждали»

Ситуация: В крупном маркетплейсе решили добавить функцию «История просмотров». Аналитик написал ТЗ: «Выводить последние 20 просмотренных товаров». Кажется, безобидно?

Что пошло не так? Через месяц в сети появилась база данных с историей просмотров 2 миллионов пользователей. Оказалось:

API для получения истории был публичным (не требовал авторизации) 🚫
В ответе передавались внутренние ID товаров, по которым можно было вычислить логику рекомендаций
В логах сервера эти истории хранились в открытом виде

Что должен был сделать аналитик?

Добавить нефункциональные требования: «Доступ к истории — только для авторизованного владельца аккаунта (проверка по user_id)» 🔐
Спроектировать безопасный API: Использовать маскированные или хэшированные идентификаторы вместо внутренних ID
Задать правила логирования: «Не логировать персональные данные пользователей (истории просмотров)» 📝

💡 Вывод: Безопасность начинается с контроля доступа и минимизации данных в ответах.

📱 Кейс 2: «Оплата, которая никогда не завершится»

Задача: Разработать мобильное приложение для оплаты парковки. Пользователь вводит номер карты, срок действия и CVV.

Ошибка в ТЗ: «Сохранять данные карты для быстрой повторной оплаты» 💳

Чем это опасно?

PCI DSS прямо запрещает хранить CVV после авторизации
Локальная база данных на телефоне может быть взломана или украдена
При синхронизации с облаком данные могут попасть в открытый доступ

Правильное решение аналитика:

Использовать токенизацию: Заменять данные карты на токен у платежного провайдера
Выбрать безопасную аутентификацию: Биометрия или 3D-Secure вместо хранения CVV
Добавить требования к сертификации: «Приложение должно пройти пентест на хранение чувствительных данных» 🧪

🔗 Кейс 3: «Интеграция, которая открыла дверь хакерам»

Сценарий: CRM-система интегрируется с внешним сервисом email-рассылок. В ТЗ: «Передавать email, имя и историзацию заказов клиента».
Реализация: Разработчики сделали прямой вырос API с базовой авторизацией (логин-пароль в конфиге).
Результат: Через уязвимость в сервисе рассылок хакеры получили полный доступ к CRM, включая:
Персональные данные 500К клиентов 📧

Финансовую историю
Внутренние документы

Как предотвратить? Аналитик должен был предусмотреть:

Принцип минимальных прав: Передавать только необходимые поля (email для рассылки, без истории заказов)
Безопасный протокол: OAuth 2.0 с scope вместо логина-пароля
Аудит и мониторинг: «Логировать все запросы к внешнему API с проверкой аномалий» 📊

🎯 ЧЕК-ЛИСТ АНАЛИТИКА ПО БЕЗОПАСНОСТИ:

Данные:

Какие данные являются персональными (ПДн)?
Где они хранятся и как передаются?
Есть ли согласие пользователя на обработку? 📄

Доступ:

Кто и при каких условиях получает доступ?
Реализована ли ролевая модель (RBAC)?
Есть ли многофакторная аутентификация для критичных операций? 🔑

Интеграции:

Используются ли токены вместо паролей?
Включено ли шифрование (TLS) для всех соединений?
Проведена ли оценка рисков внешних сервисов? 🔗

Соответствие:

Учтены ли 152-ФЗ (ПДн), 187-ФЗ (КИИ), GDPR?
Требуется ли сертификация или аудит?
Есть ли план реагирования на утечки? 🏛

💎 ИТОГ: Безопасность — это сквозная функция, которую нужно закладывать на этапе проектирования. Каждое ваше требование должно проходить проверку: «Что будет, если эти данные украдут? Как злоумышленник может использовать эту функциональность?»

Запомните: Лучший баг — это тот, который не попал в прод благодаря правильным требованиям. Ваша внимательность спасает компании репутацию и миллионы рублей. 🛡💼

#SECURITY
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Супер мега про макс менеджер после закона от 1 марта об англицизмах
😁4
Media is too big
VIEW IN TELEGRAM
Когда встреча с коллегами вдруг стала интересной
🤣5
🔗 INTEGRATION В СИСТЕМНОМ АНАЛИЗЕ: КОГДА СВЯЗИ СТАНОВЯТСЯ ПРОБЛЕМАМИ

Привет, коллеги! 👋 Сегодня разберем тему, которую многие недооценивают — интеграции (#INTEGRATION). Это не просто «соединить две системы», а целая философия проектирования. Готовы узнать, как непродуманные интеграции сжигали бюджеты и нервы? Поехали! 🚀

💥 Кейс 1: «Падение из-за чужого таймаута»

Ситуация: Крупный интернет-магазин внедрил систему скоринга для одобрения кредитов. При оформлении заказа наш сайт синхронно вызывал API банка и ждал ответа до 30 секунд.

Что пошло не так? В «Черную пятницу» банковская система не выдержала нагрузки и начала отвечать за 20-25 секунд. Наш сайт лег на 3 часа, потому что все воркеры были заняты ожиданием ответа от банка.

Ошибка аналитика: В ТЗ было просто: «При оформлении заказа вызвать метод /check-credit банковской системы». Не было предусмотрено:

Таймаутов на нашей стороне ⏱️
Асинхронной обработки
Фолбэка на ручную проверку
Решение: Перешли на асинхронную схему:

Заказ создается со статусом «Проверка кредита»
Событие уходит в очередь
Отдельный воркер обрабатывает его с повторными попытками
При таймауте > 5 сек — автоматический переход на ручную проверку
Вывод: Синхронные интеграции с внешними системами — это мина замедленного действия. Всегда проектируйте асинхронно с учетом отказов! 🛡

🔧 Кейс 2: «Тихий убийца данных»

Задача: Интеграция CRM с сервисом email-рассылок. Каждый вечер CRM выгружала CSV-файл с новыми клиентами, сервис рассылок забирал его.

Проблема: Через месяц маркетологи заметили, что 30% писем не доходят. Оказалось:

CRM использовала кодировку Windows-1251
Сервис рассылок ожидал UTF-8
Имена с буквой «ё» и кириллицей превращались в «????» 🤯
Ошибка аналитика: В спецификации не были указаны:

Формат кодировки
Правила валидации данных
Формат обработки ошибок
Решение: Внедрили контракт данных (Data Contract):

{
"encoding": "UTF-8",
"required_fields": ["email", "name"],
"validation_rules": {
"email": "regex pattern",
"name": "max_length: 100"
}
}


Плюс добавили тестовый контур для проверки перед выгрузкой.

📊 Статистика, которая пугает: По данным исследований, 40% падений распределенных систем происходят из-за проблем с интеграциями, а не с внутренними багами.

🎯 ЧЕК-ЛИСТ АНАЛИТИКА ПРИ ПРОЕКТИРОВАНИИ ИНТЕГРАЦИЙ:

Сценарии отказа:

Что если внешняя система не отвечает 10 секунд? 1 минуту?
Как поведет себя наша система при получении некорректных данных?
Есть ли механизм повтора (retry policy)?
Данные:

Четко прописаны форматы (JSON/XML/CSV)?
Указаны кодировки и стандарты дат?
Есть ли маппинг полей между системами? 📝
Безопасность:

Как происходит аутентификация (API-ключи, OAuth)?
Данные шифруются при передаче?
Есть ли ограничения по частоте запросов (rate limiting)? 🔐
Мониторинг:

Какие метрики будем отслеживать (латентность, ошибки)?
Куда придут алерты при проблемах?
Есть ли дашборд для отслеживания здоровья интеграции? 📈
💡 Паттерны, которые стоит знать:

Retry with backoff: Повторные попытки с растущей задержкой
Circuit Breaker: Автоматическое отключение «сломанной» интеграции
Dead Letter Queue: Очередь для сообщений, которые не удалось обработать
API Versioning: Версионирование интерфейсов для обратной совместимости

🚀 ПРАКТИЧЕСКИЙ СОВЕТ: Начинайте проектирование интеграции с диаграммы последовательности (sequence diagram). Нарисуйте: кто, куда, что отправляет, какие возможны ошибки. Это сэкономит часы совещаний!

🎯 ИТОГ: Хорошая интеграция — как хороший договор: все возможные ситуации предусмотрены, формальности соблюдены, а стороны защищены от неожиданностей. Ваша задача как аналитика — быть юристом в мире данных, который продумает все спорные моменты заранее.

#INTEGRATION
1
This media is not supported in your browser
VIEW IN TELEGRAM
Как воспринимается конец рабочей недели
🌭1
🔍 TESTING ДЛЯ АНАЛИТИКА: КАК УВИДЕТЬ БАГ 🐛 ДО ТОГО, КАК ЕГО НАПИШУТ 💻
Привет, коллеги! 👋 Сегодня разбираем тему #TESTING — но не с позиции тестировщика, а с позиции аналитика, который может предотвратить 80% дефектов на этапе требований 🛡. Современные проекты становятся сложнее, и старые подходы не работают. Покажу свежие кейсы 2024 года. 🚀

🤖 Кейс 1: «AI, который всех обманул» 🎭

Ситуация: В стартапе внедрили AI-ассистента для обработки заявок. На тестах он работал идеально . В проде — за первую неделю 40% заявок ушли в спам 📧.

Что пошло не так? Тест-кейсы проверяли только позитивные сценарии с идеальными формулировками. В реальности пользователи писали:

«Срочно!!! Нужен ремонт вчера» 🔥
«Добрый день, а если мне нужно...» 🤔
Сообщения с emoji и опечатками 🤪
Текст на транслите («Pomogite») 🔤

Решение аналитика: Мы добавили в ТЗ отдельный раздел «Пограничные случаи для AI»:

Тексты на транслите ↔️
Сообщения только с пунктуацией («???»)
Пустые заявки с вложениями 📎
Требование: AI должен не только обрабатывать, но и оценивать уверенность ответа и передавать сложные случаи человеку 👨‍💼.

Вывод: В эпоху AI аналитик должен думать не только о что делает система, но и как она ошибается 🤖💥.

🔐 Кейс 2: «Платеж, который прошел дважды» 💸💸

Свежий случай из финтеха: При интеграции с новым платежным шлюзом 🏦 возникла редкая, но критичная ситуация — сетевой таймаут после списания, но до ответа банка .

Тестирование пропустило этот сценарий, потому что:
Не воспроизводили реальные задержки сети 🌐🐌
Не учитывали идемпотентность операций 🔁
Что сделал аналитик? Внес в спецификацию обязательные проверки:
Все платежные endpoint должны принимать idempotency_key 🔑

Таймауты настроены ниже, чем у банка ⏱️⬇️

Требование к тестированию: Обязательное проведение chaos-тестов 🧨 с подменой ответов и задержками

Итог: После доработки система корректно обрабатывала «подвешенные» транзакции ⚖️, а пользователи не теряли деньги 🛡💵.

📱 Кейс 3: «Уведомление, которое сломало день» 📲💥

Реальная история из delivery-сервиса 🚴: В приложении добавили push-уведомление «Ваш курьер опаздывает» . Логика: если курьер не прибыл в 15-минутное окно — отправляем уведомление.

Проблема: В день релиза тысячи пользователей получили ложные уведомления 📢😱. Паника, отмены заказов , срыв NPS 📉.

Корень зла: В ТЗ не учли:
Курьеры отмечают прибытие вручную ✍️ (могут забыть)
GPS-трекер теряет сигнал в тоннелях 🚇📡
Нет буфера между «фактическим опозданием» и «уведомлением» 🛡
Решение: Аналитик перепроектировал логику:

Было: время_прибытия > расчетное_время → уведомление 🔔
Стало: (время_прибытия > расчетное_время + 5 мин)
И (курьер_не_отметил_прибытие)
И (GPS_не_передает_сигнал > 2 мин) 📡 → уведомление 🔔


🎯 ВАШ ЧЕК-ЛИСТ ДЛЯ ТЕСТИРУЕМЫХ ТРЕБОВАНИЙ 2024 📋:

✔️ Для AI/ML-функций 🤖:

Требуйте accuracy metrics (точность 🎯, полнота 📊)
Прописывайте fallback-сценарии на человеческую проверку 👨‍💼
Добавляйте этичные ограничения (что AI не должен делать 🚫)

✔️ Для интеграций 🔗:

Обязательная идемпотентность 🔁 для всех мутирующих операций
Схемы ошибок от партнеров в ТЗ 📄
Load-тестирование ⚡️ на реальных объемах данных

✔️ Для пользовательских сценариев 👥:

Тестирование без интернета 🌐
Поведение при low battery 🔋⚠️
Конфликтующие действия (два устройства 📱💻, один аккаунт)

✔️ Для безопасности 🔐:

Fuzzing-тесты 🧪 для всех input-полей
Проверка логирования чувствительных данных 📝🔒
Сценарии отзыва consent (GDPR) 📜➡️

💡 ГЛАВНЫЙ ИНСАЙТ:
Современное тестирование — это не «проверить по чек-листу» . Это проектирование системы, которая не может сломаться критически 🏗🛡. Аналитик 2024 года должен закладывать тестируемость 🧪, наблюдаемость 👁 и отказоустойчивость 🛡 в саму архитектуру требований.

#TESTING
Please open Telegram to view this post
VIEW IN TELEGRAM
2🤔1
🗄 DBMS ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КОГДА НЕЗНАНИЕ БАЗ ДАННЫХ СТОИТ ДОРОГО

Привет, коллеги! 👋 Сегодня поговорим о том, почему системный аналитик обязан разбираться в базах данных. Это не «задача разработчиков», а ваша прямая ответственность. Неверные решения на этапе анализа приводят к падениям систем и финансовым потерям. Докажу на реальных кейсах. 💼🔥

📉 Кейс 1: «Простая нормализация, которая съела бизнес»

Ситуация: Стартап по доставке еды решил сэкономить на БД. Аналитик предложил хранить все данные заказа в одной JSON-колонке order_data в таблице orders.

Что пошло не так через 6 месяцев:

Невозможно проанализировать популярные блюда — все данные в JSON 📊
Медленные отчеты — каждый запрос парсит JSON целиком ⏱️
Ошибки в расчётах — разные форматы хранения цен в одном поле 💸
Ошибка: Игнорирование нормализации. Правильная структура требовала:

Таблица orders (основная информация)
Таблица order_items (позиции заказа)
Таблица products (справочник товаров)
Вывод: Аналитик должен знать хотя бы 1-3 нормальные формы. Данные — это актив компании, а не техническая деталь.

🚀 Кейс 2: «Индекс, который спас компанию»

Задача: В мобильном приложении соцсети лента новостей грузилась 8-12 секунд. Пользователи уходили.

Анализ аналитика (не разработчика!): Изучив частые запросы, я заметил паттерн:

SELECT * FROM posts 
WHERE user_id IN (SELECT friend_id FROM friendships WHERE user_id = ?)
ORDER BY created_at DESC
LIMIT 20


Проблема: Каждый раз искались друзья + сортировка по дате без индекса.

Решение в ТЗ: Добавить составной индекс (user_id, created_at DESC) в таблицу posts и предусмотреть покрывающий индекс для частых запросов.

Результат: Время загрузки сократилось до 200 мс. 📈

Запомните: Аналитик должен понимать какие запросы будут частыми и проектировать структуру под них.

💥 Кейс 3: «Выбор БД — вопрос архитектуры, а не моды»

История: FinTech-стартап выбрал MongoDB для хранения финансовых транзакций, потому что «это модно и scalable».

Чем обернулось:

Потеря данных при параллельных обновлениях ⚠️
Сложные ACID-транзакции при переводе средств 💰
Дорогой переезд на PostgreSQL через год
Почему аналитик должен был вмешаться: Требования к системе включали:

Гарантированную целостность транзакций
Сложные JOIN между клиентами, счетами и операциями
Строгую схему данных
Правильное решение: Реляционная БД (PostgreSQL) с поддержкой ACID.

🎯 ЧЕК-ЛИСТ АНАЛИТИКА ПРИ РАБОТЕ С БАЗАМИ ДАННЫХ:

Проектирование структуры:

Нужна ли нормализация или подойдет денормализация для производительности?
Какие связи между сущностями (1-1, 1-много, много-много)? 🔗
Есть ли справочники, которые будут часто использоваться?
Производительность:

Какие 3 самых частых запроса будут к системе?
Нужны ли индексы (простые, составные, покрывающие)? 📊
Будет ли партиционирование по датам или другим признакам?
Выбор типа БД:

Нужны ACID-гарантии (финансы) или eventual consistency (соцсети)? ⚖️
Преимущественно запись или чтение?
Жесткая схема или гибкая структура данных?
Безопасность и compliance:

Как хранятся персональные данные (шифрование, маскирование)? 🔐
Есть ли требования к аудиту изменений (кто, когда, что поменял)?
Нужно ли логирование операций?
🔧 Практические инструменты для аналитика:

ER-диаграммы — ваш лучший друг для проектирования структуры
Прототипы запросов — напишите примеры основных SELECT/INSERT заранее
Data dictionary — документ с описанием всех полей, типов, ограничений
Миграции — предусмотрите механизм изменения схемы без простоев

💡 Золотое правило: Данные переживают приложения. Системы переписываются, а данные мигрируют. Ваша задача — спроектировать так, чтобы через 5 лет не было стыдно.

📌 Вопросы, которые должен задавать себе аналитик:

«Как мы будем искать эти данные?»
«Что будет, если два пользователя изменят одну запись одновременно?»
«Как восстановить данные при сбое?»
«Можем ли мы масштабировать это решение?»

🎯 ИТОГ: Системный аналитик — это архитектор данных, а не просто сборщик требований. Глубокое понимание БД отличает senior-аналитика от junior. Незнание основ БД сегодня — дорогостоящие ошибки завтра.

#DBMS
2
🔗 #INTEGRATION: КОГДА «ПРОСТО ПОДРУЖИТЬ СИСТЕМЫ» ОБХОДИТСЯ В МИЛЛИОНЫ

Приветствую, коллеги! 👋 Сегодня разберём тему, которая выглядит технической, но на деле — это зона стратегических решений аналитика. Интеграции — это не протоколы и форматы, а про риски, деньги и репутацию. Готовы к реальным историям? Погнали! 🚀

💥 Кейс 1: «Чёрная пятница, которая стала чёрным днём»

Контекст: Крупный ритейлер внедрял систему онлайн-кредитования. При оформлении заказа сайт синхронно запрашивал решение у банковского скоринг-сервиса.

Что случилось 24 ноября:
В 11:00 банковский API начал отвечать 8-12 секунд (вместо обычных 200 мс). К 12:30 наш сайт полностью лёг — все воркеры были заблокированы в ожидании ответа от банка.
Потери: 3 часа простоя в пиковый день = ~45 млн руб. упущенной выручки. 💸

Ошибка в ТЗ аналитика:
Было: «При оформлении заказа вызвать метод /check-credit банковской системы»
Не было:

Таймаутов на нашей стороне ⏱️
Асинхронной обработки
Circuit Breaker (автоматического отключения нерабочего контура)
Фолбэка на отложенную проверку
Решение: Внедрили многоуровневую стратегию:

Таймаут 2 секунды на вызов банка
Автоматический переход на локальную проверку при недоступности банка
Асинхронное обновление статуса кредита после создания заказа
Дашборд мониторинга с алертами на degradation
Вывод: Синхронные интеграции с внешними системами — это системный риск. Аналитик должен проектировать их как потенциальные точки отказа.

🔄 Кейс 2: «Миграция, которая породила монстра»

Задача: Перенести данные клиентов из старой CRM в новую. В ТЗ: «Выгрузить все данные за последние 5 лет».

Реализация: Написали скрипт, который 3 дня выгружал CSV по 2 млн строк, потом импортировал.

Что пошло не так:

Телефоны в старой системе: +7 (999) 123-45-67
Новая система ожидала: 79991234567 📱
Даты рождения: 01.01.1990 vs 1990-01-01 📅
История заказов: в старой — одна JSON-колонка, в новой — нормализованная структура
Результат: 40% данных импортировались с ошибками. Месяц ручных правок, гнев клиентов, срыв сроков запуска.

Решение аналитика: Создать детальный контракт данных:

Маппинг каждого поля с правилами трансформации
Промежуточный слой валидации
Инструмент для предварительного тестирования миграции
📌 Правило: Интеграция — это не «скопировать данные», а гарантировать их семантическую корректность.

🧩 Кейс 3: «Общая база данных как точка краха»

Архитектурный антипаттерн: 5 микросервисов одной компании писали в одну базу common_db. Казалось логичным — «данные же общие».

Проблемы, которые проявились через год:

Схемные войны: Сервис A меняет таблицу — падает сервис B 🏗
Масштабирование невозможно: Все сервисы упираются в один ресурс
Аудит катастрофы: Кто сломал данные? Все и никто.
Что должен был предложить аналитика: Принцип владения данными:

У каждого сервиса своя БД
Обмен только через API или асинхронные события
Данные дублируются, если нужно (например, кэш заказов в сервисе доставки)
🎯 ЧЕК-ЛИСТ АНАЛИТИКА ПРИ ПРОЕКТИРОВАНИИ ИНТЕГРАЦИЙ:

1. Стратегия связи:

Синхронная (REST/gRPC) — для мгновенных ответов
Асинхронная (очереди/шины) — для фоновых процессов
Пакетная (ETL) — для больших объёмов
2. Контракт данных:

Форматы (JSON/XML/Protobuf) и их версии
Кодировки и стандарты дат/чисел
Обязательные vs опциональные поля 📝
3. Обработка сбоев:

Таймауты и retry policy (сколько раз, с каким интервалом)
Circuit breaker — отключать ли проблемный сервис?
Dead Letter Queue — куда складывать неудачные сообщения? 💀
4. Мониторинг:

Метрики latency, error rate, throughput
Алёртинг при деградации (не только при падении)
Дашборды здоровья интеграций 📊
5. Безопасность:

Аутентификация (API-ключи, OAuth, mTLS)
Шифрование передаваемых данных
Rate limiting и квоты 🔐
💡 ПРОФЕССИОНАЛЬНЫЙ ИНСАЙТ:

Лучшая интеграция — та, которой нет. Прежде чем проектировать связь между системами, спросите:

🎯 ИТОГ: Проектируя интеграцию, вы создаёте долгосрочные обязательства. Плохая интеграция — это технический долг с высокими процентами. Хорошая интеграция — это надёжный мост, по которому бизнес будет ездить годами.

#INTEGRATION
2
This media is not supported in your browser
VIEW IN TELEGRAM
Когда живешь с тем, кто работает на удаленке
😁5
📚 ПРОЧЕЕ #OTHER: ТАЙНЫ LEGACY-КОДА И ПОЧЕМУ АНАЛИТИК ДОЛЖЕН БЫТЬ ДЕТЕКТИВОМ

Привет, коллеги! 👋

Сегодня рубрика #OTHER — всё то, что не влезло в стандартные категории, но без чего системный аналитик не состоялся бы как профессионал. Речь пойдёт о работе с наследием (legacy). О тех моментах, когда документации нет, команда уволилась, а код молчит как рыба. 🕵️‍♂️

Готовы? Устраивайтесь поудобнее — будет история с реального проекта.

🕰 КЕЙС: «ПОТЕРЯННЫЙ МИР»

Контекст:
Крупный логистический оператор. Система управления заказами (1998 год постройки). Язык — Delphi, база — Oracle 9i. Автор системы уволился в 2005-м, документация — пара листов формата А4 с каракулями. Бизнес-процессы за 20 лет изменились до неузнаваемости, но система работает и её надо развивать. Задача: за месяц разобраться в логике расчёта стоимости доставки, чтобы переписать этот модуль на Java.

Первая мысль: «Открыть код и прочитать».
Реальность: 50 000 строк спагетти-кода, комментариев нет, имена переменных типа a1, xxx, superCalc. 🤯

🔎 РАССЛЕДОВАНИЕ: МЕТОД АНАЛИТИКА-ДЕТЕКТИВА

Я не программист, я аналитик. Значит, мой инструмент — не отладчик, а голова и коммуникации.

Шаг 1. Ищем живых свидетелей
Оказалось, в компании ещё работал технолог, который принимал ту систему 20 лет назад. Он помнил бизнес-логику:
*«Доставка по Москве считалась как вес * 15, но если суммарный вес больше 100 кг — дополнительный коэффициент 0,8»*.

📌 Вывод: 80% логики можно восстановить через экспертов, не глядя в код.

Шаг 2. Reverse engineering через данные
Мы выгрузили из базы 10 000 завершённых заказов: входные параметры (вес, габариты, регион) и итоговая стоимость. Построили модель машинного обучения (просто регрессию), которая предсказывала стоимость с точностью 97%. Затем проанализировали, какие признаки важны — так мы вычислили скрытые коэффициенты и формулы. 🧮

Шаг 3. Провокация системы
На тестовом контуре я отправлял «странные» заказы: отрицательный вес, нулевая стоимость, несуществующий регион. Смотрел, какие ошибки вылетают. Иногда ошибки содержали куски кода или названия процедур — это давало зацепки. Например, ошибка «Division by zero in CalculateRegionalCoefficient» подсказала название ключевого метода.

Шаг 4. Археология кода
Не читая всё подряд, я искал маркеры: названия полей из базы, константы, числа. Нашёл блок:

if Region in [1,3,5,7] then
Coef := 1.2
else
Coef := 1.5
Сверил с бизнес-правилами — оказалось, это надбавка за «дальнее Подмосковье».


Результат: Через 3 недели у меня была точная спецификация алгоритма на человеческом языке. Java-разработчик написал новый микросервис за 10 дней, тестирование на исторических данных показало 100% совпадение.

📦 ЧТО ЭТОТ КЕЙС ДАЁТ НАМ, АНАЛИТИКАМ?

1. Аналитик — не писарь, а исследователь
Ваша главная ценность — не в том, чтобы записать то, что говорят. А в том, чтобы докопаться до сути, когда никто не говорит или все забыли.

2. Инструменты бывают разными
SQL, Python, даже Excel — всё это оружие аналитика. В этом кейсе я использовал:

SQL для выгрузки данных 📊
линейную регрессию (sklearn) для обратного инжиниринга формул 🤖
Postman для «провокации» API 🧨
мозг и блокнот 🧠
3. Документация — живой организм
Если документации нет — создайте её сами. После проекта я написал Conceptual Specification на восстановленный модуль. Теперь система готова к эволюции.

4. Люди помнят не код, а смыслы
Общайтесь с ветеранами бизнеса, пока они не ушли. Записывайте интервью, рисуйте блок-схемы, перепроверяйте гипотезы через данные.

ЧЕК-ЛИСТ «LEGACY-ДЕТЕКТИВ» ДЛЯ АНАЛИТИКА

Найти экспертов, работавших с системой на старте
Собрать исторические данные (заказы, логи) — минимум 1000 записей
Проанализировать статистику: какие значения полей, диапазоны, частоты
Построить простую модель предсказания выходного параметра
Провести исследовательское тестирование (негативные сценарии, граничные значения)
Искать в коде ключевые слова из бизнес-лексикона
Фиксировать каждую находку в виде понятной бизнес-логики
Валидировать восстановленную логику с заказчиком

#OTHER
This media is not supported in your browser
VIEW IN TELEGRAM
Когда пришло письмо «Прошу подключиться к вопросу ниже»
📚 ПРОЧЕЕ #OTHER: КАК УБЕДИТЬ ЗАКАЗЧИКА, КОГДА ОН ТРЕБУЕТ НЕВОЗМОЖНОГО

Привет, коллеги! 👋

Сегодня в рубрике #OTHER поговорим о том, чему не учат на курсах по аналитике, но без чего вы не станете профессионалом — о переговорах и управлении ожиданиями. О том, как найти общий язык с заказчиком, когда его требования противоречат здравому смыслу, бюджету или законам физики. 🚧

Готовы? Поехали!

💥 КЕЙС: «САЙТ ДОЛЖЕН ЛЕТАТЬ, НО ДЕНЕГ НЕТ»

Контекст:
Разрабатываем интернет-магазин для крупного ритейлера. Заказчик — владелец бизнеса, человек эмоциональный, далёкий от IT. На одной из встреч он заявляет:

«Сайт должен грузиться за 0.5 секунды! Как у Google! И одновременно держать 100 000 посетителей. И сделать это надо за месяц, потому что через месяц — чёрная пятница». 🚀

Проблема:
Текущий бюджет — 2 миллиона рублей, команда — 5 человек. Реалистичная оценка: для таких характеристик нужна распределённая архитектура, CDN, кэширование, минимум 3 месяца и бюджет в 3-4 раза больше.

Задача аналитика:
Не сказать «это невозможно» и не согласиться на нереальные сроки, а донести реальность, сохранив отношения и предложив альтернативу.

🔧 ИНСТРУМЕНТЫ АНАЛИТИКА-ПЕРЕГОВОРЩИКА:

1. Данные и цифры — ваше оружие 📊
Я подготовил простую таблицу в Excel:

Текущая производительность их старого сайта: 3 секунды загрузки, падает при 5000 посетителей.
Метрики конкурентов (средние по рынку): 1.5-2 секунды.
Стоимость инфраструктуры для 0.5 секунд: расчёт количества серверов, балансировщиков, CDN.
Результат: Цифры отрезвляют лучше любых слов.

2. Перевод с «хотелок» на бизнес-цели 🎯

Я спросил: «Почему именно 0.5 секунды? Что это даст бизнесу?»
Оказалось, заказчик прочитал статью, что каждая секунда задержки снижает конверсию на 7%. Его реальная цель — максимизировать продажи в чёрную пятницу.

3. Предложение альтернатив (trade-offs) ⚖️

Вместо «невозможно» я предложил варианты:

Вариант А (идеальный): 3 месяца, 8 млн руб. — всё как просили.
Вариант Б (компромисс): 1.5 секунды загрузки, кэширование на CDN, масштабирование до 50 000 пользователей — за 2 месяца и 3.5 млн руб.

Вариант В (минимальный): быстрые победы — оптимизация картинок, сжатие, настройка кэша на сервере — 1 месяц, 2 млн руб., загрузка 2.5 секунды, но надёжность вырастет.

4. Визуализация последствий 📉
Я нарисовал простой график: зависимость времени загрузки от бюджета и сроков. Наглядно показал, что попытка вписаться в 0.5 секунд за месяц приведёт к срыву сроков или неработающему сайту.

🎯 ЧТО ЭТОТ КЕЙС ДАЁТ НАМ, АНАЛИТИКАМ?

1. Аналитик — это мост между бизнесом и технологией
Вы не просто записываете требования, вы переводите эмоции и хотелки в измеримые цели и реалистичные планы.

2. Цифры убеждают сильнее слов
Всегда подкрепляйте свои аргументы расчётами, графиками, сравнениями. Заказчик может спорить с мнением, но не с математикой.

3. Ищите истинную потребность
За каждым требованием стоит бизнес-цель. Найдите её — и сможете предложить альтернативные пути достижения.

4. Учитесь говорить «нет» через «да»
Не говорите «это невозможно». Говорите: «Да, мы можем это сделать, но для этого потребуется X ресурсов и Y времени. Если бюджет ограничен, можем предложить другой подход, который даст 80% результата за 50% стоимости».

ЧЕК-ЛИСТ «ПЕРЕГОВОРЫ С ЗАКАЗЧИКОМ»

Выясните реальную бизнес-цель за требованием
Соберите данные: текущие метрики, статистику, цены
Подготовьте 2-3 альтернативных сценария с разными trade-offs
Визуализируйте последствия каждого варианта
Не бойтесь задавать уточняющие вопросы
Фиксируйте достигнутые договорённости в протоколе
💬 ИТОГ:

Системный аналитик — это не просто человек, который пишет ТЗ. Это переговорщик, стратег и психолог в одном лице. Умение управлять ожиданиями и находить компромиссы часто важнее знания UML или SQL.

Помните: хороший аналитик делает так, чтобы и заказчик был доволен, и команда разработки могла спокойно работать.

#OTHER
2
📊 SQL ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КАК ЗАПРОСЫ ПОМОГАЮТ НАХОДИТЬ ПРОБЛЕМЫ БЫСТРЕЕ КОФЕ

Привет, коллеги! 👋

Многие думают, что SQL — это для разработчиков и администраторов баз данных. Но на самом деле SQL для аналитика — как микроскоп для биолога. Это инструмент, который позволяет увидеть реальную картину, проверить гипотезы и найти ошибки в требованиях ещё до того, как они уйдут в разработку. 🧐

Сегодня покажу на реальных кейсах, как простые SQL-запросы спасали проекты и помогали принимать правильные решения. Поехали! 🚀

🔍 КЕЙС 1: ДУБЛИКАТЫ, КОТОРЫХ НЕ ДОЛЖНО БЫТЬ

Ситуация:
На тестировании CRM-системы заметили, что некоторые клиенты получают по два одинаковых письма. Разработчики ищут баг в коде, тестировщики проверяют сценарии. Аналитик предлагает заглянуть в данные.

Запрос:

SELECT 
customer_id,
email,
COUNT(*) as duplicate_count
FROM customers
GROUP BY customer_id, email
HAVING COUNT(*) > 1
ORDER BY duplicate_count DESC;


Результат:
Нашлось 342 записи с одинаковыми customer_id! Оказалось, при интеграции с внешней системой дублировались импорты из-за отсутствия уникального ключа.

Вывод:
Проблема была не в коде, а в процессе загрузки данных. Аналитик инициировал изменение интеграции и очистку дублей. Баг исчез до того, как разработчики начали искать его в логике приложения.

🎯 Что дал SQL:
Сэкономил неделю бесполезных поисков в коде и указал на реальную причину.

📉 КЕЙС 2: «НЕВОЗМОЖНЫЕ» СКИДКИ

Ситуация:
В интернет-магазине маркетологи запустили акцию: «Скидка 20% на второй товар в заказе». Через месяц финансисты заметили, что средний чек упал, а количество заказов не выросло.

Гипотеза:
Возможно, скидка применяется неправильно. Аналитик решил проверить на реальных данных.

Запрос:

SELECT 
order_id,
SUM(item_price) as total_price,
SUM(discount_amount) as total_discount,
CASE
WHEN SUM(discount_amount) > SUM(item_price) * 0.3 THEN 'Подозрительно много'
WHEN SUM(discount_amount) = 0 THEN 'Без скидки'
ELSE 'Нормально'
END as discount_check
FROM order_items
WHERE order_date >= '2024-10-01'
GROUP BY order_id
HAVING SUM(discount_amount) > SUM(item_price) * 0.3
ORDER BY total_discount DESC;


Результат:
Нашлись заказы, где скидка составляла 70-80% от суммы! Причина: в коде скидка применялась к каждому товару, а не ко второму. Баг в бизнес-логике, заложенной в ТЗ, но никто не проверял данные.

Вывод:
SQL помог обнаружить ошибку в требованиях на ранних данных. Акцию приостановили, переписали логику, потери составили всего 2 дня вместо месяца убытков.

📈 КЕЙС 3: ПОЧЕМУ ОТЧЁТ ТОРМОЗИТ 40 МИНУТ

Ситуация:
Руководитель жалуется: ежедневный отчёт по продажам формируется 40 минут. Разработчики предлагают купить более мощный сервер. Аналитик просит показать запрос.

Исходный запрос (упрощённо):

SELECT 
customer_id,
(SELECT COUNT(*) FROM orders o2 WHERE o2.customer_id = o1.customer_id) as total_orders,
(SELECT SUM(amount) FROM payments p WHERE p.order_id IN
(SELECT order_id FROM orders o3 WHERE o3.customer_id = o1.customer_id)
) as total_paid
FROM customers o1
WHERE created_at >= '2024-01-01';


Проблема:
Подзапросы выполняются для каждой строки — это миллионы обращений к таблицам.

Оптимизированный запрос:

SELECT 
c.customer_id,
COUNT(DISTINCT o.order_id) as total_orders,
SUM(p.amount) as total_paid
FROM customers c
LEFT JOIN orders o ON c.customer_id = o.customer_id
LEFT JOIN payments p ON o.order_id = p.order_id
WHERE c.created_at >= '2024-01-01'
GROUP BY c.customer_id;


Результат:
Время выполнения упало с 40 минут до 8 секунд. Никакого нового сервера не понадобилось.

Вывод:
Аналитик, понимающий SQL, спас компанию от ненужных трат на железо и сделал отчёт мгновенным.

💡 ИТОГ:

SQL для системного аналитика — это не просто «плюшка в резюме», а рабочий инструмент, который:

Экономит время команды
Спасает от ошибок в требованиях
Даёт факты вместо догадок
Повышает ваш профессиональный уровень

#SQL
1👍1
🧪 #TESTING ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КАК ПОМОЧЬ QA НАЙТИ БАГИ ЕЩЁ ДО КОДА

Привет, коллеги! 👋 Многие думают: «Тестирование — забота QA, аналитик написал требования и забыл». Но аналитик и тестировщик — два сапёра в одном минном поле. Покажу на реальных кейсах, как аналитик усиливает тестирование. Поехали! 🚀

🐛 КЕЙС 1: «ЭТО НЕ БАГ, ЭТО ФИЧА?» — КОГДА ТРЕБОВАНИЯ ВРУТ

Ситуация: В ТЗ: «Дата рождения в формате ДД.ММ.ГГГГ». Всё работает, но в базе каша — пользователи вводили через слеш.

Что должен был сделать аналитик:
Заложить валидацию на бэкенде и критерии приёмки:

1. Только формат DD.MM.YYYY
2. Ошибка при неверном формате
3. В БД тип DATE


Код для автотеста:

def test_birth_date_format():
response = client.post("/profile", json={"birth_date": "01/01/1990"})
assert response.status_code == 400


📊 КЕЙС 2: SQL КАК ИНСТРУМЕНТ ВАЛИДАЦИИ ЛОГИКИ

Ситуация: Акция «третий товар со скидкой 15%». Тесты проходят, но в 5% заказов скидка на первый товар, а не на самый дорогой.

Аналитик проверил SQL:

SELECT order_id, CASE WHEN SUM(discount) != MAX(price)*0.15 
THEN 'Ошибка' END as check
FROM order_items GROUP BY order_id HAVING COUNT(*)>=3;


Вывод: Аналитик нашёл баг, невидимый в тестовых данных.

📝 КЕЙС 3: JSON-СХЕМА КАК КОНТРАКТ

Ситуация: В интеграции поле phone передали числом, а сервис ждал строку — доставки встали.

Аналитик внёс JSON Schema:

{
"type": "object",
"properties": {
"phone": {"type": "string", "pattern": "^\\+7\\d{10}$"}
}
}


Автотест:

``python
validate(instance=response, schema=schema)
```

Ошибка ловится автоматически.

ЧЕК-ЛИСТ АНАЛИТИКА:

Acceptance Criteria с примерами
Таблицы решений для сложной логики
Граничные значения
Примеры запросов/ответов
Негативные сценарии

🎯 ИТОГ: Хороший аналитик проектирует тестируемую систему. Тогда QA ловит баги до релиза, а не пользователи на проде.

#TESTING
🥰1
🧪 #TESTING ДЛЯ СИСТЕМНОГО АНАЛИТИКА: КАК ПОМОЧЬ QA
Привет, коллеги! 👋 Аналитик и тестировщик — два сапёра в одном минном поле. Если аналитик плохо заложил логику, QA будет искать баги бесконечно. Покажу на реальных кейсах, как усилить тестирование. 🚀

🐛 КЕЙС 1: «ЭТО НЕ БАГ, ЭТО ФИЧА?»

Ситуация: В ТЗ: «Дата рождения в формате ДД.ММ.ГГГГ». Всё работает, но в базе каша — пользователи вводили через слеш.

Что должен был сделать аналитик:

Acceptance Criteria:
1. Только формат DD.MM.YYYY
2. Ошибка при неверном формате
3. В БД тип DATE


Код для автотеста:

def test_birth_date_format():
response = client.post("/profile", json={"birth_date": "01/01/1990"})
assert response.status_code == 400


📊 КЕЙС 2: SQL КАК ИНСТРУМЕНТ ВАЛИДАЦИИ

Ситуация: Акция «третий товар со скидкой 15%». Тесты проходят, но в 5% заказов скидка на первый товар.

Аналитик проверил SQL:

SELECT order_id, CASE WHEN SUM(discount) != MAX(price)*0.15 
THEN 'Ошибка' END as check
FROM order_items GROUP BY order_id HAVING COUNT(*)>=3;


Вывод: Аналитик нашёл баг, невидимый в тестовых данных.

📝 КЕЙС 3: JSON-СХЕМА КАК КОНТРАКТ

Ситуация: В интеграции поле phone передали числом, а сервис ждал строку — доставки встали.

Аналитик внёс JSON Schema:

{
"properties": {
"phone": {"type": "string", "pattern": "^\\+7\\d{10}$"}
}
}


Автотест:

``python
validate(instance=response, schema=schema)
```

ЧЕК-ЛИСТ АНАЛИТИКА:

🚀Acceptance Criteria с примерами
💻Таблицы решений
💻Граничные значения
💻Примеры запросов/ответов
💻Негативные сценарии

🎯 ИТОГ: Хороший аналитик проектирует тестируемую систему. Тогда QA ловит баги до релиза.

#TESTING
Please open Telegram to view this post
VIEW IN TELEGRAM