Библиотека собеса по Data Science | вопросы с собеседований
4.31K subscribers
441 photos
10 videos
1 file
455 links
Вопросы с собеседований по Data Science и ответы на них.

По рекламе: @proglib_adv

Учиться у нас: https://proglib.io/w/7dfb7235

Для обратной связи: @proglibrary_feeedback_bot

Наши каналы: https://t.me/proglibrary/9197
Download Telegram
🆕 Зачем анализировать не только финальные предсказания модели, но и её промежуточные представления (features, embeddings)

Промежуточные представления дают понимание того, как именно модель «видит» данные.

Иногда модель может давать правильные предсказания, но по неправильным причинам — например, полагаясь на артефакты или коррелирующие, но не причинно значимые признаки. Анализ внутренних слоёв, embeddings и attention-механизмов позволяет выявить такие ложные зависимости до того, как они станут проблемой в продакшене. Кроме того, визуализация или кластеризация представлений может подсказать новые инсайты о данных: скрытые сегменты, шум, смещения.

Это особенно ценно при работе с «чёрными ящиками» вроде глубоких нейросетей — заглянуть внутрь, чтобы понять, что модель действительно «учится», а не просто запоминает.

Библиотека собеса по Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3
🫣 Боитесь математики в ML?

Думаете, для этого нужно вспоминать университетские интегралы и решать сложные уравнения?

У нас хорошая новость: машинное обучение — это в первую очередь инженерная практика, а не математическая олимпиада. Здесь важнее понимать суть, а не выводить формулы.

Именно на таком подходе — через логику, интуицию и наглядные примеры — и построен наш курс «ML для старта в Data Science», где мы объясняем всё на пальцах, без боли и зубрёжки.

Регистрируйтесь, пока есть свободные места 😉
💡 Как связаны ошибки первого и второго рода с precision, recall и ROC-кривой

Ошибки первого рода (ложноположительные) и второго рода (ложноотрицательные) напрямую отражаются в метриках:

➡️ Recall (чувствительность) — показывает, какую долю настоящих положительных случаев модель нашла. Повышая recall, мы уменьшаем ошибки второго рода, но можем увеличить ошибки первого рода — то есть начать «ловить» ложные срабатывания.

➡️ Precision (точность) — показывает, какую долю из предсказанных положительных случаев действительно являются таковыми. Чем выше precision, тем меньше ошибок первого рода.

➡️ ROC-кривая отображает компромисс между True Positive Rate (Recall) и False Positive Rate (ошибка первого рода) при разных порогах. Она помогает выбрать рабочую точку модели в зависимости от цены каждой из ошибок.

📌 Важно: выбор между precision и recall зависит от задачи. В медицине критичнее не пропустить заболевание (минимизировать ошибку второго рода), а в спаме — не ошибаться с лишними срабатываниями (ошибки первого рода).

Библиотека собеса по Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
1