Data Science | Тесты
2.51K subscribers
25 photos
351 links
Cайт easyoffer.ru
Реклама @easyoffer_adv
ВП @easyoffer_vp

Вопросы собесов t.me/+RQVnIJT__Z42ZWUy
Вакансии t.me/+Ir52wMvyEgo5YWIy
Download Telegram
🤔 Какой метод часто применяют для анализа временных рядов?
Anonymous Quiz
86%
ARIMA
6%
K-means
2%
PCA
6%
Линейная регрессия
🤔 Как обучается модель?

Процесс обучения модели машинного обучения включает:
1. Предобработку данных – нормализация, удаление выбросов, кодирование категориальных признаков.
2. Выбор модели – линейная регрессия, дерево решений, нейросети и т. д.
3. Разделение данных – обучение (train), валидация (validation), тестирование (test).
4. Оптимизация параметров – подбор коэффициентов с помощью градиентного спуска или других методов.
5. Оценка качества – использование метрик (MSE, Accuracy, ROC-AUC).
Модель обучается за счет минимизации функции потерь и корректировки параметров.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
🤔 Какой метод уменьшает дисперсию в модели, уменьшая переобучение?
Anonymous Quiz
27%
Cross-Validation
39%
Bagging
11%
Early Stopping
24%
Dropout
🤔6
🤔 Какой метод уменьшает переобучение, сохраняя важные признаки?
Anonymous Quiz
22%
Ridge
53%
Lasso
13%
Elastic Net
13%
PCA
🤔3
🤔 Как работает градиентный бустинг регрессор?

Это ансамблевый метод, который комбинирует множество слабых моделей (обычно деревьев решений) для улучшения качества предсказаний:
1. Первая модель предсказывает исходные данные, а остатки ошибок передаются следующей.
2. Каждое новое дерево обучается на ошибках предыдущих, уменьшая отклонения.
3. Градиентный спуск минимизирует ошибку, выбирая оптимальные веса.
4. Итоговое предсказание – это взвешенная сумма предсказаний всех деревьев.
Градиентный бустинг хорошо работает с нелинейными зависимостями и устойчив к выбросам.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой метод уменьшает смещение и дисперсию в модели случайного леса?
Anonymous Quiz
62%
Bagging
19%
Boosting
9%
Gradient Descent
11%
Pruning
🤔 Какой метод уменьшает смещение в ансамблевых методах?
Anonymous Quiz
38%
Bagging
44%
Boosting
14%
Stacking
3%
Pruning
🤔 В чем преимущество медианы над средним?

Медиана менее чувствительна к выбросам, чем среднее (mean):
- Среднее (Mean) – учитывает все значения, поэтому искажается выбросами.
- Медиана (Median) – просто находит центральное значение в упорядоченном ряду, игнорируя крайние выбросы.
Медиана особенно полезна при распределении доходов, цен, длительностей и других данных с выбросами.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1
🤔 Какой метод уменьшает дисперсию в модели глубокого обучения?
Anonymous Quiz
57%
Dropout
4%
Early Stopping
37%
Batch Normalization
3%
Data Augmentation
🤔 Какой метод уменьшает дисперсию в линейной регрессии?
Anonymous Quiz
31%
Lasso
39%
Ridge
15%
PCA
15%
Elastic Net
🤔 Что такое градиентный спуск?

Это оптимизационный алгоритм, минимизирующий функцию потерь путем движения в сторону наибольшего уменьшения ошибки:
1. Инициализация случайными параметрами.
2. Вычисление градиента функции потерь по параметрам модели.
3. Обновление параметров модели в направлении, противоположном градиенту (шаг вниз по наклону).
4. Повторение процесса до сходимости или достижения минимальной ошибки.
Градиентный спуск бывает обычный (Batch), стохастический (SGD) и мини-батч.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🤔 Какой метод уменьшает смещение и дисперсию в градиентном бустинге?
Anonymous Quiz
20%
Learning Rate
33%
Bagging
3%
Pruning
43%
Regularization
🤔 Какой метод уменьшает дисперсию, используя ансамблевое обучение?
Anonymous Quiz
53%
Bagging
10%
Stacking
24%
Boosting
13%
Random Forest
🤔 Какие значения может давать предсказание модели?

- Классификация – дискретные категории (0/1, "Кошка" или "Собака").
- Регрессия – непрерывные числа (цены, температуры).
- Вероятности – от 0 до 1, если модель использует Softmax или Sigmoid.
Выбор типа предсказаний зависит от задачи и модели.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой метод уменьшает переобучение в глубоких нейронных сетях?
Anonymous Quiz
67%
Dropout
19%
Batch Normalization
10%
Early Stopping
4%
Gradient Clipping
🤔 Какой метод уменьшает смещение при работе с несбалансированными данными?
Anonymous Quiz
18%
Oversampling
44%
Class Weighing
31%
SMOTE
7%
Undersampling
💊2
🤔 Как валидировать временные ряды?

Временные ряды требуют специальной стратегии валидации, так как классическое разбиение данных на train/test не подходит. Основные методы:
- Time-based Split – тестовая выборка содержит только будущие данные, исключая утечки информации.
- Rolling Validation (скользящее окно) – обучаем на данных до момента tt, тестируем на интервале t+1t+1.
- Expanding Window Validation – постепенно увеличиваем обучающую выборку, добавляя новые данные.
- Walk Forward Validation – прогнозируем один шаг вперёд, затем обновляем модель.
Эти методы помогают адекватно оценить модель без утечек информации.


Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🤔 Какой метод уменьшает смещение и дисперсию в модели SVM?
Anonymous Quiz
21%
Cross-Validation
7%
Grid Search
42%
Regularization
31%
Kernel Trick
👍1🔥1
Forwarded from easyoffer
На easyoffer 2.0 появится:
🎯 Тренажер "Проработка вопросов"

Метод интервальных повторений и флеш-карточки
Персональный подход изучения на основе ваших ответов
Упор на самые частые вопросы

📌 Интервальные повторения по карточкам это научно доказанный метод эффективного обучения. Каждая карточка – это вопрос, который задают на собеседовании, вы можете выбрать "Не знаю", "Знаю", "Не спрашивать". После ответа вам показывается правильный ответ и возможность изучить вопрос подробнее (примеры ответов других людей). От ваших ответов зависит то, как часто карточки будут показываться на следующей тренировке. Трудные вопросы показываются чаще, простые – реже. Это позволяет бить в слабые места. Кроме того, изначальный порядок карточек зависит от частотности (вероятности встретить вопрос).

🚀 Благодаря этому тренажеру вы сможете очень быстро подготовиться к собеседованию, т.к. фокусируетесь отвечать на самые частые вопросы. Именно так готовился я сам, когда искал первую работу программистом.

Уже в течение недели я объявлю о старте краудфандинговой кампании на сбор финансирования, чтобы ускорить разработку сайта. Все кто поддержит проект до официального релиза получат самые выгодные условия пользования сервисом. А именно 1 год доступа к сайту по цене месячной подписки.

‼️ Очень важно, чтобы как можно больше людей поддержали проект в первые дни, по-этому те кто окажет поддержку первыми получат еще более выгодную стоимость на годовую подписку и существенный 💎 бонус о котором я позже расскажу в этом телеграм канале. Подписывайтесь, чтобы узнать о старте проекта раньше других и воспользоваться лимитированными вознаграждениями.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔 Какой метод уменьшает смещение и дисперсию в градиентном бустинге?
Anonymous Quiz
21%
Learning Rate
28%
Bagging
11%
Pruning
40%
Regularization