Anonymous Quiz
71%
L1-регуляризация
21%
L2-регуляризация
3%
Dropout
5%
Batch Normalization
• Постановка задачи (классификация, регрессия, кластеризация).
• Подготовка данных (очистка, масштабирование, выделение признаков).
• Выбор и настройка модели, а также оптимизация гиперпараметров.
• Оценка результатов (использование метрик качества и валидации).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
33%
Lasso
11%
Ridge
14%
Elastic Net
42%
All of the above
🔥2
Anonymous Quiz
68%
SGD
24%
SGD
2%
v3. K-means
6%
DBSCAN
💊9
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
80%
PCA (метод главных компонент)
18%
SVM (метод опорных векторов)
2%
Линейная регрессия
1%
k-средних
💊6
Anonymous Quiz
13%
Метод нормализации данных
66%
Внутренний метод проверки модели
5%
Алгоритм кластеризации
17%
Способ уменьшения размерности
Градиентное затухание (vanishing gradients) — это проблема, когда в глубоких нейросетях градиенты становятся очень малыми при обратном распространении.
Это мешает обновлению весов в начальных слоях, и обучение "замирает".
Чаще всего возникает в RNN и в сетях с плохой инициализацией или неподходящей функцией активации.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
86%
Latent Dirichlet Allocation (LDA)
5%
Linear Regression
2%
Decision Trees
7%
K-nearest neighbors (KNN)
Anonymous Quiz
2%
Точность
11%
F1-score
10%
ROC AUC
78%
Кросс-валидация
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
10%
Линейная регрессия
6%
K-ближайших соседей
4%
Метод опорных векторов
79%
Наивный байесовский классификатор
Anonymous Quiz
7%
Decision Tree
11%
Логистическая регрессия
67%
Isolation Forest
15%
Автоэнкодеры
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
90%
SMOTE
6%
K-means
1%
Decision Tree
4%
Naive Bayes
👍1
Anonymous Quiz
4%
Линейная регрессия
61%
Логистическая регрессия
10%
PCA
25%
K-means
🤔1
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
69%
Bagging
13%
Boosting
14%
Stacking
4%
Dropout
💊1
Anonymous Quiz
17%
Логистическая регрессия
19%
Метод ближайших соседей
64%
Деревья решений
0%
Линейная регрессия
Это вероятность получить значение настолько же экстремальное, как наблюдаемое, при условии, что оно принадлежит общему распределению.
Чем меньше p-value, тем выше вероятность, что точка — выброс.
Значение зависит от метода (Grubbs, Dixon, Z-score и др.). Обычно, если p < 0.05, точка может считаться выбросом.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
39%
Bagging
35%
Boosting
20%
Stacking
6%
Pruning
💊2