Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
67%
SMOTE
12%
РCA
13%
T-SNE
7%
K-means
Anonymous Quiz
3%
Линейная регрессия
86%
Метод главных компонент (PCA)
7%
Полиномиальная регрессия
4%
Логистическая регрессия
🤔2
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Anonymous Quiz
6%
Линейная регрессия
6%
K-ближайших соседей
8%
Метод опорных векторов
79%
Наивный байесовский классификатор
Anonymous Quiz
24%
Batch Normalization
5%
Dropout
70%
Data Augmentation
1%
Early Stopping
💊40
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
💊16🤔2🔥1
Anonymous Quiz
19%
Genetic Algorithm
48%
Simulated Annealing
16%
Gradient Descent
18%
Particle Swarm
🤔9💊3
Anonymous Quiz
6%
Линейная регрессия
72%
Метод опорных векторов (SVM)
13%
Логистическая регрессия
10%
K-means
ROC-AUC останется неизменной, если алгоритм сохраняет порядок вероятностей, так как метрика основывается на ранжировании. При нарушении порядка вероятностей, например, из-за некорректной трансформации, значение ROC-AUC снизится.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
22%
DBSCAN
33%
K-means
42%
k-NN
3%
PCA
💊7
Anonymous Quiz
41%
PCA
41%
Feature Scaling
13%
Random Forest
5%
Standardization
💊19👍1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
53%
Bagging
27%
Boosting
8%
Stacking
11%
Gradient Descent
👍1
Anonymous Quiz
86%
StandardScaler()
7%
OneHotEncoder()
1%
KMeans()
6%
PCA()
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
8%
Accuracy
8%
Precision
9%
Recall
75%
F1-score
Anonymous Quiz
18%
PCA
11%
LDA
28%
T-SNE
43%
Isomap
Градиентное затухание (vanishing gradients) — это проблема, когда в глубоких нейросетях градиенты становятся очень малыми при обратном распространении.
Это мешает обновлению весов в начальных слоях, и обучение "замирает".
Чаще всего возникает в RNN и в сетях с плохой инициализацией или неподходящей функцией активации.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Anonymous Quiz
1%
Линейная регрессия
16%
Логистическая регрессия
69%
Метод опорных векторов с ядром (SVM)
14%
K-means