AdaBoost, Gradient Boosting, XGBoost, CatBoost и LightGBM. Они различаются производительностью и подходами к построению деревьев.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
72%
SMOTE
19%
PCA
5%
K-means
4%
Логистическая регрессия
Anonymous Quiz
64%
Bagging
20%
Stacking
12%
Boosting
4%
Dropout
💊13
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Anonymous Quiz
64%
StandardScaler
20%
MinMaxScaler
8%
RobustScaler
8%
Normalizer
💊7
Anonymous Quiz
73%
Gini Importance
9%
Gradient Descent
7%
Mean Squared Error
10%
Cross-Validation
1. Высокое значение IV говорит о сильной связи между признаком и целевой переменной.
2. Часто используется в кредитном скоринге для выбора наиболее значимых признаков.
3. Значения IV помогают определить, какие признаки следует включить в модель, а какие можно исключить.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
5%
Линейная регрессия
59%
Полиномиальная регрессия
24%
Градиентный бустинг
11%
K-ближайших соседей
💊13
Anonymous Quiz
78%
pivot_table
8%
groupby
10%
merge
4%
concat
🔥1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
46%
Bagging
41%
Boosting
11%
Gradient Descent
2%
Pruning
Anonymous Quiz
63%
SGD
26%
SGD
3%
v3. K-means
8%
DBSCAN
💊20
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
66%
Метод главных компонент (PCA)
13%
Линейная дискриминантная анализа (LDA)
21%
Т-распределенная стохастическая соседская эмуляМетод ближайших соседей (k-NN)ция (t-SNE)
Anonymous Quiz
0%
Линейная регрессия
2%
K-means
91%
N-grams
7%
Логистическая регрессия
Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
3%
Логистическая регрессия
2%
Метод опорных векторов
94%
Наивный байесовский классификатор
0%
Случайный лес
Anonymous Quiz
9%
Нормализация
2%
Стандартизация
87%
One-hot кодировка
1%
Логарифмирование
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
46%
Ridge Regression
43%
Lasso Regression
5%
Elastic Net
5%
Dropout