Это ансамблевый метод, который комбинирует множество слабых моделей (обычно деревьев решений) для улучшения качества предсказаний:
1. Первая модель предсказывает исходные данные, а остатки ошибок передаются следующей.
2. Каждое новое дерево обучается на ошибках предыдущих, уменьшая отклонения.
3. Градиентный спуск минимизирует ошибку, выбирая оптимальные веса.
4. Итоговое предсказание – это взвешенная сумма предсказаний всех деревьев.
Градиентный бустинг хорошо работает с нелинейными зависимостями и устойчив к выбросам.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
2%
Логистическая регрессия
7%
Decision Tree
52%
LDA (Latent Dirichlet Allocation)
39%
TF-IDF
Anonymous Quiz
37%
Oversampling
4%
Undersampling
47%
SMOTE
11%
Class Weighing
💊7
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
4%
Линейная регрессия
53%
Полиномиальная регрессия
34%
Случайный лес
9%
Логистическая регрессия
Anonymous Quiz
34%
Логистическая регрессия
5%
K-ближайших соседей
5%
Метод опорных векторов
56%
Наивный байесовский классификатор
💊2
o Используется для группировки данных в кластеры на основе схожести.
o Это алгоритм обучения без учителя.
o Результат — центры кластеров, данные распределяются вокруг них.
2. KNN (K-Nearest Neighbors):
o Алгоритм классификации или регрессии, находящий ближайших соседей для прогнозирования.
o Это алгоритм обучения с учителем.
o Результат зависит от разметки данных (меток классов).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
28%
Regularization
50%
LIME
10%
Gradient Boosting
12%
Cross-Validation
Anonymous Quiz
62%
isnan
36%
isnull
2%
nancheck
0%
hasnull
💊10🤔5
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
60%
Bagging
27%
Boosting
9%
Gradient Descent
5%
Cross-Validation
Anonymous Quiz
9%
Random Forest
12%
Decision Tree
74%
RNN
6%
K-means
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
27%
Min-Max Scaling
66%
Z-score Normalization
5%
PCA
3%
LDA
Anonymous Quiz
23%
Ridge Regression
23%
Lasso Regression
46%
Bagging
7%
PCA
Высокая систематическая ошибка (bias) уменьшает сложность модели, но снижает точность, а высокая дисперсия (variance) приводит к переобучению. Баланс между ними важен для оптимальной работы модели.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
19%
K-средние
41%
Изолирующий лес
13%
Метод ближайших соседей
26%
One-Class SVM
Anonymous Quiz
6%
Data Augmentation
9%
Gradient Boosting
71%
Regularization
14%
Batch Normalization
👍1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
87%
Cross-validation
6%
Bootstrap
5%
Holdout Method
1%
ROC Curve Analysis