Классификация определяет категории, а регрессия – непрерывные значения. Например, классификация предсказывает класс, а регрессия – числовой результат.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Anonymous Quiz
16%
Batch Normalization
4%
Early Stopping
76%
Dropout
4%
Gradient Clipping
Anonymous Quiz
78%
Бэггинг
3%
K-means
14%
PCA
5%
Логистическая регрессия
P-value показывает вероятность получения текущих результатов при условии, что нулевая гипотеза верна. Если P-value ниже уровня значимости, нулевая гипотеза отвергается.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Anonymous Quiz
73%
Prophet
8%
K-means
6%
PCA
14%
Линейная регрессия
Anonymous Quiz
17%
PCA
25%
Lasso
45%
Elastic Net
13%
Ridge
ReBERT оптимизирует обработку текстов с учетом контекста, а ArbitAS – задач диалогов и генерации текста.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4
Anonymous Quiz
70%
Bagging
16%
Boosting
8%
Pruning
7%
Cross-Validation
Anonymous Quiz
39%
SMOTE
20%
Oversampling
5%
Undersampling
36%
Class Weighing
loc используется для обращения по именам индексов, а iloc – для работы с позициями строк и столбцов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥2
Anonymous Quiz
79%
SMOTE
7%
K-means
14%
PCA
0%
Линейная регрессия
Anonymous Quiz
87%
MSE
1%
K-means
3%
PCA
8%
Логистическая регрессия
😁1
AdaBoost, Gradient Boosting, XGBoost, CatBoost и LightGBM. Они различаются производительностью и подходами к построению деревьев.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
47%
Dropout
40%
Batch Normalization
8%
Gradient Clipping
5%
Data Augmentation
Anonymous Quiz
26%
Cross-Validation
34%
Bagging
15%
Early Stopping
25%
Dropout
Adam часто используется из-за адаптивного шага обучения. SGD предпочтителен для больших данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
60%
t-SNE
14%
K-means
24%
PCA
2%
Логистическая регрессия
Anonymous Quiz
85%
F1-мера
9%
K-means
3%
PCA
2%
Логистическая регрессия
StandardScaling сохраняет распределение данных, что важно для моделей, чувствительных к стандартному отклонению, тогда как MinMaxScaling может искажать распределение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Anonymous Quiz
49%
Bagging
6%
Pruning
29%
Boosting
15%
Stacking