Anonymous Quiz
59%
Bagging
30%
Boosting
5%
Stacking
5%
Gradient Descent
Anonymous Quiz
50%
Bagging
24%
Boosting
18%
Stacking
8%
Dropout
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
10%
Градиентный бустинг
6%
Бэггинг
80%
Feature Importance
4%
K-ближайших соседей
Anonymous Quiz
86%
ROC-кривая
7%
K-means
3%
PCA
3%
Логистическая регрессия
💊2
1. В SQL — фильтрует строки, соответствующие критериям.
2. В NumPy — выбирает элементы массива по условию или заменяет значения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
7%
Линейная регрессия
70%
DBSCAN
13%
PCA
9%
AdaBoost
Anonymous Quiz
5%
Градиентный спуск
22%
Стохастический градиентный спуск
72%
Random Search
1%
K-means
🤔2
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
16%
RandomUnderSampler
65%
SMOTE
16%
CrossValidation
4%
PCA
Anonymous Quiz
8%
Gradient Descent
18%
Forward Selection
65%
Permutation Importance
9%
Backpropagation
2. Сложности с применением в рекуррентных сетях: последовательность данных может вызывать проблемы с нормализацией.
3. Увеличение вычислительных затрат: дополнительные параметры и операции замедляют обучение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
5%
K-Means
33%
Random Forest
23%
Naive Bayes
39%
Decision Tree
🤔1
Anonymous Quiz
27%
Бэггинг
69%
Стеккинг
2%
K-means
2%
Т-SNE
Это вероятность получить значение настолько же экстремальное, как наблюдаемое, при условии, что оно принадлежит общему распределению.
Чем меньше p-value, тем выше вероятность, что точка — выброс.
Значение зависит от метода (Grubbs, Dixon, Z-score и др.). Обычно, если p < 0.05, точка может считаться выбросом.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
77%
SMOTE
5%
K-means
6%
PCA
13%
Random Forest
Anonymous Quiz
91%
Normalization
3%
K-means
6%
PCA
1%
Логистическая регрессия
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
64%
Bagging
26%
Boosting
7%
Stacking
4%
Gradient Descent
Anonymous Quiz
33%
Cross-validation
5%
Bootstrap
58%
Train-Test Split
4%
A/B Testing
💊5