Anonymous Quiz
60%
Bagging
29%
Boosting
5%
Stacking
5%
Gradient Descent
Anonymous Quiz
51%
Bagging
22%
Boosting
18%
Stacking
8%
Dropout
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
11%
Градиентный бустинг
5%
Бэггинг
81%
Feature Importance
3%
K-ближайших соседей
Anonymous Quiz
86%
ROC-кривая
6%
K-means
4%
PCA
4%
Логистическая регрессия
💊2
1. В SQL — фильтрует строки, соответствующие критериям.
2. В NumPy — выбирает элементы массива по условию или заменяет значения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
7%
Линейная регрессия
70%
DBSCAN
13%
PCA
10%
AdaBoost
Anonymous Quiz
6%
Градиентный спуск
21%
Стохастический градиентный спуск
73%
Random Search
0%
K-means
🤔2
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
17%
RandomUnderSampler
65%
SMOTE
15%
CrossValidation
4%
PCA
Anonymous Quiz
8%
Gradient Descent
18%
Forward Selection
64%
Permutation Importance
10%
Backpropagation
2. Сложности с применением в рекуррентных сетях: последовательность данных может вызывать проблемы с нормализацией.
3. Увеличение вычислительных затрат: дополнительные параметры и операции замедляют обучение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
6%
K-Means
31%
Random Forest
23%
Naive Bayes
40%
Decision Tree
🤔1
Anonymous Quiz
28%
Бэггинг
69%
Стеккинг
1%
K-means
1%
Т-SNE
Это вероятность получить значение настолько же экстремальное, как наблюдаемое, при условии, что оно принадлежит общему распределению.
Чем меньше p-value, тем выше вероятность, что точка — выброс.
Значение зависит от метода (Grubbs, Dixon, Z-score и др.). Обычно, если p < 0.05, точка может считаться выбросом.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
78%
SMOTE
4%
K-means
6%
PCA
13%
Random Forest
Anonymous Quiz
91%
Normalization
2%
K-means
6%
PCA
1%
Логистическая регрессия
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
64%
Bagging
25%
Boosting
8%
Stacking
3%
Gradient Descent
Anonymous Quiz
37%
Cross-validation
6%
Bootstrap
52%
Train-Test Split
6%
A/B Testing
💊2