1. Использовать метод бутстрепинга для повторного выборочного моделирования.
2. Рассчитать параметры распределения (среднее, дисперсию) и использовать их для генерации данных.
3. Применить библиотеки, например, numpy.random для моделирования нужного распределения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Anonymous Quiz
2%
Линейная регрессия
4%
Логистическая регрессия
81%
Метод опорных векторов (SVM)
13%
K-means
Anonymous Quiz
14%
Lasso
7%
Ridge
76%
Elastic Net
3%
PCA
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
10%
Точность модели
86%
Площадь под кривой ROC
1%
Временную сложность алгоритма
2%
Количество ошибок модели
💊1
Anonymous Quiz
7%
Линейная регрессия
65%
Метод опорных векторов (SVM)
7%
Логистическая регрессия
21%
K-средние
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
43%
Bagging
21%
Boosting
21%
Stacking
15%
Ensembling
💊12🤔2
Anonymous Quiz
30%
Random Forest
8%
K-Means
13%
Gradient Descent
49%
PCA
💊9
Это ансамблевый метод, который комбинирует множество слабых моделей (обычно деревьев решений) для улучшения качества предсказаний:
1. Первая модель предсказывает исходные данные, а остатки ошибок передаются следующей.
2. Каждое новое дерево обучается на ошибках предыдущих, уменьшая отклонения.
3. Градиентный спуск минимизирует ошибку, выбирая оптимальные веса.
4. Итоговое предсказание – это взвешенная сумма предсказаний всех деревьев.
Градиентный бустинг хорошо работает с нелинейными зависимостями и устойчив к выбросам.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
2%
Логистическая регрессия
7%
Decision Tree
52%
LDA (Latent Dirichlet Allocation)
39%
TF-IDF
Anonymous Quiz
37%
Oversampling
4%
Undersampling
47%
SMOTE
11%
Class Weighing
💊7
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
4%
Линейная регрессия
53%
Полиномиальная регрессия
34%
Случайный лес
9%
Логистическая регрессия
Anonymous Quiz
34%
Логистическая регрессия
5%
K-ближайших соседей
5%
Метод опорных векторов
56%
Наивный байесовский классификатор
💊2
o Используется для группировки данных в кластеры на основе схожести.
o Это алгоритм обучения без учителя.
o Результат — центры кластеров, данные распределяются вокруг них.
2. KNN (K-Nearest Neighbors):
o Алгоритм классификации или регрессии, находящий ближайших соседей для прогнозирования.
o Это алгоритм обучения с учителем.
o Результат зависит от разметки данных (меток классов).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
28%
Regularization
50%
LIME
10%
Gradient Boosting
12%
Cross-Validation
Anonymous Quiz
62%
isnan
36%
isnull
2%
nancheck
0%
hasnull
💊10🤔5
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Anonymous Quiz
60%
Bagging
27%
Boosting
9%
Gradient Descent
5%
Cross-Validation