Anonymous Quiz
41%
PCA
41%
Feature Scaling
13%
Random Forest
5%
Standardization
💊19👍1
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
53%
Bagging
27%
Boosting
8%
Stacking
11%
Gradient Descent
👍1
Anonymous Quiz
86%
StandardScaler()
7%
OneHotEncoder()
1%
KMeans()
6%
PCA()
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
8%
Accuracy
8%
Precision
9%
Recall
75%
F1-score
Anonymous Quiz
18%
PCA
11%
LDA
28%
T-SNE
43%
Isomap
Градиентное затухание (vanishing gradients) — это проблема, когда в глубоких нейросетях градиенты становятся очень малыми при обратном распространении.
Это мешает обновлению весов в начальных слоях, и обучение "замирает".
Чаще всего возникает в RNN и в сетях с плохой инициализацией или неподходящей функцией активации.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Anonymous Quiz
1%
Линейная регрессия
16%
Логистическая регрессия
69%
Метод опорных векторов с ядром (SVM)
14%
K-means
Anonymous Quiz
6%
Метод Ньютона
85%
Градиентный спуск
8%
Метод опорных векторов
1%
Метод опорных векторов
🤔7
Content-Based Filtering, Collaborative Filtering, и Hybrid модели. Выбор зависит от задачи и данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
16%
Batch Normalization
75%
Dropout
6%
Early Stopping
3%
Data Augmentation
Anonymous Quiz
35%
Бэггинг
62%
Стеккинг
1%
K-means
2%
T-SNE
1. Использовать метод бутстрепинга для повторного выборочного моделирования.
2. Рассчитать параметры распределения (среднее, дисперсию) и использовать их для генерации данных.
3. Применить библиотеки, например, numpy.random для моделирования нужного распределения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Anonymous Quiz
2%
Линейная регрессия
4%
Логистическая регрессия
81%
Метод опорных векторов (SVM)
13%
K-means
Anonymous Quiz
14%
Lasso
7%
Ridge
76%
Elastic Net
3%
PCA
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
10%
Точность модели
86%
Площадь под кривой ROC
1%
Временную сложность алгоритма
2%
Количество ошибок модели
💊1
Anonymous Quiz
7%
Линейная регрессия
65%
Метод опорных векторов (SVM)
7%
Логистическая регрессия
21%
K-средние
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1