StandardScaling сохраняет распределение данных, что важно для моделей, чувствительных к стандартному отклонению, тогда как MinMaxScaling может искажать распределение.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Anonymous Quiz
3%
Decision Tree
2%
Логистическая регрессия
88%
Matrix Factorization
7%
TF-IDF
😁20👀2🤯1
Anonymous Quiz
7%
Линейная регрессия
4%
Логистическая регрессия
74%
Полиномиальная регрессия
15%
Случайный лес
😁12
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3
Anonymous Quiz
6%
Decision Tree
78%
Item-Based Collaborative Filtering
8%
Автоэнкодеры
8%
TF-IDF
😁4👀2
Anonymous Quiz
7%
Decision Tree
4%
Логистическая регрессия
69%
Word2Vec
20%
TF-IDF
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤1
Anonymous Quiz
6%
Ridge Regression
11%
Lasso Regression
76%
Elastic Net
7%
Dropout
😁1
Anonymous Quiz
14%
Суммирование входных данных
78%
Преобразование выходных данных в пределах диапазона
3%
Хранение входных данных
5%
Уменьшение размерности данных
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Anonymous Quiz
68%
Бэггинг
6%
K-means
20%
PCA
6%
Логистическая регрессия
💊3
Anonymous Quiz
7%
Случайный лес
70%
RNN
19%
Линейная регрессия
5%
K-means
1. Нормально распределёнными.
2. Иметь одинаковую дисперсию между группами.
Если эти условия не выполняются, используют его модификации или непараметрические тесты.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2
Anonymous Quiz
80%
RNN
8%
K-means
8%
Decision Tree
4%
Logistic Regression
Anonymous Quiz
25%
PCA
10%
LDA
43%
Isomap
22%
T-SNE
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤1
Anonymous Quiz
15%
Точность модели
81%
Площадь под кривой ROC
1%
Временную сложность алгоритма
3%
Количество ошибок модели
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Anonymous Quiz
8%
Линейная регрессия
1%
Случайный лес
84%
Рекуррентные нейронные сети (RNN)
7%
Метод опорных векторов (SVM)
👍3