Это техника регуляризации в нейросетях, уменьшающая переобучение:
1. На каждой итерации обучения случайно зануляется часть нейронов.
2. Это предотвращает чрезмерную зависимость от отдельных признаков.
3. Во время предсказания Dropout не применяется, а выходы масштабируются.
Dropout делает нейросеть более устойчивой и снижает вероятность переобучения.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
34%
Dropout
51%
Batch Normalization
11%
Gradient Clipping
4%
Data Augmentation
Anonymous Quiz
14%
Pruning
59%
Bagging
17%
Boosting
10%
Cross-Validation
Это центральное значение упорядоченного ряда.
- Если количество элементов нечетное, медиана – это средний элемент.
- Если четное, медиана – среднее двух центральных значений.
Медиана менее чувствительна к выбросам, чем среднее (Mean).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥1
Anonymous Quiz
82%
CNN
9%
K-means
5%
PCA
4%
Логистическая регрессия
Anonymous Quiz
78%
LOF
10%
K-means
11%
PCA
1%
Логистическая регрессия
HAVING в SQL используется для фильтрации агрегированных значений после GROUP BY:
- WHERE фильтрует строки, а HAVING – группы строк.
- HAVING можно применять к агрегатным функциям (SUM, AVG, COUNT).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1
Anonymous Quiz
21%
Learning Rate
38%
Bagging
10%
Pruning
32%
Regularization
Anonymous Quiz
24%
Ridge
34%
Lasso
20%
Elastic Net
23%
PCA
🔥1
Это ситуация, когда признаки сильно коррелируют друг с другом.
- Это вызывает нестабильность линейных моделей, так как коэффициенты могут становиться большими и неинтерпретируемыми.
- Решения: удаление зависимых признаков, PCA, L1-регуляризация (Lasso).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1
Anonymous Quiz
83%
Normalization
4%
K-means
11%
PCA
2%
Логистическая регрессия
Anonymous Quiz
48%
Bagging
35%
Boosting
6%
Gradient Descent
10%
Cross-Validation
Это SQL-функции, выполняющиеся по окну строк, но не сворачивающие их в одно значение.
- Используются с OVER().
- Примеры: ROW_NUMBER(), RANK(), LEAD(), LAG(), SUM() OVER(), AVG() OVER().
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
61%
Ridge Regression
28%
Lasso Regression
7%
Elastic Net
4%
Dropout
Anonymous Quiz
88%
ROC-кривая
6%
K-means
4%
PCA
2%
Линейная регрессия
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
67%
Naive Bayes
11%
K-means
6%
PCA
15%
Логистическая регрессия
👍1
Anonymous Quiz
28%
Ridge
41%
Lasso
14%
Elastic Net
17%
PCA
Это кривая, отображающая качество бинарного классификатора. Она строится по:
- True Positive Rate (TPR) – доля правильно предсказанных положительных классов.
- False Positive Rate (FPR) – доля неправильно предсказанных положительных классов.
AUC (Area Under Curve) – это площадь под ROC-кривой:
- AUC = 1.0 – идеальный классификатор.
- AUC = 0.5 – случайное угадывание.
- AUC < 0.5 – модель хуже случайного выбора.
AUC-ROC полезен для оценки качества предсказаний модели независимо от порога вероятности.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
💊2
Anonymous Quiz
62%
Bagging
24%
Boosting
9%
Gradient Descent
4%
Cross-Validation