Anonymous Quiz
85%
PCA
2%
KNN
10%
SVM
3%
Random Forest
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Anonymous Quiz
8%
K-средние
17%
DBSCAN
69%
Иерархическая кластеризация
5%
Иерархическая кластеризация
🤔6💊6
Anonymous Quiz
87%
Lasso Regression
2%
Random Forest
2%
K-Means Clustering
8%
Principal Component Analysis
o Используется для группировки данных в кластеры на основе схожести.
o Это алгоритм обучения без учителя.
o Результат — центры кластеров, данные распределяются вокруг них.
2. KNN (K-Nearest Neighbors):
o Алгоритм классификации или регрессии, находящий ближайших соседей для прогнозирования.
o Это алгоритм обучения с учителем.
o Результат зависит от разметки данных (меток классов).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Forwarded from easyoffer
Напоминаю, что в честь релиза запускаем акцию.
Первые 500 покупателей получат:
🚀 Скидку 50% на PRO тариф на 1 год
🎁 Подарок ценностью 5000₽ для тех, кто подписан на этот канал
🔔 Подпишитесь на этот канал: https://t.me/+b2fZN17A9OQ3ZmJi
В нем мы опубликуем сообщение о релизе в первую очередь
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
22%
Сеть нейронов, обучающаяся с подкреплением
75%
Графическая модель, описывающая вероятностные зависимости
1%
Метод кластеризации
3%
Способ уменьшения размерности
👍1
Anonymous Quiz
10%
Градиентный спуск
29%
Стохастический градиентный спуск
22%
RMSProp
40%
Адам
👍3
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
73%
Dropout
11%
Batch Normalization
9%
Early Stopping
7%
Gradient Clipping
Anonymous Quiz
51%
SGD
39%
SGD
5%
v3. K-means
6%
DBSCAN
💊17🤔5
Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
89%
PCA
4%
K-means
5%
SVM
2%
Градиентный бустинг
Anonymous Quiz
31%
silhouette_score
45%
elbow_method
15%
gap_statistic
9%
bic_score
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
7%
Сверточные нейронные сети
31%
RNN (Рекуррентные нейронные сети)
61%
Трансформеры
2%
Скрытые марковские модели
💊3
Anonymous Quiz
50%
PCA
21%
PCA
19%
NMF
10%
T-SNE
💊14
1. Они эффективны на высоких объёмах данных благодаря низкой вычислительной сложности.
2. Хорошо интерпретируемы, что важно в задачах с требованием объяснимости.
3. Используются в случаях, когда признаки предварительно масштабированы и очищены.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
42%
PCA
33%
T-SNE
11%
LDA
14%
Isomap
Anonymous Quiz
10%
Линейная регрессия
85%
ARIMA
5%
Случайный лес
0%
PCA