o Используется для группировки данных в кластеры на основе схожести.
o Это алгоритм обучения без учителя.
o Результат — центры кластеров, данные распределяются вокруг них.
2. KNN (K-Nearest Neighbors):
o Алгоритм классификации или регрессии, находящий ближайших соседей для прогнозирования.
o Это алгоритм обучения с учителем.
o Результат зависит от разметки данных (меток классов).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Forwarded from easyoffer
Напоминаю, что в честь релиза запускаем акцию.
Первые 500 покупателей получат:
🚀 Скидку 50% на PRO тариф на 1 год
🎁 Подарок ценностью 5000₽ для тех, кто подписан на этот канал
🔔 Подпишитесь на этот канал: https://t.me/+b2fZN17A9OQ3ZmJi
В нем мы опубликуем сообщение о релизе в первую очередь
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
22%
Сеть нейронов, обучающаяся с подкреплением
75%
Графическая модель, описывающая вероятностные зависимости
1%
Метод кластеризации
2%
Способ уменьшения размерности
Anonymous Quiz
7%
Градиентный спуск
29%
Стохастический градиентный спуск
22%
RMSProp
42%
Адам
👍2
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
74%
Dropout
10%
Batch Normalization
8%
Early Stopping
8%
Gradient Clipping
Anonymous Quiz
51%
SGD
39%
SGD
5%
v3. K-means
5%
DBSCAN
💊17🤔5
Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
90%
PCA
3%
K-means
5%
SVM
2%
Градиентный бустинг
Anonymous Quiz
32%
silhouette_score
45%
elbow_method
17%
gap_statistic
7%
bic_score
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
7%
Сверточные нейронные сети
31%
RNN (Рекуррентные нейронные сети)
60%
Трансформеры
2%
Скрытые марковские модели
💊2
Anonymous Quiz
49%
PCA
22%
PCA
19%
NMF
10%
T-SNE
💊13
1. Они эффективны на высоких объёмах данных благодаря низкой вычислительной сложности.
2. Хорошо интерпретируемы, что важно в задачах с требованием объяснимости.
3. Используются в случаях, когда признаки предварительно масштабированы и очищены.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
46%
PCA
29%
T-SNE
13%
LDA
13%
Isomap
Anonymous Quiz
9%
Линейная регрессия
88%
ARIMA
3%
Случайный лес
0%
PCA
Это функция, модифицирующая или расширяющая поведение другой функции или метода, не изменяя их исходный код. Используется для добавления функциональности, например, логирования, проверки прав доступа или кэширования. Обозначается с помощью
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
9%
Accuracy
4%
Precision
10%
Recall
77%
F1-score
Anonymous Quiz
23%
K-Nearest Neighbors
6%
Linear Regression
62%
Isolation Forest
9%
Decision Trees