Anonymous Quiz
88%
Lasso Regression
2%
Random Forest
2%
K-Means Clustering
8%
Principal Component Analysis
o Используется для группировки данных в кластеры на основе схожести.
o Это алгоритм обучения без учителя.
o Результат — центры кластеров, данные распределяются вокруг них.
2. KNN (K-Nearest Neighbors):
o Алгоритм классификации или регрессии, находящий ближайших соседей для прогнозирования.
o Это алгоритм обучения с учителем.
o Результат зависит от разметки данных (меток классов).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Forwarded from easyoffer
Напоминаю, что в честь релиза запускаем акцию.
Первые 500 покупателей получат:
🚀 Скидку 50% на PRO тариф на 1 год
🎁 Подарок ценностью 5000₽ для тех, кто подписан на этот канал
🔔 Подпишитесь на этот канал: https://t.me/+b2fZN17A9OQ3ZmJi
В нем мы опубликуем сообщение о релизе в первую очередь
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
23%
Сеть нейронов, обучающаяся с подкреплением
74%
Графическая модель, описывающая вероятностные зависимости
1%
Метод кластеризации
2%
Способ уменьшения размерности
👍1
Anonymous Quiz
9%
Градиентный спуск
29%
Стохастический градиентный спуск
21%
RMSProp
41%
Адам
👍3
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
73%
Dropout
11%
Batch Normalization
9%
Early Stopping
7%
Gradient Clipping
Anonymous Quiz
51%
SGD
39%
SGD
4%
v3. K-means
6%
DBSCAN
💊17🤔5
Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
90%
PCA
3%
K-means
5%
SVM
2%
Градиентный бустинг
Anonymous Quiz
31%
silhouette_score
44%
elbow_method
16%
gap_statistic
9%
bic_score
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Anonymous Quiz
7%
Сверточные нейронные сети
31%
RNN (Рекуррентные нейронные сети)
60%
Трансформеры
2%
Скрытые марковские модели
💊4
Anonymous Quiz
50%
PCA
22%
PCA
19%
NMF
9%
T-SNE
💊15
1. Они эффективны на высоких объёмах данных благодаря низкой вычислительной сложности.
2. Хорошо интерпретируемы, что важно в задачах с требованием объяснимости.
3. Используются в случаях, когда признаки предварительно масштабированы и очищены.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Anonymous Quiz
42%
PCA
33%
T-SNE
12%
LDA
14%
Isomap
Anonymous Quiz
10%
Линейная регрессия
84%
ARIMA
5%
Случайный лес
1%
PCA
Это функция, модифицирующая или расширяющая поведение другой функции или метода, не изменяя их исходный код. Используется для добавления функциональности, например, логирования, проверки прав доступа или кэширования. Обозначается с помощью
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Anonymous Quiz
9%
Accuracy
3%
Precision
10%
Recall
78%
F1-score
Anonymous Quiz
25%
K-Nearest Neighbors
11%
Linear Regression
58%
Isolation Forest
6%
Decision Trees