🤔 Какой метод уменьшает смещение и дисперсию в модели?
Anonymous Quiz
62%
Bagging
9%
Gradient Descent
17%
Ensemble Learning
12%
Cross-Validation
👍2💊2
🤔 Зачем нужен self super?
self указывает на текущий экземпляр класса, а super позволяет обращаться к методам родительского класса, избегая дублирования кода.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
👍4
🤔 Какой метод машинного обучения используется для обработки категориальных данных путем создания бинарных векторов?
Anonymous Quiz
7%
Автоэнкодеры
86%
One-Hot Encoding
6%
Decision Tree
0%
Линейная регрессия
👍1
🤔 Какой алгоритм машинного обучения использует деревья решений и снижает их вариативность путем усреднения?
Anonymous Quiz
3%
Линейная регрессия
3%
Логистическая регрессия
89%
Случайный лес
5%
K-means
🤔 Что известно о Gradient-boosted trees?
Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Это ансамблевый метод, строящий модель как последовательность слабых моделей (обычно деревьев), где каждая новая модель корректирует ошибки предыдущей. Он использует градиентный спуск по функции потерь. Обладает высокой точностью и хорошо работает с табличными данными, но чувствителен к гиперпараметрам. Популярные реализации — XGBoost, LightGBM, CatBoost.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
🤔 Какой метод машинного обучения используется для обработки текстов и определения эмоциональной окраски
Anonymous Quiz
3%
Decision Tree
2%
Логистическая регрессия
63%
Sentiment Analysis
33%
TF-IDF
🤔 Что такое градиентный бустинг?
Anonymous Quiz
2%
Метод кластеризации
7%
Метод уменьшения размерности
89%
Ансамблевый метод обучения
2%
Способ нормализации данных
🤔 При свёртке картинки HxW матрицей 3x3, что получится в итоге?
Результирующий размер изображения будет (H−2)×(W−2)(H-2) \times (W-2), если не использовать дополнение, так как свёртка "обрезает" края.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
🔥1
🤔 Какой метод в sklearn используется для уменьшения размерности?
Anonymous Quiz
91%
PCA
5%
LDA
3%
KMeans
1%
DBSCAN
🤔 Какой метод помогает выявить скрытые закономерности в данных?
Anonymous Quiz
70%
Principal Component Analysis
10%
K-Nearest Neighbors
13%
Decision Trees
7%
Linear Regression
💊4
🤔 В чём разница между методом GMM и K-Means?
1. K-Means:
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
👍1
🤔 Какой метод уменьшает дисперсию и смещение в моделях с комбинацией L1 и L2 регуляризации?
Anonymous Quiz
15%
Lasso
11%
Ridge
72%
Elastic Net
3%
PCA
🤔 Что такое перекрестная энтропия (cross-entropy) в машинном обучении?
Anonymous Quiz
9%
Метод нормализации данных
82%
Функция потерь для задач классификации
5%
Алгоритм кластеризации
5%
Метод уменьшения размерности
👍1
🤔 Почему в нейронных сетях нельзя инициализировать веса нулями?
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
🤔 Какой метод позволяет снижать размерность данных, сохраняя дисперсию?
Anonymous Quiz
67%
PCA
20%
T-SNE
10%
LDA
4%
UMAP
🤔 Какой метод уменьшения размерности используется для выделения линейных комбинаций признаков, которые максимизируют разницу между классами?
Anonymous Quiz
36%
PCA
32%
LDA
22%
T-SNE
9%
Isomap
🤔 Что известно о ML дизайне?
ML-дизайн включает выбор модели, структуры данных, метрик и процесса обучения для конкретной задачи. Важные аспекты:
• Постановка задачи (классификация, регрессия, кластеризация).
• Подготовка данных (очистка, масштабирование, выделение признаков).
• Выбор и настройка модели, а также оптимизация гиперпараметров.
• Оценка результатов (использование метрик качества и валидации).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
• Постановка задачи (классификация, регрессия, кластеризация).
• Подготовка данных (очистка, масштабирование, выделение признаков).
• Выбор и настройка модели, а также оптимизация гиперпараметров.
• Оценка результатов (использование метрик качества и валидации).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
👍1
🤔 Какой метод увеличивает размерность данных для улучшения модели?
Anonymous Quiz
35%
T-SNE
20%
PCA
16%
Random Forest
29%
LDA
💊6
🤔 Какой метод используется для обучения с подкреплением?
Anonymous Quiz
72%
Q-Learning
10%
Random Forest
6%
Gradient Descent
11%
Principal Component Analysis
🤔 Что такое бэкпропагейшен (Backpropagation)?
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
👍2
🤔 Какая метрика оценивает дисперсию между кластерами?
Anonymous Quiz
18%
F1-score
76%
Silhouette Score
4%
Precision
2%
Recall