🤔 При свёртке картинки HxW матрицей 3x3, что получится в итоге?
Результирующий размер изображения будет (H−2)×(W−2)(H-2) \times (W-2), если не использовать дополнение, так как свёртка "обрезает" края.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
🔥1
🤔 Какой метод в sklearn используется для уменьшения размерности?
Anonymous Quiz
90%
PCA
5%
LDA
3%
KMeans
1%
DBSCAN
🤔 Какой метод помогает выявить скрытые закономерности в данных?
Anonymous Quiz
70%
Principal Component Analysis
10%
K-Nearest Neighbors
14%
Decision Trees
7%
Linear Regression
💊4
🤔 В чём разница между методом GMM и K-Means?
1. K-Means:
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
o Основан на разделении данных по расстояниям до центроидов (жёсткое разделение).
o Каждая точка принадлежит только одному кластеру.
2. GMM (Gaussian Mixture Model):
o Использует вероятностный подход: каждая точка имеет вероятность принадлежности к каждому кластеру (мягкое разделение).
o Кластеры формируются на основе распределений Гаусса, что делает GMM более гибким для сложных данных.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
👍1
🤔 Какой метод уменьшает дисперсию и смещение в моделях с комбинацией L1 и L2 регуляризации?
Anonymous Quiz
15%
Lasso
11%
Ridge
72%
Elastic Net
3%
PCA
🤔 Что такое перекрестная энтропия (cross-entropy) в машинном обучении?
Anonymous Quiz
9%
Метод нормализации данных
82%
Функция потерь для задач классификации
5%
Алгоритм кластеризации
4%
Метод уменьшения размерности
👍1
🤔 Почему в нейронных сетях нельзя инициализировать веса нулями?
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
1. Симметричность: При инициализации весов нулями все нейроны в слое начинают обучение одинаково, что делает их идентичными.
2. Отсутствие обучения: Градиенты для всех нейронов слоя будут одинаковыми, из-за чего они не смогут различаться и обучаться.
3. Решение: Инициализация случайными значениями разрывает симметрию, позволяя нейронам обучаться независимо друг от друга.
Стандартные методы, такие как He или Xavier инициализация, обеспечивают оптимальный начальный размах весов.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
🤔 Какой метод позволяет снижать размерность данных, сохраняя дисперсию?
Anonymous Quiz
66%
PCA
20%
T-SNE
10%
LDA
4%
UMAP
🤔 Какой метод уменьшения размерности используется для выделения линейных комбинаций признаков, которые максимизируют разницу между классами?
Anonymous Quiz
37%
PCA
33%
LDA
21%
T-SNE
9%
Isomap
🤔 Что известно о ML дизайне?
ML-дизайн включает выбор модели, структуры данных, метрик и процесса обучения для конкретной задачи. Важные аспекты:
• Постановка задачи (классификация, регрессия, кластеризация).
• Подготовка данных (очистка, масштабирование, выделение признаков).
• Выбор и настройка модели, а также оптимизация гиперпараметров.
• Оценка результатов (использование метрик качества и валидации).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
• Постановка задачи (классификация, регрессия, кластеризация).
• Подготовка данных (очистка, масштабирование, выделение признаков).
• Выбор и настройка модели, а также оптимизация гиперпараметров.
• Оценка результатов (использование метрик качества и валидации).
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
👍1
🤔 Какой метод увеличивает размерность данных для улучшения модели?
Anonymous Quiz
36%
T-SNE
20%
PCA
15%
Random Forest
29%
LDA
💊6
🤔 Какой метод используется для обучения с подкреплением?
Anonymous Quiz
72%
Q-Learning
10%
Random Forest
6%
Gradient Descent
11%
Principal Component Analysis
🤔 Что такое бэкпропагейшен (Backpropagation)?
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Это алгоритм обновления весов в нейросети путем распространения ошибки от выхода к входу:
1. Прямой проход – данные проходят через сеть, вычисляя предсказания.
2. Вычисление ошибки – разница между предсказанием и истинным значением.
3. Обратное распространение ошибки – градиенты ошибки передаются назад через слои с помощью правила цепочки (chain rule).
4. Обновление весов – веса корректируются методом градиентного спуска.
Бэкпропагейшен – ключевой алгоритм, позволяющий обучать глубокие нейронные сети.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
👍2
🤔 Какая метрика оценивает дисперсию между кластерами?
Anonymous Quiz
18%
F1-score
76%
Silhouette Score
4%
Precision
2%
Recall
🤔 Какой алгоритм часто используется для прогнозирования временных рядов?
Anonymous Quiz
9%
Линейная регрессия
83%
ARIMA
6%
Случайный лес
2%
K-means
🤔1
🤔 Какие есть детекторы и архитектуры в CV?
Классические: SIFT, HOG. Современные архитектуры: YOLO, SSD, Faster R-CNN для детекции объектов, U-Net, DeepLab для сегментации.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Классические: SIFT, HOG. Современные архитектуры: YOLO, SSD, Faster R-CNN для детекции объектов, U-Net, DeepLab для сегментации.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
🤔 Какой метод уменьшения размерности использует разложения матриц?
Anonymous Quiz
51%
PCA
25%
PCA
19%
NMF
5%
T-SNE
💊16
🤔 Какая техника в Data Science используется для преобразования категориальных переменных в формат, пригодный для машинного обучения?
Anonymous Quiz
10%
Нормализация
2%
Логарифмирование
87%
One-hot encoding
2%
Масштабирование
🤔 Какие есть усовершенствования бинарной кросс-энтропии?
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
Бинарную кросс-энтропию можно улучшать в зависимости от задачи:
- С взвешиванием классов — если классы несбалансированы.
- Focal Loss — фокусируется на трудных примерах, уменьшая вклад лёгких.
- Label smoothing — снижает переуверенность модели, заменяя метки вроде 1/0 на 0.9/0.1.
- Dice Loss / Jaccard Loss — используются в задачах сегментации, где важна форма, а не только точность пикселя.
- Combo Loss — сочетание BCE с другими функциями (например, с Dice), чтобы уравновесить разные аспекты задачи.
Ставь 👍 если знал ответ, 🔥 если нет
Забирай 📚Базу Знаний
🤔 Какой метод используется для выявления выбросов в данных?
Anonymous Quiz
30%
PCA
8%
Random Forest
52%
Isolation Forest
10%
Linear Regression
🤔 Какой метод используется для прогнозирования временных рядов с использованием нейронных сетей и рекуррентных архитектур?
Anonymous Quiz
78%
Long Short-Term Memory (LSTM)
17%
Support Vector Machines (SVM)
4%
Gradient Boosting
1%
K-means Clustering