Вы используете алгоритм K-Means. Вы визуализировали результат и заметили, что два ваших кластера перекрываются в форме полумесяцев.
Какова наиболее вероятная причина такого поведения?
Какова наиболее вероятная причина такого поведения?
Anonymous Quiz
15%
K-Means чувствителен к наличию категориальных признаков.
7%
K-Means страдает от проблемы исчезающего градиента.
51%
K-Means предполагает, что кластеры имеют выпуклую форму.
27%
K-Means требует ручного указания количества кластеров ($k$).
👍1
Готовитесь к собеседованию в AI?
Вопросы по математической базе — стандартный этап отбора на позиции Data Scientist и ML Engineer. Вас спросят не только про код, но и про то, как работают алгоритмы «под капотом».
Прокачайте хард-скиллы на обновленном курсе «Математика для разработки AI-моделей».
Важный апдейт:
— теперь обучение включает живые вебинары;
— первый прошел, но второй стартует сегодня, 9 декабря;
— это шанс разобрать сложные вопросы с экспертами в прямом эфире.
Что внутри:
— линейная алгебра;
— матанализ;
— теория вероятностей.
Успейте присоединиться к потоку
Вопросы по математической базе — стандартный этап отбора на позиции Data Scientist и ML Engineer. Вас спросят не только про код, но и про то, как работают алгоритмы «под капотом».
Прокачайте хард-скиллы на обновленном курсе «Математика для разработки AI-моделей».
Важный апдейт:
— теперь обучение включает живые вебинары;
— первый прошел, но второй стартует сегодня, 9 декабря;
— это шанс разобрать сложные вопросы с экспертами в прямом эфире.
Что внутри:
— линейная алгебра;
— матанализ;
— теория вероятностей.
Успейте присоединиться к потоку
Какая проблема возникает, когда распределение входных данных (признаков X) в тестовой среде отличается от распределения, на котором обучалась модель, но при этом связь между входными данными и целевой переменной (P(Y∣X)) остается неизменной?
Anonymous Quiz
18%
Дисперсионный сдвиг (Variance Shift)
25%
Дисперсионный сдвиг (Variance Shift)
18%
Сдвиг метки (Label Shift)
38%
Ковариатный сдвиг (Covariate Shift)
👍1
Вы обучаете глубокую нейронную сеть, которая показывает 99% точности на обучающей выборке, но всего 70% на тестовой. Какое из следующих действий, скорее всего, поможет снизить переобучение (overfitting), не требуя сбора новых данных?
Anonymous Quiz
77%
Применить Dropout к скрытым слоям нейронной сети.
9%
Использовать более простую функцию активации, например, сигмоиду вместо ReLU.
6%
Уменьшить степень регуляризации $\lambda$ в функции потерь.
8%
Удалить все признаки с низкой дисперсией (Low Variance).
Вы строите модель и обнаруживаете, что хотя общая метрика производительности высока, индивидуальные p-значения большинства ваших переменных незначимы, а коэффициенты (weights) модели демонстрируют высокую чувствительность к небольшим изменениям в данных.
Anonymous Quiz
32%
Гетероскедастичность (Heteroscedasticity)
8%
Недообучение (Underfitting)
49%
Мультиколлинеарность (Multicollinearity)
11%
Автокорреляция остатков (Autocorrelation of Residuals)
❤2
Вы используете SVM для классификации, но обнаружили, что данные не являются линейно разделимыми в исходном пространстве признаков.
Какая техника позволяет SVM классифицировать нелинейные данные, не увеличивая явно размерность пространства?
Какая техника позволяет SVM классифицировать нелинейные данные, не увеличивая явно размерность пространства?
Anonymous Quiz
59%
Ядерный трюк (Kernel Trick)
14%
Эластичная сеть (Elastic Net Regularization)
21%
Снижение размерности с помощью PCA
6%
Случайная подвыборка признаков (Random Subspace)
❤1