Если при кросс-валидации модель показывает очень разные результаты на разных фолдах, а на тесте — низкую ошибку, что это может значить?
Anonymous Quiz
11%
Недостаток данных
50%
Сильная зависимость модели от случайных разбиений данных
32%
Модель сильно переобучена на один из фолдов
7%
Модель недообучена
❤1👍1
Почему комбинация методов калибровки (например, Temperature Scaling + Isotonic Regression) может ухудшить итоговую калибровку?
Anonymous Quiz
4%
Потому что методы несовместимы по математике
45%
Потому что вторая калибровка заново масштабирует логиты
30%
Потому что каждая трансформация может переобучиться на ограниченной валидационной выборке
21%
Потому что избыточная гладкость ухудшает дискретизацию вероятностей
📊 Задача с собеседования
Если не понимаете с какой стороны подступиться к задаче, то пора подтянуть математику.
🎓 Именно этому посвящен курс экспресс-курс «Математика для Data Science» от Proglib Academy:
— работа с векторами и матрицами;
— линейная регрессия и метод наименьших квадратов;
— вероятности, распределения, статистика;
— и многое другое.
⏳ Старт: 4 декабря
🔥 Скидка: 40% до конца ноября
👉 Подключиться к курсу
Имеются данные о продажах за последние 12 месяцев. Требуется оценить наличие линейной зависимости между количеством заключённых сделок и объёмом выручки, а также построить прогноз выручки при достижении 150 сделок.
Если не понимаете с какой стороны подступиться к задаче, то пора подтянуть математику.
🎓 Именно этому посвящен курс экспресс-курс «Математика для Data Science» от Proglib Academy:
— работа с векторами и матрицами;
— линейная регрессия и метод наименьших квадратов;
— вероятности, распределения, статистика;
— и многое другое.
⏳ Старт: 4 декабря
🔥 Скидка: 40% до конца ноября
👉 Подключиться к курсу
Почему добавление слишком большого momentum-параметра β в стохастическом градиенте может ухудшить обучение при очень шумных данных?
Anonymous Quiz
65%
Потому что накопленные скорости усиливают шум в направлении обновлений
11%
Потому что momentum уменьшает размер шага
19%
Потому что β влияет на регуляризацию
5%
Потому что градиенты перестают зависеть от потерь