Модель была идеально откалибрована с помощью temperature scaling на исходном распределении. После дрейфа данных калибровка резко ухудшается, хотя ROC-AUC остаётся прежним. Почему это возможно?
Anonymous Quiz
90%
ROC-AUC не чувствителен к сдвигу вероятностей, а только к ранжированию
7%
Temperature scaling автоматически адаптируется к дрейфу
2%
Калибровка и AUC всегда ухудшаются одновременно
1%
ROC-AUC ухудшается раньше, чем калибровка
❤2
🤖 Раньше в AI мог попасть любой, кто осилил пару туториалов.
Теперь нужны те, кто может объяснить:
→ почему эта архитектура сработает, а та — нет;
→ что происходит внутри модели, когда она не сходится;
→ как найти решение, а не перебирать гиперпараметры наугад.
Все эти навыки требуют понимания того, как и почему работают модели. А это чистая математика.
🔥 Proglib Academy запускает курс «Математика для разработки AI-моделей». Ведут эксперты из SberAI, ВШЭ, Т-Банк, Wildberries.
📝 Что внутри?
→ 2 месяца живых занятий с возможностью задавать вопросы напрямую.
→ Практика на Python. Не теория в вакууме, а применение.
→ 3 домашних задания + финальный проект с детальным разбором.
⏰ Старт 4 декабря
⌛ Только до конца ноября:
→ Скидка 40%;
→ Курс «Школьная математика» в подарок;
→ Тест на определение уровня математики.
🎄 Сделай себе подарок на Новый год
Теперь нужны те, кто может объяснить:
→ почему эта архитектура сработает, а та — нет;
→ что происходит внутри модели, когда она не сходится;
→ как найти решение, а не перебирать гиперпараметры наугад.
Все эти навыки требуют понимания того, как и почему работают модели. А это чистая математика.
🔥 Proglib Academy запускает курс «Математика для разработки AI-моделей». Ведут эксперты из SberAI, ВШЭ, Т-Банк, Wildberries.
📝 Что внутри?
→ 2 месяца живых занятий с возможностью задавать вопросы напрямую.
→ Практика на Python. Не теория в вакууме, а применение.
→ 3 домашних задания + финальный проект с детальным разбором.
⏰ Старт 4 декабря
⌛ Только до конца ноября:
→ Скидка 40%;
→ Курс «Школьная математика» в подарок;
→ Тест на определение уровня математики.
🎄 Сделай себе подарок на Новый год
Почему Adam может переобучаться быстрее, чем SGD, на шумных данных при одинаковой архитектуре?
Anonymous Quiz
8%
Adam использует глобальный шаг обучения
76%
Adam увеличивает шаги в шумных направлениях благодаря перпараметризованной адаптации
6%
SGD всегда уходит в плоские минимумы
10%
Adam не использует нормализацию градиента
❤2
Почему даже rolling-window CV может давать leakage?
Anonymous Quiz
2%
Это невозможно
17%
Rolling-window использует слишком маленькие тестовые окна
14%
CV всегда даёт leakage
67%
Если target leakage скрыт в engineered features (например, future-based statistics)
❤1
Почему MAE более устойчива к шуму меток, чем MSE, но часто обучается медленнее?
Anonymous Quiz
83%
MAE имеет константный градиент и не усиливает большие ошибки
8%
MSE не выпукла
5%
MAE зависит от Learning Rate
4%
MSE автоматически игнорирует шум
❤2