#featureselection #shap #shapselect
Типа несколько новый подход к отбору признаков.
То же RFCE, на авторы почему-то скромно выделяют свой подход прямо в отдельный класс.
Фишка в том, что по shap-значениям признаков на таргет строится отдельная регрессия. Признаки с незначимымы или отрицательными коэф-тами этой регрессии удаляются. Мне пока неясно, какие это даёт преимущества по сравнению просто с расчётом среднего и отклонений шап-значений признаков по всем примерам.
"Экспериментальная проверка", которую эти мощные учёные проводят в конце статьи, по глубине, достоверности и ширине охвата сравнима со школьным экспериментом по пуканью на зажигалку - один датасет, одна модель, один сид.
Но, может, я чего-то не понимаю, и это крутая идея?
https://www.youtube.com/watch?v=pmqvyrIyB_8
Типа несколько новый подход к отбору признаков.
То же RFCE, на авторы почему-то скромно выделяют свой подход прямо в отдельный класс.
Фишка в том, что по shap-значениям признаков на таргет строится отдельная регрессия. Признаки с незначимымы или отрицательными коэф-тами этой регрессии удаляются. Мне пока неясно, какие это даёт преимущества по сравнению просто с расчётом среднего и отклонений шап-значений признаков по всем примерам.
"Экспериментальная проверка", которую эти мощные учёные проводят в конце статьи, по глубине, достоверности и ширине охвата сравнима со школьным экспериментом по пуканью на зажигалку - один датасет, одна модель, один сид.
Но, может, я чего-то не понимаю, и это крутая идея?
https://www.youtube.com/watch?v=pmqvyrIyB_8