Как интерпретировать предсказания моделей в SHAP
#BigData #Машинноеобучение #datascience #machinelearning #featureimportance #shap IV
https://habr.com/post/428213/
#BigData #Машинноеобучение #datascience #machinelearning #featureimportance #shap IV
https://habr.com/post/428213/
t.me
Как интерпретировать предсказания моделей в SHAP
Одной из важнейших задач в сфере data science является не только построение модели, способной делать качественные предсказания, но и умение интерпретировать...
[Перевод] Что внутри черного ящика: понимаем работу ML-модели с помощью SHAP
#БлогкомпанииWunderFund #Машинноеобучение #SHAP IV
https://habr.com/ru/companies/wunderfund/articles/739744/
#БлогкомпанииWunderFund #Машинноеобучение #SHAP IV
https://habr.com/ru/companies/wunderfund/articles/739744/
Хабр
Что внутри черного ящика: понимаем работу ML-модели с помощью SHAP
Значения Шепли применяются в экономике, а точнее — в теории кооперативных игр. Такие значения назначаются игрокам сообразно их вкладу в игру. В сфере машинного обучения...
LIME и SHAP
#БлогкомпанииOTUS #Python #Программирование #Машинноеобучение #python #lime #shap IV
https://habr.com/ru/companies/otus/articles/779430/
#БлогкомпанииOTUS #Python #Программирование #Машинноеобучение #python #lime #shap IV
https://habr.com/ru/companies/otus/articles/779430/
Хабр
LIME и SHAP
Модели МО часто сравнивают с " черными ящиками " из-за их неспособности ясно объяснить свои решения. Проблема " черного ящика " возникает, когда внутренняя работа модели настолько сложна или неясна,...
Повышаем интерпретируемость SHAP-графиков
#БлогкомпанииVK #Машинноеобучение #shap #ml #featureimportance
https://habr.com/ru/companies/vk/articles/820005/
#БлогкомпанииVK #Машинноеобучение #shap #ml #featureimportance
https://habr.com/ru/companies/vk/articles/820005/
Хабр
Повышаем интерпретируемость SHAP-графиков
Привет, Хабр! В моей работе часто возникают задачи на исследование влияния факторов, на которые мы можем оказывать продуктовое влияние, на целевые метрики сообществ ВКонтакте. Один...
Практическая устойчивость значений Шепли в интерпретации моделей ИИ
#explainableai #shap #shapleyvalues
https://habr.com/ru/articles/853794/
#explainableai #shap #shapleyvalues
https://habr.com/ru/articles/853794/
Хабр
Практическая устойчивость значений Шепли в интерпретации моделей ИИ
Привет, Хабр! В исследованиях и на практике значения Шепли (Shapley values) — один из наиболее популярных методов интерпретации. По определению, значения Шепли вычисляются по оценке вклада признака во...
Фичи в парламент: еще один подход оценить важность признаков в древесных анcамблях
#XAI #SHAP #ML
https://habr.com/ru/articles/860668/
#XAI #SHAP #ML
https://habr.com/ru/articles/860668/
Хабр
Фичи в парламент: еще один подход оценить важность признаков в древесных анcамблях
Привет, друзья! Признаки, которыми орудует модель ИИ, в чём-то похожи на группы лиц, соединяющихся, чтобы сыграть в игру и выйграть максимально много. Этой идеей в задаче оценки важности коэффициентов...