Хабр / ML & AI
474 subscribers
5.43K links
Telegram-канал, где вы можете найти публикации из RSS-фидов тематических хабов "Машинное обучение" и "Искусственный интеллект" портала Хабр.

Данный канал не является официальным представительством платформы Хабр.

Администратор - @evilfreelancer
Download Telegram
Практическая устойчивость значений Шепли в интерпретации моделей ИИ

Привет, Хабр!

В исследованиях и на практике значения Шепли (Shapley values) — один из наиболее популярных методов интерпретации как на практике, так и в исследованиях. На практике этого не делается — применяется аппроксимация.

Отсюда возникают вопросы, ответы на которые мы рассмотрим с вами в этой статье :)

Читать далее

#explainable_ai #shap #shapley_values | @habr_ai
Анализ обработки признаков в YOLO NAS S при помощи CAM

Методы объяснения моделей — практичный инструмент для понимания модели, оценки её точности и стабильности. Однако, часто можно столкнуться с ситуацией, когда фреймворк, в котором метод реализован, просто не "дружит" с реализацией модели. В этом туториале хочу подробно показать CAM (class activation map) для объяснения моделей зрения.

Читать далее

#машинное_обучение #explainable_ai #нейронные_сети #pytorch | @habr_ai
Logit Lens & ViT model: туториал

Привет, Хабр! В этом туториале разобран метод для анализа внутренних представлений "логит-линза" (Logit Lens).

В результате практики по туториалу, вы:
1. Изучите подход и концепцию Logit Lens;
2. Реализуете Logit Lens для Visual Transformer;
3. Познакомитесь с анализом результатов применения логит-линзы.

Как всегда, весь код будет на гитхаб — step by step. Welcome! Читать далее

#explainable_ai #data_science #data_analysis #transformers | @habr_ai
AutoEncoders and hidden states Analysis

Привет, друзья!

Я продолжаю цикл статей по туториалам, посвященным области explainable AI. Так, уже были разобраны метод Logit Lens на примере ViT, зондирование gpt2, CAM на примере Yolo NAS — всё можно найти по статьям в профиле. В этом же туториале мы разберем идею применения автокодировщиков для анализа и извлечения признаков из скрытых состояний модели.

В туториале, вы:

Читать далее

#explainable_ai #autoencoder #visual_transformer #images #image_classification | @habr_ai
Объяснимый ИИ в ML и DL

Объяснимый ИИ — очень важный аспект в ML и DL. Он заключается в том, чтобы интерпретировать модель так, чтобы можно было около прозрачно объяснить ее решения. Потому что это довольно частая необходимость как у конечного заказчика, ведь для них это просто «черный ящик», так и у разработчиков непосредственно (например, для отладки модели). На русском языке таких статей не так много (для тех, кто знает английский проблем с этим нет, на нем таких статей много, например, Kaggle), поэтому я решил, что статья покажется актуальной, и сегодня я попробую рассказать про это и показать на конкретном примере, как его можно реализовать. Читать далее

#ml #dl #python #explainable_ai #shap | @habr_ai
Управление ИИ (AI Governance) в 2025: пять главных вызовов и пути их преодоления

По данным глобальных отчетов, уже 30% всех корпоративных решений в 2025 году принимаются с участием искусственного интеллекта (ИИ). Инструменты ИИ активно внедряются во все сферы: они используются для оптимизации операционных и бизнес-процессов, как самостоятельные или вспомогательные продукты, а все чаще – и как системы, принимающие решения. Однако в этой гонке за эффективностью вопросы управления рисками и этические предохранители нередко отходят на второй план.

Между тем, именно сфера регулирования и этики ИИ является ключевым инструментом, позволяющим компаниям обеспечить безопасное использование AI-технологий как с технической точки зрения, так и в контексте соответствия требованиям контролирующих органов. Регуляторные и этические фреймворки, закрепленные на уровне законодательства и лучших отраслевых практик, в действительности определяют ландшафт внедрения новых технологий. С какими вызовами AI Governance сталкивается IT-индустрия сегодня? В этой статье мы разберем 5 ключевых проблем регулирования ИИ, алгоритмической предвзятости, безопасности нейросетей, их экологического следа и глобальной стандартизации AI.

Это авторская статья создана специально для сайта habr.com будет полезна IT-специалистам, разработчикам, менеджерам проектов, юристам, а также всем, кто интересуется будущим искусственного интеллекта, его регулированием и этическими аспектами применения технологий. Читать далее

#ai_governance #ethical_ai #ai_ethics #explainable_ai #eu_ai_act | @habr_ai
Машинное обучение в решении задач медицинской метагеномики

Машинное обучение проникает во все большее число научных и прикладных областей — от финансов до биомедицины. Даже такая сложная и специфичная сфера, как медицинская метагеномика, сегодня все активнее использует ML для диагностики заболеваний, поиска биомаркеров и анализа микробиоты. О том, какие задачи решает ML в метагеномике и с какими трудностями сталкиваются исследователи, рассказывает к. м. н. Анастасия Холодная — выпускница магистратуры «Прикладной анализ данных в медицинской сфере» и эксперт Центра «Пуск». Читать далее

#машинное_обучение #микробиом #метагеномика #предобработка_данных #биомаркеры #батч_эффект #композионные_данные #explainable_ai #диагностика #медицинские_данные | @habr_ai