📈 Привет, друзья!
Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)
Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.
Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.
Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.
Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).
Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.
С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.
На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.
Меня это прям восхищает.
Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)
Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.
Как только доделаю, будут ссылки! 😌
До встречи!
Ваш, Дата-автор!
Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)
Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.
Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.
Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.
Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).
Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.
С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.
На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.
Меня это прям восхищает.
Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)
Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.
Как только доделаю, будут ссылки! 😌
До встречи!
Ваш, Дата-автор!
❤🔥5🔥3
🐥 Как разобраться, что такое XAI? Какие модели можно назвать интерпретируемыми и почему? Как научиться считать SHAP и строить LIME, поняв, что там математически?
Привет, друзья!
А вот и первые ссылки! Я дописала бесплатную часть курса по explainable AI: Интерпретируемые модели!
Что в курсе:
— Полное описание области: зачем она, какие решает задачи и какие использует термины;
— Описания всех интерпретируемых ML моделей, а также то, как корректно их интерпретировать;
— Интерпретация ансамблей: Random Forest, XGBoost, LGBM и CatBoost — какие есть возможности и что с ней может быть не так;
— Код на Python для практики — открытые домашки;
— SHAP и LIME — самые популярные методы области — разобранные теоретически и практически.
Курс будет полезен:
Тем, кто только начинает изучать ML модели и имеет опыт работы с ними 1-2 года (или меньше);
Тем, кто хочет освежить знания классики и углубить работу с вкладами признаков;
Тем, кто читал 1000 статей по SHAP и LIME, но так ничего и не понял (бывает!).
Что внутри: Теория, практика, 101 тестовая задачка, 5 домашек с кодом и красивые картинки. В общем — я старалась и приглашаю присоединиться!
Новых вам знаний!
Ваш Дата-автор! ❤️
Привет, друзья!
А вот и первые ссылки! Я дописала бесплатную часть курса по explainable AI: Интерпретируемые модели!
Что в курсе:
— Полное описание области: зачем она, какие решает задачи и какие использует термины;
— Описания всех интерпретируемых ML моделей, а также то, как корректно их интерпретировать;
— Интерпретация ансамблей: Random Forest, XGBoost, LGBM и CatBoost — какие есть возможности и что с ней может быть не так;
— Код на Python для практики — открытые домашки;
— SHAP и LIME — самые популярные методы области — разобранные теоретически и практически.
Курс будет полезен:
Тем, кто только начинает изучать ML модели и имеет опыт работы с ними 1-2 года (или меньше);
Тем, кто хочет освежить знания классики и углубить работу с вкладами признаков;
Тем, кто читал 1000 статей по SHAP и LIME, но так ничего и не понял (бывает!).
Что внутри: Теория, практика, 101 тестовая задачка, 5 домашек с кодом и красивые картинки. В общем — я старалась и приглашаю присоединиться!
Новых вам знаний!
Ваш Дата-автор! ❤️
Stepik: online education
Интерпретируемые модели AI
В курсе изучаются концепции и определения области XAI. Приводится практическая ценность и мотивации данной области. За время прохождения, вы погрузитесь в терминологию и научитесь классифицировать методы объяснения, рассмотрите модели ML и научитесь корректно…
🔥8❤7❤🔥1
Привет, друзья! 🐗
Нашла ещё одну библиотеку, для построения объяснений в CV задачах.
Библиотека: easy_explain
Совместимость: pytorch + YOLOv8
Поддерживаемые методы:
1. Occlusion
2. CAM — карты активации классов SmoothGradCAMpp & LayerCAM .
3. Layer-wise Relevance Propagation (LRP) — адаптирован под YOLOv8 для задач детекции
Также обновила всё в табличку.
Чудесного вам вечера!
Ваш Дата-автор! 😌
P.S. Спасибо, что присоединяетесь к курсу! Для меня это очень важно и ценно, рада видеть каждого! ❤️
Нашла ещё одну библиотеку, для построения объяснений в CV задачах.
Библиотека: easy_explain
Совместимость: pytorch + YOLOv8
Поддерживаемые методы:
1. Occlusion
2. CAM — карты активации классов SmoothGradCAMpp & LayerCAM .
3. Layer-wise Relevance Propagation (LRP) — адаптирован под YOLOv8 для задач детекции
Также обновила всё в табличку.
Чудесного вам вечера!
Ваш Дата-автор! 😌
P.S. Спасибо, что присоединяетесь к курсу! Для меня это очень важно и ценно, рада видеть каждого! ❤️
GitHub
GitHub - stavrostheocharis/easy_explain: An XAI library that helps to explain AI models in a really quick & easy way
An XAI library that helps to explain AI models in a really quick & easy way - stavrostheocharis/easy_explain
🔥8❤2
🍀 Привет, друзья!
В последнее время активно изучаю информацию о механистической интерпретируемости. Одна из моих центральных задач — обобщить, что происходит, и связать это с общими событиями и методами в области explainable AI.
🦜Механистическая интерпретируемость (MI) — частный случай просто интерпретируемости, но прикрученный к пониманию глубоких моделей. И хотя о ней в сообществе говорят относительно недавно, само понятие не ново — оно приходит из нейробиологии и когнитивных наук.
MI относится к классу внутренних методов интерпретации, и ключевая особенность, отделяющая MI от всего XAI — сосредоточена на задаче детального восстановления поведения моделей.
Наиболее активно сейчас исследуются 4 направления, выраженные в гипотезах.
В каких, и причем тут попугаи, коты и машины — смотрите в статье!
Там много картинок и ссылок. Конечно, красивых!
В последнее время активно изучаю информацию о механистической интерпретируемости. Одна из моих центральных задач — обобщить, что происходит, и связать это с общими событиями и методами в области explainable AI.
🦜Механистическая интерпретируемость (MI) — частный случай просто интерпретируемости, но прикрученный к пониманию глубоких моделей. И хотя о ней в сообществе говорят относительно недавно, само понятие не ново — оно приходит из нейробиологии и когнитивных наук.
MI относится к классу внутренних методов интерпретации, и ключевая особенность, отделяющая MI от всего XAI — сосредоточена на задаче детального восстановления поведения моделей.
Наиболее активно сейчас исследуются 4 направления, выраженные в гипотезах.
В каких, и причем тут попугаи, коты и машины — смотрите в статье!
Там много картинок и ссылок. Конечно, красивых!
Telegraph
Гипотезы механистической интерпретируемости (MI): как работают нейронные сети внутри?
Исследования в области механистической интерпретируемости (Mechanistic Interpretability, MI) стремятся понять внутренние механизмы работы нейронных сетей. Ниже я привожу четыре ключевые гипотезы, выдвигаемые исследователями, чтобы объяснить, как модели представляют…
🔥5❤🔥3
🎄 Привет, друзья!
Часто можно столкнуться с ситуацией, когда фреймворк, в котором реализован метод объяснения, просто не "дружит" с реализацией модели.
На днях я решала именно такую проблему — в рамках практики на заводе (🗿) мне нужно было проанализировать стабильность YOLO NAS. Так и появился туториал, в котором я решила разобрать, как использовать CAM (class activation map) для объяснения моделей зрения.
Почему CAM?
Class Activation Maps (CAM) — базовый инструмент для визуализации того, какие области изображения наиболее важны для модели при принятии решения. Он позволяет понять:
1. Какие признаки извлекает модель на разных слоях свертки;
2. Какие зоны изображения вносят вклад в прогноз конкретного класса;
С практической точки зрения:
1. Его почти всегда можно реализовать руками (если у вас есть задача классификации и сверточный слой);
2. Его можно использовать практически в любой задаче классификации с использованием сверточных нейронных сетей.
Прошу к чтению!
1. Туториал на Хабр
2. Туториал на гитхаб (ноутбук файлом)
3. Туториал на английском (коллаб)
P.S. а ещё там милые животные и красивые картинки — можно позапускать и поиграть =)
Всё ещё Ваш,
Дата-автор!
Часто можно столкнуться с ситуацией, когда фреймворк, в котором реализован метод объяснения, просто не "дружит" с реализацией модели.
На днях я решала именно такую проблему — в рамках практики на заводе (🗿) мне нужно было проанализировать стабильность YOLO NAS. Так и появился туториал, в котором я решила разобрать, как использовать CAM (class activation map) для объяснения моделей зрения.
Почему CAM?
Class Activation Maps (CAM) — базовый инструмент для визуализации того, какие области изображения наиболее важны для модели при принятии решения. Он позволяет понять:
1. Какие признаки извлекает модель на разных слоях свертки;
2. Какие зоны изображения вносят вклад в прогноз конкретного класса;
С практической точки зрения:
1. Его почти всегда можно реализовать руками (если у вас есть задача классификации и сверточный слой);
2. Его можно использовать практически в любой задаче классификации с использованием сверточных нейронных сетей.
Прошу к чтению!
1. Туториал на Хабр
2. Туториал на гитхаб (ноутбук файлом)
3. Туториал на английском (коллаб)
Всё ещё Ваш,
Дата-автор!
Хабр
Анализ обработки признаков в YOLO NAS S при помощи CAM
Методы объяснения моделей — практичный инструмент для понимания модели, оценки её точности и стабильности. Однако, часто можно столкнуться с ситуацией, когда фреймворк, в котором метод реализован,...
👍7❤🔥3
❤️ Привет, друзья!
🔅Новая библиотека, в этот раз для текстовых данных.
Библиотека: explabox, paper
Совместимость: pytorch, Keras, tensorflow (главное — формат onnx), scikit-learn
Ограничение: только текстовая модальность даных (датасеты Hf, pandas, numpy arrays)
Поддерживаемые методы:
1. LIME
2. KernelSHAP
3. Counterfactual/contrastive explanations [FoilTrees]
4. Local rule-based models
🔅 Ещё реализованы метрики: чувствительность (robustness, оценка того, как небольшие изменения влияют на объяснение), безопасность (security, например, если входные данные, содержащие определенные символы, приводят к сбою модели) и справедливости (fairness, например, оценка на специфических признака — страна происхождения, пол, раса или социально-экономический статус)
Также обновила в табличку (https://xai-table.streamlit.app/).
Чудесного вам вечера!
Ваш Дата-автор,копающийся в контенте о DeepSeek! 🐳
🔅Новая библиотека, в этот раз для текстовых данных.
Библиотека: explabox, paper
Совместимость: pytorch, Keras, tensorflow (главное — формат onnx), scikit-learn
Ограничение: только текстовая модальность даных (датасеты Hf, pandas, numpy arrays)
Поддерживаемые методы:
1. LIME
2. KernelSHAP
3. Counterfactual/contrastive explanations [FoilTrees]
4. Local rule-based models
🔅 Ещё реализованы метрики: чувствительность (robustness, оценка того, как небольшие изменения влияют на объяснение), безопасность (security, например, если входные данные, содержащие определенные символы, приводят к сбою модели) и справедливости (fairness, например, оценка на специфических признака — страна происхождения, пол, раса или социально-экономический статус)
Также обновила в табличку (https://xai-table.streamlit.app/).
Чудесного вам вечера!
Ваш Дата-автор,
GitHub
GitHub - MarcelRobeer/explabox: Explore/examine/explain/expose your model with the explabox!
Explore/examine/explain/expose your model with the explabox! - MarcelRobeer/explabox
🔥4❤3🤔1
🍉 Привет, друзья!
Мне нужна ваша помощь!
✔️ Если среди вас есть авторы каналов и вам:
— интересно подготовить и разместить классный материал на стыке вашей области и explainable AI;
— нравится курс «Explainable AI» и вы хотите подарить своим читателям промокод;
✔️ Или же вы не автор, но:
— у вас другие идеи для сотрудничества;
Напишите мне: @sabrina_sadiekh!
Открыта к свежим идеям!
По новым материалам — готовлю туториал по зондированию (probing) моделей на примере GPT. Также есть несколько идей по обзорам, но пока планомерно включаюсь в рабочий процесс после долгого больничного.
До скорых публикаций,
Ваш Дата автор! ❤️
Мне нужна ваша помощь!
✔️ Если среди вас есть авторы каналов и вам:
— интересно подготовить и разместить классный материал на стыке вашей области и explainable AI;
— нравится курс «Explainable AI» и вы хотите подарить своим читателям промокод;
✔️ Или же вы не автор, но:
— у вас другие идеи для сотрудничества;
Напишите мне: @sabrina_sadiekh!
Открыта к свежим идеям!
По новым материалам — готовлю туториал по зондированию (probing) моделей на примере GPT. Также есть несколько идей по обзорам, но пока планомерно включаюсь в рабочий процесс после долгого больничного.
До скорых публикаций,
Ваш Дата автор! ❤️
❤12
🐳 DeepSeek, CoT, reasoning и explainable AI
Привет, друзья!
DeepSeek взорвал новостные ленты абсолютно везде. Дублировать информацию не хочу, а вот закинуть немного рассуждений в сторону модели — хочу. Хорошие посты про DeepSeek есть на Хабр — вот и на канале «Силошная».
Поговорим, конечно в ключе DeepSeek и XAI.
Факт — DeepSeek, как и GPT, как и другие LLM модели, демонстрирует отличные возможности, схожие с человеческим мышлением. Причем мышлением уровня почти любого специалиста — автоматизация создания постов для соцсетей — один сценарий, а вот автоматизация написания научных работ — другой. Кроме того, выдвигаются гипотезы о том, что LLM могут генерировать новые научные идеи на уровне экспертов (это спорно и субъективно).
В общем, LLM беспокоят автоматизацию человечества. Но это очень красиво!
Что особенного в DeepSeek — явный процесс рассуждения. В постах, выдвигающих модель на передний план [1], [2], [3] подсвечивается именно оно и его важность для XAI.
Теперь перейдем к области XAI — тут существует гипотеза, что рассуждение (reasoning) в моделях также можно называть техникой самообъяснения. Часто, в статьях объяснения от LLM рассматриваются с отметкой хорошего качества. Кто-то пишет более глобально, выдвигая гипотезу, что объяснение, даваемое моделью при инференсе может вообще решать проблему интерпретируемости в LLM.
Чуть углубляя детали — обоснование, рассуждение началось с цепочек мыслей (Chain-of-Thought Prompting (CoT)), улучшающих даже маленькие модели.
Если кратко — метод Chain-of-Thought Prompting (CoT) заключается в том, чтобы стриггерить поэтапное рассуждение. В некоторых случаях (в о1, например), CoT реализуется внутри модели, и тогда просить её рассуждать не нужно — она сама с этим справляется.
🐳 Насколько CoT и reasoning надежны, в контексте принятия решения за объяснения?
Объективный взгляд:
1. Ни то, не другое не даёт глобальных объяснений и ничего не говорит о паттернах, изученных внутри модели.
Каждый раз мы смотри рассуждение на конкретном примере и не видим глобальных объяснений внутренней информации в модели.
2. CoT склонен к галлюцинациям и непоследовательности
Например, ChatGPT может демонстририровать причинно-следственные галлюцинации [пример, 4]. На более сложных бенчмарках исследователи в показывают, что рассуждение и объяснение чувствительно к сдвигу данных [5]. Также можно показать, что качество CoT чувствительно к формулировке промта (попробуйте поломать модель, например, ухудшением грамматики промта).
3. Если посмотреть на LLM в math reasoning (и это можно обобщить на пример любой дисциплины) — тут тоже свои проблемы. Начиная неверной интерпретацией вопроса, заканчивая нестабильностью. Кроме того, если окончательный ответ правильный, шаги рассуждения могут быть кривыми (почитать).
Личное мнение:
С одной стороны, нельзя отменить результат, что качество работы, написанной LLM (в том числе научной) может быть высоко оценено экспертом. С другой, всё, что LLM объясняет на естественном языке оценивается носителем естественного языка, и, как следствие, имеет bias в сторону носителя.
🐳 Вывод
Нельзя опровергнуть, что LLM «умнее» какого-то процента людей, и DeepSeek — ещё одно умопомрачающее доказательство этого. Однако, это не отменяет необходимости учиться рассуждать на уровне LLM в необходимой предметной области, чтобы верифицировать ответы на вопросы.
Такой субботний лонгрид, друзья! Что думаете про способности LLM вы?
P.S. конечно, всегда ваш,
Дата-автор!
Привет, друзья!
DeepSeek взорвал новостные ленты абсолютно везде. Дублировать информацию не хочу, а вот закинуть немного рассуждений в сторону модели — хочу. Хорошие посты про DeepSeek есть на Хабр — вот и на канале «Силошная».
Поговорим, конечно в ключе DeepSeek и XAI.
Факт — DeepSeek, как и GPT, как и другие LLM модели, демонстрирует отличные возможности, схожие с человеческим мышлением. Причем мышлением уровня почти любого специалиста — автоматизация создания постов для соцсетей — один сценарий, а вот автоматизация написания научных работ — другой. Кроме того, выдвигаются гипотезы о том, что LLM могут генерировать новые научные идеи на уровне экспертов (это спорно и субъективно).
В общем, LLM беспокоят автоматизацию человечества. Но это очень красиво!
Что особенного в DeepSeek — явный процесс рассуждения. В постах, выдвигающих модель на передний план [1], [2], [3] подсвечивается именно оно и его важность для XAI.
Теперь перейдем к области XAI — тут существует гипотеза, что рассуждение (reasoning) в моделях также можно называть техникой самообъяснения. Часто, в статьях объяснения от LLM рассматриваются с отметкой хорошего качества. Кто-то пишет более глобально, выдвигая гипотезу, что объяснение, даваемое моделью при инференсе может вообще решать проблему интерпретируемости в LLM.
Чуть углубляя детали — обоснование, рассуждение началось с цепочек мыслей (Chain-of-Thought Prompting (CoT)), улучшающих даже маленькие модели.
Если кратко — метод Chain-of-Thought Prompting (CoT) заключается в том, чтобы стриггерить поэтапное рассуждение. В некоторых случаях (в о1, например), CoT реализуется внутри модели, и тогда просить её рассуждать не нужно — она сама с этим справляется.
🐳 Насколько CoT и reasoning надежны, в контексте принятия решения за объяснения?
Объективный взгляд:
1. Ни то, не другое не даёт глобальных объяснений и ничего не говорит о паттернах, изученных внутри модели.
Каждый раз мы смотри рассуждение на конкретном примере и не видим глобальных объяснений внутренней информации в модели.
2. CoT склонен к галлюцинациям и непоследовательности
Например, ChatGPT может демонстририровать причинно-следственные галлюцинации [пример, 4]. На более сложных бенчмарках исследователи в показывают, что рассуждение и объяснение чувствительно к сдвигу данных [5]. Также можно показать, что качество CoT чувствительно к формулировке промта (попробуйте поломать модель, например, ухудшением грамматики промта).
3. Если посмотреть на LLM в math reasoning (и это можно обобщить на пример любой дисциплины) — тут тоже свои проблемы. Начиная неверной интерпретацией вопроса, заканчивая нестабильностью. Кроме того, если окончательный ответ правильный, шаги рассуждения могут быть кривыми (почитать).
Личное мнение:
С одной стороны, нельзя отменить результат, что качество работы, написанной LLM (в том числе научной) может быть высоко оценено экспертом. С другой, всё, что LLM объясняет на естественном языке оценивается носителем естественного языка, и, как следствие, имеет bias в сторону носителя.
🐳 Вывод
Нельзя опровергнуть, что LLM «умнее» какого-то процента людей, и DeepSeek — ещё одно умопомрачающее доказательство этого. Однако, это не отменяет необходимости учиться рассуждать на уровне LLM в необходимой предметной области, чтобы верифицировать ответы на вопросы.
Такой субботний лонгрид, друзья! Что думаете про способности LLM вы?
P.S. конечно, всегда ваш,
Дата-автор!
🔥7👍4❤1🐳1
P.S., Друзья! В будущую субботу в 18:00
немного поболтаем про способности LLM с Владом Тен (tg ch) — человеком, который, мне кажется, вырастил немалое количество нынешних программистов.
🏔 У меня вообще огромный восторг, потому что я тоже смотрела видосы Влада на ютуб (которых уже нет), и Влад в какой- то момент моего пути вдохновил меня видео с рассуждением на фоне травы и гор .
У Влада огромный боевой опыт решения задач на LeetCode и такой же опыт прохождения собеседований — в Bolt, Amazon, Microsoft. И путь у Влада тоже интересный! Так что в субботу мы соберемся обсудить, как то, что модели решают задачи как человек (и даже лучше) влияет на необходимость формирования собственных навыков.
Будем рады всех видеть, до встречи!
В комметанрии можете накидать вопросов (по теме), на которые хотели бы послушать ответы/рассуждения. Постараемся ответить!
немного поболтаем про способности LLM с Владом Тен (tg ch) — человеком, который, мне кажется, вырастил немалое количество нынешних программистов.
🏔
У Влада огромный боевой опыт решения задач на LeetCode и такой же опыт прохождения собеседований — в Bolt, Amazon, Microsoft. И путь у Влада тоже интересный! Так что в субботу мы соберемся обсудить, как то, что модели решают задачи как человек (и даже лучше) влияет на необходимость формирования собственных навыков.
Будем рады всех видеть, до встречи!
В комметанрии можете накидать вопросов (по теме), на которые хотели бы послушать ответы/рассуждения. Постараемся ответить!
👍7🔥5❤1
Привет, друзья! С днём всех влюбленных вас!
Будьте влюблены — в себя, в других, в свою работу и увлекательный процесс изучения всего в жизни!
А я очень люблю вас! 🫶🏻
И конечно — повторим дата-валентинки! Вы знаете, что делать!
Чудесной пятницы,
Ваш Дата-автор! ❤️
Будьте влюблены — в себя, в других, в свою работу и увлекательный процесс изучения всего в жизни!
А я очень люблю вас! 🫶🏻
И конечно — повторим дата-валентинки! Вы знаете, что делать!
Чудесной пятницы,
Ваш Дата-автор! ❤️
❤14❤🔥2
Привет, друзья! Напоминаю, что через пару часов будет созвон с Владом.
Порассуждаем на тему решения задач LLM на уровне человека и что нам-людям с этим делать :)
Порассуждаем на тему решения задач LLM на уровне человека и что нам-людям с этим делать :)
👍7🔥3❤1
🇨🇳 Друзья, спасибо, что были на эфире и задавали вопросы!
Эфир, к сожалению, сохранился лишь частично и бито по соотношению звука и картинки, но мы решили повторить эфир чуть позже — с записью и звуком. Так что будет повтор, как только поймем когда — напишу!
Немножко key-моментов:
1. Поговорили про то, какого это — перекатываться из гуманитариев в математики.
2. Зафиксировали, что LLM могут быть успешно применены уже много где — от задач, связанных с контентом до поиска и понимания закономерностей в геномных последовательностях, но галлюцинации, неустойчивость и другие внутренние ошибки мешают слепому использованию;
3. Сделали ставку на то, что моментально общество не поменяется;
4. Пришли к консенсусу, что учёба — развивает личность и умение решать задачи — это всегда про вашу особенность, силу и уникальность, так что учиться — ещё полезно и нужно;
5. Видели кота.
Ссылки/курсы/материалы, про которые говорили:
1. Открытый курс по интерпретируемым моделям [free]
2. Открытый курс по ML моделям [free]
3. Курсы моих коллег [если что — маякните, договорюсь на промокод]
4. Канал и курс Влада по алгоритмам
5. Мой курс по объяснению моделей (XAI) (есть промокод)
6. Пухлый обзор LLM в отношении кодовых задач
Чудесного вам вечера! И до связи на новой неделе ❤️🔥
Ваш Дата-автор!
Эфир, к сожалению, сохранился лишь частично и бито по соотношению звука и картинки, но мы решили повторить эфир чуть позже — с записью и звуком. Так что будет повтор, как только поймем когда — напишу!
Немножко key-моментов:
1. Поговорили про то, какого это — перекатываться из гуманитариев в математики.
2. Зафиксировали, что LLM могут быть успешно применены уже много где — от задач, связанных с контентом до поиска и понимания закономерностей в геномных последовательностях, но галлюцинации, неустойчивость и другие внутренние ошибки мешают слепому использованию;
3. Сделали ставку на то, что моментально общество не поменяется;
4. Пришли к консенсусу, что учёба — развивает личность и умение решать задачи — это всегда про вашу особенность, силу и уникальность, так что учиться — ещё полезно и нужно;
5. Видели кота.
Ссылки/курсы/материалы, про которые говорили:
1. Открытый курс по интерпретируемым моделям [free]
2. Открытый курс по ML моделям [free]
3. Курсы моих коллег [если что — маякните, договорюсь на промокод]
4. Канал и курс Влада по алгоритмам
5. Мой курс по объяснению моделей (XAI) (есть промокод)
6. Пухлый обзор LLM в отношении кодовых задач
Чудесного вам вечера! И до связи на новой неделе ❤️🔥
Ваш Дата-автор!
❤12❤🔥6