DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.58K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
300 Вопросов по Машинному обучению (Machine Learning) - Вопрос_222

🔠Какие есть аналоги Partial Dependence Plots (PDP) ? (Часть_2)

3. Individual Conditional Expectation (ICE) plots: Эти графики также используются для визуализации и анализа взаимодействия целевой переменной и набора входных признаков. Однако, в отличие от PDP, ICE позволяет наблюдать за изменением предсказания для конкретных значений признаков, сохраняя остальные признаки на их средних значениях.

4. ICE Curves: Подобно ICE plots, ICE Curves также позволяют наблюдать за изменением предсказания модели при изменении значений отдельных признаков, но в виде кривых, что может быть более удобно для визуализации изменений на разных уровнях признака

#Partial_Dependence_Plots #Machine_Learning #Model_Interpretation #Linear_Regression #Classification #Feature_Influence #Predictive_Modeling #Data_Visualization
В этом примере используется модель на основе деревьев (например, XGBoost) для классификации данных, но SHAP может быть применен к любой модели машинного обучения.

import shap
import xgboost
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_breast_cancer

# Загрузка и подготовка данных
data = load_breast_cancer()
X = data.data
y = data.target

# Разделение данных на обучающую и тестовую выборки
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# Обучение модели
model = xgboost.XGBClassifier(use_label_encoder=False, eval_metric='logloss')
model.fit(X_train, y_train)

# Создание объекта Explainer для модели
explainer = shap.Explainer(model)

# Вычисление значений SHAP для обучающих данных
shap_values = explainer(X_train)

# Визуализация глобальной важности признаков
shap.summary_plot(shap_values, X_train, plot_type="bar")

# Вычисление значений SHAP для тестовых данных и визуализация
shap_values_test = explainer(X_test)
shap.summary_plot(shap_values_test, X_test, plot_type="bar")
🥳🥳🥳Наконец-то, 100 отзыв на Profi.ru. Ох... сколько за это время всего было и не перечесть, проектов, знакомств, связей, интересных решений, много чего было.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥1
🚩🚩🚩Сегодня плотно работаю на соревой по Kaggle, дописываю статью про галлюцинации в LLM, скоро все это будет анонсировано и выйдет на ресурсах, также будет новая скоро статья про взлом LLM, сейчас она в разработке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Для обучения ИИ теперь можно обойтись без людей.
Трудно переоценить прорыв, достигнутый китайцами в Tencent AI Lab. Без преувеличения можно сказать, что настал «момент AlphaGo Zero» для LLM. И это значит, что AGI уже совсем близко - практически за дверью.

Первый настоящий сверхразум был создан в 2017 компанией DeepMind. Это ИИ-система AlphaGo Zero, достигшая сверхчеловеческого (недостижимого для людей) класса игры в шахматы, играя сама с собой.
Ключевым фактором успеха было то, что при обучении AlphaGo Zero не использовались наборы данных, полученные от экспертов-людей. Именно игра сама с собой без какого-либо участия людей и позволила ИИ-системе больше не быть ограниченной пределами человеческих знаний. И она вышла за эти пределы, оставив человечество далеко позади.

Если это произошло еще в 2017, почему же мы не говорим, что сверхразум уже достигнут?
Да потому, что AlphaGo Zero – это специализированный разум, достигший сверхчеловеческого уровня лишь играя в шахматы (а потом в Го и еще кое в чем).
А настоящий сверхразум (в современном понимании) должен уметь если не все, то очень многое.

Появившиеся 2 года назад большие языковые модели (LLM), в этом смысле, куда ближе к сверхразуму.
Они могут очень-очень много: писать романы и картины, сдавать экзамены и анализировать научные гипотезы, общаться с людьми практически на равных …
НО! Превосходить людей в чем либо, кроме бесконечного (по нашим меркам) объема знаний, LLM пока не могут. И потому они пока далеко не сверхразум (ведь не считает же мы сверхразумом Библиотеку Ленина, даже если к ней приделан автоматизированный поиск в ее фондах).

Причина, мешающая LLM стать сверхразумом, в том, что, обучаясь на человеческих данных, они ограничены пределами человеческих знаний.

И вот прорыв – исследователи Tencent AI Lab предложили и опробовали новый способ обучения LLM.
Он называется «Самостоятельная состязательная языковая игра» [1]. Его суть в том, что обучение модели идет без полученных от людей данных. Вместо этого, две копии LLM соревнуются между собой, играя в языковую игру под названием «Состязательное табу», придуманную китайцами для обучения ИИ еще в 2019 [2].

Первые экспериментальные результаты впечатляют (см. график).
• Копии LLM, играя между собой, с каждой новой серией игр, выходят на все более высокий уровень игры в «Состязательное табу».
• На графике показаны результаты игр против GPT-4 двух не самых сильных и существенно меньших моделей после 1й, 2й и 3й серии их обучения на играх самих с собой.

Как видите, класс существенно растет.
И кто знает, что будет, когда число самообучающих серий станет не 3, а 3 тысячи?

График: https://telegra.ph/file/9adb0d03a3a0d78e
1 https://arxiv.org/abs/2404.10642
2 https://arxiv.org/abs/1911.01622
🥶🥶🥶Snowflake только что запустила самую крупную модель с открытым исходным кодом на сегодняшний день.

👍👍👍482 млрд параметр MoE.

❄️❄️❄️17 млрд. активных параметров и 128 экспертов, обученных на 3,5 Т токенов.

Даже описание данных с открытым исходным кодом!

pip install git+https://github.com/Snowflake-Labs/transformers.git@arctic

https://huggingface.co/Snowflake/snowflake-arctic-instruct
Please open Telegram to view this post
VIEW IN TELEGRAM
Обновление делает ChatGPT менее многословным

OpenAI объявила, что премиальные пользователи ChatGPT — клиенты, которые платят за ChatGPT Plus, Team или Enterprise, теперь могут использовать обновленную и улучшенную версию передовой модели GPT-4 Turbo. Обновление сделало чат-бота менее многословным, но это хорошо: теперь он отвечает только по делу.

https://hightech.plus/2024/04/12/obnovlenie-delaet-chatgpt-menee-mnogoslovnim
🔥🔥🔥На просторах сети нашел такую схемку, объясняющую на пальцах что такое Бустинг.

⚙️⚙️⚙️Мне всегда нравились очень незатейливые и без лишней нарочитой сложности и важности объяснения. А не вот вот эти типа:
- Не трудно доказать...
- Сразу очевидно...
- Из ранее сказанного следует...

🥵🥵🥵Хотя там, вообще, ниф*га не очевидно, вообще, ничего не следует и доказать, та еще задачка )))
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥🔥🔥Компания Microsoft выпустила новую облегченную модель искусственного интеллекта Phi-3-mini, призванную сделать ее доступной для широкого круга пользователей и обеспечить легкую интеграцию в различные сферы бизнеса. Это первая из трех миниатюрных языковых моделей (SLM), выпущенных компанией, открывающая новые возможности для использования технологии в различных областях.

😐😐😐Phi-3-mini обеспечивает значительную экономию средств по сравнению с другими аналогичными моделями, что делает ее привлекательной для компаний с ограниченными ресурсами. Модель будет включена в каталог моделей ИИ для платформы облачных сервисов Azure от Microsoft, а также платформ машинного обучения Hugging Face и Ollama (https://ollama.com/).

😎😎😎Кроме того, SLM совместима с программными инструментами Nvidia Inference Microservices (NIM) и оптимизирована для графических процессоров (GPU), обеспечивая расширенную функциональность и более высокую производительность.

https://huggingface.co/microsoft/Phi-3-mini-128k-instruct
Please open Telegram to view this post
VIEW IN TELEGRAM
🚩🚩🚩https://www.evanmiller.org/ab-testing/sample-size.html - очень полезная тулза для оценки размера выборки данных, советую взять на вооружение, подкинул мой ученик. Есть проверка на некторые стат-тесты, такие как Хи-Квадрат, Т-тест, и так далее.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
☄️☄️☄️https://nbviewer.org/github/alex-sokolov2011/ds_interview_prep_resources/blob/main/live_coding/live_coding.ipynb - реальные задачи с собесов X5, Rubbles, и еще парочка, советую ознакомиться и взять на вооружение.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🆒🆒🆒Новый тренд в ИИ-рекламе

😎😎😎Производитель рыбьего жира для котов Biofeline оформил рекламный ролик в виде диалога с ChatGPT.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
😂😂😂Сегодня прочитал сокроментальную фразу о разработке в айти в целом:

- В атмосфере тотальной ненависти и всеобщего недоверия рождаются самые стабильные и отказоустойчивые системы.

Автор неизвестен.

Блин, это же квинтесенция всего опыта разработки. ))) Самые матерящиеся отделы в офисе выдают самый стабильный и отлаженый код и системы - факт )))) ахахахаха
🔥🔥🔥https://habr.com/ru/news/811391/ - неплохая заметка, ChatGPT становится все более клиенто-оринетированым, а значит управление пользователем будет только нарастать. В целом, это ожидаемый ход, после того, как OpenAI выкатили Turbo-4, говорит о том, что пока они не могут справится с "галлюцинациями" моделей и, в целом в широком смысле слова, такой подход позволяет снять много "неудобных" моментов, более того, когда цель, попасть в корпоративный сектор на первом месте по приоритету.

🥵🥵🥵Если не получатся избавится от "галлюцинации" на самом общем уровне, давайте избавляться, от них таргетно и учитывать влияние каждого пользователя на финальную выдачу по его запросу и более того, подстраиваться под каждого пользователя индивидуально. При этом, сбор данных будет еще более широкий, чем только можно себе вообразить (биометрия, психология, стили, настроения и так далее).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
🔤🔤🔤https://huggingface.co/microsoft/Phi-3-mini-128k-instruct - легкая современная открытая модель с 3,8 миллиардами параметров, обученная на основе набора данных Phi-3. Модель относится к семейству Phi-3 и имеет версию Mini в двух вариантах 4K и 128K - это длина контекста (в лексемах), которую она может поддерживать.

😎😎😎Модель предназначена для коммерческого и исследовательского использования на английском языке. Модель обеспечивает использование в приложениях, которые требуют:

- Среды с ограничением памяти/вычислений
- Сценарии с ограничением времени ожидания
- Длинные рассуждения (особенно код, математика и логика).

Phi-3 Mini-128K-Instruct поддерживает объем словарного запаса до 32064 лексем.

🔠Архитектура: Phi-3 Mini-128K-Instruct (Supervised fine-tuning (SFT), Direct Preference Optimization (DPO))
🔠Входные данные: Текст. Лучше всего подходит для подсказок, использующих формат чата.
🔠Длина контекста: 128K токенов
🔠Графические процессоры: 512 H100-80G
🔠Время обучения: 7 дней
🔠Данные для обучения: 3,3 Т токенов
🔠Выходные данные: Сгенерированный текст в ответ на входные данные
🔠Даты: Наши модели были обучены в период с февраля по апрель 2024 года.
🔠Статус: Это статическая модель, обученная на автономном наборе данных с датой отсечения в октябре 2023 года.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🛡LLM Guardrails

Существуют языковые модели, которые созданы для того, чтобы отвечать на вопросы на определенную тематику.
Например, медицинские вопросы, транспортные, заказы и проч. В контексте безопасности ИИ, в таких языковых моделях необходимо внедрение LLM Guardrails - специальных ограждений, которые смогут определить границы для ответов таких языковых моделей.

Для чего они нужны?

🔠Чтобы убедиться, что языковая модель ведет себя определенным образом, следует структуре ответов, и может задавать дополнительные вопросы.

🔠Чтобы гарантировать, что языковая модель не будет себя плохо вести. Включать вредоносную информацию в ответ, отвечать на вопросы не по теме, или задавать неуместные вопросы.

🔠В настоящее время существуют две крупные библиотеки LLM Guardrails:

🖥NVIDIA

🖥GUARDRAILS
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
😐😐😐https://www.fujitsu.com/global/about/resources/news/press-releases/2023/1109-01.html - о какая вещь появилась, хм...

🅰️🅰️🅰️Если коротко, то эта тулза позволяет оптимизировать время на просчет перераспределяя нагрузку оптимальным образом между CPU и GPU. Так сказать не GPU единым. Более того, данный процесс идет в реалтайме, тем самым мы получили виртуального брокера услуг, который пытается различить, какие программы наилучшим образом будут обработаны и где.

👇👇👇
"Например, если пользователь хочет эффективно обрабатывать три программы, используя один CPU и два GPU, можно назначить GPU для программ 1 и 2 в соответствии с доступностью GPU. Затем, в ответ на запрос программы 3, распределение GPU изменяется с программы 1 на программу 3 для измерения производительности, и измеряется степень ускорения обработки на GPU.

В результате измерения выясняется, что общее время обработки уменьшится, если выделить GPU программе 3, а не программе 1. Поэтому GPU будет выделен для программы 3, а CPU в это время будет выделен для программы 1. После завершения программы 2 GPU становится свободным, поэтому GPU снова выделяется для программы 1, и таким образом вычислительные ресурсы распределяются так, чтобы обработка программы была завершена за минимальное время."
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🔥🔥🔥https://github.com/KindXiaoming/pykan - супер нашумевшая сеть Kolmogorov-Arnold Networks (KANs) никому не дает покоя, и уже полностью в деле. Скоро я сделаю для нее полноценный разбор следите за обновлениями.

🔠🔠🔠Сети Колмогорова-Арнольда (KAN) являются перспективной альтернативой многослойным перцептронам (MLP). KAN, как и MLP, имеют прочные математические основы: MLP основаны на универсальной теореме аппроксимации, а KAN - на теореме представления Колмогорова-Арнольда. KAN и MLP являются двойственными: KAN имеют функции активации на ребрах, в то время как MLP имеют функции активации на узлах. Это простое изменение делает KAN лучше (иногда намного лучше!), чем MLP, как с точки зрения точности модели, так и с точки зрения интерпретируемости.

😎😎😎Техревью по данной сети лежит тут: https://arxiv.org/abs/2404.19756
Please open Telegram to view this post
VIEW IN TELEGRAM
😆😆😆Самое ржачное это установка этой приблуды ))) ахахахаахха.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
👉👉👉"Такой нескончаемый хайп вокруг новых моделей OpenAI кончится либо тем, что GPT-5 будет шокирующе хороша, либо тем, что словам Альтмана больше никто не поверит."

🥵🥵🥵Альтман начал, заметно уставать и в целом видно, что ресурс все больше выходит из под его контроля, а значит, нас ждет более полное погружение в еще более сложную архитектуру и выстраивание всевозможных фильтрующих контент заборов.

😎😎😎Наступает эра, что социум начинает защищаться от своего же творения. Это видно по многим публикациям на архиве. Все больше появляется всяких фаерволов и систем фильтрации контента от сеток, а значит вырастет нагрузка на DevSecOps.

☄️☄️☄️Ну закономерно, мы плавно подошли к DevSecQAMLOps, c чем, я вас и поздравляю. Даже последний разговор Альмана и Гейтса говорит о том, что парни в напряге, вернее Альтман )))
Please open Telegram to view this post
VIEW IN TELEGRAM