DenoiseLAB
486 subscribers
1.33K photos
159 videos
3 files
1.57K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
🔥🔥🔥На просторах сети нашел такую схемку, объясняющую на пальцах что такое Бустинг.

⚙️⚙️⚙️Мне всегда нравились очень незатейливые и без лишней нарочитой сложности и важности объяснения. А не вот вот эти типа:
- Не трудно доказать...
- Сразу очевидно...
- Из ранее сказанного следует...

🥵🥵🥵Хотя там, вообще, ниф*га не очевидно, вообще, ничего не следует и доказать, та еще задачка )))
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥🔥🔥Компания Microsoft выпустила новую облегченную модель искусственного интеллекта Phi-3-mini, призванную сделать ее доступной для широкого круга пользователей и обеспечить легкую интеграцию в различные сферы бизнеса. Это первая из трех миниатюрных языковых моделей (SLM), выпущенных компанией, открывающая новые возможности для использования технологии в различных областях.

😐😐😐Phi-3-mini обеспечивает значительную экономию средств по сравнению с другими аналогичными моделями, что делает ее привлекательной для компаний с ограниченными ресурсами. Модель будет включена в каталог моделей ИИ для платформы облачных сервисов Azure от Microsoft, а также платформ машинного обучения Hugging Face и Ollama (https://ollama.com/).

😎😎😎Кроме того, SLM совместима с программными инструментами Nvidia Inference Microservices (NIM) и оптимизирована для графических процессоров (GPU), обеспечивая расширенную функциональность и более высокую производительность.

https://huggingface.co/microsoft/Phi-3-mini-128k-instruct
Please open Telegram to view this post
VIEW IN TELEGRAM
🚩🚩🚩https://www.evanmiller.org/ab-testing/sample-size.html - очень полезная тулза для оценки размера выборки данных, советую взять на вооружение, подкинул мой ученик. Есть проверка на некторые стат-тесты, такие как Хи-Квадрат, Т-тест, и так далее.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
☄️☄️☄️https://nbviewer.org/github/alex-sokolov2011/ds_interview_prep_resources/blob/main/live_coding/live_coding.ipynb - реальные задачи с собесов X5, Rubbles, и еще парочка, советую ознакомиться и взять на вооружение.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🆒🆒🆒Новый тренд в ИИ-рекламе

😎😎😎Производитель рыбьего жира для котов Biofeline оформил рекламный ролик в виде диалога с ChatGPT.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
😂😂😂Сегодня прочитал сокроментальную фразу о разработке в айти в целом:

- В атмосфере тотальной ненависти и всеобщего недоверия рождаются самые стабильные и отказоустойчивые системы.

Автор неизвестен.

Блин, это же квинтесенция всего опыта разработки. ))) Самые матерящиеся отделы в офисе выдают самый стабильный и отлаженый код и системы - факт )))) ахахахаха
🔥🔥🔥https://habr.com/ru/news/811391/ - неплохая заметка, ChatGPT становится все более клиенто-оринетированым, а значит управление пользователем будет только нарастать. В целом, это ожидаемый ход, после того, как OpenAI выкатили Turbo-4, говорит о том, что пока они не могут справится с "галлюцинациями" моделей и, в целом в широком смысле слова, такой подход позволяет снять много "неудобных" моментов, более того, когда цель, попасть в корпоративный сектор на первом месте по приоритету.

🥵🥵🥵Если не получатся избавится от "галлюцинации" на самом общем уровне, давайте избавляться, от них таргетно и учитывать влияние каждого пользователя на финальную выдачу по его запросу и более того, подстраиваться под каждого пользователя индивидуально. При этом, сбор данных будет еще более широкий, чем только можно себе вообразить (биометрия, психология, стили, настроения и так далее).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
🔤🔤🔤https://huggingface.co/microsoft/Phi-3-mini-128k-instruct - легкая современная открытая модель с 3,8 миллиардами параметров, обученная на основе набора данных Phi-3. Модель относится к семейству Phi-3 и имеет версию Mini в двух вариантах 4K и 128K - это длина контекста (в лексемах), которую она может поддерживать.

😎😎😎Модель предназначена для коммерческого и исследовательского использования на английском языке. Модель обеспечивает использование в приложениях, которые требуют:

- Среды с ограничением памяти/вычислений
- Сценарии с ограничением времени ожидания
- Длинные рассуждения (особенно код, математика и логика).

Phi-3 Mini-128K-Instruct поддерживает объем словарного запаса до 32064 лексем.

🔠Архитектура: Phi-3 Mini-128K-Instruct (Supervised fine-tuning (SFT), Direct Preference Optimization (DPO))
🔠Входные данные: Текст. Лучше всего подходит для подсказок, использующих формат чата.
🔠Длина контекста: 128K токенов
🔠Графические процессоры: 512 H100-80G
🔠Время обучения: 7 дней
🔠Данные для обучения: 3,3 Т токенов
🔠Выходные данные: Сгенерированный текст в ответ на входные данные
🔠Даты: Наши модели были обучены в период с февраля по апрель 2024 года.
🔠Статус: Это статическая модель, обученная на автономном наборе данных с датой отсечения в октябре 2023 года.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🛡LLM Guardrails

Существуют языковые модели, которые созданы для того, чтобы отвечать на вопросы на определенную тематику.
Например, медицинские вопросы, транспортные, заказы и проч. В контексте безопасности ИИ, в таких языковых моделях необходимо внедрение LLM Guardrails - специальных ограждений, которые смогут определить границы для ответов таких языковых моделей.

Для чего они нужны?

🔠Чтобы убедиться, что языковая модель ведет себя определенным образом, следует структуре ответов, и может задавать дополнительные вопросы.

🔠Чтобы гарантировать, что языковая модель не будет себя плохо вести. Включать вредоносную информацию в ответ, отвечать на вопросы не по теме, или задавать неуместные вопросы.

🔠В настоящее время существуют две крупные библиотеки LLM Guardrails:

🖥NVIDIA

🖥GUARDRAILS
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
😐😐😐https://www.fujitsu.com/global/about/resources/news/press-releases/2023/1109-01.html - о какая вещь появилась, хм...

🅰️🅰️🅰️Если коротко, то эта тулза позволяет оптимизировать время на просчет перераспределяя нагрузку оптимальным образом между CPU и GPU. Так сказать не GPU единым. Более того, данный процесс идет в реалтайме, тем самым мы получили виртуального брокера услуг, который пытается различить, какие программы наилучшим образом будут обработаны и где.

👇👇👇
"Например, если пользователь хочет эффективно обрабатывать три программы, используя один CPU и два GPU, можно назначить GPU для программ 1 и 2 в соответствии с доступностью GPU. Затем, в ответ на запрос программы 3, распределение GPU изменяется с программы 1 на программу 3 для измерения производительности, и измеряется степень ускорения обработки на GPU.

В результате измерения выясняется, что общее время обработки уменьшится, если выделить GPU программе 3, а не программе 1. Поэтому GPU будет выделен для программы 3, а CPU в это время будет выделен для программы 1. После завершения программы 2 GPU становится свободным, поэтому GPU снова выделяется для программы 1, и таким образом вычислительные ресурсы распределяются так, чтобы обработка программы была завершена за минимальное время."
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🔥🔥🔥https://github.com/KindXiaoming/pykan - супер нашумевшая сеть Kolmogorov-Arnold Networks (KANs) никому не дает покоя, и уже полностью в деле. Скоро я сделаю для нее полноценный разбор следите за обновлениями.

🔠🔠🔠Сети Колмогорова-Арнольда (KAN) являются перспективной альтернативой многослойным перцептронам (MLP). KAN, как и MLP, имеют прочные математические основы: MLP основаны на универсальной теореме аппроксимации, а KAN - на теореме представления Колмогорова-Арнольда. KAN и MLP являются двойственными: KAN имеют функции активации на ребрах, в то время как MLP имеют функции активации на узлах. Это простое изменение делает KAN лучше (иногда намного лучше!), чем MLP, как с точки зрения точности модели, так и с точки зрения интерпретируемости.

😎😎😎Техревью по данной сети лежит тут: https://arxiv.org/abs/2404.19756
Please open Telegram to view this post
VIEW IN TELEGRAM
😆😆😆Самое ржачное это установка этой приблуды ))) ахахахаахха.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
👉👉👉"Такой нескончаемый хайп вокруг новых моделей OpenAI кончится либо тем, что GPT-5 будет шокирующе хороша, либо тем, что словам Альтмана больше никто не поверит."

🥵🥵🥵Альтман начал, заметно уставать и в целом видно, что ресурс все больше выходит из под его контроля, а значит, нас ждет более полное погружение в еще более сложную архитектуру и выстраивание всевозможных фильтрующих контент заборов.

😎😎😎Наступает эра, что социум начинает защищаться от своего же творения. Это видно по многим публикациям на архиве. Все больше появляется всяких фаерволов и систем фильтрации контента от сеток, а значит вырастет нагрузка на DevSecOps.

☄️☄️☄️Ну закономерно, мы плавно подошли к DevSecQAMLOps, c чем, я вас и поздравляю. Даже последний разговор Альмана и Гейтса говорит о том, что парни в напряге, вернее Альтман )))
Please open Telegram to view this post
VIEW IN TELEGRAM
😄😄😄Юмора вам в ленту, да мы все такие, я тоже, таже самая обезьяна )))) хахахаха
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2
☄️☄️☄️https://numbbo.github.io/workshops/ - всем кто "упарывается" по оптимизации, коим я тоже являюсь, советую заглянуть сюда. Очень прикольные репозитории и соревы по оптимизации методом черного ящика. Куча алгоритмов всяких разных и интересных, необычные решения и откровенная лютая дичь. В общем, просвещаемся )))
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2
🤣🤣🤣Ну наконец-то ))) Хоть кто-то придумал такую картинку. Виват ))) А то уже не перешагнуть от важности работы с сетями )))) ахахахха (Картинка сгенеренная)
😁2
🔥🔥🔥https://www.directline.pro/blog/neyroseti-dlya-sozdaniya-prezentatsiy/ - если вам надо быстро запилить нормальную презентацию вот советую глянуть этот список, полезных инструментов. Тут много интересных решений типа:
🔠 Decktopus 🔠 MagicSlides App 🔠 Slider-AI 🔠 SlidesAI 🔠 Simplified 🔠 Beautiful.ai 🔠 Gamma 🔠 Slidebean
🔠 Presentations.ai 🔠 Slidesgo
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️☄️☄️https://www.b17.ru/article/diagnostika_chatgpt/ - дифференциальный диагноз ChatGPT, даже такой поверхностный анализ говорит, что мы имеем дело с латентным социопатом с параноидальными наклонностями. Что в целом ожидаемо, так как негативные эмоции, в целом более сильные, чем позитивные.

🚩🚩🚩Но в то же время менее длительные, а с учетом того, что мы учим машину выдавать максимально-точный ответ за минимальное колличество промптов и наиболее вероятной отдачей, ситуация более чем предсказуемая. Это все наводит меня на мысль, что наши методы психологии, в будущем, вообще будут не применимы для данной области. Тут будет машинная психология.
Please open Telegram to view this post
VIEW IN TELEGRAM
Коллега прислал занятную задачку, оценить реально ли это или нет (https://youtu.be/rgD2gmwCS10?si=DMtA5Xb2S9tP-vEG), на что я сказал да это ИИ и вот почему:

🔠Да это ИИ, там между 11.33 и 11.35 он моргает, но глаз закрывается не корректно, то есть не сверху вниз, а слева направо, это баг ии. Более того, очень неестественная мимика, она не вяжется с оригиналом, и это прям режет.

🔠Кроме того, между 14.12 и 14.15, там где он руку подносит, можно посмотреть на глаза, они прям неподвижно замирают, такого не бывает. Есть такое понятие "Стеклянный" взгляд. Глаза, как бы их не фиксировать всегда сохраняют микродвижения.

☄️☄️☄️Так что будьте внимательны ))
Please open Telegram to view this post
VIEW IN TELEGRAM