Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
18.8K subscribers
2.25K photos
111 videos
64 files
4.65K links
Все самое полезное для дата сайентиста в одном канале.

По рекламе: @proglib_adv

Курс по ML: https://clc.to/4hNluQ

Для обратной связи: @proglibrary_feeedback_bot

РКН: https://gosuslugi.ru/snet/67a5b03124c8ba6dcaa121c9
Download Telegram
🔥 Это мы смотрим: Андрей Карпаты опубликовал лекцию «Введение в большие языковые модели»

Андрей Карпаты — один из ведущих специалистов OpenAI и экс-разработчик автопилота Tesla. Вчера на YouTube появилась его часовая лекция о том, как работают большие языковые модели (LLM), лежащие в основе нашумевших чат-ботов. Затрагиваются темы файн-тюнинга, улучшения моделей и их взлома. Всё должно быть понятно и новичку 👌

🕛 Некоторые тайм-коды:
00:11:22 Как работают LLM
00:25:43 Законы масштабирования LLM
00:33:32 Мультимодальность моделей
00:35:00 Про перспективы LLM
00:46:14 Про взломы

Также Карпаты опубликовал слайды презентации
👍96🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠Полезные каналы по Data Science

Напоминаем про наши каналы по Data Science, в которых мы готовимся к собеседованиям проверяем себя на практических задачках — специально для специалистов по Data Science и тех, кто хочет ими стать👨‍🏫

Подписывайтесь:
👉Библиотека собеса по Data Science — тут мы готовимся к интервью
👉Библиотека задач по Data Science — тут решаем задачи, проходим тесты и изучаем код
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3😁21
🔢 Как научиться решать сложные задачи

Нам может не даваться решение сложных математических задач по многим причинам: от стереотипов до негативного школьного опыта. К счастью, это можно исправить. В карточках перечислили лучшие на наш взгляд книги, которые помогут понять, полюбить и подтянуть математику.

Ещё больше книг, а также курсы, игры, методики и приложения — в нашей статье 👈
🔥11👍1👏1
🤖📜 Искусственный интеллект: краткая история

Впервые люди задумались о мыслящих машинах ещё в античности — у древних греков, например, был миф о гигантском бронзовом автоматоне Талосе. Позднее философы и вовсе решили, что мышление — это механический процесс, а значит его можно имитировать.

Подробнее о том, как мы докатились до создания искусственного интеллекта, читайте в статье 👀
👍3🔥21
🧑‍💻 Библиотека Comgra для дебаггинга и анализа нейросетей, написанных на PyTorch

Comgra фиксирует внутренние процессы нейронной сети, визуализирует граф вычислений и предоставляет графический интерфейс для изучения различных частей сети. Библиотека позволяет проверять наличие выбросов, смотреть как отдельные точки данных, так и сводную статистику, сравнивать градиенты и многое другое.

Установка — pip install comgra

📖 Репозиторий Comgra на GitHub
👍13🔥3👏1
🔥 -50% на курс по математике + курс по machine learning в подарок

😲 В честь черной пятницы курс «Математика для Data Science» со скидкой 50%!

14 990 рублей 29 990 рублей до 30 ноября

🐣 На курсе вы получите все необходимые знания для старта карьеры в DS или аналитике.

Что еще вас ждет на курсе:

▪️ Полугодовая программа от преподавателей ВМК МГУ;

▪️ Бессрочный доступ ко всем материалам курса;

▪️ Развернутая обратная связь по всем домашним заданиям, а также ссылки на полезные дополнительные материалы.

🎁 Но это еще не все!

⚡️При покупке курса по математике, вы получите курс по machine learning в подарок!

👉 Переходите на сайт и изучайте подробности – https://proglib.io/w/053478fb

До встречи на обучении 🙌
👍2
🤖🔥 200 тысяч токенов для контекстного окна и экспериментальные возможности: представлен чат-бот Claude 2.1

Это один из главных конкурентов ChatGPT от компании Anthropic. Напомним, что у модели GPT-4 контекстное окно составляет 128 тысяч токенов, то есть намного меньше, чем у свежей Claude 2.1. Однако, следует отметить, что 200 тысяч токенов доступны только для платных подписчиков Claude Pro.

Помимо расширения контекстного окна, у модели Anthropic на 50% снижено количество искажений и ошибочных ответов.

🔑 API-ключ можно получить по заявке. В настоящее время есть лимит запросов для организаций — не более одного за раз. Но Anthropic пишет, что может обсудить расширение лимита с желающими.

Ещё одна из интересных особенностей Claude 2.1 — возможность искать дополнительную информацию в вебе или в ваших базах данных. Реализовать это можно также через API. Доступ к этим экспериментальным функциям тоже нужно запросить отдельно.

👩‍💻 Документация Claude 2.1
✏️ Подать заявку на ранний доступ к функциям API
👍5🔥4👏2
Что такое бутстреп и где он используется?

Бутстрепом (bootstrap) называют процесс генерации подвыборок с помощью семплирования с возвращением (когда один и тот же элемент может быть выбран более одного раза).

Рассмотрим пример: у нас есть урна с пятью шарами, пронумерованными от 1 до 5. Это наша выборка. Чтобы сформировать подвыборки, мы:
🎱 вытаскиваем шар из урны и записываем его номер;
🎱 возвращаем шар в урну;
🎱 перемешиваем шары и снова вытаскиваем рандомный;
🎱 делаем так до тех пор, пока не получим равное исходному количество номеров шаров в подвыборке.

Бутстреп, например, лежит в основе бэггинга — метода ансамблевых алгоритмов. В целом, обучение модели на различных подвыборках из исходных данных позволяет оценить вариабельность её производительности.

#вопросы_с_собеседований
👍9🔥6👏2🥰1
🤖 Напоминаем, что у нас есть еженедельная email-рассылка, посвященная последним новостям и тенденциям в мире искусственного интеллекта.

В ней:
● Новости о прорывных исследованиях в области машинного обучения и нейросетей
● Материалы о применении ИИ в разных сферах
● Статьи об этических аспектах развития технологий
● Подборки лучших онлайн-курсов и лекций по машинному обучению
● Обзоры инструментов и библиотек для разработки нейронных сетей
● Ссылки на репозитории с открытым исходным кодом ИИ-проектов
● Фильмы, сериалы и книги

👉Подписаться👈
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 Библиотека nbcommands для поиска кусков кода (и не только) в Jupyter-блокнотах

Позволяет использовать Unix-команды для работы с файлами .ipynb.

Например, можно:
▪️найти все блокноты, в которых используется какой-либо кусок кода, в определённой директории — nbgrep "os" directory/
▪️вывести 5 первых ячеек Jupyter-тетрадки в стандартный терминал — nbhead notebook1.ipynb
▪️отформатировать код согласно PEP 8 — nbblack notebook1.ipynb

Установка — pip install nbcommands
или
conda install -c conda-forge nbcommands

👩‍💻 Репозиторий проекта на GitHub
4👍3
Forwarded from Библиотека программиста | программирование, кодинг, разработка
🤖 «Генеративный ИИ для начинающих» — новый курс от Microsoft, который включает 12 уроков от Microsoft Cloud Advocates. Каждый урок охватывает ключевые аспекты принципов генеративного ИИ и разработки приложений и включает:

☑️ Видеообзор темы
☑️ Текстовая лекция
☑️ Jupyter Notebook с примерами кода
☑️ Задание для самостоятельной работы
☑️ Ссылки на полезные ресурсы
👍82
🤖🍰 Исследователи представили новый метод обучения с подкреплением

В обучении с подкреплением, например, когда робота учат открывать кухонные ящички, человеку-специалисту необходимо выбрать функцию награды для ИИ-агента. Эту функцию нужно итеративно обновлять по мере того, как агент обучается новым действиям. Как отмечают авторы новой статьи, этот процесс может быть неэффективным, времязатратным и его сложно масштабировать.

🌟 Исследователи предложили новый подход Human Guided Exploration (HuGE), который не требует доработок функции награды. Вместо этого, он основывается на обратной связи, собранной от многих людей. Их обратная связь может содержать ошибки, но это не помешает ИИ-агенту эффективно учиться. Кроме того, фидбэк может собираться асинхронно, что позволяет людям по всему миру участвовать в обучении.

Один из способов собрать обратную связь — это показать человеку две фотографии состояний, достигнутых агентом, а затем спросить, какое из состояний наиболее близко к цели. Например, цель робота — открыть кухонный шкаф. На одной фотографии робот открывает дверцу какого-то шкафа, а на другой — микроволновку. Пользователь выберет то, что кажется ему более релевантным. Особенность HuGE в том, что эта обратная связь будет использоваться не в качестве функции награды, а скорее будет лишь направлять процесс обучения агента.

📖 Более подробно о HuGE можно почитать в статье исследователей
👩‍💻 Репозиторий с кодом
👍42🤔1👾1
💬 В сегодняшней подборке — ключевые статьи, которые нужно прочесть, чтобы понимать современные большие языковые модели (LLM)

✔️ Attention Is All You Need. Эту статью называют одной из фундаментальных. Именно в ней описали архитектуру Transformer, которая лежит в основе передовых LLM.
✔️ BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Статья о модели BERT, которая значительно повлияла на разработку LLM.
✔️ GPT-3. Статья об одной из самых известных языковых моделей.
✔️ Scaling Laws for Neural Language Models. Авторы изучают связь между числом параметров, размером датасета и необходимыми вычислительными мощностями для обучения LLM.
✔️ Retrieval Augmented Generation (RAG). Статья про подход, при котором языковая модель берёт «знания» как из собственных параметров, так и из векторных представлений внешних источников информации.
✔️ Jailbroken: How Does LLM Safety Training Fail? В статье изучается множество различных типов взломов или уязвимостей в больших языковых моделях.
🔥5👍21😁1🤩1