Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение
18.8K subscribers
2.25K photos
111 videos
64 files
4.66K links
Все самое полезное для дата сайентиста в одном канале.

По рекламе: @proglib_adv

Курс по ML: https://clc.to/4hNluQ

Для обратной связи: @proglibrary_feeedback_bot

РКН: https://gosuslugi.ru/snet/67a5b03124c8ba6dcaa121c9
Download Telegram
🚀 Файн-тюнинг GPT-модели для классификации спама с точностью до 96%

Об этом расскажет новая глава в учебнике Build a Large Language Model (From Scratch). Jupyter-ноутбук с кодом опубликовали в официальном репозитории.

🔗 Ссылка на главу
3
✍️ Регуляризация в машинном обучении

Регуляризация — это техника для уменьшения переобучения (overfitting), то есть ситуации, когда модель слишком хороша на обучающем датасете, но плохо работает на новых данных.

Регуляризация добавляет дополнительное ограничение на вектор весов. Мы рассмотрим два основных способа это сделать.

🔹 L1-регуляризация (Lasso)

Добавляет к функции потерь штраф, пропорциональный абсолютному значению весов модели. У метода есть полезная особенность: он может привести к тому, что у признаков, которые не оказывают большого влияния на ответ, вес в результате оптимизации получается равным нулю. Благодаря этому можно удобно удалять ненужные признаки.

🔹L2-регуляризация (Ridge)

Добавляет к функции потерь штраф, пропорциональный квадрату величины весов. Этот метод тоже уменьшает размер весов, но не обнуляет их.
🔥10
🐍👾 Best-of Machine Learning with Python

Это репозиторий с 920 библиотеками и фреймворками на Python для машинного обучения. Все проекты ранжированы по качеству. Репозиторий можно использовать как источник инструментов под различные нужды, в частности:

▫️для непосредственно машинного обучения;
▫️для визуализации данных;
▫️для работы с финансовыми, медицинскими и другими особыми данными;
▫️для оптического распознавания символов;
▫️для поиска ближайших элементов в больших наборах данных, основываясь на их векторных представлениях.

🔗 Ссылка на репозиторий
👍4
Attention, Please!: визуализированный гайд по механизму внимания в трансформерах

Механизм внимания, или Attention, — одна из важнейших частей архитектуры Transformer. До её появления использовались рекуррентные нейронные сети (RNN), у которых несколько проблем: в них сложно параллелить задачи, а также часто возникает проблема затухающих или взрывающихся градиентов, что усложняет обучение моделей с очень длинными входными последовательностями.

Механизм attention решает эти проблемы. Как именно, читайте в статье 👈
👏4👍21
🧑‍💻 OpenAI объявила о коллаборации со Stack Overflow

Главным плодом сотрудничества OpenAI и Stack Overflow стал доступ к OverflowAPI. Оно позволяет пользоваться наборами данных Stack Overflow, на которых можно обучать и донастраивать большие языковые модели.

Кроме того, OpenAI будет отображать данные партнёрской платформы напрямую в ChatGPT. Это означает, что чат-бот может начать генерировать более точный код и лучше отвечать на технические вопросы.
👏142🥰2
🧑‍💻 Подборка материалов для подготовки к live coding собеседованию на позицию Data Scientist

🔹Репозиторий с планом подготовки к алгоритмическому интервью
Разработчик составил минимально необходимый план для любого уровня подготовки. Репозиторий включает в себя ссылки на ресурсы для практики, ссылки на курсы, статьи и книги.

🔹Основы Python
Бесплатный хэндбук по основам языка от Яндекса.

🔹«Самоучитель по Python для начинающих»
Это наш текстовый курс, состоящий из 25 частей. Включает в себя, в том числе, основы работы с NumPy и Pandas.

🔹Интерактивный тренажер по SQL
Это курс на Stepik, который направлен на то, чтобы научить создавать базы данных и реализовывать запросы к ним на языке SQL.

🔹SQL Tutorial
Большой гайд на английском языке с теорией и практикой.

🔹Annotated Research Paper Implementations
Коллекция реализаций нейросетевых архитектур на PyTorch с комментариями (Transformers, StyleGAN, Stable Diffusion и др.).
👍5🥰1
🧑‍💻 Статьи для IT: как объяснять и распространять значимые идеи

Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.

Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.

Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.

👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
🔥 Вышла новая версия языка Mojo

Речь о майском релизе Mojo 24.3. Это первый крупный релиз после публичного запуска.

Mojo — это язык программирования, ориентированный на разработку в сфере машинного обучения.

Что изменилось:

🔘Модули для работы с коллекциями (List, Dict, Set и Tuple) стали более похожими на модули из Python. Например, у List появились методы pop(index), resize(new_size) и insert(index, value).

🔘Добавлены новые функции для работы с коллекциями, такие как reversed().

🔘Появились параметрические индексы в методах __getitem__() и __setitem__()

🔗 Прочесть о релизе подробнее можно по ссылке
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
🧠 «Нейросетевой словарик» для начинающих

Перечислим основные термины и понятия, которые важны для понимания процесса обучения нейросети.

🔸 Веса (Weights) — параметры модели, которые определяют силу связи между входами и выходами нейронов. В процессе обучения эти веса корректируются для минимизации ошибки.

🔸 Эпоха (Epoch) — так называют одну итерацию, за которую модель обновляет веса у всего обучающего набора данных целиком.

🔸 Функция потерь (Loss function) — используется для оценки того, насколько результаты модели хорошо согласуются с реальными значениями.

🔸 Кросс-энтропия (Cross-entropy loss) — функция потерь, которая применяется в задаче бинарной классификации. Измеряет разницу между двумя вероятностными распределениями: предсказанным и истинным.

🔸Метод обратного распространения ошибки (Backpropagation) — позволяет минимизировать функцию потерь путём коррекции весов. Вычисляет производную по каждому весу 𝑤 с использованием цепного правила.

🔸 Скорость обучения (Learning rate) — параметр, определяющий величину шага обновления весов во время обучения. Слишком большая скорость может привести к нестабильному обучению, а слишком маленькая — к замедлению процесса и застреванию в локальных минимумах.
🥰124🥱1
🔥 Вышла AlphaFold 3

Это новое поколение революционной модели, которая способна предсказывать пространственную структуру и взаимодействия белков. AlphaFold 3 как минимум на 50% лучше предыдущей версии в предсказаниях взаимодействий белков с другими молекулами.

Как это работает

AlphaFold 3 на вход подают список молекул, а на выход модель отдаёт их объединённую 3D-структуру. Она может моделировать крупные биомолекулы, такие как белки, ДНК и РНК, а также маленькие, лиганды, к которым относятся многие лекарства.

В основе модели лежит архитектура Evoformer. После обработки входных данных AlphaFold 3 компонует прогнозы с использованием диффузионной сети, подобной тем, что применяются в генераторах изображений. Процесс диффузии начинается с облака атомов и постепенно сходится к окончательной молекулярной структуре.

🚀 Исследователи надеются, что AlphaFold 3 поможет в открытии новых лекарств. Учёные могут получить доступ к большинству возможностей модели бесплатно через AlphaFold Server.
🔥10👍3
Исследователи представили новую архитектуру xLSTM

xLSTM расшифровывается как Extended Long Short-Term Memory. Как можно догадаться, это улучшение для традиционных LSTM сетей.

xLSTM внедряет:

🔸Экспоненциальный гейтинг.
🔸Новую структуру памяти: теперь она состоит из sLSTM и mLSTM. Первая включает механизм смешивания памяти. Вторая использует матрицы, чтобы лучше хранить информацию и параллелить обучение.

В статье утверждается, что xLSTM превосходит стандартные LSTM и трансформеры за счёт улучшенной архитектуры и способности эффективно работать с последовательностями большой длины.

🔗 Читать исследовательскую статью
👍12🔥1
В магазине сделаны следующие покупки: клиент1 — хлеб, молоко; клиент2 — хлеб, молоко, печенье; клиент3 — печенье, чай; клиент4 — хлеб, чай; клиент5 — чай, конфеты. Чему равна значимость (conf) правила (хлеб -> молоко)?
Anonymous Quiz
4%
0
27%
1/3
63%
2/3
7%
1
🧑‍💻 Deep Learning Models

Репозиторий с коллекцией моделей и архитектур глубокого обучения. Все они представлены в Jupyter Notebook.

Репо охватывает модели:

▫️Перцептрон;
▫️Многослойный перцептрон;
▫️Свёрточные нейронные сети (AlexNet, LeNet и др.);
▫️Transformers;
▫️Генеративно-состязательные сети (GAN);
▫️Графовые нейронные сети.

🔗 Ссылка на репозиторий
👏3😁21👍1
👥 Лучшие практики создания рекомендательных систем

Recommenders — это репозиторий, в котором собраны Jupyter-блокноты с примерами рекомендательных систем. Они охватывают подготовку данных, построение моделей, оценку, а также внедрение в продакшн с помощью Azure.

Репозиторий может стать хорошей подсказкой для тех, кто начинает знакомство с этой областью применения машинного обучения.

🔗 Ссылка на репозиторий
5👏4
📄 Если вы любите читать исследовательские статьи по ML, то есть удобный способ их отслеживать

В репозитории ML Papers of The Week каждую неделю публикуют подборку самых интересных и значимых статей.

Вот, например, подборка статей недели с 29 апреля по 5 мая:
▫️Kolmogorov-Arnold Networks
▫️Better and Faster LLMs via Multi-token Prediction
▫️Med-Gemini
▫️When to Retrieve?
▫️A Survey on Retrieval-Augmented Language Models
▫️An Open-source LM Specialized in Evaluating Other LMs
▫️Self-Play Preference Optimization
▫️Inner Workings of Transformer Language Models
▫️Multimodal LLM Hallucinations
▫️In-Context Learning with Long-Context Models

🔗 Ссылка на репозиторий
🔥5👍3👏2
Самые полезные каналы для программистов в одной подборке!

Сохраняйте себе, чтобы не потерять 💾

🔥Для всех

Библиотека программиста — новости, статьи, досуг, фундаментальные темы
Книги для программистов
IT-мемы
Proglib Academy — тут мы рассказываем про обучение и курсы

🤖Про нейросети
Библиотека робототехники и беспилотников | Роботы, ИИ, интернет вещей
Библиотека нейрозвука | Транскрибация, синтез речи, ИИ-музыка
Библиотека нейротекста | ChatGPT, Gemini, Bing
Библиотека нейровидео | Sora AI, Runway ML, дипфейки
Библиотека нейрокартинок | Midjourney, DALL-E, Stable Diffusion

#️⃣C#

Книги для шарпистов | C#, .NET, F#
Библиотека шарписта — полезные статьи, новости и обучающие материалы по C#
Библиотека задач по C# — код, квизы и тесты
Библиотека собеса по C# — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Вакансии по C#, .NET, Unity Вакансии по PHP, Symfony, Laravel

☁️DevOps

Библиотека devops’а — полезные статьи, новости и обучающие материалы по DevOps
Вакансии по DevOps & SRE
Библиотека задач по DevOps — код, квизы и тесты
Библиотека собеса по DevOps — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования

🐘PHP

Библиотека пхпшника — полезные статьи, новости и обучающие материалы по PHP
Вакансии по PHP, Symfony, Laravel
Библиотека PHP для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по PHP — код, квизы и тесты

🐍Python

Библиотека питониста — полезные статьи, новости и обучающие материалы по Python
Вакансии по питону, Django, Flask
Библиотека Python для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Python — код, квизы и тесты

Java

Книги для джавистов | Java
Библиотека джависта — полезные статьи по Java, новости и обучающие материалы
Библиотека Java для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Java — код, квизы и тесты
Вакансии для java-разработчиков

👾Data Science

Книги для дата сайентистов | Data Science
Библиотека Data Science — полезные статьи, новости и обучающие материалы по Data Science
Библиотека Data Science для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Data Science — код, квизы и тесты
Вакансии по Data Science, анализу данных, аналитике, искусственному интеллекту

🦫Go

Книги для Go разработчиков
Библиотека Go разработчика — полезные статьи, новости и обучающие материалы по Go
Библиотека Go для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по Go — код, квизы и тесты
Вакансии по Go

🧠C++

Книги для C/C++ разработчиков
Библиотека C/C++ разработчика — полезные статьи, новости и обучающие материалы по C++
Библиотека C++ для собеса — тренируемся отвечать на каверзные вопросы во время интервью и технического собеседования
Библиотека задач по C++ — код, квизы и тесты
Вакансии по C++

💻Другие каналы

Библиотека фронтендера
Библиотека мобильного разработчика
Библиотека хакера
Библиотека тестировщика
Вакансии по фронтенду, джаваскрипт, React, Angular, Vue
Вакансии для мобильных разработчиков
Вакансии по QA тестированию
InfoSec Jobs — вакансии по информационной безопасности

📁Чтобы добавить папку с нашими каналами, нажмите 👉сюда👈

Также у нас есть боты:
Бот с IT-вакансиями
Бот с мероприятиями в сфере IT

Мы в других соцсетях:
🔸VK
🔸YouTube
🔸Дзен
🔸Facebook *
🔸Instagram *

* Организация Meta запрещена на территории РФ
👍1
👀 Отличные визуальные объяснения основных концепций и алгоритмов машинного обучения

MLU-Explain — это инициатива Amazon, направленная на помощь в изучении теории и практики машинного обучения.

Каждая из тема ниже сопровождается понятными объяснениями и интерактивными графиками.
🔸Нейронные сети
🔸Equality of odds
🔸Логистическая регрессия
🔸Линейная регрессия
🔸Обучение с подкреплением
🔸Случайный лес и др.

🔗 Ссылка на сайт
🔥6
Чем отличаются друг от друга Transfer learning, Fine-tuning и Multi-task learning?

▫️Transfer learning
Эта техника позволяет использовать накопленный при решении одной задачи опыт для решения другой, аналогичной проблемы. Мы берём предобученную на большом наборе данных нейросеть, её последние несколько слоёв заменяются на нужную архитектуру, а затем только эти слои дообучаются на целевом датасете.

▫️Fine-tuning
Идея похожа на Transfer learning, однако Fine-tuning подразумевает корректировку параметров предобученной модели по всем слоям или по какой-то их части. Для корректировки используется новый набор данных, подходящий для вашей конкретной задачи.

▫️Multi-task learning
Этот подход предполагает одновременное обучение модели для решения нескольких задачах. Это позволяет улучшить обобщающую способность за счёт совместного извлечения признаков.

#вопросы_с_собеседований
7👍1