🌟 Google представила инструмент для преобразования любой научной статьи в подкаст.
Illuminate – это сервис text-to-audio, который позволяет быстро ознакомиться с содержанием научных статей.
Сейчас инструмент доступен только по запросу – необходимо встать в очередь ожидания. Однако на сайте Illuminate уже есть подкасты по известным научным статьям в области искусственного интеллекта:
🎧 Attention is All You Need
🎧 Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
🎧 On Limitations of the Transformer Architecture
🎧 MLP-Mixer: An all-MLP Architecture for Vision
https://illuminate.google.com/home
@machinelearning_interview
Illuminate – это сервис text-to-audio, который позволяет быстро ознакомиться с содержанием научных статей.
Сейчас инструмент доступен только по запросу – необходимо встать в очередь ожидания. Однако на сайте Illuminate уже есть подкасты по известным научным статьям в области искусственного интеллекта:
🎧 Attention is All You Need
🎧 Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
🎧 On Limitations of the Transformer Architecture
🎧 MLP-Mixer: An all-MLP Architecture for Vision
https://illuminate.google.com/home
@machinelearning_interview
September 12, 2024
🛠 Какова роль у небольших моделей в эпоху LLM: Интересный Обзор
В этой работе рассматриваются взаимоотношения между LLM и малыми моделями, анализируется их потенциал в использовании вместе с большими моделями и иъ конкурентные преимущества.
📝https://arxiv.org/abs/2409.06857
👨🏽💻https://github.com/tigerchen52/role_of_small_models
@machinelearning_interview
В этой работе рассматриваются взаимоотношения между LLM и малыми моделями, анализируется их потенциал в использовании вместе с большими моделями и иъ конкурентные преимущества.
📝https://arxiv.org/abs/2409.06857
👨🏽💻https://github.com/tigerchen52/role_of_small_models
@machinelearning_interview
September 12, 2024
Forwarded from Machinelearning
⚡️ OpenAI релизнули новую модель OpenAI o1, которая в разы мощнее GPT-4o.
Тот самый секретны проект, над которым так долго работала компания.
Доступ обещают дать уже сегодня.
@ai_machinelearning_big_data
#openai #chatgpt
Тот самый секретны проект, над которым так долго работала компания.
Доступ обещают дать уже сегодня.
@ai_machinelearning_big_data
#openai #chatgpt
September 12, 2024
Подборка важных SQL вопросов для разных уровней👇
🔹 Начинающие (0-2 года):
▪️ В чем разница между WHERE и HAVING?
▪️ Какие виды JOIN существуют в SQL?
🔹 Опытные (2-5 лет):
▪️ Запрос для поиска второй по величине зарплаты.
▪️ Оконные функции в SQL, пример с ROW_NUMBER().
🔹 Эксперты (5+ лет):
▪️ Как оптимизировать медленный запрос?
▪️ Когда использовать кластеризованные и некластеризованные индексы?
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
September 15, 2024
В этой статье представлена реализация архитектуры UNet 3+ с помощью TensorFlow.
UNet 3+ расширяет классическую архитектуру UNet и UNet++.
В статье рассмотрен каждый блок архитектуры UNet 3+ и объяснено, как они работают и что способствует повышению производительности модели.
Понимание этих блоков позволит понять механизмы, лежащие в основе UNet 3+, и то, как она эффективно справляется с такими задачами, как сегментация изображений или другими задачами попиксельного предсказания.
https://idiotdeveloper.com/unet-3-plus-implementation-in-tensorflow/
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
September 16, 2024
ИТМО представил анализ Open Source проектов в области машинного обучения и работы с данными в России. Вот ключевые моменты:
— Лидеры: Яндекс, Сбер, Т-банк.
— Решения российских разработчиков ориентируются на локальный и международный рынок.
— Исследователи насчитали 120 открытых решений от Яндекса.
— В топ-3 проектов компании попали CatBoost, YTsaurus, YDB.
— Среди свежих релизов: YaFSDP, Gravity UI, Diplodoc, DataLens.
— В список также попал ex-проект Яндекса — ClickHouse.
Исследование показало смену парадигмы: участники больше не считают, что опенсорс играет на руку конкурентам. Фокус смещается на коллективное развитие сферы через открытые проекты.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
September 17, 2024
Forwarded from Machinelearning
Nemotron-Mini-4B-Instruct - небольшая модель, полученная в результате файнтюна, обрезки (pruning), дистилляции и квантования модели Minitron-4B-Base.
Эта модель оптимизирована для roleplay-сценариев, RAG QA и вызова функций на английском языке.
Практическое применение модели ориентировано на интеграции в гейм-разработке, преимущественно - в экосистеме NVIDIA.
Модель обучалась в период февраль-август 2024 года.
При создании Nemotron-Mini-4B-Instruct использованы техники Grouped-Query Attention (GQA) и Rotary Position Embeddings (RoPE).
Пример инференса в Transformers, шаблоны простого промпта и instruct- шаблон в карточке модели на Huggingface.
Есть неофициальные квантованные (imatrix) GGUF - версии модели в 8 разрядностях, от 3-bit (2.18 Gb) до 16-bit (8.39 Gb) для запуска в llama.cpp и LM Studio.
@ai_machinelearning_big_data
#AI #NVIDIA #LLM #ML #Nemotron
Please open Telegram to view this post
VIEW IN TELEGRAM
September 17, 2024
This media is not supported in your browser
VIEW IN TELEGRAM
🛠 Интересный проект: разработчик создал простую систему, которая помогает пройти собеседование, фактически отвечая за вас!
Алгоритм работает так: Whisper преобразует речь интервьюера в текст, передаёт его ChatGPT, который генерирует ответ. Затем вы просто читаете его с экрана.
Всё, что вам нужно — открывать рот и произносить готовые фразы🤣
▪ GitHub
@machinelearning_interview
Алгоритм работает так: Whisper преобразует речь интервьюера в текст, передаёт его ChatGPT, который генерирует ответ. Затем вы просто читаете его с экрана.
Всё, что вам нужно — открывать рот и произносить готовые фразы🤣
▪ GitHub
@machinelearning_interview
September 18, 2024
Полезный курс сосредоточен на введении в вычисления и визуализацию данных в Python. Подходит для тех, кто не имеет опыта программирования.
Вот темы, которые охватывает курс:
▪️основы Python (в Jupyter);
▪️базовые вычисления и работа с данными (NumPy, Pandas);
▪️работа с API;
▪️визуализация данных (Matplotlib, Seaborn);
▪️лучшие практики Python.
🔗 Ссылка на курс
#курс #python
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
September 19, 2024
⚡️ Задача: Предсказание дохода человека.
Вам известны все необходимые признаки, а данных достаточно.
После построения модели как вы определите, что она получилась хорошей?
Чтобы оценить, построенная модель для предсказания доходов человека получилась хорошей, нужно сделать следующее:
1. Выберите метрику качества модели: Для оценки точности модели используйте одну из следующих метрик: Mean Absolute Error (MAE), Mean Squared Error (MSE) или Root Mean Squared Error (RMSE). Эти метрики помогут понять, насколько точно модель предсказывает целевую переменную.
2. Разделите данные на обучающую и тестовую выборки: Используйте обучающую выборку для построения модели, а тестовую — для оценки её качества. Это поможет избежать переобучения, при котором модель хорошо работает на обучающих данных, но плохо на новых примерах.
3. Оцените модель на тестовых данных: Проверьте качество модели на тестовой выборке. Если значения метрик на обучающей и тестовой выборках не сильно различаются, это указывает на отсутствие переобучения и способность модели давать хорошие предсказания.
4. Примените кросс-валидацию: Дополнительно можно использовать кросс-валидацию для оценки стабильности модели. Это позволит убедиться, что модель демонстрирует хорошие результаты на различных подвыборках данных.
👇 Пишите свой вариант ответа в комментариях.
@machinelearning_interview
Вам известны все необходимые признаки, а данных достаточно.
После построения модели как вы определите, что она получилась хорошей?
Чтобы оценить, построенная модель для предсказания доходов человека получилась хорошей, нужно сделать следующее:
2. Разделите данные на обучающую и тестовую выборки: Используйте обучающую выборку для построения модели, а тестовую — для оценки её качества. Это поможет избежать переобучения, при котором модель хорошо работает на обучающих данных, но плохо на новых примерах.
3. Оцените модель на тестовых данных: Проверьте качество модели на тестовой выборке. Если значения метрик на обучающей и тестовой выборках не сильно различаются, это указывает на отсутствие переобучения и способность модели давать хорошие предсказания.
4. Примените кросс-валидацию: Дополнительно можно использовать кросс-валидацию для оценки стабильности модели. Это позволит убедиться, что модель демонстрирует хорошие результаты на различных подвыборках данных.
👇 Пишите свой вариант ответа в комментариях.
@machinelearning_interview
September 19, 2024
🛠 Эксперименты с обучением моделей для нейроредактора в Яндекс Браузере
Команда разработки доработала предыдущее решение, что в итоге привело к созданию отдельного инструмента на основе языковой модели YandexGPT. Он помогает пользователям создавать тексты с нуля и улучшать готовые прямо в браузере — например, исправлять ошибки и переписывать в определенном стиле и формате.
Для офлайн-метрик использовалась диффалка, написанная на Go. Диффалка работает на основе алгоритма поиска наибольшей общей подпоследовательности (LCS): ищутся наидлиннейшие общие подпоследовательности между версиями текста. Это позволило подсчитывать количество ошибок, которые модель не исправляет, сравнивая вывод модели с текстом, отредактированным человеком, и проверять гипотезы о качестве, экономя время.
Эксперименты (переход к Encoder-Decoder, curriculum learning, предобучение) дали ускорение в 2 раза и +10% качества на открытых датасетах.
Раньше при нейроредактировании модель могла легко удалить или добавить лишние спецсимволы, что приводило к непредсказуемым результатам. Теперь, с внедрением полноценной поддержки Маркдауна, эта проблема устранена. Для обеспечения корректной обработки разметки применялся подход восстановления: прогон текста через модель, ручное восстановление пропавшей разметки и переобучение модели. В итоге достигнуто сохранение разметки 1:1 в модели исправления ошибок.
📝 Хабр
@machinelearning_interview
Команда разработки доработала предыдущее решение, что в итоге привело к созданию отдельного инструмента на основе языковой модели YandexGPT. Он помогает пользователям создавать тексты с нуля и улучшать готовые прямо в браузере — например, исправлять ошибки и переписывать в определенном стиле и формате.
Для офлайн-метрик использовалась диффалка, написанная на Go. Диффалка работает на основе алгоритма поиска наибольшей общей подпоследовательности (LCS): ищутся наидлиннейшие общие подпоследовательности между версиями текста. Это позволило подсчитывать количество ошибок, которые модель не исправляет, сравнивая вывод модели с текстом, отредактированным человеком, и проверять гипотезы о качестве, экономя время.
Эксперименты (переход к Encoder-Decoder, curriculum learning, предобучение) дали ускорение в 2 раза и +10% качества на открытых датасетах.
Раньше при нейроредактировании модель могла легко удалить или добавить лишние спецсимволы, что приводило к непредсказуемым результатам. Теперь, с внедрением полноценной поддержки Маркдауна, эта проблема устранена. Для обеспечения корректной обработки разметки применялся подход восстановления: прогон текста через модель, ручное восстановление пропавшей разметки и переобучение модели. В итоге достигнуто сохранение разметки 1:1 в модели исправления ошибок.
📝 Хабр
@machinelearning_interview
September 23, 2024
Forwarded from Machinelearning
Большой, подробный и лаконичный туториал в 2-х частях по оптимизации матричного умножения на микроархитектуре Hopper (H100) с использованием библиотеки CUTLASS.
CUTLASS - это набор реализаций алгоритмов линейной алгебры (шаблонов) для использования на CUDA в задачах глубокого обучения, инженерных расчетах и научных исследованиях.
В этой части подробно рассматривается концепция «ядерных матриц» и «матричных дескрипторов», которые нужны для эффективной работы с WGMMA.
В конце туториала кратко описывается реализация конвейеризации в GEMM-ядрах для архитектуры Ampere.
@ai_machinelearning_big_data
#AI #ML #CUTLASS #Tutorial
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
September 24, 2024
⚡️ Отличный блог о стратегиях параллелизма в JAX.
В нем много подробных рисунков и простого кода.
https://astralord.github.io/posts/exploring-parallel-strategies-with-jax/
@machinelearning_interview
В нем много подробных рисунков и простого кода.
https://astralord.github.io/posts/exploring-parallel-strategies-with-jax/
@machinelearning_interview
September 25, 2024
Forwarded from Machinelearning
Llama 3.1-Nemotron-51B-Instruct основана на Llama 3.1-70B и предназначена для NLP-задач генерации текста, чата, рассуждения и обобщения. Мультиязычность наследована от родительская модель. Llama 3.1-Nemotron-51B-Instruct также умеет обрабатывать языки программирования.
Архитектура модели построена с использованием методологии Neural Architecture Search (NAS) и блочной дистилляции.
NAS позволяет отобрать наиболее эффективные блоки трансформера для каждого слоя модели, а блочная дистилляция обеспечивает перенос знаний от исходной модели Llama 3.1-70B к более компактной Llama 3.1-Nemotron-51B-Instruct.
Полученная архитектура имеет нерегулярную структуру блоков с уменьшенным количеством операций внимания и полносвязных слоев, что существенно снижает вычислительную сложность и объем используемой памяти.
В процессе обучения модели использовались бенчмаркиMT-Bench и MMLU. Тестирование проводилось на задачах генерации текста, перевода и ответов на вопросы.
Результаты показали, что инференс Llama 3.1-Nemotron-51B-Instruct в 2.2 раза быстрее "родительской" модели (Llama 3.1-70B) при сохранении практически той же точности.
Благодаря сниженным требованиям к памяти, модель может обрабатывать в 4 раза большие объемы данных на одном GPU.
import torch
import transformers
model_id = "nvidia/Llama-3_1-Nemotron-51B-Instruct"
model_kwargs = {"torch_dtype": torch.bfloat16, "trust_remote_code": True, "device_map": "auto"}
tokenizer = transformers.AutoTokenizer.from_pretrained(model_id)
tokenizer.pad_token_id = tokenizer.eos_token_id
pipeline = transformers.pipeline(
"text-generation",
model=model_id,
tokenizer=tokenizer,
max_new_tokens=20,
**model_kwargs
)
print(pipeline([{"role": "user", "content": "Hey how are you?"}]))
@ai_machinelearning_big_data
#AI #ML #LLM #Nemotron
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
September 25, 2024