MIT 6.S191: Building AI Models in the Wild
https://www.youtube.com/watch?v=ZAGiinWiFsE
@machinelearning_ru
https://www.youtube.com/watch?v=ZAGiinWiFsE
@machinelearning_ru
YouTube
MIT 6.S191 (2024): Building AI Models in the Wild
MIT Introduction to Deep Learning 6.S191: Lecture 8
Endless Experimentation: Building AI Models in the Wild
Lecturer: Niko Laskaris (VP, Customer Engineering) and Doug Blank (Head of Research)
Comet ML
For all lectures, slides, and lab materials: http:/…
Endless Experimentation: Building AI Models in the Wild
Lecturer: Niko Laskaris (VP, Customer Engineering) and Doug Blank (Head of Research)
Comet ML
For all lectures, slides, and lab materials: http:/…
👍8❤2
Forwarded from Искусственный интеллект. Высокие технологии
Media is too big
VIEW IN TELEGRAM
Компания Hugging Face совместно с французской компанией Pollen Robotics представила первого работающего гуманоидного робота в рамках программы «Le Robot».
Реми Кадене, ранее работавший инженером-робототехником в программе Tesla Optimus по разработке гуманоидных роботов, а теперь ведущий специалист проекта «Le Robot», продемонстрировал на своей странице в X видео с роботом Reachy2. Результат сотрудничества двух компаний, стремящихся сделать робототехнику доступной для всех.
Reachy2 — не просто очередной лабораторный эксперимент. Гуманоидный робот способен выполнять различные бытовые задачи и безопасно взаимодействовать с людьми и животными. В видео робот демонстрирует впечатляющие навыки: аккуратно расставляет чашки на сушилке для посуды и передает яблоко человеку плавным, безопасным движением.
Уникальность Reachy2 заключается в процессе его обучения. На начальном этапе человек, надев шлем виртуальной реальности, дистанционно управлял роботом, показывая ему, как выполнять различные задачи. Алгоритм машинного обучения затем изучил 50 видеозаписей этих сеансов телеуправления, каждая длительностью около 15 секунд. Каждое видео связано с отдельным датчиком робота Reachy2.
🤗 Самое важное — вся эта технология теперь доступна всем на Hugging Face
@vistehno
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥3👍1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 pypalettes
Поиск идеальных цветов для вашей диаграммы на Python может оказаться непростой задачей. Выбор цветов вручную часто приводит к перебору множества неподходящих вариантов.
Pypalette - новый пакет предоставляет коллекцию цветов из более чем 2500 палитр, тщательно отобранных сотнями экспертов.
Это приложение позволяет вам без особых усилий изучать различные палитры и выбирать лучшие ваорианты.
Импортируется всего в две строки кода, работает с диаграммами Matplotlib.
Найдите для себя подходящую цветовую палитру, которая выделит вашу диаграмму на общем фоне! 😍
▪Github
▪Проект
@machinelearning_ru
Поиск идеальных цветов для вашей диаграммы на Python может оказаться непростой задачей. Выбор цветов вручную часто приводит к перебору множества неподходящих вариантов.
Pypalette - новый пакет предоставляет коллекцию цветов из более чем 2500 палитр, тщательно отобранных сотнями экспертов.
Это приложение позволяет вам без особых усилий изучать различные палитры и выбирать лучшие ваорианты.
Импортируется всего в две строки кода, работает с диаграммами Matplotlib.
Найдите для себя подходящую цветовую палитру, которая выделит вашу диаграмму на общем фоне! 😍
pip install git+https://github.com/JosephBARBIERDARNAL/pypalettes.git▪Github
▪Проект
@machinelearning_ru
👍13🥰2
⚡️ Яндекс поделился собственной библиотекой YaFSDP для обучения больших языковых моделей
Компания разработала YaFSDP при обучении генеративной модели YandexGPT 3 и уже протестировала библиотеку на сторонних нейросетях с открытым исходным кодом. Так, YaFSDP помогает в среднем до 25% ускорить обучение больших языковых моделей и тратить до 20% меньше ресурсов графических процессоров, требующихся для обучения.
Библиотека оптимизирует использование ресурсов GPU на всех этапах обучения: pre-training (предварительное), supervised fine-tuning (с учителем), alignment (выравнивание модели). Благодаря этому YaFSDP задействует ровно столько графической памяти, сколько необходимо для обучения, притом коммуникацию между GPU ничто не тормозит.
📌 GitHub
📌 Статья на Habr
@machinelearning_ru
Компания разработала YaFSDP при обучении генеративной модели YandexGPT 3 и уже протестировала библиотеку на сторонних нейросетях с открытым исходным кодом. Так, YaFSDP помогает в среднем до 25% ускорить обучение больших языковых моделей и тратить до 20% меньше ресурсов графических процессоров, требующихся для обучения.
Библиотека оптимизирует использование ресурсов GPU на всех этапах обучения: pre-training (предварительное), supervised fine-tuning (с учителем), alignment (выравнивание модели). Благодаря этому YaFSDP задействует ровно столько графической памяти, сколько необходимо для обучения, притом коммуникацию между GPU ничто не тормозит.
📌 GitHub
📌 Статья на Habr
@machinelearning_ru
❤8👍1🔥1
Recurrent Gemma 9B 🔥
> Производительность такая же, как у Gemma, с более чем на 25% меньшей задержкой и в 6-7 раз большим количеством токенов ⚡
> Выпущены базовые (9B) и обучающие (9B-IT) модели.
> MMLU - 60.5, CommonSenseQA 73.2, AGIEval 39.3 - довольно прочная мощная модель для дальнейшей доработки.
> Основана на архитектуре Griffin
> Обеспечивает более быстрый вывод с помощью длинных последовательностей.
> Доступно в Transformers! 🤗
https://huggingface.co/collections/google/recurrentgemma-release-66152cbdd2d6619cb1665b7a
@machinelearning_ru
> Производительность такая же, как у Gemma, с более чем на 25% меньшей задержкой и в 6-7 раз большим количеством токенов ⚡
> Выпущены базовые (9B) и обучающие (9B-IT) модели.
> MMLU - 60.5, CommonSenseQA 73.2, AGIEval 39.3 - довольно прочная мощная модель для дальнейшей доработки.
> Основана на архитектуре Griffin
> Обеспечивает более быстрый вывод с помощью длинных последовательностей.
> Доступно в Transformers! 🤗
https://huggingface.co/collections/google/recurrentgemma-release-66152cbdd2d6619cb1665b7a
@machinelearning_ru
👍4❤2🔥1
Ребята из AI VK в поиске хардкорного ML-разработчика для отдела музыкальных рекомендаций VK Музыки. AI VK — это департамент, развивающий технологии искусственного интеллекта для ключевых продуктов VK, создает системы рекомендаций и поиска контента на платформах.
Задачи: улучшать качество рекомендаций, запускать новые сценарии, анализировать статистику потребления контента, выдвигать и проверять гипотезы, проводить A/B-тесты.
Предоставляют: гибкий график, команду-топ, интересные задачи, полный соц.пакет.
Откликнуться:
— на сайте VK
— напрямую в лс @ellinatsyra
Задачи: улучшать качество рекомендаций, запускать новые сценарии, анализировать статистику потребления контента, выдвигать и проверять гипотезы, проводить A/B-тесты.
Предоставляют: гибкий график, команду-топ, интересные задачи, полный соц.пакет.
Откликнуться:
— на сайте VK
— напрямую в лс @ellinatsyra
❤5
⚡️ Mhubert - 95M параметров, 147 языков! Превосходит MMS 1B в ASR и LID 🤯
> Обучен работе на 90 тысячах часов многоязычных данных (147 языков)
> Использует дискретные речевые модули FAISS IVF (кластеризация на основе faiss)
> Поддержка многоязычнрй пакетной обработки данных
> Для обучения используется в 5-6 раз меньше данных, чем в базовой версии
▪hf
▪project
@machinelearning_ru
> Обучен работе на 90 тысячах часов многоязычных данных (147 языков)
> Использует дискретные речевые модули FAISS IVF (кластеризация на основе faiss)
> Поддержка многоязычнрй пакетной обработки данных
> Для обучения используется в 5-6 раз меньше данных, чем в базовой версии
▪hf
▪project
@machinelearning_ru
❤3👍1🔥1
https://habr.com/ru/news/821301/
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤2🔥1😁1
⚡️ Beyond LLaVA-HD: Diving into High-Resolution Large Multimodal Models
Обеспечивает превосходную производительность в различных тестах всего с 2 миллионами обучающих данных
▪github: https://github.com/yfzhang114/SliME
▪abs: https://arxiv.org/abs/2406.08487
@machinelearning_ru
Обеспечивает превосходную производительность в различных тестах всего с 2 миллионами обучающих данных
▪github: https://github.com/yfzhang114/SliME
▪abs: https://arxiv.org/abs/2406.08487
@machinelearning_ru
👍3❤1🔥1
Forwarded from Machinelearning
Nvidia только что выпустила LLM размером 340B , модель близкую к производительности OpenAI GPT-4 🤯 NVIDIA не претендует на право собственности на какие-либо сгенерированные выходные данные. 💚
🧮 340 миллиардов параметров в контекстном окне 4k
🔢 Обучена на 9 триллионах токенов
🌎 Поддерживает более чем 50 языков и более чем 40 языков программирования
🧠 Трубует 16x H100 в bf16 и ~8x H100 в int4
🤗 Модель доступна на huggingface
▪Модель: https://huggingface.co/collections/nvidia/nemotron-4-340b-666b7ebaf1b3867caf2f1911
▪Технический отчет: https://research.nvidia.com/publication/2024-06_nemotron-4-340b
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥2
🚀 WebLLM engine: высокопроизводительный браузерный движок инференса LLM!
Web LLC предотсавляет локальное графическое ускорение с помощью WebGPU, полностью совместимый с OpenAI API и встроенную поддержку web workers для разделения серверных операций.
https://blog.mlc.ai/2024/06/13/webllm-a-high-performance-in-browser-llm-inference-engine
@machinelearning_ru
Web LLC предотсавляет локальное графическое ускорение с помощью WebGPU, полностью совместимый с OpenAI API и встроенную поддержку web workers для разделения серверных операций.
https://blog.mlc.ai/2024/06/13/webllm-a-high-performance-in-browser-llm-inference-engine
@machinelearning_ru
👍5❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросети теперь обучают сами себя — исследователи попросили большие языковые модели (LLM) найти лучшие способы оптимизации своей работы.
В результате ИИ разработал новый подход под названием DiscoPOP.
Этот метод повышает производительность нейросети в суммировании, генерации и выполнении задач. Команда опубликовала код подхода, а также процесс, который позволяет LLM самообучаться.
Полностью автономные ИИ-исследователи, которые могут улучшать свои способности самостоятельно, уже не за горами.
▪ Github
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍4🔥1😱1
Вышла новая версия Python-библиотеки для научных вычислений NumPy 2.0.0, предназначенная для работы с многомерными массивами и матрицами.
Она включает обширную коллекцию функций, реализующих различные алгоритмы, связанные с использованием матриц. NumPy считается одной из самых популярных библиотек для научных расчетов. Код библиотеки написан на Python с применением оптимизаций на языке C и распространяется под лицензией BSD.
NumPy 2.0.0 является первым значительным обновлением с 2006 года. В новой версии добавлены новые функции и улучшена производительность, а также внесены изменения в ABI, Python API и C-API, нарушающие обратную совместимость. Например, библиотека SciPy, собранная с NumPy 1.x, потребует перекомпиляции для работы с NumPy 2.0. В некоторых случаях для использования NumPy 2.0 в приложениях потребуется внести изменения в код.
Одно из наиболее значимых изменений связано с сохранением точности скалярных выражений.
Например, выражение
“np.float32(3) + 3” теперь вернет значение типа float32, а не float64. В выражениях с несколькими типами для результата будет использоваться тип с наивысшей точностью, например, “np.array([3], dtype=np.float32) + np.float64(3)” вернет значение типа float64. Также изменены целочисленные типы по умолчанию на платформе Windows: на 64-разрядных системах теперь используется 64-разрядный целый тип, а на 32-разрядных – 32-разрядный (ранее использовался аналог типа long из C, теперь это эквивалент np.intp).Некоторые определения в C-API были изменены или удалены, например, структура PyArray_Descr. Максимальное число измерений и аргументов, выставляемое через макросы NPY_MAXDIMS и NPY_MAXARGS, увеличено до 64.
Все комплексные типы переведены на использование стандартных типов из спецификации C99 (cfloat_t, cdouble_t, clongdouble_t). Добавлен новый C API для создания собственных dtype. Также предложены новые упрощённые функции инициализации PyArray_ImportNumPyAPI и PyUFunc_ImportUFuncAPI.
В Python API обеспечено более четкое разделение между публичными и приватными API, представлена новая структура модулей. Около 100 функций, модулей и констант вынесены из основного пространства имен “np”, объявлены устаревшими или удалены. Пространство имен np.lib было очищено. Число объектов в основном пространстве имен сокращено на 10%, а в пространстве имен numpy.lib – на 80%. Пространство имен numpy.core переведено в разряд приватных. Удалены некоторые методы из классов np.ndarray и np.generic. Создано новое пространство имен numpy.stringsf со строковыми операциями.
https://uproger.com/vyshel-numpy-2-0-0-samye-znachitelnye-obnovleniya-s-2006-goda-dlya-python-razrabotchikov/
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
UPROGER | Программирование
Вышел NumPy 2.0.0. Самые значительные обновления с 2006 года для Python разработчиков
Вышла новая версия Python-библиотеки для научных вычислений NumPy 2.0.0, предназначенная для работы с многомерными массивами и матрицами.
Она включает обширную коллекцию функций, реализующих различные алгоритмы, связанные с использованием матриц. NumPy…
Она включает обширную коллекцию функций, реализующих различные алгоритмы, связанные с использованием матриц. NumPy…
👍13🔥2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
▪Код: https://github.com/nicolasugrinovic/multiphys
▪Статья: https://arxiv.org/pdf/2404.11987
▪Проект: http://iri.upc.edu/people/nugrinovic/multiphys/
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤3👍3
AI Like OpenAI’s Sora...But Free To Try!
https://www.youtube.com/watch?v=0aUQEDv_6PY
@machinelearning_ru
https://www.youtube.com/watch?v=0aUQEDv_6PY
@machinelearning_ru
YouTube
AI Like OpenAI’s Sora...But Free To Try!
❤️ Check out Lambda here and sign up for their GPU Cloud: https://lambdalabs.com/paper
Try it out: https://lumalabs.ai/dream-machine
Full "This is fine" comic strip (you have been warned!): https://www.theverge.com/2016/5/5/11592622/this-is-fine-meme-comic…
Try it out: https://lumalabs.ai/dream-machine
Full "This is fine" comic strip (you have been warned!): https://www.theverge.com/2016/5/5/11592622/this-is-fine-meme-comic…
❤3👍2🔥2
⚡️ DeepSeek-Coder-V2: Первая модель с открытым исходным кодом, превосходящая GPT4-Turbo в кодинге и математике
> > Превосходит GPT4-Turbo, Claude3-Opus, Gemini-1.5Pro, Codestral в задачах написания кода и решении математических задач.
> Поддерживает 338 языков программирования, длина контекста 128 КБ.
> Полностью открытый исходный код двух размеров: 230B и 16 B
В таблице
#DeepSeekCoder
▪HF: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct
▪Github: https://github.com/deepseek-ai/DeepSeek-Coder-V2/blob/main/paper.pdf
@ai_machinelearning_big_data
> > Превосходит GPT4-Turbo, Claude3-Opus, Gemini-1.5Pro, Codestral в задачах написания кода и решении математических задач.
> Поддерживает 338 языков программирования, длина контекста 128 КБ.
> Полностью открытый исходный код двух размеров: 230B и 16 B
В таблице
Arena-Hard-Auto DeepSeek-Coder-V2 превосходит Yi-large, Claude3-Opus, GL M4 и Qwen2-72B.#DeepSeekCoder
▪HF: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct
▪Github: https://github.com/deepseek-ai/DeepSeek-Coder-V2/blob/main/paper.pdf
@ai_machinelearning_big_data
🔥11👍7❤2
🔥 Scaling the Codebook Size of VQGAN to 100,000 with a Utilization Rate of 99%
Модель демонстрирует превосходную производительность в различных задачах, включая реконструкцию, классификацию и генерацию.
▪github: https://github.com/zh460045050/VQGAN-LC
▪abs: https://arxiv.org/abs/2406.11837
@machinelearning_ru
Модель демонстрирует превосходную производительность в различных задачах, включая реконструкцию, классификацию и генерацию.
▪github: https://github.com/zh460045050/VQGAN-LC
▪abs: https://arxiv.org/abs/2406.11837
@machinelearning_ru
🔥5👍3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Количество токенов на whisper-base увеличено с 165 до 237.
▪Репозиторий: https://github.com/argmaxinc/WhisperKit
▪Тест https://testflight.apple.com/join/LPVOyJZW
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2🔥2
⚡️ ChatGLM: Семейство больших языковых моделей от GLM-130B до GLM4 Со всеми инструментами
GLM-4:
- практически не уступает GPT-4 в области MMLU, математики, GPQA и т.д
- приближается к GPT-4 при выполнениии задач с длинным контекстом
▪hf: https://huggingface.co/THUDM
▪repo: https://github.com/THUDM
▪abs: https://arxiv.org/abs/2406.12793
@machinelearning_ru
GLM-4:
- практически не уступает GPT-4 в области MMLU, математики, GPQA и т.д
- приближается к GPT-4 при выполнениии задач с длинным контекстом
▪hf: https://huggingface.co/THUDM
▪repo: https://github.com/THUDM
▪abs: https://arxiv.org/abs/2406.12793
@machinelearning_ru
👍6❤3🔥2
BigCodeBench, новый бенчмарк для оценки LLM по сложным задачам программирования, ориентированный на реалистичные задачи функционального уровня, требующие использования разнообразных библиотек и сложных рассуждений! 👀
🧩 Содержит 1140 заданий по 5,6 тестовых примеров в каждом, охватывающих 139 библиотек на Python.
✅ Лучшая модель - GPT-4 с 61,1%, за ней следует DeepSeek-Coder-V2.
✅ Лучшая открытая модель - DeepSeek-Coder-V2 с 59,7%, что лучше, чем у Claude 3 Opus или Gemini.
👥 Задачи создаются в три этапа, включая генерацию синтетических данных и перекрестную проверку людьми.
▪Блог: https://hf.co/blog/leaderboard-bigcodebench
▪Таблица лидеров: https://huggingface.co/spaces/bigcode/bigcodebench-leaderboard
▪Код: https://github.com/bigcode-project/bigcodebench
@machinelearning_ru
🧩 Содержит 1140 заданий по 5,6 тестовых примеров в каждом, охватывающих 139 библиотек на Python.
✅ Лучшая модель - GPT-4 с 61,1%, за ней следует DeepSeek-Coder-V2.
✅ Лучшая открытая модель - DeepSeek-Coder-V2 с 59,7%, что лучше, чем у Claude 3 Opus или Gemini.
👥 Задачи создаются в три этапа, включая генерацию синтетических данных и перекрестную проверку людьми.
▪Блог: https://hf.co/blog/leaderboard-bigcodebench
▪Таблица лидеров: https://huggingface.co/spaces/bigcode/bigcodebench-leaderboard
▪Код: https://github.com/bigcode-project/bigcodebench
@machinelearning_ru
👍8❤2🔥2