Эффективность SotA в задачах манипулирования роботами превосходит подход, аналогичный RT-2
репозиторий: https://github.com/LostXine/LLaRA
abs: https://arxiv.org/abs/2406.20095
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
—
pip install local-gemma"[cpu]"local-gemma предоставляет простой и быстрый способ локального запуска Gemma-2 прямо из терминала (или можно использовать в коде как обычную библиотеку).
local-gemma построена на основе библиотек Transformers и bitsandbytes.
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍1🥰1🤔1
erid: LjN8KWxB8
Проверь свой модный уровень! Разгадай все фэшн-термины и получи подарок 🎁
Кофта с капюшоном или худи? Ботинки с дырками или броги? Если вы ищете вещи на Lamoda, необязательно знать все модные названия. Нейропоиск на платформе сделает все за вас: поймет контекст и предложит максимальное число вариантов. Даже если бренды называют вещь не так, как вы привыкли.
Но задумывались ли вы над тем, как правильно называются вещи на фэшн-языке?
Предлагаем проверить знания и выяснить, получится ли из вас модный инфлюенсер! Пройдите тест и угадайте все названия. А после участвуйте в розыгрыше сертификата от Lamoda Tech.
Для этого нужно подписаться на наш канал и поделиться результатом теста под постом с розыгрышем.
8 июля мы рандомно выберем трех счастливчиков и подарим им по сертификату на 10 000 рублей, чтобы лето стало еще более стильным 💃
➡️ Вперед за подарком!
Проверь свой модный уровень! Разгадай все фэшн-термины и получи подарок 🎁
Кофта с капюшоном или худи? Ботинки с дырками или броги? Если вы ищете вещи на Lamoda, необязательно знать все модные названия. Нейропоиск на платформе сделает все за вас: поймет контекст и предложит максимальное число вариантов. Даже если бренды называют вещь не так, как вы привыкли.
Но задумывались ли вы над тем, как правильно называются вещи на фэшн-языке?
Предлагаем проверить знания и выяснить, получится ли из вас модный инфлюенсер! Пройдите тест и угадайте все названия. А после участвуйте в розыгрыше сертификата от Lamoda Tech.
Для этого нужно подписаться на наш канал и поделиться результатом теста под постом с розыгрышем.
8 июля мы рандомно выберем трех счастливчиков и подарим им по сертификату на 10 000 рублей, чтобы лето стало еще более стильным 💃
➡️ Вперед за подарком!
👍4👎1
Storm-7B🌪️
Эта модель обеспечивает выигрыш в 50,5% по сравнению с GPT-4 Preview, что делает ее первой моделью с открытым исходным кодом, которая соответствует GPT-4 Preview в AlpacaEval 2.0.
📄https://arxiv.org/pdf/2406.11817
🤗https://huggingface.co/jieliu/Storm-7B
@machinelearning_ru
Эта модель обеспечивает выигрыш в 50,5% по сравнению с GPT-4 Preview, что делает ее первой моделью с открытым исходным кодом, которая соответствует GPT-4 Preview в AlpacaEval 2.0.
📄https://arxiv.org/pdf/2406.11817
🤗https://huggingface.co/jieliu/Storm-7B
@machinelearning_ru
👍5❤3🔥1
Лучший локальный LLM до 10B
Семейство InternLM-2.5 7B только что появилось на
https://huggingface.co/collections/internlm/internlm25-66853f32717072d17581bc13
Семейство InternLM-2.5 7B только что появилось на
https://huggingface.co/collections/internlm/internlm25-66853f32717072d17581bc13
👍7🔥1
CoIR: Комплексный бенчмарк для моделей генерации кода
Huawei представляет бенчмарк, включающий 10 датасетов для различных задач работы с кодом .
📝https://arxiv.org/abs/2407.02883
👨🏽💻https://github.com/CoIR-team/coir
@machinelearning_ru
Huawei представляет бенчмарк, включающий 10 датасетов для различных задач работы с кодом .
📝https://arxiv.org/abs/2407.02883
👨🏽💻https://github.com/CoIR-team/coir
@machinelearning_ru
👍4❤2🔥1
⚡️ Как устроена одна из крупнейших рекомендательных систем
При каждом запросе “баннерная крутилка” просматривает базу из миллиардов документов, чтобы выдать наиболее подходящие для пользователя. Но сделать это нужно, не только хорошо, но и быстро — всего за 0,2 секунды, ведь никто не хочет ждать, когда загрузится сайт. Как нейросети помогают в ранжировании, Яндекс рассказывает на Хабре.
habr: https://habr.com/ru/companies/yandex/articles/816205/
@machinelearning_ru
При каждом запросе “баннерная крутилка” просматривает базу из миллиардов документов, чтобы выдать наиболее подходящие для пользователя. Но сделать это нужно, не только хорошо, но и быстро — всего за 0,2 секунды, ведь никто не хочет ждать, когда загрузится сайт. Как нейросети помогают в ранжировании, Яндекс рассказывает на Хабре.
habr: https://habr.com/ru/companies/yandex/articles/816205/
@machinelearning_ru
🔥9👍3❤1
LazyDiffusion — это диффузионный трансформер, который очень быстро генерирует объекты по промпту в области, заданной маской. Генерируются только пиксели под маской, и время выполнения зависит больше от размера маски, чем от размера изображения.
Если маска размера ~10% от всего изображения, то LazyDiffusion показывает в 10 раз большую скорость, чем другие модели и методы инпейнтинга.
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤2🔥2
Этот учебник по Deep Learning поможет вам освоить основы нейросетей за одни выходные! Внутри вы найдете простые объяснения по Diffusion моделям, трансформерам, GNN, RL и многому другому — всё, что нужно для работы. Автор — настоящий гений, он изложил материал понятным языком и подготовил отличные практические задания.
И самое удивительное — учебник бесплатен и уже ждет вас!
https://udlbook.github.io/udlbook/
@machinelearning_ru
И самое удивительное — учебник бесплатен и уже ждет вас!
https://udlbook.github.io/udlbook/
@machinelearning_ru
👍16🔥6❤1
DeepMind’s New AI Found The Sound Of Pixels!
https://www.youtube.com/watch?v=YvHfCM0V5es
@machinelearning_ru
https://www.youtube.com/watch?v=YvHfCM0V5es
@machinelearning_ru
YouTube
DeepMind’s New AI Found The Sound Of Pixels!
❤️ Check out Weights & Biases and sign up for a free demo here: https://wandb.me/papers
If you are interested in a sponsorship:
https://form.jotform.com/241831324457354
DeepMind's Veo:
https://deepmind.google/discover/blog/generating-audio-for-video/
h…
If you are interested in a sponsorship:
https://form.jotform.com/241831324457354
DeepMind's Veo:
https://deepmind.google/discover/blog/generating-audio-for-video/
h…
❤2👍1🔥1
Forwarded from Machinelearning
TTT - это метод, который позволяет моделям искусственного интеллекта адаптироваться и учиться непосредственно во время использования, а не только во время предварительного обучения.
Основное преимущество TTT заключается в том, что он может эффективно обрабатывать длинные контексты (большие объемы входных данных) без значительного увеличения вычислительных затрат.
Исследователи провели эксперименты на различных наборах данных, включая книги, и обнаружили, что TTT часто превосходит традиционные методы.
По сравнительным бенчмаркам с другими популярными методами машинного обучения, такими как трансформеры и рекуррентные нейронные сети, было обнаружено, что в некоторых задачах TTT работает лучше.
Этот революционный метод позволит приблизиться к созданию более гибких и эффективных моделей искусственного интеллекта, способных лучше адаптироваться к новым данным в реальном времени.
На Github опубликованы адаптации метода:
- адаптация под Pytorch
- адаптация под JAX
@ai_machinelearning_big_data
#Pytorch #Jax #TTT #LLM #Training
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5🔥1
Forwarded from Machinelearning
GraphRAG использует графы знаний для улучшения ответов на запросы. Во время запроса система обращается к графу знаний и использует резюме сообществ и связи между сущностями для формирования контекста, который помогает LLM дать более точный ответ, чем традиционные методы, основанные на поиске по векторным сходствам.
Архитектура GraphRAG состоит из ключевых компонентов:
Indexer : разделяет корпус данных на мелкие текстовые блоки (TextUnits), извлекает из них сущности, связи и ключевые утверждения.
Clustering : группирует данные в иерархическую структуру с использованием метода Лейдена, создавая граф знаний.
Community Summarization : генерирует обобщенные описания для каждой группы данных, что помогает в понимании контекста и смыслового связывания всей информации.
Knowledge Graph : структура, объединяющая сущности и их связи, созданная на основе данных.
GraphRAG значительно улучшает работу моделей языка с частными данными, позволяя им более точно и полно отвечать на сложные вопросы, требующие синтеза информации из разных источников.
⚠️ Рекомендации и предупреждения:
- Эффективность индексации зависит от правильной идентификации понятий
- Индексация может быть дорогостоящей, рекомендуется создание тестового набора данных
- Система предназначена для опытных пользователей в предметной области
- Необходим анализ ответов человеком для получения достоверной информации
- Методология наиболее эффективна на текстовых данных с общей темой и множеством сущностей
📄 Документация:
🟡Страница проекта
🟡Arxiv
@ai_machinelearning_big_data
#LLM #GraphRAG #ML #RAG #NLP #Deeplearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
[Трансформер] на пальцах (буквально) ✍️📺
5-минутный видеоурок
Короткое видео, чтобы объяснить устройство "Трансформеров".
За 5 минут демонстрируется основная математика Трансформеров, с помощью ручки и бумаги!
@machinelearning_ru
5-минутный видеоурок
Короткое видео, чтобы объяснить устройство "Трансформеров".
За 5 минут демонстрируется основная математика Трансформеров, с помощью ручки и бумаги!
@machinelearning_ru
🔥15👍2❤1
🔥 Nvidia только что опубликовала репозиторий с SotA энкодером для vision задач
https://github.com/NVlabs/MambaVision
@machinelearning_ru
https://github.com/NVlabs/MambaVision
@machinelearning_ru
GitHub
GitHub - NVlabs/MambaVision: [CVPR 2025] Official PyTorch Implementation of MambaVision: A Hybrid Mamba-Transformer Vision Backbone
[CVPR 2025] Official PyTorch Implementation of MambaVision: A Hybrid Mamba-Transformer Vision Backbone - NVlabs/MambaVision
👍7🔥3❤1🤩1
Группа исследователей из Гонконгского университета науки и технологий (HKUST) совместно с Huawei Noah’s Ark Lab разработали принципиальной новую методику создание изображений в сверхвысоком разрешении (до 6000 px).
Новая архитектура основана на совокупности диффузионных патчей, принципов технологии ScaleCrafter для управления расширением сверточных блоков, ResAdapter для точной настройки базовой модели T2I и адаптация энтропии внимания на уровне внимания сети шумоподавления.
В качестве исходной генеративной модели используется StableCascade
На сегодняшний день, исследователи дорабатывают механизм сохранения детализации для достижения максимального фотореалистичного результата. В ближайшее время планируется публикация кода и необходимых сопутствующих моделей для инференса и самостоятельной тренировки.
О требуемых вычислительных ресурсах для запуска пайплайна не сообщается.
@machinelearning_ru
#Text2Image #UltraHiRes #Diffusion #Ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤1🔥1