Forwarded from Machinelearning
Исследователи из из Гонконгского университета и инженеры Alibaba научили LLM генерировать семантически разные ответы, заставляя их «думать» в ортогональных направлениях.
Наверняка каждый, кто работает с LLM, сталкивался с их любовью к самоповторам. Запрашиваешь несколько вариантов решения, а получаешь одну и ту же мысль, просто перефразированную.
Стандартные подходы к декодированию,
temperature sampling
или diverse beam search
, создают лишь лексическое разнообразие, но пасуют, когда требуется семантическое. Это серьезная проблема для Best-of-N или RLHF. Ведь без по-настоящему разных идей и подходов к решению задачи эти методы теряют свою силу: выбирать лучший вариант не из чего, а обучать модель на однотипных примерах неэффективно.Решение предложили в методе SemDiD (Semantic-guided Diverse Decoding). Его суть, если кратко, перестать играть с токенами на поверхности и начать управлять генерацией напрямую в пространстве эмбеддингов.
Сначала, на старте, он принудительно направляет разные группы beams по ортогональным векторам в семантическом пространстве. Грубо говоря, это как дать команду разным поисковым группам двигаться строго на север, юг и запад, чтобы они гарантированно разошлись.
По мере генерации, когда жесткие директивы могут стать неоптимальными, включается второй механизм -
inter-group repulsion
. Он просто следит, чтобы смысловые траектории ответов не сближались, сохраняя их уникальность до самого конца.Но как, гоняясь за разнообразием, не получить на выходе бессвязный бред?
SemDiD подходит к контролю качества уникально. Он не пытается слепо максимизировать вероятность последовательности, а использует ее лишь как нижнюю границу, чтобы отсечь совсем уж плохие варианты.
Кроме того, алгоритм корректирует системные искажения, когда вероятность токенов искусственно завышается в зависимости от их позиции в тексте.
Для баланса между качеством и разнообразием используется адаптивный механизм на основе гармонического среднего, который в каждый момент времени уделяет больше внимания той метрике, которая проседает.
На бенчмарках для Best-of-N, от MMLU-Pro+ до GSM8K, SemDiD увеличивает покрытие (шанс найти верный ответ) на 1.4%-5.2% по сравнению с аналогами.
Генерируя для GRPO или RLOO семантически богатые наборы ответов, SemDiD предоставляет им более качественный материал для обучения. Это ускоряет сходимость на 15% и повышает финальную точность моделей.
@ai_machinelearning_big_data
#AI #ML #LLM #SemDiD
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥4🥰2
💫 EraRAG: Efficient and Incremental Retrieval-Augmented Generation for Growing Corpor
🖥 Github: https://github.com/everm0re/erarag-official
📕 Paper: https://arxiv.org/abs/2506.20963v1
🔗 Dataset: https://paperswithcode.com/dataset/hotpotqa
@ArtificialIntelligencedl
🔗 Dataset: https://paperswithcode.com/dataset/hotpotqa
@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🔥1
Forwarded from AI VK Hub
Всем привет! Продолжаем обозревать статьи, представленные на ICML.
Сегодня кратко рассмотрим статью, которая посвящена проблемам оценки качества наборов данных для графового машинного обучения.
В машинном обучении принято сравнивать новые алгоритмы с предыдущими на различных датасетах. Однако в контексте графового машинного обучения возникает вопрос: всегда ли такой подход корректен?
Авторы статьи предлагают набор количественных характеристик, которые помогают оценить, насколько выразительны структура графа и признаки вершин, а также насколько они подходят для решения конкретной задачи — например, классификации вершин.
Такая оценка позволяет исключить как слишком простые графы, на которых любая модель покажет высокий результат, так и слишком сложные, где ни одна модель не сможет выучить закономерности, поскольку таргет не связан с признаками или структурой графа.
Детали
Авторы разработали два алгоритма:
1. Алгоритм возмущений графа, позволяющий оценить, насколько задача действительно зависит от структуры или признаков графа.
2. Метод оценки информативности графа, основанный на анализе того, как при возмущениях меняются важные графовые метрики и расстояния.
Результаты
Методы были применены к нескольким открытым датасетам из биоинформатики и социальных сетей. Были выявлены:
🔸 Датасеты с релевантным таргетом.
🔸 Датасеты с нерелевантным таргетом.
🔸 Графы, которые не подходят для ранжирования алгоритмов машинного обучения.
Предложенный подход помогает оптимизировать тестирование новых алгоритмов машинного обучения. В дальнейшем авторы планируют уточнить разработанный метод, например, для подсчета аналогичных критериев для заданного класса моделей или для заданного класса задач.
Предыдущие обзоры статей с ICML от команды AI VK:
🔸 Высокопроизводительные трансформеры на базе MatMuls
#ICML #обзорстатьи
Сегодня кратко рассмотрим статью, которая посвящена проблемам оценки качества наборов данных для графового машинного обучения.
В машинном обучении принято сравнивать новые алгоритмы с предыдущими на различных датасетах. Однако в контексте графового машинного обучения возникает вопрос: всегда ли такой подход корректен?
Авторы статьи предлагают набор количественных характеристик, которые помогают оценить, насколько выразительны структура графа и признаки вершин, а также насколько они подходят для решения конкретной задачи — например, классификации вершин.
Такая оценка позволяет исключить как слишком простые графы, на которых любая модель покажет высокий результат, так и слишком сложные, где ни одна модель не сможет выучить закономерности, поскольку таргет не связан с признаками или структурой графа.
Детали
Авторы разработали два алгоритма:
1. Алгоритм возмущений графа, позволяющий оценить, насколько задача действительно зависит от структуры или признаков графа.
2. Метод оценки информативности графа, основанный на анализе того, как при возмущениях меняются важные графовые метрики и расстояния.
Результаты
Методы были применены к нескольким открытым датасетам из биоинформатики и социальных сетей. Были выявлены:
Предложенный подход помогает оптимизировать тестирование новых алгоритмов машинного обучения. В дальнейшем авторы планируют уточнить разработанный метод, например, для подсчета аналогичных критериев для заданного класса моделей или для заданного класса задач.
Предыдущие обзоры статей с ICML от команды AI VK:
#ICML #обзорстатьи
Please open Telegram to view this post
VIEW IN TELEGRAM
Awesome-VLA-Post-Training
🖥 Github: https://github.com/aoqunjin/awesome-vla-post-training
📕 Paper: https://arxiv.org/abs/2506.20966v1
🔗 Dataset: https://paperswithcode.com/dataset/imagenet
@ArtificialIntelligencedl
🔗 Dataset: https://paperswithcode.com/dataset/imagenet
@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤2🔥1
PhysX-3D: Physical-Grounded 3D Asset Generation
🖥 Github: https://github.com/ziangcao0312/PhysX-3D
📕 Paper: https://arxiv.org/pdf/2507.12465v1.pdf
🔗 Dataset: https://paperswithcode.com/dataset/shapenet
@ArtificialIntelligencedl
🔗 Dataset: https://paperswithcode.com/dataset/shapenet
@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥2
Forwarded from AI VK Hub
В рекомендациях есть две точки зрения:
1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.
Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
🔹 Начало встречи 24 июля в 18:00.
Зум: ссылка
ID: 313 292 5940
Код: 473906
Параллельно запустим стрим прямо в канале AI VK Hub.
1. Бигтех: закинем в нейросеть пару петабайт данных, добавим побольше трансформерных блоков, тысячи видеокарт — и вот вам рексис нового поколения. Но вы не сможете это проверить, потому что только у нас столько данных.
2. Академия: пораскинем мозгами, добавим inductive bias в линейный автоэнкодер и получим соту на всех открытых датасетах. Обучаем на макбуке 19 года.
Мы любим оба подхода, но на ридинг-группе поговорим про второй. Роман Логойда, ML-инженер AI VK, представит статью Why is Normalization Necessary for Linear Recommenders?
Зум: ссылка
ID: 313 292 5940
Код: 473906
Параллельно запустим стрим прямо в канале AI VK Hub.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥2😁1
InstructFLIP: Exploring Unified Vision-Language Model for Face Anti-spoofing
🖥 Github: https://github.com/kunkunlin1221/InstructFLIP
📕 Paper: https://arxiv.org/pdf/2507.12060v1.pdf
🔗 Dataset: https://paperswithcode.com/dataset/replay-attack
@ArtificialIntelligencedl
🔗 Dataset: https://paperswithcode.com/dataset/replay-attack
@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥1
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Базы данных: t.me/sqlhub
Мл собес t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
МЛ: t.me/machinelearning_ru
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/java_library
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://t.me/gamedev
Физика: t.me/fizmat
SQL: t.me/databases_tg
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.me/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.me/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot -
📕Ит-книги: https://t.me/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.me/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.me/ai_machinelearning_big_data
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Devops: t.me/DevOPSitsec
Базы данных: t.me/sqlhub
Мл собес t.me/machinelearning_interview
C++ t.me/cpluspluc
Docker: t.me/DevopsDocker
Хакинг: t.me/linuxkalii
МЛ: t.me/machinelearning_ru
Data Science: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/java_library
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Golang: t.me/Golang_google
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: https://t.me/gamedev
Физика: t.me/fizmat
SQL: t.me/databases_tg
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.me/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.me/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
📕Ит-книги: https://t.me/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.me/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥2🥰2❤1
🧠 NVIDIA выпустила обновлённые модели Llama Super v1.5 и *Nemotron Super v1.5* — они помогут делать AI-агентов точнее и эффективнее.
Что нового:
— *Llama Super v1.5* — улучшенная версия модели для диалогов, логических задач и RLHF
— *Nemotron Super v1.5* — набор для обучения, ориентированный на код, инструкции и математику
— Используются методы DPO и rejection sampling для более стабильных и полезных ответов
Обе модели работают с NeMo и оптимизированы под GPU NVIDIA, включая H100.
Если вы строите собственного ИИ-ассистента, пишете агента для задач или просто экспериментируете с LLM — можно попробовать.
🔗Скачать модель: https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5
🔗 Блог NVIDIA:
https://developer.nvidia.com/blog/build-more-accurate-and-efficient-ai-agents-with-the-new-nvidia-llama-nemotron-super-v1-5/
Что нового:
— *Llama Super v1.5* — улучшенная версия модели для диалогов, логических задач и RLHF
— *Nemotron Super v1.5* — набор для обучения, ориентированный на код, инструкции и математику
— Используются методы DPO и rejection sampling для более стабильных и полезных ответов
Обе модели работают с NeMo и оптимизированы под GPU NVIDIA, включая H100.
Если вы строите собственного ИИ-ассистента, пишете агента для задач или просто экспериментируете с LLM — можно попробовать.
🔗Скачать модель: https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5
🔗 Блог NVIDIA:
https://developer.nvidia.com/blog/build-more-accurate-and-efficient-ai-agents-with-the-new-nvidia-llama-nemotron-super-v1-5/
❤4👍2🔥1
📈 Взрывной рост OpenAI и Anthropic в 2025
— OpenAI удвоили годовую выручку (ARR) за 6 месяцев: с $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: с $1B → $5B
💰 Разделение выручки интересно:
— OpenAI доминирует в подписках от частных и бизнес-пользователей
— Anthropic обогнали в API-доходах: $3.1B против $2.9B
— Но почти весь API-рост Anthropic — это кодинг
🧑💻 Cursor и GitHub Copilot дали $1.4B вместе
💡 Code Claude уже приносит $400M ARR — в 2 раза больше, чем месяц назад
⚠️ Но весь этот рост висит на тонком тросе — Claude 4 Sonnet стал стандартом для AI-кодинга. Если GPT-5 перехватит лидерство (и Copilot с Cursor уйдут к OpenAI), рынок может резко поменяться.
— OpenAI удвоили годовую выручку (ARR) за 6 месяцев: с $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: с $1B → $5B
💰 Разделение выручки интересно:
— OpenAI доминирует в подписках от частных и бизнес-пользователей
— Anthropic обогнали в API-доходах: $3.1B против $2.9B
— Но почти весь API-рост Anthropic — это кодинг
🧑💻 Cursor и GitHub Copilot дали $1.4B вместе
💡 Code Claude уже приносит $400M ARR — в 2 раза больше, чем месяц назад
⚠️ Но весь этот рост висит на тонком тросе — Claude 4 Sonnet стал стандартом для AI-кодинга. Если GPT-5 перехватит лидерство (и Copilot с Cursor уйдут к OpenAI), рынок может резко поменяться.
❤4👍4🔥2
🧠 LogicRAG: умный RAG без предсобранных графов
LLM часто ошибаются, когда ответ требует связать много фактов. Классический GraphRAG строит огромный граф по всему корпусу, что дорого и не всегда соответствует логике вопроса.
LogicRAG решает это иначе:
Разбивает запрос на подзадачи и строит небольшой граф зависимостей только для этого вопроса.
Упорядочивает его топологической сортировкой и решает шаг за шагом, подгружая только нужные данные.
Ведёт «скользящую память» — краткое резюме найденных фактов, удаляя лишний контекст.
Объединяет подзадачи одного уровня, чтобы не делать лишние запросы.
Не повторяет почти одинаковые подзапросы.
📊 Результаты:
- 2WikiMQA: +14,7% точности к лучшему базовому методу.
- HotpotQA и MuSiQue: стабильное превосходство.
- Время ответа ~9,8 секунд без затрат на построение графа.
💡 Итог: извлечение данных следует логике вопроса, а не заранее заготовленной карте, что даёт точнее и дешевле ответы.
arxiv.org/abs/2508.06105
LLM часто ошибаются, когда ответ требует связать много фактов. Классический GraphRAG строит огромный граф по всему корпусу, что дорого и не всегда соответствует логике вопроса.
LogicRAG решает это иначе:
Разбивает запрос на подзадачи и строит небольшой граф зависимостей только для этого вопроса.
Упорядочивает его топологической сортировкой и решает шаг за шагом, подгружая только нужные данные.
Ведёт «скользящую память» — краткое резюме найденных фактов, удаляя лишний контекст.
Объединяет подзадачи одного уровня, чтобы не делать лишние запросы.
Не повторяет почти одинаковые подзапросы.
📊 Результаты:
- 2WikiMQA: +14,7% точности к лучшему базовому методу.
- HotpotQA и MuSiQue: стабильное превосходство.
- Время ответа ~9,8 секунд без затрат на построение графа.
💡 Итог: извлечение данных следует логике вопроса, а не заранее заготовленной карте, что даёт точнее и дешевле ответы.
arxiv.org/abs/2508.06105
👍6❤2🔥1
Forwarded from Machinelearning
Автономные агенты, способные управлять рабочим столом - это Грааль современного HCI. Но их обучение сопряжено с трудностями: GUI созданы для людей, а не для машин, а масштабирование RL упирается в неэффективность и нестабильность сред.
В Z.ai сделали фреймворк COMPUTERRL, который лег в основу агента AutoGLM-OS. Результат - state-of-the-art на бенчмарке OSWorld: 48.1% успешных выполнений и это лучше, чем у OpenAI CUA 03 (42.9%), UI-TARS-1.5 (42.5%) и Claude 4.0 Sonnet (30.7%).
OSWorld — это крупный бенчмарк из 369 заданий для проверки многомодальных ИИ-агентов в реальных условиях. Он работает в Ubuntu, Windows и macOS.
В нем ИИ выполняет открытые задачи: работает с веб- и десктопными приложениями, управляет файлами, запускает процессы. Каждое задание имеет четкие начальные условия и скрипты для оценки, чтобы результаты можно было воспроизвести.
Такие высокие показатели - результат комбинации 3-х инноваций.
Фреймворк объединяет GUI-взаимодействия с быстрыми и точными API-вызовами образуя систему, которая через LLM автоматически анализирует примеры задач, генерирует необходимый API-код для стандартных приложений Ubuntu и даже создает для него базовые тесты.
Таким образом, агент использует быстрые API там, где это возможно, и переключается на GUI для общих задач, что повышает и скорость, и надежность. Абляция показала, что переход от GUI-only к API-GUI поднимает средний показатель успеха с 11.2% до 26.2%.
OSWorld крайне ресурсоемок, и запуск множества его экземпляров на одном узле это тот еще квест. Z.ai полностью переработали эту среду, используя qemu-in-docker для легковесного развертывания VM, gRPC для связи между узлами и полностью асинхронный фреймворк AgentRL. Это позволило создать кластер из тысяч параллельных виртуальных сред, к котором онлайн-обучение RL-агентов стало максимально эффективным.
Entropulse решает проблему коллапса энтропии, чередуя фазы RL с периодическими сессиями SFT. Во время RL-фазы собираются все успешные траектории, и на их основе формируется новый SFT-датасет. Затем модель дообучается на этом датасете, что позволяет восстановить её исследовательскую способность без потери производительности. После этого запускается вторая, более эффективная фаза RL.
Эта стратегия позволила AutoGLM-OS, построенному на базе 9B GLM-4, достичь финального результата в 48.1%, в то время как после первой RL-фазы показатель был 42.0%.
@ai_machinelearning_big_data
#AI #ML #Agents #AutoGLM #Zai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥2🤔1
Страх утечки убивает доверие к ИИ.
Мы понимаем, что технологии могут облегчить жизнь: обработать таблицы, структурировать тексты, автоматизировать задачи. Но каждый раз, когда речь заходит о конфиденциальных данных, возникает барьер. Ведь стоит им оказаться в чужой системе — и назад их уже не вернуть.
25 августа в 19:00 (МСК) karpovꓸcourses проведут вебинар «Как обрабатывать конфиденциальные данные с помощью ИИ». Вы увидите, как запускать локальные модели и подключать к ним собственные данные. Все работает прямо на вашем компьютере, и только вы решаете, кто получит доступ к информации.
Спикер — Павел Зуриев, руководитель ИТ-проектов по внедрению ИИ в бизнес-процессы.
Сделайте шаг к безопасной работе с ИИ: https://clc.to/erid_2W5zFG4jAxg
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFG4jAxg
Мы понимаем, что технологии могут облегчить жизнь: обработать таблицы, структурировать тексты, автоматизировать задачи. Но каждый раз, когда речь заходит о конфиденциальных данных, возникает барьер. Ведь стоит им оказаться в чужой системе — и назад их уже не вернуть.
25 августа в 19:00 (МСК) karpovꓸcourses проведут вебинар «Как обрабатывать конфиденциальные данные с помощью ИИ». Вы увидите, как запускать локальные модели и подключать к ним собственные данные. Все работает прямо на вашем компьютере, и только вы решаете, кто получит доступ к информации.
Спикер — Павел Зуриев, руководитель ИТ-проектов по внедрению ИИ в бизнес-процессы.
Сделайте шаг к безопасной работе с ИИ: https://clc.to/erid_2W5zFG4jAxg
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFG4jAxg
👍2
The LLM Evaluation Framework
🖥 Github: http://github.com/confident-ai/deepeval
📕 Colab: https://colab.research.google.com/drive/1PPxYEBa6eu__LquGoFFJZkhYgWVYE6kh?usp=sharing
🔗 Project: https://deepeval.com
@ArtificialIntelligencedl
🔗 Project: https://deepeval.com
@ArtificialIntelligencedl
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1🔥1