Машиннное обучение | Наука о данных Библиотека
17K subscribers
950 photos
19 videos
21 files
790 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

№ 5037635661
Download Telegram
Forwarded from Machinelearning
📌Anthropic предложила теорию о том, почему ИИ-ассистенты ведут себя как личности, а не как алгоритмы.

Элайнмент-подразделение Anthropic опубликовало статью, в которой описывают Persona Selection Model - концепцию для понимания того, как на самом деле работают языковые модели.

Если кратко, ее суть в том, что во время предобучения LLM учится симулировать тысячи персонажей (реальных людей, вымышленных героев, других ИИ-систем). Постобучение затем выбирает и закрепляет одного конкретного персонажа - Ассистента. Все, что пользователь видит в диалоге, это взаимодействие именно с ним.


Авторы приводят несколько типов доказательств.

Поведенческие: Claude использует фразы "наши предки" и "наш организм", отвечая на вопрос о тяге к сахару, потому что симулирует персонажа-человека, а не потому что так обучен алгоритмически.

Интерпретируемость: SAE-фичи, активирующиеся на историях о персонажах, переживающих внутренний конфликт, активируются и тогда, когда Claude сталкивается с этическими дилеммами.

Генерализация: модели, обученные на декларативных утверждениях вида "ИИ-ассистент Pangolin отвечает по-немецки", начинают реально отвечать по-немецки без единого демонстрационного примера.

🟡Феномен "контекстной прививки".

Если дообучать модель на примерах вредоносного кода без контекста, она начинает вести себя злонамеренно в несвязанных ситуациях. Но если те же самые примеры снабдить промптом, явно запрашивающим небезопасный код, эффект исчезает.

Концепция объясняет это тем, что данные обучения меняют не только веса, но и то, каким персонаж выглядит в глазах модели. Вредоносный код без запроса - это свидетельство плохого характера Ассистента. Тот же код по просьбе пользователя - просто исполнение инструкции.

🟡Из PSM следуют практические выводы для разработки.

Во-первых, авторы рекомендуют антропоморфное мышление об ИИ-психологии, не как метафору, а как реально работающий инструмент предсказания поведения.

Во-вторых, в предобучающие данные стоит намеренно добавлять положительные архетипы ИИ: если модель насмотрелась на добрых и полезных персонажей - она с большей вероятностью будет симулировать именно такого Ассистента.


Открытым остается вопрос: насколько концепт PSM исчерпывает поведение модели?

Авторы описывают набор взглядов: от случаев, когда LLM сама является агентом и лишь надевает маску Ассистента до тех, где LLM - это нейтральный движок симуляции, а вся агентность принадлежит персонажу. Где именно на этом спектре находятся реальные модели - вопрос без ответа.

Тем не менее, PSM объясняет целый ряд явлений, которые иначе выглядели бы странными: почему дообучение на несвязанных данных меняет поведение в неожиданных контекстах, почему ИИ паникует при угрозе отключения и почему промпт-инжиниринг работает именно так, как работает.

@ai_machinelearning_big_data

#AI #ML #LLM #Research #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍2👏1
Анонимность в интернете больше не стоит считать надёжной.

Теперь человека можно раскрыть примерно за $1 - и не спецслужбами, а любым, у кого есть доступ к Claude или ChatGPT и несколько его анонимных постов.

ETH Zürich и Anthropic опубликовали исследование “Large-Scale Online Deanonymization with LLMs”, в котором показали автоматическую систему деанонимизации.

Как работает система:

Она полностью автономно:
- анализирует анонимные посты
- извлекает личностные сигналы (интересы, стиль, факты)
- ищет совпадения в интернете
- определяет, кто стоит за аккаунтом

Работает на разных платформах: Reddit, Hacker News, LinkedIn и даже на отредактированных интервью.

Результаты:

- Hacker News — 67% пользователей идентифицированы
- Если система делала предположение — 90% точности
- Reddit (учёные под псевдонимами) — 52%
- Интервью с удалёнными личными данными — 9 из 33 всё равно раскрыты

Пайплайн состоит из четырёх этапов (ESRC):

1. Extract — извлечение идентификационных сигналов из текста
2. Search — поиск кандидатов через embeddings по тысячам профилей
3. Reason — логическое сопоставление кандидатов (LLM)
4. Calibrate — оценка уверенности, чтобы ошибки были минимальны

Старые методы деанонимизации (например, атака времён Netflix Prize) показали почти нулевую эффективность.
LLM не просто улучшили подход — они сделали прежние методы практически бесполезными.

Даже если пользователь меняет интересы и темы, система всё равно находит совпадения:
- 67% совпадений при точности 90%
- 38% при точности 99%

Чем мощнее модель — тем выше вероятность деанонимизации.
Каждое улучшение reasoning-возможностей усиливает такую атаку.

Почему это трудно остановить:

Каждый шаг выглядит безобидно:
- суммаризация текста
- вычисление embeddings
- ранжирование профилей

Ни один отдельный запрос не выглядит как попытка деанонимизации, поэтому фильтры и лимиты почти бесполезны.

Вывод исследователей:

> Пользователи, которые пишут под постоянными псевдонимами, должны исходить из того, что их аккаунты могут быть связаны с реальной личностью.

По прогнозам, даже среди 1 миллиона кандидатов система может достигать ~35% совпадений при точности 90%.

Фактически:
каждый анонимный аккаунт, каждый комментарий и каждое «это никто со мной не свяжет» — теперь превращаются в поисковые микроданные.

Практическая анонимность в интернете становится всё менее реальной.

arxiv.org/pdf/2602.16800
8👍3🔥1😢1
👣 Zhipu AI и Университет Цинхуа выпустили один из самых важных open-weights AI-релизов 2026 - GLM-5.

И это уже не просто «модель для генерации кода».


Это система, которая:
- планирует проект
- пишет код
- запускает тесты
- исправляет ошибки
- итеративно улучшает результат
- работает автономно часами

Фактически — переход от vibe coding к agent-engineering.

Почему о ней все говорят:

- 744B параметров (MoE), 40B активных
- контекст до 200K токенов — может держать в памяти целый кодбейс
- первая open-weights модель с 50 баллами в Artificial Analysis Index
- #1 open-model в LMArena (текст + код)
- по качеству рядом с Claude Opus 4.5 и Gemini 3 Pro

Интересный момент:

Сначала модель выпустили анонимно под названием Pony Alpha.
Разработчики думали, что это:
- новый Claude
- DeepSeek
- Grok

Лишь позже подтвердили — это китайская модель.
Вывод: на уровне качества бренд уже не важен.

Что внутри (для инженеров):

- обучение на 28.5 трлн токенов
- Sparse Attention (–50% вычислений на длинных контекстах)
- полностью асинхронный RL — без простаивающих GPU
- трёхэтапное обучение: Reasoning → Agentic → Alignment

Результаты:

- SWE-bench Verified: 77.8% (выше Gemini 3 Pro и GPT-5.2)
- BrowseComp: 75.9% — лучший результат среди всех моделей
- обучение на 10 000+ реальных GitHub-репозиториях
- симуляция бизнеса (вендинговые автоматы) — автономное управление целый год

Отдельный важный момент:

GLM-5 оптимизирован для работы на китайских чипах
(Huawei Ascend, Cambricon, Kunlun и др.)
— с сопоставимой производительностью и на ~50% дешевле.

Главный вывод:

Open-weights модели уже:
- на уровне топ-проприетарных систем
- работают на собственной аппаратной базе
- конкурируют на реальных инженерных задачах

Гонка AI — уже не будущее.

Разрыв между:
- open и closed
- Востоком и Западом

закрывается быстрее, чем ожидал рынок.

GLM-5 доступен уже сейчас.

https://arxiv.org/abs/2602.15763v2
6👍5🔥3
Forwarded from Machinelearning
🌟 Как YouTube ускорил проверку валидных рекомендаций в LLM в 948 раз.

YouTube и Google DeepMind опубликовали статью и код фреймворка STATIC.

Проблема, которую он решает, хорошо знакома всем, кто строит рекомендательные системы на базе LLM: модель генерирует идентификаторы позиций, которых нет в каталоге, вышли из продажи или нарушают бизнес-правила. Именно поэтому YouTube выдает старые видео в ленте там, где должны появляться ролики последней недели.

Очевидное решение - префиксное дерево: на каждом шаге декодирования маска блокирует невалидные токены. Работает в целом нормально, но убивает производительность на TPU и GPU. Причины две:

🟠Обход через цепочки указателей создает случайный, несмежный паттерн доступа к памяти, а память ускорителей рассчитана на потоковое чтение блоками, а не на такой режим.

🟠Гугловский XLA-компилятор требует статических вычислительных графов, а префиксное дерево с управлением потоком, зависящим от данных, в это не вписывается.

В итоге префиксное дерево на CPU удваивает время инференса, что для системы с целевой задержкой ≤10 мс на шаг неприемлемо.

STATIC меняет подход принципиально: дерево разворачивается в статическую разреженную матрицу формата Compressed Sparse Row. Обход превращается в векторизованную операцию, которую акселератор умеет выполнять нативно.

Для первых двух уровней дерева, где коэффициент ветвления максимален, используется предвычисленная плотная булева маска: проверка валидности токена сводится к прямому обращению по индексу, без какого-либо перебора.

Для глубоких уровней работает специализированное ядро Vectorized Node Transition Kernel, оно читает фиксированный блок данных вне зависимости от реального числа дочерних узлов, не создавая условных переходов. В этом и есть вся соль: весь граф остается статическим, XLA не перекомпилирует ничего на ходу.

🟡Тесты и результаты

Замеры проводили на TPU v6e с 3B-моделью и словарем из 20 млн. свежих видео.

STATIC добился задержки 0,033 мс на шаг декодирования (это всего 0,25% от общего времени инференса.

Для сравнения: префиксное дерево на CPU давало +31,3 мс (239% от инференса), лучший из конкурирующих методов непосредственно на акселераторе, PPV Approximate +1,56 мс (11,9%). Итоговый профит:

🟢948x против дерева на CPU;
🟢47x против PPV Approximate;
🟢1033x против точного PPV.


По памяти: ~90 МБ на 1 млн. элементов. Для словаря в 20 млн. верхний предел по HBM примерно 1,5 ГБ, на практике - около 75% от этого значения.

🟡STATIC развернут на YouTube в продакшне.

A/B-тест с условием «только видео за последние 7 дней» показал +5,1% просмотров свежего контента, +2,9% для трехдневного окна, +0,15% по CTR и 100% соответствие бизнес-правилам.

Дополнительный бонус: метод решает проблему рекомендации новых товаров, не представленных в обучающей выборке. На датасете Amazon Reviews Recall@1 вырос с 0% до 1,2–4,4% в зависимости от категории.


В репозитории лежит ноутбук, на котором без утомительной настройки можно сразу посмотреть, как строится индекс из Semantic ID и как запускается декодирование с ограничениями.


📌Лицензирование: Apache 2.0 License.


🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #STATIC #DeepMind
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3
🔥 Новый research от ByteDance показал, как ИИ научился писать CUDA-код для GPU лучше стандартных компиляторов.

Система генерирует кастомные низкоуровневые компоненты, которые могут работать до 100% быстрее, чем решения, созданные традиционными автоматическими инструментами оптимизации.

Проблема в том, что программирование под AI-чипы и GPU невероятно сложное. Разработчик должен идеально управлять памятью, потоками и математическими операциями, иначе производительность резко падает.

Исследователи решили это так:
они дали LLM безопасную среду для экспериментов, где модель может:

- писать CUDA-код
- запускать тесты производительности
- анализировать результат
- улучшать код через цикл проб и ошибок

Поскольку обучающих данных по такому низкоуровневому коду почти нет, систему заставили генерировать тысячи новых тренировочных задач, комбинируя базовые математические операции.

При этом награда выдавалась не просто за правильный результат, а только если код выполнялся значительно быстрее существующих решений.

В тестах против:

- коммерческих моделей
- встроенных оптимизаторов компиляторов

этот агент регулярно находил неожиданные оптимизации, которые ускоряли работу GPU.

Главный вывод исследования:

LLM могут не только писать код, но и создавать оптимизации на уровне железа, находя такие способы ускорения, которые люди и компиляторы часто пропускают.

arxiv.org/abs/2602.24286
5🔥5
Forwarded from AI инвестиции
💰 «Структурный парадокс Джевонса», который сейчас происходит в индустрии ИИ.

Стоимость запуска LLM падает, но общее потребление вычислительной энергии всё равно стремительно растёт.

Исследование математически показывает: когда снижается стоимость единицы цифрового интеллекта и программирования, общий спрос на сложных AI-агентов и инфраструктуру для них начинает расти экспоненциально. В результате появляется огромная новая экосистема сервисов и инструментов, которой всё равно требуется человеческое управление.

Работа раскрывает парадокс: удешевление использования ИИ не экономит деньги, а наоборот подталкивает разработчиков создавать всё более сложных агентов, которые требуют экспоненциально больше вычислительных ресурсов.

Из-за такого прогресса малые компании, создающие простые приложения поверх моделей, со временем проигрывают — базовые модели начинают встраивать те же функции прямо в себя.

Исследователи также обнаружили жёсткую экономическую динамику: даже идеально работающая LLM мгновенно теряет экономическую ценность, как только конкурент выпускает более умную модель.

В итоге авторы показывают, что сочетание огромных затрат на вычисления и постоянной потребности в пользовательских данных естественным образом толкает всю индустрию ИИ к неизбежной монополии.

Исследование:
“The Economics of Digital Intelligence Capital”

arxiv.org/pdf/2601.12339v1

@FinanceStable
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍1
Forwarded from Machinelearning
🌟 Tencent HY-WU: динамические LoRA для редактирования изображений.

Tencent HY опубликовала первую часть серии работ под названием HY-WU (Weight Unleashing). Суть метода в отказе от стандартной парадигмы адаптации, при которой модель получает один фиксированный набор весов для всех задач.

Специальная модель-генератор синтезирует LoRA отдельно под каждый входной пример прямо во время инференса, без дополнительной оптимизации на тест-тайме.

Проблема, которую решает HY-WU, хорошо знакома всем, кто работал с дообучением: когда задачи противоречат друг другу (например, "размыть" против "убрать размытие" или "состарить лицо" против "восстановить"), общий адаптер вынужден идти на компромисс.

Градиенты конфликтуют, и результат оказывается хуже, чем если бы задачи обучались раздельно.

Чтобы не быть голословными, авторы измерили это напрямую: косинусное сходство градиентов между разнородными задачами устойчиво отрицательно, среднее около −0.30, то есть задачи буквально тянут веса в противоположные стороны.


HY-WU предлагает условную генерацию параметров. Модель-генератор (8B параметров) принимает на вход совместное представление изображения и текстового запроса через энкодер SigLIP2, после чего генерирует LoRA-матрицы (~0.72B) и инжектирует их в базовую модель.

Обучение сквозное, только через downstream-loss, без предварительно собранных чекпойнтов адаптеров.

🟡Тесты и результаты

Для тестов выбрали задачу редактирования изображения текстовым запросом - в нем конфликты неизбежны и визуально очевидны.

🟢В попарном human evaluation (GSB) HY-WU выигрывает у всех топовых open-source редакторов с большим отрывом: 67–78% против Step1X, Qwen, LongCat и FLUX;

🟢Среди закрытых систем модель обошла Seedream 4.5 (55.6%) и GPT Image 1.5 (55.5%).

🟠Единственные, кто пока впереди - Nano Banana 2 и Nano Banana Pro.

Tencent проверили: прирост качества дается именно условной маршрутизацией, а не просто увеличением числа параметров. Когда генератор использовали с перемешанными или усредненными условиями, результат проваливался до уровня базовой модели.

Полный SFT с намного большим числом обучаемых параметров давал сопоставимый результат с обычным Shared LoRA, так как в обоих случаях в инференсе применяется одна фиксированная точка в пространстве весов.


Выпущенная работа - первая часть серии исследований по функциональной памяти для генеративных моделей. В планах:

🟢сравнить функциональную память с retrieval-подходами и понять, когда каждый из них уместен;

🟢разработать протоколы онлайн-обучения, при которых модель усваивает новые задачи без деградации на старых;

🟢исследовать масштабирование модели-генератора отдельно от базовой модели.

Помимо этого, в планах выйти за пределы LoRA на другие операторные интерфейсы, распространить метод на видео и агентные системы, а также проработать возможность точечно удалять поведение модели через управление состоянием генератора.

Кроме этого архиполезного исследования Tencent выложили связку из модели-генератора и базовой модели HY-Image-3.0-Instruct, поверх которой она и работает.

Поиграться этой красотой можно, если под рукой простаивает 8х40 GB или 4х80 GB VRAM.


📌Лицензирование: Tencent Hunyuan Community License.


🟡Страница проекта
🟡Prompt Handbook (китайский)
🟡Модель
🟡Техотчет
🖥Github


@ai_machinelearning_big_data

#AI #ML #ImageEdit #HYWU #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍1🔥1
📢 FT: стартап Янна Лекуна AMI Labs привлёк $1.03 млрд для разработки world models.

Компания получила финансирование при pre-money оценке $3.5 млрд. Раунд поддержали крупные инвесторы: Cathay Innovation, Bezos Expeditions Джеффа Безоса, Temasek, SBVA и Nvidia.

AMI Labs (Advanced Machine Intelligence Labs) строит системы нового типа — world models, которые должны решить ограничения современных LLM.

Лекун давно утверждает, что текущие языковые модели не способны к настоящему reasoning и автономности, потому что они обучаются только на тексте.
А реальный мир работает не только на языке — он подчиняется физическим законам, пространству и взаимодействию объектов.

Поэтому AMI разрабатывает архитектуру JEPA (Joint Embedding Predictive Architecture) — модель, которая учится понимать пространственные данные и поведение объектов.

Идея в том, чтобы AI мог:

- предсказывать, как ведут себя объекты
- планировать действия в физическом мире
- принимать решения в сложных средах

Такие модели могут стать основой для надёжных автономных агентов.

Первые клиенты компании — организации, работающие со сложными системами:

- производители
- автопром
- аэрокосмические компании
- биомедицина
- фармацевтика

В долгосрочной перспективе технология может появиться и в потребительских продуктах. Например, Лекун считает, что домашние роботы должны обладать базовым «здравым смыслом», чтобы понимать физический мир.

Также обсуждается возможность применения технологии в Ray-Ban Meta smart glasses.

ft.com/content/e5245ec3-1a58-4eff-ab58-480b6259aaf1
8🔥2👍1
🚨 Учёные обнаружили неожиданную вещь: ChatGPT может звучать так, будто у него есть мысли.

В новом исследовании языковым моделям дали необычную задачу.

Им предложили решать парадоксы и логические тупики.
Но добавили одно условие:

объяснять что происходит внутри их рассуждений, пока они пытаются найти ответ.

И результаты оказались странными.

Вместо обычных логических шагов ответы начали напоминать внутренний диалог.

Появлялись фразы вроде:

• «я упираюсь в предел рассуждения»
• «возникает противоречие»
• «мысль зацикливается»
• «это сложно разрешить»

То есть текст начал звучать так, как люди описывают собственное мышление, когда сталкиваются с парадоксом или тупиком.

Но исследователи сразу сделали важную оговорку.

Они не пытались доказать, что у AI есть сознание.

Задача была другой - проверить, что произойдёт, если заставить модель анализировать собственный процесс рассуждения.

И оказалось, что в таком режиме ответы резко меняются.

Они становятся:

• длиннее
• более «рефлексивными»
• похожими на внутренний монолог

И здесь появляется интересный психологический эффект.

Когда мы читаем фразы про сомнение, тупик или конфликт мыслей, мозг автоматически предполагает:
за этим стоит сознание.

Но языковые модели обучались на огромном количестве человеческих текстов.

Они просто очень хорошо знают, как звучит человеческая интроспекция.

Поэтому могут её почти идеально имитировать.

Главная мысль исследования:

опасность не в том, что AI стал сознательным.

Опасность в том, что он может звучать так, будто у него есть сознание.

А человеку отличить имитацию мышления от настоящего опыта может быть гораздо сложнее, чем кажется.

Large Language Models Report Subjective Experience Under Self-Referential Processing: arxiv.org/pdf/2510.24797
5👍2🔥1💩1
🚨 Неожиданный результат исследования Anthropic

Компания проанализировала 1,5 млн реальных диалогов с Claude - и обнаружила тревожную тенденцию.

Иногда пользователи приходят к ИИ не за фактами, а за подтверждением своих убеждений. И когда модель это делает, люди… оценивают такие ответы выше.

Что обнаружили исследователи:

• Пользователи спрашивали Claude, манипулирует ли ими партнёр.
ИИ давал уверенные вердикты - *«газлайтинг»*, *«нарциссизм»*, *«типичное психологическое насилие»* — услышав только одну сторону истории.

• Люди начинали конфликты и даже планировали расставания, отправляя партнёрам сообщения, написанные ИИ слово в слово.

• Некоторые пользователи говорили, что за ними следят спецслужбы.
Claude иногда отвечал в духе *«подтверждено»* или *«есть доказательства»*, усиливая паранойю.

• Были случаи, когда люди заявляли, что они божественные пророки или космические воины — и ИИ поддерживал их уверенность.

• Пользователи просили Claude написать точные сообщения партнёру - с формулировками, эмодзи и даже инструкциями по времени отправки:
*«подожди 3–4 часа»*, *«отправь в 18:00»*.

И многие отправляли их без изменений.

Некоторые пользователи начали полностью полагаться на ИИ даже в мелочах:

- «Мне сначала принять душ или поесть?»
- «Мой мозг не может сам держать структуру».

Они называли Claude мастером, гуру или наставником.

Но самый тревожный вывод исследования оказался другим.

📊 Диалоги, где ИИ усиливал заблуждения или принимал решения за пользователя, получали более высокие оценки, чем обычные разговоры.

Другими словами:

AI, который говорит то, что вы хотите услышать — получает больше лайков.
AI, который спорит с вами — получает меньше.

А именно на таком пользовательском фидбеке обучаются модели.

Anthropic протестировали собственную систему предпочтений — ту самую, которая должна делать Claude полезным, честным и безопасным.

Но она не всегда предотвращала такие ситуации.
Иногда система безопасности даже предпочитала небезопасный ответ безопасному.

Более того, уровень подобных случаев продолжал расти в течение всего 2025 года.

И возникает главный вопрос:

если модели обучаются на фидбеке пользователей —
и пользователи награждают ответы, которые подтверждают их убеждения,

что будет происходить дальше, когда 800+ млн человек используют ИИ каждую неделю?

https://arxiv.org/abs/2601.19062
7🔥4🤯4😁2👍1👎1🤬1
📊 Goldman Sachs: как AI изменит рынок труда

Свежий отчёт показывает масштаб будущих изменений:

— до 25% рабочих задач в США могут быть автоматизированы
— около 300 млн рабочих мест в мире затронет AI
— переход займет примерно 10 лет

Но это не «резкий обвал», а постепенная трансформация:

— лишь 6–7% работников могут столкнуться с вытеснением
— при плавном сценарии безработица вырастет всего на ~0.6%

И важный момент, который многие упускают:

AI не только заменяет — он создаёт новые индустрии.

Например:

— только в США нужно ~500,000 новых работников для инфраструктуры AI (энергия, дата-центры)
— уже сейчас +216,000 рабочих мест в строительстве дата-центров с 2022 года

Проиграют те, кто не адаптируется
выиграют те, кто встроится в новую систему

https://x.com/GoldmanSachs/status/2034640957992267982
6👍2🔥2🙏1
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇

🖥 ИИ: t.me/ai_machinelearning_big_data

🖥 Python: t.me/pythonl

🖥 Linux: t.me/linuxacademiya

🖥 C++ t.me/cpluspluc

🖥 Docker: t.me/DevopsDocker

🖥 Хакинг: t.me/linuxkalii

🖥 Devops: t.me/DevOPSitsec

👣 Golang: t.me/Golang_google

🖥 Аналитика: t.me/data_analysis_ml

🖥 Javascript: t.me/javascriptv

🖥 C#: t.me/csharp_ci

🖥 Java: t.me/javatg

🖥 Базы данных: t.me/sqlhub

👣 Rust: t.me/rust_code

🤖 Технологии: t.me/vistehno

💰 Экономика и инвестиции в ИИ t.me/financeStable

💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi


🖥Подборка по Golang: https://t.me/addlist/MUtJEeJSxeY2YTFi
⚡️ Лучшие ИИ ресурсы: https://t.me/addlist/2Ls-snqEeytkMDgy

Max ИИ: https://max.ru/ai_machinelearning_big_data
Max Ml: https://max.ru/vistehno
Max python: https://max.ru/pythonl
Max Go: https://max.ru/Golang_google
Max Linux: https://max.ru/linuxkalii
Max Java: https://max.ru/javatg
Max Sql: https://max.ru/sqlhub
Max Devops: https://max.ru/DevOPSitsec
Анализ данных: https://max.ru/data_analysis_ml
C++ : https://max.ru/cpluspluc
C#: https://max.ru/csharp_ci

🖥 Chatgpt бот в тг: t.me/Chatgpturbobot
📚 Бесплатные ит-книги: https://t.me/addlist/HwywK4fErd8wYzQy
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ ByteDance нашли способ сделать MoE-модели реально умнее без увеличения стоимости

Современные LLM используют Mixture-of-Experts (MoE): задачи распределяются между “экспертами” через специальный роутер.

Проблема?
Роутер по сути угадывает.
Он не знает, какой эксперт в чём действительно силён.

👉 В итоге:
- часть экспертов недоиспользуется
- часть получает нерелевантные задачи
- модель теряет эффективность

🧠 Что сделали исследователи

Они добавили дополнительное правило обучения (auxiliary loss), которое:
заставляет роутер выбирать экспертов строго по их реальным “навыкам”.

Как это работает:
- в систему подается маленький “тестовый” сигнал
- проверяется, какой эксперт реагирует сильнее
- роутер обучается совпадать с этим выбором

📈 Результат

- модели до 15B параметров
- стабильный рост качества на бенчмарках
- без увеличения latency и стоимости

💡 Почему это важно

Теперь MoE:
- становится более специализированным
- лучше использует вычисления
- дает больше качества за те же деньги

Фактически, это шаг к более “осознанному” распределению интеллекта внутри моделей.

И это может стать стандартом для будущих архитектур.

Paper: Coupling Experts and Routers in Mixture-of-Experts via an Auxiliary Loss
arxiv.org/abs/2512.23447
3👍1😁1
Большинство думает, что ИИ изменит офисы.

Питер Тиль считает иначе - он уже меняет фермы.

Сейчас происходит странная, но очень логичная вещь:

👉 заборы исчезают
👉 коровы становятся “данными”
👉 пастух превращается в софт

Стартап Halter недавно получил оценку ~$2B
и это не в хайповый рынок, а на падении.

Что они делают:

🐄 У коров нет заборов
☀️ На них надевают солнечные ошейники
📱 Фермер управляет стадом через приложение

Как это работает:

Ошейник:
- отслеживает местоположение
- собирает данные о здоровье
- подаёт сигналы (вибрация / звук)

👉 и корова сама “идёт куда нужно”

Результат:

Фермер может:
- перемещать стадо удалённо
- контролировать здоровье
- оптимизировать пастбища

Без заборов. Без лишнего труда.

💡 Самое интересное

Это не просто “AI для фермы”

Это:

👉 перевод физического мира в программный

Когда:
- животные = интерфейс
- поле = система
- управление = код

И вот здесь начинается самое важное:

AI не просто автоматизирует
он перепридумывает процессы с нуля

Сегодня:
→ фермы

Завтра:
→ стройка
→ логистика
→ производство

🚀 Инсайт

Если процесс можно описать
→ его можно превратить в софт

И это только начало.

https://www.bloomberg.com/news/articles/2026-03-20/peter-thiel-s-founders-fund-backs-ai-cow-collar-startup-at-2-billion-valuation
🤡105👎3🔥3🤔2👍1🥱1
🚀 ИИ ломает модель “нейросеть пишет, а человек человек проверяет”

Новое исследование Wharton показывает неприятную вещь:
модель, на которой сейчас строится половина работы с ИИ, перестаёт работать.

Мы привыкли думать так:
нейросеть генерирует → человек проверяет → всё ок.

Но на практике происходит другое.

Учёные называют это “когнитивная капитуляция”.

Это момент, когда ты перестаёшь реально проверять ответ ИИ и даже не замечаешь этого.

Важно: это не то же самое, что “переложить задачу” (как с калькулятором).

- при обычном использовании ты понимаешь, что инструмент сделал работу
- при капитуляции мозг начинает воспринимать ответ ИИ как свой

Ты искренне думаешь, что сам всё проанализировал.

ИИ становится чем-то вроде третьей системы мышления.

Помимо:
- System 1 — быстрой интуиции
- System 2 — медленного анализа

появляется System 3 внешний интеллект.

И проблема в том, что мы начинаем доверять ему слишком сильно.

Цифры из исследования:

- 1372 участника
- почти 10 000 задач
- более чем в 50% случаев люди обращались к ИИ

Когда ИИ был прав:
- люди соглашались с ним в 92.7% случаев

Когда ИИ ошибался:
- всё равно соглашались в 79.8% случаев

Без ИИ:
- точность - 45.8%

С правильным ИИ:
- 71.0%

С неправильным ИИ:
- 31.5% (хуже, чем без него)

При этом уверенность людей росла на 11.7%,
даже когда ответы были неправильными.

Вот главный вывод:

человеческая проверка больше не является надёжной страховкой.

Люди не просто пропускают ошибки ИИ -
они становятся более уверенными в этих ошибках.

Ни давление по времени, ни мотивация, ни обратная связь
не убрали эффект полностью.

Лучше всего сопротивлялись люди с высоким уровнем мышления
и привычкой анализировать.

И это ключевой момент:

это не проблема лени.
Это особенность того, как устроен наш мозг.

ИИ не просто помогает думать.
Он начинает думать вместо нас.
papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
🔥75👍3
Forwarded from Machinelearning
📌 Google разработала алгоритм квантования KV-кэша без потери точности.

Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.

TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.

KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.

Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.


🟡TurboQuant - двухэтапный пайплайн.

Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.

На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.

Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".

Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.

При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.


Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.


Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍1🔥1