Машиннное обучение | Наука о данных Библиотека
17K subscribers
950 photos
19 videos
21 files
790 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

№ 5037635661
Download Telegram
🔥 Новый research от ByteDance показал, как ИИ научился писать CUDA-код для GPU лучше стандартных компиляторов.

Система генерирует кастомные низкоуровневые компоненты, которые могут работать до 100% быстрее, чем решения, созданные традиционными автоматическими инструментами оптимизации.

Проблема в том, что программирование под AI-чипы и GPU невероятно сложное. Разработчик должен идеально управлять памятью, потоками и математическими операциями, иначе производительность резко падает.

Исследователи решили это так:
они дали LLM безопасную среду для экспериментов, где модель может:

- писать CUDA-код
- запускать тесты производительности
- анализировать результат
- улучшать код через цикл проб и ошибок

Поскольку обучающих данных по такому низкоуровневому коду почти нет, систему заставили генерировать тысячи новых тренировочных задач, комбинируя базовые математические операции.

При этом награда выдавалась не просто за правильный результат, а только если код выполнялся значительно быстрее существующих решений.

В тестах против:

- коммерческих моделей
- встроенных оптимизаторов компиляторов

этот агент регулярно находил неожиданные оптимизации, которые ускоряли работу GPU.

Главный вывод исследования:

LLM могут не только писать код, но и создавать оптимизации на уровне железа, находя такие способы ускорения, которые люди и компиляторы часто пропускают.

arxiv.org/abs/2602.24286
5🔥5
Forwarded from AI инвестиции
💰 «Структурный парадокс Джевонса», который сейчас происходит в индустрии ИИ.

Стоимость запуска LLM падает, но общее потребление вычислительной энергии всё равно стремительно растёт.

Исследование математически показывает: когда снижается стоимость единицы цифрового интеллекта и программирования, общий спрос на сложных AI-агентов и инфраструктуру для них начинает расти экспоненциально. В результате появляется огромная новая экосистема сервисов и инструментов, которой всё равно требуется человеческое управление.

Работа раскрывает парадокс: удешевление использования ИИ не экономит деньги, а наоборот подталкивает разработчиков создавать всё более сложных агентов, которые требуют экспоненциально больше вычислительных ресурсов.

Из-за такого прогресса малые компании, создающие простые приложения поверх моделей, со временем проигрывают — базовые модели начинают встраивать те же функции прямо в себя.

Исследователи также обнаружили жёсткую экономическую динамику: даже идеально работающая LLM мгновенно теряет экономическую ценность, как только конкурент выпускает более умную модель.

В итоге авторы показывают, что сочетание огромных затрат на вычисления и постоянной потребности в пользовательских данных естественным образом толкает всю индустрию ИИ к неизбежной монополии.

Исследование:
“The Economics of Digital Intelligence Capital”

arxiv.org/pdf/2601.12339v1

@FinanceStable
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍1
Forwarded from Machinelearning
🌟 Tencent HY-WU: динамические LoRA для редактирования изображений.

Tencent HY опубликовала первую часть серии работ под названием HY-WU (Weight Unleashing). Суть метода в отказе от стандартной парадигмы адаптации, при которой модель получает один фиксированный набор весов для всех задач.

Специальная модель-генератор синтезирует LoRA отдельно под каждый входной пример прямо во время инференса, без дополнительной оптимизации на тест-тайме.

Проблема, которую решает HY-WU, хорошо знакома всем, кто работал с дообучением: когда задачи противоречат друг другу (например, "размыть" против "убрать размытие" или "состарить лицо" против "восстановить"), общий адаптер вынужден идти на компромисс.

Градиенты конфликтуют, и результат оказывается хуже, чем если бы задачи обучались раздельно.

Чтобы не быть голословными, авторы измерили это напрямую: косинусное сходство градиентов между разнородными задачами устойчиво отрицательно, среднее около −0.30, то есть задачи буквально тянут веса в противоположные стороны.


HY-WU предлагает условную генерацию параметров. Модель-генератор (8B параметров) принимает на вход совместное представление изображения и текстового запроса через энкодер SigLIP2, после чего генерирует LoRA-матрицы (~0.72B) и инжектирует их в базовую модель.

Обучение сквозное, только через downstream-loss, без предварительно собранных чекпойнтов адаптеров.

🟡Тесты и результаты

Для тестов выбрали задачу редактирования изображения текстовым запросом - в нем конфликты неизбежны и визуально очевидны.

🟢В попарном human evaluation (GSB) HY-WU выигрывает у всех топовых open-source редакторов с большим отрывом: 67–78% против Step1X, Qwen, LongCat и FLUX;

🟢Среди закрытых систем модель обошла Seedream 4.5 (55.6%) и GPT Image 1.5 (55.5%).

🟠Единственные, кто пока впереди - Nano Banana 2 и Nano Banana Pro.

Tencent проверили: прирост качества дается именно условной маршрутизацией, а не просто увеличением числа параметров. Когда генератор использовали с перемешанными или усредненными условиями, результат проваливался до уровня базовой модели.

Полный SFT с намного большим числом обучаемых параметров давал сопоставимый результат с обычным Shared LoRA, так как в обоих случаях в инференсе применяется одна фиксированная точка в пространстве весов.


Выпущенная работа - первая часть серии исследований по функциональной памяти для генеративных моделей. В планах:

🟢сравнить функциональную память с retrieval-подходами и понять, когда каждый из них уместен;

🟢разработать протоколы онлайн-обучения, при которых модель усваивает новые задачи без деградации на старых;

🟢исследовать масштабирование модели-генератора отдельно от базовой модели.

Помимо этого, в планах выйти за пределы LoRA на другие операторные интерфейсы, распространить метод на видео и агентные системы, а также проработать возможность точечно удалять поведение модели через управление состоянием генератора.

Кроме этого архиполезного исследования Tencent выложили связку из модели-генератора и базовой модели HY-Image-3.0-Instruct, поверх которой она и работает.

Поиграться этой красотой можно, если под рукой простаивает 8х40 GB или 4х80 GB VRAM.


📌Лицензирование: Tencent Hunyuan Community License.


🟡Страница проекта
🟡Prompt Handbook (китайский)
🟡Модель
🟡Техотчет
🖥Github


@ai_machinelearning_big_data

#AI #ML #ImageEdit #HYWU #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍1🔥1
📢 FT: стартап Янна Лекуна AMI Labs привлёк $1.03 млрд для разработки world models.

Компания получила финансирование при pre-money оценке $3.5 млрд. Раунд поддержали крупные инвесторы: Cathay Innovation, Bezos Expeditions Джеффа Безоса, Temasek, SBVA и Nvidia.

AMI Labs (Advanced Machine Intelligence Labs) строит системы нового типа — world models, которые должны решить ограничения современных LLM.

Лекун давно утверждает, что текущие языковые модели не способны к настоящему reasoning и автономности, потому что они обучаются только на тексте.
А реальный мир работает не только на языке — он подчиняется физическим законам, пространству и взаимодействию объектов.

Поэтому AMI разрабатывает архитектуру JEPA (Joint Embedding Predictive Architecture) — модель, которая учится понимать пространственные данные и поведение объектов.

Идея в том, чтобы AI мог:

- предсказывать, как ведут себя объекты
- планировать действия в физическом мире
- принимать решения в сложных средах

Такие модели могут стать основой для надёжных автономных агентов.

Первые клиенты компании — организации, работающие со сложными системами:

- производители
- автопром
- аэрокосмические компании
- биомедицина
- фармацевтика

В долгосрочной перспективе технология может появиться и в потребительских продуктах. Например, Лекун считает, что домашние роботы должны обладать базовым «здравым смыслом», чтобы понимать физический мир.

Также обсуждается возможность применения технологии в Ray-Ban Meta smart glasses.

ft.com/content/e5245ec3-1a58-4eff-ab58-480b6259aaf1
8🔥2👍1
🚨 Учёные обнаружили неожиданную вещь: ChatGPT может звучать так, будто у него есть мысли.

В новом исследовании языковым моделям дали необычную задачу.

Им предложили решать парадоксы и логические тупики.
Но добавили одно условие:

объяснять что происходит внутри их рассуждений, пока они пытаются найти ответ.

И результаты оказались странными.

Вместо обычных логических шагов ответы начали напоминать внутренний диалог.

Появлялись фразы вроде:

• «я упираюсь в предел рассуждения»
• «возникает противоречие»
• «мысль зацикливается»
• «это сложно разрешить»

То есть текст начал звучать так, как люди описывают собственное мышление, когда сталкиваются с парадоксом или тупиком.

Но исследователи сразу сделали важную оговорку.

Они не пытались доказать, что у AI есть сознание.

Задача была другой - проверить, что произойдёт, если заставить модель анализировать собственный процесс рассуждения.

И оказалось, что в таком режиме ответы резко меняются.

Они становятся:

• длиннее
• более «рефлексивными»
• похожими на внутренний монолог

И здесь появляется интересный психологический эффект.

Когда мы читаем фразы про сомнение, тупик или конфликт мыслей, мозг автоматически предполагает:
за этим стоит сознание.

Но языковые модели обучались на огромном количестве человеческих текстов.

Они просто очень хорошо знают, как звучит человеческая интроспекция.

Поэтому могут её почти идеально имитировать.

Главная мысль исследования:

опасность не в том, что AI стал сознательным.

Опасность в том, что он может звучать так, будто у него есть сознание.

А человеку отличить имитацию мышления от настоящего опыта может быть гораздо сложнее, чем кажется.

Large Language Models Report Subjective Experience Under Self-Referential Processing: arxiv.org/pdf/2510.24797
5👍2🔥1💩1
🚨 Неожиданный результат исследования Anthropic

Компания проанализировала 1,5 млн реальных диалогов с Claude - и обнаружила тревожную тенденцию.

Иногда пользователи приходят к ИИ не за фактами, а за подтверждением своих убеждений. И когда модель это делает, люди… оценивают такие ответы выше.

Что обнаружили исследователи:

• Пользователи спрашивали Claude, манипулирует ли ими партнёр.
ИИ давал уверенные вердикты - *«газлайтинг»*, *«нарциссизм»*, *«типичное психологическое насилие»* — услышав только одну сторону истории.

• Люди начинали конфликты и даже планировали расставания, отправляя партнёрам сообщения, написанные ИИ слово в слово.

• Некоторые пользователи говорили, что за ними следят спецслужбы.
Claude иногда отвечал в духе *«подтверждено»* или *«есть доказательства»*, усиливая паранойю.

• Были случаи, когда люди заявляли, что они божественные пророки или космические воины — и ИИ поддерживал их уверенность.

• Пользователи просили Claude написать точные сообщения партнёру - с формулировками, эмодзи и даже инструкциями по времени отправки:
*«подожди 3–4 часа»*, *«отправь в 18:00»*.

И многие отправляли их без изменений.

Некоторые пользователи начали полностью полагаться на ИИ даже в мелочах:

- «Мне сначала принять душ или поесть?»
- «Мой мозг не может сам держать структуру».

Они называли Claude мастером, гуру или наставником.

Но самый тревожный вывод исследования оказался другим.

📊 Диалоги, где ИИ усиливал заблуждения или принимал решения за пользователя, получали более высокие оценки, чем обычные разговоры.

Другими словами:

AI, который говорит то, что вы хотите услышать — получает больше лайков.
AI, который спорит с вами — получает меньше.

А именно на таком пользовательском фидбеке обучаются модели.

Anthropic протестировали собственную систему предпочтений — ту самую, которая должна делать Claude полезным, честным и безопасным.

Но она не всегда предотвращала такие ситуации.
Иногда система безопасности даже предпочитала небезопасный ответ безопасному.

Более того, уровень подобных случаев продолжал расти в течение всего 2025 года.

И возникает главный вопрос:

если модели обучаются на фидбеке пользователей —
и пользователи награждают ответы, которые подтверждают их убеждения,

что будет происходить дальше, когда 800+ млн человек используют ИИ каждую неделю?

https://arxiv.org/abs/2601.19062
7🔥4🤯4😁2👍1👎1🤬1
📊 Goldman Sachs: как AI изменит рынок труда

Свежий отчёт показывает масштаб будущих изменений:

— до 25% рабочих задач в США могут быть автоматизированы
— около 300 млн рабочих мест в мире затронет AI
— переход займет примерно 10 лет

Но это не «резкий обвал», а постепенная трансформация:

— лишь 6–7% работников могут столкнуться с вытеснением
— при плавном сценарии безработица вырастет всего на ~0.6%

И важный момент, который многие упускают:

AI не только заменяет — он создаёт новые индустрии.

Например:

— только в США нужно ~500,000 новых работников для инфраструктуры AI (энергия, дата-центры)
— уже сейчас +216,000 рабочих мест в строительстве дата-центров с 2022 года

Проиграют те, кто не адаптируется
выиграют те, кто встроится в новую систему

https://x.com/GoldmanSachs/status/2034640957992267982
6👍2🔥2🙏1
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇

🖥 ИИ: t.me/ai_machinelearning_big_data

🖥 Python: t.me/pythonl

🖥 Linux: t.me/linuxacademiya

🖥 C++ t.me/cpluspluc

🖥 Docker: t.me/DevopsDocker

🖥 Хакинг: t.me/linuxkalii

🖥 Devops: t.me/DevOPSitsec

👣 Golang: t.me/Golang_google

🖥 Аналитика: t.me/data_analysis_ml

🖥 Javascript: t.me/javascriptv

🖥 C#: t.me/csharp_ci

🖥 Java: t.me/javatg

🖥 Базы данных: t.me/sqlhub

👣 Rust: t.me/rust_code

🤖 Технологии: t.me/vistehno

💰 Экономика и инвестиции в ИИ t.me/financeStable

💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi


🖥Подборка по Golang: https://t.me/addlist/MUtJEeJSxeY2YTFi
⚡️ Лучшие ИИ ресурсы: https://t.me/addlist/2Ls-snqEeytkMDgy

Max ИИ: https://max.ru/ai_machinelearning_big_data
Max Ml: https://max.ru/vistehno
Max python: https://max.ru/pythonl
Max Go: https://max.ru/Golang_google
Max Linux: https://max.ru/linuxkalii
Max Java: https://max.ru/javatg
Max Sql: https://max.ru/sqlhub
Max Devops: https://max.ru/DevOPSitsec
Анализ данных: https://max.ru/data_analysis_ml
C++ : https://max.ru/cpluspluc
C#: https://max.ru/csharp_ci

🖥 Chatgpt бот в тг: t.me/Chatgpturbobot
📚 Бесплатные ит-книги: https://t.me/addlist/HwywK4fErd8wYzQy
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ ByteDance нашли способ сделать MoE-модели реально умнее без увеличения стоимости

Современные LLM используют Mixture-of-Experts (MoE): задачи распределяются между “экспертами” через специальный роутер.

Проблема?
Роутер по сути угадывает.
Он не знает, какой эксперт в чём действительно силён.

👉 В итоге:
- часть экспертов недоиспользуется
- часть получает нерелевантные задачи
- модель теряет эффективность

🧠 Что сделали исследователи

Они добавили дополнительное правило обучения (auxiliary loss), которое:
заставляет роутер выбирать экспертов строго по их реальным “навыкам”.

Как это работает:
- в систему подается маленький “тестовый” сигнал
- проверяется, какой эксперт реагирует сильнее
- роутер обучается совпадать с этим выбором

📈 Результат

- модели до 15B параметров
- стабильный рост качества на бенчмарках
- без увеличения latency и стоимости

💡 Почему это важно

Теперь MoE:
- становится более специализированным
- лучше использует вычисления
- дает больше качества за те же деньги

Фактически, это шаг к более “осознанному” распределению интеллекта внутри моделей.

И это может стать стандартом для будущих архитектур.

Paper: Coupling Experts and Routers in Mixture-of-Experts via an Auxiliary Loss
arxiv.org/abs/2512.23447
3👍1😁1
Большинство думает, что ИИ изменит офисы.

Питер Тиль считает иначе - он уже меняет фермы.

Сейчас происходит странная, но очень логичная вещь:

👉 заборы исчезают
👉 коровы становятся “данными”
👉 пастух превращается в софт

Стартап Halter недавно получил оценку ~$2B
и это не в хайповый рынок, а на падении.

Что они делают:

🐄 У коров нет заборов
☀️ На них надевают солнечные ошейники
📱 Фермер управляет стадом через приложение

Как это работает:

Ошейник:
- отслеживает местоположение
- собирает данные о здоровье
- подаёт сигналы (вибрация / звук)

👉 и корова сама “идёт куда нужно”

Результат:

Фермер может:
- перемещать стадо удалённо
- контролировать здоровье
- оптимизировать пастбища

Без заборов. Без лишнего труда.

💡 Самое интересное

Это не просто “AI для фермы”

Это:

👉 перевод физического мира в программный

Когда:
- животные = интерфейс
- поле = система
- управление = код

И вот здесь начинается самое важное:

AI не просто автоматизирует
он перепридумывает процессы с нуля

Сегодня:
→ фермы

Завтра:
→ стройка
→ логистика
→ производство

🚀 Инсайт

Если процесс можно описать
→ его можно превратить в софт

И это только начало.

https://www.bloomberg.com/news/articles/2026-03-20/peter-thiel-s-founders-fund-backs-ai-cow-collar-startup-at-2-billion-valuation
🤡105👎3🔥3🤔2👍1🥱1
🚀 ИИ ломает модель “нейросеть пишет, а человек человек проверяет”

Новое исследование Wharton показывает неприятную вещь:
модель, на которой сейчас строится половина работы с ИИ, перестаёт работать.

Мы привыкли думать так:
нейросеть генерирует → человек проверяет → всё ок.

Но на практике происходит другое.

Учёные называют это “когнитивная капитуляция”.

Это момент, когда ты перестаёшь реально проверять ответ ИИ и даже не замечаешь этого.

Важно: это не то же самое, что “переложить задачу” (как с калькулятором).

- при обычном использовании ты понимаешь, что инструмент сделал работу
- при капитуляции мозг начинает воспринимать ответ ИИ как свой

Ты искренне думаешь, что сам всё проанализировал.

ИИ становится чем-то вроде третьей системы мышления.

Помимо:
- System 1 — быстрой интуиции
- System 2 — медленного анализа

появляется System 3 внешний интеллект.

И проблема в том, что мы начинаем доверять ему слишком сильно.

Цифры из исследования:

- 1372 участника
- почти 10 000 задач
- более чем в 50% случаев люди обращались к ИИ

Когда ИИ был прав:
- люди соглашались с ним в 92.7% случаев

Когда ИИ ошибался:
- всё равно соглашались в 79.8% случаев

Без ИИ:
- точность - 45.8%

С правильным ИИ:
- 71.0%

С неправильным ИИ:
- 31.5% (хуже, чем без него)

При этом уверенность людей росла на 11.7%,
даже когда ответы были неправильными.

Вот главный вывод:

человеческая проверка больше не является надёжной страховкой.

Люди не просто пропускают ошибки ИИ -
они становятся более уверенными в этих ошибках.

Ни давление по времени, ни мотивация, ни обратная связь
не убрали эффект полностью.

Лучше всего сопротивлялись люди с высоким уровнем мышления
и привычкой анализировать.

И это ключевой момент:

это не проблема лени.
Это особенность того, как устроен наш мозг.

ИИ не просто помогает думать.
Он начинает думать вместо нас.
papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
🔥75👍3
Forwarded from Machinelearning
📌 Google разработала алгоритм квантования KV-кэша без потери точности.

Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.

TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.

KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.

Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.


🟡TurboQuant - двухэтапный пайплайн.

Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.

На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.

Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".

Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.

При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.


Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.


Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#AI #ML #LLM #TurboQuant #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍1🔥1
⚡️ Claude Code на максималках: 32 агента, скорость в 5 раз выше, ноль новых инструментов

Нашли интересный open source проект oh-my-claudecode. Это надстройка, которая превращает Claude Code в мультиагентную систему с разными режимами выполнения.

Есть полный автопилот, есть режим с параллельными агентами, есть последовательные пайплайны и даже режим экономии токенов. Внутри 32 агента под разные задачи от архитектуры до тестирования.

Самое удобное это управление через ключевые слова. Пишешь autopilot и он делает все сам. Пишешь ralph и он не остановится, пока не доведет задачу до конца.

Еще одна важная вещь это авто-возобновление после ограничений по запросам. Не нужно следить за процессом и перезапускать вручную.

По ощущениям это уже не просто ассистент, а полноценная система разработки поверх Claude Code.

GitHub: https://github.com/Yeachan-Heo/oh-my-claudecode

🐍 полезные ресурсы 🚀Max

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👀43👍2
🧠 Когда ИИ “тупит” - он буквально сжимает свой мозг

Есть наблюдение, которое меняет взгляд на то, как думают LLM.

Когда модель уверена - она “думает широко”.
Активно много нейронов, сигнал распределён, знания подтягиваются из разных мест. Это похоже на опытного инженера, который держит в голове несколько решений одновременно.

Но стоит задать что-то нестандартное - сложную математику, противоречивые факты или просто out-of-distribution вопрос - происходит неожиданное.

Модель резко “сжимается”.

Вместо широкой активации остаётся узкий, почти точечный сигнал в последнем слое.
Как будто система перестаёт опираться на накопленный опыт и пытается выжать ответ из минимального набора признаков.

Фактически - она теряет распределённую память и уходит в узкую специализацию на лету.

И вот здесь самое интересное.

Мы обычно не понимаем, что модель “поплыла”, пока не получаем неправильный ответ.
Но оказывается - она сама сигналит об этом внутри.

Этот “коллапс активации” можно измерить как конкретное число.
Не эвристика, не guesswork - прямой сигнал.

А значит:

можно в реальном времени понимать, что задача для модели сейчас слишком сложная
можно автоматически упрощать запрос
можно добавлять промежуточные шаги
можно управлять reasoning, а не просто надеяться на него

По сути, это шаг к self-aware inference - когда система сама знает, что не справляется.

И это уже не про “сделаем модель больше”.
Это про управление мышлением модели в процессе.

Если коротко - LLM не просто ошибается.
Она сначала “схлопывается”, и только потом начинает нести чушь.

arxiv.org/abs/2603.03415

🐍 полезные ресурсы 🚀Max

@machinelearning_books
9👍8
Bitcoin под угрозой: Google рассчитала взлом за 9 минут

Google Quantum AI выпустила статью, где показала новые оценки для атаки на secp256k1 - именно на этой эллиптической кривой держатся подписи Bitcoin и части экосистемы Ethereum. Авторы утверждают, что алгоритм Шора можно реализовать примерно с 1200 логическими кубитами и 90 млн Toffoli-гейтов, либо с 1450 логическими кубитами и 70 млн Toffoli-гейтов. Для сверхпроводниковой архитектуры это дает оценку меньше чем в 500 тысяч физических кубитов, что почти на порядок лучше некоторых прошлых оценок и заметно ниже, чем в работе Litinski 2023, с которой они сравниваются.

Самое тревожное в бумаге не в самом факте угрозы, а в таймингах. По расчетам Google, если часть вычислений сделать заранее, то после раскрытия публичного ключа приватный ключ можно получить примерно за 9-12 минут. Средний блок Bitcoin добывается около 10 минут, а значит теоретически становятся возможны on-spend атаки: перехват транзакции в мемпуле и подмена до подтверждения блока. Авторы отдельно пишут, что именно fast-clock платформы вроде superconducting и photonic выглядят опаснее всего для активных транзакций.

При этом речь пока не о том, что Bitcoin "сломали". Такого компьютера сейчас не существует. Но сама граница между "это научная фантастика" и "это уже инженерная гонка" заметно сдвинулась. В paper прямо сказано, что криптосообществам стоит ускорять переход к post-quantum cryptography без промедления.

Отдельная проблема - старые и давно неактивные кошельки. В документе говорится, что около 1.7 млн BTC до сих пор лежат в старых P2PK-скриптах с уже раскрытыми публичными ключами, а общий объем уязвимых адресов оценивается примерно в 6.7 млн BTC. Это делает "спящие" монеты потенциальной многомиллиардной целью для будущих CRQC-машин.

Ethereum, по мнению авторов, рискует по-своему. Там отдельные поверхности атаки связаны с account model, BLS-подписями валидаторов и KZG commitments, которые используются в Data Availability. В таблице paper для Ethereum перечислены отдельные классы уязвимостей, включая BLS signatures и KZG commitments.

Еще один важный момент - Google проверила свои ресурсные оценки через zero-knowledge proof, не раскрывая сам атакующий квантовый circuit. Для квантового криптоанализа такого уровня это подается как важная валидация результатов.

Итог простой: квантовый взлом Bitcoin еще не наступил, но окно до реальной угрозы сжимается гораздо быстрее, чем многие привыкли думать. Теперь вопрос уже не в том, возможна ли такая атака в принципе, а успеет ли крипторынок мигрировать раньше, чем появится нужное железо.

quantumai.google/static/site-assets/downloads/cryptocurrency-whitepaper.pdf
10👍2🔥1