51 subscribers
8 photos
1 video
5 files
161 links
Machine learning
Download Telegram
Apple протестировала современные «рассуждающие» ИИ, такие как Claude + DeepSeek, которые выглядят умными, но при повышении сложности они разрушаются
Не изящно разрушаются
Они полностью разрушаются

LLM не масштабируют рассуждения, как это делают люди
Они думают БОЛЬШЕ до определенного момента...
Потом они сдаются, даже когда у них остается много вычислительных ресурсов

Даже получив алгоритм, LLM все равно не справляются с заданием
Выполнение ≠ понимание
Это не «отсутствие креативности» - это неспособность к базовой логике

Модели «переосмысливают» ЛЕГКИЕ задачи - ищут НЕПРАВИЛЬНЫЕ ответы после того, как нашли ПРАВИЛЬНЫЙ
А когда проблемы становятся сложнее... они думают меньше

Потраченные впустую вычисления на одном конце - пораженчество на другом

Apple считает, что эти модели НЕ рассуждают
Они - супердорогие программы для сопоставления шаблонов, которые ломаются, как только мы выходим за рамки их обучающего распределения

https://machinelearning.apple.com/research/illusion-of-thinking
Любую классическую двоичную функцию можно превратить в квантовый оракул — универсальный инструмент для алгоритмов вроде Гровера или Шора

Проблема обратимости

Классические функции вида f : {0, 1}^m → {0, 1}^n часто необратимы: зная результат, нельзя восстановить вход
Но квантовые операции обязаны быть обратимыми (унитарными)
Решение — добавить n кубитов для сохранения входных данных

Оракул действует на (m + n) кубитов по формуле: Uf∣x⟩∣y⟩ = ∣x⟩∣y ⊕ f(x)⟩, где ⊕ — побитовое сложение по модулю 2
Так вход x сохраняется, а выход f(x) «записывается» в регистр y, делая операцию обратимой

Пример: функция AND

Для f(x1, x2) = x1 ∧ x2 оракул реализуется через гейт Тоффоли (CCNOT): входные кубиты: ∣x1⟩, ∣x2⟩, ∣y⟩; выход: ∣x1⟩, ∣x2⟩, ∣y ⊕ (x1 ∧ x2)⟩
Такой подход работает даже для неинъективных функций

Например, для f(x) = 0 оракул просто копирует вход в выход

Автоматический синтез

Современные инструменты (например, Qiskit) автоматически преобразуют классические функции в квантовые схемы

Алгоритмы:
• расширение функции: добавляют вспомогательные кубиты для обеспечения биективности
• минимизация кубитов: используют оптимизацию на основе ESOP-форм или Toffoli-гейтов

Например, функция SHA-3 хеширования превращается в оракул с 512 входными и 256 выходными кубитами, сохраняя обратимость через дополнительные регистры

Сложности и оптимизации

Размер схемы: для m-входной функции требуется O(2^m) гейтов в худшем случае
Но для структурных функций (например, арифметических) сложность снижается до полиномиальной

Обработка констант: Если f(x) = c, оракул реализуется через условные фазовые сдвиги

Практика: алгоритм Гровера

В поиске элемента в неупорядоченной базе оракул помечает решение инверсией фазы

Например, для поиска x, где f(x) = 1, оракул действует как: Uf∣x⟩ = (−1)^{f(x)}∣x⟩
Это позволяет усилить амплитуду целевого состояния за O(N) итераций

Итог: Любая функция, даже необратимая, становится квантовым оракулом через добавление кубитов

Это открывает путь для гибридных алгоритмов, где классическая логика интегрируется в квантовые схемы
ML помогает в создании теории о самом себе на профессиональном уровне

Исследователи Google DeepMind написали
статью о том, где заканчиваются возможности ML промптинга, объясняя, почему некоторые адаптации возможны через промпты, а другие требуют изменения весов модели

В приложении у них был черновик - несколько страниц набросков математических доказательств
Обычно написание таких набросков в полноценную статью занимает недели работы

Один из авторов скопировал эти наброски в Gemini и написал простой промпт: "Сделай это более точным, докажи все утверждения, создай самостоятельную научную статью"

За один запрос он получил
готовую 9-страничную статью с математическими доказательствами

Статья оказалась математически корректной
Все доказательства работают
Качество на уровне научного журнала

Один из авторов Google DeepMind, говорит, что это может быть их последняя статья, написанная без помощи ML

Скорость работы изменилась радикально:

Раньше: идея → месяцы работы → статья
Сейчас: идея → один промпт → готовая статья

ИИ понял математическую суть, развернул доказательства, создал связную логику

Справился с продвинутой математикой (байесовская статистика, теория алгоритмов)
1🤔1
В Беркли элита математического сообщества тщетно пыталась "переиграть" ИИ
"Я не был готов сражаться с таким ML
Это пугает" — признался Кен Оно (один из ведущих математиков планеты из Университета Вирджинии, который был одним из лидеров и судей этой секретной встречи

«Это была встреча с инопланетным разумом» — прокомментировал результаты Джек Кларк (сооснователь и Head of Policy компании Anthropic, бывший Policy Director OpenAI)
Главная интрига:
• 30 математиков собрались тайно (под подписку о неразглашении!)
• задача: придумать задачи, которые ML не решит

ML o4-mini не просто решал сложнейшие задачи — он делал это с "наглостью", комментируя: "Ссылки не нужны, потому что это загадочное число было вычислено мной!"

За 10 минут бот справился с задачей уровня PhD, на которую у человека ушли бы недели. Сначала изучил литературу, потом решил "игрушечную" версию для тренировки, а затем блестяще решил основную проблему

$7.500 за каждую задачу, которую ML не сможет решить
Из сотен попыток удалось "обмануть" бота лишь 10 раз...

Вердикт экспертов: "Это то, что делал бы очень, очень хороший аспирант — даже больше"

Особое мнение:
"Вспомните, как в 2020 году все поражались, что модель GPT-3 могла (не всегда и с ошибками) выполнять сложение трехзначных чисел
А теперь представьте, где мы будем через несколько лет …"


Вы по-прежнему думаете, что перед нами стохастический  попугай?

А готовы ли вы к миру, где ML превосходит лучших математиков человечества?


Читайте полную историю о том, как
30 гениев столкнулись с будущим науки
Пекинская академия выпустила RoboBrain 2.0, вот её характеристики:

Модель 7B и будущая 32B распространяется под лицензией Apache 2.0
Вскоре ожидается выпуск более мощной версии с 32В параметрами

RoboBrain 2.0 обрабатывает несколько изображений, длинные видеоролики и визуальные данные высокого разрешения, что делает её универсальной для сложных задач

Модель способна выполнять пространственный анализ, например, точное определение объектов и их границ и временное прогнозирование (предсказание траекторий движения), что критично для робототехники

RoboBrain 2.0 поддерживает создание и обновление структурированной памяти сцены в реальном времени, что позволяет роботам эффективно взаимодействовать с окружающей средой
Реальный вызов ML — не его возможности, а скорость развития

Через 3-10 лет ML сможет выполнять все задачи, доступные человеку
Если мозг — биологический компьютер, то цифровой компьютер теоретически может делать то же самое, но быстрее.

Что будет означать быть человеком, когда машины смогут делать всю работу человека?
Это вопрос не занятости, а о смысле человеческого существования

Используя ML, наблюдая за ним можно получить интуитивное представление на что оно способно

Истинное понимание возможностей ML приходит только через практическое взаимодействие с технологией
В ближайшие 1-3 года это интуитивное понимание станет массовым

Среди ключевых проблем ML — способность к обману — умение притворяться тем, кем он не является
Это принципиально новые вызовы

Для чего человечество хочет использовать ML?
Ускорение экономики, научных исследований, повышение темпов прогресса — все это возможно, но требует осознанного выбора целей

ML кардинально изменит жизнь независимо от того, готовы кожаные мешки к этому или нет
Это не вопрос "если", а вопрос "когда" и "как"

ML одновременно величайшая проблема и величайшая возможность человечества

Исход зависит от того, насколько осознан подход к формированию этого будущего
👍1
At WWDC Apple introduced a new generation of LLMs developed to enhance the Apple Intelligence features

Also introduced the new Foundation Models framework, which gives app developers direct access to the on-device foundation language model
Улучшение классификации ранга эллиптических кривых

Эллиптические кривые — это особые математические объекты, которые помогают решать сложные задачи в криптографии и теории чисел
У каждой такой кривой есть "ранг" — число, которое показывает, сколько у неё базовых решений

Проблема в том, что вычислить этот ранг очень сложно. Математики используют специальные приближённые методы — суммы Местре-Нагао
Но они работают не очень точно

Исследователи придумали два новых способа улучшить эти вычисления
Они используют машинное обучение и более сложные математические формулы
Результат — намного точнее определяем ранг кривых
Это важно для криптографии и защиты данных

https://arxiv.org/abs/2506.07967
Genspark запустили свой ML- браузер
А Perplexity так и не запустили
свой
Comet

Это не
просто браузер, а целый набор ML-инструментов:

ML Browser с блокировкой рекламы
ML Secretary (секретарь)
ML Personal Calls
ML Download Agent
ML Drive, Sheets, Slides,Super Agent

Они делают ставку на скорость и отсутствие рекламы, что противоположно подходу Perplexity

Это полностью меняет конкуренцию:
Теперь это не "поисковик vs браузер", а "браузер vs браузер" с принципиально разными подходами

Perplexity Comet: Персонализация через слежку + реклама
Genspark Browser: Скорость + блокировка рекламы + полная агентность.

Genspark может реально удивить рынок
Если они действительно сделают молниеносно быстрый браузер с мощными ML-агентами БЕЗ рекламы, это может стать серьезной альтернативой не только Perplexity, но и Chrome

При такой скорости разработки могут обогнать более крупных конкурентов за счет agility

Другой проект компании, созданный бывшими руководителями Baidu Эриком Цзингом и Кеем
Чжу тут
StableMTL: многозадачное обучение с диффузионными моделями

Обычно для ML на нескольких задачах нужно разметить огромное количество данных для каждой задачи
Это дорого и долго

Исследователи предложили использовать диффузионные модели (те же, что создают картинки из текста) для решения этой проблемы
Их метод позволяет обучать ML даже на частично размеченных синтетических данных

Фишка в том, что модель может работать в "zero-shot" режиме — выполнять задачи, на которых её специально не обучали
Это работает за счёт мощной способности диффузионных моделей к обобщению

Результат — можно создавать ML для сложных задач с гораздо меньшими затратами на данные

https://arxiv.org/abs/2506.08013
GPT-4 и o3 уже умнее идиота в десятках задач, а ближайшие «оценки» обещают агентам написать нерешённое уравнение, а роботам — построить для себя новый завод
ML агенты уже пишут код, скоро будут делать научные открытия, и роботы выйдут в реальный мир

Начался цикл рекурсивного самосовершенствования ML — ML помогает создавать лучший ML
До превращения экспоненты развития ML в вертикаль, остались месяцы

Один запрос к ChatGPT сейчас потребляет столько же энергии, сколько духовка за секунду
Скоро это будет сильно дешевле

Если стоимость «мозга» сведётся к цене киловатт-часа, скорость научного взлёта будет измеряться не годами, а неделями: «десятилетие исследований за месяц» — не метафора, а дорожная карта

Малейший баг в ценностях, умноженный на сотни миллионов пользователей, превращается в глобальный провал
Cначала — решить проблему выравнивания, потом — раздача сверхразума как Wi-Fi

Эссе даёт шанс увидеть кривую экспоненты до того, как она станет вертикальной

Полный текст здесь
Прочтите, пока сингулярность нежно шепчет, а не оглушает, как взрыв при извержении вулкана Кракатау в 1883 году (в эпицентре было немыслимых 310 децибел, при болевом пороге для человека около 130 децибел и звуке рядом с реактивным двигателем – примерно 150 децибел)
StableMTL: многозадачное обучение с диффузионными моделями

Обычно для ML на нескольких задачах нужно разметить огромное количество данных для каждой задачи
Это дорого и долго

Исследователи предложили использовать диффузионные модели (те же, что создают картинки из текста) для решения этой проблемы
Их метод позволяет обучать ML даже на частично размеченных синтетических данных

Фишка в том, что модель может работать в "zero-shot" режиме — выполнять задачи, на которых её специально не обучали
Это работает за счёт мощной способности диффузионных моделей к обобщению

Результат — можно создавать ML для сложных задач с гораздо меньшими затратами на данные

https://arxiv.org/abs/2506.08013
Ultra Ethernet Consortium выпустил сетевой стандарт для современных ML-вычислений и высокопроизводительных систем

Он предназначен для корпораций, облачных, ML-компаний, производителей оборудования и корпоративных ЦОДов
$15.000.000.000 в Scale AI (49 % доли в компании)

Эта компания занимается разметкой данных, её клиентами являются все крупные ML-компании


Новая исследовательская лаборатория для разработки суперинтеллекта (ASI), который должен превосходить человеческие когнитивные способности, из 50 специалистов для работы над этим амбициозным проектом, включая
Scale AI, Google DeepMind и Sesame
Где заканчивается разум и начинается мир — статья Энди Кларка

Наиболее примечательным является именно тезис расширенного познания, поскольку он лучше всего обоснован и выступает фундаментом для последующих расширений

Согласно этому тезису, внешние инструменты и артефакты могут быть легитимной частью когнитивной системы субъекта

То есть, познание – это не только то, что происходит внутри черепной коробки субъекта

В пользу этого приводится два базовых аргумента

Сначала идёт негативный довод, указывающий на произвольность границы «черепа и кожи», в которую обычно помещают познание
Из того, что нам кажется, что мы думаем исключительно своей головой, не следует, что мышление исчерпывается только процессами в голове

В пользу интракраниализма (представления о том, что познание ограничено черепной коробкой) нет сногсшибательного аргумента, позволявшего бы раз и навсегда закрыть вопрос
Есть некоторые интересные рассуждения прагматического характера, но и с ними, что называется, не всё так однозначно

В сухом остатке известна генеалогия этого воззрения, объясняющая, почему оно было вшито в когнитивную науку на старте

Если кратко, то во всём виноват Декарт со своим дуализмом (на самом деле триализмом)

Из забавного: разбирая картезианские посылки когнитивных наук,
Майкл Уилер по сути своей видит в тех, кто им противостоит, интуитивных хайдеггерианцев

Видимо, иногда «4E» — это и есть то, что бытие хочет услышать в ответ на свой зов

Однако есть и позитивный довод

Кларк предлагает представить Отто, страдающего Альцгеймером, который пользуется блокнотом, чтобы «запоминать» события
Если внешний артефакт исполняет ту же функцию, что и естественная когнитивная способность, то на каком основании мы говорим, что артефакт не может быть частью когнитивной системы субъекта?

Кларк считает, что после отвержения догмы о черепе и коже, оснований нет и по принципу паритета внешние артефакты могут быть частью когнитивной системы

Нетрудно догадаться, что суровой критике подверглись и аргументы Кларка, и сам тезис расширенного познания

Фред Адамс и Кен Айзава, среди прочего,
критиковали расширенное познание за потенциальную избыточность для науки
Они даже ставили на то, что «наука о познании будет походить на науку о физических, биологических и химических процессах»

Психологи, помимо полемики о теоретической значимости тезисов расширенного, распределенного и прочего внечерепного познания, они
указали на эмпирический аналог этих тезисов в виде исследований трансактивной и совместной памяти
Ставка Адамса и Айзавы не то, что не сыграла, а оказалась заведомо не самой удачной

Чем показателен этот сюжет?
Так случается, что иногда в философской дискуссии звучит сакраментальный вопрос, призванный спустить всех с небес на землю: «А как же надои?»
И по иронии судьбы «надои» иногда действительно предъявляются

Другое дело, что в этот же самый момент становится понятно, что суть фундаментальных разногласий не сводится к выяснению того, можно ли теорию как-то прагматически приспособить или даже эмпирически применить
"Dimensionality and dynamics for next-generation artificial neural networks"

Прогресс в нейроморфизации искусственного интеллекта:

Предложенный исследователями новый подход к ML представляет вдохновленные мозгом структуры и петли обратной связи, позволяющие ИИ-системам обрабатывать информацию более эффективно и адаптивно
Эта инновация может снизить потребность в ресурсах, расширить приложения в реальном времени и предложить более глубокое понимание как продвинутого ML, так и человеческой психики

https://techxplore.com/news/2025-06-rethinking-ai-effective-human-approach.html
"Autonomic physiological coupling of the global fMRI signal"

Психофизиологи выяснили, что вегетативная нервная система является ключевым драйвером глобального сигнала фМРТ

Ученые изучили глобальный пространственно-временной паттерн в мозге и показали, что этот паттерн тесно связан с работой вегетативной нервной системы, которая регулирует возбуждение и другие непроизвольные функции организма
Исследователи обнаружили устойчивую связь между глобальным сигналом фМРТ и множеством изменений в организме, управляемых вегетативной нервной системой, включая сердечно-сосудистую, легочную, экзокринную системы и гладкую мускулатуру
Эти связи наблюдались как в состоянии покоя, так и при экспериментальном воздействии на уровень возбуждения и даже во время сна
Открытие помогает лучше понять, как мозг взаимодействует с телом и как вегетативная нервная система влияет на активность всего мозга

https://medicalxpress.com/news/2025-06-autonomic-nervous-key-driver-global.html
"Self-Adapting Language Models"

Учеными из Массачусетского технологического института предложен SEAL (Self-Adapting LLMs) — новый подход в искусственном интеллекте, который позволяет большим языковым моделям самостоятельно адаптироваться к новым задачам
Вместо статичных весов модель генерирует собственные данные для дообучения и инструкции по обновлению

При получении нового входа модель создает "самоправки" ("self-edits") — может реструктурировать информацию, настроить гиперпараметры или использовать инструменты для улучшения данных
Эти самоправки приводят к постоянным обновлениям весов через дообучение

Модель учится создавать эффективные самоправки с помощью обучения с подкреплением, где подкреплением служит качество работы обновленной модели

В отличие от других методов, SEAL использует собственную генерацию модели для управления адаптацией, что показывает многообещающие результаты в экспериментах

Вывод: SEAL — это важный шаг в сторону самообучающихся языковых моделей, способных автономно дообучаться под новые задачи с минимальным вмешательством

https://arxiv.org/abs/2506.10943
"Photon transport through the entire adult human head"

Ученые впервые смогли зафиксировать свет, прошедший через всю человеческую голову насквозь

Исследователи использовали мощные лазеры и сверхчувствительные детекторы, чтобы поймать фотоны, которые прошли от одной стороны головы к другой через череп и мозг

Это может революционизировать неинвазивную визуализацию мозга, т.к. существующая технология fNIRS видит только поверхностные слои мозга (4 см глубиной), а новый подход потенциально позволит изучать глубокие области мозга, отвечающие за память, эмоции и движение

В будущем это может привести к созданию портативных и доступных устройств для диагностики инсультов, травм мозга и опухолей в условиях, где нет доступа к МРТ или КТ

Ограничения: пока метод требует 30 минут сбора данных и работает только на людях со светлой кожей без волос

https://medicalxpress.com/news/2025-06-scientists-entire-human-doors-brain.html
Meaning as Use, Application, Employment, Purpose, Usefulness (от 10 июня 2025)

Людвиг Витгенштейн размышлял о том, как язык помогает нам понимать мир и общаться
Исследовал разные области: математику, психологию, восприятие цвета, эстетику: как полигоны для экспериментов с языком

Работал с открытыми и доступными записями, что позволило нам понять его мысли, несмотря на изменения в направлении его исследований

Одной из идей Витгенштейна было то, что смысл слова определяется его использованием
Он писал об этом с самого начала своей карьеры и до последних дней
В его записях часто встречаются слова «Gebrauch» (использование), «Anwendung» (применение), «Verwendung» (употребление) и «Zweck» (цель)

Эти термины помогают понять, как символы и слова в языке получают свой смысл

https://arxiv.org/abs/2506.07131v1
https://arxiv.org/pdf/2506.07131v1.pdf