50 subscribers
7 photos
1 video
5 files
157 links
Machine learning
Download Telegram
Федеральный судья США постановил, что Anthropic может обучать Claude на купленных книгах без разрешения авторов

Anthropic скачала более 7.000.000 пиратских копий книг с нелегальных сайтов (Books3, LibGen, PiLiMi), включая произведения истцов

Позже компания также купила миллионы печатных книг, отсканировала каждую страницу и создала цифровые копии
Для этого она даже наняла бывшего сотрудника Google, который специализируется на этой работе

Судья решил:

Использование книг для обучения языковых моделей подпадает под добросовестное использование

Нет карт-бланша на пиратство под предлогом ML-разработки

Признал обучение LLM чрезвычайно трансформативным использованием, сравнив его с тем, как люди учатся читать и писать
Это создает сильный прецедент для будущих дел
ML приведет к вымиранию человечества, нет оснований полагать, что люди достаточно умны, чтобы не дать себя уничтожить, когда поймут серьезность угрозы

Риски от ML реально высоки, и при очевидной для всех угрозе, человечество уже не сможет мобилизоваться
1
Пока все спорят о ChatGPT и регулировании ИИ, исследователи из Forethought Centre подняли ряд интересных вопросов, который почти никто не задаёт

Выделяется 3 стадии промышленного взрыва:

1. ИИ направляет и оптимизирует работу людей
2. Полностью автономные роботизированные заводы и фабрики.
3. Переход к молекулярному уровню для максимальной скорости.

Ключевая идея - когда роботы начнут строить роботов под управлением ML, возникнет петля обратной связи:

• Больше роботов → дешевле производство
• Дешевле производство → ещё больше роботов
• Экспоненциальный рост до физических пределов

Сегодня роботы удваиваются каждые 6 лет
Но когда они начнут строить друг друга под управлением ML, то:


Год 1: Удвоение за 12 месяцев, как сейчас удваиваются солнечные панели
Год 10-15: Удвоение за недели (по мере удешевления производства)

Физический предел - удвоение за дни или часы
Предел Земли — около 100.000.000.000.000 роботов (ограничение — солнечная энергия)
Это в 12.500 раз больше, чем людей

Ключевой расчёт авторов:

Гуманоидный робот стоит ~$100.000
Работая 24/7, он может заработать ~$240.000/год
Окупаемость: меньше года
С учётом строительства фабрик: 1-2 года на удвоение

Для сравнения, производственный сектор США создаёт $2.600.000.000.000 стоимости, используя $5.400.000.000.000 капитала — соотношение, которое делает самовоспроизводство возможным

Что упускают исследователи?
1. Маловероятно, что правительства позволят 90
% безработицу
2. "Удвоение за часы" игнорирует термодинамику и логистику
3. Кто купит продукцию триллионов роботов?
Вспоминаем, повторяем и не забываем чему равен предел
Будем строить последовательность по такому правилу
Выберем натуральное число
Если оно чётное, делим его на 2, в противном случае умножаем на 5 и прибавляем 1

С результатом будем проделывать то же самое снова и снова

Какие последовательности будут возникать?

Например,
1 – 6 – 3 – 16 – 8 – 4 – 2 – 1, получился цикл;
5 – 26 – 13 – 66 – 33 – 166 – 83 – 416 – 208 – 104 – 52 – 26, снова цикл;
7 – 36 – 18 – 9 – 46 – …, а дальше не понятно, выйдет ли она на цикл или нет; по крайней мере на 100-м шаге получается число 11857916;
9 — в этой же растущей последовательности, 11 тоже выходит на неё;
15 попадает в цикл 1;
17 даёт ещё один цикл из 10 шагов…

И в целом наблюдается довольно хаотичная картина многих устойчивых состояний-циклов и возможно бесконечного роста для некоторых начальных значений

Должно ли что-то принципиально измениться, если всего лишь заменить 5 на 3 в этом правиле?
Оказывается,что для любого начального значения все такие последовательности рано или поздно приходят к единице!
Точнее говоря, пока не обнаружено такого числа, которое не пришло бы к единице, а проверено уже 2⁶⁸ первых натуральных чисел, и все они в итоге приходят к 1, и проверка непрерывно продолжается

Это знаменитая гипотеза Коллатца (немецкий математик Лотар Коллатц сформулировал её 1 июля 1932 г.), одна из нерешённых проблем математики (известная также под именем сиракузской проблемы, проблемы 3n+1 и др.)
Например, при n=27 последовательность состоит из 111 членов до первой единицы, достигая в пике значения 9232.
Почему 3n+1 подчиняется порядку, а 5n+1 — нет?

Ответа нет
Математики предполагают, что множитель 3 создает баланс между "подъёмом" (3n+1) и "спуском" (n/2), а 5 — нарушает его
Но строгого объяснения этого баланса нет

В настоящее время непонятен даже статус этой гипотезы. Теоретически возможны три варианта:
1) Гипотеза доказуема в аксиоматике Пеано и, значит, верна для всех натуральных чисел
2) Гипотеза опровержима в аксиоматике Пеано, и тогда существует контрпример — конкретное стандартное натуральное число, для которого последовательность уходит в бесконечность или в цикл, отличный от 4 – 2 – 1
3) Гипотеза неопровержима и недоказуема в системе аксиом Пеано, и это означает, что в этой аксиоматике невозможно ни доказать, что все числа приходят к 1, ни предъявить контрпример

Но в любом случае, в стандартной модели множества натуральных чисел она является истинной или ложной, даже если она недоказуема в аксиоматике Пеано

Если она истинна, это означает, что аксиоматика Пеано слишком слаба для её доказательства, а если ложна (и существует контрпример), то аксиоматика Пеано не умеет его построить

Стоит отметить, что конструктивная математика (отвергающая закон исключённого третьего для бесконечных множеств) допускает иную философскую позицию: у нас может никогда не быть конструктивных оснований ни для подтверждения гипотезы (алгоритма, строящего путь к 1 для любого n), ни для её опровержения (предъявления явного контрпримера)

Таким образом, для нас она может остаться без установленного значения истинности
Google сделал бесплатным свой ML Gemini для образовательного сообщества

Google
запустил специальную версию Gemini для образовательного сообщества. Она построена на модели Gemini 2.5 Pro
Теперь у кого есть корпоративный образовательный аккаунт в Google, сможет бесплатно получить доступ к:

1. Gemini for Education — специальная версия для образования с доступом к премиум ML-моделям и повышенными лимитами

2. Gemini in Classroom — теперь доступен бесплатно для всех версий Google Workspace for Education

3. NotebookLM — доступен студентам 18+ и скоро будет доступен студентам всех возрастов
«…we hope to illustrate the following “abstract nonsense” principle, which we learned from Yves Benoist:

“There are many more theories than fundamental objects in mathematics”

A direct corollary of this principle is that behind many distinct interesting theories lie in fact the same fundamental objects
Of course, each theory sheds its own light on these objects, and combining the various perspectives is likely to be very fruitful…»

https://arxiv.org/abs/math/0611617
Миллиарды людей по всему миру ежедневно набирают дефис и знак больше, чтобы получилось убогое подобие стрелочки, и считают, что все нормально, что так и должно быть
Кодировки умерли, Юникод победил, сколько можно сидеть в каменном веке?

Например, недоразумение в виде знака дюйма, использующееся для обозначения строк, мы сразу же заменим на нормальные лапки “...”
Меня давно беспокоит, что всякие массивы и теги обозначают начало и конец разными символами (открывающая и закрывающая скобки), а у строк символ одинаковый
Вот, будет разный

Дальше, понятно, минус
То, что вы печатаете, нажимая на кнопку рядом с плюсом на клавиатуре — не минус, а дефис
Он выглядит по-другому, придуман для другого (соединять слова) и вообще перегружен
В юникоде есть математический минус — − — который придуман специально для математики и идеально сочетается с плюсом
Вот его-то мы для арифметики и будем использовать. Бонусом — дефис освободится, чтобы, как ему и полагается, соединять слова
Да здравствует кебаб-кейс!

Еще под нож пойдет умножение — звездочка это хорошо, но зачем?
Зачем себя мучать, переучивать после школы, делать вид, что * это почти крестик?
Язык не должен строиться вокруг концепции «на что создателям печатных машинок когда-то хватило клавиш»
Короче, умножение тоже красивое — ×

Ну и раз уж мы про математику, то давайте со сравнением разберемся
Вот это вот что такое: !=
Это по-вашему нормально?
Это псевдографика какая-то или что?
А вот это? <=? >=?
Это что за стрелки?
Вот же, положил: ≠ ≤ ≥

А логические операции?
Вот эти вот && ||?
Думаете: ага, щас опять юникодно-математические символы какие-то найдет
Не, нифига (хотя они есть)
Сравнение просто словами будет: and, or
Во-первых потому что ∧∨ хрен запомнишь
Во-вторых... впрочем, достаточно во-первых

Еще стрелочки, стрелочки мои любимые, стрелочки
За «стрелочки», сделанные из дефиса и знака «больше», нужно бить
Нормальные есть в юникоде, на любой вкус, во все стороны, вот: ↓←↑→
Можно на вещи на соседних строчках показывать!

Что там еще программисты напридумывали от убогости ASCII?
А, шестнадцетиричные числа
В нашем прекрасном языке будущего они не будут записываться как 0xC1F27ED
И даже не как 0×C1F27ED

Шестнадцетиричное число?
Ну так и пиши: C1F27ED₁₆
Двоичные так же 00001111₂, восьмеричные так же 12345670₈.

Есть еще вопросик с присваиванием, конечно
Писать двойное равно для сравнения это бред, это понятно
Тройное — бред уже клинический
Сравнение это обычное, одинарное =
Значит, надо что-то для присваивания придумать

С одной стороны есть :=
Он долгое время считался оператором смерти — все языки, которые его вводили, умирали
Но сейчас есть Go и правило больше не работает
Но у := есть другая проблема — без хорошего шрифта типа Fira Code оно выглядит как унылое говно — двоеточие не выровняно относительно равенства, и оба они стоят как-то криво-косо относительно остального текста

В общем, я думаю мы ← для присваивания приспособим
Но это пока не точно

Ну и к вопросу, который всех вас, я уверен, беспокоит
Как это набирать?
Нужна ли будет специальная клавиатура?
Клавиатура нет, а вот раскладка может быть
Все, у кого стоит раскладка Бирмана, например, могут набрать большую часть этих символов без особых проблем
Остальное докрутим

«Да кто на это пойдет?» — скажете вы
А я напомню, что программисты — люди, способные добровольно терпеть сильную боль, на которую сами же себя обрекли (см. Дворак, Линукс)
Так что была бы цель, а средства подтянутся
Ml
Миллиарды людей по всему миру ежедневно набирают дефис и знак больше, чтобы получилось убогое подобие стрелочки, и считают, что все нормально, что так и должно быть Кодировки умерли, Юникод победил, сколько можно сидеть в каменном веке? Например, недоразумение…
Aequalis est, zenzizenzizenzic

Нет, это не заклинание средневековых алхимиков, а математический язык до появления привычных нам символов — плюса, минуса, равно и степеней

Управляющий Королевского монетного двора Великобритании, личный врач Эдуарда VI и Марии I, преподаватель математики в Оксфорде и автор первого учебника арифметики на английском языке — Роберт Рекорд

До Рекорда «равно» писали словами: is equal to, aequalis est, est egale à
Длинновато для ЕГЭ бланков

В 1557 году математик предложил символ «=» в своей книге
The Whetstone of Witte, объяснив: «Я использую пару параллельных линий, потому что не существует двух вещей более равных, чем они»

Кстати, горизонтальная метафора равенства прижилась не сразу
Вплоть до XVII века предпочтение отдавали аббревиатурам вроде «ae» или «æ»

В другой своей книге
The Grounde of Artes (1543) Рекорд объяснил знаки «+» и «–» английской публике
Символы уже использовались в немецких текстах с конца XV века, но в Англии о них почти не знали

Впервые они появились в трактате немецкого математика Иоганна Видмана

Предполагают, что сам знак плюса — это упрощённая запись латинского et («и») или, точнее, второй буквы союза
А знак минуса — отделившаяся тильда от буквы m̄, которой сокращённо обозначали слово minus

Рекорд не придумал эти символы, но стал первым, кто ввёл их в англоязычный обиход

Целью математика было сделать науку доступной не только учёным, но и практикам — торговцам, военным, морякам и чиновникам

В книге Рекорда знак равенства выглядел так: «=====» — он состоял из двух очень длинных параллельных линий
Вариант громоздкий, но смысл тот же: равные и параллельные

В той же книге Рекорд вводит термин, который
стал почти анекдотом: zenzizenzizenzic — это восьмая степень числа

Слово происходит от итальянского censo или латинского census — «квадрат»
Алгебраическая традиция на латыни обозначала через zenzic квадрат (2-я степень)

Соответственно, zenzizenzic — квадрат квадрата (4-я степень), а zenzizenzizenzic — квадрат от квадрата от квадрата (8-я степень)

Верхних индексов ещё не существовало, и Рекорд так пытался нащупать язык для новых понятий

Уже
писали о смысле точки — получился целый философский разговор
Сегодняшние знаки более практичные

А если бы их пришлось изобретать заново — как бы они выглядели сегодня…
Ml
Aequalis est, zenzizenzizenzic Нет, это не заклинание средневековых алхимиков, а математический язык до появления привычных нам символов — плюса, минуса, равно и степеней Управляющий Королевского монетного двора Великобритании, личный врач Эдуарда VI и Марии…
Одно из самых простых и одновременно самых загадочных понятий в математике — это точка
Мы представляем её как крошечное пятно на бумаге, но у неё нет ни длины, ни ширины, ни даже формы!

Как же можно говорить о чём-то, что буквально состоит из ничего?

Около 300 г. до н. э. Евклид в своих
«Началах» дал классическое определение: «Точка — то, что не имеет частей»
Звучит не вполне однозначно и скорее философски, правда?

Рене Декарт в XVII веке связал точки с координатами, сделав их фундаментом аналитической геометрии
Теперь каждая точка имела «адрес» — (x, y)

Ещё позже в XIX веке Георг Кантор пошёл дальше и доказал, что даже бесконечно малые точки могут образовывать бесконечно большие множества — например, прямую

Всё сходится: понятие есть, доказательства есть, координаты тоже в наличии
Но вот в чём проблема: если точка не имеет размеров — существует ли она вообще?
Как мы строим целую геометрию, опираясь на нечто, что нельзя потрогать, измерить или даже математически изобразить?

Над этой проблемой рассуждали и философы
Например Бертран Рассел писал:

«Если материя — это точки в пространстве, то что такое тогда пространство?»

Вопросы бытия — это хорошо, но держим связь с реальностью!
Без понятия точки не было бы координатной сетки, без координат — физики не смогли бы описывать траектории частиц, инженеры — проектировать здания, а IT-специалисты — строить визуализации и 3D-модели

Пост на экране, каждая кнопка в интерфейсе, ваш любимый мем — это миллионы точек, которым задали координаты
Точки — это кирпичики, из которых состоят цифровой и физический миры

Может быть, она и правда не существует
Но без неё не было бы… вообще ничего
NVIDIA и Georgia Tech утверждает, что будущее агентного ИИ за малыми языковыми моделями (SLMs)
Основная идея - для большинства повторяющихся специализированных задач огромные модели избыточны
SLMs, которые помещаются на обычный компьютер, могут эффективнее справляться с рутинными операциями, экономя ресурсы и деньги

Исследователи создали бенчмарк на основе соревнования по ускорению обучения GPT-2, где сообщество сократило время с 45 до 3 минут

В результате
даже лучшие модели (o3-mini, Claude 3.7, Gemini-2.5-Pro, DeepSeek-R1) восстанавливают менее половины улучшений, даже когда им дают подробные инструкции

Исследователи выявили несколько ключевых проблем:

- Агенты часто не могут правильно реализовать даже описанные изменения
- Сложности с пониманием и применением новых техник
- Проблемы с отладкой собственного кода
- Трудности с оптимизацией производительности

Получается, если большие модели не справляются с воспроизведением кода, как могут справиться малые?

Ответ в типах задач
NVIDIA говорит о простых повторяющихся операциях, а Meta тестирует сложное научное программирование с отладкой и оптимизацией

Это разные миры сложности

1. Специализация работает, узкие модели для узких задач могут быть эффективнее универсальных
2. Автономность далека, даже с подробными инструкциями ML пока не может надёжно программировать
3. Будущее гибридное, вероятно, увидим системы из множества специализированных моделей разного размера

Эти работы показывают, что путь к полноценным ML-агентам будет постепенным
Экономическая оптимизация через SLMs имеет смысл, но не стоит ожидать прорывов в сложных творческих задачах

Рекурсивное самоулучшение ИИ — это не внезапный скачок, а процесс, который уже идёт
От IDE до GitHub Copilot — постепенно автоматизируют всё больше

При этом nanoGPT — это всего 750 строк учебного кода, а реальные системы в сотни раз сложнее

Специализация неизбежна, но до автономных ИИ-исследователей ещё далеко
Together AI introduced DeepSWE is a new SOTA open-source software engineering model trained entirely using reinforcement learning, based on Qwen3-32B

DeepSWE is trained with rLLM, Agentica’s modular RL post-training framework for agents

rLLM makes it easy to build, train, and deploy RL-tuned agents on real-world workloads — from software engineering to web navigation and beyond

Train DeepSWE yourself. Extend it. Build your own local agents
Data curation for general reasoning capabilities is still relatively underexplored

Researchers systematically compare different metrics for selecting high-quality and diverse reasoning traces in terms of data efficiency in the distillation setting

Researchers find diversity in reasoning strategies matters more than topics diversity, and challenging questions are more sample efficient in distilling reasoning capabilities

Researchers find that the Less-Is-More approach is not sufficient for solving general reasoning tasks, but scaling up data quantity always brings consistent gains

Researchers find that NaturalThoughts outperforms state-of-the-art reasoning datasets such as OpenThoughts3, LIMO, S1k, etc. on general STEM domains

Also find that distillation based on reasoning difficulty can improve the pareto frontier of the student model’s inference efficiency

Training with a mix of full reasoning traces and the condensed answers enables efficient hybrid reasoning in the student model, by adaptively switching between long chain-of-thought thinking and directly answering
Председатель назвал данные основополагающим ресурсом «с революционным воздействием» на международную конкуренцию
Масштаб этого видения не имеет себе равных, затрагивая все: от гражданских свобод до прибылей интернет-компаний и стремления Китая к лидерству в области машинного обучения

С 2021 года Китай начал внедрять правила, вдохновлённые европейским GDPR
Однако на практике он быстро начал расходиться с западными нормами
Все уровни власти теперь обязаны инвентаризировать и классифицировать свои массивы данных
Государственные компании проходят переоценку, где данные рассматриваются как активы, подлежащие учёту в балансах или торговле на биржевых платформах
Опубликован новый норматив, обязывающий все государственные органы обмениваться информацией между собой.

Следующий шаг — цифровое удостоверение личности

В рамках этого процесса центральные органы власти смогут контролировать реестр веб-сайтов и приложений каждого человека
Для крупных технологических компаний, которые раньше управляли системой, станет сложнее связать имя человека с его онлайн-активностью— им останется только обезличенный цифровой идентификатор
Но именно у государства появится возможность выстроить прозрачный и тотальный механизм онлайн-наблюдения за гражданином

В долгосрочной перспективе Пекин строит то, что можно назвать «национальным океаном данных» — ML систему, охватывающую не только потребительскую сферу, но и промышленное производство, логистику, энергетику и госуправление
Преимущества такой системы очевидны: масштабируемость, удешевление ML-разработок

Новая модель куда более централизована и технологически изощрённа
Она может стать не просто инструментом управления, а основой цифровой автократии

Опыт Китая становится вызовом для всего остального мира
В США обсуждается возможность привлечения частных подрядчиков, таких как Palantir, к консолидации государственных баз данных
Европейский союз, вероятно, пересмотрит правила GDPR
Индия с её системой Aadhaar делает ставку на цифровую идентичность, но пытается сохранить баланс между конфиденциальностью и экономическим развитием

В западных странах задача сложнее: здесь необходимо не только обеспечить эффективность, но и встроить в систему сдержки и противовесы, защищающие частную собственность, права человека и свободу
Китай может позволить себе меньше внимания уделять таким вещам и построит эффективную и антиутопическую систему наблюдения

Десятилетиями он был «быстрым последователем» западных инноваций
Если Китай сейчас вырвется вперед, показывая финансовую ценность своего национального океана данных, его метод централизации станет не только экономической проблемой, но и политической

Эта модель бросит вызов самой идее того, как должны быть устроены государство, рынок и свобода в XXI веке
Существует не одна, а много математик, и каждая из них по ряду причин не удовлетворяет математиков, принадлежащих к другим школам
Стало ясно, что представление о своде общепринятых, незыблемых истин — величественной математике начала XIX в., гордости человека — не более чем заблуждение

На смену уверенности и благодушию, царившим в прошлом, пришли неуверенность и сомнения в будущем математики
Разногласия по поводу оснований самой «незыблемой» из наук вызвали удивление и разочарование (чтобы не сказать больше)

Нынешнее состояние математики — не более чем жалкая пародия на математику прошлого с ее глубоко укоренившейся и широко известной репутацией безупречного идеала истинности и логического совершенства

(Морис Клайн,
"Математика. Утрата определенности")
Нарциссические числа неслучайно так называются
Ну как можно не любоваться собой в зеркале, если ты состоишь из N цифр и равняешься сумме N-х степеней этих цифр?

Самое маленькое из таких чисел, если не считать тривиальных случаев одиночных цифр, это 153:

153 = 1^3 + 5^3 + 3^3

Трехзначных нарциссов имеется еще три:

370 , 371 , 407

А есть и два 39-значных, причем идущих подряд:

115132219018763992565095597973971522400 ,  115132219018763992565095597973971522401

подробнее —
https://mathworld.wolfram.com/NarcissisticNumber.html
Создание квантовых алгоритмов — это искусство превращения абстрактных идей в последовательности унитарных операций

Рассказываю, как строятся квантовые схемы на примере знаменитых алгоритмов Дойча и Дойча-Йожи (это первые квантовые алгоритмы, показавшие то самое квантовое превосходство)

Принципы проектирования квантовых схем

Квантовая схема — это визуальное представление последовательности квантовых операций
В отличие от классических схем, здесь время течёт слева направо, каждая горизонтальная линия представляет кубит, а гейты упорядочиваются хронологически
Главное правило: все операции должны быть обратимыми (унитарными)

Ключевые элементы проектирования:
- Инициализация состояний в базисе |0⟩
- Создание суперпозиции гейтами Адамара
- Применение оракула для кодирования функции
- Интерференция для извлечения информации
- Измерение финального состояния

Алгоритм Дойча: первое квантовое превосходство

Алгоритм Дойча (1985) решает задачу определения типа функции f : {0, 1} → {0, 1} — константная она или сбалансированная
Классически требуется два вызова функции, квантово — всего один

Схема алгоритма Дойча:

|0⟩ ——[H]——•——[H]——[M]—
|
|1⟩ ——[H]——⊕——————————

Пошаговое выполнение:
- Инициализация: |ψ₀⟩ = |01⟩
- Адамар на оба кубита: |ψ₁⟩ = ½(|00⟩ – |01⟩ + |10⟩ – |11⟩)
- Оракул Uf : |x⟩|y⟩ → |x⟩|y ⊕ f(x)⟩
- Адамар на первый кубит
- Измерение: 0 = константная, 1 = сбалансированная

Ключевая магия — фазовый откат (phase kickback). Вспомогательный кубит в состоянии 1/√2(|0⟩ – |1⟩) превращает операцию XOR в фазовый сдвиг: |x⟩|y ⊕ f(x)⟩ = (-1)^f(x)|x⟩|y⟩

Расширение до алгоритма Дойча-Йожи

В 1992 году Дэвид Дойч и Ричард Йожа обобщили алгоритм для функций f : {0, 1}^n → {0, 1}
Классически требуется 2^(n – 1) + 1 вызовов в худшем случае, квантово — один

Схема Дойча-Йожи:

|0⟩⊗n ——[H⊗n]——————•——————[H⊗n]——[M⊗n]—
|
|1⟩ ————[H]—————————⊕————————————————————

Принцип работы:
- Создание суперпозиции всех входов: 1/√(2^n)Σ_(x=0)^(2^n–1) |x⟩
- Параллельное вычисление f(x) для всех возможных значений x одновременно
- Интерференция состояний для выделения глобального свойства

После оракула состояние принимает вид: 1/√2:(n+1)Σ_(x=0)^(2^n–1)(−1)^(f(x))∣x⟩∣χ⟩, где |χ⟩ = |0⟩ – |1⟩

Финальное преобразование Адамара даёт амплитуду для состояния |0^n⟩: 1/2^n∑_(x=0)^(2^n–1)(−1)^(f(x)). Эта сумма равна ±1 для константных функций и 0 для сбалансированных

Практическая реализация на Qiskit

from qiskit import QuantumCircuit, QuantumRegister, ClassicalRegister

def deutsch_jozsa_circuit(n, oracle):
qc = QuantumCircuit(n+1, n)

# Инициализация
qc.x(n) # Ancilla в |1⟩
qc.h(range(n+1)) # Адамар на все кубиты

# Оракул
qc.append(oracle, range(n+1))

# Интерференция
qc.h(range(n))

# Измерение
qc.measure(range(n), range(n))

return qc

Визуализация через Quirk

Quirk — это браузерный drag-and-drop симулятор квантовых схем с реальным временем визуализации
Доступен по адресу
https://algassert.com/quirk без установки.

Возможности Quirk:
- Перетаскивание гейтов в реальном времени
- Мгновенная симуляция до 16 кубитов
- Визуализация состояний через амплитуды и вероятности
- Интерактивные дисплеи включая сферы Блоха
- Сохранение схем через закладки

Для алгоритма Дойча в Quirk:
- Добавьте 2 кубита
- Примените X-гейт ко второму кубиту
- Добавьте H-гейты к обоим кубитам
- Вставьте оракул (например, CNOT для сбалансированной функции)
- Примените H-гейт к первому кубиту
- Наблюдайте результат в реальном времени

Преимущества визуализации: Quirk показывает эволюцию амплитуд на каждом шаге, помогая понять, как суперпозиция и интерференция работают вместе для извлечения глобальной информации о функции

Алгоритмы Дойча и Дойча-Йожи демонстрируют фундаментальный принцип квантовых вычислений: использование суперпозиции для параллельной обработки и интерференции для извлечения информации
Эти простые схемы заложили основу для более сложных алгоритмов вроде Гровера и Шора
Исследователи протестировали GPT-4o, Claude 3.5 Sonnet, Gemini, Llama и др. на стандартных задачах компьютерного зрения: сегментация, оценка глубины и др., используя известные датасеты (COCO, ImageNet)

Хотя эти модели показывают большой прогресс, их реальное понимание визуальной информации, например, геометрии объектов не такое качественное

Основные итоги:

1. Мультимодальные модели — хорошие "универсалы", но уступают специализированным
Они хуже решают конкретные задачи, например, сегментацию, чем узкоспециализированные модели, но всё равно показывают достойные результаты, учитывая, что обучались в основном на текстово-изображенческих данных

Лучше справляются с семантикой, чем с геометрией

2. Рассуждающие модели, например, o3 лучше в геометрических задачах

3. Дегенеративные модели для изображений, например, GPT-4o Image Generation пока ненадежны для точных задач
В ближайшее десятилетие человечеству придется координировать не только миллиарды людей, но и десятки миллиардов ML-агентов, действующих от их имени

Это требует создания новой системы измерения - "Агентной переписи"

Сейчас ML-агенты выполняют относительно простые задачи - помогают писать код, отвечают на вопросы, анализируют данные
Но каждый месяц эти агенты становятся более способными

Традиционные статистические системы не имеют системы для измерения возможностей ML-агентов или их экономического влияния

Решение MIT - Большие популяционные модели (LPM), которые могут симулировать миллионы отдельных людей, взаимодействующих в реалистичных экономических условиях
LPM уже работают с традиционными данными переписи и могут моделировать различные сценарии экономических изменений

Недостающее звено - данные о популяции агентов
Для решения этой проблемы создается NANDA Registry - инфраструктура для идентификации агентов, каталогизации их возможностей и мониторинга того, как они координируются с людьми и другими агентами

Проект Iceberg объединяет традиционные данные переписи о работниках с данными о возможностях агентов из NANDA Registry, затем использует LPM для симуляции трансформации рабочей силы во всех 50 штатах

Если мы не построим публичную инфраструктуру для Агентной переписи, частные платформы будут контролировать эту информацию исключительно

Компании, создающие ML-агентов, будут видеть экономические сбои раньше местных лидеров