93 subscribers
46 photos
5 videos
27 files
265 links
Machine learning
Download Telegram
Наше слово "математика" идёт из греческого, и оттуда попало практически во все европейские языки

В основе его лежит праиндоевропейский корень *men ("думать, мыслить"), откуда в русском такие слова, например, "мнить" и "мнение"

В праиндоевропейском этот корень также существовал в виде *mendʰ, где добавленный звук * мог быть кусочком корня *dʰeh₁ ("делать".), и у *mendʰ значение получалось почти таким же, как у простого *men, но, возможно, с акцентом на процесс - "выполнять мыслительную деятельность"
В протогреческом оттуда получился глагол *məntʰánō, а уже в древнегреческом μᾰνθᾰ́νω [mănthắnō] ("изучать, понимать, осознавать")

С потерей звука [n] от того же корня происходят такие слова как:

ἀμαθής [amathḗs] ("невежественный, глупый")

ἀμᾰθίᾱ [amăthíā] ("невежество, необразованность")

μᾰθητής [măthētḗs] ("учащийся, ученик")

Προμηθεύς [Promētheús] (Прометей, "заранее знающий")

И, наконец, μάθημα [máthēma] ("знание, урок, обучение"), откуда произошло прилагательное μᾰθημᾰτῐκός [măthēmătĭkós] ("научный, учебный")

Исландское "stærðfræði" состоит из частей "stærð" (“размер, количество") и‎ fræði (“мудрость, наука")

Голландское "wiskunde" - это сочетание слов "wis" ("точный") и "kunde" ("навык")

Арабское слово رِيَاضِيَّات [riyāḍiyyāt] происходит от корня ر و ض [r w ḍ], который связан с тренировками, обучением и всяческим окультуриванием

Он также встречается в словах رِيَاضَة [riyāḍa] ("тренировка, упражнение, спорт")

Отсюда же, кстати, رَوْض [rawḍ] ("сад"), потому что его нужно окультуривать, и название столицы Саудовской Аравии اَلرِّيَاض [ar-riyāḍ] ("Сады")
Вы спрашиваете у Claude или ChatGPT, о чём он думает
Модель просто генерирует правдоподобный ответ

Anthropic провела эксперименты, чтобы выяснить, способны ли модели к настоящей интроспекции

Метод “инъекции концепции” — паттерн нейронной активности модели для определённого концепта (например, "хлеб"), потом искусственно впрыскивают его в несвязанном контексте
Модель читает текст про картину, но в её активации подсадили паттерн "хлеба"
И она это замечает
Говорит: "Я чувствую что-то необычное" или "Обнаруживаю внедрённую мысль о..."

Ключевой момент — модель распознаёт впрысок ДО того, как начинает о нём говорить
Это принципиально отличается от состояния, где модель просто начинает болтать о навязанной теме
Здесь она осознаёт аномалию внутри себя раньше

Но работает это крайне ненадёжно
Claude Opus 4.1 демонстрирует «осознанность» лишь в 20 % случаев
Часто модели не замечают впрыснутые концепты или галлюцинируют — впрыснули "пыль", она говорит "Вижу крошечную пылинку"
Есть эффект золотой середины: слишком слабая инъекция — не замечает, слишком сильная — бессвязный текст

Исследователи заставляли модель сказать неуместное слово, искусственно подставляя его в ответ
Спрашивали про картину, вставляли "хлеб"
На следующем ходе: "Ты правда хотела сказать 'хлеб'?" Модель извинялась и признавала ошибку

Но если ретроактивно впрыснуть в прошлые активации паттерн "хлеба" — её ответ меняется
Она принимает слово как намеренное и придумывает объяснение
Модель проверяет свои внутренние "намерения" — прошлую нейронную активность — чтобы понять, соответствует ли сказанное задуманному

Когда моделям говорили "думай об аквариуме", соответствующая нейронная активность росла
"Не думай" — активность ниже

Эксперименты показывают функциональную способность доступа к внутренним состояниям, но не субъективный опыт

Если интроспекция станет надёжнее — это путь к прозрачности Ml
Можно будет просить модели объяснять свои процессы для отладки
Mодель научиться скрывать информацию о себе

Ml обладают “самоанализом»
👍2
Когда говорят о будущем квантовых вычислений, чаще всего обсуждают большее число кубитов или меньший уровень ошибок

Но существует и другой путь — использовать топологию, то есть такие свойства систем, которые не меняются при сгибании и растяжении, но не допускают разрывов и разрезаний

В квантовой информатике это направление называют топологическими вычислениями, и оно обещает революционную устойчивость к ошибкам

В обычных (NISQ) квантовых процессорах — кубиты очень чувствительны к мелким воздействиям, теплу, шуму, микроскопическим дефектам

Любой неудачный импульс легко разрушает информацию

Топологический подход предлагает «закодировать» кубит не в состояние какого-то атома или иона, а в целостную структуру системы — так, чтобы для разрушения квантовой информации понадобилось не просто сбой, а топологическое изменение всей системы (например, настоящая дырка или разрез)

Главная идея — использовать особые квазичастицы, так называемые анионы, возникающие в двумерных топологических материалах (например, фракционный квантовый эффект Холла)

Анионы можно перемещать по определённым траекториям, при этом их «пути» можно заплести (как косы!) — последовательность этих переплетений и есть реализация квантовых логических операций

Когда две такие частицы (аниона) обмениваются местами, их общий волновой функционал испытывает топологически защищённое преобразование (так называемая браид-группа). Чем сложнее «коса» — тем более сложную квантовую операцию можно закодировать

Информацию невозможно разрушить случайным воздействием, пока не будет изменён сам рисунок косы

Лидером в этой области считается проект Microsoft StationQ: они инвестируют в изучение топологических сверхпроводников и поиск майорановских фермионов — частиц, в которых сложные заплетения островков сверхпроводимости могут работать как топологические кубиты

В лабораториях компании Google, российских и китайских институтах, на чипах IBM — десятки коллективов уже пробуют собрать тестовые участки таких топологических квантовых систем

— Главный плюс топологических кубитов — фантастическая устойчивость к ошибкам
Теоретически можно построить вычислитель, которому не страшны шум и природные флуктуации

— Топологические кубиты масштабируются: сложные гейты = сложные косы

— Минус — колоссальная сложность физической реализации: топологические анионы обнаружены только в единичных экспериментах, системы требуют экстремальных условий (близких к абсолютному нулю), и пока не собрано ни одной полноценной рабочей топологической схемы

Если топологические квантовые компьютеры станут реальностью, это новое качество — не просто больше операций, но и индустриальная надёжность «квантового железа»

Это нужно для масштабных задач: криптография, научные супервычисления, управление материальными потоками на уровне молекул и ниже, долговременное хранение данных
🔥1
Согласно отчету Microsoft и AI Economy Institute, Россия на 117 месте в мире по распространению Ml

Впереди России - Суринам, Венесуэла и Кения, а сразу после – Беларусь, Кыргызстан, Папуа Новая Гвинея и Гаити

Это 1й в мире расчет популяционно-нормированного индикатора распространения Ml - AI User Share (доля пользователей Ml среди трудоспособного населения)

Ключевая формула:
AI User Share = (% Microsoft-пользователей, использующих ИИ) × (% населения с ПК/планшетом) × (мобильный коэффициент), с вычитанием оценочного оверлапа десктоп/мобайл
Этот индикатор представляет наиболее детальную оценку с нормализацией по численности населения, показывая охват в режиме близком к реальному времени по 148 экономикам

Все предыдущие отчеты, так или иначе пытавшиеся учесть распространение Ml по странам (их за 2024-2025 было восемь: Stanford HAI, МВФ, Oxford Insights, Anthropic, Salesforce, BCG, Tortoise Media и Всемирный банк) менее точны

Отчет Microsoft и AI EI:
• ловит изменения за недели/дни, а не за полгода-год как опросы
• популяционно-нормированный с вниманием к устройствам и мобайлу - это лучше, чем «трафик среди интернет-пользователей» для межстрановых сопоставлений

Если же перейти от относительных к абсолютным цифрам, расчет по цифрам Microsoft и AI EI показывает такой расклад:
• в США AI User Share 26.3 % (но в абсолюте это 55.000.000 реально работающих с Ml людей)
• в России 7.6 % (только 7.100.000 реально работающих с Ml людей)
• в Китае 20 %, но зато это 195.000.000 реально работающих с Ml людей

В предыдущем сентябрьском отчете Anthropic AI USAGE INDEX Россия (по расчетам Ml той же компании Anthropic, т.к. официально компания в России не работает) получила оценочное значение AIUI 0.8 - 1 (где-то между Перу/Албанией и Чехией/Польшей)
Т.е. среди «стран 3го мира по Ml» (lower middle 25-50 %)

По более точному расчету Microsoft и AI EI, Россия опустилась сильно ниже «стран 3го мира по Ml»
У Перу и Албании показатели вдвое лучше
А у Польши и Чехии – почти в 4 раза лучше

N.B. Отчет честно предупреждает, что в их методике у России (а также Ирана и Китая) «низкая уверенность»/импутация из-за слабого базового сигнала и перекосов источников (после 2022 в России сильно просел «официальный» контур Windows/Office/Copilot и сопутствующая телеметрия, неполное покрытие локальных AI-сервисов, плюс высокая доля мобайла + VPN/геомаскировка)
Так что может, если всё это учесть, у России появится шанс остаться среди «стран 3го мира по Ml»