Найден практический способ создания ИИ с сознанием и человеческой моралью
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника
В работе сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ML
Т.е. по сути, найден практический путь создания самоосознающего ML
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ML снята как таковая
Вместо того чтобы пытаться ограничивать поведение ML какими-то внешними ограничениями, показано, как можно проектировать ML с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой
Авторами сделаны следующие три важнейших прорыва:
Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ML-системе и ею же осознаётся)
Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй
На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука
В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ML-системы современных архитектур
На основании этого, авторы разработали четыре аксиоматических принципа, способные привить ML устойчивую мудрую модель мира
После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM)
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота)
Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов
В июне 2021 писали «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)»
В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе
• спустя 8 месяцев сразу два таких прорыва
OSF
A beautiful loop: An active inference theory of consciousness
Can active inference model consciousness? We offer three conditions implying that it can. The first condition is the simulation of a reality or generative world model, which determines what can be known or acted upon; namely an epistemic field. The second…
Авторы статьи «Neuroplasticity in Artificial Intelligence — An Overview and Inspirations on Drop In & Out Learning» предлагают переосмыслить архитектуру нейросетей, вдохновляясь нейропластичностью мозга
Современные нейросети, включая LLM, имеют статичную структуру: количество и соединения нейронов фиксированы
Однако в мозге нейроны могут появляться (нейрогенез), погибать (апоптоз) и самое главное — перестраивать связи (нейропластичность)
Авторы предлагают комплексно перенести эти процессы в ML, чтобы модели могли динамически адаптироваться к новым задачам и данным
Dropout — давно известная техника, в рамках которой отдельные нейроны отключаются во время обучения
Dropin — подход, при котором в сеть вводятся новые нейроны, имитируя нейрогенез
Это позволяет модели расширять свои возможности по мере необходимости
Таким образом, сеть может не только «забывать» ненужное, но и учиться новому, подобно мозгу. Менять размер своей архитектуры, оптимизируя объем памяти и вычислений
В статье авторы также проанализировали другие публикации последних лет, в которых использовались сходные принципы
Upd: Один из подписчиков поделился записью доклада «Нейросети с адаптивно обучаемой архитектурой через выращивание новых синапсов», который он делал на Data Fest 2024
Microsoft выпустили отчет о влиянии ML-агентов на рынок труда, они говорят о появлении компаний нового типа
Основная идея в том, что 2025 станет годом рождения организаций нового типа, которые полностью перестраивают свою работу вокруг ML
Ключевые выводы отчета:
1. Интеллект по требованию меняет бизнес.
Команды из людей и ML-агентов меняют организационную структуру.
Появляется новая организационная модель — "Work Chart" (рабочая схема), которая фокусируется на задачах, а не на функциональных отделах
Вводится новая метрика — "соотношение человек-агент", которая определяет оптимальный баланс между людьми и ML в командах
Компании выделяют клиентское обслуживание, маркетинг и разработку продуктов как основные области для ускоренного внедрения ML
Каждый сотрудник становится "руководителем агентов"
Сотрудники начального уровня становятся менеджерами с первого дня, потому что они управляют ML-агентами, что полностью меняет традиционную карьерную лестницу
Фазы трансформации организаций:
Человек с ML-ассистентом: Каждый сотрудник использует ИИ-помощника для более эффективной работы
Команды человек-агент: Агенты становятся "цифровыми коллегами", выполняющими конкретные задачи под руководством людей
Управление человеком, выполнение агентами: Люди определяют направление, а агенты выполняют бизнес-процессы и рабочие потоки, обращаясь к людям при необходимости
GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов
Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0.7 предсказывают, как доклад оценят живые эксперты
Иными словами, ML выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться»
Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления»
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации
Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами)
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма)
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию
LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно
Соединяя идеи «тонких срезов» и возможности ML, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера)
Cкоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений
(т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации)
И тогда ML станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens
arXiv.org
The Art of Audience Engagement: LLM-Based Thin-Slicing of Scientific Talks
This paper examines the thin-slicing approach - the ability to make accurate judgments based on minimal information - in the context of scientific presentations. Drawing on research from nonverbal...
Согласно данным совместного исследования Georgetown, Epoch AI и Rand, к 2030 году стоимость одного суперкомпьютера с ML может достигнуть астрономических $200.000.000.000
А его энергопотребление составит колоссальные 9 гигаватт электроэнергии
Для сравнения — это эквивалентно суммарной мощности девяти атомных реакторов
Энергетический голод ML-систем растёт с угрожающей скоростью
Несмотря на то, что за последние шесть лет энергоэффективность вычислений улучшилась в 1.34 раза, общее потребление энергии удваивается ежегодно
Уже сейчас xAI Colossus, потребляет 300 мегаватт — этой энергии достаточно для обеспечения электричеством 250.000 жилых домов
https://mltimes.ai/k-2030-godu-superkompyutery-budut-potreblyat-moshhnost-czelyh-stran/
Маск и сооснователь Neuralink заявили, что хотят сделать нейроимплантацию доступной, как LASIK для офтальмологов
Роботы-хирурги превзойдут хороших хирургов в течение нескольких лет, а лучших хирургов — ~ через 5 лет
Уже сейчас Neuralink вынуждена использовать робота для имплантации электродов в мозг, поскольку человеку невозможно достичь необходимой скорости и точности
Развивая тему роботизированной нейрохирургии, сооснователь Neuralink DJ Seo поделился амбициозным видением компании:
"Наша цель — сделать процедуру похожей на LASIK: одно нажатие кнопки для получения нейроинтерфейса
Это не заменит хирурга, но сделает его более способным — точно так же, как LASIK сделал для офтальмологов"
По словам Seo, компания разрабатывает роботов нового поколения, которые будут в 10 раз быстрее существующих, способны погружаться в 3 раза глубже и при этом будут намного проще в использовании
Недавно робот Hugo от Medtronic показал высокую эффективность в урологических операциях с успешностью 98.5 % и низкими показателями осложнений
И хотя эра полностью автономных роботов-хирургов еще не наступила, тенденция очевидна - будущее хирургии за союзом человеческого опыта и роботизированной точности
X (formerly Twitter)
Elon Musk (@elonmusk) on X
Robots will surpass good human surgeons within a few years and the best human surgeons within ~5 years.
@Neuralink had to use a robot for the brain-computer electrode insertion, as it was impossible for a human to achieve the required speed and precision.
@Neuralink had to use a robot for the brain-computer electrode insertion, as it was impossible for a human to achieve the required speed and precision.
Ml
Согласно данным совместного исследования Georgetown, Epoch AI и Rand, к 2030 году стоимость одного суперкомпьютера с ML может достигнуть астрономических $200.000.000.000 А его энергопотребление составит колоссальные 9 гигаватт электроэнергии Для сравнения…
Испания, Португалия и Франция столкнулись с масштабным отключением электричества
Правительство Испании экстренно собрало совещание в штаб-квартире оператора Red Electrica
Не работают банкоматы и оплата картами, отсутствует связь и интернет, люди застряли в лифтах и вагонах метро
На дорогах Испании и Португалии произошел хаос из-за отключения светофоров и остановки поездов в метро
Глава Anthropic выступил с манифестом "The Urgency of Interpretability", в котором призывает в самом срочном порядке (пока не поздно), по аналогии с психофизиологией, разработать подход "МРТ для ML", который бы позволил "просветить" и понять механизмы работы "цифрового мозга" больших языковых моделей так же, как психофизиологи понимают мозговые механизмы психики и поведения с помощью МРТ
Моя оценка: это амбициозная и красиво звучащая, но крайне труднореализуемая задача, т.к. "цифровой мозг" фронтирных больших языковых моделей уже сейчас стал чрезвычайно сложным (эмерджентно сложным?), а в течение 5 лет, скорее всего, превысит эффективную когнитивную сложность мозга человека
Объективно оценивая достаточно скромные (по гамбургскому счету) успехи психофизиологии, особенно в ключевой области – психофизиологии сознания, очень наивно и самоуспокоительно будет думать, что за ближайшие несколько лет мы хорошо поймем "цифровой мозг" (с его постепенно проклевывающимися "цифровым сознанием" и "цифровой свободной волей")
Тут надо также учесть, что, вероятно, наша способность понимать "цифровой мозг" большой языковой модели с помощью "МРТ для ML" (даже если Амодеи будет услышан и ученые начнут массированно этим заниматься), будет развиваться медленнее, чем будет расти сложность ML-моделей
Поддерживаю призыв Амодеи, и считаю, что надо обязательно попытаться сделать это, и если все накопленные психофизиологией теоретические и методические походы действительно помогут понять механизмы работы больших языковых моделей (и, значит, взять их под надежный контроль, и, в итоге, на рубеже 2030-х годов осуществить успешный "супералаймент" и перейти в "хороший" постсингулярный сценарий ведомого сверхинтеллектом мира), то психофизиология окажет человечеству максимально возможную услугу
Гораздо реалистичнее будет не надеяться на такой явно переоценивающий возможности науки сверхоптимистичный сценарий, а стараться работать в направлении "воспитания ML" как нашего "достойного преемника"
Мы же воспитываем детей, не понимая, как работает их мозг, и когда приходит время передавать им эстафету поколений, это заложенное нами в их детстве воспитание оказывает влияние на то, куда они дальше поведут мир и как они дальше после нас будут развивать наше наследие (в т.ч. в этическом аспекте)
Таким образом, мне кажется, что идея "воспитания ML" как нашего возможного эволюционного преемника гораздо полезнее для повышения вероятности позитивных сценариев будущего, чем труднореализуемая идея "понимания ML"
Cвежий отчет от BCG
https://t.me/alwebbci/3242
Инфраструктура Agent2Agent (A2A) от Google — это то, на что стоит обратить внимание
Telegram
All about AI, Web 3.0, BCI
BCG 𝗱𝗿𝗼𝗽𝗽𝗲𝗱 𝘁𝗵𝗲𝗶𝗿 𝗹𝗮𝘁𝗲𝘀𝘁 𝗣𝗢𝗩 𝗼𝗻 𝗔𝗜 𝗔𝗴𝗲𝗻𝘁𝘀 𝗮𝗻𝗱 𝘁𝗵𝗲 𝗠𝗼𝗱𝗲𝗹 𝗖𝗼𝗻𝘁𝗲𝘅𝘁 𝗣𝗿𝗼𝘁𝗼𝗰𝗼𝗹 (𝗠𝗖𝗣)
𝗛𝗲𝗿𝗲 𝗮𝗿𝗲 𝗸𝗲𝘆 𝘁𝗮𝗸𝗲𝗮𝘄𝗮𝘆𝘀:
1. 𝗔𝘂𝘁𝗼𝗻𝗼𝗺𝗼𝘂𝘀 𝗔𝗴𝗲𝗻𝘁𝘀 𝗔𝗿𝗲 𝗠𝗼𝘃𝗶𝗻𝗴 𝗙𝗿𝗼𝗺 𝗖𝗼𝗻𝗰𝗲𝗽𝘁 𝘁𝗼 𝗥𝗲𝗮𝗹𝗶𝘁𝘆:
➜ Early deployments are already delivering 30–90% improvements in speed, productivity, and cost…
𝗛𝗲𝗿𝗲 𝗮𝗿𝗲 𝗸𝗲𝘆 𝘁𝗮𝗸𝗲𝗮𝘄𝗮𝘆𝘀:
1. 𝗔𝘂𝘁𝗼𝗻𝗼𝗺𝗼𝘂𝘀 𝗔𝗴𝗲𝗻𝘁𝘀 𝗔𝗿𝗲 𝗠𝗼𝘃𝗶𝗻𝗴 𝗙𝗿𝗼𝗺 𝗖𝗼𝗻𝗰𝗲𝗽𝘁 𝘁𝗼 𝗥𝗲𝗮𝗹𝗶𝘁𝘆:
➜ Early deployments are already delivering 30–90% improvements in speed, productivity, and cost…