Найден практический способ создания ИИ с сознанием и человеческой моралью
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника
В работе сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ML
Т.е. по сути, найден практический путь создания самоосознающего ML
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ML снята как таковая
Вместо того чтобы пытаться ограничивать поведение ML какими-то внешними ограничениями, показано, как можно проектировать ML с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой
Авторами сделаны следующие три важнейших прорыва:
Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ML-системе и ею же осознаётся)
Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй
На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука
В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ML-системы современных архитектур
На основании этого, авторы разработали четыре аксиоматических принципа, способные привить ML устойчивую мудрую модель мира
После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM)
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота)
Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов
В июне 2021 писали «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)»
В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе
• спустя 8 месяцев сразу два таких прорыва
OSF
A beautiful loop: An active inference theory of consciousness
Can active inference model consciousness? We offer three conditions implying that it can. The first condition is the simulation of a reality or generative world model, which determines what can be known or acted upon; namely an epistemic field. The second…
Авторы статьи «Neuroplasticity in Artificial Intelligence — An Overview and Inspirations on Drop In & Out Learning» предлагают переосмыслить архитектуру нейросетей, вдохновляясь нейропластичностью мозга
Современные нейросети, включая LLM, имеют статичную структуру: количество и соединения нейронов фиксированы
Однако в мозге нейроны могут появляться (нейрогенез), погибать (апоптоз) и самое главное — перестраивать связи (нейропластичность)
Авторы предлагают комплексно перенести эти процессы в ML, чтобы модели могли динамически адаптироваться к новым задачам и данным
Dropout — давно известная техника, в рамках которой отдельные нейроны отключаются во время обучения
Dropin — подход, при котором в сеть вводятся новые нейроны, имитируя нейрогенез
Это позволяет модели расширять свои возможности по мере необходимости
Таким образом, сеть может не только «забывать» ненужное, но и учиться новому, подобно мозгу. Менять размер своей архитектуры, оптимизируя объем памяти и вычислений
В статье авторы также проанализировали другие публикации последних лет, в которых использовались сходные принципы
Upd: Один из подписчиков поделился записью доклада «Нейросети с адаптивно обучаемой архитектурой через выращивание новых синапсов», который он делал на Data Fest 2024
Microsoft выпустили отчет о влиянии ML-агентов на рынок труда, они говорят о появлении компаний нового типа
Основная идея в том, что 2025 станет годом рождения организаций нового типа, которые полностью перестраивают свою работу вокруг ML
Ключевые выводы отчета:
1. Интеллект по требованию меняет бизнес.
Команды из людей и ML-агентов меняют организационную структуру.
Появляется новая организационная модель — "Work Chart" (рабочая схема), которая фокусируется на задачах, а не на функциональных отделах
Вводится новая метрика — "соотношение человек-агент", которая определяет оптимальный баланс между людьми и ML в командах
Компании выделяют клиентское обслуживание, маркетинг и разработку продуктов как основные области для ускоренного внедрения ML
Каждый сотрудник становится "руководителем агентов"
Сотрудники начального уровня становятся менеджерами с первого дня, потому что они управляют ML-агентами, что полностью меняет традиционную карьерную лестницу
Фазы трансформации организаций:
Человек с ML-ассистентом: Каждый сотрудник использует ИИ-помощника для более эффективной работы
Команды человек-агент: Агенты становятся "цифровыми коллегами", выполняющими конкретные задачи под руководством людей
Управление человеком, выполнение агентами: Люди определяют направление, а агенты выполняют бизнес-процессы и рабочие потоки, обращаясь к людям при необходимости
GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов
Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0.7 предсказывают, как доклад оценят живые эксперты
Иными словами, ML выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться»
Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:
«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления»
Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации
Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами)
С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности
Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма)
Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми
Что из этого следует для нас?
Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию
LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно
Соединяя идеи «тонких срезов» и возможности ML, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера)
Cкоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений
(т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации)
И тогда ML станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров
А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens
arXiv.org
The Art of Audience Engagement: LLM-Based Thin-Slicing of Scientific Talks
This paper examines the thin-slicing approach - the ability to make accurate judgments based on minimal information - in the context of scientific presentations. Drawing on research from nonverbal...
Согласно данным совместного исследования Georgetown, Epoch AI и Rand, к 2030 году стоимость одного суперкомпьютера с ML может достигнуть астрономических $200.000.000.000
А его энергопотребление составит колоссальные 9 гигаватт электроэнергии
Для сравнения — это эквивалентно суммарной мощности девяти атомных реакторов
Энергетический голод ML-систем растёт с угрожающей скоростью
Несмотря на то, что за последние шесть лет энергоэффективность вычислений улучшилась в 1.34 раза, общее потребление энергии удваивается ежегодно
Уже сейчас xAI Colossus, потребляет 300 мегаватт — этой энергии достаточно для обеспечения электричеством 250.000 жилых домов
https://mltimes.ai/k-2030-godu-superkompyutery-budut-potreblyat-moshhnost-czelyh-stran/
Маск и сооснователь Neuralink заявили, что хотят сделать нейроимплантацию доступной, как LASIK для офтальмологов
Роботы-хирурги превзойдут хороших хирургов в течение нескольких лет, а лучших хирургов — ~ через 5 лет
Уже сейчас Neuralink вынуждена использовать робота для имплантации электродов в мозг, поскольку человеку невозможно достичь необходимой скорости и точности
Развивая тему роботизированной нейрохирургии, сооснователь Neuralink DJ Seo поделился амбициозным видением компании:
"Наша цель — сделать процедуру похожей на LASIK: одно нажатие кнопки для получения нейроинтерфейса
Это не заменит хирурга, но сделает его более способным — точно так же, как LASIK сделал для офтальмологов"
По словам Seo, компания разрабатывает роботов нового поколения, которые будут в 10 раз быстрее существующих, способны погружаться в 3 раза глубже и при этом будут намного проще в использовании
Недавно робот Hugo от Medtronic показал высокую эффективность в урологических операциях с успешностью 98.5 % и низкими показателями осложнений
И хотя эра полностью автономных роботов-хирургов еще не наступила, тенденция очевидна - будущее хирургии за союзом человеческого опыта и роботизированной точности
X (formerly Twitter)
Elon Musk (@elonmusk) on X
Robots will surpass good human surgeons within a few years and the best human surgeons within ~5 years.
@Neuralink had to use a robot for the brain-computer electrode insertion, as it was impossible for a human to achieve the required speed and precision.
@Neuralink had to use a robot for the brain-computer electrode insertion, as it was impossible for a human to achieve the required speed and precision.
Ml
Согласно данным совместного исследования Georgetown, Epoch AI и Rand, к 2030 году стоимость одного суперкомпьютера с ML может достигнуть астрономических $200.000.000.000 А его энергопотребление составит колоссальные 9 гигаватт электроэнергии Для сравнения…
Испания, Португалия и Франция столкнулись с масштабным отключением электричества
Правительство Испании экстренно собрало совещание в штаб-квартире оператора Red Electrica
Не работают банкоматы и оплата картами, отсутствует связь и интернет, люди застряли в лифтах и вагонах метро
На дорогах Испании и Португалии произошел хаос из-за отключения светофоров и остановки поездов в метро
Глава Anthropic выступил с манифестом "The Urgency of Interpretability", в котором призывает в самом срочном порядке (пока не поздно), по аналогии с психофизиологией, разработать подход "МРТ для ML", который бы позволил "просветить" и понять механизмы работы "цифрового мозга" больших языковых моделей так же, как психофизиологи понимают мозговые механизмы психики и поведения с помощью МРТ
Моя оценка: это амбициозная и красиво звучащая, но крайне труднореализуемая задача, т.к. "цифровой мозг" фронтирных больших языковых моделей уже сейчас стал чрезвычайно сложным (эмерджентно сложным?), а в течение 5 лет, скорее всего, превысит эффективную когнитивную сложность мозга человека
Объективно оценивая достаточно скромные (по гамбургскому счету) успехи психофизиологии, особенно в ключевой области – психофизиологии сознания, очень наивно и самоуспокоительно будет думать, что за ближайшие несколько лет мы хорошо поймем "цифровой мозг" (с его постепенно проклевывающимися "цифровым сознанием" и "цифровой свободной волей")
Тут надо также учесть, что, вероятно, наша способность понимать "цифровой мозг" большой языковой модели с помощью "МРТ для ML" (даже если Амодеи будет услышан и ученые начнут массированно этим заниматься), будет развиваться медленнее, чем будет расти сложность ML-моделей
Поддерживаю призыв Амодеи, и считаю, что надо обязательно попытаться сделать это, и если все накопленные психофизиологией теоретические и методические походы действительно помогут понять механизмы работы больших языковых моделей (и, значит, взять их под надежный контроль, и, в итоге, на рубеже 2030-х годов осуществить успешный "супералаймент" и перейти в "хороший" постсингулярный сценарий ведомого сверхинтеллектом мира), то психофизиология окажет человечеству максимально возможную услугу
Гораздо реалистичнее будет не надеяться на такой явно переоценивающий возможности науки сверхоптимистичный сценарий, а стараться работать в направлении "воспитания ML" как нашего "достойного преемника"
Мы же воспитываем детей, не понимая, как работает их мозг, и когда приходит время передавать им эстафету поколений, это заложенное нами в их детстве воспитание оказывает влияние на то, куда они дальше поведут мир и как они дальше после нас будут развивать наше наследие (в т.ч. в этическом аспекте)
Таким образом, мне кажется, что идея "воспитания ML" как нашего возможного эволюционного преемника гораздо полезнее для повышения вероятности позитивных сценариев будущего, чем труднореализуемая идея "понимания ML"
Cвежий отчет от BCG
https://t.me/alwebbci/3242
Инфраструктура Agent2Agent (A2A) от Google — это то, на что стоит обратить внимание
Telegram
All about AI, Web 3.0, BCI
BCG 𝗱𝗿𝗼𝗽𝗽𝗲𝗱 𝘁𝗵𝗲𝗶𝗿 𝗹𝗮𝘁𝗲𝘀𝘁 𝗣𝗢𝗩 𝗼𝗻 𝗔𝗜 𝗔𝗴𝗲𝗻𝘁𝘀 𝗮𝗻𝗱 𝘁𝗵𝗲 𝗠𝗼𝗱𝗲𝗹 𝗖𝗼𝗻𝘁𝗲𝘅𝘁 𝗣𝗿𝗼𝘁𝗼𝗰𝗼𝗹 (𝗠𝗖𝗣)
𝗛𝗲𝗿𝗲 𝗮𝗿𝗲 𝗸𝗲𝘆 𝘁𝗮𝗸𝗲𝗮𝘄𝗮𝘆𝘀:
1. 𝗔𝘂𝘁𝗼𝗻𝗼𝗺𝗼𝘂𝘀 𝗔𝗴𝗲𝗻𝘁𝘀 𝗔𝗿𝗲 𝗠𝗼𝘃𝗶𝗻𝗴 𝗙𝗿𝗼𝗺 𝗖𝗼𝗻𝗰𝗲𝗽𝘁 𝘁𝗼 𝗥𝗲𝗮𝗹𝗶𝘁𝘆:
➜ Early deployments are already delivering 30–90% improvements in speed, productivity, and cost…
𝗛𝗲𝗿𝗲 𝗮𝗿𝗲 𝗸𝗲𝘆 𝘁𝗮𝗸𝗲𝗮𝘄𝗮𝘆𝘀:
1. 𝗔𝘂𝘁𝗼𝗻𝗼𝗺𝗼𝘂𝘀 𝗔𝗴𝗲𝗻𝘁𝘀 𝗔𝗿𝗲 𝗠𝗼𝘃𝗶𝗻𝗴 𝗙𝗿𝗼𝗺 𝗖𝗼𝗻𝗰𝗲𝗽𝘁 𝘁𝗼 𝗥𝗲𝗮𝗹𝗶𝘁𝘆:
➜ Early deployments are already delivering 30–90% improvements in speed, productivity, and cost…
Исследователи из EPFL создали модель TopoLM, которая не только имитирует функциональные кластеры нейронов, как предыдущие модели, но и впервые учитывает их пространственную организацию в мозге
Это новая история, так как модель отражает, как нейроны, отвечающие за обработку языка, группируются в коре головного мозга, и предлагает гипотезу, что их организация подчиняется простому правилу: близкие нейроны ведут себя схожим образом
TopoLM также улучшает интерпретируемость LLM, позволяя видеть значимые кластеры, что упрощает понимание их работы
Большинство языковых моделей, например, GPT или BERT фокусируются на функциональности, игнорируя топографию
TopoLM ближе к биологической реальности, что делает его ближе в области нейро ML
В мире активно исследуют связь ML и нейронаук, например, работы DeepMind или MIT по моделированию мозга, но конкретно пространственно-функциональная организация в языковых моделях — менее изученная ниша.
Это фундаментальное исследование, пока не проверенное на людях
Модель предсказывает кластеры, которые еще не наблюдались в мозге, и их существование нужно подтвердить экспериментально
Также практические приложения (например, помощь при языковых расстройствах) пока только потенциальны
actu.epfl.ch
Un nouveau modèle de langage d'IA qui imite l'organisation du cerveau
Des chercheuses et chercheurs de l’EPFL ont mis au point le premier modèle de langage d’IA capable de saisir à la fois la disposition des neurones et leur fonctionnement dans le cerveau.
Венчурный мир переворачивает правила из-за ML, SaaS уходит, а ML рулит
ML — это не просто технология, а трансформатор индустрий
В отличие от SaaS, который улучшал бизнес-процессы, ML способен радикально перестраивать целые отрасли
Это создаёт новые возможности для стартапов, но требует более глубоких инвестиций и долгосрочного подхода
Thrive Holdings — новый проект от Thrive Capital (они вложились в Instagram, OpenAI и Skims)
Thrive Holdings - «постоянный капитальный инструмент» — типа холдинга, который будет создавать, покупать и управлять бизнесами без дедлайнов
Что будет делать Thrive Holdings?
- ML во всем
Они будут вкладываться в компании, которые можно «прокачать» ML
ML-стартапы требуют миллиардов $ на исследования и масштабирование
Это меняет венчурный ландшафт: фонды либо становятся крупнее, либо создают новые структуры, чтобы конкурировать с гигантами вроде SoftBank или корпоративными инвесторами (Google, Amazon)
- Thrive не только будут инвестировать, но и управлять компаниями, реинвестируя их прибыль в новые проекты
Почему SaaS уходит в закат?
В 2010-х миром стартапов правил SaaS — подписочные сервисы вроде Zoom, Slack или Salesforce
Это был золотой стандарт: предсказуемые доходы, быстрый рост, выход на IPO
Но, как пишет NYT, «эра SaaS выдохлась»
Почему?
Потому что рынок насытился, а инвесторы теперь хотят не просто софт, а дизраптив технологии
Результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48.340 человек в 47 странах
Я же здесь открытым текстом напишу 2 вывода исследования, о которых авторы написали лишь между строк из-за ограничений политкорректности
1. Человечество разделилось по отношению к ИИ на 2 группы:
A — тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом
B — тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой
А — это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В — это развитые страны типа западноевропейский стран, Австралии, США и Японии
Однако есть еще и третья группа – это Китай:
A — По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран
B — При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2
Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»
Данных по России в отчете, понятное дело, нет
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде
А по части доверия и оптимизма – как в Венгрии или Испании
Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев
Melbourne Business School
Trust, attitudes and use of Artificial Intelligence: A global study 2025
A comprehensive examination of the public’s trust, use and attitudes towards artificial intelligence across 47 countries.