48 subscribers
7 photos
1 video
5 files
150 links
Machine learning
Download Telegram
Channel created
Найден практический способ создания ИИ с сознанием и человеческой моралью

Это сразу две революции на стыке нейронауки, буддологии и машинного обучения

Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника

В
работе сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ML
Т.е. по сути, найден практический путь создания самоосознающего ML
• А в их же
работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ML снята как таковая
Вместо того чтобы пытаться ограничивать поведение ML какими-то внешними ограничениями, показано, как можно проектировать ML с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой

Авторами сделаны следующие три важнейших прорыва:

Используя активный вывод (active inference – основной раздел
«конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ML-системе и ею же осознаётся)
Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй

На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука
В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ML-системы современных архитектур

На основании этого, авторы разработали четыре аксиоматических принципа, способные привить ML устойчивую мудрую модель мира
После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM)
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота)
Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов

В июне 2021
писали «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)»

В августе 2024 команда Карла Фристона
опробовала ИИ нового поколения на активном выводе
• спустя 8 месяцев сразу два таких прорыва
Авторы статьи «Neuroplasticity in Artificial Intelligence — An Overview and Inspirations on Drop In & Out Learning» предлагают переосмыслить архитектуру нейросетей, вдохновляясь нейропластичностью мозга

Современные нейросети, включая LLM, имеют статичную структуру: количество и соединения нейронов фиксированы
Однако в мозге нейроны могут появляться (нейрогенез), погибать (апоптоз) и самое главное — перестраивать связи (нейропластичность)

Авторы предлагают комплексно перенести эти процессы в ML, чтобы модели могли динамически адаптироваться к новым задачам и данным

Dropout — давно известная техника, в рамках которой отдельные нейроны отключаются во время обучения

Dropin — подход, при котором в сеть вводятся новые нейроны, имитируя нейрогенез
Это позволяет модели расширять свои возможности по мере необходимости

Таким образом, сеть может не только «забывать» ненужное, но и учиться новому, подобно мозгу. Менять размер своей архитектуры, оптимизируя объем памяти и вычислений

В статье авторы также проанализировали другие публикации последних лет, в которых использовались сходные принципы

Upd: Один из
подписчиков поделился записью доклада «Нейросети с адаптивно обучаемой архитектурой через выращивание новых синапсов», который он делал на Data Fest 2024
Microsoft выпустили отчет о влиянии ML-агентов на рынок труда, они говорят о появлении компаний нового типа

Основная идея в том, что 2025 станет годом рождения организаций нового типа, которые полностью перестраивают свою работу вокруг ML

Ключевые выводы
отчета:

1. Интеллект по требованию меняет бизнес.

Команды из людей и ML-агентов меняют организационную структуру.
Появляется новая организационная модель — "Work Chart" (рабочая схема), которая фокусируется на задачах, а не на функциональных отделах
Вводится новая метрика — "соотношение человек-агент", которая определяет оптимальный баланс между людьми и ML в командах
Компании выделяют клиентское обслуживание, маркетинг и разработку продуктов как основные области для ускоренного внедрения ML

Каждый сотрудник становится "руководителем агентов"

Сотрудники начального уровня становятся менеджерами с первого дня, потому что они управляют ML-агентами, что полностью меняет традиционную карьерную лестницу

Фазы трансформации организаций:

Человек с ML-ассистентом
: Каждый сотрудник использует ИИ-помощника для более эффективной работы

Команды человек-агент: Агенты становятся "цифровыми коллегами", выполняющими конкретные задачи под руководством людей

Управление человеком, выполнение агентами: Люди определяют направление, а агенты выполняют бизнес-процессы и рабочие потоки, обращаясь к людям при необходимости
GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов

Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0.7 предсказывают, как доклад оценят живые эксперты
Иными словами, ML выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться»

Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:

«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления»

Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации
Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами)

С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности

Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма)

Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми

Что из этого следует для нас?
Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию

LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно

Соединяя идеи «тонких срезов» и возможности ML, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера)

Cкоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений
(т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации)

И тогда ML станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров

А уж из совсем крышесносных перспектив - преодоление
несжимаемости эволюционного опыта Homo sapiens
Согласно данным совместного исследования Georgetown, Epoch AI и Rand, к 2030 году стоимость одного суперкомпьютера с ML может достигнуть астрономических $200.000.000.000
А его энергопотребление составит колоссальные 9 гигаватт электроэнергии

Для сравнения — это эквивалентно суммарной мощности девяти атомных реакторов

Энергетический голод ML-систем растёт с угрожающей скоростью
Несмотря на то, что за последние шесть лет энергоэффективность вычислений улучшилась в 1.34 раза, общее потребление энергии удваивается ежегодно

Уже сейчас xAI Colossus, потребляет 300 мегаватт — этой энергии достаточно для обеспечения электричеством 250.000 жилых домов

https://mltimes.ai/k-2030-godu-superkompyutery-budut-potreblyat-moshhnost-czelyh-stran/
Маск и сооснователь Neuralink заявили, что хотят сделать нейроимплантацию доступной, как LASIK для офтальмологов

Роботы-хирурги превзойдут хороших хирургов в течение нескольких лет, а лучших хирургов — ~ через 5 лет

Уже сейчас Neuralink вынуждена использовать робота для имплантации электродов в мозг, поскольку человеку невозможно достичь необходимой скорости и точности

Развивая тему роботизированной нейрохирургии, сооснователь Neuralink DJ Seo
поделился амбициозным видением компании:

"Наша цель — сделать процедуру похожей на LASIK: одно нажатие кнопки для получения нейроинтерфейса
Это не заменит хирурга, но сделает его более способным — точно так же, как LASIK сделал для офтальмологов"

По словам Seo, компания разрабатывает роботов нового поколения, которые будут в 10 раз быстрее существующих, способны погружаться в 3 раза глубже и при этом будут намного проще в использовании

Недавно робот
Hugo от Medtronic показал высокую эффективность в урологических операциях с успешностью 98.5 % и низкими показателями осложнений

И хотя эра полностью автономных роботов-хирургов еще не наступила, тенденция очевидна - будущее хирургии за союзом человеческого опыта и роботизированной точности
Ml
Согласно данным совместного исследования Georgetown, Epoch AI и Rand, к 2030 году стоимость одного суперкомпьютера с ML может достигнуть астрономических $200.000.000.000 А его энергопотребление составит колоссальные 9 гигаватт электроэнергии Для сравнения…
Испания, Португалия и Франция столкнулись с масштабным отключением электричества

Правительство Испании экстренно собрало совещание в штаб-квартире оператора Red Electrica

Не работают банкоматы и оплата картами, отсутствует связь и интернет, люди застряли в лифтах и вагонах метро

На дорогах Испании и Португалии произошел хаос из-за отключения светофоров и остановки поездов в метро
Глава Anthropic выступил с манифестом "The Urgency of Interpretability", в котором призывает в самом срочном порядке (пока не поздно), по аналогии с психофизиологией, разработать подход "МРТ для ML", который бы позволил "просветить" и понять механизмы работы "цифрового мозга" больших языковых моделей так же, как психофизиологи понимают мозговые механизмы психики и поведения с помощью МРТ

Моя оценка: это амбициозная и красиво звучащая, но крайне труднореализуемая задача, т.к. "цифровой мозг" фронтирных больших языковых моделей уже сейчас стал чрезвычайно сложным (эмерджентно сложным?), а в течение 5 лет, скорее всего, превысит эффективную когнитивную сложность мозга человека

Объективно оценивая достаточно скромные (по гамбургскому счету) успехи психофизиологии, особенно в ключевой области – психофизиологии сознания, очень наивно и самоуспокоительно будет думать, что за ближайшие несколько лет мы хорошо поймем "цифровой мозг" (с его постепенно проклевывающимися "цифровым сознанием" и "цифровой свободной волей")

Тут надо также учесть, что, вероятно, наша способность понимать "цифровой мозг" большой языковой модели с помощью "МРТ для ML" (даже если Амодеи будет услышан и ученые начнут массированно этим заниматься), будет развиваться медленнее, чем будет расти сложность ML-моделей

Поддерживаю призыв Амодеи, и считаю, что надо обязательно попытаться сделать это, и если все накопленные психофизиологией теоретические и методические походы действительно помогут понять механизмы работы больших языковых моделей (и, значит, взять их под надежный контроль, и, в итоге, на рубеже 2030-х годов осуществить успешный "супералаймент" и перейти в "хороший" постсингулярный сценарий ведомого сверхинтеллектом мира), то психофизиология окажет человечеству максимально возможную услугу

Гораздо реалистичнее будет не надеяться на такой явно переоценивающий возможности науки сверхоптимистичный сценарий, а стараться работать в направлении "воспитания ML" как нашего "достойного преемника"

Мы же воспитываем детей, не понимая, как работает их мозг, и когда приходит время передавать им эстафету поколений, это заложенное нами в их детстве воспитание оказывает влияние на то, куда они дальше поведут мир и как они дальше после нас будут развивать наше наследие (в т.ч. в этическом аспекте)

Таким образом, мне кажется, что идея "воспитания ML" как нашего возможного эволюционного преемника гораздо полезнее для повышения вероятности позитивных сценариев будущего, чем труднореализуемая идея "понимания ML"