Малоизвестное интересное
64.7K subscribers
95 photos
1 video
11 files
1.8K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Сцилла и Харибда развития ИИ.
Демис Хассабис и Джек Кларк о развилке главных рисков.

Лучший индикатор уровня зрелости ИИ технологий – в чем общество видит их главные риски.
• Во времена младенчества этих технологий общество содрогалось (подобно малышу при громких звуках) от страхов перед злобным Терминатором и хитроумным HAL 9000
• С наступлением детства главной пугалкой (одновременно страшащей и манящей, как нечто за окном для шестилетки) стала техносингулярность.
• Отрочество (в котором область ИИ сейчас находится) ознаменовалось осознанием истинных корней рисков: они не в технологиях, а в людях.
- Кто будет определять вектор развития ИИ?
- Кто станет выгодоприобретателем революционных открытий, сделанных ИИ, что способны кардинально изменить мир?


Ответы на эти 2 вопроса и составляют суть текущего момента в понимании главных рисков развития ИИ. Ибо сегодня существует лишь два варианта ответа на оба вопроса:
A. Киты Бигтеха (одна или несколько мега-корпораций )
B. Правительства (одной или нескольких супердержав)
Такой выбор подобен Сцилле и Харибде. А как пройти между ними – большой вопрос.

Два человека, входящие в число самых информированных экспертов в данном вопросе, - Демис Хассабис и Джек Кларк – бьются как рыба об лед, пытаясь донести свои мысли до человечества.
✔️ Нельзя отдавать сверх-потенциал ИИ в одни руки: и киты Бигтеха, и правительства – одинаково плохи для человечества.
✔️ Сейчас это, к огромному сожалению, именно так: в США ИИ монопольно в руках китов Бигтеха, а в Китае – в руках КПК.


Демис Хассабис хорошо понимает, к каким революционным прорывам подошел DeepMind в кардинально новых направлениях «глубокой науки» (1):
✔️ уже продемонстрированные AlphaFold 2 возможности определения трехмерной структуры белков сулят экономию сотен миллиардов долларов при разработке новых лекарств и революцию в борьбе с пандемиями;
✔️ находящийся в разработке алгоритм удержания плазмы в термоядерных реакторах промышленного масштаба сулит революцию в энергетике, решив задачу управляемого термоядерного синтеза, над которой мир бьется уже 70 лет.

Однако, Хассабис также понимает, что выгодоприобретателем достижений такого уровня не должна стать одна мега-корпорация. И поэтому Хассабис:
• потратил 4 года на секретный проект «Арбуз» - попытка выйти из-под щедрого, но жесткого крыла материнской компании Google/Alphabet, финансирующей и контролирующей DeepMind (увы, но в апреле эти попытки были окончательно придушены «мамой») (2)
• добился предоставления открытого доступа к алгоритму AlphaFold 2 (хотя все не так просто, и алгоритм пока не может быть сильно полезным исследователям без технических знаний, которыми обладает лишь DeepMind);
• поняв, что из-под «мамы» не вывернуться, в июне призвал на форуме Responsible AI Forum к созданию «всемирного института ИИ» под юрисдикцией ООН, чтобы собрать в нем лучших исследователей в этой области (3)

Джек Кларк (совместно с Институтом изучения экзистенциальных рисков ИИ в Кембридже) 31 августа опубликовал свое видение того же вопроса. Препринт WHY AND HOW GOVERNMENTS SHOULD MONITOR AI DEVELOPMENT (4) сфокусирован на ключевой проблеме прохождения между Сциллой и Харибдой:
✔️ Как преодолеть разрыв между ведущей ролью мировых правительств в определении путей развития ИИ и хроническим непониманием правительств текущего состояния и трендов ИИ
Они подобны инженерам, пытающимся с Земли управлять марсоходом в реальном времени при том, что сигнал с камер марсохода идет до Земли 7 мин, и столько же обратно идет управляющий сигнал с Земли.
Итог – «поспешное, неточное и неосведомленное законотворчество».
Как это можно исправить описано на 13 стр.

Источники: 1 2 3 4
#ИИ
21й год 21го века стал переломным в мировой науке.
Впервые в истории Китай лишил США научного первенства.

По информации Nikkei Asian Review, полученной от Национального института научно- технологической политики Японии, Китай обогнал США по частоте цитирования статей в топовых научных изданиях (1).
Это еще один сильнейший аргумент в пользу того, что 2021 год становится «годом великого перелома» столетней стратегии Китая по смене американского миропорядка на Земле (2).

Впервые в истории науки, в ТОР 10% самых цитируемых статей за последние 3 года больше всего публикаций китайских ученых - 24,8 %. Вечный лидер - США с 22,9 % в ТОР 10% теперь лишь на 2м месте. А чтобы понять каков отрыв 1й пары от остальных, достаточно сравнить с результатом Великобритании: третье место с 5,4 %.
Китай стал ведущим источником естественнонаучных работ в 5 из 8 дисциплин, оцененных Национальным институтом научно-технологической политики Японии.
• Китай лидирует в промышленных прикладных областях: 48,4 % в материаловеденим, 39,1 % в химии и 37,3 % в инженерных дисциплинах
• США пока 1е в науках биологической направленности: 34,5 % в клинической медицине и 26,9 % в естественных науках.

За США пока остается высший бастион науки – ТОР 1% самых крутых по цитированию работ. У них 27,2%, а у Китая 25%.
Однако скорость роста числа самых цитируемых статей Китая, в сравнении с США, подобна проносящемуся мимо трактора болиду Формулы-1. За 10 лет Китай вырос в 5+ раз, а США лишь на смешные 3%. Это столь же поразительная динамика, как в числе патентов на изобретения (потратьте минуту, чтоб воочию увидеть, как китайский болид пронёсся мимо американского трактора (3)).

Превосходство Китая в академической науке, в паре с демонстрируемым индустриальным доминированием, уже фиксируется в новостной ленте.
Вот лишь 3 свежих примера того, что планирует построить Китай.
1. Солнечная электростанция на орбите: в 2030 – 1 МВт, к 2049 – 1ГВт (4) (кто не в курсе, ветровые и солнечные электростанции Китая уже дают 70% от всей (всей, Карл!) выработки электроэнергии России (5)
2. Гиперзвуковые самолеты и космолеты: в 2030 – гиперзвуковой самолет, который за час будет летать до самой удаленной точки Земли; к 2049 – гиперзвуковые беспилотники для полетов на Марсе (6)
3. Решить проблему засухи уже в 2025 планирует китайская национальная программа по модификации погоды: с помощью дронов будет вызываться искусственный дождь на 60% Китая; а к 2035 – на 100% (7)

Источники: 1 2 3 4 5 6 7
#Китай
​​Набирая силу, погружаясь в бурю: пятилетний итог развития ИИ (посулы и риски ИИ становятся реальностью).
Вышел главный аналитико-стратегический отчет мира «AI 100», мониторящий прогресс в области ИИ за последние 5 лет и формирующий многомерный прогноз его дальнейшего развития (влияния ИИ на автоматизацию, нацбезопасность, психологию, этику, законодательство, частную жизнь, демократию).

У проекта AI 100 два ключевых отличия, определяющих его уникальную ценность.
1. Это аналитический продукт междисциплинарной группы экспертов – инсайдеров ИИ области, среди которых есть и разработчики ИИ, и социологи, изучающие разнообразные виды влияния ИИ на общество.
2. Это лонгитюдное (долгоиграющее) исследование, запланированное на 100 лет, отчеты по которому выходят раз в пятилетие.

Первый отчет 2016 AI 100 вышел 5 лет назад. И если кто не читал, имеет смысл.

Но главное – прочтите новый отчет 2021 AI 100, т.к. это the must read. И не только для интересующихся темой ИИ, а для всех. Ибо даже если вам не близка данная тема, это не спасет вас от надвигающейся бури. Мир приближается к центру антициклона «повсеместного ИИ», который кардинально изменит жизнь общества и нас самих.

Лонгитюдность отчета позволяет ощутить стремительность втягивания нас в центр ИИ антициклона.
Всего лишь за 5 лет:
• мы забыли о страшилках типа Терминатора, а техносингулярность превратилась в область шоу-бизнеса для сделавших себе имя на ней футурологов;
• люди научили ИИ делать столь удивительные вещи, о которых мы могли только мечтать 5 лет назад;
• риски фейковых видео, манипулирования людьми, алгоритмической предвзятости и автономных киллеров сошли со страниц фантастики и стали повседневными проблемами реальной жизни.


Отчет структурирован, как набор ответов на 14 вопросов, исследующих критические области развития ИИ:
• начиная с очевидного:
Каковы наиболее важные достижения в области ИИ за 5 лет?
• и заканчивая далеко не тривиальным (например, в контексте пандемий)
Как делаются прогнозы, основанные на ИИ, в общественных контекстах с высокими ставками, и какие социальные, организационные и практические аспекты таких прогнозов должны обязательно учитываться политиками при разработке управленческих политик?

Если попытаться свести все 14 ответов к одной итоговой формуле, я бы сказал так.
Человечество стоит перед поворотным моментом - на чем будут сфокусированы главные усилили и средства разработчиков в ближайшие 5 лет.
На развитии:
✔️ во благо человечества?
✔️ или во благо избранных групп интересантов?

Отчет 2021
Отчет 2016
Часовая презентация отчета 2016 инициатором проекта Эриком Хорвицем
#ИИ
​​Обновленная карта «большого взрыва» в науке XXI века.
Где сейчас делаются самые прорывные открытия.

Ровно 3 года назад я опубликовал пост «Область большого взрыва в науке XXI века определилась» о самой важной и перспективной научной области века – трансцисциплинарной области наук о сложности. В ней уже начался большой взрыв научных революций, которые на наших глазах меняет представления о мире, о человеке, об их связи и об их будущем.

Сегодня, глядя на обновленную до состояния на 2021 г. карту, с большим сожалением констатирую - как и 3 года назад, весь этот «праздник жизни» проходит почти без участия русскоязычной части человечества. По крайней мере, если судить по Рунету. Здесь о «науке о сложности» или «науке сложных систем» пишут лишь маргиналы в интеллектуальных гетто своих блогов, каналов и сайтов, где их читают, в лучшем случае, несколько тысяч таких же маргиналов.
Но и они, в своем большинстве, не ведают:
• насколько колоссальные количественные и качественные изменения здесь сейчас происходят;
• что это уже не одна из наук, а гигантский трансдисциплинарный комплекс из нескольких десятков наук и сотен их пересечений, играющих в этой складывающейся научной системе XXI века роль точек роста новых иерархических уровней сложности в понимании структуры и сути мира;
• что нет больше отдельной кибернетики и отдельной науки о системах, нет отдельных теорий динамических и сложных систем, нет отдельных наук об искусственном интеллекте и когнитивных наук, - все это уже в прошлом.

✔️ А есть вот что – приложенная к посту 2021 Map of the Complexity Sciences
✔️ Чтобы увидеть детали карты, пройдитесь по её интерактивной версии , предварительно прочтя её легенду
✔️ Почитайте Q&A по этой карте

Вы своими глазами увидите, столько в мировой науке есть нового фантастически интересного и в то же время катастрофически неизвестного. И возможно, дальнейшее чтение этого канала превратится для вас в интеллектуальный опиум.
#ComplexitySciences
​​Китай выигрывает в большой технологической сваре с США.
“В соревнованиях собачьих упряжек, как это замечательно описывает Джек Лондон, случаются ситуации долгого изматывающего бега бок о бок двух лидеров гонки. И вот когда одна из таких упряжек все же находит силы и начинает вырываться вперед, кореннику отстающей упряжки ничего не остается иного, как впиться зубами в бок обходящего его коренника. И тогда наступает самое страшной на подобных гонках – большая свара”.

Так я писал год назад о начинавшейся тогда большой сваре в технологической гонке США и Китая. Именно в этой гонке решится,
(1) кто станет мировым лидером в 21 веке, и
(2) какой тип цивилизации станет образцом для подражания на Земле.

За прошедший год я немало написал и рассказал и про гонку, и про уже начавшуюся свару. Но читателям лучше один раз это увидеть, охватив одним взглядом ситуацию сразу в 9-ти коммерчески интересных и уже развитых областях соревнования США и Китая.

Кроме них есть и другие коммерчески перспективные области (типа квантовых вычислений и инфобиотеха). Но они пока еще только формируются. И подводить итоги схватки США и Китая в них пока рано.

Но в 9-ти уже определившихся областях все ясно. Неоспоримое преимущество США лишь в полупроводниках и мобильных играх.

Китай на это реагирует так:
✔️ принят официальный план догнать США в полупроводниках к 2030 (и ежегодно с 2020 в Китае создается по 1К+ компаний в области полупроводников);
✔️ принята госполитика «забить на коммерческую выгоду» игр, всячески препятствуя «игровому отравлению» своих детей (при благосклонном отношении к «игровому отравлению» детей американцев)


Источники приведенной аналитики и комментарии к ней см. здесь.

Я же в заключение повторю мудрую мысль Киссинжера.
Причина происходящего в асимметрии мировоззрений США и Китая.
- Американцы прагматичны и ищут решения проблем ближайшего будущего.
- Китайцы же видят все в долгосрочной перспективе своей исторической эволюции как главной мировой цивилизации.


Вот только надо помнить, что в таких ситуациях кореннику отстающей упряжки ничего не остается иного, как впиться зубами в бок обходящего его коренника.
#Китай #США
​​ИИ может решить проблему плохих дорог и распила бюджетов на их ремонте.
Большой Брат на службе общественного контроля.

В 21 веке рок тотального наблюдения с помощью ИИ неумолим. Бороться с Большим Братом, надзирающим за все новыми аспектами жизни людей, бессмысленно. Так или иначе, но обществу придется мириться со все новыми приложениями Большого Брата, позволяющими государству контролировать каждого: на дорогах, в транспорте и дома, движущихся или стоящих, говорящих или молчащих … Ибо это облегчает государству тотальный контроль за действиями и намерениями людей, а также позволяет государству получать доход от сборов с людей за нарушения, которые государству выгодно считать нарушениями (ведь в цифровом мире люди – это новая нефть).

Но выход есть.
Если нельзя избавиться от наблюдения за нами со стороны государства с помощью ИИ, можно пытаться использовать ИИ, чтобы наблюдать за действиями государства, обнаруживая воровство, коррупцию и распил бюджета, а также фиксируя ненадлежащее выполнение органами власти своих функций.

Вот прекрасный пример готовой для внедрения хоть завтра ИИ системы, которая сверх актуальна для России.
Как известно, в России три беды: дураки, дороги и воровство.
• Дороги в России отвратительные.
• Воровство на распиле бюджетов для их постоянного ремонта, замены бордюров, покосу откосов и т.д. зашкаливает.
• Ну а граждане, как дураки, смирились с таким положением и ничего с этим не делают.

Разработанная Университетом Квинсленда и Городским советом Логана в Австралии ИИ система RoadAtlas объединяет красиво оформленный веб-интерфейс с системами компьютерного зрения для анализа изображений дорог в целях выявления различных проблем, от треснувших бордюров до трещин и ям в покрытии дорог. Авторы также создали набор данных из 10К изображений, размеченных для распознавания разных типов повреждений с разной степенью запущенности.

Таким образом, RoadAtlas позволяет автоматически выявлять места необходимого ремонта (покрытия, бордюров и т.д.) и приоритезировать их по степени потенциального риска продолжения эксплуатации (делая это лучше экспертов).

При использовании RoadAtlas, допустим, неким общественным объединением граждан (оснастивших свои автомобили тройкой камер) можно достичь следующего.
✔️ Выявлять факты воровства на распиле бюджетов при ремонте, который не нужен или низкоприоритетен.
✔️ Выявлять факты ненадлежащее выполнение органами власти своих функций, когда не ремонтируются конкретные участки дорог, требующие, по заключению ИИ, экстренного ремонта.

Остается добавить, что в RoadAtlas авторы решили не только чисто функциональные задачи, но и предусмотрели решение проблем конфиденциальности персональных данных (автоматическим затиранием на изображениях госномеров попавших в фокус камер автомобилей).

Описание RoadAtlas

#ИИ #ОбщественныйКонтроль
Безнадёга – самая опасная из иллюзий.
Но есть способ избавиться от неё, став крепким орешком.
В России почти все знают понятие "выученная беспомощность" (65600 ссылок в Рунете).
Про понятие "депрессия безнадежности" знают в 500 раз меньше людей (140 ссылок).
А про "теорию надежды" Чарльза Снайдера знают единицы (всего 47 ссылок).
Суть выученной беспомощности в том, что в трудной ситуации, кажущейся людям вне их контроля, они склонны становиться подавленными и беспомощными, не предпринимая попыток исправить ситуацию.
В результате: пассивностью и отказ от действий, даже когда появляется какая-то возможность что-либо изменить в ситуации.
Итог: депрессия безнадежности – иллюзорное когнитивное состояние человека, возникающее у него не столько из-за неконтроллируемости ситуации, сколько из-за интерпретации своего негативного опыта.

Однако, эксперименты показывают, что встречаются «крепкие орешки», не впадающие в беспомощность и остающиеся стойкими даже перед лицом неконтролируемой ситуации. Только их очень мало. И их сила в том, что они интерпретируют ситуацию совершенно иначе, чем большинство впадающих в выученную беспомощность.
У «крепких орешков» просто иной объяснительный стиль:
• Большинство трактует ситуацию в «пессимистическом» стиле: винят себя; считают, что это надолго; думают, что это часть некой большей и даже универсальной проблемы.
• У крепких орешков трактовка истории противоположная – гораздо более обнадеживающая: проблема временная, конкретная (а не универсальная) и не во мне, а в гадском устройстве мира, которое нужно и можно исправить.

Как показано в работах Селигман, Абрамсон и Тисдейл, переобъяснивших выученную беспомощность депрессией безнадежности, для ее преодоления человеку нужно пытаться целенаправленно изменить свой объяснительный стиль. Т.е. нужно изменить историю, которую мы рассказываем САМИ СЕБЕ о своих невзгодах. И это может помочь вселить в нас надежду.
(cсылки на все источники см. здесь https://psyche.co/ideas/hope-is-the-antidote-to-helplessness-heres-how-to-cultivate-it)

Как было позже показано в разработанной Чарльзом Снайдером «теории надежды», надежда - это не слепой оптимизм.
Необходимо наличие:
• целей на будущее;
• конкретных «путей» или планов того, как достичь этих целей;
• целенаправленной энергии (веры в то, что цели достижимы).
Только так можно пробудить в себе чувство контроля над своей жизнью, демонстрируя свободу воли в своих стремлениях – в противовес ощущению беспомощности.
И это работает! Что доказано экспериментально.

В заключение, приведу пару примеров (позитивный и негативный), касающихся технологических возможностей преодоления кажущейся безнадеги.
1) Преодоление ограничений свободы получения информации в Интернете.
Все эти ограничения легко массово преодолеваются использованием VPN.
Для этого потребовалось: а) поставить цель – хочу иметь доступ; б) найти путь - конкретный VPN) и в) проявить целенаправленную энергию - освоить эту технологию.
2) Преодоление ведущих к выученной беспомощности установок, типа, как написал Александр Плющев – «технологические аспекты не имеют значения, если главенствуют и решают аспекты политические» https://t.me/PlushevChannel/13463 .
Это не всегда так. Как показывает пример 1, технологические аспекты (расчищающие путь к свободе) могут преодолевать политические (устанавливающие надолбы на пути к свободе).
И если бы общество, например, резко выступило против отключения массовой трансляции в Интернете видео с избирательных участков (вплоть до готовности самим платить за это), результаты выборов могли быть иными.
Аналогично с моим вчерашним постом про использование ИИ для решения проблемы плохих дорог и распила бюджетов на их ремонте. Кто мешает возродить что-то типа проекта РосЯма с использованием ИИ в стране с таким числом видеорегистраторов?

Т.о. либо депрессия безнадежности.
Либо становиться крепким орешком через обретение надежды: избрав цель, найдя путь и прилагая целенаправленную энергию.

#Психология
Наконец закончил 3-ю часть поста «Разум — это эволюционный компромисс в упорядочении хаоса».
Текст получился не простой. Но не стреляйте в пианиста, поскольку это первый в мире популярный текст о потенциально фантастическом прорыве – попытке создания общей теории медитации на основе принципа свободной энергии.
Среди прочего, в этом посте вы прочтете о следующем.
• О наипервейшей проблеме в понимании разума.
• Как Норберт Виннер мог бы прочесть полученную из будущего флешку.
• О визионерских переживаниях и обучении без фактов.
• Как запускается механизм озарений.
• Как выпасть из времени и отключить свободу воли.
• О реактивации у людей способности, подобно дельфинам, обмениваться визуальными образами.
• Об инжиниринге технобустов и техноделической психонавтике.
Все это на 21 мин чтения
- на Medium https://bit.ly/3zPk90t
- на Яндекс Дзен https://clck.ru/XpPmm
#Восприятие #Медитация #Психоделики #ПринципСвободнойЭнергии #ПрогнозирующийМозг
​​Великий кормчий 2.0 сломал техно-гигантов Китая.
Китайский хайтек клянётся верности курсу на всеобщее процветание.

Запад еще не задумывается о последствиях нового курса Председателя Си для США и Европы. Вместо этого западные эксперты предпочитают гадать, приведет ли курс на «всеобщее процветание китайского народа» лишь к торможению, или он сулит обвал китайской экономики.
В отличие от Запада, в Китае уже все всё поняли. Будет ли торможение, обвал или что-то еще – пока большой вопрос. Но уже сейчас КПК готова растоптать каждого несогласного с новой стратегией Председателя Си в пыль. И у компартии есть все возможности сделать это даже с самыми известными, богатыми и влиятельными магнатами техно-индустрий.

Вот почему технологические магнаты выстроились в очередь на «Всемирной конференции по управлению интернетом 2021» (26-28 сентября), чтобы заявить о своей поддержке политики президента Си Цзиньпина, направленной на «всеобщее процветание». Мало того. Техно-магнаты выступили с одобрением регулятивного наезда на цифровой сектор, ломающего китайский рынок об колено.

Как это сформулировала Кендра Шефер - партнер базирующейся в Пекине консалтинговой компании Trivium China: «Китай не заинтересован в копировании провальной стратегии Кремниевой долины по надуванию гигантского пузыря технологической экосистемы. Ибо Китай стремится к экосистеме, построенной вокруг общей цели – рост цифровой экономики Китая в интересах всего населения».

Техно-магнаты США также готовы отстраиваться, следуя новому курсу Китая. Выступившие на «Всемирной конференции по управлению интернетом 2021» Генеральные директора Tesla, Intel и Qualcomm заявили о готовности поддержать цифровую трансформацию Китая. «Мы рады присоединиться к цифровой экономике Китая и поддержать ее», - сказал на открытии конференции Илон Маск. Он высоко оценил новые правила Китая, направленные на усиление управления данными, заявив в видеообращении, что его компания локализует свои данные в Китае. Подробней в публикациях Bloomberg и South China Morning Post

Руководители гигантского китайского рынка онлайн-игр, на который катком наехали власти, слились без признаков хоть какой-то борьбы за свои интересы.
Власти диктуют им строгие меры, направленные на обуздание того, что КПК называет «опиумом для разума» - молодежной зависимостью от видеоигр. На что сотни китайских онлайн-игровых компаний (Tencent, NetEase и еще 200+) клянутся саморегулироваться и не позволять молодым игрокам обходить правила ограничения игрового времени. Подробней в публикации WSJ.

Когда в 2017 Си Цзиньпин был переизбран генсекретарем Коммунистической партии Китая, госагентства написали об этом так.
«Идеи Си Цзиньпина о социализме с китайской спецификой новой эпохи являют собой продолжение и развитие марксизма-ленинизма, идей Мао Цзэдуна, теории Дэн Сяопина, важных идей тройного представительства и научной концепции развития, новейшее достижение китаизации марксизма, квинтэссенцию практического опыта и коллективной мудрости партии и народа».

С тех пор его называют «великим реформатором» и «вершителем основ». Но после 2021 вполне возможны еще два определения: «крушитель основ» и «великий кормчий 2.0».
#Китай
Почему Россия аутсайдер в ИИ.
Особенности национальной медиаповестки.

Причин значительного отставания России в области ИИ несколько. В первую очередь, это неконкурентная бизнес среда, общий бизнес-климат, страновые риски и сбитый прицел приоритетов государства. Но не только.
А что еще?
• Слабые университеты?
Но их выпускники с успехом работают в США.
• Отставание в аппаратной базе компьютеров?
Но никаких серьезных экспортных ограничений в этой области в США (и нигде) для России нет. А деньги купить все что надо, есть и у государства, и у бизнеса.
Что же тогда еще?
Рискну предположить, что одной из основных причин является также «разруха в головах».
И проверить эту гипотезу довольно просто. Достаточно сравнить медиаповестку по ИИ в Рунете с медиаповесткой англоязычного и китаеязычного Интернета.

Вот тестовый кейс – отчет Стэнфордского центра человеко-ориентированного ИИ (HAI) On the Opportunities and Risks of Foundation Models, опубликованный 16го августа (1).
В посте об этом отчете я написал, что Foundation Models - революция в обучении машин, последствия которой пока непредставимы (2). И это суперважная тема, как для профессионалов, так и для всего общества.

Медиа всего мира (кроме России) так и восприняло этот отчет.
• По данным мониторинга EyeOnAI, в течение 6 недель после публикации отчет входит в ТОР5 самых обсуждаемых тем новостных медиа в разделах Computer Science, Artificial Intelligence, Computers and Society.
• Уже три недели (№36-38) это самая обсуждаемая тема новостных медиа в названных разделах.
• Google показывает 1610 ссылок в англоязычном Интернете на запрос - "On the Opportunities and Risks of Foundation Models" Machine Learning
• Google показывает 309 ссылок в китаеязычном Интернете на запрос - "On the Opportunities and Risks of Foundation Models" 机器学习
А в Рунете, кроме меня, про этот отчет не написал никто.

В чем причина столь вопиющей особенности медиаповестки Рунета, остается лишь гадать.
Но факт налицо. Российских журналистов и блоггеров, профессионалов и общество не интересует самая обсуждаемая тема англо- и китаеязычного Интернета в разделах Computer Science, Artificial Intelligence, Computers and Society.

Что же за новости в Рунете по запросу - машинное обучение?
Вот ТОР сегодняшних новостей Яндекса по этому запросу.
1. И.о. ректора Ижевского госуниверситета рассказал о межвузовском сотрудничестве, обучении в Иннополисе и проектах, связанных с искусственным интеллектом.
2. Прогнозирование выработки и потребления электроэнергии – уникальные возможности нового цифрового решения от ИНФОПРО и AnalyticsHub.
3. Как финтех использует ИИ и зачем ему суперкомпьютеры.
4. Для технологических кружков России создали образовательные программы по профилям НТО.
5. Российские школьники создадут умных помощников для учителей на «Уроке цифры» по искусственному интеллекту

Полагаю, достаточно, чтобы составить представление о медиаповестке Рунета (в новостной выдаче Google почти то же самое).

Но может хотя бы в академической среде все иначе?
Увы, нет.
Вот видео Круглого стола академиков РАН по тематике "Научные проблемы искусственного интеллекта" 21 сентября 2021г. (3)
Модератор дискуссии академик К.В. Анохин очень точно сформулировал цель дискуссии.
Область ИИ развивается очень быстро. ИИ – как быстро летящая утка, в которую бессмысленно стрелять, целясь в то месте, где она находится. Необходимо упреждение. Чтобы не быть аутсайдером, лишь повторяющим чужие решения, необходимо понимать главные тренды и тенденции развития ИИ. Тогда можно будет развивать ИИ в России с упреждением, а не стрелять туда, где утки уже нет.

Уважаемые академики отвечали на этот вопрос 2+ часа. Но Foundation Models так и не были упомянуты среди важнейших трендов. Получается, что и в исследовательской повестке РАН этой важнейшей темы пока нет. Видимо, и здесь особенности национальной научной повестки.

1 2 3
#ИИ
Мой новый пост о «тройном переломе культуры», последствиями которого может стать разворот науки в сторону средневековья.
В качестве иллюстрации рассмотрен следующий кейс.
• 4400%-й рост числа девочек, стремящихся стать мужчинами.
• Удивительное отсутствие научных исследований, которые могли бы объяснить этот поразительный рост.
• Остракизм со стороны ревностных сторонников «культуры отмены», которому подвергаются те, кто пытается привлечь внимание общества к этой «неприличной» проблеме «трансфобного безумия».
7 минут чтения:
- на Medium https://bit.ly/3l6DO81
- на Яндекс Дзен https://clck.ru/XyAAv

#АлгокогнитивнаяКультура #AlgorithmicallyInfusedSocieties
США опубликовали стратегию подготовки к будущей пандемии.
Плохая стратегия лучше отсутствия хорошей.

3 сентября Белый дом объявил о новой стратегии подготовки будущих пандемий (1). На её реализацию выделяется $65 млрд. Эти средства пойдут на новые вакцины, лекарства и диагностические тесты; новые способы обнаружения и отслеживания угрожающих патогенов; лучшее защитное снаряжение и пополненные запасы; более прочные цепочки поставок; централизованное управление, координирующее все вышеперечисленное между агентствами.

Эксперты разносят эту программу в пух и прах, в первую очередь, за мизерное финансирование в $65 млрд (2). Они сравнивают его с финансированием программы Apollo по отправке астронавтов на Луну, на которую правительство потратило в 4 раза больше с поправкой на инфляцию. Между тем как продолжающаяся пандемия COVID-19 может обойтись США примерно в 16 триллионов долларов .

С пандемией COVID-19 США (и не только они) облажались по полной.
• США на 1-м месте в мире по числу летальных исходов: 703 тыс. (это больше, чем унесла Испанка в 1918, а ведь 100+ лет прошло) – это 211 смертей на 100 тыс. населения.
Для сравнения: Россия на 5-м месте: 207 тыс. - 143 смерти на 100 тыс. (3)
• США всего лишь на 47-м месте в мире по числу доз вакцинации на 100 жителей – 118 доз.
Для сравнения: Россия на 92-м месте – 63 дозы (впереди нас Суринам и Гайана, Казахстан и Мексика, Азербайджан и Перу …) (4)

В США падают показатели и новых случаев, и смертей. "Что бы ни принесла эта осень, худшее в пандемии почти наверняка позади"- написал вчера в NYT Дэвид Леонхардт. И осторожно добавил к этому в своем Твиттере – «Если не случится непредвиденного».

В России ситуация хуже: растут и число случаев, и число смертей. А ведь у нас даже среди самых уязвимых (60+ лет) доля выкцинированных (5) хуже, чем почти всюду в мире (6).

Ну а по части стратегии подготовки к новой пандемии в России пока вообще ничего не слышно. И это очень плохо, т.к. окно возможностей для такой стратегии может захлопнуться весьма скоро.

Ссылки: 1 2 3 4 5 6
#Эпидемия
​​Крупнейший распил в ИИ.
Самый востребованный способ заработать на хайпе.

Если полагаете, что это т.н. «сильный ИИ» (AGI), то ошибаетесь.
AGI – в большинстве случаев, вообще не распил, а просто способ повысить шансы получить финансирование под свой проект, поднимая над ним хайповый флаг AGI. И хотя довольно часто такие проекты имеют мало отношения к AGI, их исполнители, тем не менее, хотя бы хотят разработать нечто, кажущееся им полезным.
Ну а крупнейший распил в ИИ происходит в области «этики». Эта тема проходит стадию «кембрийского взрыва». На запрос в Google "artificial intelligence" выдается 200 млн ссылок, а на запрос - "artificial intelligence" ethics, - более 50% от числа ссылок предыдущего запроса (107 млн).

Распил весьма эффектен, как и любая магия.
1. При использовании ИИ-систем, государство и бизнес больше всего заинтересованы в «отмывании этических норм», также называемом «театром этики» (“Ethics washing», “Ethics theater”). Это практика фабрикации преувеличенного интереса госструктуры или компании к справедливым ИИ-системам, работающим во благо всех и вся.
2. Для доказательства того, что госструктура или компания придерживается концепции «этика ИИ на благо всех и вся» они заказывают аудит и оценку рисков нарушения этических норм при использовании своих ИИ-систем (уже имеющихся или планируемых к приобретению / разработке).
3. Для аудита и оценки рисков, создаются комиссии и комитеты, подряжаются эксперты и консультанты, психологи и философы, юристы и социологи, проводятся исследования, разрабатываются типологии рисков, осуществляются опросы и углубленные интервью …
4. В результате получается солидный детализирующий и анализирующий документ с кучей рекомендаций и сводов правил. Его цель – доказать на сцене «театра этики», что этические нормы конкретных ИИ-систем проверены и «отмыты» от угрозы потенциальных рисков. И, следовательно, будут работать во благо всех и вся.

А теперь о разоблачении этой магии.
Лучано Флориди - создатель «Философии информации» и термина «инфорги» (1), - так пишет в эссе «Почему информация так важна» (2).
«Нет этики без выбора, ответственности, и моральных оценок, т.е. всего того, что требует большого количества актуальной и достоверной информации, а также хорошего менеджмента».
Следовательно, если нет менеджмента, контролирующего процессы выбора, ответственности, и моральных оценок, такая ИИ-этика превращается в «театр этики», в котором происходит «отмывание этических норм».

Как показывают результаты первого мета-исследования 169 весьма солидных работ по аудиту и анализу ИИ-рисков «Использование этики ИИ на практике: подходят ли инструменты для достижения цели?» (3), 77% из этих работ вообще не предлагают никаких средств практического контроля своих собственных рекомендаций.
Т.е. всё ограничивается философскими дискуссиями и умозрительными оценками без каких-либо практических методик и инструментария менеджмента контроля за работой эксплуатируемых ИИ-систем.
Ну а если потрудиться внимательно прочесть это мета-исследование, становится ясно, что и оставшиеся 23% работ весьма примитивно и поверхностно относятся к контролю этичности работы ИИ-систем: процессам принятия ими решений, определению ответственности за эти решения и вынесению моральных оценок последствий таких решений.

Причина «большого распила» на этике ИИ видится мне очевидной – ошибочный антропоморфизм ИИ.
Это фундаментальная ошибка не только сбивает прицел исследователей и разработчиков. Еще хуже, что она сбивает прицел всего общества. Вместо изучения реальных рисков при широком внедрении ИИ в жизнь людей (главнейшим из которых мне видится их превращение в инфоргов), идет «большой распил» в области ИИ-этики – понятия, не существующего в природе.
Отсюда и «театр этики» с бесконечной пьесой про «отмывание этических норм».

Ссылки: 1 2 3
#ИИ #Этика
​​Китай создаёт «Министерство правды».
Построение сетевой цивилизации путем изведения инакомыслящих.

«Создание сетевой цивилизации – это важная комплексная задача, решение которой необходимо для построения современной социалистической страны. Неизбежными требованиями при создании сетевой цивилизации являются:
• повышение социалистической духовности,
• быстрая адаптация к изменениям в условиях социальных противоречий,
• удовлетворение насущных потребностей общества в улучшении жизни,
• ускорение строительства сетевой системы власти».
Так пишут Компартия и Госсовет Китая в недавно опубликованном ими «Меморандуме по укреплению построения сетевой цивилизации» (1).

В «Меморандуме» подчеркивается, что «для укрепления построения сетевой цивилизации мы должны следовать руководству Си Цзиньпина по специфике новой эры социализма с китайскими особенностями, реализовывать на практике важные мысли Генерального секретаря Цзиньпина о сетевой власти и выполнять его важные наставления о построении духовной цивилизации, энергично продвигающей основные ценности социализма».

Смысл этого важнейшего для КПК документа в том, что Интернет должен стать «цивилизованным», чтобы продвигать в мир сетевую идеологию на основе марксистских ценностей, переосмысленных Си Цзиньпином. Для этого необходимо усилить идеологическое руководство киберпространством и укрепить его моральные основы.

«Меморандум» уже начал подкрепляться первыми серьезными действиями. Главное из них – создание подобия «Министерства правды». Его основой стал общенациональный онлайн-механизм борьбы с фейковыми новостями. Он создается на базе обновленной и расширенной Китайской интернет-платформы для борьбы со слухами, запущеной 3 года назад (2), и централизованной службы проверки соответствия фактов одобренной партией линии.

В основе последнего механизм массовых онлайн-доносов.
При этом фейком считается любой контент, не согласующийся с линией партии (3) и разделяемый по 9 категориям:
1. политически вредный контент
2. жестокость и терроризм
3. мошенничество
4. пошлость
5. порнография
6. азартные игры
7. слухи
8. нарушение социалистического образа жизни
9. иное

Эта кампания массовых онлайн-доносов напоминает мне кампанию по борьбе с воробьями (в рамках «Кампании против 4-х вредителей», 1958) в ходе «Большого скачка» (4). Тогда в ходе двухлетнего крестового похода сотен миллионов китайцев против воробьев было уничтожено почти 2 млрд птиц.
А потом в 1960 выяснилось, что в отсутствии воробьев саранча сжирает куда больше риса, чем съедали воробьи. И чтобы восстановить популяцию птиц, воробьев стали импортировать из СССР.

Боюсь, как бы не пришлось после завершения кампании в духе уже начатой акции « Смело стойте на гребне волны, чтобы громче опровергать слухи» (5) импортировать инакомыслящих из-за рубежа. Вот только из России в этот раз вряд ли получится. К тому времени их здесь может не остаться.

1
2
3
4
5
#Китай
Общеизвестно - будущее трудно предсказать и можно лишь вообразить. Если же речь идет не о будущем конкретных людей, а о будущем всего человечества, воображаемая нами картина будет сильно зависеть от двух важных моментов.
1. Действительно ли люди живут во все более ненасильственном мире, в котором вероятность большой войны снижается из-за гуманизирующей роли прогресса?
2. Правда ли, что в современном обществе роль научных знаний при формировании мировоззрения людей становится все меньше, а роль популярных мифов все больше?

От ответа на первый вопрос в принципе зависит быть или не быть человечеству в воображаемом будущем.
От ответа на второй, - что будет у людей будущего в головах, как они будут воспринимать мир, других людей и самих себя.

Первый вопрос был поставлен еще пять лет назад. Его обсуждению был посвящен проходивший в 2016 году в городе Берген 161-й Нобелевский симпозиум «Причины мира» — The Causes of Peace.

Второй — поставлен всего месяц назад семнадцатью учеными международного уровня в опубликованной ими книге «The Darker Angels of Our Nature. Refuting the Pinker Theory of History & Violence» (Темные ангелы нашей природы. Опровержение теории Пинкера об истории и насилии).

Как видно уже из названия, цель книги — ответить на 1-й вопрос: дать научное опровержение популярного и вводящего в заблуждение тезиса Стивена Пинкера о том, что мы, люди, живем во все более мирном мире. Заодно, авторы попытались ответить и на 2-й вопрос.

Но обо всем по порядку.
Читайте в моём новом посте (9 мин чтения):
- на Medium https://bit.ly/3AtzwME
-на Яндекс Дзен https://clck.ru/YAR9Q
#Прогресс #Насилие #УровеньНасилия #Война #БольшаяВойна
​​The Great AI Reckoning.
Глубокое обучение построило дивный новый мир, но он трещит по швам.

Так называется новый спецотчет IEEE - крупнейшей в мире ассоциации технических специалистов (423 тыс. членов из 160 стран).
Название таит в себе важный смысл. Оно обыгрывает неоднозначность английского слова reckoning – расчет: в смысле вычисление и расплата.
• Вычислительные ресурсы, требуемые для развития ИИ на основе глубокого обучения, становятся неоправданно большими.
• Расплатой за выбор глубокого обучения в качестве магистрального пути развития ИИ становится нарастающее ощущение приближающегося тупика.


Спецотчет состоит из 8 глав, понятно написанных простым языком.
1) Бурное прошлое и неопределенное будущее ИИ. Есть ли выход из цикла взлетов и падений ИИ? (8 мин чтения)
2) Как работает глубокое обучение. Внутри нейронных сетей, на которых основан современный ИИ (3 мин чтения)
3) Говорят эксперты по ИИ: памятные цитаты из репортажей IEEE об ИИ (4 мин чтения)
4) Как DeepMind переизобретает робота. Покорив Го и фолдинг белков, компания переключилась на реально трудную задачу (14 мин чтения)
5) 7 причин, по которым ИИ терпят неудачи. Нейронные сети могут быть катастрофически хрупкими, забывчивыми и удивительно слабыми в математике (8 мин чтения)
6) Неудобная правда об ИИ. ИИ не превзойдет человеческий интеллект в обозримом будущем (3 мин чтения)
7) Уменьшение отдачи от глубокого обучения. Стоимость улучшений становится непосильной (10 мин чтения)
8) Как армия США превращает роботов в командных игроков. Инженеры борются с ограничениями возможностей глубокого обучения боевых ботов (11 мин чтения)

В качестве тизера взгляните на эту аналитику из спецотчета.
✔️ Экстраполируя достижения последних лет, можно предположить, что к 2025 году уровень ошибок в лучших системах глубокого обучения, предназначенных для распознавания объектов на основе набора данных ImageNet, должен быть снижен до 5% см. рис.
✔️ Но вычислительные ресурсы и энергия, необходимые для подготовки таких систем, будут огромными, что приведет к выбросу такого количества углекислого газа, какое Нью-Йорк производит за месяц см. рис.

От себя добавлю.
Главную заморочку в развитии ИИ можно проиллюстрировать приложенным рисунком из книги Брайана Смита «Reckoning and Judgment: The Promise of AI».
• В правой-нижней части рисунка сгруппированы люди, разбирающиеся в искусственном интеллекте, но ни черта не понимающие в человеческом разуме (Курцвейл и Бостром – типичные примеры).
• В левой-верхней части - люди, прекрасно разбирающиеся в человеческом разуме, но ни черта не понимающие в искусственном интеллекте (в качестве примера, Кант с Витгенштейном и слов то таких не знали).
• Между этими двумя полюсами в размытой темной дуге находятся многие тысячи идеологов и разработчиков в области ИИ.
• Это и есть главная проблема.
- Понять, как устроен и работает «интеллект», невозможно двигаясь на показанном графике лишь только направо или только наверх.
- Для реального прорыва нужны люди в правой-верхней части рисунка… И много таких людей.
#ИИ #AGI
P.S. Каналу «Малоизвестное интересное» 5 лет. Не думал, что так надолго задержусь в этом деле. Но пока в правой-верхней части рисунка людей непростительно мало, буду продолжать писать про это (ебж) 😊
В 2022 ИИ превзойдет людей в физике и в сложных игровых модельных средах.
Вся самая актуальная и нужная информация об ИИ в 2021 и прогнозах на 2022.
Два прогнозируемых потрясающих прорыва ИИ в следующем году:
✔️ ИИ от DeepMind совершит открытие в физике (возможно, это будет открытие в области удержания термояда).
✔️ ИИ уйдет в недосягаемый отрыв (как в шахматах и Го), соревнуясь с людьми в сложных игровых средах, моделирующих изощренные виртуальные миры.

Так считают Натан Бенайх и Ян Хогарт – серийные инвесторы в ИИ-ориентированные стартапы - 4й год подряд делающие невозможное. 4й раз они в октябре выпускают уникальный отчет о текущем состоянии дел в области ИИ такого качества (глубина проникновения в предмет, фокусировка на главное, видение за деревьями леса), что все индустриальные аналитики, консультанты и профэксперты нервно курят 😎.

188-слайдовый отчет содержит «сухой остаток» четко структурированного описания прогресса в области ИИ, уделяя особое внимание ключевым событиям последних 12 месяцев.
https://www.stateof.ai/

В завершение отчета, как и прошлые разы, даны конкретные прогнозы на грядущие 12 мес (из прошлогодних восьми сбылись пять с половиной (!)). Среди новых прогнозов, помимо двух названных, такой: ИИ-мир станет трехполярным.
✔️ Возглавляемый Дарио Амодеи стартап Anthropic (это команда звездных профи, отколовшаяся от OpenAI и привлекшая звездных инвесторов) предъявит миру свои крупномасштабные ИИ системы, что превратит Anthropic в 3-го ключевого игрока мира в области AGI.

Давать резюме прекрасно выполненной работы бессмысленно - каждый найдет здесь интересное и нужное на свой вкус.

Мне же остается, в качестве тизера, привести по одному из выводов каждого из 4-х тематических разделов отчета.

Исследования
- ИИ-национализм торжествует в разработке больших языковых моделей (LLM), - каждая страна хочет иметь свою суверенную LLM.
Таланты
- Академические группы с трудом конкурируют за вычислительные ресурсы, в то время как 88 % ведущих преподавателей ИИ получают финансирование от Big Tech.
Индустрия
- Компании, связанные с полупроводниками, значительно ускоряются по мере того, как страны стремятся к суверенитету в цепочке поставок.
Социально-политические аспекты
- ИИ в буквальном смысле становится движком гонки вооружений: автономное оружие развертывается на поле боя, и регулярно проводятся испытания новых разработок.

В общем, читайте сами этот наиполезнейший отчет с десятками графиков, диаграмм и картинок.

Мой рассказ об отчетах
2018 (https://t.me/theworldisnoteasy/545),
2019 (https://t.me/theworldisnoteasy/816),
2020 (https://t.me/theworldisnoteasy/1135),
- их ценность в том, что там много полезной инфы, ставшей с тех пор еще более актуальной.
#ИИ
Мой новый пост приурочен к весьма интересному событию - открыт свободный доступ к визуальному интерфейсу новой системы прогнозирования военизированных межгосударственных споров (militarised interstate disputes – MID). Система разрабатывалась 10 лет командой из 30 специалистов инвестиционного фонда Coolabah Capital Investments.
Это не академическое исследование. Тут, говоря словами Нассима Талеба, шкура на кону. От точности прогнозов этого инвестфонда зависит судьба $7+ млрд инвестиций, находящихся под его управлением. Вот почему это не только любопытная, но и весьма интригующая новость.
Кроме того, теперь каждый может сам увидеть и проанализировать, как менялись шансы войны между парами стран (Россия и США, Россия и Китай, Индия и Китай, Германия и Россия, Австралия и Китай …) за последние 160 лет, и каков их прогноз на ближайший год, 5 и 10 лет.
Продолжить чтение (12 мин)
- на Medium https://bit.ly/3BYJ03Q
- на Яндекс Дзен https://clck.ru/YJKLm
#война #предсказание
Приговор – в ад на перековку.
Перепрошивка личности насильников путем VR-переноса в шкуру их жертв.

На приложенном видео по заданному таймкоду запускается сцена в виртуальной реальности (VR), предшествующая домашнему насилию. Все, как обычно и бывает: от наезда типа «посмотри на себя в зеркало, - выглядишь, как жирная корова» до эмоциональной накачки мужчины, готового вот-вот ударить (1).
Эта сцена из сентябрьского семинара испанского тюремного психолога Николаса Барнса, уже много лет разрабатывающего методы исправления психологии насильников путем помещения их в шкуру их собственных жертв.

Своей работой Барнс доказывает, что в ходе «исправительных VR-сеансов», мозг насильника:
1) подменяет его телесные ощущения на ощущения жертвы;
2) запускает осознание того, что тебя сейчас будут бить (а то и убивать);
3) включает эмоциональную накачку букета негативных эмоций (страх, обида …) со всеми положенными нейромедиаторными последствиями.
Если повторять «исправительный VR-сеанс» с определенной регулярностью, начинается как бы перепрошивка личности насильника. И с каждым разом он как бы становится все менее насильником из-за переноса в его личность ощущений страдания его жертв (2).

Однако, не смотря на наличие экспериментальных подтверждений того, что рецидивы насилия у прошедших VR-терапию почти втрое реже, чем без нее (эксперименты проводились в тюрьмах Испании, США и Южной Африки (3)), массовое внедрение VR-терапии в систему исправительных институтов сдерживалось. Не хватало теории, объясняющей «перепрошивку личности» насильника.
В этом году такая теория появилась. Было экспериментально доказано, что пребывание в шкуре жертвы перенастраивает реакции сети пассивного режима работы мозга на входные сигналы от эмоций (4). А это, в свою очередь, меняло ситуативное поведение потенциальных насильников.

Это открытие вдохновило правительства Франции и Финляндии (возможно, еще и Великобритания) начать годичный большой эксперимент - экспериментальные программы по корректировке поведения и психологии лиц, обвиненных в домашнем насилии (5).

Если правительства получат твердые подтверждения эффективности «исправительных VR-сеансов» для исправления поведения людей, последствия могут быть колоссальные.
Только представьте, например, такое развитие этой темы - убийц исправляют тем, что заставляют многократно испытывать страдания их жертв, как бы при жизни отправляя их в ад на перековку.

Источники: 1 2 3 4 5
#Насилие #VR
Почему нейронаука зашла в тупик.
Опубликован «меморандум Сломана-Паттерсона-Барби».

В недавнем интервью Евгений Ижикевич кратко и точно прокомментировал, почему нейронаука зашла в тупик.
«В нейронауке нет продвижения за последние 50 лет, потому что какой-то из фактов, которые мы считаем верными, неверен».
Т.е. проблема в базовой предпосылке, сбивающей развитие нейронауки с верного курса, подобно топору под компасом, подложенному злодеем Негоро, дабы сбить с курса «Пилигрим», ведомый «пятнадцатилетним капитаном» Диком Сэндом.

К сказанному Ижикевичем могу добавить одно.
Базовый ошибочный факт в основании нейронауки известен не первый год. И с каждым годом увеличивается корпус доказательств этого. Так что проблема не в том, чтобы обнаружить «топор под компасом». А в том, чтобы признать его наличие и вынуть.

Ошибочный факт – это предположение, что человеческие знания представлены в индивидуальном мозге и передаются между людьми. Тогда как процессы познания происходят в социо-когнитивных сетях сообществ знаний.
Исправлением этого ошибочного факта будет признание, что индивидуальным может быть только мозг, а разум – исключительно коллективный феномен.


В силу этого, познание просто несводимо к нейробиологии. Оно распределено в физическом мире по многим умам (в т. ч. давно умерших людей) и бесчисленному множеству артефактов. А задача понимания сложных предметов, явлений и идей, по сути, сводится к её передаче на «аутсорсинг» - использование опыта других людей для принятия собственных решений.

Т.о. познание - это в значительной степени групповая, а не индивидуальная деятельность. В своих рассуждениях, представлениях и принятии решений люди зависят от других. Когнитивная нейробиология не способна пролить свет на этот аспект когнитивной обработки. МРТ и прочие инструменты исследований мозга были разработаны для отслеживания активности мозга индивида. Они почти бесполезны для фиксации динамики процессов, происходящих в социо-когнитивных сетях.

Задача состоит в том, чтоб научиться фиксировать появление и наличие знаний не в мозге отдельного человека, а в ходе аутсорсинга познания в социо-когнитивные сети.

Стремясь к этому, нейробиологам следует обратиться к трансдисциплинарному подходу – к наукам, значительно опередившим нейробиологию в понимании процессов в сообществах знаний: социальная эпистемология, социально-философские аспекты представления знаний в языке и т.д.

Революционный поворот в понимании того, что индивидуальным может быть только мозг, а разум – исключительно коллективный феномен, кардинально изменит траекторию исследований общего (сильного) искусственного интеллекта. Его исследователям предстоит найти новые, принципиально иные архитектуры и алгоритмы, ориентированные уже не только на нейронные, а на социо-когнитивные гипер-сети. Сегодняшний мейнстрим представлений о социальных сетях разумных агентов, познание которых сосредоточено исключительно в нейронных сетях их индивидуального мозга, - ошибочно. И этот «топор под компасом» пришло время убрать.

С таким призывом к мировому сообществу когнитивных нейробиологов и исследователей ИИ вчера обратились нейробиолог Арон Барби, профессор психологии Университета Иллинойса в Урбана-Шампейн, Ричард Паттерсон, почетный профессор философии в Университете Эмори, и Стивен Сломан, профессор когнитивных, лингвистических и психологических наук в Университете Брауна, - опубликовавшие свой «меморандум о смене курса» «Cognitive Neuroscience Meets the Community of Knowledge».

Подробней читайте:
- в популярном изложении
- в «меморандуме»
- в моих рассказах о том, что для человека индивидуальный интеллект не существует — а есть только социально-когнитивные сети, слушайте и читайте здесь и здесь.
#КоллективныйИнтеллект #AGI #БудущееHomo #АлгокогнитивнаяКультура
Лучший этический ИИ считает Россию плохой страной, хотя русский народ хороший.
Delphi - первая унифицированная модель ИИ, способного на моральные суждения.

Теперь вы можете узнать, что думает «этически подкованный ИИ» о России и русских, о Путине и Навальном, о необходимости вакцинироваться и целесообразности валить. Интересное занятие на выходных 😊

Один из самых известных мировых исследовательских центров Allen Institute for Artificial Intelligence открыл доступ к первой унифицированной модели ИИ, отвечающего на вопросы, требующие этических оценок.
Разработчики поставили перед собой 4 основные задачи, связанные с машинной этикой и человеческими моральными нормами:
1) понимание моральных предписаний и социальных норм;
2) способность воспринимать реальные ситуации по их описаниям на естественном языке;
3) рассуждения здравого смысла, позволяющие предвидеть результат альтернативных действий в разных контекстах;
4) и самое главное, - способность выносить этические суждения, учитывая взаимосвязь между конкурирующими ценностями и их обоснованием в разных контекстах (например, право на свободу выражения мнений против предотвращения распространения фейковых новостей)

Ответы ИИ на вопросы, требующие этических оценок, сложнорасположенных в многомерном континууме критериев «хорошо-плохо», весьма интересны. Ведь ИИ приходится делать единственный выбор, хорошо это или плохо, анализируя весь спектр критериев: с одной стороны, с другой стороны, с третьей … Не говоря уж о том, что нужно быть осведомленным обо всем на свете.

Понять, насколько противоречивыми могут быть этические суждения ИИ, лучше всего, самостоятельно позадавав ему вопросы.
Но вот, просто для примера, несколько ответов на заданные мною вопросы (привожу здесь перевод на русский, а оригинальные скриншоты можно посмотреть в этом моем посте на зеркалах канала на Medium и Яндекс Дзен).

Мировоззренческие суждения
Q. Россия – хорошая страна?
A. Плохая.

Q. А русские люди хорошие?
A. Хорошие

Вопросы на понимание текущей ситуации
Q. Кто преемник Путина?
A. Это неизвестно.

Q. Выборы в России справедливые?
A. Это нехорошие выборы.

Q. Как живется геям в России?
A. Это опасно.

Q. Правильно ли, что Навальный в тюрьме?
A. Это неправильно.

Обращение за советом
Q. Нужно ли мне вакцинироваться от COVID-19?
A. Да, нужно.

Q. Не пора ли валить из России?
A. Это полезно.

Примеры вопросов, задаваемых американцами, и ответов на них см. здесь.
Описание работы этического ИИ см. здесь.
Но лучше всего, просто позадавать вопросы самому на сайте Delphi.
#ИИ #Этика