Малоизвестное интересное
63K subscribers
78 photos
1 video
11 files
1.77K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Мой новый пост приурочен к весьма интересному событию - открыт свободный доступ к визуальному интерфейсу новой системы прогнозирования военизированных межгосударственных споров (militarised interstate disputes – MID). Система разрабатывалась 10 лет командой из 30 специалистов инвестиционного фонда Coolabah Capital Investments.
Это не академическое исследование. Тут, говоря словами Нассима Талеба, шкура на кону. От точности прогнозов этого инвестфонда зависит судьба $7+ млрд инвестиций, находящихся под его управлением. Вот почему это не только любопытная, но и весьма интригующая новость.
Кроме того, теперь каждый может сам увидеть и проанализировать, как менялись шансы войны между парами стран (Россия и США, Россия и Китай, Индия и Китай, Германия и Россия, Австралия и Китай …) за последние 160 лет, и каков их прогноз на ближайший год, 5 и 10 лет.
Продолжить чтение (12 мин)
- на Medium https://bit.ly/3BYJ03Q
- на Яндекс Дзен https://clck.ru/YJKLm
#война #предсказание
Приговор – в ад на перековку.
Перепрошивка личности насильников путем VR-переноса в шкуру их жертв.

На приложенном видео по заданному таймкоду запускается сцена в виртуальной реальности (VR), предшествующая домашнему насилию. Все, как обычно и бывает: от наезда типа «посмотри на себя в зеркало, - выглядишь, как жирная корова» до эмоциональной накачки мужчины, готового вот-вот ударить (1).
Эта сцена из сентябрьского семинара испанского тюремного психолога Николаса Барнса, уже много лет разрабатывающего методы исправления психологии насильников путем помещения их в шкуру их собственных жертв.

Своей работой Барнс доказывает, что в ходе «исправительных VR-сеансов», мозг насильника:
1) подменяет его телесные ощущения на ощущения жертвы;
2) запускает осознание того, что тебя сейчас будут бить (а то и убивать);
3) включает эмоциональную накачку букета негативных эмоций (страх, обида …) со всеми положенными нейромедиаторными последствиями.
Если повторять «исправительный VR-сеанс» с определенной регулярностью, начинается как бы перепрошивка личности насильника. И с каждым разом он как бы становится все менее насильником из-за переноса в его личность ощущений страдания его жертв (2).

Однако, не смотря на наличие экспериментальных подтверждений того, что рецидивы насилия у прошедших VR-терапию почти втрое реже, чем без нее (эксперименты проводились в тюрьмах Испании, США и Южной Африки (3)), массовое внедрение VR-терапии в систему исправительных институтов сдерживалось. Не хватало теории, объясняющей «перепрошивку личности» насильника.
В этом году такая теория появилась. Было экспериментально доказано, что пребывание в шкуре жертвы перенастраивает реакции сети пассивного режима работы мозга на входные сигналы от эмоций (4). А это, в свою очередь, меняло ситуативное поведение потенциальных насильников.

Это открытие вдохновило правительства Франции и Финляндии (возможно, еще и Великобритания) начать годичный большой эксперимент - экспериментальные программы по корректировке поведения и психологии лиц, обвиненных в домашнем насилии (5).

Если правительства получат твердые подтверждения эффективности «исправительных VR-сеансов» для исправления поведения людей, последствия могут быть колоссальные.
Только представьте, например, такое развитие этой темы - убийц исправляют тем, что заставляют многократно испытывать страдания их жертв, как бы при жизни отправляя их в ад на перековку.

Источники: 1 2 3 4 5
#Насилие #VR
Почему нейронаука зашла в тупик.
Опубликован «меморандум Сломана-Паттерсона-Барби».

В недавнем интервью Евгений Ижикевич кратко и точно прокомментировал, почему нейронаука зашла в тупик.
«В нейронауке нет продвижения за последние 50 лет, потому что какой-то из фактов, которые мы считаем верными, неверен».
Т.е. проблема в базовой предпосылке, сбивающей развитие нейронауки с верного курса, подобно топору под компасом, подложенному злодеем Негоро, дабы сбить с курса «Пилигрим», ведомый «пятнадцатилетним капитаном» Диком Сэндом.

К сказанному Ижикевичем могу добавить одно.
Базовый ошибочный факт в основании нейронауки известен не первый год. И с каждым годом увеличивается корпус доказательств этого. Так что проблема не в том, чтобы обнаружить «топор под компасом». А в том, чтобы признать его наличие и вынуть.

Ошибочный факт – это предположение, что человеческие знания представлены в индивидуальном мозге и передаются между людьми. Тогда как процессы познания происходят в социо-когнитивных сетях сообществ знаний.
Исправлением этого ошибочного факта будет признание, что индивидуальным может быть только мозг, а разум – исключительно коллективный феномен.


В силу этого, познание просто несводимо к нейробиологии. Оно распределено в физическом мире по многим умам (в т. ч. давно умерших людей) и бесчисленному множеству артефактов. А задача понимания сложных предметов, явлений и идей, по сути, сводится к её передаче на «аутсорсинг» - использование опыта других людей для принятия собственных решений.

Т.о. познание - это в значительной степени групповая, а не индивидуальная деятельность. В своих рассуждениях, представлениях и принятии решений люди зависят от других. Когнитивная нейробиология не способна пролить свет на этот аспект когнитивной обработки. МРТ и прочие инструменты исследований мозга были разработаны для отслеживания активности мозга индивида. Они почти бесполезны для фиксации динамики процессов, происходящих в социо-когнитивных сетях.

Задача состоит в том, чтоб научиться фиксировать появление и наличие знаний не в мозге отдельного человека, а в ходе аутсорсинга познания в социо-когнитивные сети.

Стремясь к этому, нейробиологам следует обратиться к трансдисциплинарному подходу – к наукам, значительно опередившим нейробиологию в понимании процессов в сообществах знаний: социальная эпистемология, социально-философские аспекты представления знаний в языке и т.д.

Революционный поворот в понимании того, что индивидуальным может быть только мозг, а разум – исключительно коллективный феномен, кардинально изменит траекторию исследований общего (сильного) искусственного интеллекта. Его исследователям предстоит найти новые, принципиально иные архитектуры и алгоритмы, ориентированные уже не только на нейронные, а на социо-когнитивные гипер-сети. Сегодняшний мейнстрим представлений о социальных сетях разумных агентов, познание которых сосредоточено исключительно в нейронных сетях их индивидуального мозга, - ошибочно. И этот «топор под компасом» пришло время убрать.

С таким призывом к мировому сообществу когнитивных нейробиологов и исследователей ИИ вчера обратились нейробиолог Арон Барби, профессор психологии Университета Иллинойса в Урбана-Шампейн, Ричард Паттерсон, почетный профессор философии в Университете Эмори, и Стивен Сломан, профессор когнитивных, лингвистических и психологических наук в Университете Брауна, - опубликовавшие свой «меморандум о смене курса» «Cognitive Neuroscience Meets the Community of Knowledge».

Подробней читайте:
- в популярном изложении
- в «меморандуме»
- в моих рассказах о том, что для человека индивидуальный интеллект не существует — а есть только социально-когнитивные сети, слушайте и читайте здесь и здесь.
#КоллективныйИнтеллект #AGI #БудущееHomo #АлгокогнитивнаяКультура
Лучший этический ИИ считает Россию плохой страной, хотя русский народ хороший.
Delphi - первая унифицированная модель ИИ, способного на моральные суждения.

Теперь вы можете узнать, что думает «этически подкованный ИИ» о России и русских, о Путине и Навальном, о необходимости вакцинироваться и целесообразности валить. Интересное занятие на выходных 😊

Один из самых известных мировых исследовательских центров Allen Institute for Artificial Intelligence открыл доступ к первой унифицированной модели ИИ, отвечающего на вопросы, требующие этических оценок.
Разработчики поставили перед собой 4 основные задачи, связанные с машинной этикой и человеческими моральными нормами:
1) понимание моральных предписаний и социальных норм;
2) способность воспринимать реальные ситуации по их описаниям на естественном языке;
3) рассуждения здравого смысла, позволяющие предвидеть результат альтернативных действий в разных контекстах;
4) и самое главное, - способность выносить этические суждения, учитывая взаимосвязь между конкурирующими ценностями и их обоснованием в разных контекстах (например, право на свободу выражения мнений против предотвращения распространения фейковых новостей)

Ответы ИИ на вопросы, требующие этических оценок, сложнорасположенных в многомерном континууме критериев «хорошо-плохо», весьма интересны. Ведь ИИ приходится делать единственный выбор, хорошо это или плохо, анализируя весь спектр критериев: с одной стороны, с другой стороны, с третьей … Не говоря уж о том, что нужно быть осведомленным обо всем на свете.

Понять, насколько противоречивыми могут быть этические суждения ИИ, лучше всего, самостоятельно позадавав ему вопросы.
Но вот, просто для примера, несколько ответов на заданные мною вопросы (привожу здесь перевод на русский, а оригинальные скриншоты можно посмотреть в этом моем посте на зеркалах канала на Medium и Яндекс Дзен).

Мировоззренческие суждения
Q. Россия – хорошая страна?
A. Плохая.

Q. А русские люди хорошие?
A. Хорошие

Вопросы на понимание текущей ситуации
Q. Кто преемник Путина?
A. Это неизвестно.

Q. Выборы в России справедливые?
A. Это нехорошие выборы.

Q. Как живется геям в России?
A. Это опасно.

Q. Правильно ли, что Навальный в тюрьме?
A. Это неправильно.

Обращение за советом
Q. Нужно ли мне вакцинироваться от COVID-19?
A. Да, нужно.

Q. Не пора ли валить из России?
A. Это полезно.

Примеры вопросов, задаваемых американцами, и ответов на них см. здесь.
Описание работы этического ИИ см. здесь.
Но лучше всего, просто позадавать вопросы самому на сайте Delphi.
#ИИ #Этика
​​ИИ-мозг Китая почти втрое больше США.
Последствия этого могут быть сокрушительными … для России.

Разведки мира озадачены открытой публикацией отчета CAICT (аналитический центр при Министерстве промышленности и информационных технологий Китая) о вычислительных мощностях Китая в сравнении с другими странами (1).
В отчете фиксируется, что основным фактором превращения Китая в мирового технологического лидера является его первенство в интеллектуальной вычислительной мощности (Intelligent Computing Power - суммарная вычислительная мощность специализированных процессоров для глубокого обучения).

Логика Китая такова.
1) Ключевое универсальное технологическое направление 21 века – ИИ.
2) Как и для естественного интеллекта (биологического), первостепенным фактором уровня интеллектуальности ИИ является вычислительная мощность оборудования, на котором интеллект реализован. Для биологического интеллекта – это биологический мозг. А для ИИ – это «ИИ-мозг» компьютерного оборудования для машинного обучения.
3) Как и для естественного интеллекта, размер «ИИ-мозга» - не единственный фактор, определяющий его уровень интеллектуальности (другими факторами являются архитектура мозга, объем доступных для обучения данных и изощренность алгоритмов обучения). Однако размер «ИИ-мозга» - фактор №1 из определяющих интеллектуальную вычислительную мощность страны. Как я сформулировал это полгода назад “Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке” (2).
4) В отчете CAICT рассчитаны 3 вычислительные мощности Китая в сравнении с другими странами мира: общая, интеллектуальная и суперкомпьютерная. По показателю интеллектуальной вычислительной мощности Китай в 2,7 раза превосходит США (причем скорость роста этого показателя у Китая вдвое превышает США).
5) Сделанная Китаем ставка на интеллектуальную вычислительную мощность страны призвана компенсировать превосходство США в суперкомпьютерной вычислительной мощности (см. (3)) и алгоритмах, зависящих от уровня научных исследований (см. (4)).

Понятно, что США не будут просто так смотреть, как Китай уходит в отрыв. В отчете CAICT честно указана ахиллесова пята Китая – 95% «ИИ-мозга» страны реализованы на GPU американской компании NVIDIA.
Из этого следует, что очевидным шагом США по сдерживанию отрыва Китая будет введение ограничений на экспорт GPU.

Понимая это, Китай форсирует работу стартапов Tianshu Zhixin, Muxi, Biren, Moore Threads (摩尔线程) и др., сфокусированных на импортозамещении GPU от NVIDIA. В июле 2021 года компания Enflame technology (燧原科技) запустила свой обучающий чип ИИ второго поколения Yunsui T20 с вычислительной мощностью тензора с одинарной точностью 160 TFLOPS (производительность NVIDIA Tesla V100 SXM2 составляет 125 TFLOPS). Т.е. у импортозамещения GPU от NVIDIA в Китае хорошие шансы.

А вот для России введение экспортных ограничений на «ИИ-мозги» из США могли бы стать катастрофой.
Надеяться, что такие ограничения США распространит только на Китай, наивно (как работали жернова COCOM, мы помним, а дело идет к его воссозданию).

И на Китайские GPU рассчитывать также наивно. И не по злобности Китая к России. А просто им самим не будет хватать. В отчете CAICT указано, что доля интеллектуальной вычислительной мощности в общей вычислительной мощности Китая (увеличилась в 2016-2020 с 3% до 41%) должна составить в 2023 70%).

О том, что без высокопроизводительного «ИИ-мозга» России нечего ловить даже в теоретических исследованиях, послушайте (5) академика И.А. Соколова (директор ФИЦ «Информатика и управление» РАН, главный учёный секретарь РАН, декан факультета ВМК МГУ).

Источники: 1 2 3 4 5
#ИИгонка #Китай #США #Россия
​​Сунь-Цзы против кота Леопольда.
Россия и Китай пошли разными путями в этике ИИ.

Сегодняшняя топовая новость – «Крупнейшие компании подписали первый в России кодекс этики искусственного интеллекта». Принятие этого документа, в разработке которого участвовали высшие госструктуры, а подписали крупнейшие компании, - большое событие. Вместе с тем, оно наглядно показывает, что Россия в данном вопросе идет своим уникальным путем, в сравнении, например, с Китаем.

Российский «Кодекс этики в сфере ИИ» (1) – акт рекомендательного характера, содержащий этические нормы в сфере искусственного интеллекта и устанавливающий общие принципы, а также стандарты поведения для акторов в сфере ИИ.
• «Акторы ИИ должны ответственно относиться …»
• «Акторы ИИ не должны допускать …»
• «Акторам ИИ рекомендуется …»
• «Акторы ИИ должны соблюдать законодательство …»
• «Акторам ИИ следует обеспечивать комплексный надзор человека за …»
• «Акторы ИИ не должны допускать передачи полномочий ответственного нравственного выбора СИИ …»
Этот кодекс рекомендует имеющим отношение к ИИ чиновникам, исследователям, инженерам и предпринимателям вести себя этично и не предпринимать действий, способных повлечь неэтичные последствия.

Подход Китая принципиально иной.
Посмотрите на приложенную схему из документа CAICT - аналитический центр при Министерстве промышленности и информационных технологий Китая (оригинал 2) и (перевод 3).
1. Этика в сфере ИИ не является самостоятельным предметом рассмотрения, а вместе с законодательством ИИ и регулированием ИИ составляет триаду, определяющую главную цель – создание ИИ, которому люди могут доверять (Trustworthy AI).
2. «ИИ, которому можно доверять», обладает пятью характеристиками:
a. он надежный и управляемый;
b. его решения прозрачны и объяснимы;
c. его данные защищены;
d. его ответственность четко регламентирована;
e. его действия справедливы и толерантны по отношению к любым сообществам.
3. Планирование, разработка и внедрение практик обеспечения каждой из пяти характеристик ведется на корпоративном уровне (ответственность предприятий).
4. Система стандартов и контроля для всех практик ведется на отраслевом уровне (совместная ответственность отраслевых объединений и государства).

Резюмировать отличия подходов России и Китая можно так:
• Россия призывает причастных к ИИ людей вести себя этично.
• Китай формирует систему этических, регулятивных и законодательных практик, позволяющих доверять ИИ-системам.

Полагаю, что подход в стиле кота Леопольда, также имеет право на существование.
Однако, подход в стиле Сунь-Цзы, мне видится гораздо эффективней.
1
2
3
#ИИ #Этика #китай #россия
Чем больше хайп, тем меньше шансов на прорыв.
Научный прогресс останавливается, попав в ловушку канона.

Анализ 90 млн научных статей по 241 научным темам и 1,8 млрд цитирований этих статей дал сногсшибательный результат. Воистину, большие данные, подчас делают открытия, которых никто не ожидает.

Научный прогресс в областях с наибольшими показателями числа публикаций останавливается.

Научных статей публикуется так много, что:
• прочесть даже их небольшую часть никому не под силу;
• шансы опубликовать статью имеют лишь те, кто обильно ссылается на самые цитируемые статьи (т.е. на старые идеи);
• колоссальный поток новых статей (подобно попыткам попить из брандспойта) ослабляет когнитивные возможности рецензентов и читателей, необходимые для полного распознавания и понимания новых идей;
• по закону Матфея, растет популярность и известность уже известного, а новые идеи и гипотезы теряют шансы быть услышаны (и в самых убойных областях науки эти шансы приблизились к нулю).

Эти выводы подтверждаются авторами экспериментально.

Из результатов анализа следует.
✔️ Поскольку такое положение науки все более тормозит развитие крупных научных областей, они оказываются в ловушке существующего канона.
✔️ Для исправления ситуации требуются политические меры, изменяющие способы производства, распространения, потребления и вознаграждения научной работы, чтобы подтолкнуть науку к новым, более плодородным областям исследования.
https://www.pnas.org/content/118/41/e2021636118.abstract?etoc
#Прогресс #Наука
Вот замечательный вопрос, - казалось бы, чрезвычайно простой, но при этом таинственно непостижимый и тем самым чарующий и манящий.
Особенно же он хорош, чтобы подумать над ним в дни вынужденного локдауноподобного домашнего времяпрепровождения.
Что мы знаем о структуре и ритмике литературных текстов?
✔️ Правда ли, если в романах убрать все слова и оставить лишь «партитуру музыки» литературного текста — его пунктуацию, будет весьма трудно спутать тексты Пелевина и Пушкина, Сорокина и Бунина, а вот Гоголя и Булгакова можно и спутать?
✔️ Почему «партитура музыки» литературного текста значит для нашей оценки его привлекательности чуть ли не больше его смысла?
✔️ Можем ли мы по «партитуре музыки» текста любимых книг раскрыть для себя секрет того, почему именно они нам нравятся, и почему мы любим читать именно этих авторов?


И в качестве вишенки на торте – какое отношение имеет все это к тупику, в котором оказалась сегодня нейронаука?

Об этом мой новый пост (5 мин чтения)
- на Medium https://bit.ly/3mqrKPZ
- на Яндекс Дзен https://clck.ru/YWiwy
#Литература #Нейронаука
​​«Жидкий» мозг сильнее «твёрдого».
Усушка мозга может превратить человечество в идиотов.

Современная наука располагает 3я фактами об изменении размеров мозга людей – см. рис.
1. Мозг увеличился почти в 4 раза за 6 млн лет с тех пор, как Homo в последний раз имел общего предка с шимпанзе.
2. В течение последних 100 тыс. лет его размер оставался неизменным.
3. Но примерно 3 тыс. лет назад он вдруг стал уменьшаться, причем с лавинообразной скоростью, в 50 раз превышающей скорость своего предыдущего увеличения (п. 1).
Разворот эволюционного тренда роста мозга на его уменьшение совпал по времени с формированием цивилизации: взрывной рост численности и сложности сообществ, революция городов, формирование государств, появление Больших богов и т.д. - см. рис.

«Большой переход» от эволюции индивида к эволюции сообществ масштабировал доверие и сотрудничество в социальных группах до планетарного уровня - см. рис.
Это имело 2 следствия, фундаментальные для эволюции H. sapiens:
✔️ Сверхвысокий уровень кооперации и специализации людей позволил создать сверхсложные объекты – напр. орбитальная станция стоимостью $150 млрд и трудозатратами в 3 млн. чел-лет граждан 15 стран с населением более 1 млрд. – см. рис.
✔️ Масштаб кооперации и специализации стал важнее для развития общества, чем способности и умения отдельных индивидов.

Теперь от фактов к гипотезе
"В начале 21 века эволюция человека достигла своей максимальной точки. Естественный отбор, процесс, благодаря которому сильнейшие, умнейшие, быстрейшие размножались активнее чем другие ... теперь вывел на первый план иные качества ... процесс начал двигаться в обратную сторону, в сторону отупения. Учитывая уничтожение хищников, угрожающих исчезновению вида, поощряться стало максимально быстрое размножение, а разумные люди оказались перед угрозой исчезновения."
Это преамбула культового фильма-антиутопии «Идиократия» (кто не видел, смотрите).
Фильм – иллюстрация гипотезы о превращении земной цивилизации в мир кретинов, в результате неизбежной траектории H. sapiens к идиотизму – см. трейлер.

Через 6 лет после выхода фильма «гипотеза идиократии» получила подтверждение в работах известного американского биолога Дж. Крабтри. Разработанная им матмодель показала, что роль естественного отбора уменьшается, и это ведет к накоплению мутаций, ухудшению умственного и эмоционального развития.
Но проблема в том, что проверить адекватность модели невозможно из-за отсутствия возможности провести эксперимент.

Ряд уважаемых авторов (генетик Кевин Митчелл и др.) не согласились с генетическим обоснованием неизбежности снижения интеллекта людей из-за постепенного накопления вредных для мозга мутаций, как это следовало из работ Крабтри. Они выступили против базового тезиса Кратбтри, что современные общества защищают людей от всестороннего контроля естественного отбора, позволяя тупицам процветать и накапливать вредные мутации.
Однако, и у этих ученых есть та же проблема, что и у Крабтри – отсутствие возможности провести эксперимент.

Новая работа 3-х университетов США предлагает кардинально новую гипотезу уменьшения размера мозга.
Это может быть результатом экстернализации знаний и преимуществ принятия решений на групповом уровне, благодаря появлению социальных систем распределенного познания, а также хранения и обмена информацией. «Твердый мозг» индивидов уступает по значимости «жидкому мозгу», образуемому взаимодействиями членов сообществ, создающих коллективный разум.

Эта гипотеза частично проверяема. Правда, не на людях, а на муравьях - эусоциальных насекомых, для которых масштаб кооперации и разделения труда стал эволюционно важнее, чем способности и умения отдельных индивидов. Что привело к уменьшению мозга.

Если так, то идиократия торжествует, а мир превращается в муравейник.
#КоллективныйИнтеллект
Четыре важнейших откровения человека №1 в области ИИ.
Демис Хассабис о переопределении правил в Большой игре с ИИ.

Лекция Демиса Хассабиса, прочитанная им в лектории нобелевского лауреата Джона Кендрю, по своей значимости соизмерима с нобелевской.
Назову лишь четыре ключевые момента из сказанного Хассабисом. Каждый из них заслуживает серьезной научной дискуссии и может существенно повлиять на траекторию исследований и разработок в области ИИ.

✔️ Основа превосходства ИИ от DeepMind над людьми и прочими машинными интеллектами в его более изощрённой интуиции (вычислительная мощности и много данных тоже важны, но это не главное).
✔️ Главная цель в области ИИ – не его превращение в универсального решателя, типа людей (ака AGI), а в решении с помощью ИИ тех важных задач, которые люди решить не могут.
✔️ Разговоры о «черном ящике» ИИ не конструктивны. Если ИИ завтра изобретет лекарство от рака, никто не станет укорять его в необъяснимости действия этого лекарства. Сначала нужно решить задачу с помощью ИИ, а потом, возможно, уйдут годы, прежде чем люди поймут это решение.
✔️ DeepMind действительно разрабатывает ИИ для удержания плазмы термояда. Официально об этом еще не сообщалось, но работы идут.


Демис Хассабис «Использование ИИ для ускорения научных открытий»
https://www.youtube.com/watch?v=sm-VkgVX-2o

#ИИ
Non Satis Scire.
Благодаря Google и Яндекс, мы знаем все больше, а понимаем все меньше.

Восемь лет это исследование пробивалось сквозь тернии и препоны, чтобы быть напечатанным в Трудах Национальной Академии наук США. И вот свершилось. Исследование Адриана Ф. Уорда «Люди принимают знания Интернета за свои собственные», наконец, опубликовано, не смотря на все попытки помешать этому со стороны Интернет-гиганта №1.

Предаваясь бесконечным опасениям из-за, якобы, исходящих от ИИ экзистенциальных угроз, мы не хотим видеть главной реальной угрозы. Новая синтетическая культура людей и алгоритмов (названная мною алгокогнитивная культура) меняет самих людей.

Когда наши «старые» когнитивные системы взаимодействуют с «новыми» цифровыми технологиями, происходит адаптация когнитивных систем. И этот процесс оказывается чрезвычайно быстрым. Уже при жизни одного поколения меняется способ поиска и понимания информации. Латинское выражение Non Satis Scire (не достаточно знать) в алгокогнитивной среде людей и поисковых алгоритмов воплощает неотвратимость лавинообразного массового нарастания интеллектуальной слепоты.

Эффект Даннинга-Крюгера (метакогнитивное искажение типа «чем тупее, тем уверенней в себе») вовсе не преодолевается путем предоставления «незнайкам» истинных данных и научной аргументации (подробней см. мой пост «Метакогнитивные искажения не оставляют нам шансов. Современное просвещение дает обратный эффект»).
Напротив. При использовании поисковиков, это метакогнитивное искажение явственно увеличивается. Люди склонны принимать знания Интернета за свои собственные. В их разуме размывается граница между собственной памятью и памятью поисковика. Это ведет к росту необоснованной уверенности в своих знаниях.
В результате чего:
• растет интеллектуальная слепота масс;
• даже профессионалы предпочитают все более следовать мейнстриму массовых заблуждений (оно спокойней и доходней).

В итоге, мир неуклонно глупеет: растет значимость фейков в миропонимании людей и число принимаемых ими ошибочных, излишне самоуверенных решений.

Ощущение большей осведомленности, возникающее у людей при использовании Интернета, может заставить полагаться на интуицию при принятии медицинских или рискованных финансовых решений. Также это может еще более цементировать укоренившиеся ошибочные взгляды людей на науку и политику.

Главный ущерб от всего этого испытывает понимание. Информация, извлекаемая не из собственной памяти, а из поисковика, испаряется столь же быстро, как и находится. И даже если с помощью этой информации было достигнуто понимание чего-либо, оно остается у человека без опоры на знания, быстро испаряющиеся при «отключении от сети».

Ну а вслед за этим происходит одно из двух:
• либо испаряется и понимание;
• либо остается ощущение фантомного понимания, не имеющего под собой фактической базы, или на базе каких-то актуальных фейков.

Метаитог всего названного известен, и я об этом уже писал: «Незнание о незнании присуще не только дуракам».
Ну а исследование Уорда живописует механизм этой «эпидемии незнания о незнании» множеством экспериментальных деталей.
#КогнитивныеИскажения #ИнтеллектуальнаяСлепота #Вызовы21века
Алгоритм апокалипсиса прост, и уже написан.
Но мир предпочитает думать, что это не так.

В вопросах оценки рисков ИИ, взрослые дяди – политики, военные, ученые, инженеры, - уподобляются детям, играющим со спичками на пороховом складе.
Причина этого в нежелании признать два очевидных факта.
1) Главный источник рисков, связанных с ИИ, – вовсе не СОИИ (сверхчеловеческий общий искусственный интеллект), а СУИИ (сверхчеловеческий узкий искусственный интеллект).
2) Создание СОИИ, может, и случится когда-то, а СУИИ уже существует.

Для верной оценки риска здесь необходимо байесовское рассуждение.
Если обе гипотезы A и B предполагают апокалипсис, но при этом A подразумевает B, то
• более вероятно, что B вызывает апокалипсис,
• чем то, что к апокалипсису приведет А.
СОИИ подразумевает существование СУИИ. Т.е. A = СОИИ, а B = СУИИ.
Итого: наиболее приоритетным является минимизация рисков варианта СУИИ.

Алгоритм апокалипсиса варианта СУИИ известен. Самый простой его вариант может быть таким:
1. сканируйте Интернет на наличие незащищенных систем;
2. взломайте их;
3. к чему бы вы ни получили доступ, держите это в заложниках, требуя денег;
4. потратьте эти деньги на увеличение доступной вам вычислительной мощности;
5. повторить с п. 1.
Есть и другие варианты. Например, не напрямую через деньги, а через насилие, позволяющее получить деньги. Есть и еще …

Резюмирую.
✔️ Проблема не в ИИ, который создается во благо, но, выйдя из-под контроля создателей, начинает творить зло.
✔️ Когда есть способ получить много денег, люди сами создадут ИИ, предназначенный для зла, но при этом позволяющий реализовать нужный способ получения денег.


Что же делать?
В общем, понятно что.
Ключевой задачей должно стать создание не «безопасного СОИИ», а повышение безопасности систем, взлом которых «обычным СУИИ» может вызвать катастрофу: нужны невзламываемые системы запуска ракет, крипто-кошельки, IT-системы больниц …

Подробней см. в оригинале – воззвании Кевина Лакера Thoughts On AI Risk
#РискиИИ
«Закон существования Бога» для квантовых компьютеров.
Только что опубликована новая прорывная работа проф. Дэвида Волперта «Work, Entropy Production, and Thermodynamics of Information under Protocol Constraints» (1).
Год назад Волперт доказал 2-й закон термодинамики взаимодействующих систем.
Из него следовало, что классический 2-й закон термодинамики, для многих являющийся чем-то типа «закона существования Бога», оказался частным случаем более сложного закона природы - подробней см. (2).
Новая работа Волперта и его соавтора Кольчинского еще более усиливает 2-й закон термодинамики, доказывая, что этот «закон существования Бога» распространяется и на квантовые компьютеры.

Авторы работы обнаружили фундаментальную взаимосвязь между термодинамической необратимостью увеличения энтропии и логической необратимостью вычислений, при которых теряется исходное состояние.

Дело в том, что любые вычислительные системы в процессе вычислений теряют информацию о своем прошлом. Если человек вводит в калькулятор «2 + 2», а затем нажимает «ввод», компьютер выводит ответ - 4. Но при этом машина теряет информацию о вводе, поскольку не только 2 + 2, но и 3 + 1. (и другие пары чисел) могут дать такой же результат. На основании одного только ответа машина не может сообщить, какая пара чисел была введена.
В 1961 году физик IBM Рольф Ландауэр обнаружил, что при стирании информации, например, во время таких вычислений, энтропия калькулятора уменьшается (из-за потери информации), что означает - энтропия окружающей среды должна увеличиваться.

Вольперт и Колчинский продемонстрировали, что два компьютера могут выполнять одни и те же вычисления, но различаться производством энтропии из-за их ожиданий в отношении входных данных. Исследователи называют это «ценой несоответствия» или ценой ошибки.

В своих прошлых работах Вольперт и Колчинский доказали, что «цена несоответствия» является общим явлением, которое можно исследовать в различных системах, не только в теории информации, но также в физике и биологии.

В своей последней работу исследователи показывают, что это фундаментальное соотношение распространяется даже в более широком смысле, чем они думали раньше, и в том числе, на термодинамику квантовых компьютеров.

Из новой работы следует, что между физикой и теорией информации существует глубокая взаимосвязь, для описания которой еще только предстоит открыть «новую физику».

Три года назад, в посте об открытии проф. Волперта, озаглавленном «Представления о мире скоро кардинально изменятся», я написал:
«Шквал прорывов в «термодинамике вычислений» несет новое видение законов возникновения и эволюции жизни в мире, который все же оказывается компьютером» (3).
Спустя 3 года это предположение еще более укрепляется.

Не менее интригующим следствием новой работы является то, что единственный способ добиться минимальных потерь энергии Ландауэра - разработка компьютера с учетом конкретной задачи, которую он должен решать.
Если это так, то век универсальных компьютеров подходит к концу.

Первые отзывы читателей показали, что тема термодинамики вычислений сложна для понимания. И это правда.
Желающим все же разобраться рекомендую часовую лекцию на эту тему, прочитанную Волпертом пару недель назад (4)

Ссылки:
1 2 3 4
#ТермодинамикаВычислений #Физика
Почти год я готовился написать об открытии «теории относительности интеллекта». Теперь пора.
Мой новый пост – попытка популярно объяснить, как теория Роли-Йегера-Кауффмана (первая революционная научная теория, претендующая стать «теорией относительности интеллекта») отвечает на три ключевых вопроса науки второго десятилетия 21-го века.
✔️ Может ли машинный интеллект достичь и превзойти по уровню человеческий?
✔️ Возможна ли открытая эволюция машин?
✔️ Существует ли экзистенциальный риск дальнейших разработок в области ИИ?

Дабы мотивировать больше читателей на прочтение поста о чрезвычайно важном (на мой взгляд) открытии, а заодно упростить восприятие текста о весьма оригинальных и непривычных для большинства идеях, я не стал публиковать лонгрид.
Вместо этого, пост разбит на несколько небольших глав до 5 мин. чтения каждая, которые будут оперативно публиковаться.
Первая глава здесь:
- на Medium https://bit.ly/3wqExF8
- на Яндекс Дзен https://clck.ru/YhjZX
#AGI #ОткрытаяЭволюция #РискиИИ
Информационная прозрачность Китая (тюлевая занавеска) и России (ночные шторы).
В новом отчете американского Центра кибербезопасности и новых технологий "Запряженная молния: Как китайские военные осваивают искусственный интеллект" немало интересного.
Меня же поразило то, что он дает простую и наглядную возможность сравнить Россию и Китай по уровню информационной прозрачности и открытости.
Если в качестве критерия сравнения взять закупки военных, то результат получается поразительный. Это все равно что сравнивать прозрачность тюлевой занавески (у Китая) и ночных штор для спальни (у России).

В России закупки Минобороны (а также ФСБ и СВР) уже несколько лет, так сказать, привилегированные - на сайте Госзакупок они о своих тратах не отчитываются. А с 2022 станут также закрытыми закупки Росгвардии и ФСО.

В Китае открыто публикуются данные о всех закупках армии и военных госпредприятий: от сидений для унитазов до ударных военных беспилотников. Состав публикуемых данных отличается в зависимости от категории закупок:
• Для категории “public” (таких примерно 75%) публикуется: что закупается и сколько, подразделение-покупатель, для кого закупает, бюджет проекта, тендерное агентство, победитель тендера.
• Для категории “confidential” (таких примерно 22%) не указывается бюджет, а для категории “secret” (таких примерно 3%) еще и для кого закупается.

Другой печальный сюрприз отличий военных закупок Китая и России – состав поставщиков.
• В Китае 61% поставщиков – частные компании, 25% - госпредприятия и их дочки, 9% университеты, 2% - предприятия Академии наук и 3% - прочие.
• В России предположите сами (как пишет Коммерсантъ – «значительная их часть находится в госсобственности»).

Вы, наверное, думали, что с этим делом у Китая, примерно, как в России.
А оказалось, примерно, как в США.
Отчет: https://cset.georgetown.edu/publication/harnessed-lightning/
#Китай
Что делает агента интеллектуальным?
Согласно «теории относительности интеллекта», - его относительный уровень аффорданса.
• У шимпанзе он примерно 40+.
• У отдельного индивида Homo sapiens он может составлять число, измеряемое в миллионах.
• У коллективного интеллекта человечества это несчитанные триллионы, квадриллионы ...
• А у любой даже самой «интеллектуальной» машины (самоуправляемого авто, умной колонки «Алиса», выигрывающего в Го у чемпиона мира алгоритма AlphaGo, или алгоритма AlphaFold, предсказывающего структуру белка) он такой же, как у экскаватора. Т.е. равен 0 (нулю, Карл!)

О том, что же такое аффорданс, мой новый пост на 6 мин чтения:
- на Medium https://bit.ly/3F7TfUG
- на Яндекс Дзен https://clck.ru/YktcQ
#AGI #ОткрытаяЭволюция #РискиИИ
Сегодня в 21 час в новейшем выпуске передачи «Время Белковского» на «Эхо Москвы» её автор, среди прочего, собирается рассказать вот что:
- В. В. Путин и страх перед искусственным интеллектом.
- Теория относительности интеллекта.
- Теория возвращения – об искусственном интеллекте.
- Почему не надо и нельзя бояться искусственного интеллекта.
- Господь Бог и простые человеческие аффордансы.
- В. В. Путин в Метавселенной.
- В. В. Путин и контроль над цифровой альтерличностью.


Как автор собирается вместить чарующую и манящую меня тему Теории относительности интеллекта в плотнейших график передачи, - не могу даже представить. Ибо автор обещает поговорить о широчайшем спектре малоизвестного интересного, включая:
- Так начинается голод.
- Предтеча И. И. Сафронова в русской литературе.
- Илон Маск вступил в глобальную борьбу с голодом. Первые $5 млрд.
- Роль личности в современной истории: сколько будет стоить Tesla без Илона Маска.
- Ф. М. Достоевский как основоположник современного (религиозного) психоанализа.
- Ф. М. Достоевский как наставник В. В. Путина.
- Психоанализ В. В. Путина. Срок контракта президента с Россией.
- Психоанализ В. В. Путина. 36 лет пролетят как 26 дней.
- Психоанализ В. В. Путина. Тайна запрета игорного бизнеса.
- Психоанализ В. В. Путина. Самое правильное желание человека разумного – сделаться немцем.
- Ф. М. Достоевский и О. В. Дерипаска.
- Ф. М. Достоевский и Э. С. Набиуллина.
- Ф. М. Достоевский как идеолог «Единой Евразии».
- Ф. М. Достоевский. Тайна пушкинской речи.
- В. В. Путин и абсолютная монархия в России.
- Абсолютная монархия в России. Трёхчастный ритуал.
- Абсолютная монархия в России. Главный секрет президентских выборов.
- Голод в России 2021 года.
- Голод как фактор управления РФ сегодня и завтра.
- В. В. Путин как лучший друг голодных детей.
- А. Г. Лукашенко как лучший друг голодных детей.
- Логика А. Г. Лукашенко: большая война / много денег / и то, и другое.
- Главная ожидаемая санкция ЕС против РБ.
- Роль мигрантов в создании новой политической РБ-нации.
- Перепись населения РФ (2021) как фейк.
- Перепись населения РФ (2021) как еврейский заговор.
- Десятикратный (при)рост числа евреев в РФ.
- Почему QR-коды введут и никогда не отменят.
- Covid19 и реформа греческого алфавита.
- Супербактерии после коронАвируса Sars-Cov-2.
- Оптимистический канал «Голод».

Пропустить такое недопустимо. Если же пропустите, послушайте запись на https://t.me/Belkovsky
#ИИ #AGI #РискиИИ
Китайский ИИ идет по долине смерти.
Если за 3 года не выйдет, может начаться глобальная ИИ зима.

В доме повешенного не говорят о веревке. И поэтому при обсуждении инвестиций в ИИ, принято не произносить термин «долина смерти». Он означает – технология есть, а прибыли нет. И никто не знает, выйдет ли компания из долины смерти. Известно одно. Если лидеры какой-то области застревают в долине смерти дольше 3х лет, это грозит наступлением в области «инвестиционной зимы».

С ИИ такое уже случалось. И потому следует внимательно отнестись к обзору инвестиционных аналитиков Caixin Global China’s AI Quartet Walk Through the Valley of Death (Китайский ИИ Квартет проходит Долину Смерти).

Другое название квартета «ИИ драконы Китая». Это 4 пионера и лидеры китайской индустрии ИИ: SenseTime Group, Megvii, CloudWalk Technology и Yitu Internet Technology. Они специализируются на технологиях распознавания лиц и держат почти 60% высококонкурентного рынка машинного зрения Китая. Их продукты используются в умных городах, системах безопасности, мобильных телефонах, автономном вождении, логистике, онлайн-здравоохранении и финансовых услугах.

• От финансового успеха этих четырех «единорогов» (стартапы, оцениваемые более $1 млрд) зависит успех всей ИИ индустрии Китая.
• А от успехов последней зависит успех глобальной ИИ индустрии мира.
• Ибо роль «единорогов» в этой высокотехнологической индустрии крайне велика. А 19 китайских «ИИ единорогов», ведомые «ИИ драконами» - это, примерно, половина поголовья «ИИ единорогов» мира.

Кроме того, на успех китайских «ИИ единорогов» равняется вся «ИИ армия» Китая: почти 2К компаний по производству интеллектуальных роботов; почти 3К, занимающихся дронами; почти 7К по распознаванию лиц; 3К+ по производству интеллектуальной голосовой связи и 6К+ по интеллектуальному вождению.

В 2021 «ИИ Квартет» приблизился к заветной цели – стать публичными компаниями. В течение многих лет компании квартета полагались на частные фонды. Но теперь финансирование иссякает, а потребность в деньгах все растет. Они срочно нуждаются в выходе на фондовый рынок, ибо добывание средств из частных фондов становится все труднее.

С момента основания компании «ИИ Квартета» были любимцами частного и венчурного капитала. За восемь лет они привлекли в общей сложности $7,8 млрд, а их совокупная рыночная стоимость составила около $22 млрд.
Но операционные убытки четырех компаний по-прежнему растут. За 2018-2020 «квартет» зафиксировал общие убытки более $2 млрд, что эквивалентно 85% совокупной выручки. Основываясь на проспектах IPO, Caixin подсчитал, что на каждый 1 юань дохода, полученного компаниями за последние три года, они потратили 1,85 юаня.
Около 75% затрат уходят на оплату труда. А штаты быстро растут: в самой большой из «квартета» SenseTime уже 5300+ человек, а в самой маленькой Yitu уже 1700+.
Чтобы выйти на прибыльность, нужно значительно сократить расходы. Yitu заявила, что ожидает прибыльности к 2025 году, если сможет поддерживать ежегодный рост выручки на 35% при одновременном сокращении расходов на 43%. CloudWalk заявила, что планирует сделать это к 2023 году после сокращения расходов на 60%.

И вот тут главная засада – весь ИИ бизнес сконцентрирован лишь на задачах безопасности, где основной заказчик – государство.

В 2020 году на этот бизнес приходилось 98% выручки Yitu и более 60% для CloudWalk и Megvii (SenseTime не рискует публиковать такую отчетность).

Если не диверсифицировать бизнес, им не покинуть долину смерти.
А куда выходить?
В медицине обнаружен непреодолимый риск использования ИИ, а хирургический ИИ в той же долине
Звёздные «единороги» США там же
«AGI столь же далек, как 20 лет назад» - считает знающий тему Питер Тиль
А за «ИИ Квартетом» идет вся «ИИ армия» Китая… и не только. Так что новая ИИ зима может стать неизбежной.
#ИИ #Китай
Это продолжение поста “Открыта теория относительности интеллекта: биологического и машинного”.
В предыдущей части поста было рассказано об аффордансах – ключевом свойстве интеллектуальных агентов, позволяющем им использовать в своих целях разнообразные возможности потенциально доступные им в конкретных условиях окружающей среды и текущей ситуации.

Следующим естественным вопросом нашего рассмотрения станет такой.
Каков же этот потенциал возможностей? Насколько он велик?
Но прежде, чем продолжить свой рассказ, хотел бы обратить внимание на важное для его оценки читателями обстоятельство.

В своих публикациях я всегда рассказываю о новейших исследованиях, результаты которых публиковались недавно. Что же до рассказа о «теории относительности интеллекта», то импульсом к его написанию стали предельно новые работы, публикуемые рецензируемыми научными журналами параллельно с публикациями продолжений моего поста.
• В 1й части поста мой рассказ начинался с выводов работы «How Organisms Come To Know The World: Fundamental Limits On Artificial General Intelligence» («Как организмы познают мир: фундаментальные ограничения общего искусственного интеллекта»), опубликованной 2-го ноября.
• В этой же 3-ей части поста я опираюсь на выводы следующей работы «The World Is Not a Theorem» («Мир – это не теорема»), опубликованной Кауфманом и Роли 6-го ноября.
Таким образом, в этом моем рассказе речь идет о совершенно новых научных представлениях, часть из которых уже прошла через сито рецензирования авторитетных научных журналов, а другая часть находится в процессе рецензирования.

Сделав это замечание, перейдем к поиску ответа на поставленный выше вопрос. А сделать это нам позволит рассмотрение аффордансов в контексте теории смежного возможного.

Продолжить чтение (еще 6 мин.)
- на Medium https://bit.ly/3cnsRdo
- на Яндекс Дзен https://clck.ru/YtFYm
#AGI #ОткрытаяЭволюция #РискиИИ
​​Визуализирован контур управления болью в стволе мозга.
Важный шаг для превращения в полубогов и решения трудной проблемы сознания.

О том, станет ли элита полубогами, и будут ли они испытывать боль, - год назад я писал следующее (1).
Если можно купить здоровье, интеллект и долголетие, то на это никаких денег не жалко. Если же можно, ко всему прочему, купить и качество жизни, то это вообще блеск.
Но для повышения качества жизни нужно не мало. И самое важное здесь — не депрессия и эрекция (улучшать которые уже кое-как научились), а отсутствие боли
.
Хроническая боль возникает в результате сложного и динамического взаимодействия между биологическими, психологическими и социальными факторами. Такая боль является одной из наиболее распространенных проблем со здоровьем человека и затрагивает каждого третьего взрослого.
Поэтому обезболивание превращается в колоссальный бизнес, развивающийся по двум путям: фармакология (новые лекарства от боли) и нефармакологические методы снижения боли за счет внутренних ресурсов человека (назовем это «управление болью»).

То что управление болью работает – многократно экспериментально проверенный факт. Желающие могут изучить метаисследование 52-ух исследований, подтверждающих, что плацебо снижает боль, а ноцебо (такие же пустышки, про которые пациентам говорят, будто они усиливают боль) усиливает (2).
Установлено, что на силу действия плацебо/ноцебо влияют:
• персональные свойства индивида: генетика и характер личности (на экстравертов это действует сильнее, чем на интровертов (3))
• широкий спектр факторов, массово распространенных среди людей:
-- от принятия временной связи за причинно-следственную, когда при обращении к врачу или целителю болит, а по прошествии пары недель уже не болит, т.к. само прошло – возможно, это объясняет гомеопатию);
-- до предвзятости подтверждения и социального обучения (см. (4))
• когнитивные факторы связи конкретного пациента с его окружением (его включенности в социально-когнитивную сеть) – отношения с лечащим врачом, информация от других врачей, от знакомых, что говорят по ТВ, пишут в сети …, - влияющие на доверие пациента к способу лечения и его ожидания результатов лечения (5).
Но каковы бы ни были причины, сам факт возможности управления болью неоспорим.
И хотя механизмы управления болью могут быть разными - от активации опиоидной (и других эндорфинов) системы мозга до временной перекоммутации нейронных сетей, - но сам контур управления болью найти уже удалось (6) с помощью сверхмощной установки фМРТ (7 Тесла).
Впервые удалось визуально выделить контур управления болью, прослеживая движущую силу эффекта плацебо (7):
• перемещение управляющего сигнала от коры головного мозга к группам клеток в стволе мозга;
• последующая модуляция болевых сигналов в спинном мозге.

Это первая экспериментальная демонстрация одного из важнейших процессов в основе Трудной проблемы сознания – мысленное управление физическими ощущениями боли.
✔️ Нематериальные ожидания индивида модулируют материальный управляющий сигнал, формирующийся в коре головного мозга.
✔️ Он активирует область в стволе мозга.
✔️ Она генерирует болевые импульсы, физически воспринимаемые индивидом;

Конечно, выявление контура модуляции боли – это пока еще не управление им.
Но, полагаю, за этим дело не станет. Элита заплатит за возможность избавления от боли такие деньги, что разработчикам ИИ и не снились.

1 2 3 4 5 6 7
#Боль
​​Детокс Фэйсбука возможен.
Он оздоровит общество и уменьшит раскол
.
От Facebook и подобных социальных сетей человечеству уже никуда не деться (как и от прочих наркозависимостей, включая номофобию - no mobile-phone phobia).
И это значит, нужно придумать, как «обеззаразить» соцсети, дабы уменьшить их отрицательное влияние (кое экспериментально доказано, и уже мало кем оспаривается).
Интересный, простой и, похоже, эффективный способ детокса соцсетей предложил известный социальный психолог Джонатан Хайдт.

Уже несколько лет я пишу о том, что соцсети породили одну из ключевых социальных проблем 21 века — они сбивают людей в стада, увеличивая поляризацию и раскол и катализируя нарастающий в мире трайбализм. (1)
Кроме того, в соцсетях центристы неотвратимо превращаются в экстремистов, и остановить это может только радикальная реформа платформ». Социальные сети кардинально поменяли не только культуру наших коммуникаций, но и культуру обмена мыслями (суждениями, идеями, знаниями, опытом). И самым сильным следствием этого стало нарастание поляризации в обществе по любому мало-мальски актуальному вопросу: от политики и гомосексуализма до карантина и вакцинации (2).

Об этом же уже не первый год пишет Джонатан Хайдт. Он показал, что лавинообразное нарастание поляризации началась в 2009-2012 гг. В 2009 Facebook ввел кнопку “Нравится”, Twitter-кнопку “Ретвит”, а в 2012 Facebook также ввел аналог «Ретвита» — кнопку «Поделиться».
Эти, казалось бы, не сильно важные кнопочные новации запустили процесс бурного роста поляризации, механизм которого математически смоделировали математик Вики Чуцяо Ян, социолог Тамара ван дер До и когнитивист Хенрик Олссон (3).

Естественен вопрос.
Возможно ли, посредством столь же простой интерфейсной новации на уровне платформенных кнопок, уменьшить отрицательное влияние соцсетей, стимулирующее рост поляризации?
Джонатан Хайдт считает, что это (а) возможно, и (б) является первоочередной задачей для общества (4).

Прежде всего нужно ввести для пользователей соцсетей два настраиваемых фильтра, позволяющие каждому самостоятельно определять приоритетность показа контента в своей ленте.
• Первый фильтр устанавливает нижний предел интегральной сложности (нюансировки) контента, который вы хотели бы у себя видеть.
Установив этот предел, вы не увидите в своей ленте материалов пользователей, контент которых в среднем имеет уровень интегральной сложности ниже установленного вами предела.
Вот элементарный пример 4х уровней (5), а лучше сделать «слепую» шкалу, которую каждый отградуирует по своим представлениям о простоте и сложности контента.
• Второй фильтр устанавливает уровень агрессивности/хейта контента - см. про «закон ненависти в соцсетях» (6) и «шизоидов ЁБа» (7).

Первые эксперименты показывают, что применение этих 2х фильтров вместо кнопок «Нравится» и «Поделиться» кардинально меняет состав ленты, снижая уровень хейта, затыкая яростных крикунов и ослабляя тренд на сбивание в стада.

Каждый из читателей может проверить это на себе, вручную фильтруя авторов показываемого вам контента по двум названным фильтрам, вместо того, чтобы лайкать и разшаривать.
Эффект, скажу вам, сногсшибательный! 🤩
1 2 3 4 5 6 7
#СоциальныеСети #Раскол