Малоизвестное интересное
65.4K subscribers
102 photos
1 video
11 files
1.81K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
УТИНЫЙ ТЕСТ ДЛЯ AI

Читатель канала предложил рассказать, «что стоит за сообщениями про то, как Фейсбук убил проект, где два чат бота стали разговаривать друг с другом на непонятном языке - наверняка журналисты все переврали».
Рассказываю.

1) Все эти заголовки, типа Умные боты Facebook придумали свой язык на случай важных переговоров, Восстание машин: чат-боты Facebook создали собственный язык, Человечество было в одном шаге от реального бунта машин и т.п., - просто погоня за дешевыми сенсациями, и сами статьи не имеют ничего общего с сутью события.

2) Да и события-то, в принципе, никакого не было. И, казалось бы, - о чем говорить?

— Уже известно, что AI-системы способны оперировать не существовавшими ранее языками (см., например, здесь).

— Программисты, разрабатывавшие чат-боты для Facebook, не установили в программу ограничение, чтобы боты ОБЯЗАТЕЛЬНО общались на языке людей. Поэтому боты, для повышения эффективности своего диалога, стали банально «упрощать» язык людей под поставленную им задачу. Например, вместо того, чтобы заморачиваться со сложными языковыми конструкциями, бот называл пять раз один и тот же предмет, что «на новом языке» означало потребность в пяти экземплярах данного предмета.

— Поскольку по техзаданию требовались боты ИСКЛЮЧИТЕЛЬНО для общения с людьми, эксперимент С ЭТИМИ БОТАМИ был признан неудачным и завершен.

Так почему же появляются все новые и новые фейковые новости вокруг темы языков ботов и шире – языков AI?

Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам
Cначала Tay, теперь Zo: очередной чат-бот Microsoft вышел из-под контроля
AI Is Inventing Languages Humans Can’t Understand. Should We Stop It? и т.д. и т.п.

Ответ на поставленный вопрос, хоть и лежит на поверхности, но осознается не сразу.

✔️ Цунами фейковых новостей имеют единственную цель – любым путем подогревать интерес к AI-разработкам со стороны инвесторов. А это невозможно без ажиотажного интереса к AI со стороны Нового Бога XXI века – МЕДИА (и об этом, кстати, есть отличный сериал)

✔️ Если прекратить извергать цунами фейковых новостей, то и МЕДИА, и инвесторы довольно скоро поймут, что «Создать искусственное сознание невозможно — даже случайно».
И, следовательно, в AI разработках нужно добиваться не антропоморфизма, а механоморфизма, т.е. мы должны перестать пытаться заставить ботов действовать как люди.
Они не смогут действовать, как люди, поскольку без сознания никакой бот не будет способен ПОНИМАТЬ тонкостей контекста и даже, хотя бы, просто вежливо себя вести.

Нынешнее же направление разработок разговорных ботов (и шире – AI) более всего напоминает скевоморфизм в дизайне – имитацию другого объекта путем имитирования его материала, формы и функциональности.

В результате, прохождение разрабатываемыми сейчас AI-системами Теста Тьюринга, по сути, превратилось в прохождение Утиного теста.

Но если что-то выглядит как утка, плавает как утка и крякает как утка, - это все же не гарантирует, что перед нами утка.
Если только под уткой не понимается фейковая новость.


#AI #ФейковыеНовости #Язык
Взгляните сами на триумф лжи над правдой в социальных медиа
https://d2ufo47lrtsv5s.cloudfront.net/content/sci/359/6380/eaat4382/F1.medium.gif
Заполняющий пространство солнцеподобный объект – это инфокаскад (иерархия ретвитов) распространяющейся фейковой новости. Маленький зелененький (так и хочется сказать – кузнечик) объектик, которого скоро не станет (он потухнет в лучах фейкового солнца) – настоящая важная новость.
Единственный способ понять, как ложь убивает правду в медиапространстве – визуализировать инфокаскады.
Понять - означает ответить на вопросы:
1) кто это сделал?
(ответить на этот вопрос не очень сложно, и можно даже обойтись без визуализации)
2) как это сделано?
(вопрос посложнее, и здесь визуализация здорово помогает)
3) почему это произошло?
(самый важный и трудный вопрос, для ответа на который визуализация незаменима)

Ответить на все 3 вопроса без человека, машина пока не умеет. А с человеком может (в пандан вчерашнему посту о кентаврах 🤗)

Нет время читать, так хоть взгляните хотя бы картинки кавер стори нового выпуска Science «Визуализация распространения правдивых и лживых новостей в социальных медиа» https://goo.gl/tcburf
— Новый 3D симулятор/визуализатор инфокаскадов позволяет ответить на 3 вышеназванных ключевых и массу вспомогательных вопросов касательно происхождения и динамики инфокаскадов.

В том же номере:
— «Наука о фейковых новостях» https://goo.gl/9w2ADa
Чтобы мир не утонул во лжи, необходимо глобальное перепроектирование медиапространства и создание новостной экосистемы и культуры, мотивированных ценить и пропагандировать правду.
— «Распространение истинных и ложных новостей в Интернете» https://goo.gl/GhYyjM
Фейковые новости забивают правдивые почти что в ноль. ТОР 1% фейковых новостных каскадов достигают от 1000 до 100 000 человек, тогда как истина редко распространяется более чем на 1000 человек. Ложь также распространяется быстрее, чем правда. Причина наблюдаемых различий – кажущаяся степень новизны новости и эмоциональные реакции получателей.

✔️ Способны ли мы сделать правдивые новости более притягательными, чем фейковые?
✔️ Или это без вариантов – и новость о человеке, укусившем собаку, непобедима?

P.S. Предыдущие посты на тему фейков (т.к. тэгов раньше в канале не писал) ищите с помощью поисковой строки «фейковые»

#ФейковыеНовости #СоциальныеСети
Эволюция мема.
На примере 2х кейсов - влияние на выборы и провокация волнений в США.

1й кейс – эволюция мема, спровоцировавшая вооруженные волнения в США, - показан в только что закончившемся 7ом сезоне сериала Homeland (Родина). Этот пока еще не материализовавшийся кейс основан на вполне реальном 2ом кейсе – уже материализовавшемся на последних президентских выборах в США.
2й кейс – влияние на президентские выборы путем вброса мемов, эволюционирующих при активной поддержке соцботов, детально разобран в совместном отчете USC Dept. Of Political Science и USC Information Sciences Institute. Это исследование показало 30ти кратное превосходство в эффективности влияния соцботов, работавших на поддержку Трампа и названных в отчете «Русские тролли».

Поскольку каждый из желающих может сам и фильм посмотреть, и отчет прочесть, я лишь попробую дать резюме обоих кейсов в виде а ля комикс – в картинках с пояснениями на 4 мин. чтения
https://goo.gl/xbvtsB

#Соцботы #Выборы #СоциальноеЗаражение #ФейковыеНовости #Каскады
Техно-методами наступающую тьму фейковой инфореальности не остановить.

Это 1й пункт звучащего приговором резюме цикла новых исследований.

2й и 3й пункты этого резюме подстать.

2) Фейковая инфореальность имеет высокие шансы стать доминирующей уже в ближайшее десятилетие, что будет иметь радикальные последствия для политики, культуры и образования.

3) Ключевой и пока что непреодолимой силой, толкающей мир в новые темные времена, является своеобразная цепная реакция, в основе которой:

✔️ многочисленные “тараканы” в наших головах — наличие у большинства из нас разнообразных когнитивных искажений и предубеждений на подсознательном уровне;

✔️ многократный рост размеров этих «тараканов» в результате «облучения сетевой заразой» — искусственно порождаемыми вирусными мемами.


Поэтому, если мы хотим выжить в этой кислотной инфосреде и при этом не выжить из ума, погрузившись в фейковую инфореальность, нам необходимо:

— знать и понимать механику, порождающую фейковую инфореальность;
— найти и освоить инструментарий для борьбы с этой механикой, — типа осинового кола или серебряных пуль для изведения вампиров.

Об этом мой новый пост https://goo.gl/H8XkZD

#Соцботы #ФейковыеНовости #Каскады #СоциальноеЗаражение
По наводке от читателя, с интересом познакомился с превосходной медиапродукцией современного последователя Джеффа Питерса и Энди Таккера по имени Кли Ирвин.
Если Джефф и Энди 100 лет назад зарабатывали на жизнь с помощью довольно простого, но весьма творческого мошенничества (эксплуатируя человеческие жадность, глупость, страх и тщеславие), то Кли сегодня собирает на порядки больше, доведя мошенничество до такого уровня, что его предшественникам даже и не снился.

Вот классный ролик «Теория Симуляции - Взлом Реальности», сделанный на уровне Спилберга, если бы тот вдруг решил работать на National Geographic или на BBC Science.
Превосходно всё – от сценария до анимации, от монтажа до звука и т.д. (насладитесь - https://clck.ru/F4D6o))
Но больше всего поражает уровень популярной завлекательности в подаче и донесении «майн кампфа» Кли Ирвина – «Emergence Theory».
Это «теория точечного пространства-времени и реальности, как квазикристаллического точечного пространства, спроецированного из кристалла E8». Цель теории – создание единой и непротиворечивой концептуальной модели мира, объединяющей теорию относительности и квантовую механику с феноменами информации и сознания.

К чему я веду? А к тому, чтобы проиллюстрировать, до какого запредельного уровня привлекательности и убедительности для людей, не обладающих всей полнотой информации по какой-либо теме, может доходить фейковая медиареальность в руках талантливых и экстра-креативных мошенников.

Но это еще не самое страшное, а вот что.
Новое исследование «People use less information than they think to make up their minds» https://clck.ru/F4EKp подводит нас к довольно поразительному и неожиданному выводу.
1) Доступ ко всей полноте информации, способный, казалось бы, кардинально влиять на человека в наш информационный век, мало кого спасает.
2) Для подавляющего большинства доступ к обильной информации НЕ способствует формированию у них более информированных мнений и суждений.
3) В итоге, чем к большему объему информации люди имеют потенциальный доступ, тем менее объективно информированным становится большинство.

Результат очевиден:
Информационное общество XXI века обречено на расцвет фейковых новостей и псевдонаучных заманиловок, типа «Emergence Theory», проекта «Чистая вода» и много-много чего еще 🥺

#Псевдонаука #ФейковыеНовости #Психология
В океане непроверенной информации, к тому же замусоренном массой фейков, спасает интеллектуальная самокритичность.
Включение психологического триггера интеллектуальной самокритичности – это основа нового совместного проекта «Потеря доверия» (Loss of Confidence Project) Международной программы Института человеческого развития Макса Планка, шести университетов и двух научных центров. Цель проекта – изменение культурных норм общества таким образом, чтобы они мотивировали стремление к интеллектуальной самокритичности и научной самокоррекции.

Фейсбучные споры, как правило, абсолютно непродуктивны. Никто не хочет признавать свои ошибки, даже будучи многократно ткнут в них носом. Но это еще не самая большая беда.
Хуже то, что и высокоумные эксперты и даже по-настоящему ученые люди также редко готовы признавать свои ошибки.
Лет 100 и даже 50 лет назад это было терпимо. Сейчас же, в формируемом информационном обществе, это категорически неприемлемо.
Причин для этого две:
1) Мир буквально плавает в океане недостаточно проверенной информации, и её доля в нашем инфо-пространстве катастрофически быстро увеличивается.
Еще лет 10 назад, до информационной революции Интернета, Больших данных, краудсорсинга, машинного обучения и т.д., множество научных идей, теорий и экспериментов считались вполне убедительными. Теперь же – бац, и все насмарку: многие из них признаны ошибочными. Ну а если не ошибочными, так, как минимум, не достаточно проверенными, чтобы им доверять и на них полагаться.
Например, уже широко обсуждавшаяся в прессе попытка протестировать 100 наиболее известных психологических экспериментов, которая показала, что только 40% из них были воспроизведены более строгими методами.
2) Современные технологии позволяют невероятно быстро и искуссно лгать, а также невероятно эффективно распространять ложную информацию.
Про торжество технологий на службе создания и распространения фейков моим читателям объяснять не нужно, - об этом я уже немало писал (см. посты моего канала по тегам #ФейковыеНовости и #DeepFakes).

Так что же делать в сложившейся ситуации?
Об этом как раз проект «Потеря доверия».
Успеху этого проекта должна способствовать переориентация общества на интеллектуальную самокритичность (intellectual humility), - свойство индивида, мотивирующее его на признание ошибочности его убеждений и являющееся важным дополнением к критическому мышлению.
На этом пути есть три основные проблемы:
1) Чтобы мы могли обрести интеллектуальную самокритичность, мы все, даже самые умные из нас, должны лучше понимать наши когнитивные слепые зоны. Наши умы более несовершенны и неточны, чем мы часто хотели бы признать. Наше невежество, зачастую, нам невидимо.
2) Даже когда мы преодолеваем эту огромную проблему и выясняем наши ошибки, мы должны это делать с позитивной мотивацией, - зная, что мы не понесем ущерба (материального или морального) за то, что сказали «я был неправ». И мы должны быть смелее, говоря это. Нам нужна культура, которая мотивирует сказать эти слова.
3) Мы никогда не достигнем совершенной интеллектуальной самокритичности. Поэтому нам нужно крайне вдумчиво выбирать свои убеждения.

Подробней см. превосходную статью Брайена Резника (Vox), имеющую хорошие шансы стать, как минимум, статьей месяца - «Интеллектуальная самокритичность: важно знать, что ты ошибаешься. Почему так трудно увидеть наше собственное невежество и что с этим делать» https://goo.gl/DzywnY
Статья изумительно иллюстрирована Хавьером Заррацина и содержит пару замечательных тестов (на 15 сек каждый), позволяющих воочию убедиться, как из того, что мы все разные, следует простой вывод –
✔️ одна и та же информация разными людьми воспринимается по-разному и порождает разные представления, формирующие разные убеждения.
Победить это может только интеллектуальная самокритичность.

#КогнитивныеИскажения
​​Фактчекинг лишь ухудшает ситуацию.
Раскол и озлобление растут, а фейкам хоть бы хны.

Представьте, что люди, наконец, добрались до чужой планеты, которая к тому же оказалась очень похожей на Землю. Можно дышать. Есть вода и пища. Тепло и в меру влажно. Красота!
Но через месяц после высадки члены экспедиции начали замечать странности. На этой планете как-то иначе работает восприятие информации людьми, её оценка и дальнейшая передача в ходе социальных коммуникаций.
Дальше больше … и хуже. Члены экспедиции стали впадать в ересь, озлобляться и объявлять несогласных с ними недочеловеками. Произошла поляризация и раскол.

Потом с Земли срочно прибыла спецгруппа психологов - спасателей. Довольно быстро они нашли причину происходящего.
На этой планете люди иначе оценивают и реагируют на преднамеренно-ложную (фейковую) информацию.

Тогда психологи начали тотальный мониторинг фейков в медиапространстве экспедиции. И каждому из поверивших фейку стали присылать уведомление: «Данная информация была подвергнута профессиональному фактчекингу. Он показал, что это 100%ный фейк. И вот почему …».

Результат оказался ужасен.
Фейкам по-прежнему верило не меньшее число людей. Но при этом резко возросло озлобление, предвзятость и языковая токсичность среди тех, кто получал уведомление службы фактчекинга.

Увы, но это реальная история.
Новая планета называется «Социальные медиа».
Отчет «спецгруппы психологов», безуспешно пытавшихся потушить пожар раскола, только что опубликован и озаглавлен «Perverse Downstream Consequences of Debunking: Being Corrected by Another User for Posting False Political News Increases Subsequent Sharing of Low Quality, Partisan, and Toxic Content in a Twitter Field Experiment».

Резюме отчета весьма печально.
✔️ Мы плохо понимает, как работает взаимодействие процессов оценки информации в головах людей и инфопотоков мемов (новостей, идей, представлений, эмоциональных триггеров и т.д.) в социальных медиа.

✔️ Даже самый, казалось бы, очевидный метод борьбы с фейками – их разоблачение, - способен сделать ситуацию еще хуже (рост предвзятости и языковой токсичности).

Жаль. Но когда готовилась первая экспедиция на планету «Социальные медиа», никто не предполагал, что очень скоро туда переселится большинство землян. И если теперь они там друг друга не переубивают, человечеству крупно повезет.

На приложенном рисунке: слева – фейковая новость, справа – сообщение от фактчекера.

#Поляризация #СоциальныеМедиа #ФейковыеНовости #Психология
Найден способ перенастройки соцсетей на правду.
Станут ли ФБ и ВК строить очистные сооружения при закачке ими мусора в мировой океан информации.

Фейки, деза и теории заговора затапливают глобальную сеть. Это грозит превращением главной медиасреды человечества в океан интеллектуального отстоя. Мелкие вкрапления правдивой и качественной информации останутся в этом океане наподобие островов погибших кораблей, найти и добраться до которых смогут немногие.

• Главными местами сброса инфоотстоя в мировой океан информации стали соцсети.
• А движками процесса закачки фейков, дезы и теорий заговора являются алгоритмы ранжирования.

По воле разработчиков, работающих на приумножение доходов владельцев соцсетей, алгоритмы ранжирования ежеминутно реструктурируют приоритеты доступа пользователей к информации, руководствуясь одной целью - максимизация вовлеченности пользователей, которым скармливается наиболее популярная (востребуемая) информация.
В результате такой работы алгоритмов, мировой океан информации будет безнадежно отравлен фейками, дезой и теориями заговора. Такова уж человеческая натура, что именно такой сорт информации наиболее востребован массовым пользователем, повышая также и его вовлеченность.

Как остановить процесс отравления мирового океана сетевой информации?
Ответ очевиден. Заставить алгоритмы ранжирования работать не только на повышение доходов владельцев платформ
.

Понятное дело, что совсем забить на интересы владельцев нет вариантов. Но можно попытаться хотя бы ограничить их интересы, путем мониторинга «уровня загрязнения» принадлежащих им отдельных морей (конкретных платформ соцсетей).
1. Но как определить уровень загрязнения сточной информацией в конкретном море?
2. И можно ли путем мониторинга уровня загрязнения стимулировать владельцев морей не затапливать их одной грязью фейков, дезы и теорий заговора?

Новое исследование «Разнообразие политической аудитории и достоверность новостей в алгоритмическом ранжировании» отвечает на оба вопроса. Междисциплинарная группа ученых - компьютерщиков, физиков и социологов из Университета Южной Флориды нашла решение, обеспечивающее доступ пользователей социальных сетей к более надежным источникам новостей.

Как показал большой эксперимент (выборка в 7 тыс сетевых пользователей и почти 4 тыс источников новостей) индикатором уровня загрязнения информации в конкретной соцсети является разнообразие пристрастий пользователей.
Чем больше разнообразие пристрастий пользователей соцсети, тем сильнее стимулы алгоритмов продвигать более правдивый и качественный контент.

Авторы исследования отмечают, что платформы соцсетей легко смогут включать разнообразие аудитории в свои собственные алгоритмы рекомендаций, потому что меры разнообразия могут быть получены из данных о вовлеченности, а платформы уже регистрируют этот тип данных всякий раз, когда пользователи нажимают «нравится» или делятся чем-либо в ленте новостей.

Что ж, первый способ построения «очистных сооружений», ограничивающих закачку мусора в мировой океан информации, найден.
Но захотят ли его применить владельцы соцсетей?
И сможет ли общество добиться этого от них?


#СоциальныеСети #СоциальныеМедиа #ФейковыеНовости #Вызовы21века