Непротивление злу насилием в социальных медиа опасно для общества.
Экспериментально проверен «закон ненависти в соцсетях».
Число новых потрясающих исследований по этой теме – двузначное. Их чрезвычайно важные результаты – весьма объемные и содержат массу интересных деталей. Но я попробую изложить тему по «методу Пивоварова» - «максимально субъективно, по возможности, внятно и коротко (у вас мало времени, мы это ценим) … поехали».
ДАНО
▪️ За 10 лет отношения в обществе кардинально изменились из-за взрывного роста роли социальных медиа и резкого скачка хейта и поляризации в них.
▪️ Отменить соцмедиа невозможно, но хейт и поляризацию нужно как-то гасить (ибо уже зашкаливают, и это ставит общество на грань социальных катаклизмов).
▪️ Исследования показывают, что рост хейта и поляризации, в значительной мере, - результат целенаправленной деятельности: (1) всевозможных «фабрик троллей» и (2) тучи индивидуальных приверженцев ругани, считающих любые высказывания, отличающиеся от безоговорочного согласия и поддержки их мнения, признаком неуважения и провокацией к конфликту.
▪️ Общими усилиями «фабрики троллей» и индивидуальные приверженцы ругани превращают Интернет в «Internet Of Beefs» (Интернет ругани)), плодя ненависть, травлю и манипуляции дискурсом.
ПОСТАНОВКА ЗАДАЧИ
1. Какая индивидуальная стратегия для каждого из нас оптимальна, при столкновении с троллями и хейтерами всех мастей?
2. Как общество может противодействовать росту хейта и поляризации в соцмедиа?
КАК РЕШАЛИ ЗАДАЧУ
▪️ На основе анализа 200 млн слов, статей и комментариев, опубликованных на 29 правых интернет-порталах, составили детальный классификатор «языка вражды и оскорблений» и его диалектов (а) ненависти, (б) провокаций и (в) тирад разглагольствования, используемых троллями и индивидуальными приверженцами ругани.
▪️ Научили ИИ-алгоритм автоматом распознавать (1) ненависть и провокацию конфликтов и (2) организованное противодействие провокаторам – троллям и индивидуальными хейтерам (второе оказалось куда сложнее первого из-за разнообразия языковых форм выражения)
▪️ Проверили и подправили классификатор и ИИ-алгоритм, подключив к их проверке и переобучению краудсорсеров через платформу Crowdworking Mechanical Turk.
▪️ Запустили ИИ-алгоритм для обработки и анализа 200 тыс. диалоговых цепочек в Twitter.
РЕЗУЛЬТАТ
✔️ Общество может остановить рост хейта и поляризации в соцмедиа лишь путем организованного противодействия (только в тех диалоговых цепочках где оно было, тролли и хейтеры слились)
✔️ Оптимальная индивидуальная стратегия – не банить троллей и хейтеров, а давать им бой, организуя своих сторонников.
ОБЩИЙ ПРИНЦИПИАЛЬНЫЙ ВЫВОД - «закон ненависти в соцсетях»
• Современная медиасреда принципиально изменила способы социальных коммуникаций.
• В медиасреде тактика отфрендить или забанить позволяет «не видеть зло» вместо того, чтобы «бороться за добро», создавая каждому комфортные эхо-камеры.
• В результате такого «непротивления злу насилием», в медиасреде, трансформируемой троллями и хейтерами в Интернет ругани, начинает царить ненависть.
• Не позволить Интернету ругани переродиться в Интернет ненависти способно лишь организованное противодействие.
Подробней:
- популярно – New study shows effectiveness of counter-speech online
- доклад 22го октября на ScienceWriters2020 Vitriol and disinformation: math and big data illuminate the dark world of online speech. Can journalism compete?
- исследование 1 Countering hate on social media: Large scale classification of hate and counter speech
- исследование 2 Impact and dynamics of hate and counter speech online
- рассказ лингвиста Иоахима Шарлот о «языке вражды и оскорблений»
См. также мои посты по тэгам:
#СоциальныеСети #Polarization #Раскол
Экспериментально проверен «закон ненависти в соцсетях».
Число новых потрясающих исследований по этой теме – двузначное. Их чрезвычайно важные результаты – весьма объемные и содержат массу интересных деталей. Но я попробую изложить тему по «методу Пивоварова» - «максимально субъективно, по возможности, внятно и коротко (у вас мало времени, мы это ценим) … поехали».
ДАНО
▪️ За 10 лет отношения в обществе кардинально изменились из-за взрывного роста роли социальных медиа и резкого скачка хейта и поляризации в них.
▪️ Отменить соцмедиа невозможно, но хейт и поляризацию нужно как-то гасить (ибо уже зашкаливают, и это ставит общество на грань социальных катаклизмов).
▪️ Исследования показывают, что рост хейта и поляризации, в значительной мере, - результат целенаправленной деятельности: (1) всевозможных «фабрик троллей» и (2) тучи индивидуальных приверженцев ругани, считающих любые высказывания, отличающиеся от безоговорочного согласия и поддержки их мнения, признаком неуважения и провокацией к конфликту.
▪️ Общими усилиями «фабрики троллей» и индивидуальные приверженцы ругани превращают Интернет в «Internet Of Beefs» (Интернет ругани)), плодя ненависть, травлю и манипуляции дискурсом.
ПОСТАНОВКА ЗАДАЧИ
1. Какая индивидуальная стратегия для каждого из нас оптимальна, при столкновении с троллями и хейтерами всех мастей?
2. Как общество может противодействовать росту хейта и поляризации в соцмедиа?
КАК РЕШАЛИ ЗАДАЧУ
▪️ На основе анализа 200 млн слов, статей и комментариев, опубликованных на 29 правых интернет-порталах, составили детальный классификатор «языка вражды и оскорблений» и его диалектов (а) ненависти, (б) провокаций и (в) тирад разглагольствования, используемых троллями и индивидуальными приверженцами ругани.
▪️ Научили ИИ-алгоритм автоматом распознавать (1) ненависть и провокацию конфликтов и (2) организованное противодействие провокаторам – троллям и индивидуальными хейтерам (второе оказалось куда сложнее первого из-за разнообразия языковых форм выражения)
▪️ Проверили и подправили классификатор и ИИ-алгоритм, подключив к их проверке и переобучению краудсорсеров через платформу Crowdworking Mechanical Turk.
▪️ Запустили ИИ-алгоритм для обработки и анализа 200 тыс. диалоговых цепочек в Twitter.
РЕЗУЛЬТАТ
✔️ Общество может остановить рост хейта и поляризации в соцмедиа лишь путем организованного противодействия (только в тех диалоговых цепочках где оно было, тролли и хейтеры слились)
✔️ Оптимальная индивидуальная стратегия – не банить троллей и хейтеров, а давать им бой, организуя своих сторонников.
ОБЩИЙ ПРИНЦИПИАЛЬНЫЙ ВЫВОД - «закон ненависти в соцсетях»
• Современная медиасреда принципиально изменила способы социальных коммуникаций.
• В медиасреде тактика отфрендить или забанить позволяет «не видеть зло» вместо того, чтобы «бороться за добро», создавая каждому комфортные эхо-камеры.
• В результате такого «непротивления злу насилием», в медиасреде, трансформируемой троллями и хейтерами в Интернет ругани, начинает царить ненависть.
• Не позволить Интернету ругани переродиться в Интернет ненависти способно лишь организованное противодействие.
Подробней:
- популярно – New study shows effectiveness of counter-speech online
- доклад 22го октября на ScienceWriters2020 Vitriol and disinformation: math and big data illuminate the dark world of online speech. Can journalism compete?
- исследование 1 Countering hate on social media: Large scale classification of hate and counter speech
- исследование 2 Impact and dynamics of hate and counter speech online
- рассказ лингвиста Иоахима Шарлот о «языке вражды и оскорблений»
См. также мои посты по тэгам:
#СоциальныеСети #Polarization #Раскол
netzpolitik.org
Reconquista Internet: Neue Studie zeigt Wirksamkeit von Gegenrede im Netz
Forschende haben an einem Institut in den USA erstmals in großem Umfang untersucht, wie sich Gegenrede im Netz auf Hassrede auswirkt. Dazu trainierten sie zuerst anhand von Reconquista Germanica und Reconquista Internet einen Algorithmus – und erforschten…
В интересное время живем! Наблюдать, как на наших глазах сверхдержава раскалывается пополам, - «штука посильнее, чем "Фауст" Гете».
И снова, глядя на это, задаешься вопросом – какова в этом расколе роль соцсетей?
Мой ответ на этот вопрос читатели уже знают – большая роль.
Вот 1001-е подтверждение. На сей раз экспериментальное.
Американо-британская исследовательская группа экспериментально доказала, что политические пристрастия людей решающим образом влияют на формирование индивидуальных инфо-пузырей. Американцы с куда большей вероятностью будут социально связаны с политическими единомышленниками: как в повседневной жизни, так и в социальных сетях.
• Исследователи создали в Twitter экаунты ботов, которые идентифицировали себя как людей, приверженных демократической или республиканской линии.
• Потом случайным образом выбрали 842 пользователя Twitter, на которых тоже случайно подписался один изботов.
• В результате, вероятность того, что люди ответили боту взаимностью, оказалась примерно в три раза выше при совпадении политических взглядов, в независимости от степени их выраженности (боты были 2х типов (см. приложенный рисунок): «радикалы партийной приверженности» (на рис. сверху), «партийная приверженность без фанатизма»(снизу)).
При таком трехкратном превышении силы привлекательности социальных связей, побороть раскол не удастся.
Короче, все как я уже однажды писал: «Фейсбук — удивительная машина сбивания в стада».
#СоциальныеСети #Раскол #США
И снова, глядя на это, задаешься вопросом – какова в этом расколе роль соцсетей?
Мой ответ на этот вопрос читатели уже знают – большая роль.
Вот 1001-е подтверждение. На сей раз экспериментальное.
Американо-британская исследовательская группа экспериментально доказала, что политические пристрастия людей решающим образом влияют на формирование индивидуальных инфо-пузырей. Американцы с куда большей вероятностью будут социально связаны с политическими единомышленниками: как в повседневной жизни, так и в социальных сетях.
• Исследователи создали в Twitter экаунты ботов, которые идентифицировали себя как людей, приверженных демократической или республиканской линии.
• Потом случайным образом выбрали 842 пользователя Twitter, на которых тоже случайно подписался один изботов.
• В результате, вероятность того, что люди ответили боту взаимностью, оказалась примерно в три раза выше при совпадении политических взглядов, в независимости от степени их выраженности (боты были 2х типов (см. приложенный рисунок): «радикалы партийной приверженности» (на рис. сверху), «партийная приверженность без фанатизма»(снизу)).
При таком трехкратном превышении силы привлекательности социальных связей, побороть раскол не удастся.
Короче, все как я уже однажды писал: «Фейсбук — удивительная машина сбивания в стада».
#СоциальныеСети #Раскол #США
Каким мог бы быть Интернет без Google и Facebook.
Это не вопрос денег, а лишь воображения.
Многие из нас уже около половины времени проводят в сети. И таких все больше, да и доля времени в сети тоже растет. Нравится ли нам устройство сети? И да, и нет. Удобно конечно. Но при этом мы все больше осознаем, что все потоки информации – от поисковиков до соцсетей, - манипулируются машинным обучением.
Почему так произошло? Кто так придумал? И кто заставил сеть быть именно такой?
Как тонко заметил Руха Бенджамин - «поле битвы в нашем воображении». В настоящее время весь цифровой мир глобальной сети придуман в воображении венчурных капиталистов, глобальных корпораций и Марка Цукерберга. Чтобы вырваться из этого мира, нам нужно, для начала, суметь вообразить нечто иное – что будет лучше для нас.
Такая работа уже начата. Например, в Институте цифровой общественной инфраструктуры iDPI. Его задача выйти за рамки «исправления» существующих интернет-инфраструктур, типа Google, Facebook, YouTube и Twitter, и понять, что можно было бы построить вместо них, если строить цифровое пространство для общественного блага. Начали они с самого больного – какими должны быть неманипулируемые соцсети.
Не скрою, пока что у iDPI и подобных команд больше вопросов, чем ответов. Не так-то просто преодолеть в воображении стереотипы уже сложившейся цифровой инфраструктуры.
Но вот пример направления, которое, имхо, нужно всячески развивать.
Рейксмузеум Амстердама разместил в Интернете более 700 000 оцифрованных копий своей огромной коллекции произведений искусства и делает их доступными для повторного использования в качестве общественного достояния.
Создание новой онлайн-галереи, названной Rijksstudio, финансировалась лотереей BankGiro Lottery - это «культурная лотерея» Нидерландов, которая оказывает долгосрочную поддержку госпроектам в области культуры.
Вы можете просматривать и искать в Rijksstudio по жанрам, датам или художникам. А можете просматривать картины подряд просто для удовольствия. Все фото картин в высоком качестве.
Коллекция содержит более 2000 картин Золотого века Голландии, написанных известными художниками, такими как Якоб ван Рейсдал, Франс Хальс, Иоганнес Вермеер, Ян Стин, Рембрандт и ученики Рембрандта.
Каждая из отсканированных картин, фотографий и рисунков содержит подробную информацию о предмете и художнике, а также некоторую историю, например, когда и где она была приобретена.
Напомню, что Британский музей в прошлом году опубликовал около 2 миллионов изображений из своего архива в Интернете.
Подобным же образом, на мой взгляд, и должно строиться сетевое цифровое пространство для общественного блага. Почему бы, например, не приделывать к подобным онлайн-галереям движки социальных коммуникаций. Неужели будет хуже проводить время со знакомыми посетителями музея, чем в своем «пузыре» Facebook?
#Интеренет #СоциальныеСети
Это не вопрос денег, а лишь воображения.
Многие из нас уже около половины времени проводят в сети. И таких все больше, да и доля времени в сети тоже растет. Нравится ли нам устройство сети? И да, и нет. Удобно конечно. Но при этом мы все больше осознаем, что все потоки информации – от поисковиков до соцсетей, - манипулируются машинным обучением.
Почему так произошло? Кто так придумал? И кто заставил сеть быть именно такой?
Как тонко заметил Руха Бенджамин - «поле битвы в нашем воображении». В настоящее время весь цифровой мир глобальной сети придуман в воображении венчурных капиталистов, глобальных корпораций и Марка Цукерберга. Чтобы вырваться из этого мира, нам нужно, для начала, суметь вообразить нечто иное – что будет лучше для нас.
Такая работа уже начата. Например, в Институте цифровой общественной инфраструктуры iDPI. Его задача выйти за рамки «исправления» существующих интернет-инфраструктур, типа Google, Facebook, YouTube и Twitter, и понять, что можно было бы построить вместо них, если строить цифровое пространство для общественного блага. Начали они с самого больного – какими должны быть неманипулируемые соцсети.
Не скрою, пока что у iDPI и подобных команд больше вопросов, чем ответов. Не так-то просто преодолеть в воображении стереотипы уже сложившейся цифровой инфраструктуры.
Но вот пример направления, которое, имхо, нужно всячески развивать.
Рейксмузеум Амстердама разместил в Интернете более 700 000 оцифрованных копий своей огромной коллекции произведений искусства и делает их доступными для повторного использования в качестве общественного достояния.
Создание новой онлайн-галереи, названной Rijksstudio, финансировалась лотереей BankGiro Lottery - это «культурная лотерея» Нидерландов, которая оказывает долгосрочную поддержку госпроектам в области культуры.
Вы можете просматривать и искать в Rijksstudio по жанрам, датам или художникам. А можете просматривать картины подряд просто для удовольствия. Все фото картин в высоком качестве.
Коллекция содержит более 2000 картин Золотого века Голландии, написанных известными художниками, такими как Якоб ван Рейсдал, Франс Хальс, Иоганнес Вермеер, Ян Стин, Рембрандт и ученики Рембрандта.
Каждая из отсканированных картин, фотографий и рисунков содержит подробную информацию о предмете и художнике, а также некоторую историю, например, когда и где она была приобретена.
Напомню, что Британский музей в прошлом году опубликовал около 2 миллионов изображений из своего архива в Интернете.
Подобным же образом, на мой взгляд, и должно строиться сетевое цифровое пространство для общественного блага. Почему бы, например, не приделывать к подобным онлайн-галереям движки социальных коммуникаций. Неужели будет хуже проводить время со знакомыми посетителями музея, чем в своем «пузыре» Facebook?
#Интеренет #СоциальныеСети
«Спящая красавица» Стивена Вольфрама и новая теория относительности.
За горизонтом наука может быть совсем иной, позволяя путешествовать быстрее скорости света.
В недавней лекции Стивена Вольфрама «Наука за пределами горизонта», прочитанной в Институте перспективных исследований UvA, в частности, рассказывается о крупнейшей ошибке физики ХХ века - ошибке в специальной теории относительности (там же он рассказывает и о второй крупной ошибке - в квантовой механике).
Предположение, что пространство и время – это «сплав» 4-х измерений (пространство-время), ошибка Германа Минковского, сбившее физику с пути (и Эйнштейну, кстати, не нравился такой подход).
Как Вольфрам предлагает исправить эту ошибку, можно прочесть здесь. И если Вольфрам окажется прав, это будут значить, что существует способ путешествовать со скоростью, превышающей скорость света.
Хорошая новость – проект разработки новой физики на основе теории Вольфрама уже в работе.
Плохая новость ¬– теория Вольфрама пока не имеет достаточного влияния в современной науке, чтобы произвести в ней смену доминирующей парадигмы.
А от чего зависит степень влиятельности теории в науке?
Как это ни банально звучит – от количества цитирований работы. И тут вся надежда на то, что теория Вольфрама – это «спящая красавица» (см. 1, 2, 3). Так называются научные работы, десятки лет не имеющие значительного цитирования, но потом вдруг их цитирование экспоненциально взмывает в заоблачную высь (как, например, у нынче знаменитой работы Эйнштейна, Подольского и Розена).
«Спящие красавицы» - это колоссальный потенциал гениальности, способный поменять в жизни человечества что угодно: обнулить риски ядерного оружия, отменить пандемии, сделать возможным путешествия к далеким звездам). И потому исследования «спящих красавиц» становятся всё активней по мере осознания роста экзистенциальных рисков.
Главная проблема в пробуждении «спящих красавиц» – преодоления «синдрома Менделя». Он возникает, если какая-то публикация, чтобы быть должным образом признанной коллегами, требует больше времени, чем «нормальные» публикации, и из-за этого публикация становится недооцененной с помощью существующих методов наукометрии.
На наше счастье, в 2020 случился прорыв. Придуман новой метод оценки показателя «красоты спящих красавиц» с учетом оценок, возникающих в соцсетях.
• До сих пор при поиске «спящих красавиц» в базах научных публикаций оценивались лишь такие показатели, как «продолжительность сна», «глубина сна» и «интенсивность бодрствования».
• Теперь же предложено измерять также число просмотров, сохранений, коментов и шеров постов в соцсетях.
Такое расширение традиционных потенциальных признаков «спящих красавиц» показателями социального внимания может сократить «время сна красавиц» в несколько раз.
И тогда, возможно, нам не придется ждать гениальных прорывов до полувека (а в истории было и похуже, - когда через 50 лет теория вообще забывалась – «спящая красавица» впадала в летаргию), если социальные сети всерьез возьмутся за пробуждение «спящих красавиц».
Вот только как переориентировать хотя бы 10% людей в соцсетях на обсуждение «спящих красавиц» (вместо той хрени, что они так страстно обсуждают)?
#Физика #СпяшиеКрасавицы #СоциальныеСети
За горизонтом наука может быть совсем иной, позволяя путешествовать быстрее скорости света.
В недавней лекции Стивена Вольфрама «Наука за пределами горизонта», прочитанной в Институте перспективных исследований UvA, в частности, рассказывается о крупнейшей ошибке физики ХХ века - ошибке в специальной теории относительности (там же он рассказывает и о второй крупной ошибке - в квантовой механике).
Предположение, что пространство и время – это «сплав» 4-х измерений (пространство-время), ошибка Германа Минковского, сбившее физику с пути (и Эйнштейну, кстати, не нравился такой подход).
Как Вольфрам предлагает исправить эту ошибку, можно прочесть здесь. И если Вольфрам окажется прав, это будут значить, что существует способ путешествовать со скоростью, превышающей скорость света.
Хорошая новость – проект разработки новой физики на основе теории Вольфрама уже в работе.
Плохая новость ¬– теория Вольфрама пока не имеет достаточного влияния в современной науке, чтобы произвести в ней смену доминирующей парадигмы.
А от чего зависит степень влиятельности теории в науке?
Как это ни банально звучит – от количества цитирований работы. И тут вся надежда на то, что теория Вольфрама – это «спящая красавица» (см. 1, 2, 3). Так называются научные работы, десятки лет не имеющие значительного цитирования, но потом вдруг их цитирование экспоненциально взмывает в заоблачную высь (как, например, у нынче знаменитой работы Эйнштейна, Подольского и Розена).
«Спящие красавицы» - это колоссальный потенциал гениальности, способный поменять в жизни человечества что угодно: обнулить риски ядерного оружия, отменить пандемии, сделать возможным путешествия к далеким звездам). И потому исследования «спящих красавиц» становятся всё активней по мере осознания роста экзистенциальных рисков.
Главная проблема в пробуждении «спящих красавиц» – преодоления «синдрома Менделя». Он возникает, если какая-то публикация, чтобы быть должным образом признанной коллегами, требует больше времени, чем «нормальные» публикации, и из-за этого публикация становится недооцененной с помощью существующих методов наукометрии.
На наше счастье, в 2020 случился прорыв. Придуман новой метод оценки показателя «красоты спящих красавиц» с учетом оценок, возникающих в соцсетях.
• До сих пор при поиске «спящих красавиц» в базах научных публикаций оценивались лишь такие показатели, как «продолжительность сна», «глубина сна» и «интенсивность бодрствования».
• Теперь же предложено измерять также число просмотров, сохранений, коментов и шеров постов в соцсетях.
Такое расширение традиционных потенциальных признаков «спящих красавиц» показателями социального внимания может сократить «время сна красавиц» в несколько раз.
И тогда, возможно, нам не придется ждать гениальных прорывов до полувека (а в истории было и похуже, - когда через 50 лет теория вообще забывалась – «спящая красавица» впадала в летаргию), если социальные сети всерьез возьмутся за пробуждение «спящих красавиц».
Вот только как переориентировать хотя бы 10% людей в соцсетях на обсуждение «спящих красавиц» (вместо той хрени, что они так страстно обсуждают)?
#Физика #СпяшиеКрасавицы #СоциальныеСети
Гипотеза о том, что Интернет приведет к разделу человечества на два новых вида, получает все новые подтверждения. Но главное, — становится понятно, где и почему формируется граница разлома. Разлом проходит по способности людей различать истину в новой инфосреде человечества, формирующейся на наших глазах — среде социальных медиа.
Источник разлома – когнитивный стиль человека: рефлексивный (аналитический) или интуитивный.
Исследования, подтверждающие связку между триадой - размер социальной сети индивида, умение «читать мысли» других и объем орбитальной префронтальной коры, - уже проведены. Они доказывают, что самые активные инфлюенсеры социальных медиа имеют специфические отличия в мозге.
Теперь ждем аналогичных исследований, доказывающих отличия устройства мозга людей интуитивного и аналитического когнитивных стилей, - и здравствуй алгокогнитивная евгеника.
Об этом мой новый пост (на 4 мин)
- на Medium http://bit.do/fNGus
- на Яндекс Дзен https://clck.ru/TJ4WD
#Культура #СоциальныеСети #СоциальныеМедиа
Источник разлома – когнитивный стиль человека: рефлексивный (аналитический) или интуитивный.
Исследования, подтверждающие связку между триадой - размер социальной сети индивида, умение «читать мысли» других и объем орбитальной префронтальной коры, - уже проведены. Они доказывают, что самые активные инфлюенсеры социальных медиа имеют специфические отличия в мозге.
Теперь ждем аналогичных исследований, доказывающих отличия устройства мозга людей интуитивного и аналитического когнитивных стилей, - и здравствуй алгокогнитивная евгеника.
Об этом мой новый пост (на 4 мин)
- на Medium http://bit.do/fNGus
- на Яндекс Дзен https://clck.ru/TJ4WD
#Культура #СоциальныеСети #СоциальныеМедиа
Medium
Социальные медиа разделяют людей на два новых вида
Критерий разлома — способность различать истину
Математик Вики Чуцяо Ян, социолог Тамара ван дер До и когнитивист Хенрик Олссон впервые математически смоделировали когнитивно-социальные процессы того, как люди классифицируют друг друга по спектру мнений.
Результаты моделирования показали, что в соцсетях центристы неотвратимо превращаются в экстремистов.
Остановить это может только радикальная реформа платформ социальных сетей.
Подробней (3 мин.):
-на Medium https://bit.ly/3ToKPAo
- на Яндекс Дзен https://clck.ru/U7osF
#СоциальныеСети #Polarization #Раскол
Результаты моделирования показали, что в соцсетях центристы неотвратимо превращаются в экстремистов.
Остановить это может только радикальная реформа платформ социальных сетей.
Подробней (3 мин.):
-на Medium https://bit.ly/3ToKPAo
- на Яндекс Дзен https://clck.ru/U7osF
#СоциальныеСети #Polarization #Раскол
Medium
В соцсетях центристы неотвратимо превращаются в экстремистов
Остановить это может только радикальная реформа платформ
Детокс Фэйсбука возможен.
Он оздоровит общество и уменьшит раскол .
От Facebook и подобных социальных сетей человечеству уже никуда не деться (как и от прочих наркозависимостей, включая номофобию - no mobile-phone phobia).
И это значит, нужно придумать, как «обеззаразить» соцсети, дабы уменьшить их отрицательное влияние (кое экспериментально доказано, и уже мало кем оспаривается).
Интересный, простой и, похоже, эффективный способ детокса соцсетей предложил известный социальный психолог Джонатан Хайдт.
Уже несколько лет я пишу о том, что соцсети породили одну из ключевых социальных проблем 21 века — они сбивают людей в стада, увеличивая поляризацию и раскол и катализируя нарастающий в мире трайбализм. (1)
Кроме того, в соцсетях центристы неотвратимо превращаются в экстремистов, и остановить это может только радикальная реформа платформ». Социальные сети кардинально поменяли не только культуру наших коммуникаций, но и культуру обмена мыслями (суждениями, идеями, знаниями, опытом). И самым сильным следствием этого стало нарастание поляризации в обществе по любому мало-мальски актуальному вопросу: от политики и гомосексуализма до карантина и вакцинации (2).
Об этом же уже не первый год пишет Джонатан Хайдт. Он показал, что лавинообразное нарастание поляризации началась в 2009-2012 гг. В 2009 Facebook ввел кнопку “Нравится”, Twitter-кнопку “Ретвит”, а в 2012 Facebook также ввел аналог «Ретвита» — кнопку «Поделиться».
Эти, казалось бы, не сильно важные кнопочные новации запустили процесс бурного роста поляризации, механизм которого математически смоделировали математик Вики Чуцяо Ян, социолог Тамара ван дер До и когнитивист Хенрик Олссон (3).
Естественен вопрос.
Возможно ли, посредством столь же простой интерфейсной новации на уровне платформенных кнопок, уменьшить отрицательное влияние соцсетей, стимулирующее рост поляризации?
Джонатан Хайдт считает, что это (а) возможно, и (б) является первоочередной задачей для общества (4).
Прежде всего нужно ввести для пользователей соцсетей два настраиваемых фильтра, позволяющие каждому самостоятельно определять приоритетность показа контента в своей ленте.
• Первый фильтр устанавливает нижний предел интегральной сложности (нюансировки) контента, который вы хотели бы у себя видеть.
Установив этот предел, вы не увидите в своей ленте материалов пользователей, контент которых в среднем имеет уровень интегральной сложности ниже установленного вами предела.
Вот элементарный пример 4х уровней (5), а лучше сделать «слепую» шкалу, которую каждый отградуирует по своим представлениям о простоте и сложности контента.
• Второй фильтр устанавливает уровень агрессивности/хейта контента - см. про «закон ненависти в соцсетях» (6) и «шизоидов ЁБа» (7).
Первые эксперименты показывают, что применение этих 2х фильтров вместо кнопок «Нравится» и «Поделиться» кардинально меняет состав ленты, снижая уровень хейта, затыкая яростных крикунов и ослабляя тренд на сбивание в стада.
Каждый из читателей может проверить это на себе, вручную фильтруя авторов показываемого вам контента по двум названным фильтрам, вместо того, чтобы лайкать и разшаривать.
Эффект, скажу вам, сногсшибательный! 🤩
1 2 3 4 5 6 7
#СоциальныеСети #Раскол
Он оздоровит общество и уменьшит раскол .
От Facebook и подобных социальных сетей человечеству уже никуда не деться (как и от прочих наркозависимостей, включая номофобию - no mobile-phone phobia).
И это значит, нужно придумать, как «обеззаразить» соцсети, дабы уменьшить их отрицательное влияние (кое экспериментально доказано, и уже мало кем оспаривается).
Интересный, простой и, похоже, эффективный способ детокса соцсетей предложил известный социальный психолог Джонатан Хайдт.
Уже несколько лет я пишу о том, что соцсети породили одну из ключевых социальных проблем 21 века — они сбивают людей в стада, увеличивая поляризацию и раскол и катализируя нарастающий в мире трайбализм. (1)
Кроме того, в соцсетях центристы неотвратимо превращаются в экстремистов, и остановить это может только радикальная реформа платформ». Социальные сети кардинально поменяли не только культуру наших коммуникаций, но и культуру обмена мыслями (суждениями, идеями, знаниями, опытом). И самым сильным следствием этого стало нарастание поляризации в обществе по любому мало-мальски актуальному вопросу: от политики и гомосексуализма до карантина и вакцинации (2).
Об этом же уже не первый год пишет Джонатан Хайдт. Он показал, что лавинообразное нарастание поляризации началась в 2009-2012 гг. В 2009 Facebook ввел кнопку “Нравится”, Twitter-кнопку “Ретвит”, а в 2012 Facebook также ввел аналог «Ретвита» — кнопку «Поделиться».
Эти, казалось бы, не сильно важные кнопочные новации запустили процесс бурного роста поляризации, механизм которого математически смоделировали математик Вики Чуцяо Ян, социолог Тамара ван дер До и когнитивист Хенрик Олссон (3).
Естественен вопрос.
Возможно ли, посредством столь же простой интерфейсной новации на уровне платформенных кнопок, уменьшить отрицательное влияние соцсетей, стимулирующее рост поляризации?
Джонатан Хайдт считает, что это (а) возможно, и (б) является первоочередной задачей для общества (4).
Прежде всего нужно ввести для пользователей соцсетей два настраиваемых фильтра, позволяющие каждому самостоятельно определять приоритетность показа контента в своей ленте.
• Первый фильтр устанавливает нижний предел интегральной сложности (нюансировки) контента, который вы хотели бы у себя видеть.
Установив этот предел, вы не увидите в своей ленте материалов пользователей, контент которых в среднем имеет уровень интегральной сложности ниже установленного вами предела.
Вот элементарный пример 4х уровней (5), а лучше сделать «слепую» шкалу, которую каждый отградуирует по своим представлениям о простоте и сложности контента.
• Второй фильтр устанавливает уровень агрессивности/хейта контента - см. про «закон ненависти в соцсетях» (6) и «шизоидов ЁБа» (7).
Первые эксперименты показывают, что применение этих 2х фильтров вместо кнопок «Нравится» и «Поделиться» кардинально меняет состав ленты, снижая уровень хейта, затыкая яростных крикунов и ослабляя тренд на сбивание в стада.
Каждый из читателей может проверить это на себе, вручную фильтруя авторов показываемого вам контента по двум названным фильтрам, вместо того, чтобы лайкать и разшаривать.
Эффект, скажу вам, сногсшибательный! 🤩
1 2 3 4 5 6 7
#СоциальныеСети #Раскол
Без смены бизнес-модели соцсетей любая демократия скатится к диктатуре.
Это следствие социосетевого хейта, искривляющего пространство субъективной реальности.
Крайняя поляризация взглядов отрезает путь к их сближению и ведет лишь к конфликтам. Увы, но в этом смысле мы мало чем отличаемся от шимпанзе. Но это полбеды. А беда в том, что крайняя поляризация взглядов неотвратимо рушит любую демократию.
Демократии требуют компромисса. Но он становится практически невозможным, когда общество разделено на диаметрально противоположные лагеря. Опасность в том, что в такой конфигурации общества: нетерпимость лишь растет, демократические нормы приходят в упадок, а властная группировка идет на все, чтобы не позволить противникам когда-либо прийти во власть. Именно это и наблюдается (за редким исключением) во всем мире.
Новое исследование 3х универов США на предельно простой и элегантной (и потому весьма привлекательной) модели – всего два параметра (толерантность и реактивность коммуникаций), - получило убийственный вывод (1).
При уровне толерантности ниже 0,5 (что довольно типично для развитых стран), если давать людям все больше и шире активно общаться (соцсети – идеальные площадки) – дело неотвратимо кончится тотальной сварой, т.е. произойдет предельная поляризация, когда обе группы сочтут других нелюдями (со всеми вытекающими).
О механизмах того, почему и как это происходит, я уже не раз писал.
• Бизнес–модель соцсетей питается социосетевым хейтом, способствующим инфодемиям ненависти (2)
• Инфодемии ведут к искривлению инфопространства субъективной реальности участников соцсетей, что меняет сетевую топологию, определяющую инфопотоки, от которых зависят принимаемые людьми решения (3)
• В искривленном инфопространстве соцсетей происходит «скатывание» центристов на края, превращая их в ультракрайних (4).
Остановить это может только радикальная реформа платформ социальных сетей, о чем я писал в «Детокс Фэйсбука возможен. Он оздоровит общество и уменьшит раскол» (5)
На приложенном рисунке из нового исследования видно:
✔️ Сколь лавинообразно скатывание в раскол при уровне толерантности 0,25-0,45 (ось X)
✔️ Как по-южному быстро восходит поляризация (переход общества в желтый цвет раскола) при росте реактивности коммуникаций (ось Y), вовлекая в раскол все более толерантных (от чего спасает лишь толерантность > 0,75, а где такую найдешь кроме Северной Кореи, - впрочем, у нас всё впереди).
#СоциальныеСети #Раскол #Polarization #Толерантность #Соцсети
Ссылки:
1 2 3 4 5
Это следствие социосетевого хейта, искривляющего пространство субъективной реальности.
Крайняя поляризация взглядов отрезает путь к их сближению и ведет лишь к конфликтам. Увы, но в этом смысле мы мало чем отличаемся от шимпанзе. Но это полбеды. А беда в том, что крайняя поляризация взглядов неотвратимо рушит любую демократию.
Демократии требуют компромисса. Но он становится практически невозможным, когда общество разделено на диаметрально противоположные лагеря. Опасность в том, что в такой конфигурации общества: нетерпимость лишь растет, демократические нормы приходят в упадок, а властная группировка идет на все, чтобы не позволить противникам когда-либо прийти во власть. Именно это и наблюдается (за редким исключением) во всем мире.
Новое исследование 3х универов США на предельно простой и элегантной (и потому весьма привлекательной) модели – всего два параметра (толерантность и реактивность коммуникаций), - получило убийственный вывод (1).
При уровне толерантности ниже 0,5 (что довольно типично для развитых стран), если давать людям все больше и шире активно общаться (соцсети – идеальные площадки) – дело неотвратимо кончится тотальной сварой, т.е. произойдет предельная поляризация, когда обе группы сочтут других нелюдями (со всеми вытекающими).
О механизмах того, почему и как это происходит, я уже не раз писал.
• Бизнес–модель соцсетей питается социосетевым хейтом, способствующим инфодемиям ненависти (2)
• Инфодемии ведут к искривлению инфопространства субъективной реальности участников соцсетей, что меняет сетевую топологию, определяющую инфопотоки, от которых зависят принимаемые людьми решения (3)
• В искривленном инфопространстве соцсетей происходит «скатывание» центристов на края, превращая их в ультракрайних (4).
Остановить это может только радикальная реформа платформ социальных сетей, о чем я писал в «Детокс Фэйсбука возможен. Он оздоровит общество и уменьшит раскол» (5)
На приложенном рисунке из нового исследования видно:
✔️ Сколь лавинообразно скатывание в раскол при уровне толерантности 0,25-0,45 (ось X)
✔️ Как по-южному быстро восходит поляризация (переход общества в желтый цвет раскола) при росте реактивности коммуникаций (ось Y), вовлекая в раскол все более толерантных (от чего спасает лишь толерантность > 0,75, а где такую найдешь кроме Северной Кореи, - впрочем, у нас всё впереди).
#СоциальныеСети #Раскол #Polarization #Толерантность #Соцсети
Ссылки:
1 2 3 4 5
Найден способ перенастройки соцсетей на правду.
Станут ли ФБ и ВК строить очистные сооружения при закачке ими мусора в мировой океан информации.
Фейки, деза и теории заговора затапливают глобальную сеть. Это грозит превращением главной медиасреды человечества в океан интеллектуального отстоя. Мелкие вкрапления правдивой и качественной информации останутся в этом океане наподобие островов погибших кораблей, найти и добраться до которых смогут немногие.
• Главными местами сброса инфоотстоя в мировой океан информации стали соцсети.
• А движками процесса закачки фейков, дезы и теорий заговора являются алгоритмы ранжирования.
По воле разработчиков, работающих на приумножение доходов владельцев соцсетей, алгоритмы ранжирования ежеминутно реструктурируют приоритеты доступа пользователей к информации, руководствуясь одной целью - максимизация вовлеченности пользователей, которым скармливается наиболее популярная (востребуемая) информация.
В результате такой работы алгоритмов, мировой океан информации будет безнадежно отравлен фейками, дезой и теориями заговора. Такова уж человеческая натура, что именно такой сорт информации наиболее востребован массовым пользователем, повышая также и его вовлеченность.
Как остановить процесс отравления мирового океана сетевой информации?
Ответ очевиден. Заставить алгоритмы ранжирования работать не только на повышение доходов владельцев платформ.
Понятное дело, что совсем забить на интересы владельцев нет вариантов. Но можно попытаться хотя бы ограничить их интересы, путем мониторинга «уровня загрязнения» принадлежащих им отдельных морей (конкретных платформ соцсетей).
1. Но как определить уровень загрязнения сточной информацией в конкретном море?
2. И можно ли путем мониторинга уровня загрязнения стимулировать владельцев морей не затапливать их одной грязью фейков, дезы и теорий заговора?
Новое исследование «Разнообразие политической аудитории и достоверность новостей в алгоритмическом ранжировании» отвечает на оба вопроса. Междисциплинарная группа ученых - компьютерщиков, физиков и социологов из Университета Южной Флориды нашла решение, обеспечивающее доступ пользователей социальных сетей к более надежным источникам новостей.
Как показал большой эксперимент (выборка в 7 тыс сетевых пользователей и почти 4 тыс источников новостей) индикатором уровня загрязнения информации в конкретной соцсети является разнообразие пристрастий пользователей.
Чем больше разнообразие пристрастий пользователей соцсети, тем сильнее стимулы алгоритмов продвигать более правдивый и качественный контент.
Авторы исследования отмечают, что платформы соцсетей легко смогут включать разнообразие аудитории в свои собственные алгоритмы рекомендаций, потому что меры разнообразия могут быть получены из данных о вовлеченности, а платформы уже регистрируют этот тип данных всякий раз, когда пользователи нажимают «нравится» или делятся чем-либо в ленте новостей.
Что ж, первый способ построения «очистных сооружений», ограничивающих закачку мусора в мировой океан информации, найден.
Но захотят ли его применить владельцы соцсетей?
И сможет ли общество добиться этого от них?
#СоциальныеСети #СоциальныеМедиа #ФейковыеНовости #Вызовы21века
Станут ли ФБ и ВК строить очистные сооружения при закачке ими мусора в мировой океан информации.
Фейки, деза и теории заговора затапливают глобальную сеть. Это грозит превращением главной медиасреды человечества в океан интеллектуального отстоя. Мелкие вкрапления правдивой и качественной информации останутся в этом океане наподобие островов погибших кораблей, найти и добраться до которых смогут немногие.
• Главными местами сброса инфоотстоя в мировой океан информации стали соцсети.
• А движками процесса закачки фейков, дезы и теорий заговора являются алгоритмы ранжирования.
По воле разработчиков, работающих на приумножение доходов владельцев соцсетей, алгоритмы ранжирования ежеминутно реструктурируют приоритеты доступа пользователей к информации, руководствуясь одной целью - максимизация вовлеченности пользователей, которым скармливается наиболее популярная (востребуемая) информация.
В результате такой работы алгоритмов, мировой океан информации будет безнадежно отравлен фейками, дезой и теориями заговора. Такова уж человеческая натура, что именно такой сорт информации наиболее востребован массовым пользователем, повышая также и его вовлеченность.
Как остановить процесс отравления мирового океана сетевой информации?
Ответ очевиден. Заставить алгоритмы ранжирования работать не только на повышение доходов владельцев платформ.
Понятное дело, что совсем забить на интересы владельцев нет вариантов. Но можно попытаться хотя бы ограничить их интересы, путем мониторинга «уровня загрязнения» принадлежащих им отдельных морей (конкретных платформ соцсетей).
1. Но как определить уровень загрязнения сточной информацией в конкретном море?
2. И можно ли путем мониторинга уровня загрязнения стимулировать владельцев морей не затапливать их одной грязью фейков, дезы и теорий заговора?
Новое исследование «Разнообразие политической аудитории и достоверность новостей в алгоритмическом ранжировании» отвечает на оба вопроса. Междисциплинарная группа ученых - компьютерщиков, физиков и социологов из Университета Южной Флориды нашла решение, обеспечивающее доступ пользователей социальных сетей к более надежным источникам новостей.
Как показал большой эксперимент (выборка в 7 тыс сетевых пользователей и почти 4 тыс источников новостей) индикатором уровня загрязнения информации в конкретной соцсети является разнообразие пристрастий пользователей.
Чем больше разнообразие пристрастий пользователей соцсети, тем сильнее стимулы алгоритмов продвигать более правдивый и качественный контент.
Авторы исследования отмечают, что платформы соцсетей легко смогут включать разнообразие аудитории в свои собственные алгоритмы рекомендаций, потому что меры разнообразия могут быть получены из данных о вовлеченности, а платформы уже регистрируют этот тип данных всякий раз, когда пользователи нажимают «нравится» или делятся чем-либо в ленте новостей.
Что ж, первый способ построения «очистных сооружений», ограничивающих закачку мусора в мировой океан информации, найден.
Но захотят ли его применить владельцы соцсетей?
И сможет ли общество добиться этого от них?
#СоциальныеСети #СоциальныеМедиа #ФейковыеНовости #Вызовы21века
Nature
Political audience diversity and news reliability in algorithmic ranking
Nature Human Behaviour - Using survey and internet browsing data and expert ratings, Bhadani et al. find that incorporating partisan audience diversity into algorithmic rankings of news websites...
Рентген, УЗИ и МРТ социальных сетей.
Три мощных бесплатных детектора сетевой пропаганды и лжи.
Иллюзий уже никто не питает. Социальные сети всё более превращаются в инструмент дезинформации и манипулирования.
Но слава богу и здесь работает принцип соревнования брони и снаряда. Специалисты по обработке данных, журналисты и исследователи роли СМИ и технологий в обществе получают в свои руки все более мощные инструменты выявления источников и способов сетевой пропаганды и лжи.
Обсерватория социальных сетей, или OSoMe, при Университете Индианы запустила три новых обновленных инструмента (своего рода Рентген, УЗИ и МРТ социальных сетей): Каскадометр, Трендометр и Ботометр.
1. Каскадометр (Networks Tool) строит интерактивную 3D карту распространения информации в Twitter, позволяя видеть образование инфокаскадов, подобно зарождению смерчей и ураганов.
2. Трендометр (Trends Tool) позволяет анализировать количество твитов с заданным хэштегом, URL или ключевым словом. Этот инструмент показывает, какие темы в тренде и что становится вирусным.
3. Ботометр (BotAmp Tool) позволяет определять вероятную активность ботов для твитов, отфильтрованных по поисковому запросу. Это нужно, чтобы понимать, насколько популярность той или иной темы обязана поддержке со стороны ботов.
Все 3 инструмента от OSoMe используют огромный поток данных - примерно 50 млн твитов в день, собранных из Twitter. Это примерно 10% общедоступных твитов, которые затем анализируются и индексируются для использования с помощью инструментов OSoMe.
Пользователи 3х инструментов могут визуализировать данные любого конкретного месяца за предыдущие три года. Большинство существующих инструментов не позволяют столь глубокий анализ.
Исследователям дезинформации и манипулирования в сети стоит поторопиться. Ибо соревнование брони и снаряда продолжается. А значит пропагандисты и манипуляторы довольно скоро найдут и на эти хитрые инструменты свои крутые гайки.
https://news.iu.edu/stories/2022/07/iub/releases/27-social-media-tools-bots-viral-posts.html
#Интернет #СоциальныеСети #Дезинформация #Манипулирование
Три мощных бесплатных детектора сетевой пропаганды и лжи.
Иллюзий уже никто не питает. Социальные сети всё более превращаются в инструмент дезинформации и манипулирования.
Но слава богу и здесь работает принцип соревнования брони и снаряда. Специалисты по обработке данных, журналисты и исследователи роли СМИ и технологий в обществе получают в свои руки все более мощные инструменты выявления источников и способов сетевой пропаганды и лжи.
Обсерватория социальных сетей, или OSoMe, при Университете Индианы запустила три новых обновленных инструмента (своего рода Рентген, УЗИ и МРТ социальных сетей): Каскадометр, Трендометр и Ботометр.
1. Каскадометр (Networks Tool) строит интерактивную 3D карту распространения информации в Twitter, позволяя видеть образование инфокаскадов, подобно зарождению смерчей и ураганов.
2. Трендометр (Trends Tool) позволяет анализировать количество твитов с заданным хэштегом, URL или ключевым словом. Этот инструмент показывает, какие темы в тренде и что становится вирусным.
3. Ботометр (BotAmp Tool) позволяет определять вероятную активность ботов для твитов, отфильтрованных по поисковому запросу. Это нужно, чтобы понимать, насколько популярность той или иной темы обязана поддержке со стороны ботов.
Все 3 инструмента от OSoMe используют огромный поток данных - примерно 50 млн твитов в день, собранных из Twitter. Это примерно 10% общедоступных твитов, которые затем анализируются и индексируются для использования с помощью инструментов OSoMe.
Пользователи 3х инструментов могут визуализировать данные любого конкретного месяца за предыдущие три года. Большинство существующих инструментов не позволяют столь глубокий анализ.
Исследователям дезинформации и манипулирования в сети стоит поторопиться. Ибо соревнование брони и снаряда продолжается. А значит пропагандисты и манипуляторы довольно скоро найдут и на эти хитрые инструменты свои крутые гайки.
https://news.iu.edu/stories/2022/07/iub/releases/27-social-media-tools-bots-viral-posts.html
#Интернет #СоциальныеСети #Дезинформация #Манипулирование
news.iu.edu
New social media tools help public assess viral posts, check for bots
The Observatory on Social Media at IU has released new or revamped tools to help people understand how information flows online.
В цифровых мирах неравенство можно уменьшить.
Эффект Матфея ослабляется переключением пользователей с Системы 1 на Систему 2.
Оказалось, что помимо пресловутого «закона Матфея», наше внимание к контенту социальных медиа и его оценка сильнейшим образом зависят от того, какой системой обработки информации мы воспринимаем контент.
Только опубликованные результаты исследования MIT Sloan экспериментально подтверждают, насколько сильно алгоритмы соцсетей (и прочие соцмедиа) искажают для людей картину мира.
А именно:
• насколько в соцсетях силен закон Матфея «богатые становятся богаче» (в смысле роста популярности авторов контента, получающего тем большее внимание и выше оценку, чем больше уже имеющаяся популярность его автора – лайки улучшают репутацию, а репутация повышает число новых лайков);
• насколько неравенство в предвзятой оценке социального контента влияет на увеличение алгоритмами его рейтингов популярности.
И то, и другое давно обсуждается, но прямые доказательства экспериментально получены впервые. Степень влияния персоны автора контента на его оценку читателем огромна – она превосходит значимость самого контента и доходит до 61%.
Но это еще не все результаты исследования.
Выяснилось следующее.
Указание авторства контента также заставляет читателей почти мгновенно, интуитивно, «в автоматическом режиме» оценивать контент (автор известный - лайк; неизвестный – поехали дальше).
Так почти рефлекторно у читателя работает Система 1 (по Канеману). А до работы Системы 2 (требующей привлечения нашего внимания содержательными аспектами контента и определенных сознательных умственных «затрат» на логический выбор и концентрацию), при виде имени популярного автора дело просто не доходит.
И вот тут-то и кроется шанс на улучшение алгоритмов.
Авторы показывают, - если небольшое случайное подмножество сообщений отображать анонимно, то неискаженные предвзятостью их оценки читателями были бы относительно беспристрастным сигналом, который алгоритм ранжирования мог бы использовать для смягчения эффектов идентичности/популярности, не прибегая к тотальной анонимности контента, невозможной из практических соображений.
Т.е. шанс исправить алгоритмы соцсетей есть.
Только «съесть-то он съест, да кто ж ему даст?!»
FYI: По тегам этого поста в моем канале написано немало
#СоциальныеСети #Соцсети #КогнитивныеИскажения #Неравенство
Эффект Матфея ослабляется переключением пользователей с Системы 1 на Систему 2.
Оказалось, что помимо пресловутого «закона Матфея», наше внимание к контенту социальных медиа и его оценка сильнейшим образом зависят от того, какой системой обработки информации мы воспринимаем контент.
Только опубликованные результаты исследования MIT Sloan экспериментально подтверждают, насколько сильно алгоритмы соцсетей (и прочие соцмедиа) искажают для людей картину мира.
А именно:
• насколько в соцсетях силен закон Матфея «богатые становятся богаче» (в смысле роста популярности авторов контента, получающего тем большее внимание и выше оценку, чем больше уже имеющаяся популярность его автора – лайки улучшают репутацию, а репутация повышает число новых лайков);
• насколько неравенство в предвзятой оценке социального контента влияет на увеличение алгоритмами его рейтингов популярности.
И то, и другое давно обсуждается, но прямые доказательства экспериментально получены впервые. Степень влияния персоны автора контента на его оценку читателем огромна – она превосходит значимость самого контента и доходит до 61%.
Но это еще не все результаты исследования.
Выяснилось следующее.
Указание авторства контента также заставляет читателей почти мгновенно, интуитивно, «в автоматическом режиме» оценивать контент (автор известный - лайк; неизвестный – поехали дальше).
Так почти рефлекторно у читателя работает Система 1 (по Канеману). А до работы Системы 2 (требующей привлечения нашего внимания содержательными аспектами контента и определенных сознательных умственных «затрат» на логический выбор и концентрацию), при виде имени популярного автора дело просто не доходит.
И вот тут-то и кроется шанс на улучшение алгоритмов.
Авторы показывают, - если небольшое случайное подмножество сообщений отображать анонимно, то неискаженные предвзятостью их оценки читателями были бы относительно беспристрастным сигналом, который алгоритм ранжирования мог бы использовать для смягчения эффектов идентичности/популярности, не прибегая к тотальной анонимности контента, невозможной из практических соображений.
Т.е. шанс исправить алгоритмы соцсетей есть.
Только «съесть-то он съест, да кто ж ему даст?!»
FYI: По тегам этого поста в моем канале написано немало
#СоциальныеСети #Соцсети #КогнитивныеИскажения #Неравенство
Nature
Identity effects in social media
Nature Human Behaviour - Leveraging data from a longitudinal field experiment, Taylor and colleagues show that identity cues, such as a username, increase how viewers vote and reply to online...
Вирусность идей и мемов – весьма ограниченная аналогия их распространения.
Динамика социальных убеждений куда сложнее эпидемий гриппа.
Исследователи в одной области часто опираются на аналогии из других областей.
• Например, идеи из физики использовали, чтобы понять экономические процессы.
• А инструменты из экологии, - чтобы понять, как работают ученые.
• В прошлом веке компьютеры использовались в качестве аналогий для понимания человеческого разума.
• А теперь, поменявшись ролями, человеческий разум используется для понимания работы больших языковых моделей.
Но все аналогии работают лишь до определенных пределов. После чего они сломаются. И хитрость в том, чтобы понять:
✔️ где эти пределы?
✔️ какую другую аналогию следует использовать за этими пределами?
Одной из наиболее распространенных аналогий динамики убеждений является модель восприимчивости-инфицирования-выздоровления (SIR) - инструмент, разработанный в эпидемиологии. Модель SIR может описывать, как инфекция распространяется среди населения, и эту модель можно расширить до более сложных ситуаций: например, когда наличие одного убеждения увеличивает вероятность того, что человек примет другое, точно так же, как грипп или простуда могут увеличить вероятность развития пневмонии у человека.
Но как показывают в новой работе [1] два великолепных автора (Мирта Галесич и Хенрик Олссон),
✔️ убеждения и мемы могут распространяться совсем не так, как вирусы.
✔️ их передача далеко не всегда ведет к тому, что они закрепляется в новой голове.
✔️ а повторная передача идеи или мема может быть неэффективной и даже контрпродуктивной, если они радикально отличаются от существующих убеждений человека (ведь известно, что идеи распространяются легче, когда люди разделяют другие соответствующие убеждения и характеристики).
Для точного описания распространения идей и мемов за пределами корректности модели SIR нужны иные аналогии: ферромагнетизм, пороговые переходы, силы, эволюция, весовые аддитивные модели и байесовское обучение.
Абстрактная иллюстрация динамики убеждений выглядит примерно так, как показано на картинке поста (авторы Хенрик Олссон и Dall-E) https://telegra.ph/file/d8ff4c5482cbe39c95481.jpg
Эти новые аналогии открывают нам возможность понять и прогнозировать динамику когнитивных процессов в самых сложных системах на свете – процессов коллективного поведения социумов (привет психоистории Айзека Азимова!)
1 https://www.sciencedirect.com/science/article/pii/S1364661324001724
На этом канале я не раз писал об интереснейших работах Мирты Галесич и Хенрикв Олссона.
Рекомендую освежить в памяти хотя бы эти:
• Как появление кнопок «нравится» и «поделиться» запустило процесс бурного роста поляризации https://t.me/theworldisnoteasy/1391
• Как соцсети множат раскол, искажая наши представления о мире https://t.me/theworldisnoteasy/482
• Про то, что в соцсетях центристы неотвратимо превращаются в экстремистов https://t.me/theworldisnoteasy/1254
#Аналогии #ДинамикаУбеждений #СоциальныеСети
Динамика социальных убеждений куда сложнее эпидемий гриппа.
Исследователи в одной области часто опираются на аналогии из других областей.
• Например, идеи из физики использовали, чтобы понять экономические процессы.
• А инструменты из экологии, - чтобы понять, как работают ученые.
• В прошлом веке компьютеры использовались в качестве аналогий для понимания человеческого разума.
• А теперь, поменявшись ролями, человеческий разум используется для понимания работы больших языковых моделей.
Но все аналогии работают лишь до определенных пределов. После чего они сломаются. И хитрость в том, чтобы понять:
✔️ где эти пределы?
✔️ какую другую аналогию следует использовать за этими пределами?
Одной из наиболее распространенных аналогий динамики убеждений является модель восприимчивости-инфицирования-выздоровления (SIR) - инструмент, разработанный в эпидемиологии. Модель SIR может описывать, как инфекция распространяется среди населения, и эту модель можно расширить до более сложных ситуаций: например, когда наличие одного убеждения увеличивает вероятность того, что человек примет другое, точно так же, как грипп или простуда могут увеличить вероятность развития пневмонии у человека.
Но как показывают в новой работе [1] два великолепных автора (Мирта Галесич и Хенрик Олссон),
✔️ убеждения и мемы могут распространяться совсем не так, как вирусы.
✔️ их передача далеко не всегда ведет к тому, что они закрепляется в новой голове.
✔️ а повторная передача идеи или мема может быть неэффективной и даже контрпродуктивной, если они радикально отличаются от существующих убеждений человека (ведь известно, что идеи распространяются легче, когда люди разделяют другие соответствующие убеждения и характеристики).
Для точного описания распространения идей и мемов за пределами корректности модели SIR нужны иные аналогии: ферромагнетизм, пороговые переходы, силы, эволюция, весовые аддитивные модели и байесовское обучение.
Абстрактная иллюстрация динамики убеждений выглядит примерно так, как показано на картинке поста (авторы Хенрик Олссон и Dall-E) https://telegra.ph/file/d8ff4c5482cbe39c95481.jpg
Эти новые аналогии открывают нам возможность понять и прогнозировать динамику когнитивных процессов в самых сложных системах на свете – процессов коллективного поведения социумов (привет психоистории Айзека Азимова!)
1 https://www.sciencedirect.com/science/article/pii/S1364661324001724
На этом канале я не раз писал об интереснейших работах Мирты Галесич и Хенрикв Олссона.
Рекомендую освежить в памяти хотя бы эти:
• Как появление кнопок «нравится» и «поделиться» запустило процесс бурного роста поляризации https://t.me/theworldisnoteasy/1391
• Как соцсети множат раскол, искажая наши представления о мире https://t.me/theworldisnoteasy/482
• Про то, что в соцсетях центристы неотвратимо превращаются в экстремистов https://t.me/theworldisnoteasy/1254
#Аналогии #ДинамикаУбеждений #СоциальныеСети