Малоизвестное интересное
64.7K subscribers
95 photos
1 video
11 files
1.8K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Рентген, УЗИ и МРТ социальных сетей.
Три мощных бесплатных детектора сетевой пропаганды и лжи.

Иллюзий уже никто не питает. Социальные сети всё более превращаются в инструмент дезинформации и манипулирования.
Но слава богу и здесь работает принцип соревнования брони и снаряда. Специалисты по обработке данных, журналисты и исследователи роли СМИ и технологий в обществе получают в свои руки все более мощные инструменты выявления источников и способов сетевой пропаганды и лжи.

Обсерватория социальных сетей, или OSoMe, при Университете Индианы запустила три новых обновленных инструмента (своего рода Рентген, УЗИ и МРТ социальных сетей): Каскадометр, Трендометр и Ботометр.
1. Каскадометр (Networks Tool) строит интерактивную 3D карту распространения информации в Twitter, позволяя видеть образование инфокаскадов, подобно зарождению смерчей и ураганов.
2. Трендометр (Trends Tool) позволяет анализировать количество твитов с заданным хэштегом, URL или ключевым словом. Этот инструмент показывает, какие темы в тренде и что становится вирусным.
3. Ботометр (BotAmp Tool) позволяет определять вероятную активность ботов для твитов, отфильтрованных по поисковому запросу. Это нужно, чтобы понимать, насколько популярность той или иной темы обязана поддержке со стороны ботов.

Все 3 инструмента от OSoMe используют огромный поток данных - примерно 50 млн твитов в день, собранных из Twitter. Это примерно 10% общедоступных твитов, которые затем анализируются и индексируются для использования с помощью инструментов OSoMe.
Пользователи 3х инструментов могут визуализировать данные любого конкретного месяца за предыдущие три года. Большинство существующих инструментов не позволяют столь глубокий анализ.

Исследователям дезинформации и манипулирования в сети стоит поторопиться. Ибо соревнование брони и снаряда продолжается. А значит пропагандисты и манипуляторы довольно скоро найдут и на эти хитрые инструменты свои крутые гайки.
https://news.iu.edu/stories/2022/07/iub/releases/27-social-media-tools-bots-viral-posts.html
#Интернет #СоциальныеСети #Дезинформация #Манипулирование
​​Кардинальный скачок эскалации войны е-добра и е-зла.
В Твиттере уже воюют целые «ЧВК социохакинга»

Еще 5 лет назад я писал, что с переходом человечества в цифровую реальность, первым же полем битвы е-добра с е-злом оказываются социальные сети. И по аналогии с материальным миром, первый удар, как обычно, наносит е-зло. Его цель - взятие под контроль новостной повестки человечества.
Стратегическим оружием е-зла являются соцботы - аккаунты в соцсетях, контролируемые алгоритмами. Они а) искажают инфоповестку в нужную сторону, раздувая одни новости (в том числе фейковые) и тем самым оттирая внимание от других; б) распространяют дезинформацию и рассылают спам; в) усиливают значимость в сети определенных нарративов.
Эти боты е-зла научились эволюционировать. Теперь они не просто пытаются выдавать себя за людей (что худо-бедно научились распознавать средства ПБО (противоботовой обороны), но и научились вовлекать в свои инфокаскады людей. Прячась за их спинами от ПБО, соцботы эффективно отрабатывают стратегию сбивания людей в стада своих и чужих.

И все же главный недостаток соцботов – недостаток их интеллекта, - до последнего времени не позволял им создавать реалистичные персоны, размещать убедительный контент или автоматически вести естественные диалоги с другими аккаунтами. Недавний скачок в развитии и широком внедрении больших языковых моделей (LLM) полностью поменял эту картину. Теперь злоумышленники могут легко использовать языковые модели для значительного расширения возможностей соцботов по всем параметрам.

И пока исследователи, политики и журналисты спорят о рисках развития ИИ, способах его морального воспитания и контроля на ним, - предприимчивые агенты е-зла ужу вовсю используют новое поколение соцботов на основе LLM.

Обсерватория социальных сетей OSoMe (об их новых инструментах Каскадометр, Трендометр и Ботометр - своего рода Рентген, УЗИ и МРТ социальных сетей, я писал год назад) только что опубликовала результаты исследования «Анатомия вредоносного социального ботнета на базе ИИ». Результаты, увы, печальные.

✔️ С помощью эвристики, исследователи обнаружили в соцсети Twitter (новое название — X) целую “ЧВК социохакинга” Fox8 – плотно сбитый кластер из 1140 поддельных алгоритмических персон, работающих на основе ChatGPT:
— генерирующих контент, не отличимый от контента людей;
— демонстрирующих единую сложную модель поведения (следуют единой вероятностной модели, определяющей типы и частоту их активности):
— коллективно преследующих единые цели на основании инструкций по созданию различного контента, получаемых ими от неизвестных операторов;
— координирующих и синхронизирующих свои действия по продвижению подозрительных сайтов и распространению вредоносных комментариев;
— успешно обходящих все традиционные средства ПБО.

✔️ Fox8, скорее всего, является лишь вершиной айсберга “ЧВК социохакинга”: операторы других “ЧВК” на основе LLM, могут быть не столь беспечны.

✔️ Как либо препятствовать беспределу “ЧВК социохакинга” в Twitter (теперь это X) будет сложно. Ведь Twitter приостановил бесплатный доступ к API для исследователей. И теперь повторить анализ, проведенный OSoMe, или найти новые “ЧВК социохакинга” на базе LLM, может оказаться невозможным.

Также см. мои предыдущие посты по тэгам:
#Соцботы #Социохакинг #Дезинформация #Манипулирование
Ложная поляризация, или не все оппоненты сво…
Люди не любят несогласных с ними за взгляды, которых большинство из них, в действительности, не придерживаются.

В наступившую эпоху «постправды» (когда правда легко подменяется трудно диагностируемой ложью) политикам и пропагандистам выгодно все больше и больше врать, распространяя ложную или вводящую в заблуждение информацию (что они и делают).

Это еще более усугубляется «эпидемией поляризации» общества все большего числа развитых стран. Такая поляризация добивает наше и так сильно ослабленное заложенными в нас эволюцией предвзятостями восприятие мира и других людей.

Ведь мы живем, по сути, не в реальном мире, а в мире собственных представлений о нем. Потому наше восприятие и представление мыслей и/или чувств оппонентов может быть для нас даже более значимым, чем их реальные мысли и чувства.

Неверные представления о предвзятости других возникают, потому что все мы – т.н. «наивные реалисты» Мы полагаем, будто способны воспринимать мир таким, каков он есть на самом деле, и что люди, не разделяющие наши взгляды:
1. либо плохо информированы,
2. либо (если 1-е можно исключить) неспособны объективно видеть мир (то есть предвзяты).

Политикам наш наивный реализм в эпоху постправды, усугубленную поляризацией, чрезвычайно удобен. И потому они все чаще врут напропалую.

Сделать что-либо с этим сложно. Ведь для начала нужно разобраться:
• насколько сильно суждения человека о такой лжи зависят от того, является ли он сторонником лжеца (это т.н. «реальная предвзятость»);
• и насколько человек ожидает, что суждения других людей будут зависеть от такой предвзятости (это т.н. «воспринимаемая предвзятость»).

Поясню на примере.
Представьте себя в роли болельщика одной из двух футбольных команд: «Спартака» или «Динамо». Допустим, вам больше нравится «Спартак». Вы считаете, что валяющийся на газоне игрок «Динамо» симулирует травму, чтобы выиграть время, или чтобы вынудить судью наказать игрока «Спартака». Ваше мнение о том, что он обманывает, может быть немного предвзятым, потому что он из команды соперников. Но если такой же трюк проделает игрок «Спартака», вы будете куда менее строгим в своих суждениях.

Так вот, исследования показывают (используя терминологию моего примера).
1) Болельщики «Спартака» не любят болельщиков «Динамо», т.к. уверены, что большинство из них - упертые в своей предвзятости фанаты (и наоборот).
А это вовсе не так. Это явление известно как «ложная поляризация»: люди не любят своих идейных оппонентов за взгляды, которых в действительности придерживаются лишь немногие из них [1].
2) Если вы – болельщик «Спартака», вы думаете, что все болельщики «Динамо» предвзяты по отношению к вашему скорчившемуся на газоне от боли игроку, считая его хитрым лжецом, обманывающим судью, чтобы тот показал форварду «Спартака» желтую карточку.
Еще удивительней, что вы также будете ошибочно предполагать, что уровень предвзятости других болельщиков «Спартака» будет примерно такой же (не высокий), как у вас.
И то, и другое также не так. Ибо люди склонны переоценивать предвзятость других, что усиливает недоверие и разобщенность между разными группами интересов, пристрастий и взглядов [2].

Этот пример и эти выводы могут показаться простыми и очевидными.
Но, увы, именно на этом нас и разводят дезинформацией (массово, легко и непринужденно) политики и пропагандисты всех мастей.
✔️ И чем больше поляризация в обществе, тем у пропагандистов и политиков эта дэза лучше заходит.
✔️ И чем более распространены технологии постправды в Интернете [3], тем легче с помощью дезы стравливать политических оппонентов.


Картинка https://telegra.ph/file/3816bbfa25770101c48fb.jpg
1 https://osf.io/preprints/psyarxiv/cr23g
2 https://journals.sagepub.com/doi/full/10.1177/19485506231220702
3 https://arxiv.org/pdf/2301.04246
#КогнитивныеИскажения #Поляризация #ПолитическаяПредвзятость #Дезинформация #Раскол