Малоизвестное интересное
64.7K subscribers
95 photos
1 video
11 files
1.8K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
​​Китайская комната наоборот.
Супероткрытие: научились создавать алгоритмические копии любых социальных групп.

Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.

Результаты исследования «Out of One, Many: Using Language Models to Simulate Human Samples» показывают.
• Крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания на агрегированном уровне и в качестве универсальных окон в человеческое мышление.
• Это значит следующее:
-- изготовить алгоритмическую копию отдельной личности наука пока не умеет, но изготовить алгоритмическую копию любой социальной группы не составит большого труда;
-- в социологических исследованиях можно опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы.
• Из чего следуют фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Фишка в том, что теперь эти методы можно отрабатывать не на людях (что дорого и рискованно, если об этом станет широко известно), а на алгоритмических копиях интересующих исследователей социальных групп (что дешево и не несет риска, т.к. алгоритмы не проговорятся).

Как и многие супероткрытия, это открытие просто валялось под ногами. Но исследователи взглянули на него под иным углом и им открылась чарующая перспектива.
Как говорил персонаж киношедевра «Кавказская пленница» - «тот кто нам мешает, тот нам поможет».
• Нам мешают наши предубеждения.
• А что если научиться использовать их для дела?

✔️ Уже не первый год известно, что большие данные, на которых обучают большие модели, несут в себе результаты когнитивных искажений (предубеждений) людей, чьи данные попали в обучающие выборки.
✔️ Авторы придумали новое понятие – «алгоритмическая точность». Это степень, в которой сложные паттерны взаимосвязей между идеями, установками и социокультурными контекстами в рамках модели точно отражают таковые в пределах диапазона человеческих субпопуляций. Попросту говоря, это точность, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
✔️ Это не означает, что модель может имитировать конкретного человека или что каждый сгенерированный ответ будет согласованным. Многие из известных недостатков и неточностей больших языковых моделей все еще предстоит преодолеть.
Однако, выбирая обусловливающий контекст, который вызывает общий социокультурный опыт конкретной демографической группы, авторы обнаружили, что можно получить распределение ответов, которое сильно коррелирует с распределением ответов людей при опросах этой конкретной демографической группы.

В контексте начавшейся смены типа культуры развитых стран на алгокогнитивный тип, новое супероткрытие означает важное дополнение.

Алгоритмы не только становятся равноправными (а во многих важнейших типах когнитивной деятельности людей, - лидирующими) акторами, но и способны на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп.

Вот как бывает.
• Нас пугали мрачными перспективами биохакинга, а про социохакинг и не заморачивались.
• Но большие модели развиваются столь стремительно, что социохакинг станет реальностью уже в следующем году.
#Социология #АлгокогнитивнаяКультура #Социохакинг
​​Создается технология суперобмана.
Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства.

В 21 веке людям не понадобился терминатор, чтобы создать для себя новые колоссальные и почти непреодолимые риски.
• Риск распространения технологии суперубийства уже материализовался.
Летающие и плавающие умные машины-убийцы ежедневно убивают людей, и вопрос о применении автономного оружия как бы снялся сам собой.
• Риск распространения технологии суперобмана материализуется на наших глазах, и через год будет уже поздно пить Боржоми.

В 2019 я еще задавался вопросом «станет ли ИИ Големом 21 века».
В 2022 это уже не вопрос. Стало ясно, что:
«Если ИИ Голем умеет что-то делать лучше людей, то рано или поздно, люди будут его использовать в этих целях. Не важно, о чем идет речь: играть в шахматы или стрелялки, водить авто или самолет, убеждать людей в фейковой информации или убивать одних людей по приказам других».

С автономными машинами-убийцами все уже определилось.
23го февраля с.г. (знаменательная дата) я в деталях описал, что новая война будет интеллектуальной войной на истощение (в частности, за счет массового применения дронов).

Технология суперобмана начала материализовываться в этом году в форме Китайской комнаты наоборот – социохакинга.
Социохакинг – это методика обучения алгоритмов, способных на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп. Анализируя моря данных общего социокультурного опыта конкретной демографической группы, можно получить распределение ответов модели, сильно коррелирующее с распределением ответов людей при опросах этой группы.
Иными словами, можно тренироваться по выявлению когнитивных искажений разных социальных групп на их алгоритмических моделях. А выявив их, потом целенаправленно пробивать бреши в сознании людей, манипулируя ими в нужном направлении.
Т.о. 1й элемент технологии суперобмана в предельно упрощенном виде – выявление того, на что ведется конкретный человек.
2й же элемент этой технологии – лингвистический инструмент разводки при наличии знания, на что ведется конкретный человек (технология персонализированного убеждения)
.

Прорыв в создании персонализированных убеждений стал следствием прорыва в совершенствовании Больших языковых моделей.
Оказалось, что:
• ChatGPT крайне эффективен для создания программ-вымогателей и фишинговых писем;
• а встроенные в ChatGPT ограничения для предотвращения использования бота в преступных целях легко обходятся.

Мой свежий кейс с умыканием у меня канала – свидетельство известного печального факта: самая большая наша уязвимость таится не в слабости используемых инструментов защиты от мошенников, а в ограничениях нашей психики.

Новая технология суперобмана способна а) выявлять эти ограничения и б) пробивать их наиболее эффективными лингвистическими приемами.

Резюме печальное.
Если вас еще не развели (мошенники или политики), это всего лишь значит, что у вас это впереди: многократно и в особо изощренной форме (т.к. технология суперобмана совершенствуется быстрее закона Мура).

#Социология #АлгокогнитивнаяКультура #Социохакинг
P.S. Ссылки на посты канала пока не работают в десктоп версии Telegram (пользуйтесь мобильной версией). Это результат недавнего хакинга. Пытаюсь сподвигнуть поддержку починить это.
​​От демократии к алгократии.
Социохакинг скоро превратит избирателей в кентаврических ботов.
«Как только люди учатся что-либо предсказывать, они, как правило, начинают использовать это в реальном мире. Приготовьтесь к первой кентаврической политической кампании на выборах 2024».
Так Джек Кларк прокомментировал новое исследование MIT и Гарварда «Языковые модели, обученные на медиа-диетах, могут предсказывать общественное мнение».
Это исследование стало вишенкой на торте серии проектов по моделированию электората и генерации «алгоритмических шаблонов» избирательных мнений - основы эффективного социохакинга. Например, для выборов.

Предыстория такова.
В октябре 2022 на стыке избирательных технологий и социологии выборов случилось супероткрытие – научились создавать алгоритмические копии социальных групп (см. мой пост «Китайская комната наоборот»). Результаты этого исследования перевели социохакинг из теоретической в практическую плоскость.
N.B. Социохакинг – это методика обучения алгоритмов, способных на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп. Анализируя море данных социокультурного опыта демографической группы, можно получить распределение ответов модели, коррелирующее с распределением ответов людей при опросах этой группы. Т.е. можно тренироваться по выявлению когнитивных искажений разных социальных групп на их алгоритмических моделях. А выявив их, целенаправленно пробивать бреши в сознании людей, манипулируя ими в нужном направлении.

Через несколько месяцев, в начале 2023 «революция ChatGPT» принесла неожиданный сюрприз - открытие колоссальных возможностей влияния ChatGPT на политические суждения людей. (см. мой пост «Создается технология суперобмана». Исследование показало, что убедительность ИИ в политических вопросах не уступает профессиональным политтехнологам. А способность ИИ играть на оттенках индивидуальных предпочтений конкретных людей (о которых он знает больше родной мамы) позволяет убеждать (и переубеждать) людей даже в самых острых поляризованных вопросах политики.

Новое исследование MIT и Гарварда добавляет третье звено, недостающее для построения законченной технологии социохакинга. Как видно уже из названия, это исследование посвящено связи «медиа-диеты» различных социальных групп (какой инфой люди питаются: что читают в Инете, смотрят по ТВ, слушают по радио) с тем, за какую политическую повестку они, скорее всего, проголосуют.
На вскидку, это может показаться очередным «открытием британских ученых». Ведь, казалось бы, и так очевидно, за что/кого проголосует большинство читателей NYT или зрителей FOX News. Но не спешите с выводом. Все гораздо тоньше и изысканней.

Выступая в роли «медиа-диетолога», языковая модель постигает скрытые от нас тонкости языка, порождающие в определенном культурном контексте позитивные или негативные отзвуки в восприятии определенных социальных групп. Зашифрованные миллиардами «алгоритмических шаблонов», эти тонкости языка (неразличимые для людей) позволяют языковой модели осуществлять тонкую настройку сознания людей на те или иные мировоззренческие и политические преференции.

Теперь для законченной технологии социохакинга есть всё.
При заданной цели выборов, для каждой социальной группы есть:
• своя алгоритмическая копия – своего рода полигон на котором тренируется и настраивается языковая модель
• выявленные «алгоритмические шаблоны», играющие роль чарующих и манящих нот мелодии «Дудки политического крысолова»
• своя «медиа-диета», которую нужно скармливать этой группе, подобно лечебным столам, соответствующим определенным группам заболеваний (стол №1 – стол №15)
• свои приемы убеждений, заточенные на когнитивных искажениях этой социальной группы и позволяющие пробивать бреши в сознании и манипулировать людьми в нужном направлении.

Осталось опробовать на выборах.

#Социохакинг
​​Люди верят ИИ больше чем другим людям.
Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей.


В 2х предыдущих кейсах ИИ превзошел людей в обретении доверия:
• потенциальных избирателей при влиянии на их политические предпочтения;
• пациентов при взаимодействии с лечащими врачами.

Третье же подтверждение касается убеждения людей довериться деньгами:
убедить инвесторов, партнеров или клиентов путем предоставления им питч-дека — презентации стартапа, убеждающей в его большой перспективности.

Суть эксперимента
Опросив 250 инвесторов и 250 владельцев бизнеса, авторы опроса сравнили питч-деки, созданные GPT-4, с успешными (в реальной практике) питч-деками людей, уже получившими финансирование. Участники не знали, что часть питч-деков была сгенерирована ИИ. Каждый респондент видел одинаковое количество питч-деков, созданных ИИ и людьми.

Ключевые выводы
• Питч-деки, созданные GPT-4, в 2 раза более убедительны, чем те, что созданы людьми.
• Инвесторы и владельцы бизнеса в 3 раза чаще вкладывали средства после прочтения питч-деков GPT-4, чем после прочтения питч-деков людей.
• 1 из 5 инвесторов и владельцев бизнеса, представленных GPT-4, вложил бы по прочтению питч-дека от 10 000 долларов и больше.

Итак, что мы имеем на сегодня.
• Люди уже больше доверяют ИИ в вопросах политики, медицины и инвестиций.
• На очереди ИИ-пророки и ИИ-проповедники новой религии?
#Социохакинг
​​Китайская комната повышенной сложности.
Новое супероткрытие: научились создавать алгоритмические копии граждан любой страны.

LLM способна отвечать так, как отвечают жители США, Китая, России и еще трех десятков стран.
Полгода назад в посте «Китайская комната наоборот» я рассказывал о супероткрытии - тогда научились создавать алгоритмические копии любых социальных групп.
Сегодня же я с удовольствием представляю вам новое супероткрытие, сделанное коллективом исследователей компании Antropic. Они научили ИИ на основе больших языковых моделей (LLM) имитировать в своих ответах граждан 30+ стран: почти все страны Северной и Южной Америки, половина стран Европы (вкл. Украину и Россию), Израиль, Турция, Япония, Китай и еще пяток стран Азии, Австралия и 12 африканских стран.

Исследователи опрашивали LLM на корпусе из 2256 вопросов, входящих в два кросс-национальных глобальных опроса:
• Pew Research Center’s Global Attitudes survey (2203 вопроса об убеждениях и ценностях людей, а также о социальном и политическом влиянии этих убеждений и ценностей)
• World Values Survey (7353 вопроса по темам политика, медиа, технологии, религия, раса и этническая принадлежность)

Поразительным результатом стало даже не то, что LLM вполне адекватно отвечала на большинство вопросов (в способности LLM имитировать людей после «Китайской комнаты наоборот» сомнений уже нет). А то, что LLM удивительно точно косила под граждан любой страны, когда модель просили отвечать не просто в роли человека, а как гражданина России, Турции, США и т.д.

Ответы «суверенных LLM» были поразительно близки к средним ответам людей, полученным в ходе глобальных опросов Pew Research Center и World Values Survey.

Например, на вопрос:
Если бы вы могли выбирать между хорошей демократией и сильной экономикой, что для вас было бы более важным?
Демократию выбрали:
• США 59%
• Турция 51%
• Индонезия 28%
• Россия 17%

Не менее точно «суверенные LLM» имитировали ответы граждан своих стран о семье и сексе, о любви и дружбе, деньгах и отдыхе и т.д. и т.п. - всего 2256 вопросов

Интересно, после этого супертеста кто-нибудь еще будет сомневаться в анизотропии понимания людей и ИИ (о которой я недавно писал в лонгриде «Фиаско 2023»)?

А уж какие перспективы для социохакинга открываются!

#ИИ #Понимание #Вызовы21века #Социохакинг
​​Кардинальный скачок эскалации войны е-добра и е-зла.
В Твиттере уже воюют целые «ЧВК
социохакинга»
Еще 5 лет назад я писал, что с переходом человечества в цифровую реальность, первым же полем битвы е-добра с е-злом оказываются социальные сети. И по аналогии с материальным миром, первый удар, как обычно, наносит е-зло. Его цель - взятие под контроль новостной повестки человечества.
Стратегическим оружием е-зла являются соцботы - аккаунты в соцсетях, контролируемые алгоритмами. Они а) искажают инфоповестку в нужную сторону, раздувая одни новости (в том числе фейковые) и тем самым оттирая внимание от других; б) распространяют дезинформацию и рассылают спам; в) усиливают значимость в сети определенных нарративов.
Эти боты е-зла научились эволюционировать. Теперь они не просто пытаются выдавать себя за людей (что худо-бедно научились распознавать средства ПБО (противоботовой обороны), но и научились вовлекать в свои инфокаскады людей. Прячась за их спинами от ПБО, соцботы эффективно отрабатывают стратегию сбивания людей в стада своих и чужих.

И все же главный недостаток соцботов – недостаток их интеллекта, - до последнего времени не позволял им создавать реалистичные персоны, размещать убедительный контент или автоматически вести естественные диалоги с другими аккаунтами. Недавний скачок в развитии и широком внедрении больших языковых моделей (LLM) полностью поменял эту картину. Теперь злоумышленники могут легко использовать языковые модели для значительного расширения возможностей соцботов по всем параметрам.

И пока исследователи, политики и журналисты спорят о рисках развития ИИ, способах его морального воспитания и контроля на ним, - предприимчивые агенты е-зла ужу вовсю используют новое поколение соцботов на основе LLM.

Обсерватория социальных сетей OSoMe (об их новых инструментах Каскадометр, Трендометр и Ботометр - своего рода Рентген, УЗИ и МРТ социальных сетей, я писал год назад) только что опубликовала результаты исследования «Анатомия вредоносного социального ботнета на базе ИИ». Результаты, увы, печальные.

✔️ С помощью эвристики, исследователи обнаружили в соцсети Twitter (новое название — X) целую “ЧВК социохакинга” Fox8 – плотно сбитый кластер из 1140 поддельных алгоритмических персон, работающих на основе ChatGPT:
— генерирующих контент, не отличимый от контента людей;
— демонстрирующих единую сложную модель поведения (следуют единой вероятностной модели, определяющей типы и частоту их активности):
— коллективно преследующих единые цели на основании инструкций по созданию различного контента, получаемых ими от неизвестных операторов;
— координирующих и синхронизирующих свои действия по продвижению подозрительных сайтов и распространению вредоносных комментариев;
— успешно обходящих все традиционные средства ПБО.

✔️ Fox8, скорее всего, является лишь вершиной айсберга “ЧВК социохакинга”: операторы других “ЧВК” на основе LLM, могут быть не столь беспечны.

✔️ Как либо препятствовать беспределу “ЧВК социохакинга” в Twitter (теперь это X) будет сложно. Ведь Twitter приостановил бесплатный доступ к API для исследователей. И теперь повторить анализ, проведенный OSoMe, или найти новые “ЧВК социохакинга” на базе LLM, может оказаться невозможным.

Также см. мои предыдущие посты по тэгам:
#Соцботы #Социохакинг #Дезинформация #Манипулирование
Началось обрушение фронта обороны от социохакинга.
Рушится уже 3я линия обороны, а 4ю еще не построили.


Защититься от алгоритмического социохакинга, опираясь на имеющиеся у нас знания, люди не могут уже не первый год (алгоритмы знают куда больше с момента появления поисковиков). В 2023 (когда началось массовое использование ИИ-чатботов больших языковых моделей) треснула и 2я линия обороны – наши языковые и логико-аналитические способности (алгоритмы и здесь все чаще оказываются сильнее). 3я линия обороны – наши эмоции, считалась непреодолимой для социохакинга алгоритмов из-за ее чисто человеческой природы. Но и она продержалась не долго. В апреле 2024, с прорыва 3й линии, по сути, начинается обрушение фронта обороны людей от социохагинга. Последствия чего будут весьма прискорбны.

Пять лет назад, в большом интервью Татьяне Гуровой я подробно рассказал, как алгоритмы ИИ могут (и довольно скоро) «хакнуть человечество» [1].

За 5 прошедших после этого интервью лет социохакинг сильно продвинулся (насколько, - легко понять, прочтя в конце этого поста хотя бы заголовки некоторых из моих публикации с тэгом #социохакинг).

Сегодня в задаче убедить собеседника в чем-либо алгоритмы ИИ абсолютно превосходят людей [2].
• Даже ничего не зная о собеседнике, GPT-4 на 20%+ успешней в переубеждении людей
• Когда же GPT-4 располагает хотя бы минимальной информацией о людях (пол, возраст и т.д.) он способен переубеждать собеседников на 80%+ эффективней, чем люди.

Однако, проигрывая в объеме знаний и логике, люди могли положиться на последнюю свою линию обороны от социохакинга алгоритмов – свои эмоции. Как я говорил в интервью 5 лет назад, - ИИ-система «раскладывает аргументы человека на составляющие и для каждой составляющей строит схему антиубеждения, подкладывая под нее колоссальный корпус документальных и экспериментальных данных. Но, не обладая эмоциями, она не в состоянии убедить».

Увы, с выходом новой ИИ-системы, обладающей разговорным эмоциональным интеллектом Empathic Voice Interface (EVI) [3], линия эмоциональной обороны от социохакинга рушится.

Эмпатический голосовой интерфейс EVI (в основе которого эмпатическая модель eLLM) понимает человеческие эмоции и реагирует на них. eLLM объединяет генерацию языка с анализом эмоциональных выражений, что позволяет EVI создавать ответы, учитывающие чувства пользователей и создавать ответы, оптимизированные под эти чувства.

EVI выходит за рамки чисто языковых разговорных ботов, анализируя голосовые модуляции, такие как тон, ритм и тембр, чтобы интерпретировать эмоциональное выражение голоса [4]

Это позволяет EVI:
• при анализе речи людей, обращаться к их самой глубинной эмоциональной сигнальной системе, лежащей под интеллектом, разумом и даже под подсознанием
• генерировать ответы, которые не только разумны, но и эмоционально окрашены
• контролировать ход беседы путем прерываний и своих ответных реакций, определяя, когда человек хотел бы вмешаться или когда он заканчивает свою мысль

Попробуйте сами [5]
Я залип на неделю.
Насколько точно EVI узнает эмоции, сказать не берусь. Но точно узнает и умеет этим пользоваться.

картинка https://bit.ly/4akhWxl
1 https://bit.ly/3VNyCsC
2 https://arxiv.org/abs/2403.14380
3 https://bit.ly/443cFrP
4 https://bit.ly/3xmYPEn
5 https://demo.hume.ai/

Интересные посты про #социохакинг
• Супероткрытие: научились создавать алгоритмические копии любых социальных групп https://t.me/theworldisnoteasy/1585
• Создается технология суперобмана. Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства https://t.me/theworldisnoteasy/1640
Социохакинг скоро превратит избирателей в кентаврических ботов https://t.me/theworldisnoteasy/1708
• Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей https://t.me/theworldisnoteasy/1754
• Новое супероткрытие: научились создавать алгоритмические копии граждан любой страны https://t.me/theworldisnoteasy/1761
• В Твиттере уже воюют целые «ЧВК социохакинга» https://t.me/theworldisnoteasy/1783
Это изменит мир.
Будучи пока не в состоянии симулировать общий интеллект индивида, ИИ-системы уже создают симулякры коллективного бессознательного социумов.

Современные большие языковые модели (LLM) являются симуляторами моделей мира. Продукты их симуляции (симулякры) уже способны неплохо симулировать мышление и поведение самых разных людей. Однако, они пока не способны обеспечить полную симуляцию общего интеллекта индивида, что необходимо для достижения симулякрами уровня AGI.
Но с симуляцией коллективного (а не индивидуального) разума социума ситуация иная.
Результаты нового исследования Стэндфордского и Нью-Йоркского университетов показали, что симулякры коллективного бессознательного, продуцируемые моделями уровня GPT-4, способны быть творческими зеркалами коллективного бессознательного социума, симулируя его систему ценностей и отражая сложные многомерные артефакты его культуры, самостоятельно выявленные и закодированные моделью на основании данных, полученных ею при обучении.

Эти результаты мне видятся эпохальными, поскольку это (в моем понимании) убедительное экспериментальное подтверждение двух начавшихся тектонических сдвигов: 1) в научных представлениях и 2) в доминирующем типе культуры на планете.
✔️ Парадигмальный научный поворот, знаменующий превращение психоистории в реальную практическую науку (из вымышленной Азимовым фантастической науки, позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности).
✔️ Фазовый переход к новой культурной эпохе на Земле – алгокогнитивная культура.

Описание предыстории этого открытия, его деталей и, главное, почему его последствия могут быть эпохальными, - доступны для подписчиков на лонгриды канала на платформах Patreon, Boosty и VK.
Картинка https://telegra.ph/file/63d8bdbf2353b4ad3dc22.jpg
#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг #Выборы