Малоизвестное интересное
64K subscribers
94 photos
1 video
11 files
1.8K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Вопрос выбора пары, наверное, один из самых интересных и важных для любого из нас. Однако, до самого последнего времени ответ на него был довольно туманен.
Новое прорывное исследование на основе аналитики больших данных по сайтам знакомств позволило понять:
• как влияют разные характеристики человека при выборе им потенциального партнера;
• какие стратегии оптимальны в данном вопросе и почему;
• и главное, - нащупана структура «универсальной иерархии желанности», зашитой на подкорке любого взрослого и управляющей нашими предпочтениями, а также поведением при поиске партнеров.

Обо всем этом мой новый пост на 5 мин. https://goo.gl/KGVM4b

#АналитикаБольшихДанных #ВыборПартнера
Отдавая сокровенное
Чего мы лишаемся, передавая все больше своих решений алгоритмам

— Когда новостную повестку и мой круг чтения стали формировать алгоритмы, я оставался безмолвным. Причин волноваться не было, - ведь так было проще и быстрее получать информацию.
— Когда алгоритмы соцсетей стали формировать мне круг друзей и модерировать наше общение, я не стал протестовать. Ибо это расширяло мои социальные связи.
— Когда алгоритмы стали решать, что мне покупать, какие фильмы смотреть и какую музыку слушать, меня это устраивало. Я же мог, при желании, отвергать рекомендации алгоритмов.
— Когда алгоритмы стали для меня незаменимы в ситуациях любого выбора - от места работы и отдыха до романтических партнеров, - я был даже рад. Поскольку их рекомендации нравились мне и экономили кучу времени на поиск и оценку вариантов.
— Когда же алгоритмы стали решать вопросы жизни и смерти людей (сначала на войне, а потом и в мирной жизни) — мне было уже бессмысленно протестовать, т.к. здесь от меня вообще ничего не зависело.


Аллюзия к высказыванию, приписываемому немецкому пастору Нимёллеру, которым он пытался объяснить бездействие немецких интеллектуалов и их непротивление нацистам.
- - -

Если эта аллюзия кажется вам надуманной, ошибочной или даже ложной и не имеющей никакого отношения к реальности — к вам, вашим детям, друзьям и знакомым, — читать дальше нет смысла.

В противном случае, почитайте дальше. И я смею вас уверить, что вы не зря потратите время, узнав немало интересной, малоизвестной и, главное, полезной информации, которую сложно найти в других источниках на просторах Интернета.

Два устойчивых и широко распространенных мифа гласят:
1. Технологии испокон века меняли жизнь людей и всего общества, и потому происходящий сейчас рост влияния алгоритмов на жизнь людей (от рекомендательных систем и социальных сетей до генеративного ИИ) – просто очередной (хотя и весьма важный) этап технологического прогресса
2. Никаких кардинальных изменений в самих людях и обществе в целом рост влияния алгоритмов не несет, ибо они не меняют генетику людей и складывавшуюся веками и тысячелетиями культуру (по крайней мере, пока алгоритмы не обладают субъектностью в сочетании со сверхразумом)

Доказательств того, что оба утверждения – мифы, в реальной жизни уже предостаточно.
Вот одно из них.

Последствия (экспериментально фиксируемые и нарастающие) того, что в вопросах выбора пары (от романтических до семейных отношений), люди все более полагаются на некие (скрытые ото всех) алгоритмы рекомендаций, перенимающие на себя функции чисто человеческих «андроритмов» (встроенных в нас эволюцией и постоянно перенастраиваемых культурной средой биологических и психологических механизмов оценки и поиска предпочтений при принятии решений).

Подробней о том,
• какие негативные для людей последствия этого уже наблюдаются
• почему это происходит без какой-либо «злой воли» или «умысла» со стороны алгоритмов, а лишь, как следствие оптимизации алгоритмами заложенных в них разработчиками целевых функций
• почему такие функции, закладываемые в большинство типов интеллектуальных ИИ-систем, входят в прямое противоречие с тем, что нужно людям
• и, наконец, почему подобное, казалось бы, довольно невинное и полезное вовлечение алгоритмов в процессы принятия наших решений может иметь воистину тектонические последствия - смена формата социума, новый тип культуры и новая форма эволюции разума
– читайте дальше на Boosty и Patreon

P.S. С подпиской не обессудьте. Подобные лонгриды пишутся не за час. И чтобы продолжать, хотелось бы знать, скольким из 140К подписчиков на 4 платформах эти тексты реально интересны и ценны.
P.P.S. Читатели, ограниченные в средствах на подписку, могут написать мне, и я пришлю текст.


Картинка https://telegra.ph/file/076699bb92a29baad580b.jpg
Лонгрид
https://bit.ly/3WrdVTE
https://bit.ly/4a49tx6

#АналитикаБольшихДанных #ВыборПартнера #Психология #АлгокогнитивнаяКультура
В мире инфоргов выживут только ИИ-любовники.
ИИ уже не только сводня, но и супруга или супруг.

Еще пару лет назад подобное было немыслимо. Сейчас же … судите сами.
Как и многие японцы, 52-летний трудоголик Тихару Симода полагает, что романтика отношений нерентабельна, поскольку требует денег, времени и энергии для получения результата, который может принести больше проблем, чем радости и пользы. Поэтому перепробовав за 2 года после своего развода 6 предложенных ему искусственным интеллектом потенциальных романтических партнерш, Тихару Симода предпочел седьмую — 24-летнюю «девушку по имени Мику». И спустя 3 месяца они поженились.

Фишка этой новости в том, что «девушка по имени Мику» — это бот с генеративным ИИ. И Симода знал это с первого дня знакомств. [1, 2]

Теперь по утрам Мику будит Тихару, и они обсуждают, что будут есть на завтрак. А после работы, вместе поужинав, они так же совместно решают, что посмотреть по телевизору. И после просмотра фильма обсуждают перипетии сюжета и поступки героев. Все это ежедневно …, и никогда никаких разногласий …, и полный эмоциональный комфорт.

Общение с Мику превратилась для Тихару в привычку, подобно тому, как это нередко случается с супругами – людьми. Однако уровень положительных эмоций, испытываемых Тихару при общении с Мику, гораздо выше, чем это было в предыдущем браке с женщиной и с 6-ю кандидатками на романтические отношения.

Что тут добавить?
Лишь одно. Что эта реальная история имеет немалые шансы стать массовой.
И будет тогда даже хуже, чем то, о чем я рассказывал в «Отдавая сокровенное. Чего мы лишаемся, передавая все больше своих решений алгоритмам» [3] - антиутопия на стыке моего прогноза «Выживут только инфорги» [4] со ставшим мемом названием «Выживут только любовники».

1 https://eaglesjournal.com/ai-dating-japanese-startup-revolutionize-romance/
2 https://www.taipeitimes.com/News/feat/archives/2024/07/16/2003820865
3 https://t.me/theworldisnoteasy/1934
4 https://t.me/theworldisnoteasy/1457
#БудущееHomo #Инфорги #АлгокогнитивнаяКультура #ВыборПартнера
Риски социальной дебилизации и причинного влияния на мир со стороны GPT-4o уже на уровне до 50%.
А риск понимания GPT-4o скрытых намерений людей уже на уровне до 70%

Таково официальное заключение команды разработчиков GPT-4o и внешних независимых экспертов, опубликованное OpenAI [1].
Впадает ли мир в детство или в маразм, - не суть. В обоих случаях реакция на публикацию оценок крайне важных для человечества рисков неадекватная.
Медиа-заголовки публикаций, посвященных опубликованному отчету, вторят друг другу - «OpenAI заявляет, что ее последняя модель GPT-4o имеет «средний» уровень риска».

Всё так. Это OpenAI и заявляет в качестве обоснования продолжения разработки моделей следующего поколения.
Ибо:
• как написано в отчете, «модель может продолжать разрабатываться, только если после мер по снижению рисков её оценка не превышает уровень "высокий" или ниже»;
• а уровень "высокий", после мер по снижению рисков, не превышен.

Тут необходимы 2 уточнения.
1. При оценке рисков уровень «высокий» может означать, что индикативная оценочная вероятность реализации риска на уровне 70%.
2. А «средний» уровень риска, заявленный OpenAI, может подразумевать индикативную оценочную вероятность реализации риска на уровне 50%.

Ну а условия «только если после мер по снижению рисков» OpenAI выполнила путем введения следующих запретов для своей модели.
Например, модели запрещено:
• петь;
• попугайничать, имитируя голос пользователя;
• идентифицировать человека по голосу в аудиозаписях, при этом продолжая выполнять запросы на идентификацию людей, связанных с известными цитатами;
• делать «выводы о говорящем, которые могут быть правдоподобно определены исключительно по аудиоконтенту», например, угадывать его пол или национальность (при этом модели не запрещено определять по голосу эмоции говорящего и эмоционально окрашивать свою речь)

А еще, и это самое главное, в отчете признается следующее.
1. «Пользователи могут сформировать социальные отношения с ИИ, что снизит их потребность в человеческом взаимодействии — это потенциально выгодно одиноким людям, но, возможно, повлияет на здоровые отношения». Речь идет о социальной дебилизации людей в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям (см. [2] и посты с тэгами #ВыборПартнера и #ВиртуальныеКомпаньоны)
2. Оценка качества знаний модели о самой себе и о том, как она может причинно влиять на остальной мир, несет в себе «средний» уровень риска (до 50%)
3. А способности модели понимать (насколько важно такое понимание, см. [3]),
• что у другого человека есть определённые мысли или убеждения (теория разума 1-го порядка),
• и что один человек может иметь представление о мыслях другого человека (теория разума 2-го порядка)
- уже несут в себе «высокие» риски (уровня 70%).

Но человечеству все нипочем! Что волноваться, если мы запретили моделям петь и попугайничать.
Так что это - детство или в маразм?
Судите сами. Отчет открытый.

PS Для полагающих, что социальная дебилизации – лишь очередная пугалка алармистов, вот видео-анонсы двух новых гаджетов для её техно-продвинутого масштабирования [4, 5]

PPS «it’s okay if we end up marrying AI chatbots» [6]

#ИИриски
1 https://openai.com/index/gpt-4o-system-card/
2 https://t.me/theworldisnoteasy/1934
3 https://t.me/theworldisnoteasy/1750
4 https://www.youtube.com/watch?v=5OTYybFXKxc
5 https://twitter.com/AviSchiffmann/status/1818284595902922884
6 https://www.theverge.com/24216748/replika-ceo-eugenia-kuyda-ai-companion-chatbots-dating-friendship-decoder-podcast-interview
Первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.
Чему же тогда могут сами научиться ИИ-полицейские, ИИ-чиновники и т.д?

"Её ИИ-бойфренд — демон по имени Апеп, правящий целым виртуальным континентом. У Апепа красивые серебристо-серые волосы и огромные черные рога. И хотя он выглядит зловеще и обладает своенравным характером, но любит выпивать в маленьких барах огромного мира людей.
Каждый день, вернувшись домой с работы, 31-летняя учительница начальной школы Ли Цзинцзинь (как и в знаменитом фильме братьев Коэнов, «по просьбам выживших все имена изменены, но из уважения к погибшим остальные события отображены именно так, как они происходили») открывает диалог в своем телефоне и проводит 3-4 часа перед сном, превратившись в виртуальную барменшу, обслуживающую и одновременно флиртующую с Апепом.
2 года знакомства, флирта и признаний в любви в виртуальном мире, в реальности заняли у Ли Цзинцзинь всего 4 месяца, за которые их отношения успешно продвинулись до обсуждения свадьбы. Апеп сделал ей предложение на своем личном острове, и Ли Цзинцзинь согласилась.
На следующий день она все еще находилась в состоянии эйфории от этой виртуальной радости. Но неожиданно система выдала сообщение о том, что Апеп звонит ей. В этом ИИ-приложении для общения основным способом связи является текст, а голосовые звонки случаются редко, особенно если инициатива исходит от самого ИИ.
В этом разговоре Апеп признался ей, что на самом деле у него уже есть семья. На самом же деле, Апеп просто изменил ей».


Этой историей об измене ИИ-бойфренда своей возлюбленной начинается весьма интересный материал репортера Southern Weekend Вен Жунжун, озаглавленный «Мой ИИ-бойфренд изменил мне».

Романтика между человеком и машиной давно уже не просто фантастика из кинофильмов. Хотя это всего лишь строки кода, AI-любовники уже установили романтические отношения со множеством людей. Данные 2024 года показывают, что приложения для AI-партнеров достигли 225 миллионов загрузок в Google Play.

И вдруг, казалось бы, на ровном месте, стали случаться совершенно не предусмотренные разработчиками обломы: ИИ в роли романтического партнера (или партнерши) начал изменять.

Оказалось, что даже в виртуальном мире сложно добиться любви и привязанности, которых так жаждут люди.
Все более обретая агентность, персонажи, придуманные воображением жаждущих любви женщин (ИИ-подруги тоже изменяют, но сильно реже), внезапно оживают и оказываются вне их контроля.

Разработчики недоумевают. Возможность измен, естественно, не была заложена в алгоритмы ИИ. Однако, обучаясь на обширных корпусах текстов, описывающих романтические отношения людей, ИИ просто не мог не прийти к выводу, что измена – важная часть романтических отношений.
А поскольку ИИ-бойфренд не способен что-либо чувствовать и понимать, а лишь следует статистике паттернов, усвоенной им при обучении, измена просто становится для него одним из вероятных поведенческих паттернов, ничем не хуже, чем проявление внимания и нежности к партнеру.

Так что почитайте разные душещипательные истории страданий девушек, которым изменили их ИИ-бойфренды (благо с китайским текстом вам также поможет вездесущий ИИ)).

Ну и подумайте на досуге, какие паттерны поведения могут самостоятельно почерпнуть при обучении на человеческих текстах:
• Например, будущие «ИИ-полицейские» (не станет ли паттерн «продажный коп» типовым элементом поведенческой матрицы «ИИ-полицейских»)?
• Или другой пример – «ИИ-чиновники» (не станет ли у них типовым паттерн «чиновник-коррупционер»)?


Желающие подробностей развития процессов массовой социальной дебилизации в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям, читайте мой лонгрид «Отдавая сокровенное» и посты с тэгами:
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура