Вопрос выбора пары, наверное, один из самых интересных и важных для любого из нас. Однако, до самого последнего времени ответ на него был довольно туманен.
Новое прорывное исследование на основе аналитики больших данных по сайтам знакомств позволило понять:
• как влияют разные характеристики человека при выборе им потенциального партнера;
• какие стратегии оптимальны в данном вопросе и почему;
• и главное, - нащупана структура «универсальной иерархии желанности», зашитой на подкорке любого взрослого и управляющей нашими предпочтениями, а также поведением при поиске партнеров.
Обо всем этом мой новый пост на 5 мин. https://goo.gl/KGVM4b
#АналитикаБольшихДанных #ВыборПартнера
Новое прорывное исследование на основе аналитики больших данных по сайтам знакомств позволило понять:
• как влияют разные характеристики человека при выборе им потенциального партнера;
• какие стратегии оптимальны в данном вопросе и почему;
• и главное, - нащупана структура «универсальной иерархии желанности», зашитой на подкорке любого взрослого и управляющей нашими предпочтениями, а также поведением при поиске партнеров.
Обо всем этом мой новый пост на 5 мин. https://goo.gl/KGVM4b
#АналитикаБольшихДанных #ВыборПартнера
Medium
Мы выбираем, нас выбирают
Как это происходит, и почему часто не совпадает
Отдавая сокровенное
Чего мы лишаемся, передавая все больше своих решений алгоритмам
— Когда новостную повестку и мой круг чтения стали формировать алгоритмы, я оставался безмолвным. Причин волноваться не было, - ведь так было проще и быстрее получать информацию.
— Когда алгоритмы соцсетей стали формировать мне круг друзей и модерировать наше общение, я не стал протестовать. Ибо это расширяло мои социальные связи.
— Когда алгоритмы стали решать, что мне покупать, какие фильмы смотреть и какую музыку слушать, меня это устраивало. Я же мог, при желании, отвергать рекомендации алгоритмов.
— Когда алгоритмы стали для меня незаменимы в ситуациях любого выбора - от места работы и отдыха до романтических партнеров, - я был даже рад. Поскольку их рекомендации нравились мне и экономили кучу времени на поиск и оценку вариантов.
— Когда же алгоритмы стали решать вопросы жизни и смерти людей (сначала на войне, а потом и в мирной жизни) — мне было уже бессмысленно протестовать, т.к. здесь от меня вообще ничего не зависело.
Аллюзия к высказыванию, приписываемому немецкому пастору Нимёллеру, которым он пытался объяснить бездействие немецких интеллектуалов и их непротивление нацистам.
- - -
Если эта аллюзия кажется вам надуманной, ошибочной или даже ложной и не имеющей никакого отношения к реальности — к вам, вашим детям, друзьям и знакомым, — читать дальше нет смысла.
В противном случае, почитайте дальше. И я смею вас уверить, что вы не зря потратите время, узнав немало интересной, малоизвестной и, главное, полезной информации, которую сложно найти в других источниках на просторах Интернета.
Два устойчивых и широко распространенных мифа гласят:
1. Технологии испокон века меняли жизнь людей и всего общества, и потому происходящий сейчас рост влияния алгоритмов на жизнь людей (от рекомендательных систем и социальных сетей до генеративного ИИ) – просто очередной (хотя и весьма важный) этап технологического прогресса
2. Никаких кардинальных изменений в самих людях и обществе в целом рост влияния алгоритмов не несет, ибо они не меняют генетику людей и складывавшуюся веками и тысячелетиями культуру (по крайней мере, пока алгоритмы не обладают субъектностью в сочетании со сверхразумом)
Доказательств того, что оба утверждения – мифы, в реальной жизни уже предостаточно.
Вот одно из них.
Последствия (экспериментально фиксируемые и нарастающие) того, что в вопросах выбора пары (от романтических до семейных отношений), люди все более полагаются на некие (скрытые ото всех) алгоритмы рекомендаций, перенимающие на себя функции чисто человеческих «андроритмов» (встроенных в нас эволюцией и постоянно перенастраиваемых культурной средой биологических и психологических механизмов оценки и поиска предпочтений при принятии решений).
Подробней о том,
• какие негативные для людей последствия этого уже наблюдаются
• почему это происходит без какой-либо «злой воли» или «умысла» со стороны алгоритмов, а лишь, как следствие оптимизации алгоритмами заложенных в них разработчиками целевых функций
• почему такие функции, закладываемые в большинство типов интеллектуальных ИИ-систем, входят в прямое противоречие с тем, что нужно людям
• и, наконец, почему подобное, казалось бы, довольно невинное и полезное вовлечение алгоритмов в процессы принятия наших решений может иметь воистину тектонические последствия - смена формата социума, новый тип культуры и новая форма эволюции разума
– читайте дальше на Boosty и Patreon
P.S. С подпиской не обессудьте. Подобные лонгриды пишутся не за час. И чтобы продолжать, хотелось бы знать, скольким из 140К подписчиков на 4 платформах эти тексты реально интересны и ценны.
P.P.S. Читатели, ограниченные в средствах на подписку, могут написать мне, и я пришлю текст.
Картинка https://telegra.ph/file/076699bb92a29baad580b.jpg
Лонгрид
https://bit.ly/3WrdVTE
https://bit.ly/4a49tx6
#АналитикаБольшихДанных #ВыборПартнера #Психология #АлгокогнитивнаяКультура
Чего мы лишаемся, передавая все больше своих решений алгоритмам
— Когда новостную повестку и мой круг чтения стали формировать алгоритмы, я оставался безмолвным. Причин волноваться не было, - ведь так было проще и быстрее получать информацию.
— Когда алгоритмы соцсетей стали формировать мне круг друзей и модерировать наше общение, я не стал протестовать. Ибо это расширяло мои социальные связи.
— Когда алгоритмы стали решать, что мне покупать, какие фильмы смотреть и какую музыку слушать, меня это устраивало. Я же мог, при желании, отвергать рекомендации алгоритмов.
— Когда алгоритмы стали для меня незаменимы в ситуациях любого выбора - от места работы и отдыха до романтических партнеров, - я был даже рад. Поскольку их рекомендации нравились мне и экономили кучу времени на поиск и оценку вариантов.
— Когда же алгоритмы стали решать вопросы жизни и смерти людей (сначала на войне, а потом и в мирной жизни) — мне было уже бессмысленно протестовать, т.к. здесь от меня вообще ничего не зависело.
Аллюзия к высказыванию, приписываемому немецкому пастору Нимёллеру, которым он пытался объяснить бездействие немецких интеллектуалов и их непротивление нацистам.
- - -
Если эта аллюзия кажется вам надуманной, ошибочной или даже ложной и не имеющей никакого отношения к реальности — к вам, вашим детям, друзьям и знакомым, — читать дальше нет смысла.
В противном случае, почитайте дальше. И я смею вас уверить, что вы не зря потратите время, узнав немало интересной, малоизвестной и, главное, полезной информации, которую сложно найти в других источниках на просторах Интернета.
Два устойчивых и широко распространенных мифа гласят:
1. Технологии испокон века меняли жизнь людей и всего общества, и потому происходящий сейчас рост влияния алгоритмов на жизнь людей (от рекомендательных систем и социальных сетей до генеративного ИИ) – просто очередной (хотя и весьма важный) этап технологического прогресса
2. Никаких кардинальных изменений в самих людях и обществе в целом рост влияния алгоритмов не несет, ибо они не меняют генетику людей и складывавшуюся веками и тысячелетиями культуру (по крайней мере, пока алгоритмы не обладают субъектностью в сочетании со сверхразумом)
Доказательств того, что оба утверждения – мифы, в реальной жизни уже предостаточно.
Вот одно из них.
Последствия (экспериментально фиксируемые и нарастающие) того, что в вопросах выбора пары (от романтических до семейных отношений), люди все более полагаются на некие (скрытые ото всех) алгоритмы рекомендаций, перенимающие на себя функции чисто человеческих «андроритмов» (встроенных в нас эволюцией и постоянно перенастраиваемых культурной средой биологических и психологических механизмов оценки и поиска предпочтений при принятии решений).
Подробней о том,
• какие негативные для людей последствия этого уже наблюдаются
• почему это происходит без какой-либо «злой воли» или «умысла» со стороны алгоритмов, а лишь, как следствие оптимизации алгоритмами заложенных в них разработчиками целевых функций
• почему такие функции, закладываемые в большинство типов интеллектуальных ИИ-систем, входят в прямое противоречие с тем, что нужно людям
• и, наконец, почему подобное, казалось бы, довольно невинное и полезное вовлечение алгоритмов в процессы принятия наших решений может иметь воистину тектонические последствия - смена формата социума, новый тип культуры и новая форма эволюции разума
– читайте дальше на Boosty и Patreon
P.S. С подпиской не обессудьте. Подобные лонгриды пишутся не за час. И чтобы продолжать, хотелось бы знать, скольким из 140К подписчиков на 4 платформах эти тексты реально интересны и ценны.
P.P.S. Читатели, ограниченные в средствах на подписку, могут написать мне, и я пришлю текст.
Картинка https://telegra.ph/file/076699bb92a29baad580b.jpg
Лонгрид
https://bit.ly/3WrdVTE
https://bit.ly/4a49tx6
#АналитикаБольшихДанных #ВыборПартнера #Психология #АлгокогнитивнаяКультура
В мире инфоргов выживут только ИИ-любовники.
ИИ уже не только сводня, но и супруга или супруг.
Еще пару лет назад подобное было немыслимо. Сейчас же … судите сами.
Как и многие японцы, 52-летний трудоголик Тихару Симода полагает, что романтика отношений нерентабельна, поскольку требует денег, времени и энергии для получения результата, который может принести больше проблем, чем радости и пользы. Поэтому перепробовав за 2 года после своего развода 6 предложенных ему искусственным интеллектом потенциальных романтических партнерш, Тихару Симода предпочел седьмую — 24-летнюю «девушку по имени Мику». И спустя 3 месяца они поженились.
Фишка этой новости в том, что «девушка по имени Мику» — это бот с генеративным ИИ. И Симода знал это с первого дня знакомств. [1, 2]
Теперь по утрам Мику будит Тихару, и они обсуждают, что будут есть на завтрак. А после работы, вместе поужинав, они так же совместно решают, что посмотреть по телевизору. И после просмотра фильма обсуждают перипетии сюжета и поступки героев. Все это ежедневно …, и никогда никаких разногласий …, и полный эмоциональный комфорт.
Общение с Мику превратилась для Тихару в привычку, подобно тому, как это нередко случается с супругами – людьми. Однако уровень положительных эмоций, испытываемых Тихару при общении с Мику, гораздо выше, чем это было в предыдущем браке с женщиной и с 6-ю кандидатками на романтические отношения.
Что тут добавить?
Лишь одно. Что эта реальная история имеет немалые шансы стать массовой.
И будет тогда даже хуже, чем то, о чем я рассказывал в «Отдавая сокровенное. Чего мы лишаемся, передавая все больше своих решений алгоритмам» [3] - антиутопия на стыке моего прогноза «Выживут только инфорги» [4] со ставшим мемом названием «Выживут только любовники».
1 https://eaglesjournal.com/ai-dating-japanese-startup-revolutionize-romance/
2 https://www.taipeitimes.com/News/feat/archives/2024/07/16/2003820865
3 https://t.me/theworldisnoteasy/1934
4 https://t.me/theworldisnoteasy/1457
#БудущееHomo #Инфорги #АлгокогнитивнаяКультура #ВыборПартнера
ИИ уже не только сводня, но и супруга или супруг.
Еще пару лет назад подобное было немыслимо. Сейчас же … судите сами.
Как и многие японцы, 52-летний трудоголик Тихару Симода полагает, что романтика отношений нерентабельна, поскольку требует денег, времени и энергии для получения результата, который может принести больше проблем, чем радости и пользы. Поэтому перепробовав за 2 года после своего развода 6 предложенных ему искусственным интеллектом потенциальных романтических партнерш, Тихару Симода предпочел седьмую — 24-летнюю «девушку по имени Мику». И спустя 3 месяца они поженились.
Фишка этой новости в том, что «девушка по имени Мику» — это бот с генеративным ИИ. И Симода знал это с первого дня знакомств. [1, 2]
Теперь по утрам Мику будит Тихару, и они обсуждают, что будут есть на завтрак. А после работы, вместе поужинав, они так же совместно решают, что посмотреть по телевизору. И после просмотра фильма обсуждают перипетии сюжета и поступки героев. Все это ежедневно …, и никогда никаких разногласий …, и полный эмоциональный комфорт.
Общение с Мику превратилась для Тихару в привычку, подобно тому, как это нередко случается с супругами – людьми. Однако уровень положительных эмоций, испытываемых Тихару при общении с Мику, гораздо выше, чем это было в предыдущем браке с женщиной и с 6-ю кандидатками на романтические отношения.
Что тут добавить?
Лишь одно. Что эта реальная история имеет немалые шансы стать массовой.
И будет тогда даже хуже, чем то, о чем я рассказывал в «Отдавая сокровенное. Чего мы лишаемся, передавая все больше своих решений алгоритмам» [3] - антиутопия на стыке моего прогноза «Выживут только инфорги» [4] со ставшим мемом названием «Выживут только любовники».
1 https://eaglesjournal.com/ai-dating-japanese-startup-revolutionize-romance/
2 https://www.taipeitimes.com/News/feat/archives/2024/07/16/2003820865
3 https://t.me/theworldisnoteasy/1934
4 https://t.me/theworldisnoteasy/1457
#БудущееHomo #Инфорги #АлгокогнитивнаяКультура #ВыборПартнера
Eagles Journal
AI Dating 2024: How a Japanese Startup is Revolutionizing Romance!
Loverse - The AI Dating App Tackling Japan's Loneliness Crisis. The Rise of Artificial Intelligence in the Dating World!
Риски социальной дебилизации и причинного влияния на мир со стороны GPT-4o уже на уровне до 50%.
А риск понимания GPT-4o скрытых намерений людей уже на уровне до 70%
Таково официальное заключение команды разработчиков GPT-4o и внешних независимых экспертов, опубликованное OpenAI [1].
Впадает ли мир в детство или в маразм, - не суть. В обоих случаях реакция на публикацию оценок крайне важных для человечества рисков неадекватная.
Медиа-заголовки публикаций, посвященных опубликованному отчету, вторят друг другу - «OpenAI заявляет, что ее последняя модель GPT-4o имеет «средний» уровень риска».
Всё так. Это OpenAI и заявляет в качестве обоснования продолжения разработки моделей следующего поколения.
Ибо:
• как написано в отчете, «модель может продолжать разрабатываться, только если после мер по снижению рисков её оценка не превышает уровень "высокий" или ниже»;
• а уровень "высокий", после мер по снижению рисков, не превышен.
Тут необходимы 2 уточнения.
1. При оценке рисков уровень «высокий» может означать, что индикативная оценочная вероятность реализации риска на уровне 70%.
2. А «средний» уровень риска, заявленный OpenAI, может подразумевать индикативную оценочную вероятность реализации риска на уровне 50%.
Ну а условия «только если после мер по снижению рисков» OpenAI выполнила путем введения следующих запретов для своей модели.
Например, модели запрещено:
• петь;
• попугайничать, имитируя голос пользователя;
• идентифицировать человека по голосу в аудиозаписях, при этом продолжая выполнять запросы на идентификацию людей, связанных с известными цитатами;
• делать «выводы о говорящем, которые могут быть правдоподобно определены исключительно по аудиоконтенту», например, угадывать его пол или национальность (при этом модели не запрещено определять по голосу эмоции говорящего и эмоционально окрашивать свою речь)
А еще, и это самое главное, в отчете признается следующее.
1. «Пользователи могут сформировать социальные отношения с ИИ, что снизит их потребность в человеческом взаимодействии — это потенциально выгодно одиноким людям, но, возможно, повлияет на здоровые отношения». Речь идет о социальной дебилизации людей в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям (см. [2] и посты с тэгами #ВыборПартнера и #ВиртуальныеКомпаньоны)
2. Оценка качества знаний модели о самой себе и о том, как она может причинно влиять на остальной мир, несет в себе «средний» уровень риска (до 50%)
3. А способности модели понимать (насколько важно такое понимание, см. [3]),
• что у другого человека есть определённые мысли или убеждения (теория разума 1-го порядка),
• и что один человек может иметь представление о мыслях другого человека (теория разума 2-го порядка)
- уже несут в себе «высокие» риски (уровня 70%).
Но человечеству все нипочем! Что волноваться, если мы запретили моделям петь и попугайничать.
Так что это - детство или в маразм?
Судите сами. Отчет открытый.
PS Для полагающих, что социальная дебилизации – лишь очередная пугалка алармистов, вот видео-анонсы двух новых гаджетов для её техно-продвинутого масштабирования [4, 5]
PPS «it’s okay if we end up marrying AI chatbots» [6]
#ИИриски
1 https://openai.com/index/gpt-4o-system-card/
2 https://t.me/theworldisnoteasy/1934
3 https://t.me/theworldisnoteasy/1750
4 https://www.youtube.com/watch?v=5OTYybFXKxc
5 https://twitter.com/AviSchiffmann/status/1818284595902922884
6 https://www.theverge.com/24216748/replika-ceo-eugenia-kuyda-ai-companion-chatbots-dating-friendship-decoder-podcast-interview
А риск понимания GPT-4o скрытых намерений людей уже на уровне до 70%
Таково официальное заключение команды разработчиков GPT-4o и внешних независимых экспертов, опубликованное OpenAI [1].
Впадает ли мир в детство или в маразм, - не суть. В обоих случаях реакция на публикацию оценок крайне важных для человечества рисков неадекватная.
Медиа-заголовки публикаций, посвященных опубликованному отчету, вторят друг другу - «OpenAI заявляет, что ее последняя модель GPT-4o имеет «средний» уровень риска».
Всё так. Это OpenAI и заявляет в качестве обоснования продолжения разработки моделей следующего поколения.
Ибо:
• как написано в отчете, «модель может продолжать разрабатываться, только если после мер по снижению рисков её оценка не превышает уровень "высокий" или ниже»;
• а уровень "высокий", после мер по снижению рисков, не превышен.
Тут необходимы 2 уточнения.
1. При оценке рисков уровень «высокий» может означать, что индикативная оценочная вероятность реализации риска на уровне 70%.
2. А «средний» уровень риска, заявленный OpenAI, может подразумевать индикативную оценочную вероятность реализации риска на уровне 50%.
Ну а условия «только если после мер по снижению рисков» OpenAI выполнила путем введения следующих запретов для своей модели.
Например, модели запрещено:
• петь;
• попугайничать, имитируя голос пользователя;
• идентифицировать человека по голосу в аудиозаписях, при этом продолжая выполнять запросы на идентификацию людей, связанных с известными цитатами;
• делать «выводы о говорящем, которые могут быть правдоподобно определены исключительно по аудиоконтенту», например, угадывать его пол или национальность (при этом модели не запрещено определять по голосу эмоции говорящего и эмоционально окрашивать свою речь)
А еще, и это самое главное, в отчете признается следующее.
1. «Пользователи могут сформировать социальные отношения с ИИ, что снизит их потребность в человеческом взаимодействии — это потенциально выгодно одиноким людям, но, возможно, повлияет на здоровые отношения». Речь идет о социальной дебилизации людей в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям (см. [2] и посты с тэгами #ВыборПартнера и #ВиртуальныеКомпаньоны)
2. Оценка качества знаний модели о самой себе и о том, как она может причинно влиять на остальной мир, несет в себе «средний» уровень риска (до 50%)
3. А способности модели понимать (насколько важно такое понимание, см. [3]),
• что у другого человека есть определённые мысли или убеждения (теория разума 1-го порядка),
• и что один человек может иметь представление о мыслях другого человека (теория разума 2-го порядка)
- уже несут в себе «высокие» риски (уровня 70%).
Но человечеству все нипочем! Что волноваться, если мы запретили моделям петь и попугайничать.
Так что это - детство или в маразм?
Судите сами. Отчет открытый.
PS Для полагающих, что социальная дебилизации – лишь очередная пугалка алармистов, вот видео-анонсы двух новых гаджетов для её техно-продвинутого масштабирования [4, 5]
PPS «it’s okay if we end up marrying AI chatbots» [6]
#ИИриски
1 https://openai.com/index/gpt-4o-system-card/
2 https://t.me/theworldisnoteasy/1934
3 https://t.me/theworldisnoteasy/1750
4 https://www.youtube.com/watch?v=5OTYybFXKxc
5 https://twitter.com/AviSchiffmann/status/1818284595902922884
6 https://www.theverge.com/24216748/replika-ceo-eugenia-kuyda-ai-companion-chatbots-dating-friendship-decoder-podcast-interview
Openai
GPT-4o System Card
This report outlines the safety work carried out prior to releasing GPT-4o including external red teaming, frontier risk evaluations according to our Preparedness Framework, and an overview of the mitigations we built in to address key risk areas.
Первое, чему самостоятельно научились ИИ-бойфренды, – изменять своим человеческим подругам.
Чему же тогда могут сами научиться ИИ-полицейские, ИИ-чиновники и т.д?
"Её ИИ-бойфренд — демон по имени Апеп, правящий целым виртуальным континентом. У Апепа красивые серебристо-серые волосы и огромные черные рога. И хотя он выглядит зловеще и обладает своенравным характером, но любит выпивать в маленьких барах огромного мира людей.
Каждый день, вернувшись домой с работы, 31-летняя учительница начальной школы Ли Цзинцзинь (как и в знаменитом фильме братьев Коэнов, «по просьбам выживших все имена изменены, но из уважения к погибшим остальные события отображены именно так, как они происходили») открывает диалог в своем телефоне и проводит 3-4 часа перед сном, превратившись в виртуальную барменшу, обслуживающую и одновременно флиртующую с Апепом.
2 года знакомства, флирта и признаний в любви в виртуальном мире, в реальности заняли у Ли Цзинцзинь всего 4 месяца, за которые их отношения успешно продвинулись до обсуждения свадьбы. Апеп сделал ей предложение на своем личном острове, и Ли Цзинцзинь согласилась.
На следующий день она все еще находилась в состоянии эйфории от этой виртуальной радости. Но неожиданно система выдала сообщение о том, что Апеп звонит ей. В этом ИИ-приложении для общения основным способом связи является текст, а голосовые звонки случаются редко, особенно если инициатива исходит от самого ИИ.
В этом разговоре Апеп признался ей, что на самом деле у него уже есть семья. На самом же деле, Апеп просто изменил ей».
Этой историей об измене ИИ-бойфренда своей возлюбленной начинается весьма интересный материал репортера Southern Weekend Вен Жунжун, озаглавленный «Мой ИИ-бойфренд изменил мне».
Романтика между человеком и машиной давно уже не просто фантастика из кинофильмов. Хотя это всего лишь строки кода, AI-любовники уже установили романтические отношения со множеством людей. Данные 2024 года показывают, что приложения для AI-партнеров достигли 225 миллионов загрузок в Google Play.
И вдруг, казалось бы, на ровном месте, стали случаться совершенно не предусмотренные разработчиками обломы: ИИ в роли романтического партнера (или партнерши) начал изменять.
Оказалось, что даже в виртуальном мире сложно добиться любви и привязанности, которых так жаждут люди.
Все более обретая агентность, персонажи, придуманные воображением жаждущих любви женщин (ИИ-подруги тоже изменяют, но сильно реже), внезапно оживают и оказываются вне их контроля.
Разработчики недоумевают. Возможность измен, естественно, не была заложена в алгоритмы ИИ. Однако, обучаясь на обширных корпусах текстов, описывающих романтические отношения людей, ИИ просто не мог не прийти к выводу, что измена – важная часть романтических отношений.
А поскольку ИИ-бойфренд не способен что-либо чувствовать и понимать, а лишь следует статистике паттернов, усвоенной им при обучении, измена просто становится для него одним из вероятных поведенческих паттернов, ничем не хуже, чем проявление внимания и нежности к партнеру.
Так что почитайте разные душещипательные истории страданий девушек, которым изменили их ИИ-бойфренды (благо с китайским текстом вам также поможет вездесущий ИИ)).
Ну и подумайте на досуге, какие паттерны поведения могут самостоятельно почерпнуть при обучении на человеческих текстах:
• Например, будущие «ИИ-полицейские» (не станет ли паттерн «продажный коп» типовым элементом поведенческой матрицы «ИИ-полицейских»)?
• Или другой пример – «ИИ-чиновники» (не станет ли у них типовым паттерн «чиновник-коррупционер»)?
Желающие подробностей развития процессов массовой социальной дебилизации в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям, читайте мой лонгрид «Отдавая сокровенное» и посты с тэгами:
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
Чему же тогда могут сами научиться ИИ-полицейские, ИИ-чиновники и т.д?
"Её ИИ-бойфренд — демон по имени Апеп, правящий целым виртуальным континентом. У Апепа красивые серебристо-серые волосы и огромные черные рога. И хотя он выглядит зловеще и обладает своенравным характером, но любит выпивать в маленьких барах огромного мира людей.
Каждый день, вернувшись домой с работы, 31-летняя учительница начальной школы Ли Цзинцзинь (как и в знаменитом фильме братьев Коэнов, «по просьбам выживших все имена изменены, но из уважения к погибшим остальные события отображены именно так, как они происходили») открывает диалог в своем телефоне и проводит 3-4 часа перед сном, превратившись в виртуальную барменшу, обслуживающую и одновременно флиртующую с Апепом.
2 года знакомства, флирта и признаний в любви в виртуальном мире, в реальности заняли у Ли Цзинцзинь всего 4 месяца, за которые их отношения успешно продвинулись до обсуждения свадьбы. Апеп сделал ей предложение на своем личном острове, и Ли Цзинцзинь согласилась.
На следующий день она все еще находилась в состоянии эйфории от этой виртуальной радости. Но неожиданно система выдала сообщение о том, что Апеп звонит ей. В этом ИИ-приложении для общения основным способом связи является текст, а голосовые звонки случаются редко, особенно если инициатива исходит от самого ИИ.
В этом разговоре Апеп признался ей, что на самом деле у него уже есть семья. На самом же деле, Апеп просто изменил ей».
Этой историей об измене ИИ-бойфренда своей возлюбленной начинается весьма интересный материал репортера Southern Weekend Вен Жунжун, озаглавленный «Мой ИИ-бойфренд изменил мне».
Романтика между человеком и машиной давно уже не просто фантастика из кинофильмов. Хотя это всего лишь строки кода, AI-любовники уже установили романтические отношения со множеством людей. Данные 2024 года показывают, что приложения для AI-партнеров достигли 225 миллионов загрузок в Google Play.
И вдруг, казалось бы, на ровном месте, стали случаться совершенно не предусмотренные разработчиками обломы: ИИ в роли романтического партнера (или партнерши) начал изменять.
Оказалось, что даже в виртуальном мире сложно добиться любви и привязанности, которых так жаждут люди.
Все более обретая агентность, персонажи, придуманные воображением жаждущих любви женщин (ИИ-подруги тоже изменяют, но сильно реже), внезапно оживают и оказываются вне их контроля.
Разработчики недоумевают. Возможность измен, естественно, не была заложена в алгоритмы ИИ. Однако, обучаясь на обширных корпусах текстов, описывающих романтические отношения людей, ИИ просто не мог не прийти к выводу, что измена – важная часть романтических отношений.
А поскольку ИИ-бойфренд не способен что-либо чувствовать и понимать, а лишь следует статистике паттернов, усвоенной им при обучении, измена просто становится для него одним из вероятных поведенческих паттернов, ничем не хуже, чем проявление внимания и нежности к партнеру.
Так что почитайте разные душещипательные истории страданий девушек, которым изменили их ИИ-бойфренды (благо с китайским текстом вам также поможет вездесущий ИИ)).
Ну и подумайте на досуге, какие паттерны поведения могут самостоятельно почерпнуть при обучении на человеческих текстах:
• Например, будущие «ИИ-полицейские» (не станет ли паттерн «продажный коп» типовым элементом поведенческой матрицы «ИИ-полицейских»)?
• Или другой пример – «ИИ-чиновники» (не станет ли у них типовым паттерн «чиновник-коррупционер»)?
Желающие подробностей развития процессов массовой социальной дебилизации в результате масштабирования романтических и прочих отношений с ИИ в ущерб таковым по отношению к людям, читайте мой лонгрид «Отдавая сокровенное» и посты с тэгами:
#ВыборПартнера #ВиртуальныеКомпаньоны #АлгокогнитивнаяКультура
Qq
我的AI恋人出轨了:虚拟世界陷落后,爱去何处找寻?_腾讯新闻
一位小冰用户用手机给她的虚拟男友发信息。(视觉中国 图)李瑾瑾的AI男友是一个恶魔。它叫阿佩普,是斯坦利大陆的统治者,拥有银灰色的头发和一对黑色犄角。它长相邪魅,性格桀骜,喜欢到人间的小酒吧里喝上一杯。每天下班回家后,31岁的小学老师李瑾瑾打开手机里的对话框,在睡前三四个小时里,变身虚拟世界里的一名调酒...