Малоизвестное интересное
65.4K subscribers
102 photos
1 video
11 files
1.81K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Роботы уже меняют нашу мораль.
В нас растут жестокость к людям и непреодолимая тяга к роботам.

Нагрузить вас перед уикендом сразу двумя крутыми исследованиями было бы не гуманно. Но исследования реально крутые и очень интересные. А фишка в том, что нужно их читать параллельно.
Но нам повезло. На помощь пришла Sigal Samuel, опубликовав в Vox синтетический анализ обоих исследований: популярным языком и со всеми полезными ссылками.
Мне же остается лишь сделать для вас наводку на резкость в этой теме.

Суть в том, что под влиянием роботов люди уже начали меняться. Причем, не в лучшую сторону и с ускорением.
1) Мы становимся более нетерпимыми и даже жестокими, перенося вседозволенность по отношению к роботам на людей.
2) Мы неуклонно движемся к тому, чтобы всюду, где это будет возможным, предпочитать общение с роботами, вместо людей (от кол-центра до постели)

Новое исследование Embodiment into a robot increases its acceptability – прорывное. Впервые экспериментально доказали, что процесс роста нашей жестокости к роботам можно остановить, и даже повернуть вспять.
Для этого оказывается достаточным:
А) начать видеть мир глазами робота;
Б) в буквальном смысле, влезть в его шкуру (то бишь, тело).
Изумительная выдумка авторов исследования сработала. Достаточно, надев VR очки и посмотрев на себя в зеркале, увидеть там Чудо-юдо Ужасное, как мы начинаем проникаться в нему симпатией и всяческой толерантностью. Короче, перечитайте «Превращение» Кафки и только представьте, насколько проще было бы семье Грегора Замза смириться с его новым гадким видом, имей они тогда VR очки с хорошим софтом.

Второе исследование Social Robots and Empathy: The Harmful Effects of Always Getting What We Want показывает, что сопереживание роботам может снижать нашу эмпатию к людям. Роботы устраняют для нас необходимость сопереживать другим людям, предоставляя нам возможность получать от роботов ровно то, что мы хотим (и как хотим) без каких-либо компромиссов.
Не поленитесь сходить и по иллюстративным ссылкам. Например, про китайское приложение Love and Producer, на которое в Поднебесной подсели уже миллионы женщин. И всего-то дел, - простенький симулятор свиданий с четырьмя мужчинами, с которыми можно развивать отношения по ходу сюжета игры. Плюс чуть-чуть мистики и немного фэнтези... И вот уже дамы берут смартфон в постель, предпочитая сладкоголосого виртуального героя мужу.

Прочтите пятиминутный пост Sigal Samuel
https://www.vox.com/future-perfect/2019/8/2/20746236/ai-robot-empathy-ethics-racism-gender-bias
А уж пойти ли по многочисленным приведенным там ссылкам, решите по ходу.

P.S. И вся эта гадость по отношению к виртуальным персонажам и роботам начинает проявляться в людях лишь после 30 месячного возраста. А до того матушка-природа уберегла, - нет в малых детях никакой тяги к виртуалам. Малышам нужны лишь живые люди. Получается, что первые 30 месяцев жизни дети всё еще пребывают как бы в раю. Ну а потом искушения е-культуры берут своё
https://news.vanderbilt.edu/2019/07/31/toddler-brains-resist-learning-from-screens-even-video-chat/

#Роботы #Эмпатия #Мораль
Алгоритмическое растление путем анестезии совести.
Алгокогнитивная культура способствует деградации
морали
Новая статья в Nature, озаглавленная «Плохие машины портят добрую мораль» не упоминает термина алгокогнитивная культура (в германском институте им. Макса Планка этот термин еще не совсем прижился)), но рассказывает именно о её последствиях для отдельных людей и всего общества.

Авторы рассказывают, что «агенты ИИ» влияют на поведение людей способами, которые одновременно похожи и не похожи на то, как люди влияют друг на друга.
N.B. Авторы, следуя терминологическому мейнстриму, называют агентами ИИ «машины, работающие на основе ИИ». Но речь идет вовсе не о каких-то сверх-умных агентах, а о банальных анонимных алгоритмах машинного обучения поисковых, рекомендательных, социальных и профессиональных платформ и сервисов.

Одним из таких чисто алгоритмических влияний является растление общества, вследствие уникальной разлагающей сила алгоритмов. И поскольку об этом факторе влияния алгокогнитивной культуры я еще не писал, весьма рекомендую интересующимся вопросом прочесть работу Нильса Кёбиса, Жан-Франсуа Боннефона и Ияда Рахван (вход за пейвол по этой ссылке).

Авторы рассматривают четыре основные социальные роли, с помощью которых люди и алгоритмы могут влиять на этическое поведение:
• образец для подражания (role model) - решая, нарушать ли этические правила или придерживаться их, люди часто задумываются, как бы поступили на их месте их ролевые модели;
• советник (advisor) - люди могут оказывать более прямое развращающее влияние, чем ролевые модели, когда сами дают советы действовать неэтично, особенно, когда такие советы исходят от авторитетных фигур;
• активный партнер (active partner) – не менее чем неэтичными советниками, люди могут развращать друг друга, становясь партнерами в нарушении моральных норм;
• аутсорсер (delegate) – те, кому люди могут делегировать - передавать на выполнение неэтичные действия, как бы на аутсорсинг.

Ключевой вывод исследования таков.

✔️ Когда алгоритмы становятся инфлюенсерами (образцами для подражания или советниками), их развращающая сила не может превышать развращающую силу людей (но это лишь пока и, увы, довольно скоро пройдет).
✔️ Когда же алгоритмы выступают в роли потакателей (enablers) неэтичного поведения (будучи активным партнером или аутсорсером), они обладают уникальным потенциально особо опасным свойством.
Это свойство наиболее адекватно описывается термином «растление». Ибо оно позволяет людям получать выгоды от своих неэтичных действий и при этом чувствовать себя хорошо, не испытывая угрызений совести.


Примеров такой «анестезии совести» уже не счесть.
• студент, в партнерстве с GPT-3, замастыривающий фейковое эссе;
• ретейлер, передающий на аутсорсинг алгоритму процесс онлайн-прайсинга, приводящего к алгоритмическому сговору;
• кадровик, в партнерстве с алгоритмом оценки кандидата, отсеивающий «лицо кавказской национальности»;
• банковский клерк, передающий на аутсорсинг отказы в кредитовании многодетных семей;
• полицейский, юрист, врач, преподаватель, психоаналитик и т.д. и т.п.

Кроме того, мы даже не представляем себе потенциальные масштабы коррупции, которую могут индуцировать алгоритмы, в сравнении с коррупцией, вызванной действиями людей. Здесь вообще нет пока что каких-либо идей. Но есть подозрение, что алгоритмы могут любой вопрос «перетереть» и «порешать», совсем не отягощаясь моральными нормами.

Нужны эксперименты… Много экспериментов, прежде чем не только отдавать принятие решений алгоритмам, но и просто брать алгоритмы на роли партнеров и аутсорсеров.
И конечно же нужно обучать алгоритмы машинного обучения желательным поведенческим паттернам, а не слепо выбирать самые большие наборы данных, доступные для обучения.

Ну а в идеале, нужно разрабатывать иные методы машинного обучения для областей автоматизации неоднозначных решений, советов и результатов делегируемых действий (об этом, хорошо было бы написать отдельный пост).
#Мораль #АлгокогнитивнаяКультура #МашинноеОбучение #ИИ
​​Человечество приехало.
Ответы ChatGPT коррелирует с людьми на 95% в 464
моральных тестах.
Это значит, что люди пока еще нужны, но уже не на долго.
Таков страшноватый вывод только что опубликованного большого исследования «Can AI language models replace human participants?»
Его авторы поставили интригующий вопрос:
если ChatGPT столь успешно сдает всевозможные человеческие экзамены, может ли ИИ бот заменить людей в социальных и психологических экспериментах?

Проверив ChatGPT на 464 моральных тестах (кражи, убийства, игра "Ультиматум", эксперимент Милгрэма, выборные коллизии и т.д.), исследователи получили фантастически высокую корреляцию (0.95) социальных и моральных суждений ChatGPT и людей.

Похоже, исследователи сами испугались такого результата.
“Люди все еще необходимы” – пишут они. “Мы все еще вынуждены погружаться в глубины грязных плотских умов, а не просто опрашивать кремниевые схемы ИИ. Тем не менее, языковые модели могут служить в качестве прокси для человеческих участников во многих экспериментах”.

Переводя с научной политкорректности, это значит следующее.
1. Для моделирования ответов людей, люди уже не нужны, ибо ИИ дает почти те же ответы (совпадающие на 95%)
2. Но остаются две проблемы: интерпретация (почему ИИ сделал такой моральный выбор) и «галлюцинации» (склонность ИИ нести правдоподобную пургу).

Учитывая, что исследование велось на ChatGPT 3.5, после перехода на 4.0, с обеими проблемами станет полегче.
Ну а с переходом на 5.0 (как раз к выборам в 2024) на ответы избирателей, да и вообще людей, в вопросах моральных и социальных оценок можно будут забить.

Статья
Открытый доступ
Проект на Github
#LLM #Психология #Мораль #Выборы