Forwarded from без фрейда, к сожалению
Несколько исследований показали, что люди более альтруистичны к своим родственникам. Это похоже на настройки по умолчанию: работает всегда и везде, если только человек не меняет это специально или не попал в ситуацию из ряда вон.
Недавно провели эксперимент, где подопытные на первом этапе смотрели небольшой фильм о двух сёстрах. Одна была очень больна, а вторая очень жадная и не хотела делиться органами со своей родственницей. Первой группе испытуемых сказали, что сестры родные, а второй группе, что одна из них приемная.
Получилось занятно. Подопытные не делали различий между биологическим и не биологическим родством при оценке фильма. То есть, если считали, что стать донором обязательно, то порицали вторую сестру и в первом, и во втором вариантах фильма. Если же считали наоборот, то опять же одинаково относились к ней в обоих вариантах истории.
А вот на фМРТ были большие различия. При просмотре фильма, где сестры были родными, гораздо активнее загорались сразу несколько интересных участков: длПФК, вмПФК, передняя и задняя поясная кора, предклинье, медиальные участки височной коры. Похоже, что от неродной сестра мозг и не ожидал особой щедрости, а вот с родной сестрой получилась ошибка в ожиданиях. Из-за сбоя в ожиданиях пришлось запускать много ресурсов. Можно предположить, что длПФК включилась для преодоления дефолтной морали, вмПФК для более тонкой эмоциональной подстройки, PCC и предклинье для смены точки зрения (взглянуть на ситуацию другими глазами), а также для разделения свои-чужие.
Хотя это ещё не точно, но мозг, похоже, действительно руководствуется фразой "кровь не вода". Но было бы интересно узнать, как будут реагировать испытуемые, у которых есть приемные дети или которые выросли с приемными братьями или сестрами.
https://www.nature.com/articles/s41598-017-14323-x
UPD читатель канала подсказал интересное в тему, статья о теории кин-отбора (почему альтруизм про отношению к родственникам полезен) в английской Вики: https://en.wikipedia.org/wiki/Kin_selection
#мораль
Недавно провели эксперимент, где подопытные на первом этапе смотрели небольшой фильм о двух сёстрах. Одна была очень больна, а вторая очень жадная и не хотела делиться органами со своей родственницей. Первой группе испытуемых сказали, что сестры родные, а второй группе, что одна из них приемная.
Получилось занятно. Подопытные не делали различий между биологическим и не биологическим родством при оценке фильма. То есть, если считали, что стать донором обязательно, то порицали вторую сестру и в первом, и во втором вариантах фильма. Если же считали наоборот, то опять же одинаково относились к ней в обоих вариантах истории.
А вот на фМРТ были большие различия. При просмотре фильма, где сестры были родными, гораздо активнее загорались сразу несколько интересных участков: длПФК, вмПФК, передняя и задняя поясная кора, предклинье, медиальные участки височной коры. Похоже, что от неродной сестра мозг и не ожидал особой щедрости, а вот с родной сестрой получилась ошибка в ожиданиях. Из-за сбоя в ожиданиях пришлось запускать много ресурсов. Можно предположить, что длПФК включилась для преодоления дефолтной морали, вмПФК для более тонкой эмоциональной подстройки, PCC и предклинье для смены точки зрения (взглянуть на ситуацию другими глазами), а также для разделения свои-чужие.
Хотя это ещё не точно, но мозг, похоже, действительно руководствуется фразой "кровь не вода". Но было бы интересно узнать, как будут реагировать испытуемые, у которых есть приемные дети или которые выросли с приемными братьями или сестрами.
https://www.nature.com/articles/s41598-017-14323-x
UPD читатель канала подсказал интересное в тему, статья о теории кин-отбора (почему альтруизм про отношению к родственникам полезен) в английской Вики: https://en.wikipedia.org/wiki/Kin_selection
#мораль
Scientific Reports
Differential inter-subject correlation of brain activity when kinship is a variable in moral dilemma
Previous behavioural studies have shown that humans act more altruistically towards kin. Whether and how knowledge of genetic relatedness translates into differential neurocognitive evaluation of obse
Человечество приехало.
Ответы ChatGPT коррелирует с людьми на 95% в 464 моральных тестах.
Это значит, что люди пока еще нужны, но уже не на долго.
Таков страшноватый вывод только что опубликованного большого исследования «Can AI language models replace human participants?»
Его авторы поставили интригующий вопрос:
если ChatGPT столь успешно сдает всевозможные человеческие экзамены, может ли ИИ бот заменить людей в социальных и психологических экспериментах?
Проверив ChatGPT на 464 моральных тестах (кражи, убийства, игра "Ультиматум", эксперимент Милгрэма, выборные коллизии и т.д.), исследователи получили фантастически высокую корреляцию (0.95) социальных и моральных суждений ChatGPT и людей.
Похоже, исследователи сами испугались такого результата.
“Люди все еще необходимы” – пишут они. “Мы все еще вынуждены погружаться в глубины грязных плотских умов, а не просто опрашивать кремниевые схемы ИИ. Тем не менее, языковые модели могут служить в качестве прокси для человеческих участников во многих экспериментах”.
Переводя с научной политкорректности, это значит следующее.
1. Для моделирования ответов людей, люди уже не нужны, ибо ИИ дает почти те же ответы (совпадающие на 95%)
2. Но остаются две проблемы: интерпретация (почему ИИ сделал такой моральный выбор) и «галлюцинации» (склонность ИИ нести правдоподобную пургу).
Учитывая, что исследование велось на ChatGPT 3.5, после перехода на 4.0, с обеими проблемами станет полегче.
Ну а с переходом на 5.0 (как раз к выборам в 2024) на ответы избирателей, да и вообще людей, в вопросах моральных и социальных оценок можно будут забить.
Статья
Открытый доступ
Проект на Github
#LLM #Психология #Мораль #Выборы
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Ответы ChatGPT коррелирует с людьми на 95% в 464 моральных тестах.
Это значит, что люди пока еще нужны, но уже не на долго.
Таков страшноватый вывод только что опубликованного большого исследования «Can AI language models replace human participants?»
Его авторы поставили интригующий вопрос:
если ChatGPT столь успешно сдает всевозможные человеческие экзамены, может ли ИИ бот заменить людей в социальных и психологических экспериментах?
Проверив ChatGPT на 464 моральных тестах (кражи, убийства, игра "Ультиматум", эксперимент Милгрэма, выборные коллизии и т.д.), исследователи получили фантастически высокую корреляцию (0.95) социальных и моральных суждений ChatGPT и людей.
Похоже, исследователи сами испугались такого результата.
“Люди все еще необходимы” – пишут они. “Мы все еще вынуждены погружаться в глубины грязных плотских умов, а не просто опрашивать кремниевые схемы ИИ. Тем не менее, языковые модели могут служить в качестве прокси для человеческих участников во многих экспериментах”.
Переводя с научной политкорректности, это значит следующее.
1. Для моделирования ответов людей, люди уже не нужны, ибо ИИ дает почти те же ответы (совпадающие на 95%)
2. Но остаются две проблемы: интерпретация (почему ИИ сделал такой моральный выбор) и «галлюцинации» (склонность ИИ нести правдоподобную пургу).
Учитывая, что исследование велось на ChatGPT 3.5, после перехода на 4.0, с обеими проблемами станет полегче.
Ну а с переходом на 5.0 (как раз к выборам в 2024) на ответы избирателей, да и вообще людей, в вопросах моральных и социальных оценок можно будут забить.
Статья
Открытый доступ
Проект на Github
#LLM #Психология #Мораль #Выборы
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram