Малоизвестное интересное
62.8K subscribers
78 photos
1 video
11 files
1.74K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Сейчас мы говорим «обезьяна с гранатой». Через сто лет, возможно, будут говорить «человек с ИИ».
В новом интервью профессора Томаса Метцингера – члена высшей экспертной группы ЕС по разработке этических принципов ИИ – озвучены два весьма тонких для понимания, но очень важных вопроса.
1) Роботы-убийцы и активная эвтаназия – есть ли отличия?
Смертельное автономное оружие (т.н. роботы-убийцы) – это системы, которые используют ИИ в бою, чтобы решать, какую цель атаковать, уничтожить или даже убить.
Главный вопрос, пока еще, хоть и с трудом, но все же сдерживающий превращение роботов-убийц в главный фактор новой гонки вооружений - можно ли привлечь кого-либо к ответственности, если машина приняла неправильное решение?

Самое опасное в этом вопросе – его универсальность.
Ведь ровно тот же вопрос стоит, например, и по отношению:
- к автономным автомобилям;
- к системам активной эвтаназии.
Про самоуправляемые авто и так всем понятно – пресловутые проблемы, кого задавить, если нет иных вариантов, и чья жизнь дороже – водителя или пешехода …

А про активную эвтаназию поясню. Пассивная - предполагает прекращение введения препаратов, поддерживающих жизнь пациента, а активная — введение препарата от которого пациент умирает. Активная э. бывает добровольной и недобровольной – т.е. без согласия пациента. При этом кто-то должен взять на себя ответственность и решить: «Пусть этот человек умрет».
Но ведь страшно даже рассуждать о таком. И кому хотелось бы, стоя у больничной койки, произносить подобные слова?

Так вот сейчас, по словам Метцингера, в Нидерландах уже стоит вопрос о перекладывании таких решений на ИИ. Просто, удобно, никого не напрягает и никаких душевных мук.

Только чем это отличается от роботов-убийц?

2) Где проходит «красная черта» в применении любого робота-убийцы (военного, медицинского, автомобильного …)?
Проблема вовсе не в том, чтобы дать машинам правильные этические ценности. Проблема в «согласовании ценностей» ИИ и людей. И пока не понятно, как их согласовывать, поскольку люди сами не придерживаются своих собственных этических ценностей.
Иными словами, всегда существует конфликт разных целей у отдельных людей и в разных обществах. Наши общества не являются этически последовательными или связными, наша политика – тем более.
- Вы и ваш коллега.
- Британский и китайский военный.
- Президенты России и США.
Согласуются ли их этические ценности?

В итоге, нам самим сложно прогнозировать, какие решения примет тот или иной человек, и это создает реальный риск.
А если этот человек врач? Или генерал? Или президент страны?
Проще говоря, если вы включаете в цепочку принятия решений очень эффективный, быстрый и продвинутый ИИ, вы, по сути:
- подключаете ИИ к человеческим мозгам, почти не изменившимся со времен каменного века;
- подключаете ИИ к мозгу конкретных людей, - возможно, жадных, ревнивых, эгоистичных и амбициозных.
А раз так, то самим включением ИИ в цепочку принятия решений, вы непрогнозируемо увеличиваете риски.

Поэтому нет никакой проблемы заложить в робота-убийцу (да и в любой ИИ) конкретные этические ценности.
В реальности, мы сами – главная проблема.
И «красная черта» проходит через нас, а не через ИИ.


Текст и подкаст интервью https://www.br.de/nachrichten/kultur/killerroboter-ethik-interview-thomas-metzinger-philosophie,RVdgEgs
Контекст военных роботов-убийц https://www.br.de/nachrichten/deutschland-welt/killer-roboter-fakten-ueber-toedliche-systeme,R1wD3Rs
Мой пост о том, какая страшная штука – беспилотные летающие убийцы https://t.me/theworldisnoteasy/763

#ЭтикаИИ
Китай и Запад создают два разных ИИ.
Одному из них, возможно, придется исчезнуть, ибо сосуществовать им будет не проще, чем сапиенсам и неандертальцам
.
Чем закончилось сосуществование двух представителей рода людей, известно. Неандертальцам пришлось исчезнуть, оставив лишь след в наших генах. Так что же за отличия привели к тому, что один из представителей рода людей истребил другого?
Точно не знает никто. Однако, кровавая история взаимоистребления людей позволяет предположить, что главные непримиримые различия носили этический характер.

Последнее время этика разрабатываемых ИИ – горячая тема и на Западе, и в Китае, да и у нас. Но среди обсуждаемых аспектов этой темы мало кто обращает внимание, сколь разительны подходы к вопросам этики ИИ у Запада и Китая. Эти различия, а также их философские корни и культурный контекст анализируются в только опубликованной работе Паскаля Фунга (директор Centre for Artificial Intelligence Research в Гонконге) и Хьюберта Этьена, специализирующегося на этике ИИ в парижской Ecole Normale Supérieure.

Сухой остаток ключевых выводов анализа можно дочитать в моем новом посте (еще на 2 мин).
- на Medium https://bit.ly/3kV0IPd
- на Яндекс Дзен https://clck.ru/YxW73
#ЭтикаИИ #Китай #США #Европа #ИИ #Этика