Новости сообщества LessWrong
1.32K subscribers
20 photos
1 file
835 links
Новости русскоязычной части сообщества LessWrong. Интересные статьи, новые переводы и встречи.
Download Telegram
#переводы #юдковский #нго #соарес

Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).

Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.

Дискуссия огромна и в ней затрагивается множество разных вопросов.

https://lesswrong.ru/1083

За перевод нужно благодарить группу Мак и коты и AI Safety.
#переводы #нго

Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".

"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".

https://lesswrong.ru/node/1168

За перевод опять благодарим группу Мак и коты и AI Safety.
#переводы #нго

Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.

Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.

В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)

https://lesswrong.ru/1235