Новости сообщества LessWrong
1.32K subscribers
20 photos
1 file
835 links
Новости русскоязычной части сообщества LessWrong. Интересные статьи, новые переводы и встречи.
Download Telegram
#аудио #соарес

Новость для любителей аудиокниг, владеющих английским.

Один из энтузиастов начитал как аудиокнигу цепочку Нейта Соареса "Replacing Guilt". Нейт Соарес -- это исполнительный директор MIRI. В цепочке "Replacing Guilt" он рассуждает о том, что люди часто в своих поступках руководствуются чувством вины, однако он сам считает, что это плохая мотивация и рассуждает, что здесь можно изменить и как.

Ссылка на аудиозапись всех эссе: https://anchor.fm/guilt

Запись с дополнительными ссылками: https://www.lesswrong.com/posts/pAvvEX9GxZyRyd7Se/announcing-the-replacing-guilt-audiobook

Переводы некоторых эссе Нейта Соареса можно найти на сайте в соответствующем разделе. К сожалению, их там пока довольно мало.
#встречи #онлайн #цепочки #соарес #скотт_александер

Сегодня, 27 декабря, в рамках "Клуба чтения Цепочек" мы немножко отвлечёмся от книги "Рациональность: от ИИ до Зомби".

Некоторые иногда говорят, что все люди - эгоисты и никакого альтруизма не существует. Если кто-то делает что-то ради блага другого человека, он всё равно это делает только потому, что ему это приносит какое-то удовольствие.

В первой части мы обсудим, существует ли альтруизм на самом деле, на основе эссе Нейта Соареса "Филателист" и эссе Элиезера Юдковского "Ценности терминальные и инструментальные". Второе из них мы уже обсуждали в рамках книги, однако мы решили к нему вернуться.

Во второй части мы поговорим о художественных произведениях Скотта Александера "Жизнь коротка, искусство вечно" и Ника Бострома "Басня о драконе-тиране".

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/mkk7ilvzk5b4bcstvkqnpp2fqa

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
#переводы #соарес

Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".

Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.

Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.

https://lesswrong.ru/1068

В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
#переводы #юдковский #нго #соарес

Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).

Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.

Дискуссия огромна и в ней затрагивается множество разных вопросов.

https://lesswrong.ru/1083

За перевод нужно благодарить группу Мак и коты и AI Safety.