#аудио #соарес
Новость для любителей аудиокниг, владеющих английским.
Один из энтузиастов начитал как аудиокнигу цепочку Нейта Соареса "Replacing Guilt". Нейт Соарес -- это исполнительный директор MIRI. В цепочке "Replacing Guilt" он рассуждает о том, что люди часто в своих поступках руководствуются чувством вины, однако он сам считает, что это плохая мотивация и рассуждает, что здесь можно изменить и как.
Ссылка на аудиозапись всех эссе: https://anchor.fm/guilt
Запись с дополнительными ссылками: https://www.lesswrong.com/posts/pAvvEX9GxZyRyd7Se/announcing-the-replacing-guilt-audiobook
Переводы некоторых эссе Нейта Соареса можно найти на сайте в соответствующем разделе. К сожалению, их там пока довольно мало.
Новость для любителей аудиокниг, владеющих английским.
Один из энтузиастов начитал как аудиокнигу цепочку Нейта Соареса "Replacing Guilt". Нейт Соарес -- это исполнительный директор MIRI. В цепочке "Replacing Guilt" он рассуждает о том, что люди часто в своих поступках руководствуются чувством вины, однако он сам считает, что это плохая мотивация и рассуждает, что здесь можно изменить и как.
Ссылка на аудиозапись всех эссе: https://anchor.fm/guilt
Запись с дополнительными ссылками: https://www.lesswrong.com/posts/pAvvEX9GxZyRyd7Se/announcing-the-replacing-guilt-audiobook
Переводы некоторых эссе Нейта Соареса можно найти на сайте в соответствующем разделе. К сожалению, их там пока довольно мало.
Anchor
Replacing Guilt • A podcast on Anchor
The official audio version of the Replacing Guilt series by Nate Soares (Director, Machine Intelligence Research Institute).
Produced by Gianluca Truda (co-host of podtangent.com).
Original posts at mindingourway.com/guilt
Produced by Gianluca Truda (co-host of podtangent.com).
Original posts at mindingourway.com/guilt
#встречи #онлайн #цепочки #соарес #скотт_александер
Сегодня, 27 декабря, в рамках "Клуба чтения Цепочек" мы немножко отвлечёмся от книги "Рациональность: от ИИ до Зомби".
Некоторые иногда говорят, что все люди - эгоисты и никакого альтруизма не существует. Если кто-то делает что-то ради блага другого человека, он всё равно это делает только потому, что ему это приносит какое-то удовольствие.
В первой части мы обсудим, существует ли альтруизм на самом деле, на основе эссе Нейта Соареса "Филателист" и эссе Элиезера Юдковского "Ценности терминальные и инструментальные". Второе из них мы уже обсуждали в рамках книги, однако мы решили к нему вернуться.
Во второй части мы поговорим о художественных произведениях Скотта Александера "Жизнь коротка, искусство вечно" и Ника Бострома "Басня о драконе-тиране".
Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/mkk7ilvzk5b4bcstvkqnpp2fqa
Начало в 20:00 по московскому времени (UTC+3).
Присоединяйтесь поучаствовать или послушать.
Сегодня, 27 декабря, в рамках "Клуба чтения Цепочек" мы немножко отвлечёмся от книги "Рациональность: от ИИ до Зомби".
Некоторые иногда говорят, что все люди - эгоисты и никакого альтруизма не существует. Если кто-то делает что-то ради блага другого человека, он всё равно это делает только потому, что ему это приносит какое-то удовольствие.
В первой части мы обсудим, существует ли альтруизм на самом деле, на основе эссе Нейта Соареса "Филателист" и эссе Элиезера Юдковского "Ценности терминальные и инструментальные". Второе из них мы уже обсуждали в рамках книги, однако мы решили к нему вернуться.
Во второй части мы поговорим о художественных произведениях Скотта Александера "Жизнь коротка, искусство вечно" и Ника Бострома "Басня о драконе-тиране".
Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/mkk7ilvzk5b4bcstvkqnpp2fqa
Начало в 20:00 по московскому времени (UTC+3).
Присоединяйтесь поучаствовать или послушать.
#переводы #соарес
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
LessWrong на русском
Четыре предпосылки
Миссия MIRI – сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным последствиям. Почему эта миссия важна и почему мы считаем, что уже сегодня над этим можно работать?
#переводы #юдковский #нго #соарес
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
LessWrong на русском
Дискуссия Нго и Юдковского про сложность задачи согласования
**Примечание редактора сайта**: Под "согласованием" в заголовке и далее в тексте подразумевается англоязычное "[AI] alignment". В некоторых других статьях на этом сайте этот термин переводился как "соответствие [ИИ целям оператора]". Пока перевод этого термина…