Новости сообщества LessWrong
1.33K subscribers
21 photos
1 file
837 links
Новости русскоязычной части сообщества LessWrong. Интересные статьи, новые переводы и встречи.
Download Telegram
#переводы

Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".

Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.

Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.

lesswrong.ru/1043
#переводы #соарес

Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".

Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.

Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.

https://lesswrong.ru/1068

В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
#переводы #юдковский #нго #соарес

Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).

Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.

Дискуссия огромна и в ней затрагивается множество разных вопросов.

https://lesswrong.ru/1083

За перевод нужно благодарить группу Мак и коты и AI Safety.
#переводы #нго

Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".

"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".

https://lesswrong.ru/node/1168

За перевод опять благодарим группу Мак и коты и AI Safety.
#переводы #нго

Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.

Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.

В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)

https://lesswrong.ru/1235
#переводы

Новый перевод на сайте - совместная статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "Риски выученной оптимизации".

"Цель этой статьи – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?"

https://lesswrong.ru/node/1258

За перевод в очередной раз благодарим сообщество Мак и коты и AI Safety.
#переводы #скотталександер

Недавно здесь публиковался перевод статьи Эвана Хубингера и других "Риски выученной оптимизации", в которой вводилось понятие меса-оптимизатора. В апреле Скотт Александер написал эссе "Deceptively Aligned Mesa-Optimizers: It's Not Funny If I Have To Explain It" с объяснениями того, что это такое и с какими проблемами это понятие связано. А группа Мак и коты и AI Safety это эссе перевела.

Обманчиво согласованные меса-оптимизаторы. Это не смешно, если приходится объяснять
#скотт_александер #переводы

Арина перевела эссе Скотта Александера "Effective Altruism As A Tower Of Assumptions", где тот отвечает на популярную критику в адрес эффективного альтруизма. С моей точки зрения, это эссе интересно не только для рассуждений об ЭА, но и как пример, как можно задуматься о том, насколько высказываемые нами аргументы действительно отражают причины, почему мы отказываемся что-то делать.

https://vk.com/@bogoedbotaet-effektivnyi-altruizm-kak-bashnya-predpolozhenii
#переводы

Для тех, кто интересуется темой безопасности искусственного интеллекта, однако недостаточно бегло читает на английском, хочу сообщить, что с недавнего времени некоторое количество переводов по этой теме выкладывается на сайте aisafety.ru
#переводы #скотт_александер

Новый перевод на сайте - эссе Скотта Александера "Простые правила, которые практически всегда работают".

В какой-то мере мы живём в достаточно предсказуемом мире. У нас есть опыт и данные, накопленные многими людьми, и иногда этот опыт и данные позволяют нам сформулировать правила, которые хотя иногда и дают исключения, но очень-очень редко. Автор приводит примеры таких правил и рассуждает о проистекающей из них проблеме.

https://lesswrong.ru/2736