#переводы
Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".
Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.
Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.
lesswrong.ru/1043
Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".
Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.
Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.
lesswrong.ru/1043
LessWrong на русском
Нормальные распределения в предсказаниях
Учимся делать предсказания с помощью нормальных распределений, рассчитывать их точность и калибровку.
#переводы #соарес
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
LessWrong на русском
Четыре предпосылки
Миссия MIRI – сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным последствиям. Почему эта миссия важна и почему мы считаем, что уже сегодня над этим можно работать?
#переводы #юдковский #нго #соарес
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
LessWrong на русском
Дискуссия Нго и Юдковского про сложность задачи согласования
**Примечание редактора сайта**: Под "согласованием" в заголовке и далее в тексте подразумевается англоязычное "[AI] alignment". В некоторых других статьях на этом сайте этот термин переводился как "соответствие [ИИ целям оператора]". Пока перевод этого термина…
#переводы #нго
Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".
"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".
https://lesswrong.ru/node/1168
За перевод опять благодарим группу Мак и коты и AI Safety.
Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".
"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".
https://lesswrong.ru/node/1168
За перевод опять благодарим группу Мак и коты и AI Safety.
LessWrong на русском
Безопасность СИИ с чистого листа
В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более…
#переводы #нго
Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.
Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.
В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)
https://lesswrong.ru/1235
Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.
Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.
В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)
https://lesswrong.ru/1235
#переводы
Новый перевод на сайте - совместная статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "Риски выученной оптимизации".
"Цель этой статьи – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?"
https://lesswrong.ru/node/1258
За перевод в очередной раз благодарим сообщество Мак и коты и AI Safety.
Новый перевод на сайте - совместная статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "Риски выученной оптимизации".
"Цель этой статьи – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?"
https://lesswrong.ru/node/1258
За перевод в очередной раз благодарим сообщество Мак и коты и AI Safety.
LessWrong на русском
Риски выученной оптимизации
В этой цепочке приводится статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "[Риски выученной оптимизации в продвинутых системах машинного обучения](https://arxiv.org/abs/1906.01820)". Посты цепочки соответствуют…
#скотт_александер #переводы
Андрей Заболотский перевёл художественный рассказ Скотта Александера "Слова статуй" о трёх всеведущих статуях, одна из которых всегда говорит правду, другая всегда лжёт, а третья отвечает случайным образом.
https://colt-browning.livejournal.com/8795.html
Андрей Заболотский перевёл художественный рассказ Скотта Александера "Слова статуй" о трёх всеведущих статуях, одна из которых всегда говорит правду, другая всегда лжёт, а третья отвечает случайным образом.
https://colt-browning.livejournal.com/8795.html
Livejournal
Слова статуй
Слова статуй Скотт Александер https://astralcodexten.substack.com/p/idol-words пер. с англ. colt_browning стихи в пер. М. Зенкевича и К. Бальмонта опубликовано с разрешения автора Я чувствую себя соучастником государственной пропаганды, когда на фоне продолжающихся…
#переводы #скотталександер
Недавно здесь публиковался перевод статьи Эвана Хубингера и других "Риски выученной оптимизации", в которой вводилось понятие меса-оптимизатора. В апреле Скотт Александер написал эссе "Deceptively Aligned Mesa-Optimizers: It's Not Funny If I Have To Explain It" с объяснениями того, что это такое и с какими проблемами это понятие связано. А группа Мак и коты и AI Safety это эссе перевела.
Обманчиво согласованные меса-оптимизаторы. Это не смешно, если приходится объяснять
Недавно здесь публиковался перевод статьи Эвана Хубингера и других "Риски выученной оптимизации", в которой вводилось понятие меса-оптимизатора. В апреле Скотт Александер написал эссе "Deceptively Aligned Mesa-Optimizers: It's Not Funny If I Have To Explain It" с объяснениями того, что это такое и с какими проблемами это понятие связано. А группа Мак и коты и AI Safety это эссе перевела.
Обманчиво согласованные меса-оптимизаторы. Это не смешно, если приходится объяснять
#скотт_александер #переводы
Арина перевела эссе Скотта Александера "Effective Altruism As A Tower Of Assumptions", где тот отвечает на популярную критику в адрес эффективного альтруизма. С моей точки зрения, это эссе интересно не только для рассуждений об ЭА, но и как пример, как можно задуматься о том, насколько высказываемые нами аргументы действительно отражают причины, почему мы отказываемся что-то делать.
https://vk.com/@bogoedbotaet-effektivnyi-altruizm-kak-bashnya-predpolozhenii
Арина перевела эссе Скотта Александера "Effective Altruism As A Tower Of Assumptions", где тот отвечает на популярную критику в адрес эффективного альтруизма. С моей точки зрения, это эссе интересно не только для рассуждений об ЭА, но и как пример, как можно задуматься о том, насколько высказываемые нами аргументы действительно отражают причины, почему мы отказываемся что-то делать.
https://vk.com/@bogoedbotaet-effektivnyi-altruizm-kak-bashnya-predpolozhenii
#переводы
Для тех, кто интересуется темой безопасности искусственного интеллекта, однако недостаточно бегло читает на английском, хочу сообщить, что с недавнего времени некоторое количество переводов по этой теме выкладывается на сайте aisafety.ru
Для тех, кто интересуется темой безопасности искусственного интеллекта, однако недостаточно бегло читает на английском, хочу сообщить, что с недавнего времени некоторое количество переводов по этой теме выкладывается на сайте aisafety.ru
#переводы #скотт_александер
Новый перевод на сайте - эссе Скотта Александера "Простые правила, которые практически всегда работают".
В какой-то мере мы живём в достаточно предсказуемом мире. У нас есть опыт и данные, накопленные многими людьми, и иногда этот опыт и данные позволяют нам сформулировать правила, которые хотя иногда и дают исключения, но очень-очень редко. Автор приводит примеры таких правил и рассуждает о проистекающей из них проблеме.
https://lesswrong.ru/2736
Новый перевод на сайте - эссе Скотта Александера "Простые правила, которые практически всегда работают".
В какой-то мере мы живём в достаточно предсказуемом мире. У нас есть опыт и данные, накопленные многими людьми, и иногда этот опыт и данные позволяют нам сформулировать правила, которые хотя иногда и дают исключения, но очень-очень редко. Автор приводит примеры таких правил и рассуждает о проистекающей из них проблеме.
https://lesswrong.ru/2736
LessWrong на русском
Простые правила, которые практически всегда работают
## Охранник Он работает в очень скучном здании, которое практически никогда не пытаются ограбить. Он сидит в своей охранной будке и решает кроссворд. Время от времени слышится шум и он идет проверить: грабители это или просто сквозняк. Это сквозняк. Это…