#переводы #юдковский
Новый перевод на сайте -- эссе Элиезера Юдковского "Используйте слово «рационально», только если от него нельзя избавиться".
Это очень короткое эссе, поэтому вместо анонса я приведу его целиком.
===
Почти всегда, если в предложении используется слово «истина», его можно убрать, применив формулу Тарского. Например, если кто-то говорит: «Я убеждён, что небо синее, и это истина!», то это можно перефразировать как: «Я убеждён, что небо синее, и небо синее». Для любого «Предложение Х - истина» можно просто сказать Х и передать ту же самую информацию о своих убеждениях. Просто говорите о территории, которой карта предположительно соответствует, а не о карте.
Когда слово «истина» убрать нельзя? Когда вы говорите об общих принципах, касающихся соответствия между картой и территорией. Например: «Истинные теории с большей вероятностью дадут верные предсказания об исходах эксперимента». В этом предложении невозможно избавиться от слова «истинные», потому что здесь речь идёт о соответствии между картой и территорией в общем случае.
Аналогично можно убрать слово «рационально» из почти всех предложений, где оно используется. «Рационально считать, что небо синее», «Истина в том, что небо синее» и «Небо синее» передают абсолютно одинаковую информацию о цвете неба с вашей точки зрения. Не больше, не меньше.
Когда из предложения нельзя убрать слово «рационально»?
Когда вы формулируете общие принципы для алгоритмов мышления, которые приводят к соответствию между картой и территорией (эпистемическая рациональность) или направляют будущее туда, куда вы хотите (инструментальная рациональность). Можно убрать слово «рационально» из предложения «Рационально считать, что небо синее». Нельзя убрать слово «рационально» из предложения «Эпистемически рационально повышать свою уверенность в гипотезах, которые делают успешные предсказания». Табуировать это слово, конечно, можно, но вы получите что-то вроде: «Чтобы увеличить соответствие между картой и территорией, следуйте алгоритму, который требует увеличивать уверенность в гипотезе, которая делает успешные предсказания». Можно избавиться от слова, но не получится избавиться от самого понятия, не изменив смысла предложения, поскольку речь фактически идёт об универсальных алгоритмах мышления, которые строят соответствие между картой и территорией.
Никогда не следует использовать слово «рационально» без необходимости, то есть, если мы не обсуждаем алгоритмы мышления как алгоритмы.
Если вы хотите поговорить о том, как применить рациональность, чтобы купить самую крутую машину, но в первую очередь собираетесь рассуждать о машинах, а не о том, какие алгоритмы мышления самые лучшие, назовите свой пост «Как лучше покупать машину», а не «Как рационально покупать машину».
Спасибо за то, что соблюдаете технику безопасности.
===
https://lesswrong.ru/653
Новый перевод на сайте -- эссе Элиезера Юдковского "Используйте слово «рационально», только если от него нельзя избавиться".
Это очень короткое эссе, поэтому вместо анонса я приведу его целиком.
===
Почти всегда, если в предложении используется слово «истина», его можно убрать, применив формулу Тарского. Например, если кто-то говорит: «Я убеждён, что небо синее, и это истина!», то это можно перефразировать как: «Я убеждён, что небо синее, и небо синее». Для любого «Предложение Х - истина» можно просто сказать Х и передать ту же самую информацию о своих убеждениях. Просто говорите о территории, которой карта предположительно соответствует, а не о карте.
Когда слово «истина» убрать нельзя? Когда вы говорите об общих принципах, касающихся соответствия между картой и территорией. Например: «Истинные теории с большей вероятностью дадут верные предсказания об исходах эксперимента». В этом предложении невозможно избавиться от слова «истинные», потому что здесь речь идёт о соответствии между картой и территорией в общем случае.
Аналогично можно убрать слово «рационально» из почти всех предложений, где оно используется. «Рационально считать, что небо синее», «Истина в том, что небо синее» и «Небо синее» передают абсолютно одинаковую информацию о цвете неба с вашей точки зрения. Не больше, не меньше.
Когда из предложения нельзя убрать слово «рационально»?
Когда вы формулируете общие принципы для алгоритмов мышления, которые приводят к соответствию между картой и территорией (эпистемическая рациональность) или направляют будущее туда, куда вы хотите (инструментальная рациональность). Можно убрать слово «рационально» из предложения «Рационально считать, что небо синее». Нельзя убрать слово «рационально» из предложения «Эпистемически рационально повышать свою уверенность в гипотезах, которые делают успешные предсказания». Табуировать это слово, конечно, можно, но вы получите что-то вроде: «Чтобы увеличить соответствие между картой и территорией, следуйте алгоритму, который требует увеличивать уверенность в гипотезе, которая делает успешные предсказания». Можно избавиться от слова, но не получится избавиться от самого понятия, не изменив смысла предложения, поскольку речь фактически идёт об универсальных алгоритмах мышления, которые строят соответствие между картой и территорией.
Никогда не следует использовать слово «рационально» без необходимости, то есть, если мы не обсуждаем алгоритмы мышления как алгоритмы.
Если вы хотите поговорить о том, как применить рациональность, чтобы купить самую крутую машину, но в первую очередь собираетесь рассуждать о машинах, а не о том, какие алгоритмы мышления самые лучшие, назовите свой пост «Как лучше покупать машину», а не «Как рационально покупать машину».
Спасибо за то, что соблюдаете технику безопасности.
===
https://lesswrong.ru/653
LessWrong на русском
Используйте слово "рационально", только если от него нельзя избавиться
Почти всегда, если в предложении используется слово "истина", его можно убрать, применив формулу Тарского. Например, если кто-то говорит: "Я убеждён, что небо синее, и это истина!", то это можно перефразировать как: "Я убеждён, что небо синее, и небо синее".…
#переводы #цепочки #юдковский
Новый перевод на сайте -- эссе Элиезера Юдковского "Эпистемическая порочность" из цепочки "Создание сообщества".
По мотивам прочитанной статьи Юдковский рассуждает о следующем явлении: люди нередко обучаются боевым искусствам и, вроде бы у признанных мастеров, но потом понимают, что в реальном бою они мало что могут. Иногда случается, что и признанный мастер боевых искусств в поединке с не слишком жёсткими правилами терпит достаточно впечатляющее поражение.
Почему это происходит? И если мы пользуемся метафорой, что рациональности нужно обучать как боевым искусствам, как мы можем избежать таких же провалов?
https://lesswrong.ru/656
Новый перевод на сайте -- эссе Элиезера Юдковского "Эпистемическая порочность" из цепочки "Создание сообщества".
По мотивам прочитанной статьи Юдковский рассуждает о следующем явлении: люди нередко обучаются боевым искусствам и, вроде бы у признанных мастеров, но потом понимают, что в реальном бою они мало что могут. Иногда случается, что и признанный мастер боевых искусств в поединке с не слишком жёсткими правилами терпит достаточно впечатляющее поражение.
Почему это происходит? И если мы пользуемся метафорой, что рациональности нужно обучать как боевым искусствам, как мы можем избежать таких же провалов?
https://lesswrong.ru/656
LessWrong на русском
Эпистемическая порочность
Я очень благодарен тому, кто навёл меня на большое эссе Гиллианы Рассел "[Эпистемическая порочность в боевых искусствах](https://web.archive.org/web/20120502203055/http://artsci.wustl.edu/~grussell/epistemicviciousness.pdf)"[fn]Gillian Russell, “Epistemic…
#переводы #скотт_александер
Новый перевод на сайте -- эссе Скотта Александера "Оправдания: восемь небольших этюдов". В этом эссе автор рассматривает оправдания с точки зрения теории игр.
https://lesswrong.ru/659
Новый перевод на сайте -- эссе Скотта Александера "Оправдания: восемь небольших этюдов". В этом эссе автор рассматривает оправдания с точки зрения теории игр.
https://lesswrong.ru/659
LessWrong на русском
Оправдания: восемь небольших этюдов
## Неуклюжий игрок Вы с партнёром играете в Повторяющуюся Дилемму Заключённого. Вы оба публично обязались следовать стратегии «око за око». До пятой итерации всё шло замечательно, вы счастливо загребали себе бонусы кооперации, но тут ваш партнёр внезапно…
#переводы #скотт_александер
Новый перевод на сайте -- эссе Скотта Александера "Заборы Шеллинга на скользких дорожках". В этом эссе Скотт Александер рассуждает об аргументе "скользкой дорожки". Когда такой аргумент может быть оправдан?
https://lesswrong.ru/661
Новый перевод на сайте -- эссе Скотта Александера "Заборы Шеллинга на скользких дорожках". В этом эссе Скотт Александер рассуждает об аргументе "скользкой дорожки". Когда такой аргумент может быть оправдан?
https://lesswrong.ru/661
LessWrong на русском
Заборы Шеллинга на скользких дорожках
Скользкая дорожка сама по себе скользковатая концепция. Представьте, как бы вы объясняли её инопланетянину: «Ну, мы, правильно думающие люди, довольно таки уверены, что Холокост был, так что запрет отрицания Холокоста заткнул бы некоторых чокнутых и улучшил…
#переводы #скотт_александер
Новый перевод на сайте -- эссе Скотта Александера "Кардиологи и китайские грабители". Вы когда-нибудь задумывались, сколько преступлений совершают кардиологи?
https://lesswrong.ru/662
Новый перевод на сайте -- эссе Скотта Александера "Кардиологи и китайские грабители". Вы когда-нибудь задумывались, сколько преступлений совершают кардиологи?
https://lesswrong.ru/662
LessWrong на русском
Кардиологи и китайские грабители
## I Кардиологами становятся очень своеобразные люди. И не всегда в хорошем смысле.
#в_мире #переводы #юдковский
В сентябре этого года состоялась встреча в некотором чате, где Элиезер Юдковский описывал, как он представляет грядущие проблемы, связанные с вероятным появлением сильного искусственного интеллекта. Пару недель назад отредактированную расшифровку этой встрече выложили на AI Alignment Forum, а на днях Максим Выменец выложил свой перевод этой расшифровки.
https://vk.com/@makikoty-obsuzhdenie-agi-s-eliezerom-udkovskim
В сентябре этого года состоялась встреча в некотором чате, где Элиезер Юдковский описывал, как он представляет грядущие проблемы, связанные с вероятным появлением сильного искусственного интеллекта. Пару недель назад отредактированную расшифровку этой встрече выложили на AI Alignment Forum, а на днях Максим Выменец выложил свой перевод этой расшифровки.
https://vk.com/@makikoty-obsuzhdenie-agi-s-eliezerom-udkovskim
VK
Обсуждение AGI с Элиезером Юдковским
Оригинал: https://www.alignmentforum.org/posts/CpvyhFy9WvCNsifkY/discussion-with-eliezer-yudkowsky-on-agi-interventions
#переводы #юдковский
Новый перевод на сайте -- полушуточный диалог Элиезера Юдковского "Задача соответствия ракет и цели". Юдковский, используя аналогии из другой области, пытается объяснить, чем именно занимаются в MIRI и почему.
https://lesswrong.ru/755
Новый перевод на сайте -- полушуточный диалог Элиезера Юдковского "Задача соответствия ракет и цели". Юдковский, используя аналогии из другой области, пытается объяснить, чем именно занимаются в MIRI и почему.
https://lesswrong.ru/755
LessWrong на русском
Задача соответствия ракет и цели
Нижеследующее — вымышленный диалог, основанный на [Соответствие ИИ — Почему это сложно и с чего начать](https://intelligence.org/2016/12/28/ai-alignment-why-its-hard-and-where-to-start/). (_Где-то в не-очень-то-близком из миров по соседству, где наука пошла…
#переводы
Сообщество в ВК "Космос ждал" начало переводить "CFAR Participant Handbook" - методички, раздаваемой участникам воркшопов по рациональности, организуемых CFAR. В этой методичке собраны описания разнообразных техник прикладной рациональности, чтобы участники воркшопа могли не тратить время на записи в процессе, а могли лучше сосредоточиться на самих упражнениях.
У CFAR есть некоторый скепсис на тему, насколько их Handbook полезен без самого воркшопа. Более подробно об этом написано в предисловии, которое в перевод не вошло.
Начало перевода можно найти в записи: https://vk.com/wall-174182021_4520 Далее можно смотреть по тэгу #translations@cosmospolon или просто искать в записях сообщества.
Сообщество в ВК "Космос ждал" начало переводить "CFAR Participant Handbook" - методички, раздаваемой участникам воркшопов по рациональности, организуемых CFAR. В этой методичке собраны описания разнообразных техник прикладной рациональности, чтобы участники воркшопа могли не тратить время на записи в процессе, а могли лучше сосредоточиться на самих упражнениях.
У CFAR есть некоторый скепсис на тему, насколько их Handbook полезен без самого воркшопа. Более подробно об этом написано в предисловии, которое в перевод не вошло.
Начало перевода можно найти в записи: https://vk.com/wall-174182021_4520 Далее можно смотреть по тэгу #translations@cosmospolon или просто искать в записях сообщества.
#скотт_александер #переводы
Скотт Александер написал свою рецензию на фильм "Не смотрите наверх", а Анастасия Мальцева эту рецензию перевела. Осторожно, присутствуют спойлеры к фильму.
https://vk.com/@la.praline-perevod-odnogo-iz-postov-blogera-skotta-aleksandera-recenziy
Скотт Александер написал свою рецензию на фильм "Не смотрите наверх", а Анастасия Мальцева эту рецензию перевела. Осторожно, присутствуют спойлеры к фильму.
https://vk.com/@la.praline-perevod-odnogo-iz-postov-blogera-skotta-aleksandera-recenziy
VK
Перевод одного из постов блогера Скотта Александера. Рецензия на фильм «Don't Look Up»
Преамбула. На сайте LessWrong написано, что Скотт Александер (Scott Alexander, псевдоним) — рациональный блогер. Я увидела пост о его рец..
#переводы
Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".
Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.
Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.
lesswrong.ru/1043
Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".
Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.
Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.
lesswrong.ru/1043
LessWrong на русском
Нормальные распределения в предсказаниях
Учимся делать предсказания с помощью нормальных распределений, рассчитывать их точность и калибровку.
#переводы #соарес
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
LessWrong на русском
Четыре предпосылки
Миссия MIRI – сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным последствиям. Почему эта миссия важна и почему мы считаем, что уже сегодня над этим можно работать?
#переводы #юдковский #нго #соарес
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
LessWrong на русском
Дискуссия Нго и Юдковского про сложность задачи согласования
**Примечание редактора сайта**: Под "согласованием" в заголовке и далее в тексте подразумевается англоязычное "[AI] alignment". В некоторых других статьях на этом сайте этот термин переводился как "соответствие [ИИ целям оператора]". Пока перевод этого термина…
#переводы #нго
Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".
"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".
https://lesswrong.ru/node/1168
За перевод опять благодарим группу Мак и коты и AI Safety.
Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".
"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".
https://lesswrong.ru/node/1168
За перевод опять благодарим группу Мак и коты и AI Safety.
LessWrong на русском
Безопасность СИИ с чистого листа
В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более…
#переводы #нго
Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.
Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.
В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)
https://lesswrong.ru/1235
Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.
Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.
В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)
https://lesswrong.ru/1235
#переводы
Новый перевод на сайте - совместная статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "Риски выученной оптимизации".
"Цель этой статьи – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?"
https://lesswrong.ru/node/1258
За перевод в очередной раз благодарим сообщество Мак и коты и AI Safety.
Новый перевод на сайте - совместная статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "Риски выученной оптимизации".
"Цель этой статьи – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?"
https://lesswrong.ru/node/1258
За перевод в очередной раз благодарим сообщество Мак и коты и AI Safety.
LessWrong на русском
Риски выученной оптимизации
В этой цепочке приводится статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "[Риски выученной оптимизации в продвинутых системах машинного обучения](https://arxiv.org/abs/1906.01820)". Посты цепочки соответствуют…
#скотт_александер #переводы
Андрей Заболотский перевёл художественный рассказ Скотта Александера "Слова статуй" о трёх всеведущих статуях, одна из которых всегда говорит правду, другая всегда лжёт, а третья отвечает случайным образом.
https://colt-browning.livejournal.com/8795.html
Андрей Заболотский перевёл художественный рассказ Скотта Александера "Слова статуй" о трёх всеведущих статуях, одна из которых всегда говорит правду, другая всегда лжёт, а третья отвечает случайным образом.
https://colt-browning.livejournal.com/8795.html
Livejournal
Слова статуй
Слова статуй Скотт Александер https://astralcodexten.substack.com/p/idol-words пер. с англ. colt_browning стихи в пер. М. Зенкевича и К. Бальмонта опубликовано с разрешения автора Я чувствую себя соучастником государственной пропаганды, когда на фоне продолжающихся…
#переводы #скотталександер
Недавно здесь публиковался перевод статьи Эвана Хубингера и других "Риски выученной оптимизации", в которой вводилось понятие меса-оптимизатора. В апреле Скотт Александер написал эссе "Deceptively Aligned Mesa-Optimizers: It's Not Funny If I Have To Explain It" с объяснениями того, что это такое и с какими проблемами это понятие связано. А группа Мак и коты и AI Safety это эссе перевела.
Обманчиво согласованные меса-оптимизаторы. Это не смешно, если приходится объяснять
Недавно здесь публиковался перевод статьи Эвана Хубингера и других "Риски выученной оптимизации", в которой вводилось понятие меса-оптимизатора. В апреле Скотт Александер написал эссе "Deceptively Aligned Mesa-Optimizers: It's Not Funny If I Have To Explain It" с объяснениями того, что это такое и с какими проблемами это понятие связано. А группа Мак и коты и AI Safety это эссе перевела.
Обманчиво согласованные меса-оптимизаторы. Это не смешно, если приходится объяснять
#скотт_александер #переводы
Арина перевела эссе Скотта Александера "Effective Altruism As A Tower Of Assumptions", где тот отвечает на популярную критику в адрес эффективного альтруизма. С моей точки зрения, это эссе интересно не только для рассуждений об ЭА, но и как пример, как можно задуматься о том, насколько высказываемые нами аргументы действительно отражают причины, почему мы отказываемся что-то делать.
https://vk.com/@bogoedbotaet-effektivnyi-altruizm-kak-bashnya-predpolozhenii
Арина перевела эссе Скотта Александера "Effective Altruism As A Tower Of Assumptions", где тот отвечает на популярную критику в адрес эффективного альтруизма. С моей точки зрения, это эссе интересно не только для рассуждений об ЭА, но и как пример, как можно задуматься о том, насколько высказываемые нами аргументы действительно отражают причины, почему мы отказываемся что-то делать.
https://vk.com/@bogoedbotaet-effektivnyi-altruizm-kak-bashnya-predpolozhenii
#переводы
Для тех, кто интересуется темой безопасности искусственного интеллекта, однако недостаточно бегло читает на английском, хочу сообщить, что с недавнего времени некоторое количество переводов по этой теме выкладывается на сайте aisafety.ru
Для тех, кто интересуется темой безопасности искусственного интеллекта, однако недостаточно бегло читает на английском, хочу сообщить, что с недавнего времени некоторое количество переводов по этой теме выкладывается на сайте aisafety.ru
#переводы #скотт_александер
Новый перевод на сайте - эссе Скотта Александера "Простые правила, которые практически всегда работают".
В какой-то мере мы живём в достаточно предсказуемом мире. У нас есть опыт и данные, накопленные многими людьми, и иногда этот опыт и данные позволяют нам сформулировать правила, которые хотя иногда и дают исключения, но очень-очень редко. Автор приводит примеры таких правил и рассуждает о проистекающей из них проблеме.
https://lesswrong.ru/2736
Новый перевод на сайте - эссе Скотта Александера "Простые правила, которые практически всегда работают".
В какой-то мере мы живём в достаточно предсказуемом мире. У нас есть опыт и данные, накопленные многими людьми, и иногда этот опыт и данные позволяют нам сформулировать правила, которые хотя иногда и дают исключения, но очень-очень редко. Автор приводит примеры таких правил и рассуждает о проистекающей из них проблеме.
https://lesswrong.ru/2736
LessWrong на русском
Простые правила, которые практически всегда работают
## Охранник Он работает в очень скучном здании, которое практически никогда не пытаются ограбить. Он сидит в своей охранной будке и решает кроссворд. Время от времени слышится шум и он идет проверить: грабители это или просто сквозняк. Это сквозняк. Это…