#переводы
Новый перевод на сайте -- короткий художественный рассказ пользователя Dias под названием "Карантин".
https://lesswrong.ru/645
Новый перевод на сайте -- короткий художественный рассказ пользователя Dias под названием "Карантин".
https://lesswrong.ru/645
LessWrong на русском
Короткая история: Карантин
*Второе июня, 42 после Падения* *Где-то в горах Колорадо* Сначала они увидели человека, идущего в нескольких милях от комплекса. По крайней мере, это выглядело как человек. Выцветшие джинсы, белая футболка, ветровка, походный рюкзак. Белый, светло-коричневые…
#переводы #цепочки #юдковский
Новый перевод на сайте -- эссе Элиезера Юдковского "Ошибка выломанного рычага" из цепочки "Фальшивые предпочтения".
Некоторые люди при обсуждении вопроса, как сделать так, чтобы цели ИИ согласовывались с целями человека, считают, что просто нужно правильно воспитать ИИ. Ведь мы же умеем правильно воспитывать детей. Этот сюжет встречался и в некоторой фантастике.
Что здесь может пойти не так?
https://lesswrong.ru/646
Новый перевод на сайте -- эссе Элиезера Юдковского "Ошибка выломанного рычага" из цепочки "Фальшивые предпочтения".
Некоторые люди при обсуждении вопроса, как сделать так, чтобы цели ИИ согласовывались с целями человека, считают, что просто нужно правильно воспитать ИИ. Ведь мы же умеем правильно воспитывать детей. Этот сюжет встречался и в некоторой фантастике.
Что здесь может пойти не так?
https://lesswrong.ru/646
LessWrong на русском
Ошибка выломанного рычага
Имя этой ошибки происходит из древнего научно-фантастического сериала, которого я сам не видел. Я узнал об этом сериале из надёжного источника --- от какого-то парня на конвенте, посвящённом научной фантастике. Если вы знаете, что это за сериал, напишите…
#переводы
Новый перевод на сайте -- эссе Майкла "Валентайна" Смита "Понимание на уровне шестерёнок".
Чтобы ориентироваться в мире, мы строим его модели -- формируем у себя в голове представление, как различные штуки связаны друг с другом, что может произойти в дальнейшем, а что не может. Судя по всему, чтобы достигать своих целей, неплохо иметь хорошую модель той части мира, которая тебе интересна. Но как отличить хорошую модель от плохой?
Возможно, на этом месте многие скажут: "Конечно же, с помощью экспериментов". Однако в некоторых областях жизни ставить эксперимент довольно дорого. И хотя понятно, что какие-то эксперименты ставить всё равно придётся, кажется, неплохо бы к ним заранее подготовиться и как-то сузить круг необходимых экспериментов.
Эссе вводит понятие "шестерёночная модель", которое, с моей точки зрения, очень активно используется на LessWrong'е в последние годы (эссе написано в 2017 году).
https://lesswrong.ru/648
Новый перевод на сайте -- эссе Майкла "Валентайна" Смита "Понимание на уровне шестерёнок".
Чтобы ориентироваться в мире, мы строим его модели -- формируем у себя в голове представление, как различные штуки связаны друг с другом, что может произойти в дальнейшем, а что не может. Судя по всему, чтобы достигать своих целей, неплохо иметь хорошую модель той части мира, которая тебе интересна. Но как отличить хорошую модель от плохой?
Возможно, на этом месте многие скажут: "Конечно же, с помощью экспериментов". Однако в некоторых областях жизни ставить эксперимент довольно дорого. И хотя понятно, что какие-то эксперименты ставить всё равно придётся, кажется, неплохо бы к ним заранее подготовиться и как-то сузить круг необходимых экспериментов.
Эссе вводит понятие "шестерёночная модель", которое, с моей точки зрения, очень активно используется на LessWrong'е в последние годы (эссе написано в 2017 году).
https://lesswrong.ru/648
LessWrong на русском
Понимание на уровне шестерёнок
Среди бумажных дорожных карт одни полезнее других. Иногда это связано с тем, [насколько хорошо карта отражает территорию](https://lesswrong.ru/501), однако стоит ещё учитывать и особенности самой карты, не связанные с территорией. Например, линии на карте…
#переводы #юдковский
Новый перевод на сайте -- эссе Элиезера Юдковского "Используйте слово «рационально», только если от него нельзя избавиться".
Это очень короткое эссе, поэтому вместо анонса я приведу его целиком.
===
Почти всегда, если в предложении используется слово «истина», его можно убрать, применив формулу Тарского. Например, если кто-то говорит: «Я убеждён, что небо синее, и это истина!», то это можно перефразировать как: «Я убеждён, что небо синее, и небо синее». Для любого «Предложение Х - истина» можно просто сказать Х и передать ту же самую информацию о своих убеждениях. Просто говорите о территории, которой карта предположительно соответствует, а не о карте.
Когда слово «истина» убрать нельзя? Когда вы говорите об общих принципах, касающихся соответствия между картой и территорией. Например: «Истинные теории с большей вероятностью дадут верные предсказания об исходах эксперимента». В этом предложении невозможно избавиться от слова «истинные», потому что здесь речь идёт о соответствии между картой и территорией в общем случае.
Аналогично можно убрать слово «рационально» из почти всех предложений, где оно используется. «Рационально считать, что небо синее», «Истина в том, что небо синее» и «Небо синее» передают абсолютно одинаковую информацию о цвете неба с вашей точки зрения. Не больше, не меньше.
Когда из предложения нельзя убрать слово «рационально»?
Когда вы формулируете общие принципы для алгоритмов мышления, которые приводят к соответствию между картой и территорией (эпистемическая рациональность) или направляют будущее туда, куда вы хотите (инструментальная рациональность). Можно убрать слово «рационально» из предложения «Рационально считать, что небо синее». Нельзя убрать слово «рационально» из предложения «Эпистемически рационально повышать свою уверенность в гипотезах, которые делают успешные предсказания». Табуировать это слово, конечно, можно, но вы получите что-то вроде: «Чтобы увеличить соответствие между картой и территорией, следуйте алгоритму, который требует увеличивать уверенность в гипотезе, которая делает успешные предсказания». Можно избавиться от слова, но не получится избавиться от самого понятия, не изменив смысла предложения, поскольку речь фактически идёт об универсальных алгоритмах мышления, которые строят соответствие между картой и территорией.
Никогда не следует использовать слово «рационально» без необходимости, то есть, если мы не обсуждаем алгоритмы мышления как алгоритмы.
Если вы хотите поговорить о том, как применить рациональность, чтобы купить самую крутую машину, но в первую очередь собираетесь рассуждать о машинах, а не о том, какие алгоритмы мышления самые лучшие, назовите свой пост «Как лучше покупать машину», а не «Как рационально покупать машину».
Спасибо за то, что соблюдаете технику безопасности.
===
https://lesswrong.ru/653
Новый перевод на сайте -- эссе Элиезера Юдковского "Используйте слово «рационально», только если от него нельзя избавиться".
Это очень короткое эссе, поэтому вместо анонса я приведу его целиком.
===
Почти всегда, если в предложении используется слово «истина», его можно убрать, применив формулу Тарского. Например, если кто-то говорит: «Я убеждён, что небо синее, и это истина!», то это можно перефразировать как: «Я убеждён, что небо синее, и небо синее». Для любого «Предложение Х - истина» можно просто сказать Х и передать ту же самую информацию о своих убеждениях. Просто говорите о территории, которой карта предположительно соответствует, а не о карте.
Когда слово «истина» убрать нельзя? Когда вы говорите об общих принципах, касающихся соответствия между картой и территорией. Например: «Истинные теории с большей вероятностью дадут верные предсказания об исходах эксперимента». В этом предложении невозможно избавиться от слова «истинные», потому что здесь речь идёт о соответствии между картой и территорией в общем случае.
Аналогично можно убрать слово «рационально» из почти всех предложений, где оно используется. «Рационально считать, что небо синее», «Истина в том, что небо синее» и «Небо синее» передают абсолютно одинаковую информацию о цвете неба с вашей точки зрения. Не больше, не меньше.
Когда из предложения нельзя убрать слово «рационально»?
Когда вы формулируете общие принципы для алгоритмов мышления, которые приводят к соответствию между картой и территорией (эпистемическая рациональность) или направляют будущее туда, куда вы хотите (инструментальная рациональность). Можно убрать слово «рационально» из предложения «Рационально считать, что небо синее». Нельзя убрать слово «рационально» из предложения «Эпистемически рационально повышать свою уверенность в гипотезах, которые делают успешные предсказания». Табуировать это слово, конечно, можно, но вы получите что-то вроде: «Чтобы увеличить соответствие между картой и территорией, следуйте алгоритму, который требует увеличивать уверенность в гипотезе, которая делает успешные предсказания». Можно избавиться от слова, но не получится избавиться от самого понятия, не изменив смысла предложения, поскольку речь фактически идёт об универсальных алгоритмах мышления, которые строят соответствие между картой и территорией.
Никогда не следует использовать слово «рационально» без необходимости, то есть, если мы не обсуждаем алгоритмы мышления как алгоритмы.
Если вы хотите поговорить о том, как применить рациональность, чтобы купить самую крутую машину, но в первую очередь собираетесь рассуждать о машинах, а не о том, какие алгоритмы мышления самые лучшие, назовите свой пост «Как лучше покупать машину», а не «Как рационально покупать машину».
Спасибо за то, что соблюдаете технику безопасности.
===
https://lesswrong.ru/653
LessWrong на русском
Используйте слово "рационально", только если от него нельзя избавиться
Почти всегда, если в предложении используется слово "истина", его можно убрать, применив формулу Тарского. Например, если кто-то говорит: "Я убеждён, что небо синее, и это истина!", то это можно перефразировать как: "Я убеждён, что небо синее, и небо синее".…
#переводы #цепочки #юдковский
Новый перевод на сайте -- эссе Элиезера Юдковского "Эпистемическая порочность" из цепочки "Создание сообщества".
По мотивам прочитанной статьи Юдковский рассуждает о следующем явлении: люди нередко обучаются боевым искусствам и, вроде бы у признанных мастеров, но потом понимают, что в реальном бою они мало что могут. Иногда случается, что и признанный мастер боевых искусств в поединке с не слишком жёсткими правилами терпит достаточно впечатляющее поражение.
Почему это происходит? И если мы пользуемся метафорой, что рациональности нужно обучать как боевым искусствам, как мы можем избежать таких же провалов?
https://lesswrong.ru/656
Новый перевод на сайте -- эссе Элиезера Юдковского "Эпистемическая порочность" из цепочки "Создание сообщества".
По мотивам прочитанной статьи Юдковский рассуждает о следующем явлении: люди нередко обучаются боевым искусствам и, вроде бы у признанных мастеров, но потом понимают, что в реальном бою они мало что могут. Иногда случается, что и признанный мастер боевых искусств в поединке с не слишком жёсткими правилами терпит достаточно впечатляющее поражение.
Почему это происходит? И если мы пользуемся метафорой, что рациональности нужно обучать как боевым искусствам, как мы можем избежать таких же провалов?
https://lesswrong.ru/656
LessWrong на русском
Эпистемическая порочность
Я очень благодарен тому, кто навёл меня на большое эссе Гиллианы Рассел "[Эпистемическая порочность в боевых искусствах](https://web.archive.org/web/20120502203055/http://artsci.wustl.edu/~grussell/epistemicviciousness.pdf)"[fn]Gillian Russell, “Epistemic…
#переводы #скотт_александер
Новый перевод на сайте -- эссе Скотта Александера "Оправдания: восемь небольших этюдов". В этом эссе автор рассматривает оправдания с точки зрения теории игр.
https://lesswrong.ru/659
Новый перевод на сайте -- эссе Скотта Александера "Оправдания: восемь небольших этюдов". В этом эссе автор рассматривает оправдания с точки зрения теории игр.
https://lesswrong.ru/659
LessWrong на русском
Оправдания: восемь небольших этюдов
## Неуклюжий игрок Вы с партнёром играете в Повторяющуюся Дилемму Заключённого. Вы оба публично обязались следовать стратегии «око за око». До пятой итерации всё шло замечательно, вы счастливо загребали себе бонусы кооперации, но тут ваш партнёр внезапно…
#переводы #скотт_александер
Новый перевод на сайте -- эссе Скотта Александера "Заборы Шеллинга на скользких дорожках". В этом эссе Скотт Александер рассуждает об аргументе "скользкой дорожки". Когда такой аргумент может быть оправдан?
https://lesswrong.ru/661
Новый перевод на сайте -- эссе Скотта Александера "Заборы Шеллинга на скользких дорожках". В этом эссе Скотт Александер рассуждает об аргументе "скользкой дорожки". Когда такой аргумент может быть оправдан?
https://lesswrong.ru/661
LessWrong на русском
Заборы Шеллинга на скользких дорожках
Скользкая дорожка сама по себе скользковатая концепция. Представьте, как бы вы объясняли её инопланетянину: «Ну, мы, правильно думающие люди, довольно таки уверены, что Холокост был, так что запрет отрицания Холокоста заткнул бы некоторых чокнутых и улучшил…
#переводы #скотт_александер
Новый перевод на сайте -- эссе Скотта Александера "Кардиологи и китайские грабители". Вы когда-нибудь задумывались, сколько преступлений совершают кардиологи?
https://lesswrong.ru/662
Новый перевод на сайте -- эссе Скотта Александера "Кардиологи и китайские грабители". Вы когда-нибудь задумывались, сколько преступлений совершают кардиологи?
https://lesswrong.ru/662
LessWrong на русском
Кардиологи и китайские грабители
## I Кардиологами становятся очень своеобразные люди. И не всегда в хорошем смысле.
#в_мире #переводы #юдковский
В сентябре этого года состоялась встреча в некотором чате, где Элиезер Юдковский описывал, как он представляет грядущие проблемы, связанные с вероятным появлением сильного искусственного интеллекта. Пару недель назад отредактированную расшифровку этой встрече выложили на AI Alignment Forum, а на днях Максим Выменец выложил свой перевод этой расшифровки.
https://vk.com/@makikoty-obsuzhdenie-agi-s-eliezerom-udkovskim
В сентябре этого года состоялась встреча в некотором чате, где Элиезер Юдковский описывал, как он представляет грядущие проблемы, связанные с вероятным появлением сильного искусственного интеллекта. Пару недель назад отредактированную расшифровку этой встрече выложили на AI Alignment Forum, а на днях Максим Выменец выложил свой перевод этой расшифровки.
https://vk.com/@makikoty-obsuzhdenie-agi-s-eliezerom-udkovskim
VK
Обсуждение AGI с Элиезером Юдковским
Оригинал: https://www.alignmentforum.org/posts/CpvyhFy9WvCNsifkY/discussion-with-eliezer-yudkowsky-on-agi-interventions
#переводы #юдковский
Новый перевод на сайте -- полушуточный диалог Элиезера Юдковского "Задача соответствия ракет и цели". Юдковский, используя аналогии из другой области, пытается объяснить, чем именно занимаются в MIRI и почему.
https://lesswrong.ru/755
Новый перевод на сайте -- полушуточный диалог Элиезера Юдковского "Задача соответствия ракет и цели". Юдковский, используя аналогии из другой области, пытается объяснить, чем именно занимаются в MIRI и почему.
https://lesswrong.ru/755
LessWrong на русском
Задача соответствия ракет и цели
Нижеследующее — вымышленный диалог, основанный на [Соответствие ИИ — Почему это сложно и с чего начать](https://intelligence.org/2016/12/28/ai-alignment-why-its-hard-and-where-to-start/). (_Где-то в не-очень-то-близком из миров по соседству, где наука пошла…
#переводы
Сообщество в ВК "Космос ждал" начало переводить "CFAR Participant Handbook" - методички, раздаваемой участникам воркшопов по рациональности, организуемых CFAR. В этой методичке собраны описания разнообразных техник прикладной рациональности, чтобы участники воркшопа могли не тратить время на записи в процессе, а могли лучше сосредоточиться на самих упражнениях.
У CFAR есть некоторый скепсис на тему, насколько их Handbook полезен без самого воркшопа. Более подробно об этом написано в предисловии, которое в перевод не вошло.
Начало перевода можно найти в записи: https://vk.com/wall-174182021_4520 Далее можно смотреть по тэгу #translations@cosmospolon или просто искать в записях сообщества.
Сообщество в ВК "Космос ждал" начало переводить "CFAR Participant Handbook" - методички, раздаваемой участникам воркшопов по рациональности, организуемых CFAR. В этой методичке собраны описания разнообразных техник прикладной рациональности, чтобы участники воркшопа могли не тратить время на записи в процессе, а могли лучше сосредоточиться на самих упражнениях.
У CFAR есть некоторый скепсис на тему, насколько их Handbook полезен без самого воркшопа. Более подробно об этом написано в предисловии, которое в перевод не вошло.
Начало перевода можно найти в записи: https://vk.com/wall-174182021_4520 Далее можно смотреть по тэгу #translations@cosmospolon или просто искать в записях сообщества.
#скотт_александер #переводы
Скотт Александер написал свою рецензию на фильм "Не смотрите наверх", а Анастасия Мальцева эту рецензию перевела. Осторожно, присутствуют спойлеры к фильму.
https://vk.com/@la.praline-perevod-odnogo-iz-postov-blogera-skotta-aleksandera-recenziy
Скотт Александер написал свою рецензию на фильм "Не смотрите наверх", а Анастасия Мальцева эту рецензию перевела. Осторожно, присутствуют спойлеры к фильму.
https://vk.com/@la.praline-perevod-odnogo-iz-postov-blogera-skotta-aleksandera-recenziy
VK
Перевод одного из постов блогера Скотта Александера. Рецензия на фильм «Don't Look Up»
Преамбула. На сайте LessWrong написано, что Скотт Александер (Scott Alexander, псевдоним) — рациональный блогер. Я увидела пост о его рец..
#переводы
Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".
Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.
Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.
lesswrong.ru/1043
Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".
Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.
Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.
lesswrong.ru/1043
LessWrong на русском
Нормальные распределения в предсказаниях
Учимся делать предсказания с помощью нормальных распределений, рассчитывать их точность и калибровку.
#переводы #соарес
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".
Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.
Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.
https://lesswrong.ru/1068
В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
LessWrong на русском
Четыре предпосылки
Миссия MIRI – сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным последствиям. Почему эта миссия важна и почему мы считаем, что уже сегодня над этим можно работать?
#переводы #юдковский #нго #соарес
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).
Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.
Дискуссия огромна и в ней затрагивается множество разных вопросов.
https://lesswrong.ru/1083
За перевод нужно благодарить группу Мак и коты и AI Safety.
LessWrong на русском
Дискуссия Нго и Юдковского про сложность задачи согласования
**Примечание редактора сайта**: Под "согласованием" в заголовке и далее в тексте подразумевается англоязычное "[AI] alignment". В некоторых других статьях на этом сайте этот термин переводился как "соответствие [ИИ целям оператора]". Пока перевод этого термина…
#переводы #нго
Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".
"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".
https://lesswrong.ru/node/1168
За перевод опять благодарим группу Мак и коты и AI Safety.
Новый перевод на сайте - доклад Ричарда Нго "Безопасность сильного искусственного интеллекта с чистого листа".
"В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа".
https://lesswrong.ru/node/1168
За перевод опять благодарим группу Мак и коты и AI Safety.
LessWrong на русском
Безопасность СИИ с чистого листа
В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более…
#переводы #нго
Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.
Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.
В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)
https://lesswrong.ru/1235
Новый перевод на сайте -- подборка задач по согласованию ИИ (AI alignment) от Ричарда Нго.
Благодаря работам Элиезера Юдковского (и не только) уже многие слышали, что есть важная задача по согласованию ИИ. Однако даже если человек согласен, что это важная задача, и хочет принять участие в её решении, зачастую непонятно, а с чего вообще начинать.
В прошлом месяце Ричард Нго выложил свою подборку задач, которые ему представляются полезными. Некоторые из этих задач давно известны и для них существует решение, а некоторые не решены до сих пор. Группа Мак и коты и AI Safety перевела этот текст на русский язык. (Впрочем, для работы над большей частью задач всё равно придётся читать материалы на английском.)
https://lesswrong.ru/1235
#переводы
Новый перевод на сайте - совместная статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "Риски выученной оптимизации".
"Цель этой статьи – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?"
https://lesswrong.ru/node/1258
За перевод в очередной раз благодарим сообщество Мак и коты и AI Safety.
Новый перевод на сайте - совместная статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "Риски выученной оптимизации".
"Цель этой статьи – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?"
https://lesswrong.ru/node/1258
За перевод в очередной раз благодарим сообщество Мак и коты и AI Safety.
LessWrong на русском
Риски выученной оптимизации
В этой цепочке приводится статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта "[Риски выученной оптимизации в продвинутых системах машинного обучения](https://arxiv.org/abs/1906.01820)". Посты цепочки соответствуют…
#скотт_александер #переводы
Андрей Заболотский перевёл художественный рассказ Скотта Александера "Слова статуй" о трёх всеведущих статуях, одна из которых всегда говорит правду, другая всегда лжёт, а третья отвечает случайным образом.
https://colt-browning.livejournal.com/8795.html
Андрей Заболотский перевёл художественный рассказ Скотта Александера "Слова статуй" о трёх всеведущих статуях, одна из которых всегда говорит правду, другая всегда лжёт, а третья отвечает случайным образом.
https://colt-browning.livejournal.com/8795.html
Livejournal
Слова статуй
Слова статуй Скотт Александер https://astralcodexten.substack.com/p/idol-words пер. с англ. colt_browning стихи в пер. М. Зенкевича и К. Бальмонта опубликовано с разрешения автора Я чувствую себя соучастником государственной пропаганды, когда на фоне продолжающихся…
#переводы #скотталександер
Недавно здесь публиковался перевод статьи Эвана Хубингера и других "Риски выученной оптимизации", в которой вводилось понятие меса-оптимизатора. В апреле Скотт Александер написал эссе "Deceptively Aligned Mesa-Optimizers: It's Not Funny If I Have To Explain It" с объяснениями того, что это такое и с какими проблемами это понятие связано. А группа Мак и коты и AI Safety это эссе перевела.
Обманчиво согласованные меса-оптимизаторы. Это не смешно, если приходится объяснять
Недавно здесь публиковался перевод статьи Эвана Хубингера и других "Риски выученной оптимизации", в которой вводилось понятие меса-оптимизатора. В апреле Скотт Александер написал эссе "Deceptively Aligned Mesa-Optimizers: It's Not Funny If I Have To Explain It" с объяснениями того, что это такое и с какими проблемами это понятие связано. А группа Мак и коты и AI Safety это эссе перевела.
Обманчиво согласованные меса-оптимизаторы. Это не смешно, если приходится объяснять