#переводы #miri
Новый перевод на сайте - "Руководство по исследованиям в области соответствия ИИ" от команды MIRI.
Как многие читатели, наверное, уже знают, Элиезер Юдковский начал писать Цепочки, в том числе, потому что хотел привлечь внимание людей (как минимум, некоторой их части) к проблеме возможной опасности будущего искусственного интеллекта. (Раньше это называлось "проблемой недружественного ИИ", но последнее время, чтобы избегать антропоморфизации, предпочитают говорить о соответствии ИИ человеческим целям (AI alignment).)
Для этой же цели Юдковский в своё время основал Институт Сингулярности (Singularity Institute), который позже был переименован в Институт исследований машинного интеллекта (Machine Intelligence Research Institute, сокращённо MIRI).
MIRI занимается упомянутой проблемой с математической точки зрения. По сути, большая часть их работы - это довольно продвинутая математика.
Не так давно в MIRI решили стимулировать других людей участвовать в решении тех же самых задач. MIRI призывает тех, кому интересна эта работа, создавать свои группы (MIRIx workshops) и даже обещает выплачивать какую-то стипендию.
Переведённое руководство предназначается для людей, которые, возможно, захотят создать такую группу.
Однако, с моей точки зрения (и, судя по всему, не только с моей), этот текст может оказаться интересен и другим. Напрямую в нём нет никакой специфики, относящейся исключительно к проблеме ИИ. Некоторые советы могут оказаться полезны при работе и над другими научными проблемами, а некоторые - вообще для многих видов совместной деятельности.
https://lesswrong.ru/w/Руководство_по_исследованиям_в_области_соответствия_ИИ
Новый перевод на сайте - "Руководство по исследованиям в области соответствия ИИ" от команды MIRI.
Как многие читатели, наверное, уже знают, Элиезер Юдковский начал писать Цепочки, в том числе, потому что хотел привлечь внимание людей (как минимум, некоторой их части) к проблеме возможной опасности будущего искусственного интеллекта. (Раньше это называлось "проблемой недружественного ИИ", но последнее время, чтобы избегать антропоморфизации, предпочитают говорить о соответствии ИИ человеческим целям (AI alignment).)
Для этой же цели Юдковский в своё время основал Институт Сингулярности (Singularity Institute), который позже был переименован в Институт исследований машинного интеллекта (Machine Intelligence Research Institute, сокращённо MIRI).
MIRI занимается упомянутой проблемой с математической точки зрения. По сути, большая часть их работы - это довольно продвинутая математика.
Не так давно в MIRI решили стимулировать других людей участвовать в решении тех же самых задач. MIRI призывает тех, кому интересна эта работа, создавать свои группы (MIRIx workshops) и даже обещает выплачивать какую-то стипендию.
Переведённое руководство предназначается для людей, которые, возможно, захотят создать такую группу.
Однако, с моей точки зрения (и, судя по всему, не только с моей), этот текст может оказаться интересен и другим. Напрямую в нём нет никакой специфики, относящейся исключительно к проблеме ИИ. Некоторые советы могут оказаться полезны при работе и над другими научными проблемами, а некоторые - вообще для многих видов совместной деятельности.
https://lesswrong.ru/w/Руководство_по_исследованиям_в_области_соответствия_ИИ
LessWrong на русском
Руководство по исследованиям в области соответствия ИИ
Это руководство написано командой [MIRI](/wiki/Machine_Intelligence_Research_Institute) в первую очередь для групп [MIRIx](https://intelligence.org/mirix/), однако советы отсюда могут оказаться полезны и другим людям, работающим над проблемой соответствия…