Новости сообщества LessWrong
1.32K subscribers
20 photos
1 file
835 links
Новости русскоязычной части сообщества LessWrong. Интересные статьи, новые переводы и встречи.
Download Telegram
Немного несерьёзные новости с lesswrong.com

1 апреля команда организаторов выпустила музыкальный альбом под названием "I Have Been A Good Bing". Вся музыка сгенерирована искусственным интеллектом, тексты созданы (большей частью людьми) на основе постов с LW или других рационалистских блогов. Судя по дате выпуск альбома планировался как шалость на первое апреля, но, кажется, она удалась в достаточной степени, чтобы быть "актуальной" и после.

Пост на LW (со ссылками, где можно послушать): https://www.lesswrong.com/posts/YMo5PuXnZDwRjhHhE/lesswrong-s-first-album-i-have-been-a-good-bing
Некоторые из нас иногда не успевают сделать то, что мы хотим, из-за того, что невовремя "залипли" в соцсети, компьютерные игры, ролики на Ютубе и прочие развлечения, создатели которых нередко напрямую заинтересованы в том, чтобы мы в них "залипали". Очередной совет недели от автора канала "Небольшой список имени Байеса" посвящён тому, почему так происходит и что можно для начала попробовать с этим сделать. Эта тема является довольно сложной, поэтому она будет развиваться в следующих советах.

https://telegra.ph/Sithskij-sovet-nedeli-4-nachinaem-menshe-zalipat-04-26
В очередном совете недели автор телеграм-канала "Небольшой список имени Байеса" продолжает обсуждать тему "залипания" в соцсети, Ютуб и прочие штуки, которые кажутся приятными, но иногда противоречат нашим долгосрочным целям. В новой статье он пишет о том, как можно попробовать "залипать" меньше, а если это не получается - хотя бы делать это продуктивнее.

https://telegra.ph/Sithskij-sovet-nedeli-5-zalipaem-mensheproduktivnee-05-05
По воскресеньям продолжаются встречи "Клуба чтения Цепочек", где участники обсуждают книгу Элиезера Юдковского "Рациональность: от ИИ до Зомби".

В ближайшее воскресенье, 12 мая, участники начнут обсуждать предпоследнюю цепочку из книги "Бросая вызов сложностям" ("Challenging the Difficult"). В этой цепочке ставятся вопросы: что нужно, чтобы решать по-настоящему сложные задачи? Местами эти вопросы выходят за пределы эпистемической рациональности.

Встречи проходят в онлайне, на платформе Zoom. Ссылка для подключения публикуется в телеграм-группе https://t.me/lwreading

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
Очередной совет недели по поводу продуктивности от автора телеграм-канала "Небольшой список имени Байеса". В нём автор рассуждает о том, что в разных состояниях следует прибегать к разным стратегиям, какие они бывают, и что можно сделать для того, чтобы вовремя выбирать нужную.

https://telegra.ph/Sithskij-sovet-nedeli-6-kazhdomu-urovnyu-produktivnosti---svoj-pattern-05-11
Ян Лютнев записал видеоролик, в котором коротко описал некоторые из существующих в настоящее время рацио- и околорациосообщества (преимущественно в рунете). Возможно, кто-нибудь может придраться к некоторым формулировкам или задать вопросы о приоритетах, но кому-то, возможно, этот перечень и пригодится.

https://youtu.be/R0vcbAgGCM8
В телеграм-канале "Байесятина" опубликована статья о логических ошибках: всегда ли логические ошибки действительно являются ошибками, какое они имеют отношение к логике, и почему далеко не всегда на них стоит ссылаться.

https://telegra.ph/Mify-o-logicheskih-oshibkah-05-20 (По ссылке также есть видеоверсия.)

С моей точки зрения, это довольно важная тема, особенно для "начинающих рационалистов": нередко люди, узнав о логических ошибках (fallacy) или о когнитивных искажениях, начинают слишком активно видеть их у тех, с кем они не согласны. И это не приносит пользы.

Могу также напомнить про свою старую заметку на эту тему.
Кирей Кирдан создал новый сайт с переводами статей с Арбитала: https://arbital-ru.github.io/

Арбитал - это попытка Элиезера Юдковского создать что-то вроде энциклопедии по вопросам согласования ИИ и необходимой для понимания этой вопросов математики. Эта попытка оказалась неудачной, активность на сайте уже давно прекратилась, однако там осталось некоторое количество статей, которые могут оказаться кому-нибудь полезными. В своём блоге Кирей пишет, почему именно он решил переводить статьи оттуда.
Forwarded from Valentin
Привет! Мы сделали менторскую программу в AI Safety, если у вас есть опыт работы/ресерча, свободные 3-4 часа в месяц и желание поделиться своим опытом (хард скилами, софт скилами или просто как это, перейти в AI Safety) с менти, то вы идеальный ментор. Мы открываем набор: https://www.lesswrong.com/posts/D9Q4nXfxTdWckF2RX/mentorship-in-agi-safety-magis
Вышло бумажное издание романа Скотта Александера "Unsong". Оно уже доступно на Амазоне.

Автор утверждает, что бумажное издание несколько отличается от существующей онлайн-версии. В комментариях его упрашивают хотя бы начать продавать новый вариант в электронном виде.
По воскресеньям продолжаются встречи "Клуба чтения Цепочек", где участники обсуждают книгу Элиезера Юдковского "Рациональность: от ИИ до Зомби".

Завтра, 2 июня, участники перейдут к последней цепочке из книги под названием "Создание сообщества" ("The Craft and the Community").

В этой цепочке обсуждаются группы, посвящённые рациональности, и групповая рациональность. Поднимаются следующие вопросы:

- Можно ли научиться рациональности? Можно ли обучать других рациональности?
- Если да, насколько большого прогресса можно достичь?

Как мы можем убедиться, что наши действия действительно дают прирост рациональности? Как определить правильную причину, если этот прирост действительно есть?

- Какие нормы в сообществе сделают процесс самоулучшения более лёгким?
- Можем ли мы эффективно сотрудничать при работе над крупномасштабными задачами, не жертвуя свободой мысли?

И самое главное: Что мы упустили? Что будет в следующих учебниках по рациональности, которые заменят этот текст? Как улучшить существующий стиль и проверить существующие рекомендации? Что можно добавить? В каких направлениях можно развиваться?

Встречи проходят в онлайне, на платформе Zoom. Ссылка для подключения публикуется в телеграм-группе https://t.me/lwreading

Начало в 18:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
Некоторое время назад я писал (делал репост) про открытую программу поиска менторов в области AI Safety. Сейчас уже открыта возможность вступить в эту программу и тем, кто ментора ищет сам.

https://www.lesswrong.com/posts/Qk6qt5RDDDxnxCoBp/mentorship-in-agi-safety-applications-for-mentorship-are

Последний срок подачи заявок: 12 июля.
У меня несколько недель практически не было времени на ведение канала, поэтому сейчас я попробую немного наверстать упущенное.

За это время на канале "Байесятина" вышло три статьи про работу с убеждениям:

- В статье "Лишние знания бесполезны" обсуждается вопрос о том, что иногда люди могут руководствоваться убеждениями, которые они сформировали давным-давно, и хорошо если благодаря школе, а не какому-то более сомнительному источнику. Что с этим можно сделать?

- "Не так уж и уверен. Как правильно оценивать свою уверенность в знаниях?" Статья о том, что такое калибровка и зачем она нужна.

- "Признание ошибок - это суперсила". Почему мы боимся признаваться в ошибках и чем это может быть полезно?
Forwarded from К. Кирдан
Что как по искусственному интеллекту

В заметке перечисляю свои успехи и приблизительные дальнейшие планы по переводам и написанию текстов по тематике искусственного интеллекта, а также некоторые мысли и рекомендации.

Затронул вопросы безопасности и сроков для общего ИИ, связанных с ИИ рисков астрономических страданий, ортогональности целей и интеллекта, когерентного экстраполированного воления, и освещения подобных тем на YouTube.

#искусственный_интеллект
Please open Telegram to view this post
VIEW IN TELEGRAM
Ещё один телеграм-канал про AI Safety: the hard bits. Юлия и Антон планируют делиться в нём различными мыслями по безопасности искусственного интеллекта.
Новость для тех, кто в Москве.

В ближайшие выходные недавно запустившийся ЦДО "Моноид" проводит двухдневный научно-популярный интенсив про математику теории поиска причин и следствий.

Многие слышали выражение "корреляция не означает причинно-следственной связи". Однако можно задаться вопросом: а что нам позволяет говорить о том, что причинно-следственная связь всё же есть? Математик Джуда Перл написал много работ на эту тему, и интенсив будет посвящён базовым идеям из его работ.

В программе лекционная часть, квест для закрепления навыков и много общения с интересными людьми.

Мероприятие платное.

Подробности в "официальном виде": https://t.me/miniclippy/2169
Некоторые подробности, почему вообще была выбрана эта тема, и зачем это всё надо: https://t.me/miniclippy/2192
Новый перевод на сайте - "ЧаВо по теории принятия решений" Люка Мюльхаузера.

В статье подробно разбирается, что такое теория принятия решений вообще, для чего она нужна и какими понятиями она оперирует. Разбираются различные проблемы и парадоксы, а также отличия между различными теориями.

https://lesswrong.ru/3734

За перевод спасибо автору канала Мак и коты и AI Safety.
Осенью по всему миру пройдут встречи поклонников творчества Скотта Александера - ACX Meetups Everywhere.

Перечень дат и мест можно посмотреть здесь: https://www.astralcodexten.com/p/meetups-everywhere-2024-times-and

В списке сейчас 171 город по всему миру. Российских городов в этот раз нет.
Некоторое время назад я публиковал объявление о научно-популярном интенсиве про математику теории поиска причин и следствий.

Теперь запись лекции и семинара с интенсива доступны на YouTube. Если совсем вкратце, они посвящены вопросу: что такое причины и следствия, и как мы можем установить, что между какими-то событиями есть причинно-следственная связь. Лекцию и семинар вёл Олег Лариков. Материал основан на работах Джуды Перла.

Лекция: https://www.youtube.com/watch?v=wq7LNMACOK0

Фотографии доски с лекции, если что-то трудно разглядеть на видео: https://t.me/miniclippy/2214

Семинар: https://www.youtube.com/watch?v=wSTUwB9MFCY