Новости сообщества LessWrong
1.32K subscribers
20 photos
1 file
835 links
Новости русскоязычной части сообщества LessWrong. Интересные статьи, новые переводы и встречи.
Download Telegram
Новый перевод на сайте - эссе Элиезера Юдковского "'Эмпиризм!` как анти-эпистемология".

В этом эссе Юдковский в своей любимой диалоговой форме рассуждает о том, какие проблемы могут быть у подхода "нужно выбирать наиболее простую теорию".

https://lesswrong.ru/3552
Читательский онлайн-клуб, собирающийся по понедельникам, переходит к новой книге. В ближайшее время мы будем читать и обсуждать книгу Джуды Перла "Causality: models, reasoning, and inference".

Обсуждения будут проходить по понедельникам (начиная с 8 апреля) на Discord-сервере https://discord.gg/mQhDfBUjTs

Начало в 20:00 по московскому времени (UTC+3).

Обсуждение встреч ведётся в телеграм-канале https://t.me/readthesequences
#продуктивность #ситхские_техники #совет_недели

В чате ситхских техник (встречи по которым проходят, страшно сказать, уже три года) я на прошлой неделе решил завести рубрику "Совет недели [как улучшить свою личную продуктивность]". Нулевой совет довольно банален: "нужно хорошо спать, вовремя есть, достаточно гулять". Следующий, уже более полноценный, совет оказался более объемным, так что я решил оформить его отдельной статьей и принести заодно и в свой канал.

Так что представляю вам первый полноценный пост из (надеюсь) еженедельной серии: если вы находитесь в низкоресурсном состоянии, то начните работу по повышению личной продуктивности с того, что сделайте несколько задач, которые можно сделать за пару минут (и которые вы откладываете уже пару дней-недель-месяцев). Подробности, примеры и шестеренки - в статье:
https://telegra.ph/Sithskij-sovet-nedeli-1-razberites-s-melochyu-04-04
Автор телеграм-канала "Небольшой список имени Байеса" продолжает свою серию советов по личной продуктивности для тех, кто считает, что у него с ней довольно плохо. В своём втором совете он рассуждает о важности деления задач на подзадачи.

https://telegra.ph/Sithskij-sovet-nedeli-2-nachinaem-prodvigatsya-malymi-shagami-04-12
На всякий случай напоминаю, что некоторое время назад читательский клуб, собирающийся по понедельникам в онлайне, перешёл к обсуждению книги Джуды Перла "Causality: Models, Reasoning, and Inference".

Пока участников ещё несложно догнать.

На встрече 22 апреля участники продолжат обсуждение первой главы и немного поговорим про то, как именно выглядят количественные выражения каузальных зависимостей, метки на стрелках графа.

Будет обсуждаться раздел 1.4 - Functional Causal Models.

Начало встречи в 20:00 по московскому времени.

Встречи проходят на Discord-сервере: https://discord.gg/mQhDfBUjTs

Обсуждение встреч проходит также в телеграм-канале: https://t.me/readthesequences
Очередной совет недели от автора телеграм-канала "Небольшой список имени Байеса (https://t.me/bayesian_little_list/)". В совете рассматриваются некоторые способы, как можно начать делать то, что мы делать вроде бы хотим, но то прокрастинируем, то просто забываем.

https://telegra.ph/Sithskij-sovet-nedeli-3-probuem-chashche-nahodit-sloty-vremeni-dlya-delaniya-del-04-20
Немного несерьёзные новости с lesswrong.com

1 апреля команда организаторов выпустила музыкальный альбом под названием "I Have Been A Good Bing". Вся музыка сгенерирована искусственным интеллектом, тексты созданы (большей частью людьми) на основе постов с LW или других рационалистских блогов. Судя по дате выпуск альбома планировался как шалость на первое апреля, но, кажется, она удалась в достаточной степени, чтобы быть "актуальной" и после.

Пост на LW (со ссылками, где можно послушать): https://www.lesswrong.com/posts/YMo5PuXnZDwRjhHhE/lesswrong-s-first-album-i-have-been-a-good-bing
Некоторые из нас иногда не успевают сделать то, что мы хотим, из-за того, что невовремя "залипли" в соцсети, компьютерные игры, ролики на Ютубе и прочие развлечения, создатели которых нередко напрямую заинтересованы в том, чтобы мы в них "залипали". Очередной совет недели от автора канала "Небольшой список имени Байеса" посвящён тому, почему так происходит и что можно для начала попробовать с этим сделать. Эта тема является довольно сложной, поэтому она будет развиваться в следующих советах.

https://telegra.ph/Sithskij-sovet-nedeli-4-nachinaem-menshe-zalipat-04-26
В очередном совете недели автор телеграм-канала "Небольшой список имени Байеса" продолжает обсуждать тему "залипания" в соцсети, Ютуб и прочие штуки, которые кажутся приятными, но иногда противоречат нашим долгосрочным целям. В новой статье он пишет о том, как можно попробовать "залипать" меньше, а если это не получается - хотя бы делать это продуктивнее.

https://telegra.ph/Sithskij-sovet-nedeli-5-zalipaem-mensheproduktivnee-05-05
По воскресеньям продолжаются встречи "Клуба чтения Цепочек", где участники обсуждают книгу Элиезера Юдковского "Рациональность: от ИИ до Зомби".

В ближайшее воскресенье, 12 мая, участники начнут обсуждать предпоследнюю цепочку из книги "Бросая вызов сложностям" ("Challenging the Difficult"). В этой цепочке ставятся вопросы: что нужно, чтобы решать по-настоящему сложные задачи? Местами эти вопросы выходят за пределы эпистемической рациональности.

Встречи проходят в онлайне, на платформе Zoom. Ссылка для подключения публикуется в телеграм-группе https://t.me/lwreading

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
Очередной совет недели по поводу продуктивности от автора телеграм-канала "Небольшой список имени Байеса". В нём автор рассуждает о том, что в разных состояниях следует прибегать к разным стратегиям, какие они бывают, и что можно сделать для того, чтобы вовремя выбирать нужную.

https://telegra.ph/Sithskij-sovet-nedeli-6-kazhdomu-urovnyu-produktivnosti---svoj-pattern-05-11
Ян Лютнев записал видеоролик, в котором коротко описал некоторые из существующих в настоящее время рацио- и околорациосообщества (преимущественно в рунете). Возможно, кто-нибудь может придраться к некоторым формулировкам или задать вопросы о приоритетах, но кому-то, возможно, этот перечень и пригодится.

https://youtu.be/R0vcbAgGCM8
В телеграм-канале "Байесятина" опубликована статья о логических ошибках: всегда ли логические ошибки действительно являются ошибками, какое они имеют отношение к логике, и почему далеко не всегда на них стоит ссылаться.

https://telegra.ph/Mify-o-logicheskih-oshibkah-05-20 (По ссылке также есть видеоверсия.)

С моей точки зрения, это довольно важная тема, особенно для "начинающих рационалистов": нередко люди, узнав о логических ошибках (fallacy) или о когнитивных искажениях, начинают слишком активно видеть их у тех, с кем они не согласны. И это не приносит пользы.

Могу также напомнить про свою старую заметку на эту тему.
Кирей Кирдан создал новый сайт с переводами статей с Арбитала: https://arbital-ru.github.io/

Арбитал - это попытка Элиезера Юдковского создать что-то вроде энциклопедии по вопросам согласования ИИ и необходимой для понимания этой вопросов математики. Эта попытка оказалась неудачной, активность на сайте уже давно прекратилась, однако там осталось некоторое количество статей, которые могут оказаться кому-нибудь полезными. В своём блоге Кирей пишет, почему именно он решил переводить статьи оттуда.
Forwarded from Valentin
Привет! Мы сделали менторскую программу в AI Safety, если у вас есть опыт работы/ресерча, свободные 3-4 часа в месяц и желание поделиться своим опытом (хард скилами, софт скилами или просто как это, перейти в AI Safety) с менти, то вы идеальный ментор. Мы открываем набор: https://www.lesswrong.com/posts/D9Q4nXfxTdWckF2RX/mentorship-in-agi-safety-magis
Вышло бумажное издание романа Скотта Александера "Unsong". Оно уже доступно на Амазоне.

Автор утверждает, что бумажное издание несколько отличается от существующей онлайн-версии. В комментариях его упрашивают хотя бы начать продавать новый вариант в электронном виде.
По воскресеньям продолжаются встречи "Клуба чтения Цепочек", где участники обсуждают книгу Элиезера Юдковского "Рациональность: от ИИ до Зомби".

Завтра, 2 июня, участники перейдут к последней цепочке из книги под названием "Создание сообщества" ("The Craft and the Community").

В этой цепочке обсуждаются группы, посвящённые рациональности, и групповая рациональность. Поднимаются следующие вопросы:

- Можно ли научиться рациональности? Можно ли обучать других рациональности?
- Если да, насколько большого прогресса можно достичь?

Как мы можем убедиться, что наши действия действительно дают прирост рациональности? Как определить правильную причину, если этот прирост действительно есть?

- Какие нормы в сообществе сделают процесс самоулучшения более лёгким?
- Можем ли мы эффективно сотрудничать при работе над крупномасштабными задачами, не жертвуя свободой мысли?

И самое главное: Что мы упустили? Что будет в следующих учебниках по рациональности, которые заменят этот текст? Как улучшить существующий стиль и проверить существующие рекомендации? Что можно добавить? В каких направлениях можно развиваться?

Встречи проходят в онлайне, на платформе Zoom. Ссылка для подключения публикуется в телеграм-группе https://t.me/lwreading

Начало в 18:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
Некоторое время назад я писал (делал репост) про открытую программу поиска менторов в области AI Safety. Сейчас уже открыта возможность вступить в эту программу и тем, кто ментора ищет сам.

https://www.lesswrong.com/posts/Qk6qt5RDDDxnxCoBp/mentorship-in-agi-safety-applications-for-mentorship-are

Последний срок подачи заявок: 12 июля.
У меня несколько недель практически не было времени на ведение канала, поэтому сейчас я попробую немного наверстать упущенное.

За это время на канале "Байесятина" вышло три статьи про работу с убеждениям:

- В статье "Лишние знания бесполезны" обсуждается вопрос о том, что иногда люди могут руководствоваться убеждениями, которые они сформировали давным-давно, и хорошо если благодаря школе, а не какому-то более сомнительному источнику. Что с этим можно сделать?

- "Не так уж и уверен. Как правильно оценивать свою уверенность в знаниях?" Статья о том, что такое калибровка и зачем она нужна.

- "Признание ошибок - это суперсила". Почему мы боимся признаваться в ошибках и чем это может быть полезно?
Forwarded from К. Кирдан
Что как по искусственному интеллекту

В заметке перечисляю свои успехи и приблизительные дальнейшие планы по переводам и написанию текстов по тематике искусственного интеллекта, а также некоторые мысли и рекомендации.

Затронул вопросы безопасности и сроков для общего ИИ, связанных с ИИ рисков астрономических страданий, ортогональности целей и интеллекта, когерентного экстраполированного воления, и освещения подобных тем на YouTube.

#искусственный_интеллект