Новости сообщества LessWrong
1.33K subscribers
21 photos
1 file
837 links
Новости русскоязычной части сообщества LessWrong. Интересные статьи, новые переводы и встречи.
Download Telegram
#калибровка #игры_для_рационалистов #калибровочное_чгк

Если вы уже наигрались в традиционные "игры для рационалистов" вроде Zendo и Fallacymania, и хотите чего-то нового, то я предлагаю вам сыграть в Калибровочное ЧГК:
https://telegra.ph/Kalibrovochnoe-CHGK---igra-dlya-racionalistov-12-20

Эта игра (обычная сессия калибровки, только в командах и в стилистике "Что? Где? Когда?") появилась в Екатеринбургском локальном сообществе LessWrong. За всё время мы сыграли в неё всего один раз, однако прошла она так хорошо, что мне хочется поделиться ей со всеми ценителями рациональности и подобных игр.

(Вообще-то рассказать о ней я хотел уже давно, но сначала нужно было написать вводный абзац о калибровке как таковой, чтобы читатель точно понимал, о чём речь. Вводный абзац очень быстро рос в размерах, так что в итоге пришлось вынести его в отдельный текст - именно так и появилась предыдущая статья.)
#встречи #онлайн #цепочки #соарес #скотт_александер

Сегодня, 27 декабря, в рамках "Клуба чтения Цепочек" мы немножко отвлечёмся от книги "Рациональность: от ИИ до Зомби".

Некоторые иногда говорят, что все люди - эгоисты и никакого альтруизма не существует. Если кто-то делает что-то ради блага другого человека, он всё равно это делает только потому, что ему это приносит какое-то удовольствие.

В первой части мы обсудим, существует ли альтруизм на самом деле, на основе эссе Нейта Соареса "Филателист" и эссе Элиезера Юдковского "Ценности терминальные и инструментальные". Второе из них мы уже обсуждали в рамках книги, однако мы решили к нему вернуться.

Во второй части мы поговорим о художественных произведениях Скотта Александера "Жизнь коротка, искусство вечно" и Ника Бострома "Басня о драконе-тиране".

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/mkk7ilvzk5b4bcstvkqnpp2fqa

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
#встречи #онлайн

Несколько дней назад я публиковал здесь ссылку на статью про "Калибровочное ЧГК". В субботу, 1 января, желающие могут попробовать в него поиграть.

Игра пройдёт в онлайне. Подробности: https://kocherga-club.ru/events/5ldhzlu4urfyzczxgzub2vkeyi

Начало в 13:00 по московскому времени (UTC+3).
#встречи #онлайн #цепочки

Продолжаем читать и обсуждать книгу "Рациональность: от ИИ до Зомби" Элиезера Юдковского.

В чём разница между отчаянными усилиями и экстраординарными усилиями? Как выглядит "готовность совершить невозможное"? Что именно Юдковский подразумевает под общим уровнем здравомыслия?

Сегодня, 3 января, мы заканчиваем обсуждать цепочку "Бросая вызов сложностям" и переходим к последней цепочке книги - "Создание сообщества". Поговорим про следующие эссе:

- Приложи экстраординарные усилия;
- Заткнись и сделай невозможное! (Shut up and do the impossible!);
- Заключительные слова (Final Words);
- Общий уровень здравомыслия.

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/74h67duyqbfupky2mpx2f6gada

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
#встречи #онлайн #цепочки

Продолжаем читать и обсуждать книгу "Рациональность: от ИИ до Зомби" Элиезера Юдковского.

Что именно Юдковский подразумевает под общим уровнем здравомыслия и как его можно поднять? Почему есть школы боевых искусств, но нет рационалистских додзё? В смысле, почему так сложно найти место, где учили бы рациональности?

Сегодня, 10 января, мы переходим к последней цепочке книги - "Создание сообщества". Поговорим про следующие эссе:

- Общий уровень здравомыслия;
- Чувство, что большее возможно;
- Эпистемическая порочность;
- Области знаний, процветающие без свидетельств.

Наш клуб чтения Цепочек дошёл до той части книги, где многие эссе не переведены. Ссылка на оригиналы: The Craft and the Community.

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/56ysqu6n3vaxfpsphkxvl4cjum

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
#эффективный_альтруизм

В начале декабря здесь уже было видео, посвящённое тому, что Кочерга планирует теперь в основном заниматься проектами в сфере эффективного альтруизма. В связи с этим Кочерга теперь ищет людей, которые тоже хотят этим заниматься - как на постоянную работу, так и в качестве волонтёров.

Подробности: https://kocherga-club.ru/jobs
Forwarded from Кочерга
#дайджест

Привет! Продолжаем публиковать дайджесты — краткие обзоры интересных новостей, которые происходили в околорациональной сфере за последний месяц. На этот раз мы снова благодарим Дениса за составление дайджеста.
#встречи #онлайн #цепочки

Как мы можем проверить, действительно ли человек освоил навыки рациональности? Насколько эффективно люди, рассуждающие про важность рациональности, технологий, просвещения умеют сотрудничать друг с другом? Что с этим можно сделать?

Продолжаем читать и обсуждать книгу "Рациональность: от ИИ до Зомби" Элиезера Юдковского.

Сегодня, 17 января, мы продолжим обсуждать цепочку "Создание сообщества". Поговорим про следующие эссе:

- Три уровня верификации рациональности (3 Levels of Rationality Verification);
- Почему люди нашего круга не умеют сотрудничать (Why Our Kind Can't Cooperate);
- Толерантность к толерантности (Tolerate Tolerance);
- Плата за участие (Your Price for Joining).

Наш клуб чтения Цепочек дошёл до той части книги, где многие эссе не переведены. Ссылка на оригиналы: The Craft and the Community.

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/dgxauprlnjbxtoszkwsxq4f5nu

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
#встречи #онлайн #цепочки

Что даёт религия людям? В смысле, если вдруг религия исчезнет, чего людям будет не хватать? Могут ли рационалисты приносить человечеству больше пользы, чем приносит религия? Зачем нужно распространять рациональность? Как людям удаётся создавать крупные организации?

Продолжаем читать и обсуждать книгу "Рациональность: от ИИ до Зомби" Элиезера Юдковского.

Сегодня, 24 января, мы продолжим обсуждать цепочку "Создание сообщества". Поговорим про следующие эссе:

- Может ли гуманизм приносить больше пользы, чем религия? (Can Humanism Match Religion’s Output?);
- Церковь или группа с общими целями (Church vs. Taskforce);
- Рациональность как общие основы для многих идей (Rationality: Common Interest of Many Causes);
- Беспомощные одиночки (Helpless Individuals).

Наш клуб чтения Цепочек дошёл до той части книги, где многие эссе не переведены. Ссылка на оригиналы: The Craft and the Community.

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/yur4345rv5a7bg6375sljov33e

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
#встречи #онлайн #цепочки

Продолжаем читать и обсуждать книгу "Рациональность: от ИИ до Зомби" Элиезера Юдковского.

Сегодня, 31 января, мы продолжим обсуждать цепочку "Создание сообщества". Мы обсудим, можно ли считать вложение денег в некоторое дело свидетельством того, что это дело человеку небезразлично. Поговорим про разницу между пользой и тёплым ощущением в груди, а также про эффект наблюдателя в интернете.

Обсуждаемые эссе:

- Деньги как единица заботы (Money: The Unit of Caring);
- Покупайте утилоны и приятное ощущение в груди по отдельности (Purchase Fuzzies and Utilons Separately);
- Апатия наблюдателя (Bystander Apathy);
- Коллективная апатия и интернет (Collective Apathy and the Internet).

Наш клуб чтения Цепочек дошёл до той части книги, где многие эссе не переведены. Ссылка на оригиналы: The Craft and the Community.

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/73nwb2suzrfnpojyz2zx65orx4

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
Forwarded from Pavel Kukushkin
Что обозначает «долина плохой рациональности»? Может ли группа рационалистов успешно противостоять культу убежденных фанатиков? Что делать с советами, которые сработали для окружающих, но не работают на вас? Как давать по-настоящему сильные практические рекомендации?

В понедельник 7-го февраля, в 20:00 по Москве, мы продолжим обсуждать цепочку «Создание сообщества». Это последняя цепочка в книге Элиезера Юдковского «Рациональность: от ИИ до зомби». Присоединяйтесь поучаствовать в обсуждении или послушать.

План обсуждения:

• Постепенный прогресс и «Долина» (8 мин.)
🇺🇸 lesswrong.com/posts/oZNXmHcdhb4m7vwsv/incremental-progress-and-the-valley

• Байесианцы против варваров (11 мин.)
🇺🇸 lesswrong.com/posts/KsHmn6iJAEr9bACQW/bayesians-vs-barbari

• Остерегайтесь иных оптимизаторов (7 мин.)
🇺🇸 lesswrong.com/posts/6NvbSwuSAooQxxf7f/beware-of-other-optimizing

• Практический совет, обоснованный глубокими теориями (5 мин.)
🇺🇸 lesswrong.com/posts/LqjKP255fPRY7aMzw/practical-advice-backed-by-deep-theories

Расписание:
20:00-20:15: Сбор, приветствие
20:15-21:20: Обсуждение
21:20-21:30: Перерыв
21:30-22:30: Обсуждение
22:30-?: «Афтерпати»

Ссылки:
• Виртуальная доска: https://miro.com/welcomeonboard/fFipobTtK8YQGtg7ahLCo1dZibEW0sZBN0753xNcQ23IRkiuEjS0LsdoCu8yTzkm
• Конспект: https://docs.google.com/document/d/14sFUK7TrD-CxQYNGvaI45AQZ999yWZNK8dgjgJoH3nM/edit#
• Правила обсуждения: https://docs.google.com/document/d/1Wj-edLFA-EbmSKaasTHolZ3S8xsQUGM2qrMuVQhsWVg/edit?usp=sharing
• О проекте: https://kocherga-club.ru/projects/reading
• Мероприятие в ВК: vk.com/kocherga_reading
• Телеграм-канал клуба: t.me/readthesequences

Регистрация на встречу появится скоро.
#переводы

Новый перевод на сайте -- эссе Жана Кристиана Рефсгаарда "Нормальные распределения в предсказаниях".

Мы неоднократно писали здесь о важности записывания собственных предсказаний и дальнейшей калибровке по результатам.

Большая часть руководств по калибровке предлагает в качестве предсказания формулировать вопрос, на который можно ответить "да" или "нет", и записывать свой ответ и степень уверенности в нём. (Пример подобного вопроса: "Будет ли доллар стоить больше 80 рублей в 2022 году по курсу ЦБ?"). Основная идея эссе в том, что предсказания численных величин лучше делать в виде нормального распределения. В эссе описывается как это делать и какие у этого подхода есть преимущества.

lesswrong.ru/1043
#встречи #онлайн #цепочки

Сегодня, 14 февраля, в рамках встречи Клуба чтения Цепочек мы отвлечёмся от обсуждения книги "Рациональность: от ИИ до Зомби".

В прошлом году вышел фильм "Не смотрите наверх", посвящённый, в частности, вопросу восприятия людьми экзистенциальных рисков. Скотт Александер написал на этот фильм в достаточной степени разгромную рецензию, которая вызвала довольно жаркие споры. Мы планируем обсудить, что полезное можно из фильма (или рецензии, или обсуждения рецензии).

В дополнение к этому мы также планируем поговорить об эссе Скотта Александера "Выученная эпистемическая беспомощность".

Встреча пройдёт в онлайне, на платформе Zoom. Подробности и регистрация:
https://kocherga-club.ru/events/w7hkf26epncl5naouhfswyn4ja

Начало в 20:00 по московскому времени (UTC+3).

Присоединяйтесь поучаствовать или послушать.
#переводы #соарес

Новый перевод на сайте -- эссе Нейта Соареса "Четыре предпосылки".

Когда люди впервые слышат про возможные экзистенциальные риски, связанные с сильным искусственным интеллектом, они нередко относятся к подобным разговорам очень скептически. Вряд ли стоит считать это удивительным, ведь наши убеждения о том, что возможно, а что нет, основываются на целом комплексе других убеждений. И если в нашем комплексе убеждений нет чего-то важного для понимания убеждения другого человека, это может сильно помешать нам его понять.

Цель MIRI (Machine Intelligence Research Institute) -- сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным для людей последствиям. Данным эссе Нейт Соарес пытается объяснить, почему люди, работающие в MIRI, считают эту задачу чрезвычайно важной.

https://lesswrong.ru/1068

В очередной раз благодарим за перевод группу Мак и коты и AI Safety.
#переводы #юдковский #нго #соарес

Новый перевод на сайте -- дискуссия между Элиезером Юдковским и Ричардом Нго о сложности задачи согласования ИИ (AI alignment).

Согласование ИИ (в некоторых переводах ранее использовался термин "соответствие ИИ", перевод термина ещё не устоялся) - это процесс или набор решений, который обеспечит, что действия потенциального ИИ разумнее человека будут согласованы с человеческими целями. В начале сентября Элиезер Юдковский и Ричард Нго (в прошлом сотрудник DeepMind, ныне сотрудник OpenAI) долго и подробно обсуждали вопрос, почему согласование ИИ -- это сложная задача.

Дискуссия огромна и в ней затрагивается множество разных вопросов.

https://lesswrong.ru/1083

За перевод нужно благодарить группу Мак и коты и AI Safety.