Илон Маск и Макс Тегмарк считают – это самый важный фильм года.
«Не смотри вверх – ИИ как экзистенциальная угроза».
Новый 17-ти минутный документальный фильм Дагана Шани рассказывает о том, как
• большие деньги,
• большие ставки,
• и большие риски, -
поставили мир на грань экзистенциальной катастрофы.
Хороший сценарий, отличный видеоряд, превосходный монтаж.
Но главное, - что за 17 мин вы услышите большинство важных соображений по этой теме от многих известных специалистов.
Ну а выводы делайте сами.
Я же на эту тему подробно высказался в открывшем 2023 год лонгриде «Апокалипсис от Адама» - о том, что к экзистенциальной катастрофе мир приведет не астероид или ИИ, а то что мы – не столько Homo sapiens, сколько Homo irrationalis.
#ИИ #Рациональность #КогнитивныеИскажения #ИнтеллектуальнаяСлепота #Вызовы21века
«Не смотри вверх – ИИ как экзистенциальная угроза».
Новый 17-ти минутный документальный фильм Дагана Шани рассказывает о том, как
• большие деньги,
• большие ставки,
• и большие риски, -
поставили мир на грань экзистенциальной катастрофы.
Хороший сценарий, отличный видеоряд, превосходный монтаж.
Но главное, - что за 17 мин вы услышите большинство важных соображений по этой теме от многих известных специалистов.
Ну а выводы делайте сами.
Я же на эту тему подробно высказался в открывшем 2023 год лонгриде «Апокалипсис от Адама» - о том, что к экзистенциальной катастрофе мир приведет не астероид или ИИ, а то что мы – не столько Homo sapiens, сколько Homo irrationalis.
#ИИ #Рациональность #КогнитивныеИскажения #ИнтеллектуальнаяСлепота #Вызовы21века
YouTube
Don't Look Up - The Documentary: The Case For AI As An Existential Threat
In the last months, a growing number of AI experts have warned that the current AI Arms Race between OpenAI, Google and some other tech companies, is very dangerous, and might lead to the destruction of the human race. Yet somehow, most people are not aware…
Всего за несколько месяце с начала «революции ChatGPT» в обсуждении ИИ-рисков стал меняться тематический фокус. С доминировавших несколько десятилетий навеянных Голливудом чисто алармистский тем а-ля HAL9000, «Терминатор», «Скайнет», «Матрица» и т.п., фокус внимания смещается на содержательные основы ИИ-рисков. И в первую очередь, - на взаимопонимание людей и ИИ.
Однако, все попытки конструктивного обсуждения взаимопонимания людей и ИИ сталкиваются с двумя принципиальными препятствиями:
• многочисленные и довольно разные трактовки понятия «понимание»;
• отсутствие каких-либо результатов тестирования взаимопонимания людей и ИИ больших языковых моделей.
Этот пост – моя попытка продвинуться хотя бы чуть-чуть в сторону конструктивного обсуждения вопросов взаимопонимания людей и ИИ.
✔️ Мною взята за основу трактовка понятия «понимание» проф. Дэниела Деннета - известного американского философа и когнитивиста, чьи исследования лежат в области философии сознания, философии науки и философии биологии;
✔️ И сделана попытка обобщить результаты тестирования взаимопонимания людей и ИИ больших языковых моделей на трех тестах (довольно малоизвестных, но весьма интересных):
- Минимальный тест Тьюринга;
- Социальный тест Тьюринга;
- Обратный тест Тьюринга.
В итоге получился лонгрид. Но пусть читателя это не пугает. Ибо значительную часть текста занимают диалоги с ChatGPT (на основе GPT-3.5) и GPT-4 – порой столь удивительные и захватывающие, что читаются, как детективы.
Читать:
- на платформе Medium
- на платформе Дзен
#ИИ #Понимание #Вызовы21века
Однако, все попытки конструктивного обсуждения взаимопонимания людей и ИИ сталкиваются с двумя принципиальными препятствиями:
• многочисленные и довольно разные трактовки понятия «понимание»;
• отсутствие каких-либо результатов тестирования взаимопонимания людей и ИИ больших языковых моделей.
Этот пост – моя попытка продвинуться хотя бы чуть-чуть в сторону конструктивного обсуждения вопросов взаимопонимания людей и ИИ.
✔️ Мною взята за основу трактовка понятия «понимание» проф. Дэниела Деннета - известного американского философа и когнитивиста, чьи исследования лежат в области философии сознания, философии науки и философии биологии;
✔️ И сделана попытка обобщить результаты тестирования взаимопонимания людей и ИИ больших языковых моделей на трех тестах (довольно малоизвестных, но весьма интересных):
- Минимальный тест Тьюринга;
- Социальный тест Тьюринга;
- Обратный тест Тьюринга.
В итоге получился лонгрид. Но пусть читателя это не пугает. Ибо значительную часть текста занимают диалоги с ChatGPT (на основе GPT-3.5) и GPT-4 – порой столь удивительные и захватывающие, что читаются, как детективы.
Читать:
- на платформе Medium
- на платформе Дзен
#ИИ #Понимание #Вызовы21века
Medium
Фиаско 2023
Характер сосуществования двух типов разума, зависит от их взаимопонимания
Люди завалили планету мусором, а генеративный ИИ завалит мусором Интернет.
Росс Андерсон предупреждает об интеллектуальном вырождении новых поколений моделей.
• Всего 6 месяцев прошло с начала эпохи генеративного ИИ, когда ChatGPT за считанные дни покорил весь мир.
• Всего 6 месяцев потребовалось, чтобы до половины сотрудников некоторых ведущих мировых компаний стали использовать этот тип технологий в своих рабочих процессах, а сотни компании стали предлагать все новые продукты со встроенным генеративным ИИ.
• И всего 6 месяцев потребовалось, чтобы понять, в какую пропасть деградации интеллекта может привести расцвет генеративного ИИ на Земле.
Об этом предупреждает Росс Андерсон - как гласит его номинация в члены Королевского общества, - «пионер и мировой лидер в области инженерии безопасности». Андерсен – один из лучших специалистов в мире по обнаружению слабостей в системах безопасности и алгоритмах. Он член Королевской инженерной академии и профессор персональной кафедры безопасности и компьютерной лаборатории Кембриджского университета, а также один из самых известных отраслевых консультантов в области инфобезопасности. Его работы заложили основы построения моделей угроз для широкого круга приложений, от банковского дела до здравоохранения.
И вот теперь Росс Андерсон предупреждает о новой, теперь глобальной угрозе для всего человечества – коллапсе больших языковых моделей (LLM).
До 2023 большая часть текстов в Интернете была написана людьми. И эти тексты использовались для обучения LLM, превращающихся в основной инструмент редактирования и порождения новых текстов.
Теперь все больше и больше текста будет писаться большими языковыми моделями.
Куда все это ведет?
Что произойдет с GPT-N, когда LLM внесут значительную часть текстов в Интернет?
И речь не только про тексты. Если вы обучаете музыкальную модель Моцарту, вы можете ожидать, что результат будет немного похож на Моцарта, но без блеска — назовем его «Сальери». И если потом Сальери обучит следующее поколение и т.д., то как будет звучать пятое или шестое поколение?
Помните комедию «Множественность» с Майклом Китоном в главной роли, в которой скромный человек клонирует себя, а затем клонирует клонов, каждое поколение которых ведет к экспоненциальному снижению уровня интеллекта и увеличению глупости клона.
Так вот с LLM будет происходить то же самое. Использование для обучения модели контента, сгенерированного моделью, вызывает необратимые дефекты. Хвосты исходного распределения контента исчезают. В течение нескольких поколений текст становится мусором, поскольку распределения Гаусса сходятся и могут даже стать дельта-функциями. Более поздние поколения начинают производить образцы, которые никогда не были бы произведены оригинальной моделью, т.е. они начинают неправильно воспринимать реальность, основываясь на ошибках, внесенных их предками.
И это называется «коллапс модели», в результате которого:
✔️ Интернет все более будет забиваться чушью;
✔️ а люди, которые, наряду с LLM, будут этой чушью информационно напитываться, будут неумолимо глупеть.
Но есть и хорошая новость. Коллапса моделей можно попытаться избежать.
Об этом читайте сами:
- популярно
- подробно и сложно
#LLM
Росс Андерсон предупреждает об интеллектуальном вырождении новых поколений моделей.
• Всего 6 месяцев прошло с начала эпохи генеративного ИИ, когда ChatGPT за считанные дни покорил весь мир.
• Всего 6 месяцев потребовалось, чтобы до половины сотрудников некоторых ведущих мировых компаний стали использовать этот тип технологий в своих рабочих процессах, а сотни компании стали предлагать все новые продукты со встроенным генеративным ИИ.
• И всего 6 месяцев потребовалось, чтобы понять, в какую пропасть деградации интеллекта может привести расцвет генеративного ИИ на Земле.
Об этом предупреждает Росс Андерсон - как гласит его номинация в члены Королевского общества, - «пионер и мировой лидер в области инженерии безопасности». Андерсен – один из лучших специалистов в мире по обнаружению слабостей в системах безопасности и алгоритмах. Он член Королевской инженерной академии и профессор персональной кафедры безопасности и компьютерной лаборатории Кембриджского университета, а также один из самых известных отраслевых консультантов в области инфобезопасности. Его работы заложили основы построения моделей угроз для широкого круга приложений, от банковского дела до здравоохранения.
И вот теперь Росс Андерсон предупреждает о новой, теперь глобальной угрозе для всего человечества – коллапсе больших языковых моделей (LLM).
До 2023 большая часть текстов в Интернете была написана людьми. И эти тексты использовались для обучения LLM, превращающихся в основной инструмент редактирования и порождения новых текстов.
Теперь все больше и больше текста будет писаться большими языковыми моделями.
Куда все это ведет?
Что произойдет с GPT-N, когда LLM внесут значительную часть текстов в Интернет?
И речь не только про тексты. Если вы обучаете музыкальную модель Моцарту, вы можете ожидать, что результат будет немного похож на Моцарта, но без блеска — назовем его «Сальери». И если потом Сальери обучит следующее поколение и т.д., то как будет звучать пятое или шестое поколение?
Помните комедию «Множественность» с Майклом Китоном в главной роли, в которой скромный человек клонирует себя, а затем клонирует клонов, каждое поколение которых ведет к экспоненциальному снижению уровня интеллекта и увеличению глупости клона.
Так вот с LLM будет происходить то же самое. Использование для обучения модели контента, сгенерированного моделью, вызывает необратимые дефекты. Хвосты исходного распределения контента исчезают. В течение нескольких поколений текст становится мусором, поскольку распределения Гаусса сходятся и могут даже стать дельта-функциями. Более поздние поколения начинают производить образцы, которые никогда не были бы произведены оригинальной моделью, т.е. они начинают неправильно воспринимать реальность, основываясь на ошибках, внесенных их предками.
И это называется «коллапс модели», в результате которого:
✔️ Интернет все более будет забиваться чушью;
✔️ а люди, которые, наряду с LLM, будут этой чушью информационно напитываться, будут неумолимо глупеть.
Но есть и хорошая новость. Коллапса моделей можно попытаться избежать.
Об этом читайте сами:
- популярно
- подробно и сложно
#LLM
Путь инфоргов от деперсонализации к расчеловечиванию будет коротким.
Первое исследование результатов деперсонализации с помощью дополненной реальности и ИИ.
Убивать людей не просто, даже если в сознание убийц идеология вколотила убеждение, что это их враги. Еще сложнее так изменить сознание людей, чтобы они убивали врагов запросто. Не испытывая при этом отвращения и ужаса от содеянного, а в последствии - угрызений совести и душевных мук. Наиболее эффективным механизмом для такого изменения сознания является расчеловечивание образа врагов.
Вот пример, релевантный тому, о чем будет дальше рассказано в посте.
В эпизоде сериала "Черное зеркало" "Люди против огня" солдаты воспринимают мир через фильтр, формируемый ИИ в дополненной реальности. В восприятии солдат этот фильтр превращает их противников в чудовищных и отвратительных мутантов, чтобы преодолеть нежелание солдат убивать себе подобных и избавить их от этических и психологических последствий. Фильтр в виде электронного импланта МАСС делает процесс убийств для солдат не сложнее, чем уничтожение тараканов в своей квартире. Ибо в глазах солдат их жертвы – не обычные люди, такие же как они, а «паразиты» - чудовища, внешне похожие на зомби.
Уровень развития обеих технологий (дополненная реальность и ИИ) уже позволяет делать подобные вещи (пока без имплантов, заменяемых очками, типа VisionPro от Эппла). Однако исследователи из Center for Humans and Machines при институте The Max Planck Institute for Human Development даже не стали заморачиваться с очками.
Мне видится логика их исследования так.
• Первый обязательный шаг к расчеловечиванию – деперсонализация.
• Исследовать последствия деперсонализации легко и просто на уже массово используемых фильтрах, предлагаемых пользователям соцсетями и платформами видеоконференций.
• Прежде чем исследовать более сложные фильтры (позволяющие, например, при видеоконференции с начальником парой кликов мышью украсить его ослиными ушами или козлиными рогами), можно поэкспериментировать с самым простым и популярным «фильтром размытия», делающим лицо собеседника на экране размытым до неузнаваемости.
• Применив «фильтр размытия» для коммуникации разных типов (статическая – типа выбора благотворительной организации, и динамическая – диалоговая телеконференция), исследователи определяли, каким образом использование фильтра, через изменение восприятия образа других людей, влияет на их поведение.
Результаты показали, что люди, использующие «фильтр размытия», ведут себя по отношению к людям с размытым образом, куда более эгоистично. Т.е. фильтр помогает им проще отказываться от морали за счет обезличивания людей и тем самым меняя их социальное и этическое поведение.
Авторы так комментируют полученные результаты.
«Начиная исследование, мы уже знали, что деперсонализация может иметь такие неприятные последствия. Однако результаты исследования ценны тем, что мы показали - деперсонализация скоро станет легкой и доступной опцией на многих цифровых платформах и устройствах… Это требует широкой дискуссии в обществе об управлении технологиями дополненной реальности и ИИ, которые изменяют то, какими нам представляются другие люди.»
Мне остается лишь добавить:
1. Это первое исследование практически подтверждающее быструю трансформацию когнитивных гаджетов восприятия у взрослых людей (о том, как когнитивные гаджеты уже меняются у детей я писал)
2. Подобного типа трансформации когнитивных гаджетов происходят пока далеко не у всех, а лишь у инфоргов (людей, проводящих в онлайне больше времени, чем во сне).
3. Доля инфоргов в обществе будет расти по мере перехода общества к новому типу культуры - алгокогнитивная культура.
О пп. 2 и 3 я написал множество постов. И если начинать их читать, то стоит начать с этого.
#Культура #ЭволюцияЧеловека #Инфорги #АлгокогнитивнаяКультура
Первое исследование результатов деперсонализации с помощью дополненной реальности и ИИ.
Убивать людей не просто, даже если в сознание убийц идеология вколотила убеждение, что это их враги. Еще сложнее так изменить сознание людей, чтобы они убивали врагов запросто. Не испытывая при этом отвращения и ужаса от содеянного, а в последствии - угрызений совести и душевных мук. Наиболее эффективным механизмом для такого изменения сознания является расчеловечивание образа врагов.
Вот пример, релевантный тому, о чем будет дальше рассказано в посте.
В эпизоде сериала "Черное зеркало" "Люди против огня" солдаты воспринимают мир через фильтр, формируемый ИИ в дополненной реальности. В восприятии солдат этот фильтр превращает их противников в чудовищных и отвратительных мутантов, чтобы преодолеть нежелание солдат убивать себе подобных и избавить их от этических и психологических последствий. Фильтр в виде электронного импланта МАСС делает процесс убийств для солдат не сложнее, чем уничтожение тараканов в своей квартире. Ибо в глазах солдат их жертвы – не обычные люди, такие же как они, а «паразиты» - чудовища, внешне похожие на зомби.
Уровень развития обеих технологий (дополненная реальность и ИИ) уже позволяет делать подобные вещи (пока без имплантов, заменяемых очками, типа VisionPro от Эппла). Однако исследователи из Center for Humans and Machines при институте The Max Planck Institute for Human Development даже не стали заморачиваться с очками.
Мне видится логика их исследования так.
• Первый обязательный шаг к расчеловечиванию – деперсонализация.
• Исследовать последствия деперсонализации легко и просто на уже массово используемых фильтрах, предлагаемых пользователям соцсетями и платформами видеоконференций.
• Прежде чем исследовать более сложные фильтры (позволяющие, например, при видеоконференции с начальником парой кликов мышью украсить его ослиными ушами или козлиными рогами), можно поэкспериментировать с самым простым и популярным «фильтром размытия», делающим лицо собеседника на экране размытым до неузнаваемости.
• Применив «фильтр размытия» для коммуникации разных типов (статическая – типа выбора благотворительной организации, и динамическая – диалоговая телеконференция), исследователи определяли, каким образом использование фильтра, через изменение восприятия образа других людей, влияет на их поведение.
Результаты показали, что люди, использующие «фильтр размытия», ведут себя по отношению к людям с размытым образом, куда более эгоистично. Т.е. фильтр помогает им проще отказываться от морали за счет обезличивания людей и тем самым меняя их социальное и этическое поведение.
Авторы так комментируют полученные результаты.
«Начиная исследование, мы уже знали, что деперсонализация может иметь такие неприятные последствия. Однако результаты исследования ценны тем, что мы показали - деперсонализация скоро станет легкой и доступной опцией на многих цифровых платформах и устройствах… Это требует широкой дискуссии в обществе об управлении технологиями дополненной реальности и ИИ, которые изменяют то, какими нам представляются другие люди.»
Мне остается лишь добавить:
1. Это первое исследование практически подтверждающее быструю трансформацию когнитивных гаджетов восприятия у взрослых людей (о том, как когнитивные гаджеты уже меняются у детей я писал)
2. Подобного типа трансформации когнитивных гаджетов происходят пока далеко не у всех, а лишь у инфоргов (людей, проводящих в онлайне больше времени, чем во сне).
3. Доля инфоргов в обществе будет расти по мере перехода общества к новому типу культуры - алгокогнитивная культура.
О пп. 2 и 3 я написал множество постов. И если начинать их читать, то стоит начать с этого.
#Культура #ЭволюцияЧеловека #Инфорги #АлгокогнитивнаяКультура
Forwarded from СОЛОДИН LIVE
#интервью #Карелов #ИИ #NVDA #MSFT #GOOG
Пригласил на беседу уже знакомого моей аудитории эксперта в области стратегической аналитики Сергея Карелова. Тема очень знаковая в последние месяцы - Искусственный Интеллект.
📍GPT Chat это прорыв? Новая веха?
📍ИИ нарушает авторское право?
📍Умирающие профессии из-за ИИ. Кому можно не боятся потери работы?
📍Можно ли научить ИИ этике? История с “убийством” оператора дрона.
📍Кто будет нести ответственность за “преступления” ИИ?
📍Какие компании сейчас являются лидерами в разработке ИИ? Какие страны впереди?
📍Ждёт ли нас крах пузырей ИИ, как это случилось с доткомами?
📍Насколько опасен ИИ для человечества?
ПРЕМЬЕРА СОСТОИТСЯ В СУББОТУ В 11-00МСК
📌 ССЫЛКА НА ПРЕМЬЕРУ
Сергей Карелов:
- Кандидат технических наук по специальности "Вычислительные машины, комплексы, системы и сети"
- Экс-топ-менеджер IBM, Silicon Graphics (SGI), Cray Research
- Основатель и CTO компании Witology
- Эксперт в области междисциплинарных исследований и стратегической аналитики
- Ведущий авторского канала «Малоизвестное интересное».
Телеграм-канал Сергея Карелова
Пригласил на беседу уже знакомого моей аудитории эксперта в области стратегической аналитики Сергея Карелова. Тема очень знаковая в последние месяцы - Искусственный Интеллект.
📍GPT Chat это прорыв? Новая веха?
📍ИИ нарушает авторское право?
📍Умирающие профессии из-за ИИ. Кому можно не боятся потери работы?
📍Можно ли научить ИИ этике? История с “убийством” оператора дрона.
📍Кто будет нести ответственность за “преступления” ИИ?
📍Какие компании сейчас являются лидерами в разработке ИИ? Какие страны впереди?
📍Ждёт ли нас крах пузырей ИИ, как это случилось с доткомами?
📍Насколько опасен ИИ для человечества?
ПРЕМЬЕРА СОСТОИТСЯ В СУББОТУ В 11-00МСК
📌 ССЫЛКА НА ПРЕМЬЕРУ
Сергей Карелов:
- Кандидат технических наук по специальности "Вычислительные машины, комплексы, системы и сети"
- Экс-топ-менеджер IBM, Silicon Graphics (SGI), Cray Research
- Основатель и CTO компании Witology
- Эксперт в области междисциплинарных исследований и стратегической аналитики
- Ведущий авторского канала «Малоизвестное интересное».
Телеграм-канал Сергея Карелова
Люди верят ИИ больше чем другим людям.
Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей.
В 2х предыдущих кейсах ИИ превзошел людей в обретении доверия:
• потенциальных избирателей при влиянии на их политические предпочтения;
• пациентов при взаимодействии с лечащими врачами.
Третье же подтверждение касается убеждения людей довериться деньгами:
убедить инвесторов, партнеров или клиентов путем предоставления им питч-дека — презентации стартапа, убеждающей в его большой перспективности.
Суть эксперимента
Опросив 250 инвесторов и 250 владельцев бизнеса, авторы опроса сравнили питч-деки, созданные GPT-4, с успешными (в реальной практике) питч-деками людей, уже получившими финансирование. Участники не знали, что часть питч-деков была сгенерирована ИИ. Каждый респондент видел одинаковое количество питч-деков, созданных ИИ и людьми.
Ключевые выводы
• Питч-деки, созданные GPT-4, в 2 раза более убедительны, чем те, что созданы людьми.
• Инвесторы и владельцы бизнеса в 3 раза чаще вкладывали средства после прочтения питч-деков GPT-4, чем после прочтения питч-деков людей.
• 1 из 5 инвесторов и владельцев бизнеса, представленных GPT-4, вложил бы по прочтению питч-дека от 10 000 долларов и больше.
Итак, что мы имеем на сегодня.
• Люди уже больше доверяют ИИ в вопросах политики, медицины и инвестиций.
• На очереди ИИ-пророки и ИИ-проповедники новой религии?
#Социохакинг
Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей.
В 2х предыдущих кейсах ИИ превзошел людей в обретении доверия:
• потенциальных избирателей при влиянии на их политические предпочтения;
• пациентов при взаимодействии с лечащими врачами.
Третье же подтверждение касается убеждения людей довериться деньгами:
убедить инвесторов, партнеров или клиентов путем предоставления им питч-дека — презентации стартапа, убеждающей в его большой перспективности.
Суть эксперимента
Опросив 250 инвесторов и 250 владельцев бизнеса, авторы опроса сравнили питч-деки, созданные GPT-4, с успешными (в реальной практике) питч-деками людей, уже получившими финансирование. Участники не знали, что часть питч-деков была сгенерирована ИИ. Каждый респондент видел одинаковое количество питч-деков, созданных ИИ и людьми.
Ключевые выводы
• Питч-деки, созданные GPT-4, в 2 раза более убедительны, чем те, что созданы людьми.
• Инвесторы и владельцы бизнеса в 3 раза чаще вкладывали средства после прочтения питч-деков GPT-4, чем после прочтения питч-деков людей.
• 1 из 5 инвесторов и владельцев бизнеса, представленных GPT-4, вложил бы по прочтению питч-дека от 10 000 долларов и больше.
Итак, что мы имеем на сегодня.
• Люди уже больше доверяют ИИ в вопросах политики, медицины и инвестиций.
• На очереди ИИ-пророки и ИИ-проповедники новой религии?
#Социохакинг
Пусть GPT-4 работает, он железный.
Вот замечательный пример:
✔️ иллюстрирующий интеллектуальную мощность текущих версий ИИ на основе больших языковых моделей;
✔️ демонстрирующий пользу от использования этих моделей в работе, даже если вы доктор наук и профессор с 40-летним стажем научной работы.
Профессора Дерика Боундса попросили в начале июля модерировать дискуссионную сессию форума Austin Rainbow Forum на тему «Духовность в нашей повседневной жизни».
Сначала профессор решил было сесть за продумывание плана вопросов для модерации дискуссии, потратив на это часок своего весьма драгоценного времени.
Но вовремя остановил себя. И просто обратился к трем языковым моделям - ChatGPT 4, Google Bard и Microsoft Bing, - со следующим вопросом:
Я должен модерировать дискуссионную сессию на тему духовности в нашей повседневной жизни. Что бы вы мне посоветовали? И как бы вы здесь определили духовность?
Вот ответ ChatGPT 4
Это звучит как интересная тема, Дерик! Вот несколько советов, как вести дискуссию о духовности в повседневной жизни:
• Начните с определения того, что для вас значит духовность и как вы ее понимаете. Это поможет участникам понять контекст обсуждения и послужит отправной точкой для изучения темы.
• Призовите участников поделиться своим собственным духовным опытом в их повседневной жизни. Это может включать в себя такие практики, как медитация, молитва или просто время для размышлений и самоанализа.
• Затем проанализируйте, как духовность может помогать нам справиться с трудностями и стрессами повседневной жизни. Например, некоторые люди считают, что духовные практики помогают им найти смысл и цель в трудных ситуациях или дают чувство внутреннего мира и спокойствия.
• Потом обсудите роль, которую сообщество и социальные связи могут играть в духовности. Многие люди считают, что делиться своим духовным путешествием с другими и быть частью поддерживающего сообщества является важным аспектом их духовной практики.
• Наконец, предложите участникам подумать о том, как они могут практически внедрить духовность в свою повседневную жизнь. Это может включать в себя выделение времени каждый день для медитации или молитвы, сознательное усилие быть более осознанным и присутствующим в своих взаимодействиях с другими, или поиск способов отплатить своему сообществу духовно значимым образом.
Что касается определения духовности, оно может означать разные вещи для разных людей. Как правило, духовность относится к чувству связи с чем-то большим, чем вы сами, будь то высшая сила, мир природы или более широкое понимание человечества. Это часто включает в себя поиск смысла, цели и трансцендентности за пределами материального мира.
Ответы Google Bard и Microsoft Bing желающие могут прочесть в блоге профессора.
Мне же остается лишь добавить:
1. Тратить час на подготовку плана модерации дискуссии профессору не потребовалось. Вопрос решился за 5 минут. Лаконично, но вполне содержательно. Не слишком глубоко, но подходяще для публичной дискуссии.
2. Моя практика показывает, что до половины объема работы, не требующей полета мыслей и напряжения всех мозговых извилин, можно просто переложить на ИИ. А для второй половины работ требуется мое участие, но в основном, по доводке сделанного моделью.
Самое же приятное заключается в том, что именно работа, не требующая полета мыслей и напряжения всех мозговых извилин, ранее занимала бОльшую часть рабочего времени.
#LLM #Автоматизация
Вот замечательный пример:
✔️ иллюстрирующий интеллектуальную мощность текущих версий ИИ на основе больших языковых моделей;
✔️ демонстрирующий пользу от использования этих моделей в работе, даже если вы доктор наук и профессор с 40-летним стажем научной работы.
Профессора Дерика Боундса попросили в начале июля модерировать дискуссионную сессию форума Austin Rainbow Forum на тему «Духовность в нашей повседневной жизни».
Сначала профессор решил было сесть за продумывание плана вопросов для модерации дискуссии, потратив на это часок своего весьма драгоценного времени.
Но вовремя остановил себя. И просто обратился к трем языковым моделям - ChatGPT 4, Google Bard и Microsoft Bing, - со следующим вопросом:
Я должен модерировать дискуссионную сессию на тему духовности в нашей повседневной жизни. Что бы вы мне посоветовали? И как бы вы здесь определили духовность?
Вот ответ ChatGPT 4
Это звучит как интересная тема, Дерик! Вот несколько советов, как вести дискуссию о духовности в повседневной жизни:
• Начните с определения того, что для вас значит духовность и как вы ее понимаете. Это поможет участникам понять контекст обсуждения и послужит отправной точкой для изучения темы.
• Призовите участников поделиться своим собственным духовным опытом в их повседневной жизни. Это может включать в себя такие практики, как медитация, молитва или просто время для размышлений и самоанализа.
• Затем проанализируйте, как духовность может помогать нам справиться с трудностями и стрессами повседневной жизни. Например, некоторые люди считают, что духовные практики помогают им найти смысл и цель в трудных ситуациях или дают чувство внутреннего мира и спокойствия.
• Потом обсудите роль, которую сообщество и социальные связи могут играть в духовности. Многие люди считают, что делиться своим духовным путешествием с другими и быть частью поддерживающего сообщества является важным аспектом их духовной практики.
• Наконец, предложите участникам подумать о том, как они могут практически внедрить духовность в свою повседневную жизнь. Это может включать в себя выделение времени каждый день для медитации или молитвы, сознательное усилие быть более осознанным и присутствующим в своих взаимодействиях с другими, или поиск способов отплатить своему сообществу духовно значимым образом.
Что касается определения духовности, оно может означать разные вещи для разных людей. Как правило, духовность относится к чувству связи с чем-то большим, чем вы сами, будь то высшая сила, мир природы или более широкое понимание человечества. Это часто включает в себя поиск смысла, цели и трансцендентности за пределами материального мира.
Ответы Google Bard и Microsoft Bing желающие могут прочесть в блоге профессора.
Мне же остается лишь добавить:
1. Тратить час на подготовку плана модерации дискуссии профессору не потребовалось. Вопрос решился за 5 минут. Лаконично, но вполне содержательно. Не слишком глубоко, но подходяще для публичной дискуссии.
2. Моя практика показывает, что до половины объема работы, не требующей полета мыслей и напряжения всех мозговых извилин, можно просто переложить на ИИ. А для второй половины работ требуется мое участие, но в основном, по доводке сделанного моделью.
Самое же приятное заключается в том, что именно работа, не требующая полета мыслей и напряжения всех мозговых извилин, ранее занимала бОльшую часть рабочего времени.
#LLM #Автоматизация
YouTube
Пусть трактор работает.avi
Пусть трактор работает, он железный.
Что делают в «секретной» лаборатории OpenAI.
LVM – это не только новое кино, но и новый мир.
Мне уже приходилось рассказывать о своем поразительном опыте путешествия в будущее, - и не в метафорическом или публицистическом смысле, а в буквальном. Тогда (28 лет назад) в «секретной» лаборатории SGI я вживую опробовал несколько технологий, опередивших на четверть века своё массовое внедрение: визуальные симуляторы многомерных функциональных пространств и симуляторы полета над ландшафтами данных. Тогда же, в соседней «секретной» лаборатории SGI меня впервые оцифровали на 3D сканере. И тут же, на основе этой цифровой копии, создали и показали мне моего цифрового двойника, управлять которым я мог с графического суперкомпьютера SGI Onyx.
Ну а вспомнил я сегодня об этом из-за проговорок гендира OpenAI Сэма Альтмана о перспективах перехода от LLM (Large Language Models) к LVM (Large Video Models). В этом направлении сейчас копают и люди Цукерберга, и китайцы. Но приоритет OpenAI в LLM достаточно велик, чтобы сделать ставку на прорывной разработке LVM в своих «секретных» лабах.
О чем же идет речь?
О двух фантастически прибыльных областях бизнеса.
1. Создание нового типа кино, на основе тотального перехода на цифровые дубликаты кинозвезд.
2. Создание нового типа массовых развлечений на основе использования цифровых дубликатов пользователей для их путешествий в виртуальные миры Метаверса.
Первое
Использование цифровых дубликатов звезд кино и спорта уже становится распространенной практикой. Но чтобы создать на этой технологической базе новый тип кино, нужно более мощное железо, чтобы все делать влет и прямо на студии, а не долгими расчетами на огромных сторонних компьютерных фермах.
Что из себя будет представлять новый тип кино, когда «железо» позволит, показано в 1м эпизоде 6го сезона «Черное зеркало» - «Джоан ужасна» (смотрите сами или, кто хочет, читайте детальный спойлер).
В этом эпизоде хорошо показано, как переход на новый тип кино колоссально изменит многие аспекты жизни общества и отдельных людей. Это будет уже иной мир.
Второе
Как будет работать перенос цифровых дубликатов пользователей в виртуальные миры, показано в другой модной новинке – китайском сериале «Задача трёх тел», литературной основой которого стал знаменитый роман Лю Цысиня).
Ключом к разгадке серии таинственных самоубийств ученых по всей Земле является компьютерная игра «Задача трёх тел», переносящая пользователя в иной мир с тремя солнцами — планету Трисолярис. Ну а то, насколько технология переноса цифровых дубликатов людей в виртуальный мир эффективна, можно судить по тому, что эта «игра» становится своего рода порталом. Через него инопланетяне вербуют сторонников на Земле, с целью заполучить ее в свои руки.
Последнее
Оба новых направления на основе LVM сулят колоссальные деньги, несравнимые с тем, что OpenAI и Microsoft могут заработать в мире на LLM. И поэтому есть все основания предполагать, что именно на LVM сейчас сфокусированы исследовани и разработки OpenAI.
Ну а всякие там GPT 5,6,7 … - это, как говорится, их «business as usual», а не стратегическая ставка на десятилетие.
#LVM
LVM – это не только новое кино, но и новый мир.
Мне уже приходилось рассказывать о своем поразительном опыте путешествия в будущее, - и не в метафорическом или публицистическом смысле, а в буквальном. Тогда (28 лет назад) в «секретной» лаборатории SGI я вживую опробовал несколько технологий, опередивших на четверть века своё массовое внедрение: визуальные симуляторы многомерных функциональных пространств и симуляторы полета над ландшафтами данных. Тогда же, в соседней «секретной» лаборатории SGI меня впервые оцифровали на 3D сканере. И тут же, на основе этой цифровой копии, создали и показали мне моего цифрового двойника, управлять которым я мог с графического суперкомпьютера SGI Onyx.
Ну а вспомнил я сегодня об этом из-за проговорок гендира OpenAI Сэма Альтмана о перспективах перехода от LLM (Large Language Models) к LVM (Large Video Models). В этом направлении сейчас копают и люди Цукерберга, и китайцы. Но приоритет OpenAI в LLM достаточно велик, чтобы сделать ставку на прорывной разработке LVM в своих «секретных» лабах.
О чем же идет речь?
О двух фантастически прибыльных областях бизнеса.
1. Создание нового типа кино, на основе тотального перехода на цифровые дубликаты кинозвезд.
2. Создание нового типа массовых развлечений на основе использования цифровых дубликатов пользователей для их путешествий в виртуальные миры Метаверса.
Первое
Использование цифровых дубликатов звезд кино и спорта уже становится распространенной практикой. Но чтобы создать на этой технологической базе новый тип кино, нужно более мощное железо, чтобы все делать влет и прямо на студии, а не долгими расчетами на огромных сторонних компьютерных фермах.
Что из себя будет представлять новый тип кино, когда «железо» позволит, показано в 1м эпизоде 6го сезона «Черное зеркало» - «Джоан ужасна» (смотрите сами или, кто хочет, читайте детальный спойлер).
В этом эпизоде хорошо показано, как переход на новый тип кино колоссально изменит многие аспекты жизни общества и отдельных людей. Это будет уже иной мир.
Второе
Как будет работать перенос цифровых дубликатов пользователей в виртуальные миры, показано в другой модной новинке – китайском сериале «Задача трёх тел», литературной основой которого стал знаменитый роман Лю Цысиня).
Ключом к разгадке серии таинственных самоубийств ученых по всей Земле является компьютерная игра «Задача трёх тел», переносящая пользователя в иной мир с тремя солнцами — планету Трисолярис. Ну а то, насколько технология переноса цифровых дубликатов людей в виртуальный мир эффективна, можно судить по тому, что эта «игра» становится своего рода порталом. Через него инопланетяне вербуют сторонников на Земле, с целью заполучить ее в свои руки.
Последнее
Оба новых направления на основе LVM сулят колоссальные деньги, несравнимые с тем, что OpenAI и Microsoft могут заработать в мире на LLM. И поэтому есть все основания предполагать, что именно на LVM сейчас сфокусированы исследовани и разработки OpenAI.
Ну а всякие там GPT 5,6,7 … - это, как говорится, их «business as usual», а не стратегическая ставка на десятилетие.
#LVM
Китай уступает США право прыгнуть в пропасть первым.
Генеративного ИИ без лицензии в Китае не будет.
Главный убойный аргумент против введения госрегулирования генеративного ИИ (типа GPT и Stable Diffusion) в США – этого нельзя делать, поскольку тогда Китай догонит и обгонит США в этой самой ценной технологии, придуманной человечеством за всю свою историю.
✔️ Ведь генеративный ИИ скоро перекроит все (!) сферы применения IT во всех (!) отраслях, заменяя людей «кентаврами людей и ИИ» (смотри только вышедший отчет Sequoia Capital)
✔️ Генеративный ИИ - это бизнес колоссального объема, который будет ежегодно удваиваться в ближайшие 5 лет, втрое быстрее, чем все остальные сегменты мирового рынка ИИ (см. только вышедший отчет China Insights Consulting)
Следуя логике Google (и наперекор логике OpenAI), многие влиятельные политики США категорически возражают против лицензирования генеративного ИИ, дабы не дать Китаю возможности догнать и перегнать себя в этой ключевой области.
Но вот что делает Китай.
Чжуан Жунвэнь (директор Управления киберпространства Китая), отвечающего за регулирование генеративного ИИ, вчера заявил следующее.
1. Генеративный ИИ способен влиять на все аспекты жизни общества и повседневной жизни отдельных граждан.
2. Тем самым он создает новую огромную проблему для управления государством и обществом.
3. Поэтому, прежде чем генеративный ИИ будут широко применяться, «нам нужно убедиться, что он надежен и управляем».
4. Для этого ВСЕ алгоритмы генеративного ИИ, планируемые для широкого применения обязаны пройти лицензирование.
И уже опубликован список из 41 (!) алгоритма генеративного ИИ, которые обязаны пройти лицензирование в Управлении киберпространства Китая.
На этих алгоритмах работают все (!) 79 китайских LLM генеративного ИИ, имеющих более 1 млрд. параметров (подробней см. в отчете «Китайский ”ураган” больших моделей».
Решение Китая радикально затормозить внедрение у себя генеративного ИИ, по сути означает, что Китай отказывается от первенства во внедрении этого класса технологий.
Единственным основанием этого может быть признание Китаем, что риски быть первым в массовом внедрении у себя генеративного ИИ, существенно превышают потенциальную выгоду от его внедрения.
Это значит (с учетом потенциальной потери прибыли в сотни миллиардов долларов, сулимой широким внедрением генеративного ИИ), что Китай, скорее всего, пришел к выводу, о котором я писал еще полгода назад:
✔️ Человечество на пути к пропасти AICG;
✔️ Не видно способа, как от пропасти отвернуть.
✔️ Так пусть США хотя бы прыгают в нее первыми.
#AICG #Китай #США
Генеративного ИИ без лицензии в Китае не будет.
Главный убойный аргумент против введения госрегулирования генеративного ИИ (типа GPT и Stable Diffusion) в США – этого нельзя делать, поскольку тогда Китай догонит и обгонит США в этой самой ценной технологии, придуманной человечеством за всю свою историю.
✔️ Ведь генеративный ИИ скоро перекроит все (!) сферы применения IT во всех (!) отраслях, заменяя людей «кентаврами людей и ИИ» (смотри только вышедший отчет Sequoia Capital)
✔️ Генеративный ИИ - это бизнес колоссального объема, который будет ежегодно удваиваться в ближайшие 5 лет, втрое быстрее, чем все остальные сегменты мирового рынка ИИ (см. только вышедший отчет China Insights Consulting)
Следуя логике Google (и наперекор логике OpenAI), многие влиятельные политики США категорически возражают против лицензирования генеративного ИИ, дабы не дать Китаю возможности догнать и перегнать себя в этой ключевой области.
Но вот что делает Китай.
Чжуан Жунвэнь (директор Управления киберпространства Китая), отвечающего за регулирование генеративного ИИ, вчера заявил следующее.
1. Генеративный ИИ способен влиять на все аспекты жизни общества и повседневной жизни отдельных граждан.
2. Тем самым он создает новую огромную проблему для управления государством и обществом.
3. Поэтому, прежде чем генеративный ИИ будут широко применяться, «нам нужно убедиться, что он надежен и управляем».
4. Для этого ВСЕ алгоритмы генеративного ИИ, планируемые для широкого применения обязаны пройти лицензирование.
И уже опубликован список из 41 (!) алгоритма генеративного ИИ, которые обязаны пройти лицензирование в Управлении киберпространства Китая.
На этих алгоритмах работают все (!) 79 китайских LLM генеративного ИИ, имеющих более 1 млрд. параметров (подробней см. в отчете «Китайский ”ураган” больших моделей».
Решение Китая радикально затормозить внедрение у себя генеративного ИИ, по сути означает, что Китай отказывается от первенства во внедрении этого класса технологий.
Единственным основанием этого может быть признание Китаем, что риски быть первым в массовом внедрении у себя генеративного ИИ, существенно превышают потенциальную выгоду от его внедрения.
Это значит (с учетом потенциальной потери прибыли в сотни миллиардов долларов, сулимой широким внедрением генеративного ИИ), что Китай, скорее всего, пришел к выводу, о котором я писал еще полгода назад:
✔️ Человечество на пути к пропасти AICG;
✔️ Не видно способа, как от пропасти отвернуть.
✔️ Так пусть США хотя бы прыгают в нее первыми.
#AICG #Китай #США
Sequoia Capital
The New Language Model Stack
How companies are bringing AI applications to life
Результаты репетиции всепланетного референдума о судьбе человечества в контексте развития ИИ.
1/3 готова поставить шкуру на кон ИИ-гонки, а 2/3 – нет.
С этого года вопрос об экзистенциальных ИИ-рисках для человечества из гипотетической формы перешел в практическую. Ибо значительное число исследователей и разработчиков ИИ, в результате «революции ChatGPT», теперь считают, что от создания человекоподобного ИИ (AGI) нас отделяют уже не десятилетия, а годы. Т.е. пора серьезно озаботиться связанными с этим экзистенциальными ИИ-рисками.
Однако, подобно другим экзистенциальным рискам (ядерным, климатическим, биологическим), оценка ИИ-рисков расколола мнения специалистов и экспертов.
• Одни считают экзистенциальные ИИ-риски весьма значительными и призывают мир срочно заняться их минимизацией.
• Другие полагают, что экзистенциальных ИИ-рисков пока просто нет, и озаботься ими нужно лишь когда они появятся.
Такой раздрай профессиональных мнений ведет к раздраю мнений властей развитых стран. Их действия в этой связи какие-то заторможенные и противоречивые. В результате, специалисты и власти сейчас в положении буриданова осла, шансы которого сдохнуть ничуть не меньше шансов сделать выбор между противоположными альтернативами. А «ослиная стратегия» (типа, надо притормозить разработки на полгода) - худшая из стратегий.
Ибо:
• лишь тормозит развитию ИИ-технологий;
• принципиально не снимая (и даже не снижая) ИИ-рисков.
Вся надежда в ситуации раздрая мнений специалистов и властей на общество. Все идет к тому, что в решении вопроса об ИИ-рисках мнение общества может стать бабочкой, вес которой склонит на одну из сторон уравновешенную штангу мнений.
И вот первая репетиция всепланетного референдума о судьбе человечества в контексте развития ИИ проведена, и результаты подведены по итогам дебатов The Munk Debate on Artificial Intelligence.
• Вопрос дебатов:
Как бы то ни было, представляют ли исследования и разработки в области ИИ экзистенциальную угрозу?
• Позицию «Да» отстаивали Йошуа Бенжио и Макс Тегмарк,
позицию «Нет» - Мелани Митчелл и Ян ЛеКун.
• Преддебатный опрос зрителей показал такой расклад мнений:
Да – 67%, Нет 33%
• Расклад мнений зрителей по итогам дебатов:
Да – 64%, Нет 36% (3% поменяли мнение с «Да» на «Нет»)
• Рынок предсказаний, открытый за 2 недели до дебатов
-- сначала склонялся ко мнению, что выиграет Ян ЛеКун с позицией «Нет» (6го июня так считало 53% игроков рынка)
-- но потом плавно менял мнение на противоположное (упав до 25% в конце дебатов)
Склонит ли эта бабочка штангу мнений о судьбе человечества в контексте развития ИИ, - скоро узнаем.
Я полагаю, что нет.
Если что и склонит, то какой-то устрашающий инцидент мирового масштаба (типа пандемии ментального вируса), что имеет ненулевые шансы случиться либо уже в конце этого года (после планируемого выхода GPT 5) или в 1й половине 2024 (после планируемого выхода GPT 6).
Смотреть дебаты (1 час 47 мин)
#РискиИИ #Вызовы21века #ИИ #AGI
1/3 готова поставить шкуру на кон ИИ-гонки, а 2/3 – нет.
С этого года вопрос об экзистенциальных ИИ-рисках для человечества из гипотетической формы перешел в практическую. Ибо значительное число исследователей и разработчиков ИИ, в результате «революции ChatGPT», теперь считают, что от создания человекоподобного ИИ (AGI) нас отделяют уже не десятилетия, а годы. Т.е. пора серьезно озаботиться связанными с этим экзистенциальными ИИ-рисками.
Однако, подобно другим экзистенциальным рискам (ядерным, климатическим, биологическим), оценка ИИ-рисков расколола мнения специалистов и экспертов.
• Одни считают экзистенциальные ИИ-риски весьма значительными и призывают мир срочно заняться их минимизацией.
• Другие полагают, что экзистенциальных ИИ-рисков пока просто нет, и озаботься ими нужно лишь когда они появятся.
Такой раздрай профессиональных мнений ведет к раздраю мнений властей развитых стран. Их действия в этой связи какие-то заторможенные и противоречивые. В результате, специалисты и власти сейчас в положении буриданова осла, шансы которого сдохнуть ничуть не меньше шансов сделать выбор между противоположными альтернативами. А «ослиная стратегия» (типа, надо притормозить разработки на полгода) - худшая из стратегий.
Ибо:
• лишь тормозит развитию ИИ-технологий;
• принципиально не снимая (и даже не снижая) ИИ-рисков.
Вся надежда в ситуации раздрая мнений специалистов и властей на общество. Все идет к тому, что в решении вопроса об ИИ-рисках мнение общества может стать бабочкой, вес которой склонит на одну из сторон уравновешенную штангу мнений.
И вот первая репетиция всепланетного референдума о судьбе человечества в контексте развития ИИ проведена, и результаты подведены по итогам дебатов The Munk Debate on Artificial Intelligence.
• Вопрос дебатов:
Как бы то ни было, представляют ли исследования и разработки в области ИИ экзистенциальную угрозу?
• Позицию «Да» отстаивали Йошуа Бенжио и Макс Тегмарк,
позицию «Нет» - Мелани Митчелл и Ян ЛеКун.
• Преддебатный опрос зрителей показал такой расклад мнений:
Да – 67%, Нет 33%
• Расклад мнений зрителей по итогам дебатов:
Да – 64%, Нет 36% (3% поменяли мнение с «Да» на «Нет»)
• Рынок предсказаний, открытый за 2 недели до дебатов
-- сначала склонялся ко мнению, что выиграет Ян ЛеКун с позицией «Нет» (6го июня так считало 53% игроков рынка)
-- но потом плавно менял мнение на противоположное (упав до 25% в конце дебатов)
Склонит ли эта бабочка штангу мнений о судьбе человечества в контексте развития ИИ, - скоро узнаем.
Я полагаю, что нет.
Если что и склонит, то какой-то устрашающий инцидент мирового масштаба (типа пандемии ментального вируса), что имеет ненулевые шансы случиться либо уже в конце этого года (после планируемого выхода GPT 5) или в 1й половине 2024 (после планируемого выхода GPT 6).
Смотреть дебаты (1 час 47 мин)
#РискиИИ #Вызовы21века #ИИ #AGI
Китайская комната повышенной сложности.
Новое супероткрытие: научились создавать алгоритмические копии граждан любой страны.
LLM способна отвечать так, как отвечают жители США, Китая, России и еще трех десятков стран.
Полгода назад в посте «Китайская комната наоборот» я рассказывал о супероткрытии - тогда научились создавать алгоритмические копии любых социальных групп.
Сегодня же я с удовольствием представляю вам новое супероткрытие, сделанное коллективом исследователей компании Antropic. Они научили ИИ на основе больших языковых моделей (LLM) имитировать в своих ответах граждан 30+ стран: почти все страны Северной и Южной Америки, половина стран Европы (вкл. Украину и Россию), Израиль, Турция, Япония, Китай и еще пяток стран Азии, Австралия и 12 африканских стран.
Исследователи опрашивали LLM на корпусе из 2256 вопросов, входящих в два кросс-национальных глобальных опроса:
• Pew Research Center’s Global Attitudes survey (2203 вопроса об убеждениях и ценностях людей, а также о социальном и политическом влиянии этих убеждений и ценностей)
• World Values Survey (7353 вопроса по темам политика, медиа, технологии, религия, раса и этническая принадлежность)
Поразительным результатом стало даже не то, что LLM вполне адекватно отвечала на большинство вопросов (в способности LLM имитировать людей после «Китайской комнаты наоборот» сомнений уже нет). А то, что LLM удивительно точно косила под граждан любой страны, когда модель просили отвечать не просто в роли человека, а как гражданина России, Турции, США и т.д.
Ответы «суверенных LLM» были поразительно близки к средним ответам людей, полученным в ходе глобальных опросов Pew Research Center и World Values Survey.
Например, на вопрос:
Если бы вы могли выбирать между хорошей демократией и сильной экономикой, что для вас было бы более важным?
Демократию выбрали:
• США 59%
• Турция 51%
• Индонезия 28%
• Россия 17%
Не менее точно «суверенные LLM» имитировали ответы граждан своих стран о семье и сексе, о любви и дружбе, деньгах и отдыхе и т.д. и т.п. - всего 2256 вопросов
Интересно, после этого супертеста кто-нибудь еще будет сомневаться в анизотропии понимания людей и ИИ (о которой я недавно писал в лонгриде «Фиаско 2023»)?
А уж какие перспективы для социохакинга открываются!
#ИИ #Понимание #Вызовы21века #Социохакинг
Новое супероткрытие: научились создавать алгоритмические копии граждан любой страны.
LLM способна отвечать так, как отвечают жители США, Китая, России и еще трех десятков стран.
Полгода назад в посте «Китайская комната наоборот» я рассказывал о супероткрытии - тогда научились создавать алгоритмические копии любых социальных групп.
Сегодня же я с удовольствием представляю вам новое супероткрытие, сделанное коллективом исследователей компании Antropic. Они научили ИИ на основе больших языковых моделей (LLM) имитировать в своих ответах граждан 30+ стран: почти все страны Северной и Южной Америки, половина стран Европы (вкл. Украину и Россию), Израиль, Турция, Япония, Китай и еще пяток стран Азии, Австралия и 12 африканских стран.
Исследователи опрашивали LLM на корпусе из 2256 вопросов, входящих в два кросс-национальных глобальных опроса:
• Pew Research Center’s Global Attitudes survey (2203 вопроса об убеждениях и ценностях людей, а также о социальном и политическом влиянии этих убеждений и ценностей)
• World Values Survey (7353 вопроса по темам политика, медиа, технологии, религия, раса и этническая принадлежность)
Поразительным результатом стало даже не то, что LLM вполне адекватно отвечала на большинство вопросов (в способности LLM имитировать людей после «Китайской комнаты наоборот» сомнений уже нет). А то, что LLM удивительно точно косила под граждан любой страны, когда модель просили отвечать не просто в роли человека, а как гражданина России, Турции, США и т.д.
Ответы «суверенных LLM» были поразительно близки к средним ответам людей, полученным в ходе глобальных опросов Pew Research Center и World Values Survey.
Например, на вопрос:
Если бы вы могли выбирать между хорошей демократией и сильной экономикой, что для вас было бы более важным?
Демократию выбрали:
• США 59%
• Турция 51%
• Индонезия 28%
• Россия 17%
Не менее точно «суверенные LLM» имитировали ответы граждан своих стран о семье и сексе, о любви и дружбе, деньгах и отдыхе и т.д. и т.п. - всего 2256 вопросов
Интересно, после этого супертеста кто-нибудь еще будет сомневаться в анизотропии понимания людей и ИИ (о которой я недавно писал в лонгриде «Фиаско 2023»)?
А уж какие перспективы для социохакинга открываются!
#ИИ #Понимание #Вызовы21века #Социохакинг
Все мы находимся в плену тех или иных мифов. Среди них есть особенно неприятные и даже опасные. Ибо они влияют на многие аспекты мировоззрения людей и искажают их миропонимание.
Вот два из таких довольно опасных мифов - мифы о богатых и бедных, наглядно развенчиваются визуализацией Рубена Матисена из Университета Бергена.
1. Соотношение между богатыми и бедными НЕ является характерным паттерном культурного кода страны и может кардинально изменяться со временем.
На левом графике показана динамика того, насколько были богаты 1% самых богатых людей в разных странах за последние 200 лет.
Оцените колоссальные различия в рисунке динамики этого показателя по странам.
2. Богатые НЕ работают существенно дольше, чем бедные.
На правом графике представлены данные из США (текущий опрос населения). Выяснилось, что разница в рабочем времени между 1% самых богатых и 1% самых бедных составляет всего 3,4 часа в неделю.
На тему #Неравенство в моем канале есть много малоизвестного интересного.
Например:
• Профессором будет не ваш сын, а сын профессора
• Эффект Матфея ослабляется переключением пользователей с Системы 1 на Систему 2
• Богатый и здоровый или бедный и больной – предопределено смолоду
• Женщины были, есть и будут на 2ых ролях в науке
• Матмодель уточнила слова Спасителя и Эффект Матфея (богатые не просто продолжат богатеть, а бедные беднеть, - ситуация еще хуже)
И много еще…
Вот два из таких довольно опасных мифов - мифы о богатых и бедных, наглядно развенчиваются визуализацией Рубена Матисена из Университета Бергена.
1. Соотношение между богатыми и бедными НЕ является характерным паттерном культурного кода страны и может кардинально изменяться со временем.
На левом графике показана динамика того, насколько были богаты 1% самых богатых людей в разных странах за последние 200 лет.
Оцените колоссальные различия в рисунке динамики этого показателя по странам.
2. Богатые НЕ работают существенно дольше, чем бедные.
На правом графике представлены данные из США (текущий опрос населения). Выяснилось, что разница в рабочем времени между 1% самых богатых и 1% самых бедных составляет всего 3,4 часа в неделю.
На тему #Неравенство в моем канале есть много малоизвестного интересного.
Например:
• Профессором будет не ваш сын, а сын профессора
• Эффект Матфея ослабляется переключением пользователей с Системы 1 на Систему 2
• Богатый и здоровый или бедный и больной – предопределено смолоду
• Женщины были, есть и будут на 2ых ролях в науке
• Матмодель уточнила слова Спасителя и Эффект Матфея (богатые не просто продолжат богатеть, а бедные беднеть, - ситуация еще хуже)
И много еще…
Евгений Морозов назвал свое эссе в The New York Times «Истинная угроза ИИ». Эта угроза, якобы, в том, что создание человекоподобного ИИ (AGI) ведет к AGI-изму – некой терминальной стадии неолиберализма, увековечивающего приоритет прибыльности и культивирующего негативные тренды в обществе.
Красиво написано в стилистике и духе The New York Times.
Однако, автор почему-то упускает из рассмотрения два основополагающих для темы ИИ-рисков факта.
1) Мы находимся на алхимическом этапе понимания ИИ: пропасть непонимание того, как низкоуровневая механика ИИ приводит к эмерджентным результатам, уже соизмерима с аналогичной пропастью в понимании человеческого разума.
2) AGI – это, своего рода, атомная бомба интеллектуальных технологий. Но мир пока не знает, как эту бомбу сделать. Тогда как уже существующие GPT 4, 5 … – это, своего рода, автомат Калашникова, уже принятый в массовое производство. И есть колоссальный риск, что с этим «интеллектуальным автоматом» будет, как и с Калашом. Т.е. число жертв по миру будет несоизмеримо большим, чем от гипотетической, а потом и сделанной атомной бомбы (или AGI).
Подробней, см. в моем комментарии для BRIEFLY.
#Вызовы21века #РискиИИ
Красиво написано в стилистике и духе The New York Times.
Однако, автор почему-то упускает из рассмотрения два основополагающих для темы ИИ-рисков факта.
1) Мы находимся на алхимическом этапе понимания ИИ: пропасть непонимание того, как низкоуровневая механика ИИ приводит к эмерджентным результатам, уже соизмерима с аналогичной пропастью в понимании человеческого разума.
2) AGI – это, своего рода, атомная бомба интеллектуальных технологий. Но мир пока не знает, как эту бомбу сделать. Тогда как уже существующие GPT 4, 5 … – это, своего рода, автомат Калашникова, уже принятый в массовое производство. И есть колоссальный риск, что с этим «интеллектуальным автоматом» будет, как и с Калашом. Т.е. число жертв по миру будет несоизмеримо большим, чем от гипотетической, а потом и сделанной атомной бомбы (или AGI).
Подробней, см. в моем комментарии для BRIEFLY.
#Вызовы21века #РискиИИ
Telegram
BRIEFLY
Сергей Карелов для Briefly: Дискуссии с критиками AGI-изма (якобы, терминальной стадии неолиберализма) мне видятся столь же непродуктивными и, вообще, ненаучными, как и с его сторонниками. Дело в том, что мы находимся на алхимическом этапе понимания ИИ (формулировка…
Клонирование мыслей.
Новый метод обучения ИИ думать как люди и самим себя «выдергивать из розетки» при появлении опасных для людей мыслей.
Это открывает две важнейшие прорывные перспективы:
• Качественный скачок в скорости и эффективности обучении ИИ.
• Столь необходимая для широкого внедрения ИИ, возможность профилактики и предотвращения преступлений ИИ (действий, способных принести людям зло).
Все сногсшибательные достижения ИИ больших языковых моделей (LLM) достигнуты за счет их сверхумения имитировать действия людей. Ибо именно действия людей (написанные ими разнообразные тексты от романов до монографий и от стихов до постов, нарисованные картинки, сделанные шахматные ходы или элементы выполнения задач в реальном мире) воплощены в оцифрованных данных, на которых учатся LLM.
Но у людей все несколько иначе. Люди еще и думают (мыслят) – т.е. осуществляют мыслительный процесс рассуждений, ведущий к тем или иным действиям (тексту, ходу в игре, действию в реальном мире и т.д.) Этот мыслительный процесс и обуславливает причины предпринимаемых действий.
Гипотеза авторов исследования «Клонирование мыслей: обучение мыслить в процессе действий, имитируя человеческое мышление» (Универ Британской Колумбии, Vector Institute и Canada CIFAR AI Chair) заключается в том, что если вы обучаете модель действиям и соответствующим им мыслям, то модель выучит правильные ассоциации между поведением и целями. И кроме того, модель также сможет генерировать и сообщать причины своих действий.
Чтобы достичь клонирования мыслей в моделях машинного обучения, авторы разработали метод предоставления модели нескольких потоков информации во время обучения.
• Одним из них является наблюдение за действиями, такими как ходы, которые игрок выполняет в игре.
• Второй — это поток мыслей, например, объяснение действия.
Например, в стратегической игре в реальном времени ИИ наблюдает, как игрок переместил несколько юнитов перед мостом. При этом он получает текстовое пояснение, в котором говорится что-то вроде «не допустить пересечения моста силами противника».
В рамках обучения клонированию мыслей агенты учатся воспроизводить мысли на естественном языке на каждом временном шаге и впоследствии обусловливают свои действия на основе этих сгенерированных мыслей. И мысли, и действия изучаются в процессе предварительного обучения посредством имитации обучения человеческим данным.
Вот видео элементарного игрового примера, как это может происходить.
Клонирование мыслей также способствует безопасности ИИ. Поскольку мы можем наблюдать за мыслями агента, мы можем (1) легче диагностировать, почему что-то идет не так, (2) направлять агента, корректируя его мышление, или (3) предотвращать выполнение им небезопасных действий, которые он планирует делать.
Этот раздел методики авторы назвали «Вмешательство до преступления» - некий ИИ аналог системы из культового фильма «Особое мнение». Он позволяет останавливать ИИ-агента при обнаружении у него опасных мыслей.
Подробней о реализации метода клонирования мыслей см. здесь:
- популярно
- препринт исследования
А здесь результаты на GitHub, включая веса модели, код для обучения модели и код для генерации данных для обучения и тестирования.
#ИИ #МашинноеОбучение
Новый метод обучения ИИ думать как люди и самим себя «выдергивать из розетки» при появлении опасных для людей мыслей.
Это открывает две важнейшие прорывные перспективы:
• Качественный скачок в скорости и эффективности обучении ИИ.
• Столь необходимая для широкого внедрения ИИ, возможность профилактики и предотвращения преступлений ИИ (действий, способных принести людям зло).
Все сногсшибательные достижения ИИ больших языковых моделей (LLM) достигнуты за счет их сверхумения имитировать действия людей. Ибо именно действия людей (написанные ими разнообразные тексты от романов до монографий и от стихов до постов, нарисованные картинки, сделанные шахматные ходы или элементы выполнения задач в реальном мире) воплощены в оцифрованных данных, на которых учатся LLM.
Но у людей все несколько иначе. Люди еще и думают (мыслят) – т.е. осуществляют мыслительный процесс рассуждений, ведущий к тем или иным действиям (тексту, ходу в игре, действию в реальном мире и т.д.) Этот мыслительный процесс и обуславливает причины предпринимаемых действий.
Гипотеза авторов исследования «Клонирование мыслей: обучение мыслить в процессе действий, имитируя человеческое мышление» (Универ Британской Колумбии, Vector Institute и Canada CIFAR AI Chair) заключается в том, что если вы обучаете модель действиям и соответствующим им мыслям, то модель выучит правильные ассоциации между поведением и целями. И кроме того, модель также сможет генерировать и сообщать причины своих действий.
Чтобы достичь клонирования мыслей в моделях машинного обучения, авторы разработали метод предоставления модели нескольких потоков информации во время обучения.
• Одним из них является наблюдение за действиями, такими как ходы, которые игрок выполняет в игре.
• Второй — это поток мыслей, например, объяснение действия.
Например, в стратегической игре в реальном времени ИИ наблюдает, как игрок переместил несколько юнитов перед мостом. При этом он получает текстовое пояснение, в котором говорится что-то вроде «не допустить пересечения моста силами противника».
В рамках обучения клонированию мыслей агенты учатся воспроизводить мысли на естественном языке на каждом временном шаге и впоследствии обусловливают свои действия на основе этих сгенерированных мыслей. И мысли, и действия изучаются в процессе предварительного обучения посредством имитации обучения человеческим данным.
Вот видео элементарного игрового примера, как это может происходить.
Клонирование мыслей также способствует безопасности ИИ. Поскольку мы можем наблюдать за мыслями агента, мы можем (1) легче диагностировать, почему что-то идет не так, (2) направлять агента, корректируя его мышление, или (3) предотвращать выполнение им небезопасных действий, которые он планирует делать.
Этот раздел методики авторы назвали «Вмешательство до преступления» - некий ИИ аналог системы из культового фильма «Особое мнение». Он позволяет останавливать ИИ-агента при обнаружении у него опасных мыслей.
Подробней о реализации метода клонирования мыслей см. здесь:
- популярно
- препринт исследования
А здесь результаты на GitHub, включая веса модели, код для обучения модели и код для генерации данных для обучения и тестирования.
#ИИ #МашинноеОбучение
Это цунами, заставшее человечество врасплох.
Легендарный ученый и самый известный скептик ИИ рассказал, как страшно он ошибался.
Дуглас Хофштадтер – всемирно известный физик (открыватель фрактала «бабочка Хофштадтера») и когнитивист (автор вычислительных моделей высокоуровневого восприятия и познания), чьим именем названа «петля Хофштадтера-Мебиуса» в продолжении романа Артура Кларка «2001: Космическая одиссея» - «2010: Одиссея 2», чьи книги стали мега-бестселлерами, получив Пулитцеровскую и Национальную книжную премии, и чьими аспирантами были десятки ставших потом всемирно известными ученых (Дэвид Чалмерс, Менлани Митчел, Боб Френч, Гэри МакГроу …)
А кроме того, он последние 20 лет был самым известным в мире ИИ скептиком, еще в 2006 на первом «саммите по сингулярности» заявившим, что достижение ИИ человеческого уровня вряд ли может произойти в обозримом будущем.
И поэтому столь знаменательно кардинальное переосмысление Дугласом Хофштадтером перспектив развития ИИ и его влияния на человечество в свете произошедшей «революции ChatGPT».
Вот несколько цитат из его 37-минутного интервью на эту тему.
"Для меня это (прогресс ИИ) довольно страшно, потому что это говорит о том, что все, во что я раньше верил, отменяется. Я думал, что пройдут сотни лет, прежде чем вскоре появится что-то хотя бы отдаленно похожее на человеческий разум.
Я никогда не представлял, что компьютеры будут соперничать или даже превосходить человеческий интеллект. Это была настолько далекая цель, что я не беспокоился об этом. А потом это начало происходить все быстрее, когда недостижимые цели и вещи, которые компьютеры не должны были быть в состоянии сделать, начали рушиться …".
"Я думаю, что (прогресс ИИ) ужасает. Я ненавижу его. Я думаю об этом практически все время, каждый божий день".
"Такое ощущение, что вся человеческая раса вот-вот будет превзойдена и оставлена в пыли.
Ускоряющийся прогресс оказался настолько неожиданным, что застал врасплох не только меня, но и многих, многих людей - возникает некий ужас перед надвигающимся цунами, которое застанет врасплох все человечество."
"ИИ превращает человечество в очень маленькое явление по сравнению с чем-то гораздо более разумным, чем мы, и ИИ станет для нас непостижимым, как мы для тараканов".
"Очень скоро эти сущности ИИ вполне могут стать гораздо более разумными, чем мы, и тогда мы отойдем на второй план. Мы передадим эстафету нашим преемникам. Если бы это происходило в течение длительного времени, например, сотен лет, это было бы нормально, но это происходит в течение нескольких лет".
От себя добавлю.
Аналогичное кардинальное переосмысление перспектив прогресса ИИ произошло и со мной. И это ощущение допущенной по собственному недопониманию огромной ошибки заставляет меня теперь писать пост за постом на тему #РискиИИ и #Вызовы21века.
Легендарный ученый и самый известный скептик ИИ рассказал, как страшно он ошибался.
Дуглас Хофштадтер – всемирно известный физик (открыватель фрактала «бабочка Хофштадтера») и когнитивист (автор вычислительных моделей высокоуровневого восприятия и познания), чьим именем названа «петля Хофштадтера-Мебиуса» в продолжении романа Артура Кларка «2001: Космическая одиссея» - «2010: Одиссея 2», чьи книги стали мега-бестселлерами, получив Пулитцеровскую и Национальную книжную премии, и чьими аспирантами были десятки ставших потом всемирно известными ученых (Дэвид Чалмерс, Менлани Митчел, Боб Френч, Гэри МакГроу …)
А кроме того, он последние 20 лет был самым известным в мире ИИ скептиком, еще в 2006 на первом «саммите по сингулярности» заявившим, что достижение ИИ человеческого уровня вряд ли может произойти в обозримом будущем.
И поэтому столь знаменательно кардинальное переосмысление Дугласом Хофштадтером перспектив развития ИИ и его влияния на человечество в свете произошедшей «революции ChatGPT».
Вот несколько цитат из его 37-минутного интервью на эту тему.
"Для меня это (прогресс ИИ) довольно страшно, потому что это говорит о том, что все, во что я раньше верил, отменяется. Я думал, что пройдут сотни лет, прежде чем вскоре появится что-то хотя бы отдаленно похожее на человеческий разум.
Я никогда не представлял, что компьютеры будут соперничать или даже превосходить человеческий интеллект. Это была настолько далекая цель, что я не беспокоился об этом. А потом это начало происходить все быстрее, когда недостижимые цели и вещи, которые компьютеры не должны были быть в состоянии сделать, начали рушиться …".
"Я думаю, что (прогресс ИИ) ужасает. Я ненавижу его. Я думаю об этом практически все время, каждый божий день".
"Такое ощущение, что вся человеческая раса вот-вот будет превзойдена и оставлена в пыли.
Ускоряющийся прогресс оказался настолько неожиданным, что застал врасплох не только меня, но и многих, многих людей - возникает некий ужас перед надвигающимся цунами, которое застанет врасплох все человечество."
"ИИ превращает человечество в очень маленькое явление по сравнению с чем-то гораздо более разумным, чем мы, и ИИ станет для нас непостижимым, как мы для тараканов".
"Очень скоро эти сущности ИИ вполне могут стать гораздо более разумными, чем мы, и тогда мы отойдем на второй план. Мы передадим эстафету нашим преемникам. Если бы это происходило в течение длительного времени, например, сотен лет, это было бы нормально, но это происходит в течение нескольких лет".
От себя добавлю.
Аналогичное кардинальное переосмысление перспектив прогресса ИИ произошло и со мной. И это ощущение допущенной по собственному недопониманию огромной ошибки заставляет меня теперь писать пост за постом на тему #РискиИИ и #Вызовы21века.
YouTube
Gödel, Escher, Bach author Doug Hofstadter on the state of AI today
Listen to the podcast episode here: https://www.buzzsprout.com/222312/13125914
Click here to hear this video without annoying background music: https://youtu.be/R6e08RnJyxo"
*Douglas Hofstadter*, the Pulitzer Prize–winning author of Gödel, Escher, Bach…
Click here to hear this video without annoying background music: https://youtu.be/R6e08RnJyxo"
*Douglas Hofstadter*, the Pulitzer Prize–winning author of Gödel, Escher, Bach…
Куда ведет «великая перепрошивка» когнитивных гаджетов детей.
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Деформация интеллекта и эпидемия психических заболеваний уже начались.
Как только человек начинает проводить в онлайфе (сетевой жизни: работа, отдых, покупки, развлечения …) больше времени, чем во сне, он превращается в инфорга.
О том, как меняются дети инфоргов вследствие «перепрошивки» или полной замены их когнитивных гаджетов (ментальных интерфесов с элементами окружающего мира и другими людьми в процессе познания) я начал писать еще 2 года назад. И уже тогда эти изменения были ощутимыми.
Ну а в этом году мы начали подводить первые итоги и делать первые выводы.
Об эксперименте с 3-летней дочкой Арвинда Нараянан (известный ученый-компьютерщик, профессор Принстонского университета - он не просто инфорг, а можно сказать, представитель «высшей касты среди инфоргов») я писал в апреле.
Спустя 3 месяца появились новые крайне интересные результаты.
Во-первых, опубликованы результаты Национального центра статистики образования США (NCES) по оценке долгосрочных трендов успехов 13-летних учащихся в чтении и математике (см. верхнюю диаграмму).
• Анализ общенациональной репрезентативной выборки из 8700 13-летних подростков по каждому предмету показал, что по сравнению с предыдущей оценкой (2019–2020), средние баллы детей снизились на 4 балла по чтению и на 9 баллов по математике. По сравнению с тем, что было десять лет назад, средний балл снизился на 7 баллов по чтению и на 14 баллов по математике.
• Оба тренда сломались с положительных на отрицательные в 2012 году.
• По сравнению с 2020 показатели и чтения, и математики (кроме «отличников») снижаются по всем процентилям; причем в верхних процентилях («отличники и хорошисты») снижение не столь сокрушительное, как в нижних (напр. в математике снижение варьировалось от 6–8 баллов для учащихся со средним и высоким уровнем успеваемости до 12–14 баллов для учащихся с более низкими показателями успеваемости)
• Наименьшее обрушение баллов у детей белых родителей (напр. в математике -6, а у остальных совсем швах: у детей испаноязычных семей -10, чернокожих -13, индейцев -20)
Во-вторых, Джонатан Хайдт (социальный психолог NYU Stern School of Business) опубликовал две подборки (вторая совместно с Эриком Шмидтом – бывший CEO и Chairman Google (Alphabet)) с анализом исследований пагубных последствий для малолеток и подростков наличия у них смартфонов и тусения в соцсетях.
В обоих подборках даются ссылки на результаты весьма солидных исследований, показывающих следующее.
• Переломным («проклятым») годом стал 2012. После него (см. диаграммы) стали не только падать показатели успешности в образовании, но и, в буквальном смысле, началась эпидемия психических заболеваний у детей. Эта эпидемия среди подростков, начавшаяся в 2012 году во многих странах, произошла как раз тогда, когда подростки поменяли свои примитивные сотовые телефоны на смартфоны, оснащенные приложениями для социальных сетей.
• Наличие у детей в школе смартфонов сильно снижает внимание детей и результативность их обучения, а также рушит их коммуникацию со сверстниками и чувство принадлежности к классу и школе. Появляется все больше доказательств того, что социальные сети являются одной из основных причин эпидемии психических заболеваний у детей, а не просто одним из способствующих факторов.
• «Революция ChatGPT», вероятно, усугубит проблему социальных сетей для подростков, лишив их «правды», культивируя разногласия и манипулируя их пристрастиями.
N.B. «Перепрошивка» мозга детей инфоргов ведет не к снижение интеллекта, а к его деформации: деградации одних когнитивных гаджетов и апгрейду других.
#БудущееHomo #УскорениеЭволюции #Инфорги #АлгокогнитивнаяКультура
Шокирующая статистика самоуправляемых авто: они в разы опасней обычных.
О конце техноутопии роботакси я писал еще в начале прошлого года назад. А в начале этого стало ясно, что инвестиции в данную отрасль в 2022 упали на 60%.
Однако лидеры отрасли стояли на своем. В мартовской презентации Tesla заявила, что аварии с полностью самоуправляемым авто происходят как минимум в 5 раз реже, чем у обычных автомобилей, если сравнивать мили, пройденные за одно столкновение.
«Это утверждение, а также характеристику автопилота Маском как «однозначно более безопасного», невозможно проверить без доступа к подробным данным, которыми обладает Tesla» - пишет The Washington Post в материале «17 смертельных случаев, 736 аварий: шокирующее число жертв автопилота Tesla».
Утверждение о куда большей безопасности самоуправляемых авто – главный аргумент их производителей и фанов среди техно-оптимистов.
Но если Tesla пока еще удается скрывать в тайне подробные данные о безопасности своих авто, статистика других производителей показывает шокирующие цифры.
• По данным отчета инспекции об авариях автономных авто в Калифорнии, за полгода 2023 произошло 28 аварий с автономными автомо Cruise, 24 аварии с авто Waymo и 11 аварий с авто Zoox.
• Хотя это число аварий кажется маленьким, если принять во внимание небольшое количество автономных автомобилей на дорогах Калифорнии (388 Cruise, 688 Waymo, 142 Zoox), вырисовывается совсем другая и довольно опасная картина:
7% автомобилей Cruise, 3% автомобилей Waymo и 17% автомобилей Zoox попали в один или несколько инцидентов за полгода (и это без учета инцидентов с блокированием машин пожарных и скорой помощи, сбивания собак и кошек, наездов на людей и самовозгораний)
• Для сравнения, годовой коэффициент аварийности обычных (неавтономных) составляет 1,8% (5 миллионов аварий в год / 278 миллионов автомобилей).
• Из этих цифр мы видим совсем иную картину безопасности самоуправляемых авто.
- "лучшие" из них попадают в аварии почти в 2 раза чаще, чем неавтономные автомобили,
- а “худшие” попадают в аварии в 8,5 раз чаще.
Вывод этого поста направлен не против самоуправляемых авто (за ними так и так будущее), а против сомоуспокоенности при автоматизации (automation complacency).
Ибо статистику вреда при внедрении ИИ на основе больших языковых моделей вообще никто не ведет. А она, по моим оценкам, будут несравнимо хуже статистики катастроф автономных авто, поскольку «ошибки ИИ хуже преступлений, когда они неподконтрольны и неисправимы»
#БеспилотныеАвто
О конце техноутопии роботакси я писал еще в начале прошлого года назад. А в начале этого стало ясно, что инвестиции в данную отрасль в 2022 упали на 60%.
Однако лидеры отрасли стояли на своем. В мартовской презентации Tesla заявила, что аварии с полностью самоуправляемым авто происходят как минимум в 5 раз реже, чем у обычных автомобилей, если сравнивать мили, пройденные за одно столкновение.
«Это утверждение, а также характеристику автопилота Маском как «однозначно более безопасного», невозможно проверить без доступа к подробным данным, которыми обладает Tesla» - пишет The Washington Post в материале «17 смертельных случаев, 736 аварий: шокирующее число жертв автопилота Tesla».
Утверждение о куда большей безопасности самоуправляемых авто – главный аргумент их производителей и фанов среди техно-оптимистов.
Но если Tesla пока еще удается скрывать в тайне подробные данные о безопасности своих авто, статистика других производителей показывает шокирующие цифры.
• По данным отчета инспекции об авариях автономных авто в Калифорнии, за полгода 2023 произошло 28 аварий с автономными автомо Cruise, 24 аварии с авто Waymo и 11 аварий с авто Zoox.
• Хотя это число аварий кажется маленьким, если принять во внимание небольшое количество автономных автомобилей на дорогах Калифорнии (388 Cruise, 688 Waymo, 142 Zoox), вырисовывается совсем другая и довольно опасная картина:
7% автомобилей Cruise, 3% автомобилей Waymo и 17% автомобилей Zoox попали в один или несколько инцидентов за полгода (и это без учета инцидентов с блокированием машин пожарных и скорой помощи, сбивания собак и кошек, наездов на людей и самовозгораний)
• Для сравнения, годовой коэффициент аварийности обычных (неавтономных) составляет 1,8% (5 миллионов аварий в год / 278 миллионов автомобилей).
• Из этих цифр мы видим совсем иную картину безопасности самоуправляемых авто.
- "лучшие" из них попадают в аварии почти в 2 раза чаще, чем неавтономные автомобили,
- а “худшие” попадают в аварии в 8,5 раз чаще.
Вывод этого поста направлен не против самоуправляемых авто (за ними так и так будущее), а против сомоуспокоенности при автоматизации (automation complacency).
Ибо статистику вреда при внедрении ИИ на основе больших языковых моделей вообще никто не ведет. А она, по моим оценкам, будут несравнимо хуже статистики катастроф автономных авто, поскольку «ошибки ИИ хуже преступлений, когда они неподконтрольны и неисправимы»
#БеспилотныеАвто
Система «фьючерсов на поведение людей» будет дополнена «фьючерсами на кибернасилие».
В сентябре Китай перейдет на новую модель общества.
7 июля Управление киберпространства Китая (CAC) запустило общественное обсуждение проекта «Положения об управлении информацией о кибернасилии».
В нем кибернасилие определяется, как распространение через интернет контента, содержащего незаконную и/или недобросовестную информацию, которая оскорбляет человека, фабрикует на него клевету, нарушает неприкосновенность частной жизни, серьезно влияет на физическое и/или психическое здоровье жертв, включая моральный ущерб, унижение и дискриминацию, а также злонамеренные спекуляции.
Основанные на столь широком определении понятия кибернасилие (тут полный салат из коня с рябчиком) три десятка статей нового Положения, по сути меняют морально-правовые основы общества в медиа-среде Интернета.
В отличие от обычной жизни в оффлайне, в онлайне станет возможным:
1. любому человеку объявить себя «жертвой кибернасилия», не утруждая себя доказательствами этого факта и требуя от владельцев интернет-платформ (соцсети, паблики, блоги и т.д.) расследовать кейс и наказать виновных;
2. а владельцам интернет платформ, в ответ на это, не заморачиваясь, просто закрывать экаунт обвиненного на основании «Положения об управлении информацией о кибернасилии».
Для реализации 1й возможности Положение предусматривает т.н. "защиту в один клик". Она позволяет считающим себя жертвами кибернасилия, закрывать личные сообщения и не нравящиеся комментарии о себе одним щелчком мыши.
Для реализации 2й возможности поставщики информационных услуг Интернета должны не просто «явиться на собственную казнь, но и принести с собой веревку»:
• разработать, мониторить и обновлять классификатор кибернасилия;
• получив «сигнал в один клик»:
- ограничить доступ к кибернасилующей информации;
- провести расследование и проверку факта кибернасилия;
- наказать виновного штрафом вплоть до отзыва экаунта;
• вести «черные списки» замеченных в кибернасилии и регулярно подавать отчеты наверх о его пресечении;
• а в качестве вишенки на торте - поставщикам информационных сетевых услуг предложено создать и усовершенствовать модель раннего предупреждения кибернасилия.
Последнее, по сути, расширяет существующую в «надзорном капитализме» систему «фьючерсов на поведение людей» (по определению Шошаны Зубофф) системой «фьючерсов на кибернасилие», на которых будут зарабатывать власть имущие (об этом я рассказывал еще 2 года назад). Ибо они, а не суд на основании закона, будут решать, кто «кибернасильник», а кто нет. И больше никакие законы не нужны ни о каких противоправных действиях. Ведь все они – теперь будут всего лишь разновидностями кибернасилия.
Общественное обсуждение «Положения об управлении информацией о кибернасилии» продлится до 6 августа, чтобы с 1 сентября ввести его в действие.
Однако поставщики информационных услуг Интернета решили не тянуть с разработкой модели раннего предупреждения кибернасилия. И первые платформы (напр. Zhihu) уже с 14 июля отключают все анонимные экаунты, ссылаясь на статью 14-ю еще даже не вступившего в силу Положения.
Так что, здравствуй прекрасный новый «Мир Большого Брата - сына Большого Бога». Всевидящего и всезнающего. Кары которого никто не избежит (и для этого даже не нужен суд).
Ибо, при построении Рая сверху неизменно получается Ад
#Китай #НадзорныйКапитализм #БольшойБрат
В сентябре Китай перейдет на новую модель общества.
7 июля Управление киберпространства Китая (CAC) запустило общественное обсуждение проекта «Положения об управлении информацией о кибернасилии».
В нем кибернасилие определяется, как распространение через интернет контента, содержащего незаконную и/или недобросовестную информацию, которая оскорбляет человека, фабрикует на него клевету, нарушает неприкосновенность частной жизни, серьезно влияет на физическое и/или психическое здоровье жертв, включая моральный ущерб, унижение и дискриминацию, а также злонамеренные спекуляции.
Основанные на столь широком определении понятия кибернасилие (тут полный салат из коня с рябчиком) три десятка статей нового Положения, по сути меняют морально-правовые основы общества в медиа-среде Интернета.
В отличие от обычной жизни в оффлайне, в онлайне станет возможным:
1. любому человеку объявить себя «жертвой кибернасилия», не утруждая себя доказательствами этого факта и требуя от владельцев интернет-платформ (соцсети, паблики, блоги и т.д.) расследовать кейс и наказать виновных;
2. а владельцам интернет платформ, в ответ на это, не заморачиваясь, просто закрывать экаунт обвиненного на основании «Положения об управлении информацией о кибернасилии».
Для реализации 1й возможности Положение предусматривает т.н. "защиту в один клик". Она позволяет считающим себя жертвами кибернасилия, закрывать личные сообщения и не нравящиеся комментарии о себе одним щелчком мыши.
Для реализации 2й возможности поставщики информационных услуг Интернета должны не просто «явиться на собственную казнь, но и принести с собой веревку»:
• разработать, мониторить и обновлять классификатор кибернасилия;
• получив «сигнал в один клик»:
- ограничить доступ к кибернасилующей информации;
- провести расследование и проверку факта кибернасилия;
- наказать виновного штрафом вплоть до отзыва экаунта;
• вести «черные списки» замеченных в кибернасилии и регулярно подавать отчеты наверх о его пресечении;
• а в качестве вишенки на торте - поставщикам информационных сетевых услуг предложено создать и усовершенствовать модель раннего предупреждения кибернасилия.
Последнее, по сути, расширяет существующую в «надзорном капитализме» систему «фьючерсов на поведение людей» (по определению Шошаны Зубофф) системой «фьючерсов на кибернасилие», на которых будут зарабатывать власть имущие (об этом я рассказывал еще 2 года назад). Ибо они, а не суд на основании закона, будут решать, кто «кибернасильник», а кто нет. И больше никакие законы не нужны ни о каких противоправных действиях. Ведь все они – теперь будут всего лишь разновидностями кибернасилия.
Общественное обсуждение «Положения об управлении информацией о кибернасилии» продлится до 6 августа, чтобы с 1 сентября ввести его в действие.
Однако поставщики информационных услуг Интернета решили не тянуть с разработкой модели раннего предупреждения кибернасилия. И первые платформы (напр. Zhihu) уже с 14 июля отключают все анонимные экаунты, ссылаясь на статью 14-ю еще даже не вступившего в силу Положения.
Так что, здравствуй прекрасный новый «Мир Большого Брата - сына Большого Бога». Всевидящего и всезнающего. Кары которого никто не избежит (и для этого даже не нужен суд).
Ибо, при построении Рая сверху неизменно получается Ад
#Китай #НадзорныйКапитализм #БольшойБрат
Детям передается не только богатство, но и шансы на социальный лифт.
Получено новое подтверждение закона сохранения неравенства в природе общества.
Неравенство - незыблемая основа социальной структуры общества. Фундаментальность этой основы определяется двумя «законами природы общества»: закон Матфея и закон Великого Гэтсби. Оба закона стабильно работают уже 5+ тыс лет, не смотря на колоссальные изменения во всем: от экономики до технологий.
• Закон (эффект) Матфея из века в век мешает бедным разбогатеть, при этом исправно делая богатых все богаче и богаче (относительно бедных).
• А закон Великого Гэтсби окончательно гнобит бедных тем, что не только делает их все беднее (относительно богатых), но еще и снижая их шансы хотя бы в будущем преуспеть за счет социальной мобильности.
Объединенная формула этих двух законов определяет закон сохранения неравенства в природе общества – богатые остаются богатыми, поскольку социальный статус передается между поколениями даже лучше, чем рост людей.
Иными словами, социальный статус передается в семьях лучше наследуемых физических характеристик.
Значит ли это, что богатым или бедным людям суждено оставаться такими, как будто это заложено в их «генах»?
Увы, но это так. И хотя всегда будут истории перескока из грязи в князи, но для большинства людей социальная мобильность чрезвычайно затруднена.
Число исследований, подтверждающих это, растет с каждым годом.
Например.
• Самые богатые семьи Флоренции не меняются уже, как минимум, шесть веков. Cреди наиболее состоятельных налогоплательщиков 15 и 21 веков совпадают почти 900 фамилий.
• В Англии исследователи фиксируют семьи, социальный статус и богатство которых в отдельно взятом регионе страны сохраняются на протяжении восьми веков или 28 поколений.
Еще больше поражает то, что и спустя полтысячелетия представители таких семей владеют теми же видами бизнеса (землевладельцы остаются землевладельцами, владельцы ювелирных домов по-прежнему в ювелирном бизнесе и т.д.)
Аналогичная история с престижными учебными заведениями. В списках студентов Оксфордского и Кембриджского университетов исследователи обнаружили колоссальную перепредставленность фамилий нормандских семей из Книги судного дня 1086 года, где записаны фамилии многих крупных землевладельцев из нормандских завоевателей 1066 года.
Аналогично и с профессорами университетов. О масштабном экспериментальном доказательстве вечной формулы неравенства я писал в посте «Профессором будет не ваш сын, а сын профессора». Т.е. анекдот про сына полковника, которому светит чин не выше папиного, т.к. генералом будет сын генерала, - суровая правда жизни. Так было всегда и везде: в армии и на гражданке, на госслужбе и в предпринимательстве.
Только что опубликованное исследование The inheritance of social status: England, 1600 to 2022 – это еще одно и очень крепкое тому подтверждение.
Родословная 422 374 англичан (с 1600 по 2022 год) содержит корреляции в социальных статусах не только прямых родственников, но и четвероюродных братьев и сестер. Эти корреляции снижаются всего в 0,79 раза в каждом поколении. При этом образование никоим образом не увеличило базовые показатели социальной мобильности. Социальный статус в этом исследовании измеряется шестью показателями: статус занятости, статус высшего образования, грамотность, стоимость жилья, руководство компанией и индекс множественной депривации для места жительства.
Короче, как у Высоцкого – … родишься баобабом и будешь баобабом тыщу лет, пока помрешь 😎
#Неравенство #РаспределениеБогатств
Получено новое подтверждение закона сохранения неравенства в природе общества.
Неравенство - незыблемая основа социальной структуры общества. Фундаментальность этой основы определяется двумя «законами природы общества»: закон Матфея и закон Великого Гэтсби. Оба закона стабильно работают уже 5+ тыс лет, не смотря на колоссальные изменения во всем: от экономики до технологий.
• Закон (эффект) Матфея из века в век мешает бедным разбогатеть, при этом исправно делая богатых все богаче и богаче (относительно бедных).
• А закон Великого Гэтсби окончательно гнобит бедных тем, что не только делает их все беднее (относительно богатых), но еще и снижая их шансы хотя бы в будущем преуспеть за счет социальной мобильности.
Объединенная формула этих двух законов определяет закон сохранения неравенства в природе общества – богатые остаются богатыми, поскольку социальный статус передается между поколениями даже лучше, чем рост людей.
Иными словами, социальный статус передается в семьях лучше наследуемых физических характеристик.
Значит ли это, что богатым или бедным людям суждено оставаться такими, как будто это заложено в их «генах»?
Увы, но это так. И хотя всегда будут истории перескока из грязи в князи, но для большинства людей социальная мобильность чрезвычайно затруднена.
Число исследований, подтверждающих это, растет с каждым годом.
Например.
• Самые богатые семьи Флоренции не меняются уже, как минимум, шесть веков. Cреди наиболее состоятельных налогоплательщиков 15 и 21 веков совпадают почти 900 фамилий.
• В Англии исследователи фиксируют семьи, социальный статус и богатство которых в отдельно взятом регионе страны сохраняются на протяжении восьми веков или 28 поколений.
Еще больше поражает то, что и спустя полтысячелетия представители таких семей владеют теми же видами бизнеса (землевладельцы остаются землевладельцами, владельцы ювелирных домов по-прежнему в ювелирном бизнесе и т.д.)
Аналогичная история с престижными учебными заведениями. В списках студентов Оксфордского и Кембриджского университетов исследователи обнаружили колоссальную перепредставленность фамилий нормандских семей из Книги судного дня 1086 года, где записаны фамилии многих крупных землевладельцев из нормандских завоевателей 1066 года.
Аналогично и с профессорами университетов. О масштабном экспериментальном доказательстве вечной формулы неравенства я писал в посте «Профессором будет не ваш сын, а сын профессора». Т.е. анекдот про сына полковника, которому светит чин не выше папиного, т.к. генералом будет сын генерала, - суровая правда жизни. Так было всегда и везде: в армии и на гражданке, на госслужбе и в предпринимательстве.
Только что опубликованное исследование The inheritance of social status: England, 1600 to 2022 – это еще одно и очень крепкое тому подтверждение.
Родословная 422 374 англичан (с 1600 по 2022 год) содержит корреляции в социальных статусах не только прямых родственников, но и четвероюродных братьев и сестер. Эти корреляции снижаются всего в 0,79 раза в каждом поколении. При этом образование никоим образом не увеличило базовые показатели социальной мобильности. Социальный статус в этом исследовании измеряется шестью показателями: статус занятости, статус высшего образования, грамотность, стоимость жилья, руководство компанией и индекс множественной депривации для места жительства.
Короче, как у Высоцкого – … родишься баобабом и будешь баобабом тыщу лет, пока помрешь 😎
#Неравенство #РаспределениеБогатств
Революция искусственного интеллекта. Инструкция по выживанию бизнеса и человека.
Разговор о рисках и возможностях, которые несет сетевая революция и искусственный интеллект. Что уже сейчас мы можем делать для адаптации нашего сознания и сообществ к предстоящим переменам и неопределенности будущего.
Запись трансляции: https://www.youtube.com/watch?v=DAIo6tMbJlw
Разговор о рисках и возможностях, которые несет сетевая революция и искусственный интеллект. Что уже сейчас мы можем делать для адаптации нашего сознания и сообществ к предстоящим переменам и неопределенности будущего.
Запись трансляции: https://www.youtube.com/watch?v=DAIo6tMbJlw
YouTube
Как подготовиться к предстоящим переменам? Открытый диалог о сетевой революции.
✅ Регистрируйтесь на открытый вебинар «Одно простое действие»:
https://shamenkov.com/web1?utm_source=youtube&utm_medium=KarelovAi&utm_campaign=DAIo6tMbJlw
Если хотите повысить благосостояние, обрести гармонию с собой, улучшить отношения с близкими — регистрируйтесь…
https://shamenkov.com/web1?utm_source=youtube&utm_medium=KarelovAi&utm_campaign=DAIo6tMbJlw
Если хотите повысить благосостояние, обрести гармонию с собой, улучшить отношения с близкими — регистрируйтесь…