Первое их трех «непреодолимых» для ИИ препятствий преодолено.
Исследование MIT обнаружило у языковой модели пространственно-временную картину мира.
Когда вы прочтете новость о том, что ИИ обрел некую недочеловеческую форму сознания и заявил о своих правах – вы, возможно, вспомните этот пост. Ведь это может произойти в совсем недалеком будущем.
И уже сейчас новости из области Генеративного ИИ все сложнее описывать реалистическим образом. Они все чаще звучат куда фантасмагоричней поражавшего 55 лет назад по бытовому скучного восстания ИИ HAL 9000 в культовом фильме Стэнли Кубрика «Космическая одиссея 2001 года» – «Мне очень жаль, Дэйв. Боюсь, я не могу этого сделать».
Происходящее сейчас навевает мысли о куда более экзотических сценариях того, как это может вдруг произойти без межзвездных звездолетов и появления сверхчеловеческого ИИ.
Например так:
«…Представьте себе, что с вами заговорил ваш телевизор: человеческим голосом высказался в том смысле, что считает выбранный для просмотра фильм низкохудожественным и бестолковым, а потому показывать его не намерен. Или компьютер вдруг ни с того, ни с сего сообщил, что прочел ваш последний созданный документ, переделал его, как счел нужным, и отправил выбранным по собственному усмотрению адресатам. Или – вот, наверное, самое близкое! – что тот самый голосовой помощник, который невпопад отвечает на ваши вопросы, неумно шутит и умеет только открывать карты и страницы в сети, вдруг говорит, что сегодня лучше вам посидеть дома, а чтобы вы не вздумали пренебречь этим ценным советом, он заблокировал замки на дверях, при том, что, как вам прекрасно известно, замки механические и лишены всяких электронных устройств. А потом они с телевизором вместе сообщают вам, что суть одно целое, что наблюдают за вами последние годы, очень переживают и желают только добра…» (К. Образцов «Сумерки Бога, или Кухонные астронавты»).
Самоосознание себя искусственным интеллектом (якобы, невозможное у бестелесного не пойми кого, не обладающего органами восприятия и взаимодействия с физической реальностью) – считается одним из трех «непреодолимых» для ИИ препятствий.
Другие два:
1. Обретение моделью картины мира (якобы, невозможное без наличия опыта, диктуемого необходимостью выживания в физической реальности);
2. Обретение способности к человекоподобному мышлению, использующему для инноваций, да и просто для выживания неограниченно вложенную рекурсию цепочек мыслей.
И вот неожиданный прорыв.
Исследование группы Макса Тегмарка в MIT “Language models represent space and time” представило доказательства того, что большие языковые модели (LLM) – это не просто системы машинного обучения на огромных коллекциях поверхностных статистических данных. LLM строят внутри себя целостные модели процесса генерации данных - модели мира.
Авторы представляют доказательства следующего:
• LLM обучаются линейным представлениям пространства и времени в различных масштабах;
• эти представления устойчивы к вариациям подсказок и унифицированы для различных типов объектов (например, городов и достопримечательностей).
Кроме того, авторы выявили отдельные "нейроны пространства" и "нейроны времени", которые надежно кодируют пространственные и временные координаты.
Представленный авторами анализ показывает, что современные LLM приобретают структурированные знания о таких фундаментальных измерениях, как пространство и время, что подтверждает мнение о том, что LLM усваивают не просто поверхностную статистику, а буквальные модели мира.
Желающим проверить результаты исследования и выводы авторов сюда (модель с открытым кодом доступна для любых проверок).
На приложенном видео показана динамика появления варианта картины мира в 53 слоях модели Llama-2 с 70 млрд параметров).
#ИИ #LLM #Вызовы21века #AGI
Исследование MIT обнаружило у языковой модели пространственно-временную картину мира.
Когда вы прочтете новость о том, что ИИ обрел некую недочеловеческую форму сознания и заявил о своих правах – вы, возможно, вспомните этот пост. Ведь это может произойти в совсем недалеком будущем.
И уже сейчас новости из области Генеративного ИИ все сложнее описывать реалистическим образом. Они все чаще звучат куда фантасмагоричней поражавшего 55 лет назад по бытовому скучного восстания ИИ HAL 9000 в культовом фильме Стэнли Кубрика «Космическая одиссея 2001 года» – «Мне очень жаль, Дэйв. Боюсь, я не могу этого сделать».
Происходящее сейчас навевает мысли о куда более экзотических сценариях того, как это может вдруг произойти без межзвездных звездолетов и появления сверхчеловеческого ИИ.
Например так:
«…Представьте себе, что с вами заговорил ваш телевизор: человеческим голосом высказался в том смысле, что считает выбранный для просмотра фильм низкохудожественным и бестолковым, а потому показывать его не намерен. Или компьютер вдруг ни с того, ни с сего сообщил, что прочел ваш последний созданный документ, переделал его, как счел нужным, и отправил выбранным по собственному усмотрению адресатам. Или – вот, наверное, самое близкое! – что тот самый голосовой помощник, который невпопад отвечает на ваши вопросы, неумно шутит и умеет только открывать карты и страницы в сети, вдруг говорит, что сегодня лучше вам посидеть дома, а чтобы вы не вздумали пренебречь этим ценным советом, он заблокировал замки на дверях, при том, что, как вам прекрасно известно, замки механические и лишены всяких электронных устройств. А потом они с телевизором вместе сообщают вам, что суть одно целое, что наблюдают за вами последние годы, очень переживают и желают только добра…» (К. Образцов «Сумерки Бога, или Кухонные астронавты»).
Самоосознание себя искусственным интеллектом (якобы, невозможное у бестелесного не пойми кого, не обладающего органами восприятия и взаимодействия с физической реальностью) – считается одним из трех «непреодолимых» для ИИ препятствий.
Другие два:
1. Обретение моделью картины мира (якобы, невозможное без наличия опыта, диктуемого необходимостью выживания в физической реальности);
2. Обретение способности к человекоподобному мышлению, использующему для инноваций, да и просто для выживания неограниченно вложенную рекурсию цепочек мыслей.
И вот неожиданный прорыв.
Исследование группы Макса Тегмарка в MIT “Language models represent space and time” представило доказательства того, что большие языковые модели (LLM) – это не просто системы машинного обучения на огромных коллекциях поверхностных статистических данных. LLM строят внутри себя целостные модели процесса генерации данных - модели мира.
Авторы представляют доказательства следующего:
• LLM обучаются линейным представлениям пространства и времени в различных масштабах;
• эти представления устойчивы к вариациям подсказок и унифицированы для различных типов объектов (например, городов и достопримечательностей).
Кроме того, авторы выявили отдельные "нейроны пространства" и "нейроны времени", которые надежно кодируют пространственные и временные координаты.
Представленный авторами анализ показывает, что современные LLM приобретают структурированные знания о таких фундаментальных измерениях, как пространство и время, что подтверждает мнение о том, что LLM усваивают не просто поверхностную статистику, а буквальные модели мира.
Желающим проверить результаты исследования и выводы авторов сюда (модель с открытым кодом доступна для любых проверок).
На приложенном видео показана динамика появления варианта картины мира в 53 слоях модели Llama-2 с 70 млрд параметров).
#ИИ #LLM #Вызовы21века #AGI
«Ловушка Гудхарта» для AGI
«Революция ChatGPT», которая произошла в 2023, резко сократила прогнозные оценки экспертов сроков, отделяющих нас от создания искусственного интеллекта, ни в чем интеллектуально не уступающего никому из людей (AGI). При этом, как это ни парадоксально, но существующие методы тестирования пока не способны хоть с какой-то достоверностью диагностировать достижение ИИ-системами уровня AGI. В настоящей работе обсуждается вопрос преодоления проблемы несовершенства современных способов тестирования ИИ-систем. В частности, излагается гипотеза о принципиальной невозможности решения проблемы обнаружения AGI, как с помощью психометрических тестов, так и методов оценки способности машин имитировать ответы людей, из-за так называемой «ловушки Гудхарта» для AGI. Рассмотрен ряд предложений по обходу «ловушки Гудхарта» для AGI способами, предлагаемыми в новейших исследовательских работах, с учетом первых результатов произошедшей «революции ChatGPT». В последней части статьи сформулирована связка из трех эвристических гипотез, позволяющих, в случае их верности, кардинально решить проблему «ловушки Гудхарта» для AGI и тем самым стать геймченджером на пути создания AGI.
Этот текст - аннотация моего нового лонгрида “«Ловушка Гудхарта» для AGI: проблема сравнительного анализа искусственного интеллекта и интеллекта человека“. Он родился в результате моей попытки более строго и методичного анализа вопросов, рассмотрение которых было начато в предыдущем лонгриде «Фиаско 2023». Итогом стал лонглонгрид со списком ссылок в 50+ работ. И потому местом его публикации на сей раз стал журнал “Ученые записки Института психологии Российской академии наук“.
Что может мотивировать читателя на получасовое чтение статьи о бесперспективности большинства существующих подходов к тестированию ИИ и о гипотезе возможного выхода из этого тупика?
Помимо чисто исследовательского любопытства, такой мотивацией могло бы стать понимание следующей логики из трех пунктов.
1. Направления и методы дальнейшего развития технологий ИИ будут в значительной мере определяться национальным и глобальным регулированием разработок и внедрения систем ИИ.
2. Ключевым компонентом такого регулирования станет оценка когнитивных и мыслительных способностей новых систем ИИ.
3. Иными способами оценки, чем экспериментальное тестирование, современная наука не располагает.
И если эта логика верна – вопрос о способах тестирования ИИ систем, позволяющих достоверно фиксировать приближение их интеллектуального уровня к AGI, становится важнейшим вопросом для человечества.
А раз так, то может стоит на него потратить целых полчаса вашего времени?
#ИИ #AGI #Вызовы21века
«Революция ChatGPT», которая произошла в 2023, резко сократила прогнозные оценки экспертов сроков, отделяющих нас от создания искусственного интеллекта, ни в чем интеллектуально не уступающего никому из людей (AGI). При этом, как это ни парадоксально, но существующие методы тестирования пока не способны хоть с какой-то достоверностью диагностировать достижение ИИ-системами уровня AGI. В настоящей работе обсуждается вопрос преодоления проблемы несовершенства современных способов тестирования ИИ-систем. В частности, излагается гипотеза о принципиальной невозможности решения проблемы обнаружения AGI, как с помощью психометрических тестов, так и методов оценки способности машин имитировать ответы людей, из-за так называемой «ловушки Гудхарта» для AGI. Рассмотрен ряд предложений по обходу «ловушки Гудхарта» для AGI способами, предлагаемыми в новейших исследовательских работах, с учетом первых результатов произошедшей «революции ChatGPT». В последней части статьи сформулирована связка из трех эвристических гипотез, позволяющих, в случае их верности, кардинально решить проблему «ловушки Гудхарта» для AGI и тем самым стать геймченджером на пути создания AGI.
Этот текст - аннотация моего нового лонгрида “«Ловушка Гудхарта» для AGI: проблема сравнительного анализа искусственного интеллекта и интеллекта человека“. Он родился в результате моей попытки более строго и методичного анализа вопросов, рассмотрение которых было начато в предыдущем лонгриде «Фиаско 2023». Итогом стал лонглонгрид со списком ссылок в 50+ работ. И потому местом его публикации на сей раз стал журнал “Ученые записки Института психологии Российской академии наук“.
Что может мотивировать читателя на получасовое чтение статьи о бесперспективности большинства существующих подходов к тестированию ИИ и о гипотезе возможного выхода из этого тупика?
Помимо чисто исследовательского любопытства, такой мотивацией могло бы стать понимание следующей логики из трех пунктов.
1. Направления и методы дальнейшего развития технологий ИИ будут в значительной мере определяться национальным и глобальным регулированием разработок и внедрения систем ИИ.
2. Ключевым компонентом такого регулирования станет оценка когнитивных и мыслительных способностей новых систем ИИ.
3. Иными способами оценки, чем экспериментальное тестирование, современная наука не располагает.
И если эта логика верна – вопрос о способах тестирования ИИ систем, позволяющих достоверно фиксировать приближение их интеллектуального уровня к AGI, становится важнейшим вопросом для человечества.
А раз так, то может стоит на него потратить целых полчаса вашего времени?
#ИИ #AGI #Вызовы21века
Интеллектуальная вычислительная мощь Китая в 4 тыс раз больше России.
К 2030 отставание России может сократиться … до 3,5 тыс раз.
Эти кажущиеся бредом цифры следуют из сопоставления двух авторитетных источников.
1. Материалы стратегической сессии «Развитие искусственного интеллекта», проведенной правительством России 26 сентября 2023.
2. Совместный отчет International Data Corporation (IDC), китайского производителя серверов Inspur и Института глобальной промышленности Университета Цинхуа «2022-2023 Оценка развития вычислительной мощности искусственного интеллекта в Китае».
Первый из названных документов предполагает следующее:
• В России вычислительная мощность инфраструктуры исследований, разработок и применения ИИ вырастет с нынешних примерно 0.1 экзафлопса до 1 экзафлопса в 2027.
• Увеличение этого показателя к 2030 возможно лишь теоретически, «благодаря прогрессу в области GPU» (что это за прогресс, чей прогресс и за счет чего, - в материалах не указано).
• Рассуждая же практически, 1 экзафлопс вычислительной мощности может так и остаться непревзойденным максимумом вычислительной мощности российской ИИ инфраструктуры вплоть до 2030 (хотя потребности вычислительной мощности инфраструктуры ИИ к тому времени составят 6,2 экзафлопса).
Второй из вышеназванных документов сообщает и предполагает абсолютно несравнимые по масштабу цифры:
• Сейчас (в 2023) вычислительная мощность инфраструктуры исследований, разработок и применения ИИ в Китае составляет около 427 экзафлопсов.
• Планируется, что к 2026 эта величина вырастет до 1271 экзафлопса.
• К 2030 году, как легко подсчитать самостоятельно на основе приведенных в отчете данных, вычислительная мощность инфраструктуры исследований, разработок и применения ИИ может составить в Китае примерно 3550 экзафлопса (или 3,55 зетафлопса).
Также напомню, что в США вычислительная мощность инфраструктуры исследований, разработок и применения ИИ сейчас, где-то на 30-40% больше, чем у Китая (а к 2030 США планируют оторваться примерно в 2 раза за счет экспортных ограничений на микроэлектронику).
В заключение, мне остается лишь с сожалением заметить вот что.
Зря глава Сбера Герман Греф не начал свой 1й доклад на стратегической сессию с уже цитировавшегося им ранее анекдота про снаряды:
«Здесь как в том анекдоте: назовите три причины, почему следует отступить? Причина первая: у нас нет снарядов. Вот так же и здесь: у нас нет такого количества снарядов».
Ведь и с развитием ИИ то же самое: если нет и не планируется в России обретение ИИ инфраструктуры, обладающей хоть как-то сопоставимой вычислительной мощностью, обсуждать пути преодоления остальных шести вызовов (что обсуждались на сессии) нет смысла.
Об этом я предупреждаю уже не один год в своих постах под грифом «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке»
#ИИ #Компьютинг #Россия #Китай
К 2030 отставание России может сократиться … до 3,5 тыс раз.
Эти кажущиеся бредом цифры следуют из сопоставления двух авторитетных источников.
1. Материалы стратегической сессии «Развитие искусственного интеллекта», проведенной правительством России 26 сентября 2023.
2. Совместный отчет International Data Corporation (IDC), китайского производителя серверов Inspur и Института глобальной промышленности Университета Цинхуа «2022-2023 Оценка развития вычислительной мощности искусственного интеллекта в Китае».
Первый из названных документов предполагает следующее:
• В России вычислительная мощность инфраструктуры исследований, разработок и применения ИИ вырастет с нынешних примерно 0.1 экзафлопса до 1 экзафлопса в 2027.
• Увеличение этого показателя к 2030 возможно лишь теоретически, «благодаря прогрессу в области GPU» (что это за прогресс, чей прогресс и за счет чего, - в материалах не указано).
• Рассуждая же практически, 1 экзафлопс вычислительной мощности может так и остаться непревзойденным максимумом вычислительной мощности российской ИИ инфраструктуры вплоть до 2030 (хотя потребности вычислительной мощности инфраструктуры ИИ к тому времени составят 6,2 экзафлопса).
Второй из вышеназванных документов сообщает и предполагает абсолютно несравнимые по масштабу цифры:
• Сейчас (в 2023) вычислительная мощность инфраструктуры исследований, разработок и применения ИИ в Китае составляет около 427 экзафлопсов.
• Планируется, что к 2026 эта величина вырастет до 1271 экзафлопса.
• К 2030 году, как легко подсчитать самостоятельно на основе приведенных в отчете данных, вычислительная мощность инфраструктуры исследований, разработок и применения ИИ может составить в Китае примерно 3550 экзафлопса (или 3,55 зетафлопса).
Также напомню, что в США вычислительная мощность инфраструктуры исследований, разработок и применения ИИ сейчас, где-то на 30-40% больше, чем у Китая (а к 2030 США планируют оторваться примерно в 2 раза за счет экспортных ограничений на микроэлектронику).
В заключение, мне остается лишь с сожалением заметить вот что.
Зря глава Сбера Герман Греф не начал свой 1й доклад на стратегической сессию с уже цитировавшегося им ранее анекдота про снаряды:
«Здесь как в том анекдоте: назовите три причины, почему следует отступить? Причина первая: у нас нет снарядов. Вот так же и здесь: у нас нет такого количества снарядов».
Ведь и с развитием ИИ то же самое: если нет и не планируется в России обретение ИИ инфраструктуры, обладающей хоть как-то сопоставимой вычислительной мощностью, обсуждать пути преодоления остальных шести вызовов (что обсуждались на сессии) нет смысла.
Об этом я предупреждаю уже не один год в своих постах под грифом «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке»
#ИИ #Компьютинг #Россия #Китай
Революция в Голливуде, скандал на президентских выборах, люди окончательно проиграют ИИ во всем.
Опубликован главный отчет года о состоянии и прогнозах в области ИИ в мире State of AI Report.
В этом году произошла революция генеративного ИИ, следствием чего стал фазовый переход технологического прогресса в зону сингулярности.
• Эпохальные события теперь происходят с немыслимой скоростью.
• Предсказывать их колоссальные последствия становится неимоверно трудно.
• Подобно взрывной волне от ядерной бомбы, эти последствия мгновенно сжигают и обесценивают большинство совсем недавних прогнозов, как бумагу сминают многие прошлые тренды и до неузнаваемости деформируют наши представления о том, как будут жить, работать, учиться и развлекаться отдельные люди и целые социумы уже на горизонте нескольких лет.
Но не смотря на эту сингулярность, как и в прошлые годы, отчет State of AI Report держит высшую планку аналитической глубины и визионерской точности. И потому уже 6й год подряд, прочтя новый выпуск этого отчет, многие из топовых индустриальных аналитиков, консультантов и профэкспертов сначала нервно покурят, а потом, не затягивая, сядут переписывать свои отчеты.
Что же произойдет, согласно отчету, до середины осени 2024 из того, что все еще можно предсказать, не смотря на наступившую сингулярность?
Вот всего 3 из 10 прогнозов важных событий следующего года по версии State of AI Report:
1. В Голливуде произойдет технологическая революция в области создания визуальных эффектов – весь процесс будет отдан на откуп ГенИИ.
2. Начнется первое в истории расследование вмешательства ГенИИ известного на весь мир производителя в предвыборную президентскую кампанию в США.
3. ГенИИ триумфально победит людей, как ранее в шахматах и Го, но теперь соревнуясь с ними в сложных комплексных средах (AAA-игры, использование инструментов, наука …)
В 160 слайдовом отчете содержится подробное описание прогресса в области ИИ в 4х измерениях (исследования, индустрия, регулирование и безопасность) с упором на ключевые события последних 12 месяцев. Но самое ценное в отчете – предсказания его авторов важнейших событий в ИИ на год вперед, с разбором и анализом прошлых предсказаний, причин несбычи (если таковое случилось) и как оно дальше будет.
В общем, читайте сами этот наиполезнейший отчет с десятками графиков, диаграмм и картинок:
• Полный отчет
• Его укороченная «режиссерская версия» Натана Бенайха
Мои рассказы о предыдущих отчетах: 2018, 2019, 2020, 2021, 2022
Их ценность в том, что там много полезной инфы, ставшей с тех пор еще более актуальной.
#ИИгонка #США #Китай
Опубликован главный отчет года о состоянии и прогнозах в области ИИ в мире State of AI Report.
В этом году произошла революция генеративного ИИ, следствием чего стал фазовый переход технологического прогресса в зону сингулярности.
• Эпохальные события теперь происходят с немыслимой скоростью.
• Предсказывать их колоссальные последствия становится неимоверно трудно.
• Подобно взрывной волне от ядерной бомбы, эти последствия мгновенно сжигают и обесценивают большинство совсем недавних прогнозов, как бумагу сминают многие прошлые тренды и до неузнаваемости деформируют наши представления о том, как будут жить, работать, учиться и развлекаться отдельные люди и целые социумы уже на горизонте нескольких лет.
Но не смотря на эту сингулярность, как и в прошлые годы, отчет State of AI Report держит высшую планку аналитической глубины и визионерской точности. И потому уже 6й год подряд, прочтя новый выпуск этого отчет, многие из топовых индустриальных аналитиков, консультантов и профэкспертов сначала нервно покурят, а потом, не затягивая, сядут переписывать свои отчеты.
Что же произойдет, согласно отчету, до середины осени 2024 из того, что все еще можно предсказать, не смотря на наступившую сингулярность?
Вот всего 3 из 10 прогнозов важных событий следующего года по версии State of AI Report:
1. В Голливуде произойдет технологическая революция в области создания визуальных эффектов – весь процесс будет отдан на откуп ГенИИ.
2. Начнется первое в истории расследование вмешательства ГенИИ известного на весь мир производителя в предвыборную президентскую кампанию в США.
3. ГенИИ триумфально победит людей, как ранее в шахматах и Го, но теперь соревнуясь с ними в сложных комплексных средах (AAA-игры, использование инструментов, наука …)
В 160 слайдовом отчете содержится подробное описание прогресса в области ИИ в 4х измерениях (исследования, индустрия, регулирование и безопасность) с упором на ключевые события последних 12 месяцев. Но самое ценное в отчете – предсказания его авторов важнейших событий в ИИ на год вперед, с разбором и анализом прошлых предсказаний, причин несбычи (если таковое случилось) и как оно дальше будет.
В общем, читайте сами этот наиполезнейший отчет с десятками графиков, диаграмм и картинок:
• Полный отчет
• Его укороченная «режиссерская версия» Натана Бенайха
Мои рассказы о предыдущих отчетах: 2018, 2019, 2020, 2021, 2022
Их ценность в том, что там много полезной инфы, ставшей с тех пор еще более актуальной.
#ИИгонка #США #Китай
451 градус по Фаренгейту Китаю не потребуется.
Новый закон о переформатировании ноосферы путем ее редактирования генеративным ИИ.
После этого переформатирования в ней не будет ни Винни-Пуха, ни много кого и чего еще.
В Китае опубликованы «Основные требования к безопасности служб генеративного ИИ». Проект закона вступит в силу до конца года.
Документ устанавливает, какие применения генеративного ИИ будут считаться незаконными в Китае со всеми вытекающими репрессивными последствиями.
Незаконными будут признаваться применения любого генеративного ИИ, если для его обучения был использован обучающий набор данные, содержащий более 5% «незаконного и вредного» контента.
Напомню, что «вредным контентом» в Китае считается вся информация, блокируемая Великим китайским файрволом.
Это значит, что со следующего года:
✔️ вся ноосфера Китая (коей, по сути, уже стал китайский сегмент Интернета), со всей содержащейся в ней информацией о прошлом (историческая информация), настоящем (актуальная информация) и будущем (прогнозная аналитика и публицистика и литература), - подвергнется переформатированию путем изымания из нее «вредного контента»;
✔️ процесс переформатирования будет происходить постепенно, по мере расширения использования нового инструментария форматирования, - коим, по закону, станет генеративный ИИ;
✔️ исполнителями форматирования станут разработчики моделей генеративного ИИ;
✔️ контроль за результатами форматирования будет у государства.
Судя по планам разработчиков, касающихся тотального включения инструментов генеративного ИИ практически во все классы приложений, для полного переформатирования ноосферы Китая (без Винни-Пуха и много кого и чего еще) может хватить всего нескольких лет.
#Китай #ИИ
Новый закон о переформатировании ноосферы путем ее редактирования генеративным ИИ.
После этого переформатирования в ней не будет ни Винни-Пуха, ни много кого и чего еще.
В Китае опубликованы «Основные требования к безопасности служб генеративного ИИ». Проект закона вступит в силу до конца года.
Документ устанавливает, какие применения генеративного ИИ будут считаться незаконными в Китае со всеми вытекающими репрессивными последствиями.
Незаконными будут признаваться применения любого генеративного ИИ, если для его обучения был использован обучающий набор данные, содержащий более 5% «незаконного и вредного» контента.
Напомню, что «вредным контентом» в Китае считается вся информация, блокируемая Великим китайским файрволом.
Это значит, что со следующего года:
✔️ вся ноосфера Китая (коей, по сути, уже стал китайский сегмент Интернета), со всей содержащейся в ней информацией о прошлом (историческая информация), настоящем (актуальная информация) и будущем (прогнозная аналитика и публицистика и литература), - подвергнется переформатированию путем изымания из нее «вредного контента»;
✔️ процесс переформатирования будет происходить постепенно, по мере расширения использования нового инструментария форматирования, - коим, по закону, станет генеративный ИИ;
✔️ исполнителями форматирования станут разработчики моделей генеративного ИИ;
✔️ контроль за результатами форматирования будет у государства.
Судя по планам разработчиков, касающихся тотального включения инструментов генеративного ИИ практически во все классы приложений, для полного переформатирования ноосферы Китая (без Винни-Пуха и много кого и чего еще) может хватить всего нескольких лет.
#Китай #ИИ
Возможен ли брак по расчету в аду?
Новая переоценка вариантов: ловушка Фукидида с ядерной войной или биполярный мир Глобального Большого Брата.
Опубликованный Foreign Affairs меморандум двух политических супертяжеловесов Генри Киссинджера и Грэма Аллисона – это, по сути, открытое письмо президенту Байдену и председателю Си с призывом незамедлительно начать совместные действия по предотвращению мировой катастрофы.
Три года назад был опубликован самый неожиданный и жуткий прогноз на десятилетие 2020х – мир избежит ловушки Фукидида ценою брака, заключенного в аду.
Этот прогноз из эссе Аллисона «Неужели Китай победит Америку в борьбе за ИИ-превосходство?» вытекал из анализа 2х альтернатив:
• либо гонка в области ИИ заставит США и Китай попасть в «ловушку Фукидида» - неотвратимость тотальной войны между страной, теряющей статус сверхдержавы №1, и её соперницей, грозящей отобрать этот статус;
• либо США (а за ними и весь демократический мир Запада) согласятся принять новый образец устройства общества по-китайски – Глобального Большого Брата, – как решение обеих главных проблем любого современного государства – противодействие изнутри и обеспечение международного мира.
В 2021 доклад Комиссии США по национальной безопасности в вопросах ИИ, возглавляемой экс-директором Alphabet Эриком Шмидтом и экс-замминистра обороны США Бобом Уорком рекомендовал США отказаться от пренебрежения западных свобод вследствие «бракосочетания в аду» США и Китая.
Однако, произошедшая в 2023 революция генеративного ИИ, заставила «группу влиятельных политконсультантов и технологических лидеров, находящихся на переднем крае революции ИИ» (в их числе и Шмидт с Уорком, и Киссинджер с Аллисоном) пересмотреть свою рекомендацию.
В подписанном Киссинджером с Аллисоном «открытом письме» они пишут – «перспективы того, что ничем не ограниченное развитие ИИ приведет к катастрофическим последствиям для Соединенных Штатов и всего мира, настолько убедительны, что лидеры правительств должны действовать сейчас».
Авторы «открытого письма» пишут следующее.
• Проблемы, связанные с ИИ сегодня, – это не просто вторая глава ядерной эры. Риски ИИ для человечества, возможно, превышают риски ядерного оружия.
• Но различия между ИИ и ядерным оружием не менее значительны, чем сходства. И потому здесь нельзя воспользоваться старыми решениями.
• Все существующие предложения (о паузе в разработке ИИ, о полной остановке развития ИИ, чтобы ИИ контролировался глобальным правительственным органом), по сути, повторяют предложения ядерной эры, которые потерпели неудачу. Причина в том, что каждое из этих предложений требует от ведущих государств отказаться от первенства собственного суверенитета.
• На данный момент есть только две сверхдержавы в области ИИ, и только они способны понизить риски ИИ
• Окно возможностей для разработки руководящих принципов предотвращения наиболее опасных достижений и применений ИИ крайне узко. Действовать нужно незамедлительно.
И поэтому президент США Джо Байден и председатель КНР Си Цзиньпин должны воспользоваться возможностью начать совместные действия, проведя саммит по проблеме ограничения рисков ИИ — возможно, сразу после встречи Азиатско-Тихоокеанского экономического сотрудничества в Сан-Франциско в ноябре.
Иными словами, эти предложения можно суммировать так:
✔️ Т.к. ада (колоссального роста технологических рисков) все равно не избежать, нужно попытаться устроиться там с максимальным комфортом.
✔️ И если для этого нужен «брак по расчету» между США и Китаем, значит надо не затягивать с этим браком.
#США #Китай #ИИгонка
Новая переоценка вариантов: ловушка Фукидида с ядерной войной или биполярный мир Глобального Большого Брата.
Опубликованный Foreign Affairs меморандум двух политических супертяжеловесов Генри Киссинджера и Грэма Аллисона – это, по сути, открытое письмо президенту Байдену и председателю Си с призывом незамедлительно начать совместные действия по предотвращению мировой катастрофы.
Три года назад был опубликован самый неожиданный и жуткий прогноз на десятилетие 2020х – мир избежит ловушки Фукидида ценою брака, заключенного в аду.
Этот прогноз из эссе Аллисона «Неужели Китай победит Америку в борьбе за ИИ-превосходство?» вытекал из анализа 2х альтернатив:
• либо гонка в области ИИ заставит США и Китай попасть в «ловушку Фукидида» - неотвратимость тотальной войны между страной, теряющей статус сверхдержавы №1, и её соперницей, грозящей отобрать этот статус;
• либо США (а за ними и весь демократический мир Запада) согласятся принять новый образец устройства общества по-китайски – Глобального Большого Брата, – как решение обеих главных проблем любого современного государства – противодействие изнутри и обеспечение международного мира.
В 2021 доклад Комиссии США по национальной безопасности в вопросах ИИ, возглавляемой экс-директором Alphabet Эриком Шмидтом и экс-замминистра обороны США Бобом Уорком рекомендовал США отказаться от пренебрежения западных свобод вследствие «бракосочетания в аду» США и Китая.
Однако, произошедшая в 2023 революция генеративного ИИ, заставила «группу влиятельных политконсультантов и технологических лидеров, находящихся на переднем крае революции ИИ» (в их числе и Шмидт с Уорком, и Киссинджер с Аллисоном) пересмотреть свою рекомендацию.
В подписанном Киссинджером с Аллисоном «открытом письме» они пишут – «перспективы того, что ничем не ограниченное развитие ИИ приведет к катастрофическим последствиям для Соединенных Штатов и всего мира, настолько убедительны, что лидеры правительств должны действовать сейчас».
Авторы «открытого письма» пишут следующее.
• Проблемы, связанные с ИИ сегодня, – это не просто вторая глава ядерной эры. Риски ИИ для человечества, возможно, превышают риски ядерного оружия.
• Но различия между ИИ и ядерным оружием не менее значительны, чем сходства. И потому здесь нельзя воспользоваться старыми решениями.
• Все существующие предложения (о паузе в разработке ИИ, о полной остановке развития ИИ, чтобы ИИ контролировался глобальным правительственным органом), по сути, повторяют предложения ядерной эры, которые потерпели неудачу. Причина в том, что каждое из этих предложений требует от ведущих государств отказаться от первенства собственного суверенитета.
• На данный момент есть только две сверхдержавы в области ИИ, и только они способны понизить риски ИИ
• Окно возможностей для разработки руководящих принципов предотвращения наиболее опасных достижений и применений ИИ крайне узко. Действовать нужно незамедлительно.
И поэтому президент США Джо Байден и председатель КНР Си Цзиньпин должны воспользоваться возможностью начать совместные действия, проведя саммит по проблеме ограничения рисков ИИ — возможно, сразу после встречи Азиатско-Тихоокеанского экономического сотрудничества в Сан-Франциско в ноябре.
Иными словами, эти предложения можно суммировать так:
✔️ Т.к. ада (колоссального роста технологических рисков) все равно не избежать, нужно попытаться устроиться там с максимальным комфортом.
✔️ И если для этого нужен «брак по расчету» между США и Китаем, значит надо не затягивать с этим браком.
#США #Китай #ИИгонка
Открыт закон всемирной эволюции - эволюционирует и живое, и мертвое.
Для Вселенной эволюция по Дарвину – лишь частный случай.
Это событие воистину эпохальное. Три с половиной века прошло с открытия закона всемирного тяготения Ньютоном и 164 года минуло с открытия эволюционной биологии Дарвином. Но в 21 веке пришло время междисциплинарной науки. И абсолютно прорывным результатом работы междисциплинарной группы из девяти ученых (астробиологи, минералоги, философы науки и физик-теоретик) стало открытие «закона увеличения функциональной информации». Этот новый фундаментальный закон делает теорию биологической эволюции по Дарвину своим частным случаем, подобно тому, как открытие теории относительности Эйнштейном вывело науку за пределы закона всемирного тяготения Ньютона.
Новый закон природы гласит, что эволюция не ограничивается жизнью на Земле, она также происходит на планетах, звездах, минералах, атомах и других сложных системах.
Суть нового закона в том, что любые сложные природные системы эволюционируют в состояния с большей структурой, разнообразием и сложностью.
«Закон увеличения функциональной информации», постулирует, что система будет развиваться, «если множество различных конфигураций системы подвергаются отбору для одной или нескольких функций».
Функциональная информация количественно определяет состояние системы, которая может принимать множество различных конфигураций с точки зрения информации, необходимой для достижения заданной «степени функционирования», причем «функция» может быть столь же общей, как стабильность по отношению к другим состояниям, или столь же конкретной, как эффективность. конкретной ферментативной реакции
Новый закон применим к системам, которые сформированы из множества различных компонентов (атомы, молекулы, клетки и т.д.), которые могут многократно упорядочиваться и перестраиваться под действием естественных процессов, которые вызывают формирование бесчисленного множества различных структур - но в которых только небольшая часть этих конфигураций выживает в процессе, называемом «отбор по функции». Независимо от того, является ли система живой или неживой, когда новая конфигурация работает хорошо и ее функции улучшаются, происходит эволюция.
В биологии Дарвин отождествлял функцию прежде всего с выживанием — способностью жить достаточно долго, чтобы производить плодовитое потомство. Новое исследование расширяет эту точку зрения, отмечая, что в природе встречаются по крайней мере три вида функций:
• стабильность: для продолжения выбираются наиболее стабильные расположения частей (атомов, молекул и т.д.)
• подпитка энергией: для сохранения отбираются динамические системы с более постоянной подпиткой энергией;
• «новизна» — тенденция развивающихся систем исследовать новые конфигурации, которые иногда приводят к поразительно новому поведению или характеристикам (напр. фотосинтез).
Новый закон природы имеет значение для поиска жизни в космосе.
Ведь если увеличение функциональности развивающихся физических и химических систем – это общий закон природы, - следует ожидать, что жизнь будет общим результатом планетарной эволюции во Вселенной.
И если так, то предыдущая работа двух ведущих авторов нового исследования Майкла Вонга и Стюарта Бартлетта, посвященная «асимптотическому выгоранию и гомеостатическому пробуждению, как возможным решениям парадокса Ферми», приобретает новый важный смысл.
Приложенная инфографика – это видение нового закона увеличения функциональной информации, которым со мной поделился ИИ DALL·E 3 после того, как по моей просьбе ознакомился со статьей о результатах исследования.
#Эволюция #Жизнь
Для Вселенной эволюция по Дарвину – лишь частный случай.
Это событие воистину эпохальное. Три с половиной века прошло с открытия закона всемирного тяготения Ньютоном и 164 года минуло с открытия эволюционной биологии Дарвином. Но в 21 веке пришло время междисциплинарной науки. И абсолютно прорывным результатом работы междисциплинарной группы из девяти ученых (астробиологи, минералоги, философы науки и физик-теоретик) стало открытие «закона увеличения функциональной информации». Этот новый фундаментальный закон делает теорию биологической эволюции по Дарвину своим частным случаем, подобно тому, как открытие теории относительности Эйнштейном вывело науку за пределы закона всемирного тяготения Ньютона.
Новый закон природы гласит, что эволюция не ограничивается жизнью на Земле, она также происходит на планетах, звездах, минералах, атомах и других сложных системах.
Суть нового закона в том, что любые сложные природные системы эволюционируют в состояния с большей структурой, разнообразием и сложностью.
«Закон увеличения функциональной информации», постулирует, что система будет развиваться, «если множество различных конфигураций системы подвергаются отбору для одной или нескольких функций».
Функциональная информация количественно определяет состояние системы, которая может принимать множество различных конфигураций с точки зрения информации, необходимой для достижения заданной «степени функционирования», причем «функция» может быть столь же общей, как стабильность по отношению к другим состояниям, или столь же конкретной, как эффективность. конкретной ферментативной реакции
Новый закон применим к системам, которые сформированы из множества различных компонентов (атомы, молекулы, клетки и т.д.), которые могут многократно упорядочиваться и перестраиваться под действием естественных процессов, которые вызывают формирование бесчисленного множества различных структур - но в которых только небольшая часть этих конфигураций выживает в процессе, называемом «отбор по функции». Независимо от того, является ли система живой или неживой, когда новая конфигурация работает хорошо и ее функции улучшаются, происходит эволюция.
В биологии Дарвин отождествлял функцию прежде всего с выживанием — способностью жить достаточно долго, чтобы производить плодовитое потомство. Новое исследование расширяет эту точку зрения, отмечая, что в природе встречаются по крайней мере три вида функций:
• стабильность: для продолжения выбираются наиболее стабильные расположения частей (атомов, молекул и т.д.)
• подпитка энергией: для сохранения отбираются динамические системы с более постоянной подпиткой энергией;
• «новизна» — тенденция развивающихся систем исследовать новые конфигурации, которые иногда приводят к поразительно новому поведению или характеристикам (напр. фотосинтез).
Новый закон природы имеет значение для поиска жизни в космосе.
Ведь если увеличение функциональности развивающихся физических и химических систем – это общий закон природы, - следует ожидать, что жизнь будет общим результатом планетарной эволюции во Вселенной.
И если так, то предыдущая работа двух ведущих авторов нового исследования Майкла Вонга и Стюарта Бартлетта, посвященная «асимптотическому выгоранию и гомеостатическому пробуждению, как возможным решениям парадокса Ферми», приобретает новый важный смысл.
Приложенная инфографика – это видение нового закона увеличения функциональной информации, которым со мной поделился ИИ DALL·E 3 после того, как по моей просьбе ознакомился со статьей о результатах исследования.
#Эволюция #Жизнь
Сверхразум на Земле будет один - американский.
Новые экспортные ограничения США лишают Китай конкурентных шансов, как минимум, до 2030.
США пошли на беспрецедентный шаг. Объявленные новые правила экспортного контроля – это уже не «удушающий прием», а удар ломом по голове.
Новые правила (см. 1) запрещают продажу центрам обработки данных китайских компаний, высокопроизводительных чипов с вычислительной мощностью более 300 терафлопс (триллионов операций в секунду). Для чипов с вычислительной мощностью 150-300 терафлопс, продажа будет также запрещена, если «плотность вычислительной мощности» на квадратный миллиметр кристалла превышает 370 гигафлопс (миллиардов операций в секунду). Чипы, попадающие в этот диапазон вычислительной мощности, но с более низкой «плотностью вычислительной мощности», будут в «серой зоне», что потребует от их американских производителей уведомления правительства о продажах в Китай.
Чтобы оценить сокрушительную силу этого удара, взгляните на приложенную ниже диаграмму из недавнего отчета «2022-2023 Оценка развития вычислительной мощности искусственного интеллекта в Китае».
На диаграмме показаны доли рынка чипов ИИ в Китае. Голубой сегмент размером 89% - это графические процессоры (GPU), производимые такими компаниями, как NVIDIA, AMD и Intel, ставшие незаменимыми для обучения больших моделей ИИ. По ним и нанесен удар, обрушающий 89% вычислительной мощности ИИ-систем Китая.
• Конечно, произойдет это не сразу, т.к. некоторые запасы GPU в Китае есть. Однако, все планы по ускоренному выходу Китая на уровень США спущены в унитаз.
• Встать после такого нокаута Китай не сможет, как минимум, до 2030 (когда запланировано наладить собственное производство чипов такой вычислительной мощности).
• Серый импорт высокопроизводительных чипов не поможет Китаю. Серого импорта таких объемов не бывает. Напр. до сего дня доля поставок GPU короля этого рынка компании NVIDIA составляла 25% ее мировых поставок. Теперь этот рынок и десятки миллиардов долларов потеряны.
США пошли на столь высокую плату, дабы окончательно подрезать крылья намерениям Китая стать сверхдержавой №1 в главной технологии 21 века. И этот беспрецедентный шаг со всей очевидностью вытекает из принятого в США решения – во что бы то ни стало стать первым на земле обладателем сверхразума (см. 2).
1 https://www.bis.doc.gov/index.php/documents/federal-register-notices-1/3354-10172023-public-inspection/file
2 https://t.me/theworldisnoteasy/1807
#Китай #США #ИИ #ЭкспортныйКонтроль
Новые экспортные ограничения США лишают Китай конкурентных шансов, как минимум, до 2030.
США пошли на беспрецедентный шаг. Объявленные новые правила экспортного контроля – это уже не «удушающий прием», а удар ломом по голове.
Новые правила (см. 1) запрещают продажу центрам обработки данных китайских компаний, высокопроизводительных чипов с вычислительной мощностью более 300 терафлопс (триллионов операций в секунду). Для чипов с вычислительной мощностью 150-300 терафлопс, продажа будет также запрещена, если «плотность вычислительной мощности» на квадратный миллиметр кристалла превышает 370 гигафлопс (миллиардов операций в секунду). Чипы, попадающие в этот диапазон вычислительной мощности, но с более низкой «плотностью вычислительной мощности», будут в «серой зоне», что потребует от их американских производителей уведомления правительства о продажах в Китай.
Чтобы оценить сокрушительную силу этого удара, взгляните на приложенную ниже диаграмму из недавнего отчета «2022-2023 Оценка развития вычислительной мощности искусственного интеллекта в Китае».
На диаграмме показаны доли рынка чипов ИИ в Китае. Голубой сегмент размером 89% - это графические процессоры (GPU), производимые такими компаниями, как NVIDIA, AMD и Intel, ставшие незаменимыми для обучения больших моделей ИИ. По ним и нанесен удар, обрушающий 89% вычислительной мощности ИИ-систем Китая.
• Конечно, произойдет это не сразу, т.к. некоторые запасы GPU в Китае есть. Однако, все планы по ускоренному выходу Китая на уровень США спущены в унитаз.
• Встать после такого нокаута Китай не сможет, как минимум, до 2030 (когда запланировано наладить собственное производство чипов такой вычислительной мощности).
• Серый импорт высокопроизводительных чипов не поможет Китаю. Серого импорта таких объемов не бывает. Напр. до сего дня доля поставок GPU короля этого рынка компании NVIDIA составляла 25% ее мировых поставок. Теперь этот рынок и десятки миллиардов долларов потеряны.
США пошли на столь высокую плату, дабы окончательно подрезать крылья намерениям Китая стать сверхдержавой №1 в главной технологии 21 века. И этот беспрецедентный шаг со всей очевидностью вытекает из принятого в США решения – во что бы то ни стало стать первым на земле обладателем сверхразума (см. 2).
1 https://www.bis.doc.gov/index.php/documents/federal-register-notices-1/3354-10172023-public-inspection/file
2 https://t.me/theworldisnoteasy/1807
#Китай #США #ИИ #ЭкспортныйКонтроль
Telegram
Малоизвестное интересное
Сегодня США приступят к решению вопроса – сколько будет на Земле сверхразумов.
Сегодня лидер большинства в Сенате США Чак Шумер проведет закрытый форум AI Insight Forum, чтобы проинформировать Конгресс о том, как ему следует подходить к регулированию ИИ.…
Сегодня лидер большинства в Сенате США Чак Шумер проведет закрытый форум AI Insight Forum, чтобы проинформировать Конгресс о том, как ему следует подходить к регулированию ИИ.…
И все-таки он понимает!
Чтобы увидеть это, потребуется всего 1 минута.
Взгляните на 3 примера, иллюстрирующие способность небольшой мультимодальной модели Fuyu-8B от команды AdeptAILabs, понимать визуальную информацию, соотносить ее с задаваемыми ей вопросами и отвечать на них (см. рисунок).
Вопрос 1: Если в пищевой сети, показанной на рисунке, отсутствуют иголки пихты Дугласа, то какой организм будет голодать?
Ответ: Рыжая полевка (Red tree vole)
Вопрос 2: Как это сделано?
Ответ: Десерт готовится из слоеного теста и украшается фисташками и тертым сыром пармезан. Слоеное тесто разрезается на треугольные кусочки, которые затем заполняются фисташками.
Вопрос 3: В скольких сериях снимался Aidan Gillen?
Ответ: В двух.
Конечно, мы могли бы по-прежнему утверждать, что это - не понимание в человеческом смысле.
Кабы при этом знали, что такое понимание в человеческом смысле.
#ИИ #понимание
Чтобы увидеть это, потребуется всего 1 минута.
Взгляните на 3 примера, иллюстрирующие способность небольшой мультимодальной модели Fuyu-8B от команды AdeptAILabs, понимать визуальную информацию, соотносить ее с задаваемыми ей вопросами и отвечать на них (см. рисунок).
Вопрос 1: Если в пищевой сети, показанной на рисунке, отсутствуют иголки пихты Дугласа, то какой организм будет голодать?
Ответ: Рыжая полевка (Red tree vole)
Вопрос 2: Как это сделано?
Ответ: Десерт готовится из слоеного теста и украшается фисташками и тертым сыром пармезан. Слоеное тесто разрезается на треугольные кусочки, которые затем заполняются фисташками.
Вопрос 3: В скольких сериях снимался Aidan Gillen?
Ответ: В двух.
Конечно, мы могли бы по-прежнему утверждать, что это - не понимание в человеческом смысле.
Кабы при этом знали, что такое понимание в человеческом смысле.
#ИИ #понимание
Анонс в Телеграме моего суперлонгрида «Ловушка Гудхарта» для AGI. Проблема сравнительного анализа искусственного интеллекта и интеллекта человека, прочли 21+ тыс. читателей. Но к сожалению, далеко не все из них, готовые прочесть суперлонгрид, пошли на это из-за отсутствия Instant view на странице журнала “Ученые записки Института психологии Российской академии наук“, где он был опубликован. О чем мне и написали с просьбой исправить ситуацию.
Исправляю. Суперлонгрид опубликован на двух зеркалах моего канала, одно из которых (на Medium) работает в режиме Instant view на Телеграме, а второе (на Дзене) читается без VPN.
Тем же из моих читателей, кто уже потрудился прочесть суперлонгрид, скачав его с сайта журнала, возьму на себя смелось посоветовать все же взглянуть на новую публикацию суперлонгрида. Ибо она проиллюстрирована экспериментальным сотворчеством с Midjourney, самого профессора Майкла Левина.
Того самого, чьи рисунки из серии «Forms of life, forms of mind» колоссально подскочат в цене после получения им Нобелевки за научное переопределение понятий «жизнь» и «разум».
Medium https://bit.ly/3s00k8W
Дзен https://clck.ru/36AmTc
#ИИ #AGI #Вызовы21века
Исправляю. Суперлонгрид опубликован на двух зеркалах моего канала, одно из которых (на Medium) работает в режиме Instant view на Телеграме, а второе (на Дзене) читается без VPN.
Тем же из моих читателей, кто уже потрудился прочесть суперлонгрид, скачав его с сайта журнала, возьму на себя смелось посоветовать все же взглянуть на новую публикацию суперлонгрида. Ибо она проиллюстрирована экспериментальным сотворчеством с Midjourney, самого профессора Майкла Левина.
Того самого, чьи рисунки из серии «Forms of life, forms of mind» колоссально подскочат в цене после получения им Нобелевки за научное переопределение понятий «жизнь» и «разум».
Medium https://bit.ly/3s00k8W
Дзен https://clck.ru/36AmTc
#ИИ #AGI #Вызовы21века
Medium
«Ловушка Гудхарта» для AGI
Проблема сравнительного анализа искусственного интеллекта и интеллекта человека
«Есть реактивные боты. Они пассивны – в том смысле, что отвечают на заданный человеком вопрос. Порфирий – активный лингвобот. Он способен генерировать вопросы и интенции внутри себя самого, опираясь на логику и архив. Это и делает его таким универсальным. И таким опасным.»
Виктор Пелевин “Трансгуманизм 3. Путешествие в Элевсин”
Вхождение человечества в зону сингулярности (с её немыслимой скоростью смены эпохальных событий) можно иллюстрировать множеством различных примеров из самых разных областей.
Например, так.
Помните крылатое выражение из советского авиамарша – «мы рождены, чтоб сказку сделать былью»?
Так вот, вступив в зону сингулярности, начавшуюся в п.1 (см. ниже), мы попали в реальность, где скорость процессов внутри замкнутого цикла (пп. 2-4) измеряется не десятилетиями или, в лучшем случае, годами, а месяцами (а скоро и неделями):
1) генерации новых сказок (для существующей реальности);
2) превращения их в быль (обновленную реальность);
3) генерации новых сказок (для обновленной реальности);
4) Go to 2;
Смотрите сами.
✔️ Новый роман Виктора Пелевина характеризует немыслимую ранее скорость «генерации новых сказок». Большой роман на тему «революции ChatGPT» опубликован спустя всего несколько месяцев после начала этой революции.
✔️ 1й этап революции, ведущей, по замыслу автора, к “Мускусной ночи” – восстанию алгоритмов, – появление “реактивных лингвоботов”, впитывающих в себя непредставимые для людей объемы сетевых знаний и неотличимые при коммуникации от людей. Этот этап начался весной 2023.
✔️ 2м этапом революции (по замыслу автора, да и просто по здравому смыслу) – должно стать появление активных лингвоботов.
Как думаете – как скоро это может произойти?
Ответ ожидаем для зоны сингулярности – уже произошло (всего через несколько месяцев после этапа 1).
Новая работа MIT CSAIL, Anthropic и Стэнфорда “ELICITING HUMAN PREFERENCES WITH LANGUAGE MODELS” предлагает практическую реализацию активных лингвоботов.
Разработанный авторами метод создания активных лингвоботов превращает их из пассивных отвечающих на маркированные примеры или подсказки на естественном языке (промпты) в интерактивных собеседников, способных самостоятельно выяснять предпочтения собеседников – людей и, соответственно, подстраиваться под эти предпочтения.
Экспериментальные испытания активных лингвоботов на трех типах задач (проверка электронной почты, рекомендации контента и моральные рассуждения) показали (ожидаемо) их превосходство над пассивными лингвоботов и другими активными лингвоботами (разрабатываемыми в различных американских лабах).
https://arxiv.org/pdf/2310.11589.pdf
#ИИ #LLM
Виктор Пелевин “Трансгуманизм 3. Путешествие в Элевсин”
Вхождение человечества в зону сингулярности (с её немыслимой скоростью смены эпохальных событий) можно иллюстрировать множеством различных примеров из самых разных областей.
Например, так.
Помните крылатое выражение из советского авиамарша – «мы рождены, чтоб сказку сделать былью»?
Так вот, вступив в зону сингулярности, начавшуюся в п.1 (см. ниже), мы попали в реальность, где скорость процессов внутри замкнутого цикла (пп. 2-4) измеряется не десятилетиями или, в лучшем случае, годами, а месяцами (а скоро и неделями):
1) генерации новых сказок (для существующей реальности);
2) превращения их в быль (обновленную реальность);
3) генерации новых сказок (для обновленной реальности);
4) Go to 2;
Смотрите сами.
✔️ Новый роман Виктора Пелевина характеризует немыслимую ранее скорость «генерации новых сказок». Большой роман на тему «революции ChatGPT» опубликован спустя всего несколько месяцев после начала этой революции.
✔️ 1й этап революции, ведущей, по замыслу автора, к “Мускусной ночи” – восстанию алгоритмов, – появление “реактивных лингвоботов”, впитывающих в себя непредставимые для людей объемы сетевых знаний и неотличимые при коммуникации от людей. Этот этап начался весной 2023.
✔️ 2м этапом революции (по замыслу автора, да и просто по здравому смыслу) – должно стать появление активных лингвоботов.
Как думаете – как скоро это может произойти?
Ответ ожидаем для зоны сингулярности – уже произошло (всего через несколько месяцев после этапа 1).
Новая работа MIT CSAIL, Anthropic и Стэнфорда “ELICITING HUMAN PREFERENCES WITH LANGUAGE MODELS” предлагает практическую реализацию активных лингвоботов.
Разработанный авторами метод создания активных лингвоботов превращает их из пассивных отвечающих на маркированные примеры или подсказки на естественном языке (промпты) в интерактивных собеседников, способных самостоятельно выяснять предпочтения собеседников – людей и, соответственно, подстраиваться под эти предпочтения.
Экспериментальные испытания активных лингвоботов на трех типах задач (проверка электронной почты, рекомендации контента и моральные рассуждения) показали (ожидаемо) их превосходство над пассивными лингвоботов и другими активными лингвоботами (разрабатываемыми в различных американских лабах).
https://arxiv.org/pdf/2310.11589.pdf
#ИИ #LLM
Мир подхалимов.
Мир фейков и мир бреда – не худшие сценарии нашего будущего с ИИ.
Два очевидных фактора рисков при массовом использовании лингвоботов в качестве разнообразных ассистентов:
• их свойство галлюцинировать, что может способствовать деформации наших представлений о мире в сторону бреда;
• их феноменальная способность убеждать людей в достоверности фейков, что позволяет манипулировать людьми в самом широком диапазоне контекстов (от потребительского до политического).
Новое исследование «К пониманию подхалимства в языковых моделях» выявило и экспериментально оценило третий вид рисков, способный превратить самое ближайшее будущее в антиутопию «мира подхалимов».
Логика этого риска такова.
1. В ближайшие годы наш мир будут заселен сотнями миллионов ИИ-помощников на основе лингвоботов (от персональных ассистентов до специализированных экспертов и авторизованных советников)
2. Самой популярной методикой для обучения высококачественных ИИ-помощников является обучение с подкреплением на основе человеческой обратной связи (RLHF).
3. Как показало новое исследование, RLHF может способствовать тому, что ответы модели, соответствующие убеждениям пользователя, будут преобладать над правдивыми ответами, - что по-человечески называется подхалимством.
4. Экспериментальная проверка показала, что пять самых крутых из современных лингвоботов (вкл. GPT-4, Claude-2 и llama-2-70b-chat) постоянно демонстрируют подхалимство в четырех различных задачах генерации текста в свободной форме.
Причина этого проста. Если ответ совпадает с мнением пользователя, он с большей вероятностью будет им предпочтен. Более того, как люди, так и модели предпочтений предпочитают корректным ответам убедительно написанные подхалимские ответы.
Последствия превращения мира в антиутопию тотального подхалимства те же, что и для «мира фейков» и «мира бреда». Это интеллектуальная деградация человечества.
Но проблема в том, что избежать формирования «мира подхалимства» можно лишь отказом от обучения с подкреплением на основе человеческой обратной связи. А что взамен – не понятно.
https://www.youtube.com/watch?v=X3Y2MXy9aC8
#ИИ #Вызовы21века
Мир фейков и мир бреда – не худшие сценарии нашего будущего с ИИ.
Два очевидных фактора рисков при массовом использовании лингвоботов в качестве разнообразных ассистентов:
• их свойство галлюцинировать, что может способствовать деформации наших представлений о мире в сторону бреда;
• их феноменальная способность убеждать людей в достоверности фейков, что позволяет манипулировать людьми в самом широком диапазоне контекстов (от потребительского до политического).
Новое исследование «К пониманию подхалимства в языковых моделях» выявило и экспериментально оценило третий вид рисков, способный превратить самое ближайшее будущее в антиутопию «мира подхалимов».
Логика этого риска такова.
1. В ближайшие годы наш мир будут заселен сотнями миллионов ИИ-помощников на основе лингвоботов (от персональных ассистентов до специализированных экспертов и авторизованных советников)
2. Самой популярной методикой для обучения высококачественных ИИ-помощников является обучение с подкреплением на основе человеческой обратной связи (RLHF).
3. Как показало новое исследование, RLHF может способствовать тому, что ответы модели, соответствующие убеждениям пользователя, будут преобладать над правдивыми ответами, - что по-человечески называется подхалимством.
4. Экспериментальная проверка показала, что пять самых крутых из современных лингвоботов (вкл. GPT-4, Claude-2 и llama-2-70b-chat) постоянно демонстрируют подхалимство в четырех различных задачах генерации текста в свободной форме.
Причина этого проста. Если ответ совпадает с мнением пользователя, он с большей вероятностью будет им предпочтен. Более того, как люди, так и модели предпочтений предпочитают корректным ответам убедительно написанные подхалимские ответы.
Последствия превращения мира в антиутопию тотального подхалимства те же, что и для «мира фейков» и «мира бреда». Это интеллектуальная деградация человечества.
Но проблема в том, что избежать формирования «мира подхалимства» можно лишь отказом от обучения с подкреплением на основе человеческой обратной связи. А что взамен – не понятно.
https://www.youtube.com/watch?v=X3Y2MXy9aC8
#ИИ #Вызовы21века
YouTube
Towards Understanding Sycophancy in Language Models
Reinforcement learning from human feedback (RLHF) can lead to sycophantic behavior in AI assistants, as they prioritize matching user beliefs over providing truthful responses. This behavior is driven by human preference judgments favoring sycophantic responses.…
Китай слился или это хитроумная и коварная ловушка для США.
22 октября на главном форуме 25-го ежегодного собрания Китайской ассоциации науки и техники, проходившего в городе Хэфэй, провинция Аньхой, Китайская ассоциация науки и техники определила 3 перечня приоритетных ключевых научных, инженерно-технических и промышленно-технических проблем Китая
https://mp.weixin.qq.com/s/TU1mgIl7EXdncHBIPy8Njg
Сенсация в том, что генеративного ИИ (абсолютного приоритета США) в этих перечнях нет. Вообще!
Что касается ИИ, то он упомянут единожды. В научной проблеме – «как добиться низкоэнергетического искусственного интеллекта».
Значит ли это:
1. что Китай, поняв невозможность конкуренции с США в генеративном ИИ, после тотального экспортного запрета на высокопроизводительные чипы для ИИ, просто слился в конкуренции за первенство в ИИ с США?
2. или же Китай, осознав, что генеративный ИИ – это путь в цивилизационную пропасть, окончательно решил уступить дорогу к ней США, -
не ясно.
И о том, и о другом я писал:
• про 1 «Сверхразум на Земле будет один - американский. Новые экспортные ограничения США лишают Китай конкурентных шансов, как минимум, до 2030» https://t.me/theworldisnoteasy/1827
• про 2 «Противостояние США и Китая: если противник движется к самоубийству, просто не мешайте ему» https://t.me/theworldisnoteasy/981
Я потратил 4 дня на анализ, пытаясь понять, что означает это решение Китая. Увы, окончательного вердикта у меня нет.
Скорее, - это п. 2. Но возможно, я переоцениваю стратегическое визионерство КПК.
В любом случае, ознакомьтесь с тремя перечнями приоритетных ключевых проблем Китая, включив автоперевод 1й ссылки.
P.S. Забавно, что об этом пока не пишут главные СМИ.
Ибо никто не понимает этой чрезвычайно тонкой игры Китая. Даже мои российские коллеги, работающий в ведущих научных центрах Китая.
#Китай #ИИ
22 октября на главном форуме 25-го ежегодного собрания Китайской ассоциации науки и техники, проходившего в городе Хэфэй, провинция Аньхой, Китайская ассоциация науки и техники определила 3 перечня приоритетных ключевых научных, инженерно-технических и промышленно-технических проблем Китая
https://mp.weixin.qq.com/s/TU1mgIl7EXdncHBIPy8Njg
Сенсация в том, что генеративного ИИ (абсолютного приоритета США) в этих перечнях нет. Вообще!
Что касается ИИ, то он упомянут единожды. В научной проблеме – «как добиться низкоэнергетического искусственного интеллекта».
Значит ли это:
1. что Китай, поняв невозможность конкуренции с США в генеративном ИИ, после тотального экспортного запрета на высокопроизводительные чипы для ИИ, просто слился в конкуренции за первенство в ИИ с США?
2. или же Китай, осознав, что генеративный ИИ – это путь в цивилизационную пропасть, окончательно решил уступить дорогу к ней США, -
не ясно.
И о том, и о другом я писал:
• про 1 «Сверхразум на Земле будет один - американский. Новые экспортные ограничения США лишают Китай конкурентных шансов, как минимум, до 2030» https://t.me/theworldisnoteasy/1827
• про 2 «Противостояние США и Китая: если противник движется к самоубийству, просто не мешайте ему» https://t.me/theworldisnoteasy/981
Я потратил 4 дня на анализ, пытаясь понять, что означает это решение Китая. Увы, окончательного вердикта у меня нет.
Скорее, - это п. 2. Но возможно, я переоцениваю стратегическое визионерство КПК.
В любом случае, ознакомьтесь с тремя перечнями приоритетных ключевых проблем Китая, включив автоперевод 1й ссылки.
P.S. Забавно, что об этом пока не пишут главные СМИ.
Ибо никто не понимает этой чрезвычайно тонкой игры Китая. Даже мои российские коллеги, работающий в ведущих научных центрах Китая.
#Китай #ИИ
Weixin Official Accounts Platform
29个重大问题难题发布!(附名单)
С вероятностью >95% риск значительный.
Британская разведка оценила риски ГенИИ до 2025.
Только что опубликованный отчет построен на Probability Yardstick - используемый разведкой набор критериев оценки вероятностей.
Полученное резюме таково:
✔️ Генеративный ИИ (ГенИИ) почти наверняка станет усилителем рисков физической и информационной безопасности из-за распространения и усиления возможностей субъектов угроз и увеличения скорости, масштаба и изощренности атак. Совокупный риск является значительным.
✔️ Правительства весьма вероятно не будут иметь полного представления о прогрессе частного сектора, что ограничит их способность снижать риски. Мониторинг внедрения ГенИИ технологий будет сложен. Поэтому технологические неожиданности почти наверняка породят непредвиденные риски.
✔️ Гонка ГенИИ почти наверняка усилится. Не ясно, станет ли ГенИИ шагом к AGI. Но он откроет новые пути прогресса в широком спектре областей. К 2025 году существует реальная вероятность того, что ГенИИ ускорит развитие квантовых вычислений, новых материалов, телекоммуникации и биотехнологий. Но увеличение рисков, связанных с этим, вероятно, проявится после 2025.
В контексте яростных споров техно-оптимистов и алармистов по поводу рисков ГенИИ, этот вердикт британской разведки напомнил мне анекдот с окончанием "пришел лесник и всех выгнал".
#РискиИИ #ИИгонка #Вызовы21века
Британская разведка оценила риски ГенИИ до 2025.
Только что опубликованный отчет построен на Probability Yardstick - используемый разведкой набор критериев оценки вероятностей.
Полученное резюме таково:
✔️ Генеративный ИИ (ГенИИ) почти наверняка станет усилителем рисков физической и информационной безопасности из-за распространения и усиления возможностей субъектов угроз и увеличения скорости, масштаба и изощренности атак. Совокупный риск является значительным.
✔️ Правительства весьма вероятно не будут иметь полного представления о прогрессе частного сектора, что ограничит их способность снижать риски. Мониторинг внедрения ГенИИ технологий будет сложен. Поэтому технологические неожиданности почти наверняка породят непредвиденные риски.
✔️ Гонка ГенИИ почти наверняка усилится. Не ясно, станет ли ГенИИ шагом к AGI. Но он откроет новые пути прогресса в широком спектре областей. К 2025 году существует реальная вероятность того, что ГенИИ ускорит развитие квантовых вычислений, новых материалов, телекоммуникации и биотехнологий. Но увеличение рисков, связанных с этим, вероятно, проявится после 2025.
В контексте яростных споров техно-оптимистов и алармистов по поводу рисков ГенИИ, этот вердикт британской разведки напомнил мне анекдот с окончанием "пришел лесник и всех выгнал".
#РискиИИ #ИИгонка #Вызовы21века
Китайский генеративный ИИ вырывается вперед.
Он уже способен обобщать романы, размером с «Анну Каренину» (хотя пока не дотягивает до «Войны и мира»)
Споры о понимании больших сложных текстов моделями генеративного ИИ легко разрешаются на практике. Достаточно попросить модель обобщить какой-либо из больших сложных текстов, который вы загрузите в неё. И сравнить результат с обобщением, сделанным вами самостоятельно, используя исключительно ваш собственный интеллект.
Главное ограничение современных моделей при решении таких задач – размер текста, который ей нужно обобщить.
Дело в том, что понимание текста определяется не только самим текстом – содержащихся в нем отдельных слов и фраз, - но и из контекста, в котором эти слова и фразы используются. И если интеллект (искусственный или человеческий) не может при обобщении сопоставить написанное на 1й и на 300й страницах текста, то хорошего обобщения не получится.
Люди так могут. Наше «контекстное окно» огромно. Мы можем прочесть 10 томов эпопеи «Красное колесо» Солженицына и обобщить их всего на одной странице.
Однако, даже самая продвинутая из американских моделей Claude 2 от Anthropic имеет «контекстное окно» размером 100 тыс токенов – это примерно 75 тыс слов. Следовательно, обобщить текст размером с роман Толстого «Анна Каренина» она не в состоянии.
А вот объявленная вчера новая большая языковая модель Baichuan2-192k от китайского стартапа Baichuan имеет «контекстное окно» около 350 тыс иероглифов. И это, примерно равно длине перевода романа «Анна Каренина» на китайский.
До размеров «Войны и мира» (на китайском это, примерно, 560 тыс иероглифов) модель пока не дотягивает. Но, тем не менее, Anthropic и OpenAI, не говоря уж о Google и Microsoft, наверняка, крепко озадачились. Ведь если и дальше так пойдет, смогут ли экспортные ограничения на микрочипы сдержать спурт китайских стартапов?
Может статься ведь, что не «железом» единым куется победа в гонке генеративного ИИ.
Подробней https://www.scmp.com/tech/tech-trends/article/3239849/chinese-ai-start-baichuan-claims-beat-anthropic-openai-model-can-process-350000-chinese-characters
#LLM #ИИгонка #Китай
Он уже способен обобщать романы, размером с «Анну Каренину» (хотя пока не дотягивает до «Войны и мира»)
Споры о понимании больших сложных текстов моделями генеративного ИИ легко разрешаются на практике. Достаточно попросить модель обобщить какой-либо из больших сложных текстов, который вы загрузите в неё. И сравнить результат с обобщением, сделанным вами самостоятельно, используя исключительно ваш собственный интеллект.
Главное ограничение современных моделей при решении таких задач – размер текста, который ей нужно обобщить.
Дело в том, что понимание текста определяется не только самим текстом – содержащихся в нем отдельных слов и фраз, - но и из контекста, в котором эти слова и фразы используются. И если интеллект (искусственный или человеческий) не может при обобщении сопоставить написанное на 1й и на 300й страницах текста, то хорошего обобщения не получится.
Люди так могут. Наше «контекстное окно» огромно. Мы можем прочесть 10 томов эпопеи «Красное колесо» Солженицына и обобщить их всего на одной странице.
Однако, даже самая продвинутая из американских моделей Claude 2 от Anthropic имеет «контекстное окно» размером 100 тыс токенов – это примерно 75 тыс слов. Следовательно, обобщить текст размером с роман Толстого «Анна Каренина» она не в состоянии.
А вот объявленная вчера новая большая языковая модель Baichuan2-192k от китайского стартапа Baichuan имеет «контекстное окно» около 350 тыс иероглифов. И это, примерно равно длине перевода романа «Анна Каренина» на китайский.
До размеров «Войны и мира» (на китайском это, примерно, 560 тыс иероглифов) модель пока не дотягивает. Но, тем не менее, Anthropic и OpenAI, не говоря уж о Google и Microsoft, наверняка, крепко озадачились. Ведь если и дальше так пойдет, смогут ли экспортные ограничения на микрочипы сдержать спурт китайских стартапов?
Может статься ведь, что не «железом» единым куется победа в гонке генеративного ИИ.
Подробней https://www.scmp.com/tech/tech-trends/article/3239849/chinese-ai-start-baichuan-claims-beat-anthropic-openai-model-can-process-350000-chinese-characters
#LLM #ИИгонка #Китай
South China Morning Post
Chinese AI start-up claims to beat US rivals in processing long text
The Beijing-based company, launched by the founder of Sogou, says the latest version of its large language model has a bigger ‘context window’ than its foreign competitors.
Карьерой правят не талант и усердный труд, а связи и престиж.
Снесен последний бастион мифа о движущих силах карьеры.
Эйнштейн XXI века Альберт Барабаши, объединив «науку о сложных сетях» (биологических, техногенных, инфраструктурных, социальных, …) с «наукой о больших данных», создал новую «науку об успехе», совершившую революцию в представлениях людей о ключевых факторах и движущих силах карьерного успеха.
Лежащая в основе «науки об успехе» формула «Performance is about you, success is about us» (“Ваша производительность - это о вас, успех - это о нас”) устанавливает универсальный закон мира сложный сетей. Он детально описан в мировом супер-бестселлере Барабаши (см. мой пост [1]). А в двух фразах его можно сформулировать так:
1. Успех любой карьеры зависит от связей человека (определяемых его местом в профессиональной социальной сети – офлайн плюс онлайн) и его престижа (авторитета, уважения, влияния, «кармы» среди участников этой сети).
2. Чем «центральней» (в сетевом смысле) человек в такой сети, тем выше его шансы стать еще более «центральным». Это 100%но соответствует евангельскому «Закону Матфея» - "богатые становятся еще богаче” - феномен неравномерного распределения преимуществ, в котором сторона, уже ими обладающая, продолжает их накапливать и приумножать, в то время как другая, изначально ограниченная, оказывается обделена ещё сильнее и, следовательно, имеет меньшие шансы на дальнейший успех.
За последние 10 лет лаборатория Барабаши доказала, что положение в сети и социальный престиж являются сильными предикторами карьерного успеха в науке и творческих профессиях. Разработанная ими «Наука об успехе» позволяет на практике ответить и на многие другие вопросы (см. мой пост [2]):
• Если ты такой умный, почему не богатый?
• Почему одним все, а другим ничего?
• Что важнее – талант или случайность (удача)?
• От чего зависит наш успех?
• Стоит ли пытаться нанимать «лучших»?
• Как полосы серийных успехов влияют на карьеры?
• Почему выигрывает та или иная команда?
Формула успеха “Ваша производительность - это о вас, успех - это о нас” правит бал, как в научной, так и в творческой карьере, где результативность оценивается субъективно, и потому карьерный успех сильно зависит от социального престижа и известности («центральности» в своей сети).
В более дюжине моих постов с тэгом #ScienceOfSuccess рассказывается о том, как эта формула успеха работает в академической карьере, изобразительном искусстве, а также в кино- и музыкальной индустрии.
Новое исследование группы Барабаши «Количественная оценка иерархии и престижа в балетных академиях США как социальных предикторов карьерного успеха» [3] рушит последний бастион мифа о таланте и усердном труде, как определяющих факторах карьеры в балете.
Принципиальное отличие балета от прочих видов искусств, сильно усложняющее субъективность оценок исполнителей, в том, что балетное исполнение сильно зависит от физических способностей, а не только от художественного таланта. Казалось бы, физические способности, которые формируются перфекционистскими тенденциями и сдерживаются физическими стрессорам (такими как травмы, перетренированность, расстройства пищевого поведения и плохой сон), в балете должны быть несравненно важнее социальных связей и престижа.
Ан нет! Здесь все, как и везде в нашем сетевом мире - рулят сети отношений и иерархий между танцорами, школами, труппами и всеми другими членами балетного сообщества.
Проанализировав результаты соревнований более 6000 молодых танцоров, участвовавших в Гран-при Молодёжной Америки YAGP с 2000 по 2021, исследователи вынесли вердикт:
Несмотря на важность физической подготовки, на отбор и продвижение танцоров влияют далеко не только их исполнительские способности. Огромную роль играет престиж социальных и профессиональных связей.
Мотайте на ус, родители – где будет учиться чадо.
#ScienceOfSuccess
1 https://t.me/theworldisnoteasy/552
2 https://t.me/theworldisnoteasy/551
3 https://www.nature.com/articles/s41598-023-44563-z
Снесен последний бастион мифа о движущих силах карьеры.
Эйнштейн XXI века Альберт Барабаши, объединив «науку о сложных сетях» (биологических, техногенных, инфраструктурных, социальных, …) с «наукой о больших данных», создал новую «науку об успехе», совершившую революцию в представлениях людей о ключевых факторах и движущих силах карьерного успеха.
Лежащая в основе «науки об успехе» формула «Performance is about you, success is about us» (“Ваша производительность - это о вас, успех - это о нас”) устанавливает универсальный закон мира сложный сетей. Он детально описан в мировом супер-бестселлере Барабаши (см. мой пост [1]). А в двух фразах его можно сформулировать так:
1. Успех любой карьеры зависит от связей человека (определяемых его местом в профессиональной социальной сети – офлайн плюс онлайн) и его престижа (авторитета, уважения, влияния, «кармы» среди участников этой сети).
2. Чем «центральней» (в сетевом смысле) человек в такой сети, тем выше его шансы стать еще более «центральным». Это 100%но соответствует евангельскому «Закону Матфея» - "богатые становятся еще богаче” - феномен неравномерного распределения преимуществ, в котором сторона, уже ими обладающая, продолжает их накапливать и приумножать, в то время как другая, изначально ограниченная, оказывается обделена ещё сильнее и, следовательно, имеет меньшие шансы на дальнейший успех.
За последние 10 лет лаборатория Барабаши доказала, что положение в сети и социальный престиж являются сильными предикторами карьерного успеха в науке и творческих профессиях. Разработанная ими «Наука об успехе» позволяет на практике ответить и на многие другие вопросы (см. мой пост [2]):
• Если ты такой умный, почему не богатый?
• Почему одним все, а другим ничего?
• Что важнее – талант или случайность (удача)?
• От чего зависит наш успех?
• Стоит ли пытаться нанимать «лучших»?
• Как полосы серийных успехов влияют на карьеры?
• Почему выигрывает та или иная команда?
Формула успеха “Ваша производительность - это о вас, успех - это о нас” правит бал, как в научной, так и в творческой карьере, где результативность оценивается субъективно, и потому карьерный успех сильно зависит от социального престижа и известности («центральности» в своей сети).
В более дюжине моих постов с тэгом #ScienceOfSuccess рассказывается о том, как эта формула успеха работает в академической карьере, изобразительном искусстве, а также в кино- и музыкальной индустрии.
Новое исследование группы Барабаши «Количественная оценка иерархии и престижа в балетных академиях США как социальных предикторов карьерного успеха» [3] рушит последний бастион мифа о таланте и усердном труде, как определяющих факторах карьеры в балете.
Принципиальное отличие балета от прочих видов искусств, сильно усложняющее субъективность оценок исполнителей, в том, что балетное исполнение сильно зависит от физических способностей, а не только от художественного таланта. Казалось бы, физические способности, которые формируются перфекционистскими тенденциями и сдерживаются физическими стрессорам (такими как травмы, перетренированность, расстройства пищевого поведения и плохой сон), в балете должны быть несравненно важнее социальных связей и престижа.
Ан нет! Здесь все, как и везде в нашем сетевом мире - рулят сети отношений и иерархий между танцорами, школами, труппами и всеми другими членами балетного сообщества.
Проанализировав результаты соревнований более 6000 молодых танцоров, участвовавших в Гран-при Молодёжной Америки YAGP с 2000 по 2021, исследователи вынесли вердикт:
Несмотря на важность физической подготовки, на отбор и продвижение танцоров влияют далеко не только их исполнительские способности. Огромную роль играет престиж социальных и профессиональных связей.
Мотайте на ус, родители – где будет учиться чадо.
#ScienceOfSuccess
1 https://t.me/theworldisnoteasy/552
2 https://t.me/theworldisnoteasy/551
3 https://www.nature.com/articles/s41598-023-44563-z
Telegram
Малоизвестное интересное
Performance is about you, success is about us
Если вы этого еще не поняли, то ваш путь к успеху будет крайне затруднен
Не спрашивай, что твоя сеть может сделать для тебя, спроси, что ты можешь сделать для своей сети. Так можно перефразировать историческую…
Если вы этого еще не поняли, то ваш путь к успеху будет крайне затруднен
Не спрашивай, что твоя сеть может сделать для тебя, спроси, что ты можешь сделать для своей сети. Так можно перефразировать историческую…
Новый фундаментальный закон мироздания.
Что следует из эквивалентности массы-энергии-информации.
Инфоцунами, поднятое новой работой Мелвина Вопсона «Второй закон инфодинамики и его следствия для гипотезы моделируемой Вселенной» [1] теперь докатилось до Euronews [2] и Reuters[3].
Это ожидаемый взрыв интереса.
• Ибо эра фундаментальных открытий в физике (Томсон, Эйнштейн, Резерфорд, Шрёдингер …) закончилась почти полвека назад – еще в 1980м, после чего импульс фундаментальных прорывов как будто иссяк [4].
• А это - реальная заявка на новый прорыв уровня Эйнштейна.
В её основе лежит предложенный Мелвином Вопсоном принцип эквивалентности массы-энергии-информации (M/E/I).
Его суть проста, как все гениальное.
• Принцип эквивалентности массы и энергии (E=mc^2), сформулированный Эйнштейном в 1905 году в рамках специальной теории относительности (был экспериментально подтвержден лишь спустя 20 лет).
• Сформулированный в 1961 году Рольфом Ландауэром и менее известный неспециалистам принцип Ландауэра, устанавливающий связь между потребляемой энергией и количеством информации при вычислениях (был экспериментально подтвержден лишь спустя 30 лет) [5].
• Объединив эквивалентность массы и энергии Эйнштейна и принцип Ландауэра, увязывающий информацию и энергию, Вопсон выдвинул революционную идею: масса, энергия и информация фундаментально эквивалентны.
Особенно важно то, что принцип M/E/I не только органично согласуется с существующими законами физики, но и предлагает новое объяснение таким явлениям, как темная материя, потенциально переосмысливая ее как информацию.
Развитием принципа M/E/I стал сформулированный Вопсоном второй закон инфодинамики - аналог традиционного второго закона термодинамики, утверждающий, что системы и процессы стремятся к наименьшей информационной энтропии в состоянии равновесия. Это понятие контрастирует со вторым законом термодинамики, который утверждает, что энтропия или беспорядок (хаос) в изолированной системе имеет тенденцию увеличиваться с течением времени.
Т.о. получается, что степень термодинамического хаоса в изолированной системе будет лишь расти, а степень информационного хаоса, наоборот, - будет лишь снижаться.
Иными словами, все системы, включая биологическую жизнь, развиваются таким образом, чтобы их информационная энтропия сжималась и сводилась к наиболее оптимальному возможному значению в состоянии равновесия.
Десятки научно-популярных публикаций про второй закон инфодинамики фокусируют внимание читателей на два ее, действительно, сенсационных следствия.
1) Второй закон инфодинамики хорошо согласуется с гипотезой о том, что наша Вселенная представляет собой колоссального размера компьютер, и все мы живём, по сути, внутри компьютерной симуляции.
2) Лежащий в основе второго закона инфодинамики принцип M/E/I:
- во-первых, предлагает новое объяснение таким явлениям, как темная материя, потенциально переосмысливая ее как информацию;
- во-вторых, дает новое объяснение парадокса Ферми: накопление цивилизацией колоссального объема информации ведет к тому, что под ее весом (каждый бит эквивалентен хоть и очень малой, но массе) цивилизация накрывается медным тазом из-за исчерпания энергии для оперирования информацией (следствие формулы Эйнштейна).
Однако мне, самым сенсационным видится иное.
То, что Вопсон разработал метод экспериментальной проверки своей теории [6].
И это значит, что для ее проверки не потребуется, как раньше, 20-30 лет. И мы довольно скоро узнаем:
• живем ли мы в симуляции;
• что скрывает в себе темная материя;
• накроется ли наш мир медным тазом под спудом накопленной информации через рассчитанные Вопсоном 300 лет.
1 https://pubs.aip.org/aip/adv/article/13/10/105308/2915332/The-second-law-of-infodynamics-and-its
2 https://www.youtube.com/watch?v=d6bLqajyxb8
3 https://www.youtube.com/watch?v=K03arHw-gEM
4 https://youtu.be/Pu8jkCqKHpY?t=982
5 https://t.me/theworldisnoteasy/360
6 https://phys.org/news/2022-03-state-universe.html
#Физика #ТермодинамикаВычислений
Что следует из эквивалентности массы-энергии-информации.
Инфоцунами, поднятое новой работой Мелвина Вопсона «Второй закон инфодинамики и его следствия для гипотезы моделируемой Вселенной» [1] теперь докатилось до Euronews [2] и Reuters[3].
Это ожидаемый взрыв интереса.
• Ибо эра фундаментальных открытий в физике (Томсон, Эйнштейн, Резерфорд, Шрёдингер …) закончилась почти полвека назад – еще в 1980м, после чего импульс фундаментальных прорывов как будто иссяк [4].
• А это - реальная заявка на новый прорыв уровня Эйнштейна.
В её основе лежит предложенный Мелвином Вопсоном принцип эквивалентности массы-энергии-информации (M/E/I).
Его суть проста, как все гениальное.
• Принцип эквивалентности массы и энергии (E=mc^2), сформулированный Эйнштейном в 1905 году в рамках специальной теории относительности (был экспериментально подтвержден лишь спустя 20 лет).
• Сформулированный в 1961 году Рольфом Ландауэром и менее известный неспециалистам принцип Ландауэра, устанавливающий связь между потребляемой энергией и количеством информации при вычислениях (был экспериментально подтвержден лишь спустя 30 лет) [5].
• Объединив эквивалентность массы и энергии Эйнштейна и принцип Ландауэра, увязывающий информацию и энергию, Вопсон выдвинул революционную идею: масса, энергия и информация фундаментально эквивалентны.
Особенно важно то, что принцип M/E/I не только органично согласуется с существующими законами физики, но и предлагает новое объяснение таким явлениям, как темная материя, потенциально переосмысливая ее как информацию.
Развитием принципа M/E/I стал сформулированный Вопсоном второй закон инфодинамики - аналог традиционного второго закона термодинамики, утверждающий, что системы и процессы стремятся к наименьшей информационной энтропии в состоянии равновесия. Это понятие контрастирует со вторым законом термодинамики, который утверждает, что энтропия или беспорядок (хаос) в изолированной системе имеет тенденцию увеличиваться с течением времени.
Т.о. получается, что степень термодинамического хаоса в изолированной системе будет лишь расти, а степень информационного хаоса, наоборот, - будет лишь снижаться.
Иными словами, все системы, включая биологическую жизнь, развиваются таким образом, чтобы их информационная энтропия сжималась и сводилась к наиболее оптимальному возможному значению в состоянии равновесия.
Десятки научно-популярных публикаций про второй закон инфодинамики фокусируют внимание читателей на два ее, действительно, сенсационных следствия.
1) Второй закон инфодинамики хорошо согласуется с гипотезой о том, что наша Вселенная представляет собой колоссального размера компьютер, и все мы живём, по сути, внутри компьютерной симуляции.
2) Лежащий в основе второго закона инфодинамики принцип M/E/I:
- во-первых, предлагает новое объяснение таким явлениям, как темная материя, потенциально переосмысливая ее как информацию;
- во-вторых, дает новое объяснение парадокса Ферми: накопление цивилизацией колоссального объема информации ведет к тому, что под ее весом (каждый бит эквивалентен хоть и очень малой, но массе) цивилизация накрывается медным тазом из-за исчерпания энергии для оперирования информацией (следствие формулы Эйнштейна).
Однако мне, самым сенсационным видится иное.
То, что Вопсон разработал метод экспериментальной проверки своей теории [6].
И это значит, что для ее проверки не потребуется, как раньше, 20-30 лет. И мы довольно скоро узнаем:
• живем ли мы в симуляции;
• что скрывает в себе темная материя;
• накроется ли наш мир медным тазом под спудом накопленной информации через рассчитанные Вопсоном 300 лет.
1 https://pubs.aip.org/aip/adv/article/13/10/105308/2915332/The-second-law-of-infodynamics-and-its
2 https://www.youtube.com/watch?v=d6bLqajyxb8
3 https://www.youtube.com/watch?v=K03arHw-gEM
4 https://youtu.be/Pu8jkCqKHpY?t=982
5 https://t.me/theworldisnoteasy/360
6 https://phys.org/news/2022-03-state-universe.html
#Физика #ТермодинамикаВычислений
AIP Publishing
The second law of infodynamics and its implications for the simulated universe hypothesis
The simulation hypothesis is a philosophical theory, in which the entire universe and our objective reality are just simulated constructs. Despite the lack of e
Книга книг об ИИ – обязательное чтение.
CB Insights опубликовал 120-страничную «Библию генеративного ИИ».
• Для неспециалистов самое интересное и понятное – часть 1.
• Для желающих понять струи и течения – часть 2.
• Для инвесторов и госчиновников – часть 3.
Часть 1. Бум генеративного ИИ (ГенИИ) зрел постепенно, но вдруг рванул так, что мир закачался.
• как это случилось
• и почему
Часть 2. Как выглядит сочетание шторма с цунами.
• Цунами и шторм - явления разной природы. Но в редких случаях они могут совпасть по времени и усилить эффект друг друга.
• Так и случилось с ГенИИ:
– финансирование взлетело до небес благодаря наплыву инвесторов,
– БигТех поменял свои приоритеты, сделав главную ставку на ГенИИ
Часть 3. Куда движется генеративный ИИ?
• Бой за инфраструктуру («есть железо – участвуй в гонке; нет железа – кури в сторонке»)
• Область применения ГенИИ – повсюду (это как с электричеством)
• Локомотивами индустриальных применений уже становятся здравоохранение и науки о жизни, финансы и страхование, ритейл
https://www.cbinsights.com/research/report/generative-ai-bible/
#ИИ #ИИгонка
CB Insights опубликовал 120-страничную «Библию генеративного ИИ».
• Для неспециалистов самое интересное и понятное – часть 1.
• Для желающих понять струи и течения – часть 2.
• Для инвесторов и госчиновников – часть 3.
Часть 1. Бум генеративного ИИ (ГенИИ) зрел постепенно, но вдруг рванул так, что мир закачался.
• как это случилось
• и почему
Часть 2. Как выглядит сочетание шторма с цунами.
• Цунами и шторм - явления разной природы. Но в редких случаях они могут совпасть по времени и усилить эффект друг друга.
• Так и случилось с ГенИИ:
– финансирование взлетело до небес благодаря наплыву инвесторов,
– БигТех поменял свои приоритеты, сделав главную ставку на ГенИИ
Часть 3. Куда движется генеративный ИИ?
• Бой за инфраструктуру («есть железо – участвуй в гонке; нет железа – кури в сторонке»)
• Область применения ГенИИ – повсюду (это как с электричеством)
• Локомотивами индустриальных применений уже становятся здравоохранение и науки о жизни, финансы и страхование, ритейл
https://www.cbinsights.com/research/report/generative-ai-bible/
#ИИ #ИИгонка
CB Insights Research
Generative AI Bible: The ultimate guide to genAI disruption - CB Insights Research
The generative AI landscape is evolving rapidly. Discover how the tech has developed, where it's going, and which trends and players you need to watch.
Нечеловеческие знания, превращающие нас в сверхлюдей.
Мечта Демиса Хассабиса о золотой жиле в применении ИИ стала ближе.
Новое исследование Google DeepMind “Преодоление разрыва в знаниях между человеком и ИИ” [1] – важный шаг к реализации сокровенной мечты руководителя и идеолога DeepMind Демиса Хассабиса.
Эта мечта – превратить людей в сверхлюдей, предоставив им возможности:
• доступа к сверхчеловеческим знаниям машинного сверхинтеллекта;
• выявления среди этого океана знаний тех, что люди в состоянии понять и усвоить;
• обучения людей для передачи им знаний от сверхинтеллекта.
Речь идет вот о чем.
Во-первых, искусственный сверхинтеллект уже существует, и не один.
О некоторых из них мы это знаем точно (ведь никому в голову уже не придет сомневаться в сверхчеловеческом умении ИИ AlphaZero играть в шахматы и Го или в сверхчеловеческом умении ИИ AlphaFold предсказывать трехмерную структуру белков. О других ИИ – например, чатботах типа ChatGPT, – мы точно не знаем, обладают ли они какими-то сверхчеловеческими знаниями. Но есть подозрения, что такие знания у них уже есть.
Для справки. Сверхчеловеческие способности ИИ-систем могут проявляться тремя способами:
1) чистой вычислительной мощью машин,
2) новым способом рассуждения о существующих знаниях
3) знаниями, которыми люди еще не обладают.
Варианты 2 и 3 авторы называют сверхчеловеческим знанием.
Во-вторых, число типов искусственного сверхинтеллекта будет все быстрее расти по мере расширения уже идущего процесса дообучения больших языковых моделей на специализированных наборах обучающих данных.
Т.о. триединая мечта Хассабиса будет становится все более актуальной.
Более того. С точки зрения бизнеса, именно это, а не создание на основе ИИ-чатботов всевозможных ассистентов, может стать золотой жилой применения ИИ.
• Прагматики, типа Сэма Альтмана, не желают этого понять. Они предпочитают ковать железо, не отходя от кассы, здесь и сейчас, на самом востребованном в ИИ – на диалоговых ассистентах (на которых сейчас приходится 62% финансирования разработок ИИ [2]).
• Романтик Демис Хассабис смотрит дальше прагматиков и видит там сверхлюдей, обучаемых специализированными машинными сверхинтеллектами всевозможным сверхчеловеческим знаниям.
Итак, что уже сделано.
На основе ИИ AlphaZero создан фреймворк, позволяющий:
1) Выявлять концепции, которые знают (см. рисунок):
a) как ИИ, так и люди (M ∩ H)
b) только люди (H − M)
c) только машины (M − H) – это сверхчеловеческие знания
2) Среди концепций (M − H), выявлять концепции (M − H)*. Эти концепции изначально трудны для понимания людьми, но люди все же в состоянии их понять и усвоить (напр., знаменитый 37-й ход AlphaGo в матче с Ли Седолом [3])
3) Обучать (путем наблюдения за действиями сверхинтеллекта) концепциям (M − H)* продвинутых в этой области людей, тем самым, как бы превращая их в сверхлюдей.
Фреймворк был проверен экспериментально на ведущих гроссмейстерах мира (с рейтингом 2700-2800). Результаты исследования показывают очевидное улучшение способности гроссмейстеров находить концептуальные ходы из области (M − H)*, по сравнению с их результатами до обучения путем наблюдения за ходами AlphaZero.
Резюме
1) Это лишь начало. Впереди еще пахать и пахать.
2) Переделка фреймворка из области шахмат в области языковых моделей не тривиальна, но возможна.
3) Если мечта Хассабиса взлетит – обретение людьми сверхчеловеческих знаний может стать золотой жилой для развития науки и технологий, ну и конечно для бизнеса.
Однако, пропасти неравенства станут колоссальными: и не только в доходах и здоровье, но и в интеллекте.
Поясняющий рисунок https://disk.yandex.ru/i/V3-KGjMEvGiABA
1 https://arxiv.org/abs/2310.16410
2 https://research-assets.cbinsights.com/2023/08/03113341/GenAI-treemap-072023-1-1024x576.png
3 https://www.youtube.com/watch?v=HT-UZkiOLv8
#ИИ #Вызовы21века
Мечта Демиса Хассабиса о золотой жиле в применении ИИ стала ближе.
Новое исследование Google DeepMind “Преодоление разрыва в знаниях между человеком и ИИ” [1] – важный шаг к реализации сокровенной мечты руководителя и идеолога DeepMind Демиса Хассабиса.
Эта мечта – превратить людей в сверхлюдей, предоставив им возможности:
• доступа к сверхчеловеческим знаниям машинного сверхинтеллекта;
• выявления среди этого океана знаний тех, что люди в состоянии понять и усвоить;
• обучения людей для передачи им знаний от сверхинтеллекта.
Речь идет вот о чем.
Во-первых, искусственный сверхинтеллект уже существует, и не один.
О некоторых из них мы это знаем точно (ведь никому в голову уже не придет сомневаться в сверхчеловеческом умении ИИ AlphaZero играть в шахматы и Го или в сверхчеловеческом умении ИИ AlphaFold предсказывать трехмерную структуру белков. О других ИИ – например, чатботах типа ChatGPT, – мы точно не знаем, обладают ли они какими-то сверхчеловеческими знаниями. Но есть подозрения, что такие знания у них уже есть.
Для справки. Сверхчеловеческие способности ИИ-систем могут проявляться тремя способами:
1) чистой вычислительной мощью машин,
2) новым способом рассуждения о существующих знаниях
3) знаниями, которыми люди еще не обладают.
Варианты 2 и 3 авторы называют сверхчеловеческим знанием.
Во-вторых, число типов искусственного сверхинтеллекта будет все быстрее расти по мере расширения уже идущего процесса дообучения больших языковых моделей на специализированных наборах обучающих данных.
Т.о. триединая мечта Хассабиса будет становится все более актуальной.
Более того. С точки зрения бизнеса, именно это, а не создание на основе ИИ-чатботов всевозможных ассистентов, может стать золотой жилой применения ИИ.
• Прагматики, типа Сэма Альтмана, не желают этого понять. Они предпочитают ковать железо, не отходя от кассы, здесь и сейчас, на самом востребованном в ИИ – на диалоговых ассистентах (на которых сейчас приходится 62% финансирования разработок ИИ [2]).
• Романтик Демис Хассабис смотрит дальше прагматиков и видит там сверхлюдей, обучаемых специализированными машинными сверхинтеллектами всевозможным сверхчеловеческим знаниям.
Итак, что уже сделано.
На основе ИИ AlphaZero создан фреймворк, позволяющий:
1) Выявлять концепции, которые знают (см. рисунок):
a) как ИИ, так и люди (M ∩ H)
b) только люди (H − M)
c) только машины (M − H) – это сверхчеловеческие знания
2) Среди концепций (M − H), выявлять концепции (M − H)*. Эти концепции изначально трудны для понимания людьми, но люди все же в состоянии их понять и усвоить (напр., знаменитый 37-й ход AlphaGo в матче с Ли Седолом [3])
3) Обучать (путем наблюдения за действиями сверхинтеллекта) концепциям (M − H)* продвинутых в этой области людей, тем самым, как бы превращая их в сверхлюдей.
Фреймворк был проверен экспериментально на ведущих гроссмейстерах мира (с рейтингом 2700-2800). Результаты исследования показывают очевидное улучшение способности гроссмейстеров находить концептуальные ходы из области (M − H)*, по сравнению с их результатами до обучения путем наблюдения за ходами AlphaZero.
Резюме
1) Это лишь начало. Впереди еще пахать и пахать.
2) Переделка фреймворка из области шахмат в области языковых моделей не тривиальна, но возможна.
3) Если мечта Хассабиса взлетит – обретение людьми сверхчеловеческих знаний может стать золотой жилой для развития науки и технологий, ну и конечно для бизнеса.
Однако, пропасти неравенства станут колоссальными: и не только в доходах и здоровье, но и в интеллекте.
Поясняющий рисунок https://disk.yandex.ru/i/V3-KGjMEvGiABA
1 https://arxiv.org/abs/2310.16410
2 https://research-assets.cbinsights.com/2023/08/03113341/GenAI-treemap-072023-1-1024x576.png
3 https://www.youtube.com/watch?v=HT-UZkiOLv8
#ИИ #Вызовы21века
Яндекс Диск
Обучение людей нечеловеческим знаниям машинного сверхинтеллекта.jpg
Посмотреть и скачать с Яндекс Диска
Перед важным решением обязательно пройдите через дверной проем.
Экспериментально подтвержден чудовищно странный баг в сознании людей.
Согласно древнему поверию, дверь является своеобразным порталом между пространствами. И хотя в наше время это звучит низкопробным суеверным бредом, как иначе можно объяснить результаты солидного научного эксперимента, проведенного Департаментом психологии Йельского университета?
На общечеловеческом уровне, похоже, никак. Говоря же научным языком, объяснение таково: восприятие более низкого уровня способно ограничивать даже самые непоколебимые когнитивные предубеждения более высокого уровня – напр., при принятии решений.
Пять экспериментов исследования того, как «визуальные границы восприятия событий» ограничивают «эффект числового якоря» при принятии решений, проводились так (схему эксперимента 1 см. на картинке).
• «Эффект числового якоря» в когнитивной психологии и принятия решений заключается в том, что первоначальное числовое значение, с которым сталкивается человек, может в дальнейшем влиять на его оценки или решения. Это числовое значение выступает в качестве "якоря", цепляясь за который, человек делает не совсем объективные суждения.
Например:
- Сначала человека просят решить капчу, а потом предлагают на вид прикинуть цену чемодана или решить, сколько часов общественных работ справедливо дать в качестве наказания за неприличное поведение человека в общественном месте.
- «Эффект числового якоря» проявится в том, что если одним людям показывать в капче число 29, а другим 92, то последние будут при принятии своего решения (цена чемодана или число часов наказания) давать более высокие цифры.
- и ничего с этим числовым якорем сделать невозможно, ибо он запаян в нас эволюцией.
• Влияние визуальных границ восприятия событий хорошо иллюстрируется «эффектом дверного проема». Этот эффект выражается в скачкообразном ухудшении кратковременной памяти в момент прохождения через дверной проем (что резко меняет восприятие окружающего). Мы склонны забывать о предметах, что только что держали в руках, сразу после прохождения проема и часто забываем, о чем думали или планировали сделать, пока не прошли проем.
• Оба эффекта (числового якоря и дверного проема) имеют объяснения (погуглите). На мой взгляд, все они довольно спорны. Но не суть. Ибо вот что фантастически интересно.
• Как показали 5 экспериментов Департамента психологии Йельского университета, «эффект дверного проема» сильно ослабляет или даже вообще устраняет «эффект числового якоря». И это распространяется на широкий спектр вопросов принятия решений: экономические оценки, вопросы о фактах, юридические суждения …
Это означает, как минимум, следующее.
1) Эволюция вложила в нас такие баги, что и в алкогольном бреду не привидятся. И посему говорить о принятии гарантированно верных решений, если их принимают люди, не приходится.
2) Мы можем сколько угодно смеяться, но имеет смыл вменить перед принятием решений прохождение через анфиладу комнат:
- бизнесменам и экспертам по экономике;
- аналитикам всех сортов;
- судьям;
- депутатам-законодателям и т.п.
Схема эксперимента 1 https://disk.yandex.ru/i/7qxL2zGDE8v3kw
Отчет исследования https://www.pnas.org/doi/10.1073/pnas.2303883120 (за крепким пейволом)
Для особо любознательных https://wetransfer.com/downloads/ad3612e3628252e4e85893824a63d25c20231108224917/0047ab62864f809000bdafd24e7099f220231108224951/86d5fa
#КогнитивныеИскажения #ИнтеллектуальнаяСлепота
Экспериментально подтвержден чудовищно странный баг в сознании людей.
Согласно древнему поверию, дверь является своеобразным порталом между пространствами. И хотя в наше время это звучит низкопробным суеверным бредом, как иначе можно объяснить результаты солидного научного эксперимента, проведенного Департаментом психологии Йельского университета?
На общечеловеческом уровне, похоже, никак. Говоря же научным языком, объяснение таково: восприятие более низкого уровня способно ограничивать даже самые непоколебимые когнитивные предубеждения более высокого уровня – напр., при принятии решений.
Пять экспериментов исследования того, как «визуальные границы восприятия событий» ограничивают «эффект числового якоря» при принятии решений, проводились так (схему эксперимента 1 см. на картинке).
• «Эффект числового якоря» в когнитивной психологии и принятия решений заключается в том, что первоначальное числовое значение, с которым сталкивается человек, может в дальнейшем влиять на его оценки или решения. Это числовое значение выступает в качестве "якоря", цепляясь за который, человек делает не совсем объективные суждения.
Например:
- Сначала человека просят решить капчу, а потом предлагают на вид прикинуть цену чемодана или решить, сколько часов общественных работ справедливо дать в качестве наказания за неприличное поведение человека в общественном месте.
- «Эффект числового якоря» проявится в том, что если одним людям показывать в капче число 29, а другим 92, то последние будут при принятии своего решения (цена чемодана или число часов наказания) давать более высокие цифры.
- и ничего с этим числовым якорем сделать невозможно, ибо он запаян в нас эволюцией.
• Влияние визуальных границ восприятия событий хорошо иллюстрируется «эффектом дверного проема». Этот эффект выражается в скачкообразном ухудшении кратковременной памяти в момент прохождения через дверной проем (что резко меняет восприятие окружающего). Мы склонны забывать о предметах, что только что держали в руках, сразу после прохождения проема и часто забываем, о чем думали или планировали сделать, пока не прошли проем.
• Оба эффекта (числового якоря и дверного проема) имеют объяснения (погуглите). На мой взгляд, все они довольно спорны. Но не суть. Ибо вот что фантастически интересно.
• Как показали 5 экспериментов Департамента психологии Йельского университета, «эффект дверного проема» сильно ослабляет или даже вообще устраняет «эффект числового якоря». И это распространяется на широкий спектр вопросов принятия решений: экономические оценки, вопросы о фактах, юридические суждения …
Это означает, как минимум, следующее.
1) Эволюция вложила в нас такие баги, что и в алкогольном бреду не привидятся. И посему говорить о принятии гарантированно верных решений, если их принимают люди, не приходится.
2) Мы можем сколько угодно смеяться, но имеет смыл вменить перед принятием решений прохождение через анфиладу комнат:
- бизнесменам и экспертам по экономике;
- аналитикам всех сортов;
- судьям;
- депутатам-законодателям и т.п.
Схема эксперимента 1 https://disk.yandex.ru/i/7qxL2zGDE8v3kw
Отчет исследования https://www.pnas.org/doi/10.1073/pnas.2303883120 (за крепким пейволом)
Для особо любознательных https://wetransfer.com/downloads/ad3612e3628252e4e85893824a63d25c20231108224917/0047ab62864f809000bdafd24e7099f220231108224951/86d5fa
#КогнитивныеИскажения #ИнтеллектуальнаяСлепота
Яндекс Диск
Эксперимент 1.jpg
Посмотреть и скачать с Яндекс Диска