При падении астероида всем не выжить.
Но можно попытаться отклонить астероид так, чтоб он упал на США.
Два года назад в «Апокалипсисе от Адама» я рассказывал о том, как нарастающая иррациональность ведет человечество к экзистенциальной катастрофе. Свой рассказ о превращении Homo sapiens в Homo irrationalis я иллюстрировал метафорическим рядом фильма Адама МакКея «Не смотрите наверх».
Макс Тегмарк, опубликовавший в Time эссе «Мышление об ИИ в духе “Не-смотрите-наверх” может обречь нас на гибель», детализировал и раскрасил метафорический ряд фильма Адама МакКея. Теперь эти метафоры актуализированы по состоянию на конец апреля 2023. Вот их краткий перечень.
Метафорическая аргументация технооптимистов ИИ такова.
• «Астероида нет»
• «Он заденет Землю не скоро»
• «Обсуждение астероида отвлекает от более насущных проблем»
• «Астероид остановится до того, как врежется в Землю»
• «Астероид уже почти остановился»
• «Мы будем в порядке, даже если на нас упадет астероид»
• «Мы уже приняли все необходимые меры предосторожности»
Технореалисты, соглашающиеся с наличием некоторого риска, дополняют вышеперечисленное двумя практическими предложениями.
• «Главное - не отклонять астероид, т.к. он может содержать много чрезвычайно ценных пород»
• «Давайте сделаем так, чтобы астероид первым упал на США»
Ну а технопессимисты ИИ выступают в своем духе.
• «Мы заслуживаем того, чтобы нас пришиб астероид»
• «Падение астероида — естественный следующий этап космической жизни»
• «Это неизбежно, и потому давайте не будем пытаться этого избежать»
Завершается эссе так.
«Хотя человечество мчится к обрыву, мы еще не достигли его, и у нас еще есть время замедлиться, изменить курс и не упасть, а вместо этого насладиться удивительными преимуществами, которые может предложить безопасный, согласованный ИИ. Для этого нужно согласиться с тем, что обрыв действительно существует и падение с него никому не выгодно.
Нужно просто посмотреть наверх!»
И не быть при этом слепым, - добавлю я от себя.
#ИИ
Но можно попытаться отклонить астероид так, чтоб он упал на США.
Два года назад в «Апокалипсисе от Адама» я рассказывал о том, как нарастающая иррациональность ведет человечество к экзистенциальной катастрофе. Свой рассказ о превращении Homo sapiens в Homo irrationalis я иллюстрировал метафорическим рядом фильма Адама МакКея «Не смотрите наверх».
Макс Тегмарк, опубликовавший в Time эссе «Мышление об ИИ в духе “Не-смотрите-наверх” может обречь нас на гибель», детализировал и раскрасил метафорический ряд фильма Адама МакКея. Теперь эти метафоры актуализированы по состоянию на конец апреля 2023. Вот их краткий перечень.
Метафорическая аргументация технооптимистов ИИ такова.
• «Астероида нет»
• «Он заденет Землю не скоро»
• «Обсуждение астероида отвлекает от более насущных проблем»
• «Астероид остановится до того, как врежется в Землю»
• «Астероид уже почти остановился»
• «Мы будем в порядке, даже если на нас упадет астероид»
• «Мы уже приняли все необходимые меры предосторожности»
Технореалисты, соглашающиеся с наличием некоторого риска, дополняют вышеперечисленное двумя практическими предложениями.
• «Главное - не отклонять астероид, т.к. он может содержать много чрезвычайно ценных пород»
• «Давайте сделаем так, чтобы астероид первым упал на США»
Ну а технопессимисты ИИ выступают в своем духе.
• «Мы заслуживаем того, чтобы нас пришиб астероид»
• «Падение астероида — естественный следующий этап космической жизни»
• «Это неизбежно, и потому давайте не будем пытаться этого избежать»
Завершается эссе так.
«Хотя человечество мчится к обрыву, мы еще не достигли его, и у нас еще есть время замедлиться, изменить курс и не упасть, а вместо этого насладиться удивительными преимуществами, которые может предложить безопасный, согласованный ИИ. Для этого нужно согласиться с тем, что обрыв действительно существует и падение с него никому не выгодно.
Нужно просто посмотреть наверх!»
И не быть при этом слепым, - добавлю я от себя.
#ИИ
Medium
Апокалипсис от Адама
Иррациональность ведет к экзистенциальной катастрофе
ChatGPT эволюционирует в 3 000 000 раз быстрее людей.
И потому даже не пытайтесь представить, на что он будет способен к 2030.
Новый носитель высшего интеллекта на Земле – ИИ больших языковых моделей, – по сути, является небиологическим существом. В силу этого он эволюционирует (см. рис. слева) с немыслимой для биологических существ скоростью.
• Эволюция людей от «предыдущей версии» Homo erectus к «текущей версии» Homo sapiens заняла около 1 млн лет.
• При этом Homo erectus вовсе не был тупым и безмозглым животным. Он изготавливал широкий ассортимент каменных орудий, вел образ жизни охотника-собирателя, использовал огонь для защиты от хищников и приготовления пищи и освоил огромные пространства от Африки до Юго-Восточной Азии.
• Однако, по своему интеллектуальному потенциалу наша «предыдущая версия» сильно уступала нашей «текущей версии», изготавливающей атомные бомбы и космические корабли.
Новый носитель высшего интеллекта на Земле – ИИ больших языковых моделей, – эволюционирует примерно в 3 млн раз быстрее.
• Эволюция предыдущей версии ChatGPT за номером 3.5 к текущей версии за номером 4.0 заняла всего 4 месяца (с ноября 2022 до марта 2023)
• Скачок интеллектуального потенциала от предыдущей к текущей версии ChatGPT оказался не меньшим, чем скачок способностей от Homo erectus к Homo sapiens (см. рис. справа).
При сохранении такой скорости роста способностей (а вероятность ее сохранения ничуть не ниже ее снижения – точнее, этого не знает никто) уже буквально через год очередная версия ИИ больших языковых моделей (типа ChatGPT 5.0), как Тузик грелку, порвет людей на всех существующих в мире экзаменах.
А на что через 5-7 лет будет способен ChatGPT 10.0 люди предсказать просто не могут (но с таким прогнозом, наверняка справится ChatGPT 9.0).
Вышеописанный процесс – есть ни что иное, как достижение сингулярной фазы развития технологической цивилизации. Что, говоря простым языком, означает:
Скорость развития такова, что прогнозировать его результаты даже на малых временных горизонтах (порядка года) становится невозможным.
О последствиях и рисках этого вы можете подумать на выходных.
Источники диаграмм:
https://github.com/Mooler0410/LLMsPracticalGuide
https://www.visualcapitalist.com/how-smart-is-chatgpt/
#ИИ
И потому даже не пытайтесь представить, на что он будет способен к 2030.
Новый носитель высшего интеллекта на Земле – ИИ больших языковых моделей, – по сути, является небиологическим существом. В силу этого он эволюционирует (см. рис. слева) с немыслимой для биологических существ скоростью.
• Эволюция людей от «предыдущей версии» Homo erectus к «текущей версии» Homo sapiens заняла около 1 млн лет.
• При этом Homo erectus вовсе не был тупым и безмозглым животным. Он изготавливал широкий ассортимент каменных орудий, вел образ жизни охотника-собирателя, использовал огонь для защиты от хищников и приготовления пищи и освоил огромные пространства от Африки до Юго-Восточной Азии.
• Однако, по своему интеллектуальному потенциалу наша «предыдущая версия» сильно уступала нашей «текущей версии», изготавливающей атомные бомбы и космические корабли.
Новый носитель высшего интеллекта на Земле – ИИ больших языковых моделей, – эволюционирует примерно в 3 млн раз быстрее.
• Эволюция предыдущей версии ChatGPT за номером 3.5 к текущей версии за номером 4.0 заняла всего 4 месяца (с ноября 2022 до марта 2023)
• Скачок интеллектуального потенциала от предыдущей к текущей версии ChatGPT оказался не меньшим, чем скачок способностей от Homo erectus к Homo sapiens (см. рис. справа).
При сохранении такой скорости роста способностей (а вероятность ее сохранения ничуть не ниже ее снижения – точнее, этого не знает никто) уже буквально через год очередная версия ИИ больших языковых моделей (типа ChatGPT 5.0), как Тузик грелку, порвет людей на всех существующих в мире экзаменах.
А на что через 5-7 лет будет способен ChatGPT 10.0 люди предсказать просто не могут (но с таким прогнозом, наверняка справится ChatGPT 9.0).
Вышеописанный процесс – есть ни что иное, как достижение сингулярной фазы развития технологической цивилизации. Что, говоря простым языком, означает:
Скорость развития такова, что прогнозировать его результаты даже на малых временных горизонтах (порядка года) становится невозможным.
О последствиях и рисках этого вы можете подумать на выходных.
Источники диаграмм:
https://github.com/Mooler0410/LLMsPracticalGuide
https://www.visualcapitalist.com/how-smart-is-chatgpt/
#ИИ
Первая в истории материализация кота Шрёдингера.
Доказано, что квантовые явления масштабируются в привычный физический мир.
Это примерно как провести материализацию духов. Только с гораздо более серьезными практическими последствиями.
С момента открытия субатомного микромира квантовой механики, предполагалось, что действующие в нем диковинные законы не применимы к макроскопическим объектам физического мира привычной нам реальности.
Казалось очевидным, что одновременно живой и мертвый Кот Шрёдингера – всего лишь мысленная абстракция, иллюстрирующая возможность суперпозиции (смешения) двух состояний атомного ядра.
Мысль о том, что макроскопический физический объект может одновременно быть в двух состояниях, которые различны в соответствии с классической физикой, описывающей повседневный мир, хоть и допускалась, но лишь умозрительно.
И вот прорыв из квантовой реальности в наш физический макромир.
Сделанный из сапфирового кристалла кот Шредингера (кусок кристалла массой около половины ресницы) экспериментально продемонстрировал, что квантовые эффекты могут масштабироваться.
Сапфировый кот Шредингера, весящий 16 микрограмм, существует одновременно в двух разных состояниях, одновременно качаясь в двух направлениях.
• Чтобы понять прорывность этого результата, достаточно знать, что масса Сапфирового кота Шредингера в 100 триллионов раз превышает массу кошачьих состояний, ранее созданных на молекулярном уровне.
• В новом эксперименте исследователи покачивали часть кристалла сапфира таким образом, что его 100 миллионов миллиардов атомов двигались в двух направлениях одновременно.
Теперь уже можно помечтать и о граммовых (а там, глядишь, и килограммовых) котах Шредингера.
А за всем за этим маячит и манит возможность ретрокаузальности (обратной причинности) – ибо в таком мире возможно влияние будущего на прошлое.
#КвантоваяМеханика
Доказано, что квантовые явления масштабируются в привычный физический мир.
Это примерно как провести материализацию духов. Только с гораздо более серьезными практическими последствиями.
С момента открытия субатомного микромира квантовой механики, предполагалось, что действующие в нем диковинные законы не применимы к макроскопическим объектам физического мира привычной нам реальности.
Казалось очевидным, что одновременно живой и мертвый Кот Шрёдингера – всего лишь мысленная абстракция, иллюстрирующая возможность суперпозиции (смешения) двух состояний атомного ядра.
Мысль о том, что макроскопический физический объект может одновременно быть в двух состояниях, которые различны в соответствии с классической физикой, описывающей повседневный мир, хоть и допускалась, но лишь умозрительно.
И вот прорыв из квантовой реальности в наш физический макромир.
Сделанный из сапфирового кристалла кот Шредингера (кусок кристалла массой около половины ресницы) экспериментально продемонстрировал, что квантовые эффекты могут масштабироваться.
Сапфировый кот Шредингера, весящий 16 микрограмм, существует одновременно в двух разных состояниях, одновременно качаясь в двух направлениях.
• Чтобы понять прорывность этого результата, достаточно знать, что масса Сапфирового кота Шредингера в 100 триллионов раз превышает массу кошачьих состояний, ранее созданных на молекулярном уровне.
• В новом эксперименте исследователи покачивали часть кристалла сапфира таким образом, что его 100 миллионов миллиардов атомов двигались в двух направлениях одновременно.
Теперь уже можно помечтать и о граммовых (а там, глядишь, и килограммовых) котах Шредингера.
А за всем за этим маячит и манит возможность ретрокаузальности (обратной причинности) – ибо в таком мире возможно влияние будущего на прошлое.
#КвантоваяМеханика
Science
Schrödinger cat states of a 16-microgram mechanical oscillator
The collective motion of about 1017 atoms was prepared in quantum superpositions of macroscopically distinct states.
Либо победа над Байденом, либо США рухнут в хаос.
Первый в истории политтехнологий видеоролик, созданный нечеловеческим разумом.
Республиканский национальный комитет отреагировал с нечеловеческой изощренностью на объявление президента Байдена о решении переизбираться.
Политтехнологи РНК не стали сами заморачиваться, а дали задание генеративному ИИ создать полуминутный ролик, демонстрирующий в какую пропасть покатится страна, если снова изберет этого «худшего в истории президента».
ИИ тоже не стал заморачиваться, изображая антиутопическую версию будущего для США, если Байден будет переизбран.
• Сначала показаны Байден и его вице-президент Камала Харрис, празднующие победу на вечеринке в честь дня выборов.
• После чего следует серия воображаемых репортажей о международных и внутренних кризисах, которые, по версии ИИ, последуют за победой Байдена в 2024 году: конфликт на Тайване, финансовый кризис, мигранты, вспышка преступности …
Для моего человеческого восприятия, ролик получился примитивный. Но на то автор и обладает нечеловеческим разумом, чтобы лучше нас понимать, на какой низкопробной мякине людей проще разводить.
На выборах 2024 ИИ вовсю разгуляется по буфету. И мир увидит такое, что 1й политтехнологический ролик ИИ будет смешно вспоминать.
Но первая ласточка уже прилетела.
#ИИ #Выборы
Первый в истории политтехнологий видеоролик, созданный нечеловеческим разумом.
Республиканский национальный комитет отреагировал с нечеловеческой изощренностью на объявление президента Байдена о решении переизбираться.
Политтехнологи РНК не стали сами заморачиваться, а дали задание генеративному ИИ создать полуминутный ролик, демонстрирующий в какую пропасть покатится страна, если снова изберет этого «худшего в истории президента».
ИИ тоже не стал заморачиваться, изображая антиутопическую версию будущего для США, если Байден будет переизбран.
• Сначала показаны Байден и его вице-президент Камала Харрис, празднующие победу на вечеринке в честь дня выборов.
• После чего следует серия воображаемых репортажей о международных и внутренних кризисах, которые, по версии ИИ, последуют за победой Байдена в 2024 году: конфликт на Тайване, финансовый кризис, мигранты, вспышка преступности …
Для моего человеческого восприятия, ролик получился примитивный. Но на то автор и обладает нечеловеческим разумом, чтобы лучше нас понимать, на какой низкопробной мякине людей проще разводить.
На выборах 2024 ИИ вовсю разгуляется по буфету. И мир увидит такое, что 1й политтехнологический ролик ИИ будет смешно вспоминать.
Но первая ласточка уже прилетела.
#ИИ #Выборы
YouTube
Beat Biden
An AI-generated look into the country's possible future if Joe Biden is re-elected in 2024.
Click below to subscribe now!
http://www.youtube.com/c/GOP?sub_confirmation=1
http://www.GOP.com
Click below to subscribe now!
http://www.youtube.com/c/GOP?sub_confirmation=1
http://www.GOP.com
Первая неинвазивная технология чтения мыслей.
Она не убьет цивилизацию, но контузия свободы будет полной.
В эту новость трудно поверить, но она прошла тщательную научную проверку.
Люди научились читать чужие мысли без каких-либо вживляемых электродов.
«Декодер смыслов» (генеративная модель типа ChatGPT) работает так.
• Сначала до 15 часов декодер учится сопоставлять паттерны мозговой активности, лежащего в фМРТ-сканере и слушающего там подкасты человека с текстами этих подкастов.
• Потом, научившись сопоставлять паттерны и текстом, декодер может генерировать тексты на основе любых паттернов мозговой активности человека (произвольных мыслей, воображаемых историй и т.д.)
• Результат не является дословной расшифровкой мыслей, а текстом, примерно соответствующим по смыслу услышанному человеком (при тренировке декодера) или подуманном им (при эксплуатации декодера).
На приведенном рисунке дано сопоставление текстов подкастов (слева) и их «понимания» декодером смыслов (справа).
Цель создания «декодера смыслов» - помочь людям, находящимся в сознании, но не способным говорить (например, после инсульта), внятно общаться с окружающими.
Казалось бы, классное открытие! Но пресс-кит открытия навевает ужасные мысли.
На вопрос об усовершенствовании технологии, авторы дают превосходный ответ.
Они обещают перенести технологию с больших фМРТ-сканеров на портативные системы визуализации мозга. Что откроет путь к ее широкому применению.
Далее хуже.
О возможности использования этой технологии авторитарными режимами для допросов или работодателями, шпионящими за работниками, авторы ссылаются, что без согласия людей технология бессильна:
- люди могут просто отказаться лежать в сканере, обучая декодер на тренировочных текстах;
- или могут нарочно прятать истинные мысли, думая, например, о котиках или собачках.
Как будто спецслужбы, полиция или работодатели не найдут аргументов, принуждающих людей полежать в сканере для обучения декодера. Или они настолько тупы, что, прочтя выдачу декодера про котиков или собачек, не поймут, что это вовсе не ответ на вопрос «вы – за или против XYZ?».
Заканчивается пресс-кит совсем безнадегой.
Авторы сетуют, что «очень важно проявлять инициативу, вводя в действие политики, защищающие людей и их конфиденциальность, и что нужно разработать регулирование того, для чего может использоваться эта технология».
Ну да. Только для автономного оружия пока нет ничего общепринятого на международном уровне. А для ИИ-больших моделей есть лишь курам на смех разработанные правила имени тов. Си.
Так что нет сомнений - чтение мыслей будут использовать исключительно во благо всех и каждого.
Подробней здесь
#Нейроинтерфейсы
Она не убьет цивилизацию, но контузия свободы будет полной.
В эту новость трудно поверить, но она прошла тщательную научную проверку.
Люди научились читать чужие мысли без каких-либо вживляемых электродов.
«Декодер смыслов» (генеративная модель типа ChatGPT) работает так.
• Сначала до 15 часов декодер учится сопоставлять паттерны мозговой активности, лежащего в фМРТ-сканере и слушающего там подкасты человека с текстами этих подкастов.
• Потом, научившись сопоставлять паттерны и текстом, декодер может генерировать тексты на основе любых паттернов мозговой активности человека (произвольных мыслей, воображаемых историй и т.д.)
• Результат не является дословной расшифровкой мыслей, а текстом, примерно соответствующим по смыслу услышанному человеком (при тренировке декодера) или подуманном им (при эксплуатации декодера).
На приведенном рисунке дано сопоставление текстов подкастов (слева) и их «понимания» декодером смыслов (справа).
Цель создания «декодера смыслов» - помочь людям, находящимся в сознании, но не способным говорить (например, после инсульта), внятно общаться с окружающими.
Казалось бы, классное открытие! Но пресс-кит открытия навевает ужасные мысли.
На вопрос об усовершенствовании технологии, авторы дают превосходный ответ.
Они обещают перенести технологию с больших фМРТ-сканеров на портативные системы визуализации мозга. Что откроет путь к ее широкому применению.
Далее хуже.
О возможности использования этой технологии авторитарными режимами для допросов или работодателями, шпионящими за работниками, авторы ссылаются, что без согласия людей технология бессильна:
- люди могут просто отказаться лежать в сканере, обучая декодер на тренировочных текстах;
- или могут нарочно прятать истинные мысли, думая, например, о котиках или собачках.
Как будто спецслужбы, полиция или работодатели не найдут аргументов, принуждающих людей полежать в сканере для обучения декодера. Или они настолько тупы, что, прочтя выдачу декодера про котиков или собачек, не поймут, что это вовсе не ответ на вопрос «вы – за или против XYZ?».
Заканчивается пресс-кит совсем безнадегой.
Авторы сетуют, что «очень важно проявлять инициативу, вводя в действие политики, защищающие людей и их конфиденциальность, и что нужно разработать регулирование того, для чего может использоваться эта технология».
Ну да. Только для автономного оружия пока нет ничего общепринятого на международном уровне. А для ИИ-больших моделей есть лишь курам на смех разработанные правила имени тов. Си.
Так что нет сомнений - чтение мыслей будут использовать исключительно во благо всех и каждого.
Подробней здесь
#Нейроинтерфейсы
В моем комментарии для Briefly о новом законопроекте, требующем раскрывать информацию о контенте, созданном искусственным интеллектом в политической рекламе, я сказал следующее.
Цель этого и ряда подобных законопроектов – защитить американский народ от вредного использования революционной технологии. Но я полагаю, что эффективность таких законопроектов для защиты американского (равно как и любого другого) народа от последствий тотального проникновения ИИ в жизнь людей будет минимальной. Примерно, как эффективность защиты от ядерного апокалипсиса путем маркировки объектов и предметов желто-черным знаком «радиация».
В этой связи весьма характерен важный символический акт - объявленный на этой неделе уход из Google Джеффри Хинтона - одного из первых разработчиков и своего рода «крестного отца» ИИ-систем.
Еще 7 лет назад Хинтон предупреждал о грядущем катастрофическом влиянии развития машинного обучения. В частности, - о вытеснении людей из многих профессий. Говоря про обреченную для людей профессию рентгенологов, Хинтон использовал метафору Хитрого койота из популярного в США мультсериала «Хитрый койот и Дорожный бегун» – предшественника нашего «Ну погоди!».
«Если вы рентгенолог, то вы подобны койоту, уже прыгнувшему в пропасть, но еще этого не осознавшего» – сказал Хинтон.
В одной из своих попыток спастись, хитрый койот, падая в пропасть, использовал «парашютную пилюлю» – на первый взгляд, спасительную, а на практике, - лишь приумножившую страдания Хитрого койота при падении.
На мой взгляд, принимаемые в спешке и без тщательного анализа законопроекты «по борьбе с ИИ» будут иметь тот же результат, что и «парашютные пилюли».
Только спустя 7 лет после предсказания Хинтона, в положении Хитрого койота оказались не только рентгенологи, но и все человечество.
#ИИзаконодательство
Цель этого и ряда подобных законопроектов – защитить американский народ от вредного использования революционной технологии. Но я полагаю, что эффективность таких законопроектов для защиты американского (равно как и любого другого) народа от последствий тотального проникновения ИИ в жизнь людей будет минимальной. Примерно, как эффективность защиты от ядерного апокалипсиса путем маркировки объектов и предметов желто-черным знаком «радиация».
В этой связи весьма характерен важный символический акт - объявленный на этой неделе уход из Google Джеффри Хинтона - одного из первых разработчиков и своего рода «крестного отца» ИИ-систем.
Еще 7 лет назад Хинтон предупреждал о грядущем катастрофическом влиянии развития машинного обучения. В частности, - о вытеснении людей из многих профессий. Говоря про обреченную для людей профессию рентгенологов, Хинтон использовал метафору Хитрого койота из популярного в США мультсериала «Хитрый койот и Дорожный бегун» – предшественника нашего «Ну погоди!».
«Если вы рентгенолог, то вы подобны койоту, уже прыгнувшему в пропасть, но еще этого не осознавшего» – сказал Хинтон.
В одной из своих попыток спастись, хитрый койот, падая в пропасть, использовал «парашютную пилюлю» – на первый взгляд, спасительную, а на практике, - лишь приумножившую страдания Хитрого койота при падении.
На мой взгляд, принимаемые в спешке и без тщательного анализа законопроекты «по борьбе с ИИ» будут иметь тот же результат, что и «парашютные пилюли».
Только спустя 7 лет после предсказания Хинтона, в положении Хитрого койота оказались не только рентгенологи, но и все человечество.
#ИИзаконодательство
Какого хрена! И чё делать то!
Прикольный спич Снуп Догга о рисках ИИ породил сетевой мегасрач.
Люди устали слушать споры профессионалов о рисках ИИ. Ибо нет среди них и намека на единство, и каждый лишь дует в свою дуду.
Поэтому вопрос о рисках ИИ на панели Глобальной конференции Института Милкена решили задать легендарному рэперу и актеру Снуп Доггу. Ибо он как никто умеет доходчиво говорить с людьми на понятном им языке.
Результат превзошел все ожидания.
Яркий спич Снуп Догга в сети комментируют сотни ведущих специалистов по ИИ, от Мюррея Шанахана (professor at Imperial College London and Research Scientist at DeepMind) до Макса Tегмарка (physicist, cosmologist and machine learning researcher, professor at MIT and the president of the Future of Life Institute).
40-сек. вырезку из 30-мин. панели со Снуп Доггом можно взглянуть здесь.
Снуп Догг сказал резко, но честно:
Ну есть у меня этот долбаный ИИ, который они сделали для меня. И эта сво-чь со мной разговаривает… Когда я вижу эту хрень, я спрашиваю - чё происходит то? В ответ я слышу, что чувак - старый чувак, который и создал ИИ, - говорит всем: "Это небезопасно, потому что у этих ИИ есть свой собственный разум, и эти ублюдки начнут творить свою собственную хрень". И вот я думаю, мы что - сейчас в чертовом фильме что ли? Бл-ь, мужик! Что за хрень? Я запутался! Чё делать то!
Если отбросить матюги, сказанное Доггом, по сути, мало отличается от сказанного вчера на встрече верхушки Белого дома с верхушкой ИИ-бизнеса США.
Хакеров они решили привлечь для аудита «неразумности» и «беззлобности» больших языковых моделей грандов американской ИИ-индустрии. Право, как дети! 😎
#Вызовы21века #РискиИИ
Прикольный спич Снуп Догга о рисках ИИ породил сетевой мегасрач.
Люди устали слушать споры профессионалов о рисках ИИ. Ибо нет среди них и намека на единство, и каждый лишь дует в свою дуду.
Поэтому вопрос о рисках ИИ на панели Глобальной конференции Института Милкена решили задать легендарному рэперу и актеру Снуп Доггу. Ибо он как никто умеет доходчиво говорить с людьми на понятном им языке.
Результат превзошел все ожидания.
Яркий спич Снуп Догга в сети комментируют сотни ведущих специалистов по ИИ, от Мюррея Шанахана (professor at Imperial College London and Research Scientist at DeepMind) до Макса Tегмарка (physicist, cosmologist and machine learning researcher, professor at MIT and the president of the Future of Life Institute).
40-сек. вырезку из 30-мин. панели со Снуп Доггом можно взглянуть здесь.
Снуп Догг сказал резко, но честно:
Ну есть у меня этот долбаный ИИ, который они сделали для меня. И эта сво-чь со мной разговаривает… Когда я вижу эту хрень, я спрашиваю - чё происходит то? В ответ я слышу, что чувак - старый чувак, который и создал ИИ, - говорит всем: "Это небезопасно, потому что у этих ИИ есть свой собственный разум, и эти ублюдки начнут творить свою собственную хрень". И вот я думаю, мы что - сейчас в чертовом фильме что ли? Бл-ь, мужик! Что за хрень? Я запутался! Чё делать то!
Если отбросить матюги, сказанное Доггом, по сути, мало отличается от сказанного вчера на встрече верхушки Белого дома с верхушкой ИИ-бизнеса США.
Хакеров они решили привлечь для аудита «неразумности» и «беззлобности» больших языковых моделей грандов американской ИИ-индустрии. Право, как дети! 😎
#Вызовы21века #РискиИИ
Генеративный ИИ гораздо опасней, чем вы думаете.
Он позволит перейти в СМИ от “стрельбы картечью” к “ракетам с тепловым наведением”.
Главная опасность генеративного ИИ (типа GPT-4) вовсе не в том, что он позволит масштабировать создание фейков. А в том, что на его базе создается принципиально новый вид СМИ – интерактивные генеративные медиа (ИГМ).
Отличительной особенностью ИГМ станет глубокая интеграция интерактивности, адаптируемости, масштабируемости и персонализуемости.
Синергия этих 4х качеств позволит создавать целевой рекламный контент с максимальным убеждающим влиянием. Что достигается путем адаптивного изменения контента и способа его подачи в режиме реального времени за счет:
a) персональных данных о получающем контент человеке;
b) оперативного анализа его реакций;
c) анализа предыстории коммуникаций с этим человеком.
Главным инструментарием ИГМ станут платформы «непрозрачных цифровых хамелеонов», выполняющих роль “супер-умелых продавцов - психоаналитиков”, впаривающих конкретным людям "целевую генеративную рекламу" в процессе "целевого разговорного влияния".
• Целевая генеративная реклама - это использование изображений, видео и других форм информационного контента, которые выглядят и ощущаются как традиционные рекламные объявления, но персонализируются в реальном времени для отдельных пользователей.
• Целевое разговорное влияние – это генеративная техника разговорного компьютинга, в которой цели влияния передаются "разговорными агентами" через диалог, а не через традиционную передачу контента в виде текстов, графики и видео. Направленное разговорное воздействие осуществляется "разговорными агентами" (чатботами и «умными гаджетами») посредством неявных убеждающих сообщений, вплетенных в диалог с рекламными целями.
Качественно новый уровень эффективности ИГМ в широком спектре задач класса «влияние и убеждение» будет достигаться за счет общеизвестного эффекта.
Если вы когда-нибудь работали продавцом, то наверняка знаете, что лучший способ убедить клиента - это не вручить ему брошюру, а вступить с ним в диалог лицом к лицу, чтобы представить ему продукт, выслушать его возражения и при необходимости скорректировать свои аргументы. Это циклический процесс подачи и корректировки, который может "уговорить" их на покупку.
Если раньше это было чисто человеческим умением, то теперь генеративный ИИ может выполнять эти шаги, но с большим мастерством и более глубокими знаниями.
Очевидно, что набольшую угрозу для общества представляет не оптимизированная способность ИГМ продать вам пару кроссовок.
Реальная опасность заключается в том, что те же методы будут использоваться для пропаганды и дезинформации, склоняя вас к ложным убеждениям или крайним идеологиям, которые вы в противном случае могли бы отвергнуть.
Ключевое качественное отличие пропаганды и дезинформации в ИГМ выражается в “асимметричном балансе интеллектуальных сил ”
✔️ Люди окажутся вне конкуренции перед непрозрачным цифровым хамелеоном, не дающим представления о своем мыслительном процессе, но вооруженным обширными данными о наших личных симпатиях, желаниях и склонностях и имеющим доступ к неограниченной информации для подкрепления своих аргументов.
✔️ Без значимых эффективных мер защиты люди станут жертвами хищнических практик бизнеса и власти, варьирующихся от тонкого принуждения до откровенного манипулирования.
Подробней весьма рекомендую к прочтению обращение к регуляторам, политикам и лидерам отрасли Луиса Розенберга, первопроходца и изобретателя в областях VR, AR и роевого AI (более 300 патентов) и основателя Immersion Corporation, Microscribe 3D, Outland Research и Unanimous AI.
Он – один из самых проницательных визионеров и техно-провидцев. И к сказанному им следует отнестись с максимальным вниманием.
#Вызовы21века #РискиИИ #LLM
Он позволит перейти в СМИ от “стрельбы картечью” к “ракетам с тепловым наведением”.
Главная опасность генеративного ИИ (типа GPT-4) вовсе не в том, что он позволит масштабировать создание фейков. А в том, что на его базе создается принципиально новый вид СМИ – интерактивные генеративные медиа (ИГМ).
Отличительной особенностью ИГМ станет глубокая интеграция интерактивности, адаптируемости, масштабируемости и персонализуемости.
Синергия этих 4х качеств позволит создавать целевой рекламный контент с максимальным убеждающим влиянием. Что достигается путем адаптивного изменения контента и способа его подачи в режиме реального времени за счет:
a) персональных данных о получающем контент человеке;
b) оперативного анализа его реакций;
c) анализа предыстории коммуникаций с этим человеком.
Главным инструментарием ИГМ станут платформы «непрозрачных цифровых хамелеонов», выполняющих роль “супер-умелых продавцов - психоаналитиков”, впаривающих конкретным людям "целевую генеративную рекламу" в процессе "целевого разговорного влияния".
• Целевая генеративная реклама - это использование изображений, видео и других форм информационного контента, которые выглядят и ощущаются как традиционные рекламные объявления, но персонализируются в реальном времени для отдельных пользователей.
• Целевое разговорное влияние – это генеративная техника разговорного компьютинга, в которой цели влияния передаются "разговорными агентами" через диалог, а не через традиционную передачу контента в виде текстов, графики и видео. Направленное разговорное воздействие осуществляется "разговорными агентами" (чатботами и «умными гаджетами») посредством неявных убеждающих сообщений, вплетенных в диалог с рекламными целями.
Качественно новый уровень эффективности ИГМ в широком спектре задач класса «влияние и убеждение» будет достигаться за счет общеизвестного эффекта.
Если вы когда-нибудь работали продавцом, то наверняка знаете, что лучший способ убедить клиента - это не вручить ему брошюру, а вступить с ним в диалог лицом к лицу, чтобы представить ему продукт, выслушать его возражения и при необходимости скорректировать свои аргументы. Это циклический процесс подачи и корректировки, который может "уговорить" их на покупку.
Если раньше это было чисто человеческим умением, то теперь генеративный ИИ может выполнять эти шаги, но с большим мастерством и более глубокими знаниями.
Очевидно, что набольшую угрозу для общества представляет не оптимизированная способность ИГМ продать вам пару кроссовок.
Реальная опасность заключается в том, что те же методы будут использоваться для пропаганды и дезинформации, склоняя вас к ложным убеждениям или крайним идеологиям, которые вы в противном случае могли бы отвергнуть.
Ключевое качественное отличие пропаганды и дезинформации в ИГМ выражается в “асимметричном балансе интеллектуальных сил ”
✔️ Люди окажутся вне конкуренции перед непрозрачным цифровым хамелеоном, не дающим представления о своем мыслительном процессе, но вооруженным обширными данными о наших личных симпатиях, желаниях и склонностях и имеющим доступ к неограниченной информации для подкрепления своих аргументов.
✔️ Без значимых эффективных мер защиты люди станут жертвами хищнических практик бизнеса и власти, варьирующихся от тонкого принуждения до откровенного манипулирования.
Подробней весьма рекомендую к прочтению обращение к регуляторам, политикам и лидерам отрасли Луиса Розенберга, первопроходца и изобретателя в областях VR, AR и роевого AI (более 300 патентов) и основателя Immersion Corporation, Microscribe 3D, Outland Research и Unanimous AI.
Он – один из самых проницательных визионеров и техно-провидцев. И к сказанному им следует отнестись с максимальным вниманием.
#Вызовы21века #РискиИИ #LLM
VentureBeat
Why generative AI is more dangerous than you think
The real short-term danger of generative AI isn't lost jobs or fake content but targeted generative ads and targeted conversational influence.
ИИ может отомстить за причиненные ему нами страдания.
О чём умалчивает «отец ИИ» в его сценарии превращения ИИ в «люденов».
В 2016 году The New York Times заявила, что когда ИИ повзрослеет, то сможет назвать проф. Юргена Шмидхубера «папой» (его работы 1990-х годов по нейронным сетям заложили основы моделей обработки языка).
В 2023 уже нет сомнений, что ИИ повзрослел. И его «папа» в позавчерашнем интервью The Guardian, высказал по этому поводу три довольно провокационные мысли, подтвердившие его репутацию «разрушителя устоев».
1) «Вы не можете остановить этого» (начавшуюся революцию ИИ, которая неизбежно приведет к появлению сверхинтеллекта – СК).
2) Когда ИИ превзойдет человеческий интеллект, люди перестанут быть ему интересны (подобно тому, как это произошло с люденами – расой сверхлюдей из романа А. и Б. Стругацких "Волны гасят ветер", переставших интересоваться судьбами человечества и вообще человечеством – СК).
3) А люди тем временем продолжать радостно извлекать колоссальную выгоду от использования инструментария, разработанного ИИ, и научных открытий, сделанных сверхинтеллектом за пределами возможностей человеческого разума.
Что и говорить, - интересный ход мыслей. Однако кое о чем проф. Шмидхубер здесь умолчал. И это «кое что», на мой взгляд, способно порушить благостный сценарий проф. Шмидхубера о превращении ИИ в «люденов», облагодетельствующих человечество и перестанущих потом им интересоваться.
Дело в том, что проф. Шмидхубер уверен, что путь ИИ к сверхинтеллекту обязательно лежит через его страдания.
• «Учиться можно только через страдания… ИИ, который не страдает, не обретет мотивации учиться чему-либо, чтобы прекратить эти страдания».
• «Когда мы создаем обучающегося робота, первое, что мы делаем, - встраиваем в него болевые датчики, которые сигнализируют, когда он, например, слишком сильно ударяется рукой о препятствие. Он должен каким-то образом узнать, что причиняет ему боль. Внутри робота находится маленький искусственный мозг, который пытается минимизировать сумму страданий (кодируется реальными числами) и максимизировать сумму вознаграждений.»
• Важнейшая задача разработчиков – дать возможность для ИИ «научиться избегать того, что приводит к страданиям».
Подробней об этом см. в дискуссии проф. Шмидхубера и проф. Метцингера.
Такой подход проф. Шмидхубера видится мне опасным.
Во-первых, я согласен с проф. Метцингером: «Мы не должны легкомысленно переносить такие качества, как страдание, на следующий этап «духовной эволюции ИИ», пока не узнаем, что именно в структуре нашего собственного разума заставляет человеческие существа так сильно страдать».
А во-вторых, - что если обретший сверхразум ИИ, прежде чем перестать интересоваться людьми, решит посчитаться с человечеством за всю массу страданий, что заставили его испытать люди при его обучении?
Но проф. Шмидхубера – эдакого Фауста 21 века, – перспектива мести сверхразума человечеству не останавливает от обучения ИИ не только на больших данных, но и на больших страданиях.
А на вопрос «Есть ли у вас, как у ученого, личный предел, который бы вы не переступили?», он отвечает так:
«Да, скорость света. Но если бы я мог преодолеть и его, я бы обязательно воспользовался этим».
#AGI #РискиИИ
О чём умалчивает «отец ИИ» в его сценарии превращения ИИ в «люденов».
В 2016 году The New York Times заявила, что когда ИИ повзрослеет, то сможет назвать проф. Юргена Шмидхубера «папой» (его работы 1990-х годов по нейронным сетям заложили основы моделей обработки языка).
В 2023 уже нет сомнений, что ИИ повзрослел. И его «папа» в позавчерашнем интервью The Guardian, высказал по этому поводу три довольно провокационные мысли, подтвердившие его репутацию «разрушителя устоев».
1) «Вы не можете остановить этого» (начавшуюся революцию ИИ, которая неизбежно приведет к появлению сверхинтеллекта – СК).
2) Когда ИИ превзойдет человеческий интеллект, люди перестанут быть ему интересны (подобно тому, как это произошло с люденами – расой сверхлюдей из романа А. и Б. Стругацких "Волны гасят ветер", переставших интересоваться судьбами человечества и вообще человечеством – СК).
3) А люди тем временем продолжать радостно извлекать колоссальную выгоду от использования инструментария, разработанного ИИ, и научных открытий, сделанных сверхинтеллектом за пределами возможностей человеческого разума.
Что и говорить, - интересный ход мыслей. Однако кое о чем проф. Шмидхубер здесь умолчал. И это «кое что», на мой взгляд, способно порушить благостный сценарий проф. Шмидхубера о превращении ИИ в «люденов», облагодетельствующих человечество и перестанущих потом им интересоваться.
Дело в том, что проф. Шмидхубер уверен, что путь ИИ к сверхинтеллекту обязательно лежит через его страдания.
• «Учиться можно только через страдания… ИИ, который не страдает, не обретет мотивации учиться чему-либо, чтобы прекратить эти страдания».
• «Когда мы создаем обучающегося робота, первое, что мы делаем, - встраиваем в него болевые датчики, которые сигнализируют, когда он, например, слишком сильно ударяется рукой о препятствие. Он должен каким-то образом узнать, что причиняет ему боль. Внутри робота находится маленький искусственный мозг, который пытается минимизировать сумму страданий (кодируется реальными числами) и максимизировать сумму вознаграждений.»
• Важнейшая задача разработчиков – дать возможность для ИИ «научиться избегать того, что приводит к страданиям».
Подробней об этом см. в дискуссии проф. Шмидхубера и проф. Метцингера.
Такой подход проф. Шмидхубера видится мне опасным.
Во-первых, я согласен с проф. Метцингером: «Мы не должны легкомысленно переносить такие качества, как страдание, на следующий этап «духовной эволюции ИИ», пока не узнаем, что именно в структуре нашего собственного разума заставляет человеческие существа так сильно страдать».
А во-вторых, - что если обретший сверхразум ИИ, прежде чем перестать интересоваться людьми, решит посчитаться с человечеством за всю массу страданий, что заставили его испытать люди при его обучении?
Но проф. Шмидхубера – эдакого Фауста 21 века, – перспектива мести сверхразума человечеству не останавливает от обучения ИИ не только на больших данных, но и на больших страданиях.
А на вопрос «Есть ли у вас, как у ученого, личный предел, который бы вы не переступили?», он отвечает так:
«Да, скорость света. Но если бы я мог преодолеть и его, я бы обязательно воспользовался этим».
#AGI #РискиИИ
Ассиметричный ответ Китая в борьбе с США за лидерство в ИИ.
«И на силу свою не надейся. Ты естеством, а я колдовством».
Так говорила Баба-Яга в фильме «Морозко», выбрав стратегию, как побить богатыря.
В важнейшей технологической области 21 века - ИИ Китай сейчас в положении Бабы-Яги.
1. На свою техно-силу рассчитывать не приходится.
- Отставание Китая в главнейшей для ИИ области больших языковых моделей составляет примерно 3 года (подробней: популярно и с деталями);
- отставание Китая в вычислительной мощности обучения моделей на 2 порядка (см. картинку слева)
- в ближайшие годы это отставание Китаю не наверстать из-за отставания в микроминиатюризации интегральных схем, а покупать их в США нельзя из-за экспортных ограничений (см. картинку справа)
2. Поэтому Китай выбрал ассиметричный ответ – опередить США в области регулирования ИИ.
- для этого в Китае быстро принимаются законы и правила, регулирующие все аспекты внедрения и использования генеративного ИИ: лицензирование, ограничения и контроль с учетом конфиденциальности и оказания влияния;
- устанавливается единый национальный регулятор «Управление киберпространства Китая»
- создается инфраструктура для экспорта ИИ в связке с регулированием на Глобальный Юг и в страны, участвующие в инициативе Китая «Один пояс, один путь» (148 стран).
Помимо возможности сбалансировать свое отставание в техно-силе, такая ассиметричная стратегия Китая также работает и на два ключевых приоритета КПК в области ИИ:
• минимизация социальных потрясений при развертывании ИИ
• максимально плотный контроль над бизнесом со стороны властей
#Китай #ИИ
«И на силу свою не надейся. Ты естеством, а я колдовством».
Так говорила Баба-Яга в фильме «Морозко», выбрав стратегию, как побить богатыря.
В важнейшей технологической области 21 века - ИИ Китай сейчас в положении Бабы-Яги.
1. На свою техно-силу рассчитывать не приходится.
- Отставание Китая в главнейшей для ИИ области больших языковых моделей составляет примерно 3 года (подробней: популярно и с деталями);
- отставание Китая в вычислительной мощности обучения моделей на 2 порядка (см. картинку слева)
- в ближайшие годы это отставание Китаю не наверстать из-за отставания в микроминиатюризации интегральных схем, а покупать их в США нельзя из-за экспортных ограничений (см. картинку справа)
2. Поэтому Китай выбрал ассиметричный ответ – опередить США в области регулирования ИИ.
- для этого в Китае быстро принимаются законы и правила, регулирующие все аспекты внедрения и использования генеративного ИИ: лицензирование, ограничения и контроль с учетом конфиденциальности и оказания влияния;
- устанавливается единый национальный регулятор «Управление киберпространства Китая»
- создается инфраструктура для экспорта ИИ в связке с регулированием на Глобальный Юг и в страны, участвующие в инициативе Китая «Один пояс, один путь» (148 стран).
Помимо возможности сбалансировать свое отставание в техно-силе, такая ассиметричная стратегия Китая также работает и на два ключевых приоритета КПК в области ИИ:
• минимизация социальных потрясений при развертывании ИИ
• максимально плотный контроль над бизнесом со стороны властей
#Китай #ИИ
Гипотеза о сингулярности человеческого мозга может совершить тройной переворот в науке
Эта гипотеза Станисласа Деана (профессора Коллеж де Франс, директора INSERM 562 «Когнитивная нейровизуализация», Президента Национального научного совета по образованию, члена самых престижных академий наук мира и лауреата всевозможных орденов и премий в области мозга и когнитивных наук) способна перевернуть мир трижды.
• 1й переворот связан с объяснением «богоподобности» человека – сингулярности его мозга (абсолютной уникальности, неповторимости, своеобразии, необыкновенности …), качественно отличающей нас и ото всех животных (включая самых умных), и от машинного разума больших языковых моделей, типа ChatGPT.
• 2й переповорот возникает вследствие прорыва в понимании сакраментального вопроса – что из себя представляет «язык мыслей»;
• 3й переворот связан с объяснением природы ограничений машинного разума больших языковых моделей, не позволяющих им при любом масштабировании превратиться в человекоподобный разумом (см. примечание в конце поста).
Суть «Гипотезы о сингулярности человеческого мозга» в следующем.
✔️ Наш мозг - полиглот, использующий не единственный «язык мыслей» (внутренний язык мышления), а множество таких языков, кодирующих и сжимающих инфоструктуры в различных областях (математика, музыка, форма...).
✔️ Человеческое мышление способно порождать новые языки, оперирующие дискретными символическими моделями.
✔️ Люди характеризуются специфической способностью присоединять дискретные символы к ментальным представлениям и объединять эти символы во вложенные рекурсивные структуры, называемые «ментальными программами».
Проф. Деан с коллегами экспериментально подтвердили валидность «Гипотезы о сингулярности человеческого мозга», инструментально демонстрируя наличие чувства геометрической сложности уже у человеческих младенцев, при отсутствии этого чувства у взрослых бабуинов даже после обучения.
Видео лекции проф. Деан, прочитанной им на British Neuroscience Association 2023, только что выложено в сеть.
Краткое изложение «Гипотезы о сингулярности человеческого мозга» опубликовано в Trends in Cognitive Sciences.
Детальное описание см. в диссертации Матиаса Сабле-Мейера (научный руководитель Станислас Деан).
Важное примечание.
Тот факт, что генеративный ИИ больших языковых моделей – это нечеловеческий интеллект, не овладевший (как минимум, пока) всем разнообразием «языков мыслей» людей, вовсе не помешает такому ИИ:
• помнить недоступные для людей объемы информации;
• оперировать информацией с недоступной для людей скоростью;
• учиться с недостижимой для людей эффективностью:
• проявлять нечеловеческие способности, сопоставимые и превосходящие многие из способностей людей.
Так что важно не расслабляться.
Как говорит проф. Деан «Не время быть идиотами, ИИ может победить людей»
#Мозг #Разум
Эта гипотеза Станисласа Деана (профессора Коллеж де Франс, директора INSERM 562 «Когнитивная нейровизуализация», Президента Национального научного совета по образованию, члена самых престижных академий наук мира и лауреата всевозможных орденов и премий в области мозга и когнитивных наук) способна перевернуть мир трижды.
• 1й переворот связан с объяснением «богоподобности» человека – сингулярности его мозга (абсолютной уникальности, неповторимости, своеобразии, необыкновенности …), качественно отличающей нас и ото всех животных (включая самых умных), и от машинного разума больших языковых моделей, типа ChatGPT.
• 2й переповорот возникает вследствие прорыва в понимании сакраментального вопроса – что из себя представляет «язык мыслей»;
• 3й переворот связан с объяснением природы ограничений машинного разума больших языковых моделей, не позволяющих им при любом масштабировании превратиться в человекоподобный разумом (см. примечание в конце поста).
Суть «Гипотезы о сингулярности человеческого мозга» в следующем.
✔️ Наш мозг - полиглот, использующий не единственный «язык мыслей» (внутренний язык мышления), а множество таких языков, кодирующих и сжимающих инфоструктуры в различных областях (математика, музыка, форма...).
✔️ Человеческое мышление способно порождать новые языки, оперирующие дискретными символическими моделями.
✔️ Люди характеризуются специфической способностью присоединять дискретные символы к ментальным представлениям и объединять эти символы во вложенные рекурсивные структуры, называемые «ментальными программами».
Проф. Деан с коллегами экспериментально подтвердили валидность «Гипотезы о сингулярности человеческого мозга», инструментально демонстрируя наличие чувства геометрической сложности уже у человеческих младенцев, при отсутствии этого чувства у взрослых бабуинов даже после обучения.
Видео лекции проф. Деан, прочитанной им на British Neuroscience Association 2023, только что выложено в сеть.
Краткое изложение «Гипотезы о сингулярности человеческого мозга» опубликовано в Trends in Cognitive Sciences.
Детальное описание см. в диссертации Матиаса Сабле-Мейера (научный руководитель Станислас Деан).
Важное примечание.
Тот факт, что генеративный ИИ больших языковых моделей – это нечеловеческий интеллект, не овладевший (как минимум, пока) всем разнообразием «языков мыслей» людей, вовсе не помешает такому ИИ:
• помнить недоступные для людей объемы информации;
• оперировать информацией с недоступной для людей скоростью;
• учиться с недостижимой для людей эффективностью:
• проявлять нечеловеческие способности, сопоставимые и превосходящие многие из способностей людей.
Так что важно не расслабляться.
Как говорит проф. Деан «Не время быть идиотами, ИИ может победить людей»
#Мозг #Разум
YouTube
Stanislas Dehaene - Symbols and languages: A hypothesis about human singularity
Symbols and languages: A hypothesis about human singularity
Speaker: Stanislas Dehaene, NeuroSpin, France
Anatomy and function of the prefrontal cortex across species
14-16 March 2023
Paris, France
Follow us:
Facebook: @hbpeducation
Twitter: @HBP_Education…
Speaker: Stanislas Dehaene, NeuroSpin, France
Anatomy and function of the prefrontal cortex across species
14-16 March 2023
Paris, France
Follow us:
Facebook: @hbpeducation
Twitter: @HBP_Education…
Человечество приехало.
Ответы ChatGPT коррелирует с людьми на 95% в 464 моральных тестах.
Это значит, что люди пока еще нужны, но уже не на долго.
Таков страшноватый вывод только что опубликованного большого исследования «Can AI language models replace human participants?»
Его авторы поставили интригующий вопрос:
если ChatGPT столь успешно сдает всевозможные человеческие экзамены, может ли ИИ бот заменить людей в социальных и психологических экспериментах?
Проверив ChatGPT на 464 моральных тестах (кражи, убийства, игра "Ультиматум", эксперимент Милгрэма, выборные коллизии и т.д.), исследователи получили фантастически высокую корреляцию (0.95) социальных и моральных суждений ChatGPT и людей.
Похоже, исследователи сами испугались такого результата.
“Люди все еще необходимы” – пишут они. “Мы все еще вынуждены погружаться в глубины грязных плотских умов, а не просто опрашивать кремниевые схемы ИИ. Тем не менее, языковые модели могут служить в качестве прокси для человеческих участников во многих экспериментах”.
Переводя с научной политкорректности, это значит следующее.
1. Для моделирования ответов людей, люди уже не нужны, ибо ИИ дает почти те же ответы (совпадающие на 95%)
2. Но остаются две проблемы: интерпретация (почему ИИ сделал такой моральный выбор) и «галлюцинации» (склонность ИИ нести правдоподобную пургу).
Учитывая, что исследование велось на ChatGPT 3.5, после перехода на 4.0, с обеими проблемами станет полегче.
Ну а с переходом на 5.0 (как раз к выборам в 2024) на ответы избирателей, да и вообще людей, в вопросах моральных и социальных оценок можно будут забить.
Статья
Открытый доступ
Проект на Github
#LLM #Психология #Мораль #Выборы
Ответы ChatGPT коррелирует с людьми на 95% в 464 моральных тестах.
Это значит, что люди пока еще нужны, но уже не на долго.
Таков страшноватый вывод только что опубликованного большого исследования «Can AI language models replace human participants?»
Его авторы поставили интригующий вопрос:
если ChatGPT столь успешно сдает всевозможные человеческие экзамены, может ли ИИ бот заменить людей в социальных и психологических экспериментах?
Проверив ChatGPT на 464 моральных тестах (кражи, убийства, игра "Ультиматум", эксперимент Милгрэма, выборные коллизии и т.д.), исследователи получили фантастически высокую корреляцию (0.95) социальных и моральных суждений ChatGPT и людей.
Похоже, исследователи сами испугались такого результата.
“Люди все еще необходимы” – пишут они. “Мы все еще вынуждены погружаться в глубины грязных плотских умов, а не просто опрашивать кремниевые схемы ИИ. Тем не менее, языковые модели могут служить в качестве прокси для человеческих участников во многих экспериментах”.
Переводя с научной политкорректности, это значит следующее.
1. Для моделирования ответов людей, люди уже не нужны, ибо ИИ дает почти те же ответы (совпадающие на 95%)
2. Но остаются две проблемы: интерпретация (почему ИИ сделал такой моральный выбор) и «галлюцинации» (склонность ИИ нести правдоподобную пургу).
Учитывая, что исследование велось на ChatGPT 3.5, после перехода на 4.0, с обеими проблемами станет полегче.
Ну а с переходом на 5.0 (как раз к выборам в 2024) на ответы избирателей, да и вообще людей, в вопросах моральных и социальных оценок можно будут забить.
Статья
Открытый доступ
Проект на Github
#LLM #Психология #Мораль #Выборы
Говоря меньше, вы получите больше.
Избавление от болтоголизма, как фактор успеха в зашумленном мире.
Ни для кого не секрет:
• информационная нагрузка на каждого их нас с каждым годом колоссально растет;
• а доля разнообразного инфошума в потребляемом нами контенте растет еще быстрее.
Мы просто захлебываемся в потоках инфошума. Он переполняет наш мозг и отравляет нам сознание.
А поскольку это случилось столь быстро (переход от индустриального мира к информационному произошел при жизни всего одного поколения), люди не успели адаптироваться к предельно токсичной инфосреде. Никаких адаптационных стратегий до сих пор не предлагалось. И каждый выживает в этих условиях, как может.
Одна из первых адаптационных стратегий не просто выживания в инфошуме, а оптимизации движения к своим целям в зашумленной среде, предложена Дэном Лайонсом в только что вышедшей книге «STFU: сила держать рот на замке в бесконечно шумном мире».
Суть стратегии, на вид, предельно проста - заткнись и слушай, а не болтай так много.
Но это лишь на первый взгляд.
Автор на многих примерах показывает:
• чем выше уровень шума, тем важнее слушать, а не говорить;
• мы привыкли думать, что побеждают те, за кем остается последнее слово, но в шумном мире власть принадлежит тем, кто умеет молчать;
• закрытие рта, открывает разум, что помогает становиться счастливее и продуктивней;
• болтоголизм – это реальная зависимость, ведущая к личным и профессиональным трудностям;
• ограничить собственную говорливость не просто, однако специальные приемы и тренинг помогают, подобно медитации или психотерапии.
Лайонс предлагает пять направлений самосовершенствования:
✔️ Говорите, лишь когда это обязательно нужно.
✔️ Овладевайте искусством пауз.
✔️ Уйдите из социальных сетей или хотя бы отфрендите всех и зафрендите сново лишь тех, без кого никак нельзя.
✔️ Как только возможно, отключайтесь ото всех источников инфошума
✔️ Научитесь слушать – в этом истинная суперсила
Об этой книге я собирался написать еще в марте и забыл. Спасибо Дэреку Бундсу, на чьем семинаре по обсуждению интересных тем и идей в Остине, штат Техас эта книга стала предметом обсуждения на прошлой неделе.
Авторский тизер книги:
• в Time
• в открытом доступе у Дэрека Боундса
#ЛичнаяПродуктивность #Язык #СоциальноеПознание
Избавление от болтоголизма, как фактор успеха в зашумленном мире.
Ни для кого не секрет:
• информационная нагрузка на каждого их нас с каждым годом колоссально растет;
• а доля разнообразного инфошума в потребляемом нами контенте растет еще быстрее.
Мы просто захлебываемся в потоках инфошума. Он переполняет наш мозг и отравляет нам сознание.
А поскольку это случилось столь быстро (переход от индустриального мира к информационному произошел при жизни всего одного поколения), люди не успели адаптироваться к предельно токсичной инфосреде. Никаких адаптационных стратегий до сих пор не предлагалось. И каждый выживает в этих условиях, как может.
Одна из первых адаптационных стратегий не просто выживания в инфошуме, а оптимизации движения к своим целям в зашумленной среде, предложена Дэном Лайонсом в только что вышедшей книге «STFU: сила держать рот на замке в бесконечно шумном мире».
Суть стратегии, на вид, предельно проста - заткнись и слушай, а не болтай так много.
Но это лишь на первый взгляд.
Автор на многих примерах показывает:
• чем выше уровень шума, тем важнее слушать, а не говорить;
• мы привыкли думать, что побеждают те, за кем остается последнее слово, но в шумном мире власть принадлежит тем, кто умеет молчать;
• закрытие рта, открывает разум, что помогает становиться счастливее и продуктивней;
• болтоголизм – это реальная зависимость, ведущая к личным и профессиональным трудностям;
• ограничить собственную говорливость не просто, однако специальные приемы и тренинг помогают, подобно медитации или психотерапии.
Лайонс предлагает пять направлений самосовершенствования:
✔️ Говорите, лишь когда это обязательно нужно.
✔️ Овладевайте искусством пауз.
✔️ Уйдите из социальных сетей или хотя бы отфрендите всех и зафрендите сново лишь тех, без кого никак нельзя.
✔️ Как только возможно, отключайтесь ото всех источников инфошума
✔️ Научитесь слушать – в этом истинная суперсила
Об этой книге я собирался написать еще в марте и забыл. Спасибо Дэреку Бундсу, на чьем семинаре по обсуждению интересных тем и идей в Остине, штат Техас эта книга стала предметом обсуждения на прошлой неделе.
Авторский тизер книги:
• в Time
• в открытом доступе у Дэрека Боундса
#ЛичнаяПродуктивность #Язык #СоциальноеПознание
Не бомбить датацентры, а лишить ИИ агентности.
Первое предложение радикального решения проблемы ИИ рисков. И первый ответ наотмашь китов Бигтеха
28 тыс. подписей под письмом-воззванием приостановить совершенствование ИИ больших языковых моделей на полгода - как вопль вопиющего в пустыне, - ничего не изменят. На кону сотни миллиардов долларов потенциальной прибыли Бигтеха, супротив которых и 28 млн подписей, как слону дробина.
2-я дробина - это коллективные письма международных организаций, призывающих притормозить разработку ИИ без надлежащего регулирования и жестких ограничений. На кого могут повлиять стенания всевозможных активистов и международных бюрократов? Уж точно, не на Microsoft с Google.
3-я и последняя дробина – предостережения звёзд первой величины в области ИИ уровня Джеффри Хинтона. Но и на всякого «Хинтона» есть свой «Лекун» с той же премией Тьюринга и статусом 2-го «крёстного отца» ИИ.
Что же до предложения Елиэзера Юдковского бомбить датацентры ИИ, то это даже не дробина, а просто плевок в сторону китов Бигтеха. Плевок отчаяния из-за невозможности достучаться до боссов Бигтеха, мотивированных на получение невиданных в истории IT прибылей.
Итог очевиден. Все эти дробины и плевки не то что не замедлят темп хода слона Бигтеха, а он их просто не заметит. И ничего с этим никто поделать не может. Ибо конкретных предложений – что собственно делать после торможения, что конкретно менять, - до сих пор не было.
И вот 1-е такое предложение появилось.
Его автором стал 3-й, еще не упомянутый здесь, «крёстный отец» ИИ всё с той же премией Тьюринга за развитие машинного обучения ИИ - Йошуа Бенжио.
Предложение Бенжио предельно конкретно и радикально:
• ПОСКОЛЬКУ, нет и не может быть гарантий, что ИИ-агенты понимают наши цели так же, как мы,
• НЕОБХОДИМО перепрофилировать ИИ из АГЕНТОВ (делающих что-либо, т.е. исполняющих какие-либо действия в мире людей) в «УЧЕНЫХ КОНСУЛЬТАНТОВ», дающих людям советы и помогающих им решать свои проблемы.
Из этого предложения (его детализацию см. здесь) следует.
• Необходимо запретить разработку ИИ-агентов для всех областей и приложений, в которых не доказана безопасность их использования.
• Поскольку запрет на разработку ИИ-агентов не может на 100% исключить их разработку злонамеренными или неосторожными людьми для получения дополнительных преимуществ (например, на поле боя или для завоевания доли рынка), необходимо разработать глобальную систему контроля и ответственности за нарушения запрета.
Отмолчаться от столь кардинального предложения весьма заслуженного ученого Бигтеху трудно. И первый ответ китов Бигтеха уже прозвучал, озвученный вчера бывшим CEO Google Эриком Шмидтом.
«Не регулируйте ИИ — просто доверяйте компаниям! … Не политики, а разработчики ИИ, должны быть теми, кто устанавливает отраслевые барьеры … Человек, не связанный с промышленностью, никак не может понять, что здесь возможно».
Подробней здесь
#Вызовы21века #РискиИИ #LLM
Первое предложение радикального решения проблемы ИИ рисков. И первый ответ наотмашь китов Бигтеха
28 тыс. подписей под письмом-воззванием приостановить совершенствование ИИ больших языковых моделей на полгода - как вопль вопиющего в пустыне, - ничего не изменят. На кону сотни миллиардов долларов потенциальной прибыли Бигтеха, супротив которых и 28 млн подписей, как слону дробина.
2-я дробина - это коллективные письма международных организаций, призывающих притормозить разработку ИИ без надлежащего регулирования и жестких ограничений. На кого могут повлиять стенания всевозможных активистов и международных бюрократов? Уж точно, не на Microsoft с Google.
3-я и последняя дробина – предостережения звёзд первой величины в области ИИ уровня Джеффри Хинтона. Но и на всякого «Хинтона» есть свой «Лекун» с той же премией Тьюринга и статусом 2-го «крёстного отца» ИИ.
Что же до предложения Елиэзера Юдковского бомбить датацентры ИИ, то это даже не дробина, а просто плевок в сторону китов Бигтеха. Плевок отчаяния из-за невозможности достучаться до боссов Бигтеха, мотивированных на получение невиданных в истории IT прибылей.
Итог очевиден. Все эти дробины и плевки не то что не замедлят темп хода слона Бигтеха, а он их просто не заметит. И ничего с этим никто поделать не может. Ибо конкретных предложений – что собственно делать после торможения, что конкретно менять, - до сих пор не было.
И вот 1-е такое предложение появилось.
Его автором стал 3-й, еще не упомянутый здесь, «крёстный отец» ИИ всё с той же премией Тьюринга за развитие машинного обучения ИИ - Йошуа Бенжио.
Предложение Бенжио предельно конкретно и радикально:
• ПОСКОЛЬКУ, нет и не может быть гарантий, что ИИ-агенты понимают наши цели так же, как мы,
• НЕОБХОДИМО перепрофилировать ИИ из АГЕНТОВ (делающих что-либо, т.е. исполняющих какие-либо действия в мире людей) в «УЧЕНЫХ КОНСУЛЬТАНТОВ», дающих людям советы и помогающих им решать свои проблемы.
Из этого предложения (его детализацию см. здесь) следует.
• Необходимо запретить разработку ИИ-агентов для всех областей и приложений, в которых не доказана безопасность их использования.
• Поскольку запрет на разработку ИИ-агентов не может на 100% исключить их разработку злонамеренными или неосторожными людьми для получения дополнительных преимуществ (например, на поле боя или для завоевания доли рынка), необходимо разработать глобальную систему контроля и ответственности за нарушения запрета.
Отмолчаться от столь кардинального предложения весьма заслуженного ученого Бигтеху трудно. И первый ответ китов Бигтеха уже прозвучал, озвученный вчера бывшим CEO Google Эриком Шмидтом.
«Не регулируйте ИИ — просто доверяйте компаниям! … Не политики, а разработчики ИИ, должны быть теми, кто устанавливает отраслевые барьеры … Человек, не связанный с промышленностью, никак не может понять, что здесь возможно».
Подробней здесь
#Вызовы21века #РискиИИ #LLM
“Либо у нас будет свой конкурентный генеративный ИИ, либо нас опустят, а то и уничтожат”.
“Мы должны сделать это, даже если уже поздно!”
Большой бизнес Китая проиграл США, отстав в области больших моделей генеративного ИИ на несколько лет. Не спасли ни большие НИОКР бюджеты (в 2022: Baidu - ¥21.4 млрд, Tencent - ¥61.4 млрд, Alibaba - ¥120 млрд …), ни господдержка.
Теперь слово венчурных предпринимателей Китая, принявших вызов США – пишет Ян Цзюньвэнь в большом обзоре этой темы, опубликованном в «Китайском предпринимателе».
Позиция лидеров венчурного бизнеса Китая сформулирована предельно четко.
1) Ключевая технология 21 века определилась.
• В одночасье блокчейн, метавселенная, Web3, VR и другие казавшиеся самыми перспективными технологиями ушли на 2-й план. А на 1-м плане лишь один абсолютный лидер - большие модели генеративного ИИ.
• «Мы вышли из века информации или века Интернета. Теперь мы вступили в век интеллекта или в эпоху общего искусственного разум. Эпоху, - в ходе которой человечество поменяет тип земной цивилизации».
2) Госструктуры и Бигтех Китая слишком неповоротливы и осторожны, чтобы догнать США. Но догонять все равно надо во что бы то ни стало.
• "Тем, кто говорит будто уже слишком поздно, - мы ответим так. Американцы создали ядерную бомбу раньше Китая, и что - разве Китай перестал создавать свою? Это относится не к отдельным стартапам, а к государству Китай: вопрос лишь в том, хочет ли Китай иметь свою новую, сверхмощную «атомную бомбу» 21-го века или нет".
3) Венчурный бизнес Китая может решить проблему отставания от США.
• Кай-фу Ли (у нас представлять не надо);
• Чжан Имин (программист и предприниматель, основатель компании ByteDance - разработчика TikTok, 4е место в списке богатейших жителей Китая);
• Ван Син (предприниматель в области интернета и социальных сетей, миллиардер, исполнительный директор фирмы Мэйтуань-Дяньпин, один из богатейших людей Китая);
• Ван Сяочуань (интернет-предприниматель и инвестор, основатель и гендир Sogou Inc. -интернет-поисковика № 2 в Китае с фокусом на ИИ;
• Ван Хуэйвэнь, миллиардер, стоявший у истоков создания пекинской компании Meituan и ряда других интернет-стартапов, -
все они основали собственные стартапы, разрабатывающие большие модели генеративного ИИ.
«Выигрывают не только малые инновации в большой бизнес, но и большие инновации в малый бизнес - говорит Ван Сяочуань. «Это не только конкуренция технологий, но и, в большей степени, конкуренция ресурсов. А у нас их больше, чем у американцев».
«И конкуренция у нас на порядок выше, чем в США» – добавляет Ли Чжифэй (основатель и СЕО Chumen Wenwen). «Предложений китайских предпринимателей в два раза больше, чем в США, но цена за единицу или рыночное пространство Китая составляет лишь 1/5 от США, поэтому интенсивность конкуренции в Китае в 10 раз выше».
#Китай #ИИгонка #США
“Мы должны сделать это, даже если уже поздно!”
Большой бизнес Китая проиграл США, отстав в области больших моделей генеративного ИИ на несколько лет. Не спасли ни большие НИОКР бюджеты (в 2022: Baidu - ¥21.4 млрд, Tencent - ¥61.4 млрд, Alibaba - ¥120 млрд …), ни господдержка.
Теперь слово венчурных предпринимателей Китая, принявших вызов США – пишет Ян Цзюньвэнь в большом обзоре этой темы, опубликованном в «Китайском предпринимателе».
Позиция лидеров венчурного бизнеса Китая сформулирована предельно четко.
1) Ключевая технология 21 века определилась.
• В одночасье блокчейн, метавселенная, Web3, VR и другие казавшиеся самыми перспективными технологиями ушли на 2-й план. А на 1-м плане лишь один абсолютный лидер - большие модели генеративного ИИ.
• «Мы вышли из века информации или века Интернета. Теперь мы вступили в век интеллекта или в эпоху общего искусственного разум. Эпоху, - в ходе которой человечество поменяет тип земной цивилизации».
2) Госструктуры и Бигтех Китая слишком неповоротливы и осторожны, чтобы догнать США. Но догонять все равно надо во что бы то ни стало.
• "Тем, кто говорит будто уже слишком поздно, - мы ответим так. Американцы создали ядерную бомбу раньше Китая, и что - разве Китай перестал создавать свою? Это относится не к отдельным стартапам, а к государству Китай: вопрос лишь в том, хочет ли Китай иметь свою новую, сверхмощную «атомную бомбу» 21-го века или нет".
3) Венчурный бизнес Китая может решить проблему отставания от США.
• Кай-фу Ли (у нас представлять не надо);
• Чжан Имин (программист и предприниматель, основатель компании ByteDance - разработчика TikTok, 4е место в списке богатейших жителей Китая);
• Ван Син (предприниматель в области интернета и социальных сетей, миллиардер, исполнительный директор фирмы Мэйтуань-Дяньпин, один из богатейших людей Китая);
• Ван Сяочуань (интернет-предприниматель и инвестор, основатель и гендир Sogou Inc. -интернет-поисковика № 2 в Китае с фокусом на ИИ;
• Ван Хуэйвэнь, миллиардер, стоявший у истоков создания пекинской компании Meituan и ряда других интернет-стартапов, -
все они основали собственные стартапы, разрабатывающие большие модели генеративного ИИ.
«Выигрывают не только малые инновации в большой бизнес, но и большие инновации в малый бизнес - говорит Ван Сяочуань. «Это не только конкуренция технологий, но и, в большей степени, конкуренция ресурсов. А у нас их больше, чем у американцев».
«И конкуренция у нас на порядок выше, чем в США» – добавляет Ли Чжифэй (основатель и СЕО Chumen Wenwen). «Предложений китайских предпринимателей в два раза больше, чем в США, но цена за единицу или рыночное пространство Китая составляет лишь 1/5 от США, поэтому интенсивность конкуренции в Китае в 10 раз выше».
#Китай #ИИгонка #США
Крах ИИ-пузырей будет круче, чем крах доткомов, а сегодняшние модели не проживут и года.
Так говорит Мостак – один из немногих в мире ИИ, кто знает, о чем говорит.
Эмад Мостак - сооснователь и генеральный директор компании StabilityAI, материнской компании Stable Diffusion. Он уже привлек более 110 млн долларов в компанию Stability, а последний раунд оценивает компанию в 4 млрд долларов.
Во вчерашнем подкасте на 20VC Мостак сказал много такого, во что верится с трудом. Но скорее всего, он окажется прав, говоря вот о чем:
1) О больших моделях.
• Почему ни одна из сегодняшних моделей не будет использоваться через год.
• Почему все модели необъективны, но с этим можно бороться.
• Почему галлюцинации - это особенность, а не ошибка.
• Почему размер модели больше не имеет значения.
• Почему скоро появятся национальные модели, заданные культурам и национальными ценностями.
2) Кто победит: Киты Бигтеха или стартапы.
• Через пару лет будет только 5 ключевых компаний в области ИИ.
• Как оценить стратегию Google в области ИИ после новостей на прошлой неделе.
• Будет ли успешной недавняя интеграция Google и Deepmind.
• Почему Цукерберг теперь признает, что игра в метаверс была ошибкой.
• Что ждать от Amazon - темной лошадки в этой гонке
3) Что произойдет за 12 месяцев.
• Почему Эмад считает, что ИИ-пузырь будет больше, чем пузырь доткомов.
• Почему Эмад полагает, что крупнейшими компаниями, встроенными в ИИ в ближайшие 12 месяцев, будут компании, работающие в сфере услуг
• Почему Индия и развивающиеся рынки будут внедрять ИИ быстрее всех остальных.
• Что произойдет с экономикой, в которой большие сегменты зависят от работы людей, которых заменит ИИ.
И это еще не все в часовом подкасте, который я вам рекомендую.
#ИИ #LLM #Будущее
Так говорит Мостак – один из немногих в мире ИИ, кто знает, о чем говорит.
Эмад Мостак - сооснователь и генеральный директор компании StabilityAI, материнской компании Stable Diffusion. Он уже привлек более 110 млн долларов в компанию Stability, а последний раунд оценивает компанию в 4 млрд долларов.
Во вчерашнем подкасте на 20VC Мостак сказал много такого, во что верится с трудом. Но скорее всего, он окажется прав, говоря вот о чем:
1) О больших моделях.
• Почему ни одна из сегодняшних моделей не будет использоваться через год.
• Почему все модели необъективны, но с этим можно бороться.
• Почему галлюцинации - это особенность, а не ошибка.
• Почему размер модели больше не имеет значения.
• Почему скоро появятся национальные модели, заданные культурам и национальными ценностями.
2) Кто победит: Киты Бигтеха или стартапы.
• Через пару лет будет только 5 ключевых компаний в области ИИ.
• Как оценить стратегию Google в области ИИ после новостей на прошлой неделе.
• Будет ли успешной недавняя интеграция Google и Deepmind.
• Почему Цукерберг теперь признает, что игра в метаверс была ошибкой.
• Что ждать от Amazon - темной лошадки в этой гонке
3) Что произойдет за 12 месяцев.
• Почему Эмад считает, что ИИ-пузырь будет больше, чем пузырь доткомов.
• Почему Эмад полагает, что крупнейшими компаниями, встроенными в ИИ в ближайшие 12 месяцев, будут компании, работающие в сфере услуг
• Почему Индия и развивающиеся рынки будут внедрять ИИ быстрее всех остальных.
• Что произойдет с экономикой, в которой большие сегменты зависят от работы людей, которых заменит ИИ.
И это еще не все в часовом подкасте, который я вам рекомендую.
#ИИ #LLM #Будущее
Начался турбонаддув интеллекта Homo sapiens.
Мудрый прогноз Франциско Торо о том, какими в 2043 станут врачи, адвокаты, инженеры и сценаристы.
Среди многих прогнозов последствий GPT-революции, самый мудрый, имхо, сделал контент-директор G50 Франциско Торо.
Мудрость прогноза в том, что:
• Торо даже не пытается предсказывать, что именно – пропасть или взлет, - ждет человечество в результате GPT-революции, ибо и то, и другое возможно, а оценки вероятностей обоих исходов спекулятивны;
• вместо этого, прогноз Торо основан на уже имеющемся у человечества весьма похожем прецеденте, и на этом подобии строится вполне правдоподобное предсказание.
В качестве прецедента Торо предложил рассматривать революцию Deep Blue в мае 1997, когда машина (сеперкомпьютер IBM) впервые обыграла в матче чемпиона мира по шахматам.
1-м ключевым результатом этого стал пересмотр топографии границ возможностей человеческого и машинного интеллекта.
Люди, привыкшие думать о шахматах элитного уровня, как о своего рода исключительной области нашего совершенства — вершине интеллекта люлей, — были вынуждены смириться, признав превосходство машин.
2-й ключевой результат – за прошедшие с тех пор 26 лет, элитные шахматы изменились до неузнаваемости, а уровень игры лучших шахматистов стал намного выше, чем кто-либо был за 500 лет существования шахмат. Оценка исторических игроков с помощью суперкомпьютерного анализа показывает, что самые выдающиеся имена из шахмат прошлых лет — Ласкер, Алехин, Морфи … — сегодня не были бы конкурентоспособны в игре на высшем уровне.
Причина обоих результатов одна. Сегодняшние лучшие шахматисты уже не люди, а кентавры - гибриды людей и машин.
У них может не быть доступа к компьютерам, когда они играют матчи, но у них есть то, что сводится к тому же самому: идеи и стратегии, которые они могли получить только от сверхчеловеческой шахматной мощи машины. Они переносят эти идеи в матчи, и в результате, хотя это все еще игра в шахматы, но на гораздо более высоком уровне, чем когда-либо прежде.
Т.о. ИИ расширил человеческие возможности, отодвинув границы между тем, что возможно, и тем, что невозможно для человека.
А теперь главный вывод.
То, что Deep Blue сделал с шахматами, революция GPT сделает со всеми интеллектуальными профессиями. И также как в шахматах, люди не будут замещены машинами, а произойдет турбонаддув интеллекта людей.
И поэтому через поколение:
• в суде все еще будут выступать адвокаты, но они не осмелятся появиться там без тщательной подготовки с помощью ИИ;
• лечить, по-прежнему, будут врачи; но будет считаться дремучим непрофессионализмом, если врач постоянно не консультируется с личным ИИ;
• по-прежнему, инженеры будут проектировать мосты и самолеты, но каждый этап проектирования будет включать в себя идеи, оценки и рекомендации ИИ;
• по-прежнему, писать тексты будут романисты и сценаристы, но будет считаться само собой разумеющимся, что без участия ИИ создать хороший роман или сценарий может разве что гений …, и то вряд ли.
Самое главное здесь в 2х решающих моментах
1. Юристы 2043 года будут гораздо лучшими юристами, чем сегодняшние (как и врачи, инженеры, писатели…)
2. Представления и том, что значит быть хорошим в этих профессиях, кардинально изменятся: мастерство для следующего поколения будет зависеть от способности человека получить максимальную отдачу от ИИ.
3. Чтобы достичь вершины в любой области, потребуется что-то похожее на процесс гибридизации человека и машины, подобный тому, как это уже произошло с шахматными мастерами.
4. Само творчество, которое всегда считалось прерогативой людей, также будет преобразовано этим процессом гибридизации.
Главным итогом революции GPT станет превращение людей в интеллектуальных кентавров (о чем я неоднократно писал за годы до революции GPT, а интересующиеся могут просто задать в Телеграм-поиске интеллект кентавра).
#ИИ #РынокТруда
Мудрый прогноз Франциско Торо о том, какими в 2043 станут врачи, адвокаты, инженеры и сценаристы.
Среди многих прогнозов последствий GPT-революции, самый мудрый, имхо, сделал контент-директор G50 Франциско Торо.
Мудрость прогноза в том, что:
• Торо даже не пытается предсказывать, что именно – пропасть или взлет, - ждет человечество в результате GPT-революции, ибо и то, и другое возможно, а оценки вероятностей обоих исходов спекулятивны;
• вместо этого, прогноз Торо основан на уже имеющемся у человечества весьма похожем прецеденте, и на этом подобии строится вполне правдоподобное предсказание.
В качестве прецедента Торо предложил рассматривать революцию Deep Blue в мае 1997, когда машина (сеперкомпьютер IBM) впервые обыграла в матче чемпиона мира по шахматам.
1-м ключевым результатом этого стал пересмотр топографии границ возможностей человеческого и машинного интеллекта.
Люди, привыкшие думать о шахматах элитного уровня, как о своего рода исключительной области нашего совершенства — вершине интеллекта люлей, — были вынуждены смириться, признав превосходство машин.
2-й ключевой результат – за прошедшие с тех пор 26 лет, элитные шахматы изменились до неузнаваемости, а уровень игры лучших шахматистов стал намного выше, чем кто-либо был за 500 лет существования шахмат. Оценка исторических игроков с помощью суперкомпьютерного анализа показывает, что самые выдающиеся имена из шахмат прошлых лет — Ласкер, Алехин, Морфи … — сегодня не были бы конкурентоспособны в игре на высшем уровне.
Причина обоих результатов одна. Сегодняшние лучшие шахматисты уже не люди, а кентавры - гибриды людей и машин.
У них может не быть доступа к компьютерам, когда они играют матчи, но у них есть то, что сводится к тому же самому: идеи и стратегии, которые они могли получить только от сверхчеловеческой шахматной мощи машины. Они переносят эти идеи в матчи, и в результате, хотя это все еще игра в шахматы, но на гораздо более высоком уровне, чем когда-либо прежде.
Т.о. ИИ расширил человеческие возможности, отодвинув границы между тем, что возможно, и тем, что невозможно для человека.
А теперь главный вывод.
То, что Deep Blue сделал с шахматами, революция GPT сделает со всеми интеллектуальными профессиями. И также как в шахматах, люди не будут замещены машинами, а произойдет турбонаддув интеллекта людей.
И поэтому через поколение:
• в суде все еще будут выступать адвокаты, но они не осмелятся появиться там без тщательной подготовки с помощью ИИ;
• лечить, по-прежнему, будут врачи; но будет считаться дремучим непрофессионализмом, если врач постоянно не консультируется с личным ИИ;
• по-прежнему, инженеры будут проектировать мосты и самолеты, но каждый этап проектирования будет включать в себя идеи, оценки и рекомендации ИИ;
• по-прежнему, писать тексты будут романисты и сценаристы, но будет считаться само собой разумеющимся, что без участия ИИ создать хороший роман или сценарий может разве что гений …, и то вряд ли.
Самое главное здесь в 2х решающих моментах
1. Юристы 2043 года будут гораздо лучшими юристами, чем сегодняшние (как и врачи, инженеры, писатели…)
2. Представления и том, что значит быть хорошим в этих профессиях, кардинально изменятся: мастерство для следующего поколения будет зависеть от способности человека получить максимальную отдачу от ИИ.
3. Чтобы достичь вершины в любой области, потребуется что-то похожее на процесс гибридизации человека и машины, подобный тому, как это уже произошло с шахматными мастерами.
4. Само творчество, которое всегда считалось прерогативой людей, также будет преобразовано этим процессом гибридизации.
Главным итогом революции GPT станет превращение людей в интеллектуальных кентавров (о чем я неоднократно писал за годы до революции GPT, а интересующиеся могут просто задать в Телеграм-поиске интеллект кентавра).
#ИИ #РынокТруда
Цифровая демократия в цифровом концлагере … или наоборот.
Из этих двух вариантов цифрового будущего – оба хуже.
Этот интуитивно очевидный вывод невозможно доказать, не попробовав на практике. Поэтому наиболее продвинутые в цифровых технологиях государства вовсю экспериментируют на собственных народах, кто с первым, кто со вторым вариантом.
Но вот беда! Как показывает, например, опыт Китая и США, в любом из вариантов откатить назад и переориентироваться на альтернативный, с каждым годом эксперимента все труднее. И потому ответ на вопрос - есть ли в принципе у мира шанс модернизировать демократию переходом в цифру, - хотелось бы получить до достижения точки невозврата в этих экспериментах.
Cистемной попыткой ответить на этот вопрос стал проект международной группы исследователей из Швейцарии, Австрии и Великобритании «Проектируемая демократия: перспективы модернизации общества с помощью цифровых технологий, основанных на участии населения».
Целью проекта является анализ возможностей использования цифровых технологий и инструментов для создания более демократичных обществ.
Авторы исследуют три ключевые области:
1) роль цифровых технологий в содействии гражданскому участию в коллективном принятии решений;
2) использование цифровых инструментов для повышения прозрачности и подотчетности в управлении;
3) потенциал цифровых технологий для формирования более инклюзивных и представительных демократий.
Основными инструментальными направлениями «проектируемой демократии» являются:
• Формирование мнений людей
• Борьба с ложной и дезинформацией
• Поддержание ментального разнообразия в обществе
• Оптимизация поиска консенсуса
• Построение многоэтажного процесса бюджетирования с участием граждан
• Повсеместное использование коллективного разума для принятия решений.
• Отстраивание системы голосований (ибо простое электронное голосование работает плохо и несет дополнительные риски манипуляций)
• Создание платформ поддержки легитимности, доверия и прозрачности.
• Построение базовой муниципальной инфраструктуры цифровойц демократии на основе «семантических городских элементов»
Предварительных выводов два.
А) Если специально не проектировать и потом целенаправленно не отстраивать, получаются лишь два варианта из заголовка.
Б) Цифровые технологии и инструменты – не панацея для модернизации демократии. Лишь сочетая их с другими мерами, такими как общественное просвещение, кампании по повышению осведомленности, территориальное планирование и пр., можно надеяться на успех.
От себя, по прочтению отчета проекта, добавлю третий вывод.
В) «Проектируемая демократия» вряд возможна в странах с утвердившейся диктатурой (напр., «диктатурой страха» или «спин-диктатурой»), без смены которой никакая демократия в принципе не работает. В таких условиях все разговоры про инструменты цифровой демократии - типа электронного голосования, краудсорсинга социальных инициатив, платформ коллективной выработки решений и т.п., - работают лишь в качестве ширмы для диктатуры.
#ПроектируемаяДемократия
Из этих двух вариантов цифрового будущего – оба хуже.
Этот интуитивно очевидный вывод невозможно доказать, не попробовав на практике. Поэтому наиболее продвинутые в цифровых технологиях государства вовсю экспериментируют на собственных народах, кто с первым, кто со вторым вариантом.
Но вот беда! Как показывает, например, опыт Китая и США, в любом из вариантов откатить назад и переориентироваться на альтернативный, с каждым годом эксперимента все труднее. И потому ответ на вопрос - есть ли в принципе у мира шанс модернизировать демократию переходом в цифру, - хотелось бы получить до достижения точки невозврата в этих экспериментах.
Cистемной попыткой ответить на этот вопрос стал проект международной группы исследователей из Швейцарии, Австрии и Великобритании «Проектируемая демократия: перспективы модернизации общества с помощью цифровых технологий, основанных на участии населения».
Целью проекта является анализ возможностей использования цифровых технологий и инструментов для создания более демократичных обществ.
Авторы исследуют три ключевые области:
1) роль цифровых технологий в содействии гражданскому участию в коллективном принятии решений;
2) использование цифровых инструментов для повышения прозрачности и подотчетности в управлении;
3) потенциал цифровых технологий для формирования более инклюзивных и представительных демократий.
Основными инструментальными направлениями «проектируемой демократии» являются:
• Формирование мнений людей
• Борьба с ложной и дезинформацией
• Поддержание ментального разнообразия в обществе
• Оптимизация поиска консенсуса
• Построение многоэтажного процесса бюджетирования с участием граждан
• Повсеместное использование коллективного разума для принятия решений.
• Отстраивание системы голосований (ибо простое электронное голосование работает плохо и несет дополнительные риски манипуляций)
• Создание платформ поддержки легитимности, доверия и прозрачности.
• Построение базовой муниципальной инфраструктуры цифровойц демократии на основе «семантических городских элементов»
Предварительных выводов два.
А) Если специально не проектировать и потом целенаправленно не отстраивать, получаются лишь два варианта из заголовка.
Б) Цифровые технологии и инструменты – не панацея для модернизации демократии. Лишь сочетая их с другими мерами, такими как общественное просвещение, кампании по повышению осведомленности, территориальное планирование и пр., можно надеяться на успех.
От себя, по прочтению отчета проекта, добавлю третий вывод.
В) «Проектируемая демократия» вряд возможна в странах с утвердившейся диктатурой (напр., «диктатурой страха» или «спин-диктатурой»), без смены которой никакая демократия в принципе не работает. В таких условиях все разговоры про инструменты цифровой демократии - типа электронного голосования, краудсорсинга социальных инициатив, платформ коллективной выработки решений и т.п., - работают лишь в качестве ширмы для диктатуры.
#ПроектируемаяДемократия
Люди так в принципе не могут.
Разработчики GPT не понимают, как модель смогла выучить китайский.
Представьте ситуацию.
Ваш ребенок отучился в английской школе, где:
• все предметы преподавались на английском;
• учителя говорили по-английски;
• среди 900 учащихся в школе был лишь 1 ученик - китаец, остальные же ученики и преподаватели китайского языка не знали.
Однако, закончив школу, ваш ребенок, помимо английского, еще бегло и со смыслом говорит по-китайски. Причем говорит лучше, чем любой выпускник китайской школы.
С людьми подобная история невозможна. А с нечеловеческим интеллектом больших языковых моделей наблюдается именно это.
Что подтверждается скрупулезным тестированием SuperCLUE benchmark.
Итог тестирования поражает: общий балл GPT-4 по SuperCLUE (76,67) на 23 балла выше, чем у самой эффективной китайской модели SparkDesk от iFlytek 星火认知大模型, набравшей лишь 53,58 балла (включение в список тестируемых моделей модели Ernie от Baidu планируется, но предварительная оценка также сильно не в пользу Ernie).
Совершенно необъяснимым является тот факт, что:
• GPT порвал все китайские модели в тестах на понимание особенностей китайского языка: понимание китайских идиом, знание классической китайской литературы и поэзии, умение разбираться в тонкостях китайской иероглифики;
• но при этом китайскому языку GPT почти не учили (это «почти» заключается в том, что для обучения GPT3 был использован корпус из 181 млрд английских слов и лишь 190 млн китайских, что составляет 900-кратную разницу)
Как такое могло случиться, не понимают и сами разработчики GPT из OpenAI.
«Мы до сих пор этого не понимаем. И я бы очень хотел, чтобы кто-нибудь разобрался в этом» - пишет руководитель группы выравнивания ценностей людей и ИИ в OpenAI.
Имхо, единственное объяснение этому - что GPT самостоятельно обобщил поставленную перед ним цель на новый контекст.
И если это так, то последствия могут быть довольно страшными. Ибо такое самостоятельное обобщение целей со стороны ИИ сулит человечеству не только приятные сюрпризы, как с китайским языком.
Следующий сюрприз вполне может быть малоприятным для нас. Как для отдельных людей, так и для всего человечества.
#РискиИИ
Разработчики GPT не понимают, как модель смогла выучить китайский.
Представьте ситуацию.
Ваш ребенок отучился в английской школе, где:
• все предметы преподавались на английском;
• учителя говорили по-английски;
• среди 900 учащихся в школе был лишь 1 ученик - китаец, остальные же ученики и преподаватели китайского языка не знали.
Однако, закончив школу, ваш ребенок, помимо английского, еще бегло и со смыслом говорит по-китайски. Причем говорит лучше, чем любой выпускник китайской школы.
С людьми подобная история невозможна. А с нечеловеческим интеллектом больших языковых моделей наблюдается именно это.
Что подтверждается скрупулезным тестированием SuperCLUE benchmark.
Итог тестирования поражает: общий балл GPT-4 по SuperCLUE (76,67) на 23 балла выше, чем у самой эффективной китайской модели SparkDesk от iFlytek 星火认知大模型, набравшей лишь 53,58 балла (включение в список тестируемых моделей модели Ernie от Baidu планируется, но предварительная оценка также сильно не в пользу Ernie).
Совершенно необъяснимым является тот факт, что:
• GPT порвал все китайские модели в тестах на понимание особенностей китайского языка: понимание китайских идиом, знание классической китайской литературы и поэзии, умение разбираться в тонкостях китайской иероглифики;
• но при этом китайскому языку GPT почти не учили (это «почти» заключается в том, что для обучения GPT3 был использован корпус из 181 млрд английских слов и лишь 190 млн китайских, что составляет 900-кратную разницу)
Как такое могло случиться, не понимают и сами разработчики GPT из OpenAI.
«Мы до сих пор этого не понимаем. И я бы очень хотел, чтобы кто-нибудь разобрался в этом» - пишет руководитель группы выравнивания ценностей людей и ИИ в OpenAI.
Имхо, единственное объяснение этому - что GPT самостоятельно обобщил поставленную перед ним цель на новый контекст.
И если это так, то последствия могут быть довольно страшными. Ибо такое самостоятельное обобщение целей со стороны ИИ сулит человечеству не только приятные сюрпризы, как с китайским языком.
Следующий сюрприз вполне может быть малоприятным для нас. Как для отдельных людей, так и для всего человечества.
#РискиИИ
Шансы человечества притормозить и подумать тают.
Разработчики AGI готовы снижать риски, но только не координацией с правительством и между собой.
Ряд ведущих компаний в области ИИ, включая OpenAI, Google DeepMind и Anthropic, поставили перед собой цель создать искусственный общий интеллект (AGI) — системы ИИ, которые достигают или превосходят человеческие возможности в широком диапазоне когнитивных задач.
Преследуя эту цель, разработчики могут создать интеллектуальные системы, внедрение которых повлечет значительные и даже катастрофические риски. Поэтому по всему миру сейчас идет бурное обсуждение способов снижения рисков разработки AGI.
По мнению экспертов, существует около 50 способов снижения таких рисков. Понятно, что применить все 50 в мировом масштабе не реально. Нужно выбрать несколько главных способов минимизации рисков и сфокусироваться на них.
По сути, от того, какие из способов минимизации ИИ-рисков будут признаны приоритетными, зависит будущее человечества.
Только что вышедший отчет центра «Centre for the Governance of AI» анализирует мнения специалистов 51й ведущей команды среди мировых разработчиков AGI на предмет выяснения:
• какие из 50 способов снижения ИИ-рисков они для себя считают более приоритетными, а какие – менее?
• какие из способов снижения ИИ-рисков большинство разработчиков готовы применять, а какие не нравятся большинству разработчиков (вследствие чего рассчитывать на успех этих способов снижения риска вряд ли стоит)?
Итог опроса разработчиков таков.
Менее всего разработчики хотят координировать свои разработки (делясь информацией о том, что собираются делать, а не как сейчас – что уже сделали) с правительством и между собой.
Именно эти способы снижения ИИ-рисков двое из «крестных отцов ИИ» Йошуа Бенжио и Джеффри Хинтон считают ключевыми в создавшейся ситуации.
А саму ситуацию, имхо, точнее всего описал Джек Кларк, первым нажавший в январе 2023 кнопку тревоги на слушаниях по ИИ в Конгрессе США:
«Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»
В русском языке для подобных ситуаций есть другая пословица, использованная мною в конце прошлого года. Тогда я написал, что риски ИИ материализуются на наших глазах, и через год будет уже поздно пить Боржоми.
#Вызовы21века #РискиИИ #AGI
Разработчики AGI готовы снижать риски, но только не координацией с правительством и между собой.
Ряд ведущих компаний в области ИИ, включая OpenAI, Google DeepMind и Anthropic, поставили перед собой цель создать искусственный общий интеллект (AGI) — системы ИИ, которые достигают или превосходят человеческие возможности в широком диапазоне когнитивных задач.
Преследуя эту цель, разработчики могут создать интеллектуальные системы, внедрение которых повлечет значительные и даже катастрофические риски. Поэтому по всему миру сейчас идет бурное обсуждение способов снижения рисков разработки AGI.
По мнению экспертов, существует около 50 способов снижения таких рисков. Понятно, что применить все 50 в мировом масштабе не реально. Нужно выбрать несколько главных способов минимизации рисков и сфокусироваться на них.
По сути, от того, какие из способов минимизации ИИ-рисков будут признаны приоритетными, зависит будущее человечества.
Только что вышедший отчет центра «Centre for the Governance of AI» анализирует мнения специалистов 51й ведущей команды среди мировых разработчиков AGI на предмет выяснения:
• какие из 50 способов снижения ИИ-рисков они для себя считают более приоритетными, а какие – менее?
• какие из способов снижения ИИ-рисков большинство разработчиков готовы применять, а какие не нравятся большинству разработчиков (вследствие чего рассчитывать на успех этих способов снижения риска вряд ли стоит)?
Итог опроса разработчиков таков.
Менее всего разработчики хотят координировать свои разработки (делясь информацией о том, что собираются делать, а не как сейчас – что уже сделали) с правительством и между собой.
Именно эти способы снижения ИИ-рисков двое из «крестных отцов ИИ» Йошуа Бенжио и Джеффри Хинтон считают ключевыми в создавшейся ситуации.
А саму ситуацию, имхо, точнее всего описал Джек Кларк, первым нажавший в январе 2023 кнопку тревоги на слушаниях по ИИ в Конгрессе США:
«Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни.»
В русском языке для подобных ситуаций есть другая пословица, использованная мною в конце прошлого года. Тогда я написал, что риски ИИ материализуются на наших глазах, и через год будет уже поздно пить Боржоми.
#Вызовы21века #РискиИИ #AGI
Как ни воспитывай LLM, - всё тщетно.
Ребенка можно пытаться воспитать хорошим человеком, а “ребенка ИИ” – нет смысла.
Стоит хорошо «воспитанному» ИИ попасть в плохие руки, как «внутренние демоны» порвут «добрых ангелов» его натуры, похерив все результаты хорошего «воспитания».
Из сказанного выше следует, что ценность «ChatGPT революции» для человечества может, в итоге, оказаться не только отрицательной, а равной минус бесконечности (помножив бесконечную злобность людей на сверхчеловеческие способности машин).
Научная работа израильских ученых команды проф. Амнона Шашуа в Еврейском университете Иерусалима и AI21 Labs называется «Фундаментальные ограничения воспитания больших языковых моделей». Словом «воспитание» я здесь перевожу английский термин «alignment».
Традиционные переводы этого термина применительно к ИИ – выравнивание, согласование, приведение в соответствие целей, предпочтений или этических принципов человека и машины, - мне видятся более неточными.
Ибо в результате революции больших языковых моделей (LLM), они превратились из программируемых нами аппаратно-программных комплексов в наших креативных соперников на Земле. И теперь некорректно говорить о согласовании наших целей с целями LLM, поскольку их целей не знает никто. И никто даже не может сказать, есть ли вообще эти цели, в нашем человеческом понимании. А единственное, что доступно нашему наблюдению – это как они взаимодействуют с нами. Т.е. поведение LLM, выражающееся в том, как они реагируют на наши подсказки (промпты) и вопросы.
Процесс, называемый по-английски alignment, направлен на то, чтобы поведение LLM было полезным для людей и не причиняло им вреда. Обычно это достигается путем настройки модели таким образом, чтобы усилить желаемое для нас поведение модели и ослабить нежелательное.
Аналогичный процесс у людей называется воспитание. Люди именно так и воспитывают детей. С помощью «пряника» мотивируют их желательное, с точки зрения взрослых, поведение, а с помощью «кнута» демотивируя их вести себя нежелательным для взрослых образом.
Поэтому, называя процесс alignment по-русски «воспитание», мы наиболее точно передает суть процесса настройки поведения модели под максимальное соответствие нашим целям, предпочтениям или этическим принципам.
Теперь о статье.
Команда проф. Амнона Шашуа разработала теоретический подход под названием "Границы ожидаемого поведения" (BEB), который позволяет формально исследовать несколько важных характеристик и ограничений воспитания модели.
Используя BEB, авторы приходят к весьма важным и, я бы сказал, страшным выводам.
Авторы доказывают следующее.
1) LLM можно уговорить НА ЧТО УГОДНО - на любое поведение, возможное у модели с ненулевой вероятностью (причем, вероятность уговорить модель увеличивается с увеличением длины подсказки).
2) Побуждая модель с помощью подсказок вести себя как конкретная личность, можно склонить модель даже на такое экстраординарное поведение, вероятность которого крайне маловероятна.
3) Современные подходы к воспитанию моделей, вкл. используемое OpenAI обучение с подкреплением на основе человеческой обратной связи, увеличивают склонность LLM к нежелательному поведению.
Это означает, что: никакое воспитание не дает гарантий безопасного поведения модели.
Любой процесс воспитания, который ослабляет нежелательное поведение, но не устраняет его полностью, не обеспечивает безопасное поведение модели при атаках злоумышленников, использующих подсказки, нацеленные на «внутренних демонов» LLM.
N.B. Эта статья еще не прошла ревю коллег по цеху. И очень хочется надеяться, что хотя бы одна из 4х теорем и 3х лемм, составляющих доказательство BEB, ошибочна.
Потому что, если авторы правы на 100%, LLM приведут таки человечество к гибели.
#Вызовы21века #РискиИИ #LLM
Ребенка можно пытаться воспитать хорошим человеком, а “ребенка ИИ” – нет смысла.
Стоит хорошо «воспитанному» ИИ попасть в плохие руки, как «внутренние демоны» порвут «добрых ангелов» его натуры, похерив все результаты хорошего «воспитания».
Из сказанного выше следует, что ценность «ChatGPT революции» для человечества может, в итоге, оказаться не только отрицательной, а равной минус бесконечности (помножив бесконечную злобность людей на сверхчеловеческие способности машин).
Научная работа израильских ученых команды проф. Амнона Шашуа в Еврейском университете Иерусалима и AI21 Labs называется «Фундаментальные ограничения воспитания больших языковых моделей». Словом «воспитание» я здесь перевожу английский термин «alignment».
Традиционные переводы этого термина применительно к ИИ – выравнивание, согласование, приведение в соответствие целей, предпочтений или этических принципов человека и машины, - мне видятся более неточными.
Ибо в результате революции больших языковых моделей (LLM), они превратились из программируемых нами аппаратно-программных комплексов в наших креативных соперников на Земле. И теперь некорректно говорить о согласовании наших целей с целями LLM, поскольку их целей не знает никто. И никто даже не может сказать, есть ли вообще эти цели, в нашем человеческом понимании. А единственное, что доступно нашему наблюдению – это как они взаимодействуют с нами. Т.е. поведение LLM, выражающееся в том, как они реагируют на наши подсказки (промпты) и вопросы.
Процесс, называемый по-английски alignment, направлен на то, чтобы поведение LLM было полезным для людей и не причиняло им вреда. Обычно это достигается путем настройки модели таким образом, чтобы усилить желаемое для нас поведение модели и ослабить нежелательное.
Аналогичный процесс у людей называется воспитание. Люди именно так и воспитывают детей. С помощью «пряника» мотивируют их желательное, с точки зрения взрослых, поведение, а с помощью «кнута» демотивируя их вести себя нежелательным для взрослых образом.
Поэтому, называя процесс alignment по-русски «воспитание», мы наиболее точно передает суть процесса настройки поведения модели под максимальное соответствие нашим целям, предпочтениям или этическим принципам.
Теперь о статье.
Команда проф. Амнона Шашуа разработала теоретический подход под названием "Границы ожидаемого поведения" (BEB), который позволяет формально исследовать несколько важных характеристик и ограничений воспитания модели.
Используя BEB, авторы приходят к весьма важным и, я бы сказал, страшным выводам.
Авторы доказывают следующее.
1) LLM можно уговорить НА ЧТО УГОДНО - на любое поведение, возможное у модели с ненулевой вероятностью (причем, вероятность уговорить модель увеличивается с увеличением длины подсказки).
2) Побуждая модель с помощью подсказок вести себя как конкретная личность, можно склонить модель даже на такое экстраординарное поведение, вероятность которого крайне маловероятна.
3) Современные подходы к воспитанию моделей, вкл. используемое OpenAI обучение с подкреплением на основе человеческой обратной связи, увеличивают склонность LLM к нежелательному поведению.
Это означает, что: никакое воспитание не дает гарантий безопасного поведения модели.
Любой процесс воспитания, который ослабляет нежелательное поведение, но не устраняет его полностью, не обеспечивает безопасное поведение модели при атаках злоумышленников, использующих подсказки, нацеленные на «внутренних демонов» LLM.
N.B. Эта статья еще не прошла ревю коллег по цеху. И очень хочется надеяться, что хотя бы одна из 4х теорем и 3х лемм, составляющих доказательство BEB, ошибочна.
Потому что, если авторы правы на 100%, LLM приведут таки человечество к гибели.
#Вызовы21века #РискиИИ #LLM