Получил замечательный коммент на вчерашний пост о сильном ИИ.
«С такой логикой в восемнадцатом веке, глядя на паровоз, мы бы говорили: «сильное» МП (механическое передвижение) не достигнуть на этом идиотически ложном пути, основанном на использовании круглых колёс».
Приведенная аналогия мне понравилась, и я воспользуюсь ею для объяснения своей позиции (спасибо автору коммента).
Единственное, что нужно для этого сделать - уточнить цель построения «сильного» МП.
Итак, дано:
- мы в 18 веке;
- у нас есть не только колеса, но и подшипники и даже паровой двигатель, позволяющий разогнать повозку (ака паровоз) до приличной (в нашем понимании) скорости;
- мы считаем (не без некоторых оснований), что, набрав большую скорость, повозка взлетит.
Наша цель:
- построить летательный аппарат (т.е. создать машину, позволяющую человеку летать, как птицы или как-то иначе; но летать, а не ездить, - и в этом суть!).
Ситуация:
Приходит некий дядя и говорит следующее.
1) одних колес, подшипников и парового двигателя (ака паровоза) недостаточно, чтобы повозка полетела;
А) нужен иной двигатель, поскольку, даже если удастся усовершенствовать паровой двигатель (от себя добавлю - как это сделают через 200+ лет братья Бэсслеры), характеристики у такого летающего паровоза будут никудышные, и только время потратите на его создание зря;
Б) нужны крылья, аэродинамическая конструкция повозки и т.д. для обеспечения возможностей подъема и планирования.
2) Поэтому, ребята, завязывайте с прогнозами, обещающими построить летальный аппарат на основе паровоза то ли через 10, то ли через 20 лет.
3) Надо изобретать иной двигатель и думать над обеспечением летных качеств.
При этом дядя вовсе не опровергает, что паровоз – отличная штука и изменит жизнь человечества в ближайшие десятилетия.
И что же мы отвечаем дяде?
См. цитату в начале поста 😎
#СильныйИИ
«С такой логикой в восемнадцатом веке, глядя на паровоз, мы бы говорили: «сильное» МП (механическое передвижение) не достигнуть на этом идиотически ложном пути, основанном на использовании круглых колёс».
Приведенная аналогия мне понравилась, и я воспользуюсь ею для объяснения своей позиции (спасибо автору коммента).
Единственное, что нужно для этого сделать - уточнить цель построения «сильного» МП.
Итак, дано:
- мы в 18 веке;
- у нас есть не только колеса, но и подшипники и даже паровой двигатель, позволяющий разогнать повозку (ака паровоз) до приличной (в нашем понимании) скорости;
- мы считаем (не без некоторых оснований), что, набрав большую скорость, повозка взлетит.
Наша цель:
- построить летательный аппарат (т.е. создать машину, позволяющую человеку летать, как птицы или как-то иначе; но летать, а не ездить, - и в этом суть!).
Ситуация:
Приходит некий дядя и говорит следующее.
1) одних колес, подшипников и парового двигателя (ака паровоза) недостаточно, чтобы повозка полетела;
А) нужен иной двигатель, поскольку, даже если удастся усовершенствовать паровой двигатель (от себя добавлю - как это сделают через 200+ лет братья Бэсслеры), характеристики у такого летающего паровоза будут никудышные, и только время потратите на его создание зря;
Б) нужны крылья, аэродинамическая конструкция повозки и т.д. для обеспечения возможностей подъема и планирования.
2) Поэтому, ребята, завязывайте с прогнозами, обещающими построить летальный аппарат на основе паровоза то ли через 10, то ли через 20 лет.
3) Надо изобретать иной двигатель и думать над обеспечением летных качеств.
При этом дядя вовсе не опровергает, что паровоз – отличная штука и изменит жизнь человечества в ближайшие десятилетия.
И что же мы отвечаем дяде?
См. цитату в начале поста 😎
#СильныйИИ
В знаменитом рассказе Джейкобса «Обезьянья лапа», мумифицированная лапа обезьяны, на которую наложено заклятье, выполняла любые желания, но с чудовищными последствиями для пожелавших. Для людей подобные последствия были просто невообразимы из-за их чудовищной бесчеловечностии, немыслимой для человека.
Но у прОклятой старым факиром обезьяньей лапы была иная — нечеловеческая структура предпочтений. И потому, выполняя желания людей, она вовсе не со зла, а просто автоматом, преподносила людям страшные сюрпризы, выходящие за пределы воображения имевших несчастье обратиться к ней с просьбой.
Страшный рассказ оказался пророческим. В XXI веке обезьянья лапа материализовалась в виде некоторых прорывных IT технологий. Подарочек столь желанных нам соцсетей мы уже от неё получили. На очереди не менее желанный людям Сильный ИИ.
Что же будет, если с Сильным ИИ повторится история обезьяньей лапы, буквально на наших глазах произошедшая с соцсетями?
Скорее всего, цена новой ошибки может оказаться для человечества неподъемной.
Почему так? И как этого избежать?
Читайте об этом в новом посте (7 мин. чтения):
- на Medium http://bit.do/fdEMf
- На Яндекс Дзен https://clck.ru/JbAxN
#СильныйИИ #AGI #МашинноеОбучение #IRL
Но у прОклятой старым факиром обезьяньей лапы была иная — нечеловеческая структура предпочтений. И потому, выполняя желания людей, она вовсе не со зла, а просто автоматом, преподносила людям страшные сюрпризы, выходящие за пределы воображения имевших несчастье обратиться к ней с просьбой.
Страшный рассказ оказался пророческим. В XXI веке обезьянья лапа материализовалась в виде некоторых прорывных IT технологий. Подарочек столь желанных нам соцсетей мы уже от неё получили. На очереди не менее желанный людям Сильный ИИ.
Что же будет, если с Сильным ИИ повторится история обезьяньей лапы, буквально на наших глазах произошедшая с соцсетями?
Скорее всего, цена новой ошибки может оказаться для человечества неподъемной.
Почему так? И как этого избежать?
Читайте об этом в новом посте (7 мин. чтения):
- на Medium http://bit.do/fdEMf
- На Яндекс Дзен https://clck.ru/JbAxN
#СильныйИИ #AGI #МашинноеОбучение #IRL
Medium
Обезьянья лапа прорывных технологий
Соцсети мы от нее уже получили. На очереди Сильный ИИ
Претендент №1 на «научного Оскара» в 2021.
Прорыв за горизонт проверяемых знаний ведет к пониманию отличий интеллекта человека и машины.
Коронавирус в комплекте с обнулением достали. Поэтому хочу перенестись на год вперед, где вышеупомянутое, надеюсь, останется в прошлом. А вместо всякой гадости, люди будут обсуждать произошедший прорыв в науке. Что это будет за прорыв, можно предположить уже сегодня. Об этом я и собираюсь рассказать. Так что заголовок – вовсе не кликбейт, и уж тем более не шутка.
Международное исследование 4-х авторов из Австралии, США и Канады, поданное в январе 2020 на рецензирование, выполнено на стыке физики, информатики и математики, и его название сильно смахивает на Е = mc^2. Эта 165-ти страничная работа, содержащая 155 формул размером до 6 строк, называется «MIP * = RE».
Рецензировать работу такого объема будут до года. И как считают некоторые весьма авторитетные ученые, она успешно пройдет рецензирование. А после этого начнется большой бэнц. Ведь эта работа не только опровергает пару крутейших современных теорий (одну из физики, вторую из математики). Она еще и открывает новый горизонт будущей науки, которая настолько превзойдет современный уровень, что будет решать задачи, сегодня считающиеся неразрешимыми. Речь идет о расширении границ проверяемых знаний. А точнее, знаний, поддающихся компьютерной проверке.
Современная наука устанавливает горизонт доступных нам проверяемых знаний. Что за горизонтом, - не известно. А чтобы отодвинуть этот горизонт, нужны другие законы физики, описывающие нашу реальность. При ином описании реальности иными законами физики, возможно использование более сложной теории вероятностей с иными, более сложными причинно-следственными связями. И возможно, тогда удастся заглянуть за горизонт проверяемых знаний и, среди прочего, понять, как построить сильный ИИ.
Но ведь у нас уже есть иная физика с иными законами, описывающими нашу же реальность, но с другими причинно-следственными отношениями. Это квантовая теория.
И что – это реально работает и позволяет решать какие-то неразрешимые для современной науки проблемы?
Новое исследование доказывает, что да. Это работает.
Продолжить чтение (еще на 10 мин.):
- на Medium http://bit.do/fAHQi
- на Яндекс Дзен https://clck.ru/MWUmy
#вычислительная_сложность #квантовые_вычисления #запутывание #сильныйИИ
Прорыв за горизонт проверяемых знаний ведет к пониманию отличий интеллекта человека и машины.
Коронавирус в комплекте с обнулением достали. Поэтому хочу перенестись на год вперед, где вышеупомянутое, надеюсь, останется в прошлом. А вместо всякой гадости, люди будут обсуждать произошедший прорыв в науке. Что это будет за прорыв, можно предположить уже сегодня. Об этом я и собираюсь рассказать. Так что заголовок – вовсе не кликбейт, и уж тем более не шутка.
Международное исследование 4-х авторов из Австралии, США и Канады, поданное в январе 2020 на рецензирование, выполнено на стыке физики, информатики и математики, и его название сильно смахивает на Е = mc^2. Эта 165-ти страничная работа, содержащая 155 формул размером до 6 строк, называется «MIP * = RE».
Рецензировать работу такого объема будут до года. И как считают некоторые весьма авторитетные ученые, она успешно пройдет рецензирование. А после этого начнется большой бэнц. Ведь эта работа не только опровергает пару крутейших современных теорий (одну из физики, вторую из математики). Она еще и открывает новый горизонт будущей науки, которая настолько превзойдет современный уровень, что будет решать задачи, сегодня считающиеся неразрешимыми. Речь идет о расширении границ проверяемых знаний. А точнее, знаний, поддающихся компьютерной проверке.
Современная наука устанавливает горизонт доступных нам проверяемых знаний. Что за горизонтом, - не известно. А чтобы отодвинуть этот горизонт, нужны другие законы физики, описывающие нашу реальность. При ином описании реальности иными законами физики, возможно использование более сложной теории вероятностей с иными, более сложными причинно-следственными связями. И возможно, тогда удастся заглянуть за горизонт проверяемых знаний и, среди прочего, понять, как построить сильный ИИ.
Но ведь у нас уже есть иная физика с иными законами, описывающими нашу же реальность, но с другими причинно-следственными отношениями. Это квантовая теория.
И что – это реально работает и позволяет решать какие-то неразрешимые для современной науки проблемы?
Новое исследование доказывает, что да. Это работает.
Продолжить чтение (еще на 10 мин.):
- на Medium http://bit.do/fAHQi
- на Яндекс Дзен https://clck.ru/MWUmy
#вычислительная_сложность #квантовые_вычисления #запутывание #сильныйИИ
Medium
Претендент №1 на «научного Оскара» в 2021
Прорыв за горизонт проверяемых знаний ведет к пониманию отличий интеллекта человека и машины
• Каковы цели Google, Facebook и прочих мегакорпораций, тратящих десятки миллиардов на НИОКР в области искусственного интеллекта (ИИ)?
• Почему правительства развитых стран включают ИИ в число ключевых национальных приоритетов?
• Что мотивирует топовые университеты и передовые стартапы вкладывать лучшие мозги в исследования ИИ?
О том, как человечеству продали чарующий и манящий образ будущего, обещав превратить нас в богов.
И почему весь мир купился на этот самый масштабный фейк 21-го века.
Мой новый пост:
- в НГ-Наука (10 мин. чтения - без гиперссылок и части иллюстраций) http://www.ng.ru/science/2020-04-07/9_7837_ai.html
И его полный WEB вариант (15 мин. чтения)
- на Medium https://bit.ly/2VeGPF8
- на Яндекс Дзен https://clck.ru/MsEND
#Техносингулярность #Сингулярность #СильныйИИ #СуперИИ
• Почему правительства развитых стран включают ИИ в число ключевых национальных приоритетов?
• Что мотивирует топовые университеты и передовые стартапы вкладывать лучшие мозги в исследования ИИ?
О том, как человечеству продали чарующий и манящий образ будущего, обещав превратить нас в богов.
И почему весь мир купился на этот самый масштабный фейк 21-го века.
Мой новый пост:
- в НГ-Наука (10 мин. чтения - без гиперссылок и части иллюстраций) http://www.ng.ru/science/2020-04-07/9_7837_ai.html
И его полный WEB вариант (15 мин. чтения)
- на Medium https://bit.ly/2VeGPF8
- на Яндекс Дзен https://clck.ru/MsEND
#Техносингулярность #Сингулярность #СильныйИИ #СуперИИ
Независимая
Приближает ли нас искусственный интеллект к последнему «парадигмальному сдвигу»
Наука должна начинаться с мифов и с критики мифов; она должна начинаться не c совокупности наблюдений и не с придумывания тех или иных экспериментов, а с критического обсуждения мифов, магической техники и практики.
Короновирус точно влияет на мозг. Искажается оптика восприятия и оценки важности поступающей в мозг информации. Самым важным для нас становится лишь то, что связано с пандемией и ее последствиями: медицинские, экономические, социально-политические и конспирологические новости и прогнозы.
Однако, спустя пару лет, COVID-19 будет занимать в медиасфере не больше места, чем «испанка» полгода назад. А вот техно-сингулярность и сильный ИИ будут еще очень долго оставаться в топе главных тем. И дело здесь вовсе не в активности Рэя Курцвейла и его единомышленников.
«Трудно заставить человека что-то понять, если его зарплата зависит от того, чтобы он этого не понимал», жестко, но справедливо подметил Синклер.
Истинные же корни мифа о сверхважности техно-сингулярности для человечества раскрывает другая известная цитата - «Можно все время дурачить некоторых, можно некоторое время дурачить всех, но нельзя все время дурачить всех».
Но и эта мысль Линкольна все же имеет предел, известный людям уже несколько тысячелетий.
В цивилизации, созданной Homo sapiens, можно все время дурачить всех единственно возможным способом - с помощью религии.
Вот почему в Силиконовой долине религий для человечества создается новая единая техно-религия техно-сингулярности.
Суждено ли ей стать таковой, зависит лишь от того, будет ли и дальше техно-сингулярность оставаться для человечества скрытым (неосознанным) мифом о «пока несбывшемся» пророчестве.
Об этом мой новый лонгрид на 24 мин. чтения
- на Medium https://bit.ly/2xRykZ3
- на Яндекс Дзен https://clck.ru/N6ZfP
- и облегченный текст (без графиков, таблиц и гиперссылок) на сайте НГ-Наука https://bit.ly/2xNbXE4
Будете ли вы читать его или решите - пока коронавирус, не до лонгридов про техно-сингулярность, – хороший тест на степень искажения оптики восприятия важности 😎
#Техносингулярность #Сингулярность #СильныйИИ #СуперИИ
Однако, спустя пару лет, COVID-19 будет занимать в медиасфере не больше места, чем «испанка» полгода назад. А вот техно-сингулярность и сильный ИИ будут еще очень долго оставаться в топе главных тем. И дело здесь вовсе не в активности Рэя Курцвейла и его единомышленников.
«Трудно заставить человека что-то понять, если его зарплата зависит от того, чтобы он этого не понимал», жестко, но справедливо подметил Синклер.
Истинные же корни мифа о сверхважности техно-сингулярности для человечества раскрывает другая известная цитата - «Можно все время дурачить некоторых, можно некоторое время дурачить всех, но нельзя все время дурачить всех».
Но и эта мысль Линкольна все же имеет предел, известный людям уже несколько тысячелетий.
В цивилизации, созданной Homo sapiens, можно все время дурачить всех единственно возможным способом - с помощью религии.
Вот почему в Силиконовой долине религий для человечества создается новая единая техно-религия техно-сингулярности.
Суждено ли ей стать таковой, зависит лишь от того, будет ли и дальше техно-сингулярность оставаться для человечества скрытым (неосознанным) мифом о «пока несбывшемся» пророчестве.
Об этом мой новый лонгрид на 24 мин. чтения
- на Medium https://bit.ly/2xRykZ3
- на Яндекс Дзен https://clck.ru/N6ZfP
- и облегченный текст (без графиков, таблиц и гиперссылок) на сайте НГ-Наука https://bit.ly/2xNbXE4
Будете ли вы читать его или решите - пока коронавирус, не до лонгридов про техно-сингулярность, – хороший тест на степень искажения оптики восприятия важности 😎
#Техносингулярность #Сингулярность #СильныйИИ #СуперИИ
Medium
Техносингулярность становится технорелигией — 2
Где и в чем ошибается «кремниевый пророк» Рэй Курцвейл
Как только страсти по COVID-19 улягутся, главной страшилкой человечества опять станет «сильный ИИ».
• Технооптимисты уверены, что его создание – лишь вопрос времени.
• Их оппоненты уверены в обратном – повторить человеческий разум в компьютере невозможно в принципе.
Какая из позиций верна, неизвестно. Но есть ключевой момента, объединяющий оппонентов.
ИИ – это первая инновация человечества, экзистенциально ошибиться с которой ему достаточно будет лишь раз.
Даже с ядерной энергией проскочили. Сожгли с её помощью пару сотен тысяч людей в Хиросиме и Нагасаки, но потом все же одумались. И теперь есть шанс, что на «можем повторить» больше не пойдет ни один маньяк с ядерной кнопкой.
С развитием ИИ так не свезет. Если вдруг окажутся правы технооптимисты, выдернуть комп из розетки люди, скорее всего, уже не успеют ...
Вот почему думать над этим нужно уже сейчас. Ибо потом может оказаться поздно.
Новый (и имхо, лучший) научпоп-фильм про это "We need to talk about A.I." (86 мин) с участием Макса Тегмарка и др. по красоте и динамике вполне сопоставим с новым сезоном «Мира Дикого запада». А по интеллектуальному послевкусию он даже чем-то напоминает «2001 год: Космическая одиссея» Кубрика.
Вот 2-х минутный трейлер https://www.youtube.com/watch?v=foLkpvE7uMc
А это 5-и минутный тизер фильма https://www.youtube.com/watch?v=IhnPR_6Ph5A
Он есть почти на всех платформах.
Рекомендую.
https://www.amazon.com/We-Need-Talk-About-I/dp/B088MN7JH9/
#ИИ #СильныйИИ
• Технооптимисты уверены, что его создание – лишь вопрос времени.
• Их оппоненты уверены в обратном – повторить человеческий разум в компьютере невозможно в принципе.
Какая из позиций верна, неизвестно. Но есть ключевой момента, объединяющий оппонентов.
ИИ – это первая инновация человечества, экзистенциально ошибиться с которой ему достаточно будет лишь раз.
Даже с ядерной энергией проскочили. Сожгли с её помощью пару сотен тысяч людей в Хиросиме и Нагасаки, но потом все же одумались. И теперь есть шанс, что на «можем повторить» больше не пойдет ни один маньяк с ядерной кнопкой.
С развитием ИИ так не свезет. Если вдруг окажутся правы технооптимисты, выдернуть комп из розетки люди, скорее всего, уже не успеют ...
Вот почему думать над этим нужно уже сейчас. Ибо потом может оказаться поздно.
Новый (и имхо, лучший) научпоп-фильм про это "We need to talk about A.I." (86 мин) с участием Макса Тегмарка и др. по красоте и динамике вполне сопоставим с новым сезоном «Мира Дикого запада». А по интеллектуальному послевкусию он даже чем-то напоминает «2001 год: Космическая одиссея» Кубрика.
Вот 2-х минутный трейлер https://www.youtube.com/watch?v=foLkpvE7uMc
А это 5-и минутный тизер фильма https://www.youtube.com/watch?v=IhnPR_6Ph5A
Он есть почти на всех платформах.
Рекомендую.
https://www.amazon.com/We-Need-Talk-About-I/dp/B088MN7JH9/
#ИИ #СильныйИИ
YouTube
We Need To Talk About A.I. (2020) Official Trailer | Trailblazers
Watch at home from April 20th
From We Need To Talk About A.I. (2020): James Cameron and leading experts explore what an AI future could look like and who might control it.
Once thought to exist purely in the realms of science fiction, the creation of a…
From We Need To Talk About A.I. (2020): James Cameron and leading experts explore what an AI future could look like and who might control it.
Once thought to exist purely in the realms of science fiction, the creation of a…
Сильный ИИ – не хайп, а фейк.
Почему его невозможно создать.
С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.
На тему самой грандиозной техно-аферы, обещающей создание сильного ИИ, мною написано предостаточно: 1, 2 и т.д. Казалось бы, все сказано.
Однако, опубликованная в Nature новая работа проф. Рагнара Фьелланда «Почему ИИ общего назначения не будет создан» несомненно стоит прочтения по двум причинам.
1) Проф. Фьелланд – знаменитый норвежский физик и философ, - не просто прокричал еще раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом более полувека назад в работе «Алхимия и искусственный интеллект».
2) Современная трактовка Фьелланда еще более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, не просто в обозримом будущем, а вообще никогда.
• Компьютеры, у которых нет тела, нет детства и нет культурной практики, вообще не могут приобрести интеллект (ни-ко-гда) – это тупик.
• И это не просто тупик, а весьма опасный тупик. Вера в возможность реализации сильного ИИ вредна, т.к. переоценивает возможности технологий и недооценивает возможности людей. Результатом этой веры во многих случаях будет замена того, что хорошо работает, на то, что работает хуже.
Приведу здесь лишь несколько важных соображений из аргументации Фьелланда, развивающей аргументацию Дрейфуса.
А. Компьютерная мощь никогда не разовьется в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие - способность принимать правильные решения в конкретных ситуациях, и мудрость - способность видеть целое.
Б. Важная часть человеческих знаний является неявными (невербализуемыми - tacit) знаниями. Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, - ошибочны. В равной степени можно пытаться научить ребенка кататься на велосипеде, не имея его, и лишь используя инструкцию.
В. Вера в обретение бессмертия путем создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой пост 3). Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.
Г. Попытки строить ИИ лишь на основе корреляций, а не причинности – тупиковы. Причинность – важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определенной культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.
ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум – основной механизм, позволяющий это. Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь – чистый фейк.
#СильныйИИ
Почему его невозможно создать.
С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.
На тему самой грандиозной техно-аферы, обещающей создание сильного ИИ, мною написано предостаточно: 1, 2 и т.д. Казалось бы, все сказано.
Однако, опубликованная в Nature новая работа проф. Рагнара Фьелланда «Почему ИИ общего назначения не будет создан» несомненно стоит прочтения по двум причинам.
1) Проф. Фьелланд – знаменитый норвежский физик и философ, - не просто прокричал еще раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом более полувека назад в работе «Алхимия и искусственный интеллект».
2) Современная трактовка Фьелланда еще более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, не просто в обозримом будущем, а вообще никогда.
• Компьютеры, у которых нет тела, нет детства и нет культурной практики, вообще не могут приобрести интеллект (ни-ко-гда) – это тупик.
• И это не просто тупик, а весьма опасный тупик. Вера в возможность реализации сильного ИИ вредна, т.к. переоценивает возможности технологий и недооценивает возможности людей. Результатом этой веры во многих случаях будет замена того, что хорошо работает, на то, что работает хуже.
Приведу здесь лишь несколько важных соображений из аргументации Фьелланда, развивающей аргументацию Дрейфуса.
А. Компьютерная мощь никогда не разовьется в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие - способность принимать правильные решения в конкретных ситуациях, и мудрость - способность видеть целое.
Б. Важная часть человеческих знаний является неявными (невербализуемыми - tacit) знаниями. Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, - ошибочны. В равной степени можно пытаться научить ребенка кататься на велосипеде, не имея его, и лишь используя инструкцию.
В. Вера в обретение бессмертия путем создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой пост 3). Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.
Г. Попытки строить ИИ лишь на основе корреляций, а не причинности – тупиковы. Причинность – важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определенной культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.
ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум – основной механизм, позволяющий это. Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь – чистый фейк.
#СильныйИИ
Судный день ИИ-нацпроектов.
Если поймут, как делать AGI.
Национальные стратегии и/или нацпроекты развития ИИ приняты уже в 30+ странах, а еще в 20+ они проходят процесс утверждения. Россия, естественно, в тренде. Уже есть и национальная стратегия, и федеральный проект.
Казалось бы, перспективы развития ИИ в мире прояснились. Названы направления развития и приоритеты отдельных стран, запланированы и формируются бюджеты, установлены KPI, идет мониторинг результатов. К 2024 году планируются одни достижения, к 2030 – другие. Затем нацпроекты продлят до 2045: уточнят, приоритеты, нарастят бюджеты… и т.д.
Но все это в один прекрасный момент может лопнуть.
• В считанные недели будут остановлены большинство нацпроектов.
• Бюджеты заморожены.
• Ряд направлений засекречены.
• Работающие с нацпроектом частные компании так или иначе взяты под госконтроль.
• Лучшие специалисты объявлены невыездными…
Короче, настанет судный день для ИИ-нацпроектов. Но что же может это спровоцировать?
Да ничего особенного. Просто в какой-то из сотен лабораторий мира, занимающихся перспективными разработками в области ИИ, будет получен результат, подтверждающий то, о чем вот уже не один десяток лет идет бесконечный треп во всех медиа мира
– сильный (общий, универсальный – кому как нравится) ИИ (AGI) практически реализуем.
Руководство страны – первооткрывателя секрета практического изготовления AGI сделает все, чтоб секрет не утёк. И пересмотрев нацбюджет на ближайшие годы, выделит колоссальные деньги (как минимум, несколько процентов ВВП) на создание AGI – работу, которую они будут охранять от чужих, как зеницу ока.
Руководители других стран, которым разведка доложит о случившемся, поступят аналогично: вбухают в область перспективных ИИ-разработок проценты ВВП и все засекретят.
И никак иначе. Ибо если сильный ИИ практически реализуем, значит следом за ним (и довольно быстро) появится супер-ИИ. А тот, кто будет обладать последним, получит абсолютное стратегическое превосходство в войне и мире. И никаких денег уже не будет жалко, лишь бы этот заветный приз получить.
Вот тогда-то и начнется реальная ИИ-гонка за мировое первенство. Все предыдущие игры в ИИ-нацпроекты будут забыты, ставки предельно взвинчены, а нервы разведок до предела напряжены.
В свете такой перспективы представляют интерес ответы на 2 вопроса.
1) Мы уверены, что судный день уже не наступил?
2) И если так, то почему?
Воспользуемся для ответов логикой, изложенной в работе Левина и Мааса. В ней резюмируется обсуждение данной темы с рядом известных (в том числе анонимных) экспертов.
Ответ на 1.
Создание AGI – цель наивысшего национального приоритета. Как ведут себя страны, поставив подобную цель, известно из примеров: Манхэттенский проект создания ядерной бомбы и программа «Аполлон» для осуществления первой пилотируемой высадки на Луну. В обоих случаях проекты делались за несколько лет с совокупным бюджетом в несколько процентов ВВП.
Масштабируя к современному ВВП США, это триллионы долларов - на 2 порядка больше текущего финансирования ИИ. Однако, для действительно высокоприоритетных задач финансирование именно такое. Например, совокупная стоимость программы истребителя F-35 - 4% ВВП. А программы поддержки после COVID-19: Китай - 7% ВВП, США – 13%.
Резюме ответа.
Да, т.к. финансирование ИИ-нацпроектов пока не высокоприоритетное.
Ответ на 2.
Если совсем коротко – некуда вкладывать деньги.
Объясню. Вам нужно перенести железный кубометр весом 8 т. Можете нанять сколько угодно людей. И как? 150 мужиков, вроде бы, должны справиться. Но как они это сделают? Ведь больше 10-12 человек к кубу не подойдут. Т.е. дело не в ресурсах.
Ибо не ясно, как вообще это делать.
С AGI аналогично.
Резюме ответа.
Как сделать AGI, пока никто не знает. Одни предположения. Посему и ресурсы не нужны.
Так что, как минимум пока, сильный ИИ – не хайп, а фейк.
Детали читайте у Мааса и Левина. Но имхо, и так все ясно.
#СильныйИИ
Если поймут, как делать AGI.
Национальные стратегии и/или нацпроекты развития ИИ приняты уже в 30+ странах, а еще в 20+ они проходят процесс утверждения. Россия, естественно, в тренде. Уже есть и национальная стратегия, и федеральный проект.
Казалось бы, перспективы развития ИИ в мире прояснились. Названы направления развития и приоритеты отдельных стран, запланированы и формируются бюджеты, установлены KPI, идет мониторинг результатов. К 2024 году планируются одни достижения, к 2030 – другие. Затем нацпроекты продлят до 2045: уточнят, приоритеты, нарастят бюджеты… и т.д.
Но все это в один прекрасный момент может лопнуть.
• В считанные недели будут остановлены большинство нацпроектов.
• Бюджеты заморожены.
• Ряд направлений засекречены.
• Работающие с нацпроектом частные компании так или иначе взяты под госконтроль.
• Лучшие специалисты объявлены невыездными…
Короче, настанет судный день для ИИ-нацпроектов. Но что же может это спровоцировать?
Да ничего особенного. Просто в какой-то из сотен лабораторий мира, занимающихся перспективными разработками в области ИИ, будет получен результат, подтверждающий то, о чем вот уже не один десяток лет идет бесконечный треп во всех медиа мира
– сильный (общий, универсальный – кому как нравится) ИИ (AGI) практически реализуем.
Руководство страны – первооткрывателя секрета практического изготовления AGI сделает все, чтоб секрет не утёк. И пересмотрев нацбюджет на ближайшие годы, выделит колоссальные деньги (как минимум, несколько процентов ВВП) на создание AGI – работу, которую они будут охранять от чужих, как зеницу ока.
Руководители других стран, которым разведка доложит о случившемся, поступят аналогично: вбухают в область перспективных ИИ-разработок проценты ВВП и все засекретят.
И никак иначе. Ибо если сильный ИИ практически реализуем, значит следом за ним (и довольно быстро) появится супер-ИИ. А тот, кто будет обладать последним, получит абсолютное стратегическое превосходство в войне и мире. И никаких денег уже не будет жалко, лишь бы этот заветный приз получить.
Вот тогда-то и начнется реальная ИИ-гонка за мировое первенство. Все предыдущие игры в ИИ-нацпроекты будут забыты, ставки предельно взвинчены, а нервы разведок до предела напряжены.
В свете такой перспективы представляют интерес ответы на 2 вопроса.
1) Мы уверены, что судный день уже не наступил?
2) И если так, то почему?
Воспользуемся для ответов логикой, изложенной в работе Левина и Мааса. В ней резюмируется обсуждение данной темы с рядом известных (в том числе анонимных) экспертов.
Ответ на 1.
Создание AGI – цель наивысшего национального приоритета. Как ведут себя страны, поставив подобную цель, известно из примеров: Манхэттенский проект создания ядерной бомбы и программа «Аполлон» для осуществления первой пилотируемой высадки на Луну. В обоих случаях проекты делались за несколько лет с совокупным бюджетом в несколько процентов ВВП.
Масштабируя к современному ВВП США, это триллионы долларов - на 2 порядка больше текущего финансирования ИИ. Однако, для действительно высокоприоритетных задач финансирование именно такое. Например, совокупная стоимость программы истребителя F-35 - 4% ВВП. А программы поддержки после COVID-19: Китай - 7% ВВП, США – 13%.
Резюме ответа.
Да, т.к. финансирование ИИ-нацпроектов пока не высокоприоритетное.
Ответ на 2.
Если совсем коротко – некуда вкладывать деньги.
Объясню. Вам нужно перенести железный кубометр весом 8 т. Можете нанять сколько угодно людей. И как? 150 мужиков, вроде бы, должны справиться. Но как они это сделают? Ведь больше 10-12 человек к кубу не подойдут. Т.е. дело не в ресурсах.
Ибо не ясно, как вообще это делать.
С AGI аналогично.
Резюме ответа.
Как сделать AGI, пока никто не знает. Одни предположения. Посему и ресурсы не нужны.
Так что, как минимум пока, сильный ИИ – не хайп, а фейк.
Детали читайте у Мааса и Левина. Но имхо, и так все ясно.
#СильныйИИ
Современный ИИ – это игрушечная собачка.
Почему ИИ сложнее, чем мы думаем
• ИИ не знает, что снеговики не бегают, - таков печальный итог 63 лет развития ИИ
• Машинное обучение - это современная алхимия
• Сильный ИИ – не хайп, а фейк, и его невозможно создать
Если смешать (но не взбалтывать) эти три моих поста, украсив полученный коктейль прекрасным научным слогом и авторитетом профессора компьютерных наук ряда университетов Мелани Митчелл, - получится отличная статья «Четыре заблуждения об ИИ. Исследователи ИИ обманывают себя, утверждая будто интеллект человеческого уровня вполне достижим. И вот почему».
1. Триумфализм (ИИ лучше нас в шахматах, го, различных компьютерных играх, некоторых типах распознавания изображений и т.д.). На самом деле, «всё это подобно утверждению, будто первая забравшаяся на дерево обезьяна продвигалась к будущей высадке на Луну. Но на самом деле, на этом пути возникает множество неожиданных препятствий».
2. «Парадокс Маравека» (сложные для людей действия - игра в шахматы, перевод языков и высокие результаты тестов интеллекта - относительно просты для компьютеров; но то, что нам кажется легким, - подниматься по лестнице, болтать и избегать простых препятствий - сложно для компьютеров).
3. Выдавание желаемого за действительное (все успехи ИИ в узких областях, пока непереносимы на общие человеческие способности).
4. Ошибочное предположение, будто интеллект полностью находится в мозге, и что он в принципе может быть развоплощенным.
Про п. 4 (про который я пишу более всего) Митчелл очень четко текстует.
«Большая часть нашего интеллекта передана на внешний подряд в человеческую форму. Например, если вы прыгаете со стены, нелинейные свойства ваших мышц, сухожилий и связок поглощают удар, а ваш мозг не участвует в координации движения. Напротив, подобный прыжок робота часто требует точного измерения углов конечностей и суставов, в то время как мощные процессоры определяют, как исполнительные механизмы должны вести себя, чтобы поглотить удар… В некотором смысле, все эти вычисления выполняются морфологией наших тел, которая сама по себе является результатом миллиардов лет эволюции (еще один алгоритмическим процессом)».
Эту важнейшую фразу позволю себе проиллюстрировать простым и понятным примером – сальто, выполняемое
• игрушечной собачкой,
• роботом Вoston Вynamics
• человеком.
Робот в искусстве сальто (и вычислительных процессах, стоящих за этим искусством) гораздо ближе игрушке-собачке, чем к человеку.
И это 100%но переносимо на все современные практические попытки реализации сильного ИИ.
Статья Митчелл:
- популярно
- научно
#СильныйИИ #ВоплощенныйИнтеллект
Почему ИИ сложнее, чем мы думаем
• ИИ не знает, что снеговики не бегают, - таков печальный итог 63 лет развития ИИ
• Машинное обучение - это современная алхимия
• Сильный ИИ – не хайп, а фейк, и его невозможно создать
Если смешать (но не взбалтывать) эти три моих поста, украсив полученный коктейль прекрасным научным слогом и авторитетом профессора компьютерных наук ряда университетов Мелани Митчелл, - получится отличная статья «Четыре заблуждения об ИИ. Исследователи ИИ обманывают себя, утверждая будто интеллект человеческого уровня вполне достижим. И вот почему».
1. Триумфализм (ИИ лучше нас в шахматах, го, различных компьютерных играх, некоторых типах распознавания изображений и т.д.). На самом деле, «всё это подобно утверждению, будто первая забравшаяся на дерево обезьяна продвигалась к будущей высадке на Луну. Но на самом деле, на этом пути возникает множество неожиданных препятствий».
2. «Парадокс Маравека» (сложные для людей действия - игра в шахматы, перевод языков и высокие результаты тестов интеллекта - относительно просты для компьютеров; но то, что нам кажется легким, - подниматься по лестнице, болтать и избегать простых препятствий - сложно для компьютеров).
3. Выдавание желаемого за действительное (все успехи ИИ в узких областях, пока непереносимы на общие человеческие способности).
4. Ошибочное предположение, будто интеллект полностью находится в мозге, и что он в принципе может быть развоплощенным.
Про п. 4 (про который я пишу более всего) Митчелл очень четко текстует.
«Большая часть нашего интеллекта передана на внешний подряд в человеческую форму. Например, если вы прыгаете со стены, нелинейные свойства ваших мышц, сухожилий и связок поглощают удар, а ваш мозг не участвует в координации движения. Напротив, подобный прыжок робота часто требует точного измерения углов конечностей и суставов, в то время как мощные процессоры определяют, как исполнительные механизмы должны вести себя, чтобы поглотить удар… В некотором смысле, все эти вычисления выполняются морфологией наших тел, которая сама по себе является результатом миллиардов лет эволюции (еще один алгоритмическим процессом)».
Эту важнейшую фразу позволю себе проиллюстрировать простым и понятным примером – сальто, выполняемое
• игрушечной собачкой,
• роботом Вoston Вynamics
• человеком.
Робот в искусстве сальто (и вычислительных процессах, стоящих за этим искусством) гораздо ближе игрушке-собачке, чем к человеку.
И это 100%но переносимо на все современные практические попытки реализации сильного ИИ.
Статья Митчелл:
- популярно
- научно
#СильныйИИ #ВоплощенныйИнтеллект
Мир переходит на новую эволюционную траекторию.
Пройти «вселенский фильтр отбора» без глобальной кооперации невозможно.
Сколько примерно интеллектуалов в России, можно будет прикинуть по числу прослушиваний феноменально интересного и поразительно ёмкого вчерашнего подкаста Александра Панова.
А поскольку интеллектуалы бывают сильно разные, и вообще, у этого слова много различных определений, я имею в виду не определение, а как мне кажется, один из общих отличительных признаков всех интеллектуалов.
Интеллектуал – это тот, кому интересны подобные важные вопросы, успешно не замечаемые актуальной повесткой большинства медиа от ТВ до Ютуба и Телеграм-каналов.
6:30 Великое противостояние: природа одна, а описывающих ее теорий две
15:00 Нулевые шансы создать Сильный ИИ, не понимая механизм появления у человека инсайтов, да и просто новых идей
15:00 Стратегия поиска внеземных цивилизаций – искать не отдельную цивилизацию, а галактическое культурное поле
33:00 «Они» должны быть здесь. Но искать их лучше на Луне.
42:00 Моральные императивы иных цивилизаций (прогрессорство, невидимость …), и как пройти через «вселенский фильтр отбора»
46:30 Альтернативные реальности и Мультиверс
51:30 Мир совсем иной, чем мы его видим и представляем
1:02:00 Слова у нас общие, а субъективные ощущения разные
1:08:00 Квантовая информация не есть привычная нам информация. Квантовая математика не доступна сознанию («мы видим мир сквозь узкую щель в заборе»)
1:23:00 Теория прогрессивной эволюции Акопа Назаретяна
1:28:00 Мир переходит на новую эволюционную траекторию. Пройти «вселенский фильтр отбора» без управляемой, а не стихийной глобальной кооперации невозможно
1:36:00 Можно ли перенаправить встроенный в нас эволюцией механизм агрессии. От спорта к гибридным и кибер- войнам.
https://www.uhnwidata.com/den-of-rich/alexander-panov
#Будущее #СильныйИИ #Макроэволюция #SETI #ТеорияВсего
Пройти «вселенский фильтр отбора» без глобальной кооперации невозможно.
Сколько примерно интеллектуалов в России, можно будет прикинуть по числу прослушиваний феноменально интересного и поразительно ёмкого вчерашнего подкаста Александра Панова.
А поскольку интеллектуалы бывают сильно разные, и вообще, у этого слова много различных определений, я имею в виду не определение, а как мне кажется, один из общих отличительных признаков всех интеллектуалов.
Интеллектуал – это тот, кому интересны подобные важные вопросы, успешно не замечаемые актуальной повесткой большинства медиа от ТВ до Ютуба и Телеграм-каналов.
6:30 Великое противостояние: природа одна, а описывающих ее теорий две
15:00 Нулевые шансы создать Сильный ИИ, не понимая механизм появления у человека инсайтов, да и просто новых идей
15:00 Стратегия поиска внеземных цивилизаций – искать не отдельную цивилизацию, а галактическое культурное поле
33:00 «Они» должны быть здесь. Но искать их лучше на Луне.
42:00 Моральные императивы иных цивилизаций (прогрессорство, невидимость …), и как пройти через «вселенский фильтр отбора»
46:30 Альтернативные реальности и Мультиверс
51:30 Мир совсем иной, чем мы его видим и представляем
1:02:00 Слова у нас общие, а субъективные ощущения разные
1:08:00 Квантовая информация не есть привычная нам информация. Квантовая математика не доступна сознанию («мы видим мир сквозь узкую щель в заборе»)
1:23:00 Теория прогрессивной эволюции Акопа Назаретяна
1:28:00 Мир переходит на новую эволюционную траекторию. Пройти «вселенский фильтр отбора» без управляемой, а не стихийной глобальной кооперации невозможно
1:36:00 Можно ли перенаправить встроенный в нас эволюцией механизм агрессии. От спорта к гибридным и кибер- войнам.
https://www.uhnwidata.com/den-of-rich/alexander-panov
#Будущее #СильныйИИ #Макроэволюция #SETI #ТеорияВсего