Forwarded from FSCP
Бенефис Homo в роли Творца провалился.
Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.
Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:
1) полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
2) полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
3) (как следствие пп 1-2):, подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.
Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».
После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:
✔️ так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?
Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.
Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.
Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.
Авторы провели систематическую проверку 15-и отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.
• 8 физических отношений объектов: внутри, на, под, рядом …;
• 7 отношений агентов: толкать, тянуть, трогать ….
В сценах, запрашиваемых нейросеть изобразить их, фигурировали 6 объектов (коробка, цилиндр, чашка …) и 6 агентов (мужчина, женщина, ребенок …).
А потом исследователи:
• Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис), с тем, чтобы нейросеть генерировала изображения этих сцен;
• Показывали эти изображения людям для их вердикта, насколько каждое из изображений соответствует словесному описанию в задании.
Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению – читатель найдет в отчете исследования.
Мне же остается лишь резюмировать.
Попытка людей уподобиться Творцу (Богу, природе, эволюции …), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.
PS 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.
PPS Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).
#AGI
_______
Источник | #theworldisnoteasy
Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.
Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:
1) полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
2) полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
3) (как следствие пп 1-2):, подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.
Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».
После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:
✔️ так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?
Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.
Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.
Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.
Авторы провели систематическую проверку 15-и отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.
• 8 физических отношений объектов: внутри, на, под, рядом …;
• 7 отношений агентов: толкать, тянуть, трогать ….
В сценах, запрашиваемых нейросеть изобразить их, фигурировали 6 объектов (коробка, цилиндр, чашка …) и 6 агентов (мужчина, женщина, ребенок …).
А потом исследователи:
• Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис), с тем, чтобы нейросеть генерировала изображения этих сцен;
• Показывали эти изображения людям для их вердикта, насколько каждое из изображений соответствует словесному описанию в задании.
Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению – читатель найдет в отчете исследования.
Мне же остается лишь резюмировать.
Попытка людей уподобиться Творцу (Богу, природе, эволюции …), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.
PS 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.
PPS Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).
#AGI
_______
Источник | #theworldisnoteasy
Forwarded from FSCP
Сверхвызов сверхразума - никто не знает, как на нем зарабатывать.
Опубликованный FT логнрид «Смогут ли в OpenAI создать сверхразум до того, как у них закончатся деньги?» впервые озвучил самый сокровенный для инвесторов вопрос о самой перспективной и привлекательной для них технологии - ИИ.
• Если цель развития ИИ – создание сверхразума,
• и достижение этой цели будет стоить очень и очень дорого,
• то инвесторам хотелось бы заранее понимать:
1) Как планируется отбивать огромные инвестиции в создание сверхразума? и
2) Как вообще на нем зарабатывать?
Авторы лонгрида не открывают Америку, подробно описывая тупиковость ситуации, когда ответы на оба вопроса не может дать никто. И подобно мальчику, крикнувшему «А король то голый!», авторам остается лишь честно констатировать: долгосрочной жизнеспособной модели зарабатывания на сверхразуме пока никто не придумал.
Более того. Заявленная Сэмом Альтманом цель — создание «общего искусственного интеллекта», формы интеллектуального программного обеспечения, которое превзошло бы интеллектуальные возможности человека и изменило бы то, как мы все живем и работаем, — не может серьезно рассматриваться, как основа бизнес-модели, способной приносить владеющим созданным сверхразумом корпорациям триллионы долларов. А именно столько потребуется для создания сверхразума по убеждению Альтмана – главного рулевого лидера в этой области, компании OpenAI.
Авторы лонгрида пишут, - несмотря на то, что в краткосрочной перспективе генеративные ИИ на основе больших языковых моделей воспринимаются с энтузиазмом, многие бизнес-лидеры по-прежнему не уверены в том, как технология повысит их прибыль, будь то за счет сокращения затрат или создания новых потоков доходов… Скептики говорят, что существует фундаментальное несоответствие между тем, чего хотят компании, и тем, к чему в конечном итоге стремится OpenAI. «Не всем нужна Феррари. . . Бизнес-компаниям не нужна всезнающая и всевидящая сущность: они заботятся о том, чтобы зарабатывать деньги с помощью этого инструмента», — говорит один инвестор в области ИИ, который поддерживал некоторых конкурентов OpenAI.
Иными словами, как сказал инвестор, - «Обычные бизнес-цели корпораций не совпадают с общим искусственным интеллектом».
Конечно, можно, подобно Microsoft, делать ставку на встраивание «интеллектуальных 2-ых пилотов» в свои продукты и сервисы. Но ведь для этого никакой сверхразум даром не нужен.
А зачем тогда вбухивать триллионы, если нет ни малейших идей, как эти деньги отбить?
Сверхразум создаст новые сверхлекартсва и покорит термояд? На вскидку выглядит весьма привлекательно.
Но как на этом могут заработать создатели сверхразума? И не единожды, а из года в год.
Патентом на сверхразум торговать? Так кто ж его запатентует?
Остается лишь создавать сверхразум в надежде, что он потом сам придумает бизнес-модель, как на нем зарабатывать. Но это как-то уж совсем стремно для инвесторов.
www.ft.com
Этот пост развивает идеи моего поста 5 летней давности «Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять»
https://t.me/theworldisnoteasy/942
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Опубликованный FT логнрид «Смогут ли в OpenAI создать сверхразум до того, как у них закончатся деньги?» впервые озвучил самый сокровенный для инвесторов вопрос о самой перспективной и привлекательной для них технологии - ИИ.
• Если цель развития ИИ – создание сверхразума,
• и достижение этой цели будет стоить очень и очень дорого,
• то инвесторам хотелось бы заранее понимать:
1) Как планируется отбивать огромные инвестиции в создание сверхразума? и
2) Как вообще на нем зарабатывать?
Авторы лонгрида не открывают Америку, подробно описывая тупиковость ситуации, когда ответы на оба вопроса не может дать никто. И подобно мальчику, крикнувшему «А король то голый!», авторам остается лишь честно констатировать: долгосрочной жизнеспособной модели зарабатывания на сверхразуме пока никто не придумал.
Более того. Заявленная Сэмом Альтманом цель — создание «общего искусственного интеллекта», формы интеллектуального программного обеспечения, которое превзошло бы интеллектуальные возможности человека и изменило бы то, как мы все живем и работаем, — не может серьезно рассматриваться, как основа бизнес-модели, способной приносить владеющим созданным сверхразумом корпорациям триллионы долларов. А именно столько потребуется для создания сверхразума по убеждению Альтмана – главного рулевого лидера в этой области, компании OpenAI.
Авторы лонгрида пишут, - несмотря на то, что в краткосрочной перспективе генеративные ИИ на основе больших языковых моделей воспринимаются с энтузиазмом, многие бизнес-лидеры по-прежнему не уверены в том, как технология повысит их прибыль, будь то за счет сокращения затрат или создания новых потоков доходов… Скептики говорят, что существует фундаментальное несоответствие между тем, чего хотят компании, и тем, к чему в конечном итоге стремится OpenAI. «Не всем нужна Феррари. . . Бизнес-компаниям не нужна всезнающая и всевидящая сущность: они заботятся о том, чтобы зарабатывать деньги с помощью этого инструмента», — говорит один инвестор в области ИИ, который поддерживал некоторых конкурентов OpenAI.
Иными словами, как сказал инвестор, - «Обычные бизнес-цели корпораций не совпадают с общим искусственным интеллектом».
Конечно, можно, подобно Microsoft, делать ставку на встраивание «интеллектуальных 2-ых пилотов» в свои продукты и сервисы. Но ведь для этого никакой сверхразум даром не нужен.
А зачем тогда вбухивать триллионы, если нет ни малейших идей, как эти деньги отбить?
Сверхразум создаст новые сверхлекартсва и покорит термояд? На вскидку выглядит весьма привлекательно.
Но как на этом могут заработать создатели сверхразума? И не единожды, а из года в год.
Патентом на сверхразум торговать? Так кто ж его запатентует?
Остается лишь создавать сверхразум в надежде, что он потом сам придумает бизнес-модель, как на нем зарабатывать. Но это как-то уж совсем стремно для инвесторов.
www.ft.com
Этот пост развивает идеи моего поста 5 летней давности «Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять»
https://t.me/theworldisnoteasy/942
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Telegram
Малоизвестное интересное
Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять.
Франсуа Шолле из Google написал правду, которую его компания не может пока открыто признать.
Принципиальная ошибка современной науки и технологий ИИ в том, что они развиваются в условиях…
Франсуа Шолле из Google написал правду, которую его компания не может пока открыто признать.
Принципиальная ошибка современной науки и технологий ИИ в том, что они развиваются в условиях…