База медицинских знаний
318 subscribers
565 photos
28 videos
55 files
2.16K links
Канал Ассоциации "Национальная База Медицинских знаний" (www.nbmz.ru). Дайджест и новости о современных технологиях в практическом здравоохранении и его "цифровой трансформации". Контакт: @AndreiAlmazov
Download Telegram
Forwarded from FSCP
​​Бенефис Homo в роли Творца провалился.
Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.

Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:
1) полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
2) полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
3) (как следствие пп 1-2):, подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.


Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».

После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:
✔️ так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?

Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.

Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.

Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.

Авторы провели систематическую проверку 15-и отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.
• 8 физических отношений объектов: внутри, на, под, рядом …;
• 7 отношений агентов: толкать, тянуть, трогать ….
В сценах, запрашиваемых нейросеть изобразить их, фигурировали 6 объектов (коробка, цилиндр, чашка …) и 6 агентов (мужчина, женщина, ребенок …).

А потом исследователи:
• Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис), с тем, чтобы нейросеть генерировала изображения этих сцен;
• Показывали эти изображения людям для их вердикта, насколько каждое из изображений соответствует словесному описанию в задании.

Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению – читатель найдет в отчете исследования.

Мне же остается лишь резюмировать.
Попытка людей уподобиться Творцу (Богу, природе, эволюции …), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.

PS 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.
PPS Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).
#AGI
_______
Источник | #theworldisnoteasy
Forwarded from FSCP
«Есть реактивные боты. Они пассивны – в том смысле, что отвечают на заданный человеком вопрос. Порфирий – активный лингвобот. Он способен генерировать вопросы и интенции внутри себя самого, опираясь на логику и архив. Это и делает его таким универсальным. И таким опасным.»
Виктор Пелевин “Трансгуманизм 3. Путешествие в Элевсин”
Вхождение человечества в зону сингулярности (с её немыслимой скоростью смены эпохальных событий) можно иллюстрировать множеством различных примеров из самых разных областей.
Например, так.
Помните крылатое выражение из советского авиамарша – «мы рождены, чтоб сказку сделать былью»?
Так вот, вступив в зону сингулярности, начавшуюся в п.1 (см. ниже), мы попали в реальность, где скорость процессов внутри замкнутого цикла (пп. 2-4) измеряется не десятилетиями или, в лучшем случае, годами, а месяцами (а скоро и неделями):
1) генерации новых сказок (для существующей реальности);
2) превращения их в быль (обновленную реальность);
3) генерации новых сказок (для обновленной реальности);
4) Go to 2;


Смотрите сами.
✔️ Новый роман Виктора Пелевина характеризует немыслимую ранее скорость «генерации новых сказок». Большой роман на тему «революции ChatGPT» опубликован спустя всего несколько месяцев после начала этой революции.
✔️ 1й этап революции, ведущей, по замыслу автора, к “Мускусной ночи” – восстанию алгоритмов, – появление “реактивных лингвоботов”, впитывающих в себя непредставимые для людей объемы сетевых знаний и неотличимые при коммуникации от людей. Этот этап начался весной 2023.
✔️ 2м этапом революции (по замыслу автора, да и просто по здравому смыслу) – должно стать появление активных лингвоботов.

Как думаете – как скоро это может произойти?
Ответ ожидаем для зоны сингулярности – уже произошло (всего через несколько месяцев после этапа 1).

Новая работа MIT CSAIL, Anthropic и Стэнфорда “ELICITING HUMAN PREFERENCES WITH LANGUAGE MODELS” предлагает практическую реализацию активных лингвоботов.
Разработанный авторами метод создания активных лингвоботов превращает их из пассивных отвечающих на маркированные примеры или подсказки на естественном языке (промпты) в интерактивных собеседников, способных самостоятельно выяснять предпочтения собеседников – людей и, соответственно, подстраиваться под эти предпочтения.

Экспериментальные испытания активных лингвоботов на трех типах задач (проверка электронной почты, рекомендации контента и моральные рассуждения) показали (ожидаемо) их превосходство над пассивными лингвоботов и другими активными лингвоботами (разрабатываемыми в различных американских лабах).
arxiv.org
#ИИ #LLM
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
Forwarded from FSCP
Сверхвызов сверхразума - никто не знает, как на нем зарабатывать.
Опубликованный FT логнрид «Смогут ли в OpenAI создать сверхразум до того, как у них закончатся деньги?» впервые озвучил самый сокровенный для инвесторов вопрос о самой перспективной и привлекательной для них технологии - ИИ.
• Если цель развития ИИ – создание сверхразума,
• и достижение этой цели будет стоить очень и очень дорого,
• то инвесторам хотелось бы заранее понимать:
1) Как планируется отбивать огромные инвестиции в создание сверхразума? и
2) Как вообще на нем зарабатывать?

Авторы лонгрида не открывают Америку, подробно описывая тупиковость ситуации, когда ответы на оба вопроса не может дать никто. И подобно мальчику, крикнувшему «А король то голый!», авторам остается лишь честно констатировать: долгосрочной жизнеспособной модели зарабатывания на сверхразуме пока никто не придумал.

Более того. Заявленная Сэмом Альтманом цель — создание «общего искусственного интеллекта», формы интеллектуального программного обеспечения, которое превзошло бы интеллектуальные возможности человека и изменило бы то, как мы все живем и работаем, — не может серьезно рассматриваться, как основа бизнес-модели, способной приносить владеющим созданным сверхразумом корпорациям триллионы долларов. А именно столько потребуется для создания сверхразума по убеждению Альтмана – главного рулевого лидера в этой области, компании OpenAI.

Авторы лонгрида пишут, - несмотря на то, что в краткосрочной перспективе генеративные ИИ на основе больших языковых моделей воспринимаются с энтузиазмом, многие бизнес-лидеры по-прежнему не уверены в том, как технология повысит их прибыль, будь то за счет сокращения затрат или создания новых потоков доходов… Скептики говорят, что существует фундаментальное несоответствие между тем, чего хотят компании, и тем, к чему в конечном итоге стремится OpenAI. «Не всем нужна Феррари. . . Бизнес-компаниям не нужна всезнающая и всевидящая сущность: они заботятся о том, чтобы зарабатывать деньги с помощью этого инструмента», — говорит один инвестор в области ИИ, который поддерживал некоторых конкурентов OpenAI.
Иными словами, как сказал инвестор, - «Обычные бизнес-цели корпораций не совпадают с общим искусственным интеллектом».

Конечно, можно, подобно Microsoft, делать ставку на встраивание «интеллектуальных 2-ых пилотов» в свои продукты и сервисы. Но ведь для этого никакой сверхразум даром не нужен.

А зачем тогда вбухивать триллионы, если нет ни малейших идей, как эти деньги отбить?
Сверхразум создаст новые сверхлекартсва и покорит термояд? На вскидку выглядит весьма привлекательно.
Но как на этом могут заработать создатели сверхразума? И не единожды, а из года в год.
Патентом на сверхразум торговать? Так кто ж его запатентует?

Остается лишь создавать сверхразум в надежде, что он потом сам придумает бизнес-модель, как на нем зарабатывать. Но это как-то уж совсем стремно для инвесторов.
www.ft.com

Этот пост развивает идеи моего поста 5 летней давности «Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять»
https://t.me/theworldisnoteasy/942
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram