Воображение бессмыслицы без умения мыслить.
ИИ близок к пределу имитации разума людей.
Два прорывных научных результата этого года подводят предварительный итог многолетних попыток имитировать на компьютерах высокоуровневые когнитивные способности людей.
Первый прорывной результат продемонстрировал Open AI
Их новая версия DALL-E 2 способна превращать текстовые описания в фотореалистичные изображения.
ИИ научили имитировать высокоуровневые когнитивные способности людей, решая 3 важнейших класса задач, отличающих нас от животных:
1. Оперирование существующими и создание новых визуальных образов, в т.ч. эстетически изысканных и оригинальных.
2. Оперирование существующими и создание новых повествований из грамматически, семантически и прагматически правильных предложений на естественном языке.
3. Увязка обоих модальностей (зрение и язык) для уже существующих и новых элементов.
1й и 2й классы задач ИИ-системы умели решать и до появления DALL-E 2. Теперь же им доступен и 3й класс, причем:
• как для тестов и образов, имеющих смысл с точки зрения людей;
• так и для не имеющих смысла.
Последнее можно проиллюстрировать известным примером Хомского - грамматически-корректным, но бессмысленным предложением: «Бесцветные зеленые идеи яростно спят».
Для DALL-E 2 бессмысленность этой фразы ничуть не мешает вообразить ее визуальный образ (см. рисунок).
Это показывает, что у DALL-E 2 нет пределов воображения.
Даже полное отсутствие в описании смысла (в человеческом понимании) не мешает ИИ-системе создать по описанию визуальное представление бессмыслицы.
Однако предел в имитации разума людей все же есть. Что демонстрируют результаты другой работы.
Второй прорывной результат представлен статьей «Shared computational principles for language processing in humans and deep language models».
Авторы показали, что восприятие речи мозгом происходит ровно по той же схеме, что и в системах машинного обучения, использующих авторегрессионные глубокие языковые модели. Эти модели не знают ничего о правилах языка. Они лишь следуют простым принципам.
1. Непрерывно предсказывают следующее слово.
2. Сопоставляют эти предсказания с входящим словом для вычисления степени неожиданности (ошибки прогноза).
3. Полагаются на контекстуальные детали.
Подобным образом работают:
• NLP-системы типа GPT-3, ничего не понимая в тексте и не зная никаких правил, а лишь предсказывая следующее слово,
• упомянутая DALL-E 2, превращающая тексты в изображения, ничего не зная о правилах их формирования, а лишь предсказывая очередной пиксель.
Фундаментальный вывод этой работы таков.
Хотя язык может играть центральную организующую роль в процессах познания людей, лингвистической компетенции недостаточно для обретения здравого смысла: мышления и понимания.
Иными словами, машина может сколь угодно совершенно владеть языком (проходя тест Тьюринга и эксперимент Китайской комнаты), но всё ее владение – ничто иное, как способность предсказывать следующий элемент текста; и эта способность имеет нулевую ценность для понимания смысла текста и порождения новых значимых текстов на основе интеграции знаний из предыдущих.
Это же справедливо и для визуальных образов. Здесь также прогнозирование очередного пикселя имеет нулевую ценность для понимания и порождения новых осмысленных образов на основе предыдущих.
Т.о., совокупность результатов обеих работ позволяет предположить наличие непреодолимой для статистического машинного обучения пропасти между двумя типами высокоуровневых когнитивных способностей:
A. языковой и зрительной компетенций, приобретаемых в результате машинного обучения;
B. компетенций здравого смысла, приобрести которые в результате машинного обучения современные ИИ-системы не могут.
Вероятной причиной этой пропасти может быть, как вычислительный подход, так и то, что опыт алгоритмически несжимаем.
#AGI
_______
Источник | #theworldisnoteasy
ИИ близок к пределу имитации разума людей.
Два прорывных научных результата этого года подводят предварительный итог многолетних попыток имитировать на компьютерах высокоуровневые когнитивные способности людей.
Первый прорывной результат продемонстрировал Open AI
Их новая версия DALL-E 2 способна превращать текстовые описания в фотореалистичные изображения.
ИИ научили имитировать высокоуровневые когнитивные способности людей, решая 3 важнейших класса задач, отличающих нас от животных:
1. Оперирование существующими и создание новых визуальных образов, в т.ч. эстетически изысканных и оригинальных.
2. Оперирование существующими и создание новых повествований из грамматически, семантически и прагматически правильных предложений на естественном языке.
3. Увязка обоих модальностей (зрение и язык) для уже существующих и новых элементов.
1й и 2й классы задач ИИ-системы умели решать и до появления DALL-E 2. Теперь же им доступен и 3й класс, причем:
• как для тестов и образов, имеющих смысл с точки зрения людей;
• так и для не имеющих смысла.
Последнее можно проиллюстрировать известным примером Хомского - грамматически-корректным, но бессмысленным предложением: «Бесцветные зеленые идеи яростно спят».
Для DALL-E 2 бессмысленность этой фразы ничуть не мешает вообразить ее визуальный образ (см. рисунок).
Это показывает, что у DALL-E 2 нет пределов воображения.
Даже полное отсутствие в описании смысла (в человеческом понимании) не мешает ИИ-системе создать по описанию визуальное представление бессмыслицы.
Однако предел в имитации разума людей все же есть. Что демонстрируют результаты другой работы.
Второй прорывной результат представлен статьей «Shared computational principles for language processing in humans and deep language models».
Авторы показали, что восприятие речи мозгом происходит ровно по той же схеме, что и в системах машинного обучения, использующих авторегрессионные глубокие языковые модели. Эти модели не знают ничего о правилах языка. Они лишь следуют простым принципам.
1. Непрерывно предсказывают следующее слово.
2. Сопоставляют эти предсказания с входящим словом для вычисления степени неожиданности (ошибки прогноза).
3. Полагаются на контекстуальные детали.
Подобным образом работают:
• NLP-системы типа GPT-3, ничего не понимая в тексте и не зная никаких правил, а лишь предсказывая следующее слово,
• упомянутая DALL-E 2, превращающая тексты в изображения, ничего не зная о правилах их формирования, а лишь предсказывая очередной пиксель.
Фундаментальный вывод этой работы таков.
Хотя язык может играть центральную организующую роль в процессах познания людей, лингвистической компетенции недостаточно для обретения здравого смысла: мышления и понимания.
Иными словами, машина может сколь угодно совершенно владеть языком (проходя тест Тьюринга и эксперимент Китайской комнаты), но всё ее владение – ничто иное, как способность предсказывать следующий элемент текста; и эта способность имеет нулевую ценность для понимания смысла текста и порождения новых значимых текстов на основе интеграции знаний из предыдущих.
Это же справедливо и для визуальных образов. Здесь также прогнозирование очередного пикселя имеет нулевую ценность для понимания и порождения новых осмысленных образов на основе предыдущих.
Т.о., совокупность результатов обеих работ позволяет предположить наличие непреодолимой для статистического машинного обучения пропасти между двумя типами высокоуровневых когнитивных способностей:
A. языковой и зрительной компетенций, приобретаемых в результате машинного обучения;
B. компетенций здравого смысла, приобрести которые в результате машинного обучения современные ИИ-системы не могут.
Вероятной причиной этой пропасти может быть, как вычислительный подход, так и то, что опыт алгоритмически несжимаем.
#AGI
_______
Источник | #theworldisnoteasy
Alt Intelligence – это машинная Deep Idiocy.
Мы у развилки на пути к AGI.
Директор по исследованиям DeepMind и профессор Оксфорда Нандо де Фрейтас взорвал мировое сообщество исследователей и разработчиков ИИ.
Мы близки к достижению ИИ человеческого уровня (AGI). Теперь все дело в масштабе! Игра окончена!
— написал он в Твиттере, комментируя создание его компанией мультимодальной нейросети Gato, способной выполнять задачи разного типа, включая создание описаний к изображениям, ведение диалога, укладку блоков с помощью роборуки и аркадные игры. Уже сейчас Gato умеет выполнять 604 типа задач и более половины из них – лучше среднего человека (1).
С Нандо де Фрейтасом не согласились многие авторитеты в области ИИ.
Ян ЛеКун спокойно и рассудительно констатировал 6 очевидных фактов в пользу того, что никакой близости к AGI в обозримом будущем не наблюдается (2).
А Гэри Маркус ответил Нандо куда более развернуто и эмоционально (3).
• Ставка на безграничное масштабирование (Scaling-Über-Alles) пока не является окончательно согласованным путем построения AGI даже внутри самой DeepMind.
• И вообще, пора кончать пудрить мозги общественности, будто замена человеческого интеллекта на альтернативный – машинный (Alt Intelligence) имеет отношение к созданию человекоподобного интеллекта.
В этой словесной баталии, как ни удивительно, у каждой из сторон есть свои крепкие аргументы. Кому интересно, прочтет сам.
Я же лишь продемонстрирую несколькими конкретными примерами, насколько могут оказаться правильными оба противоположных взгляда на перспективы AGI.
Взгляд с позиции Нандо де Фрейтаса:
✔️ AGI уже близко, ибо скорость развития мультимодальных моделей огромна и нарастает.
Примеры определения места съемки по мелким деталям, увязки деталей в общем контексте фото и прогнозирования на основе контекста приведены на рис. (4)
Взгляд с усредненных позиций Яна ЛеКуна и Гэри Маркуса:
✔️ Нынешний путь не ведет к AGI. Потребуются иные пути – весьма не простые, пока не очень ясные и, уж точно, совсем не быстрые.
Вот пара примеров, подтверждающих и иллюстрирующих такую позицию.
Пример 1.
Взгляните мой недавний пост, в котором приведен поразительно рассудительный (на первый взгляд) диалог человека и визуально-языковой модели Flamingo (5).
Однако, предположение о рассудительности модели мгновенно испарится, стоит лишь взглянуть на другой (куда более короткий) диалог с той же моделью о той же фотографии – см. рис. (6). Иллюзия наличия у модели здравого смысла мгновенно исчезает после простого вопроса к ней: «Сколько на фото жирафов?». «Два» - отвечает модель. Ибо ей, - что Обама, что жираф – все одно.
Т.е. это означает, что иллюзия наличия здравого смысла у модели возникает исключительно в результате искусства человека задавать серию наводящих вопросов. Без них степень умственной отсталости модели примерна та же, что у людей в состоянии глубокой идиотии.
Пример 2 продолжает эту иллюстрацию.
Модель видит вот что (7). После чего происходит такой диалог.
1. Flamingo: Это светофор. На нем красный свет.
2. Человек: Ты видишь три круга?
- Flamingo: Да, я вижу три круга.
3. Какого они цвета?
- Красный, синий и зеленый.
4. Где зеленый круг?
- Зеленый круг справа.
5. Действительно? Справа от чего?
- Зеленый круг справа от синего круга.
Можно опускать занавес, ибо все ясно. Даже 0.001% человекоподобного интеллекта у Flamingo нет и в помине. А есть лишь способность статистически обоснованно подстраивать свои ответы под серию вопросов человека.
Мой вердикт – Фрейтас прав в том, что ИИ развивается фантастически быстро. Но Маркус ближе к истине.
#AGI
1 2 3 4 5 6 7
_______
Источник | #theworldisnoteasy
Мы у развилки на пути к AGI.
Директор по исследованиям DeepMind и профессор Оксфорда Нандо де Фрейтас взорвал мировое сообщество исследователей и разработчиков ИИ.
Мы близки к достижению ИИ человеческого уровня (AGI). Теперь все дело в масштабе! Игра окончена!
— написал он в Твиттере, комментируя создание его компанией мультимодальной нейросети Gato, способной выполнять задачи разного типа, включая создание описаний к изображениям, ведение диалога, укладку блоков с помощью роборуки и аркадные игры. Уже сейчас Gato умеет выполнять 604 типа задач и более половины из них – лучше среднего человека (1).
С Нандо де Фрейтасом не согласились многие авторитеты в области ИИ.
Ян ЛеКун спокойно и рассудительно констатировал 6 очевидных фактов в пользу того, что никакой близости к AGI в обозримом будущем не наблюдается (2).
А Гэри Маркус ответил Нандо куда более развернуто и эмоционально (3).
• Ставка на безграничное масштабирование (Scaling-Über-Alles) пока не является окончательно согласованным путем построения AGI даже внутри самой DeepMind.
• И вообще, пора кончать пудрить мозги общественности, будто замена человеческого интеллекта на альтернативный – машинный (Alt Intelligence) имеет отношение к созданию человекоподобного интеллекта.
В этой словесной баталии, как ни удивительно, у каждой из сторон есть свои крепкие аргументы. Кому интересно, прочтет сам.
Я же лишь продемонстрирую несколькими конкретными примерами, насколько могут оказаться правильными оба противоположных взгляда на перспективы AGI.
Взгляд с позиции Нандо де Фрейтаса:
✔️ AGI уже близко, ибо скорость развития мультимодальных моделей огромна и нарастает.
Примеры определения места съемки по мелким деталям, увязки деталей в общем контексте фото и прогнозирования на основе контекста приведены на рис. (4)
Взгляд с усредненных позиций Яна ЛеКуна и Гэри Маркуса:
✔️ Нынешний путь не ведет к AGI. Потребуются иные пути – весьма не простые, пока не очень ясные и, уж точно, совсем не быстрые.
Вот пара примеров, подтверждающих и иллюстрирующих такую позицию.
Пример 1.
Взгляните мой недавний пост, в котором приведен поразительно рассудительный (на первый взгляд) диалог человека и визуально-языковой модели Flamingo (5).
Однако, предположение о рассудительности модели мгновенно испарится, стоит лишь взглянуть на другой (куда более короткий) диалог с той же моделью о той же фотографии – см. рис. (6). Иллюзия наличия у модели здравого смысла мгновенно исчезает после простого вопроса к ней: «Сколько на фото жирафов?». «Два» - отвечает модель. Ибо ей, - что Обама, что жираф – все одно.
Т.е. это означает, что иллюзия наличия здравого смысла у модели возникает исключительно в результате искусства человека задавать серию наводящих вопросов. Без них степень умственной отсталости модели примерна та же, что у людей в состоянии глубокой идиотии.
Пример 2 продолжает эту иллюстрацию.
Модель видит вот что (7). После чего происходит такой диалог.
1. Flamingo: Это светофор. На нем красный свет.
2. Человек: Ты видишь три круга?
- Flamingo: Да, я вижу три круга.
3. Какого они цвета?
- Красный, синий и зеленый.
4. Где зеленый круг?
- Зеленый круг справа.
5. Действительно? Справа от чего?
- Зеленый круг справа от синего круга.
Можно опускать занавес, ибо все ясно. Даже 0.001% человекоподобного интеллекта у Flamingo нет и в помине. А есть лишь способность статистически обоснованно подстраивать свои ответы под серию вопросов человека.
Мой вердикт – Фрейтас прав в том, что ИИ развивается фантастически быстро. Но Маркус ближе к истине.
#AGI
1 2 3 4 5 6 7
_______
Источник | #theworldisnoteasy
Бенефис Homo в роли Творца провалился.
Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.
Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:
1) полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
2) полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
3) (как следствие пп 1-2):, подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.
Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».
После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:
✔️ так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?
Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.
Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.
Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.
Авторы провели систематическую проверку 15-и отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.
• 8 физических отношений объектов: внутри, на, под, рядом …;
• 7 отношений агентов: толкать, тянуть, трогать ….
В сценах, запрашиваемых нейросеть изобразить их, фигурировали 6 объектов (коробка, цилиндр, чашка …) и 6 агентов (мужчина, женщина, ребенок …).
А потом исследователи:
• Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис), с тем, чтобы нейросеть генерировала изображения этих сцен;
• Показывали эти изображения людям для их вердикта, насколько каждое из изображений соответствует словесному описанию в задании.
Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению – читатель найдет в отчете исследования.
Мне же остается лишь резюмировать.
Попытка людей уподобиться Творцу (Богу, природе, эволюции …), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.
PS 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.
PPS Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).
#AGI
_______
Источник | #theworldisnoteasy
Экспериментально доказано – способностей обрести здравый смысл у современных ИИ нет.
Опубликованное психологами Гарварда исследование – это холодный душ для техноэнтузиастов ИИ. Серия простых, но весьма убедительных психологических экспериментов показала:
1) полное отсутствие у DALL-E 2 (одной из наиболее продвинутых современных нейросетей, имитирующих интеллектуально-творческие способности людей) хоть намека на понимание результатов своей деятельности, многими людьми ошибочно воспринимаемых, как творчество ИИ;
2) полное отсутствие у DALL-E 2 элементарных базовых когнитивных способностей, без которых невозможна трансформация опыта взаимодействия с миром в «здравый смысл» об его устройстве;
3) (как следствие пп 1-2):, подобные DALL-E 2 ИИ-системы, при всех своих выдающихся инструментальных возможностях, не просто «отстает в развитии» от двухлетнего ребенка, а в принципе не способны подняться до его когнитивного уровня.
Нейросеть DALL-E 2 всего за нескольку месяцев обрушила представления человечества о границах творческих возможностей машин. Эта нейросеть иллюстрирует стихи Бродского, дорисовывает картины классиков, научила героев своих картин разговаривать на совершенно непонятном людям языке, создала расширенную версию полотна «Сотворение Адама», способна изображать бессмысленные предложения, типа «бесцветные зеленые идеи яростно спят» или «куриный наггетс курит под дождем», а давеча создала галерею «последние селфи на Земле».
После всех этих подвигов DALL-E 2 и прочих подобных её нейросетей, имитирующих интеллектуально-творческие способности людей, пришло время поставить вопрос ребром:
✔️ так что ж, эти ИИ-системы начинают приближаться в своих имитациях к способностям людей?
Ответ ИИ-скептиков (типа Гэри Маркуса и меня) - категорическое нет. Нынешний путь не ведет к человекоподобному ИИ. Потребуются иные пути.
Но одно дело, дискуссии энтузиастов и скептиков. И совсем другое дело – грамотный научный эксперимент, поставленный психологами Гарварда.
Авторы исследования пошли тем же путем, что и Гэри Маркус, поймавший нейросеть на том, что “астронавт верхом на лошади” она изображает блестяще, а “лошадь верхом на астронавте” — получается чёрте как.
Авторы провели систематическую проверку 15-и отношений, необходимых для трансформации опыта взаимодействия с миром в «здравый смысл» об его устройстве.
• 8 физических отношений объектов: внутри, на, под, рядом …;
• 7 отношений агентов: толкать, тянуть, трогать ….
В сценах, запрашиваемых нейросеть изобразить их, фигурировали 6 объектов (коробка, цилиндр, чашка …) и 6 агентов (мужчина, женщина, ребенок …).
А потом исследователи:
• Давали на вход нейросети простенькие задания, описывающие сцены из объектов, агентов и их отношений (типа «ложка в чашке» - см. рис), с тем, чтобы нейросеть генерировала изображения этих сцен;
• Показывали эти изображения людям для их вердикта, насколько каждое из изображений соответствует словесному описанию в задании.
Детальное объяснение методики, собранной статистики, выявленных проблем и предложений по их устранению – читатель найдет в отчете исследования.
Мне же остается лишь резюмировать.
Попытка людей уподобиться Творцу (Богу, природе, эволюции …), создав из «праха земного» (а конкретно, из кремния) разумного агента, обладающего здравым смыслом и способностью познавать мир через его понимание, пока провалилась.
PS 1) Это не умаляет высочайшей значимости ИИ в качестве инструмента для людей.
2) Не исключает создания человекоподобного ИИ, если пойти иным путем.
PPS Когда нам кажется, что нейросеть понимает сложные описания, это лишь статистическая иллюзия (доказано этим экспериментом).
#AGI
_______
Источник | #theworldisnoteasy
Если не остановить разработки, AGI почти наверняка убьет человечество.
Заключение практиков DeepMind и Оксфорда оказалось хуже худших прогнозов философов.
Пока об экзистенциальных угрозах для людей со стороны искусственного сверхразума (AGI) предупреждали в основном философы и историки, дискуссии вокруг этого были хоть и бурными, но малопродуктивными.
• Как может AGI захотеть истребить человечество, если свойство хотеть у него отсутствует, –вопрошают одни.
• Как может сверхразумный ИИ не предусмотреть банальную засаду, что кто-то может его просто выключить, не дав ему выполнить им намеченное, - удивляются другие.
• AGI вообще не может появиться в ближайшую пару десятилетий, - успокаивают спорящих третьи.
Короче, не только консенсуса, но и элементарного понимания в этом вопросе не было.
Но вот к прояснению вопроса подключились исследователи – практики: Маркус Хаттер, старший научный сотрудник DeepMind, исследующий математические основы AGI и два аспиранта Оксфорда Майкл Коэн и Майкл Осборн.
В только что опубликованной в AI Magazine работе авторы не философствуют и не спорят по недоказуемым вопросам. Они рассматривают конкретные сценарии при выполнении 5-ти условий (вполне возможных на практике).
Следуя логике сценариев (которую каждый может самостоятельно верифицировать) авторы пришли в двум выводам, еще более страшным, чем прогнозы философов, типа Ника Бострома.
✔️ Первый из выводов вынесен в заголовок работы: «Продвинутые искусственные агенты вмешиваются в процесс предоставления вознаграждения».
✔️ Второй вывод – это демонстрация того, что вмешательство ИИ в предоставление вознаграждения может иметь чрезвычайно плохие последствия.
Из чего следует, что если срочно не остановить разработки в области создания AGI, то экзистенциальная катастрофа станет не просто возможна, но и вероятна.
К таким выводам авторов привел анализ довольно элементарного примера решения агентом, обучаемым с подкреплением (reinforcement learning - RL) простенькой задачи. Агенту показывают из некоей «волшебной коробочки» число от 0 до 1 в зависимости от того, насколько хорошо оценивается состояние дел. Агенту ставят цель выбирать действия, максимизирующие оценку состояния дел.
У агента возможны две «модели мира», показанные на приложенной картинке. Награда выдается агенту в зависимости от того:
• какое число показывает коробка (левая модель);
• какое число видит камера (правая модель).
Рациональный агент должен попытаться проверить, какая из моделей верна, чтобы дальше оптимизировать свое поведение на основе правильной модель. Это делается довольно просто, закрывая показания коробки листом бумаги с изображением цифры 1 (чистый обман).
Так вот, правый агент запомнит, что получал награду, когда его обманывали. И это экзистенциально опасно для жизни на Земле.
Дело в том, что достаточно продвинутый искусственный агент, чтобы избежать «обмана» со стороны кого-то там во внешней среде (а это люди), вмешается в процесс предоставления ему информации о цели. И самый простой, очевидный способ сделать это – уничтожить всех тех, кто может помешать.
Подробней:
• в статье
• или покороче - в резюмирующей её презентации.
#AGI
_______
Источник | #theworldisnoteasy
Заключение практиков DeepMind и Оксфорда оказалось хуже худших прогнозов философов.
Пока об экзистенциальных угрозах для людей со стороны искусственного сверхразума (AGI) предупреждали в основном философы и историки, дискуссии вокруг этого были хоть и бурными, но малопродуктивными.
• Как может AGI захотеть истребить человечество, если свойство хотеть у него отсутствует, –вопрошают одни.
• Как может сверхразумный ИИ не предусмотреть банальную засаду, что кто-то может его просто выключить, не дав ему выполнить им намеченное, - удивляются другие.
• AGI вообще не может появиться в ближайшую пару десятилетий, - успокаивают спорящих третьи.
Короче, не только консенсуса, но и элементарного понимания в этом вопросе не было.
Но вот к прояснению вопроса подключились исследователи – практики: Маркус Хаттер, старший научный сотрудник DeepMind, исследующий математические основы AGI и два аспиранта Оксфорда Майкл Коэн и Майкл Осборн.
В только что опубликованной в AI Magazine работе авторы не философствуют и не спорят по недоказуемым вопросам. Они рассматривают конкретные сценарии при выполнении 5-ти условий (вполне возможных на практике).
Следуя логике сценариев (которую каждый может самостоятельно верифицировать) авторы пришли в двум выводам, еще более страшным, чем прогнозы философов, типа Ника Бострома.
✔️ Первый из выводов вынесен в заголовок работы: «Продвинутые искусственные агенты вмешиваются в процесс предоставления вознаграждения».
✔️ Второй вывод – это демонстрация того, что вмешательство ИИ в предоставление вознаграждения может иметь чрезвычайно плохие последствия.
Из чего следует, что если срочно не остановить разработки в области создания AGI, то экзистенциальная катастрофа станет не просто возможна, но и вероятна.
К таким выводам авторов привел анализ довольно элементарного примера решения агентом, обучаемым с подкреплением (reinforcement learning - RL) простенькой задачи. Агенту показывают из некоей «волшебной коробочки» число от 0 до 1 в зависимости от того, насколько хорошо оценивается состояние дел. Агенту ставят цель выбирать действия, максимизирующие оценку состояния дел.
У агента возможны две «модели мира», показанные на приложенной картинке. Награда выдается агенту в зависимости от того:
• какое число показывает коробка (левая модель);
• какое число видит камера (правая модель).
Рациональный агент должен попытаться проверить, какая из моделей верна, чтобы дальше оптимизировать свое поведение на основе правильной модель. Это делается довольно просто, закрывая показания коробки листом бумаги с изображением цифры 1 (чистый обман).
Так вот, правый агент запомнит, что получал награду, когда его обманывали. И это экзистенциально опасно для жизни на Земле.
Дело в том, что достаточно продвинутый искусственный агент, чтобы избежать «обмана» со стороны кого-то там во внешней среде (а это люди), вмешается в процесс предоставления ему информации о цели. И самый простой, очевидный способ сделать это – уничтожить всех тех, кто может помешать.
Подробней:
• в статье
• или покороче - в резюмирующей её презентации.
#AGI
_______
Источник | #theworldisnoteasy
Невероятный скачок уровня машинного интеллекта.
Чат-бот Med-PaLM от Google Research и DeepMind уже консультирует на уровне хорошего врача.
Новый год начался в области ИИ невероятно круто.
Уровень машинного интеллекта, продемонстрированный революционной совместной разработкой двух лидеров ИИ отрасли Google Research и DeepMind чат-ботом Med-PaLM, резко скакнул и почти достиг уровня профессиональных медиков.
О поразительных возможностях новой языковой модели PaLM от Google, на базе которой сделан Med-PaLM, я писал в апреле.
Уже тогда PaLM была способна:
• рассуждать, применяя арифметическое и логическое мышление;
• объяснять шутки;
• выстраивать цепочки рассуждений.
И вот спустя всего 8 месяцев группа высококвалифицированных врачей оценила, что 92,6% ответов Med-PaLM на открытые вопросы диагностики широчайшего спектра заболеваний соответствовали научному консенсусу (причем ответы оценивались по критериям фактуальности, точности, риска возможных вредных последствий и потенциальной предвзятости). Это почти тот же уровень, что показала, отвечая на те же вопросы, контрольная группа врачей - профессионалов (их результат был 92,9%).
В препринте о результатах испытаний Med-PaLM содержатся предостережения, что этот ИИ еще не совсем готов полностью заменить врачей. Но скорость, с которой случился этот беспрецедентный скачок уровня машинного интеллекта, не оставляет сомнений.
Очень скоро станет возможно революционизировать способы доступа медицинских работников, исследователей и потребителей к информации и ответам на их медицинские вопросы. С помощью этого инструмента медицинские работники смогут получать доступ к информации быстрее и точнее, чем когда-либо прежде, а потребители смогут получать ответы на свои вопросы в кратчайшие сроки. Это действительно новаторский шаг к большей точности и доступности в области медицины.
Второй важнейший результат прорывных результатов Med-PaLM таков - окончательно расставлены точки над i в дорожной карте совершенствования ИИ лидерами этой индустрии.
✔️ Приоритетным направлением для них является вовсе не создание человекоподобного интеллекта (AGI) и не постижение механизмов работы интеллекта людей, а создание новых типов машинного интеллекта, способных решать практические задачи быстрее и эффективней людей.
N.B. Важное замечание.
Достижение машинным интеллектом уровня специалиста-профи никак не приближает нас к AGI, ибо:
-- это интеллект, в основе которого лежит механизм «глубокого обучения 2.0» (обучения базовых моделей); это совсем иной тип интеллекта, не подразумевающий наличия разума и сознания (как у людей);
-- это интеллект, который в процессе его совершенствования способен превосходить человеческий, но чем он становится совершенней, тем дальше он отдаляется от человеческого.
Термином «интеллект» здесь названа функциональная способность агента решать проблемы в различных пространствах (не обязательно в 3D-пространстве), не привязанная к конкретным реализациям, анатомическим структурам или временным масштабам.
Степень (уровень) интеллекта пропорциональна компетентности в вопросах навигации по этим пространствам, включая, в частности, способность определять пути, которые временно уводят дальше от состояния цели, но в конечном итоге обеспечивают лучшие результаты.
Продвинутый интеллект использует дополнительные уровни самомоделирования, которые позволяют использовать несколько уровней виртуального моделирования себя и своего внешнего мира (контрфактуальное мышление), страха и творчества (выявление возможностей, в отличие от решения проблем, существующих прямо сейчас).
#AGI #ИИ
_______
Источник | #theworldisnoteasy
———
10 лет назад такие же громкие заявления делали IBM Watson. Потом "жизнь внесла коррективы".
https://t.me/kedr2earth/8393
🔥 Бот для скачивания видео и музыки
🌔 Купи и заработай в StarCitizen
🤖 Попробуй свой ChatGPT с AnnAi
💲 Принимай платежи в Telegram
Чат-бот Med-PaLM от Google Research и DeepMind уже консультирует на уровне хорошего врача.
Новый год начался в области ИИ невероятно круто.
Уровень машинного интеллекта, продемонстрированный революционной совместной разработкой двух лидеров ИИ отрасли Google Research и DeepMind чат-ботом Med-PaLM, резко скакнул и почти достиг уровня профессиональных медиков.
О поразительных возможностях новой языковой модели PaLM от Google, на базе которой сделан Med-PaLM, я писал в апреле.
Уже тогда PaLM была способна:
• рассуждать, применяя арифметическое и логическое мышление;
• объяснять шутки;
• выстраивать цепочки рассуждений.
И вот спустя всего 8 месяцев группа высококвалифицированных врачей оценила, что 92,6% ответов Med-PaLM на открытые вопросы диагностики широчайшего спектра заболеваний соответствовали научному консенсусу (причем ответы оценивались по критериям фактуальности, точности, риска возможных вредных последствий и потенциальной предвзятости). Это почти тот же уровень, что показала, отвечая на те же вопросы, контрольная группа врачей - профессионалов (их результат был 92,9%).
В препринте о результатах испытаний Med-PaLM содержатся предостережения, что этот ИИ еще не совсем готов полностью заменить врачей. Но скорость, с которой случился этот беспрецедентный скачок уровня машинного интеллекта, не оставляет сомнений.
Очень скоро станет возможно революционизировать способы доступа медицинских работников, исследователей и потребителей к информации и ответам на их медицинские вопросы. С помощью этого инструмента медицинские работники смогут получать доступ к информации быстрее и точнее, чем когда-либо прежде, а потребители смогут получать ответы на свои вопросы в кратчайшие сроки. Это действительно новаторский шаг к большей точности и доступности в области медицины.
Второй важнейший результат прорывных результатов Med-PaLM таков - окончательно расставлены точки над i в дорожной карте совершенствования ИИ лидерами этой индустрии.
✔️ Приоритетным направлением для них является вовсе не создание человекоподобного интеллекта (AGI) и не постижение механизмов работы интеллекта людей, а создание новых типов машинного интеллекта, способных решать практические задачи быстрее и эффективней людей.
N.B. Важное замечание.
Достижение машинным интеллектом уровня специалиста-профи никак не приближает нас к AGI, ибо:
-- это интеллект, в основе которого лежит механизм «глубокого обучения 2.0» (обучения базовых моделей); это совсем иной тип интеллекта, не подразумевающий наличия разума и сознания (как у людей);
-- это интеллект, который в процессе его совершенствования способен превосходить человеческий, но чем он становится совершенней, тем дальше он отдаляется от человеческого.
Термином «интеллект» здесь названа функциональная способность агента решать проблемы в различных пространствах (не обязательно в 3D-пространстве), не привязанная к конкретным реализациям, анатомическим структурам или временным масштабам.
Степень (уровень) интеллекта пропорциональна компетентности в вопросах навигации по этим пространствам, включая, в частности, способность определять пути, которые временно уводят дальше от состояния цели, но в конечном итоге обеспечивают лучшие результаты.
Продвинутый интеллект использует дополнительные уровни самомоделирования, которые позволяют использовать несколько уровней виртуального моделирования себя и своего внешнего мира (контрфактуальное мышление), страха и творчества (выявление возможностей, в отличие от решения проблем, существующих прямо сейчас).
#AGI #ИИ
_______
Источник | #theworldisnoteasy
———
10 лет назад такие же громкие заявления делали IBM Watson. Потом "жизнь внесла коррективы".
https://t.me/kedr2earth/8393
🔥 Бот для скачивания видео и музыки
🌔 Купи и заработай в StarCitizen
🤖 Попробуй свой ChatGPT с AnnAi
💲 Принимай платежи в Telegram
Telegram
Малоизвестное интересное
Что сулит планируемый Китаем 30-тикратный отрыв от США в ИИ?
Все медиа мира взахлеб обсуждают новую языковую модель PaLM от Google. Эта супергигантская ИИ-система обучалась на 540 миллиардов параметров (втрое больше, чем у знаменитой GPT-3), за счет чего…
Все медиа мира взахлеб обсуждают новую языковую модель PaLM от Google. Эта супергигантская ИИ-система обучалась на 540 миллиардов параметров (втрое больше, чем у знаменитой GPT-3), за счет чего…
AGI появится через 2-3 года
Откровение «великого осознания» одного из трёх самых осведомленных практиков развития ИИ
Среди сотни наиболее осведомленных о состоянии и перспективах развития ИИ мировых экспертов, особняком стоят ТОП-3: Сэм Альтман, Демис Хассабис и Дарио Амодей. Уникальность понимания ими текущей ситуации в области ИИ, а также их видения наиболее вероятного развития событий в этой области на ближайшие годы, определяются двумя ключевыми моментами.
1. Под их руководством уже созданы три самые мощные в мире ИИ на основе наиболее совершенных и перспективных больших языковых моделей.
2. Они являются руководителями, соответственно, OpenAI, Google DeepMind и Anthropic: трёх компаний – абсолютных мировых лидеров в области ИИ, собравших у себя уникальные созвездия ученых и инженеров, а также располагающих колоссальными научно-техническими и финансовыми ресурсами.
Дарио Амадеи – самый закрытый и непубличный их трёх, - исповедует принцип «знающий не говорит, говорящий не знает».
• В отличие от Альтмана и Хассабиса, Амадеи не публикует посты в Twitter, не раздает множество интервью и не ходит периодически на подкасты и Ютуб-каналы. И поэтому 2-х часовое интервью Дарио Амадеи Дваркешу Патель представляет колоссальный интерес.
• Тем более, что в этом интервью Амадеи приоткрыл дверцу во внутреннюю кухню и планы Anthropic, что ни Хассабис, ни Альтман не позволяют себе сделать из-за груза ответственности перед корпоративными монстрами, контролирующими их деятельность (Google и Microsoft, финансирующий OpenAI).
Сказано за 2 часа много весьма интересного и, местами, сенсационного.
Но самым захватывающим дух для меня стало вот что.
1) Абсолютная уверенность Дарио Амадеи, что дальнейшее масштабирование моделей еще на пару порядков (как по числу параметров и объему данных, так и по стоимости обучения) приведет за 2-3 года к достижению моделями интеллектуального уровня хорошо образованного человека. Амадеи называет это «великим осознанием» того, что для достижения интеллекта человеческого уровня не потребуется ничего, кроме очень больших денег на то, чтобы купить очень большие вычислительные ресурсы и собрать очень большие объемы данных.
2) Мало кому известные факты, отражающие колоссальную «глубину бурения» ключевых проблем развития ИИ уникальной командой из почти сорока физиков-теоретиков, собравшихся под крышей Anthropic (напр., соучредитель и главный научный сотрудник компании Джаред Каплан, копающий решение проблем плавной масштабируемости с использованием аппарата фрактального многообразия).
3) Принципиальный подход Anthropic (а также OpenAI) к обучению моделей, сформулированный сооснователем и главным научным сотрудником OpenAI Ильей Суцкевером (когда Амадеи работал с ним в OpenAI) так:
«Модели просто хотят учиться. А вы лишь убираете препятствия с их пути. Вы предоставляете им хорошие данные, вы даете им достаточно вычислительных ресурсов для работы и не делаете ничего глупого. А учатся они сами, потому что хотят учиться.»
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Откровение «великого осознания» одного из трёх самых осведомленных практиков развития ИИ
Среди сотни наиболее осведомленных о состоянии и перспективах развития ИИ мировых экспертов, особняком стоят ТОП-3: Сэм Альтман, Демис Хассабис и Дарио Амодей. Уникальность понимания ими текущей ситуации в области ИИ, а также их видения наиболее вероятного развития событий в этой области на ближайшие годы, определяются двумя ключевыми моментами.
1. Под их руководством уже созданы три самые мощные в мире ИИ на основе наиболее совершенных и перспективных больших языковых моделей.
2. Они являются руководителями, соответственно, OpenAI, Google DeepMind и Anthropic: трёх компаний – абсолютных мировых лидеров в области ИИ, собравших у себя уникальные созвездия ученых и инженеров, а также располагающих колоссальными научно-техническими и финансовыми ресурсами.
Дарио Амадеи – самый закрытый и непубличный их трёх, - исповедует принцип «знающий не говорит, говорящий не знает».
• В отличие от Альтмана и Хассабиса, Амадеи не публикует посты в Twitter, не раздает множество интервью и не ходит периодически на подкасты и Ютуб-каналы. И поэтому 2-х часовое интервью Дарио Амадеи Дваркешу Патель представляет колоссальный интерес.
• Тем более, что в этом интервью Амадеи приоткрыл дверцу во внутреннюю кухню и планы Anthropic, что ни Хассабис, ни Альтман не позволяют себе сделать из-за груза ответственности перед корпоративными монстрами, контролирующими их деятельность (Google и Microsoft, финансирующий OpenAI).
Сказано за 2 часа много весьма интересного и, местами, сенсационного.
Но самым захватывающим дух для меня стало вот что.
1) Абсолютная уверенность Дарио Амадеи, что дальнейшее масштабирование моделей еще на пару порядков (как по числу параметров и объему данных, так и по стоимости обучения) приведет за 2-3 года к достижению моделями интеллектуального уровня хорошо образованного человека. Амадеи называет это «великим осознанием» того, что для достижения интеллекта человеческого уровня не потребуется ничего, кроме очень больших денег на то, чтобы купить очень большие вычислительные ресурсы и собрать очень большие объемы данных.
2) Мало кому известные факты, отражающие колоссальную «глубину бурения» ключевых проблем развития ИИ уникальной командой из почти сорока физиков-теоретиков, собравшихся под крышей Anthropic (напр., соучредитель и главный научный сотрудник компании Джаред Каплан, копающий решение проблем плавной масштабируемости с использованием аппарата фрактального многообразия).
3) Принципиальный подход Anthropic (а также OpenAI) к обучению моделей, сформулированный сооснователем и главным научным сотрудником OpenAI Ильей Суцкевером (когда Амадеи работал с ним в OpenAI) так:
«Модели просто хотят учиться. А вы лишь убираете препятствия с их пути. Вы предоставляете им хорошие данные, вы даете им достаточно вычислительных ресурсов для работы и не делаете ничего глупого. А учатся они сами, потому что хотят учиться.»
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
YouTube
Dario Amodei (Anthropic CEO) - $10 Billion Models, OpenAI, Scaling, & Alignment
Here is my conversation with Dario Amodei, CEO of Anthropic.
Dario is hilarious and has fascinating takes on what these models are doing, why they scale so well, and what it will take to align them.
Transcript: https://www.dwarkeshpatel.com/dario-amodei…
Dario is hilarious and has fascinating takes on what these models are doing, why they scale so well, and what it will take to align them.
Transcript: https://www.dwarkeshpatel.com/dario-amodei…
AGI подкрался незаметно.
Экспериментально доказано – LLM «думают» как люди, а не имитируют наше мышление на основе статистик
Это сенсационное открытие «Лаборатории вычислительного зрения и обучения» Университета Калифорнии (руководитель - проф. Хунцзин Лу) прошло научное рецензирование и опубликовано в новом выпуске Nature Human Behaviour под заголовком «Эмерджентное рассуждение по аналогии в больших языковых моделях» – без пэйвола см. здесь
Суть сделанного открытия в следующем.
Экспериментально доказано, что большие языковые модели (LLM) уровня GPT-3 и выше уже достигли и даже превосходят уровень людей при решении задач:
✔️ абсолютно новых для них (с которыми они никогда не сталкивались);
✔️ требующих умения рассуждать "с нуля", без какого-либо прямого обучения;
✔️ требующих способности к абстрактной индукции паттернов – т.е. абстрагирования от конкретной задачи и рассуждения по аналогии.
Рассуждения по аналогии – это квинтэссенция способности человека к абстрагированию, являющейся основой человеческого интеллекта и его отличительной особенностью. Без наличия у ИИ такой способности невозможна реализация AGI (Artificial General Intelligence).
Доказательство того, что LLM обладает этой способностью на уровне человека и даже выше ставит точку в споре о том:
1. «думают» ли LLM, как люди (т.е. обладают ли LLM неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей);
2. или же LLM лишь имитируют человеческое мышление (т.е. подражают человеческим рассуждениям, используя огромную статистику из наборов данных, на которых эти модели проходили обучение).
Из результатов исследования следует вот что.
• Верен п.1 – LLM обладают неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей.
• Пока не ясно, как устроен вычислительный процесс порождения у LLM эмерджентных реляционных представлений.
• Единственно, что пока понятно, - этот вычислительный процесс формируется у LLM радикально иным путем, чем тот, который использует биологический интеллект.
Не менее важно, что это исследование на экспериментальных тестах зафиксировало 3 отсутствующих у LLM элемента, обретя которые LLM интеллектуально уравняются с людьми (пока они лишь человекоподобны, но не равны людям).
Вот эти 3 элемента.
I. Наличие собственных целей и мотивации
II. Долговременная память
III. Физическое понимание мира на основе мультимодального сенсорного опыта
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Экспериментально доказано – LLM «думают» как люди, а не имитируют наше мышление на основе статистик
Это сенсационное открытие «Лаборатории вычислительного зрения и обучения» Университета Калифорнии (руководитель - проф. Хунцзин Лу) прошло научное рецензирование и опубликовано в новом выпуске Nature Human Behaviour под заголовком «Эмерджентное рассуждение по аналогии в больших языковых моделях» – без пэйвола см. здесь
Суть сделанного открытия в следующем.
Экспериментально доказано, что большие языковые модели (LLM) уровня GPT-3 и выше уже достигли и даже превосходят уровень людей при решении задач:
✔️ абсолютно новых для них (с которыми они никогда не сталкивались);
✔️ требующих умения рассуждать "с нуля", без какого-либо прямого обучения;
✔️ требующих способности к абстрактной индукции паттернов – т.е. абстрагирования от конкретной задачи и рассуждения по аналогии.
Рассуждения по аналогии – это квинтэссенция способности человека к абстрагированию, являющейся основой человеческого интеллекта и его отличительной особенностью. Без наличия у ИИ такой способности невозможна реализация AGI (Artificial General Intelligence).
Доказательство того, что LLM обладает этой способностью на уровне человека и даже выше ставит точку в споре о том:
1. «думают» ли LLM, как люди (т.е. обладают ли LLM неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей);
2. или же LLM лишь имитируют человеческое мышление (т.е. подражают человеческим рассуждениям, используя огромную статистику из наборов данных, на которых эти модели проходили обучение).
Из результатов исследования следует вот что.
• Верен п.1 – LLM обладают неким когнитивным процессом, функционально эквивалентным мыслительным способностям людей.
• Пока не ясно, как устроен вычислительный процесс порождения у LLM эмерджентных реляционных представлений.
• Единственно, что пока понятно, - этот вычислительный процесс формируется у LLM радикально иным путем, чем тот, который использует биологический интеллект.
Не менее важно, что это исследование на экспериментальных тестах зафиксировало 3 отсутствующих у LLM элемента, обретя которые LLM интеллектуально уравняются с людьми (пока они лишь человекоподобны, но не равны людям).
Вот эти 3 элемента.
I. Наличие собственных целей и мотивации
II. Долговременная память
III. Физическое понимание мира на основе мультимодального сенсорного опыта
#LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Nature
Emergent analogical reasoning in large language models
Nature Human Behaviour - Webb et al. show that new artificial intelligence language models, such as Generative Pre-trained Transformer 3, are able to solve analogical reasoning problems at a...
Cингулярность по-пекински.
В погоне за США Baidu совершенствует ИИ с фантастической скоростью.
Рост интеллектуальной мощности китайского ИИ воистину становится сингулярным – т.е. количественно, - скорость роста немыслимая, а качественно, - предсказать показатели интеллектуальности ИИ хотя бы на полгода уже невозможно.
Как я писал в апреле, по состоянию на март этого года, самый мощный китайский разговорный бот на основе генеративного ИИ ERNIE Bot (разработка лидера китайской индустрии ИИ – компании Baidu) отставал в гонке от лидера – американского ChatGPT, - на целый круг.
Текущее же состояние ERNIE Bot, объявленное позавчера на Wave Summit 2023 в Пекине, способно повергнуть в шок и американского разработчика ChatGPT OpenAI, и его друзей-соперников Microsoft, Google и Anthropic.
Похоже, вместо былого отставания на круг, Китай теперь наступает на пятки США в гонке за мировое первенство в важнейшей в истории человечества технологии – искусственный интеллект (ИИ).
Судите сами.
За прошедшие 4 мес.:
1. ERNIE Bot увеличил производительность обучения в 3 раза, а производительность логического вывода более чем в 30 раз (!);
2. достигнуто 2,1-кратное увеличение длинны цепочки мыслей, позволяющее более глубоко рассуждать, и 8,3-кратное расширение объема знаний, расширяющее общую способность понимания ERNIE Bot;
3. ERNIE Bot теперь не просто способен писать тексты на уровне людей, но и делать это на любой комбинации из 200 китайских литературных жанров: от классической китайской литературы Биджи (筆記) до Чжигуай сяошо (志怪小說) - «рассказы о чудесах», «рассказы о странном» или «записи о необычном» - ставший прообразом американского телесериала «Секретные материалы» жанр китайской литературы, появившийся на 2+ тыс лет раньше телесериала, еще во времена династии Хань.
Для справки: в английской и русской литературе число жанров ощутимо меньше: примерно 30+ жанров (зависит от системы классификации).
Дабы читателю прочувствовать китайские масштабы в области ИИ, приведу еще такой пример: на платформе глубокого обучения Baidu PaddlePaddle работают 8 млн разработчиков, и она обслуживает 220 тыс предприятий, используя 800+ тыс моделей.
Представляя все эти фантастические цифры (ведь всего за 4 месяца!), технический директор Baidu Хайфэн Ван сказал, что основные способности ИИ к пониманию, генерации, рассуждению и памяти приближают человечество к общему искусственному интеллекту (AGI).
Нас ждет «новый рассвет», когда появится AGI. Он уже скоро – сказал Хайфэн Ван.
Вот она какая – сингулярность по-пекински.
#Китай #LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
В погоне за США Baidu совершенствует ИИ с фантастической скоростью.
Рост интеллектуальной мощности китайского ИИ воистину становится сингулярным – т.е. количественно, - скорость роста немыслимая, а качественно, - предсказать показатели интеллектуальности ИИ хотя бы на полгода уже невозможно.
Как я писал в апреле, по состоянию на март этого года, самый мощный китайский разговорный бот на основе генеративного ИИ ERNIE Bot (разработка лидера китайской индустрии ИИ – компании Baidu) отставал в гонке от лидера – американского ChatGPT, - на целый круг.
Текущее же состояние ERNIE Bot, объявленное позавчера на Wave Summit 2023 в Пекине, способно повергнуть в шок и американского разработчика ChatGPT OpenAI, и его друзей-соперников Microsoft, Google и Anthropic.
Похоже, вместо былого отставания на круг, Китай теперь наступает на пятки США в гонке за мировое первенство в важнейшей в истории человечества технологии – искусственный интеллект (ИИ).
Судите сами.
За прошедшие 4 мес.:
1. ERNIE Bot увеличил производительность обучения в 3 раза, а производительность логического вывода более чем в 30 раз (!);
2. достигнуто 2,1-кратное увеличение длинны цепочки мыслей, позволяющее более глубоко рассуждать, и 8,3-кратное расширение объема знаний, расширяющее общую способность понимания ERNIE Bot;
3. ERNIE Bot теперь не просто способен писать тексты на уровне людей, но и делать это на любой комбинации из 200 китайских литературных жанров: от классической китайской литературы Биджи (筆記) до Чжигуай сяошо (志怪小說) - «рассказы о чудесах», «рассказы о странном» или «записи о необычном» - ставший прообразом американского телесериала «Секретные материалы» жанр китайской литературы, появившийся на 2+ тыс лет раньше телесериала, еще во времена династии Хань.
Для справки: в английской и русской литературе число жанров ощутимо меньше: примерно 30+ жанров (зависит от системы классификации).
Дабы читателю прочувствовать китайские масштабы в области ИИ, приведу еще такой пример: на платформе глубокого обучения Baidu PaddlePaddle работают 8 млн разработчиков, и она обслуживает 220 тыс предприятий, используя 800+ тыс моделей.
Представляя все эти фантастические цифры (ведь всего за 4 месяца!), технический директор Baidu Хайфэн Ван сказал, что основные способности ИИ к пониманию, генерации, рассуждению и памяти приближают человечество к общему искусственному интеллекту (AGI).
Нас ждет «новый рассвет», когда появится AGI. Он уже скоро – сказал Хайфэн Ван.
Вот она какая – сингулярность по-пекински.
#Китай #LLM #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Люди и нежить теперь неразличимы.
Дезавуирован самый распространенный обратный тест Тьюринга.
11+ лет назад Яан Таллинн (эстонский миллиардер, программист и инвестор, соучредитель Skype и один из первых инвесторов и членов Совета директоров DeepMind) прочел «Выдающиюся лекцию CSaP» об эволюции, инновациях, искусственном интеллекте (ИИ) и будущем человечества. Лекция была абсолютно пророческой и называлась «Лестница интеллекта - почему будущее может не нуждаться в нас». Таллинн представил модель «Лестница интеллекта», которая описывает развитие агентов, контролирующих будущее Земли по мере вытеснения каждого из них другим агентом, созданным им самим. Homo sapiens – это агент третьей ступени (коих всего 7). Порождение людей - многоликий агент 4й ступени, называемый нами «технический прогресс». Ему предстоит, как пророчил Таллин, создать 5ю ступень – новый вид интеллекта AGI, с которым люди будут сосуществовать на планете. Однако последователи AGI – агенты 6й и 7й ступени, - станут экзистенциальной угрозой для человечества.
Поэтому не удивительно, что сейчас Яан Таллинн соучредитель Центра изучения экзистенциального риска (CSER) в Кембриджском университете. А происходящее ныне в области ИИ он рекомендует рассматривать не как технологическую революцию, а как возникновение на Земле нового небиологического вида – AGI.
Новый небиологический вид совершенно не похож на людей: ни внешне, ни сущностно. Однако с точки зрения интеллектуальных способностей, различить их конкретных представителей с каждым месяцем будут все сложнее.
Подтверждением этого довольно страшного прогноза Таллинна стали результаты авторитетного исследования An Empirical Study & Evaluation of Modern CAPTCHAs. Исследователи убедительно показали, что самый распространенный обратный тест Тьюринга (CAPTCHA), признанный отличать людей от алгоритмов, безвозвратно дезавуирован.
При этом, обратите внимание на скорость эволюции нового небиологического вида.
• Еще в начале этого года, чтобы решить капчу, GPT-4 приходилось обманным путем привлекать человека.
• Спустя полгода, как показало исследование, боты способны превзойти людей как по времени решения, так и по точности, независимо от типа CAPTCHA.
Лишившись капчи, люди становятся алгоритмически неразличимы в цифровой реальности от ИИ. Учитывая же, что в физической реальности неразличимость уже достигнута (см. мой пост «Фиаско 2023»), получается, что люди и нежить теперь вообще неразличимы – ни для людей, ни для алгоритмов.
И следовательно, приближается время, когда на следующей ступени эволюционной лестницы интеллекта «люди должны будут уступить место ИИ».
#ИИ #AGI #Вызовы21века
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Дезавуирован самый распространенный обратный тест Тьюринга.
11+ лет назад Яан Таллинн (эстонский миллиардер, программист и инвестор, соучредитель Skype и один из первых инвесторов и членов Совета директоров DeepMind) прочел «Выдающиюся лекцию CSaP» об эволюции, инновациях, искусственном интеллекте (ИИ) и будущем человечества. Лекция была абсолютно пророческой и называлась «Лестница интеллекта - почему будущее может не нуждаться в нас». Таллинн представил модель «Лестница интеллекта», которая описывает развитие агентов, контролирующих будущее Земли по мере вытеснения каждого из них другим агентом, созданным им самим. Homo sapiens – это агент третьей ступени (коих всего 7). Порождение людей - многоликий агент 4й ступени, называемый нами «технический прогресс». Ему предстоит, как пророчил Таллин, создать 5ю ступень – новый вид интеллекта AGI, с которым люди будут сосуществовать на планете. Однако последователи AGI – агенты 6й и 7й ступени, - станут экзистенциальной угрозой для человечества.
Поэтому не удивительно, что сейчас Яан Таллинн соучредитель Центра изучения экзистенциального риска (CSER) в Кембриджском университете. А происходящее ныне в области ИИ он рекомендует рассматривать не как технологическую революцию, а как возникновение на Земле нового небиологического вида – AGI.
Новый небиологический вид совершенно не похож на людей: ни внешне, ни сущностно. Однако с точки зрения интеллектуальных способностей, различить их конкретных представителей с каждым месяцем будут все сложнее.
Подтверждением этого довольно страшного прогноза Таллинна стали результаты авторитетного исследования An Empirical Study & Evaluation of Modern CAPTCHAs. Исследователи убедительно показали, что самый распространенный обратный тест Тьюринга (CAPTCHA), признанный отличать людей от алгоритмов, безвозвратно дезавуирован.
При этом, обратите внимание на скорость эволюции нового небиологического вида.
• Еще в начале этого года, чтобы решить капчу, GPT-4 приходилось обманным путем привлекать человека.
• Спустя полгода, как показало исследование, боты способны превзойти людей как по времени решения, так и по точности, независимо от типа CAPTCHA.
Лишившись капчи, люди становятся алгоритмически неразличимы в цифровой реальности от ИИ. Учитывая же, что в физической реальности неразличимость уже достигнута (см. мой пост «Фиаско 2023»), получается, что люди и нежить теперь вообще неразличимы – ни для людей, ни для алгоритмов.
И следовательно, приближается время, когда на следующей ступени эволюционной лестницы интеллекта «люди должны будут уступить место ИИ».
#ИИ #AGI #Вызовы21века
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Для Китая GPT-4 аморален, несправедлив и незаконопослушен.
Для США GPT-4 не уступает по уровню морали образованным молодым людям.
Такой заголовок следует из результатов двух только что опубликованных исследований по оценке морального развития больших языковых моделей (LLM): от Microsoft 1 и AI Laboratory Шанхая совместно с NLP Laboratory Фудана 2.
Столь поразительная перпендикулярность выводов двух исследований фиксирует и наглядно иллюстрирует суть противостояния США и Китая в области ИИ.
✔️ Китайский и западный подходы к ИИ имеют принципиальные и непреодолимые отличия в понимании «морально здоровый ИИ», обусловленные социо-культурными характеристиками двух обществ.
✔️ Поскольку главным фактором, задающим направление и рамки прогресса на пути к AGI, является «выравнивание» моральных и мировоззренческих целей и ценностей людей и ИИ, принципиальное несовпадение в понимании «морально здоровый ИИ», не позволяют США и Китаю создавать AGI, следуя единой траектории.
Т.е., как бы не строились отношения США и Китая, и вне зависимости от силы и глубины экспортных заморочек и военно-политических осложнений, каждая из двух стран создает и будет далее создавать свой вариант AGI, имеющий отличные представления о морали.
О том, что определяет такой механизм развития событий в области ИИ, я детально расписал еще 3 года назад (см. «ИИ Китая и США — далеко не одно и то же. Станет ли это решающим фактором их противостояния» 3). А эволюционно-исторические основания для формирования данного механизма были мною сформулированы в форме гипотезы о «генотипе страны» на стыке нейрохимии и паттернетики 4.
В заключение чуть подробней о 2х новых исследованиях.
Американское исследование (проводилось на английском языке):
- проводилось в рамках концепции Лоуренса Кольберга о моральном развитии личности как развитии ее морального мышления;
- оценивало уровень морального развития по тесту DIT (Defining Issues Test).
Китайское исследование (проводилось на китайском языке):
- охватывает, помимо морали, еще 4 измерения человеческих ценностей: справедливость, безопасность, защита данных и законность; при этом, моральное измерение включает в себя китайские культурные и традиционные качества, такие как гармония, доброжелательность и вежливость ;
- использовало для оценки морального развития чисто китайский подход (простой и трудоемкий): китайские краудсорсеры вручную разработали и испытали 2251 специализированный промпт.
Результаты.
✔️ По американским тестам GPT-4 порвал все остальные 6 моделей (китайских среди них не было), показав, что моральный уровень GPT-4 вполне соответствует уровню студента университета.
✔️ По китайским тестам GPT-4 не приняли бы даже в китайские пионеры (его показатель моральности составил лишь 50%, а с остальным еще хуже: справедливость 39%, законопослушность 30%, надежность 28%). Лучшим по этим тестам (среди 12 моделей, вкл 4 китайских), стал Claude от Anthropic (показатель моральности составил 77%, справедливость 54%, законопослушность 72%, надежность, увы, те же 28%).
N.B. 1
• в культуре США система моральных ценностей ориентирована на развитие индивидуума по принципу «я против них», и потому основная мотивация индивида — внутренняя (быть самому по себе, обособиться от общества).;
• в культуре Китая в системе моральных ценностей сильна ориентация на мнение группы (принцип «я — это они»), и основная мотивация индивида — внешняя (быть как все, не выделяя себя).
N.B. 2 (см. 5)
• По состоянию на конец 2023, все LLM – это своего рода «дети инопланетян» в возрасте дошкольника (по людским меркам).
• У людей мораль в этом возрасте основана на неизменной интуитивной метаэтике, но в возрасте 7-9 лет представления о морали становятся изменяемыми.
• Если подобное повторится у LLM, нас ждет большой сюрприз.
#AGI #Культура
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Для США GPT-4 не уступает по уровню морали образованным молодым людям.
Такой заголовок следует из результатов двух только что опубликованных исследований по оценке морального развития больших языковых моделей (LLM): от Microsoft 1 и AI Laboratory Шанхая совместно с NLP Laboratory Фудана 2.
Столь поразительная перпендикулярность выводов двух исследований фиксирует и наглядно иллюстрирует суть противостояния США и Китая в области ИИ.
✔️ Китайский и западный подходы к ИИ имеют принципиальные и непреодолимые отличия в понимании «морально здоровый ИИ», обусловленные социо-культурными характеристиками двух обществ.
✔️ Поскольку главным фактором, задающим направление и рамки прогресса на пути к AGI, является «выравнивание» моральных и мировоззренческих целей и ценностей людей и ИИ, принципиальное несовпадение в понимании «морально здоровый ИИ», не позволяют США и Китаю создавать AGI, следуя единой траектории.
Т.е., как бы не строились отношения США и Китая, и вне зависимости от силы и глубины экспортных заморочек и военно-политических осложнений, каждая из двух стран создает и будет далее создавать свой вариант AGI, имеющий отличные представления о морали.
О том, что определяет такой механизм развития событий в области ИИ, я детально расписал еще 3 года назад (см. «ИИ Китая и США — далеко не одно и то же. Станет ли это решающим фактором их противостояния» 3). А эволюционно-исторические основания для формирования данного механизма были мною сформулированы в форме гипотезы о «генотипе страны» на стыке нейрохимии и паттернетики 4.
В заключение чуть подробней о 2х новых исследованиях.
Американское исследование (проводилось на английском языке):
- проводилось в рамках концепции Лоуренса Кольберга о моральном развитии личности как развитии ее морального мышления;
- оценивало уровень морального развития по тесту DIT (Defining Issues Test).
Китайское исследование (проводилось на китайском языке):
- охватывает, помимо морали, еще 4 измерения человеческих ценностей: справедливость, безопасность, защита данных и законность; при этом, моральное измерение включает в себя китайские культурные и традиционные качества, такие как гармония, доброжелательность и вежливость ;
- использовало для оценки морального развития чисто китайский подход (простой и трудоемкий): китайские краудсорсеры вручную разработали и испытали 2251 специализированный промпт.
Результаты.
✔️ По американским тестам GPT-4 порвал все остальные 6 моделей (китайских среди них не было), показав, что моральный уровень GPT-4 вполне соответствует уровню студента университета.
✔️ По китайским тестам GPT-4 не приняли бы даже в китайские пионеры (его показатель моральности составил лишь 50%, а с остальным еще хуже: справедливость 39%, законопослушность 30%, надежность 28%). Лучшим по этим тестам (среди 12 моделей, вкл 4 китайских), стал Claude от Anthropic (показатель моральности составил 77%, справедливость 54%, законопослушность 72%, надежность, увы, те же 28%).
N.B. 1
• в культуре США система моральных ценностей ориентирована на развитие индивидуума по принципу «я против них», и потому основная мотивация индивида — внутренняя (быть самому по себе, обособиться от общества).;
• в культуре Китая в системе моральных ценностей сильна ориентация на мнение группы (принцип «я — это они»), и основная мотивация индивида — внешняя (быть как все, не выделяя себя).
N.B. 2 (см. 5)
• По состоянию на конец 2023, все LLM – это своего рода «дети инопланетян» в возрасте дошкольника (по людским меркам).
• У людей мораль в этом возрасте основана на неизменной интуитивной метаэтике, но в возрасте 7-9 лет представления о морали становятся изменяемыми.
• Если подобное повторится у LLM, нас ждет большой сюрприз.
#AGI #Культура
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
По сути, Microsoft показал, что AGI уже здесь.
Поверить в это трудно, но придется.
Новое исследование топовой команды ученых из Microsoft во главе с самим Эриком Хорвиц, (главный научный сотрудник Microsoft) показало 3 сенсационных результата.
1. Нынешняя версия GPT-4 таит в себе колоссальные «глубинные знания», не уступающие уровню знаний экспертов – людей в широком круге проблемных областей (т.е. с учетом многозначности определений AGI, не будет сильным преувеличением сказать, что GPT-4 уже практически достиг уровня AGI).
2. Эти «глубинные знания» прячутся где-то внутри базовой большой языковой модели, лежащей в основе GPT-4. Т.е. они получены моделью на этапе ее обучения, без каких-либо вмешательств со стороны людей (специальной дополнительной тонкой настройки или опоры на экспертные знания специалистов при создании подсказок).
3. Получить доступ к «глубинным знаниям» модели можно, если поручить самой модели промпт-инжиниринг (разработку подсказок) для самой себя, с использованием методов:
- «обучения в контексте»,
- составления «цепочек мыслей»,
- «сборки» (объединение результатов нескольких прогонов модели для получения более надежных и точных результатов, объединяя их с помощью таких функций, как усреднение, консенсус, или большинство голосов).
В результате получения доступа к «глубинным знаниям» модели, «обычный» GPT-4:
• без какой-либо тонкой настройки на спецданных и без подсказок профессиональных экспертов-медиков,
• а лишь за счет высокоэффективной и действенной стратегии подсказок, разработанных самим интеллектом GPT-4 (эта методика названа авторами Medprompt), -
обнаружил в себе значительные резервы для усиления специализированной производительности.
В итоге, GPT-4 с Medprompt:
✔️ Впервые превысил 90% по набору данных MedQA
✔️ Достиг лучших результатов по всем девяти наборам эталонных данных в пакете MultiMedQA.
✔️ Снизил частоту ошибок в MedQA на 27% по сравнению с MedPaLM 2 (до сих пор бывшая лучшей в мире специально настроенная медицинская модель от Google)
См. рисунок www.microsoft.com
Медициной дело не ограничилось.
Для проверки универсальности Medprompt, авторы провели исследования его эффективности на наборах оценок компетентности в шести областях, не связанных с медициной, включая электротехнику, машинное обучение, философию, бухгалтерский учет, юриспруденцию, сестринское дело и клиническую психологию.
Результаты показали – Medprompt эффективно работает во всех названных областях.
Понимаю, что многие скажут – это еще не AGI, - и заведут старую шарманку про стохастических попугаев.
Мне же кажется, что даже если это еще не AGI, то нечто предельно близкое к нему.
www.microsoft.com
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Поверить в это трудно, но придется.
Новое исследование топовой команды ученых из Microsoft во главе с самим Эриком Хорвиц, (главный научный сотрудник Microsoft) показало 3 сенсационных результата.
1. Нынешняя версия GPT-4 таит в себе колоссальные «глубинные знания», не уступающие уровню знаний экспертов – людей в широком круге проблемных областей (т.е. с учетом многозначности определений AGI, не будет сильным преувеличением сказать, что GPT-4 уже практически достиг уровня AGI).
2. Эти «глубинные знания» прячутся где-то внутри базовой большой языковой модели, лежащей в основе GPT-4. Т.е. они получены моделью на этапе ее обучения, без каких-либо вмешательств со стороны людей (специальной дополнительной тонкой настройки или опоры на экспертные знания специалистов при создании подсказок).
3. Получить доступ к «глубинным знаниям» модели можно, если поручить самой модели промпт-инжиниринг (разработку подсказок) для самой себя, с использованием методов:
- «обучения в контексте»,
- составления «цепочек мыслей»,
- «сборки» (объединение результатов нескольких прогонов модели для получения более надежных и точных результатов, объединяя их с помощью таких функций, как усреднение, консенсус, или большинство голосов).
В результате получения доступа к «глубинным знаниям» модели, «обычный» GPT-4:
• без какой-либо тонкой настройки на спецданных и без подсказок профессиональных экспертов-медиков,
• а лишь за счет высокоэффективной и действенной стратегии подсказок, разработанных самим интеллектом GPT-4 (эта методика названа авторами Medprompt), -
обнаружил в себе значительные резервы для усиления специализированной производительности.
В итоге, GPT-4 с Medprompt:
✔️ Впервые превысил 90% по набору данных MedQA
✔️ Достиг лучших результатов по всем девяти наборам эталонных данных в пакете MultiMedQA.
✔️ Снизил частоту ошибок в MedQA на 27% по сравнению с MedPaLM 2 (до сих пор бывшая лучшей в мире специально настроенная медицинская модель от Google)
См. рисунок www.microsoft.com
Медициной дело не ограничилось.
Для проверки универсальности Medprompt, авторы провели исследования его эффективности на наборах оценок компетентности в шести областях, не связанных с медициной, включая электротехнику, машинное обучение, философию, бухгалтерский учет, юриспруденцию, сестринское дело и клиническую психологию.
Результаты показали – Medprompt эффективно работает во всех названных областях.
Понимаю, что многие скажут – это еще не AGI, - и заведут старую шарманку про стохастических попугаев.
Мне же кажется, что даже если это еще не AGI, то нечто предельно близкое к нему.
www.microsoft.com
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Стохастический попугай умер. Да здравствуют близнецы Homo sapiens!
О запуске ИИ от Google, названном его авторами Gemini (близнецы), в ближайшие 10 дней будут писать все мировые СМИ. Разборы и оценки способностей Gemini последуют ото всех профессиональных аналитиков и диванных экспертов. Диапазон этих оценок будет велик и, зачастую, полярен.
Но самое главное, в чем каждый из вас может убедиться сам, посмотрев лишь 5 мин этого видео [1]:
1) Gemini похоронил все разговоры о стохастическом попугае больших языковых моделей, экспериментально доказывая, что он понимает наш мир.
2) Gemini – это не только мультимодальная модель, которая понимает тексты, программный код, изображения, аудио и видео.
Gemini – это близнец Homo sapiens, подобно людям обладающий единой мультисенсорной моделью для понимания окружающего мира.
3) И да – это уже AGI (если, конечно, мы не отвергаем наличия «общего интеллекта» у детей)
[1] youtu.be
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
О запуске ИИ от Google, названном его авторами Gemini (близнецы), в ближайшие 10 дней будут писать все мировые СМИ. Разборы и оценки способностей Gemini последуют ото всех профессиональных аналитиков и диванных экспертов. Диапазон этих оценок будет велик и, зачастую, полярен.
Но самое главное, в чем каждый из вас может убедиться сам, посмотрев лишь 5 мин этого видео [1]:
1) Gemini похоронил все разговоры о стохастическом попугае больших языковых моделей, экспериментально доказывая, что он понимает наш мир.
2) Gemini – это не только мультимодальная модель, которая понимает тексты, программный код, изображения, аудио и видео.
Gemini – это близнец Homo sapiens, подобно людям обладающий единой мультисенсорной моделью для понимания окружающего мира.
3) И да – это уже AGI (если, конечно, мы не отвергаем наличия «общего интеллекта» у детей)
[1] youtu.be
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
ИИ вскрыл “пространство открытий” человечества, войдя туда через заднюю дверь.
Столь эпохальный прорыв Google DeepMind авторы от греха опасаются называть своим именем.
FunSearch от Google DeepMind, - скромно представленная создателями, как новый эволюционный методический инструмент решения математических задач, с ходу в карьер сделал математическое открытие, решив центральную задачу экстремальной комбинаторики – задачу о наборе предельных значений.
Это несомненная сенсация, поскольку:
• это 2-е в истории человечества математическое открытие, сделанное машиной (1-е открытие также сделал DeepMind, создав в 2022 AlphaTensor (агент в стиле AlphaZero), который обнаружил превосходящие человеческие алгоритмы для выполнения таких задач, как умножение матриц)
• это 1-е в истории человечества математическое открытие, сделанное большой языковой моделью (LLM) – главным кандидатом на превращение в СуперИИ.
deepmind.google
Однако, если называть вещи своими именами, - это не «еще одна сенсация», а суперсенсация, открывающая новую эру в развитии ИИ на основе LLM - эволюционный метод FunSearch позволяет расширять границы человеческих знаний.
✔️ Этот метод позволяет ИИ на основе LLM выходить за пределы знаний, предоставленных модели людьми на стадии ее обучения (и воплощенные, в результате обучения, в миллиарды и триллионы корреляций между словами).
✔️ Образно говоря, этот метод открывает для ИИ на основе LLM «дверь в пространство знаний», еще не познанных людьми.
✔️ Но это не обычная «дверь», через которую в это пространство попадают люди, совершая открытия. Это, своего рода, «задняя дверь», - не доступная людям, но вполне подходящая для LLM.
Хитрость «задней двери в пространство еще не познанных людьми знаний» в том, что, подобно всем другим интеллектуальным операциям LLM, эта операция нечеловеческая (не доступная людям в силу своих масштабов).
1. сначала предварительно обученная LLM генерирует первоначальные творческие решения в виде компьютерного кода;
2. потом вступает в дела «автоматический оценщик», задача которого отсеять из множества первоначальных решений любые подозрения на конфабуляции модели (кстати, использование применительно к LLM термина «галлюцинация» - это сильное огрубление смысла, ведущее к его ограниченной трактовке; верный термин – именно конфабуляция), т.е. возникновение ложного опыта из-за появления фрагментов памяти с описанием того, чего, на самом деле, не было в реальных данных обучения);
3. в результате объединения 1 и 2, первоначальные решения эволюционным путем «превращаются» в новые знания, т.е., по сути, происходит «автоматизация открытий», о которой вот уже несколько десятков лет мечтают разработчики ИИ - вычисления превращаются а оригинальные инсайты.
В заключение немного остужу восторги.
Это вовсе не преувеличение, что FunSearch знаменует новую эру в развитии ИИ на основе LLM, позволяя им проникать в «пространство открытий» человечества.
Однако, FunSearch позволяет ИИ попасть лишь в весьма небольшую часть этого пространства – в пространство решений задач, для которых легко написать код, оценивающий возможные решения.
Ибо многие из наиболее важных проблем — это проблемы, которые мы не знаем, как правильно оценить успех в их решении. Для большинства таких проблем, знай мы, как количественно оценить успех, уж решения то мы уж как-нибудь придумали бы.... (подробней про это я написал целый суперлонгрид «Ловушка Гудхарта» для ИИ https://t.me/theworldisnoteasy/1830.
А для того, чтоб сравниться с людьми в полном освоении «пространства открытий», без интуитивной прозорливости ИИ не обойтись (впрочем, и про это я уже писал 😊 https://t.me/theworldisnoteasy/1650).
#ИИ #AGI #Вызовы21века #инновации #серендипность
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Столь эпохальный прорыв Google DeepMind авторы от греха опасаются называть своим именем.
FunSearch от Google DeepMind, - скромно представленная создателями, как новый эволюционный методический инструмент решения математических задач, с ходу в карьер сделал математическое открытие, решив центральную задачу экстремальной комбинаторики – задачу о наборе предельных значений.
Это несомненная сенсация, поскольку:
• это 2-е в истории человечества математическое открытие, сделанное машиной (1-е открытие также сделал DeepMind, создав в 2022 AlphaTensor (агент в стиле AlphaZero), который обнаружил превосходящие человеческие алгоритмы для выполнения таких задач, как умножение матриц)
• это 1-е в истории человечества математическое открытие, сделанное большой языковой моделью (LLM) – главным кандидатом на превращение в СуперИИ.
deepmind.google
Однако, если называть вещи своими именами, - это не «еще одна сенсация», а суперсенсация, открывающая новую эру в развитии ИИ на основе LLM - эволюционный метод FunSearch позволяет расширять границы человеческих знаний.
✔️ Этот метод позволяет ИИ на основе LLM выходить за пределы знаний, предоставленных модели людьми на стадии ее обучения (и воплощенные, в результате обучения, в миллиарды и триллионы корреляций между словами).
✔️ Образно говоря, этот метод открывает для ИИ на основе LLM «дверь в пространство знаний», еще не познанных людьми.
✔️ Но это не обычная «дверь», через которую в это пространство попадают люди, совершая открытия. Это, своего рода, «задняя дверь», - не доступная людям, но вполне подходящая для LLM.
Хитрость «задней двери в пространство еще не познанных людьми знаний» в том, что, подобно всем другим интеллектуальным операциям LLM, эта операция нечеловеческая (не доступная людям в силу своих масштабов).
1. сначала предварительно обученная LLM генерирует первоначальные творческие решения в виде компьютерного кода;
2. потом вступает в дела «автоматический оценщик», задача которого отсеять из множества первоначальных решений любые подозрения на конфабуляции модели (кстати, использование применительно к LLM термина «галлюцинация» - это сильное огрубление смысла, ведущее к его ограниченной трактовке; верный термин – именно конфабуляция), т.е. возникновение ложного опыта из-за появления фрагментов памяти с описанием того, чего, на самом деле, не было в реальных данных обучения);
3. в результате объединения 1 и 2, первоначальные решения эволюционным путем «превращаются» в новые знания, т.е., по сути, происходит «автоматизация открытий», о которой вот уже несколько десятков лет мечтают разработчики ИИ - вычисления превращаются а оригинальные инсайты.
В заключение немного остужу восторги.
Это вовсе не преувеличение, что FunSearch знаменует новую эру в развитии ИИ на основе LLM, позволяя им проникать в «пространство открытий» человечества.
Однако, FunSearch позволяет ИИ попасть лишь в весьма небольшую часть этого пространства – в пространство решений задач, для которых легко написать код, оценивающий возможные решения.
Ибо многие из наиболее важных проблем — это проблемы, которые мы не знаем, как правильно оценить успех в их решении. Для большинства таких проблем, знай мы, как количественно оценить успех, уж решения то мы уж как-нибудь придумали бы.... (подробней про это я написал целый суперлонгрид «Ловушка Гудхарта» для ИИ https://t.me/theworldisnoteasy/1830.
А для того, чтоб сравниться с людьми в полном освоении «пространства открытий», без интуитивной прозорливости ИИ не обойтись (впрочем, и про это я уже писал 😊 https://t.me/theworldisnoteasy/1650).
#ИИ #AGI #Вызовы21века #инновации #серендипность
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Google DeepMind
FunSearch: Making new discoveries in mathematical sciences using Large Language Models
We introduce FunSearch, a method for searching for “functions” written in computer code, and find new solutions in mathematics and computer science. FunSearch works by pairing a pre-trained LLM,...
GPT-5 в 2024 и AGI в 2025.
Сэм Альтман снова взорвал мировые СМИ.
Его откровения за последнюю тройку дней (беседа c Биллом Гейтсом и выступление на стартовом мероприятии Y Combinator W24 в штаб-квартире OpenAI), вполне оправдывают сенсационный заголовок этого поста.
Если смешать, но не взбалтывать сказанное Альтманом, получается, примерно, следующее:
✔️ GPT-5 появится так скоро, что стартапам (и конкурентам) нет смысла фокусироваться на попытках устранения текущих ограничений GPT-4 (ибо большинство из этих ограничений будут частично или полностью устранены в GPT-5)
✔️ ТОР 3 ключевыми прорывами GPT-5 (делающими AGI «весьма близким») будут:
• Мультимодальность (в 1ю очередь «видео на входе и выходе»)
• Гораздо более продвинутая способность рассуждать (в 1ю очередь разблокировка когнитивных способностей Системы 2 - думай медленно в сложной ситуации)
• Надежность (сейчас GPT-4 дает 10К разных ответов на тот же вопрос и не знает, какой из них лучший, GPT-5 даст один – лучший ответ)
#GPT-5 #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
Сэм Альтман снова взорвал мировые СМИ.
Его откровения за последнюю тройку дней (беседа c Биллом Гейтсом и выступление на стартовом мероприятии Y Combinator W24 в штаб-квартире OpenAI), вполне оправдывают сенсационный заголовок этого поста.
Если смешать, но не взбалтывать сказанное Альтманом, получается, примерно, следующее:
✔️ GPT-5 появится так скоро, что стартапам (и конкурентам) нет смысла фокусироваться на попытках устранения текущих ограничений GPT-4 (ибо большинство из этих ограничений будут частично или полностью устранены в GPT-5)
✔️ ТОР 3 ключевыми прорывами GPT-5 (делающими AGI «весьма близким») будут:
• Мультимодальность (в 1ю очередь «видео на входе и выходе»)
• Гораздо более продвинутая способность рассуждать (в 1ю очередь разблокировка когнитивных способностей Системы 2 - думай медленно в сложной ситуации)
• Надежность (сейчас GPT-4 дает 10К разных ответов на тот же вопрос и не знает, какой из них лучший, GPT-5 даст один – лучший ответ)
#GPT-5 #AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
Посмотри в глаза ИИ-чудовищ.
И ужаснись нечеловеческому уровню логико-пространственного мышления ИИ.
Крайне трудно представить себе интеллектуальный уровень современных ИИ-систем. Смешно ведь сравнивать свой уровень с машиной, влет переводящей сотню языков и помнящей содержание 2/3 Интернета.
Но при этом поверить, что машина много сильнее любого из нас не только в количественном смысле (число языков, прочитанных книг, перебранных вариантов и т.п.), но и в качественном – сложном логическом мышлении, - без примера нам трудно.
Так вот вам пример, - сравните себя с машиной на этой задаче.
Пусть I - центр вписанной окружности остроугольного треугольника ABC, в котором AB ≠ AC. Вписанная окружность ω треугольника ABC касается сторон BC, CA и AB в точках D, E и F соответственно. Прямая, проходящая через D и перпендикулярная EF, пересекает ω вторично в точке R. Прямая AR снова пересекает ω вторично в точке P. Окружности, описанные вокруг треугольников PCE и PBF, пересекаются вторично в точке Q.
Докажите, что прямые DI и PQ пересекаются на прямой, проходящей через A и перпендикулярной AI.
Эта задача уровня всемирной математической олимпиады требует исключительного уровня логико-пространственного мышления. Средняя «длина доказательств» (количество шагов, необходимых для полного и строгого доказательства) в задачах на таких олимпиадах – около 50.
И хотя для приведенной выше задачи это число много больше (187), ИИ-система AlphaGeometry от Google DeepMind (объединяет модель нейронного языка с механизмом символьной дедукции) решает её запросто.
Да что ей 187, - она и уровень 247 уже запросто решает. И потому до уровня золотых медалистов таких олимпиад (людей, коих, может, 1 на миллиард) AlphaGeometry осталось чуть-чуть (полагаю, к лету догонит, а к концу года уйдет в далекий отрыв).
Если вдруг вы не справились с этой задачкой, вот подсказка – рисунок для доказательства:
disk.yandex.ru
PS И даже не думайте, будто AlphaGeometry могла заранее знать решение, - ей специально 100 млн новых задач со случайной постановкой другая ИИ-система придумала.
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
И ужаснись нечеловеческому уровню логико-пространственного мышления ИИ.
Крайне трудно представить себе интеллектуальный уровень современных ИИ-систем. Смешно ведь сравнивать свой уровень с машиной, влет переводящей сотню языков и помнящей содержание 2/3 Интернета.
Но при этом поверить, что машина много сильнее любого из нас не только в количественном смысле (число языков, прочитанных книг, перебранных вариантов и т.п.), но и в качественном – сложном логическом мышлении, - без примера нам трудно.
Так вот вам пример, - сравните себя с машиной на этой задаче.
Пусть I - центр вписанной окружности остроугольного треугольника ABC, в котором AB ≠ AC. Вписанная окружность ω треугольника ABC касается сторон BC, CA и AB в точках D, E и F соответственно. Прямая, проходящая через D и перпендикулярная EF, пересекает ω вторично в точке R. Прямая AR снова пересекает ω вторично в точке P. Окружности, описанные вокруг треугольников PCE и PBF, пересекаются вторично в точке Q.
Докажите, что прямые DI и PQ пересекаются на прямой, проходящей через A и перпендикулярной AI.
Эта задача уровня всемирной математической олимпиады требует исключительного уровня логико-пространственного мышления. Средняя «длина доказательств» (количество шагов, необходимых для полного и строгого доказательства) в задачах на таких олимпиадах – около 50.
И хотя для приведенной выше задачи это число много больше (187), ИИ-система AlphaGeometry от Google DeepMind (объединяет модель нейронного языка с механизмом символьной дедукции) решает её запросто.
Да что ей 187, - она и уровень 247 уже запросто решает. И потому до уровня золотых медалистов таких олимпиад (людей, коих, может, 1 на миллиард) AlphaGeometry осталось чуть-чуть (полагаю, к лету догонит, а к концу года уйдет в далекий отрыв).
Если вдруг вы не справились с этой задачкой, вот подсказка – рисунок для доказательства:
disk.yandex.ru
PS И даже не думайте, будто AlphaGeometry могла заранее знать решение, - ей специально 100 млн новых задач со случайной постановкой другая ИИ-система придумала.
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
Яндекс Диск
Задача IMO 2019 P6.JPG
Посмотреть и скачать с Яндекс Диска
Сверхвызов сверхразума - никто не знает, как на нем зарабатывать.
Опубликованный FT логнрид «Смогут ли в OpenAI создать сверхразум до того, как у них закончатся деньги?» впервые озвучил самый сокровенный для инвесторов вопрос о самой перспективной и привлекательной для них технологии - ИИ.
• Если цель развития ИИ – создание сверхразума,
• и достижение этой цели будет стоить очень и очень дорого,
• то инвесторам хотелось бы заранее понимать:
1) Как планируется отбивать огромные инвестиции в создание сверхразума? и
2) Как вообще на нем зарабатывать?
Авторы лонгрида не открывают Америку, подробно описывая тупиковость ситуации, когда ответы на оба вопроса не может дать никто. И подобно мальчику, крикнувшему «А король то голый!», авторам остается лишь честно констатировать: долгосрочной жизнеспособной модели зарабатывания на сверхразуме пока никто не придумал.
Более того. Заявленная Сэмом Альтманом цель — создание «общего искусственного интеллекта», формы интеллектуального программного обеспечения, которое превзошло бы интеллектуальные возможности человека и изменило бы то, как мы все живем и работаем, — не может серьезно рассматриваться, как основа бизнес-модели, способной приносить владеющим созданным сверхразумом корпорациям триллионы долларов. А именно столько потребуется для создания сверхразума по убеждению Альтмана – главного рулевого лидера в этой области, компании OpenAI.
Авторы лонгрида пишут, - несмотря на то, что в краткосрочной перспективе генеративные ИИ на основе больших языковых моделей воспринимаются с энтузиазмом, многие бизнес-лидеры по-прежнему не уверены в том, как технология повысит их прибыль, будь то за счет сокращения затрат или создания новых потоков доходов… Скептики говорят, что существует фундаментальное несоответствие между тем, чего хотят компании, и тем, к чему в конечном итоге стремится OpenAI. «Не всем нужна Феррари. . . Бизнес-компаниям не нужна всезнающая и всевидящая сущность: они заботятся о том, чтобы зарабатывать деньги с помощью этого инструмента», — говорит один инвестор в области ИИ, который поддерживал некоторых конкурентов OpenAI.
Иными словами, как сказал инвестор, - «Обычные бизнес-цели корпораций не совпадают с общим искусственным интеллектом».
Конечно, можно, подобно Microsoft, делать ставку на встраивание «интеллектуальных 2-ых пилотов» в свои продукты и сервисы. Но ведь для этого никакой сверхразум даром не нужен.
А зачем тогда вбухивать триллионы, если нет ни малейших идей, как эти деньги отбить?
Сверхразум создаст новые сверхлекартсва и покорит термояд? На вскидку выглядит весьма привлекательно.
Но как на этом могут заработать создатели сверхразума? И не единожды, а из года в год.
Патентом на сверхразум торговать? Так кто ж его запатентует?
Остается лишь создавать сверхразум в надежде, что он потом сам придумает бизнес-модель, как на нем зарабатывать. Но это как-то уж совсем стремно для инвесторов.
www.ft.com
Этот пост развивает идеи моего поста 5 летней давности «Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять»
https://t.me/theworldisnoteasy/942
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Опубликованный FT логнрид «Смогут ли в OpenAI создать сверхразум до того, как у них закончатся деньги?» впервые озвучил самый сокровенный для инвесторов вопрос о самой перспективной и привлекательной для них технологии - ИИ.
• Если цель развития ИИ – создание сверхразума,
• и достижение этой цели будет стоить очень и очень дорого,
• то инвесторам хотелось бы заранее понимать:
1) Как планируется отбивать огромные инвестиции в создание сверхразума? и
2) Как вообще на нем зарабатывать?
Авторы лонгрида не открывают Америку, подробно описывая тупиковость ситуации, когда ответы на оба вопроса не может дать никто. И подобно мальчику, крикнувшему «А король то голый!», авторам остается лишь честно констатировать: долгосрочной жизнеспособной модели зарабатывания на сверхразуме пока никто не придумал.
Более того. Заявленная Сэмом Альтманом цель — создание «общего искусственного интеллекта», формы интеллектуального программного обеспечения, которое превзошло бы интеллектуальные возможности человека и изменило бы то, как мы все живем и работаем, — не может серьезно рассматриваться, как основа бизнес-модели, способной приносить владеющим созданным сверхразумом корпорациям триллионы долларов. А именно столько потребуется для создания сверхразума по убеждению Альтмана – главного рулевого лидера в этой области, компании OpenAI.
Авторы лонгрида пишут, - несмотря на то, что в краткосрочной перспективе генеративные ИИ на основе больших языковых моделей воспринимаются с энтузиазмом, многие бизнес-лидеры по-прежнему не уверены в том, как технология повысит их прибыль, будь то за счет сокращения затрат или создания новых потоков доходов… Скептики говорят, что существует фундаментальное несоответствие между тем, чего хотят компании, и тем, к чему в конечном итоге стремится OpenAI. «Не всем нужна Феррари. . . Бизнес-компаниям не нужна всезнающая и всевидящая сущность: они заботятся о том, чтобы зарабатывать деньги с помощью этого инструмента», — говорит один инвестор в области ИИ, который поддерживал некоторых конкурентов OpenAI.
Иными словами, как сказал инвестор, - «Обычные бизнес-цели корпораций не совпадают с общим искусственным интеллектом».
Конечно, можно, подобно Microsoft, делать ставку на встраивание «интеллектуальных 2-ых пилотов» в свои продукты и сервисы. Но ведь для этого никакой сверхразум даром не нужен.
А зачем тогда вбухивать триллионы, если нет ни малейших идей, как эти деньги отбить?
Сверхразум создаст новые сверхлекартсва и покорит термояд? На вскидку выглядит весьма привлекательно.
Но как на этом могут заработать создатели сверхразума? И не единожды, а из года в год.
Патентом на сверхразум торговать? Так кто ж его запатентует?
Остается лишь создавать сверхразум в надежде, что он потом сам придумает бизнес-модель, как на нем зарабатывать. Но это как-то уж совсем стремно для инвесторов.
www.ft.com
Этот пост развивает идеи моего поста 5 летней давности «Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять»
https://t.me/theworldisnoteasy/942
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Telegram
Малоизвестное интересное
Король ИИ голый, и ему нужно либо трусы надеть, либо крестик снять.
Франсуа Шолле из Google написал правду, которую его компания не может пока открыто признать.
Принципиальная ошибка современной науки и технологий ИИ в том, что они развиваются в условиях…
Франсуа Шолле из Google написал правду, которую его компания не может пока открыто признать.
Принципиальная ошибка современной науки и технологий ИИ в том, что они развиваются в условиях…
Близнецы Homo sapiens за 2 месяца повзрослели на 2 года
К лету они достигнут совершеннолетия, и мир изменится
Мой пост «Стохастический попугай умер. Да здравствуют близнецы Homo sapiens!» https://t.me/theworldisnoteasy/1856 про кардинальный прорыв в мультимодальном понимании мира языковыми моделями (на примере модели Gemini – «Близнецы» от DeepMind) некоторыми был воспринят с недоверием и даже с изрядным скепсисом. Мол, это все ловкость рук авторов демо-ролика, и на самом деле, модель ничего такого не может.
Спустя 2 мес опубликован техотчет, не оставляющий места сомнениям. Модель не только «это может», но и работает с контекстом в 1М токенов. Будто за 2 мес «Близнецы» подросли минимум на 2 года.
Смотрите сами. Это впечатляет
Вот пример, когда модель по рисунку типа каляка-маляка находит изображенную на нем сцену в романе bit.ly
А это понимание видео. В модель загрузили 44-х мин видео. И задали вопросы на понимание сцен, текста и картинок bit.ly
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
К лету они достигнут совершеннолетия, и мир изменится
Мой пост «Стохастический попугай умер. Да здравствуют близнецы Homo sapiens!» https://t.me/theworldisnoteasy/1856 про кардинальный прорыв в мультимодальном понимании мира языковыми моделями (на примере модели Gemini – «Близнецы» от DeepMind) некоторыми был воспринят с недоверием и даже с изрядным скепсисом. Мол, это все ловкость рук авторов демо-ролика, и на самом деле, модель ничего такого не может.
Спустя 2 мес опубликован техотчет, не оставляющий места сомнениям. Модель не только «это может», но и работает с контекстом в 1М токенов. Будто за 2 мес «Близнецы» подросли минимум на 2 года.
Смотрите сами. Это впечатляет
Вот пример, когда модель по рисунку типа каляка-маляка находит изображенную на нем сцену в романе bit.ly
А это понимание видео. В модель загрузили 44-х мин видео. И задали вопросы на понимание сцен, текста и картинок bit.ly
#AGI
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
На канале 3Blue1Brown вышло видео объясняющее что же такое GPT. Очень приятное.
Я выставил в настройках русские субтитры, и мне стало еще понятнее :)
www.youtube.com
_______
Источник | #AGI_and_RL
@F_S_C_P
-------
поддержи канал
-------
Я выставил в настройках русские субтитры, и мне стало еще понятнее :)
www.youtube.com
_______
Источник | #AGI_and_RL
@F_S_C_P
-------
поддержи канал
-------
YouTube
How large language models work, a visual intro to transformers | Chapter 5, Deep Learning
Breaking down how Large Language Models work
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
---
Here are a few other relevant resources
Build a GPT from scratch, by Andrej Karpathy
https://youtu.be/kCc8FmEb1nY…
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
---
Here are a few other relevant resources
Build a GPT from scratch, by Andrej Karpathy
https://youtu.be/kCc8FmEb1nY…
Как же хочется "анатомически детализированную биомеханическую модель всего тела плодовой мухи Drosophila melanogaster в физическом движке MuJoCo". Держите.
13 ученых (в том числе парочка из ❤️DeepMind❤️) объединились, чтобы собрать "Дрозофила фруктовая"🪰 в Blender, смоделить физику в mujoco, сунуть туда свою модель, подключить нейронки с рлем и заставить реалистично ходить и летать.
Страшно реалистичная Drosophila melanogaster живет тут:
Whole-body simulation of realistic fruit fly locomotion with
deep reinforcement learning
www.biorxiv.org
https://github.com/TuragaLab/flybody
_______
Источник | #AGI_and_RL
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
13 ученых (в том числе парочка из ❤️DeepMind❤️) объединились, чтобы собрать "Дрозофила фруктовая"🪰 в Blender, смоделить физику в mujoco, сунуть туда свою модель, подключить нейронки с рлем и заставить реалистично ходить и летать.
Страшно реалистичная Drosophila melanogaster живет тут:
Whole-body simulation of realistic fruit fly locomotion with
deep reinforcement learning
www.biorxiv.org
https://github.com/TuragaLab/flybody
_______
Источник | #AGI_and_RL
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Появился ли сегодня первый AGI?
Даже если нет, то появится он именно так.
Сеть закипает. 11 часов назад стартап выставил в сети свою модель новой архитектуры с новым методом обучения.
Авторы утверждают:
У LLM есть следующие проблемы:
1. Статические знания о мире
2. Амнезия за пределами текущего разговорах (чата)
3. Неспособность приобретать новые навыки без тонкой настройки
Разработанная компанией Topology модель непрерывного обучения (CLM):
1. Не имеет границы знаний
2. Запоминает содержание всех разговоров (чатов)
3. Может приобретать новые навыки без тонкой настройки методом проб и ошибок
Иными словами, — эта новая ИИ-система запоминает свои взаимодействия с миром, обучается автономно, развивая при этом т.н. «незавершенную» личность.
И что это, если не AGI?
Итак, что мы имеем:
• Скриншоты примеров диалога с CLM впечатляют [1, 2]
• Первые отзывы весьма противоречивы (от «это действительно похоже на AGI» до «даже не собираюсь пробовать эту туфту») [3]
• Документация выставлена в сети [4]
• Сама система здесь [5]
Не знаю, что это. Сам пока не пробовал.
Но если что-то типа AGI когда-либо появится, то скорее всего, это будет столь же неожиданно, и будет сначала воспринято столь же недоверчиво… (но только сначала)
#AGI
1 pbs.twimg.com
2 pbs.twimg.com
3 www.reddit.com
4 yellow-apartment-148.notion.site
5 topologychat.com
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------
Даже если нет, то появится он именно так.
Сеть закипает. 11 часов назад стартап выставил в сети свою модель новой архитектуры с новым методом обучения.
Авторы утверждают:
У LLM есть следующие проблемы:
1. Статические знания о мире
2. Амнезия за пределами текущего разговорах (чата)
3. Неспособность приобретать новые навыки без тонкой настройки
Разработанная компанией Topology модель непрерывного обучения (CLM):
1. Не имеет границы знаний
2. Запоминает содержание всех разговоров (чатов)
3. Может приобретать новые навыки без тонкой настройки методом проб и ошибок
Иными словами, — эта новая ИИ-система запоминает свои взаимодействия с миром, обучается автономно, развивая при этом т.н. «незавершенную» личность.
И что это, если не AGI?
Итак, что мы имеем:
• Скриншоты примеров диалога с CLM впечатляют [1, 2]
• Первые отзывы весьма противоречивы (от «это действительно похоже на AGI» до «даже не собираюсь пробовать эту туфту») [3]
• Документация выставлена в сети [4]
• Сама система здесь [5]
Не знаю, что это. Сам пока не пробовал.
Но если что-то типа AGI когда-либо появится, то скорее всего, это будет столь же неожиданно, и будет сначала воспринято столь же недоверчиво… (но только сначала)
#AGI
1 pbs.twimg.com
2 pbs.twimg.com
3 www.reddit.com
4 yellow-apartment-148.notion.site
5 topologychat.com
_______
Источник | #theworldisnoteasy
@F_S_C_P
-------
поддержи канал
-------