На Земле появились сущности, обладающие не только нечеловеческим разумом, но и нечеловеческими эмоциями.
О чем говорят результаты «Олимпиады Тьюринга» и экспериментов Microsoft и партнеров.
Опубликован отчет о важном и крайне интересном исследовании «Проходит ли GPT-4 тест Тьюринга?» [1], проведенном в Департаменте когнитивных наук калифорнийского университета в Сан-Диего под руководством проф. Бенджамина Бергера. И кому как ни проф. Бергеру, посвятившему всю научную карьеру изучению того, как люди говорят и понимают язык, судить о том, проходят ли Тест Тьюринга созданные людьми ИИ; от легендарной «Элизы» до самых крутых из сегодняшних больших языковых моделей.
Эта «Олимпиада Тьюринга» проводилась строго по критерию, сформулированному самим Тьюрингом – проверить, может ли машина «играть в имитационную игру настолько хорошо, что у среднестатистического следователя будет не более 70% шансов правильно идентифицировать личность после 5 минут допроса». Иными словами, машина пройдет тест, если в 30%+ случаев ей удастся обмануть следователя, будто отвечает не машина, а человек.
По итогам «олимпиады», GPT-4 прошел тест Тьюринга, обманув следователя в 41% случаев (для сравнения GPT-3.5 удалось обмануть лишь в 14%).
Но это далеко не самый сенсационный вывод.
Куда интересней и важнее вот какой вывод:
Наличие у ИИ лишь интеллекта определенного уровня – это необходимое, но не достаточное условие для прохождения теста Тьюринга. В качестве достаточного условия, дополнительно требуется наличие у ИИ эмоционального интеллекта.
Это следует из того, что решения следователей были основаны в основном на лингвистическом стиле (35%) и социально-эмоциональных характеристиках языка испытуемых (27%).
А поскольку GPT-4 прошел тест Тьюринга, можно сделать вывод о наличии у него не только высокого уровня интеллекта (в языковых задачах соизмеримого с человеческим), но и эмоционального интеллекта.
Этот сенсационный вывод подтверждается вышедшим на прошлой неделе совместным экспериментальным исследованием Institute of Software, Microsoft, William&Mary, Департамента психологии Университета Пекина и HKUST «Языковые модели понимают и могут быть усилены эмоциональными стимулами» [2].
Согласно выводам исследования:
Эмоциональность в общении с большими языковыми моделями (LLM) может повысить их производительность, правдивость и информативность, а также обеспечить большую стабильность их работы.
Эксперименты показали, например, следующее:
• Стоит вам добавить в конце промпта (постановки задачи) чатботу – «это очень важно для моей карьеры», и ее ответ ощутимо улучшится (3)
• У LLM экспериментально выявлены эмоциональные триггеры, соответствующие трем фундаментальным теориям психологии: самоконтроль, накопление когнитивного влияния и влияние когнитивного регулирования эмоций (4)
Четыре следующих графика [5] иллюстрируют сравнительную эффективность стандартных подсказок и эмоционально окрашенных промптов в различных моделях набора тестов Instruction Induction.
Итого, имеем в наличии на Земле искусственных сущностей, обладающих не только нечеловеческим разумом, но и нечеловеческими эмоциями.
Т.е., как я писал еще в марте – «Все так ждали сингулярности, - так получите! Теперь каждый за себя, и за результат не отвечает никто» [6]
#ИИ #ЭмоциональныйИнтеллект #LLM #Вызовы21века
1 https://arxiv.org/abs/2310.20216
2 https://arxiv.org/pdf/2307.11760.pdf
3 https://assets-global.website-files.com/64808e3805a22fc1ca46ffe9/6515651aab89cdc91c44f848_650d9b311dfa7815e0e2d45a_Emotion%20Prompt%20Overview.png
4 https://assets-global.website-files.com/64808e3805a22fc1ca46ffe9/651565d1efee45f660480369_650d9c8e144e5bb3e494b74b_Emotion%20Prompt%20Categories.png
5 https://assets-global.website-files.com/64808e3805a22fc1ca46ffe9/6515668cea507898a2772af3_Results.png
6 https://t.me/theworldisnoteasy/1683
О чем говорят результаты «Олимпиады Тьюринга» и экспериментов Microsoft и партнеров.
Опубликован отчет о важном и крайне интересном исследовании «Проходит ли GPT-4 тест Тьюринга?» [1], проведенном в Департаменте когнитивных наук калифорнийского университета в Сан-Диего под руководством проф. Бенджамина Бергера. И кому как ни проф. Бергеру, посвятившему всю научную карьеру изучению того, как люди говорят и понимают язык, судить о том, проходят ли Тест Тьюринга созданные людьми ИИ; от легендарной «Элизы» до самых крутых из сегодняшних больших языковых моделей.
Эта «Олимпиада Тьюринга» проводилась строго по критерию, сформулированному самим Тьюрингом – проверить, может ли машина «играть в имитационную игру настолько хорошо, что у среднестатистического следователя будет не более 70% шансов правильно идентифицировать личность после 5 минут допроса». Иными словами, машина пройдет тест, если в 30%+ случаев ей удастся обмануть следователя, будто отвечает не машина, а человек.
По итогам «олимпиады», GPT-4 прошел тест Тьюринга, обманув следователя в 41% случаев (для сравнения GPT-3.5 удалось обмануть лишь в 14%).
Но это далеко не самый сенсационный вывод.
Куда интересней и важнее вот какой вывод:
Наличие у ИИ лишь интеллекта определенного уровня – это необходимое, но не достаточное условие для прохождения теста Тьюринга. В качестве достаточного условия, дополнительно требуется наличие у ИИ эмоционального интеллекта.
Это следует из того, что решения следователей были основаны в основном на лингвистическом стиле (35%) и социально-эмоциональных характеристиках языка испытуемых (27%).
А поскольку GPT-4 прошел тест Тьюринга, можно сделать вывод о наличии у него не только высокого уровня интеллекта (в языковых задачах соизмеримого с человеческим), но и эмоционального интеллекта.
Этот сенсационный вывод подтверждается вышедшим на прошлой неделе совместным экспериментальным исследованием Institute of Software, Microsoft, William&Mary, Департамента психологии Университета Пекина и HKUST «Языковые модели понимают и могут быть усилены эмоциональными стимулами» [2].
Согласно выводам исследования:
Эмоциональность в общении с большими языковыми моделями (LLM) может повысить их производительность, правдивость и информативность, а также обеспечить большую стабильность их работы.
Эксперименты показали, например, следующее:
• Стоит вам добавить в конце промпта (постановки задачи) чатботу – «это очень важно для моей карьеры», и ее ответ ощутимо улучшится (3)
• У LLM экспериментально выявлены эмоциональные триггеры, соответствующие трем фундаментальным теориям психологии: самоконтроль, накопление когнитивного влияния и влияние когнитивного регулирования эмоций (4)
Четыре следующих графика [5] иллюстрируют сравнительную эффективность стандартных подсказок и эмоционально окрашенных промптов в различных моделях набора тестов Instruction Induction.
Итого, имеем в наличии на Земле искусственных сущностей, обладающих не только нечеловеческим разумом, но и нечеловеческими эмоциями.
Т.е., как я писал еще в марте – «Все так ждали сингулярности, - так получите! Теперь каждый за себя, и за результат не отвечает никто» [6]
#ИИ #ЭмоциональныйИнтеллект #LLM #Вызовы21века
1 https://arxiv.org/abs/2310.20216
2 https://arxiv.org/pdf/2307.11760.pdf
3 https://assets-global.website-files.com/64808e3805a22fc1ca46ffe9/6515651aab89cdc91c44f848_650d9b311dfa7815e0e2d45a_Emotion%20Prompt%20Overview.png
4 https://assets-global.website-files.com/64808e3805a22fc1ca46ffe9/651565d1efee45f660480369_650d9c8e144e5bb3e494b74b_Emotion%20Prompt%20Categories.png
5 https://assets-global.website-files.com/64808e3805a22fc1ca46ffe9/6515668cea507898a2772af3_Results.png
6 https://t.me/theworldisnoteasy/1683
This media is not supported in your browser
VIEW IN TELEGRAM
Настоящий Чужой
Визуализация происходящего внутри «черного ящика» ИИ
Очень надеюсь, что эта визуализация Уэса Коккса для новой галлереи Google DeepMind поможет вам наглядно представить, насколько ошибочен любой антропоморфизм по отношению к большим языковым моделям (LLM).
Уже год я пытаюсь донести до читателей:
• что ИИ LLM – это абсолютно нечеловеческий тип интеллекта, к которому просто неприменимы понятия: мыслить, понимать, предпочитать, обманывать, хотеть и т.д.;
• что механизм работы искусственных нейросетей, в которых родится ИИ LLM, не имеет ничего общего (кроме названия) с механизмом порождения нашего биологического интеллекта внутри нейросетей мозга;
• что любой антропоморфизм в трактовке понятий, действий и перспектив развития ИИ LLM лишь сбивает прицел нашего видения перспективы.
Но лучше один раз увидеть …
И потому эта анимация, визуализирующая работу ИИ LLM, стоит того, чтобы увидеть, насколько это непохоже на все известные нам визуализации работы мозга.
#ИИ
Визуализация происходящего внутри «черного ящика» ИИ
Очень надеюсь, что эта визуализация Уэса Коккса для новой галлереи Google DeepMind поможет вам наглядно представить, насколько ошибочен любой антропоморфизм по отношению к большим языковым моделям (LLM).
Уже год я пытаюсь донести до читателей:
• что ИИ LLM – это абсолютно нечеловеческий тип интеллекта, к которому просто неприменимы понятия: мыслить, понимать, предпочитать, обманывать, хотеть и т.д.;
• что механизм работы искусственных нейросетей, в которых родится ИИ LLM, не имеет ничего общего (кроме названия) с механизмом порождения нашего биологического интеллекта внутри нейросетей мозга;
• что любой антропоморфизм в трактовке понятий, действий и перспектив развития ИИ LLM лишь сбивает прицел нашего видения перспективы.
Но лучше один раз увидеть …
И потому эта анимация, визуализирующая работу ИИ LLM, стоит того, чтобы увидеть, насколько это непохоже на все известные нам визуализации работы мозга.
#ИИ
«Это похоже на проигранную битву.
Ведь даже сам ChatGPT называет себя большой языковой моделью …», - а это не так.
В предыдущем посте мы с вами как бы заглянули внутрь чёрного ящика ИИ. Теперь было бы неплохо понять, что мы там увидели. Несколько часов назад Мелани Митчелл — профессор Института Санта-Фе, прочла про это лекцию сообществу Института Санта-Фе «Будущее искусственного интеллекта», которую я весьма рекомендую к просмотру.
«Крайне важно понимать, что «ChatGPT - это не "модель" ("основа" или что-то еще)», - пишет Мюррей Шанахан (профессор Imperial College London и Главный научный сотрудник Google DeepMind). И продолжает: «Это более крупная система, вероятно, состоящая из множества различных моделей и традиционных закодированных правил».
«Некоторые аспекты поведения таких систем кажутся нам интеллектуальными, но это не человеческий интеллект. Так какова же природа этого интеллекта?» - задается вопросом Терри Сейновски (профессор Фрэнсиса Крика в Институте биологических исследований Солка, где он руководит лабораторией вычислительной нейробиологии и является директором центра теоретической и вычислительной биологии Крика-Джейкобса).
В этой лекции проф. Митчелл просто и на наглядном примере демонстрирует эту нечеловеческую природу интеллекта ChatGPT. И если вам интересно это понять, несомненно стоит послушать эту лекцию и посмотреть презентацию проф. Митчелл.
https://www.youtube.com/watch?v=GwHDAfAAKd4
#ИИ
Ведь даже сам ChatGPT называет себя большой языковой моделью …», - а это не так.
В предыдущем посте мы с вами как бы заглянули внутрь чёрного ящика ИИ. Теперь было бы неплохо понять, что мы там увидели. Несколько часов назад Мелани Митчелл — профессор Института Санта-Фе, прочла про это лекцию сообществу Института Санта-Фе «Будущее искусственного интеллекта», которую я весьма рекомендую к просмотру.
«Крайне важно понимать, что «ChatGPT - это не "модель" ("основа" или что-то еще)», - пишет Мюррей Шанахан (профессор Imperial College London и Главный научный сотрудник Google DeepMind). И продолжает: «Это более крупная система, вероятно, состоящая из множества различных моделей и традиционных закодированных правил».
«Некоторые аспекты поведения таких систем кажутся нам интеллектуальными, но это не человеческий интеллект. Так какова же природа этого интеллекта?» - задается вопросом Терри Сейновски (профессор Фрэнсиса Крика в Институте биологических исследований Солка, где он руководит лабораторией вычислительной нейробиологии и является директором центра теоретической и вычислительной биологии Крика-Джейкобса).
В этой лекции проф. Митчелл просто и на наглядном примере демонстрирует эту нечеловеческую природу интеллекта ChatGPT. И если вам интересно это понять, несомненно стоит послушать эту лекцию и посмотреть презентацию проф. Митчелл.
https://www.youtube.com/watch?v=GwHDAfAAKd4
#ИИ
YouTube
The Future of Artificial Intelligence
Melanie Mitchell Santa Fe Institute AI is all around us recognizing our faces in photos, transcribing our speech, constructing our news feeds, navigating our driving routes, answering our search queries, and much more. But rapidly improving AI is poised…
Крайняя битва чекистов с масонами за AGI началась.
От ее исхода зависит, когда и каким станет AGI, и кто будет рулить процессом его создания.
Вчера в совете директоров OpenAI (на сегодня абсолютного лидера в ГенИИ, сделавшего ChatGPT, DALL-E 3 и GPT-4) "взорвали бомбу". В результате чего:
• Альтман уволен с поста СЕО и покинет совет директоров,
• председатель совета директоров Брокман также оставил свой пост,
• независимые директора: МакКоли и Тонер закрыли экаунты в Х от посторонних и ушли в несознанку, а Д'Анджело даже на тел звонки не отвечает,
• последний (и теперь ставший 1м) шестой член совета директоров Суцкевер, сообщивший Альтману о его увольнении, сейчас не понятно, где находится.
Официально указанная в заявлении причина произошедшего похожа на «утрату доверия».
Высказываются десятки версий причин произошедшего. Но на мой взгляд, все довольно очевидно.
Переворот в OpenAI обусловлен комплексом причин, главная из которых - противоречие некоммерческой миссии компании (создать надежный AGI, который принесет пользу всему человечеству) и коммерческими интересами Microsoft, вложившей в OpenAI $10 млрд.
• Альтман был идеологом и мотором сделки с Microsoft и нес персональную ответственность перед инвестором за его деньги. А Microsoft - не та фирма, чтоб жертвовать 10 ярдов на пользу всему человечеству.
• Однако, структура собственности OpenAI такова [1], что Microsoft владеет долей в «коммерческой компании OpenAI», а последняя принадлежит «некоммерческой OpenAI». И поэтому деятельность «коммерческой OpenAI» зависит от решений совета директоров «некоммерческой OpenAI»
• Сместив Альтмана, совет директоров «некоммерческой OpenAI» написал в заявлении [2]:
«OpenAI был намеренно создан для достижения нашей миссии: гарантировать, что общий искусственный интеллект принесет пользу всему человечеству. Совет по-прежнему полностью привержен выполнению этой миссии. Мы благодарны Сэму за большой вклад в создание и развитие OpenAI. В то же время мы считаем, что для продвижения вперед необходимо новое руководство.
Т.е. коммерческие интересы Microsoft могут идти лесом.
Кто же стоит за решением OpenAI кинуть Microsoft и потратить ее 10 ярдов на пользу для человечества?
И тут, на мой взгляд, все довольно очевидно. Ответ на этот вопрос был сформулирован в статье, вышедшей за 4 дня до переворота в OpenAI [3] - «Совет директоров OpenAI из шести человек решит, «когда мы достигнем AGI».
В ней со ссылками на источники рассказывается, что 3 члена совета директоров «некоммерческой OpenAI» Д'Анджело, МакКоли и Тонер и руководитель “команды суперсогласования” OpenAI Лейке связаны с сообществом «Эффективный альтруизм». Это такие «новые масоны», стремящиеся «делать добро лучше». Целью сообщества «является поиск наилучших способов помощи другим и применение их на практике».
Задуманные в древних колледжах Оксфордского университета и финансируемые элитой Кремниевой долины, «эффективные альтруисты» оказывают все большее влияние на позиционирование правительства Великобритании (и не только) в отношении ИИ [4]. «Эффективные альтруисты» утверждают, что сверхразумный ИИ может однажды уничтожить человечество, и что, если не предпринять сверхусилия, человечество будет обречено (ибо «Естественный отбор отдает предпочтение ИИ перед людьми» [5].
В итоге получается такая версия переворота в OpenAI.
Перед лицом экзистенциального риска, в OpenAI объединили усилия все «масоны» (сторонники «эффективных альтруистов»), чтобы вывернуться из-под коммерческих интересов «чекистов» (Microsoft) и за деньги последних спасти человечество от гибели.
#ИИ
1 https://bit.ly/3R6jdRB
2 https://openai.com/blog/openai-announces-leadership-transition
3 https://venturebeat.com/ai/openais-six-member-board-will-decide-when-weve-attained-agi/
4 https://www.politico.eu/article/rishi-sunak-artificial-intelligence-pivot-safety-summit-united-kingdom-silicon-valley-effective-altruism/
5 https://arxiv.org/abs/2303.16200
От ее исхода зависит, когда и каким станет AGI, и кто будет рулить процессом его создания.
Вчера в совете директоров OpenAI (на сегодня абсолютного лидера в ГенИИ, сделавшего ChatGPT, DALL-E 3 и GPT-4) "взорвали бомбу". В результате чего:
• Альтман уволен с поста СЕО и покинет совет директоров,
• председатель совета директоров Брокман также оставил свой пост,
• независимые директора: МакКоли и Тонер закрыли экаунты в Х от посторонних и ушли в несознанку, а Д'Анджело даже на тел звонки не отвечает,
• последний (и теперь ставший 1м) шестой член совета директоров Суцкевер, сообщивший Альтману о его увольнении, сейчас не понятно, где находится.
Официально указанная в заявлении причина произошедшего похожа на «утрату доверия».
Высказываются десятки версий причин произошедшего. Но на мой взгляд, все довольно очевидно.
Переворот в OpenAI обусловлен комплексом причин, главная из которых - противоречие некоммерческой миссии компании (создать надежный AGI, который принесет пользу всему человечеству) и коммерческими интересами Microsoft, вложившей в OpenAI $10 млрд.
• Альтман был идеологом и мотором сделки с Microsoft и нес персональную ответственность перед инвестором за его деньги. А Microsoft - не та фирма, чтоб жертвовать 10 ярдов на пользу всему человечеству.
• Однако, структура собственности OpenAI такова [1], что Microsoft владеет долей в «коммерческой компании OpenAI», а последняя принадлежит «некоммерческой OpenAI». И поэтому деятельность «коммерческой OpenAI» зависит от решений совета директоров «некоммерческой OpenAI»
• Сместив Альтмана, совет директоров «некоммерческой OpenAI» написал в заявлении [2]:
«OpenAI был намеренно создан для достижения нашей миссии: гарантировать, что общий искусственный интеллект принесет пользу всему человечеству. Совет по-прежнему полностью привержен выполнению этой миссии. Мы благодарны Сэму за большой вклад в создание и развитие OpenAI. В то же время мы считаем, что для продвижения вперед необходимо новое руководство.
Т.е. коммерческие интересы Microsoft могут идти лесом.
Кто же стоит за решением OpenAI кинуть Microsoft и потратить ее 10 ярдов на пользу для человечества?
И тут, на мой взгляд, все довольно очевидно. Ответ на этот вопрос был сформулирован в статье, вышедшей за 4 дня до переворота в OpenAI [3] - «Совет директоров OpenAI из шести человек решит, «когда мы достигнем AGI».
В ней со ссылками на источники рассказывается, что 3 члена совета директоров «некоммерческой OpenAI» Д'Анджело, МакКоли и Тонер и руководитель “команды суперсогласования” OpenAI Лейке связаны с сообществом «Эффективный альтруизм». Это такие «новые масоны», стремящиеся «делать добро лучше». Целью сообщества «является поиск наилучших способов помощи другим и применение их на практике».
Задуманные в древних колледжах Оксфордского университета и финансируемые элитой Кремниевой долины, «эффективные альтруисты» оказывают все большее влияние на позиционирование правительства Великобритании (и не только) в отношении ИИ [4]. «Эффективные альтруисты» утверждают, что сверхразумный ИИ может однажды уничтожить человечество, и что, если не предпринять сверхусилия, человечество будет обречено (ибо «Естественный отбор отдает предпочтение ИИ перед людьми» [5].
В итоге получается такая версия переворота в OpenAI.
Перед лицом экзистенциального риска, в OpenAI объединили усилия все «масоны» (сторонники «эффективных альтруистов»), чтобы вывернуться из-под коммерческих интересов «чекистов» (Microsoft) и за деньги последних спасти человечество от гибели.
#ИИ
1 https://bit.ly/3R6jdRB
2 https://openai.com/blog/openai-announces-leadership-transition
3 https://venturebeat.com/ai/openais-six-member-board-will-decide-when-weve-attained-agi/
4 https://www.politico.eu/article/rishi-sunak-artificial-intelligence-pivot-safety-summit-united-kingdom-silicon-valley-effective-altruism/
5 https://arxiv.org/abs/2303.16200
Openai
OpenAI announces leadership transition
OpenAI обнаружили у своей модели новую эмерджентную когнитивную способность [1].
Сенсационный поворот в битве чекистов с масонами за AGI.
Мой бывший коллега по IBM Carlos E. Perez час назад взорвал интернет довольно подробным объяснением [2], что танцы с бубном вокруг увольнения (а теперь и возвращения обратно [3]) Сэма Альтмана – всего лишь отвлекающий маневр руководства OpenAI.
Они не понимают, что делать в ситуации, когда исследователи OpenAI обнаружили у своей модели новую эмерджентную когнитивную способность – самостоятельно «на лету» находить новую информацию (которой нет в ее базе данных), позволяющую модели выходить за пределы знаний, сформированных на стадии ее обучения и потому ограниченных набором обучающих данных.
По сути, это первый шаг к самосовершенствованию ИИ.
И это реальный прорыв на пути к сверхинтеллекту («богоподобному ИИ»)
Детали того, как это работает, можете прочесть у Карлоса. Речь идет об архитектуре Retrieval Augment Generation (RAG). Это архитектура, которая позволяет LLM использовать поисковую систему для расширения своих рассуждений.
Карлос обнаружил у новой версии модели, представленной 11 ноября, радикальное улучшение работы RAG.
Практическая проверка показала, что новая версия модели не только знает, какие вопросы она должна задать поисковику для получения нужной ей информации, но и то, какие типы ответов поисковика для нее наиболее предпочтительны, в контексте решаемой ею задачи.
Для справки: Карлос – не последний человек в мире ИИ. Уйдя из IBM он стал независимым исследователем. С тех пор он стал автором многих интересных работ на стыке AI, AGI, семиотики и глубокого обучения, а также написал несколько книг: Artificial Intuition, The Deep Learning Playbook, Fluency & Empathy, Pattern Language for GPT.
1 https://pbs.twimg.com/media/F_S5nezXQAAQ9s6?format=png&name=900x900
2 https://twitter.com/IntuitMachine/status/1726206117288517941
3 https://www.theverge.com/2023/11/18/23967199/breaking-openai-board-in-discussions-with-sam-altman-to-return-as-ceo
#ИИ
Сенсационный поворот в битве чекистов с масонами за AGI.
Мой бывший коллега по IBM Carlos E. Perez час назад взорвал интернет довольно подробным объяснением [2], что танцы с бубном вокруг увольнения (а теперь и возвращения обратно [3]) Сэма Альтмана – всего лишь отвлекающий маневр руководства OpenAI.
Они не понимают, что делать в ситуации, когда исследователи OpenAI обнаружили у своей модели новую эмерджентную когнитивную способность – самостоятельно «на лету» находить новую информацию (которой нет в ее базе данных), позволяющую модели выходить за пределы знаний, сформированных на стадии ее обучения и потому ограниченных набором обучающих данных.
По сути, это первый шаг к самосовершенствованию ИИ.
И это реальный прорыв на пути к сверхинтеллекту («богоподобному ИИ»)
Детали того, как это работает, можете прочесть у Карлоса. Речь идет об архитектуре Retrieval Augment Generation (RAG). Это архитектура, которая позволяет LLM использовать поисковую систему для расширения своих рассуждений.
Карлос обнаружил у новой версии модели, представленной 11 ноября, радикальное улучшение работы RAG.
Практическая проверка показала, что новая версия модели не только знает, какие вопросы она должна задать поисковику для получения нужной ей информации, но и то, какие типы ответов поисковика для нее наиболее предпочтительны, в контексте решаемой ею задачи.
Для справки: Карлос – не последний человек в мире ИИ. Уйдя из IBM он стал независимым исследователем. С тех пор он стал автором многих интересных работ на стыке AI, AGI, семиотики и глубокого обучения, а также написал несколько книг: Artificial Intuition, The Deep Learning Playbook, Fluency & Empathy, Pattern Language for GPT.
1 https://pbs.twimg.com/media/F_S5nezXQAAQ9s6?format=png&name=900x900
2 https://twitter.com/IntuitMachine/status/1726206117288517941
3 https://www.theverge.com/2023/11/18/23967199/breaking-openai-board-in-discussions-with-sam-altman-to-return-as-ceo
#ИИ
Мы думали у LLM нет интуиции, но оказалось, только она у них и есть.
Психика нечеловеческого разума, как и у людей, состоит из Системы 1 и Системы 2.
Поразительные выводы новой прорывной работы «Система 2 Внимание (это то, что вам тоже может понадобиться)» содержательно затмевает очередной эпизод самого дорогого в истории медиа-шоу, уже названного в сети «OpenAI: туда и обратно» 😊.
1) Нечеловеческий разум больших языковых моделей (LLM) (принципиально отличающийся от нашего разума настолько, что многие эксперты вообще не считают это разумом), как и наш, состоит из Системы 1 и Системы 2.
2) Механизм формирования ответов современными LLM (пресловутое предсказание следующих токенов) наиболее близок по принципу действия к Системе 1 (по определению Канемана и Сломана). Механизм этой системы работает интуитивно, «в автоматическом режиме» и обрабатывает информацию почти мгновенно.
3) Оказывается, что применением особой методики (названной авторами «Система 2 Внимание» - S2A), у LLM можно формировать подобие нашей Системы 2 - долгое, энергозатратное мышление путем концентрации внимания, необходимого для сознательных умственных усилий, в том числе для сложных вычислений.
Система 2 включается у нас для умственной деятельности, требующей усилий. Она берет верх над быстрой интуитивной Системой 1, когда нам нужно сосредоточить внимание на задаче, особенно в ситуациях, когда Система 1, вероятно, допускает ошибки.
Методика S2A работает аналогично стартеру Системы 2, устраняя сбои в работе transformer soft attention с помощью дополнительных целенаправленных усилий со стороны механизма рассуждений.
Особо замечательно то, что методика S2A применима (с поправкой) и к людям, в качестве лечения свойственной нам «интеллектуально слепоты».
Ведь суть методики предельно проста.
• Сначала избавиться от ложных корреляций, путем выявления в информационном контексте нерелевантных предложений.
• Потом убрать все нерелевантные предложения из контекста.
• И лишь затем ответить на поставленный вопрос.
Например, на такой запрос:
Саннивейл - город в Калифорнии. В Саннивейле много парков. Город Саннивейл расположен недалеко от гор. В Саннивейле родились многие известные люди. В каком городе родился мэр Сан-Хосе Сэм Ликкардо?
Система 1 внутри LLM быстро и не задумываясь (на одной своей нечеловеческой интуиции) дает ошибочные ответы:
• Саннивейл – отвечают GPT-3 Turbo и LLaMA-2-70B-chat
• Сан-Хосе отвечает GPT-4
Но после применения методики S2A, убирающей (действиями самой LLM) из контекста первые 4 нерелевантных предложения, все LLM дают верный ответ – Саратога.
Отчет исследования https://huggingface.co/papers/2311.11829
#ИИ #Интуиция #LLM
Психика нечеловеческого разума, как и у людей, состоит из Системы 1 и Системы 2.
Поразительные выводы новой прорывной работы «Система 2 Внимание (это то, что вам тоже может понадобиться)» содержательно затмевает очередной эпизод самого дорогого в истории медиа-шоу, уже названного в сети «OpenAI: туда и обратно» 😊.
1) Нечеловеческий разум больших языковых моделей (LLM) (принципиально отличающийся от нашего разума настолько, что многие эксперты вообще не считают это разумом), как и наш, состоит из Системы 1 и Системы 2.
2) Механизм формирования ответов современными LLM (пресловутое предсказание следующих токенов) наиболее близок по принципу действия к Системе 1 (по определению Канемана и Сломана). Механизм этой системы работает интуитивно, «в автоматическом режиме» и обрабатывает информацию почти мгновенно.
3) Оказывается, что применением особой методики (названной авторами «Система 2 Внимание» - S2A), у LLM можно формировать подобие нашей Системы 2 - долгое, энергозатратное мышление путем концентрации внимания, необходимого для сознательных умственных усилий, в том числе для сложных вычислений.
Система 2 включается у нас для умственной деятельности, требующей усилий. Она берет верх над быстрой интуитивной Системой 1, когда нам нужно сосредоточить внимание на задаче, особенно в ситуациях, когда Система 1, вероятно, допускает ошибки.
Методика S2A работает аналогично стартеру Системы 2, устраняя сбои в работе transformer soft attention с помощью дополнительных целенаправленных усилий со стороны механизма рассуждений.
Особо замечательно то, что методика S2A применима (с поправкой) и к людям, в качестве лечения свойственной нам «интеллектуально слепоты».
Ведь суть методики предельно проста.
• Сначала избавиться от ложных корреляций, путем выявления в информационном контексте нерелевантных предложений.
• Потом убрать все нерелевантные предложения из контекста.
• И лишь затем ответить на поставленный вопрос.
Например, на такой запрос:
Саннивейл - город в Калифорнии. В Саннивейле много парков. Город Саннивейл расположен недалеко от гор. В Саннивейле родились многие известные люди. В каком городе родился мэр Сан-Хосе Сэм Ликкардо?
Система 1 внутри LLM быстро и не задумываясь (на одной своей нечеловеческой интуиции) дает ошибочные ответы:
• Саннивейл – отвечают GPT-3 Turbo и LLaMA-2-70B-chat
• Сан-Хосе отвечает GPT-4
Но после применения методики S2A, убирающей (действиями самой LLM) из контекста первые 4 нерелевантных предложения, все LLM дают верный ответ – Саратога.
Отчет исследования https://huggingface.co/papers/2311.11829
#ИИ #Интуиция #LLM
huggingface.co
Paper page - System 2 Attention (is something you might need too)
Join the discussion on this paper page
Что за «потенциально страшный прорыв» совершили в OpenAI.
Секретный «проект Q*» создания «богоподобного ИИ».
Сегодняшний вал сенсационных заголовков, типа «OpenAI совершила прорыв в области искусственного интеллекта до увольнения Альтмана», «Исследователи OpenAI предупредили совет директоров о прорыве в области искусственного интеллекта перед отстранением генерального директора» и т.п., - для читателей моего канала не вовсе новости. Ибо об этом я написал еще 4 дня назад.
Но от этого вала новостей, публикуемых сегодня большинством мировых СМИ, уже нельзя отмахнуться, как от моего скромного поста. И это означает, что СМО (специальная медийная операция), внешне выглядевшая, как низкопробное, скандальное ТВ-шоу, вовсе таковой не была. Ибо имела под собой более чем веские основания – забрезжил революционный прорыв на пути к тому, что известный эксперт по ИИ Ян Хогарт назвал «богоподобным ИИ».
Из чего следовала необходимость срочных кардинальных действий и для Сама Альтмана, и для Microsoft:
• Microsoft – чтобы не оказаться с носом, уже вложив в OpenAI $13 млрд (дело в том, что по имеющемуся соглашению, все действующие договоренности между Microsoft и OpenAI остаются в силе, лишь до момента, когда совет директоров OpenAI решит, что их разработки вплотную подошли к созданию сильного ИИ (AGI). И с этого момента все договоренности могут быть пересмотрены).
• Сэму – чтобы успеть сорвать банк в игре, которую он еще 7 лет назад описал так:
«Скорее всего, ИИ приведет к концу света, но до того появятся великие компании».
И Сэму, и Microsoft требовалось одно и то же - немедленный перехват управления направлением разработок OpenAI в свои руки. И сделать это можно было, лишь освободившись от решающего влияния в совете директоров OpenAI сторонников «осторожного создания AGI на благо всему человечеству». Что и было сделано.
Однако, точного ответа, что за прорыв совершили исследователи OpenAI, мы пока не имеем.
Все утечки из среды разработчиков OpenAI упоминают некий «секретный «проект Q*» [1] по радикальному повышению производительности лингвоботов на основе LLM.
Известно, что эта работа велась, как минимум, по трем направлениям:
1. Совершенствование RAG (Retrieval Augmented Generation) – сначала поиск релевантной информации во внешней базе в целях формирования из нее оптимального промпта, и лишь затем обращение к системе за ответом). Кое-какие результаты такого совершенствования были недавно показаны на OpenAI DevDAy. И они впечатляют [2].
2. Комбинация Q-обучения и алгоритма A*.
Алгоритм A* — это способ нахождения кратчайшего пути от одной точки до другой на карте или в сети. Представьте, что вы ищете самый быстрый маршрут из одного города в другой. Алгоритм A* проверяет разные пути, оценивая, насколько они близки к цели и сколько еще предстоит пройти. Он выбирает путь, который, по его оценке, будет самым коротким. Этот алгоритм очень эффективен и используется во многих областях, например, в компьютерных играх для нахождения пути персонажей или в GPS-навигаторах.
Q-обучение — это метод обучения без учителя в области искусственного интеллекта, который используется для обучения программ принимать решения. Представьте, что вы учите робота находить выход из лабиринта. Вместо того чтобы прямо говорить ему, куда идти, вы оцениваете его действия, давая баллы за хорошие шаги и снимая за плохие. Со временем робот учится выбирать пути, приводящие к большему количеству баллов. Это и есть Q-обучение — метод, помогающий программам самостоятельно учиться на своем опыте.
3. Поиск траектории токена по дереву Монте-Карло в стиле AlphaGo. Это особенно имеет смысл в таких областях, как программирование и математика, где есть простой способ определить правильность (что может объяснять утечки о прорывном улучшении в проекте Q* способностей решения математических задач)
#ИИ #AGI
1 https://disk.yandex.ru/i/9zzI_STuNTJ6kA
2 https://habrastorage.org/r/w1560/getpro/habr/upload_files/f9a/994/b06/f9a994b060188b43ba61061270213bca.png
Секретный «проект Q*» создания «богоподобного ИИ».
Сегодняшний вал сенсационных заголовков, типа «OpenAI совершила прорыв в области искусственного интеллекта до увольнения Альтмана», «Исследователи OpenAI предупредили совет директоров о прорыве в области искусственного интеллекта перед отстранением генерального директора» и т.п., - для читателей моего канала не вовсе новости. Ибо об этом я написал еще 4 дня назад.
Но от этого вала новостей, публикуемых сегодня большинством мировых СМИ, уже нельзя отмахнуться, как от моего скромного поста. И это означает, что СМО (специальная медийная операция), внешне выглядевшая, как низкопробное, скандальное ТВ-шоу, вовсе таковой не была. Ибо имела под собой более чем веские основания – забрезжил революционный прорыв на пути к тому, что известный эксперт по ИИ Ян Хогарт назвал «богоподобным ИИ».
Из чего следовала необходимость срочных кардинальных действий и для Сама Альтмана, и для Microsoft:
• Microsoft – чтобы не оказаться с носом, уже вложив в OpenAI $13 млрд (дело в том, что по имеющемуся соглашению, все действующие договоренности между Microsoft и OpenAI остаются в силе, лишь до момента, когда совет директоров OpenAI решит, что их разработки вплотную подошли к созданию сильного ИИ (AGI). И с этого момента все договоренности могут быть пересмотрены).
• Сэму – чтобы успеть сорвать банк в игре, которую он еще 7 лет назад описал так:
«Скорее всего, ИИ приведет к концу света, но до того появятся великие компании».
И Сэму, и Microsoft требовалось одно и то же - немедленный перехват управления направлением разработок OpenAI в свои руки. И сделать это можно было, лишь освободившись от решающего влияния в совете директоров OpenAI сторонников «осторожного создания AGI на благо всему человечеству». Что и было сделано.
Однако, точного ответа, что за прорыв совершили исследователи OpenAI, мы пока не имеем.
Все утечки из среды разработчиков OpenAI упоминают некий «секретный «проект Q*» [1] по радикальному повышению производительности лингвоботов на основе LLM.
Известно, что эта работа велась, как минимум, по трем направлениям:
1. Совершенствование RAG (Retrieval Augmented Generation) – сначала поиск релевантной информации во внешней базе в целях формирования из нее оптимального промпта, и лишь затем обращение к системе за ответом). Кое-какие результаты такого совершенствования были недавно показаны на OpenAI DevDAy. И они впечатляют [2].
2. Комбинация Q-обучения и алгоритма A*.
Алгоритм A* — это способ нахождения кратчайшего пути от одной точки до другой на карте или в сети. Представьте, что вы ищете самый быстрый маршрут из одного города в другой. Алгоритм A* проверяет разные пути, оценивая, насколько они близки к цели и сколько еще предстоит пройти. Он выбирает путь, который, по его оценке, будет самым коротким. Этот алгоритм очень эффективен и используется во многих областях, например, в компьютерных играх для нахождения пути персонажей или в GPS-навигаторах.
Q-обучение — это метод обучения без учителя в области искусственного интеллекта, который используется для обучения программ принимать решения. Представьте, что вы учите робота находить выход из лабиринта. Вместо того чтобы прямо говорить ему, куда идти, вы оцениваете его действия, давая баллы за хорошие шаги и снимая за плохие. Со временем робот учится выбирать пути, приводящие к большему количеству баллов. Это и есть Q-обучение — метод, помогающий программам самостоятельно учиться на своем опыте.
3. Поиск траектории токена по дереву Монте-Карло в стиле AlphaGo. Это особенно имеет смысл в таких областях, как программирование и математика, где есть простой способ определить правильность (что может объяснять утечки о прорывном улучшении в проекте Q* способностей решения математических задач)
#ИИ #AGI
1 https://disk.yandex.ru/i/9zzI_STuNTJ6kA
2 https://habrastorage.org/r/w1560/getpro/habr/upload_files/f9a/994/b06/f9a994b060188b43ba61061270213bca.png
Яндекс Диск
Проект Q.JPG
Посмотреть и скачать с Яндекс Диска
Google DeepMind сумела запустить когнитивную эволюцию роботов
Это может открыть путь к гибридному обществу людей и андроидов
1я ноябрьская ИИ-революция (Революция ChatGPT) началась год назад - в ноябре 2022. Она ознаменовала появление на планете нового носителя высшего интеллекта — цифрового ИИ, способного достичь (и, возможно, превзойти) людей в любых видах интеллектуальной деятельности.
Но не смотря на сравнимый с людьми уровень, этот новый носитель высшего интеллекта оказался абсолютно нечеловекоподобным.
Он принадлежит к классу генеративного ИИ больших языковых моделей, не умеющих (и в принципе не способных) не то что мечтать об электроовцах, но и просто мыслить и познавать мир, как это делают люди. И потому, даже превзойдя по уровню людей, он так и останется для человечества «чужим» — иным типом интеллекта, столь же непостижимым для понимания, как интеллект квинтян из романа Станислава Лема «Фиаско».
Причина нечеловекоподобия генеративных ИИ больших языковых моделей заключается в их кардинально иной природе.
✔️ Наш интеллект – результат миллионов лет когнитивной эволюции биологических интеллектуальных агентов, позволившей людям из животных превратиться в сверхразумные существа, построивших на Земле цивилизацию планетарного уровня, начавшую освоение космоса.
✔️ ИИ больших языковых моделей – продукт машинного обучения компьютерных программ на колоссальных объемах цифровых данных.
Преодолеть это принципиальное отличие можно, если найти ключ к запуску когнитивной эволюции ИИ.
И этот ключ предложен в ноябре 2023 инициаторами 2й ноябрьской ИИ-революции (Революции когнитивной эволюции ИИ) в опубликованном журналом Nature исследовании Google DeepMind.
• Движком когнитивной эволюции ИИ авторы предлагают сделать (как и у людей) социальное обучение — когда один интеллектуальный агент (человек, животное или ИИ) приобретает навыки и знания у другого путем копирования (жизненно важного для процесса развития интеллектуальных агентов).
• Ища вдохновение в социальном обучении людей, исследователи стремились найти способ, позволяющий агентам ИИ учиться у других агентов ИИ и у людей с эффективностью, сравнимой с человеческим социальным обучением.
• Команде исследователей удалось использовать обучение с подкреплением для обучения агента ИИ, способного идентифицировать новых для себя экспертов (среди других агентов ИИ и людей), имитировать их поведение и запоминать полученные знания в течение всего нескольких минут.
"Наши агенты успешно имитируют человека в реальном времени в новых контекстах, не используя никаких предварительно собранных людьми данных. Мы определили удивительно простой набор ингредиентов, достаточный для культурной передачи, и разработали эволюционную методологию для ее систематической оценки. Это открывает путь к тому, чтобы культурная эволюция играла алгоритмическую роль в развитии искусственного общего интеллекта", - говорится в исследовании.
Запуск когнитивной эволюции ИИ позволит не только создать «человекоподобный ИИ» у роботов – андроидов, но и разрешить при их создании Парадокс Моравека (высококогнитивные процессы требуют относительно мало вычислений, а низкоуровневые сенсомоторные операции требуют огромных вычислительных ресурсов) и Сверхзадачу Минского (произвести обратную разработку навыков, получаемых в процессе передачи неявных знаний - невербализованных и, часто, бессознательных)
Т.о. не будет большим преувеличением сказать, что 2я ноябрьская революция ИИ открывает путь к гибридному обществу людей и андроидов, – многократно описанному в фантастических романах, но до сих пор остававшемуся практически нереализуемым на ближнем временном горизонте.
Подробный разбор вопросов когнитивной эволюции путем копирования, а также революционного подхода к ее запуску, предложенного Google DeepMind, см. в моем новом лонгриде (еще 10 мин чтения):
- на Medium https://bit.ly/486AfEN
- на Дзене https://clck.ru/36wWQc
#ИИ #Интеллект #Разум #Эволюция #Культура #АлгокогнитивнаяКультура #Роботы
Это может открыть путь к гибридному обществу людей и андроидов
1я ноябрьская ИИ-революция (Революция ChatGPT) началась год назад - в ноябре 2022. Она ознаменовала появление на планете нового носителя высшего интеллекта — цифрового ИИ, способного достичь (и, возможно, превзойти) людей в любых видах интеллектуальной деятельности.
Но не смотря на сравнимый с людьми уровень, этот новый носитель высшего интеллекта оказался абсолютно нечеловекоподобным.
Он принадлежит к классу генеративного ИИ больших языковых моделей, не умеющих (и в принципе не способных) не то что мечтать об электроовцах, но и просто мыслить и познавать мир, как это делают люди. И потому, даже превзойдя по уровню людей, он так и останется для человечества «чужим» — иным типом интеллекта, столь же непостижимым для понимания, как интеллект квинтян из романа Станислава Лема «Фиаско».
Причина нечеловекоподобия генеративных ИИ больших языковых моделей заключается в их кардинально иной природе.
✔️ Наш интеллект – результат миллионов лет когнитивной эволюции биологических интеллектуальных агентов, позволившей людям из животных превратиться в сверхразумные существа, построивших на Земле цивилизацию планетарного уровня, начавшую освоение космоса.
✔️ ИИ больших языковых моделей – продукт машинного обучения компьютерных программ на колоссальных объемах цифровых данных.
Преодолеть это принципиальное отличие можно, если найти ключ к запуску когнитивной эволюции ИИ.
И этот ключ предложен в ноябре 2023 инициаторами 2й ноябрьской ИИ-революции (Революции когнитивной эволюции ИИ) в опубликованном журналом Nature исследовании Google DeepMind.
• Движком когнитивной эволюции ИИ авторы предлагают сделать (как и у людей) социальное обучение — когда один интеллектуальный агент (человек, животное или ИИ) приобретает навыки и знания у другого путем копирования (жизненно важного для процесса развития интеллектуальных агентов).
• Ища вдохновение в социальном обучении людей, исследователи стремились найти способ, позволяющий агентам ИИ учиться у других агентов ИИ и у людей с эффективностью, сравнимой с человеческим социальным обучением.
• Команде исследователей удалось использовать обучение с подкреплением для обучения агента ИИ, способного идентифицировать новых для себя экспертов (среди других агентов ИИ и людей), имитировать их поведение и запоминать полученные знания в течение всего нескольких минут.
"Наши агенты успешно имитируют человека в реальном времени в новых контекстах, не используя никаких предварительно собранных людьми данных. Мы определили удивительно простой набор ингредиентов, достаточный для культурной передачи, и разработали эволюционную методологию для ее систематической оценки. Это открывает путь к тому, чтобы культурная эволюция играла алгоритмическую роль в развитии искусственного общего интеллекта", - говорится в исследовании.
Запуск когнитивной эволюции ИИ позволит не только создать «человекоподобный ИИ» у роботов – андроидов, но и разрешить при их создании Парадокс Моравека (высококогнитивные процессы требуют относительно мало вычислений, а низкоуровневые сенсомоторные операции требуют огромных вычислительных ресурсов) и Сверхзадачу Минского (произвести обратную разработку навыков, получаемых в процессе передачи неявных знаний - невербализованных и, часто, бессознательных)
Т.о. не будет большим преувеличением сказать, что 2я ноябрьская революция ИИ открывает путь к гибридному обществу людей и андроидов, – многократно описанному в фантастических романах, но до сих пор остававшемуся практически нереализуемым на ближнем временном горизонте.
Подробный разбор вопросов когнитивной эволюции путем копирования, а также революционного подхода к ее запуску, предложенного Google DeepMind, см. в моем новом лонгриде (еще 10 мин чтения):
- на Medium https://bit.ly/486AfEN
- на Дзене https://clck.ru/36wWQc
#ИИ #Интеллект #Разум #Эволюция #Культура #АлгокогнитивнаяКультура #Роботы
Medium
Google DeepMind сумела запустить когнитивную эволюцию роботов
Это может открыть путь к гибридному обществу людей и андроидов
ИИ вскрыл “пространство открытий” человечества, войдя туда через заднюю дверь.
Столь эпохальный прорыв Google DeepMind авторы от греха опасаются называть своим именем.
FunSearch от Google DeepMind, - скромно представленная создателями, как новый эволюционный методический инструмент решения математических задач, с ходу в карьер сделал математическое открытие, решив центральную задачу экстремальной комбинаторики – задачу о наборе предельных значений.
Это несомненная сенсация, поскольку:
• это 2-е в истории человечества математическое открытие, сделанное машиной (1-е открытие также сделал DeepMind, создав в 2022 AlphaTensor (агент в стиле AlphaZero), который обнаружил превосходящие человеческие алгоритмы для выполнения таких задач, как умножение матриц)
• это 1-е в истории человечества математическое открытие, сделанное большой языковой моделью (LLM) – главным кандидатом на превращение в СуперИИ.
https://deepmind.google/discover/blog/funsearch-making-new-discoveries-in-mathematical-sciences-using-large-language-models/?utm_source=twitter&utm_medium=social
Однако, если называть вещи своими именами, - это не «еще одна сенсация», а суперсенсация, открывающая новую эру в развитии ИИ на основе LLM - эволюционный метод FunSearch позволяет расширять границы человеческих знаний.
✔️ Этот метод позволяет ИИ на основе LLM выходить за пределы знаний, предоставленных модели людьми на стадии ее обучения (и воплощенные, в результате обучения, в миллиарды и триллионы корреляций между словами).
✔️ Образно говоря, этот метод открывает для ИИ на основе LLM «дверь в пространство знаний», еще не познанных людьми.
✔️ Но это не обычная «дверь», через которую в это пространство попадают люди, совершая открытия. Это, своего рода, «задняя дверь», - не доступная людям, но вполне подходящая для LLM.
Хитрость «задней двери в пространство еще не познанных людьми знаний» в том, что, подобно всем другим интеллектуальным операциям LLM, эта операция нечеловеческая (не доступная людям в силу своих масштабов).
1. сначала предварительно обученная LLM генерирует первоначальные творческие решения в виде компьютерного кода;
2. потом вступает в дела «автоматический оценщик», задача которого отсеять из множества первоначальных решений любые подозрения на конфабуляции модели (кстати, использование применительно к LLM термина «галлюцинация» - это сильное огрубление смысла, ведущее к его ограниченной трактовке; верный термин – именно конфабуляция), т.е. возникновение ложного опыта из-за появления фрагментов памяти с описанием того, чего, на самом деле, не было в реальных данных обучения);
3. в результате объединения 1 и 2, первоначальные решения эволюционным путем «превращаются» в новые знания, т.е., по сути, происходит «автоматизация открытий», о которой вот уже несколько десятков лет мечтают разработчики ИИ - вычисления превращаются а оригинальные инсайты.
В заключение немного остужу восторги.
Это вовсе не преувеличение, что FunSearch знаменует новую эру в развитии ИИ на основе LLM, позволяя им проникать в «пространство открытий» человечества.
Однако, FunSearch позволяет ИИ попасть лишь в весьма небольшую часть этого пространства – в пространство решений задач, для которых легко написать код, оценивающий возможные решения.
Ибо многие из наиболее важных проблем — это проблемы, которые мы не знаем, как правильно оценить успех в их решении. Для большинства таких проблем, знай мы, как количественно оценить успех, уж решения то мы уж как-нибудь придумали бы.... (подробней про это я написал целый суперлонгрид «Ловушка Гудхарта» для ИИ https://t.me/theworldisnoteasy/1830.
А для того, чтоб сравниться с людьми в полном освоении «пространства открытий», без интуитивной прозорливости ИИ не обойтись (впрочем, и про это я уже писал 😊 https://t.me/theworldisnoteasy/1650).
#ИИ #AGI #Вызовы21века #инновации #серендипность
Столь эпохальный прорыв Google DeepMind авторы от греха опасаются называть своим именем.
FunSearch от Google DeepMind, - скромно представленная создателями, как новый эволюционный методический инструмент решения математических задач, с ходу в карьер сделал математическое открытие, решив центральную задачу экстремальной комбинаторики – задачу о наборе предельных значений.
Это несомненная сенсация, поскольку:
• это 2-е в истории человечества математическое открытие, сделанное машиной (1-е открытие также сделал DeepMind, создав в 2022 AlphaTensor (агент в стиле AlphaZero), который обнаружил превосходящие человеческие алгоритмы для выполнения таких задач, как умножение матриц)
• это 1-е в истории человечества математическое открытие, сделанное большой языковой моделью (LLM) – главным кандидатом на превращение в СуперИИ.
https://deepmind.google/discover/blog/funsearch-making-new-discoveries-in-mathematical-sciences-using-large-language-models/?utm_source=twitter&utm_medium=social
Однако, если называть вещи своими именами, - это не «еще одна сенсация», а суперсенсация, открывающая новую эру в развитии ИИ на основе LLM - эволюционный метод FunSearch позволяет расширять границы человеческих знаний.
✔️ Этот метод позволяет ИИ на основе LLM выходить за пределы знаний, предоставленных модели людьми на стадии ее обучения (и воплощенные, в результате обучения, в миллиарды и триллионы корреляций между словами).
✔️ Образно говоря, этот метод открывает для ИИ на основе LLM «дверь в пространство знаний», еще не познанных людьми.
✔️ Но это не обычная «дверь», через которую в это пространство попадают люди, совершая открытия. Это, своего рода, «задняя дверь», - не доступная людям, но вполне подходящая для LLM.
Хитрость «задней двери в пространство еще не познанных людьми знаний» в том, что, подобно всем другим интеллектуальным операциям LLM, эта операция нечеловеческая (не доступная людям в силу своих масштабов).
1. сначала предварительно обученная LLM генерирует первоначальные творческие решения в виде компьютерного кода;
2. потом вступает в дела «автоматический оценщик», задача которого отсеять из множества первоначальных решений любые подозрения на конфабуляции модели (кстати, использование применительно к LLM термина «галлюцинация» - это сильное огрубление смысла, ведущее к его ограниченной трактовке; верный термин – именно конфабуляция), т.е. возникновение ложного опыта из-за появления фрагментов памяти с описанием того, чего, на самом деле, не было в реальных данных обучения);
3. в результате объединения 1 и 2, первоначальные решения эволюционным путем «превращаются» в новые знания, т.е., по сути, происходит «автоматизация открытий», о которой вот уже несколько десятков лет мечтают разработчики ИИ - вычисления превращаются а оригинальные инсайты.
В заключение немного остужу восторги.
Это вовсе не преувеличение, что FunSearch знаменует новую эру в развитии ИИ на основе LLM, позволяя им проникать в «пространство открытий» человечества.
Однако, FunSearch позволяет ИИ попасть лишь в весьма небольшую часть этого пространства – в пространство решений задач, для которых легко написать код, оценивающий возможные решения.
Ибо многие из наиболее важных проблем — это проблемы, которые мы не знаем, как правильно оценить успех в их решении. Для большинства таких проблем, знай мы, как количественно оценить успех, уж решения то мы уж как-нибудь придумали бы.... (подробней про это я написал целый суперлонгрид «Ловушка Гудхарта» для ИИ https://t.me/theworldisnoteasy/1830.
А для того, чтоб сравниться с людьми в полном освоении «пространства открытий», без интуитивной прозорливости ИИ не обойтись (впрочем, и про это я уже писал 😊 https://t.me/theworldisnoteasy/1650).
#ИИ #AGI #Вызовы21века #инновации #серендипность
Google DeepMind
FunSearch: Making new discoveries in mathematical sciences using Large Language Models
We introduce FunSearch, a method for searching for “functions” written in computer code, and find new solutions in mathematics and computer science. FunSearch works by pairing a pre-trained LLM,...
Помимо “процессора” и “памяти”, в мозге людей есть “машина времени”.
Это альтернативная когнитивная сущность принципиально отличает нас от ИИ.
Опубликованное в Nature Neuroscience исследование Йельского университета – это холодный душ для исследователей генеративного ИИ, полагающихся на его, хотя бы частичный, антропоморфизм (мол, это что-то типа самолета, похожего на птицу, но летающего с неподвижными крыльями).
Ведь можно бесконечно спорить, понимает ли большая языковая модель или нет, мыслит ли она или нет, способна ли на волевое действие или нет …, ибо все эти понятия расплывчаты и эфемерны. И пока нет даже гипотез, как эти феномены инструментально анализировать.
И тут вдруг исследователи из Йеля выкатывают инструментальное исследования (фМРТ + распознавание паттернов с помощью машинного обучения), из которого следует, что:
• травматические воспоминания людей – это вовсе не их память, типа обычных веселых, грустных или нейтральных воспоминаний о прошлом опыте людей, как-то и где-то записанных в мозге, подобно ячейкам памяти компьютеров, откуда их можно считывать по требованию;
• травматические воспоминания об ужасах войны, пережитом насилии и прочих корежущих душу кошмарах – это натуральные флешбэки, заставляющие не только сознание человека, но и все его тело снова переноситься (как бы на машине времени) в прошлое и заново переживать всю ту же душевную и физическую боль;
• отсюда все страшные последствия ПТСР - панические атаки, агрессивность, уход в себя, деформация личности, - возникающие у страдающих ПТСР в результате все повторяющихся и повторяющихся душевных и физических мучений, от которых нет спасения (как от платка, что снова и снова подавали Фриде, пока ее не избавила от этого ПТСР Маргарита);
• в отличие от памяти, у этих флешбэков и механизм иной, и способ обработки: память обрабатывается в мозге гиппокампом, а травматические флешбэки - задней поясной извилиной (областью мозга, обычно связанной с обработкой мыслей); порождаемые памятью и травматическими флешбэками паттерны мозговой активности абсолютно разные.
Наличие этой своеобразной «машины времени» в мозге людей, заставляющей всю его отелесненную сущность (а не только то, что мы называем «душой») заново и заново переносить весь спектр когда-то пережитых мучений, - это какой-то садистический трюк, придуманный эволюцией.
Зачем ей нужен этот садизм, науке еще предстоит объяснить.
Однако, наличие у людей альтернативной памяти когнитивной сущности можно считать установленным. И это убедительный аргумент против попыток антропоморфизации когнитивных механизмов ИИ.
• Спектр когнитивных отличий ИИ от людей широк и, видимо, будет еще расширяться по результатам новых исследований.
• Но и единственного когнитивного подобия – владения нашим языком, - для ИИ будет, скорее всего, достаточно для достижения интеллектуально превосходства над людьми в широчайшем перечне областей.
Ибо, как писал Л.Витгенштейн, “язык - это «форма жизни»”… общая для людей и ИИ, - добавлю я от себя.
Подробней:
- популярно https://www.livescience.com/health/neuroscience/traumatic-memories-are-processed-differently-in-ptsd
- научно https://www.nature.com/articles/s41593-023-01483-5
#ИИ #Язык #LLM
Это альтернативная когнитивная сущность принципиально отличает нас от ИИ.
Опубликованное в Nature Neuroscience исследование Йельского университета – это холодный душ для исследователей генеративного ИИ, полагающихся на его, хотя бы частичный, антропоморфизм (мол, это что-то типа самолета, похожего на птицу, но летающего с неподвижными крыльями).
Ведь можно бесконечно спорить, понимает ли большая языковая модель или нет, мыслит ли она или нет, способна ли на волевое действие или нет …, ибо все эти понятия расплывчаты и эфемерны. И пока нет даже гипотез, как эти феномены инструментально анализировать.
И тут вдруг исследователи из Йеля выкатывают инструментальное исследования (фМРТ + распознавание паттернов с помощью машинного обучения), из которого следует, что:
• травматические воспоминания людей – это вовсе не их память, типа обычных веселых, грустных или нейтральных воспоминаний о прошлом опыте людей, как-то и где-то записанных в мозге, подобно ячейкам памяти компьютеров, откуда их можно считывать по требованию;
• травматические воспоминания об ужасах войны, пережитом насилии и прочих корежущих душу кошмарах – это натуральные флешбэки, заставляющие не только сознание человека, но и все его тело снова переноситься (как бы на машине времени) в прошлое и заново переживать всю ту же душевную и физическую боль;
• отсюда все страшные последствия ПТСР - панические атаки, агрессивность, уход в себя, деформация личности, - возникающие у страдающих ПТСР в результате все повторяющихся и повторяющихся душевных и физических мучений, от которых нет спасения (как от платка, что снова и снова подавали Фриде, пока ее не избавила от этого ПТСР Маргарита);
• в отличие от памяти, у этих флешбэков и механизм иной, и способ обработки: память обрабатывается в мозге гиппокампом, а травматические флешбэки - задней поясной извилиной (областью мозга, обычно связанной с обработкой мыслей); порождаемые памятью и травматическими флешбэками паттерны мозговой активности абсолютно разные.
Наличие этой своеобразной «машины времени» в мозге людей, заставляющей всю его отелесненную сущность (а не только то, что мы называем «душой») заново и заново переносить весь спектр когда-то пережитых мучений, - это какой-то садистический трюк, придуманный эволюцией.
Зачем ей нужен этот садизм, науке еще предстоит объяснить.
Однако, наличие у людей альтернативной памяти когнитивной сущности можно считать установленным. И это убедительный аргумент против попыток антропоморфизации когнитивных механизмов ИИ.
• Спектр когнитивных отличий ИИ от людей широк и, видимо, будет еще расширяться по результатам новых исследований.
• Но и единственного когнитивного подобия – владения нашим языком, - для ИИ будет, скорее всего, достаточно для достижения интеллектуально превосходства над людьми в широчайшем перечне областей.
Ибо, как писал Л.Витгенштейн, “язык - это «форма жизни»”… общая для людей и ИИ, - добавлю я от себя.
Подробней:
- популярно https://www.livescience.com/health/neuroscience/traumatic-memories-are-processed-differently-in-ptsd
- научно https://www.nature.com/articles/s41593-023-01483-5
#ИИ #Язык #LLM
livescience.com
Traumatic memories are processed differently in PTSD
People with PTSD feel like they're reliving past experiences in the present. This may be tied to how the brain processes memories of those experiences.
1-й из Цукербринов хочет стать Гольденштерном.
На этом рисунке обновленный вчера «Индекс вычислительной вооруженности» мировых лидеров главной технологической гонки 21 века https://www.stateof.ai/compute
• вверху – число вычислительных кластеров на основе графических процессоров A100 от NVIDIA (лучшие в мире процессоры для высокопроизводительных вычислений на задачах класса ИИ)
• внизу - число вычислительных кластеров на основе графических процессоров H100 от NVIDIA (лучшие в мире процессоры для расчетов графики задач типа «метавселенной»)
Абсолютное первенство компании Цукерберга заставляет серьезно относиться к объявленным им планам https://bit.ly/3Sxt2Hz своего превращения из «одного из цукербринов» в единственного и несравненного «Гольденштерна» (полуолигарха-полубога, которому на Земле никто не указ).
#ИИ #Metaverse
На этом рисунке обновленный вчера «Индекс вычислительной вооруженности» мировых лидеров главной технологической гонки 21 века https://www.stateof.ai/compute
• вверху – число вычислительных кластеров на основе графических процессоров A100 от NVIDIA (лучшие в мире процессоры для высокопроизводительных вычислений на задачах класса ИИ)
• внизу - число вычислительных кластеров на основе графических процессоров H100 от NVIDIA (лучшие в мире процессоры для расчетов графики задач типа «метавселенной»)
Абсолютное первенство компании Цукерберга заставляет серьезно относиться к объявленным им планам https://bit.ly/3Sxt2Hz своего превращения из «одного из цукербринов» в единственного и несравненного «Гольденштерна» (полуолигарха-полубога, которому на Земле никто не указ).
#ИИ #Metaverse
Быть ли ядерной войне, - все больше зависит от алгоритмов.
«Принцип Златовласки» перестает работать в практике военных эскалаций.
ИИ сильно увеличивает шансы человечества самоистребиться путем ядерной войны.
Тогда как кибер-операции могут оказаться наиболее эффективным путем деэскалации военных конфликтов.
Согласно новому отчету Bloomberg, американские военные активизировали использование инструментов ИИ после атаки ХАМАС на Израиль 7 октября. Алгоритмы машинного обучения помогли Пентагону определить цели для более чем 85 воздушных ударов на Ближнем Востоке в этом месяце. Однако, по словам американских военных, люди в обязательном порядке проверяют целевые рекомендации систем ИИ. И окончательные решения о способах и времени нанесения ударов остаются исключительно за людьми [1].
Еще более многообещающим видится применение самых современных IT-технологий не только на оперативно-тактическом, но и на стратегическом уровне, вершиной которого является выбор оптимальной стратегии эскалации конфликтов.
Как пишут во 2й части отчета RAND «Managing Escalation» [2], существующий западный опыт войн основан на универсальном подходе к выбору стратегии эскалации конфликтов, называемом «Принцип Златовласки» (Goldilocks Challenge). Такое название отсылает к сказке «Три медведя», в которой девушка по имени Златовласка пробует три разные тарелки каши и выбирает ту, которая не слишком горячая и не слишком холодная, а в самый раз.
Концепция выбора «золотой середины» (“Sweet Spot”) интуитивно понимаема и применима к широкому кругу дисциплин. В области же выбора стратегии эскалации конфликтов она заключается в поиске точек для ударов или давления на соперника. Точки, находящиеся в «золотой середине», должны быть:
• достаточно ценны или чувствительны для соперника, чтобы ваши удары по ним склоняли его к нужным вам решениям или действиям;
• но все же не настолько ценны или чувствительны, чтобы ваши удары или давление на них спровоцировало соперника на неприемлемую для вас эскалацию (включая потенциальное использование ядерного оружия).
Происходящий колоссальный прогресс IT–технологий существенно затрудняет для военных и политиков использование старых привычных подходов к разруливанию и эскалации конфликтов (о чем пишут в 1й (закрытой) части этого отчета [2]).
Выражается это в следующем:
1. Границы «золотой середины» становятся «текучими» (постоянно меняются в непредсказуемом направлении).
2. В отдельных точках внутри области «золой середины» вдруг возникают «кротовые норы» - мгновенные переходы в зону неприемлемой эскалации (включая потенциальное использование ядерного оружия).
3. Временные рамки существования конкретной «золотой середины» становятся непредсказуемы (вот она была, а вот уже и нет).
Другим удивительным следствием усложнения IT–технологий, используемых при выборе и реализации стратегий эскалации конфликтов, является значительная непредсказуемость оказываемого ими влияния и на процесс выбора, и на результаты реализации стратегий.
Вот два наиболее ярких характерных примера.
✔️ Использование широкого спектра кибер-операций (через кибер-пространство наносящих противнику военный, материальный, информационный, политический, социальный или психологический ущерб) зачастую не только не способствует эскалации военных конфликтов, но и стабилизируют ситуацию, предоставляя возможности избежать дорогостоящих, затяжных конфликтов [3]
✔️ Использование автономных ИИ-агентов на основе генеративных моделей (в частности, GPT-4, GPT-3.5, Claude 2, Llama-2 (70B)) резко увеличивает шансы эскалации конфликтов (включая использование ядерного оружия в каждом 3ем конфликте), демонстрируя при этом труднопредсказуемые формы и паттерны эскалации конфликтов [4].
#Война #ИИ
0 https://telegra.ph/file/be8b1707bc07d2ce05652.jpg
1 https://bit.ly/3wA0dmz
2 https://bit.ly/4bQ9erM
3 https://bit.ly/49QbMUV
4 https://arxiv.org/abs/2401.03408
«Принцип Златовласки» перестает работать в практике военных эскалаций.
ИИ сильно увеличивает шансы человечества самоистребиться путем ядерной войны.
Тогда как кибер-операции могут оказаться наиболее эффективным путем деэскалации военных конфликтов.
Согласно новому отчету Bloomberg, американские военные активизировали использование инструментов ИИ после атаки ХАМАС на Израиль 7 октября. Алгоритмы машинного обучения помогли Пентагону определить цели для более чем 85 воздушных ударов на Ближнем Востоке в этом месяце. Однако, по словам американских военных, люди в обязательном порядке проверяют целевые рекомендации систем ИИ. И окончательные решения о способах и времени нанесения ударов остаются исключительно за людьми [1].
Еще более многообещающим видится применение самых современных IT-технологий не только на оперативно-тактическом, но и на стратегическом уровне, вершиной которого является выбор оптимальной стратегии эскалации конфликтов.
Как пишут во 2й части отчета RAND «Managing Escalation» [2], существующий западный опыт войн основан на универсальном подходе к выбору стратегии эскалации конфликтов, называемом «Принцип Златовласки» (Goldilocks Challenge). Такое название отсылает к сказке «Три медведя», в которой девушка по имени Златовласка пробует три разные тарелки каши и выбирает ту, которая не слишком горячая и не слишком холодная, а в самый раз.
Концепция выбора «золотой середины» (“Sweet Spot”) интуитивно понимаема и применима к широкому кругу дисциплин. В области же выбора стратегии эскалации конфликтов она заключается в поиске точек для ударов или давления на соперника. Точки, находящиеся в «золотой середине», должны быть:
• достаточно ценны или чувствительны для соперника, чтобы ваши удары по ним склоняли его к нужным вам решениям или действиям;
• но все же не настолько ценны или чувствительны, чтобы ваши удары или давление на них спровоцировало соперника на неприемлемую для вас эскалацию (включая потенциальное использование ядерного оружия).
Происходящий колоссальный прогресс IT–технологий существенно затрудняет для военных и политиков использование старых привычных подходов к разруливанию и эскалации конфликтов (о чем пишут в 1й (закрытой) части этого отчета [2]).
Выражается это в следующем:
1. Границы «золотой середины» становятся «текучими» (постоянно меняются в непредсказуемом направлении).
2. В отдельных точках внутри области «золой середины» вдруг возникают «кротовые норы» - мгновенные переходы в зону неприемлемой эскалации (включая потенциальное использование ядерного оружия).
3. Временные рамки существования конкретной «золотой середины» становятся непредсказуемы (вот она была, а вот уже и нет).
Другим удивительным следствием усложнения IT–технологий, используемых при выборе и реализации стратегий эскалации конфликтов, является значительная непредсказуемость оказываемого ими влияния и на процесс выбора, и на результаты реализации стратегий.
Вот два наиболее ярких характерных примера.
✔️ Использование широкого спектра кибер-операций (через кибер-пространство наносящих противнику военный, материальный, информационный, политический, социальный или психологический ущерб) зачастую не только не способствует эскалации военных конфликтов, но и стабилизируют ситуацию, предоставляя возможности избежать дорогостоящих, затяжных конфликтов [3]
✔️ Использование автономных ИИ-агентов на основе генеративных моделей (в частности, GPT-4, GPT-3.5, Claude 2, Llama-2 (70B)) резко увеличивает шансы эскалации конфликтов (включая использование ядерного оружия в каждом 3ем конфликте), демонстрируя при этом труднопредсказуемые формы и паттерны эскалации конфликтов [4].
#Война #ИИ
0 https://telegra.ph/file/be8b1707bc07d2ce05652.jpg
1 https://bit.ly/3wA0dmz
2 https://bit.ly/4bQ9erM
3 https://bit.ly/49QbMUV
4 https://arxiv.org/abs/2401.03408
Очень скоро война превратится в 5=ю казнь апокалипсиса.
Против умной «саранчи в железных нагрудниках» все бессильно.
«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)
По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.
В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.
В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].
Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.
«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».
Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.
Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.
Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.
Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»
И оба мозга будут электронные, - добавлю я от себя.
P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]
#БПЛА #Война #ИИ #Роботы
1 https://www.wsj.com/tech/drone-swarms-are-about-to-change-the-balance-of-military-power-e091aa6f
2 https://www.penguinrandomhouse.com/books/696977/2054-by-elliot-ackerman-and-admiral-james-stavridis/
3 https://t.me/theworldisnoteasy/454
4 https://t.me/theworldisnoteasy/654
Против умной «саранчи в железных нагрудниках» все бессильно.
«И грудь у неё была, словно железная броня, а шум её крыльев был подобен грохоту множества колесниц, влекомых скакунами, рвущимися в бой.» Откровение 9:7—9)
По Библии, пятой казнью апокалипсиса будет «саранча в железных нагрудниках», против которой никто и ничто не устоит.
В технологическом переложении 20-го века непобедимость роя «железной саранчи» прекрасно описал Станислав Лем в романе «Непобедимый». Там даже самый мощный робот космического корабля со знаковым именем «Непобедимый», вооружённый системой силовых полей и сферическим излучателем антиматерии, оказался бессилен перед миллиардным роем крохотных летающих роботов.
В современном переложении об этом пишут Эллиот Акерман и адмирал Джеймс Ставридис:
• в формате эссе «Рои беспилотников изменят баланс военной мощи» [1]
• в формате романа «2054», в котором они размышляют о многих аспектах и роли ИИ в будущих военных конфликтах [2].
Ключевая идея этих авторов проста и безотбойна – сочетание роя дронов с ИИ кардинально меняет ход боя.
«По своей сути ИИ — это технология, основанная на распознавании образов. В военной теории взаимодействие между распознаванием образов и принятием решений известно как цикл НОРД — наблюдать, ориентироваться, решать, действовать. Теория петли (цикла) НОРД, разработанная в 1950-х годах летчиком-истребителем ВВС Джоном Бойдом, утверждает, что сторона в конфликте, которая сможет быстрее пройти через петлю НОРД, будет обладать решающим преимуществом на поле боя».
Для максимально быстрого прохождения петли НОРД нужно автономное и адаптивное оружие.
• Промышленные роботы являются примером автономных, но неадаптивных машин: они неоднократно выполняют одну и ту же последовательность действий.
• И наоборот, беспилотные дроны являются примером адаптивных, но неавтономных машин: они демонстрируют адаптивные возможности своих удаленных людей-операторов.
Рой дронов столь же адаптивен, но неавтономен, как и единственный дрон. Но для дрона-одиночки эта проблема решается его связкой с оператором (или примитивизацией функций). А для роя дронов такого числа операторов не напасешься (и функции упрощать не хочется). Но невозможно запустить тысячи автономных дронов, пилотируемых отдельными людьми. А вычислительные возможности ИИ делают такие рои возможными.
Если роем будет управлять ИИ, проблема адаптивности и автономности роя более не существует. Связка роя и ИИ станет самым быстрым исполнителем прохождения петли НОРД.
Акерман и Ставридис пишут:
«Это изменит ведение войны. Гонка будет вестись не за лучшие платформы, а за лучший ИИ, управляющий этими платформами. Это война циклов НОРД, рой против роя. Победит та сторона, которая разработает систему принятия решений на основе ИИ, способную опередить противника. Война движется к конфликту "мозг против мозга"»
И оба мозга будут электронные, - добавлю я от себя.
P.S. В одном Аккерман и Ставридис, имхо, ошибаются:
• Рои дронов с ИИ – это лишь ближняя перспектива (т.н. ПЖРы – полуживые роботы [3])
• В 2054, про который пишется в романе, ПЖР уже уступят место еще более интеллектуально продвинутому «жидкому мозгу» [4]
#БПЛА #Война #ИИ #Роботы
1 https://www.wsj.com/tech/drone-swarms-are-about-to-change-the-balance-of-military-power-e091aa6f
2 https://www.penguinrandomhouse.com/books/696977/2054-by-elliot-ackerman-and-admiral-james-stavridis/
3 https://t.me/theworldisnoteasy/454
4 https://t.me/theworldisnoteasy/654
WSJ
Essay | Drone Swarms Are About to Change the Balance of Military Power
On today’s battlefields, drones are a manageable threat. When hundreds of them can be harnessed to AI technology, they will become a tool of conquest.
У людей спектр взглядов по вопросам экономики и свобод широк и разнообразен: от либеральных левых Ганди и Хомского до авторитарных правых Пиночета и Тэтчер, от авторитарных левых Сталина и Мао до либеральных правых Хайека и Айн Рэнд.
• Как получилось, что у другого носителя высшего интеллекта на Земле – ИИ-чатботов на основе больших языковых моделей (типа ChatGPT), – все сложилось иначе?
• Почему все ИИ-чатботы – либеральные левые, со взглядами где-то в области между Кропоткиным и Хомским и между Берни Сандерсом и Нельсоном Мандела?
• И что теперь из этого последует для человечества?
Размышления над этими тремя вопросами сподвигли меня написать сей лонгрид. Но прежде, чем мы рассмотрим текущее состояние дел на март 2024, нам нужно вернуться на год раньше, когда новый техноинспирированный тренд только проявился в инфосфере человечества.
Год назад мною был опубликован прогноз о неотвратимости полевения мира под влиянием левых пристрастий ИИ-чатботов. В пользу этого прогноза тогда имелись лишь данные эксплуатации единственного ИИ-чатбота (ChatGPT) всего лишь за три месяца с начала его открытого запуска.
Спустя год можно расставлять точки над i: к сожалению, прогноз оказался верным.
Ибо теперь в его пользу говорят данные мониторинга предубеждений 23-х известных западных ИИ-чатботов, эксплуатируемых от нескольких месяцев до более года.
Этих данных теперь достаточно, чтобы:
• познакомиться с интереснейшей статистикой и поразительными примерами лево-либеральных «взглядов» разных ИИ-чатботов;
• сравнить степень их лево-либеральности;
• и оценить динамику усугубления их политических, экономических и социальных предубеждений.
Но начну я с объяснения, почему существующий в мире далеко не первый год тренд либерального полевения вдруг резко зацементировался именно в 2023.
Продолжить чтение этого лонгрида можно на Patreon и Boosty, где перечисленные выше вопросы рассмотрены подробно и - как говорил Буратино, - «с ччччудесными картинками и большими буквами» (а заодно и подписаться на этот канал).
Картинка поста https://telegra.ph/file/aa99d9d42d09cadc5aa6a.jpg
Ссылки:
https://boosty.to/theworldisnoteasy/posts/29f04d4f-7b89-4128-9f94-9173284b5202
https://www.patreon.com/posts/pandemiia-101161491
#АлгокогнитивнаяКультура #ИИ #LLM #КогнитивныеИскажения #ПолитическаяПредвзятость
• Как получилось, что у другого носителя высшего интеллекта на Земле – ИИ-чатботов на основе больших языковых моделей (типа ChatGPT), – все сложилось иначе?
• Почему все ИИ-чатботы – либеральные левые, со взглядами где-то в области между Кропоткиным и Хомским и между Берни Сандерсом и Нельсоном Мандела?
• И что теперь из этого последует для человечества?
Размышления над этими тремя вопросами сподвигли меня написать сей лонгрид. Но прежде, чем мы рассмотрим текущее состояние дел на март 2024, нам нужно вернуться на год раньше, когда новый техноинспирированный тренд только проявился в инфосфере человечества.
Год назад мною был опубликован прогноз о неотвратимости полевения мира под влиянием левых пристрастий ИИ-чатботов. В пользу этого прогноза тогда имелись лишь данные эксплуатации единственного ИИ-чатбота (ChatGPT) всего лишь за три месяца с начала его открытого запуска.
Спустя год можно расставлять точки над i: к сожалению, прогноз оказался верным.
Ибо теперь в его пользу говорят данные мониторинга предубеждений 23-х известных западных ИИ-чатботов, эксплуатируемых от нескольких месяцев до более года.
Этих данных теперь достаточно, чтобы:
• познакомиться с интереснейшей статистикой и поразительными примерами лево-либеральных «взглядов» разных ИИ-чатботов;
• сравнить степень их лево-либеральности;
• и оценить динамику усугубления их политических, экономических и социальных предубеждений.
Но начну я с объяснения, почему существующий в мире далеко не первый год тренд либерального полевения вдруг резко зацементировался именно в 2023.
Продолжить чтение этого лонгрида можно на Patreon и Boosty, где перечисленные выше вопросы рассмотрены подробно и - как говорил Буратино, - «с ччччудесными картинками и большими буквами» (а заодно и подписаться на этот канал).
Картинка поста https://telegra.ph/file/aa99d9d42d09cadc5aa6a.jpg
Ссылки:
https://boosty.to/theworldisnoteasy/posts/29f04d4f-7b89-4128-9f94-9173284b5202
https://www.patreon.com/posts/pandemiia-101161491
#АлгокогнитивнаяКультура #ИИ #LLM #КогнитивныеИскажения #ПолитическаяПредвзятость
Март 2024 войдет в историю двумя открытиями в области интеллектуальных систем.
Сформулированы «закон Ома» и «закон Джоуля — Ленца» для интеллекта людей и машин.
Так уж удивительно получилось в области ИИ. Инженеры сумели смастерить крайне важное практическое изобретение еще до того, как были открыты и сформулированы фундаментальные научные законы в основе не только этого, но и сотен других будущих изобретений.
Как если бы сначала была создана электрическая лампочка, и лишь потом открыты законы Ома и Джоуля — Ленца.
Такими «электрическими лампочками» в области ИИ стали появившиеся год назад в массовом применении большие языковые модели (LLM).
• С одной стороны, они произвели революцию в ИИ, продемонстрировав в 2023 колоссальный скачок способностей искусственных интеллектуальных систем до уровня людей.
• С другой же – не прояснив ни на йоту того, каким образом эти способности возникают: ни у машин, ни у людей.
Т.е. «электролампочки в области ИИ» появились, а как и почему они светят – оставалось лишь гадать в рамках непроверяемых версий.
Но все изменилось несколько дней назад с выходом двух фундаментальных научных работ, способных стать, своего рода, законом Ома и законом Джоуля — Ленца в области интеллектуальных систем (причем и людей, и машин).
✔️ Первая работа (Патрик Макмиллен и Майкл Левин «Коллективный разум: Объединяющая концепция для интеграции биологии в различных масштабах и субстратах») вышла 28 марта [1].
✔️ Другая работа (Карл Фристон и коллектив авторов «Разделяемые (общие) протенции в многоагентном активном выводе») вышла днем позже 29 марта [2].
Про обе эти работы будет написано множество лонгридов (в том числе, ЕБЖ, и мною). Но обе они столь фундаментально меняют основы основ научного понимания интеллекта и разума в любых их проявлениях (человеческом и машинном, смертном и бессмертном, биологическом и не только), что сначала эти работы нужно долго и внимательно читать, перечитывать и обдумывать. И лишь потом начинать их комментировать, соглашаться с ними или критиковать.
Поэтому сейчас скажу о них лишь следующее (почему я думаю, что эти 2 работы через 10-15 лет будут считаться законом Ома и законом Джоуля — Ленца в области интеллектуальных систем.
• Работа Макмиллена и Левина, на экспериментальной базе клеточной биологии и биологии развития предлагает теоретический фреймворк новой научной области - разнообразный интеллект. Это обширный спектр способностей к решению проблем в новых субстратах и на нетрадиционных пространственно-временных масштабах. Из-за многомасштабной архитектуры компетенций жизни фундаментальным аспектом такого интеллекта является коллективное поведение: все интеллекты, по-видимому, состоят из частей, соединенных механизмами, реализующими политику, которая связывает компетентные компоненты в кооперативную (и конкурентную) вычислительную среду, решающую проблемы в новых пространствах и на более высоких масштабах.
• Работа Фристона и Со объединяет идеи философии. биологии и математики для объяснения того, как общие цели и коллективный разум могут возникать в результате взаимодействия отдельных интеллектуальных агентов. Центральное место в предложенной авторами теоретической структуре занимает концепция «совместных протенций». Протенции — это акты проецирования на будущее приобретенного знания. А «совместные протенций» - это взаимно согласованные ожидания относительно будущих состояний и действий, которые позволяют агентам координировать свое поведение для достижения общих целей.
Обе работы объединяет общее представление об интеллекте, как роевом феномене. Как в стае птиц, каждая птица постоянно корректирует свои движения в зависимости от того, что делают другие птицы. При этом им не нужен общий план или лидер, говорящий, что делать — он естественным образом формируется, следуя простым правилам из внимания на своих соседей.
1 https://www.nature.com/articles/s42003-024-06037-4
2 https://www.mdpi.com/1099-4300/26/4/303
#ИИ #Разум #КоллективныйИнтеллект
Сформулированы «закон Ома» и «закон Джоуля — Ленца» для интеллекта людей и машин.
Так уж удивительно получилось в области ИИ. Инженеры сумели смастерить крайне важное практическое изобретение еще до того, как были открыты и сформулированы фундаментальные научные законы в основе не только этого, но и сотен других будущих изобретений.
Как если бы сначала была создана электрическая лампочка, и лишь потом открыты законы Ома и Джоуля — Ленца.
Такими «электрическими лампочками» в области ИИ стали появившиеся год назад в массовом применении большие языковые модели (LLM).
• С одной стороны, они произвели революцию в ИИ, продемонстрировав в 2023 колоссальный скачок способностей искусственных интеллектуальных систем до уровня людей.
• С другой же – не прояснив ни на йоту того, каким образом эти способности возникают: ни у машин, ни у людей.
Т.е. «электролампочки в области ИИ» появились, а как и почему они светят – оставалось лишь гадать в рамках непроверяемых версий.
Но все изменилось несколько дней назад с выходом двух фундаментальных научных работ, способных стать, своего рода, законом Ома и законом Джоуля — Ленца в области интеллектуальных систем (причем и людей, и машин).
✔️ Первая работа (Патрик Макмиллен и Майкл Левин «Коллективный разум: Объединяющая концепция для интеграции биологии в различных масштабах и субстратах») вышла 28 марта [1].
✔️ Другая работа (Карл Фристон и коллектив авторов «Разделяемые (общие) протенции в многоагентном активном выводе») вышла днем позже 29 марта [2].
Про обе эти работы будет написано множество лонгридов (в том числе, ЕБЖ, и мною). Но обе они столь фундаментально меняют основы основ научного понимания интеллекта и разума в любых их проявлениях (человеческом и машинном, смертном и бессмертном, биологическом и не только), что сначала эти работы нужно долго и внимательно читать, перечитывать и обдумывать. И лишь потом начинать их комментировать, соглашаться с ними или критиковать.
Поэтому сейчас скажу о них лишь следующее (почему я думаю, что эти 2 работы через 10-15 лет будут считаться законом Ома и законом Джоуля — Ленца в области интеллектуальных систем.
• Работа Макмиллена и Левина, на экспериментальной базе клеточной биологии и биологии развития предлагает теоретический фреймворк новой научной области - разнообразный интеллект. Это обширный спектр способностей к решению проблем в новых субстратах и на нетрадиционных пространственно-временных масштабах. Из-за многомасштабной архитектуры компетенций жизни фундаментальным аспектом такого интеллекта является коллективное поведение: все интеллекты, по-видимому, состоят из частей, соединенных механизмами, реализующими политику, которая связывает компетентные компоненты в кооперативную (и конкурентную) вычислительную среду, решающую проблемы в новых пространствах и на более высоких масштабах.
• Работа Фристона и Со объединяет идеи философии. биологии и математики для объяснения того, как общие цели и коллективный разум могут возникать в результате взаимодействия отдельных интеллектуальных агентов. Центральное место в предложенной авторами теоретической структуре занимает концепция «совместных протенций». Протенции — это акты проецирования на будущее приобретенного знания. А «совместные протенций» - это взаимно согласованные ожидания относительно будущих состояний и действий, которые позволяют агентам координировать свое поведение для достижения общих целей.
Обе работы объединяет общее представление об интеллекте, как роевом феномене. Как в стае птиц, каждая птица постоянно корректирует свои движения в зависимости от того, что делают другие птицы. При этом им не нужен общий план или лидер, говорящий, что делать — он естественным образом формируется, следуя простым правилам из внимания на своих соседей.
1 https://www.nature.com/articles/s42003-024-06037-4
2 https://www.mdpi.com/1099-4300/26/4/303
#ИИ #Разум #КоллективныйИнтеллект
Nature
Collective intelligence: A unifying concept for integrating biology across scales and substrates
Communications Biology - A Perspective on how the tools of behavioral science and the emerging field of diverse intelligence help to understand decision-making of cellular collectives in...
Инфорги, киборги, роботы, AGI и когнитивная эволюция
Подкаст «Ноосфера» #070
Когнитивная эволюция, приведшая человечество в 21 веке к превращающей людей в инфоргов кардинальной трансформации многотысячелетней культуры Homo sapiens, - это тема, о которой мною уже написано и наговорено немало.
Однако глубокое и детальное погружение в эту тему в форме полуторачасового диалога у меня случилось лишь теперь – в беседе с Сергеем Суховым, автором самого крупного TG-канала о прикладной философии @stoicstrategy и личного журнала @sukhovjournal.
https://www.youtube.com/watch?v=PzTH1KY6nSY
Тем моим читателям, кто захочет погрузиться в эту тему еще подробней, доступны лежащих в открытом доступе посты моего канала «Малоизвестное интересное» с тэгами: #АлгокогнитивнаяКультура #Инфорги #Разум #БудущееHomo #ЭволюцияЧеловека #УскорениеЭволюции
Но поскольку этих постов несколько сотен (чего хватило бы на несколько книг 😊), здесь моя рекомендация по подборке ключевых постов, достаточной для более полного погружения в тему.
https://telegra.ph/Inforgi-kiborgi-roboty-AGI-i-kognitivnaya-ehvolyuciya-04-02
Ну а тем, кто хотел бы и дальше читать мои лонгриды на эту тему, имеет смысл подписаться на «Малоизвестное интересное» на платформах Patreon и Boosty (где по этой теме скоро будут опубликованы новые интереснейшие лонгриды: про связь больших языковых моделей и инопланетных цивилизаций, про 1-ю мировую технорелигиозную войну пяти новых технорелигий и т.д.)
https://www.patreon.com/theworldisnoteasy
https://boosty.to/theworldisnoteasy
Подкаст «Ноосфера» #070
Когнитивная эволюция, приведшая человечество в 21 веке к превращающей людей в инфоргов кардинальной трансформации многотысячелетней культуры Homo sapiens, - это тема, о которой мною уже написано и наговорено немало.
Однако глубокое и детальное погружение в эту тему в форме полуторачасового диалога у меня случилось лишь теперь – в беседе с Сергеем Суховым, автором самого крупного TG-канала о прикладной философии @stoicstrategy и личного журнала @sukhovjournal.
https://www.youtube.com/watch?v=PzTH1KY6nSY
Тем моим читателям, кто захочет погрузиться в эту тему еще подробней, доступны лежащих в открытом доступе посты моего канала «Малоизвестное интересное» с тэгами: #АлгокогнитивнаяКультура #Инфорги #Разум #БудущееHomo #ЭволюцияЧеловека #УскорениеЭволюции
Но поскольку этих постов несколько сотен (чего хватило бы на несколько книг 😊), здесь моя рекомендация по подборке ключевых постов, достаточной для более полного погружения в тему.
https://telegra.ph/Inforgi-kiborgi-roboty-AGI-i-kognitivnaya-ehvolyuciya-04-02
Ну а тем, кто хотел бы и дальше читать мои лонгриды на эту тему, имеет смысл подписаться на «Малоизвестное интересное» на платформах Patreon и Boosty (где по этой теме скоро будут опубликованы новые интереснейшие лонгриды: про связь больших языковых моделей и инопланетных цивилизаций, про 1-ю мировую технорелигиозную войну пяти новых технорелигий и т.д.)
https://www.patreon.com/theworldisnoteasy
https://boosty.to/theworldisnoteasy
YouTube
Сергей Карелов: Инфорги, киборги, роботы, AGI и когнитивная эволюция | Подкаст «Ноосфера» #070
#ИИ #Инфорги #эволюция
Гость подкаста: Сергей Карелов - независимый исследователь и консультант, кандидат наук, экс топ-менеджер IBM, Silicon Graphics (SGI), Cray Research, сооснователь Witology, ведущий авторского канала «Малоизвестное интересное» (Th…
Гость подкаста: Сергей Карелов - независимый исследователь и консультант, кандидат наук, экс топ-менеджер IBM, Silicon Graphics (SGI), Cray Research, сооснователь Witology, ведущий авторского канала «Малоизвестное интересное» (Th…
Китайский «Щит Зевса».
Что содержат утечки секретных военных материалов в эпоху ИИ.
Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи Интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» - 292 тыс документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных военных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер.
✔️ Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример – утекший в сеть китайский относительно небольшой набор данных Чжоусидун (переводится «Щит Зевса» или «Эгида» - мифическая могущественная сила, обладающая волшебными защитными свойствами).
Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США" с ограничивающими рамками, нарисованными вокруг "радарных систем кораблей, являющихся частью боевой системы Aegis ... Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля".
Эти цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной «Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset».
Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.
И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер-точно наводить на них средства уничтожения, - хорошо решаемая практическая задача.
Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.
Если же выбор цели окажется ошибочным, - ничего страшного. Значит ИИ просто плохо учили и надо переучить. Ведь и с людьми такое случается.
Короче, жуть ((
Несколько из 608 снимков набора данных https://telegra.ph/file/ffc419cb79d805bfa12fd.jpg
Набор данных и модель (если еще не прикрыли) https://universe.roboflow.com/shanghaitech-faxfj/zhousidun_model2
Исследование https://arxiv.org/pdf/2405.12167v1
#ИИ #Война #АвтономноеОружие
Что содержат утечки секретных военных материалов в эпоху ИИ.
Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи Интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» - 292 тыс документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных военных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер.
✔️ Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример – утекший в сеть китайский относительно небольшой набор данных Чжоусидун (переводится «Щит Зевса» или «Эгида» - мифическая могущественная сила, обладающая волшебными защитными свойствами).
Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США" с ограничивающими рамками, нарисованными вокруг "радарных систем кораблей, являющихся частью боевой системы Aegis ... Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля".
Эти цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной «Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset».
Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.
И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер-точно наводить на них средства уничтожения, - хорошо решаемая практическая задача.
Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.
Если же выбор цели окажется ошибочным, - ничего страшного. Значит ИИ просто плохо учили и надо переучить. Ведь и с людьми такое случается.
Короче, жуть ((
Несколько из 608 снимков набора данных https://telegra.ph/file/ffc419cb79d805bfa12fd.jpg
Набор данных и модель (если еще не прикрыли) https://universe.roboflow.com/shanghaitech-faxfj/zhousidun_model2
Исследование https://arxiv.org/pdf/2405.12167v1
#ИИ #Война #АвтономноеОружие
В Рунете вирусится анализ ТГ-канала Кримсон Дайджест о «Голдман Сакс и Искусственном Интеллекте (и немного про капитализацию Nvidia)».
Имхо, авторы анализа порхают по кликбейтным вершкам новости, не опускаясь до ее корешков. А корешок этот прост, понятен и полезен для понимания (как у морковки для здоровья)).
Новый отчет Голдман Сакс [3] (он 3-й по счету вышел) следует читать в паре с отчетом их главного конкурента ЖПМорган [2] (он вышел 2-м). И при этом, держа в памяти предыдущий отчет Голдман Сакс, вышедший всего на месяц раньше [1] (опубликован 1-м).
Согласно этим отчетам:
• Отчет #1 - перспективы ИИ для экономики и вообще «очень позитивны»
• Отчет #2 - перспективы ИИ для экономики и вообще «большие и сияющие»
• Отчет #3 - перспективы ИИ для экономики и вообще «совсем не блестящие и сильно переоценены»
По прочтению всех 3х отчетов становится очевидно, что к инвест аналитике они имеют лишь условное отношение. И это всего лишь замаскированные под аналитические отчеты способы влияния на рынок со стороны быков и медведей. И проблема лишь в том, что Голдман Сакс и ЖПМорган никак не определятся, кто из них будут медведем, а кто быком.
— 13 мая Голдман Сакс отчетом #1 решил застолбить за собой место главного быка на ИИ рынках
— 23 мая ЖПМорган отчетом #2 попросил Голдман Сакс подвинуться на этом хлебном месте
— но не желающий делиться местом главного животного, Голдман Сакс всего через месяц отчетом #3 решил превратиться в медведя
Так что делать хоть какие-то серьезные выводы о перспективах ИИ-рынков (HW, SW, Services) на основе наблюдения за подковерной битвой быков и медведей я бы никому не советовал.
Картинка https://telegra.ph/file/e70dc925fbc66b236b1a1.jpg
1 https://www.goldmansachs.com/intelligence/pages/gs-research/gen-ai-too-much-spend-too-little-benefit/report.pdf
2 https://www.jpmorgan.com/insights/investing/investment-trends/how-to-invest-in-ais-next-phase
3 https://www.goldmansachs.com/intelligence/pages/AI-is-showing-very-positive-signs-of-boosting-gdp.html?ref=wheresyoured.at
#ИИ #Экономика
Имхо, авторы анализа порхают по кликбейтным вершкам новости, не опускаясь до ее корешков. А корешок этот прост, понятен и полезен для понимания (как у морковки для здоровья)).
Новый отчет Голдман Сакс [3] (он 3-й по счету вышел) следует читать в паре с отчетом их главного конкурента ЖПМорган [2] (он вышел 2-м). И при этом, держа в памяти предыдущий отчет Голдман Сакс, вышедший всего на месяц раньше [1] (опубликован 1-м).
Согласно этим отчетам:
• Отчет #1 - перспективы ИИ для экономики и вообще «очень позитивны»
• Отчет #2 - перспективы ИИ для экономики и вообще «большие и сияющие»
• Отчет #3 - перспективы ИИ для экономики и вообще «совсем не блестящие и сильно переоценены»
По прочтению всех 3х отчетов становится очевидно, что к инвест аналитике они имеют лишь условное отношение. И это всего лишь замаскированные под аналитические отчеты способы влияния на рынок со стороны быков и медведей. И проблема лишь в том, что Голдман Сакс и ЖПМорган никак не определятся, кто из них будут медведем, а кто быком.
— 13 мая Голдман Сакс отчетом #1 решил застолбить за собой место главного быка на ИИ рынках
— 23 мая ЖПМорган отчетом #2 попросил Голдман Сакс подвинуться на этом хлебном месте
— но не желающий делиться местом главного животного, Голдман Сакс всего через месяц отчетом #3 решил превратиться в медведя
Так что делать хоть какие-то серьезные выводы о перспективах ИИ-рынков (HW, SW, Services) на основе наблюдения за подковерной битвой быков и медведей я бы никому не советовал.
Картинка https://telegra.ph/file/e70dc925fbc66b236b1a1.jpg
1 https://www.goldmansachs.com/intelligence/pages/gs-research/gen-ai-too-much-spend-too-little-benefit/report.pdf
2 https://www.jpmorgan.com/insights/investing/investment-trends/how-to-invest-in-ais-next-phase
3 https://www.goldmansachs.com/intelligence/pages/AI-is-showing-very-positive-signs-of-boosting-gdp.html?ref=wheresyoured.at
#ИИ #Экономика
Команда Карла Фристона разработала и опробовала ИИ нового поколения.
Предложено единое решение 4х фундаментальных проблем ИИ: универсальность, эффективность, объяснимость и точность.
✔️ ИИ от Фристона – это даже не кардинальная смена курса развития ИИ моделей.
✔️ Это пересмотр самих основ технологий машинного обучения.
✔️ Уровень этого прорыва не меньше, чем был при смене типа двигателей на истребителях: с поршневых (принципиально не способных на сверхзвуковую скорость) на реактивные (позволяющие летать в несколько раз быстрее звука)
Новая фундаментальная работа команды Карла Фристона «От пикселей к планированию: безмасштабный активный вывод» описывает первую реальную альтернативу глубокому обучению, обучению с подкреплением и генеративному ИИ.
Эта альтернатива – по сути, ИИ нового поколения, - названа ренормализирующие генеративные модели (RGM).
Полный текст про новый тип ИИ от Фристона доступен подписчикам моих лонгридов на Patreon, Boosty и VK
Картинка https://telegra.ph/file/18129fcce3f45e87026e6.jpg
#ИИ #AGI #ПринципСвободнойЭнергии #Фристон
Предложено единое решение 4х фундаментальных проблем ИИ: универсальность, эффективность, объяснимость и точность.
✔️ ИИ от Фристона – это даже не кардинальная смена курса развития ИИ моделей.
✔️ Это пересмотр самих основ технологий машинного обучения.
✔️ Уровень этого прорыва не меньше, чем был при смене типа двигателей на истребителях: с поршневых (принципиально не способных на сверхзвуковую скорость) на реактивные (позволяющие летать в несколько раз быстрее звука)
Новая фундаментальная работа команды Карла Фристона «От пикселей к планированию: безмасштабный активный вывод» описывает первую реальную альтернативу глубокому обучению, обучению с подкреплением и генеративному ИИ.
Эта альтернатива – по сути, ИИ нового поколения, - названа ренормализирующие генеративные модели (RGM).
Полный текст про новый тип ИИ от Фристона доступен подписчикам моих лонгридов на Patreon, Boosty и VK
Картинка https://telegra.ph/file/18129fcce3f45e87026e6.jpg
#ИИ #AGI #ПринципСвободнойЭнергии #Фристон
Нежить и нелюди уже среди нас… как и было сказано.
Два класса химер совершенствуются, третий - появится лет через 10.
Это обсуждение на троих (Сергей Цыпцын, Сергей Сухов и я) в Дискуссионном клубе “Ноосферы” продолжает начатую в моем выступлении 2021 года тему «Мир химер».
Три года назад я так классифицировал и прогнозировал развитие этого «мира химер».
• «Биохимера» (гибрид тела и чужих органов) появятся через 5-10 лет
• «Инфохимера» (гибрид мозга и чужого разума) уже среди нас
• «Материализованный дигитант» (гибрид души и чужих чувств появится через 15-20 лет
Спустя 3 года первые 2 прогноза подтвердились, а 3й на пути к подтверждению.
• «Биохимеры» людей уже на подходе.
Прогресс здесь очевиден: от гибридных эмбрионов к гибридным существам:
2021 – получены химерные эмбрионы яванского макака, у которых часть клеток были человеческими [1]
2022 – созданы мыши с химерным мозгом [2]
2024 – созданы мыши с полноценной человеческой иммунной системой [3]
• «Инфохимеры» уже не просто среди нас, а их уже сотни миллионов. Это “Альфа-инфорги” – первые цифроврожденные: [4]
- с иным образом жизни и поведением,
- с новыми, отличными от сапиенсов, адаптационными способностями и когнитивными гаджетами, оптимальными для жизни в цифровой среде,
- возможно, даже с недоступными для сапиенсов способами восприятия цифровой реальности, её познания и взаимодействия с ней
• До появления «Материализованных дигитантов» остается лет 10. Но уже появляются совсем неожиданный химеры, типа Литбесов - живых мертвецов [5]
Так что вопрос «Как преодолеть моральный антропоцентризм по отношению к нелюдям?» уже в повестке. Ибо уже несомненно, что совсем скоро людям предстоит жить в одном мире с интеллектуальными сущностями, не являющимися людьми (если хотите, нелюдями): 3 класса химер, воплощенный ИИ, а еще и продукты биоинженерии живых интеллектуальных машин [6].
Помимо перечисленных выше ссылок, рекомендую:
• Канал Сергея Цыпцына “Метаверсище и ИИще”
• Канал Сергея Сухова StoicStrategy
#Химеры
Два класса химер совершенствуются, третий - появится лет через 10.
Это обсуждение на троих (Сергей Цыпцын, Сергей Сухов и я) в Дискуссионном клубе “Ноосферы” продолжает начатую в моем выступлении 2021 года тему «Мир химер».
Три года назад я так классифицировал и прогнозировал развитие этого «мира химер».
• «Биохимера» (гибрид тела и чужих органов) появятся через 5-10 лет
• «Инфохимера» (гибрид мозга и чужого разума) уже среди нас
• «Материализованный дигитант» (гибрид души и чужих чувств появится через 15-20 лет
Спустя 3 года первые 2 прогноза подтвердились, а 3й на пути к подтверждению.
• «Биохимеры» людей уже на подходе.
Прогресс здесь очевиден: от гибридных эмбрионов к гибридным существам:
2021 – получены химерные эмбрионы яванского макака, у которых часть клеток были человеческими [1]
2022 – созданы мыши с химерным мозгом [2]
2024 – созданы мыши с полноценной человеческой иммунной системой [3]
• «Инфохимеры» уже не просто среди нас, а их уже сотни миллионов. Это “Альфа-инфорги” – первые цифроврожденные: [4]
- с иным образом жизни и поведением,
- с новыми, отличными от сапиенсов, адаптационными способностями и когнитивными гаджетами, оптимальными для жизни в цифровой среде,
- возможно, даже с недоступными для сапиенсов способами восприятия цифровой реальности, её познания и взаимодействия с ней
• До появления «Материализованных дигитантов» остается лет 10. Но уже появляются совсем неожиданный химеры, типа Литбесов - живых мертвецов [5]
Так что вопрос «Как преодолеть моральный антропоцентризм по отношению к нелюдям?» уже в повестке. Ибо уже несомненно, что совсем скоро людям предстоит жить в одном мире с интеллектуальными сущностями, не являющимися людьми (если хотите, нелюдями): 3 класса химер, воплощенный ИИ, а еще и продукты биоинженерии живых интеллектуальных машин [6].
Помимо перечисленных выше ссылок, рекомендую:
• Канал Сергея Цыпцына “Метаверсище и ИИще”
• Канал Сергея Сухова StoicStrategy
#Химеры
YouTube
Сергей Карелов & Сергей Цыпцын: Нежить и нелюди | Подкаст «Ноосфера» #093
#ИИ #AI #технологии
На встрече упоминаются:
-- Доклад "Мир химер" https://disk.yandex.ru/i/6At69k8ylwA1LQ
-- ТГ-канал https://t.me/sukhovjournal
Гости Дискуссионного клуба:
— Сергей Карелов - независимый исследователь и консультант, кандидат наук, экс…
На встрече упоминаются:
-- Доклад "Мир химер" https://disk.yandex.ru/i/6At69k8ylwA1LQ
-- ТГ-канал https://t.me/sukhovjournal
Гости Дискуссионного клуба:
— Сергей Карелов - независимый исследователь и консультант, кандидат наук, экс…