Малоизвестное интересное
65.4K subscribers
102 photos
1 video
11 files
1.81K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Мир химер и будущее интеллекта.
Понятие ИИ скоро будет забыто, подобно понятиям флогистон и поливода.

Мир ближайшего будущего будет заселен уже не Homo sapiens, а химерами нашего вида. Гибридами тела человека и чужих органов, человеческого мозга и чужого разума, человеческих душ и чужих чувств.
В этом новом мире привычные нам понятия искусственный и человеческий интеллект устареют и покинут, сначала научный, а потом и общемедийный лексикон. Последние достижения в новой области синтетического морфогенеза - биоинженерии новых многоклеточных живых тел, - уже начали менять научные представления о том, что такое «живой и искусственный организм», «живая и искусственная машина».

✔️ Каким интеллектом, - искусственным или естественным, - считать интеллект различных химер: биохимер, инфоргов, материализованных дигитантов?
✔️ Искусственный и естественный интеллекты – это два несводимых типа интеллекта или всего лишь абстрактные полюса, между которыми может существовать множество промежуточных форм?


Ответы на оба этих вопроса будут в моём новом посте «Искусственный человек и живая машина». Но я умышленно не спешу с его публикацией. Ибо прежде, чем заинтересоваться ответами на эти вопросы, читатель должен разобраться и понять ключевой момент.

Понятия, отнесенные мною к трем классам химер – это не пустые неологизмы для привлечения внимания, а реальные понятия настоящего и ближайшего будущего. Возможно, даже самые главные понятия, определяющие судьбу нашего вида.

Послушайте мой часовой рассказ о мире ближайшего будущего – мире химер.
Этот рассказ позволит вам по-иному взглянуть на уже начавшуюся гибридизацию людей и подготовит вас к разговору об искусственных людях и живых машинах, с появлением которых интернациональному понятию ИИ суждено покинуть лексикон человечества.

Презентацию к моему рассказу можно скачать здесь.

#Химеры #ИИ #БудущееHomo
Мир переходит на новую эволюционную траекторию.
Пройти «вселенский фильтр отбора» без глобальной кооперации невозможно.

Сколько примерно интеллектуалов в России, можно будет прикинуть по числу прослушиваний феноменально интересного и поразительно ёмкого вчерашнего подкаста Александра Панова.
А поскольку интеллектуалы бывают сильно разные, и вообще, у этого слова много различных определений, я имею в виду не определение, а как мне кажется, один из общих отличительных признаков всех интеллектуалов.
Интеллектуал – это тот, кому интересны подобные важные вопросы, успешно не замечаемые актуальной повесткой большинства медиа от ТВ до Ютуба и Телеграм-каналов.
6:30 Великое противостояние: природа одна, а описывающих ее теорий две
15:00 Нулевые шансы создать Сильный ИИ, не понимая механизм появления у человека инсайтов, да и просто новых идей
15:00 Стратегия поиска внеземных цивилизаций – искать не отдельную цивилизацию, а галактическое культурное поле
33:00 «Они» должны быть здесь. Но искать их лучше на Луне.
42:00 Моральные императивы иных цивилизаций (прогрессорство, невидимость …), и как пройти через «вселенский фильтр отбора»
46:30 Альтернативные реальности и Мультиверс
51:30 Мир совсем иной, чем мы его видим и представляем
1:02:00 Слова у нас общие, а субъективные ощущения разные
1:08:00 Квантовая информация не есть привычная нам информация. Квантовая математика не доступна сознанию («мы видим мир сквозь узкую щель в заборе»)
1:23:00 Теория прогрессивной эволюции Акопа Назаретяна
1:28:00 Мир переходит на новую эволюционную траекторию. Пройти «вселенский фильтр отбора» без управляемой, а не стихийной глобальной кооперации невозможно
1:36:00 Можно ли перенаправить встроенный в нас эволюцией механизм агрессии. От спорта к гибридным и кибер- войнам.
https://www.uhnwidata.com/den-of-rich/alexander-panov
#Будущее #СильныйИИ #Макроэволюция #SETI #ТеорияВсего
​​Кто победит, если будет война США с Китаем?
Пока шансы равны. Но через 10-15 лет Китай победит.

Четырехзвездный Адмирал Джеймс Ставридис (бывший главковерх НАТО) полагает, что если все пойдет как идет, то лет через 15 Китай просто размажет США по ближайшей стенке. В недавно опубликованном геополитическом триллере о воображаемом военно-морском столкновении между США и Китаем в Южно-Китайском море в 2034 году «2034: Роман о следующей мировой войне» адмирал описывает новый позор США. Перед этим колоссальным позором меркнет позор Перл-Харбор. США с разгромом проигрывают в 3-ей мировой войне Китаю, на стороне которого Россия и Иран.
В рецензии на роман Джима Мэттиса говорится: «… пугающий роман Джима Ставридиса и Эллиота Акермана представляет собой реалистичную серию просчетов, ведущих к худшим последствиям. Отрезвляющая, поучительная история для нашего времени». Читая роман, следует помнить. Адмирал Ставридис знаком с положением дел, как никто другой. И он совсем не паникер, - 30 лет на высших военных постах и куча наград, вкл. Серебряную звезду, Бронзовую звезду за доблесть и Пурпурное сердце.

Новая, только что вышедшая статья Ставридиса – уже не геополитический триллер, а холодный военный расчет и обвинительный приговор продолжающейся серии стратегических просчетов и упущений США.

В описательно-мотивировочной части статьи адмирал сводит баланс сил по 5 ключевым статьям, если война США и Китая произойдет в ближайшее время.
1) Военный бюджет США больше в 3+ раз ($733 млрд против $213). Но это кажущееся преимущество. Ибо у Китая нет высоких затрат на персонал, и значительная часть расходов Китая не фигурирует «в публичном поле».
Посему, здесь, примерно 1:1
2) Китай уже опережает США по количеству боевых кораблей (их, примерно, 300-350). Но американский военный флот больше по тоннажу, оснащен лучшими наступательными и оборонительными системами и укомплектован гораздо более опытными экипажами.
Так что здесь США пока впереди.
3) География в пользу Китая. Если потенциальный конфликт произойдет в Южно-Китайском и Восточно-Китайском морях, длительные цепочки поставок и баз людских ресурсов сведут на нет преимущества американских сил.
4) Союзники у США хорошие: Япония, Австралия, Южная Корея и Сингапур. Но у Китая есть Россия и Иран. И кто как из союзников себя поведет, неизвестно.
5) Самое главное – технологии. США по-прежнему лидируют в технологиях подавления подводных лодок, количестве военных спутников, наступательных и оборонительных кибер-инструментах и автономном оружии. Но Китай быстро нагоняет, особенно в области военного ИИ, гиперзвуковых крылатых ракет, операций в киберпространстве и новой области квантовых вычислений.
Т.е. и тут снова небольшое и постепенно таящее преимуществу США.

В резолютивной части адмирал Ставридис задает вопрос - и что же делать?
После чего отвечает так.
Если б я сейчас был главным, ввязался бы в драку, не дожидаясь, когда Китай обойдет США по всем показателям. Но следует при этом отдавать себе отчет: эта война, как сказал герцог Веллингтон о битве при Ватерлоо, будет «near-run thing» (т.е. возможен любой исход).

Предостережения адмирала Ставридиса имеют целью помочь миру избежать подобных событий. Это столь важно, что журнал WIRED даже выложил большую часть романа в открытый доступ.
• Часть I. Опасность в Южно-Китайском море
• Часть II: Затемнение в Вашингтоне, округ Колумбия
• Часть III: Осталось рассказать сказку
• Часть IV: Засада на островах Спратли
• Часть V: Путешествие во тьму
• Часть VI: Переход красной линии
• Что я только что прочитал? Разговор с авторами

Нам в России весьма полезно это почитать. Будет ли, как в романе, Россия на стороне Китая, - большой вопрос.
#БольшаяВойна #США #Китай
Как стать мнемоном.
Самый древний и эффективный способ тюнинга когнитивного гаджета запоминания.

Эта сенсационная новость может быть чрезвычайно полезной для многих из вас, позволяя усовершенствовать память.

Как показало исследование нескольких австралийских университетов [1 и 2], техника запоминания аборигенов Австралии оказалась наиболее совершенной из мнемоник, придуманных человечеством за 50 тыс. лет. Эта техника превосходит по эффективности запоминания даже знаменитый «дворец памяти» (он же «чертоги разума») Шерлока Холмса – технику запоминания, использовавшуюся еще в античном Риме т.н. “маленькими греками” (graeculi) - особой категорией рабов, выполнявших роль живых справочников [3].

Техника запоминания «дворец памяти», ставшая суперпопулярной после телесериала ВВС «Шерлок», основана на мысленном прикреплении информации к физическим объектам, расположенным в некоем виртуальном помещении (в случае Холмса, это был воображаемый чердак).
Холмс так описывает Ватсону процесс запоминания нужной ему информации.
«… мне представляется, что человеческий мозг похож на маленький пустой чердак, который вы можете обставить, как хотите. Дурак натащит туда всякой рухляди, какая попадется под руку, и полезные, нужные вещи уже некуда будет всунуть, или в лучшем случае до них среди всей этой завали и не докопаешься. А человек толковый тщательно отбирает то, что он поместит в свой мозговой чердак. Он возьмет лишь инструменты, которые понадобятся ему для работы, но зато их будет множество, и все он разложит в образцовом порядке. Напрасно люди думают, что у этой маленькой комнатки эластичные стены и их можно растягивать сколько угодно. Уверяю вас, придет время, когда, приобретая новое, вы будете забывать что-то из прежнего. Поэтому страшно важно, чтобы ненужные сведения не вытесняли собой нужных».

Техника запоминания австралийских аборигенов похожа на вышеописанную, но еще более продвинутая. Возможно, именно она позволила одной из старейших в мире известных непрерывных человеческих культур выжить на протяжении более 50 000 лет без письменной (буквенной) передачи информации.

Подобно Холмсу, австралийские аборигены привязывают единицы информации к предметам в трехмерном пространстве (только у них это не замкнутое помещение, а окружающий пейзаж). Кроме этого, техника запоминания аборигенов (и в этом её принципиальное преимущество перед мнемоникой английского сыщика и «маленьких греков») добавляет рассказываемую историю, которая описывает запоминаемые факты в привязке к их расположению на воображаемом пути.

Новое исследование показало, что использование техники «дворец памяти» увеличивает шансы запоминания вдвое. Тогда как техника аборигенов – втрое.

Мне особенно приятно, что новое исследование не только подтвердило совершенство мнемоники австралийских аборигенов.
Оно также:
1. иллюстрирует гениальную простоту оптимального устройства когнитивного гаджета «человека помнящего»;
2. открывает перед любым из вас возможность последовать моему примеру (я уже давно использую подобную мнемонику)) и попытаться провести тюнинг своего когнитивного гаджета запоминания;
3. подтверждает, что используемая мною уже 3 десятка лет методика запоминания - это разновидность мнемоники австралийских аборигенов, признанной наиболее эффективной мнемоникой из придуманных на Земле за 50 тыс. лет.

Вот 3-х минутный фрагмент моего рассказа о технике запоминания в привязке к объектам ландшафта, рассказываемой истории и пути следования, в котором я рекомендую каждому попробовать эту технику для себя.
https://youtu.be/m9tZmnisgPY?t=2036

[1] https://www.livescience.com/aboriginal-memory-technique.html
[2] https://journals.plos.org/plosone/article/authors?id=10.1371/journal.pone.0251710
[3] https://scientificrussia.ru/articles/secrets-sherlocks-mind-palace
#Память #КогнитивныеГаджеты
Алгоритмическое растление путем анестезии совести.
Алгокогнитивная культура способствует деградации морали

Новая статья в Nature, озаглавленная «Плохие машины портят добрую мораль» не упоминает термина алгокогнитивная культура (в германском институте им. Макса Планка этот термин еще не совсем прижился)), но рассказывает именно о её последствиях для отдельных людей и всего общества.

Авторы рассказывают, что «агенты ИИ» влияют на поведение людей способами, которые одновременно похожи и не похожи на то, как люди влияют друг на друга.
N.B. Авторы, следуя терминологическому мейнстриму, называют агентами ИИ «машины, работающие на основе ИИ». Но речь идет вовсе не о каких-то сверх-умных агентах, а о банальных анонимных алгоритмах машинного обучения поисковых, рекомендательных, социальных и профессиональных платформ и сервисов.

Одним из таких чисто алгоритмических влияний является растление общества, вследствие уникальной разлагающей сила алгоритмов. И поскольку об этом факторе влияния алгокогнитивной культуры я еще не писал, весьма рекомендую интересующимся вопросом прочесть работу Нильса Кёбиса, Жан-Франсуа Боннефона и Ияда Рахван (вход за пейвол по этой ссылке).

Авторы рассматривают четыре основные социальные роли, с помощью которых люди и алгоритмы могут влиять на этическое поведение:
• образец для подражания (role model) - решая, нарушать ли этические правила или придерживаться их, люди часто задумываются, как бы поступили на их месте их ролевые модели;
• советник (advisor) - люди могут оказывать более прямое развращающее влияние, чем ролевые модели, когда сами дают советы действовать неэтично, особенно, когда такие советы исходят от авторитетных фигур;
• активный партнер (active partner) – не менее чем неэтичными советниками, люди могут развращать друг друга, становясь партнерами в нарушении моральных норм;
• аутсорсер (delegate) – те, кому люди могут делегировать - передавать на выполнение неэтичные действия, как бы на аутсорсинг.

Ключевой вывод исследования таков.

✔️ Когда алгоритмы становятся инфлюенсерами (образцами для подражания или советниками), их развращающая сила не может превышать развращающую силу людей (но это лишь пока и, увы, довольно скоро пройдет).
✔️ Когда же алгоритмы выступают в роли потакателей (enablers) неэтичного поведения (будучи активным партнером или аутсорсером), они обладают уникальным потенциально особо опасным свойством.
Это свойство наиболее адекватно описывается термином «растление». Ибо оно позволяет людям получать выгоды от своих неэтичных действий и при этом чувствовать себя хорошо, не испытывая угрызений совести.


Примеров такой «анестезии совести» уже не счесть.
• студент, в партнерстве с GPT-3, замастыривающий фейковое эссе;
• ретейлер, передающий на аутсорсинг алгоритму процесс онлайн-прайсинга, приводящего к алгоритмическому сговору;
• кадровик, в партнерстве с алгоритмом оценки кандидата, отсеивающий «лицо кавказской национальности»;
• банковский клерк, передающий на аутсорсинг отказы в кредитовании многодетных семей;
• полицейский, юрист, врач, преподаватель, психоаналитик и т.д. и т.п.

Кроме того, мы даже не представляем себе потенциальные масштабы коррупции, которую могут индуцировать алгоритмы, в сравнении с коррупцией, вызванной действиями людей. Здесь вообще нет пока что каких-либо идей. Но есть подозрение, что алгоритмы могут любой вопрос «перетереть» и «порешать», совсем не отягощаясь моральными нормами.

Нужны эксперименты… Много экспериментов, прежде чем не только отдавать принятие решений алгоритмам, но и просто брать алгоритмы на роли партнеров и аутсорсеров.
И конечно же нужно обучать алгоритмы машинного обучения желательным поведенческим паттернам, а не слепо выбирать самые большие наборы данных, доступные для обучения.

Ну а в идеале, нужно разрабатывать иные методы машинного обучения для областей автоматизации неоднозначных решений, советов и результатов делегируемых действий (об этом, хорошо было бы написать отдельный пост).
#Мораль #АлгокогнитивнаяКультура #МашинноеОбучение #ИИ
​​По контролю Интернета сверхдержава одна.
Стратегия и тактика сетевого контроля Китая.

Недавняя публикация отчета Фейсбука (1), трактуемого у нас, как «топ 5 стран по манипуляции общественным мнением» (с Россией на 1м месте), породила миф, будто Россия – мировой лидер в сетевой манипуляции общественным мнением. Но это совсем не так.

Безусловный лидер, ушедший в недосягаемый отрыв, - это Китай. И прежде, чем проиллюстрировать это, поясню ошибочность трактовки отчета Фейсбука в российских медиа.
В отчете рассматриваются:
1. только платформа Фейсбука;
2. только одна из форм сетевого влияния – т.н. «скоординированное неаутентичное поведение» экаунтов соцсети (в основном, фейковых экаунтов социальных ботов)
Но как вы должны понимать, Фейсбуком мировая сеть не исчерпывается, и сетевых форм влияния существует множество.

Если же проанализировать большинство сетевых платформ и форм медиавлияния, то лидер, конечно же, не Россия, а Китай. Причем с невообразимым отрывом в несколько порядков.

Тактика сетевого контроля Китая основана вовсе не на социальных ботах. В её основе массовая скоординированная деятельность колоссальной армии троллей. (2)
Численность этой армии превышает 2 млн. профессиональных работающих на КПК троллей и около 20 млн. мотивируемых государством помощников этих троллей (т.н. «добровольцев сетевой цивилизации»). У последних тройная задача: быть «усилителем» онлайн-голосов профессиональных троллей, «сборщиком» информации об общественном мнении в Интернете и «глушителем» тех, на кого укажут.
Сдвоенная армия профессиональных и массовых интернет – троллей, управляется также сдвоенной системой управления из двух региональных сетей: команды по делам киберпространства и отделы пропаганды КПК.

Стратегия сетевого контроля Китая стоит на 3х китах (3).
1. Бороться не с контентом определенных типов (всякие там призывы, оскорбления чувств и т.п.), а с конкретными инфлюенсерами, производящими вирусный контент.
2. Устранять влияние инфлюенсеров не сколько «глушилками» троллей, сколько комбинацией физических посадок и высылки из страны.
3. Главная задача армии троллей – гасить волны вирусного распространения контента по указанию от специальной системы превентивного выявления набирающих силу инфокаскадов. Получив наводку, тролли пытаются гасить вирусные волны инфлюенсеров, выплескивая на их инфокаскады альтернативный вирусный контент.

До прошлого года стратегия и тактика сетевого влияния была в основном ориентирована на локальный Интернет Китая. Сейчас все меняется. (4).
Мощнейшая система сетевого влияния КПК на общественное мнение начала глобальную экспансию. Её цель – захват власти в международных дискуссиях. Это весьма серьезная угроза экономической безопасности, политической стабильности и личной безопасности граждан многих стран мира.
Противопоставить что-либо столь огромной сетевой армии, следующей гениально простой, но предельно эффективной стратегии, будет трудно.

#Китай #СетевоеВлияние #СоциальныеМедиа
Кто в доме ИИ хозяин?
В Google считают, что они.

Статью Бэна Диксона «Ученые DeepMind считают, что обучения с подкреплением достаточно для создания общего ИИ» вчера перепечатал на 6-ти млн аудиторию портал VB. И началось, - Интернет взорвался, якобы, сенсационной новостью. Ведь эта публикация - развернутый обзор статьи 4-х ведущих исследователей DeepMind "Reward is Enough", планируемой в октябрьском выпуске журнала Artificial Intelligence.
В статье утверждается, будто существующей технологии обучения с вознаграждением (подкреплением), которой DeepMind обязана всеми своими триумфами, достаточно для создания ИИ, подобного человеческому (общего ИИ или AGI).

По сути, эта статья – заявка DeepMind на перевод собственного видения под кодовым названием «Вознаграждения Достаточно» (Reward is Enough) из статуса гипотезы в дорожную карту Google по созданию AGI.

На первый взгляд, такая заявка DeepMind (а правильнее сказать, Alphabet - в просторечье Google) может быть обоснована сочетанием 2х факторов.
1. Продемонстрированная миру серия прорывов AlphaGo, AlphaZero и MuZero.
2. Присущая всему гениальному простота объяснения эволюции интеллекта.
Подобно теории Дарвина, «теория DeepMind» объясняет развитие интеллекта вычислительным процессом в нейронной сети, оптимизирующим одну единственную конечную цель – максимизация вознаграждения. А этим вознаграждением является не что иное, как эволюционная приспособленность (способность выжить и дать потомство).
Такой простой, но эффективный механизм привел к эволюции живых существ со всеми видами навыков и способностей воспринимать, ориентироваться, изменять окружающую среду и общаться между собой. К максимизации вознаграждения сводится все: от умения зрения классифицировать образы до понимания языка и воображения (как способа с помощью вычислений заглядывать в будущее – что может произойти дальше).

Однако, при более пристальном взгляде на эту гипотезу, претендующую стать теорией, ее логика трещит по швам.
✔️ Во-первых, такой механизм требует морей данных и громадных вычислительных ресурсов. И это в корне отличает гипотезу «Вознаграждения Достаточно» от реалий биологического интеллекта.
✔️ Во-вторых, интеллекту, построенному на гипотезе «Вознаграждения Достаточно», необходимо, чтобы кто-то формулировал и проблему, и вознаграждение. Сам такой ИИ этого делать не умеет.


С учетом таких ограничений, утверждение, будто «интеллект - это поведение, определяемое исключительно вознаграждением» - не более содержательно, чем «люди живут, исключительно потому, что дышат».

Но самый интересный вопрос – почему и зачем сенсационная шумиха вокруг превращения одной из гипотез возникновения интеллекта в дорожную карту Google по созданию AGI сделана именно сейчас?
• Не в октябре 2020, когда статься "Reward is Enough" была подана для публикации в журнале.
• Не в декабре 2020, когда главный идеолог, руководитель этого направления в DeepMind и главный автор статьи Дэвид Силвер дал максимально полное описание «гипотезы Вознаграждения Достаточно» в интервью WIRED.
• Не в январе 2021, когда доклад по этой статье был сделан Дэвидом Силвером на M2L (вот это выступление).
• И наконец, не в октябре 2021, после того, как статья пройдет рецензирование и будет опубликована.

Увы, но ответ для меня очевиден. В конце мая WSJ сформулировал это так.
«Подразделение Google DeepMind попыталось (но не смогло) добиться автономности от родителя. Alphabet пресекает многолетние усилия основателей компании, занимающейся ИИ, обеспечить себе большую независимость».

Окончание многолетних переговоров DeepMind об ослаблении диктата Google, ставит точку в вопросе «кто в доме ИИ хозяин».
• Google не ослабит свой контроль над изучением и развитием ИИ.
• Ну а миру предложено отстроиться и следовать объявленной дорожной карте.


Вот только, вопрос -
согласится ли с этим Китай?

Ссылки на источники см. в тексте
- на Medium https://bit.ly/3ivdxPU
- на ЯДзен https://clck.ru/VRZnX
#AGI
Hиколас Берггрюен — миллиардер и филантроп, создатель инвесткомпании, хеджевого фонда и института своего имени, изучающего «большую трансформацию» человечества.
Я уже писал о нём в посте «На смену человечеству идет новый вид». Там излагалось видение Берггрюена на главный вызов современности:
связку технологий ИИ и редактирования генов, подводящую людей к созданию нового вида (нового носителя высшего интеллекта).
И речь вовсе не о химерах «бунта машин» или вышедшего из под контроля «суперинтеллекта». Речь о наших детях и внуках, которые становятся сильно иными.

В новом часовом подкасте Института Future of Life Берггрюен продолжает развивать свое видение недалекого будущего, называя две главные опасности для человечества на пути превращения в новый вид.

О том, что это за опасности, в моем новом посте (3 мин чтения):
- на Medium https://bit.ly/2RRAAtw
- на Яндекс Дзен https://clck.ru/VUZJp
#ИИ #НовыйМировойПорядок #АлгокогнитивнаяКультура
​​С 1 сентября в Китае начнется ИИ-национализация.
Тем самым в партии с США Китай будет играть белыми.

Пока президент США уговаривает Европу сплотиться против попыток Китая стать единственной сверхдержавой, Китай предпочитает разговорам конкретные действия.
С 1го сентября Китай планирует вступление в силу нового законодательства, по сути, означающего национализацию больших данных, собираемых в Китае технологическими гигантами: как китайскими, так и иностранными.

Сбывается сделанное мною три года назад предсказание о грядущей «ИИ национализации». Это именно она. Ибо современный ИИ – это и есть статобработка больших данных.
• Есть большие данные – есть ИИ
• Нет больших данных – нет ИИ

Согласно новой политике Китая, собранные бизнесом большие данные, должны рассматриваться, как общенациональный актив, который может быть использован или, наоборот, засекречен, в соответствии с потребностями государства. Тем самым Китай признает большие данные еще одним национальным стратегическим активом Китая, наравне с землей, рабочей силой и капиталом.

Новое законодательство предоставляет властям свободу действий для определения, какая конфиденциальная информация будет считаться важной для государства. И если она будет признана важной, государство в праве поступать с ней, как хочет. В первую очередь, это будет касаться данных из следующих областей: управление финансовыми рисками , мониторинг вирусных эпидемий, поддержка государственных финансовых приоритетов, наблюдение за преступниками и политическими оппонентами. И этот перечень областей национализации данных открыт и будет расширяться, если так сочтет КПК.
Это будет касаться не только больших данных, собираемых китайскими компаниями. Эти требования планируется распространить и на все иностранные компании, собирающие данные на территории Китая. Превентивно реагируя на намерения Китая провести с 1го сентября национализацию больших данных, ряд крупных игроков уже принял решение пойти навстречу требованиям Китая. В их числе Apple, Citigroup Inc BlackRock, Tesla и др.

Подробней подписчики WSH могут прочесть в этом лонгиде (а без подписки здесь).

Автор лонгрида (Линлинг Вэй) дала своей работе очень точное и тонкое название «China’s New Power Play: More Control of Tech Companies’ Troves of Data». «Power Play» здесь может иметь два значения:
• общая лексика - “демонстрация силы”;
• шахматный термин - “игра на максимизацию преимущества выступки” (преимущества 1го хода белых).
Китай, первым начавший «ИИ-национализацию», тем самым получил преимущество 1го хода.
Теперь главное, чтобы партия за звание сверхдержавы #1, не вошла в историю, как «белые начинают и выигрывают».

P.S. Мало сомнений, что Россия также проведет ИИ-национализацию. Да и не только Россия.
#ИИнационализация #Китай
​​Как вирус новой религии к 2026 заразит весь цифровой мир
В 2020 стал годом «Большого откровения». Человечество увидело, насколько просто и быстро современный гиперсвязанный мир охватывается пожаром биологической и психической пандемии.
Начиная с 2021 миру предстоит столкнуться с «Большим откровением-2». Людям предстоит увидеть, насколько просто и быстро в современном цифровом мире может разгораться пожар пандемии, вызванной вирусом религии.

Вполне возможно, что подобие такого вируса уже разрабатывается компанией айтишных студентов – недоучек в одной из университетских общаг США, Китая или России. Чтобы распространиться сначала по сети университета, потом по компьютерам других университетов, подключенных к исследовательской инфраструктуре, а затем и по всему Интернету, - потребуется всего пара месяцев.

Фишка этого вируса будет в том, что он будет вирусом нового поколения. Он будет «питаться» не нанесенным вредом, не персональными данными, и не украденными деньгами, а человеческим вниманием, из которого рождается вера.

Как только вирус берет на себя управление компом,
1. он начинает выделять часть его вычислительных ресурсов для своего дальнейшего распространения (и это нормально для любого вируса),
2. он также использует вычислительные ресурсы компа для обучения большой многоязычной нейронной сети на очень большом наборе данных религиозных текстов (и это уже нечто новенькое).
Но это далеко не все.
Прекратить выполнение вирусом действий, описанных в пп 1-2, можно лишь активировав веб-камеру на компьютере. После этого вирус будет ждать, чтобы увидеть человеческое лицо. Распознав перед компом человека, вирус начинает показывать ему религиозные тексты и использует встроенное программное обеспечение для отслеживания взгляда, чтобы проверять, «читает» ли человек тексты. Если человек прочитает достаточно много религиозных текстов, вирус самоуничтожится без вреда для системы.

Этот вирус не заботится ни о чем, кроме внимания.
• Если вы позволите ему получить достаточно вашего внимания, он внедрит в ваше сознание изрядный объем религиозных текстов и уйдет.
• Если вы позволите ему получить «внимание» вашего компьютера, он использует его для репликации самого себя и поработает над улучшением своей собственной способности писать убедительные религиозные тексты за счет обучения своей распределенной нейронки.
Обезвредить такой вирус будет ох как непросто.

Однако мораль этой занятной техноутопической миниатюры Джека Кларка совсем в ином.
✔️ Современные ИИ-системы используют на входе большие данные, пропуская их через большие вычисления.
✔️ Завтрашний ИИ – 2.0 будет потреблять человеческое внимание, обратную связь людей и взаимодействие с ними.
✔️ А послезавтрашний ИИ – 3.0 будет потреблять эмоции людей.
Эти ИИ ближайшего будущего будут совсем иными, чем мы сегодня представляем. Соответственно, и связанные с ИИ риски также будут совсем другими. И пандемия новой религии, вполне возможно, далеко не самое худшее, что эти новые ИИ способны принести человечеству.

#ИИ #ГлобальныеРиски
​​Дельта способна сформировать в России «спираль смерти».
Риски самой опасной мутации мультиплицируются в России из-за ковид-диссиденства.

Индийский вариант коронавируса (вариант «дельта» или В 1.617.2):
• самый заразный и потому самый быстро распространяющийся (см. рис);
• умеет частично уходить из-под иммунного ответа (часть антител, выработанных после заболевания предыдущей версией вируса или в результате вакцинации, не работают против дельты);
• да еще и отличается иной симптоматикой (похожей на обычную простуду или ОРВИ), что сбивает с толку и мешает вовремя понять опасность.

Эти свойства дельты имеют два очень неприятных следствия:
1) Нарастающая лавина госпитализаций и доли тяжелых пациентов.
2) Повышение планки коллективного иммунитета (чтобы остановить распространение вируса, нужно иммунизировать больше людей, чем в ситуации, когда в популяции преобладали другие штаммы).


Официальных данных, какова в России доля дельты, нет. Но если следовать уже не раз оправдывавшемуся сравнению с динамикой Великобритании (см. рис), в которой доля дельты в числе новых заражений уже 90%, можно предположить похожую долю дельты в России уже до конца июня.

Еще более печальным становится тот факт, что из-за огромной доли среди населения не желающих вакцинироваться ковид-диссидентов, Россия становится идеальным местом для «выведения» новых мутаций коронавируса, еще более опасных чем дельта.

Здесь много неиммунных и частично иммунных, что создает для вируса идеальную среду многократных циклов заражений. Новые мутации пытаются многократно заражать людей, пока не сформируются штаммы, способные массово заражать и тех, кто уже переболел, и тех, кто уже привился.

Прискорбно сознавать, что такое коллективное поведение населения уподобляет людей муравьям, создающим для себя т.н. «спираль смерти».

Если тропы рабочих муравьев случайно замкнутся на себя, муравьи из-за стигмергии (см. мой пост) оказываются как бы в ловушке. Они превращаются в плотный, закрученный вихрь тел, бесконечно следующих друг за другом, пока не падают от истощения или обезвоживания. Муравьи не могут ощутить запах ничего иного, кроме феромонного следа, оставляемого идущими впереди. И нет никакой координирующей силы, которая бы увела их в безопасное место от «спирали смерти». Она становится для муравьев тюрьмой, стены которой — их собственные инстинкты.

Казалось бы, живущие в России люди куда разумней муравьев. Но сила примера - «феромонного следа», оставляемого идущими впереди ковид-диссидентами, - все равно оказывается сильнее разума, ведя все население России к «спирали смерти».

Резюме короткое и очевидное: если нет прямых противопоказаний, и не хотите попасть в «спирали смерти», - срочно прививайтесь.
#Эпидемия
​​Самая долгая игра в долгую.
Великая стратегия Китая по смене американского миропорядка

«За более чем столетие ни один противник США или коалиция противников - ни нацистская Германия, ни императорская Япония, ни даже Советский Союз - не достигли 60% ВВП США. Китай - единственное исключение, и он быстро превращается в глобальную сверхдержаву, которая может соперничать, если не затмить, США» - пишет Раш Доши, директор по Китаю в Совете нацбезопасности США, а ранее - директор Brookings China Strategy Initiative.

 Почему это произошло?
 Куда это ведет?
 Может ли что-то это изменить?

Ответам на эти три вопроса посвящена только что вышедшая книга Доши «Игра в долгую: Великая стратегия Китая по смене американского миропорядка».

Трудно пытаться ужать 400+ страниц плотного текста, изобилующего цитированием малоизвестных китайских источников, до нескольких ключевых тезисов. Но я все же попробую.

Китай пошел своим путем, принципиально отличным от всех предыдущих соперников США.
Этот путь стоит на сдвоенном основании:
1. Небывалая в истории долгосрочность стратегии.
Китай начал 100-летний стратегический марафон с целью стать мировым гегемоном, способным изменить мир в соответствии с китайскими ценностями (среди которых нет демократии), еще в 1949, когда к власти пришел Мао Цзэдун и была образована КНР. Через 100 лет после этого в 2049 году Китай планирует победить в этом марафоне.
Китай играет в самую долгую геополитическую игру из когда-либо задуманных, гораздо более длительную, более тонкую и всеобъемлющую, чем любая другая кампания, которую когда-либо предпринимала какое-либо из западных государств.
2. Китай не разделяет экономические и военные преимущества.
Следуя заветам трактата «Искусство войны» Сунь-цзы, идеал для Китая - победить противника, не сделав ни единого выстрела: «Одержать сто побед в ста битвах — это не вершина воинского искусства. Повергнуть врага без сражения — вот вершина».
И хотя военная мощь по-прежнему будет иметь значение в конкуренции между США и Китаем, в конечном счете победит тот, кто будет более эффективно управлять своей экономикой и сможет более эффективно влиять на формирование глобальной экономики.

В книге Доши описывается в деталях долгая и методичная игра Пекина по вытеснению США из регионального и глобального порядка с помощью трех последовательных «стратегий вытеснения». В книге показано, как стратегия Китая преломлялась в череде ключевых событий, меняющих восприятие американской мощи в мире:
• окончание холодной войны;
• глобальный финансовый кризис в 2008;
• популистские выборы в США в 2016;
• пандемия коронавируса в 2020.

Наконец, в книге предлагается всеобъемлющая, но абсолютно асимметричная стратегия эффективного ответа США на вызов Китая.
Её суть в том, что в марафоне двух сверхдержав - экономической и технологической гонке, которая, вероятно, продлится несколько поколений, - США должны конкурировать с Китаем, а не сдерживать его.

Хотя это соревнование имеет множество геополитических измерений (вкл. военное, дипломатическое и идеологическое), суть соревнования является геоэкономической. Технологии и инновации решат исход как будущей военной, так и экономической конкуренции.

Ну а начинать США нужно с того (как я уже про это писал), что:
прекратить вешать лапшу на уши миру, будто противостояние США и Китая в области технологических экосистем – это борьба добра со злом (ибо для большей части остального мира – это борьба двух зол);
• и оставить надежды, будто только ограничениями в стиле «суперкомпьютерный Blacklist» можно выиграть конкуренцию у Китая.

#Китай #США #Геополитика #БББ
​​Прорыв в ИИ может произойти уже до конца этого года.
Начинается всемирный поиск новых ИИ-моделей, в котором вы можете участвовать.

Речь идет об объявленном AIcrowd Facebook AI крауд-конкурсе проектирования и обучения альтернативных ИИ-агентов, работающих иначе, чем современный мейнстрим машинного обучения с подкреплением.

Недавно DeepMind объявил, что обучение с подкреплением — метод, когда ИИ-агент ничего не знает об окружающей среде, но может самообучаться, взаимодействуя с ней, - может позволить прорыв к ИИ человеческого уровня (AGI). Этот метод, действительно, весьма перспективен. Но он требует значительного объема вычислений и мощного компьютерного оборудования. А это, к сожалению, не очень подходит за пределами демонстрационных игр, когда цель – не удивить общественность, а решение практических задач в реальном мире.

Facebook решил попробовать обойти эту проблему, организовав всемирный поиск новых ИИ-моделей, позволяющих ИИ-агентам ориентироваться в сложных средах при низких вычислительных затратах.

В качестве супер-теста была выбрана NetHack — старая, но до сих пор одна из самых сложных игр. В ней игроки должны спуститься на 50+ уровней подземелья, чтобы найти магический амулет. Шансов выиграть в эту игру мало даже у ИИ-агентов, разгромивших людей в StarCraft II, Dota 2 и Minecraft. Ведь в этой игре игроки просто мрут, как мухи. А после каждой смерти подземелье полностью перестраивается, тем самым сводя почти что к нулю набранный опыт.

Единственный способ выиграть в таких адских условиях — каким-то образом суметь совместить нестандартное мышление, исследовательские навыки и удачу. Такой ИИ-агент должен уметь совмещать оптимальное применение уже имеющихся знаний со способностью исследовать совершенно неизученные области (т.е. сочетать exploitation & exploration).

Идея исследователей из Facebook проста. Авторитеты машинного обучения так пока и не преуспели в создании ИИ-агентов, способных учиться с малыми вычислительными затратами. Поэтому вместо того, чтобы самим пытаться поймать «золотую рыбку» прорывной ИИ-модели, Facebook решил провести открытый конкурс, пригласив участвовать всех желающих и предоставив каждому участнику высокотехнологическую «удочку». Ею будет специально разработанная учебная среда с открытым кодом - NetHack Learning Environment (NLE). Это масштабируемая, процедурно генерируемая, стохастическая, весьма сложная среда для исследования обучения с подкреплением в ходе игры ИИ-агента в NetHack.

Работая в среде NLE, участники смогут тратить больше времени на тестирование новых перспективных идей, а не на ожидание результатов длительных вычислений. Перед ними поставлена задача спроектировать и обучить своего агента каким угодно существующим или изобретенным способом - с машинным обучением или без него, с использованием любой внешней информации, любого метода обучения с любым вычислительным бюджетом.

Единственное требование – создать ИИ-агента, который может быть оценен жюри конкурса. О его результатах будут судить по тому, как часто этот агент выживает и поднимается из подземелья с Амулетом.

Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference). Суть такого процесса в:
• статистической генерации предсказаний (бессознательных выводов об окружающем мире и самом себе на основе внутренней модели);
• проверке этих выводов на основе сенсорных данных;
• и постоянной минимизации ошибок предсказания.

Активный вывод и прогностическое кодирование, объединенные фундаментальным принципом свободной энергии Карла Фристона я называю «конституция биоматематики». Это, по сути, - высший закон, определяющий основной принцип жизни и разума (подробней см. мой пост).

А теперь о самом важном и интересном.
Дочитать (еще всего на 1 мин):
- на Medium https://bit.ly/3j9Qaf8
- на ЯДзен https://clck.ru/VgSju
#ИИ #МашинноеОбучение #ПринципСвободнойЭнергии #Фристон #АктивныйВывод
​​Открыт универсальный закон мобильности людей.
Это очередной шаг к созданию науки типа психоистории Азимова.

Принято считать, что большинство процессов в жизни общества не могут описываться строгими математическими законами. Уж больно непредсказуемы и парадоксальны мысли людей, равно как их поведение, решения и поступки.
Но это ошибочное представление. Жизнь социумов и целых цивилизаций описывается столь же изящными и лаконичными формулами, как и знаменитая физическая формула Эйнштейна, описывающая эквивалентность массы и энергии.

В своих постах я уже несколько лет рассказываю об открытии множества формул, описывающих динамику разнообразных жизненных процессов. Например, формулы, описывающие рост биологических существ и социумов больших городов: «формула жизни», «формула городов», «формула выборов» и т.д. (подробно см. в 1 и 2)
Буквально за последние 5 лет казавшаяся сначала сумасшедшей идея, что масштабирование эволюции жизни сложных систем (экосистемы, рынки, города, предприятия, электорат, IT- и медиа-сети, инновации, потребление электричества, темп жизни и т.д.) описывается тем же степенным законом, что и масштабирование роста живых организмов.

Новый прорыв, совершенный группой исследователей «института сумасшедших идей» (Институт сложности в Санта-Фе (SFI)), MIT и ETH Zürich, открывает еще более сумасшедший закон – «Универсальный закон мобильности людей». Этот закон, описывающий универсальную схему, следуя которой люди перемещаются между городам, будет иметь решающее значение не только для городского планирования, но и для борьбы с пандемиями (ибо такие перемещения стали главным фактором развития пандемий 3).

В новой статье, опубликованной в Nature (за пейволом 4, в обход 5) , рассматривались данные о мобильных телефонах в городах по всему миру в период с 2006 по 2013 год, включая Бостон в США, Сингапур, Абиджан в Кот-д'Ивуаре, Дакар в Сенегале и два города в Португалии.

«Универсальный закон мобильности людей» - это «формула обратных квадратов». Он определяет, что количество приезжих посетителей любого городского местоположения масштабируется как обратный квадрат расстояния от дома (конкретного приезжего) и частоты посещений (этого места тем же приезжим).

Подобно гравитационному притяжению большой планеты, красивая городская площадь с интересными музеями и отличными магазинами привлекает относительно больше посетителей из более отдаленных мест (хотя и реже), чем тех, кто приезжает из близлежащих мест. Их относительное число предсказуемо определяется формулой обратных квадратов.

Другим удивительным следствием этого нового закона является то, что одно и то же количество людей посещает конкретное место, независимо от того, приезжают ли они, скажем, из другого города на расстоянии 100 километров три раза в год или из другого города на расстояния 30 километров 10 раз в год.

«Все проблемы, с которыми мы сталкиваемся, и особенно изменение климата, возникают в городах, потому что там живут люди», - сказал Джефри Уэст (ведущий автор этой работы, с 2007 возглавляющий в SFI исследования в области науки о городах. «Это значит, что понимание городов и того, как люди перемещаются в них, помогает решать фундаментальные вопросы о будущем жизни на планете».

Посмотрите, как работает «Универсальный закон мобильности людей» в жизни, на этом одноминутном видео 6.
Более полную картину работы закона можно увидеть на анимационной инфографике 7

Источники:
1
2
3
4
5
6
7
#Сложность #Города
Политических противников будут гнобить в соцсетях, а не просто гневаться на них.
Установлено, что социосетевой хейт – ключевой фактор роста инфодемий ненависти.

Таков вывод нового исследования Кембриджского университета об «извращенных» стимулах современной социальной медиасреды.
Происходящее на наших глазах вытеснение «нормального» коронавируса вариантом «дельта» - убедительный и понятный пример того, что вирус с бОльшим R0 агрессивней и опасней вируса с меньшим значением индекса репродукции.
Эта же закономерность справедлива не только для пандемий, но и для инфодемий. И в том числе, для инфодемий ненависти.

Продолжить чтение (еще на 3 мин)
- на Medium https://bit.ly/3h6tF8g
- на Яндекс Дзен https://clck.ru/VjUSR

#Поляризация #Раскол #Соцсети #СоциальныеМедиа #АлгокогнитивнаяКультура
Кажется, что мир сходит с ума: убыстрилось время, уплотнились события, люди ведут себя странно. Будто на Земле происходит какой-то глобальный «фазовый переход». По одной из версий, его причиной может быть вхождение цивилизационных процессов в зону эволюционной сингулярности, где они становятся абсолютно непредсказуемы. Эта непредсказуемость проявляется на всех уровнях: отношения между государствами, баталии внутри обществ, непонимание между индивидами. Скорость и тотальность изменений таковы, как будто меняется траектория развития цивилизации и даже сам носитель культуры - Homo sapiens.

Точно ответить, так ли это, и почему все это происходит, наука не в состоянии — нет прецедентов, такого никогда не было. Можно лишь пытаться строить более или менее аргументированные эвристические гипотезы.


Мое большое интервью Марине Токаревой – попытка собрать из нескольких эвристических гипотез одну по возможности стройную картину мира, способную прояснить причины и механизмы происходящих в нем колоссальных перемен и нарастающей непредсказуемости, а также помогающую оценить возможные сценарии ближайших перспектив.

В 1-й половине разговора мы успели поговорить о многом.
• О теории когнитивной эволюции человека, в которой Мерлин Дональд еще четверть века назад предсказал «фазовый переход», который изменит траекторию эволюции людей.
• О дегуманизации глобальной медиа-среды человечества – переходе управления гиперсетями коллективного разума от людей к алгоритмам.
• О новом бытии, в котором нет абсолютных истин.
• Об алгокогнитивной культуре, в которой волны инфодемий одновременно накрывают страны и континенты, подобно гигантскому радиоактивному облаку.
• О механизмах социальных медиа, разделяющих и поляризующих любое общество на два непримиримых племени.
• О начавшемся переходе жизни на Земле от Антропоцена к Новацену.
• О Джеймсе Лавлоке, что в 1942 нянчил младенца Стивена Хокинга, в 1974 стал Членом Лондонского королевского общества, а в 2019 отметил свое столетие бестселлером «Новацен».
• О том, зачем, по гипотезе Лавлока, машинному супер-интеллекту и в Новацене придется сохранить людей на Земле.

Читайте 1-ю часть интервью (12 мин):
- на Medium https://bit.ly/3gXR3WL
- на Яндекс Дзен https://clck.ru/VmHKy

#УскорениеЭволюции #БудущееHomo #АлгокогнитивнаяКультура #Поляризация
Эволюционный переключатель добра и зла.
Что нужно, чтоб он снова в нас переключился.
Кант прав: «моральный закон во мне», а вовсе не интеллект является поразительным и непостижимым свойством, выделившим людей из мира животных.
Пока не известно, что за переключатель перевел эволюционную траекторию наших далеких предков на путь эволюции, делающий нас людьми (а заодно и потенциально-сверхразумным видом). Свою версию этого я изложил в неопубликованной книге «SAPIENTISSIMUS — Альтернативное будущее человечества. Как борьба добра и зла внутри нас делает нас людьми» (желающие могут познакомиться с этой моей версией по опубликованным первым двум частям книги [1, 2]).

По моей гипотезе, достаточно было, чтобы эволюция (или креативность придуманного мною в развитие идей Артура Кларка руководителя проекта «Черный монолит») смогла найти простое и эффективное решение «парадокса добра».

Суть этого решения (словами придуманного мною руководителя) была такова.
«Суть “парадокса добра” в том, что воплощающие его особи будут одновременно одним из наименее и наиболее агрессивных видов. Наименее агрессивны они будут по отношению к «своим». А наиболее агрессивны, — по отношению к «чужим». В отличие от большинства животных, в своих повседневных отношениях с ближайшим окружением («своими») они будут терпимы, доброжелательны, дружелюбны и неагрессивны. Но в то же время, они будут предельно агрессивны ко всем “чужим”, существенно чаще и эффективней, чем другие виды, убивая «чужих». Причем делая это с куда большей жестокостью и изобретательностью».

Такого решения парадокса в пользу «добра», по аргументированной в моих текстах эвристической гипотезе, могло быть достаточно, чтобы сработала «эволюционная стрелка», переводя траекторию эволюции на другой путь.

Но возможна ли новая «эволюционная стрелка» в результате иного решение «парадокса добра» - на сей раз, в пользу «зла»?
Полагаю, что да. Более того, по моим представлениям, человечество вплотную к ней приблизилось.

Новое переключение «стрелки» теперь не потребует тюнинга настроек внутренней и внешней агрессии людей. Да это и невозможно уже, согласно открытой Акопом Назаретяном гипотезы техно-гуманитарного баланса (чем выше мощь производственных и боевых технологий, тем более совершенные механизмы культурной регуляции необходимы для сохранения общества [3]). Так что теперь открутить агрессию может оказаться себе дороже, - люди просто уничтожат цивилизацию.

Однако, новое решение «парадокса добра» (на сей раз, в пользу «зла») оказывается возможным, в связи с кардинальной заменой медийной среды обитания людей.

В новой алгокогнитивной культуре:
✔️ главной эволюционной ценностью, обеспечивающей выживание и воспроизводство, становятся не деньги и власть, а «число подписчиков»; конвертация этого показателя в деньги и власть представляет собой чисто технический вопрос (хоть для видеоблогера, хоть для президента сверхдержавы);
✔️ преодолению кантовского «морального закона во мне» способствует тотальная геймификация жизни молодежи – перенос эмоционально-деятельностных аспектов их жизни в «онлайф» виртуальных игр и социальных медиа.


Результат совместного действия двух названных факторов на решение «парадокса добра и зла» в пользу последнего вы можете увидеть в только вышедшей 8 мин. короткометражке студии DUST «Счастливая охота»: чтобы набрать 50 миллионов подписчиков, популярный видеоблогер ведет трансляцию с далекой планеты, пытаясь побить рекорд 4х последовательных убийств зараженных поселенцев. И ему это удается, хотя и далеко не самым приятным способом.
https://www.youtube.com/watch?v=HQkdddJ-2uY

Внимание: это не для слабонервных 18+.

Фильм не уступает лучшим сериям «Черного зеркала». И как заметил один из рецензентов:
«Автор привел убедительные аргументы в пользу отмены стримеров, YouTube, Интернета, да и людей, как вида».

[1] http://bit.ly/32oeizi
[2] https://bit.ly/3vyPxBv
[3] http://temnyjles.narod.ru/Nzrtn/Kriz.htm
#БудущееHomo
Позавчера DigiChina (Cyber Policy Center при Стэнфордском университете) выложил в сеть полный аннотированный перевод с китайского важнейшего нового «Закона о безопасности данных» (1), вступающего в силу 1 сентября.

Этот закон повлияет не только на развитие цифрового авторитаризма Китая. Его важнейшим следствием станет проведение, по сути, национализации больших данных, собираемых в Китае технологическими гигантами: как китайскими, так и иностранными.
Но что еще важнее, - этот закон станет образцом для подражания, когда Запад, не желая проиграть конкурентную борьбу Китаю, начнет национализацию своих больших данных (о чем я писал еще 3 года назад, предупреждая о грядущей ИИ-национализации (2)).

Мой развернуты комментарий по этой теме можно посмотреть в новом интервью «Китай - Сверхдержава Искусственного Интеллекта» на канале Дмитрия Солодина – премьера завтра в 19:00 по мск.

Будут обсуждаться два ключевых вопроса:
🟢Какое супер-оружие есть у Китая и почему его уже не догнать?
🟢Как Китай станет единственной сверхдержавой к 2049 году?

Данное интервью – продолжение моего разговора с Дмитрием Солодиным "Китай станет Единственной Сверхдержавой?", уже собравшего в Youtube 344К просмотров и 10К лайков.


Ссылки на источники: 1, 2

См. также по теме: 3, 4, 5

И еще три десятка постов с тэгом #Китай
Наблюдая за чередой кажущихся необратимыми изменений, привносимых в мир пандемией, невозможно не впечатлиться их колоссальной скоростью и тотальностью. Но более всего поражает, говоря словами д.ф.-м.н. Александра Панова, «переход от 4-х миллиардов лет в основном стихийной неуправляемой эволюции (типа по Дарвину и Назаретяну) к ... не знаю к чему, но того уж больше не будет». На наших глазах как будто меняется траектория развития цивилизации и даже сам носитель культуры - Homo sapiens.

Что стоит за этими тектоническими изменениями, академическая наука, к сожалению, ответить не может:
• нет прецедентов, - ведь подобного никогда не было;
• ни одну из гипотез невозможно проверить повторимым результатом экспериментов;
• да и вообще, все это не вписывается в границы современных академических дисциплин.

Остается уповать на трансдисциплинарный подход, учитывающий также то, что может лежать между дисциплинами, «поперек» дисциплинарных границ и даже вне каких-либо границ современной науки.

А пока подобных исследований нет, можно лишь пытаться строить более или менее аргументированные эвристические гипотезы, облекая их для простоты восприятия читателями в доступную научно-популярную форму.

Что и было мною сделано в интервью Марине Токаревой. Объединив несколько весьма перспективных, но малоизвестных эвристических гипотез, я попытался на основе их синтеза представить, по возможности, стройную картину происходящего. Насколько она способна прояснить причины и механизмы наблюдаемых в мире колоссальных перемен, и помогает ли она при оценке возможные сценариев будущего, судить читателям.

Во 2-й части интервью разговор шёл о следующем.
• Алгоритмы способны менять свойства личности и даже нашу биологию.
• Эксперимент академика Беляева по тысячекратному ускорению эволюции.
• Можно ли за 300 лет изменить природу людей.
• Разделится ли человечество на два новых вида, типа «морлоков» и «элоев».
• Почему о вышеназванном в России так мало пишут.
• Как изменится соотношение добра и зла, да и сама природа этих понятий.
• Почему Илон Маск хочет улететь на Марс.
• Чем занимается загоризонтная наука.
• О синтеллектуальном краудсорсинге.
• Почему лет через 300 Карла Фристона будут помнить в одном ряду с Ньютоном и Эйнштейном.

Обо все об этом читайте (12 мин):
- на Medium https://bit.ly/3qOB6VW
- на Яндекс Дзен https://clck.ru/VuJr5

#УскорениеЭволюции #БудущееHomo #АлгокогнитивнаяКультура
​​Будущее уже наступило.
ИИ не должен быть революционным, чтобы изменить войну.

На разработку, производство и эксплуатацию самого грандиозного вооружения человечества - ядерного и термоядерного оружия, - тратятся колоссальные деньги. И при этом оно практически никак не изменило масштаб и характер (способы массовых убийств людей) войн.
На разработку, производство и эксплуатацию автомата АК-47 тратятся сравнительно мизерные средства. И при этом автомат Калашникова в корне поменял и масштаб, и способ массового убийства людей на войне.
Похожая история скоро произойдет с оружием на основе технологий ИИ.
• Война кардинально измениться.
• Но изменят ее не автономные танки с истребителями, не роботы-суперсолдаты и не суперинтеллект систем управления глобальным боем.
• Применение «обычного» ИИ изменит характер войн и тип воюющих сторон:
-- война переместится в города;
-- и воевать будут, в основном, не государства, а негосударственные субъекты в обличие мелких и средних военизированных формирований.

Новую прекрасную работу Джека Макдональда «Что если военный ИИ ждет облом?» следует прочесть не только военным. Ибо она способна стать отрезвляющим душем после опьяняющего чтения техно-сказок про чудо-возможности ИИ близкого будущего: всякие там сильные, сверхсильные и недосягаемо сильные ИИ.

Джек Макдональд – междисциплинарный военный эксперт факультета военных исследований Королевского колледжа Лондона и автор 2-х книг о взаимосвязях между этикой, законом, технологиями убийств и войной.

В своем новом эссе Макдональд анализирует причины растущего скептицизма по поводу «военной ИИ революции» все еще ожидаемой в ближайшем будущем.

Не будет никакой «военной ИИ революции», - пишет Макдональд.
• Военные, в отличие от гражданских, плохо ведутся на обещания обновленного функционала, дизайна, набора приложений и т.п.
• В новом дивном мире, где цена человеческой жизни скакнула на несколько порядков, воюющим сторонам нужно уметь: найти, распознать и убить любую цель: хоть в стоге сена, хоть на дискотеке, хоть на оживленной улице. Быстро, без шума и пыли.
• А вместо суперинтеллектуального и полностью автономного оружия, военным нужен обычный дрон с хорошим летным ресурсом и достаточным количеством взрывчатки, чтобы взорвать что-угодно, масштаба башен-близнецов.

Для пулеметов с распознаванием лиц и спутниковым наведением (типа того, что убил иранского физика-ядерщика Мохсена Фахризаде), для умных пуль типа «стрельнул в сторону противника и забыл», для роя хорошо упакованных взрывчаткой дронов, и много для чего еще – не нужен сильный сверхсильный и недосягаемо сильный ИИ. Все технологии уже есть. Осталось лишь решить оргвопросы на стыке законов и морали.

Но ведь решили же проблему самонаводящихся ракет. Никому сегодня не приходит в голову возмущаться этим «автономным оружием» и требовать его запрета. Считается, что это всего лишь автоматизации. Так почему бы не распространить «процесс автоматизации» на индивидуальное стрелковое оружие и дроны, способные на самостоятельный поиск, распознавание и уничтожение целей.

И второй важный момент, о котором пишет Макдональд.
Современный ИИ на основе машинного обучения – это быль и реальность сегодняшнего дня. Этот уже существующий ИИ способен принципиально иначе поменять суть военного противостояния сторон, чем гипотетический сильный ИИ далекого будущего.
• Сильный ИИ может позволить наиболее технологически развитым государствам уйти в отрыв от более слабых в технологиях государств и тем самым получить военное преимущество.
• «Обычный» ИИ в ближайшие годы позволит негосударственным субъектам успешно вести ограниченные по масштабу войны с любой сверхдержавой, сея хаос в ее самых уязвимых и ценных местах – больших городах.

Так что почитайте Макдональда. Очень отрезвляющее и одновременно ужасающее чтение.
https://jackmcdonald.org/book/2021/06/what-if-military-ai-sucks/

#Война #ИИ #AGI #БПЛА #ГибридныеКонфликты
Также по теме можно вспомнить еще кое какие мои посты с тэгами:
#ГибридныеКонфликты #AWS #БольшаяВойна
Разум - это физическая конструкция или «форма» души?
Без ответа на этот вопрос все исследования AGI бесперспективны.

По гамбургскому счету, общепризнанного ответа на этот вопрос у науки нет. И как показал первый профессиональный батл двух признанных специалистов:
• у обеих позиций есть крепкие аргументы;
• но этих аргументов категорически недостаточно для научного признания позиции истинной;
• скорее всего, однозначный ответ на этот вопрос станет возможен лишь в иной мировоззренческой парадигме, синтезирующей материализм и томизм.

Следовательно, продолжение дискуссий в рамках каждой из двух изолированных парадигм:
✔️ материализма: разум - это чисто физическая конструкция, и когда мы поймем, как работает нейронная машинерия мозга, мы сможем смоделировать в ИИ нового поколения не только интеллект (вычислительный аппарат мозга), но и разум;
✔️ или томизма: душа - это «форма» тела (разница между живым телом и мертвым, включающая в себя материальный элемент (эмоции) и нематериальный (рассуждения и моральный выбор)); следовательно, моделирование лишь интеллекта и материального элемента не позволит воспроизвести разум;
- бессмысленно, ибо вопрос нерешаем.

Прекрасной иллюстрацией такого вывода является батл
• доктора медицины, нейробиолога и профессора нейрохирургии с 40-летней практикой Майкла Эгнора
• с профессором философии Королевского колледжа в Лондоне, а также Кембриджского и Нью-Йоркского университетов Дэвидом Папино.

Поразительно, но философ - теоретик Папино, занимающийся проблемой разума и сознания всю жизнь и написавший про это дюжину книг, считается одним из лучших в мире защитников материалистической парадигмы. А практика - нейрохирурга Эгнора весь его 40-летний опыт убедил в обратном, - что Бог существует, и что разум реален.

Проф. Папино уверен, что так называемый «объяснительный пробел» - это просто проявление интуитивного убеждения в истинности дуализма. Дело не в том, что идентичность разума и мозга трудно объяснить - в них просто трудно поверить.

А проф. Эгнор утверждает, что дуализм - это вовсе не заблуждение, а факт: разум - это не тот же тип сущностей, что и мозг. Осознание этого факта помогает нам понять, почему люди с расщепленным мозгом или только половиной мозга могут вести нормальную психическую жизнь и почему люди с массивным и необратимым повреждением мозга могут оставаться в сознании. Так что дуалистический подход в вопросах разума - это не просто интуитивный выбор. Этот подход основан на экспериментальных доказательствах. Независимо от того, считаем ли мы дуализм жуткой химерой, мы можем наблюдать его в экспериментах.

По сути, этот часовой батл подводит черту под бесконечными дискуссиями по данному вопросу.
Все сказано, и дальше нужно «либо крестик снять, либо трусы надеть»:
• признать бесполезность гипотез на основе лишь одной из противоположных парадигм;
• или признать поражение человеческого разума в понимании работы этого разума.


Впрочем, послушайте сами этот часовой батл.

А поскольку оба профессора текстуют будь здоров, как непросто, дам также ссылки на размеченные и аннотированные стенографические брифы пяти раундов батла.

Видео батла (1 час 5 мин)
Брифы 5-и раундов: 1, 2, 3, 4, 5

#Мозг #Разум #Сознание #AGI