Малоизвестное интересное
65.7K subscribers
102 photos
1 video
11 files
1.81K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Так лучше или хуже становится мир?
Если вы так и не нашли время на два последних бестселлера Стивена Пинкера – «The Better Angels of Our Nature» и «Enlightenment Now» (о которых нынче только и говорят в свете роста угрозы большой войны), у вас появился отличный шанс исправить ситуацию всего за 18,5 минут.
Ровно столько длится только что опубликованный ролик конференции TED с выступлением Пинкера, озаглавленным «Мир улучшается или ухудшается? Взглянем на цифры».

В этом ролике Пинкер кратко суммирует свои тезисы о том:
— что мир становится лучше почти по всем измеримым параметрам;
— что многие либералы ненавидят этот прогресс;
— и что пессимизм в отношении будущего опасен.

Пинкер анализирует причины и движущие силы наблюдаемого прогресса по многим параметрам (насилие, качество жизни, благосостояние, здоровье и т.д.), который он иллюстрирует интересными графиками.

И хотя среди авторитетных ученых есть не мало оппонентов «теории улучшающегося мира» Стивена Пинкера, это его выступление:
✔️ весьма аргументировано;
✔️ ярко и зажигательно;
✔️ и главное, - лаконично и ясно иллюстрирует позицию автора.

Поэтому всем рекомендую. Не пожалеете.
Видео https://goo.gl/14748Z
Транскрипт (англ.) https://singjupost.com/is-the-world-getting-better-or-worse-a-look-at-the-numbers-steven-pinker-transcript/
Транскрипт (рус.) http://2035.media/2018/05/23/ted-pinker/
Мой нашумевший пост о битве Стивена Пинкера и Нассима Талеба о «теории улучшающегося мира» и о том, миновать ли нам большой войны или нет https://goo.gl/M9UrKe

#Прогресс #Насилие #Война
После Трампа и Брекзита: раскол и война или есть выход?

В чем причина нарастающего ксенофобского национализма и нетерпимости, ведущих к расколу общества в таких разных стран, как Россия и США, Турция и Великобритания, Франция и Иран?

Попытка найти ответ на этот вопрос была предпринята мною год назад в лонгриде «Пора разделяться». В нем я постарался, на основе объективно проверяемых данных, вывести «формулу раскола», объясняющую нарастание поляризации в обществе развитых стран (Трамп, Брекзит и т.д.) столкновением модерна и архаики.

Дмитрий Быков, обсуждая предложенный мною вариант ответа, нашел его оптимистичным. Ведь из него следует, что глобального конфликта можно избежать, если стороны, повинуясь различным скоростям жизни, просто физически разделятся и перестанут видеть друг друга.
И тогда у «добрых ангелов человечества» Стивена Пинкера, появился бы шанс остановить мир от сползания к ситуации, описанной мною ранее в лонгриде «Большой войны не миновать».

Но что, если в основании «формулы раскола» не столкновение модерна и архаики, а нарастающая разбалансировка в экономической модели развитых стран? Разбалансировка между мотивацией правительств, реакциями рынков и потребностями обществ.

Ели так, то без кардинальной трансформации в экономике развитых стран нарастающий раскол не остановить и тогда большой войны все же не миновать.

В новой лекции два известных экономиста и профессора Венди Карлин и Сэмюэл Боулз обсуждают механизм работы «формулы раскола» на 2х ключевых кейса - Трамп и Брекзит - и намечают новую экономическую парадигму, как основу для более устойчивого и справедливого глобального будущего без Большой войны.

Видео лекции «После Трампа и Брекзита: новая экономика» -1 час 22 мин.

Мой лонгрид «Пора разделяться»

и его обсуждение Дмитрием Быковым в аудио-формате (начиная с 7й мин).

#Толерантность #Раскол #Война
Начинаем 2020 с самого важного, актуального и интересного — социальный прогноз на 10 лет.
Это научный прогноз. И он не хуже, но и не точнее прогноза погоды на 10 дней.
Прогноз таков: 2020е станут десятилетием насилия, войн и революций.
В основе прогноза много всякого малоизвестного-интересного.
• Сокровенная мечта Илона Маска
• Как сохранятся знания человечества при глобальной катастрофе на Земле
• Чем Длинные Данные круче Больших Данных
• Может ли психоистория спасти цивилизацию
• Почему ближайшее будущее станет пиком нестабильности
• Что в работах Петра Турчина заинтересовало Insight Investment
• Как формируются «волны насилия»
• Выпал ли человечеству Джокер
• И что же будет с родиной и с нами
Обо всем об этом в постпраздничном лонлонггриде на 23 мин (получилось длинно, ну да тема такая)
- на Medium https://bit.ly/49jhLkJ
- на Яндекс Дзен https://clck.ru/LqKwv

И умоляю - если даже такая тема вас не заинтересовала и нет желания читать дальше, не тратьте больше свое драгоценное время. Смело отписывайтесь от этого канала.
В мире ведь так много другого - общеизвестного неинтересного.
#Клиодинамика #Прогноз #Насилие #Война #Революции
Гражданская война или революция в США становятся возможны.
Так считает Петр Турчин, 10 лет назад предсказавший нынешний пик насилия в США.

Увы, это его предсказание сбылось. В США набирает обороты самая страшная вспышка социальной нестабильности с 1960-х годов. Только позавчера во время празднования Дня независимости прошли масштабные беспорядки с применением огнестрельного оружия, в результате погибли по меньшей мере 27 человек, трое из которых — дети.
✔️ Почему это происходит? (на чем основывался сбывшийся прогноз Турчина)
✔️ Каким может быть развитие событий? (если расширить рамки прогноза на ближайшее будущее)
Вот что ответил на эти вопросы Петр Турчин, третьего дня опубликовавший статью «Я предсказал, что 2020 год станет кошмаром для США. Может ли это помочь предотвратить вторую гражданскую войну.

1. Данный прогноз был проверкой теории, которую Турчин и двое его коллег — Сергей Нефедов и Андрей Коротаев, - разработали, изучая прошлые общества, чтобы определить, какие факторы приводят в крупным социальным кризисам уровня революций или гражданских войн. Разработанные в этом исследовании модели позволяют делать количественные и проверяемые предсказания, путем анализа нескольких факторов – катализаторов социально-политических кризисов (подробней в моем посте «Яростные 2020-е: насилие, войны, революции».

2. Два ключевых фактора модели напоминают знаменитую формулу Ленина для революционной ситуации. Она возникает, когда «низы не хотят», а «верхи не могут» жить по-старому.

3. 1й элемент этой формулы в модели Турчина отражает уровень неравенства в обществе. Низы «перестают хотеть», когда неравенство выходит за рамки уровня, который большинство считает справедливым. К началу 2020-х отношение средней зарплаты к ВВП на душу населения в США упало до исторически низкого уровня, а минимальная зарплата с учетом инфляции ниже, чем в 1960-х годах. И это при том, что экономика США значительно выросла за последние 4 десятилетия, что позволило увеличить число миллионеров и миллиардеров в стране в 3-5 раз. Как тут низам «хотеть» подобного роста несправедливости?

4. 2й элемент – «перепроизводство элит». Модель Турчина предполагает, что определенная часть богатой элиты хочет преобразовать свою экономическую власть в политическую, либо баллотируясь на политические должности, либо инвестируя в кандидатов по своему выбору. В 4 раза больше миллионеров чем 40 лет назад означает, что теперь в 4 раза больше людей вовлечены в политику. Число кандидатов на власть увеличилось, но число позиций власти не изменилось: в Палате представителей США все еще 435 мест, 100 сенаторов и только 1 президент США. Внутриэлитная конкуренция становится столь высока, что «верхи не могут» жить по-старому. Нужно что-то капитально менять.

5. Дальше чистое моделирование. И оно показывает, что «революционная ситуация» в США в 2020х начинает зашкаливать из-за приливных волн недовольства в массах и среди элиты. США очень близко подошли к тому моменту, когда становится вероятной гражданская война или революция.

Конечно, такие «революционные ситуации» не всегда заканчиваются реальной революцией. В истории было по-всякому. Но слишком уж усложнилось общество, пишет Турчин. А сложным системам не подходят простые линейные решения, которые часто лишь ухудшают ситуацию из-за непреднамеренных последствий. Что мы ярчайшим образом наблюдаем на примере борьбы правительства США с COVID-19.

Дальнейший прогноз не радует. Под близким к закипанию недовольством масс зажглась мощная горелка экономического корона-кризиса. А конкуренция и конфликты в элитах вовсю подогревается самим Президентом, как будто поставившим себе цель расколоть страну и институт президентства.
#Клиодинамика #Прогноз #Насилие #Война #Революции
​​Зачем ИИ собачьи бои.
Фейковая победа ИИ в воздушном бое.

Ширнармассы получили новое подтверждение – супер-ИИ уже на подходе. В шахматы ИИ людей обыграл, в Го и покер тоже. Ну а теперь уже не игры, а самое серьезное из дел – война. Целую неделю техноэнтузиасты и бизнес-бенефициары ИИ с восторгом рассказавают ширнармассам, что в воздушном бою истребителей ИИ, как Тузик грелку, порвал летчика-аса. При этом особый восторг выражается по части того, что в воздушном бою, как и в играх, алгоритмы не просто действуют сильнее людей, а действуют совсем по-другому – так, как людям и в голову не приходит.

Но все подобные рассказы - 100%ный фейк. Чистой воды постановочное шоу с единственной целью – под шумиху в медиа выбивать новый бюджеты. Ну а зачем этот низкопробный театр рекламируют в медиа, - спрашивать бессмысленно. Тизер «человек укусил собаку» сегодня звучит «ИИ победил в собачьих боях». Именно так – Dogfight, - называется тот тип воздушного боя, в котором ИИ победил человека.

«Собачий бой» - это бой боевых самолетов на предельно малом расстоянии, когда они маневрируют на грани предельного риска, как для самолета (из-за потери управляемости), так и для пилота (из-за предельных перегрузок).

«В таком бою у человека не было ни шанса». Так написала про этот «театр» Missy Cummings – одна из редких высочайших профессионалов, одинаково хорошо разбирающаяся в ИИ (профессор робототехники) и воздушном бое (одна из первых женщин-летчиц истребителей ВМС США). Это как соревноваться с ИИ-автопилотом в том, кто первым свернёт, несясь на 250 км/час лоб в лоб. У него и «нервы» крепче, и реакция не в пример человеческой, да и себя ему совсем не жалко, в отличии от нас – белковых дрожащих и потеющих от страха тварей.

Кроме того, такой стиль маньяка-камикадзе не может пригодиться и в бою дронов. Зачем вообще стращать противника, проносясь мимо в 3х метрах, если можно шваркнуть по нему из пушки с дальнего расстояния. Поэтому «собачий бой» с его тараном в стиле штабс-капитана Нестерова или «подрубанием» винтами хвост противника, давным-давно забыли. Современное искусство воздушного боя в том, чтобы первым обнаружить противника в воздухе и сбить его ракетой до того, как он обнаружит тебя.

Что же до тактики ИИ, победившего несчастного пилота, то в ВВС США она запрещена: и лобовые атаки и подлет к противнику ближе 150 м. Это позволяет избежать столкновения самолетов в воздухе и попадание истребителя в облако обломков взорвавшегося противника. Более того, летчиков учат держаться подальше от противника, дабы расширить возможности маневра, наведения на цель и уклонения от обстрела. Ну а ИИ на всё это забил, действуя против всех существующих правил и ведя себя, как сумасшедший с бензопилой.

Объяснять дальше этот фейк, думаю, нет нужды.
А как же на самом деле обстоят дела с военным автопилотом?
Почитайте Missy Cummings, она в этом спец. А если в 2х словах, то так:
1. ИИ превосходит людей в некоторых задачах, основанных на навыках и правилах. Однако, в ситуациях, требующих суждений и знаний при наличии значительной неопределенности, люди несравненно сильнее ИИ.
2. Посему ИИ отличная штука в конфигурации кентавра с человеком. ИИ разгружает пилота от рутины, филигранно выполняя действия, описываемые правилами, пока человек думает, оценивает, соизмеряет стратегию с тактикой и принимает решения.
#ИИ #Война #БеспилотныеАвто
​​智能化战争
Ставка Китая на интеллектуальную
войну
Эта тема, как наверняка догадываются мои читатели, для меня высокоприоритетна. Увы, но подавляющее число стратегических аналитиков не хотят видеть двух важнейших оснований превращения Китая в мирового авторитарного лидера новых технологий. Хотя оба эти основания более, чем серьезные.
Вот эти два основания.

Военно-гражданское слияние
Это самая цельная и конкретная стратегическая доктрина технологического доминирования в мире со времен «инновационного треугольника» Вэнивара Буша - концепции национального технологического скачка, в середине 20 века превратившая США в мировую сверхдержаву.
Проблема в том, что все слышали про военно-гражданское слияние, но мало кто понимает масштаб и цельность этой доктрины.
Взгляните сами на приложенную структуру этой доктрины (перевод с китайского Питера Вуда), дабы понять, насколько это серьезно.
А) Доктрина покрывает все 9 главных областей интересов государства (от законов до культуры).
Б) Имея одну цель (мировое доминирование) она проецирует ее на неограниченное число доменов (от фундаментальной науки до прорывных технологий, от обучения до социальных сервисов и т.д.)
В) В домене прорывных технологий их всего три (пример идеальной фокусировки): ИИ, био-технологии и новые источники энергии.

Ставка на интеллектуальную войну
В отличие от политкорректного Запада, Китай не теребит передник, а прямо заявляет о целях своей новой военной доктрины. Здесь нет никаких сомнений в этичности и рисках автономных систем. Но самое важное то, что китайцы четко формулируют – «кинетической войны» больше нет, а есть только «интеллектуальная война». В ней Китай и собирается победить всех.
Подробней читайте в новом уникальном руководстве с сотнями ссылок на первоисточники, которое написал Кевин Макколи для командного состава армии США. Далее только цитаты.
Интеллектуальная война представляет собой переход от кинетической войны к войне, основанной на информационных системах, и от физического противоборства к интеллектуальному противоборству в информационной и когнитивной областях.
Именно интеллектуальное противоборство теперь является доминирующим фактором, определяющим исход операций.
Интеллектуальная война – это не просто цифровое поле боя. Это многодоменная алгоритмическая война с использованием достижений семи революций:
1. революция сбора данных, вызванная интернетом вещей;
2. вычислительная революция, вызванная облачными вычислениями;
3. предсказательная революция, инициированная большими данными;
4. коммуникационная революция, инициированная квантовыми технологиями;
5. революция материалов, инициированная нанотехнологией;
6. поведенческая революция, вызванная ИИ технологиями;
7. ударная революция, вызванная военной аэрокосмической, электромагнитной, направленной энергетикой, беспилотными и автономными боевыми системами и разработкой умных боеприпасов.
Методы военных действий кардинально меняются из-за кардинального изменения решающего фактора доминирования. Им становится получение алгоритмического и когнитивного доминирования.
Ключевым фактором интеллектуальной войны становится автономия беспилотных систем.
• Воевать будут автономное интеллектуальное оружие и системы. Они будут выполнять оперативные намерения и достигать оперативных целей, определенных людьми.
• Люди же будут лишь планировать, организовывать и вести войны, принимая решения о командовании и выбирая оперативные методы.
#Война #БольшаяВойна #Китая #США
COVID-19 Китай уже победил, а к 2035 собирается победить США.
Первое было наглядно продемонстрировано миру тем, что все 360+ участников завершившегося вчера пленума ЦК КПК были без масок и не держали дистанцию.
Второе следует из итогового коммюнике пленума, в котором указаны 3 важнейшие стратегических цели.
1. Сделав ставку на инновации, в ближайшие несколько лет превратить Китай в технологически самодостаточную сверхдержаву, а к 2035 превзойти США во всех ключевых областях науки и технологий.
2. Радикально переоснастить и переформировать армию, чтобы превратить Китай и в военную сверхдержаву, для начала уровняв военный потенциал с США уже к 2027.
3. «Забить на глобализацию, ибо главное в мире – это сам Китай». Так можно вольно сформулировать концепцию «двойной циркуляции» Китая – его глобального разъединения с миром и уменьшения завязок на глобализацию.

Вот всего три примера, иллюстрирующие хорошие перспективы выполнения этих планов.
1. Наплевав на наложенные США ограничения экспорта микросхем в Китай (равно как и на вчерашнее послабление этих ограничений), Китай небывалыми темпами строит собственную индустрию микросхем: 19 тыс новых компаний заработали в этой отрасли только в 3-м квартале, а с начала года это + 48 тыс компаний, что довело общее число компаний до 230 тыс.
2. «Холодная война» совсем не мешает Китаю пылесосить деньги американских инвесторов. Рыночная стоимость листинга китайских компаний в Америке сейчас превышает 1,6 трлн долларов, из которых американским инвесторам принадлежит почти треть. Более того - Goldman Sachs прогнозирует рекордное количество листингов китайских компаний в Нью-Йорке в этом году.
3. Новый закон об ограничении экспорта высоких технологий из Китая (о котором я писал неделю назад) принят и вступает в силу с 1го декабря. Забить на глобализацию, как и было сказано.
#Китай #США #Технологии #Война
​​Будущее уже наступило.
ИИ не должен быть революционным, чтобы изменить
войну.
На разработку, производство и эксплуатацию самого грандиозного вооружения человечества - ядерного и термоядерного оружия, - тратятся колоссальные деньги. И при этом оно практически никак не изменило масштаб и характер (способы массовых убийств людей) войн.
На разработку, производство и эксплуатацию автомата АК-47 тратятся сравнительно мизерные средства. И при этом автомат Калашникова в корне поменял и масштаб, и способ массового убийства людей на войне.
Похожая история скоро произойдет с оружием на основе технологий ИИ.
Война кардинально измениться.
• Но изменят ее не автономные танки с истребителями, не роботы-суперсолдаты и не суперинтеллект систем управления глобальным боем.
• Применение «обычного» ИИ изменит характер войн и тип воюющих сторон:
-- война переместится в города;
-- и воевать будут, в основном, не государства, а негосударственные субъекты в обличие мелких и средних военизированных формирований.

Новую прекрасную работу Джека Макдональда «Что если военный ИИ ждет облом?» следует прочесть не только военным. Ибо она способна стать отрезвляющим душем после опьяняющего чтения техно-сказок про чудо-возможности ИИ близкого будущего: всякие там сильные, сверхсильные и недосягаемо сильные ИИ.

Джек Макдональд – междисциплинарный военный эксперт факультета военных исследований Королевского колледжа Лондона и автор 2-х книг о взаимосвязях между этикой, законом, технологиями убийств и войной.

В своем новом эссе Макдональд анализирует причины растущего скептицизма по поводу «военной ИИ революции» все еще ожидаемой в ближайшем будущем.

Не будет никакой «военной ИИ революции», - пишет Макдональд.
• Военные, в отличие от гражданских, плохо ведутся на обещания обновленного функционала, дизайна, набора приложений и т.п.
• В новом дивном мире, где цена человеческой жизни скакнула на несколько порядков, воюющим сторонам нужно уметь: найти, распознать и убить любую цель: хоть в стоге сена, хоть на дискотеке, хоть на оживленной улице. Быстро, без шума и пыли.
• А вместо суперинтеллектуального и полностью автономного оружия, военным нужен обычный дрон с хорошим летным ресурсом и достаточным количеством взрывчатки, чтобы взорвать что-угодно, масштаба башен-близнецов.

Для пулеметов с распознаванием лиц и спутниковым наведением (типа того, что убил иранского физика-ядерщика Мохсена Фахризаде), для умных пуль типа «стрельнул в сторону противника и забыл», для роя хорошо упакованных взрывчаткой дронов, и много для чего еще – не нужен сильный сверхсильный и недосягаемо сильный ИИ. Все технологии уже есть. Осталось лишь решить оргвопросы на стыке законов и морали.

Но ведь решили же проблему самонаводящихся ракет. Никому сегодня не приходит в голову возмущаться этим «автономным оружием» и требовать его запрета. Считается, что это всего лишь автоматизации. Так почему бы не распространить «процесс автоматизации» на индивидуальное стрелковое оружие и дроны, способные на самостоятельный поиск, распознавание и уничтожение целей.

И второй важный момент, о котором пишет Макдональд.
Современный ИИ на основе машинного обучения – это быль и реальность сегодняшнего дня. Этот уже существующий ИИ способен принципиально иначе поменять суть военного противостояния сторон, чем гипотетический сильный ИИ далекого будущего.
• Сильный ИИ может позволить наиболее технологически развитым государствам уйти в отрыв от более слабых в технологиях государств и тем самым получить военное преимущество.
• «Обычный» ИИ в ближайшие годы позволит негосударственным субъектам успешно вести ограниченные по масштабу войны с любой сверхдержавой, сея хаос в ее самых уязвимых и ценных местах – больших городах.

Так что почитайте Макдональда. Очень отрезвляющее и одновременно ужасающее чтение.
https://jackmcdonald.org/book/2021/06/what-if-military-ai-sucks/

#Война #ИИ #AGI #БПЛА #ГибридныеКонфликты
Также по теме можно вспомнить еще кое какие мои посты с тэгами:
#ГибридныеКонфликты #AWS #БольшаяВойна
Общеизвестно - будущее трудно предсказать и можно лишь вообразить. Если же речь идет не о будущем конкретных людей, а о будущем всего человечества, воображаемая нами картина будет сильно зависеть от двух важных моментов.
1. Действительно ли люди живут во все более ненасильственном мире, в котором вероятность большой войны снижается из-за гуманизирующей роли прогресса?
2. Правда ли, что в современном обществе роль научных знаний при формировании мировоззрения людей становится все меньше, а роль популярных мифов все больше?

От ответа на первый вопрос в принципе зависит быть или не быть человечеству в воображаемом будущем.
От ответа на второй, - что будет у людей будущего в головах, как они будут воспринимать мир, других людей и самих себя.

Первый вопрос был поставлен еще пять лет назад. Его обсуждению был посвящен проходивший в 2016 году в городе Берген 161-й Нобелевский симпозиум «Причины мира» — The Causes of Peace.

Второй — поставлен всего месяц назад семнадцатью учеными международного уровня в опубликованной ими книге «The Darker Angels of Our Nature. Refuting the Pinker Theory of History & Violence» (Темные ангелы нашей природы. Опровержение теории Пинкера об истории и насилии).

Как видно уже из названия, цель книги — ответить на 1-й вопрос: дать научное опровержение популярного и вводящего в заблуждение тезиса Стивена Пинкера о том, что мы, люди, живем во все более мирном мире. Заодно, авторы попытались ответить и на 2-й вопрос.

Но обо всем по порядку.
Читайте в моём новом посте (9 мин чтения):
- на Medium https://bit.ly/3AtzwME
-на Яндекс Дзен https://clck.ru/YAR9Q
#Прогресс #Насилие #УровеньНасилия #Война #БольшаяВойна
Мой новый пост приурочен к весьма интересному событию - открыт свободный доступ к визуальному интерфейсу новой системы прогнозирования военизированных межгосударственных споров (militarised interstate disputes – MID). Система разрабатывалась 10 лет командой из 30 специалистов инвестиционного фонда Coolabah Capital Investments.
Это не академическое исследование. Тут, говоря словами Нассима Талеба, шкура на кону. От точности прогнозов этого инвестфонда зависит судьба $7+ млрд инвестиций, находящихся под его управлением. Вот почему это не только любопытная, но и весьма интригующая новость.
Кроме того, теперь каждый может сам увидеть и проанализировать, как менялись шансы войны между парами стран (Россия и США, Россия и Китай, Индия и Китай, Германия и Россия, Австралия и Китай …) за последние 160 лет, и каков их прогноз на ближайший год, 5 и 10 лет.
Продолжить чтение (12 мин)
- на Medium https://bit.ly/3BYJ03Q
- на Яндекс Дзен https://clck.ru/YJKLm
#война #предсказание
Технологии таки превзошли эволюцию.
Ни одно существо на Земле не умеет так летать.

Последствия этого будут серьезней всех предыдущих технологических революций, - о чем рассказывает Мартин Бранденбург в новом Weekend Video о создании полностью автономных дронов.
Многоногие роботы ловко передвигаются, танцуют и показывают акробатические номера. Но им далеко до гепардов, пауков и кузнечиков. Продукты технологий здесь существенно хуже продуктов эволюции.
Однако технологии в 2021 смогли превзойти эволюцию, создав полностью автономных дронов, которые:
1. прекрасно видят: шесть 4К навигационных камер для обзора на 360 ° (при таком зрении не нужны компасы, гироскопы, GPS, лидары … ничего более).
2. понимают, что они видят (распознавание объектов и сцен):
a. 256-и ядерный графический процессор 1.3Т операций / сек, обрабатывающий за секунду 500М пикселей;
b. 9 нейронных сетей, в реальном времени строящих 3D модели всего, что видят.
3. интеллектуально действуют: алгоритмы глубокого обучения работают как «предиктивный мозг», предсказывающий будущее для принятия разумных решений.
Эти дроны абсолютно автономны. Им нужно лишь дать задание, а дальше они все сами (см. видео)
https://www.youtube.com/watch?v=d1fZNmI5AHc

Но вот беда. Такие дроны – идеальные киллеры, отследить и помешать которым почти нереально. А их летающие группировки (а то и рои) полностью дегуманизируют войны, принимая автономные решения, кому жить, а кому нет.

Посмотрите всего 1 минуту, как это может быть очень скоро.
https://youtu.be/9rDo1QxI260?t=184

Послезавтра начнется конференция по конвенции о «негуманном» оружии. На ней будет рассмотрен предложенный Международным комитетом Красного Креста (МККК) мировой юридически обязывающий запрет на автономное оружие с искусственным интеллектом.

По экспертным оценкам, это предложение не пройдет, т.к. против запрета выступят США, Россия, Китай, Индия и Великобритания.
#Война #ИИ #БПЛА #AWS
Военный ИИ в разы превосходит людей по двум показателям.
И в штабе ВВС США они хорошо известны: уязвимость и самонадеянность.

В своем официальном выступлении генерал-майор Дэниел Симпсон (помощник заместителя начальника штаба по разведке, наблюдению и рекогносцировке Штаб-квартиры ВВС США) лишь озвучил три хорошо известных для американских военных факта.
1. Не самая высокая точность алгоритмов военных ИИ (из-за дефицита обучающих данных, несопоставимого, например, с морем данных для самоуправляемых авто) – это еще не самое плохое.
2. Куда хуже, что попытки преодолеть дефицит данных, используя небольшие наборы с локальной спецификой или синтетические – искусственно сгенерированные данные), делают военный ИИ крайне уязвимым. Т.е. малейшее отличие данных реальной военной ситуации (например, смена угла зрения) от ситуаций, на которых учился ИИ, ведет к катастрофическому снижению точности решений и действий ИИ.
3. Такую потерю точности люди прекрасно видят. Но в отличие от них, военный ИИ продолжает считать, что он - «верная рука – друг индейцев». В примере экспериментальных стрельб, приведенном генералом Симпсоном, ИИ продолжал считать свою точность 90%, даже когда по факту она была всего лишь 25%.
Подробней здесь https://www.defenseone.com/technology/2021/12/air-force-targeting-ai-thought-it-had-90-success-rate-it-was-more-25/187437/

Этот (как и вчерашний) пост приурочен к открывающейся завтра международной конференции. Теоретически, человечество уже на следующей неделе могло бы принять решение двигаться к юридически обязывающему запрету на автономное оружие с ИИ.
Но на практике, этого скорее всего не будет из-за нежелания США и ряда других стран пойти на полный запрет.

Целью же этого поста было подчеркнуть, что несовершенство и уязвимость любых разновидностей автономного ИИ оружия, в сочетании с их нечеловеческой аморальностью и самонадеянностью, - прокладывают путь к таким массовым убийствам, за которые и осудить будет некого. Ибо главное преимущество ИИ не в уровне его интеллекта. А в том, что он неподсуден.

• Специалисты по ИИ это знают и 73% опрошенных среди них против автономного ИИ оружия.
• Военные (судя по тому, что сказал генерал Симпсон) тоже в курсе того, насколько это неэффективно и опасно.
Получается, что против запрещения автономного ИИ оружия лишь политики?
#Война #ИИ #БПЛА #AWS
Лицензия ИИ на убийство людей продлена на неограниченный срок.
8 лет экспертных обсуждений спущены в унитаз.

Завершившаяся в пятницу в Женеве 6-я конференция по рассмотрению действия Конвенции о запрещении или ограничении применения конкретных видов обычного оружия теперь войдет в историю.
• 8 лет человечество обсуждало необходимость введения юридически значимых международных правил защиты людей от автономного смертельного оружия (роботов-убийц, принимающих решения с минимальным участием человека или без него).
• Впервые большинство из 125 стран заявили, что хотят ограничить возможности роботов-убийц.
• США, Россия, Великобритания и Индия заблокировали такое решение.

Моральные, этические и гуманитарные риски, риски безопасности и правовые риски, применения роботов-убийц оказались далеко не самым важным вопросом для Конвенции ООН.
Конференция завершилась в пятницу лишь расплывчатым заявлением о целесообразности в 2022 рассмотреть возможность поиска приемлемых для всех стран мер по данному вопросу.
«Я подумаю об этом завтра», - говорила в подобных случаях героиня «Унесенных ветром» Скарлетт О`Хара. Но проблема в том, что завтра может быть поздно.

За день до этого, в ходе дискуссии, организованной Международным Красным Крестом, я предсказал ровно этот бесславный итог конференции, за который очень скоро будет заплачено многими жизнями людей.

Мое выступление и ответы на вопросы (22 мин) можно посмотреть здесь.
https://www.youtube.com/watch?v=oG9FICaJRcI

#Война #ИИ #БПЛА #AWS
​​Интеллектуальная война – это гипервойна, война на истощение, междоменные боевые действия и операции когнитивного контроля.
Резюме отчета Минобороны США о военной мощи Китая.

Вопросы войны сейчас как никогда актуальны. Но кроме России и Украины, в мире есть и другие игроки, от военной мощи которых будущее зависит куда сильнее.
В первую очередь, - это Китай, до завершения «великой модернизации» которого осталось пять этапов.

1. К 2025 осуществить импортозамещение ключевых высокотехнологичных товаров: от сельскохозяйственных технологий до морской и аэрокосмической техники.
2. К 2027 модернизировать армию Китая до уровня, позволяющего успешно вести «интеллектуальную» войну.
3. К 2030 стать мировым лидером в ИИ.
4. К 2035 завершить мировое продвижение китайских стандартов функциональной совместимости новых технологий.
5. К 2049 году достичь своей столетней цели и превратиться в «современную социалистическую страну, которая будет процветающей, сильной, демократической, культурно развитой и гармоничной».

Только что опубликованный отчет Минобороны США о текущем состоянии и перспективах наращивания военной мощи Китая – это обстоятельный (173 стр) разбор п. 2 (как Китай модернизирует армию для ведения интеллектуальных войн).

Выделенные мною ключевые моменты таковы.

✔️ Ракетно-ядерное оружие больше не приоритет (если потребуется Китай уже способен нанести непоправимый урон любой географической точке Земли, но доктрина взаимного уничтожения делает подобные удары неприемлемыми для Китая).

✔️ Взят 100%-ный курс на «интеллектуальную» войну.
Она включает в себя:
-- Гипервойну, при которой во многих случаях отсутствует доступ к оперативным данным на поле боя, а скорость и темп операций превосходит физическую и ментальную реакцию людей.
-- Войну на истощение , которую ведут рои интеллектуальных дронов.
-- Междоменные боевые действия включают в себя ИИ-конфронтацию в космосе, радиоэлектронную борьбу и кибероперации.
-- Операции когнитивного контроля - направленное изменение восприятия, оценок и прогнозов динамики военного противостояния в сознании лиц, принимающих решения на стороне противника.

✔️ Детальный анализ, основные открытые положения которого приведены в отчете, приводит к трём выводам:
-- Ставка Китая на технологическое военное лидерство верная.
-- Шансы достичь технолидерства у Китая есть, и никто в мире (кроме США) не способен этому помешать.
-- Имеет место разрыв между видением Китая будущей «интеллектуальной» войны и реальными возможностями Китая. Это делает заявления, будто лидерство США в оборонных инновациях «почти потеряно», преждевременными.

N.B. Согласно отчету, Россия – единственный стратегический военный партнер Китая. И поэтому в отчете 67 упоминаний России.
#Китай #Война #ИИ #БПЛА
«Нового средневековья» не будет.
Дроны не приведут к «эпохе вечных
войн».
Таков вывод глубокого анализа, опубликованного MIT Press Direct в новом выпуске «Международная безопасность».
За последнюю пару лет в мире сложилось представление, что дроны оказывают революционное влияние на войну и мировую политику.
Считается, что дроны, якобы:
• смещают военный баланс в пользу нападения,
• уменьшают существующую асимметрию в военной силе между более слабой и более сильной стороной военного конфликта;
• девалюируют значение ближнего боя в ходе современных военных операций.
Дошло до того, что появились теоретические работы, предрекающие наступление «нового средневековья», в котором:
• множество государственных и негосударственных акторов могут вести крупномасштабные войны, что повлечет за собой тотальное усиление нестабильности и конфликтов;
• и поскольку использование дронов на войне сильно снижает финансовые затраты и людские потери, они делают более политически целесообразным для государств «продолжать стрелять вечно», открывая тем самым эпоху вечных войн.

Авторы нового отчета детально проанализировали три практический кейса войн, в которых широко использовались БПЛА: военная кампания в Западной Ливии во время второй гражданской войны в Ливии (2019–2020 гг.), гражданская война в Сирии (2011–2021 гг.) и армяно-азербайджанский конфликт из-за Нагорного Карабаха (2020 г.)

Вывод авторов – все вышеописанные предположения о военной «революции дронов» ошибочны.
✔️ В реальности к дронам применима старая как мир парадигма щита и меча (или снаряда и брони).
✔️ Дроны – это всего лишь новый «меч». Им противостоит новый «щит» из 3х элементов: новые системы ПВО, системы радиоэлектронной борьбы и специально обученный квалифицированный военный персонал (люди плюс элементы ИИ).
✔️ При наличии у обеих сторон трех названных элементов нового «щита», никакой революции в военных конфликтах не будет.

Но все может кардинально измениться в будущем – когда управление и «щитом», и «мечом» 100%но перейдет к ИИ, исключив человека из контура управления.
Но это будет уже не «новое средневековье», а нечто еще более опасное.

https://direct.mit.edu/isec/article/46/4/130/111172/Why-Drones-Have-Not-Revolutionized-War-The
#БПЛА #Война #ИИ
6G – мастер-ключ Китая к победе в интеллектуальной войне и системной конфронтации.
Аналитический отчет международного аналитического института IISS «Стратегические установки для 6G: пути Китая и США» фиксирует два ключевых момента фокусировки национальных техно-стратегий двух стран на десятилетие:
✔️ Лишь сочетание технологического лидерства в ИИ и 6G способно обеспечить стране стратегический приоритет в экономике и военном потенциале.
✔️ При наличии технологического лидерства и в ИИ, и в 6G, национальный стратегический приоритет достигается посредством «интеллектуальной
войны» и «системной конфронтации.

Что такое «интеллектуальная война», - см. мой пост «Интеллектуальная война – это гипервойна, война на истощение, междоменные боевые действия и операции когнитивного контроля (резюме отчета Минобороны США о военной мощи Китая).

Концепция «системной конфронтации» подразумевает, что исход экстремального противостояния государств (с переходом в военный конфликт или без оного) будет определяться относительной устойчивостью и производительностью всех основных цифровых сетевых систем государства (военных и гражданских).

FYI: Технология 6G предполагает (по сравнению с самой на сегодня передовой 5G):
• повышение скорости передачи данных на 2 порядка (с 10-20 (download/upload) Гбайт до 1 Тбайт)
• уменьшение задержки на порядок (с 1 мсек до 0,1 мсек)
• повышению надежности на 4 порядка (с 10 в -5 степени до 10 в -9 степени)
• переход восприятия пользователя с 50 мбит/сек в 2D к 10 Гбит/сек в 3D


Для гражданских применений переход с 5G на 6G, по гамбургскому счету, означает перевод всех Интернет приложений и сервисов в Метаверс (см. мой пост «Объединение физического, биологического и цифрового миров уже к 2030 становится реальным. Суперпрорыв Китая в технологии 6G»).

Для военных применений, как следует из отчета IISS, это означает создание инфраструктуры «интеллектуальной войны», для ведения:
-- гипервойны (когда скорость и темп операций превосходит физическую и ментальную реакцию людей)
-- войны на истощение (которую ведут не люди, а рои интеллектуальных дронов)
-- междоменных боевых действий (интеграции действий в разных средах: суша, море, воздух, космос и киберпространство)
-- операций когнитивного контроля (направленного изменение восприятия, оценок и прогнозов в сознании лиц, принимающих решения у противника)

Кроме того, как следует из отчета IISS:
-- 6G обладает уникальным потенциалом для улучшения противоракетной обороны, преодолевающей сегодняшние ограничения (вкл. решение вопроса перехвата гиперзвуковых ракет)
-- 6G позволяет перенести обучение военных и контроль боя в Метаверс (вести обучение военных в виртуальной и расширенной реальности; визуализировать боевые действия в 3D в режиме реального времени)

Выводы отчета IISS о перспективах Китая и США выиграть в гонке за 6G таковы:
✔️ Итоги гонки определятся к 2030 (окно возможностей для выигрыша гонки уже открыто)
✔️ В Китае 6G – это главный национальный проект, который управляется КПК, и на который брошены лучшие силы науки и бизнеса - см.
70 членов IMT-2030
✔️ США все еще имеют преимущества в технологиях, но разрыв сократился до минимума.
✔️ Итог гонки зависит от того, победит ли стратегия экспортного контроля США или стратегия технологического самообеспечения Китая. Пока вопрос открыт.

#Китай #США #Война #ИИ #6G
​​Проблема 37-го хода военного ИИ.
Люди могут просто не понять, что это их спасение или конец.

Автономное летальное оружие (АЛО): 1) уже существует и 2) скоро станет штатным элементом всех систем ведения военных действий.
Т.е. ящик Пандоры открыт, его уже не закрыть и нужно срочно решать, как предотвратить худшие из последствий.
А эти последствия: а) весьма разнообразны и б) что самое ужасное, предотвратить многие из них известными людям способами просто невозможно.
✔️ АЛО невозможно запретить (как химическое и бактериологическое оружие), ибо не существует средств контроля за разработками ИИ алгоритмов.
✔️ Невозможно ограничить автономизацию обычного (неавтономного) оружия, превращающую его в АЛО (превратить обычную бомбу в ядерную - сверхзадача, а для автономизации боевого дрона достаточно за 5 сек сменить его прошивку)
✔️ Попытки описать правила применения АЛО, оставляющие смертельные решение за людьми, столь же наивны, как надежды оставить за водителем решения по управлению авто, когда на принятие таких решений остается куда меньше 100 миллисекунд.


Но самым непреодолимым видится невозможность понять почему алгоритм принимает то или иное решение. И дело здесь не только в проблеме «черного ящика» (как сделать решения ИИ доступными для осмысления людьми).
Даже если такое осмысление в принципе возможно (как например это было со знаменитым нечеловечески хитрым и дальновидным 37-м ходом AlphaGo во 2-й игре против Lee Sedol), в реальных военных ситуациях на это не будет времени.
Если оставить окончательное решение за человеком, то он может просто не успеть понять спасительность и единственность решения, предложенного АЛО. Или вообще не понять, подобно экспертам по игре в Го, что единодушно сочли 37-й ход AlphaGo ошибкой.
А если и поймет, то скорее всего, к тому времени уже будет поздно.

• Почитайте про это в новом совместном отчете BAE Systems и WIRED Consulting «Robotic Weapons Are Coming – What Should We Do About It?»
• Мою презентацию и выступление на эту тему в ходе организованной МККК дискуссии «Цифровые технологии в вооруженных конфликтах: смягчение гуманитарных последствий» можно посмотреть здесь (22 мин).
#Война #ИИ #БПЛА #AWS
Дрон убил своего оператора, решив, что тот мешает выполнению миссии.
А чтобы не мешали другие, взорвал вышку связи.

Это произошло в ходе симуляции выполнения миссии группой военных дронов, управляемых ИИ под контролем оператора.
• БПЛА должны были уничтожать объекты ПВО противника, получая на каждый удар окончательное разрешение от оператора.
• Все шло по плану, пока оператор не запретил уничтожать ряд объектов, идентифицированных ИИ в качестве целей.
• Решив, что оператор мешает закончить выполнение миссии, ИИ взорвал оператора.
• Чтобы исправить ситуацию, управляющие симуляцией военные программисты в явном виде запретили ИИ убивать своих операторов.
• Тогда ИИ пошел иным путем: взорвал вышку связи, чтобы никто более не мешал ему закончить миссию.


Эта история была рассказана полковником ВВС Такером Гамильтоном на майской оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit (70 докладчиков и 200+ делегатов из вооруженных сил, научных кругов и средств массовой информации со всего мира).

После публикации резюме докладов на сайте Королевского аэрокосмического общества, об этом немедленно написали TheWarZone, INSIDER и TheGardian. После чего Интернет, понятное дело, взорвался десятками материалов в СМИ.

Я же хочу обратить внимание читателей на два момента.

1) Рассказанная полковником Гамильтоном история весьма странная и даже темная.
• С одной стороны, Энн Стефанек (пресс-секретарь штаб-квартиры ВВС в Пентагоне) отрицает, что такая симуляция имела место.
• С другой стороны, Королевское аэрокосмическое общество не убирает резюме выступления полковника Гамильтона «AI – is Skynet here already?» со своего сайта.
• Наконец, в-третьих, полковник Гамильтон – не та фигура, чтобы травить анекдоты на серьезной оборонной конференции. Он начальник отдела испытаний и операций ИИ и глава 96-й оперативной группы в составе 96-го испытательного крыла на базе ВВС Эглин во Флориде – это центр испытаний автономных продвинутых БПЛА. А еще он принимает непосредственное участие в экспериментах Project Viper и проекте операций следующего поколения (VENOM) в Эглине (управляемые ИИ истребители F-16 Vipe). Так что, какие уж тут шутки и анекдоты.

Будем смотреть на развитие событий в этом скандале.

2) И это, пожалуй, самое важное в контексте истории, рассказанной полковником.
• Любая антропоморфизация ИИ (ИИ захотел, подумал и т.д.) – это полная чушь (здесь под антропоморфизацией ИИ понимается вводящее в заблуждение описание нечеловеческих сущностей с точки зрения человеческих свойств, которых у них нет).
• Поэтому ИИ даже самых продвинутых больших языковых моделей не может захотеть, подумать, обмануть или самоозознать себя. Но такие ИИ вполне способны своим поведением производить на людей впечатление, будто они это могут.
• По мере того, как диалоговые агенты становятся все более похожими на людей в своих действиях, крайне важно разработать эффективные способы описания их поведения в высокоуровневых терминах, не попадая в ловушку антропоморфизма.
• И это уже делается с помощью симуляции ролевых игр: например, в DeepMind сделали симуляцию диалогового агента, осуществляющего (кажущийся) обман и (кажущуюся) самоосознанность.

И это реальная симуляция в рамках вполне научного исследования.
#БПЛА #Война #ИИ
Быть ли ядерной войне, - все больше зависит от алгоритмов.
«Принцип Златовласки» перестает работать в практике военных эскалаций.


ИИ сильно увеличивает шансы человечества самоистребиться путем ядерной войны.
Тогда как кибер-операции могут оказаться наиболее эффективным путем деэскалации военных конфликтов.


Согласно новому отчету Bloomberg, американские военные активизировали использование инструментов ИИ после атаки ХАМАС на Израиль 7 октября. Алгоритмы машинного обучения помогли Пентагону определить цели для более чем 85 воздушных ударов на Ближнем Востоке в этом месяце. Однако, по словам американских военных, люди в обязательном порядке проверяют целевые рекомендации систем ИИ. И окончательные решения о способах и времени нанесения ударов остаются исключительно за людьми [1].

Еще более многообещающим видится применение самых современных IT-технологий не только на оперативно-тактическом, но и на стратегическом уровне, вершиной которого является выбор оптимальной стратегии эскалации конфликтов.

Как пишут во 2й части отчета RAND «Managing Escalation» [2], существующий западный опыт войн основан на универсальном подходе к выбору стратегии эскалации конфликтов, называемом «Принцип Златовласки» (Goldilocks Challenge). Такое название отсылает к сказке «Три медведя», в которой девушка по имени Златовласка пробует три разные тарелки каши и выбирает ту, которая не слишком горячая и не слишком холодная, а в самый раз.

Концепция выбора «золотой середины» (“Sweet Spot”) интуитивно понимаема и применима к широкому кругу дисциплин. В области же выбора стратегии эскалации конфликтов она заключается в поиске точек для ударов или давления на соперника. Точки, находящиеся в «золотой середине», должны быть:
• достаточно ценны или чувствительны для соперника, чтобы ваши удары по ним склоняли его к нужным вам решениям или действиям;
• но все же не настолько ценны или чувствительны, чтобы ваши удары или давление на них спровоцировало соперника на неприемлемую для вас эскалацию (включая потенциальное использование ядерного оружия).

Происходящий колоссальный прогресс IT–технологий существенно затрудняет для военных и политиков использование старых привычных подходов к разруливанию и эскалации конфликтов (о чем пишут в 1й (закрытой) части этого отчета [2]).

Выражается это в следующем:
1. Границы «золотой середины» становятся «текучими» (постоянно меняются в непредсказуемом направлении).
2. В отдельных точках внутри области «золой середины» вдруг возникают «кротовые норы» - мгновенные переходы в зону неприемлемой эскалации (включая потенциальное использование ядерного оружия).
3. Временные рамки существования конкретной «золотой середины» становятся непредсказуемы (вот она была, а вот уже и нет).

Другим удивительным следствием усложнения IT–технологий, используемых при выборе и реализации стратегий эскалации конфликтов, является значительная непредсказуемость оказываемого ими влияния и на процесс выбора, и на результаты реализации стратегий.

Вот два наиболее ярких характерных примера.
✔️ Использование широкого спектра кибер-операций (через кибер-пространство наносящих противнику военный, материальный, информационный, политический, социальный или психологический ущерб) зачастую не только не способствует эскалации военных конфликтов, но и стабилизируют ситуацию, предоставляя возможности избежать дорогостоящих, затяжных конфликтов [3]

✔️ Использование автономных ИИ-агентов на основе генеративных моделей (в частности, GPT-4, GPT-3.5, Claude 2, Llama-2 (70B)) резко увеличивает шансы эскалации конфликтов (включая использование ядерного оружия в каждом 3ем конфликте), демонстрируя при этом труднопредсказуемые формы и паттерны эскалации конфликтов [4].

#Война #ИИ
0 https://telegra.ph/file/be8b1707bc07d2ce05652.jpg
1 https://bit.ly/3wA0dmz
2 https://bit.ly/4bQ9erM
3 https://bit.ly/49QbMUV
4 https://arxiv.org/abs/2401.03408
США однозначно ближе к макроразвалу чем Россия.
Обновленный психоисторический прогноз основателя клиодинамики.


Вчера Верховный суд США разрешил Национальной гвардии штата Техас арест и депортацию мигрантов.
Бравые ребята из Нацгвардии Техаса (на фото под заголовком слева позируют под флагом Техаса), недавно уже «захватывавшие» участок границы с Мексикой, запретив доступ к нему федералам, смотрятся 1 в 1 с суровым «ополченцем» из грядущего блокбастера «Гражданская война», задающим остановленному им отцу семейства страшный вопрос, с которого и начинаются гражданские войны«Ладно … А какой вы американец?» (на фото справа) [1].

Теперь ситуация в США еще ближе к предсказанию Петра Турчина, сделанного им еще 14 лет назад – нарастающие в США уровень неравенства и уровень перепроизводства элит способны в 2020-х довести страну до гражданской войны.

4 года назад я уже писал об этом [2] с подачи Петра Турчина [3].
А еще раньше, в 1-м лонгриде наступившего нового десятилетия 2020-х, мною в деталях были расписаны [4]:
• и сам прогноз - 2020е станут десятилетием насилия, войн и революций,
• и его «психоисторическое основание» клиодинамика - разработанная Петром Турчиным и его коллегами научная аналитика длинных данных о главных трендах истории, прообразом которой была психоистория из романа Азимова «Основание».

Обновленный прогноз Турчина, прозвучавший с интервью FT неделю назад [5], содержит сравнение вероятностей макроразвала для США и России. Далее цитата.

«Какое общество ближе к макроразвалу: Россия или США? Однозначно не Россия. Внешнее давление объединило страну… Без сомнения, Соединенные Штаты сейчас находятся в гораздо более опасном состоянии»

Основания такого прогноза читатель найдет в тексте интервью. Мне же лишь остается добавить следующее.

Математический гений Гэри Селдон из романа «Основание», равно как и его автор Айзек Азимов, были вдохновлены мечтой о социальной науке, которая может спасти цивилизацию от любой, даже, казалось бы, неминуемой гибели.

Петр Турчин никогда вслух не говорил столь высокопарных слов о созданной им новой социальной науке – клиодинамике.
Но все же очень хочется верить, что прогнозы клиодинамики (как и психоистории) могут использоваться для изменения текущих нежелательных векторов развития на более предпочтительные.
И если уж история никого ничему не учит, остается лишь надеяться на психоисторию.
#Клиодинамика #Прогноз #Насилие #Война #Революции
0 картинка поста https://telegra.ph/file/75d4cd6f9dcd1115d1047.jpg
1 https://youtu.be/jbfmREXeooE?t=79
2 https://t.me/theworldisnoteasy/1083
3 https://twitter.com/peter_turchin/status/1280545361040465923
4 https://t.me/theworldisnoteasy/962
5 https://www.ft.com/content/39084b44-ad8a-4954-a610-82edee9a377d