Малоизвестное интересное
62.7K subscribers
78 photos
1 video
11 files
1.71K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Сегодня, наконец, подобрался к любимой теме о том, что
«Интеллект кентавра» - это и есть «Розовый фламинго» в области ИИ

Поводом для этого стало позавчерашнее открытие Центра изучения будущего ИИ Leverhulme Centre for the Future of Intelligence.

Освещая эту новость, массмедиа выносят в заголовки статей очередную, извините, банальность, сказанную на открытии центра Стивеном Хокингом: «ИИ станет самым лучшим или самым худшим событием в истории».

К сожалению, даже гении говорят банальности, если вопрос выходит за рамки их профессиональной компетенции. А со Стивеном Хокингом в вопросах ИИ такое случается постоянно (что не мешает ему оставаться гением современной теоретической физики).

Тем не менее, открытие нового центра – весьма знаменательное событие. И на церемонии открытия были сказаны действительно знаменательные слова. Они принадлежат научному директору нового центра профессору Хью Прайсу.

«Потенциальные преимущества создания ИИ огромны … Но мы даже не можем представить, чего сможет достичь человеческий ум, будучи усиленный возможностями ИИ»

Также Хью Прайс отметил:

«Мы пытались убить [созданный Голливудом в сознании общества] мем “Терминатора”, но он, подобно своему герою, продолжает возвращаться снова и снова»

Что означают эти слова? Да вот что.

Все страшилки про «Бунт машин», возжелающих покорить, а потом и отделаться от человечества – не более чем кинематографические грезы, навеянные Голливудом.

Гораздо раньше, чем компьютеры обретут сознание и целеполагание (если это вообще произойдет), человечество столкнется с огромными рисками, вследствие колоссального скачка человеческого ума (и возможностей), усиленного возможностями ИИ.

И если до гипотетического «Бунта машин» далеко, как до Большого Магелланова облака, то страшные риски от «Интеллекта кентавра» человека и машины, - уже совсем рядом.

Т.е. «Интеллект кентавра» - это и есть «Розовый фламинго» в области ИИ. А «Бунт машин» - страшилка для повышения внимания публики в целях получения грантов и инвестиций.
P.S. Директором первого проекта центра LCFI «Science, value, and the future of intelligence» стала Анна Александрова из славного города Краснодар.
Brain Drain, однако :(
Продолжаю тему
«Интеллект кентавра» - это и есть «Розовый фламинго» в области ИИ.

Повод – опубликован интересный роман Лукаса Карлсона «Big Data: A Startup Thriller Novel», посвященный ровно этой теме.

Как интригует в анонсе романа Amazon,
«Даже если вы понимаете, что искусственный интеллект опасен, - на самом деле, вы не представляете, какова реальная угроза для будущего человечества»

Суть реальной угрозы Лукас Карлсон объясняет в интервью по поводу выхода романа.

Карлсон называет общепринятые представления об ИИ скучными и устаревшими. Компьютеры, подчиняющие себе человечество, были сногсшибательной темой фильма «Матрица» в 1999 году. Но весьма вероятно, что ИИ несет экзистенциальные угрозы человечеству задолго до того, как научится делать то, о чем говорится в фильме.

Причина этого в безоглядном внедрении всевозможных интеллектуальных гаджетов и приложений в нашу жизнь, в результате чего мы становимся все более зависимыми от т.н. "Тупого ИИ". А это совсем не тот «Супер ИИ», которым нас настойчиво пугают Ник Бостром, Элон Маск и Стивен Хокинг, и до которого, на самом деле, так страшно далеко.

«Тупой ИИ» не имеет желаний, да и вообще сознания. «Тупой ИИ» совершенно не понимает, что он делает – он вообще не в состоянии что-либо понимать.

Но ведь именно он становится ответственным за управление наших автомобилей и отопление наших домов. Мы создаем с ним симбиотические отношения, которые могут эксплуатироваться в буквальном смысле кем угодно на планете.

Люди одержимы страхом перед ядерным оружием, но не думают, что могут сделать с помощью ИИ преступники. Да что там преступники, - добропорядочные ученые, специалисты, бизнесмены или военные, не предусмотревшие последствий или намеренно делающих «доброе дело» (в их понимании).

Не компьютеров нужно бояться. Нужно бояться нашей собственной человеческой природы, возможности которой неимоверно усиливает уже существующий "Тупой ИИ".

Вот о чем новый роман Лукаса Карлсона. И со многим из этого мне трудно не согласиться.
Если завтра война, - то она будет совсем не такой, как вы думаете

Возможность прямого военного столкновения между Россией и США, к сожалению, перестала быть маловероятной.
Однако мало кто понимает, что если эта война состоится, то она будет иной, чем ее представляют журналисты, эксперты и даже российские генштабисты.

Отличия будут не в деталях, а в главном – в стратегии ведения войны.

О том, какой может быть эта стратегия я написал здесь

В этом посте я рассказываю об исследовании «Военная стратегия в сложном мире», проведенном совместно Институтом комплексных систем Новой Англии (NECSI) и Группой по исследованию стратегии военно-морских операций США (US CNO SSG).

Данное исследование исходит из того, что за последние годы кардинально изменились и наши представления о современном мире и сам мир. Сегодня такие фундаментальные понятия, как «Антихрупкость», - уже не просто тема для бестселлеров Нассима Талеба (сотрудника NECSI). Сегодня, - это понятие стало основой для пересмотра высокорисковых стратегий в бизнесе. И уж тем более, для пересмотра стратегии столь рискового дела, как война.

Также в посте упомянается ассиметричный российский военно-стратегический подход – поражение сознания руководителей противника когнитивным оружием и защита российских руководителей от воздействия когнитивного оружия США :)

Так что к телепортации, нооскопу и управлению оружием силой мысли в России скоро добавится и когнитивное стратегическое оружие.
Двоих из ста компактно проживающих людей убьют его соседи

Новая интересная статья «Филогенетические корни смертельного насилия человека» оригинальным образом дополняет мои вчерашние размышления на тему «Если завтра война».

В новой статье 3 главных вывода.

— Впервые на обширном корпусе научных данных проведена оценка уровня смертельной внутривидовой агрессии человечества, позволяющая назвать этот уровень филогенетическим фактором (наследуемым человеком в ходе эволюционного развития видов).

— Этот уровень составляет в среднем примерно 2% (т.е. в среднем, согласно наследуемой генетике человека как вида, двоих из ста компактно проживающих людей, скорее всего, убьют его соседи).

— В ходе истории этот программируемый эволюцией уровень изменялся по мере социально-политических и культурных изменений в обществе.

О том, какие изменения в обществе более всего влияют на уровень смертельного насилия человека, в статье не сказано.

Однако на мой взгляд, самой интересной и сравнительно малоизвестной гипотезой этого является гипотеза техногуманитарного баланса, почитать о которой можно здесь и здесь.

Суть гипотезы в том, что чем выше уровень боевых технологий, тем сильнее в обществе социально-культурные факторы, сдерживающие агрессию.

Дело в том, что жизнь на земле устроена так, что чем более «вооружен» тот или иной вид, тем сильнее у вида мораль не убивать себе подобных. Коротко и популярно об этом написано у В.Р.Дольника.

Есть много видов (волк, орел и т.п.), вооружение которых так сокрушительно, а приемы применения столь молниеносны, что настоящая боевая стычка между соперниками закончилась бы смертью одного из них, а то и обоих. И поэтому механизм эволюции понижает у этих видов уровень агрессивности, повышая у вида мораль.

Зато у слабо вооруженных животных (голубь, заяц и т.п.) мораль слабая, ведь они не могут причинить друг другу непоправимый ущерба (для информации: голубка, символ мира, способна медленно и страшно добивать поверженного противника).

Человек в своем естественном состоянии — очень слабо вооруженное животное. Инстинктивная мораль человека соответствует этому состоянию: она слабая. Начав создавать с помощью разума оружие и совершенствуя его, человек стал самым вооруженным видом на Земле.

По закону природы, вид, у которого нет баланса между агрессивностью и вооруженностью (нечто вроде голубя с орлиным клювом или зайца с волчьими клыками), –оказывается нежизнеспособным из-за слишком высокой доли внутривидовых убийств.

И если бы мораль человеческих сообществ не повышалась за счет социально-политических и культурных изменений в этих сообществах, человечество давно бы себя истребило.

Гипотеза техногуманитарного баланса позволяет абсолютно по-новому взглянуть на многие интересные темы: больше или меньше люди убивают друг друга в ходе человеческой истории, причины высочайшего уровня потерь в войнах (например, потери СССР во Второй мировой), каковы катализаторы того, что соседи начинают убивать друг друга и т.д.

Полагаю, что многие из этих интересных тем весьма малоизвестны, чтобы продолжить их обсуждение на канале.
Как и собирался, написал поподробней о том,
как культура может выправить техногуманитарный баланс в обществе и тем самым спасти сотни миллионов человеческих жизней.

https://goo.gl/4dicBC

Далее – бриф этой статьи (а что такое техногуманитарный баланс см предыдущий пост канала).

— Если бы мораль человеческих сообществ не повышалась за счет социально-политических и культурных изменений в этих сообществах, человечество давно бы себя истребило. А это не происходит, не смотря на постоянное повышение смертоносности военных технологий человечества и неуклонный рост плотности населения.

— Самым простым и понятным измерением морали в любом обществе служит доминирующая в нем ценность человеческой жизни. А поскольку «коэффициент кровопролитности» (отношение количества убийств за некоторый период времени к численности сообщества за тот же период) неуклонно снижается в ходе истории человечества, можно сделать вывод, что ценность человеческой жизни до сих пор росла даже более высоким темпом, чем мощь производственных и боевых технологий.

— Однако, в техногуманитарном балансе возможны нарушения (оружие стало сильно мощное, а ценность жизни осталась низкой). Они ведут к локальному скачку уровня смертельной внутривидовой агрессии человека и, соответственно, коэффициента кровопролитности.

— Самое страшной – это нарушение техногуманитарного баланса между обладанием ядерного оружия и низкой ценностью человеческой жизни у его обладателей.

— Поскольку от ядерного оружия уже никто не откажется, остается надеяться лишь на рост ценности человеческой жизни.
Законам робототехники здесь не место

Наконец то на смену новостной шумихе приходит толковый анализ недавней массированной хакерской атаки на провайдера Dyn.

Ведь главное в этой истории не ее впечатляющий масштаб. И даже не имена пораженных в ее результате медиа-китов Twitter, CNN, Spotify, Reddit и The New York Times.

Главное это то, что злоумышленники впервые убедительно продемонстрировали, что можно сделать с помощью самой примитивной и недалекой разновидности «Тупого искусственного интеллекта». Коим являются умные устройства Интернета вещей.

Интернет вещей уже плотно вошел в нашу жизнь. Количество подключенных к сети умных устройств (от термостата до видеокамер) у нас в домах - пока единицы. Но скоро их будет десятки и сотни.

Однако, уже сейчас, как показала атака на Dyn, миллионы таких устройств могут быть мобилизованы злоумышленниками для достижения их преступных целей.

И это – реальные риски и реальная угроза. Которые нужно срочно научиться нивелировать и отражать.

Ведь мобилизационный потенциал преступников среди умных устройств растет существенно быстрее населения земли. И отложить проблему на потом может оказаться себе дороже.

Просто будет поздно – уже не хватит ресурсов, чтобы противостоять.

И хотя правы говорящие, что «это не Интернет вещей пытается вас убить», но вся правда в том, что захотеть это сделать могут преступники. А умные устройства, по их воле, это сделают.

И никакие законы робототехники здесь не спасут. Они здесь просто не работают.

Конкретные советы о том:

— как определить, мобилизованы ли ваши умные устройства злоумышленниками;

— что делать, если окажется, что уже мобилизованы;

— и можно ли в будущем защитить от мобилизации злоумышленниками новые устройства, -

можно прочесть здесь
До понимания работы мозга дальше, чем до коммунизма

Вчера Институт Аллена по нейронаукам объявил о создании 3х мерной модели мозга мыши.

А месяц назад этот же институт опубликовал полный атлас человеческого мозга с клеточным разрешением 1 мкм/пиксель.

И то, и другое – несомненный прорыв. И не нужно объяснять почему. Об этом уже достаточно написано. Например, здесь.

Тема весьма интересная, но что же в ней малоизвестного?

А то, о чем предпочитают не писать - какова временная перспектива выхода на понимание работы человеческого мозга.

Дело в том, что с помощью существующих научных методов и технологий, построение 3х мерной модели высокого разрешения для мозга человека потребует тысячи лет. И это чисто техническая проблема разницы масштаба мозга человека и мыши.

Однако еще больше времени потребуется для следующего необходимого шага - моделирования коммутационной схемы мозга на уровне отдельных нейронов. Для справки, этих соединений больше, чем звезд во вселенной (более квадрилиона).

Так что временной масштаб получается, как в старом советском анекдоте.

— Подарил президент Картер Брежневу суперкомпьютер, способный ответить на любой вопрос (вроде сегодняшнего Watson фирмы IBM).

— Брежнев спрашивает его – далеко ли до коммунизма?

— Компьютер отвечает – 42 км.

— Что это значит, не понял ни Брежнев, ни запрошенные им российские эксперты.

— Пришлось обратиться к американцам. Из Белого дома ответили так.

— Компьютер запрограммирован отвечать на официальном языке российских газет. А там обычно пишут, что «Пятилетка – шаг к коммунизму». А поскольку средняя длина шага примерно 0,75 метра, то и получается, что до коммунизма 42 км.

Конечно, в будущем придумают новые методы. Но от масштаба задач никуда не деться. И для ее решения потребуется очень много времени.
Почему люди побеждают умных машин в борьбе за рабочие места

Одна из суперпопулярных тем в сети - «что такое машинное обучение и почему оно может лишить вас работы».

Но на практике ситуация обратная – люди успешно противостоят алгоритмам в борьбе за рабочие места и не дают алгоритмам работать даже там, где те заведомо сильнее.

Наиболее понятный пример – пополнение запасов и планирование цен в продуктовом ритейле – рассмотрен здесь.

Предсказание спроса, планирование пополнения запасов и управление ценами – это идеальная триада задач для глубинного машинного обучения. И данные все есть. Только учи да учи умные алгоритмы, повышая тем самым точность предсказаний и принимаемых решений.

Однако новое глобальное исследование показало, что доля ритейлеров, перешедших на полностью автоматизированное решение названной триады задач, не превышает 39%.

Причина этого в том – что люди, в своем большинстве, не в состоянии отдать принятие решений машине.

А пока люди не захотят перепоручить принятие решений в некритичных областях умным машинам, делающим это лучше людей, опасаться их массовой замены умными машинами не приходится.
Массовый самоуправляемый автомобиль – это не близкое будущее

Подробней об этом здесь
https://goo.gl/OqEuZw

А коротко получается так.

Развитие технологий, как и новостная повестка медиа, движимы массовым ажиотажем. Поэтому и киты современного бизнеса, и мелкие стартапы вынуждены беспрерывно раскручивать маркетинговый маховик ажиотажа вокруг самоуправляемых автомобилей.

В результате даже многие продвинутые наблюдатели уверены, что еще лет пять и мы начнем массово пересаживаться на самоуправляемые автомобили. А это не так.

И проблема не в совершенстве технологий, а в наших головах. Ее корни не технические, а этические и юридические.

Что выберет автопилот, когда придется сделать выбор между спасением жизни пассажира и ребенка, выскочившего перед машиной в погоне за покемоном?

Отчет федерального института безопасности движения Германии не посмотрел на 140 млн. проеханных автопилотом Tesla и признал его чрезвычайно опасным для использования.

А Президент Обама «отлил в граните» на конференции по прорывным технологиям на прошлой неделе - что спешки в подобных вопросах быть не может, и государство не может позволить себе так необдуманно торопиться, как это делают технологические компании Силиконовой долины.

До того, как по дорогам массово поедут самоуправляемые автомобили, свершится много чего. Как справедливо отмечают не зараженные маркетинговым пылом эксперты, это свершится, когда на Земле будут другие дороги, другие законы, другие этические нормы и другие люди.
Обама – это голова!

Как небезосновательно считал Штирлиц - запоминается последняя фраза. И если так, последние выступления Президента Обамы на тему передовых наук и технологий оставят о нем самую добрую память, как о чрезвычайно осведомленном, понимающем и вдумчивом политике, на удивление хорошо разбирающемся в сложных вопросах искусственного интеллекта, нейротехнологий и кибербезопасности.

Говоря это, я имею в виду выступление Президента Обама на конференции под эгидой Белого дома, проходившей на прошлой неделе, а также его предшествовавшее большое итоговое интервью журналу Wired.

Обама высказался по всем наиболее важным вопросам искусственного интеллекта, нейротехнологий и кибербезопасности, продемонстрировав не только глубокую осведомленность и компетентность своих консультантов, но и собственное хорошее понимание стратегии развития и перспектив названных направлений.

Мысли Обамы во многом перекликаются с соображениями, которыми я уже делился с вами на этом канале:

— до «Бунта машин» или «Матрицы» еще очень-очень далеко;

— обществу нужно переключиться с обсуждения околофантастических вопросов далекого и гипотетического «Полноценного ИИ», на уже актуальные вопросы рисков при внедрении «Тупого ИИ» (политкорректно называемого Обамой «Специализированным ИИ»);

— существующее законодательство и распространенные в сегодняшнем обществе моральные ценности пока не готовы дать удовлетворяющее всех решение «проблемы вагонетки», без чего говорить о массовом внедрении самоуправляемых авто рано;

— предстоит весьма долгий путь до понимания того, как человеческий мозг думает, учится и запоминает;

— произошедшая революция на стыке естественных и социальных наук несет большие изменения для современного общества;

— главная проблема кибербезопасности не в нарастающих возможностях ИИ, а в том, как ограничить возможности кибер-преступников и распространения кибер-эпидемий.

Так что здорово Обама выступил. Реально показал, что не только Чемберлен — это голова, и Ллойд-Джордж — тоже голова. Теперь мы знаем, что и Обама – тоже голова.


И как же это сильно отличается от стиля и глубины мыслей верховных российских политиков на технологические темы!
Битва масонов Google против чекистов DARPA

Умопомрачительность некоторых технологических новостей делает их неразличимыми от сюжетов провидца самоисполняющихся пророчеств, эксперта по криптомасонскому влиянию и заклинателя рукотворных реальностей Виктора Пелевина.

Всего через 2 месяца после выхода нового романа Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами», поступающие технологические новости так здорово вписываются в контекст описанной Пелевиным «крайней битвы», что грех об этом не написать.

Вот я и написал здесь на 4 мин. чтения.

А если на 1 минуту чтения, то так.

Диспозиция

В роли масонов - исследователи Google Brain – команды глубинного обучения нейронных сетей корпорации Google, входящей в пятерку сильнейших команд мира в данной области.

В роли чекистов – спецагенты и специалисты DARPA (Агентство передовых оборонных исследовательских проектов Министерства обороны США)

Поле битвы – криптография и искусственный интеллект (ИИ).

Ставка в битве – место человека в криптографии будущего (либо такое место у человека будет, либо нет), а, скорее всего, и не только в криптографии.

«Чекисты» хотят

С помощью проекта Explainable Artificial Intelligenceнаучить нейронные сети объяснять людям свои решения.

«Масоны» хотят

Помешать «Чекистам» :)

С помощью проекта Inhuman encryption научить нейронные сети самим создавать собственные методы шифрования, в пределе, недоступные для дешифрации существующими методами.

Если победят «Масоны»

человеку не останется места в криптографии.

Изменить ситуацию могут лишь «Чекисты»

Если им удастся понять логику решений нейронных сетей, станет возможным понять и то, каким методом они шифрует свои сообщения.
Игры разума вместо лекарств

Что будет, если объединить интеллектуальные возможности иммунной системы человека и системы моделирования мозгом реальности, если последнюю дополнить механизмом виртуальной реальностью?

Короткий ответ – это революция в медицине.

Содержательный ответ читайте здесь на 4 мин. чтения.

А если на 1 минуту чтения, то так.

В чем идея

Можно попытаться модифицировать и усилить возможности иммунной системы человека за счет дополнения системы моделирования мозгом окружающей действительности средствами виртуальной реальности.

Схема такова.

(1) VR целенаправленно изменят входной информационный поток мозга, чтобы изменить его представления об окружающей действительности.

(2) В ответ на это, мозг посредством парасимпатической нервной системы, управляющей неосознаваемыми нервными функциями организма, стимулируются соответствующий иммунный ответ.

(3) Этот ответ стимулирует иммунную систему адаптироваться под «новую реальность», которая, на самом деле, не что иное, как специально смоделированная для мозга средствами VR подмененная или дополнительная реальность.

(4) В результате иммунная система своей реакцией помогает организму справиться с потенциальной опасностью. И не только внешней, но и внутренней (коренящейся в уже имеющейся в организме вредной для него реакции иммунной системы – например, необоснованным страхом или ненужной аллергической реакции).

Что уже сделано

С помощью VR:

— уже научились быстро и эффективно лечить аллергию на кошек;

— небезуспешно пытаются лечить различного типа фобии и пост-травматический синдром, а также анорексию и другие расстройства питания.


Что может быть дальше

В будущем - прямо-таки врата великих возможностей. Ведь сегодняшняя технология VR – всего лишь первое поколение этого класса технологий, воздействующая на органы чувств.

Системы следующего поколения будут воздействовать на мозг напрямую, минуя органы чувств, посредством электродов, имплантантов или нейрочипов. Такие системы смогут передавать мозгу гораздо более тонкие и сложные представления, чем вид гуляющего кота (например, ощущение жжения в желудке у больного язвой).
Междисциплинарное исследование на больших данных позволяет понять, КАК климат влияет на экономику

Новое исследование Калифорнийского университета Беркли и Национального бюро экономических исследований США показывает, что климат ощутимо влияет на характер общества и эффективность экономики.

Так например:

— вычисленная оценка влияния текущей температуры на урожайность кукурузы в США - примерно 48%,

— наблюдаемое с 1980 г. потепление повысило риск конфликтов в Африке примерно на 11%,

— будущее потепление (если случится) может замедлить глобальные темпы экономического роста на примерно на 0,28 процентных пункта в год.

Влияние климата на экономику изучается давно. И в принципе уже никто не спорит, что такое влияние существует. Спорят лишь о степени влияния климата на развитие конкретных стран и регионов.

Например, одни считают, что климат России, как и ее география – это ее крест, который в итоге Россию погубит.

Другие, хотя и не отрицают влияние климата на экономику, считает его далеко не самым главным из влияний и уж точно не определяющим.

Новое исследование, в первую очередь, интересно не тем, ЧТО оно утверждает (какую из вышеназванных полярных позиций оно подтверждает). А тем, КАК это в исследовании делается.

Дело в том, что раньше при проведении подобных исследований, хотя и использовали реальные данные, но в столь ограниченном объеме, что выводы таких исследований трудно признать математически строгими.
Однако, в самые последние годы начался ренессанс многопрофильных междисциплинарных эмпирических исследований с привлечением гигантских объемов данных и колоссальных вычислительных ресурсов.

Результаты не заставили себя ждать. Стали выявляться абсолютно неожиданные и нетривиальные связи климата с развитием человеческой системы в целом. Например, влияние изменений климата на здоровье, конфликты в обществе, показатели миграции и демографии.

И повторяюсь, - не просто стали видны старые и начали выявляться новые связи, но и стало возможным понять, КАК эти связи образуются.
Через 4 дня на выборах в США интуиция даст бой математике

Если кто-то думает, что современные выборы прогнозируются с помощью опросов, - они ошибаются.

Предвыборные опросы дают лишь самый грубый прогноз результатов выборов.

Поэтому для более точного предсказания итогов выборов сегодня используются иные, более современные подходы.

И как это ни странно и удивительно, эти новые подходы довольно малоизвестны.

Таких подходов, по большому счету, три. И я их описываю здесь

Два из трех описываемых подходов базируются на математических методах. А третий, - на специальной исторической модели и на интуиции.

Что еще интересно я там пишу.

— Математические методы прогнозируют, что 8го ноября выиграет Клинтон.
Но будь выборы чуть позже - выиграл бы Трамп, поскольку шансы Клинтон таят, а Трампа растут с каждым днем.

— Подход, базирующийся на специальной исторической модели и на интуиции прогнозирует выигрыш Трампа. Если это произойдет, значит при прогнозировании выборов интуиция и субъективные оценки работают пока что точнее самой крутой математики (не говоря уж о весьма неточных опросах)
P.S. к предыдущему посту.
Только что появилась информация, подтверждающая сделанный в посте прогноз


Профессор Австралийского Университета Квинсленда Сюэ Ли, признанный специалист по Big Data, названный Financial Review «Самым влиятельным специалистом Австралии по Big Data», объявил свой прогноз предстоящих выборов в США на основе собственного оригинального подхода анализа Big Data социальных сетей.

Прогноз профессора Сюэ Ли основан на анализе сообщений в Twitter по 17 темам, важным для избирателей (от внешней политики до охраны окружающей среды). Прогноз считается в реальном масштабе времени и публикуется онлайн.
Не подменяйте больных здоровыми

Теория сложных сетей (это сети, в которых связи между элементами не являются ни регулярными, ни чисто случайными), с одной стороны, продолжает поражать парадоксальностью своих прикладных выводов.

А с другой – подбрасывает нам все более убедительные доказательства того, что она описывает единый механизм развития всего на свете.

Примером парадоксальности новых выводов теории сложных сетей может служить новое исследование Тило Гросса «Complex networks: Don't call in sick».

В этой работе делается попытка доказать, что главным акселератором распространения эпидемий в современном обществе является ошибочная практика замены заболевших сотрудников на их рабочих местах их здоровыми коллегами.

Что же до примеров вездесущести теории сложных сетей, то вот фундаментальное исследование – «Hidden geometric correlations in real multiplex networks».

В нем математически описан единый механизм т.н. «геометрических корреляций» (функциональных связей) между элементами многослойных сетей (мультиплексов), в результате чего мультиплекс системы не являются продуктом случайных комбинаций отдельных сетевых уровней.

Понимаю, что звучит совсем заумно (

Но если упростить до бытового языка, - получится, что самые разнообразные системы (от синаптической сети червяка C. Elegans и генетической сети мухи Дрозофилы, до транспортных сетей, Интернета и человеческого мозга) могут быть описаны единым математическим аппаратом гиперболической геометрии и свойством «геометрической корреляции» многослойных сетей.

Намного понятней вам, наверное, не стало. Так что придется потом написать про это подробней.

А пока, желающие хотя бы въехать в тему сложных сетей могут начать с простой и интересно написанной статьи «Сети для всего на свете»
Интересно, кто больше врет – хакеры, спецслужбы или политики?

1) Про то, что «американские военные хакеры проникли в энергетическую систему России, телекоммуникационные сети и «системы командования» Кремля в целях подготовки атаки секретным кибероружием в случае необходимости»,

—- слышали, наверное, ВСЕ.

2) О том, что: (1) подобные операции военные и спецслужбы США уже неоднократно проводили, и что (2) об этом уже не раз рассказывали ушедшие в отставку компетентные профи, типа бывшего начальника Агентства национальной безопасности США адмирала Майка Роджерса,

—- знают уже ДАЛЕКО НЕ ВСЕ (и те, кто не в курсе могут прочесть здесь ).

3) Однако о том, что последние устрашающие, но не подтвержденные никакими фактами заявления и утечки от спецслужб США, тем не менее, - вовсе не «театр абсурда» в исполнении ответственных лиц, а вполне продуманная, давно известная и уже десятилетиями активно используемая «стратегия сдерживания»,

—- пишут СОВСЕМ НЕМНОГИЕ

«Речь идет о системе сдерживания, как в случае с ядерным конфликтом: об ответном ударе сообщают для исключения конфликта, а не для его провоцирования. Никто не заинтересован в обмене кибер-ударами — именно для этого Москве объявлено предупреждение: вмешаетесь в выборы — "отключим газ"»

4) И наконец, имхо, НИКТО пока что не рассказал о том, что известная группа американских хакеров The Shadow Brokers, объявившая о похищении ею у Агентства национальной безопасности США списка серверов, уже взломанных АНБ США (в числе которых, якобы, уже есть серверы телеком и энерго-инфраструктуры России),

—- заявила, что история с устрашающими заявлениями и утечками от спецслужб США – это чистая правда, НО это вовсе не часть американской «стратегии сдерживания», а подготовка операции американских спецслужб по фальсификации итогов предстоящих президентских выборов в США.
Путь в дальний космос будет не таким, как предлагает Илон Маск, и не в те сроки

Всем, кто хочет разобраться, насколько реалистичен план Илона Маска организовать полет на Марс до 2024 г, рекомендую прочесть статью И.М.Моисеева «Инженерный взгляд на марсианское садоводство»

После того, как Илон Маск в сентябре представил свой проект создания базы на Марсе, одни эксперты его категорически разносят, а другие – не менее категорически хвалят.

На фоне всей этой противоречивой разноголосицы, статья И.М.Моисеева – просто замечательная: только по делу, структурировано, аргументировано, профессионально.

Если совсем коротко, то автор статьи называет 3 группы факторов, каждая из которых по отдельности ставит под большое сомнение намерение Маска высадить человека на Марс в 2024 г.

1я группа факторов – техническая. Для каждого из этапов полета (от выхода на околоземную орбиту до возвращения на Землю) существую неразрешимые на сегодняшний день проблемы. Со временем они будут решены, но рассчитывать на их решение до 2024 г., по крайней мере, излишне самонадеянно.

2я группа факторов – финансовая. У Маска нет и десятой доли средств, необходимых для реализации проекта. А на вопрос, откуда возьмутся средства, Маск пока только отшучивается.

3я группа факторов – смысловая – убивает любые надежды на решение вопросов первых двух групп. Совершенно непонятно зачем и кому нужен этот проект.

Итоговое заключение автора статьи стоит того, чтобы его привести полностью.

«Проект Маска – демонстрация чрезмерной самонадеянности человека, представлений о том, что в угоду ему в будущем перестанут действовать законы физики и правила математики. Этого не случится, движение в космос будет поэтапным и медленным. Энтузиастам придется потерпеть».
Розовый фламинго по имени Трамп

Наперекор прогнозам, это произошло – выборы выиграл Трамп.

О трех главных выводах из произошедшего я написал здесь на 2 мин. чтения.

А если на полминуты, то так.

—- Первый вывод: выигрыш Трампа – это Розовый фламинго для России.

Поскольку:

(1) это потенциально катастрофическое по последствиям для России событие,

(2) которое российское руководство допускало,

(3) но своими действиями лишь помогало ему свершиться.

—- Второй вывод: электоральный процесс иррационален

—- Третий вывод: технологии пока бессильны против человеческой иррациональности

Вот в итоге и получается -

для России в новом мире Розовых фламинго президентство Трампа лишь добавит непредсказуемости, иррациональности и корысти, наживающейся на первом и втором.