Малоизвестное интересное
64.8K subscribers
98 photos
1 video
11 files
1.8K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Сейчас мы говорим «обезьяна с гранатой». Через сто лет, возможно, будут говорить «человек с ИИ».
В новом интервью профессора Томаса Метцингера – члена высшей экспертной группы ЕС по разработке этических принципов ИИ – озвучены два весьма тонких для понимания, но очень важных вопроса.
1) Роботы-убийцы и активная эвтаназия – есть ли отличия?
Смертельное автономное оружие (т.н. роботы-убийцы) – это системы, которые используют ИИ в бою, чтобы решать, какую цель атаковать, уничтожить или даже убить.
Главный вопрос, пока еще, хоть и с трудом, но все же сдерживающий превращение роботов-убийц в главный фактор новой гонки вооружений - можно ли привлечь кого-либо к ответственности, если машина приняла неправильное решение?

Самое опасное в этом вопросе – его универсальность.
Ведь ровно тот же вопрос стоит, например, и по отношению:
- к автономным автомобилям;
- к системам активной эвтаназии.
Про самоуправляемые авто и так всем понятно – пресловутые проблемы, кого задавить, если нет иных вариантов, и чья жизнь дороже – водителя или пешехода …

А про активную эвтаназию поясню. Пассивная - предполагает прекращение введения препаратов, поддерживающих жизнь пациента, а активная — введение препарата от которого пациент умирает. Активная э. бывает добровольной и недобровольной – т.е. без согласия пациента. При этом кто-то должен взять на себя ответственность и решить: «Пусть этот человек умрет».
Но ведь страшно даже рассуждать о таком. И кому хотелось бы, стоя у больничной койки, произносить подобные слова?

Так вот сейчас, по словам Метцингера, в Нидерландах уже стоит вопрос о перекладывании таких решений на ИИ. Просто, удобно, никого не напрягает и никаких душевных мук.

Только чем это отличается от роботов-убийц?

2) Где проходит «красная черта» в применении любого робота-убийцы (военного, медицинского, автомобильного …)?
Проблема вовсе не в том, чтобы дать машинам правильные этические ценности. Проблема в «согласовании ценностей» ИИ и людей. И пока не понятно, как их согласовывать, поскольку люди сами не придерживаются своих собственных этических ценностей.
Иными словами, всегда существует конфликт разных целей у отдельных людей и в разных обществах. Наши общества не являются этически последовательными или связными, наша политика – тем более.
- Вы и ваш коллега.
- Британский и китайский военный.
- Президенты России и США.
Согласуются ли их этические ценности?

В итоге, нам самим сложно прогнозировать, какие решения примет тот или иной человек, и это создает реальный риск.
А если этот человек врач? Или генерал? Или президент страны?
Проще говоря, если вы включаете в цепочку принятия решений очень эффективный, быстрый и продвинутый ИИ, вы, по сути:
- подключаете ИИ к человеческим мозгам, почти не изменившимся со времен каменного века;
- подключаете ИИ к мозгу конкретных людей, - возможно, жадных, ревнивых, эгоистичных и амбициозных.
А раз так, то самим включением ИИ в цепочку принятия решений, вы непрогнозируемо увеличиваете риски.

Поэтому нет никакой проблемы заложить в робота-убийцу (да и в любой ИИ) конкретные этические ценности.
В реальности, мы сами – главная проблема.
И «красная черта» проходит через нас, а не через ИИ.


Текст и подкаст интервью https://www.br.de/nachrichten/kultur/killerroboter-ethik-interview-thomas-metzinger-philosophie,RVdgEgs
Контекст военных роботов-убийц https://www.br.de/nachrichten/deutschland-welt/killer-roboter-fakten-ueber-toedliche-systeme,R1wD3Rs
Мой пост о том, какая страшная штука – беспилотные летающие убийцы https://t.me/theworldisnoteasy/763

#ЭтикаИИ
Многие ошибочно думают, что ключевыми особенностями интеллекта человека являются его биологическая основа и эволюционный путь, создавший за миллионы лет физическую основу интеллекта: его HW – мозг и SW –нейрохимическую прошивку.
Ошибочно считается, что именно био-основа и пройденный эволюционный путь:
- принципиально отличают наш интеллект от искусственного (ИИ);
- определяют все имманентные преимущества «естественного интеллекта» над ИИ, равно как и все его недостатки, по отношению к ИИ.
К сожалению, такая трактовка сути интеллекта человека – не просто упрощение. Это огромная ошибка, определившая выбор мейнстримного пути развития ИИ, превратив этот путь в кривые глухие окольные тропы…

Ну а как на самом деле, - в моем новом посте на 4 мин. чтения:
- на Medium http://bit.ly/2xRjo9C
- на Яндекс Дзен https://clck.ru/H59Ke
#ВоплощенныйИнтеллект #КоллективныйИнтеллект #Эусоциальность
Насколько радикально Интернет изменил жизнь людей?
Можно, подобно умудренным экспертам, писать на эту тему толстые отчеты.
А можно привести всего лишь один график: где и как знакомились будущие супруги раньше и теперь.
Бары и вечеринки друзей, с подачи родственников и соседей, на работе и в колледже, в церкви, в школе …
Все это лавинообразно уходит в прошлое.
Ныне знакомятся в онлайне!
Нужны еще аргументы, чтобы понять, насколько изменился мир?
А это отчет https://web.stanford.edu/~mrosenfe/Rosenfeld_et_al_Disintermediating_Friends.pdf
#Интернет
Основанный на глубоком обучении современный мейнстримный ИИ не способен решить задачу создания сильного ИИ.
Т.е. избранный человечеством магистральный путь не ведет к созданию искусственного аналога интеллекта людей.
Как будто, желая попасть в Архангельск, мы сели в поезд «Москва — Архангельск». Едем уже 12 часов, а поезд тем временем идет в Сыктывкар. Но мы из-за этого не паримся, т.к. нам говорят, что от Сыктывкара до Архангельска ближе чем от Москвы. Да и что поделать? Ведь уже едем. Не возвращаться же обратно. Да и за билет деньги не вернут.

Но если ситуация с сильным ИИ столь же идиотична, так почему же мы хотя бы не признаем этого?
Почему, доедая взятые в дорогу бутерброды, мы продолжаем убеждать себя и соседей по купе, что все ОК, и нам осталось ехать то ли 6, то ли 8 часов?
В чем причина идиотизма такой ситуации?



Об этом мой новый пост на 6 мин.
- на Medium http://bit.ly/32xPDZE
- на Яндекс Дзен https://clck.ru/H9ARa
#СильныйИИ #AGI
​​Получил замечательный коммент на вчерашний пост о сильном ИИ.
«С такой логикой в восемнадцатом веке, глядя на паровоз, мы бы говорили: «сильное» МП (механическое передвижение) не достигнуть на этом идиотически ложном пути, основанном на использовании круглых колёс».
Приведенная аналогия мне понравилась, и я воспользуюсь ею для объяснения своей позиции (спасибо автору коммента).
Единственное, что нужно для этого сделать - уточнить цель построения «сильного» МП.

Итак, дано:
- мы в 18 веке;
- у нас есть не только колеса, но и подшипники и даже паровой двигатель, позволяющий разогнать повозку (ака паровоз) до приличной (в нашем понимании) скорости;
- мы считаем (не без некоторых оснований), что, набрав большую скорость, повозка взлетит.

Наша цель:
- построить летательный аппарат (т.е. создать машину, позволяющую человеку летать, как птицы или как-то иначе; но летать, а не ездить, - и в этом суть!).

Ситуация:
Приходит некий дядя и говорит следующее.
1) одних колес, подшипников и парового двигателя (ака паровоза) недостаточно, чтобы повозка полетела;
А) нужен иной двигатель, поскольку, даже если удастся усовершенствовать паровой двигатель (от себя добавлю - как это сделают через 200+ лет братья Бэсслеры), характеристики у такого летающего паровоза будут никудышные, и только время потратите на его создание зря;
Б) нужны крылья, аэродинамическая конструкция повозки и т.д. для обеспечения возможностей подъема и планирования.
2) Поэтому, ребята, завязывайте с прогнозами, обещающими построить летальный аппарат на основе паровоза то ли через 10, то ли через 20 лет.
3) Надо изобретать иной двигатель и думать над обеспечением летных качеств.
При этом дядя вовсе не опровергает, что паровоз – отличная штука и изменит жизнь человечества в ближайшие десятилетия.

И что же мы отвечаем дяде?
См. цитату в начале поста 😎

#СильныйИИ
Кай-Фу Ли и его бестселлер "Сверхдержавы искусственного интеллекта" становится все популярней в России. О нем все чаще упоминают ИИ профессионалы, и все больше цитируют даже популярные медиа.
Но! Ведь книга писалась 2-3 года назад. А за прошедшее время в области ИИ произошли серьезные изменения. Да и понимание перспектив развития ИИ довольно сильно изменилось. Даже у такого визионера, как Кай-Фу Ли.

Если хотите узнать, что он думает СЕЙЧАС о состоянии и перспективах ИИ (с позиций сегодняшних знаний темы и опыта ее осмысления) – нужно слушать его сегодняшние выступления.
И вот наиболее интеллектуально емкое и структурированное. При этом, самое новое.
Если не сможете выделить 1,5 часов, прослушайте хотя бы 5 мин с 7 по 12 минуту.
Здесь Кай-Фу говорит о самом важном.

Перспективы двух подходов к развитию ИИ.
1й подход ставит во главу угла обилие данных (умение обрабатывать все большие и большие их объемы).
2й – делает ставку на алгоритмы (усовершенствование существующих и разработка новых методов повышения отдачи при обработке данных).
1й подход можно условно назвать «Китайский». 2й – «Прорывно-инновационный».

Для большинства корпораций, делающих бизнес на ИИ, 1й подход проще и менее рискованней.
Однако сложные задачи, типа автономных авто и медицинской диагностики, существующие алгоритмы, вероятно, не решат. Поэтому «Китайский» подход для таких задач может не сработать, и здесь, скорее всего, нужен «Прорывно-инновационный» подход.
Например, в области автономных авто «Китайский» подход позволит решить проблему езды автономных грузовиков по хайвеям. И это большое дело, в котором Китай, вероятно будет первым.
Но для решения задачи создания полностью автономных авто потребуются «Прорывно-инновационный» подход, чтобы совместно с университетами придумать новые алгоритмы, сейчас пока что неизвестные.

Машинного обучения недостаточно даже для решения не самых сложных задач, решаемых человеческим интеллектом.
Создание полностью автономных авто – крайне сложная комплексная задача, с решением которой пока что справляется лишь интеллект человека.
Но даже такие инновационные компании как Tesla, все еще ориентированы на «Китайский» подход, делая ставку на машинное обучение с использованием все бОльших объемов данных.
К сожалению, оставаясь в рамках этого подхода, можно решить лишь довольно простые задачи, типа распознавания визуальных образов или речи. Решение же более сложных задач, в которых у человека задействованы механизмы понимания и планирования, вряд ли возможно лишь на основе машинного обучения.
И построение полностью автономным авто – лишь один из примеров таких сложных задач. То же самое можно сказать и о создании универсальной разговорной системы, способной на человеческом уровне разговаривать на произвольные темы из произвольной области. Решение этой задачи только на основе машинного обучения, скорее всего, невозможно.

Сказанное Кай-Фу Ли важно для нас вдвойне.
✔️ Во-первых, в вопросе, что может и чего не может сегодняшний мейнстримный ИИ, а также в еще более важном вопросе – куда дальше двигаться в этой области.
✔️ Во-вторых, сказанное Кай-Фу крайне важно для фокусировки российских ИИ-стратегий. Как на уровне отдельных специалистов и их компаний, так и на уровне национальной стратегии, сегодня, больше похожей на «Мы за все хорошее»
#ИИ
Про Закон Мура знают все. А про «Анти-Закон Мура» - никто. Хотя он и подкреплен не менее прочной статистикой, и важнее для человечества, чем скорость роста производительности компов.
Из этого закона следует, что научный прогресс экстенсивен и может вскоре остановиться из-за приближения науки и технологий к сингулярности сложности.
Только не подумайте, что как с прочими сингулярностями, речь идет о прозрениях визионеров и умозрительных прогнозах.
Все гораздо прозаичней и реальней. Только проверенные цифры, и никаких субъективных оценок.
Об этом мой новый пост на 4 мин.
- Medium http://bit.ly/30Ln9di
- Яндекс Дзен https://clck.ru/HDE9i
#Наука #Прогресс
Мир, который мы потеряли.
Человечество погрязло в техно-пропаганде и экономике пузырей.

Сегодня снова о том, почему человечество вверглось в эпоху застоя и всеобщего институционального краха. Дело в том, что вчерашний пост про «Анти-Закон Мура» убедил далеко не всех читателей в продолжающейся уже полвека стагнации науки.
Люди возражают. Как же так, - а компьютеры, смартфоны, интернет и голосовые помощники? Да и самоуправляемые авто в недалеком будущем, в конце концов!
Это поразительный пример интеллектуальной слепоты, о которой я уже не раз писал. Люди видят только то, что хотят видеть, мотивированные своими предубеждениями, сформированными техно-пропагандой.

Да посмотрите же на вещи объективно. При чем тут смартфоны и голосовые помощники? Что эти IT прорывы меняют в общей стагнации большинства наук и индустрий.
Вспомните два самых грандиозных открытия современной науки за последние 70 лет:
1) 50е-60е годы: открытие 3х мерной структуры ДНК и прорыв в понимании генетического кода;
2) 60е-70е годы: открытие кварков и прорыв в понимании физического устройства мира.

Спустя 70 лет:
- где прорывные технологии на основе открытия кварков?
- почему «генная терапия», по большому счету, пока так и не появилась?
Физика стала слишком сложной? А биология оказалась еще сложнее физики?

Вспомните 30е годы прошлого века с кризисом и стагнацией в экономике США.
Но в эти годы, за счет научно-технологических прорывов, одна за другой в США возникли целые индустрии, ставшие затем локомотивами мировой экономики:
- автопром (в 1939 в США стало втрое больше автовладельцев чем в 1929),
- авиапром,
- киноиндустрия,
- индустрия пластмасс,
- индустрия вторичной переработки нефти,
- индустрия производства бытовой техники.

А какие индустрии появились за последние десятилетия?
Мобильная связь и интернет?
Онлайн торговля?
Смартфоны?
Как-то это слабо сопоставимо с 30ми годами.

Вспомните головокружительные открытия главной мировой науки – физики в 40е и 50е:
- ядерную энергию, поставившую точку во 2й мировой войне,
- полупроводники, позволившие потом создать компьютеры, смартфоны и Интернет,
- открытия теоретических физиков, создавших тогда молекулярную биологию, а потом проведших революцию и в телекоме.
Да вспомните, наконец, что:
- в 1968 первый термоядерный реактор Токамак достиг электронной температуры плазмы в 12 млн °C,
- в 1969 люди высадились на Луну,
- а в 1976 полет на сверхзвуковом пассажирском лайнере Конкорд Лондон – Нью-Йорк занимал всего лишь 3 часа 20 мин. (в 2+ раза быстрее, чем сегодня!).

Спустя полвека:
- где работающий термояд?
- где перелеты на сверхзвуке через Атлантику?
- где полеты на Луну, Марс и Венеру?
Все это оказалось ненужным?

Нет. Слишком сложным. Невероятно сложным. Неподъемно сложным.
✔️ Сложным для освоения уже накопленных научных сведений, без чего невозможно двигаться дальше (отсюда нарастающая специализация и изоляция ученых в своих областях, - дай бог успевать прочесть хотя бы заголовки новых статей из своей узкой специализации).
✔️ Сложным для управления, что привело к тотальному миссменеджменту науки, как на уровне государства, так и бизнеса.

В результате 40летняя стагнация в науке и в большинстве индустрий.
В результате прогресс, лишь колеблющийся вокруг достигнутого уровня (десятилетие чуть вверх, десятилетие чуть вниз), в основном, за счет техно-пропаганды и экономики пузырей.
Это нужно и можно изменить.

Подробней обо всем об этом в 3х часовом интервью (https://www.youtube.com/watch?v=nM9f0W2KD5s) великого предпринимателя, визионера и венчурного капиталиста Питера Тиля.
Ну а своими глазами увидеть, каким станет мир в ближайшие годы, если отдаться на волю текущих трендов и не найти в себе силы их радикально изменить, - можно в отличном новом сериале Years & Years (https://www.youtube.com/watch?v=SY41jhIP_xI)
Смартфоны и голосовые помощники продолжают рулить. И даже кое-где авто без водителя. А у некоторых даже вшитый в ладонь смартфон. Ну а главный техно-прорыв сделан в самом массовом бизнесе - похоронном …
В остальном же все только хуже: работы и денег - все меньше, обмана, мошенничества, жестокости и нетерпимости - все больше. Ну а политики, как обычно, - делают на всем этом себе карьеру и удовлетворяют свои шкурные интересы.

Так что решайте, слушать ли Тиля, смотреть ли Years & Years. Я сделал и то, и другое. И не жалею.
#Наука #Прогресс
​​Страшные плоды новой эры эволюции на Земле.
«Аллергия» на качественный контент, «астма» от факт-чекинга, бото-терроризм.

Поворотным моментом в эволюции был переход от биологической (генной) эволюции к генно-культурной коэволюциию. В его процессе у наших предков развился символический язык, позволивший создать символическую культуру, сформировавшую затем наш разум и общество.
В созданном таки образом новом мире развитие людей все меньше зависело от эволюции генов, и все больше - от нарастающего влияния эволюции мемов.
Так продолжалось несколько десятков тысяч лет, сформировав цивилизацию на Земле со всем, что люди знают и умеют. Но несколько лет назад «эпоха цивилизации людей» закончилась, и начался новый переход.

В его основе следующее.
1) Изменение информационной среды генно-культурной коэволюциии: от материальной к электронной – попросту говоря, это Интернет.
2) Вместо одного носителя культуры – человека, новую электронную информационную среду теперь населяют два носителя культуры: люди и боты.

Итогом названных кардинальных изменений стало то, что будущее новой «цивилизации 2х носителей культуры» теперь зависит от результатов их сетевых взаимодействий.

По каким законам будет происходить процесс сетевых взаимодействий 2х носителей культуры, пока никому не известно. Но ясно одно, - влияние на развитие мировой сети идей (знаний, мемов, мифов …) будут оказывать оба носителя культуры. Но это еще не все.

Грандиозным изменением расклада эволюционных сил может стать вот что:
- 1й носитель культуры (человек) пока что воспроизводится по старинке - биологически;
- а 2й носитель культуры вполне рукотворный, и его созданием будут заниматься кто угодно и, в том числе, преступники, тоталитарная власть, сумасшедшие маньяки …

Это значит, что распространение новостей, формирование приоритетов популярности и важности тем, влияние на рейтинги поп-звезд и политиков … и много что еще, будет формироваться в инфосети в процессах взаимодействия людей и ботов. Причем среди обоих будут злонамеренные. Но способы воспроизводства, потенциал влияния и, главное, возможности детектирования и блокировки у людей и ботов несравненно разные. Как это будут работать, и что из всего этого получится, совершенно непонятно.

Немногие проделанный эксперименты, например, показывают следующее:
А) Вирусность распространения высококачественной и низкопробной инфы, распространяемой факт-чекинговыми и отстойными источниками, примерно одинаковая.
Б) Без ботов невозможно достичь одинаковой популярности низко- и высококачественных мемов. Однако, при наличии ботов с низкой инфильтрацией и низким уровнем обмана, вполне возможно обеспечить одинаковую популярность полярных по качеству мемов.
В) Зловредные боты, подобно микробам, становятся более опасны в грязной среде. Чем больше в инфосети грязи, тем большее влияние на людей оказывают боты. Но возможно и обратное. Также как излишнее оберегание детей от грязи и микробов может со временем обернуться для них аллергией и астмой, так и с излишней стерильностью инфосети (например, «суверенной») возможно возникновение «аллергии» на качественный контент и астмы от факт-чекинга.
Г) Инфильтрация ботов является доминирующим фактором подавления качества сетевой инфы. Когда боты оказывают влияние всего лишь на 1% людей в мире, происходит резкий переход к подавлению качества (см. рисунок). И если проникновение не ниже этого критического порога, боты даже не нацеливаются на влиятельных пользователей, а наносят максимальный урона, выбирая среди людей случайные жертвы.

Последнее – жуткий пример «бото-терроризма», действующего по принципу «взорви доверие первого попавшегося, а остальные испугаются и сами поверят».

Жаль, что все исследования идут лишь на моделях и старой статистике. Эксперименты с влиянием ботов на реальных людей сдерживаются по этическим причинам, как и генетические эксперименты.
Но боюсь, что к Китаю это не сильно относится.
Подробней – Information Pollution by Social Bots

#Соцботы
​​Насколько шведы честнее нас, настолько мы честней китайцев
Эволюционные психологи расшифровывают зашитые в нас эволюцией «поведенческие программы» (ПП): страх, эгоизм, альтруизм и т.д. Но оказывается, в нас заложены еще и «поведенческие операционные системы» (ПОС), управляющие взаимодействием ПП, как ОС смартфонов управляют приложениями.
Алгоритмы ПОС намного сложнее алгоритмов ПП и пока совершенно не изучены.
Также есть гипотеза, что в отличии от ПП, алгоритмы которых примерно одинаковы у разных народов (страх и эгоизм и в Африке те же, что у нас), алгоритмы ПОС зависят от социального окружения и потому должны отличаться в разных странах.

Это решили проверить экспериментально, чтоб понять алгоритмы одного из важнейших модулей ПОС, координирующего взаимодействие трех ПП: эгоизм, самооценка и альтруизм.

Сложность этого модуля в том, что координируемые им ПП взаимно противоречивы.
Про 1ю и 3ю ПП и так понятно. А вот 2я ПП усугубляет дело, т.к. человеку всегда хочется высокой самооценки, в независимости от того, как он поступает – эгоистично или альтруистично.
Короче, пазл какой-то с разтроением личности.

Разрешить этот пазл крайне важно, т.к. на нем держится любое общество. И к слову: из продолжения моего поста про «Большого брата – сына Больших богов» (все никак не дойдут руки его дописать) вы узнаете, что интерфейсом взаимодействия Больших богов с нашим сознанием является как раз этот модуль ПОС.

Эксперимент таков.
1) В 355 городах 40 стран были, как бы, разбросаны 17+ тыс. бумажников.
2) Каждый из таких бумажников подставные лица приносили на рецпшн разных гос и частных учреждений и говорили: «Я нашел этот бумажник на улице, но очень тороплюсь. Не могли бы вы вернуть его владельцу?»
3) Содержимое бумажников было разным - с деньгами (2 варианта: $13 или $94) или без. Однако в каждом были: список покупок, ключи от дома и 3 одинаковые визитки.
4) Места передачи бумажников специально выбирали двух типов: с бросающимися в глаза камерами видеонаблюдения и без оных (дабы получающий в руки чужой бумажник знал - увидят это или нет).

Результаты исследования читаются, как триллер. Прочтете сами.
Я же о том, что заинтересовало меня.

А) Гипотеза подтвердилась. Алгоритмы модуля ПОС, координирующего ПП эгоизма, самооценки и альтруизма, в разных странах сильно отличаются. Качественные различия еще предстоит уточнять, но количественные налицо (см. рис: желтые точки – бумажники без денег, красные – с деньгами).
В результате «интегральная честность» (процент возвращенных бумажников) - у швейцарца и китайца или у норвежца и казаха отличаются в разы. Россия посредине между Испанией и Румынией. Причем мы даже почестнее, чем США и Британия (спасибо советскому прошлому!)
Б) Найден универсальный ключ в работе этого модуля - чем больше денег в бумажнике, тем выше шансы, что его вернут. Т.е. оказалось, что совесть реально мучает пропорционально сумме незаконно присвоенного.

Осталось выяснить, по какому закону растут муки совести при росте суммы незаконно присвоенного до миллионов и миллиардов.
Если найденная закономерность подтвердится, то у жуликов и воров, присвоивших миллиарды:
- либо муки совести просто непереносимые;
- либо эволюция предусмотрела в ПОС некий «выключатель совести», обезболивающий душу жуликов и воров при присвоении особо-крупных сумм.

И тогда получается, что наличие «выключателя совести» - несомненное эволюционное преимущество.

Подробней:
Исследование
Его разбор
На русском пишут Кишинев и Минск 🤔

#ЭволюционнаяПсихология
Что ждет Страну Отцов в 2019-2029
Куда идет мир? Каким будет ближайшее десятилетие? Что станет определяющим будущее фактором - новые технологии, изменения в самом человеке или во всем обществе?

После позавчерашних событий в Москве, ответы на эти вопросы применительно к России для многих изменились. В этом контексте, новый мини-сериал «Годы» (Years and Years) https://www.youtube.com/watch?v=lSOo4_7Pccg становится по актуальности рядом с сериалом «Чернобыль».
• Тот был правдой о не таком уж давнем прошлом.
• Этот – правда о довольно скором будущем.

Этот текст – вовсе не рецензия на «Годы». Да и куда мне лезть на поляну кино-корифеев типа Юрия Гладильщикова.
Но о самом, как мне кажется, главном и актуальном для нас в сериале «Годы» пока еще никто не написал. А в свете субботних событий в Москве, понять это крайне важно.

1) Сериал «Долгие годы» о том же, о чем и «Обитаемый остров» Стругацких – может ли меньшинство подорвать власть «Неизвестных отцов» над оболваниваемым большинством.
2) Ответ обоих произведений – ДА.
- Но в XX веке (рецепт повести «Обитаемый остров») нужно было подрывать «Башни-излучатели», останавливая тем самым одуряющий большинство инфопоток.
- А в XXI веке (рецепт сериала «Годы») нужно подрывать «Башни-глушилки», открывая тем самым инфопотоку правды путь через смартфоны к умам большинства.

И в этом главное отличие мира будущего. Как минимум, на грядущее десятилетие.
✔️ Новые технологии, конечно, тоже кое-что поменяют в мире (в 1ю очередь, все более вытесняя людей из все новых профессий).
✔️ И даже люди кое в чем изменятся (вплоть до имплантов в мозг, позволяющих напрямую управлять своими действиями в инфосети).
✔️ Но главное изменение произойдет в ключевом механизме управления обществом (да и всем человечеством):
- от массированной пропаганды,
- через мир фейковых новостей
- к управлению инфо-заслонками на пути правды.

Китайские «неизвестные отцы» это поняли первыми и уже вовсю идут этим путем.
Британии и другим развитым странам (как показано в сериале) этот путь - с закрытием BBC, строительством «башен-глушилок», ограничениям в Инете и «неизвестными отцами или матерями», пилящими тем временем бабло - предстоит пройти в грядущем десятилетии.
Другим странам, с разной степенью технологической готовности, предстоит то же самое с поправкой на сроки.
И выход один – взрывать «башни-глушилки». Ну а если они еще не построены, - не дать их построить.

Иначе на смену Больших Богов придет их сын – Большой Брат.
А наш мир превратится в Саракш. Ибо на языке Страны Отцов это означает «Мир».
#Будущее
Беспроводная зарядка дронов может совершить революцию.
Поскольку:
- не нужны опасные и энергозатратные посадки и взлеты;
- достаточно влететь внутрь «зарядной области»;
- 6 мин зарядки обеспечивают 25 мин полета;
- в «зарядной области» могут одновременно заряжаться несколько дронов;
- если создать соты из «зарядных областей» над крышами домов, дроны будут летать без ограничений времени и расстояния.
https://twitter.com/ExtremeTech/status/1155561058519506944

А если еще оснастить дроны новой системой умного видения SlimYOLOv3, делающей их по-настоящему умными - будет совсем улет https://arxiv.org/abs/1907.11093.
Вот так мир и изменится: быстро и радикально.
#БПЛА
В нас заложен инструмент управления эмоциями.
Нужно только научиться им пользоваться.

Самый могучий инструмент, заложенный в человека эволюцией – вовсе не интеллект, не разум и не сознание. Это эмоции, на нейрохимическом уровне управляющие всей нашей жизнью. Это своего рода фундамент, над которым надстраивается не только все вышеназванное, но даже и бессознательное.
Управлять этим мощнейшим инструментом куда сложнее, чем собственным телом или своими мыслями. Даже йоги, пройдя многолетнюю спецподготовку, не всегда в состоянии справляться с эмоциями.
И если бы кто-то открыл способ, помогающий это делать, это было бы весьма ценно для каждого из нас.

Новое исследование «Beyond emotional similarity: The role of situation-specific motives» - важный шаг на пути открытия способов управления эмоциями.
Его авторы поставили под сомнение железобетонную основу нашего понимания того, как формируются эмоциональные реакции. Всегда считалось, что реакция людей на эмоции других происходит автоматически на бессознательном уровне. Но авторы нового исследования доказали, что это не так.
Наши эмоции не являются ни пассивными, ни автоматическими. Это значит, что ими можно управлять. И в частности, можно регулировать то, как на наши эмоции влияют эмоции других.

Наши эмоции – многофункциональный инструмент, сформированный в нас эволюцией. И одна из его важных функций – способствовать достижению нужных нам целей при коммуникации с другими людьми.
Например,
- мы выражаем определенные эмоции, чтобы убедить других людей сделать что-то для нас или присоединиться к нашему коллективному делу;
- а в социальных сетях мы используем эмоции, чтобы показать другим людям, что нас заботят проблемы группы, к которой мы хотим принадлежать, и своими эмоциями мы хотим дать людям знать, что мы являемся ее частью.
Но как же работает на практике подобная передача эмоций?

Исследование экспериментально подтвердило известное крылатой выражение -"Хотеть - значит мочь". Т.е. все упирается в мотивацию людей, которая оказывается сильнее их эмоций.
Например, когда человек ХОЧЕТ сохранять спокойствие, он будет оставаться относительно спокойным даже среди толпы брызжущих слюной от гнева людей. Но если он сам ХОЧЕТ сердиться, то на него будут оказывать сильное влияние эмоции разгневанного окружения. Вот такая положительная обратная связь.

В ходе экспериментов исследователи обнаружили, что участники, которые хотели чувствовать меньше злости, в три раза чаще испытывали влияние людей, выражающих спокойные эмоции, чем злящихся людей. Но участники, которые сами хотели злиться, также были в три раза чаще подвержены влиянию других людей, более озлобленных, чем они, в отличие от людей с более спокойными эмоциями. Исследователи также обнаружили, что эти участники стали более эмоциональными, когда узнали, что другие также чувствовали схожие с ними эмоции.

Ну а что из этого следует на практике?
Примерно так.
1) Самый простой и эффективный способ отрегулировать свои эмоции – выбирать нужное вам социальное окружение. Например:
- хотите сегодня негодовать и злиться – вам в эту группу общения;
- хотите испытывать спокойствие и благодушие – вам в другую группу общения.
2) Ну и разберитесь со своей волей – чего вы, на самом деле, хотите. Поскольку именно это вы и получаете в процессе общения с другими людьми: в семье, на работе, с друзьями и френдами.
Иными словами, - научитесь хотеть нужного для вас, и выбирайте/формируйте себе правильное окружение.

Исследование:
- популярно https://news.stanford.edu/2019/06/13/examining-peoples-emotions-influenced-others/
- для профи https://psycnet.apa.org/record/2019-32092-001
#Эмоции
Алгоритм экономического доверия зашит в наших генах.
Это удивительное открытие озадачивает – а что еще там зашито?

Насколько сложные поведенческие стратегии и алгоритмы их исполнения зашиты в наших генах и передаются по наследству? Речь здесь не о простых поведенческих реакциях, типа страха, а о сложных поведенческих стратегиях, отсутствующих у животных, но имеющихся у людей.
Например, - базовая поведенческая стратегия, на которой стоит вся экономика человечества, и без которой нашей цивилизации просто не было бы. Речь об экономическом доверии – основе взаимовыгодного взаимодействия.

Что это такое, никому объяснять не нужно. Взрослый человек понимает это интуитивно. Два главных параметра этого понятия для нас столь же очевидны, как ощущение усталости или головной боли.
Первый параметр – потенциал пользы от проявляемого нами доверия (что мы может за наше доверие получить). Второй – моральный риск того, что партнер может нас обмануть (насколько больно нам будет в душе, если нас кинут).

До сих пор считалось, что сложные поведенческие стратегии, уровня экономического доверия, - продукт исключительно культурной эволюции человека. И, следовательно, экономическое доверие – плод социального научения человека в процессе жизни.
Однако, результаты исследования «Экономическое доверие у маленьких детей», опубликованного на прошлой неделе в Трудах Королевского научного общества, опровергает существующую точку зрения.

✔️ Путем разработанных авторами забавных и весьма креативных поведенческих экспериментов с куклами (см. видео, которое пока что посмотрели меньше 100 человек во всем мире!), авторы убедительно доказали, что в головах детей 4-6 летнего возраста уже есть все необходимое для понимания и следования стратегиям экономического доверия.

Дело в том, что в этом возрасте у детей просто отсутствуют:
- способности к ориентированному на будущее мышлению,
- опыт социального научения экономическим отношениям.
А это значит, что базовый уровень поведенческой стратегии экономического доверия, а также алгоритмы исполнения этой стратегии зашиты в наших генах.

И это поразительно. Ведь алгоритмика нейро-химического управления стратегией столь высокого уровня сложности куда сложней, чем, например, зашитые в нас алгоритмы ориентации в 3х мерном пространстве или оценки расстояний между предметами (FYI: оба этих умения лежат в основе научения ребенком тому, что мы называем «видеть», в первые месяцы после его рождения).

• Каким образом в ДНК умещаются столь сложные алгоритмы?
• Каким супер-эффективным кодом они там закодированы?
• А может, все-таки, они загружаются из каких-то внешних источников, отличных от опыта социального научения?


Все это пока неизвестно. Но тем интересней 🤓

Исследование:
- популярно;
- для профи.

#Биопсихология #ЭволюционнаяПсихология #ПринятиеРешений #Эволюция #СравнительнаяПсихология
90%+ информации, публикуемой в западных и наших СМИ, социальных сетях и блогосфере о китайской системе социального кредита – миф.
Глобальной системы мониторинга и оценки поступков людей, в соответствии с которой им присваивается социальный рейтинг, определяющий его возможности в жизни, - сейчас не существует и в следующем 2020 году не появится.
О том,
• почему этот миф появился и получил широчайшее распространение на Западе и у нас,
• что, на самом деле, подразумевается под системой социального рейтинга Китая,
• что уже сделано, и каковы перспективы,
• и самое главное, - чем этот миф опасен для нас,
читайте в моем новом посте на 5 мин
- на Medium http://bit.ly/2OEyKJW
- на Яндекс Дзен https://clck.ru/HQkck
#Китай #СоциальныйРейтинг
Ситуация похожа, как если бы доказали, что Дарвиновская теория эволюции — лишь частный случай, подобно тому, как законы классической механики Ньютона оказались частным случаем релятивистской механики Эйнштейна.
Читать дальше (3 мин.)
- на Medium http://bit.ly/2Zt8gfv
- на Яндекс Дзен https://clck.ru/HSNot

#Эволюция #СоциальнаяСложность
Ваши метакогнитивные искажения не оставляют вам шансов.
Современное просвещение дает обратный эффект.

В этом веке «модель дефицита знаний» оказалась разрушенной. Повсюду рулит эффект Даннинга-Крюгера и лавиной нарастает интеллектуальная слепота. Сегодня те люди, кто меньше всего разбирается в сложных вопросах, более всего убеждены, что знают о них предостаточно.
Это относится ко всем странам и культурам, и распространяется на любые сложные вопросы, по которым нет научного консенсуса.

Но это еще не самое плохое.
Куда хуже то, что все современные попытки просвещения масс в таких вопросах дают прямо противоположный результат.

Практика последнего десятилетия доказывает, что эффект Даннинга-Крюгера (метакогнитивное искажение типа «чем тупее, тем уверенней в себе») не преодолевается путем предоставления «незнайкам» истинных данных и научной аргументации.
Им от этого становится только хуже! Их тупая самоуверенность крепчает, и убедить их в обратном будет еще труднее.

Причина в том, что наше время оказалось временем краха «модели дефицита знаний» - идеи о том, что люди выступают против правильной политики и истинной науки из-за недостатка у них проверенной научной информации. Мол, достаточно людей просветить, - они поумнеют, и в мире возобладают научные истины.

XXI век опроверг «модель дефицита знаний». Главными причинами этого стали:
1) взрывной рост объемов информации, в которой истинные знания просто тонут, да их и невозможно идентифицировать в падающем на нас, подобно Ниагаре, инфопотоке;
2) новые, весьма важные и полезные изобретения человечества в области массовых коммуникаций и информационных технологий: основанные на сетевой стигмергии поисковики, электронные СМИ, социальные сети, Википедия, технокультура смартфонов и т.д.
Все эти замечательные технологии, к сожалению, делают «модель дефицита знаний» все менее работоспособной. В результате чего:
- во-первых, растет интеллектуальная слепота масс;
- в во-вторых, даже профессионалы предпочитают все более следовать мейнстриму массовых заблуждений (оно спокойней и доходней).
Т.е. весь мир неуклонно глупеет.

Для борьбы с этим необходимы новые методы донесения научных данных в электронной инфосфере Земли, способные хотя бы конкурировать (а нужно, чтобы они побеждали) с вирусными каскадами интеллектуальной слепоты масс и фейкового контента всякого рода интересантов (просто зарабатывающих на нем).
Но такие методы человечеством пока не разработаны.

Желающие ознакомиться с конкретными исследованиями, доказывающими крах «модели дефицита знаний», могут пройти по ссылкам в кристально ясном эссе проф. Аарона Кэрролла «Health Facts Aren’t Enough. Should Persuasion Become a Priority?»

Ну и перечитать мои предыдущие посты на тему «интеллектуальной слепоты» 1, 2, 3

P.S. О стигмергии поисковиков я предупреждал еще 6 лет назад.

#ИнтеллектуальнаяСлепота #Вызовы21века
Что могло объединить усилия троих супер-знаменитых, уже все имеющих и все еще рулящих в высоких кругах людей, чтобы они в течение 3х лет (!) регулярно брейнштормили некую тему и вот теперь решили поделиться с народом своими итоговыми соображениями?
Как ни странно, но ответ почти очевиден –
будущее человечества, которое теперь зависит не только от людей, но и от их изобретения, по недоразумению названного ими ИИ.

Вот моя интерпретация 3х примеров, иллюстрирующих ход мыслей авторов эссе «Метаморфоза».

1) Пример микро-изменений (для отдельных людей) из области человеческих ценностей.
А. Уже ясно, что очень скоро домашние ассистенты будут понимать предпочтения своих владельцев и учитывать их при формировании своих ответов. И тогда они будут становиться не только «умнее» для своих «хозяев», но и ближе для них (интеллектуально и эмоционально). В результате ИИ сможет побуждать людей чувствовать к нему эмоции, на которые он не способен ответить взаимностью.
Б. Алгоритмы ИИ помогают открывать новые рубежи знаний, одновременно сужая выбор информации и расширяя возможности подавления новых или сложных идей. ИИ способен устранять языковые препятствия и многие запреты культуры. Но также он обладает беспрецедентной способностью ограничивать (или трансформировать) пути распространения информации.
В результате
- эмоциональной переориентации коммуникативных предпочтений людей (и особенно детей) на ИИ
- и все более зависящих от ИИ (а не от самого человека) потоков информации, формирующих миропонимание людей,
у людей начнутся изменения в их системах ценностей. Куда поведут человечество подобные изменения, и что будет их следствием – мы пока не знаем.

2) Пример макро-изменений (для многих стран) из области глобальной и национальной безопасности
Великая стратегия безопасности человечества, созданная после появления ядерного оружия, держалась на фундаменте концепции сдерживания.
С повышением роли ИИ в национальной безопасности концепция сдерживания перестает работать, поскольку:
- ее механизм держался на возможностях взаимного контроля сторон;
- но непрозрачность и скорость ИИ становятся новым стратегическим преимуществом, которым стороны уже не хотят пожертвовать за столом переговоров.

3) Пример гипер-изменений (для человеческой цивилизации)– изменения понятий знаний, восприятия и реальности.
Самым сопоставимым с идущей ИИ-революцией событием мировой истории был переход от средневековья к новому времени. В средневековый период люди интерпретировали вселенную как творение божественного, а все его проявления - как эманации божественной воли. Когда единство христианской церкви было нарушено, возник вопрос - какое объединяющее понятие может заменить Бога!
Ответом была эпоха Просвещения. Великие философы заменили божественное вдохновение разумом, экспериментами и прагматическим подходом. Последовали и другие интерпретации: философия истории, социологические интерпретации реальности.
Но феномен машины, которая помогает - или, возможно, превосходит - людей в умственном труде и помогает не только предсказывать, так и формировать результаты, уникален в истории человечества.
- Философ Просвещения Иммануил Кант приписал истину влиянию структуры человеческого разума на наблюдаемую реальность.
- Истина ИИ куда более случайна и неоднозначна. Она изменяет себя по мере получения и анализа данных.
Просвещение стремилось подчинить традиционные истины освобожденному, аналитическому человеческому разуму.
Цель связки Интернета с ИИ - ратифицировать знания путем накопления и манипулирования постоянно растущими данными. Человеческое познание теряет свой личный характер . Носители интеллекта, в восприятии ИИ, превращаются исключительно в данные. И эти данные, по сути, становятся новым носителем интеллекта, властвующим в инфосетевом мире.

https://www.theatlantic.com/magazine/archive/2019/08/henry-kissinger-the-metamorphosis-ai/592771/
#AI #Будущее
Карта 168и техно-щупалец Китая, подгребающих под себя мир.
Аналитическая онлайн-платформа о технологической экспансии Китая.
Согласно Кай-Фу Ли, мир будущего будет китае-американским. С этим никто особенно и не спорит. Ибо как тут поспоришь, если в списке стоимости TOP 20 Global Internet Companies 11 компаний из США (от Apple до Uber) и 9 из Китая (от Alibaba до Toutiao).
Про технологическое доминирование США нам рассказывать не нужно – все видели и видим своими глазами уже не первый десяток лет.
Но вот про экспансию Китая мы знаем непростительно мало. А если почитать СМИ, Телегу и ФБ, то что мы реально узнаем о том, как Китай завоевывает себе половину мира? Да почти ни-че-го.
Вот почему так полезно время от времени заходить на онлайн-платформу Австралийского института стратегической политики «Карта экспансии техгигантов Китая».
Здесь ведется геомониторинг и анализируются:
• 17 000+ элементов данных о деятельности в 1700+ точках мирового присутствия 12 китайских техногигантов;
• 404 университетских и научно-исследовательских партнерства Китая по миру, в том числе 195+ партнерств университета Huawei Seeds for the Future;
• 75 проектов «Умный город» или «Решение общественной безопасности» в 46 странах мира;
• 52 инициативы 5G в 34 странах;
• 119 научно-исследовательских лабораторий, наибольшая концентрация которых в Европе;
• 56 подводных кабелей, 31 арендованный кабель и 17 наземных кабелей;
• 202 дата-центра и 305 телекоммуникационных и ИКТ-проектов распределены по всему миру.

Здесь онлайн-отчет проекта с указанием 127 ссылок на источники.
А здесь сама карта, позволяющая анализировать, как экспансию конкретных компаний, так и географию протягивания 168 техно-щупалец Китая (14 категорий экспансии 12ти техно-гигантов), подгребающих под себя мир.
#Китай
Роботы уже меняют нашу мораль.
В нас растут жестокость к людям и непреодолимая тяга к роботам.

Нагрузить вас перед уикендом сразу двумя крутыми исследованиями было бы не гуманно. Но исследования реально крутые и очень интересные. А фишка в том, что нужно их читать параллельно.
Но нам повезло. На помощь пришла Sigal Samuel, опубликовав в Vox синтетический анализ обоих исследований: популярным языком и со всеми полезными ссылками.
Мне же остается лишь сделать для вас наводку на резкость в этой теме.

Суть в том, что под влиянием роботов люди уже начали меняться. Причем, не в лучшую сторону и с ускорением.
1) Мы становимся более нетерпимыми и даже жестокими, перенося вседозволенность по отношению к роботам на людей.
2) Мы неуклонно движемся к тому, чтобы всюду, где это будет возможным, предпочитать общение с роботами, вместо людей (от кол-центра до постели)

Новое исследование Embodiment into a robot increases its acceptability – прорывное. Впервые экспериментально доказали, что процесс роста нашей жестокости к роботам можно остановить, и даже повернуть вспять.
Для этого оказывается достаточным:
А) начать видеть мир глазами робота;
Б) в буквальном смысле, влезть в его шкуру (то бишь, тело).
Изумительная выдумка авторов исследования сработала. Достаточно, надев VR очки и посмотрев на себя в зеркале, увидеть там Чудо-юдо Ужасное, как мы начинаем проникаться в нему симпатией и всяческой толерантностью. Короче, перечитайте «Превращение» Кафки и только представьте, насколько проще было бы семье Грегора Замза смириться с его новым гадким видом, имей они тогда VR очки с хорошим софтом.

Второе исследование Social Robots and Empathy: The Harmful Effects of Always Getting What We Want показывает, что сопереживание роботам может снижать нашу эмпатию к людям. Роботы устраняют для нас необходимость сопереживать другим людям, предоставляя нам возможность получать от роботов ровно то, что мы хотим (и как хотим) без каких-либо компромиссов.
Не поленитесь сходить и по иллюстративным ссылкам. Например, про китайское приложение Love and Producer, на которое в Поднебесной подсели уже миллионы женщин. И всего-то дел, - простенький симулятор свиданий с четырьмя мужчинами, с которыми можно развивать отношения по ходу сюжета игры. Плюс чуть-чуть мистики и немного фэнтези... И вот уже дамы берут смартфон в постель, предпочитая сладкоголосого виртуального героя мужу.

Прочтите пятиминутный пост Sigal Samuel
https://www.vox.com/future-perfect/2019/8/2/20746236/ai-robot-empathy-ethics-racism-gender-bias
А уж пойти ли по многочисленным приведенным там ссылкам, решите по ходу.

P.S. И вся эта гадость по отношению к виртуальным персонажам и роботам начинает проявляться в людях лишь после 30 месячного возраста. А до того матушка-природа уберегла, - нет в малых детях никакой тяги к виртуалам. Малышам нужны лишь живые люди. Получается, что первые 30 месяцев жизни дети всё еще пребывают как бы в раю. Ну а потом искушения е-культуры берут своё
https://news.vanderbilt.edu/2019/07/31/toddler-brains-resist-learning-from-screens-even-video-chat/

#Роботы #Эмпатия #Мораль