Малоизвестное интересное
64.8K subscribers
98 photos
1 video
11 files
1.8K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
​​Обнаружен непреодолимый риск использования ИИ в медицине.
Обладающий недоступным для людей знанием ИИ потенциально опасен.

Посмотрите на рисунок с примерами различных медицинский изображений.
Сможете по ним определить расовую принадлежность пациента?
Увы, но даже самый опытный рентгенолог на Земле не в состоянии это сделать. А ИИ делает это запросто.
Из этого, казалось бы, не страшного факта (ведь никто не заморачивается от того, что ИИ, например, лучше людей играет в шахматы) можно прийти к выводу о серьезной опасности использования ИИ в задачах медицинской визуализации.
Логика здесь такова.

1) Распознавание медицинских изображений при принятии диагностических и лечебных решений – это одна из самых массовых и перспективных областей прикладного использования систем машинного обучения (далее ИИ).

2) Попытки использования ИИ для принятия решений в широком спектре применений, основанных на суждениях о людях (напр., социальные, кадровые, финансовые, полицейские системы оценки людей), столкнулись с серьезной проблемой расовой предвзятости ИИ, обусловленной данными, на которых эти ИИ учили.

3) В контексте 1 и 2, новое авторитетное совместное исследование 15 медицинских центров США, Канады, Австралии и Тайваня вызывает шок и потрясение.
Его выводы таковы:

– ИИ запросто учится распознавать расовую принадлежность пациентов практически по любым медицинским изображениям, и это прямой путь для воспроизведения или усугубления расовой дискриминации в медицинской практике;

– эксперты - люди не понимают, как ИИ это делают, ибо просто физически не видят на изображениях каких-либо маркеров национальной принадлежности; из чего следует, что человеческий надзор за такими ИИ для распознавания и смягчения данной проблемы имеет (мягко говоря) ограниченное применение, а по сути – человеческий надзор здесь невозможен;

– это создает огромный риск для развертываний практически всех (!) моделей ИИ в области медицинской визуализации: если ИИ «тайно» полагался на свою способность определять расовую принадлежность для принятия медицинских решений, но при этом некорректно (предвзято) провел классификацию (например, чернокожих пациентов), клинические рентгенологи (которые, как правило, не имеют доступа к расовой демографической информации) не смогут это увидеть и исправить.

Результаты данного исследования в общем контексте прикладного использования ИИ для принятия решений звучат почти как приговор:

Любой ИИ, обладающий недоступным для людей знанием, потенциально чрезвычайно опасен и потому не должен использоваться при принятии ответственных решений.

Но ведь именно в таких, недоступных нам знаниях и заключается наивысшая ценность ИИ. В противном случае, ИИ превратится просто в «интеллектуальный экскаватор», облегчающий людям процесс «интеллектуального копания» в проблемах при принятии решений.
И по этой причине, обнаруженным риском, скорее всего, пренебрегут, забив на непредсказуемые последствия.

https://arxiv.org/abs/2107.10356
#ИИ #МашинноеОбучение #ГлобальныеРиски
​​Фиаско ИИ против COVID-19.
За 1,5 года созданы сотни ИИ-инструментов. Ни один не помог.

Согласно победным реляциям в медиа:
- «ИИ на треть сокращает время для диагностики COVID-19 на КТ-снимках»,
- «ИИ успешно прогнозирует риск ухудшения состояния заболевших COVID в приемных отделениях стационаров»,
- «ИИ научился диагностировать коронавирус по кашлю» и т.д.

Согласно научным отчетам и статьям об исследованиях, опубликованных в рецензируемых изданиях:
✔️ ИИ-инструменты практически не оказали никакого влияния в борьбе COVID-19 – отчет The Alan Turing Institute (1)
✔️ Ни один из сотен ИИ-инструментов прогнозирования COVID-19 не пригоден для клинического использования - ревю в British Medical Journal (2)
✔️ Ни одна из ИИ-моделей для обнаружения и прогнозирования COVID-19 с помощью рентгенограмм грудной клетки и компьютерной томографии не подходит для клинического использования из-за методологических недостатков и / или лежащих в основе систематических ошибок - ревю в Nature Machine Intelligence (3).
✔️ Эта пандемия стала большим испытанием для медицинского ИИ, и он не прошел это испытание. Вместо этого, пандемия привлекла внимание к сущностным проблемам медицинского ИИ, на которые мы уже не первый год закрываем глаза - MIT TechnologyReview (4)

Что пошло не так

1. Низкое качество данных (вкл. «наборы данных Франкенштейна» - когда данные из нескольких источников могут содержать дубликаты и тестирование ведется на тех же данных, на которых ИИ-инструмент был обучен)
Например:
А) Данные сканирования грудной клетки детей, у которых не было ковида, в качестве примеров того, как выглядят случаи не-ковида.
Однако, в результате ИИ научился определять не ковид, а детей.
Б) Данные сканирования включали пациентов в лежачем положении (с большей вероятностью эти пациенты были серьезно больны).
В результате ИИ научился неправильно предсказывать серьезность риска коронавируса, исходя из положения человека (а если пациент стоял, то серьезность поражение лёгких ИИ просто игнорировал).
В. ИИ научился ориентироваться на шрифт текста, используемый разными больницами для маркировки сканированных изображений.
В результате шрифты из больниц с более серьезной нагрузкой стали предикторами риска заражения коронавирусом.

2. Предвзятость инкорпорации (предвзятость вследствие маркировки данных)
Например:
Медицинские снимки помечаются в соответствии с тем, как их идентифицировал рентгенолог.
Результат этого включает любые предубеждения конкретных врачей, выдавая это в наборе данных за истину (надо было бы маркировать медицинское сканирование результатом теста ПЦР, а не мнением одного врача, но кто ж это делает).

3. У исследователей нет никаких стимулов делиться информацией (данными и моделями) – примеры см. в источниках.

4. Почти все ИИ-инструменты разрабатываются либо исследователями ИИ, которым не хватает медицинских знаний для выявления недостатков в данных, либо медиками, которым не хватает математических навыков, чтобы компенсировать эти недостатки – примеры см. в источниках.

Общий итог
Фиаско ИИ против COVID-19 лишь усугубило уже понятую главную проблему медицинского ИИ – используемые ИИ-инструменты должны объяснять логику, лежащую в основе их решений (5).
И это, увы, приближает новую «зиму ИИ».

Источники:
1, 2, 3, 4, 5
Фото В. Новикова. Пресс-служба Мэра и Правительства Москвы

#ИИ #МашинноеОбучение #Медицина
​​Pax Americana больше нет, а шансы Pax Sinica растут.
Три новых мастер-класса Китая для всего мира.

В мае прошлого года я писал — “Pax Americana больше нет, а Pax Sinica уже не будет: результатом пандемии может стать тотальная анархия”. Тогда, в начале пандемии такой сценарий казался мне весьма вероятным.
Спустя 15 месяцев становится все более очевидным, что тот прогноз подтвердится лишь на две трети.
• Мир, действительно, становится все более нефункциональным и хаотичным.
• Pax Americana, на самом деле, сыпется на глазах .
• Однако, прогноз — Pax Sinica уже не будет, — не сбывается. Китай не только устоял, но и окреп.
Кризис не обрушил основу национальной мощи Китая — единый и нерушимый политико-экономический курс и общепризнанное лидерство компартии Китая.
Более того. Китай превращается в мировую сверхдержаву №1.
Ибо ключевая роль такой сверхдержавы –
не только технологическое и экономическое лидерство, но и создание для мира системы цивилизационных образцов для подражания.
Будучи перенятыми, эти цивилизационные образцы формируют новые отношения государств, обществ и индивидов. Системность таких образцов характеризует их согласованность и, в идеале, синергию. А универсальность образцов делает их привлекательными, как для демократических (во всем диапазоне демократий), так и для авторитарных и даже тоталитарных стран (также во всем диапазоне).
Вот эти три новых мастер-класса Китая для всего мира.
Национализация данных.
Регулятивный авторитаризм.
Промышленная политика.

Посмотрим на них повнимательнее.
Дочитать (еще 4 мин.)
- на Medium https://bit.ly/3jqJIz1
- на Яндекс Дзен https://clck.ru/WdBWN
#Китай #США #Сверхдержавы
Инструменты с лицензией на убийство.
Что общего у медицинского ИИ с автономным оружием.

Мои посты о неудачах медицинского ИИ вызвали два типа реакций (в духе стакан наполовину пуст или полон).
— Стакан наполовину пуст:
«В начале пандемии казалось, что пробил звездный час искусственного интеллекта в медицине. Но внезапно выясняется, что все не так просто, и пока еще человек, которого сначала долго учили медицине, а потом он еще много лет практиковался в своем деле, все еще лучше ИИ, которого обучил за пару месяцев непонятно кто на первых попавшихся данных».
— Стакан наполовину полон:
«Машинное обучение ещё не созрело для использования непрофессионалами, а хорошие специалисты по машинному обучению просто пока не работают над задачами про COVID».
И то, и другое верно.
Но такая трактовка вопроса о рисках медицинского ИИ - лишь вершина айсберга, закрывающего собой главную проблему: отсутствие консенсуса в ответах на следующие два вопроса.
✔️ Медицинский ИИ – это лишь инструмент врача или он может сам принимать важные решения?
✔️ Можно ли принимать важные решения, не обладая пониманием, а лишь из анализа статистики?

Сравним два кейса: медицинский ИИ и автономное оружие.
Дочитать (еще 3 мин.)
- на Medium https://bit.ly/3xsmqNY
- на Яндекс Дзен https://clck.ru/WeAnN
#ИИ #МашинноеОбучение #Медицина
​​Технологии уже позволяют визуализацию не только мыслей, но и души.
Отсюда один шаг до технологического изменения духовности.

Знаменитый философ, математик, астроном, врач и большой знаток греческой науки Куста ибн Лука еще в 9-ом веке описал механизм протекания в мозге трех ипостасей мышления: процессов запоминания, воображения и рассуждения. Объясняя этот механизм, автор описывает роль отверстия (т.н. «церебрального водопровода») между двумя полостями головного мозга, закрываемого чем-то вроде клапана, который Куста ибн Лука описывает как «частицу вещества мозга, похожую на червя» (так его потом и назвали в нейроанатомии - Vermis).

И вот спустя 12 веков, рядом с «церебральным водопроводом» в т.н. «околоводопроводном сером веществе» (так называют периакведуктальное серое вещество среднего мозга) обнаружили мозговой контур, функционально сильно смахивающий на душу.

Согласно новому исследованию «A neural circuit for spirituality and religiosity derived from patients with brain lesions», духовность индуцируется в нас контуром нейрональной гиперсети мозга, модулирующей боль, страх, альтруизм и бескорыстную любовь.

Инновационная изощренность эволюции позволила создать удивительный коктейль из смеси простейших чувств боли, страха, альтруизма и любви. Этим коктейлем питаются самые сложные и абстрактные чувства Homo sapiens – ценностные чувства истины, добра и красоты.

Воздействие на эти ценностные чувства становятся заветной целью технологий 21 века.
Цена вопроса здесь колоссальная, поскольку:
• краткосрочные воздействия позволяют дарить людям духовные переживания On Demand,
• а долгосрочные – позволяют трансформировать культурные основы цивилизации.

Об этом был мой рассказ на ReForum, который теперь можно посмотреть в сети:
«Технологии и духовность»

Две важные ссылки, о которых я упоминаю в своем выступлении:
- фантастическая короткометражка «Счастливая охота»
- рассказ Фредерика Барретта и Жана-Пьера Шанже об измененных состояниях человеческого разума

Ссылки на исследование «A neural circuit for spirituality and religiosity derived from patients with brain lesions»: популярно и научно
#Духовность
Попытки понять механизмы разума будто упираются в стену. Десятки интригующих гипотез. Но экспериментально, по гамбургскому счету, не удается проверить ни одной.
И вот вдруг получилось нечто совсем уж крышесрывательное. Причем эксперименты основаны на теории, все чаще называемой «теорией относительности когнитивных наук».

Базовая идея проста – сравнить, «показания» мозга в штатном и нештатном режимах. Известно, - что у пьяного на языке, то у трезвого на уме. И если мы не в состоянии понять «показания» мозга в штатном («трезвом») режиме, попробуем снять с него «показания» в нештатном («пьяном») режиме измененных состояний разума: в процессе психоделических трипов в иные миры и медитативных погружений в бездну подсознания.
Ну а потом, сравнивая эти «показания», выявить ключевые элементы базового механизма конструирования мозгом индивидуальной реальности, единого для обычных и измененных состояний разума.


Два новых исследования, о которых пойдет речь, дают ответы на важнейшие вопросы.
• Почему человек —  не компьютер с вычислительным процессором мозга, а творец собственной реальности посредством мыследействий.
• Как, чтобы не захлебнуться в деталях, мозг просеивает шум, выборочно запоминая только самое важное.
• Что за «переломные моменты» позволяют разуму находить компромисс между порядком и хаосом.
• Какова роль фракталов и энтропии в базовом механизме конструирования мозгом реальности.
• Как специфика мозговых процессов в ходе медитативных «погружений» и психоделических «улётов» позволяет объяснить механизм восприятия мира.
• Как выпасть из времени, отключить свободу воли и испытать озарение

Читайте 1-ю часть рассказа обо всем этом (11 мин. чтения)
- на Medium https://bit.ly/2X5BrsF
- на Яндекс Дзен https://clck.ru/WiKTv
#Восприятие #Медитация #Психоделики #ПринципСвободнойЭнергии #ПрогнозирующийМозг
​​Техноутопия с китайской спецификой на основе «глубоких технологий».
Корректировка генплана КПК – тотальный госконтроль над низкомаржинальным хайтеком.

Компартия Китая будто смеется над западными и российскими экспертами, предрекающими скорую остановку бурного роста китайского хайтека из-за, якобы, несовместимости авторитаризма КПК с развитием инновационной рыночной экономики. Шутя пожертвовав за 9 мес. более $1 трлн капитализации своего хайтека, КПК показала и китайским, и западным техно-баронам, что не остановится ни перед чем, ломая их об колено.

КПК показывает всем, что не собирается останавливаться в начатом. Вице-премьер Лю Хэ объявил новый руководящий принцип –
Китай вступает в новую фазу развития, которая ставит во главу угла социальную справедливость и национальную безопасность, а не менталитет роста любой ценой, как было последние 30 лет.

Это объявление о завершении развития Китая по модели роста и начало «настоящего государственного капитализма» на основе «глубоких технологий»: облачные и квантовые вычисления, искусственный интеллект (ИИ), беспилотные авто, умные дома и города. Только за последний год китайцы основали в ряде областей «глубоких технологий»: 22 000 компаний по производству микросхем, 35 000 компаний, занимающихся облачными вычислениями, и 172 000 стартапов в области ИИ.

Социальная справедливость обновленной версии генплана заключается в стратегии государства обеспечить перераспределение богатства и власти, накопленных крупными технологическими платформами за последнее десятилетие. Политика ограничения их рыночной власти будет перераспределять часть их прибыли между более мелким бизнесом и разработчиками приложений, а также их сотрудниками. Особая ставка делается на передачу ресурсов от «слишком легко обогащающихся интернет-компаний» фирмам, которые могут добиться успеха в «менее легкомысленных технологиях».

Национальная безопасность теперь ставит во главу угла монополию государства на данные, собираемые любым бизнесом (своим или иностранным) на территории Китая. Три кита стратегии нацбезопасности: национализация данных, регулятивный авторитаризм и промышленная политика (подробней см. Pax Americana больше нет, а шансы Pax Sinica растут.

Результатом всего этого должны стать «великие изменения, невиданные за столетие», которые «образуют новый мировой экономический порядок, вращающийся вокруг Китая».

Что из всего этого получится – можно только гадать. На самом деле, никто не знает, каковы в 21 веке могут быть последствия сочетания жесткого авторитаризма с развитием инновационной рыночной экономики. Может, эта гремучая смесь обрушит экономику Китая. А может, не только не обрушит, а даст ключевое конкурентное преимущество перед США.

Детали почитайте, послушайте и посмотрите здесь: 1, 2, 3, 4, 5, 6, 7
#Китай
USA China GDP and PPP.jpg
263.5 KB
Через пару недель вступит в силу серия китайских законов, знаменующих начало нового этапа «Великой стратегии Китая по смене американского миропорядка на Земле». По замыслу Компартии Китая, этот этап должен стать переломным.
• В чем суть «великой стратегии» столетнего мирового противостояния Китая и США, и на каких трёх китах она стоит.
• За счет чего Китай планирует выиграть мировую конкуренцию и превратиться в единственную сверхдержаву к 2050 году.
• Каковы наиболее вероятные ответные действия на эту стратегию со стороны США и России.
Я попытался уложиться в ответах на эти весьма непростые вопросы в 9 мин., сказав о самом важном по возможности понятно и просто, в блиц-интервью Ютуб-программе «Время – вперёд!».
https://www.youtube.com/watch?v=6pFX52mKZUk

Информация к размышлению (см. приложенную графику)
- Как с 1961 по 2019 Китай догонял и перегонял США (факт)
- И как с 2019 по 2040 Китай планирует получить явное преимущество в этой гонке (прогноз)

#Китай
​​Байден лопух? В ЦРУ идиоты?
Возможно. Но причина сегодняшней суперновости в ином.

Сегодня, когда «Талибан» взял под контроль весь Афганистан, мир недоумевает: как мог президент Байден так лопухнуться, заявив 8-го июля: «вероятность того, что «Талибан» захватит всю страну, крайне невелика»?
Как такое могло быть сказано президентом сверхдержавы, обладающим доступом к, казалось бы, самой секретной информации от самых продвинутых аналитиков одной из самых крутых разведок мира?
Может дело в том, что Байден просто лопух? Или в ЦРУ сидят одни идиоты?
Увы, но ситуация куда хуже. И об этом уже полвека известно и в ЦРУ, и во всех других разведках мира.

Дело в том, что при оценке рисков принимаемых решений, политики (а) полагаются на прогнозы аналитиков разведки, но при этом (б) не понимают, что стоит за конкретными значениями вероятностей, указанных в этих прогнозах.

Ведь что имел в виду Байден, говоря “highly unlikely” во фразе “But the likelihood there’s going to be the Taliban overrunning everything and owning the whole country is highly unlikely.”?
И если вы думаете, что Байден имел в виду что-то типа 5%, то вы сильно ошибаетесь.

Еще полвека назад разведка НАТО задалась сакраментальным вопросом – а что это мы так часто лажаем в своих прогнозах?
Проведенное ими исследование показало.
✔️ Аналитики и офицеры разведки – тоже люди. А у людей весьма расплывчатые и путанные представления о вероятности. Из-за этого кто-то воспринимает оценку вероятности “highly unlikely”, как 5%. Другой же – как 20%, а третий – как менее 40%.
✔️ Политики и генералы – тоже люди. И у них представления о вероятности еще хуже. Поэтому, прочтя в заключении разведки оценку “highly unlikely” (написанную аналитиком, оценивающим эту вероятность менее 40%), политик запросто может интерпретировать это, как вероятность, менее 5%).

Информация для размышления
На приложенном рисунке показан разброс представлений людей о соотношении числовых и словесных оценок вероятности:
• слева – внутреннее руководство для аналитиков разведки (1);
• в середине – результаты опроса Reddit, как люди оценивают словесные оценки вероятности (2)
• справа – итоги исследования разведки НАТО (2)

Авторы исследования разведки НАТО пришли к такому выводу:
1) подобная расплывчатость и неоднозначность оценок вероятности делает решения, принимаемые связкой аналитиков разведки и политиков, непредсказуемо неточными.
2) поскольку почти все решения национального уровня принимаются такой связкой, необходимо в принципе отказаться от словесных формулировок при оценке вероятности (т.е. писать четко – напр. с вероятностью 80%)


После этого исследования прошло полвека. Думаете, что-то изменилось? Увы, нет.

Почему? Да просто ни разведчики, ни политики не хотят отвечать за базар. Ведь за вероятность в 5% многим пришлось бы отвечать. А какой спрос с “highly unlikely”? В конце концов, каждый понимает это по-своему.

N.B. Ну а если принять в расчет, что используемая уже 300 лет во всем мире модель рациональности при оценке рисков в корне ошибочна (см. «300 лет в искаженной реальности»), то спрашивать с разведки и политиков вообще не за что: ни за профуканный развал СССР, ни за сегодняшнее торжество «Талибан», ни за … Что там за сюрприз ждет нас в сентябре?
#Вероятность #ПринятиеРешений
Технологизация медитации - путь к Transhumanism Inc
Через 8 дней читатели Пелевина узнают, каким он видит путь к трансгуманизму. Но уже из названия романа понятно, что речь не просто о переносе мозга в особое “баночное” измерение, а о технологическом улучшении умственных и физических способностей людей. Остается понять – как этого можно достичь. Судя по творчеству Пелевина, один из самых перспективных путей – ретриты для медитации. И самое поразительное, что новые исследования это подтверждают.
Практические прорывы в исследованиях нейрокоррелятов мозга при медитации, допускают скорую практическую технологизацию медитации в целях когнитивного совершенствования людей и даже обретения ими сверхспособностей.

Технологии погружения человека в измененные состояния сознания уже существуют. Например, транскраниально сфокусированный ультразвук (tFUS) или включение нейронной обратной связи, поощряющей желаемое измененное восприятие реальности. Но есть проблема.
До последнего времени было непонятно, к чему стремиться, воздействуя на мозг: при каких изменениях в работе мозга появляются те или иные когнитивные и физиологические усовершенствования наших способностей.

Первые научные подтверждения реального влияния духовных процессов при медитации на физиологические характеристики тела были получены Гербертом Бенсоном еще в 80-е. Кто не в курсе, почитайте «Как научная попытка демистифицировать буддийскую медитацию дала поразительные результаты», и там же посмотрите расширенный трейлер фильма про это (1).

Исследование Бенсоном интенсивной техники «медитации внутреннего огня» подтвердило реальность следующих физиологических эффектов в ходе медитации:
• повышение температуры пальцев на 8+ градусов;
• снижение частоты дыхания до 6-7 вздохов в мин;
• снижение уровня метаболизма в состоянии покоя на 64%;
• возникновение асимметрии в активности альфа- и бета-волн между полушариями.
Эти эффекты впоследствии были дважды независимо подтверждены в 2000 и 2013.
Следовательно, дух может влиять на тело. Оставалось понять – как.

Прорыв в понимании, как это делает мозг, стал формироваться с появлением новых средств нейровизуализации: функциональной и структурной МРТ. А в течение последних пяти лет будто нарыв прорвался – исследования, обнаруживающие корреляцию активности нейронов с разнообразными физиологическими, когнитивными и поведенческими эффектами медитации, пошли косяком.

Главным выводом всех этих исследований стало понимание того, что нужно искать, и на что нужно смотреть - что именно меняется в мозге в результате разных типов медитации.

Оказалось, надо смотреть не на активность конкретных областей мозга и не на статическую «прошивку» нейронов. Надо смотреть через призму сетевой науки на динамику функциональной связанности нейронов.

В процессе медитации происходит изменение функциональной связанности двух сетей:
• сеть пассивного режима работы мозга (активная во время несфокусированного расслабленного блуждании ума)
• и дорсальная сеть внимания (активная при поддержании внимания и сосредоточенности на чем-либо).
В результате облегчаются переключения между двумя названными сетями.

Тибетские монахи называют такой процесс повышением умственной гибкости - способность, позволяющая перестраивать структуру сознания, изменяя концентрацию - один из основополагающих факторов саморазвития.

Вот примеры интереснейших научных работ про это: (2, 3, 4, 5).

Подобные работы открывают фантастические перспективы создания технологий для обретения сверхспособностей, доступных сейчас лишь тибетским монахам после многолетней практики.

P.S. Почему и как меняется динамика функциональной связанности, объясняет новая теория «Универсальный фреймворк медитации», о которой будет рассказано в продолжении моего поста (6).

Источники: 1, 2, 3, 4, 5, 6
#Медитация
«Человечество снова на перекрестке истории».
Какими будут законы «цивилизации нового типа».

Вчера DigiChina опубликовал перевод новых «Правил защиты критически важной информационной инфраструктуры Китая, вступающих в силу с 1 сентября (1). Теперь каждый может прочесть полсотни статей этого документа и попытаться выделить главное.

По мне же, главное в 2-х следующих законодательно закрепленных принципах.

1) В дополнение к монополии на кибероружие (об этом я уже писал - см. (2)) государство вводит монополию на кибербезопасность.
«Статья 31: Без одобрения национального департамента киберпространства и информатизации или департамента общественной безопасности Государственного совета или разрешения от отдела или оператора защиты ни одно лицо или организация не могут проводить мониторинг уязвимостей, тестирование на проникновение или другие подобные действия с критически важной информацией.»

2) В вопросах кибербезопасности бизнес обязан следовать в кильваторе целей военных и органов безопасности.
«Статья 38: Государство должно укреплять военно-гражданское слияние в кибербезопасности, а военные и регионы должны сотрудничать для защиты критически важной информационной инфраструктуры.»

Новый закон касается далеко не только Китая.
Как я уже писал, ключевая цель Китая, претендующего стать сверхдержавой №1 – не только технологическое и экономическое лидерство, но и создание для мира системы цивилизационных образцов для подражания. Будучи перенятыми, эти цивилизационные образцы формируют новые отношения государств, обществ и индивидов. Системность таких образцов характеризует их согласованность и, в идеале, синергию. А универсальность образцов делает их привлекательными, как для демократических (во всем диапазоне демократий), так и для авторитарных и даже тоталитарных стран (также во всем диапазоне).

Три цивилизационных образца для подражания «цивилизации нового типа» (а именно так назвал Китай Си Цзиньпин в ходе торжеств по поводу 100-летия Компартии Китая) уже известны (3):
• Национализация данных.
• Регулятивный авторитаризм.
• Промышленная политика.

Теперь к ним прибавился еще один образец:
• монополия на кибероружие и кибербезопасность.

Системность и синергия цивилизационных образцов, предъявляемых Китаем миру, - это, по сути, базовые элементы идеологии «цивилизации нового типа».

«Подлинная опасность, исходящая из Китая, вовсе не военная и не геополитическая, а скорее идеологическая. Ее продолжающийся успех представляет собой крупнейшую угрозу политическому истеблишменту Америки», - считает Ричард Ханания (научный сотрудник Института исследований войны и мира Арнольда А. Зальцмана).

Полагаю, что это угроза не только для Америки. Уж больно заманчивы новые китайские образцы для подражания и для демократов, и для автократов, и для тоталитарных диктаторов.

Полагаю, именно это имел в виду Председатель Си, говоря, что «человечество снова оказалось на перекрестке истории».
#Китай #Сверхдержавы
Источники: 1, 2, 3
2-я часть поста «Разум — это эволюционный компромисс в упорядочении хаоса» посвящена единой модели для объяснения эффектов психоделических препаратов REBUS.
В этой части будет рассказано:
• о долгой истории психоделиков - от шаманов до психонавтов;
• о модели психоделических эффектов на основе гипотезы энтропийного мозга;
• как расслабить убеждения и погрузить мозг в анархию;
• чем отличаются магическое мышление и вторичное сознание;
• что общего у вариационной свободной энергии и ландшафта убеждений;
• как «разогреть» мозг, чтобы достичь когнитивной гибкости;
• как образуется «текучесть пространства и времени»;
• что нам сулит «психоделический ренессанс».
Текст на 12 мин чтения можно прочесть:
- на Medium https://bit.ly/3gqsOQm
- на Яндекс Дзен https://clck.ru/WzWDT
#Восприятие #Медитация #Психоделики #ПринципСвободнойЭнергии #ПрогнозирующийМозг
​​Чрезмерный и необоснованный доход тех, кто ошибочно принимает свое богатство за власть, будет перераспределяться в пользу большинства населения.
Китай определился, кто следующий и что дальше: расправа с олигархами и раскулачивание Бигтеха.
Расправа над Джеком Ма, вынужденным уйти из бизнеса, чтобы заняться гольфом, рисованием и философией, - это не просто предупреждение слишком возомнившим о себе олигархам (1).
Это смена стратегии КПК
• с дэнсяопиновской формулы «сначала дайте некоторым разбогатеть»
• на сицзиньпиновскую интерпретацию стратегии Мао – «упор на перераспределение между всеми, а не на обогащение некоторых».
Слишком уж много стало, по мнению КПК, этих «некоторых» - в Китае уже на треть больше миллиардеров (более 1 тыс.), чем в США. И слишком уж они разбогатели – частный бизнес только предприятий Бигтеха уже почти 40% ВВП.

«Чтобы понять происходящее в Китае, вам нужно понять, что в Китае госкапитализм. Это значит, что государство управляет развитием капитализма в стране в интересах большинства людей. И что политики не позволят богатым капиталистам мешать им делать то, что, по их мнению, лучше для большинства людей в стране. Точнее, капиталисты и работающие на рынках капитала должны понимать свое подчиненное место в системе, иначе они пострадают от последствий своих ошибок. Например, им не нужно ошибочно принимать свое богатство за власть, позволяющую определять, как вести дела» - пишет мудрый и проницательный Рэй Далио, которого не зря прозвали «Стивом Джобсом от инвестирования» (2).

Новая стратегия Китая объявлена - «чрезмерный» и «необоснованный» доход тех, кто «ошибочно принимает свое богатство за власть», будет перераспределяться в пользу большинства населения с помощью налогов на прирост капитала, богатство, имущество и наследование.
Для тех же, кто не поддержит новую стратегию, у государства есть не только фискальные меры. Понимая это, китайские миллиардеры бьют рекорды пожертвований на «улучшение общества и сокращение бедности»: $2,2 млрд от Xiaomi, $2,3 млрд от Meituan, а Пони Ма (Tencent) на прошлой неделе удвоил первоначально объявленную им сумму пожертвования в $7,7 млрд.

Но просто пожертвований и налогов мало.
Чтобы в принципе лишить компании Бигтеха сверхдоходов от заработка на персональных данных, задумано их раскулачить. Китайские регуляторы рассматривают возможность оказания давления на компании Бигтеха, с тем чтобы они передали управление и контроль за персональными данными своих пользователей сторонним фирмам, так или иначе находящихся под контролем государства.
Т.е. либо компании Бигтеха сами отдают свои данные, либо у них возникнут непреодолимые проблемы с размещением акций за рубежом (3).

Подробней, о том «кто следующий, и что дальше», можно прочесть в руководстве «China’s ‘Big Tech crackdown’: A guide» (4), обзоре «What’s behind china’s crackdown on big tech?» (5) и сегодняшней колонке Стефана Бартоломеуза «Billionaire crackdown: China’s risky new pathway to Mao’s ‘common prosperity’» (6).

P.S. Бартоломеуз прав – Китай выбрал крайне рисковый путь к всеобщему процветанию. Но кто не рискует, тот не выигрывает.

Источники: 1, 2, 3, 4, 5, 6
#Китай #РазгромБигтеха
Интеллектуальная слепота лечится.
Бассейн аттракторов заблуждений можно осушить.

Если человечеству суждено погибнуть, то причиной тому будет не вирус, война или изменение климата. Все это – лишь следствия главной причины самых страшных человеческих бед (как прошлых, так и будущих). Эта причина - упёртость людей в их заблуждениях. Именно она, а не сверхжестокость Homo, лежит в основе расколов и войн, притеснений и резни, ненависти и социальных, религиозных и прочих конфликтов.
Упёртость заблуждений - эдакая железобетонная твердость ошибочных суждений и представлений, - не позволяет нам изменять их, не смотря на любые рациональные аргументы и факты реальности. В результате человек как бы интеллектуально слепнет, о чем я подробно писал в лонгриде «Интеллектуальная слепота»).

Со времен Цицерона люди различают обычные и упертые заблуждения. Считается, что «каждый человек может заблуждаться, но упорствовать в заблуждении может лишь глупец». Увы, но и это тоже заблуждение. Ибо, как писал И. Кант – «Заблуждение - незаметное влияние чувственности на рассудок». А поскольку чувственность свойственна всем, её влияние на рассудок неизбежно для каждого.

Но даже если такое влияние неизбежно, уменьшить упёртость заблуждений возможно. Т.е. интеллектуальная слепота лечится. Таков прорывной вывод нового исследования по вычислительной психиатрии. Среди авторов Карл Фристон, и неудивительно, что исследование основано на активном выводе - той же теоретической базе, что и исследование о влиянии психоделиков, о котором я недавно писал.

Целью новой работы было решение принципиальной загадки.
Если мозг аппроксимирует байесовский вывод, подбирая оптимальные веса для предыдущих ожиданий (априоров) и новых сенсорных данных, как тогда он может кардинально ошибаться, да еще и упорствовать в предсказаниях?
Иными словами.
Если мозг - «оптимальная машина предсказаний», что в ней ломается, когда эта «машина» генерирует ошибочные убеждения и держится потом за них наперекор любым свидетельствам противного?

Новое исследование отвечает на этот вопрос.
1) У мозга не одна, а две модели: для мира (что «снаружи») и для себя (что мы чувствуем и делаем). Наши действия включают: движения (меняющее наше окружение) и ментальные / скрытые действия (например, переключение внимания или выбор одной гипотезы из альтернатив).
2) При таких двух моделях у агентов появляются аттракторы состояний, формирующих умственные привычки (тенденции повторять действия, которые были выбраны ранее).
3) Заблуждения - это результат умственных привычек. Т.к. выводы о мире могут быть обусловлены (т. е. зависеть от выбранных агентом действий), привычки приводят к уверенным выводам, нечувствительным к сенсорным данным (подобно тому, как формируются сами привычки).
4) Механизм описанного явления проявляется в том, что даже умеренные изменения некоторых параметров внутренней генеративной модели – снижение уверенности в сенсорном вводе и повышение уверенности в состояниях, подразумеваемых ее собственными (особенно привычными) действиями, – могут приводить к заблуждениям. А включение в модель аффектов (помните цитату Канта выше?) значительно усиливает заблуждения, особенно в социальной сфере.
5) Ключевые выводы работы такие:
a. никакое изменение одного параметра модели не является необходимым и достаточным для образования заблуждений;
b. заблуждения возникают из-за условных зависимостей, которые создают "бассейны аттракторов", как бы запирающих байесовские убеждения в ловушку (энергетическую яму);
c. как показало моделирование, уменьшить глубину «бассейна аттракторов» (и даже его «осушить») можно фармакологическим путем – с помощью нейролептиков – за счет снижения уверенности модели в своих действиях.


Т.е. заблуждения, в принципе, можно лечить так же, как бред и галлюцинации – с помощью нейролептиков.

Что из этого следует и в чем проблема, - в окончании этого поста:
- на Medium https://bit.ly/3zjKyEr
- на Яндекс Дзен https://clck.ru/X5ZvC
#Заблуждения #АктивныйВывод #ВычислительнаяПсихиатрия
​​Призрак бродит по планете, призрак трансгуманизма.
Манифест Джека Кларка на Stanford HAI.

Два весьма знаменательных события этой недели – (1) в литературе и (2) в разработке ИИ, - удивительным образом сошлись в своем базовом тезисе.
Первое событие – роман Виктора Пелевина TRANSHUMANISM INC., опубликованный вчера в России.
Второе – «Манифест» Джека Кларка «Big models: What has happened, where are we going, and who gets to build them», с которым он выступил 23-го августа в Стэнфордском институте человеко-ориентированного ИИ (HAI).

Базовый тезис обоих текстов один и тот же:
мейнстримный тренд развития ИИ, ведет к тому, что невиданные в истории человечества материальные и нематериальные блага
• получат лишь самые богатые бизнесмены, высокие правительственные чиновники и ведущие разработчики ИИ,
• а подавляющему большинству людей эти сверхценные блага просто не достанутся.


В романе Пелевина:
«В будущем богатые люди смогут отделить свой мозг от старящегося тела - и станут жить почти вечно в особом “баночном” измерении. Туда уйдут вожди, мировые олигархи и архитекторы миропорядка. Там будет возможно все. Но в банку пустят не каждого. На земле останется зеленая посткарбоновая цивилизация, уменьшенная до размеров обслуживающего персонала, и слуг-биороботов».

Мало знакомым с положением дел в разработке ИИ такой прогноз кажется антиутопической пугалкой. Они полагаются на коммодизацию ИИ-приложений, что, по их мнению, приведет со временем к радикальному удешевлению приложений и сделает их доступными для большинства (типа современных бесплатных приложений для перевода, генерации текстов и всевозможных игр с фотографиями себя и других). Вот типичный пример такого рассуждения (4).

В отличие от таких критиков, Джек Кларк, 100%-но согласен с Пелевиным, что никакая коммодизация не спасет.
При этом Кларк – один из самых осведомленных экспертов по ИИ в мире, известностью в кругах ИИ разработчиков не уступающий Пелевину в современном российской литбомонде (погуглите, если кто не знает).

Логика «манифеста» Кларка, представленного им на Stanford HAI, не сложнее логики «Манифеста Коммунистической партии» Маркса и Энгельса.

Зачем большому бизнесу делиться сверхприбылью? Ведь до сих пор монополисты БигТеха этого не делали, лишь увеличивая свою капитализацию на десятки и сотни ярдов в год (см. 3).

Что же предлагает Кларк?
Вот логика его предложения.
А) Дальнейшее развитие ИИ решающим образом зависит от совершенствования «Больших моделей» (так Кларк именует базовые модели, которые учат на масштабируемых «больших данных», и они могут быть адаптированы для широкого круга задач нижестоящего уровня – напр. BERT, GPT-3, CLIP).
Б) Доводка и обучение Больших моделей – весьма дорогое дело. И потому это делается сейчас лишь китами БигТеха. Они забирают себе академические разработки таких моделей и совершенствуют их уже без «академиков».
В) «Академики» далее оказываются вне игры. А киты БигТеха, хоть со скрипом, но все же вынуждены делиться достижениями Больших моделей с правительством.
Г) Если все оставить как есть, основными выгодопреобретателями развития ИИ останутся киты БигТеха и высокие чиновники. А большинство людей будут лишь хлебать негативные последствия внедрения все более мощных приложений (типа тотального контроля и т.п.)
Д) Изменить положение вещей может лишь одно - Большие модели должны обучаться и совершенствоваться не БигТехом, а в академической среде (и Кларк пишет, как к этому идти)

Скорее всего, на «манифест» Кларка киты БигТеха отреагируют так же, как на роман Пелевина – не заметят или свысока покуражатся (как было с фильмом «Социальная дилемма»).

Что ж. Над манифестом компартии тоже куражились. Но для 1/7 части мира вышло только хуже. Сейчас же речь о всем мире.
Ссылки:
1 (видео)
2 (слайды)
3 (скорость обогащения)
4 (критика тезиса)
#ИИ
Мы живем в сбывшемся пророчестве Стругацких.
И это не Мир Полудня.

Ко «Дню Стругацких» (28 августа родился старший из братьев – Аркадий Стругацкий) Александр Генис написал блестящее мини-эссе, в котором, как всегда изысканно, сформулировал смысловой концентрат двух главных тем многих произведений Стругацких:
• возвращение смысла марксистской утопии через миф о труде — «беззаветном и бескорыстном субботнике, превращающем будни в рай, обывателя — в коммунара, полуживотное — в полубога;
• грядущее разделение человечества на два вида из-за появления «Люденов» — нового вида Homo sapiens, «у которого не осталось ничего общего не только с нами, но и с жителями светлого будущего».
Но у Стругацких была еще и третья главная тема, на мой взгляд, наиболее актуальная для человечества в 2020-х.
К чему стремиться людям, если социализм, коммунизм и капитализм больше не способны стать ориентиром в 21 веке? (вопрос, поставленный Стругацкими на полвека раньше Харари).
Размышляя на эту тему в своих последних самых сложных и потому далеко не всеми понятых романах, братья Стругацкие совершили визионерский прорыв через десятилетия посредством двуединого пророчества:
- о грядущем «эксперименте» поворота советского общества на довольно страшный путь к непонятным целям (роман «Град обреченный»);
- и о том, что этот путь через 40 лет приведет к тому же, хотя и несколько демократизированному совку (роман «Отягощённые злом, или Сорок лет спустя»).

Об этом материализовавшемся пророчества, в мире которого мы сейчас живем, мой пост (еще на 5 мин чтения).
- на Medium https://bit.ly/3mOro66
- на Яндекс Дзен https://clck.ru/XAoCP
#Стругацкие
​​Гибель или взлет, что он нам несет – поворот к базисным моделям.
Это революция в обучении машин, последствия которой пока непредставимы.

Для подавляющего числа читателей, термин «базисные модели (foundation models - адаптируемые к приложениям модели машинного обучения, которые обучаются независимым от задач способом на необработанных данных) неизвестен. А ведь это самый важный технологический термин ближайших десятилетий.

Обучение машин на базисных моделях имеет две принципиальные особенности, позволяющие говорить о смене парадигмы машинного обучения и о революционном прорыве в развитии ИИ технологий:
1) Переход количества в качество обучения при колоссальном масштабировании моделей.
2) Эмерджентность (возникновение у системы свойств, отсутствующих у ее элементов) умений прикладных систем, полученных путем машинного обучения на «базисных моделях».

Поэтому не будет преувеличением сказать, что переход на базисные модели обучения машин повлечет:
• гигантские практические последствия для многих областей деятельности людей, несопоставимые даже с революциями пара, электричества и атома.
• сопутствующие этому риски столь же титанические, как в части социальных последствий, так и в плане создания непреодолимых препятствий для дальнейших научно-технологических разработок.

Только представьте.
- Поисковик Google (созданный на базисной модели BERT) для 4 млрд землян осуществляет 6 млрд поисковых запросов в день.
- Система обработки естественного языка GPT-3 от OpenAI, используемая десятками тысяч разработчиков более чем 300 приложений, генерирует 4,5 млрд слов в лень, что позволит ей к концу следующего года произвести больше текстов, чем было накоплено человечеством за всю докомпьютерную эпоху.

И это лишь только начало. Переход на базисные модели через 10-20 лет может привести не только к технологиям уровня возможностей человеческого интеллекта (AGI), но и вообще к слабо представимым последствиям, типа материализации «призрака трансгуманизма», о котором я писал недавно в посте про «Манифест Кларка» .
Ведь базисные модели - это те модели из «Манифеста Кларка», что он назвал для массового читателя более привычным для них термином «Большие модели».
Это новое поколение моделей, что может открыть для людей невиданные ранее материальные и нематериальные блага, которые:
✔️ получат лишь самые богатые бизнесмены, высокие правительственные чиновники и ведущие разработчики ИИ,
✔️ а подавляющему большинству людей эти сверхценные блага просто не достанутся.


Помимо обострения неравенства и централизации власти, распространение приложений на основе базисных моделей, способно провоцировать
✔️ появление на Земле новых классов предубеждений, деформирующих коллективный интеллект человечества;
✔️ полной отказ от понятия «истина».


Наконец, мы даже не можем представить к каким новым классам катастроф могут вести такие приложения в стратегических инфраструктурах.

Подробней о перспективах и рисках базисных моделей читайте отчет CRFM - Стэнфордского центра человеко-ориентированного ИИ (HAI) по изучению базисных моделей (именно здесь выступал со своим «манифестом» Джек Кларк).
Под отчетом, соавтор которого содиректор HAI и бывший руководитель Google Cloud AI Фэй Фэй Ли, более 60 подписей.
Авторы пишут:

• нужно торопиться уводить базисные модели из под полного контроля китов БигТеха, движимых лишь бизнес-мотивацией;
• необходимо срочное создание инфраструктуры для общественных проектов ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.

Подробней https://arxiv.org/abs/2108.07258 (213 стр.)
#БазисныеМодели #ИИ
​​Китайская техноантиутопия крепчает.
Китай ставит заслон засилью не только олигархов, но и алгоритмов.

Со временем 2021 год будут называть «годом великого перелома» столетней стратегии Китая по смене американского миропорядка на Земле. По заявлениям Председателя Си, техноутопия с китайской спецификой на основе «глубоких технологий» позволит Китаю построить «цивилизацию нового типа» (см. 1, 2, 3, 4).
«Великий перелом» уже включает в себя:
1) Разгром Бигтеха и раскулачивание олигархов (5). Как пишет FT, их миссия теперь предельно ясна - раздать свои миллиарды под чутким руководством КПК (6).
2) Принятие законов (они сегодня вступили в силу), по сути, запускающих национализацию данных и укрепление регулятивного авторитаризма, подкрепляемого промышленной политикой (1).
Однако мудрость и дальновидность КПК простираются и в цифровое будущее мира. А там все большую власть будут забирать себе алгоритмы.
Поэтому КПК наносит упреждающий удар по формирующемуся всевластию алгоритмов.
В современном мире деньги и власть становятся производными от цифровой суперсилы, от которой зависит сколько внимания людей ты можешь привлечь и насколько эффективно ты можешь влиять на поведение тех, чье внимание ты привлек.
Главный инструмент этой суперсилы – рекомендательные алгоритмы. Они позволяют прогнозировать предпочтения людей и делать на этой основе рекомендации, влияющие на все аспекты поведения (что люди будут читать, смотреть и покупать, к чему они будут стремиться и за кого проголосуют …)
Проект «дорожной карты» ограничения власти алгоритмов (8) подразумевает возможность частично или даже полностью вырубить такие алгоритмы. Также ставятся вне закона всякие модные трюки, типа распространение информации фейковыми экаунтами и злоупотребление использованием персональных данных для «втягивания» людей в ненужные покупки, участие в промоакциях, ну и, вероятно, в ненужные политические акции.

Все это делается, чтобы поставить заслон перед алгоритмами, которые поощряют 1) зависимость или высокое потребление, 2) ставят под угрозу национальную безопасность или общественный порядок.
Полагаю, что главным мотиватором КПК здесь является не 1-е из названного, а 2-е.
Так что КПК не намерено делиться властью и влиянием ни с кем: ни с олигархами, ни с алгоритмами.
Источники:
1
2
3
4
5
6
7
8
#Китай #РазгромБигтеха
Риск того - не знаю чего, сделать то – не знаю что.
Главный риск ИИ в непонимании людей, в чем он, и где он может стать критичным.

Не пропустите на выходных 1-й в мире материал, ставящий обсуждение важнейшей для человечества темы с головы на ноги. Я давно собирался про это написать, но в итоге, написал Хари Джонсон. И это даже лучше, поскольку риски ИИ - это его профильная тема.

Великий королевский астроном, мульти-академик, рыцарь-бакалавр и член Палаты лордов Мартин Рис предположил, что мы – единственная высокоразвитая цивилизация во Вселенной, т.к. все другие уже самоистребились. И то же самое ждет земную цивилизацию (и все цивилизации будущего). Ибо при достижении высокого технологического уровня, цивилизация подходит к порогу, после которого она не в состоянии справиться с экзистенциальными рисками, опережающими прогресс.

Скорее всего, главным источником таких рисков является ИИ. Люди уже догадались об этом и пытаются что-то предпринять. Разные государства идут разными путями.
• Китай решил поджать бизнес и университеты под КПК и тем самым сосредоточить контроль за развитием самых рисковых технологий в руках «самой мудрой и дальновидной силы».
• Забюрократизированная Европа решила идти по законодательному пути, пытаясь оградить развитие в области ИИ законодательными заборами и экономическими веригами для бизнеса (чтоб не сильно разбегался, куда не надо).
• США мечутся, пытаясь пройти между Сциллой и Харибдой двух названных подходов. Для 1-го у них нет своей КПК. Для 2-го – пока нет критической массы бюрократов (но это вовсю исправляется).
• Про Россию думайте сами, решайте сами. Но похоже, возможны оба варианта сразу.

Ну а теперь о главном - о чем написал Хари Джонсон.
Вот сухой остаток.
1. Чума на оба вышеназванных пути (взятие под госконтроль и регулирование).
Оба пути наденут смирительные рубашки на инновации, после чего вперед уйдут страны, не надевшие на себя такую спецодежду. Столкнувшись с этим, надевшие смирительные рубашки государства, их снимут. После чего мир дружно ускорит бег к обрыву пропасти имени Мартина Риса.
2. Невозможно запретить или даже просто ограничить ни цели использования ИИ, ни области его применения, ни перечень решаемых им задач. Чтобы долго не объяснять, возьмите пример с электричеством. И попробуйте подумать, как можно законодательно обложить его использование там, где это ведет к критическим рискам. Быстро поймете – никак.
3. Что такое критический риск, в контексте ИИ, совершенно не понятно. Ибо это зависит от того, на что ИИ будет способен:
- если он способен лишь переводить тексты, рисовать котиков и быть умной колонкой – то и говорить не о чем;
- а когда, например, «наш ИИ» планирования боевых операций превзойдет «их ИИ», - колоссальный риск появится, но предотвратить его можно, лишь не дав «своему ИИ» превзойти «их ИИ» (что исключено);
- ну и совсем плохая ситуация: представьте в метафоре электричества, что самым большим потенциальным риском его применения считается удар током (так вот с ИИ мы ровно в такой ситуации);
4. Разработчики новых ИИ на основе базисных моделей (киты БигТеха), провайдеры приложений / сервисов на их базе и «внедренцы» не смогут договориться. Они уже начали активно переваливать ответственность друг на друга. И ситуацию в целом по решению проблемы ответственности (кто виноват, когда случится плохое) будет куда труднее разрулить, чем, например, в локальной области самоуправляемых авто (где эта проблема пока не имеет универсального решения).
5. В силу перечисленного, видна лишь одна альтернатива:
- не придавливать госвластью разработчиков;
- не городить заборы законов и навешивать вериги на бизнес;
- а радикально решить вопрос всего одним решением на уровне ООН - срочное создание международной инфраструктуры общественных проектов базисных моделей ИИ, подобных космическому телескопу Хаббла и Большому адронному коллайдеру.

СкАжите, - кто про что, а вшивый про баню? И будете правы, - я опять о том же.
Ибо эта «баня» крайне важна для выживания наших внуков.
#ИИ
Возможно, базисные модели машинного обучения превзойдут по своей отдаче для человечества пар, электричество и атом вместе взятые.
Возможно, они даже позволят людям такое, что нам сегодня трудно представить (например, обретение новых чувств – типа, музыковидения или эйфорияпередачи).
Но что они, скорее всего, не позволят – так создать сильный или универсальный ИИ (AGI), т.е. искусственный аналог человеческого, осознающего себя, сложного абстрактного разума с нетривиальной внутренней мотивацией и всеми присущими человеческому сознанию проявлениями.

О причинах, препятствующих этому, писали многие от Дрейфуса до Фьелланда. Однако, справедливости ради, надо признать, что все они анализировали возможности создания AGI лишь в рамках современной мейнстримной парадигмы («компьютерной метафоры мозга»):
• мозг – это биологический механизм, обладающий специфическими способностями разума и сознания;
• нужно на основе машинного обучения построить искусственный механизм с аналогичными способностями;
• как он будет устроен (конкретная архитектура и алгоритмы), и каким образом он будет обеспечивать аналогичные способности (подобно людям или иначе) – неважно (типа, самолет не машет крыльями, но летает).

✔️ Вот только, что если эта парадигма в корне ошибочна?
✔️ И что если, сменив парадигму, путь к AGI откроется?


Об этом мой новый пост (11 мин чтения):
- на Medium https://bit.ly/3jMfuYs
- на Яндекс Дзен https://clck.ru/XK3QU
#Мозг #Сознание #Трансдукция
​​Результаты голосования и вакцинации зависят от «обезьян» и «упертых».
Учет сложного взаимодействия когнитивных и социальных факторов при принятии коллективных решений.

Три прорывных открытия могут сильно повысить шансы человечества на благополучное прохождение новых кризисов в результате прилетов очередных «черных лебедей». Все они касаются способов принятия важных коллективных решений.

1-е открытие раскрывает секрет возникновения многих черных лебедей.
Они появляются в результате массового поведения людей в предкритических глобальных ситуациях: от обвалов финансовых рынков и экономических кризисов до схлопывания политических режимов (типа «Арабской весны») и инфо-вирусных пандемий (типа COVID-19).
Ключевых факторов того, взлетит ли новый черный лебедь или все как-то утрясется без катастроф, два:
1) насколько близко подошла система к критической (переломной) точке - фазовому переходу;
2) в какую сторону: к критической точке или от нее подталкивает систему коллективное поведение (как следствие коллективных решений).
Подробней см. (1)

2-е и 3-е открытия раскрывают секрет механизма принятия коллективных решений в предкризисных ситуациях.
Ведь в большинстве из них коллективное поведение общества играет не меньшую роль, чем стратегия, избираемая властью. А эта стратегия, в значительной степени, также зависит от предпочтений большинства в обществе (COVID-19 тому яркий пример).

2-е открытие в том, что наличие «упертых несогласных» в обществе кардинально повышает качество коллективных решений.
Упертые несогласные – это люди, имеющих собственное мнение, не вписывающееся в агрегированный итог иерархического сбора мнений, и не готовые от него отказаться даже под угрозой притеснений или даже репрессий.
Похоже, это новый закон природы - чем больше упертых несогласных, тем выше качество коллективных решений общества.
Подробней см. (2)

3-е открытие определяет критический порог «обезьян» в обществе, после которого катастрофически падает качество коллективных решений.
Исследование, опубликованное неделю назад в PNAS (3), уточняет и дополняет 2 предыдущих.
Подобно двум архетипам людей по их видению мира (ежи, которые смотрят на мир через призму одной определяющей идеи, и лисы, которые опираются на широкий спектр опыта и для которых мир не может быть сведён к одной идее), существуют два архетипа по принятию коллективных решений: кошки и обезьяны.
Люди – кошки предпочитают во всех вариантах выбора разбираться самим и принимать решение, опираясь на собственное понимание вопроса.
Тогда как люди – обезьяны не исследуют достоинства имеющихся вариантов самостоятельно, а принимают мнения и поведение других людей в качестве основы собственных решений.
Авторы исследования построили 1-ю в мире многопараметрическую модель, учитывающую сложное взаимодействие когнитивных и социальных факторов при принятии коллективных решений. Цель была – численно определить, где прячутся причины катастрофических коллективных решений.

Ответ найден.
В любом классе коллективных решений (от голосования на выборах до решения о вакцинации) существует критический порог доли числа «обезьян» в обществе, после которого возникает бистабильное состояние, позволяющее обществу отдать предпочтение худшему варианту. Если же критический порог не достигнут, общество тяготеет к лучшему из вариантов.

Дополнительный вывод исследования касается важной роли влияния «упертых несогласных» на «обезьян».
Рост их доли в обществе и степень их упертости может быть решающим фактором влияния на решения, принимаемые «обезьянами»

Этот вывод, подтверждаемый примерами многих революций, заставляет вспомнить мой пост 2011 года «Суперкомпьютер рассчитал, при каких условиях сменится власть в России» (кто не читал, погуглите).

ИТОГО: нужно снижать долю обезьян и повышать долю упертых.

Источники: 1, 2, 3,

#ПринятиеРешений