FSCP
18.1K subscribers
30.2K photos
3.46K videos
859 files
77.2K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Я НАЧАЛЬНИК, ТЫ – AI

В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.

И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».

В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
   --  истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.

Суть этого «неприятия» в следующем.

Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.

Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.

   Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать». 


В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.

Например, вот такая ситуация:

(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,

(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;

(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.

В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.

В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».

Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.

Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.

Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.

Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.

- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.

Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.

Так за кем должно оставаться финальное решение???

N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.

Такова важность решения вопроса о «неприятии алгоритма».

Статья ссылается на это исследование.
Но есть и более новое.

#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
ЦРУ создает кентавров для предсказания будущего.

Эта тема — одна из моих любимых. И уже не первый месяц, как я собираюсь начать о ней писать.

Хотя не совсем так. Кое-что я уже про это писал. И даже не раз. Но не системно, а как-то по касательной. Как бы подступаясь к этой многогранной истории с разных сторон:
— писал об интеллектуальных кентаврах — симбиозе интеллекта человека и компьютера, — альтернативе мейнстриму ИИ технологий, плодящему «бездумные машины»;
— о том, как устроен интеллект человека, и в чем его принципиальное отличие от интеллекта компьютера;
— о возможности предсказания будущего;
— о роли случайности.

Наверное, наиболее проницательные из моих читателей уже поняли, куда я клоню.
К тому, что всё вышеперечисленное — грани одной комплексной темы: взаимосвязи интеллекта (человеческого, машинного, кентаврического) и предсказаний будущего. Но как они связаны — интеллект и предсказания?
Полагаю, хватить дробить эту тему. Пора попытаться нарисовать общую картину.

Но такой рассказ в один или даже пару постов не втиснуть. Слишком много здесь захватывающих, крайне малоизвестных и интригующих поворотов. Хочу попробовать редкий для е-каналов жанр — постосериал, еженедельно публикуя продолжение одной большой истории.
Ну а начну с прояснения заголовка. Как в этой теме сплелись кентавры и предсказания будущего, объясню чуть позже. А начну с интриги, — при здесь ЦРУ, да еще и на ключевой позиции.

Тегов у этого постосериала будет много:
#ИнтеллектКентавра #AI #ИИ #IA #AIA #Краудсорсинг #РынкиПредсказаний #АльтернативныйИИ #Прогнозирование #Будущее #ПринятиеРешений #Случайность #Память #КогнитивныеСистемы #Нейронаука #IARPA

Мда… И обо всем этом я собираюсь написать в одном постосериале? … Ну хотя бы попробую 😊
Вот 1й пост 1го сезона нового постосериала. https://goo.gl/2AemSJ
Предсказания становятся приоритетом.
3й пост постосериала «ЦРУ создает кентавров для предсказания будущего».

Новый этап исследований и разработок по предсказанию будущих событий для обеспечения национальной безопасности США возглавила разведка. Он продолжался до прошлого 2017 года и отличался от 1го этапа двумя принципиальными моментами:
1) Законодательный запрет на игру на деньги в области предсказаний, заставил сместить фокус исследований с рынков предсказаний на поиск супер-предсказателей и ряд других методов повышения эффективности предсказаний «коллективного интеллекта».
2) Объемы финансирования и, соответственно, число и разнообразие проектов качественно выросло после оглашения в 2004 результатов работы комиссии по теракту 9/11. Разведсообщество было поставлено перед фактом – делайте, что хотите, но такого повториться не должно.
Этот этап исследований можно условно назвать «Поиск максимума человеческих возможностей в предсказаниях». Об этом и будет рассказ.

Продолжить чтение в Instant View на Medium
https://goo.gl/4Y1Kp1

Предыдущие посты постосериала:
№1 https://goo.gl/2AemSJ
№2 https://goo.gl/9J2321

#ИнтеллектКентавра #AI #ИИ #IA #AIA #Краудсорсинг #РынкиПредсказаний #АльтернативныйИИ #Прогнозирование #Будущее #ПринятиеРешений #Случайность #Память #КогнитивныеСистемы #Нейронаука #IARPA
Не знаю, как читать, но писать о том, о чем в мире очень мало кто знает, - весьма увлекательно. Хочется писать и писать. Но даже лонгрид не резиновый.
Ну а как кратко описать, о чем этот лонгрид – вообще загадка.
Попробую последовать с детства любимому Жюлю-Верну.

Краткое содержание лонгрида про «топор под компасом американской разведки» и про то, кто кого сборет - краудсорсинг против рынков предсказаний:

Бомба замедленного действия. — Таинственная смерть на Эвересте. — Триумф и крах Intrade. — Упреждающая разведка. — ЦРУ спешит на помощь. — Результативность прогнозов растет. — Но точность хромает. — Два сокрушительных удара. — Черные лебеди не ловятся. — Требуются кентавры.

Мой новый пост https://goo.gl/ggcXCo

#ИнтеллектКентавра #AI #ИИ #IA #AIA #Краудсорсинг #РынкиПредсказаний #АльтернативныйИИ #Прогнозирование #Будущее #ПринятиеРешений #Случайность #Память #КогнитивныеСистемы #Нейронаука #IARPA