Малоизвестное интересное
62.9K subscribers
78 photos
1 video
11 files
1.75K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
1е открытие 2019 – возможности ИИ оказались небеспредельными.
Подобно человеческому разуму, ИИ ограничен парадоксами теории множеств.

До сих пор считалось, что самой фундаментальной проблемой развитии технологий ИИ является необъяснимость принимаемых им решений. В январе 2019 к этой проблеме добавилась еще одна, не менее фундаментальная проблема — принципиальная непредсказуемость, какие задачи ИИ может решить, а какие нет.
На пути триумфального развития технологий машинного обучения, как казалось, способных при наличии большого объема данных превзойти людей в чем угодно — в играх, распознавании, предсказаниях и т.д. — встала первая из 23 проблем, поставленных в докладе Давида Гильберта на международном математическом конгрессе в Париже еще в 1900-м году.
Первой в списке этих 23 проблем, решение которых до сих пор считается высшим достижением для математика, была так называемая гипотеза континуума (континуум-гипотеза или 1я проблема Гильберта), которую выдвинул и пытался решить (но потерпел неудачу) еще сам создатель теории множеств Георг Кантор.
И вот сейчас, на исходе второго десятилетия XXI века гипотеза континуума, будучи примененная к задачам машинного обучения, стала холодным отрезвляющим душем для всех технооптимистов ИИ.
• Машинное обучение оказалось не всесильно
• И что еще хуже, — в широком спектре сценариев обучаемость ИИ не может быть ни доказана, ни опровергнута.
Продолжить чтение можно
- на Medium https://clck.ru/F3wny
- на Яндекс Дзен https://goo.gl/mFqasZ
#ИИ #МашинноеОбучение
Давно собирался написать об этом. И как это часто бывает, когда слишком долго собираешься что-то сделать, - это сделают другие. Так вышло и в этот раз. Но я не тужу. Сделано хорошо.
Мелани Митчелл (профессор компьютерных наук в Государственном университете Портленда) – не только глубоко разбирается в теме, но и очень ясно мыслит и весьма понятно излагает. И поэтому читать ее тексты интересно, понятно и полезно.
Новая книга Мелани Митчелл «Искусственный интеллект: руководство для думающих людей», выйдет только в октябре. Но уже сейчас можно прочесть важный текст из этой книги, озаглавленный «Как научить самоуправляемый автомобиль, чтобы снеговик не перешел ему дорогу?».
Эта статья, как и вся книга, весьма рекомендуются мною к прочтению тем, на кого они рассчитаны – думающим людям.
Ну а я здесь поразмышляю вокруг главной идеи статьи и книги -
что же стало главным итогом развития ИИ за без малого шесть с половиной десятилетий?

• мой новый пост (7 мин) на Medium http://bit.do/eUrCP
• мой новый пост на Яндекс Дзен https://clck.ru/GThrx
#ИИ #МашинноеОбучение
ML-стартапы, - либо делайте комплексные решения либо расходитесь.
Обращение венчурного инвестора и топового ИИ-эксперта к ML-стартапам.
Уже 2 года, как лучшим отчетом о состоянии ИИ в мире является «State of AI» Натана Бенайха и Яна Хогарта. И если вы его читаете, то обладаете «всей самой актуальной и нужной информацией о состоянии ИИ».
А теперь прочтите манифест Натана Бенайха «Machine learning: go full stack or go home» (Машинное обучение: станьте комплексными или расходитесь) – обращение к стартапам, работающим в области машинного обучения (ML).

Ключевая мысль обращения такая.
1. (Преамбула 1) ML – самое хайповое направление для современных стартапов.
2. (Преамбула 2) Будущее ML во многом зависит именно от них (ибо даже если когда-то они станут новыми DeepMind и их купит Google, инновационный вектор их разработок складывается сейчас).
3. (Это и есть, собственно мысль) Подавляющее число ML-стартапов имеет устаревшую и малоперспективную бизнес-модель.
- Они делают ML-инструментарий, чтобы продавать его, как сервис (Software as a Service).
- А куда перспективней для них и нужнее рынку модель разработки комплексных решений, сквозным образом решающих конкретную задачу бизнеса (Solution as a Service).
Только работая по модели Solution as a Service в области ML,
• ML –стартапы могут создавать значительную новую ценность для его пользователей
• и обретают возможность не сколько просаживать миллионы на НИРоподобных полуисследовательских разработках, сколько созидать новый реальный бизнес, вмонтировав в свой сервис новую ценность для пользователей.

Рекомендации Натана Бенайха конкретны и детальны. И потому нет смысла их пересказывать. Прочтите сами.

Мне же остается лишь добавить, что Кай-Фу Ли и прочие Чингачгуки китайского ИИ это поняли одними из первых. Но при этом они никого не увещевают и, вообще не говорят про это. А просто делают. На то они и китайцы.

Но большинство стартапов за пределами Китая (и у нас тоже) предпочитают идти устаревшим путем времен SaaS-бума. И потому так ценен манифест Натана Бенайха. И будь моя воля, я бы расписал им стены не только стартапов, но и инвест-фондов, так пока и не понявших, где зарыта основная Value успешных ML–стартапов.

Манифест - https://sifted.eu/articles/machine-learning-full-stack/
Отчет «State of AI» Натана Бенайха и Яна Хогарта за 2019 - https://t.me/theworldisnoteasy/816

#МашинноеОбучение #Стартапы
В знаменитом рассказе Джейкобса «Обезьянья лапа», мумифицированная лапа обезьяны, на которую наложено заклятье, выполняла любые желания, но с чудовищными последствиями для пожелавших. Для людей подобные последствия были просто невообразимы из-за их чудовищной бесчеловечностии, немыслимой для человека.
Но у прОклятой старым факиром обезьяньей лапы была иная — нечеловеческая структура предпочтений. И потому, выполняя желания людей, она вовсе не со зла, а просто автоматом, преподносила людям страшные сюрпризы, выходящие за пределы воображения имевших несчастье обратиться к ней с просьбой.

Страшный рассказ оказался пророческим. В XXI веке обезьянья лапа материализовалась в виде некоторых прорывных IT технологий. Подарочек столь желанных нам соцсетей мы уже от неё получили. На очереди не менее желанный людям Сильный ИИ.

Что же будет, если с Сильным ИИ повторится история обезьяньей лапы, буквально на наших глазах произошедшая с соцсетями?
Скорее всего, цена новой ошибки может оказаться для человечества неподъемной.

Почему так? И как этого избежать?
Читайте об этом в новом посте (7 мин. чтения):
- на Medium http://bit.do/fdEMf
- На Яндекс Дзен https://clck.ru/JbAxN

#СильныйИИ #AGI #МашинноеОбучение #IRL
А существует ли справедливость?
Мы можем заставить ИИ не быть расистом, но будет ли это справедливо?

В последнюю пару лет на пути расширения использования ИИ на основе машинного обучения образовывался все более фундаментальный завал – неконтролируемая предвзятость. Она проявлялась во всевозможных формах дискриминации со стороны алгоритмов чернокожих, женщин, малообеспеченных, пожилых и т.д. буквально во всем: от процента кредита до решений о досрочном освобождении из заключения.
Проблема стала настолько серьезной, что на нее навалились всем миром: IT-гиганты и стартапы, военные и разведка, университеты и хакатоны …

И вот, похоже, принципиальное решение найдено. Им стал «Алгоритм Селдона» (детали см. здесь: популярно, научно). Он назван так в честь персонажа легендарного романа «Основание» Айзека Азимова математика Гэри Селдона. Ситуация в романе здорово напоминает нашу сегодняшнюю. Галактическая империя разваливалась, отчасти потому, что выполнение Трех законов робототехники требует гарантий, что ни один человек не пострадает в результате действий роботов. Это парализует любые действия роботов и заводит ситуацию в тупик. Селдон же предложил, как исправить это, обратившись к вероятностным рассуждениям о безопасности.

Разработчики «Алгоритма Селдона» (из США и Бразилии) пошли тем же путем. В результате получился фреймворк для разработки алгоритмов машинного обучения, облегчающий пользователям алгоритма указывать ограничения безопасности и избегания дискриминации (это можно условно назвать справедливостью).

Идея 1й версии «Алгоритма Селдона» была предложена еще 2 года назад. Но нужно было проверить на практике, как она работает. 1е тестирование было на задаче прогнозирования средних баллов в наборе данных из 43 000 учащихся в Бразилии. Все предыдущие алгоритмы машинного обучения дискриминировали женщин. 2е тестирование касалось задачи улучшения алгоритма управления контроллера инсулиновой помпы, чтобы он из-за предвзятостей не увеличивал частоту гипогликемии. Оба теста показали, что «Алгоритм Селдона» позволяет минимизировать предвзятость.

Казалось бы, ура (!?). Не совсем.
Засада может ждать впереди (опять же, как и предсказано Азимовым). Проблема в понимании людьми справедливости. Алгоритмы же так и так ни черта не понимают. И потому решать, что справедливо, а что нет, «Алгоритма Селдона» предлагает людям. Фреймворк позволяет использовать альтернативные определения справедливости. Люди сами должны выбрать, что им подходит, а «Алгоритм Селдона» потом проследит, чтобы выбранная «справедливость» не была нарушена. Однако даже среди экспертов существуют порядка 30 различных определений справедливости. И если даже эксперты не могут договориться о том, что справедливо, было бы странно перекладывать бремя решений на менее опытных пользователей.

В результате может получиться следующее:
• Пользователь рассудит, что справедливо, и задаст правила справедливости алгоритму.
• «Алгоритм Селдона» отследит выполнение правил.
• Но, по-честному, люди так и не будут уверены, справедливо ли они рассудили или нет.

#МашинноеОбучение #Справедливость #ПредвзятостьИИ
​​Тайна «темной материи», которую мы едим.
Эйнштейн 21 века задумал революцию в диетах.

Изречение «ты есть то, что ты ешь» сегодня, в эпоху современной медицины, еще более верно, чем 200 лет назад, когда это было сказано впервые.
Более того, современная наука расширила эту мысль до:
- «скажи мне, что ты ешь, и я скажу, кто ты», теперь относя смысл фразы не только к физической форме, но и к интеллектуальным способностям;
- «скажи мне, что ела твоя мать, когда вынашивала, а потом кормила тебя, и я скажу тебе ...».
Короче, еда для нас – это всё.
Но в том-то и жуткий сюрприз, что
при всех успехах диетологии и, в целом, медицинских наук, мы, оказывается, ни черта не знаем о том, как еда влияет на наше здоровье и интеллект.

Вот пример.

О безглютеновой диете известно более 100 лет, когда появилось понятие «целиакия» — аллергия на клейковину - дерматит, диарея, замедление роста. Сегодняшняя безглютеновая диета заменяет пшеницу, рожь, ячмень и овес мукой и крупой из кукурузы, риса, гречки и сои. Но скрытый глютен диетологи теперь находят в соусах, сосисках, сыре, чае…
Почему?
Да потому, что полный количественный состав биохимических веществ продуктов питания неизвестен!

Национальные стандарты, отслеживающие, как пища влияет на здоровье, основываются примерно на 150 пищевых компонентах.
А их, на самом деле, в пище более 26 тыс.
Многие из них имеют документально подтвержденные последствия для здоровья, но остаются неквантифицированными каким-либо систематическим образом для конкретных продуктов питания. Это и есть «темная материя» еды:
- составляющая минимум 2/3 того, что мы съедаем;
- и обладающая неквантифицированным, а то и, вообще, неизвестным влиянием на наше здоровье и интеллект.

Например, чеснок.
Масса людей знает про себя, что от чеснока им худо. Но почему, - никакой врач точно сказать не готов.
А вот почему.
1) Даже в самых продвинутых базах данных содержатся количественные сведения лишь о 67 питательных компонентах сырого чеснока (марганец, витамин В6, селен ...).
Однако, зубчик чеснока содержит 2300+ различных химических компонентов - от аллицина, соединения серы, отвечающего за отчетливый аромат, до лютеолина, флавона, обладающего защитным действием при сердечно-сосудистых заболеваниях.
2) Влияние каждого из элементов «темной материи» еды на индивидуальный организм уникально. Эта уникальность определяется уникальностью ДНК. Но связать квантифицированные данные о точном составе «темной материи» с индивидуальным кодом ДНК никто пока не брался.

И вот сенсация.
Альберт-Ласло Барабаши (которого я не без оснований назвал Эйнштейном 21 века) планирует в течение 10 лет произвести переворот в питании человечества.
Путем машинного обучения на Больших Данных, описывающих (1) полный биохимический состав высокого разрешения всех продуктов питания и (2) генетические коды конкретных людей, он собирается:
1) расшифровать «тайную материю» продуктов питания – произвести систематическое картирование полного биохимического состава пищи;
2) разработать полный биохимический спектр «дорожных карт» индивидуальных диет, чтобы питание могло конкурировать с генетикой по точности, охвату и влиянию.

Результатом станет индивидуальный питательно-химический «штрих-код» для каждого человека, определяющий оптимальный спектр индивидуально показанных пищевых продуктов (пример «штрих-кода» показан на рисунке в заглавии поста).

И будет людям здоровье и счастье. А лекарства – только в случаях, когда «штрих-код» засбоит, и нужно будет это подправить.
Да, еще кое-что. Это здорово улучшит ожидаемую продолжительность жизни. Как будто люди перестанут заправлять бензобаки своих авто загрязненным и разбавленным ослиной мочой низкосортным бензином АИ-80 и перейдут на лучшие сорта топлива высокой очистки, да еще и оптимизированное под тип двигателя.

Подробней – The unmapped chemical complexity of our diet

#МашинноеОбучение #БольшиеДанные #Диета #Геном
Вот и дождались сбычи устрашающего прогноза Харари, что алгоритмы машинного обучения будут знать о нас больше, чем родная мама. Осталось понять - что же такое узнал о нас новый алгоритм?
Короткий ответ – он узнал и наглядно показал непреодолимую глубину нашего несовершенства. Люди взглянули на себя в зеркало ИИ и поразились, насколько же они предвзяты. А также осознали (хотя лишь немногие), сколь высокую цену заплатил Homo sapiens эволюции за дарованные ею нам интеллектуальные способности.
Цена оказалась крайне высока. Мы заплатили тем, что в наше сознание автоматически загружается «библиотека стандартных программ общечеловеческих предрассудков». Эта загрузка осуществляется путем прошивки генно-культурной памяти людей. И отказаться от ее загрузки в наше сознание нельзя. Равно как и повлиять на содержимое этой «библиотеки», обобщающей в себе опыт эволюционного приспособления к жизни десятков миллиардов живших до нас на Земле Homo.

Одной из важнейших «стандартных программ» в этой библиотеке является программа определения, насколько внушает доверие чужой человек (для своих работает другая стандартная программа). И хотя физиогномика и френология, по современным научным представлениям, абсолютно несостоятельны (в действительности, психические свойства человека не определяются ни чертами его лица, ни строением черепа), вмонтированная в нас «стандартная программа оценки надежности» чужих людей построена на тех же принципах, что и эти 2 лженауки.
Результат этого – набор непреодолимых предвзятостей наших суждений на основе подсознательной оценки внешности людей. Эти предвзятости питают социальные фобии: от расизма до многообразных негативных оценок чужих людей (напр. людей с особенностями).

Новое исследование Николя Бомара (Nicolas Baumard не старший в группе исследователей, но главный закоперщик) поставило две оригинальные задачи:
1) Путем машинного обучения, научить алгоритм как можно более точному воспроизведению человеческих предвзятостей при оценке надежности чужих людей по их внешности.
2) Путем применения полученного алгоритма к огромной исторической базе портретов, попытаться оценить, менялось ли во времени (и если да, то как и почему) восприятие надежности лиц чужих людей.


Итогом публикации результатов исследования в Nature стал колоссальный скандал. Из-за обрушившейся на редакцию лавины критики, им пришлось сделать приписку, что «читатели предупреждены о том, что эта статья подвергается активной критике». И действительно, социальные сети просто взорвались негодованием. А учетная запись Николя Бомара, заварившего эту кашу в Twitter, оказалась стёртой.

Продолжить чтение (еще на 7 мин):
- на Medium http://bit.do/fJ2Q9
- на Яндекс Дзен https://clck.ru/RDQHW
#эволюционнаяпсихология #машинноеобучение
​​Решение этических проблем ИИ только одно -
меньше использовать ИИ

Иначе:
1) Антиэволюция предубеждений Homo sapiens превратит нас в социальных идиотов.
Расовые, гендерных и прочие социальные предубеждения ИИ-алгоритмов соцсетей - это мощнейший катализатор усиления наших и без того немалых предубеждений.
2) Глубокие фейки станут главным медийным инструментом политиков.
Они уже их используют и весьма успешно, разрушая моральные барьеры и размывая границы реальности.
3) Новые изощренные формы извращений войдут в обычную практику привлечения медиа аудитории
Например, даже Пелевин не додумался до такого извращения, как «техномантия» - техновоскрешение умерших для повышения внимания аудитории. А медиакомпании этим уже пользуются.

На 100% разделяю предложение Джека Кларка (Jack Clark, OpenAI Strategy and Communications Director) о целесообразности уменьшения использования ИИ. Пока не придуманы способы борьбы с конкретными рисками применения ИИ, его применение в областях, где эти риски значимы, следует ограничить.

Вот 3 примера, приводимые Кларком в новом выпуске его великолепного канала IMPORT AI

1) Twitter принял решение меньше использовать машинное обучение и предоставить пользователям больше контроля над тем, как выглядят их фото в сети.
Причина в том, что внедренные в 2018 нейронки для интеллектуальной автоматической обрезки изображений облажались.
И теперь компания принимает честное и умное решение:
«Хотя наш анализ на сегодняшний день не выявил расовых или гендерных предубеждений, мы понимаем, что то, как мы автоматически кадрируем фотографии, означает, что существует потенциальный вред. Мы должны были лучше предвидеть эту возможность, когда мы впервые проектировали и создавали этот продукт».

2) Кандидат в Палату представителей США Фил Эр, баллотирующийся во Флориде, построил свою предвыборную рекламу так. Синтезированный технологией глубоких фейков Мэтт Гаец «говорит»: Q-anon - отстой, Барак Обама крут, и что он голосует за Джо Байдена. Затем Фил Эр предупреждает зрителей, что они только что видели пример «глубокой фальшивой технологии». И добавляет убойный аргумент: «Если наша кампания сможет снять подобное видео, представьте, что сейчас делает Путин?»

3) Чтобы повлиять на выбор избирателей на грядущих в ноябре выборах, группа компаний Change the Ref использовала технологию глубоких фейков для воскрешения Хоакина Оливера, застреленного в 2018 при стрельбе в школе Паркленда. Вот как выглядит эта «техномантия»: «Его родители использовали ИИ, чтобы вернуть Хоакина, дабы он рассказал людям, как голосование может предотвратить подобные трагедии в других семьях».
И вот убитый парень экспрессивно агитирует проголосовать за него самого, за тех, кого еще не убили, и за правильного кандидата в президенты США.
Вот как живенько он при этом выглядит.
#Deepfakes #РискиИИ #ПредвзятостьИИ #МашинноеОбучение
Лет через тридцать в Википедии будут писать о 2020-ом годе не только в связи с началом пандемии COVID-19. Ведь даже страшнейшая пандемия Испанки не затмила в истории 1918 года окончание Первой мировой и развертывание Гражданской войны в России, революцию в Германии, уничтожившую Германскую империю, и еще около дюжины событий, так или иначе повлиявших на судьбы миллионов людей и имевших последствия в течение десятилетий.

Но пока 2020 не отдалился на ощутимую историческую дистанцию, анализ его важнейших событий субъективен, близорук и отягощен когнитивными искажениями. Сегодняшние западные аналитики, среди важнейших мировых событий прошедшего года, помимо COVID-19, называют, например, смену Трампа Байденом, массовые волнения в США и «самоутверждение Китая» на пути к мировому лидерству. А российские - следом за пандемией, ставят «обнуление» (в комплекте с изменением конституции) и отравление Навального. Все это, конечно же, очень важно.

Но сохранится ли такая оценка 2020–го года лет через 30?

Точного ответа на этот вопрос не знает никто. Но лично мне видится, что в большинстве современных оценок упускается нечто совсем неочевидное, но крайне важное. Важное в том смысле, что повлияет на будущее человечества куда больше, чем смена Трампа на Байдена или «обнуление».

Дело в том, что политическое и социальное устройство общества, мировоззрение, благосостояние, физическое и духовное здоровье, да и повседневная жизнь людей в XXI веке, более всего определяются уже не политикой, религией, идеологией или классовой борьбой, а развитием технологий. И в первую очередь, - информационных, ибо именно они кардинально меняет жизнь новых поколений, уже не знающих, что такое дефицит еды и тепла.

А среди информационных технологий есть, несомненно, лидирующая группа, условно называемая искусственный интеллект (ИИ). Именно ИИ, если воспользоваться метафорическим образом гонок на собаках из любимых мною повестей Джека Лондона, является коренником упряжки современных информационных технологий. Как ни важны действия других «собак» в упряжке (технологии больших данных, облачные вычисления, мобильные технологии и т.д.), но коренник ИИ решающим образом влияет на направление и маневры всей упряжки, в наибольшей мере влияя на результат гонки.

И если посмотреть на 2020 из будущего с точки зрения мировой гонки «технологических упряжек», то вполне возможно,

2020 окажется в истории «годом великого техно-перелома», давшего отсчет новой технологической эпохе, когда на смену техно-оптимизму приходит прагматизация ИИ.

Продолжить чтение (еще 15 мин.)
- на Medium http://bit.do/fMuRP
- на Яндекс Дзен https://clck.ru/SmPGv
#ИИ #AGI #Будущее #МашинноеОбучение
Алгоритмическое растление путем анестезии совести.
Алгокогнитивная культура способствует деградации морали

Новая статья в Nature, озаглавленная «Плохие машины портят добрую мораль» не упоминает термина алгокогнитивная культура (в германском институте им. Макса Планка этот термин еще не совсем прижился)), но рассказывает именно о её последствиях для отдельных людей и всего общества.

Авторы рассказывают, что «агенты ИИ» влияют на поведение людей способами, которые одновременно похожи и не похожи на то, как люди влияют друг на друга.
N.B. Авторы, следуя терминологическому мейнстриму, называют агентами ИИ «машины, работающие на основе ИИ». Но речь идет вовсе не о каких-то сверх-умных агентах, а о банальных анонимных алгоритмах машинного обучения поисковых, рекомендательных, социальных и профессиональных платформ и сервисов.

Одним из таких чисто алгоритмических влияний является растление общества, вследствие уникальной разлагающей сила алгоритмов. И поскольку об этом факторе влияния алгокогнитивной культуры я еще не писал, весьма рекомендую интересующимся вопросом прочесть работу Нильса Кёбиса, Жан-Франсуа Боннефона и Ияда Рахван (вход за пейвол по этой ссылке).

Авторы рассматривают четыре основные социальные роли, с помощью которых люди и алгоритмы могут влиять на этическое поведение:
• образец для подражания (role model) - решая, нарушать ли этические правила или придерживаться их, люди часто задумываются, как бы поступили на их месте их ролевые модели;
• советник (advisor) - люди могут оказывать более прямое развращающее влияние, чем ролевые модели, когда сами дают советы действовать неэтично, особенно, когда такие советы исходят от авторитетных фигур;
• активный партнер (active partner) – не менее чем неэтичными советниками, люди могут развращать друг друга, становясь партнерами в нарушении моральных норм;
• аутсорсер (delegate) – те, кому люди могут делегировать - передавать на выполнение неэтичные действия, как бы на аутсорсинг.

Ключевой вывод исследования таков.

✔️ Когда алгоритмы становятся инфлюенсерами (образцами для подражания или советниками), их развращающая сила не может превышать развращающую силу людей (но это лишь пока и, увы, довольно скоро пройдет).
✔️ Когда же алгоритмы выступают в роли потакателей (enablers) неэтичного поведения (будучи активным партнером или аутсорсером), они обладают уникальным потенциально особо опасным свойством.
Это свойство наиболее адекватно описывается термином «растление». Ибо оно позволяет людям получать выгоды от своих неэтичных действий и при этом чувствовать себя хорошо, не испытывая угрызений совести.


Примеров такой «анестезии совести» уже не счесть.
• студент, в партнерстве с GPT-3, замастыривающий фейковое эссе;
• ретейлер, передающий на аутсорсинг алгоритму процесс онлайн-прайсинга, приводящего к алгоритмическому сговору;
• кадровик, в партнерстве с алгоритмом оценки кандидата, отсеивающий «лицо кавказской национальности»;
• банковский клерк, передающий на аутсорсинг отказы в кредитовании многодетных семей;
• полицейский, юрист, врач, преподаватель, психоаналитик и т.д. и т.п.

Кроме того, мы даже не представляем себе потенциальные масштабы коррупции, которую могут индуцировать алгоритмы, в сравнении с коррупцией, вызванной действиями людей. Здесь вообще нет пока что каких-либо идей. Но есть подозрение, что алгоритмы могут любой вопрос «перетереть» и «порешать», совсем не отягощаясь моральными нормами.

Нужны эксперименты… Много экспериментов, прежде чем не только отдавать принятие решений алгоритмам, но и просто брать алгоритмы на роли партнеров и аутсорсеров.
И конечно же нужно обучать алгоритмы машинного обучения желательным поведенческим паттернам, а не слепо выбирать самые большие наборы данных, доступные для обучения.

Ну а в идеале, нужно разрабатывать иные методы машинного обучения для областей автоматизации неоднозначных решений, советов и результатов делегируемых действий (об этом, хорошо было бы написать отдельный пост).
#Мораль #АлгокогнитивнаяКультура #МашинноеОбучение #ИИ
​​Прорыв в ИИ может произойти уже до конца этого года.
Начинается всемирный поиск новых ИИ-моделей, в котором вы можете участвовать.

Речь идет об объявленном AIcrowd Facebook AI крауд-конкурсе проектирования и обучения альтернативных ИИ-агентов, работающих иначе, чем современный мейнстрим машинного обучения с подкреплением.

Недавно DeepMind объявил, что обучение с подкреплением — метод, когда ИИ-агент ничего не знает об окружающей среде, но может самообучаться, взаимодействуя с ней, - может позволить прорыв к ИИ человеческого уровня (AGI). Этот метод, действительно, весьма перспективен. Но он требует значительного объема вычислений и мощного компьютерного оборудования. А это, к сожалению, не очень подходит за пределами демонстрационных игр, когда цель – не удивить общественность, а решение практических задач в реальном мире.

Facebook решил попробовать обойти эту проблему, организовав всемирный поиск новых ИИ-моделей, позволяющих ИИ-агентам ориентироваться в сложных средах при низких вычислительных затратах.

В качестве супер-теста была выбрана NetHack — старая, но до сих пор одна из самых сложных игр. В ней игроки должны спуститься на 50+ уровней подземелья, чтобы найти магический амулет. Шансов выиграть в эту игру мало даже у ИИ-агентов, разгромивших людей в StarCraft II, Dota 2 и Minecraft. Ведь в этой игре игроки просто мрут, как мухи. А после каждой смерти подземелье полностью перестраивается, тем самым сводя почти что к нулю набранный опыт.

Единственный способ выиграть в таких адских условиях — каким-то образом суметь совместить нестандартное мышление, исследовательские навыки и удачу. Такой ИИ-агент должен уметь совмещать оптимальное применение уже имеющихся знаний со способностью исследовать совершенно неизученные области (т.е. сочетать exploitation & exploration).

Идея исследователей из Facebook проста. Авторитеты машинного обучения так пока и не преуспели в создании ИИ-агентов, способных учиться с малыми вычислительными затратами. Поэтому вместо того, чтобы самим пытаться поймать «золотую рыбку» прорывной ИИ-модели, Facebook решил провести открытый конкурс, пригласив участвовать всех желающих и предоставив каждому участнику высокотехнологическую «удочку». Ею будет специально разработанная учебная среда с открытым кодом - NetHack Learning Environment (NLE). Это масштабируемая, процедурно генерируемая, стохастическая, весьма сложная среда для исследования обучения с подкреплением в ходе игры ИИ-агента в NetHack.

Работая в среде NLE, участники смогут тратить больше времени на тестирование новых перспективных идей, а не на ожидание результатов длительных вычислений. Перед ними поставлена задача спроектировать и обучить своего агента каким угодно существующим или изобретенным способом - с машинным обучением или без него, с использованием любой внешней информации, любого метода обучения с любым вычислительным бюджетом.

Единственное требование – создать ИИ-агента, который может быть оценен жюри конкурса. О его результатах будут судить по тому, как часто этот агент выживает и поднимается из подземелья с Амулетом.

Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference). Суть такого процесса в:
• статистической генерации предсказаний (бессознательных выводов об окружающем мире и самом себе на основе внутренней модели);
• проверке этих выводов на основе сенсорных данных;
• и постоянной минимизации ошибок предсказания.

Активный вывод и прогностическое кодирование, объединенные фундаментальным принципом свободной энергии Карла Фристона я называю «конституция биоматематики». Это, по сути, - высший закон, определяющий основной принцип жизни и разума (подробней см. мой пост).

А теперь о самом важном и интересном.
Дочитать (еще всего на 1 мин):
- на Medium https://bit.ly/3j9Qaf8
- на ЯДзен https://clck.ru/VgSju
#ИИ #МашинноеОбучение #ПринципСвободнойЭнергии #Фристон #АктивныйВывод
​​Обнаружен непреодолимый риск использования ИИ в медицине.
Обладающий недоступным для людей знанием ИИ потенциально опасен.

Посмотрите на рисунок с примерами различных медицинский изображений.
Сможете по ним определить расовую принадлежность пациента?
Увы, но даже самый опытный рентгенолог на Земле не в состоянии это сделать. А ИИ делает это запросто.
Из этого, казалось бы, не страшного факта (ведь никто не заморачивается от того, что ИИ, например, лучше людей играет в шахматы) можно прийти к выводу о серьезной опасности использования ИИ в задачах медицинской визуализации.
Логика здесь такова.

1) Распознавание медицинских изображений при принятии диагностических и лечебных решений – это одна из самых массовых и перспективных областей прикладного использования систем машинного обучения (далее ИИ).

2) Попытки использования ИИ для принятия решений в широком спектре применений, основанных на суждениях о людях (напр., социальные, кадровые, финансовые, полицейские системы оценки людей), столкнулись с серьезной проблемой расовой предвзятости ИИ, обусловленной данными, на которых эти ИИ учили.

3) В контексте 1 и 2, новое авторитетное совместное исследование 15 медицинских центров США, Канады, Австралии и Тайваня вызывает шок и потрясение.
Его выводы таковы:

– ИИ запросто учится распознавать расовую принадлежность пациентов практически по любым медицинским изображениям, и это прямой путь для воспроизведения или усугубления расовой дискриминации в медицинской практике;

– эксперты - люди не понимают, как ИИ это делают, ибо просто физически не видят на изображениях каких-либо маркеров национальной принадлежности; из чего следует, что человеческий надзор за такими ИИ для распознавания и смягчения данной проблемы имеет (мягко говоря) ограниченное применение, а по сути – человеческий надзор здесь невозможен;

– это создает огромный риск для развертываний практически всех (!) моделей ИИ в области медицинской визуализации: если ИИ «тайно» полагался на свою способность определять расовую принадлежность для принятия медицинских решений, но при этом некорректно (предвзято) провел классификацию (например, чернокожих пациентов), клинические рентгенологи (которые, как правило, не имеют доступа к расовой демографической информации) не смогут это увидеть и исправить.

Результаты данного исследования в общем контексте прикладного использования ИИ для принятия решений звучат почти как приговор:

Любой ИИ, обладающий недоступным для людей знанием, потенциально чрезвычайно опасен и потому не должен использоваться при принятии ответственных решений.

Но ведь именно в таких, недоступных нам знаниях и заключается наивысшая ценность ИИ. В противном случае, ИИ превратится просто в «интеллектуальный экскаватор», облегчающий людям процесс «интеллектуального копания» в проблемах при принятии решений.
И по этой причине, обнаруженным риском, скорее всего, пренебрегут, забив на непредсказуемые последствия.

https://arxiv.org/abs/2107.10356
#ИИ #МашинноеОбучение #ГлобальныеРиски
​​Фиаско ИИ против COVID-19.
За 1,5 года созданы сотни ИИ-инструментов. Ни один не помог.

Согласно победным реляциям в медиа:
- «ИИ на треть сокращает время для диагностики COVID-19 на КТ-снимках»,
- «ИИ успешно прогнозирует риск ухудшения состояния заболевших COVID в приемных отделениях стационаров»,
- «ИИ научился диагностировать коронавирус по кашлю» и т.д.

Согласно научным отчетам и статьям об исследованиях, опубликованных в рецензируемых изданиях:
✔️ ИИ-инструменты практически не оказали никакого влияния в борьбе COVID-19 – отчет The Alan Turing Institute (1)
✔️ Ни один из сотен ИИ-инструментов прогнозирования COVID-19 не пригоден для клинического использования - ревю в British Medical Journal (2)
✔️ Ни одна из ИИ-моделей для обнаружения и прогнозирования COVID-19 с помощью рентгенограмм грудной клетки и компьютерной томографии не подходит для клинического использования из-за методологических недостатков и / или лежащих в основе систематических ошибок - ревю в Nature Machine Intelligence (3).
✔️ Эта пандемия стала большим испытанием для медицинского ИИ, и он не прошел это испытание. Вместо этого, пандемия привлекла внимание к сущностным проблемам медицинского ИИ, на которые мы уже не первый год закрываем глаза - MIT TechnologyReview (4)

Что пошло не так

1. Низкое качество данных (вкл. «наборы данных Франкенштейна» - когда данные из нескольких источников могут содержать дубликаты и тестирование ведется на тех же данных, на которых ИИ-инструмент был обучен)
Например:
А) Данные сканирования грудной клетки детей, у которых не было ковида, в качестве примеров того, как выглядят случаи не-ковида.
Однако, в результате ИИ научился определять не ковид, а детей.
Б) Данные сканирования включали пациентов в лежачем положении (с большей вероятностью эти пациенты были серьезно больны).
В результате ИИ научился неправильно предсказывать серьезность риска коронавируса, исходя из положения человека (а если пациент стоял, то серьезность поражение лёгких ИИ просто игнорировал).
В. ИИ научился ориентироваться на шрифт текста, используемый разными больницами для маркировки сканированных изображений.
В результате шрифты из больниц с более серьезной нагрузкой стали предикторами риска заражения коронавирусом.

2. Предвзятость инкорпорации (предвзятость вследствие маркировки данных)
Например:
Медицинские снимки помечаются в соответствии с тем, как их идентифицировал рентгенолог.
Результат этого включает любые предубеждения конкретных врачей, выдавая это в наборе данных за истину (надо было бы маркировать медицинское сканирование результатом теста ПЦР, а не мнением одного врача, но кто ж это делает).

3. У исследователей нет никаких стимулов делиться информацией (данными и моделями) – примеры см. в источниках.

4. Почти все ИИ-инструменты разрабатываются либо исследователями ИИ, которым не хватает медицинских знаний для выявления недостатков в данных, либо медиками, которым не хватает математических навыков, чтобы компенсировать эти недостатки – примеры см. в источниках.

Общий итог
Фиаско ИИ против COVID-19 лишь усугубило уже понятую главную проблему медицинского ИИ – используемые ИИ-инструменты должны объяснять логику, лежащую в основе их решений (5).
И это, увы, приближает новую «зиму ИИ».

Источники:
1, 2, 3, 4, 5
Фото В. Новикова. Пресс-служба Мэра и Правительства Москвы

#ИИ #МашинноеОбучение #Медицина
Инструменты с лицензией на убийство.
Что общего у медицинского ИИ с автономным оружием.

Мои посты о неудачах медицинского ИИ вызвали два типа реакций (в духе стакан наполовину пуст или полон).
— Стакан наполовину пуст:
«В начале пандемии казалось, что пробил звездный час искусственного интеллекта в медицине. Но внезапно выясняется, что все не так просто, и пока еще человек, которого сначала долго учили медицине, а потом он еще много лет практиковался в своем деле, все еще лучше ИИ, которого обучил за пару месяцев непонятно кто на первых попавшихся данных».
— Стакан наполовину полон:
«Машинное обучение ещё не созрело для использования непрофессионалами, а хорошие специалисты по машинному обучению просто пока не работают над задачами про COVID».
И то, и другое верно.
Но такая трактовка вопроса о рисках медицинского ИИ - лишь вершина айсберга, закрывающего собой главную проблему: отсутствие консенсуса в ответах на следующие два вопроса.
✔️ Медицинский ИИ – это лишь инструмент врача или он может сам принимать важные решения?
✔️ Можно ли принимать важные решения, не обладая пониманием, а лишь из анализа статистики?

Сравним два кейса: медицинский ИИ и автономное оружие.
Дочитать (еще 3 мин.)
- на Medium https://bit.ly/3xsmqNY
- на Яндекс Дзен https://clck.ru/WeAnN
#ИИ #МашинноеОбучение #Медицина
Создана энергетическая модель понимания ИИ сложных сцен.
Это еще не человек, но уже и не совсем машина, ибо кое-что понимает.

Современный ИИ водит авто лучше большинства людей. Но при этом не понимает ничего из того что видит. ИИ-автопилот способен аккуратно обогнать грузовик, но не в состоянии по вашей команде «ехать за грузовиком с красной кабиной». Причина в том, что ИИ-автопилот научили ориентироваться среди объектов, встречающихся на дорогах, но он не понимает композитной структуры окружающего мира: их взаиморасположение, взаимосвязь и т.д. Из-за этого он не понимает, что это грузовик, у него есть кабина, она имеет цвет и может быть красной.

Есть два способа проверить понимание ИИ композитной структуры окружающего мира:
• Visual Relation Understanding: предлагать ИИ описать на естественном языке, что он видит;
• Language Guided Scene Generation: предлагать ему сгенерировать изображение сцен по их описанию на естественном языке.

Например, «понимающая» окружающий мир умная колонка со встроенной камерой может, на ваш вопрос «как расставлена мебель в комнате», ответить что-то типа: слева у окна письменный стол, а перед ним стул, справа книжный шкаф, а за ним этажерка, на окне бежевые шторы, а на подоконнике цветок в горшке.
Или, например, она способна сгенерировать верную 3D картинку по вашему описанию: на дворе трава, а на траве дрова.
Умеющему сделать такое ИИ будет еще далеко до человеческого понимания мироустройства. Но и сказать, что он совсем не понимает, как устроен окружающий его мир, уже будет не справедливо.

Новый весьма оригинальный способ обучения ИИ пониманию сложных композитных сцен из многих предметов и их взаимоотношений описан в только что опубликованной работе Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) MIT. Способ основан на «энергетической модели»: описание реляционной сцены отношений объектов, как произведение отдельных распределений вероятностей отношений между ними, причем каждое отдельное отношение определяется на изображении своим распределением вероятностей. Такая композиция позволяет моделировать взаимодействия между несколькими отношениями (популярно, научно).

Новый способ скоро позволит ИИ строить сцены по описаниям типа «на златом крыльце сидели: царь, царевич, король, королевич, сапожник, портной». И совсем не за горами понимание ИИ фраз типа «графиня изменившимся лицом бежит пруду».

Вместе с тем, даже столь обещающие перспективы «энергетической модели» не позволяют надеяться на понимание ИИ фраз типа «на меня наставлен сумрак ночи тысячью биноклей на оси». Ибо здесь, как с аффордансами, - проблема не в неисчислимости вариантов объектов и их отношений, а в неопределенности этих отношений (см. здесь). Это значит, что пока Борис Пастернак не создал этих отношений между объектами: «сумрак ночи», «тысяча биноклей» да еще и «на оси» в контексте «ощущения неотвратимости трагедии», - они просто не существуют в нашем мире.

И даже если они существуют в каком-то из иных миров Метаверса, люди уровня Бориса Пастернака умеют их оттуда извлекать, а алгоритмы ИИ – нет (т.к. преодолеть неопределенность с помощью вычислений нельзя).
#ИИ #МашинноеОбучение
Ловушка ЕГЭ для обучения машин еще опасней, чем для людей.
Тед Чан о невозможности создать AGI, пренебрегая законами Гудхарта и Кэмпбелла.
Сегодня в 19:10 по Москве, возможно, лучший фантаст современности Тед Чан расскажет на семинаре ICLR 2022 («От клеток к социумам: коллективное обучение в разных масштабах») о своем видении перспектив цифрового образования для искусственных форм жизни. А этот мой пост – одновременно тизер и резюме предстоящего выступления Теда Чана.

Не удивляйтесь, что 1м из приглашенных спикеров престижного семинара с участием звезд междисциплинарной науки Дэвида Волперта, Михаила (ныне Майкла) Левина и Джессики Флак (все трое – многократные герои моих постов), будет писатель-фантаст. Это вполне заслуженно. Ибо доклад Чана будет развитием идей ставшей знаменитой на весь мир новеллы «Жизненный цикл программных объектов», признаваемой многими ИИ-миждисциплинарщиками мира самым глубоким и проникновенным описанием принципиальной сложности создания человекоподобного ИИ (AGI).

Продолжить чтение (еще 3 мин):
- на Medium https://bit.ly/37MjKEs
- на Яндекс Дзен https://clck.ru/ggnEA
#AGI #КоллективноеОбучение #МашинноеОбучение #ТедЧан
​​Четверо дышат в затылок Си, а 5й – может стать китайским Горбачевым.
Первый в истории ИИ-прогноз смены расклада сил во власти.

По влиянию на будущее планеты Китай еще не 1й, но уже и не 2й. А каким будет это влияние, решится в конце года на 20-м съезде КПК.
Сейчас эксперты и разведки мира ломают голову, прогнозируя новый расклад сил.
1) С №1 все ясно – им останется Си.
2) Но от того, кто войдет в Политбюро (25 чел) и его Постоянный комитет (7), будет зависеть очень многое (Си крайне редко самостоятельно принимает решения).
3) Кроме того, как показывает история, один из №№2-5 сменит Си (и кто знает, как скоро).


Прогнозов нового расклада сил много. Но все они противоречивы и малоубедительны. Ибо ни один экспертно-аналитический центр не в силах учесть мириады фактов, сложнейших сетевых взаимосвязей кандидатов и динамики социо-политического контекста, не говоря уж о схватках бульдогов под ковром.

Первая в истории попытка учесть всё это предпринята в Центре международных исследований им. С. Раджаратнама Наньянского университета в Сингапуре. Впервые подобный прогноз сделан на основе анализа Больших данных с помощью машинного обучения.

Оригинальная ансамблевая модель синтезирует результаты 6и алгоритмов машинного обучения в единую многоуровневую модель, максимизируя общую точность прогнозирования. Модель учитывает 250+ факторов биографии, карьеры, контекста продвижений, сетевые взаимосвязи, фракционную конкуренции и др. Учитывается все особые механизмы отбора: правило «семь вверх, восемь вниз» (кандидаты в возрасте 68 лет и старше должны уйти в отставку с должностей национального уровня), разнообразные квоты (1 женщина, 2 слота военным) и множество хитросплетений персональных отношений.


Модель обучали на результатах предыдущих пленумов ЦК КПК. После обучения точность предсказаний составила 72% (что сильно лучше экспертных прогнозов).

Модель предсказывает много чего интересного:
1) Получены проранжированные по вероятности списки членов нового Политбюро и его Постоянного комитета.
2) Известны №№2-5: те, - кто с большой вероятностью, сменит Си:
- Ли Си (1956, член ПБ ЦК КПК 19 созыва)
- Ли Цян (1959, глава Шанхайского горкома КПК с 2017 года, кандидат в члены ЦК 18 созыва, скакнул в ПБ из кандидатов в кандидатов в ЦК)
- Чэнь Миньэр (1960, член ПБ ЦК КПК 19 созыва)
- Цай Ци (1955, глава Пекинского горкома КПК с 2017, до переезда в Пекин был активным микроблогером с более чем 10ю млн подписчиков, он стал членом ПБ минуя членство в ЦК, и подобного не было с 1992)
.

Особые шансы у Ху Чуньхуа (1963) – приглядитесь к этой фотографии (2): этот человек может стать китайским Горбачевым со всеми вытекающими последствиями.
Ху - самый молодой член 18го и 19го Политбюро. Он из китайского комсомола. После завершения службы в Коммунистическом союзе молодежи он работал во многих бедных провинциях, включая Тибет, Хэбэй и Внутреннюю Монголию (а опыт работы в слаборазвитых регионах считается особо важным для карьерного роста чиновника).

Подробней читайте здесь (1).

#Китай #МашинноеОбучение #Прогнозирование
1 2
​​ИИ натаскали выявлять коррупцию на госзакупках.
Это оказалось просто, но … очевидно и бесперспективно.

Результаты первого в истории применения машинного обучения для построения модели выявления коррупционных контрактов при госзакупках принесли 2 новости.
1) ИИ запросто и с высокой точностью выявляет потенциально коррупционные контракты.
Модель, обученная на данных о госконтрактах Мексики за 2013-2020 (1,5+ млн контрактов, из которых 33+ тыс коррупционных по решению суда), научилась с 91%-ной точностью выявлять коррупционные контракты.
2) По заключению ИИ, коррупция на госзакупках – вовсе не результат хитрых схем и умного мошенничества, а банальный сговор находящихся в особо доверительных отношениях чиновников и бизнесменов (доминируют всего 3 из 19 потенциально коррупционных факторов).

Обобщая 1 и 2, можно сказать так.
Извести госкоррупцию не очень сложно, - было бы желание властей. Ну а если этого не происходит, - все вопросы опять же к властям, и никакой ИИ тут не поможет.

Люди давно это поняли. Но что к тому же выводу с первой попытки придет и ИИ, - удивительно.

Для справки. Коррупция на госзакупках – неиссякаемый источник обогащения в 2/3 стран мира. Согласно «Индексу восприятия коррупции», Россия – на 136 месте из 180, а Мексика чуть лучше (№124).
И кстати, авторы методики натаскивания ИИ на госкоррупцию уверяют, что методика универсальная. И натаскать их модель на другую страну можно запросто. Но опять же – было бы желание.
#МашинноеОбучение #Коррупция
​​AI превратится в AGI, когда обретёт сознание.
И для этого ему потребуются задатки имажинавта.

О том, что 3 года назад писали лишь футурологи ИИ, сегодня пишут инженеры – практики солидных фирм.
В 2019 я написал пост на довольно важную для меня тему - про имажинавтов (людей со сверхразвитой способностью к ничем не ограниченным перемещениям в пространстве и времени по неисчерпаемой вселенной воображаемых миров). Эта способность, лежащая в основе креативности, базируется на т.н. дистальном моделировании, для которого в мозге задействован особый нейронный механизм — дорсомедиальная подсистема сети пассивного режима (подробней в моём посте).

Спустя 3 года совместными усилиями Microsoft Research и Araya Inc. (Япония), на мой взгляд, намечается прорыв.
Авторы исследования смогли увязать:
1. человеческую способность путешествовать во времени с сознанием;
2. три современные теории сознания с функциями общего (универсального) интеллекта (AGI);
3. современные методы глубокого обучения сначала с 2, а потом и с 1.
Тем самым исследователи Microsoft Research и Araya Inc. предлагают способ, с помощью которого понимание сознания в каждой из трех теорий можно объединить в единую унифицированную и реализуемую модель искусственных агентов, способных «мысленно» путешествовать во времени. Фишка такого похода в том, что, обладая этой возможностью, ИИ становится по-человечески креативным, и за счет этого у него появляется возможность развиваться до AGI человеческого уровня (естественно, при наличии опыта воплощенности или какого-то (пока не придуманного) его заменителя).

Насколько это круто, каждый может оценить самостоятельно.
Мне же это кажется очень-очень перспективным
.
✔️ Ибо обладающие способностями имажинавтов  —  это штучные люди, встречающиеся, преимущественно, в науке и в искусстве, хотя встречаются и в бизнесе. В последнем случае они кардинально меняют бизнес, монетизируя неопределенность и создавая новую бизнес-реальность, подобно Стиву Джобсу, создавшему для бизнеса новую реальность так же, как это сделал Эйнштейн для науки (подробней читай мой пост).
✔️ Ибо, по большому счету, весь сегодняшний мир создан имажинавтами. Именно им цивилизация обязана за все культурные достижения Homo sapiens, превратившие людей из животных в полубогов.
✔️Ибо способность мысленно путешествовать сквозь пространство и время – может статься, и есть тот золотой ключик, что откроет для современных методов глубокого обучения путь превращения в AGI, который в итоге обретёт сознание, став имажинавтом.


#Креативность #Воображение #Инновации #МашинноеОбучение #AGI
​​Клонирование мыслей.
Новый метод обучения ИИ думать как люди и самим себя «выдергивать из розетки» при появлении опасных для людей мыслей.

Это открывает две важнейшие прорывные перспективы:
• Качественный скачок в скорости и эффективности обучении ИИ.
• Столь необходимая для широкого внедрения ИИ, возможность профилактики и предотвращения преступлений ИИ (действий, способных принести людям зло).


Все сногсшибательные достижения ИИ больших языковых моделей (LLM) достигнуты за счет их сверхумения имитировать действия людей. Ибо именно действия людей (написанные ими разнообразные тексты от романов до монографий и от стихов до постов, нарисованные картинки, сделанные шахматные ходы или элементы выполнения задач в реальном мире) воплощены в оцифрованных данных, на которых учатся LLM.

Но у людей все несколько иначе. Люди еще и думают (мыслят) – т.е. осуществляют мыслительный процесс рассуждений, ведущий к тем или иным действиям (тексту, ходу в игре, действию в реальном мире и т.д.) Этот мыслительный процесс и обуславливает причины предпринимаемых действий.

Гипотеза авторов исследования «Клонирование мыслей: обучение мыслить в процессе действий, имитируя человеческое мышление» (Универ Британской Колумбии, Vector Institute и Canada CIFAR AI Chair) заключается в том, что если вы обучаете модель действиям и соответствующим им мыслям, то модель выучит правильные ассоциации между поведением и целями. И кроме того, модель также сможет генерировать и сообщать причины своих действий.

Чтобы достичь клонирования мыслей в моделях машинного обучения, авторы разработали метод предоставления модели нескольких потоков информации во время обучения.
• Одним из них является наблюдение за действиями, такими как ходы, которые игрок выполняет в игре.
• Второй — это поток мыслей, например, объяснение действия.
Например, в стратегической игре в реальном времени ИИ наблюдает, как игрок переместил несколько юнитов перед мостом. При этом он получает текстовое пояснение, в котором говорится что-то вроде «не допустить пересечения моста силами противника».

В рамках обучения клонированию мыслей агенты учатся воспроизводить мысли на естественном языке на каждом временном шаге и впоследствии обусловливают свои действия на основе этих сгенерированных мыслей. И мысли, и действия изучаются в процессе предварительного обучения посредством имитации обучения человеческим данным.

Вот видео элементарного игрового примера, как это может происходить.

Клонирование мыслей также способствует безопасности ИИ. Поскольку мы можем наблюдать за мыслями агента, мы можем (1) легче диагностировать, почему что-то идет не так, (2) направлять агента, корректируя его мышление, или (3) предотвращать выполнение им небезопасных действий, которые он планирует делать.
Этот раздел методики авторы назвали «Вмешательство до преступления» - некий ИИ аналог системы из культового фильма «Особое мнение». Он позволяет останавливать ИИ-агента при обнаружении у него опасных мыслей.

Подробней о реализации метода клонирования мыслей см. здесь:
- популярно
- препринт исследования
А здесь результаты на GitHub, включая веса модели, код для обучения модели и код для генерации данных для обучения и тестирования.

#ИИ #МашинноеОбучение