Малоизвестное интересное
65.4K subscribers
102 photos
1 video
11 files
1.81K links
Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
DARPA пытается победить «глубокие фейки».
Но похоже, что эта битва уже проиграна.

Через несколько недель по проекту, финансируемому военными DARPA, ведущие мировые эксперты в области цифровой экспертизы соберутся на конкурс в области ИИ. Они будут конкурировать за создание с помощью ИИ наиболее убедительных поддельных видеороликов, изображений и аудио, а также попытаются разработать инструментарий, способный автоматически отлавливать и разоблачать такие подделки https://goo.gl/L4KyUd.

Подобные подделки, называемые «глубокие фейки» (deepfakes), стали «ядерным оружием» фейковых новостей. На этих видео-роликах с помощью глубокого обучения нейросетей, внешность и голоса знаменитостей наложены на тела актеров, которые творят и говорят всякое непотребство (не поленитесь пройтись по всем ссылкам этого поста, дабы прочувствовать глубину фейков).

Началось это, как положено, с порнографии. И если кто пропустил скандал с нейросетью, наученной «пририсовывать» лица знаменитостей порноактрисам, вот https://goo.gl/NhcvEV и вот https://goo.gl/oZz1PD резюме, а это видеообъяснение http://newsvideo.su/video/8286398.

Со времен этого порноскандала ситуация сильно усугубилась. Теперь, с помощью генеративных состязательных сетей (GAN), научились
- не только изготавливать внешне не отличимые для зрителя «глубокие фейки»,
- но и изготавливать их таким образом, что подделку невозможно инструментально распознать.

Простота изготовления и невозможность распознавания подделок (только посмотрите, как они издеваются над Президентом Путиным https://goo.gl/KoBi8n) ставят шах и мат службам национальной безопасности даже таких стран, как США.

Битва «снарядов и брони» вышла на последний этап. Броня научилась выявлять подделки с вероятностью 75% https://goo.gl/QMkn2w, однако новое поколение снарядов пробивает эту броню с вероятностью 80%.

Большинство экспертов уверены, что без 100%ной мобилизации на решение этой задачи компаний Google и Facebook (а по-хорошему, и всех остальных грандов ИИ) эту задачу не решить https://goo.gl/jFTTs7.

Но это конец независимому от государства ИИ. А если по-честному, то и конец свободы слова.

И потому американские вояки хватаются за соломинку, делая одну из последних попыток решить проблему в ходе открытого мирового конкурса под эгидой DARPAвской программы Media Forensics (MediFor).

Шутки шутками, но вопрос, быть или не быть тотальной цензуре, может решиться в ближайшие несколько месяцев.

#Deepfakes
DARPA проиграла. А Алла Пугачева оказалась права
В мае я рассказывал, что DARPA пытается победить «глубокие фейки» (подмена лиц на видео), но, похоже, что эта битва уже проиграна. Спустя 4 месяца это окончательно подтвердилось. За широкое применение технологий «глубоких фейков» проголосовала индустрия развлечений.

Менее чем за год свершился ракетообразный взлет популярности этого класса технологий:
- от вставки лиц знаменитостей в порно-роликах;
- через создание фейковых видео-новостей;
- до превращения в один из самых прикольных и креативных видео-эффектов при создании музыкальных клипов.

Угнаться за креативом индустрии развлечений вояки из DARPA не смогут. А профи из креативных студий за несколько месяцев показали, что могут с помощью «глубоких фейков» не только экономить при съемках миллионы, но и творить до того невозможное – сплавлять вкусы разных поколений, поднимая популярность дипфейкового стиля клипов на недосягаемую ранее высоту.

Вот ролик ”1999" - идеальный пример использования «глубоких фейков», в котором Charli и Troye Sivan заставляют работать на себя идолов 1990-х: от Стива Джобса, до фильма «Титаник».
А здесь подробности этой темы.

В 1996 году на фестивале «Фантазия-96» (в проведении которого ключевую роль играла моя тогдашняя компания Silicon Graphics), я спросил Аллу Пугачеву, чего она больше всего опасается в компьютеризованном будущем индустрии развлечений.
Примадонна, получившая по итогам фестиваля приз за лучший анимационный клип «Зайка моя» (представлявшийся ею совместно с совсем молодым Киркоровым) уже тогда была в курсе огромных возможностей компьютерной графики, проиллюстрированных ей на демороликах Silicon Graphics.
И она ответила на мой вопрос, что больше всего ей не хотелось бы, чтобы её образ был использован в порно-роликах, библиотеках виртуального секса и поддельных музыкальных клипах с её, якобы, участием.

Права оказалась Алла Борисовна. Прошло 2 десятка лет, и теперь все это не только возможно, но и входит в мейнстрим индустрии развлечений.

Мой майский пост про «глубокие фейки»/

#Deepfakes
Новый кошмар поп звезд – стать поющим призраком
Эх, разворошил я своим сегодняшним постом муравейник индустрии фейковых развлечений! Теперь надо отвечать за базар.

Бдительные читатели тут же мне напомнили об анонсированном сегодня мировом турне умершей 7 лет назад Эми Уайнхаус, благо её отец наконец-то дал разрешение на турне, в котором его покойная дочь примет участие в виде голограммы.

Если кто не в курсе, это будет уже 3й голографический призрак компании BASE Hologram, собирающий деньги концертами по миру, выступая вместе с живыми музыкантами.
Голографические материализации призраков пионера рок-н-ролла Роя Орбисона и одной из величайших оперных певиц XX века Марии Каллас сейчас с успехом концертируют по миру.
Почитать и, главное, посмотреть и послушать, как это все выглядит, можно здесь https://thisis.media/spotlight/gologramma-emi-uaynhaus-otpravitsya-v-mirovoy-tur-v-2019-godu.
А вот здесь мне особенно нравится, как призрак Роя Орбисона растворяется в воздухе, откланявшись после оваций http://culturavrn.ru/world/25474

Осталось добавить 2 вещи.
1) Голограммы поющих призраков все более совершенствуются. Сегодня призраки выглядят куда свежее, чем концертировавшие с 2012 призраки Тупака Шакура, Билли Холидея и Майкла Джексона.
2) Адвокаты уже начали зарабатывать на концертах призраков не меньше коммерсантов из BASE Hologram. Судебные иски растут как грибы. И то ли еще будет https://planetrock.ru/news/vokrug-gologrammy-roya-orbisona-sudebnye-razbiratelstva

Так что к опасениям Аллы Пугачевой при жизни быть скопированной для фейковых целей, добавился еще более страшный кошмар (если не проклятие) – стать поющим призраком, зарабатывающим бабло для наследников бесконечным чёсом с концертами по миру.

С наступающими выходными вас!

#Deepfakes
​​Война машин уже вовсю идет.
А люди наивно полагают, что это проблема будущего.

Скарлетт О’Хара — один из наиболее известных женских персонажей. Ее умению жить реальностью и не задумываться о последствиях своих решений можно только позавидовать. «Я не буду думать об этом сегодня, я подумаю об этом завтра» - стала самой знаменитой фразой легендарного романа.
Поразительно, но человечество ведет себя ровно так же, как Скарлетт О’Хара. И сказанное в заголовке пока не осознается ни обывателями, ни ЛПРами госуровня, ни даже военными. Все продолжают считать, что война машин – это пусть и очень важный элемент картины мира, но он относится к миру будущего, и, следовательно, у нас еще будет время подумать, как минимизировать связанные с этим риски.
На самом деле, уже поздно пить Боржоми. И либо мы, наконец осознав высший приоритет этой мега-проблемы, срочно начнем курс ее лечения с помощью интенсивной «фарма-терапии», либо через 3-5 лет потребуется уже «химиотерапия или хирургия», с неопределенными шансами на успех.

Под войной машин понимается полная передача ответственности за решение проблемы «снаряда и брони» (технологий защиты и нападения) на компьютерные ИИ технологии.

Вот конкретный живой и 100%но актуальный пример из невоенной области (про военную писать, сами понимаете, себе дороже) – война с визуальными фейками.
В этой войне
• у нападающей стороны стоит задача средствами ИИ сварганить такую визуальную обманку (например, человека, похожего на Трампа в абсолютно компрометирующей обстановке или компании), чтоб подавляющее число ее увидевших поверили в нее;
• у защищающейся стороны задача средствами ИИ максимально быстро раскусить обманку и доказать, что это обман;
• тогда у нападающей стороны стоит задача средствами ИИ обмануть средства ИИ защиты;
• тогда у стороны защиты стоит задача не дать средствам ИИ нападения обмануть свои ИИ средства защиты;
И т.д. и т.п.

Ситуация на сегодняшний день в войне с визуальными фейками такова.
1) Подобно играм в шахматы и го, человек уже отдыхает (как на стороне защиты, так и на стороне нападения). На обеих сторонах работают исключительно ИИ.
Люди даже на HD видео и большом экране физически не способны распознать 30% визуальных феков, произведенных средствами ИИ нападения (а для обычного фото и видео на смартфонах и планшетах – более 40%).
Как нетрудно догадаться, ИИ защита распознаёт все 100%.
2) В связи с войной машин,
- успех ИИ защиты теперь на 100% зависит от «использования дополнительных знаний о предметной области»;
- а успех ИИ нападения – от «использования дополнительных знаний о дополнительных знаниях ИИ защиты о предметной области».

Все. Приехали. В области борьбы с визуальными фейками война машин уже идет.

А теперь перенесите по аналогии, например, на самоуправляемые авто.
В роли нападения мошенники, требующие от автопроизводителя $10 млрд, иначе они подсунут самоуправляемым авто этого производителя фейковые образы, снижающие распознавательные возможности дорожных знаков на 40%.
В роли защиты – ИИ автопроизводитель.

Ну а теперь перенесите пример на войну машин у военных.

Так что, - продолжаем жить по принципу Скарлетт О’Хара - «I'll think about it tomorrow»?

Информация к размышлению: «FaceForensics++: Learning to Detect Manipulated Facial Images»
Новая база данных «лицевых фейков», позволяющая ИИ защите побеждать ИИ нападение, если последнее использует 3 методики создания фейков: Face2Face, FaceSwap, DeepFakes.
Как вы, наверняка, сами понимаете, ИИ нападение уже вовсю разрабатывает несколько новых методов, про которые ИИ защита еще не знает (пока не знает).

#Deepfakes
В океане непроверенной информации, к тому же замусоренном массой фейков, спасает интеллектуальная самокритичность.
Включение психологического триггера интеллектуальной самокритичности – это основа нового совместного проекта «Потеря доверия» (Loss of Confidence Project) Международной программы Института человеческого развития Макса Планка, шести университетов и двух научных центров. Цель проекта – изменение культурных норм общества таким образом, чтобы они мотивировали стремление к интеллектуальной самокритичности и научной самокоррекции.

Фейсбучные споры, как правило, абсолютно непродуктивны. Никто не хочет признавать свои ошибки, даже будучи многократно ткнут в них носом. Но это еще не самая большая беда.
Хуже то, что и высокоумные эксперты и даже по-настоящему ученые люди также редко готовы признавать свои ошибки.
Лет 100 и даже 50 лет назад это было терпимо. Сейчас же, в формируемом информационном обществе, это категорически неприемлемо.
Причин для этого две:
1) Мир буквально плавает в океане недостаточно проверенной информации, и её доля в нашем инфо-пространстве катастрофически быстро увеличивается.
Еще лет 10 назад, до информационной революции Интернета, Больших данных, краудсорсинга, машинного обучения и т.д., множество научных идей, теорий и экспериментов считались вполне убедительными. Теперь же – бац, и все насмарку: многие из них признаны ошибочными. Ну а если не ошибочными, так, как минимум, не достаточно проверенными, чтобы им доверять и на них полагаться.
Например, уже широко обсуждавшаяся в прессе попытка протестировать 100 наиболее известных психологических экспериментов, которая показала, что только 40% из них были воспроизведены более строгими методами.
2) Современные технологии позволяют невероятно быстро и искуссно лгать, а также невероятно эффективно распространять ложную информацию.
Про торжество технологий на службе создания и распространения фейков моим читателям объяснять не нужно, - об этом я уже немало писал (см. посты моего канала по тегам #ФейковыеНовости и #DeepFakes).

Так что же делать в сложившейся ситуации?
Об этом как раз проект «Потеря доверия».
Успеху этого проекта должна способствовать переориентация общества на интеллектуальную самокритичность (intellectual humility), - свойство индивида, мотивирующее его на признание ошибочности его убеждений и являющееся важным дополнением к критическому мышлению.
На этом пути есть три основные проблемы:
1) Чтобы мы могли обрести интеллектуальную самокритичность, мы все, даже самые умные из нас, должны лучше понимать наши когнитивные слепые зоны. Наши умы более несовершенны и неточны, чем мы часто хотели бы признать. Наше невежество, зачастую, нам невидимо.
2) Даже когда мы преодолеваем эту огромную проблему и выясняем наши ошибки, мы должны это делать с позитивной мотивацией, - зная, что мы не понесем ущерба (материального или морального) за то, что сказали «я был неправ». И мы должны быть смелее, говоря это. Нам нужна культура, которая мотивирует сказать эти слова.
3) Мы никогда не достигнем совершенной интеллектуальной самокритичности. Поэтому нам нужно крайне вдумчиво выбирать свои убеждения.

Подробней см. превосходную статью Брайена Резника (Vox), имеющую хорошие шансы стать, как минимум, статьей месяца - «Интеллектуальная самокритичность: важно знать, что ты ошибаешься. Почему так трудно увидеть наше собственное невежество и что с этим делать» https://goo.gl/DzywnY
Статья изумительно иллюстрирована Хавьером Заррацина и содержит пару замечательных тестов (на 15 сек каждый), позволяющих воочию убедиться, как из того, что мы все разные, следует простой вывод –
✔️ одна и та же информация разными людьми воспринимается по-разному и порождает разные представления, формирующие разные убеждения.
Победить это может только интеллектуальная самокритичность.

#КогнитивныеИскажения
Следующая фаза ИИ – фальсификация всего мира … И Китай здесь впереди.
Самым важным мировым событием в области ИИ за март месяц был AIC – проведенный DARPA коллоквиум по ИИ с приоритетом на военных и разведку.
Выбрать что-то одно из 2х дюжин интереснейших тем 2х дневного коллоквиума трудно. Возьму в качестве тизера, например, эту тему - непрерывное и надежное машинное обучение.

В чем тут фишка и почему это так важно.
— Ключевые проблемы современных ИИ в том, что:
• ИИ сначала учатся, а потом работают, тогда как люди продолжают учиться и набирать опыт, пока живы;
• ИИ не понимают контекст информации и, в частности, изображений;
• ИИ не обладают, не строят и не совершенствуют моделей мира.
— Результатом этого является то, люди всегда могут обмануть ИИ, ибо:
• он уже кончил учиться и тупо работает, делая то, чему научился, обрабатывая данные, которые ему скормили люди или он сам нагенерил;
• а люди продолжают учиться и, в частности, на том, как эффективней обманывать уже обученного ИИ.
— В итоге страшная перспектива для многих областей, где работает ИИ. Самый понятный и ужасающий пример – фальсификация спутниковых и не только фотографий со всего мира, миллионами хранящихся в открытом доступе в сети.
• Те же алгоритмы, что учатся отличать на фото, например, реальные мосты, могут создать поддельные мосты, которые ИИ не сможет отличить от настоящих.
• Такие «глубокие фейки», будучи подсунуты в открытые сетевые наборы изображений, куда опасней видео-обманок для СМИ, где известные люди, говорят и делают то, что они не говорили и не делали.
• Дабы понять уровень угроз, достаточно сказать, что такая подтасовка открыто хранящихся в сети гео-изображений способна спустить в унитаз десятки миллиардов долларов, вкладываемых в разработку самоуправляемых авто.
• Сегодня Китай является признанным мировым лидером в использовании технологий генеративных состязательных сетей, способных заставить компьютеры видеть объекты в ландшафтах или на спутниковых изображениях, которых там нет.

Резюме простое:
1) ИИ должен, как и люди, быть способным постоянно учиться и набираться опыта, понимать контекст и формировать свои внутренние модели мира.
2) Ох не зря Китай приоритетно вкладывается в GAN. Это позволяет создавать на основе ИИ оружие, пострашнее автономных роботов-убийц.

Подробней:
- про The Newest AI-Enabled Weapon: ‘Deep-Faking’ Photos of the Earth https://goo.gl/pMoJW1
- доклад на эту тему на коллоквиуме AIC (25 мин) https://www.youtube.com/watch?v=CmewHNgWQWY
- 2 дюжины других докладов на AIC https://goo.gl/GKUw9P
#Deepfakes
Президентская кампания будет фейковым адом.
Мы живем в фейковом мире, - неделю назад справедливо написали в Axois. И они таки правы.
Недавнее фейковое видео спикера палаты представителей Нэнси Пелоси – всего лишь цветочек, в сравнении с ягодками, что ждут нас впереди. Всего лишь чуть замедлили скорость воспроизведения, и никакой DeepFakes даже не нужен – все зрители уверены, что дама - спикер подшофе.
Фальшивое видео может посеять страшный политический хаос, а противостоять ему крайне сложно. Сейчас ведь даже невозможно понять, кто несет ответственность за это.

И если, как предполагают западные аналитики, президентская кампания 2020 в США будет фейковым адом, то ее итоги станут просто непредсказуемыми.
Журналисты Axois опросили 24 предвыборных штаба обеих партий США, как они планируют бороться с грядущим фейковым адом. И выяснилось – никак
Никто просто не знает, как с этим бороться.
Потенциал глубоких фейков просто порушил все предвыборные стратегии. И сам институт всеобщих выборов зашатался.

Может ли технология DeepFakes стать могильщиком всеобщих выборов, - узнаем через год.
Ну а фабрика троллей уже перепрофилируется 😎

#Deepfakes
«Люди, проснитесь! Это самая разрушительная из всех придуманных нами технологий»
Это слова из обращения известного во всем мире профессора психологии Джордана Питерсона, призвавшего законодательно запретить технологию ГлубокихФейков во всем мире.
Подделка голоса и внешности людей должна караться не менее строго, чем подделка паспорта.
Иначе, и без того довольно размытая, граница между правдой и ложью будет человечеством безвозвратно утеряна.

11 лет прошло с того дня, когда производимая на лету подмена лица комика Билла Хейдера на лицо звездного Тома Круза ознаменовала переход человечества в эру ГлубокихФейков.
Прогресс технологии ГлубокихФейков за прошедшие 11 лет фантастический.
Технология субъектонезависимой подмены и реконструкции лица Face Swapping GAN (FSGAN) не зависит от фальсифицируемого субъекта и может применяться влет к любым парам лиц, не требуя предварительного машинного обучения на этих лицах – видео, описание и отчет.
Эта технология просто убивает все попытки создания оружия против ГлубокихФейков на основе подобных же технологий глубокого обучения.

Технологии, заставляющие кого-угодно произносить любой нужный вам текст также совершили ракетообразный взлет. Здесь, платя $30 за каждые 50 слов, любой из нас может заставить Трампа, Обаму, Хиллари Клинтон и Сандерса нести любую пургу.
Глобокофейковые караоки становятся все более популярны.
Поют все:
- президент Трамп поет за Eurythmics
- а Джордан Питерсон (с которого мы начали этот пост) рубит рэп за Eminem.

А тем временем и Том Страж - создатель первой прославившейся в мире подмены Билла Хейдера на Тома Круза – продолжает резвиться:
- вот Матрица, с Брюсом Ли, заменившим Киану Ривза
- а в этой фальшивке Дэвид Боуи превращается в Рика Эстли
- ну и куда уж без Джима Керри в «Сиянии» вместо Джека Николсона.

Что же нам делать, когда поддельные новости так же реальны, как и настоящие новости?
Что же нам делать, когда голос и внешность любого можно легко заменить на любого?
Что, в конце концов, делать с теми, кто делает все новые ГлубокиеФейки?
- спрашивает Джордан Питерсон в своем воззвании к человечеству.


И предлагает поступать с ними примерно так же, как делал Остап Бендер

#Deepfakes
​​Решение этических проблем ИИ только одно -
меньше использовать ИИ

Иначе:
1) Антиэволюция предубеждений Homo sapiens превратит нас в социальных идиотов.
Расовые, гендерных и прочие социальные предубеждения ИИ-алгоритмов соцсетей - это мощнейший катализатор усиления наших и без того немалых предубеждений.
2) Глубокие фейки станут главным медийным инструментом политиков.
Они уже их используют и весьма успешно, разрушая моральные барьеры и размывая границы реальности.
3) Новые изощренные формы извращений войдут в обычную практику привлечения медиа аудитории
Например, даже Пелевин не додумался до такого извращения, как «техномантия» - техновоскрешение умерших для повышения внимания аудитории. А медиакомпании этим уже пользуются.

На 100% разделяю предложение Джека Кларка (Jack Clark, OpenAI Strategy and Communications Director) о целесообразности уменьшения использования ИИ. Пока не придуманы способы борьбы с конкретными рисками применения ИИ, его применение в областях, где эти риски значимы, следует ограничить.

Вот 3 примера, приводимые Кларком в новом выпуске его великолепного канала IMPORT AI

1) Twitter принял решение меньше использовать машинное обучение и предоставить пользователям больше контроля над тем, как выглядят их фото в сети.
Причина в том, что внедренные в 2018 нейронки для интеллектуальной автоматической обрезки изображений облажались.
И теперь компания принимает честное и умное решение:
«Хотя наш анализ на сегодняшний день не выявил расовых или гендерных предубеждений, мы понимаем, что то, как мы автоматически кадрируем фотографии, означает, что существует потенциальный вред. Мы должны были лучше предвидеть эту возможность, когда мы впервые проектировали и создавали этот продукт».

2) Кандидат в Палату представителей США Фил Эр, баллотирующийся во Флориде, построил свою предвыборную рекламу так. Синтезированный технологией глубоких фейков Мэтт Гаец «говорит»: Q-anon - отстой, Барак Обама крут, и что он голосует за Джо Байдена. Затем Фил Эр предупреждает зрителей, что они только что видели пример «глубокой фальшивой технологии». И добавляет убойный аргумент: «Если наша кампания сможет снять подобное видео, представьте, что сейчас делает Путин?»

3) Чтобы повлиять на выбор избирателей на грядущих в ноябре выборах, группа компаний Change the Ref использовала технологию глубоких фейков для воскрешения Хоакина Оливера, застреленного в 2018 при стрельбе в школе Паркленда. Вот как выглядит эта «техномантия»: «Его родители использовали ИИ, чтобы вернуть Хоакина, дабы он рассказал людям, как голосование может предотвратить подобные трагедии в других семьях».
И вот убитый парень экспрессивно агитирует проголосовать за него самого, за тех, кого еще не убили, и за правильного кандидата в президенты США.
Вот как живенько он при этом выглядит.
#Deepfakes #РискиИИ #ПредвзятостьИИ #МашинноеОбучение
This media is not supported in your browser
VIEW IN TELEGRAM
Взгляните на этот веселый Deep Fake от @yurii_yeltsov.
Трудно придумать более наглядную иллюстрацию двух топовых прогнозов отчета State of AI Report на 2024 год (см. https://t.me/theworldisnoteasy/1823):
1. В Голливуде произойдет технологическая революция в области создания визуальных эффектов – весь процесс будет отдан на откуп ГенИИ.
2. Начнется первое в истории расследование вмешательства ГенИИ известного на весь мир производителя в предвыборную президентскую кампанию в США.


Описывая мир победившего к 2041 году ИИ, легендарный визионер, техно-инвестор и стратег Кай-Фу Ли предвидит, что главным инструментом власти и криминала станет не насилие, а ИИ технология DeepMask - преемник сегодняшних DeepFake (см. https://t.me/theworldisnoteasy/1349).

Полагаю, что мой старый коллега по SGI ошибся лишь в одном – это случится гораздо раньше.
#Deepfakes