Профайлинг, нейротехнологии и детекции лжи
20.6K subscribers
1.86K photos
267 videos
110 files
1.07K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
Download Telegram
XXI век – век фэйка, будьте внимательны.

Я писал несколько раз о том, что современные технологии, при всей моей любви к ним, увеличивают количество
фэйков.

Полтора года назад была отработана технология наложения своей мимики на чужое лицо, да еще так, что его не отличить от настоящего. Включая речь. Т.е. профессионал за несколько минут может сделать видео-ролик с известным человеком, несущим какую-то пургу и выложить его в сеть, при этом понять, что это фэйк не сможет ни человек, ни машина. Киношники в восторге, поскольку уже внедрили у себя эту технологию, впрочем, также, как и журналисты, занимающиеся распространением фэйковых новостей.

А между тем, уже появились факты того, что как минимум несколько человек было несправедливо осуждены и посажены в тюрьму из-за подобных фейковых видеопризнаний и видеороликов. И это, конечно, жесть. Потому, что гарантированно отличить реальное видео от сделанного нельзя. Нет еще такой технологии. Пятерка мировых IT-лидеров уже потратило несколько миллиардов на то, чтобы такую технологию создать, но пока безрезультатно: киношники пока побеждают.

А совсем недавно появилась нейросеть, способная оживить картинки, сделав из них примерно то, как двигались картинки в газетах в фильмах про Гарри Поттера. Такие фотографии могут совершать произвольные движения, разговаривать, выбегать из кадра, при этом фон картинки самостоятельно достраивается, а пользователь может вручную изменить положение частей тела модели перед началом анимации.

https://youtu.be/G63goXc5MyU

Эту нейросеть, как и предыдущую, о которой я здесь написал, обучили в Израиле, в университете Тель-Авива совместно с FaceBook, под руководством одного из столпов этого процесса – Иры Шлицерман. Киношники, конечно, обрадуются, но лет через 5, когда технология войдет в рутину, всему видео-контенту, особенно значимому для судопроизводственной практики, доверять будет трудно, ибо смастерить можно будет практически все, обладая средними навыками в компьютерной графике.

Как будет работать профайлинг и верификация лжи в условиях, когда подлинность практически любой видео-записи, до сих пор являющейся одним из основных доказательств в суде, можно будет поставить под сомнение – я не знаю. Но уверен, что будет еще более интересно.
Делаем выводы.

#профайлинг, #видео, #FAANG, #нейросеть, #программы, #верификация, #фэйк
На выходные дни – первая книжная рекомендация: Г.Макдональд с новым изданием «ПРАВДА. Как политики, корпорации и медиа формируют нашу реальность, выставляя факты в выгодном свете». Постправда и полуправда – тоже, кстати, один из трендов текущего года.

Допустим, вы сумеете уличить во лжи рекламщиков и маркетологов и не ведетесь на фейковые новости в соцсетях и СМИ. Но как распознать обман, когда ловко подтасовывают факты и жонглируют словами? Что делать, если нам врут с помощью правды?

Автор книги Гектор Макдональд утверждает, что есть разные способы говорить правду. То, как нам ее преподносят, влияет на наше восприятие ситуации. В книге он исследует феномен «конкурентных правд» и рассказывает о случаях в политике, бизнесе и истории, когда правда становится орудием обмана. Это практическое руководство с простыми техниками научит вас обнаруживать манипуляторов и дезинформаторов. Книга поможет развить критическое мышление и понять, как правды, которые мы слышим, формируют наши взгляды.

В книжных магазинах книга стоит по 600 руб. В канале - традиционно бесплатно.

#профайлинг, #правда, #книга, #ложь, #фэйк, #постправда, #скачать
Gektor_Makdonald__Pravda._Kak_politiki__korporaci_b-ok.org_.pdf
3.8 MB
Г.Макдональд «ПРАВДА. Как политики, корпорации и медиа формируют нашу реальность, выставляя факты в выгодном свете».

#профайлинг, #правда, #книга, #ложь, #фэйк, #постправда, #скачать
В канале я несколько раз писал о технологии создания видеофэйков и высказывал опасения того, что вполне скоро можно будет создать неотличимые человеческим глазом видеофэйки любого человека только по одной его фотографии. Представляете, что будет, если такие фэйки будут учитываться в суде в качестве доказательств: ведь за пару часов можно сделать любое признание или разоблачение!

Недавно вышло новое обновление SNAPPERS FACIAL RIG – чуть его не пропустил. Это движок, предназначенный для тонкой анимации лица, который применяется в основном киношниками, создателями компьютерных игр, журналистами и фэйкоделами.

В текущей версии движок учитывает всю кодировку FACS, позволяет скомбинировать любую экспрессию на основе базовых эмоций, но, что еще более интересного – позволяет синхронизировать в речевую экспрессию видео и аудио поток, причем так, что результат трудно отличим от реальной видеозаписи реального человека.

Еще обязательно поковыряюсь в нем, ну а вы посмотрите это видео и зацените уровень реалистичности, учитывая, что это видео собрано с помощью предыдущей версии движка.
Добро пожаловать в мир фэйка и реальности 😀

#профайлинг, #мимика, #лицо, #анимация, #FACS, #технологии, #фэйк, #детекциялжи, #ProProfiling
Media is too big
VIEW IN TELEGRAM
Оживить портрет и добавить к нему практически любую речь сейчас дело 20-ти минут. Об этом я уже писал не раз. Ждем такую технологию в соцсетях и при создании фэйков

#классика, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #fun.
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

И вот буквально на днях, израильские учёные показали систему FSGAN, которая способна правдоподобно менять лица на видео в реальном времени.
Система берёт видео с одним человеком и переносит его мимику и жесты на другого. При этом FSGAN достаточно одной фотографии цели, чтобы заставить её говорить всё, что угодно.

Пока технология работает неидеально: лица то и дело смешиваются, появляются артефакты. Но стоит доработать систему — и всё, можно пускать фейковые новости в прямой эфир. И никто не усомнится в их правдивости.

Если вы считаете, что это вас не касается, то ждите, что через год-два вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

По ссылке – видео с демонстрацией FSGAN.
https://www.youtube.com/watch?v=BsITEVX6hkE


Сейчас в интернете один из мэйнстримов – пересаживать лица известных людей в культовые фильмы. Если раньше в основном таким образом прикалывались исключительно над Обамой, то сейчас можно встретить Путина, Трампа, Илона Маска, Тома Круза, Николаса Кейджа, Киану Ривза и многих других. Сейчас вам накидаю таких примеров – взгляните, это интересно и реалистично.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
5) Объявленная победа над Deep Fake мне кажется преждевременной. Речь идет о недавно выпущенном продукту Adobe – About Face, предназначенному для выявления факта применения ретуши при обработке фотографий. Его работа основана на фирменном искусственном интеллекте компании «Sensei», который обеспечивает (на текущий момент) 99 % точность распознавания фейков.

Увы, узкое место About Face – это привязка к программным продуктам самой Adobe. Если точнее, ИИ умеет работать только с файлами из программы Photoshop и выявляет только те коррекции, которые были произведены инструментом Face-Aware Liquify – фильтром, с помощью которого создаются далеко не все фейки.

https://www.techcult.ru/soft/7547-adobe-vypustila-instrument-about-face

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Интересная статейка и факт вам на пятницу и выходные.

Пусть это и звучит несерьезно, но британские ученые провели исследование. Суть его в том, что люди, которые часто пускают пыль в глаза, пытаясь произвести лучшее впечатление или убедить в чем-то других, сильно восприимчивы к такому же обману. То есть им самим запудрить мозги и навешать лапши на уши проще простого.

https://bpspsychub.onlinelibrary.wiley.com/doi/abs/10.1111/bjso.12447

Британцы заинтересовались тем, насколько люди восприимчивы к «научному вранью» и фэйковым новостям. Под научным враньем можно понять информацию различных псевдоученых «дисциплинах» о биополе, магии и окультизме, всяческих эгрегорах и квантовых полях. В реальном исследовании это измерялось тем, насколько человек считал правдоподобным то или иное утверждение, которое случайным образом генерировала нейросеть с использованием сложных научных терминов, такими, как например «энтропия», «конструктивная интерференция» и «основные квантовые состояния» и подобные.

Предварительно у участников исследования с помощью анкет была выявлена и измерена тенденция убедительно привирать в дискуссии по теме, о которой они мало знают.

В итоге оказалось, что люди, которые чаще прибегают к такому трепу, не только более восприимчивы к псевдо-глубоким высказываниям (считая их правдивыми), но и более уверены в своих интеллектуальных способностях в сравнении с теми, кто так не поступает. Они также получили более низкие баллы практически по всем когнитивным способностям.

Почему это исседование важно? Дело в том, что сейчас в соцсетях довольно часто можно встретить различную псевдонаучную чушь от довольно известных блоггеров и тренеров. Нам научным языком рассказывают про магию, биополя, эгрегоры, физиогномику. Или с помощью эгрегоров, магии и биополей объясняют нейробиологию, психологию или медицину. И это можно делать с довольно умным видом и использованием различных научных слов, глибинного смысла которых эти блоггеры не понимают. Но за час инстаграммного эфира или в 20-ти минутном ролике в ютуб это не всегда можно увидеть: в них за это время просто невозможно уместить эту глубину.

В итоге мы до сих пор еще встречаем блоггеров, активно цитирующих С.В.Савельева и его взгляды, делающих «научные» ссылки на книги К.Кастанеды и считающих, что «у женщин более развита префронтальная кора полушарий головного мозга и именно поэтому женщины лучше калибруют эмоции».

Так вот: можете сами вешать этим чудакам лапшу на уши – и они поверят. И не жалко. Расскажите им, какое мощное биополе вы у них видите и какая развитая у них префронтальная кора и поэтому они хорошо калибруют эмоции.

#профайлинг, #фэйк, #нейробиология, #мозг, #исследования, #префронтальнаякора, #статья, #ложь, #правда, #детекциялжи, #детекторлжи, #ProProfiling, #Филатов, #профайлинг_филатов.
Недавно два стартапа, специализирующиеся на машинном обучении для генерации того, что принято называть deep fake, объединили свои усилия.

Новозеландско-американская компания UneeQ, занимающаяся разработкой трехмерных изображений и чат-ботов с использованием технологии искусственного интеллекта, создала ресурс с виртуальной версией всемирно известного физика Альберта Эйнштейна.

На сайте представлено лицо ученого, которое умеет не только реалистично двигаться, но и разговаривать голосом, максимально приближенным к реальному. За звуковую сторону ресурса отвечаетвторой стартап Aflorithmic - лондонская студия разработки аудио-контента.

Зайдя на ресурс, с ученым можно “побеседовать” с помощью специального чата Digital Einstein. Для его запуска нужно нажать на кнопку Let’s chat, после чего сайт запросит разрешение на использование микрофона, через который пользователь может озвучить свой вопрос. Дипфейк-версия Эйнштейна умеет поддерживать разговоры на разные темы, среди которых - наука, исследования, работа.

Впрочем, TechCrunch в длинной и немного ворчливой статье справедливо замечает, что скорее нам показали будущее коммерческих чат-ботов, которые будут нам что-нибудь впаривать. И, вероятно, делать это действительно эффективно.

А еще одно из существенных опасений этого заключается в том, что deepfake все более активно используются с целью дезинформации и обмана. И это уже в ближайшем будущем может стать колоссальной проблемой. В частности, буквально пару месяцев назад в штатах был скандал из-за того, что простая американка заказала и опубликовала мягко сказать порочные deepfake видео соперниц своей дочери по важному конкурсу для того, чтобы их исключили из числа участниц этого конкурса. Хорошая многоходовочка)). И это только начало.

Ну а случаи использования дипфэйков для поздравлений и генерации порновидео уже становятся рутинными. Примеры этого можно посмотреть здесь, здесь, здесь и здесь.

Ждем применения таких технологий в том числе и целью обмана. В общем, правл был группенфурер Мюллер, когда говорил Айсману, что верить в нашей жизни нельзя никому. Мне – можно.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #мэтры, #голос, #нейросеть, #профайлинг_филатов, #Филатов, #ProProfiling, #видео