Профайлинг, нейротехнологии и детекции лжи
20.6K subscribers
1.86K photos
267 videos
110 files
1.07K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
Download Telegram
XXI век – век фэйка, будьте внимательны.

Я писал несколько раз о том, что современные технологии, при всей моей любви к ним, увеличивают количество
фэйков.

Полтора года назад была отработана технология наложения своей мимики на чужое лицо, да еще так, что его не отличить от настоящего. Включая речь. Т.е. профессионал за несколько минут может сделать видео-ролик с известным человеком, несущим какую-то пургу и выложить его в сеть, при этом понять, что это фэйк не сможет ни человек, ни машина. Киношники в восторге, поскольку уже внедрили у себя эту технологию, впрочем, также, как и журналисты, занимающиеся распространением фэйковых новостей.

А между тем, уже появились факты того, что как минимум несколько человек было несправедливо осуждены и посажены в тюрьму из-за подобных фейковых видеопризнаний и видеороликов. И это, конечно, жесть. Потому, что гарантированно отличить реальное видео от сделанного нельзя. Нет еще такой технологии. Пятерка мировых IT-лидеров уже потратило несколько миллиардов на то, чтобы такую технологию создать, но пока безрезультатно: киношники пока побеждают.

А совсем недавно появилась нейросеть, способная оживить картинки, сделав из них примерно то, как двигались картинки в газетах в фильмах про Гарри Поттера. Такие фотографии могут совершать произвольные движения, разговаривать, выбегать из кадра, при этом фон картинки самостоятельно достраивается, а пользователь может вручную изменить положение частей тела модели перед началом анимации.

https://youtu.be/G63goXc5MyU

Эту нейросеть, как и предыдущую, о которой я здесь написал, обучили в Израиле, в университете Тель-Авива совместно с FaceBook, под руководством одного из столпов этого процесса – Иры Шлицерман. Киношники, конечно, обрадуются, но лет через 5, когда технология войдет в рутину, всему видео-контенту, особенно значимому для судопроизводственной практики, доверять будет трудно, ибо смастерить можно будет практически все, обладая средними навыками в компьютерной графике.

Как будет работать профайлинг и верификация лжи в условиях, когда подлинность практически любой видео-записи, до сих пор являющейся одним из основных доказательств в суде, можно будет поставить под сомнение – я не знаю. Но уверен, что будет еще более интересно.
Делаем выводы.

#профайлинг, #видео, #FAANG, #нейросеть, #программы, #верификация, #фэйк
На выходные дни – первая книжная рекомендация: Г.Макдональд с новым изданием «ПРАВДА. Как политики, корпорации и медиа формируют нашу реальность, выставляя факты в выгодном свете». Постправда и полуправда – тоже, кстати, один из трендов текущего года.

Допустим, вы сумеете уличить во лжи рекламщиков и маркетологов и не ведетесь на фейковые новости в соцсетях и СМИ. Но как распознать обман, когда ловко подтасовывают факты и жонглируют словами? Что делать, если нам врут с помощью правды?

Автор книги Гектор Макдональд утверждает, что есть разные способы говорить правду. То, как нам ее преподносят, влияет на наше восприятие ситуации. В книге он исследует феномен «конкурентных правд» и рассказывает о случаях в политике, бизнесе и истории, когда правда становится орудием обмана. Это практическое руководство с простыми техниками научит вас обнаруживать манипуляторов и дезинформаторов. Книга поможет развить критическое мышление и понять, как правды, которые мы слышим, формируют наши взгляды.

В книжных магазинах книга стоит по 600 руб. В канале - традиционно бесплатно.

#профайлинг, #правда, #книга, #ложь, #фэйк, #постправда, #скачать
Gektor_Makdonald__Pravda._Kak_politiki__korporaci_b-ok.org_.pdf
3.8 MB
Г.Макдональд «ПРАВДА. Как политики, корпорации и медиа формируют нашу реальность, выставляя факты в выгодном свете».

#профайлинг, #правда, #книга, #ложь, #фэйк, #постправда, #скачать
В канале я несколько раз писал о технологии создания видеофэйков и высказывал опасения того, что вполне скоро можно будет создать неотличимые человеческим глазом видеофэйки любого человека только по одной его фотографии. Представляете, что будет, если такие фэйки будут учитываться в суде в качестве доказательств: ведь за пару часов можно сделать любое признание или разоблачение!

Недавно вышло новое обновление SNAPPERS FACIAL RIG – чуть его не пропустил. Это движок, предназначенный для тонкой анимации лица, который применяется в основном киношниками, создателями компьютерных игр, журналистами и фэйкоделами.

В текущей версии движок учитывает всю кодировку FACS, позволяет скомбинировать любую экспрессию на основе базовых эмоций, но, что еще более интересного – позволяет синхронизировать в речевую экспрессию видео и аудио поток, причем так, что результат трудно отличим от реальной видеозаписи реального человека.

Еще обязательно поковыряюсь в нем, ну а вы посмотрите это видео и зацените уровень реалистичности, учитывая, что это видео собрано с помощью предыдущей версии движка.
Добро пожаловать в мир фэйка и реальности 😀

#профайлинг, #мимика, #лицо, #анимация, #FACS, #технологии, #фэйк, #детекциялжи, #ProProfiling
Media is too big
VIEW IN TELEGRAM
Оживить портрет и добавить к нему практически любую речь сейчас дело 20-ти минут. Об этом я уже писал не раз. Ждем такую технологию в соцсетях и при создании фэйков

#классика, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #fun.
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

И вот буквально на днях, израильские учёные показали систему FSGAN, которая способна правдоподобно менять лица на видео в реальном времени.
Система берёт видео с одним человеком и переносит его мимику и жесты на другого. При этом FSGAN достаточно одной фотографии цели, чтобы заставить её говорить всё, что угодно.

Пока технология работает неидеально: лица то и дело смешиваются, появляются артефакты. Но стоит доработать систему — и всё, можно пускать фейковые новости в прямой эфир. И никто не усомнится в их правдивости.

Если вы считаете, что это вас не касается, то ждите, что через год-два вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

По ссылке – видео с демонстрацией FSGAN.
https://www.youtube.com/watch?v=BsITEVX6hkE


Сейчас в интернете один из мэйнстримов – пересаживать лица известных людей в культовые фильмы. Если раньше в основном таким образом прикалывались исключительно над Обамой, то сейчас можно встретить Путина, Трампа, Илона Маска, Тома Круза, Николаса Кейджа, Киану Ривза и многих других. Сейчас вам накидаю таких примеров – взгляните, это интересно и реалистично.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
5) Объявленная победа над Deep Fake мне кажется преждевременной. Речь идет о недавно выпущенном продукту Adobe – About Face, предназначенному для выявления факта применения ретуши при обработке фотографий. Его работа основана на фирменном искусственном интеллекте компании «Sensei», который обеспечивает (на текущий момент) 99 % точность распознавания фейков.

Увы, узкое место About Face – это привязка к программным продуктам самой Adobe. Если точнее, ИИ умеет работать только с файлами из программы Photoshop и выявляет только те коррекции, которые были произведены инструментом Face-Aware Liquify – фильтром, с помощью которого создаются далеко не все фейки.

https://www.techcult.ru/soft/7547-adobe-vypustila-instrument-about-face

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Интересная статейка и факт вам на пятницу и выходные.

Пусть это и звучит несерьезно, но британские ученые провели исследование. Суть его в том, что люди, которые часто пускают пыль в глаза, пытаясь произвести лучшее впечатление или убедить в чем-то других, сильно восприимчивы к такому же обману. То есть им самим запудрить мозги и навешать лапши на уши проще простого.

https://bpspsychub.onlinelibrary.wiley.com/doi/abs/10.1111/bjso.12447

Британцы заинтересовались тем, насколько люди восприимчивы к «научному вранью» и фэйковым новостям. Под научным враньем можно понять информацию различных псевдоученых «дисциплинах» о биополе, магии и окультизме, всяческих эгрегорах и квантовых полях. В реальном исследовании это измерялось тем, насколько человек считал правдоподобным то или иное утверждение, которое случайным образом генерировала нейросеть с использованием сложных научных терминов, такими, как например «энтропия», «конструктивная интерференция» и «основные квантовые состояния» и подобные.

Предварительно у участников исследования с помощью анкет была выявлена и измерена тенденция убедительно привирать в дискуссии по теме, о которой они мало знают.

В итоге оказалось, что люди, которые чаще прибегают к такому трепу, не только более восприимчивы к псевдо-глубоким высказываниям (считая их правдивыми), но и более уверены в своих интеллектуальных способностях в сравнении с теми, кто так не поступает. Они также получили более низкие баллы практически по всем когнитивным способностям.

Почему это исседование важно? Дело в том, что сейчас в соцсетях довольно часто можно встретить различную псевдонаучную чушь от довольно известных блоггеров и тренеров. Нам научным языком рассказывают про магию, биополя, эгрегоры, физиогномику. Или с помощью эгрегоров, магии и биополей объясняют нейробиологию, психологию или медицину. И это можно делать с довольно умным видом и использованием различных научных слов, глибинного смысла которых эти блоггеры не понимают. Но за час инстаграммного эфира или в 20-ти минутном ролике в ютуб это не всегда можно увидеть: в них за это время просто невозможно уместить эту глубину.

В итоге мы до сих пор еще встречаем блоггеров, активно цитирующих С.В.Савельева и его взгляды, делающих «научные» ссылки на книги К.Кастанеды и считающих, что «у женщин более развита префронтальная кора полушарий головного мозга и именно поэтому женщины лучше калибруют эмоции».

Так вот: можете сами вешать этим чудакам лапшу на уши – и они поверят. И не жалко. Расскажите им, какое мощное биополе вы у них видите и какая развитая у них префронтальная кора и поэтому они хорошо калибруют эмоции.

#профайлинг, #фэйк, #нейробиология, #мозг, #исследования, #префронтальнаякора, #статья, #ложь, #правда, #детекциялжи, #детекторлжи, #ProProfiling, #Филатов, #профайлинг_филатов.
Недавно два стартапа, специализирующиеся на машинном обучении для генерации того, что принято называть deep fake, объединили свои усилия.

Новозеландско-американская компания UneeQ, занимающаяся разработкой трехмерных изображений и чат-ботов с использованием технологии искусственного интеллекта, создала ресурс с виртуальной версией всемирно известного физика Альберта Эйнштейна.

На сайте представлено лицо ученого, которое умеет не только реалистично двигаться, но и разговаривать голосом, максимально приближенным к реальному. За звуковую сторону ресурса отвечаетвторой стартап Aflorithmic - лондонская студия разработки аудио-контента.

Зайдя на ресурс, с ученым можно “побеседовать” с помощью специального чата Digital Einstein. Для его запуска нужно нажать на кнопку Let’s chat, после чего сайт запросит разрешение на использование микрофона, через который пользователь может озвучить свой вопрос. Дипфейк-версия Эйнштейна умеет поддерживать разговоры на разные темы, среди которых - наука, исследования, работа.

Впрочем, TechCrunch в длинной и немного ворчливой статье справедливо замечает, что скорее нам показали будущее коммерческих чат-ботов, которые будут нам что-нибудь впаривать. И, вероятно, делать это действительно эффективно.

А еще одно из существенных опасений этого заключается в том, что deepfake все более активно используются с целью дезинформации и обмана. И это уже в ближайшем будущем может стать колоссальной проблемой. В частности, буквально пару месяцев назад в штатах был скандал из-за того, что простая американка заказала и опубликовала мягко сказать порочные deepfake видео соперниц своей дочери по важному конкурсу для того, чтобы их исключили из числа участниц этого конкурса. Хорошая многоходовочка)). И это только начало.

Ну а случаи использования дипфэйков для поздравлений и генерации порновидео уже становятся рутинными. Примеры этого можно посмотреть здесь, здесь, здесь и здесь.

Ждем применения таких технологий в том числе и целью обмана. В общем, правл был группенфурер Мюллер, когда говорил Айсману, что верить в нашей жизни нельзя никому. Мне – можно.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #мэтры, #голос, #нейросеть, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Про дипфейки я тут писал неоднократно, «предсказывая», что довольно скоро эта технология скоро буквально окружит нас со всех сторон. И самый первый вопрос, который у нас будет возникать, когда мы будем сталкиваться с фактически любой информацией будет звучать «а не фейк ли это?».

Вот и Андрей Себрант, директор по стратегическому маркетингу в Яндексе в Форбс пишет, что технология дипфейков станет главной в 2022 году.

В своей практике некоторые уже сталкивались с этим. И чаще всего с не очень красивой стороны, - например со стороны мошенников. А между тем телевизионщики уже лет 5 как используют эту технологию, чтобы не дорого снимать какую-нибудь знаменитость, а просто наложить его лицо на лицо менее известного актера. Сейчас уже за пару часов можно сделать фэйковое видео практически с любым человеком с использованием эффекта замены лица и голоса. Причем так, что понять, что это фейк, будет довольно трудно.

В общем, ближе к Новому году, чаще будем говорить про тренды и грядущее)).

А вот и сама статья, рекомендую почитать

https://www.forbes.ru/tekhnologii/444703-fejkovyj-mir-pocemu-tehnologia-dipfejkov-stanet-glavnoj-v-2022-godu

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #тренды
Еще в 2018-2019 годах я писал и на вебинарах неоднократно говорил и приводил примеры того, как современные технологии генерации и подмены лица и голоса используются в мошеннических схемах. На довольно высоком уровне эти риски изначально воспринимались всерьез, но на бытовом – еще как-то нет.

Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.

Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.

И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.

В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.

Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling