Профайлинг, нейротехнологии и детекции лжи
21.4K subscribers
1.97K photos
286 videos
117 files
1.11K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
Download Telegram
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

И вот буквально на днях, израильские учёные показали систему FSGAN, которая способна правдоподобно менять лица на видео в реальном времени.
Система берёт видео с одним человеком и переносит его мимику и жесты на другого. При этом FSGAN достаточно одной фотографии цели, чтобы заставить её говорить всё, что угодно.

Пока технология работает неидеально: лица то и дело смешиваются, появляются артефакты. Но стоит доработать систему — и всё, можно пускать фейковые новости в прямой эфир. И никто не усомнится в их правдивости.

Если вы считаете, что это вас не касается, то ждите, что через год-два вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

По ссылке – видео с демонстрацией FSGAN.
https://www.youtube.com/watch?v=BsITEVX6hkE


Сейчас в интернете один из мэйнстримов – пересаживать лица известных людей в культовые фильмы. Если раньше в основном таким образом прикалывались исключительно над Обамой, то сейчас можно встретить Путина, Трампа, Илона Маска, Тома Круза, Николаса Кейджа, Киану Ривза и многих других. Сейчас вам накидаю таких примеров – взгляните, это интересно и реалистично.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
5) Объявленная победа над Deep Fake мне кажется преждевременной. Речь идет о недавно выпущенном продукту Adobe – About Face, предназначенному для выявления факта применения ретуши при обработке фотографий. Его работа основана на фирменном искусственном интеллекте компании «Sensei», который обеспечивает (на текущий момент) 99 % точность распознавания фейков.

Увы, узкое место About Face – это привязка к программным продуктам самой Adobe. Если точнее, ИИ умеет работать только с файлами из программы Photoshop и выявляет только те коррекции, которые были произведены инструментом Face-Aware Liquify – фильтром, с помощью которого создаются далеко не все фейки.

https://www.techcult.ru/soft/7547-adobe-vypustila-instrument-about-face

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Недавно два стартапа, специализирующиеся на машинном обучении для генерации того, что принято называть deep fake, объединили свои усилия.

Новозеландско-американская компания UneeQ, занимающаяся разработкой трехмерных изображений и чат-ботов с использованием технологии искусственного интеллекта, создала ресурс с виртуальной версией всемирно известного физика Альберта Эйнштейна.

На сайте представлено лицо ученого, которое умеет не только реалистично двигаться, но и разговаривать голосом, максимально приближенным к реальному. За звуковую сторону ресурса отвечаетвторой стартап Aflorithmic - лондонская студия разработки аудио-контента.

Зайдя на ресурс, с ученым можно “побеседовать” с помощью специального чата Digital Einstein. Для его запуска нужно нажать на кнопку Let’s chat, после чего сайт запросит разрешение на использование микрофона, через который пользователь может озвучить свой вопрос. Дипфейк-версия Эйнштейна умеет поддерживать разговоры на разные темы, среди которых - наука, исследования, работа.

Впрочем, TechCrunch в длинной и немного ворчливой статье справедливо замечает, что скорее нам показали будущее коммерческих чат-ботов, которые будут нам что-нибудь впаривать. И, вероятно, делать это действительно эффективно.

А еще одно из существенных опасений этого заключается в том, что deepfake все более активно используются с целью дезинформации и обмана. И это уже в ближайшем будущем может стать колоссальной проблемой. В частности, буквально пару месяцев назад в штатах был скандал из-за того, что простая американка заказала и опубликовала мягко сказать порочные deepfake видео соперниц своей дочери по важному конкурсу для того, чтобы их исключили из числа участниц этого конкурса. Хорошая многоходовочка)). И это только начало.

Ну а случаи использования дипфэйков для поздравлений и генерации порновидео уже становятся рутинными. Примеры этого можно посмотреть здесь, здесь, здесь и здесь.

Ждем применения таких технологий в том числе и целью обмана. В общем, правл был группенфурер Мюллер, когда говорил Айсману, что верить в нашей жизни нельзя никому. Мне – можно.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #мэтры, #голос, #нейросеть, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Про дипфейки я тут писал неоднократно, «предсказывая», что довольно скоро эта технология скоро буквально окружит нас со всех сторон. И самый первый вопрос, который у нас будет возникать, когда мы будем сталкиваться с фактически любой информацией будет звучать «а не фейк ли это?».

Вот и Андрей Себрант, директор по стратегическому маркетингу в Яндексе в Форбс пишет, что технология дипфейков станет главной в 2022 году.

В своей практике некоторые уже сталкивались с этим. И чаще всего с не очень красивой стороны, - например со стороны мошенников. А между тем телевизионщики уже лет 5 как используют эту технологию, чтобы не дорого снимать какую-нибудь знаменитость, а просто наложить его лицо на лицо менее известного актера. Сейчас уже за пару часов можно сделать фэйковое видео практически с любым человеком с использованием эффекта замены лица и голоса. Причем так, что понять, что это фейк, будет довольно трудно.

В общем, ближе к Новому году, чаще будем говорить про тренды и грядущее)).

А вот и сама статья, рекомендую почитать

https://www.forbes.ru/tekhnologii/444703-fejkovyj-mir-pocemu-tehnologia-dipfejkov-stanet-glavnoj-v-2022-godu

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #тренды
Профильный комитет Госдумы одобрил поправку о лишении свободы до 15 лет за фейки о российских военных. Не буду это комментировать.

Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.

Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.

Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.

Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.

Регистрация здесь:

https://proprofiling.com/dpf

#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
5 простых и бесплатных сервисов, помогающих бороться в фейками, используемых для поиска скрытых деталей и ошибок в изображениях и видео.

1. Forensically
Это набор бесплатных инструментов для анализа изображений.

«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.

2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.

3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.

Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.

4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.

5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.

Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).

KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.

Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.


Перспективы и разработки

В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.

Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.

Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?

Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Как проверить подлинность фото и видео, опубликованного на YouTube: 6 сервисов

FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.

На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).

Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:

YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.

YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.

Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».

Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».

Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Еще в 2018-2019 годах я писал и на вебинарах неоднократно говорил и приводил примеры того, как современные технологии генерации и подмены лица и голоса используются в мошеннических схемах. На довольно высоком уровне эти риски изначально воспринимались всерьез, но на бытовом – еще как-то нет.

Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.

Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.

И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.

В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.

Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling