Профайлинг, нейротехнологии и детекции лжи
20.6K subscribers
1.86K photos
267 videos
110 files
1.07K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
Download Telegram
Многие из нас уверены, что способны очень точно оценивать ложь и обман со стороны соискателей в ходе собеседования.

В среднем, человек считает, что способен распознать обман в интервью с точностью 80% (Roulin et al., 2014). На деле это не так — необученные интервьюеры распознают ложь с точностью 54%, а обученные — до 65% (Melchers, 2019). Но искусственный интеллект начинает менять и эту область (Forsyth, & Anglim, 2020).

Программа LIWC (Linguistic Inquiry and Word Count) анализирует посты в Твиттере, автобиографические эссе, выступления политиков и даже предсмертные записки. Исследователи применили её к текстовым эссе соискателей. Они попросили кандидатов рассказать про значимое достижение и свои навыки межличностной коммуникации: сначала правдиво, а потом соврать. Затем они проанализировали честные и выдуманные ответы кандидатов с помощью LIWC и определили, какие слова и выражения могут указывать на обман.

Итог достаточно предсказуем: машину обмануть сложнее, чем человека. Приукрашенные тексты распознавались искусственным интеллектом с точностью в 71%.

Признаки, по которым можно определить обман в тексте:
1. Меньше личных местоимений. Возможно, это связано с тем, что кандидаты пытаются дистанцироваться от своей выдуманной истории.

2. Более скудное описание: больше глаголов действия и меньше союзов. Это связано с тем, что обман требует более высоких умственных нагрузок, от которых люди устают (Granhag et al.,2015).

#профайлинг, #обман, #интервью, #технологии, #ИИ, #ProProfiling, #статья
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia научила нейросеть анимировать 3D-модель лица только на основе голоса.

Audio2Face работает как с готовыми аудиофайлами, так и в режиме реального времени. Программа поддерживает четыре языка, включая русский.

Бета-версия Audio2Face с поддержкой русского языка доступна для скачивания.

Демонстрационная версия использует модель персонажа Digital Mark, но для работы можно взять лицо с любыми чертами. Также анимацию, предназначенную для одного персонажа, можно перенести на другого человека. В общем - супер!

Ох, чего только с помощью этого можно будет сделать! ....и плохого, и хорошего.

#технологии, #голос, #лицо, #анимация, #ИИ
В профессиональных кругах не утихают споры вокруг израильской технологии Corsight AI, в конце прошлого года заявившая, что способна по ДНК восстановить образ лица человека.

Компания разрабатывает систему «DNA to Face» — алгоритм, который генерирует фотореалистичное изображения человека на основе его ДНК. Ранее эта технология считалась невозможной, но стартап уверен, что у него получится — он уже привлек финансирование и получил нескольких влиятельных специалистов в свой консультативный совет, включая бывшего директора ЦРУ Джеймса Вулси и бывшего помощника директора ФБР Оливера Ревелла.

Пока не понятно, на что конкретно направлен этот стартап: если только ради денег, то он смог заручиться поддержкой довольно авторитетных ученых и чиновников, которые ранее не были замечены в грязных делах.

Технология, как заявляется, Corsight использует алгоритмы машинного обучения для анализа генетического материала, который может быть извлечен из волос, частиц кожи и ногтей человека. Система автоматически выстраивает физический профиль, составляя таким образом фоторобот — более точное изображение подозреваемого преступника или пропавшего без вести, чем могут составить эксперты-криминалисты по описанию очевидцев.

Как именно работает система — неизвестно, поэтому это все и пахнет простым сбором денег с инвесторов. Стартап отказывается раскрывать данные технологии, ссылаясь на конфиденциальность своего подхода и возможных клиентов в лице государственных органов. Но не все так просто….

Стартап впервые представил свой продукт в 2021 году в рамках презентации на конференции Imperial Capital Investors Conference в Нью-Йорке. И получил хорошие отзывы статусной экспертной комиссии. Которая до этого времени тоже не была замечена ни в чем грязном.

Стоит отметить, что Corsight AI не планирует ограничивать себя в разработке системы «DNA to Face». В дорожной карте стартапа, опубликованной на IPVM, также указаны «Voice to Face» для идентификации возможных преступников по голосу и система идентификации походки.

При этом, технологии Spech2Face уже есть и работают хоть и плохо, но работают. Еще в 2019 году была представлена вполне рабочая версия, которая в 2020 была куплена NVIDIA, которая сейчас активно развивает это направление.

В общем, посмотрим, во что все это выльется: пока не понятно. Я пока точно не знаю, но что-то в этом точно должно быть: как минимум расу, пол, возраст, национальность и ряд базовых внешних параметров определить по ДНК скорее можно, чем нельзя.

#технологии, #AI, #техногиганты, #безопасность, #лицо, #голос, #нейросеть, #профайлинг, #криминалитика, #Филатов, #ProProfiling.
Профильный комитет Госдумы одобрил поправку о лишении свободы до 15 лет за фейки о российских военных. Не буду это комментировать.

Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.

Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.

Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.

Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.

Регистрация здесь:

https://proprofiling.com/dpf

#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
5 простых и бесплатных сервисов, помогающих бороться в фейками, используемых для поиска скрытых деталей и ошибок в изображениях и видео.

1. Forensically
Это набор бесплатных инструментов для анализа изображений.

«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.

2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.

3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.

Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.

4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.

5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.

Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).

KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.

Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.


Перспективы и разработки

В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.

Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.

Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?

Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Как проверить подлинность фото и видео, опубликованного на YouTube: 6 сервисов

FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.

На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).

Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:

YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.

YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.

Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».

Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».

Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Опубликован большой альманах «Искусственный Интеллект» индекс 2021 года.

Я в последние 5 лет смотрю его довольно пристально, тем более, что в позапрошлом году там было упоминание о нас и о нашей победе в «Новаторе Москвы» в номинации «IT и ИИ».

О искусственном интеллекте в профайлинге я здесь писал довольно много, посмотрите по хештегам. И не только хорошего. Но тем не менее факт есть факт: будущее профайлинга во многом связано именно с ИИ. Его значение будет только увеличиваться, в то время как значение других направлений профайлинга так интенсивно развиваться не будут.

Всем, кто интересуется этой темой будет интересно взглянуть отчет. В том числе и в связи с разговорами о том, что наши IT-специалисты уезжают за рубеж. По своему опыту и кругу общения скажу: да, уезжают. Не все конечно, но чувствительно. А между прочим в РФ всего 400 компаний, занимающихся ИИ. Это капля в море по сравнению с Китаем или США и даже с Бразилией. Тоже самое относительно публикаций по ИИ и патентам.

В общем – расти и развиваться есть куда.

#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling