Профайлинг, нейротехнологии и детекции лжи
20.6K subscribers
1.86K photos
267 videos
110 files
1.07K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
Download Telegram
Профильный комитет Госдумы одобрил поправку о лишении свободы до 15 лет за фейки о российских военных. Не буду это комментировать.

Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.

Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.

Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.

Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.

Регистрация здесь:

https://proprofiling.com/dpf

#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
5 простых и бесплатных сервисов, помогающих бороться в фейками, используемых для поиска скрытых деталей и ошибок в изображениях и видео.

1. Forensically
Это набор бесплатных инструментов для анализа изображений.

«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.

2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.

3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.

Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.

4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.

5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.

Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).

KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.

Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.


Перспективы и разработки

В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.

Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.

Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?

Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Как проверить подлинность фото и видео, опубликованного на YouTube: 6 сервисов

FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.

На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).

Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:

YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.

YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.

Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».

Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».

Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».

#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Опубликован большой альманах «Искусственный Интеллект» индекс 2021 года.

Я в последние 5 лет смотрю его довольно пристально, тем более, что в позапрошлом году там было упоминание о нас и о нашей победе в «Новаторе Москвы» в номинации «IT и ИИ».

О искусственном интеллекте в профайлинге я здесь писал довольно много, посмотрите по хештегам. И не только хорошего. Но тем не менее факт есть факт: будущее профайлинга во многом связано именно с ИИ. Его значение будет только увеличиваться, в то время как значение других направлений профайлинга так интенсивно развиваться не будут.

Всем, кто интересуется этой темой будет интересно взглянуть отчет. В том числе и в связи с разговорами о том, что наши IT-специалисты уезжают за рубеж. По своему опыту и кругу общения скажу: да, уезжают. Не все конечно, но чувствительно. А между прочим в РФ всего 400 компаний, занимающихся ИИ. Это капля в море по сравнению с Китаем или США и даже с Бразилией. Тоже самое относительно публикаций по ИИ и патентам.

В общем – расти и развиваться есть куда.

#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
Поэтому очень важно понимать правильность формул, которые зашиты в презентованном «черном ящике» по оценке соцсетей. Такие формулы есть, но они должны быть рецензированы экспертами. И если это все выдержит такое рецензирование – то ОК. Но это – гигантская работа)).

Выводы делайте сами. Но очевидно, что сейчас в соцсетях надо быть аккуратней. Я говорю не только о довольно большом количестве дел и даже реальных посадках за пост в соцсетях. Например бОльшая часть аккаунтов в ВК уже идентифицированно и связано с конкретным, точно определенным пользователем. Ну а если трудно достоверно идентифицировать пользователя в других соцсетях, то на крайний случай, их можно запретить.

#профайлинг, #цифровойпрофайлинг, #технологии, #общественнаябезопасность, #экспертиза, #соцсети, #Филатов, #ProProfiling
Аудиокарта эмоций.

Всех с завершением пятницы! И вот вам учебно-развлекательный пост!

В конце прошлого года появилось интересное исследование, посвященное картированию аудиальных эмоциональных выражений. Взгляните - весьма занятно получилось!

Если вы следите за каналом, то классический атлас эмоций П.Экмана, вы уже видели. И вот, похоже появляется нечто подобное, но со звуком. Точнее – с голосом.

Сегодня создание хороших голосовых анализаторов является самым перспективным направлением в автоматизации профилирования и умение определить не просто базовую эмоцию, а их процентную комбинацию (читай – эмоциональное состояние) сильно бы пригодилось.

Карта показывает взаимосвязи и переходы 24 основных эмоциональных состояний в голосе, характеризируя их при этом по 13-ти критериям, например – уверенность, доминантность, возбуждение, надежность и прочие. Как минус, стоит сказать, что эта карта появилась путем записи и анализа образцов голоса всего 56 человек, что, конечно, мало. Однако этих образцов было более 3.000.

Посмотрите и послушайте звуки на интерактивной карте по ссылке. Потренируйтесь. Поспрашивайте себя, как бы вы категоризировали те звуки, которые услышите и сравните их с описанием: это весьма полезно для улучшения аудиальной калибровки. Тренироваться лучше на десктопе, на телефоне – простая трата времени.
Я иногда открываю себе эту карту и "загружаю" в себя нужные эмоции.

Довольно давно я рассказывал про CLEESE – программе оценки и модификации психологической окраски речи. Ее алгоритм я считаю более перспективным, поскольку он сочетает в себе компьютерное обучение на основе гораздо большего количества образцов голоса, модифицированных на основе экспертного и компьютерного анализа. CLEESE позволяет модифицировать голос под специальные требования пользователя – сделать его, например, более агрессивным, доверительным, теплым и прочее.

С CLEESE и ее разработчиками я познакомился в Глазго 4 года назад на форуме CERE-2018 где они представляли свою работу и очень замечательно, что мы с ними продолжаем общение даже сейчас в текущей ситуации.

#голос, #эмоции, #технологии, #приложения, #программы, #профайлинг, #исследования, #мэтры, #ProProfiling, #Филатов
Сегодня уже давно не секрет, что по голосу пациентов можно диагностировать целые спектры заболеваний — среди них болезнь Альцгеймера, инсульт, пневмония, депрессия, шизофрения, аутизм и ещё ряд других. Благодаря машинному обучению можно выявлять подобные нарушения с довольно высокой точностью, анализируя интонации человека.

Такие исследования уже проводятся — например, ученые из MIT диагностировали депрессию и тревогу по дрожанию голоса. Причем содержане речи не учитывалось. Теперь национальные институты здравоохранения США выделили 14 миллионов долларов (!) на новую ИИ-систему для диагностики болезней по голосу. Отрасль движется семимильными шагами, поэтому скоро врачи смогут диагностировать серьезные заболевания благодаря ML-анализу речи!

#голос, #нейросеть, #невербалика, #патология, #технологии
ТЕОРИЯ СОЗНАНИЯ

Если вдруг сегодня вечером кому-нибудь не будет хватать нейро-когнитивной нагрузки, то рекомендую почитать перевод статьи, опубликованную в мае 2022 года в Nature мэтров изучения сознания Anil K. Seth и Tim Bayne. Тема изучения сознания и того, как все это связано с мозгом – ключевая дискуссия в общей теории мозга.

Наши мэтры, тоже кстати, многое сделали для развития общей теории мозга, последние публикации на эту тему у Константина Анохина.

#голос, #нейросеть, #невербалика, #патология, #технологии
Делая вывод, уверен, что мы еще услышим о десятках таких разработках прежде, чем технология дойдет до приемлемого качества. Но мы до этого, скорее всего доживем. Если крупная профессиональная команда будет заниматься только этой задачей длительное время, то задача может быть решаемой.

#профайлинг, #технологии, #детекторлжи, #полиграф, #фейки, #исследования, #Филатов, #ProProfiling
Как вы видите, наделавшая в последние пару месяцев шуму нейросеть ChatGPT с искусственным интеллектом вполне вразумительно отвечает на вопросы о психологии и даже полиграфе.

Если делать краткосрочные выводы, то теперь понятно, откуда школьники и студенты будут списывать экзамены. А если смотреть чуть дальше, то по сути мы являемся свидетелями начала большой трансформации околопоисковой индустрии Интернета. И не только его.

Неделю назад эта нейросеть сдала MBA-экзамен одной из самых крутых бизнес-школ мира – Уортон. И система эта активно развивается. Получить доступ к такой информации теперь можно в несколько кликов. Так что в удивительное время мы с вами живем, а предстоящее будет еще более удивительней.

#ИИ, #технологии, #профайлинг
Еще в 2018-2019 годах я писал и на вебинарах неоднократно говорил и приводил примеры того, как современные технологии генерации и подмены лица и голоса используются в мошеннических схемах. На довольно высоком уровне эти риски изначально воспринимались всерьез, но на бытовом – еще как-то нет.

Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.

Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.

И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.

В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.

Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling
6. Психологи, чтобы хоть как-то повлиять на то будущее, которое наступает, должны интенсифицировать исследования в области нейронауки эмпатии, формализовывать результаты этих исследований в виде вычислительных моделей и скооперироваться с создателями больших языковых можелей, чтобы хоть как-то иметь возможность повлиять на воспитание AGI в более эмпатийную, человеческую сторону, подтолкнуть эти модели в гуманистическую парадигму. Чем больше GPT5/6 будет воспитана именно в таком ключе, тем больше шансов, что AGI/ASI будет более похожа на человеческий. Поэтому уже скоро нам нужны профессии не просто воспитателей, а воспитателей ИИ.

#ИИ, #технологии, #будущее, #профайлинг
Несколько приоткрою занавес к моему докладу на МКС про инновации в профайлинге.

Многие из нас уверены, что способны очень точно оценивать ложь и обман со стороны соискателей в ходе собеседования.

В среднем, человек считает, что способен распознать обман в интервью с точностью 80% (Roulin et al., 2014). На деле это не так — необученные интервьюеры распознают ложь с точностью 54%, а обученные — до 65% (Melchers, 2019). Но искусственный интеллект начинает менять и эту область (Forsyth, & Anglim, 2020).

Программа LIWC (Linguistic Inquiry and Word Count) анализирует посты в Твиттере, автобиографические эссе, выступления политиков и даже предсмертные записки. Исследователи применили её к текстовым эссе соискателей. Они попросили кандидатов рассказать про значимое достижение и свои навыки межличностной коммуникации: сначала правдиво, а потом соврать. Затем они проанализировали честные и выдуманные ответы кандидатов с помощью LIWC и определили, какие слова и выражения могут указывать на обман.

Итог достаточно предсказуем: машину обмануть сложнее, чем человека. Приукрашенные тексты распознавались искусственным интеллектом с точностью в 71%. И это причем данные 2015 года. На 2023 год разработчики декларируют точность в 89%.

Некоторые признаки, по которым можно определить обман в тексте:
1. Меньше личных местоимений. Возможно, это связано с тем, что кандидаты пытаются дистанцироваться от своей выдуманной истории.

2. Более скудное описание: больше глаголов действия и меньше союзов. Это связано с тем, что обман требует более высоких умственных нагрузок, от которых люди устают (Granhag et al.,2015).

#профайлинг, #обман, #интервью, #технологии, #ИИ, #ProProfiling, #статья
Еще в 2018 году я писал о том, что в обозримой перспективе качество видео-фейков будет сопоставимо с реальными видео. Многие тогда просто улыбались.

Вчера OPEN AI анонсировало выход нейросети SORA, которая текст преобразует в видео. Достаточно просто написать сценарий ролика и вуаля - видео готово. Примеры посмотрите здесь. Еще пройдет около года прежде чем технология будет отработана и выйдет в рутину.

И вот тогда начнется.. Сгенерированные видео-доказательства чего-либо, например будут влиять не только на мнения специалистов, но и широких масс. Примеры подделки видео-записей для доказательств в суде начались с 2019 года, а с этого года практика явно станет массовой. И не только для суда, а просто для ТВ. А про видео-звонки мошенников в WhatsAppe с целью развода граждан я вообще молчу.

И, как я тоже писал, граница между правдой и ложью совсем размоется… И чтобы отличить правду от лжи уже будет недостаточно просто знать признаки обмана, а нужно будет хорошо разбираться в когнитивных искажениях и в том, как наш мозг убеждает себя в чем-либо.

В общем, вызовов становится все больше и без качественного профайлинга нам всем можно будет утонуть в мире фейка.

А по сему, желаю всем отличных выходных и изучения качественного профайлинга)).

#профайлинг, #технологии, #фейк
Немного важных техноновостей

С месяц тому назад появилась нейросеть Arcads.ai, позволяющая, как говорят разработчики, генерировать реалистичные видео с человеком, говорящим заданный текст. И в тестовых видео все выглядит очень неплохо: если сильно не всматриваться, то понять, что образ сгенерирован довольно трудно. На видео хорошая экспрессия, эмоции, жестикуляция, необходимые интонации.

Разработчики призвали использовать нейросеть в маркетинговых целях – генерировать видео-отзывы или рекламу, в которой бы рассказывалось о тех или иных товарах. И в этом плане обыватель точно не отличит сгенерированное видео от реального. При этом нейросеть может создавать видео и на русском языке.

Как работает нейросеть? Ты выбираешь лицо, которое будет говорить (пока предлалают 25 вариантов), контекст и ситуация, на фоне которой будет производиться видео (пока их около 10-ти), загружаешь текст и вуяля – через пару минут получаешь видео.

К сожалению, понятно, что все это будет использоваться в качестве производства фейков – теперь писать видеоотзывы будут не люди, а нейросеть.

Однако arcads.ai сломалась))). По крайней мере так говорится на ее сайте и даже абонемент в 100$ в месяц не решает проблему. Хотя разработчики деньги вернули, не нейросеть все еще лечится)).

При этом буквально вчера Microsoft выложила свою версию подобной нейросети. Видно, что она слеплена на быструю руку и генерирует видео пока не идеально, Но… То, за что всерьез берется Microsoft доводится до совершенства и прибыльного бизнеса. Понятно, что скоро технологию отработают и выпустят в релиз. И Интернет, даже русскоязычный, наводнит куча видео, сгенерированных нейросетью, в которых клиенты рассказывают, о том, какой прекрасный они недавно купили телефон, автомобиль, пылесос или марафон желаний)). К тому же само лицо может быть вашим: вы сами можете рассказывать об этих покупках)) Или просить деньги у знакомых и родственников).

Проблема будет только в том, что детекция лжи в таких видео будет непредсказуема и отличаться от детекции лжи в реально записанном видео.

#технологии, #фейки, #видео, #будущеездесь
Кадровый профайлинг и искусственный интеллект (ИИ).

Пару месяцев назад опубликовано исследование о критериальной валидности и ретестовой надежности видео-интервью с оценкой кандидата с помощью ИИ.

И результаты этого исследования говорят, что и валидность, и надежность такой оценки велика. Как минимум допустима для использования на практике.

Сегодня этим уже никого не удивишь. Во время, а особенно после ковида это стало практически неотделимой HR-практикой, в ходе которой соискатель проходит интервью, на котором отвечает на важные вопросы и кейсы, рассказывает о себе, своем опыте и прочее. В общем, - все то же самое, что и в очном формате, но онлайн. Однако собеседование проводит робот (или человек), который потом оценивает соискателя по нескольким характеристикам, начиная от BIG5 и заканчивая социально-психологическими компетентностями. Производится оценка речи, эмоций, голосовых характеристик и даже в некоторых случаях – жестов. В результате дается некоторое писание кандидата и рекомендации для рекрутера.

Я еще в доковидные времена занимался этим и на нас тогда смотрели со скепсисом, и вот прошло 5 лет и все это превратилось в реальность.

Кто хочет – почитайте саму статью на сайте APA, а кому нужен сразу спойлер – сообщаю, что машина оказывается более стабильной и непредвзятой в оценке ряда качеств соискателя, оценивая при этом то, что ей сказали оценивать (а не просто – «нравится или не нравится»).

У всего этого есть понятные ограничения и в плане психологии, и в организации и в этике, но сегодня не смотря на все это технология активно развивается и внедряется в передовые HR-практики. На предыдущем МКС я рассказывал о основных HR-компаниях, занимающихся такими направлениями и об их успехах в этой области. И успехи эти есть (1, 2, 3). Таким образом, происходит постепенная легализация ИИ-инструментов оценки со стороны научного сообщества.

#HR, #кадровыйпрофайлинг, #ИИ, #персонал, #технологии, #профайлинг