5 простых и бесплатных сервисов, помогающих бороться в фейками, используемых для поиска скрытых деталей и ошибок в изображениях и видео.
1. Forensically
Это набор бесплатных инструментов для анализа изображений.
«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.
2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.
3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.
Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.
4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.
5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.
Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).
KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.
Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.
Перспективы и разработки
В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.
Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.
Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?
Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
1. Forensically
Это набор бесплатных инструментов для анализа изображений.
«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.
2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.
3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.
Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.
4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.
5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.
Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).
KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.
Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.
Перспективы и разработки
В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.
Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.
Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?
Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
29a.ch
Forensically, free online photo forensics tools
Forensically is a set of free tools for digital image forensics. It includes clone detection, error level analysis, meta data extraction and more.
Как проверить подлинность фото и видео, опубликованного на YouTube: 6 сервисов
FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.
На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).
Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:
YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.
YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.
Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».
Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».
Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.
На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).
Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:
YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.
YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.
Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».
Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».
Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
mattw.io
Location Search - Discover Geo-tagged Videos - MW Geofind
Search YouTube for geographically tagged videos by location, topic, or channel. Videos are viewable in a map and data exportable in JSON and CSV.
Опубликован большой альманах «Искусственный Интеллект» индекс 2021 года.
Я в последние 5 лет смотрю его довольно пристально, тем более, что в позапрошлом году там было упоминание о нас и о нашей победе в «Новаторе Москвы» в номинации «IT и ИИ».
О искусственном интеллекте в профайлинге я здесь писал довольно много, посмотрите по хештегам. И не только хорошего. Но тем не менее факт есть факт: будущее профайлинга во многом связано именно с ИИ. Его значение будет только увеличиваться, в то время как значение других направлений профайлинга так интенсивно развиваться не будут.
Всем, кто интересуется этой темой будет интересно взглянуть отчет. В том числе и в связи с разговорами о том, что наши IT-специалисты уезжают за рубеж. По своему опыту и кругу общения скажу: да, уезжают. Не все конечно, но чувствительно. А между прочим в РФ всего 400 компаний, занимающихся ИИ. Это капля в море по сравнению с Китаем или США и даже с Бразилией. Тоже самое относительно публикаций по ИИ и патентам.
В общем – расти и развиваться есть куда.
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
Я в последние 5 лет смотрю его довольно пристально, тем более, что в позапрошлом году там было упоминание о нас и о нашей победе в «Новаторе Москвы» в номинации «IT и ИИ».
О искусственном интеллекте в профайлинге я здесь писал довольно много, посмотрите по хештегам. И не только хорошего. Но тем не менее факт есть факт: будущее профайлинга во многом связано именно с ИИ. Его значение будет только увеличиваться, в то время как значение других направлений профайлинга так интенсивно развиваться не будут.
Всем, кто интересуется этой темой будет интересно взглянуть отчет. В том числе и в связи с разговорами о том, что наши IT-специалисты уезжают за рубеж. По своему опыту и кругу общения скажу: да, уезжают. Не все конечно, но чувствительно. А между прочим в РФ всего 400 компаний, занимающихся ИИ. Это капля в море по сравнению с Китаем или США и даже с Бразилией. Тоже самое относительно публикаций по ИИ и патентам.
В общем – расти и развиваться есть куда.
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
aireport.ru
Альманах по Искусственному Интеллекту
Альманах по Искусственному Интеллекту. Главная тема первого номера Стратегия - в отчете проводится анализ ситуации в мире, обзор стратегий основных стран в области ИИ и обсуждается возможная стратегия России в области ИИ.
Индекс-ИИ-2021.pdf
8.8 MB
А вот и сам Альманах.
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
#ИИ, #технологии, #BigData, #развитие, #ITгиганты, #прогностика, #аналитика, #BigData, #профайлинг_филатов, #ProProfiling
Поэтому очень важно понимать правильность формул, которые зашиты в презентованном «черном ящике» по оценке соцсетей. Такие формулы есть, но они должны быть рецензированы экспертами. И если это все выдержит такое рецензирование – то ОК. Но это – гигантская работа)).
Выводы делайте сами. Но очевидно, что сейчас в соцсетях надо быть аккуратней. Я говорю не только о довольно большом количестве дел и даже реальных посадках за пост в соцсетях. Например бОльшая часть аккаунтов в ВК уже идентифицированно и связано с конкретным, точно определенным пользователем. Ну а если трудно достоверно идентифицировать пользователя в других соцсетях, то на крайний случай, их можно запретить.
#профайлинг, #цифровойпрофайлинг, #технологии, #общественнаябезопасность, #экспертиза, #соцсети, #Филатов, #ProProfiling
Выводы делайте сами. Но очевидно, что сейчас в соцсетях надо быть аккуратней. Я говорю не только о довольно большом количестве дел и даже реальных посадках за пост в соцсетях. Например бОльшая часть аккаунтов в ВК уже идентифицированно и связано с конкретным, точно определенным пользователем. Ну а если трудно достоверно идентифицировать пользователя в других соцсетях, то на крайний случай, их можно запретить.
#профайлинг, #цифровойпрофайлинг, #технологии, #общественнаябезопасность, #экспертиза, #соцсети, #Филатов, #ProProfiling
Аудиокарта эмоций.
Всех с завершением пятницы! И вот вам учебно-развлекательный пост!
В конце прошлого года появилось интересное исследование, посвященное картированию аудиальных эмоциональных выражений. Взгляните - весьма занятно получилось!
Если вы следите за каналом, то классический атлас эмоций П.Экмана, вы уже видели. И вот, похоже появляется нечто подобное, но со звуком. Точнее – с голосом.
Сегодня создание хороших голосовых анализаторов является самым перспективным направлением в автоматизации профилирования и умение определить не просто базовую эмоцию, а их процентную комбинацию (читай – эмоциональное состояние) сильно бы пригодилось.
Карта показывает взаимосвязи и переходы 24 основных эмоциональных состояний в голосе, характеризируя их при этом по 13-ти критериям, например – уверенность, доминантность, возбуждение, надежность и прочие. Как минус, стоит сказать, что эта карта появилась путем записи и анализа образцов голоса всего 56 человек, что, конечно, мало. Однако этих образцов было более 3.000.
Посмотрите и послушайте звуки на интерактивной карте по ссылке. Потренируйтесь. Поспрашивайте себя, как бы вы категоризировали те звуки, которые услышите и сравните их с описанием: это весьма полезно для улучшения аудиальной калибровки. Тренироваться лучше на десктопе, на телефоне – простая трата времени.
Я иногда открываю себе эту карту и "загружаю" в себя нужные эмоции.
Довольно давно я рассказывал про CLEESE – программе оценки и модификации психологической окраски речи. Ее алгоритм я считаю более перспективным, поскольку он сочетает в себе компьютерное обучение на основе гораздо большего количества образцов голоса, модифицированных на основе экспертного и компьютерного анализа. CLEESE позволяет модифицировать голос под специальные требования пользователя – сделать его, например, более агрессивным, доверительным, теплым и прочее.
С CLEESE и ее разработчиками я познакомился в Глазго 4 года назад на форуме CERE-2018 где они представляли свою работу и очень замечательно, что мы с ними продолжаем общение даже сейчас в текущей ситуации.
#голос, #эмоции, #технологии, #приложения, #программы, #профайлинг, #исследования, #мэтры, #ProProfiling, #Филатов
Всех с завершением пятницы! И вот вам учебно-развлекательный пост!
В конце прошлого года появилось интересное исследование, посвященное картированию аудиальных эмоциональных выражений. Взгляните - весьма занятно получилось!
Если вы следите за каналом, то классический атлас эмоций П.Экмана, вы уже видели. И вот, похоже появляется нечто подобное, но со звуком. Точнее – с голосом.
Сегодня создание хороших голосовых анализаторов является самым перспективным направлением в автоматизации профилирования и умение определить не просто базовую эмоцию, а их процентную комбинацию (читай – эмоциональное состояние) сильно бы пригодилось.
Карта показывает взаимосвязи и переходы 24 основных эмоциональных состояний в голосе, характеризируя их при этом по 13-ти критериям, например – уверенность, доминантность, возбуждение, надежность и прочие. Как минус, стоит сказать, что эта карта появилась путем записи и анализа образцов голоса всего 56 человек, что, конечно, мало. Однако этих образцов было более 3.000.
Посмотрите и послушайте звуки на интерактивной карте по ссылке. Потренируйтесь. Поспрашивайте себя, как бы вы категоризировали те звуки, которые услышите и сравните их с описанием: это весьма полезно для улучшения аудиальной калибровки. Тренироваться лучше на десктопе, на телефоне – простая трата времени.
Я иногда открываю себе эту карту и "загружаю" в себя нужные эмоции.
Довольно давно я рассказывал про CLEESE – программе оценки и модификации психологической окраски речи. Ее алгоритм я считаю более перспективным, поскольку он сочетает в себе компьютерное обучение на основе гораздо большего количества образцов голоса, модифицированных на основе экспертного и компьютерного анализа. CLEESE позволяет модифицировать голос под специальные требования пользователя – сделать его, например, более агрессивным, доверительным, теплым и прочее.
С CLEESE и ее разработчиками я познакомился в Глазго 4 года назад на форуме CERE-2018 где они представляли свою работу и очень замечательно, что мы с ними продолжаем общение даже сейчас в текущей ситуации.
#голос, #эмоции, #технологии, #приложения, #программы, #профайлинг, #исследования, #мэтры, #ProProfiling, #Филатов
Telegram
Профайлинг, нейротехнологии и детекции лжи
Вышло обновление атласа эмоций Пола Экмана!
Из атласа вы узнаете из первисточника о базовых эмоциях и их разновидностях со стратегиями работы с ними!
http://atlasofemotions.org/
#Экман, #эмоции, #мэтры, #профайлинг
Из атласа вы узнаете из первисточника о базовых эмоциях и их разновидностях со стратегиями работы с ними!
http://atlasofemotions.org/
#Экман, #эмоции, #мэтры, #профайлинг
Сегодня уже давно не секрет, что по голосу пациентов можно диагностировать целые спектры заболеваний — среди них болезнь Альцгеймера, инсульт, пневмония, депрессия, шизофрения, аутизм и ещё ряд других. Благодаря машинному обучению можно выявлять подобные нарушения с довольно высокой точностью, анализируя интонации человека.
Такие исследования уже проводятся — например, ученые из MIT диагностировали депрессию и тревогу по дрожанию голоса. Причем содержане речи не учитывалось. Теперь национальные институты здравоохранения США выделили 14 миллионов долларов (!) на новую ИИ-систему для диагностики болезней по голосу. Отрасль движется семимильными шагами, поэтому скоро врачи смогут диагностировать серьезные заболевания благодаря ML-анализу речи!
#голос, #нейросеть, #невербалика, #патология, #технологии
Такие исследования уже проводятся — например, ученые из MIT диагностировали депрессию и тревогу по дрожанию голоса. Причем содержане речи не учитывалось. Теперь национальные институты здравоохранения США выделили 14 миллионов долларов (!) на новую ИИ-систему для диагностики болезней по голосу. Отрасль движется семимильными шагами, поэтому скоро врачи смогут диагностировать серьезные заболевания благодаря ML-анализу речи!
#голос, #нейросеть, #невербалика, #патология, #технологии
The Register
US throws millions at AI to diagnose diseases by the sound of your voice
Speech can be impacted by cancer, Parkinson's, depression, and more
ТЕОРИЯ СОЗНАНИЯ
Если вдруг сегодня вечером кому-нибудь не будет хватать нейро-когнитивной нагрузки, то рекомендую почитать перевод статьи, опубликованную в мае 2022 года в Nature мэтров изучения сознания Anil K. Seth и Tim Bayne. Тема изучения сознания и того, как все это связано с мозгом – ключевая дискуссия в общей теории мозга.
Наши мэтры, тоже кстати, многое сделали для развития общей теории мозга, последние публикации на эту тему у Константина Анохина.
#голос, #нейросеть, #невербалика, #патология, #технологии
Если вдруг сегодня вечером кому-нибудь не будет хватать нейро-когнитивной нагрузки, то рекомендую почитать перевод статьи, опубликованную в мае 2022 года в Nature мэтров изучения сознания Anil K. Seth и Tim Bayne. Тема изучения сознания и того, как все это связано с мозгом – ключевая дискуссия в общей теории мозга.
Наши мэтры, тоже кстати, многое сделали для развития общей теории мозга, последние публикации на эту тему у Константина Анохина.
#голос, #нейросеть, #невербалика, #патология, #технологии
Nature
Theories of consciousness
Nature Reviews Neuroscience - Various theories have been developed for the biological and physical basis of consciousness. In this Review, Anil Seth and Tim Bayne discuss four prominent theoretical...
Делая вывод, уверен, что мы еще услышим о десятках таких разработках прежде, чем технология дойдет до приемлемого качества. Но мы до этого, скорее всего доживем. Если крупная профессиональная команда будет заниматься только этой задачей длительное время, то задача может быть решаемой.
#профайлинг, #технологии, #детекторлжи, #полиграф, #фейки, #исследования, #Филатов, #ProProfiling
#профайлинг, #технологии, #детекторлжи, #полиграф, #фейки, #исследования, #Филатов, #ProProfiling
Как вы видите, наделавшая в последние пару месяцев шуму нейросеть ChatGPT с искусственным интеллектом вполне вразумительно отвечает на вопросы о психологии и даже полиграфе.
Если делать краткосрочные выводы, то теперь понятно, откуда школьники и студенты будут списывать экзамены. А если смотреть чуть дальше, то по сути мы являемся свидетелями начала большой трансформации околопоисковой индустрии Интернета. И не только его.
Неделю назад эта нейросеть сдала MBA-экзамен одной из самых крутых бизнес-школ мира – Уортон. И система эта активно развивается. Получить доступ к такой информации теперь можно в несколько кликов. Так что в удивительное время мы с вами живем, а предстоящее будет еще более удивительней.
#ИИ, #технологии, #профайлинг
Если делать краткосрочные выводы, то теперь понятно, откуда школьники и студенты будут списывать экзамены. А если смотреть чуть дальше, то по сути мы являемся свидетелями начала большой трансформации околопоисковой индустрии Интернета. И не только его.
Неделю назад эта нейросеть сдала MBA-экзамен одной из самых крутых бизнес-школ мира – Уортон. И система эта активно развивается. Получить доступ к такой информации теперь можно в несколько кликов. Так что в удивительное время мы с вами живем, а предстоящее будет еще более удивительней.
#ИИ, #технологии, #профайлинг
Еще в 2018-2019 годах я писал и на вебинарах неоднократно говорил и приводил примеры того, как современные технологии генерации и подмены лица и голоса используются в мошеннических схемах. На довольно высоком уровне эти риски изначально воспринимались всерьез, но на бытовом – еще как-то нет.
Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.
Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.
И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.
В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.
Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling
Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.
Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.
И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.
В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.
Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling
6. Психологи, чтобы хоть как-то повлиять на то будущее, которое наступает, должны интенсифицировать исследования в области нейронауки эмпатии, формализовывать результаты этих исследований в виде вычислительных моделей и скооперироваться с создателями больших языковых можелей, чтобы хоть как-то иметь возможность повлиять на воспитание AGI в более эмпатийную, человеческую сторону, подтолкнуть эти модели в гуманистическую парадигму. Чем больше GPT5/6 будет воспитана именно в таком ключе, тем больше шансов, что AGI/ASI будет более похожа на человеческий. Поэтому уже скоро нам нужны профессии не просто воспитателей, а воспитателей ИИ.
#ИИ, #технологии, #будущее, #профайлинг
#ИИ, #технологии, #будущее, #профайлинг
Несколько приоткрою занавес к моему докладу на МКС про инновации в профайлинге.
Многие из нас уверены, что способны очень точно оценивать ложь и обман со стороны соискателей в ходе собеседования.
В среднем, человек считает, что способен распознать обман в интервью с точностью 80% (Roulin et al., 2014). На деле это не так — необученные интервьюеры распознают ложь с точностью 54%, а обученные — до 65% (Melchers, 2019). Но искусственный интеллект начинает менять и эту область (Forsyth, & Anglim, 2020).
Программа LIWC (Linguistic Inquiry and Word Count) анализирует посты в Твиттере, автобиографические эссе, выступления политиков и даже предсмертные записки. Исследователи применили её к текстовым эссе соискателей. Они попросили кандидатов рассказать про значимое достижение и свои навыки межличностной коммуникации: сначала правдиво, а потом соврать. Затем они проанализировали честные и выдуманные ответы кандидатов с помощью LIWC и определили, какие слова и выражения могут указывать на обман.
Итог достаточно предсказуем: машину обмануть сложнее, чем человека. Приукрашенные тексты распознавались искусственным интеллектом с точностью в 71%. И это причем данные 2015 года. На 2023 год разработчики декларируют точность в 89%.
Некоторые признаки, по которым можно определить обман в тексте:
1. Меньше личных местоимений. Возможно, это связано с тем, что кандидаты пытаются дистанцироваться от своей выдуманной истории.
2. Более скудное описание: больше глаголов действия и меньше союзов. Это связано с тем, что обман требует более высоких умственных нагрузок, от которых люди устают (Granhag et al.,2015).
#профайлинг, #обман, #интервью, #технологии, #ИИ, #ProProfiling, #статья
Многие из нас уверены, что способны очень точно оценивать ложь и обман со стороны соискателей в ходе собеседования.
В среднем, человек считает, что способен распознать обман в интервью с точностью 80% (Roulin et al., 2014). На деле это не так — необученные интервьюеры распознают ложь с точностью 54%, а обученные — до 65% (Melchers, 2019). Но искусственный интеллект начинает менять и эту область (Forsyth, & Anglim, 2020).
Программа LIWC (Linguistic Inquiry and Word Count) анализирует посты в Твиттере, автобиографические эссе, выступления политиков и даже предсмертные записки. Исследователи применили её к текстовым эссе соискателей. Они попросили кандидатов рассказать про значимое достижение и свои навыки межличностной коммуникации: сначала правдиво, а потом соврать. Затем они проанализировали честные и выдуманные ответы кандидатов с помощью LIWC и определили, какие слова и выражения могут указывать на обман.
Итог достаточно предсказуем: машину обмануть сложнее, чем человека. Приукрашенные тексты распознавались искусственным интеллектом с точностью в 71%. И это причем данные 2015 года. На 2023 год разработчики декларируют точность в 89%.
Некоторые признаки, по которым можно определить обман в тексте:
1. Меньше личных местоимений. Возможно, это связано с тем, что кандидаты пытаются дистанцироваться от своей выдуманной истории.
2. Более скудное описание: больше глаголов действия и меньше союзов. Это связано с тем, что обман требует более высоких умственных нагрузок, от которых люди устают (Granhag et al.,2015).
#профайлинг, #обман, #интервью, #технологии, #ИИ, #ProProfiling, #статья
Telegram
Профайлинг, нейротехнологии и детекции лжи
Кстати, друзья, еще один важный анонс!
Уже в ближайшие выходные состоится VII-й Международный круглый стол полиграфологов и профайлеров!
Это знАковое событие, которое объединяет всех профайлеров и полиграфологов в открытое сообщество. На нем можно узнать…
Уже в ближайшие выходные состоится VII-й Международный круглый стол полиграфологов и профайлеров!
Это знАковое событие, которое объединяет всех профайлеров и полиграфологов в открытое сообщество. На нем можно узнать…
Еще в 2018 году я писал о том, что в обозримой перспективе качество видео-фейков будет сопоставимо с реальными видео. Многие тогда просто улыбались.
Вчера OPEN AI анонсировало выход нейросети SORA, которая текст преобразует в видео. Достаточно просто написать сценарий ролика и вуаля - видео готово. Примеры посмотрите здесь. Еще пройдет около года прежде чем технология будет отработана и выйдет в рутину.
И вот тогда начнется.. Сгенерированные видео-доказательства чего-либо, например будут влиять не только на мнения специалистов, но и широких масс. Примеры подделки видео-записей для доказательств в суде начались с 2019 года, а с этого года практика явно станет массовой. И не только для суда, а просто для ТВ. А про видео-звонки мошенников в WhatsAppe с целью развода граждан я вообще молчу.
И, как я тоже писал, граница между правдой и ложью совсем размоется… И чтобы отличить правду от лжи уже будет недостаточно просто знать признаки обмана, а нужно будет хорошо разбираться в когнитивных искажениях и в том, как наш мозг убеждает себя в чем-либо.
В общем, вызовов становится все больше и без качественного профайлинга нам всем можно будет утонуть в мире фейка.
А по сему, желаю всем отличных выходных и изучения качественного профайлинга)).
#профайлинг, #технологии, #фейк
Вчера OPEN AI анонсировало выход нейросети SORA, которая текст преобразует в видео. Достаточно просто написать сценарий ролика и вуаля - видео готово. Примеры посмотрите здесь. Еще пройдет около года прежде чем технология будет отработана и выйдет в рутину.
И вот тогда начнется.. Сгенерированные видео-доказательства чего-либо, например будут влиять не только на мнения специалистов, но и широких масс. Примеры подделки видео-записей для доказательств в суде начались с 2019 года, а с этого года практика явно станет массовой. И не только для суда, а просто для ТВ. А про видео-звонки мошенников в WhatsAppe с целью развода граждан я вообще молчу.
И, как я тоже писал, граница между правдой и ложью совсем размоется… И чтобы отличить правду от лжи уже будет недостаточно просто знать признаки обмана, а нужно будет хорошо разбираться в когнитивных искажениях и в том, как наш мозг убеждает себя в чем-либо.
В общем, вызовов становится все больше и без качественного профайлинга нам всем можно будет утонуть в мире фейка.
А по сему, желаю всем отличных выходных и изучения качественного профайлинга)).
#профайлинг, #технологии, #фейк
Telegram
Профайлинг, нейротехнологии и детекции лжи
XXI век – век фэйка, будьте внимательны.
Я писал несколько раз о том, что современные технологии, при всей моей любви к ним, увеличивают количество фэйков.
Полтора года назад была отработана технология наложения своей мимики на чужое лицо, да еще так,…
Я писал несколько раз о том, что современные технологии, при всей моей любви к ним, увеличивают количество фэйков.
Полтора года назад была отработана технология наложения своей мимики на чужое лицо, да еще так,…
Немного важных техноновостей
С месяц тому назад появилась нейросеть Arcads.ai, позволяющая, как говорят разработчики, генерировать реалистичные видео с человеком, говорящим заданный текст. И в тестовых видео все выглядит очень неплохо: если сильно не всматриваться, то понять, что образ сгенерирован довольно трудно. На видео хорошая экспрессия, эмоции, жестикуляция, необходимые интонации.
Разработчики призвали использовать нейросеть в маркетинговых целях – генерировать видео-отзывы или рекламу, в которой бы рассказывалось о тех или иных товарах. И в этом плане обыватель точно не отличит сгенерированное видео от реального. При этом нейросеть может создавать видео и на русском языке.
Как работает нейросеть? Ты выбираешь лицо, которое будет говорить (пока предлалают 25 вариантов), контекст и ситуация, на фоне которой будет производиться видео (пока их около 10-ти), загружаешь текст и вуяля – через пару минут получаешь видео.
К сожалению, понятно, что все это будет использоваться в качестве производства фейков – теперь писать видеоотзывы будут не люди, а нейросеть.
Однако arcads.ai сломалась))). По крайней мере так говорится на ее сайте и даже абонемент в 100$ в месяц не решает проблему. Хотя разработчики деньги вернули, не нейросеть все еще лечится)).
При этом буквально вчера Microsoft выложила свою версию подобной нейросети. Видно, что она слеплена на быструю руку и генерирует видео пока не идеально, Но… То, за что всерьез берется Microsoft доводится до совершенства и прибыльного бизнеса. Понятно, что скоро технологию отработают и выпустят в релиз. И Интернет, даже русскоязычный, наводнит куча видео, сгенерированных нейросетью, в которых клиенты рассказывают, о том, какой прекрасный они недавно купили телефон, автомобиль, пылесос или марафон желаний)). К тому же само лицо может быть вашим: вы сами можете рассказывать об этих покупках)) Или просить деньги у знакомых и родственников).
Проблема будет только в том, что детекция лжи в таких видео будет непредсказуема и отличаться от детекции лжи в реально записанном видео.
#технологии, #фейки, #видео, #будущеездесь
С месяц тому назад появилась нейросеть Arcads.ai, позволяющая, как говорят разработчики, генерировать реалистичные видео с человеком, говорящим заданный текст. И в тестовых видео все выглядит очень неплохо: если сильно не всматриваться, то понять, что образ сгенерирован довольно трудно. На видео хорошая экспрессия, эмоции, жестикуляция, необходимые интонации.
Разработчики призвали использовать нейросеть в маркетинговых целях – генерировать видео-отзывы или рекламу, в которой бы рассказывалось о тех или иных товарах. И в этом плане обыватель точно не отличит сгенерированное видео от реального. При этом нейросеть может создавать видео и на русском языке.
Как работает нейросеть? Ты выбираешь лицо, которое будет говорить (пока предлалают 25 вариантов), контекст и ситуация, на фоне которой будет производиться видео (пока их около 10-ти), загружаешь текст и вуяля – через пару минут получаешь видео.
К сожалению, понятно, что все это будет использоваться в качестве производства фейков – теперь писать видеоотзывы будут не люди, а нейросеть.
Однако arcads.ai сломалась))). По крайней мере так говорится на ее сайте и даже абонемент в 100$ в месяц не решает проблему. Хотя разработчики деньги вернули, не нейросеть все еще лечится)).
При этом буквально вчера Microsoft выложила свою версию подобной нейросети. Видно, что она слеплена на быструю руку и генерирует видео пока не идеально, Но… То, за что всерьез берется Microsoft доводится до совершенства и прибыльного бизнеса. Понятно, что скоро технологию отработают и выпустят в релиз. И Интернет, даже русскоязычный, наводнит куча видео, сгенерированных нейросетью, в которых клиенты рассказывают, о том, какой прекрасный они недавно купили телефон, автомобиль, пылесос или марафон желаний)). К тому же само лицо может быть вашим: вы сами можете рассказывать об этих покупках)) Или просить деньги у знакомых и родственников).
Проблема будет только в том, что детекция лжи в таких видео будет непредсказуема и отличаться от детекции лжи в реально записанном видео.
#технологии, #фейки, #видео, #будущеездесь
www.arcads.ai
Arcads - Create AI Video Ads
AI UGC Made Easy: Write your script, pick your actors and generate your UGC video in 2min.
Кадровый профайлинг и искусственный интеллект (ИИ).
Пару месяцев назад опубликовано исследование о критериальной валидности и ретестовой надежности видео-интервью с оценкой кандидата с помощью ИИ.
И результаты этого исследования говорят, что и валидность, и надежность такой оценки велика. Как минимум допустима для использования на практике.
Сегодня этим уже никого не удивишь. Во время, а особенно после ковида это стало практически неотделимой HR-практикой, в ходе которой соискатель проходит интервью, на котором отвечает на важные вопросы и кейсы, рассказывает о себе, своем опыте и прочее. В общем, - все то же самое, что и в очном формате, но онлайн. Однако собеседование проводит робот (или человек), который потом оценивает соискателя по нескольким характеристикам, начиная от BIG5 и заканчивая социально-психологическими компетентностями. Производится оценка речи, эмоций, голосовых характеристик и даже в некоторых случаях – жестов. В результате дается некоторое писание кандидата и рекомендации для рекрутера.
Я еще в доковидные времена занимался этим и на нас тогда смотрели со скепсисом, и вот прошло 5 лет и все это превратилось в реальность.
Кто хочет – почитайте саму статью на сайте APA, а кому нужен сразу спойлер – сообщаю, что машина оказывается более стабильной и непредвзятой в оценке ряда качеств соискателя, оценивая при этом то, что ей сказали оценивать (а не просто – «нравится или не нравится»).
У всего этого есть понятные ограничения и в плане психологии, и в организации и в этике, но сегодня не смотря на все это технология активно развивается и внедряется в передовые HR-практики. На предыдущем МКС я рассказывал о основных HR-компаниях, занимающихся такими направлениями и об их успехах в этой области. И успехи эти есть (1, 2, 3). Таким образом, происходит постепенная легализация ИИ-инструментов оценки со стороны научного сообщества.
#HR, #кадровыйпрофайлинг, #ИИ, #персонал, #технологии, #профайлинг
Пару месяцев назад опубликовано исследование о критериальной валидности и ретестовой надежности видео-интервью с оценкой кандидата с помощью ИИ.
И результаты этого исследования говорят, что и валидность, и надежность такой оценки велика. Как минимум допустима для использования на практике.
Сегодня этим уже никого не удивишь. Во время, а особенно после ковида это стало практически неотделимой HR-практикой, в ходе которой соискатель проходит интервью, на котором отвечает на важные вопросы и кейсы, рассказывает о себе, своем опыте и прочее. В общем, - все то же самое, что и в очном формате, но онлайн. Однако собеседование проводит робот (или человек), который потом оценивает соискателя по нескольким характеристикам, начиная от BIG5 и заканчивая социально-психологическими компетентностями. Производится оценка речи, эмоций, голосовых характеристик и даже в некоторых случаях – жестов. В результате дается некоторое писание кандидата и рекомендации для рекрутера.
Я еще в доковидные времена занимался этим и на нас тогда смотрели со скепсисом, и вот прошло 5 лет и все это превратилось в реальность.
Кто хочет – почитайте саму статью на сайте APA, а кому нужен сразу спойлер – сообщаю, что машина оказывается более стабильной и непредвзятой в оценке ряда качеств соискателя, оценивая при этом то, что ей сказали оценивать (а не просто – «нравится или не нравится»).
У всего этого есть понятные ограничения и в плане психологии, и в организации и в этике, но сегодня не смотря на все это технология активно развивается и внедряется в передовые HR-практики. На предыдущем МКС я рассказывал о основных HR-компаниях, занимающихся такими направлениями и об их успехах в этой области. И успехи эти есть (1, 2, 3). Таким образом, происходит постепенная легализация ИИ-инструментов оценки со стороны научного сообщества.
#HR, #кадровыйпрофайлинг, #ИИ, #персонал, #технологии, #профайлинг
Telegram
Профайлинг, нейротехнологии и детекции лжи
Работаем вместе с командой InterVyo – инновационной израильской HR-Tech платформой, способной по видео-резюме определять Big5 и Big8 компетенций. Цифровой профайлинг и HR-Tech – в массы!
#профайлинг, #HR, #HRTech, #InterVyo, #цифровойпрофайлинг, #коллеги…
#профайлинг, #HR, #HRTech, #InterVyo, #цифровойпрофайлинг, #коллеги…
ИИ, предсказывающий преступления
Тематические профессиональные чаты активно обсуждают новости о том, что в Южной Корее представили искусственный интеллект (далее – ИИ), способный предсказывать преступления.
Тема интересная и актуальная, тем более что мы здесь ее уже обсуждали.
Суть простая – система способна анализировать видеозаписи с городских камер и в реальном времени оценивать риски совершения преступлений. Система учится на основе видеозаписей, набора поведенческих факторов и статистики. Также эта статистика учитывает и криминальную составляющую – где, как, сколько, когда и какие были зарегистрированы преступления. Используя набор данных, связанных с прошлыми криминальными записями и статистикой, связанной с преступностью, ИИ Dejaview автоматически анализирует записи видеонаблюдения в реальном времени, чтобы сравнивать и измерять текущие ситуации и их сходства с прошлыми криминальными ситуациями.
ИИ «скормили» почти 33.000 видеозаписей и по ним научили классифицировать криминальное поведение людей на улице. Как только риск того или иного события критически возрастает, система рекомендует направить дежурный отряд полиции в определенное место.
Что я могу сказать на эту тему?
Сегодня это уже не удивительно. Более того, я еще в 2021 году в Израиле тестировал подобную систему, отлично умеющую (еще в 2021 году) классифицировать криминальное поведение на улице, автоматически их фиксировать и сообщать полиции. И, судя по всему, функционал Сorsight до сих пор как минимум не хуже того, что представили корейцы.
Тем не менее, тема с ИИ, как я постоянно и говорю, в том числе и в профайлинге будет расширяться. А такие и подобные системы есть не только в Корее, но и в Израиле, США, Китае (1, 2) и у нас. Это еще конец 10х-начало 20хх и это совсем не секрет. Так что корейцы в этом плане – догоняющие и совсем не первые. Но вот хорошо это или плохо - судите сами).
#технологии, #ИИ, #профайлинг, #BigBrother, #криминалистика, #аналитика
Тематические профессиональные чаты активно обсуждают новости о том, что в Южной Корее представили искусственный интеллект (далее – ИИ), способный предсказывать преступления.
Тема интересная и актуальная, тем более что мы здесь ее уже обсуждали.
Суть простая – система способна анализировать видеозаписи с городских камер и в реальном времени оценивать риски совершения преступлений. Система учится на основе видеозаписей, набора поведенческих факторов и статистики. Также эта статистика учитывает и криминальную составляющую – где, как, сколько, когда и какие были зарегистрированы преступления. Используя набор данных, связанных с прошлыми криминальными записями и статистикой, связанной с преступностью, ИИ Dejaview автоматически анализирует записи видеонаблюдения в реальном времени, чтобы сравнивать и измерять текущие ситуации и их сходства с прошлыми криминальными ситуациями.
ИИ «скормили» почти 33.000 видеозаписей и по ним научили классифицировать криминальное поведение людей на улице. Как только риск того или иного события критически возрастает, система рекомендует направить дежурный отряд полиции в определенное место.
Что я могу сказать на эту тему?
Сегодня это уже не удивительно. Более того, я еще в 2021 году в Израиле тестировал подобную систему, отлично умеющую (еще в 2021 году) классифицировать криминальное поведение на улице, автоматически их фиксировать и сообщать полиции. И, судя по всему, функционал Сorsight до сих пор как минимум не хуже того, что представили корейцы.
Тем не менее, тема с ИИ, как я постоянно и говорю, в том числе и в профайлинге будет расширяться. А такие и подобные системы есть не только в Корее, но и в Израиле, США, Китае (1, 2) и у нас. Это еще конец 10х-начало 20хх и это совсем не секрет. Так что корейцы в этом плане – догоняющие и совсем не первые. Но вот хорошо это или плохо - судите сами).
#технологии, #ИИ, #профайлинг, #BigBrother, #криминалистика, #аналитика
Tech Xplore
Korean researchers develop AI CCTVs to detect, predict criminal activities
A Korean research team has succeeded in developing a technology that can detect and predict signs of criminal activities utilizing real-time CCTVs and AI technology. With this new technology, CCTV is ...
This media is not supported in your browser
VIEW IN TELEGRAM
Немного пятничного технооптимизма)))
В некоторых китайских школах теперь нейросеть выбирает, кто пойдет к доске.
ИИ считывает эмоции и мимику всех учеников в классе и определяет ученика, который плохо подготовился.
Хорошо, что когда мы учились, в наших школах такого не было))).
Конечно это приведет к тому, что люди будут учиться противодействовать этому со школьных парт)). Я тут уже неоднократно писал о том, как в Китае и США используются нейросети для определения потенциально опасного поведения школьников, их склонности к суицидам, буллингу и тому подобное. И это в целом – неплохо.
Но есть но… В том числе и вот такие.
Всем отличной пятницы, выходных и гармонии в балансе между технологиями и человечностью!
#технологии, #ИИ
В некоторых китайских школах теперь нейросеть выбирает, кто пойдет к доске.
ИИ считывает эмоции и мимику всех учеников в классе и определяет ученика, который плохо подготовился.
Хорошо, что когда мы учились, в наших школах такого не было))).
Конечно это приведет к тому, что люди будут учиться противодействовать этому со школьных парт)). Я тут уже неоднократно писал о том, как в Китае и США используются нейросети для определения потенциально опасного поведения школьников, их склонности к суицидам, буллингу и тому подобное. И это в целом – неплохо.
Но есть но… В том числе и вот такие.
Всем отличной пятницы, выходных и гармонии в балансе между технологиями и человечностью!
#технологии, #ИИ