Профайлинг, нейротехнологии и детекции лжи
20.6K subscribers
1.86K photos
267 videos
110 files
1.07K links
Канал Алексея Филатова, посвященный небанальным новостям профайлинга, верификации лжи и нейротехнологий.

Сайт www.ProProfiling.com
Чат канала: T.me/ProProfilingChat
Download Telegram
Gektor_Makdonald__Pravda._Kak_politiki__korporaci_b-ok.org_.pdf
3.8 MB
Г.Макдональд «ПРАВДА. Как политики, корпорации и медиа формируют нашу реальность, выставляя факты в выгодном свете».

#профайлинг, #правда, #книга, #ложь, #фэйк, #постправда, #скачать
В канале я несколько раз писал о технологии создания видеофэйков и высказывал опасения того, что вполне скоро можно будет создать неотличимые человеческим глазом видеофэйки любого человека только по одной его фотографии. Представляете, что будет, если такие фэйки будут учитываться в суде в качестве доказательств: ведь за пару часов можно сделать любое признание или разоблачение!

Недавно вышло новое обновление SNAPPERS FACIAL RIG – чуть его не пропустил. Это движок, предназначенный для тонкой анимации лица, который применяется в основном киношниками, создателями компьютерных игр, журналистами и фэйкоделами.

В текущей версии движок учитывает всю кодировку FACS, позволяет скомбинировать любую экспрессию на основе базовых эмоций, но, что еще более интересного – позволяет синхронизировать в речевую экспрессию видео и аудио поток, причем так, что результат трудно отличим от реальной видеозаписи реального человека.

Еще обязательно поковыряюсь в нем, ну а вы посмотрите это видео и зацените уровень реалистичности, учитывая, что это видео собрано с помощью предыдущей версии движка.
Добро пожаловать в мир фэйка и реальности 😀

#профайлинг, #мимика, #лицо, #анимация, #FACS, #технологии, #фэйк, #детекциялжи, #ProProfiling
Media is too big
VIEW IN TELEGRAM
Оживить портрет и добавить к нему практически любую речь сейчас дело 20-ти минут. Об этом я уже писал не раз. Ждем такую технологию в соцсетях и при создании фэйков

#классика, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #fun.
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.

Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.

И вот буквально на днях, израильские учёные показали систему FSGAN, которая способна правдоподобно менять лица на видео в реальном времени.
Система берёт видео с одним человеком и переносит его мимику и жесты на другого. При этом FSGAN достаточно одной фотографии цели, чтобы заставить её говорить всё, что угодно.

Пока технология работает неидеально: лица то и дело смешиваются, появляются артефакты. Но стоит доработать систему — и всё, можно пускать фейковые новости в прямой эфир. И никто не усомнится в их правдивости.

Если вы считаете, что это вас не касается, то ждите, что через год-два вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.

По ссылке – видео с демонстрацией FSGAN.
https://www.youtube.com/watch?v=BsITEVX6hkE


Сейчас в интернете один из мэйнстримов – пересаживать лица известных людей в культовые фильмы. Если раньше в основном таким образом прикалывались исключительно над Обамой, то сейчас можно встретить Путина, Трампа, Илона Маска, Тома Круза, Николаса Кейджа, Киану Ривза и многих других. Сейчас вам накидаю таких примеров – взгляните, это интересно и реалистично.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
5) Объявленная победа над Deep Fake мне кажется преждевременной. Речь идет о недавно выпущенном продукту Adobe – About Face, предназначенному для выявления факта применения ретуши при обработке фотографий. Его работа основана на фирменном искусственном интеллекте компании «Sensei», который обеспечивает (на текущий момент) 99 % точность распознавания фейков.

Увы, узкое место About Face – это привязка к программным продуктам самой Adobe. Если точнее, ИИ умеет работать только с файлами из программы Photoshop и выявляет только те коррекции, которые были произведены инструментом Face-Aware Liquify – фильтром, с помощью которого создаются далеко не все фейки.

https://www.techcult.ru/soft/7547-adobe-vypustila-instrument-about-face

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Интересная статейка и факт вам на пятницу и выходные.

Пусть это и звучит несерьезно, но британские ученые провели исследование. Суть его в том, что люди, которые часто пускают пыль в глаза, пытаясь произвести лучшее впечатление или убедить в чем-то других, сильно восприимчивы к такому же обману. То есть им самим запудрить мозги и навешать лапши на уши проще простого.

https://bpspsychub.onlinelibrary.wiley.com/doi/abs/10.1111/bjso.12447

Британцы заинтересовались тем, насколько люди восприимчивы к «научному вранью» и фэйковым новостям. Под научным враньем можно понять информацию различных псевдоученых «дисциплинах» о биополе, магии и окультизме, всяческих эгрегорах и квантовых полях. В реальном исследовании это измерялось тем, насколько человек считал правдоподобным то или иное утверждение, которое случайным образом генерировала нейросеть с использованием сложных научных терминов, такими, как например «энтропия», «конструктивная интерференция» и «основные квантовые состояния» и подобные.

Предварительно у участников исследования с помощью анкет была выявлена и измерена тенденция убедительно привирать в дискуссии по теме, о которой они мало знают.

В итоге оказалось, что люди, которые чаще прибегают к такому трепу, не только более восприимчивы к псевдо-глубоким высказываниям (считая их правдивыми), но и более уверены в своих интеллектуальных способностях в сравнении с теми, кто так не поступает. Они также получили более низкие баллы практически по всем когнитивным способностям.

Почему это исседование важно? Дело в том, что сейчас в соцсетях довольно часто можно встретить различную псевдонаучную чушь от довольно известных блоггеров и тренеров. Нам научным языком рассказывают про магию, биополя, эгрегоры, физиогномику. Или с помощью эгрегоров, магии и биополей объясняют нейробиологию, психологию или медицину. И это можно делать с довольно умным видом и использованием различных научных слов, глибинного смысла которых эти блоггеры не понимают. Но за час инстаграммного эфира или в 20-ти минутном ролике в ютуб это не всегда можно увидеть: в них за это время просто невозможно уместить эту глубину.

В итоге мы до сих пор еще встречаем блоггеров, активно цитирующих С.В.Савельева и его взгляды, делающих «научные» ссылки на книги К.Кастанеды и считающих, что «у женщин более развита префронтальная кора полушарий головного мозга и именно поэтому женщины лучше калибруют эмоции».

Так вот: можете сами вешать этим чудакам лапшу на уши – и они поверят. И не жалко. Расскажите им, какое мощное биополе вы у них видите и какая развитая у них префронтальная кора и поэтому они хорошо калибруют эмоции.

#профайлинг, #фэйк, #нейробиология, #мозг, #исследования, #префронтальнаякора, #статья, #ложь, #правда, #детекциялжи, #детекторлжи, #ProProfiling, #Филатов, #профайлинг_филатов.
Недавно два стартапа, специализирующиеся на машинном обучении для генерации того, что принято называть deep fake, объединили свои усилия.

Новозеландско-американская компания UneeQ, занимающаяся разработкой трехмерных изображений и чат-ботов с использованием технологии искусственного интеллекта, создала ресурс с виртуальной версией всемирно известного физика Альберта Эйнштейна.

На сайте представлено лицо ученого, которое умеет не только реалистично двигаться, но и разговаривать голосом, максимально приближенным к реальному. За звуковую сторону ресурса отвечаетвторой стартап Aflorithmic - лондонская студия разработки аудио-контента.

Зайдя на ресурс, с ученым можно “побеседовать” с помощью специального чата Digital Einstein. Для его запуска нужно нажать на кнопку Let’s chat, после чего сайт запросит разрешение на использование микрофона, через который пользователь может озвучить свой вопрос. Дипфейк-версия Эйнштейна умеет поддерживать разговоры на разные темы, среди которых - наука, исследования, работа.

Впрочем, TechCrunch в длинной и немного ворчливой статье справедливо замечает, что скорее нам показали будущее коммерческих чат-ботов, которые будут нам что-нибудь впаривать. И, вероятно, делать это действительно эффективно.

А еще одно из существенных опасений этого заключается в том, что deepfake все более активно используются с целью дезинформации и обмана. И это уже в ближайшем будущем может стать колоссальной проблемой. В частности, буквально пару месяцев назад в штатах был скандал из-за того, что простая американка заказала и опубликовала мягко сказать порочные deepfake видео соперниц своей дочери по важному конкурсу для того, чтобы их исключили из числа участниц этого конкурса. Хорошая многоходовочка)). И это только начало.

Ну а случаи использования дипфэйков для поздравлений и генерации порновидео уже становятся рутинными. Примеры этого можно посмотреть здесь, здесь, здесь и здесь.

Ждем применения таких технологий в том числе и целью обмана. В общем, правл был группенфурер Мюллер, когда говорил Айсману, что верить в нашей жизни нельзя никому. Мне – можно.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #мэтры, #голос, #нейросеть, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Про дипфейки я тут писал неоднократно, «предсказывая», что довольно скоро эта технология скоро буквально окружит нас со всех сторон. И самый первый вопрос, который у нас будет возникать, когда мы будем сталкиваться с фактически любой информацией будет звучать «а не фейк ли это?».

Вот и Андрей Себрант, директор по стратегическому маркетингу в Яндексе в Форбс пишет, что технология дипфейков станет главной в 2022 году.

В своей практике некоторые уже сталкивались с этим. И чаще всего с не очень красивой стороны, - например со стороны мошенников. А между тем телевизионщики уже лет 5 как используют эту технологию, чтобы не дорого снимать какую-нибудь знаменитость, а просто наложить его лицо на лицо менее известного актера. Сейчас уже за пару часов можно сделать фэйковое видео практически с любым человеком с использованием эффекта замены лица и голоса. Причем так, что понять, что это фейк, будет довольно трудно.

В общем, ближе к Новому году, чаще будем говорить про тренды и грядущее)).

А вот и сама статья, рекомендую почитать

https://www.forbes.ru/tekhnologii/444703-fejkovyj-mir-pocemu-tehnologia-dipfejkov-stanet-glavnoj-v-2022-godu

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #тренды
Еще в 2018-2019 годах я писал и на вебинарах неоднократно говорил и приводил примеры того, как современные технологии генерации и подмены лица и голоса используются в мошеннических схемах. На довольно высоком уровне эти риски изначально воспринимались всерьез, но на бытовом – еще как-то нет.

Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.

Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.

И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.

В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.

Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.

#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling