Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.
Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.
И вот буквально на днях, израильские учёные показали систему FSGAN, которая способна правдоподобно менять лица на видео в реальном времени.
Система берёт видео с одним человеком и переносит его мимику и жесты на другого. При этом FSGAN достаточно одной фотографии цели, чтобы заставить её говорить всё, что угодно.
Пока технология работает неидеально: лица то и дело смешиваются, появляются артефакты. Но стоит доработать систему — и всё, можно пускать фейковые новости в прямой эфир. И никто не усомнится в их правдивости.
Если вы считаете, что это вас не касается, то ждите, что через год-два вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.
По ссылке – видео с демонстрацией FSGAN.
https://www.youtube.com/watch?v=BsITEVX6hkE
Сейчас в интернете один из мэйнстримов – пересаживать лица известных людей в культовые фильмы. Если раньше в основном таким образом прикалывались исключительно над Обамой, то сейчас можно встретить Путина, Трампа, Илона Маска, Тома Круза, Николаса Кейджа, Киану Ривза и многих других. Сейчас вам накидаю таких примеров – взгляните, это интересно и реалистично.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.
И вот буквально на днях, израильские учёные показали систему FSGAN, которая способна правдоподобно менять лица на видео в реальном времени.
Система берёт видео с одним человеком и переносит его мимику и жесты на другого. При этом FSGAN достаточно одной фотографии цели, чтобы заставить её говорить всё, что угодно.
Пока технология работает неидеально: лица то и дело смешиваются, появляются артефакты. Но стоит доработать систему — и всё, можно пускать фейковые новости в прямой эфир. И никто не усомнится в их правдивости.
Если вы считаете, что это вас не касается, то ждите, что через год-два вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.
По ссылке – видео с демонстрацией FSGAN.
https://www.youtube.com/watch?v=BsITEVX6hkE
Сейчас в интернете один из мэйнстримов – пересаживать лица известных людей в культовые фильмы. Если раньше в основном таким образом прикалывались исключительно над Обамой, то сейчас можно встретить Путина, Трампа, Илона Маска, Тома Круза, Николаса Кейджа, Киану Ривза и многих других. Сейчас вам накидаю таких примеров – взгляните, это интересно и реалистично.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
YouTube
[ICCV 2019] FSGAN: Subject Agnostic Face Swapping and Reenactment
Yuval Nirkin, Yosi Keller, and Tal Hassner. FSGAN: Subject Agnostic Face Swapping and Reenactment. International Conference on Computer Vision (ICCV), Seoul, Korea, 2019.
For more information please visit our project site:
https://nirkin.com/fsgan
For more information please visit our project site:
https://nirkin.com/fsgan
5) Объявленная победа над Deep Fake мне кажется преждевременной. Речь идет о недавно выпущенном продукту Adobe – About Face, предназначенному для выявления факта применения ретуши при обработке фотографий. Его работа основана на фирменном искусственном интеллекте компании «Sensei», который обеспечивает (на текущий момент) 99 % точность распознавания фейков.
Увы, узкое место About Face – это привязка к программным продуктам самой Adobe. Если точнее, ИИ умеет работать только с файлами из программы Photoshop и выявляет только те коррекции, которые были произведены инструментом Face-Aware Liquify – фильтром, с помощью которого создаются далеко не все фейки.
https://www.techcult.ru/soft/7547-adobe-vypustila-instrument-about-face
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Увы, узкое место About Face – это привязка к программным продуктам самой Adobe. Если точнее, ИИ умеет работать только с файлами из программы Photoshop и выявляет только те коррекции, которые были произведены инструментом Face-Aware Liquify – фильтром, с помощью которого создаются далеко не все фейки.
https://www.techcult.ru/soft/7547-adobe-vypustila-instrument-about-face
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Техкульт
Adobe выпустила инструмент «About Face» для распознавания дипфейков
Компания Adobe разработала инструмент под названием «About Face», предназначенный для выявления факта применения ретуши при обработке фотографий. Его работа основана на фирменном искусственном интеллекте компании «Sensei», который обеспечивает (на текущий…
Недавно два стартапа, специализирующиеся на машинном обучении для генерации того, что принято называть deep fake, объединили свои усилия.
Новозеландско-американская компания UneeQ, занимающаяся разработкой трехмерных изображений и чат-ботов с использованием технологии искусственного интеллекта, создала ресурс с виртуальной версией всемирно известного физика Альберта Эйнштейна.
На сайте представлено лицо ученого, которое умеет не только реалистично двигаться, но и разговаривать голосом, максимально приближенным к реальному. За звуковую сторону ресурса отвечаетвторой стартап Aflorithmic - лондонская студия разработки аудио-контента.
Зайдя на ресурс, с ученым можно “побеседовать” с помощью специального чата Digital Einstein. Для его запуска нужно нажать на кнопку Let’s chat, после чего сайт запросит разрешение на использование микрофона, через который пользователь может озвучить свой вопрос. Дипфейк-версия Эйнштейна умеет поддерживать разговоры на разные темы, среди которых - наука, исследования, работа.
Впрочем, TechCrunch в длинной и немного ворчливой статье справедливо замечает, что скорее нам показали будущее коммерческих чат-ботов, которые будут нам что-нибудь впаривать. И, вероятно, делать это действительно эффективно.
А еще одно из существенных опасений этого заключается в том, что deepfake все более активно используются с целью дезинформации и обмана. И это уже в ближайшем будущем может стать колоссальной проблемой. В частности, буквально пару месяцев назад в штатах был скандал из-за того, что простая американка заказала и опубликовала мягко сказать порочные deepfake видео соперниц своей дочери по важному конкурсу для того, чтобы их исключили из числа участниц этого конкурса. Хорошая многоходовочка)). И это только начало.
Ну а случаи использования дипфэйков для поздравлений и генерации порновидео уже становятся рутинными. Примеры этого можно посмотреть здесь, здесь, здесь и здесь.
Ждем применения таких технологий в том числе и целью обмана. В общем, правл был группенфурер Мюллер, когда говорил Айсману, что верить в нашей жизни нельзя никому. Мне – можно.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #мэтры, #голос, #нейросеть, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Новозеландско-американская компания UneeQ, занимающаяся разработкой трехмерных изображений и чат-ботов с использованием технологии искусственного интеллекта, создала ресурс с виртуальной версией всемирно известного физика Альберта Эйнштейна.
На сайте представлено лицо ученого, которое умеет не только реалистично двигаться, но и разговаривать голосом, максимально приближенным к реальному. За звуковую сторону ресурса отвечаетвторой стартап Aflorithmic - лондонская студия разработки аудио-контента.
Зайдя на ресурс, с ученым можно “побеседовать” с помощью специального чата Digital Einstein. Для его запуска нужно нажать на кнопку Let’s chat, после чего сайт запросит разрешение на использование микрофона, через который пользователь может озвучить свой вопрос. Дипфейк-версия Эйнштейна умеет поддерживать разговоры на разные темы, среди которых - наука, исследования, работа.
Впрочем, TechCrunch в длинной и немного ворчливой статье справедливо замечает, что скорее нам показали будущее коммерческих чат-ботов, которые будут нам что-нибудь впаривать. И, вероятно, делать это действительно эффективно.
А еще одно из существенных опасений этого заключается в том, что deepfake все более активно используются с целью дезинформации и обмана. И это уже в ближайшем будущем может стать колоссальной проблемой. В частности, буквально пару месяцев назад в штатах был скандал из-за того, что простая американка заказала и опубликовала мягко сказать порочные deepfake видео соперниц своей дочери по важному конкурсу для того, чтобы их исключили из числа участниц этого конкурса. Хорошая многоходовочка)). И это только начало.
Ну а случаи использования дипфэйков для поздравлений и генерации порновидео уже становятся рутинными. Примеры этого можно посмотреть здесь, здесь, здесь и здесь.
Ждем применения таких технологий в том числе и целью обмана. В общем, правл был группенфурер Мюллер, когда говорил Айсману, что верить в нашей жизни нельзя никому. Мне – можно.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #мэтры, #голос, #нейросеть, #профайлинг_филатов, #Филатов, #ProProfiling, #видео
Digitalhumans
UneeQ Case Study | Digital Einstein
One of modern history's smartest minds and most recognisable personalities steps back onto the world stage.
Про дипфейки я тут писал неоднократно, «предсказывая», что довольно скоро эта технология скоро буквально окружит нас со всех сторон. И самый первый вопрос, который у нас будет возникать, когда мы будем сталкиваться с фактически любой информацией будет звучать «а не фейк ли это?».
Вот и Андрей Себрант, директор по стратегическому маркетингу в Яндексе в Форбс пишет, что технология дипфейков станет главной в 2022 году.
В своей практике некоторые уже сталкивались с этим. И чаще всего с не очень красивой стороны, - например со стороны мошенников. А между тем телевизионщики уже лет 5 как используют эту технологию, чтобы не дорого снимать какую-нибудь знаменитость, а просто наложить его лицо на лицо менее известного актера. Сейчас уже за пару часов можно сделать фэйковое видео практически с любым человеком с использованием эффекта замены лица и голоса. Причем так, что понять, что это фейк, будет довольно трудно.
В общем, ближе к Новому году, чаще будем говорить про тренды и грядущее)).
А вот и сама статья, рекомендую почитать
https://www.forbes.ru/tekhnologii/444703-fejkovyj-mir-pocemu-tehnologia-dipfejkov-stanet-glavnoj-v-2022-godu
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #тренды
Вот и Андрей Себрант, директор по стратегическому маркетингу в Яндексе в Форбс пишет, что технология дипфейков станет главной в 2022 году.
В своей практике некоторые уже сталкивались с этим. И чаще всего с не очень красивой стороны, - например со стороны мошенников. А между тем телевизионщики уже лет 5 как используют эту технологию, чтобы не дорого снимать какую-нибудь знаменитость, а просто наложить его лицо на лицо менее известного актера. Сейчас уже за пару часов можно сделать фэйковое видео практически с любым человеком с использованием эффекта замены лица и голоса. Причем так, что понять, что это фейк, будет довольно трудно.
В общем, ближе к Новому году, чаще будем говорить про тренды и грядущее)).
А вот и сама статья, рекомендую почитать
https://www.forbes.ru/tekhnologii/444703-fejkovyj-mir-pocemu-tehnologia-dipfejkov-stanet-glavnoj-v-2022-godu
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling, #тренды
Telegram
Профайлинг, нейротехнологии и детекции лжи
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей…
Профильный комитет Госдумы одобрил поправку о лишении свободы до 15 лет за фейки о российских военных. Не буду это комментировать.
Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.
Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.
Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.
Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.
Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.
Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.
Регистрация здесь:
https://proprofiling.com/dpf
#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
Но фейки – это действительно проблема. Особенно, если говорить о deefake.
Упрощенно говоря – это сгенерированное видео, на котором подменяется лицо, голос и речь главного героя.
Я здесь уже много раз писал про DeepFake и про то, что один из важнейших трендов. На сегодняшний день уже реально по одной фотографии и минутной аудиозаписи человека создать видео, в котором он будет говорить все, что угодно. И это видео большинство зрителей будет считать истинным и не поймет, что это фэйк. Уже есть факты использования таких видео крупнейшими телевизионными каналами.
Однако если год тому назад на создание таких видео нужно было потратить часы, полгода назад – минуты, то сегодня это можно сделать практически в режиме реального времени. И для нас, экспертов, занимающихся цифровым профайлингом, это большой вызов. Поскольку уже сегодня любую, подчеркиваю – любую видео запись нужно проверять на фэйк. А это не так-то и легко, и невооруженным глазом не заметить. Кстати, в Штатах уже были зарегистрированные факты использования фэйковых видео в качестве доказательств в суде.
Признаться, я удивлен, почему в сети, учитывая текущую ситуацию, еще так мало фейков с политиками. Хотя уже есть. И будет много.
Если вы считаете, что это вас не касается, то ждите, что уже скоро вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет.
Или в Интернете будут распространяться видео-фейки, на которых политики будут говорить все, что угодно и пользователи6 которые в основном эти видео будут смотреть со своих смартфонов, уж точно не смогут их проверить на истинность.
Сегодня на открытом вебинаре, 4 марта в 20:00 я на понятном языке расскажу вам о технологии создания фейков и мы потренируемся отличать фейки от настоящих видео. Присоединяйтесь.
Регистрация здесь:
https://proprofiling.com/dpf
#deepfake, #технологии, #мероприятия, #пропаганда, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
5 простых и бесплатных сервисов, помогающих бороться в фейками, используемых для поиска скрытых деталей и ошибок в изображениях и видео.
1. Forensically
Это набор бесплатных инструментов для анализа изображений.
«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.
2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.
3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.
Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.
4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.
5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.
Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).
KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.
Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.
Перспективы и разработки
В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.
Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.
Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?
Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
1. Forensically
Это набор бесплатных инструментов для анализа изображений.
«Лупа» позволяет увидеть скрытые детали на фото. Она увеличивает размер пикселей и контрастность.
«Детектор клонов» выделяет цветом участки изображения, которые были скопированы.
«Анализ уровня ошибок» сравнивает снимок с его сжатой версией. Помогает понять, какую часть изображения изменяли: она может быть темнее или ярче, чем аналогичная область, которой не манипулировали.
2. Image Edited
Сервис бесплатно определяет, были ли изменения в снимке. Если были, сообщает, в каком графическим редакторе их сделали и показывает что было изменено. Сервис анализирует фото на уровне пикселей, их цветов и контрастов и на основе этого определяет вероятностные ошибки в изображении.
3. Ghiro
Бесплатная программа с открытым исходным кодом ищет ошибки в изображениях и на их основе выявляет монтаж. Также сравнивает фото с их миниатюрами — если есть разница, сообщает, что снимок изменяли.
Также может извлекать из файлов текстовую информацию, например, URL-адреса. Если находит геотеги и связанную с ними информацию, показывает возможное место снимка на карте.
4. Deepware
Сервис с открытым исходным кодом бесплатно анализирует видео на дипфейки. Также есть приложение Deepware, оно работает только на Android.
5. Jeffrey's Image Metadata Viewer
Исследование метаданных в Jeffrey's Image Metadata Viewer позволяет узнать когда, где и с какого устройства был реально сделан тот или иной фотоснимок.
Для упрощения выявления фейков есть даже специальный плагин InVID Verification Plugin, подключаемый к браузерам Chrome и Firefox. Но но работает не шкарно)).
KaiCatch
Корейское приложение KaiCatch распознаёт поддельные фото и видео с помощью ИИ — он определяет аномальные искажения лиц с точностью 90%.
Но это уже не бесплатно: проверить фото или видео стоит около $1,7. Приложение работает только на Android и на корейском языке.
Перспективы и разработки
В 2019 году подразделение Adobe Research вместе с Калифорнийским университетом в Беркли создали функцию Photoshop Face Aware Liquify, в основу которой легла свёрточная нейросеть. По оценке Adobe Research, определение фото- и видеомонтажа в экспериментах показал эффективность 99%, в то время как люди смогли распознать лишь 53% подделок.
Опыты с программой показали, что она может не только выявлять подделки, но и возвращать изменённые снимки в их первоначальное состояние. Однако в открытый доступ разработка пока не вышла.
Microsoft Video Authenticator
В сентябре 2020 года Microsoft создала ПО для борьбы с дипфейками — Video Authenticator. Программа оценивает фото и видео и определяет вероятность монтажа. Несмотря на заявляемое высокое качество детекции фейков, в релиз она пока не вышла. Интересно, почему?
Разработка Facebook
В июне 2021 года исследователи Facebook создали ИИ, который может идентифицировать дипфейк-контент и отслеживать его происхождение. Над программой работали известные специалисты MIT. Кстати, и эта программа пока не вышла в релиз, но ипрактика показывает, что в ФБ не так-то зарелизиться.
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
29a.ch
Forensically, free online photo forensics tools
Forensically is a set of free tools for digital image forensics. It includes clone detection, error level analysis, meta data extraction and more.
Как проверить подлинность фото и видео, опубликованного на YouTube: 6 сервисов
FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.
На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).
Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:
YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.
YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.
Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».
Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».
Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
FotoForensics. Если полагаете, что фото перед вами проходило через Photoshop, опробуйте данный ресурс. Он находит «дорисованные» области на изображении или вставленные в него при редактировании. Сервис показывает где и как фото было отредактированно.
На YouTube сейчас публикуют много видео и значительная часть из них — фейки. И их будет еще больше)).
Кажется, что определить подлинность видео невозможно, но это не так. Существует много сервисов для анализа роликов, вот пятёрка лучших:
YouTube Geofind — инструмент для поиска видео по геолокации. Выбираем область на карте и видим все ролики, которые загружены из этого места. Так вы поймёте, правда ли это видео опубликовал очевидец.
YouTube Metadata — отправляете ссылку на видео и получаете комплексный анализ метаданных ролика. Где, когда и кем было опубликовано видео. Есть точная статистика по количеству подписчиков и просмотров.
Truepic — сервис анализирует пиксели и метаданные ролика, чтобы точно установить его подлинность. Когда, что и где происходит на фото или видео. Для этого выбираем один из продуктов и нажимаем «Start for free».
Frame-by-frame — сервис замедляет видео и раскладывает его по кадрам гораздо лучше, чем встроенная система YouTube. Так можно разглядеть всё максимально детально. Просто вставляем ссылку и нажимаем «Watch video».
Extract Meta Data — ещё один сервис, с помощью которого вы узнаете, когда и во сколько видео было загружено на видеохостинг. Достаточно вставить ссылку и нажать «Go».
#deepfake, #технологии, #профайлинг, #цифровойпрофайлинг, #профайлинг_филатов, #Филатов, #ProProfiling.
mattw.io
Location Search - Discover Geo-tagged Videos - MW Geofind
Search YouTube for geographically tagged videos by location, topic, or channel. Videos are viewable in a map and data exportable in JSON and CSV.
Еще в 2018-2019 годах я писал и на вебинарах неоднократно говорил и приводил примеры того, как современные технологии генерации и подмены лица и голоса используются в мошеннических схемах. На довольно высоком уровне эти риски изначально воспринимались всерьез, но на бытовом – еще как-то нет.
Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.
Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.
И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.
В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.
Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling
Да, уже были десятки кейсов того, как мошеники подменив лицо и голос генерального директора конкретной компании «разводили» главбухов, но на низовом уровне эта технология пока часто не применяется. Хотя еще в 2018 году появились первые звоночки.
Сейчас, когда многие «колцентры» банков релоцировались с територрии Украины в другие страны, эта технология начинает использоваться все чаще и чаще.
И вот на днях такой кейс произошел с обычной канадской пенсионеркой. Ей позвонил фейковый адвокат, сообщив, что их сын убил американского дипломата в автокатастрофе и теперь находится в тюрьме. Затем адвокат якобы передал телефон сыну, который подтвердил эту информацию. Клонированный голос звучал так реалистично, что родители не сомневались в необходимости перевода денег, потеряв около 15000 долларов.
В общем, если через какое-то время вам в WhatsApp по видео-связи с номеров ваших родственников будут звонить люди с неотличимой внешностью и голосом ваших родственников и просить перевести деньги на их счет… не удивляйтесь, а проверяйте.
Сегодня всего 20-ти секундного образца голоса достаточно, чтобы нейросеть из него создала вполне связную, осмысленную и неразоблачаемую обывателем речь.
#deepfake, #технологии, #программы, #цифровойпрофайлинг, #фэйк, #профайлинг, #профайлинг_филатов, #Филатов, #ProProfiling