Please open Telegram to view this post
VIEW IN TELEGRAM
Между первой и второй половинами 2023 года количество кибератак увеличилось на 704%. Использование дипфейковых медиа вместе с подменой метаданных за этот период выросло на 672%
Ссылка на источник: https://www.techradar.com/pro/security/deepfake-threats-are-on-the-rise-new-research-shows-worrying-rise-in-dangerous-new-scams
Ссылка на источник: https://www.techradar.com/pro/security/deepfake-threats-are-on-the-rise-new-research-shows-worrying-rise-in-dangerous-new-scams
TechRadar
Deepfake threats are on the rise - new research shows worrying rise in dangerous new scams
Hackers are combining deepfake videos with camera emulators, report warns
10 млрд $ - ущерб от применения дипфейков в криптоиндустрии в 2023г.
Ссылка на источник: https://www.bitget.com/blog/articles/bitget-research-deepfake-report-2024
Ссылка на источник: https://www.bitget.com/blog/articles/bitget-research-deepfake-report-2024
Bitget
Deepfakes May Reach 70% of Crypto Crimes in Two Years
The findings of Bitget’s investigations under the broader Anti-scam Month campaign launched by Bitget in June 2024.
Технология liveness в биометрии: что это и как работает
https://trends.rbc.ru/trends/industry/64f93a379a794730d0d8b498
https://trends.rbc.ru/trends/industry/64f93a379a794730d0d8b498
РБК Тренды
Технология liveness в биометрии: что это и как работает
Liveness — технология, которая позволяет отличить живого человека от маски или дипфейка. Разбираемся, как она защищает от мошенников
В статье сказано, что компании Okta, Keyless и authID, держат руку на пульсе. Полагаем, что они понятия не имеют как работают атаки с применением дипфейков. По крайней мере, автор статьи точно не понимает о чем пишет. Их спасает только то, что атак на сегодняшний день достаточно мало и их наличие удается скрывать.
Biometric Update
Security keys, biometrics offer necessary protection in age of deepfakes
AI has increased the amount of digital fraud by orders of magnitude, and regulations are transforming how businesses operate.
76,2 млн $ - ущерб от взлома государственной системы верификации Китая в 2021г. Источник
South China Morning Post
Tax scammers hack government-run facial recognition system
Concerns mount for data privacy in China, as a group duped a government-run facial recognition system to issue fake tax invoices valued at US$76.2 million.
25 млн $ - ущерб финансовой компании в феврале 2024г. от дипфейка личности.
Ссылка на источник: https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
Ссылка на источник: https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
CNN
Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’
A finance worker at a multinational firm was tricked into paying out $25 million to fraudsters using deepfake technology to pose as the company’s chief financial officer in a video conference call, according to Hong Kong police.
Мы значительно ускорили взаимодействие клиентского приложения с сервером. Это позволило нам потратить доп 0,5 секунд на повышение удобства пользователей. Так мы избавились от промежуточного этапа в работе приложения - проверки достоверности лиц по одному. Теперь все лица проверяются сразу 👌
Please open Telegram to view this post
VIEW IN TELEGRAM
Постепенно выкладываем информацию о новых продуктах компании на сайт https://rtsystems.ru/
rtsystems.ru
Реал Тэк Системс — Защита от дипфейков, лайвнесс детекция
Реал Тэк Системс — российская ИТ-компания, разрабатывающая программные решения для защиты от дипфейков и подделок в аудио- и видеоконтенте. Наши технологии на базе ИИ обеспечивают надежную дипфейк и лайвнесс детекцию и предотвращают мошенничество в различных…
Пример бюджетной заготовки для взлома активного лайвнесса. Выполнено по одной фотографии. Современное ПО для генерации дипфейков бесплатное и настолько простое, что с ним справится даже школьник!
Forwarded from VisionLabs_news
Система определяет, что на видео не реальный человек, а сгенерированная с помощью дипфейка копия. Так, Deepfake Detection поймёт, что злоумышленник пытается пройти идентификацию, взять кредит или вывести деньги от лица другого пользователя.
🏦 Для кого подойдёт
Для банков, микрофинансовых организаций, страховых, маркетплейсов, классифайдов и всех, кто хочет повышать безопасность онлайн-услуг.
Точность детектора на тестах VisionLabs — 99,3%
Please open Telegram to view this post
VIEW IN TELEGRAM
Forbes.ru
VisionLabs внедрила систему распознавания дипфейков в банках четырех стран
Разработчик решений по распознаванию лиц и объектов на базе компьютерного зрения VisionLabs (входит в состав МТС) внедрил систему обнаружения дипфейков Deepfake Detection в банки России, Казахстана, Узбекистана и Кыргызстана. Дипфейки становятся все
Вышеприведенная новость подтверждает актуальность нашего продукта. Только у нас метрики намного интереснее, чем у коллег ;) Точность у нас (accuracy) на тесте, разумеется, не хуже. Но мы не считаем точность достаточной для практического применения детектора метрикой, которую имеет смысл декларировать. Мы писали об этом в статье ранее https://vc.ru/id3771257/1419072-pochemu-ne-stoit-bezdumno-doveryat-vysokomu-accuracy-v-reklamnyh-postah
vc.ru
Почему не стоит бездумно доверять высокому Accuracy в рекламных постах? — Deepfakedetect.io на vc.ru
Deepfakedetect.io 24.08.2024
До 3000 учетных записей были скомпроментированы мошенниками на портале Госуслуг Бразилии gov.br с использованием дипфейков
https://www.gov.br/secom/pt-br/assuntos/noticias/2025/05/policia-federal-investiga-fraudes-em-contas-vinculadas-a-plataforma-gov.br
#дипфейки #deepfakedetector
https://www.gov.br/secom/pt-br/assuntos/noticias/2025/05/policia-federal-investiga-fraudes-em-contas-vinculadas-a-plataforma-gov.br
#дипфейки #deepfakedetector
Secretaria de Comunicação Social
Polícia Federal investiga fraudes em contas vinculadas à plataforma gov.br
Estão sendo cumpridos cinco mandados de prisão temporária e 16 mandados de busca e apreensão, expedidos pela Justiça Federal de Brasília, em nove estados
Мы закрываем один из наших проектов по детекции дипфейков - https://deepfakedetect.io/ 💁🏻♂️
На данный момент для достижения уверенной детекции дипфейков одной фотографии никак не достаточно. С начала года новые модели по генерации картинок появляются каждые две-три недели. Каждая новая модель лучше прежней! Угнаться за ними невозможно, да и не нужно.
В то же время множество признаков находится именно в межкадровом пространстве видео. Имея даже 1-секундный отрезок видео, наша новая нейронная сеть RUHUMAN может утверждать об источнике происхождения ролика практически со 100% уверенностью!
На данный момент для достижения уверенной детекции дипфейков одной фотографии никак не достаточно. С начала года новые модели по генерации картинок появляются каждые две-три недели. Каждая новая модель лучше прежней! Угнаться за ними невозможно, да и не нужно.
В то же время множество признаков находится именно в межкадровом пространстве видео. Имея даже 1-секундный отрезок видео, наша новая нейронная сеть RUHUMAN может утверждать об источнике происхождения ролика практически со 100% уверенностью!
Media is too big
VIEW IN TELEGRAM
Небольшое демо нашего дипфейк-детектора RUHUMAN #deepfake #deepfakedetector #liveness #дипфейк #детектордипфейков