💬 Respeecher с помощью ИИ воссоздала речь Дарта Вейдера в сериале «Оби-Ван Кеноби» 2022 года.
Актер Джеймс Эрл Джонс, озвучивавший лорда-ситха 45 лет, принял решение отказаться от персонажа и передал права на использование своего голоса киностудии Lucasfilm. Та поручила компании сделать так, чтобы Вейдер звучал как «злодей Темной стороны Силы 45-летней давности».
👤 Актер курировал работу кинематографистов и остался доволен результатом.
https://forklog.com/news/ii-ozvuchil-darta-vejdera-v-seriale-po-zvezdnym-vojnam
#дипфейк
Актер Джеймс Эрл Джонс, озвучивавший лорда-ситха 45 лет, принял решение отказаться от персонажа и передал права на использование своего голоса киностудии Lucasfilm. Та поручила компании сделать так, чтобы Вейдер звучал как «злодей Темной стороны Силы 45-летней давности».
👤 Актер курировал работу кинематографистов и остался доволен результатом.
https://forklog.com/news/ii-ozvuchil-darta-vejdera-v-seriale-po-zvezdnym-vojnam
#дипфейк
ForkLog
ИИ озвучил Дарта Вейдера в сериале по «Звездным войнам»
Джеймс Эрл Джонс, являющийся основным голосом Дарта Вейдера в киносаге «Звездные войны», разрешил стартапу Respeecher использовать ИИ для озвучивания персонажа.
Bitcoin CPA news. Арбитраж криптовалюты, p2p, crypto feed!
👤 Брюс Уиллис продал права на создание своего цифрового двойника американскому ИИ-стартапу Deepcake. Компания сможет использовать дипфейк актера в рекламных видео, сериалах, фильмах или других проектах. #дипфейк
💬 Play.ht опубликовала вымышленный подкаст-интервью между Джо Роганом и Стивом Джобсом, созданный с помощью технологии клонирования голоса.
Инженеры компании натренировали ИИ на существующих образцах речи обоих спикеров. По словам разработчиков, голос Рогана оказалось клонировать проще из-за большого количества материалов, подходящих для обучения. Речь Джобса получилась менее реалистичной и более роботизированной.
🗣 19 минутное интервью не содержит какой-либо осмысленной информации. Через некоторое время части выдуманного подкаста начинают звучать как концептуальные сочетания общих тем Джобса, включая эстетику, революционные продукты и конкурентов.
https://forklog.com/news/dipfejk-dzho-rogana-vzyal-intervyu-u-falshivogo-stiva-dzhobsa
#дипфейк
Инженеры компании натренировали ИИ на существующих образцах речи обоих спикеров. По словам разработчиков, голос Рогана оказалось клонировать проще из-за большого количества материалов, подходящих для обучения. Речь Джобса получилась менее реалистичной и более роботизированной.
🗣 19 минутное интервью не содержит какой-либо осмысленной информации. Через некоторое время части выдуманного подкаста начинают звучать как концептуальные сочетания общих тем Джобса, включая эстетику, революционные продукты и конкурентов.
https://forklog.com/news/dipfejk-dzho-rogana-vzyal-intervyu-u-falshivogo-stiva-dzhobsa
#дипфейк
ForkLog
Дипфейк Джо Рогана взял интервью у фальшивого Стива Джобса
Компания Play.ht опубликовала вымышленный подкаст-интервью между Джо Роганом и Стивом Джобсом, используя синтезированные голоса обоих спикеров.
👤 Эксперты: дипфейки знаменитостей стали чаще появляться в рекламе без их разрешения.
По словам профессора Университета Карнеги-Меллон Ари Лайтмана, несанкционированное использование образов создает легальную серую зону. Знаменитости могут бороться против репродукции их цифровой личности, однако они не защищены прямым законодательством.
👍 Эксперты отметили и потенциал у легального использования технологии. В качестве примера они привели коллаборацию Брюса Уиллиса и «Мегафона», благодаря чему создателям ролика удалось сэкономить средства и время.
#дипфейк #мнение
По словам профессора Университета Карнеги-Меллон Ари Лайтмана, несанкционированное использование образов создает легальную серую зону. Знаменитости могут бороться против репродукции их цифровой личности, однако они не защищены прямым законодательством.
👍 Эксперты отметили и потенциал у легального использования технологии. В качестве примера они привели коллаборацию Брюса Уиллиса и «Мегафона», благодаря чему создателям ролика удалось сэкономить средства и время.
#дипфейк #мнение
🗣 Роскомнадзор протестирует ИИ-систему Expert для проверки видеоматериалов на наличие лжи и дипфейков.
Создаваемый специалистами Национального центра когнитивных разработок ИТМО инструмент анализирует данные только на английском языке. Система может определить уверенность рассказчика, наличие внешней и внутренней агрессии, а также конгруэнтность и несогласованность в его речи.
☝️ Однако, по словам экспертов, на разработку Expert с низким показателем ложных срабатываний потребуются годы, прежде чем сервис станет полезным.
#Россия #дипфейк
Создаваемый специалистами Национального центра когнитивных разработок ИТМО инструмент анализирует данные только на английском языке. Система может определить уверенность рассказчика, наличие внешней и внутренней агрессии, а также конгруэнтность и несогласованность в его речи.
☝️ Однако, по словам экспертов, на разработку Expert с низким показателем ложных срабатываний потребуются годы, прежде чем сервис станет полезным.
#Россия #дипфейк
👀 Intel создала ИИ-модель FakeCatcher, которая с 96% точностью в режиме реального времени распознает дипфейки на видео.
По словам разработчиков, система способна отличить реального человека от подделки в том числе за счет изменения цвета кровеносных сосудов. Алгоритм считывает эту информацию с множества точек на лице, а после с помощью ИИ обрабатывает полученные сведения.
🙅♂️ Данных о планах компании выпустить FakeCatcher в публичный релиз нет.
https://forklog.com/news/intel-predstavila-detektor-dipfejkov
#Intel #дипфейк
По словам разработчиков, система способна отличить реального человека от подделки в том числе за счет изменения цвета кровеносных сосудов. Алгоритм считывает эту информацию с множества точек на лице, а после с помощью ИИ обрабатывает полученные сведения.
🙅♂️ Данных о планах компании выпустить FakeCatcher в публичный релиз нет.
https://forklog.com/news/intel-predstavila-detektor-dipfejkov
#Intel #дипфейк
ForkLog
Intel представила детектор дипфейков
Компания Intel создала модель искусственного интеллекта FakeCatcher, которая в режиме реального времени распознает дипфейки на видео.
👤 В Twitter распространился дипфейк основателя FTX Сэма Бэнкмана-Фрида, где он предлагал поучаствовать в розыгрыше криптовалюты в качестве компенсации за крах биржи.
Поддельный аккаунт s4ge_ETH быстро заблокировали. Учетная запись имела синюю подтвержденную галочку, дескриптор бизнесмена в Twitter SBF и его аватар.
💰 Мошенники предлагали пользователям отправить любое количество монет на адрес для участия в «розыгрыше». Указанный биткоин-кошелек не получал токенов. Адрес Ethereum в настоящее время содержит чуть более $1000 в ETH.
https://forklog.com/news/dipfejk-sema-benkmana-frida-predlagal-kompensatsiyu-za-krah-ftx
#дипфейк #FTX
Поддельный аккаунт s4ge_ETH быстро заблокировали. Учетная запись имела синюю подтвержденную галочку, дескриптор бизнесмена в Twitter SBF и его аватар.
💰 Мошенники предлагали пользователям отправить любое количество монет на адрес для участия в «розыгрыше». Указанный биткоин-кошелек не получал токенов. Адрес Ethereum в настоящее время содержит чуть более $1000 в ETH.
https://forklog.com/news/dipfejk-sema-benkmana-frida-predlagal-kompensatsiyu-za-krah-ftx
#дипфейк #FTX
ForkLog
Дипфейк Сэма Бэнкмана-Фрида предлагал компенсацию за крах FTX
В Twitter распространился дипфейк основателя FTX Сэма Бэнкмана-Фрида, где он предлагал принять участие в розыгрыше криптовалюты.
👀 Исследователи из Гимназии имени Иоганна Кеплера и Калифорнийского университета в Беркли разработали ИИ-приложение для выявления дипфейковых видео известных людей.
Они натренировали систему глубокого обучения распознавать уникальные движения тела объекта путем анализа нескольких реальных записей его действий.
🔎 Исследователи протестировали инструмент, показав ему несколько дипфейковых и подлинных видео. По их словам, система на 100% успешно определила поддельные и реальные ролики.
#исследование #дипфейк
Они натренировали систему глубокого обучения распознавать уникальные движения тела объекта путем анализа нескольких реальных записей его действий.
🔎 Исследователи протестировали инструмент, показав ему несколько дипфейковых и подлинных видео. По их словам, система на 100% успешно определила поддельные и реальные ролики.
#исследование #дипфейк
🇨🇳 Китайский регулятор запретил создавать дипфейки без разрешения субъекта или во вред национальным интересам. Правила вступят в силу 10 января 2023 года.
Документ обяжет «поставщиков услуг глубокого синтеза» отмечать подделки как цифровые творения, следить за точностью алгоритмов, а также регулярно пересматривать и обеспечивать безопасность собираемых данных.
👤 Правила включают требование регистрации пользователей под их настоящими именами.
https://forklog.com/news/kitaj-zapretil-ugrozhayushhie-natsbezopasnosti-dipfejki
#Китай #регулирование #дипфейк
Документ обяжет «поставщиков услуг глубокого синтеза» отмечать подделки как цифровые творения, следить за точностью алгоритмов, а также регулярно пересматривать и обеспечивать безопасность собираемых данных.
👤 Правила включают требование регистрации пользователей под их настоящими именами.
https://forklog.com/news/kitaj-zapretil-ugrozhayushhie-natsbezopasnosti-dipfejki
#Китай #регулирование #дипфейк
ForkLog
Китай запретил «угрожающие нацбезопасности» дипфейки
Администрация киберпространства Китая (CAC) опубликовала правила, запрещающие создавать дипфейки без разрешения субъекта или во вред национальным интересам.