💬 Respeecher с помощью ИИ воссоздала речь Дарта Вейдера в сериале «Оби-Ван Кеноби» 2022 года.
Актер Джеймс Эрл Джонс, озвучивавший лорда-ситха 45 лет, принял решение отказаться от персонажа и передал права на использование своего голоса киностудии Lucasfilm. Та поручила компании сделать так, чтобы Вейдер звучал как «злодей Темной стороны Силы 45-летней давности».
👤 Актер курировал работу кинематографистов и остался доволен результатом.
https://forklog.com/news/ii-ozvuchil-darta-vejdera-v-seriale-po-zvezdnym-vojnam
#дипфейк
Актер Джеймс Эрл Джонс, озвучивавший лорда-ситха 45 лет, принял решение отказаться от персонажа и передал права на использование своего голоса киностудии Lucasfilm. Та поручила компании сделать так, чтобы Вейдер звучал как «злодей Темной стороны Силы 45-летней давности».
👤 Актер курировал работу кинематографистов и остался доволен результатом.
https://forklog.com/news/ii-ozvuchil-darta-vejdera-v-seriale-po-zvezdnym-vojnam
#дипфейк
ForkLog
ИИ озвучил Дарта Вейдера в сериале по «Звездным войнам»
Джеймс Эрл Джонс, являющийся основным голосом Дарта Вейдера в киносаге «Звездные войны», разрешил стартапу Respeecher использовать ИИ для озвучивания персонажа.
Bitcoin CPA news. Арбитраж криптовалюты, p2p, crypto feed!
👤 Брюс Уиллис продал права на создание своего цифрового двойника американскому ИИ-стартапу Deepcake. Компания сможет использовать дипфейк актера в рекламных видео, сериалах, фильмах или других проектах. #дипфейк
💬 Play.ht опубликовала вымышленный подкаст-интервью между Джо Роганом и Стивом Джобсом, созданный с помощью технологии клонирования голоса.
Инженеры компании натренировали ИИ на существующих образцах речи обоих спикеров. По словам разработчиков, голос Рогана оказалось клонировать проще из-за большого количества материалов, подходящих для обучения. Речь Джобса получилась менее реалистичной и более роботизированной.
🗣 19 минутное интервью не содержит какой-либо осмысленной информации. Через некоторое время части выдуманного подкаста начинают звучать как концептуальные сочетания общих тем Джобса, включая эстетику, революционные продукты и конкурентов.
https://forklog.com/news/dipfejk-dzho-rogana-vzyal-intervyu-u-falshivogo-stiva-dzhobsa
#дипфейк
Инженеры компании натренировали ИИ на существующих образцах речи обоих спикеров. По словам разработчиков, голос Рогана оказалось клонировать проще из-за большого количества материалов, подходящих для обучения. Речь Джобса получилась менее реалистичной и более роботизированной.
🗣 19 минутное интервью не содержит какой-либо осмысленной информации. Через некоторое время части выдуманного подкаста начинают звучать как концептуальные сочетания общих тем Джобса, включая эстетику, революционные продукты и конкурентов.
https://forklog.com/news/dipfejk-dzho-rogana-vzyal-intervyu-u-falshivogo-stiva-dzhobsa
#дипфейк
ForkLog
Дипфейк Джо Рогана взял интервью у фальшивого Стива Джобса
Компания Play.ht опубликовала вымышленный подкаст-интервью между Джо Роганом и Стивом Джобсом, используя синтезированные голоса обоих спикеров.
👤 Эксперты: дипфейки знаменитостей стали чаще появляться в рекламе без их разрешения.
По словам профессора Университета Карнеги-Меллон Ари Лайтмана, несанкционированное использование образов создает легальную серую зону. Знаменитости могут бороться против репродукции их цифровой личности, однако они не защищены прямым законодательством.
👍 Эксперты отметили и потенциал у легального использования технологии. В качестве примера они привели коллаборацию Брюса Уиллиса и «Мегафона», благодаря чему создателям ролика удалось сэкономить средства и время.
#дипфейк #мнение
По словам профессора Университета Карнеги-Меллон Ари Лайтмана, несанкционированное использование образов создает легальную серую зону. Знаменитости могут бороться против репродукции их цифровой личности, однако они не защищены прямым законодательством.
👍 Эксперты отметили и потенциал у легального использования технологии. В качестве примера они привели коллаборацию Брюса Уиллиса и «Мегафона», благодаря чему создателям ролика удалось сэкономить средства и время.
#дипфейк #мнение
🗣 Роскомнадзор протестирует ИИ-систему Expert для проверки видеоматериалов на наличие лжи и дипфейков.
Создаваемый специалистами Национального центра когнитивных разработок ИТМО инструмент анализирует данные только на английском языке. Система может определить уверенность рассказчика, наличие внешней и внутренней агрессии, а также конгруэнтность и несогласованность в его речи.
☝️ Однако, по словам экспертов, на разработку Expert с низким показателем ложных срабатываний потребуются годы, прежде чем сервис станет полезным.
#Россия #дипфейк
Создаваемый специалистами Национального центра когнитивных разработок ИТМО инструмент анализирует данные только на английском языке. Система может определить уверенность рассказчика, наличие внешней и внутренней агрессии, а также конгруэнтность и несогласованность в его речи.
☝️ Однако, по словам экспертов, на разработку Expert с низким показателем ложных срабатываний потребуются годы, прежде чем сервис станет полезным.
#Россия #дипфейк
👀 Intel создала ИИ-модель FakeCatcher, которая с 96% точностью в режиме реального времени распознает дипфейки на видео.
По словам разработчиков, система способна отличить реального человека от подделки в том числе за счет изменения цвета кровеносных сосудов. Алгоритм считывает эту информацию с множества точек на лице, а после с помощью ИИ обрабатывает полученные сведения.
🙅♂️ Данных о планах компании выпустить FakeCatcher в публичный релиз нет.
https://forklog.com/news/intel-predstavila-detektor-dipfejkov
#Intel #дипфейк
По словам разработчиков, система способна отличить реального человека от подделки в том числе за счет изменения цвета кровеносных сосудов. Алгоритм считывает эту информацию с множества точек на лице, а после с помощью ИИ обрабатывает полученные сведения.
🙅♂️ Данных о планах компании выпустить FakeCatcher в публичный релиз нет.
https://forklog.com/news/intel-predstavila-detektor-dipfejkov
#Intel #дипфейк
ForkLog
Intel представила детектор дипфейков
Компания Intel создала модель искусственного интеллекта FakeCatcher, которая в режиме реального времени распознает дипфейки на видео.
👤 В Twitter распространился дипфейк основателя FTX Сэма Бэнкмана-Фрида, где он предлагал поучаствовать в розыгрыше криптовалюты в качестве компенсации за крах биржи.
Поддельный аккаунт s4ge_ETH быстро заблокировали. Учетная запись имела синюю подтвержденную галочку, дескриптор бизнесмена в Twitter SBF и его аватар.
💰 Мошенники предлагали пользователям отправить любое количество монет на адрес для участия в «розыгрыше». Указанный биткоин-кошелек не получал токенов. Адрес Ethereum в настоящее время содержит чуть более $1000 в ETH.
https://forklog.com/news/dipfejk-sema-benkmana-frida-predlagal-kompensatsiyu-za-krah-ftx
#дипфейк #FTX
Поддельный аккаунт s4ge_ETH быстро заблокировали. Учетная запись имела синюю подтвержденную галочку, дескриптор бизнесмена в Twitter SBF и его аватар.
💰 Мошенники предлагали пользователям отправить любое количество монет на адрес для участия в «розыгрыше». Указанный биткоин-кошелек не получал токенов. Адрес Ethereum в настоящее время содержит чуть более $1000 в ETH.
https://forklog.com/news/dipfejk-sema-benkmana-frida-predlagal-kompensatsiyu-za-krah-ftx
#дипфейк #FTX
ForkLog
Дипфейк Сэма Бэнкмана-Фрида предлагал компенсацию за крах FTX
В Twitter распространился дипфейк основателя FTX Сэма Бэнкмана-Фрида, где он предлагал принять участие в розыгрыше криптовалюты.
👀 Исследователи из Гимназии имени Иоганна Кеплера и Калифорнийского университета в Беркли разработали ИИ-приложение для выявления дипфейковых видео известных людей.
Они натренировали систему глубокого обучения распознавать уникальные движения тела объекта путем анализа нескольких реальных записей его действий.
🔎 Исследователи протестировали инструмент, показав ему несколько дипфейковых и подлинных видео. По их словам, система на 100% успешно определила поддельные и реальные ролики.
#исследование #дипфейк
Они натренировали систему глубокого обучения распознавать уникальные движения тела объекта путем анализа нескольких реальных записей его действий.
🔎 Исследователи протестировали инструмент, показав ему несколько дипфейковых и подлинных видео. По их словам, система на 100% успешно определила поддельные и реальные ролики.
#исследование #дипфейк
🇨🇳 Китайский регулятор запретил создавать дипфейки без разрешения субъекта или во вред национальным интересам. Правила вступят в силу 10 января 2023 года.
Документ обяжет «поставщиков услуг глубокого синтеза» отмечать подделки как цифровые творения, следить за точностью алгоритмов, а также регулярно пересматривать и обеспечивать безопасность собираемых данных.
👤 Правила включают требование регистрации пользователей под их настоящими именами.
https://forklog.com/news/kitaj-zapretil-ugrozhayushhie-natsbezopasnosti-dipfejki
#Китай #регулирование #дипфейк
Документ обяжет «поставщиков услуг глубокого синтеза» отмечать подделки как цифровые творения, следить за точностью алгоритмов, а также регулярно пересматривать и обеспечивать безопасность собираемых данных.
👤 Правила включают требование регистрации пользователей под их настоящими именами.
https://forklog.com/news/kitaj-zapretil-ugrozhayushhie-natsbezopasnosti-dipfejki
#Китай #регулирование #дипфейк
ForkLog
Китай запретил «угрожающие нацбезопасности» дипфейки
Администрация киберпространства Китая (CAC) опубликовала правила, запрещающие создавать дипфейки без разрешения субъекта или во вред национальным интересам.
🤑 Авторы «Южного парка» Трей Паркер и Мэтт Стоун привлекли $20 млн на развитие студии по созданию дипфейков Deep Voodoo.
Инвесторами выступили компании Connect Ventures и New Enterprise Associates. По данным Variety, это первые привлеченные извне средства. Ранее стартап получал финансирование только от независимой компании Паркера и Стоуна Park County.
Deep Voodoo основана в 2020 году. Тогда Паркер и Стоун собрали команду ИИ-художников и создали короткометражную комедию Sassy Justice с дипфейком Дональда Трампа.
👤 В 2022 году стартап разработал визуальные эффекты для клипа The Heart Part 5 Кендрика Ламара. В нем авторы с помощью дипфейк-технологии меняли лица рэперу.
#дипфейк #инвестиции
Инвесторами выступили компании Connect Ventures и New Enterprise Associates. По данным Variety, это первые привлеченные извне средства. Ранее стартап получал финансирование только от независимой компании Паркера и Стоуна Park County.
Deep Voodoo основана в 2020 году. Тогда Паркер и Стоун собрали команду ИИ-художников и создали короткометражную комедию Sassy Justice с дипфейком Дональда Трампа.
👤 В 2022 году стартап разработал визуальные эффекты для клипа The Heart Part 5 Кендрика Ламара. В нем авторы с помощью дипфейк-технологии меняли лица рэперу.
#дипфейк #инвестиции
🗣 Американские ученые предупредили о растущих усилиях «вражеских государств» по созданию дипфейков.
Согласно исследователям из Северо-Западного университета и Института Брукингса, на сегодня доступно множество инструментов для генерации ИИ-подделок. В качестве примера ученые привели Stable Diffusion, который уже адаптируют для создания ложных видеороликов.
Исследователи уверены, что иностранные «противники» будут использовать такие системы для проведения дезинформационных кампаний и распространения фальшивых новостей, в том числе в рамках военных и разведывательных операций.
📢 Авторы доклада призвали правительства всего мира ввести политику, регулирующую использование ИИ-подделок. Также они скептически высказались об инструментах обнаружения дипфейков.
https://forklog.com/news/ai/uchenye-prizvali-mirovoe-soobshhestvo-uregulirovat-dipfejki
#дипфейк #исследование
Согласно исследователям из Северо-Западного университета и Института Брукингса, на сегодня доступно множество инструментов для генерации ИИ-подделок. В качестве примера ученые привели Stable Diffusion, который уже адаптируют для создания ложных видеороликов.
Исследователи уверены, что иностранные «противники» будут использовать такие системы для проведения дезинформационных кампаний и распространения фальшивых новостей, в том числе в рамках военных и разведывательных операций.
📢 Авторы доклада призвали правительства всего мира ввести политику, регулирующую использование ИИ-подделок. Также они скептически высказались об инструментах обнаружения дипфейков.
https://forklog.com/news/ai/uchenye-prizvali-mirovoe-soobshhestvo-uregulirovat-dipfejki
#дипфейк #исследование
ForkLog
Ученые призвали мировое сообщество урегулировать дипфейки
Американские ученые предупредили о растущих усилиях «вражеских государств» по созданию дипфейков для распространения дезинформации и проведения разведки.
❌ ElevenLabs сообщила о приостановке тестирования ИИ-сервиса клонирования голоса из-за «растущего числа случаев злоупотреблений».
Пользователи 4chan использовали продукт с целью создания дипфейков знаменитостей для распространения расистских и гомофобных высказываний. В одном из клипов голос, имитирующий актрису Эмму Уотсон, читает отрывок из «Майн кампф». В другом дипфейк политического комментатора Бена Шарпио делает расистские замечания в адрес конгрессвумен Александрии Окасио-Кортес.
☝️ Вскоре после распространения клипов в ElevenLabs признали проблему. Представители компании заявили, что изучают дополнительные меры безопасности для предотвращения злоупотреблений в будущем.
https://forklog.com/news/ai/startap-obvinili-v-rasprostranenii-rasistskih-audiodipfejkov
#дипфейк #NLP
Пользователи 4chan использовали продукт с целью создания дипфейков знаменитостей для распространения расистских и гомофобных высказываний. В одном из клипов голос, имитирующий актрису Эмму Уотсон, читает отрывок из «Майн кампф». В другом дипфейк политического комментатора Бена Шарпио делает расистские замечания в адрес конгрессвумен Александрии Окасио-Кортес.
☝️ Вскоре после распространения клипов в ElevenLabs признали проблему. Представители компании заявили, что изучают дополнительные меры безопасности для предотвращения злоупотреблений в будущем.
https://forklog.com/news/ai/startap-obvinili-v-rasprostranenii-rasistskih-audiodipfejkov
#дипфейк #NLP
ForkLog
Стартап обвинили в распространении расистских аудиодипфейков
Компания ElevenLabs сообщила о приостановке бета-тестирования ИИ-сервиса клонирования голоса из-за «растущего числа случаев злоупотреблений».
👥 Miramax задействует искусственный интеллект для омоложения Тома Хэнкса и Робин Райт в будущем фильме «Здесь».
Кинокомпания использует дипфейк-технологию Metaphysic. По данным разработчика, ИИ позволит «гиперреально изменить лица звезд и омолодить их» в режиме реального времени со скоростью 30 кадров в секунду.
🪞 Руководитель команды визуальных эффектов фильма Кевин Бэйли заявил, что актеры смогут использовать технологию как «зеркало молодости» и увидеть себя в финальной версии. Отснятый материал не потребует дополнительной обработки, добавили в Metaphysic.
#дипфейк #искусство
Кинокомпания использует дипфейк-технологию Metaphysic. По данным разработчика, ИИ позволит «гиперреально изменить лица звезд и омолодить их» в режиме реального времени со скоростью 30 кадров в секунду.
🪞 Руководитель команды визуальных эффектов фильма Кевин Бэйли заявил, что актеры смогут использовать технологию как «зеркало молодости» и увидеть себя в финальной версии. Отснятый материал не потребует дополнительной обработки, добавили в Metaphysic.
#дипфейк #искусство