🗣 Главный научный сотрудник Microsoft Эрик Хорвиц назвал интерактивные и композиционные дипфейки одной из главных угроз в области информационной безопасности.
По словам эксперта, проблема возникает из-за методологии генеративно-состязательных сетей, состоящих из двух конкурирующих элементов: генератора и дискриминатора. Первый предназначен для создания контента, а второй — оценки его качества. Хорвиц считает, что со временем генератор научится обманывать дискриминатор.
☝️ Ученый предложил несколько способов, которые помогут подготовиться и защититься от ожидаемого роста числа подделок, среди которых увеличение требования к СМИ и повышение медиаграмотности людей.
https://forklog.com/news/sotrudnik-microsoft-dipfejki-predstavlyayut-soboj-rastushhuyu-ugrozu/
#мнение #дипфейки
По словам эксперта, проблема возникает из-за методологии генеративно-состязательных сетей, состоящих из двух конкурирующих элементов: генератора и дискриминатора. Первый предназначен для создания контента, а второй — оценки его качества. Хорвиц считает, что со временем генератор научится обманывать дискриминатор.
☝️ Ученый предложил несколько способов, которые помогут подготовиться и защититься от ожидаемого роста числа подделок, среди которых увеличение требования к СМИ и повышение медиаграмотности людей.
https://forklog.com/news/sotrudnik-microsoft-dipfejki-predstavlyayut-soboj-rastushhuyu-ugrozu/
#мнение #дипфейки
ForkLog
Сотрудник Microsoft: дипфейки представляют собой растущую угрозу
Дипфейки представляют собой растущую угрозу в области информационной безопасности, заявил главный научный сотрудник Microsoft Эрик Хорвиц.
👁 Nvidia представила дипфейк-функцию «Зрительный контакт» для выравнивания взгляда пользователя в камеру, если он смотрит куда-то еще. Фильтр доступен владельцам RTX-видеокарт в приложении Nvidia Broadcast 1.4.
Искусственный интеллект «заменяет» глаза человека на видео «синтетическими», которые практически всегда направлены в камеру. При этом фильтр старается скопировать цвет радужной оболочки пользователя.
👥 «Зрительный контакт» работает с некоторыми проблемами. Разработчики попросили сообщество помочь улучшить его, отправив короткие видео.
https://forklog.com/news/ai/nvidia-sozdala-dipfejk-instrument-dlya-imitatsii-vzglyada-v-kameru
#Nvidia #дипфейки
Искусственный интеллект «заменяет» глаза человека на видео «синтетическими», которые практически всегда направлены в камеру. При этом фильтр старается скопировать цвет радужной оболочки пользователя.
👥 «Зрительный контакт» работает с некоторыми проблемами. Разработчики попросили сообщество помочь улучшить его, отправив короткие видео.
https://forklog.com/news/ai/nvidia-sozdala-dipfejk-instrument-dlya-imitatsii-vzglyada-v-kameru
#Nvidia #дипфейки
ForkLog
Nvidia создала дипфейк-инструмент для имитации взгляда в камеру
Компания Nvidia представила дипфейк-функцию «Зрительный контакт» для выравнивания взгляда пользователя в камеру, если он смотрит куда-то еще.
☎️ Мошенники стали чаще применять технологии имитации голоса на базе искусственного интеллекта для шантажа родственников жертв.
Эксперты предупредили, что правоохранительная система не способна предотвратить наплыв ИИ-технологий клонирования речи. По их словам, сегодня уже доступны инструменты, позволяющие воссоздать голос по 30-секундному аудиофайлу.
😔 В FTC признали проблему. В 2022 году ведомство зафиксировало более 5100 случаев вымогательств по телефону.
https://forklog.com/news/ai/aferisty-vooruzhilis-ii-dlya-imitatsii-golosov-rodstvennikov-svoih-zhertv
#дипфейки #NLP
Эксперты предупредили, что правоохранительная система не способна предотвратить наплыв ИИ-технологий клонирования речи. По их словам, сегодня уже доступны инструменты, позволяющие воссоздать голос по 30-секундному аудиофайлу.
😔 В FTC признали проблему. В 2022 году ведомство зафиксировало более 5100 случаев вымогательств по телефону.
https://forklog.com/news/ai/aferisty-vooruzhilis-ii-dlya-imitatsii-golosov-rodstvennikov-svoih-zhertv
#дипфейки #NLP
ForkLog
Аферисты «вооружились» ИИ для имитации голосов родственников своих жертв
Мошенники стали чаще применять технологии имитации голоса на базе искусственного интеллекта для шантажа родственников жертв. Об этом пишет Washington Post. По данным Федеральной торговой комиссии США (FTC), в 2022 году вымогательство с участием самозванцев…
🔧 Twitch ужесточил политику в отношении демонстрации и распространения дипфейк-наготы. Изменения вступят в силу в течение месяца.
Платформа запретила мимолетный показ синтетических подделок, а также в целях критики их существования. Преднамеренное распространение созданных без согласия дипфейков может привести к временной блокировке аккаунта.
👀 Обновление политики произошло после скандала, когда известный стример Atrioc ненадолго показал вкладку браузера с веб-сайтом, продающим доступ к дипфейкам блогерш Twitch.
#Twitch #дипфейки
Платформа запретила мимолетный показ синтетических подделок, а также в целях критики их существования. Преднамеренное распространение созданных без согласия дипфейков может привести к временной блокировке аккаунта.
👀 Обновление политики произошло после скандала, когда известный стример Atrioc ненадолго показал вкладку браузера с веб-сайтом, продающим доступ к дипфейкам блогерш Twitch.
#Twitch #дипфейки
❌ TikTok запретил размещение дипфейков без соответствующей отметки.
Согласно обновленным правилам сервиса, авторы такого контента должны указывать, что ролик создан или отредактирован с помощью ИИ-инструментов — в виде водяного знака поверх видео или в описании. Посты без отметок будут банить.
Кроме этого, модераторы могут удалять видео, в которых используется реалистичный синтетический голос как известных людей, так и непубличных.
🙅♂️ Также платформа запретила политические и рекламные ИИ-подделки. Однако модераторы не будут удалять художественные или образовательные дипфейки со знаменитостями.
#TikTok #дипфейки
Согласно обновленным правилам сервиса, авторы такого контента должны указывать, что ролик создан или отредактирован с помощью ИИ-инструментов — в виде водяного знака поверх видео или в описании. Посты без отметок будут банить.
Кроме этого, модераторы могут удалять видео, в которых используется реалистичный синтетический голос как известных людей, так и непубличных.
🙅♂️ Также платформа запретила политические и рекламные ИИ-подделки. Однако модераторы не будут удалять художественные или образовательные дипфейки со знаменитостями.
#TikTok #дипфейки
📰 Немецкий таблоид Die Aktuelle опубликовал «интервью» с Михаэлем Шумахером, сгенерированное искусственным интеллектом. Семья гонщика планирует подать в суд на журнал.
На обложке выпуска Die Aktuelle от 15 апреля редакторы разместили фотографию улыбающегося Шумахера с заголовком: «Михаэль Шумахер. Первое интервью!». Однако ниже они разместили подпись: «звучит обманчиво реально».
💬 «Интервью» содержит несколько цитат, якобы принадлежащие гонщику. Однако в конце концов выяснилось, что их сгенерировал ИИ.
https://forklog.com/news/ai/semya-shumahera-podast-v-sud-na-tabloid-za-ii-intervyu
#дипфейки
На обложке выпуска Die Aktuelle от 15 апреля редакторы разместили фотографию улыбающегося Шумахера с заголовком: «Михаэль Шумахер. Первое интервью!». Однако ниже они разместили подпись: «звучит обманчиво реально».
💬 «Интервью» содержит несколько цитат, якобы принадлежащие гонщику. Однако в конце концов выяснилось, что их сгенерировал ИИ.
https://forklog.com/news/ai/semya-shumahera-podast-v-sud-na-tabloid-za-ii-intervyu
#дипфейки
ForkLog
Семья Шумахера подаст в суд на таблоид за «ИИ-интервью»
Немецкий таблоид Die Aktuelle опубликовал «интервью» с Михаэлем Шумахером, сгенерированное искусственным интеллектом. Семья гонщика планирует судиться.
Bitcoin CPA news. Арбитраж криптовалюты, p2p, crypto feed!
📰 Немецкий таблоид Die Aktuelle опубликовал «интервью» с Михаэлем Шумахером, сгенерированное искусственным интеллектом. Семья гонщика планирует подать в суд на журнал. На обложке выпуска Die Aktuelle от 15 апреля редакторы разместили фотографию улыбающегося…
📰 Главную редакторку таблоида Die Aktuelle Энн Хоффманн уволили за публикацию фейкового «интервью» с Михаэлем Шумахером, сгенерированного ИИ.
По словам пресс-службы издательства Funke Mediengruppe, эта «безвкусная и вводящая в заблуждение статья» не должна была появится в журнале. Владельцы таблоида подчеркнули, что публикация не соответствует стандартам журналистики.
#дипфейки
По словам пресс-службы издательства Funke Mediengruppe, эта «безвкусная и вводящая в заблуждение статья» не должна была появится в журнале. Владельцы таблоида подчеркнули, что публикация не соответствует стандартам журналистики.
#дипфейки