ДИПФЕЙК - СИНТЕТИЧЕСКИЙ СЛЕПОК РЕАЛЬНОСТИ, КОТОРЫЙ МОЖЕТ УГРОЖАТЬ НАЦИОНАЛЬНОЙ БЕЗОПАСНОСТИ
📻 Юрий Линдре, эксперт Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта и сквозных технологий, исполнительный секретарь Комитета по вопросам искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО в программе «Стратегия национальной безопасности» с Анной Шафран на радио «Звезда».
От дорогостоящей технологии в кино до массового использования в сети
Дипфейк - синтетический цифровой контент, изображение человека, перенесенное в некие искусственно созданные условия, ситуацию, которой в действительности никогда не было. В кино эта технология позволяет омолаживать или, например, «воскрешать» актёров, которые нужны для ремейков старых фильмов. На экране мы видим знакомое лицо, знакомый голос, но это искусственный образ, не принадлежащий реально живущему сегодня человеку. И то, что раньше в силу дороговизны было доступно крупным киноконцернам, сегодня может позволить себе каждый владелец смартфона. То есть, порог входа для создания синтетических образов, фантастического видео и аудио контента, существенно понизился. Поэтому сегодня в сети есть сотни миллионов синтезированных файлов, дипфейков, изначально создаваемых как безобидный розыгрыш, интернет-забава для узкого круга друзей и товарищей.
Инструмент дискредитации, манипуляции, шантажа – под ударом каждый
Самый скандальный дипфейк, разошедшийся по всем мировым СМИ, появился в 2019 году. В то время президентом США был Дональд Трамп. Он был чуть ли не самым активным политическим деятелем в Twitter с многомиллионной армией подписчиков. Посредством своей страницы в этом приложении он критиковал своих оппонентов, среди которых числилась в тот момент спикер верхней палаты парламента Нэнси Пелоси. История умалчивает, кто является автором дипфейка с её участием, но видео на своей странице выложил Трамп...
Продолжение читайте 👉👉👉здесь
📌Подписывайтесь - @zvezda_analytics
#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #пелоси #твиттер #twitter
📻 Юрий Линдре, эксперт Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта и сквозных технологий, исполнительный секретарь Комитета по вопросам искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО в программе «Стратегия национальной безопасности» с Анной Шафран на радио «Звезда».
От дорогостоящей технологии в кино до массового использования в сети
Дипфейк - синтетический цифровой контент, изображение человека, перенесенное в некие искусственно созданные условия, ситуацию, которой в действительности никогда не было. В кино эта технология позволяет омолаживать или, например, «воскрешать» актёров, которые нужны для ремейков старых фильмов. На экране мы видим знакомое лицо, знакомый голос, но это искусственный образ, не принадлежащий реально живущему сегодня человеку. И то, что раньше в силу дороговизны было доступно крупным киноконцернам, сегодня может позволить себе каждый владелец смартфона. То есть, порог входа для создания синтетических образов, фантастического видео и аудио контента, существенно понизился. Поэтому сегодня в сети есть сотни миллионов синтезированных файлов, дипфейков, изначально создаваемых как безобидный розыгрыш, интернет-забава для узкого круга друзей и товарищей.
Инструмент дискредитации, манипуляции, шантажа – под ударом каждый
Самый скандальный дипфейк, разошедшийся по всем мировым СМИ, появился в 2019 году. В то время президентом США был Дональд Трамп. Он был чуть ли не самым активным политическим деятелем в Twitter с многомиллионной армией подписчиков. Посредством своей страницы в этом приложении он критиковал своих оппонентов, среди которых числилась в тот момент спикер верхней палаты парламента Нэнси Пелоси. История умалчивает, кто является автором дипфейка с её участием, но видео на своей странице выложил Трамп...
Продолжение читайте 👉👉👉здесь
📌Подписывайтесь - @zvezda_analytics
#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #пелоси #твиттер #twitter
Дзен | Блогерская платформа
ДИПФЕЙК - СИНТЕТИЧЕСКИЙ СЛЕПОК РЕАЛЬНОСТИ, КОТОРЫЙ МОЖЕТ УГРОЖАТЬ НАЦИОНАЛЬНОЙ БЕЗОПАСНОСТИ
От дорогостоящей технологии в кино до массового использования в сети Дипфейк - синтетический цифровой контент, изображение человека, перенесенное в некие искусственно созданные условия, ситуацию, которой в действительности никогда не было. В кино эта технология…
ДИПФЕЙК-ТЕХНОЛОГИИ. БУДУЩЕЕ УЖЕ СЕГОДНЯ
📻 Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий, исполнительного секретаря Комитета по вопросам ИИ при Комиссии Российской Федерации по делам ЮНЕСКО Юрия Линдре специально для «ЗВЕЗДА.АНАЛИТИКА».
В последние годы тематика развития и применения дипфейк-технологий плотно вошла в дискурс не только профильных экспертов и программистов, но также стала важной частью цифровой жизни современного общества.
Изначальная идея студента Стэнфордского университета Й.Гудфеллоу - автора современных методов синтезирования искусственных образов на основе существующих шаблонов - оказалась настолько популярной, что к настоящему моменту практически любая сфера цифровой жизни человека испытывает на себе влияние его изобретения. Современный дипфейк (аудиовизуальный или графический контент, как правило, имитирующий человека, в т.ч. реально существующего) представляет собой результат состязательной работы нейросетей. Одна из них изучает шаблон или образ, который нужно повторить, а другая пытается ее обмануть, синтезируя многочисленные подражания до тех пор, пока первая нейросеть не сочтет подделку отвечающей всем ключевым параметрам оригинала.
Наиболее активное и известное буквально всем внедрение дипфейк-технологий наблюдается в массовой культуре, например, кинематографе. Популярная во всем мире вселенная «Звездных войн» стала одной из первых кинофраншиз, примеривших на себя синтетические видео образы. Так, вышедший в 2016 г. фильм «Изгой один», предшествующий событиям самого первого эпизода саги 1977 года выпуска, содержал сцену с одним из главных персонажей вселенной – принцессой Леей. К моменту выхода «Изгоя» исполнительница роли Леи актриса Кэрри Фишер умерла в возрасте 60-и лет, поэтому для воссоздания образа молодой и задорной предводительницы сопротивления силам галактической Империи была применена дипфейк-технология...
Продолжение читайте 👉👉👉здесь
📌Подписывайтесь – @zvezda_analytics
#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #пелоси #твиттер #twitter #abba # кэррифишер #звездныевойны #гаррипоттер
📻 Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий, исполнительного секретаря Комитета по вопросам ИИ при Комиссии Российской Федерации по делам ЮНЕСКО Юрия Линдре специально для «ЗВЕЗДА.АНАЛИТИКА».
В последние годы тематика развития и применения дипфейк-технологий плотно вошла в дискурс не только профильных экспертов и программистов, но также стала важной частью цифровой жизни современного общества.
Изначальная идея студента Стэнфордского университета Й.Гудфеллоу - автора современных методов синтезирования искусственных образов на основе существующих шаблонов - оказалась настолько популярной, что к настоящему моменту практически любая сфера цифровой жизни человека испытывает на себе влияние его изобретения. Современный дипфейк (аудиовизуальный или графический контент, как правило, имитирующий человека, в т.ч. реально существующего) представляет собой результат состязательной работы нейросетей. Одна из них изучает шаблон или образ, который нужно повторить, а другая пытается ее обмануть, синтезируя многочисленные подражания до тех пор, пока первая нейросеть не сочтет подделку отвечающей всем ключевым параметрам оригинала.
Наиболее активное и известное буквально всем внедрение дипфейк-технологий наблюдается в массовой культуре, например, кинематографе. Популярная во всем мире вселенная «Звездных войн» стала одной из первых кинофраншиз, примеривших на себя синтетические видео образы. Так, вышедший в 2016 г. фильм «Изгой один», предшествующий событиям самого первого эпизода саги 1977 года выпуска, содержал сцену с одним из главных персонажей вселенной – принцессой Леей. К моменту выхода «Изгоя» исполнительница роли Леи актриса Кэрри Фишер умерла в возрасте 60-и лет, поэтому для воссоздания образа молодой и задорной предводительницы сопротивления силам галактической Империи была применена дипфейк-технология...
Продолжение читайте 👉👉👉здесь
📌Подписывайтесь – @zvezda_analytics
#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #пелоси #твиттер #twitter #abba # кэррифишер #звездныевойны #гаррипоттер
Дзен | Блогерская платформа
ДИПФЕЙК-ТЕХНОЛОГИИ. БУДУЩЕЕ УЖЕ СЕГОДНЯ
Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий, исполнительного секретаря Комитета по вопросам ИИ при Комиссии Российской Федерации по делам ЮНЕСКО Юрия…
ДИПФЕЙК – ПЕРЕДОВОЙ ИНСТРУМЕНТ МАНИПУЛЯЦИОННОГО ВОЗДЕЙСТВИЯ В ПЕРИОД ГЛОБАЛЬНОЙ ПОЛИТИЧЕСКОЙ НЕСТАБИЛЬНОСТИ
📻 Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий, исполнительного секретаря Комитета по вопросам ИИ при Комиссии Российской Федерации по делам ЮНЕСКО Юрия Линдре специально для «ЗВЕЗДА.АНАЛИТИКА».
Технологии по созданию синтетического аудиовизуального контента, для краткости именуемые внутри экспертного сообщества и в СМИ дипфейками, последние несколько лет переживают экспоненциальный рост. Причина проста и состоит по сути из двух взаимосвязанных факторов. Во-первых, скорость вычислений типовых видеокарт в компьютерах масс-маркета начиная с 2015 г. в среднем удваивалась каждые два года. Таким образом, уже к 2018 году ПК среднего ценового диапазона в части производительности приблизились к уровню, ранее доступному лишь профессиональным студиям по производству различного, в т.ч. сложного аудиовизуального контента. Во-вторых, стремительное расширение круга потребителей производительных и в целом недорогих ПК мультипликативно увеличило общее количество энтузиастов по всему миру, экспериментирующих с программным обеспечением для создания собственного пользовательского контента. Именно благодаря последним феномен дипфейков стал по-настоящему массовым.
Если вывести за скобки эксперименты с дипфейками в развлекательных целях (главная на сегодня сфера применения дипфейк-технологий), то второй по степени общественного и научного интереса категорией является синтез «политических дипфейков». Зачастую образы известных политиков и общественных деятелей используются в качестве универсального мерила «мастерства» отдельного автора или целой команды: чем реалистичнее подделка, тем выше «авторитет» в тематических сообществах и выше ценник на графические услуги энтузиастов. Кроме того, политический дипфейк – это еще хороший способ «выпуска пара», т.е. публичной демонстрации личного отношения создателя контента к тому или иному деятелю по аналогии с надписью на заборе.
На текущем этапе развития политического дипфейка в Интернет-пространстве активно обкатывается разнообразный контент с «участием» мировых лидеров и известных лиц. Используются сразу несколько передовых подходов к изготовлению синтетических образов с целью снятия общественной реакции на предмет реалистичности и доверия. К счастью, пока в провокационные политические сюжеты с техническими погрешностями верят далеко не все, поэтому на выявление, сбор, анализ и устранение повторяющихся, т.е. типовых технических изъянов в картинке и звуке, на которые реагируют эксперты и Интернет-общественность, уйдет достаточно много времени, возможно даже несколько лет.
Причина недостаточного качества синтетического контента кроется в том, что быстро сгенерированные видеообразы, как правило идущие вдогонку к актуальным информповодам, объективно уступают эталонным дипфейкам из сферы кинематографа.
По-настоящему реалистичные фейки, способные обмануть искушенного зрителя и профессионалов, подразумевают основательную проработку и весьма длительный процесс изготовления. В случае с нашумевшим в 2017 году дипфейком бывшего...
Продолжение читайте 👉👉👉здесь
📌Подписывайтесь – @zvezda_analytics
#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #путин #трамп #зеленский #обама #морганфримен
📻 Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий, исполнительного секретаря Комитета по вопросам ИИ при Комиссии Российской Федерации по делам ЮНЕСКО Юрия Линдре специально для «ЗВЕЗДА.АНАЛИТИКА».
Технологии по созданию синтетического аудиовизуального контента, для краткости именуемые внутри экспертного сообщества и в СМИ дипфейками, последние несколько лет переживают экспоненциальный рост. Причина проста и состоит по сути из двух взаимосвязанных факторов. Во-первых, скорость вычислений типовых видеокарт в компьютерах масс-маркета начиная с 2015 г. в среднем удваивалась каждые два года. Таким образом, уже к 2018 году ПК среднего ценового диапазона в части производительности приблизились к уровню, ранее доступному лишь профессиональным студиям по производству различного, в т.ч. сложного аудиовизуального контента. Во-вторых, стремительное расширение круга потребителей производительных и в целом недорогих ПК мультипликативно увеличило общее количество энтузиастов по всему миру, экспериментирующих с программным обеспечением для создания собственного пользовательского контента. Именно благодаря последним феномен дипфейков стал по-настоящему массовым.
Если вывести за скобки эксперименты с дипфейками в развлекательных целях (главная на сегодня сфера применения дипфейк-технологий), то второй по степени общественного и научного интереса категорией является синтез «политических дипфейков». Зачастую образы известных политиков и общественных деятелей используются в качестве универсального мерила «мастерства» отдельного автора или целой команды: чем реалистичнее подделка, тем выше «авторитет» в тематических сообществах и выше ценник на графические услуги энтузиастов. Кроме того, политический дипфейк – это еще хороший способ «выпуска пара», т.е. публичной демонстрации личного отношения создателя контента к тому или иному деятелю по аналогии с надписью на заборе.
На текущем этапе развития политического дипфейка в Интернет-пространстве активно обкатывается разнообразный контент с «участием» мировых лидеров и известных лиц. Используются сразу несколько передовых подходов к изготовлению синтетических образов с целью снятия общественной реакции на предмет реалистичности и доверия. К счастью, пока в провокационные политические сюжеты с техническими погрешностями верят далеко не все, поэтому на выявление, сбор, анализ и устранение повторяющихся, т.е. типовых технических изъянов в картинке и звуке, на которые реагируют эксперты и Интернет-общественность, уйдет достаточно много времени, возможно даже несколько лет.
Причина недостаточного качества синтетического контента кроется в том, что быстро сгенерированные видеообразы, как правило идущие вдогонку к актуальным информповодам, объективно уступают эталонным дипфейкам из сферы кинематографа.
По-настоящему реалистичные фейки, способные обмануть искушенного зрителя и профессионалов, подразумевают основательную проработку и весьма длительный процесс изготовления. В случае с нашумевшим в 2017 году дипфейком бывшего...
Продолжение читайте 👉👉👉здесь
📌Подписывайтесь – @zvezda_analytics
#звездааналитика #шафран #линдре #искуственныйинтеллект #дипфейк #нейросеть #манипуляция #путин #трамп #зеленский #обама #морганфримен
Дзен | Статьи
ДИПФЕЙК – ПЕРЕДОВОЙ ИНСТРУМЕНТ МАНИПУЛЯЦИОННОГО ВОЗДЕЙСТВИЯ В ПЕРИОД ГЛОБАЛЬНОЙ ПОЛИТИЧЕСКОЙ НЕСТАБИЛЬНОСТИ
Статья автора «ЗВЕЗДА-АНАЛИТИКА» в Дзене ✍: Статья эксперта Сколковского института науки и технологий по вопросам международного регулирования искусственного интеллекта (ИИ) и сквозных технологий,...