Iyouport
31.3K subscribers
2.02K photos
1.9K videos
492 files
8.43K links
自由港 新闻包和工具箱
Download Telegram
2106.00660.pdf
10.4 MB
如您所知,我们曾经提供过很多关于如何抵制深度造假 #deepfake 的研究和情报更新,如今这已经越来越成为安全领域的热点议题;因为它不仅仅被用于栽赃(如 在凶案现场伪造您杀人的证据)、人格暗杀(如 作为抹黑运动的武器构陷反抗者和政治异议)、造谣和钓鱼(如 伪造新闻照片)而且,已经被用于虚构地缘政治叙事,以挑起战争冲突(深度造假的卫星地图),这是非常危险的。

抵制深度造假的技术工具必需不断被更新,因为造假技术一直在飞速进化,它不仅越来越容易使用,以至于不懂技术的人也能简单操作;并且,越来越难以被检测到。

这里是第 38 届国际机器学习大会 (ICML 2021)论文集中的一篇,它介绍了一个新工具 Markpainting,该工具使用对抗性机器学习技术来欺骗图像修复软件,使其编辑的内容在肉眼下清晰可见。图像所有者可以用微妙的方式修改他们的图像,这些方式本身并不十分明显,但会通过添加由标记绘制者事先确定的可见信息来破坏任何试图对其进行的涂抹。

其中一个应用是防篡改标记。例如,一家在其网站上提供带有版权水印的照片的图片社,可以用这样的方式进行标记,使任何使用普通编辑软件去除水印的人都会失败。这是最简单的用例。

在打击假新闻的斗争中,给新闻照片打上标记意味着任何试图操纵它们的人都将面临可见的人工痕迹的风险。

对深度造假技术抵制感兴趣的朋友可以通过研究这篇论文获得灵感。我们将需要追求抵制工具的简单易用性,以及足够的前瞻性,以延长其生命力。
抹黑运动的新武器 ——

在一项实验中,研究人员使用神经网络创建了一个虚构的社交媒体用户的7张照片,将其命名为“约翰”。

在过去12年中,“约翰”发布了一些关于自己工作、休闲和度过周末的照片。

只需要抓取7张照片,一个神经网络就可以在“约翰”身上生成真正的抹黑。在它创造的照片中,“约翰”:

-半裸着坐在教室里。
-与一个裸体色情女演员合影。
-穿上了小丑的服装。
-是一个极端主义准军事组织的成员。
-因贩毒而在监狱服刑。

“约翰” 是一个不存在的人,但任何用户都可以使用社交媒体上的多张真实人物的照片(5张或更多)、甚至视频中的静态图像,来复制这个实验。

#deepfake