网站首页 > 人工智能AI > 人工智能应用 破局“眼见为假”: 谁在磨砺刺破Deepfakes之剑? 正文

破局“眼见为假”: 谁在磨砺刺破Deepfakes之剑?

admin 2020/02/26 人工智能应用 100℃

人工智能

[db:标签][db:标签]影被发明以来,人们不知疲倦地进行着技术改造。今天,没有一家手机制造商不追求更多的相机、更高的像素和更先进的成像算。似乎它只是在追求一个更现实的形象。

我们真的在追求“真理”吗?这几乎是一个完全站不住脚的形而上学问题。然而,我们正在诚实地做一些“真实和虚假”的事情。例如,给照片添加滤镜,润色和增白自拍,给视频添加特殊效果。再举一个例子,我们愉快地用梦中的星星代替了我们的脸。

似乎对“真实自我”的追求实际上已经变成了一种自欺欺人,欺骗眼睛让大脑快乐是对“真实香味”的追求,至少在视觉层面上是特别明显的。过去,当我们常说“假与真”和“栩栩如生”时,我们常常向艺术致敬,因为它意味着普通人无法意识到的困难和巨大的代价。

然而,随着人工智能中GAN(对抗生成网络)的发展,在静止图像和音频和视频中生成字符变得越来越现实和便宜。在人工智能变脸技术如深度赝品普及之后,问题就真正出现了。

2017年,一个名为“深度假货”的开发者打开了人工智能变脸技术的源头,打开了人工智能欺诈的潘多拉盒子。深度假货成了这项技术的恰当术语。2019年初,随着热门视频网络“迷你杨变脸朱茵”,中国的人工智能变脸年再次启动。此后,各种人工智能变脸作品和应用不断出现。人工智能变脸已经完全走向了技术的普及,脱离了普通人的“口味”行业的控制。

首先,最明显的影响是艾变脸引起的黑色生产狂欢。不仅是公众人物和明星,即使他们在社交媒体上多次上传自拍,每个人都不得不面对这种威胁。

更严重的是对政治选举、公共安全和经济体系的威胁。一段关于政客受伤或身患重病的假视频可能会在该国引发金融动荡甚至严重冲突。一段假当局发布诸如恐怖袭击和疾病等假消息的视频将会在群众中引起恐慌甚至暴力冲突。

最深远的影响是对整个社会的信誉。越来越多的人从社交媒体获得第一手信息。虚假视频的泛滥使得辨别真假信息变得困难,比如故意伪造假新闻来模仿领导人和权威专家的权威信息。数亿没有专业识别能力的普通人更容易上当受骗,造成更大的信用危机。

随着技术的日益成熟和广泛应用,人工智能变脸已经成为不可忽视的存在。

看来,除了色情和假冒行业的黑色生产狂欢之外,受这一技术影响的多方迫切需要突破目前的困境。对政府来说,我们如何能够合理地立法限制虚假内容的生产和传播,而不超越界限和阻碍人民的言论自由?对于商业应用,如何合理使用这项技术,避免侵权或信任危机?对于社交媒体,如何在不限制用户体验的情况下,合理地限制此类虚假音频和视频内容的传播?

为了解决这些问题,人工智能技术本身仍然需要给出一套检测和控制假视频的解决方案。

无限游戏:击败Deepfakes的AI检测技术困境

技术引发的灾难只能通过更先进的技术来解决,这似乎是人工智能研究人员的唯一逻辑。人工智能改变面貌的假检测技术似乎是解决这一技术难题的最佳方案。

然而,由于人工智能人脸变化的验证和检测技术严重依赖于以前模型的反应机制,即当前方法不能检测新的深度伪影算法。因此,人工智能面临不断变化的检测技术和假冒技术将长期处于攻防竞争状态。

深度假货首先受到美国国防部反垄断局(DAPRA)的挑战。早在2018年5月,他们就与纽约州立大学建立了一个“媒体认证”项目,并开发了一个“反变脸”人工智能刑事调查工具。通过有效预测眼睛是否眨眼,准确率达到99%。然而,该工具在普及之前就失败了,因为深度假货技术已经发展了。

在J

因此,这场攻防战争的第一个困境是技术进化的悖论。如果研究人员想提出一种更好的检测技术,他们必须提出一种新的方法,能够超越目前市场上的人工智能变脸技术。换句话说,在有资格建造一个更可靠的“盾牌”之前,必须建造一个更锋利的“矛”。

因为即使研究人员不这样做,随着人工智能计算能力变得越来越可用,GAN算法不断增强,人工智能变脸技术也在不断升级和完善。例如,英伟达最近公开了第二代人脸生成算法StyleGAN2的源代码,该算法可以根据面部特征和头发颜色生成具有定制风格的人脸图像。基于StyleGAN2,也可以通过组合多个人脸图像来进行人脸融合。生成的合成图像同时具有模板图像特征和目标图像特征,达到了欺骗许多人脸识别系统的程度。

第二个困境是抵制人工智能虚假数据合法性的限制。虽然在网络黑制作中有大量的假货假视频数据,但由于其非法性和侵权性,不可能用于研究。然而,人工智能人脸变化检测需要大量的原始目标人脸和替换人脸数据,因此研究团队必须花费时间和巨大的成本来创建一个兼容的数据集。

这个尝试已经开始了。2019年初,来自德国和意大利两所大学的人工智能研究人员基于YouTube视频生成了一个包含1000个假视频的人脸取证数据集,用于训练神经网络识别假视频。9月底,谷歌宣布,包含3000段真假视频的开源大型深度假货数据集将被纳入FaceForensics基准,供研究界免费获取,并开发合成视频检测方法。

面对这两个当前的技术难题,人工智能研究者能做些什么?

釜底抽薪与饱和攻击:AI换脸检测解题新思路

最近,来自中国的两个研究小组对上述技术难题给出了不同的解决方案。一个方案类似于在底层采取一个激烈的步骤,即开发一个新的算法来改变人工智能人脸的底层逻辑。即使不需要更多的数据,也可以获得良好的验证结果。另一种解决方案类似于饱和攻击。在现有数据集的基础上,将数据集扩展到一个新的、更大的规模和更高的质量水平,从而处理更多样化的人脸伪视频的检测。

2020年1月,微软研究院和北京大学的一个研究小组联合提出了一种新的人工智能人脸转换器和一种检测人脸x光照片的方法。前者可以大大提高人脸变换的高保真度,而后者用于检测复杂的伪造人脸图像。

FaceShifter生成的高保真人脸变换图像能够很好地保持目标人脸的头部姿态、面部表情、光线、颜色、亮度、背景等障碍物。该模型的优点是无需人工标注数据的训练就可以生成任何人脸。

简而言之,换脸工具比以前的人工智能换脸方法表现更好。这意味着研究人员同时提出的人脸欺诈检测工具必须更加强大。

为此,人脸x光提出了一种全新的人脸伪造图像检测方法。它通过显示伪造图像的混合边界和真实图像没有混合的事实来检测伪造的存在。这种方法就像给检测到的图像拍一张x光片,让它的混合轮廓显示出原型。

同时,与以前的监督人脸检测方法相比,人脸X射线不需要依赖与特定人脸操作技术相关的伪造图像的知识,这将会有过拟合的问题。由于它是无监督的训练,它的算法可以支持训练而不需要使用任何方法来产生虚假的图像知识。因此,它可以在更一般的意义上有效地检测。

人脸x光采取了一种更基本的方法来解决人脸欺诈的图像检测问题,也就是说,我们应该知道图像是如何真实的,而不是如何伪造的。人脸x光解决问题的逻辑是:真实图像不能合成。

但可以预见,人工智能变脸的技术进化不会停止。例如,人工智能人脸变换本身不再是A和B人脸图像的混合叠加,而是一种基于A和B人脸特征的人脸生成算法直接生成新的人脸C。面部x光也面临着失败的严峻考验。

接下来,汤科技加入了攻防对抗。他们采取了类似的策略

研究人员意识到,以往数据集中的视频具有数量少、质量低、过于人工的特点。同时,在一些伪视频检测中,训练视频和测试视频有很高的相似度,这些伪人脸检测的实际效果需要进行测试。因此,他们提出的解决方案是提供一个真实世界的详细和可能的数据集,该数据集包含尽可能多的潜在变化,以增强人脸欺诈检测模型的创建。当然,最终结果也验证了质量好、数据量大、多样性高的数据集可以明显提高视频人脸伪造的基准测试结果。

在这个充满暴力算计的时代,汤的实力展示了一种“大力创造奇迹”的策略,用饱和攻击来对抗极深假货无休止的诡计。这项工作确实为后来的研究人员提供了便利。

目前,人工智能变脸检测技术仍是少数研究机构的实验产品。然而,随着人工智能人脸变换技术的发展,社交媒体和许多互联网平台迫切需要使用人工智能检测工具来识别人脸变换图像和虚假视频。

被技术重塑的未来:反Deepfakes的商业化可能

人工智能面临的技术挑战除了上述人工智能研究机构和研究人员的努力外,还需要更多利益相关者的参与和支持。

正如“匹配”不是来自实验室里的华山,它背后是基于平台的组织,如脸书、推特、YouTube等。作为支持者和领导者。例如,去年9月,脸谱网宣布推出“深度假货视频检测挑战赛”(DFDC),悬赏1000万美元寻找一种有效的方法来检测使用深度假货技术生成的假货视频。该竞赛提供了一个数据集和排名表,以刺激该行业通过奖励和奖励创造新的检测工具,从而防止人工智能操纵的媒体误导普通用户。这无疑给了中小人工智能研究机构极大的鼓励和资金支持。

从背后的原因来说,社交媒体自然是虚假视频传播的主要阵地,也是扩大其负面影响的重要因素。人们常说谣言一张嘴就传,谣言跑,腿就断。当假货制作的假视频在脸书和推特上广泛传播时,已经造成了不可挽回的损失。当受害方想要承担责任时,第一步是让问责平台承担责任。为了确保平台上内容的真实性和可控性,社交媒体公司必须找到一种针对深度假货视频的筛选方法。

因为深度假货带来的负面影响与名人、政治家和社交媒体平台有着实际利益关系,所以深度假货检测技术也有着明确的商业前景。例如,在未来,社交媒体可能会成为购买深度假货筛选技术并将其添加到平台视频发布审查流程的标准。与此同时,面对泛滥的假视频,也可能有一个权威的“视频检查机构”来帮助受害者验证视频的真实性。

更重要的是,以人工智能变脸为代表的假冒技术潮流是不可逆转的,我们必须学会更好地适应这一趋势。正如PS的流行使我们基本上免于图像伪造一样,人工智能假视频的流行也将逐渐使人们适应它。然而,对大多数人来说,学习成本和认知转换的成本有些高。在这个过程中,技术开发人员和通信平台都有责任教育用户。

当“眼见为实”的界限被打破时,我们看待世界的规则需要被重塑。首先,向公众推广深度假冒技术变得非常重要。正如身体对抗病毒的最好方法是首先通过注射疫苗来增强身体的抵抗力。其次,当人们意识到他们看到的所有视频都可能是假的时,他们可能会更加关注可信和权威的媒体信息平台。

这可能是“眼见为实”时代带给人们的更文明的副产品之一。

网站地图