Deepfakes这项技术触动了公众和研究人员的神经。这些人工智能生成的肖像说着或做着“他们”没有说过或做过的事情,这让人看着特别的别扭。
如今,制作Deepfakes的工具已经非常普及,而且使用起来也相对容易,许多人担心这些工具会被用来传播危险的错误信息。例如,别人可以借助政客们的形象来发表自己的言论,或者让他们参与到他们根本就没有参与过的活动中。
对于人眼来说,Deepfakes仍然相对容易被识破,但至少这是一种担忧。根据网络安全公司DeepTrace Labs 2019年10月发布的一份迄今为止最全面的报告,Deepfakes尚未被用于任何传播虚假信息的活动当中。然而,这份报告也发现,网上发布的Deepfakes数量正在迅速增长,在过去7个月里大约出现了1.5万个,现在这个数字应该会更大。
社交媒体公司担心,Deepfakes可能很快就会在它们的网站上泛滥,但是要自动检测出Deepfakes是很困难的。为了解决这个问题,Facebook希望利用人工智能帮助反击人工智能生成的虚假图像。为了训练AI识别这些虚假视频,Facebook发布了有史以来最大的Deepfakes数据集——利用了3426个演员和一系列现有的换脸技术的100000个剪辑视频。
Facebook首席技术官迈克•斯科罗普夫(Mike Schroepfer)表示:“Deepfakes目前还不是一个大问题。但我在过去几年的惨痛经历中学到的教训就是要未雨绸缪。我想要为那些从来没发生的坏事情做好准备,而不是坐以待毙。”
Facebook也宣布了Deepfake检测挑战的获胜者。2114名参与者提交的35000个模型都在这些数据集上进行了训练。其中,最好的模型由测绘公司Mapbox的机器学习工程师Selim Seferbekov设计,在一组包含1000个陌生视频的数据集中,该模型的检测正确率有65%,(该数据集还包括一些由Facebook制造、以及现有互联网上的Deepfake视频)。
为了让测试变得更困难,训练集和测试集包含有可能会使检测模型觉得迷惑的视频,比如化妆教程,还有在说话者脸上有弹幕和图案的视频,以及通过改变分辨率或方向、放慢播放速度等方式进行过调整的视频。
排名前五的参赛模型没有学习司法鉴定技术(比如在Deepfake生成过程留下的视频像素中寻找数字指纹),而是似乎已经学会了辨别什么东西看起来“不对劲”,就像人类一样。
为了做到这一点,获奖者都使用了谷歌研究人员去年开发的一种名为“效率网(EfficientNets)”的新型卷积神经网络(CNN, convolutional neural network)。CNN常用来分析图像,并且擅长检测人脸或识别物体。然而,要想将模型的精度提高至某一特定程度,就需要进行特别的微调。效率网提供了一种更结构化的微调方法,使开发更精确的模型变得更容易。但是Seferbekov表示,它们在这个任务上比其他神经网络表现得更好的原因还不清楚。
Facebook不打算在其网站上使用任何获奖模型。首先,65%的准确度还不够好。一些模型对训练数据的识别准确率虽然超过80%,但识别此前没见过的剪辑视频时准确率就下降了。Seferbekov说,兼容识别新视频是最难的部分,因为新视频可能包括用不同技术交换的不同面孔。
他认为,提高检测正确率的一个方法就是关注视频帧之间的转换。Seferbekov说:“即使是非常高质量的deepfakes 作品也会在画面之间出现闪烁。”人类很擅长发现这些不一致的地方,尤其是在面部镜头中。但是要自动捕捉这些标志性的缺陷将需要更大、更多样的训练数据和更多的计算能力。Seferbekov尝试过追踪这种帧转换,但最后没有成功。他说:“CPU是真正的瓶颈。”
Facebook建议,Deepfakes检测也可以通过使用图像或视频分析以外的技术来进行改进,比如评估其上下文或出处。
山姆•格雷戈里(Sam Gregory)是“证人”(Witness)项目的负责人(该项目支持人权活动人士使用视频技术),他欢迎社交媒体平台投资Deepfakes检测技术。Witness是AI Partnership的成员之一,该公司为Facebook的数据集提供建议。格雷戈里同意Schroepfer 的观点,也就是应该做最坏的打算。他说:“我们还没有经历过deepfake末日,但这些工具会加剧性别暴力和错误信息的传播。”例如,DeepTrace Labs的报告发现,96%的Deepfakes是没有经过双方同意的色情作品,也就是把其他人的脸贴在色情片表演者的脸上。
当数以百万计的人能够创作和分享视频时,相信我们所看到的东西比以往任何时候都变得更加重要。假新闻已经像野火一样在Facebook上传播了,而仅仅只是Deepfakes的可能性就已经引发了人们的怀疑,让我们更有可能质疑真实和虚假的视频。
而且,自动检测可能很快就会成为我们唯一的选择。Seferbekov说:“在未来,我们将会看到人类无法识别的Deepfakes视频。”
编译/前瞻经济学人APP资讯组
参考资料:https://www.technologyreview.com/2020/06/12/1003475/facebooks-deepfake-detection-challenge-neural-network-ai/