正文:
PS类图像编辑软件降低了图像的可信度,而近期大热的的DeepFake则让视频的可信度也开始降低。它借助了tensorflow和GPU等工具,只需足够的数据就可以实现face swap,而通过深度学习,音频伪造甚至是虚构人物肖像也成为可能。
作为一个工具,DeepFake带来了很多法律问题。它让侵权变得更容易成本也更低。深度伪造的成果让人的肖像权、名誉权、著作权都容易受到危害。比如DeepNude/ZAO这种软件的滥用、将低俗视频中头像进行替换的行为,都会使人的社会评价降低,虽然能够通过民事法律来规制,但由于网络特性,难以完全消除的照片或视频等信息依旧会给受害者带来伤害。
除了上述对个体角度的影响以外,社会经济层面,通过DeepFake编造的不实传闻还会造成企业信誉及经济损失,譬如“想象一下在IPO前一晚,一段经深度伪造合成的视频显示公司的CEO宣布公司破产……市场的反应速度往往比当事人澄清的速度更快,”美国听证会议员Citron说。而社会信任方面,代表个人或官方立场的新闻媒体行业也会由于无法辨别新闻材料真实性而失去往日公信度,群众会迷失在虚假的信息中,造成进一步混乱[1]。
在国家安全方面,深度伪造的信息若取信于民,且被应用于政府官员甚至是领导人身上并引起社会舆论,则可能造成民众情绪不稳,影响社会安定,甚至是国家安全。譬如若在2020美国大选期间,DeepFakeNews的传播会对其选举产生不利影响,挫伤选民积极性,此外,若该技术被境外势力利用,成为诋毁政党,煽动暴力恐怖活动的工具,后果不堪设想[2]。
于上述问题,各方都积极提供了应对措施。美国众议院的议员及专家从实施深度伪造的主体限制、深度伪造的内容审核、信息真实性的检测、网络平台的法律责任等多个方面提出了建设性意见[3]。而我国在今年4月的全国人大常委会审议的《民法典人格权编 ( 草案 ) 》中,正式加了一条:任何组织和个人不得以利用信息技术手段伪造的方式侵害他人的肖像权。显然,这里可以伪造肖像的信息技术不仅包含传统的 PS 等图片处理软件,也有DeepFake这一类AI换脸模型。并且还实施了肖像权的扩张保护,及将肖像的标准“以面部为中心”转向了“可识别性”,这些内容都对遏制DeepFake的负面影响起到了积极作用。
而开发对抗DeepFake的检测算法也成为了关键。近日,瑞士科学家Pavel Korshunov, Sebastien Marcel对人脸识别方法检测DeepFake的效果进行了较为全面的测评: VGG和Facenet神经网络的最先进的人脸识别系统容易受到Deepfake视频的攻击,分别有85.62%和95.00%的错误接受率。而其他方式,如唇形同步方法(lip-sync),图像质量测量法 (Image Quality Measures,简称IQM) 和支持向量机 (Support Machine Vector,简称SMV) ,仅有IQM+SVM系统对DeepFake视频的检测准确率较高,但对于使用HQ模型生成的视频识别也有困难[4]。
在检测技术呼声愈高的同时,DeepFake的技术架构也在不断升级。可以说,这不仅是AI与AI之间的对决,更是对社会道德法律的挑战。
参考文献
· 跳转↑ https://user.guancha.cn/main/content?id=139393&page=1
· 跳转↑ John Van Knight de Weghe, John S. Knight, Stanford University.
· 跳转↑ https://www.congress.gov/bill/116th-congress/house-bill/3600/
· 跳转↑ Pavel Korshunov, Sebastien Marcel.DeepFakes: a New Threat to Face Recognition? Assessment and Detection. crarXiv:1812.08685v1 (cs.CV) 20 Dec 2018.
脉络图