2019年02月20日 15:42 来源:中国社会科学网-中国社会科学报 作者:闫勇
随着科技的不断发展,人工智能技术日新月异,照片处理软件被广泛应用。如今,又出现了一种可以修改视频和音频的软件。该软件通过人工智能技术深度学习原文件,并且在原文件基础上伪造出以假乱真的视频或音频(深度赝品视频),让人们误以为视频中的人和事是真实发生的。对此,有学者表达了忧虑和警惕。近日,美国智库卡内基国际和平基金会官网发布了该智库研究员夏洛特·斯汤顿(Charlotte Stanton)的文章,探讨关于人工智能视频造假软件的危害,以及政府应如何治理人工智能视频造假软件。
深度赝品视频呈泛滥趋势
斯汤顿表示,人工智能视频造假软件通过深度学习,将一个人的动作和语言叠加到另一个人身上。该软件深度学习过的视频和音频例子越多,其数字模拟(伪造)的效果就越真实。过去只有特效专家才能制作出看起来真实但语音内容为假的合成视频。如今,人工智能技术使得非专业人员也能制造出以假乱真的深度赝品视频。尽管制作这种视频的软件所依赖的深度学习算法非常复杂,但也有一些“傻瓜式”的平台,让几乎没有数字技术专长的人也能做出深度赝品视频。
斯汤顿表示,普通人可以做出深度赝品视频,而它们很难通过简单的手段被检测出来。它们没有任何明显或一致的特征,因此,媒体领域的司法专家有时必须依赖细微的线索,而这些线索是深度赝品视频难以模仿的。
在斯汤顿看来,深度赝品视频可能会煽动政治暴力、扰乱外交关系等。由德国研究人员开展的一项研究证明了深度赝品视频在政治领域被滥用的可能性。在一段与该研究相关的视频中,一个分割开的屏幕分别显示了一名研究人员和一名政治家的图像。当研究人员利用人工智能视频造假软件说话并改变面部表情时,另一个图像中的政治家似乎也跟着研究人员改变了表情。
此外,斯汤顿担心人工智能视频造假软件还可能被不法分子用来羞辱和敲诈民众,或攻击社会组织,提供虚假证据,甚至操纵股票市场。
从另一个角度考虑,深度赝品视频的泛滥甚至会让那些在真实视频中被曝光行为不端的人谎称该视频是假的,从而让人们对本来真实的视频产生怀疑。美国得克萨斯大学奥斯汀分校法学院教授罗伯特·切斯尼(Robert Chesney)和马里兰大学法学院教授丹妮尔·西特隆(Danielle Citron)把这种效应称作“说谎者的红利”。随着公众对深度赝品视频的防范意识逐渐增强,他们对所有视频的总体怀疑程度会提高,将真实视频认定为虚假信息的可能性也会提高。
提升深度赝品视频
鉴别能力
鉴于深度赝品视频具有潜在的危害性,斯汤顿表示,到目前为止,欧盟已采取了具有前瞻性的措施,防范包括深度赝品视频在内的所有形式的人造虚假信息。
2019年初,欧盟发布了一项应对虚假信息的策略,其中包括防范深度赝品视频的相关指导方针。该策略强调公众参与防范的必要性,这将使人们更易辨别给定信息的来源、产生方式及内容是否可信。该策略还要求建立一个独立的欧洲事实核查网络,以帮助分析对象内容来源和生成过程。
斯汤顿表示,各国政府目前可以做的一件事是界定何为深度赝品视频的不当使用。因为深度赝品视频被用于不同的环境和不同的目的,政府和社会应分清楚哪些用途可以接受,哪些不可以。这样做将有助于社交媒体公司监管其平台上的有害内容。此外,斯汤顿表示,政府需要为检测深度赝品视频的媒体提供研发资金。目前,在制造深度赝品视频的人工智能技术与检测它们的司法检测技术之间,存在着一场技术竞赛。美国国防部高级研究计划局正投资于相关司法检测技术,持续进行这种投资非常必要。
记者 闫勇