近日,一段关于扎克伯格的恶搞视频在Instagram上流传。该视频中,扎克伯格的面部表情极其僵硬,声音与本人的相比差距很大。事实上,这是以色列一家科技公司利用人工智能(AI)换脸技术合成而来,这一技术也被称为“深度伪造”(deepfake)。更遭受争议的deepfake例子例如最近走红网络的一键生成裸照软件DeepNude,只要输入一张完整的女性图片就可自动生成相应的裸照,由于广泛传播而造成了预料之外的后果,开发者最终将APP下架。背后都用到了深度伪造技术,即一种利用AI程序和深度学习算法实现视、音频模拟和伪造的技术,投入深度学习的内容库越大,合成的视音频真实性越高,甚至可以达到以假乱真的程度。深度伪造技术不仅能实现换脸(face swap),更可以通过深度学习模拟真人声音、创造出现实不存在的人物肖像。利用该技术,可以以视频这一较为可信的方式让某人说不曾说过的话,做不曾做的事,达到混淆观众的目的。具备极高欺骗性的深度伪造也引发诸多争议,例如杨幂换脸,AI软件自动生成裸照,奥巴马、普京等政治人物的深度伪造视频等等,给个人和社会带来风险挑战。

  2019年6月13日,美国众议院情报委员会召开关于人工智能深度伪造的听证会,公开谈论了深度伪造技术对国家、社会和个人的风险及防范和应对措施。这是美国众议院首次举办专门讨论深度伪造及其他类型的AI合成技术的听证会,会议邀请了四位来自不同领域的专家,分别是美国外交政策研究所研究员Clint Watts、马里兰大学法学教授Danielle Citron、布法罗大学人工智能研究所所长David Doermann和Open AI政策总监Jack Clark,以系统介绍深度伪造技术及解答议员的疑惑,共同探讨“深度伪造”的风险及应对之策。

  一、深度伪造技术的喜与忧

  互联网时代下,先进的AI技术和开放的数据流动给社会带来巨大的信息红利。信息流动载体从原始的文本、到语音、至视频、后进化至如今的虚拟现实,数据的巨大量和更高的开放程度允许越来越多消费者参与进来。而今随着AI、深度伪造技术的发展,信息更能以重塑现实的方式丰富用户的体验。与AI结合的深度学习算法用于科学研究上,能帮助改善医学图像分析,还能用于弥补听力缺陷,帮助有听力障碍的人“听懂”别人的话语等。一家公司甚至声称其通过利用这项技术能让因病失语者恢复说话能力。深度伪造技术用于制作、真实还原历史人物的肖像、相关音频和视频,或者让艺术作品中的静态的人物角色“活起来”,实现教育大众、丰富人们精神世界的目的。

  然而经伪造的信息能使无中生有,与AI算法的结合更极大地提高了其可信度。进入数据高度开放流动的互联网领域,深度伪造信息的影响力在瞬间能被成千万倍放大,其具备的负面作用不得不引起重视。在此次听证会上,专家学者主要讨论了深度伪造技术所具备的几种潜在风险。

  1.个体人身损害

  制作虚假的×××视频是深度伪造技术常见的运用方式之一。利用该技术能实现将一些公众人物的脸移转到×××明星的身体上,伪造逼真的×××场景。这些虚假的×××视频一经传播,受害人的名誉将严重受损,个人隐私还随时有可能受到侵犯。Citron教授列举了印度作者Rana Ayyub的例子,即Rana Ayyub在4月份发表了一篇具有挑衅性的报道后,网络上开始流传着一段以其为主角的×××视频。这个视频正是被人利用深度伪造技术合成而来,在Facebook、Twitter和WhatsApp上得到成千上万人的传播。随后Ayyub的家庭地址等个人信息被曝光在网上,其因此也收到了大量的强奸威胁。Ayyub的生活和工作都受到了极大的影响,承受着极大的精神折磨,其不得不远离网络。Citron教授在其关于网络骚扰的研究中发现,这种现象发生在越来越多的弱势群体身上。深度伪造技术让污名化女性、“×××报复”成为可能。

  2.企业信誉及经济的损失

  深度伪造技术对企业首次募股(IPO)同样有不可估量的负面影响。“想象一下在IPO前一晚,一段经深度伪造合成的视频显示公司的CEO宣布公司破产……市场的反应速度往往比当事人澄清的速度更快,”Citron说。企业主要负责人的一言一行代表着该公司,其对社会的公开声明一般也代表着整个公司的意志。然而,深度伪造技术恰可以借用企业负责人的公开谈话视频,篡改表情及谈话内容,散播虚假信息,让社会公众发生错误认识,直接影响公司的信誉及经济利益。

  3.国家安全、公共安全受到威胁

  最近,美国众议院议长Nancy Pelosi的一段深度伪造的谈话视频出现在社交媒体上,这段视频经由特朗普总统分享,在Facebook上获得了超过250万次的浏览量。早些的时候,美国前总统奥巴马的脸被“借用”来攻击特朗普总统,该视频在网站上也获得480万的浏览量。特朗普总统本人也难逃一劫,西雅图电视网曾播放过一段深度伪造的特朗普演讲视频,视频中特朗普总统满脸通红,还不时做一些滑稽的表情。由于深度伪造技术可以运用在包括总统在内的任何官员身上,美国两党开始担心该技术将成为针对美国和其他西方国家发起虚假信息战争的最新武器。

  听证会上,Watts则表示了其对国家安全的担忧:深度伪造技术可以让虚假的信息以高度可信的方式呈现给社会公众,从而操纵观众的情绪反应,引发社会广泛的不信任。它很可能被外国竞争对手利用,作为诋毁国内政党、煽动恐怖和暴力活动、挑拨西方内部矛盾的工具。同时,Watts指出深度伪造技术对美国2020大选的潜在威胁——若放任伪造视频扩散,则会对美国民主选举产生不良影响,挫伤选民的积极性;从短期看,深度伪造还可能会对公共安全产生一定影响,让虚假的信息打着真实的幌子煽动暴力冲突,成为不法者借以实施暴力的工具。例如在2018年,印度各地有20多人因为在WhatsApp上被谣传绑架小孩或涉及其他罪案而被暴力打死。  郑州不孕不育医院:http://jbk.39.net/yiyuanzaixian/zztjyy/郑州不孕不育医院×××:http://jbk.39.net/yiyuanzaixian/zztjyy/郑州不孕不育医院排行:http://jbk.39.net/yiyuanzaixian/zztjyy/

  4.新闻媒体行业的社会信任衰退

  听证会的专家们一致认为,深度伪造技术的影响不仅局限于政治领域,对新闻业亦如此。在一个社会公众对记者和媒体普遍不信任的时代,深度伪造技术的诞生更是加剧了这种不信任。深度伪造不仅骗取公众信任,其存在也表明了媒体报道并不可靠;Citron对此表示赞同,“难以证伪的报道会使记者质疑有关真相的证据的真实性,从而阻碍该证据的呈现和报道。”虚假信息最终会掩盖并代替真相,Citron将此称为“信任衰退效应”。Watts进一步指出,“长期接触虚假信息和深度伪造技术可能让公众在真真假假中迷失自我,从而做出比较极端的选择。如果长期无法分辨真伪,他们要么相信一切,要么不信任一切。”Watts还提到了俄罗斯政府与人民之间的关系,称克里姆林宫用“谎言之火”来控制公众舆论。

  此外,众议院成员还关心深度伪造技术可能成为说谎者摆脱质疑的工具。在深度伪造普遍运用的环境下,人们经教育已不再轻易相信自己亲眼所见,这种多疑的心理正好可以被说谎者利用。对于一个不利于自己的信息,尽管其没有经过任何加工,任何人都可以宣称是伪造的,从而达到混淆公众视听的目的。Stewart议员提出假设:一名官员因贪污被抓,官员可以随时狡辩称作为证据的信息内容是经深度伪造合成的虚假内容,“而事实是,证据不仅为真,那位官员所作所为远比证据呈现出来的还要罪恶。”在互相矛盾的真假两派中,总有人愿意选择相信假的一方。