内容简介:最近,DeepFake 技术又一次站在了风口浪尖上。不只是因为它能在小电影上移花接木,而是立法者终于意识到它的可怕之处。6 月初,一份有关马克·扎克伯格的假视频在国外社交媒体 Instagram 和 Facebook 上广为流传。
最近,DeepFake 技术又一次站在了风口浪尖上。不只是因为它能在小电影上移花接木,而是立法者终于意识到它的可怕之处。
6 月初,一份有关马克·扎克伯格的假视频在国外社交媒体 Instagram 和 Facebook 上广为流传。
视频中的人,无论从相貌声音,还是穿着打扮,都跟真的扎克伯格几无二致。他能眨眼,会用手势,嘴/脸部动作和画外音音轨高度吻合。 乍看之下,几乎找不到破绽,只是声音有些奇怪。
图 | 两名英国艺术家制作了扎克伯格的假视频(来源:bill_posters_uk)
更早之前,美国众议院议长南希·佩洛西也经历了类似的事件。有人通过剪辑、拼接和慢放等手段制作了一段她的演讲视频,虽然没有用到 AI 技术,但视频中的她看起来有些神志不清,说话结结巴巴,语速缓慢,像是醉酒一样。
这段视频甚至引来了美国总统特朗普的嘲讽(两人素来不合)。
图 | 特朗普转发佩洛西视频,“佩洛西在新闻发布会上结结巴巴”(来源:Twitter)
令人不解的是,这些社交平台并没有选择第一时间屏蔽虚假视频。事实上,正是因为 Facebook 拒绝撤下佩洛西的假视频,才导致有人做出了其 CEO 扎克伯格的假视频,来考验 Facebook 对虚假信息的衡量标准,看它会不会做出“自己打脸”的事情。
按照 Facebook 的官方回应,佩洛西的视频“没有违反平台的政策,因为所有人都可以自由表达自己(的想法), 如果有第三方事实检测 工具 认定视频是假的,视频就会被打上标签,提醒用户注意其真实性,而且还会在推送中降低权重。”
换句话说,Facebook 的态度就是:我们不会移除编辑过的假视频,但会让用户知道它不是真的。
其他社交巨头也都纷纷表态,Twitter 选择了跟 Facebook 和 Instagram 站在一队,不会删除这些假视频,而谷歌旗下的 YouTube 则为了保险起见,选择了删除视频。
科技圈内部两极分化的情况也引发了舆论热议。有的人认为,纵容虚假信息流传会造成更大的混乱,尤其在政治和外交问题上,因此必须严格管控。
也有人认为,这些视频不会对某个个体造成实质性危害,贴上虚假标签即可。 如果今天删除了它们,就会开创一个糟糕的先例,明天可能导致更严格的管控政策。
图 | bill_posters_uk 不满 Instagram 的做法,又上传了新的假视频,画外音用词更加激烈(来源:bill_posters_uk)
美国国会出手
美国国会也盯上了假视频和它背后的 AI 技术,因为不仅是佩洛西,就连总统特朗普都曾受到假视频的困扰。
与此同时,领英(LinkedIn)上还出现了一个疑似间谍的账号。 她的名字是 Katie Jones,头像是一个典型的白人女性,毕业于密歇根大学,在美国国际战略研究中心(CSIS)工作。她的职场网络虽然只有 50 多人,但里面有美国参议员助理、副助理国务卿,以及美联储席位候选人兼经济学家 Paul Windfree。
图 | Katie Jones 的领英账号
根据调查,CSIS 根本没有这样一个员工,密歇根大学也没有她的学位记录,而且她联系网内的人都不认识她。肖像审查专家判断,她的头像很可能是用 AI 技术生成的假脸,很多特征与 AI 假头像高度吻合。
再结合她添加的人都是政府重要人物,专家普遍认为, 其目的很可能是隐藏自己,从他们身上获取信息,甚至添加更多位高权重的人物,将领英作为从事隐秘间谍活动的渠道。
图 | 从图片细节中鉴定假照片(来源:Twitter)
多名议员认为,如果对此类事件放任不管,不仅会影响到政治人物,还会伤害弱势群体和少数族裔,甚至波及 2020 年的美国总统大选。
因此,美国国会召开了有史以来第一场有关 DeepFake 类技术的听证会,会议已于 6 月 13 号结束,相关法案也已经酝酿了数月之久,出台对该技术和社交平台的约束政策只是时间问题。
纵观历史,能受到如此待遇的技术并不多见,立法者如此大张旗鼓地针对它,足以看出它潜在的破坏力。
AI 换脸术如何走红
如果放在 10 年前,恐怕很少有人会质疑一段视频的真实性,尤其是人脸清晰可见的视频。只不过随着 AI 技术的进步,凭空造出一个以假乱真的人脸,替换视频中的人脸,或者替换视频中的整个人物,都早已不是遥不可及的事情,甚至可能有些过于容易了。
2017 年底横空出世的 DeepFake 技术,虽然不是第一个实现换脸的技术,但却是将 AI 假视频带入大众视野的先驱。 这是一种基于深度学习的伪造技术,适用于修改图片和影像,可以实现人脸的移花接木。 哪怕是动图或视频中的人物,也可以被替换成毫不相干的另一个人。
图 | 美国演员 Jordan Peele 用 Deepfake 技术“扮演”奥巴马讲话(来源:YouTube)
DeepFake 的走红要归功于脑洞大开的网友,他们在色情视频中引入了 DeepFake 技术,将其中女主角的脸,替换成了一些当红女明星的脸, 盖尔·加朵、艾玛·沃特森、斯嘉丽·约翰逊和泰勒·斯威夫特等大牌女星都难逃一劫,纷纷被替换到了不可描述的场景中。
由于视频中角色的脸部动作和视角变化较少,因此除了个别帧数出现渲染模糊和混乱的问题,DeepFake 的替换效果足以以假乱真。
图 | 通过 DeepFake 技术,盖尔·加朵的脸被加在了成人女星身上(来源:reddit)
不过,出于恶搞精神也好,猎奇心态也罢,这些人无疑是滥用了 DeepFake 技术,对当事人造成了伤害,而且维权无门。 饱受其害的“黑寡妇”斯嘉丽就曾在公开场合表达了自己的愤怒和无奈。
鉴于其造成的恶劣影响,很多社交平台都开始封杀 DeepFake 视频。该技术的开发者也在 GitHub 上呼吁,“不要将 DeepFake 的换脸技术用于色情视频,它的价值并不在此。”
实际上,能够制造假图片和假视频的 AI 技术不仅仅只有 DeepFake,相关技术在过去五年里层出不穷。 这都要归功于另一项大名鼎鼎的深度学习技术: 生成式对抗网络(GAN) 。
这是一种让两个神经网络“左右互搏”的技术,其中一个网络负责生成物体,一个网络负责判别物体,两者通过不断对抗来创造非常真实的虚构图像、声音或视频。
自 2014 年 Ian Goodfellow 发明 GAN 以来,世界范围内的很多深度学习团队和企业都开始在上面添砖加瓦,各种 GAN 框架漫天飞舞。
在 DeepFake 出现之前,就已经有了基于 GAN 的 Face2Face 技术和 CycleGAN 模型。前者可以通过摄像头捕捉人的脸部动作,然后实时转移到现有视频中的另一张人脸上,后者则可以改变图片和视频中物体或场景的样貌,实现马与斑马之间的转换。
图 | Face2Face 模拟特朗普说话(来源:Face2Face)
类似的技术还有很多。UC 伯克利大学团队的 Everybody Dance Now,融合吸收了很多种 GAN 框架的精髓,可以分分钟让舞蹈小白看起来像是舞王附身,堪称是“舞蹈界的 DeepFake”。
图 | 两个不会跳舞的人在 AI 编辑下做出了有模有样的舞蹈动作(来源:Everybody Dance Now)
英伟达的 StyleGAN,可以自动生成惟妙惟肖的图片,适用于人脸、汽车、风景和动物等。对于人脸来说,StyleGAN 用来混合的特征包括性别、肤色、脸型、姿势、表情、胡须、是否戴眼镜、头发长度和颜色等等。它虽然不是一个完美的模型,生成的图片经常出现瑕疵,但总体上效果出众。
有人用 StyleGAN 制作了一个网站 thispersondoesnotexist.com,每次刷新都会生成一张人脸图片,偶尔还真会刷出现高颜值的人。唯一的问题是,这人不是真正存在于这个世界上的。上文提到的那个虚假的领英女性头像,专家怀疑就是 StyleGAN 或者其他 GAN 框架的杰作。
图 | 英伟达 SytleGAN 可以融合好几张图片特征,创造出不存在的人(来源:英伟达)
AI 造假技术触手可及,是福是祸?
除了主流的 DeepFake 和 GAN,还有很多 AI 技术可以用来生成视频,像香港科技大学陈启峰教授团队的级联优化网络(CRN),仅凭一张简单的场景布局图片,就可以生成无数个高分辨率的图像和视频,还有三星 AI 实验室让静态蒙娜丽莎和爱因斯坦图片动起来的元数据框架。
然而,我们在感受 AI 技术带来的惊喜的同时,也必须意识到一个问题: 借着开源的东风和技术无罪的精神,AI 造假的门槛越来越低了。
图 | 会张嘴说话的蒙娜丽莎(来源:三星 AI)
随便在网上一搜“AI 换脸”,就会找到很多神经网络训练教程,如果有编程功底,从开源社区拿到代码和数据就可以自行搭建框架和训练。
即使不懂得如何构建神经网络,看不懂晦涩的论文,甚至是不懂编程也没问题,网上早就有 fakeapp 和 faceswap 等现成的换脸软件,只要电脑硬件足够强大,跟着教程走,自制简单的换脸短视频并不困难。
往好的方向看,这种趋势降低了视频制作的门槛,方便了大众进行艺术创作,尤其是以恶搞为主要目的的视频。在 B 站上就能找到很多高质量“AI 换脸”视频,譬如把《复仇者联盟》中的美国队长改成“象牙山队长赵四”,把雷神改成徐锦江,把《武林外传》中的佟湘玉改成“黑寡妇”斯嘉丽。
图 | B 站 AI 换脸视频(来源:B 站 UP 主 AI 范娱乐)
抛开法律层面存在的争议不提(涉嫌侵犯肖像权),如果我们用最大的善意去看待这些恶搞,制作者的初衷可能并没有恶意,只是单纯地想让看客一笑,用 AI 技术满足大家最丰富的脑洞和想象力,毕竟里面没有涉及到形象侮辱和名誉诋毁。
而且用的好了,我们还能看到“AI 复活张国荣”这样的致敬作品。或许等技术更加成熟,越来越多逝去的名人会以“复活的”形式重新回到荧幕上。《速度与激情 7》中最后出现的保罗沃克就使用了类似的技术。
图 | AI“复活的”张国荣唱歌(来源:B 站 UP 主 QuantumLiu)
但如果往坏了想,AI 技术被居心叵测的人利用,就会出现上文说到的滥用情况。比如把女明星的脸放在色情或暴力视频中, 用来伪装成一个不存在的人,伪造一个从没发生过的事,或者把一个人做的事放在另一个人身上,从而误导不明真相的人,混淆视听。
如何破解 AI 操纵信息的困境?
AI 技术的进步无疑是一件利大于弊的事情,技术本身不存在原罪。只不过我们必须制定配套的规则、规范和保护措施,才能有效避免技术滥用的情况发生,并且将发生时的损失降到最低。
美国议员正在起草的法案指出,整个 AI 产业,从上到下都必须参与其中。
首先,企业和研究机构需要开发对应的技术,用来有效识别虚假 AI 信息。网络上的信息载体可以大致分为文字、图片、音频和视频。不幸的是,每一种都被 AI 攻陷了。
OpenAI 的 GPT-2 模型可以生成流畅连贯的假文章,GAN 和 DeepFake 可以制造逼真的图片和视频,至于模拟声音,可以用 RNN 等深度学习模型完成,搜狗就刚刚展示过即时变声的酷炫功能。
不过我们可以用技术来对抗技术,用 AI 来对抗 AI。 从本质上看,虚假信息的传播问题可以有两种控制方法: 一是从源头入手,寻找证据,查验信息的真实性;二是从数字信息本身入手,检查是否存在修改痕迹。
Adobe 就发明了检测图像是否经过 PS 的工具,可以用卷积神经网络识别图片有没有被修过的痕迹。
图 | 解铃还须系铃人,用 Adobe 工具判断图片是否被 PS 过(来源:Adobe)
美国国防部高级研究计划局(DARPA)也早就注意到了 DeepFake,并且开发了一种 AI 工具,可以在 GAN 生成的视频和图像中捕捉微妙的生理信号线索,比如不自然的眼睛运动和呼吸频率,从而识别假视频。在 SytleGAN 和 BigGAN 还没有诞生的时候,准确率甚至高达 99%,只是现在应该达不到这个水平了。
也有研究团队发明了新的神经网络模型 XceptionNet,用假视频数据集训练 AI,教它如何识别假视频。在清晰度比较高的情况下,准确率高达 95% 以上。
然而“造谣动动嘴,辟谣跑断腿”,打假不如造假吃香,学术界在对抗 GAN 方面做出的努力,仍然远不及研究 GAN 的努力。 据 DeepTrace 平台统计,2018 年,全球涉及到 GAN 生成图像和视频的论文多达 902 篇,而研究如何识别合成图像和视频的论文只有 25 篇,仅为前者的 1/36。
其次,社交平台必须承担其监督和管理的责任,建立更完善的虚假信息检测机制。
这就要求 Facebook 和 Twitter 这样的社交平台拿出更积极的态度,而不是像现在这样,遇到难以控制的虚假信息就贴上个标签放任自流,甚至于连标签都懒得贴,直到有媒体报道才后知后觉。
所谓的 AI 算法和大数据加持下的事实检查工具,也迟迟没有大规模使用,偶尔使用还会闹出啼笑皆非的笑话,比如巴黎圣母院着火的视频被 YouTube 识别为 911 事件,只好依赖效率低下的人力筛查。这次扎克伯格和佩洛西的假视频,到本文发稿时,也没有在醒目的地方打上虚假信息的标签。
图 | 巴黎圣母院大火,被 YouTube 算法识别成 911 恐袭(来源:YouTube)
美国议员 Adam Schiff 认为,归根结底,是因为现有法律没有要求社交平台对平台上用户发表的内容负责,他们没有足够的动力去改进。
因此,最后需要配合的就是立法和监管机构。 相比近几年 AI 技术的突飞猛进,配套的法律法规显得有些落伍了。针对 AI 合成内容,如何监管,如何收集证据,如何判罚和量刑等问题都没有确切的、详细的、可操作的法律条款作为依据。
专家建议,应当让社交平台采取合理的措施,保证内容的节制性,从而更有动力打击 DeepFake 等技术制造的虚假信息。
不过,当这些条件都尚未成熟的时候,上网冲浪的我们都应该牢记一件事情:文字、图片、音频和视频都有可能是伪造的,不能轻易地相信网络上的信息。
或许这很可悲,但我们就跟斯嘉丽一样无奈。
参考:
https://www.technologyreview.com/s/613676/deepfakes-ai-congress-politics-election-facebook-social/
https://www.theverge.com/2019/6/13/18677847/deep-fakes-regulation-facebook-adam-schiff-congress-artificial-intelligence
https://s3.eu-west-2.amazonaws.com/rep2018/2018-the-state-of-deepfakes.pdf?fbclid=IwAR0LJOSHFh7-EL2DjaRqiFWVZwGA7SWlVkStUKp4Yu3dG62AJGpY4Xj4b2c
https://www.theverge.com/2019/6/14/18678782/adobe-machine-learning-ai-tool-spot-fake-facial-edits-liquify-manipulations
https://www.technologyreview.com/f/613690/facebook-deepfake-zuckerberg-instagram-social-media-election-video/
https://www.theverge.com/2019/6/13/18677341/ai-generated-fake-faces-spy-linked-in-contacts-associated-press
https://arxiv.org/pdf/1808.07371.pdf
http://www.mittrchina.com/news/3684
坐标:北京·国贸
联系方式:hr@mittrchina.com
请随简历附上3篇往期作品(实习生除外)
以上所述就是小编给大家介绍的《DeepFake 换脸术混淆视听,搅乱美国政坛》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Series 60 应用程序开发
巴克 / 人民邮电出版社 / 2005-7 / 75.0
Series 60智能手机开发平台正掀起新一轮的移动服务浪潮。超过60%的手机生产商获得了Series 60平台的授权。Series 60移动应用开发平台拥有最大的用户群,从而成为智能手机市场的代表。诺基亚与EMCC软件公司合作,为C++程序员和软件设计师编撰了这本Series 60开发的权威指南。本书由诺基亚资深专家进行了全面审阅。本书内容涉及了开发过程的各个阶段,从设计、编程、测试、调试到部署......一起来看看 《Series 60 应用程序开发》 这本书的介绍吧!