连AI都学会诈骗了......

你可能已经对一些流传于社交网络上的常见骗局见怪不怪了,无论是早些年比较泛滥的短信诈骗,抑或是电话里冒充成警方的公检法诈骗,还是以年轻男性群体为主要目标的“茶叶诈骗”,随着骗术的不断曝光,上当受骗的人也在逐渐减少。但骗子们也没闲着,这年头,谁都知道采用人工的成本是最高的,既然AI技术已经在不同领域蓬勃发展起来,何不也搭上这趟顺风车,对行骗方式进行一场“自动化改造”呢?

Hand, Finger, Technology, Writing, Cloud, Gesture, Photography, Writing instrument accessory, Electronic device, Thumb,
网络

一场席卷诈骗行业的自动化改造 。

你的声音

可以被AI伪造了

半年之前,广东警方便打掉了一个利用交友APP进行诈骗的“公司”,该团伙制作了多款交友软件,并设计出AI机器人假装与目标用户“谈恋爱”骗取信任,再引诱其坠入事先安排好的“消费陷阱”。与以往有所不同的是,软件另一头和你畅聊的并不是骗子本人,而是一些虚拟的“寂寞美女”,骗子们精心设计出一个个“AI男、女朋友”,想要一直跟它们聊天就得充值“恋爱币”,直到你不知不觉迈出“预约见面”的最后一步(收费1999元)……

听起来是不是有点悲凉?过去无论如何骗你的还是真人,现在聊了十天半个月,你臆想中的“白月光”说到底不过只是个AI罢了。

Skin, Service, Eye, Jaw, Medical, Eyelash, Patient, Medical equipment, Job, Health care,
网络

类似的骗局不只出现在交友APP中,据人民网报道,微信语音成了又一个被AI诈骗入侵的领地。有位姓赵的女士因收到父亲的语音留言,称自己买菜没带钱让她转200元过去,还算长了个心眼的赵女士问了一句:“爸,是你吗?”在收到对方肯定的语音答复后便将钱转了过去,谁料,虽然语音里的确是父亲的声音,但那段语音并不真的来自父亲……

同样的骗局还发生在相熟好友之间,虽说目前通行的微信版本语音并不能够转发,但骗子们通过提取语音文件或安装“增强版微信”的方式通常都能达到转发语音的效果。

虽然说到底,造成这一骗局的根本原因是微信号被盗,且用户可以通过直接拨打语音电话的方式确认对方身份让骗子不攻自破,但令人忧心的是,如今的技术已经发展到什么程度了呢?它完全可以通过算法来生成人的全套语音,包括生气、开心时的情绪都能模仿得惟妙惟肖、让人难辨真假。

不知还有多少人记得在2018年的谷歌I/O大会上,谷歌助手Google Assistant刚被推出时,曾被认为是无数社交恐惧症患者的福音,因为有了这个AI助理,人们再也不用亲力亲为去打电话订餐、预约各项服务了,只需告诉它你的需求,它便能帮你安排好一切。

Presentation, Projection screen, Fashion, Technology, Design, Display device, Advertising, Architecture, Projector accessory, Electronic device,
网络

不过,还是有媒体当时就表示出了隐隐的担忧:要如何辨别电话那一头的是真人还是机器呢?这一技术会不会间接导致电话诈骗等风险的提高呢?

这当然不是杞人忧天,因为早在2016年,谷歌位于加拿大蒙特利尔大学的人工智能实验室(MILA)就开发出了一种声音合成技术,并于2017年4月成立了Lyrebird公司。

据报道,Lyrebird是一种叫做“琴鸟”的鸟类,它除了能模仿多种其他鸟类的声音外,还具有一种特殊的天赋:能模仿一切听到的声音。在Lyrebird公司的网站上,你能听到官方合成版的奥巴马和特朗普总统的声音,几乎和真的没有什么分别。

Text, Product, Font, Brand, Logo, Paper product,
网络

Lyrebird可以基于音色、音调、音节、停顿等多种特征来定义某个人的声音,从而生成一种人耳几乎识别不出差异的声音。细想一下,这一技术如果被诈骗团伙掌握,他们完全可以通过给你拨打的骚扰电话提取你本人的声音信息,并在Lyrebird上进行合成,从而制作出属于你本人的音频信息,再利用这一信息冒充你,对你的亲朋好友实施诈骗。

说到这里,有人想出的对策是:既然声音可以被伪造,那就打个视频电话过去确认下好了,等看到是对方真人再打钱也不晚,那么,问题来了:

声音靠不住,

那可以靠脸吗?

答案是:脸可能也靠不住。

你可能会反驳:现在不都可以通过人脸识别解锁手机了嘛,甚至连刷脸购物也不是不可以,怎么就不能靠脸判断了呢?

不好意思,AI对人脸的识别只是最粗浅的一步,如今,它已经发展到可以给人换脸的程度了。别误会,不是要给你整容,但它的确掌握了某种“移花接木”的能力,比如把A的脸换到B的身体上。

还记得《神奇女侠》的扮演者盖尔•加朵吗?她的脸被Reddit上一个叫做deepfakes的网友替换到了某小电影的女主身体上,第一眼看上去毫无违和感,似乎本来这个片子就是她出演的一样,同样遭此恶搞的还有比她更大牌一些的女星,如:安妮·海瑟薇、艾玛·沃特森等等。

Leg, Lingerie, Thigh, Long hair, Sitting, Gravure idol, Flesh, Fetish model, Human leg, Furniture,
网络

当然了,这些技术精英们的初衷并不只是为了传播这些“成人短片”,他们起初可能只是为了完善某些影视作品,例如:让保罗·沃克回归《速度与激情7》,再比如,让斯坦·李老爷子继续出现在漫威系列的电影中,但这一技术显然在朝着失控的方向发展……

这位制作女星换脸小电影的程序员,不仅免费发布了他的所谓成果,还将自己制作视频的教程“无私”地分享了出来,甚至,连自己编写的深度学习代码和数据集都贡献了出来,这意味着,即使在编程方面没什么基础的人,只要搜集到了足够多的素材,都能根据他提供的东西自己制作视频。

Deepfakes的算法被公开后,没多久就被改造成了一个人人都能上手的“FakeApp”,开发者表示,这是一款“普通人可以突破技术壁垒去使用人工智能技术”的程序。

被恶搞的不只上述那些知名女星,连奥巴马和特朗普这些国家元首级的人物都未能幸免,马丁•路德金和奥巴马实现了某种跨时空互换、尼古拉斯·凯奇的脸被变成了特朗普,普京在视频中变得搔首弄姿起来……

Spokesperson, Speech, Official, News, Public speaking, Businessperson, Speaker, Event, Job, Photo caption,
网络

眼见着形势一发不可收拾,德国纽伦堡大学的教授JustusThies忍不住站出来发声:“如果这类软件得到广泛应用的话,将会对社会造成剧烈影响。我当初创立可以实现面部转换的Face2Face时,从未想过把软件代码开源,就是为了不让不成熟的人接触到这类软件,否则,网络霸凌的情况将会大大加剧。

之后,虽然Twitter、Reddit等平台都对deepfakes颁布了禁令,但并未能阻止此类视频的制作和传播,甚至,它还流通到了国内的互联网上。一个叫做“换脸哥”的B站up主,利用AI换脸技术将杨幂和朱茵的脸换了个个,视频刚一发布就上了微博热搜,同样被玩坏的还有赵丽颖、Angelababy、迪丽热巴等女星,甚至,连“孙大圣”六小龄童的脸都被替到了蔡徐坤的身体上……

这一被扩散开来的技术像是打开了一个潘多拉的魔盒,人们在短暂的恶搞发笑之后随即堕入某种恐慌之中。在过去的一年中,斯嘉丽•约翰逊的脸已经被替换到了数十个“成人视频”中,而播放量最高的视频,已被观看超过150万次,她在接受媒体采访时表示,“什么也阻止不了这些人把我的脸复制粘贴到另一个人的身体上,并让它看起来逼真得可怕。人们试图在互联网和它的邪恶面前保护自己,但大多数时候这都是一个注定失败的事情。

令人担忧的是,起初遭殃的只是一些明星政要,但如今,这一趋势却一点一点向普通人蔓延。

Facial expression, Team, Human, Muscle, Smile, Hair coloring,
网络


眼见未必为实,

有视频不等于有真相

印度有位叫做Rana Ayyub的记者,因为揭露了古吉拉特暴乱中官员的黑幕和不作为,有不法分子利用Deepfake技术将她的脸和某色情片女主互换,并做成了粗糙的短视频,在Whatsapp上传播。

令人心寒的是,不少人真的信以为真了,甚至,连Rana的家人也陷入了困惑,“这真的是你吗?”随着视频的传播,一些好事者甚至在社交网络上询问Rana一夜情的报价,在巨大的压力下,她一度抑郁、内分泌失调,甚至住进了医院。

Hair, Face, Facial expression, Eyebrow, Beauty, Cheek, Nose, Lip, Brown hair, Head,
网络

无独有偶,美国一位家庭主妇在得知自己的脸被换到某色情女演员身上后,每天活在恐惧之中,她眼见着那些合成的视频在网络上四处传播,却一点办法都没有,惶惶不可终日。

以上事件无不指向一个残酷的现实:在文字、语音、图像接连失信的今天,我们连视频的真实性都一并失却了,试想一下,如果DeepFakes技术继续不受控制地发展下去,总有一天,你连自己最亲近的人都无法信任。现在,家人问你借钱你尚且可以通过视频通话的方式确认他们的真实身份,那倘若未来骗子将他们的脸合成出来呢,你又要如何辨别视频中的人真的是你的亲人?而一些原先要求提供照片的地方(比如:贷款)甚至都可以通过获取你的照片用作其它用途,而你似乎也无法制约对方的行为。当一个人想要有意陷害你的时候,似乎只要掌握了DeepFakes技术,就能把你和一些罪恶的东西混合在一起,而你甚至有口无凭。

在某种程度上,人眼的能力其实是有限的,因为它只能看到“能被直接看见”的东西。在真假这一问题上,发达的AI技术抓住了人类的这一生物性缺陷,使得原本就复杂的社会变得更加繁复。

我如何知道“你就是你”?我又该如何证明“我就是我”?这个看似荒诞、哲学实则十分日常的问题在人类面对各种以假乱真的AI时变得分外紧迫。AI技术的发展带来的不仅是诈骗手段的更新,背后是对已有观念的解构,即在互联网时代,一种新的关于人、关于自我和真假的认知逐渐进入人们的视野。

从Face2Face诞生之日起,就有无数网友质疑这项技术将被用于网络诈骗,并成为绑架勒索的帮凶。很不幸,在AI的辅助之下,换脸和换声似乎是可以同步向前迈进的事情,而某一天,你打开社交软件,需要时刻提心吊胆周围熟识的人是不是假的,好像光想一想,都不禁觉得悲从中来。

Blue, Head, Human, Graphic design, Symmetry, Illustration, Electric blue, Organ, Organism, Art,
网络

被代码撕开的人性遮羞布

AI技术的不当运用可能引发的,不只是诈骗、诬陷、报复、勒索那么简单,它所掀起的信任危机,将会把每一个个体都卷入其中,DeepFakes的准入门槛越低、换脸、换声的效果越是逼真,人与人之间的不信任感就会越强。

早在2017年时,肯尼迪政治学院贝尔弗科学与国际事务中心就在美国情报高级研究计划局(IARPA)的要求下对相关技术进行过分析,他们发现:目前AI技术的“伪造”水平已经极其强大且具有很高的迷惑性,这意味着,上文设想的很多“技术作恶”的情况都将慢慢变成现实。

过去对电信诈骗不堪其扰的人,未来在AI诈骗面前可能逃无可逃。更可怕的地方在于,一旦AI技术被不当利用且与社交媒体结合,还可能造成假新闻泛滥的情况,如果有不端分子控制了新闻机构的网站或账户,并发布一些不实消息、语音甚至视频,则可能造成更大范围内的恐慌。

Hand, Finger, Technology, Writing, Cloud, Gesture, Photography, Writing instrument accessory, Electronic device, Thumb,
网络

虽然在美国,滥用deepfakes技术已经涉嫌诽谤名誉、侵犯隐私、侮辱人格等罪行,但制作斯嘉丽•约翰逊假视频的人,仍有可能受到美国宪法修正案关于言论自由的保护。况且,想要证明AI合成的肖像就是你本人也是比较困难的,制作者完全可以在一些细枝末节的地方做点手脚,让这个人看起来很像你,但又和你有着细微的区别,比如,在你脸上多画一颗痣,你又要怎么证明这个人就是你自己呢?

这可能正是法国哲学家鲍德里亚所形容的现代社会的典型特征之一:那个曾经被当作“原初”的“真”已经失去,人类社会开始进入到复制时代,一切都在复制和再生产,一切都是“虚假”的,而“虚假”已经变成了真的;另一方面,齐泽克也同样指出,曾经分为现象和本质的二元哲学也已经无法适应当代生活,AI技术和网络将这一点“发挥”得淋漓尽致。

技术的问题,可能最终还得通过技术来攻克。据报道,为了规避AI技术存在的潜在风险,欧美的国家安全机构已经致力于研发一些“反AI”工具,力图以AI攻克AI,美国国防部高级研究计划局推进的Media Forensics计划便在AI生成的假脸中找到了一些突破口,研究人员发现,通过观察眼睛的状态(是否眨眼),可以检测出哪张是AI合成的脸,哪张是真实的脸。

虽然如此,AI和反AI的角力大概会一直持续下去,但各位研究人员应当铭记:

技术本身无罪,

但运用技术的人应该善良。

参考资料:

1. Brookings: Artificial intelligence, deepfakes, and the uncertain future of truth;

2. CNN: Reddit bans fake porn that uses other people's faces;

3. X博士《AI换脸是色情报复的新武器》;

4. 极客视界《第一批AI已经开始诈骗了》;

5. 深度训练营《束手无策,杨幂换脸的技术想让谁演AV,就让谁演AV》;

6. 虎嗅网《“换脸术”即将带来的“福利”与恐慌》;


撰文/编辑:Holly

图片来源于网络

版权归原作者所有

广告 - 内容未结束请往下滚动
更多 From 世界