repeat
自从去年年底ChatGPT横空出世,人们的目光又聚集在了人工智能上,近一年来,关于人工智能和AI的话题热度居高不下,总是能轻易地吸引人们的关注,蹿上新闻热榜。虽然人工智能的应用对人类很多领域有了新的发展,但拥有这种便利和优势的同时,也意味着发起网络攻击的技术门槛将进一步降低,互联网将面临更广泛的安全威胁。
今年以来,国内关于AI造假的新闻备受关注,前有AI论文造假和新闻造假,后有疑似AI换脸的明星出现在直播间卖货,五月份内蒙古包头的一起“AI电信诈骗10分钟骗走430万”更是登上微博热搜,引起全民关注。与此同时,海外不少国家也深陷AI诈骗猖獗的漩涡中,同样也有不少利用AI克隆声音、脸部等进行诈骗勒索的新闻,部分案件涉案金额令人咋舌。
纽约网络公司Deep Instinct在2023年6月对650名网络安全专家进行的一项调查显示,四分之三的受访专家发现,过去一年里,网络欺诈事件有所增加,85%的受访者将这种增加归因于坏人使用了生成式人工智能。
随着新一轮AI技术的普及,未来人类面临的反诈防诈挑战可能更严峻。2023年9月11日至17日是我国第十个国家网络安全宣传周,对于全球多个国家而言,反AI诈骗或许正在成为全球一种新的共识。
人们更加好奇,日渐强大的人工智能未来可以走多远?他的实际利用成果到底如何?
Deepfake深度伪造技术 一键换脸“以假乱真”
“视频里的他看起来和我以前的同事一模一样。虽然画面里只能显示他的脸,但十分清晰。我们交谈时,他的表情自然,和平常人无异。通话只持续了25秒就被切断了,后来他又拨了语音电话回来,谈到了这笔钱的迫切性,我二话不说就转了钱。”印度南部喀拉拉邦科泽科德市的居民Radhakrishnan(以下简称Rad)回忆起了自己这段被网络诈骗的经历。
7月9日早上,Rad先是接到了一通匿名电话,他没有理会。几分钟后,Rad打开通讯应用WhatsApp时惊讶地发现他之前在印度煤炭公司工作的同事给他发来了多条消息。
“我们一起工作了近四十年,我很了解他,WhatsApp上的头像也是他本人。他在软件上问了我女儿的近况,他还给我分享了他的家庭近照,并问了我们共同的同事最近过得如何。”
接着,这名“前同事”在WhatsApp上给Rad打语音电话,电话中,他表示自己现在正在迪拜机场等飞往印度的航班,他的嫂子正在孟买的一家医院进行紧急手术,需要提前支付40000卢比的手术费用,想问问Rad可否先借他点钱周转一下。
尽管电话里的声音和他的前同事非常相似,但鉴于网络诈骗日益猖獗,Rad还是向对方表达了自己对大额资金转账的担忧,结果,这名男士立即表示可以与Rad视频通话来证明身份。
视频中熟悉的脸和自然的对话让Rad放松了警惕,随即把钱转给了他。但很快,Rad察觉到不对劲。
“没过多久,当同一个人回电并要求更多的钱来支付医院费用时,我找了个借口说自己银行卡上的余额不足,以此搪塞了过去。”Rad找到了通讯录,并找到了这名前同事的号码,结果打电话过去对方表示根本没有在WhatsApp上给Rad发过消息。
就在那时,这名七旬老人意识到自己被骗了,立刻报了警,警察随即追踪到一家私人银行并冻结了账户。Rad后来得知自己的其他老同事也有不少人,收到了类似的信息和电话。
而这一切,都和Deepfake脱不了干系。Deepfake,即深度伪造技术,是英文“deep learning”(深度学习)和“fake”(伪造)的组合词,它借助神经网络技术进行大样本学习,“以假乱真”,实现一键换脸,进行声音合成或动作拼接,从而生成假图像和假视频。
2018年4月,一段视频在推特上疯传,获得200多万次的播放和5万多个点赞,视频里美国前总统奥巴马大骂“特朗普是个彻头彻尾的笨蛋”,引发热议。视频里的“奥巴马”动作自然,声音也听不出来任何破绽,然而这只是美国演员Jordan Peele用Deepfake技术制作的合成视频,奥巴马本人可从未说过这样的话。
人工智能软件从视频提取声音 拨打诈骗电话足以蛊惑至亲
诈骗一旦牵扯到至亲之人,想要冷静处理就变得尤为艰难。美国地方媒体“KIRO7”报道称,美国华盛顿州皮尔斯县的一个家庭在今年经历了“地狱二十分钟”。妈妈海蒂在五月一个周一的中午接到了一通电话,电话里传来了她女儿的呼救声。
女儿哭着告诉她,自己在沃尔玛超市附近发生了车祸,急需帮助,然后就把电话给了一个陌生男人。男人在电话里说:“我不是警察,你女儿现在在我手里,如果你想看到她安全出现在你眼前,就照我说的做。如果你挂了电话,我不能保证我会对你的女儿做些什么。”
海蒂的丈夫罗伯特猜测她女儿可能是在南山的沃尔玛,立刻开车前去。
解决移动墙|域名墙的国内免备案云服务商!