近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。
来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。
基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
事后,郭先生拨打好友电话才得知被骗,原来骗子通过“AI换脸”和拟声技术,佯装好友对其实施诈骗。“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我通了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
很明显,郭先生陷入了一场利用“AI换脸”技术实施的诈骗骗局。
什么是“AI换脸”?就是通过AI人工智能技术,把别人的脸换成自己的脸,而且脸部表情自然,效果逼真。整个过程只需要通过一张照片,然后利用AI技术可以在软件上使用自己的照片替换电视剧或者小视频中的人物,从而生成以自己为主角的视频。
这种技术的发展,竟然成为了新型诈骗手段。骗子会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人,通过合成视频或照片来“以假乱真”。
值得注意的是,骗子不是漫无目的地广撒网,而是别有用心地锁定诈骗对象。他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。
郭先生遭遇的魔幻一幕令人吃惊,但这并非“AI换脸”第一次作恶了。
2022年2月,一位陈先生到浙江省温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。
2021年,浙江省杭州市拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用“AI换脸”技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。
2020年,上海某公司高管因对方使用“AI换脸”与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。
除此之外,一位名叫王欣(化名)的受骗者甚至还在诈骗电话中听到了自己母亲的声音。
原来,王欣某天在家里午睡时,突然接到了母亲同事的微信语音电话,对方问她现在在哪里、在做什么。在王欣还不知道发生了什么事情的时候,她从电话里听到了母亲的声音,声音听起来很着急。虽然王欣之前和母亲说好了下午会去看牙医,母亲也知道她在做什么,但她还是接到了这样一通询问行程的电话。
母亲告诉她,自己接到了一通号码和王欣手机号一模一样的来电。接通电话后,“王欣”的声音从电话那边传来,母亲听到她的女儿在哭喊。电话那边的人对母亲说,王欣被他们绑架了,让母亲马上给他们转账30万元,不然就“撕票”。母亲吓坏了,立马打算给对方转钱,被旁边的同事拦下,就这样,午睡中的王欣被叫醒。
据王欣说,“骗子还挺高明的,一开始我想,难道看不出来不是我的电话吗?我后来看了一下,那个电话号码就是我的手机号,连我自己都辨别不出来。”一模一样的电话号码瞒过了母亲,神似王欣的声音让母亲更加确信,“我妈妈说,那就是我的声音。”母亲还提到,对方一开始先询问她身边有没有人,并要求她走到没有人的地方。幸好通过微信语音电话及时确认了王欣在家,母亲才放下心来。
“一年之前为了留学办签证,我需要提供30万的存款证明,我第一反应就是这个。”王欣回忆起,曾和母亲有过关于30万元的对话。此外,王欣偶尔会在朋友圈和其它社交媒体上发自己的照片、视频和声音。
此后,母亲再一次收到了类似的电话。“现在,我妈妈都不太敢接我打的电话了,如果是微信电话的话还可能会接一下。”王欣说。
江苏省常州市公安局常州经开区分局横林派出所民警陈歆怡曾办理过多起倒卖、非法利用用户人脸照片的侵权案件,她表示“AI换脸”换声的基本逻辑是通过深度学习特定算法,将目标人物的人脸、表情、声音等嫁接进模仿的视频中,成本低、合成速率高、检测鉴别难度大,一般人很难发现伪装痕迹。目前,AI诈骗主要有两种形式。
第一种是通过技术手段合成换脸、换声的视频或语音,在视频聊天、普通电话中直接播放。这种诈骗主要出现于比较紧急的情况,如遭遇事故求助等,播放结束后就会中断连接,无法与被害人形成回合性对话。
另一种是在视频通话中直接换脸并替换声音,或直接换声拨打电话。
民警提示,以上两种诈骗方式都受限于样本数量,所以可以通过延长通话时间、多次进行提问的方式让对方多说话,露出破绽。