×

AI诈骗 AI换脸 电信诈骗

警惕:AI诈骗大爆发!诈骗成功率几乎100%

暗网来客 暗网来客 发表于2023-05-23 11:14:49 浏览201 评论0

抢沙发发表评论

技术改变生活

也改变了诈骗

AI新骗局来袭

诈骗成功率接近100%

5月22日话题#AI诈骗正在全国爆发#冲上微博热搜

只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。

“AI换脸”新型诈骗频发和你视频对话的可能不是本人!

确认过长相声音仍被骗

10分钟被骗走430万元

近日,包头警方发布一起使用智能AI技术进行电信诈骗的案件。

据介绍,4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他。短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想借用郭先生公司的账户走一下账。

好友向郭先生要了银行卡号,声称已经把钱打到账户上,还把银行转账底单的截图发给郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。

可当郭先生主动给好友微信发消息,称事情已经办妥时,好友竟然不知情。他这才意识到遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时给我打了视频,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。

值得注意的是,骗子并没使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗的原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。

警方接报后,在银行的全力协助下,仅10分钟就将该诈骗账户内的336.84万元被骗资金拦截,但仍有93.16万元资金被转移,目前福建警方与包头警方正在全力追缴中。

骗子手段防不胜防

“AI诈骗”成功率竟近100%

在这起骗局中,骗子防不胜防的程度,超出正常认知的仿真度,令人不寒而栗。

图据湖北网警巡查执法

据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。

AI技术如何介入新骗局?有什么新的诈骗方式?注意了

第一种是声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

例如,某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,该财务信以为真,在1小时内转款完成,后发现被骗。

第二种是AI换脸

因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

第三种是转发微信语音

除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。

在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。

第四种是AI筛选受骗人群

值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。

遏制人工智能违法应用

还须多方发力多管齐下

要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得多方主体共同发力多管齐下。

4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能产业给出较为详尽的规定,对用户安全保护已经迈出第一步。此外,监管部门要看到这一问题的严峻性,担负起监管责任,挖出相关产业链,给犯罪分子以震慑。平台和个人也应避免信息泄露,不给骗子留下把柄。      技术是一把双刃剑,拥抱新技术带来的发展与变革,也必须规避可能存在的风险和危险。既然有人在用它图谋不轨,就必须为这把剑装上剑鞘,这是为了保护剑,也是为了保护人。

警方提示

针对花样翻新的智能AI诈骗公众要提高防范意识!!!

1.  不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

2.  网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;

3.  如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;

4.  如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。