新闻 > 产业新闻 > 新闻详情

科技公司老板10分钟被骗走430万元!警惕AI诈骗

发表时间:2023-05-23 11:24:01 作者:菠菜圈 更多文章

4月20日中午,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。


基于对好友的信任,加上已经视频聊天核实了身份,郭先生就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。


值得注意的是,骗子并没有使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗的原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。在接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。


AI诈骗成功率接近100%?


郭先生的经历并非孤例。此前,一名拥有百万粉丝的女网红爆出了一起“AI换脸”事件。这名女网红表示,她的视频评论区突然涌来了很多人说看过她的“视频”,但她从未发布过这样的视频。


她疑惑地点开了这个视频,结果发现里面的女生和她长得一模一样,但做着一些难以描述的动作,让她感到非常愤怒和无助。她随即意识到可能是她的脸被人工智能(AI)盗用了。


事实上,近两年来,在浙江、安徽、江苏等地,多名盗取个人信息的犯罪嫌疑人被公安部门抓获。


犯罪嫌疑人作案流程极为雷同:先是非法获取他人照片或有偿收购他人声音等“物料”,然后利用人工智能技术将照片“活化”、合成动态视频,之后或直接骗过社交平台、支付宝账户的人脸核验机制,进行非法获利;或骗过手机卡注册过程中的人工审核环节,继而利用他人名下的手机号进行电信网络诈骗、网络赌博等,使被收集信息的人遭受安全威胁和财产损失。


在AI应用如此广泛的现在,利用AI诈骗有哪些常用手法?


第一种是声音合成,骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。


第二种为AI换脸,人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。


第三种是转发微信语音骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。


第四种是通过AI技术筛选受骗人群,骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。


不轻易提供人脸、指纹等个人生物信息


包头市公安局反诈中心民警对媒体表示,智能AI诈骗是指不法分子非法获取他人照片或有偿收购他人声音等“物料”,仅仅需要少量音视频样本数据,就可以合成媲美真人的伪造音视频,模拟制作出来的动态人物不仅能做点头、摇头等动作,还可完成眨眼、张嘴、皱眉等丰富表情,效果极为逼真,用来实施精准诈骗,侵害他人人身和财产安全。


警方提示:


  • 针对花样翻新的智能AI诈骗,公众要增强防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。


  • 网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。


  • 如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。




声明:本文由新闻源或入驻作者撰写,除博牛官方账号外,观点仅代表作者本人,不代表博牛立场.

博牛集团博牛社区博牛招聘菠菜圈广告合作手机版建议投诉

重要聲明:本網站是以即時上載留言的方式運作,本站對所有留言的真實性、完整性及立場等,不負任何法律責任。而一切留言之言論只代表留言者個人意見,並非本網站之立場,用戶不應信賴內容,並應自行判斷內容之真實性。由於討論區是受到「即時留言」運作方式所規限,故不能完全監察所有即時留言,若讀者發現有留言出現問題,請聯絡我們。本站有權刪除任何留言及拒絕任何人士留言,同時亦有不刪除留言的權利。切勿撰寫粗言穢語、誹謗、渲染色情暴力或人身攻擊的言論,敬請自律。本網站保留一切法律權利。