最近,有骗子玩出“新花样”,上了“AI换脸”的技术。湖州德清的老章,就差点上当受骗。
12月24日中午,老章接到一个陌生电话,对方却自称是女儿盈盈。
“盈盈”告诉老章,手机在高铁站弄丢了,只能借超市老板的手机打电话,问老章要10000元买手机。
“我女儿什么声音,我不知道吗?”老章听着电话里的声音并不像盈盈。电话里的“盈盈”却说,如果老章不信,可以下一个视频通话APP和她视频。
老章按照那头的引导下载了一个APP,果然在屏幕上看到了女儿的头像。
老章信以为真,急急忙忙跑去银行给“女儿”打钱。
半路上,老章却接到了莫干山派出所反诈预警员陈成林的电话。
“怎么会是诈骗?我跟我女儿视频通话确认过。”老章很吃惊。
“你千万别转账,我们马上就来!”陈成林连声说,并驱车赶赴现场。
德清警方供图
5分钟后,陈成林在银行与老章见了面,了解了事情的来龙去脉。
“视频里的你女儿是AI合成的。”听完老章的讲述,陈成林告诉老章,骗子通过收集老章女儿平时的照片以及声音信息,合成AI“假盈盈”行骗。
老章连忙给女儿打电话,得知盈盈正在外地出差,并没有丢手机。
“自己真是老糊涂了!还好有你们来劝阻我,电话晚打来两分钟我这1万块钱就打出去了!”
德清警方介绍,AI诈骗是指利用人工智能(AI)技术,冒充他人的身份或声音,通过视频或语音的方式实施诈骗的行为。
套路一般有两种:
一是声音合成。骗子先通过拨打骚扰电话的方式获取对方声音信息,对音频素材进行AI处理之后,利用AI技术伪造对方声音实施诈骗;另外一种方式,是不法分子通过盗取受害人微信等社交账号后,使用特殊的语音插件,转发之前的语音信息,获取信任实施诈骗。
二是AI换脸。和声音合成相比,这种形式更具有欺骗性。不法分子利用AI技术,根据搜集来的照片和视频生成与目标对象相似的面容,然后再给受害人拨打视频电话,带上“人脸面具”,以假乱真。
那么,如何防范AI换脸诈骗?
AI拟声、AI换脸包装作伪后的通话虽能逼真地模仿原始人物的语言和行为,但仍充满破绽,例如眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。若在与亲友视频语音沟通中发现上述异常行为,应立即警觉。
视频电话中,眼见未必为实、耳听未必为真。无论任何人要求你分享个人身份信息,如你的地址、出生日期或名字,都要小心。对突如其来的电话要保持警惕,即使是熟人或者朋友,因为来电显示的号码也有可能伪造。如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等多种沟通渠道核验对方身份,不要未经核实随意转账汇款,一旦发现风险,请及时报警求助。
(来源:"网信浙江”)
(链接:https://mp.weixin.qq.com/s/XgjeoNIFE6SxCA26ng_8GQ)