【资料图】
本报讯 (记者 朱静 通讯员 鼓公宣)5月9日,记者从鼓楼公安分局获悉,利用AI换脸技术进行的诈骗案件近期频发,不法分子利用AI换脸技术,和被害人进行短暂视频通话,在取得被害人信任后实施诈骗。
上个月,正在单位工作的王先生突然收到儿子“小王”发来的添加好友请求。小王正在外地高校读研究生,称最近变更了新手机号码,并用该号码注册了微信。正忙于手头工作的王先生未产生怀疑,直接同意了该好友请求。
等不忙后,王先生欲跟儿子视频通话,但是通话请求很快被对方挂断。正当王先生感到疑惑时,“小王”主动发来视频通话请求,接通后王先生只来得及看到儿子对着镜头跟他打了个招呼,然后通话又挂断了。王先生立即回拨过去,但均被挂断。
不一会儿,“小王”在微信上发来消息,称自己正在上课,不方便接听电话。他告诉王先生,自己即将参加一个国际学术会议需要出国,但手头经费不够买机票,希望父亲帮忙垫付一下,后期学校会报销。由于刚刚视频聊天见到了儿子,王先生并未怀疑就转过去1.5万元。
到了下午,“小王”又给王先生微信发来消息,称最近因为写论文的事还需要买点礼物“打点”导师,希望父亲能再转2万元过来。王先生觉得很疑惑,儿子有奖学金,平时很懂事,很少会跟家人直接要钱。王先生越想越不对劲,便跟儿子提出视频聊天想多了解一些情况,但打过去都被对方挂断。无奈之下王先生拨打了手机里保存的儿子原来的手机号码,直到小王在电话里告诉父亲,自己并没说要参加学术会议,也没有跟家里要过钱,王先生才意识到被骗了,于是向警方报警。
经过对案件分析,民警判断,通话的视频是犯罪分子通过AI换脸技术手段合成而来,目前案件正在进一步侦办中。
民警表示,目前人工智能发展呈现出“融合创新”和“降低门槛”的特点:一方面,AI技术及产业的融合创新越来越多;另一方面,虽然AI技术越来越复杂,但AI开发与应用的门槛却越来越低,犯罪分子能轻易获取并用来实施犯罪。“利用AI换脸技术可以伪装成任何人,然后冒充受害人的亲友、领导等进行诈骗。现在的技术进步速度非常快,不管是技术换脸还是合成照片,都极具欺骗性。”办案民警向记者介绍。
民警对相关警情进行了梳理,发现除了利用AI技术换脸进行的视频诈骗,语音诈骗也是冒充熟人诈骗的高发类型。“通过AI技术还可以模拟受害人熟悉的人声音,谎称自己急需用钱,以此来骗取受害人的钱财。很多平时不接触、不了解这些技术的人,特别是老年人,更容易被骗。”
民警提醒,在技术飞速发展的同时,不法分子的骗术也在不断更新,从声音、图像到视频,一旦不注意,就会落入不法分子的圈套中。“耳听为虚,眼见也不一定为实。”民警表示,市民平时一定要注意保护好个人信息,以防被骗子掌握精准信息(300099)而实施诈骗。在涉及转账、汇款等情况时,务必要通过多方渠道核实并确定对方身份。
关键词: