国家金融监管总局发布关于警惕利用AI新型技术实施诈骗的风险提示,当前,AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,也给网络诈骗带来可乘之机。如不法分子通过面部替换、语音合成等方式,制作虚假图像、音频、视频,仿冒他人身份实施诈骗,侵害消费者合法权益。国家金融监督管理总局发布消费者权益保护风险提示,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。
利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
(编辑:王星)
凡本网注明“来源:企业观察网”的所有作品,均为《企业观察报》社有限责任公司合法拥有版权或有权使用的作品,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:企业观察网”。违反上述声明者,本网将追究其相关法律责任。凡本网注明“来源:XXX(非企业观察网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如其他媒体、网站或个人转载使用,须保留本网注明的“稿件来源”,并自负法律责任。如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。联系方式:010-68719660。