针对“AI换脸”诈骗多发的现实,国家金融监督管理总局北京监管局近日发布风险提示:眼见不为真,谨防新型欺诈手段,提高打假维权本领,守护家人亲朋财产安全。(新华社10月8日)
近年来,“AI换脸”走红网络,无论是在手机应用商城还是社交平台、短视频平台,都能看到不少提供“AI换脸”服务的App和小程序,只需上传一张照片,经过深度合成算法处理,就能秒变视频主人公。比如,只要下载某款软件,就能把自己的五官投到某位演员脸上,享受“参演”电影、电视剧、短视频的快感。
随着人工智能的快速发展,“AI换脸”技术门槛逐渐降低,应用场景越来越多,然而,这一人工智能技术在满足人们猎奇、美颜、社交等需求的同时,相关诈骗案件频频发生。不法分子为了牟利,利用仿真技术冒充亲人、同事或公职人员声音相貌行骗,此类新型网络诈骗手段多样、辨别难度加大,容易令人放松警惕,造成财产损失,而且危害公共安全。
今年6月初,内蒙古包头市公安局发布一起使用AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
据《法治日报》报道,浙江杭州检察机关曝光了一个“女神群”,群里发送的淫秽视频有不少是犯罪嫌疑人使用“AI换脸”技术合成的,还可以根据顾客需要“私人定制”;江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子;河北高阳警方破获了一起制作、贩卖、传播淫秽物品牟利案,犯罪嫌疑人通过社交群自学“AI换脸”技术,用明星形象制作淫秽视频在网上以每10分钟300元的价格售卖……
法律专家表示,随着AI技术加速迭代,涉诈风险正在积聚,需要高度警惕。
防范AI技术滥用、遏制“AI换脸”诈骗,关键是管住使用技术的人。
4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,明确要建立专门的监督体系,为治理乱象提供了有力的法律依据。
对此类乱象,公安部门也加强了筛查、监管,加大了打击违法行为的力度。
对公众来说,要提高对网络信息的辨识力,用一位人工智能专家的话说,“未来AI可根据大数据创造出无比接近真实的‘真实’,眼见不一定为实,有图不一定有真相”。
业内人士建议,尽量不要在社交媒体上发布个人与家人相关照片、语音、视频等,以防被不法分子利用。最关键的是要提高个人防范意识,警惕被相关软件收集人脸、声音等个人敏感信息。
北京金融监管局提示:加强个人信息保护,谨防重要信息泄露,仔细辨识存在个人信息泄露的风险点;在涉及转账汇款等资金往来时,要通过拨打对方手机号、当面核实等渠道多方核实、查验真伪,切勿仅凭单一沟通渠道未经核实就转账汇款。
中国互联网协会也发出提醒:“在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要以电话联系等方式核实确认,不要仅凭单一沟通渠道直接转账汇款,无论对方是谁!”这是每个人应有的防骗素养。


