老 穆
最近一段时间,“AI换脸”新型诈骗案件频发,利用人工智能实施电诈的典型案例冲上热搜,引发广泛关注。
据新华社报道,6月初,内蒙古包头市公安局发布一起使用AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
《法治日报》4月18日报道,浙江杭州检察机关曝光了一个“女神群”,群里发送的淫秽视频有不少是犯罪嫌疑人使用“AI换脸”技术合成的,还可以根据顾客需要“私人定制”;江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子;河北高阳警方破获了一起制作、贩卖、传播淫秽物品牟利案,犯罪嫌疑人通过社交群自学“AI换脸”技术,用明星形象制作淫秽视频在网上以每10分钟300元的价格售卖……
近年来,“AI换脸”走红网络,无论是在手机应用商城还是社交平台、短视频平台,都能看到不少提供“AI换脸”服务的App和小程序,只需上传一张照片,经过深度合成算法处理,就能秒变视频主人公。比如,只要下载某款软件,就能轻易把自己的五官投到某位演员脸上,享受“参演”电影、电视剧、短视频的快感。
随着人工智能的快速发展,“AI换脸”技术门槛逐渐降低,应用场景越来越多,在满足人们猎奇、美颜、社交等需求的同时,一些不法分子为了牟利,突破道德底线和法治红线,侵犯他人的肖像权、名誉权,甚至利用“AI换脸”实施杀猪盘和电信诈骗,危害公共安全。
法律专家表示,随着AI技术加速迭代,由于使用边界不清晰,涉诈风险正在积聚,需要高度警惕。
防范AI技术滥用、遏制“AI换脸”诈骗,关键是管住使用技术的人。
国家网信办、工信部、公安部联合发布的《互联网信息服务深度合成管理规定》今年1月10日起正式施行,《规定》明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,并要求服务提供者建立健全辟谣机制。这为深度合成服务的技术应用划定了“底线”和“红线”。
4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,明确要建立专门的监督体系,为治理乱象提供了有力的法律依据。
与此同时,公安部门加强了对此类乱象的筛查、监管,加大了对违法行为的打击力度。
对公众来说,要提高对网络信息的辨识力,老话说“眼见为实”,如今眼见也不一定为实,用一位人工智能专家的话说“未来AI可根据大数据创造出无比接近真实的‘真实’,眼见不一定为实,有图不一定有真相”。
提防“AI换脸”诈骗可坚持最基本的防诈原则,比如涉及钱款交易,一定要慎之又慎,通过个人、亲友、单位等多渠道联系核实后,再定夺。业内人士建议,尽量不要在社交媒体上发布个人与家人相关照片、语音、视频等,以防被不法分子利用。最关键的是要提高个人防范意识,警惕被相关软件收集人脸、声音等个人敏感信息。
对此,中国互联网协会发出提醒:“在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要以电话联系等方式核实确认,不要仅凭单一沟通渠道直接转账汇款,无论对方是谁!”这是每个人应有的防骗素养。


