当前版: 05版 上一版  下一版

“AI换脸”好玩吗?背后风险需防范

  老  穆

  最近一段时间,“AI换脸”新型诈骗案件频发,利用人工智能实施电诈的典型案例冲上热搜,引发广泛关注。

  据新华社报道,6月初,内蒙古包头市公安局发布一起使用AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

  《法治日报》4月18日报道,浙江杭州检察机关曝光了一个“女神群”,群里发送的淫秽视频有不少是犯罪嫌疑人使用“AI换脸”技术合成的,还可以根据顾客需要“私人定制”;江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子;河北高阳警方破获了一起制作、贩卖、传播淫秽物品牟利案,犯罪嫌疑人通过社交群自学“AI换脸”技术,用明星形象制作淫秽视频在网上以每10分钟300元的价格售卖……

  近年来,“AI换脸”走红网络,无论是在手机应用商城还是社交平台、短视频平台,都能看到不少提供“AI换脸”服务的App和小程序,只需上传一张照片,经过深度合成算法处理,就能秒变视频主人公。比如,只要下载某款软件,就能轻易把自己的五官投到某位演员脸上,享受“参演”电影、电视剧、短视频的快感。

  随着人工智能的快速发展,“AI换脸”技术门槛逐渐降低,应用场景越来越多,在满足人们猎奇、美颜、社交等需求的同时,一些不法分子为了牟利,突破道德底线和法治红线,侵犯他人的肖像权、名誉权,甚至利用“AI换脸”实施杀猪盘和电信诈骗,危害公共安全。

  法律专家表示,随着AI技术加速迭代,由于使用边界不清晰,涉诈风险正在积聚,需要高度警惕。

  防范AI技术滥用、遏制“AI换脸”诈骗,关键是管住使用技术的人。

  国家网信办、工信部、公安部联合发布的《互联网信息服务深度合成管理规定》今年1月10日起正式施行,《规定》明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,并要求服务提供者建立健全辟谣机制。这为深度合成服务的技术应用划定了“底线”和“红线”。

  4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,明确要建立专门的监督体系,为治理乱象提供了有力的法律依据。

  与此同时,公安部门加强了对此类乱象的筛查、监管,加大了对违法行为的打击力度。

  对公众来说,要提高对网络信息的辨识力,老话说“眼见为实”,如今眼见也不一定为实,用一位人工智能专家的话说“未来AI可根据大数据创造出无比接近真实的‘真实’,眼见不一定为实,有图不一定有真相”。

  提防“AI换脸”诈骗可坚持最基本的防诈原则,比如涉及钱款交易,一定要慎之又慎,通过个人、亲友、单位等多渠道联系核实后,再定夺。业内人士建议,尽量不要在社交媒体上发布个人与家人相关照片、语音、视频等,以防被不法分子利用。最关键的是要提高个人防范意识,警惕被相关软件收集人脸、声音等个人敏感信息。

  对此,中国互联网协会发出提醒:“在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要以电话联系等方式核实确认,不要仅凭单一沟通渠道直接转账汇款,无论对方是谁!”这是每个人应有的防骗素养。

 
     标题导航
   第01版:要闻
   第02版:要闻
   第03版:大同新闻
   第04版:经济
   第05版:晚报早评
   第06版:专版
   第07版:社区365
   第08版:时事
   第09版:时事
   第10版:时事
   第11版:体育
   第12版:九龙壁 随笔
   第13版:健康
   第14版:朋友圈
   第15版:电视连载
   第16版:广告
这个“火热”的夏天值得期待
为技能职业者 赢得更多尊重
沦为“摆设”
“AI换脸”好玩吗?背后风险需防范