当前版: 05版 上一版  下一版

“AI换脸”在风行,防骗避险守好“门”

  针对“AI换脸”诈骗多发的现实,国家金融监督管理总局北京监管局近日发布风险提示:眼见不为真,谨防新型欺诈手段,提高打假维权本领,守护家人亲朋财产安全。(新华社10月8日)

  近年来,“AI换脸”走红网络,无论是在手机应用商城还是社交平台、短视频平台,都能看到不少提供“AI换脸”服务的App和小程序,只需上传一张照片,经过深度合成算法处理,就能秒变视频主人公。比如,只要下载某款软件,就能把自己的五官投到某位演员脸上,享受“参演”电影、电视剧、短视频的快感。

  随着人工智能的快速发展,“AI换脸”技术门槛逐渐降低,应用场景越来越多,然而,这一人工智能技术在满足人们猎奇、美颜、社交等需求的同时,相关诈骗案件频频发生。不法分子为了牟利,利用仿真技术冒充亲人、同事或公职人员声音相貌行骗,此类新型网络诈骗手段多样、辨别难度加大,容易令人放松警惕,造成财产损失,而且危害公共安全。

  今年6月初,内蒙古包头市公安局发布一起使用AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

  据《法治日报》报道,浙江杭州检察机关曝光了一个“女神群”,群里发送的淫秽视频有不少是犯罪嫌疑人使用“AI换脸”技术合成的,还可以根据顾客需要“私人定制”;江苏常州的小刘被骗子冒充其同学发语音、打视频电话,小刘看到“真人”后信以为真,“借”了6000元给骗子;河北高阳警方破获了一起制作、贩卖、传播淫秽物品牟利案,犯罪嫌疑人通过社交群自学“AI换脸”技术,用明星形象制作淫秽视频在网上以每10分钟300元的价格售卖……

  法律专家表示,随着AI技术加速迭代,涉诈风险正在积聚,需要高度警惕。

  防范AI技术滥用、遏制“AI换脸”诈骗,关键是管住使用技术的人。

  4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,明确要建立专门的监督体系,为治理乱象提供了有力的法律依据。

  对此类乱象,公安部门也加强了筛查、监管,加大了打击违法行为的力度。

  对公众来说,要提高对网络信息的辨识力,用一位人工智能专家的话说,“未来AI可根据大数据创造出无比接近真实的‘真实’,眼见不一定为实,有图不一定有真相”。

  业内人士建议,尽量不要在社交媒体上发布个人与家人相关照片、语音、视频等,以防被不法分子利用。最关键的是要提高个人防范意识,警惕被相关软件收集人脸、声音等个人敏感信息。

  北京金融监管局提示:加强个人信息保护,谨防重要信息泄露,仔细辨识存在个人信息泄露的风险点;在涉及转账汇款等资金往来时,要通过拨打对方手机号、当面核实等渠道多方核实、查验真伪,切勿仅凭单一沟通渠道未经核实就转账汇款。

  中国互联网协会也发出提醒:“在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要以电话联系等方式核实确认,不要仅凭单一沟通渠道直接转账汇款,无论对方是谁!”这是每个人应有的防骗素养。

 
     标题导航
   第01版:要闻
   第02版:要闻
   第03版:经济
   第04版:社会
   第05版:晚报早评
   第06版:社区365
   第07版:时事
   第08版:时事
   第09版:时事
   第10版:时事
   第11版:文娱
   第12版:体育
   第13版:健康
   第14版:朋友圈
   第15版:电视连载
   第16版:印象大同
文旅产业健康发展应算好两本账
文明旅游 风景更美
“定制”骗局
“AI换脸”在风行,防骗避险守好“门”