6月25日,全国人大常委会法制工作委员会举行新闻发布会。 针对利用“AI换脸”技术进行视频合成进而诈骗一事,发言人臧铁伟指出:“每一次改变都离不开”。 利用AI换脸进行视频合成诈骗的行为,是一种利用新技术的诈骗行为,与传统诈骗本质上是一样的。“从法律角度看,《反电信网络诈骗法》、《刑法》等法律为打击各类电信网络诈骗活动提供了充分的支撑。”
此前,犯罪分子利用AI换脸技术进行电信诈骗,仅10分钟通话就骗取受害人430万元。 一时间,“AI换脸”诈骗事件引发舆论焦虑。 要知道,人类一直把脸作为最重要的生物识别指标,通过“看脸”来区分你、我、他。 现在,基于深度合成技术的换脸、变声、人工智能对话等应用已经发展到可以造假的地步。
AI换脸技术很容易成为冒名顶替者诈骗、敲诈勒索、摧残人清白的违法犯罪工具。AI换脸来势凶猛,法律准备好了吗? 治理准备好了吗? 普通人准备好了吗?
正如臧铁伟所言,换脸技术作为诈骗手段,并未逃脱现行法律的管辖范围。 但也需要充分认识深度合成技术作为诈骗等犯罪手段的特殊性。 它打破了“面孔是真实的”的社会共识和常识,带来了一系列视觉扭曲、新闻扭曲、社会关系扭曲。 严肃的问题。
首先,AI换脸等技术对公民的肖像权、名誉权、隐私权等权利构成普遍威胁,且违法成本极低。 只要应用成熟的方案,就可能产生大量侵权内容,甚至造成当事人“跳进黄河也洗不掉的尴尬”。 此前有不法分子推出“一键脱衣”AI技术,利用技术手段对女性进行肆意侵害和侮辱。 对此,职能部门需要及时设立高压线,引导行业积极竞争。
其次,此类技术也会造成严重的信任危机。 不仅会有人利用它进行诈骗,更多民事行为的有效性也会受到争议。 你如何证明与你签订合同的人是真实的人? 这方面的民事规则必须及时跟进。
一刀切地禁止,或者忽视深度合成技术的发展都是错误的。 去年底,国家互联网信息办公室正式公布了《互联网信息服务深度合成管理规定》,不仅原则上规定深度合成技术必须遵守法律,不得侵犯公民权利,同时还明确了《人工智能标识规则》:提供“换脸”等深度合成服务的提供者,如果相关服务“可能引起公众混淆或误认”,则必须提供“显着识别功能”。
也就是说,对AI换脸等服务进行强制标识以避免误解已经是行政法规,但相关治理规则需要尽快升级为国家法律。 此外,对于AI**聊天、换脸破解人脸识别技术等利用深度合成技术的“灰色产业”,要尽快查明、处理,并建立规则。
每一项技术突破都不可避免地会产生负面影响。 关键是要引导技术向善生活网消息,而不是让它陷入人性负面的深渊。AI换脸技术不是潘多拉魔盒,但法律和治理必须跟上技术的发展。