前沿 | 人工智能深度伪造的规制
2024-7-16 18:30:54 Author: mp.weixin.qq.com(查看原文) 阅读量:2 收藏

 扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

以文本、音频和视频为代表的人工智能深度伪造正在潜移默化渗透至生活的各个方面。比如,新闻报道可能由人工智能凭空撰写,亲友声音可能是人工智能进行的音色模拟,电影表演则可以通过人工智能换脸呈现。当自然人难以区分人工智能深度伪造和人类真实创作之时,人工智能深度伪造所伴生的风险也逐渐显现。数据安全、信息隐私、肖像权、平等权等个人权益受到冲击,人的主体性价值可能随着人工智能程度的升高而降低。此外,人工智能深度伪造所引发的媒体信任危机,不仅能够造成经济利益损失,更威胁着国家总体安全。要解决人工智能深度伪造所产生的问题,需要国家、行业和个人三方面共同努力,促进人工智能健康发展。
首先,从国家和政府方面来说,其所承担的规制义务体现于事前预防、事中监督和事后矫正三个阶段。国家可以通过立法、行政、司法等各个环节各个部门的动态连接,为人工智能深度伪造的发展划定底线,纠正技术发展的脱轨倾向,并在行业规制不足时进行强力执行。以肖像权、个人信息保护为例,根据《互联网信息服务深度合成管理规定》《人脸识别技术应用安全管理规定(试行)(征求意见稿)》等有关规定,人工智能深度伪造的技术使用者在处理人脸信息之前,需要首先进行个人信息保护影响评估,确保人脸信息的使用符合最少搜集、最小储存和个人知情同意原则,建立起肖像权和个人信息保护的事前预防机制。“具有舆论属性或者社会动员能力”的人工智能深度伪造的技术支持者和服务提供者,还需要根据《互联网信息服务算法推荐管理规定》向网信部门履行备案和变更、注销备案等手续。对可能产生虚假信息,造成舆论恐慌,甚至影响社会治安的人工智能深度伪造,还应当对其进行安全评估,在源头处限制人工智能深度伪造流入各个平台的应用实践。
网信部门、电信部门和公安部门等有关责任主体,对人工智能深度伪造进行监督检查,当发现技术存在较大风险时,可以通过要求技术主体暂停信息更新、用户注册等方式进行整改。如果人工智能深度伪造切实已经造成损害后果,人工智能深度伪造的技术支持者或服务提供者需要承担相应的法律责任。网信、电信、公安和市场监管等有关部门可以根据其损害后果,对相关责任人给予警告、通报批评、责令限期改正、暂停信息更新、罚款和治安管理处罚。对于情节严重者,还可以根据《中华人民共和国刑法》财产类犯罪、散布虚假信息类犯罪、伪造证据类犯罪等规定,追究相关责任人的刑事责任,进而实现事后的矫正。通过设置负面清单,划定技术红线,禁止恶意人工智能深度伪造投入市场应用。另外,通过监督反馈,降低人工智能深度伪造的技术风险,并在损害发生后,通过国家强制力追究法律责任。
其次,行业承担的重要规制义务更多的是通过前期价值引导保障技术始终向善。由于人工智能深度伪造存在着技术门槛,以人工智能深度伪造技术支持者和服务提供者为代表的行业主体具有天然的技术优势,是人工智能深度伪造规制的直接责任人。行业主体需要将符合法律、道德要求的规范内嵌于人工智能深度伪造全生命周期,以公平正义、权益保护为导向,避免出现数据安全、信息隐私泄露、算法歧视等问题,以增进人类福祉为目标,引导人工智能深度伪造技术向善发展。在数据输入环节,行业主体在进行数据训练之时,需要采取技术措施保障数据安全和个人隐私,对可能产生财产或人身风险的重要个人数据,需要单独取得个人同意,并进行安全风险评估。在分析处理环节,行业主体需要告知用户个人如何处理其数据,并且通过技术设计保障个人数据被公平对待,避免出现歧视结果。在结果输出环节,行业主体需要在人工智能深度伪造产品的合理位置添加显著标识,提醒用户该产品的人工智能深度伪造情况,避免用户混淆虚假创作与客观现实。
行业主体还需要根据反向溯源原则,在纠正不良产品的同时,于结果端反向追溯源头,分析探清不良产品的出现原因,及时进行技术更正。行业主体需要定期审核、评估、检验人工智能深度伪造的算法运作过程,及时修正存在个人利益侵害或公共安全风险的算法设计,通过技术保障人工智能深度伪造的合理使用。当出现人工智能深度伪造侵害权益的现象,行业主体需要通过警示、限制功能、停止生成、关闭账号等方式对特定人工智能深度伪造使用者进行处置,并建立健全辟谣机制,公开辟谣,及时删除混淆大众视听的不良信息,并向网信部门报告。当个人主体发现人工智能深度伪造出现问题之时,行业主体需要保障用户的申诉、投诉和举报权利,并及时反馈用户其处理流程和结果。行业主体作为人工智能深度伪造的第一监督主体,必须加强行业自律机制,健全行业技术规范原则,对人工智能深度伪造进行自我监管,甄别不当的人工智能深度伪造产品,避免虚假信息淹没真实信息,保障真实信息呈现于用户面前。
最后,个人所承担的义务包括提升自身知识素养和积极行使权利。面对人工智能深度伪造的纵深发展,个人主体难以置身事外,即便个人并非主动接触人工智能深度伪造,但在智能环境的包围下,也将被动接触人工智能深度伪造。鉴于此,个人可以加强人工智能深度伪造知识的学习,主动通过学习途径提升自身关于人工智能的知识素养,增强个人分辨信息来源的能力,减少被虚假信息欺骗的可能性。通过积极参与规则制定,主动提出关于维护个人权益、社会安全的建议,促进政策规则的完整性和有效性。在网络日常生活中,当个人发现人工智能深度伪造的不良信息时,可以及时向人工智能深度伪造行业主体或者网信部门、网安部门等责任主体进行举报,避免虚假信息的蔓延传播,降低其整体风险。个人应当正确使用人工智能技术,不利用人工智能深度伪造技术侵害他人权益或是危害公共安全。

(来源:学习时报)

分享网络安全知识 强化网络安全意识

欢迎关注《中国信息安全》杂志官方抖音号

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664220121&idx=4&sn=1a28cc21168fe1172329bd4d7311bed0&chksm=8b59c720bc2e4e363692df4d5ed32d097341305cc10eef3acd064b9d9545f62e36d91ffa23f4&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh