专家解读 | 加强生成式人工智能的行政法规制
2024-4-4 16:48:20 Author: mp.weixin.qq.com(查看原文) 阅读量:4 收藏

扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

文 | 湖南科技大学法学与公共管理学院副教授 易卫中
自2022年11月ChatGPT发布以来,全球掀起AI狂潮,生成式人工智能正改变着互联网时代知识信息的创造与传播,甚至引领着人类社会进入一场新的知识革命。在释放技术红利的同时,生成式人工智能也可能被滥用于传播虚假信息、实施欺诈行为,甚至存在着冲击社会伦理的风险。
近年来,我国出台了一系列有关人工智能的治理规范,尤其2023年5月国家互联网信息办公室审议通过的《生成式人工智能服务管理暂行办法》(以下简称《办法》),涉及生成式人工智能适用范围、分类分级监管、法律责任认定、模型和数据合规要求等。然而,相对于监管治理需求而言,当前的法律实践在治理规范构建、治理手段更新以及治理规则适用等方面仍有不足。面对新技术带来的挑战,行政机关对生成式人工智能应用的规制要坚持包容审慎的监管原则,通过法律层面的制度构建、行政监管框架的更新以及政企合作治理模式,多措并举革新生成式人工智能行政法规制体系,在产业创新与风险治理之间寻求平衡,促进网络空间与数字经济持续健康发展。

生成式人工智能的应用风险形态

《办法》将生成式人工智能定义为具有文本、图片、音频、视频等内容生成能力的模型及相关技术,其涵射范围较一般理论研究有所扩大,体现了立法者的审慎态度。生成式人工智能通常具有复杂的架构,通过海量参数进行预训练、微调后得以运用于不同场景,解决各种复杂任务。当前,各国科技团队所开发训练的生成式人工智能大模型以及依托其技术压缩创造的小模型,都在应用中暴露出诸多风险隐患。

其一是数据利用合规风险。在生成式人工智能使用阶段,个人和商业信息甚至个人隐私和商业秘密均存在泄露风险。对于用户提交的信息,生成式人工智能会进行迭代训练,可能采用、学习后作为输出内容,导致信息泄露。此外,当国内用户使用ChatGPT等境外提供服务的生成式人工智能时,数据的跨境流动也会产生风险,若公权力机关所掌握的信息数据被泄露,甚至会威胁到国家层面的数据主权安全。
其二是生成内容滥用风险。高算力的大模型拥有创建高度逼真的合成文本、语音和视频的能力,大大提高了识别虚假信息的难度。同时,生成式人工智能的普及降低了编程门槛,大幅提高了编程效率,使得新型木马病毒的创造与进化速度空前提高。这导致各类电信网络诈骗、勒索等犯罪更加防不胜防,低成本更新的虚假信息易扰乱网络传播与社会秩序,生成式人工智能生成内容的滥用会给网络治理带来极大困难。
其三是扩大数字鸿沟的风险。数字鸿沟是社会在信息层面所形成的不公平现象,即因获取信息和通信的机会不平等,处于劣势的国家、地区、团体、个人等将无法触及数字技术带来的利益,如同被鸿沟隔绝。随着生成式人工智能的演进迭代,技术拥有者与技术缺乏者的差距进一步放大,少数或弱势群体的权益被轻视,大众承担的数字风险与微小收益不成比例,社会不公平由此加剧。

生成式人工智能的行政法规制路径

第一,将包容审慎、以人为本作为行政法规制的基本原则。《办法》第3条明确规定:“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。”这明确了我国对“生成式人工智能”的行政法规制应坚持包容审慎的基本原则。包容审慎原则要求合法行政、合理行政,提升依法行政水平,达到良好的治理效果,为新技术的应用创造有利条件。以人为本原则要求尊重人在人机关系中的主导地位,这是人工智能伦理层面的治理原则。2023年发布的《人工智能伦理治理标准化指南》将“以人为本”作为首要伦理准则,并指出以人为本就是要在“科技领域坚持以人民为中心的发展思想”。以人为本原则说明无论制度构建还是行政监管,都应确认、保护人类对生成式人工智能模型的最终控制权,确保公众对人工智能发展的知情权,确保生成式人工智能模型的设计应始终以人为中心,以补全、拓展人类的认知为目的,禁止威胁、欺瞒和操纵人类。在生成式人工智能治理过程中,“包容审慎、以人为本”的行政规制原则不是空洞的口号,应融入各级政府行政规制的各环节与全过程,为生成式人工智能的行政监管、风险评估和伦理规范体系的建立健全提供明确的方向指引。

第二,建立健全分级分类制度,形成行政监管合力。《办法》提出要采取分级分类的监管模式,但对具体如何实施分级分类监管,并未提出具体的制度方案。为构建分级分类监管治理模式,行政监管部门应当先针对生成式人工智能的应用场景进行精细化风险评估,再主导制定生成式人工智能的分类标准,以风险高低确定不同的监管方案。比如,在行政执法、公共管理、医疗和劳动就业等关乎公民基本权利和生活基础的场景中,应当对生成式人工智能系统模型的可信度和安全性适用更高标准,匹配相应的市场准入和技术审查制度,并保持长期的监控与审查。新监管模式的建立,需要更强有力、更有实效的具体制度。当前,人工智能领域存在多头监管、“九龙治水”的情况,导致监管难以形成合力,这一窘境亟待改变。为强化对生成式人工智能应用风险的行政监管,完善监管框架,应加强协同监管,消解监管冲突。同时,成立人工智能合作监管联盟,实现多个行政监管部门互联互通,共享监管信息,就监管措施达成共识,保持行政监管过程与行政监管价值目标相一致。
第三,构建政府、行业、企业三方共治机制。在人工智能时代,科技企业作为市场主体不再是单纯的被监管对象,其本身对技术漏洞和应用风险的掌握程度是行政监管主体无法企及的,而监管环境直接影响着科技企业的创新动能。若以开放共赢的规制模式培养、鼓励企业承担社会责任、坚守伦理道德,那么,良好的监管效能与企业的创新发展就会水到渠成。此外,引导人工智能行业协会或行业联盟参与并监督企业的内部治理。自治性的行业协会或联盟相较于行政机关,对专业知识的理解更加深刻,技术水平也较为先进,对行业的前沿发展有更明确的认知,更容易受到业内工作者的认同,能够更加简捷高效地处理行业内部问题。因此,构建人工智能企业自治、行业自律与政府监管三方合作的互动机制,探索共建共治共享的监管治理新格局,是政府规制生成式人工智能风险的重要进路。在出台具有强制约束力的硬法对生成式人工智能行业进行规范指引的同时,政府也要整合平台企业及行业协会等主体力量,充分接纳行业标准与企业自律准则,加强行业自律的行政指导,形成良性的合规环境,贯彻行政效能原则。通过试验生成式人工智能的监管沙盒制度,并细化适用于人工智能企业的合规免责制度,来缓解监管时滞、提升监管效率,为企业发展新技术留下试错空间,同时又将风险控制在合理范围内,找到产业发展和风险防控的平衡点。【本文系国家社科基金项目“RCEP背景下国际税收争端协商外解决机制研究”(22BFX186)阶段性成果】

(来源:中国社会科学网)

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664209703&idx=3&sn=9e521e08d4c15b13e561b7a08003be9d&chksm=8b599fdebc2e16c884c6d5e77d4d74460c5590cda16ecaf7cdccb2abe00afdb1c3709d2f6b91&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh