国际 | 英国司法人员人工智能使用规范考察
2024-7-18 18:19:2 Author: mp.weixin.qq.com(查看原文) 阅读量:1 收藏

 扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

文 | 华侨大学法学院 陈慰星;福建省三明市中级人民法院 邓群生
为应对人工智能的迅猛发展,英国于2023年底发布了《司法人员使用人工智能指南》(以下简称《指南》)。作为英国首个针对司法人员使用人工智能的行为规范,《指南》旨在为司法人员负责任地使用人工智能提供必要的协助,使司法人员、书记员和其他辅助人员清楚地了解在法院和法庭中使用人工智能所需要的技能、人工智能的局限性和潜在风险。《指南》的发布,也被视作英国司法正式向人工智能开放的重要里程碑。

以工作场景为导向的司法人工智能使用指引

《指南》包括导言、常用术语、法院和法庭负责任地使用人工智能的指南以及生成式人工智能在法院和法庭中的潜在用途及风险实例四部分。

导言部分明确了发布《指南》的目的,强调司法机构在使用人工智能的过程中要恪守司法公正,并申明了适用人员的范围,包括首席法官和法庭庭长以及属下的所有司法人员、书记员和其他辅助人员。
《指南》第二部分介绍了与人工智能相关的常用术语,包括人工智能、生成式人工智能、大型语言模型、机器学习和技术辅助审查等。
第三部分是《指南》的核心内容,旨在为法院和法庭负责任地使用人工智能提供指引,共7条:了解人工智能及其应用、维护保密性和隐私、确保问责制和准确性、谨防偏见、维护安全、承担责任以及注意法院和法庭用户可能使用过人工智能。
在第1条“了解人工智能及其应用”中,《指南》对人工智能的功能和潜在限制作了四点说明:人工智能生成的答案是由其非权威数据库的词语组合而成的,而非最准确答案;应将人工智能应用于查找自己确信的内容而非需被验证的内容;人工智能通过互动生成内容,因此会存在错误、片面及偏见问题;大型语言模型的法律语料主要源自美国,因此可能会产生“偏美轻英”的生成内容偏好。
后6条可归纳为五项内容:一是禁止在人工智能中输入私人、未公开及保密信息,并规定了对信息泄露的处置和报告义务;二是注意因训练数据集而可能产生的生成内容偏见或者错误,并考虑加以纠正;三是应采用维护司法系统的最佳做法,使用非个人的专用设备以确保操作安全;四是检查人工智能生成内容的准确性,确保信息的完整性和时效性;五是司法人员应对使用人工智能生成内容承担责任,法官应采取必要的降低风险的措施,以确保承担辅助工作的人员能恰当地使用此类工具,并向使用了人工智能的律师或当事人释明他们对所提交材料准确性的核查义务。
为具象化人工智能使用的典型场景,《指南》第四部分聚焦于生成式人工智能,列举了运用实例和运用风险。首先,《指南》明确了人工智能的潜在用途和不推荐使用的情形,前者包括利用人工智能的文本识别功能,撰写摘要、演讲稿以及带有行政属性的电子邮件或者备忘录;后者则设定了限制采用公共的人工智能进行法律研究、法律条文分析。其次,该部分还为法官如何甄别运用了人工智能的材料提供范例。例如,当事人就同一法律问题援引不同的判例法,或出现了不常见的案例及域外案例或美式拼写以及与该领域法律一般理解不符,甚至出现了明显的错误,这些材料就有可能使用了人工智能。

保守行进中的人工智能司法应用规范

总体而言,《指南》确认了司法人员在实践中使用人工智能的合法性,初步建立了使用人工智能的场景、风险认知及预防和司法人员责任自负的规则,以促进英国司法朝兼容新技术应用且确保风险可控的数字现代化方向发展。然而,这种谨慎的立法基调,显然未能完全涵盖目前日新月异的人工智能。作为一种软法形式的行业规范,《指南》实质上是英国司法系统对人工智能如何融入司法程序的一次谨慎甚至是保守的立法前试探。

首先,《指南》仅提及了人工智能应用可能会出现的偏见以及司法人员所应秉持的注意原则,但并未就人工智能嵌入司法裁判可能造成的合法性问题加以考量。虽然《指南》仅将人工智能的司法应用范围限定在案件文本总结和辅助性司法工作方面,而未将裁判的事实认定和法律适用等领域予以开放,但受制于算法黑箱等问题,ChatGPT等生成式人工智能的决策过程并不透明,这导致法官很难评估其所生成的法律建议的准确性,并确保由此作出的裁判推理的合逻辑性。这种缺乏可信度的人工智能辅助法律决策,将会混淆责任者,从而影响裁判责任的追究,最终可能会削弱公众对司法系统的信任。
此外,如果依据案件事实,利用人工智能生成判决摘要,且案件涉及欧洲国家当事人,则未来英国也可能面临当事人在欧洲人权法院发起人工智能司法正当程序诉讼的风险。
其次,尽管英国司法部门对引入人工智能持积极态度,但这并不意味着能够免除司法人员应用此类工具的后顾之忧。在法院使用人工智能应受到诸如公平性、透明性和隐私性保护的限制,司法人员应对所适用问题熟悉且有把握也是不可或缺的先决条件。《指南》提出的司法人员自我担责原则,进一步明晰了司法人员在上述过程中的主体性地位,也明确了人工智能作为提升司法工作效率的辅助性工具的定位。
不过,限于原则层面的风险说明和自我责任申明,暴露出《指南》在具体司法指引范围方面具有局限性。由于《指南》未能提供如何甄别生成结果错误以及对应的具体操作,处于人工智能应用摸索阶段的司法人员,在面临这种模糊的指引时可能进退失据。这类指引,将很难为司法人员使用人工智能提供专业且及时的处置建议,更遑论提供应对使用该项技术面临的潜在职业伦理挑战乃至错案风险的建议。
最后,虽然英国处于人工智能发展水平前列,但《指南》中涵盖的司法人工智能运用范围相对有限。比如,已经在很多国家开展的繁简分流、庭审排期、类案推送等辅助法官裁判系统以及人工智能多元化纠纷解决系统均未被提及。
此外,尽管强调了使用者担责,但《指南》并未关注人工智能运用的透明度和司法人员的说明义务等重要问题,而仅单方面要求律师等外部人员就使用人工智能的情况负有向法庭说明的义务。人工智能辅助下法院和法官的角色等问题也有待后续立法加以补充。

(来源:人民法院报)

分享网络安全知识 强化网络安全意识

欢迎关注《中国信息安全》杂志官方抖音号

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664220248&idx=6&sn=293aed1740e678375a34ac15e4fdc096&chksm=8b59c4a1bc2e4db7a124e62380bfd8e4f1e28e949654da400d8d78f7916b1a75563e8e19f3a6&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh