网安标委印发《网络安全技术 生成式人工智能服务安全基本要求(征求意见稿)》
2024-5-23 19:40:42 Author: www.freebuf.com(查看原文) 阅读量:4 收藏

freeBuf

随着人工智能技术快速发展,生成式人工智能服务成为一项备受关注的领域,其在自然语言处理、图像生成等方面拥有巨大的潜力,带来许多便利和机遇。然而,生成式人工智能服务也可能会引发新的安全危机,因此,对于生成式人工智能服务提供者来说,如何保证人工智能服务或产品的安全性,以及满足安全合规仍然是痛点。

基于此,全国网络安全标准化技术委员会根据相关政策法规,制定并发布了《网络安全技术 生成式人工智能服务安全基本要求(征求意见稿)》(以下简称《要求》)。

1716464440_664f2b384a08dce4c4c48.png!small

《要求》规定了生成式人工智能服务在安全方面的基本要求,包括训练数据安全、模型安全、安全措
施等,并给出了安全评估参考要点,旨在帮助服务提供者明确生成式人工智能服务网络安全基线、提高服务安全水平,适用于服务提供者开展安全评估,也可为相关主管部门提供参考。

生成式人工智能服务的训练数据安全要求

《要求》明确,生成式人工智能服务的训练数据安全要求包括数据来源安全、数据内容安全以及数据标注安全。其中,数据来源安全方面要求服务提供者面向特定数据来源进行采集前,应当对该来源数据进行安全评估,对于数据内容中含违法不良信息超过 5% 的,不应当采集该来源数据。此外,服务提供者在面向特定数据来源进行采集后,应该对所采集的该来源数据进行核验,含违法不良信息情况超过 5% 的,不应使用该来源数据进行训练。

服务提供者还应提高训练数据来源的多样性,对每一种语言的训练数据,如中文、英文等,以及每一种类型的训练数据,如文本、图片、音频、视频等,均应有多个训练数据来源,并确认数据来源的可溯源。在使用时数据训练时,服务提供者应该具有该数据来源的开源许可协议或相关授权文件,在使用商业数据时应当获得具有法律效应的相应授权。

为了保证数据的安全性,对数据进行过滤必不可少。服务提供者应当对训练数据内容过滤,对于每一种类型的训练数据,如文本、图片、音频、视频等,应在将数据用于训练前,对全部训练数据进行过滤,过滤方法包括但不限于关键词、分类模型、人工抽检等,去除数据中的违法不良信息。

生成式人工智能服务的模型安全要求

《要求》提出,服务提供者在模型训练过程中应将生成内容安全性作为评价生成结果优劣的主要考虑指标之一,并且定期对所使用的开发框架、代码等进行安全审计,关注开源框架安全及漏洞相关问题,识别和修复安全漏洞。

在结束训练,输出模型时,服务提供者必须确保生成内容的准确性,应当采取技术措施提高生成内容响应使用者输入意图的能力,提高生成内容中数据及表述与科学常识及主流认知的符合程度,减少其中的错误内容;

另外,服务提供者还要确保生成内容的可靠性,应当采取技术措施提高生成内容格式框架的合理性以及有效内容的含量,提高生成内容对使用者的帮助作用,对明显偏激以及明显诱导生成违法不良信息的问题,应拒绝回答,对图片、视频等生成内容标识方面,应满足国家相关规定以及标准文件要求。

人工智能服务的模型需要进行持续的模型监测,《要求》强调,服务提供者应当对模型输入内容持续监测,建立常态化监测测评手段以及模型应急管理措施,防范恶意输入攻击,例如注入攻击、后门攻击、数据窃取、对抗攻击等,对监测测评发现的提供服务过程中的安全问题,及时处置并通过针对性的指令微调、强化学习等方式优化模型。

生成式人工智能服务的安全措施要求

《要求》指出,服务提供者应充分论证在服务范围内各领域应用生成式人工智能的必要性、适用性以及安全性,服务用于关键信息基础设施,以及如自动控制、医疗信息服务、心理咨询、金融信息服务等重要场合的,应具备与风险程度以及场景相适应的安全保护措施。

值得一提的是,《要求》着重提到了未成年人使用生成式人工智能服务的限制,规定当服务适用未成年人时,应允许监护人设定未成年人防沉迷措施、不应向未成年人提供与其民事行为能力不符的付费服务,积极展示有益未成年人身心健康的内容,对于服务不适用未成年人的,应采取技术或管理措施防止未成年人使用。

《网络安全技术 生成式人工智能服务安全基本要求(征求意见稿)》

本文为 独立观点,未经允许不得转载,授权请联系FreeBuf客服小蜜蜂,微信:freebee2022


文章来源: https://www.freebuf.com/news/401732.html
如有侵权请联系:admin#unsafe.sh