AI 语料危机 | WPS 想用用户文档“喂”AI
2023-11-18 11:1:47 Author: www.freebuf.com(查看原文) 阅读量:16 收藏

freeBuf

主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

近日,许多网友发现在登录 WPS 选择同意隐私协议时,发现WPS 隐私政策中 4.2.1 第 4 小项难以接受。

WPS 隐私协议提出,为提升您使用我们提供的包括但不限于在线文档美化、在线 PPT 美化、在线表格美化的 AI 功能的准确性,我们将对您主动上传的文档材料,在采取脱敏处理后作为 AI 训练的基础材料使用,同时请您放心,我们将采取严格的安全措施和技术手段对该资料进行去标识化处理,以降低其他组织或个人通过去标识化处理后的个人信息识别到您的风险、保护您的个人信息。1700275896_655826b84ac9cc8871411.png!small

目前,WPS已将该项隐私政策条款删除,并在末尾备注相关信息。

但是,WPS 的隐私政策还是引起了网友的广泛讨论,不少人表示担心自己的文档信息被拿去给 AI 训练。即使隐私条款中明确指出会“采用严格的手段去标识,脱敏”,但依旧无法打消网友的顾虑。此外,部分网友表示自己上传的文件应当享有“版权”,平白无故被拿走作为 AI 训练文档是否涉及侵权等问题。1700276039_65582747f33e4a5c35b03.png!small

1700276175_655827cf47383c9ea5817.png!small

这其实也是当下 AI 大模型飞速发展过程中面临的潜在安全风险。数据问题是模型安全的源头,虽然现在AI 大模型厂商会采取一系列措施来对数据进行处理,包括对训练数据做一些清洗,对输入输出内容做过滤,以及监测和鉴别等安全防控措施。但是AI大模型依旧面临严峻的数据安全,隐私保护,以及知识产权保护等问题,如何区分 AI 大模型语料和用户隐私的边界至关重要。

信息来源:互联网


文章来源: https://www.freebuf.com/news/384243.html
如有侵权请联系:admin#unsafe.sh