ChatGPT安全引人忧,母公司发文称一贯注重安全性
2023-4-6 11:0:42 Author: www.freebuf.com(查看原文) 阅读量:16 收藏

freeBuf

主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

随着以ChatGPT为代表的大型语言模型的流行,人们对其安全性的焦虑越发显著。在意大利于3月31日因隐私和安全问题宣布暂时禁用ChatGPT之后,加拿大也于4月4日宣布就数据安全问题调查ChatGPT母公司OpenAI。4月5日,OpenAI官方博客更新了一篇文章,重点谈到自身如何保障AI安全性,算是从侧面对人们的担忧进行回应。

为测试 GPT-4花了6个月时间

文章提到,在对最新的GPT-4模型完全所有训练后,团队花了 6 个多月的时间进行内部测试,以在公开发布时能够更加安全,并认为强大的人工智能系统应该接受严格的安全评估,需要在确保被监管的基础上与政府积极合作,制定最佳的监管方式。

文章也提到,虽然在实验测试过程中无法预测所有风险,但AI正是需要在实际使用中不断汲取经验、不断完善,以迭代出更加安全的版本,并认为社会确实需要一定时间来适应越发强大的AI。

重视儿童保护

文章称安全工作的重点之一是保护儿童,要求使用AI工具的用户年龄必须已年满18周岁,或者是在有父母监护条件下已年满13周岁。

OpenAI强调,不允许自身技术被用于生成仇恨、骚扰、暴力或成人内容等类型,与 GPT-3.5 相比, GPT-4 对拒绝响应禁止内容的能力提升了82%,并通过监控系统来监测可能存在的各类滥用情形,比如当用户试图将儿童性虐待材料上传到图像工具时,系统会阻止并将其报告给国家失踪与受虐待儿童中心。

尊重隐私,提高事实准确性

文章称,OpenAI的大型语言模型在广泛的文本语料库上进行训练,其中包括公开可用的内容、许可内容和人工审核人员生成的内容,不会使用数据对服务进行销售、打广告、对用户归档。OpenAI承认在训练过程中会从公共互联网上获得个人信息,但会尽力在可行的情况下从训练数据集中删除个人信息,并微调模型以拒绝获取个​​人信息的请求,积极响应要求删除系统中涉及个人信息内容的请求。

在提供的内容准确性上,文章称,通过用户对不实内容的标记反馈,GPT-4所生成内容的准确性比 GPT-3.5 提高了 40%。

文章认为,解决 AI 安全问题的实际方法不仅是投入更多时间和资源来研究有效的缓解技术,并在实验环境中测试在实际使用场景中的滥用情况,更重要的是,要把提高安全性和提升AI的能力齐头并进,OpenAI有能力用最好的安全防护措施来匹配最强大的AI模型,以越来越谨慎的态度创建和部署功能更强大的模型,并将随着AI系统的发展继续加强安全措施。

参考原文:Our approach to AI safety


文章来源: https://www.freebuf.com/news/362706.html
如有侵权请联系:admin#unsafe.sh