第一个全球性AI声明:中国等28国签署《布莱切利宣言》
2023-11-9 17:17:5 Author: mp.weixin.qq.com(查看原文) 阅读量:4 收藏

据新华社报道,全球首届人工智能安全峰会于1日至2日在英国布莱奇利园举行,峰会发布《布莱奇利宣言》(下称《宣言》)。

《宣言》认为,对于前沿人工智能技术有意识滥用或者无意识控制方面的问题,可能会引发巨大风险,尤其是在网络安全、生物技术和加剧传播虚假信息等方面。

这是首次通过国际共识方式承认并正视人工智能的副作用,以及“快速发展的相关技术所带来的最紧迫风险”,承认“需要采取国际行动”以设定共同的监管方法。

11月1日,多国参会代表合影留念

此次出席峰会的代表来自欧盟和全球28个人工智能发展较快的国家。

据报道,中国科技部副部长吴朝晖在峰会开幕式上表示,中方愿与各方一道就人工智能安全治理加强沟通交流,为推动形成普遍参与的国际机制和具有广泛共识的治理框架积极贡献智慧。他还表示,各国无论大小和规模如何,都有开发和使用人工智能的平等权利。

与会国强调,对于最有可能发现的与前沿人工智能相关的具体风险,各国决心加强和维持合作,通过现有的国际论坛和其他举措,识别、理解有关风险并采取适当行动。

机器学习的快速进步,包括 ChatGPT 等聊天机器人的出现,促使世界各国政府考虑监管人工智能。

所谓“滥用”风险,指涉及不良行为者得到新人工智能功能的帮助。例如,网络犯罪分子可以利用人工智能开发一种安全研究人员无法检测到的新型恶意软件,或者用于帮助国家开发危险的生物武器。

所谓“失控”风险,指原本由人类创造、用于帮助人类的人工智能可能失控,转而对部分人类群体、甚至全人类不利。

伦敦以北55英里的布莱奇利庄园是人工智能的早期圣地。1941年,著名科学家图灵和他的密码破译团队正是在这里成功破译了号称“不可破译的”纳粹德国恩格尼玛密码系统,为二战反法西斯阵营的胜利奠定了基础。选择在这里召开全球首届关于人工智能安全的高峰会谈,具有极大的象征意义。

按照主办者的说法,人工智能峰会的主要目标是在就人工智能模型的道德和负责任开发原则达成一致时找到一定程度的国际协调,重点是所谓的“前沿人工智能”模型,力图通过国际协调解决人工智能方面的两类关键风险:滥用和失控。

峰会仅是一系列类似峰会的第一站。6个月后将在韩国举办第二次,第三次则初步定于明年在法国举行。

附《宣言》全文 中文译文:

布莱切利宣言

人工智能 (AI) 带来了巨大的全球机遇:它有潜力改变和增强人类福祉、和平与繁荣。为了实现这一点,我们申明,为了所有人的利益,人工智能应该以安全、以人为中心、值得信赖和负责任的方式设计、开发、部署和使用。我们欢迎国际社会迄今为止在人工智能领域合作的努力,以促进包容性经济增长、可持续发展和创新,保护人权和基本自由,并增强公众对人工智能系统的信任和信心,以充分发挥其潜力。

人工智能系统已经部署在日常生活的许多领域,包括住房、就业、交通、教育、健康、无障碍和司法,而且它们的使用可能会增加。因此,我们认识到,这是一个采取行动的独特时刻,并确认需要安全发展人工智能,并以包容的方式在我们各国和全球范围内利用人工智能的变革机会造福所有人。这包括卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候等公共服务,以实现人权的享受,并加强努力实现联合国可持续发展目标。

除了这些机遇之外,人工智能还带来了重大风险,包括在日常生活领域。为此,我们欢迎相关国际努力在现有论坛和其他相关举措中审查和解决人工智能系统的潜在影响,并认识到保护人权、透明度和可解释性、公平性、问责制、监管、安全、适当性需要解决人类监督、道德、减少偏见、隐私和数据保护等问题。我们还注意到,操纵内容或生成欺骗性内容的能力可能会带来不可预见的风险。所有这些问题都至关重要,我们确认解决这些问题的必要性和紧迫性。

特殊的安全风险出现在人工智能的“前沿”,被理解为那些能力强大的通用人工智能模型,包括基础模型,它们可以执行各种各样的任务,以及相关的特定狭义人工智能,它们可能表现出导致安全问题的能力。危害 - 与当今最先进模型的功能相匹配或超过。潜在的故意滥用或与人类意图一致相关的意外控制问题可能会产生重大风险。这些问题的部分原因是这些功能尚未被完全理解,因此难以预测。我们特别担心网络安全和生物技术等领域的此类风险,以及前沿人工智能系统可能放大虚假信息等风险的领域。这些人工智能模型最重要的功能可能会有意或无意地造成严重甚至灾难性的伤害。鉴于人工智能快速且不确定的变化速度,以及技术投资加速的背景下,我们确信加深对这些潜在风险的理解以及应对这些风险的行动尤为紧迫。

人工智能产生的许多风险本质上是国际性的,因此最好通过国际合作来解决。我们决心以包容的方式共同努力,确保以人为本、值得信赖和负责任的人工智能是安全的,并通过现有的国际论坛和其他相关举措支持所有人的利益,促进合作以应对人工智能带来的广泛风险。人工智能。在此过程中,我们认识到各国应考虑支持创新和相称的治理和监管方法的重要性,以最大限度地提高人工智能的收益并考虑到与人工智能相关的风险。这可能包括根据国情和适用的法律框架酌情对风险进行分类。我们还注意到酌情在共同原则和行为准则等方法上开展合作的重要性。对于最有可能发现的与前沿人工智能相关的具体风险,我们决心加强和维持我们的合作,并扩大与更多国家的合作,通过现有的国际论坛和其他相关举措,包括识别、理解并采取适当行动,包括未来的国际人工智能安全峰会。

所有参与者都可以在确保人工智能安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要共同努力。我们注意到包容性人工智能和弥合数字鸿沟的重要性,重申国际合作应努力酌情吸引更广泛的合作伙伴参与,并欢迎以发展为导向的方法和政策,帮助发展中国家加强人工智能能力建设和利用人工智能在支持可持续增长和缩小发展差距方面的推动作用。

我们确认,虽然必须在整个人工智能生命周期中考虑安全性,但开发前沿人工智能能力的参与者,特别是那些异常强大且可能有害的人工智能系统,对确保这些人工智能系统的安全负有特别重大的责任,包括通过系统通过评估和其他适当措施进行安全测试。我们鼓励所有相关行为者就衡量、监测和减轻潜在有害能力以及可能出现的相关影响的计划提供适合具体情况的透明度和问责制,特别是防止滥用和控制问题以及其他风险的放大。

在我们合作的背景下,为了为国家和国际层面的行动提供信息,我们解决前沿人工智能风险的议程将重点关注:

1、识别共同关注的人工智能安全风险,建立对这些风险的共同科学和基于证据的理解,并在能力不断增强的情况下维持这种理解,以更广泛的全球方法来理解人工智能对我们社会的影响。

2、 在我们各国制定各自的基于风险的政策,以确保此类风险的安全,进行适当的合作,同时认识到我们的方法可能会因国情和适用的法律框架而有所不同。这包括私营部门提高透明度,开发前沿人工智能能力、适当的评估指标、安全测试工具,以及发展相关的公共部门能力和科学研究。

为了推进这一议程,我们决心支持一个具有国际包容性的前沿人工智能安全科学研究网络,该网络包含并补充现有和新的多边、诸边和双边合作,包括通过现有的国际论坛和其他相关举措,以促进提供可用于政策制定和公共利益的最佳科学。

认识到人工智能的变革性积极潜力,并作为确保更广泛的人工智能国际合作的一部分,我们决心维持包容性的全球对话,参与现有的国际论坛和其他相关倡议,并以开放的方式为更广泛的国际讨论做出贡献,继续对前沿人工智能安全进行研究,以确保能够负责任地利用该技术的优势,造福所有人。我们期待 2024 年再次相聚。

协议

出席的国家有:

澳大利亚

巴西

加拿大

智利

中国

欧洲联盟

法国

德国

印度

印度尼西亚

爱尔兰

以色列

意大利

日本

肯尼亚

沙特阿拉伯王国

荷兰

尼日利亚

菲律宾人

大韩民国

卢旺达

新加坡

西班牙

瑞士

土耳其

乌克兰

阿拉伯联合酋长国

大不列颠及北爱尔兰联合王国

美国

所提及的“政府”和“国家”包括根据其立法或行政权限行事的国际组织。

来源:观察者网、新京报


文章来源: https://mp.weixin.qq.com/s?__biz=MzU5OTQ0NzY3Ng==&mid=2247495315&idx=2&sn=67ba00e5cfabd5bd7b79f507dd366194&chksm=feb66f80c9c1e69655b407aa5a848d874bc2d33451cf7795bf4d9c250b8ca041deb09f740aed&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh