【资料】利用人工智能进行预测与风险
2021-09-21 07:30:00 Author: mp.weixin.qq.com(查看原文) 阅读量:23 收藏

今天给大家推送布鲁金斯学会人工智能和新兴技术 (AIET) 倡议的“人工智能治理”系列报告:

1、《未来主义者的崛起:用未来思维进行预测的危险》

面对日益不确定的当代和未来的安全和技术环境,决策者正在从事未来工作——利用虚构的情景,将人工智能和其他新兴技术引入这些环境做出结果预测。未来学家通过利用一系列工具,包括模拟、最坏情况的规划、战争游戏,甚至科幻叙事,提供改善不确定性的情景,来参与这个过程。

共同未来策略易受各种决策病态影响:基于风险的概率性思维转向可能性思维——创造性地在预期结果之外生成情景,重点是影响,而不是概率。这一举措避免了一些病态,但仍然受到许多偏见的影响,必须审慎实施。

本文对人工智能(AI)不确定性问题的概率和可能性方法进行了探讨,概述了其潜在的优缺点,并找出了阻碍良好预测的常见偏差。

•避免概率思维的陷阱,如忽略小概率,使用启发式方法,以及关注已知的结果。

•有效地进行可能性思维,避免过度偏离现实、单一或过度唤起的场景,同时以虚构为灵感提出明确的想法,并将其嵌入到特定的情景中。

•创造反事实,不作关于技术、组织或政治的大胆假设,同时仍然具有足够的创造力来激发新的想法。

•抵制心理偏见,这些偏见源于对个人结果的关注、想当然的内在假设、充满情感的情景和草率的概括。

•寻求专家对过去和现在的技术轨迹的贡献,并将现有的威胁纳入设想方案。

2、《令人不安的基本事实:预测分析和国家安全》

减少生活各方面的不确定性无疑是所有个人、社会和政府都在努力实现的目标。有了对未来潜在国家的合理警告,我们就可以制定战略,改变行动路线,制定政策干预措施,分配资金或援助,或采取任何一系列行动,以避免或实现给定的未来。在国家安全政策领域,由于事关重大和生死存亡,这种预警显得尤为重要。因此,预测是情报界和国防部长期以来的传统也就不足为奇了。

最近,美国国务院也开始通过建立分析中心(Center for Analytics)来寻找自己的“神谕”。分析中心是“第一个企业级数据和分析中心”,将利用大数据和后续数据分析工具来“评估和完善外交政策”。人们相信,如果我们有了这些数据,我们不仅可以了解世界上发生了什么,而且我们可能还能够预测世界上将发生什么,如果我们知道将发生什么,我们就可以干预因果链。

然而,可用来进行此类预测的数据量是惊人的。此外,由于外交政策和国家安全是复杂的空间,理解哪些数据重要,何时重要,以及这些领域中的各种事件是否存在因果结构并非易事人工智能(AI)有望提供消化、分析和预测各种事件所需的能力各国政府也同样注意到了这一点。例如,中国开发了一个“地缘政治环境和预测平台”,基本上是一个巨大的地缘政治预测模型和一个支持中国外交政策的各种行动方案的推荐系统。

同样,美国开发了各种不同准确度的人工智能预测系统,从在冲突期间使用人工智能为指挥官提供任务规划和行动路线(COAs),到预测全球内乱的爆发。其中一个系统,EMBERS(使用代理的早期基于模型的事件识别),是为“预期情报”而设计的,以支持国家安全领域的决策多年来,EMBERS经历了各种迭代,并从仅用于拉丁美洲国家扩展到用于中东和北非国家。

本文不关注那些试图预测自然发生的现象的预测分析系统,例如当空气平台上的组件可能因使用、腐蚀或热而失效,或寻求某种形式的优化的规划问题。相反,它将人们的注意力吸引到一个潜在的麻烦领域,在这个领域,人工智能系统试图预测社会现象和行为,特别是在国家安全领域在这一点上,政策制定者必须谨慎行事。

本文不讨论热力学定律,也不讨论如何优化速度。相反将讨论复杂、动态和高度不确定系统中的人类行为。如果我们不评估这些系统是如何构建的,以及它们产生的“知识”,那么利用人工智能预测越来越复杂的社会现象,然后再以这些预测为依据,向国家安全领域的高级领导人提出建议,将变得越来越危险。高级领导和决策者可能过于依赖这些评估,而不了解它们的局限性。

本文认为政策界需要做出更大的努力,深入研究这些人工智能预测系统,并对“好”系统的样子做出一些估计。因为,如果那些向高层领导人提出建议的人不了解系统是如何工作的,那么他们的估计可能会非常错误,并对国家安全造成严重影响。正如一位专家所指出的,“我们做了我们的模型,然后把它们扔到墙外,”而且“我们不知道它们会发生什么,我们也不知道它们导致政策改变的具体情况。”我们需要更深入地努力,建立起技术政策之间的联系,让这堵“墙”开始坍塌。

3、《战争中的人工智能:作为组织力量和战略责任的人类判断》

人工智能有可能改变战争行为。最近人们对人工智能的兴奋源于从数据推断预测能力的进步。然而,这并不一定意味着机器可以取代人类决策者。人工智能的有效性不仅取决于技术的复杂性,还取决于组织在特定任务中使用它的方式。在决策问题定义明确且有大量相关数据可用的情况下,机器确实有可能取代人类。然而,在军事方面,这种情况很少见。军事问题往往更加模糊,而可靠的数据却很少。因此,我们预计人工智能将增强军事人员对收集哪些数据、做出哪些预测和做出哪些决定的需求。

机器预测和人的判断的互补性对军事组织和战略具有重要的意义。如果人工智能系统将严重依赖人类的价值观和解读,那么即使是初级人员也需要能够理解政治考虑和当地环境,以便在动态操作情况下指导人工智能。然而,这反过来又会激励对手反击或削弱人类的能力,而这些能力支撑着人工智能带来的军事优势。例如,如果AI擅长预测给定问题的解决方案,那么精明的对手就会试图改变问题。因此,人工智能引发的冲突有可能以模糊的结果拖延下去,陷入争议,并受到合法性危机的困扰。基于所有这些原因,我们预计,军事力量对人工智能的更多依赖将使战争中的人类因素更加重要,而不是更少。


4、《检测和减轻自然语言处理中的偏见》

5、《如何处理支持人工智能的虚假信息》

6、《招生算法正在助长高等教育危机》

7、《使用人工智能和机器学习来减少政府欺诈》

上述资料原文pdf及百分点机器翻译文档已上传小编知识星球

长按识别下面的二维码可加入星球下载

里面已有近千篇资料可供下载

越早加入越便宜哦


文章来源: http://mp.weixin.qq.com/s?__biz=MzI2MTE0NTE3Mw==&mid=2651124339&idx=1&sn=75c46f1b2b83b2bfee83adb6e105aded&chksm=f1ae8549c6d90c5f8d133db34064b4976b738a36242bccfb2088cac6561459361710db0b1ab9#rd
如有侵权请联系:admin#unsafe.sh