论坛·人工智能安全 | 对人工智能背景下虚假信息治理路径的思考
2023-11-20 18:36:46 Author: mp.weixin.qq.com(查看原文) 阅读量:4 收藏

扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

文 | 对外经贸大学 曹飞翠
当前,由人工智能生成的消息数量呈海量级增长。生成式人工智能与虚假信息结合,给由生成式人工智能生成的虚假消息生产和传播带来了新的路径,促使虚假信息泛滥。虚假信息泛滥会给国家安全带来诸多风险,例如虚假信息操纵影响政治安全,影响军事安全,还会被用于塑造和影响人的认知甚至还会威胁社会安全和网络安全。为应对这些问题,需要从法律规范、技术、国际合作等方面进行综合治理。

一、人工智能易导致虚假信息泛滥

随着人工智能技术的发展,生成式人工智能已经广泛应用于文本、图像、音频和视频等领域。当前,伴随生成式人工智能模型数量和其用户数量的快速增长,虚假信息的制造和传播趋势加速,虚假信息的数量增长有井喷之势。

生成式人工智能模型种类和数量的增长,为虚假信息泛滥提供了生存环境。其一,全球科技巨头纷纷把注意力投向生成式人工智能。以 2022 年 11 月美国 OpenAI 公司发布 ChatGPT 为标志,生成式人工智能应用的增长如雨后春笋。例如,微软向 OpenAI 追加了数十亿美元的投资,旨在将相关工具整合到 Bing 搜索引擎、Office 全家桶、Teams 聊天程序等。中国的科技公司也相继推出类似产品。例如,百度在 2023 年 3 月对外发布知识增强大语言模型“文心一言”,阿里巴巴在 2023 年 4 月正式发布大语言模型工具“通义千问”。其二,深度伪造技术(Deepfake)成本的下降助长了深度伪造信息的生成。据路透社2023 年 5 月 31 日消息,致力于检测深度伪造内容的公司 DeepMedia 称,2022 年,深度伪造的视频数量是2021 年的 3 倍,语音伪造的数量 2021 年的 8 倍。此外,DeepMedia 还指出,直到 2021 年底,克隆声音的成本还需要花费 10000 美元,而现在只需要几美元。由于检测深度伪造的技术落后以及监管制度的相对滞后,在一定程度上给虚假信息泛滥提供了“契机”。
生成式人工智能与虚假信息的耦合为虚假信息泛滥提供了“新路径”。生成式人工智能是指那些基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。生成式人工智能通常是基于深度学习和神经网络技术构建的。一方面,训练生成式人工智能模型包含大量有争议、错误和虚假的信息。由于输入决定输出,因此,生成式人工智能会生成海量的虚假信息。另一方面,由人工智能生成的新的虚假信息又会被训练和深度学习。在这个反复的过程中,虚假信息不仅海量增长,而且更加接近人类的思维水平。

二、虚假信息泛滥带来国家安全威胁

随着生成式人工智能的发展,虚假信息已经成为一个不可忽视的问题,对国家安全产生了广泛而深刻的影响。在政治、军事、社会和网络等领域,虚假信息的“爆炸式”增长已经引起了广泛关注。

第一,虚假信息泛滥威胁国家政治安全。虚假信息和国家政治安全密切相关。首先,虚假信息特别是政治虚假信息比真实信息的传播速度快。根据麻省理工学者索鲁什·沃索吉(Soroush Vosoughi)的研究,虚假信息被传播到 1500 人的速度是真实信息的 6 倍,传播的范围也比真实消息更广。同时,虚假新闻被传播的可能性要比真实新闻高 70%,与他新闻相比,政治虚假信息规模最大而且最为明显。虚假信息的这一特点使其更易被用于操纵舆论和制造政治混乱。其次,虚假信息操纵是大数据时代国家获取权力的重要杠杆。利用政治机器人、数字水军等进行伪装、否认、欺骗、误导等活动,是许多政府在双边、区域和全球层面制造冲突的手段。根据牛津互联网研究所(OII)的《虚假信息产业:2020 年全球有组织的社交媒体操纵名录》(Industrialized Disinformation:2020 Global Inventory of Organized Social Media Manipulation)报告,共有 81 个国家或者地区的政府机构或者政党利用社交媒体通过计算宣传的方式操纵他国公众舆论。其中,在新冠肺炎疫情期间,美国曾利用虚假信息对中国实施污名化(stigmatization)攻击。据牛津大学路透社新闻研究所(Reuters Institute for the Study of Journalism)的报告《COVID-19 虚假信息的类型、来源和主张》(Types,Sources,and Claims of COVID-19 Misinformation)对新冠病毒相关虚假信息的研究发现,38% 的内容完全是捏造的,59% 的内容是对真实信息的扭曲和加工。新冠肺炎疫情暴发后,美国还利用政治机器人、数字水军等手段炮制谣言,操纵舆论进而抹黑中国形象。美国的污名化行径,放大了国际社会对中国的不满、偏见甚至仇恨,严重损害了中国声誉和国家安全。
第二,虚假信息泛滥威胁国家军事安全。虚假信息是影响信息战胜负的重要因素。在现代战争中,网络攻击和信息战成为常见的形式,虚假信息的攻击可能会导致错误的军事指挥和行动,威胁一国军事安全。在俄乌冲突中,不乏网络信息对抗的案例。2022 年 3 月,一段乌克兰总统沃洛德米尔·泽连斯基(Volodymyr Zelenskyy)呼吁公民放下武器的视频在网上传播。后来,泽连斯基通过社交媒体揭穿了这一虚假信息攻击。设想,假如虚假信息没有被识破,民众和士兵可能会相信并投降。再如,2019 年的加蓬军事政变事件和虚假信息密切相关。据《华盛顿邮报》(Washington Post)报道,2019 年元旦,加蓬政府发布了一段总统阿里·邦戈(Ali Bongo)的新年演讲视频引发了公众的猜疑。由于该国总统已经数月未露面,民众认为该视频是由深度伪造技术合成的虚假视频。他们认为政府发布视频的目的是掩盖总统的健康状况或者死亡问题。在该视频发布且被广泛传播一周后,军方以虚假视频为由发动了军事政变。关于该视频的真实性无从考证,虽然政变也以失败告终,却佐证了虚假信息扩散导致民众对政府产生了怀疑。可见,虚假信息作为导火索,影响了国家的军事安全。
第三,虚假信息泛滥威胁国家社会安全。虚假信息的“爆炸式”增长可能会加剧一国的意识形态对立。首先,生成式人工智能具有计算说服的能力,能塑造和影响人的认知。美国乔治城大学教授本·布坎南(Ben Buchanan)做了六个实验评估自然语言生成模型 GPT-3 在信息宣传方面的能力。实验证明,GPT-3 在叙事重述、叙述拓展、叙事操纵叙事传播、叙述分裂、叙述说服方面都有良好的表现,是一个“智能的信息传播者”。其次,生成式人工智能给计算说服带来了新的场景,易使用户产生认知依赖。以 ChatGPT 为例,它可以根据用户的个性化需求生成信息。随着 ChatGPT 的广泛应用,它可能成为很多人获取信息和解决问题的主要途径。长此以往,用户会因过度依赖 ChatGPT 而产生认知依赖。此外,虽然生成式人工智能技术本身可能不具备意识形态,但是其背后的设计者以及其训练的素材具有意识形态。ChatGPT 的训练数据主要来自西方国家,其生成内容很可能具有西方的价值观和意识形态导向。由此可见,生成式人工智能与虚假信息相结合,能生成和传播瓦解民族认同、造成政治极化等方面的信息,通过塑造人的认知进而制造冲突和分裂。
第四,虚假信息泛滥威胁国家网络安全。社交媒体为虚假信息传播提供了便利。首先,致力于虚假信息操纵的主体越来越多,国家网络安全风险上升。牛津互联网研究所的博士候选人萨曼莎·布拉德肖(Samantha Bradshaw)认为很多国家正在组建网络部队(Cyber troops),他们由政府、军队、政党等成员组成,致力于利用社交媒体进行信息操纵,这正在发展成为一种全球现象。其次,虚假信息泛滥会导致网络犯罪等社会问题。根据《网络安全周刊》(Security Week)消息,全球首位首席信息安全官(CISO)史蒂夫·卡茨(Steve Katz)认为,未来最大的威胁是黑客的专业知识不断提升。威睿(VMware)首席网络安全策略师瑞克·麦克埃罗伊(Rick McElroy)表示,当前的网络犯罪分子已经将深度伪造技术融入其犯罪活动中。据英国《每日邮报》消息,2019 年世界上发生了首例人工智能诈骗案件。一名诈骗犯利用人工智能软件模仿母公司老板的声音,成功欺骗了英国一家能源公司的 CEO。后来,这名 CEO 将 24 万欧元汇入了一个匈牙利账户。麦克埃罗伊分析,犯罪分子已不再满足于使用深度合成信息的虚假宣传影响运营,他们的新目标是攻击组织并获取访问权限。

三、虚假信息治理的路径

人工智能给国家安全带来了诸多风险,对虚假信息的治理已经成为一个不可忽视的问题。虚假信息的治理关键是规范先行,同时要从技术层面提高虚假信息的检测能力,并采取措施提升公民数字素养等。虚假信息的传播具有全球性,单靠一个或者少数国家很难解决,需加强国际合作。

一是规范先行,完善法律和伦理规范。在虚假消息检测技术相对滞后的情况下,当务之急是规范先行。《自然》(Nature)杂志 2016 年刊登的文章《人工智能研究中的盲点》(There is a Blind Spot in AI Research)提出,对人工智能技术的治理主要靠技术研发者与企业自觉遵从规则和伦理。在对人工智能技术所带来的社会影响主要靠推断而无法进行测量和分析的情况下,对生成式人工智能的风险治理,法律和伦理规范应该走在前面。国家可根据自身的情况设计宏观和微观的法律制度,在制度层面督促企业标识虚假信息等,从源头减少虚假信息的生产。同时,也应加强伦理规范建设,要求企业开发使用生成式人工智能时遵守公序良俗的准则,将道德判断嵌入生成式人工智能技术,减少生成虚假信息的风险。
二是技术保障,提高算力并加强内容检测。要从根本上实现对虚假信息的善治,就要提高算力,做好虚假信息的识别和阻断工作。政府需要加大在人工智能和数字领域的投资,从根本上提高算力,实现魔高一尺道高一丈的效果。清华大学人工智能研究院等发布的《深度合成十大趋势(2022)》报告指出,应引导人工智能学术界、产业界不断加强技术研究。利用技术创新等方式,持续提升和迭代深度合成检测能力,并扩展深度合成溯源、深度合成鉴定等方面的研究,防范伦理安全风险和合规风险。
三是全球治理,加强虚假信息治理的国际合作。生成式人工智能会影响世界每一个国家和个体。一方面,虚假信息传播具有跨国界和跨语言交互性特点,往往难以检测和管理,因此,需要国际协同治理。另一方面,世界共同面临虚假信息被恐怖分子应用的风险。例如,极端组织利用生成式人工智能伪造视频、音频等内容扰乱社会秩序、教唆进行恐怖主义活动。单靠哪一个国家都难以应对这些恐怖主义活动,因此,更加需要加强国际合作和全球治理。欧洲公民自由联盟(Liberties)宣传官员贾沙·加拉斯基(Jascha Galaski)认为,迄今为止,全球的立法者都未能设计出专门规范人工智能使用的法律,因此,亟须加强国际合作。
四是最后防线,提升公民数字素养。随着网络和社交媒体的发展,虚假信息的传播速度和范围也越来越广泛。为了应对这一问题,提升公众的数字素养已经成为一项重要的任务。首先,需要对媒体进行监管和培育,使主流媒体传播真实信息和辟谣信息,培育和监管意见领袖,帮助群众识别虚假信息。其次,针对普通民众,要通过制度和教育保障,帮助了解虚假信息的危害和识别虚假信息的方法,鼓励社会各界加强数字素养教育,包括开展相关培训、讲座和宣传活动等。

(本文刊登于《中国信息安全》杂志2023年第8期)

《中国安全信息》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664197758&idx=1&sn=7c68ea2310657d1dd85724ab529f7728&chksm=8b596c87bc2ee59147991f7ac1369c90d86c33b38d6973c4f8f76b46c1b104314589cbb4843c&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh