据国外媒体报道,大型科技公司及其附属的网络安全、人工智能产品很可能会推出类似的安全研究,尽管这会引起用户极度地隐私担忧。大型语言模型被要求提供情报机构信息,并用于帮助修复脚本错误和开发代码以侵入系统,这将很可能会成为常态。
由于科技巨头能够将其与伊朗、朝鲜和俄罗斯等其他主要国家支持的黑客团体联系起来。OpenAI和与其主要投资者微软之间将开展联合研究,结合微软庞大的威胁情报,对恶意账户进行检查与分析,并最终进行封禁。
某网络安全和隐私专家指出,这证明了,尽管大型科技和AI公司广泛推动将隐私标准内化到他们的产品中,但拥有AI产品的公司倾向于筛查聊天记录和用户互动中的滥用行为,最主要的理由是考虑网络和国家安全。
CyberSheath的首席执行官埃里克·努南说:“尽管微软和OpenAI的报告中未提及隐私方面的问题,但这很明显是客观情况,想要观察到恶意用户的活动就意味着有一定程度的监视或监控。”
微软威胁情报策略总监Sherrod DeGrippo则指出,微软和OpenAI采取行动对抗已知的恶意行为者——这些行为者是微软威胁情报持续跟踪的300多个威胁行为者中的一部分,包括160个国家支持的行为者,50个勒索软件团体,以及许多其他行为者。我们的重点是识别和阻止这些我们在威胁空间中活跃的已知恶意身份、特征和基础设施。
研究人员和官员在过去一年中警告说,像OpenAI的ChatGPT或微软的Copilot这样的面向消费者的AI聊天工具的出现,可能会帮助建立起来的国家支持的黑客增强他们的能力,或者使经验不足的网络犯罪分子能够自动化部署程序,从而关闭网站或从网络中窃取敏感信息。
安全专家经常强调,网络战中新兴的AI元素是双刃剑,它帮助防御者和攻击者一样多。但是这两家公司采取的传统方法最终只是浏览消息历史并关闭相关账户,类似于社交媒体巨头分析帖子中的仇恨内容并终止用户。
这种动态在未来的网络和AI研究中可能会继续,这意味着用户可能会期望科技公司有时会深入聊天历史,并将其与网络犯罪分子或国家相关的黑客集团联系起来。鉴于我们已经看到的AI用例示例,AI隐私担忧是完全有根据的,其中用于学习模型的数据泄露或不恰当地被发现,没有适当的防护措施来保护数据。
美国公民自由联盟的隐私和技术高级政策顾问科迪·文兹克表示,任何提供在线服务的大型公司经常会引发隐私担忧,尽管许多隐私法律承认公司在减轻欺诈或解决安全漏洞时的作用。问题在于科技公司关于如何使用收集的数据的透明度通常不清楚。例如检查AI聊天记录是否阻止了攻击者并为网络安全威胁创造了缓解措施,或者这类信息是否被用在其他地方?
大型科技公司及其附属的AI或网络安全产品可能会在未来发布类似的报告,这些报告涉及扫描聊天记录以检测黑客。尽管这可能不会导致全面监控,但像Mandiant这样的网络安全巨头——其母公司谷歌最近将其Bard AI聊天机器人重新品牌化——将有动力使用他们手头的每一个工具来保障网络安全。