导语:生成人工智能正在迅速改变包括网络安全在内的各个行业。
生成式人工智能日渐成为推动进步的强大工具,但也使其成为网络领域的重大威胁。恶意分子使用生成人工智能的情况越来越普遍,这使他们能够进行广泛的网络攻击。
从生成深度伪造品到增强网络钓鱼活动,生成人工智能正在演变成大规模网络犯罪的工具。人工智能因其跨行业的变革潜力而引起了研究人员和投资者的关注。不幸的是,恶意分子的滥用正在改变网络威胁格局。
生成人工智能最令人担忧的应用之一是创建深度造假和虚假信息活动,这些活动已被证明是有效和危险的。
Deepfakes 是使用生成人工智能创建的媒体内容(例如视频、图像或音频),可以真实地操纵面部、声音甚至整个事件。这些技术的日益复杂使得区分真实内容和虚假内容变得比以往任何时候都更加困难。这使得深度造假成为从事虚假信息活动、欺诈或侵犯隐私的攻击者的有力武器。
麻省理工学院在 2019 年发布的一项研究表明,人工智能生成的深度造假欺骗人类的概率高达 60%。鉴于人工智能的进步,这一比例很可能有所增加,从而使深度造假成为更加重大的威胁。攻击者可以利用它们来捏造事件、冒充有影响力的人物或创造操纵公众舆论的场景。在虚假信息活动中使用生成人工智能也不再是假设。
生成人工智能对于寻求经济利益的攻击者来说也有很多可用之处。通过自动创建网络钓鱼电子邮件,恶意分子可以扩大其活动规模,生成高度个性化且令人信服的消息,更有可能欺骗受害者。
这种滥用的一个例子是使用生成人工智能创建欺诈性社交媒体资料。 2022 年,联邦调查局称,旨在从受害者身上获取经济利益的虚假个人资料有所增加。
生成人工智能不仅允许攻击者生成真实的文本,还可以生成照片、视频和音频,使这些个人资料显得真实。此外,2023 年中期推出的 FraudGPT 和 WormGPT 等平台提供了专门针对网络钓鱼和商业电子邮件泄露 (BEC) 攻击而设计的工具。只需支付月费,攻击者就可以访问复杂的服务,自动创建欺诈性电子邮件,从而提高诈骗效率。
另一个值得关注的领域是使用生成人工智能开发恶意代码。通过自动生成恶意软件变体,攻击者可以逃避主要反恶意软件引擎采用的检测机制。这使得他们更容易以最小的努力进行大规模攻击。
生成人工智能最令人担忧的方面之一是其自动化复杂攻击过程的潜力。这包括创建用于攻击目的的工具,例如旨在利用漏洞的恶意软件或脚本。生成人工智能模型可以改进这些工具以绕过安全防御,使攻击更加复杂且更难以检测。虽然生成人工智能的恶意使用仍处于早期阶段,但它正在受到网络犯罪分子和国家支持的行为者的关注。通过“即服务”模式提高生成人工智能的可及性只会加速其采用。这些服务允许具有最少技术专业知识的攻击者执行高级攻击,从而使网络犯罪民主化。
例如,在虚假信息活动中,生成人工智能的影响已经显而易见。在网络钓鱼和金融欺诈中,FraudGPT 等工具的使用展示了攻击者如何扩大其运营规模。恶意软件开发的自动化是另一个令人担忧的趋势,因为它降低了网络犯罪的进入门槛。安全公司以及 OpenAI、Google 和 Microsoft 等主要生成人工智能提供商正在积极开发解决方案来缓解这些新兴威胁,努力包括开发强大的深度伪造检测机制、增强反网络钓鱼工具以及创建保障措施以防止滥用生成人工智能平台。然而,技术进步的快速步伐意味着攻击者总是领先一步。随着生成人工智能变得更加复杂和易于使用,防御者面临的挑战将呈指数级增长。
生成人工智能是一把双刃剑。虽然它为创新和进步提供了巨大的机会,但当被恶意分子利用时,它也会带来巨大的风险。
创建真实和个性化内容的能力已经改变了网络威胁格局,开启了从深度伪造到大规模网络钓鱼活动等各种攻击的新时代。随着技术的发展,其滥用也会随之发展。政府、企业和个人必须认识到生成人工智能的潜在危险并采取积极措施应对。通过协作和创新,我们可以利用生成人工智能的优势,同时降低其风险,确保这一强大的工具为人类服务而不是伤害人类。
文章翻译自:https://securityaffairs.com/171582/uncategorized/how-threat-actors-can-use-generative-artificial-intelligence.html如若转载,请注明原文地址