">

CISO需要关注的十大AI攻击

人工智能(AI)威胁已经兵临城下,即使没有 ChatGPT 的大肆炒作,AI 风险也会是 2023 年安全研究人员日益关注的新兴威胁。

安全专家们警告 CISO,对于AI 风险和弹性,企业正在打一场双线战争。他们不仅需要警惕对抗性 AI 攻击对企业 AI 和机器学习 (ML) 模型构成的威胁,而且还必须保护自己免受坏人使用 AI 发动的攻击。以下是CISO必须了解的十大AI攻击:

一、AI中毒攻击
从数据和流程完整性的角度来看,CISO 应该重点关注的一类攻击是中毒攻击。此类攻击的原理是通过操纵深度学习模型的训练数据入侵模型,甚至可以操纵其输出攻击者想要的结果。模型中毒只是 AI 完整性问题的冰山一角。大型语言模型 (LLM)正受到风险和弹性研究人员的重点关注,后者正积极探索反馈循环和 AI 偏见等问题如何使 AI 输出不可靠。

二、武器化模型。

数据科学和 AI/ML 研究植根于学术界,依赖高度协作和迭代开发,而这种开发依赖大量共享——无论是数据共享还是模型共享。这会给人工智能供应链带来重大风险,就像应用安全人员处理的软件供应链安全问题。

最近的研究概念验证了攻击者可以将恶意代码嵌入到预训练的机器学习模型中,利用公共存储库中的 ML 模型对组织进行勒索软件攻击。攻击者可以通过劫持公共存储库中的合法模型、植入恶意代码将其武器化。

三、数据隐私攻击
人工智能的最大风险实际上是数据安全和数据隐私威胁。如果 AI 模型没有采用足够的隐私措施,攻击者就有可能破坏用于训练这些模型的数据的机密性。一些攻击,如成员推理,可通过查询模型以确定模型中是否使用了特定的数据——这在医疗领域可能会成为大麻烦,因为通过攻击研究特定疾病的AI模型,攻击者有可能推断出某人是否患有某种疾病。

同时,模型反演(Model Inversion)等训练数据提取攻击实际上可以重建训练数据。这是一个挑战,因为“使用机密或敏感数据训练的 ML 系统会在训练中将数据的某些属性植入模型。” Berryville 机器学习研究所的联合创始人 Gary McGraw 解释说。

四、模型提取攻击
攻击者不仅可以从 AI/ML 部署中窃取数据,还可能通过各种类型的模型盗窃攻击来窃取特定 AI/ML 模型工作原理和方法的机密信息。攻击者最有可能采用直接措施,例如通过网络钓鱼或密码攻击入侵私人源代码存储库,以彻底窃取模型。

但研究人员还探索了攻击者可能如何对他们无法用上述方法访问的模型实施模型提取攻击,通过系统地查询模型来重建模型如何预测某事。那些对与核心产品紧密相关的专有 AI 模型进行大量内部投资的组织的CISO尤其需要警惕此类攻击。

五、海绵攻击
2023 年 RSA 会议有一个专家小组讨论了 CISO 将在未来几年面对的即将到来的 AI 风险和弹性问题。讨论最引人瞩目的一个话题是一种新兴攻击——海绵攻击。在这种攻击类型中,对手可通过特制输入来消耗模型对硬件消耗的使用,从而对 AI 模型进行拒绝服务攻击。

“该攻击试图让神经网络使用更多的计算,以达到可能超过系统可用计算资源的程度,并导致系统崩溃,”CalypsoAI 的首席执行官 Neil Serebryany 解释道。

六、快速注入攻击
老一辈开发人员常挂在嘴边的格言是永远不要相信用户输入,因为这样做容易导致SQL 注入和跨站点脚本等攻击。针对常规应用程序的注入攻击已经非常普遍,在最新的 OWASP 前 10 名中仍然占据第三位。现在随着生成 AI 的加入,CISO 也将不得不担心针对AI系统的快速注入攻击。

提示注入是输入恶意制作的提示(词)到生成 AI 中,以引发不正确、不准确甚至可能具有攻击性的响应。这个问题可能特别麻烦,因为越来越多的开发人员将 ChatGPT 和其他大型语言模型 (LLM) 集成到他们的应用程序中,以便用户的提示被 AI 处理并触发一些其他操作,例如将内容发布到网站或制作自动电子邮件,这方面的潜在威胁还包括生成或传播错误甚至煽动性的信息。

七、逃避攻击
逃避攻击是最著名的一类对抗性 AI 攻击,其中一些攻击非常简单,甚至很有趣。这些攻击可以通过一些视觉欺骗来逃避检测或分类系统——比如面部识别或自动车辆视觉系统。例如,在停车标志上使用恶意制作的贴纸可能会使自动驾驶汽车无法正确阅读。

最近,在机器学习规避竞赛 (MLSEC 2022) 上引起广泛关注的一次攻击中,攻击者让 AI 面部识别系统微调名人照片,让他们被识别为完全不同的人。

八、人工智能生成的网络钓鱼和 BEC 诱饵
上述大多数攻击都是针对企业 AI系统的攻击。坏人不仅会探索 AI系统的缺陷,同时还会利用 AI 来增强他们对企业应用和系统的攻击。

攻击者的手段正不断增加,例如用像 ChatGPT 这样的生成人工智能来自动创建网络钓鱼电子邮件。安全研究人员已经报告说,自从 ChatGPT 在线发布以来,网络钓鱼的数量和“成功率”都有所增加。这是一个巨大的威胁,被列入SANS 2023 年最危险的 5 大网络攻击名单。

九、Deepfake BEC 和其他骗局
ChatGPT 已经将deepfake(深度伪造)攻击从理论变成了现实威胁。CISO 应该努力提高企业范围的安全意识,帮助员工认识到语音和视频等人工智能生成的媒体比以往任何时候都更容易制作,这使得冒充 CEO 或其他高管实施BEC商业电子邮件攻击骗取大笔资金变得非常容易。

十、人工智能生成的恶意软件和漏洞发现
安全研究人员预计,攻击者将越来越依赖生成式 AI 来帮助他们制作恶意软件并快速发现目标系统中的漏洞,以比他们此前已经开始使用的其他自动化技术效率高得多,能够快速扩大攻击规模。这也是 SANS 2023 年列举的最危险的五大网络攻击中的一种。

在 RSAC 2023 上,SANS 安全专家史蒂文·西姆斯 (Steven Sims)展示了即使是不懂技术的犯罪分子也可以轻松获得 ChatGPT 来生成勒索软件代码,或者在一段代码中发现零日漏洞。

第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom

   

除非注明,本站文章均为原创或编译,未经许可严禁转载。

相关文章:


关于作者

升华安全佳,安全看世界。GoUpSec以国际化视野服务于网络安全决策者人群,致力于成为国际一流的调研、分析、媒体、智库机构。