武器化AI的混乱现实:WormGPT与钓鱼攻击的军备竞赛

导语:当一个连Python都不会写的初级红队选手用破解版LLM在八分钟内生成一个完全可用的多态dropper时,这场AI军备竞赛就已经注定失控。我们正身处AI武器化的时代——攻击者与”道德黑客”都在用AI以前所未有的规模和速度发起攻击。这不是科幻,是每个SOC每天都要面对的现实。


攻击者的新玩具:当脚本小子变成AI军阀

曾几何时,成为一个危险的攻击者需要掌握C语言、理解汇编,或者至少能跟着Metasploit教程一步步来。而现在,感谢互联网这片”光辉”的监管荒原,任何有点钱的傻瓜都能拿到一个未经审查的AI模型。

新反派登场:WormGPT与FraudGPT

你可能已经听说过这些名字。WormGPT和FraudGPT是首批公开的”黑暗LLM”——专门训练来与”助人为乐”相反的模型。没有内容过滤器,没有”我不能帮你做那个”的废话。你要勒索软件构建器?给你勒索软件构建器。你要一封完美炮制的冒充CEO的钓鱼邮件?它甚至会贴心地配上”此致 敬礼”和正确的公司字体。

如今,这些最初的服务大多已被关闭或转入地下。但关键在于:它们根本不需要存活——它们已经通过概念验证完成了自己的使命。如今的攻击者只是在使用常规的LLM——ChatGPT、Claude、可以在笔记本上运行的开源模型——加上巧妙的越狱技术。研究人员发布一个新越狱,模型被修补,几小时内就有人找到新的。这就像打地鼠——只是每次你打中一个,它会生成三个,其中一个还会顺便偷走你的身份。

个性化钓鱼的终结:尼日利亚王子时代落幕

老式钓鱼邮件本身也是一门艺术,但识别起来也异常简单。糟糕的语法、奇怪的紧迫感,还有一个不知道怎么会拿到你邮箱地址的”王子”。AI一夜之间改变了这一切。

现在,红队(真正的攻击者也不例外)可以向LLM输入目标的LinkedIn档案、几条公开帖子,再加上一份来自某个老数据泄露的邮件,AI就会生成一封听起来就像同事发来的钓鱼邮件。它会提到他们正在做的项目、他们喜欢的咖啡店,甚至他们狗的名字。我见过一封包含假Slack截图来建立可信度的钓鱼邮件。假Slack截图。这已经不是钓鱼了——这是心理战加上美术指导。

至于规模?忘了那发送10000封邮件期待0.1%点击率的时代吧。用AI,你可以发送10000封各不相同的邮件,每一封都是为收件人量身定制的。唯一限制你的是你按”发送”键的速度。

光速侦察:几小时完成数月工作

攻击者过去需要花数周甚至数月来踩点。现在,他们可以把自己公司整个公开的GitHub仓库、SEC文件、帮助台文章全部塞进一个LLM,然后问:”基于这些,他们最可能使用什么技术栈?他们的VPN端点可能是什么?能不能帮我生成一个可信的内部文档命名方案?”

我见过红队一个下午就完成这些。有人真的把目标300页的公开文档喂给模型,模型输出了潜在内部系统名称、员工邮箱格式,甚至一个粗略的组织结构图。这不是侦察。这是作弊——但是一种会让你想哭的作弊。


防御的现实:我们正在追赶,但不是无能为力

好吧,坏人有火箭筒。我们有什么?如果你相信厂商的营销,我们有AI驱动的 everything——AI威胁狩猎、AI事件响应,还有据说能泡出一杯好咖啡的AI。现实更混乱,但也更有趣。

用AI对抗AI:小模型的崛起

业界的一个脏秘密是:你并不总是需要一个巨大的、云托管的LLM来防御AI攻击。事实上,有时候你正好想要相反的。小的、微调的模型可以在本地运行,甚至在笔记本上运行,正在成为防御主力。

以钓鱼检测为例。通用邮件过滤器还行,但它们不是为检测几乎与人类写作无法区分的AI生成内容而设计的。所以人们正在微调Phi-3、Mistral,甚至调得很好的BERT变体,专门用AI生成的邮件数据集来训练。它们用自己红队演练的例子、公开语料库,还有那些不知怎的通过了第一道防线的、尴尬到抠脚的邮件来喂养这些小模型。

这些小模型可以直接部署在邮件网关里。它们便宜、快速,最重要的是——它们不会把你敏感的邮件流量发送到某个云API,而那个API可能正在用你的数据训练模型。因为说实话,你最不想看到的就是你自己的SIEM在无意中喂养敌人。

理解人类的异常检测:UEBA的进化

用户和实体行为分析(UEBA)已经存在一段时间了,但AI正在让它变得不那么糟糕。旧方法是寻找统计异常——有人从新位置登录,下载了异常数量的文件。攻击者学会了混入其中。

现在,用AI驱动的异常检测,你可以对行为的上下文建模。财务总监突然开始用略有不同的节奏和词汇写邮件?这可能是一个被用来发出欺诈电汇的被入侵账户。开发者在凌晨3点用奇怪的Git客户端克隆了一个仓库?可能是Fine——也可能是一个正在部署的AI驱动的后门。

关键是,防御模型正在更好地理解”正常”是什么样子——不只是数据点层面,而是意图层面。这仍然处于早期,我见过不少误报,整个SOC为了一个原来是疲惫的系统管理员在工作的东西而抓狂。但方向是有希望的。

用AI逆向工程AI生成的恶意软件

这里有一点诗意。攻击者用AI写恶意软件。防御者可以用AI逆向工程那个恶意软件。

我见过团队取一个可疑的二进制文件,把它反编译的代码喂给一个精心提示的LLM,然后得到一个用通俗英语的解释,包括潜在的IOC,甚至建议的YARA规则。在一个案例中,一个模型识别出一款勒索软件使用了一个本质上是一个已知开源库轻微变异的自定义加密程序。分析师从”这堆啥玩意儿?”变成”啊哈,知道怎么解密了”大约用了十五分钟。

现在,你得小心——如果你把恶意软件上传到公共LLM,你可能正在训练那个即将被用来攻击你的模型。所以聪明的团队使用本地模型(如CodeLlama或微调变体)在内部做这个分析。气隙隔离,没有歪门邪道。这相当于有一个从不睡觉、不抱怨咖啡、偶尔会幻觉一个变量名但你学会检查它的初级恶意软件分析师。


不对称现实:速度、规模与人性因素

让我们退一步。AI对防御者之所以危险,不是因为它是魔法。是因为它改变了攻击的经济学。

在AI之前,发起一个复杂的、有针对性的攻击需要时间、技能和金钱。你需要雇佣真正懂行的人。现在,一个用几百美元API积分的决心个人,可以运行一个十年前需要国家级一年时间才能构建的活动。

防御者被困在同样的预算、同样疲惫的工具,以及已经过度工作的同样数量的分析师身上。我们不能只是堆人解决问题。我们必须更聪明。

这就是为什么”AI对AI”的方法不只是流行词——是生存。我们需要与攻击性AI相同速度和规模的防御AI。我们需要模型能够筛选数TB的日志,关联不同系统的事件,并在攻击者已经横向移动并把我们的秘密卖给出价者之前,找出那两三件真正重要的事情。

而且我们需要停止假装我们的人类分析师能胜过微调在过去十年每份泄露报告上的LLM。我们不会通过更聪明来赢。我们会通过更快来赢,通过用AI来增强我们自己的判断,而不是取代它。


我们何去何从:一些不请自来的观点

如果你读到这里,你可能想要一些可操作的东西。我有三个想法,而且它们不是你在光鲜的厂商小册子里会看到的那种。

1. 别再禁止AI,开始管理它

我知道——你的CISO发出了那封关于不要在工作中使用ChatGPT的严厉邮件。但说实话。人们还是在用。他们把日志粘进去,让它写查询,可能还在上传敏感配置文件。与其假装这没发生,给他们一个安全的方式来做。在本地部署一个模型。使用有数据控制的企业批准实例。因为如果你的团队在使用影子AI,你已经失去了对数据的控制,而且你可能还不知道。

2. 为AI驱动的攻击训练

你的钓鱼模拟很可爱,但如果你还在用那老掉牙的”点击这里拿奖金”模板,你是在浪费大家的时间。开始用AI生成你的钓鱼测试。让它们个性化、情境化、真正令人信服。看谁会点击。然后,当真正的攻击者这样做时,你就有机会一战。而且你的用户会恨你一周,但之后会感谢你。可能。

3. 建立你自己的小模型

不要依赖大云提供商的一切。微调一个70亿参数模型的技术是开源的,可以在单块好GPU上运行。为你自己的环境建模型:用于检测钓鱼、用于分析脚本、用于在你特定的业务逻辑中发现异常。你会有更多控制,更少数据泄露,而且你会在过程中学到很多东西。另外,这是一个向经理要求购买GPU的绝佳理由。


临别一击

我们身处一个奇怪时刻。AI既是我们防御工具箱里最锋利的工具,也是自互联网早期以来我们面临的最大威胁。就像我们给了每个黑客一把光剑,然后告诉安全团队:”给你们一把稍微大一点的光剑。去搞定吧。”

但关键是:我们以前来过这里。每一波重大转变——云的兴起、移动设备的爆发、勒索软件的黎明——都感觉像是世界末日。然后都不是。我们适应了,我们建造了新工具,我们变得更聪明了。这次也不例外。只是移动速度快得多。

所以,端起你的咖啡,启动那个本地LLM,开始实验吧。因为攻击正在到来——它们已经在这里了——我们保持领先的唯一方式是拥抱正在被用来对付我们的同样技术。只是可能少一点”为了利润而黑客”的部分。

如果你再见到那个吃贝果的初级红队选手,告诉他我还在找那个dropper的源代码。我需要用它来训练我的检测模型。

—— 一个见过一些世面的疲惫SOC经理

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容