人工智能领域的领军者OpenAI近日再次投下重磅炸弹,宣布推出一款名为 Aardvark 的“代理安全研究员”(agentic security researcher)。该工具由其最新的GPT-5大语言模型提供支持,可用于模拟人类安全专家,能够自动化地扫描、理解并修补代码漏洞。
据OpenAI称,Aardvark旨在帮助开发者和安全团队大规模地标记和修复安全漏洞。目前,该产品已进入私有Beta测试阶段。
OpenAI 在公告中指出:“Aardvark持续分析源代码库以识别漏洞、评估可利用性、排定严重性优先级,并提出针对性的补丁。”
工作机制:嵌入开发流程的“持续守护者”
Aardvark的核心能力在于它能深度嵌入到软件开发生命周期 (SDLC) 管道中。
它的工作流程被设计为一套自动化闭环:
-
持续监控:Aardvark监控代码库的commits(提交)和变更。
-
威胁建模:它首先分析项目的代码库,生成一个它认为最能代表其安全目标和设计的威胁模型。
-
漏洞发现:在此上下文基础上,Aardvark会扫描代码历史以识别现有问题,并通过审查传入的变更来检测新问题。
-
沙盒验证:一旦发现潜在的安全缺陷,它会尝试在隔离的沙盒环境中触发该缺陷,以确认其真实的可利用性。
-
补丁生成:在确认漏洞后,Aardvark将利用其强大的编码代理OpenAI Codex来生成修复补丁。
-
人类审查:最后,生成的补丁会提交给人类分析师进行最终审查和部署。
核心动力:GPT-5带来的深度推理
驱动Aardvark的是OpenAI于2025年8月推出的GPT-5模型。该公司将GPT-5描述为一个“智能、高效的模型”,其关键特性包括:
-
深度推理能力:得益于“GPT-5 thinking”技术,模型具备更深层次的逻辑和分析能力。
-
实时路由器:该模型内置一个“实时路由器”,能根据对话类型、复杂性和用户意图,智能决定使用哪个最合适的模型来处理任务。
这些能力的结合,使得Aardvark在理解复杂代码逻辑和潜在攻击路径时表现得更为精准。
市场影响:自动化安全竞赛白热化
尽管Aardvark功能强大,但OpenAI 并非唯一一个在自动化漏洞发现领域发力的玩家。
-
初步成果:OpenAI透露,他们已经在公司内部代码库和一些外部Alpha合作伙伴中运行Aardvark,该代理已帮助在开源项目中识别了至少10个CVE(通用漏洞披露)。
-
竞争对手:就在本月早些时候,谷歌 (Google) 宣布了其 CodeMender 项目,声称可以检测、修补和重写易受攻击的代码以防止未来的利用。谷歌还表示打算与关键开源项目的维护者合作,集成CodeMender生成的补丁。
-
行业趋势:从Aardvark、CodeMender到XBOW,这些工具正被定位为持续代码分析、利用验证和补丁生成的利器。这也紧随OpenAI此前发布的 gpt-oss-safeguard安全分类微调模型。
总结:自动化安全防御的行业基准
OpenAI将Aardvark视为一种范式转变的开端。
“Aardvark代表了一种新的防御者优先模型:一个AI安全智能体通过在代码演进过程中提供持续保护,与(人类)团队建立合作伙伴关系。”OpenAI表示,“通过及早发现漏洞、验证真实世界的可利用性并提供清晰的修复方案,Aardvark 可以在不减慢创新的前提下加强安全性。我们相信这能扩大安全专业知识的覆盖范围。”
对于在安全左移和DevSecOps浪潮中挣扎的企业而言,Aardvark 这类AI安全代理/智能体的出现,预示着自动化安全防御能力或将很快成为新的行业基准。
文章来源:GoUpSec












暂无评论内容