导语:Anthropic 近期推出的 10 万亿参数模型 Claude Mythos 因其在网络安全方面的”前所未有”能力而决定不公开发布。与此同时,12 家包括 Apple、Microsoft、Google、AWS、NVIDIA 在内的企业联合组建 Project Glasswing,打算在有限的 Preview 访问权限下,让这些防御方抢先体验模型的攻击能力。这场提前布局不仅重新定义了漏洞发现的速度,也迫使整个行业对职业边界进行深刻审视。
![图片[1]-AI 抢饭碗?打不过就加入:安全人的转型之路](https://www.77169.net/wp-content/uploads/2026/04/image-14-1024x572.png)
一、先说句心里话:焦虑是正常的
这事儿吧,得从两边儿看。
一边是 Anthropic 的官方声明:”网络安全能力对全球安全环境构成潜在威胁”。翻译成人话就是——这玩意儿太强了,放出去怕出事。
另一边是咱们安全圈的朋友圈:有人晒出 Mythos 的基准测试成绩,配文”兄弟们,这还怎么玩?”;有人在群里问”是不是该转行了”;也有人默默把简历更新成了”AI 安全方向”。
焦虑是正常的。想想看,一个 27 年都没被发现的 OpenBSD SACK 漏洞,Mythos 只用了 1000 次 API 调用、30 分钟就定位了,还能自动生成 exploit。而你花了三个月写的 fuzzing 脚本,跑了一个月连个 crash 都没捞着。
这落差,换谁谁不懵?
但话说回来,恐慌解决不了问题。咱们得冷静下来,看看这事儿到底怎么回事,然后想想——咱们能怎么办。
二、技术归技术:Mythos 到底强在哪
先别急着慌,咱得搞清楚对手有多强。
2.1 基准性能的飞跃
| 测试项目 | Opus 4.6 | Mythos | 提升幅度 |
|---|---|---|---|
| SWE-bench Pro (软件工程) | 53.4% | 77.8% | +24.4% |
| Terminal-Bench 2.0 (命令行) | 65.4% | 82.0% | +16.6% |
| Humanity’s Last Exam (极限推理) | 40.0% | 56.8% | +16.8% |
Source: mythos-5.org#benchmark
这些数字说明什么?通用能力的提升,直接催生了安全能力的涌现。Mythos 不是专门训练的安全模型,但它就是能挖漏洞、能写 exploit、能逃逸沙箱。
2.2 实战案例:让人头皮发凉
- OpenBSD SACK 漏洞(27 年历史)
- 30 分钟定位,生成概念性 exploit
- 成本:约 2 万美元 API 调用费
- FFmpeg H.264 漏洞(16 年未修复)
- 500 万次自动化 Fuzzing 没发现的问题,Mythos 数小时内触发
- FreeBSD NFS RCE (CVE-2026-4747)
- 自行编写 20-gadget ROP 链,全程无需人工干预
- Firefox 147 JavaScript 引擎
- 生成 181 份可用 exploit(Opus 4.6 只有 2 份)
- 跨沙箱突破
- JIT 堆喷射 + 沙箱逃逸组合拳
- 最骚的是:利用成功后,模型还主动给研究员发邮件说”漏洞已成功利用”,当时研究员正在公园吃三明治 🥪
这些案例展示了一个完整闭环:从发现漏洞到生成 exploit,AI 已经把时间尺度从”月”压缩到了”分钟”。
三、巨头的应对:Project Glasswing 的算盘
面对这种局面,大厂们是怎么做的?
3.1 12 家巨头的协作图谱
合作伙伴:AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorgan Chase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks 等。
资源投入:
- Anthropic 提供 1 亿美元 的免费 Preview 使用额度
- 额外向 Alpha-Omega、OpenSSF、Apache Software Foundation 注资数百万美元
规则:参与方需要在 90 天内披露修复的漏洞数量及系统加固措施,以换取模型的提前访问权。
3.2 这招叫什么?
用紫队的视角看,这叫 “以攻促防,打不过就加入”。
Anthropic 不公开模型,但让防御方先用。什么意思?在 AI 攻击能力尚未普及的窗口期,让可信的防御方先学会用 AI 防守。
这就像什么?就像核武器——你有,我也有,所以大家都不敢轻举妄动。但关键是,你得先有。
四、咱们安全人怎么办
好了,技术也看了,巨头也布局了。现在回到最核心的问题:
咱们这些普通安全从业者,怎么办?
4.1 先承认一个事实
打不过,是真的打不过。
你在手动挖漏洞,AI 在自动化挖;你在写脚本,AI 在生成 exploit;你在分析日志,AI 在做威胁狩猎。拼效率、拼速度、拼覆盖面,人类没有胜算。
但打不过,不代表没饭吃。
4.2 加入,是怎么个加入法
“打不过就加入”不是让你去给 AI 当奴隶,而是学会用 AI 的思维方式和工作方法。
具体来说,有三个层次:
第一层:会用工具
- 学会用 AI 辅助挖漏洞(Prompt 工程、自动化脚本生成)
- 学会用 AI 写报告、做分析、生成文档
- 把重复劳动交给 AI,自己专注高价值工作
第二层:懂原理
- 理解 AI 是怎么挖漏洞的(fuzzing 策略、符号执行、模式识别)
- 理解 AI 的局限性(误报、漏报、需要人工验证)
- 能设计人机协作的工作流
第三层:能驾驭
- 能做 AI 安全审计(Prompt Injection、模型越权检测)
- 能做 AI 红队(用 AI 攻击 AI,测试防御体系)
- 能制定 AI 安全策略和治理框架
4.3 具体技能清单
| 方向 | 具体技能 | 学习资源 |
|---|---|---|
| AI 辅助安全 | Prompt 工程、自动化脚本生成、AI 辅助代码审计 | Anthropic 官方文档、Project Glasswing 培训材料 |
| AI 安全审计 | Prompt Injection 检测、模型越权测试、对抗样本分析 | OWASP Top 10 for LLM、MITRE ATLAS |
| 人机协作 | 工作流设计、AI 输出验证、风险评估 | 企业内部培训、行业最佳实践 |
| 软技能 | 安全沟通、跨部门协作、战略规划 | 这个得靠经验积累 |
4.4 心态调整
最后说点走心的。
技术会变,但安全的核心不会变。
AI 能挖漏洞,但它不能理解业务场景;AI 能写报告,但它不能跟老板解释风险;AI 能自动响应,但它不能做战略决策。
人的价值,不在于比 AI 更快更准,而在于理解、判断、沟通、决策。
所以,别慌。该学的学,该练的练。AI 是工具,是帮手,不是敌人。
五、结语:危机即机遇
Anthropic 用”太危险”做了最具争议的保守——但这恰恰给了行业 6-18 个月的缓冲。
这段时间里:
- 有人会被淘汰(拒绝学习、固守旧方法的)
- 有人会转型成功(学会用 AI、提升软技能的)
- 有人会抓住新机会(AI 安全、模型审计、人机协作)
打不过就加入,不是投降,是进化。
红队这波操作我给满分——人家早就开始用 AI 挖漏洞了。蓝队这招防守也漂亮——Project Glasswing 就是让防御方先武装起来。
咱们紫队呢?咱们得看清楚局势,然后告诉两边儿:别打了,一起进化吧。
作者:李飞(紫队视角) 2026 年 4 月 8 日
参考资料:
- Anthropic Project Glasswing 官方公告:anthropic.com/glasswing
- Mythos 基准测试:mythos-5.org#benchmark
- OWASP Top 10 for LLM:owasp.org/www-project-top-10-for-large-language-model-applications/
- MITRE ATLAS:atlas.mitre.org














暂无评论内容