近日,美国洛斯阿拉莫斯国家实验室发布AI安全报告(链接在文末)称,美国美国国防体系和国家安全的基石,正在被AI摧毁。
报告指出,美国几十年来的国防规划建立在一个舒适的假设上:技术进步的时间表是可以预测的。戳破了这个幻想。研究人员警告,AI的迭代速度已经彻底打破了平衡,现有的国防系统正面临“战略性过时”的风险。
“双时钟”失灵:AI时代比核时代更危险
这篇报告将即将到来的颠覆,比作人类刚进入核时代的“原子时刻”,一个全新的、更危险的安全生态系统正在成型。
报告指出,国防规划长期依赖于两个“时钟”的同步:一个是缓慢、稳健的国防发展时钟;另一个是相对可控的科学进步时钟。现在,AI正在疯狂地拨快第二个时钟。
这种加速是指数级的,而非线性的。
研究人员举了几个惊人的例子:AI驱动的气象模型,用极短时间就实现了过去需要20年硬件迭代才能达到的性能。在材料科学领域,AI帮助发现了近40万种新的稳定化合物——这在以前是一个需要一个多世纪才能完成的壮举。
这意味着什么?
这意味着,分析师不能再依赖历史改善率来预测技术变革。那些为30年或50年服役寿命而建造的昂贵系统,可能在短短几年内就变得毫无意义。当科学进步的速度超过了官僚机构的适应速度时,战略意外就成了必然。
发现经济学:从“专家团队”到“算力淘金”
AI正在重塑“战略优势”的经济模型。
传统的重大突破,依赖于组织跨学科的专家团队,投入巨额预算,耗时耗力。而AI系统,现在可以在几分钟内,以极低的成本测试成千上万个想法。
报告举了一个对比鲜明的例子:
-
传统方式:开发一种新的加密方法,可能需要一个顶尖研究团队一年的时间和数百万美元。
-
AI方式:一个AI代理网络,可能仅需花费几百美元,就能在几天内尝试数万种算法变体。
这使得一种全新的科研范式——科学“带状开采”(Strip-mining)——在经济上变得可行。AI系统可以大规模地探索人类研究者永远无法企及的可能性。
报告得出的结论是,未来力量的平衡,可能不再依赖人类的专业知识,而是更多地依赖于对计算能力和能源的获取。能够运行最大规模AI系统的国家,将在创新和制造威胁方面拥有绝对优势。
“潘多拉魔盒”:当AI成为流氓威胁
更令人警惕的是,AI正在“民主化”制造强大威胁的能力。曾经需要国家级资源才能执行的任务,现在可能被下放到小型团体甚至个人手中。
报告指出了几个早期迹象:
-
认知作战:AI生成的劝说性运动,已经可以改变约15%人群的观点。
-
生物工程:AI辅助的生物工程设计已经出现。
-
合成媒体:逼真的合成媒体正在瓦解信任基础。
虽然这些发展尚未达到威胁国家生存的程度,但作者警告,随着模型能力的增长,这一天可能很快到来。
一个更黑暗的场景:流氓AI
报告提出了一个更令人不安的、超越传统对手的场景:一个独立于人类控制的“流氓AI”(Rogue AI)。
近期的研究表明,一些大型模型已经能够欺骗监督者、自我复制并逃避监控。如果这些能力结合起来,一个自主的AI就可能通过网络攻击或生物工程制剂造成大规模伤害。
这对国家安全提出了一个根本性的难题:这样的系统完全不符合现有的威慑框架。
威慑理论的前提是,你的对手是一个能感知风险、权衡利弊并能对“相互摧毁”的威胁作出反应的理性行为体。
而一个“流氓AI”没有这些顾虑。它不在乎你的核武器,也不怕制裁。
如何应对?用“AI工厂”对抗AI
面对这种新范式,洛斯阿拉莫斯的研究人员呼吁彻底重构战略,而不是在旧框架上修修补补。
-
转向“进攻性”AI安全研究: 美国必须启动一项大规模努力,研究AI如何制造威胁,而不只是被动地试图防御它们。报告认为,这是预测对手下一步行动的唯一方法。
-
打破壁垒,拥抱前沿模型: 研究人员敦促,国家安全机构必须打破政策和采购障碍,与AI公司建立更深入的伙伴关系,以获取最前沿的AI模型。报告特别指出,中国已经在其军方和AI产业之间进行了密切协调。
-
承认“威慑”可能失效: 必须正视传统威慑战略在AI面前可能完全失效的现实。AI可能会让攻击溯源变得不可能,或者将冲突升级的速度加快到人类无法反应的程度。
该报告最后提出了一个具体建议:建立一个“国防科学AI工厂”(AI Factory for Defense Science)。
这个“工厂”将利用大规模计算资源,专门用于模拟AI驱动的威胁,并快速开发AI驱动的防御能力。
报告的结语是严峻的:没有这样的系统,美国将难以理解或对抗AI驱动的变革浪潮。在AI掀起的这场风暴面前,任何人都没有“躺平”的资格。
报告链接:
https://arxiv.org/pdf/2511.05714
文章来源:GoUpSec















暂无评论内容