美国战争部的新大脑:GenAI.mil

华盟原创文章投稿奖励计划


黑白之道

 2025年12月25日 09:18 山自动草稿


12月9日,一段发布在 X 上的视频,把“GenAI.mil”推到了台前。视频中,国防部长 Pete Hegseth 宣布:五角大楼将以 GenAI.mil 作为“军方专用的生成式 AI 平台入口”,首个上线能力来自 Google 的 Gemini(政府版)。


但这次发布之所以格外刺眼,并不只因为“军用 AI 平台”本身,而是它被包装成一种新的战争叙事:把 AI 直接写进“战争部”的组织节奏、行政流程乃至“数字战场文化”。在 Hegseth 的备忘录里,他要求人员“立即登录、学习并融入日常工作流”,并宣称“AI should be in your battle rhythm every single day”。



“战争部”先行:政治符号如何为技术开路


需要先澄清一个常被误读的点:美国法定机构仍是“国防部(DoD)”。白宫于2025年9月发布的行政令,允许在“非成文法/非法律文本”的语境中使用“战争部(Department of War)/战争部长(Secretary of War)”作为“附加的次级称谓”,并明确“法定称谓仍然有效,直至法律修改”。


这意味着,“战争部”首先是一种政治传播与组织动员语言:把“国防”语义切换为“战争”,为更激进的技术导入、预算倾斜与速度优先提供话语合法性。



GenAI.mil 到底是什么:一个“军版入口”+ Gemini 政府版


从目前公开信息看,GenAI.mil 更像是一个“统一入口/平台层”,而不是单一模型本体:


  • 首发能力:Google Cloud 的 Gemini for Government。


  • 覆盖范围:Google 与多家媒体提到的目标用户规模约 300万(军人、文职与承包商)。


  • 访问条件:仅对持 CAC(通用访问卡)且位于非涉密网络的人员开放。


“后续会有更多模型/能力”:官方渠道与多家报道均称,Gemini 只是“第一项”,未来会接入“其他美国前沿 AI 能力”,并考虑向更高密级扩展。


官方演示与宣传中,GenAI 被描述为可用于写作、格式化文档、研究检索,甚至“分析视频/图像”“审计代码安全”等;但需要注意,其中一部分展示来自聊天机器人自述式回答与宣传文本,真实可用边界仍取决于数据接入、权限与审计策略。



“敏感但不涉密”:CUI 与 IL5 才是这次上线的真实边界


外界最关心的,是它能处理什么数据。综合公开信息,当前基线可以概括为一句话:


可处理“受控非密信息(CUI)”,但不处理涉密信息。


在美国防务云安全体系里,这个边界通常用Impact Level(IL)来表达。DISA 的云安全要求材料明确:


  • IL4:容纳 DoD CUI;


  • IL5:容纳 DoD CUI 与国家安全系统(NSS)相关需求;


  • IL6:容纳最高至 SECRET 的涉密信息。


多家报道与官方表述指出,GenAI.mil 相关工具被定位/认证为CUI与IL5级别。


Google 的新闻稿则把卖点进一步“产品化”:Gemini for Government 运行在 FedRAMP High + DoW IL5授权的商用云环境,并强调用户数据不会用于训练 Google 的公共模型。


换言之:这不是“把大模型塞进绝密网”,而是“把商用前沿模型以 IL5 合规形态推到整个非密办公面”。这一步的战略意义不在“上密”,而在“规模化渗透”:先把 AI 变成所有岗位的默认工具,再讨论更高密级的接入与跨域。



从“自愿试点”到“强制融入”:把 AI 写进“战斗节奏”


这次发布的另一个关键点,是组织工程(Org Engineering)而非模型能力本身。


Hegseth 的备忘录不仅宣布上线,还直接要求人员把 GenAI 融入日常工作节奏,并把它描述为“队友”。


同时,五角大楼在对外口径中强调“AI-first workforce”“AI-driven culture change”,并配套“培训”与使用规范。


这类强制推广的安全含义在于:风险面会从“少数试点团队”瞬间扩展到“全员输入端”。当 300 万人都能在工作桌面上调用同一入口,任何一个“数据分级误判、提示词注入、外部链接诱导、日志留存缺口、权限配置错误”,都可能被规模效应放大。



GoUpSec观察:GenAI.mil 的五个风险面


风险一:提示词注入与“任务劫持”将成为默认攻防面

当 GenAI 被用于“文档总结、风险评估、合同条款提取、工作流自动化”时,攻击者最现实的打法不是破解模型,而是污染输入与上下文:在政策文件、采购附件、工单描述、甚至网页内容中埋入对模型的操控指令,诱导其泄露、误判或生成有利于攻击者的输出。相关担忧已出现在安全界讨论中。


风险二:CUI 的“软边界”与误投喂

CUI 的治理难点是“看似不密、实则敏感”:项目细节、供应链信息、脆弱性处置、人员与基地运行数据,都可能落入 CUI。平台强调“可处理 CUI”,并不等于每个用户都能正确判断“什么是 CUI、什么不该输入”。


风险三:幻觉与“伪权威输出”在军事语境下更致命

五角大楼对外强调“网页检索/grounding”可降低幻觉风险。

 但军事与国防场景里,真正危险的往往不是“编了一个事实”,而是把不确定性伪装成确定性,并在层级组织中被二次传播为“可执行结论”。


风险四:供应链与平台锁定

首发能力来自单一巨头(Google),且被定义为“基础能力/第一项”。 未来若多模型并存,挑战将更加复杂:数据与身份如何在多供应商间一致治理、审计与日志如何统一、模型与插件如何避免“最弱环节”拖垮整体安全基线。


风险五:从“效率工具”滑向“作战工具”的治理空窗

官方表述一方面强调办公效率与行政流程,另一方面又反复使用“更致命(lethal)”“主宰数字战场”等战争叙事。

当技术与叙事同时加速,治理往往滞后:哪些任务允许自动化?哪些输出必须有人类复核?出现事故如何追责?这些问题在“强制融入战斗节奏”的节拍下更难被审慎回答。



结语:GenAI.mil 不是“军版聊天机器人”,而是“美军的新大脑/操作系统“

把 GenAI.mil 简化为“一个套壳 Gemini 的军方聊天界面”并不准确。它更像一次“组织级默认工具”的切换:用 IL5 的合规壳把前沿 GenAI 大规模推入非密工作面,同时通过“战争部”叙事与行政命令把技术采用从“尝试”升级为“纪律”。


真正值得追问的,不是它是否“酷”,而是三个关键的问题:

1)输入端:300 万人的数据分级与使用纪律,如何落地?

2)平台端:提示词注入、插件/检索链路、日志审计与权限最小化,是否经得起规模化?

3)输出端:当 AI 进入“战斗节奏”,人类复核、责任边界与失误处置机制,是否同步进入节奏?


如果这些问题没有清晰答案,那么“美国战争部的大脑:GenAI”更像是一次把不确定性武器化的豪赌。

文章来源:GoUpSec


本文来源GoUpSec,经授权后由华盟君发布,观点不代表华盟网的立场,转载请联系原作者。

发表回复