所有关基用户请注意!CISA新版AI安全指南出台,再不分离OT网络就晚了!

华盟原创文章投稿奖励计划


黑白之道

 2025年12月27日 09:19 山自动草稿

近日,多家机构共同发布了关于在工业控制系统(OT)中安全使用人工智能(AI)的最新安全指南。之所以需要推出这样的文件,是因为 AI 和 OT 这两大领域本身就属于极高敏感度的攻击面 —— AI 面临不断出现的新型攻击技术,而 OT 则牵涉关键基础设施、工业系统等高风险应用场景。

本次指南由多个国家和地区的机构合作完成,包括:美国的 CISA、FBI、NSA 人工智能安全中心;澳大利亚信号局;加拿大网络安全中心;德国联邦信息安全办公室;荷兰、新西兰的国家网络安全中心;以及英国国家网络安全中心。

指南指出,大语言模型(LLM)可帮助提升效率与决策质量,但当 AI 被部署到关键 OT 环境中时,也会引入新的重大风险,如 OT 模型随时间偏移、绕过安全流程等问题。因此,运营方必须确保在提升效率的同时维持系统的稳定性与可靠性。

指南的目的在于帮助 OT 运营者理解 AI 在这些环境中的角色、如何建立治理与审查机制,以及如何将安全与可靠性融入 OT 与 AI 的深度结合。当前,AI 在 OT 场景中主要用于处理关键数据、识别 SCADA 系统异常、辅助操作人员决策、优化工作流程等。

部分建议内容与其他政府机构此前发布的 AI 使用指南有相通之处。例如,英国政府近期也发布了如何在政府内部安全使用 AI 编码工具的指导文件。

Fortinet OT 解决方案高级总监 Richard Springer(本次指南的参与单位之一)表示,目前 AI 在 OT 中的大规模应用仍较为有限。许多运营方仍处于基础安全建设阶段,如网络分段、资产可视化、补丁管理与基础检测响应。但由于 OT 风险极高,生成式 AI(GenAI)对于许多 OT 运营者而言,不是“尚未采用”,而是“可能永远不会采用”。

尽管如此,Springer 认为行业整体仍普遍认可,GenAI 未来将能在加速应急流程、辅助诊断、预测性维护以及帮助运营人员管理复杂环境方面发挥价值。但所有自动化必须基于清晰的因果理解、明确的风险容忍度,并以安全与持续运行为最高优先级。

01

图片

AI 在OT中的独特风险

AI 的风险已经众所周知。攻击者可通过语言提示让模型泄露敏感数据,更严重时甚至借助 AI 代理执行远程代码(RCE)攻击,或意外引入新的漏洞,更不用说 AI 幻觉带来的问题。

当这些风险被带入 OT 环境时,危险程度进一步放大。OT 广泛应用于制造、能源、国防、水务、医疗等领域,一旦发生事故,后果远比一般 IT 环境严重。

指南特别警告了“AI 模型随时间漂移”的风险。

Darktrace 安全与 AI 策略副总裁兼场景 CISO Nathaniel Jones(同为指南的主要撰写者)指出,模型可能“逐渐偏离原始训练假设,随着实际运营环境的数据发生变化,AI 的建议可能不再符合安全阈值。”

他强调:“不仅是模型随时间偏移或出现幻觉,更关键的是概率型 AI 输出可能会给高度确定性、要求精准的 OT 系统引入不确定性风险。”

02

图片

指南给出的主要建议

指南为 OT 环境制定了一套全面的 AI 安全原则,包括:

1.先教育组织与人员

组织需深入理解 AI 的风险、能力以及如何从一开始就以安全思维使用 AI。

2.明确 AI 在 OT 中的业务必要性

企业应评估 AI 是否真正适合自身的 OT 场景,而不是盲目追新技术。合理使用能带来收益,但不必要的 AI 反而会引入额外风险。

3.解决数据挑战

组织必须掌握数据存储位置,并确保模型只能访问完成任务所需的最小数据范围。

4.建立治理和保障框架

包括制定政策和责任体系,将 AI 纳入现有安全框架,进行全面测试评估,并明确合规要求。

5.OT AI 系统必须具备监督与失效保护

包括人类介入机制(human-in-the-loop)、实时监控,以及为 AI 设计可“安全退回”的机制,确保 AI 出现故障时不会影响关键业务。

03

图片

防御者视角:全球共识正在形成

随着企业不断增加 AI 使用场景,可以预见未来攻击面将进一步复杂化,因此此类全球协作的指南也会越来越多。

Nozomi Networks 网络安全战略总监 Chris Grove 表示,CISA 的联合指南强调了 OT 领域的一个核心现实:“AI 的确能加速决策,但任何影响关键流程的技术,都必须谨慎部署,并遵循严格纪律。”

Darktrace 的 Jones 则指出,多国协作本身反映出业界已将 AI 在 OT 中的风险视为系统性挑战,而非边缘问题。“指南明确指出 LLM 在 OT 环境中属于高风险,这是一个重要进展。LLM 具有幻觉风险,可能向操作人员提供错误信息,这在需要行为分析和异常检测的新标准(如 NERC CIP-015)背景下尤为关键。”

Jones 强调,业界普遍误以为“行为分析 = LLM”,但指南明确指出这并不是最准确或最佳的技术路线。

文章来源:数世咨询


© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容