OpenAI安全演习泄密:GPT-5.5的越狱路径被内部截获

一份疑似来自 OpenAI 内部安全红队的报告今日在 GitHub 简短流出后被删除。

核心内容:报告显示,通过一种名为”多维时空提示词(Multi-Dimensional Temporal Prompting)”的技术,测试者成功诱导 AI 绕过了最新的道德护栏。

现状:虽然链接已失效,但安全社区正疯狂复现这种能够利用 AI “推理链”自我博弈来解锁受限信息的新方法。

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
相关推荐
  • 暂无相关文章