研究警告:生成式 AI 正在暴力“拆解”图像保护

**🖼️ GenAI 正在”暴力拆解”图像保护技术**

弗吉尼亚理工大学研究团队在 IEEE 会议上发表研究指出:目前市面上大多数用于防止 AI 训练抓取、防止深伪(Deepfake)的图像保护技术——如添加扰动噪声、数字水印等——**已基本失效**。

**核心发现:**
– 攻击者只需使用现成的开源 GenAI 模型配合简单文本提示
– 即可轻松移除这些保护层
– 意味着 AI 生成深伪内容的门槛正在大幅降低

**结论:** “数字内容防盗”正面临前所未有的技术瓶颈,内容保护领域需要重新思考防御策略。

*#GenAI #图像保护 #Deepfake #数据安全*

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
相关推荐
  • 暂无相关文章