**🖼️ GenAI 正在”暴力拆解”图像保护技术**
弗吉尼亚理工大学研究团队在 IEEE 会议上发表研究指出:目前市面上大多数用于防止 AI 训练抓取、防止深伪(Deepfake)的图像保护技术——如添加扰动噪声、数字水印等——**已基本失效**。
**核心发现:**
– 攻击者只需使用现成的开源 GenAI 模型配合简单文本提示
– 即可轻松移除这些保护层
– 意味着 AI 生成深伪内容的门槛正在大幅降低
**结论:** “数字内容防盗”正面临前所未有的技术瓶颈,内容保护领域需要重新思考防御策略。
*#GenAI #图像保护 #Deepfake #数据安全*
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END







