计算机科学 > 计算机视觉与模式识别
[提交于 2025年11月4日
]
标题: AI生成图像检测:一项实证研究和未来研究方向
标题: AI-Generated Image Detection: An Empirical Study and Future Research Directions
摘要: 人工智能生成媒体,特别是深度伪造,现在对多媒体取证、虚假信息检测和生物识别系统构成了重大威胁,导致公众对法律系统的信任度下降,欺诈行为显著增加,以及社会工程攻击。 尽管已经提出了几种取证方法,但它们存在三个关键差距:(i) 使用非标准化基准,包括GAN或扩散生成的图像,(ii) 训练协议不一致(例如,从头训练、冻结、微调),以及(iii) 评估指标有限,无法捕捉泛化能力和可解释性。 这些限制阻碍了公平比较,掩盖了真正的鲁棒性,并限制了在安全关键应用中的部署。 本文介绍了一个统一的基准测试框架,用于在受控和可重复条件下对取证方法进行系统评估。 我们对十种最先进的取证方法(从头训练、冻结和微调)以及七个公开可用的数据集(GAN和扩散)进行了基准测试,以进行广泛而系统的评估。 我们使用多个指标评估性能,包括准确率、平均精度、ROC-AUC、错误率和类别敏感度。 我们还进一步利用置信度曲线和Grad-CAM热图分析模型的可解释性。 我们的评估结果表明泛化能力存在显著差异,某些方法在分布内表现良好,但在跨模型迁移中性能下降。 本研究旨在引导研究界更深入地理解当前取证方法的优势和局限性,并激发开发更稳健、泛化性和可解释性更强的解决方案。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.