计算机科学 > 计算机视觉与模式识别
[提交于 2025年8月10日
]
标题: 冻结与揭示:揭示视觉-语言模型中的模态偏差
标题: Freeze and Reveal: Exposing Modality Bias in Vision-Language Models
摘要: 视觉语言模型在多模态性能上表现出色,但常常从训练数据中继承性别偏见。 这种偏见可能来自视觉和文本模态两方面。 在本工作中,我们通过应用反事实数据增强和任务向量方法进行有针对性的去偏,来剖析视觉和文本主干对这些偏见的贡献。 受仇恨言论分类中数据高效方法的启发,我们引入了一个新指标,刻板印象程度,以及相应的去偏方法,使用刻板印象程度的数据增强 - DAUDoS,以最小的计算成本减少偏见。 我们整理了一个带有性别注释的数据集,并在VisoGender基准上评估所有方法,以量化改进并确定偏见的主要来源。 我们的结果表明,CDA将性别差距减少了6%,DAUDoS减少了3%,但仅使用了三分之一的数据。 这两种方法还使模型正确识别图像中性别的能力提高了3%,其中DAUDoS仅使用几乎三分之一的训练数据就实现了这一改进。 从我们的实验中,我们观察到CLIP的视觉编码器更具偏见,而PaliGemma2的文本编码器更具偏见。 通过确定偏见更多来自视觉还是文本编码器,我们的工作为未来多模态系统提供了更针对性和有效的偏见缓解策略。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.