计算机科学 > 计算机与社会
[提交于 2025年8月6日
]
标题: 超越伤害。 对自然语言处理研究如何应对歧视的批判性综述
标题: Moving beyond harm. A critical review of how NLP research approaches discrimination
摘要: 如何在自然语言处理技术的背景下避免歧视是该领域的主要挑战之一。 我们提出,对问题采取不同的、更有依据的表述方式可能有助于找到更有效的解决方法。 在论文的第一部分,我们报告了一个案例研究:对2022年发表在ACL文集上的关于自然语言处理系统歧视行为的论文进行定性回顾。 我们发现,该领域(i)仍然强烈关注算法歧视的技术解决方案,(ii)在对其伦理或规范性术语的坚实基础上存在困难。 此外,这种术语非常有限,主要集中在“伤害”和“偏见”这两个术语上。 在论文的第二部分,我们论证说,解决后者的问题可能有助于解决前者的问题。 将算法歧视视为技术问题的理解反映并被当前使用的术语所再现。 “伤害”和“偏见”的概念暗示了对歧视问题的一种狭隘的界定,即作为系统与用户界面之间的问题。 我们认为,辩论应该以“不公正”作为核心概念,而不是“伤害”。 这将迫使我们将算法歧视的问题理解为一个系统性问题。 从而,它将拓宽我们对使自然语言处理技术参与歧视的复杂互动的视角。 通过这种视角的提升,我们可以考虑解决方案的新角度。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.