Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > econ > arXiv:2309.00805

帮助 | 高级搜索

经济学 > 计量经济学

arXiv:2309.00805 (econ)
[提交于 2023年9月2日 ]

标题: 公平性在政策制定中使用机器学习方法估计异质处理效应的影响

标题: Fairness Implications of Heterogeneous Treatment Effect Estimation with Machine Learning Methods in Policy-making

Authors:Patrick Rehill, Nicholas Biddle
摘要: 因果机器学习方法能够灵活地生成异质性治疗效果估计,对于试图制定和实施政策的政府来说可能是非常有用的工具。然而,正如关键的人工智能文献所示,政府在使用机器学习模型时必须非常小心,以免产生意想不到的后果。 为了尽量避免出现意外的不良结果,可以采用人工智能公平性方法,这些方法旨在创建不会受种族或性别等敏感变量影响的机器学习模型。 在本文中,我们论证了标准的人工智能公平性方法,这些方法是为预测性机器学习开发的,不一定适用于所有的因果机器学习应用,因为因果机器学习通常(至少到目前为止)是通过建模来告知最终决策者的,而人工智能公平性方法假设模型直接做出决策。 我们将这两种情况分别定义为间接决策和直接决策,并建议政策制定最好被视为一种联合决策,在这种决策中,因果机器学习模型通常只有间接影响力。 我们为此情景定义了公平性——即提供决策者所需的信息,使其能够准确判断公正的政策结果——并认为因果机器学习模型的复杂性使得实现这一点变得困难。 这里的解决方案不是传统的调整人工智能公平性,而是仔细建模以及意识到这些方法可能鼓励的一些决策偏见,这正是我们要描述的内容。
摘要: Causal machine learning methods which flexibly generate heterogeneous treatment effect estimates could be very useful tools for governments trying to make and implement policy. However, as the critical artificial intelligence literature has shown, governments must be very careful of unintended consequences when using machine learning models. One way to try and protect against unintended bad outcomes is with AI Fairness methods which seek to create machine learning models where sensitive variables like race or gender do not influence outcomes. In this paper we argue that standard AI Fairness approaches developed for predictive machine learning are not suitable for all causal machine learning applications because causal machine learning generally (at least so far) uses modelling to inform a human who is the ultimate decision-maker while AI Fairness approaches assume a model that is making decisions directly. We define these scenarios as indirect and direct decision-making respectively and suggest that policy-making is best seen as a joint decision where the causal machine learning model usually only has indirect power. We lay out a definition of fairness for this scenario - a model that provides the information a decision-maker needs to accurately make a value judgement about just policy outcomes - and argue that the complexity of causal machine learning models can make this difficult to achieve. The solution here is not traditional AI Fairness adjustments, but careful modelling and awareness of some of the decision-making biases that these methods might encourage which we describe.
评论: 13页,1个图
主题: 计量经济学 (econ.EM) ; 机器学习 (cs.LG)
引用方式: arXiv:2309.00805 [econ.EM]
  (或者 arXiv:2309.00805v1 [econ.EM] 对于此版本)
  https://doi.org/10.48550/arXiv.2309.00805
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Patrick Rehill [查看电子邮件]
[v1] 星期六, 2023 年 9 月 2 日 03:06:14 UTC (166 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
econ.EM
< 上一篇   |   下一篇 >
新的 | 最近的 | 2023-09
切换浏览方式为:
cs
cs.LG
econ

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号