Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2306.00074v4

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2306.00074v4 (cs)
[提交于 2023年5月31日 (v1) ,最后修订 2024年2月23日 (此版本, v4)]

标题: 人类对齐校准用于人工智能辅助决策

标题: Human-Aligned Calibration for AI-Assisted Decision Making

Authors:Nina L. Corvelo Benz, Manuel Gomez Rodriguez
摘要: 每当使用二元分类器提供决策支持时,它通常会提供一个标签预测和一个置信度值。 然后,决策者应使用置信度值来校准对预测的信任程度。 在这一背景下,人们经常认为,置信度值应对应于预测标签与真实标签匹配的概率的校准良好的估计。 然而,多项实证证据表明,决策者在利用这些置信度值判断何时信任预测方面存在困难。 本文的目标是首先理解原因,然后研究如何构建更有用的置信度值。 我们首先认为,对于一大类效用函数,存在数据分布,在这种情况下,理性决策者通常不太可能通过上述置信度值发现最优决策策略——一个最优的决策者需要有时对低(高)置信度值的预测给予更多(更少)的信任。 然而,我们随后证明,如果置信度值相对于决策者对自己预测的置信度具有自然的一致性属性,那么总存在一个最优决策策略,在该策略下,决策者对预测所需信任的程度与置信度值单调相关,从而便于其发现。 此外,我们证明了相对于决策者对自己预测的置信度进行多校准是保持一致性的充分条件。 在四个不同的AI辅助决策任务中的实验,其中分类器为真实的人类专家提供决策支持,验证了我们的理论结果,并表明一致性可能导致更好的决策。
摘要: Whenever a binary classifier is used to provide decision support, it typically provides both a label prediction and a confidence value. Then, the decision maker is supposed to use the confidence value to calibrate how much to trust the prediction. In this context, it has been often argued that the confidence value should correspond to a well calibrated estimate of the probability that the predicted label matches the ground truth label. However, multiple lines of empirical evidence suggest that decision makers have difficulties at developing a good sense on when to trust a prediction using these confidence values. In this paper, our goal is first to understand why and then investigate how to construct more useful confidence values. We first argue that, for a broad class of utility functions, there exist data distributions for which a rational decision maker is, in general, unlikely to discover the optimal decision policy using the above confidence values -- an optimal decision maker would need to sometimes place more (less) trust on predictions with lower (higher) confidence values. However, we then show that, if the confidence values satisfy a natural alignment property with respect to the decision maker's confidence on her own predictions, there always exists an optimal decision policy under which the level of trust the decision maker would need to place on predictions is monotone on the confidence values, facilitating its discoverability. Further, we show that multicalibration with respect to the decision maker's confidence on her own predictions is a sufficient condition for alignment. Experiments on four different AI-assisted decision making tasks where a classifier provides decision support to real human experts validate our theoretical results and suggest that alignment may lead to better decisions.
主题: 机器学习 (cs.LG) ; 计算机与社会 (cs.CY); 人机交互 (cs.HC); 机器学习 (stat.ML)
引用方式: arXiv:2306.00074 [cs.LG]
  (或者 arXiv:2306.00074v4 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2306.00074
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Nina Corvelo Benz [查看电子邮件]
[v1] 星期三, 2023 年 5 月 31 日 18:00:14 UTC (287 KB)
[v2] 星期三, 2023 年 6 月 28 日 15:27:05 UTC (329 KB)
[v3] 星期一, 2023 年 11 月 13 日 14:44:17 UTC (334 KB)
[v4] 星期五, 2024 年 2 月 23 日 13:35:04 UTC (334 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2023-06
切换浏览方式为:
cs
cs.CY
cs.HC
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号