计算机科学 > 机器学习
[提交于 2023年5月31日
(v1)
,最后修订 2024年2月23日 (此版本, v4)]
标题: 人类对齐校准用于人工智能辅助决策
标题: Human-Aligned Calibration for AI-Assisted Decision Making
摘要: 每当使用二元分类器提供决策支持时,它通常会提供一个标签预测和一个置信度值。 然后,决策者应使用置信度值来校准对预测的信任程度。 在这一背景下,人们经常认为,置信度值应对应于预测标签与真实标签匹配的概率的校准良好的估计。 然而,多项实证证据表明,决策者在利用这些置信度值判断何时信任预测方面存在困难。 本文的目标是首先理解原因,然后研究如何构建更有用的置信度值。 我们首先认为,对于一大类效用函数,存在数据分布,在这种情况下,理性决策者通常不太可能通过上述置信度值发现最优决策策略——一个最优的决策者需要有时对低(高)置信度值的预测给予更多(更少)的信任。 然而,我们随后证明,如果置信度值相对于决策者对自己预测的置信度具有自然的一致性属性,那么总存在一个最优决策策略,在该策略下,决策者对预测所需信任的程度与置信度值单调相关,从而便于其发现。 此外,我们证明了相对于决策者对自己预测的置信度进行多校准是保持一致性的充分条件。 在四个不同的AI辅助决策任务中的实验,其中分类器为真实的人类专家提供决策支持,验证了我们的理论结果,并表明一致性可能导致更好的决策。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.