计算机科学 > 机器学习
[提交于 2019年9月30日
(v1)
,最后修订 2019年11月18日 (此版本, v3)]
标题: 使用温度缩放的Dropout变分推断的校准模型不确定性
标题: Well-calibrated Model Uncertainty with Temperature Scaling for Dropout Variational Inference
摘要: 通过变分贝叶斯推断与蒙特卡洛丢弃获得的模型不确定性容易出现校准错误。 该不确定性不能很好地表示模型误差。 在本文中,温度缩放被扩展到丢弃变分推断以校准模型不确定性。 提出了期望不确定性校准误差(UCE)作为衡量不确定性校准错误的指标。 该方法的有效性在最近的CNN架构上的CIFAR-10/100数据集上进行了评估。 实验结果表明,温度缩放通过UCE显著减少了校准错误,并实现了对不确定预测的稳健拒绝。 所提出的方法可以很容易地从频率论温度缩放中推导出来,并产生校准良好的模型不确定性。 它易于实现且不影响模型准确性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.