计算机科学 > 机器学习
[提交于 2026年1月8日
]
标题: 在线多校准的最优下界
标题: Optimal Lower Bounds for Online Multicalibration
摘要: 我们证明了在线多校准的紧下界,确立了与边缘校准的信息理论分离。 在组函数可以同时依赖于上下文和学习者的预测的一般情况下,我们仅使用三个不相交的二元组,证明了期望多校准误差的$Ω(T^{2/3})$下界。 这与 Noarov 等人 (2025) 的上界在对数因子范围内匹配,并超过了 Dagan 等人 (2025) 的边缘校准的$O(T^{2/3-\varepsilon})$上界,从而区分了这两个问题。 然后我们转向组函数可能依赖于上下文但不依赖于学习者预测的更困难情况的下界。 在这种情况下,我们通过使用正交函数系统构造的$Θ(T)$大小的组族,建立了在线多校准的$\widetildeΩ(T^{2/3})$下界,再次在对数因子范围内匹配上界。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.