统计学 > 机器学习
[提交于 2025年11月14日
(v1)
,最后修订 2025年11月18日 (此版本, v2)]
标题: 连续性丢弃用于神经微分方程
标题: Continuum Dropout for Neural Differential Equations
摘要: 神经微分方程(NDEs)在建模连续时间动态方面表现出色,能够有效处理不规则观测、缺失值和噪声等挑战。 尽管具有优势,NDEs 在采用 dropout 这一深度学习正则化的基石技术时面临根本性挑战,使其容易过拟合。 为解决这一研究空白,我们引入了连续体 dropout,这是一种基于交替更新过程理论的通用 NDE 正则化技术。 连续体 dropout 将 dropout 的开关机制形式化为一个在连续时间中在活跃(演化)和非活跃(暂停)状态之间交替的随机过程。 这提供了一种防止过拟合并增强 NDE 一般化能力的方法。 此外,连续体 dropout 提供了一个结构化的框架,通过测试时的蒙特卡洛采样来量化预测不确定性。 通过广泛的实验,我们证明连续体 dropout 超过了现有的 NDE 正则化方法,在各种时间序列和图像分类任务中取得了更优的性能。 它还产生了更校准且更可信的概率估计,突显了其在感知不确定性的建模中的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.