数学 > 数值分析
[提交于 2024年8月12日
(v1)
,最后修订 2025年6月18日 (此版本, v2)]
标题: 神经常微分方程在刚性系统模型降阶中的应用
标题: Neural Ordinary Differential Equations for Model Order Reduction of Stiff Systems
摘要: 神经常微分方程(ODEs)代表了机器学习与动力系统交叉领域的一项重大进展,为离散神经网络提供了连续时间的类比。 尽管它们具有潜力,但在实际应用中部署神经ODEs时常会遇到刚性问题的挑战,即解的某些分量的快速变化需要显式求解器采用过小的时间步长。 本文通过在时间上引入适当的重参数化来解决在模型降阶中使用神经ODEs时的刚性问题。 所考虑的映射是数据驱动的,并由隐式求解器在参考解上的自适应时间步长诱导产生。 我们证明该映射生成了一个非刚性的系统,可以用廉价的显式时间积分方案求解。 通过一个连接状态空间到时间重参数化的神经网络,可以恢复原始的、刚性的时态动态。 我们通过广泛的实验验证了我们的方法,在保证鲁棒性和准确性的同时,提高了神经ODE推理的效率。 此外,神经网络模型对于超出训练数据范围的时间也展示了良好的泛化性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.