数学 > 泛函分析
[提交于 2025年9月30日
(v1)
,最后修订 2025年10月1日 (此版本, v2)]
标题: 向量值再生核巴拿赫空间在神经网络和算子中的应用
标题: Vector-Valued Reproducing Kernel Banach Spaces for Neural Networks and Operators
摘要: 近年来,人们对表征神经网络背后的函数空间表现出越来越浓厚的兴趣。 虽然浅层和深层标量值神经网络已被联系到标量值再生核巴拿赫空间(RKBS),但$\mathbb{R}^d$值神经网络和神经算子模型在RKBS框架下仍较少被理解。 为解决这一差距,我们提出了一个向量值RKBS(vv-RKBS)的一般定义,该定义本质上包含了相关的再生核。 我们的构造通过避免对称核域、有限维输出空间、自反性或可分性等限制性假设来扩展现有定义,同时仍然恢复了向量值再生核希尔伯特空间(vv-RKHS)的熟悉性质。 然后我们证明,浅层$\mathbb{R}^d$值神经网络是特定vv-RKBS中的元素,即积分和神经vv-RKBS的一个实例。 为了进一步探索神经算子的功能结构,我们分析了DeepONet和Hypernetwork架构,并证明它们也属于积分和神经vv-RKBS。 在所有情况下,我们建立了表示定理,表明在这些函数空间上的优化可以恢复相应的神经架构。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.