数学 > 概率
[提交于 2012年6月20日
]
标题: 关于随机神经网络的平稳分布
标题: On stationary distributions of stochastic neural networks
摘要: 本文讨论具有有界记忆动态的非线性泊松神经元网络模型,这些模型可以包含赫布学习机制和不应期。 网络的状态由其神经元在突触后转移核记忆跨度内发射以来经过的时间以及突触连接的当前强度来描述,我们模型的状态空间是有限维组件的层次结构。 我们建立了描述网络行为的随机过程的遍历性,并证明了状态空间组件上存在连续可微的平稳分布密度(相对于相应维度的勒贝格测度),并找到了它们的上界。 对于密度组件,我们推导出一个仅在几个最简单情况下可以求解的微分方程组。 讨论了近似计算平稳密度的方法。 一种方法是通过修改网络,使得每个神经元在其在突触后转移核记忆跨度内发出的脉冲数达到给定阈值时不能发射,从而降低问题的维数。 我们证明了这个“截断”网络的平稳分布随着阈值的增加收敛到无限制网络的平稳分布,并且收敛速度是超指数级的。 一种互补方法是使用离散马尔可夫链来逼近网络过程。 我们推导了这些马尔可夫链的平稳分布的线性系统,并证明这些分布弱收敛到原始过程的平稳分布。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.