Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:1206.4489

帮助 | 高级搜索

数学 > 概率

arXiv:1206.4489 (math)
[提交于 2012年6月20日 ]

标题: 关于随机神经网络的平稳分布

标题: On stationary distributions of stochastic neural networks

Authors:Konstantin Borovkov, Geoffrey Decrouez, Matthieu Gilson
摘要: 本文讨论具有有界记忆动态的非线性泊松神经元网络模型,这些模型可以包含赫布学习机制和不应期。 网络的状态由其神经元在突触后转移核记忆跨度内发射以来经过的时间以及突触连接的当前强度来描述,我们模型的状态空间是有限维组件的层次结构。 我们建立了描述网络行为的随机过程的遍历性,并证明了状态空间组件上存在连续可微的平稳分布密度(相对于相应维度的勒贝格测度),并找到了它们的上界。 对于密度组件,我们推导出一个仅在几个最简单情况下可以求解的微分方程组。 讨论了近似计算平稳密度的方法。 一种方法是通过修改网络,使得每个神经元在其在突触后转移核记忆跨度内发出的脉冲数达到给定阈值时不能发射,从而降低问题的维数。 我们证明了这个“截断”网络的平稳分布随着阈值的增加收敛到无限制网络的平稳分布,并且收敛速度是超指数级的。 一种互补方法是使用离散马尔可夫链来逼近网络过程。 我们推导了这些马尔可夫链的平稳分布的线性系统,并证明这些分布弱收敛到原始过程的平稳分布。
摘要: The paper deals with non-linear Poisson neuron network models with bounded memory dynamics, that can include both Hebbian learning mechanisms and refractory periods. The state of a network is described by the times elapsed since its neurons fired within the post-synaptic transfer kernel memory span, and the current strengths of synaptic connections, the state spaces of our models being hierarchies of finite-dimensional components. We establish ergodicity of the stochastic processes describing the behaviour of the networks and prove the existence of continuously differentiable stationary distribution densities (with respect to the Lebesgue measures of corresponding dimensionality) on the components of the state space and find upper bounds for them. For the density components, we derive a system of differential equations that can be solved in a few simplest cases only. Approaches to approximate computation of the stationary density are discussed. One is to reduce the dimensionality of the problem by modifying the network so that each neuron cannot fire if the number of spikes it emitted within the post-synaptic transfer kernel memory span reaches a given threshold. We show that the stationary distribution of this `truncated' network converges to that of the unrestricted one as the threshold increases, and that the convergence is at a super-exponential rate. A complementary approach uses discrete Markov chain approximations to the network process. We derive linear systems for the stationary distributions of these Markov chains and prove that these distributions converge weakly to the stationary laws for the original processes.
评论: 25页,0图
主题: 概率 (math.PR)
MSC 类: 60J25(Primary) 92B20, 60J99 (Secondary)
引用方式: arXiv:1206.4489 [math.PR]
  (或者 arXiv:1206.4489v1 [math.PR] 对于此版本)
  https://doi.org/10.48550/arXiv.1206.4489
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Konstantin Borovkov [查看电子邮件]
[v1] 星期三, 2012 年 6 月 20 日 13:29:26 UTC (28 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.PR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2012-06
切换浏览方式为:
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号