统计学 > 机器学习
[提交于 2019年10月7日
(v1)
,最后修订 2021年4月20日 (此版本, v2)]
标题: 基于元学习的深度基于能量的记忆模型
标题: Meta-Learning Deep Energy-Based Memory Models
摘要: 我们研究了学习关联记忆的问题——一种能够根据失真或不完整版本检索出已存储模式的系统。 吸引子网络提供了一种关联记忆的可靠模型:模式作为网络动态的吸引子被存储下来,并通过从查询模式开始运行动态过程直到收敛到某个吸引子来实现关联检索。 在这些模型中,动态过程通常被实现为最小化能量函数的优化程序,就像经典的Hopfield网络那样。 一般来说,很难推导出既压缩又快速的给定动态和能量的写入规则。 因此,基于能量的记忆研究大多局限于可处理但不够表达能力的能量模型(不足以处理复杂的高维对象如自然图像),或者局限于没有快速写入能力的模型。 我们提出了一种新的基于能量的记忆模型(EBMM)元学习方法,这种方法允许使用任意神经架构作为能量模型,并快速将模式存储在其权重中。 我们通过实验表明,我们的EBMM方法可以为合成数据和自然数据构建压缩记忆,并且在重构误差和压缩率方面优于现有的记忆系统。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.