电气工程与系统科学 > 信号处理
[提交于 2017年12月1日
(v1)
,最后修订 2018年7月27日 (此版本, v2)]
标题: 张量,学习和有限字母随机向量的‘柯尔莫戈洛夫扩张’
标题: Tensors, Learning, and 'Kolmogorov Extension' for Finite-alphabet Random Vectors
摘要: 估计一组随机变量的联合概率质量函数(PMF)是统计学习和信号处理的核心问题。如果没有结构假设,比如将这些变量建模为马尔可夫链、树或其他图模型,那么联合PMF估计通常被认为是不可能完成的任务——未知数的数量随变量数量呈指数增长。但是谁赋予我们这种结构模型呢?是否存在一种通用的、“非参数”的方法来控制联合PMF的复杂性,而不依赖于关于潜在概率模型的先验结构假设?是否有可能在不预先偏向分析的情况下发现操作结构?如果我们只能观察到变量的随机子集,我们是否仍然可以可靠地估计所有变量的联合PMF?本文显示,也许令人惊讶的是,如果任意三个变量的联合PMF可以被估计,则在相对较温和的条件下,所有变量的联合PMF可以被证明恢复。这一结果让人想起柯尔莫哥洛夫的扩张定理——一致指定低维分布会诱导整个过程的唯一概率测度。不同之处在于,对于复杂度有限的过程(高维PMF的秩),只需从三维分布就可以获得完整的特征化。实际上,并不需要所有的三维PMF;在更严格的条件下,二维PMF就足够了。利用多线性代数,本文证明了这种更高维度的PMF补全是可以保证的——推导出几个相关的可识别性结果。它还提供了一个实用且高效的算法来执行恢复任务。精心设计的仿真和电影推荐及数据分类的真实数据实验展示了该方法的有效性。
当前浏览上下文:
eess.SP
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.