Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:1810.04851

帮助 | 高级搜索

统计学 > 机器学习

arXiv:1810.04851 (stat)
[提交于 2018年10月11日 (v1) ,最后修订 2019年5月21日 (此版本, v2)]

标题: PANDA:用于无向图模型正则化的自适应噪声数据增强

标题: PANDA: AdaPtive Noisy Data Augmentation for Regularization of Undirected Graphical Models

Authors:Yinan Li, Xiao Liu, Fang Liu
摘要: 我们提出了一种自适应噪声增强(PANDA)技术,以对无向图模型的估计和构建进行正则化。 PANDA通过迭代优化噪声增强数据的目标函数,直到收敛,以实现对模型参数的正则化。 增强的噪声可以设计为在图估计上实现各种正则化效果,如桥接(包括套索和岭)、弹性网络、自适应套索和SCAD惩罚;它还实现了组套索和融合岭。 我们检验了噪声增强损失函数的尾部界限,并建立噪声增强损失函数及其最小值分别几乎必然收敛到期望的惩罚损失函数及其最小值。 我们通过PANDA在广义线性模型中推导出正则化参数的渐近分布,基于此,可以在变量选择的同时获得参数的推断。 我们在模拟研究中展示了PANDA在构建不同类型图中的非劣性能,并将PANDA应用于自闭症谱系障碍数据以构建混合节点图。 我们还表明,基于PANDA得到的正则化参数估计的渐近分布的推断具有名义或接近名义的覆盖率,并且比一些现有的事后选择程序要高效得多。 计算上,PANDA可以在实现(GLMs)的软件中轻松编程,而无需求助于复杂的优化技术。
摘要: We propose an AdaPtive Noise Augmentation (PANDA) technique to regularize the estimation and construction of undirected graphical models. PANDA iteratively optimizes the objective function given the noise augmented data until convergence to achieve regularization on model parameters. The augmented noises can be designed to achieve various regularization effects on graph estimation, such as the bridge (including lasso and ridge), elastic net, adaptive lasso, and SCAD penalization; it also realizes the group lasso and fused ridge. We examine the tail bound of the noise-augmented loss function and establish that the noise-augmented loss function and its minimizer converge almost surely to the expected penalized loss function and its minimizer, respectively. We derive the asymptotic distributions for the regularized parameters through PANDA in generalized linear models, based on which, inferences for the parameters can be obtained simultaneously with variable selection. We show the non-inferior performance of PANDA in constructing graphs of different types in simulation studies and apply PANDA to an autism spectrum disorder data to construct a mixed-node graph. We also show that the inferences based on the asymptotic distribution of regularized parameter estimates via PANDA achieve nominal or near-nominal coverage and are far more efficient, compared to some existing post-selection procedures. Computationally, PANDA can be easily programmed in software that implements (GLMs) without resorting to complicated optimization techniques.
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG)
MSC 类: 62
引用方式: arXiv:1810.04851 [stat.ML]
  (或者 arXiv:1810.04851v2 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.1810.04851
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Fang Liu [查看电子邮件]
[v1] 星期四, 2018 年 10 月 11 日 05:54:44 UTC (936 KB)
[v2] 星期二, 2019 年 5 月 21 日 22:52:51 UTC (1,281 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2018-10
切换浏览方式为:
cs
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号