Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:1712.09941

帮助 | 高级搜索

数学 > 统计理论

arXiv:1712.09941 (math)
[提交于 2017年12月28日 ]

标题: 排序凹惩罚回归

标题: Sorted Concave Penalized Regression

Authors:Long Feng, Cun-Hui Zhang
摘要: Lasso 存在偏差。 凹惩罚最小二乘估计(PLSE)利用信号强度来减少这种偏差,从而在预测、系数估计和变量选择方面产生更尖锐的误差界。 对于预测和估计,可以通过选择比选择一致性要求的更低的惩罚水平来减少 Lasso 的偏差,但这种较低的惩罚水平依赖于真实系数向量的稀疏性。 为了适应这种较低的惩罚水平,提出了排序 L1 惩罚估计(Slope)。 然而,凹 PLSE 和 Slope 的优势并不相互涵盖。 我们提出排序凹惩罚估计以结合凹惩罚和排序惩罚的优势。 我们证明了排序凹惩罚能够自适应地选择较低的惩罚水平,同时得益于信号强度,尤其是在大量信号强于自适应选择的惩罚水平时。 开发了一种局部凸逼近方法,该方法将局部线性和二次逼近扩展到排序凹惩罚,以促进排序凹 PLSE 的计算,并证明其具有所需的预测和估计误差界。 我们在一般优化框架下对惩罚函数进行了统一处理,包括上述排序惩罚和基于贝叶斯考虑的混合惩罚的惩罚水平和凹度。 我们的预测和估计误差分析需要设计满足受限特征值条件,且在所需最小信号强度条件下提供选择一致性。 因此,我们的结果通过移除稀疏 Riesz 条件中的稀疏上特征值部分,也使现有的凹 PLSE 结果更加精确。
摘要: The Lasso is biased. Concave penalized least squares estimation (PLSE) takes advantage of signal strength to reduce this bias, leading to sharper error bounds in prediction, coefficient estimation and variable selection. For prediction and estimation, the bias of the Lasso can be also reduced by taking a smaller penalty level than what selection consistency requires, but such smaller penalty level depends on the sparsity of the true coefficient vector. The sorted L1 penalized estimation (Slope) was proposed for adaptation to such smaller penalty levels. However, the advantages of concave PLSE and Slope do not subsume each other. We propose sorted concave penalized estimation to combine the advantages of concave and sorted penalizations. We prove that sorted concave penalties adaptively choose the smaller penalty level and at the same time benefits from signal strength, especially when a significant proportion of signals are stronger than the corresponding adaptively selected penalty levels. A local convex approximation, which extends the local linear and quadratic approximations to sorted concave penalties, is developed to facilitate the computation of sorted concave PLSE and proven to possess desired prediction and estimation error bounds. We carry out a unified treatment of penalty functions in a general optimization setting, including the penalty levels and concavity of the above mentioned sorted penalties and mixed penalties motivated by Bayesian considerations. Our analysis of prediction and estimation errors requires the restricted eigenvalue condition on the design, not beyond, and provides selection consistency under a required minimum signal strength condition in addition. Thus, our results also sharpens existing results on concave PLSE by removing the upper sparse eigenvalue component of the sparse Riesz condition.
主题: 统计理论 (math.ST)
引用方式: arXiv:1712.09941 [math.ST]
  (或者 arXiv:1712.09941v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.1712.09941
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Long Feng [查看电子邮件]
[v1] 星期四, 2017 年 12 月 28 日 17:16:53 UTC (102 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2017-12
切换浏览方式为:
math
stat
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号