数学 > 统计理论
[提交于 2017年12月28日
]
标题: 排序凹惩罚回归
标题: Sorted Concave Penalized Regression
摘要: Lasso 存在偏差。 凹惩罚最小二乘估计(PLSE)利用信号强度来减少这种偏差,从而在预测、系数估计和变量选择方面产生更尖锐的误差界。 对于预测和估计,可以通过选择比选择一致性要求的更低的惩罚水平来减少 Lasso 的偏差,但这种较低的惩罚水平依赖于真实系数向量的稀疏性。 为了适应这种较低的惩罚水平,提出了排序 L1 惩罚估计(Slope)。 然而,凹 PLSE 和 Slope 的优势并不相互涵盖。 我们提出排序凹惩罚估计以结合凹惩罚和排序惩罚的优势。 我们证明了排序凹惩罚能够自适应地选择较低的惩罚水平,同时得益于信号强度,尤其是在大量信号强于自适应选择的惩罚水平时。 开发了一种局部凸逼近方法,该方法将局部线性和二次逼近扩展到排序凹惩罚,以促进排序凹 PLSE 的计算,并证明其具有所需的预测和估计误差界。 我们在一般优化框架下对惩罚函数进行了统一处理,包括上述排序惩罚和基于贝叶斯考虑的混合惩罚的惩罚水平和凹度。 我们的预测和估计误差分析需要设计满足受限特征值条件,且在所需最小信号强度条件下提供选择一致性。 因此,我们的结果通过移除稀疏 Riesz 条件中的稀疏上特征值部分,也使现有的凹 PLSE 结果更加精确。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.