统计学 > 方法论
[提交于 2025年10月15日
]
标题: 高维正则化Huber回归的精确坐标下降法
标题: Exact Coordinate Descent for High-Dimensional Regularized Huber Regression
摘要: 我们开发了一种用于高维正则化Huber回归的精确坐标下降算法。 与复合梯度下降方法相比,我们的算法在底层模型稀疏时充分利用了坐标下降的优势。 此外,与文献中之前引入的现有二阶近似方法不同,即使由于从重尾分布中抽取的协变量之间的高度相关性导致Hessian矩阵病态,该算法仍然有效。 关键思想是,对于每个坐标,边际增量仅来自内群观测,而导数在由部分残差构建的网格上保持单调递增。 在传统坐标下降策略的基础上,我们进一步提出了变量筛选规则,有选择地确定每次迭代中要更新的变量,从而加速收敛。 据我们所知,这是第一项为惩罚Huber损失最小化开发一阶坐标下降算法的工作。 我们通过扩展用于Lasso的论证,界定了所提出算法的非渐近收敛速率,并正式描述了所提出筛选规则的操作。 在重尾和高度相关的预测因子下的大量模拟研究,以及一个实际数据应用,展示了该方法的实际效率和计算增强的好处。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.