Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2510.17325

帮助 | 高级搜索

数学 > 统计理论

arXiv:2510.17325 (math)
[提交于 2025年10月20日 ]

标题: 复合Lp分位数回归,近似分位数回归和Oracle模型选择理论

标题: Composite Lp-quantile regression, near quantile regression and the oracle model selection theory

Authors:Fuming Lin
摘要: 在本文中,我们考虑高维Lp-分位数回归,它仅需要误差的低阶矩,并且也是上述方法和Lp回归的自然推广。 Lp-分位数回归的损失函数避免了绝对损失函数的不可微性以及平方损失函数要求误差方差有限的困难,因此保证了Lp-分位数回归的良好性质。 具体来说,我们首先开发了一种称为复合Lp-分位数回归(CLpQR)的新方法。 我们基于CLpQR研究了Oracle模型选择理论(称为CLpQR-oracle估计量),并证明在某些情况下,当误差方差为无限时,CLpQR-oracle的表现优于基于复合分位数回归的CQR-oracle。 此外,CLpQR具有高效率,有时比CQR和最小二乘回归更高效。 其次,我们提出另一种新的回归方法,即近似分位数回归,并证明当p趋近于1且样本量趋于无穷大时估计量的渐近正态性。 作为其应用,提供了一种平滑分位数目标函数的新思路以及分位数回归渐近协方差矩阵的新估计方法。 第三,我们通过结合循环坐标下降和增广邻近梯度算法,开发了一个统一的高效算法来拟合高维Lp-分位数回归。 值得注意的是,该算法在拟合分位数回归时,成为常用线性规划和内点算法的一个有利替代方案。
摘要: In this paper, we consider high-dimensional Lp-quantile regression which only requires a low order moment of the error and is also a natural generalization of the above methods and Lp-regression as well. The loss function of Lp-quantile regression circumvents the non-differentiability of the absolute loss function and the difficulty of the squares loss function requiring the finiteness of error's variance and thus promises excellent properties of Lp-quantile regression. Specifically, we first develop a new method called composite Lp-quantile regression(CLpQR). We study the oracle model selection theory based on CLpQR (call the estimator CLpQR-oracle) and show in some cases of p CLpQR-oracle behaves better than CQR-oracle (based on composite quantile regression) when error's variance is infinite. Moreover, CLpQR has high efficiency and can be sometimes arbitrarily more efficient than both CQR and the least squares regression. Second, we propose another new regression method,i.e. near quantile regression and prove the asymptotic normality of the estimator when p converges to 1 and the sample size infinity simultaneously. As its applications, a new thought of smoothing quantile objective functions and a new estimation are provided for the asymptotic covariance matrix of quantile regression. Third, we develop a unified efficient algorithm for fitting high-dimensional Lp-quantile regression by combining the cyclic coordinate descent and an augmented proximal gradient algorithm. Remarkably, the algorithm turns out to be a favourable alternative of the commonly used liner programming and interior point algorithm when fitting quantile regression.
评论: 28页,1图,2表
主题: 统计理论 (math.ST)
MSC 类: Primary 62J07, Secondary 62G08
引用方式: arXiv:2510.17325 [math.ST]
  (或者 arXiv:2510.17325v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.17325
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Fuming Lin [查看电子邮件]
[v1] 星期一, 2025 年 10 月 20 日 09:18:11 UTC (28 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
math
stat
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号