Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2510.14890

帮助 | 高级搜索

统计学 > 方法论

arXiv:2510.14890 (stat)
[提交于 2025年10月16日 ]

标题: EM方法在混合线性回归的非参数估计中的应用

标题: EM Approaches to Nonparametric Estimation for Mixture of Linear Regressions

Authors:Andrew Welbaum, Wanli Qiao
摘要: 在混合线性回归模型中,回归系数被视为可能遵循连续或离散分布的随机向量。 我们提出了两种期望最大化(EM)算法来估计这个先验分布。 第一个算法求解非参数最大似然估计(NPMLE)的核化版本。 这种方法不仅能够恢复连续先验分布,还能在先验为离散时准确估计聚类数量。 第二个算法旨在近似NPMLE,针对具有密度的先验分布。 当与后处理步骤结合时,它在离散先验情况下也表现良好。 我们研究了这两种算法的收敛性质,并通过模拟和对真实数据集的应用展示了它们的有效性。
摘要: In a mixture of linear regression model, the regression coefficients are treated as random vectors that may follow either a continuous or discrete distribution. We propose two Expectation-Maximization (EM) algorithms to estimate this prior distribution. The first algorithm solves a kernelized version of the nonparametric maximum likelihood estimation (NPMLE). This method not only recovers continuous prior distributions but also accurately estimates the number of clusters when the prior is discrete. The second algorithm, designed to approximate the NPMLE, targets prior distributions with a density. It also performs well for discrete priors when combined with a post-processing step. We study the convergence properties of both algorithms and demonstrate their effectiveness through simulations and applications to real datasets.
主题: 方法论 (stat.ME) ; 机器学习 (stat.ML)
引用方式: arXiv:2510.14890 [stat.ME]
  (或者 arXiv:2510.14890v1 [stat.ME] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.14890
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Wanli Qiao [查看电子邮件]
[v1] 星期四, 2025 年 10 月 16 日 17:10:03 UTC (1,433 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
stat
stat.ME

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号