Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2510.10870

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2510.10870 (stat)
[提交于 2025年10月13日 ]

标题: 基于距离协方差的随机森林迁移学习:误差界限和电子健康记录应用

标题: Transfer Learning with Distance Covariance for Random Forest: Error Bounds and an EHR Application

Authors:Chenze Li, Subhadeep Paul
摘要: 随机森林由于在结构化表格数据上相对于其他方法的广泛优越性,是机器学习应用的重要方法。 我们提出了一种非参数回归中的迁移学习方法,使用基于距离协方差的特征权重的中心随机森林(CRF),假设未知的源和目标回归函数在少数特征上不同(稀疏不同)。 我们的方法首先通过源域训练的CRF预测目标域的响应,获得残差。 然后,我们在独立样本中,根据特征与残差之间的样本距离协方差,以特征分割概率成比例的方式,对残差拟合另一个CRF。 我们推导了该过程的均方误差率的上界,作为样本大小和差异维度的函数,从理论上证明了随机森林中迁移学习的优势。 在模拟中,我们展示了对于CRF得到的结果也适用于具有数据驱动特征分割选择的标准随机森林(SRF)方法。 除了迁移学习外,我们的结果还显示了在某些情况下基于距离协方差的权重对RF性能的好处。 我们的方法在使用大型多医院电子健康记录数据集(包含20万名ICU患者的数据)预测较小床位目标医院的ICU患者死亡率时表现出显著的提升。
摘要: Random forest is an important method for ML applications due to its broad outperformance over competing methods for structured tabular data. We propose a method for transfer learning in nonparametric regression using a centered random forest (CRF) with distance covariance-based feature weights, assuming the unknown source and target regression functions are different for a few features (sparsely different). Our method first obtains residuals from predicting the response in the target domain using a source domain-trained CRF. Then, we fit another CRF to the residuals, but with feature splitting probabilities proportional to the sample distance covariance between the features and the residuals in an independent sample. We derive an upper bound on the mean square error rate of the procedure as a function of sample sizes and difference dimension, theoretically demonstrating transfer learning benefits in random forests. In simulations, we show that the results obtained for the CRFs also hold numerically for the standard random forest (SRF) method with data-driven feature split selection. Beyond transfer learning, our results also show the benefit of distance-covariance-based weights on the performance of RF in some situations. Our method shows significant gains in predicting the mortality of ICU patients in smaller-bed target hospitals using a large multi-hospital dataset of electronic health records for 200,000 ICU patients.
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG); 统计理论 (math.ST); 方法论 (stat.ME)
引用方式: arXiv:2510.10870 [stat.ML]
  (或者 arXiv:2510.10870v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.10870
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Subhadeep Paul [查看电子邮件]
[v1] 星期一, 2025 年 10 月 13 日 00:31:56 UTC (135 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
stat.ME
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.LG
math
math.ST
stat
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号