Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2510.03512

帮助 | 高级搜索

统计学 > 方法论

arXiv:2510.03512 (stat)
[提交于 2025年10月3日 ]

标题: 临床试验中缺失连续结果的参数方法与机器学习多重插补比较

标题: Comparison of Parametric versus Machine-learning Multiple Imputation in Clinical Trials with Missing Continuous Outcomes

Authors:Mia S. Tackney, Jonathan W. Bartlett, Elizabeth Williamson, Kim May Lee
摘要: 使用灵活的机器学习(ML)模型在多重插补(MI)框架内生成缺失数据的插补值,最近在观察性研究中越来越受到关注。 对于随机对照试验(RCT),尚不清楚ML方法在MI中的推断是否有效,以及在复杂的生成机制下是否优于参数化MI方法。 我们在具有不完整连续结果但完全观察协变量的RCT环境中进行了两次模拟。 我们比较了完整案例、标准MI(MI-norm)、预测均值匹配的MI(MI-PMM)以及基于ML的MI方法,包括分类和回归树(MI-CART)、随机森林(MI-RF)和SuperLearner,当结果完全随机缺失或在治疗/协变量条件下随机缺失时。 第一个模拟探讨了在协变量-治疗交互存在与否的情况下非线性协变量-结果关系。 第二个模拟探讨了偏斜的重复测量,这是由一个具有数字结果的试验所激发的。 在没有交互作用的情况下,我们发现完整案例可以提供可靠的推断; MI-norm表现相似,除非缺失依赖于协变量。 在特定的非线性情况下,ML方法可以比完整案例和MI-norm产生更小的均方误差,但在其他情况下提供不可靠的推断。 MI-PMM在多个情况下可能导致不可靠的推断。 在存在复杂治疗-协变量交互作用的情况下,分别按组进行MI,无论是使用MI-norm、MI-RF还是MI-CART,在分析模型忽略交互作用时,其推断效果与完整案例相比具有可比性或更好的性质。 对于ML方法,我们观察到在应用Rubin规则时,估计效应及其标准误差的偏差方面出现不可靠的推断。
摘要: The use of flexible machine-learning (ML) models to generate imputations of missing data within the framework of Multiple Imputation (MI) has recently gained traction, particularly in observational settings. For randomised controlled trials (RCTs), it is unclear whether ML approaches to MI provide valid inference, and whether they outperform parametric MI approaches under complex data generating mechanisms. We conducted two simulations in RCT settings that have incomplete continuous outcomes but fully observed covariates. We compared Complete Cases, standard MI (MI-norm), MI with predictive mean matching (MI-PMM) and ML-based approaches to MI, including classification and regression trees (MI-CART), Random Forests (MI-RF) and SuperLearner when outcomes are missing completely at random or missing at random conditional on treatment/covariate. The first simulation explored non-linear covariate-outcome relationships in the presence/absence of covariate-treatment interactions. The second simulation explored skewed repeated measures, motivated by a trial with digital outcomes. In the absence of interactions, we found that Complete Cases yields reliable inference; MI-norm performs similarly, except when missingness depends on the covariate. ML approaches can lead to smaller mean squared error than Complete Cases and MI-norm in specific non-linear settings, but provide unreliable inference for others. MI-PMM can lead to unreliable inference in several settings. In the presence of complex treatment-covariate interactions, performing MI separately by arm, either with MI-norm, MI-RF or MI-CART, provides inference that has comparable or with better properties compared to Complete Cases when the analysis model omits the interaction. For ML approaches, we observed unreliable inference in terms of bias in the estimated effect and/or its standard error when Rubin's Rules are implemented.
主题: 方法论 (stat.ME) ; 其他统计 (stat.OT)
引用方式: arXiv:2510.03512 [stat.ME]
  (或者 arXiv:2510.03512v1 [stat.ME] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.03512
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Mia Tackney [查看电子邮件]
[v1] 星期五, 2025 年 10 月 3 日 20:51:50 UTC (3,849 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
stat.ME
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
stat
stat.OT

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号