统计学 > 方法论
[提交于 2025年10月3日
]
标题: 临床试验中缺失连续结果的参数方法与机器学习多重插补比较
标题: Comparison of Parametric versus Machine-learning Multiple Imputation in Clinical Trials with Missing Continuous Outcomes
摘要: 使用灵活的机器学习(ML)模型在多重插补(MI)框架内生成缺失数据的插补值,最近在观察性研究中越来越受到关注。 对于随机对照试验(RCT),尚不清楚ML方法在MI中的推断是否有效,以及在复杂的生成机制下是否优于参数化MI方法。 我们在具有不完整连续结果但完全观察协变量的RCT环境中进行了两次模拟。 我们比较了完整案例、标准MI(MI-norm)、预测均值匹配的MI(MI-PMM)以及基于ML的MI方法,包括分类和回归树(MI-CART)、随机森林(MI-RF)和SuperLearner,当结果完全随机缺失或在治疗/协变量条件下随机缺失时。 第一个模拟探讨了在协变量-治疗交互存在与否的情况下非线性协变量-结果关系。 第二个模拟探讨了偏斜的重复测量,这是由一个具有数字结果的试验所激发的。 在没有交互作用的情况下,我们发现完整案例可以提供可靠的推断; MI-norm表现相似,除非缺失依赖于协变量。 在特定的非线性情况下,ML方法可以比完整案例和MI-norm产生更小的均方误差,但在其他情况下提供不可靠的推断。 MI-PMM在多个情况下可能导致不可靠的推断。 在存在复杂治疗-协变量交互作用的情况下,分别按组进行MI,无论是使用MI-norm、MI-RF还是MI-CART,在分析模型忽略交互作用时,其推断效果与完整案例相比具有可比性或更好的性质。 对于ML方法,我们观察到在应用Rubin规则时,估计效应及其标准误差的偏差方面出现不可靠的推断。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.