电气工程与系统科学 > 图像与视频处理
            [提交于 2025年8月10日
            
             (v1)
            
            
              ,最后修订 2025年8月25日 (此版本, v2)]
          
          标题: 大规模多序列预训练用于多样化临床应用中的可泛化MRI分析
标题: Large-scale Multi-sequence Pretraining for Generalizable MRI Analysis in Versatile Clinical Applications
摘要: 多序列磁共振成像(MRI)提供了显著的灵活性,能够实现不同组织类型的独特可视化。 然而,MRI序列之间的固有异质性对深度学习模型的泛化能力构成了重大挑战。 这些挑战在面对不同的采集参数时会削弱模型性能,从而严重限制了其临床实用性。 在本研究中,我们提出了PRISM,一个使用大规模多序列MRI预训练的基础模型。 我们从公共和私人来源收集了总共64个数据集,涵盖了广泛的全身解剖结构,扫描涵盖了多种MRI序列。 其中,来自34个数据集(8个公共和26个私人)的336,476个体积MRI扫描被整理成迄今为止最大的多器官多序列MRI预训练语料库。 我们提出了一种新的预训练范式,能够将解剖学不变特征与MRI中的序列特定变化分离,同时保留高层语义表示。 我们建立了一个包含44个下游任务的基准,包括疾病诊断、图像分割、配准、进展预测和报告生成。 这些任务在32个公共数据集和5个私人队列上进行了评估。 PRISM始终优于非预训练模型和现有基础模型,在44个下游基准中有39个取得了第一名的结果,并且有统计学意义的提升。 这些结果证明了它在不同MRI协议下获取的未见数据上学习稳健和泛化表示的能力。 PRISM提供了一个可扩展的多序列MRI分析框架,从而增强了放射学中人工智能的转化潜力。 它在各种成像协议中表现出一致的性能,强化了其临床适用性。
文献和引用工具
与本文相关的代码,数据和媒体
            alphaXiv (什么是 alphaXiv?)
          
        
            CatalyzeX 代码查找器 (什么是 CatalyzeX?)
          
        
            DagsHub (什么是 DagsHub?)
          
        
            Gotit.pub (什么是 GotitPub?)
          
        
            Hugging Face (什么是 Huggingface?)
          
        
            带有代码的论文 (什么是带有代码的论文?)
          
        
            ScienceCast (什么是 ScienceCast?)
          
        演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.
 
  