Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2508.15635

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2508.15635 (eess)
[提交于 2025年8月21日 ]

标题: 超声分割中的标签不确定性

标题: Label Uncertainty for Ultrasound Segmentation

Authors:Malini Shivaram, Gautam Rajendrakumar Gare, Laura Hutchins, Jacob Duplantis, Thomas Deiss, Thales Nogueira Gomes, Thong Tran, Keyur H. Patel, Thomas H Fox, Amita Krishnan, Deva Ramanan, Bennett DeBoisblanc, Ricardo Rodriguez, John Galeotti
摘要: 在医学影像中,放射科医生之间的观察者变异性常常引入标签不确定性,尤其是在视觉解释具有主观性的模态中。肺部超声(LUS)是一个典型的例子——它经常呈现出高度模糊区域和明显可区分结构的混合,即使对于经验丰富的临床医生来说,一致的标注也具有挑战性。在这项工作中,我们介绍了一种新颖的方法,使用专家提供的每个像素的置信度值来进行标注和训练人工智能模型。我们设计了一种数据标注协议,捕捉放射科医生对每个标记区域的信心,建模现实世界临床数据中固有的随机不确定性。我们证明,在训练过程中结合这些置信度值可以提高分割性能。更重要的是,我们表明这种增强的分割质量可以转化为下游临床上关键任务的更好表现——具体而言,是估计S/F氧合比值、分类S/F比值变化以及预测30天内患者再入院。虽然我们对许多方法进行了实证评估以将不确定性暴露给学习模型,但我们发现一种简单的策略,即使用60%的置信度阈值获得二值化标签来训练模型效果很好。重要的是,高阈值远优于50%阈值的简单方法,这表明在非常自信的像素上进行训练要有效得多。我们的研究系统地调查了使用不同置信度阈值训练的影响,不仅比较了分割指标,还比较了下游临床结果。这些结果表明,标签置信度是一个有价值的信号,当正确利用时,可以显著提高医学影像中人工智能的可靠性和临床实用性。
摘要: In medical imaging, inter-observer variability among radiologists often introduces label uncertainty, particularly in modalities where visual interpretation is subjective. Lung ultrasound (LUS) is a prime example-it frequently presents a mixture of highly ambiguous regions and clearly discernible structures, making consistent annotation challenging even for experienced clinicians. In this work, we introduce a novel approach to both labeling and training AI models using expert-supplied, per-pixel confidence values. Rather than treating annotations as absolute ground truth, we design a data annotation protocol that captures the confidence that radiologists have in each labeled region, modeling the inherent aleatoric uncertainty present in real-world clinical data. We demonstrate that incorporating these confidence values during training leads to improved segmentation performance. More importantly, we show that this enhanced segmentation quality translates into better performance on downstream clinically-critical tasks-specifically, estimating S/F oxygenation ratio values, classifying S/F ratio change, and predicting 30-day patient readmission. While we empirically evaluate many methods for exposing the uncertainty to the learning model, we find that a simple approach that trains a model on binarized labels obtained with a (60%) confidence threshold works well. Importantly, high thresholds work far better than a naive approach of a 50% threshold, indicating that training on very confident pixels is far more effective. Our study systematically investigates the impact of training with varying confidence thresholds, comparing not only segmentation metrics but also downstream clinical outcomes. These results suggest that label confidence is a valuable signal that, when properly leveraged, can significantly enhance the reliability and clinical utility of AI in medical imaging.
评论: 正在审稿的论文
主题: 图像与视频处理 (eess.IV) ; 人工智能 (cs.AI); 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG); 机器学习 (stat.ML)
引用方式: arXiv:2508.15635 [eess.IV]
  (或者 arXiv:2508.15635v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.15635
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Gautam Gare [查看电子邮件]
[v1] 星期四, 2025 年 8 月 21 日 15:00:21 UTC (3,602 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.AI
cs.CV
eess
eess.IV
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号