Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2508.14129

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2508.14129 (eess)
[提交于 2025年8月19日 ]

标题: 使用检测变换器变体在腕部和手部X光片中进行裂纹检测和定位

标题: Fracture Detection and Localisation in Wrist and Hand Radiographs using Detection Transformer Variants

Authors:Aditya Bagri, Vasanthakumar Venugopal, Anandakumar D, Revathi Ezhumalai, Kalyan Sivasailam, Bargava Subramanian, VarshiniPriya, Meenakumari K S, Abi M, Renita S
摘要: 背景:使用X光片准确诊断手腕和手部骨折在急诊护理中至关重要,但手动解读速度慢且容易出错。基于Transformer的模型在改善医学图像分析方面显示出潜力,但其在四肢骨折中的应用有限。本研究通过将目标检测Transformer应用于手腕和手部X光片来弥补这一差距。方法:我们使用来自专有临床数据集的超过26,000张标注的X光片对RT-DETR和Co-DETR模型进行了微调。每张图像都用边界框标记了骨折的存在。在裁剪区域上训练了一个ResNet-50分类器以精炼异常分类。使用监督对比学习来提高嵌入质量。性能通过AP@50、精确率和召回率指标进行评估,并在真实X光片上进行了额外测试。结果:RT-DETR表现中等(AP@50 = 0.39),而Co-DETR表现优于它,AP@50为0.615且收敛更快。集成流程在真实X光片上实现了83.1%的准确率、85.1%的精确率和96.4%的召回率,展示了在13种骨折类型上的强大泛化能力。视觉检查确认了准确的定位。结论:我们的基于Co-DETR的流程在手腕和手部骨折检测中表现出高准确率和临床相关性,提供了可靠的定位和骨折类型区分。它具有可扩展性、高效性,并适合在医院工作流程中实时部署,提高了骨科放射学中的诊断速度和可靠性。
摘要: Background: Accurate diagnosis of wrist and hand fractures using radiographs is essential in emergency care, but manual interpretation is slow and prone to errors. Transformer-based models show promise in improving medical image analysis, but their application to extremity fractures is limited. This study addresses this gap by applying object detection transformers to wrist and hand X-rays. Methods: We fine-tuned the RT-DETR and Co-DETR models, pre-trained on COCO, using over 26,000 annotated X-rays from a proprietary clinical dataset. Each image was labeled for fracture presence with bounding boxes. A ResNet-50 classifier was trained on cropped regions to refine abnormality classification. Supervised contrastive learning was used to enhance embedding quality. Performance was evaluated using AP@50, precision, and recall metrics, with additional testing on real-world X-rays. Results: RT-DETR showed moderate results (AP@50 = 0.39), while Co-DETR outperformed it with an AP@50 of 0.615 and faster convergence. The integrated pipeline achieved 83.1% accuracy, 85.1% precision, and 96.4% recall on real-world X-rays, demonstrating strong generalization across 13 fracture types. Visual inspection confirmed accurate localization. Conclusion: Our Co-DETR-based pipeline demonstrated high accuracy and clinical relevance in wrist and hand fracture detection, offering reliable localization and differentiation of fracture types. It is scalable, efficient, and suitable for real-time deployment in hospital workflows, improving diagnostic speed and reliability in musculoskeletal radiology.
评论: 18页,21图
主题: 图像与视频处理 (eess.IV) ; 人工智能 (cs.AI); 计算机视觉与模式识别 (cs.CV)
MSC 类: 68T45
ACM 类: I.2.10
引用方式: arXiv:2508.14129 [eess.IV]
  (或者 arXiv:2508.14129v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.14129
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Anandakumar D [查看电子邮件]
[v1] 星期二, 2025 年 8 月 19 日 05:41:49 UTC (6,040 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.AI
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号