Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2509.11811

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2509.11811 (cs)
[提交于 2025年9月15日 ]

标题: LFRA-Net:一种轻量级焦点和区域感知注意力网络用于视网膜血管分割

标题: LFRA-Net: A Lightweight Focal and Region-Aware Attention Network for Retinal Vessel Segmentatio

Authors:Mehwish Mehmood, Shahzaib Iqbal, Tariq Mahmood Khan, Ivor Spence, Muhammad Fahim
摘要: 视网膜血管分割对于早期诊断威胁视力和系统性疾病的至关重要,尤其是在计算资源有限的实际临床环境中。尽管基于深度学习的分割方法取得了显著进步,但当前模型在提取微小血管方面仍面临挑战,并且计算成本较高。在本研究中,我们通过在编码器-解码器瓶颈处引入焦点调制注意力以及在选择性跳跃连接中引入区域感知注意力来提出LFRA-Net。LFRA-Net是一个轻量级网络,专为精确和有效的视网膜血管分割而优化。它通过高效捕捉局部和全局依赖关系来增强特征表示和区域关注。LFRA-Net在仅具有0.17百万参数、0.66 MB内存大小和10.50 GFLOPs的情况下,优于许多最先进的模型。我们在三个公开可用的数据集上验证了它:DRIVE、STARE和CHASE_DB。在DRIVE、STARE和CHASE_DB数据集上,其Dice分数(84.28%、88.44%和85.50%)和Jaccard指数(72.86%、79.31%和74.70%)表现更好。与现有的深度学习方法相比,LFRA-Net在分割精度和计算成本之间提供了理想的比率,这使其适用于资源有限地区的实时临床应用。代码可在https://github.com/Mehwish4593/LFRA-Net找到。
摘要: Retinal vessel segmentation is critical for the early diagnosis of vision-threatening and systemic diseases, especially in real-world clinical settings with limited computational resources. Although significant improvements have been made in deep learning-based segmentation methods, current models still face challenges in extracting tiny vessels and suffer from high computational costs. In this study, we present LFRA-Net by incorporating focal modulation attention at the encoder-decoder bottleneck and region-aware attention in the selective skip connections. LFRA-Net is a lightweight network optimized for precise and effective retinal vascular segmentation. It enhances feature representation and regional focus by efficiently capturing local and global dependencies. LFRA-Net outperformed many state-of-the-art models while maintaining lightweight characteristics with only 0.17 million parameters, 0.66 MB memory size, and 10.50 GFLOPs. We validated it on three publicly available datasets: DRIVE, STARE, and CHASE\_DB. It performed better in terms of Dice score (84.28\%, 88.44\%, and 85.50\%) and Jaccard index (72.86\%, 79.31\%, and 74.70\%) on the DRIVE, STARE, and CHASE\_DB datasets, respectively. LFRA-Net provides an ideal ratio between segmentation accuracy and computational cost compared to existing deep learning methods, which makes it suitable for real-time clinical applications in areas with limited resources. The code can be found at https://github.com/Mehwish4593/LFRA-Net.
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2509.11811 [cs.CV]
  (或者 arXiv:2509.11811v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2509.11811
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Tariq Khan Dr [查看电子邮件]
[v1] 星期一, 2025 年 9 月 15 日 11:47:51 UTC (916 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-09
切换浏览方式为:
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号