Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.15225

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2508.15225 (cs)
[提交于 2025年8月21日 ]

标题: 通过多窗口对比学习学习心电图表示

标题: Learning ECG Representations via Poly-Window Contrastive Learning

Authors:Yi Yuan, Joseph Van Duyn, Runze Yan, Zhuoyi Huang, Sulaiman Vesal, Sergey Plis, Xiao Hu, Gloria Hyunjung Kwak, Ran Xiao, Alex Fedorov
摘要: 心电图(ECG)分析是心血管疾病诊断的基础,但深度学习模型的性能通常受到标注数据有限访问的限制。自监督对比学习已成为从无标签信号中学习强大ECG表示的强大方法。然而,大多数现有方法仅生成成对增强视图,并未能利用ECG记录丰富的时序结构。在本工作中,我们提出了一种多窗口对比学习框架。我们从每个ECG实例中提取多个时序窗口以构建正对,并通过统计学最大化它们的一致性。受慢特征分析原理的启发,我们的方法明确鼓励模型学习随时间不变且具有生理意义的特征。我们在PTB-XL数据集上通过广泛的实验和消融研究验证了我们的方法。我们的结果表明,多窗口对比学习在多标签超类分类中始终优于传统双视图方法,在达到更高的AUROC(0.891 vs. 0.888)和F1分数(0.680 vs. 0.679)的同时,所需的预训练周期最多减少了四倍(32 vs. 128),总墙钟预训练时间减少了14.8%。尽管每个样本处理多个窗口,我们仍实现了训练周期和总计算时间的显著减少,使我们的方法适用于训练基础模型。通过广泛的消融实验,我们确定了最佳设计选择,并展示了在各种超参数下的鲁棒性。这些发现确立了多窗口对比学习作为自动化ECG分析的高度高效和可扩展范式,并为生物医学时间序列数据中的自监督表示学习提供了一个有前景的通用框架。
摘要: Electrocardiogram (ECG) analysis is foundational for cardiovascular disease diagnosis, yet the performance of deep learning models is often constrained by limited access to annotated data. Self-supervised contrastive learning has emerged as a powerful approach for learning robust ECG representations from unlabeled signals. However, most existing methods generate only pairwise augmented views and fail to leverage the rich temporal structure of ECG recordings. In this work, we present a poly-window contrastive learning framework. We extract multiple temporal windows from each ECG instance to construct positive pairs and maximize their agreement via statistics. Inspired by the principle of slow feature analysis, our approach explicitly encourages the model to learn temporally invariant and physiologically meaningful features that persist across time. We validate our approach through extensive experiments and ablation studies on the PTB-XL dataset. Our results demonstrate that poly-window contrastive learning consistently outperforms conventional two-view methods in multi-label superclass classification, achieving higher AUROC (0.891 vs. 0.888) and F1 scores (0.680 vs. 0.679) while requiring up to four times fewer pre-training epochs (32 vs. 128) and 14.8% in total wall clock pre-training time reduction. Despite processing multiple windows per sample, we achieve a significant reduction in the number of training epochs and total computation time, making our method practical for training foundational models. Through extensive ablations, we identify optimal design choices and demonstrate robustness across various hyperparameters. These findings establish poly-window contrastive learning as a highly efficient and scalable paradigm for automated ECG analysis and provide a promising general framework for self-supervised representation learning in biomedical time-series data.
评论: 这项工作已被接受发表于IEEE-EMBS 2025国际生物医学与健康信息学会议。最终发表版本将通过IEEE Xplore提供。
主题: 机器学习 (cs.LG) ; 信号处理 (eess.SP)
引用方式: arXiv:2508.15225 [cs.LG]
  (或者 arXiv:2508.15225v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.15225
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Alex Fedorov [查看电子邮件]
[v1] 星期四, 2025 年 8 月 21 日 04:26:51 UTC (1,403 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
eess
eess.SP

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号