Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2508.14681

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2508.14681 (eess)
[提交于 2025年8月20日 ]

标题: 基于标记条件扩散模型的组织学图像虚拟多重染色

标题: Virtual Multiplex Staining for Histological Images using a Marker-wise Conditioned Diffusion Model

Authors:Hyun-Jic Oh, Junsik Kim, Zhiyi Shi, Yichen Wu, Yu-An Chen, Peter K. Sorger, Hanspeter Pfister, Won-Ki Jeong
摘要: 多路成像正在通过在组织样本中同时可视化多个生物标志物来革新病理学,提供传统苏木精和伊红(H&E)染色无法提供的分子级见解。 然而,多路数据采集的复杂性和成本阻碍了其广泛应用。 此外,大多数现有的H&E图像大型数据库缺乏相应的多路图像,限制了多模态分析的机会。 为解决这些挑战,我们利用了潜在扩散模型(LDMs)的最新进展,这些模型擅长通过其强大的先验来建模复杂的数据分布,以微调到目标领域。 在本文中,我们引入了一种新的虚拟多路染色框架,该框架利用预训练的LDM参数,通过条件扩散模型从H&E图像生成多路图像。 我们的方法通过将扩散模型针对每个标记进行条件设置,实现逐个标记的生成,同时所有标记共享相同的架构。 为了应对不同标记染色之间像素值分布的变化,并提高推理速度,我们对模型进行了单步采样的微调,通过像素级损失函数提高了颜色对比度保真度和推理效率。 我们在两个公开可用的数据集上验证了我们的框架,显著展示了其在生成多达18种不同标记类型方面的有效性,相较于之前方法实现的2-3种标记类型,准确性有了显著提升。 这种验证突显了我们框架的潜力,开创了虚拟多路染色的新局面。 最后,本文弥合了H&E和多路成像之间的差距,可能使回顾性研究和现有H&E图像库的大规模分析成为可能。
摘要: Multiplex imaging is revolutionizing pathology by enabling the simultaneous visualization of multiple biomarkers within tissue samples, providing molecular-level insights that traditional hematoxylin and eosin (H&E) staining cannot provide. However, the complexity and cost of multiplex data acquisition have hindered its widespread adoption. Additionally, most existing large repositories of H&E images lack corresponding multiplex images, limiting opportunities for multimodal analysis. To address these challenges, we leverage recent advances in latent diffusion models (LDMs), which excel at modeling complex data distributions utilizing their powerful priors for fine-tuning to a target domain. In this paper, we introduce a novel framework for virtual multiplex staining that utilizes pretrained LDM parameters to generate multiplex images from H&E images using a conditional diffusion model. Our approach enables marker-by-marker generation by conditioning the diffusion model on each marker, while sharing the same architecture across all markers. To tackle the challenge of varying pixel value distributions across different marker stains and to improve inference speed, we fine-tune the model for single-step sampling, enhancing both color contrast fidelity and inference efficiency through pixel-level loss functions. We validate our framework on two publicly available datasets, notably demonstrating its effectiveness in generating up to 18 different marker types with improved accuracy, a substantial increase over the 2-3 marker types achieved in previous approaches. This validation highlights the potential of our framework, pioneering virtual multiplex staining. Finally, this paper bridges the gap between H&E and multiplex imaging, potentially enabling retrospective studies and large-scale analyses of existing H&E image repositories.
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2508.14681 [eess.IV]
  (或者 arXiv:2508.14681v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.14681
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hyun-Jic Oh Mr. [查看电子邮件]
[v1] 星期三, 2025 年 8 月 20 日 12:54:58 UTC (2,059 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
eess
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号