量子物理
[提交于 2025年7月7日
]
标题: QMoE:用于可扩展量子神经网络的量子专家混合框架
标题: QMoE: A Quantum Mixture of Experts Framework for Scalable Quantum Neural Networks
摘要: 量子机器学习(QML)在噪声中等规模量子(NISQ)时代已成为一个有前景的方向,通过利用叠加和纠缠提供计算和内存优势。 然而,由于硬件限制,QML模型常常面临可扩展性和表达能力的挑战。 在本文中,我们提出了量子专家混合(QMoE),这是一种将专家混合(MoE)范式整合到QML设置中的新型量子架构。 QMoE包含多个参数化量子电路作为专家模型,以及一个可学习的量子路由机制,该机制根据每个输入选择并聚合专门的量子专家。 提出的QMoE在量子分类任务上的实证结果表明,它始终优于标准量子神经网络,突显了其在学习复杂数据模式方面的有效性。 我们的工作为可扩展且可解释的量子学习框架铺平了道路。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.