Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.00768v2

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2508.00768v2 (cs)
[提交于 2025年8月1日 (v1) ,最后修订 2025年8月4日 (此版本, v2)]

标题: 评估变分量子机器学习中的角度和振幅编码策略:它们对模型准确性的影响

标题: Evaluating Angle and Amplitude Encoding Strategies for Variational Quantum Machine Learning: their impact on model's accuracy

Authors:Antonio Tudisco, Andrea Marchesin, Maurizio Zamboni, Mariagrazia Graziano, Giovanna Turvani
摘要: 最近在量子计算和机器学习方面的进展引起了对量子机器学习(QML)的关注,QML旨在通过利用量子计算范式来开发机器学习模型。 该领域中广泛使用的一种模型是变分量子电路(VQC),这是一种混合模型,其中量子电路处理数据推理,而经典优化调整电路的参数。 量子电路包括一个编码层,用于将数据加载到电路中,以及一个模板电路,称为ansatz,负责处理数据。 本研究通过考虑幅度编码和角度编码模型进行分析,并检查应用的旋转门类型如何影响模型的分类性能。 这种比较是通过对两个数据集Wine和Diabetes中的不同模型进行训练并评估其性能来完成的。 研究表明,在相同的模型拓扑下,最佳模型和最差模型之间的准确率差异范围为10%到30%,差异最高可达41%。 此外,结果强调了编码中使用的旋转门的选择可以显著影响模型的分类性能。 这些发现确认了嵌入是VQC模型的一个超参数。
摘要: Recent advancements in Quantum Computing and Machine Learning have increased attention to Quantum Machine Learning (QML), which aims to develop machine learning models by exploiting the quantum computing paradigm. One of the widely used models in this area is the Variational Quantum Circuit (VQC), a hybrid model where the quantum circuit handles data inference while classical optimization adjusts the parameters of the circuit. The quantum circuit consists of an encoding layer, which loads data into the circuit, and a template circuit, known as the ansatz, responsible for processing the data. This work involves performing an analysis by considering both Amplitude- and Angle-encoding models, and examining how the type of rotational gate applied affects the classification performance of the model. This comparison is carried out by training the different models on two datasets, Wine and Diabetes, and evaluating their performance. The study demonstrates that, under identical model topologies, the difference in accuracy between the best and worst models ranges from 10% to 30%, with differences reaching up to 41%. Moreover, the results highlight how the choice of rotational gates used in encoding can significantly impact the model's classification performance. The findings confirm that the embedding represents a hyperparameter for VQC models.
主题: 机器学习 (cs.LG)
引用方式: arXiv:2508.00768 [cs.LG]
  (或者 arXiv:2508.00768v2 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.00768
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Antonio Tudisco [查看电子邮件]
[v1] 星期五, 2025 年 8 月 1 日 16:43:45 UTC (4,267 KB)
[v2] 星期一, 2025 年 8 月 4 日 07:32:28 UTC (4,490 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号