Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.01768

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2508.01768 (cs)
[提交于 2025年8月3日 ]

标题: “Energon”:从GPU功率和热侧通道中揭示Transformer

标题: "Energon": Unveiling Transformers from GPU Power and Thermal Side-Channels

Authors:Arunava Chaudhuri, Shubhi Shukla, Sarani Bhattacharya, Debdeep Mukhopadhyay
摘要: Transformer已经成为许多机器学习(ML)应用的核心,包括语言翻译、总结和计算机视觉。 随着这些模型通过机器学习即服务(MLaaS)在共享图形处理单元(GPU)环境中部署,它们的安全性问题日益引起关注。 特别是,无需物理访问即可揭示架构细节的侧信道攻击的风险仍研究不足,尽管它们针对的专有模型具有很高的价值。 据我们所知,这项工作是首次研究GPU功耗和热波动作为侧信道,并进一步利用它们从预训练的Transformer模型中提取信息。 所提出的分析表明,这些侧信道可以在用户权限下被利用,以揭示编码器/解码器层和注意力头等关键架构细节,适用于语言和视觉Transformer。 我们通过评估多个公开可用的语言和视觉预训练Transformer来展示实际影响。 通过广泛的实验评估,我们证明了攻击模型在单进程以及嘈杂的多进程场景中,对于模型族识别的平均准确率超过89%,对于超参数分类的准确率为100%。 此外,通过利用提取的架构信息,我们展示了高度有效的黑盒迁移对抗攻击,平均成功率超过93%,突显了部署的Transformer模型中GPU侧信道泄露带来的安全风险。
摘要: Transformers have become the backbone of many Machine Learning (ML) applications, including language translation, summarization, and computer vision. As these models are increasingly deployed in shared Graphics Processing Unit (GPU) environments via Machine Learning as a Service (MLaaS), concerns around their security grow. In particular, the risk of side-channel attacks that reveal architectural details without physical access remains underexplored, despite the high value of the proprietary models they target. This work to the best of our knowledge is the first to investigate GPU power and thermal fluctuations as side-channels and further exploit them to extract information from pre-trained transformer models. The proposed analysis shows how these side channels can be exploited at user-privilege to reveal critical architectural details such as encoder/decoder layer and attention head for both language and vision transformers. We demonstrate the practical impact by evaluating multiple language and vision pre-trained transformers which are publicly available. Through extensive experimental evaluations, we demonstrate that the attack model achieves a high accuracy of over 89% on average for model family identification and 100% for hyperparameter classification, in both single-process as well as noisy multi-process scenarios. Moreover, by leveraging the extracted architectural information, we demonstrate highly effective black-box transfer adversarial attacks with an average success rate exceeding 93%, underscoring the security risks posed by GPU side-channel leakage in deployed transformer models.
评论: 被IEEE/ACM国际计算机辅助设计会议接收,2025年
主题: 密码学与安全 (cs.CR)
引用方式: arXiv:2508.01768 [cs.CR]
  (或者 arXiv:2508.01768v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.01768
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Shubhi Shukla [查看电子邮件]
[v1] 星期日, 2025 年 8 月 3 日 14:08:15 UTC (318 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs.CR

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号