Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.01676

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2510.01676 (cs)
[提交于 2025年10月2日 ]

标题: 评估生产恶意软件检测系统对可迁移对抗攻击的鲁棒性

标题: Evaluating the Robustness of a Production Malware Detection System to Transferable Adversarial Attacks

Authors:Milad Nasr, Yanick Fratantonio, Luca Invernizzi, Ange Albertini, Loua Farah, Alex Petit-Bianco, Andreas Terzis, Kurt Thomas, Elie Bursztein, Nicholas Carlini
摘要: 随着深度学习模型被广泛部署为更大生产系统中的组件,它们的个别缺陷可能会造成具有现实影响的系统级漏洞。 本文研究了针对机器学习组件的对抗性攻击如何降级或绕过整个生产级别的恶意软件检测系统,并对Gmail的处理流程进行了案例分析,其中文件类型识别依赖于一个机器学习模型。 Gmail当前使用的恶意软件检测流程包含一个机器学习模型,该模型将每个潜在的恶意软件样本路由到专门的恶意软件分类器以提高准确性和性能。 该模型称为Magika,已经开源。 通过设计可以欺骗Magika的对抗性示例,我们可以导致生产环境中的恶意软件服务将恶意软件错误地路由到不合适的恶意软件检测器,从而增加我们逃避检测的机会。 具体而言,通过仅更改恶意软件样本中的13个字节,我们可以在90%的情况下成功逃避Magika,从而使我们能够通过Gmail发送恶意软件文件。 随后,我们将注意力转向防御措施,并开发了一种方法来减轻此类攻击的严重性。 对于经过防御的生产模型,一个资源丰富的攻击者需要50个字节才能实现仅20%的攻击成功率。 我们实现了这种防御,并且由于与Google工程师的合作,它已经部署在Gmail分类器的生产环境中。
摘要: As deep learning models become widely deployed as components within larger production systems, their individual shortcomings can create system-level vulnerabilities with real-world impact. This paper studies how adversarial attacks targeting an ML component can degrade or bypass an entire production-grade malware detection system, performing a case study analysis of Gmail's pipeline where file-type identification relies on a ML model. The malware detection pipeline in use by Gmail contains a machine learning model that routes each potential malware sample to a specialized malware classifier to improve accuracy and performance. This model, called Magika, has been open sourced. By designing adversarial examples that fool Magika, we can cause the production malware service to incorrectly route malware to an unsuitable malware detector thereby increasing our chance of evading detection. Specifically, by changing just 13 bytes of a malware sample, we can successfully evade Magika in 90% of cases and thereby allow us to send malware files over Gmail. We then turn our attention to defenses, and develop an approach to mitigate the severity of these types of attacks. For our defended production model, a highly resourced adversary requires 50 bytes to achieve just a 20% attack success rate. We implement this defense, and, thanks to a collaboration with Google engineers, it has already been deployed in production for the Gmail classifier.
主题: 密码学与安全 (cs.CR) ; 机器学习 (cs.LG)
引用方式: arXiv:2510.01676 [cs.CR]
  (或者 arXiv:2510.01676v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.01676
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Milad Nasr [查看电子邮件]
[v1] 星期四, 2025 年 10 月 2 日 05:04:44 UTC (1,901 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号