Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.21715

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2508.21715 (cs)
[提交于 2025年8月29日 ]

标题: 基于熵的卷积神经网络非侵入式可靠性监控

标题: Entropy-Based Non-Invasive Reliability Monitoring of Convolutional Neural Networks

Authors:Amirhossein Nazeri, Wael Hafez
摘要: 卷积神经网络(CNNs)已成为现代计算机视觉的基础,在各种图像识别任务中实现了前所未有的准确性。 尽管这些网络在分布内数据上表现出色,但它们对难以察觉的对抗性扰动仍然脆弱,这些扰动会导致高置信度的错误分类。 然而,现有的检测方法要么需要昂贵的重新训练,要么需要修改网络架构,或者会降低在干净输入上的性能。 在这里,我们表明对抗性扰动会在CNN激活中产生立即且可检测的熵签名,可以在不修改模型的情况下进行监测。 使用VGG-16上的并行熵监测,我们证明对抗性输入在早期卷积层中始终使激活熵变化7%,从而以低于20%的误报率和漏报率实现90%的检测准确率。 干净和对抗性熵分布之间的完全分离表明,CNN在其激活模式中固有地编码了分布变化。 这项工作确立了仅通过激活熵就可以评估CNN的可靠性,从而实现了自我诊断视觉系统的实际部署,能够在不损害原始模型性能的情况下实时检测对抗性输入。
摘要: Convolutional Neural Networks (CNNs) have become the foundation of modern computer vision, achieving unprecedented accuracy across diverse image recognition tasks. While these networks excel on in-distribution data, they remain vulnerable to adversarial perturbations imperceptible input modifications that cause misclassification with high confidence. However, existing detection methods either require expensive retraining, modify network architecture, or degrade performance on clean inputs. Here we show that adversarial perturbations create immediate, detectable entropy signatures in CNN activations that can be monitored without any model modification. Using parallel entropy monitoring on VGG-16, we demonstrate that adversarial inputs consistently shift activation entropy by 7% in early convolutional layers, enabling 90% detection accuracy with false positives and false negative rates below 20%. The complete separation between clean and adversarial entropy distributions reveals that CNNs inherently encode distribution shifts in their activation patterns. This work establishes that CNN reliability can be assessed through activation entropy alone, enabling practical deployment of self-diagnostic vision systems that detect adversarial inputs in real-time without compromising original model performance.
评论: 8页,3图,2表
主题: 计算机视觉与模式识别 (cs.CV) ; 人工智能 (cs.AI); 密码学与安全 (cs.CR); 信息论 (cs.IT); 图像与视频处理 (eess.IV)
引用方式: arXiv:2508.21715 [cs.CV]
  (或者 arXiv:2508.21715v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.21715
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Amirhossein Nazeri [查看电子邮件]
[v1] 星期五, 2025 年 8 月 29 日 15:33:45 UTC (1,202 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.AI
cs.CR
cs.IT
eess
eess.IV
math
math.IT

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号