电气工程与系统科学 > 图像与视频处理
[提交于 2025年8月9日
(v1)
,最后修订 2025年8月15日 (此版本, v2)]
标题: 从可解释到被解释的AI:关于证伪和量化解释的想法
标题: From Explainable to Explained AI: Ideas for Falsifying and Quantifying Explanations
摘要: 解释深度学习模型对于医学影像分析系统的临床整合至关重要。 一个好的解释可以突出模型是否依赖于虚假特征,这会损害泛化并伤害一部分患者,或者相反,可能提出新的生物学见解。 尽管像GradCAM这样的技术可以识别有影响力的特点,但它们只是测量工具,本身并不构成解释。 我们提出了一种针对计算病理学中分类器的以人为本的机器-VLM交互系统,包括全幻灯片的多实例学习。 我们的概念验证包括(1)一个集成AI的幻灯片查看器,用于运行滑动窗口实验以测试解释的声明,以及(2)使用通用视觉-语言模型对解释的预测性进行量化。 结果表明,这使我们能够定性地测试解释的声明,并可以定量地区分竞争性的解释。 这为从可解释的人工智能到可解释的人工智能在数字病理学及其他领域的实际路径提供了可能。 代码和提示可在 https://github.com/nki-ai/x2x 获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.