Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.15943

帮助 | 高级搜索

计算机科学 > 计算机与社会

arXiv:2510.15943 (cs)
[提交于 2025年10月9日 ]

标题: 推动负责任、安全和可持续的医疗AI - 临床和运营影响的战略框架

标题: Enabling Responsible, Secure and Sustainable Healthcare AI - A Strategic Framework for Clinical and Operational Impact

Authors:Jimmy Joseph
摘要: 我们提供一个务实的模型,以实现负责任、安全和可持续的医疗AI,将世界级的技术卓越与组织准备度相一致。 该框架包括五个关键支柱——领导力与战略、MLOps与技术基础设施、治理与伦理、教育与人才发展,以及变革管理与采纳——旨在实现“设计合规性”同时产生可衡量的影响。 我们通过两个部署来展示其效用。 (A) 住院患者住院时间(LOS)预测服务在观察性试点中验证队列的R^2=0.41-0.58(n = 3,184次就诊,4个单元,2025年6月至8月)。 第6周的采纳率为78%,目标单元在复杂病例中的平均LOS相比试点前基线下降了5-10%。 (B) 一种AI增强的肺结节放射学第二读者(与PACS集成,具有阈值和解释叠加功能)实现了高敏感性(95%),并在检测亚厘米可操作性发现方面提高了+8.0个百分点的检测率,而不会减慢工作流程(中位报告TAT为23分钟,p = 0.64)。 这两个服务都在受监控、可审计的管道中执行,具有明确的回滚、偏差检查,且没有安全事件的证据。 这些发现表明,通过将强大的MLOps和AI安全与治理、教育及以人为本的变革相结合,我们可以加速AI的采用,同时提高安全性和结果。 最后,我们讨论了局限性、泛化考虑因素以及在各种临床和运营使用案例中扩展的路线图。
摘要: We offer a pragmatic model to operationalize responsible, secure, and sustainable healthcare AI, aligning world-class technical excellence with organizational readiness. The framework includes five key pillars - Leadership & Strategy, MLOps & Technical Infrastructure, Governance & Ethics, Education & Workforce Development, and Change Management & Adoption - and is intended to operationalize 'compliance-by-design' while delivering measurable impact. We demonstrate its utility through two deployments. (A) An inpatient length of stay (LOS) prediction service had R^2=0.41-0.58 with validation cohorts in an observational pilot (n = 3,184 encounters, 4 units, June-August 2025). Adoption was 78 percent by week 6, and target units saw 5-10 percent relative declines in mean LOS for complex cases vs. pre-pilot baselines. (B) An AI-augmented radiology second-reader for lung nodules (PACS-integrated with thresholding and explanation overlays) achieved high sensitivity (95 percent) and provided a +8.0 percentage-point lift in detection of sub-centimeter actionable findings, without slowing workflow (median report TAT 23 min, p = 0.64). Both services executed in monitored, auditable pipelines with well-defined rollback, bias checks, and no evidence of security incidents. These findings indicate that by combining strong MLOps and AI security with governance, education, and human-centric change, we can accelerate adoption of AI while improving security and outcomes. We end with limitations, generalization considerations, and a roadmap for scaling across varied clinical and operational use cases.
主题: 计算机与社会 (cs.CY)
引用方式: arXiv:2510.15943 [cs.CY]
  (或者 arXiv:2510.15943v1 [cs.CY] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.15943
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jimmy Joseph [查看电子邮件]
[v1] 星期四, 2025 年 10 月 9 日 12:40:59 UTC (753 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
许可图标 查看许可
当前浏览上下文:
cs.CY
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号