罕见肿瘤AI辅助诊断的可解释性评估框架构建与临床信任度量体系

XAI技术与可解释机制在影像AI诊断中的落地(LIME/Grad-CAM/SHAP等)

共同点是将典型XAI方法(如LIME、Grad-CAM、SHAP、saliency/CAM等)直接用于医学影像任务的解释生成,并讨论解释如何呈现以支撑诊断理解与信任构建;多数聚焦于局部热图/特征归因与解释可读性。

XAI解释类型的证据化评估:解释粒度/语义/配色与人群表现

这组论文以“解释怎么设计才对用户有用”为核心,强调实验/临床或用户研究来量化不同解释类型(局部vs全局、低层vs高层、语义/配色等)对诊断准确性、效率、主观效用与信任校准的影响,并提出循证证据层级框架。

临床CDSS中的可信度与信任校准测量:沟通差距、采用/依赖与临床风险

共同点是从“临床互动情境”出发评估解释对信任、采用行为和潜在偏差(如确认偏差、自动化偏差)影响;并关注信任不仅来自可解释性,还涉及不确定性、工作流嵌入、责任与临床采用指标。

可解释性与不确定性/可靠性工程:忠诚度、稳定性、校准与鲁棒性

共同点是把解释的“可信”落到工程与统计度量上:忠诚度(fidelity)、稳定性(stability)、一致性(consistency)、概率可靠性/校准(calibration)、以及对训练分布外样本的谨慎处理/标记(outlier flagging)等,强调解释需具备可验证可靠性。

解释与性能协同的训练/建模框架(两阶段训练、联合优化、个体化解释)

共同点是围绕“如何让解释不仅是事后展示而是与模型训练/整体管线协同”来构建框架:例如两阶段训练用解释mask增强数据、用解释机制同时提升性能与透明性、以及在稀有肿瘤/个体化预测中通过可解释模块支撑可用决策。

面向罕见/异质肿瘤的可解释AI扩展:泛化、迁移与隐私保护(含联邦学习)

共同点是针对罕见肿瘤场景的特殊挑战(小样本、异质性、跨站域偏移、外部验证不足),并讨论通过联邦/分布式学习与结构化评估来提升可解释性与临床转化可行性,强调泛化与合规边界。

罕见肿瘤AI辅助诊断的可解释性评估框架构建与临床信任度量体系

整体文献可归纳为五条并行主线:①在影像诊断中落地的XAI方法体系(LIME/Grad-CAM/SHAP等);②面向临床用户的“解释类型/呈现方式”证据化评估;③从真实CDSS互动出发的信任度量与校准(沟通差距、自动化偏差、采用与确认偏差);④解释可靠性工程(忠诚度、稳定性、一致性、校准、分布外谨慎性);⑤将解释与建模框架协同,面向罕见肿瘤的泛化、个体化与隐私保护(含联邦学习/多模态与转化路线)。

47 篇文献,6 个研究方向
XAI技术与可解释机制在影像AI诊断中的落地(LIME/Grad-CAM/SHAP等)
共同点是将典型XAI方法(如LIME、Grad-CAM、SHAP、saliency/CAM等)直接用于医学影像任务的解释生成,并讨论解释如何呈现以支撑诊断理解与信任构建;多数聚焦于局部热图/特征归因与解释可读性。相关文献: A. Akgündoğdu et. al, 2025 等 14 篇文献
XAI解释类型的证据化评估:解释粒度/语义/配色与人群表现
这组论文以“解释怎么设计才对用户有用”为核心,强调实验/临床或用户研究来量化不同解释类型(局部vs全局、低层vs高层、语义/配色等)对诊断准确性、效率、主观效用与信任校准的影响,并提出循证证据层级框架。相关文献: Lorenzo Famiglini et. al, 2024 等 6 篇文献
临床CDSS中的可信度与信任校准测量:沟通差距、采用/依赖与临床风险
共同点是从“临床互动情境”出发评估解释对信任、采用行为和潜在偏差(如确认偏差、自动化偏差)影响;并关注信任不仅来自可解释性,还涉及不确定性、工作流嵌入、责任与临床采用指标。相关文献: Oskar Wysocki et. al, 2022 等 11 篇文献
可解释性与不确定性/可靠性工程:忠诚度、稳定性、校准与鲁棒性
共同点是把解释的“可信”落到工程与统计度量上:忠诚度(fidelity)、稳定性(stability)、一致性(consistency)、概率可靠性/校准(calibration)、以及对训练分布外样本的谨慎处理/标记(outlier flagging)等,强调解释需具备可验证可靠性。相关文献: A. Akgündoğdu et. al, 2025 等 5 篇文献
解释与性能协同的训练/建模框架(两阶段训练、联合优化、个体化解释)
共同点是围绕“如何让解释不仅是事后展示而是与模型训练/整体管线协同”来构建框架:例如两阶段训练用解释mask增强数据、用解释机制同时提升性能与透明性、以及在稀有肿瘤/个体化预测中通过可解释模块支撑可用决策。相关文献: A. Akgündoğdu et. al, 2025 等 6 篇文献
面向罕见/异质肿瘤的可解释AI扩展:泛化、迁移与隐私保护(含联邦学习)
共同点是针对罕见肿瘤场景的特殊挑战(小样本、异质性、跨站域偏移、外部验证不足),并讨论通过联邦/分布式学习与结构化评估来提升可解释性与临床转化可行性,强调泛化与合规边界。相关文献: Michaela Kuhlen et. al, 2026 等 5 篇文献