脑电拓扑表征的黑盒困境与可解释性需求

事后归因技术与黑盒模型透明化分析

该组研究聚焦于利用后验解释算法(如SHAP、LRP、CAM、LIME及ROAR)对已训练的复杂模型进行特征贡献度评估。通过生成显著性图或计算电极/频段的影响权重,揭示黑盒模型内部的决策逻辑,并评估解释结果的稳健性与可信度。

图神经网络与动态脑网络拓扑表征

侧重于利用图神经网络(GNN)或张量分解捕捉脑电通道间的空间拓扑关系。通过构建动态、层级化或多维度的图结构来模拟大脑功能连接,将非欧几里得空间特征转化为可理解的脑网络交互模式。

神经生理约束与轻量化内在透明架构

从模型设计阶段解决黑盒困境。通过引入神经符号逻辑、贝叶斯先验、或模拟特定生理指标(如谱熵、频带能量)的极简架构(如xEEGNet, LMDA-Net),使模型在参数量、计算效率与生理意义之间达到平衡,具备内在透明性。

注意力机制引导的时空特征动态解析

利用自注意力机制、Transformer或Conformer架构,通过权重分配的可视化和长程依赖建模,精准定位脑电信号在时间维度(关键潜伏期)和空间维度(核心脑区)的判别性特征,缓解时空推理的不透明性。

面向临床医学的生物标志物提取与通道优化

将可解释性研究应用于癫痫、精神分裂症、抑郁及疲劳监测等临床任务。旨在验证模型提取的特征是否符合生物学先验,并利用解释结果指导通道精简和硬件部署,为临床辅助诊断提供证据支撑。

脑电拓扑表征的黑盒困境与可解释性需求

本报告系统性地整合了脑电(EEG)拓扑表征中解决“黑盒困境”的五大主流技术路径:1) 以SHAP/CAM为核心的事后归因范式,通过可视化提升模型的外部透明度;2) 基于图论与GNN的拓扑建模范式,通过对齐脑功能网络结构来模拟区域交互;3) 融合神经科学先验的内在透明架构,通过轻量化与物理约束实现天然可理解性;4) 依赖Transformer与注意力机制的动态解析范式,实现了复杂时空特征的权重映射;5) 面向临床应用的特征验证范式,将模型决策与生物标志物对齐。整体趋势表明,脑电深度学习正从单纯追求准确率的“性能导向”转向兼顾生理意义与决策透明度的“可解释导向”,这对于推动人工智能在脑机接口与神经医疗领域的实战落地具有里程碑意义。

63 篇文献,5 个研究方向
事后归因技术与黑盒模型透明化分析
该组研究聚焦于利用后验解释算法(如SHAP、LRP、CAM、LIME及ROAR)对已训练的复杂模型进行特征贡献度评估。通过生成显著性图或计算电极/频段的影响权重,揭示黑盒模型内部的决策逻辑,并评估解释结果的稳健性与可信度。相关文献: Vladislav Mun et. al, 2023 等 14 篇文献
图神经网络与动态脑网络拓扑表征
侧重于利用图神经网络(GNN)或张量分解捕捉脑电通道间的空间拓扑关系。通过构建动态、层级化或多维度的图结构来模拟大脑功能连接,将非欧几里得空间特征转化为可理解的脑网络交互模式。相关文献: Ji Shi et. al, 2024 等 12 篇文献
神经生理约束与轻量化内在透明架构
从模型设计阶段解决黑盒困境。通过引入神经符号逻辑、贝叶斯先验、或模拟特定生理指标(如谱熵、频带能量)的极简架构(如xEEGNet, LMDA-Net),使模型在参数量、计算效率与生理意义之间达到平衡,具备内在透明性。相关文献: Xuchao Chen et. al, 2025 等 16 篇文献
注意力机制引导的时空特征动态解析
利用自注意力机制、Transformer或Conformer架构,通过权重分配的可视化和长程依赖建模,精准定位脑电信号在时间维度(关键潜伏期)和空间维度(核心脑区)的判别性特征,缓解时空推理的不透明性。相关文献: Ruixiang Liu et. al, 2024 等 6 篇文献
面向临床医学的生物标志物提取与通道优化
将可解释性研究应用于癫痫、精神分裂症、抑郁及疲劳监测等临床任务。旨在验证模型提取的特征是否符合生物学先验,并利用解释结果指导通道精简和硬件部署,为临床辅助诊断提供证据支撑。相关文献: 李如意 et. al, 2025 等 15 篇文献