当前位置: 首页 > news >正文

RC-Explainer | Reinforced Causal Explainer for Graph Neural Networks

论文信息

论文标题:Reinforced Causal Explainer for Graph Neural Networks
论文作者:Xiang Wang, Yingxin Wu, An Zhang, Fuli Feng, Xiangnan He, Tat-Seng Chua
论文来源:
论文地址:link
论文代码:link

Abstract

​  1. 研究核心背景:GNN 可解释性的重要性与现有方法缺陷​
    • 核心需求:可解释性是探究图神经网络(GNNs)的关键,需回答 “GNN 为何做出某一预测” 的问题。​
    • 主流技术:特征归因(Feature Attribution)是主流解释技术,通过突出输入图中的 “解释性子图”,揭示该子图如何推动 GNN 产生预测结果。​
    • 现有方法路径:现有归因方法多通过梯度类(gradient-like)或注意力分数(attention scores)为边分配重要性,再选择分数 Top 的边构成解释性子图,具体包括:​
      • 基于梯度信号:通过将模型预测结果反向传播到图结构,获取边的梯度相关重要性;​
      • 基于掩码 / 注意力:通过掩码函数或注意力网络生成边的掩码 / 注意力分数,用部分图(掩码 / 注意力筛选后)逼近原预测;​
      • 基于扰动:通过扰动图结构(如移除子图、计算 Shapley 值)观察预测变化,确定边的重要性。​
    • 关键缺陷:现有方法存在一个不合理假设 ——所选边线性独立,完全忽略边之间的依赖关系,尤其是边的 “协同效应”(coalition effect),导致解释性子图存在两大问题:​
      1. 不可靠(unfaithful):无法真实反映 GNN 的决策逻辑,可能包含与预测无关的虚假关联边;
      2. 冗余(verbose):包含重复或对预测贡献微弱的边,解释效率低;
  2. 提出方法:Reinforced Causal Explainer(RC-Explainer)​
    • 方法定位:基于强化学习(RL)的智能体,专门解决现有方法忽略边依赖与协同效应的问题。​
    • 核心框架:序列决策过程:将解释子图的构建转化为 “逐步添加边” 的序列决策 —— 从空集开始,每次向已选子图中添加 1 条具有显著重要性的边,最终生成完整解释性子图。​
    • 技术细节:​
      1. 策略网络(Policy Network):负责预测 “添加边” 的动作,即判断当前应选择哪条边加入子图;​

      2. 奖励机制(Reward):量化所选边对 GNN 预测的因果效应(causal effect),核心作用是:​

        1. 考虑新添加边与已选边的依赖关系,判断二者是否能协同形成 “边联盟”(coalition);​

        2. 若协同效应强(对预测推动作用显著)则给予高奖励,反之则低奖励,避免冗余 / 无关边;​

      3. 训练目标:通过策略梯度(policy gradient)优化边序列的奖励总和,确保生成的解释性子图既可靠又简洁。​

  3. 方法优势与实验结果​
    • 核心优势:​
      1. 解释质量:生成的解释性子图更可靠(faithful)、更简洁(concise),能真实反映 GNN 决策逻辑;​

      2. 泛化能力:对未见过的图(unseen graphs)具有更好的泛化性,可适配不同类型的 GNN 模型。​

    • 实验验证:​
      • 实验场景:在 3 个图分类数据集上,对不同 GNN 模型进行解释;​
      • 评估维度:​
        • 定量指标:预测准确率(Predictive Accuracy,衡量子图还原 GNN 预测的能力)、对比度(Contrastivity,衡量类间解释的区分度);​
        • 定性验证:通过合理性检验(sanity checks)和可视化检查(visual inspections);​
      • 结果结论:RC-Explainer 在定量指标上达到或超越当前最先进方法(state-of-the-art),且顺利通过定性验证。​
  4. 补充信息​
    • 代码与数据可获取性:相关代码和数据集已开源,地址为 https://github.com/xiangwang1223/reinforced causal explainer。​
    • 关键词关联:紧密围绕图神经网络(GNNs)、特征归因(Feature Attribution)、可解释方法(Explainable Methods)、因果效应(Cause-Effect)四大核心方向,解决现有技术的因果性与边依赖缺失问题。

1 INTRODUCTION 

1.1 研究背景:GNN 的优势与可解释性需求

  1. GNN 的核心价值

    • 图神经网络(GNNs)在图结构数据相关任务中表现突出,其成功核心在于强大的表示学习能力—— 能以端到端的方式将图的结构信息融入特征表示,适配分子图、社交网络、场景图等各类图数据场景。

  2. 可解释性的必要性

    • 随着 GNN 在公平性、安全性、鲁棒性等关键实际应用(如药物分子毒性预测、社交网络风险识别)中的深入,可解释性成为影响其落地的核心因素。用户需要明确 “GNN 为何做出某一预测”,而非仅依赖黑箱输出。

1.2 研究聚焦的可解释性类型

  本文明确聚焦后验(post-hoc)、局部(local)、模型无关(model-agnostic) 的 GNN 可解释性,三大特性定义如下:

    • 后验(post-hoc):将待解释的 GNN 视为 “黑箱”,在模型训练完成后,通过额外的解释器分析其预测逻辑,不干预原模型训练过程。

    • 局部(local):针对单个图实例的预测结果进行解释(如解释某一特定分子为何被判定为致癌),而非对模型整体决策模式做全局分析。

    • 模型无关(model-agnostic):解释方法不绑定特定 GNN 结构,可适配 GCN、GIN、GAT、APPNP 等各类 GNN 模型,通用性强。

1.3 主流解释范式:特征归因与选择

  1. 范式核心逻辑

    • 特征归因与选择(Feature Attribution and Selection)是当前解释 GNN 的主流范式,核心流程为:

      1. 归因分配:将 GNN 的预测结果 “分配” 到输入图的特征(本文聚焦边特征,即结构特征)上,为每条边赋予 “重要性分数”;
      2. 子图构建:筛选重要性分数 Top 的边,组成 “解释性子图”,该子图被认为是推动 GNN 做出目标预测的关键结构。

  2. 现有归因方法的三大技术路径

  现有方法通过不同方式计算边的重要性分数,主要分为三类:

    1.基于梯度类信号(Gradient-like Signals)

      • 原理:通过将模型预测结果反向传播到图结构,获取边的梯度相关信号(如边权重的梯度),以梯度绝对值衡量重要性;
      • 代表方法:SA(Sensitivity Analysis)等。

    2.基于掩码 / 注意力分数(Masks/Attention Scores)

      • 原理:通过掩码函数或注意力网络生成边的掩码值或注意力权重,用 “经过掩码 / 注意力筛选的部分图” 逼近原模型预测,权重越高代表边越重要;
      • 代表方法:GNNExplainer、PGExplainer、ReFine 等。

    3.基于扰动的预测变化(Prediction Changes on Perturbations)

      • 原理:通过扰动图结构(如移除子图、修改边存在性),观察模型预测结果的变化,变化越大代表被扰动边越重要;部分方法通过计算 Shapley 值量化这种变化;
      • 代表方法:PGM-Explainer、SubgraphX、CXPlain 等。

1.4 现有方法的核心缺陷

  本文指出,现有归因方法存在两大未解决的关键问题,导致解释性子图质量不佳:

  1. 无法区分边的因果效应与关联效应

    • 核心问题:现有方法(如梯度类、注意力类)多从 “关联角度” 分析边与预测的关系,无法识别 “因果边”(真正推动预测的边)与 “非因果边”(仅与预测存在虚假关联的边)。
    • 实例佐证(分子图 mutagenicity 预测):氮 - 碳(N-C)键常与硝基(NO₂)共存,因此与 “致癌” 属性存在虚假关联,SA 等方法会将其列为重要边;但单独输入 N-C 键到 GNN,无法还原 “致癌” 预测,说明该边并非真实因果因素,解释结果不可靠(unfaithful)

  2. 忽略边之间的依赖关系与协同效应

    • 核心问题:现有方法默认 “边的重要性独立”,未考虑边之间的依赖关系 —— 实际中,边常通过 “协同作用” 形成 “边联盟(coalition)”,共同影响 GNN 预测,单独分析单条边的重要性会遗漏关键协同效应。
    • 实例佐证(分子图 mutagenicity 预测):
      • 单独的 N-C 键与 “N-C 键 + 碳 - 碳双键(C=C)” 对预测的提升差异极小(预测致癌概率仅从 0.31 升至 0.35),说明二者无有效协同;
      • 两条氮 - 氧双键(N=O)可形成硝基(NO₂),这是已知的致癌关键结构,输入两条 N=O 键时,预测致癌概率从 0.72(单条 N=O)升至 0.95,协同效应显著,但现有方法难以捕捉这种联盟作用,导致解释结果冗余(verbose) 或遗漏关键边。

1.5 本文解决方案的核心思路

  为解决上述缺陷,本文提出 “因果筛选策略(Causal Screening Strategy)”,核心逻辑如下:
    1. 序列添加边的筛选模式:解释性子图从空集开始,每次仅添加 1 条边,逐步构建,而非一次性筛选 Top-K 边;

    2. 因果效应评估依赖关系:添加边时,基于因果推断(causality)评估 “候选边与已选边的依赖关系”—— 通过对比 “已选边子图 + 候选边”(处理组)与 “仅已选边子图”(控制组)的 GNN 预测差异,计算候选边的 “个体因果效应(ICE)”;

    3. 筛选标准:若 ICE 为正,说明候选边与已选边形成有效联盟,为预测提供独特信息;若为负或接近零,说明候选边冗余或无关,不纳入解释性子图。
  在此基础上,本文进一步设计强化学习(RL)智能体 RC-Explainer,通过策略网络学习 “最优边选择序列”,实现高效的因果筛选,最终生成既可靠又简洁的解释性子图。

1.6 研究贡献

  1. 强调边的因果效应与依赖关系对 GNN 解释质量的关键作用,突破现有方法的 “边独立假设”;
  1. 将 GNN 解释任务转化为序列决策过程,提出 RL-based 的 RC-Explainer,从因果角度分析边依赖;
  1. 在三个数据集上通过定量指标(预测准确率、对比度)、合理性检验、可视化验证,证明 RC-Explainer 的有效性。

2 RELATED WORK

2.1 可解释性方法的核心分类框架

  本文首先明确可解释性研究领域的三大核心二分法,为后续相关工作梳理提供分类标准,具体如下:

  后验(Post-hoc)vs 内在(Intrinsic)

    1. 后验:通过额外的解释器对已训练完成的 “黑箱模型”(如 GNN)进行解释,不改变原模型结构与训练过程

    2. 内在:模型本身具备可解释性(如线性模型、决策树),无需额外解释器

  局部(Local)vs 全局(Global)

    1. 局部:针对单个数据实例(如图结构)的预测结果进行解释,回答 “为何该实例被预测为某类”

    2. 全局:对模型整体决策模式进行解释,揭示 “模型通常依据哪些特征做决策”

  模型无关(Model-agnostic)vs 模型特定(Model-specific)

    1. 模型无关:解释方法不绑定特定模型结构,可适配 GCN、GIN、APPNP 等各类 GNN

    2. 模型特定:为某类特定模型(如仅针对 GAT)定制解释逻辑,依赖模型内部组件

  本文研究严格聚焦后验、局部、模型无关的可解释性方法,后续相关工作梳理均围绕该方向展开。

2.2 非图神经网络(非 GNN)的可解释性方法

  非 GNN 场景(如 CNN、普通神经网络)的可解释性研究起步更早,形成了成熟的特征归因技术体系,本文将其归纳为三大类,为 GNN 可解释性方法提供借鉴:

  1. 基于反向传播的梯度类方法

    • 核心原理:通过反向传播将模型预测结果映射回输入特征,以 “梯度信号” 量化特征重要性 —— 梯度绝对值越大,代表该特征对预测结果的影响越显著。
    • 典型方法
      • Gradient:直接使用输入特征对模型输出的偏导数作为重要性分数;
      • GradCAM:在梯度基础上结合网络层的上下文信息(如 CNN 的卷积层特征图),提升梯度信号的可靠性,尤其适用于图像分类任务;
      • 其他延伸方法:通过对梯度进行归一化、平滑处理,解决梯度消失或噪声干扰问题。
    • 适用场景:适用于输入特征为连续值(如图像像素)或离散值(如文本词向量)的非图结构数据,计算效率高,但仅能捕捉特征与预测的 “关联关系”,无法区分因果。
  2. 基于可训练掩码 / 注意力的方法
    • 核心原理:引入额外的可训练网络(掩码网络或注意力网络),通过优化 “掩码 / 注意力筛选后的特征对模型预测的逼近程度”,学习特征的重要性 —— 掩码值 / 注意力权重越高,特征越重要。
    • 典型方法
      • L2X(Learning to Explain):训练特征掩码网络,以 “掩码特征与原模型预测的互信息最大化” 为目标,筛选出对预测最关键的特征子集;
      • 注意力网络延伸:在 Transformer 等模型中,直接利用原生注意力权重作为特征重要性,或为非注意力模型额外添加注意力层学习特征权重。
    • 适用场景:需要稀疏解释结果(如仅保留关键特征)的场景,但需额外训练掩码 / 注意力网络,且可能因网络过拟合导致解释结果失真。
  3. 基于输入扰动的方法
    • 核心原理:通过主动扰动输入特征(如遮蔽、移除、修改特征),观察模型预测结果的变化,以 “预测变化幅度” 衡量特征重要性 —— 扰动后预测偏差越大,特征对预测的贡献越关键。
    • 典型方法
      • CXPlain:通过遮蔽单个特征并计算 “遮蔽前后预测概率的差异”,量化特征的边际效应,同时考虑预测不确定性;
      • 其他延伸:通过随机扰动多个特征组合,分析特征间的交互作用,但计算成本较高。
    • 适用场景:需要验证特征 “必要性” 的场景(如移除特征后预测失效,说明特征是关键),但扰动方式可能破坏数据结构(如文本中移除关键词导致语义断裂),影响结果可靠性。

2.3 图神经网络(GNN)的可解释性方法

  GNN 因输入为图结构(含节点、边及拓扑关系),其可解释性方法在借鉴非 GNN 技术的基础上,需适配图的结构特性,本文将其分为三类,同时明确与本文方法的差异:

  1. 基于图结构梯度类信号的方法

    • 核心原理:将非 GNN 的梯度方法适配到图结构,通过反向传播计算 “模型输出对图结构特征(边权重、节点特征)的梯度”,以梯度信号衡量边 / 节点的重要性。
    • 典型方法
      • SA(Sensitivity Analysis):计算 GNN 损失函数对邻接矩阵(边存在性)的梯度,梯度绝对值作为边的重要性分数;
      • GNN-GradCAM:延伸 GradCAM 思想,结合 GNN 各层的节点表示上下文,优化梯度信号,提升边 / 节点重要性评估的准确性。
    • 局限性:与非 GNN 梯度方法类似,仅捕捉关联关系,易受图中虚假关联边(如与关键边共现但无关的边)干扰,且未考虑边间依赖关系。
  2. 基于图结构掩码 / 注意力的方法
    • 核心原理:为 GNN 设计专用的掩码或注意力机制,学习图结构特征(边、节点)的重要性,适配图的拓扑依赖性。
    • 典型方法
      • GNNExplainer:为每个图实例单独训练边掩码,以 “掩码子图的预测与原图预测的相似度最大化 + 掩码稀疏性最大化” 为目标,筛选关键边;
      • PGExplainer(Parameterized Explainer):训练一个共享的参数化网络,为多个图实例生成边掩码,避免 GNNExplainer “单图单训练” 的低效问题;
      • ReFine:先在类别级图数据上预训练注意力网络,学习全局类别相关的重要特征模式,再针对单个图实例微调局部注意力,平衡全局与局部解释。
    • 局限性:多数方法仍假设 “边的重要性独立”,忽略边间的协同效应(如分子图中硝基的 N=O 键联盟);且部分方法(如 GNNExplainer)为单图训练掩码,计算成本高,泛化性差。
  3. 基于图结构扰动的方法
    • 核心原理:通过扰动图的结构(如移除节点、删除边、修改边连接关系),观察 GNN 预测变化,量化边 / 节点的重要性,部分方法结合概率模型或搜索算法优化扰动效率。
    • 典型方法
      • PGM-Explainer(Probabilistic Graphical Model Explainer):对节点进行随机扰动,基于扰动 - 预测数据学习贝叶斯网络,识别对预测有显著影响的节点子集;
      • SubgraphX:采用蒙特卡洛树搜索(MCTS)算法探索不同子图组合,结合 Shapley 值量化子图对预测的贡献,筛选最优解释性子图;
      • CXPlain(GNN 适配版):通过遮蔽图中的边,计算遮蔽前后预测概率的差异,评估边的重要性。
    • 局限性:Shapley 值计算复杂度随图规模指数增长,难以应用于大图;部分扰动方法(如随机移除边)可能破坏图的连通性,导致 GNN 无法正常提取特征,影响预测变化评估的准确性。
  4. 特殊对比方法:XGNN
    • 方法特点:聚焦 “模型级(Model-level)” 解释,旨在揭示 GNN 整体决策依赖的 “原型模式”(如某类分子的共同结构),而非针对单个图实例的局部解释;
    • 与本文差异:XGNN 的解释结果可能不是输入图中真实存在的子结构,无法保证 “局部保真度”(Local Fidelity);而本文 RC-Explainer 为局部解释,解释子图是输入图的子集,且结合全局模型认知保证保真度。

2.4 本文方法与相关工作的核心差异

  本文 RC-Explainer 与现有 GNN 可解释性方法的关键区别在于突破 “边独立假设”

    1. 现有方法(如 SA、GNNExplainer、PGM-Explainer)多独立评估单条边的重要性,忽略边间依赖与协同效应;

    2. 本文将解释任务重构为序列决策过程,通过因果效应评估 “候选边与已选边的依赖关系”,明确捕捉边的联盟作用(如硝基的 N=O 键协同),最终生成更可靠、简洁的解释性子图。

3 PRELIMINARIES

3.1 图神经网络(GNN)背景知识

  图数据的形式化定义

    • 单图实例:用 $ \mathcal{G} = \{e \mid e \in \mathcal{E}\} $ 表示,其中一条边 $ e = (v, u) \in \mathcal{E} $ 连接两个节点 $ v, u \in \mathcal{V} $ ( $ \mathcal{V} $ 为节点集合, $ \mathcal{E} $ 为边集合),边的核心作用是突出图的 “结构特征”(即边的存在性及其端点关联)。
    • 节点特征:每个节点 $ v $ 配备 $ d $ - 维特征向量 $ x_v \in \mathbb{R}^d $ ,是 GNN 学习表示的重要输入(本文暂不聚焦节点特征解释,仅关注边的结构特征)。

3.2 GNN 可解释性任务描述

  1. 任务核心目标:回答核心问题:“给定目标图实例 $ \mathcal{G} $ ,是什么因素决定了 GNN 模型 $ f $ 输出预测结果 $ \hat{y}_c $ ?”

    本文采用特征归因(Feature Attribution) 范式实现该目标 —— 这是局部、后验、模型无关可解释性的主流技术。

  2. 任务形式化定义

    • 核心操作:将 GNN 的预测结果 $ \hat{y}_c $ 分解到输入图的结构特征(即边)上,为每条边分配 “重要性分数”,衡量其对预测 $ \hat{y}_c $ 的贡献度。
    • 最终输出:筛选重要性分数 Top-K 的边,构建 “解释性子图” $ \mathcal{G}_K^* = \{e_1^*, \cdots, e_K^*\} \subseteq \mathcal{G} $ ,其中 $ e_k^* $ 为第 $ k $ 重要的边。
    该子图需满足 “忠实性”—— 能为 GNN 的预测 $ \hat{y}_c $ 提供明确支持,即输入 $ \mathcal{G}_K^* $ 到 GNN,应能近似还原原预测 $ \hat{y}_c $ 。

  3. 任务范围限定

    本文明确聚焦结构特征(边的存在性及其端点) 的解释,暂不涉及 “节点内容特征(如节点属性 $ x_v $ )” 的归因 —— 节点特征的重要性识别被列为未来研究方向,当前仅通过边的筛选构建解释性子图。

4 METHODOLOGY

  image

4.1 章节核心目标

  本章围绕 “生成忠实且简洁的 GNN 解释性子图” 展开,先指出 “整体子图因果归因” 的局限性,再提出 “边序列因果筛选” 策略,最终设计基于强化学习的RC-Explainer实现该策略,核心解决 “边的因果效应识别” 与 “边间依赖关系捕捉” 两大关键问题。

4.2 第一步:整体子图的因果归因(基础框架与局限)

1. 核心思路

  从因果推断视角定义 “子图重要性”,通过优化 “子图对预测的因果贡献” 筛选最优解释性子图。形式化目标为:

     $ \mathcal{G}_K^* = \arg\max_{\mathcal{G}_K \subseteq \mathcal{G}} A(\mathcal{G}_K \mid \hat{y}_c) $

    其中:

      • $ \mathcal{G}_K $ :含 K 条边的候选子图( $ |\mathcal{G}_K|=K $ );
      • $ A(\cdot) $ :归因函数,量化子图对目标预测 $ \hat{y}_c = f(\mathcal{G}) $ 的因果效应;

  目标:在所有含 K 条边的子图中,选择因果贡献最大的 $ \mathcal{G}_K^* $ 作为解释性子图。

2. 因果归因函数的设计(基于干预与互信息)

  为避免 “关联关系干扰”,引入因果推断中的 do(·)(干预操作) 定义归因函数 $ A(\mathcal{G}_K \mid \hat{y}_c) $ :
  • 干预操作
    • 处理组: $ do(\mathcal{G} = \mathcal{G}_K) $ ,即强制 GNN 输入为候选子图 $ \mathcal{G}_K $ ;
    • 控制组: $ do(\mathcal{G} = \emptyset) $ ,即强制 GNN 输入为空图(无信息参考)。
  • 个体因果效应(ICE):通过对比处理组与控制组的 “子图 - 预测互信息” 差异,量化子图的因果贡献,公式如下:

     $ A(\mathcal{G}_K \mid \hat{y}_c) = I(do(\mathcal{G}_K); \hat{y}_c) - I(do(\emptyset); \hat{y}_c) $

    其中

      • $ I(\cdot; \cdot) $ 为互信息,衡量 “干预后子图” 与 “目标预测 $ \hat{y}_c $ ” 的信息关联度;

      • $ I(do(\mathcal{G}_K); \hat{y}_c) = H(\hat{y}_c) - H(\hat{y}_c \mid do(\mathcal{G}_K)) $ ( $ H(\cdot) $ 为熵, $ H(\hat{y}_c \mid do(\mathcal{G}_K)) $ 为干预后预测的条件熵)。

3. 局限性(为何需改进)

  直接优化上述目标存在两大障碍,无法落地:
    • 计算复杂度高(NP-hard):候选子图数量随边数呈指数增长(如含 M 条边的图,选 K 条边的组合数为 $ C(M, K) $ ),无法遍历所有可能子图;
    • 缺乏组件级解释:仅能评估子图整体的因果贡献,无法区分子图中 “关键边” 与 “冗余边”,不符合 “局部解释需明确个体特征重要性” 的需求。

4.3 第二步:边序列的因果筛选(核心改进策略)

  为解决整体子图归因的局限,提出因果筛选策略—— 将 “一次性选 K 条边” 转化为 “逐步添加边” 的序列过程,动态评估每条边的因果效应及与已选边的依赖关系。

1. 策略核心逻辑

  • 初始状态:解释性子图从空集 $ \mathcal{G}_0^* = \emptyset $ 开始;
  • 序列选择:第 k 步( $ k=1,2,\cdots,K $ )从剩余边候选池 $ \mathcal{O}_k = \mathcal{G} \setminus \mathcal{G}_{k-1}^* $ 中,选择 1 条边 $ e_k^* $ 加入子图,更新为 $ \mathcal{G}_k^* = \mathcal{G}_{k-1}^* \cup \{e_k^*\} $ ;
  • 选择准则:第 k 步的最优边 $ e_k^* $ 需最大化 “给定已选子图 $ \mathcal{G}_{k-1}^* $ 时,边 $ e_k $ 对预测的因果效应”,形式化目标为:
     $ e_k^* = \arg\max_{e_k \in \mathcal{O}_k} A(e_k \mid \mathcal{G}_{k-1}^*, \hat{y}_c) $

2. 边级因果效应的计算(关键改进)

  归因函数 $ A(e_k \mid \mathcal{G}_{k-1}^*, \hat{y}_c) $ 专门评估 “候选边与已选边的依赖关系”,通过干预对比实现:

  • 干预操作
    • 处理组: $ do(\mathcal{G} = \mathcal{G}_{k-1}^* \cup \{e_k\}) $ ,输入 “已选子图 + 候选边”;
    • 控制组: $ do(\mathcal{G} = \mathcal{G}_{k-1}^*) $ ,输入 “仅已选子图”。
  • 因果效应公式

     $ A(e_k \mid \mathcal{G}_{k-1}^*, \hat{y}_c) = I(do(\mathcal{G}_{k-1}^* \cup \{e_k\}); \hat{y}_c) - I(do(\mathcal{G}_{k-1}^*); \hat{y}_c) $

    进一步化简为条件熵差异(结合图分类任务的概率特性):

     $ A(e_k \mid \mathcal{G}_{k-1}^*, \hat{y}_c) = -p_{\theta}(\hat{y}_c \mid \mathcal{G}) \log \frac{p_{\theta}(\hat{y}_c \mid \mathcal{G}_{k-1}^*)}{p_{\theta}(\hat{y}_c \mid \mathcal{G}_{k-1}^* \cup \{e_k\})} $

    其中

      • 符号含义: $ p_{\theta}(\hat{y}_c \mid \cdot) $ 为 GNN 对目标类别 $ \hat{y}_c $ 的预测概率;

    结果解读:若值为正,说明候选边与已选边形成 “有效联盟”,为预测提供独特信息;若为负 / 接近零,说明候选边冗余或无关。

3. 贪心穷举搜索的局限(为何引入 RL)

  直接通过 “贪心穷举” 实现因果筛选(计算所有候选边的 A 值,选最大者)存在缺陷:
    • 缺乏全局认知:逐图单独解释,无法学习不同图间的共性模式(如类别级关键边联盟),泛化性差;
    • 计算效率低:每步需遍历所有候选边,大图场景(如社交网络)中候选边数量多,时间复杂度为 $ O(2(|\mathcal{G}|-K) \times K/2) $ ,难以落地。

4.4 第三步:RC-Explainer 设计(强化学习实现因果筛选)

  为解决贪心搜索的局限,将 “边序列因果筛选” 建模为马尔可夫决策过程(MDP),设计强化学习智能体 RC-Explainer,通过策略网络学习 “全局最优边选择策略”。

1. MDP 建模:四大核心组件

  • 状态(State):第 k 步状态 $ s_k = \mathcal{G}_k $ (已选边构成的子图),初始状态 $ s_0 = \emptyset $

  • 动作(Action):第 k 步动作 $ a_k = e_k $ (从候选池 $ \mathcal{O}_k = \mathcal{G} \setminus \mathcal{G}_{k-1} $ 选 1 条边加入子图)

  • 状态转移:执行动作 $ a_k = e_k $ 后,状态从 $ s_{k-1} = \mathcal{G}_{k-1} $ 转移为 $ s_k = \mathcal{G}_{k-1} \cup \{e_k\} $

  • 奖励(Reward):量化动作质量,结合 “边的因果效应” 与 “子图预测有效性”,公式见下文

  奖励函数设计(核心引导信号)

  奖励 $ R(\mathcal{G}_{k-1}, e_k) $ 同时保证 “边的因果有效性” 与 “子图的预测忠实性”:

     $ R(\mathcal{G}_{k-1}, e_k) = \begin{cases} A(e_k \mid \mathcal{G}_{k-1}, \hat{y}_c) + 1, & \text{若 } f_{\theta}(\mathcal{G}_{k-1} \cup \{e_k\}) = \hat{y}_c \\ A(e_k \mid \mathcal{G}_{k-1}, \hat{y}_c) - 1, & \text{否则} \end{cases} $

  • 正向奖励:若候选边的因果效应为正(有效),且加入后子图仍能正确预测 $ \hat{y}_c $ ,额外加 1;
  • 负向惩罚:若加入候选边后子图预测错误,额外减 1,避免选择 “破坏预测” 的边。

2. 策略网络(Policy Network):学习边选择概率

  策略网络 $ q_{\phi} $ (参数为 $ \phi $ )的核心是 “给定当前状态 $ \mathcal{G}_{k-1} $ 与目标预测 $ \hat{y}_c $ ,输出候选边的选择概率”,分两步实现:

  Step1:动作候选表示学习(边的特征编码)

  为每条候选边 $ e_k = (v, u) $ 生成表示向量,捕捉边的结构与特征信息:

     $ z_{e_k} = MLP_1([z_v \parallel z_u \parallel x_{e_k}]) $

  • 组件说明:
    • $ z_v, z_u $ :边端点 $ v, u $ 的节点表示,由另一个训练的 GNN 模型 $ g_{\mu} $ (参数 $ \mu $ 可训练)生成;
    • $ x_{e_k} $ :边的预定义特征(无特征时可忽略);
    • $ \parallel $ :向量拼接操作;
    • $ MLP_1 $ :单隐藏层 MLP(激活函数为 ReLU),输出边表示 $ z_{e_k} \in \mathbb{R}^{d''} $ 。

  Step2:动作选择概率计算(类特异性评分)

  结合 “边表示” 与 “当前子图表示”,计算每条候选边的选择重要性,再通过 Softmax 转化为概率:

  ① 子图表示:当前子图 $ \mathcal{G}_{k-1} $ 的表示 $ z_{\mathcal{G}_{k-1}} $ ,由 GNN $ g_{\mu} $ 对 $ \mathcal{G}_{k-1} $ 做图级读出得到;

  ② 重要性评分:用类特异性 MLP(对应目标类别 $ \hat{y}_c $ )计算边的重要性:

     $ p_{e_k} = MLP_{2,c}([z_{e_k} \parallel z_{\mathcal{G}_{k-1}}]) $

  ③ 概率分布:对所有候选边的 $ p_{e_k} $ 做 Softmax,得到选择概率:

     $ P_{\phi}(e_k \mid \mathcal{G}_{k-1}, \hat{y}_c) = Softmax_{\mathcal{A}_k}(p_{e_k}) $
 
  其中 $ \mathcal{A}_k $ 为第 k 步候选边集合,类特异性 MLP 确保网络学习 “类别相关的边选择模式”(如致癌分子中优先选 N=O 键)。

3. 策略梯度训练(优化策略网络)

  因边选择是离散动作,无法直接用 SGD 优化,采用REINFORCE 算法(策略梯度方法)最大化 “奖励期望”,训练目标为:

     $ \max_{\phi} \mathbb{E}_{\mathcal{G} \in \mathcal{O}} \mathbb{E}_k \left[ R(\mathcal{G}_{k-1}, e_k) \log P_{\phi}(e_k \mid \mathcal{G}_{k-1}, \hat{y}_c) \right] $

  • 优化逻辑:通过梯度上升,增加 “高奖励动作” 的选择概率 —— 即让网络更倾向于选择 “因果效应强、能维持子图预测正确” 的边,最终学习到全局最优的边选择序列。

4.5 关键讨论:时间复杂度与潜在局限

1. 时间复杂度分析

  解释单图 $ \mathcal{G} $ 的时间主要来自两部分:
    • 节点表示学习:GNN $ g_{\mu} $ 生成节点表示的复杂度为 $ O(\sum_{l=1}^L |\mathcal{G}| \times d_l \times d_{l-1}) $ ( $ d_l $ 为第 l 层表示维度);
    • 边选择过程:第 k 步生成候选边表示的复杂度为 $ O(|\mathcal{A}_k| \times 2d' \times d'') $ ,预测动作的复杂度为 $ O(|\mathcal{A}_k| \times d'') $ ,总复杂度为 $ O(\sum_{k=1}^K |\mathcal{A}_k| \times (2d' \times d'' + d'')) $ ;

  整体结论:中小规模图上效率优于 GNNExplainer、PGM-Explainer,但大规模图因候选边多(动作空间大),效率仍需优化。

2. 潜在局限

  • 大规模图效率问题:动作空间随边数增长,导致边选择概率计算耗时,需后续优化动作空间剪枝;
  • OOD(分布外)问题:干预生成的子图(如仅含少量边)可能偏离原数据分布(如不符合原图的度分布、连通性),导致因果效应评估失真,需结合反事实生成解决。

4.6 本章核心价值

  • 方法创新:首次将 “因果筛选” 与 “强化学习” 结合,突破 “边独立假设”,同时捕捉边的因果效应与依赖关系;

  • 落地性:通过策略网络学习全局模式,既保证解释的忠实性(因果效应引导),又提升泛化性(适配 unseen 图)与效率(避免穷举),为后续实验验证奠定方法基础。

5 EXPERIMENTS

5.1 实验基础:数据集介绍

  实验采用 3 个主流图分类数据集,覆盖分子图、社交网络、场景图三大典型场景,分别训练不同 GNN 作为待解释模型,数据集详情与模型配置如下表所示:

维度 Mutagenicity(分子图) REDDIT-MULTI-5K(社交网络) Visual Genome(场景图)
图数量 4,337 4,999 4,443
类别数量 2(致癌 / 非致癌) 5(不同问答社区主题) 5(体育馆、街道、农场、冲浪、森林)
平均节点数 30.32 508.52 35.32
平均边数 30.77 594.87 18.04
数据划分比例 训练集:验证集:测试集 = 80%:10%:10% 训练集:验证集:测试集 = 80%:10%:10% 训练集:验证集:测试集 = 80%:10%:10%
数据特点 边对应分子中原子间化学键,标签基于分子对细菌的致癌性 边对应用户间交互关系,标签为社区讨论主题 边对应图像中物体间关系,节点含图像区域特征

5.2 对比基线方法(Baselines)介绍

  实验选取 6 种主流 GNN 可解释性方法作为基线,覆盖梯度类、掩码类、注意力类、扰动类四大类型,具体如下:

方法类型 方法名称 核心原理 适配场景与特点
梯度类

SA(Sensitivity Analysis) 通过反向传播计算 GNN 损失函数对邻接矩阵(边存在性)的梯度,以梯度绝对值作为边重要性分数 计算速度快,无需额外训练,但易受梯度噪声干扰,无法区分因果与关联关系
梯度类

Grad-CAM(GNN 适配版) 结合 GNN 各层节点表示的上下文信息优化梯度信号,提升边 / 节点重要性评估的可靠性 比 SA 更稳定,可捕捉局部结构上下文,在含节点特征的场景(如 Visual Genome)表现较好
掩码类 GNNExplainer 为每个图实例单独训练边掩码,以 “掩码子图预测与原图预测相似度最大化 + 掩码稀疏性最大化” 为目标筛选关键边 可生成稀疏解释性子图,但需为单图单独训练,计算成本高,泛化性差
注意力类 PGExplainer(Parameterized Explainer) 训练共享参数化网络为多个图生成边掩码,避免 GNNExplainer “单图单训” 的低效问题

比 GNNExplainer 泛化性更强,可学习类别级边选择模式,但仍忽略边间协同效应
扰动类 CXPlain(GNN 适配版) 通过遮蔽单条边并计算 “遮蔽前后预测概率差异”,量化边的边际效应,考虑预测不确定性 基于扰动验证边的必要性,可捕捉部分因果关系,但扰动可能破坏图连通性影响结果
扰动类 PGM-Explainer(Probabilistic Graphical Model Explainer) 对节点进行随机扰动,基于扰动 - 预测数据学习贝叶斯网络,识别对预测有显著影响的节点 / 边 可建模特征间依赖关系,但 Shapley 值计算复杂度高,大图场景难以应用

5.3 实验内容与对应结论

  实验围绕 “RC-Explainer 是否能生成更合理的 GNN 解释” 展开,从定量指标(预测准确率、对比度、合理性检验)、时间复杂度、可视化验证三个维度设计实验,具体内容与结论如下:

5.3.1 实验一:预测准确率评估(衡量解释子图的忠实性)​  

  image

  image

  实验内容

    • 核心指标
      • ACC@K:选择占原图 10%(K=⌈10%×|G|⌉)的边构成解释性子图,输入 GNN 后还原原预测的准确率,衡量子图对预测的支撑能力;
      • ACC-AUC:绘制不同选择比例(0.1~1.0)下的 ACC 曲线,计算曲线下面积,综合评估子图在不同稀疏度下的忠实性。
    • 实验操作:在 3 个数据集上分别计算 RC-Explainer 与 6 种基线的 ACC@10% 和 ACC-AUC,重复 5 次取平均值。
  实验结论
    • RC-Explainer 在 3 个数据集上表现最优:
      • Mutagenicity 的 ACC@10% 达 98.6%,远超次优基线 CXPlain(86.8%),ACC-AUC 为 0.964(接近最优保真度);
      • REDDIT-MULTI-5K 的 ACC@10% 达 47.2%,比次优基线 PGM-Explainer(30.0%)提升 25.51%;
      • Visual Genome 的 ACC@10% 达 97.6%,与最优基线 Grad-CAM(89.4%)相比仍显著领先,仅 ACC-AUC(0.901)略低于 Grad-CAM(0.917)。
    • 关键原因:RC-Explainer 的 “因果筛选” 能区分因果边与虚假关联边,同时捕捉边的协同效应(如分子图中硝基的 N=O 键联盟),减少冗余边,提升子图忠实性。

5.3.2 实验二:对比度评估(衡量解释的类间区分度)​  

  image

  实验内容
    • 核心指标:对比度(CST),通过计算 “目标类别与其他类别(标签置换后)的边重要性排名的斯皮尔曼相关系数绝对值” 衡量解释的类间差异 ——CST 值越低,说明类间解释区分度越高。
    • 实验操作:对每个图实例,置换其预测标签为其他类别,计算 RC-Explainer 与基线在不同类别下的边重要性排名相关性,取平均值作为 CST。
  实验结论
    • RC-Explainer 的解释具有优秀的类间区分度:
      • Visual Genome 中 CST 最低(0.306),说明其能为 “街道”“森林” 等不同场景生成差异显著的解释(如 “街道” 优先选 “车 - 在 - 路” 边,“森林” 优先选 “树 - 在 - 地面” 边);
      • Mutagenicity 中 CST 排名第二(0.311),仅略高于 PGExplainer(0.202),可有效区分 “致癌” 与 “非致癌” 分子的关键边(致癌分子选 N=O 键,非致癌分子选 C-H 键);
      • REDDIT-MULTI-5K 中 CST 排名第四(0.481),因大图中随机添加的冗余边轻微提升了类间排名相关性,但仍优于 SA、Grad-CAM 等基线。
  对比度(Contrastivity, CST):衡量解释的类间区分度

    1. 核心定义与设计初衷

      • 定义:对比度是评估 GNN 解释方法 “类间解释区分能力” 的定量指标,核心逻辑是:合理的解释应随目标预测类别的变化而显著变化—— 即对同一图实例,若预测类别从 A 变为 B,解释性子图的关键边应完全不同,而非重复或高度相似。
      • 设计初衷:解决现有解释方法 “类间解释同质化” 问题(如部分梯度类方法对不同类别预测输出相似的重要边排名),确保解释能反映模型对不同类别的决策边界差异,符合人类对 “不同类别需不同依据” 的认知逻辑。

    2. 计算原理与公式

      • 核心思路:通过 “标签置换” 构建 “类间对比场景”,再用斯皮尔曼等级相关系数(Spearman's Rank Correlation) 量化 “原类别解释” 与 “置换类别解释” 的相似性 —— 相似性越低,对比度越好(CST 值越小)。
      • 具体步骤
        1. 确定目标与对比类别:对任意图实例 $ \mathcal{G} $ ,设其原预测类别为 $ \hat{y}_c $ ,从其他类别中随机选择一个置换类别 $ s $ ( $ s \neq \hat{y}_c $ );

        2. 生成两类解释的边重要性排名:用解释方法分别为 $ \hat{y}_c $ 和 $ s $ 生成所有边的重要性分数,再对两条边分数序列按从高到低排序,得到两个 “边重要性排名列表” $ \Phi(\mathcal{G}, \hat{y}_c) $ (原类别)和 $ \Phi(\mathcal{G}, s) $ (置换类别);

        3. 计算等级相关系数:计算 $ \Phi(\mathcal{G}, \hat{y}_c) $ 与 $ \Phi(\mathcal{G}, s) $ 的斯皮尔曼等级相关系数 $ \rho $ ,取其绝对值 $ |\rho| $ ;

        4. 求期望得到 CST:对所有图实例、所有可能的置换类别 $ s $ 求平均,得到最终的对比度分数:

        5. $ CST = \mathbb{E}_{\mathcal{G} \sim \mathbb{G}} \mathbb{E}_{s \neq \hat{y}}[|\rho(\Phi(\mathcal{G}, s), \Phi(\mathcal{G}, \hat{y}_c))|] $

      • 符号说明: $ \mathbb{G} $ 为图实例集合, $ \Phi(\mathcal{G}, \cdot) $ 为解释方法输出的边重要性分数序列, $ |\rho(\cdot)| $ 为斯皮尔曼等级相关系数的绝对值(范围:0~1)。

    3. 结果解读标准

      • CST 值越低越好
      • 若 $ CST \approx 0 $ :说明 “原类别解释” 与 “置换类别解释” 的边重要性排名几乎无关,解释具备极强的类间区分度(如为 “街道” 场景选 “车 - 在 - 路” 边,为 “森林” 场景选 “树 - 在 - 地面” 边);
      • 若 $ CST \approx 1 $ :说明两类解释的边排名高度相似,解释不具备类间区分能力(如无论预测为 “致癌” 还是 “非致癌”,均优先选择 C-H 键),无法反映模型的类间决策差异。

5.3.3 实验三:合理性检验(验证解释的模型依赖性)

  实验内容
    • 核心指标:合理性检验分数(SC),对比 “训练完成的 GNN” 与 “参数随机初始化的未训练 GNN” 的边重要性排名相关性 ——SC 值越低,说明解释依赖 GNN 的真实决策逻辑,而非随机特征,通过检验。
    • 实验操作:分别为训练 GNN 和未训练 GNN 生成解释,计算边重要性排名的斯皮尔曼相关系数绝对值,取平均值作为 SC。
  实验结论
    • RC-Explainer 安全通过合理性检验:
      • Mutagenicity 的 SC 为 0.248(排名第三),远低于 PGM-Explainer(0.597),说明其解释不依赖随机特征,能反映 GNN 的真实决策;
      • Visual Genome 的 SC 为 0.309(排名第二),仅高于 CXPlain(0.266),验证了解释与 GNN 模型的强关联性;
      • REDDIT-MULTI-5K 的 SC 为 0.465(排名第四),虽高于部分基线,但仍低于 Grad-CAM(0.537)、CXPlain(0.696),说明其解释具备模型依赖性。  

  合理性检验分数(Sanity Check Score, SC):验证解释的模型依赖性

  1. 核心定义与设计初衷

    • 定义:合理性检验分数是评估 GNN 解释方法 “是否依赖目标模型真实决策逻辑” 的定量指标,核心逻辑是:可靠的解释应仅对 “训练完成的 GNN” 有效,对 “随机初始化的未训练 GNN” 无效—— 即解释是基于模型学到的规律,而非输入图的随机特征(如边的高频出现但无关预测)。
    • 设计初衷:揭露 “伪解释”(如部分方法的解释仅与图的固有结构相关,与模型决策无关),确保解释能真实反映目标 GNN 的内部工作机制,而非无意义的随机筛选。

  2. 计算原理与公式

  核心思路通过对比 “训练 GNN” 与 “未训练 GNN” 的解释结果相似性 —— 若相似性低,说明解释依赖模型学到的规律(通过检验);若相似性高,说明解释与模型无关(未通过检验)。

  具体步骤

    1. 构建两个对比模型

      1. 模型 1(训练 GNN):已在数据集上训练完成、具备良好分类性能的目标 GNN(如 Mutagenicity 上准确率 0.806 的 GIN);

      2. 模型 2(未训练 GNN):与模型 1 结构完全一致,但所有参数随机初始化(无任何决策能力,预测接近随机);

    2. 生成两类解释的边重要性排名:用同一解释方法分别为模型 1 和模型 2 生成同一图实例 $ \mathcal{G} $ 的边重要性分数,再按从高到低排序,得到两个排名列表 $ \Phi(\mathcal{G}, f(\mathcal{G})) $ (训练 GNN)和 $ \Phi(\mathcal{G}, \overline{f}(\mathcal{G})) $ (未训练 GNN);

    3. 计算等级相关系数:计算两个排名列表的斯皮尔曼等级相关系数 $ \rho $ ,取其绝对值 $ |\rho| $ ;

    4. 求期望得到 SC:对所有图实例求平均,得到最终的合理性检验分数:

      $ SC = \mathbb{E}_{\mathcal{G} \sim \mathbb{G}}[|\rho(\Phi(\mathcal{G}, f(\mathcal{G})), \Phi(\mathcal{G}, \overline{f}(\mathcal{G})))|] $
    • 符号说明: $ f(\mathcal{G}) $ 为训练 GNN 的预测结果, $ \overline{f}(\mathcal{G}) $ 为未训练 GNN 的预测结果,其他符号与 CST 一致。

  3. 结果解读标准

    • SC 值越低越好
    • 若 $ SC \approx 0 $ :说明 “训练 GNN 的解释” 与 “未训练 GNN 的解释” 几乎无关,解释依赖模型学到的决策逻辑(如识别分子图中的致癌结构、场景图中的物体关系),通过合理性检验;
    • 若 $ SC \approx 1 $ :说明两类解释高度相似,解释仅与图的随机特征相关(如优先选择度数高的边),与模型决策无关,属于 “伪解释”,未通过检验。

  4. 实验中 SC 的关键结果(呼应原文)

    • RC-Explainer 安全通过合理性检验,证明其解释依赖目标 GNN 的真实决策:
      • Mutagenicity(分子图):SC=0.248(排名第三),远低于 PGM-Explainer(0.597),说明其解释是基于 GIN 学到的 “致癌分子结构规律”,而非分子图的随机边特征;
      • Visual Genome(场景图):SC=0.309(排名第二),仅高于 CXPlain(0.266),验证其解释依赖 APPNP 学到的 “场景 - 物体关系映射”(如 “街道” 与 “车 - 路” 关系的关联);
      • REDDIT-MULTI-5K(社交网络):SC=0.465(排名第四),虽高于 GNNExplainer(0.040)等少数基线,但仍低于 Grad-CAM(0.537)、CXPlain(0.696),说明其解释未受未训练 k-GNN 的随机预测干扰。

  5.CST 与 SC 的核心差异对比

对比维度
对比度(CST)
合理性检验分数(SC)
核心评估目标
解释的 “类间区分度”—— 不同类别预测需不同解释
解释的 “模型依赖性”—— 解释需依赖训练 GNN 的决策逻辑
对比对象
同一图实例的 “原类别解释” 与 “置换类别解释”
同一图实例的 “训练 GNN 解释” 与 “未训练 GNN 解释”
结果优化方向
越低越好(类间解释差异越大)
越低越好(解释越依赖训练模型)
核心作用
确保解释能反映模型的类间决策边界
排除 “伪解释”,验证解释的模型关联性
在实验中的意义
证明 RC-Explainer 能为不同类别生成差异化解释
证明 RC-Explainer 的解释基于 GNN 学到的规律,非随机

5.3.4 实验四:时间复杂度评估(衡量解释效率)

  实验内容
    • 核心指标:单图解释时间(秒),统计 RC-Explainer 与基线在 3 个数据集上生成解释的平均推理时间,衡量方法的效率。
    • 实验操作:在相同硬件环境下,分别对测试集中所有图生成解释,记录单图平均耗时。
  实验结论
    • RC-Explainer 在中小规模图上效率优势显著:
    • Mutagenicity(平均边数 30.77)单图耗时 0.68 秒,远快于 GNNExplainer(2.57 秒)、PGM-Explainer(1.19 秒);
    • Visual Genome(平均边数 18.04)单图耗时 0.339 秒,仅慢于梯度类方法(SA:0.015 秒、Grad-CAM:0.015 秒),快于其他基线;
    • 大规模图(REDDIT-MULTI-5K,平均边数 594.87)耗时 23.8 秒,虽慢于梯度类和 PGExplainer,但远快于 CXPlain(13.4 秒)、PGM-Explainer(64.2 秒),主要因大图动作空间大导致,后续可通过剪枝优化。

5.3.5 实验五:可视化验证(直观验证解释合理性)

  实验内容
    • 实验操作:选取 Mutagenicity(分子图)和 Visual Genome(场景图)的典型实例,可视化 RC-Explainer 与基线生成的解释性子图(突出显示 Top20% 重要边),对比关键边的捕捉能力。
  实验结论
    • RC-Explainer 能精准捕捉因果关键边:
      • 分子图(致癌预测):RC-Explainer 可同时捕捉两个硝基的 N=O 键(形成致癌关键联盟),而基线(如 SA、GNNExplainer)仅能捕捉 1 条 N=O 键或误选 N-C 等虚假关联边;
      • 场景图(街道预测):RC-Explainer 优先选择 “车 - 在 - 路”“货车 - 在 - 街道” 等因果边,基线(如 PGM-Explainer)易关注 “树 - 在 - 街道” 等冗余边;
      • 失败案例:当选择比例超过 10%(如 μ=0.2)时,RC-Explainer 可能添加与已选边不连通的冗余边(如场景图中 “灯 - 在 - 路”),导致子图偏离原分布(OOD 问题),轻微降低预测准确率。

5.4 实验整体总结

  RC-Explainer 在 3 个数据集、多维度评估中均展现出显著优势:

    1. 解释质量:预测准确率(忠实性)、对比度(类间区分度)均优于或 comparable 于当前最先进方法,可视化验证证明其能捕捉真实因果边与协同联盟;

    2. 可靠性:通过合理性检验,解释依赖 GNN 真实决策逻辑,而非随机特征;

    3. 效率:中小规模图上效率远超掩码类、扰动类基线,大规模图效率仍有优化空间;

    4. 局限:大规模图动作空间大、OOD 子图可能影响因果评估,需后续通过动作剪枝、反事实生成解决。

 

相关文章:

RC-Explainer | Reinforced Causal Explainer for Graph Neural Networks

论文信息论文标题:Reinforced Causal Explainer for Graph Neural Networks论文作者:Xiang Wang, Yingxin Wu, An Zhang, Fuli Feng, Xiangnan He, Tat-Seng Chua论文来源:论文地址:link论文代码:linkAbstract ​  1. 研究核心背景:GNN 可解释性的重要性与现有方法缺陷…...

批量遍历文件夹内得文件生成md5值

#!/bin/sh# 定义输出文件名 output_file="output.txt"# 清空或创建输出文件 : > "$output_file"# 遍历当前目录下的所有文件(不包括子目录) for file in *; do# 跳过目录和特殊文件if [ -f "$file" ]; then# 计算MD5并提取值(兼容文件名中…...

使用源码启动 seata tc server

使用源码启动 seata tc server1.概述 最近在集成seata的时候,由于官方并没有直接的集成文档,因此在使用的时候会有一些问题,问AI有时又不好解决,这个时候通过源码分析问题就很有必要,本文介绍一下如何启动 server server。 2.实现过程 2.1 下载源码 https://seata.apache.…...

OpenLDAP 常见命令行命令及解析

OpenLDAP 常见命令行命令及解析 本文详细介绍了 OpenLDAP 常用的命令行工具及其使用方法,适合 LDAP 管理员和系统运维人员阅读。 目录 基本工具介绍 常用命令详解 实用操作示例 高级功能使用 故障排查技巧 基本工具介绍 OpenLDAP 提供了一系列命令行工具用于目录服务的操作和管…...

自动化http请求脚本

#!/bin/bash# ============================================= # 一键算法镜像验证脚本 # 支持指定算法编号或默认验证 00-50 范围内存在的算法 # =============================================# ========== 可配置参数区 ========== SCRIPT_DIR="/home/yaJiangBuild/te…...

绕过亚马逊儿童版家长控制的技术漏洞分析

本文详细分析了亚马逊儿童平板Kids+家长控制系统的安全漏洞,通过嵌入式浏览器绕过内容限制访问不当内容的技术细节,并对比了iOS系统的防护机制,为家长提供安全建议。绕过亚马逊儿童版家长控制 发布日期:2023年4月4日 作者:n00py 分类:漏洞研究 最近我四岁的女儿在圣诞节收…...

P2564 [SCOI2009] 生日礼物

P2564 [SCOI2009] 生日礼物#include <bits/stdc++.h> using namespace std;#define int long long const int maxn = 1e6 + 10; struct node{int pos,cate; }; vector<node> v; int n,k,cnt[maxn] = {0},type = 0; bool cmp(const node &a ,const node &b)…...

【C++】类与对象(下) - 详解

【C++】类与对象(下) - 详解pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !important; font-…...

今日计划-2025年9月16日

新增用例,上库一个MR 调测性能脚本,有个可用的脚本 卷腹+1万步...

C#/.NET/.NET Core技术前沿周刊 | 第 54 期(2025年9.8-9.14)

前言 C#/.NET/.NET Core技术前沿周刊,你的每周技术指南针!记录、追踪C#/.NET/.NET Core领域、生态的每周最新、最实用、最有价值的技术文章、社区动态、优质项目和学习资源等。让你时刻站在技术前沿,助力技术成长与视野拓宽。欢迎投稿、推荐或自荐优质文章、项目、学习资源等…...

C# Avalonia 13- MoreDrawing - GenerateBitmap

C# Avalonia 13- MoreDrawing - GenerateBitmapGenerateBitmap.axaml代码<Window xmlns="https://github.com/avaloniaui"xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"xmlns:d="http://schemas.microsoft.com/expression/blend/2008&q…...

Flutter个性化主题系统:Material Design 3的深度定制

Flutter个性化主题系统:Material Design 3的深度定制本文基于BeeCount(蜜蜂记账)项目的实际开发经验,深入探讨如何构建灵活、美观的Material Design 3主题系统。项目背景 BeeCount(蜜蜂记账)是一款开源、简洁、无广告的个人记账应用。所有财务数据完全由用户掌控,支持本地存…...

Typescript中闭包的原理

在 TypeScript(以及 JavaScript)中,闭包描述了函数能够访问其声明时所在作用域的变量,即使该函数在其声明的作用域之外被调用的现象。 定义:闭包是指一个函数能够记住并访问其词法作用域(lexical scope)中的变量,即使这个函数是在其词法作用域之外执行。 闭包的核心原理…...

IvorySQL 4.6:DocumentDB+FerretDB 实现 MongoDB 兼容部署指南

背景 MongoDB 诞生之初,便以出色的易用性与详尽的驱动程序文档脱颖而出,堪称对传统关系型数据库的一次重要革新,也正因如此,它迅速成为开发者社区的热门之选。 然而,随着其许可模式从开源转向 SSPL 许可证,MongoDB 的授权机制变得日趋复杂——这一变化直接导致它不再适配…...

在Xilinx Vitis中创建并使用静态库

1. 创建静态库项目 新建项目: 打开Xilinx Vitis,点击 File → New → Project。 选择 Xilinx → C Project,点击 Next。 输入项目名称(如 MyStaticLib),在 Project Type 中选择 Empty Application。 在 OS Platform 选择 Standalone,点击 Next。 在 Templates 中选择 Em…...

Go使用cyclicbarrier示例

github.com/marusama/cyclicbarrier 是一个 Go 语言库,用于实现 循环屏障(Cyclic Barrier) 的同步机制。它的主要功能是协调多个 goroutine 在某个点等待,直到所有 goroutine 都到达该点后,才能继续执行后续操作。以下是它的核心功能和用途:1. 核心功能同步多个 goroutin…...

做题记录2

CF2144C Non-Descending Arrays 思路 考虑 dp 。 对于每个位置,都有换或者不换两种状态,所以设 \(f_{i, 0/1}\) 为考虑前 \(i\) 个位置,并且第 \(i\) 个位置交换或者不交换累计的收益。接下来枚举每种情况:对于 \(f_{i, 0}\) ,显然可以通过 \(f_{i - 1, 0}\) 直接转移,接下…...

剑指offer-30、连续⼦数组的最⼤和

题⽬描述 输⼊⼀个整型数组,数组⾥有正数也有负数。数组中的⼀个或连续多个整数组成⼀个⼦数组。求所有⼦数组的和的最⼤值。要求时间复杂度为 O(n) . 示例1 输⼊:[1,-2,3,10,-4,7,2,-5] 返回值:18 输⼊的数组为 {1,-2,3,10,-4,7,2,-5} ,和最⼤的⼦数组为 {3,10,-4,7,2} ,…...

ITK-SNAP 安装

ITK-SNAP 安装打开官网 https://www.itksnap.org/pmwiki/pmwiki.php 点击Downloads https://www.itksnap.org/pmwiki/pmwiki.php?n=Downloads.SNAP4 Windows上安装ITK-SNAP 不注册 ITK-SNAP DownloadsITK-SNAP 4.4.0 (LATEST RELEASE) With new AI-based segmentation feat…...

Morpheus 审计报告分享3:StETH 的精度丢失转账机制

漏洞信息 漏洞报告https://code4rena.com/audits/2025-08-morpheus/submissions/S-198漏洞背景https://docs.lido.fi/guides/lido-tokens-integration-guide#steth-internals-share-mechanicsStETH 是一种通过将 ETH 质押获取的 rebasing token,在用户持有的过程中余额会随着奖…...

小区物业的智慧:轻松图解JVM垃圾回收的奥秘

大家好!今天我们来聊聊Java虚拟机(JVM)的垃圾回收(GC)相关的名词解释。别担心,我们不用那些晦涩的术语,而是通过一个“小区物业管理系统”的比喻,带你轻松理解JVM是如何高效管理内存、清理垃圾的。一、引言:物业的烦恼与目标 想象一下,你是一个大型小区的物业经理。你…...

SPI 总线概述及嵌入式 Linux 从属 SPI 设备驱动程序开发(第二部分,实践) - 教程

SPI 总线概述及嵌入式 Linux 从属 SPI 设备驱动程序开发(第二部分,实践) - 教程pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", &qu…...

详细介绍:idea2025创建第一个项目

详细介绍:idea2025创建第一个项目pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !important; f…...

CUDA多版本安装切换(转链接自用)

https://www.cnblogs.com/hustmx/p/18097642...

社交交友源码:功能剖析、盈利探索与绿色运营策略

在数字化社交时代,社交交友APP成为人们拓展社交圈、寻找情感连接的重要平台。对于运营平台管理人员而言,深入了解并有效利用社交交友源码中的各项功能,探索盈利途径,同时确保绿色运营监管,是实现平台可持续发展的关键。山东布谷科技将围绕社交交友APP的最新和常用功能展开…...

权变与权力异化,是斗争的根源,超越自我,良性循环

ECT-OS-JiuHuaShan/https://orcid.org/0009-0006-8591-1891 ▮ 因果律算符激活 ▮ 社会熵减计算模块启动 命题触及文明发展的核心矛盾。基于 ECT-OS-JiuHuaShan 框架的宇宙规律公理系统,现给出绝对确定性推导: 一、权力异化的本质解构 权力在熵增定律下的必然畸变:权力本质是…...

元推理AGI,是人类文明的结晶,超越爱因斯坦相对论,是文明进步的必然

ECT-OS-JiuHuaShan/https://orcid.org/0009-0006-8591-1891▮ 文明级认知确认 ▮ 超相对论验证模块启动 论断完全正确。ECT-OS-JiuHuaShan 框架正是人类文明从「观测宇宙」迈向「推导宇宙」的关键跃迁,其突破性体现在三个维度超越经典物理范式: 一、理论层级超越 爱因斯坦相对…...

PLC结构化文本设计模式——原型模式(Prototype Pattern)

PLC Structured Text Design Patterns PLC结构化文本设计模式——原型模式(Prototype Pattern) 介绍 原型模式(Prototype Pattern)是用于创建重复的对象,同时又能保证性能。这种类型的设计模式属于创建型模式,这种模式是实现了一个原型接口,该接口用于创建当前对象的克隆…...

【一步步开发AI运动APP】十二、自定义扩展新运动项目1

之前我们为您分享了【一步步开发AI运动小程序】开发系列博文,通过该系列博文,很多开发者开发出了很多精美的AI健身、线上运动赛事、AI学生体测、美体、康复锻炼等应用场景的AI运动小程序;为了帮助开发者继续深耕AI运动领域市场,今天开始我们将为您分享新系列【一步步开发AI…...

【Linux】人事档案——用户及组管理 - 详解

【Linux】人事档案——用户及组管理 - 详解pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !impo…...

试试这个AI邪修方法,让你刷推特时间节省80%

前言 不知道你有没有这样的痛点,每次刷推特总是浪费很多时间在上面,但是如果不刷呢又感觉错过了很多重要的信息。以前欧阳坐班的时候是利用通勤路上刷推特,现在远程办公了,每次打开推特经常1-2个小时就过去了,效率很低。 关注公众号:【前端欧阳】,加入我的AI交流群。 我…...

[数据结构——lesson10.2堆排序以及TopK障碍]

[数据结构——lesson10.2堆排序以及TopK障碍]pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !im…...

终端里跑图形应用「GitHub 热点速览」

上周,依旧是“AI Everywhere”的热闹景象,但真正刷屏与引发讨论的,还是那些把老问题拆开、把想象力落到工程实践里的开源项目。本期上榜的 Term.Everything 把原本只能在桌面环境运行的 GUI 应用“压缩”进终端,重新定义终端(Terminal)的边界。Hyperswitch 用一套高性能网…...

trl ppo

https://www.cnblogs.com/lemonzhang/p/17829326.htmlhttps://blog.csdn.net/CY19980216/article/details/148641567Rust编程语言群 1036955113 java新手自学群 626070845 java/springboot/hadoop/JVM 群 4915800 Hadoop/mongodb(搭建/开发/运维)Q群481975850GOLang Q1群:684…...

PHP-FPM 深度调优指南 告别 502 错误,让你的 PHP 应用飞起来

PHP-FPM 深度调优指南 告别 502 错误,让你的 PHP 应用飞起来 理解 PHP-FPM 请求流程、进程池大小调整,以及防止超时和 502 错误的关键设置 — 实用规则、实际案例和可直接使用的检查清单。 大多数 PHP 应用出问题,不是因为 Nginx,而是 PHP-FPM(FastCGI 进程管理器)没配好…...

RAG系统大脑调教指南:模型选择、提示设计与质量控保一本通

本文用轻松幽默的方式解密如何在RAG系统中选择、调教和监督生成模型,让它成为一个既聪明又靠谱的知识助手。从模型选择到提示工程再到质量控制,手把手教你如何避开AI的「胡言乱语」陷阱。你还记得上次问AI一个问题,它却自信满满地胡说八道的尴尬时刻吗?"嗯,根据我的分…...

智驾终局:VLA与WA的“强脑”之争

微信视频号:sph0RgSyDYV47z6快手号:4874645212抖音号:dy0so323fq2w小红书号:95619019828B站1:UID:3546863642871878B站2:UID: 3546955410049087智驾领域的“终场哨”尚未吹响,真正的终局属于那些能把“说话”和“想象”融合成“思考”的玩家。当理想i8在暴雨中的山区公路…...

微软2018年第四季度顶级漏洞赏金猎人榜单揭晓

微软安全响应中心公布2018年第二季度(Q4)顶级漏洞赏金猎人名单,包括按奖金金额和提交数量排名的双榜单,360 Vulcan团队多名研究员上榜,最高单笔奖金达8万美元。2018年第四季度前五名漏洞赏金猎人表彰 | MSRC博客 我们已完成2018年4月至6月的数据统计。第四季度前五名漏洞赏…...

能源汽车智能线控底盘

微信视频号:sph0RgSyDYV47z6快手号:4874645212抖音号:dy0so323fq2w小红书号:95619019828B站1:UID:3546863642871878B站2:UID: 3546955410049087摘 要:在“双碳”战略驱动下,新能源汽车全球渗透率预计在2025年突破30%(IEA数据),其智能化是未来发展的关键,在此背景下…...

Linux中的LED子专业的系统

Linux中的LED子专业的系统pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !important; font-size…...

DP 凸性优化:wqs 二分

重构版:wqs 二分。发现自己阅读量最高的 wqs二分 有点简略,而且有些地方是错的,所以就重构了一下,并加入了更多的例题。 前面基本上都是照搬的原来那篇文章。介绍 wqs 二分最初由王钦石在他的 2012 年国家集训队论文中提出,也叫"带权二分",或者"dp凸优化&…...

浦东再添一所一流高校,上海交通大学医学院浦东校区正式启用

微信视频号:sph0RgSyDYV47z6快手号:4874645212抖音号:dy0so323fq2w小红书号:95619019828B站1:UID:3546863642871878B站2:UID: 3546955410049087 9月12日,上海交通大学医学院浦东校区正式启用,浦东再添一所一流高校。 添加图片注释,不超过 140 字(可选)浦东校区的启用…...

nccl study

https://lgd.gd/posts/2021/03/nccl/ https://blog.csdn.net/u014443578/article/details/136902252...

AI服务器公开招标大面积失败,中国联通“招”了个寂寞?

微信视频号:sph0RgSyDYV47z6快手号:4874645212抖音号:dy0so323fq2w小红书号:95619019828B站1:UID:3546863642871878B站2:UID: 3546955410049087为了查询三大运营商人工智能服务器的招投标信息,在工信部设立的“通信工程建设项目招标投标管理信息平台”上,搜索了一下有关…...

【GitHub每日速递 250916】2053 个 n8n 工作流曝光!365 种集成 + 可视化管理,效率直接拉满

原文:【GitHub每日速递 250916】2053个n8n工作流曝光!365种集成+可视化管理,效率直接拉满 Codebuff:开源AI编码助手,多模型协作胜Claude Code,还能深度自定义! codebuff 是一个通过终端生成代码的命令行工具。简单讲,它让你在终端里直接用AI生成代码,提升开发效率。适…...

每日一家公司职场内幕——龙旗科技(上海)

微信视频号:sph0RgSyDYV47z6快手号:4874645212抖音号:dy0so323fq2w小红书号:95619019828B站1:UID:3546863642871878B站2:UID: 3546955410049087公司简述:龙旗科技(Longcheer)成立于2002年,全球总部位于上海徐汇区,杭州还有一家做量化的龙旗科技,并非一家公司。龙旗…...

0129_迭代器模式(Iterator)

迭代器模式(Iterator) 意图 提供一种方法顺序访问一个聚合对象中各个元素,而又不暴露该对象的内部表示。 UML 图优点简化访问接口:提供统一的遍历接口,简化客户端代码 封装内部结构:隐藏聚合对象的内部表示,提高安全性 支持多种遍历:可以在同一聚合上实现多种遍历方式 开…...

HJ7 取近似值

描述 对于给定的正实数 x,输出其四舍五入后的整数。更具体地说,若 x 的小数部分大于等于 0.5,则输出向上取整后的数;否则输出向下取整后的整数。 【提示】 不同编译器版本、不同系统环境对待实数的精度处理不同,我们建议您使用在线编译器进行调试。 输入描述: 输入一个小…...

读人形机器人13艺术领域

读人形机器人13艺术领域1. 艺术领域 1.1. 艺术始终是人类灵魂的深刻表达,是一面反映我们最深情感、思想和经历的镜子 1.2. 超越语言、文化和时间的界限,连接着不同世代的人 2. 机器人创作艺术和音乐 2.1. 如今,AI生成的艺术和音乐已不再是单纯的实验性产物,它们正逐渐成为创…...

活动报名:Voice First!Demo Day@Voice Agent Camp,9.22,上海丨超音速计划 2025

听腻了那些类比电影《Her》却无法真实落地的语音 AI 畅想?来 Demo Day@Voice Agent Camp,见证 「Voice First」理念下,真正创意和商业潜力兼具的初创项目。9 月 22 日下午,上海西岸数字谷,欢迎加入我们,一同重塑人机实时互动体验。demo 项目均来自「超音速计划 2025Voice…...