Acadwrite Logoacadwrite Research

神经符号推理在知识图谱补全中的可解释性机制研究综述

引言

知识图谱补全作为知识图谱研究的核心任务之一,旨在发现知识图谱中缺失的事实,对于知识发现、问答系统、推荐系统等下游应用具有重要意义。近年来,神经符号推理方法凭借其结合神经网络的强大表示学习能力和符号推理的逻辑严谨性,在知识图谱补全任务中取得了显著进展。然而,尽管性能优异,神经符号推理的可解释性问题仍然是制约其广泛应用的关键瓶颈。理解神经符号推理的决策过程,揭示其推理依据,对于提升模型的信任度、诊断错误以及促进知识的有效利用至关重要。

本综述将深入探讨神经符号推理在知识图谱补全中的可解释性机制。我们将分析现有方法的可解释性来源、评估方法以及面临的挑战,并展望未来的研究方向。具体而言,我们将首先考察基于规则的神经符号推理及其可解释性,分别从规则提取和规则嵌入两个角度分析现有方法,并深入探讨规则质量和规则表示形式对可解释性的影响。随后,我们将关注基于逻辑程序的神经符号推理及其可解释性,重点分析基于Differentiable Logic和神经逻辑机的相关研究,并考察逻辑程序结构和逻辑程序与神经网络的交互方式对可解释性的影响。最后,我们将系统梳理神经符号推理可解释性的评估方法,包括基于人类评估、基于指标以及基于对抗攻击的方法,并分析各自的优缺点。通过对以上三个关键方面的深入剖析,本综述旨在为神经符号推理在知识图谱补全中的可解释性研究提供全面的视角和深入的思考。

基于规则的神经符号推理及其可解释性

基于规则的神经符号推理旨在融合神经网络强大的表示学习能力与符号规则的精确推理能力。这类方法的核心在于利用神经网络学习并提取知识图谱中的规则,进而利用这些规则进行知识图谱补全等任务。例如,Cheng等人提出的NCRL模型,通过神经网络学习组合逻辑规则,并循环合并规则体中的组合来预测规则头,从而实现知识图谱补全。实验结果表明,NCRL能够学习高质量的规则,并在大型知识图谱上展现出高效性和可扩展性。Nandi等人则另辟蹊径,通过增强现有规则集来提高神经符号知识图谱补全模型的性能。他们将规则转换为溯因形式、生成等价规则,并通过随机游走等方式扩充规则集,并通过剪枝去除低质量规则,实验证明这种方法能够显著提高补全效果。受到认知科学中双过程理论的启发,Hua等人提出了一种结合神经逻辑推理的框架,该框架利用神经网络学习知识表示(系统1),然后在此基础上进行显式的神经逻辑推理(系统2),从而提升常识知识图谱补全任务的性能。

与显式提取规则的方法不同,另一类方法致力于将规则直接嵌入到神经网络的结构中,从而实现端到端的学习和推理,无需显式地提取和应用规则。这种方法将规则表示为神经网络中的特定结构或约束,使得网络在学习过程中能够自动地学习和利用这些规则。例如,可以使用特定的网络层或损失函数来编码规则,从而引导网络的学习过程。Wu等人提出的RNNCTPs模型便体现了这一思想,该模型通过关系选择器动态地为预测器生成知识,提升了计算效率和可解释性。关系选择器经过高效且可解释的训练,使得整个模型能够根据输入动态地选择相关的知识进行推理。这种方法在链接预测任务中表现出与传统方法相媲美的性能,并且对数据集的选择具有更高的适用性。此外,一些研究工作将规则作为正则化项添加到神经网络的损失函数中,鼓励网络学习符合规则的表示。然而,如何有效地将复杂的规则嵌入到神经网络中,以及如何保证嵌入规则的正确性和完整性,仍然是该领域面临的挑战。

规则质量是影响神经符号推理可解释性的关键因素,它体现在规则的准确性、覆盖率和复杂度等多个方面。准确性高的规则能够保证推理结果的正确性,从而增强用户对推理过程的信任感。覆盖率高的规则意味着模型能够处理更多的情况,减少了模型在面对未知情况时做出错误预测的可能性,提升了模型应用的广泛性和可靠性。复杂度低的规则更易于理解和解释,使用户能够更容易地理解推理过程,并验证推理结果的合理性。以药物重定向任务为例,Ana Jiménez等人提出的XG4Repo框架,通过构建化合物与疾病之间的路径来提供可解释的预测。这些路径包含基因、通路、副作用等节点,为专家提供了验证预测的生物医学机制信息。如果XG4Repo使用的规则准确性较低,则会产生错误的药物重定向建议,导致用户无法信任该系统的推理结果。类似地,Weijian Chen等人提出的HoGRN模型,通过高阶关系推理和实体更新来完成知识图谱补全,其可解释性部分来自于关系表示中蕴含的逻辑规则。如果这些规则过于复杂,例如包含多个嵌套的逻辑关系,则用户难以理解模型是如何通过这些规则推断出新的知识的。因此,在设计基于规则的神经符号推理模型时,需要在规则的准确性、覆盖率和复杂度之间进行权衡,以实现可解释性和性能之间的平衡。

规则表示形式的选择同样对神经符号推理的可解释性具有显著影响。不同的表示形式,如一阶逻辑和Horn子句,在表达能力和可理解性之间存在权衡。一阶逻辑具有更强的表达能力,可以表示复杂的逻辑关系,但其形式化语法对于非专业人士来说难以理解。相比之下,Horn子句是一种更简单的逻辑形式,易于理解和推理,但表达能力受到限制。Xu等人提出了一种基于多视图特征融合(MVFF)的时序知识图谱推理框架,该框架提取逻辑规则,并使用Gumbel-Softmax技巧来采样高质量的规则,从而在一定程度上保证了规则的可解释性。实验证明,MVFF在四个基准数据集上优于现有方法,不仅提供了更好的性能,而且提供了可解释的结果。这表明,选择合适的规则表示形式,并结合有效的规则提取方法,是提高神经符号推理可解释性的有效途径。

基于逻辑程序的神经符号推理及其可解释性

基于逻辑程序的神经符号推理旨在融合神经网络的表征能力与逻辑程序的推理能力,实现优势互补。Differentiable Logic是实现这一目标的重要途径,它通过可微方式实现逻辑运算,使神经网络能够直接学习和执行逻辑推理,从而突破了传统符号推理在处理复杂、不确定数据时的局限。例如,dPASP框架允许使用神经谓词、逻辑约束和区间值概率选择来指定离散概率模型,支持结合低级感知、常识推理和统计知识,并通过梯度下降法进行端到端训练。此外,还有框架能够从噪声数据中学习逻辑程序,以及利用逻辑语言解释深度视觉语言模型推理过程的研究。这些工作共同表明,Differentiable Logic为神经符号推理提供了一种有效的实现途径,并为知识图谱补全等任务带来了新的可能性。

另一种神经符号推理方法是构建可学习的神经逻辑机,用于知识图谱的推理和补全。这类方法通常结合神经网络的表示学习能力和逻辑程序的推理能力。Werner等人提出的方法联合利用本体中定义的元规则和知识图谱嵌入方法,在低维向量空间中表示图的实体和关系,从而提升知识图谱补全任务的可靠性、可解释性、数据效率和鲁棒性。在视觉场景理解领域,Khan等人提出了一个松散耦合的神经符号框架,该框架利用深度神经网络进行对象检测和多模态关系预测,并利用异构知识图中的常识知识来丰富场景图,从而改进下游推理。实验结果表明,使用常识知识丰富场景图可以提高场景图的表达能力,进而生成更直观和有意义的描述。

逻辑程序结构对可解释性的影响主要体现在其复杂度和模块化程度。复杂的逻辑程序,特别是包含大量规则和循环依赖的程序,会使得推理路径难以追踪,降低可解释性。相反,模块化的逻辑程序将复杂的推理任务分解为多个相对独立的模块,每个模块负责特定的子任务,可以显著提高可理解性。Zeng等人的综述指出,基于逻辑规则的知识图谱推理方法能够通过揭示潜在的逻辑规则来进行推理,从而展现出卓越的泛化能力和可解释性。然而,设计出既能保证推理性能又能兼顾可解释性的逻辑程序仍然是一个挑战。Fandinno和Hecher的研究表明,即使在treewidth受限的情况下,评估Epistemic Logic Programs (ELPs)的关键片段仍然具有较高的复杂度。因此,在设计神经符号推理模型时,需要在逻辑程序的表达能力和可解释性之间进行权衡,避免过度复杂的程序结构,并尽可能采用模块化的设计思想。

逻辑程序与神经网络的交互方式对可解释性也至关重要。不同的交互方式,如联合训练和交替训练,会直接影响最终模型的结构和推理过程。联合训练将逻辑程序和神经网络整合到一个统一的框架中,允许两者在训练过程中相互影响,可能产生更紧密的耦合,但也可能使模型的行为更难以理解。例如,Sen等人利用逻辑神经网络(LNN)将合取范式和析取范式的规则结合在一个框架中,并使用基于梯度的优化进行端到端学习,在知识图谱补全任务中取得了显著的性能提升。然而,神经网络内部的复杂计算以及逻辑规则和神经网络参数之间的相互作用,使得模型的推理过程变得更加复杂,可解释性降低。

交替训练则将逻辑程序和神经网络分开训练,然后通过某种方式将它们连接起来。这种方式的优点在于可以更容易地理解每个组件的作用,从而提高整体的可解释性。Tena Cucala等人提出了一种基于图神经网络(GNN)的数据转换方法,并用带有否定的Datalog程序来描述GNN的功能,这种方法在知识图谱补全任务中表现良好,并且可以有效地提取程序来解释单个预测。通过将GNN与Datalog程序关联起来,研究人员可以更好地理解GNN的推理过程,从而提高模型的可解释性。因此,选择哪种交互方式取决于具体应用的需求,需要在性能和可解释性之间进行权衡。

神经符号推理可解释性的评估方法

神经符号推理的可解释性评估是确保其在实际应用中可靠性的关键环节。目前,主要有三种评估方法:基于人类评估的可解释性评估、基于指标的可解释性评估以及基于对抗攻击的可解释性评估。

基于人类评估的可解释性评估侧重于考察用户对神经符号推理结果的理解程度和信任度。这种评估方法通常采用用户研究的方式,收集用户对模型输出的反馈,包括理解程度、信任度以及整体满意度等。例如,Zhao等人提出的DeveloperBot,通过用户研究验证了其提供的直接答案和解释能够有效帮助开发者满足信息需求,并且推理子图和答案置信度可以作为解释,增强用户对搜索结果的理解和信任。类似地,Moon等人通过人工评估证实了DialKG Walker模型在对话推理中能够生成更自然和类人的回复,并且生成的知识图谱行走路径能够为检索到的实体提供自然的解释。这些研究表明,用户研究能够为神经符号推理模型的可解释性提供直接有效的评估,并为模型改进提供宝贵的用户视角。

基于指标的可解释性评估则致力于通过量化神经符号推理过程中的关键属性来衡量其可解释性。这类评估通常关注规则的复杂度、推理路径的长度以及涉及的符号数量等指标。例如,对于一个基于规则提取的神经符号推理系统,规则的复杂度可以通过规则体中原子谓词的数量来衡量。简单规则如“parent(X,Y) :- father(X,Y)”的可解释性通常高于复杂规则如“ancestor(X,Z) :- parent(X,Y), ancestor(Y,Z)”。通过统计规则集中规则的平均复杂度以及分析推理过程中使用的规则链的长度,可以对整个系统的可解释性进行初步评估。更短的规则链通常意味着更清晰的推理过程,从而提高可解释性。

基于对抗攻击的可解释性评估旨在通过构造对抗样本,测试神经符号推理模型在面对恶意输入时的鲁棒性和可信度。对抗攻击通过对输入数据进行细微修改,诱导模型产生错误的推理结果,从而揭示模型潜在的脆弱性。Betz等人提出了一种针对知识图谱嵌入模型的黑盒对抗攻击方法,该方法通过抑制或修改最可信解释中的三元组来发起攻击,结果表明即使无需访问模型架构,仅需访问训练数据,其结果也与最先进的白盒攻击方法相当。Sachdeva等人也通过多种对抗攻击来比较问答模型的鲁棒性。通过分析对抗攻击成功的原因,可以深入了解神经符号推理模型所依赖的关键特征和推理路径,从而发现模型潜在的缺陷和偏差。这种评估方法有助于提高神经符号推理模型的鲁棒性和可信度,使其在实际应用中更加可靠。

结论

综上所述,本综述深入探讨了神经符号推理在知识图谱补全中的可解释性机制,分别从基于规则和基于逻辑程序的神经符号推理方法入手,剖析了其可解释性的来源,并系统梳理了现有的可解释性评估方法。研究表明,规则质量、规则表示形式、逻辑程序结构以及逻辑程序与神经网络的交互方式等因素均对神经符号推理的可解释性产生显著影响。同时,不同的可解释性评估方法各有侧重,能够从不同角度揭示模型的优缺点。当前研究面临的挑战主要包括可解释性评估的标准化、可解释性与性能的平衡以及面向复杂知识图谱的神经符号推理方法设计。

未来,神经符号推理在知识图谱补全领域的可解释性研究将朝着更加精细化和实用化的方向发展。一方面,开发更有效的可解释性评估方法,例如结合人类认知模型的评估指标,将有助于更准确地衡量模型的可解释性水平。另一方面,设计更易于理解的神经符号推理模型,例如采用模块化设计和可视化技术,将有助于提高模型的透明度和可信度。此外,探索面向特定领域知识图谱的神经符号推理方法,例如针对生物医学知识图谱的推理方法,将有助于更好地满足实际应用的需求。最终,我们期望能够构建出既具有高性能又具有良好可解释性的神经符号推理模型,从而推动知识图谱补全技术的广泛应用,并为人工智能领域的发展做出更大的贡献。

参考文献

[1] Kewei Cheng, Nesreen K. Ahmed, R. Rossi, T. Willke, Yizhou Sun, Neural-Symbolic Methods for Knowledge Graph Reasoning: A Survey, ACM Transactions on Knowledge Discovery from Data, 2024, 18, 1 - 44.

[2] Kewei Cheng, Nesreen Ahmed, Yizhou Sun, Neural Compositional Rule Learning for Knowledge Graph Reasoning, ArXiv, 2023, abs/2303.03581.

[3] Ananjan Nandi, Navdeep Kaur, Parag Singla, Mausam -, Simple Augmentations of Logical Rules for Neuro-Symbolic Knowledge Graph Completion, null, 2024, 256-269.

[4] Wenyue Hua, Yongfeng Zhang, System 1 + System 2 = Better World: Neural-Symbolic Chain of Logic Reasoning, null, 2022, 601-612.

[5] Yu-hao Wu, Houyi Li, RNNCTPs: A Neural Symbolic Reasoning Method Using Dynamic Knowledge Partitioning Technology, ArXiv, 2022, abs/2204.08810.

[6] Ana Jiménez, María José Merino, J. Parras, Santiago Zazo, Explainable drug repurposing via path based knowledge graph completion, Scientific Reports, 2024, 14.

[7] Weijian Chen, Yixin Cao, Fuli Feng, Xiangnan He, Yongdong Zhang, Explainable Sparse Knowledge Graph Completion via High-order Graph Reasoning Network, ArXiv, 2022, abs/2207.07503.

[8] Hongcai Xu, Junpeng Bao, Hui Li, Chao He, Feng Chen, A Multi-View Temporal Knowledge Graph Reasoning Framework with Interpretable Logic Rules and Feature Fusion, Electronics, 2024.

[9] Renato Lui Geh, Jonas Gonccalves, I. Silveira, D. Mauá, Fabio Gagliardi Cozman, dPASP: A Comprehensive Differentiable Probabilistic Answer Set Programming Environment For Neurosymbolic Learning and Reasoning, ArXiv, 2023, abs/2308.02944.

[10] Hikaru Shindo, Masaaki Nishino, Akihiro Yamamoto, Differentiable Inductive Logic Programming for Structured Examples, null, 2021, 5034-5041.

[11] Xiaofeng Yang, Fayao Liu, Guosheng Lin, Neural Logic Vision Language Explainer, IEEE Transactions on Multimedia, 2024, 26, 3331-3340.

[12] Muhammad Jaleed Khan, John G. Breslin, Edward Curry, NeuSyRE: Neuro-symbolic visual understanding and reasoning framework based on scene graph enrichment, Semantic Web, 2023, 15, 1389-1413.

[13] Zefan Zeng, Qing Cheng, Yuehang Si, Logical Rule-Based Knowledge Graph Reasoning: A Comprehensive Survey, Mathematics, 2023.

[14] Jorge Fandinno, Markus Hecher, Treewidth-Aware Complexity for Evaluating Epistemic Logic Programs, null, 2023, 3203-3211.

[15] Prithviraj Sen, Breno William Carvalho, I. Abdelaziz, P. Kapanipathi, S. Roukos, Alexander G. Gray, Logical Neural Networks for Knowledge Base Completion with Embeddings & Rules, null, 2022, 3863-3875.

[16] David Tena Cucala, Bernardo Cuenca Grau, Bridging Max Graph Neural Networks and Datalog with Negation, Proceedings of the TwentyFirst International Conference on Principles of Knowledge Representation and Reasoning, 2024.

[17] Xuejiao Zhao, Huanhuan Chen, Zhenchang Xing, C. Miao, Brain-Inspired Search Engine Assistant Based on Knowledge Graph, IEEE Transactions on Neural Networks and Learning Systems, 2020, 34, 4386-4400.

[18] Seungwhan Moon, Pararth Shah, Anuj Kumar, R. Subba, OpenDialKG: Explainable Conversational Reasoning with Attention-based Walks over Knowledge Graphs, null, 2019, 845-854.

[19] Patrick Betz, Christian Meilicke, H. Stuckenschmidt, Adversarial Explanations for Knowledge Graph Embeddings, null, 2022, 2820-2826.

[20] Rachneet Sachdeva, Haritz Puerto, Tim Baumgärtner, Sewin Tariverdian, Hao Zhang, Kexin Wang, H. Saad, Leonardo F. R. Ribeiro, Iryna Gurevych, UKP-SQuARE v2: Explainability and Adversarial Attacks for Trustworthy QA, null, 2022, 28-38.