使用知识图谱增强大语言模型生成问答逻辑形式

文摘   2025-01-01 18:01   北京  
作者列表:冯腾飞,何亮*
单位:新疆大学计算机科学与技术学院、新疆信号检测与处理重点实验室、清华大学电子工程系

  研究背景
在自然语言处理领域,基于知识库的问答(KBQA)是一项具有挑战性的任务,涉及从结构化知识中准确检索答案。现有的方法要么使用的是基于语义解析的方式,要么是使用信息检索的方式,没有有效的利用两者之间的信息。其次,现有的一些小模型通常在结果上并没有那么出色。而大模型在回答问题的时候,通常面临着幻觉问题。
  本文方案
基于上述问题,我们提出了一种检索-生成-检索的框架,用于有效的整合基于语义解析的方式和基于信息检索的优点,同时,通过引入外部更加细粒度的知识来缓解大模型的幻觉问题。整体框架如图所示,整个框架包含了三个部分。

图1. 整体框架

(1)检索:从知识图谱中检索和问题相关的子图,从里面抽取得分的最高关系链(这个和后面生成的逻辑表达式很相关)。然后构造微调使用的数据集。(2)生成:进行微调,然后生成问题的逻辑表达式(beam search)。(3)检索:将生成的逻辑表达式中的实体和关系进行替换,具体来说,从知识图谱的实体集和关系集中计算和当前生成的逻辑表达式中的实体和关系相似度最高的topk个实体和关系进行替换,得到候选的逻辑表达式列表。最后遍历候选列表,直到找到可以运行的逻辑表达式。


  实验结果

我们在公开的数据集WebQSP和CWQ数据集上面进行了相关的实验。结果如下表所示:

表1. 主实验结果

从结果来看,在融入了信息抽取获取得到的信息之后,在进行微调,可以很大程度上提升我们模型的性能。

表2展示了加入不同关系链下的模型性能。w/o SR表示模型在微调的时候,不加入任何信息,random表示从主题实体到答案实体之间的任意关系链,two chains表示加入得分最高的两个关系链参与模型的微调。由表2可以看出,在随机加入关系链之后,相比没有加入的情况比,可能是由于随机引入,加入了噪声,损害模型的性能。而加入了两个得分最高的关系链之后,也可能引入了和当前问题无关的关系链,从而影响模型的性能。

表2. 不同关系链下的消融实验

图2展示了在不同参数量的大模型下的性能对比(a)表示引入得分最高的一条关系链;(b)表示不加入关系链;(3)表示加入两条得分最高的关系链。Llama3的性能要比llama2的性能强很多。但是在我们的框架下,我们发现,在经过微调之后,两者的性能差距是比较小的。其次,llama2在引入最优关系链之后进行微调的性能和llama3不引入外部信息进行微调的性能差距很小,这也反映出我们框架的有效性。

图2. llama2和llama3模型性能对比


表3展示了最后一个检索部分的有效性。

表3. 最后一个检索步骤的消融实验

我们也进行了相关实验来验证最后一个检索阶段的有效性。具体来说,我们去掉最后一个检索步骤,直接使用微调后的大模型生成的结果,去图谱中检索相对应的答案。结果表明,当我们去掉最后一个检索步骤之后,模型的性能有所下降,说明,对于复杂的逻辑表达式来讲,这表明微调后的大模型可以在很大程度上生成逻辑表达式的正确骨架,通过最后一个步骤的实体和关系替换,可以弥补大模型的问题。

  总结
在本文中,我们介绍了RGR-KBQA框架,这是一种通过利用LLM和知识图谱来增强知识库问答的新方法。我们的方法包括检索-生成-检索流程,大大提高了逻辑形式生成和问答的准确性。在WebQSP和CWQ数据集上的实验结果表明,RGR-KBQA优于现有方法,突出了结合最佳关系链和微调LLM的有效性。这种方法不仅可以减少幻觉,还可以提高生成答案的可解释性和准确性。未来的工作将探索进一步整合外部知识源以改进语义解析能力的潜力。

  

参考文献

[1]Jing Zhang, Xiaokang Zhang, Jifan Yu, Jian Tang, Jie Tang, Cuiping Li, and Hong Chen. 2022. Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 5773–5784, Dublin, Ireland. Association for Computational Linguistics.

[2]Haoran Luo, Haihong E, Zichen Tang, Shiyao Peng, Yikai Guo, Wentai Zhang, Chenghao Ma, Guanting Dong, Meina Song, Wei Lin, Yifan Zhu, and Anh Tuan Luu. 2024. ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models. In Findings of the Association for Computational Linguistics: ACL 2024, pages 2039–2056, Bangkok, Thailand. Association for Computational Linguistics.

[3]AI@Meta. 2024. Llama 3 model card.


永久福利 直投简历
简历投递:join@speechhome.com
扫码关注我们
助力AI语音开发者的社区

语音之家
助力AI语音开发者的社区
 最新文章