知识图谱 知识增强 推理优化 微调方法
摘要

尽管大型语言模型(LLMs)在大规模知识语料库上预训练后表现出色,但提升其知识操作能力——即有效回忆、推理和迁移相关知识的能力——仍然是一个挑战。现有方法主要依赖于在标注数据集上进行监督微调(SFT)以增强LLMs的知识操作能力。然而,我们观察到SFT模型仍然存在已知但错误的现象,即它们明确拥有相关知识却无法用于正确回答问题。为了解决这一问题,我们提出了KALE(Knowledge-Aware Learning)——一种利用知识图谱(KGs)生成高质量推理依据并增强LLMs知识操作能力的后训练框架。具体而言,KALE首先引入了一种知识诱导(KI)数据合成方法,从知识图谱中高效提取多跳推理路径,为问答对生成高质量的推理依据。随后,KALE采用了一种知识感知(KA)微调范式,通过最小化有无推理依据预测之间的KL散度,实现基于推理依据的内部推理增强。在六个不同LLMs上的八个流行基准测试中进行了广泛实验,结果表明KALE的有效性,准确率提升了高达11.72%,平均提升4.18%。

AI 推荐理由

论文涉及知识增强与推理,间接关联记忆机制,但非核心主题。

论文信息
作者 Qitan Lv, Tianyu Liu, Qiaosheng Zhang, Xingcheng Xu, Chaochao Lu
发布日期 2026-01-12
arXiv ID 2601.07430
相关性评分 6/10 (相关)