摘要
在多跳推理中,多轮检索增强生成(RAG)方法通常依赖于大语言模型(LLM)生成的内容作为检索查询。然而,这些方法本质上容易受到知识遮蔽的影响——即关键信息在生成过程中被掩盖。因此,LLM生成的内容可能不完整或不准确,导致检索结果无关,并在迭代过程中积累错误。为了解决这一挑战,我们提出了ActiShade,该方法检测并激活被遮蔽的知识,以指导大型语言模型进行多跳推理。具体而言,ActiShade通过迭代检测给定查询中的被遮蔽关键词短语,检索与查询和被遮蔽关键词相关的文档,并基于检索到的文档生成新的查询以指导下一轮迭代。通过在下一轮查询构建过程中补充被遮蔽的知识,同时尽量减少引入无关噪声,ActiShade减少了由知识遮蔽引起的误差累积。大量实验表明,ActiShade在多个数据集和LLMs上均优于现有方法。
AI 推荐理由
论文涉及知识遮蔽问题,与记忆机制相关,但核心是多跳推理而非记忆系统本身。
论文信息