摘要
知识增强显著提升了大语言模型在知识密集型任务中的表现。然而,现有方法通常基于一个简单前提,即模型性能等同于内部知识,忽视了导致过度自信错误或不确定真相的知识-置信度差距。为弥合这一差距,本文提出了一种新的元认知框架,通过差异化的干预和对齐实现可靠的知识增强。该方法利用内部认知信号将知识空间划分为掌握、困惑和缺失区域,指导有针对性的知识扩展。此外,我们引入了一致性机制,使主观确定性与客观准确性同步,确保校准后的知识边界。大量实验表明,我们的框架在多个基准测试中均优于现有方法,验证了其不仅提升知识能力,还能促进更好区分已知与未知的认知行为。
AI 推荐理由
论文涉及知识增强与模型自信度的关联,间接关联到Agent Memory中的知识管理与不确定性处理。
论文信息