知识增强 元认知框架 不确定性处理 大语言模型
摘要

知识增强显著提升了大语言模型在知识密集型任务中的表现。然而,现有方法通常基于一个简单前提,即模型性能等同于内部知识,忽视了导致过度自信错误或不确定真相的知识-置信度差距。为弥合这一差距,本文提出了一种新的元认知框架,通过差异化的干预和对齐实现可靠的知识增强。该方法利用内部认知信号将知识空间划分为掌握、困惑和缺失区域,指导有针对性的知识扩展。此外,我们引入了一致性机制,使主观确定性与客观准确性同步,确保校准后的知识边界。大量实验表明,我们的框架在多个基准测试中均优于现有方法,验证了其不仅提升知识能力,还能促进更好区分已知与未知的认知行为。

AI 推荐理由

论文涉及知识增强与模型自信度的关联,间接关联到Agent Memory中的知识管理与不确定性处理。

论文信息
作者 Hao Chen, Ye He, Yuchun Fan, Yukun Yan, Zhenghao Liu et al.
发布日期 2026-02-13
arXiv ID 2602.12996
相关性评分 7/10 (相关)