Agent Memory 上下文管理 多轮对话 状态漂移 自适应重构
摘要

大型语言模型(LLMs)在多轮对话中表现出色,但在长期交互中仍难以保持与先前内容的一致性,避免事实错误。现有方法主要依赖扩展上下文窗口、引入外部记忆或进行上下文压缩,但存在上下文惯性和状态漂移等局限。为此,本文提出ACR框架,通过动态监控和重构对话历史,主动缓解上述问题。该框架基于一组上下文重构操作符,并采用教师引导的自我演化训练范式,学习何时干预以及如何重构上下文,从而将上下文管理与推理过程解耦。实验表明,该方法在多轮对话任务中显著优于现有基线,同时减少了token消耗。

AI 推荐理由

论文提出ACR框架,直接针对对话中的上下文惯性和状态漂移问题,属于Agent Memory机制的核心研究。

论文信息
作者 Jiawei Shen, Jia Zhu, Hanghui Guo, Weijie Shi, Yue Cui et al.
发布日期 2026-01-09
arXiv ID 2601.05589
相关性评分 8/10 (高度相关)