摘要
自演进记忆作为基于大语言模型(LLMs)的智能体的可训练参数,其提取(从经验中提炼见解)和管理(更新记忆库)必须紧密协调。现有方法主要优化记忆管理,而将记忆提取视为静态过程,导致泛化能力差,智能体积累的是实例特定的噪声而非鲁棒记忆。为解决此问题,本文提出统一记忆提取与管理(UMEM)框架,联合优化大语言模型以同时进行记忆提取与管理。为缓解对具体实例的过拟合,引入语义邻域建模,并通过GRPO优化模型,以邻域级别的边际效用奖励确保记忆的泛化性。在五个基准上的广泛实验表明,UMEM显著优于高度竞争的基线方法,在多轮交互任务中最高提升达10.67%。此外,UMEM在持续演化过程中保持单调增长曲线。代码和模型将公开发布。
AI 推荐理由
论文标题和内容明确聚焦于Agent Memory的提取与管理机制,提出统一框架解决记忆泛化问题。
论文信息