Agent Memory Meta-Cognition Memory Abstraction Transfer Learning
摘要

大型语言模型(LLM)智能体在解决长期决策任务时越来越依赖积累的记忆。然而,现有方法通常以固定表示形式存储记忆,并在单一或隐含的抽象层次上重用,这限制了泛化能力,并在分布偏移时导致负迁移。本文提出了一种元认知记忆抽象方法(MCMA),将记忆抽象视为一种可学习的认知技能,而非固定设计选择。MCMA通过结合冻结的任务模型和学习的记忆协作者,将任务执行与记忆管理解耦。记忆协作者通过直接偏好优化进行训练,决定记忆应如何结构化、抽象化和重用。进一步地,记忆被组织为多个抽象层次,实现基于任务相似性的选择性重用。当没有可迁移记忆时,MCMA通过迁移记忆协作者来传递抽象和管理记忆的能力。在ALFWorld、ScienceWorld和BabyAI上的实验表明,该方法在性能、分布外泛化和跨任务迁移方面均优于多个基线方法。

AI 推荐理由

论文核心聚焦于Agent Memory的抽象与管理机制,提出可学习的记忆抽象方法。

论文信息
作者 Sirui Liang, Pengfei Cao, Jian Zhao, Wenhao Teng, Xiangwen Liao et al.
发布日期 2026-01-12
arXiv ID 2601.07470
相关性评分 9/10 (高度相关)