LLM Agent Memory Architecture Dynamic Retrieval Cognitive Economy
摘要

大型语言模型(LLM)代理在短文本场景中表现出色,但在长对话中常因低效的记忆管理而表现不佳。现有方法面临效率与效果之间的根本性权衡:记忆压缩可能导致复杂推理所需的关键细节丢失,而保留原始文本则会为简单查询引入不必要的计算开销。问题的核心在于单一化的记忆表示和静态检索机制无法模拟人类灵活且主动的记忆调度能力,从而难以适应多样化的场景。受认知经济原则启发,本文提出HyMem,一种通过多粒度记忆表示实现动态按需调度的混合记忆架构。HyMem采用双粒度存储方案与动态两级检索系统:轻量级模块构建摘要级上下文以提高响应生成效率,而基于LLM的深度模块仅在复杂查询时被选择性激活,并辅以反思机制用于迭代推理优化。实验表明,HyMem在LOCOMO和LongMemEval基准测试中均取得优异性能,优于全上下文方法,同时将计算成本降低了92.6%,在长期记忆管理中实现了效率与性能的最先进平衡。

AI 推荐理由

论文核心聚焦于LLM Agent的混合记忆架构与动态检索调度,直接针对Agent Memory机制进行创新。

论文信息
作者 Xiaochen Zhao, Kaikai Wang, Xiaowen Zhang, Chen Yao, Aili Wang
发布日期 2026-02-15
arXiv ID 2602.13933
相关性评分 10/10 (高度相关)