LLM Agent Memory Optimization Information Bottleneck Hybrid Retrieval
摘要

长期记忆使大型语言模型代理能够通过历史交互处理复杂任务。然而,现有框架在高效压缩冗余信息与保持下游任务精确检索之间面临根本性困境。为弥合这一差距,我们提出了MemFly,一个基于信息瓶颈原理的框架,支持LLM的即时记忆演化。我们的方法通过无梯度优化器最小化压缩熵并最大化相关性熵,构建分层记忆结构以实现高效存储。为充分利用MemFly,我们开发了一种混合检索机制,无缝整合语义、符号和拓扑路径,并引入迭代优化以处理复杂的多跳查询。全面实验表明,MemFly在记忆一致性、响应保真度和准确性方面显著优于最先进的基线方法。

AI 推荐理由

论文标题和内容直接聚焦于LLM的长期记忆优化,提出MemFly框架解决记忆压缩与检索问题,属于Agent Memory核心研究。

论文信息
作者 Zhenyuan Zhang, Xianzhang Jia, Zhiqin Yang, Zhenbo Song, Wei Xue et al.
发布日期 2026-02-08
arXiv ID 2602.07885
相关性评分 9/10 (高度相关)