Agent Memory Temporal Modeling Semantic Memory LLM Personalization
摘要

记忆使大型语言模型(LLM)代理能够感知、存储并使用过去对话中的信息,这对于个性化至关重要。然而,现有方法在两个方面未能正确建模记忆的时间维度:1)时间不准确:记忆按对话时间而非实际发生时间组织;2)时间碎片化:现有方法关注点状记忆,丢失了捕捉持久状态和演变模式的持续信息。为解决这些限制,我们提出了时间语义记忆(TSM),一种建模点状记忆语义时间并支持构建和利用持续记忆的记忆框架。在记忆构建过程中,它首先建立语义时间线而非对话时间线,然后将时间连续且语义相关的信息整合为持续记忆。在记忆利用过程中,它结合查询在语义时间线上的时间意图,从而检索出时间合适、持续一致的记忆,并提供时间有效、持续一致的上下文以支持响应生成。在LongMemEval和LoCoMo上的实验表明,TSM始终优于现有方法,在准确性上实现了高达12.2%的绝对提升,证明了所提方法的有效性。

AI 推荐理由

论文直接聚焦于LLM Agent的Memory机制,提出新的时间语义记忆框架,核心研究内容为Agent Memory。

论文信息
作者 Miao Su, Yucan Guo, Zhongni Hou, Long Bai, Zixuan Li et al.
发布日期 2026-01-12
arXiv ID 2601.07468
相关性评分 10/10 (高度相关)