摘要
基于大语言模型(LLM)的代理已在许多工具增强场景中成功部署,但其可扩展性受到上下文长度的根本限制。现有的上下文折叠方法通过总结过去的交互来缓解这一问题,但通常设计用于单查询或单一意图场景。在更现实的用户中心对话中,我们识别出两种主要失效模式:(i)它们不可逆地丢弃了对后续决策至关重要的细粒度约束和中间事实;(ii)其摘要无法跟踪用户意图的演变,导致遗漏和错误操作。为了解决这些限制,我们提出了U-Fold,一种面向用户中心任务的动态上下文折叠框架。U-Fold保留完整的用户-代理对话和工具调用历史,但在每一步中使用两个核心组件生成一个意图感知的、动态演变的对话摘要和一个紧凑且任务相关的工具日志。在τ-bench、τ²-bench、VitaBench以及更复杂的上下文膨胀设置上的大量实验表明,U-Fold在长上下文设置中始终优于ReAct(达到71.4%的胜率),并显著优于先前的折叠基线(最高提升达27.0%),特别是在长、嘈杂、多轮任务上表现突出。我们的研究表明,U-Fold是将上下文管理技术从单查询基准转移到现实用户中心应用的重要一步。
AI 推荐理由
论文聚焦于动态上下文折叠机制,直接针对Agent Memory中的长上下文管理问题,是核心研究。
论文信息