Agent Memory Context Compression Autonomous Management LLM Optimization
摘要

大型语言模型(LLM)代理在长期软件工程任务中面临“上下文膨胀”问题,导致计算成本激增、延迟增加和推理能力下降。现有解决方案通常依赖被动的外部摘要机制,而无法由代理自主控制。本文提出Focus架构,受黏菌(Physarum polycephalum)生物探索策略启发,代理可自主决定何时将关键学习内容整合为持久化的“知识”块,并主动删除原始交互历史。通过优化的工业级框架(持久化bash + 字符串替换编辑器),使用Claude Haiku 4.5对SWE-bench Lite中的5个上下文密集型实例进行评估。在频繁压缩的提示下,Focus实现了22.7%的token减少(14.9M → 11.5M tokens),同时保持相同准确率(3/5 = 60%)。每个任务平均执行6次自主压缩,单个实例最多节省57%的token。研究表明,当提供适当工具和提示时,有能力的模型可以自主调节其上下文,为不牺牲任务性能的成本感知代理系统开辟新路径。

AI 推荐理由

论文核心研究LLM Agent的自主记忆管理机制,提出Focus架构解决Context Bloat问题。

论文信息
作者 Nikhil Verma
发布日期 2026-01-12
arXiv ID 2601.07190
相关性评分 9/10 (高度相关)