任务解耦 长时地平线代理 上下文隔离 规划系统
摘要

近年来,大语言模型(LLMs)的进步使代理能够自主执行复杂的长时地平线任务,但规划仍然是可靠任务执行的主要瓶颈。现有方法通常分为两种范式:逐步规划,具有反应性但往往短视;以及一次性规划,虽在开始时生成完整计划,但对执行错误敏感。这两种范式都存在上下文纠缠问题,即代理必须在一个跨越多个子任务的单一历史中进行推理。这种纠缠增加了认知负担,并导致局部错误传播到原本独立的决策中,使得恢复计算成本高昂。为了解决这一问题,我们提出了任务解耦规划(TDP),一种无需训练的框架,通过任务解耦替代纠缠推理。TDP通过监督器将任务分解为子目标的有向无环图(DAG)。使用具有作用域上下文的规划器和执行器,TDP将推理和重新规划限制在当前子任务中。这种隔离防止了错误传播,并可在不干扰工作流的情况下本地纠正偏差。在TravelPlanner、ScienceWorld和HotpotQA上的实验结果表明,TDP优于强基线,同时减少了高达82%的token消耗,证明子任务解耦可提高长时地平线代理的鲁棒性和效率。

AI 推荐理由

论文提出任务解耦规划框架,减少上下文纠缠,与Agent Memory中的子任务隔离和错误传播控制相关。

论文信息
作者 Yunfan Li, Bingbing Xu, Xueyun Tian, Xiucheng Xu, Huawei Shen
发布日期 2026-01-12
arXiv ID 2601.07577
相关性评分 7/10 (相关)