摘要
智能体系统通过协调多个智能体来解决复杂任务,这些智能体迭代推理、调用工具并交换中间结果。为提高鲁棒性和解决方案质量,近期方法部署了多个并行运行的智能体团队以探索多样化的推理路径。然而,并行执行带来了显著的计算成本:当不同团队独立处理相似子问题或执行类似步骤时,会重复进行大量重叠计算。为解决这一问题,本文提出了Learning to Share(LTS),一种用于并行智能体框架的学习共享内存机制,能够在控制上下文增长的同时实现跨团队的信息重用。LTS引入了一个所有团队均可访问的全局内存库和一个轻量级控制器,决定是否将中间智能体步骤添加到内存中。控制器通过基于使用感知的信用分配的逐步强化学习进行训练,使其能够识别在并行执行中具有全局有用性的信息。在AssistantBench和GAIA基准上的实验表明,LTS显著减少了总体运行时间,同时与无内存的并行基线相比匹配或提升了任务性能,证明了学习记忆准入是提高并行智能体系统效率的有效策略。
AI 推荐理由
论文核心提出了一种学习共享的内存机制,直接针对并行智能体系统的记忆管理问题。
论文信息