摘要
AI代理能够以高速执行复杂操作,但其智能仍存在缺陷。误沟通未被察觉,系统性偏见缺乏反制措施,内心独白也极少被记录。我们并非因错误而解雇它们,而是希望为它们提供一个安全且高效的协作环境。本文提出可以复用常见的企业组织结构:由具有严格角色边界、共同目标但不同激励机制的独立AI代理组成的团队,可以通过相互竞争来减少最终产品中的错误。本文描述了该系统的实际架构:包括规划者、执行者、批评者和专家等专业代理团队,通过远程代码执行器协调,将数据转换和工具调用与推理模型分离。代理不直接调用工具或接收完整响应,而是编写远程执行的代码;仅相关摘要返回给代理上下文。通过防止原始数据和工具输出污染上下文窗口,系统保持了感知(计划和推理的大脑)与执行(进行大量数据转换和API调用的手)之间的清晰分离。实验表明,该方法在用户接触前可拦截超过90%的内部错误,同时保持合理的延迟权衡。从我们的追踪调查中可以看出,这种方法仅以成本和延迟为代价,实现了正确性和能力的逐步扩展,而不会影响现有功能。
AI 推荐理由
论文涉及多智能体协作与错误拦截,间接关联到Agent Memory的可靠性与信息管理。
论文信息