LLM Agents Context Modeling Semantic Dynamics Formal Models
摘要

当前关于大语言模型(LLM)智能体的研究较为碎片化:概念框架和方法论原则的讨论常常与低层次实现细节交织在一起,导致读者和作者在大量表面不同的概念中迷失方向。我们认为这种碎片化主要源于缺乏一个可分析、自洽的形式化模型,该模型能够独立于具体实现对LLM智能体进行特征描述和比较。为了解决这一问题,我们提出了结构化上下文模型(Structural Context Model),从上下文结构的角度对LLM智能体进行分析和比较。在此基础上,我们引入了两个互补的组件,共同覆盖LLM智能体研究和开发的完整生命周期:(1)一种声明式实现框架;以及(2)一种可持续的智能体工程工作流——语义动态分析(Semantic Dynamics Analysis)。所提出的流程为智能体机制提供了原理性见解,并支持快速、系统的设计迭代。我们在动态变种的猴子-香蕉问题上验证了该框架的有效性,使用本方法构建的智能体在最具挑战性的设置中成功率提高了32个百分点。

AI 推荐理由

论文涉及LLM Agent的结构化上下文建模,与记忆机制相关但非核心主题。

论文信息
作者 Haoyu Jia, Kento Kawaharazuka, Kei Okada
发布日期 2026-02-09
arXiv ID 2602.08276
相关性评分 6/10 (相关)