摘要
随着多智能体AI系统从简单的聊天机器人发展为自主群体,调试语义失败需要推理知识、信念、因果关系和义务,这正是模态逻辑所设计的形式化内容。然而,传统模态逻辑需要手动指定在实际系统中未知或动态的关系结构。本教程展示了通过模态逻辑神经网络(MLNNs)实现的可微模态逻辑(DML),使系统能够仅从行为数据中学习信任网络、因果链和监管边界。我们通过四个模态提出统一的神经符号调试框架:认识论(信任谁)、时间(事件何时导致故障)、道义(允许哪些动作)和信念(如何解释智能体信心)。每个模态都在具体的多智能体场景中进行了演示,例如从外交游戏中发现欺骗性联盟到检测LLM幻觉,并展示了如何将逻辑矛盾转化为可学习的优化目标。关键贡献包括:(1)可解释的学习结构,其中信任和因果关系是显式参数而非不透明嵌入;(2)通过可微分公理注入知识以指导稀疏数据下的学习;(3)组合多模态推理,结合认识论、时间和道义约束;以及(4)用于监控、主动控制和通信的多智能体系统的实用部署模式。所有代码均提供为可执行的Jupyter笔记本。
AI 推荐理由
论文涉及多智能体系统的信任网络和因果链学习,与Agent Memory相关,但非唯一主题。
论文信息