LLM推理 任务分解 知识表示 规划任务 TMK框架
摘要

大型语言模型(LLM)在推理和规划任务中存在困难。尽管已有多种提示技术如思维链(CoT)被提出以辅助LLM推理,但这些方法的有效性也受到质疑。本文借鉴认知与教育科学领域,研究Task-Method-Knowledge(TMK)框架是否能进一步提升LLM的推理能力。TMK框架能够捕捉因果、目的性和层次化推理结构,并通过显式的任务分解机制,特别适合解决语言模型的推理缺陷。研究在PlanBench基准上进行实验,重点测试Blocksworld领域中的推理与规划能力,评估TMK结构化提示是否有助于将复杂规划问题分解为可管理的子任务。结果表明,TMK提示使推理模型在某些任务上的准确率从31.5%提升至97.3%,显示出其在语义近似与符号操作之间的桥梁作用。研究指出,TMK不仅作为上下文,还作为一种机制引导推理模型远离默认的语言模式,转向形式化的代码执行路径。

AI 推荐理由

论文探讨了TMK框架对LLM推理能力的提升,涉及任务分解与知识表示,与Agent Memory相关但非核心。

论文信息
作者 Erik Goh, John Kos, Ashok Goel
发布日期 2026-02-03
arXiv ID 2602.03900
相关性评分 6/10 (相关)