长上下文理解 递归记忆机制 持续预训练 LLM优化
摘要

本文提出了一种主动回顾学习(Active Recap Learning, ARL)框架,旨在提升大语言模型(LLM)对长上下文的理解能力。ARL通过在持续预训练阶段构建目标序列,并在推理阶段进行回顾性摘要生成,使模型能够重新审视并总结早期内容。首先,基于长、短前向上下文之间的损失差异识别关键标记,并找到最相关的先前段落,然后利用LLM对其进行摘要。其次,ARL使模型能够在推理过程中自主生成并使用这些回顾性摘要,从而建立跨段落的递归记忆机制。实验结果表明,ARL在RULER和LongBench数据集上分别取得了26.8%和9.44%的显著提升。总体而言,ARL提供了一种简单而有效的持续预训练方法,以增强长上下文理解能力,推动了LLM可扩展的记忆增强技术。

AI 推荐理由

论文核心聚焦于增强LLM的长上下文理解,提出递归记忆机制,与Agent Memory直接相关。

论文信息
作者 Chenyu Hui
发布日期 2026-01-20
arXiv ID 2601.13734
相关性评分 8/10 (高度相关)