摘要
大型语言模型(LLMs)的持续学习面临稳定性和可塑性的平衡挑战。尽管经验回放(ER)是防止灾难性遗忘的标准方法,但其在不同任务上的影响尚未被充分研究。本文发现ER在稳健、非结构化任务上具有正向迁移效果,但在脆弱、结构化领域如代码生成中却导致严重负迁移。为解决这一问题,本文提出正交子空间唤醒(OSW)方法,通过短暂的“唤醒”阶段识别先前任务的关键参数子空间,并对新任务进行正交更新,从而提供数学支持的“安全性保证”。实验结果表明,OSW在保留脆弱编码能力方面优于传统回放方法,同时保持对新任务的高可塑性。研究强调了在LLM持续学习中评估结构安全的重要性。
AI 推荐理由
论文聚焦于LLM持续学习中的记忆稳定性与可塑性平衡,提出OSW方法以保障结构安全,属于Agent Memory核心研究。
论文信息