持续学习 元学习 记忆重构 预训练模型
摘要

为了应对外部世界的不确定变化,智能系统必须从复杂、不断演变的环境中持续学习并实时响应。这种能力被称为通用持续学习(GCL),涵盖了在线数据流和模糊任务边界等实际挑战。尽管利用预训练模型(PTMs)已显著推进了传统持续学习(CL),但这些方法在单次传递中仍难以协调多样且时间混合的信息,导致GCL性能欠佳。受神经科学中元可塑性和重构性记忆的启发,本文提出了一种名为Meta Post-Refinement(MePo)的新方法,用于基于PTMs的GCL。该方法从预训练数据中构建伪任务序列,并开发了一个双层元学习范式来优化预训练主干网络,这相当于延长了预训练阶段,但大大促进了表示学习对下游GCL任务的快速适应。MePo进一步初始化一个元协方差矩阵作为预训练表示空间的参考几何,使GCL能够利用二阶统计量进行鲁棒输出对齐。MePo作为一种插件策略,在多种GCL基准测试和预训练检查点上实现了显著的性能提升,且无需回放(例如,在CIFAR-100、ImageNet-R和CUB-200上的Sup-21/1K任务中分别提升了15.10%、13.36%和12.56%)。我们的源代码可在https://github.com/SunGL001/MePo获取。

AI 推荐理由

论文提出MePo方法,涉及记忆重构与元学习,用于持续学习中的表示对齐。

论文信息
作者 Guanglong Sun, Hongwei Yan, Liyuan Wang, Zhiqi Kang, Shuang Cui et al.
发布日期 2026-02-08
arXiv ID 2602.07940
相关性评分 7/10 (相关)