长文档检索 注意力机制 RAG 上下文感知
摘要

检索增强生成(RAG)已被广泛用于帮助大型语言模型(LLMs)处理涉及长文档的任务。然而,现有的检索模型并未专门设计用于长文档检索,无法解决长文档检索中的几个关键挑战,包括上下文感知、因果依赖性和检索范围。在本文中,我们提出了AttentionRetriever,一种新的长文档检索模型,该模型利用注意力机制和基于实体的检索方法,为长文档构建上下文感知的嵌入并确定检索范围。通过大量实验,我们发现AttentionRetriever在长文档检索数据集上的表现显著优于现有检索模型,同时保持了与密集检索模型相当的效率。

AI 推荐理由

论文提出了一种针对长文档检索的模型,涉及上下文感知和检索范围,与Agent Memory相关。

论文信息
作者 David Jiahao Fu, Lam Thanh Do, Jiayu Li, Kevin Chen-Chuan Chang
发布日期 2026-02-12
arXiv ID 2602.12278
相关性评分 7/10 (相关)