隐私保护 多智能体学习 上下文完整性 LLM代理
摘要

大型语言模型(LLM)代理越来越多地用于涉及敏感、上下文依赖信息的个性化任务,在此过程中,由于上下文隐私的隐含性,代理的行为可能导致隐私泄露。现有方法依赖于外部推理时的干预措施,这些方法脆弱且场景特定,可能扩大隐私攻击面。本文提出PrivAct,一种上下文隐私感知的多智能体学习框架,将上下文隐私保护直接内化到模型的生成行为中,以确保符合隐私规范的代理行为。通过将隐私偏好嵌入每个代理,PrivAct增强了系统的上下文完整性,同时实现了更优的隐私与实用性权衡。在多个LLM主干和基准上的实验表明,PrivAct在上下文隐私保护方面表现出一致的改进,泄漏率降低了高达12.32%,同时保持了相当的实用性,并具备零样本泛化能力和对多样化的多智能体拓扑结构的鲁棒性。

AI 推荐理由

论文涉及隐私保护与多智能体生成行为,间接关联记忆机制。

论文信息
作者 Yuhan Cheng, Hancheng Ye, Hai Helen Li, Jingwei Sun, Yiran Chen
发布日期 2026-02-14
arXiv ID 2602.13840
相关性评分 7/10 (相关)