Agent Memory 状态感知 语言模型 个性化对话 RLHF
摘要

用户与语言模型的互动因用户的静态属性(特质)和具体交互情境(状态)而有所不同。然而,现有的人设数据集(如PersonaChat、PANDORA等)仅捕捉了特质,忽略了状态的影响。本文引入Chameleon数据集,包含来自1,667名Reddit用户的5,001个情境化心理画像,每个用户在多个情境下被测量。利用该数据集,研究得出三个关键发现:首先,根据潜在状态-特质理论,74%的方差来源于个体内部的状态,仅有26%来源于个体间的特质差异;其次,语言模型对状态无感,仅关注特质,因此无论状态如何,其响应相似;第三,奖励模型会对用户状态作出反应,但表现不一致:不同模型对同一用户可能产生相反的偏好或惩罚。本文发布Chameleon数据集,以支持情感计算、个性化对话及RLHF对齐方面的研究。

AI 推荐理由

论文探讨了语言模型对用户状态的感知不足,与Agent Memory中状态管理相关。

论文信息
作者 Tamunotonye Harry, Ivoline Ngong, Chima Nweke, Yuanyuan Feng, Joseph Near
发布日期 2026-01-21
arXiv ID 2601.15395
相关性评分 6/10 (相关)