LLM 认知偏差 对话代理 人类行为模拟
摘要

认知偏差常常影响人类的决策。尽管大型语言模型(LLMs)已被证明能够再现已知的偏差,但一个更关键的问题是LLMs是否能够在个体层面预测偏差,并在情境因素(如认知负荷)与这些偏差相互作用时模拟有偏差的人类行为。我们将三个已建立的决策场景转化为对话环境,并进行了一个人类实验(N=1100)。参与者与一个通过简单或复杂对话促进决策的聊天机器人互动。结果揭示了显著的偏差。为了评估LLMs在类似交互条件下如何模拟人类决策,我们使用参与者的人口统计信息和对话记录,基于GPT-4和GPT-5模拟这些条件。LLMs精确地再现了人类的偏差。我们发现不同模型在对齐人类行为方面存在显著差异。这对设计和评估适应性、具有偏差意识的LLM驱动AI系统在交互环境中的表现具有重要意义。

AI 推荐理由

论文涉及LLM在模拟人类决策偏差中的应用,与Agent Memory相关但非核心主题。

论文信息
作者 Stephen Pilli, Vivek Nallur
发布日期 2026-02-05
arXiv ID 2602.05597
相关性评分 5/10 (一般相关)