摘要
生成式社交代理(GSAs)正通过说服手段日益影响人类用户。一方面,它们可能激励用户追求个人目标,如更健康的生活方式;另一方面,由于对概率化代理输出的控制有限,它们也存在潜在风险,如操纵和欺骗。然而,由于GSAs的行为基于其可访问的知识,因此可以通过其对知识的访问来调节其行为。本研究在人类-机器人物理治疗动机场景中探讨了ChatGPT生成的说服性信息。通过比较ChatGPT对假设物理治疗患者的预定义输入的响应,研究1对13个不同知识配置的对话脚本进行了定性分析。研究2由第三方观察者(N=27)对这些对话的表达性、果断性和说服力进行评分。研究结果表明,基于LLM的GSAs可以调整其果断性和表达性个性特征,从而显著增强感知说服力。此外,患者年龄和过去职业等信息的可用性通过感知果断性和表达性显著提升了说服力。而关于物理治疗益处的背景知识并未显著影响说服力,这可能是由于LLM本身已具备相关知识。总体而言,该研究强调了对GSAs行为模式进行实证研究的重要性,特别是在生成式AI系统需要哪些信息以实现一致且负责任的沟通方面。
AI 推荐理由
论文探讨了知识对Agent说服力的影响,涉及记忆相关内容但非核心主题。
论文信息