LLM Human Mobility Simulation Cache Framework Efficiency Optimization
摘要

大规模人类移动性模拟在城市规划、流行病学和交通分析等应用中具有重要意义。近期研究将大语言模型(LLMs)作为人类智能体,通过结构化推理模拟真实移动行为,但其高计算成本限制了可扩展性。为解决这一问题,本文设计了一种名为MobCache的移动性感知缓存框架,利用可重构缓存实现高效的大型人类移动性模拟。该框架包含两个部分:(1) 推理组件,将每个推理步骤编码为潜在空间嵌入,并使用潜在空间评估器实现推理步骤的重用与重组;(2) 解码组件,采用轻量级解码器并通过受移动规律约束的蒸馏训练,将潜在空间推理链转换为自然语言,从而在保持保真度的同时提高模拟效率。实验表明,MobCache在多个维度上显著提升了效率,同时性能与最先进的LLM方法相当。

AI 推荐理由

论文提出了一种基于缓存的框架,涉及推理步骤的重用与重组,与Agent Memory相关但非核心主题。

论文信息
作者 Hua Yan, Heng Tan, Yingxue Zhang, Yu Yang
发布日期 2026-02-17
arXiv ID 2602.16727
相关性评分 6/10 (相关)