时序异常检测 多轮对话 LLM应用 跨任务泛化
摘要

基于大语言模型(LLM)的异常检测(AD)有助于提升对时间序列(TS)中异常行为的理解和解释能力。现有方法面临推理能力不足、多轮对话能力欠缺以及泛化能力有限等挑战。为此,本文提出1)一种基于多智能体的时序演化算法TSEvol;2)构建了包含AD推理和多轮对话的TSEData-20K数据集,并贡献了用于AD的Chatbot家族模型,包括ChatAD-Llama3-8B、Qwen2.5-7B和Mistral-7B;3)提出了TS Kahneman-Tversky优化(TKTO),以增强ChatAD的跨任务泛化能力;4)设计了一个基于LLM的学习型AD基准LLADBench,用于评估ChatAD及其九个基线在七个数据集和任务上的性能。实验结果表明,三个ChatAD模型在准确率、F1值和误报率方面均有显著提升,且通过TKTO优化后,在分类、预测和填补任务中的推理能力和跨任务泛化能力表现优异。

AI 推荐理由

论文涉及多轮对话和记忆增强的AD方法,但核心是时序异常检测而非Memory机制。

论文信息
作者 Hui Sun, Chang Xu, Haonan Xie, Hao Li, Yuhao Huang et al.
发布日期 2026-01-20
arXiv ID 2601.13546
相关性评分 6/10 (相关)