TimeGPT:时间序列预测模型实例

2023-12-03 12:36

本文主要是介绍TimeGPT:时间序列预测模型实例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

时间序列预测领域正在经历一个非常激动人心的时期。在过去的三年里,我们见证了许多重要的贡献,如N-BEATS、N-HiTS、PatchTST和TimesNet等。同时,大型语言模型(LLM)近来在流行度方面取得了很大的成功,例如ChatGPT,因为它们可以适应各种任务而无需进一步训练。

这引出了一个问题:类似于自然语言处理中存在的基础模型,是否可以存在用于时间序列的基础模型?是否可能对大量时间序列数据进行预训练的大型模型然后能够在未见数据上产生准确的预测?

通过Azul Garza和Max Mergenthaler-Canseco提出的TimeGPT-1,作者将LLM背后的技术和架构调整到了预测领域,成功地构建了第一个能够进行零次推理的时间序列基础模型。在本文中,我们首先探讨TimeGPT背后的架构以及该模型的训练方式。然后,我们将其应用于一个预测项目,评估其性能与其他最先进的方法,如N-BEATS、N-HiTS和PatchTST等进行对比。

探索TimeGPT

正如前面提到的,TimeGPT是首次尝试创建用于时间序列预测的基础模型。58e75003dd7347b3c1d90672663cb1b5.jpeg

如何对TimeGPT进行训练以在未见数据上进行推理的示例

从上图中,我们可以看到TimeGPT背后的一般思想是在大量不同领域的数据上训练模型,然后在未见数据上进行零次推理。当然,这种方法依赖于迁移学习,即模型能够使用其在训练过程中获得的知识来解决新任务。现在,这只有在模型足够大且在大量数据上进行训练时才能实现。

训练TimeGPT

为此,作者在超过1000亿个数据点上训练了TimeGPT,所有这些数据点都来自开源时间序列数据。该数据集涵盖了各种领域,从金融、经济和天气到网络流量、能源和销售。

请注意,作者并没有透露用于策划1000亿个数据点的公共数据的来源。

这种多样性对于基础模型的成功至关重要,因为它可以学习不同的时间模式,从而更好地进行泛化。

例如,我们可以预期天气数据具有每天(白天较热,夜晚较冷)和每年的季节性,而车流量数据可能具有每天(白天车辆更多)和每周的季节性(工作日车辆更多)。

为确保模型的健壮性和泛化能力,预处理被保持到最小。实际上,只填充了缺失值,其余保持在原始形式。虽然作者没有指定数据插补的方法,但我怀疑使用了某种插值技术,如线性插值、样条插值或移动平均插值。然后,该模型在多天内进行训练,期间优化了超参数和学习率。虽然作者没有透露训练需要多少天和多少个GPU,但我们知道该模型是在PyTorch中实现的,它使用Adam优化器和学习速率衰减策略。

TimeGPT的架构

TimeGPT利用基于Google和多伦多大学在2017年的开创性工作的自注意力机制的Transformer架构。

ccb7d2ece3e728415f9f4dcdac470e72.jpeg

从上图中,我们可以看到TimeGPT使用了完整的编码器-解码器Transformer架构

输入可以包含一窗历史数据,以及外生数据,比如一次性事件或另一个时间序列。

输入被馈送到模型的编码器部分。编码器内部的注意力机制然后从输入中学习不同的属性。然后将其馈送到解码器,解码器使用学到的信息生成预测。当达到用户设置的预测时间范围的长度时,预测序列就结束了。值得注意的是,作者在TimeGPT中实现了符合性预测,允许模型基于历史误差估计预测区间。

TimeGPT的功能

考虑到TimeGPT是构建时间序列基础模型的首次尝试,它具有各种广泛的功能。首先,由于TimeGPT是一个预训练模型,这意味着我们可以在没有在特定数据上进行训练的情况下生成预测。当然,仍然可以对模型进行微调以适应我们的数据。

其次,该模型支持用于预测目标的外生变量,并且可以处理多变量预测任务。最后,通过使用符合性预测,TimeGPT可以估计预测区间。这反过来使模型能够执行异常检测。基本上,如果数据点落在99%置信区间之外,那么模型将其标记为异常。

请记住,所有这些任务都可以使用零次推理或进行一些微调来完成,这对于时间序列预测领域来说是一种范式的彻底变革。现在,我们对TimeGPT有了更加坚实的理解,知道它是如何工作和如何训练的,让我们看看该模型的实际表现。

使用TimeGPT进行预测

现在,让我们将TimeGPT应用于一个预测任务,并将其性能与其他模型进行比较。请注意,在撰写本文时,TimeGPT仅通过API可访问,而且它处于封闭测试阶段。正如前面提到的,该模型是在来自公开可用数据的1000亿个数据点上进行训练的。由于作者没有指定实际使用的数据集,我认为测试该模型是否具有数据集可能在训练过程中看到的知名基准数据集,如ETT或天气数据,是不合理的。

导入库并读取数据

自然的第一步是导入用于这个实验的库。

import pandas as pd
import numpy as np
import datetime
import matplotlib.pyplot as pltfrom neuralforecast.core import NeuralForecast
from neuralforecast.models import NHITS, NBEATS, PatchTSTfrom neuralforecast.losses.numpy import mae, msefrom nixtlats import TimeGPT%matplotlib inline

然后,为了访问TimeGPT模型,我们从文件中读取API密钥。请注意,我没有将API密钥分配给环境变量,因为访问权限仅限于两周。

with open("data/timegpt_api_key.txt", 'r') as file:API_KEY = file.read()

然后,我们可以读取数据。

df = pd.read_csv('data/medium_views_published_holidays.csv')
df['ds'] = pd.to_datetime(df['ds'])df.head()

7e5b9ce96da1033d1add51715f738ced.jpeg

我们数据集的前五行

从上图中,我们可以看到数据集的格式与使用Nixtla等其他开源库时的格式相同。

我们有一个unique_id列,用于标记不同的时间序列,但在我们的情况下,我们只有一个系列。列y表示我博客的日访问量,published是一个简单的标志,用于标记发布新文章的一天(1)或未发布文章的一天(0)。直观地说,我们知道发布新内容时,访问量通常会在一段时间内增加。最后,列is_holiday指示美国是否有假期。直观地说,在假期期间,访问我的博客的人数会减少。现在,让我们可视化我们的数据并寻找明显的模式。

published_dates = df[df['published'] == 1]
fig, ax = plt.subplots(figsize=(12,8))
ax.plot(df['ds'], df['y'])
ax.scatter(published_dates['ds'], published_dates['y'], marker='o', color='red', label='New article')
ax.set_xlabel('Day')
ax.set_ylabel('Total views')
ax.legend(loc='best')
fig.autofmt_xdate()
plt.tight_layout()

61d1e3754dbf647d067daf6fb9047542.jpeg

博客的日访问量

从上图中,我们已经可以看到一些有趣的行为。首先,注意红色点表示新发布的文章,它们几乎立即在访问量中出现峰值。我们还注意到2021年的活动较少,这反映在我的博客的日访问量较少。最后,在2023年,我们注意到在发布文章后出现了一些异常的访问高峰。在放大数据后,我们还发现了明显的每周季节性。

14be46ba5183b3d756e2f6dc55e49337.jpeg

博客的日访问量。在这里,我们看到了明显的每周季节性,周末访问的人数较少

从上图中,我们现在可以看到,在周末,博客的访问者较少,而在工作日,访问者较多。考虑到所有这些,让我们看看如何使用TimeGPT进行预测。

使用TimeGPT进行预测

首先,让我们将数据集拆分为训练集和测试集。在这里,我将保留168个时间步长用于测试集,这对应于24周的每日数据。

train = df[:-168]
test = df[-168:]

然后,我们将预测视野设置为七天,因为我有兴趣预测整个星期的每日访问量。

现在,该API不提供交叉验证的实现。因此,我们创建自己的循环,以一次生成七个预测,直到我们对整个测试集进行了预测。

future_exog = test[['unique_id', 'ds', 'published', 'is_holiday']]timegpt = TimeGPT(token=API_KEY)timegpt_preds = []for i in range(0, 162, 7):timegpt_preds_df = timegpt.forecast(df=df.iloc[:1213+i],X_df = future_exog[i:i+7],h=7,finetune_steps=10,id_col='unique_id',time_col='ds',target_col='y')preds = timegpt_preds_df['TimeGPT']timegpt_preds.extend(preds)

在上面的代码块中,请注意我们必须传递我们外生变量的未来值。这是可以的,因为它们是静态变量。我们知道假期的未来日期,博客作者个人也知道他计划在何时发布文章。还要注意,我们使用finetune_steps参数对TimeGPT进行了微调。一旦循环完成,我们就可以将预测添加到测试集中。同样,TimeGPT每次生成七个预测,直到获得168个预测,以便我们可以评估其在预测下周每日访问量方面的能力。

test['TimeGPT'] = timegpt_preds
test.head()

62348786a2c99dcb0a9ab48dea5258e6.jpeg

TimeGPT的预测

使用N-BEATS、N-HiTS和PatchTST进行预测

现在,让我们应用其他方法,看看在我们的数据集上对这些模型进行专门训练是否能产生更好的预测。对于这个实验,如前所述,我们使用N-BEATS、N-HiTS和PatchTST。

horizon = 7models = [NHITS(h=horizon,input_size=5*horizon,max_steps=50),NBEATS(h=horizon,input_size=5*horizon,max_steps=50),PatchTST(h=horizon,input_size=5*horizon,max_steps=50)]

接下来,我们初始化NeuralForecast对象,并指定我们数据的频率,在这种情况下是每日。

nf = NeuralForecast(models=models, freq='D')

然后,我们对24个窗口的7个时间步执行交叉验证,以获得与用于TimeGPT的测试集对齐的预测。

preds_df = nf.cross_validation(df=df, static_df=future_exog , step_size=7, n_windows=24
)

然后,我们可以简单地将来自TimeGPT的预测添加到这个新的`preds_df` DataFrame 中,以获得一个包含所有模型预测的单个 DataFrame。

preds_df['TimeGPT'] = test['TimeGPT']

f2937179e6617a126987e615ff8de6a8.jpeg

接下来,我们准备评估每个模型的性能

评估

在测量性能指标之前,让我们可视化每个模型在我们的测试集上的预测。231f59f8c72b52ea2dad771a06883ed4.jpeg

可视化每个模型的预测

首先,我们看到每个模型之间有很多重叠。然而,我们注意到N-HiTS预测了两个实际上没有实现的高峰。此外,似乎PatchTST经常低估。然而,TimeGPT似乎总体上与实际数据相当吻合。

当然,评估每个模型的性能的唯一方法是测量性能指标。在这里,我们使用了平均绝对误差(MAE)和均方误差(MSE)。此外,我们将预测四舍五入为整数,因为在博客的日常访问者背景下,小数是没有意义的。

preds_df = preds_df.round({'NHITS': 0,'NBEATS': 0,'PatchTST': 0,'TimeGPT': 0
})
data = {'N-HiTS': [mae(preds_df['NHITS'], preds_df['y']), mse(preds_df['NHITS'], preds_df['y'])],'N-BEATS': [mae(preds_df['NBEATS'], preds_df['y']), mse(preds_df['NBEATS'], preds_df['y'])],'PatchTST': [mae(preds_df['PatchTST'], preds_df['y']), mse(preds_df['PatchTST'], preds_df['y'])],'TimeGPT': [mae(preds_df['TimeGPT'], preds_df['y']), mse(preds_df['TimeGPT'], preds_df['y'])]}
metrics_df = pd.DataFrame(data=data)
metrics_df.index = ['mae', 'mse']
metrics_df.style.highlight_min(color='lightgreen', axis=1)

d990c5ccf2b2c83c2f4064ab04bed10e.jpeg

从上图可以看出,TimeGPT是冠军模型,因为它在MAE和MSE方面表现最佳,其次是N-BEATS、PatchTST和N-HiTS。这是一个令人振奋的结果,因为TimeGPT从未见过这个数据集,而且只进行了少量微调。虽然这不是详尽无遗的实验,但我认为它确实展示了基础模型在预测领域可能具有的潜力。

我对TimeGPT的个人看法

虽然我对TimeGPT的简短实验感到兴奋,但我必须指出,原始论文在许多重要领域仍然模糊不清。同样,我们不知道用于训练和测试模型的数据集是什么,因此我们无法真正验证TimeGPT的性能结果,如下所示。


93a60ca57fd2ed3811fedbb065cb29d8.jpeg

TimeGPT的性能结果

从上表中,我们可以看到TimeGPT在月度和周度频率上表现最佳,N-HiTS和Temporal Fusion Transformer(TFT)通常排名第二或第三。然而,由于我们不知道使用了哪些数据,我们无法验证这些指标。在模型是如何训练的以及如何适应处理时间序列数据方面,缺乏透明度。

结论

TimeGPT是用于时间序列预测的第一个基础模型。它利用Transformer架构,经过预训练,使用来自1000亿数据点的零样本推理能力。结合了符合预测技术,该模型可以生成预测区间,并在没有对特定数据集进行训练的情况下执行异常检测。

·  END  ·

HAPPY LIFE

c27aa5bef8b34c15b60a1ad919a942a5.png

本文仅供学习交流使用,如有侵权请联系作者删除

这篇关于TimeGPT:时间序列预测模型实例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/449466

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

uva 10131 最长子序列

题意: 给大象的体重和智商,求体重按从大到小,智商从高到低的最长子序列,并输出路径。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstring>#include <cmath>#include <stack>#include <vect