干货 | 20个Python教程,掌握时间序列的特征分析(附代码)

2023-11-08 13:20

本文主要是介绍干货 | 20个Python教程,掌握时间序列的特征分析(附代码),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

点击上方“Python数据之道”,选择“星标公众号”

收藏文章的同时,不要忘记「在看

640?wx_fmt=jpeg

作者 | Selva Prabhakaran 

译者 | Tianyu

编辑 | Jane

来源 | AI科技大本营(ID: rgznai100)

【导语】时间序列是指以固定时间为间隔的序列值。本篇教程将教大家用 Python 对时间序列进行特征分析。

 

1、什么是时间序列?

时间序列是指以固定时间为间隔的、由所观察的值组成的序列。根据观测值的不同频率,可将时间序列分成小时、天、星期、月份、季度和年等时间形式的序列。有时候,你也可以将秒钟和分钟作为时间序列的间隔,如每分钟的点击次数和访客数等等。

 

为什么我们要对时间序列进行分析呢?

 

因为当你想对一个序列进行预测时,首先要完成分析这个步骤。除此之外,时间序列的预测也具有极大商业价值,如企业的供求量、网站的访客量以及股票价格等,都是极其重要的时间序列数据。

 

那么,时间序列分析都包括哪些内容呢?

 

要做好时间序列分析,必须要理解序列的内在属性,这样才能做出更有意义且精准的预测。

2、如何在 Python 中引入时间序列?

关于时间序列的数据大都存储在 csv 文件或其他形式的表格文件里,且都包含两个列:日期和观测值。

 

首先我们来看 panda 包里面的 read_csv() 函数,它可以将时间序列数据集(关于澳大利亚药物销售的 csv 文件)读取为 pandas 数据框。增加一个 parse_dates=['date'] 字段,可以把包含日期的数据列解析为日期字段。

from dateutil.parser import parse 	
import matplotlib as mpl	
import matplotlib.pyplot as plt	
import seaborn as sns	
import numpy as np	
import pandas as pd	
plt.rcParams.update({'figure.figsize': (10, 7), 'figure.dpi': 120})	# Import as Dataframe	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'])	
df.head()

640?wx_fmt=png

时间序列数据框

 

此外,你也可以将文件读取为 pandas 序列,把日期作为索引列,只需在 pd.read_csv() 中指定 index_col 参数。

ser = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'], index_col='date')	
ser.head()

640?wx_fmt=png

pandas 序列

 

注意,在 pandas 序列中,'value' 列的位置高于 'date' 列,这表明它是一个 pandas 序列而非数据框。

 

3、什么是面板数据?

面板数据同样是基于时间的数据集。

 

不同之处是,除了时间序列,面板数据还包括一个或多个相关变量,这些变量也是在同个时间段内测得的。

 

面板数据中的列包括有助于预测 y 值的解释变量,这些特征列可用于之后的预测。以下是关于面板数据的例子:

# dataset source: https://github.com/rouseguy	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/MarketArrivals.csv')	
df = df.loc[df.market=='MUMBAI', :]	
df.head()

640?wx_fmt=png

面板数据

4、时间序列可视化

接下来,我们用 matplotlib 对序列进行可视化。

 

640?wx_fmt=png

时间序列可视化

 

由于所有的值都为正数,无论使用 y 轴的哪一侧都可以看到增长的趋势。

# Import data	
df = pd.read_csv('datasets/AirPassengers.csv', parse_dates=['date'])	
x = df['date'].values	
y1 = df['value'].values	# Plot	
fig, ax = plt.subplots(1, 1, figsize=(16,5), dpi= 120)	
plt.fill_between(x, y1=y1, y2=-y1, alpha=0.5, linewidth=2, color='seagreen')	
plt.ylim(-800, 800)	
plt.title('Air Passengers (Two Side View)', fontsize=16)	
plt.hlines(y=0, xmin=np.min(df.date), xmax=np.max(df.date), linewidth=.5)	
plt.show()

 

640?wx_fmt=png

飞机乘客数据 - 双边序列

 

由于这是一个月份的时间序列,每年的走势都遵循着特定重复的模式,你可以在同一个图中画出单独每年的折线。这样有助于对这几年的趋势走向进行平行对比。

 

季节性时间序列的可视化:

# Import Data	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'], index_col='date')	
df.reset_index(inplace=True)	# Prepare data	
df['year'] = [d.year for d in df.date]	
df['month'] = [d.strftime('%b') for d in df.date]	
years = df['year'].unique()	# Prep Colors	
np.random.seed(100)	
mycolors = np.random.choice(list(mpl.colors.XKCD_COLORS.keys()), len(years), replace=False)	# Draw Plot	
plt.figure(figsize=(16,12), dpi= 80)	
for i, y in enumerate(years):	if i > 0:	plt.plot('month', 'value', data=df.loc[df.year==y, :], color=mycolors[i], label=y)	plt.text(df.loc[df.year==y, :].shape[0]-.9, df.loc[df.year==y, 'value'][-1:].values[0], y, fontsize=12, color=mycolors[i])	# Decoration	
plt.gca().set(xlim=(-0.3, 11), ylim=(2, 30), ylabel='$Drug Sales$', xlabel='$Month$')	
plt.yticks(fontsize=12, alpha=.7)	
plt.title("Seasonal Plot of Drug Sales Time Series", fontsize=20)	
plt.sho

640?wx_fmt=png

药品销售的季节性时间序列图

 

每年的二月份,药品销售会有一次大幅度下跌,三月份会回涨,四月份再次下跌,以此规律循环。很明显,该模式以年为单位,每年循环往复。

 

不过,随着年份的变化,药品销售总体呈上升趋势。你可以选择使用箱型图将这一趋势进行可视化,可以方便看出每一年的变化。同样地,你也可以按月份绘制箱型图,来观察每个月的变化。

 

按月份(季节)和年份绘制箱型图:你可以将数据处理成以季节为时间间隔,然后观察特定年份内值的分布,也可以将全部时间的数据进行对比。

# Import Data	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'], index_col='date')	
df.reset_index(inplace=True)	# Prepare data	
df['year'] = [d.year for d in df.date]	
df['month'] = [d.strftime('%b') for d in df.date]	
years = df['year'].unique()	# Draw Plot	
fig, axes = plt.subplots(1, 2, figsize=(20,7), dpi= 80)	
sns.boxplot(x='year', y='value', data=df, ax=axes[0])	
sns.boxplot(x='month', y='value', data=df.loc[~df.year.isin([1991, 2008]), :])	# Set Title	
axes[0].set_title('Year-wise Box Plot\n(The Trend)', fontsize=18);	
axes[1].set_title('Month-wise Box Plot\n(The Seasonality)', fontsize=18)	
plt.show

640?wx_fmt=png

年份序列和月份序列的箱型图

 

上面的箱型图可以使年份和月份的序列更易于观察。同样,在月份的箱线图中,十二月和一月的药品销售额明显更高,这是因为处于假期折扣季。

 

到目前为止,我们了解了通过相似性来观察时间序列的模式,接下来,如何发现这些常见模式中的差异呢?

 

5、时间序列的模式

任何一个时间序列都可以被分解成以下几个部分:基准 + 趋势成分 + 季节成分 + 残差成分。

 

趋势是指时间序列中上升或下降的倾斜程度。但季节成分是由于受季节因素影响而产生的周期性模式循环,也可能受每年内不同月份、每月内不同日期、工作日或周末,甚至每天内不同时间的影响。

 

然而,不一定所有的时间序列都具备趋势或季节性。一个时间序列也可能不存在趋势,但具有季节性。反之亦然。

 

因此,一个时间序列可以被想象成趋势、季节性和残差项的组合。

 

640?wx_fmt=png

时间序列的模式

 

另一个需要考虑的方面是周期性模式。当序列中的上升和下降,不是按日历中的特定时间间隔发生时,就会出现这种情况。注意不要把“周期”作用和“季节”作用混淆。

 

那么,如何区分“周期”和“季节”呢?

 

如果序列中的模式不是以日历中特定间隔循环出现的,那么就是周期。因为与季节性不同,周期作用通常受到商业或社会经济等因素的影响。

 

6、加法与乘法时间序列

根据趋势和季节的固有属性,一个时间序列可以被建模为加法模型或乘法模型,也就是说,序列中的值可以用各个成分的加和或乘积来表示:

 

加法时间序列:

值 = 基准 + 趋势 + 季节 + 残差

 

乘法时间序列:

值 = 基准 x 趋势 x 季节 x 残差

 

7、如何将时间序列的成分分解出来?

通过将一个时间序列视为基准、趋势、季节指数及残差的加法或乘法组合,你可以对时间序列进行经典分解。

statsmodels 的 seasonal_decompose 函数可以使这一过程非常容易。	from statsmodels.tsa.seasonal import seasonal_decompose	
from dateutil.parser import parse	# Import Data	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'], index_col='date')	# Multiplicative Decomposition	
result_mul = seasonal_decompose(df['value'], model='multiplicative', extrapolate_trend='freq')	# Additive Decomposition	
result_add = seasonal_decompose(df['value'], model='additive', extrapolate_trend='freq')	# Plot	
plt.rcParams.update({'figure.figsize': (10,10)})	
result_mul.plot().suptitle('Multiplicative Decompose', fontsize=22)	
result_add.plot().suptitle('Additive Decompose', fontsize=22)	
plt.sho

640?wx_fmt=png

加法和乘法分解

 

设置 extrapolate_trend='freq' 有助于处理序列首部趋势和残差中的空值。

 

如果你仔细观察加法分解中的残差项,会发现其中仍保留了一些模式。然而,乘法分解中的残差项看起来更具有随机性。因此,对于这一特定序列来说,采用乘法分解更合适。

 

趋势、季节和残差成分的数值输出均存储在 result_mul 里,下面我们对其进行提取,并放入数据框中:

# Extract the Components ----	
# Actual Values = Product of (Seasonal * Trend * Resid)	
df_reconstructed = pd.concat([result_mul.seasonal, result_mul.trend, result_mul.resid, result_mul.observed], axis=1)	
df_reconstructed.columns = ['seas', 'trend', 'resid', 'actual_values']	
df_reconstructed.head()

仔细观察,会发现 seas、trend 和 resid 三列的乘积正好等于 actual_values。

8、平稳和非平稳时间序列

平稳是时间序列的属性之一。平稳序列中的值不是时间的函数。

 

也就是说,平稳序列的平均值、方差和自相关性等统计特征始终为常数。序列的自相关性是指该序列与之前的值间的相关性。

 

平稳的时间序列也不包括季节因素的影响。那么如何分辨一个序列是否平稳呢?让我们来看几个例子:

 

640?wx_fmt=png

平稳和非平稳时间序列

 

上图来自 R 语言的 TSTutorial 教程。

 

为什么说序列平稳很重要呢?

 

我会对此稍微做一些解释,但要清楚一点,通过采用合适的变换,我们近乎可以将任何时间序列变得平稳。大多数统计预测方法最初都是为平稳时间序列而设计的。预测过程的第一步是通过一些变换,来将非平稳序列变成平稳序列。

9、如何将时间序列变平稳?

你可以通过以下几种方式得到平稳序列:

  • 求序列的差分

  • 求序列的 log 值

  • 求序列的 n 次方根

  • 把上面三种方法相结合

将时间序列平稳化最普遍且便捷的方法是对序列进行差分运算,至少执行一次,直到序列趋于平稳。

 

那么什么是差分呢?

 

如果 Y_t 为时间 't' 对应的值,那么第一个差分值为 Y = Yt – Yt-1。简单来说,对序列进行差分运算就是用下一个值减去当前值。如果第一次差分不能使序列平稳,你可以尝试做第二次差分,直到符合要求。

 

举个例子,有这样一个序列:[1, 5, 2, 12, 20]

 

第一次差分运算的结果为:[5-1, 2-5, 12-2, 20-12] = [4, -3, 10, 8]

 

第二次差分运算的结果为:[-3-4, -10-3, 8-10] = [-7, -13, -2]

10、为什么要在预测前将非平稳序列变平稳?

对平稳序列进行预测要相对容易一些,预测结果也更可信。其中一个重要原因是,自回归预测模型本质上是线性回归模型,将序列自身的滞后作为预测因子。

 

如果预测因子之间互不相关,线性回归的效果最优。那么将序列平稳化就可以解决这一问题,因为它可以去除任何持久的自相关性,所以可以使预测模型中的预测因子近乎独立。

 

现在我们知道了使序列平稳化的重要性,那么应该如何检查一个序列是否平稳呢?

11、如何测试平稳性?

我们可以像之前那样,通过绘制序列图来观察一个序列是否平稳。

 

另一种方法是将序列分解成两个或多个连续的部分,并求其统计值,如平均值、方差和自相关系数。如果这些统计值间的差异很大,那么该序列大概率不是平稳序列。

 

尽管如此,你仍需要一种方法来定量地判断某个序列是否平稳。一个名为“单位根检验”的统计检验方法可以解决这一问题。

 

单位根检验有如下几种方法:

  • ADF Test (Augmented Dickey Fuller test)

  • KPSS Test (Kwiatkowski-Phillips-Schmidt-Shin) — 趋势平稳

  • PP Test (Philips Perron test)

最常用的方法是 ADF test,零假设为:用时间序列对单位根进行处理,结果是不平稳。如果 P 值小于显著性水平 0.05,则拒绝零假设,即不成立。

 

另一方面,KPSS test 可用来检测趋势平稳性。零假设与 P 值含义都与 ADH test 相反。以下代码基于 Python 的 statsmodels 包执行了两种检测方法:

from statsmodels.tsa.stattools import adfuller, kpss	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'])	# ADF Test	
result = adfuller(df.value.values, autolag='AIC')	
print(f'ADF Statistic: {result[0]}')	
print(f'p-value: {result[1]}')	
for key, value in result[4].items():	print('Critial Values:')	print(f'   {key}, {value}')	# KPSS Test	
result = kpss(df.value.values, regression='c')	
print('\nKPSS Statistic: %f' % result[0])	
print('p-value: %f' % result[1])	
for key, value in result[3].items():	print('Critial Values:')	print(f'   {key}, {value}'

 

12、白噪声与平稳序列的差别是什么?

和平稳序列一样,白噪声也是关于时间的函数,它的均值和方差始终不变。但区别在于,白噪声是完全随机的,且均值为零。

 

白噪声没有任何模式。如果你把调频广播的声波讯号想象成时间序列,调频道时的空白声音就是白噪声。

 

从数学上来讲,一个完全随机且均值为零的序列就是白噪声。

 

 

640?wx_fmt=png

随机白噪声

 

13、如何对时间序列去趋势?

对时间序列去趋势,是指去除序列中的趋势成分。但要如何提取趋势成分呢?有以下几种方法:

  • 减去与时间序列拟合程度最好的曲线。这条最优曲线可由线性回归模型获得,时间步长作为预测因子。如需处理更复杂的趋势,你可以尝试在模型中使用二次项 (x^2)。

  • 减去由时间序列分解得到的趋势成分。

  • 减去均值。

  • 使用过滤器,如 Baxter-King (statsmodels.tsa.filters.bkfilter) 或 Hodrick-Prescott (statsmodels.tsa.filters.hpfilter),来去除移动平均趋势线或周期性成分。

下面我们来执行这两种方法:

 

 

640?wx_fmt=png

通过减掉最小二乘拟合线对时间序列去趋势

 

 

640?wx_fmt=png

通过减掉趋势成分对时间序列去趋势

 

14、如何对时间序列去季节性?

对时间序列去季节性同样有多种方法,如下:

  • 把特定长度的移动平均值作为季节窗口。

  • 对序列做季节性差分(用当前值减去上个季度的值)。

  • 用当前序列除以由 STL 分解得到的季节指数。

若除以季节指数的效果不好,可以尝试取序列的对数,然后对其去季节。之后你可以通过指数运算来恢复原来的值。

# Subtracting the Trend Component.	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'], index_col='date')	# Time Series Decomposition	
result_mul = seasonal_decompose(df['value'], model='multiplicative', extrapolate_trend='freq')	# Deseasonalize	
deseasonalized = df.value.values / result_mul.seasonal	# Plot	
plt.plot(deseasonalized)	
plt.title('Drug Sales Deseasonalized', fontsize=16)	
plt.plot

640?wx_fmt=png

对时间序列去季节

 

15、如何检测时间序列的季节性?

一般方法是画出序列图,观察固定的时间间隔是否有重复模式出现。因此,季节性的类型由时钟或日历决定:

  • 一天中的小时

  • 月份中的日期

  • 星期

  • 月份

  • 年份

不过,如果你想对季节性做一个明确的检验,可以使用自相关函数 (ACF) 图,接下来的部分会做相关详细介绍。当季节模式明显时,ACF 图中季节窗口的整数倍处会反复出现特定的尖峰。

 

例如,药品销售的时间序列是月份序列,每年会出现重复的模式,你会在第 12、24、36 个序列值处看到尖峰。

 

必须要提醒你的是,现实生活中的数据集很少会出现特别明显的模式,可能会被一些噪声污染,所以需要更加仔细观察其中的模式。

from pandas.plotting import autocorrelation_plot	
df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv')	# Draw Plot	
plt.rcParams.update({'figure.figsize':(9,5), 'figure.dpi':120})	
autocorrelation_plot(df.value.tolist())

 

640?wx_fmt=png

自相关系数图

 

16、如果处理时间序列中的缺失值?

有时候,时间序列中会出现缺失的值或日期。这意味着,某些数据没有获取到,或者无法对这些时间段进行观测。也可能那些时间的测量值本身为零,这种情况下你只需对其填充零。

 

第二种情况,你不应该直接用序列的均值对缺失处进行填充,尤其当该序列不是平稳序列时。比较暴力但有效的解决方法是用前一个值来填充缺失处。

 

根据序列的内在属性,你可以尝试多种方法。以下是几种比较有效的填充方法:

  • 向后填充法

  • 线性插值法

  • 二次插值法

  • 最近邻均值法

  • 季节均值法

为了评估缺失值的填充效果,我在时间序列中手动加入缺失值,用以上几种方法对其进行填充,然后计算填充后的序列与原序列的均方误差。

# # Generate dataset	
from scipy.interpolate import interp1d	
from sklearn.metrics import mean_squared_error	
df_orig = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv', parse_dates=['date'], index_col='date').head(100)	
df = pd.read_csv('datasets/a10_missings.csv', parse_dates=['date'], index_col='date')	fig, axes = plt.subplots(7, 1, sharex=True, figsize=(10, 12))	
plt.rcParams.update({'xtick.bottom' : False})	## 1. Actual -------------------------------	
df_orig.plot(title='Actual', ax=axes[0], label='Actual', color='red', style=".-")	
df.plot(title='Actual', ax=axes[0], label='Actual', color='green', style=".-")	
axes[0].legend(["Missing Data", "Available Data"])	## 2. Forward Fill --------------------------	
df_ffill = df.ffill()	
error = np.round(mean_squared_error(df_orig['value'], df_ffill['value']), 2)	
df_ffill['value'].plot(title='Forward Fill (MSE: ' + str(error) +")", ax=axes[1], label='Forward Fill', style=".-")	## 3. Backward Fill -------------------------	
df_bfill = df.bfill()	
error = np.round(mean_squared_error(df_orig['value'], df_bfill['value']), 2)	
df_bfill['value'].plot(title="Backward Fill (MSE: " + str(error) +")", ax=axes[2], label='Back Fill', color='firebrick', style=".-")	## 4. Linear Interpolation ------------------	
df['rownum'] = np.arange(df.shape[0])	
df_nona = df.dropna(subset = ['value'])	
f = interp1d(df_nona['rownum'], df_nona['value'])	
df['linear_fill'] = f(df['rownum'])	
error = np.round(mean_squared_error(df_orig['value'], df['linear_fill']), 2)	
df['linear_fill'].plot(title="Linear Fill (MSE: " + str(error) +")", ax=axes[3], label='Cubic Fill', color='brown', style=".-")	## 5. Cubic Interpolation --------------------	
f2 = interp1d(df_nona['rownum'], df_nona['value'], kind='cubic')	
df['cubic_fill'] = f2(df['rownum'])	
error = np.round(mean_squared_error(df_orig['value'], df['cubic_fill']), 2)	
df['cubic_fill'].plot(title="Cubic Fill (MSE: " + str(error) +")", ax=axes[4], label='Cubic Fill', color='red', style=".-")	# Interpolation References:	
# https://docs.scipy.org/doc/scipy/reference/tutorial/interpolate.html	
# https://docs.scipy.org/doc/scipy/reference/interpolate.html	## 6. Mean of 'n' Nearest Past Neighbors ------	
def knn_mean(ts, n):	out = np.copy(ts)	for i, val in enumerate(ts):	if np.isnan(val):	n_by_2 = np.ceil(n/2)	lower = np.max([0, int(i-n_by_2)])	upper = np.min([len(ts)+1, int(i+n_by_2)])	ts_near = np.concatenate([ts[lower:i], ts[i:upper]])	out[i] = np.nanmean(ts_near)	return out	df['knn_mean'] = knn_mean(df.value.values, 8)	
error = np.round(mean_squared_error(df_orig['value'], df['knn_mean']), 2)	
df['knn_mean'].plot(title="KNN Mean (MSE: " + str(error) +")", ax=axes[5], label='KNN Mean', color='tomato', alpha=0.5, style=".-")	## 7. Seasonal Mean ----------------------------	
def seasonal_mean(ts, n, lr=0.7):	"""	Compute the mean of corresponding seasonal periods	ts: 1D array-like of the time series	n: Seasonal window length of the time series	"""	out = np.copy(ts)	for i, val in enumerate(ts):	if np.isnan(val):	ts_seas = ts[i-1::-n]  # previous seasons only	if np.isnan(np.nanmean(ts_seas)):	ts_seas = np.concatenate([ts[i-1::-n], ts[i::n]])  # previous and forward	out[i] = np.nanmean(ts_seas) * lr	return out	df['seasonal_mean'] = seasonal_mean(df.value, n=12, lr=1.25)	
error = np.round(mean_squared_error(df_orig['value'], df['seasonal_mean']), 2)	
df['seasonal_mean'].plot(title="Seasonal Mean (MSE: " + str(error) +")", ax=axes[6], label='Seasonal Mean', color='blue', alpha=0.5, s

640?wx_fmt=png

缺失值处理

 

17、什么是自相关和偏自相关函数?

简单来说,自相关就是一个序列的值与自己本身具有相关性。如果一个序列呈现显著自相关,意味着序列的前一个值可用于预测当前值。

 

偏自相关也传达了类似的信息,但更偏重于序列与自身滞后序列的相关性,消除了由于较短滞后所导致的任何相关性。

from statsmodels.tsa.stattools import acf, pacf	
from statsmodels.graphics.tsaplots import plot_acf, plot_pacf	df = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv')	# Calculate ACF and PACF upto 50 lags	
# acf_50 = acf(df.value, nlags=50)	
# pacf_50 = pacf(df.value, nlags=50)	# Draw Plot	
fig, axes = plt.subplots(1,2,figsize=(16,3), dpi= 100)	
plot_acf(df.value.tolist(), lags=50, ax=axes[0])	
plot_pacf(df.value.tolist(), lags=50, ax=axes[1

640?wx_fmt=png

ACF 和 PACF

 

18、如何计算偏自相关系数?

序列滞后 k 处的偏自相关系数是 Y 的自回归方程的滞后系数。Y 的自回归方程是指 Y 以自己的滞后作为预测因子的线性回归。

 

举个例子,如果 Y_t 为当前序列,Y_t-1 即为滞后期为 1 的 Y 值,那么滞后期为 3 处 (Y_t-3) 的偏自相关系数是下面方程中的 α3:

 

640?wx_fmt=png

自回归方程


19、滞后图

滞后图是时间序列与自身滞后的分布图,通常用来检验自相关性。如果序列中出现下图中的模式,那么说明该序列具有自相关性。如果没有出现这些模型,该序列很可能为随机白噪声。

 

在下面太阳黑子区的例子中,随着滞后期的增长,图中的点越来越分散。

from pandas.plotting import lag_plot	
plt.rcParams.update({'ytick.left' : False, 'axes.titlepad':10})	# Import	
ss = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/sunspotarea.csv')	
a10 = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv')	# Plot	
fig, axes = plt.subplots(1, 4, figsize=(10,3), sharex=True, sharey=True, dpi=100)	
for i, ax in enumerate(axes.flatten()[:4]):	lag_plot(ss.value, lag=i+1, ax=ax, c='firebrick')	ax.set_title('Lag ' + str(i+1))	fig.suptitle('Lag Plots of Sun Spots Area \n(Points get wide and scattered with increasing lag -> lesser correlation)\n', y=1.15)	fig, axes = plt.subplots(1, 4, figsize=(10,3), sharex=True, sharey=True, dpi=100)	
for i, ax in enumerate(axes.flatten()[:4]):	lag_plot(a10.value, lag=i+1, ax=ax, c='firebrick')	ax.set_title('Lag ' + str(i+1))	fig.suptitle('Lag Plots of Drug Sales', y=1.05)	
plt.sh

640?wx_fmt=png

药品销售滞后图

 

640?wx_fmt=png

太阳黑子滞后图

 

20、如何评估时间序列的可预测性?

一个时间序列的模式越有规律,就越容易预测。可以用近似熵来量化时间序列的规律性和波动的不可预测性。

 

近似熵越高,意味着预测难度越大。

 

另一个选择是样本熵。

 

样本熵与近似熵类似,但在不同的复杂度上更具有一致性,即使是小型时间序列。例如,相比于“有规律”的时间序列,一个数据点较少的随机时间序列的近似熵较低,但一个较长的随机时间序列却有较高的近似熵。

 

因此,样本熵更适于解决该问题。

# https://en.wikipedia.org/wiki/Approximate_entropy	
ss = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/sunspotarea.csv')	
a10 = pd.read_csv('https://raw.githubusercontent.com/selva86/datasets/master/a10.csv')	
rand_small = np.random.randint(0, 100, size=36)	
rand_big = np.random.randint(0, 100, size=136)	def ApEn(U, m, r):	"""Compute Aproximate entropy"""	def _maxdist(x_i, x_j):	return max([abs(ua - va) for ua, va in zip(x_i, x_j)])	def _phi(m):	x = [[U[j] for j in range(i, i + m - 1 + 1)] for i in range(N - m + 1)]	C = [len([1 for x_j in x if _maxdist(x_i, x_j) <= r]) / (N - m + 1.0) for x_i in x]	return (N - m + 1.0)**(-1) * sum(np.log(C))	N = len(U)	return abs(_phi(m+1) - _phi(m))	print(ApEn(ss.value, m=2, r=0.2*np.std(ss.value)))     # 0.651	
print(ApEn(a10.value, m=2, r=0.2*np.std(a10.value)))   # 0.537	
print(ApEn(rand_small, m=2, r=0.2*np.std(rand_small))) # 0.143	
print(ApEn(rand_big, m=2, r=0.2*np.std(rand_big)))     # 0. 

 

0.6514704970333534	
0.5374775224973489	
0.0898376940798844	
0.7369242960384561

# https://en.wikipedia.org/wiki/Sample_entropy	
def SampEn(U, m, r):	"""Compute Sample entropy"""	def _maxdist(x_i, x_j):	return max([abs(ua - va) for ua, va in zip(x_i, x_j)])	def _phi(m):	x = [[U[j] for j in range(i, i + m - 1 + 1)] for i in range(N - m + 1)]	C = [len([1 for j in range(len(x)) if i != j and _maxdist(x[i], x[j]) <= r]) for i in range(len(x))]	return sum(C)	N = len(U)	return -np.log(_phi(m+1) / _phi(m))	print(SampEn(ss.value, m=2, r=0.2*np.std(ss.value)))      # 0.78	
print(SampEn(a10.value, m=2, r=0.2*np.std(a10.value)))    # 0.41	
print(SampEn(rand_small, m=2, r=0.2*np.std(rand_small)))  # 1.79	
print(SampEn(rand_big, m=2, r=0.2*np.std(rand_big)))      # 2.

 

21、为什么要对时间序列做平滑处理?如果操作?

对时间序列做平滑处理有以下几个用处:

  • 减少噪声影响,从而得到过滤掉噪声的、更加真实的序列。

  • 平滑处理后的序列可用作特征,更好地解释序列本身。

  • 可以更好地观察序列本身的趋势。

那么如果进行平滑处理呢?现讨论以下几种方法:

  • 取移动平均线

  • 做 LOESS 平滑(局部回归)

  • 做 LOWESS 平滑(局部加权回归)

移动平均是指对一个滚动的窗口计算其平均值,该窗口的宽度固定不变。但你必须谨慎选择窗口宽度,因为窗口过宽会导致序列平滑过度。例如,如果窗口宽度等于季节长度,就会消除掉季节因素的作用。

 

LOESS 是 LOcalized regrESSion 的缩写,该方法会在每个点的局部近邻点做多次回归拟合。此处可以使用 statsmodels 包,你可以使用参数 frac 控制平滑程度,即决定周围多少个点参与回归模型的拟合。

from statsmodels.nonparametric.smoothers_lowess import lowess	
plt.rcParams.update({'xtick.bottom' : False, 'axes.titlepad':5})	# Import	
df_orig = pd.read_csv('datasets/elecequip.csv', parse_dates=['date'], index_col='date')	# 1. Moving Average	
df_ma = df_orig.value.rolling(3, center=True, closed='both').mean()	# 2. Loess Smoothing (5% and 15%)	
df_loess_5 = pd.DataFrame(lowess(df_orig.value, np.arange(len(df_orig.value)), frac=0.05)[:, 1], index=df_orig.index, columns=['value'])	
df_loess_15 = pd.DataFrame(lowess(df_orig.value, np.arange(len(df_orig.value)), frac=0.15)[:, 1], index=df_orig.index, columns=['value'])	# Plot	
fig, axes = plt.subplots(4,1, figsize=(7, 7), sharex=True, dpi=120)	
df_orig['value'].plot(ax=axes[0], color='k', title='Original Series')	
df_loess_5['value'].plot(ax=axes[1], title='Loess Smoothed 5%')	
df_loess_15['value'].plot(ax=axes[2], title='Loess Smoothed 15%')	
df_ma.plot(ax=axes[3], title='Moving Average (3)')	
fig.suptitle('How to Smoothen a Time Series', y=0.95, fontsize=14)	
plt.sho

640?wx_fmt=png

时间序列的平滑处理

 

22、如何用格兰杰因果关系检验判断一个时间序列是否可以预测另一个?

格兰杰因果关系检验可用作检测一个时间序列是否可以用来预测另一个序列。那么格兰杰因果关系检验是如何进行运算的呢?

 

该检验基于一个假设,即 X 导致了 Y 的发生,那么基于 Y 的先前值与 X 的先前值得到的 Y 的预测值,要优于仅根据 Y 本身得到的预测值。

 

statsmodels 包提供了便捷的检验方法。它可以接受一个二维数组,其中第一列为值,第二列为预测因子。

 

零假设为:第二列的序列与第一列不存在格兰杰因果关系。如果 P 值小于显著性水平 0.05,就可以拒绝零假设,从而知道 X 的滞后是起作用的。

 

第二个参数 maxlag 表示该检验中涉及了 Y 的多少个滞后期。

 

 

 

在上面的例子中,全部测试结果中的 P 值都为零,说明 'month' 可用作预测航班的乘客数量。

原文链接: 

https://www.machinelearningplus.com/time-series/time-series-analysis-python/

-------------------End-------------------

640?wx_fmt=jpeg

 Python数据之道 」建立了读者交流群,大家可以添加管理员微信进行加群

640?wx_fmt=jpeg

扫描添加好友

回复 “资源

640?wx_fmt=jpeg

  • 推荐 | 免费获取《Python知识手册》

  • Matplotlib最有价值的50个图表

  • 可视化神器推荐(Plotly Express)

  • Flask vs Django,Python Web 开发用哪个框架更好?

 Python数据之道 

让数据更有价值

640?wx_fmt=jpeg

回复 “600”,

获取《Python知识手册》

640?wx_fmt=gif

这篇关于干货 | 20个Python教程,掌握时间序列的特征分析(附代码)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/370107

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

uva 10131 最长子序列

题意: 给大象的体重和智商,求体重按从大到小,智商从高到低的最长子序列,并输出路径。 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstring>#include <cmath>#include <stack>#include <vect

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学