使用Python中Keras的LSTM递归神经网络进行时间序列预测

最近我们被客户要求撰写关于时间序列预测的研究报告。时间序列预测问题是预测建模问题中的一种困难类型。

由Kaizong Ye,Coin Ge撰写

与回归预测建模不同,时间序列还增加了输入变量之间序列依赖的复杂性。用于处理序列依赖性的强大神经网络称为 递归神经网络

与回归预测建模相比,时间序列分析不仅需要考虑变量之间的关系,还需要额外处理这些变量之间的序列依赖性,这大大增加了分析的复杂性。在时间序列数据中,每一个数据点都与其前一个或后一个数据点有着密切的联系,这种依赖关系使得我们不能简单地将每个数据点视为独立的个体来进行处理。因此,为了准确捕捉这种序列依赖性,我们需要采用更高级的模型和方法。

长短期记忆网络或LSTM网络是深度学习中使用的一种递归神经网络,可以成功地训练非常大的体系结构。在本文中,您将发现如何使用Keras深度学习库在Python中开发LSTM网络,以解决时间序列预测问题。

完成本教程后,您将知道如何针对自己的时间序列预测问题实现和开发LSTM网络。

  • 关于国际航空公司的旅客时间序列预测问题。
  • 如何基于时间序列预测问题框架开发LSTM网络。
  • 如何使用LSTM网络进行开发并做出预测,这些网络可以在很长的序列中保持状态(内存)。

在本教程中,我们将为时间序列预测问题开发LSTM。

这些示例将准确地向您展示如何开发结构不同的LSTM网络,以解决时间序列预测建模问题。


视频

LSTM神经网络架构和原理及其在Python中的预测应用

探索见解

去bilibili观看

探索更多视频

问题描述

讨论的问题是国际航空公司的乘客预测问题。

任务是预测国际航空旅客的数量。数据范围为1949年1月至1960年12月,即12年,共进行了144次观测。

下面是文件前几行的示例。

"Month","Passengers"
 
 
"1949-03",132
 
"1949-04",129
 
"1949-05",121

我们可以使用Pandas库加载此数据集。下面列出了加载和绘制数据集的代码。

 
 
dataset = pandas.read_csv('airpas.csv', usecols=[1], engine='python')
 
plt.plot(dataset)
 
plt.show()
 

您可以看到数据集中随时间的上升趋势。

它可用于创建大型循环网络,进而可用于解决机器学习中的序列问题并获得最新结果。

LSTM网络不是神经元,而是具有通过层连接的存储块。

LSTM 的关键就是细胞状态,LSTM 有通过精心设计的称作为“门”的结构来去除或者增加信息到细胞状态的能力。门是一种让信息选择式通过的方法,他们包含一个sigmoid神经网络层和一个按位的乘法操作。Sigmoid 层输出0到1之间的数值,描述每个部分有多少量可以通过。0代表“不许任何量通过”,1就指“允许任意量通过”!LSTM 拥有三个门,来保护和控制细胞状态。

一个单元内有三种类型的门:

  • 忘记门:有条件地决定从该块中丢弃哪些信息。
  • 输入:有条件地决定输入中的哪些值来更新内存状态。
  • 输出门:根据输入的内存,决定输出什么。

每个单元就像一个微型状态机,其中单元的门具有在训练过程中学习到的权重。

LSTM回归网络

我们可以将该问题表述为回归问题。

也就是说,考虑到本月的旅客人数(以千为单位),下个月的旅客人数是多少?

我们可以编写一个简单的函数将单列数据转换为两列数据集:第一列包含本月的(t)乘客数,第二列包含下个月的(t + 1)乘客数。


在Python中使用LSTM和PyTorch进行时间序列预测

阅读文章


在开始之前,让我们首先导入要使用的所有函数和类。假设安装了Keras深度学习库。

在进行任何操作之前,最好先设置随机数种子,以确保我们的结果可重复。

# 随机种子以提高可重复性
 numpy.random.seed(7)

我们还可以使用上一部分中的代码将数据集作为Pandas数据框加载。然后,我们可以从数据帧中提取NumPy数组,并将整数值转换为浮点值,这更适合使用神经网络进行建模。

# 加载数据集
  dataset = dataset.astype('float32')

LSTM对输入数据的大小敏感,特别是在使用S型(默认)或tanh激活函数时。将数据重新标准化到0到1的范围(也称为归一化)。我们可以使用 scikit-learn库中的MinMaxScaler预处理类轻松地对数据集进行规范化 。


随时关注您喜欢的主题



# 标准化数据集 
scaler = MinMaxScaler(feature_range=(0, 1)) 
dataset = scaler.fit_transform(dataset)

在对数据进行建模并在训练数据集上估计模型之后,我们需要对新的数据测试了解模型的技能。对于正常的分类或回归问题,我们将使用交叉验证来完成。

对于时间序列数据,值的顺序很重要。我们可以使用的一种简单方法是将有序数据集拆分为训练数据集和测试数据集。下面的代码计算分割点,并使用67%的观测值将数据分离到训练数据集中,这些观测值可用于训练模型,其余的33%用于测试模型。

# 分为训练集和测试集 
train_size = int(len(dataset) * 0.67) 
test_size = len(dataset) - train_size 

现在,我们可以定义一个函数来创建新的数据集,如上所述。

该函数有两个参数: 数据集(我们要转换为数据集的NumPy数组)和 look_back,这是用作输入变量以预测下一个时间段的先前时间步数,默认为1。

此默认值将创建一个数据集,其中X是给定时间(t)的乘客人数,Y是下一次时间(t +1)的乘客人数。

我们将在下一部分中构造一个形状不同的数据集。


# 将值数组转换为数据集矩阵
 
 
 
for i in range(len(dataset)-look_back-1):
a = dataset[i:(i+look_back), 0]
 
return numpy.array(dataX), numpy.array(dataY)

让我们看一下此函数对数据集第一行的影响。


X Y
 
112 118
 
118 132
 
132 129
 
129 121
 
121 135

如果将前5行与上一节中列出的原始数据集样本进行比较,则可以在数字中看到X = t和Y = t + 1模式。

让我们准备训练和测试数据集以进行建模。

#整理为X = t和Y = t + 1
 
look_back = 1
create_dataset(train, look_back)

LSTM网络输入数据(X)具有以下形式的特定数组结构:  [样本,时间步长,特征]

目前,我们的数据采用以下形式:[样本,特征],我们将问题定为每个样本的一步。我们可以使用numpy.reshape()将准备好的训练和测试输入数据转换为预期的结构 ,如下所示:


# 将输入修改为[样本,时间步长,特征]
 
 numpy.reshape(trainX, (trainX.shape[0], 1, trainX.shape[1]))
 

现在,我们准备设计并拟合我们的LSTM网络以解决此问题。

该网络具有一个具有1个输入的可见层,一个具有4个LSTM块或神经元的隐藏层以及一个进行单个值预测的输出层。默认的Sigmoid激活功能用于LSTM模块。该网络训练了100个时期。

# 创建并拟合LSTM网络
 
 
model.add(LSTM(4, input_shape=(1, look_back)))
 
model.fit(trainX, trainY, epochs=100, batch_size=1, verbose=2)

一旦模型适合,我们就可以估计模型在训练和测试数据集上的性能。这将为我们提供新模型的比较点。

请注意,在计算误差之前,我们先对预测进行了反标准化,以确保以与原始数据相同的单位。


# 作出预测
 
trainPredict = model.predict(trainX)
 
 
# 反向预测
 
trainPredict = scaler.inverse_transform(trainPredict)
 
 
# 计算均方误差
 
trainScore = math.sqrt(mean_squared_error(trainY[0], trainPredict[:,0]))

最后,我们可以使用模型为训练和测试数据集生成预测,以直观地了解模型的技能。

由于数据集的准备方式,我们必须移动预测,以使它们在x轴上与原始数据集对齐。准备好之后,将数据绘制成图表,以蓝色显示原始数据集,以绿色显示训练数据集的预测,以红色显示看不见的测试数据集的预测。

# 预测
 
 
trainPredictPlot[look_back:len(trainPredict)+look_back, :] = trainPredict
 
# 绘制测试预测
 
testPredictPlot = numpy.empty_like(dataset)
 
 
 
# 绘制基准和预测
 
 
 
plt.plot(testPredictPlot)
 
plt.show()

我们可以看到,该模型在拟合训练和测试数据集方面做得非常出色。

×

RNN网络可以理解当前任务以前的信息,但是却不能长期记忆,比如在经过4-5个神经元网络的计算之后,包留之前信息的权重就变得很小。之前信息对当前信息的影响就变得很小。这个时候就可以用到LSTM(Long Short Term)网络,相比于RNN网络,他可以更好的记住很久之前我们需要的信息。


LSTM 由Hochreiter & Schmidhuber (1997)提出,并在近期被Alex Graves进行了改良和推广。在很多问题,LSTM 都取得相当巨大的成功,并得到了广泛的使用。LSTM 通过刻意的设计来避免长期依赖问题。记住长期的信息在实践中是 LSTM 的默认行为,而非需要付出很大代价才能获得的能力!

所有 RNN 都具有一种重复神经网络模块的链式的形式。在标准的 RNN 中,这个重复的模块只有一个非常简单的结构,例如一个tanh层。

所有 RNN 都具有一种重复神经网络模块的链式的形式。在标准的 RNN 中,这个重复的模块只有一个非常简单的结构,例如一个tanh层。


LSTM 同样是这样的结构,但是重复的模块拥有一个不同的结构。不同于 单一神经网络层,这里是有四个,以一种非常特殊的方式进行交互。

一、LSTM 的核心思想

LSTM 的关键就是细胞状态,LSTM 有通过精心设计的称作为“门”的结构来去除或者增加信息到细胞状态的能力。门是一种让信息选择式通过的方法,他们包含一个sigmoid神经网络层和一个按位的乘法操作。Sigmoid 层输出0到1之间的数值,描述每个部分有多少量可以通过。0代表“不许任何量通过”,1就指“允许任意量通过”!LSTM 拥有三个门,来保护和控制细胞状态。

1.1忘记门层

该门会读取 [公式] (前一层的传过来的)和 [公式] (当前信息的输入),输出一个在0到1之间的数值给每个在细胞状态[公式](前一层的细胞状态)中的数字。0代表完全舍弃上一个细胞状态,1就指完全保留上一个细胞状态。

在语言模型的中基于以前的单词凯预测下一个单词,细胞的状态 [公式] 可能包含当前的主语的性别,因此正确的代词可以被选择出来。当看到新的主语,希望能记住新的主语的性别到细胞状态中,来代替旧的需要忘记的主语。

1.2存储门层

下一步是确定什么样的新信息被存放在细胞状态中。这里包含两个部分。第一,sigmoid 层称 “输入门层” 决定什么值我们将要更新。然后,一个 tanh 层创建一个新的候选值向量, [公式] 会被加入到状态中。下一步,我们会讲这两个信息来产生对状态的更新。

1.3更新层

第三步,更新细胞状态。 [公式] 更新为 [公式] ,前面步骤已经计算出需要带的参数,现在就是与以前的细胞状态结合。我们把旧状态与 [公式] 相乘,丢弃掉我们确定需要丢弃的信息。接着加上 [公式] 。这就是新的候选值,根据我们决定更新每个状态的程度进行变化。在语言模型的例子中,这就是我们实际根据前面确定的目标,丢弃旧代词的性别信息并添加新的信息的地方。

1.4输出值

最终,我们需要确定输出什么值。这个输出将会基于我们的细胞状态,但是也是一个过滤后的版本。首先,我们运行一个sigmoid层来确定细胞状态的哪个部分将输出出去。接着,我们把细胞状态通过tanh进行处理(得到一个在-1到1之间的值)并将它和sigmoid门的输出相乘,最终我们仅仅会输出我们确定输出的那部分。

在语言模型的例子中,因为他就看到了一个代词,可能需要输出与一个动词相关的信息。例如,可能输出是否代词是单数还是负数,这样如果是动词的话,我们也知道动词需要进行的词形变化。



LSTM训练了旅客预测问题的回归公式

运行示例将产生以下输出。

..
 
 
 
 
Epoch 100/100
 
0s - loss: 0.0020
 
Train Score: 22.93 RMSE
 
Test Score: 47.53 RMSE

我们可以看到,该模型在训练数据集上的平均误差约为23乘客(以千计),在测试数据集上的平均误差为52乘客(以千计)。

使用窗口方法进行回归的LSTM

我们还可以使用多个最近的时间步长来预测下一个时间步长。

这称为窗口,窗口的大小是可以针对每个问题进行调整的参数。

例如,给定当前时间(t),我们要预测序列(t + 1)中下一个时间的值,我们可以使用当前时间(t)以及前两个时间(t-1)和t-2)作为输入变量。

当表述为回归问题时,输入变量为t-2,t-1,t,输出变量为t + 1。

 在上一节中创建的 create_dataset()函数使我们可以通过将look_back 参数从1增加到3来创建时间序列问题。

具有此公式的数据集示例如下所示:

X1 X2 X3 Y
 
112 118 132 129
 
118 132 129 121
 
132 129 121 135
 
129 121 135 148
 
121 135 148 148

我们可以使用较大的窗口大小重新运行上一部分中的示例。

运行示例将提供以下输出:

...
 
 
Epoch 100/100
 
0s - loss: 0.0020
 
Train Score: 24.19 RMSE
 
Test Score: 58.03 RMSE

我们可以看到误差与上一节相比有所增加。

LSTM随时间步长回归

你可以看到LSTM网络的数据准备包括时间步长。

某些序列问题每个样本的时间步长可能不同。

时间步长为表达我们的时间序列问题提供了另一种方法。像上面的窗口示例一样,我们可以将时间序列中的先前时间作为输入,以预测下一时间的输出。

我们可以将它们用作一个输入函数的时间步长,而不是将过去的观察结果作为单独的输入函数,这确实是问题的更准确框架。

我们可以使用与上一个示例相同的数据表示方式来执行此操作,我们将列设置为时间步长维度,例如:

# 将输入修改为[样本,时间步长,特征]
 
numpy.reshape(trainX, (trainX.shape[0], trainX.shape[1], 1))
 

运行示例将提供以下输出:


...
 
Epoch 95/100
 
1s - loss: 0.0021
 
Epoch 96/100
 
1s - loss: 0.0021
 

我们可以看到,结果比之前的示例略好。

训练批次之间具有记忆的LSTM

LSTM网络具有内存,能够记忆长序列。

通常,在拟合模型以及每次对model.predict() 或 model.evaluate()的调用后,每次训练批次后都会重置网络中的状态 。

我们可以更好地控制何时在Keras中清除LSTM网络的内部状态。这意味着它可以在整个训练序列中建立状态,甚至在需要进行预测时也可以保持该状态。

要求在安装网络时,在每次训练数据之后,还需要通过调用model.reset_states()来重置网络状态 。这意味着我们必须创建自己的时期外循环,并在每个时期内调用 model.fit() 和 model.reset_states()

最后,在构造LSTM层时,  必须将有状态参数设置为 True  ,我们对批处理中的样本数量,样本中的时间步长以及一次中的特征数量进行编码。通过设置 batch_input_shape 参数。

随后,在评估模型和进行预测时,必须使用相同的批次大小。

model.predict(trainX, batch_size=batch_size) 

我们可以改编先前的时间步骤示例来使用有状态LSTM。

运行将提供以下输出:

...
 
 
Epoch 1/1
 
1s - loss: 0.0016
 
Train Score: 20.74 RMSE
 
Test Score: 52.23 RMSE

我们看到结果误差更大。该模型可能需要更多模块,并且可能需要针对更多时期进行训练。

批次之间具有内存的堆叠式LSTM

最后,我们将看看LSTM的一大优势:事实上,将LSTM堆叠到深度网络体系结构中就可以对其进行成功的训练。

LSTM网络可以以与其他层类型堆叠相同的方式堆叠在Keras中。所需配置的一个附加函数是,每个后续层之前的LSTM层必须返回序列。这可以通过将return_sequences参数设置 为 True来完成

我们可以在上一节中将有状态LSTM扩展为两层

运行示例将产生以下输出。

...
 
Epoch 1/1
 
1s - loss: 0.0016
 
Train Score: 20.49 RMSE
 
Test Score: 56.35 RMSE

从对测试数据集的预测误差来看,模型需要更多的训练时间。

概要

在本文中,您发现了如何使用Keras深度学习网络开发LSTM递归神经网络,在Python中进行时间序列预测。


可下载资源

关于作者

Kaizong Ye拓端研究室(TRL)的研究员。

本文借鉴了作者最近为《R语言数据分析挖掘必知必会 》课堂做的准备。

​非常感谢您阅读本文,如需帮助请联系我们!

 
QQ在线咨询
售前咨询热线
15121130882
售后咨询热线
0571-63341498

关注有关新文章的微信公众号


永远不要错过任何见解。当新文章发表时,我们会通过微信公众号向您推送。

技术干货

最新洞察

This will close in 0 seconds