当需要为数据选择最合适的预测模型或方法时,预测者通常将可用的样本分成两部分:内样本(又称 “训练集”)和保留样本(或外样本,或 “测试集”)。
然后,在样本中估计模型,并使用一些误差指标来评估其预测性能。
如果这样的程序只做一次,那么这被称为 “固定原点 “评估。然而,时间序列可能包含离群值,一个差的模型可能比更合适的模型表现得更好。为了加强对模型的评估,我们使用了一种叫做 “滚动原点 “的方法。
此过程中,会有一组测试集,每个测试集会包含唯一的观测点;相应的训练集仅包含在形成测试集的观察之前发生的观察。故将来的观察结果都不能用于构建预测,由于不可能基于小的训练集获得可靠预测,所以最早的观察结果不被视为测试集。
预测的准确性是通过对测试集进行平均计算得出的,此过程有时被称为‘滚动预测原点评估’,因为预测所基于的“原点”会及时向前滚动。
当使用时间序列预测,单步预测可能不如多步预测重要;故在此情况下,我们可修改基于滚动预测原点的交叉验证过程,以允许使用多步误差。
下图显示了我们生成4步预测对应的训练集和测试集
选择最佳预测模型的一个好方法是找到使用时间序列交叉验证计算出的最小RMSE的模型。
滚动原点是一种预测方法,根据这种方法,预测原点被连续更新,预测是由每个原点产生的(Tashman 2000)。
这种方法允许获得几个时间序列的预测误差,从而更好地了解模型的表现。
如何实现呢?
下图描述了滚动原点的基本思想。白色单元格对应的是样本内数据,而浅灰色单元格对应的是前三步的预测。该图中时间序列有25个观测值,预测从8个原点开始产生,从原点15开始。模型在每次迭代中都被重新估计,并产生预测结果。之后,在系列的末尾增加一个新的观测值,这个过程继续进行。当没有更多的数据需要添加时,这个过程就会停止。这可以被认为是一个滚动的原点,有一个固定的保留样本量。这个程序的结果是产生了8个一到三步的预测。在此基础上,我们可以计算出误差测量方法,并选择表现最好的模型。
从8个原点产生预测的另一个选择是,从原点17而不是15开始(见下图)。在这种情况下,程序一直持续到原点22,即产生最后一个三步超前预测的时候,然后继续以递减的预测范围进行。因此,两步预测从原点23产生,只有一步预测从原点24产生。因此,我们得到8个一步预测,7个两步预测和6个三步预测。这可以被认为是一个滚动的原点,有一个非固定的保留样本量。可用于在小样本的情况下,当我们没有多余的观测值的时候。
最后,在上述两种情况下,我们的样本量都在增加。然而对于某些研究目的,我们可能需要一个恒定的内样本。下图展示了这样一种情况。在这种情况下,在每次迭代中,我们在系列的末尾增加一个观察值,并从系列的开始删除一个观察值(深灰色单元)。
R实现:一元时间序列ARIMA案例
R实现了对任何函数的滚动原点估计,有一个预定义的调用,并返回预期的值。
我们从一个简单的例子开始,从正态分布生成序列。
x <- rnorm(100,100,10)
我们在这个例子中使用ARIMA(0,1,1)。
predict(arima(x=data,order=c(0,1,1)),n.ahead=h
调用包括两个重要元素:data和h。data指定了样本内值在我们要使用的函数中的位置。h将告诉我们的函数,在选定的函数中指定了预测的范围。在这个例子中,我们使用arima(x=data,order=c(0,1,1)),产生了一个想要的ARIMA(0,1,1)模型,然后我们使用predict(…,n. ahead=h),从该模型产生一个预测。
还需要指定函数应该返回什么。可以是条件平均数(点预测),预测区间,模型的参数。然而,根据你使用的函数返回的内容,滚动预测返回的内容有一些不同。如果它是一个矢量,那么滚动预测将产生一个矩阵(列中有每个原点的值)。如果它是一个矩阵,那么就会返回一个数组。最后,如果它是一个列表,那么将返回一个列表的列表。
随时关注您喜欢的主题
我们先从predict()函数中收集条件平均值。
我们可以使用滚动原点从模型中产生预测结果。比方说,我们想要三步预测和8个原点,所有其他参数的默认值。
predro(x, h , orig )
该函数返回一个列表,其中包含我们要求的所有数值,再加上保留样本的实际数值。我们可以根据这些值计算一些基本的误差指标,例如,按比例的平均绝对误差。
apply(abs(holdo - pred),1,mean) / mean(actual)
在这个例子中,我们使用apply()函数,区分不同的预测期,并了解模型在每个预测期的表现。以类似的方式,我们可以评估其他一些模型的性能,并与第一个模型产生的误差进行比较。这些数字本身并不能说明什么,但如果我们把这个模型的表现与另一个模型进行比较,那么我们就可以推断出一个模型是否比另一个模型更适合数据。
我们还可以绘制来自滚动原点的预测结果。
plot(Values1)
在这个例子中,来自不同来源的预测结果是相互接近的。这是因为数据是平稳的,模型是相当稳定的。
如果我们看一下返回的矩阵,我们会注意到它们包含缺失值。
这是因为在默认情况下,保留样本被设置为非常数。内样本也被设置为非常数,这就是为什么模型在每次迭代时都会对增加的样本进行重新估计。我们可用修改这一点。
predro(x, h , ori )
请注意,return2的值与return1的值不能直接比较,因为它们是由不同的起点生成的。这一点在我们绘图时可以看出来。
plot(returned2)
如果你使用预测包中的函数,可以用以右边方式修改调用和返回值。
"forecast(ets(data) ,level=95"
c("mean","lower","upper")
多元时间序列ARIMA案例
当你有一个模型和一个时间序列时,滚动预测的是一个方便的方法。但是如果你需要将不同的模型应用于不同的时间序列呢?我们会需要一个循环。在这种情况下,有一个简单的方法来使用滚动预测。现在引入几个时间序列。
对于这个例子,我们需要一个返回值的数组。
array(NA,c(3,2,3,8))
在这里,我们将有3个时间序列,2个模型和来自8个来源的3步超前预测。我们的模型将被保存在一个单独的列表中。在这个例子中,我们将有ARIMA(0,1,1)和ARIMA(1,1,0)。
list(c(0,1,1), c(1,1,0))
我们从函数中返回相同的预测值,但我们需要改变调用方式,因为现在我们必须将这两种不同的模型考虑在内。
"predict(arima(data,Models\[\[i\]\])ahead=h)"
我们没有直接指定模型,而是使用列表中的第i个元素。
我们还想从保留样本中保存实际值,以便能够计算误差。
这个数组有3个时间序列和来自8个原点的3步超前预测的维度。
最后,我们可以写一个循环并产生预测结果。
for(j in 1:3) for(i in 1:2)predro(data, h , or=8)
比较两者在不同时间序列上的表现。
exp(mean(log(apply(Holdout - Fore / apply(abs(Holdout - Fore ))
因此,根据这些结果,可以得出结论,在我们的三个时间序列上,ARIMA(0,1,1)平均来说比ARIMA(1,1,0)更准确。
线性回归和ARIMAX案例
我们的最后一个例子,我们创建数据框并拟合线性回归。
请注意,在这个例子中,lm()函数中实现的回归依赖于数据框架,不使用预测范围。
predict(lm(y~x1+x2+x3,xre),newdat
此外,函数predict.lm()返回的是一个带有数值的矩阵,而不是一个列表。 最后调用滚动预测。
pred(y, h , ori )
在这种情况下, 我们需要在调用的数据参数中提供因变量, 因为该函数需要提取holdout的值.
predict(lm( xreg ,new =xreg "
predro( $y, h , or )
plot( Return)
作为最后一个例子,我们考虑以下数据的ARIMAX模型。
并相应地修改调用。
ourCall <- "predict(arima(x=data, order=c(0,1,1), xreg=xreg\[counti,\]), n.ahead=h, newxreg=xreg\[counto,\])"
考虑到现在我们处理的是ARIMA,我们需要同时指定数据和h。此外,xreg与之前的例子不同,因为它现在不应该包含因变量。
如果你使用ETSX模型,调用可以简化为:
"es(x=dat, xreg, h=h"
最后,上面提到的所有例子都可以并行完成,特别是当数据非常多且样本量很大时。
参考文献
Davydenko, Andrey, and Robert Fildes. 2013. “Measuring Forecasting Accuracy: The Case of Judgmental Adjustments to Sku-Level Demand Forecasts.” International Journal of Forecasting 29 (3). Elsevier B.V.: 510–22. https://doi.org/10.1016/j.ijforecast.2012.09.002.
Petropoulos, Fotios, and Nikolaos Kourentzes. 2015. “Forecast combinations for intermittent demand.” Journal of the Operational Research Society 66 (6). Nature Publishing Group: 914–24. https://doi.org/10.1057/jors.2014.62.
可下载资源
关于作者
Kaizong Ye是拓端研究室(TRL)的研究员。在此对他对本文所作的贡献表示诚挚感谢,他在上海财经大学完成了统计学专业的硕士学位,专注人工智能领域。擅长Python.Matlab仿真、视觉处理、神经网络、数据分析。
本文借鉴了作者最近为《R语言数据分析挖掘必知必会 》课堂做的准备。
非常感谢您阅读本文,如需帮助请联系我们!