李昌明
(遼寧工程技術(shù)大學(xué) 系統(tǒng)工程研究所,遼寧 葫蘆島 125105)
時(shí)間序列是指通過在生產(chǎn)或科學(xué)研究過程中按照變量或指標(biāo)的出現(xiàn)順序記錄它們的值而獲得的一系列數(shù)值或觀測(cè)值,它是一個(gè)變量或在不同時(shí)間的多個(gè)變量生成的隨機(jī)數(shù)據(jù),反映了現(xiàn)象與其變化規(guī)律之間的關(guān)系.預(yù)測(cè)是決策的基礎(chǔ),時(shí)間序列預(yù)測(cè)是時(shí)間序列數(shù)據(jù)挖掘的基礎(chǔ),在大數(shù)據(jù)時(shí)代背景下,時(shí)間序列預(yù)測(cè)是提高管理與決策者洞察力的關(guān)鍵技術(shù).
時(shí)間序列預(yù)測(cè)包括連續(xù)型預(yù)測(cè)和離散型預(yù)測(cè),時(shí)間序列的預(yù)測(cè)模型依附于序列的先后時(shí)間順序.傳統(tǒng)的時(shí)間序列預(yù)測(cè)模型包括自回歸模型(AR,Auto Regressive)、移動(dòng)平均模型(MA,Moving Average)和自回歸移動(dòng)平均模型(ARMA,Auto-Regression Moving Average),至今仍被廣泛應(yīng)用.此外,國(guó)內(nèi)外學(xué)者對(duì)指數(shù)平滑法(ES,Exponential Smoothing)的研究較多,主要集中在以下方面:①對(duì)平滑初值和平滑系數(shù)等參數(shù)的確定方法和優(yōu)化方法進(jìn)行研究[1];②與其它理論方法的結(jié)合研究[2];③應(yīng)用于相關(guān)工程與實(shí)踐的研究[3].
對(duì)指數(shù)平滑相關(guān)理論和應(yīng)用的研究,使得指數(shù)平滑相關(guān)算法迅速發(fā)展,速度更快、精度更高、穩(wěn)定性更強(qiáng)且應(yīng)用到了更多領(lǐng)域中,充分證明了指數(shù)平滑法在時(shí)間序列預(yù)測(cè)中的重要性.
傳統(tǒng)的時(shí)間序列預(yù)測(cè)模型不能較好解決非線性擬合問題,因此基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)相關(guān)知識(shí)的時(shí)間序列預(yù)測(cè)模型研究得到了推動(dòng),其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN,Recurrent Neural Network)及其變種:長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM,Long Short-Term Memory)[4]和門控循環(huán)單元(GRU,Gated Recurrent Unit)[5]等模型是適用于處理序列數(shù)據(jù)的一類模型.深度學(xué)習(xí)框架下較為成功的時(shí)間序列預(yù)測(cè)模型有:文獻(xiàn)[6]提出的雙階段注意力機(jī)制循環(huán)神經(jīng)網(wǎng)絡(luò)模型(DA-RNN,Dual-Stage Attention-Based Recurrent Neural Network)、文獻(xiàn)[7]中提出的專門設(shè)計(jì)用于時(shí)間序列預(yù)測(cè)的深度學(xué)習(xí)網(wǎng)絡(luò)模型(LSTNet,Long-and Short-term Time-series network)、文獻(xiàn)[8]提出的基于時(shí)間模式注意力機(jī)制的LSTM 模型(TPA-LSTM,Temporal Pattern Attention LSTM).上述3 種模型均是針對(duì)多變量時(shí)間序列構(gòu)建的預(yù)測(cè)模型,在單變量時(shí)間序列上的預(yù)測(cè)效果尚未驗(yàn)證.
傳統(tǒng)的AR 模型、MA 模型與ARMA 模型等要求時(shí)間序列必須為平穩(wěn)序列,且參數(shù)確定難度大,模型適用范圍較窄,對(duì)所適用的時(shí)間序列限制條件較多;指數(shù)平滑法給予長(zhǎng)期數(shù)據(jù)的記憶特征較少,給予短期內(nèi)數(shù)據(jù)的記憶特征較多,所以指數(shù)平滑法更適用于短期預(yù)測(cè),需要數(shù)據(jù)的趨勢(shì)平穩(wěn),穩(wěn)步上升、下降或平直,對(duì)數(shù)據(jù)趨勢(shì)變化的適應(yīng)能力較差,且受不變的平滑系數(shù)影響;簡(jiǎn)單的感知機(jī)和BP 神經(jīng)網(wǎng)絡(luò)模型(BPNN,Back Propagation Neural Network)無法獲得時(shí)間序列長(zhǎng)期的記憶特征,預(yù)測(cè)誤差一般較大;RNN、LSTM 與GRU 得益于模型結(jié)構(gòu),預(yù)測(cè)效果要優(yōu)于BPNN,但容易出現(xiàn)兩種較差情況:①在序列趨勢(shì)突變時(shí)無法及時(shí)跟進(jìn),造成預(yù)測(cè)數(shù)據(jù)相較于實(shí)際數(shù)據(jù)滯后一期的情況;②在序列某段時(shí)間長(zhǎng)期處于較小數(shù)據(jù)范圍(相對(duì)于序列全局最大值與最小值的差值相比)內(nèi)短周期波動(dòng)時(shí),預(yù)測(cè)結(jié)果將趨于平直,無法反映數(shù)據(jù)波動(dòng).
為了解決上述時(shí)間序列預(yù)測(cè)模型預(yù)測(cè)誤差大且預(yù)測(cè)存在滯后一期現(xiàn)象的問題,本文提出一種經(jīng)驗(yàn)?zāi)B(tài)分解算法融合深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)模型.
完全自適應(yīng)噪聲集合經(jīng)驗(yàn)?zāi)B(tài)分解(CEEMDAN,Complete Ensemble Empirical Mode Decomposition with Adaptive Noise)[9]是對(duì)經(jīng)驗(yàn)?zāi)B(tài)分解(EMD,Empirical Mode Decomposition)[10]和集合經(jīng)驗(yàn)?zāi)B(tài)分解(EEMD,Ensemble Empirical Mode Decomposition)[11]的改進(jìn),相較于EMD 解決了模態(tài)混疊和端點(diǎn)效應(yīng)的缺陷,在每個(gè)階段添加有限次的自適應(yīng)白噪聲,相較于EEMD 減少了迭代次數(shù)并且提高了重構(gòu)精度.稱分解獲得的分量為本征模態(tài)函數(shù)(IMF,Intrinsic Mode Function),IMF頻率從高到低,可以代表序列不同尺度的特征,因此CEEMDAN 分解亦可用作時(shí)間序列降噪,具體步驟如下.
步驟4重復(fù)步驟1 到步驟3 直到剩余序列的極值點(diǎn)小于等于2 時(shí)停止循環(huán),獲得最后殘差序列,記為
假設(shè)共可分解得到m組IMF 序列,那么原序列組成為
RNN 擅長(zhǎng)處理序列一類數(shù)據(jù),在自然語言處理方向應(yīng)用居多,但RNN 在時(shí)間維度上拓展的層次越深,越容易出現(xiàn)梯度爆炸或梯度離散的問題,對(duì)時(shí)間序列的記憶較短[12].LSTM 解決了RNN 中存在的問題.LSTM 單元結(jié)構(gòu)見圖1.
圖1 LSTM 單元Fig.1 LSTM unit
圖1中,遺忘門計(jì)算公式為
輸入門計(jì)算公式為
細(xì)胞狀態(tài)主要用于存儲(chǔ)長(zhǎng)期記憶,能夠較好地刻畫序列的長(zhǎng)期依賴,計(jì)算公式為
輸出門計(jì)算公式為
式(4)~式(9)中,xt為單元輸入;ht為隱含狀態(tài);b為偏置;W為層間權(quán)值矩陣;ot為輸出;tanh為雙曲正切激活函數(shù);σ為Sigmoid 激活函數(shù).
在LSTM[13]中Ct代替ht成為網(wǎng)絡(luò)記憶,從數(shù)學(xué)角度講,對(duì)Ct的梯度中不包含權(quán)值矩陣的次冪項(xiàng),防止權(quán)值成指數(shù)式增長(zhǎng)或減少;從網(wǎng)絡(luò)結(jié)構(gòu)角度講,細(xì)胞狀態(tài)相當(dāng)于一個(gè)殘差層,可以為網(wǎng)絡(luò)記憶提供直通通道,在時(shí)間軸上梯度展開時(shí),有效避免了RNN 中梯度爆炸或梯度離散的問題.
GRU 是LSTM 較為成功的變種之一.GRU 單元結(jié)構(gòu)見圖2.復(fù)位門計(jì)算公式為
更新門計(jì)算公式為
GRU 中使用候選隱藏狀態(tài)th?代替LSTM 中的tC?決定加入多少當(dāng)前時(shí)刻的記憶信息,使用zt控制需要將上一時(shí)刻的記憶信息遺忘多少,計(jì)算公式為
復(fù)位門與更新門分別處理網(wǎng)絡(luò)中的長(zhǎng)期和短期記憶,GRU 在保持LSTM 功能的前提下簡(jiǎn)化了單元結(jié)構(gòu),擁有更少的參數(shù),計(jì)算效率更高.
圖2 GRU 單元Fig.2 GRU unit
單變量的時(shí)間序列預(yù)測(cè)數(shù)據(jù)組織方式可分為3種:數(shù)值對(duì)數(shù)值、數(shù)值對(duì)序列和序列對(duì)數(shù)值,見圖3.
圖3 時(shí)間序列組織方式Fig.3 time series organization
數(shù)值對(duì)數(shù)值與數(shù)值對(duì)序列的組織方式因記憶較短,時(shí)間維度特征較少,故預(yù)測(cè)效果不如序列對(duì)數(shù)值的組織方式.
將滑動(dòng)窗口技術(shù)引入時(shí)間序列數(shù)據(jù)組織中,形成一種序列對(duì)序列的交錯(cuò)組織方式,同時(shí)關(guān)注序列的長(zhǎng)期和短期特征,更多保留序列記憶,具體組織方式見圖4. 在該種數(shù)據(jù)組織方式下,窗口寬度和滑動(dòng)步長(zhǎng)參數(shù)的設(shè)置會(huì)直接對(duì)預(yù)測(cè)效果造成影響.
圖4 時(shí)間序列交錯(cuò)組織Fig.4 cross organization of time series
設(shè)有時(shí)間序列tx,記第k時(shí)刻數(shù)值的環(huán)比為
記第k時(shí)刻數(shù)值的同比為
式中,c為所求同比的周期,i為期數(shù).
以0x為基,記第k時(shí)刻數(shù)值的定基比為
為確定模型中的最佳窗口寬度參數(shù),即所使用的LSTM 單元與GRU 單元的最佳參數(shù),建立一種結(jié)合式(14)~式(16),求解式(15)中c參數(shù)的同比檢驗(yàn)策略,對(duì)輸入時(shí)間序列分解后的每一路IMF 序列進(jìn)行檢測(cè).
為防止IMF序列中存在的負(fù)值對(duì)c參數(shù)的判別造成影響,對(duì)tx進(jìn)行變換
將這種檢測(cè)策略放置于每一路IMF 序列的網(wǎng)絡(luò)單元之前,稱為周期基探測(cè)器,輸出結(jié)果稱為周期基,流程見圖5. 圖5 中變量list為同比值存放列表,變量ilist為周期值存放列表,常量MAXcycle為探測(cè)器的最大探測(cè)周期參數(shù),變量sum為求和值,變量num為計(jì)數(shù)值,變量listmin為list中的最小值,變量ilistindex為ilist中索引為index 的值.
將周期基作為時(shí)間序列交錯(cuò)組織的窗口寬度參數(shù)劃定窗口大小,即作為網(wǎng)絡(luò)輸入節(jié)點(diǎn)數(shù)與輸出節(jié)點(diǎn)數(shù),網(wǎng)絡(luò)可依此在最佳周期規(guī)律的數(shù)據(jù)組織方式上進(jìn)行擬合,加快網(wǎng)絡(luò)訓(xùn)練速率,捕捉數(shù)據(jù)特征;將周期基作為網(wǎng)絡(luò)隱層數(shù),將數(shù)據(jù)長(zhǎng)度與周期基的比值作為網(wǎng)絡(luò)隱層節(jié)點(diǎn)數(shù),可有效確定不同特征數(shù)據(jù)使用的網(wǎng)絡(luò)規(guī)模.
圖5 周期基探測(cè)器流程Fig.5 period basis detector flow
LSTM 與GRU 相比,GRU 參數(shù)更少,比LSTM少多步矩陣計(jì)算,收斂速度更快,花費(fèi)時(shí)間更短,但LSTM 比GRU 多產(chǎn)出tC參數(shù),在某些情況下能夠更好把握數(shù)據(jù)長(zhǎng)期記憶.
LSTM 的輸出門可以對(duì)細(xì)胞狀態(tài)進(jìn)行選擇,GRU 則使用全部的細(xì)胞狀態(tài);LSTM 利用遺忘門可以控制接受新老記憶的尺度,GRU 的新記憶加入受老記憶的影響,無法進(jìn)行控制.所以,LSTM 比GRU靈活性更好.
綜上,選取LSTM 作為對(duì)CEEMDAN 高頻分量的預(yù)測(cè)模型,選取GRU 作為其余分量的預(yù)測(cè)模型,將每個(gè)分量的預(yù)測(cè)值與真實(shí)值做非線性擬合,訓(xùn)練網(wǎng)絡(luò),對(duì)輸入時(shí)間序列建模,步驟[14-15]如下.
步驟1將輸入時(shí)間序列tx通過CEEMDAN分解算法分解為n組IMF 分量和一組r分量.
步驟2將每組分量通過周期基探測(cè)器,求得分量最佳周期基c,并且按照2.1 節(jié)中的時(shí)間序列交錯(cuò)組織方式進(jìn)行數(shù)據(jù)組織.
步驟3將組織后的第一組IMF 分量輸入LSTM 模型,其余IMF分量與r分量輸入GRU 模型,同時(shí),利用c按照2.2 節(jié)定義LSTM 與GRU 的最佳參數(shù).
步驟4將LSTM 與GRU 的預(yù)測(cè)結(jié)果通過Linear 層整合為n+1 個(gè)特征.
步驟5將特征輸入兩個(gè)串聯(lián)的L&R單元和一個(gè)L&t 單元,其中L&R 單元代表Linear 層與ReLU激活函數(shù)的串聯(lián),L&t 單元代表Linear 層與tanh 激活函數(shù)的串聯(lián).
步驟6將步驟5 輸出經(jīng)過Linear 層與真實(shí)值通過誤差函數(shù)得出誤差,訓(xùn)練網(wǎng)絡(luò).
步驟7根據(jù)新輸入值,使用訓(xùn)練后的網(wǎng)絡(luò)進(jìn)行預(yù)測(cè).
稱上述模型為重融網(wǎng)絡(luò)(RecNet,Recombine Net),結(jié)構(gòu)見圖6.
圖6 RecNet 模型Fig.6 RecNet model
RecNet 模型由三層構(gòu)成,分解層主要作用是將輸入序列進(jìn)行分解;傳播層主要作用是獲得不同時(shí)間尺度的特征;融合層主要作用是將不同時(shí)間尺度的特征進(jìn)行融合,得到最終預(yù)測(cè)值.
共選取4 組數(shù)據(jù)對(duì)RecNet 進(jìn)行評(píng)估,數(shù)據(jù)說明如下.
數(shù)據(jù)集ec:源自2011 年到2014 年每15min 的用電量,共描述了321 個(gè)客戶的電消費(fèi)數(shù)據(jù),原始數(shù)據(jù)中進(jìn)行了轉(zhuǎn)換,以反映每小時(shí)的消耗量,取168條記錄.
數(shù)據(jù)集tu:源自加州運(yùn)輸部2015 至2016 年每小時(shí)的數(shù)據(jù),這些數(shù)據(jù)描述了舊金山灣區(qū)高速公路上不同傳感器測(cè)量到的道路占用率(0 到1 之間),取168 條記錄.
數(shù)據(jù)集nd:源自國(guó)內(nèi)某商業(yè)銀行每天的通知存款數(shù)據(jù),取364 條記錄.
數(shù)據(jù)集sf:源自國(guó)內(nèi)某商業(yè)銀行每天的小額流入數(shù)據(jù),取364 條記錄.
上述數(shù)據(jù)均采用最大最小值歸一化方式進(jìn)行預(yù)處理,為
式中,xscale為歸一化后的數(shù)據(jù);x為當(dāng)前數(shù)據(jù),xmax、xmin分別為序列中的最大值和最小值.
數(shù)據(jù)集tu 均為0 至0.15 之間的浮點(diǎn)數(shù),為方便歸一化,將數(shù)據(jù)集tu 擴(kuò)大104倍.
實(shí)驗(yàn)環(huán)境見表1. 模型參數(shù)與對(duì)比模型參數(shù)設(shè)置見表2.
表1 實(shí)驗(yàn)環(huán)境Tab.1 experimental environment
表2 參數(shù)設(shè)置Tab.2 parameter setting
BPNN、RNN、LSTM、GRU 和RecNet 中,損失函數(shù)均使用均方誤差(Mean Square Error, MSE),優(yōu)化器均使用Adam;采用MSE 與平均誤差率(Mean Error Rate,MER)檢測(cè)模型預(yù)測(cè)值與實(shí)際值之間的偏差,數(shù)值越小代表模型預(yù)測(cè)誤差越小;采用R2(R-squared)檢測(cè)模型準(zhǔn)確程度,數(shù)值越大代表模型預(yù)測(cè)越準(zhǔn)確.以上述3 種評(píng)價(jià)項(xiàng)評(píng)估RecNet 性能,計(jì)算公式分別為
式(19)~式(21)中,io為實(shí)際值;為預(yù)測(cè)值;為實(shí)際值序列的平均值.
另外,計(jì)算MSE 之前,先將實(shí)際值與預(yù)測(cè)值使用式(18)進(jìn)行歸一化后再計(jì)算.
為驗(yàn)證模型性能,均選取數(shù)據(jù)集的80%作為訓(xùn)練集輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練;剩余20%作為測(cè)試集輸入網(wǎng)絡(luò)進(jìn)行預(yù)測(cè),測(cè)試模型性能.為避免隨機(jī)生成的權(quán)值與偏置值對(duì)網(wǎng)絡(luò)訓(xùn)練過程造成影響,對(duì)不同數(shù)據(jù)集上的訓(xùn)練過程均固定隨機(jī)因子;為避免網(wǎng)絡(luò)過擬合現(xiàn)象,網(wǎng)絡(luò)訓(xùn)練過程每次迭代過程均在訓(xùn)練集中隨機(jī)劃取一部分作為驗(yàn)證集,隨機(jī)交叉訓(xùn)練.
因啟動(dòng)不同模型所需的前置數(shù)據(jù)量不同,圖7~圖9 中,橫坐標(biāo)均代表數(shù)據(jù)期數(shù),ec 數(shù)據(jù)與tu數(shù)據(jù)每期代表每小時(shí),nd 數(shù)據(jù)與sf 數(shù)據(jù)每期代表每天.預(yù)測(cè)結(jié)果所涉及的數(shù)據(jù)集ec 和數(shù)據(jù)集tu 展示161 條數(shù)據(jù),測(cè)試集展示34 條數(shù)據(jù);所涉及的數(shù)據(jù)集nd 和數(shù)據(jù)集sf 數(shù)展示353 條數(shù)據(jù),測(cè)試集nd 展示97 條數(shù)據(jù),測(cè)試集sf 展示71 條數(shù)據(jù).
圖7為 RecNet 在4 組數(shù)據(jù)測(cè)試集上的預(yù)測(cè)結(jié)果. 由圖7(b)、圖7(c)可以看出,對(duì)數(shù)據(jù)集tu和數(shù)據(jù)集nd,RecNet 模型預(yù)測(cè)誤差小,可以快速跟進(jìn)數(shù)據(jù)趨勢(shì),不存在滯后一期現(xiàn)象;圖7(a)、圖7(d)中,對(duì)數(shù)據(jù)集ec 和數(shù)據(jù)集sf 在某些異常值情況下存在一定預(yù)測(cè)誤差,但依舊可以緊跟數(shù)據(jù)趨勢(shì),同樣避免了滯后一期現(xiàn)象.
圖7 RecNet 在4 種數(shù)據(jù)測(cè)試集上的預(yù)測(cè)結(jié)果Fig.7 RecNet prediction results on 4 groups test sets
表3 為7 種模型在4 組數(shù)據(jù)測(cè)試集上的評(píng)價(jià)項(xiàng).由表3 中可以看出,在數(shù)據(jù)集ec、數(shù)據(jù)集tu、數(shù)據(jù)集nd 和數(shù)據(jù)集sf 的測(cè)試集上,RecNet 模型得到的MSE分別為0.27%、0.06%、0.46%和0.87%,得到的MER分別為3.96%、9.84%、1.95%和7.45%,得到的R2分別為 95.39%、99.38%、93.47%和73.49%.RecNet 在7 種模型中均能得到最小的MSE與MER,得到最大的R2,說明RecNet 相較于其余2 種傳統(tǒng)時(shí)間序列預(yù)測(cè)模型和其余4 種神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測(cè)模型有更強(qiáng)的預(yù)測(cè)性能,網(wǎng)絡(luò)擬合的模型準(zhǔn)確程度更高.本文提出的周期基探測(cè)器,在有效提高模型準(zhǔn)確程度的同時(shí),減少了模型訓(xùn)練所需的參數(shù)量,使得模型更易于啟動(dòng)訓(xùn)練.
為進(jìn)一步評(píng)估模型性能,保持表2 中參數(shù)設(shè)置不變的情況下,將4 種數(shù)據(jù)集的全集輸入網(wǎng)絡(luò)進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果見圖8. 由圖8 中(d)可以看出,RedNet 模型在數(shù)據(jù)集sf 部分異常值處仍存在一定預(yù)測(cè)誤差,但整體預(yù)測(cè)效果較好.
表4為7 種模型在4 組數(shù)據(jù)全集上的評(píng)價(jià)項(xiàng).在數(shù)據(jù)集ec、數(shù)據(jù)集tu、數(shù)據(jù)集nd、數(shù)據(jù)集sf 的全集預(yù)測(cè)中,RedNet 模型得到的MSE分別為0.06%、0.03%、0.05%和0.06%,得到的MER分別為2.02%、5.78%、1.27%和7.71%,得到的R2分別為98.93%、99.60%、97.99%和92.22%,相較于其余6 種模型,RedNet 模型在4 種數(shù)據(jù)集全集上表現(xiàn)最優(yōu).
表3 7 種模型在4 組數(shù)據(jù)測(cè)試集上的評(píng)價(jià)項(xiàng)Tab.3 evaluation items of 7 models on 4 groups test sets
圖8 RecNet 在4 種數(shù)據(jù)全集上的預(yù)測(cè)結(jié)果Fig.8 RecNet prediction results on 4 groups dataset
表4 7 種模型在4 組數(shù)據(jù)全集上的評(píng)價(jià)項(xiàng)Tab.4 evaluation items of 7 models on 4 groups dataset
為進(jìn)一步觀察RecNet 模型對(duì)神經(jīng)網(wǎng)絡(luò)模型預(yù)測(cè)時(shí)間序列造成的滯后一期現(xiàn)象的改進(jìn)效果,取數(shù)據(jù)集nd 中存在上凹型與下凹型起伏趨勢(shì)的33 條記錄,在BPNN 模型、RNN 模型、LSTM 模型、GRU模型和本文所提RecNet 模型上分別進(jìn)行預(yù)測(cè),預(yù)測(cè)結(jié)果見圖9.
圖9 部分nd 數(shù)據(jù)集在4 種神經(jīng)網(wǎng)絡(luò)模型及RedNet 模型上的預(yù)測(cè)結(jié)果Fig.9 prediction results of partial nd dataset on 4 kinds of neural network models and RecNet
由圖9 可以看出,BPNN 模型對(duì)上凹型與下凹型起伏趨勢(shì)均無法跟進(jìn),滯后一期現(xiàn)象嚴(yán)重,且跟進(jìn)后預(yù)測(cè)數(shù)據(jù)存在波動(dòng)現(xiàn)象;RNN 模型、LSTM 模型和GRU 模型在上凹型與下凹型數(shù)據(jù)的跟進(jìn)效果上均比BPNN 更佳,但對(duì)上凹型數(shù)據(jù)仍有明顯滯后一期現(xiàn)象,且對(duì)下凹型數(shù)據(jù)拐點(diǎn)貼合效果較差;RecNet 模型不僅可以快速跟進(jìn)數(shù)據(jù)上凹型與下凹型趨勢(shì),并且能夠準(zhǔn)確貼合拐點(diǎn),趨勢(shì)變平直后沒有波動(dòng)現(xiàn)象,預(yù)測(cè)性能強(qiáng).
提出一種融合經(jīng)驗(yàn)?zāi)B(tài)分解與深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)的RecNet 模型,并且與SGL-ES 模型、2ND-ES 模型,以及BPNN 模型、RNN 模型、LSTM模型和GRU 模型進(jìn)行對(duì)比,得出以下結(jié)論.
(1)RecNet 模型預(yù)測(cè)誤差明顯低于傳統(tǒng)時(shí)間序列預(yù)測(cè)模型及神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測(cè)模型.在起伏波動(dòng)較少的nd 測(cè)試集中預(yù)測(cè)平均誤差率僅為1.95%,在起伏波動(dòng)劇烈的sf 測(cè)試集中預(yù)測(cè)平均誤差率僅為7.45%.
(2)RecNet 模型對(duì)數(shù)據(jù)跟進(jìn)效果佳,解決了傳統(tǒng)時(shí)間序列預(yù)測(cè)模型及神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測(cè)模型的預(yù)測(cè)滯后一期現(xiàn)象.在較平滑的tu 測(cè)試集中模型擬合準(zhǔn)確度高達(dá)為99.38%,即使在存在異常值較多的 sf 測(cè)試集中模型擬合準(zhǔn)確度也可達(dá)到73.49%,全集可達(dá)到92.22%.
(3)RecNet 模型通過周期基探測(cè)器捕捉序列特征,自動(dòng)確定網(wǎng)絡(luò)節(jié)點(diǎn)和層數(shù)等參數(shù),并且使用交錯(cuò)方式對(duì)單變量時(shí)間序列進(jìn)行組織,相較于其余神經(jīng)網(wǎng)絡(luò)時(shí)間序列預(yù)測(cè)模型參數(shù)量更少,更易適配不同類型的序列數(shù)據(jù),訓(xùn)練與預(yù)測(cè)效率更高.
在今后的研究中,考慮將RecNet 模型應(yīng)用于多變量時(shí)間序列預(yù)測(cè)和多步時(shí)間序列預(yù)測(cè)中,以進(jìn)一步驗(yàn)證模型性能.