国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)Bi-LSTM 和XGBoost 的電力負(fù)荷組合預(yù)測方法

2022-05-05 02:26:48代業(yè)明
上海理工大學(xué)學(xué)報 2022年2期
關(guān)鍵詞:預(yù)處理負(fù)荷誤差

代業(yè)明, 周 瓊

(青島大學(xué) 商學(xué)院,青島 266071)

隨著電力需求日益增加,傳統(tǒng)電網(wǎng)在集中配電、人工監(jiān)控和恢復(fù)、雙向通信等方面開始遇到挑戰(zhàn)[1-2],智能電網(wǎng)的出現(xiàn)為解決上述困難提供技術(shù)可能,有助于監(jiān)控電力生產(chǎn)、傳輸和消耗,并平衡三者關(guān)系[3]。但由于氣候、經(jīng)濟(jì)、環(huán)境等不確定因素的影響,電力負(fù)荷波動較大[4],難以簡單對其進(jìn)行預(yù)測。為了確保電力系統(tǒng)安全運(yùn)行,減少電力消耗,滿足市場需求,平衡電力負(fù)荷的供需關(guān)系,最大化經(jīng)濟(jì)效益,對電力負(fù)荷進(jìn)行精準(zhǔn)預(yù)測十分必要。

現(xiàn)有電力負(fù)荷預(yù)測方法主要分為4 類:傳統(tǒng)預(yù)測、現(xiàn)代預(yù)測、混合預(yù)測和組合預(yù)測。其中,傳統(tǒng)預(yù)測方法包括時間序列分析[5]、回歸分析[6]和其他統(tǒng)計方法,能較好處理簡單線性問題和估計未來電力負(fù)荷,但在處理非線性問題時效果不佳。于是,基于非線性映射的現(xiàn)代預(yù)測技術(shù)逐漸用來預(yù)測非線性問題,主要包括模糊邏輯、灰色系統(tǒng)、人工神經(jīng)網(wǎng)絡(luò)、支持向量回歸。但這些方法依然存在計算復(fù)雜[7-8]、泛化能力差[9]和過擬合[10]等固有局限,對電力負(fù)荷精準(zhǔn)預(yù)測帶來新的挑戰(zhàn)。

針對上述不足,通過粒子群[11]、貝葉斯[12]等參數(shù)優(yōu)化算法以及對數(shù)據(jù)進(jìn)行預(yù)處理,提出了混合預(yù)測模型。從參數(shù)優(yōu)化角度,Wang 等[13]使用混合支持向量回歸方法預(yù)測中長期負(fù)荷,并使用基于嵌套策略和狀態(tài)轉(zhuǎn)移算法的分層方法優(yōu)化預(yù)測模型的參數(shù);Barman 等[14]使用灰狼優(yōu)化器優(yōu)化支持向量機(jī)參數(shù)并預(yù)測了受文化或宗教儀式等社會因素顯著影響的電力需求。通過數(shù)據(jù)分解[15]和特征選擇技術(shù)[16]對數(shù)據(jù)進(jìn)行預(yù)處理,有助于消除異常值,糾正數(shù)據(jù)錯誤和提高數(shù)據(jù)質(zhì)量。因此,混合預(yù)測方法比前兩種預(yù)測方法表現(xiàn)更佳。

為進(jìn)一步改進(jìn)和優(yōu)化預(yù)測模型,克服傳統(tǒng)、現(xiàn)代和混合預(yù)測方法中單一預(yù)測模型的固有缺陷,將兩個以上的不同預(yù)測模型以特定加權(quán)方法組合,從而得到組合預(yù)測方法。如Xiao 等[17]采用布谷鳥搜索算法來優(yōu)化組合模型的權(quán)重系數(shù),實驗結(jié)果表明所提出的組合預(yù)測模型可以產(chǎn)生更低的誤差,能夠提供穩(wěn)定、高精度的負(fù)荷預(yù)測;林錦順等[18]、鄧帶雨等[19]和Chu 等[20]也證明了組合預(yù)測模型的性能優(yōu)于單一模型;陳振宇等[21]使用長短期記憶網(wǎng)絡(luò)(long short-term memory, LSTM)和極端梯度提升(eXtreme gradient boosting, XGBoost)模型預(yù)測電力負(fù)荷,然后根據(jù)誤差倒數(shù)法為兩個模型分配權(quán)重,從而盡可能減小誤差和提高預(yù)測精度;莊家懿等[22]結(jié)合MAPE-RW 算法進(jìn)行模型組合初始權(quán)重設(shè)置,對最佳權(quán)重進(jìn)行搜索,構(gòu)建了CNN-LSTM-XGBoost 組合預(yù)測模型,比單一預(yù)測模型誤差顯著降低;Nie 等[23]則使用多目標(biāo)灰狼算法(multi-objective grey wolf algorithm, MOGWO)分別對徑向基函數(shù)網(wǎng)絡(luò)(radial basis function network,RBF)、廣義回歸神經(jīng)網(wǎng)絡(luò)(generalized regression neural network, GRNN)和極限學(xué)習(xí)機(jī)(extreme learning machine, ELM)賦予權(quán)重,建立了一種基于群智能優(yōu)化的組合預(yù)測模型,有效降低了單一模型適應(yīng)性弱的不利影響,使準(zhǔn)確性和適應(yīng)性得到迅速提高。

從以上文獻(xiàn)可知,組合預(yù)測方法對預(yù)測的改進(jìn)不僅需要多個預(yù)測模型,還需要計算每個模型所占權(quán)重,并沒有強(qiáng)調(diào)數(shù)據(jù)預(yù)處理的重要性,并且通常組合現(xiàn)有成熟預(yù)測模型。在此背景下,本文首先使用加權(quán)灰色關(guān)聯(lián)投影算法(weighted grey relational projection, WGRP)對數(shù)據(jù)進(jìn)行預(yù)處理,消除節(jié)假日的不利影響;其次,在被廣泛認(rèn)為是一種能夠充分隱藏信息并獲得良好預(yù)測效果的Bi-LSTM 預(yù)測模型基礎(chǔ)上,將具有大規(guī)模并行處理、分布式信息存儲、可接受的自組織和自學(xué)習(xí)能力等優(yōu)點的注意力機(jī)制添加到Bi-LSTM 模型中,消除不合理的影響,并強(qiáng)調(diào)關(guān)鍵輸入數(shù)據(jù)影響,得到了“Attention-Bi-LSTM”模型;最后,為了避免單一預(yù)測模型缺陷,再將通過添加正則項來控制模型復(fù)雜性和防止過度擬合、提高模型泛化能力的XGBoost[21]模型與Attention-Bi-LSTM模型組合,得到“Attention-Bi-LSTM + XGBoost”電力負(fù)荷組合預(yù)測模型,并運(yùn)用新加坡電力市場數(shù)據(jù)進(jìn)行評估。

1 基本理論

1.1 加權(quán)灰色關(guān)聯(lián)投影算法

加權(quán)灰色關(guān)聯(lián)投影算法[16]是一種將各因素之間發(fā)展趨勢的相似或相異程度,即“灰色關(guān)聯(lián)度”作為衡量各因素關(guān)聯(lián)程度的一種方法。該方法不受樣本量多少的限制,可以全面分析指標(biāo)間相互關(guān)系,反映各決策方案與理想方案之間接近程度,并對有無規(guī)律的樣本量都同樣適用,結(jié)果具有一般性、計算量小的特點。

首先,選擇n1個樣本的數(shù)據(jù)和待預(yù)測樣本的數(shù)據(jù),計算它們之間的關(guān)系系數(shù),并構(gòu)造以下灰色關(guān)聯(lián)矩陣。

式中,An1m1表示第n1個樣本中第m1個因子的灰色關(guān)聯(lián)系數(shù)。

然后,使用熵權(quán)法計算各影響因素的權(quán)重,并對灰色關(guān)聯(lián)矩陣進(jìn)行加權(quán),得到加權(quán)灰色關(guān)聯(lián)矩陣,如下所示:

因此,每個歷史樣本和待預(yù)測樣本之間的加權(quán)灰關(guān)聯(lián)投影值Bi為

最后,將得到的投影值從大到小排序,選擇投影值較大的樣本作為相似樣本進(jìn)行替換。

1.2 Attention-Bi-LSTM 電力負(fù)荷預(yù)測模型

1.2.1 Bi-LSTM 模型

為了改善循環(huán)神經(jīng)網(wǎng)絡(luò)中的梯度爆炸和消失的問題,LSTM 用門控機(jī)制來控制信息的更新或丟棄,引入了輸入門、遺忘門、輸出門[24],以此去除一些對當(dāng)下情況不重要的內(nèi)容,使得信息保存時間延長,可以保存一些時間較為久遠(yuǎn)的信息。LSTM 門的輸入均為當(dāng)前時間步輸入Xt與上一時間步隱藏狀態(tài)Ht-1,輸出由激活函數(shù)sigmoid 函數(shù)(σ)的全連接層計算得到。其總體框架為

與LSTM 不同,Bi-LSTM 方法由前向LSTM和后向LSTM 組合而成,在對數(shù)據(jù)特征提取的時候會考慮到隱藏在數(shù)據(jù)中的整體信息,通過正向和反向兩個角度來進(jìn)行特征提取,然后將雙向提取的結(jié)果按照特定方式進(jìn)行結(jié)合。從兩個維度進(jìn)行總結(jié),在一定程度上消除單一LSTM 中輸入數(shù)據(jù)順序?qū)ψ罱K結(jié)果的不利影響,使結(jié)果更全面。

1.2.2 Attention 機(jī)制

目前,Attention 機(jī)制在計算機(jī)視覺、手寫識別等領(lǐng)域已被廣泛使用。應(yīng)用于深度學(xué)習(xí)中的Attention 機(jī)制可以理解為如何從輸入數(shù)據(jù)中過濾出關(guān)鍵信息,并對這些關(guān)鍵信息賦予更高的權(quán)重以作出有效決策。為了強(qiáng)調(diào)輸入數(shù)據(jù)對輸出數(shù)據(jù)的不同影響力,優(yōu)化數(shù)據(jù)的特征提取,提高預(yù)測性能,本文在Bi-LSTM 的基礎(chǔ)上引入Attention 機(jī)制,可以計算出注意力的概率分布,消除輸入數(shù)據(jù)對輸出數(shù)據(jù)不合理的影響,從而提高關(guān)鍵輸入數(shù)據(jù)的影響力。其結(jié)構(gòu)如圖1 所示,相關(guān)計算見文獻(xiàn)[25]。

圖1 注意力機(jī)制結(jié)構(gòu)Fig. 1 Structure of Attention mechanism

1.3 XGBoost 電力負(fù)荷預(yù)測模型

XGBoost 通過不斷添加樹,不斷進(jìn)行特征分裂來生長一棵樹,每添加一個樹,就是學(xué)習(xí)一個新函數(shù),去擬合上次預(yù)測的殘差。當(dāng)訓(xùn)練完成得到k棵樹,每棵樹中包含若干葉子結(jié)點,每個葉子結(jié)點就對應(yīng)一個分?jǐn)?shù)。最后只需要將每棵樹對應(yīng)的分?jǐn)?shù)加起來就是該樣本的預(yù)測值,即各樣本和它們對應(yīng)的權(quán)值乘積累加[21]。因此,隨著迭代次數(shù)的增加,預(yù)測精度也不斷提高。XGBoost 模型如下:

每一次迭代,都在現(xiàn)有樹的基礎(chǔ)上,增加一棵樹去擬合前面樹的預(yù)測結(jié)果與真實值之間的殘差,其迭代過程如下:

XGBoost 的目標(biāo)函數(shù)如下所示:

式(16)將每個樣本的損失函數(shù)值疊加起來,將所有以同一個葉子結(jié)點的樣本進(jìn)行重組,過程如下:

為了方便計算,符合數(shù)據(jù)輸入的要求,數(shù)據(jù)要預(yù)先被歸一化處理,具體方法如式(20)所示,使數(shù)據(jù)被限制在 [0,1]的范圍內(nèi)。

式中:xmin為電力負(fù)荷數(shù)據(jù)中的最小值;xmax為電力負(fù)荷數(shù)據(jù)中的最大值;x為需要歸一化處理的數(shù)據(jù)。

2 Attention-Bi-LSTM+XGBoost 電力負(fù)荷組合預(yù)測模型

2.1 權(quán)重賦予方式

在誤差倒數(shù)法中,誤差較小的預(yù)測模型被賦予較大權(quán)重,于是組合預(yù)測模型的總體誤差可以顯著降低。為確定權(quán)重系數(shù),本文采用誤差倒數(shù)法為模型分配權(quán)重,公式如下:

式 中: ωi為 權(quán) 重 值;fit為Attention-Bi-LSTM 和XGBoost 所得出的預(yù)測值; ε1, ε2分別為預(yù)測模型Attention-Bi-LSTM 和XGBoost 的誤差值。

2.2 Attention-Bi-LSTM+XGBoost 電力負(fù)荷組合預(yù)測模型

與現(xiàn)有預(yù)測模型不同,Attention-Bi-LSTM 模型不僅可以充分考慮隱藏在輸入數(shù)據(jù)中的整體信息,而且可以從兩個維度獲得更全面的結(jié)果,同時也強(qiáng)調(diào)了關(guān)鍵輸入數(shù)據(jù)的影響。因此,使用Attention-Bi-LSTM 模型可以提高預(yù)測結(jié)果的準(zhǔn)確性;此外,XGBoost 作為一種新興的預(yù)測模型,具有較低復(fù)雜度,可以防止過度擬合,并具有良好的預(yù)測性能。本文首先使用Attention-Bi-LSTM和XGBoost 方法預(yù)測電力負(fù)荷,并獲得相應(yīng)的誤差;然后根據(jù)誤差結(jié)果,采用誤差倒數(shù)法計算上述兩種模型的權(quán)重;最終將上述兩種模型的不同預(yù)測結(jié)果組合起來,從而克服單一預(yù)測模型各種固有缺陷。該預(yù)測模型框架如圖2 所示。

圖2 Attention-Bi-LSTM + XGBoost 組合預(yù)測模型框架Fig.2 Framework of Attention-Bi-LSTM + XGBoost combined prediction model

3 Attention-Bi-LSTM+XGBoost 電力負(fù)荷組合預(yù)測方法

本文所提出的組合預(yù)測方法預(yù)測過程如圖3所示,預(yù)測步驟主要分為以下4 個階段:

圖3 組合預(yù)測模型框架圖Fig.3 Frame diagram of combined forecasting model

第一階段,預(yù)處理數(shù)據(jù)。首先,本文選擇了幾個影響最大的特征,如時間、日類型、假日類型、實時價格,然后利用WGRP 算法對節(jié)假日數(shù)據(jù)進(jìn)行處理,使數(shù)據(jù)更具一般性,最后將數(shù)據(jù)標(biāo)準(zhǔn)化。

第二階段,單一模型預(yù)測。使用注意力機(jī)制對LSTM 模型進(jìn)行優(yōu)化,消除不合理因素的影響,突出關(guān)鍵輸入數(shù)據(jù)的影響,使結(jié)果更加全面。Attention-Bi-LSTM 和XGBoost 模型都用于預(yù)測同一數(shù)據(jù)集,并根據(jù)預(yù)測結(jié)果為兩個模型組合作準(zhǔn)備。

第三階段,權(quán)重賦予。在用Bi-LSTM和XGBoost方法對電力負(fù)荷數(shù)據(jù)進(jìn)行預(yù)測后,根據(jù)預(yù)測的誤差使用誤差倒數(shù)法獲得權(quán)重,并對單個模型進(jìn)行加權(quán),形成了Attention-Bi-LSTM + XGBoost 組合預(yù)測模型。

第四階段,預(yù)測評估。通過比較6 個基準(zhǔn)模型和新加坡電力市場實際數(shù)據(jù)的預(yù)測誤差,評估該方法能否提高電力負(fù)荷預(yù)測的準(zhǔn)確性。

4 模型評價

本節(jié)基于新加坡電力市場數(shù)據(jù)集評估和討論所提出的預(yù)測方法性能。由于LSTM,Bi-LSTM,Attention-Bi-LSTM,Attention-LSTM ,Attention-RNN 和XGBoost 與本文的模型具有很高的相關(guān)性,因此作為基準(zhǔn)模型與本文提出的方法進(jìn)行比較。

4.1 數(shù)據(jù)集和實驗環(huán)境

本文選取新加坡電力市場2019 年1 月1 日至2021 年1 月7 日的數(shù)據(jù),并考慮了日類型、時刻、節(jié)假日類型、實時電價等因素,歷史電力負(fù)荷數(shù)據(jù)的采樣周期為1 h,2019 年1 月1 日至2020 年12 月31 日的數(shù)據(jù)為訓(xùn)練數(shù)據(jù),2021 年1 月1 日至2021 年1 月7 日的數(shù)據(jù)為測試數(shù)據(jù),預(yù)測出2021 年1 月1 日至2021 年1 月7 日的電力負(fù)荷情況,最后進(jìn)行結(jié)果比較和誤差分析。

本次實驗硬件平臺為裝有Intel i5-1035G1 處理器的臺式電腦,內(nèi)存為8 GB,固態(tài)硬盤容量為477 GB,CPU 顯卡為MX230?;赑ython 語言實現(xiàn)本文所提出的方法,Attention-Bi-LSTM 模型使用Keras 深度學(xué)習(xí)框架,XGBoost 使用py-xgboost框架。

4.2 評價標(biāo)準(zhǔn)

本文選取平均相對誤差絕對值(mean absolute percent error, MAPE)作為各個預(yù)測模型的主要評判指標(biāo),并選取平均絕對誤差(mean absolute error,MAE)和均方根誤差(root mean squared error, RMSE)作為輔助評判指標(biāo)。MAPE,MAE 和RMSE 的計算公式分別如下所示。

式中:n為 電力負(fù)荷數(shù)據(jù)的數(shù)量;yt為實際的電力負(fù)荷數(shù)據(jù);y?t為預(yù)測出的電力負(fù)荷數(shù)據(jù)。

4.3 數(shù)據(jù)預(yù)處理對預(yù)測結(jié)果的影響

首先對新加坡電力負(fù)荷數(shù)據(jù)使用加權(quán)灰色關(guān)聯(lián)投影算法進(jìn)行處理,選取與五一勞動節(jié)關(guān)聯(lián)度較大的歷史數(shù)據(jù),使數(shù)據(jù)更加具有一般性。為了驗證WGRP 算法的重要性,分別使用Attention-Bi-LSTM 和經(jīng)過加權(quán)灰色關(guān)聯(lián)投影算法處理的Attention-Bi-LSTM,以及XGBoost 和經(jīng)過加權(quán)灰色關(guān)聯(lián)投影算法處理的XGBoost,對五一假期的數(shù)據(jù)進(jìn)行預(yù)測。最后將上述4 種模型的結(jié)果與真實值進(jìn)行比較,并進(jìn)行誤差分析。

圖4 比較了引入WGRP 算法前后Attention-Bi-LSTM 預(yù)測結(jié)果與真實值變化趨勢,可以發(fā)現(xiàn)經(jīng)過處理的模型比未經(jīng)處理的模型更接近實際值。表1 顯示了WGRP 算法處理的Attention-Bi-LSTM的MAPE,MAE 和RMSE 值分別為0.639,67.147和96.232,意味著經(jīng)過WGRP 處理的Attention-Bi-LSTM 預(yù)測模型具有更高的預(yù)測精度。因此,對于Attention-Bi-LSTM,在選擇2020 年5 月1 日的歷史假日數(shù)據(jù)后,可以使用WGRP 算法來提高模型的精度,表明了WGRP 算法預(yù)處理的有效性。

圖4 加權(quán)灰色關(guān)聯(lián)投影算法預(yù)處理前后的Attention-Bi-LSTM 預(yù)測結(jié)果與真實值對比Fig. 4 Comparison between real values and prediction results of Attention-Bi-LSTM model before and after processing by WGRP algorithm

表1 加權(quán)灰色關(guān)聯(lián)投影算法預(yù)處理前后的Attention-Bi-LSTM 預(yù)測誤差分析Tab.1 Error analysis of Attention-Bi-LSTM model before and after processing by WGRP algorithm

圖5 比較了引入WGRP 算法前后的XGBoost 預(yù)測結(jié)果與真實值關(guān)系,WGRP 算法處理的XGBoost線條趨勢與實際值基本一致,從表2 也可以看出,WGRP 算法處理的XGBoost 的MAPE,MAE和RMSE 值分別為0.409,42.976 和43.817,意味著經(jīng)過WGRP 處理的XGBoost 模型具有更高的預(yù)測精度。因此,對于XGBoost,WGRP 算法同樣有助于提高模型的預(yù)測精度。

圖5 加權(quán)灰色關(guān)聯(lián)投影算法預(yù)處理前后的XGBoost 預(yù)測結(jié)果與真實值對比Fig. 5 Comparison between real values and prediction results of XGBoost model before and after processing by WGRP algorithm

表2 XGBoost 及加權(quán)灰色關(guān)聯(lián)投影算法處理的XGBoost 誤差分析Tab.2 Error analysis of XGBoost model before and after processing by WGRP algorithm

當(dāng)不考慮WGRP 算法時,雖然預(yù)測結(jié)果與實際值的變化趨勢基本一致,但是差異很大。使用WGRP 算法后,減少了預(yù)測結(jié)果與實際值之間的差距。因此,為了減少預(yù)測誤差,首先使用WGRP算法處理歷史數(shù)據(jù)中的假日數(shù)據(jù)。然后,為了驗證該算法在提高預(yù)測精度和減少誤差方面的優(yōu)勢,使用相同的模型對處理后和未處理的數(shù)據(jù)進(jìn)行預(yù)測。結(jié)果發(fā)現(xiàn),數(shù)據(jù)處理的預(yù)測結(jié)果更接近真實值,預(yù)測精度可以進(jìn)一步提高。因此,采用WGRP 算法對假日數(shù)據(jù)進(jìn)行處理,使數(shù)據(jù)更加通用,提高了預(yù)測精度。

4.4 預(yù)測結(jié)果分析

接下來以預(yù)處理后的電力負(fù)荷數(shù)據(jù)來驗證提出的電力負(fù)荷預(yù)測方法的適用性。首先,使用Attention-Bi-LSTM 和XGBoost 模型對同一組數(shù)據(jù)進(jìn)行預(yù)測,并得出兩個模型的預(yù)測誤差;其次,根據(jù)誤差對上述兩種預(yù)測模型進(jìn)行加權(quán),并將其與誤差倒數(shù)法相結(jié)合,誤差較小的模型被賦予更高的權(quán)重;第三,為了驗證本文提出的組合預(yù)測模型的有效性,使用LSTM,Bi-LSTM,Attention-RNN,Attention-LSTM,Attention-Bi-LSTM,XGBoost和“Attention-Bi-LSTM + XGBoost”組合預(yù)測模型分別進(jìn)行預(yù)測,并對預(yù)測結(jié)果進(jìn)行比較。

4.4.1 預(yù)測結(jié)果和實際數(shù)據(jù)比較

a. 圖6 顯示LSTM,Bi-LSTM,Attention-RNN,Attention-LSTM,Attention-Bi-LSTM,XGBoost模型和“Attention-Bi-LSTM + XGBoost”組合預(yù)測模型的預(yù)測結(jié)果與實際值之間的比較,易知“Attention-Bi-LSTM + XGBoost”組合預(yù)測模型的預(yù)測精度最高,而Bi-LSTM 模型的預(yù)測精度最低。

圖6 預(yù)測結(jié)果和實際數(shù)據(jù)的趨勢比較圖Fig. 6 Trend comparison chart of prediction results and actual values

b. 新加坡2020 年1 月7 日24 h 預(yù)測結(jié)果的局部放大圖如圖7 所示,從圖7 中可以看出,“Attention-Bi-LSTM + XGBoost”組合預(yù)測模型的預(yù)測值曲線與實際值曲線最接近,即本文提出的模型擬合效果最好。

圖7 新加坡2020 年1 月7 日預(yù)測結(jié)果的局部放大圖Fig. 7 Local enlarged drawing of Singapore’s prediction results on January 7, 2020 (24 hours)

4.4.2 誤差比較分析

上述6 種模型的MAPE,MAE 和RMSE 值如表3 所示,通過比較表3 中誤差值可知:

表3 新加坡電力市場的誤差分析Tab.3 Error analysis in Singapore power market

a. 由于LSTM 是循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)的改進(jìn),因此Attention-LSTM 的誤差小于Attention-RNN,說明本文選擇LSTM 作為基礎(chǔ)預(yù)測模型的必要性。

b. 根據(jù)LSTM,Attention-LSTM 和Attention-RNN 模型3 種預(yù)測模型綜合比較,可知注意力機(jī)制對預(yù)測精度有顯著影響。

c. 在所有基準(zhǔn)模型的精度測試標(biāo)準(zhǔn)中,XGBoost的誤差值最小,這意味著XGBoost 具有極其優(yōu)異的預(yù)測性能,因此本文使用XGBoost 來組合提高Attention-Bi-LSTM 預(yù)測模型的精準(zhǔn)性。

d. 表3 顯示,“Attention-Bi-LSTM + XGBoost”組合預(yù)測模型的MAPE 和MAE 值分別為0.445 和49.546,從整體角度來看最小。盡管XGBoost 的RMSE 值最小為62.585,但所提出的組合預(yù)測模型的值僅略高于最小值,顯然可以接受。因此,兩種預(yù)測模型的組合可以從整體上降低預(yù)測誤差,從而優(yōu)于單一預(yù)測模型,提高現(xiàn)有模型的預(yù)測精度。

e. 與文獻(xiàn)[21] 不同的是,本文首先對數(shù)據(jù)進(jìn)行了處理,并且將雙向和注意力機(jī)制添加到LSTM模型進(jìn)行改進(jìn),以提高預(yù)測精度。通過誤差對比,可以發(fā)現(xiàn)本文所用方法相較文獻(xiàn)[21]在精確度上可以提高12%左右,因此證明本文使用各種改進(jìn)方法的必要性和有效性。

5 結(jié) 論

為了提高電力負(fù)荷預(yù)測的準(zhǔn)確性和穩(wěn)定性,本文提出了一種基于WGRP 算法的Attention-Bi-LSTM + XGBoost 電力負(fù)荷組合預(yù)測方法。在數(shù)據(jù)預(yù)處理階段,采用WGRP 算法選擇節(jié)假日歷史負(fù)荷序列,在預(yù)測階段則采用Attention-Bi-LSTM +XGBoost 電力負(fù)荷組合預(yù)測模型進(jìn)行預(yù)測并得到了較好的預(yù)測結(jié)果。使用新加坡電力市場的數(shù)據(jù)集對比評估后,可以得出以下結(jié)論:

a. 利用WGRP 算法對假日數(shù)據(jù)進(jìn)行預(yù)處理,可以有效提高模型的預(yù)測精度;

b. 注意力機(jī)制允許Bi-LSTM 模型強(qiáng)調(diào)重要因素的影響,從而消除冗余,提高預(yù)測性能;

c. 在XGBoost 中加入正則項可以降低模型復(fù)雜性,有效防止過度擬合,減少計算量,從而大大提高算法的效率,因此使用XGBoost 模型進(jìn)行組合優(yōu)化可以極大減少模型誤差;

d. 與所有基準(zhǔn)模型預(yù)測結(jié)果相比,“Attention-Bi-LSTM + XGBoost”組合模型的預(yù)測結(jié)果誤差最小,與實際值最接近,表明了本文預(yù)測方法的優(yōu)越性。

綜上所述,本文提出的組合預(yù)測方法比單一的傳統(tǒng)和現(xiàn)代預(yù)測方法、混合預(yù)測方法,以及其他現(xiàn)有的組合預(yù)測方法更有效,獲得更高的電力負(fù)荷預(yù)測精度,從而減少電力市場中不必要的浪費,提高電力系統(tǒng)運(yùn)行的可靠性和安全性。

猜你喜歡
預(yù)處理負(fù)荷誤差
角接觸球軸承接觸角誤差控制
哈爾濱軸承(2020年2期)2020-11-06 09:22:26
Beidou, le système de navigation par satellite compatible et interopérable
壓力容器制造誤差探究
基于預(yù)處理MUSIC算法的分布式陣列DOA估計
防止過負(fù)荷時距離保護(hù)誤動新判據(jù)
主動降負(fù)荷才是正經(jīng)事
淺談PLC在預(yù)處理生產(chǎn)線自動化改造中的應(yīng)用
九十億分之一的“生死”誤差
山東青年(2016年2期)2016-02-28 14:25:41
絡(luò)合萃取法預(yù)處理H酸廢水
負(fù)荷跟蹤運(yùn)行下反應(yīng)堆一回路控制系統(tǒng)仿真與驗證
喜德县| 德庆县| 巴楚县| 鞍山市| 南皮县| 米泉市| 徐闻县| 郓城县| 杭锦后旗| 庆阳市| 平邑县| 丹寨县| 休宁县| 拉萨市| 乐亭县| 乐安县| 吐鲁番市| 宁波市| 华坪县| 西乡县| 松潘县| 蒲城县| 通渭县| 论坛| 黄龙县| 芦山县| 新化县| 芦溪县| 亳州市| 迁安市| 盐边县| 淮北市| 博湖县| 潜江市| 精河县| 襄城县| 历史| 浦城县| 淮滨县| 乐山市| 西贡区|