国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)Informer模型的區(qū)域電力負(fù)荷預(yù)測(cè)

2024-01-17 00:00:00唐博王志兵
企業(yè)科技與發(fā)展 2024年12期
關(guān)鍵詞:傅里葉變換注意力機(jī)制

摘要:電力負(fù)荷預(yù)測(cè)對(duì)電力系統(tǒng)的安全穩(wěn)定運(yùn)行具有至關(guān)重要的作用。鑒于當(dāng)前預(yù)測(cè)算法在精度及穩(wěn)定性方面的優(yōu)化仍存在不足,文章提出了一種改進(jìn)的Informer電力負(fù)荷預(yù)測(cè)模型——FWInformer。該模型針對(duì)電力負(fù)荷預(yù)測(cè)易受溫度、風(fēng)速等多種不確定性因素影響的問(wèn)題,采用快速傅里葉變換法篩選出相關(guān)性較高的特征變量作為輸入變量。為驗(yàn)證改進(jìn)效果,將FWInformer模型與原Informer模型進(jìn)行了對(duì)比實(shí)驗(yàn)分析。實(shí)驗(yàn)結(jié)果表明,F(xiàn)WInformer模型在均方誤差和平均絕對(duì)誤差兩項(xiàng)指標(biāo)上均優(yōu)于Informer模型,展現(xiàn)出更高的預(yù)測(cè)精度和更優(yōu)的計(jì)算效率。

關(guān)鍵詞:Informer模型;電力負(fù)荷預(yù)測(cè);注意力機(jī)制;傅里葉變換

中圖分類號(hào):TP391" " " "文獻(xiàn)標(biāo)識(shí)碼:A" " " 文章編號(hào):1674-0688(2024)12-0012-05

0 引言

電力作為支撐各行各業(yè)穩(wěn)定發(fā)展的基礎(chǔ)能源,其負(fù)荷預(yù)測(cè)的準(zhǔn)確性對(duì)保障電力系統(tǒng)的經(jīng)濟(jì)性、效率和安全性至關(guān)重要。隨著電動(dòng)汽車等新型電力消費(fèi)設(shè)備的普及,電力系統(tǒng)的隨機(jī)性、不確定性和不穩(wěn)定性顯著增強(qiáng),因此研發(fā)兼具穩(wěn)定性和預(yù)測(cè)準(zhǔn)確性的電力負(fù)荷預(yù)測(cè)模型顯得尤為迫切。電力負(fù)荷預(yù)測(cè)方法大致可分為物理方法、統(tǒng)計(jì)方法和人工智能方法。其中,人工智能方法憑借迅速發(fā)展的計(jì)算機(jī)技術(shù)成為當(dāng)前的研究熱點(diǎn),其強(qiáng)大的非線性擬合能力和自適應(yīng)學(xué)習(xí)能力為預(yù)測(cè)精度及計(jì)算效率帶來(lái)了顯著提升。人工智能方法包括支持向量機(jī)、卷積神經(jīng)網(wǎng)絡(luò)、長(zhǎng)短期記憶網(wǎng)絡(luò)和Transformer等模型。在針對(duì)這些模型的應(yīng)用研究中,趙婷婷等[1]對(duì)機(jī)器學(xué)習(xí)在時(shí)間序列預(yù)測(cè)領(lǐng)域中的應(yīng)用進(jìn)行了綜述,介紹了包括股票走勢(shì)、氣象變化、能源消耗在內(nèi)的典型時(shí)間序列數(shù)據(jù)分析。Zhou等[2]提出了針對(duì)長(zhǎng)序列數(shù)據(jù)預(yù)測(cè)問(wèn)題的 Informer 模型,該模型利用稀疏自注意力機(jī)制大幅降低了運(yùn)算量,提升了長(zhǎng)序列數(shù)據(jù)預(yù)測(cè)的運(yùn)算效率。Informer 模型在捕獲長(zhǎng)序列輸入信息方面表現(xiàn)出色, 預(yù)測(cè)性能優(yōu)于現(xiàn)有主流預(yù)測(cè)模型, 并逐漸應(yīng)用于負(fù)荷預(yù)測(cè)領(lǐng)域。朱莉等[3]針對(duì)電力負(fù)荷數(shù)據(jù)的波動(dòng)性和非平穩(wěn)性導(dǎo)致的預(yù)測(cè)精度低的問(wèn)題,提出了一種結(jié)合二次分解重構(gòu)策略與Informer模型的深度學(xué)習(xí)電力負(fù)荷預(yù)測(cè)模型。魏震波等[4]采用快速傅里葉變換(FFT)計(jì)算原始電力負(fù)荷序列的期望頻率,作為負(fù)荷聚類的特征量。許越等[5]分析了外部因素對(duì)電價(jià)的數(shù)據(jù)變化的影響,提出了一種多步預(yù)測(cè)模型,將電價(jià)相關(guān)性較高的因素作為模型原始輸入序列,經(jīng)信號(hào)分解后分別輸入改進(jìn)的Informer模型進(jìn)行多步預(yù)測(cè)。席禹等[6]提出了基于Informer的變電站設(shè)備數(shù)據(jù)清洗技術(shù),通過(guò)預(yù)測(cè)模型識(shí)別異常值、修正噪聲并記錄異常時(shí)間,有效滿足了清洗需求。

盡管Informer模型在處理序列數(shù)據(jù)方面具有優(yōu)勢(shì),但是其概率稀疏的自注意力機(jī)制更側(cè)重于捕捉全局信息,可能忽略了數(shù)據(jù)中的局部特征細(xì)節(jié),這可能導(dǎo)致在處理局部上下文匹配時(shí)出現(xiàn)異常?;谝延醒芯?,本文提出了一種改進(jìn)的Informer電力負(fù)荷預(yù)測(cè)模型——FWInformer。該模型在輸入序列經(jīng)過(guò)概率稀疏自注意力機(jī)制計(jì)算過(guò)后,增加了一層傅里葉變換層,用于篩選輸入變量中的重要上下文信息,提取序列數(shù)據(jù)的局部特征信息,從而提高預(yù)測(cè)準(zhǔn)確度。為評(píng)估 FWInformer 模型的有效性,本文采用了某地近3年的電力設(shè)備運(yùn)行數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,與Informer預(yù)測(cè)模型相比,F(xiàn)WInformer模型在不同預(yù)測(cè)步長(zhǎng)下均取得了更優(yōu)的預(yù)測(cè)效果。

1 FWInformer模型構(gòu)建

1.1 FWInformer模型總體架構(gòu)

FWInformer模型主要由輸入序列、編碼器、解碼器、全連接層以及輸出序列組成。Informer模型是專為應(yīng)對(duì)時(shí)間序列預(yù)測(cè)而設(shè)計(jì)的基于注意力機(jī)制的Transformer模型,它對(duì)傳統(tǒng)Transformer模型存在的幾個(gè)主要問(wèn)題進(jìn)行了優(yōu)化。這些問(wèn)題包括自注意力機(jī)制導(dǎo)致的高時(shí)間復(fù)雜度、多層堆疊引發(fā)的內(nèi)存瓶頸以及預(yù)測(cè)速度較慢等。為克服這些難題,Informer模型引入了概率稀疏自注意力機(jī)制,該機(jī)制有效降低了計(jì)算的時(shí)間復(fù)雜度和內(nèi)存消耗,大幅減少了計(jì)算成本,并增強(qiáng)了模型處理長(zhǎng)序列數(shù)據(jù)的能力。此外,為減少輸出維度和網(wǎng)絡(luò)參數(shù)數(shù)量,同時(shí)強(qiáng)化核心注意力信息,Informer模型還采用了自注意力蒸餾機(jī)制。該機(jī)制通過(guò)在每個(gè)注意力層后應(yīng)用正則化卷積與池化操作,將每層輸出量減半,使模型能夠更聚焦于關(guān)鍵信息,同時(shí)減輕了計(jì)算負(fù)擔(dān)。Informer模型還提出了并行生成式解碼器機(jī)制,使模型能夠在單次前向傳播過(guò)程中完成所有預(yù)測(cè)結(jié)果的輸出,不僅避免了誤差累積,還顯著提高了時(shí)間序列預(yù)測(cè)的速度和效率。這一改進(jìn)對(duì)于需要快速響應(yīng)和精確預(yù)測(cè)的應(yīng)用場(chǎng)景尤為重要。FWInformer模型在Informer模型的基礎(chǔ)上進(jìn)行了進(jìn)一步改進(jìn)。在輸入序列經(jīng)過(guò)概率稀疏自注意力機(jī)制和蒸餾操作后,還需歷經(jīng)一層快速傅里葉變換操作。這一步驟提高了特征數(shù)據(jù)的穩(wěn)定篩選能力,有助于更精確地識(shí)別數(shù)據(jù)的周期性特征。FWInformer模型總體架構(gòu)見圖1。

1.2 輸入模塊

編碼器的輸入序列由包含n個(gè)時(shí)間步長(zhǎng)(例如96 h)的用電量數(shù)據(jù)組成。通過(guò)引入絕對(duì)位置和時(shí)間編碼方法,對(duì)輸入序列進(jìn)行編碼,以確保在后續(xù)的特征提取過(guò)程中能夠獲得絕對(duì)位置和時(shí)間信息,輸入數(shù)據(jù)的編碼組合結(jié)構(gòu)見圖2。經(jīng)過(guò)蒸餾操作,每個(gè)小時(shí)的用電量數(shù)據(jù)被升維成d維(例如512維)的向量。因此,蒸餾操作后的輸出是一個(gè)包含n個(gè)token的序列,每個(gè)token代表一個(gè)時(shí)間步長(zhǎng)的用電量數(shù)據(jù),并且每個(gè)token由一個(gè)d維(512維)向量表示。這一輸出可用矩陣x表示,其大小為d×n。

解碼器的輸入由編碼器的輸入序列中對(duì)應(yīng)的標(biāo)簽值Xtoken 引導(dǎo),并附加一個(gè)標(biāo)量設(shè)為0的目標(biāo)序列占位符X0共同構(gòu)成。在完成Self-attention計(jì)算后,解碼器將這些輸入與編碼器輸出的Q(查詢向量)、K(鍵向量)、V(值向量)進(jìn)行Attention計(jì)算。

1.3 概率稀疏自注意力機(jī)制

Informer模型的概率稀疏自注意力機(jī)制解決了Transformer模型中注意力機(jī)制存在的分布不均問(wèn)題。在Transformer模型中,自注意力特征圖呈現(xiàn)長(zhǎng)尾分布,導(dǎo)致大部分成對(duì)點(diǎn)積映射的注意力分布不均衡。Informer模型采用KL散度(Kullback-Leibler divergence)來(lái)度量查詢向量的分布距離,通過(guò)與均勻分布的概率分布進(jìn)行對(duì)比,計(jì)算出相對(duì)熵。其中,第i個(gè)查詢向量的稀疏性通過(guò)以下度量公式計(jì)算:

[Mqi, K=lnj=1LKeqikTjd-1LKj=1LKqikTjd]," " " " "(1)

其中:qi表示第i個(gè)查詢向量,K表示全部鍵向量,kj表示第j個(gè)鍵向量,T表示矩陣的轉(zhuǎn)置,L表示序列長(zhǎng)度,d表示變量輸入維度。公式(1)中等式右邊第一項(xiàng)計(jì)算的是每個(gè)查詢向量相對(duì)于所有鍵向量的對(duì)數(shù)求和指數(shù)(LSE),用于度量各個(gè)鍵在每個(gè)查詢向量作用下的總體影響,第二項(xiàng)是所有鍵的點(diǎn)積值的算術(shù)平均值,能夠反映鍵向量對(duì)查詢向量的整體平均響應(yīng)。為避免梯度消失,還對(duì)數(shù)據(jù)進(jìn)行了歸一化處理。計(jì)算之后,隨機(jī)選擇u個(gè)點(diǎn)積對(duì),以將計(jì)算復(fù)雜度降低至O(LlnL)。基于上述方法,得到Informer模型的概率稀疏自注意力計(jì)算公式:

[A(Q, K, V)=Softmax(QKTd)V]," " " " " " "(2)

其中:A表示Attention機(jī)制,[Q]表示經(jīng)過(guò)隨機(jī)選擇后的查詢向量,K、V分別表示鍵向量和值向量組成的矩陣,Softmax是激活函數(shù)。

1.4 自注意力蒸餾機(jī)制

完成概率稀疏計(jì)算后,模型將對(duì)輸入序列進(jìn)行堆疊處理,并對(duì)每一層采用一維卷積和池化操作,以實(shí)現(xiàn)下采樣,從而解決長(zhǎng)輸入序列導(dǎo)致的內(nèi)存占用過(guò)高問(wèn)題。從j到j(luò)+1層的蒸餾操作過(guò)程的表達(dá)式如下:

[Xtj+1=MaxPoolingELUConv1dXtjAB]," (3)其中:Conv1d表示一維卷積操作,旨在提取局部特征,通過(guò)學(xué)習(xí)輸入序列中的模式,卷積操作能夠捕捉時(shí)間序列數(shù)據(jù)中的依賴關(guān)系;ELU是激活函數(shù),它能夠在保持正向信號(hào)不變的同時(shí),對(duì)負(fù)值部分進(jìn)行非線性變換,這一特性有助于加速訓(xùn)練過(guò)程并提高模型性能;MaxPooling表示對(duì)每一層進(jìn)行最大值池化操作,其目的在于減少特征圖的空間尺寸,即實(shí)現(xiàn)下采樣。MaxPooling通過(guò)選取每個(gè)局部區(qū)域內(nèi)的最大值保留最重要的信息,同時(shí)減少后續(xù)層的數(shù)據(jù)量和計(jì)算復(fù)雜度。自注意力蒸餾機(jī)制示意圖見圖3。

1.5 快速傅里葉變換

快速傅里葉變換(FFT)是一種高效算法,旨在利用計(jì)算技術(shù)加速離散傅里葉變換(DFT)的過(guò)程。其核心理念源于傅里葉變換理論和數(shù)據(jù)中潛在的稀疏性,通過(guò)優(yōu)化DFT的計(jì)算流程,特別是針對(duì)輸入數(shù)據(jù)的奇偶性和實(shí)虛部特性,顯著提升了算法效率。相較于傳統(tǒng)的離散傅里葉變換方法,F(xiàn)FT極大地加快了變換速度,使得處理大規(guī)模數(shù)據(jù)集成為可能,同時(shí)保持傅里葉分析的精確性,并大幅減少了所需的計(jì)算資源和時(shí)間。FFT機(jī)制的核心在于能夠更高效地處理序列信息,特別是在識(shí)別周期性模式和長(zhǎng)期依賴方面。通過(guò)FFT,序列的復(fù)雜交互得以簡(jiǎn)化,降低了復(fù)雜度,為后續(xù)的注意力計(jì)算提供了便利。

傅里葉變換層(Fourier Layer)接收一個(gè)形狀為(Q,K,V)的三維張量作為輸入。該輸入張量先沿著hidden_dim維度(默認(rèn)為第2維)進(jìn)行第1次離散傅里葉變換,再沿著seq_dim維度(默認(rèn)為第1維)進(jìn)行第2次離散傅里葉變換。這2次變換均通過(guò)離散傅里葉變換的高效算法函數(shù)來(lái)完成,其公式如下:

[Xk=k,n=0N-1xn?e-i?2πk?n/N]。" " " " " " "(4)

其中:X[k]表示輸出的第k個(gè)向量,x[n]表示輸入的序列數(shù)據(jù),N表示序列長(zhǎng)度,i表示虛數(shù)單位。

FFT算法利用DFT的對(duì)稱性和周期性,通過(guò)遞歸或迭代的方式,將DFT的計(jì)算復(fù)雜度從O(N2)降低到O(NlogN)。雖然FFT并未改變DFT的基本公式,但是顯著提高了計(jì)算效率。值得注意的是,由于傅里葉變換的結(jié)果包含復(fù)數(shù)部分,而實(shí)際應(yīng)用中通常在實(shí)數(shù)域內(nèi)進(jìn)行處理,因此完成兩次變換后,僅取結(jié)果的實(shí)部作為最終輸出。這樣,輸出張量的形狀仍然保持為(Q,K,V),但其元素均為實(shí)數(shù),如下:

[XQ, K, V=real]

[FFTFFTx,dim=hidden_dim,dim=seq_dim],(5)

其中:x表示輸入張量,F(xiàn)FT表示傅里葉變換函數(shù),real表示取實(shí)部操作。公式(5)展示了輸入張量x經(jīng)過(guò)2次傅里葉變換并取實(shí)部后得到輸出張量的過(guò)程。

1.6 輸出模塊

在解碼器完成其執(zhí)行過(guò)程后,將進(jìn)行全連接層的操作以整合特征。全連接層作為神經(jīng)網(wǎng)絡(luò)架構(gòu)中的一個(gè)關(guān)鍵組件,由一組節(jié)點(diǎn)構(gòu)成,每個(gè)節(jié)點(diǎn)均與前一層和后一層的所有節(jié)點(diǎn)相連。這種點(diǎn)對(duì)點(diǎn)的連接模式使得全連接層能夠綜合處理來(lái)自之前層(如Informer模型的特征提取階段)的信息。全連接層模仿生物神經(jīng)系統(tǒng)中神經(jīng)元間的密集連接,具備強(qiáng)大的信息整合能力,能將局部具有分類意義的特征映射為全局描述。在神經(jīng)網(wǎng)絡(luò)中,全連接層的作用之一是將卷積層或池化層輸出的空間或時(shí)間上的局部特征轉(zhuǎn)化為更高層次的抽象表示。為增強(qiáng)模型性能,全連接層通常會(huì)應(yīng)用激活函數(shù),如ReLU、Softmax等。ReLU函數(shù)能加速訓(xùn)練過(guò)程并緩解梯度消失問(wèn)題,而Softmax函數(shù)則常用于多分類任務(wù),通過(guò)將輸出轉(zhuǎn)換為概率分布來(lái)輔助分類決策。在Informer模型中,針對(duì)具體任務(wù)選擇適當(dāng)?shù)膿p失函數(shù)至關(guān)重要,因?yàn)樗笇?dǎo)模型的學(xué)習(xí)方向。全連接層傾向于使用Softmax函數(shù)配合交叉熵?fù)p失進(jìn)行最終的數(shù)據(jù)分類或預(yù)測(cè)生成,這有助于提高模型的分類準(zhǔn)確性,并確保輸出結(jié)果的概率解釋性。模型最終采用批量生成式預(yù)測(cè),直接輸出所有預(yù)測(cè)結(jié)果,從而提高長(zhǎng)序列的預(yù)測(cè)速度,公式如下:

[Xtfeed_de=ConcatXttoken, Xt0∈RLtoken+Lydm] ," " "(6)

其中:[Xtfeed_de]代表輸入序列中的動(dòng)態(tài)采樣部分,[Xttoken]代表序列的長(zhǎng)度。在自注意機(jī)制中,采用masked多頭注意力技術(shù)的關(guān)鍵在于將不合規(guī)的點(diǎn)積值設(shè)為負(fù)無(wú)窮大([-∞]),以確保每個(gè)位置不會(huì)獲取到其后續(xù)位置的信息,從而避免自回歸現(xiàn)象。最終的輸出結(jié)果來(lái)自全連接層,并且該層的規(guī)模會(huì)根據(jù)預(yù)測(cè)任務(wù)是單變量還是多變量而相應(yīng)調(diào)整。

2 實(shí)驗(yàn)內(nèi)容

2.1 數(shù)據(jù)集

本文數(shù)據(jù)來(lái)源于美國(guó)亞利桑那州立大學(xué)(Arizona State University)2021—2023年的23 847條變壓器用電量數(shù)據(jù),以及同期從美國(guó)國(guó)家海洋和大氣管理局(National Oceanic and Atmospheric Administration,NOAA)獲取的亞利桑那州立大學(xué)附近氣象站的氣象數(shù)據(jù)。數(shù)據(jù)單位時(shí)間為 1 h,并按照 7∶2∶1 的比例劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集。數(shù)據(jù)集特征包括Temperature(溫度)、Dew Point Temperature(露點(diǎn)溫度)、Pressure(氣壓)、Wind direction(風(fēng)向)和Wind speed(風(fēng)速)。

在使用數(shù)據(jù)集之前,需進(jìn)行數(shù)據(jù)預(yù)處理,包括缺失值處理和數(shù)據(jù)歸一化處理。針對(duì)缺失值處理問(wèn)題,考慮到電力數(shù)據(jù)存在較強(qiáng)的波動(dòng)性和隨機(jī)性,導(dǎo)致局部數(shù)據(jù)缺失的情況時(shí)有發(fā)生。對(duì)于大范圍的連續(xù)數(shù)據(jù)缺失,選擇使用歷史同期數(shù)據(jù)進(jìn)行填充;而對(duì)于小范圍缺失的部分,則通過(guò)計(jì)算前后數(shù)據(jù)的平均值進(jìn)行填充。數(shù)據(jù)歸一化的目的在于消除不同特征之間因量綱差異帶來(lái)的影響,從而提高模型訓(xùn)練的收斂速度和穩(wěn)定性。本文采用Min-Max歸一化方法,將各特征的數(shù)據(jù)數(shù)值范圍統(tǒng)一映射至[0,1]區(qū)間內(nèi),以確保每個(gè)特征對(duì)模型的影響權(quán)重更加均衡。具體的轉(zhuǎn)換公式如下:

[x=x-xminxmax-xmin]," " " " " " " " " " " " " " "(7)

其中:[x]表示原始數(shù)據(jù)值,[xmin]和[xmax]分別表示該特征下的最小值和最大值,[x]表示歸一化后的數(shù)據(jù)值。

為了使預(yù)測(cè)結(jié)果更貼近實(shí)際情況,本文在完成模型預(yù)測(cè)后還進(jìn)行了反歸一化操作。該過(guò)程將預(yù)測(cè)值及其誤差從歸一化后的[0, 1]區(qū)間還原至其原始的數(shù)據(jù)值范圍,以精確呈現(xiàn)預(yù)測(cè)誤差的實(shí)際意義和大小。

2.2 實(shí)驗(yàn)評(píng)價(jià)標(biāo)準(zhǔn)

實(shí)驗(yàn)選用均方誤差(MSE)作為模型預(yù)測(cè)評(píng)價(jià)指標(biāo)之一,MSE通過(guò)計(jì)算每個(gè)預(yù)測(cè)值與對(duì)應(yīng)真實(shí)值之差的平方的平均值,量化模型的預(yù)測(cè)精度。MSE不僅能反映模型的整體預(yù)測(cè)精度,還能凸顯預(yù)測(cè)偏差較大的情況。另一評(píng)價(jià)指標(biāo)為平均絕對(duì)誤差(MAE),它通過(guò)計(jì)算預(yù)測(cè)值與對(duì)應(yīng)真實(shí)值之差的絕對(duì)值的平均值,同樣量化模型的預(yù)測(cè)精度。MSE和MAE的公式如下:

[MSE=1mi=1myi-yi2]," " " " " " " " " " (8)

[MAE=1mi=1myi-yi]," " " " " " " " " "(9)

其中:m為測(cè)試數(shù)據(jù)集大小,[yi]表示第i個(gè)樣本的預(yù)測(cè)值,[yi]表示第i個(gè)樣本的實(shí)際值。

2.3 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)代碼采用 Python語(yǔ)言及第三方庫(kù)編寫,深度學(xué)習(xí)環(huán)境選用 Pytorch框架,并在 GPU(圖形處理單元)上進(jìn)行模型訓(xùn)練。模型訓(xùn)練使用的部分參數(shù)設(shè)置見表1。

實(shí)驗(yàn)部分主要對(duì)比了FWInformer模型與Informer模型在MSE和MAE這兩項(xiàng)指標(biāo)下的表現(xiàn)(表2)。結(jié)果顯示,在不同預(yù)測(cè)步長(zhǎng)下,F(xiàn)WInformer模型的性能評(píng)估指標(biāo)均優(yōu)于Informer模型。FWInformer 模型通過(guò)引入快速傅里葉變換, 增強(qiáng)了模型的魯棒性,豐富了特征多樣性, 并提升了結(jié)構(gòu)信息的提取和保留能力,從而在多步預(yù)測(cè)過(guò)程中取得了更優(yōu)的效果。具體而言,在預(yù)測(cè)步長(zhǎng)為96 h時(shí),F(xiàn)WInformer模型的MSE和MAE分別為0.34和0.44,相較于Informer模型的0.45和0.50,分別降低了約24%和12%,充分表明了FWInformer模型的性能優(yōu)于原始的Informer模型。

此外,在對(duì)模型的穩(wěn)定性進(jìn)行的測(cè)試中,通過(guò)在不同數(shù)據(jù)子集上重復(fù)進(jìn)行訓(xùn)練和測(cè)試,發(fā)現(xiàn)FWInformer模型的預(yù)測(cè)結(jié)果展現(xiàn)出較高的一致性和魯棒性。FWInformer模型與Informer模型數(shù)據(jù)子集模型預(yù)測(cè)結(jié)果對(duì)比(截取)見圖4。

3 結(jié)論

本文針對(duì)區(qū)域電力負(fù)荷預(yù)測(cè),提出了一種基于改進(jìn)Informer的電力負(fù)荷預(yù)測(cè)模型——FWInformer。通過(guò)實(shí)際場(chǎng)景中使用電力數(shù)據(jù)與氣象數(shù)據(jù)進(jìn)行實(shí)驗(yàn)驗(yàn)證,并與Informer模型進(jìn)行對(duì)比,結(jié)果表明,F(xiàn)WInformer模型在不同預(yù)測(cè)步長(zhǎng)下均展現(xiàn)出優(yōu)異性能。其優(yōu)勢(shì)主要是通過(guò)引入快速傅里葉變換,增強(qiáng)了模型對(duì)序列數(shù)據(jù)特征信息的提取的能力,同時(shí)減輕了計(jì)算負(fù)擔(dān),提升了模型的魯棒性。FWInformer模型能有效捕捉電力負(fù)荷數(shù)據(jù)的周期性和長(zhǎng)期依賴性,從而提高了預(yù)測(cè)的精度和效率。未來(lái)的研究方向可進(jìn)一步探索該模型在不同地區(qū)和不同規(guī)模電力系統(tǒng)中的應(yīng)用,并研究其他類型因素(如突發(fā)事件、經(jīng)濟(jì)指標(biāo)等)對(duì)電力數(shù)據(jù)的影響,以期進(jìn)一步提升預(yù)測(cè)的準(zhǔn)確性和適用性。

4 參考文獻(xiàn)

[1]趙婷婷,韓雅杰,楊夢(mèng)楠,等.基于機(jī)器學(xué)習(xí)的時(shí)序數(shù)據(jù)預(yù)測(cè)方法研究綜述[J].天津科技大學(xué)學(xué)報(bào),2021,36(5):1-9.

[2]ZHOU H.,LI J.,ZHANG S,et al.Expanding the prediction capacity in long sequence time-series forecasting[J].Artificial Intelligence,2023,Vol.318:103886.

[3]朱莉,韓凱萍,朱春強(qiáng).二次分解策略組合Informer的短期電力負(fù)荷預(yù)測(cè)方法[J].國(guó)外電子測(cè)量技術(shù),2023,42(6):23-32.

[4]魏震波,余雷.基于FFT,DC-HC及LSTM的短期負(fù)荷預(yù)測(cè)方法[J].智慧電力,2022,50(3):37-43.

[5]許越,李強(qiáng),崔暉.基于MIC-EEMD-改進(jìn)Informer的含高比例清潔能源與儲(chǔ)能的電力市場(chǎng)短期電價(jià)多步預(yù)測(cè)[J].電網(wǎng)技術(shù),2024,48(3):949-958.

[6]席禹,孟令雯,班國(guó)邦,等.基于Informer的變電站設(shè)備狀態(tài)數(shù)據(jù)清洗方法[J].制造業(yè)自動(dòng)化,2023,45(9):15-21.

【作者簡(jiǎn)介】唐博,男,湖南長(zhǎng)沙人,在讀碩士研究生,研究方向:工業(yè)大數(shù)據(jù);王志兵,男,湖南邵東人,碩士,副教授,研究方向:大數(shù)據(jù)、軟件工程。

【引用本文】唐博,王志兵.基于改進(jìn)Informer模型的區(qū)域電力負(fù)荷預(yù)測(cè)[J].企業(yè)科技與發(fā)展,2024(12):12-16.

猜你喜歡
傅里葉變換注意力機(jī)制
面向短文本的網(wǎng)絡(luò)輿情話題
基于自注意力與動(dòng)態(tài)路由的文本建模方法
基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
軟件工程(2017年11期)2018-01-05 08:06:09
InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
傅里葉變換證明拉普拉斯變換的性質(zhì)
《信號(hào)與系統(tǒng)》中傅里葉變換在OFDM移動(dòng)通信系統(tǒng)中的應(yīng)用
亞太教育(2016年34期)2016-12-26 13:19:56
《數(shù)字信號(hào)處理》中存在的難點(diǎn)問(wèn)題解析
亞太教育(2016年34期)2016-12-26 12:51:31
關(guān)于一類發(fā)展方程求解方法的探討
永登县| 楚雄市| 色达县| 嘉鱼县| 乌兰察布市| 横山县| 郑州市| 繁峙县| 武穴市| 九寨沟县| 金秀| 定襄县| 武汉市| 虞城县| 磐石市| 海门市| 四会市| 山东省| 监利县| 连江县| 武安市| 岐山县| 渑池县| 时尚| 黄梅县| 和田市| 永修县| 高雄县| 高邮市| 西林县| 达尔| 鄂伦春自治旗| 汶川县| 辉南县| 海盐县| 昌乐县| 太康县| 百色市| 宜宾县| 桃江县| 阿荣旗|