国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于聚類特征及seq2seq深度CNN的家電負(fù)荷識(shí)別方法研究

2023-10-19 00:52:26汪繁榮向堃吳鐵洲
電測(cè)與儀表 2023年10期
關(guān)鍵詞:用電卷積聚類

汪繁榮,向堃,吳鐵洲

(1.湖北工業(yè)大學(xué) 太陽(yáng)能高效利用及儲(chǔ)能運(yùn)行控制湖北省重點(diǎn)實(shí)驗(yàn)室,武漢 430068;2.無(wú)錫風(fēng)繁偉業(yè)科技有限公司,江蘇 無(wú)錫 214171)

0 引 言

非侵入式負(fù)荷監(jiān)測(cè)(Non-Intrusive Load Monitoring,NILM)由Hart提出[1],也稱為非侵入式負(fù)荷分解(Non-Intrusive Load Decomposition,NILD)。它通過(guò)在用戶用電系統(tǒng)入口處安裝監(jiān)測(cè)設(shè)備收集其用電負(fù)荷數(shù)據(jù)對(duì)用戶內(nèi)部用電負(fù)荷進(jìn)行細(xì)分及能耗合理分配[2]。由于智能電表的普及和大數(shù)據(jù)技術(shù)的發(fā)展,NILD受到了更多關(guān)注。

特征選擇是NILD中的重要環(huán)節(jié),一般來(lái)說(shuō)有暫態(tài)特征和穩(wěn)態(tài)特征兩種[3]。暫態(tài)特征主要是用電設(shè)備投切或狀態(tài)類別變換時(shí)的參數(shù)變化特征。文獻(xiàn)[4]利用小波分解提取暫態(tài)特征,并用深度置信網(wǎng)絡(luò)對(duì)其波形進(jìn)行類別識(shí)別,有較好的辨識(shí)精度,但是其數(shù)據(jù)來(lái)自軟件模擬數(shù)據(jù),若用于實(shí)際中還需進(jìn)一步檢驗(yàn)。文獻(xiàn)[5]利用多尺度排列熵算法確定設(shè)備狀態(tài)變化區(qū)間提取設(shè)備暫態(tài)特征然后利用Yamamoto算法進(jìn)行區(qū)間檢測(cè),辨識(shí)用電設(shè)備啟停時(shí)刻實(shí)現(xiàn)負(fù)荷分解,該方法有較好的降噪和辨識(shí)效果。文獻(xiàn)[6]利用主成分分析法進(jìn)行降維來(lái)構(gòu)造低維度的特征空間,之后通過(guò)KNN鄰近算法完成負(fù)荷分解。這類基于暫態(tài)特征的NILD方法對(duì)于收集數(shù)據(jù)的軟硬件設(shè)備要求較高,在實(shí)際運(yùn)用中有一定的局限性。穩(wěn)態(tài)特征包括穩(wěn)態(tài)電壓、電流、有無(wú)功率等數(shù)據(jù)特征,隨著智能電表的普及與發(fā)展,圍繞穩(wěn)態(tài)特征的NILD方法層出不窮。由于深度學(xué)習(xí)在各個(gè)領(lǐng)域表現(xiàn)突出[7-8],所以近年來(lái)其在非侵入式負(fù)荷分解領(lǐng)域的應(yīng)用也逐漸增多。文獻(xiàn)[9]利用深度學(xué)習(xí)的框架,提出了新的非侵入式負(fù)荷分解模型,其利用詞嵌入處理輸入數(shù)據(jù)然后利用單層雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)和單層單向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)分別編碼解碼,其中加入注意力機(jī)制,最終得到負(fù)荷分解序列,其分解效果明顯。文獻(xiàn)[10]將穩(wěn)態(tài)特征數(shù)據(jù)圖像化后進(jìn)行辨識(shí),利用局部平均分解法對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)處理然后基于卷積神經(jīng)網(wǎng)絡(luò)對(duì)家用電設(shè)備的負(fù)荷特征進(jìn)行提取,最后經(jīng)過(guò)softmax層概率輸出分解結(jié)果。文獻(xiàn)[11]利用循環(huán)卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)總功率進(jìn)行負(fù)荷分解,在利用深度學(xué)習(xí)模型的時(shí)候沒(méi)有建立負(fù)荷特征集,導(dǎo)致精度、魯棒性下降。以上文章都建立了比較優(yōu)秀的深度學(xué)習(xí)應(yīng)用模型,但大多數(shù)深度學(xué)習(xí)的非侵入式負(fù)荷分解方法忽略了對(duì)多個(gè)用電器同時(shí)運(yùn)行情況下進(jìn)行分解分析比較,其一是因?yàn)槎鄠€(gè)用電設(shè)備同時(shí)運(yùn)行時(shí)會(huì)造成數(shù)據(jù)混疊難以分辨,其二是輸入數(shù)據(jù)復(fù)雜,難以精確辨識(shí)。

為解決辨識(shí)精度低,需要考慮多個(gè)用電設(shè)備同時(shí)工作等問(wèn)題,本文利用深度學(xué)習(xí)的框架,提出一種基于改進(jìn)k-means迭代聚類算法數(shù)據(jù)集結(jié)合序列到序列(sequence-to-sequence,seq2seq)的一維深層卷積神經(jīng)網(wǎng)絡(luò)的(One-Dimensional Deep Convolutional Neural Network,1-D-DCNN)非侵入式負(fù)荷分解方法(km++-1-D-DCNN),通過(guò)數(shù)據(jù)的訓(xùn)練和測(cè)試,與再次建立的seq2seq單、多層,單、雙向長(zhǎng)短時(shí)記憶(Long Short-Term Memory,LSTM、Bilateral Long Short-Term Memory,Bi-LSTM)網(wǎng)絡(luò)模型以及常用的廣義回歸神經(jīng)網(wǎng)絡(luò)(General Regression Neural Network,GRNN)模型、反向傳播神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)模型進(jìn)行對(duì)比,根據(jù)所有設(shè)備共同的狀態(tài)識(shí)別準(zhǔn)確率以及單個(gè)設(shè)備各狀態(tài)識(shí)別準(zhǔn)確率等評(píng)價(jià)指標(biāo)驗(yàn)證本文方法的有效性。

1 用電設(shè)備負(fù)荷特征集建立

將深度學(xué)習(xí)模型應(yīng)用于非侵入式負(fù)荷分解問(wèn)題時(shí),建立用于網(wǎng)絡(luò)訓(xùn)練所需的用電設(shè)備負(fù)荷特征數(shù)據(jù)集是關(guān)鍵環(huán)節(jié)[12]。由于長(zhǎng)時(shí)間采集用電設(shè)備負(fù)荷具有較大的實(shí)現(xiàn)難度,且種種原因?qū)е掠秒娯?fù)荷會(huì)存在真空區(qū)間即沒(méi)有用電設(shè)備運(yùn)行狀態(tài),因此,通過(guò)獲取典型用電設(shè)備短時(shí)間運(yùn)行數(shù)據(jù)或?qū)㈤L(zhǎng)時(shí)間數(shù)據(jù)進(jìn)行截?cái)嘁蕴崛∝?fù)荷特征,然后生成大量設(shè)備訓(xùn)練數(shù)據(jù)是目前一種較為理想可行的方法。

1.1 設(shè)備狀態(tài)特征提取

用電設(shè)備的不同運(yùn)行狀態(tài)特征可以通過(guò)聚類方法對(duì)負(fù)荷數(shù)據(jù)進(jìn)行挖掘得到。在聚類過(guò)程中,簇中心數(shù)目會(huì)影響聚類效果即影響用電設(shè)備運(yùn)行狀態(tài)的提取,簇中心數(shù)目過(guò)少會(huì)造成聚類不徹底,部分近似質(zhì)點(diǎn)無(wú)法分開(kāi),導(dǎo)致用電設(shè)備提取不全;簇中心數(shù)目過(guò)多則會(huì)使用電設(shè)備運(yùn)行狀態(tài)類別增加,甚至聚類過(guò)細(xì)產(chǎn)生用電設(shè)備實(shí)際所不存在的運(yùn)行狀態(tài),進(jìn)而增加分解算法的復(fù)雜度。本文在k-means聚類算法的基礎(chǔ)上利用k-means++算法進(jìn)行簇中心初始化并引入輪廓值指標(biāo)以篩選更加有效的聚類數(shù)目,然后迭代執(zhí)行避免結(jié)果陷入局部最優(yōu),最后使用新的初始簇中心位置尋求更為合理的聚類方案。輪廓值是該點(diǎn)與其自身聚類中的點(diǎn)的相似程度的度量。第i個(gè)點(diǎn)的輪廓值A(chǔ)i定義為:

Ai=(bi-ai)/max(ai,bi)

(1)

式中ai是從第i個(gè)點(diǎn)到與i相同的簇集中其他點(diǎn)的平均距離;bi是從第i個(gè)點(diǎn)到不同簇集中的點(diǎn)的最小平均距離。輪廓值的范圍為-1到1。較高的輪廓值表示i與其自身的簇集完全匹配,若大多數(shù)點(diǎn)具有較高的輪廓值,則聚類結(jié)果是合適的。反之,則聚類結(jié)果不合適。k-means++算法使用啟發(fā)式方法尋找k-means聚類的質(zhì)心,改進(jìn)了原k-means聚類算法中Lloyd[13]算法的運(yùn)行時(shí)間和最終解質(zhì)量。

k-means++算法按如下方式選擇質(zhì)心,假設(shè)簇?cái)?shù)為K[14]:

(1)從數(shù)據(jù)集X中隨機(jī)均勻選擇一個(gè)觀測(cè)值該值為第一個(gè)質(zhì)心c1;

(2)計(jì)算從每個(gè)觀測(cè)值到c1的距離,將cj和觀測(cè)值m之間的距離表示為d(xm,cj);

(3)從X中隨機(jī)選擇下一個(gè)質(zhì)心c2,概率為:

(2)

(4)選擇中心cj有以下操作:

1)計(jì)算從每個(gè)觀測(cè)值到每個(gè)質(zhì)心的距離,并將每個(gè)觀測(cè)值分配給其最近的質(zhì)心;

2)對(duì)于m=1,…,n和p=1,…,j-1,從X中隨機(jī)選擇質(zhì)心cj,概率為:

(3)

式中Cp是最接近質(zhì)心cp的所有觀測(cè)值的集合,而xm屬于Cp。也就是說(shuō),選擇每個(gè)后續(xù)中心時(shí),其選擇概率與它到已選最近中心的距離成比例。

(5)重復(fù)步驟(4),直到選擇了K個(gè)質(zhì)心。

本文提出的改進(jìn)迭代k-means聚類方法步驟如下:

1)給定數(shù)據(jù)集X,選擇K個(gè)初始簇中心(質(zhì)心),使用k-means++算法進(jìn)行簇中心初始化;

2)計(jì)算所有觀測(cè)值到每個(gè)質(zhì)心的點(diǎn)到簇質(zhì)心的距離;

3)兩階段迭代更新:一階段批量更新,將每個(gè)觀測(cè)值分配給離質(zhì)心最近的簇。二階段在線更新,只要將觀測(cè)值重新分配給另一質(zhì)心可減少簇內(nèi)點(diǎn)到質(zhì)心距離平方和的總和,就對(duì)該觀測(cè)值執(zhí)行此分配;

4)計(jì)算每個(gè)簇中觀測(cè)值的平均值,以獲得K個(gè)新質(zhì)心位置;

5)重復(fù)步驟2)~步驟4),直到簇分配不變,或達(dá)到最大迭代次數(shù);

6)再次重復(fù)1)~步驟5),迭代n次,尋找距離總合最小的解。

1.2 數(shù)據(jù)預(yù)處理及設(shè)備負(fù)荷特征的挖掘

本文使用文獻(xiàn)[15]數(shù)據(jù)集,該數(shù)據(jù)集包含21個(gè)家庭2013年10月到2015年5月的10種不同用電設(shè)備的單個(gè)負(fù)荷有功功率數(shù)據(jù)和總負(fù)荷有功功率數(shù)據(jù),采樣時(shí)間為8秒。因?yàn)橛行┘彝サ臄?shù)據(jù)不全,本文選取了2號(hào)家庭的冰箱、洗衣機(jī)、電視、水壺4個(gè)主要用電設(shè)備的有功功率數(shù)據(jù)。電視為小功率用電設(shè)備,水壺為大功率用電設(shè)備,冰箱為長(zhǎng)時(shí)間工作設(shè)備,洗衣機(jī)為多狀態(tài)工作設(shè)備,這些設(shè)備能夠較好的驗(yàn)證后文分解方法的性能。為了建立用電設(shè)備負(fù)荷特征集,首先對(duì)原始數(shù)據(jù)進(jìn)行預(yù)處理,本文取各用電設(shè)備有功功率數(shù)據(jù)中前100萬(wàn)個(gè)采樣點(diǎn)數(shù)據(jù)并將各個(gè)用電設(shè)備運(yùn)行狀態(tài)的有功功率消耗數(shù)據(jù)提出且剔除相同時(shí)間的功率消耗數(shù)據(jù),設(shè)立提取參數(shù)以保證數(shù)據(jù)的有效性,表1展示了各用電設(shè)備參數(shù)。數(shù)據(jù)篩選后,為保證工作狀態(tài)和非工作狀態(tài)的區(qū)別,需將采樣點(diǎn)數(shù)量大于8萬(wàn)點(diǎn)的用電設(shè)備數(shù)據(jù)序列隨機(jī)抽取8萬(wàn)點(diǎn),再用0補(bǔ)長(zhǎng)序列長(zhǎng)度到10萬(wàn)點(diǎn),反之若數(shù)據(jù)小于8萬(wàn)點(diǎn)則直接將原序列用0補(bǔ)長(zhǎng)至10萬(wàn)點(diǎn)長(zhǎng)度。

表1 主要用電設(shè)備提取參數(shù)及序列長(zhǎng)度

數(shù)據(jù)篩選后,將采樣點(diǎn)數(shù)量大于8萬(wàn)點(diǎn)的用電設(shè)備數(shù)據(jù)序列隨機(jī)抽取8萬(wàn)點(diǎn),再用0補(bǔ)長(zhǎng)序列至10萬(wàn)點(diǎn)長(zhǎng)度,反之直接將原序列用0補(bǔ)長(zhǎng)至10萬(wàn)點(diǎn)長(zhǎng)度。接下來(lái)利用本文所提出的聚類方法對(duì)各用電設(shè)備運(yùn)行狀態(tài)進(jìn)行提取建立負(fù)荷特征集,輸入數(shù)據(jù)為1維數(shù)據(jù),距離度量選用絕對(duì)差之和,重復(fù)聚類次數(shù)為100。各用電設(shè)備運(yùn)行狀態(tài)聚類結(jié)果如表2所示。

表2 各設(shè)備運(yùn)行狀態(tài)聚類結(jié)果

表中K為聚類數(shù)目,即用電設(shè)備運(yùn)行狀態(tài)數(shù)量(包含不工作狀態(tài),即簇中心值為0),一般來(lái)說(shuō)家用電器運(yùn)行狀態(tài)不會(huì)超過(guò)6個(gè),所以K取值最大為6。冰箱、電視和水壺均為2種運(yùn)行狀態(tài),其輪廓值在K=2時(shí)也是最大的,洗衣機(jī)雖然在K=2時(shí)輪廓值最大但就實(shí)際運(yùn)行情況來(lái)看其運(yùn)行狀態(tài)不只2個(gè),所以取次大值K=4為其最終結(jié)果。圖1展示了冰箱和洗衣機(jī)的聚類效果。冰箱的聚類效果較好,每個(gè)簇中輪廓值均較大且無(wú)負(fù)值點(diǎn),洗衣機(jī)雖有負(fù)值點(diǎn)但數(shù)量較少,且其他簇分布良好。

圖1 冰箱和洗衣機(jī)聚類效果

2 深度學(xué)習(xí)與非侵入式負(fù)荷分解

深度學(xué)習(xí)已經(jīng)廣泛應(yīng)用于多個(gè)領(lǐng)域,作為機(jī)器學(xué)習(xí)的一個(gè)重要分支,簡(jiǎn)單來(lái)說(shuō)其領(lǐng)域的多種算法就是深層的神經(jīng)網(wǎng)絡(luò)算法。卷積神經(jīng)網(wǎng)絡(luò)在圖像處理領(lǐng)域一直以來(lái)有出色的表現(xiàn),處理二維數(shù)據(jù)時(shí)具有很大優(yōu)勢(shì)[14]。就上一節(jié)建立的設(shè)備狀態(tài)特征數(shù)據(jù)集,本文將輸入的一維數(shù)據(jù)(總有功功率)進(jìn)行增維擴(kuò)增至4維矩陣作為模型的輸入,完成數(shù)據(jù)轉(zhuǎn)化,實(shí)質(zhì)上數(shù)值沒(méi)有改變,提出一種序列到序列的一維深層卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行負(fù)荷辨識(shí),完成非侵入式負(fù)荷分解,分解模型流程如圖2所示。另外,在負(fù)荷分解的過(guò)程中,每個(gè)用電設(shè)備都有其時(shí)間特性或其它未知特性,所以本文還構(gòu)建了LSTM和Bi-LSTM網(wǎng)絡(luò)模型進(jìn)行負(fù)荷辨識(shí)。

圖2 非侵入式負(fù)荷分解模型流程圖

2.1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)中包含卷積層、池化層、全連接層等基本功能層。各個(gè)層具有獨(dú)立的神經(jīng)元,不同層神經(jīng)元間相互連接,同層神經(jīng)元間無(wú)連接[16]。卷積層計(jì)算公式為:

(4)

(5)

(6)

(7)

(8)

圖3 卷積神經(jīng)網(wǎng)絡(luò)運(yùn)算流程圖

2.2 一維深層卷積神經(jīng)網(wǎng)絡(luò)

圖4為深層卷積神經(jīng)網(wǎng)絡(luò)的層構(gòu)圖,本文在常用的卷積神經(jīng)網(wǎng)絡(luò)利用二維數(shù)據(jù)圖分類的基礎(chǔ)上,改進(jìn)輸入層數(shù)據(jù)形式(本質(zhì)還是通過(guò)2維卷積來(lái)實(shí)現(xiàn)分類),達(dá)到1維時(shí)間序列輸入實(shí)現(xiàn)分類的目的,并加深網(wǎng)絡(luò)層數(shù)使其提取特征魯棒性更強(qiáng),分類結(jié)果更加精確。一維深層神經(jīng)網(wǎng)絡(luò)的輸入是總有功功率序列轉(zhuǎn)化的4-D矩陣。總有功功率序列為1×n行向量,將其重構(gòu)成1×1×1×n的矩陣,其中前兩維表示1×1像素,第3維1表示灰度顏色通道,第4維n表示序列長(zhǎng)度。深層卷積網(wǎng)絡(luò)由輸入層、A類層、B類層、全連接層、softmax層和分類層組成,共47層。A類層一共10組40層,每組由2-D卷積層、批量歸一化層、Relu函數(shù)層以及最大池化層構(gòu)成,每層2-D卷積層過(guò)濾器數(shù)量分別為8/16/32/64/128/256/512/1024/2048/4096,大小均為1×1。B類層由2-D卷積層(過(guò)濾器數(shù)量為8 192,大小為1×1)、批量歸一化層和Relu函數(shù)層組成。為了使該模型辨識(shí)效果更好,在訓(xùn)練模型時(shí)加入了更多的網(wǎng)絡(luò)參數(shù),為防止模型過(guò)度擬合加入了L2正則化因子[17],其值為0.000 5,使用具有動(dòng)量的梯度隨機(jī)下降(SGDM)優(yōu)化器訓(xùn)練網(wǎng)絡(luò),動(dòng)量大小為0.97,梯度閾值為0.5,最大迭代數(shù)為300,在每一代訓(xùn)練時(shí)增加數(shù)據(jù)混淆,初始學(xué)習(xí)率為0.01,為了效果更佳設(shè)定學(xué)習(xí)率梯度下降,每過(guò)50代學(xué)習(xí)率在原有基礎(chǔ)上乘0.2。

圖4 深層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

2.3 LSTM和BI-LSTM神經(jīng)網(wǎng)絡(luò)

LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它解決了長(zhǎng)依賴問(wèn)題,在處理時(shí)間序列時(shí)有良好的表現(xiàn)[18-19]。隨著研究深入,根據(jù)雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bi-RNN)特性,一種Bi-LSTM神經(jīng)網(wǎng)絡(luò)也被廣泛運(yùn)用,其實(shí)現(xiàn)了信息雙向傳遞,在處理已知序列時(shí),性能優(yōu)于單向LSTM神經(jīng)網(wǎng)絡(luò)[20-22]。

為了驗(yàn)證文中所提方法的有效性,本文還建立了seq2seq的LSTM神經(jīng)網(wǎng)絡(luò)和seq2seq的Bi-LSTM神經(jīng)網(wǎng)絡(luò)模型。LSTM神經(jīng)網(wǎng)絡(luò)由序列輸入層、LSTM層、全連接層、dropout層(值為0.1)、softmax層以及分類層組成。網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)置如下,使用具有動(dòng)量的梯度隨機(jī)下降(SGDM)優(yōu)化器訓(xùn)練網(wǎng)絡(luò),動(dòng)量大小為0.97,L2正則化因子為0.000 5,梯度閾值為2,最大迭代數(shù)400,小批量訓(xùn)練大小為500,初始學(xué)習(xí)率0.01,每過(guò)50代學(xué)習(xí)率在原有基礎(chǔ)上乘0.2。Bi-LSTM神經(jīng)網(wǎng)絡(luò)由序列輸入層、Bi-LSTM層、全連接層、dropout層(值為0.2)、softmax層以及分類層組成。網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)置如下,使用具有動(dòng)量的梯度隨機(jī)下降(SGDM)優(yōu)化器訓(xùn)練網(wǎng)絡(luò),動(dòng)量大小為0.97,L2正則化因子為0.000 5,梯度閾值為1,最大迭代數(shù)300,小批量訓(xùn)練大小為500,初始學(xué)習(xí)率0.01,每過(guò)50代學(xué)習(xí)率在原有基礎(chǔ)上乘0.2。由于實(shí)驗(yàn)測(cè)試得知增加LSTM層和Bi-LSTM層層數(shù)會(huì)導(dǎo)致辨識(shí)效果很差,所以不再建立更深的LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)。

3 實(shí)驗(yàn)分析

本文將運(yùn)用第1節(jié)已經(jīng)處理過(guò)的用電設(shè)備特征數(shù)據(jù)集結(jié)合第2節(jié)介紹的深度學(xué)習(xí)分類模型來(lái)完成非侵入式負(fù)荷分解。為驗(yàn)證本文提出模型的性能,選取4種典型用電設(shè)備,根據(jù)家庭2的用電情況整理了12種設(shè)備用電狀態(tài),每種用電設(shè)備與其對(duì)應(yīng)的運(yùn)行狀態(tài)編碼方式如表3所示,其中冰箱、電視、水壺有2種狀態(tài)(2表示運(yùn)行,1表示非運(yùn)行),洗衣機(jī)有4種狀態(tài)(2~4為3個(gè)不同運(yùn)行狀態(tài),1表示非運(yùn)行)。網(wǎng)絡(luò)的訓(xùn)練集一共12組12 000個(gè)采樣點(diǎn),每組1 000個(gè)數(shù)據(jù),測(cè)試集與訓(xùn)練集不重復(fù),為10 000個(gè)采樣點(diǎn)數(shù)據(jù)序列,該序列具有時(shí)序性。網(wǎng)絡(luò)輸入為用電設(shè)備總有功功率序列,即1×1×1×120004-D矩陣,輸出為12個(gè)。

表3 用電設(shè)備運(yùn)行編碼數(shù)據(jù)表

非侵入式負(fù)荷分解評(píng)價(jià)指標(biāo)有很多,本文選取了6種評(píng)價(jià)指標(biāo):準(zhǔn)確度、精確率、召回率、F分?jǐn)?shù)、均方根誤差以及平均功率失真率。其計(jì)算方法如下:

(9)

(10)

(11)

(12)

(13)

(14)

式中QP為模型分解結(jié)果與實(shí)際結(jié)果相同的采樣點(diǎn)數(shù)量;N為測(cè)試采樣點(diǎn)總量;TP表示用電設(shè)備實(shí)際處于工作狀態(tài)且分解結(jié)果也處于工作狀態(tài)的點(diǎn)數(shù)量;FP表示用電設(shè)備實(shí)際處于工作狀態(tài)但分解結(jié)果處于非工作狀態(tài)的點(diǎn)數(shù)量;EP表示用電設(shè)備實(shí)際處于非工作狀態(tài)但模型分解結(jié)果處于工作狀態(tài)的點(diǎn)數(shù)量;x1…xn表示模型分解后擬合功率;x表示實(shí)際功率。P5表示單個(gè)用電設(shè)備分解后擬合總功率,P6表示單個(gè)用電設(shè)備實(shí)際總功率。

P1、P2、P3、F均為非侵入式負(fù)荷分解的基本評(píng)價(jià)指標(biāo),已被大多研究者研究到比較高的水平,RMSE能夠反映模型分解后擬合功率曲線的效果,其值受數(shù)值影響較大,但在比較相似數(shù)據(jù)時(shí)能夠展示擬合水平高低,其值越小表明擬合效果越好。各個(gè)模型的分解結(jié)果如表4所示(表中的準(zhǔn)確度是指4種設(shè)備共同識(shí)別正確時(shí)的準(zhǔn)確度)。

表4 各模型分解結(jié)果及耗時(shí)

整體來(lái)說(shuō)深度學(xué)習(xí)模型較常用神經(jīng)網(wǎng)絡(luò)模型有更高的準(zhǔn)確度和更低的均方根誤差,但耗時(shí)較高,深度學(xué)習(xí)模型中深層CNN模型表現(xiàn)最為出色,但是會(huì)消耗更多的時(shí)間,Bi-LSTM模型表現(xiàn)略好于LSTM模型,為了確保高準(zhǔn)確率我們?cè)敢饣〞r(shí)間以訓(xùn)練模型,由于常用神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確度和RMSE值不理想,所以后文不再對(duì)其進(jìn)行討論。將各個(gè)模型分解之后的結(jié)果結(jié)合表2中的簇中心值對(duì)總有功功率進(jìn)行重構(gòu)擬合,擬合效果如圖5所示,與前文所得結(jié)果一致,1-D-DCNN模型的擬合效果最佳,Bi-LSTM模型次之,LSTM效果一般。

圖5 各深度學(xué)習(xí)模型分解效果對(duì)比圖

單從擬合效果以及準(zhǔn)確度還無(wú)法說(shuō)明模型性能優(yōu)劣,表5展示了每種模型將總有功功率分解后得到每個(gè)用電設(shè)備狀態(tài)的準(zhǔn)確度。由于部分用電設(shè)備各狀態(tài)功率相似且設(shè)備運(yùn)行存在多個(gè)用電設(shè)備同時(shí)運(yùn)行等情況,所以有些設(shè)備狀態(tài)類型沒(méi)有被很好地辨識(shí)出來(lái),就各個(gè)設(shè)備狀態(tài)辨識(shí)效果來(lái)看深層CNN模型辨識(shí)效果更好,沒(méi)有未辨識(shí)出來(lái)的狀態(tài),Bi-LSTM效果次之,有2個(gè)狀態(tài)未辨識(shí)出來(lái),LSTM效果最差有4個(gè)狀態(tài)未辨識(shí)出來(lái)。由于1-D-DCNN模型在多個(gè)方面都表現(xiàn)優(yōu)秀,對(duì)其進(jìn)行更為細(xì)致的分析。1-D-DCNN模型分解結(jié)果各項(xiàng)評(píng)價(jià)指標(biāo)如表6所示,將該模型的分解結(jié)果進(jìn)行重構(gòu)擬合。圖6展示了1-D-DCNN模型分解各用電設(shè)備運(yùn)行狀態(tài)效果。洗衣機(jī)、水壺各方面指標(biāo)表現(xiàn)良好,冰箱、電視召回率稍低即出現(xiàn)了一些不該出現(xiàn)的設(shè)備狀態(tài),電視的平均功率失真率較高,表明功率較小的設(shè)備不易識(shí)別。

圖6 深層卷積神經(jīng)網(wǎng)絡(luò)分解結(jié)果與實(shí)際結(jié)果對(duì)比圖

表6 1-D-DCNN模型分解各評(píng)價(jià)指標(biāo)數(shù)據(jù)

從單個(gè)用電設(shè)備的分解效果來(lái)看,該模型下有較好的非侵入式負(fù)荷辨識(shí)效果,雖然冰箱和電視的分解結(jié)果中出現(xiàn)了一些辨識(shí)錯(cuò)誤的點(diǎn)位,這些點(diǎn)位可能處于多設(shè)備同時(shí)運(yùn)行狀態(tài),由于當(dāng)多設(shè)備運(yùn)行時(shí)會(huì)造成總功率相似,但是其他時(shí)間段分解效果很好。總體來(lái)說(shuō)本文所提出的模型分解性能高于LSTM和Bi-LSTM以及一般神經(jīng)網(wǎng)絡(luò)模型,具有實(shí)際運(yùn)用價(jià)值。

4 結(jié)束語(yǔ)

充分挖掘用電設(shè)備運(yùn)行特征可以為用戶和供電公司帶來(lái)便利,本文轉(zhuǎn)換了傳統(tǒng)CNN模型輸入數(shù)據(jù)維度以及改變其深度建立了新的深度學(xué)習(xí)模型,與seq2seq LSTM以及seq2seq Bi-LSTM模型相比,seq2sqe 1-D-DCNN模型具有更高的辨識(shí)準(zhǔn)確率。另外,在建立特征集時(shí)本文在傳統(tǒng)k-means算法的基礎(chǔ)上運(yùn)用k-means++算法初始化簇中心,利用重復(fù)迭代聚類操作避免局部最小,并提出輪廓值指標(biāo)以確定聚類數(shù)目,經(jīng)驗(yàn)證本文所提KM++-1-D-DCNN方法具有較好的NILD效果。由于輸入數(shù)據(jù)僅為總有功功率,所以對(duì)硬件設(shè)備要求不會(huì)過(guò)高,具有一定的實(shí)用性。未來(lái),還能進(jìn)一步提升模型泛化性以及對(duì)數(shù)據(jù)集擴(kuò)容至云數(shù)據(jù),計(jì)算更大的數(shù)據(jù)集提升辨識(shí)精度,同時(shí)隨著智能電表的發(fā)展,作為輸入因素的數(shù)據(jù)也可多維化。

猜你喜歡
用電卷積聚類
用電安全
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
用煤用電用氣保障工作的通知
安全用電知識(shí)多
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
用電安全要注意
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
基于DBSACN聚類算法的XML文檔聚類
基于改進(jìn)的遺傳算法的模糊聚類算法
一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
赤城县| 长沙县| 临朐县| 松潘县| 临邑县| 徐汇区| 镇远县| 颍上县| 麦盖提县| 临湘市| 阿城市| 株洲市| 思茅市| 安图县| 六安市| 菏泽市| 贵阳市| 大兴区| 孙吴县| 金坛市| 阜新市| 台安县| 社会| 合作市| 永吉县| 康乐县| 扶绥县| 望江县| 衢州市| 洛浦县| 孝感市| 沭阳县| 施秉县| 阳曲县| 云梦县| 兰州市| 连云港市| 陆川县| 湘潭县| 德庆县| 冕宁县|