国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于BO-DKELM的滾動(dòng)軸承故障診斷

2024-05-17 12:21聶新華秦玉峰李尚璁
關(guān)鍵詞:故障診斷矩陣函數(shù)

聶新華,秦玉峰,李尚璁

(海軍航空大學(xué) 岸防兵學(xué)院,山東 煙臺(tái) 264001)

0 引言

旋轉(zhuǎn)機(jī)械設(shè)備目前正廣泛應(yīng)用于電力、制造和航空等各種工業(yè)部門中[1-2]。作為故障診斷領(lǐng)域的一個(gè)主要問題,滾動(dòng)軸承的故障診斷已引起研究人員的廣泛關(guān)注[3-7]。隨著機(jī)械設(shè)備的復(fù)雜化和智能化,設(shè)備中普遍安裝了大量傳感器,這些傳感器能夠采集到豐富的運(yùn)行數(shù)據(jù)。智能故障診斷算法能夠挖掘這些數(shù)據(jù)的深層特征并將其應(yīng)用于設(shè)備的故障診斷中,因此基于數(shù)據(jù)驅(qū)動(dòng)的故障診斷方法受到了廣泛關(guān)注并取得了豐碩成果[8-10]?;谏疃葘W(xué)習(xí)的診斷方法是一種典型的數(shù)據(jù)驅(qū)動(dòng)方法,該方法通過訓(xùn)練神經(jīng)網(wǎng)絡(luò)直接建立樣本到故障類別的映射關(guān)系,而無需人工提取故障特征,具有更強(qiáng)的適用性。

分類器作為智能故障診斷過程中的關(guān)鍵因素,直接影響著故障診斷的精度。極限學(xué)習(xí)機(jī)(ELM,extreme learning machine)是一種單隱層前饋神經(jīng)網(wǎng)絡(luò)(SLFN,single hidden layer forward neural network)學(xué)習(xí)方法。在網(wǎng)絡(luò)訓(xùn)練過程中,ELM隨機(jī)初始化輸入權(quán)重和偏置并得到相應(yīng)的輸出權(quán)重,且不需要更新輸入權(quán)重和隱層閾值,因此相比于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),ELM具有學(xué)習(xí)速度快的優(yōu)點(diǎn)[11-13]。大量研究成果表明:相比于BP神經(jīng)網(wǎng)絡(luò)和支持向量機(jī),ELM具有更快的訓(xùn)練速度和更好的泛化能力[14-16],因此ELM在智能故障診斷中具有廣泛的應(yīng)用前景。Gao等人[17]提出了一種集成ELM故障診斷模型;Lei等人[18]將本征時(shí)間尺度分解技術(shù)與核極限學(xué)習(xí)機(jī)(KELM,Kernel extreme learning machine)相結(jié)合對(duì)銑削刀具磨損情況進(jìn)行分類;Chen等人[19]提出了一種求和高斯極限學(xué)習(xí)機(jī),并成功地應(yīng)用于輸電線路故障診斷;Li等人[20]將ELM與自動(dòng)編碼器(AE,auto encoder)相結(jié)合,提出了一種基于稀疏保鄰域深度極限學(xué)習(xí)機(jī)的滾動(dòng)軸承故障診斷新算法;Rodriguez等人[21]提出了一種結(jié)合平穩(wěn)小波變換和奇異值分解的ELM算法對(duì)滾動(dòng)軸承故障進(jìn)行故障診斷;Ye等人[22]提出了一種基于稀疏貝葉斯極限學(xué)習(xí)機(jī)的故障診斷方法。ELM或KELM等故障診斷模型具有學(xué)習(xí)速度快、魯棒性強(qiáng)等優(yōu)點(diǎn),然而上述文獻(xiàn)未考慮故障診斷模型中的超參數(shù)對(duì)故障診斷結(jié)果的影響,如果超參數(shù)設(shè)置的不合適可能導(dǎo)致最終的故障診斷結(jié)果準(zhǔn)確率較低。

針對(duì)上述問題,本文提出了一種基于BO-DKELM(Bayesian Optimization-deep Kernel Extreme Learning Machine)的滾動(dòng)軸承故障診斷方法。由于KELM具有學(xué)習(xí)速度快、泛化能力強(qiáng)等優(yōu)點(diǎn),同時(shí)考慮到AE能夠充分學(xué)習(xí)輸入數(shù)據(jù)隱含特征的特點(diǎn),將AE與KELM進(jìn)行結(jié)合,構(gòu)建了DKELM模型。DKELM模型中超參數(shù)較多,若通過手動(dòng)隨機(jī)設(shè)置超參數(shù)的取值往往無法得到最優(yōu)的結(jié)果。因此進(jìn)一步利用貝葉斯優(yōu)化算法對(duì)DKELM的超參數(shù)進(jìn)行尋優(yōu),構(gòu)建BO-DKELM故障診斷模型,旨在提高DKELM的故障診斷性能,提高系統(tǒng)的故障診斷能力。

1 DKELM故障診斷模型構(gòu)建

1.1 KELM基本理論

ELM模型的網(wǎng)絡(luò)結(jié)構(gòu)與SLFN一致,其區(qū)別在于ELM在訓(xùn)練階段不采用傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)中的梯度下降的算法,而采用隨機(jī)的輸入層權(quán)重和偏置,輸出層權(quán)重則通過廣義逆矩陣?yán)碚撚?jì)算得到,在計(jì)算得到所有節(jié)點(diǎn)的權(quán)值和偏差后便完成了ELM的訓(xùn)練。區(qū)別于傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)中的梯度下降算法,ELM以任意連續(xù)的概率分布隨機(jī)對(duì)隱含層中權(quán)值W和偏置b進(jìn)行初始化,通過非線性激活函數(shù)將輸入數(shù)據(jù)映射到新的高維空間,然后基于最小逼近平方差方法求解輸出層權(quán)重β。ELM算法具體分析如下:

(1)

式中,βi為連接隱含層與輸出層的輸出權(quán)重;g為激活函數(shù),表示隱含層對(duì)于輸入樣本的響應(yīng)方式。wi=[wi1,wi2,…,win]T為連接第i個(gè)隱含層節(jié)點(diǎn)和輸入節(jié)點(diǎn)之間的權(quán)重;bi為偏置。ELM的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 ELM網(wǎng)絡(luò)結(jié)構(gòu)

(2)

上述方程可以用矩陣形式進(jìn)行表示:

Hβ=T

(3)

(4)

β*=H+T

(5)

式中,H+表示隱含層輸出矩陣H的Moore-Penrose廣義逆。

上述方法是基于訓(xùn)練誤差最小情況下進(jìn)行計(jì)算的,容易產(chǎn)生過擬合的現(xiàn)象,從而無法獲得最優(yōu)的分類效果。因此對(duì)問題進(jìn)行折中考慮,使得訓(xùn)練誤差和輸出權(quán)值同時(shí)達(dá)到最小化:

(6)

式(6)可以改寫為:

(7)

其中:ξi是第i個(gè)樣本xi與隱含層輸出之間的誤差;C1為正則化系數(shù),用來控制誤差在最小化問題中的占比。根據(jù)KKT條件,引入拉格朗日乘子求解公式:

(8)

其中:αij為拉格朗日乘子。求解公式的優(yōu)化條件可得:

(9)

根據(jù)公式(9)可得如下方程組:

(10)

公式(10)等價(jià)于:

(11)

其中:I為單位矩陣。結(jié)合公式(5)可以得到ELM網(wǎng)絡(luò)的輸出權(quán)值的最小二乘解:

(12)

傳統(tǒng)ELM模型采用單隱層結(jié)構(gòu),在隱含層中設(shè)置一定數(shù)量的神經(jīng)元節(jié)點(diǎn),通過非線性激活函數(shù)將輸入數(shù)據(jù)映射到高維特征空間,并且數(shù)據(jù)樣本在被映射到高空間后能夠線性分離,這與前文中核方法的原理是一致的。所以可以根據(jù)核方法基本定理,將ELM對(duì)輸入矩陣的非線性映射過程利用核函數(shù)進(jìn)行替換,從而提高ELM的非線性逼近能力和穩(wěn)定性。因此,將核函數(shù)引入到ELM中,提出如下KELM算法:

首先應(yīng)用Mercer’s條件定義核矩陣[23]:

Kij=hi·hj=k(xi,xj)

(13)

其中:Kij為核矩陣K中第i行第j列元素。通過核函數(shù)k(xi,xj)將輸入樣本從n維輸入空間映射到高維特征空間。核函數(shù)包括RBF核函數(shù)、線性核函數(shù)和多項(xiàng)式核函數(shù)等,通常設(shè)定為RBF核:

(14)

式中,δ為核寬度。核參數(shù)選擇完畢后,則核矩陣K是確定的,因此通過定義核函數(shù)則可以將ELM中的隨機(jī)矩陣HHT替換為確定的核矩陣K。由以上分析可得,KELM模型的求解公式可以表示為:

(15)

因此可得KELM模型輸出權(quán)值為:

β=(I/C1+K)-1T

在KELM算法中,由于利用核矩陣對(duì)隨機(jī)矩陣HHT進(jìn)行了替換,因此只需要定義核矩陣k(xi,xj)即可計(jì)算得到輸出函數(shù)的值。同時(shí),因?yàn)楹撕瘮?shù)直接采用內(nèi)積的形式,在求解輸出函數(shù)值時(shí)不需要主觀設(shè)定網(wǎng)絡(luò)隱含層節(jié)點(diǎn)數(shù)目,也不需要設(shè)定隱含層初始權(quán)重和偏置。

1.2 自動(dòng)編碼器

AE是一種前饋全連接的對(duì)稱神經(jīng)網(wǎng)絡(luò),其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

圖2 AE網(wǎng)絡(luò)結(jié)構(gòu)

AE主要由編碼層和解碼層構(gòu)成,其中:編碼層由輸入層和隱含層構(gòu)成,解碼層由隱含層和輸出層組成,解碼層與編碼層的結(jié)構(gòu)類似,且輸出與輸入的維度相同[24]。AE通過接收、壓縮和編碼數(shù)據(jù),然后以損失最小化為目標(biāo),通過無監(jiān)督訓(xùn)練直到輸出盡可能接近地輸入數(shù)據(jù)。其目的在于通過訓(xùn)練學(xué)習(xí)數(shù)據(jù)的特征。AE的編碼過程為通過激活函數(shù)將數(shù)據(jù)的高維特征降維壓縮為隱含層的低維特征表示,實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的編碼;AE的解碼過程為通過激活函數(shù)將隱含層的低維特征表示以輸入數(shù)據(jù)為目標(biāo)進(jìn)行重構(gòu),將輸入從編碼中重建為原始維度,通過對(duì)數(shù)據(jù)進(jìn)行編碼和解碼可以學(xué)習(xí)到輸入數(shù)據(jù)的隱含特征。AE的數(shù)學(xué)模型如下:

H=g(w·x+b)

(16)

其中:H為隱含層的輸出特征矩陣;w為編碼層的權(quán)值矩陣;b為編碼層的偏置向量;g為激活函數(shù)。解碼過程為輸入數(shù)據(jù)的重構(gòu)過程,隱含層輸出特征矩陣H的解碼過程可以表示為:

(17)

1.3 DKELM模型構(gòu)建

可以發(fā)現(xiàn)若AE僅含有一個(gè)隱含層,則ELM與AE在結(jié)構(gòu)上非常相似,因此將AE的思想與ELM相結(jié)合中,構(gòu)造作為自編碼器的極限學(xué)習(xí)機(jī)ELM-AE,使ELM的輸出重構(gòu)為輸入。ELM-AE的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

圖3 作為自動(dòng)編碼器的極限學(xué)習(xí)機(jī)結(jié)構(gòu)

與ELM類似,ELM-AE隱含層輸出權(quán)重可以由公式轉(zhuǎn)化為:

(18)

其中:C2為ELM-AE的正則化系數(shù)。根據(jù)ELM-AE的特征學(xué)習(xí)能力,本文構(gòu)造了一種深度極限學(xué)習(xí)機(jī)模型,將ELM-AE作為DKELM的基本單元,利用逐層貪婪的訓(xùn)練方法對(duì)DKELM進(jìn)行訓(xùn)練。DKELM的基本思想為:利用AE的特征學(xué)習(xí)能力,令ELM-AE的輸出在最小重構(gòu)誤差的情況下無限接近原始輸入,通過多個(gè)ELM-AE單元的分層無監(jiān)督訓(xùn)練確定DKELM中每個(gè)隱含層的權(quán)重。經(jīng)過多層ELM-AE單元的訓(xùn)練后,DKELM模型能夠深層次地提取輸入數(shù)據(jù)的隱含特征,從而提高最終分類效果。DKELM模型的訓(xùn)練過程如圖4所示。

圖4 DKELM模型訓(xùn)練過程

根據(jù)分析,本文所構(gòu)建的DKELM模型中包含λ個(gè)ELM-AE模型和一個(gè)KELM模型。雖然DKELM模型能夠用于系統(tǒng)的故障診斷,但是存在以下問題:由于模型中超參數(shù)過多,主要包括:DKELM中各隱含層的節(jié)點(diǎn)個(gè)數(shù)nλ,KELM中的正則化系數(shù)C1與核參數(shù)δ,ELM-AE中的正則化系數(shù)C2。各超參數(shù)對(duì)最終的故障診斷精度都存在著較大影響,若通過手動(dòng)隨機(jī)設(shè)置各超參數(shù)往往無法得到最優(yōu)的結(jié)果。因此本文提出一種BO-DKELM模型,利用貝葉斯優(yōu)化算法對(duì)DKELM的超參數(shù)進(jìn)行尋優(yōu),旨在提高DKELM的性能,更好地應(yīng)用于實(shí)際故障診斷。

2 BO-DKLEM模型

目前,貝葉斯優(yōu)化在求解黑盒函數(shù)問題中應(yīng)用越來越廣泛,已經(jīng)成為超參數(shù)估計(jì)的主流方法[25-26]。區(qū)別于網(wǎng)格搜索方法和隨機(jī)搜索方法,貝葉斯優(yōu)化采用序貫的算法模型,通過選取參數(shù)點(diǎn)不斷更新概率模型,在過去搜索結(jié)果的基礎(chǔ)上獲得當(dāng)前的最優(yōu)值。貝葉斯優(yōu)化方法中主要包括兩個(gè)組成部分:1)概率代理模型:概率代理模型描述了目標(biāo)函數(shù)的歷史結(jié)果,每一次迭代過程概率代理模型根據(jù)當(dāng)前數(shù)據(jù)點(diǎn)的目標(biāo)函數(shù)結(jié)果進(jìn)行改進(jìn),直至找到符合要求的結(jié)果或者達(dá)到最大迭代次數(shù)。概率代理模型用來代理描述目標(biāo)函數(shù),對(duì)數(shù)據(jù)點(diǎn)集合和目標(biāo)函數(shù)值進(jìn)行統(tǒng)計(jì)分析;2)采集函數(shù):BO通過將概率代理模型代入采集函數(shù)中計(jì)算極值,估計(jì)當(dāng)前情況下最優(yōu)數(shù)據(jù)點(diǎn)最有可能出現(xiàn)的一些位置,并將其作為選擇下一組需要計(jì)算的數(shù)據(jù)點(diǎn)。下面從概率代理模型和采集函數(shù)兩個(gè)方面介紹BO的基本原理。

2.1 概率代理模型

由于優(yōu)化目標(biāo)函數(shù)可能不存在顯式的函數(shù)表達(dá)式,因此BO采用概率代理模型對(duì)目標(biāo)函數(shù)進(jìn)行近似表示?;诔跏疾蓸訑?shù)據(jù)點(diǎn)開始構(gòu)建初步的概率代理模型,隨著數(shù)據(jù)點(diǎn)信息量的增加,逐步對(duì)概率代理模型進(jìn)行修正和更新。概率代理模型一般分為參數(shù)模型和非參數(shù)模型兩種。目前高斯過程(GP,gaussian process)回歸作為概率代理模型取得了較好的應(yīng)用。高斯過程回歸屬于非參數(shù)模型,其每個(gè)有限子集都服從多元正態(tài)分布,通過使用高斯過程的先驗(yàn)信息進(jìn)行回歸分析。高斯過程是多元高斯分布向無窮維的擴(kuò)展,由均值函數(shù)和協(xié)方差函數(shù)組成:

f(x)~GP(m(x),k(x,x′))

(19)

其中:f(x)為目標(biāo)函數(shù);m(x)為均值函數(shù);k(x,x′)為協(xié)方差函數(shù)矩陣。在第t次試驗(yàn)后,可以獲得數(shù)據(jù)點(diǎn)集合{x1:t,f1:t},由于高斯過程上任意點(diǎn)ft+1與之前的觀測(cè)數(shù)據(jù)服從聯(lián)合高斯分布,進(jìn)一步可以得到預(yù)測(cè)分布:

(20)

對(duì)于均值和協(xié)方差函數(shù)的推導(dǎo)和具體形式本文不再贅述。根據(jù)式(20),則可以根據(jù)高斯過程的后驗(yàn)分布對(duì)未知函數(shù)f(x)在任意位置的值和所在位置的均值、方差做出估計(jì)。

2.2 采集函數(shù)

直接從概率代理模型中隨機(jī)選擇數(shù)據(jù)點(diǎn)尋找最優(yōu)解通常需要耗費(fèi)大量的時(shí)間。BO采集函數(shù)在每次迭代過程中獲得下一個(gè)采樣數(shù)據(jù)點(diǎn)。采集函數(shù)根據(jù)已經(jīng)觀測(cè)到的數(shù)據(jù)更新的后驗(yàn)概率分布進(jìn)行構(gòu)造,下一個(gè)評(píng)估的采樣數(shù)據(jù)點(diǎn)通過最大化后驗(yàn)概率分布進(jìn)行選擇,即:

xt+1=argmaxαt(x;D)

(21)

常見的采集函數(shù)包括概率提升函數(shù)(PI,probability of improvement)、期望提升函數(shù)(EI,expected improvement)以及上置信邊界函數(shù)(UCB,upper confidence bound)等。由于本文使用高斯過程作為概率代理模型,其后驗(yàn)概率分布預(yù)測(cè)中包括均值和方差,因此通過使用代理模型計(jì)算得到預(yù)測(cè)分布中均值和方差的關(guān)系,使采集函數(shù)最大化,以此來估計(jì)最優(yōu)的下一個(gè)采樣結(jié)構(gòu)點(diǎn)xt+1:

αUCB(x)=μ(x)+γσ(x)

(22)

其中:γ為調(diào)節(jié)參數(shù),采集函數(shù)通過γ控制對(duì)探索未知和已知數(shù)據(jù)信息之間的平衡。

2.3 BO-DKLEM模型訓(xùn)練過程

BO-DKELM模型的訓(xùn)練過程如圖5所示。

圖5 BO-DKELM故障診斷模型訓(xùn)練過程

在圖5中,貝葉斯優(yōu)化的目標(biāo)函數(shù)設(shè)計(jì)為分類錯(cuò)誤率,優(yōu)化目標(biāo)為在超參數(shù)空間內(nèi)尋找到一組超參數(shù)組合x={nλ,C1,C2,δ},使得訓(xùn)練集和驗(yàn)證集的錯(cuò)誤率之和最低:

ξ=argmin2-Acct-Accv

(23)

其中:Acct為訓(xùn)練集的準(zhǔn)確率;Accv為驗(yàn)證集的準(zhǔn)確率。此時(shí)可確定概率代理模型的輸入為數(shù)據(jù)點(diǎn)集合{x1:t,ξ1:t},輸出為超參數(shù)與目標(biāo)函數(shù)之間的函數(shù)關(guān)系f(x)?;贐O-DKELM模型的故障診斷流程可以分為4部分:

1)將采樣數(shù)據(jù)劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集;

2)構(gòu)建DKELM模型,確定網(wǎng)絡(luò)層數(shù)、ELM-AE采用的激活函數(shù)、KELM采用的核函數(shù);

3)訓(xùn)練BO-DKELM模型,輸出DKELM模型中各隱層的節(jié)點(diǎn)個(gè)數(shù)、ELM-AE的正則化系數(shù)、KELM的正則化系數(shù)和核參數(shù),構(gòu)建BO-DKELM模型;

4)通過測(cè)試數(shù)據(jù)集驗(yàn)證所構(gòu)建模型的故障分類性能。

3 案例驗(yàn)證

為了驗(yàn)證所提方法的可行性和有效性,本文采用凱斯西儲(chǔ)大學(xué)實(shí)驗(yàn)室的實(shí)驗(yàn)數(shù)據(jù),實(shí)驗(yàn)設(shè)施如圖6所示[27]。

圖6 故障實(shí)驗(yàn)設(shè)施

電機(jī)作為整套系統(tǒng)的動(dòng)力源,驅(qū)動(dòng)滾動(dòng)軸承旋轉(zhuǎn)帶動(dòng)負(fù)載工作;功測(cè)機(jī)用于模擬測(cè)試平臺(tái)的負(fù)載,其實(shí)際輸出扭矩可根據(jù)測(cè)試需求進(jìn)行調(diào)節(jié),并通過扭矩傳感器進(jìn)行測(cè)量;利用加速度作為振動(dòng)傳感器,通過測(cè)量加速度對(duì)振動(dòng)強(qiáng)度進(jìn)行估計(jì);各種不同故障類型的滾動(dòng)軸承用于模擬實(shí)際生產(chǎn)中的滾動(dòng)軸承故障。故障位置主要包括滾珠缺陷、外圈缺陷和內(nèi)圈缺陷。軸承的故障由電加工產(chǎn)生,故障尺寸為7、14和21 mil。每一種故障都有上述的3種損傷情況,代表著不同嚴(yán)重程度的故障,因此一共有10種不同的軸承健康狀況數(shù)據(jù),包括正常情況的軸承和不同嚴(yán)重程度的故障情況。具體信息列于表1中。

表1 故障信息表

將樣本的數(shù)據(jù)點(diǎn)設(shè)置為1 024,將測(cè)試信號(hào)作為BO-DKELM的輸入。對(duì)于每個(gè)類別的樣本,從原始振動(dòng)信號(hào)中隨機(jī)構(gòu)建250個(gè)樣本,因此構(gòu)建了含有2 500個(gè)樣本的樣本集,設(shè)置訓(xùn)練集:驗(yàn)證集:測(cè)試集的比例為7∶2∶1。設(shè)置ELM-AE單元個(gè)數(shù)為2個(gè),其中激活函數(shù)選用sigmoid函數(shù)。其中:ELM-AE單元的節(jié)點(diǎn)數(shù)n1和n2的搜索范圍設(shè)置為[0,200],ELM-AE的正則化系數(shù)C2、KELM中正則化系數(shù)C1和核參數(shù)δ的搜索范圍統(tǒng)一設(shè)置為[0.001,1 000],最大搜索次數(shù)設(shè)置為20次,最小目標(biāo)值搜索過程和故障診斷結(jié)果如圖7和圖8所示。

圖7 最小目標(biāo)值搜索過程

圖8 基于BO-DKELM的故障診斷結(jié)果

從仿真結(jié)果可以看出:1)BO-DKELM算法在第12次迭代時(shí)結(jié)果收斂,訓(xùn)練集與測(cè)試集的錯(cuò)誤率之和最低為0.25%;2)經(jīng)過20次搜索后,貝葉斯優(yōu)化算法給出了模型的最優(yōu)超參數(shù)分別為:n1=199、n2=159、C1=539.205 0、C2=622.172 6、δ=38.807 9;3)BO-DKELM算法的測(cè)試集分類正確率為99.60%,F(xiàn)1得分為0.996 4。

為說明本文方法的優(yōu)越性,將本文所提BO-DKELM故障診斷模型與DKELM、KELM和ELM等模型進(jìn)行對(duì)比,各模型的激活函數(shù)都選擇為Sigmoid函數(shù),表2給出了算法其余超參數(shù)具體數(shù)值。

表2 模型超參數(shù)設(shè)置

所有模型所用的故障數(shù)據(jù)集相同。一共進(jìn)行了20次實(shí)驗(yàn),取20次實(shí)驗(yàn)結(jié)果的平均值,最終故障診斷結(jié)果對(duì)比如表3所示。

表3 故障診斷結(jié)果對(duì)比

可見,基于BO-DKELM的診斷模型相比于DKELM、KELM和ELM,測(cè)試集準(zhǔn)確率分別提高了5.06%、15.86%和20.02%,F(xiàn)1得分分別提高了0.050 5,0.123 0和0.193 2。進(jìn)一步將本文所提方法與CNN、2D-CNN[28]、DBN[29]、CNN+2D-CNN進(jìn)行比較,這些方法的詳細(xì)描述如下:

1)CNN包括一個(gè)輸入層,兩個(gè)一維卷積層(卷積規(guī)模分別為1×6和6×16),兩個(gè)池化層,一個(gè)全連接層,一個(gè)softmax分類器和一個(gè)輸出層,卷積層和池化層的核尺寸分別為5、6、3、6。

2)由于原始信號(hào)數(shù)據(jù)的維度為1 024,將原始信號(hào)數(shù)據(jù)轉(zhuǎn)化為32*32維的矩陣作為2D-CNN的輸入。2D-CNN包括一個(gè)輸入層,兩個(gè)一維卷積層(卷積規(guī)模分別為3×6和6×16),兩個(gè)池化層,一個(gè)全連接層,一個(gè)softmax分類器和一個(gè)輸出層,卷積層和池化層的核尺寸分別為3、2、2、2。

3)DBN中包含一個(gè)輸入層,兩個(gè)隱含層和一個(gè)輸出層,網(wǎng)絡(luò)結(jié)構(gòu)為[1 024,50,20,10],學(xué)習(xí)率為0.05,小批量尺寸為8,迭代次數(shù)為500。

4)CNN+2D-CNN通過特征融合層將CNN和2D-CNN兩個(gè)通道全連接層的特征進(jìn)行拼接。設(shè)置SVM為分類器,選取核函數(shù)為高斯核,核參數(shù)為0.01,懲罰因子為1。學(xué)習(xí)率設(shè)置為0.005,小批量尺寸設(shè)置為8,總迭代次數(shù)為500,損失函數(shù)為交叉熵。這些方法在樣本集上的故障診斷準(zhǔn)確率和F1得分如表4所示、可以看出,本文所提出的BO-DKLEM故障診斷能力更強(qiáng),在這些模型中,DBN獲得的故障診斷準(zhǔn)確率和F1得分的值最低,與其余方法結(jié)果相比,由于本文所提出的BO-DKELM故障診斷模型通過貝葉斯優(yōu)化使得模型的超參數(shù)達(dá)到最優(yōu),能夠有效提高系統(tǒng)的故障診斷能力,上述結(jié)果驗(yàn)證了本文所提方法的優(yōu)越性。

表4 與現(xiàn)有故障診斷結(jié)果方法對(duì)比

4 結(jié)束語

本文提出了一種基于BO-DKLEM的故障診斷方法。通過貝葉斯優(yōu)化算法對(duì)DKELM中的隱含層節(jié)點(diǎn)個(gè)數(shù)、正則化參數(shù)和核寬度進(jìn)行優(yōu)化,構(gòu)建BO-DKELM模型,然后利用數(shù)據(jù)集對(duì)優(yōu)化后的DKELM模型進(jìn)行訓(xùn)練。通過故障診斷結(jié)果可以看出,本文所提方法能夠得到最優(yōu)的超參數(shù),相比于未優(yōu)化的DKELM算法和傳統(tǒng)的ELM、KELM等算法,本文所提方法可以有效提高滾動(dòng)軸承故障診斷的準(zhǔn)確性。然而本文所提方法需要利用優(yōu)化算法對(duì)超參數(shù)進(jìn)行尋優(yōu),因此診斷時(shí)間有所增加。如何在保證故障診斷具有較高準(zhǔn)確性的前提下進(jìn)一步縮短診斷時(shí)間,是下一步研究的主要內(nèi)容。

猜你喜歡
故障診斷矩陣函數(shù)
二次函數(shù)
第3講 “函數(shù)”復(fù)習(xí)精講
二次函數(shù)
函數(shù)備考精講
初等行變換與初等列變換并用求逆矩陣
因果圖定性分析法及其在故障診斷中的應(yīng)用
矩陣
矩陣
矩陣
基于LCD和排列熵的滾動(dòng)軸承故障診斷