国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種改進(jìn)一維卷積神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法

2023-05-11 08:58:30潘琳鑫鞏永旺晏生蓮
軟件導(dǎo)刊 2023年4期
關(guān)鍵詞:故障診斷準(zhǔn)確率軸承

潘琳鑫,鞏永旺,晏生蓮

(鹽城工學(xué)院 信息工程學(xué)院,江蘇 鹽城 224051)

0 引言

滾動(dòng)軸承是旋轉(zhuǎn)機(jī)械設(shè)備中最重要的零部件之一,在維持運(yùn)動(dòng)精度和提高機(jī)械效率上發(fā)揮重要作用,在復(fù)雜機(jī)械裝備中有著廣泛應(yīng)用[1]。軸承故障診斷方法研究是維護(hù)機(jī)械設(shè)備正常運(yùn)作的關(guān)鍵,傳統(tǒng)的故障診斷方法包括噪聲分析[2]、油樣分析[3]和振動(dòng)信號(hào)分析[4]等。然而,隨著科技的進(jìn)步,機(jī)械設(shè)備檢測(cè)的精度大幅度提升,采集到的數(shù)據(jù)變得越來(lái)越復(fù)雜和抽象[5],傳統(tǒng)故障診斷方法已不能滿足人們對(duì)于故障診斷時(shí)效性和準(zhǔn)確率的要求。因此,高效的故障診斷方法愈來(lái)愈受到研究人員的重視。

近些年,深度學(xué)習(xí)具有突出的特征提取能力,并被普遍應(yīng)用于軸承故障診斷,如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、深度置信網(wǎng)絡(luò)和堆棧自編碼網(wǎng)絡(luò)等深度學(xué)習(xí)方法在故障診斷方面取得一系列研究成果[6]。Gao 等[7]提出一種新的優(yōu)化自適應(yīng)深度置信網(wǎng)絡(luò),通過(guò)分析滾動(dòng)軸承的振動(dòng)信號(hào),驗(yàn)證了所提方法在故障診斷方面具有較高的診斷精度和較好的收斂性。師詩(shī)[8]提出一種改進(jìn)的深度堆棧自編碼神經(jīng)網(wǎng)絡(luò)的故障診斷模型,在滾動(dòng)軸承數(shù)據(jù)集上進(jìn)行試驗(yàn),驗(yàn)證了所提方法在故障分類方面具有較高的準(zhǔn)確率,并且在損失值方面有較大提升。

卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要方法之一,以其局部連接和全局共享等特點(diǎn),同樣在故障診斷方面有著廣泛應(yīng)用[9]。例如,趙小強(qiáng)等[10]提出一種改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的滾動(dòng)軸承故障診斷方法,通過(guò)引入注意力機(jī)制,使得模型在診斷準(zhǔn)確率方面有所提升。陳仁祥等[11]將卷積神經(jīng)網(wǎng)絡(luò)模型和小波變換相結(jié)合,分別對(duì)故障的類別、缺陷大小和不同工況進(jìn)行測(cè)試,驗(yàn)證了所提方案的可行性。高佳豪等[12]將去除噪聲的方法和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,并基于齒輪箱的數(shù)據(jù)集進(jìn)行試驗(yàn),提升了故障診斷準(zhǔn)確率。張弛等[13]將支持向量機(jī)和卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)聯(lián)系起來(lái),利用支持向量機(jī)分類,利用卷積神經(jīng)網(wǎng)絡(luò)提取特征,提高了網(wǎng)絡(luò)模型識(shí)別準(zhǔn)確率。徐衛(wèi)鵬等[14]建立了一種由池化層和多級(jí)交替卷積層組成的軸承故障診斷模型,利用一維卷積神經(jīng)網(wǎng)絡(luò)模型直接讀取振動(dòng)信號(hào)進(jìn)行故障識(shí)別試驗(yàn)。

以上基于卷積神經(jīng)網(wǎng)絡(luò)的軸承故障診斷模型和方法在一定程度上提高了診斷準(zhǔn)確率,但存在模型訓(xùn)練準(zhǔn)確率不高和過(guò)擬合問(wèn)題?;诖?,本文提出一種基于改進(jìn)一維卷積神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法。該方法將批量歸一化用于數(shù)據(jù)處理,采用Dropout 的方法抑制數(shù)據(jù)過(guò)擬合問(wèn)題,通過(guò)調(diào)節(jié)模型參數(shù)提升卷積神經(jīng)網(wǎng)絡(luò)模型準(zhǔn)確率和泛化能力,該方法不需要人工提取特征,模型直接對(duì)輸入信號(hào)進(jìn)行訓(xùn)練,可以發(fā)揮卷積神經(jīng)網(wǎng)絡(luò)的特征學(xué)習(xí)能力,提高模型通用性。

1 相關(guān)理論

1.1 經(jīng)典一維卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)是一種具有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)的代表算法之一,被普遍使用于計(jì)算機(jī)視覺(jué)和語(yǔ)言處理等多個(gè)領(lǐng)域[15]。在經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)中,其卷積核是二維的,主要是將特征圖中的寬和高兩個(gè)方向同時(shí)進(jìn)行滑窗操作,常用于計(jì)算機(jī)視覺(jué)和圖像處理領(lǐng)域。一維卷積神經(jīng)網(wǎng)絡(luò)與二維卷積神經(jīng)網(wǎng)絡(luò)類似,其輸入的是一維數(shù)據(jù),卷積和池化操作后的輸出也是一維的,主要應(yīng)用于序列模型和自然語(yǔ)言處理領(lǐng)域。一維卷積神經(jīng)網(wǎng)絡(luò)相比于二維卷積神經(jīng)網(wǎng)絡(luò),具有更少的參數(shù)量,可以降低二維卷積神經(jīng)網(wǎng)絡(luò)對(duì)于大規(guī)模數(shù)據(jù)集的依賴。一維卷積神經(jīng)網(wǎng)絡(luò)主要由輸入層、卷積層、池化層、全連接層和輸出層組成[16],其結(jié)構(gòu)如圖1所示。

Fig.1 1D convolutional neural network architecture圖1 一維卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

卷積層是卷積神經(jīng)網(wǎng)絡(luò)的核心,主要作用是提取輸入的特征信息,由卷積單元組成,通過(guò)感受野對(duì)有規(guī)律的移動(dòng)輸入信息,并提取對(duì)應(yīng)區(qū)域的特征。低卷積層只能提取到低級(jí)特征,深卷積層能夠提取深層的特征[17]。在卷積層中,卷積核對(duì)前一層的輸出進(jìn)行卷積運(yùn)算,并輸出卷積結(jié)果,其數(shù)學(xué)模型為[18]

1.2 批量歸一化方法

批量歸一化(Batch Normalization,BN)[20]類似于一種對(duì)數(shù)據(jù)標(biāo)準(zhǔn)化操作,其主要是利用小批量數(shù)據(jù),取其均值和標(biāo)準(zhǔn)差,通過(guò)不斷調(diào)整神經(jīng)網(wǎng)絡(luò)中的輸出,從而使得整個(gè)網(wǎng)絡(luò)輸出的數(shù)值更加穩(wěn)定。在卷積神經(jīng)網(wǎng)絡(luò)中添加BN層的目的是提升訓(xùn)練速度,以提高網(wǎng)絡(luò)性能。因?yàn)閷⒕W(wǎng)絡(luò)中某一層的輸入進(jìn)行歸一化處理,會(huì)影響到本層網(wǎng)絡(luò)所學(xué)習(xí)到的特征,因此引入可學(xué)習(xí)的參數(shù)γ和β,通過(guò)變換重構(gòu),可以恢復(fù)到本層學(xué)習(xí)的特征。BN 算法過(guò)程分為正向傳播和反向傳播,其正向傳播的過(guò)程分為5 個(gè)步驟,如圖2所示。

其中,對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化的公式為:

Fig.2 BN forward propagation process圖2 BN正向傳播過(guò)程

在反向傳播過(guò)程中,采用鏈?zhǔn)角髮?dǎo)求γ、β及其他權(quán)值,γ為尺度系數(shù),β為移動(dòng)因子。

1.3 Dropout 方法

Dropout 方法是指在卷積神經(jīng)網(wǎng)絡(luò)中,按照一定的隨機(jī)概率(比如~Bernoulli(p))臨時(shí)丟棄神經(jīng)元,由于是隨機(jī)丟棄策略,因此每一次都是對(duì)不同的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,可抑制模型過(guò)擬合問(wèn)題。

圖3 為使用Dropout 方法前后的神經(jīng)網(wǎng)絡(luò)對(duì)比示意圖,黑圈代表被臨時(shí)丟棄的神經(jīng)單元。

Fig.3 Neural net(aw) ork comparison before (abn) d after using Dropout method圖3 使用Dropout方法前后的神經(jīng)網(wǎng)絡(luò)對(duì)比

Dropout 方法工作流程為:首先以一定的概率隨機(jī)臨時(shí)刪除神經(jīng)網(wǎng)絡(luò)中的神經(jīng)單元,然后在沒(méi)有被刪除的神經(jīng)元上依照隨機(jī)梯度下降法更新參數(shù),接著重復(fù)這一過(guò)程,恢復(fù)被刪除掉的神經(jīng)單元,再按照隨機(jī)概率臨時(shí)刪除神經(jīng)單元,利用梯度下降更新參數(shù)。

2 改進(jìn)的一維卷積神經(jīng)網(wǎng)絡(luò)模型

為增加經(jīng)典一維卷積神經(jīng)網(wǎng)模型的泛化能力和解決模型的過(guò)擬合問(wèn)題,在模型中嵌入批量歸一化法和神經(jīng)網(wǎng)絡(luò)Dropout 的方法,提出一個(gè)改進(jìn)的一維卷積神經(jīng)網(wǎng)絡(luò)模型。模型采用Google 的Tensorflow 和Keras 工具箱搭建,其結(jié)構(gòu)如圖4 所示。該模型包括輸入層、特征提取層、全連接層和輸出層。其中,特征提取層包含卷積子層、批量歸一化子層、Sigmoid 激活子層和最大值池化子層等。

Fig.4 Improved 1D convolutional neural network model圖4 改進(jìn)的一維卷積神經(jīng)網(wǎng)絡(luò)模型

改進(jìn)的一維卷積神經(jīng)網(wǎng)絡(luò)模型的工作流程如圖5 所示。首先直接輸入原始的振動(dòng)信號(hào),在特征提取層中,卷積層共6 層,第一層卷積核采用大卷積核,可以獲得更大的感受野,降低噪聲影響;之后5 層采用小卷積核,減少參數(shù)量,降低計(jì)算時(shí)間;在卷積操作后,加入批量歸一化層,增強(qiáng)模型泛化能力,再在全連接層中采用Dropout 方法,以抑制過(guò)擬合現(xiàn)象和增強(qiáng)模型泛化能力;最后采用Adam 優(yōu)化器更新權(quán)重,增加模型的運(yùn)算能力。

Fig.5 Improved 1D convolutional neural network process圖5 改進(jìn)的一維卷積神經(jīng)網(wǎng)絡(luò)流程

3 實(shí)驗(yàn)與結(jié)果分析

3.1 實(shí)驗(yàn)數(shù)據(jù)集

實(shí)驗(yàn)數(shù)據(jù)采用美國(guó)凱斯西儲(chǔ)大學(xué)軸承數(shù)據(jù)中心的4組數(shù)據(jù)集(記為A-D)[21],分別對(duì)應(yīng)在0、1、2 和3 馬力電機(jī)負(fù)載工況條件下記錄的軸承振動(dòng)加速度信號(hào),軸承的運(yùn)行狀態(tài)包括正常狀態(tài),內(nèi)圈故障,外圈故障和滾動(dòng)體故障,且每種故障類型又分為3 種損傷直徑:0.007inch,0.014inch和0.021inch。因此,每組數(shù)據(jù)集共有9 種損傷狀態(tài)和1 種正常狀態(tài)等10 種狀態(tài),其標(biāo)簽分別為0~9,實(shí)驗(yàn)數(shù)據(jù)集的具體描述如表1 所示。實(shí)驗(yàn)時(shí)首先將每組實(shí)驗(yàn)數(shù)據(jù)集混合并打亂順序,然后將數(shù)據(jù)集按照7:2:1 的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集;接著對(duì)數(shù)據(jù)進(jìn)行批量歸一化操作,最后進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練,并將訓(xùn)練和測(cè)試的結(jié)果進(jìn)行對(duì)比分析,驗(yàn)證本文方法的有效性和優(yōu)越性。

3.2 實(shí)驗(yàn)結(jié)果分析

在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型的過(guò)程中,由于輸入的振動(dòng)信號(hào)有噪聲,并且訓(xùn)練數(shù)據(jù)不足,會(huì)出現(xiàn)過(guò)擬合情況。本文采用Dropout 的方法抑制過(guò)擬合,在選取Dropout 參數(shù)時(shí),做了3 組實(shí)驗(yàn),參數(shù)分別取0.2、0.3、0.5,迭代次數(shù)為50次,訓(xùn)練集準(zhǔn)確率如圖6所示。

Table 1 Experimental data set description表1 實(shí)驗(yàn)數(shù)據(jù)集描述

Fig.6 Diagnostic accuracy of the training set圖6 訓(xùn)練集的診斷準(zhǔn)確率

從圖6 可以看出,在Dropout=0.2 和0.3 時(shí),訓(xùn)練集準(zhǔn)確率均在99%以上,而Dropout=0.5 時(shí),訓(xùn)練集準(zhǔn)確率只有94%左右。但相比于Dropout=0.2 時(shí),Dropout=0.3 時(shí)的準(zhǔn)確率數(shù)值波動(dòng)較小,因此Dropout的參數(shù)選用0.3。

在訓(xùn)練時(shí),增加網(wǎng)絡(luò)層數(shù),可以提升特征學(xué)習(xí)能力。本實(shí)驗(yàn)采用了6 層卷積層和池化層。利用Adam 算法更新參數(shù),批次設(shè)置為512,迭代200 次,學(xué)習(xí)率為0.001。模型參數(shù)取值如表2所示。

Table 2 1D convolutional neural network model parameters表2 一維卷積神經(jīng)網(wǎng)絡(luò)模型參數(shù)

在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型后,觀測(cè)準(zhǔn)確率與損失函數(shù)值大小,準(zhǔn)確率能夠度量模型效果,準(zhǔn)確率越高,說(shuō)明模型訓(xùn)練效果越好,損失函數(shù)主要描述模型訓(xùn)練誤差,當(dāng)準(zhǔn)確率逐漸增長(zhǎng),損失函數(shù)值逐漸減小,說(shuō)明該模型擬合越好。

實(shí)驗(yàn)訓(xùn)練結(jié)果和驗(yàn)證結(jié)果分別如圖7 和圖8 所示。當(dāng)?shù)螖?shù)達(dá)70 次,模型基本收斂,訓(xùn)練集平均準(zhǔn)確率保持在99%以上,驗(yàn)證集平均準(zhǔn)確率達(dá)99.5%,說(shuō)明改進(jìn)后的一維卷積神經(jīng)網(wǎng)絡(luò)模型具有很好的診斷效果。

Fig.7 Model training results圖7 模型訓(xùn)練結(jié)果

Fig.8 Model validation results圖8 模型驗(yàn)證結(jié)果

一維卷積神經(jīng)網(wǎng)絡(luò)模型改進(jìn)前后在4 組不同數(shù)據(jù)上的軸承故障診斷準(zhǔn)確率比較如表3 所示。測(cè)試集樣本為1 000 個(gè),樣本長(zhǎng)度為1 024。從表3 可以看出,在4 種不同的數(shù)據(jù)集上,本文方法模型測(cè)試的準(zhǔn)確率均高于經(jīng)典的一維卷積神經(jīng)網(wǎng)絡(luò)模型,且本文方法在不同數(shù)據(jù)集上測(cè)試集的準(zhǔn)確率差別小于經(jīng)典一維卷積神經(jīng)網(wǎng)絡(luò)方法。由此可見(jiàn),改進(jìn)后的模型在軸承故障診斷性能上優(yōu)于經(jīng)典的一維卷積神經(jīng)網(wǎng)絡(luò),且模型的穩(wěn)定性和泛化能力更好。

Table 3 Comparison of fault diagnosis accuracy under different data sets表3 不同數(shù)據(jù)集下故障診斷的準(zhǔn)確率比較

為了進(jìn)一步驗(yàn)證所提方法的故障診斷效果,將本文方法與其他基于卷積神經(jīng)網(wǎng)絡(luò)的故障診斷方法進(jìn)行比較,故障診斷準(zhǔn)確率如圖9 所示??梢钥闯觯疚姆椒?zhǔn)確率高于其他模型準(zhǔn)確率,具有更好的診斷效果。

Fig.9 Fault identification accuracy of each method圖9 各方法故障識(shí)別準(zhǔn)確率

4 結(jié)語(yǔ)

本文針對(duì)經(jīng)典一維卷積神經(jīng)網(wǎng)絡(luò)故障診斷準(zhǔn)確率不高和泛化能力較差的情況,提出了改進(jìn)一維卷積神經(jīng)網(wǎng)絡(luò)的軸承故障診斷方法。該方法可以直接作用于原始的一維信號(hào),不需要進(jìn)行任何的人工特征提取,實(shí)現(xiàn)了端對(duì)端的檢測(cè),具有很好的實(shí)用性。第一個(gè)卷積層采用大卷積核,可以得到更大的感受野,之后采用小卷積核,減少模型參數(shù)量和計(jì)算量。利用批量歸一化的方法處理數(shù)據(jù),使得模型收斂速度變快,并減少運(yùn)行時(shí)間。在前向傳播過(guò)程中,利用Dropout 的方法,對(duì)模型中的神經(jīng)元按照一定比例隨機(jī)丟棄,可以有效抑制過(guò)擬合問(wèn)題。實(shí)驗(yàn)結(jié)果表明,該方法相較于改進(jìn)前的一維卷積神經(jīng)網(wǎng)絡(luò)模型和其他故障診斷模型,可以達(dá)到更高的準(zhǔn)確率。

但是本文方法由于網(wǎng)絡(luò)模型較大,需要較大運(yùn)行內(nèi)存和較高硬件需求,因此運(yùn)行效率略有下降。下一步工作重點(diǎn)是優(yōu)化模型流程與參數(shù),在不影響故障準(zhǔn)確率的情況下,提升模型效率。

猜你喜歡
故障診斷準(zhǔn)確率軸承
軸承知識(shí)
哈爾濱軸承(2022年2期)2022-07-22 06:39:32
軸承知識(shí)
哈爾濱軸承(2022年1期)2022-05-23 13:13:24
軸承知識(shí)
哈爾濱軸承(2021年2期)2021-08-12 06:11:46
軸承知識(shí)
哈爾濱軸承(2021年1期)2021-07-21 05:43:16
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
因果圖定性分析法及其在故障診斷中的應(yīng)用
基于LCD和排列熵的滾動(dòng)軸承故障診斷
新乐市| 永定县| 乌恰县| 屯昌县| 济宁市| 武川县| 南召县| 葵青区| 连山| 崇义县| 澄迈县| 古交市| 杭锦后旗| 乳山市| 孝感市| 深圳市| 澄迈县| 湖南省| 泰宁县| 秦皇岛市| 和田市| 巴塘县| 遂宁市| 剑阁县| 饶河县| 称多县| 昌江| 万载县| 定结县| 长岭县| 昌宁县| 社会| 冀州市| 绥宁县| 安多县| 安平县| 五常市| 铁岭市| 河北区| 新河县| 丹寨县|