国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學(xué)習(xí)的主軸承蓋分類識別算法

2021-09-19 13:55張鵬飛石志良李曉垚歐陽祥波
圖學(xué)學(xué)報 2021年4期
關(guān)鍵詞:軸承準確率卷積

張鵬飛,石志良,李曉垚,歐陽祥波

(1.武漢理工大學(xué)機電工程學(xué)院,湖北 武漢 430070;2.廣州工業(yè)大學(xué)機電工程學(xué)院,廣東 廣州 510006)

汽車發(fā)動機主軸承蓋零件,主要用于曲軸定位,保護曲軸軸承,是發(fā)動機重要組成零件之一。作為發(fā)動機零部件的配套企業(yè),需要為多款發(fā)動機配備不同的主軸承蓋零件,實際生產(chǎn)中,各種主軸承蓋零件,經(jīng)過清洗、去毛刺等工序后,被雜亂地混合在一起,對后續(xù)的激光打標和分類包裝帶來了嚴重干擾。

區(qū)別于傳統(tǒng)的人工目視識別方法,自動識別分類技術(shù)信息化程度高,可控性好,其分類的準確性和穩(wěn)定性也更有保障?;跈C器視覺的圖像物體識別分類方法,主要分為特征描述和深度學(xué)習(xí)2 種技術(shù)路線。

采用特征提取的圖像物體識別方法,重點關(guān)注圖像描述規(guī)則的設(shè)計,通過人為設(shè)計的規(guī)則,將一幅圖像描述成一個特征向量,最后使用機器學(xué)習(xí)分類器,如支持向量機(support vector machines,SVM)[1]等,對特征向量的集合進行識別和分類。經(jīng)典的特征提取方法有:局部二值模式(local binary pattern,LBP)[2]、尺度不變特征變換(scale invariant feature transform,SIFT)[3]、方向梯度直方圖(histogram of oriented gradient,HOG)[4]等。盡管,在形成最終特征描述向量的過程中,通過特征編碼和特征匯聚等方式,一定程度上提高了特征描述的穩(wěn)定性,但此類方法在處理不均勻光照、細粒度分類等問題上,仍具有較大誤差。在之前的研究中,提出基于特征提取的SIFT-SVM 零件識別方法[5]。該方法關(guān)注零件頂部圖像的SIFT 特征關(guān)鍵點,通過聚類算法對分散的關(guān)鍵點進行整合,結(jié)合詞袋模型,進行特征匯聚和降維,最終使用SVM 分類器進行識別分類。實驗結(jié)果證明,在正常光源條件下,識別準確率為100%,單個零件識別時間為0.6 s。

采用深度學(xué)習(xí)的圖像物體識別方法,是近年來機器視覺領(lǐng)域的熱點研究方向[6],其中最具代表性的方法是卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN),已廣泛應(yīng)用于物體識別[7]、行人檢測[8]、人臉識別[9]等多個領(lǐng)域。事實上,學(xué)術(shù)界已有觀點[10]認為,基于手工特征描述的方法,將人為設(shè)計的特征描述子,作為識別系統(tǒng)的信息來源,可能過早地丟失了圖像中的有用信息。FANG 等[11]提出一種由粗到細的細粒度車型識別框架,通過構(gòu)建CNN,抓取汽車圖像中的目標特征區(qū)域,并反復(fù)細化特征區(qū)域,最后結(jié)合全局特征和局部特征完成車型細粒度分類;KRüGER 等[12]基于經(jīng)典ResNet 網(wǎng)絡(luò)模型,使用非工業(yè)零件數(shù)據(jù)集,對網(wǎng)絡(luò)進行遷移學(xué)習(xí)。經(jīng)研究表明非工業(yè)圖像數(shù)據(jù)集,對于工業(yè)圖像的識別具有促進作用。同時,對于識別形狀較簡單或數(shù)據(jù)較少的零件而言,適當降低CNN 的深度,會取得更高識別效率。

1 發(fā)動機主軸承蓋識別算法框架

研究涉及的主軸承蓋零件,共有5 種,依次標記為ABCDE,不同種類的主軸承蓋零件,形狀相似,類間差異小,特征提取精度要求高,是典型的細粒度圖像分類問題[13],面臨的主要難點有:

(1) 學(xué)術(shù)界尚未形成成熟的工業(yè)零件數(shù)據(jù)集,研究需要的主軸承蓋圖像數(shù)據(jù),均來自實驗?zāi)M平臺,數(shù)據(jù)集規(guī)模較小,需考慮過擬合風(fēng)險;

(2) 由于主軸承蓋零件本身的形狀特點,差異特征主要分布于零件頂部和側(cè)面,需要探索一種可以綜合考慮2 個位置的識別方法;

(3) 零件實際識別過程中,或存在光照不均等問題,要求零件識別系統(tǒng)具有較高的穩(wěn)定性。

文獻[5]提出的SIFT-SVM方法對零件圖像拍攝質(zhì)量要求較高,需要額外設(shè)置光線遮擋裝置。在實際應(yīng)用中,當零件分類特征區(qū)域,未被光源有效照亮?xí)r,會導(dǎo)致圖像SIFT 關(guān)鍵點發(fā)生改變,對識別系統(tǒng)產(chǎn)生嚴重干擾。

針對上述主軸承蓋零件自動識別任務(wù)難點,設(shè)計了一種多分支特征融合卷積神經(jīng)網(wǎng)絡(luò)(multi-branch feature fusion convolutional neural network,MFF-CNN),模型的基本設(shè)計框架如圖1 所示。

圖1 發(fā)動機主軸承蓋零件識別算法框架 Fig.1 Algorithm framework for identifying parts of engine main bearing cap

MFF-CNN 采用多分支結(jié)構(gòu),設(shè)計2 個獨立子網(wǎng)絡(luò),分別提取主軸承蓋零件的側(cè)面和頂部特征,實現(xiàn)主軸承蓋零件的細粒度分類。該網(wǎng)絡(luò)模型具有以下特點:

(1) 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計,需考慮主軸承蓋差異性特征分布于2 個不同表面,設(shè)計多分支網(wǎng)絡(luò)結(jié)構(gòu),分別提取零件的側(cè)面和頂部特征,經(jīng)過特征融合后得到最終的識別分類依據(jù),提高零件特征表達的精度。

(2) 采用密集連接型CNN 結(jié)構(gòu),通過強化特征重用,降低網(wǎng)絡(luò)參數(shù)量,提高模型的魯棒性與適用性,同時,結(jié)合批量歸一化(batch normalization,BN)[14]和全局平均池化(global average pooling,GAP)[15]等優(yōu)化方法,進一步優(yōu)化網(wǎng)絡(luò)參數(shù)分布,提升模型準確率。

(3) 針對零件細粒度分類的過擬合問題,使用翻轉(zhuǎn)、旋轉(zhuǎn)、縮放、分割等數(shù)據(jù)增強方法,擴大樣本數(shù)據(jù)量。

2 數(shù)據(jù)集及其預(yù)處理

盡管機器視覺已廣泛應(yīng)用于工業(yè)生產(chǎn),但公開的機械零件圖像數(shù)據(jù)集尚未形成。因此,通過實驗平臺來模擬主軸承蓋實際生產(chǎn)過程,抓取處于物料傳輸中的零件圖像,形成主軸承蓋圖像數(shù)據(jù)集。

實驗平臺主要用于圖像采集和模擬在線識別,其基本組件包括電機、傳送帶、Basler 單通道ac2500型工業(yè)相機、LED 光源、OMRON 漫反射光電觸發(fā)器、電源和計算機,平臺整體結(jié)構(gòu)包括物料傳送、圖像采集、輔助光源3 個基本模塊組成,如圖2 所示,其中圖2(a)用于獲取主軸承蓋側(cè)面圖像數(shù)據(jù);圖2(b)用于獲取主軸承蓋頂部圖像數(shù)據(jù)。同時,后續(xù)識別算法的實驗驗證與分析,也是基于該實際生產(chǎn)模擬實驗平臺。

圖2 模擬實際生產(chǎn)的實驗平臺((a)獲取主軸承蓋側(cè)面圖像數(shù)據(jù);(b)獲取主軸承蓋頂部圖像數(shù)據(jù)) Fig.2 Experimental platform that simulates actual production ((a) Obtain the side image data of the main bearing cap;(b) Obtain the top image data of the main bearing cap)

進行零件識別分類時,要求所拍攝的零件圖片,應(yīng)清晰地展現(xiàn)不同種類間的差異特征。對于汽車發(fā)動機主軸承蓋零件,其各種類之間的差別,主要存在于零件頂部的螺栓支撐臺部位,同時,零件側(cè)面的長度尺寸和中心半圓半徑尺寸,也存在微小差別。因此,數(shù)據(jù)集包含了2 個角度的圖像數(shù)據(jù),如圖3(a)為主軸承蓋側(cè)面圖像,圖3(b)為頂部圖像。

圖3 不同種類發(fā)動機主軸承蓋零件的側(cè)面圖像和頂部圖像((a)側(cè)面圖像;(b)頂部圖像) Fig.3 Side and top images of different types of engine main bearing cap parts ((a) Side images;(b) Top images)

數(shù)據(jù)集整體包含頂部和側(cè)面各1 000 張圖像,對應(yīng)每個種類200 張圖像,其中140 張作為訓(xùn)練數(shù)據(jù),60張作為測試數(shù)據(jù)。圖像原始尺寸為2048×2048。為了驗證網(wǎng)絡(luò)模型的泛化性能,在實驗數(shù)據(jù)集中,補充添加了不均勻光照圖像,每類100 張,其中70張作為訓(xùn)練數(shù)據(jù),30 張作為測試數(shù)據(jù)。以頂部圖像為例,其數(shù)據(jù)集規(guī)模見表1,零件側(cè)面圖像數(shù)據(jù)集的組成,與表1 一致。

表1 主軸承蓋零件頂部圖像數(shù)據(jù)集 Table 1 Top image dataset of main bearing cap parts

為了緩解零件細粒度分類存在的過擬合問題,對原始圖像數(shù)據(jù)集進行增強處理[16]。數(shù)據(jù)增強處理包括:隨機截取、旋轉(zhuǎn)變換和平移變換,其操作以 原始圖像中心大小1200×1200 區(qū)域為基準,隨機截取5 張包含該區(qū)域且尺寸為1800×1800 的圖像,對其中的任意2 張圖像執(zhí)行鏡像操作,將得到的5 張圖像進行隨機的90°,180°或270°旋轉(zhuǎn),保留旋轉(zhuǎn)前后共計10 張圖像,綜上,每張原始圖像,經(jīng)過數(shù)據(jù)增強處理,擴展為10 張訓(xùn)練圖像。

更大的訓(xùn)練數(shù)據(jù)量,利于網(wǎng)絡(luò)參數(shù)的優(yōu)化調(diào)整,增加訓(xùn)練數(shù)據(jù)的復(fù)雜度,可以避免模型學(xué)習(xí)不相關(guān)的特征。同時,在訓(xùn)練集中增加光照不均勻的圖像樣本數(shù)據(jù),作為訓(xùn)練集的難例(Hard Example)樣本,增強MFF-CNN 對于光照不均因素的魯棒性。相關(guān)的圖像樣本數(shù)據(jù)示例如圖4 所示。實驗數(shù)據(jù)集圖像的拼接操作和數(shù)據(jù)增強操作,是基于3.4.0 版本的OpenCV 庫,在CNN模型訓(xùn)練流程之外完成。

圖4 圖像樣本增強處理示例((a)原圖;(b)截??;(c)旋轉(zhuǎn);(d)鏡像;(e)不均勻光照) Fig.4 Image sample enhancement processing example ((a) Original image;(b) Crop;(c) Rotation;(d) Mirror;(e) Uneven light)

在MFF-CNN方法中,需要對圖像進行拼接處理,用其側(cè)面和頂部2 張圖像,合成待識別零件的初始圖像數(shù)據(jù),如圖5 所示,該拼接圖像作為MFF-CNN 的輸入,以此解決零件特征分布于不同空間位置的問題。

圖5 使用圖像拼接方法描述主軸承蓋零件 Fig.5 Use image stitching to describe main bearing cap parts

3 發(fā)動機主軸承蓋識別神經(jīng)網(wǎng)絡(luò)

3.1 MFF-CNN模型的網(wǎng)絡(luò)結(jié)構(gòu)

MFF-CNN 的基礎(chǔ)結(jié)構(gòu)是深層CNN,與文獻[5]提出的特征提取方法相比,CNN 可以從圖像中自動學(xué)習(xí)特征表達,具備強大的特征提取能力。

考慮發(fā)動機主軸承蓋零件分類特征的空間分布,設(shè)計MFF-CNN,如圖6 所示,該網(wǎng)絡(luò)使用2個子網(wǎng)絡(luò)分別提取特征:SideNet 網(wǎng)絡(luò)提取主軸承蓋側(cè)面特征,TopNet 網(wǎng)絡(luò)提取主軸承蓋頂部特征。融合上述2 個子網(wǎng)絡(luò)學(xué)習(xí)到的特征,作為最終的主軸承蓋分類依據(jù)。

圖6 多分支特征融合卷積神經(jīng)網(wǎng)絡(luò)MFF-CNN 結(jié)構(gòu)圖 Fig.6 Structure diagram of multi-branch feature fusion convolutional neural network

MFF-CNN 基于密集連接型卷積神經(jīng)網(wǎng)絡(luò)DenseNet[17]設(shè)計,其網(wǎng)絡(luò)模型的具體參數(shù),見表2,網(wǎng)絡(luò)整體由卷積層(convolution)、最大池化層(max pooling)和密集連接型CNN模塊Dense Block 組成,輸入的圖像尺寸為512×256,最終的聚合特征尺寸為1×1×120。密集連接單元Dense Block,由卷積核尺寸為1×1 的卷積層和3×3 的卷積層交替連接組成,每個卷積層后均添加Dropout 操作。在同一個模塊中,所有卷積層輸出的特征圖具有相同大小,并按照通道相連,每個卷積層都將之前所有層的特征信息作為附加輸入,實現(xiàn)完全的特征共享。1×1卷積的主要作用是為了控制網(wǎng)絡(luò)寬度,其卷積核的數(shù)量固定為4k,避免了由于特征共享導(dǎo)致的特征圖過量累加。同時,3×3 卷積的步長stride=1,填充padding=1,使得輸出特征圖尺寸與1×1 卷積層保持一致。2 個Dense Block 之間,使用1×1 卷積層和最大池化層的組合進行連接,稱為過渡層。在MFF-CNN 中,1×1 卷積將前一個Dense Block模塊的特征圖數(shù)量縮小50%,有效緩解深層網(wǎng)絡(luò)的過擬合和梯度消失等問題。表2 中未明確標出的有:在每個卷積層運算之后,依次執(zhí)行批量歸一化操作,并使用修正線性單元(rectified linear unit,ReLU)對 網(wǎng)絡(luò)參數(shù)添加非線性映射,即構(gòu)成Conv-BN-ReLU的基本運算組合。網(wǎng)絡(luò)層參數(shù)中,參數(shù)k表示基本增長率(growth rate),是影響各層特征圖數(shù)量的全局常量。

表2 多分支特征融合卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)參數(shù)表 Table 2 Structure parameter table of multi-branch feature fusion convolutional neural network

在基于神經(jīng)網(wǎng)絡(luò)的圖像識別方法中,為了提取更全面的圖像特征,深度學(xué)習(xí)趨于設(shè)計更深、更寬的網(wǎng)絡(luò)結(jié)構(gòu),隨之而來的是梯度消失、模型退化問題愈加明顯。針對這些問題,學(xué)術(shù)界已經(jīng)提出多種解決方案,如深度殘差網(wǎng)絡(luò)ResNet[18]、隨機深度網(wǎng)絡(luò)(stochastic depth)[19]等。盡管這些算法具有不同的連接方式,網(wǎng)絡(luò)深度也存在差異,但核心思想都在于加強網(wǎng)絡(luò)層級間的特征重用,即使用旁路連接方式,將深層與淺層網(wǎng)絡(luò)相連接,這是構(gòu)建深層神經(jīng)網(wǎng)絡(luò)的有效方式,如圖7 所示。

圖7 ResNet 網(wǎng)絡(luò)與DenseNet 網(wǎng)絡(luò)中的核心連接機制示意圖((a) ResNet 中的Residual Block 結(jié)構(gòu)示意圖;(b) DenseNet 中的Dense Block 結(jié)構(gòu)示意圖) Fig.7 Schematic diagram of the core connection mechanism between ResNet and DenseNet ((a) Structural diagram of Residual Block in ResNet;(b) Structural diagram of Dense Block in DenseNet)

3.2 MFF-CNN 分支網(wǎng)絡(luò)的實現(xiàn)

SideNet 是針對主軸承蓋側(cè)面圖像設(shè)計的淺層CNN,使用淺層網(wǎng)絡(luò)處理側(cè)面較簡單的特征,減小網(wǎng)絡(luò)整體參數(shù)量,提升小樣本數(shù)據(jù)下的模型準確率。SideNet 共有18 層,包含2 個Dense Block 單元。在全局平均池化層前,設(shè)置了2 個卷積層和一個最大池化層,分別為1×1、3×3 卷積和3×3 最大池化,作用是:1×1 卷積用于減少第二個Dense Block 單元輸出的特征圖數(shù)量,3×3 卷積和3×3 最大池化依次進行2 次下采樣,將特征圖尺寸由32×32 降至8×8,最后進行全局平均池化,得到1×1×60 的主軸承蓋側(cè)面圖像特征。

TopNet 是針對主軸承蓋頂部圖像設(shè)計的深層CNN,深層網(wǎng)絡(luò)具備更強的學(xué)習(xí)機制,可以有效提取零件頂部的復(fù)雜形狀特征,并提高模型處理頂部光照不均勻問題的能力。TopNet 共有64 層神經(jīng)網(wǎng)絡(luò),包含4 個Dense Block 單元和3 個過渡層,經(jīng)全局平均池化后,得到的零件頂部圖像特征,與SideNet 具有相同尺寸。4 個Dense Block 單元的內(nèi)部網(wǎng)絡(luò)層數(shù)呈遞增狀態(tài),由初始的4 層增至最終的32 層,確保主軸承蓋頂部的分類特征,可以被完整地表達,同時增強了識別系統(tǒng)對光照等因素的魯棒性。

按照通道融合子網(wǎng)絡(luò)SideNet 和TopNet 提取的特征,得到尺寸為1×1×564 的主軸承蓋整體分類依據(jù),MFF-CNN模型同時綜合零件側(cè)面和頂部的圖像特征,進行零件識別分類。

3.3 網(wǎng)絡(luò)訓(xùn)練優(yōu)化方法

MFF-CNN模型結(jié)構(gòu)中使用了多種神經(jīng)網(wǎng)絡(luò)訓(xùn)練優(yōu)化方法,包括:

(1) Dropout。在每個訓(xùn)練批次中,隨機忽略一定比例的特征檢測器,避免模型過度依賴某些局部特征,有效降低過擬合現(xiàn)象,增強MFF-CNN模型的泛化性能;

(2) 批量歸一化。通過批量數(shù)據(jù)歸一化方式,使得單個批次的訓(xùn)練中,每一層神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)保持相同分布,符合獨立同分布假設(shè)[14]。批量歸一化將圖像白化的思想延伸至神經(jīng)網(wǎng)絡(luò)的中間層,避免網(wǎng)絡(luò)內(nèi)部輸入分布出現(xiàn)較大差異,有效緩解了反向傳播中的梯度消失問題,加速了網(wǎng)絡(luò)模型的收斂。MFF-CNN模型的所有卷積層都配合使用了批量歸一化操作;

(3) 全局平均池化。使用平均池化的方式實現(xiàn)了降維,將最后一層卷積特征圖,直接轉(zhuǎn)化為最終類別參數(shù),替換了經(jīng)典CNN 結(jié)構(gòu)中的全連接層,等同于對整個網(wǎng)絡(luò)結(jié)構(gòu)進行了正則化。實際應(yīng)用中,使用全局平均池化方法,使得全連接模塊降低了6.25%的參數(shù)量,進一步增強了模型的抗過擬合性能。

4 實驗分析

4.1 MFF-CNN 主軸承蓋識別算法的實現(xiàn)

神經(jīng)網(wǎng)絡(luò)模型運行實驗平臺的硬件組成如下:操作系統(tǒng)為Windows 10;CPU 為Intel Core i7-8700k;顯卡為Nvidia GTX 1050Ti,4 GB 顯存。實驗中,所有CNN模型均基于Python 語言編寫,在Google開源框架Tensorflow 中實現(xiàn)。其他軟件支持包括:Python 3 集成開發(fā)環(huán)境PyCharm;Nvidia GPU 運算平臺CUDA 8.0,神經(jīng)網(wǎng)絡(luò)可視化工具TensorBoard等。MFF-CNN 識別算法的偽代碼見算法1。

算法1.MFF-CNN 主軸承蓋零件識別算法。

輸入:訓(xùn)練集圖像數(shù)據(jù)。

輸出:網(wǎng)絡(luò)模型參數(shù)。

4.2 MFF-CNN模型實驗結(jié)果與分析

為了驗證MFF-CNN模型對主軸承蓋零件的識別性能,引入2 個經(jīng)典網(wǎng)絡(luò)模型ResNet 和DenseNet作為對照組。實驗中,ResNet 使用深度為50 層和101 層2 種網(wǎng)絡(luò)結(jié)構(gòu),DenseNet 使用深度為121 層的網(wǎng)絡(luò)結(jié)構(gòu)。實驗中的所有網(wǎng)絡(luò)模型,均采用相同的訓(xùn)練優(yōu)化方法和超參數(shù)設(shè)置:訓(xùn)練批量batch_size=32,Dropout 正則化參數(shù)λ=0.2,訓(xùn)練迭代數(shù)epoch=300,DenseNet 網(wǎng)絡(luò)的基本增長率k=24;學(xué)習(xí)率采用階段性衰減策略,初始學(xué)習(xí)率η=0.001,衰減系數(shù)為0.5,每30 次迭代更新一次學(xué)習(xí)率,訓(xùn)練優(yōu)化方法使用小批量Adam 梯度優(yōu)化算法,基于訓(xùn)練批量更新網(wǎng)絡(luò)權(quán)重參數(shù),設(shè)定動量參數(shù)momentum=0.9。詳細的超參數(shù)見表3。

表3 神經(jīng)網(wǎng)絡(luò)超參數(shù)的設(shè)置 Table 3 Neural network hyperparameter settings

ResNet 和DenseNet 以及MFF-CNN 的識別結(jié)果見表4。其中,模型計算量通過浮點運算數(shù)(floating point operations,FLOPs)表示,是網(wǎng)絡(luò)模型“時間復(fù)雜度”的衡量標準,具體表現(xiàn)為網(wǎng)絡(luò)訓(xùn)練和預(yù)測的時間消耗,計算量越大的網(wǎng)絡(luò),訓(xùn)練和預(yù)測的時間消耗越大,模型優(yōu)化難度隨之增大,預(yù)測實時性隨之降低。模型參數(shù)量是指網(wǎng)絡(luò)的整個訓(xùn)練過程,需要學(xué)習(xí)的未知參數(shù)總數(shù),是網(wǎng)絡(luò)模型“空間復(fù)雜度”的衡量標準,具體表現(xiàn)為神經(jīng)網(wǎng)絡(luò)模型的過擬合抗性,參數(shù)量越高的網(wǎng)絡(luò)模型,越容易導(dǎo)致過擬合,從而導(dǎo)致模型的最終識別率降低。

表4 各個卷積神經(jīng)網(wǎng)絡(luò)方法的識別結(jié)果 Table 4 The recognition results of each convolutional neural network method

從表4 的實驗結(jié)果中可以看出:

(1) 101 層的ResNet 網(wǎng)絡(luò)較50 層網(wǎng)絡(luò),識別準確率由82.0%提升至84.0%,這是由于深層神經(jīng)網(wǎng)絡(luò)具有更強的特征表達能力;

(2) 與ResNet-101 近似深度的DenseNet-121 網(wǎng)絡(luò),準確率為88.4%,是因為密集連接型CNN 結(jié)構(gòu)參數(shù)量少,具有更強的過擬合抗性;

(3) MFF-CNN模型的識別準確率為91.6%,是對比實驗中的最優(yōu)結(jié)果,表明多分支結(jié)構(gòu)設(shè)計,能夠針對性地提取主軸承蓋不同方位的特征,特征提取效率更高,同時MFF-CNN 中密集連接的網(wǎng)絡(luò)結(jié)構(gòu),可以實現(xiàn)高效的特征重用,顯著降低模型參數(shù)量,由18 層和64 層組成的多分支網(wǎng)絡(luò),其整體參數(shù)量甚至僅為 ResNet-50 網(wǎng)絡(luò)的 6.25%,使得MFF-CNN 在少樣本情況下,可以保持較高的過擬合抗性。

模型準確率曲線和損失函數(shù)曲線如圖8 所示,是神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程動態(tài)分析的重要依據(jù)。圖8(a)是4 種卷積網(wǎng)絡(luò)的識別準確率曲線,從圖中可以看出:針對主軸承蓋圖像樣本,殘差網(wǎng)絡(luò)的最終識別準確率,低于密集連接型網(wǎng)絡(luò)結(jié)構(gòu)。在整體訓(xùn)練過程中,MFF-CNN 網(wǎng)絡(luò)的識別準確率曲線分布于最上層,準確率最高,其次是DenseNet-121,最下層是ResNet-101 和ResNet-50 網(wǎng)絡(luò),這表明在相同迭代周期內(nèi),密集連接型網(wǎng)絡(luò)較殘差網(wǎng)絡(luò)的識別準確率更高,訓(xùn)練速率更快,驗證了本文識別算法的設(shè)計思路。圖8(b)是模型訓(xùn)練的損失函數(shù)曲線,從中可以看出,MFF-CNN 網(wǎng)絡(luò)的損失函數(shù)曲線分布于最下層,數(shù)值下降速率更快,且最終收斂于更小的損失值,即表明該網(wǎng)絡(luò)在訓(xùn)練過程中的誤差更小,特征描述更精確,其原因在于MFF-CNN 采用多分支結(jié)構(gòu),增強了主軸承蓋零件的特征表達。應(yīng)當說明的是,盡管訓(xùn)練過程振蕩起伏不斷,但整體訓(xùn)練趨勢穩(wěn)定,隨著訓(xùn)練過程的迭代,網(wǎng)絡(luò)通過BN 等正則化方法,逐漸修正錯誤權(quán)重參數(shù),模型最終趨于穩(wěn)定。

圖8 ResNet,DenseNet 以及MFF-CNN 識別準確率曲線和損失函數(shù)曲線((a)模型測試集識別準確率曲線;(b)模型測試集損失函數(shù)曲線) Fig.8 ResNet,DenseNet and MFF-CNN recognition accuracy curve and loss function curve ((a) Model test set recognition accuracy curve;(b) Model test set loss function curve)

4.3 MFF-CNN 與特征提取方法的對比分析

文獻[5]提出基于特征提取的SIFT-SVM主軸承蓋識別算法,在正常光照條件下,具有良好的零件識別性能,但對處于不均勻光照環(huán)境中的零件,其識別穩(wěn)定性較差。本文提出基于深度學(xué)習(xí)的MFF-CNN 識別算法,使用深層CNN,代替SIFT特征提取方法,同時結(jié)合特征融合思想,設(shè)計分支網(wǎng)絡(luò),分別獲取零件2 個視角的特征表達,針對文獻[5]方法的不足做出改進。設(shè)置對比實驗,分析MFF-CNN方法在不均勻光照條件下的具體表現(xiàn)。

SIFT-SVM 的輸入數(shù)據(jù)是零件頂部圖像,而MFF-CNN 算法的輸入數(shù)據(jù),是零件頂部和側(cè)面2 個角度的拼接圖像,因此,為了可以在相同數(shù)據(jù)集上進行對比分析實驗,將MFF-CNN 分割為2種網(wǎng)絡(luò),一種是原始型,使用拼接圖像作為輸入;另一種僅保留其TopNet 子網(wǎng)絡(luò),記為MFF-CNN (TopNet),使用零件頂部圖像作為輸入?;A(chǔ)數(shù)據(jù)集采用正常光照圖像與不均勻光照圖像的組合。實驗結(jié)果見表5。

表5 2種識別算法在不均勻光照條件下的實驗結(jié)果 Table 5 The recognition results of each convolutional neural network method

由表5 分析可知:

(1) 不均勻光照條件下,對比分析SIFT-SVM和MFF-CNN(TopNet)方法的實驗結(jié)果,基于深度學(xué)習(xí)的識別方法在穩(wěn)定性方面顯著提升,將不均勻光照樣本的準確率由38.7%提升至86.7%。而基于特征提取的SIFT-SVM方法,幾乎無法有效識別不均勻光照的零件,制約了基于特征提取識別方法的應(yīng)用場景;

(2) 綜合比較所有組實驗結(jié)果,MFF-CNN方法既保持了識別網(wǎng)絡(luò)的光照穩(wěn)定性,又通過聯(lián)合零件側(cè)面特征的方式,提升了模型識別準確率。在包含不均勻光照圖像數(shù)據(jù)集上,識別準確率為91.6%,對不均勻光照樣本具有90%的識別準確率,識別準確率相對較高,同時又兼顧穩(wěn)定性的識別方法。

實驗結(jié)果表明,MFF-CNN 算法有效地修正了文獻[5]特征提取方法穩(wěn)定性差的缺點,但由于研究收集的零件圖像數(shù)量有限,一定程度上限制了MFF-CNN 網(wǎng)絡(luò)模型的訓(xùn)練與優(yōu)化,是算法進一步改進的方向。

5 結(jié) 論

針對汽車發(fā)動機主軸承蓋零件自動分類問題進行研究,提出了MFF-CNN,增強識別算法對不均勻光照影響因素的穩(wěn)定性。MFF-CNN 使用2 個子網(wǎng)絡(luò),分別提取零件側(cè)面和頂部特征,有效整合零件多方位的形狀特征,增強特征提取效率。模型整體基于密集連接型卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計,結(jié)構(gòu)緊湊,特征重用率高,網(wǎng)絡(luò)參數(shù)量少。實驗結(jié)果表明,在同一實驗數(shù)據(jù)集上,MFF-CNN的識別準確率為91.6%,優(yōu)于經(jīng)典CNN,并針對SIFT-SVM 識別方法光照穩(wěn)定性較差的問題,做出有效改善。在僅有較少樣本量,且包含不均勻光照等復(fù)雜樣本條件下,研究從主軸承蓋零件實際特征出發(fā),綜合考慮了零件的圖像表達和特征提取2 個方面,對其他種類的機械零件細粒度分類問題具有參考意義。

猜你喜歡
軸承準確率卷積
軸承知識
軸承知識
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
軸承知識
軸承知識
乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
頸椎病患者使用X線平片和CT影像診斷的臨床準確率比照觀察
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計