王雨薇,陳 果,何 超,郝騰飛,馬佳麗
(1. 南京航空航天大學 民航學院,江蘇 南京 210016;2. 南京航空航天大學 通用航空與飛行學院,江蘇 常州 213300;3. 南京工程學院 汽車與軌道交通學院,江蘇 南京 211167)
航空發(fā)動機各部件在運行過程中通過相互作用產生摩擦,嚴重時會造成磨損. 磨損產生的顆粒往往攜帶關于磨損程度與磨損機理的有用信息. 因此,磨損顆粒分析是航空發(fā)動機磨損狀態(tài)監(jiān)測和失效診斷中1種十分有效的手段.
早期磨粒分析技術[1-3]基于分割后的磨粒圖像提取特征,依據(jù)傳統(tǒng)模式識別方法確定磨粒類型,不僅耗時且處理過程復雜,分析結果帶有一定的主觀偏差.近年來,隨著深度學習的興起,圖像識別領域獲得迅猛發(fā)展. 將深度學習技術引入磨粒圖像識別,使得磨粒特征自動提取變得可能. Wang等[4]提出融合按誤差反向傳播訓練的多層前饋神經(jīng)網(wǎng)絡(Back propagation,BP)與卷積神經(jīng)網(wǎng)絡的兩級分類模型,對鐵譜分析得到的疲勞磨粒與嚴重滑動磨粒的表面細節(jié)進行像素級分析,大幅提高了這兩類磨粒的識別精度. Peng等[5]利用遷移學習與支持向量機提出1種混合卷積神經(jīng)網(wǎng)絡,識別性能良好,為鐵譜磨粒圖像分析提供了新技術手段. Fan等[6]針對樣本相似性設計出虛擬鐵譜磨粒圖像,結合遷移學習與卷積神經(jīng)網(wǎng)絡提出1種磨粒圖像智能識別方法,有效解決訓練集小樣本量問題.Zhang等[7]提出1個基于類中心向量和距離對比的新模型,該模型不僅能夠識別訓練集中出現(xiàn)過的磨粒類別,也能夠識別訓練集中未出現(xiàn)過的磨粒新類別而無需重構和再訓練,真正實現(xiàn)模型泛化. Fan等[8]通過融合傳統(tǒng)人工特征提取法和卷積神經(jīng)網(wǎng)絡自動特征提取法提取到的特征構建分類器,提出1個名為FFWR-Net的新型磨粒識別網(wǎng)絡,使得所提取到的特征更具代表性和全面性,提高了分類精度. 趙春華等[9]考慮到設備實際有效故障數(shù)據(jù)缺乏和數(shù)據(jù)標記丟失的特點,優(yōu)化損失函數(shù),基于遷移學習提出1種新的卷積神經(jīng)網(wǎng)絡集成模型,選用支持向量機作為分類器,試驗結果表明,該模型特征表達能力強,識別效果好.
上述研究從不同角度為設備磨損狀態(tài)檢測提供了新技術,大大推動了磨粒智能識別的發(fā)展,但是其中大多數(shù)模型不具備目標檢測能力,本質上只是1種“圖像分類器”[10]. 因此,本文中針對航空發(fā)動機掃描電鏡磨粒圖像提出1種基于改進YOLOv4的目標檢測算法,以期從具有復雜背景的磨粒圖像中自動提取目標顆粒并加以識別,克服了傳統(tǒng)識別方法在面對多磨粒圖像時需要事先進行圖像分割所造成的識別誤差,新算法采用VoVNetv2[11]替換YOLOv4中原主干特征提取網(wǎng)絡CSPDarknet53,并引入BiFPN[12]加權雙向特征金字塔結構與新主干特征提取網(wǎng)絡相連,以增進多層次特征融合,豐富各級特征圖的語義信息,同時調整模型中所有3×3普通卷積為深度可分離卷積,大幅降低網(wǎng)絡的參數(shù)數(shù)量和運算成本.
現(xiàn)有的磨損顆粒圖像分析技術中,鐵譜技術常用于磨損顆粒的定性和定量分析,但是鐵譜樣本制備過程復雜耗時,磨粒圖像質量較難控制,相比之下,掃描電鏡磨粒圖像則更為清晰,允許微米級視野范圍內的有效觀察,并能夠產生三維立體圖像用于分析微觀形貌特征. 掃描電鏡磨粒圖像是掃描電子顯微鏡(Scanning electron microscope,SEM)利用高能聚焦電子束在油樣表面逐點掃描成像得到,掃描電鏡磨粒分析法是通過電子與物質相互作用產生的信號對油樣中磨粒成分、形貌及結構等進行觀察與分析. 掃描電鏡主要由電子光學系統(tǒng)、信號探測系統(tǒng)和真空系統(tǒng)3部分組成,常與進行材料微區(qū)成分元素種類與含量分析的能譜儀組成密不可分的整體[13],應用到前沿科學研究.目前,掃描電鏡已廣泛應用于航空發(fā)動機磨粒分析領域,通過磨粒識別結果反推磨粒產生原因與進行磨損機理表征,獲知設備處于正?;虍惓Dp狀態(tài),成為了1種重要檢測手段[14]. 本文中以提升掃描電鏡磨粒圖像自動化以及智能化分析水平為研究目的,進一步拓展了掃描電鏡技術的應用領域,提升其故障診斷的精度和效率.
最后本文中應用實際航空發(fā)動機掃描電鏡磨粒圖像進行驗證,證明新算法可以在高效率與高精度之間達到平衡.
新興深度學習方法已開始應用于圖像目標檢測,其發(fā)展可分為以R-CNN (Regions with CNN features)家族為代表的兩階段(Two-Stage)目標檢測算法[15-18]和以YOLO (You only look once)及其衍生算法為代表的單階段(One-Stage)目標檢測算法[19-22]. Two-Stage目標檢測算法第1階段主要是尋找目標位置并得到候選區(qū)域,第2階段才聚焦于分類候選區(qū)域并得到1個更加準確的目標位置,“兩步走”戰(zhàn)略雖然檢測精度高,但也導致算法模型大,占用資源多,檢測速度慢,不滿足實時要求. One-Stage目標檢測算法中YOLO僅通過1個主干網(wǎng)絡中便實現(xiàn)候選框定位、特征提取和目標分類等功能,極大地降低模型大小,加快檢測速度. 隨后的衍生算法不斷改進,進一步提高檢測速度與精度. 其中,YOLOv4具有更優(yōu)的檢測性能和更快的檢測速度,基本能夠滿足終端設備性能和速度要求,更適合應用到終端中.
根據(jù)掃描電鏡圖像中磨粒的形狀、尺寸和紋理等特征可以確定磨粒類型,不同的磨粒類型可以代表設備不同的磨損機理,因此,本文中采用One-Stage目標檢測方法進行掃描電鏡磨粒圖像目標提取和識別,對YOLOv4網(wǎng)絡進行改進,深度強化其特征提取能力,使得模型在訓練過程中不斷自主學習磨粒尺寸和形貌等特征參數(shù),在滿足足夠精度前提下,實現(xiàn)磨粒圖像的快速智能識別.
用于圖像目標檢測的改進YOLOv4網(wǎng)絡結構如圖1所示,包含3個部分,第1部分為替換掉CSPDarknet53的新主干特征提取網(wǎng)絡VoVNetv2-39,對輸入尺寸是416×416×3的掃描電鏡磨粒圖像進行初步特征提取,通過卷積、合并和相加等操作獲得3個初步的有效特征層;第2部分為加強特征提取網(wǎng)絡SPP和BiFPN,第1個特征層在經(jīng)過OSA module Stage3與1次卷積塊后傳入BiFPN,第2 個特征層在經(jīng)過OSA module Stage4與1次卷積塊后傳入BiFPN,第3個特征層在經(jīng)過OSA module Stage5與3次卷積塊后,傳入空間池化金字塔(Spatial pyramid pooling,SPP)[23],SPP利用13×13、9×9、5×5和1×1等4個不同尺度的池化核進行最大池化處理再合并,合并后的結果傳入BiFPN,BiFPN不僅能夠完成自上而下的特征提取,還能夠實現(xiàn)自下而上、不同分辨率特征的加權融合,同時增加了同層級輸入、輸出之間的橫向連接,豐富了特征圖的語義信息,該部分實現(xiàn)對3個初步有效特征層的特征融合,提取更有效特征;第3部分為預測網(wǎng)絡YOLO Head,將特征圖劃分為3種不同數(shù)量的網(wǎng)格,分別為52×52、26×26和13×13,每個網(wǎng)格上生成不同尺寸的先驗框,通過先驗框預測掃描電鏡圖像中磨粒的類別、置信度與坐標,輸出預測結果. 其中,網(wǎng)絡中所有的3×3普通卷積均調整為深度可分離卷積,用于打造輕量級網(wǎng)絡.
Fig. 1 Improved YOLOv4 network structure圖 1 改進YOLOv4網(wǎng)絡結構
Fig. 2 Dense block structure圖 2 Dense模塊結構
1.2.1 基于VoVNet的主干特征提取網(wǎng)絡
(1) OSA模塊
密集卷積網(wǎng)絡(Dense convolutional network,DenseNet)[24]保存并積累具有不同感受野的特征圖,區(qū)別于每層之間僅1個連接的傳統(tǒng)L層卷積網(wǎng)絡,DenseNet中共有L(L+1)/2個直接連接. DenseNet核心即Dense模塊結構如圖2所示,其中的每一層都聚合前面所有層的特征. 因此,DenseNet在目標檢測方面具備更多的特征表示.
但是DenseNet過重的密集連接導致中間層特征的重復學習,最終造成特征冗余. Lee等[25]以此為優(yōu)化方向,在Dense模塊基礎上提出了一次性聚合(One-shot aggregation,OSA)模塊,只在最后的特征映射中一次聚合前面所有特征,如圖3所示. 基于OSA模塊搭建骨干網(wǎng)絡VoVNet,以包含較多OSA模塊的VoVNet-39網(wǎng)絡為例,輸入尺寸為416×416×3的圖像,VoVNet-39網(wǎng)絡詳細結構及對應各模塊輸出列于表1中. 不難發(fā)現(xiàn),VoVNet-39由包含3個卷積層的1階段Stem模塊和4階段OSA模塊組成,每個階段通過步長為2的3×3最大池化層下采樣連接. VoVNet-39在第2、第3階段分別部署1個OSA模塊,在第4、第5階段分別部署2個OSA模塊,每個OSA模塊中都含有5個3×3卷積和1個1×1卷積. 利用OSA模塊解決密集連接引起的輸入通道數(shù)量線性增加問題,基于OSA模塊構建的VoVNet網(wǎng)絡不僅充分保留了DenseNet的多樣化特征表示優(yōu)勢,還降低了內存訪問成本,使GPU計算更高效.
Fig. 3 OSA module structure圖 3 OSA模塊結構
(2) 改進OSA模塊
改進OSA模塊直接將輸入加到輸出上,形成恒等映射,保障梯度和方向傳播不受干擾,進而擁有更深的網(wǎng)絡深度;同時在最后的特征層中引入有效壓縮和機理(effective Squeeze-Excitation,eSE)模塊增強特征,原SE模塊包含兩個全連接層和1個Sigmoid函數(shù),以重新調整輸入特征圖并突出有用通道,但也會導致通道信息丟失,eSE模塊僅使用1個全連接層,維護通道信息,提高網(wǎng)絡性能.
eSE模塊定義為
式中: σ為Sigmoid激活函數(shù);Xdiv∈RC×W×H是改進OSA模塊中1×1卷積計算得到的多樣化特征圖(C×W×H為輸入eSE模塊的特征大小);Favg代表全局平均池化;Wc代表全連接; ?代表元素相乘;最后,Xdiv通過殘差連接添加到精細化特征圖Xrefine中. 改進OSA模塊結構如圖4所示,VoVNetv2-39網(wǎng)絡即在原VoVNet-39網(wǎng)絡結構基礎上改進OSA模塊得到.
1.2.2 基于BiFPN的加強特征提取網(wǎng)絡
特征金字塔網(wǎng)絡(Feature Pyramid Network,F(xiàn)PN)[26]是識別不同尺寸目標的基本組成部分,但其傳統(tǒng)的自上而下結構不可避免會受到單向信息流限制. 為了解決這個問題,YOLOv4中采用的路徑聚合網(wǎng)絡(Path Aggregation Network,PANet)[27]增加了1條自下而上的聚合路徑,精度更高,但也導致參數(shù)量和計算量加大.因此,本文中選用的雙向特征金字塔網(wǎng)絡(Bidirectional Feature Pyramid Network,BiFPN)在PANet結構基礎上,首先刪去了只有1條輸入邊的節(jié)點,因為這些節(jié)點對融合不同特征的特征網(wǎng)絡貢獻較小,以此產生了1個簡化的雙向網(wǎng)絡;其次在屬于同一層級的輸入、輸出節(jié)點間增加橫向連接,從而能夠在不增加成本的情況下融合更多特征;最后利用快速規(guī)范化融合為不同分辨率的特征增加權重,而不是統(tǒng)一調整到相同分辨率再相加,打破重要性平衡,讓網(wǎng)絡能夠學習到不同分辨率的特征. BiFPN結構如圖5所示.
表 1 VoVNet-39網(wǎng)絡詳細結構及對應各模塊輸出Table 1 Detailed structure of VoVNet-39 and outputs of corresponding modules
1.2.3 基于深度可分離卷積的網(wǎng)絡參數(shù)簡化
普通卷積利用權重矩陣實現(xiàn)通道維和空間維的聯(lián)合映射,代價是高計算復雜度、高內存開銷和大量權重系數(shù). Kaiser等[28]提出的深度可分離卷積(Depthwise Separable Convolutions,DConv)實施“兩步走”戰(zhàn)略,分別對通道維和空間維上的特征進行映射并將結果組合,保留普通卷積表征學習能力的同時,減少參數(shù)數(shù)量,提高運算效率. 深度可分離卷積操作如圖6所示.
Fig. 4 Improved OSA module structure圖 4 改進OSA模塊結構
Fig. 5 BiFPN structure圖 5 BiFPN結構
(1)逐通道卷積(Depthwise Convolution,DWConv)
假設輸入圖像尺寸為DF×DF×M(DF為輸入圖像的長和寬,M為輸入圖像的通道數(shù)),輸出通道數(shù)為N,DWConv為每個通道分配1個卷積核,在二維平面內進行卷積運算,生成M個特征圖. 由于對每個通道進行獨立卷積運算,未能有效利用不同通道在相同空間位置上的特征信息,且生成的特征圖數(shù)量因與輸入圖像通道數(shù)相同無法進行擴展,所以需要PWConv對DWConv得到的特征圖進行組合.
(2)逐點卷積(Pointwise Convolution,PWConv)
PWConv運算與普通卷積運算十分相似,其卷積核尺寸為1×1×M×N,對DWConv得到的特征圖進行深度方向上加權,得到擴展后的特征圖.
下一節(jié)將介紹在遷移學習基礎上利用改進YOLOv4網(wǎng)絡實現(xiàn)的磨粒識別試驗,以證實本文中所提出的新型模型更符合工業(yè)中實時、簡潔的目標檢測需求.
掃描電鏡磨粒識別流程如圖7所示. 首先,選擇具有典型磨損特征的掃描電鏡磨粒圖片,采用圖片數(shù)據(jù)增強法進行數(shù)據(jù)集擴充,并劃分訓練集、驗證集和測試集,形成自建的掃描電鏡磨粒圖像集;其次,統(tǒng)一所有圖片尺寸為416×416×3,輸入改進YOLOv4網(wǎng)絡,根據(jù)遷移學習思想利用IamgeNet數(shù)據(jù)集對新模型進行預訓練,獲取模型初始化權重和偏差;接著,設置訓練參數(shù),利用自建的掃描電鏡磨粒圖像集開始凍結訓練,僅微調網(wǎng)絡部分參數(shù),凍結訓練結束開始解凍訓練,模型權重和偏差得以更新;最后,模型驗證與測試,比較輸出的mAP值并得到最優(yōu)模型與識別結果.
Fig. 6 Depthwise separable convolution operation圖 6 深度可分離卷積操作
Fig. 7 The process of wear particle intelligent recognition圖 7 磨粒智能識別流程
2.2.1 圖像數(shù)據(jù)預處理
將分析航空發(fā)動機掃描電鏡磨粒圖像問題看作是1個基于圖像的目標檢測問題. 本文中主要進行常見類型的異常磨粒識別研究,通過以往總結得到的專家經(jīng)驗,依據(jù)不同磨粒對應的不同典型特征,人工從中國航發(fā)商用發(fā)動機公司滑油系統(tǒng)中選取684張掃描電鏡磨粒圖片,包含制造屑、摩擦屑和疲勞磨損屑3種,采用旋轉、縮放、隨機剪切、亮度調整和噪聲添加等圖像數(shù)據(jù)增強方法,將1張圖片拓展成5張,形成了含有3 420張圖片的磨粒圖像集,并按訓練集:驗證集:測試集=6:2:2的比例劃分. 其中,旋轉以圖像中心為旋轉中心進行隨機角度旋轉;縮放按照一定比例縮小或放大圖像;隨機剪切是隨機定義感興趣區(qū)域進行截取并調整為原始圖像尺寸;亮度調整為更改圖像亮度;噪聲添加則是在原始圖片基礎上隨機疊加噪聲,一定程度上影響像素平滑. 上述操作都是用于獲得更多形態(tài)的圖像數(shù)據(jù),并不破壞原圖像中的磨粒典型特征. 對應磨粒圖像及其特征總結列于表2中.
2.2.2 基于ImageNet數(shù)據(jù)集的網(wǎng)絡預訓練
由于掃描電鏡磨粒圖像數(shù)量有限,即使是擴充后的磨粒圖像集也不足以用來訓練深度學習模型. 本文作者利用遷移學習來初始化模型權重,以減少對樣本數(shù)量的依賴.
遷移學習旨在遷移現(xiàn)有知識去解決僅含有少量標簽樣本的目標領域學習問題. 基本原理是利用大規(guī)模圖像集(本文中選用包含有120萬個樣本的ImageNet圖像集)訓練模型,獲得模型的初始權重和偏差,然后通過掃描電鏡磨粒圖像集重復訓練該模型以更新權重和偏差.
2.2.3 基于磨粒圖像數(shù)據(jù)集的網(wǎng)絡訓練
本文中在遷移學習基礎上,引入了凍結訓練的思想,在利用磨粒圖像重訓練模型階段,考慮到所有目標檢測模型,其神經(jīng)網(wǎng)絡主干部分提取到的特征是通用的,將主干凍結起來訓練可以加快訓練效率,所以對于含有800輪次的模型總訓練周期,設前25%為凍結階段,特征提取網(wǎng)絡不發(fā)生改變,占用顯存較小,僅對網(wǎng)絡進行微調;后75%為解凍階段,特征提取網(wǎng)絡發(fā)生改變,占用顯存較大,網(wǎng)絡所有參數(shù)均受影響.
2.2.4 損失函數(shù)
本文中選用的損失函數(shù)loss由3部分組成,分別為坐標損失losscoord,置信度損失lossconf和類別損失lossclass.
式中:
從公式3中可以看出,坐標損失采用的是CIOU,s2為網(wǎng)格數(shù)量;B為事先設定的先驗框數(shù)量;若第i個網(wǎng)格的第j個先驗框中有目標,則為1,反之則為0;IOU為預測框和真實框的交并比;b和bgt分別為預測框和真實框的中心位置; ρ(b,bgt)為兩個中心位置的歐幾里得距離;c代表能夠同時包含預測框和真實框的最小矩形的對角線長度;wgt和hgt,w和h分別為真實框和預測框的寬與高.
2.2.5 模型評價指標
模型性能評估通常從精度與速度兩個角度出發(fā).
因為磨粒識別本質上也是1種多分類問題,每一類的準確率指標為平均精度(Average precision,AP),不能夠宏觀評價模型精度,所以引入所有類別的平均精度(Mean average precision,mAP).
式中:P(Precision)為準確率,也叫查準率,用于表示某一類別中所有檢測出的正樣本是否實際都為正樣本;R(Recall)為召回率,也叫查全率,用于表示某一類別中所有實際正樣本是否均被檢測出來;TP(True positives)為此類中被正確劃分為正樣本的個數(shù);FP(False positives) 為此類中被錯誤劃分為正樣本的個數(shù);FN(False negatives)為此類中被錯誤劃分為負樣本的個數(shù),即漏檢的正樣本個數(shù);c為類別數(shù). 對于每一類,可以規(guī)定1個置信度閾值(通常是0.5)來判斷是否為正例. 顯然,mAP值越大,模型精度越高.
模型速度評價指標選用FPS (Frames per second),表示畫面每秒傳輸幀數(shù),公式如下:
式中:taverage為平均檢測1張圖片所需的時間. FPS越大,則模型推理速度越快.
本文中根據(jù)中國航發(fā)商用發(fā)動機公司提供的磨粒圖像,采用圖像數(shù)據(jù)增強法擴充小樣本數(shù)據(jù)集,建立包含3類磨損的掃描電鏡磨粒圖像集,并按訓練集:驗證集:測試集=6:2:2的比例劃分,其中訓練集、驗證集和測試集分別含有2 052,684和684個樣本,共計3 420個樣本. 使用數(shù)據(jù)標記軟件labelimg對每張圖片目標區(qū)域進行畫框標記和種類標注.
本文中基于Pytorch-1.2.0深度學習框架,利用Python 3.6編程語言搭建新型目標檢測模型,并在硬件NIVIDA 2080TI上實現(xiàn)模型的訓練與測試. 模型總訓練輪次為800,前200輪次處于凍結階段,學習率設為0.001,訓練批次(batch_size)設為8;后600輪次處于解凍階段,學習率設為0.000 1,訓練批次設為4. 預設9個不同尺寸的先驗框,根據(jù)不同特征層的感受野大小進行分配,具體分配情況列于表3中. 最后預測網(wǎng)絡YOLO Head輸出大小分別為(13,13,24)、(26,26,24)和(52,52,24),如圖1所示,即YOLOv4的3個特征層分別將整個圖像分為13×13、26×26和52×52的網(wǎng)格,每個網(wǎng)格左上角的點負責對該網(wǎng)格區(qū)域的檢測,最后一維24可分解為3×(4+1+3),第1個3代表三類預設框,第2個3代表磨粒類別預測結果,4代表預測框中心與預測框長寬的調整參數(shù),1為判斷該種類的置信度.
表 3 不同尺寸先驗框分配情況Table 3 Distribution of prior frames of different sizes
將模型訓練與驗證過程中損失函數(shù)值的變化過程可視化,如圖8所示. 從圖8中可以看出,前200輪處于凍結階段,初始學習率為0.001,模型預訓練得到的初始權重被保護,僅部分網(wǎng)絡參數(shù)在進行微調,損失函數(shù)值在150輪次左右收斂于3;后600輪次處于解凍階段,初始學習率為0.000 1,訓練過程中如果連續(xù)2個輪次損失值沒有明顯下降,采用學習率變?yōu)樵瓉硪话氲牟呗詫W習率進行衰減,所以凍結階段后50個左右的輪次損失值沒有明顯變化,學習率衰減到0.000 1以下,解凍開始,學習率突然增加,損失值也隨之突然增加,權值更新,損失值再快速下降,到400輪左右損失值收斂于0.1.
Fig. 8 Loss value during model training and validation圖 8 模型訓練與驗證過程中的損失值
圖9 所示為某一疲勞磨粒特征識別過程,3種不同尺寸網(wǎng)格分別輸出3張?zhí)卣鳠崃D,共9張. 第1列特征圖代表置信度(score),突出顯示置信度超過設定閾值的目標對象,但不進行分類;第2列特征圖代表類(class),突出顯示需要判別的類的區(qū)域;第3列特征圖是進行置信度矩陣與類別矩陣的加權,選定的目標對象恰好也是設定的所屬類. 13×13網(wǎng)格感受野較大,主要進行大目標識別,識別出了圖中所有的疲勞屑;26×26網(wǎng)格感受野中等,主要進行一般大小的目標識別,所以只識別出了尺寸較小的2個疲勞磨粒;52×52網(wǎng)格感受野較小,主要進行小目標識別,該圖像中沒有小尺寸磨粒,因此未能識別出4個疲勞磨粒中的任一個.
Fig. 9 Feature recognition process of one fatigue wear particle圖 9 某一疲勞磨粒的特征識別過程
為了證明所提網(wǎng)絡的先進性和有效性,設定原YOLOv4網(wǎng)絡為基線模型,對調整中不同階段的檢測網(wǎng)絡進行消融試驗,測試結果對比列于表4中.
部分磨粒圖像檢測結果如圖10所示,方框框出的為磨損顆粒,方框上同時標有磨粒種類及對應置信度.
從表4可以看出,采用VoVNetv2-39替換CSPDarknet53作為YOLOv4的主干特征提取網(wǎng)絡時,模型mAP值相近,參數(shù)量下降,推理速度提升至34.82/幀. 更改特征金字塔網(wǎng)絡結構為BiFPN時,雖然模型推理速度有所下降,但是檢測精度高于原YOLOv4網(wǎng)絡,說明高效的雙向跨尺度連接能夠充分利用深層與淺層特征優(yōu)勢,增進多層次特征融合,很好地彌補了輕量級網(wǎng)絡替換造成的精度損失. 將網(wǎng)絡中的所有3×3普通卷積均調整為深度可分離卷積時,網(wǎng)絡大小直接由231.1 MB-1降為120.1 MB-1,推理速度相較于YOLOv4提升了51.1%,平均每張圖片的檢測時間節(jié)省了0.011 05 s,從圖10可以看出模型對于重疊磨粒的檢測效果也較好,如圖10(j),(n)和(o)所示,模型已識別出所有堵塞、擁擠的磨屑,有效解決邊界框重疊被抑制的問題,從而減少漏檢的可能性,說明該模型同時還能保持較高精度,符合快速、簡潔和高精度的檢測要求,可應用于工業(yè)實踐中.
本文中主要結論總結如下:
表 4 消融試驗結果Table 4 Ablation experiments’ results
Fig. 10 Parts of wear particle images’ detection results based on YOLOv4-VoVNetv2-39-BiFPN-DConv圖 10 基于YOLOv4-VoVNetv2-39-BiFPN-DConv得到的部分磨粒圖像檢測結果
a. 針對現(xiàn)有磨粒圖像智能識別算法識別精度往往受主觀因素影響很大,且識別過程的自動化和智能化水平很低的問題,提出1種基于改進YOLOv4的目標檢測算法,并應用于航空發(fā)動機掃描電鏡磨粒圖像目標檢測,實現(xiàn)磨粒的自動快速識別.
b. 與原始YOLOv4網(wǎng)絡相比,本文中所提出的新模型在3類磨粒組成的掃描電鏡圖像數(shù)據(jù)集上具有最佳的檢測結果,即,在保證精度的前提下,網(wǎng)絡參數(shù)量得到大幅降低,推理速度提升了51.1%,平均每張圖片的檢測時間節(jié)省了0.011 05s,同時對于重疊磨粒也有很好的檢測效果. 充分表明該模型在精度與速度之間保持了良好的平衡,滿足實際掃描電鏡磨粒圖像快速、簡潔和高精度的檢測需求,具備很好的潛在工程應用價值.