張德銀 陳從翰 黃選紅 徐志強
摘? ?要:為解決機務(wù)人員依靠經(jīng)驗來對民航飛機的表面缺陷進行識別時易發(fā)生誤判的問題,開發(fā)了一種用于民機表面的缺陷識別的結(jié)合Inception-net和殘差模塊的新型深度神經(jīng)網(wǎng)絡(luò)。首先,通過對各機場的在修飛機表面缺陷進行采樣建立數(shù)據(jù)集,手段包括使用圖像處理修復(fù)不合格圖像、使用數(shù)據(jù)增強緩解數(shù)據(jù)類別不平衡、使用立方卷積插值法降采樣保留圖像特征等圖像預(yù)處理操作。然后在自建的數(shù)據(jù)集上對新型深度神經(jīng)網(wǎng)絡(luò)與其他神經(jīng)網(wǎng)絡(luò)進行對比測試。實驗結(jié)果表明,新型神經(jīng)網(wǎng)絡(luò)在較少的參數(shù)下能夠達到最深的網(wǎng)絡(luò)深度,且在自建數(shù)據(jù)集的測試集上的識別率和查全率分別為74.23%和62.29%,優(yōu)于進行對比的其他網(wǎng)絡(luò)。說明在一定程度上該網(wǎng)絡(luò)能夠有效用于民機表面缺陷識別工作中。
關(guān)鍵詞:民航飛機;表面缺陷識別;殘差;Inception-net;深度神經(jīng)網(wǎng)絡(luò)
中圖分類號:TP391.4? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標識碼:A
Investigation of Civil Aviation Aircraft Surface Defects Recognition Based
on Novel Designed Deep Neural Network
ZHANG De-yin,CHEN Cong-han?覮,HUANG Xuan-hong,XU Zhi-qiang
(Aviation Engineering Institute,Civil Aviation Flight University of China,Guanghan,Sichuan 618307,China)
Abstract:A novel designed neural network combining the Inception-net and the residual module is employed to identify surface defects of civil aviation aircraft,in order to solve the problems of that the maintenance crew easy to misjudge surface defects of civil aviation aircraft. Firstly,the data set has been established by sampling surface defects of aircraft from various airlines and overhaul factory. Including the use of image processing methods to repair unqualified images;the use of data enhancement to alleviate the problem of data category imbalance;the use of cubic convolution interpolation to down sample and preserve image features and other operations to image preprocessing data. Secondly,the new designed neural network is compared with other neural networks on self-built data sets. The experimental results show that the new neural network has the deepest network depth with fewer parameters in all tested networks. And the recognition rate and recall rate on the test set are 74.23% and 62.29%,respectively,which is better than other neural networks.It shows that the network can be effectively used for civil aircraft surface defect identification to some extent.
Key words:civil aviation aircraft;surface defect recognition;residual;Inception-net;deep neural network
民航飛機結(jié)構(gòu)由于受到疲勞載荷和腐蝕環(huán)境等因素的作用,因而會產(chǎn)生疲勞、腐蝕等損傷缺陷。對于老齡民航飛機而言,這是一個隨著服役時間增加而不斷發(fā)展和累積的不可逆損傷過程[1]。剛剛服役的民航飛機表面缺陷并不嚴重,但隨著服役時間的增加以及在運期間所處環(huán)境惡劣,飛機受疲勞載荷和腐蝕等因素的影響會越來越嚴重[2]。在飛機服役的中后期,其缺陷損傷會逐漸演化為制約老齡飛機服役的重要因素之一。目前我國對飛機表面缺陷的檢查一直是機務(wù)人員靠肉眼定期檢查和航前、過站及航后檢查相結(jié)合的方式[3]。定期檢查即按照手冊中的疲勞壽命(包括飛行小時、起落數(shù))和日歷壽命兩項指標,以先到者為準[4]。由于我國對于飛機壽命指標與缺陷防護方面的研究起步較晚,技術(shù)基礎(chǔ)比較薄弱,導(dǎo)致相當一部分飛機的檢修時間全憑機務(wù)維修人員經(jīng)驗得出。而航前、過站及航后檢查對于一些明顯的缺陷可以迅速發(fā)現(xiàn),但對于一些不太明顯的缺陷容易遺漏[5]。隨著時間的推移,國內(nèi)大批的在役飛機已經(jīng)過半或者是接近服役年限,每年針對這類飛機表面缺陷識別與維護工作耗費了大量的資金與人力[6],需要尋找更加方便快捷的新型飛機表面缺陷識別技術(shù)應(yīng)對此項挑戰(zhàn)。與基于特征的傳統(tǒng)圖像識別技術(shù)相比,基于深度神經(jīng)網(wǎng)絡(luò)的圖像識別技術(shù),跳出了對圖像單一特征進行提取的固有思維,轉(zhuǎn)而對圖像的整體特征進行提取,在識別精度和可靠性方面優(yōu)于傳統(tǒng)圖像識別技術(shù),因此,基于深度神經(jīng)網(wǎng)絡(luò)的圖像識別技術(shù)可考慮用于飛機表面缺陷圖像識別。研究設(shè)計了一個結(jié)合Inception-net和殘差模塊的新型深度神經(jīng)網(wǎng)絡(luò),命名為New_dnn,用于民航飛機表面缺陷識別。
1? ?飛機表面缺陷分類及預(yù)處理
通過對國內(nèi)民用航空公司在役飛機和飛機大修廠里的在修飛機表面缺陷調(diào)研、收集了大量民機表面缺陷圖像樣本,并對其進行匯總、分類,選取其中具代表性的缺陷圖片作為樣本集,且最終依據(jù)樣本缺陷出現(xiàn)頻繁程度不同,將飛機表面缺陷分為(1)蒙皮掉漆、(2)蒙皮裂紋、(3)螺紋銹蝕、(4)蒙皮變形、(5)蒙皮撕裂等5種缺陷,如圖1所示。圖1中前三種缺陷,包括蒙皮掉漆、蒙皮裂紋、螺紋銹蝕,多由飛行過程中惡劣的工作及自然條件和地面維護不到位等多種因素共同作用引起的;圖1中后兩種缺陷,包括蒙皮變形、蒙皮撕裂,則多由冰雹、鳥擊、飛行員駕駛失誤等因素造成[7]。
(1)蒙皮掉漆? ? ? ? ? ? ? ? (2)蒙皮裂紋? ? ? ? ? ? ? ?(3)螺紋銹蝕
(4)蒙皮變形? ? ? ? ? ? ? ? ? ? (5)蒙皮撕裂
圖1? ?民航飛機表面缺陷分類
在標注樣本的過程中發(fā)現(xiàn)由于采集數(shù)據(jù)時間跨度長、采集人員和采集標準不一致,導(dǎo)致樣本質(zhì)量參差不齊,不合格樣本數(shù)量較多,且樣本種類分布不平均。而由于民航飛機缺陷樣本數(shù)量較少且獲取困難,因此對于此問題采用了傳統(tǒng)圖像處理算法對不合格的圖像樣本進行了修復(fù),隨后采用數(shù)據(jù)增強解決樣本分布不均的問題,最后對所有樣本圖像進行降采樣。其預(yù)處理框架如圖2所示。
圖2? ?預(yù)處理圖
對于在標注的過程中發(fā)現(xiàn)的缺陷樣本,經(jīng)整理分析后發(fā)現(xiàn)絕大部分過的樣本是由圖像純凈度、光照強度和拍攝時失焦造成的采樣模糊。因此對于圖像純凈度問題使用高斯雙邊模糊在保留其邊緣特征的情況下對細微缺陷進行模糊,對于光照問題引起的對比度過低問題使用白平衡算法對圖片進行補償,對于失焦造成的采樣模糊使用拉普拉斯銳化來平滑圖像樣本邊緣[8]。最后將處理后合格的圖像樣本加入到完好的樣本集中并進行數(shù)據(jù)增強,即通過隨機裁剪、水平翻轉(zhuǎn)、鏡像等方式,增大數(shù)據(jù)集中樣本數(shù)量較少的分類,使整個樣本集分布保持均衡。最后通過立方卷積插值法進行降采樣,將6000*4000*3的圖片批量resize到299*299*3,其公式如下
F(i + v,j + u) = ■■f(i + row,j + col)
S(row - v)S(col - u)? ? ? ? (1)
S(x) = 1-(a+3)x2+(a+2)x3? ? 0≤x≤1■-4a+8ax-5ax2+ax3? ?1≤x≤2
(2)
立方卷積插值法涉及到目標點周圍4行4列共16個像素點的計算,其式(1)中,v、u代表的行數(shù)偏差和列數(shù)偏差,i、j代表的是原圖與插值后的圖最接近的映射點,F(xiàn)(i+v,j+u)代表的插值后對應(yīng)的坐標點,公式(2)中的S(x)為差值公式,差值公式的變化會改變插值效果,圖3為使用不同插值方式的波音737充氧口的降采樣圖片。
(1)最鄰近插值? ? ? ? ? ? ?(2)雙線性插值? ? ? ? (3)立方卷積插值
圖3不同插值方式的降采樣圖片
在圖3中,通過對同一張圖片使用(1)最鄰近插值法、(2)雙線性插值法、(3)立方卷積插值法得到的不同降采樣圖像在這里可以明顯看出相比于最鄰近插值法和線性插值法,使用立方卷積插值法得到的圖像保留了更多細節(jié)和紋理信息,故選擇立方卷積插值法對圖像進行降采樣,以此降低降采樣造成的圖像精度損失,而且降采樣極大的縮減了深度神經(jīng)網(wǎng)絡(luò)的計算量,并且增大了卷積核的感受野,讓同樣大小的卷積核能夠在更大的圖像范圍上進行特征提取,降低網(wǎng)絡(luò)欠擬合風(fēng)險。
2? ?新型深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計
2.1? ?新型深度神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)
Inception Net網(wǎng)絡(luò)是由Google brain團隊設(shè)計的一個經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu),首次出現(xiàn)是在2014年的LSVRC(ImageNet Large Scale Visual Recognition Challenge)比賽中 [9]。而殘差網(wǎng)絡(luò)是由微軟亞洲研究院于2015年發(fā)布深度卷積神經(jīng)網(wǎng)絡(luò),其優(yōu)勢在于殘差模塊的引入能夠很好解決網(wǎng)絡(luò)由于深度過深而帶來的梯度退化問題[10]。因此本文研究設(shè)計了在Inception Net的基礎(chǔ)上,引入殘差思想的一個新型深度神行網(wǎng)絡(luò)。網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。圖4中,New_dnn由47層組成,主要包括7個卷積層、2個池化層、10個Inception Module、1個全局平均池化層、1個Dropout層以及一個softmax層。
圖4? ?New_dnn網(wǎng)絡(luò)結(jié)構(gòu)圖
具體設(shè)計流程如下,首先通過7個卷積和池化層將輸入的飛機缺陷圖片縮小到35*35*192,其目的為降低空間,提高樣本的深度。接下來通過10個Inception Module將35*35*192的圖像壓縮成一個8*8*2048的tensor,隨后又經(jīng)過兩個卷積層卷積后通過一個size為8*8*1024的池化層,輸出一個1*1*1024的tensor。最終通過一個softmax完成對輸入目標的分類。同時由于New_dnn網(wǎng)絡(luò)深度過深,為了改善網(wǎng)絡(luò)的性能、防止網(wǎng)絡(luò)過擬合在網(wǎng)絡(luò)結(jié)構(gòu)中添加殘差模塊和dropout失活單元。
2.2? ?Inception模塊
Inception Module來自于Google的Inception Net,其思想來源于Network In Network即在大的網(wǎng)絡(luò)中依然存在小的網(wǎng)絡(luò)結(jié)構(gòu)[11],以圖5block1 Model1為例。
圖5? ?block1 model1內(nèi)部結(jié)構(gòu)圖
圖5中block1 Model1結(jié)構(gòu)有4條分支,從右到左開始,第一分支為通道數(shù)64,size為1*1卷積核的卷積層;第二分支為size為3*3的平均池化層,再連接一個size為1*1,輸出通道為32的卷積層;第三分支為64通道size為1*1的卷積層,其后連接一個96通道的size為3*3的卷積層;第四分支為48通道的1*1卷積再接上一個64通道的5*5卷積。最后將4個分支輸出在深度上合并,其深度之和為64+64+96+32=256,即block1 Model1的最終tensor輸出為35*35*256。其余的Inception Module在結(jié)構(gòu)上大同小異,其目的都是在壓縮輸入圖像的同時進一步的提高網(wǎng)絡(luò)深度。
2.3? ?殘差模塊
殘差模塊最早出現(xiàn)于2015年提出的殘差深度神經(jīng)網(wǎng)絡(luò),其核心思想是將前層的信息越過中間層而直接映射到后層,以解決網(wǎng)絡(luò)深度過深導(dǎo)致的梯度退化的問題。其具體結(jié)構(gòu)如圖6所示。
圖6? ?殘差模塊結(jié)構(gòu)圖
在圖6中網(wǎng)絡(luò)上一層的輸出X經(jīng)過兩層卷積后輸出為F(X),然后將X直接與卷積后的輸出相加得到了F(X)+X作為下一層的輸入[12]。理論上過來說,網(wǎng)絡(luò)層數(shù)越高訓(xùn)練效果越好,但是當網(wǎng)絡(luò)層數(shù)過深的時候,多次的卷積操作會導(dǎo)致梯退化問題,使得訓(xùn)練結(jié)果反而不如淺層神經(jīng)網(wǎng)絡(luò)。在新設(shè)計的深度神經(jīng)網(wǎng)絡(luò)中由于深度達到了47層,梯度退化問題不可避免,而通過多個殘差模塊的添加,可以很好的解決由于網(wǎng)絡(luò)深度過高而導(dǎo)致的梯度退化問題。
2.4? ?Dropout失活單元和全局平均池化
Dropout失活單元是一種簡單卻相當有效的防止神經(jīng)網(wǎng)絡(luò)過擬合的手段,通常會被放置在網(wǎng)絡(luò)的后部[13]。其原理為通過對部分神經(jīng)元的隨機失活,達到降低網(wǎng)絡(luò)過擬合,增強網(wǎng)絡(luò)魯棒性的目的。
全局平均池化層也是一種簡單卻相當有效的降低網(wǎng)絡(luò)參數(shù)量的手段[14]。即是使用size為前層長*同樣寬*前層深的池化層對前層的輸出進行池化,最終得到一個1*1*前層深度的輸出,已達到代替全連接層,降低網(wǎng)絡(luò)參數(shù)量的目的。
3? ?New_dnn網(wǎng)絡(luò)訓(xùn)練步驟
深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程的本質(zhì)就是利用模型和輸入數(shù)據(jù)來求出推理值,利用損失函數(shù)對推理值與損失值之間的差距進行描述,然后通過優(yōu)化器來最小化損失函數(shù),而損失函數(shù)的更新反過來也對模型中的參數(shù)進行了更新,直到其滿足精度要求或達到設(shè)定的迭代次數(shù)。圖7為New_dnn網(wǎng)絡(luò)的訓(xùn)練流圖。
圖7? ?New_dnn的訓(xùn)練流圖
由圖7可知,輸入的數(shù)據(jù)采用的是batch批量的形式,首先把數(shù)據(jù)集中的標簽部分分別送入softmax_cross主分類和aux_loss輔助分類當中。再把數(shù)據(jù)集中的圖像部分送到New_dnn中,通過卷積運算來得到預(yù)測值和輔助預(yù)測值。其中預(yù)測值來自新設(shè)計的神經(jīng)網(wǎng)絡(luò)的最后一個平均池化層,輔助預(yù)測值來自block2 model4四條支路的深度結(jié)合。隨后調(diào)用Softmax[15]回歸將預(yù)測值處理為一個概率分布,其公式如下。
hθ(xi) = p(yi = 1)|xi;θp(yi = 2)|xi;θp(yi = k)|xi;θ =
■exp(θ1Txi)exp(θ2Txi)exp(θkTxi)? ? ? ? (3)
在式(3)中P(yi = 1)到P(yi = k)代表的是樣本圖像從1類到k類的概率,θ代表的是模型參數(shù),并通過每一類的概率除以所有概率之和的方式,來對輸出做歸一化。由此可以看出softmax回歸輸出的是一個包含所有類概率且概率之和為1的列矩陣,這個矩陣即為預(yù)測值。
得到網(wǎng)絡(luò)的預(yù)測值之后,利用損失函數(shù)來計算標簽與預(yù)測值之間的距離差,即損失值[16]。在新New_ dnn網(wǎng)絡(luò)選擇的是交叉熵損失函數(shù),其公式如下。
H(P,Q) = -■P(x)logQ(x)? ? ? ? (4)
P(X)代表的是標簽,Q(X)代表的是預(yù)測值,H(P,Q)代表的是標簽與預(yù)測值之間的概率分布距離,H(P,Q)越小,即代表標簽與預(yù)測值概率分布越接近,說明二者一致的可能性越高。
隨后調(diào)用的RMSprop[17]單步優(yōu)化器來對損失值進行了優(yōu)化。其公式如下:
g(n) = ρg(n - 1) + (1 - ρ)(■)? ? ? ? (5)
x(n + 1) = x(n) - ■■? ? ? ? (6)
式(5)中ρ為超參數(shù),式(6)中ε為超參數(shù),用來控制每次迭代學(xué)習(xí)率的大小。而ε是為了防止步長為0導(dǎo)致的迭代停滯,ρ是一個趨近于1的值一般設(shè)置為0.9,ε為一個極度小的值一般設(shè)置為10e-10,學(xué)習(xí)率為η,該值一般根據(jù)訓(xùn)練結(jié)果調(diào)整。通過調(diào)用RMSprop單步優(yōu)化器在每一次迭代中對參數(shù)進行更新,更新的步長由η、ε和式(6)中的g(n)所控制。
以上即為New_dnn迭代一輪的所有流程。而迭代總次數(shù)和模型參數(shù)的更新則由圖4中的global_step和train_op分別控制來完成。當?shù)偞螖?shù)達到設(shè)定值時,模型停止迭代,整個網(wǎng)絡(luò)的訓(xùn)練完成。
4? ?網(wǎng)絡(luò)訓(xùn)練與驗證
4.1? ?實驗平臺與數(shù)據(jù)集
為了實現(xiàn)New_dnn對民航飛機的表面缺陷識別而搭建的試驗平臺配置為:影馳的RTX2070顯卡,8GB版本;系統(tǒng)平臺為Ubuntu18.04;訓(xùn)練平臺為TensorFlow1.12。
關(guān)于數(shù)據(jù)集,至今為止,市面上并沒有任何公開的關(guān)于飛機表面缺陷的數(shù)據(jù)集,可供網(wǎng)絡(luò)訓(xùn)練與驗證。因此決定采用自建數(shù)據(jù)集對不同網(wǎng)絡(luò)進行訓(xùn)練的方式,并以訓(xùn)練結(jié)果作為網(wǎng)絡(luò)優(yōu)劣的評價標準。自建數(shù)據(jù)集的樣本分布如表1所示。
表1? ?不同樣本類別在數(shù)據(jù)集中的分布情況表
由表1可知樣本集劃分為訓(xùn)練集、驗證集和測試集,并且在預(yù)處理時將其相互獨立開來,確保樣本不會互相影響。其中用訓(xùn)練集對神經(jīng)網(wǎng)絡(luò)進了訓(xùn)練,用驗證集來驗證網(wǎng)絡(luò)在的性能,用測試集測試網(wǎng)絡(luò)的泛化能力。
4.2? ?網(wǎng)絡(luò)訓(xùn)練過程
使用自建的數(shù)據(jù)集對New_dnn進行訓(xùn)練,網(wǎng)絡(luò)以0.0005的學(xué)習(xí)率訓(xùn)練75個epoch(將數(shù)據(jù)集完整訓(xùn)練一輪為1個epoch),并在10小時45分鐘后停止迭代,訓(xùn)練結(jié)果如圖9所示。
(1) New_dnn的損失函數(shù)? ? ? ? ? ? ? ?(2) New_dnn的識別率
圖9? ?New_dnn網(wǎng)絡(luò)的損失函數(shù)與識別率
圖9是使用matplotlibAPI通過調(diào)用訓(xùn)練日志文件來記錄和生成的損失函數(shù)和準確率圖。由此生成了圖9(1)的New_dnn的損失函數(shù)圖,和圖9(2)的New_dnn的模型準確率圖。其中圖9(1)的縱坐標為模型訓(xùn)練的損失值,圖9(2)的縱坐標為模型訓(xùn)練的精度,兩圖的橫坐標都為模型的迭代次數(shù),“——”曲線指的是訓(xùn)練集的損失和準確率,“—”曲線代表驗證集的損失和準確率。由此可以觀察到,訓(xùn)練集的損失函數(shù)從12開始,隨著迭代次數(shù)的增加而不斷降低,驗證集的損失函數(shù)從2.1開始,隨著迭代次數(shù)的增加而不斷下降,當模型迭代到75個epoch后,訓(xùn)練集的損失函數(shù)在0.17左右震蕩,驗證集的損失函數(shù)在1.2左右震蕩,與之相對應(yīng)的是訓(xùn)練集的準確率從30%上升到了95%,驗證集的準確率從23%上升到了76%。
4.3? ?評價標準
為了更加全面的評價模型的綜合性能,除了采用識別準確率和參數(shù)量外,還引入了機器學(xué)習(xí)中查全率這一評價標準[18]。引入?yún)?shù)量,可以直觀的比較各個網(wǎng)絡(luò)的計算規(guī)模,和計算時間。參數(shù)量越大的網(wǎng)絡(luò)對設(shè)備要求越高,計算時間越長。而查全率指的是,被正確分類的樣本數(shù)占因當被正確分類的樣本數(shù)之比,其公式如下。
R = ■? ? ? ? (7)
在公式(7)中,TP指的是真正例,即分類為正例,實際也是正例的樣本數(shù)量,F(xiàn)N為假反例,即本來為正例,卻被分為反例得的樣本數(shù)。當準確率和查全率都比較高的時候,則認為該網(wǎng)絡(luò)具有較好的識別性能。
5.4? ?不同網(wǎng)絡(luò)的結(jié)構(gòu)與識別結(jié)果對比
為保證實驗結(jié)果真實可靠,所有網(wǎng)絡(luò)都使用自建樣本集進行試驗;其試驗過程如下,利用訓(xùn)練集訓(xùn)練網(wǎng)絡(luò),利用驗證集來調(diào)節(jié)參數(shù)、優(yōu)化模型,過多次驗證后,選取驗證集上性能最好的模型用于測試集預(yù)測。模型結(jié)構(gòu)與測試集結(jié)果對比如表2所示。
表2? ?不同模型結(jié)構(gòu)與測試集結(jié)果對比表
由表2可以清楚地看出New_dnn除了在查全率上低于RES_net的65.33%外,準確率和查全率指標都高于其他網(wǎng)。而New_dnn的網(wǎng)絡(luò)深度達到了47層,但沒有出現(xiàn)梯度消失的現(xiàn)象,正確率反而有所上升,說明網(wǎng)絡(luò)在殘差模塊的幫助下確實起到了解決梯度退化、消除過擬合的作用。在訓(xùn)練參數(shù)上面New_dnn的網(wǎng)絡(luò)深度最深,但參數(shù)量卻只有4000萬遠遠少于VGG_net的1.4億個,只是ALEX_net的6000萬參數(shù)量的三分之二,說明了Inception_Module的加入,確實能夠在加深網(wǎng)絡(luò)深度的情況下,極大地減少參數(shù)量。
6? ?結(jié)? ?論
針對飛機表面缺陷檢測問題,提出了使用深度神經(jīng)網(wǎng)絡(luò)來對飛機表面缺陷進行識別的方法來取代人工繞機檢查。設(shè)計了一個47層的新型深度神經(jīng)網(wǎng)絡(luò)命名為New_dnn,用于飛機表面缺陷圖像識別。該網(wǎng)絡(luò)通過引入Inception Module、全局平均池化等手段,有效降低了網(wǎng)絡(luò)中的參數(shù)量;通過引入了殘差模塊、和Dropout失活單元,解決由于網(wǎng)絡(luò)深度過深而導(dǎo)致的梯度消失問題,防止網(wǎng)絡(luò)過擬合。最終得到了一個性能較為優(yōu)異的新型深度神經(jīng)網(wǎng)絡(luò)用于民航飛機表面缺陷識別。為了解決民航飛機表面缺陷樣本獲取困難、沒有公開數(shù)據(jù)集的問題,通過對各地區(qū)機場走訪、調(diào)研,收集缺陷樣本圖片制作數(shù)據(jù)集,并通過一些傳統(tǒng)的圖像處理手段,對樣本進行預(yù)處理,改善訓(xùn)練集樣本分布。并最終將該樣本集用于新型深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。通過對比多種神經(jīng)網(wǎng)絡(luò)在自建的數(shù)據(jù)集進行訓(xùn)練的結(jié)果,驗證了New_dnn與在自建數(shù)據(jù)集的可靠性。實驗結(jié)果顯示New_dnn在自建數(shù)據(jù)集的測試集上的識別率和查全率分別為74.23%和62.29%,證明網(wǎng)絡(luò)具有較高的識別率和泛化能力,在一定程度上能夠滿足機務(wù)工作中對民航飛機表面缺陷的識別。
參 考 文 獻
[1]? ? 張祺. 預(yù)腐蝕航空鋁合金疲勞失效及壽命預(yù)測研究[D]. 天津:中國民航大學(xué),2018.
[2]? ? 張?zhí)煊?,何宇廷,李昌范,? 鹽霧加速腐蝕與沿海大氣環(huán)境的腐蝕等效關(guān)系研究[J].機械強度, 2018,40 (03):596—601.
[3]? ? 張中波. 民機機體蒙皮劃痕的應(yīng)力分析及處理方法研究[J]. 西安航空學(xué)院學(xué)報,2018,36 (05):3—7.
[4]? ? 李念宗.淺析飛機結(jié)構(gòu)的一些疲勞破壞問題[J]. 中國設(shè)備工程,2019(02):29—30.
[5]? ? 李忠良,魏麟,劉曄璐.飛機外表面地檢設(shè)備圖像處理技術(shù)初探[J]. 航空維修與工程,2018(05) :56—58.
[6]? ? 盧翔,陳卓,黃江博,等. 虛擬環(huán)境下民機繞機目視檢查優(yōu)化設(shè)計[J]. 飛機設(shè)計,2017,37(06):69—74.
[7]? ? 李忠良.大型運輸機外表面缺陷圖像處理技術(shù)應(yīng)用研究[D].廣漢:中國民用航空飛行學(xué)院,2018.
[8]? ? 胡江濤. 基于機器視覺的飛機鉚釘尺寸測量和缺陷檢測系統(tǒng)的研究[D].西安:陜西科技大學(xué),2017.
[9]? ? REHMAN A,NAZ S,RAZZAK M I,et al. Automatic visual features for writer identification:a deep learning approach[J]. IEEE Access,2019,13(99):1—1.
[10]? JIANG W,ZHANG L. Geospatial data to images:a deep-learning framework for traffic forecasting[J]. 清華大學(xué)學(xué)報:自然科學(xué)版:英文版,2019,24(1):52—64.
[11]? LIN M,CHEN Q,YAN S. Network in network[J]. arXiv preprint arXiv:1312.4400,2013:13—26.
[12] MARIF W,F(xiàn)AROOQ A B,SADUF A,et al. Supervised Deep Learning in Face Recognition[J]. Advances in Deep Learning. 2020,21(31):19—24.
[13]? SRIVASTAVA N,HINTON G,KRIZHEVSKY A,et al. Dropout:a simple way to prevent neural networks from overfitting[J]. Journal of Machine Learning Research,2014,15(1):1929—1958.
[14]? HAO F,SAURABH G,F(xiàn)ORREST I. From captions to visual concepts and back[J]. Proc of CVPR,2015,475(2354):3126.
[15]? LECUN Y,BENGIO Y,HINTON G. Deep learning[J]. Nature,2015,521(7553):436.
[16]? YANG W,WANG W,ZHANG X,et al. Light weight feature fusion network for single image super-resolution[J]. IEEE Signal Processing Letters,2019,26(4):538—542.
[17]? BENGIO Y,SIMARD P,F(xiàn)RASCONI P. Learning long-term dependencies with gradient descent is difficult[J]. IEEE Trans Neural Netw,2002,5(2):157—166.
[18]? HUANG Y,ZHAO L. Review on landslide susceptibility mapping using support vector machines[J]. CATENA,2018,165(12):520—529.