国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

深度卷積神經(jīng)網(wǎng)絡(luò)的X射線(xiàn)焊縫缺陷研究*

2018-04-27 01:35劉夢(mèng)溪巨永鋒高煒欣武曉朦
傳感器與微系統(tǒng) 2018年5期
關(guān)鍵詞:池化正確率卷積

劉夢(mèng)溪, 巨永鋒, 高煒欣, 王 征, 武曉朦

(1.長(zhǎng)安大學(xué) 電子與控制工程學(xué)院,陜西 西安 710064; 2.西安石油大學(xué) 電子工程學(xué)院,陜西 西安 710065)

0 引 言

X射線(xiàn)檢測(cè)雖應(yīng)用廣泛但同時(shí)也具有其弊端,如圖像噪聲多,缺陷對(duì)比度不高,背景起伏較大等[1~3],針對(duì)所提取的圖像特征是否有效地描述各類(lèi)型焊縫缺陷的問(wèn)題,多種理論及方法被提出[4~8]。近幾年,隨著深度學(xué)習(xí)特征識(shí)別的多方應(yīng)用,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)結(jié)構(gòu)解決了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)多層次的局部最優(yōu)以及梯度彌散等缺點(diǎn),能夠?qū)缚p在復(fù)雜背景下的缺陷特征進(jìn)行有效識(shí)別,具有較強(qiáng)的判別能力和泛化能力[9,10],而成為深度學(xué)習(xí)的主流網(wǎng)絡(luò)結(jié)構(gòu)之一[11~13]。

本文針對(duì)X射線(xiàn)焊縫缺陷的特點(diǎn),在 Alex的CUDA-CONVNET經(jīng)典深層CNN基礎(chǔ)上進(jìn)行了結(jié)構(gòu)改進(jìn)和優(yōu)化,利用改進(jìn)網(wǎng)絡(luò)的多層學(xué)習(xí)能力,有效提高了焊縫缺陷分類(lèi)識(shí)別的準(zhǔn)確度。

1 焊縫采集圖像處理方法

焊縫缺陷一般有幾種類(lèi)型:裂紋缺陷(橫向裂紋與縱向裂紋)、氣孔、未熔合與未焊透等。

1.1 圖像特征提取

受焊縫缺陷類(lèi)型、大小、位置等因素的影響,按照一般方式對(duì)原始圖像進(jìn)行處理,存在丟失關(guān)鍵信息的可能性。以氣孔缺陷為例,圖1所示的提取方式,由于氣孔所在的幾何位置的不確定性及原始圖像大小的差異,使得圖像提取出現(xiàn)了偏差,遺漏了焊縫缺陷信息。

為避免出現(xiàn)以上情況,本文在圖像預(yù)處理階段對(duì)長(zhǎng)、寬較長(zhǎng)的一邊變換成256,較短的一邊進(jìn)行等比變換[14,15]。將圖像分割為5幅圖像,分別對(duì)圖像的4個(gè)頂點(diǎn)和中心所截取的227×227圖像塊,如圖2所示。處理后一方面可以實(shí)現(xiàn)對(duì)圖片的全覆蓋,不遺漏特征信息,另外一方面可以增加樣本數(shù)量,保證識(shí)別的正確率。

圖1 圖像特征信息提取不完全

圖2 本文提取圖像特征信息方法

1.2 圖像特征提取算法

本文圖像分割算法為:

Input InImage

Output OutImage

1)計(jì)算圖像長(zhǎng)和寬中較大的一邊,記為ma,較小的一邊記為mi;

2)如果mi>256,以256/mi進(jìn)行等比變換,變換后的圖像記為T(mén)r;

3)Tr從4個(gè)頂點(diǎn)和中心分別截取227×227的圖像塊,產(chǎn)生5張訓(xùn)練圖像,分別記為OutImage[0],OutImage[1] ,OutImage[2],OutImage[3] ,OutImage[4];

4)輸出OutImage

2 CNN結(jié)構(gòu)設(shè)計(jì)

在CNN經(jīng)典結(jié)構(gòu)CUDA-CONVNET的研究基礎(chǔ)上,對(duì)焊縫復(fù)雜條件下的特征識(shí)別進(jìn)行針對(duì)性的改進(jìn)。

2.1 網(wǎng)絡(luò)參數(shù)計(jì)算

1)卷積計(jì)算

卷積的值即為特征圖輸入量,其公式為

(1)

2)卷積梯度計(jì)算

(2)

式中β為誤差信號(hào);l為池化層數(shù);α為池化層權(quán)值;up(·)為上采樣操作。將l層的誤差信息求和,即得到對(duì)應(yīng)的偏置基梯度

(3)

所有卷積核的梯度計(jì)算式為

(4)

3)權(quán)值更新計(jì)算

卷積神經(jīng)網(wǎng)絡(luò)中t~(t+1)時(shí)刻的權(quán)值更新計(jì)算為

W(t+1)=W(t)+μδ(t)x(t)

(5)

式中μ為學(xué)習(xí)率;δ(t)為神經(jīng)元輸入x(t)的誤差項(xiàng)。

4)全連接層計(jì)算

全連接層為分類(lèi)模塊,兩層之間的計(jì)算公式為

(6)

最后一層全連接層元素的激活函數(shù)Softmax為

(7)

式中i=1,2為分類(lèi)類(lèi)別。

2.2 網(wǎng)絡(luò)設(shè)計(jì)

CNN的結(jié)構(gòu)可以概括為

INPUT->[CONV->ReLU]*N->PooL?]*M->[FC->ReLU]*K->FC

式中 *為可重復(fù);M,N為可重復(fù)的次數(shù);POOL?為可選擇的層。

改進(jìn)結(jié)構(gòu)后的深層CNN如圖3所示。

圖3 深層CNN結(jié)構(gòu)

在深層CNN中,卷積、池化和全連接層的參數(shù)設(shè)置如表1所示,最后一層通過(guò) Softmax 函數(shù)連接,輸出每一維圖像所屬的類(lèi)別概率。Dropout加于全連接之后用于提高網(wǎng)絡(luò)的泛化性避免過(guò)擬合,取經(jīng)驗(yàn)值為0.5,并設(shè)初始學(xué)習(xí)率為0.001,動(dòng)量為0.9,權(quán)重衰減為0.000 5[16]。

表1 深層CNN參數(shù)設(shè)置

3 實(shí)驗(yàn)分析

圖4 CNN下的樣本缺陷識(shí)別錯(cuò)誤率

對(duì)于池化層,有2種池化方式:最大池化(max pooling)和平均池化(average pooling)。2種方式實(shí)驗(yàn)對(duì)比結(jié)果如表2所示,可知,最大池化方式識(shí)別的焊縫缺損正確率較高。

表2 池化方式對(duì)于正確率的影響 %

將CNN與經(jīng)典支持向量機(jī)(support vector machine,SVM)進(jìn)行對(duì)比,SVM采用 Liblinear[15]分類(lèi)器實(shí)現(xiàn)分類(lèi),圖像的原始樣本大小為 64×64 ,進(jìn)行梯度特征提取后每個(gè)圖像樣本的特征向量轉(zhuǎn)化為512維,2種方法對(duì)于焊縫缺陷的特征識(shí)別分別如表3、表4所示。

表3 SVM特征識(shí)別正確率 %

表4 CNN 特征識(shí)別正確率 %

對(duì)比表3 、表4 中的數(shù)據(jù)可以看到:隨著樣本量的增加,2種方法的訓(xùn)練樣本與測(cè)試樣本的分類(lèi)錯(cuò)誤識(shí)別率呈下降趨勢(shì),相較而言CNN方式下的焊縫缺陷分類(lèi)識(shí)別的錯(cuò)誤率更低。說(shuō)明大樣本條件下, CNN 的特征分類(lèi)性能提升要優(yōu)于SVM。這是由于伴隨著樣本量增加,CNN 能夠進(jìn)行分布式深度學(xué)習(xí),自主學(xué)習(xí)信息有效特征并加以分類(lèi),而SVM卻在梯度特征提取運(yùn)算中遺失了部分的特征信息,不能進(jìn)行更為精確的分類(lèi),導(dǎo)致最終的輸出分類(lèi)識(shí)別結(jié)果正確率較低。

表5為2種算法的運(yùn)算時(shí)間對(duì)比,可以看出:SVM較快速 ,這是由于SVM是一種2層的淺層網(wǎng)絡(luò)結(jié)構(gòu),其輸入特征的維數(shù)(512)較CNN輸入的維數(shù)(256×256)低,因此,處理圖像時(shí)間較短,而CNN 的處理時(shí)間較長(zhǎng)是由其深層結(jié)構(gòu)多參數(shù)所決定的,隨著樣本的增大,CNN和SVM的處理時(shí)間以不同時(shí)間函數(shù)分布規(guī)律增加,而兩者的正確率卻呈現(xiàn)截然相反的趨勢(shì),即CNN的正確率提高而SVM的正確率降低,且樣本越大,該趨勢(shì)越明顯,因此,CNN對(duì)于大樣本的處理效率顯然高于SVM。

表5 SVM和CNN運(yùn)算時(shí)間對(duì)比

4 結(jié) 論

本文對(duì)經(jīng)典CNN結(jié)構(gòu)進(jìn)行了改進(jìn),CNN的實(shí)驗(yàn)結(jié)果較為理想,主要體現(xiàn)為以下幾點(diǎn):1)CNN可以進(jìn)行自主學(xué)習(xí),排除了人為評(píng)定的主觀因素;2)大樣本下CNN對(duì)于圖像的分類(lèi)與識(shí)別的正確率較高,且樣本越大,正確識(shí)別率越高且未出現(xiàn)過(guò)擬合現(xiàn)象;3)對(duì)于焊縫缺陷圖像類(lèi)型的多樣性和復(fù)雜性,CNN能夠進(jìn)行較好的特征識(shí)別,能夠進(jìn)行更為精準(zhǔn)的分類(lèi),具有較強(qiáng)的判別能力,效率更高,能夠達(dá)到較為滿(mǎn)意的效果。

對(duì)于深層CNN,層數(shù)越多提取的特征越容易識(shí)別,正確率越高,但也存在著參數(shù)增多,訓(xùn)練過(guò)程趨于復(fù)雜的問(wèn)題;此外,對(duì)于相同的檢測(cè)目標(biāo),網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的差別也會(huì)影響特征識(shí)別正確率。如何針對(duì)特定目標(biāo)的檢測(cè)識(shí)別,實(shí)現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)的最優(yōu)同時(shí)又能保證較高的正確率還有待做進(jìn)一步的研究。

參考文獻(xiàn):

[1] 田 原,都 東,侯潤(rùn)石,等.基于X 射線(xiàn)圖像序列的焊縫缺陷自動(dòng)檢測(cè)方法[J].清華大學(xué)學(xué)報(bào):自然科學(xué)版,2007,47(8):1278-1281.

[2] 劉 曦,徐光鋒,費(fèi)躍農(nóng).用于相貫線(xiàn)焊縫檢測(cè)機(jī)器人的圖像處理算法[J].傳感器與微系統(tǒng),2017,36(7):142-145.

[3] 趙 存,胡煒薇.一種X射線(xiàn)圖像增強(qiáng)新方法[J].傳感器與微系統(tǒng),2017,36(5):71-73.

[4] Cortes C,Vapnik V.Support vector network[J].Machine Lear-ning,1995,20:273-297.

[5] Zapata J,Vilar R,Ruiz R.An adaptive network based fuzzy infe-rence system for classification of welding defects[J].NDT & E International,2010,43(3):191-199.

[6] 劉 曦,徐光鋒,費(fèi)躍農(nóng).用于相貫線(xiàn)焊縫檢測(cè)機(jī)器人的圖像處理算法[J].傳感器與微系統(tǒng),2017, 36(7):146-153.

[7] 李昌興,黃艷虎,支曉斌,等.基于加速k均值的譜聚類(lèi)圖像分割算法改進(jìn)[J].傳感器與微系統(tǒng),2016,35(9):137-140.

[8] Wang J,Yang J,Yu K,et al.Locality-constrained linear coding for image classification[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2010:3360-3367.

[9] Donahue J,Jia Y,Vinyals O,et al.DeCAF:A deep convolutional activation feature for generic visual recognition[C]∥ICML,2014:647-655.

[10] Sharif Razavian A,Azizpour H,Sullivan J,et al.CNN features off-the-shelf:An astounding baseline for recognition[C]∥Procee-dings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops,2014:806-813.

[11] 王 純,郭春生.基于真實(shí)場(chǎng)景圖像下的卷積神經(jīng)網(wǎng)絡(luò)去噪算法[J].傳感器與微系統(tǒng),2017,36(10):147-153.

[12] 趙珊珊,何 寧.基于卷積神經(jīng)網(wǎng)絡(luò)的路面裂縫檢測(cè)[J].傳感器與微系統(tǒng),2017,36(10):147-153.

[13] 宣森炎,龔小謹(jǐn),劉濟(jì)林.基于聯(lián)合卷積和遞歸神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別[J].傳感器與微系統(tǒng),2014, 33(8):30-33.

[14] Krizhevsky A,Sutskever I,Hinton G E.Image net classification with deep convolutional neural networks[C]∥Advances in Neural Information Processing Systems,2012:1097-1105.

[15] Jia Y,Shelhamer E,Donahue J,et al.Caffe:Convolutional architecture for fast feature embedding[C]∥Proceedings of the 22nd ACM International Conference on Multimedia,ACM,2014:675-678.

[16] 余永維,殷國(guó)富,殷 鷹,等.基于深度學(xué)習(xí)網(wǎng)絡(luò)的射線(xiàn)圖像缺陷識(shí)別方法[J].儀器儀表學(xué)報(bào),2014,35(9):2012-2019.

[17] Fan R,Chang K,Hsieh C,et al.LIBLINEAR:A library for large linear classification[J].Journal of Machine Learning Research,2008,9:1871-1874.

猜你喜歡
池化正確率卷積
基于Sobel算子的池化算法設(shè)計(jì)
基于高斯函數(shù)的池化算法
卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
門(mén)診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
卷積神經(jīng)網(wǎng)絡(luò)的分析與設(shè)計(jì)
從濾波器理解卷積
基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
生意