国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

多分類深度卷積生成對抗網(wǎng)絡(luò)的皮帶撕裂檢測

2021-08-19 11:18孟曉娟張月琴郝曉麗呂進(jìn)來
計算機(jī)工程與應(yīng)用 2021年16期
關(guān)鍵詞:鑒別器皮帶卷積

孟曉娟,張月琴,郝曉麗,呂進(jìn)來

太原理工大學(xué) 信息與計算機(jī)學(xué)院,山西 晉中030600

皮帶機(jī)是煤礦井下運輸過程中不可缺少的設(shè)備之一,輸送帶是皮帶機(jī)的核心部件,其狀態(tài)直接影響皮帶機(jī)的安全穩(wěn)定運行[1]。井石、細(xì)桿狀物等尖銳物體,可能會直接穿透皮帶且卡在托輥上,在運動過程中造成皮帶撕裂[2]。此外,如果皮帶工作時間過長,因受力不均導(dǎo)致其表面磨損較大,出現(xiàn)劃痕、劃傷,若長期注意不到,可能導(dǎo)致撕裂[3]。目前大多數(shù)撕裂檢測方法分為接觸檢測[4]和非接觸檢測[5]。接觸檢測通常將托輥裝在可自由移動的托輥架上,借助其壓力進(jìn)行檢測,如擺動托輥檢測法[6],該方法通過托輥上的皮帶受力情況進(jìn)行檢測,快速簡單,但造價較高,且其在物料運輸中常有較大的煤塊通過落料口,與托輥發(fā)生碰撞,會導(dǎo)致誤檢。非接觸檢測方法大多基于無損檢測理論,如超聲波檢測法[7],根據(jù)波導(dǎo)管產(chǎn)生的超聲波的送波和受波狀態(tài)不同進(jìn)行檢測,但井下的開采存在復(fù)雜噪音,超聲系統(tǒng)很難接收撕裂信息的回波,檢測準(zhǔn)確率低。隨著機(jī)器視覺的發(fā)展,非接觸檢測運用邊緣提取、圖像分割等方法對皮帶圖像進(jìn)行特征提取。文獻(xiàn)[8]提出邊緣擴(kuò)展的支持向量機(jī)皮帶撕裂檢測方法,采用Canny算子對皮帶裂紋進(jìn)行邊緣提取,通過構(gòu)建支持向量機(jī)模型,以裂紋圖像的像素面積及長寬比幾何特征量作為模型輸入量,判斷皮帶是否存在撕裂。但皮帶裂紋僅選用了單一裂痕,缺乏泛化能力。文獻(xiàn)[9]提出基于機(jī)器視覺的皮帶撕裂檢測系統(tǒng),采用基于洛倫茲信息測度的線性加權(quán)Ostu分割算法對皮帶圖像進(jìn)行激光條紋分割,運用基于脊線跟蹤的提取算法進(jìn)行條紋中心線提取,根據(jù)中心線的畸變信息來表征皮帶的撕裂狀況。但是該系統(tǒng)僅對撕裂圖像進(jìn)行激光條紋分割,僅能檢測出撕裂這一種破損。文獻(xiàn)[10]設(shè)計了基于LabVIEW和CCD相機(jī)的輸送帶縱向撕裂檢測系統(tǒng),對采集到的圖像進(jìn)行高斯濾波、邊緣檢測和卷積運算等來提取撕裂特征信號,再對特征信號進(jìn)行閾值分析,來判斷輸送帶是否有撕裂現(xiàn)象發(fā)生。但是該方法需經(jīng)高斯濾波、邊緣檢測等預(yù)處理來獲取特征,使得計算時間冗長。綜上所述,在實際應(yīng)用中,這些檢測方法存在如下問題:

(1)大多數(shù)基于機(jī)器視覺的非接觸檢測方法僅能檢測出單一的破損類型。

(2)大多數(shù)基于圖像的檢測方法均需經(jīng)過二值化、邊緣提取、圖像去噪等預(yù)處理操作,容易造成計算時間冗長。

針對以上問題,深度卷積生成對抗網(wǎng)絡(luò)在處理皮帶圖像過程中,能夠識別多種破損類型;此外,還可直接通過網(wǎng)絡(luò)訓(xùn)練來提取特征,無需進(jìn)行預(yù)處理操作。

1 多分類深度卷積生成對抗網(wǎng)絡(luò)

1.1 問題與解決思路

近年來,深度學(xué)習(xí)以其運用海量數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),實現(xiàn)提取和構(gòu)建目標(biāo)特征的優(yōu)勢,廣泛應(yīng)用于圖像分割[11]、圖像檢測[12]等。但是人們獲取的數(shù)據(jù)往往未經(jīng)標(biāo)注,若采用傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)需對圖像進(jìn)行大量的手動標(biāo)注,十分耗時[13]。2014年,Goodfellow等人[14]提出了生成對抗網(wǎng)絡(luò)(Generative Adversarial Nets,GAN),該網(wǎng)絡(luò)基于零和博弈的思想,通過鑒別器與生成器之間競爭來提取圖像數(shù)據(jù)特征,前者試圖鑒別生成器生成的圖像數(shù)據(jù)來最小化誤差,而后者試圖最大化該誤差,最終二者達(dá)到納什平衡,根據(jù)特征差異來進(jìn)行前背景分割。由于該模型能從訓(xùn)練樣本中自動學(xué)習(xí)得到其數(shù)據(jù)分布,繼而生成新的樣本數(shù)據(jù),故只需少量的標(biāo)注數(shù)據(jù)。然而訓(xùn)練時該網(wǎng)絡(luò)采用梯度下降法,生成器可能沿某個特征一直訓(xùn)練,導(dǎo)致無法收斂,出現(xiàn)模式崩潰。因此,2016年,Radford等人[15]提出了深度卷積生成對抗網(wǎng)絡(luò)(Deep Convolutional Generative Adversarial Networks,

DCGAN),使用步長卷積代替上采樣層,卷積代替全連接層,使模型能學(xué)習(xí)其自身的空間下采樣,且能學(xué)習(xí)到精準(zhǔn)的圖像特征。生成器和鑒別器幾乎每一層都使用批量歸一化,將輸入歸一化為零均值和一方差,加速了訓(xùn)練。然而,該模型的鑒別器和生成器使用相同的學(xué)習(xí)率,訓(xùn)練時還需小心平衡二者的更新速度,才能避免模式崩潰。為此,Heusel等人[16]提出了雙時間尺度更新規(guī)則(Two Time-scale Update Rule,TTUR),生成器和鑒別器使用不同的學(xué)習(xí)率,即使生成器的變化足夠緩慢,鑒別器仍會收斂,生成器和鑒別器按照1∶1的更新速度進(jìn)行更新,使模型達(dá)到局部納什平衡,但是鑒別器的更新速度比生成器快得多,1∶1的比例未能真正解決鑒別器的收斂問題。

文獻(xiàn)[17]設(shè)計了一種多層感知器深度卷積生成對抗網(wǎng)絡(luò),將DCGAN判別器上的線性卷積層替換為多層感知器卷積層,使其在底層概念組合成高層次的概念之前,對每個局部特征做一個更好的抽象,來捕獲圖像更深層次的局部特征,采用定量評估方法FID(Frechet Inception Distance)衡量圖像生成質(zhì)量。文獻(xiàn)[18]提出了基于條件深度卷積生成對抗網(wǎng)絡(luò)的圖像識別方法,通過在深度卷積生成對抗網(wǎng)絡(luò)的生成器模型中加入條件,運用卷積網(wǎng)絡(luò)提取特征的能力輔以訓(xùn)練,將訓(xùn)練好的條件深度卷積生成對抗網(wǎng)絡(luò)中的判別器部分抽取出來,添加Softmax函數(shù)建立用于圖像識別的新網(wǎng)絡(luò)模型。

縱觀生成對抗網(wǎng)絡(luò)及其改進(jìn)算法,當(dāng)其應(yīng)用于圖像檢測時,由于生成器使用批量歸一化,會使得生成器中像素空間不均勻覆蓋,生成的圖像容易產(chǎn)生一些偽影。其次,鑒別器的輸出多采用二分類函數(shù),不能對具有多個類別的圖像準(zhǔn)確檢測。此外,鑒別器和生成器多使用相同的學(xué)習(xí)率,在訓(xùn)練時,可能出現(xiàn)模式崩潰,故本文提出了改進(jìn)的深度卷積生成對抗網(wǎng)絡(luò),并將其應(yīng)用到皮帶撕裂檢測,創(chuàng)新點如下:

(1)針對生成器使用批量歸一化,在生成圖像中容易產(chǎn)生偽影,影響皮帶撕裂的準(zhǔn)確檢測,以及容易造成計算時間冗長和內(nèi)存占用,本文將生成器中的批量歸一化去掉,不僅能提高撕裂檢測的準(zhǔn)確性,而且能減少網(wǎng)絡(luò)訓(xùn)練的時間。

(2)針對鑒別器模型不能識別多種對象類型,本文將鑒別器的輸出采用多分類softmax函數(shù),以輸出類別概率的向量,對傳送帶破損出現(xiàn)的劃痕、劃傷及撕裂進(jìn)行準(zhǔn)確分類。

(3)針對鑒別器和生成器多使用相同的學(xué)習(xí)率,使模型出現(xiàn)崩潰,本文引入雙時間尺度更新規(guī)則,生成器和鑒別器使用不同的學(xué)習(xí)率,按α∶β進(jìn)行更新,不僅能夠保持生成器和鑒別器的對抗平衡性,而且提高了鑒別器的訓(xùn)練速度,使得皮帶破損檢測實時性更好。

1.2 多分類深度卷積生成對抗網(wǎng)絡(luò)

在皮帶撕裂檢測中,傳統(tǒng)的深度卷積生成對抗網(wǎng)絡(luò)的生成器模型是一個反卷積神經(jīng)網(wǎng)絡(luò),它將隨機(jī)噪聲輸入向量,通過輸入層和反卷積層來對皮帶圖像進(jìn)行上采樣特征提取,轉(zhuǎn)化為非常接近真實圖像的偽圖像。但該模型采用了批量歸一化,使生成的皮帶圖像出現(xiàn)偽影,因此本文將不再采用批量歸一化。傳統(tǒng)的鑒別器模型是一個改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò),輸出層采用sigmoid二分類函數(shù),其輸出介于[0,1]之間。若輸出為1,則表明其輸入圖像為真實數(shù)據(jù)的檢測結(jié)果;若輸出為0,則表明其輸入圖像為來自生成器生成的偽圖像的檢測結(jié)果。由于其二分類的特性,僅能提取出撕裂部位與無破損部位的特征,故僅能檢測出撕裂這一情形,不能識別劃痕和劃傷的破損類型。為了識別皮帶破損的三種類型,即劃痕、劃傷和撕裂,本文受Salimans等人[19]的啟發(fā),采用了softmax函數(shù)作為鑒別器的輸出函數(shù),使其成為能夠識別多種對象類型的標(biāo)準(zhǔn)分類器,本文將其稱為多分類深度卷積生成對抗網(wǎng)絡(luò)。

假設(shè)隨機(jī)向量z具有均勻的噪聲分布pz(z),生成器模型G(z)將其映射到真實圖像的數(shù)據(jù)空間;鑒別器的輸入x是帶有標(biāo)簽y的真實圖像或偽圖像,其分布為pdata(x,y),鑒別器的全連接層輸出為l={l1,l2,…,lk+1}的k+1維向量,由softmax函數(shù)將其轉(zhuǎn)換為k+1維的類別概率p={p1,p2,…,pk+1},其中真實圖像將被判別為前k個類別,偽圖像將被判別為第k+1個類別。softmax函數(shù)如式(1)所示:

其中,li表示全連接層輸入的向量,lj表示為全連接層輸出的類別向量,pj表示輸出的類別概率,e為自然對數(shù)的底數(shù),約等于2.718 28。

本文選擇交叉熵函數(shù)作為鑒別器D(y|x)的損失函數(shù)。交叉熵?fù)p失函數(shù)用來判定實際的輸出與期望的輸出的接近程度,若損失值越小,則模型學(xué)習(xí)得越好,故需要通過損失函數(shù)最小化來優(yōu)化網(wǎng)絡(luò)模型。將其D(y|x)損失函數(shù)定義為式(2):

其中,j表示類別,y′是期望的類別,pj表示輸出的類別概率。y和y′采用獨熱編碼(one-hot編碼),即若鑒別器輸出為第j類別,則其相應(yīng)位置編碼為1,其余位置編碼均為0。

在本文中,類別標(biāo)簽為1,表示撕裂部位的特征,輸出撕裂部位的檢測結(jié)果;類別標(biāo)簽為2,表示劃傷部位的特征,輸出劃傷部位的檢測結(jié)果;類別標(biāo)簽為3,表示劃痕部位的特征,輸出劃痕部位的檢測結(jié)果;類別標(biāo)簽為4,表示生成器生成的偽圖像的特征,輸出偽圖像的檢測結(jié)果。

2 基于雙時間尺度的多分類深度卷積生成對抗網(wǎng)絡(luò)

2.1 雙時間尺度更新規(guī)則

傳統(tǒng)的深度卷積生成對抗網(wǎng)絡(luò)的生成器和鑒別器采用相同的學(xué)習(xí)率,使得模型在訓(xùn)練過程中需小心平衡生成器和鑒別器的更新速率,否則,易導(dǎo)致網(wǎng)絡(luò)出現(xiàn)模式崩潰。本文受Heusel等人的啟發(fā),引入雙時間尺度更新規(guī)則,生成器和鑒別器使用不同的學(xué)習(xí)率,并將其按α∶β執(zhí)行更新。

本文中的鑒別器模型定義為D(y|x)且其梯度為h(d),生成器模型定義為G(z)且其梯度為h(g),假設(shè)每次迭代訓(xùn)練中鑒別器有m個輸入圖像樣本x(t),且1≤t≤m,鑒別器模型的梯度h(d)定義為式(3):

其中,y

生成器模型的梯度h(g)定義為式(4):

其中,y=k+1為偽圖像類別,m表示輸入圖像樣本,θg為生成器的參數(shù)。

若鑒別器更新過快,則生成器學(xué)習(xí)時間不足,使得提取到的特征不完整;若生成器更新過快,則使鑒別器過早達(dá)到局部最優(yōu)解,模型無法收斂。因此,訓(xùn)練時需小心平衡鑒別器和生成器的更新速率。本文采用雙時間尺度更新規(guī)則,以保證模型穩(wěn)定收斂。本文的更新規(guī)則定義為式(5):

其中,a和b分別為鑒別器和生成器更新的學(xué)習(xí)率,n為迭代次數(shù),1≤n≤m,本文按照α∶β的比例對生成器和鑒別器模型進(jìn)行迭代更新,使得網(wǎng)絡(luò)能夠更穩(wěn)定地訓(xùn)練且能更好地提取皮帶圖像特征。因此,鑒別器可以更準(zhǔn)確地識別輸入的皮帶圖像數(shù)據(jù),生成器可以使其輸出圖像看起來更接近真實皮帶圖像。

2.2 算法設(shè)計及描述

步驟1通過CCD相機(jī)收集帶有區(qū)域光源的傳送帶的圖像,并對其中部分圖像進(jìn)行破損類型標(biāo)注,形成少量的標(biāo)記數(shù)據(jù)集和大量的未標(biāo)記數(shù)據(jù)集。

步驟2構(gòu)建生成器模型,其輸入是一個100維隨機(jī)噪聲向量,通過全連接層,將其轉(zhuǎn)化為16 384維的向量,然后使用reshape函數(shù),將其轉(zhuǎn)化為4×4×1 024的特征圖;通過反卷積層1、2、3、4進(jìn)行上采樣,最終生成64×64×3的皮帶圖像。本文的反卷積層1、2、3不再使用批量歸一化。模型結(jié)構(gòu)如表1所示。

表1 生成器模型結(jié)構(gòu)Table 1 Generator model structure

步驟3構(gòu)建鑒別器模型:其輸入為64×64×3的圖像,經(jīng)過卷積層1、2、3、4進(jìn)行下采樣,最終輸出4×4×1 024的特征圖,重塑成4×4×1 024維的向量,經(jīng)過全連接層,使用softmax函數(shù)輸出傳送帶破損的劃痕、劃傷、撕裂、偽圖像的概率值。模型結(jié)構(gòu)如表2所示。

表2 鑒別器模型結(jié)構(gòu)Table 2 Discriminator model structure

步驟4訓(xùn)練網(wǎng)絡(luò),在鑒別器和生成器模型的訓(xùn)練過程中,引入雙時間尺度更新規(guī)則,運用式(5),其中生成器和鑒別器采用不同的學(xué)習(xí)率,以2∶1的比例對其進(jìn)行更新。若式(2)中模型損失值下降到某一點并趨于穩(wěn)定,則表明模型已收斂,從中獲得劃痕、劃傷、撕裂的破損特征。根據(jù)該網(wǎng)絡(luò)模型,預(yù)測皮帶圖像破損類型。

步驟5根據(jù)預(yù)測得到的結(jié)果,系統(tǒng)做出實時響應(yīng)。若出現(xiàn)撕裂,傳送帶立即停止;若出現(xiàn)劃傷,系統(tǒng)發(fā)出警告,并不停止;若檢測到傳送帶正?;蛘叱霈F(xiàn)劃痕,系統(tǒng)正常運行。本文皮帶圖像的檢測過程圖如圖1所示。

圖1 皮帶圖像檢測過程圖Fig.1 Belt image detection process diagram

3 實驗與分析

3.1 數(shù)據(jù)集

本文首先在微軟研究團(tuán)隊構(gòu)建的公開的MS COCO數(shù)據(jù)集上對基于雙時間尺度的多分類深度卷積生成對抗網(wǎng)絡(luò)模型進(jìn)行預(yù)訓(xùn)練,來確定本文算法的泛化能力;然后在自己采集并少量標(biāo)注的皮帶圖像數(shù)據(jù)集上進(jìn)行訓(xùn)練,從而來實現(xiàn)皮帶撕裂檢測。

3.1.1 MS COCO數(shù)據(jù)集

MS COCO數(shù)據(jù)集全稱為Microsoft Common Objects in Context,是目前最常用的目標(biāo)檢測數(shù)據(jù)集。該數(shù)據(jù)集搜集了大量復(fù)雜的日常場景圖像,其中具體定義了80種圖像目標(biāo)類別,2 500 000個標(biāo)簽,共有328 124張圖像。目前圖像數(shù)據(jù)集中訓(xùn)練集含有165 482張圖像,驗證集含有81 208張圖像,測試集含有81 434張圖像。

3.1.2皮帶圖像數(shù)據(jù)集

當(dāng)皮帶機(jī)開啟并達(dá)到恒定速率時添加面光源,CCD相機(jī)用來捕獲皮帶表面的圖像,捕獲的圖像通過數(shù)據(jù)傳輸線傳輸?shù)接嬎銠C(jī)。

采集圖像過程是在理想條件下,即沒有水、灰塵和其他任何可能影響測試結(jié)果的環(huán)境因素。本文共收集了3 200張圖像,分為4組,每組包含800張圖像。實驗參數(shù)是CCD相機(jī)的高度和皮帶的速度。相機(jī)高度決定圖像大小,速度影響圖像的清晰度,其都會影響識別精度。在第一組中,皮帶以低速1 m/min運行,CCD高度為0.4 m,分辨率為900×700。在第二組中,皮帶仍然以低速1 m/min運行,CCD高度為0.8 m,分辨率為1 800×1 400。在第三組中,皮帶以高速度2 m/min運行,CCD高度為0.4 m,分辨率為900×700。在第四組中,傳送帶以高速度2 m/min運行,CCD高度為0.8 m,分辨率為1 800×1 400。從每組圖像中隨機(jī)抽取50張圖像標(biāo)記,這樣,共有200張標(biāo)記的圖像,3 000張未標(biāo)記圖像。

3.2 模型的訓(xùn)練與實驗結(jié)果

本實驗是在pycharm 2017軟件平臺上運行的,python庫包括tensorflow、scipy、numpy等,硬件配置為Windows10操作 系 統(tǒng),CPU為i5-9300HQ@2.40 GHz,GPU為NVIDIA GeForce GTX 1650。實驗中采用批處理的方式加載數(shù)據(jù),訓(xùn)練過程中將批處理的大小設(shè)置為7,即每次訓(xùn)練時一個批次加載7張圖片;一個epoch表示一次加載完全部數(shù)據(jù)集的圖像數(shù)據(jù),本文設(shè)置epoch大小為300,將采集到的圖像大小統(tǒng)一調(diào)整為64×64像素。

3.2.1驗證本文雙時間尺度更新規(guī)則

為了使得模型訓(xùn)練穩(wěn)定,本文在MS COCO數(shù)據(jù)集采用雙時間尺度更新規(guī)則,將生成器和鑒別器的更新按照2∶1的比例進(jìn)行訓(xùn)練,總共進(jìn)行300輪訓(xùn)練。文獻(xiàn)[16]中生成器和鑒別器的收斂情況如圖2所示,本文生成器和鑒別器的收斂情況如圖3所示。

圖2 和圖3中,縱坐標(biāo)表示損失函數(shù),橫坐標(biāo)表示網(wǎng)絡(luò)迭代次數(shù),其中g(shù)_loss和d_loss分別表示生成器和鑒別器的損失。圖2中(a)和(b)為采用文獻(xiàn)[16]的損失值變化曲線,其中生成器學(xué)習(xí)率a=0.000 2和鑒別器學(xué)習(xí)率b=0.000 4且其更新比例為α∶β=1∶1。由圖(a)可看出生成器在迭代1 200次的時候出現(xiàn)波動,圖(b)中鑒別器模型出現(xiàn)迭代1 200次的時候出現(xiàn)較大的波動,且在迭代2 000次時出現(xiàn)較小的波動。可見文獻(xiàn)[16]的模型在訓(xùn)練過程中會出現(xiàn)不穩(wěn)定的情況。圖3中(a)和(b)為采用本文算法的損失值變化曲線,其中生成器學(xué)習(xí)率a=0.000 2和鑒別器學(xué)習(xí)率b=0.000 4,且其更新比例為α∶β=2∶1。由圖(a)可看出生成器模型在迭代380次的時候就趨于穩(wěn)定,且損失值降到0.8。由圖(b)可看出鑒別器模型在迭代400次的時候基本趨于穩(wěn)定,且損失值降到0.8??梢姳疚乃惴▋?yōu)于文獻(xiàn)[16]的訓(xùn)練方法。

圖2 文獻(xiàn)[16]生成器和鑒別器損失函數(shù)圖Fig.2 Loss function diagram of generator and discriminator in Ref.[16]

圖3 本文生成器和鑒別器損失函數(shù)圖Fig.3 Loss function diagram of generator and discriminator in this paper

3.2.2 MS COCO的生成圖像

本文算法將深度卷積生成對抗網(wǎng)絡(luò)的生成器模型中的批量歸一化操作去掉,在MS COCO數(shù)據(jù)集上,DCGAN生成的圖像與本文生成的圖像對比如圖4所示。

圖4 生成圖像對比圖Fig.4 Comparison of generated images

由圖4可看出,與DCGAN相比,在第60輪訓(xùn)練后,本文算法生成的圖像已經(jīng)有了基本的輪廓,效果明顯較好;在300輪訓(xùn)練之后,本文算法生成的圖像相對較好。

3.2.3 MS COCO數(shù)據(jù)集評估

本文采用的實驗評估指標(biāo)主要有精確率(precision)、召回率(recall),且加入mAP(Mean Average Precision)曲線來評估模型的整體性能。AP為精確率隨召回率變化的曲線所包圍的面積,mAP為多個類別的AP的均值。本文中精確率和召回率的計算方法分別如式(6)、式(7)所示:

其中,TP為正確預(yù)測區(qū)域的檢測結(jié)果,F(xiàn)P為將錯誤區(qū)域判定為正確的檢測區(qū)域,F(xiàn)N為將正確的檢測區(qū)域判定為錯誤區(qū)域,即漏檢區(qū)域。

為了分析本文算法的泛化能力,在MS COCO數(shù)據(jù)集上,將本文算法與文獻(xiàn)[17]、文獻(xiàn)[18]進(jìn)行對比。其中文獻(xiàn)[17]采用多層感知器深度卷積生成對抗網(wǎng)絡(luò);文獻(xiàn)[18]采用條件深度卷積生成對抗網(wǎng)絡(luò)。表3為不同算法模型的對比結(jié)果。圖5為不同算法模型的mAP曲線對比圖。

圖5 MS COCO數(shù)據(jù)集上不同模型的mAP曲線對比圖Fig.5 Comparison of mAP curves of different models on MS COCO data set

表3 MS COCO數(shù)據(jù)集上不同模型的對比結(jié)果Table 3 Comparison results of different models on MS COCO data set

由表3可以看出,在MS COCO數(shù)據(jù)集上,與文獻(xiàn)[17]、文獻(xiàn)[18]相比,本文算法模型的精確率和召回率都是最優(yōu)的。

由圖5可看出,本文算法在多類別檢測中,平均精確率相對來說優(yōu)于文獻(xiàn)[17]和文獻(xiàn)[18],為95.7%。這是由于文獻(xiàn)[17]的鑒別器還是二分類模型,故在多類別檢測中有所欠缺;文獻(xiàn)[18]鑒別器模型雖然采用了softmax函數(shù),但是訓(xùn)練時可能會出現(xiàn)波動的情況。

3.2.4本文算法在皮帶撕裂檢測中的應(yīng)用

為了驗證本文算法在皮帶撕裂檢測中的優(yōu)越性,采用皮帶圖像數(shù)據(jù)集進(jìn)行實驗。將本文算法與文獻(xiàn)[17]、文獻(xiàn)[18]的檢測結(jié)果進(jìn)行比較,對比結(jié)果如圖6所示,從左到右分別為原圖、文獻(xiàn)[17]、文獻(xiàn)[18]、本文檢測結(jié)果、基準(zhǔn),從上到下的破損狀況依次為劃痕、劃傷、撕裂、劃痕+劃傷、劃痕+撕裂、撕裂+劃傷、劃痕+劃傷+撕裂。

由圖6可看出,在檢測撕裂時,三種網(wǎng)絡(luò)模型檢測結(jié)果基本相同;在檢測劃痕、劃傷時,文獻(xiàn)[17]和文獻(xiàn)[18]檢測到的結(jié)果不完整,有缺失;同樣,在檢測一幅圖像中包含多種破損類型時,相對于本文算法來說,文獻(xiàn)[17]和文獻(xiàn)[18]也有欠缺。故本文算法更適合檢測皮帶破損情況。

圖6 檢測結(jié)果對比圖Fig.6 Comparison of test results

為了證明本文算法對于皮帶撕裂檢測的有效性,本文與文獻(xiàn)[17]、文獻(xiàn)[18]的精確率、召回率對比結(jié)果如表4所示,mAP曲線對比圖如圖7所示。

圖7 皮帶圖像數(shù)據(jù)集上不同模型的mAP曲線對比圖Fig.7 Comparison of mAP curves of different models on belt image data set

表4 皮帶圖像數(shù)據(jù)集上不同模型的對比結(jié)果Table 4 Comparison results of different models on belt image data set

由表4可以看出,在皮帶圖像數(shù)據(jù)集上,與文獻(xiàn)[17]、文獻(xiàn)[18]相比,本文算法模型的精確率和召回率也是最優(yōu)的。

由圖7可以看出,當(dāng)模型訓(xùn)練趨于穩(wěn)定時,本文算法的平均精確率最高,達(dá)到96.9%,文獻(xiàn)[18]平均精確率為94.8%,文獻(xiàn)[17]平均精確率為93.9%。因此,本文算法相對來說是最優(yōu)的。

4 結(jié)束語

本文提出了一種可靠且快速的基于多分類深度卷積生成對抗網(wǎng)絡(luò)的皮帶縱向撕裂檢測方法,通過去掉生成器的批量歸一化操作,來減少生成器生成圖像過程中出現(xiàn)的偽影,使得生成器模型提取到的特征更準(zhǔn)確;引入雙時間尺度更新規(guī)則使得模型更快地收斂,防止出現(xiàn)模式崩潰;鑒別器的輸出采用多分類softmax函數(shù),能對皮帶破損類型進(jìn)行很好的檢測和分類。實驗結(jié)果表明,與其他方法相比,本文方法適用于檢測一幅圖像中出現(xiàn)多種破損的情況,準(zhǔn)確率高,十分可靠。

猜你喜歡
鑒別器皮帶卷積
基于多鑒別器生成對抗網(wǎng)絡(luò)的時間序列生成模型
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
衛(wèi)星導(dǎo)航信號無模糊抗多徑碼相關(guān)參考波形設(shè)計技術(shù)*
從濾波器理解卷積
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
陣列天線DOA跟蹤環(huán)路鑒別器性能分析
松緊帶和皮帶
一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
皮帶運輸機(jī)皮帶撕裂原因及防治探析
皮帶運輸機(jī)皮帶跑偏原因分析及預(yù)防