許偉棟,趙忠蓋
(江南大學(xué)輕工過(guò)程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室,江蘇 無(wú)錫 214000)
中國(guó)是馬鈴薯資源大國(guó),年種植面積和產(chǎn)量均位于世界前列[1]。馬鈴薯的經(jīng)濟(jì)效益與馬鈴薯深加工業(yè)的水平息息相關(guān),而去除有表面缺陷的馬鈴薯是實(shí)現(xiàn)馬鈴薯深加工的前提。目前,中國(guó)馬鈴薯表面缺陷檢測(cè)行業(yè)大都采用人工檢測(cè)方法,該方法存在效率低、主觀性強(qiáng)、成本高等缺點(diǎn)[2]。機(jī)器視覺檢測(cè)技術(shù)具有功能多、人工干預(yù)少、非接觸、精度高等優(yōu)點(diǎn)[3],能很好地代替人來(lái)進(jìn)行檢測(cè)。因此近年來(lái),基于機(jī)器視覺的馬鈴薯表面缺陷檢測(cè)方法逐漸成為人們關(guān)注的焦點(diǎn)[4]。
Hassan[5]選取HSI三種顏色特征參數(shù),結(jié)合馬鈴薯缺陷物理特征,人工設(shè)定閾值,對(duì)分類器進(jìn)行訓(xùn)練,實(shí)現(xiàn)馬鈴薯表面缺陷檢測(cè)。但是,該方法需要人工確定閾值,魯棒性和移植性較低。李錦衛(wèi)等[6]采用快速灰度截留法分割出馬鈴薯表面疑似缺陷區(qū)域,并選擇面積比率和十色比率作為缺陷判別特征,對(duì)分割出的深色區(qū)域采用閾值法進(jìn)行缺陷識(shí)別。但是,該方法只能檢測(cè)黃色薯皮的馬鈴薯,具有一定的局限性。Raz等[7]利用圖像分割算法對(duì)馬鈴薯表面缺陷區(qū)域進(jìn)行提取,然后提取顏色特征訓(xùn)練SVM分類器,對(duì)馬鈴薯圖片各像素進(jìn)行分類,缺陷識(shí)別準(zhǔn)確率達(dá)95%左右。Barnes等[8]提出基于機(jī)器視覺的像素級(jí)分類器的馬鈴薯表面缺陷檢測(cè)方法,該方法將馬鈴薯與背景分割后,首先提取與給定像素區(qū)域的顏色和紋理相關(guān)的候選特征集合,然后使用自適應(yīng)增強(qiáng)算法(Adaptive Boosting,AdaBoost)自動(dòng)選擇最佳特征,用于檢測(cè)馬鈴薯表面缺陷。但是,該方法分類準(zhǔn)確率有待提高?,F(xiàn)有研究雖然取得一定成果,但是傳統(tǒng)檢測(cè)方法均采用“檢測(cè)目標(biāo)區(qū)域分割-人工特征提取和描述-分類算法識(shí)別”的模式,馬鈴薯特征的好壞對(duì)分類器性能有著至關(guān)重要的影響,而馬鈴薯生長(zhǎng)環(huán)境復(fù)雜,缺陷種類繁多且部分缺陷目標(biāo)非常細(xì)微,設(shè)計(jì)并提取好的特征絕非易事。因此,本試驗(yàn)研究了采用卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)提取馬鈴薯表面特征并利用支持向量機(jī)(Support Vector Machine, SVM)完成分類的新方法。
近年來(lái),攜著“深度學(xué)習(xí)”之勢(shì),神經(jīng)網(wǎng)絡(luò)重新歸來(lái),再次成為最強(qiáng)大的機(jī)器學(xué)習(xí)算法之一。卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Networks,CNN)是神經(jīng)網(wǎng)絡(luò)的延伸,它的權(quán)值共享和稀疏連接特性使之更類似于生物神經(jīng)網(wǎng)絡(luò),不僅降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量,而且直接將圖像作為網(wǎng)絡(luò)的輸入,避免了傳統(tǒng)識(shí)別算法中復(fù)雜的特征提取和數(shù)據(jù)重建過(guò)程[9]。當(dāng)前CNN已被廣泛應(yīng)用于各圖像分類問題中。Faghih-roohi等[10]采用深度卷積神經(jīng)網(wǎng)絡(luò)檢測(cè)鋼軌表面缺陷,比較了不同大小和激活函數(shù)下的不同網(wǎng)絡(luò)體系結(jié)構(gòu)的效果,試驗(yàn)結(jié)果表明,深度卷積神經(jīng)網(wǎng)絡(luò)的分類準(zhǔn)確率達(dá)93.04%。余永維等[11]針對(duì)建立射線無(wú)損檢測(cè)智能化信息處理平臺(tái)的需求,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)和徑向基網(wǎng)絡(luò)的智能識(shí)別方法,該方法在精密焊件射線圖像中識(shí)別缺陷率達(dá)91%,有較高的準(zhǔn)確率和較好的適應(yīng)性。劉明等[12]為了解決傳統(tǒng)方法中T波檢測(cè)困難等問題,提出基于卷積神經(jīng)網(wǎng)絡(luò)的T波分類算法,在MIT-BIH QT心電數(shù)據(jù)庫(kù)上進(jìn)行測(cè)試,算法準(zhǔn)確率達(dá)99.91%,能夠識(shí)別五類不同的T波形態(tài)。
本試驗(yàn)提出基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)模型的馬鈴薯表面缺陷檢測(cè)新方法。首先利用機(jī)器視覺系統(tǒng)獲得馬鈴薯圖像,訓(xùn)練采用包含1×1卷積層和dropout層的CNN,然后利用全連接層輸出的特征向量訓(xùn)練分類性能更好的SVM來(lái)完成缺陷檢測(cè)。該方法通過(guò)網(wǎng)絡(luò)對(duì)圖像數(shù)據(jù)的學(xué)習(xí),能得到馬鈴薯表面本質(zhì)特征,克服了傳統(tǒng)方法中人工提取特征和特征描述的局限性,將特征提取和模式分類合二為一,為馬鈴薯等農(nóng)產(chǎn)品表面缺陷檢測(cè)開辟了新思路。
卷積神經(jīng)網(wǎng)絡(luò)是普通神經(jīng)網(wǎng)絡(luò)的延伸,受到了早期延時(shí)神經(jīng)網(wǎng)絡(luò)(TDNN)的影響[13]。CNN是第一個(gè)真正成功訓(xùn)練多層網(wǎng)絡(luò)結(jié)構(gòu)的學(xué)習(xí)算法,每層由多個(gè)二維平面組成,每個(gè)平面由一些具有學(xué)習(xí)能力的權(quán)值和神經(jīng)元構(gòu)成。CNN作為一個(gè)深度學(xué)習(xí)架構(gòu)的提出是為了最小化數(shù)據(jù)的預(yù)處理要求。在CNN中,圖像的一部分(局部感受區(qū)域)作為層級(jí)結(jié)構(gòu)的最低層的輸入,信息依次傳輸?shù)讲煌膶樱ㄟ^(guò)多層處理,逐漸將初始的“低層”特征表示轉(zhuǎn)化為“高層”特征表示后,用“簡(jiǎn)單模型”即可完成復(fù)雜的分類等學(xué)習(xí)任務(wù)[14]。目前,CNN已在語(yǔ)音分析和圖像識(shí)別領(lǐng)域取得重大成果[15-16]。
典型的CNN模型由輸入層、卷積層、池化層、全連接層和輸出層構(gòu)成,如圖1所示。
卷積層是特征提取層,增強(qiáng)原始信號(hào)特征的同時(shí)降低了噪聲。每個(gè)神經(jīng)元的輸入都和前一層(輸入層或采樣層)的局部感受野相連,卷積核在該局部感受野上滑動(dòng)來(lái)提取特征,形成特征圖,該局部特征被提取后,它與其他特征間的位置關(guān)系也相應(yīng)確定;池化層為特征映射層,每個(gè)特征映射為一個(gè)平面,平面上所有神經(jīng)元的權(quán)值相等。根據(jù)局部相關(guān)性原理對(duì)上一層特征進(jìn)行子抽樣,既減小了圖像的空間大小,也控制了過(guò)擬合。在全連接層中,神經(jīng)元與前一層的所有神經(jīng)元相連接,所有的結(jié)點(diǎn)由一些帶權(quán)重的值連接起來(lái),組成圖像的特征向量,最后在輸出層完成目標(biāo)的分類。
圖1 典型CNN結(jié)構(gòu)圖Fig.1 Structure diagram of typical convolution neural networks(CNN)
圖像的空間聯(lián)系是局部的,如同人是通過(guò)一個(gè)局部的感受野去感受外界圖像一樣,每一個(gè)神經(jīng)元都不需要對(duì)全局圖像做感受[17]。如圖1所示,CNN中每個(gè)隱層內(nèi)的神經(jīng)元只與前一層的局部區(qū)域相連接,最后在更高層,將這些感受不同局部區(qū)域的神經(jīng)元想結(jié)合,得到圖像的全局信息。此外,隱層中每個(gè)特征圖上的神經(jīng)元共享同樣的權(quán)值。
綜上所述,CNN通過(guò)將局部感受、權(quán)值共享以及空間亞采樣這三種結(jié)構(gòu)思想結(jié)合既減少了訓(xùn)練的權(quán)重個(gè)數(shù),降低了算法的復(fù)雜度,縮短了算法運(yùn)行時(shí)間,又使得網(wǎng)絡(luò)獲得了某種程度的位移不變性。
圖1的CNN模型在分類性能上已經(jīng)優(yōu)于傳統(tǒng)方法,為了進(jìn)一步提高算法效率和準(zhǔn)確率,對(duì)其進(jìn)行了改進(jìn)。針對(duì)馬鈴薯搭建的CNN-SVM改進(jìn)模型如圖2所示,該模型包括輸入層,依次連接的三組卷積層、1×1卷積層、池化層,以及Dropout層、全連接層和SVM分類層??蓪⒃撃P头譃樘卣魈崛『湍J椒诸悆蓚€(gè)模塊。
3組依次相連的卷積層、1×1卷積層和池化層構(gòu)成模型的特征提取模塊。在卷積層內(nèi),卷積核在與上一層相連接的局部感受野上滑動(dòng),進(jìn)行卷積運(yùn)算,完成特征提取,并通過(guò)激活函數(shù)形成該卷積核的特征圖。輸出如式(1)所示:
(1)
在CNN中,由于圖像包含3個(gè)維度,所以1×1卷積層能高效地進(jìn)行3維點(diǎn)積,起到降維和減少計(jì)算量的作用。
池化層使用某一位置相鄰輸出的總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該位置的輸出,實(shí)現(xiàn)對(duì)特征圖像素的二次挖掘,既減少了模型參數(shù)總量,又保留了激活值最大的圖像特征。池化層緊跟卷積層的特殊結(jié)構(gòu),使網(wǎng)絡(luò)具有更高的魯棒性。池化層計(jì)算公式如式(2)所示:
xm=down(xl-1)
(2)
其中,down(·)為下采樣函數(shù)。
在圖2所示模型中,通過(guò)合理設(shè)計(jì)卷積核尺寸、特征圖個(gè)數(shù)、全連接層結(jié)點(diǎn)數(shù)等參數(shù)來(lái)構(gòu)建網(wǎng)絡(luò)。模型部分參數(shù)和輸出尺寸如表1所示。
圖2 馬鈴薯表面缺陷檢測(cè)模型Fig.2 Detection model of potato surface defect
表1部分CNN模型參數(shù)
Table1PartialparametersofCNNmodel
層特征圖個(gè)數(shù)卷積核尺寸參數(shù)個(gè)數(shù)輸出尺寸卷積層C1645×5×34 864227×227×64卷積層C2481×1×643 120227×227×48池化層S3482×2×480114×114×48卷積層C41285×5×48153 728114×114×128卷積層C5901×1×12811 610114×114×90池化層S6902×2×90057×57×90卷積層C72565×5×90576 25657×57×256卷積層C81801×1×25646 26057×57×180池化層S91802×2×180029×29×180Dropout D10180-029×29×180全連接層F11--75 690 5001×500
本試驗(yàn)?zāi)P洼斎胧?227×227像素的RGB彩圖。C1和C4層采用 5×5卷積核與圖像進(jìn)行卷積,并使用ReLU作為激活函數(shù)得到卷積層的輸出,部分樣本經(jīng)C1層卷積后輸出(圖3)。C2和C5層采用 1×1卷積核,通過(guò)降低卷積核的數(shù)量,達(dá)到減少網(wǎng)絡(luò)中參數(shù)總量的目的。池化層均使用卷積核尺寸為 2×2、步長(zhǎng)為2的最大值池化方式。此外,應(yīng)用Dropout技術(shù)在訓(xùn)練過(guò)程中每次更新參數(shù)時(shí)隨機(jī)斷開一定比率的神經(jīng)元,達(dá)到減少過(guò)擬合和提高網(wǎng)絡(luò)泛化能力的效果[18],根據(jù)經(jīng)驗(yàn)法則,設(shè)置模型Dropout概率值為0.5;在3組卷積和池化之后,連接包含參數(shù)最多的全連接層,輸出一個(gè)500維的特征向量,并作為支持向量機(jī)的輸入,訓(xùn)練得到SVM分類器。最后在測(cè)試集圖像上驗(yàn)證CNN-SVM模型的分類性能。
卷積神經(jīng)網(wǎng)絡(luò)通過(guò)學(xué)習(xí)大量帶標(biāo)簽的圖像數(shù)據(jù),提取出從簡(jiǎn)單到復(fù)雜,從局部到全局的深度特征,形成一種端到端的學(xué)習(xí)結(jié)構(gòu)和映射關(guān)系,最終實(shí)現(xiàn)模式分類的目標(biāo)。CNN的訓(xùn)練過(guò)程可分為前向傳播和反向傳播兩個(gè)階段。
(1)前向傳播階段
a.采用一些考慮非線性映射影響后的均值為0且服從高斯分布的不同小隨機(jī)數(shù)作為待訓(xùn)練權(quán)值和偏置的初始值[19]。
b.將訓(xùn)練樣本輸入初始化參數(shù)后的網(wǎng)絡(luò),按照?qǐng)D2中的網(wǎng)絡(luò)從左到右層層運(yùn)算,得到模型預(yù)測(cè)輸出。
(2)反向傳播階段
a.按式(5)計(jì)算預(yù)測(cè)類別與實(shí)際類別間的誤差。
b.以最小化代價(jià)函數(shù)為原則,采用優(yōu)化算法反向傳播,更新網(wǎng)絡(luò)中的權(quán)重ω和偏差b。對(duì)C1、C4和C7層中各10個(gè)卷積核學(xué)得參數(shù)進(jìn)行可視化,結(jié)果如圖4所示。
(3)
(4)
其中,α為學(xué)習(xí)率;ε為一個(gè)常數(shù);ω和b為要迭代更新的卷積核權(quán)重和偏置;Vdω和Vdb為經(jīng)過(guò)指數(shù)加權(quán)平均后的導(dǎo)數(shù)均值;Sdω和Sdb為經(jīng)過(guò)指數(shù)加權(quán)平均后的導(dǎo)數(shù)平方。
(5)
其中,E為交叉熵?fù)p失函數(shù);k和N為類別和樣本個(gè)數(shù);hj是模型對(duì)第j類的預(yù)測(cè)輸出;hyi是第i個(gè)樣本實(shí)際類別對(duì)應(yīng)的預(yù)測(cè)輸出。
本試驗(yàn)?zāi)P筒捎肁dam[20]優(yōu)化算法進(jìn)行參數(shù)更新,具體公式見式(3)、(4)。該算法能減小批量梯度下降過(guò)程中梯度在垂直方向上的來(lái)回波動(dòng)量,并加大在橫軸方向上的更新步長(zhǎng),加快收斂速度。
模型訓(xùn)練結(jié)束后,將參數(shù)保存,能避免后期加入新數(shù)據(jù)時(shí)重新訓(xùn)練,減少計(jì)算成本。
圖3 C1層輸出可視化Fig.3 Visualization of the output of C1 layer
試驗(yàn)用馬鈴薯樣本均采購(gòu)于無(wú)錫朝陽(yáng)農(nóng)貿(mào)市場(chǎng)。采集圖像前,對(duì)馬鈴薯進(jìn)行簡(jiǎn)單清洗,然后通過(guò)機(jī)器視覺實(shí)驗(yàn)平臺(tái)采集馬鈴薯RGB彩色圖像。部分馬鈴薯樣本如圖5所示。
在機(jī)器視覺和深度學(xué)習(xí)任務(wù)中,更多的圖像數(shù)據(jù)能幫助模型學(xué)習(xí)更復(fù)雜的函數(shù),提升算法的性能,為了節(jié)約成本,數(shù)據(jù)增廣是一種經(jīng)常使用的技術(shù)。本試驗(yàn)采用垂直鏡像對(duì)稱,隨機(jī)裁剪和彩色轉(zhuǎn)換3種方法來(lái)實(shí)現(xiàn)數(shù)據(jù)增廣[21]。樣本數(shù)據(jù)增廣效果如圖6所示。
本試驗(yàn)通過(guò)GPU加速技術(shù)進(jìn)行模型訓(xùn)練與預(yù)測(cè),試驗(yàn)環(huán)境配置有GPU:Nvidia TITANX,內(nèi)存:32G;軟件,操作系統(tǒng):Linux,開發(fā)工具:Python。
圖5 部分試驗(yàn)樣本圖Fig.5 The experimental samples
圖6 數(shù)據(jù)增廣結(jié)果Fig.6 The results of data augmentation
試驗(yàn)圖像數(shù)據(jù)由機(jī)器視覺平臺(tái)和數(shù)據(jù)增廣方法所得圖片組成。共采用8 000張馬鈴薯彩色圖片作為數(shù)據(jù)集,按 6∶2∶2的比例劃分訓(xùn)練集(4 800張)、驗(yàn)證集(1 600張)和測(cè)試集(1 600張),分別用于模型訓(xùn)練、模型參數(shù)與結(jié)構(gòu)評(píng)估、模型性能評(píng)估。根據(jù)NY/T1006-2006《馬鈴薯等級(jí)規(guī)格》國(guó)家農(nóng)業(yè)行業(yè)標(biāo)準(zhǔn)[22],對(duì)數(shù)據(jù)集中的馬鈴薯圖片進(jìn)行類別標(biāo)注,無(wú)缺陷和有缺陷(包括綠皮、機(jī)械損傷、發(fā)芽、腐爛和蟲咬五類較為常見缺陷)馬鈴薯分別用0和1標(biāo)識(shí)。卷積神經(jīng)網(wǎng)絡(luò)需要輸入相同尺寸的圖片,因此將樣本圖片尺寸縮放為 227×227×3。
在圖像處理中,圖像像素值可看成是一種特征,將圖像像素減去像素均值能去除圖像中的共有部分,凸顯個(gè)體差異。因此,通過(guò)計(jì)算訓(xùn)練集圖像像素均值,分別將訓(xùn)練集和測(cè)試集圖像減去該均值來(lái)使數(shù)據(jù)中心化。
卷積神經(jīng)網(wǎng)絡(luò)有兩類參數(shù),一類是基礎(chǔ)參數(shù),如卷積層或全連接層的權(quán)重和偏置項(xiàng),另一類是超參數(shù),如網(wǎng)絡(luò)訓(xùn)練時(shí)的學(xué)習(xí)率、學(xué)習(xí)次數(shù)等。卷積神經(jīng)網(wǎng)絡(luò)要取得好的性能,需要選擇一組好的超參數(shù)。因此,試驗(yàn)中對(duì)網(wǎng)絡(luò)訓(xùn)練時(shí)的學(xué)習(xí)率和訓(xùn)練次數(shù)這2個(gè)超參數(shù)進(jìn)行了選擇。
4.3.1 學(xué)習(xí)率選擇 在模型訓(xùn)練過(guò)程中,學(xué)習(xí)率對(duì)算法的收斂有重要影響。學(xué)習(xí)率太大,算法會(huì)在局部最優(yōu)點(diǎn)附近來(lái)回跳動(dòng),不會(huì)收斂于最優(yōu)點(diǎn);但如果學(xué)習(xí)率太小,會(huì)使收斂速度變慢[23]。為了研究CNN模型訓(xùn)練時(shí)學(xué)習(xí)率與模型準(zhǔn)確率的關(guān)系,在固定模型訓(xùn)練次數(shù)為30的條件下,觀察不同學(xué)習(xí)率下模型準(zhǔn)確率的變化情況(表2)。試驗(yàn)結(jié)果表明,當(dāng)學(xué)習(xí)率為10-3時(shí),驗(yàn)證準(zhǔn)確別率僅為70.3%,而學(xué)習(xí)率為10-4時(shí),準(zhǔn)確率最高,且隨著學(xué)習(xí)率的降低,訓(xùn)練時(shí)間會(huì)逐漸變長(zhǎng)。因此,試驗(yàn)在保證準(zhǔn)確率的基礎(chǔ)上,為了避免訓(xùn)練時(shí)間過(guò)長(zhǎng),選擇10-4作為模型訓(xùn)練時(shí)的學(xué)習(xí)率。
表2不同學(xué)習(xí)率下網(wǎng)絡(luò)收斂時(shí)的損失和準(zhǔn)確率
Table2Lossandaccuracyatdifferentlearningrates
學(xué)習(xí)率損失測(cè)試集準(zhǔn)確率(%)驗(yàn)證集準(zhǔn)確率(%)10-35.382×10-470.371.910-44.980×10-498.298.810-51.035×10-196.496.910-64.938×10-196.997.2
4.3.2 訓(xùn)練次數(shù)選擇 為了研究試驗(yàn)?zāi)P陀?xùn)練次數(shù)對(duì)樣本準(zhǔn)確率的影響情況,在學(xué)習(xí)率設(shè)為10-4的條件下,通過(guò)改變訓(xùn)練次數(shù)來(lái)觀察模型準(zhǔn)確率的變化情況(表3)。試驗(yàn)發(fā)現(xiàn),當(dāng)訓(xùn)練集訓(xùn)練次數(shù)為1時(shí),由于訓(xùn)練次數(shù)太少,導(dǎo)致模型訓(xùn)練不充分,沒有學(xué)習(xí)到足夠多的特征,驗(yàn)證集準(zhǔn)確率僅有59.3%,隨著訓(xùn)練次數(shù)的提升,準(zhǔn)確率逐步提高,當(dāng)訓(xùn)練次數(shù)為30時(shí),準(zhǔn)確率達(dá)到98.1%,網(wǎng)絡(luò)模型已基本學(xué)習(xí)到位,此時(shí)再繼續(xù)增加訓(xùn)練次數(shù),準(zhǔn)確率基本不變,但訓(xùn)練時(shí)間會(huì)逐步增加。因此,綜合考慮訓(xùn)練速度與準(zhǔn)確率的關(guān)系,把訓(xùn)練次數(shù)設(shè)為30。
由于在CNN訓(xùn)練時(shí),卷積操作是一個(gè)對(duì)線性不可分?jǐn)?shù)據(jù)增加其線性可分程度的過(guò)程[24],傳統(tǒng)模型中采用softmax算法需考慮全局?jǐn)?shù)據(jù),分類超平面會(huì)受任意樣本的干擾,相比之下,SVM分界面只依賴于部分支持向量樣本的優(yōu)點(diǎn)就得到了體現(xiàn)。此外,SVM在處理小樣本時(shí),有較好的性能。因此,試驗(yàn)中訓(xùn)練好CNN后,取出模型F11層中的特征向量,并利用其訓(xùn)練SVM得到分類器。
表3訓(xùn)練次數(shù)與準(zhǔn)確率的關(guān)系
Table3Relationshipbetweentrainingtimesandaccuracy
訓(xùn)練次數(shù) 1510203050100測(cè)試集準(zhǔn)確率(%)59.394.295.696.798.198.198.2驗(yàn)證集準(zhǔn)確率(%)62.595.096.997.598.898.998.9
試驗(yàn)中,采用網(wǎng)格搜索法對(duì)SVM核函數(shù)以及參數(shù)進(jìn)行對(duì)比選擇,其中候選核函數(shù)為:多項(xiàng)式、線性、高斯徑向基核函數(shù);參數(shù)搜索范圍為:γ∈(0,50)、C∈(1,200)、d∈(1,10),其中γ為徑向基函數(shù)的參數(shù)、C為懲罰因子、d為多項(xiàng)式函數(shù)的階數(shù)。
根據(jù)驗(yàn)證集準(zhǔn)確率選擇出最優(yōu)核函數(shù)和參數(shù)組合,并用測(cè)試集評(píng)估模型性能(表4)。
表4SVM參數(shù)網(wǎng)格搜索結(jié)果
Table4Theresultsofgridsearchforsupportvectormachine(SVM)parameter
項(xiàng)目γC測(cè)試集準(zhǔn)確率(%)高斯徑向基核函數(shù)1199.20
將本試驗(yàn)方法與文獻(xiàn)[7]、文獻(xiàn)[8]和常規(guī)CNN模型的結(jié)果進(jìn)行對(duì)比(表5)。試驗(yàn)結(jié)果表明,本試驗(yàn)算法在測(cè)試集上準(zhǔn)確率最高,因?yàn)楸驹囼?yàn)?zāi)P褪且环N基于“端到端”思想的新方法,不僅避免了缺陷區(qū)域的分割,而且無(wú)需人工特征提取,直接學(xué)習(xí)(從原始輸入數(shù)據(jù)到期望類別的映射)。與“分治”策略下的傳統(tǒng)方法相比,“端到端”的方式更能獲得全局最優(yōu)解。
多層模型下的CNN更關(guān)注圖像局部信息的改變,能提取比手工設(shè)計(jì)更好的特征,而支持向量機(jī)比softmax分類器更適合本試驗(yàn)圖像數(shù)據(jù)的分布,也提升了算法的性能。
表5CNN+SVM算法與其他算法對(duì)比
Table5ComparisonamongCNN+SVMandotheralgorithms
馬鈴薯表面缺陷分類方法 測(cè)試集準(zhǔn)確率(%)特征提取+KNN分類識(shí)別[7]91.25顏色特征提取+SVM分類識(shí)別[7]95.00邊緣、紋理相關(guān)特征集+AdaBoost[8]89.60常規(guī)CNN分類識(shí)別98.10改進(jìn)CNN+SVM分類識(shí)別99.20
馬鈴薯表面缺陷檢測(cè)技術(shù)在提升馬鈴薯外部品質(zhì)、經(jīng)濟(jì)價(jià)值和市場(chǎng)競(jìng)爭(zhēng)力以及防范食品安全等方面有著重要的作用,是農(nóng)產(chǎn)品檢測(cè)中的一個(gè)重要研究方向。傳統(tǒng)檢測(cè)方法依賴于人工提取特征,該過(guò)程費(fèi)時(shí)費(fèi)力,并且馬鈴薯多變的生長(zhǎng)環(huán)境導(dǎo)致其表面缺陷種類多樣化和部分缺陷目標(biāo)細(xì)微化,設(shè)計(jì)并提取好的特征較困難。本試驗(yàn)提出基于改進(jìn)的卷CNN+SVM模型,該模型能自動(dòng)提取馬鈴薯圖像特征,完成分類,利用1×1卷積層和dropout層改進(jìn)模型,達(dá)到加快算法運(yùn)行時(shí)間和減少模型過(guò)擬合的效果。在測(cè)試集上對(duì)試驗(yàn)方法進(jìn)行評(píng)估,試驗(yàn)結(jié)果表明,本試驗(yàn)方法能克服現(xiàn)有研究中人工設(shè)計(jì)和提取特征費(fèi)時(shí)費(fèi)力等問題,能夠檢測(cè)有缺陷和無(wú)缺陷兩類馬鈴薯,準(zhǔn)確率達(dá)99.20%。在接下來(lái)的研究中,一方面要擴(kuò)充樣本集,進(jìn)一步發(fā)揮CNN對(duì)大數(shù)據(jù)處理的優(yōu)勢(shì),另一方面要尋找更有效的方法,加快模型訓(xùn)練速度。