李平 馬玉琨 李艷翠 馮繼克 趙明富
摘要:不同角度下小麥籽粒具有不同特征信息,造成分類結(jié)果存在差異。采用同一小麥籽粒多角度圖片,使用小麥籽粒腹溝向上、腹溝向下和腹溝朝前三個角度圖片構(gòu)建小麥籽粒品種數(shù)據(jù)集。選取黃淮麥區(qū)種植面積較大的6個小麥品種作為試驗材料,對比不同模型在小麥籽粒識別上的準(zhǔn)確度。采用VGG-16、ResNet-50、Inception-V3卷積神經(jīng)網(wǎng)絡(luò),通過遷移學(xué)習(xí)的方式建立小麥籽粒品種識別分類模型,驗證集識別準(zhǔn)確率最高為99.35%,高于不遷移學(xué)習(xí)的識別方法和傳統(tǒng)機(jī)器學(xué)習(xí)的識別方法。在相同的試驗條件下,三種模型在使用遷移學(xué)習(xí)的情況下對小麥籽粒識別的測試集準(zhǔn)確率分別達(dá)到99.55%、99.77%、99.22%,優(yōu)于單面特征建模識別?;?種模型中分別選擇最優(yōu)試驗,對其3種角度分別識別。結(jié)果表明:腹溝向下的識別率在3種模型中最好,腹溝朝前次之,腹溝向上較差。通過試驗發(fā)現(xiàn),采用同一小麥籽粒多角度圖片可以更準(zhǔn)確地提取小麥籽粒特征,并且有助于分類模型提升品種識別準(zhǔn)確率。
關(guān)鍵詞:小麥籽粒;品種識別;卷積神經(jīng)網(wǎng)絡(luò);遷移學(xué)習(xí)
中圖分類號:S126: S512: TP391
文獻(xiàn)標(biāo)識碼:A
文章編號:20955553 (2023) 070220
10
Study on wheat seed variety identification based on transfer learning
Li Ping1, Ma Yukun2, Li Yancui3, Feng Jike1, Zhao Mingfu1
(1. College of Information Engineering, Henan Institute of Science and Technology, Xinxiang, 453003, China;
2. School of Artificial Intelligence, Henan Institute of Science and Technology, Xinxiang, 453003, China;
3. College of Computer and Information Engineering, Henan Normal University, Xinxiang, 453007, China)
Abstract: Wheat grains under different angles have different feature information, resulting in differences in classification results. In this paper, we adopt the same wheat grain multi-angle pictures, and use the three angle pictures of wheat grain groove upward, groove downward and groove forward to construct the wheat grain variety dataset. Six wheat varieties with large planting area in Huanghuai wheat area were selected as test materials to compare the accuracy of different models in wheat grain recognition. VGG-16, ResNet-50, and Inception-V3 convolutional neural networks are used to build a classification model for wheat seed variety recognition by transfer learning, and the highest recognition accuracy of the validation set is 99.35%, which is higher than that of the recognition method without transfer learning and the traditional machine learning recognition method. Under the same test conditions, the test set accuracies of the three models for wheat seed grain recognition using migration learning reached 99.55%, 99.77%, and 99.22%, respectively, which were better than single-sided feature modeling recognition. Based on the selection of the optimal test among each of the three models, their three angles were recognized separately. The results showed that the recognition rate of ventral groove downward was the best among the three models, ventral groove toward the front was the second best, and ventral groove upward was poor. It was found that the use of multi-angle pictures of the same wheat grain can extract wheat grain features more accurately and help the classification model to improve the accuracy of variety identification.
Keywords: wheat seeds; variety identification; convolutional neural network; migration learning
0 引言
小麥?zhǔn)鞘澜缟献钪匾霓r(nóng)產(chǎn)品之一,種植面積廣泛分布在全球各地。同時,小麥也是中國糧食生產(chǎn)的主要作物之一,生產(chǎn)面積和總產(chǎn)量占比較高,而小麥的穩(wěn)定發(fā)展對我國的糧食安全儲備起到重要的作用[12]。目前小麥識別主要依靠人工的方法對不同小麥籽粒品種進(jìn)行識別,該方法成本比較低,但需要工作人員具有豐富的實踐經(jīng)驗,存在效率低、主觀性強(qiáng)、準(zhǔn)確率低等弊端。因此,該方法在生產(chǎn)實踐中沒能得到廣泛的應(yīng)用。傳統(tǒng)的機(jī)器學(xué)習(xí)方法需要人工總結(jié)規(guī)律并提取特征,需要耗費(fèi)大量時間、精力進(jìn)行在圖片預(yù)處理和特征有效性評估工作。攀超等[3]通過機(jī)器學(xué)習(xí)的方法對小麥品種提取6個顏色特征、5個形態(tài)特征、5個紋理特征進(jìn)行分析識別,結(jié)果表明當(dāng)采用3種特征的時候效果最好,識別準(zhǔn)確率達(dá)到93.13%。何紅霞[4]對小麥品種進(jìn)行提取6個顏色特征、5個形態(tài)特征、5個紋理特征進(jìn)行分析識別,通過三種算法對比,使用粒子群算法PNN神經(jīng)網(wǎng)絡(luò)的優(yōu)化效果最為顯著,準(zhǔn)確率達(dá)到96.32%。因此需要一種效率高、準(zhǔn)確率高的小麥品種識別方法。
近年來,以卷積神經(jīng)網(wǎng)絡(luò)代表的遷移學(xué)習(xí)技術(shù)迅速發(fā)展,在農(nóng)作物種類的研究上得到廣泛的應(yīng)用[510]。謝為俊等[11]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的油茶籽完整性識別算法,從網(wǎng)絡(luò)結(jié)果簡化和超參數(shù)進(jìn)行優(yōu)化,使優(yōu)化后的網(wǎng)絡(luò)對油茶籽完整性識別準(zhǔn)確率達(dá)到98.05%。劉嘉政[12]提出一種基于Inception-V3的遷移學(xué)習(xí)模型對花卉進(jìn)行識別,在對各個參數(shù)進(jìn)行微調(diào)的情況下,平均識別率達(dá)到93.73%。王東方等[13]基于遷移學(xué)習(xí)提出了一種TL-SE-RseNeXt-101,用于不指定農(nóng)作物種類病蟲害檢測分類,與4種卷積模型進(jìn)行對比,該模型在對不同作物種類的不同病害分類準(zhǔn)確率達(dá)到98%??梢钥闯鐾ㄟ^遷移學(xué)習(xí)方式的卷積神經(jīng)網(wǎng)絡(luò)在圖像識別有較好的表現(xiàn)。
傳統(tǒng)的小麥分類研究中,所拍攝的小麥品種圖像都是按照腹溝向上的形態(tài)進(jìn)行拍攝[1417],所采集的圖像方式單一,采集小麥籽粒單面的圖像往往不能更好的體現(xiàn)小麥籽粒的特征,本文所拍攝小麥品種圖像是采用單粒多圖多角度進(jìn)行拍攝,分別為腹溝向上、腹溝朝前45°、腹溝向下,以便于能更好地提取特征。本文以選取種植面積較大6種小麥種子籽粒分類為例,采用多幅同一小麥籽粒圖片分角度小麥籽粒分類數(shù)據(jù)庫有助于分類模型更準(zhǔn)確地提取小麥籽粒特征,避免了已有數(shù)據(jù)集中采集角度不統(tǒng)一造成的特征干擾問題,以較少數(shù)據(jù)量獲得較高識別率,提高了品種識別的兼容性和準(zhǔn)確性。采用遷移學(xué)習(xí)的方式對VGG-16[18]、ResNet-50[19]、Inception-V3[2021]這三種成熟的卷積神經(jīng)網(wǎng)絡(luò)對小麥籽粒進(jìn)行品種的分類,并與不遷移的方法和傳統(tǒng)的機(jī)器學(xué)習(xí)方法進(jìn)行對比。
1 數(shù)據(jù)庫構(gòu)建
1.1 傳統(tǒng)圖像采集
樊超等[3]在對小麥品種進(jìn)行分類研究中,采用的是BENQ_5000E 型掃描儀進(jìn)行4個不同品種和6個不同品種圖像采集,拍攝時采用的方法是按照腹溝向上的形態(tài)進(jìn)行掃描。孟惜等[16]在對小麥品種識別中,采用的是BENQ_5000E型掃描儀進(jìn)行6個不同品種圖像采集,拍攝時采用的方法是按照腹溝向上的形態(tài)進(jìn)行掃描。陳文根等[17]在對小麥品種識別中,采用索尼IMX258進(jìn)行9個不同品種圖像采集,拍攝時采用的方法是籽粒背面圖片。所采集的圖像方式太過單一,都是采集的小麥籽粒的單面不能很好地體現(xiàn)小麥籽粒的特征性,采集圖像較少也不利于在深度學(xué)習(xí)模型中訓(xùn)練。
1.2 本文圖像采集
河南科技學(xué)院生命科技學(xué)院實驗室有小麥品種300多個,篩選出黃淮麥區(qū)種植面積較大的6個小麥品種,本文進(jìn)行圖像采集。表1為選擇拍攝的小麥品種編號、品種名稱以及本文對品種設(shè)置的標(biāo)簽。表1中品種編號為實驗室原始編號,品種標(biāo)簽為本文處理并報告結(jié)果所用標(biāo)簽。圖1為小麥品種實例。
本文對選取的品種進(jìn)行單粒多圖多角度來構(gòu)建小麥籽粒圖片,分為三種角度進(jìn)行拍攝,分別為腹溝向上、腹溝朝前、腹溝向下,為了更好地提高品種識別的兼容性和準(zhǔn)確性。針對表1中選出的6個小麥品種,采用體視鏡進(jìn)行籽粒拍攝,拍攝時每個品種挑選出顆粒飽滿的種子1 000粒。拍攝在室內(nèi)自然光照和燈光條件下進(jìn)行,同時,保持拍攝板的干凈整潔,避免雜質(zhì)影響后續(xù)的圖像處理結(jié)果。拍攝時以黑色吸光絨布為背景,體視顯微鏡參數(shù)設(shè)置為:放大倍數(shù)1倍,分辨率2 688像素×1 520像素,自動白平衡(AWB)關(guān)閉,寬動態(tài)平衡(WDR)關(guān)閉,LED補(bǔ)光燈設(shè)為中等。通過調(diào)整體視顯微鏡右側(cè)焦螺旋對小麥種子聚焦,每粒小麥分別拍攝腹溝向上、腹溝朝前、腹溝向下和空白4張圖片。小麥籽粒圖像采集過程中,為避免籽粒之間出現(xiàn)漏拍、多拍、錯拍等現(xiàn)象,同時為方便后期篩選處理,使用空白照片將不同顆粒之間的小麥進(jìn)行分隔,圖2所示為采集的小麥籽粒原始圖像,三個方向圖片,拍攝時圖像名是日期加自動編號。拍攝根據(jù)品種籽粒類別逐類拍攝,每類品種保存至一個文件夾中,最終得6個品種的19 800張照片(包含空白照片)。
1.3 圖像命名
本文拍攝的原始圖像命名格式是時間加自動編號,沒有體現(xiàn)小麥的品種類別和拍攝角度信息。如圖3所示,命名結(jié)合表1的品種標(biāo)簽,其中0代表農(nóng)大3416-18,內(nèi)樂288命名標(biāo)簽為1等;標(biāo)簽中第2位數(shù)字代表每個品種拍攝的小麥顆粒數(shù),0_1代表農(nóng)大3416-18的第一粒小麥,0_2代表農(nóng)大3416-18的第二粒小麥,以此類推;第三個數(shù)字表示每粒小麥分不同角度拍攝的3張圖像,1代表小麥腹溝向下,2代表小麥腹溝朝前45°,3代表小麥腹溝向上。綜上,3_1_1代表百農(nóng)4199第一粒小麥,拍攝的第一個角度的圖像,3_2_1 代表百農(nóng)4199第二粒小麥,拍攝的第一個角度的圖像,1_2_3代表內(nèi)樂288第二粒小麥,拍攝的第三個角度的圖像。使用程序?qū)?個小麥品種統(tǒng)一命名,刪除空白照片,統(tǒng)一命名后得到18 000張圖像。
1.4 圖像預(yù)處理
由于在拍攝中部分圖片會存在問題,比如主體不夠突出,辨識度低,圖片拍攝時沒有按照角度進(jìn)行命名,為方便后續(xù)試驗本文對圖片先進(jìn)行了預(yù)處理。預(yù)處理有圖片降噪處理。
原始小麥圖像分辨為2 688像素×1 520像素,且原始數(shù)據(jù)中小麥兩邊有部分黑邊。原始圖片帶有影響圖片的因素,因此要先對數(shù)據(jù)進(jìn)行降噪處理,去除掉照片中的干擾因素,方便后續(xù)試驗。為使數(shù)據(jù)更加適合訓(xùn)練模型和降低圖像黑邊對訓(xùn)練的影響,本文將2 688像素×1 520像素的圖像切割為1 520像素×1 520像素。如不對圖像進(jìn)行壓縮,則易造成內(nèi)存溢出和訓(xùn)練時間較長的情況,內(nèi)存溢出將導(dǎo)致模型無法完成訓(xùn)練,因此還需要對圖像進(jìn)行壓縮處理,為滿足卷積神經(jīng)網(wǎng)絡(luò)的輸入圖像的尺寸,本文將其按比例壓縮像素。小麥數(shù)據(jù)集選擇9 000張圖片,按照8∶1∶1的比例劃分為訓(xùn)練集、驗證集和測試集,分別包括7 200張訓(xùn)練圖像、900張驗證集圖像、900張測試集圖像。為了滿足不同模型輸入的要求,對訓(xùn)練集圖像進(jìn)行隨機(jī)裁剪和歸一化處理,對驗證集和測試集只進(jìn)行歸一化處理。如圖4所示為裁剪后的小麥籽粒圖像。
2 試驗方法
2.1 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),卷積結(jié)構(gòu)可以減少深層網(wǎng)絡(luò)占用的內(nèi)存量,其三個關(guān)鍵的操作,第一是局部感受野,第二是權(quán)值共享,第三是池化(pooling)層,有效地減少了網(wǎng)絡(luò)的參數(shù)個數(shù),緩解了模型的過擬合問題。卷積神經(jīng)網(wǎng)絡(luò)的低隱層是由卷積層和最大池采樣層交替組成,高層是全連接層對應(yīng)傳統(tǒng)多層感知器的隱含層和邏輯回歸分類器。第一個全連接層的輸入是由卷積層和子采樣層進(jìn)行特征提取得到的特征圖像。最后一層輸出層是一個分類器,可以采用邏輯回歸,Softmax回歸對輸入圖像進(jìn)行分類。如圖5所示,該網(wǎng)絡(luò)是經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
本文采用3種典型的卷積神經(jīng)網(wǎng)絡(luò),分別為VGG-16[18]、ResNet-50[19]、Inception-V3[2021]。
VGG網(wǎng)絡(luò)是在2014年由牛津大學(xué)著名研究組提出,其特點在于使用堆疊多個3×3的卷積核疊加代替了大的卷積核同時增加了網(wǎng)絡(luò)層深度,整個網(wǎng)絡(luò)都是用了同樣大小的卷積核和最大池化尺寸,而且對于數(shù)據(jù)集具有很好的泛化能力。
ResNet是在2015年由微軟實驗室提出,其特點是參考VGG網(wǎng)絡(luò),在其基礎(chǔ)上進(jìn)行修改,在吸取了VGG網(wǎng)絡(luò)的基礎(chǔ)上加入了殘差網(wǎng)絡(luò),目的為了克服由于網(wǎng)絡(luò)深度加深而產(chǎn)生學(xué)習(xí)效率低和準(zhǔn)確率無法提升的問題。
Inception-V1又名GoogLeNet,其中深度:層數(shù)更深避免梯度消失的問題;寬度:增加了多種核。Inception-V3通過改進(jìn)Inception-V1網(wǎng)絡(luò),加入了分解成小卷積的思想,將較大的二維卷積拆解成兩個較小的一維卷積,節(jié)約了大量參數(shù),加速運(yùn)算并減輕了過擬合。
2.2 遷移學(xué)習(xí)及微調(diào)模型
遷移學(xué)習(xí)也稱為歸納遷移,其目標(biāo)是將某個領(lǐng)域或任務(wù)上學(xué)習(xí)到的知識或模式應(yīng)用到不同的但相關(guān)的領(lǐng)域或問題中。針對圖像領(lǐng)域存在的訓(xùn)練成本高,可以用遷移學(xué)習(xí)來解決?;诰矸e神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)就是將已訓(xùn)練好的模型及參數(shù)在新的識別任務(wù)上再次進(jìn)行訓(xùn)練,本文改進(jìn)后的模型結(jié)構(gòu)為:在原網(wǎng)絡(luò)基礎(chǔ)上增加一層ReLU激活函數(shù),一層Dropout層,一層6維全連接層以及一層Softmax層。
本文采用不凍結(jié)任何網(wǎng)絡(luò)層,將模型所有層設(shè)置為遷移學(xué)習(xí)方式,即為直接訓(xùn)練模型所有參數(shù),并與凍結(jié)預(yù)訓(xùn)練模型的全部卷積特征提取層、僅對新分類器參數(shù)訓(xùn)練的遷移學(xué)習(xí)并和不遷移模型、傳統(tǒng)的KNN、SVM進(jìn)行對比。對于上述模型中訓(xùn)練及優(yōu)化方案,3種模型結(jié)構(gòu)共進(jìn)行26組模型訓(xùn)練。遷移學(xué)習(xí)主要是訓(xùn)練好的模型具有較強(qiáng)的特征提取能力,通過利用在Image大型數(shù)據(jù)集上三種預(yù)訓(xùn)練模型,采用遷移學(xué)習(xí)的方法對預(yù)訓(xùn)練模型卷積模塊參數(shù),遷移到小麥籽粒識別任務(wù)中,作為網(wǎng)絡(luò)的初始化參數(shù),并且將預(yù)訓(xùn)練網(wǎng)絡(luò)最后一層的全連接層替換為本文小麥籽粒數(shù)據(jù)集的類別數(shù),即為類別數(shù)6,通過全局訓(xùn)練和局部訓(xùn)練完成識別模型,通過測試集得到小麥籽粒分類準(zhǔn)確率。本文的小麥籽粒遷移學(xué)習(xí)框架如圖6所示。
2.3 模型參數(shù)及優(yōu)化
此處采用在ImageNet大規(guī)模視覺識別挑戰(zhàn)賽上取得較好成績的卷積神經(jīng)網(wǎng)絡(luò)VGG-16、ResNet-50以及Inception-V3的卷積。針對3種卷積神經(jīng)網(wǎng)絡(luò),在原網(wǎng)絡(luò)基礎(chǔ)上添加ReLU激活函數(shù),Dropout層,以及Softmax函數(shù),加入Dropout是為了緩解模型訓(xùn)練導(dǎo)致過擬合,在訓(xùn)練過程中修改網(wǎng)絡(luò)結(jié)構(gòu)。
激活函數(shù)的引入是為了增加神經(jīng)網(wǎng)絡(luò)模型的非線性,沒有激活函數(shù)的每層就相當(dāng)于矩陣相乘。使用ReLU激活函數(shù),給神經(jīng)元引入非線性因素,可以解決線性能力不足的問題,這樣神經(jīng)網(wǎng)絡(luò)就可以應(yīng)用到眾多的非線性模型中。
f(x)=max(0,x)
(1)
式中:
x——輸入的數(shù)據(jù);
f(x)——輸出的結(jié)果。
最后一層是Softmax函數(shù),本算法主要用于多分類問題,目的是將多分類的結(jié)果以概率的形式展現(xiàn)出來。
Softmax(x)=exi∑nj=1exj
(2)
式中:
xi——第i個神經(jīng)節(jié)點的輸出值;
j——
輸出神經(jīng)節(jié)點個數(shù),即分類的類別個數(shù)。
本文選用適用于大規(guī)模數(shù)據(jù)的隨機(jī)梯度下降法(Adaptive moment estimation, Adam)作為優(yōu)化算法,Adam將隨機(jī)梯度下降算法中的自適應(yīng)梯度算法(Adaptive gradient algorithm, AdaGrad)和均方根傳播(Root mean square propagation, RMSProp)的優(yōu)勢結(jié)合在一起,適合解決大規(guī)模數(shù)據(jù)和參數(shù)優(yōu)化的問題。選擇0.0001、0.001、0.01和0.1共4種初始學(xué)習(xí)率進(jìn)行學(xué)習(xí)。
在模型訓(xùn)練過程中,本文引入早停技術(shù)(Early Stopping)來對模型訓(xùn)練后的驗證集驗證的結(jié)果進(jìn)行監(jiān)控,耐心值設(shè)置的為12,表示連續(xù)12次驗證集的損失值不下降,立即停止對模型的訓(xùn)練,所以每次的迭代次數(shù)不是固定的。同時在訓(xùn)練過程中保存當(dāng)前最優(yōu)參數(shù),后續(xù)如果有更優(yōu)的結(jié)果則進(jìn)行替換。此方法限制模型取得最小損失函數(shù)值的迭代次數(shù),迭代次數(shù)過多,算法容易過擬合,迭代次數(shù)太少,則容易欠擬合。
2.4 模型評價標(biāo)準(zhǔn)
評價分類問題的評價指標(biāo):準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1值,混淆矩陣則是用來說明分類任務(wù)的。TP(True Positive)表示將正類預(yù)測為正類;FP(False Positive)表示將負(fù)類預(yù)測為正類;TN(True Negative)表示將負(fù)類預(yù)測為負(fù)類;FN(False Negative)表示將正類預(yù)測為負(fù)類。
準(zhǔn)確率定義:對于給定的數(shù)據(jù),分類正確的樣本數(shù)占總樣本數(shù)的比例。
Accuracy=TP+TNTP+FP+FN+TN
(3)
2.5 試驗環(huán)境
試驗采用PyTorch深度學(xué)習(xí)框架開發(fā)環(huán)境,PyTorch是Torch的Python版本,是由FaceBook開源的神經(jīng)網(wǎng)絡(luò)框架,主要用于GPU加速過的運(yùn)算替代與NumPy類似的運(yùn)算和構(gòu)建深度神經(jīng)網(wǎng)絡(luò)。根據(jù)相關(guān)學(xué)者研究結(jié)果,PyTorch的速度表現(xiàn)勝過TensorFlow和Kersa等框架,使用同樣的模型,PyTorch實現(xiàn)更有可能快過其他框架。與TensorFlow的靜態(tài)計算圖不同,PyTorch的計算圖是動態(tài)的,可以根據(jù)計算需要實時改變計算圖。使用RTX3060 12G顯卡和CPU AMD銳龍5800X完成訓(xùn)練及驗證結(jié)果。
3 試驗結(jié)果與分析
3.1 基于深度學(xué)習(xí)的籽粒識別
基于深度學(xué)習(xí)的分類識別與傳統(tǒng)機(jī)器學(xué)習(xí)識別方法對比如表2所示。傳統(tǒng)模型通過提取的28個特征進(jìn)行識別,結(jié)果顯示KNN的驗證集識別準(zhǔn)確率最高為93.33%,KNN和SVM訓(xùn)練速度普遍高于卷積神經(jīng)網(wǎng)絡(luò),但卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率大多高于KNN和SVM的準(zhǔn)確率。在同等條件下,Inception-V3的驗證集要比VGG-16和ResNet-50分別高1.33個百分點和1.25個百分點。使用深度學(xué)習(xí)建立的識別方法要比傳統(tǒng)的機(jī)器學(xué)習(xí)識別方法驗證集準(zhǔn)確率較高,實用性高于機(jī)器學(xué)習(xí)。
3.2 基于遷移學(xué)習(xí)的籽粒識別
與不遷移學(xué)習(xí)的模型相比,遷移學(xué)習(xí)能夠明顯提升模型的收斂速度以及準(zhǔn)確率。各組訓(xùn)練和驗證的結(jié)果如表3所示,其中迭代次數(shù)的不同是指驗證集早停技術(shù)對結(jié)果進(jìn)行監(jiān)控,當(dāng)損失值連續(xù)12次不下降時所產(chǎn)生的迭代次數(shù),一次迭代時間指的是通過總時間除以迭代次數(shù)所產(chǎn)生的時間。進(jìn)行全局訓(xùn)練的是指不凍結(jié)卷積特征提取層,并和新的分類器參數(shù)進(jìn)行所有參數(shù)訓(xùn)練方式,局部訓(xùn)練是指凍結(jié)卷積特征提取層,僅對新的分類器進(jìn)行參數(shù)訓(xùn)練方式。試驗選擇初始學(xué)習(xí)率為0.1、0.01、0.001、0.000 1進(jìn)行模型訓(xùn)練。
3.2.1 遷移學(xué)習(xí)方式對模型準(zhǔn)確率的影響
表3為模型訓(xùn)練與驗證的準(zhǔn)確率,可以看出在相同的參數(shù)下,直接訓(xùn)練所有參數(shù)的遷移學(xué)習(xí)方式要明顯優(yōu)于僅訓(xùn)練分類器參數(shù)的方式。局部訓(xùn)練參數(shù)的遷移學(xué)習(xí)方式下,試驗8的驗證集識別準(zhǔn)確率最高,為98.43%。全局訓(xùn)練參數(shù)的遷移學(xué)習(xí)方式下,試驗20的驗證集識別準(zhǔn)確率最高,為99.35%。在相同參數(shù)下,對比不遷移的模型,VGG-16遷移學(xué)習(xí)比不遷移學(xué)習(xí)高1.54個百分點,ResNet-50遷移學(xué)習(xí)比不遷移學(xué)習(xí)高2.17個百分點,Inception-V3遷移學(xué)習(xí)比不遷移學(xué)習(xí)高1.03個百分點。與不遷移學(xué)習(xí)的模型相比,遷移學(xué)習(xí)能夠明顯提升模型的收斂速度以及準(zhǔn)確率。
從驗證集的準(zhǔn)確率看,進(jìn)行全局訓(xùn)練的參數(shù)模型所得到的驗證集準(zhǔn)確率明顯優(yōu)局部訓(xùn)練的參數(shù)模型,最高的分別為進(jìn)行全局訓(xùn)練的VGG-16模型初始學(xué)習(xí)率為0.000 1時,驗證集準(zhǔn)確率為98.53%;進(jìn)行全局訓(xùn)練的ResNet-50模型初始學(xué)習(xí)率為0.000 1時,驗證集準(zhǔn)確率為99.24%;進(jìn)行全局訓(xùn)練的Inception-V3模型初始學(xué)習(xí)率為0.000 1時,驗證集準(zhǔn)確率為99.35%,Inception-V3模型分別比VGG-16模型和ResNet-50模型高0.82個百分點和0.11個百分點。全局訓(xùn)練所迭代的時間雖然比較多,但準(zhǔn)確率是最高的,局部訓(xùn)練的三種模型來看,所訓(xùn)練的時間相對于全局訓(xùn)練要節(jié)省相對應(yīng)的一半,但其準(zhǔn)確率相對于全局訓(xùn)練相對較小一點。
3.2.2 初始學(xué)習(xí)率對模型準(zhǔn)確率的影響
從初始學(xué)習(xí)率看,學(xué)習(xí)率作為深度學(xué)習(xí)中重要的超參數(shù),其決定著目標(biāo)函數(shù)是否能收斂到局部最小值或者最優(yōu)值,設(shè)置太大會使結(jié)果超過最優(yōu)值,太小會使損失速度下降過慢,合適的學(xué)習(xí)率能夠使目標(biāo)在合適的數(shù)據(jù)內(nèi)收斂到局部最小值或者最優(yōu)值。隨著初始學(xué)習(xí)率的下降,訓(xùn)練集和驗證集的準(zhǔn)確率也隨之提升。
在局部訓(xùn)練中ResNet-50的學(xué)習(xí)率為0.001的時,驗證集的準(zhǔn)確率為92.53%,學(xué)習(xí)率為0.000 1時,驗證集的準(zhǔn)確率為92.68%,說明當(dāng)學(xué)習(xí)率為0.001時,已經(jīng)收斂到接近最優(yōu)值,再降低學(xué)習(xí)率也不會明顯增加準(zhǔn)確率。而初始學(xué)習(xí)率為0.000 1的時候試驗4、試驗12、試驗20是三種模型中準(zhǔn)確率最高的,但時候驗證集識別率呈現(xiàn)出一定的波動,尤其是VGG-16中的試驗4波動較大,模型不穩(wěn)定。以上結(jié)果表明,采用0.000 1的初始學(xué)習(xí)率時三種模型泛化能力最強(qiáng),效果也最優(yōu)。這是因為選用的微調(diào)遷移學(xué)習(xí),模型在原始數(shù)據(jù)上已經(jīng)收斂,所以設(shè)置較小的學(xué)習(xí)率在新數(shù)據(jù)上有更好的效果。
3.2.3 準(zhǔn)確率與損失值曲線的分析
從圖7來看,三種模型中,VGG-16中驗證集的損失值和準(zhǔn)確率相對不穩(wěn)定,驗證集損失值在第五次迭代過程中出現(xiàn)了極大的提升,在前15次迭代中有較大的波動,在15次后進(jìn)入相對穩(wěn)定狀態(tài)。ResNet-50中訓(xùn)練集和驗證集的損失值和準(zhǔn)確率在21次迭代以后相對是平穩(wěn)的,在40多次的迭代次數(shù)中,第21次迭代和第36次迭代中驗證集的精度有相對較大的波動,在之后訓(xùn)練中相對穩(wěn)定狀態(tài)。Inception-V3中訓(xùn)練集和驗證集的損失值和準(zhǔn)確率都是趨于相對穩(wěn)定的狀態(tài),相對也是三種模型在全局訓(xùn)練并且學(xué)習(xí)率在0.000 1的條件下驗證集效果最高的。三種模型均在達(dá)到穩(wěn)定狀態(tài)并且識別準(zhǔn)確率明顯提高,表明使用遷移學(xué)習(xí)的網(wǎng)絡(luò)可以保證準(zhǔn)確率和速度的情況下對小麥籽粒進(jìn)行識別的可行性,在識別前期不用做機(jī)器學(xué)習(xí)對圖像進(jìn)行過多的處理,大大降低了人工操作的成本。
3.2.4 測試集準(zhǔn)確率的分析
表4為3種模型VGG16、ResNet-50、Inception-V3在全局訓(xùn)練中學(xué)習(xí)率為0.000 1時測試集的結(jié)果。
可以看出ResNet-50的測試結(jié)果最高,高于VGG-16準(zhǔn)確率0.22個百分點,高于VGG-16 F1值0.19個百分點;高于Inception-V3準(zhǔn)確率0.55個百分點,高于Inception-V3 F1值0.53個百分點,迭代時間是最短的。在VGG-16中,雖然識別率相對于ResNet-50較低一些,訓(xùn)練所需的迭代時間比ResNet-50高一些。在Inception-V3中,驗證集雖然是最高的但是在測試集的識別率相對于另外兩種模型要低一些,訓(xùn)練所需的迭代時間要比ResNet-50高一些,相較于VGG-16的迭代時間相差不多。綜上所述ResNet-50模型全局訓(xùn)練模型運(yùn)算時間最短且分類效果在測試集上的準(zhǔn)確率最高。
3.3 基于遷移學(xué)習(xí)的三種角度識別結(jié)果分析
1) 角度統(tǒng)一的影響。
在以往的試驗中,采用的是單粒單圖單角度的圖片,從結(jié)果來看無法達(dá)到預(yù)期效果,在本試驗中,單粒多圖多角度的圖片識別效果要比單粒單圖單角度識別效果更優(yōu)。通過遷移微調(diào)后的網(wǎng)絡(luò)與現(xiàn)有的小麥識別進(jìn)行對比,對比試驗選擇文獻(xiàn)[14]和文獻(xiàn)[1718]的拍攝方式和試驗方法。在三種模型中,通過測試集驗證ResNet-50的平均識別率最高為99.77%,結(jié)果如表5所示。
2) 三種角度的影響。
為了更好地驗證多幅同一小麥籽粒圖片的必要性,分別對三種角度在模型中的識別性能進(jìn)行分析。
試驗結(jié)果如圖8和表6所示,在VGG-16(試驗4)中測試集對應(yīng)的混淆矩陣中品種標(biāo)簽2中有4張圖像被誤認(rèn)為了標(biāo)簽1,出現(xiàn)錯誤上的在腹溝朝前方向1張,腹溝向上方向3張,在三種角度中,腹溝向下的識別率最好。在ResNet-50(試驗12)中測試集對應(yīng)的混淆矩陣中品種標(biāo)簽2中有1張圖像被誤認(rèn)為標(biāo)簽1,標(biāo)簽4中有1張圖像被誤認(rèn)為標(biāo)簽5,出現(xiàn)錯誤的在腹溝向上的方向2張,在三種角度中,腹溝向下的識別率最好。
在Inception-V3(試驗20)測試集對應(yīng)的混淆矩陣中品種標(biāo)簽0中有1張圖像被誤認(rèn)為標(biāo)簽3,標(biāo)簽1中有2張圖像誤認(rèn)為標(biāo)簽2,標(biāo)簽2中有1張圖像被誤認(rèn)為標(biāo)簽0和2張圖像被誤認(rèn)為標(biāo)簽1,標(biāo)簽4有1張圖像被誤認(rèn)為5,其中腹溝朝前的有4張圖像,腹溝向上的有3張圖像,在三種角度中,腹溝向下的識別率最好。通過圖9可以看出,在ResNet-50(試驗12)中三種角度的混淆矩陣中,出現(xiàn)識別錯誤的都在腹溝向上。綜上所述,可以看出從三種角度來講,腹溝向下識別率最好。進(jìn)一步驗證了單粒多圖多角度籽粒圖片的必要性。
4 結(jié)論
本文試驗使用遷移學(xué)習(xí)的方法,通過改進(jìn)原模型的結(jié)構(gòu),將VGG-16,ResNet-50,Inception-V3這三個網(wǎng)絡(luò)模型對小麥籽粒分類,證明了遷移學(xué)習(xí)對比深度學(xué)習(xí)和機(jī)器學(xué)習(xí)更有有效性。
1)? 針對小麥籽粒識別分類的問題,采集了6個推廣面積比較廣的小麥籽粒圖像,每個品種分別采集1 000 粒小麥,針對每粒小麥分別采集腹溝向上、腹溝朝前、腹溝向下三種角度的圖像,每個品種采集3 000張圖像。選擇9 000張圖片,通過遷移學(xué)習(xí)的方法將3種典型的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到小麥籽粒識別的問題上進(jìn)行比較,結(jié)果表明驗證集準(zhǔn)確率最高可達(dá)99.35%。根據(jù)網(wǎng)絡(luò)的復(fù)雜度,網(wǎng)絡(luò)的訓(xùn)練時間顯著差異,全局訓(xùn)練的時間相對于不進(jìn)行全局訓(xùn)練的時間將近多一倍左右,其中VGG-16網(wǎng)絡(luò)局部訓(xùn)練時學(xué)習(xí)率為0.000 1時所訓(xùn)練的時間最短,且驗證集準(zhǔn)確率比全局訓(xùn)練的準(zhǔn)確率低0.1個百分點,為98.43%。盡管使用遷移學(xué)習(xí)在訓(xùn)練的時間要遠(yuǎn)大于傳統(tǒng)的機(jī)器學(xué)習(xí),但顯著提高了小麥籽粒識別分類的準(zhǔn)確率,在小麥籽粒識別方面效果更好。
2)? 對比深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、遷移學(xué)習(xí)中,遷移學(xué)習(xí)明顯在準(zhǔn)確率上高于深度學(xué)習(xí)和機(jī)器學(xué)習(xí),通過遷移學(xué)習(xí)識別的結(jié)果可以看出使用遷移學(xué)習(xí)能夠更好地達(dá)到識別效果。從三種模型中各選擇識別最好的試驗,分別為試驗4、試驗12、試驗20,進(jìn)行其性能比較,結(jié)果表明,試驗12中ResNet-50的識別速度最快,識別率是最高的,對其三種角度分別測試結(jié)果發(fā)現(xiàn)腹溝向下跟腹溝朝前的效果最好。試驗6和試驗22雖然識別率不是最高,但是其識別準(zhǔn)確率也不差。從三種模型中分別去看三種角度平均識別率的試驗中,腹溝向下的效果在三種模型中效果最好,腹溝朝前的要比腹溝向上的效果要好一點。驗證了單粒多圖多角度小麥籽粒圖片的必要性。
3)? 本文6類小麥籽粒采用三種模型進(jìn)行籽粒識別,通過測試選擇出了最優(yōu)的模型,但是其所迭代時間過長,速度過慢。下一步重點將選擇輕量級網(wǎng)絡(luò)和增加小麥籽粒類別,在不影響識別效率的情況下提高運(yùn)行速度,從而選擇出更適合的模型。
參 考 文 獻(xiàn)
[1] 王寧, 程威. 2000—2019年河南省小麥播種面積與產(chǎn)量變化趨勢分析[J]. 農(nóng)業(yè)科技通訊, 2021(6): 234-235, 322.
[2] 馬斯霜, 白海波, 惠建, 等. 小麥主要品質(zhì)性狀研究進(jìn)展[J]. 中國農(nóng)學(xué)通報, 2021, 37(24): 1-5.
Ma Sishuang, Bai Haibo, Hui Jian, et al. Main quality characters of wheat: A review [J]. Chinese Agricultural Science Bulletin, 2021, 37(24): 1-5.
[3] 樊超, 夏旭, 石小鳳, 等. 基于圖像處理的小麥品種分類研究[J]. 河南工業(yè)大學(xué)學(xué)報(自然科學(xué)版), 2011, 32(5): 74-78.
Fan Chao, Xia Xu, Shi Xiaofeng, et al. Wheat variety classification based on image processing [J]. Journal of Henan University of Technology (Natural Science Edition), 2011, 32(5): 74-78.
[4] 何紅霞. 基于機(jī)器視覺的小麥種子品種分類模型研究[D]. 合肥: 安徽農(nóng)業(yè)大學(xué), 2018.
He Hongxia. Study on classification model of wheat seed varieties based on machine vision [D]. Hefei: Anhui Agricultural University, 2018.
[5] 程帥, 李艷玲, 司海平, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的農(nóng)作物種類自動識別算法研究[J]. 河南科學(xué), 2020, 38(12): 1908-1914.
Cheng Shuai, Li Yanling, Si Haiping, et al. Automatic recognition algorithm of crop species based on convolutional neural network [J]. Henan Science, 2020, 38(12): 1908-1914.
[6] 徐巖, 劉林, 李中遠(yuǎn), 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的玉米品種識別[J]. 江蘇農(nóng)業(yè)學(xué)報, 2020, 36(1): 18-23.
Xu Yan, Liu Lin, Li Zhongyuan, et al. Recognition of maize varieties based on convolutional neural network [J]. Jiangsu Journal of Agricultural Sciences, 2020, 36(1): 18-23.
[7] 劉小剛, 范誠, 李加念, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的草莓識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2020, 51(2): 237-244.
Liu Xiaogang, Fan Cheng, Li Jianian, et al. Identification method of strawberry based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 237-244.
[8] 張忠志, 薛歡慶, 范廣玲. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的紅棗缺陷識別[J]. 食品與機(jī)械, 2021, 37(8): 158-162, 192.
Zhang Zhongzhi, Xue Huanqing, Fan Guangling. Research on jujube defect recognition method based on improved convolution neural network [J]. Food and Machinery, 2021, 37(8): 158-162, 192.
[9] 石晨宇, 周春, 靳鴻, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的農(nóng)作物病害識別研究[J]. 國外電子測量技術(shù), 2021, 40(9): 93-99.
Shi Chenyu, Zhou Chun, Jin Hong, et al. Research on crop disease recognition based on convolutional neural network [J]. Foreign Electronic Measurement Technology, 2021, 40(9): 93-99.
[10] 邱津怡, 羅俊, 李秀, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的多尺度葡萄圖像識別方法[J]. 計算機(jī)應(yīng)用, 2019, 39(10): 2930-2936.
Qiu Jinyi, Luo Jun, Li Xiu, et al. Multi-scale grape image recognition method based on convolutional neural network [J]. Journal of Computer Applications, 2019, 39(10): 2930-2936.
[11] 謝為俊, 丁冶春, 王鳳賀, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的油茶籽完整性識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報, 2020, 51(7): 13-21.
Xie Weijun, Ding Yechun, Wang Fenghe, et al. Integrity recognition of camellia oleifera seeds based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(7): 13-21.
[12] 劉嘉政. 基于深度遷移學(xué)習(xí)模型的花卉種類識別[J]. 江蘇農(nóng)業(yè)科學(xué), 2019, 47(20): 231-236.
Liu Jiazheng. Flower species identification based on deep transfer learning model [J]. Jiangsu Agricultural Sciences, 2019, 47(20): 231-236.
[13] 王東方, 汪軍. 基于遷移學(xué)習(xí)和殘差網(wǎng)絡(luò)的農(nóng)作物病害分類[J]. 農(nóng)業(yè)工程學(xué)報, 2021, 37(4): 199-207.
Wang Dongfang, Wang Jun. Crop disease classification with transfer learning and residual networks [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(4): 199-207.
[14] 何勝美, 李仲來, 何中虎. 基于圖像識別的小麥品種分類研究[J]. 中國農(nóng)業(yè)科學(xué), 2005(9): 1869-1875.
He Shengmei, Li Zhonglai, He Zhonghu. Classification of wheat cultivar by digital image analysis [J]. Scientia Agricultura Sinica, 2005(9): 1869-1875.
[15] Punn M, Bhalla N. Classification of wheat grains using machine algorithms [J]. International Journal of Science and Research (IJSR), 2013, 2(8): 363-366.
[16] 孟惜, 王克儉, 韓憲忠. 基于改進(jìn)BP網(wǎng)絡(luò)的小麥品種識別[J]. 貴州農(nóng)業(yè)科學(xué), 2017, 45(10): 156-160.
Meng Xi, Wang Kejian, Han Xianzhong. Classification of wheat varieties by improved BP neural network [J]. Guizhou Agricultural Science, 2017, 45(10): 156-160.
[17] 陳文根, 李秀娟, 吳蘭. 基于深度卷積網(wǎng)絡(luò)的小麥品種識別研究[J]. 糧食儲藏, 2018, 47(2): 1-4, 13.
Chen Wengen, Li Xiujuan, Wu Lan. Research on wheat variety identification based on deep convolution network [J]. Grain Storage, 2018, 47(2): 1-4, 13.
[18] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [J]. arXiv preprint arXiv: 1409.1556, 2014.
[19] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[20] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.
[21] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2818-2826.