胡錦濤 王苗苗 李濤 吳東麗 田東哲
摘要 精準(zhǔn)農(nóng)業(yè)是當(dāng)今世界農(nóng)業(yè)發(fā)展的新趨勢(shì),實(shí)現(xiàn)精準(zhǔn)農(nóng)業(yè)的關(guān)鍵基礎(chǔ)是能夠?qū)崟r(shí)準(zhǔn)確地提取作物的生長(zhǎng)信息以及確定生長(zhǎng)環(huán)境狀態(tài)?,F(xiàn)階段國內(nèi)外利用圖像處理技術(shù)對(duì)作物生長(zhǎng)信息的檢測(cè),主要集中在病蟲害識(shí)別、雜草識(shí)別等方面,對(duì)作物生長(zhǎng)期進(jìn)行自動(dòng)識(shí)別的相關(guān)技術(shù)鮮有報(bào)道。以棉花田間數(shù)字圖像為研究對(duì)象,結(jié)合深度學(xué)習(xí)的方法,對(duì)棉花關(guān)鍵發(fā)育期的自動(dòng)觀測(cè)方法進(jìn)行研究。結(jié)果表明,相較于傳統(tǒng)特征提取方法,提出了卷積神經(jīng)網(wǎng)絡(luò)CNN-CGS模型對(duì)棉花圖像進(jìn)行特征提取,并進(jìn)一步結(jié)合遷移學(xué)習(xí)方法訓(xùn)練網(wǎng)絡(luò),獲得了更加準(zhǔn)確的棉花生長(zhǎng)期識(shí)別結(jié)果,同時(shí)也為農(nóng)作物發(fā)育期和長(zhǎng)勢(shì)識(shí)別邁向自動(dòng)化發(fā)展提供技術(shù)支持,為及時(shí)掌握棉花生長(zhǎng)狀況、開展農(nóng)事活動(dòng)和現(xiàn)代化農(nóng)田管理提供新的思路。
關(guān)鍵詞 作物生長(zhǎng)觀測(cè);圖像識(shí)別;深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò)
中圖分類號(hào) TP391文獻(xiàn)標(biāo)識(shí)碼 A
文章編號(hào) 0517-6611(2019)11-0237-04
doi:10.3969/j.issn.0517-6611.2019.11.068
開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
Abstract Precision agriculture is a trend of current agricultural development, the key to achieve that is the ability to accurately extract crop growth information and determine the state of the growing environment in real time.? Most detection methods based on image processing technology for crop growth information mainly focuses on the identification of pests, diseases and weeds. There are few reports on the automatic detection of crop growth period.? In this research, the digital image of cotton field was taken as the research object, and the automatic observation method of key development period of cotton was studied through deep learning method. Compared with the traditional feature extraction methods, we adopted the convolutional neural network(CNN) to extract the features of cotton images, and further combined the transfer learning method to train CNN, which obtained more accurate cotton growth period identification results. Meanwhile, it also provided technical support for the automatic identification of crop growth stages and states. On the other hand, a new idea was presented for realtime acquisition of cotton growth status, development of agricultural activities and modern farmland management, and scientific assessment of the impact of meteorological factors on cotton.
Key words Crop observation;Image recognition;Deep learning;Convolutional neural network
作者簡(jiǎn)介 胡錦濤(1987—),男,河南鄭州人,工程師,碩士,從事硬件設(shè)計(jì)和算法研究。*通信作者,工程師,碩士,從事圖像處理研究。
收稿日期 2019-01-10
作物觀測(cè)是農(nóng)業(yè)氣象觀測(cè)的重要組成部分。通過作物的觀測(cè),鑒定農(nóng)業(yè)氣象條件對(duì)作物生長(zhǎng)發(fā)育和產(chǎn)量形成及品質(zhì)的影響,為農(nóng)業(yè)氣象情報(bào)、預(yù)報(bào),以及作物的氣候評(píng)價(jià)等提供依據(jù),為高產(chǎn)、優(yōu)質(zhì)、高效農(nóng)業(yè)服務(wù)。棉花作為重要的經(jīng)濟(jì)作物之一,對(duì)其發(fā)育期進(jìn)行自動(dòng)觀測(cè)技術(shù)研究具有重要意義?,F(xiàn)階段棉花發(fā)育期信息的獲取主要依靠人工觀測(cè),觀測(cè)人員按照農(nóng)業(yè)氣象觀測(cè)規(guī)范中的定義和描述,對(duì)田間作物進(jìn)行實(shí)地的目測(cè)或簡(jiǎn)單的器測(cè)。這種方式耗時(shí)、費(fèi)力,主觀性強(qiáng)且無法進(jìn)行連續(xù)觀測(cè),同時(shí)還容易破環(huán)作物及其生長(zhǎng)環(huán)境。因此,亟需一種自動(dòng)連續(xù)、非破壞性的記錄方法來對(duì)棉花的發(fā)育期進(jìn)行觀測(cè)。結(jié)合計(jì)算機(jī)視覺技術(shù)在田間架構(gòu)成像設(shè)備,成為了解決上述問題的有效途徑之一。由于其具有成本低、直觀、非接觸式等優(yōu)點(diǎn),已被逐漸應(yīng)用于農(nóng)業(yè)自動(dòng)化的各個(gè)領(lǐng)域,例如病蟲害檢測(cè)識(shí)別、田間雜草識(shí)別、作物等級(jí)劃分等。研究人員通過提取無土栽培番茄葉片圖像的顏色特征,以及圖像中不易被肉眼發(fā)現(xiàn)的顏色變化來判斷作物缺乏的營(yíng)養(yǎng)元素類型,及時(shí)采取相應(yīng)措施減少生產(chǎn)損失[1-2]。吳茜[2]、李少昆等[3]研究了麥田圖像色調(diào)值與中后期小麥長(zhǎng)勢(shì)的相關(guān)性,將圖像處理技術(shù)與人工神經(jīng)網(wǎng)絡(luò)技術(shù)相結(jié)合應(yīng)用到小麥群體綠色面積和綠色葉面積特征的圖像識(shí)別中,對(duì)小麥苗情進(jìn)行自動(dòng)化快速診斷,該方法也可用于稻谷等其他作物群體特征及病斑、株型、外觀品質(zhì)等類似目標(biāo)的識(shí)別研究。毛文華等[4]針對(duì)苗期田間植物的位置特征,提出了基于計(jì)算機(jī)視覺技術(shù)的算法DBW,對(duì)苗期田間雜草進(jìn)行分割和識(shí)別。盡管計(jì)算機(jī)視覺在上述領(lǐng)域中已經(jīng)取得較大的研究進(jìn)展,并成功投入實(shí)際的生產(chǎn)過程中,但由于在棉花田間拍攝的靜態(tài)圖像只能反映棉花田間的部分信息,導(dǎo)致其并不能完整地反映農(nóng)業(yè)氣象觀測(cè)規(guī)范中對(duì)每個(gè)發(fā)育期所定義的特點(diǎn)。其次,田間圖像受光照和背景影響較大。不同光照強(qiáng)度下的圖像特征也不同,且背景中的土壤、雜草、薄膜等容易對(duì)目標(biāo)檢測(cè)造成很大的干擾,因此自然環(huán)境下的棉花圖像特征提取對(duì)算法的魯棒性和抗干擾性要求較高,導(dǎo)致了利用計(jì)算機(jī)視覺技術(shù)以及田間架構(gòu)成像設(shè)備對(duì)棉花發(fā)育期觀測(cè)的研究無法順利開展,尤其利用圖像處理技術(shù)檢測(cè)識(shí)別棉花發(fā)育期的相關(guān)工作在現(xiàn)有文獻(xiàn)中尚鮮見報(bào)道。
深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域中的熱門方向,近年來在計(jì)算機(jī)視覺、語音識(shí)別等多類應(yīng)用中均取得了突破性的進(jìn)展。其中,深度學(xué)習(xí)架構(gòu)由多層非線性運(yùn)算單元組成,每個(gè)較低層的輸出作為更高層的輸入,可以從大量輸入數(shù)據(jù)中學(xué)習(xí)有效的特征表示,學(xué)習(xí)到的高階表示包含輸入數(shù)據(jù)的結(jié)構(gòu)信息,展現(xiàn)出了強(qiáng)大的從少數(shù)樣本集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力,近年來已逐漸應(yīng)用到了計(jì)算機(jī)視覺領(lǐng)域的方方面面[5-14],并且展現(xiàn)出了很強(qiáng)的優(yōu)越性。
深度學(xué)習(xí)展現(xiàn)出的強(qiáng)大的特征提取能力,為該研究的基于計(jì)算機(jī)視覺的棉花發(fā)育期自動(dòng)觀測(cè)方法提出了新思路。鑒于此,筆者以棉花田間數(shù)字圖像為研究對(duì)象,通過構(gòu)建的棉花數(shù)據(jù)集對(duì)預(yù)先訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行微調(diào),從而實(shí)現(xiàn)利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)棉花關(guān)鍵發(fā)育期的自動(dòng)觀測(cè),該方法不僅解決了現(xiàn)有棉花圖像數(shù)據(jù)不充足的問題,還大大提高了網(wǎng)絡(luò)模型的收斂速度。相較于傳統(tǒng)的圖像識(shí)別方法,該研究提出的基于深度學(xué)習(xí)的棉花發(fā)育期自動(dòng)觀測(cè)方法顯著提高了棉花發(fā)育期的識(shí)別精度。
1 數(shù)據(jù)與方法
1.1 數(shù)據(jù)來源
訓(xùn)練集和測(cè)試集均來源于新疆烏蘭烏蘇實(shí)驗(yàn)站的作物生長(zhǎng)自動(dòng)監(jiān)測(cè)系統(tǒng)。通過安裝在農(nóng)業(yè)站上的攝像機(jī)獲得特定區(qū)域的棉花特寫鏡頭,設(shè)定每日9:00、10:00、11:00、12:00、13:00、14:00、15:00、16:00共8個(gè)時(shí)間點(diǎn)進(jìn)行自動(dòng)拍攝棉花生長(zhǎng)圖像,圖像分辨率3 648×2 736,彩色,JPG格式。在2013—2018年棉花的生長(zhǎng)期內(nèi),數(shù)據(jù)庫中累積了數(shù)萬張圖像,涵蓋了棉花的播種期、出苗期、三真葉期、五真葉期、現(xiàn)蕾期、開花期、裂鈴期、吐絮期和停止生長(zhǎng)期9種發(fā)育期以及不同場(chǎng)景的棉花圖像,確保了該數(shù)據(jù)訓(xùn)練的網(wǎng)絡(luò)能夠具有很好的魯棒性。同時(shí)為了增加訓(xùn)練數(shù)據(jù),使訓(xùn)練出的網(wǎng)絡(luò)具有更好的抗旋轉(zhuǎn)、平移和縮放不變性,訓(xùn)練前對(duì)訓(xùn)練數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)操作,包括隨機(jī)旋轉(zhuǎn)圖像,范圍±30°;左右鏡像翻轉(zhuǎn)圖像;水平、垂直平移圖像,范圍±30像素。試驗(yàn)中從數(shù)據(jù)庫選取了8 000張棉花圖像構(gòu)建訓(xùn)練數(shù)據(jù)集,1 025張棉花圖像構(gòu)建測(cè)試數(shù)據(jù)集。其中訓(xùn)練集和測(cè)試集均涵蓋了棉花的9種發(fā)育期,數(shù)據(jù)集樣例如圖1所示。同時(shí)還進(jìn)一步將每張圖像分割成大小為的圖像塊,這樣在網(wǎng)絡(luò)的訓(xùn)練過程中,卷積層可以對(duì)每個(gè)圖像塊進(jìn)行特征提取,不僅保證了圖像數(shù)據(jù)的充足性,還簡(jiǎn)化了網(wǎng)絡(luò)的計(jì)算量。
47卷11期 胡錦濤等 基于深度學(xué)習(xí)的棉花發(fā)育期自動(dòng)觀測(cè)
1.2 棉花發(fā)育期的識(shí)別
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)作為第一個(gè)真正成功地采用多層次結(jié)構(gòu)網(wǎng)絡(luò)的深度學(xué)習(xí)方法,具有結(jié)構(gòu)簡(jiǎn)單、訓(xùn)練參數(shù)少和適應(yīng)性強(qiáng)等特點(diǎn)。實(shí)現(xiàn)棉花發(fā)育期觀測(cè)的卷積神經(jīng)網(wǎng)絡(luò)CNN-CGS模型如圖2所示。該模型包含1個(gè)輸入層、5個(gè)卷積層、3個(gè)池化層、2個(gè)全連接層和1個(gè)Softmax分類層。具體每一層的規(guī)格大小設(shè)定如表1所示,其中輸入層可以直接對(duì)原始輸入數(shù)據(jù)進(jìn)行處理,輸入的就是圖像的像素值,輸入圖像大小為227×227×3;卷積層作用就是通過卷積核對(duì)輸入圖像進(jìn)行卷積操作實(shí)現(xiàn)對(duì)輸入信號(hào)特定模式的觀測(cè),卷積核的數(shù)量越多,相應(yīng)可提取輸入數(shù)據(jù)的特征信息也更多,所以卷積層也叫做特征提取層。池化層的輸入一般來源于上一個(gè)卷積層,是一個(gè)降采樣的操作,主要作用是使網(wǎng)絡(luò)具有很強(qiáng)的魯棒性,并且減少了參數(shù)的數(shù)量,加快了網(wǎng)絡(luò)的收斂速度,同時(shí)防止了過擬合現(xiàn)象的發(fā)生;全連接層實(shí)際上就是多層感知機(jī)的隱含層部分。通常情況下后面層的神經(jīng)節(jié)點(diǎn)都和前一層的每一個(gè)神經(jīng)節(jié)點(diǎn)連接,同一層的神經(jīng)元節(jié)點(diǎn)之間是沒有連接的。每一層的神經(jīng)元節(jié)點(diǎn)分別通過連接線上的權(quán)值進(jìn)行前向傳播,加權(quán)組合得到下一層神經(jīng)元節(jié)點(diǎn)的輸入。最后是softmax分類層進(jìn)行棉花發(fā)育期分類,輸出最終的發(fā)育期識(shí)別結(jié)果。
由于深度卷積神經(jīng)網(wǎng)絡(luò)參數(shù)多、特征數(shù)量大,因此需要大量的圖像數(shù)據(jù)進(jìn)行訓(xùn)練。一般中型網(wǎng)絡(luò)的訓(xùn)練需要的數(shù)據(jù)量就已達(dá)到的百萬級(jí),數(shù)據(jù)量不足往往會(huì)導(dǎo)致網(wǎng)絡(luò)過擬合。但該研究構(gòu)建的棉花數(shù)據(jù)集圖像數(shù)量顯然無法滿足訓(xùn)練上述卷積神經(jīng)網(wǎng)絡(luò)模型的要求,因此該研究采用深度學(xué)習(xí)中的遷移學(xué)習(xí)方法進(jìn)行網(wǎng)絡(luò)模型的訓(xùn)練和微調(diào)。ImageNet數(shù)據(jù)集[20]是目前深度學(xué)習(xí)圖像領(lǐng)域應(yīng)用中被使用最多的數(shù)據(jù)集,關(guān)于圖像分類、定位、檢測(cè)等研究工作大多基于此數(shù)據(jù)集展開,該數(shù)據(jù)集有1 400多萬幅圖片,涵蓋2萬多個(gè)類別,其中有超過百萬的圖片有明確的類別標(biāo)注和圖像中物體位置的標(biāo)注。筆者選用該數(shù)據(jù)集初步預(yù)訓(xùn)練CNN-CGS,待網(wǎng)絡(luò)收斂后,保存初步預(yù)訓(xùn)練的模型,再將構(gòu)建的棉花數(shù)據(jù)集對(duì)預(yù)訓(xùn)練的CNN-CGS進(jìn)行二次訓(xùn)練微調(diào)。但由于該研究所要識(shí)別的棉花圖像數(shù)據(jù)量少,且同ImageNet數(shù)據(jù)集中的對(duì)象類別差異較大,因此根據(jù)新的數(shù)據(jù)集二次訓(xùn)練并定制更高層是很重要的,同時(shí)由于預(yù)訓(xùn)練CNN-CGS模型的初始1~2層主要學(xué)習(xí)最基本的圖像特征(例如顏色、邊緣等),所以在微調(diào)過程中將其濾波器參數(shù)固定不變,其余卷積層的濾波器參數(shù)值通過新的網(wǎng)絡(luò)訓(xùn)練進(jìn)行更新,試驗(yàn)中設(shè)計(jì)的具體的微調(diào)過程如圖3所示。在用棉花數(shù)據(jù)集對(duì)CNN-CGS模型進(jìn)行網(wǎng)絡(luò)微調(diào)過程中,對(duì)CNN-CGS模型先后設(shè)計(jì)了3次迭代訓(xùn)練。第1次網(wǎng)絡(luò)迭代訓(xùn)練中,固定網(wǎng)絡(luò)的1~4層的權(quán)重參數(shù),使用棉花數(shù)據(jù)集訓(xùn)練更新第5層的濾波器權(quán)重參數(shù);第2次網(wǎng)絡(luò)訓(xùn)練中,將第1次迭代訓(xùn)練得到的CNN-CGS模型作為新的預(yù)訓(xùn)練模型,然后固定網(wǎng)絡(luò)的1~3層濾波器參數(shù),再次使用棉花數(shù)據(jù)集對(duì)4~5層濾波器進(jìn)行參數(shù)更新;按同樣的方法,在第3次網(wǎng)絡(luò)訓(xùn)練中,先使用第2次迭代訓(xùn)練得到的卷積層權(quán)重參數(shù)對(duì)CNN-CGS模型進(jìn)行初始化,然后固定網(wǎng)絡(luò)的1~2層參數(shù),訓(xùn)練更新3~5層濾波器參數(shù)。這樣經(jīng)過3次迭代訓(xùn)練CNN-CGS模型在棉花圖像數(shù)據(jù)不充足的情況下,能夠?qū)崿F(xiàn)很好的收斂,并將其用于之后的棉花發(fā)育期識(shí)別精度的測(cè)試。這種微調(diào)方法不僅解決了現(xiàn)有棉花數(shù)據(jù)集不充足的問題,還大大提高了網(wǎng)絡(luò)收斂速度。特別在網(wǎng)絡(luò)訓(xùn)練過程中,除最后一層卷積層學(xué)習(xí)率初始化設(shè)為0001外,其他所有卷積層的學(xué)習(xí)率均初始化為0.010。當(dāng)驗(yàn)證誤差率在當(dāng)前學(xué)習(xí)率下不再提高時(shí),就將學(xué)習(xí)率除以10。具體棉花發(fā)育期識(shí)別訓(xùn)練過程中,CNN-CGS模型學(xué)習(xí)率下降了2次。
1.3 仿真實(shí)驗(yàn)平臺(tái)
仿真平臺(tái)為64位window7操作系統(tǒng),硬件環(huán)境為內(nèi)存16 G,Intel(R)Xeon(R)E5-1607,GPU NVIDIA Quadro K600。選用的深度學(xué)習(xí)開源架構(gòu)為MatConvNet,并通過MatConvNet[21]調(diào)用GPU實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的并行運(yùn)算。
2 結(jié)果與分析
為了評(píng)估基于卷積神經(jīng)網(wǎng)絡(luò)方法在棉花發(fā)育期識(shí)別方面的性能和效率,在測(cè)試過程中加入了基于手動(dòng)特征提取的典型機(jī)器學(xué)習(xí)方法與該研究提出的基于卷積神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行比較。其中基于手動(dòng)特征提取的機(jī)器學(xué)習(xí)方法主要通過提取基于GLCM特征和HOG特征的紋理特征,并將其組合成特征集輸入到由樸素貝葉斯分類器(Nave-Bayes)組成的機(jī)器學(xué)習(xí)算法中[22],從而實(shí)現(xiàn)棉花發(fā)育期的識(shí)別。具體的測(cè)試數(shù)據(jù)集的發(fā)育期分類結(jié)果如表2所示,其中正確分類895,錯(cuò)誤分類130個(gè),采用卷積神經(jīng)網(wǎng)絡(luò)的方法在棉花發(fā)育期識(shí)別結(jié)果精度達(dá)到了87.32%、召回率達(dá)到86.14%、F1分?jǐn)?shù)達(dá)到了86.58%、準(zhǔn)確度高達(dá)86.54%,這些都明顯高于基于手動(dòng)特征提取的方法,證明了深度學(xué)習(xí)方法在棉花發(fā)育期識(shí)別方面的有效性。由于卷積神經(jīng)網(wǎng)絡(luò)最初是為物體識(shí)別而設(shè)計(jì)的,試驗(yàn)結(jié)果顯示卷積神經(jīng)網(wǎng)絡(luò)在棉花的識(shí)別上也獲得了很高的識(shí)別精度,證明了基于卷積神經(jīng)網(wǎng)絡(luò)的方法在捕獲圖像的紋理特征方面的優(yōu)越性。同時(shí)由于結(jié)合了GPU并行計(jì)算方法,基于卷積神經(jīng)網(wǎng)絡(luò)的方法在識(shí)別速度上也遠(yuǎn)遠(yuǎn)超過基于手動(dòng)特征提取方法。試驗(yàn)結(jié)果還表明基于卷積神經(jīng)網(wǎng)絡(luò)的方法和基于手動(dòng)特征提取的方法在棉花的播種期和出苗期識(shí)別精度相對(duì)較低,通過研究發(fā)現(xiàn)在棉花的早期生長(zhǎng)階段,圖像中大部分是土壤信息,使得這兩個(gè)發(fā)育期圖像的土壤特征都是相似的,加大了棉花發(fā)育期的識(shí)別難度。由于棉花在之后的發(fā)育期具有非常獨(dú)特的特征屬性,因此CNN-CGS模型對(duì)于后面的棉花發(fā)育期識(shí)別精度較高。
使用卷積神經(jīng)網(wǎng)絡(luò)的方法識(shí)別棉花的發(fā)育期有以下優(yōu)勢(shì):①基于深度學(xué)習(xí)的棉花發(fā)育期識(shí)別方法直接聯(lián)合優(yōu)化了所有的卷積層,具有結(jié)構(gòu)輕量、各組件優(yōu)化同步識(shí)別速度快等優(yōu)點(diǎn);②基于深度學(xué)習(xí)的方法以新的視角深度挖掘與棉花發(fā)育期之間的內(nèi)在聯(lián)系,具有較高的棉花發(fā)育期識(shí)別精度;③基于深度學(xué)習(xí)的方法可以對(duì)單一圖像進(jìn)行識(shí)別,不要求相鄰圖像數(shù)據(jù)提供額外的發(fā)育期信息,且可以對(duì)不同場(chǎng)景的棉花圖像進(jìn)行識(shí)別。同時(shí)該研究?jī)H使用簡(jiǎn)單的CNN-CGS模型進(jìn)行了棉花發(fā)育期的識(shí)別,進(jìn)一步引入更深層、更復(fù)雜的模型將會(huì)得到更加高的識(shí)別精度,這也是該研究基于深度學(xué)習(xí)方法棉花發(fā)育期識(shí)別未來的研究方向。
基于手動(dòng)特征提取方法Extraction method based on manual feature81.74 80.7280.6680.89
3 小結(jié)
針對(duì)棉花發(fā)育期的自動(dòng)觀測(cè)問題,該研究成功地將深度學(xué)習(xí)方法應(yīng)用于棉花的發(fā)育期識(shí)別,實(shí)現(xiàn)了9種棉花發(fā)育期的自動(dòng)觀測(cè)。首先構(gòu)建了棉花圖像數(shù)據(jù)集,并提出了用于棉花發(fā)育期觀測(cè)的卷積神經(jīng)網(wǎng)絡(luò)CNN-CGS模型,根據(jù)棉花圖像的特點(diǎn)對(duì)預(yù)訓(xùn)練的CNN-CGS模型的部分卷積層設(shè)計(jì)了二次訓(xùn)練微調(diào)過程,不僅解決了棉花圖像數(shù)據(jù)不充足問題,還簡(jiǎn)化了網(wǎng)絡(luò)訓(xùn)練,提高了網(wǎng)絡(luò)的魯棒性,防止了網(wǎng)絡(luò)的過擬合。為了評(píng)估基于深度學(xué)習(xí)方法在棉花發(fā)育期識(shí)別方面的性能和效率,該研究使用了基于手動(dòng)特征提取的機(jī)器學(xué)習(xí)方法與提出的深度學(xué)習(xí)方法進(jìn)行對(duì)比。試驗(yàn)結(jié)果表明,基于深度學(xué)習(xí)的方法在棉花發(fā)育期的識(shí)別方面獲得了更加準(zhǔn)確的識(shí)別結(jié)果,證明了深度學(xué)習(xí)方法在棉花發(fā)育期識(shí)別的有效性和優(yōu)越性。未來的工作還將包括建立更深層的深度學(xué)習(xí)架構(gòu),特別是訓(xùn)練用于不同農(nóng)作物發(fā)育期識(shí)別的深度網(wǎng)絡(luò)模型。
參考文獻(xiàn)
[1] 徐貴力,毛罕平,李萍萍.缺素葉片彩色圖像顏色特征提取的研究[J].農(nóng)業(yè)工程學(xué)報(bào),2002,18(4):150-154.
[2] 吳茜.基于圖像處理技術(shù)的棉花發(fā)育期自動(dòng)觀測(cè)研究[D].武漢:華中科技大學(xué),2013.
[3] 李少昆,索興梅,白中英,等.基于BP神經(jīng)網(wǎng)絡(luò)的小麥群體圖像特征識(shí)別[J].中國農(nóng)業(yè)科學(xué),2002,35(6):616-620.
[4] 毛文華,王一鳴,張小超,等.基于機(jī)器視覺的苗期雜草實(shí)時(shí)分割算法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2005,36(1):83-86.
[5] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.Imagenet classification with deep convolutional neural networks[J].Advances in neural information processing systems,2012,25(2):1097-1105.
[6] KIM J,LEE J K,LEE K M.Deeplyrecursive convolutional network for image superresolution[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Las Vegas,NV,SUA:IEEE,2016:1637-1645.
[7] SZEGEDY C,LIU W,JIA Y Q,et al.Going deeper with convolutions[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Boston,MA,USA:IEEE,2015:1-9.
[8] KARPATHY A,TODERICI G,SHETTY S,et al.Largescale video classification with convolutional neural networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Columbus,Ohio,USA:Curran Associates,Inc.,2014:1725-1732.
[9] SZEGEDY C,TOSHEV A,ERHAN D.Deep neural networks for object detection[C]//BURAES C J C,BOTTOU L,WELLING M,et al.Advances in neural information processing systems.Lake Tahoe,Nevada,USA:TwentySeventh Annual Conference on Neural Information Processing System,2013:2553-2561.
[10] ALEXANDRE L A.3D object recognition using convolutional neural networks with transfer learning between input channels[C]//MENEGATTI E,MICHAEL N,BERNS K,et al.Intelligent autonomous systems 13.Switzerland:Springer International Publishing,2016:889-898.
[11] CHEN L C,BARRON J T,PAPANDREOU G,et al.Semantic image segmentation with taskspecific edge detection using cnns and a discriminatively trained domain transform[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Las Vegas,NV,SUA:IEEE,2016:4545-4554.
[12] SCHULZ H,BEHNKE S.Learning objectclass segmentation with convolutional neural networks[C]//Proceedings of European symposium on artificial neural networks,computational intelligence and machine learning.Bruges:ESANN,2012.
[13] LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Boston,MA,USA:IEEE,2015:3431-3440.
[14] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition.Columbus,Ohio,USA:Curran Associates,Inc.,2014:580-587.
安徽農(nóng)業(yè)科學(xué),J.Anhui Agric.Sci. 2019,47(11):241-243