溫艷蘭, 陳友鵬, 王克強(qiáng), 劉展眉, 林欽永, 蔡 肯, 馬佳佳, 孔翰博
(仲愷農(nóng)業(yè)工程學(xué)院1,廣州 510225) (廣州南洋理工職業(yè)學(xué)院2,廣州 510980)
在農(nóng)業(yè)生產(chǎn)中,病蟲害是造成作物減產(chǎn)、欠收的重要原因之一,常常使農(nóng)民遭受經(jīng)濟(jì)損失。我國是世界上農(nóng)作物病蟲害發(fā)生最嚴(yán)重的國家之一,每年農(nóng)作物有害生物年發(fā)生面積超過4億公頃次[1]。2020年我國農(nóng)作物重大病蟲害發(fā)生總體比2019年嚴(yán)重,累計發(fā)生面積約3億公頃次[2]。預(yù)計2021年我國農(nóng)作物病蟲害總體會呈偏重發(fā)生態(tài)勢[3]。通過測報早期病蟲害的發(fā)生動態(tài),農(nóng)業(yè)生產(chǎn)者可以有針對性的、有計劃的采取病蟲害防治措施,減少一定的損失。傳統(tǒng)的農(nóng)作物病蟲害測報方法存在工作量大、耗時費(fèi)力、效率低和精度差等問題[4],已經(jīng)無法滿足人們對病蟲害測報實(shí)時性和準(zhǔn)確性的需求。因此,構(gòu)建一個自動、高效和準(zhǔn)確的病蟲害識別系統(tǒng)具有重要的現(xiàn)實(shí)意義。
隨著向量機(jī)、神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等相關(guān)算法的不斷發(fā)展和優(yōu)化,病蟲害的分類準(zhǔn)確率得到了很大的提高。目前,機(jī)器視覺技術(shù)在病蟲害檢測領(lǐng)域中較為成熟、穩(wěn)定,能夠在一定程度上代替?zhèn)鹘y(tǒng)的肉眼識別,在減輕勞動強(qiáng)度的同時提高了檢測效率,但仍面臨著許多問題,例如針對不同種類病蟲害如何設(shè)計合適的檢測系統(tǒng)實(shí)現(xiàn)實(shí)時檢測;此外如何改進(jìn)相關(guān)算法,進(jìn)一步提高分類準(zhǔn)確率仍需研究。為此,國內(nèi)外已有較多學(xué)者對病蟲害檢測的相關(guān)算法進(jìn)行了大量研究,極大推動了機(jī)器視覺技術(shù)在病蟲害檢測方面的應(yīng)用。
本文主要圍繞機(jī)器視覺病蟲害檢測展開,對近年來機(jī)器視覺檢測系統(tǒng)在作物病蟲害檢測中的研究工作進(jìn)行概述,對圖像分割、特征提取和檢測與識別分類則對檢測系統(tǒng)中的關(guān)鍵技術(shù)進(jìn)行闡述,最后對整個研究工作進(jìn)行總結(jié)與展望。
我國是一個農(nóng)業(yè)大國,但是農(nóng)業(yè)基礎(chǔ)相對薄弱。病蟲害作為作物減產(chǎn)的主要因素之一,提高病蟲害的檢測和識別效率,對提高農(nóng)業(yè)生產(chǎn)的產(chǎn)量和質(zhì)量具有重要意義。目前,對作物為害狀的檢測已經(jīng)比較成熟,而對害蟲的檢測和識別還在不斷探索中。
針對傳統(tǒng)測報系統(tǒng)存在的問題,肖衡[5]利用深度學(xué)習(xí)算法從硬件和軟件兩個方面對蟲害圖像測報系統(tǒng)進(jìn)行優(yōu)化設(shè)計,實(shí)現(xiàn)了稻飛虱的識別和異常報警的啟動,測報準(zhǔn)確率高達(dá)99.78%。圖像的獲取會對識別準(zhǔn)確率產(chǎn)生一定的影響,因此,YAO等[6]研發(fā)了水稻光誘捕害蟲成像系統(tǒng),用于實(shí)現(xiàn)對水稻蟲害的自動識別,平均準(zhǔn)確率達(dá)97.5%。YAO等[7]又研制了田間水稻光阱害蟲自動監(jiān)測系統(tǒng),解決了之前系統(tǒng)的害蟲堆積和重疊問題,但是采用新的模型對害蟲的識別準(zhǔn)確率卻有所降低,其中,對3種大型害蟲的平均準(zhǔn)確率達(dá)到88.9%,對2種小型害蟲的平均準(zhǔn)確率達(dá)到90.4%。
除了稻田病蟲害,果木的健康與否也是農(nóng)民比較關(guān)心的一個問題。Partel等[8]利用機(jī)器視覺和人工智能技術(shù)開發(fā)了用于自動監(jiān)測柑桔木虱的系統(tǒng),準(zhǔn)確率和召回率分別為80%和95%,但是其檢測的樣本數(shù)量較少,結(jié)果的普適性較低,而You等[9]利用大量的柑橘病蟲害數(shù)據(jù)集構(gòu)建了基于深度壓縮神經(jīng)網(wǎng)絡(luò)的離線診斷系統(tǒng),準(zhǔn)確率可達(dá)93.2%,比SqueezeNet、MobileNet、AlexNet、VGG-16高1.3%~16.6%。
在檢測過程中,對害蟲的數(shù)目進(jìn)行統(tǒng)計有助于農(nóng)業(yè)生產(chǎn)者采取合理防治措施,精準(zhǔn)控制施藥量。Rustia等[10]開發(fā)了基于集成攝像機(jī)模塊和嵌入式系統(tǒng)的害蟲自動計數(shù)與環(huán)境監(jiān)測系統(tǒng),能夠在不受控的環(huán)境下實(shí)現(xiàn)對害蟲的檢測與計數(shù),平均檢測準(zhǔn)確率達(dá)93%,可為害蟲行為的長期觀察以及害蟲預(yù)警提供有效的工具。此外,Habib等[11]提出一個基于機(jī)器視覺的木瓜病害識別系統(tǒng),利用K-means聚類算法和SVM(Support Vector Machine)進(jìn)行建模,準(zhǔn)確率達(dá)95.2%,高于決策樹和NB(Naive Bayes),驗(yàn)證了該方法的可行性和有效性。
基于機(jī)器視覺的病蟲害檢測,首先要得到清晰的病蟲害圖像。病害圖像比蟲害圖像的獲取容易得多,因?yàn)楹οx是運(yùn)動的,很難直接獲得清晰的圖像。比較實(shí)用的方法是使用誘捕器捕獲害蟲后,進(jìn)行圖像的采集。合理利用機(jī)器視覺設(shè)備、機(jī)器學(xué)習(xí)算法、互聯(lián)網(wǎng)技術(shù)等設(shè)計一個自動化綜合檢測系統(tǒng),有助于病蟲害的綜合治理。
圖像分割是根據(jù)研究的實(shí)際需要,利用圖像區(qū)域相似或相同的特征把圖像分成多個區(qū)域,從而提取出關(guān)鍵信息,去除非感興趣區(qū)域。圖像分割算法種類繁多,表1是幾種分割方法在作物病蟲害圖像中的應(yīng)用情況。
表1 幾種分割方法在作物病蟲害圖像中的應(yīng)用情況
Ebrahimi等[12]將gamma算子應(yīng)用到RGB顏色空間具有高對比度的B通道圖像中,進(jìn)行非花區(qū)域背景的去除,再使用Otsu法分割出草莓花上的薊馬目標(biāo)。肖志云等[13]將采集的馬鈴薯蟲害圖像經(jīng)I通道的中值濾波、a通道的二維Otsu法與形態(tài)學(xué)分割后,利用蟲害分離二值圖像與RGB原彩色圖像級聯(lián),分離出蟲害目標(biāo),但是仍存在目標(biāo)邊緣分割不足或者過分割的現(xiàn)象。楊麗麗等[14]使用Otsu法在H分量上獲得96.56%的分割精度,通過使用形態(tài)學(xué)的和最大連通區(qū)域標(biāo)記算法去除背景雜色和誤拍區(qū)域,以獲得受棉葉螨危害的圖像區(qū)域。Otsu法是較為常用的一種分割方法,但是往往需要結(jié)合其他算法才能夠獲得較好的分割效果。
閾值分割主要是針對簡單的單個目標(biāo)的分割,而標(biāo)記控制的分水嶺分割算法可以實(shí)現(xiàn)對重疊對象的分割,并且可以有效避免過分割的問題。Sunoj等[15]在RGB圖像中的B通道中利用標(biāo)記控制的分水嶺分割算法,實(shí)現(xiàn)了對重疊大豆蚜蟲的分離。Nabilah等[16]使用標(biāo)記控制的分水嶺分割來分離葉片圖像的前景和背景,以獲取辣椒病蟲害區(qū)域圖像。Xia等[17]從YCbCr顏色模型的Cb通道中提取圖像的局部極大值作為標(biāo)記控制的分水嶺分割的標(biāo)記,將背景圖像中的害蟲個體分割出來,但是分割的精度會受到圖像分辨率的影響,分割后的圖像可能會包含周圍的背景。標(biāo)記控制的分水嶺分割能夠有效避免在噪聲和局部不連通情況下常常出現(xiàn)過度分割狀況,得到精確的分割圖像。
此外,K-means聚類也常用于病蟲害圖像的分割中。為快速檢測紅蜘蛛蟲害,李震等[18]采用K-means聚類算法實(shí)現(xiàn)對柑橘紅蜘蛛的識別,根據(jù)不同清晰程度的圖像獲得88%~100%的識別率,取得了較好的效果。Shah等[19]利用K-means聚類成功地將褐飛虱和背景分割開來,并將圖像背景設(shè)為白色,褐飛虱保持原色。Prajapati等[20]比較了3種不同的分割技術(shù),結(jié)果表明基于HSV顏色空間的K-means聚類方法對水稻病害的分割準(zhǔn)確率最高,可達(dá)到96.71%。因此,K-means聚類分割原理比較簡單、收斂快,但是要特別注意k值的選擇,因?yàn)閗值對最后的聚類結(jié)果和運(yùn)行時間都有很大的影響。
每幅圖像都有其獨(dú)特的特征或?qū)傩?,合理使用特征或?qū)傩詫D像是作物病蟲害識別與檢測的重要環(huán)節(jié),特征參數(shù)的準(zhǔn)確性和實(shí)時性對病蟲害的識別精度影響較大。常用的病蟲害識別特征有形狀特征、顏色特征、紋理特征等全局特征和局部特征。
楊信廷等[21]對提取的5個形態(tài)特征和9個顏色特征,通過比較不同特征向量的組合方式,發(fā)現(xiàn)將形態(tài)和顏色特征進(jìn)行融合獲得的準(zhǔn)確率更高,最終實(shí)現(xiàn)對粉虱和薊馬的識別率分別為96.0%和91.0%。高雄等[22]提取了5個形狀特征來識別甘藍(lán)蟲害,青菜蟲的識別準(zhǔn)確率為83%,甘藍(lán)夜蛾為90%,二十八星瓢蟲為100%。由此可見,不同蟲害的形態(tài)對識別準(zhǔn)確率有較大的影響。Sorte等[23]將統(tǒng)計特征和LBP特征用于咖啡病害的識別中,實(shí)驗(yàn)結(jié)果表明,該方法能夠?qū)崿F(xiàn)對病害初期的診斷。因此,對于不同種類的病蟲害,可以采用不同的方法進(jìn)行特征提取,而作物的病害通常體現(xiàn)在植株的葉片或者果實(shí)上的顏色變化,通常會用顏色特征和紋理特征來進(jìn)行識別。
由于實(shí)際環(huán)境復(fù)雜性的影響,采用多特征融合的方法更加貼近實(shí)際生產(chǎn)應(yīng)用的需要。YAO等[24]將HOG(Histogram of Oriented Gradient)特征與顏色、形狀和Haar特征相結(jié)合,用于水田稻飛虱的自動檢測和計數(shù)。Liu等[25]將MSER(Maximally Stable Extremal Regions)算法和HOG特征相結(jié)合,用于檢測麥田中不同顏色和密度的蚜蟲,平均識別準(zhǔn)確率達(dá)86.81%。
合理利用特征融合技術(shù),能夠在降低計算量的同時提高識別的準(zhǔn)確率。牛沖等[26]將提取的草莓蛇眼病害葉片灰度圖像直方圖中的8個特征融合在一起,并利用SVM實(shí)現(xiàn)92%的分類準(zhǔn)確率,分別比KNN(K Nearest Neighbor)和NB高6%和12%。胡永強(qiáng)等[27]在稀疏表示識別框架下運(yùn)用AdaBoost算法對顏色、形狀和紋理特征進(jìn)行特征融合,識別準(zhǔn)確率最高可達(dá)92.4%,比單一特征方法識別準(zhǔn)確率提高7%以上。可見,在進(jìn)行特征提取時,要結(jié)合圖像自身的特點(diǎn)靈活應(yīng)用相應(yīng)的特征提取和融合方法。
及早發(fā)現(xiàn)農(nóng)作物上的病蟲害可以確保農(nóng)業(yè)生產(chǎn)者作出適當(dāng)和及時的管理決策,因此,國內(nèi)外相關(guān)領(lǐng)域的專家學(xué)者對不同的檢測與分類算法進(jìn)行了大量的研究。根據(jù)分類器學(xué)習(xí)的深度可以分為淺層學(xué)習(xí)和深度學(xué)習(xí),淺層學(xué)習(xí)以經(jīng)典機(jī)器學(xué)習(xí)為代表,而深度學(xué)習(xí)以神經(jīng)網(wǎng)絡(luò)為學(xué)習(xí)基礎(chǔ),可自動學(xué)習(xí)和提取特征實(shí)現(xiàn)圖像的分類識別。
隨著計算機(jī)視覺的不斷發(fā)展,機(jī)器學(xué)習(xí)算法在作物病蟲害檢測和分類中得到了廣泛的應(yīng)用。經(jīng)典的檢測與分類識別方法通常經(jīng)驗(yàn)來選擇不同的特征以設(shè)計分類方案,其識別精度容易受到人為特征選擇的影響。表2簡要概述了近年來經(jīng)典分類算法在作物病蟲害檢測與分類中的應(yīng)用情況。
表2 經(jīng)典分類算法在作物病蟲害檢測與分類中的應(yīng)用情況
4.1.1 早期檢測與分類識別方法
Verma等[28]提出了基于徑向基核函數(shù)網(wǎng)絡(luò)的水稻病害自動識別模型,對5類水稻病害的平均識別率為95.5%。Shah等[19]提出用KNN對稻田褐飛虱進(jìn)行自動識別與計數(shù),平均識別準(zhǔn)確率達(dá)97%,比決策樹算法高10%。Sabrol等[29]采用決策樹算法對番茄的5種病害進(jìn)行分類識別,準(zhǔn)確率達(dá)97.3%。這些研究根據(jù)病蟲害自身的特點(diǎn)采用合適的分類器進(jìn)行建模,均得到了理想的分類效果。
Singh等[30]采用GA(Genetic Algorithm)進(jìn)行病害葉片圖像的分割,通過SVM對顏色共生法提取的特征進(jìn)行分類訓(xùn)練,獲得95.71%的準(zhǔn)確率,優(yōu)于K-means+MDC(Minimum Distance Criterion)和GA+MDC。后來,Singh[31]又提出利用粒子群優(yōu)化算法對向日葵病害葉片圖像進(jìn)行分割,利用MDC分類器實(shí)現(xiàn)98%的平均識別準(zhǔn)確率,高于其之前提出的GA+SVM算法。可見,通過嘗試不同的優(yōu)化算法能夠使得識別與分類效果越來越好。
4.1.2 支持向量機(jī)法
在經(jīng)典識別方法中,SVM是最常用的一種分類識別方法。Pan等[32]采用SVM與區(qū)域生長算法相結(jié)合的方法,將識別過程融入到分割中,實(shí)現(xiàn)對4類蔬菜害蟲的識別準(zhǔn)確率均在93%以上?;赟VM模型,Zhang等[33]通過提取黃瓜葉片病害圖像的奇異值來構(gòu)成關(guān)鍵向量,獲得91.63%的平均識別率,后來,Zhang等[34]結(jié)合超像素分割、EM算法(expectation maximization)和PHOG(pyramid HOG)特征,完成對5類黃瓜病害的分類,平均識別率為91.48%。Singh等[35]采用K-means聚類算法對水稻葉片圖像進(jìn)行分割后,提取其中的紋理特征向量作為SVM的輸入,實(shí)現(xiàn)了82%的分類準(zhǔn)確率。這些研究表明,SVM模型已經(jīng)廣泛應(yīng)用于作物病蟲害識別領(lǐng)域,并取得了良好的效果。
4.1.3 分類器級聯(lián)法
盧柳江等[36]利用Haar-like特征提取的害蟲特征構(gòu)建了一個用于識別大螟的級聯(lián)AdaBoost,在簡單背景下識別率達(dá)95.71%,而復(fù)雜背景下的識別率為86.67%。此外,M-SVM(Multi-class SVM)也是多類分類中常用的一種方法。Sharif等[37]將所選的最佳特征反饋給M-SVM進(jìn)行柑橘病害的分類,分類準(zhǔn)確率最高可達(dá)97%。Khan等[38]設(shè)計了黃瓜葉片病害檢測與分類系統(tǒng),利用M-SVM實(shí)現(xiàn)對5種黃瓜葉片病害98.08%的分類準(zhǔn)確率??梢姡诤侠磉x擇特征的情況下,M-SVM能夠在病蟲害識別與分類中表現(xiàn)出良好的性能。
單一的分類方法可能存在一定的局限性,通過分類器級聯(lián)和融合能夠在一定程度上提高分類的準(zhǔn)確率。雖然傳統(tǒng)的機(jī)器學(xué)習(xí)方法對于病蟲害的分類識別已經(jīng)取得了很大的進(jìn)展,但是仍然存在一些缺陷,而且標(biāo)準(zhǔn)化程度相對較低,模型的擬合度因所取特征的優(yōu)劣而導(dǎo)致識別率的波動較大,相關(guān)模型的檢測和分類精度和魯棒性有待進(jìn)一步研究。
隨著深度神經(jīng)網(wǎng)絡(luò)的不斷發(fā)展,相繼出現(xiàn)了CNN(Convolutional Neural Networks)、Faster R-CNN、DNN(Deep Neural Networks)等一系列深度學(xué)習(xí)框架,在圖像識別和分類任務(wù)中表現(xiàn)出較好的性能,為及時、準(zhǔn)確地識別作物病蟲害提供了可能。表3歸納了近年來基于深度學(xué)習(xí)算法在作物病蟲害檢測與分類中的應(yīng)用情況。
表3 基于深度學(xué)習(xí)算法在作物病蟲害檢測與分類中的應(yīng)用情況
4.2.1 AlexNet及其改進(jìn)算法
標(biāo)準(zhǔn)的AlexNet模型能夠解決梯度消失的問題,但是仍存在冗余現(xiàn)象。雖然減少全連接層節(jié)點(diǎn)數(shù)量能夠提高識別準(zhǔn)確率和運(yùn)算速率,但是效果并不是特別明顯,因而有研究者將目標(biāo)轉(zhuǎn)向AlexNet中卷積層數(shù)的改變上,Wang等[39]實(shí)現(xiàn)對82種作物害蟲圖像91%的分類識別準(zhǔn)確率,而Atole等[40]在水稻葉片圖像的健康狀況分類中獲得的準(zhǔn)確率可達(dá)到91.23%。趙立新等[41]通過改進(jìn)AlexNet模型中的全連接層的結(jié)構(gòu),實(shí)現(xiàn)對棉花病蟲害的平均測試準(zhǔn)確率為97.16%,在加快收斂速度的同時解決了過擬合問題。
4.2.2 VGG及其改進(jìn)算法
VGG在AlexNet的基礎(chǔ)上加深了網(wǎng)絡(luò)的深度,能更好的提取特征,但是也將面臨參數(shù)多和計算量大的問題。Fuentes等[42]利用CNN濾波器組框架解決了番茄病蟲害識別中誤報和類別不平衡的問題,獲得了96.25%的平均準(zhǔn)確率,與Fuentes等[43]之前利用VGG-16特征提取器構(gòu)建的Faster R-CNN模型83.06%的平均準(zhǔn)確率相比,平均準(zhǔn)確率提高約13%。復(fù)雜背景圖像會降低識別的準(zhǔn)確率,針對這一問題,Chen等[44]將增強(qiáng)型VGG與Inception模塊融合在一起,對水稻病害進(jìn)行分類預(yù)測,平均準(zhǔn)確率達(dá)92%,在降低計算量的同時保證了模型良好的穩(wěn)定性。
4.2.3 GoogLeNet及其改進(jìn)算法
針對常規(guī)玉米螟蟲識別方法準(zhǔn)確率的問題,李靜等[45]提出一種基于改進(jìn)GoogLeNet卷積神經(jīng)網(wǎng)絡(luò)模型的玉米螟蟲害圖像識別方法,平均識別準(zhǔn)確率達(dá)96.44%,實(shí)現(xiàn)對玉米螟蟲較高的實(shí)用性。Liu等[46]提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的蘋果葉片病害識別方法,將GoogLeNet引入到AlexNet中進(jìn)行模型改進(jìn),實(shí)現(xiàn)97.62%的總體準(zhǔn)確率,為蘋果葉片病害的早期診斷和控制提供了較好的解決方案。在GoogleNet的基礎(chǔ)上進(jìn)行改進(jìn)產(chǎn)生了Inception,能夠減少了計算量和參數(shù)量Tetila等[47]利用改進(jìn)的Inception-v3深度學(xué)習(xí)模型實(shí)現(xiàn)對大豆病害的識別,準(zhǔn)確率高達(dá)99.04%,能夠?qū)崿F(xiàn)對大豆病害的準(zhǔn)確監(jiān)測。
4.2.4 Faster R-CNN及其改進(jìn)算法
Faster R-CNN能夠更好地解決對小目標(biāo)害蟲的實(shí)時識別與檢測問題。Hong等[48]提出利用7種深度學(xué)習(xí)對斜紋夜蛾、甜菜夜蛾和煙夜蛾進(jìn)行檢測,其中,F(xiàn)aster R-CNN ResNet101的性能最佳,可獲得90.25%的平均準(zhǔn)確率,但仍存在將多個飛蛾被檢測為一個對象的錯誤檢測現(xiàn)象。He等[49]提出了基于雙層Faster R-CNN的褐飛虱檢測算法,在不同數(shù)目的檢測中,平均準(zhǔn)確率為94.64%,而在不同蟲齡的檢測中,平均準(zhǔn)確率為92.92%。Esmail等[50]提出了基于云計算的Faster R-CNN用于檢測和識別害蟲圖像,結(jié)合Inception-v2模型實(shí)現(xiàn)了98.8%的分類準(zhǔn)確率。這些Faster R-CNN模型主要是用于單目標(biāo)的檢測,因此,多目標(biāo)害蟲檢測更具有實(shí)際意義。
4.2.5 ResNet及其改進(jìn)算法
為了防止農(nóng)業(yè)害蟲造成的損害,正確識別害蟲的類別能夠幫助農(nóng)業(yè)生產(chǎn)者采取有針對性的控制措施。余小東等[51]提出了改進(jìn)的殘差網(wǎng)絡(luò)的作物病蟲害識別模型,識別準(zhǔn)確率可達(dá)91.51%,比ResNet 50模型的高3.99%。Liu等[52]提出一種新的虛擬數(shù)據(jù)庫生成方法,并以此為基礎(chǔ)構(gòu)建了基于ResNet 152-v2的害蟲識別模型,識別準(zhǔn)確率達(dá)到97.8%,能夠在節(jié)省訓(xùn)練數(shù)據(jù)的采集成本和時間的同時提高訓(xùn)練精度。Cheng等[53]將深度殘差學(xué)習(xí)用于復(fù)雜背景下的害蟲識別中,平均分類準(zhǔn)確率可達(dá)98.67%。這些改進(jìn)模型能夠針對實(shí)際的問題作出相應(yīng)的改進(jìn),進(jìn)而提高識別的結(jié)果和模型的泛化能力。
4.2.6 DenseNet及其改進(jìn)算法
DenseNet是一種具有密集連接的卷積神經(jīng)網(wǎng)絡(luò),且能夠有效地利用深層特征,解決深度神經(jīng)網(wǎng)絡(luò)中的冗余問題。Xing等[54]采用級聯(lián)DenseNet實(shí)現(xiàn)對柑橘病蟲害的診斷和鑒定,分類準(zhǔn)確率達(dá)93.33%,該模型主要是通過提高模型參數(shù)的利用率來提高模型的精度。Too等[55]利用38種病害對VGG16、Inception-v4、ResNet和Densenet的性能進(jìn)行了評估,通過比較發(fā)現(xiàn),Densenet獲得了最佳的性能,準(zhǔn)確率達(dá)99.75%。這些研究顯示了DenseNet及其優(yōu)化模型在病蟲害識別中具有良好的性能。
4.2.7 其他深度學(xué)習(xí)及其改進(jìn)算法
此外,還有一些其他的深度學(xué)習(xí)方法。賈少鵬等[56]將膠囊網(wǎng)絡(luò)作為模型的全連接層加入到CNN架構(gòu)中,實(shí)現(xiàn)對番茄灰霉病病害的識別精度達(dá)到93.75%,比CNN模型提高了3.55%,但仍存在改進(jìn)的空間。Rahman等[57]提出一種輕量型的簡單CNN架構(gòu),利用兩級訓(xùn)練的方法實(shí)現(xiàn)對水稻病蟲害94.33%的平均分類準(zhǔn)確率,且能夠用于移動設(shè)備中,能夠?yàn)槠h(yuǎn)地區(qū)的農(nóng)民提供有效的病蟲害檢測工具。
針對生成對抗網(wǎng)絡(luò)訓(xùn)練的不穩(wěn)定性,王鐸等[58]引入了深度卷積條件,能夠在增強(qiáng)模型穩(wěn)定的同時加快收斂速度,對害蟲的分類準(zhǔn)確率可達(dá)96.8%。孫鵬等[59]將基于注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)模型用于識別大豆蚜蟲,準(zhǔn)確率達(dá)96.85%,為之后的精準(zhǔn)施藥和節(jié)省農(nóng)業(yè)資源提供有效助力。Muppala等[60]提出了用于檢測稻田卷葉螟和三化螟的DNN-SAR模型,準(zhǔn)確率達(dá)98.29%,在獲得較快收斂速度的同時提高了檢測精度。
在病蟲害檢測和分類識別任務(wù)中,具有更深層次的模型往往比簡單模型具有更高的性能。然而,隨著性能的顯著提高,深層架構(gòu)的復(fù)雜性也有所增加。因此在實(shí)際應(yīng)用中,往往需要對選取的深度神經(jīng)網(wǎng)絡(luò)模型進(jìn)行改進(jìn),以獲得更高的準(zhǔn)確率和更好的穩(wěn)定性。
本文從病蟲害檢測系統(tǒng)、圖像分割技術(shù)、特征提取以及分類識別算法4個方面,綜述了近幾年來國內(nèi)外的專家學(xué)者在作物病蟲害圖像識別領(lǐng)域的研究進(jìn)展。雖然研究方法層出不窮,發(fā)展也比較迅速,且取得了一定的成果,但是在實(shí)際的應(yīng)用過程中仍然存在一些問題需要解決和改善。
作物病蟲害蟲檢測系統(tǒng)容易受光源、光照強(qiáng)度、輸送裝置、相機(jī)分辨率等諸多因素的影響,因此,結(jié)合農(nóng)業(yè)物聯(lián)網(wǎng)以及各種智能終端設(shè)備,實(shí)現(xiàn)對作物病蟲害的實(shí)時、高效、全方位檢測是未來的研究方向之一,能夠推進(jìn)農(nóng)業(yè)現(xiàn)代化與智能化。
對于復(fù)雜背景下的病蟲害圖像的分割,往往需要結(jié)合多種分割方法才能獲得較為理想的分割效果。不同種類的病蟲害需要提取的特征往往不同,其中,多特征融合能夠獲得更加全面的信息,具有較大的發(fā)展?jié)摿?。傳統(tǒng)機(jī)器學(xué)習(xí)方法的方法在很大程度上依賴于選擇的分類特征來提高識別和分類精度,而深度學(xué)習(xí)算法具有更好的效果,但其計算量和復(fù)雜度也更高。如何結(jié)合新的算法和其他深度學(xué)習(xí)結(jié)構(gòu)對模型進(jìn)行優(yōu)化訓(xùn)練,并在提高精度的同時加快運(yùn)算速率仍然是未來的研究的熱點(diǎn)與難點(diǎn)。