溫艷蘭 陳友鵬 王克強(qiáng) 程杏安 林欽永 蔡肯 馬佳佳 孔翰博
摘要:在農(nóng)業(yè)生產(chǎn)中,蟲害已經(jīng)成為影響作物產(chǎn)量和質(zhì)量的主要威脅之一,針對(duì)傳統(tǒng)識(shí)別方法對(duì)復(fù)雜背景下蟲害圖像識(shí)別準(zhǔn)確率和效率低等問題,本研究提出一種基于遷移學(xué)習(xí)和改進(jìn)殘差網(wǎng)絡(luò)的蟲害圖像識(shí)別方法。首先,利用數(shù)據(jù)增強(qiáng)技術(shù)對(duì)采集的橘小實(shí)蠅蟲害圖像進(jìn)行樣本數(shù)據(jù)的擴(kuò)充;再在ResNet-34模型的基礎(chǔ)上,增加了2個(gè)注意力模塊層,并重新設(shè)計(jì)了全連接層模塊,獲得能夠改進(jìn)后的網(wǎng)絡(luò)模型;最后利用遷移學(xué)習(xí)的方法將預(yù)訓(xùn)練的參數(shù)權(quán)重遷移到本模型中進(jìn)行訓(xùn)練,并在試驗(yàn)過程中分析學(xué)習(xí)方式、樣本量、學(xué)習(xí)率、批量大小等參數(shù)對(duì)模型性能的影響。結(jié)果表明,采用旋轉(zhuǎn)、翻轉(zhuǎn)和亮度變換操作對(duì)圖像進(jìn)行數(shù)據(jù)擴(kuò)充的數(shù)據(jù)集,在訓(xùn)練模型的全部層的遷移學(xué)習(xí)方法中獲得99.77%的測(cè)試準(zhǔn)確率。本研究提出的模型具有較高的識(shí)別準(zhǔn)確率和較強(qiáng)的魯棒性,可為實(shí)現(xiàn)復(fù)雜背景下蟲害的識(shí)別提供參考。
關(guān)鍵詞:遷移學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);注意力機(jī)制;圖像識(shí)別
中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1002-1302(2023)08-0171-06
基金項(xiàng)目:國家自然科學(xué)基金(編號(hào):62003379);廣東省科技計(jì)劃(編號(hào):KA1721404);廣東省普通高校重點(diǎn)領(lǐng)域?qū)m?xiàng)(編號(hào):2019GZDXM007)。
作者簡(jiǎn)介:溫艷蘭(1995—),女,廣東梅縣人,碩士研究生,主要研究方向?yàn)闄C(jī)器視覺。E-mail:164734302@qq.com。
通信作者:王克強(qiáng),碩士,教授,主要研究方向?yàn)檗r(nóng)業(yè)機(jī)器人。E-mail:wangkq2003@126.com。
柑橘味道鮮美且營(yíng)養(yǎng)豐富,深受廣大消費(fèi)者的喜愛。據(jù)國家統(tǒng)計(jì)局?jǐn)?shù)據(jù)了解,2020年我國柑橘種植面積近270萬hm2,柑橘產(chǎn)量達(dá)到5 121.9萬t[1],已成為我國栽培面積最大、產(chǎn)量最高的水果。柑橘是橘小實(shí)蠅偏好的寄主水果,其產(chǎn)量和質(zhì)量受橘小實(shí)蠅影響嚴(yán)重,進(jìn)而造成嚴(yán)重的經(jīng)濟(jì)損失[2]。因此,實(shí)現(xiàn)快速準(zhǔn)確地識(shí)別橘小實(shí)蠅,能夠使管理者及時(shí)采取有效的防治措施,提高柑橘的產(chǎn)量和品質(zhì)。
近年來,隨著機(jī)器視覺和計(jì)算機(jī)技術(shù)的深入發(fā)展,深度學(xué)習(xí)算法在圖像識(shí)別中發(fā)揮著越來越重要的作用,并在蘋果[3-5]、柑橘[6-8]、棉花[9-10]、大豆[11-12]、玉米[13-15]、水稻[16-18]等作物病蟲害識(shí)別[19-23]中取得了不錯(cuò)的研究成果。趙立新等在棉花病蟲害的識(shí)別中,通過改進(jìn)AlexNet模型中的全連接層的結(jié)構(gòu),獲得了97.16%的平均測(cè)試準(zhǔn)確率,為棉花葉部病蟲害識(shí)別提供了可靠依據(jù)[24]。He等采用雙層Faster R-CNN對(duì)褐飛虱進(jìn)行不同數(shù)量和不同蟲齡的檢測(cè)[25]。而李衡霞等則將Fast R-CNN與VGG16進(jìn)行結(jié)合,實(shí)現(xiàn)對(duì)油菜害蟲94.12%的平均分類準(zhǔn)確率[26]。李昊等采用DenseNet網(wǎng)絡(luò)模型對(duì)柑橘病害的平均識(shí)別精度達(dá)到95.46%,可實(shí)現(xiàn)柑橘智能監(jiān)控的管理,為病蟲害物聯(lián)網(wǎng)監(jiān)控提供了參考[27]。孫鵬等將注意力機(jī)制運(yùn)用到卷積神經(jīng)網(wǎng)絡(luò)模型中,通過串聯(lián)的方式將提取的粗尺度圖像作為細(xì)尺度圖像的輸入來提取更細(xì)的特征,不僅實(shí)現(xiàn)了大豆蚜蟲的準(zhǔn)確識(shí)別,而且為農(nóng)業(yè)信息化的技術(shù)可行性提供了可靠的理論依據(jù)[28]。
Malathi等通過對(duì)ResNet-50模型的超參數(shù)和層次進(jìn)行微調(diào),再引入遷移學(xué)習(xí)方法,實(shí)現(xiàn)對(duì)10種水稻害蟲準(zhǔn)確分類識(shí)別[29]。Zhang等在殘差網(wǎng)絡(luò)中引入離散卷積,實(shí)現(xiàn)對(duì)儲(chǔ)糧害蟲進(jìn)行識(shí)別,平均識(shí)別準(zhǔn)確率達(dá)96.72%[30]。曹躍騰等通過調(diào)整底層卷積尺寸、改進(jìn)殘差塊結(jié)構(gòu)和模型剪枝操作,得到一種輕量化的植物葉片病蟲害識(shí)別算法——Simplify-ResNet,并在人工采集圖像和PlantVillage數(shù)據(jù)集圖像中,獲得更高的準(zhǔn)確率和更好的穩(wěn)定性能,為移動(dòng)端植物病蟲害識(shí)別解決了最重要的算法設(shè)計(jì)問題[31]。賈少鵬等在卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu)中加入了膠囊網(wǎng)絡(luò)進(jìn)行結(jié)構(gòu)優(yōu)化,彌補(bǔ)了CNN在輸出時(shí)丟失大量信息的缺陷,優(yōu)化后的模型對(duì)番茄灰霉病病害的識(shí)別精度比原模型提高了3.55%[32]。王鐸等將深度卷積條件加入到生成對(duì)抗網(wǎng)絡(luò)中,增強(qiáng)了模型穩(wěn)定性,能夠適應(yīng)于不同成長(zhǎng)階段的蟲害和種類繁多的分類場(chǎng)景[33]。
在上述研究中,大多數(shù)試驗(yàn)樣本都是在簡(jiǎn)單的背景下取得的,對(duì)復(fù)雜背景的適應(yīng)性較差,存在一定的局限性。本研究基于ResNet-34模型,采用遷移學(xué)習(xí)的方法,對(duì)復(fù)雜背景下的橘小實(shí)蠅蟲害圖像進(jìn)行訓(xùn)練,以期實(shí)現(xiàn)復(fù)雜背景下柑橘蟲害的高效準(zhǔn)確識(shí)別。
1 材料與方法
1.1 圖像數(shù)據(jù)采集
本研究以橘小實(shí)蠅為研究對(duì)象。橘小實(shí)蠅成蟲體長(zhǎng)6~8 mm,翅展14~16 mm,全體深黑色和黃色相間,胸部背面大部分黑色,但黃色的“U”字形斑紋明顯,腹部呈黃色[34]。由于在自然環(huán)境中,橘小實(shí)蠅移動(dòng)迅速,其圖像難以獲取,本研究在實(shí)驗(yàn)室內(nèi)搭建了一套模擬自然環(huán)境的圖像采集系統(tǒng),在復(fù)雜背景中對(duì)橘小實(shí)蠅進(jìn)行多角度拍攝。選用德國IDS工業(yè)相機(jī)(型號(hào):UI-3070CP-C-HQ Rev.2)作為圖像采集設(shè)備,分辨率為2 056像素×1 542像素。采集成蟲在復(fù)雜背景下的樣本圖像1 700幅及無成蟲的圖像1 700幅,共3 400幅清晰彩色圖像作為本研究的原始數(shù)據(jù)集。
1.2 圖像數(shù)據(jù)預(yù)處理及數(shù)據(jù)增強(qiáng)
首先,將采集到的原始圖像利用圖像處理工具包OpenCV批量裁剪出520像素×520像素大小的JPG圖像,橘小實(shí)蠅蟲害圖像和無蟲害圖像各1 700幅,2種樣本共計(jì)3 400幅。然后,通過旋轉(zhuǎn)變換和翻轉(zhuǎn)變換擴(kuò)充圖像數(shù)量,分別旋轉(zhuǎn)90°、180°、270°、水平翻轉(zhuǎn)和垂直翻轉(zhuǎn),以模擬拍攝的角度差異。并通過明亮度變換(變亮、變暗)進(jìn)行擴(kuò)充,模擬拍攝的光線差異。通過上述圖像擴(kuò)充操作后,圖像總計(jì)27 200幅。最后,把圖像尺寸統(tǒng)一縮放到224像素×224像素,得到最終的樣本圖像數(shù)據(jù)集。本研究按照6 ∶2 ∶2的比例將獲得的圖像數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,樣本示例如圖1所示。
1.3 模型結(jié)構(gòu)設(shè)計(jì)
ResNet是何愷明等提出來的一種深層次的深度學(xué)習(xí)網(wǎng)絡(luò)[35],本研究使用ResNet-34基本網(wǎng)絡(luò)模型進(jìn)行遷移學(xué)習(xí),其模型結(jié)構(gòu)如圖2所示。ResNet-34除第1層7×7卷積和最后一層全連接外,共有4組殘差組,每個(gè)殘差組各有3、4、6、3個(gè)殘差單元,而且1個(gè)殘差單元包含2個(gè)3×3卷積。本研究在殘差網(wǎng)絡(luò)中加入注意力機(jī)制模塊,如圖3所示,包含通道注意力和空間注意力。加入注意力機(jī)制模塊后的ResNet-34結(jié)構(gòu)如圖4所示。
ResNet-34利用ImageNet數(shù)據(jù)集中上百萬幅圖像完成訓(xùn)練,得到一個(gè)較好的分類識(shí)別模型。在目前條件下,橘小實(shí)蠅蟲害圖像還沒能夠達(dá)到如此巨大的數(shù)據(jù)集,因而想要訓(xùn)練出效果理想的分類模型是比較困難的。而遷移學(xué)習(xí)能夠?qū)⒁粋€(gè)基礎(chǔ)數(shù)據(jù)集和基礎(chǔ)任務(wù)上訓(xùn)練所得的網(wǎng)絡(luò)模型遷移到目標(biāo)數(shù)據(jù)和目標(biāo)任務(wù)的訓(xùn)練網(wǎng)絡(luò)中。因此,可以采用遷移學(xué)習(xí)的方法來進(jìn)行柑橘蟲害的分類識(shí)別。本研究采用的方法是保留圖2中前5個(gè)卷積模塊,并且加入注意力模塊,再重新設(shè)計(jì)全連接層模塊,然后利用遷移學(xué)習(xí)的方法將預(yù)訓(xùn)練ResNet-34模型的權(quán)重和參數(shù)運(yùn)用到柑橘蟲害的檢測(cè)與識(shí)別中,具體的流程圖如圖5所示。
1.4 試驗(yàn)環(huán)境與參數(shù)設(shè)計(jì)
1.4.1 試驗(yàn)環(huán)境
試驗(yàn)在Python 3.7.11、torch-GPU 1.10.2軟件環(huán)境下完成。試驗(yàn)中訓(xùn)練模型的硬件環(huán)境為64位Windows10系統(tǒng),并配置有11th Gen Intel CoreTM i7-11700K CPU,主頻3.6 GHz,圖形處理單元(GPU)采用NVIDIA GeForce RTX 3060,12 GB顯存。試驗(yàn)在GPU模式下進(jìn)行,采用Python語言進(jìn)行編程,利用OpenCV圖像處理庫及pytorch框架相關(guān)的深度學(xué)習(xí)庫完成網(wǎng)絡(luò)的搭建。
1.4.2 試驗(yàn)參數(shù)的設(shè)計(jì)
在深度學(xué)習(xí)中,模型的性能受到諸多因素的影響。本研究綜合考慮4個(gè)影響因素,包括模型的訓(xùn)練方式、數(shù)據(jù)增強(qiáng)方法、學(xué)習(xí)率和批量大?。╞atch_size)對(duì)模型性能的影響,總共進(jìn)行了15組模型訓(xùn)練,每組試驗(yàn)都運(yùn)行100次迭代(epoch),并且每次迭代前都打亂訓(xùn)練集的輸入順序。
2 結(jié)果與分析
2.1 學(xué)習(xí)方式對(duì)模型性能的影響
在學(xué)習(xí)率為0.01、batch_size為16的條件下,采用2種不同的訓(xùn)練機(jī)制對(duì)原始圖像數(shù)據(jù)集進(jìn)行訓(xùn)練,并對(duì)改進(jìn)前后的模型進(jìn)行對(duì)比試驗(yàn),得到訓(xùn)練集、驗(yàn)證集和測(cè)試集的準(zhǔn)確率如表1所示。
從表1可以看出,在相同的試驗(yàn)條件下,2種不同的訓(xùn)練機(jī)制下所得到的驗(yàn)證準(zhǔn)確率與測(cè)試準(zhǔn)確率相符,而且對(duì)模型所有層的所有參數(shù)都進(jìn)行目標(biāo)域的訓(xùn)練獲得了最佳的識(shí)別效果,訓(xùn)練集平均準(zhǔn)確率為97.17%,測(cè)試集準(zhǔn)確率為99.55%。2種訓(xùn)練方式改進(jìn)模型前后的識(shí)別準(zhǔn)確率和損失值如圖6所示。
從圖6-a中可以看出,對(duì)模型所有層的所有參數(shù)都進(jìn)行目標(biāo)域訓(xùn)練的遷移學(xué)習(xí)比僅訓(xùn)練分類器參數(shù)的訓(xùn)練精度更高、更穩(wěn)定,而且修改后的模型的收斂速度更快。而且從圖6-b中可以看出,2種模型的損失值均在0.06以下,而且對(duì)模型所有層的所有參數(shù)都進(jìn)行訓(xùn)練的遷移學(xué)習(xí)的損失值下降速度更快,到達(dá)穩(wěn)定點(diǎn)基本可以維持在0.001左右,訓(xùn)練效果比較理想。
2.2 圖像數(shù)據(jù)擴(kuò)充對(duì)模型性能的影響
從“2.1”節(jié)中可知,對(duì)改進(jìn)后的模型所有層的所有參數(shù)都進(jìn)行目標(biāo)域訓(xùn)練的遷移學(xué)習(xí)模型獲得了更好的性能,因此,本節(jié)采用這一模型對(duì)圖像數(shù)據(jù)擴(kuò)充進(jìn)行進(jìn)一步的研究。為研究模型在不同擴(kuò)充圖像的泛化能力,本研究對(duì)原始圖像數(shù)據(jù)集、原始+翻轉(zhuǎn)擴(kuò)充圖像數(shù)據(jù)集、原始+亮度變換擴(kuò)充圖像數(shù)據(jù)集、原始+旋轉(zhuǎn)擴(kuò)充圖像數(shù)據(jù)集、原始+旋轉(zhuǎn)+翻轉(zhuǎn)擴(kuò)充圖像數(shù)據(jù)集以及原始+旋轉(zhuǎn)+翻轉(zhuǎn)+亮度變換擴(kuò)充圖像數(shù)據(jù)集進(jìn)行訓(xùn)練、驗(yàn)證和測(cè)試。在初始學(xué)習(xí)率均為0.01的情況下,采用不同的數(shù)據(jù)擴(kuò)充方式對(duì)模型進(jìn)行訓(xùn)練,識(shí)別準(zhǔn)確率情況如表2所示。
從表2可知,不同數(shù)據(jù)增強(qiáng)情況下的訓(xùn)練與測(cè)試準(zhǔn)確率相差不大,一方面可能是因?yàn)閿?shù)據(jù)圖像采集時(shí)采用了明亮度不同的多角度拍攝,因而數(shù)據(jù)增強(qiáng)操作對(duì)圖像的質(zhì)量改變不大,另一方面是遷移學(xué)習(xí)使用的模型是從大型數(shù)據(jù)集ImageNet上獲得的,對(duì)特征的提取能力較高,對(duì)樣本的數(shù)量擴(kuò)充依賴性較低。由此可見,遷移學(xué)習(xí)對(duì)復(fù)雜背景下小樣本的橘小實(shí)蠅蟲害識(shí)別也具有較高的魯棒性,而且能夠有效地減少訓(xùn)練所需時(shí)間。
2.3 學(xué)習(xí)率對(duì)模型性能的影響
對(duì)原始數(shù)據(jù)集采用3種不同的學(xué)習(xí)率對(duì)模型進(jìn)行訓(xùn)練,識(shí)別準(zhǔn)確率情況如表3所示,訓(xùn)練和驗(yàn)證曲線如圖7所示。
由表3可知,模型測(cè)試集的平均識(shí)別準(zhǔn)確率均達(dá)到99%以上,模型都得到了較好的魯棒性。但是從圖7可以看出,學(xué)習(xí)率為0.000 1訓(xùn)練集和測(cè)試集準(zhǔn)確率都能夠穩(wěn)定維持在較高水平上,而學(xué)習(xí)率為0.01和0.001的模型雖然也能夠獲得較高的訓(xùn)練精度,但是在驗(yàn)證集上存在一定的波動(dòng),模型的穩(wěn)定性相對(duì)較差。因此,學(xué)習(xí)率為0.000 1的模型識(shí)別效果最佳。
2.4 批量大小對(duì)模型性能的影響
由“2.3”節(jié)可知,學(xué)習(xí)率為0.000 1時(shí)模型的識(shí)別效果最佳,訓(xùn)練、驗(yàn)證和測(cè)試準(zhǔn)確率均達(dá)到99%以上,如果在此基礎(chǔ)上對(duì)batch_size設(shè)置對(duì)比試驗(yàn),試驗(yàn)對(duì)比效果不太明顯,因此,在學(xué)習(xí)率為0.01的情況下,采用5種不同batch_size對(duì)模型進(jìn)行訓(xùn)練,識(shí)別準(zhǔn)確率情況如表4所示。
從表4可以看出,隨著batch_size的增加,平均訓(xùn)練時(shí)間相對(duì)減少,但是模型的識(shí)別準(zhǔn)確率呈現(xiàn)正態(tài)分布的趨勢(shì),因此,batch_size選取得過大或者過小都會(huì)使得模型的泛化能力降低。
2.5 模型用戶界面開發(fā)
為了方便使用者操作,將程序開發(fā)成用戶界面,只需選擇好自己需要檢測(cè)的圖像即可進(jìn)行檢測(cè)。現(xiàn)隨機(jī)選擇2幅橘小實(shí)蠅圖像進(jìn)行檢測(cè),檢測(cè)結(jié)果如圖8所示,識(shí)別的準(zhǔn)確率分別為99.996%和98.526%,具有良好的應(yīng)用效果。
3 討論與結(jié)論
本研究以ResNet-34為基礎(chǔ)模型,融入了注意力機(jī)制,并對(duì)其全連接層的結(jié)構(gòu)進(jìn)行了改進(jìn),用于復(fù)雜背景下橘小實(shí)蠅的蟲害圖像識(shí)別建模。通過設(shè)置15組模型訓(xùn)練試驗(yàn),選取出魯棒性高、泛化能力強(qiáng)的模型。根據(jù)試驗(yàn)結(jié)果,可以得出以下結(jié)論。
(1)在相同的試驗(yàn)條件下,對(duì)模型所有層的所有參數(shù)都進(jìn)行目標(biāo)域訓(xùn)練的遷移學(xué)習(xí)模型的整體性能比僅訓(xùn)練分類器參數(shù)的模型更好,能夠在橘小實(shí)蠅蟲害圖像識(shí)別中獲得97.17%的平均識(shí)別準(zhǔn)確率。
(2)遷移學(xué)習(xí)弱化了模型對(duì)樣本數(shù)量擴(kuò)充的依賴性。雖然數(shù)據(jù)擴(kuò)充會(huì)使得訓(xùn)練時(shí)長(zhǎng)增加,但是充足的樣本量能夠在一定程度上提高模型的識(shí)別性能。將采集的圖像數(shù)據(jù)擴(kuò)充到原來的8倍后,訓(xùn)練集準(zhǔn)確率從97.17%的基礎(chǔ)上提升了2.12%。
(3)在遷移學(xué)習(xí)中,3種學(xué)習(xí)率均獲得了良好的訓(xùn)練效果,但是學(xué)習(xí)率為0.01和0.001的模型在測(cè)試集中識(shí)別準(zhǔn)確率波動(dòng)比較大,而學(xué)習(xí)率為0.000 1的模型測(cè)試集準(zhǔn)確率高且穩(wěn)定,識(shí)別效果最佳。
(4)batch_size較小時(shí)花費(fèi)時(shí)間較長(zhǎng),且實(shí)際測(cè)試精度相對(duì)較低;batch_size較大時(shí),不同batch的梯度方向沒有任何變化,容易陷入局部極小值,使得實(shí)際測(cè)試精度較低。
本研究結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí),對(duì)復(fù)雜背景下的橘小實(shí)蠅進(jìn)行識(shí)別,獲得了較好的應(yīng)用效果。下一步研究計(jì)劃搜集更多復(fù)雜環(huán)境下的其他蟲害的圖像,進(jìn)一步豐富蟲害數(shù)據(jù),然后對(duì)多種蟲害進(jìn)行混合并研究其識(shí)別方法,以提升模型的應(yīng)用價(jià)值。
參考文獻(xiàn):
[1]國家統(tǒng)計(jì)局. 中國統(tǒng)計(jì)摘要2021[M]. 北京:中國統(tǒng)計(jì)出版社,2022.
[2]王明召,陽廷密,趙小龍,等. 橘小實(shí)蠅田間消長(zhǎng)動(dòng)態(tài)及對(duì)柑橘果實(shí)危害研究[J]. 應(yīng)用昆蟲學(xué)報(bào),2019,56(3):485-491.
[3]Ding W G,Taylor G. Automatic moth detection from trap images for pest management[J]. Computers and Electronics in Agriculture,2016,123:17-28.
[4]于洪濤,袁明新,王 琪,等. 基于VGG-F動(dòng)態(tài)學(xué)習(xí)模型的蘋果病蟲害識(shí)別[J]. 科學(xué)技術(shù)與工程,2019,19(32):249-253.
[5]周宏威,沈恒宇,袁新佩,等. 基于遷移學(xué)習(xí)的蘋果樹葉片病蟲害識(shí)別方法研究[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2021,42(11):151-158.
[6]Xing S L,Lee M,Lee K K. Citrus pests and diseases recognition model using weakly dense connected convolution network[J]. Sensors,2019,19(14):3195.
[7]Morteza K,Ezzatollah A A,Ehsan K. Citrus pests classification using an ensemble of deep learning models[J]. Computers and Electronics in Agriculture,2021,186:106192.
[8]Partel V,Nunes L,Stansly P,et al. Automated vision-based system for monitoring Asian citrus psyllid in orchards utilizing artificial intelligence[J]. Computers and Electronics in Agriculture,2019,162:328-336.
[9]Alves A N,Souza W S R,Borges D L. Cotton pests classification in field-based images using deep residual networks[J]. Computers and Electronics in Agriculture,2020,174:105488.
[10]張建華,孔繁濤,吳建寨,等. 基于改進(jìn)VGG卷積神經(jīng)網(wǎng)絡(luò)的棉花病害識(shí)別模型[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報(bào),2018,23(11):161-171.
[11]Tetila E C,Machado B B,Menezes G K,et al. Automatic recognition of soybean leaf diseases using UAV images and deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters,2020,17(5):903-907.
[12]Amorim W P,Tetila E C,Pistori H,et al. Semi-supervised learning with convolutional neural networks for UAV images automatic recognition[J]. Computers and Electronics in Agriculture,2019,164:104932.
[13]李 靜,陳桂芬,安 宇. 基于優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)的玉米螟蟲害圖像識(shí)別[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,41(3):110-116.
[14]Waheed A,Goyal M,Gupta D,et al. An optimized dense convolutional neural network model for disease recognition and classification in corn leaf[J]. Computers and Electronics in Agriculture,2020,175:105456.
[15]許景輝,邵明燁,王一琛,等. 基于遷移學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)玉米病害圖像識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(2):230-236,253.
[16]Jiang F,Lu Y,Chen Y,et al. Image recognition of four rice leaf diseases based on deep learning and support vector machine[J]. Computers and Electronics in Agriculture,2020,179:105824.
[17]Wang F Y,Wang R J,Xie C J,et al. Convolutional neural network based automatic pest monitoring system using hand-held mobile image analysis towards non-site-specific wild environment[J]. Computers and Electronics in Agriculture,2021,187:106268.
[18]Yao Q,F(xiàn)eng J,Tang J,et al. Development of an automatic monitoring system for rice light-trap pests based on machine vision[J]. Journal of Integrative Agriculture,2020,19(10):2500-2513.
[19]余小東,楊孟輯,張海清,等. 基于遷移學(xué)習(xí)的農(nóng)作物病蟲害檢測(cè)方法研究與應(yīng)用[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(10):252-258.
[20]萬軍杰,祁力鈞,盧中奧,等. 基于遷移學(xué)習(xí)的GoogLeNet果園病蟲害識(shí)別與分級(jí)[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報(bào),2021,26(11):209-221.
[21]Kamal K C,Yin Z D,Wu M Y,et al. Depthwise separable convolution architectures for plant disease classification[J]. Computers and Electronics in Agriculture,2019,165:104948.
[22]Wang D W,Deng L M,Ni J G,et al. Recognition pest by image-based transfer learning[J]. Journal of the Science of Food and Agriculture,2019,99(10):4524-4531.
[23]溫艷蘭,陳友鵬,王克強(qiáng),等. 基于機(jī)器視覺的病蟲害檢測(cè)綜述[J]. 中國糧油學(xué)報(bào),2022,37(10):271-279.
[24]趙立新,侯發(fā)東,呂正超,等. 基于遷移學(xué)習(xí)的棉花葉部病蟲害圖像識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(7):184-191.
[25]He Y,Zhou Z Y,Tian L H,et al. Brown rice planthopper (Nilaparvata lugens Stal) detection based on deep learning[J]. Precision Agriculture,2020,21(6):1385-1402.
[26]李衡霞,龍陳鋒,曾 蒙,等. 一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的油菜蟲害檢測(cè)方法[J]. 湖南農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,45(5):560-564.
[27]李 昊,劉海隆,劉生龍. 基于深度學(xué)習(xí)的柑橘病蟲害動(dòng)態(tài)識(shí)別系統(tǒng)研發(fā)[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2021,42(9):195-201,208.
[28]孫 鵬,陳桂芬,曹麗英. 基于注意力卷積神經(jīng)網(wǎng)絡(luò)的大豆害蟲圖像識(shí)別[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2020,41(2):171-176.
[29]Malathi V,Gopinath M P.Classification of pest detection in paddy crop based on transfer learning approach[J]. Acta Agriculturae Scandinavica,Section B-Soil & Plant Science,2021,71(7):552-559.
[30]Zhang Y Y,Zhong W B,Pan H. Identification of stored grain pests by modified residual network[J]. Computers and Electronics in Agriculture,2021,182:105983.
[31]曹躍騰,朱學(xué)巖,趙燕東,等. 基于改進(jìn)ResNet的植物葉片病蟲害識(shí)別[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2021,42(12):175-181.
[32]賈少鵬,高紅菊,杭 瀟. 基于深度學(xué)習(xí)的農(nóng)作物病蟲害圖像識(shí)別技術(shù)研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2019,50(增刊1):313-317.
[33]王 鐸,溫長(zhǎng)吉,王希龍,等. 基于深度卷積條件生成對(duì)抗網(wǎng)絡(luò)的蟲害分類算法研究[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2020,41(6):179-187.
[34]楊麗英,李之洪. 橘小實(shí)蠅的形態(tài)特征、影響因素和防治措施[J]. 湖北農(nóng)機(jī)化,2020(1):58.
[35]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA:IEEE,2016:770-778.