摘要:為提高玉米作物病害葉片識別模型的準確性,提出改進YOLOv3的玉米病害識別方法。首先,為獲得更深的玉米疾病特征,通過更改淺特征圖比例和添加第四個檢測層,分別修改YOLOv3網(wǎng)絡體系結構為YOLOv3-M1和YOLOv3-M2。然后,采用改進的K-means算法進行聚類,獲得的錨框傾向于數(shù)據(jù)集的真實邊界框。最后,為每個類別添加一個平衡因子,并對不同類別中樣本的難度進行加權來修改損失函數(shù),使得模型能夠找到邊界盒預測與類別預測之間的最佳點,使算法獲得最佳檢測效果。結果表明,改進的YOLOv3-M1和YOLOv3-M2模型在測試集上的準確率分別高達95.63%和97.59%,相比YOLOv3模型,識別準確率分別提高4.15%和6.28%,識別準確率在玉米數(shù)據(jù)集上得到大幅度提高。
關鍵詞:玉米;深度學習;病害識別;YOLOv3模型;損失函數(shù)
中圖分類號:S24; TP391.4
文獻標識碼:A
文章編號:20955553 (2024) 070269 07
Maize disease identification method based on improved YOLOv3
Zhang Jicheng1, Huang Xiangdang2
(1. Jingzhou University, Jingzhou, 434020, China; 2. School of Computer Science and Technology,
Hainan University, Haikou, 570228, China)
Abstract:
In order to improve the accuracy of maize disease leaf recognition model, an improved YOLOv3 maize disease recognition method was proposed. First of all, in order to obtain deeper maize disease characteristics, the YOLOv3 network architecture was modified to YOLOv3-M1 and YOLOv3-M2 by changing the proportion of shallow feature map and adding a fourth detection layer. Then, the improved K-means algorithm was used for clustering, and the obtained anchor frame tended to be the true boundary frame of the data set. Finally, a balance factor was added for each category, and the difficulty of samples in different categories was weighted to modify the loss function, so that the model could find the best point between the boundary box prediction and the category prediction, so that the algorithm could obtain the best detection effect. The test results show that the accuracy of the improved YOLOv3-M1 and YOLOv3-M2 models in the test set is as high as 95.63% and 97.59%, respectively. Compared with the YOLOv3 model, the recognition accuracy is increased by 4.15% and 6.28%, respectively, and the recognition accuracy is greatly improved in the corn data set.
Keywords:
maize; deep learning; disease recognition; YOLOv3 model; loss function
0 引言
玉米的產(chǎn)量和品質受玉米病害影響較大,常見病害主要有紋枯病、葉斑和銹?。?]。玉米病害通常依靠農林專家進行田間現(xiàn)場識別,該方法存在主觀性強、耗時、容易發(fā)生誤判等缺點[2],無法滿足大規(guī)模種植的需要。由于識別能力低,病害傳播迅速,植株往往會錯過最佳控制期。因此,能夠準確、快速地識別玉米葉片病害至關重要。機器學習技術已成功地從植物葉片圖像中識別和分類多種玉米病害,識別效果良好,但提取特征困難、適應性差。近年來,深度學習方法廣泛用于圖像識別,和傳統(tǒng)的檢測方法相比,基于深度卷積網(wǎng)絡(CNN)的病害檢測方法特征提取操作簡單,能夠自動提取圖像特征,對圖像的縮放、位移和失真具有良好的適應性。只要獲得大量的作物病害圖像數(shù)據(jù)集,CNN可以用來訓練模型的預測結果,不僅可以節(jié)省時間和人力,還可以進行實時判斷,此方法大大減少了由疾病造成的巨大損失。目前基于深度學習的植物病蟲害的研究涉及不同的蔬菜、水果和糧食作物等[35]。
Chen等[6]現(xiàn)場收集了8 616張含有各種番茄病的圖像,通過小波變換對圖像進行去噪和增強,采用雙通道殘差注意網(wǎng)絡模型對圖像進行識別,準確率約為89%。Zhang等[7]提出一種改進的Faster R-CNN方法來檢測健康番茄葉片和四種病害,改進后的作物葉片病害檢測方法比原來的方法提高2.71%。Zhong等[8]提出基于DenseNet-121CNN的回歸、多標簽分類和焦點損失函數(shù)三種方法來識別蘋果葉病害,提出的方法在測試集上的準確率分別達到了93.51%、93.31%和93.71%。Waheed等[9]提出一種用于玉米葉部病害識別和分類的優(yōu)化密集卷積神經(jīng)網(wǎng)絡結構,提出的優(yōu)化DenseNet模型達到了98.06%的準確率,并且具有較少的參數(shù)和計算時間。王國偉等[10]提出利用卷積神經(jīng)網(wǎng)絡對玉米病害進行識別,平均識別率達96%,平均計算時間為0.15 s。許景輝等[11]采用遷移學習的方法對玉米病害圖像的平均識別準確率為95.33%。樊湘鵬等[12]提出改進卷積神經(jīng)網(wǎng)絡的玉米病害識別方法,優(yōu)化后的CNN模型平均識別精度為97.10%。董萍等[13]采用遷移學習的方法對玉米葉片病害進行識別研究,有效提高了識別效率。
本文通過更改淺特征圖比例、在現(xiàn)有三個檢測層中添加第四個檢測層,分別修改YOLOv3網(wǎng)絡體系結構,采用改進YOLOv3來檢測玉米病害,為農業(yè)的智能化發(fā)展提供理論基礎。
1 數(shù)據(jù)材料
1.1 玉米圖像數(shù)據(jù)集
玉米圖像數(shù)據(jù)集試驗中所使用的圖像數(shù)據(jù)均來自PlantVillage數(shù)據(jù)集[14],包含3種病害圖像和玉米健康圖像,如圖1所示。統(tǒng)一修改圖片尺寸為256像素×256像素。
1.2 數(shù)據(jù)增強
試驗中將獲取到的3 852張玉米病害葉片圖像劃分兩類:訓練集和測試集,同時確保它們的比例為8∶2??紤]到試驗中圖像樣本相對較少,為防止出現(xiàn)過擬合現(xiàn)象,增強模型的泛化能力,采用隨機旋轉變換、隨機水平和上下位置平移、隨機縮放比例、隨機改變對比度和亮度等數(shù)據(jù)增強方法進行數(shù)據(jù)擴充。增強后的玉米圖像數(shù)據(jù)集分布如表1所示。
2 改進YOLOv3網(wǎng)絡檢測模型
2.1 改進YOLOv3損失函數(shù)
IoU是原始圖像中預測與標記邊界框之間的重合度,IoU值通常用作對象檢測中的評估指數(shù),用于確定一組預測中的真陽性和假陽性。但是,大多數(shù)檢測框架不會將此值組合以優(yōu)化損失函數(shù)。傳統(tǒng)的IoU作為損失函數(shù)無法優(yōu)化兩個對象不重疊的情況,同時無法準確反映兩個對象之間的重合程度。在玉米病害的檢測中,回歸盒的準確性直接決定了檢測的成功率。通過引入GIoU[15]解決了IoU的缺點,IoU值范圍為[0,1],而GIoU具有對稱區(qū)間和[-1,1]的值范圍,只有當兩個對象完全重疊時,才會出現(xiàn)值1,當兩者不相交并且距離很遠時,取-1的最小值。因此,GIoU是一個很好的距離測量指標,與IoU不同,GIoU能夠很好地表示重疊區(qū)域和非重疊區(qū)域的重合度。如式(1)、式(2)所示,GIoU損失可以取代大多數(shù)對象檢測算法中的包圍盒回歸的損失函數(shù)。
IoU=(a∩b)(a∪b)
(1)
GIoU=IoU-c(a∩b)c
(2)
式中:
a——預測框的區(qū)域;
b——真實框的區(qū)域;
c——圍繞a和b的最小周長矩形。
為完成對象檢測的邊界框預測和類別預測的兩個子任務,原始YOLOv3網(wǎng)絡的損失函數(shù)包括坐標預測、置信度預測和類別預測,其損失函數(shù)如式(3)所示。
Loss=Losscoord+Lossobj+Lossclass
(3)
式中:
Losscoord——坐標預測損失;
Lossobj——置信度預測損失;
Lossclass——類別預測損失。
坐標預測損失計算如式(4)所示。
Losscoord=
λcoord∑S2i=0∑Bj=0Iobjij(xi-x^i)2+(yi-y^i)2+
λcoord∑S2i=0∑Bj=0Iobjij[(wi-w^i)2+
(hi-h(huán)^i)2]
(4)
式中:
λcoord——損失權重,取值為5;
S2——輸入圖像的網(wǎng)格數(shù);
B——預測的每個網(wǎng)格中先驗框數(shù)量;
Iobjij——
網(wǎng)格i預測邊界框j且檢測到一個對象時,值為1,反之為0;
xi、yi、wi、hi——
預測框目標的中心點坐標、寬、高;
x^i、y^i、w^i、h^i——
真實目標的中心點坐標、寬、高。
目標物體置信度的誤差損失采用交叉熵來進行計算,此外,不管網(wǎng)格是否有負責某個目標物體,都會計算置信度誤差,但是輸入的圖像中大部分的空間不包含目標物體,只有少部分空間包含了目標物體,因此需要添加權重對不包含目標物體的置信度損失進行約束。目標物體的置信度預測損失計算如式(5)所示。
Lossobj=
∑S2i=0∑Bj=0Iobjij(Ci-C^i)2+λnoobj∑S2i=0∑Bj=0Inoobjij(Ci-C^i)2
(5)
式中:
Inoobjij——
i個網(wǎng)格的第j先驗框不存在對象;
λnoobj——損失權重;
Cji、C^ji——
目標預測置信度和真實置信度。
目標物體的類別預測損失計算如式(6)所示。
Lossclass=∑S2i=0Iobjij∑C∈class[pi(C)-p^i(C)]2
(6)
式中:
C——被檢測對象的類別;
pi(C)、p^i(C)——
C類的預測概率和實際概率。
坐標預測和置信度預測的損失函數(shù)是為了確保邊界框回歸的準確性。在錨定邊界框的自適應維度聚類之后,邊界框回歸的準確性得到了相應的提高。另一個子任務,類別預測的準確性變得更加重要。
識別玉米病害的準確性是不同的,因為病害的多樣性和早期物體的小尺寸,當它們聚集和重疊時,會有多種形態(tài)。因此,與疾病不同,學習病害的特征是復雜的,并且很容易錯過小型物體的檢測,同時,不同類別的病害具有不同的病變大小。為縮小它們之間的差距,本文為每個類別添加一個平衡因子,并對不同類別中樣本的難度進行加權。類別預測的修改損失函數(shù)如式(7)所示。
Loss′class=
∑S2i=0IobjijαC∈class∑C∈class[pi(C)-p^i(C)]2
(7)
式中:
αC∈class——平衡因子。
通過調整平衡因子模型能夠找到邊界盒預測與類別預測之間的最佳點,使算法獲得最佳檢測效果。改進后的損失函數(shù)如式(8)所示。
Loss′=
λcoord∑S2i=0∑Bj=0Iobjij(1-GIoU)+
∑S2i=0∑Bj=0Iobjij(Ci-C^1)2+
λnoobj∑S2i=0∑Bj=0Inoobjij(Ci-C^i)2+
∑S2i=0IobjijαC∈class∑C∈class[pi(C)-p^i(C)]2
(8)
2.2 改進YOLOv3模型結構
YOLOv3[16]是各種應用領域中使用最強大的對象檢測算法之一,與YOLOv1和YOLOv2相比,顯著提高了對象檢測精度、對象包圍盒定位和檢測速度。YOLOv3的網(wǎng)絡結構被建模為具有一個主干CNN和三個稱為YOLO層的對象檢測頭的單一回歸問題,這三個檢測頭將輸入圖像分成大小為S×S的三個不同網(wǎng)格,每個網(wǎng)格單元負責檢測中心位于該網(wǎng)格單元上的對象。
YOLOv3使用的Darknet-53特征提取網(wǎng)絡降低了網(wǎng)絡的訓練難度,并使用不同的尺度特征圖(13×13、26×26、52×52)進行目標預測,從而加強了目標語義信息與位置信息之間的聯(lián)系,表現(xiàn)出更好地性能。然而,在與大規(guī)模特征圖上采樣后連接小尺度特征圖的操作不能使微小目標預測特征圖獲得更深層次的語義信息。因此,在玉米病害圖像檢測的實際應用中,由于圖像中的病害特征密集,經(jīng)常出現(xiàn)漏檢和誤檢的現(xiàn)象。YOLOv3使用數(shù)據(jù)集對模型進行訓練和評估,數(shù)據(jù)集包含自然圖像,其對象大多大于玉米病害圖像。YOLOv3的原始模型在不修改網(wǎng)絡架構和超參數(shù)優(yōu)化的情況下,在檢測諸如玉米病害圖像等小物體方面實現(xiàn)了低性能。
為有效提高YOLOv3在玉米病害圖像檢測的能力,本文改進YOLOv3中不同尺度的預測框,結合特征金字塔和特征重組的思想,改進的模型可以從圖像信息中獲得玉米病害的更多細粒度特征。通過修改原始的YOLOv3網(wǎng)絡體系結構以獲得兩種不同的體系結構,稱之為YOLOv3-M1和YOLOv3-M2,結構如圖2、圖3所示。
YOLOv3-M1的網(wǎng)絡結構如圖2所示,在YOLOv3-M1中,將淺特征圖比例更改為104×104,與原始YOLOv3模型相比,提高了玉米病害圖像的檢測,具有比病害圖像大小更大的接受場。修改后的YOLO3-M1具有尺寸為13×13,26×26和104×104的檢測層特征圖,修改后的多尺度特征圖以最小的計算成本提取更穩(wěn)健的玉米病害檢測特征。
在YOLOv3-M2中,本文在原始YOLOv3模型的現(xiàn)有三個檢測層中添加了第四個檢測層。使用YOLOv3中下采樣輸出特征圖8倍的上采樣操作與4倍下采樣特征圖串聯(lián),此操作將其中一個輸出特征映射擴展為104×104。此外,一系列1×1和3×3卷積用于減少通道數(shù)量并將總計算量最小化到一定程度,還改善了神經(jīng)網(wǎng)絡的非線性特征和表達能力,使預測特征圖能夠獲得更豐富的上下文語義信息,從而提高了檢測玉米病害的靈敏度。改進的YOLOv3-M2的網(wǎng)絡結構如圖3所示,有四個檢測特征圖,尺寸為13×13,26×26,52×52和104×104。為新添加的檢測層添加了三個額外的錨箱尺寸,添加層提高了YOLOv3用于小物體檢測的性能,因為較深特征與較淺特征的短連接增強了檢測層的細粒度特征鑒別能力。
2.3 改進K-means的先驗框生成算法
在YOLOv3中,采用Anchor(錨點框)機制高效地預測不同尺度與寬高比的物體邊界框,因此選擇Anchor值至關重要,合適的Anchor值可以實現(xiàn)更快速、準確的定位,同時減少損失值與計算量,提高目標檢測的速度與精度。對于YOLOv3算法,采用原始的K-means聚類方法來獲取Anchor值,通過將統(tǒng)計先驗經(jīng)驗添加到模型中,在試驗期間和不確定性中需要多次試驗。
本文沿用YOLOv3中的Anchor思想,按照每個特征點需要聚類3個不同比例的Anchor框的原則,在改進的YOLOv3-M1和YOLOv3-M2中分別聚類9個和12個不同尺度的Anchor。K-means算法選擇初始聚類中心具有隨機性,改進的K-means++算法認為點離當前簇中心越遠,被選擇為簇中心的概率越高,這有效地降低了由初始簇點的選擇引起的分類錯誤并提高了檢測速度。具體的計算過程如下:(1)要測試的每個玉米病害圖像的尺寸作為分析樣本,設Y1,Y2,…,Yk為k個聚類中心。(2)第一個聚類中心Y1通過隨機選擇一個樣本產(chǎn)生。(3)計算每個樣本xi與最近聚類中心IoU之間的距離d(xi,Yk),下一個聚類中心由輪盤賭方法根據(jù)式(9)算出的概率大小選出。(4)重復最后一步,直到所選聚類中心的數(shù)量為k。(5)計算每個樣本到k個聚類中心的距離,分給具有最小IoU距離的聚類。(6)將聚類點修改為聚類中IoU距離的中位數(shù),并重復最后一步,直到聚類點不再更改,然后確定的k個聚類點就是待檢測玉米病害尺寸的代表值。
P=d(xi,Yk)2∑d(xi,Yk)2
(9)
3 試驗結果與分析
3.1 試驗配置和參數(shù)設置
試驗運行環(huán)境為Windows 10操作系統(tǒng),采用python3.7語言編程實現(xiàn)網(wǎng)絡的訓練和測試,TensorFlow深度學習框架。硬件平臺配置為Intel i7-8700,顯卡NVIDIA GeForce GTX 1070Ti。試驗參數(shù)設置如表2所示。
本文采用的評價指標為平均精度均值mAP、召回率R、準確率P、F1值,計算如式(10)~式(13)所示。
P=TPTP+FP
(10)
R=TPTP+FN
(11)
F1=2PRP+R
(12)
mAP=∑Mk=1PRM
(13)
式中:
TP——正確劃分為正例的個數(shù);
FP——錯誤劃分為正例的個數(shù);
FN——錯誤劃分為負例的個數(shù);
M——檢測樣本類別數(shù)量。
3.2 結果分析
圖4為訓練集和測試集下不同YOLOv3模型的平均精度均值mAP的變化趨勢。
從圖4可以看出,3種模型在訓練集和測試集下精度均值mAP存在震蕩和波動,在迭代40次左右逐漸趨于穩(wěn)定,整體呈現(xiàn)出上升趨勢。本文提出的改進YOLOv3模型YOLOv3-M1和YOLOv3-M2在訓練集和測試集下精度均值mAP都要優(yōu)于YOLOv3模型,同時改進的YOLOv3-M2模型的mAP要優(yōu)于YOLOv3-M1模型。
使用YOLOv3、改進的YOLOv3-M1和YOLOv3-M2三種模型分別對同一個玉米病害葉片數(shù)據(jù)集進行分類識別任務,三種模型在訓練集和測試集下的準確率如圖5所示??梢钥闯觯徽撌怯柧毤€是測試集,改進的YOLOv3-M1和YOLOv3-M2模型的準確率都優(yōu)于YOLOv3模型,整體上來看,YOLOv3-M2模型的識別準確率高于YOLOv3-M1模型,識別效果良好。三種模型隨著迭代次數(shù)的增加,識別準確率存在震蕩波動,尤其在測試集下,其波動較大。改進的兩種模型的識別準確率隨著迭代次數(shù)的增加最后逐漸趨于100%。
三種模型對玉米病葉片數(shù)據(jù)集的識別準確率如表3所示。
三種模型在測試集上的識別準確率略低于在訓練集上的識別準確率,改進的YOLOv3-M1和YOLOv3-M2模型在訓練集上的準確率分別高達96.26%和98.43%,相比YOLOv3模型,識別準確率分別提高4.23%和6.58%,改進的YOLOv3-M2模型識別準確率比YOLOv3-M1模型提高2.25%。改進的YOLOv3-M1和YOLOv3-M2模型在測試集上的準確率分別高達95.63%和97.59%,相比YOLOv3模型,識別準確率分別提高4.15%和6.28%,可以看出,改進的兩種模型對玉米病葉識別效果良好,識別準確率在玉米數(shù)據(jù)集上得到大幅度提高。
由于不同玉米病害類別的圖像紋理特征不同,因此每種病害的識別準確率也不同。圖6為三種模型對測試集玉米圖像預測的混淆矩陣,由圖中可以得出不同模型對玉米紋枯病、尾孢葉斑病、銹病以及健康葉片的識別準確率如表4所示。
從表4可以看出,和YOLOv3模型相比,改進的YOLOv3-M1和YOLOv3-M2模型在玉米紋枯病、尾孢葉斑病、銹病以及健康葉片的識別準確率都大幅度提高,在玉米紋枯病和玉米尾孢葉斑病的識別準確性相對較低,這是由于兩種疾病的葉子具有相似的紋理和病變,容易導致識別中的誤判。但在玉米銹病葉片具有較高的精度,因為銹病的葉子比其他疾病的葉子具有更大的顏色和病變差異,并且特征是顯而易見的。其中YOLOv3-M2模型對健康玉米和玉米銹病的識別準確率達到100%。各模型對玉米病害的識別結果如圖7所示。
三種模型在召回率、F1值、每張推理時間的性能指標如表5所示,和YOLOv3模型相比,改進的YOLOv3-M1和YOLOv3-M2模型在單張圖片推理時間耗時較短的情況下,測試集召回率和F1值都提高不少,其中召回率分別提高5.29%和7.21%,F(xiàn)1值分別提高4.62%和6.43%。改進的YOLOv3-M2模型在每張圖片推理時間降到48 ms。
4 結論
為改善玉米病害分類識別效果,本文通過改進原始的YOLOv3網(wǎng)絡體系結構構建兩種玉米病害識別模型YOLOv3-M1和YOLOv3-M2,分別對玉米紋枯病、尾孢葉斑病、銹病以及健康葉片進行識別和分類。
1)" 采用K-means++聚類算法獲得用于玉米病害識別模型訓練的先驗框,通過改進YOLOv3損失函數(shù)能夠找到邊界盒預測與類別預測之間的最佳點,使算法獲得最佳檢測效果。
2)" YOLOv3-M1和YOLOv3-M2模型在訓練集和測試集下精度均值mAP都要優(yōu)于YOLOv3模型,同時改進的YOLOv3-M2模型的mAP要優(yōu)于YOLOv3-M1模型。
3)" 不論是訓練集還是測試集,改進的YOLOv3-M2和YOLOv3-M1對玉米病害的識別準確率都優(yōu)于YOLOv3模型。其中改進的YOLOv3-M1和YOLOv3-M2模型在測試集上的準確率分別高達95.63%和97.59%,相比YOLOv3模型,識別準確率分別提高4.15%和6.28%,識別準確率在玉米數(shù)據(jù)集上得到大幅度提高。
4)" 在測試集的召回率、F1值方面,改進的YOLOv3-M2和YOLOv3-M1也取得較優(yōu)的性能,其中在測試集召回率分別提高5.29%和7.21%。改進的兩種模型的每張推理時間進一步縮短,其中改進的YOLOv3-M2模型在每張圖片推理時間降到48 ms。
參 考 文 獻
[1]Zhang X, Qiao Y, Meng F, et al. Identification of maize leaf diseases using improved deep convolutional neural networks [J]. IEEE Access, 2018, 6: 30370-30377.
[2]Bai, Xiaodong, Cao, et al. Rice heading stage automatic observation by multi-classifier cascade based rice spike detection method [J]. Agricultural amp; Forest Meteorology, 2018, 259: 260-270.
[3]Pattnaik G, Shrivastava V K, Parvathi K. Transfer learning-based framework for classification of pest in tomato plants [J]. Applied Artificial Intelligence, 2020, 34(13): 981-993.
[4]Xiong Y, Liang L, Wang L, et al. Identification of cash crop diseases using automatic image segmentation algorithm and deep learning with expanded dataset [J]. Computers and Electronics in Agriculture, 2020, 177: 105712.
[5]Sujatha R, Chatterjee J M, Jhanjhi N Z, et al. Performance of deep learning vs machine learning in plant leaf disease detection [J]. Microprocessors and Microsystems, 2021, 80: 103615.
[6]Chen X, Zhou G, Chen A, et al. Identification of tomato leaf diseases based on combination of ABCK-BWTR and B-ARNet [J]. Computers and Electronics in Agriculture, 2020, 178: 105730.
[7]Zhang Y, Song C, Zhang D. Deep learning-based object detection improvement for tomato disease [J]. IEEE Access, 2020, 8: 56607-56614.
[8]Zhong Y, Zhao M. Research on deep learning in apple leaf disease recognition [J]. Computers and Electronics in Agriculture, 2020, 168: 105146.
[9]Waheed A, Goyal M, Gupta D, et al. An optimized dense convolutional neural network model for disease recognition and classification in corn leaf [J]. Computers and Electronics in Agriculture, 2020, 175: 105456.
[10]王國偉, 劉嘉欣. 基于卷積神經(jīng)網(wǎng)絡的玉米病害識別方法研究[J]. 中國農機化學報, 2021, 42(2): 139-145.
Wang Guowei, Liu Jiaxin. Research on corn disease recognition method based on convolutional neural network [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(2): 139-145.
[11]許景輝, 邵明燁, 王一琛, 等. 基于遷移學習的卷積神經(jīng)網(wǎng)絡玉米病害圖像識別[J]. 農業(yè)機械學報, 2020, 51(2): 230-236, 253.
Xu Jinghui, Shao Mingye, Wang Yichen, et al. Recognition of corn leaf spot and rust based on transfer learning with convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 230-236, 253.
[12]樊湘鵬, 周建平, 許燕, 等. 基于改進卷積神經(jīng)網(wǎng)絡的復雜背景下玉米病害識別[J]. 農業(yè)機械學報, 2021, 52(3): 210-217.
Fan Xiangpeng, Zhou Jianping, Xu Yan, et al. Corn disease recognition under complicated background based on improved convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(3): 210-217.
[13]董萍, 衛(wèi)夢華, 時雷, 等. 遷移學習在玉米葉片病害識別中的研究與應用[J]. 中國農機化學報, 2022, 43(3): 146-152.
Dong Ping, Wei Menghua, Shi Lei, et al. Research and application of transfer learning in identification of maize leaf diseases [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(3): 146-152.
[14]張開興, 呂高龍, 賈浩, 等. 基于圖像處理和BP神經(jīng)網(wǎng)絡的玉米葉部病害識別[J]. 中國農機化學報, 2019, 40(8): 122-126.
Zhang Kaixing, Lü Gaolong, Jia Hao, et al. Identification of corn leaf disease based on image processing and BP neural network [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(8): 122-126.
[15]Rezatofighi H, Tsoi N, Gwak J Y, et al. Generalized intersection over union: A metric and a loss for bounding box regression [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019: 658-666.
[16]Redmon J, Farhadi A. YOLOv3: An incremental improvement [J]. Arxiv Preprint Arxiv: 1804.02767, 2018.