国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLO v8模型的煙草食葉性害蟲(chóng)識(shí)別

2024-10-31 00:00:00張偉偉陳賽越揚(yáng)崔英沈廣才蘇展張衛(wèi)正李永亮李萌
江蘇農(nóng)業(yè)科學(xué) 2024年17期

摘要:煙青蟲(chóng)、斜紋夜蛾、斑須蝽和甜菜夜蛾是煙草上重要的食葉性害蟲(chóng),它們的準(zhǔn)確識(shí)別是蟲(chóng)情預(yù)報(bào)和防治的基礎(chǔ)。提出了基于改進(jìn)的YOLO v8模型的煙青蟲(chóng)、斜紋夜蛾、斑須蝽和甜菜夜蛾的識(shí)別方法,首先在YOLO v8的C2f模塊中加入了EMA注意力機(jī)制,提高了YOLO v8模型對(duì)于煙草害蟲(chóng)的關(guān)注度;其次使用SIoU Loss改進(jìn)YOLO v8的邊界框損失函數(shù),提高模型定位的準(zhǔn)確性并加速模型收斂;最后利用AFPN漸近特征金字塔網(wǎng)絡(luò)改進(jìn)了YOLO v8對(duì)非相鄰特征的融合效果,提高了模型對(duì)煙草害蟲(chóng)特征提取的效率和準(zhǔn)確率。與Faster R-CNN、SSD、Retinanet、YOLO v3-tiny、YOLO v4-tiny、YOLO v5s和YOLO v8等目標(biāo)檢測(cè)模型在本研究所構(gòu)建的4種常見(jiàn)煙草害蟲(chóng)的數(shù)據(jù)集上進(jìn)行對(duì)比,試驗(yàn)結(jié)果表明,本研究所提出的方法在精確率、召回率和平均精度均值(mAP)上比原有的YOLO v8模型及上述其他目標(biāo)檢測(cè)模型平均提高了6.24、6.53、7.22百分點(diǎn),為煙草害蟲(chóng)的精準(zhǔn)識(shí)別提供了技術(shù)支持。

關(guān)鍵詞:煙草;害蟲(chóng);識(shí)別技術(shù);YOLO v8改進(jìn)模型;損失函數(shù);目標(biāo)識(shí)別

中圖分類(lèi)號(hào):S126;TP391.41 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1002-1302(2024)17-0209-09

收稿日期:2024-02-06

基金項(xiàng)目:河南省科技攻關(guān)項(xiàng)目(編號(hào):242102110334);河南省高等學(xué)校重點(diǎn)科研項(xiàng)目(編號(hào):24B520039);中國(guó)煙草總公司云南省公司科技計(jì)劃(編號(hào):2022530000241022)。

作者簡(jiǎn)介:張偉偉(1986—),女,河南正陽(yáng)人,博士,副教授,碩士生導(dǎo)師,研究方向?yàn)橹悄軆?yōu)化、深度學(xué)習(xí)、煙草信息學(xué)、機(jī)器視覺(jué)。E-mail:anqikeli@126.com。

通信作者:李永亮,碩士,高級(jí)農(nóng)藝師,研究方向?yàn)闊煵莶∠x(chóng)害綠色防控。E-mail:liyongliang257@163.com。

煙草是我國(guó)重要的經(jīng)濟(jì)作物之一,煙草生長(zhǎng)過(guò)程中經(jīng)常受到各種害蟲(chóng)的侵害,尤以取食葉片的煙青蟲(chóng)、斜紋夜蛾、斑須蝽及甜菜夜蛾等害蟲(chóng)的危害為甚。害蟲(chóng)的準(zhǔn)確識(shí)別是傳統(tǒng)蟲(chóng)情預(yù)測(cè)預(yù)報(bào)和防控的基礎(chǔ),也是未來(lái)煙草病蟲(chóng)害綠色防控?cái)?shù)字化、智能化的必備條件[1]。相比于傳統(tǒng)圖像處理方法,深度學(xué)習(xí)模型能夠自動(dòng)從圖像中提取高層次的特征和語(yǔ)義信息,并且能夠?qū)崿F(xiàn)端到端的檢測(cè)和分類(lèi)任務(wù),無(wú)需人工干預(yù)和先驗(yàn)知識(shí)[2]。目前,利用深度學(xué)習(xí)模型進(jìn)行害蟲(chóng)識(shí)別的方法已取得一些成果[3]。鄭果等提出了一種基于YOLO v7算法的水稻害蟲(chóng)識(shí)別方法,該方法在YOLO v7算法的基礎(chǔ)上,引入了卷積塊注意力和特征金字塔模塊;試驗(yàn)結(jié)果顯示,水稻蟲(chóng)害檢測(cè)平均準(zhǔn)確率為85.46%,檢測(cè)速度為92.2幀/s,檢測(cè)速度是原始YOLO v7算法的5倍以上;該方法能用于實(shí)現(xiàn)水稻蟲(chóng)害遠(yuǎn)程實(shí)時(shí)自動(dòng)化識(shí)別,但是改進(jìn)后的YOLO v7模型對(duì)低分辨率目標(biāo)識(shí)別精度較低[4]。楊光露等提出了基于 CenterNet 模型和數(shù)據(jù)增強(qiáng)技術(shù)的煙草甲蟲(chóng)檢測(cè)報(bào)警系統(tǒng),實(shí)現(xiàn)了煙草甲蟲(chóng)數(shù)量的統(tǒng)計(jì),平均識(shí)別精度達(dá)到 90%以上,但在煙草甲蟲(chóng)粘連情況下,CenterNet 算法無(wú)法準(zhǔn)確識(shí)別煙草甲蟲(chóng)數(shù)量[5]。周維等采用YOLO v4模型作為水稻害蟲(chóng)的識(shí)別模型,使用輕量化神經(jīng)網(wǎng)絡(luò)GhostNet來(lái)替換YOLO v4的骨干網(wǎng)絡(luò)CSPDarknet-53從而使網(wǎng)絡(luò)的參數(shù)量和計(jì)算量降低,克服了YOLO v4算法延遲高、速率慢等缺點(diǎn);試驗(yàn)結(jié)果表明改進(jìn)后的YOLO v4模型在訓(xùn)練速度和識(shí)別率上都優(yōu)于YOLO v4模型[6]。

然而,在害蟲(chóng)識(shí)別方面,目前還面臨著一些挑戰(zhàn),主要包括以下幾個(gè)方面:首先是目前公開(kāi)可用的害蟲(chóng)圖像數(shù)據(jù)集較少,難以滿足多種多樣的害蟲(chóng)識(shí)別需求;其次是害蟲(chóng)圖像通常具有背景復(fù)雜、遮擋嚴(yán)重、尺度變化大、形態(tài)多樣等特點(diǎn),嚴(yán)重影響害蟲(chóng)檢測(cè)和識(shí)別的精度;最后由于大多數(shù)害蟲(chóng)圖像處理技術(shù)都是基于傳統(tǒng)的機(jī)器學(xué)習(xí)或淺層神經(jīng)網(wǎng)絡(luò)模型,缺乏對(duì)深層特征和語(yǔ)義信息的挖掘和利用,導(dǎo)致難以適應(yīng)復(fù)雜場(chǎng)景下的害蟲(chóng)識(shí)別任務(wù)[7]。針對(duì)上述問(wèn)題,提出了一種基于改進(jìn)的YOLO v8模型的煙草害蟲(chóng)識(shí)別方法。YOLO v8是一種基于深度學(xué)習(xí)的端到端的目標(biāo)檢測(cè)算法,相比于其他目標(biāo)檢測(cè)算法,YOLO v8具有速度快、精度高、泛化能力強(qiáng)等優(yōu)點(diǎn)。本研究在原有的YOLO v8算法基礎(chǔ)上,引入了EMA注意力機(jī)制,并且用SIoU損失函數(shù)和漸近特征金字塔網(wǎng)絡(luò)(AFPN)對(duì)原YOLO v8算法進(jìn)行改進(jìn),進(jìn)一步提高YOLO v8算法對(duì)煙草害蟲(chóng)檢測(cè)和分類(lèi)的精度和效率。本研究還構(gòu)建了一個(gè)包含4種常見(jiàn)煙草害蟲(chóng)的數(shù)據(jù)集,并在該數(shù)據(jù)集上進(jìn)行試驗(yàn),驗(yàn)證本研究提出的方法的有效性和優(yōu)越性。

1 材料與方法

1.1 試驗(yàn)環(huán)境

本試驗(yàn)基于cuda 11.6+pytorch 1.12.1框架中搭建煙草害蟲(chóng)的識(shí)別模型,Python版本為3.9.13,操作系統(tǒng)為Windows 10,GPU為NVIDIA RTX3070。

1.2 制作數(shù)據(jù)集

選取4種常見(jiàn)的煙草害蟲(chóng),分別為煙青蟲(chóng)(Heliothis assulta)、斜紋夜蛾(Spodoptera litura)、斑須蝽(Dolycoris baccarum)和甜菜夜蛾(Spodoptera exigua)。在網(wǎng)絡(luò)檢索煙草害蟲(chóng)圖像,并結(jié)合在煙田進(jìn)行實(shí)地?zé)煵莺οx(chóng)圖像采集,共獲取1 600張圖像樣本。另外,數(shù)據(jù)集中還包含了沒(méi)有任何害蟲(chóng)的煙草圖像作為背景類(lèi),目的是為了豐富圖像數(shù)據(jù)集的多樣性,以及降低算法的誤識(shí)別率[8],背景類(lèi)的樣本數(shù)量為400張。4種煙草害蟲(chóng)的樣本圖像如圖1所示。

1.3 數(shù)據(jù)預(yù)處理

為了減少模型訓(xùn)練所消耗的時(shí)間及降低硬件成本,首先需要將煙草害蟲(chóng)圖像分辨率統(tǒng)一調(diào)整為600像素×600像素。其次采用了標(biāo)注工具LabelImg對(duì)煙草害蟲(chóng)圖像進(jìn)行了標(biāo)注,為每個(gè)害蟲(chóng)圖像畫(huà)出了一個(gè)邊界框,并給出了其類(lèi)別標(biāo)簽,將注釋以PASCAL VOC格式保存為XML文件。

為了提高模型的泛化能力和魯棒性,通過(guò)隨機(jī)裁剪、隨機(jī)縮放和Mixup圖像融合的方法對(duì)煙草害蟲(chóng)樣本圖像進(jìn)行擴(kuò)充[9]。將煙草害蟲(chóng)的圖像樣本擴(kuò)充到3 500張。為改進(jìn)的YOLO v8網(wǎng)絡(luò)訓(xùn)練提供了充足有效的樣本。其中隨機(jī)裁剪的操作為每個(gè)害蟲(chóng)圖像隨機(jī)生成了1個(gè)0.5~1之間的比例系數(shù),并根據(jù)該比例系數(shù)在圖像中隨機(jī)裁剪出1個(gè)子區(qū)域作為新的圖像。Mixup圖像融合是采用線性插值的方式從訓(xùn)練集生成新的數(shù)據(jù)點(diǎn)與標(biāo)簽的隨機(jī)凸組合(convex combinations),將2個(gè)樣本-標(biāo)簽數(shù)據(jù)對(duì)按比例相加后生成新的樣本-標(biāo)簽數(shù)據(jù)。同時(shí),根據(jù)裁剪、縮放和融合后的圖像更新了邊界框和類(lèi)別標(biāo)簽的信息,保證了數(shù)據(jù)的一致性。數(shù)據(jù)增強(qiáng)后的煙草害蟲(chóng)圖像如圖2所示。經(jīng)過(guò)以上幾種數(shù)據(jù)預(yù)處理操作后,得到了一個(gè)規(guī)范化、多樣化、高質(zhì)量的煙草害蟲(chóng)圖像數(shù)據(jù)集,為模型的訓(xùn)練和推理提供了良好的基礎(chǔ)。

1.4 改進(jìn)的YOLO v8網(wǎng)絡(luò)模型

1.4.1 YOLO v8模型及改進(jìn) YOLO v8是基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型,同時(shí)也是最新的YOLO模型,目前主要用于對(duì)象檢測(cè)、圖像分類(lèi)和實(shí)例分割任務(wù)[10]。YOLO v8模型的網(wǎng)絡(luò)結(jié)構(gòu)和YOLO v5基本一致,都是主干網(wǎng)絡(luò)(backbone)+Neck模塊+YOLO Head的結(jié)構(gòu),不同點(diǎn)在于YOLO v8的骨干網(wǎng)絡(luò)和Neck部分參考了YOLO v7 ELAN設(shè)計(jì)思想,將CSP結(jié)構(gòu)替換成了有著更多的殘差連接的C2f結(jié)構(gòu),因此有著更豐富的梯度流,不再是一套參數(shù)應(yīng)用所有模型,大幅提升了模型性能。且YOLO v8在Head部分從有錨框(anchor-based)改為了無(wú)錨框(ancher-free)檢測(cè)頭,不需要預(yù)定義的錨框,而是直接預(yù)測(cè)對(duì)象的中心點(diǎn)、尺寸和類(lèi)別,簡(jiǎn)化了檢測(cè)流程并減少了超參數(shù),同時(shí)將原先的耦合頭換成了目前主流的解耦頭結(jié)構(gòu),將分類(lèi)和檢測(cè)用不同的分支

分開(kāi)處理,這種方法可以有效減少參數(shù)量和計(jì)算復(fù)雜度,增強(qiáng)模型的泛化能力和魯棒性。最后 YOLO v8 在損失函數(shù)計(jì)算方面,引入了新的對(duì)齊分配器(task aligned assigner)正樣本匹配策略,根據(jù)分類(lèi)與回歸加權(quán)的分?jǐn)?shù)選擇正樣本,并且取消了損失函數(shù)計(jì)算中的置信度損失函數(shù),只使用邊界框損失函數(shù)和分類(lèi)損失函數(shù)。其中分類(lèi)損失函數(shù)仍用BCE Loss計(jì)算,邊界框損失函數(shù)則使用了分配焦點(diǎn)損失(distribution focal loss,DFL)和CIoU Loss。本研究對(duì)原始YOLO v8的模型結(jié)構(gòu)進(jìn)行了改進(jìn),具體為在YOLO v8模型的C2f模塊中引入了EMA注意力機(jī)制(圖3);使用AFPN漸近特征金字塔網(wǎng)絡(luò)并且用SIoU損失函數(shù)和AFPN漸近特征金字塔網(wǎng)絡(luò)對(duì)原YOLO v8算法進(jìn)行改進(jìn),進(jìn)一步提高YOLO v8算法對(duì)煙草害蟲(chóng)檢測(cè)和分類(lèi)的精度和效率。

1.4.2 EMA注意力機(jī)制 由于煙草害蟲(chóng)隱蔽性強(qiáng)、身形小,且所處環(huán)境復(fù)雜多變,為了提高算法對(duì)煙草害蟲(chóng)目標(biāo)的關(guān)注度,本研究將YOLO v8中的C2f模塊中加入期望最大化注意力機(jī)制(expectation-maximization attention,EMA)進(jìn)行改進(jìn)[11]。作為目前傳統(tǒng)注意力機(jī)制的代表,擠壓-激勵(lì)注意力模塊(squeeze-and-excitation,SE)明確地模擬了跨維交互作用,用于提取通道注意力[12]。卷積塊注意模塊(convolutional block attention module,CBAM)用特征圖中空間維度和通道維度之間的語(yǔ)義相互依賴關(guān)系建立了跨通道和跨空間的信息[13]。因此,CBAM在將跨維注意力權(quán)重整合到輸入特征中顯示出巨大的潛力。所使用的EMA摒棄了傳統(tǒng)注意力機(jī)制中在全圖上計(jì)算注意力圖的流程,EMA通過(guò)特殊的期望最大化(EM)算法迭代出一組緊湊的基,通過(guò)這組基來(lái)運(yùn)行注意力機(jī)制,這樣做的好處是大大降低了計(jì)算注意力圖時(shí)的復(fù)雜度,并且EMA最大的優(yōu)點(diǎn)就是用最少的參數(shù)量來(lái)達(dá)到有效提高精度的目的。EMA的結(jié)構(gòu)如圖3所示,其中,E步表示更新注意力圖,M步表示更新這組基。E、M交替執(zhí)行,收斂之后用來(lái)重建特征圖。EMA算法的主要特點(diǎn)是以保留每個(gè)通道上的信息和降低計(jì)算開(kāi)銷(xiāo)為目標(biāo),將部分通道重塑為批量維度,并將通道維度分組為多個(gè)子特征,使空間語(yǔ)義特征在每個(gè)特征組中均勻分布。具體來(lái)說(shuō),除了對(duì)全局信息進(jìn)行編碼以重新校準(zhǔn)每個(gè)并行分支中的通道權(quán)重外,還通過(guò)跨維度交互進(jìn)一步聚合2個(gè)并行分支的輸出特征,以捕獲像素級(jí)成對(duì)關(guān)系。本研究把EMA注意力機(jī)制加入YOLO v8算法中的C2f模塊中,這種改進(jìn)在保持最低運(yùn)算量的情況下提升了算法對(duì)煙草害蟲(chóng)特征信息的理解速度,修改后的C2f模塊在保持小深度和低延遲的同時(shí)提高了特征提取的效率[14]。加入EAM注意力機(jī)制后的C2f結(jié)構(gòu)如圖3所示。

1.4.3 SIoU損失函數(shù) 損失函數(shù)的準(zhǔn)確定義是保證目標(biāo)檢測(cè)算法的準(zhǔn)確性和有效性的前提[15-16],YOLO v8模型采用DFL和CIoU Loss作為邊界框損失函數(shù)來(lái)判斷樣本的正負(fù)[17],其中CIoU Loss在計(jì)算真實(shí)框和預(yù)測(cè)框重疊面積和中心點(diǎn)距離的基礎(chǔ)上,又加入了長(zhǎng)寬比的計(jì)算,其公式為:

CIoU=IoU-ρ2 (b,bgt )c2+αv。(1)

式中:IoU是預(yù)測(cè)框和真實(shí)框之間的交并比;b和bgt分別是預(yù)測(cè)框和真實(shí)框的中心點(diǎn)坐標(biāo),ρ2(b,bgt)是預(yù)測(cè)框和真實(shí)框的中心點(diǎn)之間的歐幾里得距離;c是包圍預(yù)測(cè)框和真實(shí)框的最小閉包(即外接矩形)的對(duì)角線長(zhǎng)度;α是平衡因子,確保寬高比的一致性在回歸損失中的權(quán)重;v是一個(gè)度量,用于衡量預(yù)測(cè)框和真實(shí)框之間寬高比的相似性,其公式為:

v=4π2arctanwgthgt-arctanwh2;(2)

α=v(1-IoU)+v。(3)

式中:w、h和wgt、hgt分別代表預(yù)測(cè)框的高、寬和真實(shí)框的高、寬。

當(dāng)2個(gè)邊界框之間沒(méi)有重疊時(shí),梯度回傳消失,此時(shí)計(jì)算的CIoU為0,2個(gè)邊界框之間的距離無(wú)法計(jì)算;且CIoU無(wú)法區(qū)分2個(gè)對(duì)象之間的對(duì)齊方式。為了解決該問(wèn)題,用SIoU Loss替換CIoU Loss作為YOLO v8算法的邊界損失函數(shù),考慮真實(shí)框和預(yù)測(cè)框之間的向量角度,重新定義相關(guān)損失函數(shù),能夠更好地優(yōu)化邊界框的具體位置信息[18]。SIoU包含角度損失(angle cost)、距離損失(distance cost)、形狀損失(shape cost)、IoU損失(IoU cost)4個(gè)部分。

第1部分是角度損失,其計(jì)算方式的示意圖如圖4所示。其中B是目標(biāo)框,BGT是回歸框,當(dāng)B到BGT的水平夾角小于45°時(shí),向最小α收斂,反之向β收斂。

實(shí)現(xiàn)該功能的損失函數(shù)定義如公式(4)所示。

Λ=1-2×sin2arcsinx-π4。(4)

其中,

x=max(bgtcy,bcy )-min(bgtcx,bcx)(bgtcx-bcx)2+(bgtcy-bcy )2=sinα。(5)

從圖4可以看出,當(dāng)α為0或π/2時(shí),角度損失為0。在訓(xùn)練過(guò)程中,若α<π/4,則在角度損失公式中需要取β值來(lái)計(jì)算角度損失,反之則取α值。

第2部分是距離損失,為了保證距離與角度的平衡,需要在考慮角度損失的同時(shí)考慮到距離損失,距離損失的定義如公式(6)所示。

Δ=∑t=w,h[1-e(Λ-2)ρt]。(6)

其中,

ρx=bgtcx-bcxcw2,ρy=bgtcy-bcych2。(7)

可以看出,當(dāng)α→0時(shí),距離損失的占比大大降低。相反,α越接近π/4,距離損失占比越大。即隨著角度的增大,距離損失的影響也更大。

第3部分是形狀損失,其定義為:

Ω=∑t=w,h(1-e-ωt)θ。(8)

其中,

ωw=|w-wgt |max(w,wgt),ωh=|h-hgt |max(h,hgt)。(9)

從定義來(lái)看,形狀損失主要看回歸框的形狀與標(biāo)簽框是否相似,在每個(gè)數(shù)據(jù)集中形狀損失的值是唯一。θ的值控制著形狀損失的重要程度。本研究中定義的θ的值是4。

最后一個(gè)是IoU損失,結(jié)合前3部分得到總體的損失函數(shù)定義如公式(10)所示。

Lbox=1-IoU+Δ+Ω2。(10)

1.4.4 AFPN漸近特征金字塔網(wǎng)絡(luò) 目標(biāo)檢測(cè)方法中,隨著網(wǎng)絡(luò)深度的增加,特征圖的尺寸越來(lái)越小,語(yǔ)義信息也越來(lái)越抽象。淺層特征圖的語(yǔ)義信息較少,目標(biāo)位置相對(duì)比較準(zhǔn)確,深層特征圖的語(yǔ)義信息比較豐富,目標(biāo)位置則比較粗略,導(dǎo)致了目標(biāo)大小的不確定性可能導(dǎo)致單尺度特征提取中詳細(xì)信息的丟失[19]。因此,目標(biāo)檢測(cè)模型通常引入特征金字塔結(jié)構(gòu)來(lái)解決尺度變化的問(wèn)題[20]。其中,F(xiàn)PN是最常用的特征金字塔結(jié)構(gòu)[21]。FPN使用自上而下的方式將高級(jí)特征轉(zhuǎn)移到低級(jí)特征,以實(shí)現(xiàn)不同級(jí)別特征的融合。FPN的功能可以說(shuō)是融合了淺層到深層的特征圖,從而充分利用各個(gè)層次的特征。但是,在這個(gè)過(guò)程中,非相鄰特征的融合效果被大大削弱。為此,在YOLO v8算法中引入了PAFPN網(wǎng)絡(luò),其特點(diǎn)是在FPN的基礎(chǔ)上增加了一條自下而上的路徑,使高級(jí)特征和低級(jí)特征得到融合[22]。但同時(shí)PAFPN的自下而上的路徑帶來(lái)了新的問(wèn)題:非相鄰特征的直接特征融合,可能會(huì)導(dǎo)致部分特征信息在傳輸和交互過(guò)程中發(fā)生丟失或退化。因此,本研究使用漸近特征金字塔網(wǎng)絡(luò)(AFPN)來(lái)改進(jìn)YOLO v8的特征金字塔網(wǎng)絡(luò),AFPN支持非相鄰層的直接交互,其原理是AFPN通過(guò)融合2個(gè)相鄰的低級(jí)特征,并漸近地將高級(jí)特征納入融合過(guò)程中[23]。這樣可以避免非相鄰級(jí)別之間較大的語(yǔ)義差距。AFPN的架構(gòu)如圖5所示。

從圖5可以看出,在骨干網(wǎng)絡(luò)自下而上的特征提取過(guò)程中,AFPN漸進(jìn)地集成了高級(jí)特征和低級(jí)特征。具體來(lái)說(shuō),AFPN最初融合了低級(jí)特征,然后融合了深層特征,最后融合了最高級(jí)的特征,即最抽象的特征。非相鄰層次特征之間的語(yǔ)義差距大于相鄰層次特征間的語(yǔ)義差距,尤其是底部和頂部特征。這直接導(dǎo)致了非相鄰層次特征的融合效果較差。為了抑制不同層次特征之間的信息矛盾,AFPN在多層次特征融合過(guò)程中引入了自適應(yīng)空間融合操作(圖中的藍(lán)線),為不同級(jí)別的特征分配不同的空間權(quán)重,增強(qiáng)了關(guān)鍵級(jí)別的重要性,并減輕了來(lái)自不同目標(biāo)的矛盾信息的影響。

AFPN中的自適應(yīng)空間融合結(jié)構(gòu)的具體操作為:當(dāng)融合3個(gè)層次的特征時(shí),讓xij(nl)表示從級(jí)別n到級(jí)別l處的特征向量。用yij(l)表示結(jié)果特征向量,則三級(jí)特征的自適應(yīng)空間融合公式為:

yij (l)=αij(l)·xij(1l)+βij(l)·xij(2l)+γij(l)·xij(3l)。(11)

式中:αij(l)、βij(l)和γij(l)分別表示3個(gè)級(jí)別的特征在級(jí)別l處的空間權(quán)重,且其受到αij(l)+βij(l)+γij(l)=1的約束。自適應(yīng)特征融合的操作考慮到了不同階段特征融合數(shù)量的差異,該公式實(shí)現(xiàn)了特定階段數(shù)量的自適應(yīng)空間融合模塊。

1.5 模型評(píng)價(jià)指標(biāo)

為了驗(yàn)證改進(jìn)的YOLO v8模型對(duì)煙草害蟲(chóng)目標(biāo)檢測(cè)的準(zhǔn)確性,所使用的評(píng)價(jià)指標(biāo)有精確率(precision,P)、召回率(recall,R)、Giga浮點(diǎn)運(yùn)算(GFLOPs)、平均精度均值(mean average precision,mAP)和檢測(cè)速度(frame per second,F(xiàn)PS)。其中,精確率、召回率和平均精度均值用于衡量模型的檢測(cè)精度,GFLOPs和FPS分別用于度量模型復(fù)雜度(模型體積)和模型推理速度。

精確率是指在被所有預(yù)測(cè)為正的樣本中實(shí)際為正樣本的概率,公式如下:

P=TPTP+FP。(12)

召回率指在實(shí)際為正的樣本中被預(yù)測(cè)為正樣本的概率,公式如下:

R=TPTP+FN。(13)

式中:TP表示正確預(yù)測(cè)出來(lái)的正樣本數(shù)量,F(xiàn)P表示將負(fù)樣本錯(cuò)誤預(yù)測(cè)為正樣本的數(shù)量,F(xiàn)N表示將正樣本錯(cuò)誤預(yù)測(cè)為負(fù)樣本的數(shù)量。

平均精度均值指的是各類(lèi)別平均正確率的平均值,計(jì)算出所有類(lèi)別的平均正確率后除以類(lèi)別總數(shù)即得到平均精度均值,計(jì)算公式如公式(14)所示:

mAP=∑APN(C)。(14)

式中:∑AP表示全部類(lèi)別的平均精度值之和,N(C)表示全部類(lèi)別的總數(shù)。mAP的值越高,模型的檢測(cè)效果就越好。

2 結(jié)果與分析

2.1 參數(shù)設(shè)置與訓(xùn)練

將經(jīng)過(guò)預(yù)處理后得到3 500個(gè)經(jīng)過(guò)標(biāo)注的煙草害蟲(chóng)圖像作為本試驗(yàn)訓(xùn)練數(shù)據(jù)集,輸入圖片大小設(shè)置為600像素×600像素,隨后通過(guò)代碼將數(shù)據(jù)集按照6 ∶2 ∶2劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集。在訓(xùn)練模型時(shí),初始學(xué)習(xí)率設(shè)置為0.001,總訓(xùn)練輪次(epoch)大小為300,且訓(xùn)練批次(batch_size)設(shè)置為16,為了加快訓(xùn)練速度且不影響識(shí)別準(zhǔn)確率,本試驗(yàn)采用凍結(jié)訓(xùn)練,將主干特征提取網(wǎng)絡(luò)凍結(jié)一部分,其中前100輪訓(xùn)練為凍結(jié)訓(xùn)練,隨后將其解凍并將學(xué)習(xí)率設(shè)置為0.000 1,訓(xùn)練批次設(shè)置為32,訓(xùn)練到300輪次[24]。本次試驗(yàn)周期為 2023年8月至 2023年10月,試驗(yàn)地點(diǎn)為鄭州輕工業(yè)大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院數(shù)據(jù)智能實(shí)驗(yàn)室。

2.2 消融試驗(yàn)

針對(duì)煙草害蟲(chóng)身形較小,所處環(huán)境復(fù)雜的問(wèn)題,首先在YOLO v8算法的基礎(chǔ)上,加入了EMA注意力機(jī)制;其次用SIoU Loss改進(jìn)YOLO v8的邊界框損失函數(shù);最后利用AFPN漸近特征金字塔網(wǎng)絡(luò)改進(jìn)了YOLO v8的PAFPN網(wǎng)絡(luò)。為了對(duì)比各模塊對(duì)于YOLO v8算法的影響,驗(yàn)證改進(jìn)算法的效果,在相同環(huán)境下進(jìn)行了消融試驗(yàn),試驗(yàn)結(jié)果如表1所示。

從表1可以看出,引入EMA注意力機(jī)制后,僅用少量參數(shù),就能夠有效提高YOLO v8算法的檢測(cè)精度, 且對(duì)檢測(cè)速率的影響較小。SIoU損失函數(shù)和AFPN特征金字塔的改進(jìn)都使得YOLO v8算法的檢測(cè)精度進(jìn)一步提高,并且AFPN特征金字塔改進(jìn)YOLO v8的PAFPN網(wǎng)絡(luò)可以降低模型的參數(shù)量,加快了模型檢測(cè)速率。試驗(yàn)結(jié)果表明,3種改進(jìn)策略在滿足煙草害蟲(chóng)檢測(cè)實(shí)時(shí)性的同時(shí)可有效提升模型對(duì)煙草害蟲(chóng)識(shí)別的精度。

2.3 試驗(yàn)驗(yàn)證及分析

為了評(píng)估改進(jìn)后的YOLO v8模型在實(shí)際應(yīng)用中的表現(xiàn)。訓(xùn)練完成后,使用改進(jìn)后的 YOLO v8模型對(duì)煙草害蟲(chóng)測(cè)試集圖像進(jìn)行識(shí)別,同時(shí)也使用原始YOLO v8模型作為對(duì)比,得到的預(yù)測(cè)效果如圖6所示。

從預(yù)測(cè)結(jié)果(圖6)可以看出,改進(jìn)后的YOLO v8模型在4種不同的煙草害蟲(chóng)的檢測(cè)結(jié)果上均明顯優(yōu)于原始的YOLO v8模型。原始YOLO v8模型在圖像清晰度不高或煙草害蟲(chóng)處于復(fù)雜背景時(shí),識(shí)別結(jié)果會(huì)出現(xiàn)漏檢的情況,而改進(jìn)后的YOLO v8模型則不會(huì)出現(xiàn)以上情況。結(jié)合多個(gè)圖像的不同煙草害蟲(chóng)預(yù)測(cè)結(jié)果對(duì)比分析可知,和原始YOLO v8模型相比,改進(jìn)后的YOLO v8模型對(duì)不同種類(lèi)的煙草害蟲(chóng)具有更好的識(shí)別效果。

為了進(jìn)一步驗(yàn)證改進(jìn)后的YOLO v8算法的性能,將YOLO v8改進(jìn)模型與其他主流目標(biāo)檢測(cè)算法Faster R-CNN、單階段多分類(lèi)檢測(cè)器(single shot multibox detector,SSD)、Retinanet 進(jìn)行比較。除此之外,還將YOLO v3-tiny、YOLO v4-tiny、YOLO v5s、YOLO v8與改進(jìn)后的YOLO v8模型進(jìn)行比較,用來(lái)驗(yàn)證改進(jìn)后的模型在YOLO系列模型中的性能。將上述的模型均采用相同的硬件設(shè)施和相同的數(shù)據(jù)集進(jìn)行訓(xùn)練,經(jīng)過(guò)測(cè)試,8種不同的模型在相同的煙草害蟲(chóng)數(shù)據(jù)集上的精確率、召回率、GFLOPs、平均精度均值和檢測(cè)速度如表2所示。

從表2可以看出,改進(jìn)后的YOLO v8模型與Faster R-CNN、SSD、Retinanet相比,精確率、召回率、mAP值均有小幅提高,并且改進(jìn)后的YOLO v8模型在計(jì)算量方面有大幅下降,分別僅為上述模型的2.1%、2.9%和6.5%,低計(jì)算量使得改進(jìn)的YOLO v8模型具有較低的算法復(fù)雜度,在FPS上對(duì)比其他模型也有明顯提升。這說(shuō)明本研究模型與其他的目標(biāo)檢測(cè)模型相比能夠在檢測(cè)準(zhǔn)確率保持提升的情況下,大幅降低了模型的復(fù)雜度和計(jì)算量,更能夠滿足煙草害蟲(chóng)檢測(cè)的實(shí)時(shí)性的要求。改進(jìn)后的YOLO v8模型在與YOLO v3-tiny、YOLO v4-tiny、YOLO v5s和YOLO v8這些輕量級(jí)的YOLO模型相比時(shí),精確率分別提高了11.71、15.31、7.50、1.13百分點(diǎn),召回率和mAP值也均有較大提高。改進(jìn)后的YOLO v8算法計(jì)算量為7.9 G FLOPs,即使在輕量級(jí)模型中也處于較低的水準(zhǔn),與輕量化的同系列模型相比較,改進(jìn)后的YOLO v8模型在滿足快速檢測(cè)煙草害蟲(chóng)的同時(shí)也實(shí)現(xiàn)了更高的檢測(cè)精度。

綜上所述,與其他檢測(cè)模型相比較,改進(jìn)后的YOLO v8模型兼顧精準(zhǔn)和高效的要求,以極低的模型體積實(shí)現(xiàn)了極高的煙草害蟲(chóng)檢測(cè)精度,且改進(jìn)后的YOLO v8模型的算法復(fù)雜度低,更容易部署在各類(lèi)硬件上。改進(jìn)后的YOLO v8模型在滿足對(duì)復(fù)雜環(huán)境下的煙草害蟲(chóng)進(jìn)行準(zhǔn)確且高效識(shí)別的同時(shí),還更容易實(shí)現(xiàn)后續(xù)模型的維護(hù)和擴(kuò)展。

3 結(jié)論與討論

本研究針對(duì)煙草害蟲(chóng)檢測(cè)存在公開(kāi)可用的圖像數(shù)據(jù)集少,以及由于各類(lèi)煙草害蟲(chóng)圖像背景復(fù)雜、煙草害蟲(chóng)形態(tài)多樣,導(dǎo)致難以檢測(cè)和分類(lèi)的問(wèn)題,構(gòu)建了一個(gè)包含煙青蟲(chóng)、斜紋夜蛾、斑須蝽和甜菜夜蛾這4種常見(jiàn)煙草害蟲(chóng)的數(shù)據(jù)集,并提出了一種基于改進(jìn)的YOLO v8模型的煙草害蟲(chóng)識(shí)別方法。該方法在YOLO v8模型的基礎(chǔ)上做出了如下創(chuàng)新:(1)在YOLO v8算法的C2f模塊中加入EMA,與CBAM、SA、ECA等傳統(tǒng)的注意力機(jī)制相比,EMA除了在不降低通道維數(shù)的情況下在每個(gè)并行子網(wǎng)中構(gòu)建本地跨通道交互之外,還通過(guò)跨空間學(xué)習(xí)方法融合了2個(gè)并行子網(wǎng)的輸出特征映射。這使得加入EMA后不僅算法的特征提取效果更好,而且在所需參數(shù)方面效率更高。(2)使用SIoU損失函數(shù)作為YOLO v8的邊界框損失函數(shù),提高了模型的收斂速度和邊界框的預(yù)測(cè)精度。(3)用AFPN漸近特征金字塔網(wǎng)絡(luò)替代YOLO v8的PAFPN網(wǎng)絡(luò),不但降低了模型的參數(shù)量,還改善了原始YOLO v8算法在進(jìn)行非相鄰特征的特征融合時(shí),會(huì)導(dǎo)致部分特征信息在傳輸過(guò)程中丟失的問(wèn)題。利用自制的煙草害蟲(chóng)數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,試驗(yàn)結(jié)果表明改進(jìn)后的YOLO v8算法比原算法參數(shù)量更少,算法復(fù)雜度更低,模型檢測(cè)精度更高。針對(duì)各種形態(tài)的煙草害蟲(chóng)的識(shí)別更準(zhǔn)確,且滿足煙草害蟲(chóng)檢測(cè)的實(shí)時(shí)性要求。改進(jìn)后的模型在4種煙草害蟲(chóng)數(shù)據(jù)集上的識(shí)別精確率、召回率和mAP分別達(dá)到了91.26%、89.13%、92.62%,計(jì)算量減少到 7.9 G FLOPs,檢測(cè)速度為67幀/s。與其他主流目標(biāo)檢測(cè)模型進(jìn)行對(duì)比,改進(jìn)后的YOLO v8模型在計(jì)算量方面相比Faster R-CNN、SSD、Retinanet模型有大幅下降,平均僅為上述模型的3.8%;改進(jìn)后的YOLO v8模型與YOLO v3-tiny、YOLO v4-tiny、YOLO v5和YOLO v8這些輕量級(jí)的YOLO模型相比時(shí),精確率平均提高了8.91百分點(diǎn);對(duì)比上述其他所有模型,改進(jìn)的YOLO v8模型的識(shí)別精確率、召回率和mAP均高于上述其他模型。試驗(yàn)結(jié)果表明,本研究算法在提高了檢測(cè)精度的情況下大幅降低了模型復(fù)雜度,更適合進(jìn)行煙草害蟲(chóng)的實(shí)時(shí)檢測(cè)。下一步的研究重點(diǎn)是將改進(jìn)后的模型實(shí)際應(yīng)用于不同種類(lèi)的煙草害蟲(chóng)檢測(cè)中,在實(shí)際應(yīng)用中不斷擴(kuò)充數(shù)據(jù)集并改善模型結(jié)構(gòu)。

參考文獻(xiàn):

[1]Yun T,Wang S H,Li E,et al. MD-YOLO:multi-scale dense YOLO for small target pest detection[J]. Computers and Electronics in Agriculture,2023,213(1):108233.

[2]Sharma U,Goel T,Singh J. Real-time image processing using deep learning with Opencv and Python[J]. Journal of Pharmaceutical Negative Results,2023,14(3):1905-1908.

[3]楊光露,魯曉平,李 琪,等. 基于改進(jìn)輕量化YOLO v5s的卷煙廠煙草粉螟視覺(jué)檢測(cè)方法[J]. 輕工學(xué)報(bào),2023,38(6):102-109.

[4]鄭 果,姜玉松,沈永林. 基于改進(jìn)YOLO v7的水稻害蟲(chóng)識(shí)別方法[J]. 華中農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,42(3):143-151.

[5]楊光露,李春松,李愿軍,等. 基于CenterNet模型的煙草甲蟲(chóng)視覺(jué)檢測(cè)方法設(shè)計(jì)[J]. 中國(guó)煙草學(xué)報(bào),2022,28(6):77-84.

[6]周 維,牛永真,王亞煒,等. 基于改進(jìn)的YOLO v4-GhostNet水稻病蟲(chóng)害識(shí)別方法[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2022,38(3):685-695.

[7]Luo D H,Xue Y J,Deng X R,et al. Citrus diseases and pests detection model based on self-attention YOLO v8[J]. IEEE Access,2023,11(4):139872-139881.

[8]李偉豪,詹 煒,周 婉,等. 輕量型YOLO v7-TSA 網(wǎng)絡(luò)在茶葉病害檢測(cè)識(shí)別中的研究與應(yīng)用[J]. 河南農(nóng)業(yè)科學(xué),2023,52(5):162-169.

[9]何卓遜. 圖像識(shí)別中數(shù)據(jù)增強(qiáng)方法的理解與改進(jìn)[D]. 上海:上海交通大學(xué),2020.

[10]Zhu R X,Hao F Q,Ma D X. Research on polygon pest-infected leaf region detection based on YOLO v8[J]. Agriculture,2023,13(12):2253.

[11]Wang L H,Chao R,Meng H,et al. Cattle body detection based on YOLO v5-EMA for precision livestock farming[J]. Animals,2023,13(22):3535.

[12]Kaj S,Cha C. SE-SqueezeNet:SqueezeNet extension with squeeze-and-excitation block[J]. International Journal of Computational Science and Engineering,2021,24(2):185-199.

[13]Ma B,Wang X R,Zhang H,et al. CBAM-GAN:generative adversarial networks based on convolutional block attention module[J]. Artificial Intelligence and Security,2019,11632(2):227-236.

[14]Wu T Y,Dong Y K. YOLO-SE:improved YOLO v8 for remote sensing object detection and recognition[J]. Applied Sciences,2023,13(24):12977.

[15]李利榮,張?jiān)屏?,?鵬,等. 基于輕量化YOLO v4的復(fù)雜場(chǎng)景絕緣子缺陷檢測(cè)算法[J]. 光電子(激光),2022,33(6):598-606.

[16]周紹發(fā),肖小玲,劉忠意,等. 改進(jìn)的基于YOLOv5s蘋(píng)果樹(shù)葉病害檢測(cè)[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(13):212-220.

[17]Zhang G L,Du Z X,Lu W J,et al. Dense pedestrian detection based on YOLO v4 network reconstruction and CIoU loss optimization[J]. Journal of Physics,2022,2171(1):012019.

[18]Sun D L,Zhang L J,Wang J Q,et al. Efficient and accurate detection of herd pigs based on Ghost-YOLO v7-SIoU[J]. Neural Computing & Applications,2023,36(14):2339-2352.

[19]周飛燕,金林鵬,董 軍. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.

[20]Quan Y,Zhang D,Zhang L,et al. Centralized feature pyramid for object detection[J]. IEEE Transactions on Image Processing,2023,32(1):4341-4354.

[21]劉 穎,劉紅燕,范九倫,等. 基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)研究與應(yīng)用綜述[J]. 電子學(xué)報(bào),2020,48(3):590-601.

[22]Fu L,Wang H Z. Object detection algorithm based on improved FCOS[J]. International Core Journal of Engineering,2022,48(3):507-516.

[23]Liu C H,Lin W R,F(xiàn)eng Y F,et al. ATC-YOLO v5:fruit appearance quality classification algorithm based on the improved YOLO v5 model for passion fruits[J]. Mathematics,2023,11(3615):3615.

[24]邵延華,張 鐸,楚紅雨,等. 基于深度學(xué)習(xí)的YOLO目標(biāo)檢測(cè)綜述[J]. 電子與信息學(xué)報(bào),2022,44(10):3697-3708.

望奎县| 龙游县| 扎兰屯市| 开鲁县| 拉孜县| 石屏县| 济阳县| 特克斯县| 靖边县| 金乡县| 长子县| 秭归县| 鲁甸县| 延长县| 健康| 泰顺县| 宁阳县| 玉溪市| 扶绥县| 日照市| 马鞍山市| 桦川县| 定兴县| 嘉义市| 嵩明县| 阜阳市| 红桥区| 监利县| 高清| 天等县| 昔阳县| 罗江县| 乌兰察布市| 恩平市| 霍林郭勒市| 东乡族自治县| 郸城县| 修文县| 囊谦县| 富源县| 万山特区|