国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv8的棉花蟲害檢測(cè)算法

2024-12-31 00:00:00劉潤(rùn)飛
農(nóng)業(yè)工程 2024年7期
關(guān)鍵詞:目標(biāo)檢測(cè)

關(guān)鍵詞:YOLOv8;棉花蟲害;目標(biāo)檢測(cè);可變形卷積;高效通道注意力

0 引言

棉花作為我國(guó)重要的經(jīng)濟(jì)作物,其生長(zhǎng)過程中常受到多種病蟲害的侵?jǐn)_,導(dǎo)致產(chǎn)量和質(zhì)量受到嚴(yán)重影響[1]。因此,快速而準(zhǔn)確地識(shí)別棉花病蟲害,并采取有效的防治措施,對(duì)于維護(hù)棉花產(chǎn)業(yè)的穩(wěn)定發(fā)展至關(guān)重要。傳統(tǒng)的蟲害識(shí)別方法依賴于經(jīng)驗(yàn)豐富的專家或農(nóng)民,不僅費(fèi)時(shí)費(fèi)力,而且在識(shí)別微小病變時(shí)準(zhǔn)確率較低。此外,傳統(tǒng)方法還面臨復(fù)雜的人工特征分割和提取問題,增加了人力成本,并且計(jì)算復(fù)雜度高,導(dǎo)致識(shí)別效果不理想。因此,開發(fā)一種高效、準(zhǔn)確的棉花病蟲害識(shí)別方法成為當(dāng)前研究的迫切需求。

近年來,隨著光譜信息分析和遙感影像技術(shù)的興起,蟲害識(shí)別取得了顯著進(jìn)展。趙亮等[2]構(gòu)建了基于敏感波段的蟲害診斷模型,實(shí)現(xiàn)了對(duì)棉花螨害的識(shí)別提取。地力夏提·依馬木等[3]利用多種算法實(shí)現(xiàn)了棉田多種蟲害的快速精準(zhǔn)識(shí)別監(jiān)測(cè)。同時(shí),深度學(xué)習(xí)技術(shù)在農(nóng)業(yè)領(lǐng)域的應(yīng)用也逐漸增多,為棉花病蟲害識(shí)別提供了新的解決方案[4]。王曾龍等[5]采用深度學(xué)習(xí)方法Faster-RCNN進(jìn)行棉花害蟲識(shí)別和計(jì)數(shù),為化學(xué)防治提供了依據(jù)。然而,深度學(xué)習(xí)在棉花蟲害識(shí)別中也面臨一些難點(diǎn)和挑戰(zhàn),如蟲害外觀的相似性、數(shù)據(jù)集的獲取和標(biāo)注困難、模型的訓(xùn)練和優(yōu)化等。

為了解決這些問題,本研究提出了一種基于YOLOv8模型的棉花蟲害識(shí)別方法。YOLOv8作為YOLO系列中的最新模型,具有更高的識(shí)別精度和更快的檢測(cè)速度[6]。通過優(yōu)化和改進(jìn)YOLOv8模型,提高棉花蟲害識(shí)別的精度和速度,為棉花產(chǎn)業(yè)的可持續(xù)發(fā)展提供技術(shù)支持。期待通過本研究能夠?yàn)槊藁ㄏx害的有效治理提供新的思路和方法,推動(dòng)農(nóng)業(yè)智能化和精準(zhǔn)化的發(fā)展。

1 YOLOv8模型改進(jìn)

YOLOv8是一種高效的目標(biāo)檢測(cè)模型,采用了基于Anchor-Free的檢測(cè)方式,相較于Anchor-Based方式具有更高的檢測(cè)精度和更快的檢測(cè)速度。其模型結(jié)構(gòu)可分為主干網(wǎng)絡(luò)、特征增強(qiáng)網(wǎng)絡(luò)和檢測(cè)頭3個(gè)部分。在主干網(wǎng)絡(luò)中,YOLOv8替換了YOLOv5的C3模塊并進(jìn)行改進(jìn),其余部分與其一致。在特征增強(qiáng)網(wǎng)絡(luò)中,YOLOv8采用PA-FPN思想去除了上采樣階段卷積,并將C3模塊替換為C2f模塊。在檢測(cè)頭部分,YOLOv8使用Decoupled-Head結(jié)構(gòu),摒棄Anchor-Based方案,擁抱Anchor-Free思想。在損失函數(shù)方面,分類采用BCEloss,回歸采用DFLLoss和CIOULoss。在標(biāo)簽分配上,采用Task-AlignedAssigner匹配方式。總體而言,YOLOv8模型具有更高的檢測(cè)精度和更快的檢測(cè)速度。

1.1 C2f-DCNv3Block

C2fBlock是YOLOv8模型中的一種結(jié)構(gòu),它借鑒了CSPNet的網(wǎng)絡(luò)結(jié)構(gòu),并結(jié)合殘差結(jié)構(gòu)和ELAN思想對(duì)C3Block進(jìn)行了優(yōu)化。該結(jié)構(gòu)的主分支梯度模塊采用Bottleneck模塊,通過控制堆疊的個(gè)數(shù)n獲得不同規(guī)模的模型。同時(shí),通過并行更多的梯度流分支以獲得更豐富的梯度信息,進(jìn)而獲得更高精度和更低延遲。

WANGW等[7]提出InterImage,以形變卷積作為核心算子。與傳統(tǒng)的CNN方案不同,形變卷積不僅具有有效感受野,還具有輸入與任務(wù)自適應(yīng)的空域聚合能力;在多個(gè)數(shù)據(jù)集上驗(yàn)證了InternImage的可行性和有效性,表明它降低了傳統(tǒng)CNN的嚴(yán)格歸納偏置,并且學(xué)習(xí)出更強(qiáng)、更理想的表達(dá)能力。

本研究引入InterImage中提出的DCNv3算子,如圖1所示。該算子基于DCNv2算子引入共享投射權(quán)重、多組機(jī)制和采樣點(diǎn)調(diào)制標(biāo)量歸一化,使得模型保留采樣位置依賴性、產(chǎn)生豐富的特征多樣性和訓(xùn)練更加穩(wěn)定的優(yōu)點(diǎn)。

將DCNv3算子引入YOLOv8模型的Head層中,對(duì)Head層中的C2fBlock進(jìn)行改進(jìn)和優(yōu)化。首先,把C2fBlock中Bottleneck結(jié)構(gòu)的普通卷積替換為DCNv3算子,形成新的DCNv3-Bottleneck結(jié)構(gòu),如圖2所示。

最后,將C2fBlock中的Bottleneck結(jié)構(gòu)替換為新的DCNv3-Bottleneck結(jié)構(gòu),新的C2f-DCNv3Block結(jié)構(gòu)如圖3所示。這樣可使棉花蟲害檢測(cè)模型具有獲得更細(xì)致特征的能力,在保證模型效率不變的情況下,對(duì)于目標(biāo)較小的棉花蟲害識(shí)別率可以達(dá)到更加理想的狀態(tài)。

1.2 ECA高效通道注意力機(jī)制

由于YOLOv8的主干網(wǎng)絡(luò)依然采用了多尺度特征融合的理念,即Backbone產(chǎn)生的p3、p4和p53個(gè)尺度的特征被分別和Head部分的同尺度特征進(jìn)行融合后再進(jìn)行后續(xù)處理。這種設(shè)計(jì)方式的優(yōu)勢(shì)在于,它可以讓多個(gè)尺度的特征得到更加充分地利用,從而提高模型的精度。然而,由于通道數(shù)不斷增加,特征融合的通道會(huì)產(chǎn)生冗余信息。如果能夠?qū)νǖ肋M(jìn)行一個(gè)自適應(yīng)的重要程度加權(quán),使得模型能夠利用全局信息,有選擇地強(qiáng)調(diào)部分通道信息,并抑制不太有用的特征,那么將進(jìn)一步提高模型的特征提取能力。

在盡可能不增加模型參數(shù)量和計(jì)算量的前提下,本研究使用ECA高效通道注意力機(jī)制來提高模型的精度和效率[8]。ECA是一種通道注意力機(jī)制,結(jié)構(gòu)如圖4所示。通過全局平均池化和兩層全連接層,自適應(yīng)地調(diào)整通道特征的權(quán)重,以更好地關(guān)注重要的特征,抑制不重要的特征,從而提升網(wǎng)絡(luò)的特征表示能力。相比于其他注意力機(jī)制,通道注意力機(jī)制的優(yōu)勢(shì)在于其可以捕捉到特征圖不同通道之間的關(guān)系,不會(huì)顯著增加網(wǎng)絡(luò)的參數(shù)和計(jì)算成本。使ECA提升網(wǎng)絡(luò)性能的同時(shí),保持了模型的輕量級(jí)和可訓(xùn)練性。通過引入這種機(jī)制,ECA能夠有效地增強(qiáng)網(wǎng)絡(luò)的表征能力。所以,本研究在YOLOv8的Head層加入了一模ECA塊,緩解了最后Head層輸出因拼接多個(gè)通道造成的通道信息冗余的問題,有助于提升特征的判別能力,有助于抑制不重要的特征,從而減少了過擬合風(fēng)險(xiǎn)。網(wǎng)絡(luò)更加關(guān)注重要的特征,有助于提高泛化能力和模型的檢測(cè)精度。

2 試驗(yàn)設(shè)計(jì)與分析

2.1 數(shù)據(jù)集介紹

所使用數(shù)據(jù)集為CottonInsect棉田昆蟲識(shí)別研究圖像數(shù)據(jù)集,為了解決復(fù)雜背景下棉田昆蟲分類及檢測(cè)問題,構(gòu)建新疆棉田昆蟲圖像數(shù)據(jù)集[9]。本數(shù)據(jù)集包含13種常見的棉花昆蟲,共2961張圖片,原始圖像共24GB,部分?jǐn)?shù)據(jù)展示如圖5所示。圖像數(shù)據(jù)都是不同時(shí)間、地點(diǎn)和環(huán)境收集,包含棉田昆蟲在真實(shí)環(huán)境中不同姿態(tài)和生長(zhǎng)周期的圖像。通過人工篩選和標(biāo)注分為圖像分類和目標(biāo)檢測(cè)兩種格式的數(shù)據(jù)集。最終可為棉田棉花昆蟲圖像分類、目標(biāo)檢測(cè)等任務(wù)提供基礎(chǔ)數(shù)據(jù)。

在深度學(xué)習(xí)算法中,通常將預(yù)處理的數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集3個(gè)部分(劃分要盡可能按照合適的比例保持?jǐn)?shù)據(jù)分布的一致性),如表1所示。其中,訓(xùn)練集作用是通過訓(xùn)練獲取圖像特征信息,驗(yàn)證集作用是用來避免過擬合,測(cè)試集作用則是測(cè)試網(wǎng)絡(luò)在測(cè)試集上準(zhǔn)確率。改進(jìn)試驗(yàn)及對(duì)比試驗(yàn)均是在該數(shù)據(jù)集上進(jìn)行的。

2.2 環(huán)境配置

試驗(yàn)所使用服務(wù)器操作系統(tǒng)為Ubuntu20.04,計(jì)算資源為單張NVIDIARTXA5000顯卡,深度學(xué)習(xí)框架為Pytorch1.11.0。詳細(xì)配置如表2所示。

2.3 模型訓(xùn)練

在原模型和改進(jìn)后模型上進(jìn)行了300輪訓(xùn)練后,驗(yàn)證集上的mAP50曲線如圖6所示。由圖6可知,由于原模型能夠加載預(yù)訓(xùn)練權(quán)重,因而在一開始具備較好的表現(xiàn),并且僅需約200輪訓(xùn)練即可達(dá)到收斂狀態(tài)。然而,改進(jìn)后的模型由于改變了模型結(jié)構(gòu),只能加載部分預(yù)訓(xùn)練權(quán)重,因此其效果相當(dāng)于重新訓(xùn)練,需要更多的訓(xùn)練輪數(shù)才能達(dá)到收斂。對(duì)比兩條曲線可以發(fā)現(xiàn),改進(jìn)后的模型由于引入了通道注意力機(jī)制,使其在mAP50指標(biāo)上提高3.0個(gè)百分點(diǎn),從0.676提升至0.706。

2.4 試驗(yàn)結(jié)果與分析

為了評(píng)估棉花蟲害目標(biāo)檢測(cè)算法的性能,采用一系列評(píng)價(jià)指標(biāo)來對(duì)其進(jìn)行定量描述[10]。本研究所用評(píng)價(jià)指標(biāo)包括準(zhǔn)確率、精確度、召回率、F1分?jǐn)?shù)和mAP。

(1)準(zhǔn)確率是重要評(píng)價(jià)指標(biāo)之一,是指在所有樣本中預(yù)測(cè)正確的比例,可以用混淆矩陣的對(duì)角線之和除以測(cè)試集圖片數(shù)量來計(jì)算。在二分類問題中,混淆矩陣的4個(gè)單元格分別為真陽性(TP)、假陽性(FP)、真陰性(TN)和假陰性(FN)。準(zhǔn)確率PAccuracy計(jì)算公式為

在多分類問題中,準(zhǔn)確率的計(jì)算方式類似,只需將混淆矩陣的每個(gè)單元格進(jìn)行相應(yīng)的擴(kuò)展即可。

(2)精確度和召回率也是評(píng)價(jià)指標(biāo)。精確度是指在所有檢測(cè)出的目標(biāo)中,有多少是真正的目標(biāo)。召回率是指所有真正的目標(biāo)中,有多少被正確地檢測(cè)出來。精確度PPrecision和召回率PRecall計(jì)算公式為

(3)為了綜合考慮精確度和召回率,可以計(jì)算F1分?jǐn)?shù)。F1分?jǐn)?shù)是精確度和召回率的調(diào)和平均數(shù)。F1分?jǐn)?shù)PF1計(jì)算公式為

(4)mAP是另一個(gè)重要評(píng)價(jià)指標(biāo),是指averageprecision(AP)的平均值。對(duì)于每個(gè)類別,可以計(jì)算其AP值,即在該類別的所有樣本中,以不同閾值分割時(shí)的精確度和召回率的曲線下的面積。再將所有類別的AP值求平均值即為mAP值。

為了驗(yàn)證本研究所做改進(jìn)的有效性,在YOLOv8n模型上做了以下消融試驗(yàn)。由表3可知,所設(shè)計(jì)的DCNv3_C2fBlock使得模型mAP值提升3.0個(gè)點(diǎn)的同時(shí),模型大小減少了0.3MB,實(shí)現(xiàn)了模型精度和速度的雙提升。

將本研究的改進(jìn)模型與輕量化的一階段目標(biāo)檢測(cè)模型YOLOv3-tiny[11]、YOLOv5[12]、YOLOv6[13]及YOLOv8n模型對(duì)比,驗(yàn)證本研究改進(jìn)的模型在精度和速度方面的表現(xiàn),結(jié)果如表4所示。

由表4可知,改進(jìn)后的棉花蟲害檢測(cè)模型在精度優(yōu)于YOLOv3-tiny、YOLOv5、YOLOv6和YOLOv8n模型,模型參數(shù)量和推理時(shí)間也低于其他4個(gè)模型。因此,證明了本研究所提改進(jìn)方法的有效性,將改進(jìn)后的棉花蟲害檢測(cè)模型用于實(shí)際的蟲害檢測(cè)中,不但精度可以得到保證,速度也得到了保證。棉花蟲害檢測(cè)模型檢測(cè)效果如圖7所示,對(duì)于每張圖像上的蟲害都做到了精確檢測(cè)和準(zhǔn)確定位,大部分蟲害的識(shí)別準(zhǔn)確率達(dá)到90%以上,為解決棉田蟲害識(shí)別提供了一定的參考與助力。

3 結(jié)束語

使用了最新的一階段目標(biāo)檢測(cè)算法YOLOv8,對(duì)原模型進(jìn)行了改進(jìn)。一是為了提升模型的檢測(cè)精度,改進(jìn)了YOLOv8模型中的C2fBlock,引入DCNv3算子,讓模型獲得了更強(qiáng)的特征提取能力,從而獲得更高精度的棉花蟲害檢測(cè)模型。二是在YOLOv8的Head層后面加入了高效通道注意力機(jī)制ECA,使得模型獲得更高精度的同時(shí),模型效率更高。

不足之處在于使用了較輕量的模型,模型的檢測(cè)精度還有較大的提升空間。由于本研究使用的棉田昆蟲數(shù)據(jù)集包含了許多重復(fù)的圖像并且部分害蟲顏色與背景極為相似,對(duì)于害蟲的識(shí)別有一定的困難。在對(duì)數(shù)據(jù)集做擴(kuò)充和數(shù)據(jù)增強(qiáng)后,訓(xùn)練出來的模型將會(huì)有更好的泛化性。為了解決這些不足,后續(xù)研究中根據(jù)實(shí)際場(chǎng)景的需求,收集更多的棉花蟲害數(shù)據(jù)集,進(jìn)一步提高棉花蟲害識(shí)別模型的精度、速度和泛化性。

猜你喜歡
目標(biāo)檢測(cè)
多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
視頻中目標(biāo)檢測(cè)算法研究
軟件(2016年4期)2017-01-20 09:38:03
行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
基于視頻監(jiān)控的運(yùn)動(dòng)圖像檢測(cè)算法研究
基于背景建模法的運(yùn)動(dòng)目標(biāo)檢測(cè)
基于P3電位的目標(biāo)檢測(cè)研究
科技視界(2016年4期)2016-02-22 13:09:19
智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
相關(guān)K分布雜波中擴(kuò)展目標(biāo)積累檢測(cè)性能分析
基于連通域標(biāo)記的目標(biāo)檢測(cè)算法設(shè)計(jì)與實(shí)現(xiàn)
雷州市| 肇东市| 丰镇市| 五原县| 岑溪市| 克山县| 成安县| 枞阳县| 万盛区| 家居| 济阳县| 汉沽区| 黑山县| 尤溪县| 成武县| 张掖市| 吉木萨尔县| 当涂县| 海宁市| 奉化市| 宿州市| 海安县| 抚宁县| 武威市| 兴宁市| 徐州市| 吐鲁番市| 酒泉市| 洪雅县| 南昌县| 云林县| 偃师市| 昌江| 洪湖市| 庄浪县| 石景山区| 章丘市| 建阳市| 思南县| 营山县| 永顺县|