国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

改進(jìn)YOLOv5s的蝗蟲識(shí)別系統(tǒng)

2024-11-12 00:00馬宏興董凱兵丁雨恒盛鐵雷張薇

摘要:為準(zhǔn)確有效識(shí)別寧夏荒漠草原地區(qū)蝗蟲種類,基于YOLOv5s網(wǎng)絡(luò)模型提出一種復(fù)雜背景下蝗蟲目標(biāo)檢測(cè)模型YOLOv5s-CG,在主干網(wǎng)絡(luò)使用CoTNet保留復(fù)雜背景下的蝗蟲特征信息,同時(shí)在頸部網(wǎng)絡(luò)中融入GAM全局注意力機(jī)制提高檢測(cè)模型的特征融合能力。結(jié)果表明,在對(duì)寧夏荒漠草原蝗蟲進(jìn)行識(shí)別時(shí),模型YOLOv5s-CG 精確率為92.5%,平均精度均值為93.2%,相比原始模型分別提高4.8個(gè)百分點(diǎn)和5.3個(gè)百分點(diǎn),與 Fast R-CNN、YOLOv3、YOLOv4、YOLOv5s、YOLOv6s、YOLOv7模型相比,YOLOv5s-CG網(wǎng)絡(luò)模型對(duì)寧夏荒漠草原蝗蟲具有更好的檢測(cè)性能?;赮OLOv5s-CG,開(kāi)發(fā)寧夏荒漠草原蝗蟲識(shí)別APP系統(tǒng),實(shí)現(xiàn)寧夏荒漠草原地區(qū)復(fù)雜背景下的蝗蟲在線識(shí)別檢測(cè),為寧夏荒漠草原地區(qū)蝗蟲的監(jiān)管防控和綜合治理提供數(shù)據(jù)支持。

關(guān)鍵詞:蝗蟲識(shí)別;深度學(xué)習(xí);自注意力機(jī)制;全局注意力機(jī)制

中圖分類號(hào):S435 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095?5553 (2024) 11?0189?07

Locust identification system based on improved YOLOv5s

Ma Hongxing, Dong Kaibing, Ding Yuheng, Sheng Tielei, Zhang Wei

(College of Electrical and Information Engineering, North Minzu University, Yinchuan, 750021, China)

Abstract: In order to accurately and effectively identify locust species in the Ningxia desert grassland region, a locust target detection model YOLOv5s-CG was proposed based on the YOLOv5s network model in a complex context, by using Contextual Transformer Networks (CoTNet) in the backbone network to retain locust feature information in the complex context, while incorporating the global attention mechanism in the neck network to improve the feature fusion capability of the detection model. The experimental results showed that the model YOLOv5s-CG had a precision of 92.5% and a mean average precision of 93.2% in locust identification in Ningxia desert grassland, which was 4.8 percentage points and 5.3 percentage points higher than the original model, respectively. Compared with the Fast R-CNN, YOLOv3, YOLOv4,YOLOv5s, YOLOv6s and YOLOv7 models, the YOLOv5s-CG network model had better detection performance for locusts in Ningxia desert grassland. Finally, based on the YOLOv5s-CG, a locust identification APP system was developed to achieve online locust identification and detection in the complex background of the Ningxia desert grassland region, providing data support for the supervision, prevention, control and comprehensive management of locusts in the Ningxia desert grassland region.

Keywords: locust identification; deep learning; self?attention mechanisms; global attention mechanism

0 引言

目前,我國(guó)蝗蟲常年發(fā)生面積1.87×107 hm2次左右,分布在20個(gè)?。▍^(qū)、市),其中草原蝗蟲常年發(fā)生1.2×107 hm2次左右?,F(xiàn)有的遙感、地理信息系統(tǒng)等技術(shù),可以對(duì)蝗蟲生活環(huán)境的植被或氣象信息進(jìn)行監(jiān)測(cè),間接獲取蝗蟲分布信息,不受地域限制,但監(jiān)測(cè)精度不高[1?3]。近年來(lái),部分學(xué)者利用機(jī)器學(xué)習(xí)等新一代電子信息技術(shù),在微觀方面對(duì)蝗蟲識(shí)別進(jìn)行了研究。

Kasinathan等[4]以樸素貝葉斯(NB)、支持向量機(jī)(SVM)、K-最近鄰(KNN)和多層感知器(MLP)作為基礎(chǔ)分類器,對(duì)田間的昆蟲進(jìn)行分類。Lima等[5]提出了將蟲類特征與支持向量機(jī)SVM(Support Vector Machine)相結(jié)合的方法,構(gòu)建能分類64科的昆蟲分類系統(tǒng),識(shí)別準(zhǔn)確率可達(dá)93%。Lu等[6]提出了一種基于蝗蟲圖像分割、蝗蟲特征變量提取和支持向量機(jī)(SVM)分類的半自動(dòng)蝗蟲種類和齡期信息檢測(cè)模型,識(shí)別準(zhǔn)確率可達(dá)96.16%。Ye等[7]提出的ResNet-Locust-BN模型能夠識(shí)別三齡幼蟲,識(shí)別準(zhǔn)確率為77.20%、識(shí)別五齡幼蟲準(zhǔn)確率為88.40%、識(shí)別成蟲準(zhǔn)確率93.8%。Liu等[8]使用改進(jìn)的PraNet網(wǎng)絡(luò)可以對(duì)蝗蟲進(jìn)行精確的定位分割。Cao等[9]基于VGG19卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行遷移學(xué)習(xí),昆蟲識(shí)別準(zhǔn)確率達(dá)到97.39%。武英潔等[10]提出了基于Faster R-CNN的野外蝗蟲快速識(shí)別網(wǎng)絡(luò),對(duì)野外的蝗蟲精確率為75.6%。李林等[11]設(shè)計(jì)了K-SSD-F算法,對(duì)東亞飛蝗的視頻數(shù)據(jù)進(jìn)行檢測(cè),精度為88.94%。馬宏興等 [12]基于YOLOv5網(wǎng)絡(luò),將ConvNext和YOLOv5結(jié)合,對(duì)寧夏草原三類蝗蟲進(jìn)行識(shí)別,識(shí)別精度為96%。

以上方法雖能有效對(duì)昆蟲和蝗蟲進(jìn)行識(shí)別分類,但仍然存在不足:支持向量機(jī)針對(duì)高維度數(shù)據(jù)難以有效應(yīng)用;K最近鄰需要大量數(shù)據(jù)集,蝗蟲數(shù)據(jù)集構(gòu)建復(fù)雜,而且占用內(nèi)存大,難以對(duì)蝗蟲進(jìn)行有效分類識(shí)別;圖像分割需要對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理;Faster R-CNN、SSD和ConvNext目標(biāo)檢測(cè)模型推理速度慢,難以做到實(shí)時(shí)有效的識(shí)別。

因此,基于YOLOv5s網(wǎng)絡(luò),提出一種復(fù)雜背景下蝗蟲目標(biāo)快速檢測(cè)識(shí)別模型。該模型使用CoTNet(Contextual Transformer Networks)[13]來(lái)保留復(fù)雜背景下的蝗蟲特征,使用GAM(Global Attention Mechanism)[14]注意力結(jié)構(gòu)增強(qiáng)網(wǎng)絡(luò)特征融合的能力,同時(shí)將改進(jìn)后的網(wǎng)絡(luò)模型應(yīng)用于寧夏荒漠草原蝗蟲識(shí)別系統(tǒng),以方便草原工作人員對(duì)蝗蟲分布狀態(tài)進(jìn)行普查。

1 蝗蟲數(shù)據(jù)集

1.1 蝗蟲數(shù)據(jù)采集

寧夏荒漠草原中常見(jiàn)蝗蟲有亞洲小車蝗(Oedaleus decorus asiaticus)、短星翅蝗(Calliptamus abbreviatus Ikonnikov)、中華劍角蝗(Acrida cinerea)、黃脛小車蝗(Oedaleus infernalis Sauss)和赤翅皺膝蝗(Angaracris rhodopa)等,主要分布在寧夏中衛(wèi)、鹽池、海源、同心和彭陽(yáng)等地[15]。在自然環(huán)境下,蝗蟲的關(guān)鍵特征信息與背景存在高度的相似性,難以對(duì)蝗蟲特征進(jìn)行有效的提取與分析,因此,為了豐富樣本數(shù)據(jù),提高識(shí)別模型泛化能力,使用手機(jī)距離蝗蟲20~30 cm,并在不同光照環(huán)境、不同角度下采集了寧夏荒漠草原地區(qū)的蝗蟲圖像5類共874幅,蝗蟲圖像示例如圖1所示。

同時(shí)考慮到密集場(chǎng)景下的蝗蟲目標(biāo)檢測(cè),捕捉部分蝗蟲,將蝗蟲放置在捕蟲網(wǎng)、仿真草皮和粘蟲板,并在不同角度下進(jìn)行拍攝蝗蟲目標(biāo),如圖2所示。

1.2 數(shù)據(jù)預(yù)處理

為了提高模型輸出的準(zhǔn)確性,使得網(wǎng)絡(luò)模型能夠準(zhǔn)確學(xué)習(xí)到蝗蟲的特征與位置信息,需要對(duì)圖像中的蝗蟲進(jìn)行標(biāo)注。標(biāo)注時(shí)使用Labelimg工具,圖3為數(shù)據(jù)標(biāo)注示例。

將標(biāo)注好的數(shù)據(jù)集制作成通用的VOC格式,文件中包含蝗蟲名稱和位置信息。原始圖像和標(biāo)注文件均用于模型的訓(xùn)練和驗(yàn)證。

1.3 數(shù)據(jù)增強(qiáng)

由于采集到蝗蟲圖像數(shù)據(jù)有限,為提高模型的魯棒性和泛化能力,采用馬賽克數(shù)據(jù)增強(qiáng)和傳統(tǒng)圖像增強(qiáng)相結(jié)合的方法,擴(kuò)展蝗蟲圖像樣本的豐富度(圖4)。

2 模型設(shè)計(jì)

2.1 改進(jìn)模型

蝗蟲的特征是全身通常為綠色、灰色、褐色或黑褐色,在自然條件下,與背景高度相似,因此,對(duì)檢測(cè)網(wǎng)絡(luò)提出了更高的要求。針對(duì)蝗蟲圖像背景復(fù)雜等問(wèn)題,以YOLOv5s為模型進(jìn)行改進(jìn),改進(jìn)后的網(wǎng)絡(luò)模型命名為YOLOv5s-CG,如圖5所示。

通過(guò)將YOLOv5s原主干網(wǎng)絡(luò)部分C3改進(jìn)為CotNet網(wǎng)絡(luò),提高主干網(wǎng)絡(luò)層對(duì)蝗蟲小目標(biāo)特征提取能力;同時(shí),在Neck部分融入GAM全局注意力機(jī)制結(jié)構(gòu),提高模型的特征融合能力。通過(guò)這些改進(jìn),有效提升網(wǎng)絡(luò)模型對(duì)于復(fù)雜背景下的蝗蟲目標(biāo)識(shí)別能力。

2.2 CoTNet主干網(wǎng)絡(luò)

YOLOv5s主干特征提取網(wǎng)絡(luò)為C3網(wǎng)絡(luò),由于蝗蟲圖像背景復(fù)雜,并且蝗蟲的特征信息與背景特征信息存在高度的相似性,使用C3只能捕獲局部信息,而不能建立全局圖像的長(zhǎng)距離連接。為了擴(kuò)大圖像的感受野,獲取更多上下文信息(指與目標(biāo)像素周圍像素相關(guān)的信息),在此引入CoTNet結(jié)構(gòu),提高模型特征提取能力。CoTNet是一種基于Transformer[16]的結(jié)構(gòu),通過(guò)CoT塊替換ResNet結(jié)構(gòu)中的3×3卷積構(gòu)成,其結(jié)構(gòu)如圖6所示。

其中,CoTNet的核心模塊CoT塊結(jié)構(gòu)如圖7所示。

在CoT塊中,首先通過(guò)對(duì)3×3網(wǎng)格中的所有相鄰鍵執(zhí)行3×3卷積來(lái)進(jìn)行上下文鍵的表示,上下文鍵特性視為輸入特征的靜態(tài)表示,反映本地鄰居之間的靜態(tài)上下文;其次,將上下文鍵特征和輸入查詢的拼接輸入到兩個(gè)連續(xù)的1×1卷積中,生成注意矩陣,這一過(guò)程利用每個(gè)查詢和所有鍵之間的相互關(guān)系,在靜態(tài)上下文的指導(dǎo)下進(jìn)行自注意學(xué)習(xí),進(jìn)一步利用學(xué)習(xí)的注意矩陣聚合所有輸入值,實(shí)現(xiàn)輸入的動(dòng)態(tài)上下文表示;最后將靜態(tài)和動(dòng)態(tài)上下文結(jié)合作為CoT塊的最終輸出。CotNet同時(shí)捕獲輸入鍵之間的兩種空間上下文,即通過(guò)3×3卷積獲取靜態(tài)上下文和基于自注意的動(dòng)態(tài)上下文,以提高蝗蟲特征的學(xué)習(xí)。

在YOLOv5s中使用CoTNet,可以利用卷積有效地從圖像中學(xué)習(xí)抽象的低分辨率特征圖,同時(shí)也使用自注意力來(lái)處理和聚合卷積捕獲特征圖中包含的信息,擴(kuò)展模型專注于不同位置的能力,提高模型對(duì)于蝗蟲特征信息的提取。

2.3 GAM注意力結(jié)構(gòu)

注意力機(jī)制作為提高神經(jīng)網(wǎng)絡(luò)性能的一種有效方法,使目標(biāo)更加關(guān)注于重要的特征信息,已經(jīng)成為目標(biāo)檢測(cè)領(lǐng)域的一個(gè)重要概念,目前在自然語(yǔ)言處理、統(tǒng)計(jì)學(xué)習(xí)、語(yǔ)音和計(jì)算機(jī)視覺(jué)等領(lǐng)域有著大量的應(yīng)用。

受背景特征信息的影響,在網(wǎng)絡(luò)模型的訓(xùn)練過(guò)程中,蝗蟲的特征信息會(huì)隨著網(wǎng)絡(luò)模型的加深而變得更高級(jí),造成小目標(biāo)關(guān)鍵信息的丟失;同時(shí),背景信息卷積迭代會(huì)積累無(wú)效信息,導(dǎo)致蝗蟲目標(biāo)信息淹沒(méi)。因此,為提高模型對(duì)于蝗蟲類別和位置信息的預(yù)測(cè),選擇GAM全局注意力機(jī)制融入Neck網(wǎng)絡(luò)層,可以抑制無(wú)關(guān)的特征信息。

GAM全局注意力實(shí)現(xiàn)過(guò)程如圖8所示,輸入特征F1經(jīng)過(guò)通道注意力模塊和空間注意力模塊,最后輸出為一個(gè)新的特征F3。

給定輸入特征映射[F1∈RC×H×W], 其中中間狀態(tài)[F2]計(jì)算如式(1)所示。

[F2=MC(F1)?F1] (1)

輸出[F3]計(jì)算如式(2)所示。

[F3=MS(F2)?F2] (2)

式中: [MC]、[MS]——通道注意力模塊和空間注意力模塊;

[?]——按元素進(jìn)行乘法操作。

其中通道注意模塊(Channel Attention)如圖9所示。

通道注意力模塊先對(duì)輸入的蝗蟲圖像使用3排列操作來(lái)保留圖像三維信息,然后將輸出通過(guò)1個(gè)2層MLP來(lái)放大跨維通道,再對(duì)輸出使用逆向3D進(jìn)行排列,并使用sigmoid激活函數(shù)處理,最后得到新卷特征圖[MC(F1)]。空間注意力模塊(Spatial Attention)如圖10所示。

在空間注意力模塊中,首先將獲取的蝗蟲特征使用兩個(gè)7×7的卷積層進(jìn)行空間融合,獲取空間信息,最后經(jīng)過(guò)sigmoid激活函數(shù)得到新的蝗蟲特征圖[MS(F2)]。

在改進(jìn)模型YOLOv5s-CG中,通過(guò)融入GAM全局注意力機(jī)制,提升模型對(duì)蝗蟲關(guān)鍵信息的特征融合能力,解決無(wú)效信息會(huì)降低蝗蟲識(shí)別準(zhǔn)確率問(wèn)題。

3 試驗(yàn)分析

3.1 試驗(yàn)環(huán)境

模型在服務(wù)器上完成訓(xùn)練,服務(wù)器配置為Intel(R) Xeon(R) Gold 6330 CPU,RTXA5000 GPU。模型訓(xùn)練環(huán)境為PyTorch(1.11.0),Python 3.8(ubuntu20.04),Cuda(11.3)。訓(xùn)練參數(shù)配置如表1所示,同時(shí),使用馬賽克增強(qiáng),啟用早停機(jī)制(訓(xùn)練50個(gè)epoch之后,如果模型效果未提升,則模型提前停止訓(xùn)練)。

蝗蟲數(shù)據(jù)集共874幅,按6∶2∶2比例隨機(jī)劃分?jǐn)?shù)據(jù)集,用于模型的訓(xùn)練、驗(yàn)證和測(cè)試。

3.2 識(shí)別結(jié)果

采用改進(jìn)模型YOLOv5s-CG對(duì)測(cè)試集中的5類蝗蟲進(jìn)行識(shí)別,試驗(yàn)結(jié)果如圖11所示。從圖11可以看出,YOLOv5s-CG能夠?qū)D像中的蝗蟲類別和位置信息進(jìn)行準(zhǔn)確識(shí)別和定位。

3.3 蝗蟲數(shù)據(jù)集測(cè)試與分析

為了測(cè)試改進(jìn)模型YOLOv5s-CG的性能,選取精確率P(Precision)、召回率R(Recall)、平均精度均值mAP(mean Average Precision)、綜合評(píng)價(jià)指標(biāo)F1和模型推理時(shí)間T作為識(shí)別精度評(píng)價(jià)指標(biāo)。

[P=TPTP+FP×100%] (3)

[R=TPTP+FN×100%] (4)

[F1=2×P×RP+R] (5)

[AP=01P(R)2b30fef9a289a07b72c209ffe8d050e53c14f4ba9e34bf5965d32d675fe3f60cdR] (6)

[mAP=1Ni=1NAPi] (7)

式中: FP——檢測(cè)到的真實(shí)蝗蟲類別與目標(biāo)蝗蟲類別不一致的樣本數(shù)量;

TP——檢測(cè)到的真實(shí)蝗蟲類別與目標(biāo)蝗蟲類別一致的樣本數(shù)量;

FN——未被網(wǎng)絡(luò)檢測(cè)出來(lái)的真實(shí)蝗蟲目標(biāo)存在的樣本數(shù)量;

N——蝗蟲的類別數(shù)。

為有效評(píng)估YOLOv5s-CG的先進(jìn)性,選取Fast R-CNN(Resnet) [17]、YOLOv3[18]、YOLOv4[19]、YOLOv6s[20]、 YOLOv7[21]、YOLOv8n和YOLOv5s與改進(jìn)模型進(jìn)行比較,結(jié)果如表2所示。

由表2可知,在對(duì)采集的五類草原蝗蟲識(shí)別時(shí),與Fast R-CNN、YOLOv3、YOLOv4、YOLOv5s、YOLOv6s和YOLOv7相比,YOLOv5s-CG的精確率、召回率、平均精度均值和綜合評(píng)價(jià)指標(biāo)均為最優(yōu),其中,平均精度均值比Fast R-CNN提高16.9個(gè)百分點(diǎn),比YOLOv3提高10.6個(gè)百分點(diǎn),比YOLOv4提高7.7個(gè)百分點(diǎn),比YOLOv5s網(wǎng)絡(luò)提高5.3個(gè)百分點(diǎn),比YOLOv6s網(wǎng)絡(luò)提高2.3個(gè)百分點(diǎn),比YOLOv7網(wǎng)絡(luò)提高2.2個(gè)百分點(diǎn)。在模型推理時(shí)間相比Fast R-CNN、YOLOv3、YOLOv4、YOLOv6s、YOLOv7有大幅度提升,而由于改進(jìn)模型引入了Transformer結(jié)構(gòu),增加了網(wǎng)絡(luò)的計(jì)算量,導(dǎo)致推理速度變慢,但是相比原始模型慢0.4 ms,產(chǎn)生的影響可以忽略不計(jì)。

與YOLOv8n相比,召回率下降1.8個(gè)百分點(diǎn),綜合評(píng)價(jià)指標(biāo)降低1個(gè)百分點(diǎn),但是精確率相同,平均精度均值提高1.1個(gè)百分點(diǎn),綜合來(lái)看,改進(jìn)模型性能仍然優(yōu)于YOLOv8n。

為了直觀比較模型的性能,繪制Fast R-CNN、YOLOv3、YOLOv4、YOLOv5s、YOLOv6s、YOLOv7和改進(jìn)模型在訓(xùn)練過(guò)程中的精確率—召回率曲線和位置損失曲線,分別如圖12和圖13所示。由圖12和圖13可知,改進(jìn)模型YOLOv5s-CG引入了CoTNet網(wǎng)絡(luò)和GAM結(jié)構(gòu)之后,最終的平均精度均值和收斂結(jié)果均優(yōu)于原始網(wǎng)絡(luò)和其他模型。

為了進(jìn)一步驗(yàn)證模型改進(jìn)的有效性,選擇各標(biāo)準(zhǔn)模型與本文改進(jìn)模型YOLOv5s-CG對(duì)多目標(biāo)圖像進(jìn)行識(shí)別,識(shí)別結(jié)果如圖14所示。

圖14識(shí)別結(jié)果中,F(xiàn)ast R-CNN、YOLOv3、YOLOv4對(duì)于多目標(biāo)的蝗蟲圖像存在明顯的漏檢、錯(cuò)檢和重復(fù)檢測(cè)現(xiàn)象,YOLOv5s、YOLOv6s和YOLOv8能檢測(cè)出蝗蟲目標(biāo),但存在漏檢現(xiàn)象,而YOLOv7雖能檢測(cè)出小目標(biāo),但對(duì)小目標(biāo)存在錯(cuò)檢現(xiàn)象,而改進(jìn)模型YOLOv5s-CG性能最優(yōu),可以準(zhǔn)確識(shí)別圖像中的小目標(biāo)圖像。

3.4 消融試驗(yàn)

為了驗(yàn)證改進(jìn)模型YOLOv5s-CG的有效性,使用消融試驗(yàn)進(jìn)行驗(yàn)證。由表3可知,相比YOLOv5s,改進(jìn)主干網(wǎng)絡(luò)后的模型精確率提高3.5個(gè)百分點(diǎn),平均精度均值提高2.3個(gè)百分點(diǎn),說(shuō)明采用CoTNet絡(luò),能夠較好地提取小目標(biāo)特征,有效提高網(wǎng)絡(luò)模型對(duì)蝗蟲的檢測(cè)性能。相比YOLOv5s,在Neck層融入注意力后的模型在精確率提高4.3個(gè)百分點(diǎn),平均精度均值提高2.2個(gè)百分點(diǎn),說(shuō)明采用GAM注意力機(jī)制結(jié)構(gòu),可提高模型的的特征融合能力,提高模型的性能。相比YOLOv5s,改進(jìn)主干網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)的模型精確率提高4.8個(gè)百分點(diǎn),平均精度均值提高5.3個(gè)百分點(diǎn),說(shuō)明本文改進(jìn)方法YOLOv5-CG可以更好地進(jìn)行復(fù)雜背景下蝗蟲的識(shí)別。

4 蝗蟲識(shí)別系統(tǒng)設(shè)計(jì)

4.1 系統(tǒng)開(kāi)發(fā)原理

隨著智能手機(jī)的廣泛普及,科研人員或者蟲害研究人員使用手機(jī)軟件隨手拍攝圖片,通過(guò)系統(tǒng)軟件進(jìn)行快速高效的識(shí)別,是指導(dǎo)農(nóng)業(yè)病蟲害研究預(yù)防的有效手段[20?22]。

蝗蟲識(shí)別系統(tǒng)采用阿里云服務(wù)器部署,使用Nginx和Flask作為服務(wù)器代理,同時(shí)使用Mysql數(shù)據(jù)庫(kù),開(kāi)發(fā)平臺(tái)借助于 Windows和Linux平臺(tái),選擇B/S開(kāi)發(fā)模式,前端采用Vue和Uni?app開(kāi)發(fā)界面,后端采用基礎(chǔ)開(kāi)發(fā)框架SpringBoot+Mybatics。

基于YOLOv5s-CG的蝗蟲識(shí)別系統(tǒng)設(shè)計(jì)框架如圖15所示。

由圖15可知,APP實(shí)現(xiàn)主要功能為寧夏荒漠草原地區(qū)常見(jiàn)蝗蟲數(shù)據(jù)庫(kù)的管理和蝗蟲圖像的識(shí)別,其中,蝗蟲識(shí)別模型模塊與后端蝗蟲數(shù)據(jù)庫(kù)模塊獨(dú)立部署。后端數(shù)據(jù)庫(kù)模塊采用SpringBoot框架常用的4層結(jié)構(gòu),分別是DAO層、Entity層、Service層和Controller層,其中DAO層結(jié)合Mybatics框架實(shí)現(xiàn)蝗蟲數(shù)據(jù)庫(kù)的資源交互?;认x識(shí)別模塊通過(guò)Flask框架進(jìn)行部署,蝗蟲圖像識(shí)別具體實(shí)現(xiàn)流程如圖16所示。

在圖16中,將訓(xùn)練好的YOLOv5s-CG模型部署到linux服務(wù)器,在服務(wù)器端配置模型需要的Anaconda、Pytorch和Python環(huán)境,最后使用Flask框架生成API接口,手機(jī)端通過(guò)API調(diào)用服務(wù)器端的模型實(shí)現(xiàn)蝗蟲圖像的識(shí)別。

4.2 系統(tǒng)實(shí)現(xiàn)

蝗蟲識(shí)別系統(tǒng)如圖17所示。選擇本地蝗蟲圖像或者拍攝蝗蟲圖像進(jìn)行識(shí)別,識(shí)別完成之后,點(diǎn)擊詳情可以查看蝗蟲的詳細(xì)信息(包括名稱、類型、科、目、危害植物、分布信息、防治策略等),然后可以根據(jù)系統(tǒng)提供的詳細(xì)信息,針對(duì)性做出防治策略,保護(hù)作物。同時(shí),為測(cè)試識(shí)別系統(tǒng)的識(shí)別速度,使用Apifox在線調(diào)試工具對(duì)圖像識(shí)別的響應(yīng)時(shí)間進(jìn)行測(cè)試,在實(shí)際測(cè)試中,識(shí)別3 000像素×4 000像素的圖像,服務(wù)器平均響應(yīng)時(shí)間為369 ms。

5 結(jié)論

1) 為解決復(fù)雜背景下寧夏荒漠草原蝗蟲識(shí)別問(wèn)題,首先通過(guò)人工采集蝗蟲圖像,構(gòu)建寧夏荒漠草原蝗蟲數(shù)據(jù)集,并制作成標(biāo)準(zhǔn)VOC格式數(shù)據(jù)集。

2) 提出蝗蟲檢測(cè)模型YOLOv5s-CG,在模型主干網(wǎng)絡(luò)中引入CoTNet保留蝗蟲特征信息,頸部網(wǎng)絡(luò)中引入GAM提升蝗蟲特征融合能力,識(shí)別精確率為92.5%,召回率為87.8%,綜合評(píng)價(jià)指標(biāo)為0.90,平均精度均值為93.2%。與Fast R-CNN、YOLOv3、YOLOv4、YOLOv5s、YOLOv6s、YOLOv7模型相比,YOLOv5s-CG網(wǎng)絡(luò)模型對(duì)寧夏荒漠草原蝗蟲具有更好的檢測(cè)性能。

3) 為方便移動(dòng)端收集寧夏荒漠草原蝗蟲數(shù)據(jù),基于YOLOv5s-CG設(shè)計(jì)并開(kāi)發(fā)蝗蟲識(shí)別系統(tǒng),可實(shí)現(xiàn)對(duì)寧夏荒漠草原蝗蟲圖像的快速準(zhǔn)確識(shí)別,識(shí)別速度在1 s之內(nèi),可為蝗蟲防治提供數(shù)據(jù)支持和決策依據(jù)。

參 考 文 獻(xiàn)

[ 1 ] 馬志寧, 俞鴻千, 王穎, 等. 寧夏草原蝗蟲多樣性及其對(duì)環(huán)境因子的響應(yīng)[J]. 中國(guó)生物防治學(xué)報(bào), 2022, 38(6): 1459-1472.

Ma Zhining, Yu Hongqian, Wang Ying, et al. Diversity of grassland grasshoppers and responses to environmental factors in Ningxia [J]. Chinese Journal of Biological Control, 2022, 38(6): 1459 -1472.

[ 2 ] 王廣君, 李貝貝, 田野. 主要蝗蟲生態(tài)治理策略在我國(guó)的實(shí)踐應(yīng)用[J]. 植物保護(hù)學(xué)報(bào), 2021, 48(1): 84-89.

[ 3 ] 黃文江, 董瑩瑩, 趙龍龍, 等. 蝗蟲遙感監(jiān)測(cè)預(yù)警研究現(xiàn)狀與展望[J]. 遙感學(xué)報(bào), 2020, 24(10): 1270-1279.

[ 4 ] Kasinathan T, Uyyala S R. Machine learning ensemble with image processing for pest identification and classification in field crops [J]. Neural Computing & Applications, 2021, 33: 7491-7504.

[ 5 ] Lima M C F, Leandor M E D D A, Valero C, et al. Automatic detection and monitoring of insect pests-A review [J]. Agriculture, 2020, 10(5): 161.

[ 6 ] Lu S H, Ye S J. Using an image segmentation and support vector machine method for identifying two locust species and instars [J]. Journal of Integrative Agriculture, 2020, 19(5): 1301-1313.

[ 7 ] Ye S J, Lu S H, Bai X S. ResNet-Locust-BN network?based automatic identification of east asian migratory locust species and instars from RGB images [J]. Insects, 2020, 11(8): 458.

[ 8 ] Liu L M, Liu M, Meng K X, et al. Camouflaged locust segmentation based on PraNet [J]. Computers and Electronics in Agriculture, 2022, 198: 107061.

[ 9 ] Cao X, Wei Z Y, Gao Y J, et al. Recognition of common insect in field based on deep learning [J]. Journal of Physics: Conference Series, 2020, 1634: 012034.

[10] 武英潔, 房世波, Piotr Chudzik, 等. 基于 Faster R-CNN 的野外環(huán)境中蝗蟲快速識(shí)別[J]. 氣象與環(huán)境學(xué)報(bào), 2020, 36(6): 137-143.

[11] 李林, 柏召, 刁磊, 等. 基于 K-SSD-F的東亞飛蝗視頻檢測(cè)與計(jì)數(shù)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2021, 52(S1): 261-267.

Li Lin, Bai Zhao, Diao Lei, et al. Video detection and counting method of east Asian migratory locusts based on K-SSD-F [J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(S1): 261-267.

[12] 馬宏興, 張淼, 董凱兵, 等. 基于改進(jìn)YOLO v5的寧夏草原蝗蟲識(shí)別模型研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(11): 270-279.

Ma Hongxing, Zhang Miao, Dong Kaibing, et al. Research of locust recognition in Ningxia grassland based on improved YOLOv5 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(11): 270-279.

[13] Li Y H, Yao T, Pan Y W, et al. Contextual transformer networks for visual recognition [J]. arXiv preprint arXiv: 2107. 12292, 2021.

[14] Liu Y C, Shao Z, Hoffmann N. Global attention mechanism: Retain information to enhance channel?spatial interactions [J]. arXiv preprint arXiv: 2112. 05561, 2021.

[15] 朱猛蒙, 黃文廣, 張蓉, 等. 寧夏草原蝗蟲適生區(qū)和分布區(qū)劃分[J]. 植物保護(hù)學(xué)報(bào), 2021, 48(1): 237-238.

[16] Liu Z, Lin Y T, Cao Y, et al. Swin transformer: HierarchicalsHelIni7P04Qy0Xbt0g3fw== vision transformer using shifted windows [C]. Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021: 10012-10022.

[17] Girshick R. Fast R-CNN [J]. arXiv preprint arXiv: 1804. 02767, 2018.

[18] Redmon J, Farhadi A. YOLOv3: An incremental improvement [J]. arXiv preprint arXiv: 1504. 08083, 2015.

[19] Bochkovskiy A, Wang C Y, Liao H Y M. YOLO v4: Optimal speed and accuracy of object detection [J]. arXiv preprint arXiv: 1504. 08083, 2015.

[20] 馬宏興, 董凱兵, 王英菲, 等. 基于改進(jìn)YOLOv5s的輕量化植物識(shí)別模型研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023, 54(8): 267-276.

Ma Hongxing, Dong Kaibing, Wang Yingfei, et al. Research on lightweight plant recognition model based on improved YOLOv5s [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(8): 267-276.

[21] 羅小權(quán), 潘善亮. 改進(jìn)YOLOV3的火災(zāi)檢測(cè)方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2020, 56(17): 187-196.

Luo Xiaoquan, Pan Shanliang. Improved YOLOV3 fire detection method [J]. Computer Engineering and Applications, 2020, 56(17): 187-196.

[22] 高菊玲. 基于多視圖特征融合的植物病害識(shí)別算法[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2020, 41(12): 147-152.

Gao Juling. Recognition algorithm of plant disease based on multi?view feature fusion [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(12): 147-152.