国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于BCE-YOLOv5的蘋果葉部病害檢測(cè)方法

2023-09-11 07:48:26曾晏林賀壹婷藺瑤費(fèi)加杰黎強(qiáng)楊毅
江蘇農(nóng)業(yè)科學(xué) 2023年15期
關(guān)鍵詞:葉部注意力卷積

曾晏林 賀壹婷 藺瑤 費(fèi)加杰 黎強(qiáng) 楊毅

摘要:針對(duì)自然環(huán)境中,人工目視解譯蘋果葉部病害耗時(shí)耗力、人為主觀因素強(qiáng)的問題。本研究提出了一種融合自注意力機(jī)制和Transformer模塊的目標(biāo)檢測(cè)算法——BCE-YOLOv5,實(shí)現(xiàn)對(duì)自然環(huán)境下對(duì)蘋果葉片病蟲害的自動(dòng)識(shí)別與檢測(cè)。該算法首先使用BotNet、ConvNeXt模塊分別替換Backbone網(wǎng)絡(luò)和Neck網(wǎng)絡(luò)的CSP結(jié)構(gòu),增加自注意力機(jī)制對(duì)目標(biāo)的特征提取能力。通過將改進(jìn)的CBAM引入YOLOv5的特征融合網(wǎng)絡(luò)之后,使注意力機(jī)制對(duì)特征融合信息更加地關(guān)注。最后,用α-IoU損失函數(shù)替換IoU損失函數(shù),使得網(wǎng)絡(luò)在模型訓(xùn)練過程中收斂的更加穩(wěn)定。BCE-YOLOv5算法在傳統(tǒng)算法YOLOv5基礎(chǔ)上平均精準(zhǔn)率均值提升了2.9百分點(diǎn),并且改進(jìn)后的算法的模型大小和計(jì)算量較傳統(tǒng)算法分別減小了0.2 M和0.9 GFLOPs。平均精度均值比YOLOv4s、YOLOv6s、YOLOx-s和YOLOv7模型分別高2.5、1.3、3.5、2.2百分點(diǎn)。該方法能快速準(zhǔn)確識(shí)別蘋果葉部病害,為蘋果種植過程中提供智能化管理做參考。

關(guān)鍵詞:蘋果;葉片病害;識(shí)別;注意力機(jī)制;YOLOv5;BotNet;ConvNeXt;CBAM;α-IoU

中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1002-1302(2023)15-0155-09

基金項(xiàng)目:云南省重大科技專項(xiàng)(編號(hào):202002AE09001002)。

作者簡(jiǎn)介:曾晏林(1993—),男,四川廣安人,碩士研究生,主要從事計(jì)算機(jī)視覺方面研究。E-mail:786823791@qq.com。

通信作者:楊 毅,教授,主要從事農(nóng)業(yè)信息化方面研究。E-mail:yyang66@126.com。

蘋果種植在我國(guó)已有2 000多年的發(fā)展歷程,目前栽培面積正逐漸增加。在國(guó)家宏觀經(jīng)濟(jì)政策的扶持下,中國(guó)傳統(tǒng)蘋果行業(yè)正逐漸地向現(xiàn)代化方向發(fā)展,我國(guó)已逐步發(fā)展為全球的蘋果行業(yè)強(qiáng)國(guó)。但同時(shí),在蘋果栽培行業(yè)高速發(fā)展的背后,蟲害防控問題始終是困惑果農(nóng)的主要難點(diǎn)所在。

隨著深度學(xué)習(xí)的崛起和計(jì)算機(jī)計(jì)算能力的增強(qiáng),采用智慧農(nóng)業(yè)物聯(lián)網(wǎng)系統(tǒng)對(duì)農(nóng)作物病蟲害進(jìn)行智能診斷,不僅省時(shí)省力,而且科學(xué)精準(zhǔn),從動(dòng)態(tài)采集農(nóng)作物的病蟲害信息,到精準(zhǔn)識(shí)別,提出有針對(duì)性的防治決策,全過程基本實(shí)現(xiàn)自動(dòng)化、科學(xué)化,降低農(nóng)業(yè)成本。

近年來,國(guó)內(nèi)外學(xué)者提出許多基于傳統(tǒng)機(jī)器學(xué)習(xí)算法來解決針對(duì)蘋果葉部病害的識(shí)別。劉斌等研究了在移動(dòng)端建立蘋果葉部病蟲害輕量級(jí)識(shí)別模型[1];龍滿生等利用改進(jìn)的Alex Net網(wǎng)絡(luò)對(duì)棉花葉部病蟲害進(jìn)行識(shí)別[2];于洪濤等提出的VGG-F采用學(xué)習(xí)率的動(dòng)態(tài)調(diào)整實(shí)現(xiàn)蘋果病害的識(shí)別,該方法在復(fù)雜情況下識(shí)別準(zhǔn)確率較差[3];王云露等基于Faster R-CNN 對(duì)蘋果葉部病害進(jìn)行識(shí)別,其算法時(shí)間效率不高[4];田靚靚等利用SSD網(wǎng)絡(luò)對(duì)蘋果葉片病害進(jìn)行檢測(cè)[5];Di等建立了基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的蘋果葉部病害檢測(cè)方法[6];Tian等基于YOLOv3深度學(xué)習(xí)方法對(duì)果園蘋果病斑進(jìn)行檢測(cè)[7-8];Li等利用YOLOv5對(duì)蘋果早期葉部病害在移動(dòng)終端進(jìn)行識(shí)別[9];Wang等通過改進(jìn)YOLOv5對(duì)蘋果病害的精度和檢測(cè)速度來提高識(shí)別率[10-12];晁曉菲等基于輕量級(jí)改進(jìn)的YOLO對(duì)蘋果葉部病害進(jìn)行檢測(cè)[13-14];在輕量級(jí)檢測(cè)上Polder等在深度學(xué)習(xí)上利用智能相機(jī)進(jìn)行蘋果和葡萄的早期病害檢測(cè)[15];Liu等基于深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)蘋果葉部病害進(jìn)行識(shí)別[16]。雖然上述算法對(duì)蘋果病害的檢測(cè)過程做了一定優(yōu)化,但是在檢測(cè)能力方面仍舊存在不足,例如檢測(cè)速度較慢、檢測(cè)條件要求較高等問題。在基準(zhǔn)模型YOLOv5的基礎(chǔ)上,本研究提出一種基于YOLOv5的目標(biāo)檢測(cè)算法——BCE-YOLOv5。針對(duì)蘋果葉片的病害檢測(cè)任務(wù),為了提高對(duì)蘋果葉片病害檢測(cè)精度和檢測(cè)速率,以當(dāng)前發(fā)現(xiàn)較嚴(yán)重的病害(斑葉病、灰斑病、鐵銹?。檠芯繉?duì)象。

1 YOLOv5算法簡(jiǎn)述

YOLOv5結(jié)構(gòu)由4個(gè)部分組成,分別為輸入端、骨干網(wǎng)絡(luò)部分、多尺度特征融合部分、預(yù)測(cè)端,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

在輸入端,YOLOv5可以通過Mosaic、自適應(yīng)錨框算法、自適應(yīng)圖像壓縮等信號(hào)增強(qiáng)手段,對(duì)輸入信號(hào)進(jìn)行預(yù)處理。Mosaic數(shù)據(jù)增強(qiáng)技術(shù)通過對(duì)多張數(shù)據(jù)以隨機(jī)壓縮、隨機(jī)編輯、隨機(jī)排布等的方法重新拼接到一起,使之進(jìn)一步豐富了數(shù)據(jù)的樣本,同時(shí)提高了系統(tǒng)的泛化性能。YOLOv5默認(rèn)使用3個(gè)錨框?qū)?yīng)檢測(cè)不同大小的目,其錨框的參數(shù)范圍為[10,13,16,30,33,23][30,61,62,45,59,119][116,90,156,198,373,326]分別對(duì)應(yīng)尺度為80×80、40×40、20×20的特征圖,自適應(yīng)錨框是預(yù)測(cè)框值與實(shí)際框值之差,并利用數(shù)據(jù)迭代方法獲得最佳的錨框值。而自適應(yīng)圖像壓縮則是將數(shù)據(jù)集中在各個(gè)尺寸的特征圖像,統(tǒng)一縮至相應(yīng)的尺寸。

骨干網(wǎng)絡(luò)(Backbone)由切片結(jié)構(gòu)Focus、卷積模塊CBS、瓶頸層CSP(cross stage partial network)模塊以及空間金字塔池化(spatial pyramid pooling,SPP)組成。Focus模塊采用隔列切片操作,把高分辨率特征圖拆分成多個(gè)低分辨率的特征圖,然后再拼接在一起。CBS基本模塊由Conv2d+Batch Normalization+SiLu組成。CSP殘差結(jié)構(gòu)可以增加深層網(wǎng)絡(luò)中層間反向傳播的梯度值,避免了深層網(wǎng)絡(luò)導(dǎo)致的梯度消失,加快了推理速度。SPP模塊采用一個(gè)卷積層和3個(gè)多尺度最大池化進(jìn)行多尺度融合。

多尺度特征融合(Neck)主要使用自上而下增強(qiáng)語義特征提取的特征金字塔網(wǎng)絡(luò)(feature pyramid networks,F(xiàn)PN)結(jié)構(gòu),使用自底向上增強(qiáng)定位特征的路徑聚合網(wǎng)絡(luò)(path aggregation network,PAN)結(jié)構(gòu),實(shí)現(xiàn)不同尺寸目標(biāo)特征信息的融合,解決了多尺度問題。

預(yù)測(cè)端頭部網(wǎng)絡(luò)(Head)采用3種損失函數(shù)分別計(jì)算分類、定位和置信度損失,通過非極大抑制(non maximum suppression,NMS)去除檢測(cè)框重疊并提高多目標(biāo)的檢測(cè)能力。

2 YOLOv5算法改進(jìn)

2.1 改進(jìn)策略

植物葉片病蟲害檢測(cè)任務(wù)中容易存在背景干擾,待檢測(cè)病斑被遮擋、尺寸小等問題。本研究在YOLOv5模型的基礎(chǔ)上提出4點(diǎn)改進(jìn),首先改進(jìn)骨干網(wǎng)絡(luò)Backbone部分,使用改進(jìn)后的SPPF替換原有的SPP層,并用BoTNet[17]結(jié)構(gòu)替換相應(yīng)的CSP結(jié)構(gòu),增加有效信息與位置感知關(guān)聯(lián)。再引入改進(jìn)的卷積塊注意力模塊(convolution block attention module,CBAM)提高了神經(jīng)網(wǎng)絡(luò)識(shí)別特征區(qū)域的能力,并選擇有效的位置添加到 YOLOv5 網(wǎng)絡(luò)中,使模型更加精準(zhǔn)地定位和識(shí)別感興趣的目標(biāo)特征。再次用ConvNeXt[18-19]結(jié)構(gòu)對(duì)Neck中的特征金字塔部分的CSPLayer層進(jìn)行改進(jìn),增加對(duì)語義特征的提取能力,提高特征提取的精準(zhǔn)度;最后在預(yù)測(cè)部分改進(jìn)損失函數(shù),用α-IoU替換現(xiàn)有的IoU損失計(jì)算方式。本研究改進(jìn)的網(wǎng)絡(luò)模型BCE-YOLOv5的結(jié)構(gòu)如圖2所示。

2.2 SPP結(jié)構(gòu)替換

空間金字塔池化能將任意大小的圖片轉(zhuǎn)換成網(wǎng)絡(luò)需要的固定大小特征向量,減少對(duì)候選區(qū)域的重復(fù)卷積計(jì)算,減少計(jì)算冗余。SPP的結(jié)構(gòu)首先經(jīng)過一個(gè)卷積再分別經(jīng)過3個(gè)不同大小的最大池化后再做拼接,最后再經(jīng)過一個(gè)卷積,這能夠在一定程度上解決目標(biāo)多尺度的問題。其結(jié)構(gòu)如圖3所示。

通過把SPP換成了SPPF,其作用是一樣的,但后者效率更高。SPP需要指定3個(gè)最大池化(maxpool),池化核大小分別為5×5、9×9、13×13,而SPPF只需要指定3個(gè)大小為5×5的maxpool。

在結(jié)構(gòu)上串行2個(gè)5×5大小的maxpool層和一個(gè) 9×9 大小的maxpool層計(jì)算結(jié)果是一樣的,同樣的串行3個(gè)maxpool層和一個(gè)13×13大小的maxpool層計(jì)算結(jié)果是一樣的。但是SPPF在計(jì)算量上要比SPP小,并且效率上比SPP要更快。其結(jié)構(gòu)如圖4所示。

2.3 BoTNet結(jié)構(gòu)

BotNet結(jié)構(gòu)是一種基于Transformer的網(wǎng)絡(luò)結(jié)構(gòu),它利用了卷積和自注意力的混合網(wǎng)絡(luò),以提升模型的性能,BotNet如圖5所示。通過結(jié)合CNN+Transformer[20-21]的組合方式提出一種Bottleneck Transformer來代替ResNet Bottleneck,即僅在ResNet框架的最后3個(gè)bottleneck blocks中使用全局多頭自注意力(multi-head selfattention,MHSA)替換3×3空間卷積。

MHSA層利用全局注意力對(duì)特征圖中的信息進(jìn)行捕獲,增加全局特征之間的聯(lián)系,可以有效地處理大圖像,通過卷積進(jìn)行空間下采樣,讓注意力能在小分辨率圖像上獲取特征信息。在MHSA模塊中對(duì)Q(查詢向量)、K(鍵向量)、V(值向量)進(jìn)行自注意力變換,對(duì)過程重復(fù)h次(h為MHSA的頭數(shù))的結(jié)果進(jìn)行拼接,最后進(jìn)行線性變換得到MHSA模塊的最終輸出。

在YOLOv5的整體改進(jìn)中,在最后一個(gè)階段中的3個(gè)BottleNeck使用了MHSA模塊,因?yàn)樽宰⒁饬C(jī)制在訓(xùn)練過程中需要消耗巨大的計(jì)算量,而在Backbone的最后CSP模塊加入的時(shí)候特征圖的大小較小,從而可以使得整個(gè)網(wǎng)絡(luò)的計(jì)算量減少。

2.4 注意力機(jī)制

在輸入的病蟲害葉片圖像中,除了葉片的病斑,經(jīng)常還伴有噪音,隨著卷積的深度增加會(huì)產(chǎn)生大量的冗余信息,從而丟失部分有用信息,導(dǎo)致目標(biāo)檢測(cè)精度降低。為此,本研究提出了一種改進(jìn)的CBAM[22],并選擇有效的網(wǎng)絡(luò)位置添加到Y(jié)OLOv5網(wǎng)絡(luò)中,這使得網(wǎng)絡(luò)能夠更準(zhǔn)確地定位和識(shí)別感興趣的區(qū)域。

CBAM 是一種即插即用并且使用方便的注意力機(jī)制,其由通道域和空間域組成。通道域關(guān)注不同通道上特征點(diǎn)的權(quán)重,利用權(quán)重對(duì)不同通道進(jìn)行乘法運(yùn)算,以增強(qiáng)網(wǎng)絡(luò)對(duì)關(guān)鍵通道域的注意力。首先,特征圖進(jìn)入通道域,然后在寬度和高度上進(jìn)行全局最大池化(global max pooling,GAP)和全局平均池化(global average pooling,GMP),并使用多層感知器(multi-layer perception,MLP)計(jì)算不同通道的注意力權(quán)重,接下來使用 Sigmoid 函數(shù)對(duì)這些權(quán)重進(jìn)行歸一化處理,最后通過每個(gè)通道的權(quán)重乘以原始輸入特征圖,以獲得更準(zhǔn)確的結(jié)果。

具體公式如下所示。

在公式(1)中,F(xiàn)cavg和Fcmax分別表示平均池化和最大池化后的特征圖,σ是 Sigmoid 激活函數(shù),W1和W2表示2層全連接層的權(quán)重。

根據(jù)公式(1)得到的感興趣的通道特征Mc與原始圖像特征相乘,并送至空間域模塊??臻g域模塊關(guān)注的是目標(biāo)特征在圖像上的位置信息,并將空間特征做對(duì)應(yīng)的變換,從而將關(guān)鍵信息提取出來。通道注意特征Mc與原圖像特征F相乘,得到一個(gè)新的特征圖Fs,公式如下所示。

空間域經(jīng)過全局最大池化和全局平均池化,得到新的特征圖Fs的寬度和高度,使特征維度從H×W轉(zhuǎn)化為1×1,然后通過卷積核進(jìn)行7×7卷積,再通過Sigmoid激活函數(shù)進(jìn)行歸一化,最后與通道注意力輸出特征圖進(jìn)行合并,公式如下所示。

在公式(3)中,f7×7表示7×7的卷積層。

通過公式(2)的Fs和公式(3)的Ms做乘積運(yùn)算,再與原圖像特征圖F相加,經(jīng)過ReLU激活函數(shù),得到特征圖MF,公式如下所示。

式中:表示特征合并操作;表示逐元素相乘;σ表示激活函數(shù)。

上述CBAM中的通道域采用全連接層,壓縮通道特征的空間維度以降低模型的復(fù)雜性,通道特征被映射到一個(gè)較低維度的空間并再次映射。在降維中不可避免地導(dǎo)致一些通道域的感興趣區(qū)域信息丟失,對(duì)于復(fù)雜的特征圖,不可能獲得完整的特征信息。因此,為了減少上述通道域感興趣信息的丟失,以及提高病變識(shí)別網(wǎng)絡(luò)檢測(cè)的準(zhǔn)確性,本研究引入改進(jìn)的CBAM,其中原通道域使用改進(jìn)通道注意力網(wǎng)絡(luò)(efficient channel attention network,ECA-Net)進(jìn)行替換,保留原空間域。

ECA-Net[23-24]模塊使用一種不降維的局部跨通道交互策略,有效避免了降維對(duì)于通道注意力學(xué)習(xí)效果的影響。對(duì)每個(gè)特征圖求均值,從一個(gè)H×W×C變成1×1×C,通過大小為K的一維卷積來有效實(shí)現(xiàn),其中卷積核大小為K代表了局部跨信道交互的覆蓋率。通過公式調(diào)整K值大小,公式如下所示。

在公式(5)中:C表示通道數(shù);b設(shè)置為1;γ設(shè)置為2;|t|odd表示t的最接近奇數(shù)。

本研究通過把ECA-Net模塊里面原圖像特征圖與經(jīng)過Sigmoid函數(shù)處理的特征圖的乘積處理去掉,得到新的ECA-Net應(yīng)用于CBAM中的通道域,改進(jìn)后的CBAM[25]結(jié)構(gòu)圖如圖6所示。

2.5 ConvNeXt結(jié)構(gòu)

ConvNeXt結(jié)構(gòu)于2022年被提出,該網(wǎng)絡(luò)結(jié)合了近年來卷積神經(jīng)網(wǎng)絡(luò)方面提出的各項(xiàng)主要改進(jìn),并將其融合[18]。ConvNeXt網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示,卷積塊的輸入數(shù)據(jù)為通道數(shù)維度(dim)的特征圖。首先經(jīng)過卷積塊大小為7×7的深度卷積層,隨后通過LN層進(jìn)行歸一化后再經(jīng)過卷積塊大小為 1×1 的卷積層,得到通道數(shù)變?yōu)樵斎胪ǖ赖?倍。再經(jīng)過GELU激活函數(shù)賦予非線性,在此之后經(jīng)過卷積塊大小為1×1輸出通道變回原來的維度。最后輸入數(shù)據(jù)和輸出數(shù)據(jù)通過一個(gè)殘差連接進(jìn)行拼接,得到最終的結(jié)果。

在深度卷積神經(jīng)網(wǎng)絡(luò)中,圖像的語義信息得到了增強(qiáng),但隨著圖像的不斷卷積,詳細(xì)的特征被減少。相反,淺層的圖像細(xì)節(jié)表現(xiàn)能力強(qiáng),但是語義信息表達(dá)較弱。YOLOv5 采用的特征金字塔結(jié)構(gòu)來進(jìn)行特征融合,F(xiàn)PN 結(jié)構(gòu)是自頂向下傳遞高層圖像的語義信息,但是在傳遞過程中會(huì)丟失位置細(xì)節(jié)信息。為使網(wǎng)絡(luò)更加適合不同大小的病斑檢測(cè),在網(wǎng)絡(luò)Neck部分原有的CSP結(jié)構(gòu)上進(jìn)行改進(jìn),替換CSPLayer層并使用ConvNeXt層。

2.6 改進(jìn)損失函數(shù)

傳統(tǒng)的YOLOv5采用LossGIoU作為回歸損失的損失函數(shù),當(dāng)實(shí)際框與預(yù)測(cè)框水平或豎直重合或2個(gè)框?yàn)榘P(guān)系時(shí),此時(shí)GIoU值相同,無法區(qū)分相對(duì)位置關(guān)系,從而LossGIoU退化成LossIoU,而LossIoU不能解決實(shí)際框與預(yù)測(cè)框不重合的問題。

為了解決這個(gè)問題,本研究引入Lossα-IoU用于改進(jìn)原損失函數(shù)[26],Lossα-IoU在保留原損失函數(shù)的性質(zhì)時(shí),同時(shí)可以更好地關(guān)注目標(biāo),提高了檢測(cè)框回歸的準(zhǔn)確性。Lossα-IoU在原有的LossIoU上加上一個(gè)冪指數(shù),以α為冪,其公式如下所示。

在不增加額外的參數(shù)和訓(xùn)練時(shí)間下,通過對(duì) α-IoU 中的參數(shù)α進(jìn)行調(diào)制,可以很容易地?cái)U(kuò)展到更復(fù)雜的具有多個(gè)IoU或懲罰項(xiàng)的損失函數(shù)。

本研究采用效果較好的LossCIoU改進(jìn)為L(zhǎng)ossα-CIoU,其公式如下所示。

公式(7)中:b、bgt分別表示預(yù)測(cè)框和真實(shí)框的中心線距離;ρ2α代表的是在2個(gè)中心點(diǎn)之間的歐式間隔;c是能容納預(yù)測(cè)框和真實(shí)框的最小封閉區(qū)間的對(duì)角線長(zhǎng)度;表示目標(biāo)框的寬高比;表示預(yù)測(cè)框各自的寬高比。

3 試驗(yàn)與分析

3.1 試驗(yàn)數(shù)據(jù)集

蘋果葉部病蟲害收集了云南省昭通市邵陽(yáng)區(qū)守望鄉(xiāng)蘋果種植和百度飛漿公開數(shù)據(jù)集共5 106張圖片,共分為3類常見病害:斑點(diǎn)落葉?。╝lternaria boltch)、灰斑?。╣rey_spot)、銹?。╮ust)作為試驗(yàn)數(shù)據(jù)集,圖8是部分?jǐn)?shù)據(jù)集圖像,其中有較大的病斑圖像,有較小的病斑,還有陰影的病斑。

3.2 預(yù)訓(xùn)練

本研究訓(xùn)練使用的操作系統(tǒng)為Windows 10,CPU 型號(hào)為AMD Ryzen7 5800H,GPU型號(hào)為RTX 3060,深度學(xué)習(xí)框架為Pytorch 1.10.0以及CUDA 11.4版本框架。由于試驗(yàn)數(shù)據(jù)的樣本數(shù)量不多,因此在訓(xùn)練過程中采用遷移學(xué)習(xí)策略來解決數(shù)據(jù)匱乏的問題,利用YOLOv5官方提供的預(yù)訓(xùn)練權(quán)重作為訓(xùn)練初始化參數(shù)。

3.3 評(píng)價(jià)標(biāo)準(zhǔn)

在目標(biāo)檢測(cè)領(lǐng)域,評(píng)價(jià)網(wǎng)絡(luò)性能的指標(biāo)是平均精準(zhǔn)率均值(mean average precision,mAP)、模型大小以及計(jì)算量(GFLOPS)。mAP評(píng)價(jià)指標(biāo)是對(duì)精準(zhǔn)率(precision,P)、召回率(recall,R)的綜合考量,可以評(píng)估模型的有效性。

精準(zhǔn)率是指正確被預(yù)測(cè)為某類病斑目標(biāo)占全部預(yù)測(cè)為該類正確病斑目標(biāo)的比例,召回率是指正確被預(yù)測(cè)為某類病斑目標(biāo)占實(shí)際上全部為該類病斑目標(biāo)的比例。

模型大小能夠表明模型對(duì)硬件內(nèi)存的需求,對(duì)于外界復(fù)雜環(huán)境且硬件設(shè)備受限的情況下則需要輕量級(jí)模型;計(jì)算量反映了模型對(duì)硬件設(shè)備的計(jì)算單元的要求,同樣對(duì)于硬件設(shè)備受限的情況下,計(jì)算量越小越好。

3.4 結(jié)果與對(duì)比

為了直觀地體現(xiàn)改進(jìn)后的YOLOv5算法的有效性,如圖9所示,通過對(duì)比4組圖片,分別使用傳統(tǒng)的YOLOv5s和本研究改進(jìn)的BCE-YOLOv5算法對(duì)測(cè)試圖片進(jìn)行檢測(cè),從對(duì)比圖可以看出傳統(tǒng)的YOLOv5檢測(cè)的精度普遍較低,而改進(jìn)后的YOLOv5檢測(cè)精度有所提升。通過第3組對(duì)比圖片可以看出,傳統(tǒng)的YOLOv5存在漏檢,而改進(jìn)后的算法對(duì)葉片灰斑病細(xì)節(jié)更加注重,改善了對(duì)背景模糊的漏檢。通過第4組對(duì)比圖片可知,在大圖片小目標(biāo)葉片背景下病斑難以區(qū)分的情況下,傳統(tǒng)的YOLOv5存在錯(cuò)檢,而改進(jìn)后的算法具有較好的識(shí)別能力。

3.5 消融試驗(yàn)

為了檢驗(yàn)本研究中改進(jìn)后的CBAM是否對(duì)訓(xùn)練有效,試驗(yàn)在YOLOv5頸部網(wǎng)絡(luò)Neck后分別引入原始ECA注意力模塊、原始CBAM以及改進(jìn)后的CBAM,本研究將改進(jìn)的CBAM表示為ECBAM。其試驗(yàn)對(duì)比結(jié)果如表1所示,在YOLOv5傳統(tǒng)算法的相同位置上引入注意力機(jī)制其mAP均有提升,其中ECA和CBAM注意力模塊分別貢獻(xiàn)了0.2百分點(diǎn)和1.6百分點(diǎn)的提升,而ECBAM提升了1.8百分點(diǎn)。這表明改進(jìn)后的ECBAM在通道域上不壓縮感興趣特征,而是對(duì)通道域進(jìn)行全局池化然后再進(jìn)行一維卷積,從而有效避免降維帶來的通道特征丟失,提高ECBAM在聚合網(wǎng)絡(luò)中的整體能力。結(jié)果顯示,改進(jìn)后的ECBAM能夠有效提升網(wǎng)絡(luò)性能。

為了驗(yàn)證本研究提出的改進(jìn)模型的有效性,在訓(xùn)練參數(shù)和數(shù)據(jù)集相同的情況下對(duì)改進(jìn)的YOLOv5網(wǎng)絡(luò)進(jìn)行對(duì)比試驗(yàn),結(jié)果如表2所示,表中Backbone改進(jìn)、Neck改進(jìn)、CBAM改進(jìn)分別表示在傳統(tǒng)YOLOv5網(wǎng)絡(luò)中加入改進(jìn)方案。由表2可以分析得到,首先采用改進(jìn)的Backbone后為模型提升了1.4百分點(diǎn),這使得模型檢測(cè)的準(zhǔn)確性更高,并在一定程度上緩解了由于背景復(fù)雜的模糊圖像造成的漏檢或誤檢問題;其次,加入CBAM后,模型比基準(zhǔn)mAP提升了2.5百分點(diǎn),說明添加CBAM模塊可以使網(wǎng)絡(luò)更加注意病斑,使得整個(gè)模型的性能提升;再在原CBAM基礎(chǔ)之上加以改進(jìn),得到新的注意力機(jī)制ECBAM,在模型中加入ECBAM后獲得比原CBAM提升了0.4百分點(diǎn),由此可以看出改進(jìn)后的注意力機(jī)制較原注意力機(jī)制更能注重小目標(biāo);使用上述改進(jìn)方法最終為模型的mAP比基線模型性能提高了2.9百分點(diǎn)的增益,證明了3種改進(jìn)方法的有效性。

同時(shí),圖10清楚地顯示了YOLOv5的學(xué)習(xí)過程中損失曲線在改進(jìn)前后的變化。其中α-CIoU損失曲線在GIoU損失曲線的下方,說明α-CIoU損失值更低,同時(shí)在出現(xiàn)拐點(diǎn)之后α-CIoU損失值在10個(gè)Epoch后趨于平穩(wěn),而GIoU損失曲線在85個(gè) Epoch后和α-CIoU曲線基本重合,說明α-CIoU損失在整個(gè)訓(xùn)練過程中網(wǎng)絡(luò)可以更快、更平穩(wěn)地收斂。

3.6 對(duì)比試驗(yàn)

對(duì)比本研究BCE-YOLOv5目標(biāo)檢測(cè)算法相比其他算法的優(yōu)越性,本研究與各種先進(jìn)的目標(biāo)檢測(cè)算法(YOLOv4s[27] 、YOLOxs[28]、YOLOv6s[29]、YOLOv7s[30])進(jìn)行對(duì)比試驗(yàn)。由表3可以看出,改進(jìn)后的YOLOv5s算法在檢測(cè)精度上達(dá)到92.1%,優(yōu)于其他算法,比YOLOv4s、YOLOxs、YOLOv6s和YOLOv7s分別高出2.5、3.5、1.3、2.2百分點(diǎn);BCE-YOLOv5模型大小分別比其低230.5、58.3、24.6、61.3 M;在計(jì)算量上BCE-YOLOv5相比YOLOv5s、YOLOxs、YOLOv6s和YOLOv7s算法分別低0.9、29.0、11.7、88.3 GFLOPs。本研究改進(jìn)的BCE-YOLOv5算法在模型大小、檢測(cè)精度及計(jì)算量上均優(yōu)于其他類算法,證明其改進(jìn)算法的有效性。說明本研究的 BCE-YOLOv5 算法適合后續(xù)在邊緣設(shè)備部署。

4 結(jié)論

針對(duì)蘋果葉部病蟲害檢測(cè)的識(shí)別任務(wù),本研究提出一種基于YOLOv5改進(jìn)模型的蘋果葉檢測(cè)方法。首先將BotNet和ConvNeXt分別與原始YOLOv5的骨干網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)融合,利用Transformer的上下文理解能力,提高網(wǎng)絡(luò)對(duì)圖像特征的識(shí)別;其次使用CBAM注意力機(jī)制引入到Y(jié)OLOv5多尺度特征融合模塊之后,能夠有效的提升對(duì)目標(biāo)的檢測(cè)精度;最后使用α-IoU損失函數(shù)代替原來的損失函數(shù),使網(wǎng)絡(luò)可以更快、更平穩(wěn)地收斂,并改善了復(fù)雜圖像的漏檢和小目標(biāo)識(shí)別效果差的問題。在消融試驗(yàn)對(duì)比中,本研究改進(jìn)的 BCE-YOLOv5 與原 YOLOv5相比,其mAP提高了2.9百分點(diǎn),具有較高的精準(zhǔn)率。本研究改進(jìn)的BCE-YOLOv5網(wǎng)絡(luò)模型具有檢測(cè)速度快、檢測(cè)準(zhǔn)確率高、計(jì)算量和模型小等特點(diǎn)。

為了達(dá)到推廣應(yīng)用的效果,今后還需開展以下研究:(1)加大對(duì)蘋果葉部病害分類的研究;(2)進(jìn)一步擴(kuò)充數(shù)據(jù),增加病害數(shù)據(jù)以及種類;(3)進(jìn)一步優(yōu)化模型,提高模型的訓(xùn)練效果在復(fù)雜背景下的識(shí)別水平;(4)研究在不同階段對(duì)蘋果葉部病害的識(shí)別能力,從而提高模型的泛化能力。

參考文獻(xiàn):

[1]劉 斌,賈潤(rùn)昌,朱先語,等. 面向移動(dòng)端的蘋果葉部病蟲害輕量級(jí)識(shí)別模型[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(6):130-139.

[2]龍滿生,歐陽(yáng)春娟,劉 歡,等. 基于卷積神經(jīng)網(wǎng)絡(luò)與遷移學(xué)習(xí)的油茶病害圖像識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(18):194-201.

[3]于洪濤,袁明新,王 琪,等. 基于VGG-F動(dòng)態(tài)學(xué)習(xí)模型的蘋果病蟲害識(shí)別[J]. 科學(xué)技術(shù)與工程,2019,19(32):249-253.

[4]王云露,吳杰芳,蘭 鵬,等. 基于改進(jìn)Faster R-CNN的蘋果葉部病害識(shí)別方法[J]. 林業(yè)工程學(xué)報(bào),2022,7(1):153-159.

[5]田靚靚. 基于SSD網(wǎng)絡(luò)的蘋果葉片病害檢測(cè)方法研究[D]. 楊凌:西北農(nóng)林科技大學(xué),2022.

[6]Di J,Li Q. A method of detecting apple leaf diseases based on improved convolutional neural network[J]. PLoS One,2022,17(2):e0262629.

[7]Tian Y,Yang G,Wang Z,et al. Detection of apple lesions in orchards based on deep learning methods of cyclegan and yolov3-dense[J]. Journal of Sensors,2019,2019.

[8]Mathew M P,Mahesh T Y. Determining the region of apple leaf affected by disease using YOLO V3[C]//2021 International Conference on Communication,Control and Information Sciences (ICCISc). IduKKi,India,2021:1-4.

[9]Li J,Zhu X,Jia R,et al. Apple-YOLO:a novel mobile terminal detector based on YOLOv5 for early apple leaf diseases[C]//2022 IEEE 46th Annual Computers,Software,and Applications Conference (COMPSAC). Los Alamitos,CA,USA,2022:352-361.

[10]Wang Y L,Sun F G,Wang Z J,et al. Apple leaf disease identification method based on improved YoloV5[M]//Sun J D,Wang Y,Huo M Y,et al. Signal and information processing,networking and computers. Singapore:Springer,2023:1246-1252.

[11]Kuznetsova A,Maleva T,Soloviev V. YOLOv5 versus YOLOv3 for apple detection[M]//Kravets A G,Bolshakov A A,Shcherbakov M.Cyber-physical systems:modelling and intelligent control. Cham:Springer,2021:349-358.

[12]Chen Z,Wu R,Lin Y,et al. Plant disease recognition model based on improved YOLOv5[J]. Agronomy,2022,12(2):365.

[13]晁曉菲,池敬柯,張繼偉,等. 基于PSA-YOLO網(wǎng)絡(luò)的蘋果葉片病斑檢測(cè)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(8):329-336.

[14]邸 潔,曲建華.基于Tiny-YOLO的蘋果葉部病害檢測(cè)[J]. 山東師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,35(1):78-83.

[15]Polder G,Blok P M,van Daalen J T,et al. Early disease detection in apple and grape using deep learning on a smart-camera[C]//Proceedings of the European Conference on Agricultural Engineering. EurAgEng,Cranfield,2021:51-56.

[16]Liu B,Zhang Y,He D J,et al. Identification of apple leaf diseases based on deep convolutional neural networks[J]. Symmetry,2017,10(1):11.

[17]Srinivas A,Lin T Y,Parmar N,et al. Bottleneck transformers for visual recognition[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Kuala Lumpur,2021:16519-16529.

[18]Liu Z,Mao H Z,Wu C Y,et al. A convnet for the 2020s[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Orleans,2022:11976-11986.

[19]黃文博,黃鈺翔,姚 遠(yuǎn),等. 融合注意力的ConvNeXt視網(wǎng)膜病變自動(dòng)分級(jí)[J]. 光學(xué)精密工程,2022,30(17):2147-2154.

[20]Zhang Z,Lu X,Cao G,et al. ViT-YOLO:Transformer-based YOLO for object detection[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021:2799-2808.

[21]Liu Y,He G,Wang Z,et al. NRT-YOLO:Improved YOLOv5 based on nested residual transformer for tiny remote sensing object detection[J]. Sensors,2022,22(13):4953.

[22]Woo S,Park J,Lee J Y,et al. Cbam:Convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV). Munich,2018:3-19.

[23]Wang Q L,Wu B G,Zhu P F,et al. Eca-net:Efficient channel attention for deep convolutional neural networks[C]//2020 IEEE Conference on Computer Vision and Pattern Recognition. Seattle,2020.

[24]Wang Q,Wu B,Zhu P,et al. Supplementary material for ‘ECA-Net:efficient channel attention for deep convolutional neural networks[C]//Proceedings of the 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition,IEEE,Seattle,WA,USA. 2020:13-19.

[25]Li X,Xia H,Lu L. ECA-CBAM:Classification of diabetic retinopathy:classification of diabetic retinopathy by cross-combined attention mechanism[C]//2022 the 6th International Conference on Innovation in Artificial Intelligence (ICIAI). 2022:78-82.

[26]He J B,Erfani S M,Ma X J,et al. Alpha -IoU:a family of power intersection over union losses for bounding box regression[J]. Advances in Neural Information Processing Systems,2021,34:20230-20242.

[27]Bochkovskiy A,Wang C Y,Liao H Y M. Yolov4:Optimal speed and accuracy of object detection[EB/OL]. [2022-12-12].https://arxiv.org/abs/2004.10934.

[28]Ge Z,Liu S T,Wang F,et al. Yolox:Exceeding yolo series in 2021[EB/OL]. [2022-12-12]. https://arxiv.org/abs/2107.08430.

[29]Li C,Li L,Jiang H,et al. YOLOv6:A single-stage object detection framework for industrial applications[EB/OL]. [2022-12-12].https://https://arxiv.org/abs/2209.02976.

[30]Wang C Y,Bochkovskiy A,Liao H Y M. YOLOv7:Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[EB/OL]. [2022-12-12]. http://arXiv.ORG/ABS/2207.02696.

猜你喜歡
葉部注意力卷積
面向移動(dòng)端的蘋果葉部病蟲害輕量級(jí)識(shí)別模型
基于YOLOv3的多類煙草葉部病害檢測(cè)研究
讓注意力“飛”回來
基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
基于顏色差異性的植物葉片病害圖像分割方法
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
“揚(yáng)眼”APP:讓注意力“變現(xiàn)”
推廣新型農(nóng)藥噻蟲嗪防治甘蔗葉部害蟲突破14萬公頃
A Beautiful Way Of Looking At Things
闽清县| 宜君县| 黎城县| 科尔| 隆安县| 嵊泗县| 新源县| 庐江县| 麻栗坡县| 抚远县| 措勤县| 南宫市| 土默特右旗| 芷江| 佳木斯市| 宁远县| 郴州市| 红原县| 汾西县| 哈尔滨市| 汤原县| 娱乐| 玉龙| 昌都县| 峨眉山市| 上犹县| 定州市| 保山市| 旌德县| 甘孜县| 盐池县| 舒兰市| 南靖县| 儋州市| 银川市| 塔河县| 光山县| 澄迈县| 广宁县| 南雄市| 濮阳县|