国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于輕量化YOLOv5的糧食作物和雜草識別研究

2023-11-29 13:22:36陳承源彭晨程云芬王玉琦鄒順水
農(nóng)業(yè)與技術 2023年22期
關鍵詞:雜草注意力卷積

陳承源 彭晨 程云芬 王玉琦 鄒順水

(重慶科技學院智能技術與工程學院,重慶 401331)

引言

農(nóng)業(yè)是全球糧食供應和經(jīng)濟發(fā)展的基石,而農(nóng)作物的生長和產(chǎn)量受到諸多因素的影響。其中常見的重要因素是雜草的存在,其同農(nóng)作物競爭養(yǎng)分、陽光和水分資源,極大危害了糧食作物的生長發(fā)展[1]。目前我國的除草方式主要分為人工除草和化學用品除草,人工除草主要是通過人力進行手動除草,存在費時費力且效率低下的缺點;而化學用品除草主要是通過各類雜草對應的除草劑進行清除,雖然效率很高,但是殘留的化學藥物會影響農(nóng)作物的品質(zhì)質(zhì)量,同時也會對土壤造成化學污染[2]。隨著智慧農(nóng)業(yè)的發(fā)展,如何實現(xiàn)高效無污染的農(nóng)業(yè)生產(chǎn)方式具有極強的研究意義,有利于推動農(nóng)業(yè)在可持續(xù)發(fā)展的道路上持續(xù)發(fā)展[3]。

近年來,基于深度學習和圖像數(shù)據(jù)增強技術的目標檢測方法得到了廣泛應用,特別是在智慧農(nóng)業(yè)發(fā)展上取得了諸多成就[4-6]。姜紅花等[7]通過對Mask R-CNN的區(qū)域建議網(wǎng)絡和輸出模塊優(yōu)化,成功實現(xiàn)了用于解決玉米田間雜草的識別檢測;樊湘鵬等[8]通過對Faster R-CNN的特征提取網(wǎng)絡進行重新選取,實現(xiàn)棉花幼苗和雜草的識別定位方法;宋建熙等[9]通過對Retina-Net進行多尺度特征融合和池化層改進實現(xiàn)草坪雜草的檢測識別;趙輝等[10]通過對Dense Net模型進行改進實現(xiàn)了玉米幼苗及其伴生雜草的種類識別問題。該類方法雖能夠較好地完成雜草種類的檢測任務,但模型復雜度較高,難以實現(xiàn)在邊緣設備上的部署。

為實現(xiàn)田間糧食作物和雜草的準確高效識別,利用深度學習方法解決復雜環(huán)境下農(nóng)作物與雜草遮擋以及光線等干擾,本文提出了一種改進YOLOv5的輕量化識別模型,所提方法相比改進前對小目標檢測率更高,多目標漏檢率更低,模型體積更輕,因此具備更好的泛化能力,對生產(chǎn)實踐具備指導意義。

1 YOLOv5檢測算法

YOLOv5是一種目標檢測算法,其是YOLO(You Only Look Once)系列算法之一。YOLO算法是一種實時目標檢測算法,以其高效的速度和準確性而聞名。YOLOv5在YOLOv4的基礎上進行了改進和優(yōu)化,YOLOv5算法網(wǎng)絡結(jié)構(gòu)如圖1所示。

YOLOv5網(wǎng)絡主要由3部分組成,分別由Backbone(主干網(wǎng)絡)、Neck(特征融合模塊)和Head(檢測頭部)構(gòu)成。主干網(wǎng)絡負責從輸入圖像中提取特征,YOLOv5使用CSPDarknet53[11]作為默認的主干網(wǎng)絡,其是一個深度殘差網(wǎng)絡,具有較強的特征提取能力。特征融合模塊負責將不同尺度的特征圖進行融合,以提高目標檢測的精度。YOLOv5中使用了PANet[12]作為特征融合模塊,其通過逐層上采樣和下采樣來融合特征圖。檢測頭部負責生成目標的邊界框和類別概率。YOLOv5使用CIOU Loss校準預測框位置并通過非極大值抑制對目標進行篩選,包括多個卷積層和全連接層,用于預測目標的位置和類別。

2 改進的YOLOv5算法

2.1 GhostNet

在YOLOv5網(wǎng)絡模型中,在特征提取階段往往會消耗較大的計算量,為了減少模型體積并提高運算速度,引入了GhostNet網(wǎng)絡結(jié)構(gòu),以降低模型自身的復雜度。GhostNet[13]作為一種輕量級的網(wǎng)絡模型,可以使用更少的參數(shù)量來生成更多的特征圖,即可以實現(xiàn)保證網(wǎng)絡模型精度的同時減少網(wǎng)絡模型參數(shù)數(shù)量及浮點數(shù)運算次數(shù)。

相比于傳統(tǒng)卷積所使用的方法,GhostNet通過常規(guī)卷積、Ghost生成和特征圖拼接3步來進行特征信息提取。首先使用少量的傳統(tǒng)卷積生成部分特征圖,然后對這部分的特征圖進行線性運算處理去除冗余的特征層,新生成特征圖的操作稱為Ghost生成,最后將卷積生成的特征層與線性操作生成的特征層拼接,組成一個完整的特征層,如圖2所示。

圖2 Ghost卷積

2.2 坐標注意力機制

自然環(huán)境下的糧食作物與雜草生長過程中存在重疊和枝葉遮擋等問題,使得對最終檢測要求有所提高,因此在本文研究的YOLOv5算法網(wǎng)絡中添加注意力機制,通過提高糧食作物和雜草的局部特征信息[14]來提高識別效果。目前常用的通道注意力機制通常會忽略位置信息,位置信息對于生成空間選擇注意圖會造成極大的影響,本文使用一種將位置信息與通道信息相結(jié)合的坐標注意力機制[15]增加對糧食作物和雜草的區(qū)分,提高自然環(huán)境下對兩者的識別區(qū)分。

在坐標注意力機制(Coordinate attention,CA)中,通過通道注意力機制分解為2個一維特征編碼過程,分別在2個空間方向?qū)崿F(xiàn)聚合特征,不僅可以在第1個空間方向?qū)崿F(xiàn)捕獲遠程依賴關系,還能夠在第2個空間方向保留精確的位置信息,從而實現(xiàn)增強關注目標的表示,CA注意力機制流程如圖3所示。

圖3 CA注意力機制

在CA注意力機制中,為了獲取圖像在寬度和高度上的注意力并對其精確的位置信息進行編碼,使用尺寸大小為(H,1)和(1,W)的池化核對輸入特征圖分別在寬度和高度2個方向進行全局平均池化處理,進而得到在寬度和高度2個方向的特征圖,公式:

(1)

(2)

將獲得的在寬度和高度2個方向的特征圖進行拼接,將拼接結(jié)果送入卷積核為1×1的卷積模塊,將維度降低為初始的C/r,通過批量歸一化處理和Sigmoid激活函數(shù)后得到在高度上的注意力權重gh和在寬度上的注意力權重gw,在原始特征圖上通過乘法加權計算,得到在寬度和高度上都帶有注意力權重的特征圖yc,公式:

f=δ(F1([zh,zw]))

(3)

gh=σ(Fh(fh))

(4)

gw=σ(Fw(fw))

(5)

(6)

2.3 GSconv模塊

圖像特征信息在Neck層進行融合時,空間信息逐步向通道傳輸,并且每次特征圖的空間壓縮和通道擴展都會使得語義信息部分丟失,這會影響最終的預測結(jié)果。本文在YOLOv5的Neck層中使用GSconv[16]替換傳統(tǒng)卷積,當特征圖傳輸?shù)絅eck層時,通道維度達到最大,寬高維度達到最小,此時使用GSconv進行上采樣和下采樣操作,特征圖則不需要再進行任何變換,同時可以降低模型復雜度并保持準確性。

假設輸入特征圖通道數(shù)為C1,輸出特征圖通道數(shù)為C2。首先通過一個標準卷積進行下采樣操作,得到通道數(shù)為C2/2的特征圖;再通過一個深度可分離卷積操作,得到另一個通道數(shù)為C2/2的特征圖;然后將生成的2個特征圖進行拼接,得到通道數(shù)為C2的拼接特征圖;最后使用通道混洗操作得到輸出目標通道數(shù)的特征圖,Gsconv模塊如圖4所示。

圖4 Gsconv模塊

3 實驗結(jié)果與分析

3.1 數(shù)據(jù)集

本研究中使用的數(shù)據(jù)集來自公共數(shù)據(jù)集[17],該數(shù)據(jù)集由1118幅圖像組成,其中包含了6種糧食作物和8種雜草。通過英特爾D435、佳能800D和索尼W800 3臺相機在不同生長階段的受控環(huán)境和田間條件下拍攝制成,部分實驗圖像如圖5所示。

對本次數(shù)據(jù)集的圖像使用翻轉(zhuǎn)、旋轉(zhuǎn)、平移、改變亮度和對比度的方法隨機組合實現(xiàn)數(shù)據(jù)增強,防止在訓練期間出現(xiàn)過擬合現(xiàn)象,共獲得2500張訓練集、238張驗證集和118張測試集,并使用LabelImg圖像標注軟件對數(shù)據(jù)集中的圖像進行標注。

3.2 實驗環(huán)境

本文實驗使用的CPU型號為Intel(R)Xeon(R)Gold 6230R@2.00GHz,GPU為NVIDA RTX3090,顯存為24G,深度學習環(huán)境搭載于CUDA11.1和Pytorch1.9.0框架。

網(wǎng)絡訓練參數(shù)設置:權重文件選擇為YOLOv5s.pt,總迭代次數(shù)為150次,每次迭代的訓練圖片樣本為32,初始學習率為0.01,權重衰減系數(shù)為0.0005,動量大小為0.937。

3.3 評價指標

本文使用的評價指標主要包括平均精度mAP(mean Average Precision)、參數(shù)量、浮點計算量FLOPs和模型體積大小。計算公式:

(7)

(8)

(9)

式中,TP(True Positive)為模型預測為正類的正樣本;FP(False Positive)為模型預測為正類的負樣本;FN(False Negative)為模型預測為負類的正樣本;P(Precision)表示精確率;R(Recall)表示召回率;AP(Average Precision)表示單類別平均準確率;mAP(mean Average Precision)表示多類別平均準確率度的平均值。

3.4 消融實驗結(jié)果分析

為驗證本文改進的模型具備有效性,在本次數(shù)據(jù)集上設置了消融實驗,如表1所示。在加入GhostNet后YOLOv5s的參數(shù)量下降了2.0M,計算量下降了5.2GFLOPs,模型體積下降3.6MB,但mAP值也下降了1.6%。在YOLOv5s中加入Gsconv模塊后,mAP值上升了1.4%,參數(shù)量、計算量和模型體積僅部分下降。通過GhostNet和Gsconv模塊的結(jié)合,參數(shù)量下降了2.4M,計算量下降了5.8GFLOPs,模型體積下降了4.4MB,同時mAP值上升了0.1%。本文將GhostNet、Gsconv模塊和CA注意力機制相結(jié)合,參數(shù)量下降了2.4M,計算量下降了5.7GFLOPs,模型體積下降了4.3MB,同時mAP值上升1.4%。對于本文實驗所使用的數(shù)據(jù)集,所提改進方法在目標檢測的性能指標實驗下均有所提高,在提高檢測精度的同時大大降低了模型復雜度。

表1 消融實驗

3.5 對比實驗結(jié)果分析

為了進一步驗證本文所提出算法具備有效性,分別于SSD、YOLOv3、YOLOv4等主流算法進行對比實驗,選取Map、參數(shù)量、計算量、模型大小和FPS等5個性能指標進行記錄,實驗結(jié)果如表2所示。

由表2可知,對比mAP,本文算法在mAP上達到了71.7%,相較于其他模型(SSD、YOLOv3、YOLOv4、YOLOv5)有明顯的優(yōu)勢。對比參數(shù)量和計算量,從結(jié)果中可以看出,本文算法在參數(shù)量(4.6M)和計算量(10.1GFLOPs)上都較其他模型較低,說明本文算法在保持高檢測性能的同時具有較高的效率。對比模型大小,本文算法的模型大小為9.4MB,在所有比較的模型中相對較小,這對于模型的部署和存儲是有益的。對比FPS,本文算法在FPS(200)上表現(xiàn)較好,說明該算法在保持高檢測性能的同時能夠?qū)崿F(xiàn)較快的實時處理。

綜上所述,本文提出的算法在目標檢測任務中取得了較高的mAP(71.7%),同時具有較低的參數(shù)量和計算量,并且模型大小較小。此外,該算法還能夠以較高的幀率(200 FPS)進行實時處理。因此,本文算法在目標檢測領域具有潛力,可用于高效準確地檢測目標并滿足實時應用的需求。檢測對比如圖6所示。

圖6 檢測效果對比

4 結(jié)論

本文針對糧食作物和雜草的識別提出了一種改進的輕量化YOLOv5檢測算法。使用GhostNet替換了YOLOv5中的特征提取模塊,大大減少了模型的復雜度并提高了檢測速度。同時加入CA注意力機制,維持了算法本身的檢測精度。最后加入Gsconv卷積進一步減少冗余信息并平衡語義信息。通過實驗分析,改進后的算法在平均精度上有所提升,同時模型參數(shù)量和計算量也符合輕量化要求,更適合部署在硬件設備中使用。

猜你喜歡
雜草注意力卷積
拔雜草
科教新報(2022年22期)2022-07-02 12:34:28
讓注意力“飛”回來
基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
基于傅里葉域卷積表示的目標跟蹤算法
“揚眼”APP:讓注意力“變現(xiàn)”
傳媒評論(2017年3期)2017-06-13 09:18:10
A Beautiful Way Of Looking At Things
水稻田幾種難防雜草的防治
一種基于卷積神經(jīng)網(wǎng)絡的性別識別方法
電視技術(2014年19期)2014-03-11 15:38:20
雜草圖譜
雜草學報(2012年1期)2012-11-06 07:08:33
长丰县| 浦县| 铜梁县| 玛沁县| 罗甸县| 千阳县| 宜宾县| 磐石市| 土默特右旗| 新野县| 竹北市| 张家港市| 辉县市| 晋宁县| 新竹市| 藁城市| 蒙城县| 博兴县| 日喀则市| 北流市| 华安县| 瑞安市| 托里县| 华阴市| 永川市| 玉山县| 都兰县| 湘乡市| 专栏| 永定县| 内江市| 民乐县| 霞浦县| 商城县| 隆尧县| 芦溪县| 云龙县| 香港| 法库县| 余江县| 四子王旗|