国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)YOLOv5s模型的田間食用玫瑰花檢測方法

2024-09-24 00:00:00化春鍵黃宇峰蔣毅俞建峰陳瑩
江蘇農(nóng)業(yè)學(xué)報 2024年8期

收稿日期:2023-10-09

基金項目:國家自然科學(xué)基金項目(62173160)

作者簡介:化春鍵(1975-),男,北京人,博士,副教授,主要從事機(jī)器視覺、圖像處理、深度學(xué)習(xí)等研究。(E-mail)277795559@qq.com

摘要: 為了在田間環(huán)境下準(zhǔn)確檢測食用玫瑰花及其成熟度,實現(xiàn)花期玫瑰花的自動化采摘,針對田間光照、遮擋等因素造成識別精度較差的問題,提出了一種基于YOLOv5s的改進(jìn)模型,對花蕾期、采摘期、敗花期食用玫瑰花的生長狀態(tài)進(jìn)行檢測。首先,為了增強多尺度特征融合能力,對特征融合結(jié)構(gòu)進(jìn)行改進(jìn)。其次,采用多分支結(jié)構(gòu)訓(xùn)練提高精度,在頸部網(wǎng)絡(luò)C3模塊進(jìn)行改進(jìn)。最后,為了提升特征信息的提取能力,在頸部網(wǎng)絡(luò)中添加融合注意力模塊,使模型關(guān)注檢測目標(biāo),減少玫瑰花的誤檢及漏檢現(xiàn)象。改進(jìn)后的模型檢測總體類別平均精度較原始模型提升了3.6個百分點,達(dá)到90.4%,對3個花期玫瑰花的檢測精度均有提升。本研究結(jié)果為非結(jié)構(gòu)環(huán)境下的不同花期食用玫瑰花檢測提供了更加準(zhǔn)確的方法。

關(guān)鍵詞: 目標(biāo)檢測;YOLOv5s;特征融合;注意力機(jī)制;食用玫瑰花

中圖分類號: TP391.4 文獻(xiàn)標(biāo)識碼: A 文章編號: 1000-4440(2024)08-1464-09

Detection method of edible roses in field based on improved YOLOv5s model

HUA Chunjian1,2, HUANG Yufeng1,2, JIANG Yi1,2, YU Jianfeng1,2, CHEN Ying3

(1.School of Mechanical Engineering, Jiangnan University, Wuxi 214122, China;2.Jiangsu Key Laboratory of Advanced Food Manufacturing Equipment & Technology, Wuxi 214122, China;3.School of Internet of Things Engineering, Jiangnan University, Wuxi 214122, China)

Abstract: In order to accurately detect edible roses and their maturity in the field and realize the automatic picking of flowering roses, an improved model based on YOLOv5s was proposed to solve the problem of poor recognition accuracy caused by factors such as light and occlusion in the field. The growth state of edible roses at bud, picking and abortive flowering stages was detected. Firstly, in order to enhance the ability of multi-scale feature fusion, the feature fusion structure was improved. Secondly, multi-branch structure training was used to improve the accuracy, and the neck network C3 module was improved. Finally, in order to improve the ability of feature information extraction, a fusion attention module was added to the neck network to make the model focus on the detection target and reduce the false detection and missed detection of roses. The mean average precision of the improved model was 3.6 percentage points higher than that of the original model, reaching 90.4%, and the detection accuracy of roses in three flowering periods was improved. The results of this study provide a more accurate method for detecting edible roses at different flowering stages in unstructured environment.

Key words: object detection;YOLOv5s;feature fusion;attention mechanism;edible roses

玫瑰是一種備受人們青睞的觀賞花植物,近年來玫瑰花的食用及藥用價值受到人們的關(guān)注。玫瑰花產(chǎn)業(yè)發(fā)展迅速,玫瑰鮮花餅、花茶、精油等玫瑰花產(chǎn)品深受消費者歡迎[1]。墨紅玫瑰是常見的可食用玫瑰品種,墨紅玫瑰株高約56 cm,植株較矮,花期短,采摘時效性強,需要短時間投入大量勞動力進(jìn)行采摘。目前玫瑰花采摘仍然采用人工方式,相較于機(jī)械采摘費時費力[2],且采摘效率易受天氣影響。隨著中國食用玫瑰花產(chǎn)業(yè)的發(fā)展壯大,建立高準(zhǔn)確率的食用玫瑰花檢測方法對于確定不同花期玫瑰的分布區(qū)域、檢測玫瑰的花期具有重要意義。

針對非結(jié)構(gòu)環(huán)境下作物識別問題,國內(nèi)外開展了廣泛的研究。傳統(tǒng)的圖像處理算法普遍采用顏色、紋理和邊緣等特征識別作物。陳禮鵬[3]以果萼作為識別特征點,采用基于R-G的獼猴桃多目標(biāo)果實識別方法對果實進(jìn)行檢測;吳超[4]對玫瑰鮮切花的俯拍及側(cè)拍圖像進(jìn)行邊緣提取,并結(jié)合支持向量機(jī)對玫瑰鮮切花品質(zhì)進(jìn)行分級預(yù)測;Shao等[5]利用高光譜成像技術(shù)對3個不同生長階段的草莓進(jìn)行圖像采集,通過支持向量機(jī)結(jié)合自適應(yīng)加權(quán)采樣方法評估草莓成熟度。近年來,研究學(xué)者將深度學(xué)習(xí)應(yīng)用于作物的識別和定位中。Chao等[6]利用改進(jìn)的YOLOv4模型檢測非結(jié)構(gòu)化環(huán)境中茶菊的生長時期,在頸部網(wǎng)絡(luò)中融合CSPResNeXt等模塊改進(jìn)YOLOv4模型,對茶菊萌芽期、開花早期和盛開期檢測的平均精度達(dá)到89.53%。王小榮等[7]為識別復(fù)雜環(huán)境下的紅花,在YOLOv7檢測模型中引入Transformer注意力機(jī)制以提高模型的檢測精度,檢測精確度(mAP)達(dá)到88.5%。王彥鈞[8]為更好地識別玫瑰花,將人工神經(jīng)網(wǎng)絡(luò)結(jié)合紋理特征識別方方法對食用玫瑰進(jìn)行識別檢測,準(zhǔn)確率達(dá)到85%,但該方法對光線不敏感。張振國等[9]為解決復(fù)雜環(huán)境下紅花絲的檢測精度較差問題,引入GhostNet結(jié)構(gòu),并將CBAM注意力模塊融入特征金字塔結(jié)構(gòu),關(guān)注重要特征的同時弱化背景、枝葉等干擾特征,提高模型的檢測性能。龔惟新等[10]為提高獼猴桃花朵的檢測精度,在YOLOv5檢測模型中引入C3HB和注意力模塊,使模型輕量化。顧滿局[11]在實驗室黑色背景下拍攝獲得圖像數(shù)據(jù)集,對圖像進(jìn)行預(yù)處理后采用Resnet50模型對俯視角度的玫瑰鮮切花分級,準(zhǔn)確率達(dá)到91%。

針對食用玫瑰花采摘的檢測方法較少,目前相關(guān)研究主要在實驗室中進(jìn)行,這些檢測方法在田間的檢測效果較差。墨紅玫瑰同一枝干上存在多朵玫瑰,彼此之間往往會互相遮擋。田間環(huán)境下,玫瑰花成熟度與圖像采集效果受光照等因素的影響較大,每朵玫瑰成熟度不一致,使得尺度變化較大。這些問題都會導(dǎo)致YOLOv5模型對被遮擋玫瑰的檢測能力較差,造成誤檢、漏檢等?;谝陨蠁栴},本研究建立非結(jié)構(gòu)環(huán)境下的食用玫瑰花數(shù)據(jù)集,以YOLOv5s為基礎(chǔ)網(wǎng)絡(luò)模型,根據(jù)食用玫瑰實際種植中存在的問題對模型進(jìn)行改進(jìn),為快速、精確識別可食用玫瑰花提供理論依據(jù)。

1 材料與方法

1.1 數(shù)據(jù)采集與數(shù)據(jù)集制作

本試驗以墨紅玫瑰花為研究對象,數(shù)據(jù)集拍攝于江蘇省宜興市美棲花田(北緯31°23′57″,東經(jīng)119°39′40″),花田面積約40 hm2。數(shù)據(jù)采集時間為2022年9月下旬至10月上旬每天的9:00-16:00,圖像采集設(shè)備為SONYDSC-W830。為識別田間非結(jié)構(gòu)環(huán)境下不同花期的食用玫瑰花,在不同時間和角度拍攝玫瑰花照片1 600張,部分食用玫瑰花照片如圖1所示。

通過圖片標(biāo)注工具LabelImg對數(shù)據(jù)集中的食用玫瑰花圖像進(jìn)行標(biāo)注,用矩形選取框?qū)D像中的玫瑰花框出。根據(jù)采收決策,按照花蕾期(CF)、采摘期(PF)、敗花期(WF)對樣本進(jìn)行分類及標(biāo)注,保存標(biāo)注信息為txt格式,并將3個花期的玫瑰花圖像劃分為訓(xùn)練集、測試集和驗證集,三者按8∶1∶1比例分配。

1.2 YOLOv5網(wǎng)絡(luò)模型

隨著目標(biāo)檢測模型的不斷發(fā)展,目前基于深度學(xué)習(xí)的目標(biāo)檢測方法已經(jīng)有RCNN[12]、SSD[13]、RetinaNet[14]和YOLO系列等。與YOLOv4相比,YOLOv5的檢測精度和推理速度較好,目前已大量應(yīng)用在農(nóng)業(yè)領(lǐng)域[15-16]。近年來,YOLO系列更新較快,現(xiàn)在已有YOLOv7[17]、YOLOv8等版本[18]。YOLOv5模型主要包括主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和預(yù)測層3個部分。主干網(wǎng)絡(luò)選用基于CSPDarkNet53結(jié)構(gòu)的骨干網(wǎng)絡(luò)對圖像特征進(jìn)行特征提取。頸部網(wǎng)絡(luò)通過特征金字塔網(wǎng)絡(luò)(Feature pyramid networks,F(xiàn)PN)[19]和路徑聚合網(wǎng)絡(luò)(Path aggregation network,PAN)[20]連接主干網(wǎng)絡(luò)與預(yù)測層,對特征信息進(jìn)行多層級的特征融合,提高網(wǎng)絡(luò)對不同特征層的識別能力。預(yù)測層對不同維度的特征進(jìn)行預(yù)測,得到預(yù)測結(jié)果。

2 改進(jìn)的食用玫瑰花檢測模型

2.1 特征融合結(jié)構(gòu)改進(jìn)

在卷積神經(jīng)網(wǎng)絡(luò)中,高層特征也指語義特征,經(jīng)過多次卷積后從而具有更強的語義信息,包含豐富的組合信息,但其分辨率較低[21]。低層特征主要指紋理、顏色和形狀等特征,往往具有更高的分辨率,因此目標(biāo)位置信息較為準(zhǔn)確,可以較好反映圖像的內(nèi)容。對食用玫瑰花數(shù)據(jù)集進(jìn)行分析,發(fā)現(xiàn)圖像中需要識別的玫瑰花尺寸不一,不少玫瑰花尺寸較小。為了提高食用玫瑰花檢測模型的性能,將部分低層特征與高層特征進(jìn)行融合,使其具有更強的語義信息和對細(xì)節(jié)的感知能力。

傳統(tǒng)的特征金字塔網(wǎng)絡(luò)采用自上而下的路徑實現(xiàn)多尺度特征的融合,如圖2所示,路徑聚合網(wǎng)絡(luò)在FPN的基礎(chǔ)上額外增加了一個自下而上的路徑,而廣義特征金字塔網(wǎng)絡(luò)(Generalized feature pyramid network, GFPN)設(shè)計了一種新的路徑融合,利用Queen-Fusion[22]接收來自斜上方和斜下方節(jié)點的信息,通過跨層和跨尺度連接操作,充分發(fā)揮高層語義信息與低層空間信息之間的交換作用,雖然采用這種方式可以增強特征交互,但也增加了許多額外的上采樣和下采樣操作。使用Concat方法合并特征通道,可以有效避免特征信息的丟失,使模型在檢測不同尺寸的物體時具有更好的性能。

考慮到實時檢測模型的要求,移除Queen-Fusion中部分上采樣操作,將頸部和骨干網(wǎng)絡(luò)不同尺度的特征信息相融合,實現(xiàn)多尺度特征融合,以提高檢測精度。

2.2 頸部網(wǎng)絡(luò)改進(jìn)

使用CSPStage結(jié)構(gòu)[23]進(jìn)行特征融合,代替基于3×3卷積的特征融合方式,提高模型的表征能力,融合更加豐富的梯度信息。

CSPStage模塊主要由卷積模塊(Conv)和基礎(chǔ)模塊(BasicBolck)組成。BasicBolck模塊由重參數(shù)化卷積(RepConv 3×3)和3×3卷積(Conv3×3)組成,其中RepConv[24]在3×3卷積基礎(chǔ)上額外添加了并行的1個1×1卷積(Conv1×1)和一個BN(Batch normalization)層,在訓(xùn)練時采用多路徑拓?fù)?,在推理時將多分支融合在一起,從而減少了推理時間,并且具備了多分支的優(yōu)點,增加模型的表征能力,融合更加豐富的梯度信息。

如圖3所示,將前置層的信息作為輸入初始特征信息,首先將輸入特征分配到2條分支中,利用包含卷積和BasicBlock模塊的下分支和獨立卷積模塊的上分支進(jìn)行特征提取,最后使用特征融合方式Concat將兩個分支的特征信息合并,得到最終的輸出結(jié)果。

2.3 注意力機(jī)制模塊

為了在進(jìn)行特征學(xué)習(xí)時增加特征區(qū)域權(quán)重,減少背景特征權(quán)重,在網(wǎng)絡(luò)中引入融合注意力機(jī)制模塊。本研究將通道注意力模塊ECANet[25]和空間注意力模塊GAM[26]組合,形成融合注意力機(jī)制模塊。融合注意力機(jī)制模塊的結(jié)構(gòu)如圖4所示,采用通道-空間注意機(jī)制,分別關(guān)注特征的含義與位置。

對于給定輸入F∈RC×H×W,C表示通道數(shù),W表示輸入特征圖寬度,H表示輸入特征圖高度。首先對輸入特征圖F進(jìn)行全局平均池化(Golbal average pooling,GAP),然后進(jìn)行卷積核大小為5的1維卷積操作,以實現(xiàn)跨通道交互,提取通道之間的依賴關(guān)系。并經(jīng)過Sigmoid激活函數(shù)得到各個通道的權(quán)重和通道權(quán)值矩陣(Mc),計算公式如下:

Mc=σ[C1Dk(F)](1)

式中,Mc為通道權(quán)值矩陣,F(xiàn)為輸入特征圖,C1D為一維卷積操作,k為卷積核大小,σ為Sigmoid激活函數(shù)。

將Mc與輸入特征圖(F)按通道數(shù)相乘得到通道細(xì)化后的特征圖F′,計算公式如下:

F′=Mc(F)F(2)

式中,F(xiàn)′為通道細(xì)化特征圖,F(xiàn)為輸入特征圖,為逐元素相乘。

通道細(xì)化特征圖F′被用作空間注意力模塊輸入,為了聚焦空間信息,使用2個7×7的卷積操作進(jìn)行空間信息融合,先將通道數(shù)量減少,然后再增加通道數(shù)量,保持通道數(shù)量一致。經(jīng)過激活函數(shù)輸出,得到空間權(quán)值矩陣(Ms)。將Ms與通道細(xì)化特征圖(F′)相乘得到空間細(xì)化特征圖(F″),計算公式如下:

F″=Ms(F′)F′(3)

式中,F(xiàn)″為空間細(xì)化特征圖,F(xiàn)′為通道細(xì)化特征圖,為逐元素相乘,Ms為空間權(quán)值矩陣。

綜合以上3個方面的改進(jìn),本研究提出的食用玫瑰花檢測模型如圖5所示。該模型以YOLOv5s作為基礎(chǔ)網(wǎng)絡(luò)模型,對網(wǎng)絡(luò)中的特征融合結(jié)構(gòu)進(jìn)行優(yōu)化,并且結(jié)合RepConv卷積模塊對頸部網(wǎng)絡(luò)中的C3模塊進(jìn)行改進(jìn),加強網(wǎng)絡(luò)的表征能力,在頸部網(wǎng)絡(luò)末端引入融合注意力模塊,增加特征區(qū)域權(quán)重。本研究改進(jìn)的網(wǎng)絡(luò)可以實現(xiàn)對復(fù)雜場景中不同花期玫瑰的檢測,同時對于中小型玫瑰具有較高的檢測精度。

2.4 評價指標(biāo)

本研究主要采用精確度(P),召回率(R),單個類別平均精度(AP)和所有類別平均精度(mAP)來反映模型的訓(xùn)練精度;采用參數(shù)量、運算量(GFLOPs)及模型權(quán)重體現(xiàn)模型的復(fù)雜程度;采用幀率(FPS)體現(xiàn)模型實時檢測性能。其中P、R、AP、mAP的計算公式如下:

P=TpTp+Fp×100%(4)

R=TpTp+Fn×100%(5)

AP=∫10P(r)dr×100%(6)

mAP=1NNi=1APi×100%(7)

式中,Tp表示被正確框選為正樣本的數(shù)量,F(xiàn)p表示被錯誤框選為正樣本的數(shù)量,F(xiàn)n表示正樣本被錯誤框選為負(fù)樣本的數(shù)量,N表示玫瑰樣本類別數(shù)。

Backbone:主干網(wǎng)絡(luò);Neck:頸部網(wǎng)絡(luò);Head:預(yù)測網(wǎng)絡(luò);Input:輸入;Conv:卷積;SPPF:空間金字塔池化結(jié)構(gòu);Upsample:上采樣操作;Concat:特征融合方式;Attention Model:融合注意力機(jī)制模塊。CBS:激活函數(shù)為SiLU的卷積模塊;C3:CSP架構(gòu)的3卷積模塊;CSPStage:改進(jìn)后的C3模塊。

2.5 試驗環(huán)境與參數(shù)設(shè)置

試驗的運行環(huán)境是64位Ubuntu 20.04 LTS操作系統(tǒng),CPU為AMD EPYC 7232P 8-Core Processor,GPU為NVIDIA GeForce RTX 3090,數(shù)量為2。采用基于Pytorch的深度學(xué)習(xí)框架進(jìn)行訓(xùn)練,網(wǎng)絡(luò)模型以Python3.8.10編程語言實現(xiàn),軟件平臺為Visual Studio Code,搭配環(huán)境CUDA11.0、Cudnn8005。

初始化學(xué)習(xí)率設(shè)置為0.01,動量參數(shù)設(shè)置為0.937,批量大小設(shè)置為32,總迭代次數(shù)設(shè)置為300次,權(quán)重衰退系數(shù)設(shè)置為0.1,設(shè)置圖片標(biāo)準(zhǔn)尺寸為640×640像素。

3 結(jié)果與分析

3.1 不同注意力機(jī)制對模型的影響

為驗證引入的注意力機(jī)制對模型的影響,將SE(Squeeze-and-excitation)、CBAM(Convolutional block attention module)、ECA(Efficient channel attention)和CA(Channel attention),GAM(Global attention mechanism)等不同注意力機(jī)制添加到模型中展開試驗,試驗結(jié)果如表1所示。

由表1可知,添加不同注意力機(jī)制使模型運算量增加;添加SE[27]和CBAM[28]注意力機(jī)制都會使模型的總體檢測精度下降,因此不考慮使用;添加CA[29]和ECA注意力機(jī)制提高了模型對采摘期玫瑰花的檢測精度,檢測精度提升了0.7個百分點,但是添加CA注意力機(jī)制的模型對敗花期玫瑰花和添加ECA注意力機(jī)制的模型對花蕾期玫瑰花的檢測精度降低;由于ECA注意力機(jī)制帶來的總體性能提升更顯著,將其作為融合注意力機(jī)制模塊的通道注意力組成部分,經(jīng)對比發(fā)現(xiàn),添加ECA+BAM注意力機(jī)制的模型對采摘期玫瑰花的識別精度與添加ECA+GAM注意力機(jī)制的模型一致,達(dá)到94.8%,相較于原模型提升了1.1個百分點,對于花蕾期的花朵識別精度比添加ECA+GAM的模型提升了0.9個百分點,但是對敗花期的花朵識別精度降低了6.1個百分點。

僅考慮注意力機(jī)制的影響,添加融合注意力機(jī)制比添加CA等單一注意力機(jī)制在所有類別平均精度上更具優(yōu)勢,添加至模型后并沒有帶來更多的運行負(fù)擔(dān)。并且相較于部分單一注意力機(jī)制只關(guān)注通道或空間注意力,本研究的ECA+GAM融合注意力機(jī)制采用順序結(jié)構(gòu),兼顧通道和空間注意力。綜合衡量各項精度和參數(shù)量,添加ECA+GAM融合注意力機(jī)制提升效果更加明顯,可有效提高模型特征提取能力。

3.2 不同改進(jìn)方法對模型性能的影響

為驗證上述改進(jìn)后的模型在復(fù)雜背景下對食用玫瑰花采摘識別的優(yōu)化效果,使用原始模型與改進(jìn)后的模型在數(shù)據(jù)集上進(jìn)行訓(xùn)練,進(jìn)行了一系列消融試驗,使用改進(jìn)方法用“√”表示,未使用改進(jìn)方法用“—”表示,試驗結(jié)果見表2。

根據(jù)表2可知,改進(jìn)方法2針對制作的玫瑰花數(shù)據(jù)中存在中小型目標(biāo)較多的特點,采用多尺度特征融合,將更多低層特征與高層特征進(jìn)行融合,從而提高模型的特征提取能力,使得改進(jìn)后的模型相較于原模型mAP提升了0.9個百分點,對3個花期玫瑰的識別都有提升效果,其中對花蕾期花朵單個類別平均精度提高了1.5個百分點;改進(jìn)方法3使用CSPStage結(jié)構(gòu)替代原有C3模塊后,在訓(xùn)練時候采用多路徑拓?fù)洌哂卸喾种У膬?yōu)點,使模型能夠更加關(guān)注玫瑰花的特征,mAP達(dá)到88.2%;改進(jìn)方法4為在原始模型中引入融合注意力機(jī)制模塊,具有空間注意力和通道注意力的優(yōu)勢,增加特征區(qū)域權(quán)重,減少背景特征權(quán)重,提高了對敗花期玫瑰花的檢測精度,相較于原模型提升了5.6個百分點,并且總體類別平均精度達(dá)到89.4%。改進(jìn)方法5為將YOLOv5s的特征融合結(jié)構(gòu)及頸部網(wǎng)絡(luò)C3模塊進(jìn)行改進(jìn),總體類別平均精度達(dá)到88.8%,改進(jìn)方法6為在改進(jìn)方法5的基礎(chǔ)上添加融合注意力機(jī)制模塊,在滿足實時檢測需求的情況下增加一定的參數(shù)量,使檢測精度較大提升,改進(jìn)后總體類別平均精度達(dá)到90.4%,較原始模型提升了3.6個百分點,其中,對于花蕾期、采摘期、敗花期的玫瑰花單個類別平均精度分別提高了2.4個百分點、2.0個百分點、6.4個百分點,有效提高了模型對食用玫瑰識別的精度。

3.3 不同檢測模型的檢測效果

為了對改進(jìn)后的網(wǎng)絡(luò)模型與現(xiàn)有不同模型進(jìn)行對比,分析不同模型的性能,探究本研究改進(jìn)模型的優(yōu)越性,采用mAP和幀率以及模型體積為指標(biāo),選擇目前主流的目標(biāo)檢測模型Faster R-CNN、YOLO系列等進(jìn)行對比分析。由表3可知,兩階段檢測模型的檢測速度較慢,不適用于實時檢測。而在與一階段檢測模型的對比中,本研究改進(jìn)后的模型在檢測目標(biāo)物體時相比于YOLOv4、YOLOv5s、YOLOv7所有類別平均精度分別提升了7.3個百分點、3.6個百分點、2.3個百分點,具有更好的檢測性能。本研究改進(jìn)后的模型使得檢測精度得到較大提升,模型體積和檢測速率仍能夠滿足實時檢測需要,與其他模型相比,在檢測速度方面具有一定優(yōu)勢,具有較好的綜合性能。

為了進(jìn)一步比較改進(jìn)后的模型與其他模型的檢測效果差異,分別對測試集進(jìn)行檢測,檢測效果如圖6所示。改進(jìn)后的模型識別效果更佳,能夠減少相似背景的影響,能夠更加有效地識別出不同花期玫瑰花的位置,并且對重疊目標(biāo)的識別能力更強。改進(jìn)后的模型漏檢、誤檢現(xiàn)象減少,對不同尺度的玫瑰花檢測效果更好,提升模型檢測置信度。

4 結(jié)論

針對非結(jié)構(gòu)化環(huán)境下現(xiàn)有檢測模型對不同花期玫瑰花識別準(zhǔn)確率低、魯棒性差等問題,本研究以YOLOv5s為基礎(chǔ)模型,將主干網(wǎng)絡(luò)與頸部網(wǎng)絡(luò)的特征圖進(jìn)行跨層連接,同時進(jìn)行多尺度特征融合,使特征提取能力提升,使用改進(jìn)的CSPStage模塊對頸部網(wǎng)絡(luò)進(jìn)行優(yōu)化,可以在提高精度的同時加快檢測速率,并將融合卷積注意力模塊添加到Neck網(wǎng)絡(luò)中,采用通道空間順序結(jié)構(gòu),提取更全面的有效特征,加強關(guān)鍵信息的提取,提高檢測精度。根據(jù)實際種植環(huán)境,本研究制作了不同自然場景下的不同花期食用玫瑰花數(shù)據(jù)集用于模型的訓(xùn)練、驗證和測試,并分別與Faster R-CNN、YOLOv4、YOLOv5s和YOLOv7等模型進(jìn)行對比,結(jié)果表明,本研究提出的改進(jìn)后的模型較原模型對于花蕾期、采摘期、敗花期的玫瑰花單個類別平均精度分別提高了2.4個百分點、2.0個百分點、6.4個百分點。改進(jìn)后的模型復(fù)雜度提高,但檢測速率仍能達(dá)到每秒95.2幀,仍滿足實時識別的要求。

本研究所提出的檢測模型能夠在復(fù)雜環(huán)境下識別出不同生長狀態(tài)下的玫瑰花,減少光照以及葉片或其他花朵遮擋等問題對檢測效果的影響,使采摘機(jī)器人能夠更好地完成精準(zhǔn)識別任務(wù),為智能化采摘和科學(xué)管理提供技術(shù)支撐。

參考文獻(xiàn):

[1] 謝麗美,晏慧君,唐開學(xué),等. 云南4個主栽食用玫瑰品種產(chǎn)量評價及營養(yǎng)成分分析[J]. 西南農(nóng)業(yè)學(xué)報,2022,35(11):2627-2632.

[2] 董萬鵬,吳 楠,吳洪娥,等. 不同食用玫瑰生長特性、花品質(zhì)及生理變化特征[J]. 熱帶農(nóng)業(yè)科學(xué),2020,40(8):6-11.

[3] 陳禮鵬. 基于機(jī)器視覺的簇生獼猴桃果實多目標(biāo)識別方法研究[D]. 楊凌:西北農(nóng)林科技大學(xué),2018.

[4] 吳 超. 基于計算機(jī)視覺的玫瑰鮮切花質(zhì)量分級評價[D]. 昆明:昆明理工大學(xué),2020.

[5] SHAO Y, WANG Y, XUAN G, et al. Assessment of strawberry ripeness using hyperspectral imaging[J]. Analytical Letters,2020,54(10):1547-1560.

[6] CHAO Q, NYALALA I, CHEN K J. Detecting the early flowering stage of tea chrysanthemum using the F-YOLO model[J]. Agronomy,2021,11(5):834.

[7] 王小榮,許 燕,周建平,等. 基于改進(jìn)YOLOv7的復(fù)雜環(huán)境下紅花采摘識別[J]. 農(nóng)業(yè)工程學(xué)報,2023,39(6):169-176.

[8] 王彥鈞. 食用玫瑰花采摘機(jī)器人研究[D]. 昆明:昆明理工大學(xué),2015.

[9] 張振國,邢振宇,趙敏義,等. 改進(jìn)YOLOv3的復(fù)雜環(huán)境下紅花絲檢測方法[J]. 農(nóng)業(yè)工程學(xué)報,2023,39(3):162-170.

[10]龔惟新,楊 珍,李 凱,等. 基于改進(jìn)YOLOv5s的自然環(huán)境下獼猴桃花朵檢測方法[J]. 農(nóng)業(yè)工程學(xué)報,2023,39(6):177-185.

[11]顧滿局. 基于機(jī)器視覺的玫瑰鮮切花花形分類研究[D]. 昆明:昆明理工大學(xué),2023.

[12]REN S, HE K, GIRSHICK R, et al. Faster R-CNN:towards realtime object detection with region proposal networks[J]. Advances in Neural Information Processing Systems,2015,28:91-99.

[13]LIU W, ANGUELOV D, ERHAN D, et al. SSD:single shot multibox detector[C]//EUROPEAN CONFERENCE ON COMPUTER VISION. Computer vision-ECCV 2016:14th european conference. Amsterdam,Netherlands:Springer International Publishing,2016.

[14]LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]// IEEE. 2017 IEEE international conference on computer vision. Venice,Italy:IEEE,2017.

[15]魏天宇,柳天虹,張善文,等. 基于改進(jìn)YOLOv5s的辣椒采摘機(jī)器人識別定位方法[J]. 揚州大學(xué)學(xué)報(自然科學(xué)版),2023,26(1):61-69.

[16]邢潔潔,謝定進(jìn),楊然兵,等. 基于YOLOv5s的農(nóng)田垃圾輕量化檢測方法[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(19):153-161.

[17]王金鵬,周佳良,張躍躍,等. 基于優(yōu)選 YOLOv7模型的采摘機(jī)器人多姿態(tài)火龍果檢測系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報,2023,39(8):276-283.

[18]JIANG T, CHEN S. A lightweight forest pest image recognition model based on improved YOLOv8[J]. Applied Sciences,2024,14(5):1941.

[19]LIN T, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//IEEE. 2017 IEEE conference on computer vision and pattern recognition. Honolulu,HI,USA:IEEE,2017.

[20]LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]//IEEE/CVF. 2018 IEEE/CVF conference on computer vision and pattern recognition. Salt Lake City,UT,USA:IEEE,2018.

[21]楊其晟,李文寬,楊曉峰,等. 改進(jìn)YOLOv5的蘋果花生長狀態(tài)檢測方法[J]. 計算機(jī)工程與應(yīng)用,2022,58(4):237-246.

[22]JIANG Y Q, TAN Z Y, WANG J Y, et al. A heavy-neck paradigm for object detection[C]//INTERNATIONAL CONFERENCE ON LEARNING REPRESENTATIONS. The tenth international conference on learning representations. Vienna,Austria:ICLR,2021.

[23]陳范凱,李士心. 改進(jìn)Yolov5的無人機(jī)目標(biāo)檢測算法[J]. 計算機(jī)工程與應(yīng)用,2023,59(18):218-225.

[24]DING X, ZHANG X, MA N, et al. RepVGG:making vgg-style convnets great again[C]//IEEE/CVF. 2021 IEEE/CVF conference on computer vision and pattern recognition. Nashville,TN,USA:IEEE,2021.

[25]WANG Q, WU B, ZHU P, et al. ECA-Net:efficient channel attention for deep convolutional neural networks[C]//IEEE/CVF. 2020 IEEE/CVF conference on computer vision and pattern recognition. Seattle,WA,USA:IEEE,2020.

[26]肖粲俊,潘睿志,李 超,等. 基于改進(jìn)YOLOv5s絕緣子缺陷檢測技術(shù)研究[J]. 電子測量技術(shù),2022,45(24):137-144.

[27]陳 超,齊 峰. 卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計算機(jī)視覺領(lǐng)域中的應(yīng)用綜述[J]. 計算機(jī)科學(xué),2019,46(3):63-73.

[28]LU S, CHEN W, ZHANG X, et al. Canopy-attention-YOLOv4-based immature/mature apple fruit detection on dense-foliage tree architectures for early crop load estimation[J]. Computers and Electronics in Agriculture,2022,193:106696.

[29]HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design[C]// IEEE/CVF. 2021 IEEE/CVF conference on computer vision and pattern recognition. Nashville,TN,USA:IEEE,2020.

(責(zé)任編輯:成紓寒)

江北区| 雅安市| 安丘市| 镇平县| 吉林省| 体育| 丰顺县| 太原市| 云南省| 鄂伦春自治旗| 江孜县| 武强县| 东方市| 宕昌县| 乌鲁木齐县| 双辽市| 辽中县| 都安| 高邮市| 建德市| 定襄县| 南和县| 山丹县| 墨竹工卡县| 璧山县| 婺源县| 佛学| 安远县| 留坝县| 东阳市| 石棉县| 壶关县| 资源县| 出国| 东海县| 天等县| 旅游| 手机| 基隆市| 买车| 精河县|