摘要:為判斷大豆開花時期落花情況,對田間大豆花朵在花蕾、半開、全開、凋落四類生長狀態(tài)下進(jìn)行精準(zhǔn)檢測?;赮OLOv5檢測模型,對主干Bottleneck CSP結(jié)構(gòu)進(jìn)行修改,減少模塊數(shù)量來保留更多淺層特征,增強特征表達(dá)能力,在骨干網(wǎng)絡(luò)中引入CA注意機制,以獲得位置信息,協(xié)助模型更加準(zhǔn)確地識別,并修改錨箱尺寸提高小目標(biāo)花蕾精準(zhǔn)識別,在自建的田間大豆花朵不同生長狀態(tài)數(shù)據(jù)集上進(jìn)行改進(jìn)YOLOv5算法對比試驗。結(jié)果表明:大豆開花時期花朵不同生長狀態(tài)識別模型準(zhǔn)確率達(dá)到93.4%,召回率達(dá)到91.4%,對比原模型準(zhǔn)確率、召回率分別提高0.8%和2.1%。
關(guān)鍵詞:大豆花朵;生長狀態(tài);YOLOv5;田間復(fù)雜環(huán)境;注意力機制;目標(biāo)檢測
中圖分類號:S127
文獻(xiàn)標(biāo)識碼:A
文章編號:20955553 (2024) 070188
06
Research on the identification method of soybean flower growth status in the field
based on improved YOLOv5
Yue Yaohua1, 2, 3, Zhang Wei1, 2, 3, Qi Liqiang1, 2, 3
(1. College of Engineering, Heilongjiang Bayi Agricultural University, Daqing, 163319, China;
2. Heilongjiang Province Conservation Tillage Engineering Technology Research Center, Daqing, 163319, China;
3. Key Laboratory of Soybean Mechanized Production, Ministry of Agriculture and Rural Affairs, Daqing, 163319, China)
Abstract:
In order to judge the fall of soybean flowers during the flowering period, soybean flowers in the field were accurately detected under four growth states such as flower bud, half-opening, full-opening and withering. Based on the YOLOv5 detection model, the backbone Bottleneck CSP structure was modified, the number of modules was reduced to preserve more shallow features and enhance feature expression ability. CA attention mechanism was introduced into the backbone network to obtain location information and help the model identify more accurately. Moreover, the size of anchor box was modified to improve the accurate identification of small target bud, and the improved YOLOv5 algorithm was compared with the self-built data set of different growth states of soybean flowers in the field. The results showed that the accuracy rate of the model reached 93.4% and the recall rate reached 91.4%, which were increased by 0.8% and 2.1% respectively compared with the original model.
Keywords:
soybean flowers; growth state; YOLOv5; complex field environment; attention mechanism; object detection
0 引言
為促進(jìn)育種專家對大豆花朵在花蕾、半開、全開過程中落花情況的了解,保證大豆花早、花多、花齊,并且防止花朵脫落,在大豆花朵不同生長狀態(tài)下進(jìn)行合理施肥,做到??亟Y(jié)合,提高?;省H欢蠖够ǘ湓陂_花時期不同生長狀態(tài)存在葉片相互遮擋、小目標(biāo)花蕾不明顯現(xiàn)象[1]。因此,如何有效識別成為監(jiān)測田間大豆花朵不同生長狀態(tài)的重要方向[2]。
目前,計算機視覺與深度學(xué)習(xí)算法實現(xiàn)果實及花朵生長狀態(tài)檢測已有相關(guān)研究。作為一種無損、經(jīng)濟(jì)和高效的識別算法,計算機視覺在作物花朵檢測中取得較好地應(yīng)用[3]。陳國防等[4]以CSPDarknet53框架為主干特征提取網(wǎng)絡(luò),減少樣本數(shù)據(jù)不均和數(shù)量不足的影響,以離線和在線數(shù)據(jù)增強的YOLOv4方法研究,提出一種基于數(shù)據(jù)增強的YOLOv4深度學(xué)習(xí)蘋果花朵檢測方法,所提出的方法檢測蘋果花朵平均精度AP值為99.76%,該研究為大豆花朵狀態(tài)識別提供方向與思路。Dias等[5]通過高斯濾波對圖像光照進(jìn)行改進(jìn),根據(jù)橙花朵顏色特征實現(xiàn)橙花朵檢測,該方法對橙花朵檢測的最大和最小誤差分別為80.55%和15.61%。Dias等[6]基于深度學(xué)習(xí)的蘋果花朵識別,改進(jìn)模型卷積神經(jīng)網(wǎng)絡(luò),從分割的蘋果花朵圖像中提取有效特征,使用支持向量機(SVM)分類器,準(zhǔn)確率為80.00%。Farjon等[7]基于深度學(xué)習(xí)的R-CNN算法對蘋果花朵檢測,準(zhǔn)確率為0.68%。以上研究通過深度學(xué)習(xí)R-CNN、SSD模型優(yōu)化對田間環(huán)境中花朵進(jìn)行識別,可為田間大豆花朵不同生長狀態(tài)識別方法優(yōu)化提供技術(shù)參考。
本文基于YOLOv5框架[8],對CSP結(jié)構(gòu)進(jìn)行修改,減少模塊數(shù)量,保留更多淺層特征,增強特征表示能力,提高對小目標(biāo)對象的檢測能力,在骨干網(wǎng)絡(luò)中引入CA注意機制,提高模型準(zhǔn)確性,并修改錨箱尺寸提高小目標(biāo)花蕾精準(zhǔn)識別。為驗證上述研究方法可行性,在黑龍江省尖山農(nóng)場基地大豆試驗田,通過自主研制的花莢識別裝置獲取大豆花朵圖像,對采集圖像進(jìn)行人工標(biāo)注,構(gòu)建數(shù)據(jù)集,進(jìn)行田間大豆花朵識別試驗。
1 圖像采集與目標(biāo)分析
1.1 數(shù)據(jù)采集與數(shù)據(jù)增強
2022年7月(始花期),在黑龍江省九三管理局尖山農(nóng)場試驗田進(jìn)行數(shù)據(jù)采集試驗,使用花莢識別裝置獲取自然光照下大豆花朵圖像,采集順光條件下大豆花朵作為數(shù)據(jù)集,共計6589張圖像,部分樣本為圖1,統(tǒng)一保存為jpg格式。
1.2 數(shù)據(jù)集建立
對圖像進(jìn)行篩選與分類,使用labelImg軟件對收集到的大豆花朵不同生長狀態(tài)圖像樣本進(jìn)行標(biāo)記,構(gòu)建大豆花朵數(shù)據(jù)集,包括1301個標(biāo)記為花蕾bud、1004個標(biāo)記為半開halfopen、2043個標(biāo)記為全開fullyopen和2241個標(biāo)記為凋落witherandfall。標(biāo)注圖像以xml格式保存,如圖2所示。
YOLOv5采取Mosaic數(shù)據(jù)增強方式[9, 10],優(yōu)點在于使檢測數(shù)據(jù)集豐富,增加泛化性,極大地提高模型訓(xùn)練效率,如圖3所示。
數(shù)據(jù)集目標(biāo)位置中心點在x軸和y軸的分布,是將原圖分辨率正則化之后的結(jié)果,如圖4(a)所示。數(shù)據(jù)集的目標(biāo)位置集中在中部,主要是小群體,表示目標(biāo)框的長寬占圖片長寬的比例,如圖4(b)所示,通過以上分析得出符合當(dāng)前田間實際情況,更有利于算法滿足后續(xù)要求,因此說明此次數(shù)據(jù)集制作合理。
2 改進(jìn)YOLOv5檢測模型
2.1 YOLOv5在大豆花朵不同生長狀態(tài)識別中存在的問題
YOLOv5[11]具有高速、靈活的特點,網(wǎng)絡(luò)結(jié)構(gòu)主要包括Darknet-53骨干網(wǎng)絡(luò)和Path Aggregation network(PA Net)。骨干網(wǎng)絡(luò)采用CSP1_X結(jié)構(gòu),主要由兩個分支組成,一是由X數(shù)量的瓶頸模塊串聯(lián)連接,二是卷積層。將兩個支路拼接在一起,增加網(wǎng)絡(luò)的橫縱深度,增強圖像花朵目標(biāo)提取能力。
與機器學(xué)習(xí)、YOLO其他系列相比,YOLOv5具有良好的檢測性能,但根據(jù)田間花朵實際情況,仍然存在以下缺陷[10]:YOLOv5算法在提取圖像有效特征時,對圖像中目標(biāo)信息特征沒有給予特別關(guān)注。在目標(biāo)的特征提取過程中,感知有所增加,但特征數(shù)據(jù)之間的通道、空間等不同維度數(shù)據(jù)之間缺乏相關(guān)性,導(dǎo)致在卷積過程中重要信息權(quán)重沒有體現(xiàn)出來,容易隨著深度卷積逐漸丟失,最終導(dǎo)致小花蕾和相互遮擋的目標(biāo)特征提取不完善和不足[12, 13]。結(jié)合以上問題對模型進(jìn)行以下改進(jìn)。
2.2 優(yōu)化BottlenckCSP結(jié)構(gòu)
由于識別算法不僅需要在田間環(huán)境中準(zhǔn)確識別各種情況下的大豆花朵目標(biāo),還需要盡可能壓縮模型的大小,以便在硬件設(shè)備中部署。
本文對YOLOv5架構(gòu)的主干網(wǎng)絡(luò)進(jìn)行優(yōu)化和改進(jìn),在保證檢測精度的前提下,減少網(wǎng)絡(luò)權(quán)重參數(shù)的數(shù)量和體積。YOLOv5架構(gòu)的主干網(wǎng)絡(luò)包含四個BottleneckCSP模塊,包含多個卷積層,盡管卷積運算可以提取圖像中的特征,但卷積內(nèi)核包含大量參數(shù)。因此,對BottleneckCSP模塊進(jìn)行設(shè)計,簡化骨干網(wǎng)絡(luò)中的特征提取層,并將原骨干網(wǎng)絡(luò)中Bottleneck CSP的模塊數(shù)(×3,×9,×9、×3)變?yōu)椋ā?,×6,×6、×2),以提取更多的田間大豆花朵不同生長狀態(tài)的特征信息,解決卷積核過多帶來的大量參數(shù)問題,去除原始模塊橋接分支上的卷積層,并將Bottleneck CSP模塊的輸入特征圖與另一分支的輸出特征圖直接深度連接,有效減少模塊中的參數(shù)數(shù)量。如圖5所示,名為BottleneckCSP-Flower,在使用BottleneckCSP模塊將原始骨干網(wǎng)絡(luò)的四個部分被四個相鄰的BottleneckCS-Flower模塊所取代。
為提高花朵目標(biāo)的檢測精度,機器視覺中的注意力機制被用于花朵目標(biāo)識別網(wǎng)絡(luò)的設(shè)計,以更好地提取花朵目標(biāo)的特征。CA模塊是一種視覺注意力機制網(wǎng)絡(luò),旨在增強移動網(wǎng)絡(luò)學(xué)習(xí)特征的表達(dá)能力,其中通過學(xué)習(xí)自動獲得新特征重新校準(zhǔn),表明每個特征通道的重要性,提高有用特征,并相應(yīng)地抑制不重要的特征。由于該模塊的計算量小,并且該模塊能夠有效地提高模型的表達(dá)能力并優(yōu)化所學(xué)習(xí)的內(nèi)容,本文將其嵌入到改進(jìn)設(shè)計的YOLOv5架構(gòu)的骨干網(wǎng)絡(luò)中,以提高模型的檢測精度。
2.3 引入注意力機制的YOLOv5-Bloom-CA
葉片或其他花朵通常隱藏檢測花朵不同狀態(tài)特征的信息,因此,通過增加CA注意力機制可以增強與當(dāng)前任務(wù)相關(guān)的被遮擋目標(biāo)的特征表達(dá)。
一般的注意力機制模塊在計算時會選擇高層特征圖進(jìn)行全局的池化,通過降維的方式將每個通道的二維特征最終壓縮成一個實數(shù)。經(jīng)過此計算過程,可把整個特征壓縮,獲得全局較為完整的感受野,但在進(jìn)行降維壓縮時,會丟失部分的空間特征信息,同時也無法體現(xiàn)通道和空間維數(shù)之間的相互依附關(guān)系。雖然較為成熟的Convolutional Block Attention Module (CBAM)是同時基于空間和通道的,但它們的計算過程是相互獨立的,時間和計算量都大幅增加。相較而言CA的意義:一是不進(jìn)行降維,會整合所有的通道和空間維數(shù)信息,不丟失信息,二是通過跨通道信息交互作用的遮蓋區(qū)域面積與通道維數(shù)C的正比關(guān)系得到自適應(yīng)的k值,減小計算量。CA機制降低模型復(fù)雜性的同時,增強特征的表達(dá)能力,提高模型精度,適合后期部署在移動端。
YOLOv5模型中CA注意力機制網(wǎng)絡(luò)結(jié)構(gòu),主要作用是增強整體識別中學(xué)習(xí)特征的表達(dá)能力,對網(wǎng)絡(luò)中的特征張量X=[x1,x2,…,xc]∈RH×W×C進(jìn)行單項轉(zhuǎn)化最終形成輸出同樣大小尺寸的張量Y=[y1,y2,…,yc]∈RH×W×C,其中C為通道數(shù),表示特征圖中的不同特征通道;H為高度,表示特征圖的垂直維度;W為寬度,表示特征圖的水平維度,注意力機制流程如圖6所示。
CA注意力機制主要是通過獲取大豆花朵不同狀態(tài)圖像寬度和高度方向上的注意力,實時解析圖像的特征值的位置信息,將輸入圖像中的特征值分別全局平均化為寬度和高度兩個方向。獲得在高度和寬度兩個方向的特征圖,如式(1)、式(2)所示。
zhc(h)=1W∑0≤ilt;Wxc(h,i)
(1)
zwc(w)=1H∑0≤jlt;Hxc(j,w)
(2)
式中:
xc(h,i)——
第h列、第i行對應(yīng)特征圖的像素值;
xc(j,w)——
第j列、第w行對應(yīng)特征圖的像素值。
然后,將全局感受野的寬度和高度方向上的特征圖鏈接在一起,并將其送到具有1×1共享卷積核的卷積模塊中,將其維數(shù)降低到原始數(shù)。隨后,將批量歸一化花朵的不同生長狀態(tài)特征圖F被送到Sigmoid激活函數(shù)中,以獲得花朵不同生長狀態(tài)特征圖f,如式(3)所示。
f=δ{F([zh,zw])}
(3)
式中:
zh——全局感受野高度上的特征圖;
zw——全局感受野寬度上的特征圖。
根據(jù)原始高度與寬度,將花朵的不同生長狀態(tài)特征圖f與1×1的卷積,并在激活函數(shù)后獲得高度與寬度上的注意力權(quán)重,如式(4)、式(5)所示。
gh=σ[Fh(fh)]
(4)
gw=σ[Fw(fw)]
(5)
式中:
σ——Sigmoid激活函數(shù);
g——注意力權(quán)重。
將獲得輸入特征圖xc(i,j)高度與寬度上的注意力權(quán)重ghc(i)和gwc(j),進(jìn)行乘法來獲得在寬度和高度方向上最終特征圖,如式(6)所示。
yc(i,j)=xc(i,j)×ghc(i)×gwc(j)
(6)
注意力機制模塊在網(wǎng)絡(luò)中的位置如圖7所示。基于YOLOv5算法,將CA注意力機制添加在BottleNeck后面,對特征圖中的目標(biāo)進(jìn)行不同維度上的注意力加權(quán),提高算法對特征圖中花蕾目標(biāo)主要特征的提取,以此來提高目標(biāo)檢測算法的準(zhǔn)確性。
2.4 改進(jìn)初始錨箱的尺寸
YOLOv5框架的初始檢測錨箱三種尺寸設(shè)定為(80×80,40×40,20×20),在訓(xùn)練初始數(shù)據(jù)集聚類尺寸時,分別為10×13,16×30,33×23,30×61,62×45,59×119;116×90,156×198,373×326。三個特征圖被輸入到多尺度檢測層,用于花蕾、半開、全開的不同生長狀態(tài)檢測。由于田間管理中采集的花朵不同生長狀態(tài)圖像與采集裝置存在距離,這些大豆花朵不能被視為有效特征來識別。為避免圖像背景中花蕾的錯誤識別,提高對前景中花朵的識別精度,對YOLOv5網(wǎng)絡(luò)中的初始檢測錨箱的尺寸進(jìn)行改進(jìn)。結(jié)合圖像中花朵目標(biāo)的長寬比,初始錨箱的長寬比為1左右,修改為80×70、75×75、85×100,在訓(xùn)練試驗樣本數(shù)據(jù)集聚類時分別為95×110、130×110、115×125,達(dá)到對小目標(biāo)花蕾的準(zhǔn)確識別,實現(xiàn)對不同生長狀態(tài)花朵目標(biāo)的準(zhǔn)確識別。
3 試驗結(jié)果與分析
3.1 訓(xùn)練環(huán)境與參數(shù)
試驗平臺是一個自主配置的服務(wù)器,具有64位Windows 11操作系統(tǒng),處理器為Intel(R)Xeon(R)CPUE5-2630 v3@2.40GHz,NVIDIA Tesla K40c圖形卡,8 G內(nèi)存和32 GB RAM。本文基于PyTorch深度學(xué)習(xí)框架構(gòu)建網(wǎng)絡(luò)模型,開發(fā)環(huán)境為PyTorch 1.4、cudal0.1和python3.7。
訓(xùn)練過程設(shè)置初始學(xué)習(xí)率為0.01,權(quán)重衰減為0.001,batch size為16。圖像輸入大小為512像素×512像素。依據(jù)模型自身的特點,YOLOv5和改進(jìn)的YOLOv5訓(xùn)練的epoch均為200,預(yù)訓(xùn)練模型為YOLOv5x。
3.2 模型評估
模型評估采用平均精準(zhǔn)度AP、平均精準(zhǔn)度的均值mAP兩項指標(biāo),計算如式(7)~式(10)所示。
P=TPTP+FP
(7)
R=TPTP+FN
(8)
AP=∑PN
(9)
mAP=∑APN
(10)
式中:
TP——識別出正確的正樣本個數(shù);
FN——識別出錯誤的負(fù)樣本的個數(shù);
FP——識別出錯誤的正樣本的個數(shù);
Р——
精準(zhǔn)率,正確判定為花朵占全部判定為花朵(包括錯誤判定為花朵)的比例;
R——
召回率,花朵正確檢測為花朵占全部花朵比例;
N——總數(shù)量,花朵數(shù)據(jù)集總數(shù);
AP——
平均準(zhǔn)確率,P指數(shù)與R指數(shù)的積分,即P-R曲線下的面積。
3.3 結(jié)果分析
3.3.1 模型訓(xùn)練損失值
在深度學(xué)習(xí)中,損失函數(shù)值可反映檢測最終的預(yù)測結(jié)果和實際真實值之間的誤差,用來分析和判斷訓(xùn)練過程的優(yōu)劣、模型的收斂程度以及是否過擬合等。在本文所用的PyTorch框架中,損失函數(shù)看作是放置在模型定義中的網(wǎng)絡(luò)層,但在實踐中,更側(cè)重于作為功能函數(shù),放置在正向傳播過程中。損失函數(shù)曲線如圖8所示。
3.3.2 改進(jìn)YOLOv5模型的識別檢測結(jié)果
mAP@0.5是衡量目標(biāo)檢測模型性能的主要評價指標(biāo)。YOLOv5與YOLOv5-Bloom-CA的mAP@0.5曲線如圖9所示,分別為88.5%、93.5%,YOLOv5-Bloom-CA的mAP@0.5比YOLOv5提高0.5%,同時訓(xùn)練損失也更低。
將兩個模型在所構(gòu)建的田間大豆花朵不同生長狀態(tài)數(shù)據(jù)集的測試集進(jìn)行測試,設(shè)定置信度閾值為0.3,使網(wǎng)絡(luò)只檢測高于置信度的大豆花朵目標(biāo)。由于大豆花朵較小且分布密集,并且存在遮擋,但發(fā)現(xiàn)YOLOv5-Bloom-CA的漏檢現(xiàn)象較少,一些邊緣目標(biāo)和模糊目標(biāo)被檢測到的概率更大。這是因為BottleneckCSP結(jié)構(gòu)進(jìn)行修改,減少模塊數(shù)量來保留更多淺層特征,增強特征表達(dá)能力,利于識別更小的目標(biāo)大豆花朵。CA注意力機制能夠降低數(shù)據(jù)集在訓(xùn)練過程中損失,保留更多的學(xué)習(xí)特征,mAP@0.5提升5%。
3.3.3 檢測結(jié)果分析
改進(jìn)后的混淆矩陣如圖10所示。大部分?jǐn)?shù)據(jù)落于對角線上,且數(shù)值較高,說明改進(jìn)后的YOLOv5網(wǎng)絡(luò)精準(zhǔn)率較高。但是偶爾也會出現(xiàn)錯誤檢測的問題,例如將大豆花蕾檢測為半開花朵,將凋落花朵檢測為大豆花蕾,是因為大豆不同狀態(tài)的相像或者目標(biāo)較小都有可能被誤測,因此后期仍需對數(shù)據(jù)集和網(wǎng)絡(luò)進(jìn)行優(yōu)化[16]。
YOLOv5-Bloom-CA與原YOLOv5網(wǎng)絡(luò)模型進(jìn)行對比試驗,如表1所示。在田間減少網(wǎng)絡(luò)復(fù)雜度的情況下,改進(jìn)的算法在大豆花朵不同生長狀態(tài)條件下,準(zhǔn)確率達(dá)到93.4%,召回率達(dá)到91.4%,對比原網(wǎng)絡(luò)模型準(zhǔn)確率、召回率分別提高0.8%和2.1%,滿足后期農(nóng)業(yè)機器人實際工況下的模型部署檢測要求。改進(jìn)的YOLOv5模型算法與原模型比較,花朵不同生長狀態(tài)目標(biāo)準(zhǔn)確率得到提高,在田間環(huán)境都能很好地被識別。如圖11所示。
4 結(jié)論
1) 針對田間大豆花朵不同生長狀態(tài)檢測對開花時期的需要,構(gòu)建基于改進(jìn)YOLOv5的田間大豆花朵識別模型。通過改進(jìn)YOLOv5模型,對BottleneckCSP結(jié)構(gòu)修改,并在主干網(wǎng)絡(luò)中引入CA注意力機制,修改錨箱尺寸提高小目標(biāo)花蕾精準(zhǔn)識別,建立田間大豆花朵不同生長狀態(tài)識別模型。
2)" 該模型通過對識別精度和速度等進(jìn)行判斷。得出改進(jìn)YOLOv5提高圖像識別的準(zhǔn)確性,最終模型mAP值為93.5%,比原模型提高5%。在試驗訓(xùn)練環(huán)境中保證識別速度和識別準(zhǔn)確率,準(zhǔn)確率達(dá)到93.4%,召回率達(dá)到91.4%,分別比原始網(wǎng)絡(luò)模型高0.8%和2.1%,單張照片檢測耗時0.093 s。所提出的改進(jìn)算法具有一定的可行性和適應(yīng)性。
3)" 為提高大豆花朵不同生長狀態(tài)識別檢測,后續(xù)將考慮增加數(shù)據(jù)集多樣性以適應(yīng)不同地域、品種的大豆花朵狀態(tài)識別,提高泛化性。
參 考 文 獻(xiàn)
[1]鄭玉龍, 趙明. 基于深度學(xué)習(xí)的自然環(huán)境下花朵識別[J]. 計算技術(shù)與自動化, 2019, 38(2): 114-118.
Zhang Yulong, Zhao Ming. Deep learning for flower identification in natural environment [J]. Computing Technology and Automation, 2019, 38(2): 114-118.
[2]張星, 高巧明, 潘棟, 等. 基于改進(jìn)YOLOv3的田間復(fù)雜環(huán)境下菠蘿拾撿識別研究[J]. 中國農(nóng)機化學(xué)報, 2021, 42(1): 201-206.
Zhang Xing, Gao Qiaoming, Pan Dong, et al. Picking recognition research of pineapple in complex field environment based on improved YOLOv3 [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(1): 201-206.
[3]馬志艷, 朱熠, 張徐康, 等. 基于視覺的玉米苗期作物識別與定位方法研究[J]. 中國農(nóng)機化學(xué)報, 2020, 41(9): 131-137.
Ma Zhiyan, Zhu Yi, Zhang Xukang, et al. Research on the method of crop recognition and location in maize seedling stage based on vision [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(9): 131-137.
[4]陳國防, 陳兆英, 王玉亮, 等. 基于數(shù)據(jù)增強深度學(xué)習(xí)的蘋果花檢測方法研究[J]. 中國農(nóng)機化學(xué)報, 2022, 43(5): 148-155.
Chen Guofang, Chen Zhaoying, Wang Yuliang, et al. Research on detection method of apple flower based on data-enhanced deep learning [J]. Journal of Chinese Agricultural Mechanization, 2022, 43(5): 148-155.
[5]Dias P A, Tabb A, Medeiros H. Multispecies fruit flower detection using a refined semantic segmentation network [J]. IEEE Robotics and Automation Letters, 2018, 3(4): 3003-3010.
[6]Dias P A, Tabb A, Medeiros H. Apple flower detection using deep convolutional networks [J]. Computers in Industry, 2018, 99: 17-28.
[7]Farjon G, Krikeb O, Hillel A B, et al. Detection and counting of flowers on apple trees for better chemical thinning decisions [J]. Precision Agriculture, 2020, 21: 503-521.
[8]Hou Q, Zhou D, Feng J. Coordinate attention for efficient mobile network design [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 13713-13722.
[9]潘惠蘋, 王敏琴, 張福泉, 等. 基于優(yōu)化YOLO-V4的交通標(biāo)志檢測識別方法[J]. 計算機科學(xué), 2022, 49(11): 179-184.
Pan, Huiping, Wang, Minqin, Zhang Fuquan, et al. Traffic sign detection and recognition method based on optimized YOLO-V4 [J]. Computer Science, 2022, 49(11): 179-184.
[10]邢姍姍, 趙文龍. 基于YOLO系列算法的復(fù)雜場景下無人機目標(biāo)檢測研究綜述[J]. 計算機應(yīng)用研究, 2020, 37(S2): 28-30.
Xing Shanshan, Zhao Wenlong, et al. Review of UAV target detection in complex scenarios based on YOLO series algorithms [J]. Application Research of Computers, 2020, 37(S2): 28-30.
[11]張上, 王恒濤, 冉秀康, 等. 基于YOLOv5的輕量化交通標(biāo)志檢測方法[J]. 電子測量技術(shù), 2024(2): 49-55.
Zhang Shang, Wang Hengtao, Ran Xiukang, et al. Lightweight traffic sign detection algorithm based on YOLOv5 [J]. Electronic Measurement Technology, 2024(2): 49-55.
[12]劉麗娟, 竇佩佩, 王慧, 等. 自然環(huán)境下重疊與遮擋蘋果圖像識別方法研究[J]. 中國農(nóng)機化學(xué)報, 2021, 42(6): 174-181.
Liu Lijuan, Dou Peipei, Wang Hui, et al. Image recognition algorithm research of overlapped apple fruits in the natural environment [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(6): 174-181.
[13]王林柏, 張博, 姚竟發(fā), 等. 基于卷積神經(jīng)網(wǎng)絡(luò)馬鈴薯葉片病害識別和病斑檢測[J]. 中國農(nóng)機化學(xué)報, 2021, 42(11): 122-129.
Wang Linbai, Zhang Bo, Yao Jingfa, et al. Potato leaf disease recognition and potato leaf disease spot detection based on Convolutional Neural Network [J]. Journal of Chinese Agricultural Mechanization, 2021, 42(11): 122-129.
[14]董麗君, 曾志高, 易勝秋, 等. 基于YOLOv5的遙感圖像目標(biāo)檢測[J]. 湖南工業(yè)大學(xué)學(xué)報, 2022, 36(3): 44-50.
Dong Lijun, Zeng Zhigao, Yi Shengqiu, et al. Research on a YOLOv5: Based remote sensing image target detection [J]. Journal of Hunan University of Technology, 2022, 36(3): 44-50.