国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于D-YOLOv3檢測網(wǎng)絡(luò)的溫室葉菜幼苗圖像檢測

2021-11-14 11:48劉芳劉玉坤張白
江蘇農(nóng)業(yè)學報 2021年5期

劉芳 劉玉坤 張白

摘要:?? 為解決溫室葉菜子葉期幼苗生長密集情況下的圖像識別問題,提出一種密集連接型D-YOLOv3檢測網(wǎng)絡(luò)。該網(wǎng)絡(luò)以YOLOv3為基礎(chǔ)構(gòu)建主干網(wǎng)絡(luò),改進檢測結(jié)構(gòu)和損失函數(shù)。以穴盤培育的油菜幼苗為例展開一系列試驗。首先確定了YOLOv3和D-YOLOv3檢測網(wǎng)絡(luò)中損失函數(shù)的修正系數(shù);其次通過構(gòu)建的幾種檢測網(wǎng)絡(luò)的對比試驗驗證了對YOLOv3主干網(wǎng)絡(luò)、檢測結(jié)構(gòu)和損失函數(shù)改進的有效性,D-YOLOv3的幼苗檢測精度高達93.44%,檢測時間低至12.61 ms,與YOLOv3相比精度提升9.4個百分點,時間降低4.07 ms;最后進行不同密集程度和光照環(huán)境下幼苗圖像的檢測性能對比試驗,結(jié)果表明D-YOLOv3的檢測精度、檢測時間及對小目標的特征提取能力均優(yōu)于YOLOv3。D-YOLOv3能夠?qū)厥噎h(huán)境下的葉菜幼苗進行有效檢測,可以為智能檢測裝備的作物識別提供依據(jù)。

關(guān)鍵詞:? 小目標; 圖像檢測; 密集連接; D-YOLOv3檢測網(wǎng)絡(luò)

中圖分類號:? S636;TP391.41??? 文獻標識碼: A??? 文章編號:? 1000-4440(2021)05-1262-08

Image detection of leafy vegetable seedlings in greenhouse based on D-YOLOv3 detection network

LIU Fang, LIU Yu-kun, ZHANG Bai

(College of Electrical Information Engineering, North Minzu University, Yinchuan 750021, China )

Abstract:?? In order to solve the problem of detecting densely planted leafy vegetable seedlings at cotyledon stage in greenhouse, a densely connected detection network named D-YOLOv3 was proposed. The backbone network of D-YOLOv3 was built based on that of YOLOv3. Simultaneously, the detection structure and loss function of D-YOLOv3 were constructed as the improvement of those of YOLOv3. A series of comparative tests were carried out with rape seedlings cultivated in pot as an example. Firstly, the correction coefficients of loss function in YOLOv3 and D-YOLOv3 detection networks were determined. Then, the effectiveness of the derived backbone network, detection structure and loss function of D-YOLOv3 was verified according to comparative tests with some networks mentioned in the paper. The test results showed that the detection accuracy of D-YOLOv3 was as high as 93.44%, and the detection time was as low as 12.61 ms. Compared with YOLOv3, the detection accuracy was improved by 9.4 percentage point and the detection time was reduced by 4.07 ms. Finally, the performance of YOLOv3 and D-YOLOv3 detection networks was obtained with images of rape seedlings growing under different density and illumination environments. The detection precision and speed of D-YOLOv3 for the proposed image were better than those of YOLOv3 at various densities. The ability of D-YOLOv3 was stronger than that of YOLOv3 to extract features of small targets under different illumination and density conditions. Consequently, the D-YOLOv3 detection network proposed in this paper can effectively identify rape seedlings in the greenhouse and serve as a powerful tool for crop recognition with intelligent detection equipment.

Key words:? small target; image detection; dense connection; D-YOLOv3 detection network

幼苗識別是植物表型檢測的重要組成部分,對幼苗生長、品種選育等具有重要意義? [1-4] 。利用圖像處理技術(shù)來準確高效識別幼苗十分必要。圖像處理具有成本低、直觀、非接觸式等優(yōu)點,在智慧農(nóng)業(yè)領(lǐng)域備受青睞? [5] 。傳統(tǒng)圖像識別方法利用支持向量機(SVM)? [6] 、K近鄰算法(KNN)? [7] 、隨機森林算法? [8] 等方法手動提取顏色、紋理、形態(tài)等特征來分割圖像,然后結(jié)合反向傳播神經(jīng)(BP)網(wǎng)絡(luò)進行作物識別。上述方法對于小目標或由光照等自然環(huán)境因素導致的圖像顏色不均勻、有陰影等情況,識別效果不理想? [9-10] 。

深度卷積神經(jīng)網(wǎng)絡(luò)(Deep convolutional neural network, DCNN)對作物具有較好的識別能力? [11] 。目前基于DCNN的主流目標檢測算法有Fast R-CNN? [12] 、Faster R-CNN? [13] 以及YOLO(You only look once)系列網(wǎng)絡(luò)? [14-16] 等。孫哲等? [17] 利用Faster R-CNN網(wǎng)絡(luò)檢測株距較大的田間西蘭花幼苗圖像,檢測精度達到91.73%,平均耗時249 ms。該方法針對田間幼苗圖像,每幅圖像只含有1個目標,且在圖像中占比較大(常規(guī)目標)。溫室環(huán)境下利用穴盤培育的葉菜類子葉期幼苗生長密集,在圖像中占比較?。ㄐ∧繕耍┣夜庹兆兓鄻印O噍^于田間西蘭花幼苗等常規(guī)目標,溫室葉菜幼苗等小目標所含信息量較少,導致其圖像檢測難度增大。目前溫室環(huán)境下葉菜類子葉期幼苗的圖像檢測鮮有報道。

本研究以YOLOv3檢測網(wǎng)絡(luò)為基礎(chǔ),根據(jù)幼苗圖像的特點,對主干網(wǎng)絡(luò)和檢測結(jié)構(gòu)進行改進,同時對損失函數(shù)進行改善,提出一種基于密集連接的D-YOLOv3檢測網(wǎng)絡(luò),構(gòu)建適用于不同光照環(huán)境下的小目標圖像檢測方法。

1 試驗材料與試驗平臺

以穴盤中培育的油菜幼苗為例,采集其從萌發(fā)到子葉期的生長圖像。為保證樣本多樣性,對溫室環(huán)境下不同時段、不同密集程度的幼苗進行拍攝。光源包含了白天的正常光照、復合光照以及夜間光照,其中復合光照是由不同配比的紅、藍光復合而成。所有圖像均由C6C型號螢石云攝像機自動拍攝,白天為彩色,夜間為灰度,分辨率為 1 920 像 素×? 1 080 像素,保存為JPEG格式。圖1為一組典型不同光照環(huán)境下的幼苗圖像,可以看出幼苗生長密集且大多較小。

選取500幅圖像,其中正常光照137幅,復合光照174幅,夜間光照189幅。為了豐富圖像數(shù)據(jù)集、減小因樣本數(shù)量不足導致檢測網(wǎng)絡(luò)過擬合的概率,對圖像進行旋轉(zhuǎn)、縮放等操作,實現(xiàn)圖像數(shù)據(jù)擴增;然后進行直方圖增強處理,減小因不同光照環(huán)境導致幼苗識別率降低的影響,提升檢測網(wǎng)絡(luò)的泛化能力。處理后得到 4 000 幅圖像,其中 3 200 幅作為訓練集用于檢測網(wǎng)絡(luò)的訓練,400幅作為驗證集用于檢測網(wǎng)絡(luò)的參數(shù)優(yōu)化調(diào)節(jié),400幅作為測試集用于檢測網(wǎng)絡(luò)的泛化能力驗證。此外,將所有圖像壓縮至416像素×416像素以縮減試驗時間,之后進行人工標注。考慮到圖像中幼苗均為小目標,因此利用每個幼苗的最小外接矩形進行標注,盡量減小標注框內(nèi)包含的背景像素。最后對幼苗圖像重新聚類,得到合適的初始錨框以提升檢測精度。

試驗平臺為臺式計算機,處理器為Inter core i7-9800X,主頻3.8GHz,16GB內(nèi)存,1T固態(tài)硬盤,GPU為NVIDIA GeForce GTX 2080Ti。操作系統(tǒng)為64位Ubuntu16.04,深度學習框架為Darknet。部分參數(shù)設(shè)置為:初始學習率0.001,衰減方式為階梯型(step-based),最大迭代次數(shù) 2.0× 10 4次,每次迭代訓練64個樣本數(shù),學習率分別在 1.6× 10 4和 1.8× 10 4次迭代時衰減為原學習率的0.1,動量設(shè)置為0.9。

2 密集連接型D-YOLOv3幼苗檢測網(wǎng)絡(luò)

選用兼顧速度與精度的YOLOv3作為基礎(chǔ)檢測網(wǎng)絡(luò),針對其小目標檢測效果不理想等問題,改進如下:(1)借鑒密集連接網(wǎng)絡(luò)(Densely connected convolutional networks, DenseNet)的密集連接思想? [18] ,對基于殘差思想的YOLOv3主干網(wǎng)絡(luò)進行改進,提升小目標檢測精度;(2)精簡檢測結(jié)構(gòu),降低檢測時間;(3)改進損失函數(shù),調(diào)整小目標預(yù)測框定位權(quán)重,進一步提高檢測精度。將上述基于密集連接方式而改進的檢測網(wǎng)絡(luò)命名為密集連接型D-YOLOv3(Dense-YOLOv3)。

2.1 密集連接方式的優(yōu)勢

殘差塊是YOLOv3檢測網(wǎng)絡(luò)進行特征提取的基本單元,密集塊(Dense block)是DenseNet的基本組成單元(圖2)。兩者結(jié)構(gòu)上的不同之處在于:(1)殘差塊利用旁路連接將前層卷積輸出信息直接傳遞給后層,密集塊將每一層的輸入與前面所有卷積層輸出相連接。(2)殘差塊將兩層卷積層進行累加,輸出特征圖的維度不增加;密集塊將所有卷積層進行張量拼接,輸出特征圖的維度增加,可以提取更多特征信息。綜上所述,密集連接方式可以增強特征傳播,促進特征復用,減少參數(shù)量,故而對小目標檢測有著極大的促進作用。

2.2 D-YOLOv3幼苗檢測網(wǎng)絡(luò)的構(gòu)建

小目標的檢測需要通過特征圖的淺層信息充分獲取小目標的特征信息? [19] 。本研究根據(jù)幼苗圖像的特點,針對YOLOv3檢測網(wǎng)絡(luò)在小目標檢測中的不足,設(shè)計基于DenseNet的主干網(wǎng)絡(luò)和多尺度檢測結(jié)構(gòu),構(gòu)建D-YOLOv3幼苗檢測網(wǎng)絡(luò)。

YOLOv3檢測網(wǎng)絡(luò)結(jié)構(gòu)如圖3(a)所示,其中卷積單元由卷積層、批量歸一化層和激活函數(shù)順序組成。YOLOv3主干網(wǎng)絡(luò)對輸入圖像進行5次下采樣,第 3~ 5次下采樣順序產(chǎn)生52像 素× 52像素、26像 素× 26像素、13像 素× 13像素特征圖。對小目標的檢測,需要利用殘差塊3提取第3次下采樣后特征圖中的淺層信息,但其提取能力不足導致YOLOv3的檢測能力不足。另一方面,葉菜幼苗大多集中在52像 素× 52像素尺度下,小部分在26像 素× 26像素尺度下,采用兩尺度檢測結(jié)構(gòu)即可完成幼苗檢測,而YOLOv3檢測結(jié)構(gòu)含有3個尺度,導致檢測時間增大。通過上述分析,構(gòu)建如圖3(b)所示的新型D-YOLOv3檢測網(wǎng)絡(luò)。其改進思路如下:(1)針對YOLOv3中殘差結(jié)構(gòu)對小目標特征提取能力不足問題,借鑒密集連接思想,將YOLOv3的殘差塊1、2、3、4分別替換為密集塊1、2、3、5,融合更多層的特征信息來提取更豐富的特征信息,提升小目標的特征提取能力。(2)針對YOLOv3只在第3、4次下采樣后分別利用一個殘差塊進行特征提取,對淺層信息提取能力不足等問題,D-YOLOv3在第3、4次下采樣后添加2個密集塊4、6充分提取淺層特征信息。由于密集塊將所有卷積層進行張量拼接導致特征維度增加,尤其是網(wǎng)絡(luò)層級較深時特征維度一般較大,若不加以限制,特征維度無限增加,網(wǎng)絡(luò)將耗時較長,浪費計算資源。因此,在密集塊3、4、5、6之間添加卷積單元作為過渡層以降低特征維度,用以節(jié)約計算資源。(3)根據(jù)葉菜幼苗不會出現(xiàn)在13像素×13像素尺度下的特點,優(yōu)化檢測結(jié)構(gòu)。保留中、小目標的檢測層1、2,刪除YOLOv3中用于提取較大目標特征的殘差塊5和檢測較大目標的檢測層3,在不降低幼苗檢測能力的同時可以節(jié)約計算資源,減少檢測時間。

綜上所述,借鑒DenseNet密集連接思想,從主干網(wǎng)絡(luò)和檢測結(jié)構(gòu)2個層面對YOLOv3進行重構(gòu)。D-YOLOv3檢測網(wǎng)絡(luò)的主要模塊及其功能如下:(1)采用6個密集塊提升對小目標特征提取的能力;(2)采用4次下采樣提取特征信息,在第3、4次下采樣之后分別加入2個密集塊提取淺層特征信息并利用張量拼接融合2次下采樣的特征;(3)采用2層檢測層對小、中尺度幼苗進行檢測,縮減網(wǎng)絡(luò)檢測時間。

2.3 損失函數(shù)的改進

小目標檢測的難點之一在于其難以定位,合理的損失函數(shù)可以有效降低小目標的定位誤差,加快訓練速度,提升檢測精度。YOLOv3的損失函數(shù)包含預(yù)測框定位誤差、置信度誤差和類別誤差3部分。本研究從降低小目標預(yù)測框定位誤差的角度對YOLOv3損失函數(shù)進行改進。借鑒Kisantal等? [20] 的小目標檢測思想,通過修正預(yù)測框中心點和長寬誤差的權(quán)重系數(shù)減小原損失函數(shù)的預(yù)測框定位誤差。據(jù)此,將YOLOv3的損失函數(shù) L 改進如下:

L=k(2-w*h)[L(x,y)+L(w,y)]+k? conf? L(conf)+ k cL(c)? (1)

式中, L(x,y) 、 L(w,y) 分別為預(yù)測邊界框中心坐標( x、y )和寬( w)、 高 (h) 的誤差; L(conf) 、 L(c) 分別為預(yù)測置信度( conf )和類別( c )的誤差; k? conf? 、 k c 為相應(yīng)誤差的權(quán)重系數(shù); k 為預(yù)測框中心點和寬高誤差的修正系數(shù)。

3 葉菜幼苗圖像檢測試驗結(jié)果與分析

首先確定最佳修正系數(shù),然后將YOLOv3檢測網(wǎng)絡(luò)與D-YOLOv3檢測網(wǎng)絡(luò)進行對比試驗。為驗證D-YOLOv3檢測網(wǎng)絡(luò)在溫室復雜環(huán)境中的檢測性能,分別以幼苗密集程度、光照為控制變量對檢測網(wǎng)絡(luò)的性能進行評估,并與YOLOv3檢測網(wǎng)絡(luò)的檢測效果進行對比。

3.1 檢測網(wǎng)絡(luò)的性能評價指標

采用檢測精度( P?? a )、檢測時間( t?? d )作為檢測網(wǎng)絡(luò)的主要性能評價指標。 P?? a 為檢測網(wǎng)絡(luò)測試目標的平均檢測精度,其值越大檢測網(wǎng)絡(luò)的性能越好。 t?? d 為檢測網(wǎng)絡(luò)測試時所用時間,其值越小檢測性能越好。準確率( P )表示所有被預(yù)測為正樣本中實際為正樣本的概率,召回率( R )表示實際為正樣本中被預(yù)測為正樣本的概率。檢測精度( P?? a )與準確率( P )和召回率( R )有關(guān),三者的計算公式如下:

P = ?T? P ?T? P+ F? P? (2)

R = ?T? P ?T? P+ F? N? (3)

P? a= ∫ 1 0 P*RdR? (4)

式中 ?T?? P 為被正確劃分為正樣本的數(shù)量, F?? P 為被錯誤劃分為正樣本的數(shù)量, F?? N 為被錯誤劃分為負樣本的數(shù)量。

P?? a 從 R 和 P 兩方面來衡量檢測算法的準確性,是評價檢測模型準確性的直觀評價標準,可以用來分析單個類別的檢測效果? [21] 。

3.2 修正系數(shù)的確定

保持式(1)其他參數(shù)不變,改變修正系數(shù)( k ),分別針對YOLOv3和D-YOLOv3檢測網(wǎng)絡(luò)進行訓練。由于損失函數(shù)( L )對修正系數(shù)( k )的變化較為敏感,因此對 k 進行微調(diào)即可, k 取值區(qū)間為[1.0,2.0],步長取0.1。網(wǎng)絡(luò)訓練結(jié)束時得到一組對應(yīng)的損失函數(shù)值,再利用訓練好的網(wǎng)絡(luò)對測試集進行測試,得到對應(yīng)的檢測精度值,試驗結(jié)果如表1和表2所示。

由表1、表2可以看出,當? k = 1.5時,YOLOv3的損失函數(shù)( L )最小,檢測精度 P?? a 最高;當? k = 1.7時,D-YOLOv3的損失函數(shù)( L )最小,檢測精度( P?? a )最高。1.5和1.7即分別為YOLOv3和D-YOLOv3的最佳修正系數(shù)。

3.3 不同檢測網(wǎng)絡(luò)的性能對比

為了驗證D-YOLOv3檢測網(wǎng)絡(luò)中主干網(wǎng)絡(luò)、檢測結(jié)構(gòu)以及損失函數(shù)3方面的改進效果,選取表3所示的5種對比網(wǎng)絡(luò)。其中(1)保留YOLOv3的主干網(wǎng)絡(luò)和3層檢測結(jié)構(gòu),只改進損失函數(shù),將其稱為D1-YOLOv3;(2)以YOLOv3為基礎(chǔ),主干網(wǎng)絡(luò)采用密集連接方式,保留3層檢測結(jié)構(gòu),不改進損失函數(shù),將其稱為D2-YOLOv3;(3)以YOLOv3為基礎(chǔ),主干網(wǎng)絡(luò)采用密集連接方式,采用2層檢測結(jié)構(gòu),不改進損失函數(shù),將其稱為D3-YOLOv3。

衡量檢測網(wǎng)絡(luò)的2個重要指標是平均檢測精度( P?? a )和檢測時間( t?? d )。上述5種檢測網(wǎng)絡(luò)的檢測性能試驗結(jié)果(表4)顯示:(1)無論是采用殘差塊連接方式的YOLOv3和D1-YOLOv3,還是采用密集塊連接方式的D3-YOLOv3和D-YOLOv3對比試驗組,單獨改進損失函數(shù)均可以不同程度地提升檢測精度( P?? a );(2)與采用殘差塊連接方式的YOLOv3相比,采用密集塊連接方式的D2-YOLOv3的檢測精度( P?? a )顯著提升且檢測時間( t?? d )略有降低;(3)與檢測層數(shù)較多的D2-YOLOv3相比,檢測層數(shù)較少的D3-YOLOv3的檢測時間( t?? d )大幅下降;(4)與沒有任何改進的YOLOv3相比,同時改進了主干網(wǎng)絡(luò)、檢測結(jié)構(gòu)以及損失函數(shù)的D-YOLOv3,其檢測精度提升9.40個百分點,檢測時間降低4.07 ms,檢測性能全面超越Y(jié)OLOv3。

3.4 D-YOLOv3和YOLOv3網(wǎng)絡(luò)對不同密集程度幼苗的檢測性能對比

以幼苗密集程度作為控制變量采集正常光照環(huán)境下的圖像190幅,按照每幅圖像所含幼苗的株數(shù) n 分為3類,其中 n <40的圖像有36幅, 40≤?? n ≤ 60的圖像有82幅,? n > 60的圖像有72幅。圖4a、圖4b分別為D-YOLOv3和YOLOv3兩種檢測網(wǎng)絡(luò)對不同密集程度幼苗的檢測結(jié)果,紫色方框代表幼苗的預(yù)測框,預(yù)測框位置正確且數(shù)量越多表示幼苗識別率越高。可以看出,在 40≤?? n ≤ 60尤其是 n >60情況下圖4a中預(yù)測框數(shù)量明顯偏多,意味著 D-YOLOv3檢測網(wǎng)絡(luò)的植株識別能力確實比YOLOv3的識別能力強。表5為兩種網(wǎng)絡(luò)對不同密集程度幼苗的檢測性能指標??梢钥闯?,(1)在不同幼苗密集程度下D-YOLOv3檢測網(wǎng)絡(luò)的檢測精度( P?? a )均高于YOLOv3,尤其在? n > 60的情況下 P?? a 高出16.41個百分點。這是因為隨著幼苗數(shù)量的增加其分布越密集,每株幼苗在圖像中的占比越小,YOLOv3檢測網(wǎng)絡(luò)對小目標的檢測能力不足,因此精度大幅下降。另一方面,在密集程度不同的情況下D-YOLOv3檢測網(wǎng)絡(luò)的 P?? a 波動不大,說明D-YOLOv3檢測網(wǎng)絡(luò)在不同密集程度下均具有良好的性能。(2)隨著幼苗密集程度的增大,D-YOLOv3和YOLOv3兩種檢測網(wǎng)絡(luò)的檢測時間( t?? d )均有不同程度的增大,但在相同密集程度下D-YOLOv3檢測網(wǎng)絡(luò)的 t?? d 均比YOLOv3的 t?? d 小,且密集程度越大D-YOLOv3檢測網(wǎng)絡(luò)的 t?? d 與YOLOv3檢測網(wǎng)絡(luò)的 t?? d 的差值越大。

3.5 D-YOLOv3和YOLOv3網(wǎng)絡(luò)在不同光照環(huán)境下檢測性能對比

分別取正常光照、夜間光照、復合光照圖像93幅、64幅、43幅,用D-YOLOv3和YOLOv3檢測網(wǎng)絡(luò)對不同光照環(huán)境下幼苗進行檢測。可以看出,在復合光照和夜間光照環(huán)境下圖5a中紫色預(yù)測框的數(shù)量明顯偏多,即D-YOLOv3對幼苗的識別能力優(yōu)于YOLOv3。

由表6可以看出:(1)無論是D-YOLOv3檢測網(wǎng)絡(luò)還是YOLOv3檢測網(wǎng)絡(luò),正常光照環(huán)境下的性能指標均為最好,夜間光照環(huán)境下的性能指標均為最差。原因是夜間光照下幼苗特征信息丟失嚴重,導致其平均檢測精度降低,易產(chǎn)生誤檢和漏檢。(2)無論哪種光照環(huán)境下D-YOLOv3檢測網(wǎng)絡(luò)的檢測精度( P?? a )和檢測時間( t?? d )均優(yōu)于YOLOv3網(wǎng)絡(luò)。說明D-YOLOv3檢測網(wǎng)絡(luò)在不同光照下對小目標的特征提取能力更強,檢測幼苗的能力更為突出。需要指出的是,正常光照、夜間光照環(huán)境下圖像中幼苗數(shù)量較少 ( n < 40),而在復合光照環(huán)境下圖像中幼苗個數(shù)較多 ( n > 60),導致復合光照環(huán)境下的檢測時間偏長。

4 結(jié) 論

基于Kisantal等? [20] 的小目標檢測思想改進損失函數(shù),通過試驗確定了修正系數(shù)。構(gòu)建了幾種檢測網(wǎng)絡(luò),通過對比試驗驗證了采用改進YOLOv3主干網(wǎng)絡(luò)、檢測結(jié)構(gòu)和損失函數(shù)的方法可以有效地提升檢測網(wǎng)絡(luò)的檢測精度、檢測時間等性能指標。

針對溫室環(huán)境下葉菜幼苗圖像識別問題,通過改進YOLOv3的主干網(wǎng)絡(luò)、檢測結(jié)構(gòu)和損失函數(shù),提出了一種密集連接型D-YOLOv3檢測網(wǎng)絡(luò),檢測精度達到93.44%,單幅圖像平均檢測時間為12.61 ms。

對YOLOv3和D-YOLOv3檢測網(wǎng)絡(luò)在不同密集程度和不同光照環(huán)境下幼苗圖像的檢測性能進行了對比試驗。在不同幼苗密集程度下D-YOLOv3的檢測精度和檢測時間均優(yōu)于YOLOv3;在不同密集程度下D-YOLOv3檢測網(wǎng)絡(luò)的檢測精度波動不大,且密集程度越大D-YOLOv3檢測網(wǎng)絡(luò)的檢測時間比YOLOv3檢測網(wǎng)絡(luò)縮短的越大;D-YOLOv3在不同光照環(huán)境下對小目標的特征提取能力均好于YOLOv3。

參考文獻:

[1]? GRINBLAT G L, UZAL L C, LARESE M G, et al. Deep learning for plant identification using vein morphological patterns [J]. Computers and Electronics in Agriculture, 2016, 127: 418-424.

[2]? DYRMANN M, KARSTOFT H, MIDTIBY H S. Plant species classification using deep convolutional neural network [J]. Biosystems Engineering, 2016, 151: 72-80.

[3]? OPPENHEIM D, SHANI G. Potato disease classification using convolution neural networks [J]. Advances in Animal Biosciences, 2017, 8: 244-249.

[4] LU H, CAO Z, XIAO Y, et al. Tasselnet: Counting maize tassels in the wild via local counts regression network [J]. Plant Method, 2017, 13: 79-92.

[5] 劉 芳,劉玉坤,林 森,等. 基于改進型YOLO的復雜環(huán)境下番茄果實快速識別方法[J].農(nóng)業(yè)機械學報, 2020,51(6):229-237.

[6] TELLAECHE A, PAJARES G, BURGOS-ARTIZZU X P, et al. A computer vision approach for weeds identification through Support Vector Machines [J]. Applied Soft Computing, 2011, 11(1): 908-915.

[7] JAGAN K M, BALASUBRAMANIAN M, PALANIVEL S. Detection and recognition of diseases from paddy plant leaf images [J]. International Journal of Computer Applications, 2016, 144: 34-41.

[8] 崔日鮮,劉亞東,付金東. 基于機器學習和可見光光譜的冬小麥葉片氮積累量估算[J].光譜學與光譜分析, 2016, 36(6): 1837-1842.

[9] DUAN L, HUANG C, CHEN G, et al. Determination of rice panicle numbers during heading by multi-angle imaging[J]. The Crop Journal, 2015, 3: 211-219.

[10] SADEGHI T P, SABERMANESH K, VIRLET N, et al. Automated method to determine two critical growth stages of wheat: Heading and flowering [J]. Front Plant Science, 2017, 8: 252-265.

[11] 翁 楊,曾 睿,吳陳銘,等. 基于深度學習的農(nóng)業(yè)植物表型研究綜述[J]. 中國科學: 生命科學, 2019, 49(6): 698-716.

[12] GIRSHICK R. Fast R-CNN[C]. Santiago, Chile: Proceedings of the IEEE international conference on computer vision, 2015: 1440-1448.

[13] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.

[14] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]. Ohio: conference on Computer Vision and Pattern Recognition, 2016: 779-788.

[15] REDMON J, FARHADI A. YOLO9000: better, faster,stronger[C]. Ohio: Conference on Computer Vision and Pattern Recognition, 2017: 6517-6525

[16] [16] REDMON J, FARHADI A. YOLOv3: An incremental improvement [DB/OL]. (2018-04-18) [2020-03-01]. https://arxiv.org/pdf/1804.02767.pdf.

[17] 孫 哲,張春龍,葛魯鎮(zhèn),等. 基于Faster R-CNN的田間西蘭花幼苗圖像檢測方法[J].農(nóng)業(yè)機械學報, 2019, 50(7): 216-221.

[18] GAO H,ZHANG L.Densely connected convolutional networks[C]. Ohio: Conference on Computer Vision and Pattern Recognition, 2017:1-28.

[19] 吳天舒,張志佳,劉云鵬,等. 基于改進SSD的輕量化小目標檢測算法[J]. 紅外與激光工程,2018,47(7):47-53.

[20] KISANTAL M, WOJNA Z, MURAWSKI J, et al. Augmentation for small object detection[DB/OL]. (2019-02-19) [2020-03-01]. https://www.researchgate.net/publication/338171640.

[21] 馮小雨,梅 衛(wèi),胡大帥. 基于改進Faster R-CNN的空中目標檢測[J].光學學報,2018,38(6):250-258.

(責任編輯:張震林)