余鴻暉,鄭積仕*,張世文,周文剛,孔令華,丁志剛,楊水保
(1. 福建工程學(xué)院交通運輸學(xué)院,福州 350118; 2. 福建金森林業(yè)股份有限公司,三明 353300;3. 福建工程學(xué)院機械與汽車工程學(xué)院,福州 350118)
樹木作為寶貴的可再生資源,其高效率的開發(fā)和利用能促進經(jīng)濟的發(fā)展以及更早地實現(xiàn)碳中和,而信息化發(fā)展是當(dāng)前我國林業(yè)發(fā)展的優(yōu)勢和新方向[1]。林木采伐、運輸、楞場管理等生產(chǎn)過程中的幾個環(huán)節(jié)都需要確定檢量木材的去皮直徑和材長,然后參照GB/T 4814—2013《原木材積表》查得該木材的材積(m3),通過材積實現(xiàn)生產(chǎn)結(jié)算和銷售貨款結(jié)算。并且我國木材檢驗標(biāo)準(zhǔn)中規(guī)定,原木以小頭端面的去皮直徑作為檢尺直徑,均以2 cm為一增進單位,不足1 cm時舍去。材長除特殊要求外,原木按0.2 m進級。效率低、主觀性強、檢尺結(jié)果無法可視化等一直是傳統(tǒng)人工檢尺存在的問題。
隨著計算機視覺技術(shù)的發(fā)展,原木檢測技術(shù)可主要分為兩個方向。一個是傳統(tǒng)的圖像處理,如龔鼎盛等[2]提出了基于類圓目標(biāo)歸一化的木材切面輪廓檢測方法。辛穎等[3]通過對原木圖像進行灰度化、濾波、邊緣增強等數(shù)字圖像處理手段進行圖像預(yù)處理,利用二值化方法實現(xiàn)原木與背景相分離,對于原木端面面積檢測有著較準(zhǔn)確的結(jié)果。郝泉齡等[4]采用一種基于OpenCV的圖像處理技術(shù)識別樣木圖像缺陷部分,實現(xiàn)了心材和邊材缺陷面積的定量表征。方晴[5]基于計算機視覺和圖像處理技術(shù)提出一種原木數(shù)量統(tǒng)計方法,首先在Lab空間進行圖像預(yù)處理并重構(gòu)回RGB空間得到二值圖像,再結(jié)合Hough變換圓檢測和先驗知識,得到較精確的分割結(jié)果,試驗表明,對車載原木數(shù)量統(tǒng)計精度達90%以上。另一個是深度學(xué)習(xí)圖像檢測,如林耀海等[6]開發(fā)出了結(jié)合YOLOv3-tiny與Hough圓變換[7]的等長原木材積檢測系統(tǒng),系統(tǒng)真檢率為98.79%,誤檢率為0.602%。楊攀等[8]提出一種基于Mask R-CNN實例分割模型的原木分割方法,在密集場景下對原木分割效果良好。丁博文[9]提出了基于SSD(single shot multibox detector)模型對原木橫截面進行檢測,并使用圖像處理手段對有效區(qū)域進行分割,完成對原木橫截面的測量。劉嘉政等[10]通過基于改進的卷積神經(jīng)網(wǎng)絡(luò)模型,對樹種的檢測識別效果明顯高于傳統(tǒng)方法。Samdangdech等[11]提出了一種將SSD模型和FCN語義分割模型相結(jié)合來實現(xiàn)車載桉樹圖片分割的方法,但是對有部分遮擋的原木分割效果仍不理想,甚至出現(xiàn)漏分割。
總結(jié)以上方法,基于傳統(tǒng)圖像處理的原木檢測方法需要對圖像進行處理,將目標(biāo)與背景分開,魯棒性不高且對復(fù)雜環(huán)境下的原木檢測效果不佳。基于通用深度學(xué)習(xí)的模型雖然在原木檢測中做了大量研究,且相比傳統(tǒng)方法有效提升了檢測性能,但對原木進行高精度檢測及輕量化模型的研究鮮見有效成果。筆者構(gòu)建了一個真實貨場的整車原木圖像數(shù)據(jù)集,提出一種TWD-YOLOv5的整車原木數(shù)量檢測方法。該方法基于YOLOv5架構(gòu),結(jié)合注意力機制模型(convolutional block attention module,CBAM)[12]對主干網(wǎng)絡(luò)改進和調(diào)整,減少了模型參數(shù)并提取出了更積極有效的特征,在主干網(wǎng)絡(luò)結(jié)構(gòu)中加入了Transformer[13]模塊,與卷積層形成互補,從而進一步提升網(wǎng)絡(luò)特征提取能力;設(shè)計增加一層檢測尺度結(jié)構(gòu)來滿足對過小目標(biāo)物體的檢測需求;重新設(shè)計特征融合網(wǎng)絡(luò),融合了Ghost卷積[14]從而大大降低了模型復(fù)雜度;使用CIoU作為邊界框回歸的損失函數(shù)以及使用DIoU-nms來作為篩選預(yù)測框的算法。試驗表明,本研究方法對整車原木場景下的原木有良好的檢測效果,解決了原木被遮擋的問題,且檢測速度快,能做到實時檢測,另外該算法有較強的魯棒性且模型較小,可以滿足部署至移動端進行目標(biāo)檢測的輕量化需求。
目前,目標(biāo)檢測框架分為兩類:一類為兩階段檢測,如Faster R-CNN[15]、Cascade R-CNN[16]等;另一類為一階段檢測,如RetinaNet[17]、SSD[18]、CenterNet[19]等。
YOLOv5由輸入端、Backbone、Neck、Head構(gòu)成。Backbone主要包括Focus和CSP[20]模塊作為特征提取網(wǎng)絡(luò),F(xiàn)ocus模塊不僅實現(xiàn)了下采樣,還減少了計算量,而CSP模塊作為加強特征提取的核心;Neck中使用FPN[21]與PAN[22]結(jié)合的結(jié)構(gòu);Head輸出包括目標(biāo)的Probability、Score以及Bounding-box。整個YOLOv5模型結(jié)構(gòu)如圖1所示。
圖1 YOLOv5算法結(jié)構(gòu)Fig. 1 YOLOv5 algorithm structure
盡管YOLOv5已具備良好的推理速度和檢測性能,但針對本研究所要解決的問題仍存在以下缺陷:
1)在實際整車原木中存在許多間伐林原木,這些原木徑級小,對于密集且太小的原木,模型檢測效果不佳;
2)在原木裝車過程中,駕駛員操作鉤機將原木放入貨車中,在抓取的過程中容易將一些雜草、泥土等雜物一并放入,這些雜物會將原木端面遮擋,從而導(dǎo)致原木漏檢;
3)大量卷積和深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會導(dǎo)致模型復(fù)雜度過大,增加了模型部署至移動端或嵌入式系統(tǒng)的難度,林業(yè)生產(chǎn)的特殊環(huán)境,要求智能化檢尺程序需部署在方便使用的移動端或嵌入式系統(tǒng)設(shè)備中。
針對YOLOv5在整車原木檢測中存在的問題,本研究對模型做出以下改進來提升對原木的檢測效果:1)對CSP結(jié)構(gòu)進行修改,加入注意力機制以及在主干網(wǎng)絡(luò)的最后一層加入Transformer模塊,通過通道注意力來強化重要的特征、抑制非重要的特征以及空間注意力來增強感興趣的特定目標(biāo)區(qū)域,同時弱化不相關(guān)的背景區(qū)域,幫助模型更加精準(zhǔn)地定位和識別感興趣區(qū)域,并減少模塊數(shù)量來保留更多的淺層特征,加強了對小徑原木的特征提取,通過Transformer來加強網(wǎng)絡(luò)特征提取的全局性;2)在原有網(wǎng)絡(luò)結(jié)構(gòu)的3層檢測層上增加了小目標(biāo)檢測層,提高了對小徑原木的檢測性能;3)在特征融合結(jié)構(gòu)中通過使用Ghost卷積來降低模型復(fù)雜度以及融合更淺層的特征圖和深層特征圖,從而提高對中小尺寸目標(biāo)的檢測性能;4)通過CIoU_loss使模型在回歸框定位時更加精準(zhǔn),提高模型的檢測性能,并且使用DIoU-nms來優(yōu)化預(yù)測框的選擇,可以一定程度上提升對于靠近物體的檢測,從而改善原木因遮擋而漏檢的問題。
2.1.1 優(yōu)化CSP結(jié)構(gòu)
中小目標(biāo)的特征主要集中在神經(jīng)網(wǎng)絡(luò)的淺層部分,通過將主干網(wǎng)絡(luò)中的BottleneckCSP模塊數(shù)量減少至(×2,×6,×6,×2)能有效地提高網(wǎng)絡(luò)對中小目標(biāo)的檢測能力;并且在CSP加入CBAM卷積塊注意模塊構(gòu)成CBAMCSP模塊, 同時對通道注意力和空間注意力進行評價和評分,分別專注于“是什么”和“在哪里”。CBAM的整體結(jié)構(gòu)如圖2所示。
圖2 注意力機制模塊結(jié)構(gòu)Fig. 2 Structure of attention mechanism module
由圖2可知,輸入特征先通過通道注意力模塊,再通過空間注意力模塊。通道注意力模塊首先通過使用平均池化操作和最大池化操作來聚合特征圖上的空間信息,然后再進入一個共享網(wǎng)絡(luò)(MLP)。通道注意力機制MC(F)如式(1)所示:
MC(F)=σ{MLP[AvgPool(F)]+
MLP[MaxPool(F)]}
(1)
式中:AvgPool表示平均池化操作;MaxPool表示最大池化操作;MLP表示多層感知機操作;σ表示sigmiod操作。空間注意力機制利用特征的空間關(guān)系生成空間注意圖,與通道注意力不同的是,空間注意力集中“在哪里”的信息,是對通道注意力的補充??臻g注意力機制MS(F)如式(2)所示:
MS(F)=σ(f7×7{[AvgPool(F);MaxPool(F)]})
(2)
式中,7×7表示卷積核的大小。
2.1.2 加入增強全局特性的Transformer模塊
本研究將Transformer模塊加入BottleneckCSP中,構(gòu)建TRCSP模塊。卷積是一種將鄰近像素的關(guān)系進行建模的操作,這種操作具有局部性,Transformer則是全局操作,一個Transformer層能建模所有像素之間的關(guān)系,雙方可以很好地進行互補。Transformer網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
圖3 Transformer模塊結(jié)構(gòu)Fig. 3 Transformer module structure
對主干網(wǎng)絡(luò)最后一層的特征圖可視化,如圖4所示。原始主干網(wǎng)絡(luò)對原木的特征進行提取,所提取出的有效特征是比較分散的、不完整的,而帶有CBAM注意力機制和Transformer模塊的主干網(wǎng)絡(luò)提取的有效特征是相對集中和完整的。
圖4 部分樣本特征圖可視化Fig. 4 Partial sample feature map visualization
所需檢測的車裝原木有較多小目標(biāo),原有的多尺度檢測結(jié)構(gòu)對此類目標(biāo)易造成漏檢。為解決此問題,對多尺度檢測結(jié)構(gòu)進行改進,從而降低小目標(biāo)的漏檢率。主要的操作是通過在第17層后對特征圖進行上采樣等操作獲得更大的特征圖信息,并在第20層使用Concat與Backbone網(wǎng)絡(luò)中的第2層特征信息進行特征融合來進行小目標(biāo)的檢測,并在第21層(檢測層)增加小目標(biāo)檢測層,從而使整個模型在改進后一共使用4層檢測層來進行檢測。設(shè)計的4個檢測尺度同時利用了底層特征高分辨率和高層特征的高語義信息,可以緩解劇烈的目標(biāo)尺度變化帶來的負(fù)面影響,且并未過多地增加網(wǎng)絡(luò)復(fù)雜度。
利用好特征層中相似的特征信息能更有效地檢測目標(biāo),但是一般卷積來生成相似的特征信息需要大量的模型參數(shù),而通過Ghost卷積操作能以較低的成本來生成這些相似的特征。通過將原始Neck網(wǎng)絡(luò)中的Conv卷積替換為Ghost卷積,構(gòu)建GhostConv和GhostCSP模塊;通過降低少量精度來大幅降低模型的復(fù)雜度。輸入層的通道數(shù)是c,輸出層的通道數(shù)是n,k為卷積核的大小,d為線性操作,即Ghost模塊的核大小。理論計算將模型縮小為原來的s倍,則壓縮比rc為:
(3)
底層的特征信息有較清晰的圖像,且位置信息更為準(zhǔn)確,從而能反映出目標(biāo)的具體內(nèi)容;頂層的特征信息經(jīng)多次卷積操作后具有更強的語義信息,能更好地表達人類所能夠理解的圖像信息,但其圖像較模糊。由于自建數(shù)據(jù)集中的原木大部分都為中小尺寸,將底層特征與頂層特征進行融合能提高檢測性能。
由于本研究中改進的網(wǎng)絡(luò)架構(gòu)的第24層和27層輸出特征圖為小型和中型對象目標(biāo)檢測層的輸入特征圖,為提高原木檢測準(zhǔn)確率,彌補高層特征低分辨率造成的空間信息損失,通過融合多層來提升模型檢測性能,對原始體系結(jié)構(gòu)中輸入到小型和中型對象規(guī)模目標(biāo)檢測層的特征融合進行改進,將原始模型中14與18層的特征融合改為11與26層,配合增加檢測層之后15與23層的特征融合操作,將下層感受野較大的特征提取層的輸出與目標(biāo)檢測層之前特征提取層的輸出融合。具體網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計見圖5。本研究改進的YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)可以更好地適應(yīng)整車原木場景下對原木的檢測,同時可一定程度上提升小目標(biāo)原木的檢測準(zhǔn)確率。
圖5 改進的YOLOv5算法結(jié)構(gòu)Fig. 5 Improved YOLOv5 algorithm structure
YOLOv5損失函數(shù)中位置損失函數(shù)lbox使用GIoU損失函數(shù)(公式中記為GIoU)定義,如式(4)所示:
(4)
式中:IoU為交并比;A表示真實框區(qū)域;B表示預(yù)測框區(qū)域;C表示A、B的最小外接矩形。
YOLOv5原始模型中使用GIoU_loss作為邊界框的回歸損失函數(shù),在GIoU_loss中增加了相交尺度的衡量方式,從而解決了IoU_loss中當(dāng)預(yù)測框和目標(biāo)框不相交,即IoU=0時損失函數(shù)不可導(dǎo),從而導(dǎo)致IoU_loss無法優(yōu)化兩個框不相交的情況,同時也解決了當(dāng)兩個預(yù)測框大小相同、兩個IoU也相同時IoU_loss無法區(qū)分兩者相交的情況,但是GIoU無法考慮邊界框的重疊面積和中心點距離。針對這些問題,本研究采用CIoU_loss作為原木檢測邊界框的損失函數(shù)(公式中記為CIoU_loss),如式(5)和(6)所示:
(5)
(6)
式中:α為用于平衡比例的參數(shù);b、bgt分別為anchor框和目標(biāo)框的中心點;ρ為兩個中心點間的歐式距離;c1為能夠同時覆蓋anchor和目標(biāo)框的最小矩形的對角線距離;w、h分別為anchor框的寬與高;wgt、hgt分別為目標(biāo)框的寬與高;v為長寬比。
CIoU通過增加ρ和v這兩個幾何因素,使模型在回歸框定位時更加精準(zhǔn),從而提高模型的檢測性能。DIoU-nms能改善當(dāng)IoU為閾值時,當(dāng)多個目標(biāo)過于接近時導(dǎo)致有目標(biāo)的預(yù)測框被濾除的情況,如圖6所示,在使用了DIoU-nms算法后能比較有效地改善原木被遮擋而漏檢的情況。
圖6 NMS與DIoU-nms效果對比Fig. 6 Effect comparison between algorithms of NMS and DIoU-nms
本研究的數(shù)據(jù)來源于福建金森林業(yè)股份有限公司某原木貨場,使用1 600×1 200像素分辨率的NV201E工業(yè)相機以及手機相機等設(shè)備進行圖像采集。經(jīng)過篩選,挑選出107張整車原木圖片構(gòu)建圖像數(shù)據(jù)集,將采集到的數(shù)據(jù)進行整理和篩選,用labelme軟件對采集到的圖片中所有的原木輪廓進行標(biāo)注,構(gòu)建車裝原木數(shù)據(jù)集,標(biāo)注原木13 134個,模型能夠?qū)W習(xí)到標(biāo)注出的原木特征。數(shù)據(jù)集的部分樣本如圖7所示。
圖7 數(shù)據(jù)集部分樣本Fig. 7 Partial samples of the data set
在Win10操作系統(tǒng)下,使用RTX3060顯卡,Pytorch1.9.0、CUDA11.1實現(xiàn)模型的搭建及訓(xùn)練工作。YOLOv5算法的訓(xùn)練與測試采用COCO和VOC數(shù)據(jù)集,數(shù)據(jù)集中目標(biāo)種類多,引入先驗框的值具有一定的適用性,并不專門針對原木檢測設(shè)計,易造成缺陷漏檢及檢測定位不準(zhǔn)確的問題,在網(wǎng)絡(luò)訓(xùn)練前,使用K-Means算法計算先驗框尺寸。初始錨框的參數(shù)設(shè)定為[10,9 13,13 16,15 19,18 21,21 24,24 ]、[28,27 32,31 37, 36 43,43 52,51 66,67]、 [10,9 13,13 16,15 19,18 21,21 24,24 ]、[28,27 31,31 37, 36 42,43 51,50 66,67],根據(jù)8∶1∶1的比例,隨機將87張圖片作為訓(xùn)練集,9張圖片作為驗證集和11張圖片作為測試集。使用COCO訓(xùn)練集上訓(xùn)練好的預(yù)訓(xùn)練權(quán)重進行遷移學(xué)習(xí),對模型參數(shù)初始化,設(shè)置初始學(xué)習(xí)率為0.01,訓(xùn)練Epoch數(shù)為300,批量大小為1,前5輪進行Warm up操作來穩(wěn)定訓(xùn)練前期的參數(shù),使用隨機梯度下降進行參數(shù)的梯度優(yōu)化,設(shè)定圖片輸入尺寸為1 088×1 088。
為了更客觀、系統(tǒng)地評估本研究方法TWD-YOLOv5對整車原木檢測的可行性,本試驗采用平均精度均值(mAP)、每秒傳輸幀數(shù)和原木真檢率這3個指標(biāo)來評估原木檢測的結(jié)果,3個評估指標(biāo)越大代表模型的原木檢測性能越好。
本試驗采用COCO數(shù)據(jù)集定義的目標(biāo)檢測通用評價指標(biāo)mAP,對IoU閾值自0.5到0.95下模型訓(xùn)練精度進行統(tǒng)計;本研究還將原木檢測計數(shù)作為其中一個目標(biāo),原木的真檢率越高表示模型檢測性能越高,本研究根據(jù)模型輸出的原木預(yù)測框分別統(tǒng)計測試集中所檢測出的原木檢測數(shù)量、誤檢數(shù)量、漏檢數(shù)量、真檢數(shù)量,同時根據(jù)實際原木數(shù)量的統(tǒng)計數(shù)據(jù),計算模型原木的真檢率與漏檢率;模型推理速度通過使用服務(wù)器NVIDIA GeForce RTX3060顯卡環(huán)境下,檢測試驗圖片數(shù)據(jù),求均值得到100張圖像的檢測時長。
本研究共設(shè)計了4組試驗,分別為不同改進部分對模型檢測性能的影響、通過消融試驗來說明Attention與Transformer對模型的影響、主流實時檢測模型性能對比以及主流目標(biāo)檢測模型對原木真檢性能對比。通過3組試驗,首先在YOLOv5架構(gòu)下分析本研究不同改進部分對網(wǎng)絡(luò)性能的影響,再通過本研究方法與主流檢測網(wǎng)絡(luò)YOLOv3、YOLOv4、SSD、Faster R-CNN進行性能對比,綜合分析本研究方法的性能。
3.4.1 改進方法對模型性能的影響
為分析本研究提出的改進方法對YOLOv5算法性能的影響,設(shè)計了4種方案對不同改進部分進行分析,每種方案使用相同的訓(xùn)練參數(shù),不同方法對模型檢測性能所產(chǎn)生影響的結(jié)果見表1,其中,“√”和“×”分別代表在網(wǎng)絡(luò)模型中使用和未使用對應(yīng)的改進策略。由表1可知:方案1在主干網(wǎng)絡(luò)中使用CBAMConv結(jié)構(gòu)代替原有的Conv且改變了CSP的模塊數(shù)量,在利用了更多的淺層特征信息來檢測小目標(biāo)的同時加入了注意力機制來增強檢測效果,同時引入Transformer模塊,與卷積形成互補,使得模型在原有基礎(chǔ)上mAP有所提升,每秒傳輸幀數(shù)有較大提升且減少了參數(shù)數(shù)量;方案2加入新的檢測尺度對特征進行提取,使原有結(jié)構(gòu)難以檢測的較小尺寸目標(biāo)可以檢出,有效提升mAP達0.052;方案3針對數(shù)據(jù)集中中小目標(biāo)較多的特點,使用新設(shè)計的特征融合結(jié)構(gòu),將更加底層的特征圖與高層特征圖進行融合,提高模型的特征提取能力,搭配Ghost卷積來降低模型參數(shù),使得模型參數(shù)降低35.7%并提升每秒傳輸幀數(shù);最后方案4引入CIoU作為邊界框回歸的損失函數(shù),提高模型邊界框的定位精度,并采用DIoU-nms來改善目標(biāo)被遮擋的情況。本研究中TWD-YOLOv5模型的mAP為0.731,比改進前YOLOv5的mAP提高0.03,每秒傳輸幀數(shù)為7.33,比原始模型高了2.53,模型參數(shù)降低了40.5%。改進前后的檢測效果對比見圖8。為了驗證本研究算法的魯棒性,在光線弱、有遮擋情況的條件下進行試驗,檢測效果良好,算法的魯棒性較強,如圖9所示。本研究的TWD-YOLOv5模型較小,更利于移動端、嵌入式設(shè)備的使用,因此通過部署至Android端(Vivo Neo3)進行驗證,通過模型轉(zhuǎn)換等操作對TWD-YOLOv5模型進行處理部署至手機,最終檢測效果如圖10所示,每秒傳輸幀數(shù)為0.492,證明了該模型部署至移動端、嵌入式設(shè)備的可行性。
表1 不同的改進試驗方法Table 1 Improvements of different experimental methods
圖8 改進前后效果對比Fig. 8 Effect comparison before and after improvement
圖9 在光線弱、遮擋情況條件下的檢測效果Fig. 9 The detection effect under the condition of weak light and occlusion
圖10 移動端檢測效果Fig. 10 Mobile terminal detection effect
3.4.2 消融試驗
為了驗證TWD-YOLOv5中所用的Attention機制與Transformer對YOLOv5的優(yōu)化作用,本研究進行了消融試驗。首先將YOLOv5中的Conv結(jié)構(gòu)替換為CBAMConv,從而加入Attention機制,之后將YOLOv5加入Transformer模塊,通過消融試驗分別比較了YOLOv5加入Attention和Transformer的算法mAP、每秒傳輸幀數(shù)和參數(shù)數(shù)量。TWD-YOLOv5消融試驗見表2,由表2可以看出,原YOLOv5模型的mAP為0.701,每秒傳輸幀數(shù)為 4.8,參數(shù)數(shù)量為88.4 M,在加入Attention機制后mAP略微提升0.01,每秒傳輸幀數(shù)提升了4.63,由此證明了加入Attention機制的有效性。原YOLOv5模型加入Transformer模塊后,mAP升至0.742,有較大提升,且每秒傳輸幀數(shù)只下降了0.05,表明加入Transformer模塊確實可以在幾乎不影響模型大小的情況下提升算法的mAP。
表2 TWD-YOLOv5消融試驗Table 2 TWD-YOLOv5 ablation experiment
3.4.3 主流目標(biāo)檢測模型性能對比
為了對比各主流模型對原木的檢測性能,本研究進行了對比試驗(表3)。由表3可知, TWD-YOLOv5模型的mAP達到0.731,相比原始YOLOv5算法提高了0.03,且每秒傳輸幀數(shù)提升了52.7%。在提高精度檢測的同時,模型的每秒傳輸幀數(shù)也有所提升,整體性能相比主流模型仍具有一定優(yōu)勢。
表3 主流目標(biāo)檢測模型性能對比Table 3 Performance comparison of mainstream target detection models
3.4.4 主流目標(biāo)檢測模型對原木真檢性能對比
主流目標(biāo)檢測模型對原木真檢性能對比見表4。由表4可知,TWD-YOLOv5模型的原木真檢率為99.551%,誤檢率為0.22%,原木的漏檢數(shù)與誤檢數(shù)都少于其他主流檢測模型。結(jié)合表2和3可以得出,TWD-YOLOv5模型的mAP最高且原木真檢率也最高,該模型對原木的檢測性能最佳。
表4 主流目標(biāo)檢測模型對原木真檢性能對比Table 4 Comparison of the real inspection performance of mainstream target detection models on logs’ volume
針對整車原木檢測中存在密集小原木難檢測、原木被遮擋易被漏檢、現(xiàn)有目標(biāo)檢測模型難部署等問題,提出一種TWD-YOLOv5的整車原木數(shù)量檢測方法,通過修改模塊數(shù)量、加入注意力機制和Transformer模塊的操作來優(yōu)化主干網(wǎng)絡(luò),結(jié)合新的檢測尺度與基于Ghost卷積設(shè)計特征融合網(wǎng)絡(luò),提升網(wǎng)絡(luò)檢測小目標(biāo)能力并極大減少了模型參數(shù),最后選用CIoU作為邊界框回歸的損失函數(shù)和DIoU-nms作為邊界框篩選算法,提高邊框的回歸精度和改善物體被遮擋的問題。試驗表明,本研究提出的檢測方法能夠準(zhǔn)確、快速地檢測出整車原木圖像。本研究方法在Nvidia RTX3060測試條件下mAP達到0.731,每秒傳輸幀數(shù)為7.33,原木真檢率為99.551%,誤檢率為0.22%,實現(xiàn)了高精度、高速率的檢測并能完成原木計數(shù)功能,性能高于通用目標(biāo)檢測模型,該方法確定了目標(biāo)檢測在整車原木場景下對原木進行快速精準(zhǔn)檢測的可行性。本研究將為復(fù)雜背景下整車原木數(shù)量檢測算法研制提供參考,同時為移動端或嵌入式設(shè)備的原木材積自動測量提供算法支持。接下來將進行移動端的部署,并在項目中實際運用,后續(xù)也會在神經(jīng)網(wǎng)絡(luò)中加入圖像分割層,對檢測出的原木進行圖像分割,從而根據(jù)分割出的掩碼圖計算原木材積。