郭克友,王蘇東,李 雪,張 沫
(1.北京工商大學(xué) 人工智能學(xué)院,北京 100048;2.交通運(yùn)輸部公路科學(xué)研究院,北京 100088)
據(jù)調(diào)查顯示,截止2020 年末,中國(guó)汽車保有量已經(jīng)達(dá)到28 087 萬輛,超過美國(guó)成為全球汽車總量最大的國(guó)家[1]。汽車的普及能夠方便出行,但是同時(shí)也導(dǎo)致交通擁堵問題,提高了交通壓力。近年來,計(jì)算機(jī)技術(shù)不斷進(jìn)步,人工智能發(fā)展迅速,智能識(shí)別技術(shù)在交通行業(yè)的應(yīng)用也越來越廣泛,其中的車輛目標(biāo)智能檢測(cè)引起了研究人員的關(guān)注。
車輛目標(biāo)檢測(cè)是一個(gè)計(jì)算機(jī)視覺領(lǐng)域的經(jīng)典任務(wù),在輔助駕駛、交通監(jiān)控等方面具有巨大的研究?jī)r(jià)值和應(yīng)用前景,在自動(dòng)無人駕駛領(lǐng)域更是不可或缺[2]。夜間車況復(fù)雜、照度急劇下降、駕駛員視線變差、不規(guī)范使用的遠(yuǎn)光燈等都成為車輛行駛的巨大干擾。因此,在昏暗的場(chǎng)景下對(duì)車輛進(jìn)行識(shí)別檢測(cè)具有實(shí)際應(yīng)用價(jià)值。白天室外平均照度大約為500 lx(lx 為勒克斯,是照度單位)[3],陰天照度一般低于100 lx,昏暗場(chǎng)景一般為照度低于50 lx 的道路環(huán)境。人眼在照度低于50 lx 時(shí)對(duì)周邊事物的判別感知能力明顯下降,相較于白天的自然光,駕駛員對(duì)車燈、路燈等輔助照明的適應(yīng)性也明顯不足。我國(guó)一般城市道路夜間照度平均為17.5 lx,本文針對(duì)該照度條件下的車輛目標(biāo)檢測(cè)展開研究。
智能檢測(cè)技術(shù)可以減少城市智慧交通中的人力成本,降低因駕駛員反應(yīng)不及時(shí)或誤操作等因素導(dǎo)致的交通事故發(fā)生概率,進(jìn)一步保障出行安全。對(duì)于道路目標(biāo)的識(shí)別,通常分為傳統(tǒng)檢測(cè)方法和深度學(xué)習(xí)檢測(cè)方法。傳統(tǒng)檢測(cè)方法須隨道路場(chǎng)景和背景不斷變化從而提取不同特征,精度較低,魯棒性也較差[4]?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)算法可分為兩類:一類是以R-CNN[5]、Faster R-CNN[6]等為代表的兩階段檢測(cè)算法,它們使用區(qū)域候選網(wǎng)絡(luò)來提取候選目標(biāo)信息;另一類是以YOLO[7]、SSD[8]等為代表的端到端的一階段目標(biāo)檢測(cè)算法。兩階段算法的區(qū)域建議模塊計(jì)算機(jī)內(nèi)存消耗很大,而一階段算法從學(xué)習(xí)輸入圖像直接到目標(biāo)位置和類別的輸出,由于沒有區(qū)域候選過程,目標(biāo)檢測(cè)被視為回歸問題,因此提升了檢測(cè)速度。其中,YOLOv4 算法以其檢測(cè)速度較快、精度較高的特性而受到廣泛的青睞[9]。
本文在YOLOv4 的基礎(chǔ)上提出一種Dim env-YOLO 改進(jìn)算法。利用MobileNetV3[10]網(wǎng)絡(luò)替換YOLOv4 的主干網(wǎng)絡(luò),并在特征金字塔部分引入注意力機(jī)制,進(jìn)一步降低參數(shù)量。由于現(xiàn)有公開車輛數(shù)據(jù)集夜間場(chǎng)景樣本有限,因此本文自制昏暗道路場(chǎng)景下的車輛數(shù)據(jù)集,在此數(shù)據(jù)集上對(duì)改進(jìn)網(wǎng)絡(luò)進(jìn)行訓(xùn)練及測(cè)試。為驗(yàn)證極端照度條件下算法的有效性,設(shè)計(jì)不同照度實(shí)驗(yàn)場(chǎng)景探索環(huán)境照度邊界值,同時(shí)為驗(yàn)證模型的魯棒性,在高斯噪聲、模糊處理、雨霧夜晚等干擾下進(jìn)行實(shí)驗(yàn)分析。
YOLOv4 是YOLOv3 的改進(jìn)版,其在YOLOv3的基礎(chǔ)上大幅提高了精度和速度[11]。YOLOv4 的主干網(wǎng)絡(luò)CSPDarknet53 在Darknet53 網(wǎng)絡(luò)的基礎(chǔ)上加入CSP(Cross Stage Partial),特征金字塔部分使用SPP 結(jié)構(gòu)和PANet 結(jié)構(gòu)[12],如圖1 所示。
圖1 YOLOv4 結(jié)構(gòu)Fig.1 Structure of YOLOv4
Darknet 網(wǎng)絡(luò)采用Mish 激活函數(shù),如圖2 所示。Mish 激活函數(shù)是對(duì)Leaky-ReLU 的折點(diǎn)小修正,平滑的激活函數(shù)允許更好的信息深入神經(jīng)網(wǎng)絡(luò),從而得到更好的準(zhǔn)確性和泛化能力[13]。Mish 函數(shù)如式(1)所示:
圖2 函數(shù)圖像Fig.2 Function images
Darknet53 存在一系列殘差模塊,它們由一次下采樣和多次殘差結(jié)構(gòu)堆疊構(gòu)成。CSP Net 即為跨階段局部網(wǎng)絡(luò),在原有Darknet53 的殘差模塊中加入了交叉分通道卷積[14]。交叉分通道卷積雖然可以增強(qiáng)CNN 的學(xué)習(xí)能力,在輕量化和低內(nèi)存訪問成本的同時(shí)增強(qiáng)梯度融合,減小計(jì)算瓶頸,但是由于YOLOv4原網(wǎng)絡(luò)結(jié)構(gòu)中存在較多的卷積過程,這些卷積模塊計(jì)算冗長(zhǎng),導(dǎo)致模型參數(shù)過多,計(jì)算量仍然較大。
神經(jīng)網(wǎng)絡(luò)中的數(shù)據(jù)在卷積層最耗費(fèi)時(shí)間,輕量化網(wǎng)絡(luò)模型一直是研究熱點(diǎn),因此,深度可分離卷積塊DW 應(yīng)運(yùn)而出[15],利用DW 卷積替換傳統(tǒng)的卷積,可以減小參數(shù)量,提升檢測(cè)速度。DW 卷積分為逐通道卷積和逐點(diǎn)卷積,逐通道卷積過程中一個(gè)通道只被分配一個(gè)卷積核,兩者一一對(duì)應(yīng)[16],逐點(diǎn)卷積核尺寸為1×1×Cout。對(duì)于深度可分離卷積,設(shè)輸入特征圖通道數(shù)為Cin,shape 為H×W,卷積核尺寸是Ksize,輸出特征圖通道數(shù)為Cout,大小為H×W,則:
其中:FLOPsdw指深度可分離卷積計(jì)算量;FLOPsconv指?jìng)鹘y(tǒng)卷積計(jì)算量。在一般情況下,假定采用3×3的卷積核,那么當(dāng)Cout相對(duì)較大時(shí)可以降低近90%的計(jì)算量[17]。
此外,MobileNetV3 結(jié)合了 MobileNetV1、MobileNetV2 的一系列特點(diǎn),并使用h-swish 代替swish作為激活函數(shù),減少了運(yùn)算量,提高了檢測(cè)性能。h‐swish函數(shù)表達(dá)式如式(5)所示:
MobileNetV3 結(jié)構(gòu)詳解如表1 所示。
表1 MobileNetV3 結(jié)構(gòu)參數(shù)Table 1 Structural parameters of MobileNetV3
在表1 中,HS 和RE 分別代表h-swish 激活函數(shù)和ReLU 激活函數(shù),步距表示每次block 結(jié)構(gòu)所用的步長(zhǎng)[18]。由表1 可知,每個(gè)特征層經(jīng)過bneck 模塊,輸入的特征層尺度均多次發(fā)生相應(yīng)的變化,其中又在5、6、7、12~16 層加入了注意力機(jī)制。
在YOLO 網(wǎng)絡(luò)中,每一張完整圖片都被有效特征層分成S×S的網(wǎng)格,隨后在網(wǎng)格中心建立先驗(yàn)框的局部坐標(biāo),再通過網(wǎng)絡(luò)預(yù)測(cè)的坐標(biāo)偏移量、物體置信度和種類置信度[19]三項(xiàng)指標(biāo),與每一個(gè)先驗(yàn)框分別比較損失以進(jìn)行擬合,最后根據(jù)得分排序和非極大值抑制篩選得出預(yù)測(cè)結(jié)果。本文模型采用二分類交叉熵的方法計(jì)算損失函數(shù)[20],將多分類目標(biāo)問題轉(zhuǎn)化為二分類問題,類別劃分轉(zhuǎn)為此目標(biāo)物體是否屬于該分類類別,損失函數(shù)如式(6)所示:
其中:Lxywh為真實(shí)框的坐標(biāo)軸偏移量和長(zhǎng)寬差值;λcoord為坐標(biāo)系數(shù);Lconfi為目標(biāo)置信度誤差,分為有無目標(biāo)兩項(xiàng),λobj和λnobj分別表示是否有目標(biāo)的置信度系數(shù);Lclasses為物體種類的分類損失;表示第i個(gè)網(wǎng)格第j個(gè)先驗(yàn)框的擬合情況。
IoU[21]是目標(biāo)檢測(cè)中經(jīng)典的評(píng)價(jià)指標(biāo),它反映了預(yù)測(cè)邊框與真實(shí)邊框的重疊程度,即預(yù)測(cè)框與真實(shí)框交集與并集之間的比值,計(jì)算方式如圖3 所示,其中,A、B分別表示預(yù)測(cè)框和真實(shí)框的面積。
圖3 IoU 定義Fig.3 The definition of IoU
但是,僅僅依靠IoU 進(jìn)行評(píng)價(jià)會(huì)存在一些問題[22],若真實(shí)框和預(yù)測(cè)框并無相交,則IoU 為0,此時(shí)無法體現(xiàn)兩者的距離(重合度)。同時(shí),因?yàn)閾p失LLoss=0,梯度不回向傳播,所以無法進(jìn)行學(xué)習(xí)訓(xùn)練。此外,IoU 僅依靠預(yù)測(cè)框和真實(shí)框的重合面積,忽略了位置關(guān)系,如圖4 所示,3 種情況下IoU 均相等,為0.33,然而真實(shí)框和預(yù)測(cè)框的重合程度存在差異,回歸效果從左至右依次遞減。
圖4 3 種IoU 均相同的情況Fig.4 Three cases that IoUs are the same
針對(duì)上述問題,本文引入CIoU 代替IoU 作為邊框回歸損失函數(shù)評(píng)價(jià)指標(biāo)[23]。CIoU 將預(yù)測(cè)框和真實(shí)框之間的關(guān)鍵幾何因素,即重疊面積、中心點(diǎn)距離和長(zhǎng)寬比列入邊框回歸損失,使得邊框回歸更加穩(wěn)定,收斂精度更高。CIoU 損失函數(shù)如式(7)所示:
其中:b和bgt分別表示預(yù)測(cè)框與真實(shí)框的中心點(diǎn);ρ(·)表示歐氏距離;c表示預(yù)測(cè)框與真實(shí)框重疊多邊形的最小外接矩形對(duì)角線長(zhǎng)度;α和v為懲罰因子,它們擬合了預(yù)測(cè)框和真實(shí)框的長(zhǎng)寬比,α是協(xié)調(diào)比例參數(shù),v是用來衡量長(zhǎng)寬比一致性的參數(shù)。α與v的計(jì)算公式分別如式(8)和式(9)所示:
由于環(huán)境昏暗,使得目標(biāo)檢測(cè)精度有所下降,為了在低光照的條件下增強(qiáng)圖像的色彩對(duì)比度,凸顯目標(biāo)信息,可以引入圖像暗光增強(qiáng)技術(shù)。傳統(tǒng)的暗光圖像處理法有直方圖處理、伽馬均衡等方法[24]。近年來,隨著計(jì)算機(jī)技術(shù)的發(fā)展,研究人員嘗試?yán)蒙疃葘W(xué)習(xí)的方法處理暗光圖像,如MSR-net 算法、Ret-Net 模型、K.D++算法等[25]。
本文選擇一種輕量化HDR 暗光圖像增強(qiáng)方法,如圖5 所示。該方法僅對(duì)缺失光照部分進(jìn)行補(bǔ)光增強(qiáng),對(duì)于光照充足的區(qū)域,不會(huì)產(chǎn)生較大的影響,從而避免已有一些方法在暗光增強(qiáng)的同時(shí)造成圖片過度曝光從而影響檢測(cè)處理效果的問題。
圖5 HDR 圖像增強(qiáng)效果Fig.5 HDR image enhancement effect
針對(duì)昏暗環(huán)境的車輛目標(biāo)檢測(cè),本文在YOLOv4的基礎(chǔ)上結(jié)合HDR 圖像暗光增強(qiáng)技術(shù),設(shè)計(jì)一種Dim env-YOLO 道路車輛檢測(cè)網(wǎng)絡(luò),其結(jié)構(gòu)如圖6 所示。網(wǎng)絡(luò)輸入是經(jīng)暗光增強(qiáng)預(yù)處理后的數(shù)據(jù)圖片,主干網(wǎng)絡(luò)由CSPDarknet 替換成MobileNetV3 網(wǎng)絡(luò),將主干網(wǎng)絡(luò)中用到的普通卷積替換成深度可分離卷積,并在隨后有效特征層和加強(qiáng)特征網(wǎng)絡(luò)以及上采樣后的結(jié)果中引入注意力機(jī)制模塊,進(jìn)一步減少模型的參數(shù)量[26]。
圖6 Dim env-YOLO 網(wǎng)絡(luò)結(jié)構(gòu)Fig.6 Dim env-YOLO network structure
神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率是比較重要的超參數(shù),其值大小與模型性能密切相關(guān)[27],如何設(shè)置學(xué)習(xí)率一直是個(gè)難題,同時(shí),訓(xùn)練過程中的損失通常只對(duì)參數(shù)空間的某些特定方向敏感。為進(jìn)一步提高算法的檢測(cè)效率,研究人員提出一系列算法優(yōu)化方法。為避免引入過多的新參數(shù),致使參數(shù)量增加,本文采用優(yōu)化效果較好、魯棒性較高的Adam 自適應(yīng)學(xué)習(xí)率算法,其描述如下:
本文采集北京市某區(qū)域一帶道路的數(shù)據(jù)自制數(shù)據(jù)集,對(duì)于昏暗城市道路,主要目標(biāo)類別分為轎車、公交車和卡車,如圖7 所示。數(shù)據(jù)集包含2 000 張圖片,約11 000 個(gè)車輛目標(biāo),使用LableImg 對(duì)車輛進(jìn)行標(biāo)注,制作成VOC 數(shù)據(jù)集,標(biāo)注情況如圖8 所示。
圖7 車輛類別Fig.7 Classes of vehicle
圖8 數(shù)據(jù)集示例Fig.8 Dataset example
本文實(shí)驗(yàn)在Ubuntu18.0 操作系統(tǒng)上運(yùn)行,GPU 為NVIDIA 1080Ti,內(nèi)存為16 GB。深度學(xué)習(xí)框架為PyTorch1.2.0,CUDA 版本為11.4,Python 版本為3.7.0。
實(shí)驗(yàn)采用凍結(jié)訓(xùn)練的方式以提高訓(xùn)練速度,節(jié)省GPU 顯存[28]。由于主干特征提取網(wǎng)絡(luò)所提取的特征通用,因此引入遷移學(xué)習(xí)的思想,依次進(jìn)行凍結(jié)、解凍訓(xùn)練,由此提高訓(xùn)練效率并防止權(quán)值被破壞。網(wǎng)絡(luò)參數(shù)設(shè)置如表2 所示。
表2 網(wǎng)絡(luò)參數(shù)設(shè)置Table 2 Network parameters setting
網(wǎng)絡(luò)的最終性能不僅取決于模型本身的結(jié)構(gòu)和參數(shù),還依賴于硬件平臺(tái)的配置,檢測(cè)結(jié)果影響因素如圖9 所示。
圖9 網(wǎng)絡(luò)模型的影響因素Fig.9 Influence factors of network model
計(jì)算機(jī)的計(jì)算能力用算力和帶寬來評(píng)估[29],算力即FLOPs(Floating-point Operations Per Second),表示計(jì)算機(jī)每秒執(zhí)行的浮點(diǎn)運(yùn)算次數(shù);計(jì)算機(jī)的帶寬指計(jì)算機(jī)內(nèi)存交換能力,用Byte/s 表示。算力和帶寬之比則為計(jì)算機(jī)的計(jì)算強(qiáng)度上限Imax,單位是FLOPs/Byte,表示每單位內(nèi)存交換中完成的浮點(diǎn)運(yùn)算量,公式表達(dá)如式(10)所示,計(jì)算強(qiáng)度上限數(shù)值越大,表示計(jì)算機(jī)內(nèi)存使用效率越高。
網(wǎng)絡(luò)模型的計(jì)算能力是指模型的計(jì)算量和訪存量,分別是模型浮點(diǎn)計(jì)算次數(shù)和模型一次迭代(iteration)前后傳播的內(nèi)存交換量,即時(shí)間復(fù)雜度和空間復(fù)雜度。模型的時(shí)間復(fù)雜度表示為:
其中:D表示模型卷積層數(shù);Cl-1表示l層輸入通道數(shù);Cl表示輸出通道數(shù);K為卷積核邊長(zhǎng);M是輸出特征圖的大小。時(shí)間復(fù)雜度決定訓(xùn)練的時(shí)長(zhǎng),訓(xùn)練耗時(shí)過多的模型結(jié)構(gòu)較為復(fù)雜。
模型的空間復(fù)雜度表示為:
空間復(fù)雜度是網(wǎng)絡(luò)的各層參數(shù)權(quán)重和輸出特征圖所占的內(nèi)存,訪存量越大表示網(wǎng)絡(luò)參數(shù)越多。
本文進(jìn)行實(shí)驗(yàn)驗(yàn)證所提模型的效果,如圖10 所示,設(shè)置凍結(jié)階段迭代次數(shù)為50 次,由于模型主干被凍結(jié),特征提取網(wǎng)絡(luò)不發(fā)生改變,占用顯存較少,因此網(wǎng)絡(luò)僅發(fā)生微調(diào)。
圖10 Dim env-YOLO 訓(xùn)練過程中l(wèi)oss 的變化情況Fig.10 Changes of loss during Dim env-YOLO training
在凍結(jié)階段,改進(jìn)的網(wǎng)絡(luò)loss 值不斷下降并收斂。在解凍階段,占用顯存變大,主干網(wǎng)絡(luò)參數(shù)發(fā)生變動(dòng),但是訓(xùn)練效果提升,損失值進(jìn)一步下降,由此可以看出網(wǎng)絡(luò)模型具有良好的收斂能力。
圖11 所示為本文算法在簡(jiǎn)單場(chǎng)景下的檢測(cè)效果,可以看出,該算法可成功檢測(cè)出昏暗環(huán)境下的近距離車輛目標(biāo)。
圖11 簡(jiǎn)單場(chǎng)景下的檢測(cè)效果Fig.11 Detection effect in simple scenes
如圖12 所示,對(duì)于昏暗道路常見的小汽車、SUV 中型車和大巴客車,本文算法的檢測(cè)AP 值分別為93%、91%和87%,檢測(cè)mAP 值達(dá)到90.49%。
圖12 本文算法的AP 值Fig.12 AP values of this algorithm
為了進(jìn)一步驗(yàn)證復(fù)雜道路情況下的車輛目標(biāo)檢測(cè)效果,擴(kuò)充已有數(shù)據(jù)集,新增包括擁擠路口場(chǎng)景下的車輛目標(biāo)、遠(yuǎn)距離車輛目標(biāo)以及重疊的車輛目標(biāo)。制作數(shù)據(jù)集時(shí)要訓(xùn)練樣本的多樣性,同時(shí)減少數(shù)據(jù)冗余和訓(xùn)練體量。隔幀抽取所拍攝的車流視頻能夠保證不同密度,從而獲得較優(yōu)的數(shù)據(jù)樣本,如圖13 所示。
圖13 復(fù)雜路口數(shù)據(jù)樣本Fig.13 Complex intersection data sample
夜間環(huán)境照度不足、車燈刺眼干擾、明暗對(duì)比強(qiáng)烈,嚴(yán)重影響駕駛員對(duì)道路情況的判斷,使得暗光條件下路口阻塞車流檢測(cè)難度提升。如圖14 所示,對(duì)于昏暗復(fù)雜的路口,Dim env-YOLO 檢測(cè)效果優(yōu)異,證明其在低照度的復(fù)雜場(chǎng)景下具有有效性,可以為夜間智能出行提供一定技術(shù)支持。
圖14 復(fù)雜場(chǎng)景下的檢測(cè)效果Fig.14 Detection effect in complex scenes
按照國(guó)家相關(guān)規(guī)定,一般城市主干道路路燈照明要求為30 lx,次路約為10 lx。為了進(jìn)一步探究更低照度的道路車輛識(shí)別效果,測(cè)試微弱路燈光的城市次干道(照度僅為3~5 lx)和支路以及幾乎黑暗(照度為0.05 lx)的居民巷等路況下的車輛目標(biāo)識(shí)別效果,實(shí)驗(yàn)結(jié)果如圖15 所示。從圖15 可以看出,當(dāng)車燈直射車輛和在照度極低的暗處角落,車輛依舊可以被準(zhǔn)確檢測(cè)出,即對(duì)于光照不均勻、光斑混照等復(fù)雜情況,本文算法識(shí)別效果依然良好。
圖15 城市支路檢測(cè)效果(照度為5 lx)Fig.15 Detection effect of urban branch road(illumination is 5 lx)
對(duì)于照度低于0.5 lx 的黑暗道路場(chǎng)景,實(shí)驗(yàn)結(jié)果如圖16 所示。從圖16 可以看出,對(duì)于汽車燈光照射的區(qū)域,可檢測(cè)出車輛目標(biāo),而無車燈照射區(qū)域,車輛目前無法被識(shí)別,純黑暗區(qū)域可以通過閃光燈補(bǔ)光來提升識(shí)別率。
圖16 黑暗道路檢測(cè)效果(照度為0.5 lx)Fig.16 Detection effect of dark road(illumination is 0.5 lx)
綜上,在照度不低于5 lx 的道路環(huán)境,本文算法識(shí)別準(zhǔn)確率較好。為了進(jìn)一步驗(yàn)證模型的魯棒性,隨機(jī)選取夜間道路車輛并加入高斯噪聲、模糊、雨霧夜晚等擾動(dòng),路況如圖17 所示,檢測(cè)結(jié)果如圖18 所示,實(shí)驗(yàn)定量結(jié)果如表3 所示。
表3 不同照度條件及干擾下的目標(biāo)識(shí)別情況Table 3 Target recognition under different illumination conditions and interference
圖17 擾動(dòng)下的4 種路況Fig.17 Four road conditions under disturbance
圖18 不同路況下的檢測(cè)結(jié)果Fig.18 Detection results under different road conditions
從圖18 和表3 中的數(shù)據(jù)可以看出,即使在低照度、復(fù)雜噪聲下,實(shí)驗(yàn)結(jié)果也未隨擾動(dòng)而大幅退化,平均識(shí)別率能達(dá)到86.00%以上。在極黑暗的環(huán)境中,車燈照射區(qū)域識(shí)別準(zhǔn)確率良好,對(duì)于模糊擾動(dòng)敏感度稍有降低,對(duì)于高斯噪聲具有更好的魯棒性,尤其在雨夜體現(xiàn)出良好的泛化性能,使得本文算法具有廣闊的應(yīng)用前景。
為了驗(yàn)證本文Dim env-YOLO 模型相較其他經(jīng)典網(wǎng)絡(luò)的優(yōu)勢(shì),選取3 種常用的目標(biāo)檢測(cè)模型與本文Dim env-YOLO 進(jìn)行性能對(duì)比分析,用于對(duì)比的檢測(cè)模型包括Faster-RCNN、YOLOv3 以及原始YOLOv4。在實(shí)驗(yàn)驗(yàn)證過程中,用4 類檢測(cè)器分別訓(xùn)練相同的數(shù)據(jù)集,訓(xùn)練結(jié)果如表4 所示。
表4 不同模型的效果對(duì)比Table 4 Effect comparison of different models
從表4 可以看出,在昏暗場(chǎng)景下,本文算法的mAP值比原始YOLOv4 提高了3.18 個(gè)百分點(diǎn),優(yōu)于同等情況下的其他網(wǎng)絡(luò)模型,且通過對(duì)比可知,本文模型的體量約為Faster-RCNN 的40%,約為YOLOv3 和YOLOv4的50%。
本文基于YOLOv4 提出一種昏暗條件下面向道路車輛目標(biāo)檢測(cè)的Dim env-YOLO 算法,以改善原始YOLOv4 網(wǎng)絡(luò)夜間檢測(cè)精度和速度較低的問題。對(duì)夜間圖片進(jìn)行暗光增強(qiáng)處理,使用MobileNetV3替換CSPDarknet 主干特征提取網(wǎng)絡(luò),引入注意力機(jī)制選擇重要信息,利用深度可分離卷積減少模型參數(shù),從而提升檢測(cè)效果。實(shí)驗(yàn)結(jié)果表明,Dim env-YOLO 對(duì)于夜間小汽車的檢測(cè)AP 值達(dá)到96%以上,且在各種噪聲干擾下依然具有良好的魯棒性,優(yōu)于同類型模型在昏暗光照條件下的檢測(cè)效果,本文算法可以為夜間場(chǎng)景下的車輛目標(biāo)檢測(cè)提供一種新的思路。
Dim env-YOLO 算法可以滿足夜間智慧交通的實(shí)時(shí)性要求,為識(shí)別道路車輛、分析夜間道路路況和路口阻塞情況等提供技術(shù)支持。但是模型同時(shí)也存在一些問題,如數(shù)據(jù)集采集角度單一化。下一步將豐富訓(xùn)練集,采用俯角拍攝道路車輛,增加卡車、公共汽車等大型車輛的樣本集,以及使用更多不同的目標(biāo)場(chǎng)景數(shù)據(jù)集等,從而實(shí)現(xiàn)更復(fù)雜場(chǎng)景下的高效車輛目標(biāo)檢測(cè)。