国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

改進(jìn)YOLOv5s的車載紅外圖像目標(biāo)檢測

2022-04-14 03:26甜,李穎,王
現(xiàn)代計算機(jī) 2022年2期
關(guān)鍵詞:卷積車載注意力

宋 甜,李 穎,王 靜

(四川大學(xué)電子信息學(xué)院,成都 610065)

0 引言

車載紅外熱成像系統(tǒng)具有紅外線探測能力,可感應(yīng)人眼視覺之外的紅外線,能夠大幅度改善駕駛員夜間駕駛的環(huán)境感知能力,從而提高駕駛員的駕駛安全系數(shù)和駕車體驗,對夜間輔助駕駛具有重要意義。車載熱成像系統(tǒng)探測距離遠(yuǎn)且不依賴光源,所以車載紅外圖像具有分辨率較低、目標(biāo)小的特點,給夜間目標(biāo)檢測帶來了一定的困難。且受限于車載嵌入式系統(tǒng)有限的負(fù)載能力和車載動態(tài)環(huán)境,要求檢測網(wǎng)絡(luò)具有輕量化和實時高效的特點。因此,希望針對車載熱成像系統(tǒng)的特點,提出一種目標(biāo)檢測方法。

目標(biāo)檢測(object detection)技術(shù)作為視覺智能領(lǐng)域系統(tǒng)的一個重要研究方向,廣泛應(yīng)用于機(jī)器人導(dǎo)航、智能視頻監(jiān)控、工業(yè)檢測等諸多領(lǐng)域,通過計算機(jī)視覺減少對人力資本的消耗,具有重要的現(xiàn)實意義。目前基于深度學(xué)習(xí)的目標(biāo)檢測算法按照其功能主要可以分為基于區(qū)域提名的和基于端到端學(xué)習(xí)的目標(biāo)檢測模型兩類。2014年R.Girshick等提出的基于候選區(qū)域加卷積神經(jīng)網(wǎng)絡(luò)的R-CNN算法就屬于第一種目標(biāo)檢測模型,該算法的提出開啟了基于 RCNN的研究熱潮。由于R-CNN系列的檢測過程中候選框的生成和邊框的回歸這兩個操作是分開進(jìn)行的,從而使模型對于交通目標(biāo)的檢測速度達(dá)不到實時性的要求。于是在2016—2018年,國內(nèi)外的專家學(xué)者相繼提出基于深度學(xué)習(xí)的單階段目標(biāo)檢測實時性算法YOLO系列和SDD系列,YOLO把物體分類和邊界框預(yù)測結(jié)合在一起,直接通過回歸得到預(yù)測的邊界框和對應(yīng)的置信度和類別,SSD中采用特征金字塔,豐富了特征圖的尺寸,使得不同尺寸的特征圖擁有不同的感受野,對應(yīng)檢測不同尺寸的目標(biāo),從而解決了YOLOv1在小目標(biāo)上檢測困難,定位不準(zhǔn)的問題。并且隨著后續(xù)學(xué)者的不斷改進(jìn),于2021年,Ultralytics公司推出了YOLOv5,YOLOv5是在原有的YOLOv4的架構(gòu)基礎(chǔ)上從各個方面引入一些優(yōu)化方法進(jìn)行改進(jìn)。相比于其它的目標(biāo)檢測算法,YOLOv5以其速度快、精度高而受到廣泛關(guān)注。由于YOLOv5網(wǎng)絡(luò)具有推理速度快、檢測精度高、體積小等優(yōu)點,適合部署到車載嵌入式系統(tǒng)中。所以本文以YOLOv5網(wǎng)絡(luò)群中深度和特征圖寬度最小的YOLOv5s為車載紅外圖像目標(biāo)檢測的基本框架,對SPP模塊進(jìn)行密集連接的特征融合并添加到40×40和80×80大小的特征層,在骨干網(wǎng)絡(luò)的最后一層添加為輕量化網(wǎng)絡(luò)設(shè)計的坐標(biāo)注意力模塊(coordinate attention,CA),并 對 網(wǎng) 絡(luò) 的 邊 界 框 回 歸(bounding box regression,BBR)損失函數(shù)進(jìn)行改進(jìn),實驗結(jié)果表明改進(jìn)網(wǎng)絡(luò)能夠提升網(wǎng)絡(luò)的檢測效果。

1 YOLOv5s目標(biāo)檢測模型

YOLOv5s網(wǎng) 絡(luò) 由Input、Backbone、Neck、Prediction四個部分組成。其網(wǎng)絡(luò)模型結(jié)構(gòu)如圖1所示。

圖1 YOLOv5s網(wǎng)絡(luò)模型結(jié)構(gòu)

1.1 Input

Input輸入端包括Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計算、自適應(yīng)圖片縮放三部分。Mosaic數(shù)據(jù)增強(qiáng)采用四張圖片,通過隨機(jī)縮放、隨機(jī)裁剪、隨機(jī)排布的方式進(jìn)行拼接。YOLOv5s初始設(shè)定了三種大小的錨框,每次訓(xùn)練之前,自適應(yīng)地計算不同訓(xùn)練集中的最佳錨框點。

1.2 Bac kbone

YOLOv5s的Backbone結(jié)構(gòu)由Focus、CBS、C3和SPP(spatial pyramid pooling)4個模塊組成。Focus模塊分為兩個步驟:切片拼接和卷積。CBS模塊由Conv2d、BN(BatchNorm2d)和SiLU(sigmoid weighted linear unit)組成。C3模塊由卷積層和X個Bottleneck模塊Concate組成。BottleNeck結(jié)構(gòu)本質(zhì)上是一個殘差網(wǎng)絡(luò),先通過一個1×1的卷積層,再通過一個3×3的卷積層,如果輸入和輸出的通道數(shù)相同且允許連接的時候,則把原始輸入和經(jīng)過兩個卷積后的結(jié)果進(jìn)行相加,作為最終的結(jié)果輸出。SPP模塊由四個并行的分支構(gòu)成,分別是池化核為5×5,9×9,13×13的最大池化和一個跳躍連接。

1.3 Nec k

YOLOv5s中采用FPN+PAN結(jié)構(gòu)作為Neck。在Backbone中,通過卷積下采樣后,特征圖的尺寸被不斷減小,在得到高層級特征的同時,也伴隨著的信息的流失,越高級的特征圖包含的語義信息越豐富,而越淺層的特征圖包含位置信息更為豐富。特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)通過上采樣將高層級的特征回流傳遞,與低層特征融合,增加淺層特征圖中的語義信息,提高小目標(biāo)的檢測性能。

然而,隨著研究的不斷深入和目標(biāo)檢測算法的不斷發(fā)展,人們發(fā)現(xiàn),淺層的語義信息對于深層特征圖在檢測大尺寸物體時也有增強(qiáng)的效果,所以PANet(path aggregation network)被提出來,并在語義分割任務(wù)中取得了出色的結(jié)果。YOLOv5s借鑒了PANet的思想,在FPN的下采樣后,又添加了2個PANet結(jié)構(gòu),形成一個自底向上的特征金字塔。通過以3×3的卷積核以步幅為2對FPN后獲得的最大尺度的特征圖做卷積操作,在重新進(jìn)行下采樣提取特征的同時,縮小圖片的尺寸,然后與FPN中相同尺寸的特征圖做橫向連接,實現(xiàn)較大尺寸特征圖中的位置信息回傳到高層較小尺寸的特征圖中,提升對于大尺寸物體的檢測精度。

通過FPN+PAN結(jié)構(gòu),實現(xiàn)了自上而下和自底向上的雙向融合。FPN+PAN結(jié)構(gòu)如圖2所示。

圖2 FPN+PAN結(jié)構(gòu)

1.4 Pr edi c t i on

Prediction部分包括邊界框回歸損失函數(shù)和非極大值抑(non-maximum suppression,NMS)。YOLOv5s中使用CIOU Loss作為損失函數(shù),在目標(biāo)檢測結(jié)構(gòu)后處理階段,針對出現(xiàn)的眾多目標(biāo)框的篩選,采用加權(quán)NMS操作,獲得最優(yōu)目標(biāo)框。

2 改進(jìn)型YOLOv5s介紹

本文以YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),首先對SPP模塊進(jìn)行改進(jìn),引入密集連接減少特征丟失,并將改進(jìn)后的SPP模塊分別添加到40×40和80×80大小的特征層,從而提升檢測準(zhǔn)確度。然后針對車載紅外圖像分辨率低,目標(biāo)小且細(xì)節(jié)模糊的特點,在骨干網(wǎng)絡(luò)的最后一層后即第一個C3_2模塊后添加CA注意力模塊,使模型能夠更好地學(xué)習(xí)重要的特征和感興趣的區(qū)域,對非背景物體有所側(cè)重。最后對網(wǎng)絡(luò)的邊界框損失函數(shù)進(jìn)行改進(jìn),采用EIOULoss代替網(wǎng)絡(luò)原本的CIOU Loss。

2.1 改進(jìn)的SPP模塊

SPP模塊嵌在YOLOv5s骨干網(wǎng)絡(luò)最后一個CBS模塊之后,由四個并行的分支構(gòu)成,分別是池化核為5×5,9×9,13×13的最大池化和一個跳躍連接。不同尺度的最大池化和跳躍連接,能夠讓圖片學(xué)習(xí)到不同尺度的特征,再將局部和全局特征融合,豐富了特征圖的表達(dá)能力。其中最大池化將圖像劃分為若干個矩形區(qū)域,對每個子區(qū)域輸出最大值。最大池化操作雖然能減少冗余信息,但是也容易造成特征信息的丟 失。本 文 受DenseNet的 啟 發(fā),借 鑒DenseNet構(gòu)造密集連接,加強(qiáng)特征復(fù)用的思想,對SPP模塊進(jìn)行改進(jìn),提出了SPP+模塊,從而減少SPP模塊最大池化帶來的特征信息丟失。改進(jìn)前后模塊結(jié)構(gòu)如圖3所示。

圖3 改進(jìn)前后模塊結(jié)構(gòu)

與SPP模塊不同,改進(jìn)后的SPP+模塊在將四個不同感受野的特征進(jìn)行concat連接前首先對各感受野的特征之間進(jìn)行密集連接,特征融合操作加強(qiáng)了特征的復(fù)用率,減少了三次最大池化操作帶來的特征信息丟失。

YOLOv5s中SPP模塊只嵌在特征圖尺度最小的特征層后,輸入圖片尺寸為640×640時對應(yīng)20×20尺寸大小的特征圖,為了同時提高40×40和80×80大小的特征的表達(dá)能力和特征復(fù)用,本文將SPP+模塊插入網(wǎng)絡(luò)的第13層和第17層,即第一次和第二次concat操作后。添加SPP+模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

圖4 SPP+模塊添加位置示意圖

2.2 注意力機(jī)制模塊

為了輔助駕駛員掌握遠(yuǎn)處的交通情況以便提前做好應(yīng)對準(zhǔn)備,車載熱成像系統(tǒng)具有探測距離遠(yuǎn)的特點,所以車載紅外圖像分辨率低,圖像中大多數(shù)的目標(biāo)都比較小且細(xì)節(jié)模糊,網(wǎng)絡(luò)在進(jìn)行特征提取時容易丟失特征。所以,我們在檢測網(wǎng)絡(luò)中添加注意力機(jī)制,幫助網(wǎng)絡(luò)從眾多的信息中選擇出對當(dāng)前檢測任務(wù)目標(biāo)更關(guān)鍵的信息,通過使用注意力機(jī)制能夠使模型更多地關(guān)注重要特征并抑制背景信息等不必要的特征,從而提高模型的表現(xiàn)力。

本文使用的是坐標(biāo)注意力模塊(coordinate attention,CA),針對通道注意力通常會忽略對生成空間選擇性注意力圖非常重要的位置信息的問題,將位置信息嵌入到通道注意力中,使得網(wǎng)絡(luò)能夠在更大的區(qū)域上進(jìn)行注意力,CA注意力模塊添加的位置如圖5所示。

圖5 CA模塊添加位置示意圖

不同于通道注意力將輸入通過2D全局池化轉(zhuǎn)化為單個特征向量,CA模塊將通道注意力分解為兩個沿著不同方向聚合特征的1D特征編碼過程。這樣的好處是可以沿著一個空間方向捕獲長程依賴,沿著另一個空間方向保留精確的位置信息。然后,將生成的特征圖分別編碼,形成一對方向感知和位置敏感的特征圖,它們可以互補(bǔ)地應(yīng)用到輸入特征圖來增強(qiáng)感興趣的目標(biāo)的表示。

CA模塊通過精確的位置信息對通道關(guān)系和長程依賴進(jìn)行編碼,分為兩個步驟:坐標(biāo)信息嵌入(coordinate information embedding)和坐標(biāo)注意力生成(coordinate attention generation),結(jié)構(gòu)如圖6所示。

圖6 CA注意力模塊結(jié)構(gòu)

2.2.1 坐標(biāo)信息嵌入

全局池化方法通常用于通道注意編碼空間信息的全局編碼,但由于它將全局空間信息壓縮到通道描述符中,導(dǎo)致難以保存位置信息。為了促使注意力模塊能夠捕捉具有精確位置信息的遠(yuǎn)程空間交互,CA模塊按照以下公式將全局池化進(jìn)行分解,轉(zhuǎn)化為一對一維特征編碼:

具體而言,對輸入X,先使用尺寸H×1和1×W的池化核沿著水平坐標(biāo)方向和豎直坐標(biāo)方向?qū)γ總€通道進(jìn)行編碼,因此,高度為h的第c個通道的輸出表示為:

2.2.2 坐標(biāo)注意力生成

通過坐標(biāo)信息嵌入可以很好的獲得全局感受野并編碼精確的位置信息。為了利用由此產(chǎn)生的表征,提出了坐標(biāo)注意力生成。坐標(biāo)注意力生成轉(zhuǎn)換首先級聯(lián)之前模塊生成的兩個特征圖,然后使用卷積變換函數(shù)對其進(jìn)行變換操作:

然后沿著空間維數(shù)將f分解為2個單獨的張量f∈R和f∈R。再利用兩個1×1卷積F和F將特征圖f和f變換到和輸入X同樣的通道數(shù),得到:

然后對g和g進(jìn)行拓展,作為注意力權(quán)重。

最后,CA模塊的輸出表示為:

2.3 邊界框回歸損失函數(shù)

在目標(biāo)檢測中,邊界框回歸是決定目標(biāo)定位性能的關(guān)鍵步驟,邊界框回歸的三個重要幾何因素為:重疊面積、中心點距離、寬高比。CIOU Loss考慮了這三個重要的幾何因素,在DIOU Loss的基礎(chǔ)上,增加了寬高比影響因子,合并到懲罰項。

CIOU Loss與之前的損失函數(shù)相比,收斂速度和檢測精度都有明顯的提高。但是通過其公式中的v反映的寬高比的差異,而不是寬高分別與其置信度的真實差異,所以有時會阻礙模型有效的優(yōu)化相似性。為了解決這個問題,本文采用EIOU Loss代替CIOU Loss,將寬高比的影響因子拆開分別計算目標(biāo)框和錨框的寬和高,能夠?qū)z測效果有一定提升。EIOU Loss定義如下:

小麥成熟后應(yīng)及時收割、晾曬、篩選,如遇陰雨天氣,應(yīng)采取烘干措施,防止收獲和儲存過程中濕度過大,導(dǎo)致病菌再度大量繁殖,造成二次污染。

其中,c和c是覆蓋兩個Box的最小外接框的寬度和高度。

3 實驗結(jié)果與分析

3.1 實驗環(huán)境及參數(shù)設(shè)置

本文實驗使用深度學(xué)習(xí)框架Pytorch,訓(xùn)練測試均在Pytorch 1.7.1環(huán)境下完成,編程語言為Python 3.8,基于Linux系統(tǒng),操作平臺為ubuntu16.04。實驗的硬件條件為E5-2640V3 CPU,內(nèi)存64 GB,GPU為Nvidia Geforce GTX1080,11 GB顯存。初始學(xué)習(xí)率lr設(shè)為0.01,weight decay設(shè)置為0.0005,網(wǎng)絡(luò)優(yōu)化方法使用SGD,momentum為0.937,batchsize設(shè)置為16,訓(xùn)練輪數(shù)為300輪。

3.2 數(shù)據(jù)集介紹

本文使用2018年傳感器系統(tǒng)開發(fā)商FLIR公司發(fā)布的自動駕駛開源紅外熱成像數(shù)據(jù)集進(jìn)行實驗,對數(shù)據(jù)集中的行人、自行車、汽車3類目標(biāo)進(jìn)行檢測。該數(shù)據(jù)集是由安裝在車上的熱成像相機(jī)獲取,駕駛環(huán)境為11月至5月期間日間(60%)和夜間(40%)晴到多云天氣行駛在加利福尼亞州圣巴巴拉市街道和公路上。數(shù)據(jù)集總共包含14452張紅外圖像,其中10228張來自多個短視頻,訓(xùn)練集8862張,驗證集1366張,大多數(shù)圖片的采樣率為1秒兩幀,少數(shù)環(huán)境中目標(biāo)較少時,采樣率為1秒1幀。測試集為長144 s的視頻中采樣的4224張圖片,采樣率為1秒30幀。訓(xùn)練集、驗證集和測試集各類別的數(shù)量如圖7所示。

圖7 FLIR數(shù)據(jù)集數(shù)量統(tǒng)計

3.3 評價指標(biāo)

在目標(biāo)檢測當(dāng)中,通常使用精確率(Precision)、召回率(Recall)、PR曲線、平均精度(average precision,AP)和多個類平均精度(mean average precision,mAP)來作為評價指標(biāo)。精確率和召回率定義如下:

其中,TP為預(yù)測為正樣本實際為正樣本的數(shù)量,F(xiàn)P為預(yù)測為負(fù)樣本實際為正樣本的數(shù)量,F(xiàn)N為預(yù)測為負(fù)樣本實際為正樣本的數(shù)量。Precision為預(yù)測正確的正樣本個數(shù)和預(yù)測為正樣本個數(shù)的比值,Recall表示被正確判定的正樣本的個數(shù)占總的正樣本個數(shù)的比重。

PR曲線反映的是精度和召回率之間的關(guān)系。如果模型精度越和召回率越高,則PR曲線與x,y軸所包圍的面積就越大,模型的總體性能也就越好。AP為PR曲線下方的面積,AP越大,則模型的準(zhǔn)確度越高,反之,模型的性能越差。mAP為多個類別AP的平均值。本文采用AP和mAP作為對模型檢測效果的評價標(biāo)準(zhǔn)。

3.4 實驗結(jié)果對比與分析

本文首先使用YOLOv5s網(wǎng)絡(luò)在FLIR數(shù)據(jù)集的訓(xùn)練集和驗證集上進(jìn)行訓(xùn)練和驗證,保存訓(xùn)練結(jié)果最好的模型,在測試集上測試該模型的泛化能力。然后對YOLOv5s進(jìn)行改進(jìn),YOLOv5s模型和改進(jìn)模型在測試集上的檢測效果如圖8所示。

圖8展示了基本網(wǎng)絡(luò)(左)和改進(jìn)網(wǎng)絡(luò)(右)的檢測效果對比,由圖中可知,改進(jìn)網(wǎng)絡(luò)后能夠檢測到基本網(wǎng)絡(luò)漏檢的一些目標(biāo),如兩圖第一列所示:其中圖一中漏檢了兩個自行車類目標(biāo),圖二中由于遮擋原因,少檢測了一個行人和一個自行車目標(biāo),圖三中由于目標(biāo)較小,少檢測了一個行人,通過改進(jìn)網(wǎng)絡(luò)后,能夠有效地減少漏檢情況。兩圖第二列中展示了對網(wǎng)絡(luò)錯檢情況的改進(jìn),基本網(wǎng)絡(luò)分別將背景錯檢為行人、自行車和汽車目標(biāo),而改進(jìn)網(wǎng)絡(luò)能夠改善錯檢情況。

圖8 測試效果

從表1可以看出,對SPP改進(jìn)并嵌入40×40和80×80大小的特征層后,檢測結(jié)果均有提升,對比原始YOLOv5s網(wǎng)絡(luò)mAP@0.5值提升了2.2%。表2表明添加CA模塊后mAP@0.5值提升了1.2%,更改邊框回歸損失函數(shù)后,mAP@0.5值提升了1.1%。由此可見,三種改進(jìn)方法都在不同程度上提高了模型的檢測精度。采用本文的方法,行人類的AP值提升了3.1%,自行車類AP值提升了6.8%,汽車類AP值提升了0.4%,總的mAP@0.5值提升了3.4%。

表1 SPP改進(jìn)實驗結(jié)果對比

表2 網(wǎng)絡(luò)改進(jìn)對比

從表3兩種模型的平均推理速度和權(quán)重大小對比可以看出,改進(jìn)網(wǎng)絡(luò)后,模型的推理速度幾乎沒有下降,權(quán)重大小僅增大了1.7 MB。由此得出,本文方法在提升檢測準(zhǔn)確率的同時并沒有帶來很大的模型權(quán)重大小增加和推理時間的消耗,模型依舊能夠滿足實時檢測的需求并保持體積小的優(yōu)點,適合部署在車載嵌入式系統(tǒng)中。

表3 兩種模型性能指標(biāo)對比

4 結(jié)語

本文設(shè)計了一種基于改進(jìn)YOLOv5s網(wǎng)絡(luò)的車載紅外圖像目標(biāo)檢測模型,適合部署在車載嵌入式系統(tǒng)中用于檢測交通目標(biāo),輔助夜間駕駛。首先提出YOLOv5s+3SPPs網(wǎng)絡(luò),在SPP模塊中引入密集連接并增加模塊數(shù)量,然后針對車載紅外圖像分辨率低、目標(biāo)小且細(xì)節(jié)模糊的特點,在YOLOv5s的骨干網(wǎng)絡(luò)的最后一層添加CA注意力模塊,讓網(wǎng)絡(luò)專注于圖像上重要的目標(biāo)特征及感興趣區(qū)域。最后對網(wǎng)絡(luò)的邊界框回歸損失函數(shù)進(jìn)行改進(jìn)。本文實驗表明:三種改進(jìn)方法在不同程度上都起到了提高網(wǎng)絡(luò)的檢測精度的作用。相比于YOLOv5s網(wǎng)絡(luò),本文提出的網(wǎng)絡(luò)在FLIR數(shù)據(jù)集測試集上的mAP@0.5值提升了3.4%,且?guī)缀醪挥绊憴z測速度,模型權(quán)重大小只增加了1.7 MB,滿足車載嵌入式系統(tǒng)對模型體積小和實時高效檢測的需求。

猜你喜歡
卷積車載注意力
基于全卷積神經(jīng)網(wǎng)絡(luò)的豬背膘厚快速準(zhǔn)確測定
某車載提神香氛功效驗證及應(yīng)用
一種車載可折疊宿營住房
基于圖像處理與卷積神經(jīng)網(wǎng)絡(luò)的零件識別
讓注意力“飛”回來
基于深度卷積網(wǎng)絡(luò)與空洞卷積融合的人群計數(shù)
適合它的車載安全工具 你才會無憂駕駛!
SA2型76毫米車載高炮多視圖
卷積神經(jīng)網(wǎng)絡(luò)概述
A Beautiful Way Of Looking At Things
佛坪县| 华阴市| 城口县| 富川| 广安市| 眉山市| 宁晋县| 信宜市| 阿克| 丹东市| 云安县| 铁岭县| 南召县| 和顺县| 台州市| 蒙山县| 福海县| 故城县| 喀什市| 教育| 伊通| 历史| 苗栗市| 佛坪县| 汝南县| 宜春市| 同江市| 平山县| 山阳县| 永新县| 两当县| 娄底市| 星座| 乐平市| 定结县| 抚顺市| 德州市| 南江县| 高台县| 木兰县| 五大连池市|