国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

深度神經(jīng)網(wǎng)絡(luò)在多場景車輛屬性識別中的研究

2021-05-14 06:28:44柴江云
計算機(jī)工程與應(yīng)用 2021年9期
關(guān)鍵詞:準(zhǔn)確率顏色車輛

王 林,柴江云

西安理工大學(xué) 自動化與信息工程學(xué)院,西安710048

隨著社會經(jīng)濟(jì)的飛速發(fā)展,國民的生活水平穩(wěn)步上升,目前,人們的代步工具已經(jīng)逐步從自己的雙腳轉(zhuǎn)換為各種機(jī)動車輛,隨之而引發(fā)的各類交通問題也越來越復(fù)雜。智能交通系統(tǒng)(Intelligent Transportation System,ITS)[1-2]是專門針對目前經(jīng)濟(jì)發(fā)展所造成交通問題的理想解決方案。各類機(jī)動車輛作為交通的重要組成成員,其屬性的有效識別在智能交通系統(tǒng)中的位置舉足輕重。在一般監(jiān)控視頻畫面中,普遍存在圖像像素不夠清楚,車牌被阻擋、涂抹、腐蝕等情況,無法準(zhǔn)確對車牌號碼做出定位與識別,這時快速準(zhǔn)確地識別出車輛的其他屬性信息就顯得尤為重要。比如車輛其他的外觀特征,車輛類型和顏色的準(zhǔn)確識別可以彌補(bǔ)車牌識別的不足,并且可以對車牌識別結(jié)果進(jìn)行補(bǔ)充,更全面地增加車輛信息,也可以提高ITS 的可靠性和安全性,大幅度提高車輛交通管理的智能性??焖贉?zhǔn)確地識別出車輛的類型和顏色并根據(jù)識別結(jié)果做出準(zhǔn)確的分析,可以有效地服務(wù)于ITS,并且還可以建立起一個車輛信息數(shù)據(jù)庫提供車輛的信息檢索,將其應(yīng)用到交通安全和相關(guān)部門中將大幅度提高相關(guān)部門的工作效率。因此,車輛屬性的有效識別在交通擁堵、車輛檢索跟蹤和實時檢測管理車輛中具有極其重要的作用,它將成為ITS的重要輔助手段之一。

車輛的顏色識別是計算機(jī)視覺研究的一個子領(lǐng)域,它的主要工作是確定一幅圖像中車輛的主要顏色,傳統(tǒng)的顏色識別由于天氣、光照等復(fù)雜的外界環(huán)境因素還存在許多問題,無法正確識別出各車輛的顏色,此外,還有一些車輛的顏色非常接近,無法準(zhǔn)確做出分類,這也是顏色識別的一大挑戰(zhàn)。自然場景中的車輛顏色識別可以在車輛檢測、車輛跟蹤和自動駕駛等系統(tǒng)中提供有用的信息。車輛的類型由于其特定的邊緣特征,相比車輛顏色的識別較為容易,只要樣本足夠多,圖像質(zhì)量足夠高,就可以準(zhǔn)確地識別出車輛類型,并且獲得較高的精度。傳統(tǒng)的車輛屬性識別中,往往是針對單一的屬性進(jìn)行識別,Zhang 等人[3]提出了一種基于膠囊網(wǎng)絡(luò)(Capsule Network)的車輛類型識別模型,該模型包括對不同角度和光照條件的五種不同類型的車輛進(jìn)行識別,并對膠囊網(wǎng)絡(luò)的動態(tài)路由算法進(jìn)行了重新設(shè)計,以節(jié)省訓(xùn)練時間和加快收斂速度,最后取得了91.27%的準(zhǔn)確度。Chen等人[4]根據(jù)紋理特征,將每個汽車面部圖像分為多個子圖像,在不同層中使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)提取全局和局部特征,對車型進(jìn)行識別,取得了較高的準(zhǔn)確率,但僅能識別包含車輛前景的圖片,對車輛其他角度的圖片無法做到正確識別。Damitha 等人[5]利用支持向量機(jī)(Support Vector Machine,SVM)的方法對車輛的顏色進(jìn)行了分類識別,他們提取相同的感興趣區(qū)域(Region of Interest,ROI),以便從車輛中提取顏色特征,并且使用了幾種不同的特征組合,并根據(jù)這些特征組合進(jìn)行了測試,最后取得了87.52%的平均準(zhǔn)確率。Xue等人[6]為了減弱照明因素對顏色識別的影響,對于不同照明條件下的圖像使用不同的處理方法,以提高色彩識別的準(zhǔn)確性,但是他們在處理圖像時需要花費(fèi)大量時間來對圖像進(jìn)行手動分類。阮航等人[7]首先利用Faster R-CNN 網(wǎng)絡(luò)對車輛進(jìn)行檢測,然后對GoogLeNet 網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),在全連接層后面連接多個損失層以實現(xiàn)車輛的標(biāo)識、姿態(tài)和顏色屬性的識別,其取得了85%的準(zhǔn)確率。

綜上可知,車輛屬性識別領(lǐng)域的研究有很多,也取得了不少成果,但大多數(shù)學(xué)習(xí)任務(wù)是基于單個屬性的單任務(wù)學(xué)習(xí),關(guān)于具有多個屬性的復(fù)雜學(xué)習(xí)任務(wù)的研究卻很少。僅通過車輛的某一個屬性來定位一個特定車輛往往很難實現(xiàn),識別過程耗時普遍較長,無法切實應(yīng)用于現(xiàn)實應(yīng)用,而且車輛的外在屬性可以確定的信息越多,對定位特定車輛幫助則越大。對于車輛,它也具有多個屬性描述,例如根據(jù)汽車類型,它可以描述為car、suv、van 等;根據(jù)車輛的顏色,可以將其描述為紅色、白色、黑色等。基于以上分析,本文針對車輛的多屬性特征,通過網(wǎng)絡(luò)搜索和實拍數(shù)據(jù)來構(gòu)造車輛多屬性數(shù)據(jù)集,并提出一種基于深度神經(jīng)網(wǎng)絡(luò)的現(xiàn)實場景中車輛屬性識別方法,利用YOLO(You Only Look Once)神經(jīng)網(wǎng)絡(luò)的升級版YOLOv3網(wǎng)路,通過圖像全局區(qū)域?qū)囕v數(shù)據(jù)集進(jìn)行訓(xùn)練,同時將車輛類型和顏色兩個屬性任務(wù)進(jìn)行分級訓(xùn)練,二者之間互不影響,實現(xiàn)車輛類型和顏色屬性的檢測識別工作,從而提高了模型的適用性。

1 車輛屬性識別框架

1.1 YOLOv3網(wǎng)絡(luò)

目前深度學(xué)習(xí)(Deep Learning,DL)[8-9]在目標(biāo)檢測識別領(lǐng)域應(yīng)用及其廣泛[10]。近年來,基于DL 的算法在圖像分類[11]、物體檢測[12-13]等方面取得了突破性的成果。在處理視覺任務(wù)時,與采用人工特征的傳統(tǒng)方法相比,深度學(xué)習(xí)架構(gòu)能夠從原始圖像上學(xué)習(xí)到更有效的表示,并且比傳統(tǒng)方法的性能更好。其中CNN 在數(shù)字識別[14]的工作中首次顯現(xiàn)出其實用性,Krizhevsky 等人[11]是第一個將CNN 應(yīng)用于大規(guī)模圖像分類問題的,并且在ImageNet數(shù)據(jù)集[15]上獲得較高性能的應(yīng)用實例,這是迄今為止最大和最具挑戰(zhàn)性的圖像數(shù)據(jù)集。

本文以YOLOv3 網(wǎng)絡(luò)為原型,通過采用殘差網(wǎng)絡(luò)(Residual Network,ResNet)[16]的跳層連接方式,在增加網(wǎng)絡(luò)深度的同時,使得網(wǎng)絡(luò)仍然可以收斂,能夠?qū)崿F(xiàn)端到端的目標(biāo)檢測和識別。YOLOv3 神經(jīng)網(wǎng)絡(luò)意在只需要看一次圖像即可預(yù)測出圖像中存在的目標(biāo)對象及其位置信息,該網(wǎng)絡(luò)直接從圖像中提取檢測框,并通過整個圖像特征檢測目標(biāo)對象[17]。在該過程中,首先將輸入圖像劃分成S×S 個網(wǎng)格,然后對每個網(wǎng)格都預(yù)測出B個檢測框,每個檢測框都包含5個預(yù)測值,分別是x、y、w、h 和confidence。其中x、y 為檢測框的中心坐標(biāo),w和h 分別為檢測框的寬和高,confidence 是這個檢測框所屬類別的置信度。每個檢測框的損失函數(shù)包含四部分,如式(1)所示:

其中,lossxy是檢測框的中心坐標(biāo)誤差,losswh是檢測框的高度坐標(biāo)誤差,lossconf是檢測框的置信度誤差,losscls是檢測框的分類誤差。損失函數(shù)分為兩部分:有物體部分和沒有物體部分,其中沒有物體的部分損失增加了權(quán)重系數(shù)。一幅圖像中大部分內(nèi)容不包含待檢測物體,這樣會導(dǎo)致沒有物體部分的計算量大于有物體部分的計算量,這會導(dǎo)致網(wǎng)絡(luò)傾向于檢測單元網(wǎng)格不含有物體,因此在沒有物體的部分添加權(quán)重系數(shù),減少沒有物體部分計算的貢獻(xiàn)權(quán)重,本文取值為0.5。

中心坐標(biāo)損失lossxy定義為式(2):

式(5)表示只有當(dāng)?shù)趇個網(wǎng)格的第j個檢測框負(fù)責(zé)某一個真實目標(biāo)時,該檢測框所產(chǎn)生的邊界框才會計算分類損失函數(shù)。

1.2 車輛屬性識別網(wǎng)絡(luò)

網(wǎng)絡(luò)深度越深,目標(biāo)檢測識別的準(zhǔn)確率越高,但相應(yīng)的檢測時間就會越長,在普通靜態(tài)圖片識別中,時間因素的影響還不是很突出,但在視頻應(yīng)用中,需要考慮到視頻的實時性條件,在一幀視頻的目標(biāo)檢測識別過程中,時間因素是一個重要的考量標(biāo)準(zhǔn)。在本實驗中,包括車輛類型和車輛顏色兩個屬性類別,考慮到不同類型車輛的顏色分布區(qū)域不同,比如卡車的顏色主要分布于車窗周圍,而轎車和越野車的顏色主要分布在車頭的引擎蓋上,因此本文將車輛的整個圖像區(qū)域作為車輛顏色的ROI,最大限度地使用車輛信息進(jìn)行顏色訓(xùn)練,這樣就會和車輛類型的ROI發(fā)生沖突。在本實驗中,采取將車輛類型和車輛顏色屬性進(jìn)行分級訓(xùn)練,這樣不僅可以使用不同的網(wǎng)絡(luò)結(jié)構(gòu),還可以避免車型和車輛顏色ROI沖突的問題。在訓(xùn)練時兩個模塊間采用不同的網(wǎng)絡(luò)結(jié)構(gòu),然后對模型進(jìn)行整合調(diào)用,可以大幅度提高車輛屬性識別的準(zhǔn)確率和檢測時間。

圖1是本實驗的車輛屬性識別算法,在圖1中,首先將輸入圖像調(diào)整為416×416 大小,然后在圖像上運(yùn)行CNN 進(jìn)行特征提取,最后通過模型的置信度對檢測結(jié)果設(shè)置閾值進(jìn)行檢測框的篩選。

圖1 車輛屬性識別算法

在本實驗中使用YOLOv3 神經(jīng)網(wǎng)絡(luò)來建立車輛屬性識別的模型。圖2為車輛類型識別網(wǎng)絡(luò)的結(jié)構(gòu)圖。

圖2 車輛類型識別網(wǎng)絡(luò)結(jié)構(gòu)圖

圖2中DBL、resn、concat具體內(nèi)容如下:

DBL:是該網(wǎng)絡(luò)結(jié)構(gòu)的基本組件。即為卷積+Batch Normalization+Leaky relu的組合。

resn:n代表數(shù)字,有res1,res2,…,res8 等,表示一個res_block里包含n個res_unit。

concat:張量拼接,將中間層和后面某一層的上采樣進(jìn)行拼接,讓網(wǎng)絡(luò)同時學(xué)習(xí)深層和淺層特征,使得表達(dá)效果更好。

該網(wǎng)絡(luò)通過若干個DBL 組件和res 殘差單元進(jìn)行特征提取,然后通過concat對中間層和后面某一層的上采樣進(jìn)行張量拼接融合學(xué)習(xí)各層特征,最后創(chuàng)建3個尺度的輸出,即圖2 中的[y1,y2,y3],其中底層信息含有全局特征,中間層信息含有局部特征,這樣拼接,可以使得兩者兼顧。此外,還借鑒了特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)[18]的思想,采用多尺度來對不同尺寸的目標(biāo)進(jìn)行檢測,越精細(xì)的網(wǎng)格單元可以檢測出越精細(xì)的物體。

在車輛類型識別模塊中,因需要采集的特征點較多,特征采樣網(wǎng)絡(luò)越深,采集到的車型特征點越多,分類準(zhǔn)確度越高,在車輛顏色識別模塊中,車輛顏色分布比較均勻,其特征點較少,只需計算出每個ROI 中的顏色像素值,特征采樣網(wǎng)絡(luò)僅需簡單的一些層就可實現(xiàn)。在YOLOv3神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行改進(jìn),保留其部分的卷積層,在每個卷積層后加入一個池化層,然后進(jìn)行張量拼接,重新組合成一個23層的新的網(wǎng)絡(luò)結(jié)構(gòu),對車輛顏色樣本進(jìn)行訓(xùn)練,以提高車輛屬性識別的整體時間。圖3為改進(jìn)后的車輛顏色識別網(wǎng)絡(luò)結(jié)構(gòu)圖。其中,DP為卷積層和池化層的組合。在該網(wǎng)絡(luò)中,通過多個DP 組件和若干個卷積層進(jìn)行特征提取,然后同樣通過concat進(jìn)行張量拼接融合學(xué)習(xí)屬性特征,最后創(chuàng)建2個尺度的輸出,即圖3中的[y1,y2]。

圖3 車輛顏色識別網(wǎng)絡(luò)結(jié)構(gòu)圖

采用DP 組合的方式在不影響識別準(zhǔn)確率的前提下,精簡了網(wǎng)絡(luò)結(jié)構(gòu),降低了網(wǎng)絡(luò)深度,大幅度縮短了模型檢測識別所占用的時間,與車型識別模型相結(jié)合,在網(wǎng)絡(luò)檢測出車型的同時調(diào)用車輛顏色模型進(jìn)行顏色識別,可以提高車輛屬性識別的準(zhǔn)確率,并且縮短車輛整體識別時間。

1.3 模型訓(xùn)練

在進(jìn)行模型訓(xùn)練前,需要準(zhǔn)備好模型訓(xùn)練所需的車輛圖片樣本數(shù)據(jù)集,以便網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)。除原始的圖片樣本數(shù)據(jù)集外,還需準(zhǔn)備好網(wǎng)絡(luò)訓(xùn)練所需的樣本感興趣區(qū)域,即樣本的標(biāo)簽數(shù)據(jù)集。該標(biāo)簽數(shù)據(jù)集需要將訓(xùn)練用的數(shù)據(jù)進(jìn)行手動標(biāo)記好感興趣區(qū)域和類別名稱,這樣不僅可以提高感興趣區(qū)域的準(zhǔn)確性,還可以減弱噪聲的干擾,提高特征提取的有效性。在本文中,將車輛按照類型分為bus、car、coach、truck、suv、van 6 種類型;按照顏色分為黑色、藍(lán)色、灰色、綠色、橙色、紫色、紅色、白色、香檳色、黃色以及銀灰色11種顏色。

本實驗在GTX 1080Ti GPU 上進(jìn)行訓(xùn)練,在訓(xùn)練前,還需對部分參數(shù)進(jìn)行調(diào)整,將訓(xùn)練數(shù)據(jù)集分為64批,每批的數(shù)量設(shè)置為4,這樣可以減輕GPU 負(fù)擔(dān)的同時最快速度的進(jìn)行迭代,迭代次數(shù)設(shè)置為500 000 次,充分學(xué)習(xí)車輛各屬性的特征。訓(xùn)練過程中學(xué)習(xí)率(learning_rate)參數(shù)值設(shè)置得越高則所得模型的識別準(zhǔn)確率越高,但該參數(shù)不能隨意設(shè)置,過高的learning_rate會導(dǎo)致網(wǎng)絡(luò)僅學(xué)習(xí)數(shù)據(jù)集而發(fā)生學(xué)習(xí)偏差,因此在本實驗中將learning_rate設(shè)置為0.001。在訓(xùn)練過程中,模型的訓(xùn)練損失和模型學(xué)習(xí)率的曲線變化如圖4 所示。其中圖4(a)是模型訓(xùn)練過程中平均損失的曲線圖,在訓(xùn)練過程中平均損失降得越低則模型的學(xué)習(xí)效果越好,圖4(b)是模型訓(xùn)練過程中學(xué)習(xí)率的曲線圖,該曲線反映了訓(xùn)練過程中模型學(xué)習(xí)到各屬性特征的能力大小,期望值趨于訓(xùn)練前的設(shè)定值,即0.001。由圖4 可以看出,模型的訓(xùn)練損失值最后降低在0.02附近,已經(jīng)可以滿足訓(xùn)練要求,但是learning_rate 在400 000 次迭代之后發(fā)生銳減,說明訓(xùn)練模型在此時出現(xiàn)了過擬合現(xiàn)象,故而結(jié)合平均損失曲線圖,最佳迭代次數(shù)應(yīng)截止在400 000 次之前,此時平均損失仍然在最低處,同時學(xué)習(xí)率達(dá)到最高。適時的停止訓(xùn)練,降低訓(xùn)練過程中過擬合帶來的影響,可以提高模型的識別準(zhǔn)確率。

圖4 訓(xùn)練損失與學(xué)習(xí)率結(jié)果

2 實驗分析

2.1 數(shù)據(jù)集

由于要實現(xiàn)車輛的類型和顏色兩類屬性的識別問題,因此需要數(shù)據(jù)集有充足的訓(xùn)練數(shù)據(jù)和豐富的種類。為滿足實驗需求,其中應(yīng)包括不同環(huán)境、不同角度、不同類型和不同顏色的車輛。但是目前公開的車輛數(shù)據(jù)集中,車輛類型普遍比較陳舊,顏色和現(xiàn)在的車輛顏色相差較大,無法滿足本實驗的數(shù)據(jù)要求。因此,為滿足本實驗的數(shù)據(jù)要求,自建了一個包含車輛多種屬性的AttributesCars數(shù)據(jù)集,其中包含各類型及各類顏色的車輛,共計20 000 張車輛圖像,可以完成對車輛類型和顏色屬性的訓(xùn)練準(zhǔn)備。其中50%來自網(wǎng)絡(luò)上公開的車輛數(shù)據(jù)集Stanford Cars,該數(shù)據(jù)集中車輛的類型和現(xiàn)在的車輛相差不大,但車輛的類型比較固定,以car和suv 居多,故而另外50%采集自網(wǎng)絡(luò)上公開的各類型車輛的數(shù)據(jù)和手動采集的多種場景下的各類型車輛數(shù)據(jù)。為了擴(kuò)充數(shù)據(jù)集以及增強(qiáng)訓(xùn)練模型的魯棒性,分別對這些數(shù)據(jù)進(jìn)行了縮放、模糊處理,其中80%進(jìn)行逐個篩選后做標(biāo)簽處理,用于訓(xùn)練,剩下的20%用于測試。

2.2 實驗結(jié)果與分析

在車輛屬性識別過程中,需在滿足識別準(zhǔn)確率的前提下,最大限度地滿足視頻實時性的要求。在本實驗中,顏色識別模塊采用簡化改進(jìn)版的網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練所得模型大幅縮減了檢測識別所用時間,并且識別準(zhǔn)確率沒有受到影響,在車型識別模塊雖然識別時間較長,但結(jié)合顏色模塊可以彌補(bǔ)車型模塊識別時間較長的缺陷,使得整體車輛識別時間可以滿足視頻實時性的要求。

在車輛行駛中,道路場景變化多樣,監(jiān)控視頻中的車輛圖像隨道路場景的變化而不同,在一個監(jiān)控畫面中,車輛出現(xiàn)位置與攝像頭位置距離的遠(yuǎn)近直接影響到是否能正確有效地識別車輛屬性。為了評估車輛屬性識別模型的適用性,特在近景監(jiān)控和交通監(jiān)控兩種不同場景下進(jìn)行了測試與驗證。在近景監(jiān)控場景中,攝像頭距離車輛目標(biāo)位置較近,采集到的圖像比較清晰,對監(jiān)控畫面中的車輛進(jìn)行檢測與識別的準(zhǔn)確率比較高;在交通監(jiān)控場景中,攝像頭一般位于較高位置,距離車輛比較遠(yuǎn),采集到的車輛圖像相較近景中像素偏差較大,目標(biāo)偏小,準(zhǔn)確率相對比較低。圖5是本實驗訓(xùn)練模型的識別效果圖,圖中目標(biāo)車輛頂部顯示的是該車輛顏色和類型屬性的識別結(jié)果。其中圖5(a)是在近景監(jiān)控場景中的部分車輛屬性識別結(jié)果,圖中車輛圖像較大,顏色清晰,識別結(jié)果正確無誤;圖5(b)是在交通監(jiān)控場景中部分車輛的屬性識別結(jié)果,圖中車輛圖像較小,顏色勉強(qiáng)可以看清,識別結(jié)果也正確無誤。從圖5 可以看出,無論是在近景監(jiān)控場景中還是交通監(jiān)控場景中,均可以正確識別出車輛的類型和顏色,證明了本模型的可行性。

圖5 模型識別結(jié)果

在實驗結(jié)果中可以看出本實驗的模型可以正確識別出不同場景下車輛的類型和顏色屬性,為驗證本文方法在車輛屬性識別方面的優(yōu)越性,將本文方法與其他在車型和車輛顏色識別方面的研究方法進(jìn)行了比較,因本實驗涉及到車輛類型和顏色兩個屬性,并且是分級進(jìn)行訓(xùn)練的,特將車型和顏色屬性分別進(jìn)行比較。分別在識別準(zhǔn)確率和識別所用時間方面進(jìn)行對比分析,車輛類型和車輛顏色的識別結(jié)果對比分析分別如表1 和表2所示。

表1 車輛類型識別結(jié)果

表2 車輛顏色識別結(jié)果

由表1可以看出,基于膠囊網(wǎng)絡(luò)方法在達(dá)到91.27%準(zhǔn)確率的前提下,車型的識別時間為44.26 ms,基于改進(jìn)的CNN 方法的準(zhǔn)確率為94.88%,其識別時間減少為26.18 ms,原始的YOLOv3 方法的準(zhǔn)確率為97.62%,相應(yīng)識別時間增加為38.56 ms,且其識別車輛類別較少,不夠全面,本文所提出方法準(zhǔn)確率達(dá)到98.07%,識別時間為31.98 ms,相較原始的YOLOv3方法在準(zhǔn)確率提升的前提下識別時間略有降低。

由表2 可以看出,基于SVM 方法的車輛顏色識別的準(zhǔn)確率為87.52%,基于照明處理方法的車輛顏色識別準(zhǔn)確率為89.65%,這兩種方法的識別時間未知,而YOLOv3方法可以達(dá)到93.36%的準(zhǔn)確率,38.69 ms的識別時間,時間相較其他方法大幅縮短,本文所提出的方法準(zhǔn)確率為93.18%,識別時間僅用3.86 ms,相較YOLOv3方法在不影響識別準(zhǔn)確率的前提下,大大縮短了識別時間,對視頻中車輛識別的應(yīng)用更具實用性。

綜合表1 和表2 的結(jié)果可以看出,本文提出的車輛多屬性識別模型可以在識別車輛類型的同時,對車輛顏色進(jìn)行有效的識別,車型識別時間為31.98 ms,結(jié)合車輛顏色的識別時間3.86 ms,整體車輛的識別時間為35.84 ms,可以滿足視頻實時性的要求,此外,車輛的類型和顏色的類別相結(jié)合共同識別,使得車輛識別結(jié)果更加全面,平均準(zhǔn)確率可以達(dá)到95.63%,可以更有效地應(yīng)用于現(xiàn)實交通中車輛屬性的檢測識別。

3 結(jié)束語

本文提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的多場景下車輛多屬性識別方法。首先針對真實道路場景下的監(jiān)控圖像,采集包含各類型與各類顏色的車輛數(shù)據(jù)集,并進(jìn)行分類篩選和標(biāo)簽處理,訓(xùn)練經(jīng)過改進(jìn)后的YOLOv3神經(jīng)網(wǎng)絡(luò)得到車輛多屬性識別模型,該模型可以在縮短識別時間的前提下同時達(dá)到識別準(zhǔn)確率度高,檢測效果好的要求,適用于各類真實道路場景下的監(jiān)控圖像。本文將車輛的類型和顏色屬性的樣本數(shù)據(jù)集進(jìn)行分級訓(xùn)練,有效提升了屬性分類的準(zhǔn)確率與實時性。利用測試數(shù)據(jù)集對訓(xùn)練得到的車輛多屬性識別模型進(jìn)行了測試,實驗結(jié)果表明,本文提出的方法在不同道路場景下均具有較高的檢測精度,滿足了現(xiàn)實使用要求,并且可以有效識別出車輛的類型和顏色信息,具有較高的識別準(zhǔn)確率和良好的適用性以及魯棒性。

猜你喜歡
準(zhǔn)確率顏色車輛
乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
健康之家(2021年19期)2021-05-23 11:17:39
不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
車輛
小太陽畫報(2018年3期)2018-05-14 17:19:26
認(rèn)識顏色
冬天路滑 遠(yuǎn)離車輛
車輛出沒,請注意
特殊顏色的水
提高車輛響應(yīng)的轉(zhuǎn)向輔助控制系統(tǒng)
汽車文摘(2015年11期)2015-12-02 03:02:53
崇文区| 沾化县| 哈巴河县| 浏阳市| 安阳县| 佳木斯市| 徐州市| 景东| 大新县| 闻喜县| 宜都市| 平谷区| 漳州市| 浦县| 岚皋县| 孝义市| 闸北区| 湛江市| 小金县| 栾城县| 闵行区| 萨嘎县| 玛沁县| 文山县| 嘉兴市| 沧源| 北流市| 通化县| 武威市| 米脂县| 赣榆县| 宣威市| 公主岭市| 霍城县| 井研县| 瑞昌市| 贵阳市| 高碑店市| 南康市| 铜陵市| 和龙市|