丁博 王水凡
摘 要:隨著高級駕駛輔助系統(tǒng)(advanced driver assistance systems, ADAS)和無人駕駛技術(shù)快速發(fā)展,交通標志識別方法成為一個重要的研究方向。為了輔助駕駛員實現(xiàn)安全駕駛,減少交通事故的發(fā)生,將AdaBoost-SVM和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)相結(jié)合,構(gòu)建一個混合預測模型(mixed forecasting model, MFM),通過該模型識別交通標志。將卷積神經(jīng)網(wǎng)絡(luò)作為可訓練的特征提取器,AdaBoost-SVM作為識別器。采用卷積層和下采樣層構(gòu)建兩組隱層結(jié)構(gòu),將預處理的圖像作為CNN模型的輸入,利用反向傳播算法(backpropagation, BP)對CNN模型進行訓練直至收斂,最后將測試集的高維特征提取出來,采用AdaBoost-SVM分類器進行分類識別。實驗結(jié)果表明,該MFM對交通標志具有很高的識別率和魯棒性,且識別率和收斂時效都優(yōu)于其他傳統(tǒng)算法,對提高輔助駕駛和無人駕駛的安全性具有重要意義。
關(guān)鍵詞:混合預測模型; 卷積神經(jīng)網(wǎng)絡(luò);反向傳播算法;AdaBoost-SVM分類器;交通標志
DOI:10.15938/j.jhust.2019.05.018
中圖分類號: TP393.4
文獻標志碼: A
文章編號: 1007-2683(2019)05-0108-08
Abstract:With the rapid development of Advanced Driver Assistance Systems (ADAS) and unmanned technology, the identification of traffic signs becomes an important research topic. In order to assist the driver to achieve safe driving and reduce the possibility of traffic accidents, a Mixed Forecasting Model (MFM) based on AdaBoost-SVM and CNN was proposed to identify traffic signs. In MFM, the CNN is used as a trained feature extractor and AdaBoost-SVM is used as a recognizer. The two layers of hidden layer structure were constructed by convolution and subsampling. The pretreatment images were used as the input of CNN model. The CNN model was trained by Back propagation (BP) until convergence. Finally the test set of the dimensional features were extracted, and the AdaBoost-SVM classifier was adopted to classify and identify the dimensional features. The experimental results show that the MFM has high recognition rate and robustness to traffic signs, and the recognition rate and convergence time are superior to other traditional algorithms, which are of great significance to improve the driving and unmanned safety.
Keywords:MFM; CNN; BP; AdaBoost-SVM classifier; traffic sign
0 引 言
隨著經(jīng)濟的快速發(fā)展,車輛的數(shù)量持續(xù)增多,交通事故時有發(fā)生,道路的安全性問題日益突出,智能交通系統(tǒng)(intelligent traffic system, ITS)被認為是解決這些問題的基本手段[1]。其中,交通標志識別系統(tǒng)(traffic sign recognition, TSR)作為ITS的一個重要子系統(tǒng),有效識別交通標志,從而輔助駕駛員或控制系統(tǒng)安全駕駛,對提高車輛的安全駕駛方面具有重大意義。在現(xiàn)實的環(huán)境中,道路上的交通標志往往由于復雜的室外環(huán)境,出現(xiàn)因光照、部分遮擋、運行模糊等問題,導致駕駛員或控制系統(tǒng)很難識別交通標志,降低了交通的安全性,故設(shè)計并實現(xiàn)一個快速、準確、有效的交通標志識別方法,并將其反饋給駕駛?cè)藛T或控制系統(tǒng),對于駕駛的安全性具有重要的研究意義。隨之而來,大量復雜的交通標志識別算法被提出,然而目前的交通標志識別算法存在準確率高但訓練速度慢,或者訓練速度快識別率低等問題,為了解決以上問題,本文提出將AdaBoost-SVM和CNN相結(jié)合的MFM,該模型旨在對交通標志進行及時、準確的識別,從而有效提高駕駛的安全性。
近年來,在智能交通方面對交通標志的識別取得了突破性的進展,吸引了很多研究者投入其中。朱雙東等人通過對交通標志的顏色和形狀進行分析,提出了一種顏色形狀對的概念,并構(gòu)建了一個交通標志顏色-幾何模型,對交通標志進行了分類及檢測[2];劉亞辰等提出了一種融合空間塔式算子和直方圖交叉核支持向量機(HIK-SVM)的識別方法,從三個方面對圖像進行特征提取,有效的對交通標志進行識別[3];繆小冬等提出了一種在復雜環(huán)境中的交通標志識別方法,通過改進多尺度LogGabor小波進行特征提取,利用優(yōu)化的SVM分類器進行分類,識別效果良好[4];張卡等提出了一種基于中心投影的交通標志識別算法,利用訓練后的概率神經(jīng)網(wǎng)絡(luò),實現(xiàn)交通標志的識別,具有較高的識別率[5]。國外研究者Lau采用深層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)對交通標志進行分類,并與淺層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)作比較 [6];Abedin等采用混合功能的魯棒特征描述符形成TSR系統(tǒng)的一種新方法,稱為梯度方向直方圖(histogram of oriented gradient, HOG)特征和加速魯棒特征(Speed-up Robust Feature, SURF)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)分類器,識別準確率明顯提高[7];Han等介紹了一種用于駕駛員輔助系統(tǒng)或自主車輛的交通標志識別系統(tǒng),該系統(tǒng)利用SURF算法提取特征進行訓練,對交通標志進行檢測和識別 [8];Shams等提出了一種基于Bag-of-Word(BOW)模型的多類交通標志識別系統(tǒng),實現(xiàn)了88.02 %的識別率,且執(zhí)行時間短[9]。以上算法在交通標志方面取得了良好效果,但存在訓練時間過長,魯棒性較差等問題,且隨著實驗交通標志樣本量的增加,識別率會有所下降。
針對以上問題,本文對CNN結(jié)構(gòu)進行優(yōu)化,將CNN與AdaBoost-SVM算法相組合,設(shè)計出MFM,其中,利用CNN作為特征提取器,AdaBoost-SVM作為分類器。該優(yōu)化方法首次應用在智能交通領(lǐng)域,本文針對交通標志識別設(shè)計出CNN結(jié)構(gòu),包括兩個卷積層、兩個下采樣層和一個全連接層,利用反向傳播算法對模型進行訓練,同時在最后分類層使用AdaBoost-SVM分類器進行分類。實驗驗證了該組合算法的性能,并與PCA-SIFT[10-11]、K-means[12-13]和傳統(tǒng)的CNN算法[14-15]進行識別率及收斂時間的比較,取得了良好效果。
1 構(gòu)建混合預測模型
CNN分為特征提取和分類(預測)兩個過程,它通過卷積和降采樣實現(xiàn)映射并提取不同層次的特征,最后通過單層感知機實現(xiàn)分類。實驗發(fā)現(xiàn)對于交通標志圖像的識別,CNN的卷積操作可以提取輸入圖像的局部有用且關(guān)鍵的特征,而且每一個卷積圖上的神經(jīng)元共享卷積參數(shù),具有良好的特征提取能力,但僅僅通過CNN最后一層單層感知機進行分類,容易出現(xiàn)局部最優(yōu)及過擬合等問題,導致圖像分類的準確率不高。為了解決這個問題,CNN模型通常結(jié)合其他分類器進行分類預測。本文采用了AdaBoost-SVM分類算法,相比于其他分類算法,它在分類預測方面具有良好的性能,可以有效避免過擬合、訓練速度低等問題,準確的獲取全局最優(yōu)解,從而提升交通標志分類的準確率。本文將兩種算法相結(jié)合,采用深度學習中的CNN算法對交通標志進行特征學習,再應用淺層學習AdaBoost-SVM算法對特征進行分類。
本文提出采用AdaBoost-SVM和CNN相結(jié)合的MFM識別交通標識,如圖1所示。該模型由圖像預處理、CNN特征提取、AdaBoost-SVM分類三部分組成。首先經(jīng)過預處理后的圖像利用卷積神經(jīng)網(wǎng)絡(luò)進行特征提取與特征選擇,在獲得高維特征數(shù)據(jù)后,在應用AdaBoost-SVM分類器進行分類,加速深度學習訓練過程,有效提高分類的準確率。
區(qū)域裁剪:實驗部分采用的每幅圖像只含一個交通標志且位于中心位置,但仍有多余的背景信息會對目標識別造成影響,根據(jù)不同類別的圖像的大小進行一定比例裁剪,使交通標志填充整個圖像。
灰度化:由于不同地區(qū)交通標志圖像的顏色信息會不同,導致同一交通標志在不同區(qū)域下識別效果存在誤差,同時處理彩色圖像的數(shù)據(jù)量偏大,因此將交通標志灰度化十分必要?;叶然蟮膱D像可以更好地反映圖像整體與局部的關(guān)系,降低圖像復雜度。本文采用加權(quán)平均法進行灰度化處理即將彩色圖像的顏色值以固定的分量系數(shù)進行求和運算,將計算結(jié)果作為灰度圖像的灰度值,如式(1),其中 R、G、B為原始彩圖的三種顏色分量,I(x, y)是(x, y)像素點的灰度值。
I(x,y)=0.3×R(x,y)+0.59×G(x,y)+
0.11×B(x,y)(1)
圖像增強:由于數(shù)據(jù)集中圖像存在光線暗、對比度差、模糊等問題,需要對圖像增強來擴大目標與背景的差別,提升圖像質(zhì)量。本文采用空間域增強方法中的直方圖均衡化來完成圖像增強。通過特定的灰度映射關(guān)系將輸入的圖像映射到含有相似像素點的輸出圖像,增加了像素灰度值動態(tài)范圍,達到增強圖像整體的對比度效果。
尺寸歸一化:數(shù)據(jù)集中圖像尺寸大小不一,且有的圖不是正方形圖像,使MFM難以提取到有效的特征向量。實驗中采用雙三次插值算法將圖像尺寸統(tǒng)一調(diào)整到4848,可以保持圖像邊緣細節(jié)信息,使圖像降質(zhì)最少,效果最佳,便于后期交通標志的識別[16]。
2)通過訓練集圖像訓練CNN模型直至收斂或穩(wěn)定。為了加速CNN收斂,卷積層采用Re LU(Rectified Linear Units)來激活神經(jīng)元[17],即
yiμ,ν=xiμ,ν/(e+αmin(N-1,i+n/2max(0,i-n/2)(xjμ,ν)2)β(2)
其中:xiμ,ν 表示(μ,ν)處通過過濾器計算得到的神經(jīng)元激活度,n是該層的核總數(shù),其余為超參數(shù)。由實驗驗證,將e、n、α、β分別設(shè)置為2、5、10-4、0.5。
3)MFM最后利用CNN提取的特征向量作為AdaBoost-SVM分類器的輸入,具體的分類過程為:首先將測試集分類過程等分為若干層支持向量機弱分類器的組合疊加;然后基于CNN模型提取到的特征數(shù)據(jù),應用非線性SVM算法進行交通標志分類;根據(jù)每層SVM訓練結(jié)果調(diào)整樣本權(quán)重;通過T次訓練得到T個子SVM分類器,加權(quán)求和得到AdaBoost-SVM強分類器,輸出更準確的交通標志分類結(jié)果。
首先通過實驗預處理得到交通標志圖像的訓練集和測試集圖像,將訓練集圖像對卷積神經(jīng)網(wǎng)絡(luò)模型進行訓練,從訓練數(shù)據(jù)中進行學習,不斷調(diào)整參數(shù),直至訓練模型穩(wěn)定或收斂,再將測試集圖像采用訓練好的CNN模型進行特征提取,并將提取到的特征數(shù)據(jù)作 AdaBoost-SVM分類器的輸入。然后利用訓練集提取到的特征數(shù)據(jù)來訓練AdaBoost-SVM模型,調(diào)整參數(shù),直至識別率最高,訓練完成后,把CNN采樣層中對測試集提取到的高維特征放到AdaBoost-SVM分類器中,最后完成交通標志分類過程。
2 卷積神經(jīng)網(wǎng)絡(luò)
2.1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
CNN結(jié)構(gòu)由輸入層、卷積層和采樣層組成[18]。圖4為本文構(gòu)建的交通標志識別CNN結(jié)構(gòu)。該模型由卷積層C1、下采樣層S2、卷積層C3、下采樣層S4和全連接層F5構(gòu)成。其中CNN的輸入層為預處理后4848的圖像,利用8個可訓練的濾波器及可加偏置進行卷積,卷積核大小為55,卷積后在C1層形成8個大小相等的4444特征映射圖;經(jīng)過采樣層S2,采樣核大小為22,得到8個2222特征映射圖;同樣,第2個卷積層C3,采樣核大小為33,產(chǎn)生14個大小為2020特征圖;經(jīng)過采樣層S4,產(chǎn)生14個大小是1010的特征圖;在F5全連接層中,將得到的14個特征圖排列為一條列向量與F5層120個神經(jīng)元全連接。
圖4 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
Fig.4 Convolutional neural network structure
最后一層是分類器,將Softmax分類器替換成本文的提出的AdaBoost-SVM分類器對交通標志進行分類。通過比較預測值和真實值來調(diào)整CNN模型,當訓練集的識別率在CNN上表現(xiàn)穩(wěn)定時,將測試集圖像輸入CNN模型中,通過AdaBoost-SVM分類器對提取到的特征數(shù)據(jù)進行有效分類。
2.2 卷積神經(jīng)網(wǎng)絡(luò)的訓練
卷積神經(jīng)網(wǎng)絡(luò)訓練采用反向傳播算法,其中樣本數(shù)據(jù)集是由:輸入向量和理想輸出向量的向量對構(gòu)成,下面是用交通標志數(shù)據(jù)集訓練CNN的具體過程。
第一階段,前向傳播階段:①從樣本數(shù)據(jù)集中取一個樣本(I,Px),將I輸入網(wǎng)絡(luò);②計算相應的實際輸出Ox。
第二階段,反向傳播階段:①前面計算的實際輸出類別Ox與相應的理想輸出類別Px做比較,求偏差;②并以誤差Ex最小化作為優(yōu)化目標,反向傳播更新連接權(quán)重矩陣。
Ex=12∑j(Pxj-Oxj)2(3)
本文在訓練CNN模型的過程中,具體公式推導為:
1)在卷積層中,假設(shè)第l層為卷積層,第l+1層為下采樣層,則第l層第j個特征圖xlj的計算公式如(4),式中:ulj表示在卷積層l的第j個特征圖的凈激活(Net activation),ulj由l-1層所輸出的特征圖xl-1i和第l層的第j個卷積核klij做卷積運算求和,然后加上一個偏置參數(shù)blj得到。其中Mj是特征圖子集,f(·)是激活函數(shù),“*”表示卷積符號。
2)在下采樣層,假設(shè)第l層為下采樣層,第l-1層為卷積層。采用一對一重疊采樣的方法,第l層計算公式如式(8),ulj表示在下采樣層l的第j個特征圖的凈激活,ulj由H層特征圖xl-1i進行下采樣加權(quán)、偏置后得到。β是下采樣權(quán)重系數(shù), blj為下采樣偏置項,down(n)為下采樣函數(shù)。假設(shè)采樣大小為2×2,那么 是將x中2×2的大小像素進行求和。
3 AdaBoost-SVM組合算法
支持向量機(support vector machine, SVM)算法和AdaBoost算法均屬于比較流行的分類算法。SVM算法以結(jié)構(gòu)風險最小化為準則,通過訓練得到的分類器來獲得全局最優(yōu)解[19]。而AdaBoost算法通過迭代訓練一系列弱分類器,直到誤差達到一個足夠小的閥值來結(jié)束算法。隨著交通標志數(shù)據(jù)樣本的增加,SVM算法的分類準確率會有所下降,同時核函數(shù)的選擇目前也沒有完善的理論支撐。而采用AdaBoost算法在處理數(shù)據(jù)集時,對噪聲比較敏感,容易出現(xiàn)“過學習”,同時處理高維數(shù)據(jù)誤差比較大。將AdaBoost和SVM相結(jié)合可以有效結(jié)合兩者的優(yōu)點并彌補一部分缺點,能夠在每次迭代過程中,通過改變SVM的參數(shù)使得AdaBoost獲得性能更好的分類效果[20]。
圖5為本文設(shè)計的AdaBoost-SVM組合算法識別模型,該模型將SVM抽象成AdaBoost機制中的弱分類器,利用AdaBoost算法提高任意弱分類器的分類性能,通過不斷迭代SVM弱分類器,集成SVM弱分類器,最后得到強分類器進行分類識別。
本文訓練AdaBoost-SVM模型的具體步驟為:
1)輸入CNN模型中特征提取數(shù)據(jù)。將卷積神經(jīng)網(wǎng)絡(luò)的特征提取后的數(shù)據(jù)作為SVM的輸入。
2)初始化樣本權(quán)值。選擇n組訓練數(shù)據(jù),每組數(shù)據(jù)的權(quán)值為Wt(i)=1/n,i=1,選擇合適的SVM核函數(shù)及核參數(shù)。
3)弱分類器SVM的預測。訓練第t個弱分類器時,得到預測樣本j(t)的預測誤差et,et為
4)計算預測樣本權(quán)重。根據(jù)樣本j(t)的預測誤差et計算序列的權(quán)重ωt為
5)測試數(shù)據(jù)權(quán)值調(diào)整。根據(jù)預測樣本序列調(diào)整下一輪訓練樣本的權(quán)值,下一輪Wt+1(i)調(diào)整為
6)獲得強分類函數(shù)。經(jīng)過T次訓練,得到T組弱分類函數(shù)f(jt,ωt),集成所有弱分類函數(shù)f(jt,ωt)得到的強分類器函數(shù)h(x)為
對于任意的交通標志定義為Ci,且Ci∈C={C1,C2,…,C5},設(shè)交通標志Ci的識別率為u,它被正確分類為Ci樣本數(shù)目為c,實際分類為Ci的樣本數(shù)目為d,識別率為
在分類算法的測試中,實驗完成了基于AdaBoost-SVM算法的識別函數(shù)的訓練設(shè)計,識別的準確率為93.98%。將AdaBoost-SVM分類器分別換成SVM分類器和AdaBoost分類器進行訓練,測試結(jié)果分別為89.73%、85.12%。如表1所示。記錄3個分類器的網(wǎng)絡(luò)訓練時間,可以看出AdaBoost-SVM組合分類器訓練時間短于其他兩個分類器,大幅提高了訓練速度,后續(xù)實驗中采用AdaBoost-SVM分類器,有效縮短訓練時間,提高收斂速度。
4 實驗與分析
本實驗平臺為Windows7(64bit)操作系統(tǒng),E5-2640CPU2.0GHz,64G內(nèi)存,512G固態(tài)硬盤,軟件環(huán)境為MATLAB2015a。
4.1 實驗數(shù)據(jù)集簡介
實驗使用德國交通標志數(shù)據(jù)集(german traffic sign recognition benchmark, GTSRB),該數(shù)據(jù)集包括43類德國實時采集的道路交通標志圖像,主要包括限速標志、其他禁令標志、解除禁令標志、指示標志、警告標志、其他標志。數(shù)據(jù)集共51839張真實的道路交通標志圖像,每張圖像僅含一個交通標志,其中訓練集與測試集圖像分別為39209,12630張,約3∶1。每類圖像都是在不同的自然場景下進行采集的,且每類圖像包含大小不同、光照不同的交通標志圖像,也會有部分圖像具有運動模糊、視角傾斜和局部遮擋等問題,所以GTSRB能夠較為全面的反映真實的交通標志情況。
4.2 預處理的有效性測試
CNN具有良好的特征提取特性,所以只需對GTSRB數(shù)據(jù)集中的圖像進行簡單且有效的預處理,從而提升原始圖像的質(zhì)量,為有效進行交通標志識別提供前提。本文用到的預處理方法包括區(qū)域裁剪、灰度化、圖像增強以及尺寸歸一化。
為了驗證本文預處理方法的有效性,以警告標志類識別為例,將預處理的圖像和只經(jīng)過尺寸歸一化處理的原始圖像分別作為CNN的輸入,在網(wǎng)絡(luò)模型各個參數(shù)均相同的情況下對圖像進行分類識別,對比結(jié)果如圖6所示。
由圖6可知,本文預處理圖像的識別率一直高于簡單處理的原始圖像的識別率,原因在于經(jīng)過預處理后的圖像其對比度、質(zhì)量、標志范圍等都得到改善,從而增強了圖像中的有效特征。在整個500次迭代過程中,本文預處理的識別率最高可達到97.10%,而簡單歸一化處理的圖像的識別率為95.13%,即預處理圖像使網(wǎng)絡(luò)的識別率總體提高2%。
4.3 CNN模型對圖像的特征表示
為了測試CNN模型對交通標志圖像的各層特征表示,實驗中將某一預處理后的交通標志作為訓練好的CNN模型的輸入,提取到卷積層C1、下采樣S2、卷積層C3、下采樣S4特征表示如圖7所示。
觀察圖7不難發(fā)現(xiàn),預處理后的交通標志圖像為菱形且位于圖像的中心區(qū)域,經(jīng)過CNN網(wǎng)絡(luò)提取得到的各層特征,其交通標志與背景的對比度很大,有利于后續(xù)實驗對交通標志類別的判斷。本組實驗說明本文構(gòu)建的CNN網(wǎng)絡(luò)模型可以有效提取交通標志的多尺度特征。
4.4 MFM分類的識別率分析
為了驗證本文提出的MFM識別效果,通過實驗,運用識別率和收斂時間對交通標志的分類性能進行評價。
實驗中,調(diào)整MFM訓練次數(shù)直至識別率最佳。當訓練次數(shù)(N)為100、300、500的情況下對交通標志識別率及MFM性能進行比較。表2對不同訓練次數(shù)N下的MFM的特征性能進行比較,發(fā)現(xiàn)隨著N的增加CNN訓練時間成倍的增長;然而不同N下的網(wǎng)絡(luò)特征提取時間相差不多;在N為300時,分類器訓練時間和分類識別時間最短。
表3對比了不同N下的6種交通標志識別率的情況,其中,在限速標志識別時,N為300比100的識別率提高了5.25%;而在警告標志識別時,N為500比300的識別率只提高了1.73%,沒有明顯的提升。
結(jié)果表明,N為300或500時識別率較高,且相差不多,但CNN訓練時間后者是前者的兩倍,且N為300時MFM特征性能最佳,所以從訓練時間和識別率綜合考慮,N取300比較合適。
綜合上述因素,MFM在后續(xù)實驗中選定訓練次數(shù)為300,來提高分類的準確率。為了更好地評價本文提出的模型,實驗中選擇幾種常見的算法和本文提出的算法對交通標志識別效果進行比較。將實驗測試數(shù)據(jù)依次采用PCA-SIFT、K-means和傳統(tǒng)的CNN算法進行識別,統(tǒng)計每種算法的分類結(jié)果的整體準確率,與本文提出的算法進行對比,實驗結(jié)果如圖8所示。
對4種算法的識別率進行比較,可以看出,在任何交通標志下,本文提出的算法識別率均在90%以上,最高可達到98.13%,其中在警告標志的識別中,比K-means算法提高了5.88%;在指示標志的識別中,比PCA-SIFT算法提高了7.07%;限速標志的識別中,比CNN算法提高了3.21%。主要的原因:K-means算法中聚類個數(shù)K是事先設(shè)定的,K值的選定很難估計,導致分類識別率不高;傳統(tǒng)的CNN通過最后一層單層感知機進行分類,當數(shù)據(jù)量較大時,容易出現(xiàn)局部最優(yōu),識別率會降低;PCA-SIFT算法的投影矩陣需要一系列的代表性圖像,由于交通標志圖像的復雜性,導致準確率不高。
隨著樣本數(shù)量的增加,不同的算法呈現(xiàn)收斂時間如圖9,實驗發(fā)現(xiàn)本文算法比其他的算法收斂速度要快。
上述實驗表明,本文提出的算法在交通標志識別上,不論是識別準確率還是收斂時間都優(yōu)于其他算法。
5 結(jié) 語
本文以GTSRB為研究對象,將AdaBoost-SVM和CNN兩種算法相結(jié)合,提出了一種混合預測模型MFM,在交通標志識別的問題上取得了良好的效果。該模型首先對數(shù)據(jù)集圖像進行預處理,然后利用卷積神經(jīng)網(wǎng)絡(luò)模型進行特征提取,最后將提取的特征數(shù)據(jù)采用AdaBoost-SVM分類器進行交通標志識別。經(jīng)仿真驗證,卷積神經(jīng)網(wǎng)絡(luò)與AdaBoost-SVM算法相結(jié)合,既保持了傳統(tǒng)CNN算法特征提取的優(yōu)勢,又提高了分類器的性能,實驗驗證交通標志的預測識別率約為95%。其識別準確率優(yōu)于傳統(tǒng)的幾種算法,且收斂至預設(shè)閾值更加迅速。分類結(jié)果驗證了該MFM的有效性和可行性,對輔助駕駛員及無人駕駛車輛對交通標志的預測具有良好的實用參考價值。
參 考 文 獻:
[1] CHANG X, CHEN B Y, LI Q, et al. Estimating Real-Time Traffic Carbon Dioxide Emissions Based on Intelligent Transportation System Technologies[J]. Intelligent Transportation Systems, 2013, 14(1): 469.
[2] 朱雙東, 劉蘭蘭, 陸曉峰,等.一種用于道路交通標志識別的顏色-幾何模型[J].儀器儀表學報, 2007, 28(5): 956.
[3] 劉亞辰, 陳躍鵬, 張賽碩,等. 融合式空間塔式算子和HIK-SVM的交通標志識別研究[J]. 交通運輸系統(tǒng)工程與信息, 2017, 17(1): 220.
[4] 繆小冬, 李舜酩, 沈峘,等. 復雜環(huán)境中交通標志的實時識別方法[J]. 江蘇大學學報(自然科學版), 2013, 34(5): 514.
[5] 張卡, 盛業(yè)華, 葉春,等. 基于中心投影形狀特征的車載移動測量系統(tǒng)交通標志自動識別[J]. 儀器儀表學報, 2010, 31(9): 2101.
[6] LAU M M, LIM K H, GOPALAI A A. Malaysia Traffic Sign Recognition with Convolutional Neural Network[C]// IEEE International Conference on Digital Signal Processing. IEEE, 2015: 1006.
[7] ABEDIN M Z, DHAR P, DEB K. Traffic Sign Recognition Using Hybrid Features Descriptor and Artificial Neural Network Classifier[C]// International Conference on Computer and Information Technology, 2016: 457.
[8] HAN Y, VIRUPAKSHAPPA K, ORUKLU E. Robust Traffic Sign Recognition with Feature Extraction and k-NN Classification Methods[C]// IEEE International Conference on Electro/information Technology. IEEE, 2015: 484.
[9] SHAMS M M, KAVEH H, SAFABAKHSH R. Traffic Sign Recognition Using an Extended Bag-of-features Model with Spatial Histogram[C]// Signal Processing and Intelligent Systems Conference, 2015: 189.
[10]WANG Y W, YU H L. Image Registration Method Based on PCA-SIFT Feature Detection[J]. Advanced Materials Research, 2013, 715: 2395.
[11]于之靖,王韶彬.改進PCA-SIFT算法的立體匹配系統(tǒng)[J].激光與光電子學進展, 2016, 53(3): 177.
[12]BLOMER J, BRAUER S, BUJNA K. A Theoretical Analysis of the Fuzzy K-Means Problem[C]// IEEE, International Conference on Data Mining, IEEE, 2016: 805.
[13]劉雪娟,袁家斌,許娟,等.量子k-means算法[J].吉林大學學報(工學版), 2018, 48(2): 539.
[14]李蘭英,孔銀,陳德運.一種新的卷積神經(jīng)網(wǎng)絡(luò)的ECT圖像重建算法[J]. 哈爾濱理工大學學報, 2017, 22(4): 28.
[15]劉長征,張磊.語音識別中卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法[J]. 哈爾濱理工大學學報, 2016, 21(3): 34.
[16]龐志勇, 譚洪舟, 陳弟虎. 一種改進的低成本自適應雙三次插值算法及VLSI實現(xiàn)[J]. 自動化學報, 2013, 39(4): 407.
[17]史鶴歡, 許悅雷, 馬時平, 等. PCA預訓練的卷積神經(jīng)網(wǎng)絡(luò)目標識別算法[J]. 西安電子科技大學學報(自然科學版), 2016, 43(3): 161.
[18]胡長雨. 基于卷積神經(jīng)網(wǎng)絡(luò)的目標檢測算法研究[D].哈爾濱:哈爾濱理工大學, 2017: 34.
[19]丁然. 支持向量機多類分類算法研究[D]. 哈爾濱:哈爾濱理工大學, 2012: 44.
[20]CHENG W C, JHAN D M. Triaxial Accelerometer-Based Fall Detection Method Using a Self-Constructing Cascade-AdaBoost-SVM Classifier[J]. IEEE Journal of Biomedical & Health Informatics, 2013, 17(2): 411.
(編輯:溫澤宇)