国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于SLBH 特征的行人檢測算法研究

2015-06-02 01:35張祎蔚
電腦知識(shí)與技術(shù) 2015年9期

張祎蔚

摘要:受韋伯局部描述子和LBP特征的啟發(fā),針對(duì)Haar特征維度高、冗余度大以及對(duì)光照變化適應(yīng)性差等缺點(diǎn),提出了一種于顯著性的局部二值化Haar特征。首先將8種Haar特征組合形成一個(gè)3*3的塊,利用局部二值化思想得到二值化Haar特征;然后根據(jù)韋伯定律求取該塊的顯著性因子;最后把顯著性因子作為權(quán)重將二值化Haar特征統(tǒng)計(jì)成直方圖而得到SLBH特征。通過在INRIA行人樣本庫上實(shí)驗(yàn),表明該特征具有較好的魯棒性、較高的檢測率和較低的虛警率。

關(guān)鍵詞:韋伯局部描述子;LBP特征;SLBH特征;顯著性因子;行人檢測

中圖分類號(hào):TP18 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1009-3044(2015)09-0202-03

近年來,基于計(jì)算機(jī)視覺的行人檢測技術(shù)一直是智能交通系統(tǒng)領(lǐng)域研究的熱點(diǎn)問題[1],而可行且高效的行人特征提取算法是其中的關(guān)鍵部分,為此,許多專家學(xué)者對(duì)此進(jìn)行了深入研究。

Haar特征由Viola等學(xué)者首次提出并用于人臉識(shí)別領(lǐng)域,取得了良好的檢測效果[2,3],而后被許多學(xué)者改進(jìn)和擴(kuò)展,使其更加適合于行人檢測領(lǐng)域。Abramson Y[4]在標(biāo)準(zhǔn)haar特征的基礎(chǔ)上進(jìn)行了擴(kuò)展,以增強(qiáng)對(duì)運(yùn)動(dòng)行人姿態(tài)的描述和檢測。但該特征仍然易受光照變化、環(huán)境遮擋等因素的影響,適應(yīng)場景變化的能力較差,魯棒性不高。HOG特征是行人檢測特征提取領(lǐng)域的另一經(jīng)典算法,與haar特征不同,HOG特征屬于矢量特征范疇[5]。Lazebnik S等人[6]為了提升了HOG特征提取速度提出了PHOG特征。SIFT特征[7]由于其優(yōu)異的不變性也被廣泛到應(yīng)用到目標(biāo)檢測特征提取的應(yīng)用中。HOG特征和SIFT特征都是比較典型的矢量特征提取算法,但是由于特征維數(shù)較高,實(shí)時(shí)性難以保證,必須經(jīng)過特征降維處理。再就是Edgelet特征[8-9],與其他行人檢測特征提取算法不同,該特征著力于描述行人輪廓特征,能有效處理環(huán)境復(fù)雜且目標(biāo)被遮擋情況較為嚴(yán)重條件下的行人檢測,但是由于計(jì)算較為復(fù)雜,實(shí)時(shí)性較低。Ojala T等人提出的LBP特征因其具有維度低、計(jì)算速度快、能很好的刻畫圖像的紋理信息而被廣泛應(yīng)用,并且出現(xiàn)了許多的變體[10,11]。Chen等人[12]根據(jù)韋伯定理提出了韋伯局部描述算子,該特征雖然對(duì)光照和噪聲干擾具有一定的魯棒性,但是其特征提取仍比較復(fù)雜,計(jì)算量較大。

本文在分析上述特征的基礎(chǔ)上,針對(duì)Haar特征維度高、冗余度大,而LBP特征又無法刻畫人眼的視覺敏感度,提出了一種基于顯著性的局部二值化Haar特征(Saliency Local Binary Haar,SLBH)提取算法。該特征維度低,對(duì)平移、縮放和噪聲具有一定的魯棒性,并能顯現(xiàn)特征的局部顯著性,從而提高了行人檢測的準(zhǔn)確率。本文結(jié)構(gòu)安排如下:SLBH特征將在第2節(jié)詳細(xì)介紹,第3節(jié)給出實(shí)驗(yàn)與結(jié)果分析,最后是總結(jié)。

1 SLBH特征

1.1 顯著性因子

顯著因子是對(duì)局部特征顯著性的描述,韋伯定律指出,在發(fā)散的局部特征中,局部顯著性不能由差別閾限的絕對(duì)值來進(jìn)行比較,而應(yīng)由其相對(duì)值進(jìn)行確定。根據(jù)韋伯定律[12],可以利用式(1)計(jì)算出中心像素點(diǎn)在其鄰域內(nèi)的顯著性因子。其中[Ic]表示中心像素點(diǎn)的灰度值,p為鄰域個(gè)數(shù),[Ii]為對(duì)應(yīng)鄰域像素點(diǎn)的灰度值。

[S(Ic)=arctani=0p(Ii-Ic)Ic] (1)

其中,[S(Ic)∈-π2,π2]。 為了方便后續(xù)計(jì)算,本文再通過增加一個(gè)值為[π2]的偏置項(xiàng)將[S(Ic)]值域轉(zhuǎn)換至轉(zhuǎn)換[0,π]。[S(Ic)]是對(duì)局部特征顯著性的描述,其值越大表明顯著性越強(qiáng)。

1.2 加權(quán)LBP特征

局部二元模式(LBP)是一種描述圖像局部紋理的算子,因其具有計(jì)算簡單,對(duì)光照變化不敏感等優(yōu)點(diǎn)而被廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域。LBP特征計(jì)算如式(2)所示,其中[gc]為中心像素點(diǎn)的灰度值,[gi]為[gc]的八個(gè)鄰域像素點(diǎn)灰度值,[s(?)]為閾值比較函數(shù),其定義如式(3)所示。

[LBP(gc)=i=07s(gi-gc)?2i] (2)

[s(x,y)=0,if x-y≤T1,otherwise] (3)

在計(jì)算出整幅圖像的LBP特征值后,根據(jù)式(4)統(tǒng)計(jì)LBP特征直方圖,其中判斷函數(shù)[f(?)]定義如式(5)所示。

[H(k)=x,yf(LBP(x,y),k),k∈[0,K]] (4)

[ f(x,y)=1,if x=y0,otherwise] (5)

LBP特征僅利用了中心像素與其鄰域內(nèi)像素間的差異,而缺乏對(duì)物體顯著性的描述。如圖1所示,雖然兩個(gè)矩形區(qū)域具有相同LBP特征值,但是其顯著性因子相差卻很大。根據(jù)韋伯定律,顯著因子越大,其顯著性越強(qiáng),其所描述的信息也就越重要,而LBP特征并不能描述這些顯著性信息。Cao Y等人[11]利用中心像素與鄰域像素差的絕對(duì)值之和作為權(quán)值,來增加像素間差異在LBP特征直方圖中的影響,如式(6)所示,其中K為最大的LBP特征值,判斷函數(shù)與式(5)相同,權(quán)值函數(shù)如式(7)所示。

[H(k)=x,yw(x,y)*f(LBP(x,y),k),k∈[0,K]] (6)

[w(gc)=i=07|gi-gc|] (7)

Cao Y等提出的加權(quán)LBP直方圖雖然考慮到了像素鄰域間差異的影響,但是它也沒能很好描述特征的局部顯著性。此外,由于在加權(quán)直方圖統(tǒng)計(jì)過程中不斷累積權(quán)重,使得各維度之間相差較大。受韋伯定理的啟發(fā),本文使用更接近人類視覺差異的顯著性因子作為權(quán)重來統(tǒng)計(jì)加權(quán)LBP直方圖。直方圖統(tǒng)計(jì)函數(shù)如下:

[H(k)=x,yS(x,y)*f(LBP(x,y),k),k∈[0,K]] (8)

1.3 SLBH特征

Viola等人[3]最先提出并將Haar特征應(yīng)用于行人檢測中。但隨著研究的深入,學(xué)者們發(fā)現(xiàn)原始的Haar特征對(duì)于檢測靜止的、對(duì)稱的物體比較有效,而對(duì)于行人這類非剛性物體,則需要在其它方向上增加能夠描述行人運(yùn)動(dòng)特點(diǎn)的特征。Lienhart R等人在Viola提出的標(biāo)準(zhǔn)Haar特征的基礎(chǔ)上進(jìn)行了擴(kuò)展,本文使用了圖2所示的這8種擴(kuò)展的Haar特征。

將上述8種Haar特征構(gòu)成了一個(gè)3*3的矩形區(qū)域,為了方便描述,我們稱Haar特征的黑色或者白色矩形區(qū)域?yàn)橐粋€(gè)cell,而3*3的矩形區(qū)域稱為一個(gè)block。如果對(duì)3*3區(qū)域從上到下,順時(shí)針編號(hào),分別表示為[c0],[c1], [c2], [c3], [c4], [c5], [c6],[c7], 中心黑色區(qū)域表示為[cc],如圖3所示。然后按照式(1)進(jìn)行計(jì)算,得到的結(jié)果為局部二值化Haar特征(Local Binary Haar,LBH)。

其中,[I(k,l)]表示圖像[I]在點(diǎn)[(k,l)]處像素值,w表示cell的寬度,h表示cell的高度??紤]到LBP模式缺乏對(duì)顯著性描述的缺陷,因此本文利用式(8)來統(tǒng)計(jì)局部二值化Haar特征直方圖,即SLBH特征。該特征計(jì)算步驟如下:

Step 1:將輸入圖像轉(zhuǎn)換到灰度空間。

Step 2:利用積分圖技術(shù)求取每個(gè)cell的像素灰度值之和。

Step 3:將8個(gè)cell按照?qǐng)D3所示結(jié)構(gòu)組成一個(gè)block。

Step 4:根據(jù)式(9)計(jì)算每個(gè)block內(nèi)的LBH值,根據(jù)式(1)計(jì)算每個(gè)block的顯著性因子。

Step 5:按照式(8)統(tǒng)計(jì)直方圖,即為該圖像的SLBH特征。

與傳統(tǒng)Haar特征相比,SLBH特征增加了顯著性因子計(jì)算,其計(jì)算復(fù)雜度雖高于傳統(tǒng)Haar特征,但該特征在刻畫行人紋理信息時(shí)需要的特征數(shù)量較少,故此特征實(shí)時(shí)性較好。由于引入加權(quán)局部二元模式的思想使SLBH特征擁有傳統(tǒng)的Haar特征無法比擬的光照不變性,可以有效的提高系統(tǒng)的魯棒性,這在下面的試驗(yàn)中可以看到SLBH特征優(yōu)越的檢測效果。

2 實(shí)驗(yàn)與結(jié)果分析

為了驗(yàn)證本文算法的有效性與優(yōu)越性,設(shè)計(jì)了兩組實(shí)驗(yàn)進(jìn)行特征性能評(píng)估和檢測性能對(duì)比。所有的實(shí)驗(yàn)樣本均采集于INRIA行人樣本庫,其中訓(xùn)練集中正樣本2416幅行人圖像,負(fù)樣本為3070幅,測試集中正樣本1126幅,負(fù)樣本3070幅。圖4為本文算法的實(shí)現(xiàn)流程圖。為了能夠直觀的顯示出各種特征的檢測性能,本文使用檢測率(detection rate, DR)、虛警率(False Positive Rate, FPR)和識(shí)別率(recognize rate, RR)以及平均每幅圖像特征提取時(shí)間(Average Extraction Cost, AEC)4種評(píng)價(jià)指標(biāo),其計(jì)算公式如式(11)、式(12)和式(13)所示。其中TP表示行人檢測為行人(true positive),F(xiàn)P表示是非行人檢測為行人(false positive),F(xiàn)N表示行人檢測為非行人(false negative)。

2.1特征性能評(píng)估

為了測試本文對(duì)Haar特征改進(jìn)的性能,實(shí)驗(yàn)選用了Haar、LBH和SLBH特征做對(duì)比實(shí)驗(yàn),并且選擇SVM作為分類器。實(shí)驗(yàn)統(tǒng)計(jì)結(jié)果如表1所示,從表1中可以發(fā)現(xiàn)本文提出的SLBH特征雖然特征提取時(shí)間略高于其它兩種特征,但是在其它3種評(píng)價(jià)指標(biāo)上都優(yōu)于Haar和LBH特征。

2.2 檢測性能對(duì)比

本文在相同的實(shí)驗(yàn)條件下選擇PHOG特征[6]、加權(quán)LBP特征[11]、WLD特征[12]、HOG-LBP特征[13]和本文算法進(jìn)行對(duì)比實(shí)驗(yàn)。其實(shí)驗(yàn)結(jié)果如表2所示,可以看出,本文提出的SLBH特征的各項(xiàng)評(píng)價(jià)指標(biāo)均高于其它方法的實(shí)驗(yàn)效果。圖5是在Detect Human行人樣本測試集上測試的部分實(shí)驗(yàn)結(jié)果圖。

3 總結(jié)

本文針對(duì)Haar特征維度高、冗余大以及對(duì)光照敏感等不足提出了一種顯著性的局部二值化Haar特征,該特征結(jié)合了視覺顯著性和加權(quán)LBP的思想,能減少Haar特征的維數(shù),并增強(qiáng)了紋理描述能力。通過在INRIA行人樣本庫中實(shí)驗(yàn),結(jié)果表明本文所提方法的檢測率與誤檢率都優(yōu)于其它方法。

參考文獻(xiàn):

[1] Dollar P, Wojek C, Schiele B, et al. Pedestrian detection: An evaluation of the state of the art[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2012, 34(4): 743-761.

[2] Viola P., Jones M. Robust real-time face detection [J]. International Journal of Computer Vision, 2004, 52(2):137-154.

[3] Viola P, Jones MJ, Snow D. Detecting pedestrians using patterns of motion and appearance [J]. International Journal of Computer Vision, 2005, 63(2):153-161.

[4]Abramson Y., Rabinovich A..Decidability of split equivalence [J].Information and Computation,2002,173(1):15-39.

[5]Pang Yanwei, Yuan Yuan, Li Xuelong, Pan Jing.Efficient HOG human detection [J].Signal Processing,2011.91(4):773-781.

[6]Lazebnik S,Schmid C,Ponce J.Beyond Bags of Features:Spatial Pyramid Matching for Recognizing Natural Scene Categories [C]//Prac of the IEEE Computer Seciety Conference on Computer Vision and Pattern Recognition, 2006:2169-2178.

[7]Lowe D M.. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2):91-110.

[8]Wu Bo, Nevatia Ram.Detection and tracking of multiple, partially occluded humans by Bayesian combination of edgelet based part detectors [J].International Journal of Computer Vision,2007,75(2):247-266

[9]Hu Bin, Wang Shengjin, Ding Xiaoqing.Multi features combination for pedestrian detection [J].Journal of Multimedia,2010,5(1):79-84

[10]Thanh Nguyen D, Ogunbona P O, Li W. A novel shape-based non-redundant local binary pattern descriptor for object detection[J]. Pattern Recognition, 2013,46(5):1485-1500.

[11]Cao Y, Pranata S, Nishimura H. Local Binary Pattern features for pedestrian detection at night/dark environment[C]//18th IEEE International Conference on. IEEE, 2011: 2053-2056.

[12] Chen J, Shan S, He C, et al. WLD: A robust local image descriptor[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2010,32(9):1705-1720.

[13]Gan G, Cheng J. Pedestrian detection based on hog-lbp feature[C]//Computational Intelligence and Security (CIS), 2011 Seventh International Conference on. IEEE, 2011: 1184-1187.