国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于貝葉斯方法的視覺跟蹤

2015-04-27 13:25顏曉文謝杰騰
物聯(lián)網(wǎng)技術(shù) 2015年4期
關(guān)鍵詞:魯棒性直方圖

顏曉文 謝杰騰

摘 要:在視覺跟蹤研究中,存在目標(biāo)遮擋、目標(biāo)形變、目標(biāo)旋轉(zhuǎn)、光照變化、尺度變化等強(qiáng)干擾因素。一般的跟蹤方法都是針對(duì)跟蹤目標(biāo)框內(nèi)的圖像信息建模并進(jìn)行跟蹤,而忽略了跟蹤目標(biāo)框以外的鄰域圖像和目標(biāo)圖像之間的相關(guān)性,導(dǎo)致這些強(qiáng)干擾條件下出現(xiàn)跟蹤漂移或者跟蹤失敗的情況。提出利用目標(biāo)鄰域空間信息進(jìn)行視覺跟蹤的新方法,首先在指定的目標(biāo)框的鄰域范圍內(nèi)采集鄰域圖像信息,然后對(duì)采集到的鄰域圖像和跟蹤目標(biāo)圖像初始化先驗(yàn)信息。在跟蹤過程中通過貝葉斯框架下的投票機(jī)制估計(jì)目標(biāo)位置,完成位置估計(jì)后在線更新目標(biāo)圖像和鄰域圖像的先驗(yàn)信息,并根據(jù)先驗(yàn)信息進(jìn)行模板更新。實(shí)驗(yàn)證明在貝葉斯框架下使用目標(biāo)圖像的鄰域信息進(jìn)行輔助能夠有效地應(yīng)對(duì)遮擋、旋轉(zhuǎn)和形變等情況,提高跟蹤的魯棒性。

關(guān)鍵詞:貝葉斯方法;分塊跟蹤;直方圖;魯棒性

中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2015)04-00-03

0 引 言

視覺跟蹤是計(jì)算機(jī)視覺的重要組成部分,經(jīng)過多年的研究與發(fā)展,在安防監(jiān)控、對(duì)象識(shí)別、輔助駕駛和人機(jī)交互等方面得到廣泛應(yīng)用。但是視覺跟蹤在動(dòng)態(tài)環(huán)境下仍然面臨很多問題,例如光照變化、遮擋、旋轉(zhuǎn)、形變和尺度變化等,造成這些問題的根本原因是目標(biāo)表觀的多變性和依賴多變的目標(biāo)表觀來跟蹤目標(biāo)[1]。

分塊跟蹤[2]使用直方圖對(duì)分塊的目標(biāo)圖像的亮度特征建模,然后針對(duì)每個(gè)分塊單獨(dú)跟蹤,最后通過分塊投票決定目標(biāo)位置。增量學(xué)習(xí)跟蹤[3]使用PCA方法建模目標(biāo)的表觀模型,用粒子濾波估計(jì)目標(biāo)位置。VTD[4]綜合HVS直方圖和PCA兩種方法建模目標(biāo)表觀,使用基于馬爾可夫鏈的粒子濾波估計(jì)目標(biāo)位置。實(shí)時(shí)壓縮跟蹤[5]和基于壓縮感知的實(shí)時(shí)跟蹤[6],根據(jù)壓縮感知理論使用稀疏化的方法建模目標(biāo)表觀。不同的是文獻(xiàn)[6]使用l1優(yōu)化方法實(shí)現(xiàn)目標(biāo)稀疏化表示,而文獻(xiàn)[5]則是通過精心選擇的隨機(jī)高斯測(cè)量矩陣直接計(jì)算,實(shí)現(xiàn)目標(biāo)稀疏化表示,計(jì)算效率遠(yuǎn)高于l1優(yōu)化方法。超像素跟蹤[7]和星系跟蹤[8]使用圖像分割方法把目標(biāo)圖像分割為超像素,將超像素看成特征統(tǒng)計(jì)的基本單元,然后針對(duì)超像素的直方圖特征進(jìn)行聚類,用獲得的聚類特征來建模目標(biāo)表觀,然后用粒子濾波方法估計(jì)目標(biāo)位置。

在貝葉斯框架下將目標(biāo)圖像和鄰域圖像統(tǒng)一考慮,綜合分塊跟蹤和鄰域信息輔助跟蹤提出新的擴(kuò)展分塊跟蹤方法。第二部分介紹使用鄰域圖像和目標(biāo)圖像在貝葉斯框架下的目標(biāo)跟蹤,第三部分是跟蹤實(shí)驗(yàn)。

1 鄰域輔助跟蹤

1.1 目標(biāo)鄰域特征點(diǎn)

在序列圖像中,目標(biāo)與鄰域內(nèi)特征點(diǎn)存在穩(wěn)定的空間相關(guān)性,我們可以利用這種空間相關(guān)性解決目標(biāo)被完全遮擋情況下的目標(biāo)位置估計(jì)問題。圖1(a)是跟蹤過程中無遮擋情況下建立的鄰域特征點(diǎn)的支持模型,即目標(biāo)與鄰域特征點(diǎn)之間的空間相關(guān)性,圖1(b)是跟蹤過程中發(fā)生目標(biāo)完全遮擋,但是部分目標(biāo)鄰域特征點(diǎn)仍然可視,那么通過可視的部分鄰域特征點(diǎn)仍然可以準(zhǔn)確的估計(jì)出目標(biāo)位置。

1.3 擴(kuò)展的目標(biāo)分塊

在人臉跟蹤的圖像序列中,頭發(fā)、脖子和肩部成像與臉部成像有穩(wěn)定的空間相關(guān)性,因此可以將頭發(fā)、脖子和肩部成像看成臉部成像的擴(kuò)展和延伸,把目標(biāo)和鄰域看成一個(gè)整體,即擴(kuò)展的跟蹤目標(biāo)。綜合分塊跟蹤和目標(biāo)鄰域特征點(diǎn)輔助跟蹤的思路,使用分塊跟蹤法跟蹤擴(kuò)展的跟蹤目標(biāo),這樣將分塊跟蹤的適用范圍從不完全遮擋擴(kuò)展到完全遮擋的情況。在目標(biāo)鄰域內(nèi)截取矩形圖像塊,然后和目標(biāo)圖像塊一起進(jìn)行分塊跟蹤。在圖3中,黃色矩形框O0為指定的跟蹤目標(biāo),黃色矩形框與紅色矩形框之間的區(qū)域?yàn)槟繕?biāo)鄰域,將目標(biāo)和目標(biāo)鄰域組合成一個(gè)擴(kuò)展的新目標(biāo),即整個(gè)紅色矩形框內(nèi)的圖像,然后在擴(kuò)展目標(biāo)上使用分塊跟蹤法跟蹤。在目標(biāo)鄰域內(nèi)截取矩形圖像O1,O2,…,On,建立圖像塊Oi的支持模型(dix,diy),如圖4所示,dix和diy是圖像塊Oi中心點(diǎn)到圖像塊O0中心點(diǎn)的距離在x軸和y軸上的分量。

2 跟蹤實(shí)驗(yàn)

在視覺跟蹤研究中常選擇在特征空間中建模目標(biāo),本文在HSV模型空間中用直方圖建模目標(biāo),與跟蹤算法VTD,TLD算法進(jìn)行測(cè)試比較,用trellis.avi和david_indoor.avi兩個(gè)測(cè)試視頻對(duì)跟蹤方法進(jìn)行比較,比較結(jié)果如圖6所示。這兩個(gè)視頻是比較跟蹤算法時(shí)常用的視頻,這兩個(gè)視頻中有光照變化,尺度變換,目標(biāo)形變等干擾因素,是測(cè)試新跟蹤方法的標(biāo)準(zhǔn)測(cè)試視頻。

從跟蹤結(jié)果的來看,VTD跟蹤方法在跟蹤開始不久,在136幀逐漸出現(xiàn)了跟蹤漂移,并且漂移越來越嚴(yán)重,到191幀時(shí),表示目標(biāo)位置的矩形框完全脫離目標(biāo),直到411幀開始,跟蹤框才慢慢的恢復(fù)到目標(biāo)位置上,從191幀到411幀中間的220幀,跟蹤目標(biāo)一直處于丟失狀態(tài)。從整個(gè)跟蹤序列來看VTD跟蹤的表現(xiàn),大部分時(shí)間都存在跟蹤漂移問題,為什么會(huì)出現(xiàn)這鐘現(xiàn)象,根本原因還是在于模板。VTD方法使用基于多馬爾可夫鏈的粒子濾波框架進(jìn)行跟蹤,而跟蹤框架的設(shè)計(jì)上沒有模板保存和更新模塊,因此,當(dāng)一幀圖像跟蹤結(jié)果出現(xiàn)小的偏差后,下一幀的跟蹤會(huì)以有偏差的位置為基準(zhǔn)進(jìn)行跟蹤,這樣每幀中出現(xiàn)的小偏差就會(huì)累積,到后來使得跟蹤結(jié)果完全偏離目標(biāo)的正確位置,出現(xiàn)丟失跟蹤目標(biāo)的情況。如果在框架中引入偏差的修正模塊,那么出現(xiàn)的偏差可以根據(jù)模板及時(shí)進(jìn)行糾正,避免誤差累積,消除跟蹤漂移問題。

3 結(jié) 語(yǔ)

該方法跟蹤首先在指定的目標(biāo)框的鄰域范圍內(nèi)采集鄰域圖像信息,然后對(duì)采集到的鄰域圖像和跟蹤目標(biāo)圖像初始化先驗(yàn)信息。在跟蹤過程中通過貝葉斯框架下的投票機(jī)制估計(jì)目標(biāo)位置,完成位置估計(jì)后在線更新目標(biāo)圖像和鄰域圖像的先驗(yàn)信息,并且根據(jù)先驗(yàn)信息進(jìn)行模板更新。在貝葉斯框架下使用目標(biāo)圖像的鄰域信息進(jìn)行輔助能夠有效的應(yīng)對(duì)遮擋、旋轉(zhuǎn)和形變等情況,提高跟蹤的魯棒性,證明了貝葉斯方法和基于領(lǐng)域圖像方法的有效性。

參考文獻(xiàn)

[1] Yao R,Shi Q, Shen C,et al. Robust tracking with weighted online structured learning[C]. Computer Vision–ECCV 2012:Springer,2012:158.

[2] Adam A, Rivlin E, Shimshoni I, editors. Robust fragments-based tracking using the integral histogram[C]. Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on,2006.

[3] Ross D A, Lim J, Lin R S, Yang M H. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision. 2008,77(1-3):125-141.

[4] Kwon J, Lee K M,Visual tracking decomposition[C]. Computer Vision and Pattern Recognition (CVPR), 2010 IEEE Conference on,2010.

[5] Zhang K, Zhang L, Yang M H. Real-time compressive tracking[C]. Computer Vision–ECCV 2012:Springer,2012:864-877.

[6] Li H, Shen C, Shi Q. Real-time visual tracking using compressive sensing[C]. Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on,2011.

[7] Wang S, Lu H, Yang F,et al. Superpixel tracking. Computer Vision (ICCV)[C]. 2011 IEEE International Conference on, 2011.

[8] Wang W, Nevatia R. Robust object tracking using constellation model with superpixel[C]. Computer Vision–ACCV 2012: Springer, 2013:191-204.

猜你喜歡
魯棒性直方圖
符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
武漢軌道交通重點(diǎn)車站識(shí)別及網(wǎng)絡(luò)魯棒性研究
荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評(píng)價(jià)
用直方圖控制畫面影調(diào)
基于時(shí)差效用的雙目標(biāo)資源約束型魯棒性項(xiàng)目調(diào)度優(yōu)化
基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性優(yōu)化
圓投影及直方圖不變矩在多視角產(chǎn)品檢測(cè)中的應(yīng)用
西南交通大學(xué)學(xué)報(bào)(2016年6期)2016-05-04
基于空間變換和直方圖均衡的彩色圖像增強(qiáng)方法
石首市| 遂宁市| 定南县| 新郑市| 阿拉善盟| 宁化县| 桓仁| 扶沟县| 平安县| 临邑县| 建湖县| 陆丰市| 新疆| 平阴县| 江城| 商都县| 莲花县| 凤凰县| 永善县| 湘乡市| 永丰县| 屯留县| 长春市| 邯郸县| 麻阳| 镇安县| 柳江县| 马鞍山市| 通榆县| 和政县| 茂名市| 黄山市| 尼勒克县| 习水县| 馆陶县| 古田县| 波密县| 旅游| 定边县| 松潘县| 南乐县|