鄭 穎, 周 影
(淮北師范大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 淮北 235000)
基于計(jì)算機(jī)視覺(jué)的運(yùn)動(dòng)目標(biāo)跟蹤算法研究
鄭 穎, 周 影
(淮北師范大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 淮北 235000)
隨著計(jì)算機(jī)技術(shù)的飛速發(fā)展,視頻圖像處理技術(shù)得到了顯著的提高.本文提出了一種基于計(jì)算機(jī)視覺(jué)的運(yùn)動(dòng)目標(biāo)跟蹤方法.在Marr的計(jì)算理論框架下,我們引入通過(guò)自下而上的視覺(jué)跟蹤處理方法來(lái)進(jìn)行運(yùn)動(dòng)目標(biāo)跟蹤,本文以車(chē)輛視頻為例,選用Robert算子對(duì)車(chē)輛進(jìn)行邊緣檢測(cè),針對(duì)車(chē)輛在運(yùn)動(dòng)過(guò)程中大小和姿態(tài)變化的情況,提出了基于多關(guān)聯(lián)模板匹配方法進(jìn)行跟蹤.實(shí)驗(yàn)表明本文的算法分離的精度增強(qiáng),跟蹤效果好,并且能很好地滿足實(shí)時(shí)性.
機(jī)器視覺(jué);分割算法;跟蹤算法;分割的準(zhǔn)確性
“智慧城市”是目前國(guó)內(nèi)最前沿、最熱門(mén)的研究課題之一,而智能交通是構(gòu)建智慧城市的關(guān)鍵因素.現(xiàn)在各地均遇到了交通擁堵問(wèn)題,由于不斷增加的車(chē)輛和相對(duì)不足的公路通行能力,致使我國(guó)公路交通事故不斷增加、交通擁堵日益嚴(yán)重,因此智能交通系統(tǒng)已引起越來(lái)越多的重視.本文以道路交通視頻圖像序列為研究對(duì)象,對(duì)視頻跟蹤方法中的關(guān)鍵技術(shù)進(jìn)行了深入的研究,有利于更好的開(kāi)發(fā)智能交通系統(tǒng).
文獻(xiàn)[1]中針對(duì)運(yùn)動(dòng)目標(biāo)跟蹤算法的應(yīng)用,改進(jìn)了LBP算子,經(jīng)過(guò)對(duì)LBP的二進(jìn)制位串的01跳變情況進(jìn)行統(tǒng)計(jì),合并了出現(xiàn)概率較低的模式,從而大大降低LBP紋理類型,使后續(xù)使用LBP紋理的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法在特征匹配時(shí)速度得到提高.文獻(xiàn)[2]中改進(jìn)的跟蹤算法是基于傳統(tǒng)的Kalman濾波和Mean-Shift優(yōu)化框架,算法融合了色度直方圖和梯度方向直方圖,以解決運(yùn)動(dòng)目標(biāo)的旋轉(zhuǎn)和形變,構(gòu)建了運(yùn)動(dòng)目標(biāo)圖像區(qū)域的綜合直方圖金字塔,以實(shí)現(xiàn)多尺度的目標(biāo)跟蹤,采用Kalman濾波預(yù)測(cè)耦合Mean-Shift算法,在尺度、位移空間內(nèi)進(jìn)行優(yōu)化匹配搜索,確定最佳候選目標(biāo)區(qū)域的位置信息.文獻(xiàn)[3]提出了改進(jìn)的Camshift算法,在HSV顏色空間采用背景加權(quán)三維直方圖建立目標(biāo)模型,將輸入圖像轉(zhuǎn)化為顏色概率分布圖,然后根據(jù)目標(biāo)的運(yùn)動(dòng)強(qiáng)弱自適應(yīng)地結(jié)合顏色概率分布特征圖與目標(biāo)的運(yùn)動(dòng)差分圖像,有效地克服了背景中的顏色干擾.文獻(xiàn) [4]提出了基于Kalman濾波的Camshift跟蹤算法和基于SURF的Camshift跟蹤算法,當(dāng)目標(biāo)運(yùn)動(dòng)速度快時(shí),在Camshift跟蹤的基礎(chǔ)上加入Kalman濾波,對(duì)目標(biāo)的質(zhì)心位置進(jìn)行預(yù)測(cè)估計(jì),當(dāng)目標(biāo)顏色與背景顏色相近時(shí),引入SURF算法對(duì)前后兩幀的運(yùn)動(dòng)目標(biāo)進(jìn)行特征點(diǎn)匹配,重新確定目標(biāo)位置,從而實(shí)現(xiàn)準(zhǔn)確持續(xù)的跟蹤.
本文在Marr的計(jì)算理論框架下,在采用自底向上的視覺(jué)跟蹤的處理方法的基礎(chǔ)上,借鑒前人的一些研究.并以車(chē)輛視頻為例,針對(duì)車(chē)輛目標(biāo)分割問(wèn)題,通過(guò)Robert邊緣檢測(cè)算子得到車(chē)輛的邊緣特征.結(jié)合灰度車(chē)輛圖像的邊緣檢測(cè),獲得最大類間方差,提高分割的準(zhǔn)確性和實(shí)時(shí)性.在相對(duì)復(fù)雜的背景下,采用模板匹配的方法對(duì)車(chē)輛進(jìn)行跟蹤研究,從而有利于更好的提取交通參數(shù).
計(jì)算機(jī)視覺(jué)的理論框架影響著計(jì)算機(jī)視覺(jué)領(lǐng)域的發(fā)展,是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)指導(dǎo)思想.Marr視覺(jué)理論是結(jié)合物理學(xué)、神經(jīng)生理學(xué)和圖像處理總結(jié)的一種信息處理領(lǐng)域的觀點(diǎn).在此理論框架下,視覺(jué)圖像的生成被分為三個(gè)階段:
(1)二維簡(jiǎn)圖:初始簡(jiǎn)圖用邊緣段、線、斑點(diǎn)和端點(diǎn)描述圖像中亮度的變化,然后利用虛擬線來(lái)完全而明確的表示幾何關(guān)系,最后得到描述層次可以覆蓋某一尺度范圍的初始簡(jiǎn)圖.
(2)2.5維簡(jiǎn)圖:通過(guò)對(duì)初始簡(jiǎn)圖進(jìn)行一系列處理運(yùn)算,推導(dǎo)出一個(gè)能反映可見(jiàn)表面幾何特征的表象,其中包括表面朝向,觀察者距離,以及朝向和距離的不連續(xù)性,表面的反射情況,以及對(duì)主要照明情況的某種粗略的描述.
(3)三維模型:實(shí)現(xiàn)對(duì)觀察對(duì)象的三維結(jié)構(gòu)在以物體為中心的坐標(biāo)系中的表象和對(duì)物體表面性質(zhì)進(jìn)行一些描述,從而得到圖像的空間結(jié)構(gòu).
對(duì)于視覺(jué)跟蹤問(wèn)題,主要有兩種思路.一種是自底向上的方法,另一種是自上而下的方法.本文采用自底向上的方法,結(jié)合視覺(jué)計(jì)算理論Marr視覺(jué)過(guò)程本文的方法可以劃分為三個(gè)階段:層視覺(jué)、中間層視覺(jué)和高層視覺(jué).低層視覺(jué)到中間層視覺(jué)是圖像特征描述,中間層視覺(jué)到高層視覺(jué)是2.5維描述,高層視覺(jué)往上是3維描述.
自底向上的跟蹤過(guò)程顯然是獲得場(chǎng)景的位置,速度和加速度.因此,首先我們需要檢測(cè)運(yùn)動(dòng)目標(biāo),然后確定該目標(biāo)是否為跟蹤目標(biāo).最后獲得目標(biāo)位置、軌跡等信息.我們現(xiàn)在要以移動(dòng)車(chē)輛作為跟蹤目標(biāo),在Marr的理論的幫助下視覺(jué)跟蹤框架很容易實(shí)現(xiàn).主要有以下三個(gè)階段:車(chē)輛的檢測(cè)屬于早期階段;目標(biāo)的提取和識(shí)別,判斷是否跟蹤處于中間階段;獲取目標(biāo)位置、軌跡等信息是后期階段.
圖像分割方法是計(jì)算機(jī)運(yùn)動(dòng)目標(biāo)跟蹤中的重要方法.針對(duì)車(chē)輛跟蹤問(wèn)題,利用Robert邊緣檢測(cè)算子檢測(cè)目標(biāo)車(chē)輛的邊緣,大大提高了分割精度.此外,我們還提出了一種最大類間方差的車(chē)輛目標(biāo)分割策略,實(shí)驗(yàn)結(jié)果表明算法具有良好的分割效果.
Otsu方法是基于判別分析和最小二乘法原理提出的最大類間方差法,是一種閾值分割方法.在該方法中,將像素閾值分為兩部分,目標(biāo)C0和背景C1,然后得到類間方差:
假設(shè)某一范圍的圖像灰度值為{0,1,…,l-1},像素ni的灰度級(jí)i,整個(gè)像素表示為灰度級(jí)i出現(xiàn)的概率為
選擇閾值t來(lái)區(qū)分目標(biāo)和背景區(qū)域,C0={0,1,…,t};C1= {t+1,t+2,…,l-1};目標(biāo)C0and背景C1可能出現(xiàn)的概率為
均值為
圖像的平均灰度級(jí)為:
通過(guò)公式(2)(3)和(4),計(jì)算類間方差為
接著,我們定義類內(nèi)方差為
總方差定義為:
針對(duì)二階統(tǒng)計(jì)量OW2(t),并且OT2獨(dú)立于t,我們做了簡(jiǎn)單的判斷
在這樣的準(zhǔn)則下,兩種類型的t值都屬于最優(yōu)閾值,所以η(t)為最大準(zhǔn)則.
在許多視覺(jué)跟蹤算法中,基本可分為兩類:一類是基于運(yùn)動(dòng)的算法,另一類是基于特定模型的算法.本文主要是基于模型的跟蹤方法,通過(guò)相互匹配實(shí)現(xiàn)跟蹤.模板匹配可以分為基于目標(biāo)和目標(biāo)區(qū)域的兩種類型.基于目標(biāo)的是通過(guò)角、顏色等來(lái)匹配,在復(fù)雜環(huán)境下,其匹配效果優(yōu)于邊界匹配法.實(shí)際上,由于目標(biāo)自身的運(yùn)動(dòng),對(duì)于無(wú)法長(zhǎng)期穩(wěn)定的固定目標(biāo)模型,需要實(shí)時(shí)更新目標(biāo)特征,以適應(yīng)目標(biāo)的變化.如果當(dāng)前一幀的目標(biāo)模型不能準(zhǔn)確地描述當(dāng)前的目標(biāo),這將導(dǎo)致錯(cuò)誤的模型更新,為了解決這個(gè)問(wèn)題,我們提出了一種基于多關(guān)聯(lián)模板的圖像匹配跟蹤算法,算法流程如圖1所示:
圖1 跟蹤算法流程圖
在目標(biāo)跟蹤問(wèn)題中,目標(biāo)跟蹤信息由圖像相對(duì)于原始圖像的匹配來(lái)確定,實(shí)際上參與圖像匹配的模板與潛在匹配因子存在一定程度的差異.因此,在未知的圖像上檢測(cè)到的匹配對(duì)象是一個(gè)復(fù)雜的任務(wù).模板T和潛在匹配對(duì)象p之間的關(guān)系如下所示:
其中,(x,y)∈T,(x',y')∈p,βij,αi是一個(gè)常量.結(jié)合相似性度量準(zhǔn)則、平均絕對(duì)差分法和均方誤差法,得到了平均絕對(duì)誤差相似性測(cè)度:
其中,參考圖像f1(x,y)的大小為m×n,實(shí)時(shí)圖像f2(x,y)大小也為m×n,均方誤差相似性度量可以表示為
在公式(11)和(12)中,滿足D(x0,y0)的偏移量(x0,y0)稱為匹配點(diǎn),但是當(dāng)目標(biāo)嚴(yán)重被照明影響,跟蹤效果將不是非常理想的.圖像的線性變化可以通過(guò)歸一化算法來(lái)跟蹤.歸一化算法的相似性度量可以表示為
為了驗(yàn)證本算法的準(zhǔn)確性,實(shí)驗(yàn)選用PC機(jī)配置為Intel Core I5,2GB內(nèi)存,并分別在兩段視頻下進(jìn)行了實(shí)驗(yàn).跟蹤結(jié)果如圖4、5所示.
圖4 跟蹤實(shí)驗(yàn)結(jié)果:紅車(chē)跟蹤效果
圖5 跟蹤實(shí)驗(yàn)結(jié)果:白車(chē)跟蹤效果
從實(shí)驗(yàn)對(duì)比可以看出Camshift方法對(duì)運(yùn)動(dòng)目標(biāo)和背景顏色相差很大的跟蹤效果比較好,如果運(yùn)動(dòng)目標(biāo)和背景顏色相似,其跟蹤就會(huì)失敗,甚至?xí)斐赡繕?biāo)丟失.本文所提出的車(chē)輛跟蹤方法相對(duì)于Kalman Filter方法省時(shí),相對(duì)于Camshift方法有所費(fèi)時(shí).但整體來(lái)看本文的方法相對(duì)于兩種傳統(tǒng)的方法漂移誤差都比較小,跟蹤準(zhǔn)確性好,耗時(shí)有所減少,跟蹤實(shí)時(shí)性有所增強(qiáng).
在Marr的理論的幫助下,我們研究了基于計(jì)算機(jī)視覺(jué)的目標(biāo)跟蹤算法,這大大有助于圖像處理技術(shù)的進(jìn)步和對(duì)車(chē)輛的跟蹤問(wèn)題的一種新的計(jì)算方法的建立.針對(duì)車(chē)輛目標(biāo)分割問(wèn)題,通過(guò)Robert邊緣檢測(cè)算子得到車(chē)輛的邊緣特征.結(jié)合灰度車(chē)輛圖像的邊緣檢測(cè),獲得最大類間方差,提高分割的準(zhǔn)確性和實(shí)時(shí)性.在相對(duì)復(fù)雜的背景下,采用模板匹配的方法對(duì)車(chē)輛進(jìn)行跟蹤研究,從而有利于更好的提取交通參數(shù).
〔1〕袁國(guó)武.智能視頻監(jiān)控中的運(yùn)動(dòng)目標(biāo)檢測(cè)和跟蹤算法研究[D].云南大學(xué),2012.
〔2〕劉雪.基于圖像序列的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法研究[D].山東大學(xué),2013.
〔3〕孟祥怡.運(yùn)動(dòng)目標(biāo)的跟蹤與識(shí)別算法研究[D].吉林大學(xué), 2014.
〔4〕G.Tian,R.M.Hu,and Z.Y.Wang,A method of shift Mean shift target tracking based on motion vector analysis.[J].Journal of Image and Graphics,2010,01:85-90.
〔5〕H.P.Yin,Y.Liang,J.J.Kuang,and X.Y.Yang,A method of moving object tracking based on multi feature adaptive fusion.[J].Photoelectron,Laser,2010,06:917-923.
〔6〕T.Gao,Z.G.Liu,and J.Liu,A method of multi moving target tracking based on traffic video sequences.[J].Journal of Central South University(natural science edition),2010,03:1028-1036.
〔7〕H.Y.Li,Z.Mao,J.J.Yuan,J.S.Qu,and Z.R.Wu,A method of moving target tracking based on algorithm fusion.[J].Foreign Electronic Measurement Technology,2013,12:36-40.
〔8〕Zampoglou M,Papadimitriou T,DiamantarasK I.Support Vector Machines Content-Based Video Retrieval based solely on Motion Information[A].2012 IEEE Workshop on Machine Learning for Signal Processing[C].2010.1551~2541.
〔9〕Amin M A,Hong Y.Sign Language Finger Alphabet Recognition from Gabor-PCA Representation of Hand Gestures[A].2007 International Conference on Machine Learning and Cybernetics[C].2009.2218~2223.
TP391.4
A
1673-260X(2017)02-0012-03
2016-11-19
安徽省高校自然科學(xué)研究一般項(xiàng)目《基于Hadoop大數(shù)據(jù)平臺(tái)的短時(shí)交通流預(yù)測(cè)方法研究》(KJ2017B014);淮北市2015科技攻關(guān)計(jì)劃項(xiàng)目《交通違章檢測(cè)系統(tǒng)的研究與開(kāi)發(fā)》(2015005)