金廣智 石林鎖 崔智高 劉 浩 牟偉杰
?
結(jié)合GLCM與三階張量建模的在線目標(biāo)跟蹤
金廣智 石林鎖 崔智高*劉 浩 牟偉杰
(第二炮兵工程大學(xué)502教研室 西安 710025)
為提高目標(biāo)跟蹤算法對(duì)多種目標(biāo)表觀變化場(chǎng)景的自適應(yīng)能力和跟蹤精度,論文提出一種結(jié)合灰度共生(GLCM)與三階張量建模的目標(biāo)優(yōu)化跟蹤算法。該算法首先提取目標(biāo)區(qū)域的灰度信息,通過(guò)GLCM的高區(qū)分度特征對(duì)目標(biāo)進(jìn)行二元超分描述,并結(jié)合三階張量理論融合目標(biāo)區(qū)域的多視圖信息,建立起目標(biāo)的三階張量表觀模型。然后利用線性空間理論對(duì)表觀模型進(jìn)行雙線性展開(kāi),通過(guò)在線模型特征值描述與雙線性空間的增量特征更新,明顯降低模型更新時(shí)的運(yùn)算量。跟蹤環(huán)節(jié),建立二級(jí)聯(lián)合跟蹤機(jī)制,結(jié)合當(dāng)前時(shí)刻信息通過(guò)在線權(quán)重估計(jì)構(gòu)建動(dòng)態(tài)觀測(cè)模型,以真實(shí)目標(biāo)視圖為基準(zhǔn)建立靜態(tài)觀測(cè)模型對(duì)跟蹤估計(jì)動(dòng)態(tài)調(diào)整,以避免誤差累積出現(xiàn)跟蹤漂移,最終實(shí)現(xiàn)對(duì)目標(biāo)的穩(wěn)定跟蹤。通過(guò)與典型算法進(jìn)行多場(chǎng)景試驗(yàn)對(duì)比,表明該算法能夠有效應(yīng)對(duì)多種復(fù)雜場(chǎng)景下的運(yùn)動(dòng)目標(biāo)跟蹤,平均跟蹤誤差均小于9像素。
目標(biāo)跟蹤;灰度共生;三階張量;線性空間;在線跟蹤
1 引言
目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)的重要領(lǐng)域,也是智能視頻監(jiān)控的重要環(huán)節(jié),具有重要的研究意義和良好應(yīng)用前景。然而,在實(shí)際的動(dòng)目標(biāo)跟蹤過(guò)程中,隨著時(shí)間的推移目標(biāo)表觀往往會(huì)出現(xiàn)遮擋、光照、尺度等各種復(fù)雜的變化,對(duì)跟蹤算法的穩(wěn)定性和準(zhǔn)確性均帶來(lái)了極大的挑戰(zhàn),因此,需要尋求一種跟蹤精度高且適用多場(chǎng)景的目標(biāo)跟蹤算法[1]。
針對(duì)該需求,許多學(xué)者開(kāi)展了深入的研究,提出了一系列的跟蹤算法,其中粒子濾波跟蹤框架由于精度高、不受系統(tǒng)線性和噪聲高斯假設(shè)的限制,也受到了越來(lái)越多的關(guān)注。在該框架下,文獻(xiàn)[2]提出了利用在線觀測(cè)數(shù)據(jù)學(xué)習(xí)自適應(yīng)子空間外觀模型的方法,較傳統(tǒng)的觀測(cè)數(shù)據(jù)學(xué)習(xí)方法能更好地適應(yīng)目標(biāo)表觀的變化。文獻(xiàn)[3]和文獻(xiàn)[4]研究數(shù)據(jù)均值對(duì)在線子空間表觀模型的影響,尋找到了在線表觀模型合適的特征值,有效降低了算法在模型更新時(shí)的運(yùn)算量。文獻(xiàn)[5]將高階張量的階數(shù)定義為數(shù)據(jù)模型的索引數(shù)目,每一個(gè)索引被看作張量的一個(gè)子模式,并將其成功地應(yīng)用到了計(jì)算機(jī)視覺(jué)領(lǐng)域。文獻(xiàn)[6,7]基于多重線性空間元理論,提出的模型增量更新方式能更真實(shí)地反映目標(biāo)表觀的實(shí)時(shí)變化,成功應(yīng)用到了目標(biāo)跟蹤領(lǐng)域。但是,以上方法使用的是單視圖的目標(biāo)表觀模型,容易受外界環(huán)境變化的影響,難以應(yīng)對(duì)目標(biāo)的姿態(tài)、尺度等多種表觀變化場(chǎng)景,且無(wú)論模型是否更新都易導(dǎo)致跟蹤漂移。
本文以灰度共生矩陣(Gray-Level Co- occurrence Matrix, GLCM)與三階張量理論為基礎(chǔ),通過(guò)三階張量表觀模型、雙線性空間下的增量學(xué)習(xí)更新及粒子濾波下的二級(jí)聯(lián)合跟蹤來(lái)最終鎖定目標(biāo)位置。該算法可以在保證跟蹤精度的基礎(chǔ)上,有效應(yīng)對(duì)遮擋、光照、尺度變化等多種復(fù)雜場(chǎng)景下的動(dòng)目標(biāo)跟蹤。
2 基于GLCM的三階張量表觀模型
建立目標(biāo)表觀模型,主要包括目標(biāo)線索特征提取、目標(biāo)表觀模型的構(gòu)建與目標(biāo)的模型更新共3部分。與跟蹤領(lǐng)域的其他方法不同,本文利用灰度共生矩陣對(duì)目標(biāo)區(qū)域的代表性特征進(jìn)行二元超分描述,進(jìn)一步提高表觀模型的穩(wěn)定性,并結(jié)合三階張量的理論優(yōu)勢(shì),集成目標(biāo)的多視圖信息,同時(shí)借助雙線性空間理論,提出建立在線表觀模型的方法,以更好地描述跟蹤過(guò)程中表觀的動(dòng)態(tài)變化。
2.1 二元GLCM特征超分提取
構(gòu)建目標(biāo)表觀模型,應(yīng)選取穩(wěn)定性好、辨識(shí)度高的特征,而灰度特征運(yùn)算方便,在光照無(wú)劇烈變化時(shí)可以較好地描述目標(biāo)表觀,但在光照強(qiáng)度發(fā)生較大變化時(shí),其對(duì)目標(biāo)與背景的區(qū)分能力顯著下降。與之相反,紋理特征受光線變化影響較小。GLCM[8]以灰度特征為基礎(chǔ),反映了圖像灰度關(guān)于方向、相鄰間隔、變化幅度等多方面的綜合信息,可通過(guò)多種角度來(lái)對(duì)目標(biāo)的紋理特征進(jìn)行描述,同時(shí)兼具了灰度特征運(yùn)算方便的優(yōu)點(diǎn)。
熵ENT表示圖像包含信息量的隨機(jī)性度量,代表了紋理的復(fù)雜程度,無(wú)紋理時(shí),熵為0,滿紋理時(shí),熵值最大;對(duì)比度CON表示圖像紋理的清晰程度,代表溝紋的深淺,其值越大紋理越清晰。
(2)對(duì)細(xì)分后的像素塊分別提取灰度信息,通過(guò)運(yùn)算得到其灰度共生矩陣GLCM,并進(jìn)行歸一化;
(4)當(dāng)/5,/5余數(shù)不足5時(shí),即圖像邊緣像素塊,令余數(shù)為,當(dāng)取值為3到5時(shí),空缺像素用最鄰近像素補(bǔ)齊,當(dāng)取值為1到2時(shí),舍棄對(duì)該像素的超分運(yùn)算。
2.2 三階張量表觀模型的構(gòu)建
在對(duì)目標(biāo)進(jìn)行特征提取后,需通過(guò)恰當(dāng)?shù)姆绞綄?duì)目標(biāo)進(jìn)行表示。本文使用三階張量描述跟蹤序列圖像中的目標(biāo),張量的前兩個(gè)模式是空域模式,本文即指超分矩陣與,在描述獨(dú)立線索的同時(shí),也融合了基于該目標(biāo)線索的空域信息;第3個(gè)模式則可索引目標(biāo)的其他有效信息,進(jìn)一步拓展該線索的有效信息量,本文通過(guò)引入目標(biāo)有限時(shí)刻的連續(xù)觀測(cè)數(shù)據(jù),引入基于該目標(biāo)線索的多視圖信息,組成表觀模型的第3個(gè)模式。
假設(shè)共提取種線索對(duì)目標(biāo)進(jìn)行建模,那么在各幀圖像中相對(duì)的第條線索的觀測(cè)信息可記為,,另取連續(xù)時(shí)間內(nèi)的幀圖像得到第條線索的連續(xù)觀測(cè)信息集,表示為三階張量形式,則可得到第條線索的目標(biāo)三階張量表觀模型,并分別建立關(guān)于熵ENT和對(duì)比度CON的三階張量表觀模型。以對(duì)比度CON為例,如圖1所示。
圖1 三階張量表觀模型
2.3 雙線性空間下的增量特征更新
引入多維線索建立的三階張量表觀模型勢(shì)必會(huì)帶來(lái)運(yùn)算量的大幅提升,為緩解該不足,利用雙線性空間[12]理論對(duì)表觀模型進(jìn)行展開(kāi),并對(duì)其進(jìn)行模型增量特征更新。
(1)雙線性空間展開(kāi):實(shí)際場(chǎng)景中的目標(biāo)表觀變化在有限時(shí)間內(nèi)可認(rèn)定其服從線性變化理論,可引入雙線性空間,對(duì)目標(biāo)模型進(jìn)行展開(kāi),這樣便可利用線性空間的正交基對(duì)模型進(jìn)行特征表示。因此,為了便于利用線性空間正交基作為三階張量表觀模型的特征值,應(yīng)對(duì)目標(biāo)觀測(cè)數(shù)據(jù)進(jìn)行雙重線性空間展開(kāi),得到兩個(gè)子模式。算法實(shí)際操作中,我們結(jié)合線性空間理論的特點(diǎn)做了以下改進(jìn):
首先,為避免樣本數(shù)據(jù)均值弱化模型的更新,我們利用去均值化后的樣本數(shù)據(jù),即,對(duì)其展開(kāi)后分別得到兩個(gè)子模式,如圖2所示;正交基的表示形式是,為更好地對(duì)訓(xùn)練樣本中的數(shù)據(jù)變化信息進(jìn)行表示,子模式的正交基可通過(guò)對(duì)樣本均值進(jìn)行奇異值遞推分解(RSVD)得到,并取其前個(gè)最大值對(duì)應(yīng)的數(shù)值,來(lái)表示線性空間元模型的維度,可通過(guò)式(3)進(jìn)行判定。
圖2 觀測(cè)數(shù)據(jù)雙重線性空間展開(kāi)
(2)模型增量特征更新:由于三階張量表觀模型及多線索的引入更加重了該環(huán)節(jié)的運(yùn)算負(fù)擔(dān)。另外,跟蹤中亦存在較多影響目標(biāo)表觀的因素,通過(guò)跟蹤過(guò)程中不斷獲得的新增數(shù)據(jù)來(lái)在線更新目標(biāo)表觀模型[14],可以更真實(shí)地描述目標(biāo)表觀變化。因此,專門(mén)提出一種基于雙線性空間模型的增量特征更新方法。
該方法以前幀包含目標(biāo)的連續(xù)序列圖像為基礎(chǔ),利用后面緊跟的間隔時(shí)間內(nèi)連續(xù)的幀新增圖像對(duì)目標(biāo)雙線性空間模型進(jìn)行增量學(xué)習(xí)更新。令為時(shí)刻第條線索元的雙線性空間元模型的有效數(shù)據(jù)集,為相隔時(shí)間后連續(xù)錄入的幀新增目標(biāo)圖像的數(shù)據(jù)集,則時(shí)刻表觀模型的有效數(shù)據(jù)集為。模型更新問(wèn)題則轉(zhuǎn)化為獲得時(shí)刻有效數(shù)據(jù)集對(duì)應(yīng)模型的描述問(wèn)題,即如何有效求得增量模型的數(shù)據(jù)均值和正交基的問(wèn)題。流程如下:
(b)引入新增樣本后對(duì)模型均值進(jìn)行更新(為消逝系數(shù));
(c)為避免直接引入樣本均值對(duì)數(shù)據(jù)即時(shí)變化信息的影響,先對(duì)新增樣本去均值處理:,然后對(duì)模型再進(jìn)行雙線性展開(kāi),可得;
(e)通過(guò)RSVD方式,得到新模型的正交基。
3 二級(jí)聯(lián)合判別跟蹤
除了建立目標(biāo)表觀模型及更新方式外,還需要對(duì)目標(biāo)的運(yùn)動(dòng)狀態(tài)進(jìn)行跟蹤估計(jì)。本文以粒子濾波作為目標(biāo)跟蹤算法的框架對(duì)目標(biāo)進(jìn)行跟蹤預(yù)測(cè),它主要包括狀態(tài)模型與觀測(cè)模型,前者采用常規(guī)的描述形式,但由于后者觀測(cè)模型是保證跟蹤效果的關(guān)鍵,因此,需對(duì)其重點(diǎn)考慮,結(jié)合本文目標(biāo)表觀建模特點(diǎn)對(duì)其進(jìn)行如下改進(jìn):(1)以建立的雙線索的三階張量表觀模型為基礎(chǔ),結(jié)合當(dāng)前時(shí)刻信息分別進(jìn)行在線權(quán)重估計(jì),融合二元超分特征線索,進(jìn)而建立目標(biāo)自適應(yīng)觀測(cè)模型;(2)以真實(shí)目標(biāo)視圖為基準(zhǔn),建立目標(biāo)的靜態(tài)觀測(cè)模型;(3)通過(guò)兩個(gè)模型的聯(lián)合匹配,實(shí)現(xiàn)對(duì)目標(biāo)的跟蹤。
3.1自適應(yīng)觀測(cè)模型
令共有條獨(dú)立線索進(jìn)行目標(biāo)表示,可通過(guò)如下方式實(shí)現(xiàn)多線索的融合,得到觀測(cè)模型:
3.2 靜態(tài)觀測(cè)模型
以三階張量表觀模型為基礎(chǔ)建立的自適應(yīng)觀測(cè)模型盡管具有巨大優(yōu)勢(shì),但在模型更新過(guò)程中難以避免會(huì)錄入含有噪聲的觀測(cè)數(shù)據(jù),一旦場(chǎng)景突變,極易導(dǎo)致跟蹤漂移。在基于濾波理論的跟蹤框架下,首幀圖像標(biāo)定的目標(biāo)狀態(tài)信息是唯一的目標(biāo)真實(shí)視圖,對(duì)其他時(shí)刻目標(biāo)狀態(tài)的預(yù)測(cè)估計(jì)均存在一定的誤差,為進(jìn)一步提高跟蹤算法的精度,以首幀真實(shí)目標(biāo)視圖為基準(zhǔn),建立靜態(tài)觀測(cè)模型。具體步驟如下:
(1)通過(guò)人工標(biāo)定或自動(dòng)化標(biāo)定初始化首幀圖像中的目標(biāo)視圖,并提取特征信息與;
(2)以連續(xù)張目標(biāo)首幀視圖信息為原型,建立目標(biāo)首幀視圖的三階張量表觀模型;
(3)以首幀視圖的表觀模型為基礎(chǔ),建立目標(biāo)的靜態(tài)觀測(cè)模型,方法如3.1節(jié),線索的初始權(quán)重令為1/。
3.3 二級(jí)聯(lián)合判別
目標(biāo)表觀與背景在跟蹤過(guò)程中很容易受各種因素的影響,給觀測(cè)數(shù)據(jù)帶來(lái)誤差干擾,因此,我們通過(guò)二級(jí)聯(lián)合跟蹤[15],對(duì)目標(biāo)進(jìn)行跟蹤預(yù)測(cè)。第1步:使用帶有自適應(yīng)觀測(cè)模型的粒子濾波跟蹤算法對(duì)目標(biāo)進(jìn)行跟蹤預(yù)測(cè),因?yàn)檫B續(xù)的目標(biāo)幀視圖代表的表觀變化通常較小,可以通過(guò)自適應(yīng)觀測(cè)模型的小幅度調(diào)整來(lái)克服;第2步,以靜態(tài)觀測(cè)模型為基準(zhǔn),當(dāng)其與自適應(yīng)觀測(cè)模型特征偏差超過(guò)20%時(shí),則立即對(duì)觀測(cè)模型進(jìn)行更新,防止長(zhǎng)時(shí)跟蹤過(guò)程中誤差累積出現(xiàn)跟蹤漂移,最終實(shí)現(xiàn)對(duì)目標(biāo)的長(zhǎng)時(shí)魯棒跟蹤。
4 實(shí)驗(yàn)分析
4.1 評(píng)價(jià)指標(biāo)與測(cè)試視頻
運(yùn)動(dòng)目標(biāo)跟蹤算法評(píng)價(jià)體系中平均跟蹤誤差(ATE)與幀均處理耗時(shí)(FPT)是兩個(gè)非常具有代表性的評(píng)價(jià)指標(biāo)。平均跟蹤誤差分別由ATE與ATE兩個(gè)指標(biāo)決定;令表示測(cè)試視頻的總幀數(shù),表示跟蹤算法的處理時(shí)間。則ATE與FPT計(jì)算方式如式(7)和式(8)所示。
測(cè)試視頻選取的是目標(biāo)跟蹤常用數(shù)據(jù)集Tracker Benchmark v1.0中的序列視圖[16],分別是FaceOcc1, Tiger1, Soccer, Car4。這4組視頻序列所代表的測(cè)試場(chǎng)景及視頻數(shù)據(jù)如表1所示。
表1 對(duì)比測(cè)試視頻
4.2 對(duì)比實(shí)驗(yàn)
為了更好地測(cè)試本文算法的優(yōu)越性,特選擇以下算法進(jìn)行對(duì)比實(shí)驗(yàn):多線索融合的目標(biāo)跟蹤算法(MAPF),增量對(duì)數(shù)線性空間學(xué)習(xí)的跟蹤算法(IRST)與增量線性空間學(xué)習(xí)的跟蹤算法(IVT)。3種對(duì)比算法均以粒子濾波為跟蹤框架,且對(duì)比算法均采用與本文算法相同的狀態(tài)模型。其中,MAPF算法采用灰度和紋理LBP特征雙線索融合來(lái)對(duì)目標(biāo)進(jìn)行建模, IRST算法和IVT算法均是利用在線線性空間學(xué)習(xí)理論對(duì)目標(biāo)進(jìn)行表觀建模,區(qū)別之處在于IRST是利用目標(biāo)區(qū)域的COV特征對(duì)目標(biāo)進(jìn)行表示,而IVT算法是利用目標(biāo)區(qū)域整體像素的灰度對(duì)目標(biāo)進(jìn)行表示。因此,對(duì)比算法具有較高相關(guān)性,針對(duì)性較強(qiáng)。測(cè)試視頻選取的是多種目標(biāo)表觀存在復(fù)雜變化的標(biāo)準(zhǔn)視頻序列。
圖3為多種表觀變化場(chǎng)景實(shí)驗(yàn)的對(duì)比結(jié)果。圖3(a)中,F(xiàn)aceOcc1視頻場(chǎng)景下,IVT算法逐漸跟蹤失敗,說(shuō)明單純基于灰度的表觀模型難以應(yīng)對(duì)頻繁的局部遮擋;MAPF算法雖然存在誤差偏大的情況,基本還是成功地對(duì)目標(biāo)進(jìn)行了跟蹤,說(shuō)明引入紋理LBP特征后,對(duì)算法處理此種場(chǎng)景有益;IRST算法取得了與MAPF算法類似的跟蹤結(jié)果;而本文算法跟蹤精度明顯高于前兩者,說(shuō)明本文引入的三階張量表觀模型對(duì)處理遮擋場(chǎng)景效果較好。圖3(b)為旋轉(zhuǎn)擾動(dòng)遮擋場(chǎng)景下的Tiger1視頻。圖3(b1)中,本文算法與對(duì)比算法均可以準(zhǔn)確地跟蹤到Tiger,圖3(b2)與圖3(b3)Tiger分別發(fā)生旋轉(zhuǎn)與形變,表觀視圖發(fā)生較大變化,MAPF算法逐漸跟丟目標(biāo)難以適應(yīng)目標(biāo)表觀大幅變化場(chǎng)景,IRST算法由于基于對(duì)數(shù)線性空間建模,對(duì)目標(biāo)表觀變化更加敏感優(yōu)于IVT算法,而本文算法由于引入目標(biāo)連續(xù)視圖信息建立更新表觀模型,可以更好地適應(yīng)目標(biāo)表觀的大幅度變化,且由于引入了二級(jí)聯(lián)合跟蹤機(jī)制,也避免了跟蹤漂移的出現(xiàn)。
圖3 多種表觀變化場(chǎng)景實(shí)驗(yàn)對(duì)比
4.3 定量評(píng)估
為了定量評(píng)估上述算法的跟蹤效果,通過(guò)平均跟蹤誤差(ATE)與幀均處理耗時(shí)(FPT)兩個(gè)指標(biāo)作為評(píng)估依據(jù),如表2所示,可以看出在ATE指標(biāo)上,本文算法明顯優(yōu)于對(duì)比算法,具有較高的跟蹤精度,跟蹤誤差平均保持在小于9像素;在FPT指標(biāo)上,IVT算法由于僅基于灰度建模,運(yùn)算量小,實(shí)時(shí)性優(yōu)于前兩個(gè)對(duì)比算法;MAPF方法由于采用的是普通的多線索融合方式,運(yùn)算量較大,實(shí)時(shí)性明顯低于其他算法;本文算法每幀的處理速度優(yōu)于對(duì)比算法,進(jìn)一步印證了本文的模型及其更新方法對(duì)提高跟蹤效率的良好效果。
表2 算法定量對(duì)比評(píng)估
5 結(jié)束語(yǔ)
本文針對(duì)視頻跟蹤過(guò)程中目標(biāo)表觀變化的的復(fù)雜性,提出了一種基于GLCM與三階張量的目標(biāo)優(yōu)化跟蹤算法。以灰度共生理論為基礎(chǔ),利用高辨識(shí)度特征對(duì)目標(biāo)區(qū)域分別進(jìn)行超分提取,從空域和時(shí)域角度分別對(duì)跟蹤目標(biāo)進(jìn)行三階張量表觀建模,保證了目標(biāo)與背景的區(qū)分度;通過(guò)基于雙重線性空間的在線增量學(xué)習(xí)更新方式對(duì)模型進(jìn)行動(dòng)態(tài)更新,進(jìn)一步提高了算法的運(yùn)算效率;二級(jí)聯(lián)合判別跟蹤方式有效避免跟蹤漂移,保證了目標(biāo)跟蹤的精度。實(shí)驗(yàn)表明,該算法在多種包含劇烈表觀變化的跟蹤環(huán)境中,可取得良好的跟蹤效果。下一步研究考慮結(jié)合背景信息進(jìn)行表觀建模,以提高跟蹤算法應(yīng)對(duì)復(fù)雜動(dòng)態(tài)背景的能力。
[1] YANG H, SHAO L, ZHENG F,. Recent advances and trends in visual tracking: A review[J]., 2011, 74(18): 3823-3831.
[2] HO J, LEE K C, YANG M H,. Visual tracking using learned linear subspaces[C]. IEEE Conference on Computer Vision and Pattern Recognition, Rhode Island, USA, 2012: 782-789.
[3] LEE K C and KRIEGMAN D. Online learning of probabilistic appearance manifolds for video-based recognition and tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 852-859.
[4] ROSS D, LIM J, LIN R S,. Incremental learning for robust visual tracking[J]., 2013, 77(3): 125-141.
[5] LATHAUWER L, MOOR B, and VANDEWALLE J. On the best rank-1 andapproximation fhigherorder tensors[J]., 2000, 21(4): 1324-1342.
[6] LI X, HU W, ZHANG Z,. Visual tracking via incremental Log-Euclidean Riemannian sub-space learning [C]. IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 578-585.
[7] LI X, HU W, ZHANG Z,. Robust visual tracking based on incremental tensor subspace learning[C]. IEEE International Conference on Computer Vision, Barcelona, Spain, 2012: 1008-1016.
[8] 鐘樺, 楊曉鳴, 焦李成. 基于多分辨率共生矩陣的紋理圖像分類[J]. 計(jì)算機(jī)研究與發(fā)展, 2014, 48(11): 1991-1999.
ZHONG Ye, YANG Xiaoming, and JIAO Licheng. Texture classification based on multiresolution co-occurrence matrix [J]., 2014, 48(11): 1991-1999.
[9] 薄華, 馬縛龍, 焦李成. 圖像紋理的灰度共生矩陣計(jì)算問(wèn)題的分析[J]. 電子學(xué)報(bào), 2006, 34(1): 155-158.
BO Hua, MA Fulong, and JIAO Licheng. Research on computation of GLCM of image texture[J]., 2006, 34(1): 155-158.
[10] CLAUSI D A and DENG H. Design-based texture Feature using Gabor filters and co-occurrence probabilities[J]., 2005, 14(7): 925-936.
[11] 吳光文, 張愛(ài)軍, 王昌明. 一種用于壓縮感知理論的投影矩陣優(yōu)化算法[J]. 電子與信息學(xué)報(bào),2015, 37(7): 1681-1687. doi: 10.11999/JEIT141450.
WU Guangwen, ZHANG Aijun, and WANG Changming. Novel optimization method for projection matrix in compress sensing theory[J].&, 2015, 37(7): 1681-1687. doi: 10.11999/JEIT 141450.
[12] KHAN Z H and GUI Y H. Online domain-shift learning and object tracking based on nonlinear dynamic models and particle filters on Riemannian manifolds[J]., 2014, 15(6): 97-114.
[13] 齊苑辰, 吳成東, 陳東岳, 等. 基于稀疏表達(dá)的超像素跟蹤算法[J]. 電子與信息學(xué)報(bào), 2015, 37(3): 529-535. doi: 10.11999/ JEIT140374.
QI Yuanchen, WU Chengdong, CHEN Dongyue,. Superpixel tracking based on sparse representation[J].&, 2015, 37(3): 529-535. doi: 10.11999/JEIT140374.
[14] CHENG X, LI N, ZHOU T,Object tracking via collaborative multi-task learning and appearance model updating[J].g, 2015, 31: 81-90.
[15] ZHONG W, LU H, and YANG M H. Robust object tracking via sparse collaborative appearance model[J]., 2014, 23(5): 2356-2368.
[16] WU Y, LIM J, and YANG M H. Online object tracking: A benchmark[C]. IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 2411-2418.
Online Object Tracking Based on Gray-level Co-occurrence Matrix and Third-order Tensor
JIN Guangzhi SHI Linsuo CUI Zhigao LIU Hao MU Weijie
(502,,,710025,)
In order to improve the stability and accuracy of the object tracking under different conditions, an online object tracking algorithm based on Gray-Level Co-occurrence Matrix (GLCM) and third-order tensor is proposed. First, the algorithm extracts the gray-level information of target area to describe the two high discrimination features of target by GLCM, the dynamic information about target changing is fused by third-order tensor theory, and the third-order tensor appearance model of the object is constructed. Then, it uses bilinear space theory to expand the appearance model, and implements the incremental learning. Updating of model by online model’s characteristic value description, thus computation of the model updating is greatly reduced. Meanwhile, the static observation model and adaptive observation model are constructed, and secondary combined stable tracking of object is achieved by dynamic matching of two observation models. Experimental results indicate that the proposed algorithm can effectively deal with the moving object tracking on a variety of challenging scenes, and the average tracking error is less than 9 pixels.
Object tracking; Gray-Level Co-occurrence Matrix (GLCM); Third-order tensor; Linear space; Online tracking
TP391
A
1009-5896(2016)07-1609-07
10.11999/JEIT151108
2015-09-29;改回日期:2016-03-03;網(wǎng)絡(luò)出版:2016-05-05
崔智高 cuizg10@126.com
國(guó)家自然科學(xué)基金(61501470)
The National Natural Science Foundation of China (61501470)
金廣智: 男,1987年生,博士生,研究方向?yàn)闄C(jī)器視覺(jué)與模式識(shí)別.
石林鎖: 男,1958年生,教授,研究方向?yàn)闄C(jī)器視覺(jué)、機(jī)電設(shè)備故障診斷等.
崔智高: 男,1985年生,講師,研究方向?yàn)闄C(jī)器視覺(jué)、自動(dòng)控制等.
劉 浩: 男,1985年生,博士生,研究方向?yàn)闄C(jī)電設(shè)備狀態(tài)診斷與腦電信號(hào)分析等.
牟偉杰: 男,1984年生,博士生,研究方向?yàn)闄C(jī)電設(shè)備故障診斷.