郭 利,周盛宗,3,付璐斯,于志剛
1(中國(guó)科學(xué)院 福建物構(gòu)所,福州 350002)
2(福建師范大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,福州 350117)
3(中北大學(xué) 計(jì)算機(jī)與控制工程學(xué)院,太原 030051)
一種健壯的超像素跟蹤算法①
郭 利1,2,周盛宗1,2,3,付璐斯1,3,于志剛1,3
1(中國(guó)科學(xué)院 福建物構(gòu)所,福州 350002)
2(福建師范大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,福州 350117)
3(中北大學(xué) 計(jì)算機(jī)與控制工程學(xué)院,太原 030051)
在目標(biāo)跟蹤中,傳統(tǒng)的超像素跟蹤算法在發(fā)生遮擋等情況后,會(huì)將非目標(biāo)超像素標(biāo)記為目標(biāo)加入到特征空間. 在對(duì)候選樣本置信度計(jì)算中,利用特征空間中最近鄰超像素來(lái)劃定樣本中超像素的簇歸屬會(huì)產(chǎn)生錯(cuò)誤; 而依據(jù)的近鄰超像素?cái)?shù)量過(guò)多時(shí),又會(huì)造成分類(lèi)誤差的積累. 為解決上述問(wèn)題,本文提出一種健壯的超像素跟蹤算法. 本算法以貝葉斯算法為框架,首先,將前幾幀進(jìn)行超像素切割,提取特征并使用均值漂移聚類(lèi)算法和基于超像素的外觀表示模型進(jìn)行分類(lèi)和計(jì)算類(lèi)置信度,放入特征空間中. 其次,根據(jù)接下來(lái)幾幀的平均中心誤差確定最佳近鄰數(shù)目. 最后,在跟蹤過(guò)程中,對(duì)獲取幀的指定區(qū)域進(jìn)行超像素切割,提取特征、進(jìn)行軟分類(lèi)和計(jì)算置信度; 根據(jù)上一幀目標(biāo)位置進(jìn)行高斯采樣,累加樣本內(nèi)超像素置信度,獲得樣本置信度; 在發(fā)生嚴(yán)重遮擋時(shí),不進(jìn)行滑動(dòng)窗口更新和外觀模型修改,使用當(dāng)前模型繼續(xù)跟蹤. 與傳統(tǒng)的最近鄰超像素算法相比,本算法能夠有效提升跟蹤成功率和降低平均中心誤差.
最佳近鄰數(shù)目; 軟分類(lèi); 目標(biāo)跟蹤; 均值漂移算法; 置信度; 遮擋
運(yùn)動(dòng)目標(biāo)跟蹤是機(jī)器視覺(jué)研究的一個(gè)基本課題,在視頻監(jiān)控、運(yùn)動(dòng)分析、人機(jī)交互和自動(dòng)駕駛等領(lǐng)域中發(fā)揮著重要作用. 目標(biāo)跟蹤是從一系列圖像中,確定目標(biāo)在每幀圖像中的位置、方向、面積、形狀等. 由于受光照強(qiáng)弱、相機(jī)顛簸、物體遮擋、形態(tài)變化、速度調(diào)整等因素的影響,目標(biāo)外觀發(fā)生了很大的變化,從而使得目標(biāo)跟蹤非常有難度. A.Yilmaz等[1]認(rèn)為目標(biāo)跟蹤主要分為點(diǎn)跟蹤、核跟蹤、剪影跟蹤三類(lèi). 點(diǎn)跟蹤主要包括確定法和統(tǒng)計(jì)法,代表性的方法有MGE[2]、GOA[3]、卡爾曼濾波[4]、JPDAF[5]、PMHT[6]等; 核跟蹤主要包括基于模板和密度的外觀模型、多角度外觀模型等,前者的代表性方法有Mean-Shift[7]、KLT[8]、分層[9],后者的代表性方法有特征值跟蹤[10]、支持向量機(jī)跟蹤[11]; 剪影跟蹤主要包括輪廓演變、形狀匹配,前者的代表性方法有狀態(tài)空間模型[12]、變量方法[13]、啟發(fā)方法[14]. 這些數(shù)算法大都是圍繞著目標(biāo)表示、特征選擇、運(yùn)動(dòng)建模、外觀表示、形態(tài)變化等五個(gè)方面進(jìn)行改進(jìn),在特定場(chǎng)景下取得了不錯(cuò)的效果. 在目標(biāo)運(yùn)動(dòng)中,自適應(yīng)外觀算法[15-20]能夠很好的表示外觀的變化,但基于低層特征的自適應(yīng)外觀算法在前后幀的關(guān)聯(lián)上表現(xiàn)很差; Kwon等[21]提出的基于多運(yùn)動(dòng)模型和改進(jìn)觀測(cè)模型的粒子濾波框架能較好的處理遮擋、尺度、光照和尺度等因素引起的外觀變化,由于未區(qū)分目標(biāo)、背景,會(huì)出現(xiàn)跟蹤目標(biāo)丟失. Ren等[22]提出的超像素跟蹤算法,使用Delaunay三角化和條件隨機(jī)場(chǎng)單獨(dú)對(duì)每幀完整圖做區(qū)域匹配,能夠?qū)η熬?、背景有限分?但仍然無(wú)法處理跟蹤過(guò)程中的遮擋、復(fù)雜背景等問(wèn)題.Yant等[23]提出的健壯超像素跟蹤算法,在有限遮擋、光照變化、姿態(tài)變化、復(fù)雜背景等情況下,都取得不錯(cuò)效果,但由于遮擋等情況下,劃定到特征空間中的超像素在目標(biāo)、背景劃分及簇歸屬上會(huì)存在一些錯(cuò)誤,僅根據(jù)特征空間中離其最近的超像素的簇歸屬來(lái)劃定簇是錯(cuò)誤的; 同樣,依據(jù)的超像素?cái)?shù)量過(guò)多時(shí),又會(huì)造成分類(lèi)誤差的積累,有限數(shù)目超像素來(lái)確定當(dāng)前超像素簇歸屬會(huì)更有效. 因此,提出一種健壯的超像素跟蹤算法,該算法根據(jù)歷史樣本匹配度尋找最佳近鄰數(shù)目,使用貝葉斯框架構(gòu)造聯(lián)合外觀模型,使用基于超像素的判別型外觀模型將前景對(duì)象從背景中區(qū)分開(kāi)來(lái).
如圖1,K=5時(shí),黃色橢圓的最近5個(gè)鄰居是2個(gè)綠色正方形和3個(gè)紅色三角形,K-近鄰判別法判定黃色橢圓與紅色三角形同類(lèi); K=9時(shí),黃色橢圓的最近9個(gè)鄰居是5個(gè)綠色正方形、3個(gè)紅色三角形和1個(gè)深紅梯形,K-近鄰判別法判定黃色橢圓與綠色正方形同類(lèi).
圖1 不同近鄰對(duì)分類(lèi)的影響
其中,
給定t時(shí)刻的狀態(tài)Xt、所有的觀測(cè)值Y1:t,設(shè)定歸一化項(xiàng)為α,計(jì)算最大后驗(yàn)分布[23],具體如式(2).
正值越大,簇屬于目標(biāo)的置信度越高,反之亦然.
當(dāng)新幀到來(lái)時(shí),使用高斯采樣提取目標(biāo)的周邊區(qū)域,根據(jù)當(dāng)前超像素與簇空間中超像素的距離來(lái)計(jì)算置信度,并確定置信度最高的樣本為跟蹤目標(biāo). 在遮擋等情況下,超像素在目標(biāo)、背景的劃分上較難,僅依據(jù)空間中最近鄰的超像素來(lái)劃定簇歸類(lèi)不準(zhǔn)確. 因?yàn)橹眯哦扰c兩個(gè)因素有關(guān): 距離較近的超像素所屬的簇、在特征空間中超像素與簇中心的距離. 取定近鄰超像素的個(gè)數(shù)為 k=k*,距離分別為D1,D2,...,Dk,則:
設(shè)定運(yùn)動(dòng)模型為高斯分布[23],
觀測(cè)模型[23]:
使用滑動(dòng)窗口機(jī)制進(jìn)行跟蹤,每U幀,添加一個(gè)新幀到H幀序列中,并刪除序列中的第k幀(k 大于零時(shí),表示當(dāng)前幀的平均準(zhǔn)確率評(píng)估的置信度比保存序列中的規(guī)范化置信度的平均值小,超過(guò)一定閾值時(shí),候選區(qū)域可能屬于背景區(qū)域,或發(fā)生嚴(yán)重遮擋. fort= 1 tom(設(shè)定m=4) 1) 初始化t幀的各個(gè)參數(shù). End fort=m+1 ton(設(shè)定n=15) 1) 切割Xt周邊區(qū)域?yàn)镹t個(gè)超像素,提取特征. 使用公式(6)、(7)計(jì)算目標(biāo)背景置信度. 4) 依據(jù)公式(1),獲取最佳后驗(yàn)時(shí)的近鄰數(shù)目k. 5) 使用公式(12)來(lái)探測(cè)嚴(yán)重或完全遮擋. 6) 每隔U幀,添加一幀到更新序列. 7) 每隔W幀,更新一次外觀模型. fort=n+1 to 幀數(shù) 1) 切割Xt周邊區(qū)域?yàn)镹t個(gè)超像素,提取特征. 使用公式(6)、(7)計(jì)算值目標(biāo)背景置信度. 5) 使用公式(12)來(lái)探測(cè)嚴(yán)重或完全遮擋. 6) 每隔U幀,添加一幀到更新序列. 7) 每隔W幀,更新一次外觀模型. End 實(shí)驗(yàn)在CPU為3.6 GHZ、內(nèi)存為8 G的PC機(jī)上進(jìn)行,采用 Matlab2012b、Microsoft Visual Studio 2010混合編程實(shí)現(xiàn). HIS顏色空間降低了像素受光照變化的影響,在區(qū)分不同超像素方面,比其他顏色空間的區(qū)分能力更強(qiáng),使用HIS顏色空間中的規(guī)范化圖表作為每個(gè)超像素的特征. 使用SLIC算法切割圖片時(shí),空間近似權(quán)值設(shè)置為10,超像素?cái)?shù)目設(shè)置為300,均值漂移聚類(lèi)算法的尺度設(shè)置為0.18. 在初始階段,為了獲取訓(xùn)練集,前4幀的目標(biāo)區(qū)域可以通過(guò)目標(biāo)定位器或手動(dòng)獲取. 按照經(jīng)驗(yàn),設(shè)置H=15,U=1,W=10,速度變化 σc=7.6,尺度變化 σs=7. 為簡(jiǎn)化遮擋探測(cè),設(shè)置 μc=0.5. 表1對(duì)比了IVT[25](不斷學(xué)習(xí)的健壯跟蹤)、Frag[18](使用積分直方圖的基于碎片的健壯跟蹤算法)、MIL(在線的多實(shí)例學(xué)習(xí)的視覺(jué)跟蹤)、VTD[26](視覺(jué)跟蹤分解)、L1[27](使用加速接近梯度算法的實(shí)時(shí)健壯L1跟蹤)、TLD[28](基于機(jī)構(gòu)約束的增強(qiáng)二進(jìn)制分類(lèi)器)、Struck[29](基于核的機(jī)構(gòu)性輸出跟蹤)、SPT[23](基于超像素的目標(biāo)跟蹤)、KSPT(基于有限學(xué)習(xí)的軟分類(lèi)超像素跟蹤算法)在Lemming、liquor、basketball、bolt等數(shù)據(jù)集上中心定位錯(cuò)誤的幀數(shù)上,KSPT都是最少的. 表1 中心定位錯(cuò)誤的幀數(shù) 表2對(duì)比了 IVT[25]、Frag[18]、MIL、VTD[26]、L1[27]、TLD[28]、Struck[29]、SPT[23]、KSPT 在 Lemming、liquor、basketball、bolt等數(shù)據(jù)集上成功跟蹤到的幀數(shù),KSPT 都是最多的. 表2 成功跟蹤到的幀數(shù) 表3對(duì)比了SPT[23]、KSPT在surfing1、singer1、woman、girl_move等數(shù)據(jù)集上的成功率,KSPT比SPT都有了很大提升. 這是因?yàn)槌袼乜臻g中,各類(lèi)在簇的劃分上,并不絕對(duì)準(zhǔn)確,最近鄰超像素跟蹤算法只依據(jù)與超像素空間最近鄰的超像素進(jìn)行分類(lèi),易發(fā)生分類(lèi)錯(cuò)誤. 而通過(guò)訓(xùn)練過(guò)程,學(xué)習(xí)出最佳的近鄰數(shù)目,引導(dǎo)超像素分類(lèi),一定程度增加了待分類(lèi)的超像素的容錯(cuò)程度,提升了超像素置信度計(jì)算的準(zhǔn)確度,從而提高算法對(duì)目標(biāo)的跟蹤能力. 表3 成功率 (%) 圖2中,不同近鄰個(gè)超像素的SPT在Lemming數(shù)據(jù)集第16~25幀上的位置誤差情況,1、10、200近鄰個(gè)超像素的SPT對(duì)應(yīng)位置總誤差59.3936、36.3729、70.3006像素; 10近鄰個(gè)超像素(*型實(shí)線)的SPT表現(xiàn)最好,其他近鄰的SPT總誤差相對(duì)較大. 在此10幀的跟蹤中,10近鄰超像素的SPT表現(xiàn)更為穩(wěn)定,誤差相對(duì)最小. 根據(jù)該 10 幀,推測(cè)出 KSPT 中最佳 K=10; 而事實(shí)上,在26~800幀上,10近鄰的SPT表現(xiàn)也最好,其中370~430、460~600幀表現(xiàn)最明顯,見(jiàn)圖3、圖4. 圖2 不同近鄰個(gè)超像素的SPT的位置誤差 圖3 不同近鄰個(gè)超像素的SPT的位置誤差 圖3中,不同近鄰個(gè)超像素的SPT在Lemming數(shù)據(jù)集第370~430幀上位置誤差,1、10、200近鄰個(gè)超像素的SPT對(duì)應(yīng)位置總誤差9088.5、275.3、12043像素; 10近鄰個(gè)超像素(*型實(shí)線)的SPT表現(xiàn)最好,其他近鄰的SPT總誤差相對(duì)較大. 圖4中,不同近鄰個(gè)超像素的SPT在Lemming數(shù)據(jù)集第460~600幀上的位置誤差情況,1、10、200近鄰個(gè)超像素的SPT對(duì)應(yīng)位置誤差31904、779、2594像素. 圖4 不同近鄰個(gè)超像素的SPT的位置誤差 圖5中,不同近鄰個(gè)超像素的SPT在skating1數(shù)據(jù)集第16~25幀上位置誤差,1、10、20近鄰個(gè)超像素的SPT對(duì)應(yīng)位置總誤差為60.8563、40.4681、56.9368像素; 10近鄰個(gè)超像素(*型實(shí)線)的SPT表現(xiàn)最好,其他近鄰的SPT總誤差相對(duì)較大. 在此10幀的跟蹤中,10近鄰超像素的SPT表現(xiàn)更為穩(wěn)定,誤差相對(duì)最小. 根據(jù)該 10 幀,推測(cè)出 KSPT 中最佳 K=10; 而事實(shí)上,10近鄰超像素的SPT在26~300幀上,10近鄰的SPT表現(xiàn)也很好,見(jiàn)圖6、圖7. 在75~230幀上,20近鄰的SPT發(fā)生跟蹤漂移,跟蹤效果很差,見(jiàn)圖6;260~300幀,1近鄰的SPT發(fā)生跟蹤漂移,跟蹤效果也很差,見(jiàn)圖7. 圖5 不同近鄰個(gè)超像素的SPT的位置誤差 圖6 不同近鄰個(gè)超像素的SPT的位置誤差 圖7 不同近鄰個(gè)超像素的SPT的位置誤差 圖6中,不同近鄰個(gè)超像素的SPT在skating1數(shù)據(jù)集第75~230幀上位置誤差情況,1、10、20近鄰個(gè)超像素的SPT對(duì)應(yīng)位置總誤差3848、3439、22189像素. 圖7中,不同近鄰個(gè)超像素的SPT在第260~300幀上位置誤差情況,1、10、20近鄰個(gè)超像素的SPT對(duì)應(yīng)位置總誤差6952.6、862.7、1968.5像素;10近鄰個(gè)超像素(*型實(shí)線)的SPT表現(xiàn)最好,其他近鄰的SPT總誤差相對(duì)較大. 圖8的Lemming數(shù)據(jù)集中,存在光照變化、尺度變化、不同程度遮擋、快速運(yùn)動(dòng)、離面旋轉(zhuǎn)等情況.在這種背景下,基于歷史外觀模型的IVT由于外觀模型不能很好的應(yīng)對(duì)外觀變化,所以在目標(biāo)姿態(tài)和尺度都變化不大時(shí)表現(xiàn)良好,而在姿態(tài)和尺度發(fā)生較大變化時(shí)表現(xiàn)不佳. 基于邊信息的TLD由于未使用基于中層特征的外觀模型,所以在跟蹤姿態(tài)、尺度發(fā)生較大變化的目標(biāo)時(shí)效果不如KSPT算法. 在跟蹤目標(biāo)發(fā)生遮擋的第332幀、快速運(yùn)動(dòng)的第399幀、離面旋轉(zhuǎn)的第997、1299幀,KSPT均表現(xiàn)出相當(dāng)?shù)膬?yōu)異性. 圖8 KSPT(細(xì)線)、TLD(粗線)、IVT(虛線)在 Lemming 數(shù)據(jù)集第332、399、997、1299幀上的跟蹤結(jié)果. 圖9 KSPT(細(xì)線)、TLD(粗線線)、IVT(虛線)在 bolt數(shù)據(jù)集第20、92、222、350幀上的跟蹤結(jié)果. 圖9的Bolt數(shù)據(jù)集中,存在不同程度遮擋、變形、平面內(nèi)運(yùn)動(dòng)、離面運(yùn)動(dòng)等情況. 在這種背景下,基于邊信息的TLD、基于歷史外觀模型的IVT的跟蹤效果卻差了很多,再次印證KSPT依托的中層特征外觀模型的優(yōu)越性. 在跟蹤目標(biāo)因?yàn)檫\(yùn)動(dòng)引起形變的第20、92、222、350幀,KSPT均表現(xiàn)出相當(dāng)?shù)膬?yōu)異性. 針對(duì)現(xiàn)有超像素跟蹤算法僅依據(jù)特征池中最近鄰超像素劃定當(dāng)前超像素簇歸屬造成分類(lèi)錯(cuò)誤的問(wèn)題,本文提出一種健壯的超像素跟蹤算法. 該算法通過(guò)歷史樣本的平均中心誤差,確定最佳近鄰個(gè)數(shù). 根據(jù)最佳近鄰個(gè)超像素劃定當(dāng)前超像素的簇歸屬,減弱了部分遮擋情況下特征置信度對(duì)候選樣本的干擾,從而有效提升中心定位成功率和成功跟蹤到的幀數(shù). 考慮到均值漂移聚類(lèi)算法的耗時(shí)性,正在探索其他有效、快速的算法; 運(yùn)動(dòng)模型中的速度、尺度參數(shù)都是經(jīng)驗(yàn)值,不能實(shí)現(xiàn)自適應(yīng)變化,尤其是出現(xiàn)撐桿跳等快速運(yùn)動(dòng)情況就很難發(fā)揮作用. 另外,鑒于簡(jiǎn)單HIS顏色特征尚且取得不錯(cuò)的效果,相信更好特征的出現(xiàn),一定能夠很好的提升跟蹤效果. 1Yilmaz A,Javed O,Shah M. Object tracking: A survey.ACM Computing Surveys,2006,38(4): 13. [doi: 10.1145/1177352] 2Salari V,Sethi IK. Feature point correspondence in the presence of occlusion. IEEE Trans. on Pattern Analysis and Machine Intelligence,1990,12(1): 87–91. [doi: 10.1109/34.41387] 3Veenman CJ,Reinders MJT,Backer E. Resolving motion correspondence for densely moving points. IEEE Trans. on Pattern Analysis and Machine Intelligence,2001,23(1):54–72. [doi: 10.1109/34.899946] 4Broida TJ,Chellappa R. Estimation of object motion parameters from noisy images. IEEE Trans. on Pattern Analysis and Machine Intelligence,1986,8(1): 90–99. 5Bar-Shalom Y,Fortmann TE. Tracking and data association.San Diego,CA,USA: Academic Press Professional,Inc.,1988. 6Streit RL,Luginbuhl TE. Maximum likelihood training of probabilistic neural networks. IEEE Trans. on Neural Networks,1994,5(5): 764–783. [doi: 10.1109/72.317728] 7Comaniciu D,Ramesh V,Meer P. Kernel-based object trac-king. IEEE Trans. on Pattern Analysis and Machine Intelligence,2003,25(5): 564–577. [doi: 10.1109/TPAMI.2003.1195991] 8Shi JB,Tomasi. Good features to track. 1994 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,1994. Seattle,WA,USA. 1994. 593–600. 9Tao H,Sawhney HS,Kumar R. Object tracking with Bayesian estimation of dynamic layer representations. IEEE Trans. on Pattern Analysis and Machine Intelligence,2002,24(1): 75–89. [doi: 10.1109/34.982885] 10Black MJ,Jepson AD. EigenTracking: Robust matching and tracking of articulated objects using a view-based representation. International Journal of Computer Vision,1998,26(1):63–84. [doi: 10.1023/A:1007939232436] 11Avidan S. Support vector tracking. Proc. of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2001. Kauai,HI,USA. 2001. 184–191. 12Isard M,Blake A. CONDENSATION-Conditional density propagation for visual tracking. International Journal of Computer Vision,1998,29(1): 5–28. [doi: 10.1023/A:1008 078328650] 13Bertalmio M,Sapiro G,Randall G. Morphing active contours: A geometric approach to topology-independent image segmentation and tracking. Proc. of 1998 International Conference on Image Processing. Chicago,IL,USA. 1998.318–322. 14Kang JM,Cohen I,Medioni G. Object reacquisition using invariant appearance model. Proc. of the 17th International Conference on Pattern Recognition. Cambridge,UK. 2004.759–762. 15Jepson AD,Fleet DJ,El-Maraghi TF. Robust online appearance models for visual tracking. IEEE Trans. on Pattern Analysis and Machine Intelligence,2003,25(10): 1296–1311. [doi: 10.1109/TPAMI.2003.1233903] 16Lim J,Ross DA,Lin RS,et al. Incremental learning for visual tracking. Advances in Neural Information Processing Systems.Vancouver,Canada. 2004. 793–800. 17Collins RT,Liu YX,Leordeanu M. Online selection of discriminative tracking features. IEEE Trans. on Pattern Analysis and Machine Intelligence,2005,27(10): 1631–1643. [doi:10.1109/TPAMI.2005.205] 18Adam A,Rivlin E,Shimshoni I. Robust fragments-based tracking using the integral histogram. 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York,NY,USA. 2006. 798–805. 19Grabner H,Leistner C,Bischof H. Semi-supervised on-line boosting for robust tracking. Proc. of the 10th European Conference on Computer Vision: Part I. Marseille,France.2008. 234–247. 20Kwon J,Lee KM. Tracking of a non-rigid object via patchbased dynamic appearance modeling and adaptive basin hopping monte carlo sampling. IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2009).Miami,FL,USA. 2009. 1208–1215. 21Kwon J,Lee KM. Visual tracking decomposition. 2010 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2010). San Francisco,CA,USA. 2010. 1269–1276. 22Ren XF,Malik J. Tracking as repeated figure/ground segmentation. IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis,MN,USA. 2007. 1–8. 23Yang F,Lu HC,Yang MH. Robust superpixel tracking. IEEE Trans. on Image Processing,2014,23(4): 1639–1651. [doi:10.1109/TIP.2014.2300823] 24陳桂景,王堯弘. 自適應(yīng)近鄰判別分析. 數(shù)學(xué)物理學(xué)報(bào),1996,16(S1): 9–19. 25Ross DA,Lim J,Lin RS,et al. Incremental learning for robust visual tracking. International Journal of Computer Vision,2008,77(1-3): 125–141. [doi: 10.1007/s11263-007-0075-7] 26Kwon J,Lee KM. Visual tracking decomposition. 2010 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2010). San Francisco,CA,USA. 2010. 1269–1276. 27Bao CL,Wu Y,Ling HB,et al. Real time robust L1 tracker using accelerated proximal gradient approach. IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2012). Providence,RI,USA. 2012. 1830–1837. 28Kalal Z,Matas J,Mikolajczyk K. P-N learning: Bootstrapping binary classifiers by structural constraints. 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2010). San Francisco,CA,USA. 2010. 49–56. 29Hare S,Golodetz S,Saffari A,et al. Struck: Structured output tracking with kernels. IEEE Trans. on Pattern Analysis and Machine Intelligence,2016,38(10): 2096–2109. [doi:10.1109/TPAMI.2015.2509974] Robust Superpixes Tracking Method GUO Li1,2,ZHOU Sheng-Zong1,2,3,FU Lu-Si1,3,YU Zhi-Gang1,3 1(Fujian Institute of Research on the Structure of Matter,Chinese Academy of Sciences,Fuzhou 350002,China) During the object tracking,when occlusion occurs,the traditional superpixel tracking algorithm will add the superpixels of the non-target area into the feature space. In the calculation of the candidate sample confidence,the nearest neighbor superpixel in the feature space is used to delimit the cluster attribution of the superpixels in the sample,and the accumulation of the classification error is caused by the excessive number of neighboring superpixels. To solve the problems above,we propose a robust superpixels tracking method. This algorithm uses Bayesian algorithm as the framework. Firstly,we slice the first few frames into superpixels,extract the feature,use the mean shift clustering algorithm and representation model based on superpixel to classify and calculate the class confidence value,and put the feature into feature space. Secondly,the suitable numbers of neighbors can be found with the mean center error of next few frames. Last but not least,during the tracking process,the superpixel is segmented in the specified area of the acquired frame,to extract the feature. The cluster is confirmed with soft classification and the confidence value is calculated. According to the previous frame target position,the Gaussian sampling is collected. We can obtain the sample confidence value with the accumulation of the confidence value. In case of severe occlusion,the sliding window update and the appearance model modification are not carried out,and we continue to use the current model to track. Compared with the traditional tracking algorithm based on nearest superpixel,the algorithm can effectively improve the tracking success rate and reduce the average center errors. best number of nearest neighbors; soft classification; object tracking; meanshif; confidence; occlusion 郭利,周盛宗,付璐斯,于志剛.一種健壯的超像素跟蹤算法.計(jì)算機(jī)系統(tǒng)應(yīng)用,2017,26(12):130–136. http://www.c-s-a.org.cn/1003-3254/6120.html 2017-03-16; 修改時(shí)間: 2017-04-05; 采用時(shí)間: 2017-04-172 算法的實(shí)現(xiàn)過(guò)程
2.1 初始化
2.2 學(xué)習(xí)近鄰數(shù)目
2.3 跟蹤
3 實(shí)驗(yàn)結(jié)果及分析
3.1 實(shí)驗(yàn)設(shè)置
3.2 實(shí)驗(yàn)結(jié)果及分析
4 結(jié)語(yǔ)
2(College of Mathematics and Computer Science,Fujian Normal University,Fuzhou 350117,China)
3(School of Computer and Control Engineering,North University of China,Taiyuan 030051,China)