胡珂立,范恩,葉軍,沈士根,谷宇章
(1.紹興文理學(xué)院,浙江 紹興 312000;2.中國科學(xué)院上海微系統(tǒng)與信息技術(shù)研究所,上海 200050)
隨著“平安城市”的進(jìn)一步建設(shè)以及人們對安全生活、生產(chǎn)需求的進(jìn)一步提升,以物聯(lián)網(wǎng)為代表的多項(xiàng)技術(shù)不斷發(fā)展。視覺傳感器是物聯(lián)網(wǎng)感知世界的關(guān)鍵途徑,眾多視覺傳感器產(chǎn)生的海量數(shù)據(jù)須經(jīng)編碼[1]傳輸,與視覺傳感數(shù)據(jù)緊密相關(guān)的視覺分析[2,3]也是當(dāng)前最重要的環(huán)境感知手段之一。視覺目標(biāo)跟蹤[4-6]的任務(wù)為鎖定監(jiān)控區(qū)域內(nèi)興趣目標(biāo),時(shí)刻感知其位置信息。視覺目標(biāo)跟蹤是進(jìn)行后續(xù)高級分析任務(wù)的重要基礎(chǔ)。由于現(xiàn)實(shí)場景中面臨諸多挑戰(zhàn),提升視覺目標(biāo)跟蹤性能仍是一個(gè)挑戰(zhàn)性問題。
均值漂移算法由Comaniciu等人[7,8]提出,并被用于視覺目標(biāo)跟蹤。采用顏色直方圖作為目標(biāo)特征。在目標(biāo)跟蹤過程中,算法通過最小化跟蹤目標(biāo)與候選目標(biāo)區(qū)域概率密度函數(shù)的距離來確定當(dāng)前目標(biāo)位置。由于均值漂移跟蹤算法采用顏色直方圖特征和高效的目標(biāo)區(qū)域定位策略,能有效地克服運(yùn)動模糊、目標(biāo)形變等挑戰(zhàn)。然而,當(dāng)背景區(qū)域與目標(biāo)特征相近時(shí),該算法極易發(fā)生偏移,最終導(dǎo)致跟蹤失敗。鑒于此種問題,一些新的度量方式或特征被引入,例如Cross-Bin度量[9]、SIFT 特征[10]、紋理特征[11],在一定程度上提升了算法頑健性。Tomas等人[12]將背景信息引入,并提出了基于背景加權(quán)的方法。在目標(biāo)尺度估計(jì)方面,Tomas等人[12]采用了前向后向穩(wěn)定性檢測方法,經(jīng)改進(jìn)的此均值漂移算法的表現(xiàn)超過了多數(shù)性能優(yōu)異的跟蹤算法。此外,在尺度更新方面,Robert等人[13]采用差分尺度空間濾波器的策略,也取得了一定成效。盡管眾多學(xué)者做了很多努力,但視覺目標(biāo)跟蹤仍是一個(gè)開放問題。鑒于均值漂移跟蹤算法的高效性,尋求一種恰當(dāng)?shù)姆绞揭猿浞掷媚繕?biāo)信息和背景信息提升目標(biāo)位置估計(jì)的頑健性仍十分必要。
中智集理論[14]由Smarandache提出,相較于傳統(tǒng)的模糊理論,中智集理論除了對真(truth)、假(falsity)分量進(jìn)行表述外,還專門對不確定(indeterminacy)分量進(jìn)行了處理。中智集理論在處理不確定信息方面展現(xiàn)出很大優(yōu)勢。為了將中智集理論用于工程領(lǐng)域,參考文獻(xiàn)[15]提出了單值中智集的概念,將真、假、不確定分量的值限定在0到1的閉區(qū)間范圍內(nèi)。為將單值中智集用于工程決策,參考文獻(xiàn)[16]提出了余弦相似量測。鑒于中智理論的有效性,其被廣泛用于計(jì)算機(jī)視覺[17-23]、汽輪機(jī)故障診斷[24]、治療方案選擇[25,26]、聚類理論等[17,27-29]。參考文獻(xiàn)[17,18,21-23]將中智集理論用于圖像分割,其中參考文獻(xiàn)[17]提出了中智相似聚類方法;參考文獻(xiàn)[18]將不確定濾波器引入圖像分割;參考文獻(xiàn)[21]引入核約束,提出了核空間中智模糊均值聚類算法。在參考文獻(xiàn)[19]中,率先將單值中智集引入視頻目標(biāo)跟蹤算法中,提出了面向圖像顏色域和深度域的中智真、假、不確定分量的度量方法,并利用單值中智交叉熵完成了顏色和深度空間的信息融合,以此提升了跟蹤算法性能。參考文獻(xiàn)[30]利用中智相似度量建立新的權(quán)值,一定程度上提升了跟蹤算法的頑健性,然而其將 3個(gè)中智分量同等看待,且采用固定尺度信息,一定程度上限制了算法性能。
本文引入中智加權(quán)相似度量,提出了尺度自適應(yīng)的中智均值漂移視覺跟蹤算法,主要貢獻(xiàn)如下:
(1)提出了中智分量加權(quán)的思路,并將其引入余弦相似度量;
(2)針對幀間目標(biāo)特征穩(wěn)定度和目標(biāo)背景差異性提出了相應(yīng)屬性下的真、不確定、假量測計(jì)算方法,并利用加權(quán)余弦相似度量建立權(quán)值向量;
(3)針對目標(biāo)尺度自適應(yīng)更新問題提出了目標(biāo)尺度縮小/擴(kuò)大的真、不確定、假量測計(jì)算方法,并提出了中智框架下的尺度更新策略。
單值中智集是中智集的重要組成部分,單值中智集的提出使得中智理論用于科學(xué)與工程問題成為可能。單值中智集中每個(gè)元素對應(yīng)的真、不確定和假分量均為實(shí)數(shù)數(shù)值。假定X是一個(gè)全集,在X中的單值中智集A可以表示為:
其中,T(x)、I(x)和F(x)分別表示對應(yīng)元素的真、不確定和假分量量測函數(shù),且TA(x)、IA(x)、FA(x)∈[0,1],0≤TA(x)+IA(x)+FA(x)≤3。
假定是一個(gè)可供選擇的集合,是一個(gè)條件屬性集合,依照式(1),Ai可以被表示為:
其中,TCj(Ai)、ICj(Ai)和FCj(Ai)是在條件屬性Cj下針對Ai的真、不確定和假分量量測函數(shù),且TCj(Ai)、ICj(Ai)、FCj(Ai)∈[0,1],0≤TCj(Ai)+ICj(Ai)+FCj(Ai) ≤3。多條件屬性下的集合A為多屬性單值中智集。
參考文獻(xiàn)[31]中提出了一種面向多屬性單值中智集的余弦(向量形式)相似度量測方法,Ai與Aj在屬性Ck下的相似度可以表示為:
假定A*代表中智集范疇內(nèi)理想情況下的選擇,則任一選擇Ai同A*的加權(quán)相似度可以表示為:
其中,wk∈[0,1],wk是對應(yīng)于屬性Ck的權(quán)值,且
觀察式(4),可以發(fā)現(xiàn)該加權(quán)相似度僅是對不同屬性的加權(quán),然而在實(shí)際應(yīng)用中,有時(shí)須強(qiáng)化各分量內(nèi)部的T、I、F分量中的一個(gè)或多個(gè)值?,F(xiàn)有的中智相似度量算法并沒有這項(xiàng)考慮,因此,將Ai同Aj之間的相似度表示為:
其中,α、β、γ∈[0,1],分別為T、I、F分量的權(quán)值,且滿足α+β+γ=1。可以看到,式(5)中的主體部分實(shí)際是計(jì)算向量和向量之間的余弦值。因此,很容易得出如下3個(gè)結(jié)論:
假定A*代表理想選擇,則Ai同A*之間的相似度可表示為:
為提升均值漂移跟蹤算法的頑健性,本文以目標(biāo)特征、背景特征為出發(fā)點(diǎn),從幀間穩(wěn)定度和幀內(nèi)相似度兩個(gè)方面對均值漂移跟蹤算法進(jìn)行約束。
均值漂移算法通常采用核加權(quán)顏色直方圖,在選定跟蹤目標(biāo)后(通常用矩形框選定目標(biāo)區(qū)域),目標(biāo)特征被表示為:
其中,?u是直方圖的一個(gè)分量,假定有m個(gè)分量,則有為相對矩形框中心的圖像坐標(biāo),b(x)是一個(gè)映射函數(shù),它將x像素點(diǎn)位置的顏色信息映射在 1~m區(qū)間內(nèi)的某一個(gè)數(shù)值上。k(x)為核函數(shù),核函數(shù)要求具有等向性、凸和單調(diào)遞減性。δ(x)是克羅內(nèi)克函數(shù),C為歸一化參數(shù),n為目標(biāo)區(qū)域像素點(diǎn)總數(shù)。
在跟蹤過程中,需要選取候選目標(biāo),提取候選目標(biāo)直方圖特征與目標(biāo)特征比對。假定y是候選目標(biāo)區(qū)域(同尺度矩形框)的中心坐標(biāo),候選目標(biāo)特征可表示為:
其中,xi為候選區(qū)域內(nèi)的像素點(diǎn)坐標(biāo),nh為候選區(qū)域總像素點(diǎn)數(shù),Ch為歸一化參數(shù)。
巴氏相關(guān)系數(shù)被用來衡量目標(biāo)特征和候選目標(biāo)特征的相似度,該相似度被表示為:
上一幀確定的目標(biāo)區(qū)域通常會被作為下一幀的首個(gè)候選目標(biāo)區(qū)域。新一幀目標(biāo)區(qū)域須使得最大。針對該項(xiàng)目標(biāo),假設(shè)當(dāng)前候選目標(biāo)區(qū)域中心點(diǎn)圖像坐標(biāo)為0,則下一個(gè)候選目標(biāo)中心點(diǎn)坐標(biāo)應(yīng)為[7,8]:
其中,式(10)中的wi可通過式(11)計(jì)算:
為頑健完成視覺目標(biāo)跟蹤問題,須強(qiáng)化幀間特征較穩(wěn)定的特征以及和背景特征差異較大的特征。鑒于此,本文以直方圖特征每個(gè)分量為分析對象,提出了兩種基于單值中智集的T、I、F量測。
對于幀間穩(wěn)定條件屬性Cs,借助3σ理論,t時(shí)刻的T、I、F量測分別被定義為:
其中,時(shí)刻到t時(shí)刻目標(biāo)跟蹤位置特征直方圖中的第u個(gè)分量的集合,μ為該集合的均值,σ為該集合的標(biāo)準(zhǔn)差,N表示該集合中總元素?cái)?shù)。可以發(fā)現(xiàn),和分量的含義分別為t時(shí)刻前連續(xù)N幀時(shí)序內(nèi)滿足條件和的u分量數(shù)量占總元素?cái)?shù)的概率。
對于目標(biāo)特征強(qiáng)度及目標(biāo)/背景差異屬性Cb,相應(yīng)的t時(shí)刻的T、I、F量測分別被定義為:
其中,?u為目標(biāo)特征直方圖的第u個(gè)分量,bu為背景區(qū)域特征直方圖的第u個(gè)分量。在本文中,背景區(qū)域被定義為目標(biāo)區(qū)域的等比例外擴(kuò)區(qū)域,兩個(gè)區(qū)域中心均為原目標(biāo)區(qū)域中心。假定目標(biāo)區(qū)域?yàn)镚o,則背景區(qū)域Gb=λGo?Go,λ為擴(kuò)大系數(shù)。bu的計(jì)算依據(jù)式(7),本文并非在每一幀均更新bu,而是當(dāng)前幀背景區(qū)域特征與bu差異較大時(shí)才將其作為新的背景特征。
將式(12)~式(17)代入式(6),便可以得到直方圖中第u個(gè)分量的中智權(quán)值:
其中分別為兩個(gè)條件屬性對應(yīng)的權(quán)值,此處的理想選擇A*在任一屬性條件下均被定義為由此,式(18)可以簡化為:
在跟蹤目標(biāo)的過程中,目標(biāo)成像大小可能會發(fā)生變化,當(dāng)跟蹤目標(biāo)框的尺度變化長時(shí)間無法適應(yīng)目標(biāo)成像尺寸時(shí),易發(fā)生跟蹤失敗。本文將目標(biāo)候選區(qū)域特征與目標(biāo)特征的相似度作為可靠信息,將目標(biāo)候選區(qū)域特征與背景區(qū)域特征的相似度作為不確定信息,首次將中智集理論引入目標(biāo)尺度更新策略中。
在當(dāng)前幀目標(biāo)位置確定后,開始分析是否需要進(jìn)行尺度更新。首先考慮尺度縮小的情況,基于本文對可靠信息和不確定信息的分析,縮小尺度對應(yīng)的T、I、F量測分別被定義為:
其中,為當(dāng)前幀目標(biāo)區(qū)域縮小后對應(yīng)小區(qū)域的特征直方圖,確定縮小區(qū)域的方式與式(16)中背景區(qū)域的確定方法類似,同樣以當(dāng)前目標(biāo)區(qū)域?yàn)閰⒖?,區(qū)域中心不變,長寬按同比例縮小λsa倍,λsa為對應(yīng)的縮放系數(shù)。為初始目標(biāo)直方圖。為當(dāng)前區(qū)域?qū)?yīng)背景區(qū)域的特征直方圖。容易發(fā)現(xiàn),Tsa為目標(biāo)區(qū)域縮小后與初始目標(biāo)特征的相似度,Isa為目標(biāo)區(qū)域縮小后對應(yīng)背景區(qū)域與的相似度。
與式(18)類似,此處的理想選擇A*在任一屬性條件下也被定義為,將式(20)~式(22)代入式(6),可以得到:
依據(jù)同樣的策略,可以獲得放大尺度對應(yīng)的中智相似度權(quán)值wbscal,其中放大系數(shù)為λba。本文取
得到wsscal和wbscal后,可依照式(24)確定當(dāng)前幀尺度:
其中,s為比例因子,且滿足s>1。該比例因子的設(shè)定是為了避免尺度調(diào)整過于頻繁,或調(diào)整時(shí)受到噪聲干擾。確定λnew后,將目標(biāo)跟蹤框放大λnew倍作為新的跟蹤框。
將本文提出的跟蹤算法稱為中智加權(quán)相似度量尺度自適應(yīng)均值漂移算法,具體流程如下。
步驟1 在初始幀選取待跟蹤目標(biāo)區(qū)域,依據(jù)式(8)計(jì)算目標(biāo)特征直方圖和初始背景直方圖b。
步驟 2 讀入新的視頻幀。
步驟 3 以上一幀的目標(biāo)位置作為當(dāng)前幀目標(biāo)位置的搜尋起始點(diǎn)0。
步驟 4 以0為起始點(diǎn),依據(jù)式(25)、式(10)和式(19)計(jì)算新的目標(biāo)位置y?1。
步驟5 若不滿足,將重復(fù)執(zhí)行步驟4。
步驟6 依據(jù)式(20)~式(24)計(jì)算新的目標(biāo)尺度,更新目標(biāo)跟蹤框。計(jì)算當(dāng)前幀目標(biāo)背景特征直方圖,若
步驟7 輸出目標(biāo)跟蹤框,重復(fù)執(zhí)行步驟2~步驟7,直至跟蹤結(jié)束。
將本文提出的算法在一些具有挑戰(zhàn)性的視頻序列中進(jìn)行了測試,測試序列信息見表1(其中英文縮寫含義復(fù)雜背景(BC)、快速移動(FM)、運(yùn)動模糊(MB)、形變(DEF)、光照變化(IV)、平面內(nèi)旋轉(zhuǎn)(IPR)、低分辨率(LR)、遮擋(OCC)、平面外旋轉(zhuǎn)(OPR)、尺度變化(SV)),共計(jì)12 396幀,測試序列中包含了復(fù)雜背景、快速移動、運(yùn)動模糊、形變、光照變化、平面內(nèi)旋轉(zhuǎn)、低分辨率、遮擋、平面外旋轉(zhuǎn)和尺度變化等挑戰(zhàn)。
鑒于提出的算法完全基于均值漂移框架,在選取對比算法時(shí),主要選取了近期基于均值漂移框架表現(xiàn)較優(yōu)異的算法。為了測試算法性能,將算法與 ASMS[12]、NEUTMS[30]和 KMS[7,8]算法進(jìn)行了比較。ASMS是近期表現(xiàn)較好的均值漂移框架下的跟蹤算法,它在跟蹤的同時(shí)能夠自適應(yīng)調(diào)整尺度信息;NEUTMS是基于中智余弦相似度量的均值漂移算法,其在某些方面的性能已超過了ASMS算法;鑒于本文算法完全基于KMS算法改進(jìn),為顯示改進(jìn)效果,也將其引入。除ASMS以外,KMS和NEUTMS在跟蹤過程中均不更新尺度信息。為方便闡述,下文以WNEUTSMS表示本文提出的算法。
表1 測試視頻序列信息
在測試過程中,所設(shè)定的參數(shù)值均保持不變。計(jì)算式(12)~式(14)時(shí)涉及的總幀數(shù)N被設(shè)定為10;計(jì)算背景區(qū)域時(shí)的擴(kuò)大系數(shù)λ被設(shè)定為1.6;式(19)中均被設(shè)定為0.5,即兩類條件屬性在權(quán)值向量生成時(shí)的貢獻(xiàn)等分;式(19)、式(23)中的α、β、γ分別被設(shè)定為0.5、0.25、0.25,這里適當(dāng)強(qiáng)化了真分量的貢獻(xiàn);涉及尺度自適應(yīng)更新過程縮小和放大系數(shù)的λbsa和λba均被設(shè)定為0.3,式(24)中的比例因子s被設(shè)定為1.1;式(24)中的λ0須被設(shè)定為一個(gè)較小的值,以避免目標(biāo)框劇烈變化,此處λ0=0.04;算法流程中的ε0和ε1分別被設(shè)定為0.1、0.5。
本文主要采用了兩種評價(jià)方式,一種是中心點(diǎn)誤差,該誤差是指由算法獲得的目標(biāo)框中心坐標(biāo)與人為標(biāo)記的實(shí)際目標(biāo)中心坐標(biāo)之間的歐氏距離;另一種是跟蹤成功率,其測量基準(zhǔn)是跟蹤目標(biāo)區(qū)域和實(shí)際目標(biāo)區(qū)域的重疊度,該重疊度可表示為:
其中,ROITi為第i幀中由跟蹤算法獲得的目標(biāo)框區(qū)域,ROIGi為第i幀真實(shí)目標(biāo)框區(qū)域。通過設(shè)定一個(gè)最小重疊度r,相應(yīng)的跟蹤成功率可表示為:
其中,N為視頻序列的總幀數(shù)。
圖2、圖4、圖6、圖8給出了相應(yīng)視頻序列的跟蹤截圖,圖1、圖3、圖5、圖7給出了對應(yīng)視頻序列跟蹤結(jié)果的成功率曲線和中心點(diǎn)誤差曲線,定量分析了幾種算法的跟蹤效果。接下來針對各序列展開詳細(xì)分析。
(1)David序列
圖1 David序列跟蹤性能曲線
圖2 David序列跟蹤結(jié)果
該序列中各跟蹤算法面臨的主要挑戰(zhàn)包括目標(biāo)平面內(nèi)旋轉(zhuǎn)、平面外旋轉(zhuǎn)和相似背景等。從圖2可以看到,除了KMS算法,其他3種跟蹤算法在前330幀左右表現(xiàn)均較好。在第65幀,受到相似背景區(qū)域的干擾,KMS算法發(fā)生偏移。從第84幀可以看到KMS算法已失敗。在第339幀,可以看到ASMS算法估計(jì)了一個(gè)過大的尺度,導(dǎo)致目標(biāo)框較大且開始發(fā)生偏移,最終導(dǎo)致跟蹤失敗(第360幀)。在第430幀中,受背景干擾和目標(biāo)旋轉(zhuǎn)影響,NEUTMS算法發(fā)生了較大偏移。綜合圖1,可以發(fā)現(xiàn),在此序列中,WNEUTSMS算法表現(xiàn)最好。
(2)Signer序列
該序列中包含的挑戰(zhàn)包括光照變化、尺度變化等。從圖 4中可以發(fā)現(xiàn),在第 87幀,除了WNEUTSMS和ASMS算法以外,其他算法均已遠(yuǎn)遠(yuǎn)偏離了目標(biāo)位置。從尺度估計(jì)上,ASMS在前87幀的表現(xiàn)較好,WNEUTSMS算法給出的目標(biāo)框相對較小,其原因主要是光照變化導(dǎo)致目標(biāo)背景發(fā)生了劇烈變化,而歌手主體部分仍保持白色主色調(diào),受幀間穩(wěn)定度約束,目標(biāo)框鎖定在特征較穩(wěn)定的區(qū)域。從第87幀開始,僅WNEUTSMS算法估計(jì)的目標(biāo)位置準(zhǔn)確,且在目標(biāo)特征恢復(fù)時(shí)能給出恰當(dāng)?shù)哪繕?biāo)尺度(見第274幀、第322幀)。觀察圖3(b),可以發(fā)現(xiàn)雖然ASMS算法的中心位置估計(jì)尚可,但其估計(jì)的目標(biāo)尺度遠(yuǎn)大于目標(biāo)真實(shí)尺寸。綜合圖3、圖4,可以發(fā)現(xiàn),在本序列中,WNEUTSMS算法綜合表現(xiàn)最優(yōu)。
(3)Bolt序列
圖3 Singer序列跟蹤性能曲線
圖4 Singer序列跟蹤結(jié)果
該序列包含的挑戰(zhàn)主要有目標(biāo)形變、復(fù)雜背景等問題。觀察圖5(b),可以發(fā)現(xiàn),從第200幀左右開始,除了 WNEUTSMS算法,ASMS、NEUTMS和KMS算法的跟蹤結(jié)果均已發(fā)生較大偏移,跟蹤失敗。觀察圖 6,可以看到在該序列的前半段,4種算法均能較好的完成目標(biāo)跟蹤。在第180幀,算法效果開始出現(xiàn)分化,受 Bolt旁邊運(yùn)動員外觀信息干擾,除WNEUTSMS算法外的其他算法受到干擾。借助于尺度估計(jì)、幀間穩(wěn)定特征信息和目標(biāo)個(gè)體特征強(qiáng)化,WNEUTSMS算法較好地完成了目標(biāo)跟蹤。然而,仔細(xì)觀察后,會發(fā)現(xiàn)WNEUTSMS算法估計(jì)得到的目標(biāo)尺度略小于目標(biāo)成像尺寸,這也是導(dǎo)致在重復(fù)率門限較高時(shí),該算法的成功率反而低于其他算法的主要原因。深究造成這一現(xiàn)象的原因,主要是因?yàn)槟繕?biāo)奔跑速度快、步幅大,導(dǎo)致身體下半部分特征信息極不穩(wěn)定,故而導(dǎo)致尺度估計(jì)偏小。
(4)Walking序列
該序列中主要包含尺度變化、遮擋、目標(biāo)形變等挑戰(zhàn)。觀察圖7(b),可以發(fā)現(xiàn),相比其他3種算法,WNEUTSMS算法在第 150~170幀、在第200~230幀,在第 250~300幀,均得到了較準(zhǔn)確的目標(biāo)中心點(diǎn)位置。從圖8中可以看到,在行人接近車輛之前,各算法表現(xiàn)均較好(見第10幀、第143幀)。在第154幀,因行人本身有不少部分呈現(xiàn)黑色特征,在行人靠近黑色車輛時(shí),4種算法均不同程度上受到黑色車輛的影響,其中ASMS偏離目標(biāo)中心點(diǎn)最遠(yuǎn),WNEUTSMS算法偏離最小,且估計(jì)的目標(biāo)尺寸最接近目標(biāo)成像大小。從第 153幀起,受背景車輛的干擾,ASMS算法已無法完成尺度信息的準(zhǔn)確估計(jì),故而逐步導(dǎo)致算法失敗,而WNEUTSMS算法能夠給出相對合理的目標(biāo)框尺寸,這在圖7(a)成功率曲線上也有所體現(xiàn)。
圖5 Bolt序列跟蹤性能曲線
圖6 Bolt序列跟蹤結(jié)果
為評價(jià)本文算法在所有測試序列中的表現(xiàn),將TRE和OPE評價(jià)引入。為完成TRE評價(jià),每個(gè)測試序列被分為20份序列片段(各序列片段對應(yīng)原序列不同起始幀,但均以原序列結(jié)束幀為終止),每一個(gè)跟蹤算法均在每份測試序列片段中進(jìn)行測試。對于OPE評價(jià),每個(gè)測試序列是從第一幀測試到最后一幀,且僅測一次。圖9和圖10分別給出了基于TRE、OPE評價(jià)的面向表1所示整個(gè)測試序列集的測試結(jié)果,表2和表3分別給出了各跟蹤算法應(yīng)對不同挑戰(zhàn)的 TRE-AUC、OPE-AUC分值。AUC分值為成功率曲線中對應(yīng)成功率曲線與橫縱坐標(biāo)軸圍成區(qū)域的面積,該值越大,表明算法越頑健。TRE-AUC分值與TRE成功率曲線對應(yīng),OPE-AUC分值則與OPE成功率曲線對應(yīng)。
圖7 Walking序列跟蹤性能曲線
圖8 Walking序列跟蹤結(jié)果
圖9 所有測試序列TRE成功率曲線
圖10 所有測試序列OPE成功率曲線
綜合分析圖9、圖10和表2、表3,WNEUTSMS算法總體表現(xiàn)較好。觀察表 2,WNEUTSMS算法在應(yīng)對復(fù)雜背景、光照變化、平面內(nèi)旋轉(zhuǎn)、遮擋和平面外旋轉(zhuǎn)時(shí)表現(xiàn)最好;在應(yīng)對形變挑戰(zhàn)時(shí)僅次于NEUTMS算法,其原因主要在于大范圍的形變可能會造成目標(biāo)跟蹤框尺度估計(jì)不準(zhǔn)確;在應(yīng)對低分辨率和尺度變化時(shí)的表現(xiàn)僅次于ASMS算法,其原因主要在于在低分辨率情況下,僅有較少的信息能夠被用來提升算法性能。對于OPE評價(jià),WNEUTSMS算法在應(yīng)對快速移動、運(yùn)動模糊、形變、平面內(nèi)旋轉(zhuǎn)、遮擋和平面外旋轉(zhuǎn)時(shí)表現(xiàn)最好。在應(yīng)對復(fù)雜背景、光照變化時(shí)僅次于ASMS算法。
綜合以上分析,可以發(fā)現(xiàn),本文算法(WNEUTSMS算法)在確定目標(biāo)位置時(shí)將目標(biāo)幀間特征穩(wěn)定性和背景信息引入,同時(shí)強(qiáng)化“真”量測分量;在確定目標(biāo)尺度時(shí)聯(lián)合考慮目標(biāo)特征信息和目標(biāo)背景信息。多類信息融合考量提升了算法在應(yīng)對背景干擾、光照變化、尺度變化等挑戰(zhàn)時(shí)的頑健性。
本文提出了一種面向單值中智集的分量加權(quán)余弦相似度量,并基于此在中智框架內(nèi)提升了均值漂移視覺跟蹤算法的頑健性。針對目標(biāo)幀間特征穩(wěn)定性和目標(biāo)/背景相似度兩種屬性,本文提出了相應(yīng)的真、不確定、假量測計(jì)算方式,然后利用分量加權(quán)余弦相似度量構(gòu)建了新的權(quán)值向量,用于修正傳統(tǒng)均值漂移跟蹤算法的權(quán)值。此外,本文首次提出了基于中智加權(quán)余弦相似度量的尺度更新算法。實(shí)驗(yàn)結(jié)果表明,本文提出的視覺跟蹤算法能較好應(yīng)對相似背景、光照變化和尺度變化等挑戰(zhàn)。
表2 各跟蹤算法應(yīng)對不同挑戰(zhàn)的TRE-AUC分值
表3 各跟蹤算法應(yīng)對不同挑戰(zhàn)的OPE-AUC分值
參考文獻(xiàn):
[1]趙利平, 林濤, 周開倫, 等.一種多色度格式級聯(lián)編碼的AVS2全色度圖像編碼算法[J].電信科學(xué), 2018, 34(4): 57-67.ZHAO L P, LIN T, ZHOU K L, et al.A multi-chroma format cascaded coding method for full-chroma image in AVS2[J].Telecommunications Science, 2018, 34(4): 57-67.
[2]唐彪, 金煒, 符冉迪, 等.多稀疏表示分類器決策融合的人臉識別[J].電信科學(xué), 2018, 34(4): 31-40.FU B, JIN W, FU R D, et al.Face recognition using decision fusion of multiple sparse representation-based classifiers[J].Telecommunications Science, 2018, 34(4): 31-40.
[3]顏文, 金煒, 符冉迪.結(jié)合 VLAD特征和稀疏表示的圖像檢索[J].電信科學(xué), 2016, 32(12): 80-85.YAN W, JIN W, FU R D.Image retrieval based on the feature of VLAD and sparse representation[J].Telecommunications Science, 2016, 32 (12): 80-85.
[4]YILMAZ A, JAVED O, SHAH M.Object tracking: a survey [J].ACM Computing Surveys, 2006, 38(4): 13.
[5]WU Y, LIM J, YANG M H.Online object tracking: a benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 23-28, 2013, Portland, OR,USA.Piscataway: IEEE Press, 2013: 2411-2418.
[6]SMEULDERS A W M, CHU D M, CUCCHIARA R, et al.Visual tracking: an experimental survey [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7):1442-1468.
[7]COMANICIU D, RAMESH V, MEER P.Real-time tracking of non-rigid objects using mean shift[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 13-15,2000, Hilton Head Island, SC, USA.Piscataway: IEEE Press,2000: 142-149.
[8]COMANICIU D, RAMESH V, MEER P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5): 564-577.
[9]LEICHTER I.Mean shift trackers with cross-bin metrics[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 34(4): 695-706.
[10]ZHOU H, YUAN Y, SHI C.Object tracking using SIFT features and mean shift[J].Computer Vision and Image Understanding,2009, 113(3): 345-352.
[11]BOUSETOUANE F, DIB L, SNOUSSI H.Improved mean shift integrating texture and color features for robust real time object tracking[J].The Visual Computer, 2013, 29(3): 155-170.
[12]VOJIR T, NOSKOVA J, MATAS J.Robust scale-adaptive mean-shift for tracking[J].Pattern Recognition Letters,2014(49): 250-258.
[13]COLLINS R T.Mean-shift blob tracking through scale space[C]//IEEE Conference on Computer Vision Pattern Recognition (CVPR), June 16-22, 2003, Madison, WI, USA.Piscataway: IEEE Press, 2003: 234-234.
[14]SMARANDACHE F.Neutrosophy: neutrosophic probability,set and logic[M].Rehoboth: American Research Press, 1998:105.
[15]WANG H, SMARANDACHE F, ZHANG Y Q, et al.Single valued neutrosophic sets[J].Multispace and Multistructure,2010(4): 410-413.
[16]YE J.Vector similarity measures of simplified neutrosophic sets and their application in multicriteria decision making[J].International Journal of Fuzzy Systems, 2014, 16(2):204-211.
[17]GUO Y, ?ENGüR A.A novel image segmentation algorithm based on neutrosophic similarity clustering[J].Applied Soft Computing Journal, 2014(25): 391-398.
[18]GUO Y, XIA R, ?ENGüR A, et al.A novel image segmentation approach based on neutrosophic C-means clustering and indeterminacy filtering[J].Neural Computing and Applications,2016: 1-11.
[19]HU K, YE J, FAN E, et al.A novel object tracking algorithm by fusing color and depth information based on single valued neutrosophic cross-entropy[J].Journal of Intelligent and Fuzzy Systems, 2017, 32(3): 1775-1786.
[20]GUO Y, SENGUR A.A novel 3D skeleton algorithm based on neutrosophic cost function[J].Applied Soft Computing Journal,2015(36): 210-217.
[21]崔西希, 吳成茂.核空間中智模糊聚類及圖像分割應(yīng)用[J].中國圖象圖形學(xué)報(bào), 2016, 21(10): 1316-1327.CUI X X, WU C M.Neutrosophic C-means clustering in kernel space and its application in image segmentation[J].Journal of Image and Graphics, 2016, 21(10): 1316-1327.
[22]張桂梅, 王大雷.結(jié)合 LPG&PCA 的中智學(xué)圖像分割[J].中國圖象圖形學(xué)報(bào), 2014, 19(5): 693-700.ZHANG G M, WANG D L.Neutrosophic image segmentation approach integrated LPG&PCA [J].Journal of Image and Graphics, 2014, 19(5): 693-700.
[23]鄭肇葆, 潘勵(lì), 鄭宏.中智邏輯圖像分割方法的研究與分析[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版), 2015, 40(2): 143-146.ZHENG Z B, PAN L, ZHENG H.Research and analysis of neutrosophic logic image segmentation (NLIS) method[J].Geomatics and Information Science of Wuhan University, 2015,40(2): 143-146.
[24]YE J.Single-valued neutrosophic similarity measures based on cotangent function and their application in the fault diagnosis of steam turbine[J].Soft Computing, 2015,21(3): 817-825.
[25]MA Y X, WANG J Q, WANG J, et al.An interval neutrosophic linguistic multi-criteria group decision-making method and its application in selecting medical treatment options[J].Neural Computing and Applications, 2016: 1-21.
[26]YE J, FU J.Multi-period medical diagnosis method using a single valued neutrosophic similarity measure based on tangent function[J].Computer Methods & Programs in Biomedicine,2016(123): 142-149.
[27]ANTER A M, HASSANIEN A E, ELSOUD M A A, et al.Neutrosophic sets and fuzzy C-means clustering for improving CT liver image segmentation[J].Advances in Intelligent Systems and Computing, 2014(303): 193-203.
[28]GUO Y, SENGUR A.NECM: neutrosophic evidential C-means clustering algorithm[J].Neural Computing and Applications,2015, 26(3): 561-571.
[29]GUO Y, SENGUR A.NCM: Neutrosophic c-means clustering algorithm[J].Pattern Recognition, 2015, 48(8): 2710-2724.
[30]HU K, FAN E, YE J, et al.Neutrosophic similarity score based weighted histogram for robust mean-shift tracking[J].Information, 2017, 8(4): 122.
[31]YE J.Multicriteria decision-making method using the correlation coefficient under single-valued neutrosophic environment[J].International Journal of General Systems, 2013,42(4): 386-394.