国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種AGMM配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤方法

2015-07-24 17:49:29張立朝畢篤彥余旺盛
關(guān)鍵詞:高斯尺度混合

張立朝,畢篤彥,楊 源,余旺盛,覃 兵

(1.空軍工程大學(xué)航空航天工程學(xué)院,陜西西安 710038;2.空軍工程大學(xué)空管領(lǐng)航學(xué)院,陜西西安710051;3.空軍工程大學(xué)信息與導(dǎo)航學(xué)院,陜西西安 710077)

一種AGMM配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤方法

張立朝1,畢篤彥1,楊 源2,余旺盛3,覃 兵1

(1.空軍工程大學(xué)航空航天工程學(xué)院,陜西西安 710038;2.空軍工程大學(xué)空管領(lǐng)航學(xué)院,陜西西安710051;3.空軍工程大學(xué)信息與導(dǎo)航學(xué)院,陜西西安 710077)

針對視覺目標(biāo)跟蹤中目標(biāo)尺度發(fā)生變化時容易發(fā)生跟蹤失敗的問題,提出基于不對稱高斯混合模型配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤方法.不對稱高斯混合模型配準(zhǔn)把上一幀和當(dāng)前幀圖像的特征點集分別作為高斯混合模型高斯重心和數(shù)據(jù)點,并將特征信息與空間信息相融合;通過比較數(shù)據(jù)點與高斯混合模型高斯重心之間的相似程度,對兩幀圖像之間的點集進行配準(zhǔn),得到當(dāng)前幀中可靠的特征點;點集的離散程度充分反映了目標(biāo)尺度大小,通過仿射變換計算圖像離散度比例變化,可以準(zhǔn)確地估計出當(dāng)前幀目標(biāo)框的位置和尺度.實驗表明,該算法對目標(biāo)尺度變化具有較強的自適應(yīng)性,并且在發(fā)生光照變化、復(fù)雜背景時,也可以達(dá)到很好的效果.

視覺跟蹤;尺度自適應(yīng);不對稱高斯混合模型配準(zhǔn);仿射變換;特征點集

目標(biāo)跟蹤[1-4]是計算機視覺領(lǐng)域的一個重點問題,也是難點問題.目標(biāo)跟蹤廣泛應(yīng)用于監(jiān)控、視頻編碼以及軍工領(lǐng)域.如何有效地在視頻序列中對感興趣目標(biāo)進行有效跟蹤,是計算機視覺中一個極具挑戰(zhàn)性的課題.存在的挑戰(zhàn)有快速目標(biāo)移動、光照變化、遮擋和復(fù)雜背景.

尺度估計一直是目標(biāo)跟蹤的重點問題:在跟蹤過程中,目標(biāo)框尺度關(guān)系到下一幀目標(biāo)位置及尺度的定位.當(dāng)目標(biāo)的尺度發(fā)生變化時,如何適應(yīng)目標(biāo)尺度的變化已成為跟蹤任務(wù)的重點.目前對目標(biāo)進行尺度估計的基本方法有:基于Lindeberg尺度空間理論[5];基于仿射變換[6];基于Bhattacharrya系數(shù)對尺度求導(dǎo),得到尺度Mean shift[7];基于粒子濾波[8]的尺度估計,在原始尺度周圍進行遍歷;也有將Bhattacharrya系數(shù)換成Chi squared度量[9],然后在次最好結(jié)果的集合中挑選出最好的結(jié)果,進行尺度估計;還有在這些方法基礎(chǔ)上改進的算法.但是這些尺度算法通常沒有充分反映前后幀之間的配準(zhǔn)信息,并且也缺乏對目標(biāo)的特征信息和空間信息的綜合描述.在跟蹤過程中,目標(biāo)的尺度可能變大或變小,一般情況下認(rèn)為相鄰兩幀尺度變化不大,即目標(biāo)的尺度隨時間變化服從連續(xù)分布,為充分利用前后幀的配準(zhǔn)關(guān)系并融合目標(biāo)的特征信息和空間信息,筆者引入點集來描述這些信息,采用基于不對稱高斯混合模型(Asymmetrical Gauss Mixture Models,AGMM)配準(zhǔn)的點集[10]預(yù)測.相對于基于運動光流預(yù)測的個別點匹配算法[11]易受光照變化的影響,不對稱高斯混合模型配準(zhǔn)采用在高斯混合模型(GMM)[12]原始空間信息的基礎(chǔ)上加入特征信息,并采用點集進行匹配,跟蹤結(jié)果更準(zhǔn)確,也更魯棒.

筆者采用基于仿射變換的目標(biāo)尺度估計算法,首先在上一幀目標(biāo)區(qū)域和當(dāng)前幀目標(biāo)候選區(qū)域檢測特征點集;然后利用不對稱高斯混合模型配準(zhǔn)對目標(biāo)點集與候選目標(biāo)點集進行匹配,得到當(dāng)前幀中可靠的特征點;最后仿射變換計算圖像離散度比例變化,準(zhǔn)確地估計出當(dāng)前幀目標(biāo)尺度.

1 不對稱高斯混合模型

1.1 不對稱高斯混合模型構(gòu)建

利用概率密度估計解決兩個點集之間的匹配問題.在視頻跟蹤中,認(rèn)為前一幀圖像的點集為高斯混合模型重心,而當(dāng)前幀圖像的點集為數(shù)據(jù)點.假設(shè)St-1={yj|yj∈R2,j=1,…,m},St={xi|xi∈R2,i=1,…,n},分別為從前后相鄰兩幀圖像中提取特征點集.把集合St-1的元素看做m個高斯混合模型重心,把集合St的元素看做通過高斯混合模型產(chǎn)生的數(shù)據(jù)點.高斯混合模型概率密度函數(shù)為

假定C(Y)是集合St-1中點的運動模型,?yi∈St-1=yj+C(yj)是第j個高斯成分的新位置.考慮噪聲點和局外點,加入歸一化分布.將歸一化分布的權(quán)重表示為1-ω(0≤ω≤1),混合模型為

其中,

p(xi|j)是關(guān)于xi的第j個高斯成分;p(o)=1/n,對局外點和噪聲點進行建模;pij(i=1,…,n;j=1,…, m)是所有高斯成分的混合系數(shù).在文獻[10]中,每一個高斯混合模型成分被認(rèn)為擁有相同的權(quán)重并且pij= 1/m.Θ={C(Y),σ},是運動參數(shù);D是點集維數(shù);σ是高斯成分的方差.

然而,除了考慮點集位置的一致性外,點集之間的特征相似性也是影響對應(yīng)可靠性的重要因素.如果高斯分布重心與特征空間中的數(shù)據(jù)點非常相似,那么應(yīng)該對這個高斯混合模型成分賦予大的權(quán)重,這樣具有相似特征的點對擁有更多的機會組成一個對應(yīng)關(guān)系.因此,不對稱高斯混合模型權(quán)重定義為

其中,f(xi)和f(yi)分別表示點xi和yi的特征.

因此,似然函數(shù)關(guān)于局內(nèi)點和局外點分布的混合模型為

為了更有效地解決復(fù)雜變形的點集配準(zhǔn),利用Tikhonov regularization定義先驗概率,為

根據(jù)式(5)和式(6),后驗概率p(Θ,ω|X)∝L(Θ,ω)p(C).因此,可以通過求解最大后驗概率(Maximum A Posteriori,MAP)問題來估計參數(shù)Θ和ω.這相當(dāng)于最小化負(fù)的log-posteriorε(Θ,ω):

其中,p(xi|Θ,ω)由式(2)給出.

1.2 期望最大算法求解

期望最大(Expectation-Maximization,EM)算法是一個求解MAP問題的很好算法.利用期望最大算法找出最優(yōu)的Θ和ω.首先猜想?yún)?shù)的值,然后利用貝葉斯理論計算混合成分的后驗概率分布,即算法的expectation或E-step.在M-step,獲得新的參數(shù)值通過最小化ε(Θ,ω)的期望,即Q(Θ,ω).Q(Θ,ω)可以寫為

E-step:通過貝葉斯理論計算混合成分的后驗概率分布,即

其中,i=1,…,n,j=1,…,m.

式(9)表示樣本xi與yi匹配的概率.概率越小,匹配越不可靠.因此,經(jīng)過期望最大算法收斂后,匹配的概率可以用來濾除這些不穩(wěn)定的匹配.給出一個閾值tp,概率小于tp的匹配可以當(dāng)做非匹配點而移除掉.

M-step:通過最小化能量函數(shù)Q(Θ,ω)更新參數(shù)Θ和ω.

其中,1是元素全為1的列向量,P是矩陣,且P(j,i)=p(j|xi,Θ,ω).

2 基于不對稱高斯混合模型配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤

2.1 基于仿射變換的尺度自適應(yīng)

選取2017年1月~10月期間收治的86例行胸、腹腔鏡聯(lián)合治療的食管癌患者,按隨機數(shù)字法分為對照組和觀察組。對照組:男女性別比為22:21;年齡49~78歲,平均(56.8±6.4)歲。觀察組:男女性別比為24:19;年齡49~78歲;平均(56.3±6.4)歲。兩組一般資料比較無統(tǒng)計學(xué)意義(P>0.05)。

將混合高斯模型獲得的點集進行可靠性處理之后,獲得比較好的點集,在已知上一幀目標(biāo)尺度的情況下,通過對這些點集仿射變換,計算出當(dāng)前幀目標(biāo)的尺度.經(jīng)過后驗概率p(j|xi,Θ,ω)小于閾值tp的非匹配濾除,留下可靠的匹配點,則第t-1幀圖像It-1和第t幀圖像It中可靠的匹配特征點分別為S′t-1={yj|yj∈R2,j=1,…,r}和S′t={xi|xi∈R2,i=1,…,r},如圖1所示.

圖1 匹配特征點

根據(jù)圖1,分別計算點集S′t-1和S′t的離散度,再利用離散度計算仿射變換因子.

(1)It-1中目標(biāo)在x和y方向的空間離散度分別為

(2)It中目標(biāo)在x和y方向的空間離散度分別為

(3)仿射變換因子為

其中,{sx,sy}為目標(biāo)水平、垂直方向的伸縮參數(shù),{Δx,Δy}為平移參數(shù).

選取匹配點進行仿射變換,考慮到實際中經(jīng)常遇到的平移和伸縮運動,目標(biāo)仿射變換模型為

其中,(xt-1,yt-1)和(xt,yt)分別為同一目標(biāo)特征點分別在圖像It-1和圖像It中的位置.

當(dāng)前幀的目標(biāo)位置中心和目標(biāo)尺度表示為(O,Obb)t,計算如下:中心點Ot通過上一幀中心點Ot-1加上偏移量計算,即目標(biāo)框Obbt的寬度wt和高度ht分別通過上一幀Obbt-1的寬度wt-1和高度ht-1乘以伸縮參數(shù){sx,sy}得到,即

2.2 算法流程

基于不對稱高斯混合模型配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤算法流程如下.

輸入:圖像It-1和It,初始目標(biāo)位置O0,初始目標(biāo)框Obb0,采樣點集S0;

輸出:(O,Obb)t,It中匹配點集S′t;

For frame=t

3 實 驗

3.1 不對稱高斯混合模型配準(zhǔn)實驗

采用Mikolajczyk dataset[13]對不對稱高斯混合模型配準(zhǔn)的匹配映射進行評估,如圖2所示.首先選3對典型的圖像對(boat1,boat3),(trees1,trees5)和(bikes1,bikes3),用來說明不對稱高斯混合模型算法的匹配表現(xiàn),一個匹配采用一個帶方向的箭頭表示.不對稱高斯混合模型配準(zhǔn)算法不單純考慮圖像的空間信息,同時加入目標(biāo)的特征信息.文中的特征信息采用尺度不變特征轉(zhuǎn)換(Scale Invariant Feature Transform, SIFT)特征[14],即式(4)的f(xi)與f(yi)利用尺度不變特征轉(zhuǎn)換描述子來計算,采樣尺度不變特征轉(zhuǎn)換特征點并在高斯混合模型中加入目標(biāo)的尺度不變特征轉(zhuǎn)換特征權(quán)重.尺度不變特征轉(zhuǎn)換特征提供先驗信息,根據(jù)式(4),不對稱高斯混合模型中高斯混合模型的權(quán)重根據(jù)尺度不變特征轉(zhuǎn)換描述子匹配程度進行不同程度的調(diào)整,對不同的高斯成分賦予不同的權(quán)重,減少誤匹配點和奇異點,提高正確匹配點的數(shù)目以提取到目標(biāo)更多的特征點,并且能夠準(zhǔn)確估計目標(biāo)的旋轉(zhuǎn)及一些尺度的變化.非匹配點過濾閾值tp設(shè)為0.3,不對稱高斯混合模型算法能夠濾除掉絕大多數(shù)非匹配特征點而留下準(zhǔn)確匹配的特征點.

3.2 跟蹤實驗

(1)‘CarScale’視頻序列.為測試上述算法對目標(biāo)尺度變化的自適應(yīng)性,采用的視頻序列為Bench Mark數(shù)據(jù)庫[15]中‘CarScale’視頻,序列長度為252幀.圖3矩形框中標(biāo)出的為跟蹤目標(biāo),實驗測試了目標(biāo)由遠(yuǎn)及近逐漸變大的過程中,本算法對目標(biāo)尺度變化的自適應(yīng)性,并與文獻[11]使用運動光流仿射變換的TLD算法進行比較.分別挑選了#1、#128、#150、#161、#216和#221等具有代表性的幾幀跟蹤結(jié)果圖.可以看出,開始時目標(biāo)的尺度比較小,TLD算法可以較好地跟蹤上,隨著目標(biāo)的尺度不斷變大,從第128幀起目標(biāo)尺度變化已經(jīng)很大,依賴于檢測模板的TLD算法由于目標(biāo)模板都是初始化的小尺度模板,而得不到及時更新,因此不能適應(yīng)目標(biāo)尺度的變大.如圖3所示,筆者提出的算法可以及時適應(yīng)目標(biāo)尺度的變化,原因在于采用了不對稱高斯混合模型配準(zhǔn)的匹配跟蹤,在不對稱高斯混合模型配準(zhǔn)的同時考慮目標(biāo)的空間信息和特征信息,根據(jù)目標(biāo)尺度的變化調(diào)整特征權(quán)重的大小.選用尺度不變特征轉(zhuǎn)換點作為特征點,主要原因是其具有尺度不變特性并且對光照旋轉(zhuǎn)等變化具有較強的抗干擾性.尺度不變特征轉(zhuǎn)換特征點集的元素個數(shù)比較多,這樣能夠更好地適應(yīng)目標(biāo)配準(zhǔn).在進行仿射變換時,點集中特征點主要分布在目標(biāo)的邊緣輪廓上,能夠充分反映目標(biāo)的外觀特征,點集之間的離散度之比正比于目標(biāo)外形輪廓的尺度之比.因此根據(jù)上一幀目標(biāo)的尺度及比例變化因子,利用仿射變換可以非常準(zhǔn)確地求解出目標(biāo)在當(dāng)前幀中的尺度.從圖3中可以看出,當(dāng)目標(biāo)的尺度不斷變大時,即使受一些光照、復(fù)雜背景的干擾,筆者提出的算法也可以準(zhǔn)確地跟蹤目標(biāo).

圖2 不對稱高斯混合模型配準(zhǔn)的匹配映射

圖3 TLD算法和筆者提出的算法對‘CarScale’的跟蹤結(jié)果

圖4主要測試了目標(biāo)尺度變化時,筆者提出的算法和比較算法對尺度變化的適應(yīng)性.從圖4中可見,雖然兩種算法得到的目標(biāo)尺度變化均反映了目標(biāo)的變化趨勢,但筆者提出的算法得到的目標(biāo)尺度變化與目標(biāo)實際的尺度變化貼合較好,而TLD算法計算的尺度均低于目標(biāo)實際的尺度,且離實際尺度變化曲線較遠(yuǎn),在163~175幀和222~252幀處,由于光照變化導(dǎo)致光流無預(yù)測值.

圖4 目標(biāo)尺度變化對比

(2)‘Dog1’視頻序列.為測試筆者提出的算法對目標(biāo)尺度變化的自適應(yīng)性,采用的視頻序列為Bench Mark數(shù)據(jù)庫[15]中‘Dog1’視頻,序列長度為1 350幀.同樣與TLD算法[11]進行比較.實驗測試了目標(biāo)由遠(yuǎn)及近逐漸變大的過程中,筆者提出的算法對目標(biāo)尺度變化的自適應(yīng)性,并與TLD算法中的尺度自適應(yīng)算法進行了比較.分別挑選了#100、#494、#736、#1154、#1214和#1221等具有代表性的幾幀跟蹤結(jié)果圖.當(dāng)目標(biāo)的尺度和方向發(fā)生較大變化時,TLD算法跟蹤效果并不好,跟蹤發(fā)生漂移并且不能適應(yīng)尺度變化,如圖5所示.同樣筆者提出的算法也在‘Dog1’序列上進行測試,可以看出,筆者提出的算法能夠適應(yīng)目標(biāo)尺度由小變大、再由大變小的過程,并且當(dāng)目標(biāo)姿態(tài)發(fā)生變化時,也會準(zhǔn)確地跟蹤目標(biāo).

圖5 TLD算法和筆者提出的算法對‘Dog1’的跟蹤結(jié)果

圖6為整個‘Dog1’視頻序列筆者提出的算法和TLD算法的跟蹤性能比較結(jié)果.從‘Overlap’和‘Localization Error’[16]曲線圖可以看出,在915~1 100幀,當(dāng)視頻尺度增大時,TLD算法由于跟蹤模塊預(yù)測不準(zhǔn)并且模板更新不及時,導(dǎo)致不能適應(yīng)目標(biāo)尺度的變化,而出現(xiàn)較大的誤差,主要體現(xiàn)在‘Overlap’變小、‘Localization Error’變大,即出現(xiàn)波谷和波峰的誤差.

圖6 視頻序列‘Dog1’的比較結(jié)果

4 總結(jié)與展望

筆者提出基于不對稱高斯混合模型配準(zhǔn)的尺度自適應(yīng)目標(biāo)跟蹤算法,在利用不對稱高斯混合模型算法進行配準(zhǔn)的基礎(chǔ)上,計算出各個點集離散度,利用仿射變換對目標(biāo)進行定位、尺度計算和方向計算.接著處理下一幀時,同樣對相鄰兩幀之間的點集進行配準(zhǔn),然后進行幾何仿射變換.如此往復(fù)下去,便可自適應(yīng)地實現(xiàn)視頻序列目標(biāo)尺度和位置的定位跟蹤.通過實驗,驗證了筆者提出的算法對目標(biāo)尺度變化的自適應(yīng)性,與目前優(yōu)秀的算法比較,可以發(fā)現(xiàn)筆者提出的算法具有良好的尺度處理能力,并且通過引入尺度不變特征轉(zhuǎn)換特征點,點集配準(zhǔn)對光照具有較強的抗干擾性.點集之間離散度之比反映了相鄰兩幀之間目標(biāo)尺度之比,通過仿射變換,可以非常準(zhǔn)確地自適應(yīng)目標(biāo)尺度.

利用不對稱高斯混合模型配準(zhǔn)時,筆者采用尺度不變特征轉(zhuǎn)換特征點集,可以考慮采用性能優(yōu)良且速度較快的特征信息:通過哈希投影將實值描述符轉(zhuǎn)化為二值描述子[17],一方面可以降低目標(biāo)匹配的運算量,提高跟蹤速度;另一方面可以降低描述符所占存儲空間,提取更多的特征點,從而提高配準(zhǔn)的精度.在下一步工作中,筆者將努力解決這個問題.

[1]Smeulders A W M,Chu D M,Cucchiara R,et al.Visual Tracking:an Experimental Survey[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(7):1442-1468.

[2]Zhong B,Yao H,Chen S,et al.Visual Tracking via Weakly Supervised Learning from Multiple Imperfect Oracles[J]. Pattern Recognition,2014,47(3):1395-1410.

[3]Li X,Hu W,Shen C,et al.A Survey of Appearance Models in Visual Object Tracking[J].ACM Transactions on Intelligent Systems and Technology,2013,4(4):58.

[4]Liu H,Yuan M,Sun F,et al.Spatial Neighborhood-constrained Linear Coding for Visual Object Tracking[J].IEEE Transactions on Industrial Informatics,2014,10(1):469-480.

[5]Collins R.Mean-shift Blob Tracking through Scale Space[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society,2003:234-240.

[6]彭寧嵩,楊杰,劉志,等.Mean-Shift跟蹤算法中核函數(shù)窗寬的自動選取[J].軟件學(xué)報,2005,16(9):1542-1550. Peng Ningsong,Yang Jie,Liu Zhi,et al.Automatic Selection of Kernel-bandwidth for Mean-shift Object Tracking[J]. Journal of Software,2005,16(9):1542-1550.

[7]Vojir T,Noskova J,Matas J.Robust Scale-Adaptive Mean-Shift for Tracking[C]//Lectures Notes in Computer Science:7944.Heidelberg:Springer Verlag,2013:652-663.

[8]Ross D,Lim J,Lin R S,et al.Incremental Learning for Robust Visual Tracking[J].International Journal of Computer Vision,2008,77(1):125-141.

[9]Naik N,Patil S,Joshi M.A Scale Adaptive Tracker Using Hybrid Color Histogram Matching Scheme[C]//Proceedings of the IEEE International Conference on Emerging Trends in Engineering and Technology.Piscataway:IEEE Computer Society,2009:279-284.

[10]Myronenko A,Song X B.Point-set Registration:Coherent Point Drift[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(12):2262-2275.

[11]Kalal Z,Mikolajczyk K,Matas J.Tracking Learning Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,6(1):1-14.

[12]Jian B,Vemuri B.Robust Point Set Registration Using Gaussian Mixture Models[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1633-1645.

[13]Mikolajczyk K,Schmid C.A Performance Evaluation of Local Descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(10):1615-1630.

[14]Lowe D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal of Computer Vision, 2004,60(2):91-110.

[15]Wu Y,Lim J W,Yang M H.Online Object Tracking:a Benchmark[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Los Alamitos:IEEE Computer Society,2013:2411-2418.

[16]Everingham M,Van Gool L,Williams C K,et al.The Pascal Visual Object Classes(VOC)Challenge[J].Interational Journal of Computer Vision,2010,88(2):303-338.

[17]Li X,Shen C,Dick A,et al.Learning Compact Binary Codes for Visual Tracking[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington:IEEE Computer Society,2013: 2419-2426.

(編輯:郭 華)

Visual object tracking with the adaptive scale based on AGMM point sets matching

ZHANG Lichao1,BI Duyan1,YANG Yuan2,YU Wangsheng3,QIN Bing1
(1.School of Aeronautics and Astronautics Engineering,Air Force Engineering Univ,Xi’an 710038, China;2.School of ATC Pilot,Air Force Engineering Univ.,Xi’an 710051,China;3.School of Information and Astronautics Navigation,Air Force Engineering Univ.,Xi’an 710077,China)

A visual object tracking method with the adaptive scale based on AGMM(Asymmetrical Gauss Mixture Models)point sets matching is proposed aimed at adaptively following the object’s scale changes, which often cause tracking failure.As the feature point set in the last frame is considered as the GMM centroids and the feature point set in the current frame represents the data respectively,AGMM fuses the feature information and spatial information;by comparing the similarity between data and GMM centroids, we match the point sets between two adjacent frames and obtain the reliable feature points in the current frame;the degree of dispersion between points in the point set accurately reflects the size of the object scale and by using affine transformation,the proportion of the two point sets is computed to estimate the position and scale of the bounding box in the current frame accurately and effectively.Experimental results demonstrate that the method is adaptive to scale change and has advantage in illumination variation and color similar target tracking.

visual tracking;adaptive scale;asymmetrical Gauss mixture models alignment;affine transformation;feature point set

TP391

A

1001-2400(2015)05-0175-08

2014-05-08< class="emphasis_bold">網(wǎng)絡(luò)出版時間:

時間:2014-12-23

國家自然科學(xué)基金資助項目(61202339);博士后基金面上資金資助項目(2012M512144);陜西省自然科學(xué)基金資助項目(2012JQ8034)

張立朝(1990-),男,空軍工程大學(xué)碩士研究生,E-mail:zlichao2012@163.com.

楊 源(1981-),男,副教授,E-mail:yangyuan@126.com.

http://www.cnki.net/kcms/detail/61.1076.TN.20141223.0946.029.html

10.3969/j.issn.1001-2400.2015.05.029

猜你喜歡
高斯尺度混合
小高斯的大發(fā)現(xiàn)
混合宅
財產(chǎn)的五大尺度和五重應(yīng)對
一起來學(xué)習(xí)“混合運算”
天才數(shù)學(xué)家——高斯
油水混合
宇宙的尺度
太空探索(2016年5期)2016-07-12 15:17:55
有限域上高斯正規(guī)基的一個注記
混合所有制
9
武夷山市| 巴彦县| 乐清市| 汶上县| 乌什县| 兰考县| 万载县| 印江| 孝昌县| 黎城县| 东城区| 沾化县| 哈巴河县| 临沂市| 咸宁市| 金溪县| 景德镇市| 蚌埠市| 大田县| 丰县| 泽普县| 昭觉县| 绥阳县| 化州市| 信丰县| 汾西县| 澄城县| 涪陵区| 临邑县| 蓬安县| 徐水县| 从江县| 海晏县| 定南县| 岳阳市| 贵定县| 同江市| 怀集县| 嘉鱼县| 石狮市| 河北省|