李湘文 周 玲 尹福成
(1.成都理工大學工程技術學院 樂山 614000)(2.內(nèi)江師范學院 內(nèi)江 641000)
隨著計算機技術的不斷發(fā)展,計算能力的大幅提高,計算機視覺技術成為了計算機領域最熱門的重要課題之一[1~7]。計算機視覺的目的是實現(xiàn)計算機對人類的模擬,實現(xiàn)計算機對景物環(huán)境的感知、理解和解釋[6~13]。運動目標跟蹤技術是運動目標跟蹤領域的一個重要課題,它是一項融合圖像處理[14~16]、模式識別[15~18]、人工智能[18~21]、自動控制等多種不同領域的先進技術。形成了一種能從圖像信號中實時提取目標位置、自動跟蹤目標的技術[22~25]。其任務可以概述為:對運動目標最終形成的運動軌跡進行確認之后獲得目標的個數(shù)以及每個目標的狀態(tài),包括位置、速度、加速度等運動參數(shù),并進一步獲知目標的特征參數(shù),關鍵在于完整地分割目標、合理地提取特征和準確地識別目標,同時要考慮算法實現(xiàn)時間,保證實時性[26~30]。
然而擴展目標跟蹤技術,又是運動目標跟蹤技術中一個非常重要、跟蹤非常困難的重要課題之一[1~11]。由于它所具有的復雜背景干擾性、被遮擋性、目標尺度變化明顯等一系列特性,現(xiàn)有的算法幾乎都無法做到較好地跟蹤目標;從而目標在跟蹤過程中丟失的情況特別常見。找到一種普適性的擴展目標跟蹤算法是擴展目標跟蹤領域一個亟需解決的問題[1~7]。均值偏移算法以其獨有的抗尺度變化、旋轉變化、人工干預系數(shù)少而逐步成為擴展目標跟蹤領域一個較好的方法。
均 值 偏 移(mean-shift)[1]是 Fukunaga 和Hostetler提出的一種計算最優(yōu)解的實用的算法,具有計算量小和搜索快速的特點,Dorin Comaniciu等將其有效地運用到目標分割[2]和目標跟蹤中[3]。
以二值圖像為例的均值偏移算法的迭代過程如下:
目標函數(shù)為圖像中“1”值點的密度,其估計式為
當為收斂的域值)時,即當兩次求得的窗口中心距離足夠小時,迭代停止。如圖1所示,均值偏移過程實質上是使目標函數(shù)迭代收斂到最大的過程(Initial→Final)。
圖1 均值偏移迭代過程示意圖
目標直方圖模式是基于檢測區(qū)域內(nèi)包含目標的各個成像灰度級所對應的概率密度,灰度概率密度的求取采用非參數(shù)估計技術。假設目標跟蹤點為y,檢測區(qū)域是以y為中心、窗寬為h的矩形,區(qū)域內(nèi)像素的位置以表示,像素位置的特征如灰度、紋理、邊緣或者小波濾波響應等以b()xi表示,b()xi可以是一種特征形成的標量,也可以是幾種特征形成的矢量。本文中僅考慮利用灰度特征,并將其值量化為m值,即函數(shù)為xi像素的灰度索引映射。由于目標可能受到背景和遮擋的影響,周邊像素的可靠性較低,因而離中心越遠的像素分配的權值應該越小,灰度概率密度是像素位置的函數(shù):
其中C1為歸一化常數(shù),可由條件求出;為像素位置權值分配函數(shù),其定義如下:
不失一般性,將目標中心標記為0,候選目標中心為y,由式定義的目標模式可確定目標與候選目標的直方圖模式分別為
目標:
候選目標:
相似函數(shù)定義了目標和候選目標相似程度的一種度量,為了調(diào)和不同目標之間的區(qū)別,需要定義一種距離測度,我們定義兩個離散分布之間的距離為
其中
是Bhattacharyya系數(shù)的樣本估計值。其幾何意義是m為單位矢量的夾角的余弦值。
均值偏移以其獨有的特性在圖像跟蹤領域展現(xiàn)著重要的作用,下面分別對彩色和灰度擴展目標進行一些測試。找出其在跟蹤領域的優(yōu)勢和不足。
彩色目標跟蹤技術是現(xiàn)代視屏監(jiān)控技術中比較常見的一種技術。在超市視屏監(jiān)控,道路監(jiān)控,警務系統(tǒng)里面應用比較常見。因此彩色目標跟蹤技術也是一項比較貼近生活實際的技術。
圖2 第1幀
圖3 第8幀
圖4 第25幀
圖5 第50幀
經(jīng)過試驗得到50幀圖像總計用時150ms,單幀處理時間3ms。50幀偏移量在0~4個像素之間。由此說明,彩色目標由于具有豐富的顏色特征,從而在建立圖像的顏色直方圖時提供了大量的信息。因此在圖像跟蹤過程中,圖像呈現(xiàn)的結果是跟蹤精確,速度快。能夠達到實時跟蹤的需求。
圖6 第1幀
圖7 第8幀
圖8 第25幀
圖9 第50幀
灰度成像跟蹤是現(xiàn)代軍事領域的一個重要課題之一,以紅外目標跟蹤技術最為明顯。由于它可以抗光線明暗的干擾因而成為夜視跟蹤領域中一個重要的技術。
經(jīng)過試驗得到50幀圖像總計用時145ms,單幀處理時間約3ms。但是50幀偏移量大部分在4~10個像素,當物體存在虛影時,偏移量甚至超過了窗寬,目標直接丟失。由此說明,灰度目標由于顏色信息不夠豐富,加上背景干擾性太強,因此單純的均值偏移算法對灰度目標跟蹤是比較困難的。特別是背景干擾性太強的情況下。
為此,要想讓均值偏移算法在灰度目標跟蹤中也得到彩色目標如此的效果,需要利用一些方法來提高灰度目標的信息量。以此提高目標跟蹤的精度。
均值偏移是目標跟蹤領域一個極其重要的算法,由于它獨有的半自動跟蹤特性。在彩色目標跟蹤領域已經(jīng)得到了很好的應用。但由于灰度成像圖像色彩信息不夠的事實,目標與背景的成像特征差異小,常規(guī)直方圖模式易陷于局部相似性,導致跟蹤點漂移或抖動的問題。此單純的均值偏移算法跟蹤灰度圖像是不可取的。在跟蹤灰度目標利用均值偏移算法,必須還要提取一些圖像的信息量,比如圖像的灰度梯度,特征點等來彌補色彩信息的不足。
參考文獻
[1]K.Fukunaga,L.D.Hostetler,The Estimation of the Gradi?ent of a Density Function with Applications in Pattern Rec?ognition[J].IEEE Trans.Information Theory,1975,21(5):32-40.
[2]Dorin Comaniciu,Peter Meer,Mean Shift:a Robust Ap?proach toward Feature Space Analysis[J].IEEE Trans.Pattern Anal.Mach.Intell.,2002,24(5):603-619.
[3]Dorin Comaniciu,Visvanathan Ramesh,Peter Meer,Ker?nel-based Object Tracking[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,24(5):564-577.
[4]T.Kailath.The Divergence and Bhattacharyya Distance Measures in Signal Selection[J].IEEE Trans.Comm.Technology,1999,15(2):253-259.
[5]Richard O.Duda,Peter E.Hart,David G.Stork,Pattern Classification,Second Edition[M].China Machine Press,2003:132-140.
[6]Lowe D.G.,Object recognition from local scale-invariantfeatures[C]//The Proceedings of the 7th IEEE Internation?al Conference on Computer Vision.Corfu,Greece.Sept.1999,2:1150-1157.
[7]Lowe D.G.,Distinctive image features from scale-invari?ant keypoints[J].International Journal Computer Vision,2004,60(2):91-110.
[8]Ranade S.and Rosenfeld A.,Point pattern matching by re?laxation[J].Pattern Recognition,1980,12(4):269-275.
[9]Stockman G.,Kopstein S.,Benett S.,Matching images to models for registration and object detection via clustering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1982,4(3):229-241.
[10]Goshtasby A.and Stockman G.,Point pattern matching using convex hull edges[J].IEEE Transactions on Sys?tems,Man,and Cybernetics,1985,15(5):631-637.
[11]Huttenlocher D.P.,Klanderman G.A.,Rucklidge W.A.,Comparing images using the hausdorff distance[J].IEEE Transactions on Pattern Analysis and Machine Intelli?gence,1993,15(9):850-863.
[12]Burt P.J.,The pyramid as a structure for efficient compu?tation[C]//Multiresolution Image Processing and Analy?sis.Springer-Verlag,Berlin,1984:6-35.
[13]Adelson E.H.,Depth-of-Focus Imaging Process Method[D].United States Patent 4,661,986.1987.
[14]Ajjimarangsee P.and Huntsberger T.L.,Neural network model for fusion of visible and infrared sensor outputs[J].SPIE,1988,1003:153-160.
[15]Nandhakumar N.and Aggarwal J.K.,Integrated analysis of thermal and visual images for scene interpretation[J].IEEE Transactions on Pattern Analysis and Machine In?telligence,1988,10(4):469-481.
[16]Toet A.,Image fusion by a ratio of low-pass pyramid[J].Pattern Recognition Letters,1989,9(4):245-253.
[17]Toet A.,Ruyven J.J.V.,Valeton J.M.,Merging thermal and visual images by a contrast pyramid[J].Optical Engi?neering,1989,28(7):789-792.
[18]Rogers S.K.,Tong C.W.,Kabrisky M.,et al,Multisen?sor fusion of ladar and passive infrared imagery for target segmentation[J].Optical Engineering,1989,28(8):881-886.
[19]Abidi A.and Gonzalez R.C.,Data Fusion in Robotics and Machine Intelligence[M].New York:Academic Press,1992.
[20]Dasarathy B.V.,F(xiàn)usion strategies for enhancing decision reliability in multi-sensor environments[J].Optical En?gineering,1996,35(3):603-616.
[21]Li H.,Manjunath B.S.,Mitra S.K.,Multi-sensor image fusion using the wavelet transform[C]//IEEE Internation?al Conference on Image Processing,1994,1:51-55.
[22]Chipman L.J.,Orr Y.M.,Graham L.N.,Wavelets and image fusion[C]//Proceedings of the International Con?ference on Image Processing.Washington,USA,1995:248-251.
[23]Koren I.,Laine A.,Taylor F.,Image fusion using steer?able dyadic wavelet transform[C]//Proceedings of the In?ternational Conference on Image Processing.Washing?ton,DC,USA,1995:232-235.
[24]Waxman A.M.,F(xiàn)ay D.A.,Gove A.N.,et al,Color night vision:fusion of intensified visible and thermal IR imag?ery[J].SPIE.1995,2463:58-68.
[25]Waxman A.M.,Gove A.N.,F(xiàn)ay D.A.,et al,Color night vision:opponent processing in the fusion of visible and IR imagery[J].Neural Networks.1997,10(1):1-6.
[26]Toet A.and Walraven J.,New false color mapping for im?age fusion[J].Opt.Eng.1996,35(3):650-658.
[27]Lim E.T.,Shue L.,Ronda V.,Multi-mode fusion algo?rithm for robust dim point-like target detection[J].SPIE,2003,5082:94-102.
[28]Borghys D.,Verlinde P.,Perneel C.,etc.Multi-level da?ta fusion for the detectionof targets using multi-spectral image sequences[J].Optical Engineering.1998,37(2):477-484.
[29]Yang J.,Lu Z.G.,Guo Y.K.,Target recognition and tracking based on data fusion of Radar/Infrared image sensors[EB/OL].www.paper.edu.cn.
[30]Xue Z.,Blum R.S.,Li Y.,F(xiàn)usion of visual and IR imag?es for cancealed weapon detection[C]//Proceedings of the Fifth International Conference of Information Fusion.Annapolis,2002,2:1198-1205.