賴飛
(四川大學(xué)計(jì)算機(jī)學(xué)院,成都 610065)
運(yùn)動(dòng)目標(biāo)的檢測(cè)、識(shí)別、跟蹤以及人的行為分析等智能視頻分析技術(shù)目前已廣泛運(yùn)用于銀行、超市、交通等公共安全監(jiān)控領(lǐng)域。其中運(yùn)動(dòng)目標(biāo)的檢測(cè)是最基礎(chǔ)和最關(guān)鍵的環(huán)節(jié)。根據(jù)智能監(jiān)控的場(chǎng)景不同,分為靜態(tài)背景和動(dòng)態(tài)背景兩種情況。
針對(duì)靜態(tài)背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)現(xiàn)如今已比較成熟,除了最經(jīng)典的幀間差分法[1]、光流法[1]和背景差分法[1]外,還存在改進(jìn)的五幀差分法[2]、三幀差與背景差相結(jié)合的方法[3]等。這些方法運(yùn)用在靜態(tài)場(chǎng)景下取得了明顯的效果,但是在動(dòng)態(tài)場(chǎng)景下仍然會(huì)帶來很大誤差。
針對(duì)動(dòng)態(tài)背景下的運(yùn)動(dòng)目標(biāo)檢測(cè),主要部分是背景運(yùn)動(dòng)補(bǔ)償,現(xiàn)有的背景運(yùn)動(dòng)模型有仿射變換模型[4]、投影變換模型[5]、平移變換模型[6]等。運(yùn)動(dòng)參數(shù)估計(jì)方法有最小二乘法、隨機(jī)抽樣一致性法、M估計(jì)法等。而這些方法普遍存在精度和速度之間的矛盾。
本文的主要工作在從運(yùn)動(dòng)背景到靜態(tài)背景的轉(zhuǎn)換上,目標(biāo)檢測(cè)部分使用常規(guī)的幀間差分法。首先介紹了仿射變換模型,然后詳細(xì)闡述了特征點(diǎn)提取匹配、消除誤匹配、去除外點(diǎn)以及參數(shù)的魯棒性估計(jì),最后對(duì)相對(duì)靜止的背景幀做減除法,并對(duì)檢測(cè)出的結(jié)果進(jìn)行二值化、形態(tài)學(xué)濾波、連通性分析等操作求出運(yùn)動(dòng)目標(biāo)的準(zhǔn)確位置。
背景補(bǔ)償流程如圖1:
圖1
常見的運(yùn)動(dòng)參數(shù)模型中,平移運(yùn)動(dòng)模型只能處理平移運(yùn)動(dòng)的情況。投影運(yùn)動(dòng)參數(shù)模型和雙線性運(yùn)動(dòng)參數(shù)模型雖然能處理多種運(yùn)動(dòng)類型,但因其未知參數(shù)過多,計(jì)算較為復(fù)雜。仿射運(yùn)動(dòng)參數(shù)模型能同時(shí)處理平移、旋轉(zhuǎn)和縮放等運(yùn)動(dòng)類型,且其精確度較高,運(yùn)算量也能夠接受。因此本文選取仿射運(yùn)動(dòng)模型為全局運(yùn)動(dòng)參數(shù)模型。
仿射運(yùn)動(dòng)參數(shù)模型的轉(zhuǎn)換公式如式(1)所示。
其中θ為旋轉(zhuǎn)角度,γ為縮放系數(shù),(e,f)為平移量。
SIFT(Scale Invariant Feature Transform)[7]是一種尺度不變特征變換,由David.Love于2004年提出。該算法提取的特征點(diǎn)精確度較高。
SIFT匹配算法在匹配同一場(chǎng)景中的兩幅圖像時(shí),先檢測(cè)每一幅圖像的特征點(diǎn),然后計(jì)算它們的描述子,第一幅圖像中的每個(gè)特征描述子都會(huì)與第二幅圖像中的描述子進(jìn)行比較,距離最近則為最佳匹配。匹配結(jié)果如圖 2(a)。
以上匹配結(jié)果中存在很多錯(cuò)誤匹配,這對(duì)全局運(yùn)動(dòng)參數(shù)的估計(jì)會(huì)帶來較大誤差。因此本文采用比率閾值法[7]刪除錯(cuò)誤匹配。在匹配兩幅圖像時(shí),每個(gè)特征點(diǎn)都搜索兩個(gè)最匹配的特征點(diǎn),它們是基于描述子間距離的兩個(gè)值d1和d2。如果兩個(gè)值相差很多,那么最優(yōu)值毫無歧義是最佳選擇。但如果兩個(gè)值很相近,則很難判斷哪個(gè)才是正確匹配,因此兩個(gè)值都應(yīng)該被拒絕。因此我們可以設(shè)置一個(gè)比率閾值T,判斷最優(yōu)值與次優(yōu)值的比率,如果小于閾值T則接收,大于等于閾值T則拒絕。匹配結(jié)果如圖2(b)。
圖2
在刪除錯(cuò)誤匹配點(diǎn)后,還有一些出現(xiàn)在運(yùn)動(dòng)目標(biāo)上的特征點(diǎn),它們的存在影響全局運(yùn)動(dòng)參數(shù)的精度,我們稱之為外點(diǎn)。相對(duì)而言,處于背景區(qū)域且正確匹配的特征點(diǎn)為內(nèi)點(diǎn)。求得高精度仿射變換矩陣的關(guān)鍵就是要去除外點(diǎn),消除外點(diǎn)帶來的影響。
比較經(jīng)典的去除外點(diǎn)的方法是隨機(jī)采樣一致性法(RANSAC)[8],RANSAC目的是從一組包含異常值的數(shù)據(jù)集中求出最優(yōu)的參數(shù)矩陣。RANSAC算法步驟:
(1)隨機(jī)選取3組匹配點(diǎn)對(duì),求出仿射變換矩陣,標(biāo)記模型為M;
(2)計(jì)算其他所有匹配點(diǎn)對(duì)與模型M之間的誤差,誤差小于給定閾值則加入內(nèi)點(diǎn)集S。
(3)更新最優(yōu)內(nèi)點(diǎn)集Smax和迭代次數(shù)k;
(4)如果迭代次數(shù)大于k,則退出;否則迭代次數(shù)加1,并重復(fù)上述步驟;
其中迭代次數(shù)k的更新公式如下:
其中,p為置信度,通常取值0.99,w為內(nèi)點(diǎn)比例,m為最少需要的樣本數(shù)。
從圖3可以看到去除外點(diǎn)(黑圓圈標(biāo)記處)后,運(yùn)動(dòng)著的船體、人體以及陰暗遮擋處的特征點(diǎn)已被刪除,不參與背景運(yùn)動(dòng)參數(shù)的估計(jì)。
計(jì)算出全局運(yùn)動(dòng)參數(shù)后,以前一幀f1(x,y)對(duì)當(dāng)前幀f2(x,y)進(jìn)行背景匹配。并采用雙線性內(nèi)插法[9~11]進(jìn)行插值處理。插值點(diǎn)(x0+αx,y0+αy)的像素值取決于周圍的四個(gè)像素點(diǎn)的值,即:
圖3
圖4
用參考幀f1(x,y)和變換幀f2(x,y)做幀差,然后通過二值化處理便可以得到運(yùn)動(dòng)目標(biāo)的二值圖像d(x,y),即:
由于二值圖像d(x,y)仍然存在一些噪點(diǎn),需要對(duì)其進(jìn)行形態(tài)學(xué)濾波處理,消除殘留的噪聲點(diǎn)和細(xì)小的空洞,最終得到較為準(zhǔn)確的運(yùn)動(dòng)目標(biāo)。
從圖4可以看到經(jīng)過背景補(bǔ)償后檢測(cè)運(yùn)動(dòng)目標(biāo)的效果有了較大改進(jìn)。
本文針對(duì)全局運(yùn)動(dòng)背景補(bǔ)償中的關(guān)鍵問題:特征點(diǎn)匹配、外點(diǎn)去除、背景匹配做了詳細(xì)研究,尤其對(duì)特征點(diǎn)匹配過程中存在的錯(cuò)誤匹配做出了明顯地改進(jìn),基本消除了所有錯(cuò)誤匹配。另外為了得到比較精確的背景運(yùn)動(dòng)參數(shù),再對(duì)圖像中存在的影響背景運(yùn)動(dòng)參數(shù)精度的外點(diǎn)(位于運(yùn)動(dòng)目標(biāo)上,遮擋處以及移出圖像的特征點(diǎn))做出了刪除操作。在背景匹配部分運(yùn)用了雙線性內(nèi)插法得到較為平滑的配準(zhǔn)圖像。最后通過實(shí)驗(yàn)對(duì)比了在運(yùn)動(dòng)背景下直接差分檢測(cè)運(yùn)動(dòng)目標(biāo)和先進(jìn)行背景補(bǔ)償然后差分檢測(cè)運(yùn)動(dòng)目標(biāo)得到的效果圖。
參考文獻(xiàn):
[1]劉明璽,孟放.運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法的研究進(jìn)展[J].軟件,2010,31(12):85-88.
[2]陳志勇,彭力等.動(dòng)態(tài)環(huán)境下改進(jìn)五幀差分的運(yùn)動(dòng)目標(biāo)檢測(cè)新算法[J].江南大學(xué)學(xué)報(bào),2015,14(1):34-37.
[3]孟介成,呂虹,鄧運(yùn)生等.基于DM642的自適應(yīng)運(yùn)動(dòng)目標(biāo)檢測(cè)系統(tǒng)[J].廣西大學(xué)學(xué)報(bào),2012,37(2):361-365.
[4]He Y.W,Feng B,yang S.Fast Global Motion Estimation for Global Motion Compensation Coding[A].Proceedings of the IEEE International Symposium on Circuits and Systems[ISCAS][C],2001,2:233-236.
[5]Cheung H.K,Siu W.C.Fast Global Motion Estimation for Sprite Generation[A].Proceedings of the IEEE International Symposium on Circuits and Systems(ISCAS)[C],2002,3,26-29.
[6]Sorwar G,Murshed M,Dooley L.Fast Global Motion Estimation Using Iterative Leastsquare Technique.Proceedings of the 4thInterna-tional Conference on Information[A].Communication&Signal,Proceedings of the 4thIEEE Pacific-Rim Conference on Multimedia Singapore[C],2003,1:282-286.
[7]Robert Laganiere,張靜.OpenCV2計(jì)算機(jī)視覺編程手冊(cè)[M].北京:科學(xué)出版社,2013.
[8]張留洋,張桂林.基于擴(kuò)展的Kanade Lucas的背景運(yùn)動(dòng)參數(shù)估計(jì)[J].計(jì)算機(jī)應(yīng)用,2005,25(8):1945-1947.
[9]王天召,徐克虎,黃大山.動(dòng)態(tài)背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)技術(shù)與發(fā)展,2013,23(7):104-107.
[10]黃神治.移動(dòng)背景下運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤技術(shù)研究[D].杭州:浙江大學(xué),2011.
[11]賀琴.基于運(yùn)動(dòng)背景下運(yùn)動(dòng)目標(biāo)的檢測(cè)與自動(dòng)跟蹤[D].西安:西北大學(xué),2010.