国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

面向智能視頻監(jiān)控系統(tǒng)運(yùn)動(dòng)目標(biāo)檢測的輪廓提取方法

2012-08-15 11:37胡玲玲呂一品陳耀武
關(guān)鍵詞:高斯輪廓像素

謝 立 胡玲玲 呂一品 熊 剛 陳耀武

(1浙江大學(xué)信息學(xué)部,杭州 310027)(2中國科學(xué)院自動(dòng)化研究所,北京 100190)(3中國科學(xué)院云計(jì)算產(chǎn)業(yè)技術(shù)創(chuàng)新與育成中心自動(dòng)化研究所東莞研究院,東莞 523808)

近年來,隨著物聯(lián)網(wǎng)技術(shù)的不斷發(fā)展,物聯(lián)網(wǎng)的應(yīng)用領(lǐng)域不斷得以擴(kuò)大.在公共安全領(lǐng)域,視頻監(jiān)控系統(tǒng)已經(jīng)獲得了很大程度的普及.人們對生活水平日益增長的要求,使得提高智能分析能力已經(jīng)成為視頻監(jiān)控系統(tǒng)發(fā)展的首要任務(wù)[1].運(yùn)動(dòng)目標(biāo)檢測作為視頻監(jiān)控系統(tǒng)智能分析的第一步,就是將監(jiān)視場景中感興趣的運(yùn)動(dòng)目標(biāo)所對應(yīng)區(qū)域從輸入的視頻序列圖像中分割出來,利用各種特征(如位置、顏色、角點(diǎn)等)來描述該目標(biāo)[2].視頻序列圖像中的運(yùn)動(dòng)目標(biāo)識(shí)別、運(yùn)動(dòng)目標(biāo)跟蹤、運(yùn)動(dòng)目標(biāo)行為分析等工作均需要依賴于運(yùn)動(dòng)目標(biāo)檢測展開,運(yùn)動(dòng)目標(biāo)檢測的好壞直接影響到這些后續(xù)環(huán)節(jié)的處理效果.因此運(yùn)動(dòng)目標(biāo)的檢測是智能視覺分析中一個(gè)十分關(guān)鍵的重要環(huán)節(jié),在安防監(jiān)控、智能交通、航空航天、國防軍事等許多領(lǐng)域有著極為廣泛的應(yīng)用.

一般情況下,面向安防的視頻監(jiān)控系統(tǒng)采用靜態(tài)攝像機(jī)對固定區(qū)域進(jìn)行實(shí)時(shí)監(jiān)控,獲得的監(jiān)視場景為靜止圖像背景.因此,可以采用背景建模方法作為運(yùn)動(dòng)目標(biāo)實(shí)時(shí)分割問題的解決手段[3].但是由于在視頻監(jiān)控系統(tǒng)中,靜態(tài)圖像背景可能存在著動(dòng)態(tài)變化情況,例如:在視頻采集過程中,圖像受到光照強(qiáng)度變化、天氣雨雪的干擾、相機(jī)的移動(dòng)或微小振動(dòng)、陰影或反光現(xiàn)象、背景的擾動(dòng)變化(如樹枝的飄動(dòng)等),此時(shí),采用傳統(tǒng)的背景建模方法有效檢測出運(yùn)動(dòng)目標(biāo)將是一件相當(dāng)困難的工作.

從分析方法上看,運(yùn)動(dòng)目標(biāo)檢測方法主要分為幀間差分法、光流法、背景差分法3種類型.① 幀間差分方法,也叫時(shí)間差分法[4],是在圖像序列中利用連續(xù)的兩幀或者三幀圖像做像素時(shí)間差分,并且閥值化來檢測運(yùn)動(dòng)目標(biāo).幀間差分方法能夠很好的適應(yīng)各種動(dòng)態(tài)環(huán)境,但一般無法提取出所有的相關(guān)特征像素點(diǎn),而且運(yùn)動(dòng)物體運(yùn)動(dòng)快慢都會(huì)對提取結(jié)果產(chǎn)生影響.② 光流法[5]利用了運(yùn)動(dòng)目標(biāo)隨時(shí)間變化的光流特性,通過運(yùn)動(dòng)估計(jì)及運(yùn)動(dòng)矢量場信息提取圖像中的運(yùn)動(dòng)目標(biāo).光流法優(yōu)點(diǎn)是能在攝像機(jī)運(yùn)動(dòng)情況下檢測運(yùn)動(dòng)目標(biāo).但光流場計(jì)算量較大,計(jì)算的精確性易受到噪聲、光照變化等干擾因素影響,且需要專用硬件設(shè)備支持,才能實(shí)現(xiàn)目標(biāo)的實(shí)時(shí)檢測.③ 背景差分法[6]是目前最常用的運(yùn)動(dòng)目標(biāo)檢測方法.它的基本思想是利用當(dāng)前圖像與背景圖像進(jìn)行比較,通過比較差分后的灰度或者其他特征的變化來檢測出運(yùn)動(dòng)區(qū)域.提高背景差分法精確度的關(guān)鍵在于建立對環(huán)境變化的高度魯棒和對運(yùn)動(dòng)目標(biāo)的高度適應(yīng)的背景模型.靜態(tài)背景模型無法充分描述圖像背景.Stauffer等[7]采用自適應(yīng)混合高斯模型描述圖像背景,能夠很好地適應(yīng)外部環(huán)境的變化.背景差分能夠提供最完全的特征數(shù)據(jù),但是對動(dòng)態(tài)場景變化較為敏感.

本文針對傳統(tǒng)混合高斯模型方法在智能視頻監(jiān)控系統(tǒng)運(yùn)動(dòng)目標(biāo)檢測應(yīng)用中存在的不足進(jìn)行改進(jìn)研究,提出一種新的運(yùn)動(dòng)目標(biāo)輪廓提取方法.

1 輪廓提取方法

1.1 傳統(tǒng)混合高斯模型方法

混合高斯模型的基本思想為:對于靜止或緩慢變化的背景,可以用正態(tài)分布來描述像素點(diǎn)灰度值的變化[8].使用K個(gè)高斯混合模型的線性組合來表征視頻序列每幀圖像中每個(gè)像素點(diǎn)的特征,每獲得一幀新的圖像,高斯模型就進(jìn)行相應(yīng)的學(xué)習(xí)和更新.將混合高斯模型與當(dāng)前幀圖像上的每一個(gè)像素點(diǎn)進(jìn)行匹配,當(dāng)匹配成功時(shí)判定該像素是為背景點(diǎn),反之則認(rèn)為該像素點(diǎn)是前景點(diǎn).

定義當(dāng)前像素點(diǎn)灰度值的概率為

式中,Xt為t時(shí)刻該像素的灰度值或顏色矢量;P(Xt|ΘB)為當(dāng)某個(gè)像素點(diǎn)的像素值為Xt時(shí),它屬于背景ΘB的似然概率;K為混合高斯模型中用來表征像素特征的高斯分量的數(shù)目,一般選擇3~5之間;ωi,t為t時(shí)刻混合高斯模型中第i個(gè)高斯模型的權(quán)重,且ωi,t=1;μi,t為 t時(shí)刻混合高斯模型中第i個(gè)高斯分量的均值;為 t時(shí)刻混合高斯模型中第i個(gè)高斯分量的方差;η為t時(shí)刻混合高斯模型中第i個(gè)高斯分量的高斯概率密度函數(shù),滿足:

混合高斯模型方法使用在線遞歸EM估計(jì)技術(shù)來逐幀更新圖像的背景模型參數(shù),實(shí)現(xiàn)背景模型的在線學(xué)習(xí)和更新.在混合高斯模型中,各模型分量的權(quán)重通常是不一致的.按照從大到小對高斯分量進(jìn)行排序,按下式選取前B個(gè)分量組成混合高斯背景模型:

其中,TB∈[0,1],用來決定模型中高斯分量的個(gè)數(shù).

將當(dāng)前圖像中的每一個(gè)像素點(diǎn)與之前獲得的B個(gè)高斯分量按下式逐一進(jìn)行匹配:

式中,參數(shù)更新率 0≤α≤1,ρ= α/ωi,t;匹配成功時(shí),Mi,t=1,否則 Mi,t=0.

如果像素Xi,t與混合模型中的任何一個(gè)高斯分量都不匹配,則新定義一個(gè)高斯分布(均值為Xi,t,方差自定義)代替權(quán)值最低的高斯模型分量.

傳統(tǒng)的混合高斯模型方法能夠有效地提取出監(jiān)控視頻的前景目標(biāo),但是通過對大量監(jiān)控視頻的測試實(shí)驗(yàn),發(fā)現(xiàn)傳統(tǒng)高斯背景模型方法存在以下缺點(diǎn):

1)高斯混合模型背景建模方法是以單個(gè)像素形式進(jìn)行描述,每個(gè)像素進(jìn)行獨(dú)立的假設(shè)使得監(jiān)視場景的空間結(jié)構(gòu)信息損失,導(dǎo)致系統(tǒng)運(yùn)算效率不高;

2)高斯混合模型背景建模方法比較容易受到外界干擾,如光源變化、搖曳的樹葉等因素的影響,使得前景圖像存在著噪聲.

為了解決上述缺點(diǎn),提出如下方法加以解決.

1.2 像素塊混合高斯模型方法提取前景目標(biāo)

針對傳統(tǒng)的混合高斯模型方法運(yùn)算效率不高的缺點(diǎn),提出像素塊高斯混合模型背景建模方法,來提高系統(tǒng)運(yùn)算速度.因?yàn)橄噜徬袼攸c(diǎn)之間存在著一定的空間冗余信息.例如,背景中相鄰像素會(huì)同時(shí)反映出外界的光線變化.在背景圖像中相互間具有穩(wěn)定關(guān)系的像素占有相當(dāng)大比例,導(dǎo)致以單像素形式建立的背景模型存在著大量冗余計(jì)算.本文將每幀圖像分割成m×n個(gè)相鄰像素的矩形塊.矩形塊越大,一幀圖像需要處理的塊數(shù)就越少,系統(tǒng)計(jì)算速度就越快,但對前景目標(biāo)的精確度就會(huì)變差.因此,需要通過大量現(xiàn)場實(shí)驗(yàn)數(shù)據(jù)測試,權(quán)衡識(shí)別目標(biāo)的精確性和圖像處理效率,來確定像素塊大小.

此時(shí),每個(gè)像素塊可以表示為K個(gè)高斯分布模型的線性組合:

當(dāng)像素與某高斯分量的差值滿足上式,則與該高斯分量相匹配,該像素為背景點(diǎn),否則為前景點(diǎn).

匹配后,需要對所有高斯分量進(jìn)行更新:

式中,Mj(t)為第j個(gè)圖像塊在t時(shí)刻的像素均值;(t)為第i個(gè)高斯成分的均值;(t)為第i個(gè)高斯成分的協(xié)方差矩陣;(t)為混合高斯模型中第i個(gè)高斯成分的權(quán)值估計(jì).

隨著場景的變化,每個(gè)像素塊的混合高斯模型都需要不斷地學(xué)習(xí)更新.高斯成分中權(quán)值、均值、協(xié)方差矩陣,都按照傳統(tǒng)混合高斯背景模型的更新方法進(jìn)行更新.對未匹配成功的分量中的高斯分布參數(shù)方差和均值不做修改,只修改與新的圖像幀數(shù)據(jù)相匹配的模型參數(shù).

1.3 數(shù)學(xué)形態(tài)學(xué)方法進(jìn)行前景連通

針對傳統(tǒng)的混合高斯模型方法獲得的前景圖像存在干擾噪聲的缺點(diǎn),利用形態(tài)學(xué)方法對前面提出的像素塊混合高斯模型方法獲得的前景目標(biāo)進(jìn)行前景連通[9],一方面利用形態(tài)學(xué)的開閉操作清除前景噪聲;另一方面對已有的輪廓進(jìn)行處理,提取并合成輪廓,從而有效地提取出感興趣的目標(biāo)輪廓區(qū)域.

在連通過程中,采用腐蝕方法(9)用于消除前景圖像中的斑點(diǎn)噪聲,采用膨脹操作(10)將被噪聲、陰影分離的同一目標(biāo)再次融合在一起.

在腐蝕的過程中,圖像和核A進(jìn)行卷積,取局部最小值,并將其賦給參考點(diǎn)指定的像素點(diǎn),腐蝕可以消除目標(biāo)的小凸起.而在膨脹的過程中,前景目標(biāo)與核B進(jìn)行卷積,取局部最大值來賦予參考點(diǎn)指定的像素點(diǎn),膨脹可以填補(bǔ)目標(biāo)的凹洞.

1.4 Freeman鏈碼尋找輪廓

利用Freeman鏈碼來表示前景目標(biāo)對象各點(diǎn)之間相鄰位置的矢量關(guān)系[10],即目標(biāo)邊緣上相鄰兩像素點(diǎn)之間的位置關(guān)系有水平、垂直、斜對角共8 個(gè)方向,可分別用0,1,2,3,4,5,6,7 八個(gè)字符表示.在本方法中,以N×N像素塊(N的大小根據(jù)設(shè)計(jì)要求給定)為基本單元,從某點(diǎn)開始,沿著目標(biāo)輪廓計(jì)算每一個(gè)像素塊的走向并且用相應(yīng)的方向字符進(jìn)行表示,其中偶數(shù)字符代表垂直或水平線段,奇數(shù)字符代表對角線線段.經(jīng)過上述處理,就能夠得到一組記錄起始點(diǎn)的坐標(biāo)和位置方向的Freeman鏈碼序列點(diǎn),連接這些點(diǎn)就能構(gòu)成了目標(biāo)的輪廓.

若Freeman鏈碼序列長度小于預(yù)先給定的值,則認(rèn)為該輪廓面積較小,將該輪廓丟棄.

1.5 Douglas-Peucker算法擬合輪廓

Douglas-Peucker算法的基本思想是:通過預(yù)先設(shè)定精度,利用直線對曲線進(jìn)行不同程度的逼近,其精確程度由弧與直線之間的最大距離來表示[11].

DP算法利用迭代的思想,在預(yù)先給定距離容差的情況下,連接弧線首尾兩點(diǎn),構(gòu)成直線;逐個(gè)計(jì)算弧中個(gè)點(diǎn)到直線的距離,找出距離最大的點(diǎn),將其和距離容差進(jìn)行比較,如果小于距離容差,則舍去中間點(diǎn),用直線代替弧線,如果大于距離容差,則保留該點(diǎn),同時(shí)將曲線從該點(diǎn)一分為二,重復(fù)上述過程.通過DP算法,可以得到目標(biāo)區(qū)域的輪廓.

1.6 基于圖像矩的質(zhì)心提取

質(zhì)心利用矩的原理來進(jìn)行計(jì)算,一個(gè)目標(biāo)輪廓的(p,q)矩的定義如下:

當(dāng)圖像為二值化輪廓圖時(shí),m00為輪廓的邊界長度[12].

由此引申開來,可以得到一個(gè)圖像的中心矩為

1.7 輪廓提取方法流程

根據(jù)以上的分析,本文提出的輪廓提取方法的算法流程為:首先,針對運(yùn)動(dòng)目標(biāo)所在監(jiān)視場景的圖像序列進(jìn)行像素塊混合高斯背景建模,獲得前景區(qū)域(即運(yùn)動(dòng)目標(biāo)所占區(qū)域),此時(shí)得到的前景中含有噪聲或其他干擾有關(guān)的小輪廓;為了獲取干凈的目標(biāo)信息,采用數(shù)學(xué)形態(tài)學(xué)方法對前景圖像進(jìn)行腐蝕和膨脹處理,以去除噪聲;接著,利用Freeman鏈碼對目標(biāo)進(jìn)行輪廓提取,并計(jì)算凸包,去除小的輪廓;再利用Douglas-Peucker算法對目標(biāo)輪廓進(jìn)行凸包擬合,輸出面積最大的目標(biāo)輪廓;最后,利用矩方法計(jì)算輪廓的質(zhì)心c,從而得到目標(biāo)的質(zhì)心位置,為后續(xù)的運(yùn)動(dòng)目標(biāo)跟蹤處理提供必要的特征信息,見圖1.

2 實(shí)驗(yàn)結(jié)果

圖1 本文的輪廓提取方法流程圖

在本節(jié)中,對前面提出的輪廓提取算法進(jìn)行實(shí)驗(yàn)驗(yàn)證.首先,使用傳統(tǒng)的高斯混合模型方法進(jìn)行運(yùn)動(dòng)目標(biāo)輪廓提取,應(yīng)用效果如圖2所示.

圖2 傳統(tǒng)高斯混合模型方法的目標(biāo)輪廓提取效果

圖2中,傳統(tǒng)的高斯混合模型背景建模方法能夠提取出前景目標(biāo)輪廓,但是效果不太好.主要原因在于:在最初高斯混合模型參數(shù)更新過程中,如果背景中有邊緣,或者是搖曳的樹葉,比如圖2的樹葉和墻的邊緣,就有可能被建模到前景中;同時(shí),在最初的幾幀中,前景物體會(huì)被建模到背景中,導(dǎo)致前景圖像效果下降.由于高斯混合模型背景建模方法需要一定的時(shí)間學(xué)習(xí),前景圖像中類似的噪聲需要一定處理時(shí)間才能消除.

采用本文提出的算法進(jìn)行目標(biāo)輪廓提取,實(shí)驗(yàn)效果如圖3所示.由圖可見.利用前景連通,有效地濾除了不必要的噪聲和細(xì)小輪廓,通過本文提出的算法流程,可以準(zhǔn)確找到感興趣的運(yùn)動(dòng)目標(biāo)區(qū)域,目標(biāo)輪廓物體被準(zhǔn)確、有效地提取出來.

圖3 本文提出算法的目標(biāo)輪廓提取效果

3 結(jié)語

本文針對傳統(tǒng)的混合高斯模型方法易受干擾、運(yùn)算量大的缺點(diǎn),提出一種應(yīng)用于智能視頻監(jiān)控系統(tǒng)運(yùn)動(dòng)目標(biāo)檢測的輪廓提取方法.該算法依次采用像素塊混合高斯模型方法提取前景目標(biāo),數(shù)學(xué)形態(tài)學(xué)方法進(jìn)行前景連通,F(xiàn)reeman鏈碼尋找輪廓,Douglas-Peucker算法擬合輪廓,圖像矩提取目標(biāo)輪廓質(zhì)心.最后通過實(shí)驗(yàn)證明,本文提出的算法能有效地濾除噪聲,準(zhǔn)確地提取出目標(biāo)輪廓,實(shí)驗(yàn)效果優(yōu)于傳統(tǒng)混合高斯模型方法,為進(jìn)一步增強(qiáng)智能視頻監(jiān)控系統(tǒng)的視頻分析的可靠性提供了有益的技術(shù)支撐.

References)

[1]Hu W,Tan T,Wang L.A survey on visual surveillance of object motion and behaviors[J].IEEE Transactions on Systems,Man,and Cybernetics,Part C:Applications and Reviews,2004,34(3):334-352.

[2]Chacon-Murguia M I,Gonzalez-Duarte S.An adaptive neural-fuzzy approach for object detection in dynamic backgrounds for surveillance systems[J].IEEE Transactions on Industrial Electronics,2012,59(8):3286-3298.

[3]Spagnolo P,Orazio T D,Leo M.Moving object segmentation by background subtraction and temporal analysis[J].Image and Vision Computing,2006,24(5):411-423.

[4]Bennett B,Magee D R,Cohn A G,et al.Enhanced tracking and recognition of moving objects by reasoning about spatio-temporal continuity[J].Image and Vision Computing,2008,26(1):67-81.

[5]Dacron J,F(xiàn)leet D,Beachemin S.Performance of optical flow techniques[J].International Journal of computer Vision,1994,12(1):42-47.

[6]Benezeth Y,Jodoin P M,Emile B,et al.Review and evaluation of commonly-implemented background subtraction algorithms[C]//International Conference on Pattern Recognition.Florida,USA,2008:1-4.

[7]Stauffer C,Grimson W.Adaptive background mixture models for real-time tracking[C]//Proceeding of IEEE Conference on Computer Vision and Pattern Recognition.Fort Collins,USA,1999,2:246-252.

[8]Sheng Z B,Cui X Y.An adaptive learning rate GMM for background extraction[J].Optoelectronics Letters,2008,4(6):460-463.

[9]Shih F Y.Image processing and mathematical morphology:fundamentals and applications[M].New York:CRC Press,2009.

[10]Saghri J A,F(xiàn)reeman H.Analysis of the precision of generalized chain codes for the representation of planar curves[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1981,3(5):533-539.

[11]Visvalingam M,WhyattArticle J D.The Douglas-Peucker algorithm for line simplification:re-evaluation through visualization[J].Computer Graphics Forum,1990,9(3):213-225.

[12]Abu-Mostafa Y S,Psaltis D.Image normalization by complex moments[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1985,7(1):46-55.

猜你喜歡
高斯輪廓像素
像素前線之“幻影”2000
OPENCV輪廓識(shí)別研究與實(shí)踐
基于實(shí)時(shí)輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
數(shù)學(xué)王子高斯
“像素”仙人掌
天才數(shù)學(xué)家——高斯
éVOLUTIONDIGAE Style de vie tactile
高速公路主動(dòng)發(fā)光輪廓標(biāo)應(yīng)用方案設(shè)計(jì)探討
高像素不是全部
從自卑到自信 瑞恩·高斯林