国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種基于多屬性單值中智集相關(guān)度量測(cè)的視頻運(yùn)動(dòng)目標(biāo)檢測(cè)方法*

2018-06-12 02:01胡珂立樊長(zhǎng)興沈士根谷宇章
傳感技術(shù)學(xué)報(bào) 2018年5期
關(guān)鍵詞:像素點(diǎn)灰度背景

胡珂立,范 恩,葉 軍,樊長(zhǎng)興,沈士根,谷宇章

(1.紹興文理學(xué)院計(jì)算機(jī)科學(xué)與工程系,浙江 紹興 312000;2.紹興文理學(xué)院電子與信息工程系,浙江 紹興 312000;3.中國(guó)科學(xué)院上海微系統(tǒng)與信息技術(shù)研究所,上海 200050)

伴隨著平安城市、平安社區(qū)的進(jìn)一步建設(shè)以及視覺(jué)傳感器件的不斷發(fā)展,視覺(jué)分析仍是當(dāng)前最為重要的環(huán)境感知手段之一。視頻運(yùn)動(dòng)目標(biāo)檢測(cè)[1,2]是進(jìn)行后續(xù)高級(jí)視覺(jué)分析任務(wù)的重要基礎(chǔ),其效果很大程度上決定著后續(xù)分析的優(yōu)劣。視頻運(yùn)動(dòng)目標(biāo)檢測(cè)的任務(wù)即為將運(yùn)動(dòng)目標(biāo)(前景)從靜態(tài)信息(背景)中分離出來(lái),因此,運(yùn)動(dòng)目標(biāo)檢測(cè)也稱前景檢測(cè)。

背景差方法經(jīng)常被用于前景分離,近年來(lái)眾多研究者針對(duì)該類方法進(jìn)行了深化研究。文獻(xiàn)[3]將混合高斯模型用于運(yùn)動(dòng)目標(biāo)檢測(cè),算法為圖像中的每個(gè)像素點(diǎn)都建立相應(yīng)的混合高斯模型,并進(jìn)行在線更新。鑒于混合高斯前景檢測(cè)方法的有效性,多項(xiàng)旨在提升傳統(tǒng)混合高斯模型檢測(cè)方法的眾多方法被相繼提出[2,4-7]。文獻(xiàn)[6]結(jié)合目標(biāo)幀間相關(guān)性和隨機(jī)噪聲幀間無(wú)關(guān)的特性對(duì)混合高斯模型結(jié)果進(jìn)行了優(yōu)化,文獻(xiàn)[7]采用增量式主成分分析來(lái)建立特征基背景模型。對(duì)于視頻監(jiān)控,一些不準(zhǔn)確或不確定的信息通常會(huì)在背景差分的過(guò)程中被帶入。模糊理論被引入到動(dòng)目標(biāo)檢測(cè)中[8]。在文獻(xiàn)[9]中,模糊模型被用來(lái)解決前景檢測(cè)過(guò)程中的決策問(wèn)題。在文獻(xiàn)[10]中,作者基于Type-2模糊高斯混合模型和馬爾科夫隨機(jī)場(chǎng)提出了一種針對(duì)動(dòng)態(tài)場(chǎng)景的背景建模方法。這種方法能較好的應(yīng)對(duì)畫面中搖晃的樹(shù)葉和水面的波紋。文獻(xiàn)[8]給出了模糊理論用于背景差動(dòng)目標(biāo)檢測(cè)的綜述。

相較于傳統(tǒng)的模糊理論,中智集理論[11]除了對(duì)真(Truth)、假(Falsity)分量進(jìn)行表述外,還專門對(duì)不確定(Indeterminacy)分量進(jìn)行了處理。中智集理論在處理不確定信息方面展現(xiàn)出了很好的表現(xiàn),因此被廣泛用于計(jì)算機(jī)視覺(jué)[12-18]、汽輪機(jī)故障診斷[19]、治療方案選擇[20,21]、聚類理論等[12,13,22,23]。文獻(xiàn)[12]提出了中智相似聚類方法,并將該方法成功用于圖像分割。文獻(xiàn)[13]將中智集和模糊C均值聚類用于改進(jìn)肝臟CT圖像分割。這之后,為了改進(jìn)C均值聚類,文獻(xiàn)[22,23]將不確定因素考慮進(jìn)來(lái),提出了基于中智集的C均值聚類方法。除此以外,文獻(xiàn)[14]將不確定濾波器引入圖像分割。在文獻(xiàn)[15]中,單值中智交叉熵被用來(lái)融合顏色域和深度域信息。在文獻(xiàn)[18]中,單值中智集余弦相似度量測(cè)被用來(lái)融合目標(biāo)區(qū)域和背景區(qū)域信息。文獻(xiàn)[21]首次提出多時(shí)段單值中智集相關(guān)度量測(cè),并成功用于醫(yī)療診斷。對(duì)于中智集理論在圖像分割上的應(yīng)用[12-17],研究者通常會(huì)在分割之前建立一張?zhí)囟ǖ闹兄菆D像,用以對(duì)抗圖像噪聲的干擾。在文獻(xiàn)[17]中,多個(gè)中智特征屬性被提出來(lái)并用于計(jì)算靜態(tài)圖像分割閾值。在目標(biāo)圖像中存在較嚴(yán)重的噪聲干擾時(shí),該方法表現(xiàn)出了較好的穩(wěn)定性。盡管目前已提出了較多的基于中智集的圖像分割方法,但已有方法均是針對(duì)靜態(tài)圖像的分割。對(duì)于運(yùn)動(dòng)目標(biāo)檢測(cè)而言,除了幀內(nèi)信息外,幀間關(guān)聯(lián)信息對(duì)目標(biāo)提取及抗噪尤為重要。因此,鑒于中智集在處理不確定信息時(shí)表現(xiàn)出的優(yōu)越性,將中智集理論引入運(yùn)動(dòng)目標(biāo)檢測(cè)中以解決外部挑戰(zhàn)帶來(lái)的噪聲干擾問(wèn)題是非常有意義的。

本文首次將多時(shí)段單值中智集應(yīng)用于視頻運(yùn)動(dòng)目標(biāo)檢測(cè),并有效提升了基于基礎(chǔ)背景差方法的運(yùn)動(dòng)目標(biāo)檢測(cè)效果,主要貢獻(xiàn)包括:①針對(duì)前景檢測(cè)問(wèn)題,提出了四種中智屬性,并提出了相應(yīng)屬性下的真(Truth)、不確定(Indeterminacy)、假(Falsity)量測(cè)計(jì)算方法;②綜合利用一般單值中智集和多時(shí)段單值中智集相關(guān)度量測(cè)強(qiáng)化背景差圖像序列中的運(yùn)動(dòng)目標(biāo)區(qū)域,并基于此中智圖像求解最優(yōu)分割閾值。

1 相關(guān)中智集理論

1.1 單值中智集

假定X是一個(gè)全集,那么在X中的單值中智集A可以表示為:

A={[x,TA(x),IA(x),FA(x)]|x∈X}

(1)

式中:T(x),I(x)和F(x)分別表示對(duì)應(yīng)元素的真、不確定和假分量量測(cè)函數(shù),且TA(x),IA(x),FA(x)∈[0,1],0≤TA(x)+IA(x)+FA(x)≤3。

假定A={A1,A2,…,Am}是一個(gè)可供選擇的集合,C={C1,C2,…,Cn}是一個(gè)條件屬性集合,依照式(1),Ai可以被表示為:

Ai={〈Cj,TCj(Ai),ICj(Ai),FCj(Ai)〉|Cj∈C}i=1,2,…,m,j=1,2,…,n

(2)

式中:TCj(Ai),ICj(Ai)和FCj(Ai)是針對(duì)Ai,在條件屬性Cj下的真、不確定和假分量量測(cè)函數(shù),且TCj(Ai),ICj(Ai),FCj(Ai)∈[0,1],0≤TCj(Ai)+ICj(Ai)+FCj(Ai)≤3。A被稱為多屬性單值中智集。

1.2 相關(guān)度量測(cè)

文獻(xiàn)[24]中提出了一種面向多屬性單值中智集的相關(guān)度量測(cè)方法,Ai與Aj在屬性Ck下的相關(guān)度(相似度)可以表示為:

(3)

若A*代表中智集范疇內(nèi)理想情況下的選擇,則任一選擇Ai同A*的加權(quán)相關(guān)度可以表示為:

(4)

已有的單值中智集相關(guān)度量測(cè)主要針對(duì)某一時(shí)刻,為了解決這一問(wèn)題,文獻(xiàn)[21]針對(duì)多時(shí)段醫(yī)療診斷提出了分時(shí)的相似度量測(cè)方法。類似的,針對(duì)式(4),相應(yīng)的多時(shí)段加權(quán)相關(guān)度量測(cè)可表示為:

(5)

2 背景差基本模型

背景模型是指在視頻圖像獲取過(guò)程中逐步建立的監(jiān)控場(chǎng)景中長(zhǎng)時(shí)間處于靜止?fàn)顟B(tài)事物的圖像表示。假定Bt-1是t-1時(shí)刻的背景圖像,則t時(shí)刻的背景圖像可通過(guò)如下方式獲取:

Bt=(1-α)Bt-1+αIt

(6)

式中:It是指t時(shí)刻獲取的圖像,α是背景更新速率,α∈[0,1)。α越大,背景更新速度也越快,視頻圖像中的信息(包括運(yùn)動(dòng)區(qū)域)也更容易融入到背景圖像中去,可能為背景圖像帶來(lái)較大干擾。當(dāng)α為0時(shí),表明背景圖像不隨時(shí)間變化。視頻圖像第一幀通常被作為B0。獲取背景模型圖像Bt后,運(yùn)動(dòng)目標(biāo)區(qū)域可通過(guò)以下方法確定:

(7)

式中:It(x)和Bt(x)分別表示t時(shí)刻位于圖像坐標(biāo)x處的視頻圖像灰度值和背景圖像灰度值,當(dāng)二者差值超過(guò)閾值T時(shí),認(rèn)為圖像中x坐標(biāo)點(diǎn)屬于運(yùn)動(dòng)目標(biāo)區(qū)域,否則認(rèn)為是靜態(tài)背景區(qū)域。在本文中,St=|It-Bt|被稱為背景差圖像,該圖像中對(duì)應(yīng)像素點(diǎn)的值越大,則該像素點(diǎn)屬于運(yùn)動(dòng)目標(biāo)區(qū)域的可能性就越大。

3 中智運(yùn)動(dòng)區(qū)域檢測(cè)

基本背景差模型提取前景區(qū)域的性能很大程度上依賴于閾值T的選取,在本文中,我們將背景差圖像轉(zhuǎn)換到中智集域,并將其稱為中智背景差圖像。我們通過(guò)多屬性相關(guān)度量測(cè)生成中智背景差圖像,強(qiáng)化運(yùn)動(dòng)目標(biāo)區(qū)域,提升前景背景區(qū)分度,以此提升閾值T的選取準(zhǔn)確性,最終提升運(yùn)動(dòng)區(qū)域檢測(cè)性能。

3.1 中智背景差圖像

假定U是一個(gè)全集,FP是集合U中的前景(運(yùn)動(dòng)目標(biāo)區(qū)域)像素點(diǎn)集合,SNSt為t時(shí)刻的中智背景差圖像。我們將SNSt中的某個(gè)像素點(diǎn)表示為:

PNSt(x)=(Tt(x),It(x),Ft(x))

(8)

式中:Tt(x),It(x),Ft(x)分別表示位于圖像坐標(biāo)x處的像素點(diǎn)屬于FP、不確定是否屬于FP、不屬于FP的關(guān)系分量,Tt(x),It(x),Ft(x)∈[0,1],0≤Tt(x)+It(x)+Ft(x)≤3。若考慮到多條件屬性,則SNSt中的某一像素點(diǎn)可以表示為:

(9)

式中:Cj表示某一條件屬性。

經(jīng)分析,在背景差圖像St中,屬于運(yùn)動(dòng)目標(biāo)區(qū)域的像素點(diǎn)主要包含以下幾方面特征:對(duì)應(yīng)像素點(diǎn)的灰度值較高;對(duì)應(yīng)像素點(diǎn)的較小鄰域范圍內(nèi)灰度分布較均勻;對(duì)應(yīng)像素點(diǎn)在連續(xù)數(shù)幀內(nèi)灰度值較高;對(duì)應(yīng)像素點(diǎn)在連續(xù)數(shù)幀內(nèi)灰度值分布較均勻?;诖?我們提出了四種條件屬性,并提出了相應(yīng)條件屬性下的真、不確定、假量測(cè)分量的計(jì)算方法。

對(duì)于灰度值強(qiáng)度條件屬性Cg,與其對(duì)應(yīng)的Tt(x),It(x),Ft(x)被定義如下:

(10)

SRt(x)={St(x+m,y+n)|m,n∈(-w/2,w/2)}

SRdt(x)=max{SRt(x)}-min{SRt(x)} >

(11)

(12)

均值濾波是圖像增強(qiáng)中一種簡(jiǎn)單有效的圖像平滑和降噪方法。因此我們將均值灰度強(qiáng)度作為第二個(gè)條件屬性Cm,類似的,與之對(duì)應(yīng)的Tt(x),It(x),Ft(x)被定義為:

(13)

(14)

(15)

考慮到穩(wěn)定的運(yùn)動(dòng)目標(biāo)區(qū)域具有一定的時(shí)域穩(wěn)定性,即背景差圖像中某一像素點(diǎn)的灰度值在一定時(shí)間序列上變化平緩甚至幾乎不變?;诖朔N條件屬性Cgv,與之對(duì)應(yīng)的Tt(x),It(x),Ft(x)被定義為:

(16)

(17)

(18)

式中:Smet(x)表示在t時(shí)刻之前連續(xù)N幀背景差圖像中位于坐標(biāo)x處像素點(diǎn)所有時(shí)刻對(duì)應(yīng)灰度值的中位數(shù),即:

Smet(x)=median{St-N+1(x),St-N+2(x),…,St(x)}

(19)

SDvt(x)表示在t時(shí)刻之前連續(xù)N幀背景差圖像中位于坐標(biāo)x處像素點(diǎn)所有時(shí)刻對(duì)應(yīng)灰度值所構(gòu)成集合的標(biāo)準(zhǔn)方差,即:

SDv(x)=stddev{St-N+1(x),St-N+2(x),…,St(x)}

(20)

從式(16)~式(18)中可以看出,條件屬性Cgv下的三類量測(cè)均已歸一化處理。

最后,對(duì)于連續(xù)多幀的條件屬性,我們將均值濾波也考慮進(jìn)來(lái),對(duì)于此類條件屬性Cmv,與其對(duì)應(yīng)的Tt(x),It(x),Ft(x)被定義為:

(21)

(22)

(23)

式中:Smmet(x)表示在t時(shí)刻之前連續(xù)N幀背景差圖像中位于坐標(biāo)x處像素點(diǎn)所有時(shí)刻對(duì)應(yīng)鄰域均值灰度值的中位數(shù),即:

Smmet(x)=median{Smt-N+1(x),Smt-N+2(x),…,Smt(x)}

(24)

SmDvt(x)表示在t時(shí)刻之前連續(xù)N幀背景差圖像中位于坐標(biāo)x處像素點(diǎn)所有時(shí)刻對(duì)應(yīng)鄰域均值灰度值所構(gòu)成集合的標(biāo)準(zhǔn)方差,即:

SmDv(x)=stddev{Smt-N+1(x),Smt-N+2(x),…,Smt(x)}

(25)

從以上分析可知,前兩個(gè)條件屬性主要針對(duì)靜態(tài)幀內(nèi)的運(yùn)動(dòng)區(qū)域像素點(diǎn)特征(空間域特征)提出,后兩個(gè)條件屬性主要針對(duì)連續(xù)動(dòng)態(tài)幀內(nèi)的運(yùn)動(dòng)區(qū)域像素點(diǎn)特征(時(shí)間域特征)提出。鑒于連續(xù)多幀分析可增強(qiáng)前景區(qū)域提取的魯棒性,我們以t時(shí)刻之前連續(xù)N幀作為基本評(píng)價(jià)區(qū)間,聯(lián)合面向單值中智集的多時(shí)段加權(quán)相關(guān)度量測(cè)和一般加權(quán)相關(guān)度量測(cè),聯(lián)合確定中智背景差圖像各坐標(biāo)處的灰度值。此處,我們假定四種條件屬性下的理想選擇均為A*=[1,0,0|,根據(jù)式(4)和式(5),中智背景差圖像x坐標(biāo)處的灰度值可表示為:

(26)

3.2 分割閾值自適應(yīng)選取

在本文中,閾值分割主要針對(duì)中智背景差圖像。在獲取了t時(shí)刻中智背景差圖像SNSt之后,最大類間方差(Otsu)方法被用來(lái)解決此問(wèn)題,具體流程如下:

①選取某一灰度值作為初始閾值TNS;

②利用TNS將圖像SNSt中所有的像素點(diǎn)分為兩類,一類作為前景像素點(diǎn)集合,一類作為背景像素點(diǎn)集合,之后計(jì)算類間方差g=w0w1(u0-u1)2,其中u0、u1分別為兩類像素點(diǎn)集合的灰度值均值,w0、w1分別為對(duì)應(yīng)類別像素點(diǎn)數(shù)量占圖像中總像素?cái)?shù)量的比值;

③嘗試其他灰度值作為分割閾值并計(jì)算相應(yīng)的類間方差g,使得類間方差g最大的TNS被作為當(dāng)前的最優(yōu)分割閾值。

獲取最優(yōu)分割閾值TNS后,中智背景差圖像SNSt中大于TNS的像素點(diǎn)被認(rèn)為是運(yùn)動(dòng)區(qū)域像素點(diǎn),否則為靜止背景區(qū)域像素點(diǎn)。

圖1 行人行走序列檢測(cè)結(jié)果

4 實(shí)驗(yàn)結(jié)果

我們選取了幾段有挑戰(zhàn)性的視頻用于測(cè)試,并將我們提出的中智前景提取算法與固定閾值前景提取算法(直接在傳統(tǒng)背景差圖像中采用固定閾值進(jìn)行分割,此處簡(jiǎn)稱FTFD)和Otsu自適應(yīng)閾值提取方法(直接在傳統(tǒng)背景差圖像中采用Otsu方法進(jìn)行閾值分割,此處簡(jiǎn)稱OTFD)分別進(jìn)行了比較,此外,我們也將算法結(jié)果與文獻(xiàn)[25]提出的歐式距離前景提取算法(簡(jiǎn)稱EDFD)進(jìn)行了比較。

4.1 參數(shù)設(shè)置

對(duì)于FTFD、OTFD和我們提出的算法,式(6)中的背景更新速率α均被設(shè)置為0.01。式(11)和式(13)中的w被設(shè)置為5,式(19)、式(20)、式(24)~式(26)中的N均被設(shè)置為5。為了在一定程度上強(qiáng)化連續(xù)多幀的條件屬性,式(26)中的wg、wm、wgv、wmv分別被設(shè)置為0.2、0.2、0.3、0.3。

4.2 運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果

圖1到圖3給出了四種檢測(cè)算法在三種不同場(chǎng)景下的檢測(cè)結(jié)果。三個(gè)圖中每一行對(duì)應(yīng)某一幀的處理結(jié)果,從左至右各列分別為該幀時(shí)刻原圖像、背景差圖像,FTFD、OTFD、EDFD以及我們提出的算法的檢測(cè)結(jié)果。圖中白色區(qū)域代表被判定為運(yùn)動(dòng)目標(biāo)的像素區(qū)域,黑色則代表背景區(qū)域。

圖1為行人行走序列的檢測(cè)結(jié)果,該序列的主要挑戰(zhàn)因素是光照和影子。從圖1第862幀和888幀中可以看出,在行人剛進(jìn)入畫面時(shí),FTFD算法的檢測(cè)結(jié)果存在一些離散噪點(diǎn),其余三種算法表現(xiàn)較好。在第926幀,當(dāng)行人的影子出現(xiàn)在畫面中,且影子與路面顏色相差較大時(shí),可以發(fā)現(xiàn),OTFD和EDFD兩種算法均受到了影響,由于FTFD自始至終都是采用一個(gè)固定分割閾值,它受到的影響最大。在第1 001幀,當(dāng)行人逐步遠(yuǎn)離畫面時(shí),由于影子逐步落入草坪區(qū)域,而草坪在畫面上的顏色與影子近似,相應(yīng)背景差圖像中對(duì)應(yīng)像素點(diǎn)的灰度值也較小,因此OTFD獲得了較好的檢測(cè)效果,然而,由FTFD算法得到的結(jié)果仍包含了較多的影子區(qū)域??傮w而言,我們的算法表現(xiàn)最好,即便在行人行進(jìn)過(guò)程中仍會(huì)一定程度上受到影子問(wèn)題的干擾,但多數(shù)情況能較好的將影子濾除。

圖2為背景擾動(dòng)序列的檢測(cè)結(jié)果。該序列包含的主要挑戰(zhàn)因素是背景擾動(dòng)劇烈、運(yùn)動(dòng)目標(biāo)小。從圖2 可以看出,FTFD算法采用固定閾值,從運(yùn)動(dòng)目標(biāo)進(jìn)入畫面到離開(kāi)畫面的整個(gè)過(guò)程中,所提取的運(yùn)動(dòng)區(qū)域均包含了大量的背景擾動(dòng)噪聲。由于背景擾動(dòng)劇烈,運(yùn)動(dòng)目標(biāo)區(qū)域以外的像素點(diǎn)灰度與背景差圖像的差異較大,這是導(dǎo)致FTFD、EDFD算法被大量擾動(dòng)背景干擾的主要原因。對(duì)于OTFD算法,它的表現(xiàn)存在極端現(xiàn)象。當(dāng)目標(biāo)剛進(jìn)入畫面時(shí),由于目標(biāo)區(qū)域很小,OTFD的前景提取效果很差,可見(jiàn)圖2中第322幀的處理結(jié)果。對(duì)于第505幀,OTFD失敗的原因主要是目標(biāo)區(qū)域在背景差圖像中與背景區(qū)域差別不夠大。相反,我們提出的算法能夠較好的克服背景擾動(dòng),其原因主要是我們將連續(xù)多幀的背景差圖像像素點(diǎn)灰度時(shí)域分布做了特定限制,強(qiáng)化了在時(shí)域上表現(xiàn)較穩(wěn)定且在當(dāng)前幀鄰域范圍內(nèi)分布較均勻的像素點(diǎn)。

圖2 背景擾動(dòng)序列檢測(cè)結(jié)果

圖3 惡劣天氣序列檢測(cè)結(jié)果

圖3為惡劣天氣序列的檢測(cè)結(jié)果。該序列包含的主要挑戰(zhàn)因素是對(duì)比度低、運(yùn)動(dòng)目標(biāo)小、光照變化。從圖3中可以發(fā)現(xiàn),畫面內(nèi)主要包含兩個(gè)單向車道,上方車道的車輛在畫面中的成像區(qū)域較小,下方車道車輛成像區(qū)域較大。EDFD算法僅在第1 098幀和 1 143 幀檢測(cè)到了上方車道上鄰近攝像機(jī)的車輛,且僅有若干數(shù)量像素點(diǎn),幾乎無(wú)法判定是否存在運(yùn)動(dòng)目標(biāo)。對(duì)于下方車道上成像較大的運(yùn)動(dòng)目標(biāo),EDFD成功捕獲,然而相比其他三種算法,提取的運(yùn)動(dòng)區(qū)域存在較大空洞。在第822幀,FTFD的檢測(cè)結(jié)果上僅較微弱的將車燈部分檢測(cè)為運(yùn)動(dòng)區(qū)域,而我們的算法則較好的分離出了運(yùn)動(dòng)目標(biāo);對(duì)于OTFD,同樣由于目標(biāo)區(qū)域過(guò)小,其閾值選取失敗。在第1 098幀,可以發(fā)現(xiàn)OTFD算法的表現(xiàn)要略優(yōu)于我們的算法,我們的算法對(duì)由上至下第二個(gè)目標(biāo)的檢測(cè)效果較差。觀察第 1 143 幀和1 774幀可以發(fā)現(xiàn),當(dāng)上方車道上車輛逐漸靠近攝像機(jī)時(shí),車燈照射導(dǎo)致原本暗色區(qū)域變亮,OTFD將其誤檢測(cè)為運(yùn)動(dòng)目標(biāo)區(qū)域;相較而言,我們的算法能較好的應(yīng)對(duì)低對(duì)比度、小運(yùn)動(dòng)目標(biāo)、光照變化等挑戰(zhàn)。

4.3 理論模型與實(shí)驗(yàn)分析

綜合以上分析,可以發(fā)現(xiàn),我們的算法在應(yīng)對(duì)光照變化、背景擾動(dòng)、低對(duì)比度、小目標(biāo)等挑戰(zhàn)時(shí)的檢測(cè)效果較好。對(duì)于運(yùn)動(dòng)目標(biāo)檢測(cè)問(wèn)題,在由基本背景差模型獲取的背景差圖像中,運(yùn)動(dòng)目標(biāo)對(duì)應(yīng)的像素點(diǎn)具有灰度值較高的特點(diǎn),且小鄰域范圍內(nèi)像素灰度分布均勻的像素點(diǎn)屬于運(yùn)動(dòng)目標(biāo)像素點(diǎn)的可能性更高?;诖?算法在原背景差圖像和經(jīng)均值濾波后的背景差圖像中,將像素點(diǎn)強(qiáng)度值作為真量測(cè)、將區(qū)域最大最小值之差作為不確定量測(cè)引入中智背景差圖像。在時(shí)間域上,背景差圖像中運(yùn)動(dòng)目標(biāo)像素點(diǎn)應(yīng)在短時(shí)間內(nèi)保持一定強(qiáng)度的灰度值,且在此時(shí)間段內(nèi)灰度值分布較均勻的像素點(diǎn)更有可能為運(yùn)動(dòng)目標(biāo)像素點(diǎn)。鑒于此,算法以原背景差圖像和經(jīng)均值濾波后的背景差圖像為基礎(chǔ),將像素點(diǎn)灰度時(shí)域中值作為真量測(cè),將像素點(diǎn)時(shí)域灰度方差作為不確定量測(cè)引入。最終,結(jié)合中智加權(quán)相關(guān)度量測(cè),將四種條件屬性下的中智量測(cè)融合。光照變化、背景擾動(dòng)、低對(duì)比度、小目標(biāo)等條件下的動(dòng)目標(biāo)區(qū)域特點(diǎn)與我們所設(shè)定的運(yùn)動(dòng)目標(biāo)像素點(diǎn)特征吻合,在著重考慮背景差圖像中各像素點(diǎn)灰度值強(qiáng)度的同時(shí),算法著重將時(shí)域穩(wěn)定性和空域穩(wěn)定性以多時(shí)段單值中智集和一般單值中智集相關(guān)度量測(cè)的方式融入到中智背景圖像中,較好的強(qiáng)化了運(yùn)動(dòng)區(qū)域,提升了閾值選取的魯棒性,最終表現(xiàn)出較好的運(yùn)動(dòng)目標(biāo)檢測(cè)性能。

5 結(jié)束語(yǔ)

本文在基本背景差模型的基礎(chǔ)上,提出了一種基于多屬性單值中智集相關(guān)度量測(cè)的視頻運(yùn)動(dòng)目標(biāo)檢測(cè)方法。為了強(qiáng)化運(yùn)動(dòng)目標(biāo)區(qū)域,本文將不確定性量測(cè)引入,提出了基于單值中智集的四種真、不確定和假量測(cè)。最終綜合利用多周期單值中智集相關(guān)度量測(cè)和一般單值中智集相關(guān)度量測(cè)生成中智背景差圖像,充分融合了像素點(diǎn)空間域和時(shí)間域上的約束信息。最后,基于中智背景差圖像,借助最大類間方差方法獲取最優(yōu)分割閾值,完成前景區(qū)域提取。實(shí)驗(yàn)結(jié)果表明,在應(yīng)對(duì)惡劣天氣、背景擾動(dòng)等挑戰(zhàn)時(shí),本文提出的算法體現(xiàn)出了較高的魯棒性。

參考文獻(xiàn):

[1] Bouwmans T. Traditional and Recent Approaches in Background Modeling for Foreground Detection:An Overview[J]. Computer Science Review,2014,11-12(0):31-66.

[2] Thierry B,Fida El B,Bertrand V. Background Modeling Using Mixture of Gaussians for Foreground Detection—A Survey[J]. Recent Patents on Computer Science,2008,1(3):219-237.

[3] Stauffer C,Grimson W E L. Adaptive Background Mixture Models for Real-Time Tracking[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Collins,Colorado;IEEE Press. 1999:22-29.

[4] Elgammal A,Duraiswami R,Harwood D,et al. Background and Foreground Modeling Using Nonparametric Kernel Density Estimation for Visual Surveillance[J]. Proceedings of The IEEE,2002,90(7):1151-1163.

[5] Gutchess D,Trajkovic M,Cohen-Solal E,et al. A Background Model Initialization Algorithm for Video Surveillance[C]//IEEE International Conference on Computer Vision.733-740.

[6] 張顯亭,陳樹(shù)越,陳穎鳴. 一種改進(jìn)的復(fù)雜場(chǎng)景運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J]. 傳感技術(shù)學(xué)報(bào),2009,22(8):1146-1149.

[7] 李喜來(lái),李艾華,白向峰,等. 基于增量式特征基背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)[J]. 傳感技術(shù)學(xué)報(bào),2010,23(9):1293-1297.

[8] Bouwmans T. Background Subtraction for Visual Surveillance:A Fuzzy Approach[J]. Handbook on Soft Computing for Video Surveillance,2012:103-134.

[9] Maddalena L,Petrosino A. A Fuzzy Spatial Coherence-Based Approach to Background/Foreground Separation for Moving Object Detection[J]. Neural Computing and Applications,2010,19(2):179-186.

[10] Zhao Z,Bouwmans T,Zhang X,et al. A Fuzzy Background Modeling Approach for Motion Detection in Dynamic Backgrounds[J]. Multimedia and Signal Processing,2012:177-185.

[11] Smarandache F. Neutrosophy:Neutrosophic Probability,Set and Logic[M]. Rehoboth:American Research Press,1998:105.

[13] Anter A M,Hassanien A E,ElSoud M A A,et al. Neutrosophic Sets and FuzzyC-Means Clustering for Improving CT Liver Image Segmentation[J]. Advances in Intelligent Systems and Computing,2014,303:193-203.

[14] RehobothGuo Y,Xia R,engür A,et al. A Novel Image Segmentation Approach Based on Neutrosophicc-Means Clustering and Indeterminacy Filtering[J]. Neural Computing and Applications,2016:1-11.Rehoboh

[15] Hu K,Ye J,Fan E,et al. A Novel Object Tracking Algorithm by Fusing Color and Depth Information Based on Single Valued Neutrosophic Cross-Entropy[J]. Journal of Intelligent and Fuzzy Systems,2017,32(3):1775-1786.

[16] Guo Y,Sengur A. A novel 3D Skeleton Algorithm Based on Neutrosophic Cost Function[J]. Applied Soft Computing Journal,2015,36:210-217.

[18] 崔西希,吳成茂. 核空間中智模糊聚類及圖像分割應(yīng)用[J]. 中國(guó)圖象圖形學(xué)報(bào),2016,21(10):1316-1327.

[19] Ye J. Single-Valued Neutrosophic Similarity Measures Based on Cotangent Function and Their Application in the Fault Diagnosis of Steam Turbine[J]. Soft Computing,2015,21(3):817-825.

[20] Ma Y X,Wang J Q,Wang J,et al. An Interval Neutrosophic Linguistic Multi-Criteria Group Decision-Making Method and its Application in Selecting Medical Treatment Options[J]. Neural Computing and Applications,2016:1-21.

[21] Ye J,Fu J. Multi-Period Medical Diagnosis Method Using a Single Valued Neutrosophic Similarity Measure Based on Tangent Function[J]. Computer Methods & Programs in Biomedicine,2016,123:142-149.

[22] Guo Y,Sengur A. NECM:Neutrosophic Evidentialc-Means Clustering Algorithm[J]. Neural Computing and Applications,2015,26(3):561-571.

[23] Guo Y,Sengur A. NCM:Neutrosophicc-Means Clustering Algorithm[J]. Pattern Recognition,2015,48(8):2710-2724.

[24] Ye J. Multicriteria Decision-Making Method Using the Correlation Coefficient under Single-Valued Neutrosophic Environment[J]. International Journal of General Systems,2013,42(4):386-394.

[25] Benezeth Y,Jodoin P M,Emile B,et al. Comparative Study of Background Subtraction Algorithms[J]. Journal of Electronic Imaging,2010,19(3):033003-033003-033012.

猜你喜歡
像素點(diǎn)灰度背景
采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
“新四化”背景下汽車NVH的發(fā)展趨勢(shì)
Bp-MRI灰度直方圖在鑒別移行帶前列腺癌與良性前列腺增生中的應(yīng)用價(jià)值
基于局部相似性的特征匹配篩選算法
《論持久戰(zhàn)》的寫作背景
基于5×5鄰域像素點(diǎn)相關(guān)性的劃痕修復(fù)算法
基于canvas的前端數(shù)據(jù)加密
基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
晚清外語(yǔ)翻譯人才培養(yǎng)的背景