黃昊++馬杰
摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。
關(guān)鍵詞:行為檢測 codeword 前景分離
中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02
行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。
1 運(yùn)動(dòng)目標(biāo)檢測
1.1 簡介
一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。
codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的?;旌细咚鼓P蛯?duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。
1.2 codeword模型的建立
codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:
,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。
(1)L←0,←Φ(空集)。
(2)for t=1…N。
①xt=(R,G,B),I2←R2+G2+B2
②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm
(a)colordist(xt,vm)≤ε1
(b)brightness(I,〈m,m〉) = true
③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL
VL←(R,G,B)
auxL←〈I,I,1,t-1,t,t〉
④否則更新所匹配的codeword cm
Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉
Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )
auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉
end
對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。
codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。
2 改進(jìn)算法的提出和實(shí)現(xiàn)
2.1 改進(jìn)算法的基本思想
從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。
針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。
2.2 改進(jìn)算法的實(shí)現(xiàn)
結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:
某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。
在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:
||xt||2=R2+G2+B2,
||vi||2=R-i2+G-i2+B-i2,
〈xt,vi〉2=(R-iR+G-iG+B-iB)2
顏色差異δ通過以下公式計(jì)算
p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,
colordist(xt,vi)2=δ2=||xt||2—p2.
亮度差異判斷條件為:
如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假
Ilow = α,Ihi = min{β,/α}。其中α<1,β>1
建立了背景之后,下一步就是分離前景,具體算法如下:
x=(G,R,B),I2←R2+G2+B2
對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:
colordist(x,cm)≤ε2
brightness(I,〈m,m〉)=true
使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。
如果沒有匹配,則x為前景,否則為背景。
其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。
3 改進(jìn)算法的測試
改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。
參考文獻(xiàn)
[1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.
[2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.
[3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.
[4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint
摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。
關(guān)鍵詞:行為檢測 codeword 前景分離
中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02
行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。
1 運(yùn)動(dòng)目標(biāo)檢測
1.1 簡介
一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。
codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的?;旌细咚鼓P蛯?duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。
1.2 codeword模型的建立
codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:
,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。
(1)L←0,←Φ(空集)。
(2)for t=1…N。
①xt=(R,G,B),I2←R2+G2+B2
②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm
(a)colordist(xt,vm)≤ε1
(b)brightness(I,〈m,m〉) = true
③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL
VL←(R,G,B)
auxL←〈I,I,1,t-1,t,t〉
④否則更新所匹配的codeword cm
Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉
Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )
auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉
end
對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。
codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。
2 改進(jìn)算法的提出和實(shí)現(xiàn)
2.1 改進(jìn)算法的基本思想
從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。
針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。
2.2 改進(jìn)算法的實(shí)現(xiàn)
結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:
某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。
在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:
||xt||2=R2+G2+B2,
||vi||2=R-i2+G-i2+B-i2,
〈xt,vi〉2=(R-iR+G-iG+B-iB)2
顏色差異δ通過以下公式計(jì)算
p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,
colordist(xt,vi)2=δ2=||xt||2—p2.
亮度差異判斷條件為:
如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假
Ilow = α,Ihi = min{β,/α}。其中α<1,β>1
建立了背景之后,下一步就是分離前景,具體算法如下:
x=(G,R,B),I2←R2+G2+B2
對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:
colordist(x,cm)≤ε2
brightness(I,〈m,m〉)=true
使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。
如果沒有匹配,則x為前景,否則為背景。
其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。
3 改進(jìn)算法的測試
改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。
參考文獻(xiàn)
[1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.
[2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.
[3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.
[4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint
摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。
關(guān)鍵詞:行為檢測 codeword 前景分離
中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02
行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。
1 運(yùn)動(dòng)目標(biāo)檢測
1.1 簡介
一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。
codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的?;旌细咚鼓P蛯?duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。
1.2 codeword模型的建立
codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:
,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。
(1)L←0,←Φ(空集)。
(2)for t=1…N。
①xt=(R,G,B),I2←R2+G2+B2
②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm
(a)colordist(xt,vm)≤ε1
(b)brightness(I,〈m,m〉) = true
③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL
VL←(R,G,B)
auxL←〈I,I,1,t-1,t,t〉
④否則更新所匹配的codeword cm
Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉
Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )
auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉
end
對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。
codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。
2 改進(jìn)算法的提出和實(shí)現(xiàn)
2.1 改進(jìn)算法的基本思想
從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。
針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。
2.2 改進(jìn)算法的實(shí)現(xiàn)
結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:
某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。
在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:
||xt||2=R2+G2+B2,
||vi||2=R-i2+G-i2+B-i2,
〈xt,vi〉2=(R-iR+G-iG+B-iB)2
顏色差異δ通過以下公式計(jì)算
p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,
colordist(xt,vi)2=δ2=||xt||2—p2.
亮度差異判斷條件為:
如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假
Ilow = α,Ihi = min{β,/α}。其中α<1,β>1
建立了背景之后,下一步就是分離前景,具體算法如下:
x=(G,R,B),I2←R2+G2+B2
對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:
colordist(x,cm)≤ε2
brightness(I,〈m,m〉)=true
使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。
如果沒有匹配,則x為前景,否則為背景。
其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。
3 改進(jìn)算法的測試
改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。
參考文獻(xiàn)
[1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.
[2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.
[3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.
[4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint