国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種基于小波分析的codeword算法改進(jìn)

2014-11-07 02:59黃昊馬杰
科技資訊 2014年16期

黃昊++馬杰

摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。

關(guān)鍵詞:行為檢測 codeword 前景分離

中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02

行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。

1 運(yùn)動(dòng)目標(biāo)檢測

1.1 簡介

一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。

codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的?;旌细咚鼓P蛯?duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。

1.2 codeword模型的建立

codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:

,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。

(1)L←0,←Φ(空集)。

(2)for t=1…N。

①xt=(R,G,B),I2←R2+G2+B2

②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm

(a)colordist(xt,vm)≤ε1

(b)brightness(I,〈m,m〉) = true

③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL

VL←(R,G,B)

auxL←〈I,I,1,t-1,t,t〉

④否則更新所匹配的codeword cm

Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉

Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )

auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉

end

對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。

codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。

2 改進(jìn)算法的提出和實(shí)現(xiàn)

2.1 改進(jìn)算法的基本思想

從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。

針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。

2.2 改進(jìn)算法的實(shí)現(xiàn)

結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:

某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。

在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:

||xt||2=R2+G2+B2,

||vi||2=R-i2+G-i2+B-i2,

〈xt,vi〉2=(R-iR+G-iG+B-iB)2

顏色差異δ通過以下公式計(jì)算

p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,

colordist(xt,vi)2=δ2=||xt||2—p2.

亮度差異判斷條件為:

如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假

Ilow = α,Ihi = min{β,/α}。其中α<1,β>1

建立了背景之后,下一步就是分離前景,具體算法如下:

x=(G,R,B),I2←R2+G2+B2

對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:

colordist(x,cm)≤ε2

brightness(I,〈m,m〉)=true

使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。

如果沒有匹配,則x為前景,否則為背景。

其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。

3 改進(jìn)算法的測試

改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。

參考文獻(xiàn)

[1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.

[2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.

[3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.

[4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint

摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。

關(guān)鍵詞:行為檢測 codeword 前景分離

中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02

行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。

1 運(yùn)動(dòng)目標(biāo)檢測

1.1 簡介

一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。

codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的?;旌细咚鼓P蛯?duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。

1.2 codeword模型的建立

codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:

,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。

(1)L←0,←Φ(空集)。

(2)for t=1…N。

①xt=(R,G,B),I2←R2+G2+B2

②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm

(a)colordist(xt,vm)≤ε1

(b)brightness(I,〈m,m〉) = true

③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL

VL←(R,G,B)

auxL←〈I,I,1,t-1,t,t〉

④否則更新所匹配的codeword cm

Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉

Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )

auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉

end

對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。

codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。

2 改進(jìn)算法的提出和實(shí)現(xiàn)

2.1 改進(jìn)算法的基本思想

從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。

針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。

2.2 改進(jìn)算法的實(shí)現(xiàn)

結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:

某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。

在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:

||xt||2=R2+G2+B2,

||vi||2=R-i2+G-i2+B-i2,

〈xt,vi〉2=(R-iR+G-iG+B-iB)2

顏色差異δ通過以下公式計(jì)算

p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,

colordist(xt,vi)2=δ2=||xt||2—p2.

亮度差異判斷條件為:

如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假

Ilow = α,Ihi = min{β,/α}。其中α<1,β>1

建立了背景之后,下一步就是分離前景,具體算法如下:

x=(G,R,B),I2←R2+G2+B2

對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:

colordist(x,cm)≤ε2

brightness(I,〈m,m〉)=true

使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。

如果沒有匹配,則x為前景,否則為背景。

其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。

3 改進(jìn)算法的測試

改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。

參考文獻(xiàn)

[1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.

[2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.

[3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.

[4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint

摘 要:本文分析了基于codeword的行為檢測算法,闡述了該算法的優(yōu)劣,并在此算法的基礎(chǔ)上提出了一種改進(jìn)算法,對(duì)改進(jìn)算法的實(shí)現(xiàn)和優(yōu)勢進(jìn)行了闡述。

關(guān)鍵詞:行為檢測 codeword 前景分離

中圖分類號(hào):TH391 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-3791(2014)06(a)-0016-02

行為檢測系統(tǒng)得到越來越廣泛的應(yīng)用,其系統(tǒng)的有效性在一定程度上依賴于獲取的圖像信息,也就是對(duì)運(yùn)動(dòng)目標(biāo)的檢測,可以理解為前背景分離,是指針對(duì)在背景不變的情況下,把監(jiān)控場景中運(yùn)動(dòng)的物體從背景里提煉出來作為前景。本文對(duì)基于codeword建模的檢測算法進(jìn)行了分析,但該算法在前背景分離的完整性、精確性、實(shí)時(shí)性、對(duì)噪音和陰影的消除、抗光照變化、抗背景擾動(dòng)(樹葉搖擺、運(yùn)動(dòng)物體的短暫停留等等)等方面有一定的局限,基于此,我們提出一種改進(jìn)算法,力求盡可能完美地檢測出運(yùn)動(dòng)物體。

1 運(yùn)動(dòng)目標(biāo)檢測

1.1 簡介

一般來講,大多數(shù)的運(yùn)動(dòng)目標(biāo)檢測算法可分為三大部分:建立背景模型、通過各幀與背景模型的差異分離出前景、以及更新背景模型。在這個(gè)過程中使用不同的方法就構(gòu)成了各種前背景分離算法。

codeword模型是一種非常優(yōu)秀的前背景分離算法,它是針對(duì)混合高斯模型的缺點(diǎn)而提出來的?;旌细咚鼓P蛯?duì)背景的快速變化適應(yīng)性差,不能敏銳地檢測出不明顯的或者突然出現(xiàn)的運(yùn)動(dòng)物體,為了解決這些問題,有人提出了codeword模型。

1.2 codeword模型的建立

codeword算法用一個(gè)相對(duì)較長的觀測期來建立背景模型,給每一個(gè)像素都建立一個(gè)codeword,在觀測期中采集的樣本根據(jù)其顏色和亮度被集群到不同的codeword里面。我們用來表示一個(gè)像素點(diǎn)的訓(xùn)練序列,它由N個(gè)GRB向量組成:={x1,x2,…,xN};用={c1,c2,…,cL}來表示有L個(gè)codeword的codebook。對(duì)于每一個(gè)codeword ci,i=1…L,都由一個(gè)GRB向量vi=(Rˉi,Gˉi,Bˉi)和一個(gè)元組auxi=〈i,i,fi,λi,pi,qi〉組成,元組auxi中各個(gè)元素的定義如下:

,為被集群到這個(gè)codeword中的所有像素中的最小和最大亮度值;f為該codeword被訪問的頻率;λ為訓(xùn)練期內(nèi)該codeword最長未被訪問的時(shí)間,記作MNRL(maximum negative run-length);p,q為該codeword第一次和最后一次被訪問的時(shí)間。

(1)L←0,←Φ(空集)。

(2)for t=1…N。

①xt=(R,G,B),I2←R2+G2+B2

②根據(jù)條件(a)、(b)在={ci|1≤i≤L}內(nèi)尋找匹配xt的codeword cm

(a)colordist(xt,vm)≤ε1

(b)brightness(I,〈m,m〉) = true

③如果=Φ,或者匹配不成功,則L ← L+1。創(chuàng)建一個(gè)新的codeword cL

VL←(R,G,B)

auxL←〈I,I,1,t-1,t,t〉

④否則更新所匹配的codeword cm

Vm=(R-m,G-m,B-m),auxm=〈m,m,fm,λm,pm,qm〉

Vm←(fm R-m+R/fm+1,fm Gˉm+G/fm+1,fm B-m+B/fm+1 )

auxm←〈min{I,m},max{I,m},fm+1,max{λm,t-qm},pm,t〉

end

對(duì)每一個(gè)codeword ci,i=1,…,L,重設(shè)λi←max{λi,N – qi}。

codeword算法滿足許多測評(píng)標(biāo)準(zhǔn),前景分離的精確性、對(duì)背景擾動(dòng)的適應(yīng)性、抗光照變化等等,但是codeword算法最大的缺陷是實(shí)時(shí)性差,運(yùn)行速度太慢。針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了少許改動(dòng)(見圖1、圖2)。

2 改進(jìn)算法的提出和實(shí)現(xiàn)

2.1 改進(jìn)算法的基本思想

從運(yùn)行結(jié)果可以看到,codeword算法雖然有較強(qiáng)的抗干擾能力,對(duì)陰影的變換也能有效防范,灰度圖能準(zhǔn)確有效的反應(yīng)實(shí)際圖像場景。但其本身也有缺陷,缺陷主要是實(shí)時(shí)性差,運(yùn)行速度較慢。

針對(duì)這個(gè)缺點(diǎn),本文對(duì)原始的codeword作了改進(jìn)。改進(jìn)思想如下:原始的codeword算法以像素點(diǎn)的方式處理,每個(gè)像素都有一個(gè)codeword,改進(jìn)后的算法以塊的方式處理,把原算法中每四個(gè)像素點(diǎn)當(dāng)作一個(gè)塊來處理,也就是原算法中的四個(gè)codeword變成了改進(jìn)算法中的一個(gè)新的codeword(塊),之后對(duì)塊進(jìn)行檢測識(shí)別。

2.2 改進(jìn)算法的實(shí)現(xiàn)

結(jié)合經(jīng)典codeword模型,本文提出的改進(jìn)codeword模型算法步驟如下:

某些codeword可能包含運(yùn)動(dòng)的前景物體和噪音而需要去除。通過MNRL(λ)這一參數(shù)來提煉codebook模型,以M和TM表示背景模型和閾值,通過TM設(shè)定為訓(xùn)練幀數(shù)的一半,即N/2,判斷條件為M={cm|cm∈∧λm≤TM}。

在上面的算法步驟中提到的兩個(gè)判斷匹配的條件(a)、(b)的計(jì)算過程如下。假設(shè)獲取到的像素為xt=(R,G,B) 以及codeword ci其vi=(R-i,G-i,B-i),我們有如下公式:

||xt||2=R2+G2+B2,

||vi||2=R-i2+G-i2+B-i2,

〈xt,vi〉2=(R-iR+G-iG+B-iB)2

顏色差異δ通過以下公式計(jì)算

p2=||xt||2 cos2θ=〈xt,vi〉2/||vi||2,

colordist(xt,vi)2=δ2=||xt||2—p2.

亮度差異判斷條件為:

如果Ilow≤||xt||≤Ihi,brightness(I,〈, 〉)為真;否則為假

Ilow = α,Ihi = min{β,/α}。其中α<1,β>1

建立了背景之后,下一步就是分離前景,具體算法如下:

x=(G,R,B),I2←R2+G2+B2

對(duì)于經(jīng)過提煉后的codeword模型中的所有codeword,尋找一個(gè)匹配如下兩個(gè)條件的cm:

colordist(x,cm)≤ε2

brightness(I,〈m,m〉)=true

使用構(gòu)建背景模型算法中的更新方法更新匹配的codeword。

如果沒有匹配,則x為前景,否則為背景。

其中It(x,y)為當(dāng)前圖像中坐標(biāo)為(x, y)的像素值,Ib(x,y)為背景圖像像素值,Bt(x,y)為前景的二值圖像,Th為閾值。簡單的背景相減分離出的前景相當(dāng)粗糙,但是卻能告訴我們清楚的邊緣信息。

3 改進(jìn)算法的測試

改進(jìn)算法的運(yùn)行結(jié)果如下圖,通過結(jié)果對(duì)比,新算法能提高系統(tǒng)運(yùn)行性能,系統(tǒng)內(nèi)存占用明顯減少,運(yùn)行速度明顯增快,能比較清晰的反映出畫面中運(yùn)動(dòng)目標(biāo)的狀態(tài),但是處理之后的畫面比原本的粗糙(見圖3、圖4)。

參考文獻(xiàn)

[1] 谷軍霞,丁曉青,王進(jìn)生.行為分析算法綜述[J].中國圖像圖形學(xué)報(bào),2009,19(3):377-387.

[2] 郁映卓.基于人體運(yùn)動(dòng)特征的異常行為檢測和姿態(tài)識(shí)別[D].西安電子科技大學(xué),2011.

[3] 武松林.基于坐姿的多人行為識(shí)別與分析方法研究[D].延邊大學(xué),2010.

[4] 吳登峰.多小波變換及其在數(shù)字圖像處理中的應(yīng)用[D].吉林大學(xué),2005.endprint

雷山县| 福建省| 黄梅县| 汶川县| 柘荣县| 乌海市| 云浮市| 乡宁县| 太湖县| 会东县| 淳安县| 长沙市| 荣昌县| 彝良县| 洛浦县| 泗洪县| 东兰县| 澄迈县| 柳江县| 兴国县| 宁都县| 博爱县| 磐石市| 游戏| 拉萨市| 平安县| 株洲县| 屏东市| 栾川县| 西畴县| 扎鲁特旗| 务川| 莱阳市| 泸水县| 伊吾县| 承德市| 海门市| 五常市| 绥棱县| 伊金霍洛旗| 萍乡市|