国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)混合高斯模型的人群密度估計(jì)研究

2017-05-18 09:04:14安曦寧
電子科技 2017年5期
關(guān)鍵詞:密度估計(jì)高斯共生

安曦寧

(蘭州交通大學(xué) 電子與信息工程學(xué)院,甘肅 蘭州 730070)

基于改進(jìn)混合高斯模型的人群密度估計(jì)研究

安曦寧

(蘭州交通大學(xué) 電子與信息工程學(xué)院,甘肅 蘭州 730070)

針對(duì)視頻監(jiān)控中人群密度估計(jì)的不足,提出一種基于改進(jìn)混合高斯模型和灰度共生矩陣的人群密度估計(jì)方法。在背景建模的初始階段運(yùn)用差分法分割出運(yùn)動(dòng)區(qū)域,將不同的更新率賦予已經(jīng)劃分好的背景區(qū)域和運(yùn)動(dòng)區(qū)域,從而克服漏檢和誤檢。并使用基于灰度共生矩陣的紋理方法提取人群密度特征,進(jìn)而使用支持向量機(jī)實(shí)現(xiàn)人群密度分類。實(shí)驗(yàn)結(jié)果表明,該方法提高了視頻監(jiān)控中人群密度估計(jì)的準(zhǔn)確率。

人群密度估計(jì);混合高斯模型;灰度共生矩陣;支持向量機(jī)

隨著人們社會(huì)活動(dòng)的增多,人群過(guò)度擁擠在公共場(chǎng)合經(jīng)常發(fā)生。這種現(xiàn)象存在安全隱患。國(guó)內(nèi)外由于人群過(guò)度擁擠導(dǎo)致的踩踏事故時(shí)有發(fā)生。故對(duì)人群聚集現(xiàn)象的監(jiān)測(cè)一直是社會(huì)治安監(jiān)控的重要工作,因此基于視頻監(jiān)控中人群密度估計(jì)技術(shù)有著廣泛的應(yīng)用前景和研究?jī)r(jià)值。

視頻監(jiān)控中人群密度估計(jì)方法可以分為像素統(tǒng)計(jì)和紋理分析兩類。Davies和Chow提出的基于像素特征[1-2]的圖像處理方法計(jì)算量小,適合人群密度較低的情況。基于此算法的局限性,Marana提出了基于紋理特征分析的人群密度估計(jì)方法[3],該方法將人群圖像按紋理來(lái)處理,可以解決重疊問題。

現(xiàn)有的人群密度估計(jì)的背景建模技術(shù)分為統(tǒng)計(jì)平均法和幀間差分法兩類。目前背景建模常用的方法是混合高斯模型及其改進(jìn)方法,傳統(tǒng)混合高斯模型對(duì)場(chǎng)景的建模容易出現(xiàn)拖影以及當(dāng)運(yùn)動(dòng)目標(biāo)變化緩慢時(shí)會(huì)出現(xiàn)將目標(biāo)區(qū)域誤判為背景的問題。本文采用基于改進(jìn)混合高斯模型和灰度共生矩陣算法來(lái)估計(jì)人群密度。

1 背景建模

1.1 混合高斯背景建模

視頻圖像中同一位置的像素值在時(shí)間軸上是服從高斯分布的。高斯混合模型對(duì)背景圖像中的每一個(gè)像素點(diǎn)用K個(gè)狀態(tài)表示并定義為K個(gè)高斯分布。K一般取3~5之間,其中,t時(shí)刻第K個(gè)高斯分布的概率密度函數(shù)表示為

(1)

1.2 參數(shù)更新

通過(guò)式(2)來(lái)判斷當(dāng)前幀的像素點(diǎn)是否與某一個(gè)具體的高斯函數(shù)匹配

|Xi,t-μi|

(2)

其中,D為置信參數(shù),一般取2.5。若滿足式(2),就認(rèn)為該像素點(diǎn)與這個(gè)高斯函數(shù)匹配,則用此像素來(lái)更新背景模型,更新方程如式(3)~式(5)所示

ωi,t=(1-α)ωi,t-1+α

(3)

μi,t=(1-ρ)μi,t-1+ρXt

(4)

(5)

其中,α為背景模型學(xué)習(xí)速率;ρ為參數(shù)學(xué)習(xí)率。

若匹配不成功,需要建立新的高斯模型,同時(shí)去掉最不可能是背景模型的高斯分布。其他高斯分布均值和方差不變,但權(quán)值按式(6)更新

ωi,t=(1-α)×ωi,t-1

(6)

由于背景出現(xiàn)的時(shí)間一般較長(zhǎng),權(quán)值較大,所以高斯混合模型中代表背景的是那些權(quán)重較大的高斯分布。因此將權(quán)值歸一化并對(duì)每個(gè)像素的各個(gè)高斯模型按ωi,t/σi,t的值從大到小排序。如果排序中前B個(gè)ωi,j/σi,t對(duì)應(yīng)的高斯模型的權(quán)重滿足式(7),則認(rèn)為該像素點(diǎn)的這B個(gè)高斯模型描述背景

(7)

式中,T為權(quán)值的閾值,且0.5

1.3 改進(jìn)的混合高斯模型

在GMM算法進(jìn)行檢測(cè)之前,設(shè)It(i,j)是視頻序列當(dāng)前待檢測(cè)的一幀圖像,Bt-1(i,j)是前一幀圖像獲得的背景模型,兩幀圖像間差分得到變化區(qū)域(Ac),這個(gè)區(qū)域不僅包括物體現(xiàn)在覆蓋的區(qū)域Aself,還有物體在前一幀覆蓋的背景區(qū)域即背景顯露區(qū)Albg。按照下述規(guī)則將圖像中點(diǎn)xt(i,j)進(jìn)行區(qū)域劃分

(8)

其中,Tc的選取直接影響運(yùn)動(dòng)目標(biāo)的提取和分割,它取固定值35。ΔT為光線變化的補(bǔ)償值,它會(huì)隨著光照變化強(qiáng)度的增加而變大,這樣會(huì)增強(qiáng)閾值 對(duì)于光照突變的適應(yīng)性。N為視頻圖像It(i,j)的像素點(diǎn)個(gè)數(shù)。將運(yùn)動(dòng)變化區(qū)域Ac每個(gè)像素按照高斯匹配的規(guī)則來(lái)分類

(9)

式中,0

綜上,對(duì)背景區(qū)域像素點(diǎn)賦予較小的更新率,保持背景區(qū)域的穩(wěn)定性,從而避免引入噪聲構(gòu)成誤檢。對(duì)于背景顯露區(qū)像素點(diǎn)需要賦予較大的更新率,這樣,一旦運(yùn)動(dòng)物體離開,其停留過(guò)的背景區(qū)域可以較快得顯露出來(lái),避免靜止目標(biāo)開始運(yùn)動(dòng)時(shí)造成拖影的現(xiàn)象。對(duì)于運(yùn)動(dòng)目標(biāo)區(qū)域的像素,要保持當(dāng)前該部分像素各高斯成分的均值、方差和權(quán)重矩陣值不變,這樣可以克服運(yùn)動(dòng)目標(biāo)從運(yùn)動(dòng)變?yōu)殪o止而融入當(dāng)前背景造成漏檢的缺點(diǎn)。

2 灰度共生矩陣

由于不同密度的人群圖像對(duì)應(yīng)的紋理模式不同,所以圖像紋理特征量可以作為人群圖像分類的特征量?;叶裙采仃囀且环N具有廣泛性的紋理分析方法,是建立在聯(lián)合條件概率密度函數(shù)P(i,j|d,θ)基礎(chǔ)上的,其數(shù)學(xué)定義是:像素點(diǎn)(x,y)的灰度值是i,像素點(diǎn)(x+a,y+b)的灰度值是j,統(tǒng)計(jì)從i出發(fā),離開j的概率(或頻率),即P(i,j|d,θ)。其中,d是相隔距離;θ是生成方向;(d,θ)對(duì)應(yīng)一個(gè)矩陣,要把它控制在一定的范圍內(nèi)。通常只取4個(gè)θ(θ=0°;θ=45°;θ=90°;θ=135°)值和一個(gè)d值。a和b值的選取是根據(jù)圖像紋理的自身特點(diǎn)。

圖1 像素對(duì)方向示意圖

灰度共生矩陣中主對(duì)角線的元素值比較大時(shí),說(shuō)明該方向上圖像灰度值變化較慢,則圖像的紋理比較粗。如果矩陣中大部分非零元素值的分布遠(yuǎn)離主對(duì)角線,說(shuō)明圖像灰度值變化快而圖像紋理較細(xì)。由此得出,矩陣中元素的分布與圖像信息量密切相關(guān),可以反映紋理的粗細(xì)程度。

實(shí)際工程中灰度共生矩陣不可以直接使用,需要從中計(jì)算統(tǒng)計(jì)量作為紋理特征。Haralick曾提出基于灰度共生矩陣的14個(gè)統(tǒng)計(jì)量:熵、能量、對(duì)比度、方差、和方差、和平均、和熵、均勻性、相關(guān)性、差平均、差方差、差熵、相關(guān)信息測(cè)度和最大相關(guān)系數(shù)。本文選用了其中4種統(tǒng)計(jì)量作為特征參數(shù):

(1)能量(Energy)

(10)

能量是灰度共生矩陣中所有元素的平方和。它反映了圖像灰度分布的均勻程度與紋理的粗細(xì)程度;

(2)對(duì)比度(Contrast)

(11)

對(duì)比度是圖像灰度共生矩陣中元素關(guān)于主對(duì)角線的慣性矩。反映了圖像的清晰程度;

(3)熵(Entropy)

(13)

熵反映了圖像的信息量,可以度量圖像內(nèi)容的隨機(jī)程度并且表征圖像紋理的復(fù)雜程度;

(4)逆差矩(Homogeneity)

(13)

逆差矩又稱局部平穩(wěn),它反映了圖像紋理的局部變化和規(guī)則程度。

3 密度分類器

使用支持向量機(jī)(SVM)進(jìn)行分類的基本思想是,構(gòu)造一個(gè)超平面使兩個(gè)樣本數(shù)據(jù)集之間的間隔最小,支持向量機(jī)能較好地解決小樣本、非線性、高維數(shù)和局部極小點(diǎn)等實(shí)際問題。

支持向量機(jī)的基本原理是利用非線性變換將原始特征空間變換到一個(gè)高維空間,在這個(gè)新空間求線性最優(yōu)分類面,而且要通過(guò)定義適當(dāng)?shù)膬?nèi)積核函數(shù)來(lái)實(shí)現(xiàn)這種非線性變化,它的判別函數(shù)為

(14)

其中,sgn(·)為符號(hào)函數(shù);K(Xi,X)為內(nèi)積核函數(shù)。

輸入特征向量為X=(x1,x2,…,Xd),共有s個(gè)支撐向量X1,X2,…,Xs,通過(guò)內(nèi)積函數(shù)進(jìn)行非線性變換,再由決策層進(jìn)行決策,最后生成分類結(jié)果。

由于支持向量機(jī)一般只能實(shí)現(xiàn)兩類模式的劃分,本實(shí)驗(yàn)可以構(gòu)造3個(gè)SVM分類器,采用交叉驗(yàn)證法確定3個(gè)分類器所用的內(nèi)積核函數(shù),即使用徑向基核函數(shù)(rbf),其結(jié)構(gòu)及參數(shù)如圖2所示。徑向基核參數(shù)

K(X,Xi)=exp(-γ‖xi-xj‖2),γ>0

(15)

圖2 分類器結(jié)構(gòu)

4 實(shí)驗(yàn)結(jié)果及分析

本文采用的人群圖像是校園內(nèi)拍攝的人群視頻,從視頻中抽幀得到的圖像序列,共400幅。將這400幅圖像分成4類,即低、中低、中高和高,每類100幅,再將100 幅分為訓(xùn)練樣本和測(cè)試樣本2組。

4.1 背景重建實(shí)驗(yàn)

圖3為視頻圖像中的一幀,圖4是通過(guò)傳統(tǒng)混合高斯模型建模后的人群圖像,圖5 是本文算法提取的人群圖像。

圖3 原圖

圖4 傳統(tǒng)混合高斯模型檢測(cè)結(jié)果

圖5 本文算法檢測(cè)結(jié)果

通過(guò)實(shí)驗(yàn)說(shuō)明,傳統(tǒng)混合高斯模型雖然可以較精確得重建背景,但由于人群的陰影會(huì)產(chǎn)生誤檢,且當(dāng)人群移動(dòng)緩慢時(shí)會(huì)被誤判為背景。本文使用的改進(jìn)方法,可以有效改善誤檢和漏檢情況,較清楚地提取了人群二值圖。

4.2 人群密度估計(jì)結(jié)果

表1是為本文方法的分類結(jié)果,表2是使用傳統(tǒng)混合高斯模型和灰度共生矩陣的分類結(jié)果。

表1 本文方法實(shí)驗(yàn)分類結(jié)果

表2 基于傳統(tǒng)高斯模型和灰度共生矩陣分類結(jié)果

通過(guò)對(duì)比表1和表2可以看出,本文方法對(duì)人群分類的準(zhǔn)確率有較大提高。分析其原因是,對(duì)混合高斯模型背景建模的方法進(jìn)行改進(jìn)后,提取的人群二值圖像更清晰,故對(duì)圖像紋理特征量的提取誤差較小。另外,本文算法也提高了人群密度估計(jì)的效率,使人群密度監(jiān)控的實(shí)時(shí)性得到滿足。

5 結(jié)束語(yǔ)

本文使用了基于改進(jìn)混合高斯模型的人群密度估計(jì)方法。在背景建模初始階段使用差分法分割出運(yùn)動(dòng)區(qū)域,使用不同區(qū)域賦予不同權(quán)重的更新策略,可以克服漏檢和誤檢,提高了檢測(cè)精度。得到人群二值化圖像后,使用基于灰度共生矩陣算法提取圖像紋理特征,以支持向量機(jī)構(gòu)成分類器,對(duì)采集的400幅圖像進(jìn)行實(shí)驗(yàn)驗(yàn)證,結(jié)果證明,該方法有效提高了分類的準(zhǔn)確率。本文方法的軟件還需進(jìn)一步優(yōu)化,以便滿足實(shí)際應(yīng)用的需要。

[1] Davies A C,Yin J H,Velastin S,et al.Chowmonitoring using image processing[J].IEEE Electronics and Communication Engineering Journal,1995,7(1):37-47.

[2] Chow T W S,Cho S Y.Industrial neural vision system for underground railway station platform surveillance[J].Advance Engineering Informatics,2002,9(16):73-83.

[3] Marana A N,Velastin S A,Costa L F,et al.Automatic estimation of crowd density using texture[J].Safety Science,1998,28(3):165-175.

[4] 胡波,李曉華,沈蘭蓀.場(chǎng)景監(jiān)控中的人群密度估計(jì)[J].電路與系統(tǒng)學(xué)報(bào),2007,12(6):119-220.

[5] He Xinhua, Zhao Long.Moving object real-time detection and tracking based on improved Gaussian mixture model[J].Application Research of Computers,2010,27(12):4768-4771.

[6] 王靜靜,林明秀,魏穎.基于灰度相關(guān)的幀間差分和背景差分相融合的實(shí)時(shí)目標(biāo)檢測(cè)[J].中國(guó)大學(xué)學(xué)報(bào),2009,40(1):143-148.

[7] 劉福美,黎寧,張燕,等.一種基于圖像處理的人群密度估計(jì)方法[J].計(jì)算機(jī)與數(shù)字工程,2011,39(5):118-122.

[8] 宋雪樺,陳瑜,耿劍鋒,等.基于改進(jìn)的混合高斯背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)工程與設(shè)計(jì),2010,31(21):4646-4649.

[9] Wang Xiaofeng, Wang Jihua, Wang Yuanpeng, et al. Moving target detecting algorithm based on mixture Gaussian model and subtraction[J].Journal of Chinese Computer Systems,2013,34(3):685-688.

[10] 高程程,惠曉威.基于灰度共生矩陣的紋理特征提取[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2010,19(6):195-196.

[11] 林沁.基于灰度共生矩陣和光流法的人群異動(dòng)事件檢測(cè)[J].計(jì)算機(jī)與現(xiàn)代化, 2014,223(3):114-118.

[12] 顧彬,鄭關(guān)勝,王建東.增量和減量式標(biāo)準(zhǔn)支持向量機(jī)的分析[J].軟件學(xué)報(bào),2013,24(7):1601-1613.

[13] 朱海龍,劉鵬,劉家峰,等.人群異常狀態(tài)檢測(cè)的圖分析方法[J].自動(dòng)化學(xué)報(bào),2012,38(5):743-750.

[14] 覃勛輝,王修飛,周曦,等.多種人群密度場(chǎng)景下的人群計(jì)數(shù)[J].中國(guó)圖像圖形學(xué)報(bào),2013,18(4):393-398.

[15] 任克強(qiáng),張盼華,謝斌.自適應(yīng)學(xué)習(xí)的混合高斯模型運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2014,35(3):969-974.

[16] 王思思,任世卿.一種改進(jìn)的基于混合高斯模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].計(jì)算機(jī)科學(xué),2015,42(11A):173-178.

Crowd Density Estimation Based on Improved Gaussian Model

AN Xining

(School of Electronic and Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China)

In view of the video monitoring system of crowd density estimation problem, a crowd density estimation method based on improved Gaussian mixture model and the grey level co-occurrence matrix is proposed. At the beginning of the background modeling, the motion region is discriminated by the differential method, and different update rates are given to different areas to avoid the missed and false detection. The crowd density features are extracted by employing grey level co-occurrence matrix, and the support vector machine is employed to identify the level of the crowd density. Experimental results show that the method improves the accuracy of crowd density estimation in the video monitoring.

crowd density estimation; Gaussian mixture model; grey level co-occurrence matrix; support vector machine

2016- 06- 20

安曦寧(1992-),女,碩士研究生。研究方向:圖像分析與處理。

10.16180/j.cnki.issn1007-7820.2017.05.049

TP391.41

A

1007-7820(2017)05-180-04

猜你喜歡
密度估計(jì)高斯共生
小高斯的大發(fā)現(xiàn)
m-NOD樣本最近鄰密度估計(jì)的相合性
面向魚眼圖像的人群密度估計(jì)
基于MATLAB 的核密度估計(jì)研究
科技視界(2021年4期)2021-04-13 06:03:56
人與熊貓 和諧共生
共生
優(yōu)生共生圈培養(yǎng)模式探索
天才數(shù)學(xué)家——高斯
優(yōu)生共生圈培養(yǎng)模式探索
有限域上高斯正規(guī)基的一個(gè)注記
河北省| 安塞县| 左权县| 吉木萨尔县| 阜阳市| 时尚| 莲花县| 青海省| 霞浦县| 工布江达县| 大悟县| 湟中县| 柳林县| 云霄县| 湘潭县| 拉萨市| 龙井市| 毕节市| 西昌市| 娱乐| 唐山市| 泰来县| 建德市| 龙海市| 子洲县| 六盘水市| 萨迦县| 石棉县| 紫金县| 神农架林区| 浪卡子县| 雅江县| 弋阳县| 东丽区| 泸西县| 鄂托克前旗| 千阳县| 栾城县| 甘孜| 鹿泉市| 珲春市|