国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于匹配反饋量改進GMM 的前景檢測算法

2015-12-23 00:59:14王宏偉
計算機工程與設計 2015年5期
關鍵詞:高斯分布像素點高斯

王宏偉,李 超

(遼寧工程技術大學 電氣與控制工程學院,遼寧 葫蘆島125105)

0 引 言

目前,主流的運動目標檢測方法有光流法[1]、幀差法[2]和背景差分法[3]等。光流法計算較為復雜,需多次迭代運算,難以實現(xiàn)實時檢測,且對噪聲較為敏感,實際應用較少采用;幀差法雖然適合動態(tài)變化的場景,且運算速度快,但對運動速度緩慢和靜止的物體,不能完整地檢測出運動目標,易產(chǎn)生空洞,檢測效果不理想。背景差分法利用當前幀圖像與背景模型相減捕獲運動目標,方法簡單易實現(xiàn),只需建立良好的背景模型,就能較完整地對監(jiān)控場景的運動目標進行有效檢測,運算量較小,可以滿足實時性要求。近年來相關學者也提出一些新的目標檢測與跟蹤方法,例如基于軟特征目標跟蹤方法[4]、高斯混合概率假設密度濾波器多目標跟蹤方法[5]和基于曲量場空間的車牌定位與識別方法[6]。Kan等[7]將高斯背景模型的更新過程分為若干階段,并采用不同的策略進行更新;Tang 等[8]利用重新對背景模型初始化的方法應對突發(fā)光變的情況;李剛等[9]引入更新和消退控制因子改進參數(shù)更新模型,提高了背景形成速度及對背景和光照變化的抗干擾能力;劉鑫等[10]融合GMM 和幀差法,并將圖像分為3種區(qū)域,對運動區(qū)不新建高斯分布,減弱了慢速運動物體對背景的影響;張琨等[11]提出一種基于切比雪夫不等式的自適應閾值背景建模算法,提高了背景圖像提取速度,降低了背景分割誤差。

本文針對傳統(tǒng)混合高斯模型的學習速率和背景模型閾值為固定值,不能有效適應變化復雜場景的問題,根據(jù)一段時間內背景模型與像素點的連續(xù)匹配情況,對背景模型閾值進行動態(tài)調整,穩(wěn)定背景區(qū)域采用較小的閾值,活躍區(qū)域取較大的閾值,并按照不同匹配情況對學習速率進行反饋調節(jié),從而達到選取最優(yōu)模型個數(shù)以及快速適應復雜變化場景的目的。

1 傳統(tǒng)混合高斯模型

混合高斯背景建模算法[4]為視頻序列中每個像素點建立一組由多個高斯分布混合疊加的背景模型。將視頻序列作為算法的輸入,對于某一點 (x,y)其時間序列 {X1,……,Xt}可以用K (一般為3 到5)個高斯模型疊加描述,其中Xt為t時刻像素點 (x,y)的像素值。Xt的概率密度函數(shù)為

需要注意的是,Xt通常為一個d 維向量 (d=1時,對應灰度圖像中的像素點;d=3時,對應RGB 三通道彩色圖像中的像素點)。為了減少計算量,式 (2)中的協(xié)方差矩陣通常轉化為

式中:I——單位矩陣。式 (3)假設Xt各維間相互獨立,這樣可以避免矩陣求逆時的大量計算。

如上所述,K 個高斯分布可以描述點 (x,y)在最近一段時間的像素值變化。而新觀察值可被用來更新背景模型,并可能成為背景模型的一個分量。背景模型的詳細處理步驟如下:

(1)背景模型初始化:將第一幀圖像的像素值作為高斯模型均值,自定義一個較大方差σ0和一個較小權值ω0。

(2)觀察值匹配:將新一幀像素點的觀察值Xt與該點K 個高斯分布依次比對。若滿足式 (4),則稱Xt與第i 個分布匹配,即被視為背景點,反之則為前景點

式中:D——置信參數(shù),一般取2~3;μi,t-1 和σi,t-1——第i個高斯分布在t-1時刻的均值和標準差。

當發(fā)生匹配時,更新與之匹配的高斯模型;若當前觀察值與所有K 個分布皆不匹配,將權值最低的高斯模型用一個新模型替換。新模型的均值即為當前觀察值,并將其初始化一個較大的方差和一個較小的權值。

(3)參數(shù)更新:對t時刻的K 個高斯分布的權值ωi,t進行更新,即

式中:α——權值的學習速率,一般取0.005。Mi,t——偏置,當觀察值與第i個分布匹配時取1,當觀察值沒有與第i個分布匹配取0。更新完畢后,需要將K 個權值歸一化。未匹配到的分布參數(shù)μ和σ維持不變,匹配到的分布參數(shù)按下式更新

式中:ρ——均值與方差的學習速率,即

(4)分布排序:將K 個分布按照ω/σ的優(yōu)先權值從大到小排序,保證最有可能是高斯分布在前而最沒可能的排在最后,最終會被新的分布所取代。

(5)生成新背景模型:選取前B 個分布構成新背景模型,B 的取值為

式中:B——滿足括號中不等式成立的最小b 值?;旌细咚鼓P偷拈撝礣 (一般取0.7~0.8)的選取影響構成背景模型高斯分布個數(shù),若T 較小,背景模型高斯分布數(shù)較少,甚至可能退化成單高斯模型;若T 較大,高斯分布數(shù)較多,背景模型可較好地描述復雜變化的場景,但增加了計算量。

執(zhí)行完畢以上步驟即完成點 (x,y)的前景提取和背景更新過程,對視頻幀中的每個像素點重復執(zhí)行以上步驟即完成一幀圖像的前景提取和背景更新過程。

2 改進的背景建模算法

2.1 傳統(tǒng)模型存在的問題

通過對傳統(tǒng)混合高斯模型的研究,發(fā)現(xiàn)該模型在實際場景中有以下不足之處:

(1)傳統(tǒng)方法中,模型閾值T 是固定值,圖像中像素點用相對恒定的K 個高斯模型來描述。但監(jiān)控場景中存在相對穩(wěn)定區(qū)域和相對活躍區(qū)域,對不同區(qū)域采用相同模型個數(shù),會造成匹配時間的浪費。

(2)固定的學習速率α不能滿足復雜變化場景的模型參數(shù)更新。當場景活躍時,若學習速率取值過小則背景模型更新速率慢,滯后于場景的變化;當場景穩(wěn)定時,若學習速率取值過大則導致背景模型更新速率快,易對背景模型造成 “污染”。

2.2 改進算法

(1)閾值T 自適應調整:根據(jù)實際情況對不同區(qū)域像素點疊加不同高斯分布個數(shù),減少穩(wěn)定區(qū)域高斯分布個數(shù)來降低程序運算量,增大活躍區(qū)域高斯分布個數(shù)以提高對監(jiān)控場景的適應能力。

當Δt時間內連續(xù)匹配次數(shù)PY≥TG時,對閾值T 動態(tài)調整方法如下

當Δt時間內連續(xù)不匹配次數(shù)PN≥TF時,對閾值T動態(tài)調整方法如下

式 (10)、式 (11)中,Ti+1為新閾值,Ti為原閾值,ωk+1為連續(xù)不匹配時新增高斯模型權重,k當前高斯模型個數(shù),K 為傳統(tǒng)高斯模型限制的最大模型個數(shù),m 為模型個數(shù)控制因子,K+m 為新最大模型個數(shù),K-m 為模型最小個數(shù),TG為匹配次數(shù)閾值,TF為不匹配次數(shù)閾值。當PY≥TG且k= (K-m)時,說明當前模型個數(shù)達到最小值,閾值保持不變;當PY≥TG且k> (K-m)時,刪除第k 個高斯分布,并對權值進行歸一化處理,閾值Ti+1為前k-1個高斯分布權值之和減去10-4。當PN≥TF且k= (K+m)時,模型個數(shù)達到最大值,閾值不變;當PN≥TF且k< (K+m)時,說明像素點長期不能與背景模型匹配,這時需新增一個高斯分布,并設定一個較大權值,均值為當前像素值,并初始化一個較大的方差。

(2)學習速率反饋調節(jié):根據(jù)每個像素點與其對應的混合高斯模型在Δt時間內的匹配和不匹配次數(shù)作為反饋量的修整信息,不斷更新模型的學習速率。方法如下

式 (12)和式 (13)中:α為原學習速率,α1為更新后學習速率,ΔF 為反饋量,cntN和cntY分別為像素點不匹配和匹配次數(shù),初始值均為0。學習率更新后,cntN和cntY重置為0,λ為強化系數(shù)。當cntN>β (cntN+cntY)時(0<β<1),說明場景中可能出現(xiàn)運動目標或是背景擾動較大,此時應增大學習速率,ΔF>0。當cntN<<cntY(即cntN≤β (cntN+cntY))時,說明背景趨于穩(wěn)定狀態(tài),此時應減小學習速率,ΔF<0。λ取值方式如下

式中:當cntN>β (cntN+cntY)時,若cntN與cntY差值越大,λ取值越大,學習率增加越多;cntN與cntY差值越小,λ取值相對減小,學習率增加量也相對減少。當cntN≤β (cntN+cntY)時,匹配數(shù)量遠大于不匹配數(shù)量,cntY與cntN差值越大,說明現(xiàn)有背景模型建模效果越好,學習率減少越多;相反,減少越少。

3 實驗結果分析

內存為4.00GB的筆記本電腦為實驗平臺, 以OpenCV2.4.4開源計算機視覺庫和微軟Microsoft Visual Studio 2010 為測試工具,在網(wǎng)站上選取相關視頻作為測試數(shù)據(jù),視頻幀率為25 幀/秒,大小為320×240,與C.Stauffer等提出的傳統(tǒng)混合高斯背景建模方法做比較實驗。傳統(tǒng)混合高斯模型最大模型個數(shù)K 設為5,學習速率α為0.005,高斯模型均值初始化為第一幀輸入圖像像素值,自定義其方差σ 為6,置信參數(shù)D 為2.5,模型比例參數(shù)T為0.75。本文方法檢測時間間隔Δt為100幀、連續(xù)匹配次數(shù)閾值TG為75、連續(xù)不匹配次數(shù)閾值TF為30、模型個數(shù)控制因子m 為3,β為0.1,其它參數(shù)與傳統(tǒng)方法相同。實驗分別對車輛和行人視頻第50、140、230、375 幀檢測結果進行比對,結果如圖1、圖2 所示。從圖1 可以看出,本文方法在第50幀時,由于仍在首次檢測時間間隔內,所以檢測效果與傳統(tǒng)方法相同,當?shù)?00幀以后,參數(shù)得到更新,在第140、230、375 幀均沒有之前車輛殘留,并且目標個數(shù)檢測準確。傳統(tǒng)方法在第375幀時,之前殘留車輛才基本消除,較本文方法含有更多的噪聲。圖2原圖黑色方框中人物位置不變,但有些許晃動,應算為背景,從檢測結果來看,本文方法對背景輕微變動不敏感,且檢測輪廓比傳統(tǒng)方法清晰,能夠盡快地消除之前運動目標殘留。

檢測結果查全率 (recall rate)、查準率 (precision rate)見表1,計算方法如下

式中:ff 代表錯誤的前景點數(shù);tf 代表正確的前景點數(shù);fb代表錯誤的背景點數(shù);(tf+fb)表示真實前景圖像中的前景點總數(shù)。(tf+ff)表示檢測出的前景點總數(shù),兩項指標均越大越好,且構成的坐標點離點 (1,1)越近越好,這里用四組兩點間的平均歐式距離來衡量。從表1可以看出,本文方法針對車輛和行人兩種場景的平均歐式距離均小于傳統(tǒng)方法,所以本文方法更優(yōu)。

4 結束語

混合高斯模型中學習速率α和背景模型閾值T 是模型中兩個重要參數(shù),對兩個參數(shù)采取不同的自適應調節(jié)機制,直接影響模型的穩(wěn)定性、精確性和收斂性。根據(jù)像素點的匹配情況,將監(jiān)控場景分別在時間和空間上進行劃分。根據(jù)場景活躍與穩(wěn)定的不同情況,實現(xiàn)閾值T 和學習速率α的自適應調節(jié)。實驗結果表明,改進后的混合高斯模型彌補了傳統(tǒng)混合高斯模型的不足,增強了模型對復雜的監(jiān)控場景的適應能力。

圖1 車輛視頻前景檢測

圖2 行人視頻前景檢測

表1 查準率與查全率統(tǒng)計

表1 (續(xù))

[1]ZHANG Jiawei,ZHI Ruifeng.Comparative analysis of optical flow algorithms [J].Modern Electronics Technique,2013,36 (13):39-42 (in Chinese).[張佳威,支瑞峰.光流算法比較分析研究 [J].現(xiàn)代電子技術,2013,36 (13):39-42.]

[2]XU Jing,ZHANG He,ZHANG Xiangjin.IR motive detection using image subtraction and optical flow [J].Computer Simulation,2012,29 (6):248-252 (in Chinese).[許敬,張合,張祥金.基于幀間差分和光流法的紅外圖像運動檢測[J].計算機仿真,2012,29 (6):248-252.]

[3]HAO Haogang,CHEN Jiaqi.Moving object detection algorithm based on five frame difference and background difference[J].Computer Engineering,2012,38 (4):146-148 (in Chinese).[郝毫剛,陳家琪.基于五幀差分和背景差分的運動目標檢測算法 [J].計算機工程,2012,38 (4):146-148.]

[4]Jiang Wentao,Liu Wanjun,Yuan Heng.Research of object tracking based on soft feature [J].International Journal for Light and Electron Optics,2013,124 (20):4292-4295.

[5]LV Xuebin,ZHOU Qunbiao,CHEN Zhengmao,et al.The Gaussian mixture probability hypothesis density filter and its application to multi-target tracking [J].Chinese Journal of Computers,2012,35 (2):397-403 (in Chinese). [呂學斌,周群彪,陳正茂,等.高斯混合概率假設密度濾波器在多目標跟蹤中的應用 [J].計算機學報,2012,35 (2):397-403.]

[6]JIANG Wentao,LIU Wanjun,YUAN Heng.Vehicle license plate locating and identifying based on the curved field space[J].Chinese of Journal Electronics,2011,39 (11):2554-2560 (in Chinese). [姜文濤,劉萬軍,袁姮.基于曲量場空間的車牌定位與識別[J].電子學報,2011,39 (11):2554-2560.]

[7]Liu Zhou,Huang Kaiqi,Tan Tieniu.Foreground object detection using top-down information based on EM framework[J].IEEE Ttransactions on Image Processing,2012,21 (9):4204-4217.

[8]Li Keyi,Tang Jun,Du Xiaofeng.Background modeling method based on improved multi-Gaussian distribution [C]//Proceedings of IEEE lnternational Conference on Computer Application and System Modeling.Taiyuan:IEEE,2010:214-218.

[9]LI Gang,HE Xiaohai,ZHANG Shengjun,et al.Improved moving objects detection method based on GMM [J].Application Research of Computers,2011,28 (12):4738-4741 (in Chinese).[李剛,何小海,張生軍,等.改進的基于GMM 的運動目標檢測方法[J].計算機應用研究,2011,28 (12):4738-4741.]

[10]LIU Xin,LIU Hui,QIANG Zhenping,et al.Adaptive background modeling based on mixture Gaussian model and frame subtraction [J].Journal of Image and Graphics,2008,13(4):729-734 (in Chinese).[劉鑫,劉輝,強振平,等.混合高斯模型和幀間差分相融合的自適應背景模型 [J].中國圖象圖形學報,2008,13 (4):729-734.]

[11]ZHANG Kun, WANG Guirong, WAN Cong.Adaptive threshold background modeling algorithm based onchebyshev inequality [J].Computer Science,2013,40 (4):287-291(in Chinese).[張琨,王翠榮,萬聰.一種基于切比雪夫不等式的自適應閾值背景建模算法 [J].計算機科學,2013,40 (4):287-291.]

猜你喜歡
高斯分布像素點高斯
小高斯的大發(fā)現(xiàn)
利用Box-Cox變換對移動通信中小區(qū)級業(yè)務流量分布的研究
2種非對稱廣義高斯分布模型的構造
天才數(shù)學家——高斯
基于canvas的前端數(shù)據(jù)加密
一種基于改進混合高斯模型的前景檢測
基于逐像素點深度卷積網(wǎng)絡分割模型的上皮和間質組織分割
有限域上高斯正規(guī)基的一個注記
基于Node-Cell結構的HEVC幀內編碼
電視技術(2014年11期)2014-12-02 02:43:28
一種改進的混合高斯模型背景估計方法*
丰顺县| 怀宁县| 保靖县| 梁河县| 水城县| 漳浦县| 故城县| 黑水县| 延边| 修武县| 桓仁| 许昌市| 务川| 玉屏| 明光市| 远安县| 大渡口区| 靖江市| 兴国县| 都昌县| 南平市| 都江堰市| 平江县| 尼玛县| 金阳县| 肇庆市| 怀远县| 康平县| 疏勒县| 渝中区| 农安县| 大化| 庆元县| 白沙| 南岸区| 山东| 清丰县| 威远县| 夏邑县| 郎溪县| 宝应县|