崔 瑩,陳升東,袁 峰,李 引
(廣州中國科學(xué)院軟件應(yīng)用技術(shù)研究所,廣東 廣州 511458)
隨著攝像頭安裝數(shù)量的日益增多,以及智慧城市和公共安全需求的日益增長,采用人工視頻監(jiān)控方式已經(jīng)遠遠不能滿足需要,因此智能視頻監(jiān)控技術(shù)應(yīng)運而生并迅速成為一個研究熱點[1]。在實際應(yīng)用中,對室外環(huán)境的行人進行檢測監(jiān)控一直是研究的難點,這是因為室外環(huán)境復(fù)雜多變,存在光照變化、樹葉搖晃、小動物(尤其是夜間燈光引來的飛蟲)等多種干擾。
目前最具影響力的行人檢測方法是由Dalal等人[2]提出的HOG結(jié)合支持向量機(Support Vector Machine,SVM)分類器的方法。HOG描述圖像的局部邊緣梯度信息,對小量的偏移和光照變化具有很好的魯棒性,缺點是維度較高,以致其提取速度很慢,計算時間比較長,影響實時性[3]。
針對動態(tài)視頻識別應(yīng)用場景,有學(xué)者提出將前景提取與行人識別相結(jié)合從而提高行人檢測速度的方法,該方法是采用現(xiàn)有的某種前景檢測算法提取圖像中的感興趣區(qū)域(Region of Interesting,ROI),然后在此區(qū)域中通過HOG特征進行行人識別[4-5],該方法能夠提高行人檢測速度。常用的前景檢測方法有:背景差分法[6]、幀間差分法[7]、光流法[8]、混合高斯背景建模法[9]、視覺背景抽取法(Visual Background Extractor,ViBe)[10]等。背景差分法和幀間差分法在復(fù)雜的環(huán)境中適應(yīng)性不強,光流法計算復(fù)雜度較高,而應(yīng)用較為廣泛的混合高斯背景建模法也存在計算復(fù)雜、不適應(yīng)變化較快的背景等問題。ViBe方法是一種高效的像素級背景建模算法,運算速度快且具有較強的魯棒性[11]。然而ViBe方法存在以下3個缺點:1)該方法對由靜轉(zhuǎn)動的目標(biāo)存在“鬼影”現(xiàn)象;2)在室外噪聲場景下存在不規(guī)則閃爍像素點(樹枝搖擺等噪聲導(dǎo)致),對前景檢測結(jié)果造成干擾[12];3)對于光線突變等較大程度的背景變化存在背景模型更新速度較慢、適應(yīng)性不強的問題。
文獻[13-14]利用幀差與ViBe這2種方法共同檢測前景目標(biāo),快速去除ViBe產(chǎn)生的“鬼影”。文獻[15]采用三幀差分法對視頻進行預(yù)處理,避免鬼影的產(chǎn)生。文獻[16]通過統(tǒng)計像素幀差的時域變化判斷鬼影像素,提高消除鬼影的速度。然而以上方法在檢測行人目標(biāo)時,目標(biāo)的完整度會受到影響,從而會進一步影響基于HOG的行人識別結(jié)果。
為了減弱閃爍像素的影響,文獻[17]提出通過檢測像素點是否經(jīng)常在前景與背景之間切換來判斷其是否為閃爍像素。該方法容易將行動緩慢的行人前景目標(biāo)的邊緣像素誤判為閃爍像素。文獻[18]提出通過形態(tài)學(xué)操作來處理閃爍像素噪聲,然而該方法在消除閃爍像素噪聲的同時,也提高了將前景目標(biāo)部分有效區(qū)域消除的概率,影響行人識別準(zhǔn)確率。
為了提高在復(fù)雜環(huán)境中的檢測準(zhǔn)確度,文獻[19]提出自適應(yīng)參數(shù)法,根據(jù)每個像素點背景模型的標(biāo)準(zhǔn)差,動態(tài)設(shè)置每個像素的閾值。但這個方法的計算量太大,檢測速度很慢。
在以上學(xué)者研究的基礎(chǔ)上,本文提出一種基于改進ViBe的室外行人檢測方法,該方法在前景提取過程中采用基于區(qū)域的改進ViBe更新策略,并采用背景差的方法過濾復(fù)雜多變背景導(dǎo)致的誤報區(qū)域,最后在此基礎(chǔ)上進行策略性的行人識別,該方法充分結(jié)合了前景提取與行人識別方法的優(yōu)勢,在室外復(fù)雜場景行人檢測中具有較高的準(zhǔn)確率和魯棒性。
ViBe算法由以下3個步驟組成:背景模型初始化、背景模型更新和前景檢測。
1.1.1 背景模型初始化
首先根據(jù)視頻第一幀圖像建立ViBe背景模型:對第一幀圖像的每個像素x根據(jù)一定規(guī)則選取樣本點,從而建立樣本集Mt(x)。樣本點的選取規(guī)則為,隨機選擇該像素及其鄰域的像素共N個,第i個樣本值用vi表示,則x的樣本集Mt(x)表示如下:
Mt(x)={v0,v1,…,vN-1}
(1)
1.1.2 背景模型更新
ViBe算法中當(dāng)某個像素點被檢測為背景時,它有一定幾率更新背景模型。
首先該點有1/φ的概率更新到該點對應(yīng)的背景模型樣本集Mt(x)中,其次,出于像素點空間傳播特性的考慮,該點同樣有1/φ的概率更新到其領(lǐng)域點對應(yīng)的背景模型樣本集中。
以上的背景模型樣本集更新采用隨機選擇的方法,概率為1/φ(其中φ為視頻采樣率),那么在經(jīng)過時間dt后,該樣本依然保留在背景模型中的概率[11]為:
(2)
可以看到該樣本依然保留在背景模型中的概率呈指數(shù)遞減,樣本點的更新與時間無關(guān),這種無記憶的保守更新策略有利于提高背景模型的適應(yīng)性。
1.1.3 前景檢測
當(dāng)前幀與背景模型比較的過程如圖1所示,計算x的像素值v(x)與背景模型樣本集中每一個樣本vi之間的距離,若該距離小于半徑R,則認(rèn)為v(x)與背景模型樣本點vi匹配。最后通過匹配的樣本個數(shù)若大于設(shè)定的閾值#min則判斷v(x)為背景,反之則為前景。
圖1 前景檢測對比模型圖
HOG特征描述的是圖像的邊緣輪廓特征,是比較有效的行人特征描述方式,其提取方法包括以下步驟:
步驟1標(biāo)準(zhǔn)化伽馬空間和顏色空間;
步驟2計算像素梯度;
步驟3將梯度投影到單元格的梯度方向;
步驟4將所有單元格在塊上進行歸一化;
步驟5生成HOG特征向量。
將以上步驟產(chǎn)生的HOG特征向量引入到SVM分類器中,即可進行行人識別。
SVM分類器的主要思路是利用核函數(shù)將向量與高維空間形成一定的映射關(guān)系,在這個高維空間中,找到能夠使不同類別樣本之間的距離最大的超平面。支持向量機的核心就是找到能使2類樣本距離最大化,并保證錯分樣本最小化的超平面。
本文設(shè)計了能夠適應(yīng)室外復(fù)雜環(huán)境的行人檢測方法,算法的流程如圖2所示。
圖2 算法流程圖
1)輸入視頻序列,壓縮視頻幀。
采用雙線性插值法將視頻畫面尺寸壓縮為720×480的D1標(biāo)準(zhǔn)幀圖像,后續(xù)算法均在此D1標(biāo)準(zhǔn)幀圖像上進行,減少算法的計算時間。
2)ViBe檢測、幀差檢測。
分別采用ViBe前景檢測方法以及幀間差分前景檢測方法對當(dāng)前幀進行前景檢測,得到2種檢測方法的前景目標(biāo)區(qū)域結(jié)果。
3)基于區(qū)域的背景更新。
采用本文提出的基于區(qū)域的改進ViBe更新策略,整合2種檢測方法的前景檢測結(jié)果,并更新算法背景模型。首先綜合2種前景檢測結(jié)果的區(qū)域與時域變化,對像素類別進行標(biāo)注;然后采用自適應(yīng)參數(shù)策略,對ViBe背景模型進行更新。
4)基于背景差的前景目標(biāo)篩選。
室外場景復(fù)雜多變,在前景目標(biāo)檢測結(jié)果中容易出現(xiàn)誤報區(qū)域,本文采用基于背景差的方法對ViBe前景目標(biāo)檢測結(jié)果進行篩選,得到當(dāng)前幀最終的前景目標(biāo)檢測結(jié)果。
5)對前景目標(biāo)進行跟蹤。
采用高效且高精度的meanshift方法,對當(dāng)前幀的前景目標(biāo)進行跟蹤。
6)判斷當(dāng)前幀的每一個前景目標(biāo)跟蹤對象是否滿足算法實時性策略邏輯規(guī)則(規(guī)則詳見2.4節(jié)),如果滿足則對其進行行人檢測,即從前景目標(biāo)區(qū)域中提取HOG特征,并利用SVM分類器對HOG特征進行行人檢測。
本文采用如上算法對室外復(fù)雜環(huán)境的視頻進行行人檢測,該算法主要在2個方面進行創(chuàng)新:1)在前景檢測與更新過程中,采用基于區(qū)域的改進ViBe更新策略,該策略在加快鬼影消除速度的同時,提高了行人目標(biāo)提取的完整度;2)在ViBe前景檢測之后,算法采用基于背景差的方法對ViBe前景檢測結(jié)果進行過濾,最終得到的前景目標(biāo)檢測結(jié)果在一定程度上降低了復(fù)雜多變背景導(dǎo)致的誤報區(qū)域。最后本文算法為保證實時性,通過相應(yīng)的實時性策略進行算法提速,在室外復(fù)雜場景具有較高的準(zhǔn)確率和魯棒性。
ViBe是基于樣本的背景模型,在背景建模和背景更新時引入了隨機選擇機制,使背景中樣本的生命周期更符合實際分布規(guī)律,降低了算法計算量,提高了目標(biāo)的檢測速度和檢測精度。
但是當(dāng)視頻中存在由靜轉(zhuǎn)動的運動目標(biāo)時,ViBe會在前景檢測中將鬼影(鬼影是一組連接點的集合,它在運動中被檢測到,但是不對應(yīng)于任何真正移動的對象[20])誤檢為前景目標(biāo)。
為加快鬼影消除的速度,許多學(xué)者嘗試將幀差方法與ViBe方法相結(jié)合:
1)基于幀間差(或三幀差)與ViBe共同檢測行人目標(biāo)。例如,文獻[13-14]采用幀差與ViBe方法共同檢測前景目標(biāo),文獻[15]采用三幀差法進行預(yù)處理,避免鬼影形成。然而行人目標(biāo)的顏色通常較為單一,且運動速度不定甚至存在在小范圍區(qū)域徘徊的現(xiàn)象?;趲畹男腥四繕?biāo)提取方法容易產(chǎn)生內(nèi)部空洞甚至邊緣不完整的情況,雖然對三幀差分法進行了一定改進,但針對行人目標(biāo)的檢測仍然存在問題。基于幀間差(或三幀差)與ViBe共同檢測行人目標(biāo)的結(jié)果并不理想。
2)基于幀間差統(tǒng)計判斷鬼影像素。例如,文獻[16]就是通過統(tǒng)計像素幀差的時域變化判斷鬼影像素,ViBe算法將會加快“判斷為鬼影的像素”的背景模型更新速度。然而當(dāng)幀差提取目標(biāo)不完整時,真正前景的部分像素會被誤判為鬼影,導(dǎo)致前景目標(biāo)邊緣消融甚至大量滲入背景像素的現(xiàn)象。如圖3所示,為Wallflower數(shù)據(jù)集的MovedObject場景中的幀差結(jié)果,圖3(a)為行人快速運動的幀差結(jié)果(第645,646幀差結(jié)果),圖3(b)為行人緩慢運動的幀差結(jié)果(第655,656幀差結(jié)果),圖3(c)為行人徘徊運動的幀差結(jié)果(第659,660幀差結(jié)果)。
(a) 行人快速運動結(jié)果 (b) 行人緩慢運動結(jié)果
(c) 行人徘徊運動結(jié)果圖3 行人幀差檢測結(jié)果圖
行人目標(biāo)邊緣提取不完整會影響基于HOG的行人識別結(jié)果。因此本文提出基于區(qū)域的改進ViBe更新策略,該方法充分結(jié)合時間和空間的信息,在提高鬼影消除速度的同時保證行人目標(biāo)的完整性。
2.2.1 基于區(qū)域與時域變化的像素類別標(biāo)注
文獻[16]中判斷鬼影的方法為:如果某前景像素的前后2幀差值超過預(yù)設(shè)閾值時則對其進行統(tǒng)計,如果該現(xiàn)象連續(xù)發(fā)生超過預(yù)設(shè)次數(shù)時,則判斷其為鬼影像素。該方法統(tǒng)計單像素的時域變化,與鄰域擴散策略結(jié)合使用,能夠提高鬼影消除的速度。然而在檢測行人目標(biāo)時,由于行人速度不定且存在在小范圍區(qū)域徘徊的現(xiàn)象,單個像素的統(tǒng)計方法容易造成誤判,當(dāng)前景目標(biāo)中的部分像素被誤判為鬼影像素時,結(jié)合ViBe的鄰域擴散策略,這種誤判的影響范圍會逐漸擴大,從而進一步影響行人目標(biāo)檢測的完整性。
本文受文獻[16]啟發(fā),結(jié)合行人檢測的實際情況,提出基于區(qū)域和時域變化的像素類別標(biāo)注方法。具體方法如下:
Ft為視頻中第t幀,Gt為第t幀ViBe前景檢測結(jié)果,對其進行連通域檢測、丟棄過小連通域,得到ViBe前景區(qū)域圖Ht。
(3)
Jt為第t幀與第t-1幀的幀間差分前景檢測結(jié)果,對其進行連通域檢測、丟棄過小連通域,得到幀差前景區(qū)域圖Kt。
(4)
結(jié)合ViBe與幀差的前景區(qū)域檢測結(jié)果,得到像素類別標(biāo)注結(jié)果Lt。
(5)
此外,對于從Ht與Kt中提取的連通域,要在其四周增加10%的區(qū)域。這是因為行人目標(biāo)存在徘徊現(xiàn)象,其邊緣區(qū)域易被判斷為鬼影,擴大連通域范圍可以防止基于鄰域擴散的更新策略將行人目標(biāo)邊緣消融。
2.2.2 應(yīng)用自適應(yīng)參數(shù)的更新策略
傳統(tǒng)的ViBe方法采用如下更新策略:在判斷像素為前景狀態(tài)時不更新,在判斷像素為背景狀態(tài)時采用固定概率1/φ更新。然而如上文所述,本文將像素狀態(tài)分為3種:前景狀態(tài)、背景狀態(tài)以及鬼影狀態(tài)。像素處于某種狀態(tài)以及像素在不同狀態(tài)之間切換時均要有不同的更新方式,因此本文提出自適應(yīng)參數(shù)的更新策略如下:
為每個像素x設(shè)置一個計數(shù)器T(x),初始化為0,當(dāng)檢測像素為前景狀態(tài)時清零,當(dāng)檢測像素為鬼影狀態(tài)時加1計數(shù),當(dāng)檢測像素為背景時減10計數(shù)(T(x)不小于0),該過程用式(6)表示:
(6)
根據(jù)像素的狀態(tài)采用的更新策略如表1所示。
表1 應(yīng)用自適應(yīng)參數(shù)的更新策略
狀態(tài)更新策略前景不更新,設(shè)置計數(shù)器T(x)=0鬼影當(dāng)T(x)>Ω時,進行背景模型更新,更新概率為1(φ-Τ(x)/Ω),設(shè)置計數(shù)器T(x)=T(x)+1背景進行背景模型更新,更新概率為1(φ-Τ(x)/Ω),同時設(shè)置計數(shù)器(T(x)-10)>0?(T(x)-10):0
該更新策略既能夠在判斷像素為鬼影狀態(tài)后加快鬼影消除的速度,也能夠自適應(yīng)各個狀態(tài)之間的切換,防止鬼影誤判像素的鄰域擴散,防止背景滲入到前景中,保證行人檢測的完整性。
室外場景環(huán)境復(fù)雜,存在不規(guī)則閃爍像素,且背景環(huán)境會發(fā)生較大變化,例如樹枝大幅度搖晃、光線突變等,當(dāng)這些復(fù)雜噪聲大量地出現(xiàn)時,由于ViBe采用的是保守更新策略,無法迅速適應(yīng)這種變化,會對前景檢測結(jié)果造成干擾,因此仍需要其他機制對檢測到的前景目標(biāo)做進一步篩選。
本文在前景檢測過程中采用基于背景差的方法進行篩選,以提高算法對復(fù)雜背景的適應(yīng)性,該方法包括背景幀的初始化、背景幀的更新和背景差分圖的計算及前景目標(biāo)篩選3個部分。
2.3.1 背景幀的初始化
背景幀如果采用第一幀初始化則存在引入鬼影的風(fēng)險,因此應(yīng)采用多幀平均計算法得到的平均圖A進行初始化,同時創(chuàng)建背景幀更新掩碼mt。
對視頻前P幀進行多幀平均計算得到平均圖A,如式(7)所示:
(7)
2.3.2 背景幀的更新
從第P+1幀開始計算背景幀更新掩碼mt:
(8)
此處x判斷為前景或背景的依據(jù),來自基于改進ViBe的前景目標(biāo)提取結(jié)果。
然后根據(jù)更新掩碼對背景幀進行更新:
(9)
其中,Bt-1為前一幀的背景幀,Ct為最新Q幀圖像的平均幀,其計算方法如式(10)所示:
(10)
2.3.3 背景差分圖的計算及前景目標(biāo)篩選
首先計算背景差分圖,如式(11)所示:
Dt(x)=|Ft(x)-Bt(x)|
(11)
背景差分圖計算結(jié)果如圖4所示。
(a) 原圖 (b) 背景幀圖
(c) 整圖的背景差分圖圖4 背景差分圖的計算實例圖
前景目標(biāo)的篩選采用基于Otsu的方法,Otsu是一種高效的計算圖像分割閾值的方法,該方法基于最大類間原理,背景差分圖中前景目標(biāo)與背景的大小比例懸殊時,Otsu計算得到的閾值普遍較低,因此可以利用該方法判斷背景差分圖中是否存在明顯前景目標(biāo)。
目前最廣泛的行人檢測采用的是HOG特征與SVM相結(jié)合的算法,該算法在場景簡單的MIT行人數(shù)據(jù)庫上檢測率近乎100%,在背景較為復(fù)雜的INRIA行人數(shù)據(jù)上檢測率大約90%[16]。然而其時間復(fù)雜度較高,影響實時性,本文從實用性角度采用以下3個方面的提速方式:
1)在算法執(zhí)行之前對視頻進行壓縮處理;
2)在更新過程中,不再對每一個像素均進行幀間差分計算,而是根據(jù)ViBe的檢測結(jié)果有選擇地進行幀差計算;
3)不再對前景目標(biāo)跟蹤對象的每一個前景檢測結(jié)果都進行行人檢測,而是采用一定的邏輯規(guī)則選擇性地進行檢測。一方面行人檢測次數(shù)的減少可以較大幅度地提高算法實時性,另一方面根據(jù)一定的邏輯規(guī)則有選擇地執(zhí)行行人檢測,能夠保障跟蹤目標(biāo)的行人檢測準(zhǔn)確率。邏輯規(guī)則設(shè)計如下:
規(guī)則1對于前景目標(biāo)的前Y幀持續(xù)執(zhí)行行人檢測;
規(guī)則2從前景目標(biāo)的Y+1幀開始,以ω的頻率間歇執(zhí)行行人檢測;
規(guī)則3當(dāng)一個前景跟蹤對象的“累計成功檢測行人個數(shù)”達到閾值后,判斷該跟蹤對象為行人,即可停止執(zhí)行行人檢測。
本文算法實驗環(huán)境如下:處理器為Intel(R) Core(TM) i5-4590 CPU@3.30 GHz;內(nèi)存為8 GB;系統(tǒng)類型為64位;操作系統(tǒng)為Windows 7;運行環(huán)境為VS2008以及Opencv2.4.7。
本文算法中采用的參數(shù):背景模型中樣本個數(shù)N=8;前景檢測v(x)跟樣本vi的比較閾值R=20,前景檢測樣本匹配閾值#min=2;視頻采樣率φ=16;更新自適應(yīng)閾值Ω=50;背景幀初始平均幀數(shù)P=15;背景幀更新所需幀個數(shù)Q=10幀;前景行人識別邏輯閾值Y=16,頻率ω=3;“累計成功檢測行人個數(shù)”為3;前景篩選中的“前景判斷閾值”為30。
為了驗證在行人目標(biāo)提取過程中,基于區(qū)域的更新策略對鬼影區(qū)域消除以及徘徊行人提取的性能,本文采用文獻[16]提到的ChangeDetection數(shù)據(jù)集(來自http://www.changedetection.net)中的intermittentObjectMotion-winterDriveway場景進行實驗。詳細實驗結(jié)果如圖5所示。
(a) 第379幀結(jié)果對比圖
(b) 第520幀結(jié)果對比圖
(c) 第1028幀結(jié)果對比圖
(d) 第1839幀結(jié)果對比圖
(e) 第1969幀結(jié)果對比圖
(f) 第2015幀結(jié)果對比圖
由圖5的檢測結(jié)果可以看出:第379幀,鬼影包括早已出現(xiàn)的車輛雨刷移動鬼影以及剛剛出現(xiàn)的車輛前門移動鬼影,ViBe方法的處理結(jié)果中早已出現(xiàn)的雨刷鬼影像素仍然大量存在,文獻[16]改進ViBe方法的處理結(jié)果中雨刷鬼影像素消失了一部分,本文方法的處理結(jié)果中雨刷鬼影像素幾乎完全消失;從第379幀至第1028幀,行人目標(biāo)在車輛周圍徘徊掃雪,其中車輛被掃掉的雪為鬼影,徘徊的行人為前景,第520幀和第1028幀中,ViBe方法均將被掃掉的雪、行人目標(biāo)檢測為前景,文獻[16]改進ViBe方法均已將“被掃掉的雪導(dǎo)致的鬼影”消除了,但同時也讓大量的背景滲入到行人前景中,本文方法則在將“被掃掉的雪導(dǎo)致的鬼影”消除的同時,保持了比文獻[16]改進ViBe方法更高的行人目標(biāo)完整度;第1839幀,車輛離開產(chǎn)生鬼影,ViBe、文獻[16]改進ViBe方法、本文方法均需要開始消除鬼影,第1969幀,ViBe方法的處理結(jié)果中仍然存在大量的車輛鬼影像素,文獻[16]改進ViBe方法的處理結(jié)果中車輛移動鬼影像素消除了很多,本文方法的處理結(jié)果中車輛移動鬼影像素消除最多;第2015幀,本文方法已經(jīng)將鬼影基本消除,文獻[16]改進ViBe略有鬼影殘余,ViBe方法仍有大量鬼影。通過實驗可以看出,本文方法在行人目標(biāo)提取過程中,提高了鬼影消除速度的同時,也提高了行人目標(biāo)提取的完整度。
為了驗證本文提出的前景目標(biāo)篩選方法對復(fù)雜背景變化的適應(yīng)性,本文首先進行直觀的實驗圖對比分析。本文選取了2組室外復(fù)雜場景的視頻:第一個視頻為有行人經(jīng)過的視頻;第二個視頻為復(fù)雜場景(存在光照變化、草葉搖擺等現(xiàn)象)的視頻,詳細實驗結(jié)果如圖6所示。
(a) 一視頻原圖 (b) 二視頻原圖
(c) 一視頻前景檢測 (d) 二視頻前景檢測
(e) 一視頻背景差分圖 (f) 二視頻背景差分圖
如圖6所示,左側(cè)為行人視頻測試結(jié)果,右側(cè)為復(fù)雜場景視頻測試結(jié)果。當(dāng)有行人經(jīng)過時,改進ViBe算法的前景檢測結(jié)果如圖6(c)所示,按照本文所提的背景差分圖計算方法得到有明顯前景目標(biāo)的圖6(e),該圖能夠通過基于Otsu的前景篩選。而對于復(fù)雜場景視頻,雖然其前景檢測結(jié)果圖6(d)中存在大量的誤報區(qū)域,但是其背景差分圖6(f)中并無明顯前景目標(biāo),該誤報區(qū)域無法通過基于Otsu的前景目標(biāo)篩選。
其次,本文在公開數(shù)據(jù)集中進行精確的指標(biāo)評價,采用精確率和召回率作為算法結(jié)果的評價指標(biāo)。
精確率P:
(12)
TP為檢測正確的前景目標(biāo)個數(shù),F(xiàn)P為檢測錯誤的前景目標(biāo)個數(shù),即被檢測為前景的背景目標(biāo)個數(shù),因此TP+FP為檢測到的前景目標(biāo)個數(shù)。
召回率REC:
(13)
FN為檢測錯誤的背景目標(biāo)個數(shù),即被檢測為背景的前景目標(biāo)個數(shù),因此TP+FN為全部的前景目標(biāo)個數(shù)。
表2、表3為本文提出的改進ViBe算法與文獻[16]的改進ViBe算法的實驗對比結(jié)果,該實驗的測試視頻為ChangeDetection數(shù)據(jù)集中的dynamicBackground-fountain02場景,該視頻場景中包括噴泉、樹葉、水波等動態(tài)背景。
表2 文獻[16]算法與本文算法的精確率
幀號文獻[16]的改進ViBe算法基于區(qū)域的改進ViBe算法基于區(qū)域+前景目標(biāo)篩選的改進ViBe算法7330.8780.9520.992101117350.8840.9490.98682217370.8850.9540.996590367390.8710.9460.992340837410.8890.9610.998128227430.9550.9590.99548533
表3 文獻[16]算法與本文算法的召回率
幀號文獻[16]的改進ViBe算法基于區(qū)域的改進ViBe算法基于區(qū)域+前景目標(biāo)篩選的改進ViBe算法7330.6340.7710.7692947350.6390.7820.7822427370.6470.7990.7992197390.6450.8040.8041127410.6480.8050.8055147430.6440.7970.797468
由此可見本文提出的改進ViBe算法與文獻[16]的改進ViBe算法相比在精確率和召回率上均具有一定的提升。且通過表2、表3可以看出基于背景差的前景目標(biāo)篩選方法能夠在召回率變化很小的情況下,在一定程度上減少復(fù)雜場景導(dǎo)致的誤檢,提高其精確率。
表4、表5為本文提出的改進ViBe算法在dynamicBackground中overpass,canoe等其他測試視頻中的測試統(tǒng)計結(jié)果。
表4 本文算法在其他數(shù)據(jù)集的精確率
數(shù)據(jù)集基于區(qū)域的改進ViBe算法基于區(qū)域+前景目標(biāo)篩選的改進ViBe算法overpass0.7280.958canoe0.5790.904
表5 本文算法在其他數(shù)據(jù)集的召回率
數(shù)據(jù)集基于區(qū)域的改進ViBe算法基于區(qū)域+前景目標(biāo)篩選的改進ViBe算法overpass0.7310.726canoe0.5100.503
由結(jié)果可以看出,本文所提出的改進ViBe算法在其他復(fù)雜場景中具有類似性能。
為驗證本文算法綜合性能,本文首先實現(xiàn)基于文獻[16]改進ViBe的行人檢測算法(以下簡稱文獻[16]算法),將本文與文獻[16]算法分別從準(zhǔn)確率和實時性方面進行對比。由于本文研究的目標(biāo)為室外復(fù)雜場景下的行人檢測,因此算法的長期性能測試所用視頻為如圖7所示的3個場景的室外監(jiān)控視頻,分辨率為1280×720,時長為5×24 h,該視頻中的環(huán)境干擾包括:光照變化(日出、日落以及中午期間的光照突變)、草叢擺動、小動物經(jīng)過(尤其是夜間飛蟲)等。
(a) 光照變化場景圖 (b) 飛鳥場景圖
(c) 草叢擺動以及飛蟲場景圖圖7 實驗視頻場景圖
表6為本文算法準(zhǔn)確率對比結(jié)果。
表6 本文算法準(zhǔn)確率對比 /%
所用算法漏警率虛警率文獻[16]算法9.7454.70本文算法6.868.64
圖8為本文算法實時性對比結(jié)果。
數(shù)據(jù)來自有行人經(jīng)過的某100幀視頻片段,圖8橫坐標(biāo)為幀號,縱坐標(biāo)為單幀執(zhí)行時間,單位為s。
本文提出了一種基于改進ViBe的室外行人檢測方法,該方法首先采用基于區(qū)域的改進ViBe更新策略,該策略在加快鬼影消除速度的同時提高了行人目標(biāo)提取的完整度,然后采用基于背景差的方法對前景檢測結(jié)果進行篩選,增強了ViBe前景檢測對復(fù)雜多變環(huán)境的適應(yīng)性,在一定程度上降低了光照突變、樹枝搖晃等背景變化的干擾。此外,由于該方法采用計算速度較快的ViBe方法,并在行人檢測環(huán)節(jié)按照一定的邏輯規(guī)則選擇性執(zhí)行,降低了無意義的行人檢測次數(shù),提高了算法的執(zhí)行速度。實驗結(jié)果表明,該方法在復(fù)雜的室外場景中,能夠有效地對視頻中的行人進行檢測,同時能夠較大幅度地降低光照突變、樹枝搖擺等環(huán)境噪聲引起的誤報率,具有較高的魯棒性和實時性。
[1] 黃凱奇,陳曉棠,康運鋒,等. 智能視頻監(jiān)控技術(shù)綜述[J]. 計算機學(xué)報, 2015,38(6):1093-1118.
[2] Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]// Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2005:886-893.
[3] 樸春赫,潘怡霖,趙海,等. 基于改進ViBe的多行人檢測方法[J]. 東北大學(xué)學(xué)報(自然科學(xué)版), 2016,37(4):481-485.
[4] 張慧,鄭愛華,涂錚錚,等. 基于背景差與HOG-LBP的快速運動人體檢測[J]. 計算機技術(shù)與發(fā)展, 2015,25(2):47-51.
[5] 汪成亮,周佳,黃晟. 基于高斯混合模型與PCA-HOG的快速運動人體檢測[J]. 計算機應(yīng)用研究, 2012,29(6):2156-2160.
[6] Tekalp A M. Digital Video Processing[M]. Pearson Education, 2015.
[7] Haritaoglu I, Harwood D, Davis L S. W4: Who? When? Where? What? A real time system for detecting and tracking people[C]// Proceedings of the 3rd International Conference on Face & Gesture Recognition. 1998:222-227.
[8] Papenberg N, Bruhn A, Brox T, et al. Highly accurate optic flow computation with theoretically justified warping[J]. International Journal of Computer Vision, 2006,67(2):141-158.
[9] Stauffer C, Grimson W E L. Learning patterns of activity using real-time tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000,22(8):747-757.
[10] Barnich O, Droogenbroeck M V. ViBe: A powerful random technique to estimate the background in video sequences[C]// 2009 IEEE International Conference on Acoustics, Speech and Signal Processing. 2009:945-948.
[11] 吳建勝,徐博. 動態(tài)閾值的Vibe運動目標(biāo)檢測[J]. 計算機工程與應(yīng)用, 2017,53(11):182-186.
[12] Tajbakhsh T, Grigat R R. Illumination flicker frequency classification in rolling shutter camera systems[C]// Proceedings of the 9th IASTED International Conference on Signal and Image Processing. 2007:288-293.
[13] 趙光明,韓光,李曉飛,等. 基于融合幀間差的改進Vibe方法[J]. 計算機技術(shù)與發(fā)展, 2015(3):76-80.
[14] 吳劍舞,翁玲瑜,童懷. 一種基于改進ViBe的運動目標(biāo)檢測方法[J]. 計算機與現(xiàn)代化, 2015(7):50-54.
[15] 仇春春,王恬,程海粟,等. 基于改進ViBe算法的行人目標(biāo)檢測[J]. 信息技術(shù), 2016(3):6-9.
[16] 徐久強,江萍萍,朱宏博,等. 面向運動目標(biāo)檢測的ViBe算法改進[J]. 東北大學(xué)學(xué)報(自然科學(xué)版), 2015,36(9):1227-1231.
[17] Manzanera A, Richefeu J C. A new motion detection algorithm based on Σ-Δ, background estimation[J]. Pattern Recognition Letters, 2007,28(3):320-328.
[18] 孫水發(fā),覃音詩,馬先兵,等. 室外視頻前景檢測中的形態(tài)學(xué)改進ViBe算法[J]. 計算機工程與應(yīng)用, 2013,49(10):159-162.
[19] Droogenbroeck M V, Paquot O. Background subtraction: Experiments and improvements for ViBe[C]// 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). 2012,71(8):32-37.
[20] Joshi K A, Thakore D G. A survey on moving object detection and tracking in video surveillance system[J]. International Journal of Soft Computing & Engineering, 2012,2(3):44-48.