彭明莎,劉翠響
(河北工業(yè)大學(xué) 天津 300401)
由于人的臉部可以為外界提供大量的視覺信息,所以多種計(jì)算機(jī)感知通道都選擇建立在人臉處理技術(shù)的基礎(chǔ)上,如表情識(shí)別。隨著信息的快速發(fā)展,近年來,視頻人臉檢測已成為計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn),由于人臉檢測的好壞直接影響人臉識(shí)別的效率,人們對(duì)檢測的精度要求越來越高。
目前,檢測人臉的方法大體可分為4種:基于adaboost的方法、基于神經(jīng)網(wǎng)絡(luò)的方法、基于色彩信息的方法和基于器官特征的方法,然而前兩種方法均需要通過復(fù)雜而冗長的訓(xùn)練過程才能達(dá)到人臉檢測的目的,而基于色彩信息和器官特征這兩種方法相對(duì)來說更簡單易行,HsuR[1]等人對(duì)基于膚色的人臉檢測方面已經(jīng)做了大量的研究。由于本文考慮到視頻序列的特殊性,幀與幀之間存在一定的相似性,所以本文采用一種基于運(yùn)動(dòng)區(qū)域的人臉檢測。
視頻人臉檢測主要目的是提取圖像的相應(yīng)特征,對(duì)提取的特征進(jìn)行分類,判別是否為人臉區(qū)域。
為了使特征的提取快速、精確,進(jìn)行相應(yīng)有效的預(yù)處理是必要的,考慮到視頻幀與幀之間的相似性,上一幀人臉的位置信息對(duì)下一幀的檢測具有很高的指導(dǎo)價(jià)值,所以采有幀間相約束的方法,可以大大減少了人臉檢測的區(qū)域。本文在運(yùn)動(dòng)區(qū)域采用基于Boxfilter的Viola-Jones視頻人臉檢測。
目前運(yùn)動(dòng)區(qū)域的提取方法主要有幀差法、背景相減法、光流法等。幀差法是一種特殊的背景減圖法,相比較而言,幀差法不需要建模,由于幀差法的背景模型是上一幀的圖,所以處理速度非??靃2]。光流是指在觀察成像平面上,空間運(yùn)動(dòng)物體像素的瞬時(shí)速度,光流是利用視頻特性找到當(dāng)前幀和上一幀之間的特殊關(guān)系[3]。
雖然幀差法的處理速度快,但是對(duì)于光照變化不能很好地感知、處理;而滑動(dòng)平均算法簡單,且能夠很好地處理光照變化,但滑動(dòng)平均的閾值不好設(shè)定,并且固定閾值不能更好的區(qū)分所有特征,所以希望閾值可以根據(jù)不同的特征自行設(shè)定,所以本文采用一種幀差法和自適應(yīng)的滑動(dòng)平均相結(jié)合的算法。
為了提高運(yùn)動(dòng)區(qū)域提取的精度,本文采用幀差法和自適應(yīng)的滑動(dòng)平均相結(jié)合的算法。自適應(yīng)的滑動(dòng)平均是自適應(yīng)閾值和更新率的滑動(dòng)平均背景建模算法,該算法的時(shí)間復(fù)雜度較低,效果相對(duì)穩(wěn)定[4]。公式如下:
其中Model new是當(dāng)前背景模型,cur是當(dāng)前幀去除背景后的圖片,α是背景更新系數(shù),為了適應(yīng)不同的特征,本文采用自適應(yīng)的α,α滿足下面公式:
其中,
其中,Dn為當(dāng)前幀和上一幀的差值,T為閾值。為了能夠適應(yīng)光照突變的情況,采用時(shí)變性的閾值,T必須滿足下面公式:
Th表示最初的閾值,Tc表示光線的變化,Tc值反應(yīng)了閾值對(duì)光照突變的敏感度。
幀差法和自適應(yīng)的滑動(dòng)平均法相結(jié)合的算法的原理圖如圖1所示。
圖1幀差法和自適應(yīng)的滑動(dòng)平均法相結(jié)合算法的原理圖Fig.1 Principle diagram of combining frame difference and adaptive moving average method
通過將幀差法提取的前景和自適應(yīng)的滑動(dòng)平均法提取的前景進(jìn)行“與運(yùn)算”,輸出的結(jié)果為最終的前景圖。在提取前景的基礎(chǔ)上進(jìn)行開運(yùn)算和閉運(yùn)算,然后對(duì)處理后的視頻圖像進(jìn)行連通區(qū)域分析,并把運(yùn)動(dòng)目標(biāo)的大體位置映射到原視頻圖像上。
圖2第14幀的運(yùn)動(dòng)區(qū)域分割Fig.2 Segmentation of the fourteenth frame motion
圖 2(a)、圖 3(a)是本文算法提取的前景圖,圖 2(b)、圖 3(b)表示將運(yùn)動(dòng)目標(biāo)的位置映射在原圖像上。
圖3第38幀的運(yùn)動(dòng)區(qū)域分割Fig.3 Segmentation of the thirty-eighth frame motion area
人臉檢測主要是對(duì)人臉知識(shí)進(jìn)行分析。2001年,Viola和Jones首次提出的基于AdaBoost算法的人臉檢測方法,首次實(shí)現(xiàn)了實(shí)時(shí)人臉檢測,是目前為止最好的檢測方法。該方法主要包含Haar-like特征、積分圖、AdaBoost迭代算法和級(jí)聯(lián)分類器等內(nèi)容[5]。本文將在運(yùn)動(dòng)區(qū)域采用基于Boxfilter算法的Viola-Jones快速人臉檢測。
采用一種簡單的矩形Haar-like特征來描述圖像的灰度分布;
使Boxfilter算法來快速計(jì)算分類器訓(xùn)練所用的特征;
利用AdaBoost算法從大量Haar-like特征中挑選出很少的一部分構(gòu)造成一系列的強(qiáng)分類器。 將訓(xùn)練得到的強(qiáng)分類器進(jìn)行級(jí)聯(lián),利用級(jí)聯(lián)的強(qiáng)分類器構(gòu)成最終的分類器,形成一種瀑布型檢測器結(jié)構(gòu),逐漸剔除非人臉區(qū)域。
利用膚色對(duì)分類器檢測到的人臉進(jìn)一步檢測,排除“假人臉”。
Haar-like特征主要是一系列帶有權(quán)重的矩形模板,將某一模板運(yùn)用到圖像某一區(qū)域時(shí),特征提取結(jié)果為白色矩形覆蓋區(qū)域的灰度值總和與灰色矩形覆蓋區(qū)域的灰度值總和之差[5]。如圖4所示。
圖4 Haar-like特征Fig.4 Haar-like features
Boxfilter與積分圖的原理類似,但復(fù)雜度卻由O(4)降到O(1)。主要是以Box的高度為高,以原圖像的灰度值為長矩形內(nèi)每一列的像素和,通過Buff求出Box內(nèi)的像素和[6]。
雖然加快了計(jì)算速率,但是該方法計(jì)算出來的Haar-like特征的數(shù)量是不會(huì)改變的,Haar-like特征的數(shù)量十分巨大,而每一個(gè)Haar-like特征就代表著需要一個(gè)弱分類器,對(duì)于每一個(gè)不同的弱分類器,運(yùn)用 Adaboost方法進(jìn)行訓(xùn)練,對(duì)全部的分類器進(jìn)行排序,然后從中選取少數(shù)效果最好的弱分類器組成一個(gè)強(qiáng)分類器[5]。
然后采用級(jí)聯(lián)方法,形成一種瀑布型檢測器結(jié)構(gòu),逐漸剔除非人臉區(qū)域,這樣提高分類速度。
對(duì)圖像序列利用上述的本文進(jìn)行運(yùn)動(dòng)區(qū)域檢測,通過邊緣檢測,我們將檢測得到的運(yùn)動(dòng)區(qū)域進(jìn)行x,y的投影獲得矩形區(qū)域,該矩形區(qū)域就是Viola-Jones視頻人臉檢測的搜索區(qū)域。
在Viola-Jones檢測到的人臉內(nèi)通過膚色進(jìn)一步檢測,從而提高檢測速度并降低誤檢率。
根據(jù)上述模型,根據(jù)Viola-Jones檢測到的人臉的矩形區(qū)域,進(jìn)行膚色檢測,排除誤檢的人臉,進(jìn)一步提高Viola-Jones人臉檢測的魯棒性。
該方法改善了原算法的魯棒性,提升了速度,通過對(duì)錄制視頻的40幀圖片進(jìn)行仿真,結(jié)果如表1所示,經(jīng)過三組數(shù)據(jù)的對(duì)比,可以明顯看出本文的檢測時(shí)間大大縮短,檢測速度提升1/3倍。
表1 檢測所需時(shí)間的對(duì)比Tab.1 Com parison of detection tim e
本文通過錄制的視頻在MATLAB 2010b軟件上對(duì)該算法進(jìn)行仿真驗(yàn)證,效果如圖5所示。
圖5錄制視頻的檢測結(jié)果Fig.5 The detection results of recording video
通過圖 5(a)、(b)人臉檢測放大效果圖可以明顯看出,本文的算法在一定范圍內(nèi)可以很好的排除“假人臉”,圖5(c)可以看出本文算法不僅對(duì)正臉具有很好的檢測效果,同時(shí)也適用于側(cè)臉。
本文研究分析了基于Boxfilter的Viola-Jones算法,利用自適應(yīng)的滑動(dòng)平均算法對(duì)光線具有很好感應(yīng)功能,將幀差法和自適應(yīng)的滑動(dòng)平均法相結(jié)合來提取運(yùn)動(dòng)區(qū)域,然后采用膚色檢測來進(jìn)一步提高精確度。通過實(shí)驗(yàn)結(jié)果表明該方法可以相對(duì)精確地檢測到人臉,具有較好的魯棒性。
[1]HusRL.Abdel-MottalabM.Jain AK.Face detection in color images[J].PAMI,2002,24(5):606-706.
[2]黃禹馨,黃山,張洪斌.基于膚色和器官定位的實(shí)時(shí)人臉檢測[J].計(jì)算機(jī)工程與科學(xué),2014,36(5):936-940.HUANG Yu-xin,HUANG Shan,ZHANG Hong-bin.Realtime face detection based on skin and organ positioning[J].Computer Engineering and Science,2014,36(5):936-940.
[3]甘明剛,陳杰,劉勁等.一種基于三幀差分和邊緣信息的運(yùn)動(dòng)目標(biāo)檢測方法[J].電子與信息學(xué)報(bào),2010,32(4):894-897.GAN Ming-gang,CHEN Jie,LIU Jin.A kind moving target detection method based on three frame difference and edge information[J].Journal of Electronics and Information Technology,2010,32(4):894-897.
[4]余勝生,肖德貴,周敬利,等.自適應(yīng)背景抽取算法[J].小型微型計(jì)算機(jī)系統(tǒng),2003:24(7):1331-1334.YU Sheng-sheng,XIAO De-gui,ZHOU Jing-li.Adaptive background extraction algorithm[J].Mini micro Systems,2003,24(7):1331-1334.
[5]楊彥.基于人臉檢測和多線索融合的實(shí)時(shí)人臉跟蹤系統(tǒng)[J].電子器件,2013,36(3):304-308.YANG Yan.The real-time tracking system based on face detection and multi cue fusion[J].Electronic Device,2013,36(3):304-308.
[6]秦岳.基于光流特征的運(yùn)動(dòng)目標(biāo)檢測與跟蹤算法研究[D].北京:北京工業(yè)大學(xué),2013.