国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于詞包模型和SURF局部特征的人臉識(shí)別

2017-09-01 01:13:31劉翠響李敏張鳳林
關(guān)鍵詞:描述符人臉識(shí)別人臉

劉翠響,李敏,張鳳林

(河北工業(yè)大學(xué) 電子信息工程學(xué)院,天津市 300401)

基于詞包模型和SURF局部特征的人臉識(shí)別

劉翠響,李敏,張鳳林

(河北工業(yè)大學(xué) 電子信息工程學(xué)院,天津市 300401)

針對(duì)傳統(tǒng)人臉識(shí)別方法實(shí)時(shí)性差的缺點(diǎn),提出了一種加速魯棒性特征(SURF,speed up robust features)和詞包模型(BOW,bag-of-word)相結(jié)合的人臉識(shí)別方法.圖像經(jīng)過(guò)預(yù)處理后,使用SURF算法自動(dòng)提取圖像的關(guān)鍵點(diǎn)和相應(yīng)的特征描述符,再進(jìn)一步用BOW方法將其編成視覺(jué)單詞作為人臉的局部特征.最后,采用K最鄰近結(jié)點(diǎn)算法進(jìn)行分類(lèi)識(shí)別.使用了2個(gè)數(shù)據(jù)集驗(yàn)證了提出的方法——標(biāo)準(zhǔn)CMU-PIE(卡內(nèi)基梅隆大學(xué)——姿勢(shì)、光照、表情人臉數(shù)據(jù)庫(kù))人臉庫(kù)和采集的數(shù)據(jù)庫(kù),分別達(dá)到了97.5%和99.3%的識(shí)別率,而且特征提取的時(shí)間少于0.108 s,識(shí)別的時(shí)間少于0.017 s.結(jié)果表明,本文提出的算法不僅精確而且快速,具有更好的穩(wěn)定性和有效性.

人臉識(shí)別;詞包模型;SURF;局部特征;K-NN

由于人臉會(huì)受到姿勢(shì)、面部表情或者光照等的影響,所以人臉識(shí)別是一項(xiàng)非常具有挑戰(zhàn)性的技術(shù).除此之外,人臉表示經(jīng)常要求多個(gè)維度,這就更加加劇了人臉識(shí)別的艱巨性[1].

傳統(tǒng)的人臉識(shí)別方法對(duì)表情、光照和尺度的變化非常敏感,當(dāng)人臉圖像發(fā)生較大改變(比如旋轉(zhuǎn))后,識(shí)別率就會(huì)急劇下降.近幾年,研究者介紹了很多應(yīng)用在人臉識(shí)別領(lǐng)域的局部特征提取算法,例如,尺度不變特征變換(SIFT,scale invariant feature transform)就曾得到廣泛應(yīng)用[2].尺度不變特征變換[3]作為一種局部特征描述算法,計(jì)算簡(jiǎn)單,識(shí)別有效,且具有尺度和旋轉(zhuǎn)不變性.2006年后,SIFT算法被用于人臉識(shí)別領(lǐng)域[3-5];然而這種算法計(jì)算復(fù)雜度高,不能在實(shí)時(shí)系統(tǒng)中得到更廣泛的應(yīng)用,且非常容易受光照變化的影響[6].為此研究者提出了很多基于SIFT算法的改進(jìn)算法,以便于該算法更能適用于實(shí)時(shí)系統(tǒng).比如,kd樹(shù)被應(yīng)用在尋找K最近鄰的領(lǐng)域,指出PCA可以減少SIFT算法提取特征的維數(shù)[7].但是,由于人臉的特殊位置尤其是人臉邊緣的關(guān)鍵點(diǎn)很難被找到,從而得不到較高的識(shí)別率,所以這類(lèi)方法仍然達(dá)不到實(shí)時(shí)系統(tǒng)的要求.為了解決SIFT算法計(jì)算復(fù)雜度高的問(wèn)題,2006年,Bay等[8]提出了SURF算法,并將其用于圖像匹配領(lǐng)域.該算法不僅在尺度、光照和旋轉(zhuǎn)方面具有較強(qiáng)的魯棒性,而且在速度上遠(yuǎn)遠(yuǎn)超出了SIFT算法.在對(duì)室外自然圖像的匹配結(jié)果表明,SURF算法的運(yùn)算速度比SIFT算法快將近3倍,并且整體性能有著SIFT算法不可比擬的優(yōu)越性[9-10].2009年,Du等[5]首次將SURF算法應(yīng)用在人臉識(shí)別領(lǐng)域,提出基于SURF算法的人臉特征方法.2010年,Kang等[10]利用SURF算法的旋轉(zhuǎn)不變性,將待測(cè)試的人臉圖像經(jīng)過(guò)旋轉(zhuǎn)處理后,形成了新的測(cè)試樣本,使得人臉識(shí)別的效果得到有效提高,但這僅是對(duì)SURF算法的簡(jiǎn)單利用.總體來(lái)說(shuō),上述基于SURF提取人臉圖像特征的方法,雖然都在一定程度上提高了人臉的識(shí)別率,但提取的人臉特征關(guān)鍵點(diǎn)分布不均,并且對(duì)光照變化魯棒性較差.

詞包模型(BOW)是最近幾年常用的圖像特征分析方法之一,最開(kāi)始被應(yīng)用在處理自然語(yǔ)言或者檢索無(wú)序的詞語(yǔ)歸類(lèi)以及詞序的信息[11]中.最近,詞包模型在計(jì)算機(jī)視覺(jué)中得到有效利用,比如目標(biāo)識(shí)別、圖像分類(lèi)和圖像檢索[12-13].在詞包模型中,用有序的視覺(jué)單詞表來(lái)表示圖像特征,實(shí)驗(yàn)檢驗(yàn)證明,詞包模型可以很好地應(yīng)用在圖像分類(lèi)中.但是詞包模型往往容易忽略圖像的整體信息,以至于會(huì)對(duì)其分類(lèi)的正確率造成影響,所以要想提高詞包模型的準(zhǔn)確率和魯棒性,需要找到一個(gè)更好的特征提取方法.

基于此,本文提出了一種準(zhǔn)確快速的人臉識(shí)別方法——基于SURF局部特征和BOW算法的人臉自動(dòng)化識(shí)別研究.在對(duì)人臉圖像預(yù)處理后,將人臉圖像統(tǒng)一尺寸,用SURF提取局部特征.然后,將SURF算法提取的關(guān)鍵點(diǎn)和描述符用BOW重新編碼作為局部特征.最后,在識(shí)別人臉類(lèi)別時(shí),將SURF和BOW提取的局部特征放入K-NN算法中,將K個(gè)最近鄰構(gòu)建新的判決空間,識(shí)別人臉的類(lèi)別.在CMU PIE(卡內(nèi)基梅隆大學(xué))標(biāo)準(zhǔn)人臉數(shù)據(jù)庫(kù)及在實(shí)驗(yàn)室采集的真實(shí)身份人臉庫(kù)上分別進(jìn)行了實(shí)驗(yàn).結(jié)果表明,本文采用的SURF和BOW結(jié)合的方法不僅在特征提取時(shí)速度快,而且在匹配識(shí)別時(shí)也很迅速.在CMU PIE標(biāo)準(zhǔn)人臉庫(kù)和采集的人臉庫(kù)上分別達(dá)到了97.5%和99.3%的準(zhǔn)確率,特征提取的平均時(shí)間為0.108 s,識(shí)別的平均時(shí)間為0.017 s,識(shí)別一幅圖片的平均時(shí)間僅為15 ms, 滿(mǎn)足實(shí)時(shí)系統(tǒng)的快速準(zhǔn)確的要求.

1 基于SURF的人臉特征提取算法

1.1 SURF特征點(diǎn)檢測(cè)

SURF是一種旋轉(zhuǎn)和尺度都不變的局部特征檢測(cè)子,由于引入了積分圖像,大大提高了圖像的特征提取速度.對(duì)于一幅二維圖像,通過(guò)高斯核卷積來(lái)構(gòu)造不同的尺度空間:

(1)

SURF特征點(diǎn)的提取使用的是精確高的Fast-Hessian檢測(cè)子,在確定特征點(diǎn)的位置和選擇尺度時(shí),本文選擇了相同的尺度.在圖像中的點(diǎn)X處,尺度為σ的Hessian矩陣為

(2)

但SURF在計(jì)算H矩陣時(shí),用箱式濾波器代替了高斯二階導(dǎo)數(shù),這樣SURF算法在計(jì)算卷積時(shí)就可以使用積分圖像,加快了計(jì)算速度.

對(duì)于積分圖像中某點(diǎn)X(x,y),可以用圖像中原點(diǎn)與點(diǎn)X形成的矩形區(qū)域內(nèi)所有像素值之和來(lái)表示積分面積I∑(X),如式(3)所示.

(3)

在如圖1所示的積分圖像中,用3個(gè)加減運(yùn)算即可求得矩形區(qū)域G的灰度值之和,即G=D-B-C+A,與矩形G的面積無(wú)關(guān).

為了更加準(zhǔn)確地逼近高斯核函數(shù),Bay等提出以盒子濾波來(lái)近似高斯的二階微分.9×9的箱式濾波器如圖2所示.

圖1 積分圖像Fig.1 Integral image

圖2 y方向的箱式濾波器(灰色部分等于0)Fig.2 y direction box-type filter(the pessimistic part is equal to 0)

用它來(lái)代替σ=1.2的高斯二階導(dǎo)數(shù),這是SURF的最小尺度和最高的空間分辨率.用Dxx,Dyy,Dxy近似表示圖像和高斯二階導(dǎo)數(shù)的卷積Lxx,Lyy,Lxy.在計(jì)算H矩陣的行列式值時(shí),為了提高計(jì)算效率選擇了一個(gè)權(quán)值

(4)

|X|F表示F范數(shù).于是得到了H矩陣的行列式值的近似表達(dá)

(5)

為了確定圖像關(guān)鍵點(diǎn)的具體位置,在一個(gè)3×3×3大小的近鄰區(qū)域采取非最大值抑制的原則,選擇Hessian矩陣行列式的最大值所在的圖像和尺度空間的位置作為特征點(diǎn)的位置.在尋找特征點(diǎn)的位置時(shí),為了增加關(guān)鍵點(diǎn)的抗噪聲能力,需要舍棄對(duì)比度較低的極值點(diǎn)或者邊緣不穩(wěn)定的相應(yīng)點(diǎn),然后就能得到相對(duì)穩(wěn)定的特征點(diǎn)位置.

1.2 SURF特征點(diǎn)描述和計(jì)算

SURF算法在提取了特征點(diǎn)后,結(jié)合特征點(diǎn)周?chē)囊粋€(gè)圓形區(qū)域內(nèi)的信息,給特征點(diǎn)添加一個(gè)方向,然后根據(jù)該方向創(chuàng)建一個(gè)方形區(qū)域,在該區(qū)域提取SURF描述符.

為了保證SURF算法的旋轉(zhuǎn)不變性,首先以特征點(diǎn)為中心,在半徑為6s(s是特征點(diǎn)所在的尺度空間的尺度值)的圓形區(qū)域內(nèi)計(jì)算各點(diǎn)在x、y方向的Haar小波響應(yīng).在計(jì)算時(shí),同樣使用積分圖像來(lái)加快計(jì)算的速度.小波變換計(jì)算出來(lái)后,用σ=2.5s的高斯函數(shù)進(jìn)行加權(quán),使得離特征點(diǎn)近的響應(yīng)貢獻(xiàn)大.最終小波響應(yīng)被表示成一個(gè)向量,該向量包括小波響應(yīng)的水平信息和垂直信息.主方向通過(guò)計(jì)算一個(gè)角度為π/3的滑動(dòng)窗口內(nèi)的小波響應(yīng)的和得到.這時(shí)同樣需要分別計(jì)算水平和垂直方向的響應(yīng),這就產(chǎn)生一個(gè)新向量,最長(zhǎng)向量的方向即為特征點(diǎn)的主方向.對(duì)每個(gè)特征點(diǎn)逐個(gè)進(jìn)行計(jì)算,就能得到所有特征點(diǎn)的主方向.

為了得到SURF描述符,首先在提取的特征點(diǎn)附近建立一個(gè)20s的方形區(qū)域,將前一步計(jì)算的主方向作為其方向.建立的方形區(qū)域被劃分為4×4的子區(qū)域,對(duì)于每一個(gè)子區(qū)域,計(jì)算5t×5t(采樣步長(zhǎng)取t)范圍內(nèi)的小波響應(yīng).為了簡(jiǎn)化描述,將Harr在水平方向的響應(yīng)記為dx,在垂直方向的響應(yīng)稱(chēng)為dy,這里“水平”、“垂直”都是相對(duì)于特征點(diǎn)的方向來(lái)說(shuō)的.為了提高描述符對(duì)于幾何變換的魯棒性,首先賦予dx和dy以權(quán)值系數(shù),然后將每一個(gè)子區(qū)域內(nèi)的dx、dy相加,形成子區(qū)域特征向量的前2個(gè)組成部分.為了使特征描述符具有強(qiáng)度變化的極性信息,將dx和dy的絕對(duì)值也加入了特征描述符.因此,每一個(gè)子區(qū)域的底部,形成了一個(gè)四維分量的矢量v,v=(∑dx,∑dy,∑|dx|,∑|dy|).因此,所有的4×4個(gè)子區(qū)域的描述符,合起來(lái)形成4×(4×4)=64維的描述向量,因此,最終的SURF描述符是一個(gè)64維的向量.

1.3 SURF提取的人臉特征描述符計(jì)算

首先,將人臉圖像經(jīng)過(guò)歸一化處理后,將圖像變成同樣的尺寸.然后利用SURF算法提取人臉的關(guān)鍵特征點(diǎn),計(jì)算該點(diǎn)的64維特征描述符.

圖3是一幅人臉圖像經(jīng)過(guò)預(yù)處理后得到的SURF局部特征描述符.

圖3 人臉的局部特征描述符

Fig.3 SURF partial characteristic description symbol

2 Bag-of-word(BOW)算法的局部特征計(jì)算

本文應(yīng)用經(jīng)典的Bag-of-word(BOW)算法[14]將SURF算法提取的關(guān)鍵點(diǎn)和描述符重新編碼作為局部特征.得到所有特征點(diǎn)的特征向量后,需要對(duì)特征點(diǎn)進(jìn)行分類(lèi).縱觀最佳的分類(lèi)方法,K-means[15]算法在眾多研究領(lǐng)域得到廣泛應(yīng)用.該算法不僅擁有更好的分類(lèi)效果,而且計(jì)算速度非常快.因此本文采用的分類(lèi)方法是K-means聚類(lèi)算法.K-means算法可以有效處理大型數(shù)據(jù)集,是硬聚類(lèi)算法,終止于局部最優(yōu).K-means算法是一種基于點(diǎn)對(duì)稱(chēng)的非數(shù)字距離測(cè)量方法,優(yōu)化目標(biāo)函數(shù)是數(shù)據(jù)點(diǎn)到原點(diǎn)的距離.它將觀察值劃分成K類(lèi),擁有相似特征的觀察值屬于同一類(lèi).在本文中,采用歐氏距離來(lái)表示相似度,也就是說(shuō),聚類(lèi)準(zhǔn)則函數(shù)的表達(dá)采用誤差平方和.

建立BOW模型主要分為2個(gè)步驟:第1步,將提取的所有訓(xùn)練圖片的SURF描述符和相應(yīng)的關(guān)鍵點(diǎn),利用K-means方法聚類(lèi).用漢明距離作為度量標(biāo)準(zhǔn)估計(jì)2個(gè)SURF描述符之間的距離.在K-means方法中,計(jì)算每一個(gè)聚類(lèi)中心和描述符之間的距離.在BOW模型中,每一個(gè)聚類(lèi)中心都代表一個(gè)bin,稱(chēng)這些bin為視覺(jué)詞匯.因此,第1步的目的就是構(gòu)建視覺(jué)詞匯.得到的一系列視覺(jué)詞匯,用W={w1,w2,w3…}作為目標(biāo)表示.BOW模型就由這些視覺(jué)詞匯構(gòu)建而成.

由K-means聚類(lèi)得到的這些視覺(jué)詞匯,在第2步中,輸入的SURF描述符可以由相應(yīng)的視覺(jué)詞匯描繪出來(lái).在所有的視覺(jué)詞匯中有一個(gè)最小漢明距離,如式(6).

(6)

公式(6)中的t表示SURF算法提取到的特征,通過(guò)將所有計(jì)算得到的SURF描述符繪制成相應(yīng)的視覺(jué)詞匯,最終可以得到不同的視覺(jué)詞匯直方圖.

(7)

其中,Di是視覺(jué)詞匯的頻率.由于圖像之間提取的SURF特征點(diǎn)的數(shù)量不同,所以由公式(7)得到的視覺(jué)詞匯直方圖標(biāo)準(zhǔn)化為

(8)

BOW詞典構(gòu)建的M個(gè)視覺(jué)詞匯用L=[b1b2…bM]來(lái)表示.因?yàn)锽OW模型基于提取的SURF局部特征,所以在本文中被稱(chēng)為人臉局部特征.在K-means算法中,質(zhì)心初始值的選取十分關(guān)鍵.質(zhì)心初始值如果改變,聚類(lèi)準(zhǔn)確率也會(huì)隨之改變.在本次研究中,初始值的位置通過(guò)多次實(shí)驗(yàn)來(lái)獲得.如果在實(shí)驗(yàn)中能得到很好的聚類(lèi)效果,就記錄下這個(gè)初始值的位置.那么在下次實(shí)驗(yàn)時(shí),就可以直接使用這個(gè)初始值.利用K-means算法分類(lèi)所有的特征點(diǎn),然后用直方圖來(lái)表示圖像的詞包模型.每一類(lèi)都會(huì)存在質(zhì)心,則詞包模型每一類(lèi)的特征就用這個(gè)質(zhì)心的特征向量來(lái)表示,那么這些特征向量就構(gòu)成了需要的詞包模型的字典.結(jié)果,一個(gè)單位直方圖代表一幅人臉圖像,

如圖4所示,即為得到的2組不同類(lèi)型的測(cè)試人臉的BOW表示.

圖4 2組不同類(lèi)型的測(cè)試人臉的BOW表示Fig.4 Two different person face type of BOW indicated

3 人臉?lè)诸?lèi)識(shí)別算法K-NN

在識(shí)別人臉時(shí),使用K-NN算法.K-NN如圖5所示.圖5描述了在SURF局部空間使用K-NN判斷一幅圖片(圓形)為正方形或者三角形的過(guò)程:1)圓形在SURF局部空間采用K-NN計(jì)算K(K=2,2個(gè)三角形)個(gè)最近鄰;2)這K個(gè)最近鄰形成的判決空間中,全部為三角形,因此判定圓形所屬類(lèi)型為三角形.在選擇K的具體值時(shí),需要反復(fù)測(cè)試選擇出最佳值,使得最終判決的準(zhǔn)確率最高.

在人臉識(shí)別時(shí),提取輸入人臉圖像的SURF局部特征,使用K-NN從SURF局部空間計(jì)算K個(gè)最近鄰,在形成的判決空間中,使用K-NN根據(jù)距離的遠(yuǎn)近判斷輸入人臉圖像的類(lèi)別.

本文算法的整體流程圖如圖6所示.

圖5 K-NN識(shí)別Fig.5 K-NN recognition

圖6 人臉識(shí)別流程Fig.6 Face recognition flowchart

4 實(shí)驗(yàn)結(jié)果及分析

在CMU PIE標(biāo)準(zhǔn)人臉數(shù)據(jù)庫(kù)及本研究室的真實(shí)身份證人臉圖像上進(jìn)行實(shí)驗(yàn),并與經(jīng)典的SIFT、傳統(tǒng)的SURF進(jìn)行比較.實(shí)驗(yàn)首先對(duì)輸入的每一幅人臉圖像,用SURF和BOW算法提取局部特征,并用K-NN算法進(jìn)行識(shí)別.

4.1 人臉圖像庫(kù)描述

CMU PIE庫(kù):該人臉庫(kù)內(nèi)含68位志愿者的人臉圖像,總共41 368張,來(lái)自不同姿態(tài)、光照和表情.所有人臉圖像的面部關(guān)鍵特征都比較規(guī)范,為標(biāo)準(zhǔn)的人臉庫(kù).從CMU-PIE人臉數(shù)據(jù)庫(kù)中選擇了50個(gè)人(共1 500幅圖像),這些人臉圖像的光照、姿態(tài)、表情各不相同.在選擇的1 500幅圖像中1 000幅用于訓(xùn)練,500幅用于測(cè)試.圖7為CMU PIE人臉圖像庫(kù)部分樣本.

真實(shí)身份證人臉庫(kù):訓(xùn)練集為本實(shí)驗(yàn)室成員的真實(shí)身份證人臉圖像,共15人,圖像大小為150×200;測(cè)試集為無(wú)約束環(huán)境條件下采集的每人10幅相應(yīng)的人臉圖像.圖8為真實(shí)身份證人臉庫(kù)部分樣本.

圖7 CMU PIE人臉圖像庫(kù)部分樣本Fig.7 Partial samples of CMU PIE human face image storehouse

圖8 真實(shí)身份證人臉庫(kù)部分樣本Fig.8 Partial samples of real status witness face storehouse

4.2 實(shí)驗(yàn)及參數(shù)設(shè)置

在K-NN分類(lèi)時(shí),K值的大小需要仔細(xì)選擇,由于沒(méi)有嚴(yán)格的理論依據(jù),通過(guò)重復(fù)實(shí)驗(yàn)的方式進(jìn)行參數(shù)設(shè)置,見(jiàn)表1.

表1 標(biāo)準(zhǔn)測(cè)試集不同K值的識(shí)別結(jié)果

經(jīng)不斷實(shí)驗(yàn),選定K=2,此時(shí)使用K-NN的準(zhǔn)確率最高.最后共K=2個(gè)最近鄰放入K-NN進(jìn)行最后的分類(lèi),確定人臉的類(lèi)型.由實(shí)驗(yàn)的結(jié)果判斷,提出的方法每幅圖片提取特征的平均時(shí)間為108 ms,識(shí)別的平均時(shí)間為17 ms,特征提取時(shí)間和分類(lèi)所需的全部時(shí)間少于130 ms,實(shí)驗(yàn)結(jié)果表明本文提出的方法可以用于實(shí)時(shí)人臉的識(shí)別.

4.3 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)1: 在CMU PIE標(biāo)準(zhǔn)人臉庫(kù)下的實(shí)驗(yàn).

對(duì)SIFT、ORB、傳統(tǒng)的SURF和本文算法分別進(jìn)行測(cè)試,實(shí)驗(yàn)結(jié)果見(jiàn)表2所示.通過(guò)比較時(shí)間和識(shí)別率可知,本文算法明顯由于其他算法.

表2 在標(biāo)準(zhǔn)人臉庫(kù)上的性能

實(shí)驗(yàn)2:真實(shí)身份證人臉庫(kù)下的實(shí)驗(yàn).

選擇身份證人臉圖像作為訓(xùn)練樣本,實(shí)際采集的人臉圖像作為測(cè)試樣本.將采集的人臉圖像在經(jīng)灰度化處理后,轉(zhuǎn)化為200×150的圖像,然后用SURF和BOW算法提取局部特征,并用K-NN算法進(jìn)行識(shí)別.同樣,經(jīng)過(guò)測(cè)試,選定在SURF局部空間計(jì)算K=2個(gè)最近鄰,最終這2個(gè)最近鄰由K-NN做最后的判斷,判斷輸入人臉屬于哪一類(lèi).

實(shí)驗(yàn)結(jié)果見(jiàn)表3.

表3 真實(shí)人臉身份證庫(kù)下的識(shí)別結(jié)果對(duì)比

從表3可以看出,本文算法相比其他算法,優(yōu)勢(shì)明顯,識(shí)別率最高.

實(shí)驗(yàn)3:為了更好地判斷算法的性能,在MATLAB上進(jìn)行了仿真實(shí)驗(yàn),分別對(duì)SIFT、ORB、傳統(tǒng)的SURF與本文算法進(jìn)行了性能測(cè)試,進(jìn)一步驗(yàn)證了本文算法的優(yōu)越性.仿真結(jié)果如圖9-11所示.

圖9 高斯模糊性能比較Fig.9 Comparison of gauss fuzzy performance

圖10 壓縮性能比較Fig.10 Comparison of compression performance

圖11 抗噪性能比較Fig.11 Comparison of anti-chirp performance

該仿真實(shí)驗(yàn)是將6幅圖片進(jìn)行模糊處理、壓縮處理、噪聲處理后,再利用這4種算法分別進(jìn)行分類(lèi)識(shí)別,得到相應(yīng)的識(shí)別率.由MATLAB仿真結(jié)果可知,本文算法在對(duì)圖像的模糊性、壓縮性和抗噪性能上,都具有很好的優(yōu)越性.

5 結(jié)束語(yǔ)

本文提出了一種SURF算法和詞包模型相結(jié)合的人臉識(shí)別方法.首先提取人臉的SURF和BOW局部特征,然后運(yùn)用K-NN算法識(shí)別人臉類(lèi)別.從實(shí)驗(yàn)結(jié)果可以看出,無(wú)論對(duì)于標(biāo)準(zhǔn)的人臉數(shù)據(jù)庫(kù)還是自己采集的真實(shí)身份證人臉數(shù)據(jù)庫(kù),均能取得較好的測(cè)試效果.通過(guò)實(shí)驗(yàn)可以證明新的詞包模型有較好的性能,圖像分類(lèi)準(zhǔn)確率比原有模型要好.該方法不僅繼承了SURF 算法的實(shí)時(shí)性和魯棒性,而且還提高了SURF的效率,為今后在其他更加復(fù)雜的場(chǎng)景中利用BOW算法進(jìn)行特定的人臉識(shí)別奠定了基礎(chǔ).

[1] SOLDERA J, CARLOS A R B, SCHARCANSKI J.Customized orthogonal locality preserving projections with soft Margin maximization for face recognition[J].IEEE Transactions on Instrumentation & Measurement, 2015, 64(9):2417-2426.DOI:10.1109/TIM.2015.2415012.

[2] ZHANG W Y, HUA L L, DU H R, et al. SIFT: predicting amino acid changes that affect protein function[Z]. International Symposium on Computer Network and Multimedia Technology, Wuhan, 2009.

[3] LOWE D G.Object recognition from local scale-invariant features [J].Computer Vision, 1999, 2(9):1150-1157.DOI:10.1109/ICCV.1999.790410.

[4] LIU C, YUEN J, TORRALBA A.SIFT flow: Dense correspondence across scenes and its applications[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(5):978-994.DOI:10.1109/TPAMI.2010.147.

[5] GENG C, JIANG X D.Face recognition based on the multi-scale local image structures[J].Pattern Recognition, 2011, 44(10):2565-2575.DOI:10.1016/j.patcog.2011.03.011.

[6] 李偉紅, 陳龍, 龔衛(wèi)國(guó).單樣本快速人臉不變特征提取方法[J].光電子·激光, 2014(3):558-564. LI W H, CHEN L, GONG W G.Fast facial descriptor extraction for single image based face recognition[J].Journal of Optoelectronics·Laser,2014(3):558-564.

[7] DU G, SU F, CAI A.Face recognition using SURF features[J].Pattern Recognition,2009,7496(28):131-137.DOI:10.1117/12.832636.

[8] BAY H, ESS A, TUYTELAARS T, et al.Speeded-up robust features (SURF)[J].Computer Vision and Image Understanding, 2008, 110(3):346-359.DOI:10.1016/j.cviu.2007.09.014.

[9] DING N N, LIU Y Y, ZHANG Y, et al.Fast image registration based on SURF-DAISY algorithm and randomized kd trees[J].Journal of Optoelectronics Laser, 2012, 23(7):1395-1402.

[10] KANG M, CHOO W, MOON S. Improved face recognition algorithm employing SURF descrpitors[Z]. Society of Instrument and Control Engineers Annual Conference, Japan,2010.

[11] LEWIS D D.Naive (Bayes) at forty: The independence assumption in information retrieval[J].European Heart Journal, 1998, 21(15):1204-6.

[12] LI F F, PERONA P. A Bayesian hierarchical model for learning natural scene categories[Z]. Computer Society Conference on Computer Vision & Pattern Recognition, America, 2005.

[13] YANG J, JIANG Y G, HAUPTMANN A G, et al. Evaluating bag-of-isua-words representations in scene classification[Z].International Workshop on Workshop on Multimedia Information Retrieval, ACM, 2007. DOI:10.1145/1290082.1290111

[14] CHU W T, HUANG C C, CHENG W F. News story clustering from both what and how aspects: using bag of word model and affinity propagation[Z]. The 2011 ACM International Workshop on Automated Media Analysis and Production for Novel TV Services, ACM, 2011.

[15] FENG J, JIAO L C, ZHANG X, et al.Bag-of-Visual-Words based on clonal selection algorithm for SAR image cassification[J].Geoscience & Remote Sensing Letters IEEE, 2011, 8(4):691-695.DOI:10.1109/LGRS.2010.2100363.

(責(zé)任編輯:孟素蘭)

Face recognition based on BOW and SURF local features

LIU Cuixiang, LI Min, ZHANG Fenglin

(School of Electronics Information Engineering,Hebei University of Technology,Tianjin 300401,China)

To overcome the limitations of traditional face recognition methods for real-time, a face recognition method which based on speed up robust features and bag-of-word model was proposed.Image after preprocessing, we used SURF to extract key points of images and corresponding feature descriptors automatically.Further, bag-of word model was used to code the descriptors into visual words as local features of the face.Finally,K-Nearest Neighbor algorithm was adopted to recognize the human faces.The proposed method is validated with both CMU-PIE dataset and dataset collected in the laboratory.It can achieve 97.5% and 99.3% recognition rates on these two datasets, respectively.In average, it took less than 0.108 s for feature extraction and less than 0.017 s for matching.The results indicate that the proposed method not only precise moreover fast, and had better stability and effectiveness.

face recognition; bag-of-word model; SURF; local features;K-NN

10.3969/j.issn.1000-1565.2017.04.013

2016-09-29

國(guó)家自然科學(xué)基金資助項(xiàng)目(61203245)

劉翠響(1973—),女,河北辛集人,河北工業(yè)大學(xué)副教授,博士,主要從事信號(hào)處理與模式識(shí)別研究. E-mail:liucuix@126.com

李敏(1990—),女,山東德州人,河北工業(yè)大學(xué)碩士研究生.主要從事圖像處理與模式識(shí)別研究. E-mail:1607708753@qq.com

TP391

A

1000-1565(2017)04-0411-08

猜你喜歡
描述符人臉識(shí)別人臉
人臉識(shí)別 等
基于結(jié)構(gòu)信息的異源遙感圖像局部特征描述符研究
有特點(diǎn)的人臉
揭開(kāi)人臉識(shí)別的神秘面紗
三國(guó)漫——人臉解鎖
Linux單線程并發(fā)服務(wù)器探索
利用CNN的無(wú)人機(jī)遙感影像特征描述符學(xué)習(xí)
基于類(lèi)獨(dú)立核稀疏表示的魯棒人臉識(shí)別
馬面部與人臉相似度驚人
長(zhǎng)得象人臉的十種動(dòng)物
奇聞怪事(2014年5期)2014-05-13 21:43:01
双峰县| 榆社县| 咸丰县| 北碚区| 石屏县| 荥阳市| 崇文区| 兰州市| 绥滨县| 酒泉市| 韶山市| 科技| 吉安县| 渝北区| 措勤县| 喀喇| 兰溪市| 赤壁市| 威信县| 滦南县| 沧源| 民乐县| 西青区| 澄城县| 呼图壁县| 左云县| 宜兰县| 江孜县| 仁布县| 璧山县| 封丘县| 定襄县| 开平市| 井陉县| 临桂县| 闻喜县| 眉山市| 宁晋县| 通榆县| 武义县| 桂阳县|