李云紅 聶夢(mèng)瑄 蘇雪平 周小計(jì) 何琛
摘要:針對(duì)人臉識(shí)別準(zhǔn)確率易受人臉表情變化影響的問(wèn)題,提出了一種分區(qū)域特征提取的人臉識(shí)別算法。首先,在預(yù)處理圖像上標(biāo)記出14個(gè)人臉關(guān)鍵點(diǎn),并將人臉圖像劃分為表情易變區(qū)域和不變區(qū)域;然后,分別用Gabor+LBP和Gabor+分塊LBP兩種特征提取通道對(duì)表情不變區(qū)域和易變區(qū)域進(jìn)行特征提??;最后,將所得的特征直方圖級(jí)聯(lián),并進(jìn)行身份驗(yàn)證。經(jīng)FERET(face recognition technology),LFW(labled faces in the wild)及自制人臉數(shù)據(jù)庫(kù)驗(yàn)證,文中算法準(zhǔn)確率分別達(dá)到了99.14%,98.5%,96.52%。在FERET數(shù)據(jù)庫(kù)中,該文算法準(zhǔn)確率較DeepID和Gabor+分塊LBP算法分別提高了1.88%和3.6%,F(xiàn)1(調(diào)和平均數(shù))分別提高了1.8%和2.86%。實(shí)驗(yàn)結(jié)果表明,分區(qū)域特征提取的人臉識(shí)別算法對(duì)人臉表情變化具有很強(qiáng)的魯棒性。
關(guān)鍵詞:分區(qū)域特征;人臉易變區(qū)域;人臉不變區(qū)域;特征直方圖
中圖分類號(hào):TP391.4
DOI:10.16152/j.cnki.xdxbzr.2020-05-015
Face recognition algorithm based on regional feature extraction
LI Yunhong, NIE Mengxuan, SU Xueping, ZHOU Xiaoji, HE Chen
(School of Electronics and Information, Xi′an Polytechnic University, Xi′an 710048, China)
Abstract: In order to solve the problem that the accuracy of face recognition is easily affected by the change of facial expression, a face recognition algorithm based on feature extraction by region is proposed. Firstly, on the processing image? 14? key points of people face is marked, and the face image is divided into expression variable region and invariable region. And then respectively using Gabor+LBP and Gabor+block LBP? two kinds of feature extraction channel for expression invariant region and mutable region to extract feature. Finally, the feature histogram is cascaded and the authentication is carried out. Verified by FERET(face recognition technology), LFW(labled faces in the wild) and self-made Face database, the accuracy reached 99.14%, 98.5% and 96.52%, respectively. In the FERET database, the accuracy of the algorithm in this paper is 1.88% and 3.6% higher than? DeepID and Gabor+block LBP algorithm, and the F1(harmonic average) is 1.8% and 2.86% higher. Experiments show that the face recognition algorithm based on regional feature extraction is robust to face expression changes.
Key words: subregional features; face variant region; face invariant region; feature histograms
人臉識(shí)別由于其方便快捷,且具有非侵犯性等特點(diǎn),已被廣泛應(yīng)用于安檢系統(tǒng)、打卡簽到等方面。人臉識(shí)別技術(shù)發(fā)展至今,在剛性條件下識(shí)別準(zhǔn)確率已經(jīng)有了大幅度的提升,但是在非剛性條件下,人臉表情不同、噪聲干擾、以及光照變化等因素[1-6]對(duì)識(shí)別結(jié)果產(chǎn)生了不可預(yù)測(cè)的影響。張敦鳳等人提出的分塊特征提取算法能夠提取到人臉的絕大部分特征信息,避免了特征丟失的風(fēng)險(xiǎn)[7]。但沒(méi)有考慮到表情變化對(duì)面部不同區(qū)域提取到的特征的影響,進(jìn)而導(dǎo)致識(shí)別準(zhǔn)確率無(wú)法進(jìn)一步提高。宿鵬等人提出的Gabor+分塊LBP雖然能夠提取到表達(dá)人臉特征的信息,但未考慮到特征丟失和表情變化對(duì)人臉識(shí)別精度的影響[8]。Gong等人提出的算法能夠識(shí)別同一個(gè)人不同年齡段的人臉特征,但未考慮光照等因素的變化[9]。Sun等人提出的基于聯(lián)合識(shí)別-驗(yàn)證的深度學(xué)習(xí)人臉表示方法能夠增大類間間距,縮小類內(nèi)間距[10],但當(dāng)一個(gè)人表情發(fā)生變化時(shí)識(shí)別準(zhǔn)確率會(huì)有明顯的下降。要提高人臉識(shí)別的準(zhǔn)確率必須同時(shí)考慮識(shí)別效率[11-13]、光照以及人臉表情變化等因素[14-16]。
針對(duì)以上問(wèn)題,本文提出了一種分區(qū)域特征提取的人臉識(shí)別算法,算法流程圖如圖1所示。實(shí)驗(yàn)結(jié)果表明,該算法可以有效地降低表情變化對(duì)識(shí)別準(zhǔn)確率的影響,并且增強(qiáng)了識(shí)別準(zhǔn)確率對(duì)光照變化的魯棒性。
1 本文算法
1.1 圖像預(yù)處理網(wǎng)絡(luò)
圖像預(yù)處理采用卷積神經(jīng)網(wǎng)絡(luò),將訓(xùn)練集中每幅人臉圖像經(jīng)過(guò)預(yù)處理網(wǎng)絡(luò)進(jìn)行多次迭代,以獲取最佳網(wǎng)絡(luò)參數(shù)來(lái)表達(dá)人臉關(guān)鍵點(diǎn)位置信息。首先,搜集整理1 000張人臉圖像,其中,300張作為測(cè)試集,700張作為訓(xùn)練集。手工標(biāo)注訓(xùn)練集中人臉圖片的關(guān)鍵點(diǎn),包括額頭、眉毛、眼睛、鼻尖、臉頰、嘴角、下巴等共14個(gè)關(guān)鍵點(diǎn)。然后,用處理后的訓(xùn)練集對(duì)預(yù)處理網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得能夠表達(dá)關(guān)鍵點(diǎn)位置信息的最優(yōu)參數(shù)。最后,使用測(cè)試集對(duì)預(yù)處理網(wǎng)絡(luò)進(jìn)行驗(yàn)證。
將訓(xùn)練集中的人臉圖像輸入到預(yù)處理網(wǎng)絡(luò),得到人臉關(guān)鍵點(diǎn)預(yù)測(cè)位置。通過(guò)歐式距離初步定位每一個(gè)預(yù)測(cè)的關(guān)鍵點(diǎn)坐標(biāo),如式(1)所示。其中,Li表示第i個(gè)預(yù)測(cè)關(guān)鍵點(diǎn)定位與真實(shí)位置的歐氏距離,yi表示經(jīng)過(guò)預(yù)處理網(wǎng)絡(luò)后得到的第i個(gè)人臉關(guān)鍵點(diǎn)預(yù)測(cè)位置,yi表示手工標(biāo)記的第i個(gè)人臉關(guān)鍵點(diǎn)位置。網(wǎng)絡(luò)經(jīng)過(guò)多次迭代,直至Li的值小于設(shè)定的閾值。
Li=‖yi-yi ‖22。(1)
對(duì)14個(gè)關(guān)鍵點(diǎn)得到的歐氏距離求和,使每幅人臉圖像各自具有整體效果最優(yōu)的關(guān)鍵點(diǎn)定位。如式(2)所示,ai代表不同關(guān)鍵點(diǎn)所占的權(quán)重,表1為不同關(guān)鍵點(diǎn)所占權(quán)重,L表示使每幅人臉圖像中14個(gè)關(guān)鍵點(diǎn)定位整體效果最優(yōu)的歐氏距離。
L=∑14i=1aiLi。(2)
對(duì)測(cè)試集中所有人臉圖像利用式(3)求平均關(guān)鍵點(diǎn)定位效果最優(yōu)的歐氏距離,其中,N表示訓(xùn)練集中包含的人臉圖像數(shù)量。整個(gè)預(yù)處理過(guò)程要使式(3)中Y值最小化,以獲取平均效果最優(yōu)關(guān)鍵點(diǎn)位置信息的預(yù)處理網(wǎng)絡(luò)參數(shù),表2為網(wǎng)絡(luò)主要參數(shù)值。
Y=1N∑Ni=1L。(3)
經(jīng)過(guò)訓(xùn)練后的預(yù)處理網(wǎng)絡(luò)對(duì)人臉圖像的處理效果如圖2所示,在表情和光照變化的情況下預(yù)處理網(wǎng)絡(luò)能夠準(zhǔn)確地標(biāo)記出不同表情時(shí)的關(guān)鍵點(diǎn)位置信息,但當(dāng)關(guān)鍵點(diǎn)部位有遮擋時(shí),例如鏡片反光,這部分標(biāo)記出的關(guān)鍵點(diǎn)位置與真實(shí)位置略有偏差。
1.2 人臉區(qū)域分割
由于人臉不同區(qū)域的變化對(duì)提取到特征的相似度會(huì)產(chǎn)生很大的影響,所以,有必要對(duì)面部特征進(jìn)行分區(qū)域提取。通常對(duì)于面部區(qū)域劃分的準(zhǔn)確性極大地依賴面部關(guān)鍵點(diǎn)定位的準(zhǔn)確程度。經(jīng)過(guò)預(yù)處理后的每張人臉圖像對(duì)眉毛、眼睛、鼻子、嘴巴等關(guān)鍵點(diǎn)進(jìn)行了標(biāo)注,可依據(jù)關(guān)鍵點(diǎn)位置的差異將人臉?lè)譃楸砬橐鬃儏^(qū)域和不變區(qū)域。例如額頭、鼻子、臉頰等部位受表情變化的影響較小,可將其歸為不變區(qū)域,而眉毛、眼睛、嘴巴等部位受表情變化的影響較大,可將其歸為易變區(qū)域。
由于易變區(qū)域和不變區(qū)域邊界較模糊,無(wú)法準(zhǔn)確地進(jìn)行區(qū)域分割。因此,本文采用邊緣重疊分割法,即將分割線作為模糊帶,使其成為兩個(gè)相鄰區(qū)域的交集。這種區(qū)域分割方法雖然增加了數(shù)據(jù)的冗余性,但避免了邊緣特征丟失的問(wèn)題,從而有效地解決了邊緣區(qū)域難劃分的問(wèn)題。
1)水平分割邊界的確定:假設(shè)對(duì)左右眉毛關(guān)鍵點(diǎn)標(biāo)注的坐標(biāo)分別為(x1,y1)和(x2,y2),對(duì)左右眼睛關(guān)鍵點(diǎn)標(biāo)注的坐標(biāo)分別為(m1,n1)和(m2,n2)。分別對(duì)左右兩邊眉毛和眼睛求垂直方向的中間點(diǎn)坐標(biāo),如式(4)和(5)所示。把兩點(diǎn)的連線作為一條水平分割邊界,并且將這條水平分割線作為模糊帶處理。
(xa,ya)=(x1+m12,y1+n12),(4)
(xb,yb)=(x2+m22,y2+n22)。(5)
若人臉表情變化較大,致使某兩對(duì)關(guān)鍵點(diǎn)中心位置的連線不處于同一條水平分割線??蓪蓚€(gè)中心的點(diǎn)分開(kāi)處理,讓其縱坐標(biāo)不變,橫坐標(biāo)變化從而得到兩條水平分割線,對(duì)應(yīng)的人臉區(qū)域分割圖如圖3所示,圖3中眉毛與眼睛兩對(duì)關(guān)鍵點(diǎn)對(duì)應(yīng)的中心點(diǎn)雖然不處于同一條水平分割線,但是分開(kāi)處理兩個(gè)中心點(diǎn)也能很好的區(qū)分表情易變區(qū)域和表情不變區(qū)域。
若只能確定一個(gè)中間點(diǎn),比如下巴和嘴下角的關(guān)鍵點(diǎn)。設(shè)嘴下角關(guān)鍵點(diǎn)坐標(biāo)為(x3,y3),下巴關(guān)鍵點(diǎn)坐標(biāo)為(m3,n3)可以得到中間點(diǎn)的位置如公式(6)所示。過(guò)中間點(diǎn)作水平線作為水平分割線。
(xc,yc)=(x3+m32,y3+n32) (6)
2)垂直分割邊界的確定:垂直分割線是由兩個(gè)橫坐標(biāo)相鄰的關(guān)鍵點(diǎn)得到一個(gè)中心點(diǎn)位置,再過(guò)中心點(diǎn)做垂線。假設(shè)左右眼睛關(guān)鍵點(diǎn)標(biāo)注的坐標(biāo)分別為(p1,q1)和(p2,q2),鼻子關(guān)鍵點(diǎn)的坐標(biāo)為(a1,b1)。分別求左眼和右眼到鼻子的水平中心點(diǎn),如式(7)和(8)所示。分別經(jīng)過(guò)兩個(gè)中心點(diǎn)作x軸的垂線,垂線即就是垂直分割邊界,把垂直分割邊界作為模糊帶處理。
(xd,yd)=(p1+a12,q1+b12),(7)
(xe,ye)=(p2+a12,q2+b12)。(8)
若相鄰的關(guān)鍵點(diǎn)屬于同類特征(比如嘴角的4個(gè)關(guān)鍵點(diǎn)同屬于嘴部特征),則不對(duì)其進(jìn)行水平分割或垂直分割。屬于異類關(guān)鍵點(diǎn),則分別對(duì)每?jī)蓚€(gè)相鄰的關(guān)鍵點(diǎn)進(jìn)行水平分割或垂直分割:若是上下相鄰的兩個(gè)關(guān)鍵點(diǎn),則計(jì)算水平分割線;若是左右相鄰的兩個(gè)關(guān)鍵點(diǎn),則計(jì)算垂直分割線。
圖4為針對(duì)人臉不同表情進(jìn)行區(qū)域分割的示意圖。根據(jù)已標(biāo)注的14個(gè)關(guān)鍵點(diǎn)可將人臉圖像分為多個(gè)區(qū)域,將包含眼部、嘴巴、眉毛關(guān)鍵點(diǎn)的區(qū)域歸為表情易變區(qū)域,將包含鼻子、額頭、臉頰、下巴關(guān)鍵點(diǎn)的區(qū)域歸為表情不變區(qū)域。還有一部分子區(qū)域不包含關(guān)鍵點(diǎn),經(jīng)過(guò)統(tǒng)計(jì)這些區(qū)域大部分都落在額頭、臉頰、下巴、鼻梁等區(qū)域,所以,將這部分區(qū)域也劃分為表情不變區(qū)域。
1.3 Gabor算法
Gabor算法的原理和人類視覺(jué)系統(tǒng)中單細(xì)胞對(duì)光照刺激的反應(yīng)很類似。它可以有效地提取到輸入圖像的頻域信息和局部空間信息。Gabor算法對(duì)輸入圖像的邊緣信息非常敏感,而且該算法具有多尺度和多方向的特性,能夠有效地減弱光照變化和噪聲干擾對(duì)人臉特征提取的影響。由于Gabor算法的優(yōu)勢(shì),使得它被廣泛應(yīng)用于圖像特征提取的過(guò)程中。
式(9)為二維Gabor核函數(shù)的定義式。其中:u和v分別代表選取核函數(shù)尺度和方向的數(shù)量;z是圖像像素坐標(biāo)點(diǎn);σ表示標(biāo)準(zhǔn)差;ku,v表示選取的尺度參數(shù)和方向參數(shù)的乘積。Gabor核函數(shù)是復(fù)函數(shù),可分為實(shí)部和虛部。實(shí)部濾波可平滑圖像,減少光照敏感度。虛部濾波能有效描述圖像邊緣信息。
gu,v(z)=
‖ku,v‖2σ2e(-‖ku,v‖2·‖z‖22σ2)eiku,vz-e-σ22。(9)
選取不同尺度和方向的卷積核對(duì)輸入圖像特征提取的效果不同。圖5為Gabor卷積核尺度和方向參數(shù)的變化與識(shí)別準(zhǔn)確率的關(guān)系圖。根據(jù)實(shí)驗(yàn)結(jié)果可知,尺度參數(shù)設(shè)置為5,方向參數(shù)設(shè)置為8,可以最大限度提取到圖像的特征信息。所以,對(duì)輸入圖像進(jìn)行特征提取,共得到40張?zhí)卣魈崛D。再把提取到的特征進(jìn)行融合,最終得到圖像的多尺度和多方向的特征信息。圖5為Gabor卷積核尺度和方向參數(shù)的變化與識(shí)別準(zhǔn)確率關(guān)系圖。
1.4 分塊LBP算法
由上一步可知,Gabor特征提取實(shí)部和虛部各有40個(gè)濾波器,對(duì)輸入圖像進(jìn)行處理后的信息量是原來(lái)的40倍。因?yàn)橛肎abor算法提取到的特征包含了大量的冗余信息,所以需要對(duì)提取的特征進(jìn)行降維操作。
傳統(tǒng)的LBP算法是將輸入的特征信息進(jìn)行降維后再與數(shù)據(jù)庫(kù)中人臉特征作對(duì)比,判斷是否屬于同一人。但是這種方法忽略了提取到的特征的位置信息。其實(shí),特征出現(xiàn)位置的不同代表了不同的含義,比如頭發(fā)和眉毛經(jīng)過(guò)LBP算法處理產(chǎn)生的十進(jìn)制數(shù)字有很大概率是相同的,但由于它們的位置不同,所以代表了不同的含義。通過(guò)使用分塊LBP算法可以根據(jù)特征出現(xiàn)位置的不同,把相似的特征信息進(jìn)一步的細(xì)化,以區(qū)分相似特征之間的不同,很大程度上提高了人臉識(shí)別的準(zhǔn)確率。
理想情況下,對(duì)輸入特征越細(xì)化(分塊數(shù)越多),越能表達(dá)臉部的精細(xì)特征。但隨著分塊數(shù)的增加會(huì)成倍地增加計(jì)算量,造成識(shí)別速度和識(shí)別準(zhǔn)確率下降等情況。所以,要權(quán)衡識(shí)別準(zhǔn)確率和識(shí)別速度兩者之間的關(guān)系,在保證識(shí)別準(zhǔn)確率的情況下使分塊數(shù)盡可能小。實(shí)驗(yàn)選取了不同分塊數(shù)進(jìn)行識(shí)別準(zhǔn)確率的測(cè)試,與文獻(xiàn)[8]的實(shí)驗(yàn)結(jié)果不同,本文實(shí)驗(yàn)數(shù)據(jù)表明,當(dāng)分塊數(shù)為2×2時(shí),在保證識(shí)別速度的情況下,可以有效地提高識(shí)別準(zhǔn)確率。圖6為在不同影響因素下分塊LBP的分塊數(shù)量選取與識(shí)別準(zhǔn)確率的關(guān)系圖。由于表情易變區(qū)域會(huì)隨表情變化產(chǎn)生較大的改變,因此,本文對(duì)該區(qū)域采用Gabor+分塊LBP進(jìn)行特征提取,從而細(xì)化易變區(qū)域的每個(gè)部分。對(duì)表情不變區(qū)域直接采用Gabor+LBP進(jìn)行特征提取。
Gabor可以從多個(gè)方向提取到輸入圖像不同尺度的特征信息,從而避免光照和噪聲等因素的影響,但存在特征冗余問(wèn)題。而分塊LBP算法可以減少數(shù)據(jù)維度,并區(qū)分相似特征。把兩種特征提取方法進(jìn)行級(jí)聯(lián),使其優(yōu)勢(shì)互補(bǔ),可以減少光照、噪聲以及表情變化對(duì)人臉識(shí)別準(zhǔn)確率的影響。
1.5 線性判別法
選取的判別方法不同,得到的識(shí)別準(zhǔn)確率也有所不同。為了能夠盡量區(qū)分同類和異類特征之間的差異,以提高識(shí)別準(zhǔn)確率,本文選取經(jīng)典的LDA(linear discriminant analysis)算法。該算法對(duì)空間中分布的特征具有最佳可分離性,使用此方法得到的新空間中樣本的類間散布矩陣最大,并且類內(nèi)散布矩陣最小。因此,LDA算法是一種有效的特征提取方法。
LDA算法的核心是將高維數(shù)據(jù)映射到子分類空間。新的分類空間既要保證類內(nèi)間距足夠小,又要保證類間間距足夠大。假設(shè)模式1為X1=(x1,x2,…,xk),模式2為X2=(xk+1,xk+2,…,xn),Ni為各模式中所含的樣本數(shù)量,各模式樣本均值為i。經(jīng)過(guò)映射矩陣H后變換為z=(z1,z2,…,zn)。即就是z=HTx。其映射的具體步驟如下:
1) 設(shè)樣本數(shù)據(jù)中xi的均值為Xi,xi為一維列向量,則中心點(diǎn)為xi,其中Ni為xi樣本的數(shù)目。
xi=1Ni∑x∈Xix,i=1,2。(10)
2) 中心點(diǎn)經(jīng)過(guò)H變換得到zi,zi就是樣本集Xi的中心點(diǎn)的投影。其中,類內(nèi)間距JH是由樣本各點(diǎn)到中心點(diǎn)距離的平方和來(lái)表示,Si表示類內(nèi)散度。
zi=HTxi=1Ni ∑x∈XiHTx=1Ni ∑z∈Ziz,i=1,2,(11)
JH=HTSHH=HT∑ci=1SiH,(12)
Si=∑x∈Xi(x-xi)(x-xi)T,i=1,2。(13)
類間距離JB主要是由兩個(gè)不同類中心點(diǎn)之間的距離來(lái)衡量,與類內(nèi)距離計(jì)算方式類似。
JB=|zi-zj|2=HT(xi-xj)(xi-xj)TH,(14)
SB=(xi-xj)(xi-xj)T,(15)
JB=HT∑ci=1SBH。(16)
其中,SB表示類間散度。
設(shè)目標(biāo)函數(shù)為J(H),通過(guò)求導(dǎo)使目標(biāo)函數(shù)J(H)取最大值。最后得到的人臉特征信息具有最佳類內(nèi)間距和類間間距,
J(H)=JBJH=HTSBHHTSHH。(17)
2 實(shí)驗(yàn)結(jié)果與分析
選用LBP+SVM,HOG+HFA,LF-CNN,DeepID,Gabor+分塊LBP作為對(duì)比算法與本文算法分別在FERET和LFW數(shù)據(jù)庫(kù)上進(jìn)行對(duì)比實(shí)驗(yàn)。在測(cè)試集樣本數(shù)量為600時(shí),觀察每種算法識(shí)別準(zhǔn)確率、查準(zhǔn)率、召回率、F1(調(diào)和平均數(shù))的差異,進(jìn)而判斷本文提出算法的優(yōu)劣,實(shí)驗(yàn)結(jié)果如表3、表4所示。
從表3中可以得出本文算法的準(zhǔn)確率均高于對(duì)比算法。Gabor+分塊LBP算法準(zhǔn)確率與本文算法相差3.6%。本文算法的召回率相較于LF-CNN算法低1.64%,但從整體來(lái)看,本文算法的調(diào)和平均數(shù)最高,超出LF-CNN算法3.94%,且本文算法的識(shí)別耗時(shí)在對(duì)比算法中最低。
從表4中可以得出本文算法的準(zhǔn)確率均高于對(duì)比算法。DeepID算法準(zhǔn)確率與本文算法相差0.89%。本文算法的召回率相較于DeepID算法低0.81%,但從整體來(lái)看,本文算法的調(diào)和平均數(shù)最高,超出DeepID算法2.54%,且本文算法的識(shí)別耗時(shí)在對(duì)比算法中最低。
本文算法主要針對(duì)光照和表情變化時(shí)人臉識(shí)別準(zhǔn)確率的變化,由于FERET和LFW數(shù)據(jù)庫(kù)光照變化不大,因此,本文自制了一個(gè)表情和光照變化比較大的數(shù)據(jù)集進(jìn)行驗(yàn)證,此數(shù)據(jù)集包含50個(gè)人共300幅人臉圖像,實(shí)驗(yàn)結(jié)果如表5所示。圖7~9為使用本文算法輸入人臉圖像的識(shí)別結(jié)果。
從表5可以得出本文算法的準(zhǔn)確率均高于對(duì)比算法。 對(duì)比算法中表現(xiàn)最好的Gabor+分塊LBP算法準(zhǔn)確率與本文算法相差2.87%。 本文算法的召回率相較于Gabor+分塊LBP算法低0.78%, 但從整體來(lái)看, 本文算法的調(diào)和平均數(shù)最高, 超出Gabor+分塊LBP算法0.85%。 本文算法的識(shí)別耗時(shí)也比Gabor+分塊LBP算法低0.22 s。
由圖7和圖8可以看出,當(dāng)輸入人臉圖像在光照、表情變化較大時(shí)仍能精確匹配到對(duì)應(yīng)的人臉圖像。由圖9可以看出,輸入人臉圖像丟失了某個(gè)關(guān)鍵點(diǎn)時(shí),例如閉眼丟失掉眼部關(guān)鍵點(diǎn),也能得到正確的匹配結(jié)果。
3 結(jié) 語(yǔ)
本文提出了一種分區(qū)域特征提取的人臉識(shí)別算法,通過(guò)預(yù)處理網(wǎng)絡(luò)得到人臉14個(gè)關(guān)鍵點(diǎn)位置信息,把預(yù)處理后的人臉圖像劃分為易變區(qū)域和不變區(qū)域,并用Gabor+分塊LBP和Gabor+LBP算法分別提取表情易變區(qū)域和不變區(qū)域的特征信息,最后把得到的級(jí)聯(lián)特征直方圖利用線性判別法進(jìn)行人臉識(shí)別。并在光照和人臉姿態(tài)變化的數(shù)據(jù)庫(kù)中進(jìn)行識(shí)別率驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,分區(qū)域特征提取的人臉識(shí)別算法對(duì)人臉不同表情具有很好的辨識(shí)度,同時(shí)能夠有效地減少光照和噪聲對(duì)輸入圖像的干擾,提高了非剛性條件下的識(shí)別準(zhǔn)確率,是一種有效的人臉識(shí)別算法。分區(qū)域特征提取的人臉識(shí)別算法也面臨著由于遮擋影響了關(guān)鍵點(diǎn)的定位,導(dǎo)致對(duì)人臉的區(qū)域分割產(chǎn)生誤差,使識(shí)別率下降的問(wèn)題。在接下來(lái)的工作中,將主要針對(duì)預(yù)處理網(wǎng)絡(luò)中因遮擋導(dǎo)致關(guān)鍵點(diǎn)定位不準(zhǔn)確的問(wèn)題展開(kāi)研究。
參考文獻(xiàn):
[1] 郭夢(mèng)麗,達(dá)飛鵬,鄧星,等.基于關(guān)鍵點(diǎn)和局部特征的三維人臉識(shí)別[J].浙江大學(xué)學(xué)報(bào)(工學(xué)版),2017,51(3):584-589.
GUO M L, DA F P, DENG X, et al. Three-dimensional face recognition based on key points and local features[J].Journal of Zhejiang University (Engineering Science),2017,51(3):584-589.
[2] 阮凱,邱衛(wèi)根.多信息融合的深度學(xué)習(xí)人臉表情識(shí)別算法研究[J].計(jì)算機(jī)工程與應(yīng)用,2019,55(5):192-196.
RUAN K, QIU W G. Study on deep learning facial expression recognition algorithm based on multi-information fusion[J].Computer Engineering and Applications,2019,55(5):192-196.
[3] HE L X, LI H Q, ZHANG Q, et al. Dynamic feature matching for partial face recognition[J].IEEE Transactions on Image Processing, 2019, 28(2):791-802.
[4] WANG L P,LUO A W.A joint matrix minimization approach for multi-image face recognition[J].Science China Mathematics,2018,61(7):1337-1352.
[5] ZHAO J,ZHANG C,ZHANG S L, et al.Pre-detection and dual-dictionary sparse representation based face recognition algorithm in non-sufficient training samples[J].Journal of Systems Engineering and Electronics,2018,29(1):196-202.
[6] ZHANG C,GU Y Z,HU K L,et al.Face recognition using SIFT features under 3D meshes[J].Journal of Central South University,2015,22(5):1817-1825.
[7] 張敦鳳,高寧化,王姮,等.基于分塊LBP融合特征和SVM的人臉識(shí)別算法[J].傳感器與微系統(tǒng),2019,38(5):154-156.
ZHANG D F, GAO N H, WANG H, et al. Face recognition algorithm based on segmented LBP fusion feature and SVM[J].Sensors and Microsystems,2019,38(5):154-156.
[8] 宿鵬. 基于LBP的人臉識(shí)別算法研究[D].哈爾濱:哈爾濱理工大學(xué),2019.
[9] GONG D H, LI Z F, LIN D H, et al. Hidden factor analysis for age invariant face recognition[C]∥2013 IEEE International Conference on Computer Vision. Sydney:IEEE, 2013:2872-2879.
[10]SUN Y, WANG X G, TANG X O.Deeplearning face representation by joint identification-verification[EB/OL].2014:arXiv:1406.4773[cs.CV].https://arxiv.org/abs/1406.4773.
[11]ZHANG K P, ZHANG Z P, LI Z F, et al. Joint face detection and alignment using multitask cascaded convolutional networks[J].IEEE Signal Processing Letters, 2016, 23(10):1499-1503.
[12]HAMESTER D, BARROS P, WERMTER S. Face expression recognition with a 2-channel convolutional neural network[C]∥2015 International Joint Conference on Neural Networks(IJCNN). Killarney:IEEE, 2015:1-8.
[13]CHENG J C,LI Y L,WANG J L, et al.Exploiting effective facial patches for robust gender recognition[J].Tsinghua Science and Technology,2019,24(3):333-345.
[14]BONG K, CHOI S, KIM C, et al. Low-power convolutional neural network processor for a face-recognition system[J].IEEE Micro, 2017, 37(6):30-38.
[15]LIU J,JING X J,LIAN Z F, et al.Local Gabor dominant direction pattern for face recognition[J].Chinese Journal of Electronics,2015,24(2):245-250.
[16]WANG Q C, WANG B B, HAO X J, et al. Face recognition by decision fusion of two-dimensional linear discriminant analysis and local binary pattern[J]. Frontiers of Computer Science, 2016, 10(6):1118-1129.
(編 輯 李 靜)
西北大學(xué)學(xué)報(bào)(自然科學(xué)版)2020年5期