周慧敏 楊明
摘要:為了解決在深度學(xué)習(xí)提取人臉圖像特征時(shí),易忽略其局部結(jié)構(gòu)特征和缺乏對(duì)其旋轉(zhuǎn)不變性學(xué)習(xí)的問(wèn)題,提出了一種基于單演局部二值模式(MBP)與深度學(xué)習(xí)相結(jié)合的高效率人臉識(shí)別方法。首先,用多尺度單演濾波器對(duì)圖像進(jìn)行濾波,得到幅值和方向信息;其次,用LBP算法和象限比特的方法進(jìn)行編碼,分塊計(jì)算組合其直方圖特征;然后,將提取的單演特征作為深度信念網(wǎng)絡(luò)(DBN)的輸入,逐層訓(xùn)練優(yōu)化網(wǎng)絡(luò)參數(shù),得到優(yōu)異的網(wǎng)絡(luò)模型;最后,將訓(xùn)練好的DBN網(wǎng)絡(luò)在ORL人臉數(shù)據(jù)庫(kù)上進(jìn)行人臉識(shí)別實(shí)驗(yàn),進(jìn)行識(shí)別率計(jì)算,其識(shí)別率為98.75%。所提出的方法使用無(wú)監(jiān)督的貪婪算法,隱藏層設(shè)定為2層,使用反向傳播算法優(yōu)化網(wǎng)絡(luò)。相較于已知的人臉識(shí)別方法,MBP+DBN算法對(duì)光照、表情和部分遮擋變化具有較好的魯棒性,在人臉識(shí)別中識(shí)別率較高,具有一定的優(yōu)勢(shì),為圖像特征提供了一種新的識(shí)別方法。
關(guān)鍵詞:模式識(shí)別;深度信念網(wǎng)絡(luò);單演信號(hào)分析;單演局部二值模式;特征提取
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A doi: 10.7535/hbgykj.2019yx01005
ZHOU Huimin, YANG Ming.Face recognition based on monogenic binary patterns and deep learning[J].Hebei Journal of Industrial Science and Technology,2019,36(1):25-30.Face recognition based on monogenic binary
patterns and deep learning
ZHOU Huimin, YANG Ming
(School of Science, North University of China, Taiyuan, Shanxi 030051, China)
Abstract:In order to solve the problem of ignoring its local structural features and lacking its rotation invariance learning when extracting face image features from deep learning, an efficient face recognition method based on Monogenic Binary Pattern (MBP) and deep learning is proposed. First, the image is filtered by using log-Gabor filter to obtain amplitude and monogenic direction information. Next, the LBP and the quadrant bit method are used for encoding, and the histogram feature is combined by block calculation. Then, the extracted monogenic features are used as the input of Deep Belief Network (DBN), and the network parameters are trained and optimized layer by layer to obtain excellent network model. Finally, the trained DBN network performs face recognition experiments on the ORL face database, and the recognition rate is 98.75%. The proposed method uses unsupervised greedy algorithm, the hidden layer is set to 2 layers, and the back propagation algorithm is used to optimize the network. Compared with known face recognition methods, MBP+DBN algorithm has better robustness to illumination, expression and partial occlusion changes, and has higher recognition rate in face recognition. It has certain advantages and provides a new recognition method for image features.
Keywords:pattern recognition;deep belief network;monogenic signal analysis;monogenic binary patterns;feature extraction
21世紀(jì)以來(lái),人臉識(shí)別系統(tǒng)被應(yīng)用于各個(gè)領(lǐng)域,但在實(shí)際應(yīng)用中存在著遮擋、姿態(tài)及光照等因素變化的影響[1-2]。為解決此類問(wèn)題,國(guó)內(nèi)外學(xué)者提出了用于人臉特征提取和分類的各種方法,其中具有代表性的方法有:基于Gabor特征的分類(GFC)方法[3-4]、局部二值模式(LBP)方法[5-8]、深度學(xué)習(xí)方法[9]等。
LBP算子[6]采用直接編碼圖像的強(qiáng)度來(lái)提取圖像的局部結(jié)構(gòu)特征,取得了不錯(cuò)的效果。但LBP僅編碼像素點(diǎn)之間的信息,忽略了像素點(diǎn)本身的方向(強(qiáng)度)信息。像素點(diǎn)本身攜帶著編碼局部變化所不能替代的方向信息,例如,2個(gè)具有相同變化模式的像素點(diǎn)的中心強(qiáng)度可能具有非常大的差別。ZHANG等[10]提取多尺度多方向Gabor幅值特征,并運(yùn)用LBP算子對(duì)幅值進(jìn)行編碼,克服了光照強(qiáng)度等因素對(duì)識(shí)別結(jié)果的影響,但基于Gabor特征人臉識(shí)別的方法,時(shí)間復(fù)雜度和空間復(fù)雜度高,匹配速度慢。單演信號(hào)表示[11-12]用于人臉識(shí)別,先將圖像通過(guò)log-Gabor濾波器得到單演幅值和單演方向,然后通過(guò)LBP算子和象限比特算法分別編碼單演幅值和像素點(diǎn)方向信息,得到MBP特征。與基于Gabor濾波方法相比,基于MBP算法的局部特征提取具有更短的時(shí)間和更小的空間復(fù)雜度[10],與LBP算法相比增加了像素點(diǎn)本身的方向信息,提高了其在人臉識(shí)別中的競(jìng)爭(zhēng)性。但算法中關(guān)于特征的提取沒(méi)有可靠的依據(jù),過(guò)分依賴人工選擇,識(shí)別準(zhǔn)確率不能被完全信賴。
第1期周慧敏,等:基于MBP算法和深度學(xué)習(xí)的人臉識(shí)別 河北工業(yè)科技第36卷Geffrey Hinton在2006年首次提出了深度信念網(wǎng)絡(luò)(deep belief network,DBN)的概念,模擬大腦的學(xué)習(xí)過(guò)程,通過(guò)多層網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)原始數(shù)據(jù)特征得到更有代表性的抽象特征,深度學(xué)習(xí)方法更有利于人臉識(shí)別[13]。2014年,F(xiàn)ace Book AI團(tuán)隊(duì)[14]結(jié)合Deep Face算法改進(jìn)了傳統(tǒng)的人臉特征提取方法,運(yùn)用9層深度神經(jīng)網(wǎng)絡(luò)對(duì)人臉庫(kù)進(jìn)行訓(xùn)練,并利用支持SVM學(xué)習(xí)網(wǎng)絡(luò)模型參數(shù),得到9725%人臉識(shí)別率,與一般的人臉識(shí)別算法相比準(zhǔn)確率高,但是該算法需要大量的人臉圖片訓(xùn)練模型且耗時(shí)長(zhǎng)。深度信念網(wǎng)絡(luò)是深度學(xué)習(xí)常用的方法之一,DBN網(wǎng)絡(luò)能夠自主學(xué)習(xí)圖像的抽象特征并進(jìn)行識(shí)別。但是,直接將人臉圖像的像素輸入DBN網(wǎng)絡(luò),會(huì)受到光照、姿態(tài)等因素影響,學(xué)習(xí)的特征不夠準(zhǔn)確,尤其是缺乏對(duì)圖像旋轉(zhuǎn)不變性的學(xué)習(xí),并且會(huì)忽略圖像的局部特征。
MBP算法可以解決深度學(xué)習(xí)特征提取時(shí)忽略局部結(jié)構(gòu)的問(wèn)題,而深度學(xué)習(xí)無(wú)監(jiān)督學(xué)習(xí)的特性又可以彌補(bǔ)MBP算法特征提取容易介入主觀因素的缺點(diǎn),筆者將兩者結(jié)合應(yīng)用于人臉識(shí)別。MBP算法利用單演信號(hào)真正旋轉(zhuǎn)不變這一特性,運(yùn)用log-Gabor濾波器得到圖像幅值和像素點(diǎn)方向信息,編碼后得到MBP特征信息;然后將其作為DBN網(wǎng)絡(luò)的輸入數(shù)據(jù),學(xué)習(xí)訓(xùn)練DBN網(wǎng)絡(luò),減少了網(wǎng)絡(luò)對(duì)無(wú)效特征的學(xué)習(xí),明顯提高了識(shí)別性能。將該算法在ORL數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn),證明了該算法的有效性。
1基礎(chǔ)知識(shí)
1.1單演信號(hào)表示
Felsberg和Sommer在2001年引入了單演信號(hào),其表示的一個(gè)突出特性是特征提取過(guò)程(幅值和方向)是真正旋轉(zhuǎn)不變的。目前單演信號(hào)分析已被應(yīng)用于許多領(lǐng)域并取得了很好的效果。
單演信號(hào)圍繞Riesz變換[12]構(gòu)建,對(duì)于輸入圖像f(z),z=(x,y)為圖像坐標(biāo),在二維空間中,Riesz變換表示為fR(z)=fx(z)fy(z)=hx*f(z)hy*f(z),(1)其中Riesz變換核為(hx,hy)=x2π‖z‖3,y2π‖z‖3,(2)因此,圖像f(z)的單演信號(hào)表示定義為
fM(z)=(flg(z),fx(z),fy(z))=(flg(z),hx*flg(z),hy*flg(z)),flg(z)=f(z)*F-1(G(ω)),(3)
式中: fx(z), fy(z)分別是濾波后圖像在x軸和y軸上的Riesz變換;F-1是傅里葉逆變換;G(ω)為log-Gabor濾波器的頻域響應(yīng),表達(dá)式為
G(ω)=exp{-[log(ω/ω0)]2/
(2[log(σ/ω0)]2)},(4)
式中:ω0=(λminμS-1)-1是中心頻率; σ=σratioω0是帶寬比例因子;λmin是最小波長(zhǎng);μ是波長(zhǎng)的倍數(shù); S=1,2,3是尺度空間。因此,單演信號(hào)的局部幅值A(chǔ)和局部方向θ可以通過(guò)式(5)來(lái)計(jì)算:
A=f2lg+f2x+f2y,θ=arctan(fy/fx)。(5)
1.2深度學(xué)習(xí)模型
深度學(xué)習(xí)[13-15]是一種無(wú)監(jiān)督學(xué)習(xí)、自主提取特征的過(guò)程。基本思想是構(gòu)建網(wǎng)絡(luò)學(xué)習(xí)模型(前一層的輸出作為后一層的輸入,逐層訓(xùn)練;利用全局優(yōu)化算法調(diào)整網(wǎng)絡(luò)參數(shù)),盡可能減小初始輸入特征與最后輸出特征的誤差。常用方法有:自動(dòng)編碼器、稀疏自動(dòng)編碼器、受限玻爾茲曼機(jī)(RBM)、深度信念網(wǎng)絡(luò)(DBN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)[15]等。正因?yàn)樯疃刃拍罹W(wǎng)絡(luò)結(jié)合了無(wú)監(jiān)督和監(jiān)督學(xué)習(xí)的優(yōu)點(diǎn),筆者選用了深度信念網(wǎng)絡(luò)作為學(xué)習(xí)模型。
DBN是多個(gè)受限玻爾茲曼機(jī)(RBM)組成的概率模型。RBM模型是一個(gè)2層(輸入層v和隱藏層h)的無(wú)向概率圖模型。對(duì)于任意的i, j,有vi∈{0,1},hj∈{0,1},則v, h的聯(lián)合分布為p(v,h)=1Ze-h′Wv-b′v-c′h,(6)式中:Z是歸一化常量; b,c是偏置項(xiàng);W是2層之間的權(quán)值矩陣。
RBM模型是一個(gè)二分圖,可視層節(jié)點(diǎn)與隱藏層節(jié)點(diǎn)可以清楚地相互區(qū)分,在給定任一層節(jié)點(diǎn)狀態(tài)時(shí),另一層節(jié)點(diǎn)狀態(tài)的條件分布是獨(dú)立的,即式(7)和式(8)成立。p(v|h)=∏j(hj|v,W),(7)
p(v|h)=∏i(vi|h,W)。(8)典型的DBN模型如圖1所示,其訓(xùn)練過(guò)程分為預(yù)訓(xùn)練和微調(diào)2個(gè)階段[6]。預(yù)訓(xùn)練階段,每一層的輸入數(shù)據(jù)都來(lái)自于前一層的輸出,采用無(wú)監(jiān)督的貪婪算法進(jìn)行逐層優(yōu)化,逐次遞進(jìn)訓(xùn)練相鄰兩層RBM模型的參數(shù)來(lái)構(gòu)建DBN網(wǎng)絡(luò);之后用有監(jiān)督的學(xué)習(xí)對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行微調(diào)以得到最優(yōu)的DBN網(wǎng)絡(luò)。
2基于MBP和深度學(xué)習(xí)的人臉識(shí)別
人臉圖像的紋理特征具有一定的穩(wěn)定性,在受到光照、姿態(tài)、表情和遮擋等因素的影響時(shí)不會(huì)發(fā)生太大的變化[6]。單演信號(hào)表示能得到圖像幅值和像素點(diǎn)方向信息,過(guò)程所需時(shí)間較少、空間復(fù)雜度較低,運(yùn)用單演局部二值模式(MBP)能夠簡(jiǎn)單有效地提取圖像的結(jié)構(gòu)特征。深度學(xué)習(xí)過(guò)程中可以將人臉圖像像素直接作為深度信念網(wǎng)絡(luò)的輸入數(shù)據(jù),但數(shù)據(jù)的輸入是以向量形式,無(wú)法學(xué)習(xí)到人臉的局部結(jié)構(gòu)特征。因此本文將MBP算法和深度學(xué)習(xí)結(jié)合應(yīng)用于人臉識(shí)別,該算法共分為MBP特征提取和DBN網(wǎng)絡(luò)構(gòu)建與識(shí)別2部分。
2.1MBP特征提取
特征提取是人臉識(shí)別的關(guān)鍵。MBP特征提取分2步進(jìn)行:先分別對(duì)單演信號(hào)局部變化和局部強(qiáng)度(像素點(diǎn)方向)進(jìn)行二值編碼,然后將兩者組合。
單演信號(hào)表征的局部幅值A(chǔ)是像素點(diǎn)zc局部變化信息的度量,采用LBP算子[4](LBP8-3)對(duì)其進(jìn)行編碼,得到的8位二進(jìn)制數(shù)作為MBP特征的低8位。A(i)是第i個(gè)鄰域的幅度值,則第i個(gè)鄰域的幅值二值編碼,被定義為? CAi(zc)=1,A(i)≥A(zc),0,其他,(9)因此,中心像素zc的幅值二值編碼CA可以表示為CA(zc)=[CAN,CAN-1,…,CA1]binary。(10)中心像素點(diǎn)的強(qiáng)度由單演信號(hào)表示的2個(gè)虛部(fx和fy)表示,使用象限比特的方法編碼,如圖2所示。
將中心像素點(diǎn)zc方向的二值編碼[CIx(zc),CIy(zc)]binary作為MBP編碼的高2位,編碼規(guī)則如下,CId(zc)=0,fd(zc)>0,1,fd(zc)≤0,d∈{x,y},(11)最后將幅值8位二值編碼和方向2位編碼組合在一起得到圖像的MBP二值編碼,如式(10)所示,然后轉(zhuǎn)化為十進(jìn)制得到MBP特征, MBP=[CIx(zc),CIy(zc),CA(zc)]binary。(12)如果直接對(duì)整幅圖像進(jìn)行編碼不能夠得到人臉細(xì)節(jié)信息,所以將圖像分為Mb×Mb小塊,每一小塊又被分為Mr×Mr子塊。經(jīng)過(guò)多次實(shí)驗(yàn)發(fā)現(xiàn)Mb=5,Mr=2時(shí)效果最佳,如圖3所示。
2.2DBN網(wǎng)絡(luò)構(gòu)建
模式識(shí)別是人臉識(shí)別中的重點(diǎn)。DBN網(wǎng)絡(luò)進(jìn)行模式識(shí)別分為預(yù)訓(xùn)練和微調(diào)2個(gè)階段(見(jiàn)1.2節(jié)),將2.1節(jié)提取到的MBP特征輸入到DBN網(wǎng)絡(luò)中,學(xué)習(xí)訓(xùn)練兩層隱藏層網(wǎng)絡(luò),具體過(guò)程如下。
1)預(yù)訓(xùn)練將深度信念網(wǎng)絡(luò)劃分為若干個(gè)相鄰的RBM模型,逐層訓(xùn)練參數(shù),初始化網(wǎng)絡(luò)。首先,在可見(jiàn)層輸入訓(xùn)練數(shù)據(jù)v,由式(8)求得第1層隱藏層向量h1,然后由式(7)反過(guò)來(lái)重構(gòu)可見(jiàn)層,學(xué)習(xí)訓(xùn)練第1層權(quán)值系數(shù)矩陣W1;接著,將h1輸入第2層隱藏層,學(xué)習(xí)訓(xùn)練矩陣W2;重復(fù)上述訓(xùn)練過(guò)程,求得每一層的權(quán)值系數(shù)矩陣Wi。
2)微調(diào)對(duì)預(yù)訓(xùn)練得到的初始化網(wǎng)絡(luò),采用有監(jiān)督的反向傳播算法(BP算法)微調(diào)整個(gè)DBN網(wǎng)絡(luò)的參數(shù),使網(wǎng)絡(luò)的性能更加優(yōu)異。
2.3MBP+DBN算法
由2.1節(jié)和2.2節(jié)得到MBP+DBN算法,具體步驟如下。
1)將人臉圖像分為訓(xùn)練集和測(cè)試集,然后輸入圖像,進(jìn)行單演濾波,得到多尺度的幅值(見(jiàn)圖4)和像素點(diǎn)強(qiáng)度信息,對(duì)濾波后圖像進(jìn)行二值編碼(LBP和象限比特)得到編碼后的特征圖像。
2)將編碼后的特征圖像分為5×5塊,每一小塊分為2×2子塊,求得每一子塊的直方圖特征hi,i∈{1,2,…,r},然后計(jì)算所有局部塊直方圖特征Hj,j∈{1,2,…,b},最后將所有局部直方圖特征組合成直方圖矢量HMBP,用HMBP表示人臉圖像特征。
3)將由步驟1)和2)得到的訓(xùn)練集圖像HMBP特征作為DBN的輸入數(shù)據(jù)X,訓(xùn)練深度學(xué)習(xí)模型。依據(jù)第2.2節(jié)中DBN網(wǎng)絡(luò)訓(xùn)練流程,從下到上學(xué)習(xí)訓(xùn)練集的抽象特征,逐層學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò),然后反向微調(diào),優(yōu)化網(wǎng)絡(luò)參數(shù),得到最終DBN網(wǎng)絡(luò)模型。
4)將測(cè)試集圖像的HMBP特征輸入上一步訓(xùn)練好的DBN網(wǎng)絡(luò)中,在網(wǎng)絡(luò)的最上層進(jìn)行分類,統(tǒng)計(jì)識(shí)別結(jié)果Y。
3實(shí)驗(yàn)結(jié)果及分析
在Windows7,Matlab2014a平臺(tái)上進(jìn)行仿真實(shí)驗(yàn),運(yùn)行環(huán)境是Intel雙核處理器,2 GB內(nèi)存。為驗(yàn)證算法的有效性,選取LBP算法、EPMOD算法[11]、M-PCANet算法[13]和MBP算法在ORL人臉數(shù)據(jù)庫(kù)上作對(duì)比實(shí)驗(yàn),其中各算法使用的準(zhǔn)確率均為最優(yōu)結(jié)果。ORL數(shù)據(jù)庫(kù)共有400張(40個(gè)人每人有10張)不同光照條件、姿態(tài)、表情和遮擋的人臉圖像,如圖5所示。
為驗(yàn)證MBP+DBN算法的有效性和穩(wěn)定性,筆者設(shè)計(jì)了3組實(shí)驗(yàn),每組實(shí)驗(yàn)選取的訓(xùn)練集大小不同,同時(shí)在每次實(shí)驗(yàn)時(shí)隨機(jī)將每個(gè)人的圖片分為訓(xùn)練集和測(cè)試集。訓(xùn)練樣本的大小會(huì)對(duì)深度學(xué)習(xí)網(wǎng)絡(luò)學(xué)習(xí)抽象特征產(chǎn)生影響,從而影響最后的識(shí)別準(zhǔn)確率,一般情況下,訓(xùn)練集樣本數(shù)要大于測(cè)試集樣本數(shù);此外,選取的樣本不同也會(huì)影響實(shí)驗(yàn)結(jié)果。以下是識(shí)別率為10次實(shí)驗(yàn)的平均值。
1)每人隨機(jī)選取5張圖片,共200張作為訓(xùn)練集,剩余的200張圖片作為測(cè)試集進(jìn)行10次實(shí)驗(yàn)。
2)每人隨機(jī)選取6張圖片,共240張作為訓(xùn)練集,剩余的160張圖片作為測(cè)試集進(jìn)行10次實(shí)驗(yàn)。
3)每人隨機(jī)選取7張圖片作為訓(xùn)練集,剩余的120張圖片作為測(cè)試集進(jìn)行10次實(shí)驗(yàn)。
3.1參數(shù)設(shè)定
MBP算法[11]圖像編碼參數(shù)設(shè)定為λmin=4,μ=0.64,S=3和σratio=1.7。參照文獻(xiàn)[6]并結(jié)合實(shí)驗(yàn),筆者設(shè)定DBN網(wǎng)絡(luò)隱藏層數(shù)為2層,網(wǎng)絡(luò)結(jié)構(gòu)為m-100-100-n,其中m為輸入向量維數(shù),n為目標(biāo)分類數(shù),層數(shù)過(guò)多會(huì)導(dǎo)致學(xué)習(xí)時(shí)間過(guò)長(zhǎng),層數(shù)過(guò)少則不能充分地優(yōu)化網(wǎng)絡(luò)。為保證模型訓(xùn)練的充分性和參數(shù)訓(xùn)練的穩(wěn)定性,每一層的迭代次數(shù)為30次;學(xué)習(xí)率為0.001。LBP算法圖像被分為4×4塊,其余參數(shù)都相同。
3.2模型評(píng)價(jià)
訓(xùn)練DBN網(wǎng)絡(luò)時(shí),采用近似的方法來(lái)評(píng)估模型的優(yōu)劣。筆者使用重構(gòu)誤差(Error)作為評(píng)價(jià)模型優(yōu)劣的標(biāo)準(zhǔn),Error越小,即輸入、輸出數(shù)據(jù)之間的差距越小,網(wǎng)絡(luò)模型設(shè)計(jì)越優(yōu)異。表達(dá)式為 Error=Error+‖v′-v(t)‖,t∈{1,2,…,T},(13)式中:Error初始化為0,v(t)是樣本訓(xùn)練數(shù)據(jù),T為訓(xùn)練樣本個(gè)數(shù)。圖6和圖7是DBN網(wǎng)絡(luò)訓(xùn)練時(shí)第1層重構(gòu)誤差迭代變化圖和第2層重構(gòu)誤差迭代變化圖。
DBN網(wǎng)絡(luò)參數(shù)的更新與重構(gòu)誤差相關(guān),從圖6和圖7中可以看出,2層網(wǎng)絡(luò)在訓(xùn)練過(guò)程中,迭代初期誤差迅速下降,當(dāng)?shù)降?步后誤差趨于穩(wěn)定。對(duì)比2圖可以得出,第1層網(wǎng)絡(luò)迭代結(jié)束時(shí)的誤差遠(yuǎn)大于第2層重構(gòu)誤差,說(shuō)明經(jīng)過(guò)2層學(xué)習(xí)重構(gòu)誤差明顯減小,DBN網(wǎng)絡(luò)參數(shù)更新優(yōu)化完成。由圖6可知,如果只選擇1層隱藏層,重構(gòu)誤差較大,網(wǎng)絡(luò)模型不合理會(huì)影響實(shí)驗(yàn)結(jié)果;由圖7可知,第2層訓(xùn)練完成時(shí)重構(gòu)誤差很小,不再需要增加隱藏層??梢?jiàn),本文設(shè)計(jì)的網(wǎng)絡(luò)模型合理。
3.3ORL數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果
本文MBP+DBN算法實(shí)驗(yàn)結(jié)果及其對(duì)比實(shí)驗(yàn)結(jié)果分別見(jiàn)表1和表2。
從表1中的3組實(shí)驗(yàn)結(jié)果可以看出,MBP+DBN算法準(zhǔn)確率高,效果穩(wěn)定,進(jìn)行多次實(shí)驗(yàn)求其平均值,最終分別得到了97.30%,98.38%和9875%的識(shí)別率,前2組的準(zhǔn)確率略低于實(shí)驗(yàn)三的原因是由于實(shí)驗(yàn)三的訓(xùn)練樣本比前2組多,隨著訓(xùn)練樣本的增加,準(zhǔn)確率會(huì)提高,因?yàn)橥ㄟ^(guò)DBN網(wǎng)絡(luò)訓(xùn)練可以提取更全面的特征,更有利于識(shí)別。
從表2的實(shí)驗(yàn)結(jié)果可以看出,在ORL人臉數(shù)據(jù)庫(kù)上LBP,MBP,EPMOD,LBP+DBM和M-PCANet算法都取得了不錯(cuò)的識(shí)別效果,但本文提出的MBP+DBN算法識(shí)別準(zhǔn)確率最高。LBP算法忽略像素點(diǎn)本身的方向信息,而像素點(diǎn)本身也攜帶著局部強(qiáng)度信息,所以識(shí)別率不高。M-PCANet模型雖然準(zhǔn)確率高,但時(shí)間成本高。MBP和EPMOD結(jié)合單演信號(hào)的單演幅值和方向信息,與LBP相比增加了像素點(diǎn)本身的方向信息,特征提取較全面,比MBP準(zhǔn)確率高。深度學(xué)習(xí)網(wǎng)絡(luò)是每一層都進(jìn)行抽象學(xué)習(xí),將采用MBP算法提取的直方圖特征作為網(wǎng)絡(luò)輸入時(shí),能夠進(jìn)一步自主地提取更有效的人臉識(shí)別抽象特征,并且能夠在模型頂層進(jìn)行分類識(shí)別,有效地提高人臉識(shí)別準(zhǔn)確率。所以MBP+DBN算法有效。
4結(jié)語(yǔ)
在已有人臉圖像局部結(jié)構(gòu)特征提取和深度學(xué)習(xí)人臉識(shí)別研究的基礎(chǔ)上,基于單演局部二值模式(MBP)與深度學(xué)習(xí)的結(jié)合,提出了一種將MBP和深度信念網(wǎng)絡(luò)結(jié)合的人臉識(shí)別方法。MBP結(jié)合單演信號(hào)的單演幅值和單演方向信息,對(duì)圖像進(jìn)行濾波后,用LBP算法對(duì)其像素的局部變化進(jìn)行編碼,用象限比特方法對(duì)局部強(qiáng)度信息進(jìn)行編碼,將兩者組合在一起,分塊統(tǒng)計(jì)其直方圖特征。該方法能有效地提取出人臉圖像特征,提高人臉識(shí)別性能。訓(xùn)練深度學(xué)習(xí)模型DBN網(wǎng)絡(luò)時(shí),使用無(wú)監(jiān)督的貪婪算法,隱藏層設(shè)定為2層,將采用MBP算法提取的人臉特征作為DBN的輸入、逐層訓(xùn)練,在經(jīng)過(guò)2層訓(xùn)練后得到很小的重構(gòu)誤差,說(shuō)明模型參數(shù)選取合理。使用反向傳播算法優(yōu)化網(wǎng)絡(luò),在ORL人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果表明,所提出的算法在人臉識(shí)別中有更好的識(shí)別效果。
參考文獻(xiàn)/References:
[1]NEVES J, NARDUCCI F, BARRA S, et al. Biometric recognition in surveillance scenarios: A survey [J]. Artificial Intelligence Review, 2016, 46(4):515-541.
[2]OPITZ A, KRIECHBAUMZABINI A. Evaluation of face recognition technologies for identity verification in an eGate based on operational data of an airport[C]// IEEE International Conference on Advanced Video & Signal Based Surveillance.[S.l.]: IEEE, 2015:10.1109/AVSS.2015.7301747.
[3]LI Chen, WEI Wei, LI Jiaxue, et al. A cloud-based monitoring system via face recognition using Gabor and CS-LBP features [J]. The Journal of Supercomputing, 2017, 73(4):1532-1546.
[4]MASHHADI P S. A novel feature vector in the fused space of Gabor Magnitude and Gabor phase for face recognition [J]. Journal of Computational Intelligence & Electronic Systems, 2014, 3(4):135-142.
[5]TORTORICI C, WERGHI N, BERRETTI S. Boosting 3D LBP-based face recognition by fusing shape and texture descriptors on the mesh[C]// 2015 IEEE International Conference on Image Processing (ICIP).[S.l.]:IEEE, 2015:10.1109/ICIP.2015.73511287.
[6]張?chǎng)?,王文? 基于局部二值模式和深度學(xué)習(xí)的人臉識(shí)別[J].計(jì)算機(jī)應(yīng)用, 2015, 35(5): 1474-1478.
ZHANG Wen, WANG Wenwei. Face recognition based on local binary pattern and deep learning[J]. Journal of Computer Applications, 2015, 35(5): 1474-1478.
[7]LI Lei, FENG Xiaoyi, JIANG Xiaoyue, et al. Face anti-spoofing via deep local binary patterns[C]//2017 IEEE International Conference on Image Processing (ICIP).[S.l.]:[s.n.], 2018: 10.1109/ICIP.2017.8296251.
[8]WANG Yandan, SEE J, PHAN R W, et al. Efficient spatio-temporal local binary patterns for spontaneous facial micro-expression recognition [J]. US Nationsl Library of Medicine National Institutes of Health, 2015, 10(5): 10.1371/journal.pone.0124674.
[9]SAWAT D D, HEGADI R S. Unconstrained face detection: A deep learning and machine learning combined approach [J]. CSI Transactions on ICT, 2017, 5(2):195-199.
[10]ZHANG Wenchao, SHAN Shiguang, QING Laiyan,et al.Are Gabor phases really useless for face recognition?[J].Pattern Analysis and Applications,2009,12(3):301-307.
[11]閆海停,王玲,李昆明,等. 融合MBP和EPMOD的人臉識(shí)別[J]. 中國(guó)圖象圖形學(xué)報(bào), 2014, 19(1):85-91.
YAN Haiting, WANG Ling, LI Kunming, et al. Face recognition by fusing MBP and EPMOD [J]. Journal of Image and Graphics,2014,19(1):85-91.
[12]SWANHILD B . Fractional Riesz-Hilbert-Type transforms and associated monogenic signals [J]. Complex Analysis and Operator Theory, 2017, 11(5):995-1015.
[13]胡正平,何薇,王蒙,等. 多層次深度網(wǎng)絡(luò)融合人臉識(shí)別算法[J]. 模式識(shí)別與人工智能, 2017,30(5):66-73.
HU Zhengping, HEI Wei, WANG Meng, et al. Multi-level deep network fused for face recognition[J]. Pattern Recognition and Artificial Intelligence, 2017,30(5):66-73.
[14]TAIGMAN Y,YANG M,RANZATO M A, et al.Deepface: Closing the gap to human-level performance in face verification[J].Conference on Computer Vision and Pattern Recognition,2014:10.1109/CVPR.2014.220.
[15]DING H, ZHOU S K, CHELLAPPA R. FaceNet2ExpNet: Regularizing a deep face recognition net for expression recognition[J].IEEE International Conference on Automatic Face & Gesture Recognition, 2017:10.1109/FG.2017.23.第36卷第1期河北工業(yè)科技Vol.36,No.1