国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

稀疏表示的局部模式特征提取與識(shí)別

2021-10-07 03:35張雪琴林克正李驁
關(guān)鍵詞:特征提取

張雪琴 林克正 李驁

摘 要:針對(duì)人臉圖像在復(fù)雜光照環(huán)境下提取的特征不夠豐富,導(dǎo)致識(shí)別率低的問(wèn)題,提出一種稀疏表示的局部模式特征提取與識(shí)別算法。首先將圖像進(jìn)行分塊,依次對(duì)每個(gè)子區(qū)域的像素進(jìn)行閾值化處理,并將其與中心像素值比較的結(jié)果編碼到中心對(duì)稱(chēng)局部二值模式算法中來(lái)實(shí)現(xiàn)特征提取;然后在此基礎(chǔ)上采用中心對(duì)稱(chēng)局部方向模式算法提取二階特征,得到最終的紋理特征;最后結(jié)合稀疏表示分類(lèi)器對(duì)提取的特征進(jìn)行分類(lèi)識(shí)別。在Extended Yale B、CMU_PIE、AR數(shù)據(jù)集上的仿真實(shí)驗(yàn)驗(yàn)證了所提方法的有效性。

關(guān)鍵詞:中心對(duì)稱(chēng)局部二值模式;中心對(duì)稱(chēng)局部方向模式;特征提取;稀疏表示

DOI:10.15938/j.jhust.2021.04.014

中圖分類(lèi)號(hào):TP391.4

文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1007-2683(2021)04-0102-07

Abstract:In order to solve the problem that the face image is not rich in features extracted under complex lighting environments, which leads to a low recognition rate, a local pattern feature extraction and recognition algorithm based on sparse representation is proposed. Firstly, the image is divided into several sub-images and the Dynamic Threshold Central-symmetric Local Binary Pattern(DTCLBP) algorithm is used to extract features by thresholding the pixels of each sub-block and encoding the results of comparison with the central pixel values into the Central Symmetric Local Binary Pattern(CSLBP); and then second-order features are extracted from the processed image by the former step using the Central Symmetric Local Derivative Pattern(CSLDP); finally, the sparse representation classification algorithm is used to classify and identify the extracted features. The simulation experiments on Extended Yale B, CMU_PIE and AR face databases validate the effectiveness of the DTCLBP-CSLDP-SRC.

Keywords:central symmetric local binary pattern; central symmetric local derivative pattern; feature extraction; sparse representation

0 引 言

近年來(lái)基于人臉的局部特征提取方法逐漸成為模式識(shí)別領(lǐng)域的研究熱點(diǎn)。局部表示方法由于刻畫(huà)了局部更細(xì)節(jié)的紋理信息,對(duì)光照變化往往表現(xiàn)得更為魯棒,所以尋找一種高效、有鑒別能力的人臉局部特征描述算子是光照變化下人臉識(shí)別的一個(gè)關(guān)鍵挑戰(zhàn)。Ojala等[1]提出的局部二值模式(local binary pattern, LBP)是一種能有效提取圖像局部紋理特征的描述算子,它對(duì)灰度圖像中局部鄰近區(qū)域的紋理信息進(jìn)行提取,方法簡(jiǎn)單有效,具有良好的灰度不變性,因此在人臉識(shí)別[2-5]中得到了廣泛的應(yīng)用。然而,LBP容易受噪聲的影響,抗噪聲能力弱,而且其對(duì)光照十分敏感,光照變化問(wèn)題只能得到緩解,不能完全解決,因此研究出一種人臉局部特征描述方法,局部方向模式[6](local derivative pattern, LDP),它通過(guò)比較各像素在不同方向的相對(duì)邊緣響應(yīng)值來(lái)生成LDP編碼值,克服了LBP的缺點(diǎn),這在光照條件下以及有噪聲的情況下具有一定的魯棒性。

LBP和LDP算法提取的特征過(guò)于詳細(xì)且具有高維性,導(dǎo)致計(jì)算的復(fù)雜度高。因此出于簡(jiǎn)化和減少運(yùn)算的目的,Heikkila等[7]提出了中心對(duì)稱(chēng)局部二進(jìn)制模式算法(central symmetric local binary pattern, CSLBP),該算法維數(shù)低,抗噪能力強(qiáng),并成功應(yīng)用于人臉識(shí)別上[8-13],對(duì)人臉光照、表情和部分遮擋條件具有一定的魯棒性。

但是CSLBP算法還存在缺陷,它僅僅針對(duì)鄰域像素進(jìn)行計(jì)算,而忽略了中心像素點(diǎn)的作用,丟失了中心點(diǎn)的特征信息。在提取紋理特征時(shí)閾值不能自動(dòng)選擇,而且CSLBP僅提取一階特征,不能提取多階特征來(lái)表達(dá)人臉變化的細(xì)節(jié)信息,對(duì)于光照效果較差的人臉圖像,仍然不能達(dá)到滿(mǎn)意的識(shí)別效果。針對(duì)以上問(wèn)題,本文提出了一種提取光照條件下人臉圖像魯棒深度特征的有效方法。首先提出了一種動(dòng)態(tài)閾值的中心對(duì)稱(chēng)局部二值模式算法(dynamic threshold central-symmetric local binary pattern, DTCLBP),該算法是通過(guò)對(duì)每一子塊中的像素閾值化處理,并將其與中心像素灰度值比較的結(jié)果編碼到CSLBP算法中來(lái)進(jìn)行特征提取;其次,使用中心對(duì)稱(chēng)局部二階微分模式[14](central symmetric local derivative pattern, CSLDP)算法二次提取更細(xì)微的局部特征,最后結(jié)合稀疏表達(dá)分類(lèi)(sparse representation classification, SRC)[15]算法對(duì)提取的特征進(jìn)行分類(lèi)和識(shí)別,得到DTCLBP-CSLDP-SRC模型。

1 相關(guān)基本理論

1.1 CSLBP算法

CSLBP算法的主要思想:比較中心對(duì)稱(chēng)方向像素對(duì)的灰度值,當(dāng)像素對(duì)差值大于等于0時(shí),二進(jìn)制編碼為1,當(dāng)差值小于0時(shí)二進(jìn)制編碼為0,并將二進(jìn)制值轉(zhuǎn)換為十進(jìn)制的CSLBP值。CSLBP僅產(chǎn)生N/2個(gè)二進(jìn)制模式,當(dāng)使用直方圖來(lái)描述局部紋理特征時(shí),CSLBP的直方圖維數(shù)為2P/2,低于LBP的直方圖維數(shù)2P,極大地縮短了有限元長(zhǎng)度,提取的特征維度低。這種算子可以表達(dá)圖像局部紋理的空間結(jié)構(gòu),對(duì)光照變化具有一定的魯棒性,且計(jì)算復(fù)雜度低。

CSLBP算法的編碼規(guī)則定義如下:

式中:Gi和Gi+(N/2)是半徑為R的圓上N個(gè)等間距像素的中心對(duì)稱(chēng)像素對(duì)的灰度值。

8鄰域像素下的CSLBP算子的計(jì)算實(shí)例如下:

1.2 CSLDP算法

CSLDP是灰度范圍內(nèi)特征提取的紋理描述方法,它特征長(zhǎng)度短,計(jì)算速度快,提取出的特征能充分的表示人臉。在極端光照條件下,它比CSLBP算子能提取更詳細(xì)的局部信息,具有很強(qiáng)的魯棒性。

CSLDP算法進(jìn)行特征提取的具體原理是:在中心像素GC周?chē)植?個(gè)鄰域,如果G0位于水平方向,像素將沿著從G0對(duì)稱(chēng)的方向與GC進(jìn)行比較。如果乘積大于0,則結(jié)果為1,否則為0。然后可以得到一個(gè)四位二進(jìn)制數(shù),最后將它轉(zhuǎn)換成十進(jìn)制的代碼值。

CSLDP算法的編碼規(guī)則定義如下:

式中:R是半徑;N是周?chē)徲蛳袼財(cái)?shù)量;Gi和Gi+(N/2)是中心對(duì)稱(chēng)像素對(duì)的灰度值。

8鄰域像素下的CSLDP算子的計(jì)算實(shí)例如下:

2 DTCLBP-CSLDP-SRC模型

2.1 DTCLBP算法

1.1節(jié)所提到的CSLBP算法只考慮了中心對(duì)稱(chēng)像素之間的關(guān)系,卻忽略了中心像素上的信息。在圖像識(shí)別中往往中心像素點(diǎn)要比鄰域點(diǎn)能提供更重要的信息,因此提出一種動(dòng)態(tài)閾值的中心對(duì)稱(chēng)局部二值模式算法(DTCLBP),目的是在CSLBP算法基礎(chǔ)上把中心像素的灰度值GC其相鄰的像素梯度信息融合在一起。具體方法是引入了一個(gè)動(dòng)態(tài)閾值Gt,Gt反映的是每一子塊中N個(gè)等間距像素與中心像素的平均值,Gt是根據(jù)N的改變而變化的,而且圖像的每個(gè)子區(qū)域都有其對(duì)應(yīng)的動(dòng)態(tài)閾值。然后將中心點(diǎn)的像素值與Gt比較,當(dāng)值大于等于0時(shí),二進(jìn)制編碼為1,當(dāng)差值小于0時(shí),二進(jìn)制編碼為0。最后將其結(jié)果編碼到CSLBP算法的左側(cè),便可得到DTCLBP編碼。

DTCLBP算法的編碼規(guī)則定義如下:

式(5)中:GC為中心像素的灰度值;Gi和Gi+(N/2)是中心對(duì)稱(chēng)像素對(duì)的灰度值;Gt=∑N-1i=0Gi+GCN+1 ;t(x)是用于確定局部模式轉(zhuǎn)換的類(lèi)型。

DTCLBP算法的特征直方圖計(jì)算定義如下:

以8鄰域像素為例,DTCLBP算法具體的特征提取過(guò)程如圖1所示。

DTCLBP算法所提取的局部紋理特征與LBP算法相比,特征維度低。以8鄰域像素為例,其產(chǎn)生25=32個(gè)二進(jìn)制模式,而LBP產(chǎn)生28=256個(gè)。與CSLBP算法相比它的特征維度是高的,但僅比其多一倍,有5位二進(jìn)制序列,特征維度相對(duì)還是較低的,最重要的是它把中心像素的值融入到了整個(gè)編碼中,這使得提取的特征信息更加豐富。

2.2 稀疏表示模型

通過(guò)式(10)求出最稀疏解后將測(cè)試樣本與每一類(lèi)的重構(gòu)樣本進(jìn)行比較,最后將其歸到誤差最小的那一類(lèi)樣本中。其中每一類(lèi)的重構(gòu)誤差值計(jì)算如下:

測(cè)試樣本所屬的類(lèi)別計(jì)算如下:

2.3 算法步驟

根據(jù)前面的推導(dǎo)和分析,闡述所提出算法的具體操作步驟。

步驟1 分別將Extended Yale B、CMU_PIE、AR這3個(gè)數(shù)據(jù)庫(kù)中的圖像分為訓(xùn)練集和測(cè)試集。

步驟2 將訓(xùn)練集與測(cè)試集的每張圖像都進(jìn)行分塊處理,分為n塊,然后根據(jù)式(5)用DTCLBP算法提取每個(gè)子塊的紋理特征,用直方圖的形式表示為:

步驟3 同步驟2,根據(jù)式(3)用CSLDP算法在步驟2形成的特征圖像基礎(chǔ)上進(jìn)行二階特征提取,得到訓(xùn)練集矩陣D′,測(cè)試集矩陣y′。

步驟4 歸一化訓(xùn)練集矩陣D′的每一列,測(cè)試樣本表示為y′=D′x,然后根據(jù)式(10)求解稀疏系數(shù)。

步驟5 根據(jù)式(11)計(jì)算殘差ri(y′),最后根據(jù)式(12)計(jì)算出測(cè)試樣本的所屬類(lèi)別,輸出每個(gè)測(cè)試樣本的所屬類(lèi)別。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)環(huán)境及數(shù)據(jù)集

實(shí)驗(yàn)的環(huán)境為:Windows 7(64位),Matlab R2016a,RAM 8.00G。

為了驗(yàn)證提出方法的有效性,選擇在3個(gè)人臉庫(kù)Extended Yale B、AR、CMU_PIE上進(jìn)行實(shí)驗(yàn)。

Extended Yale B包含了來(lái)自38個(gè)人的2432張正面人臉圖像,每個(gè)人有64張是在不同照明條件下拍攝的,實(shí)驗(yàn)根據(jù)光源入射角度的不同,把其分為5個(gè)子集:子集1(0°~12°,每個(gè)人7張圖像),子集2(13°~25°,每個(gè)人12張圖像),子集3(26°~50°,每個(gè)人12張圖像),子集4(51°~77°,每個(gè)人14張圖像),子集5(大于78°,每個(gè)人19張圖像)。每張圖像的大小為192×168像素,5個(gè)子集的圖像樣圖如圖2所示。

CMU_PIE數(shù)據(jù)庫(kù)包含68個(gè)人的41268張多姿態(tài)、光照的面部圖像,其中在某一姿態(tài)下每人有43種光照條件下拍攝的圖像,大小為64×64像素,部分樣圖如圖3所示。

AR數(shù)據(jù)庫(kù)包含126個(gè)人的4000多張人臉圖像,每張圖像的大小為165×120像素,其中每個(gè)人參與兩個(gè)階段采集圖片,每個(gè)階段有13張圖片。在這13張圖片中,3張是戴墨鏡的,3張是戴圍巾的,剩下的7張包括不同的夸張面部表情、不同的光照變化,部分樣圖如圖4所示。

3.2 評(píng)價(jià)指標(biāo)

本文采用準(zhǔn)確率(Accuracy) 方法來(lái)評(píng)判所提方法的優(yōu)劣程度。

準(zhǔn)確率表示的是被正確分類(lèi)的樣本數(shù)占總體樣本的比重,公式如下:

Accuracy=TP+TNP+N

式中:TP表示被正確劃分為正例的個(gè)數(shù),TN表示被正確地劃分為負(fù)例的個(gè)數(shù),P+N表示總的測(cè)試樣本數(shù)。

3.3 分塊數(shù)對(duì)識(shí)別率的影響

在實(shí)驗(yàn)中,分塊數(shù)與所提算法的識(shí)別效果有著密切的關(guān)系,如果分割的子塊數(shù)太少,提取的特征信息不能很好地體現(xiàn)人臉局部細(xì)節(jié)。如果子塊數(shù)過(guò)多則會(huì)使特征維數(shù)增加而降低識(shí)別效果。

在Extended Yale B、CMU_PIE、AR數(shù)據(jù)庫(kù)中,將圖像分割成k×k(k=2,4,6,8,10)塊,分別實(shí)驗(yàn)10次,結(jié)果取平均識(shí)別率,如圖5所示。從實(shí)驗(yàn)結(jié)果可以看出,在Extended Yale B數(shù)據(jù)集中,分塊數(shù)在10×10附近表現(xiàn)出高的識(shí)別率;在CMU_PIE數(shù)據(jù)集中,識(shí)別率在分塊數(shù)為4×4時(shí)達(dá)到最大值,隨后開(kāi)始呈下降趨勢(shì);在AR數(shù)據(jù)集中,識(shí)別率在分塊數(shù)為9×9附近取得最大值。

3.4 結(jié)果與分析

Extended Yale B數(shù)據(jù)庫(kù)中,設(shè)計(jì)了2個(gè)實(shí)驗(yàn)來(lái)驗(yàn)證所提方法在復(fù)雜光照條件下的有效性。在第一個(gè)實(shí)驗(yàn)中,隨機(jī)選擇每個(gè)子集中的一張圖像形成訓(xùn)練集,子集1到子集5的剩余圖像分別作為測(cè)試集,進(jìn)行10次實(shí)驗(yàn),最后取平均識(shí)別率,增加結(jié)果穩(wěn)定性,與其他算法的比較結(jié)果如圖6所示。其中對(duì)比實(shí)驗(yàn)ECSLBP+DBN[16]參數(shù)設(shè)置:DBN層數(shù)為3,節(jié)點(diǎn)數(shù)為50-30-20,迭代次數(shù)為50次,學(xué)習(xí)率為0.001。LNMLCP[17]則是引入了指數(shù)判別分析和模糊融合框架對(duì)局部特征提取進(jìn)行改進(jìn)。

由實(shí)驗(yàn)結(jié)果可以看出,對(duì)于光照條件相對(duì)比較理想的子集1和子集2,本文提出的方法與LBP+DBN、ECSLBP+DBN[16]的識(shí)別率都接近100%。隨著光照條件的惡化,算法性能都普遍下降,但LBP+DBN下降幅度最大,并且在子集5上識(shí)別率僅為30%,而其余方法在最差光照條件下的識(shí)別率在55%~80%,但本文方法在子集5上的識(shí)別率接近95%,下降幅度很小,這是因?yàn)镈TCLBP算法提取了豐富的人臉局部特征,并結(jié)合CSLDP算法使提取的特征更加完整。實(shí)驗(yàn)結(jié)果表明本文提出的方法可以適應(yīng)不同的光照條件,特別是當(dāng)人臉圖像處于極端的光照條件下時(shí),本文方法有明顯的優(yōu)勢(shì),具有魯棒性。

第二個(gè)實(shí)驗(yàn)中,選擇光照條件理想的子集1和子集2的圖像作為訓(xùn)練集,剩余的3個(gè)子集分別作為測(cè)試集進(jìn)行15次重復(fù)實(shí)驗(yàn),最后結(jié)果取平均識(shí)別率,與其他方法的對(duì)比結(jié)果如圖7所示。其中對(duì)比方法ECSLBP+DBN[16]和LNMLCP[17]的參數(shù)配置與實(shí)驗(yàn)一的相同。

由實(shí)驗(yàn)結(jié)果可知,本文方法在子集3和子集4上的效果最佳,對(duì)于光照條件差的子集4本文方法識(shí)別率達(dá)95.24%,比其他方法都高,表現(xiàn)出較好的優(yōu)勢(shì),具有穩(wěn)定性。隨著光照干擾的繼續(xù)增加,各種算法的性能普遍下降,在光照條件最差的子集5上本文方法與識(shí)別性能相對(duì)較好的K-SRC、DOG+LTP、LNMLCP[17]方法比較僅相差0.2%左右,所以對(duì)光照變化具有一定的魯棒性。

在CMU_PIE人臉庫(kù)中,選取Pose07下的32個(gè)志愿者的人臉圖像進(jìn)行實(shí)驗(yàn),每人有43張不同光照條件的圖像。實(shí)驗(yàn)中分別取每個(gè)人的前t張圖像(t=20,25,30,35,40,45)作為訓(xùn)練集,其余的為測(cè)試集,進(jìn)行10次重復(fù)實(shí)驗(yàn),結(jié)果取平均識(shí)別率,圖像的分塊數(shù)為4×4,與其他方法的對(duì)比結(jié)果如表1所示。其中對(duì)比方法FRMCD[18]是對(duì)深度信念網(wǎng)絡(luò)和局部特征的改進(jìn),它的隱藏層單元數(shù)為250。ECSLBP+DBN[16]的參數(shù)設(shè)置:DBN層數(shù)為3,節(jié)點(diǎn)數(shù)為50-30-20,迭代次數(shù)為50次,學(xué)習(xí)率為0.001。LBP+CNN[21]參數(shù)設(shè)置:學(xué)習(xí)率為0.0001,結(jié)構(gòu)包括4個(gè)卷積層、2個(gè)最大池化層、1個(gè)激活層、1個(gè)全連接層和1個(gè)輸出層。

由實(shí)驗(yàn)結(jié)果可知,本文方法相對(duì)于PCA、LBP等傳統(tǒng)方法更能提高識(shí)別性能,與深度信念網(wǎng)絡(luò)相比識(shí)別率可以提高12%左右,與結(jié)合深度學(xué)習(xí)的方法FRMCD[18]、VGG-Face[19]等相比提升的識(shí)別率接近5%,與卷積神經(jīng)網(wǎng)絡(luò)相比識(shí)別率僅提高0.8%,說(shuō)明將DTCLBP與CSLDP融合能充分挖掘圖像的局部特征信息,提高了算法的識(shí)別能力。

對(duì)于耗時(shí)實(shí)驗(yàn),選擇在CMU_PIE人臉庫(kù)上進(jìn)行,隨機(jī)取每個(gè)人80%的圖像作為訓(xùn)練集,其余的為測(cè)試集,重復(fù)10次實(shí)驗(yàn),結(jié)果取平均值,如表2所示。

結(jié)合表1、表2可知,雖然本文算法的識(shí)別率略高于LBP結(jié)合卷積神經(jīng)網(wǎng)絡(luò)的方法,但是其耗時(shí)較長(zhǎng),表現(xiàn)出不足。

在AR人臉數(shù)據(jù)庫(kù)中,選擇50名男性和50名女性的1 400張圖像,其中去掉每人有遮擋的12 幅圖像,剩下14 幅不同光照條件下的圖像進(jìn)行實(shí)驗(yàn),隨機(jī)取每個(gè)人的t(t=3,4,5,6) 張圖像作為訓(xùn)練樣本,其余的為測(cè)試樣本,取10次結(jié)果的平均值作為實(shí)驗(yàn)數(shù)據(jù)。與其他方法的識(shí)別率比較結(jié)果如圖8所示。

實(shí)驗(yàn)結(jié)果可以看出各種方法的識(shí)別率都是隨著訓(xùn)練樣本數(shù)的增加而提高的,當(dāng)訓(xùn)練樣本為3時(shí),本文方法識(shí)別率為87.82%;當(dāng)訓(xùn)練樣本達(dá)到6時(shí),雖然與Parkhi等[19]提出的VGG-Face網(wǎng)絡(luò)模型比識(shí)別率低,但在訓(xùn)練樣本較少的情況下所提算法識(shí)別性能表現(xiàn)最好。所以在光照變化程度不太明顯的AR人臉庫(kù)中,本文算法可以提取到豐富的特征,獲得較高識(shí)別率。

4 結(jié) 論

本文提出了一種基于稀疏表示的局部模式特征提取與識(shí)別算法。一方面充分利用了DTCLBP算法對(duì)復(fù)雜光照環(huán)境下的圖像具有良好特征提取能力的優(yōu)勢(shì),另一方面,結(jié)合CSLDP算法可以提取更加細(xì)微的高階信息,而且兩次特征提取都不丟失中心像素信息,這使得提取的特征更加完整,進(jìn)一步提高了算法的識(shí)別率。實(shí)驗(yàn)結(jié)果表明,在復(fù)雜光照條件下,DTCLBP-CSLDP-SRC模型有明顯的優(yōu)勢(shì),尤其在光照條件極差的情況下具有一定魯棒性。本文算法計(jì)算簡(jiǎn)單,提取的特征長(zhǎng)度短,復(fù)雜度低,可以提高人臉識(shí)別的準(zhǔn)確率,并且在訓(xùn)練樣本數(shù)量較少的情況下也具有明顯優(yōu)勢(shì)。

參 考 文 獻(xiàn):

[1] OJALA T, PIETIKAINEN M, HARWOOD D. A Comparative Study of Texture Measures with Classifcation Based on Featured Distributions[J]. Pattern Recognition,1996,29(1):51.

[2] SHAN Caifeng, GONG Shaogang, MCOWAN P W. Facial Expression Recognition Based on Local Binary Patterns:A Comprehensive Study[J]. Image and VisionComputing,2009,27(6):803.

[3] LUO Yuan,Wu Caiming,ZHANG Yi. Facial Expression Recognition Based on Fusion Feature of PCA andLBP with SVM[J]. Optik-International Journal for Light and Electron Optics,2013,124(17):2767.

[4] TANG Hengliang, YIN Baocai, SUN Yanfeng, et al. 3D Face Recognition using Local Binary Patterns [J].Signal Processing,2013,93(8):2190.

[5] 萬(wàn)源, 李歡歡, 吳克風(fēng), 等. LBP和HOG的分層特征融合的人臉識(shí)別[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2015,27(4):640.

WAN Yuan, LI Huanhuan, WU Kefeng, et al. Fusionwith Layered Features of LBP and HOG for Face Recognition[J]. Journal of Computer-Aided Design andComputerGraphics,2015,27(4):640.

[6] TUKHTASINOV M T,MIRZAEV N,NARZULLOEV O M. Face Recognition on the Base of Local Directional Patterns[C]//2016 Dynamics of Systems, Mechanisms and Machines.Omsk:IEEE,2016.

[7] HEIKKILA M, PIETIKAINEN M, SCHMID C. Description of Interest Regions with Local Binary Patterns[J]. Pattern Recognition,2008,42(3):425.

[8] 張潔玉, 趙鴻萍, 陳曙. 自適應(yīng)閾值及加權(quán)局部二值模式的人臉識(shí)別[J]. 電子與信息學(xué)報(bào), 2014, 36(6):1327.

ZHANG Jieyu, ZHAO Hongping, CHEN Shu. Face Recognition Based on Weighted Local Binary Patternwith Adaptive Threshold[J].Journal of Electronics andInformation Technology,2014,36(6):1327.

[9] CHAKRABORTY S, SINGH S K, CHAKRABORTYP. R-theta Local Neighborhood Pattern for Unconstrained Facial Image Recognition and Retrieval[J]. Multimedia Tools and Applications, 2019, 78(11):14799.

[10]ZHOU Ningning, CONSTANTINIDES A G, HUANG Guofang, et al.Face Recognition Based on an Improved Center Symmetric Local Binary Patter[J]. Neural Computing and Applications,2018,30(12):3791.

[11]LI Jiadi, CHEN Zhenxue, LIU Chengyun.Low-resolution Face Recognition of Multi-scale Blocking CS-LBPand Weighted PCA[J]. International Journal of Pattern Recognition and Artificial Intelligence,2016,30(8):1656005.1.

[12]ZHONG Rui, WU Huaiyu, HE Yun.Fast Face Recognition Algorithm Based on Local Fusion Feature and Hierarchical Incremental Tree[J].Computer Science,2018,45(6):308.

[13]楊恢先, 賀迪龍, 劉凡, 等. 基于雙向梯度中心對(duì)稱(chēng)局部二值模式的單樣本人臉識(shí)別[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2017, 29(1) :130.

YANG Huixian, HE Dilong, LIU Fan,et al. Face Recognition Based on Bidirectional Gradient Center Symmetric Local Binary Patterns[J].Journal of Computer-Aided Design and Computer Graphics, 2017, 29(1):130.

[14]XUE Gengjian,LI Song,SUN Jun,et al. Hybrid Centersymmetric Local Pattern for Dynamic Background ?Subtraction[C]//IEEE International Conference on Multimedia and Expo.Barcelona:IEEE,2011:1.

[15]林克正,莊靚瑋,榮友湖,等.基于Gabor特征的全局加權(quán)稀疏表示[J].哈爾濱理工大學(xué)學(xué)報(bào),2016,21(1):40.

LIN Kezheng, ZHUANG Liangwei, RONG Youhu, et al. Based on Gabor Characteristics Global Weighted Sparse Representation[J]. Journal of Harbin University of Science and Technology,2016,21(1):40.

[16]LI Chen, ZHAO Shuai, XIAO Ke, et al.Face Recognition Based on the Combination of Enhanced Local Texture Feature and DBN under Complex Illumination Conditions[J].Journal of Information processing Systems,2018,14(1):191.

[17]ZHOU Lifang, LI Weisheng, DU Yuewei, et al.Adaptive Illumination-invariant Face Recognition via Local Nonlinear Multi-layer Contrast Feature[J]. Journal of Visual Communication and Image Representation,2019,64:10.

[18]SUN Kun, YIN Xin, YANG Mingxin, et al.The Face Recognition Method Based on CS-LBP and DBN[J]. Mathematical Problems in Engineering,2018(14):1.

[19]PARKHI O M,VEDALDI A,ZISSERMAN A.Deep Face Recognition[C]//British Machine Vision Conference,2015:1.

[20]段紅燕, 何文思, 李世杰.改進(jìn)的單尺度Retinex和LBP結(jié)合的人臉識(shí)別[J]. 計(jì)算機(jī)工程與應(yīng)用, 2018, 54(23):148.

DUAN Hongyan, HE Wensi, LI Shijie.Face Recognition Based on Improved Single Scale Retinex and LBP Algorithm[J]. Computer Engineering and Applications,2018,54(23):148.

[21]KE Pengfei,CAI Maoguo,WANG Hanmo,et al. A Novel Face Recognition Algorithm Based on the Combination of LBP and CNN[C]//2018 14th IEEE International Conference on Signal Processing, Beijing, 2018:539.

(編輯:溫澤宇)

猜你喜歡
特征提取
基于MED—MOMEDA的風(fēng)電齒輪箱復(fù)合故障特征提取研究
基于曲率局部二值模式的深度圖像手勢(shì)特征提取
基于數(shù)字形態(tài)學(xué)特征的植物葉片識(shí)別技術(shù)綜述
基于KNN?SVM的垃圾郵件過(guò)濾模型
基于極限學(xué)習(xí)機(jī)的玻璃瓶口缺陷檢測(cè)方法研究
一種針對(duì)特定無(wú)線電信號(hào)的識(shí)別方法
基于模糊K近鄰的語(yǔ)音情感識(shí)別
音頻比對(duì)技術(shù)在安全播出中的發(fā)展與應(yīng)用
DNA序列特征提取與功能預(yù)測(cè)技術(shù)的探討