国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

自適應(yīng)Gabor特征的協(xié)同表示人臉識別算法*

2018-03-26 03:33:29嚴旭東吳錫生
傳感器與微系統(tǒng) 2018年3期
關(guān)鍵詞:鑒別能力訓練樣本識別率

嚴旭東, 吳錫生

(江南大學 物聯(lián)網(wǎng)工程學院,江蘇 無錫 214122)

0 引 言

稀疏表示最早被提出時,應(yīng)用在圖像濾波、圖像重構(gòu)、圖像壓縮等。Wright J等人[1]提出了的基于稀疏表示的分類(sparse representation-based classification,SRC)方法從一個新穎的角度來解決分類問題。Yang M等人[2]提出了基于Gabor特征提取方法的SRC(Gabor-feature-based SRC,GSRC)人臉識別算法,將變換后的特征進行字典學習降低復(fù)雜度。Zhang L等人[3]討論了SRC識別算法中致使識別準確性高的主要因素,證明了訓練樣本對于測試樣本的協(xié)同表示分類(collaboration representation-based classification,CRC)起了關(guān)鍵作用[4]。

針對全局特征在人臉識別的問題中,對于表情、光照、姿態(tài)變化[5]等因素不敏感的情況,文獻[6]提出了將人臉全局識別結(jié)果和分離部件識別結(jié)果融合的SRC方法。文獻[7]將Gabor特征同一方向或者同一尺度的通道分為一組[8],每一組SRC的結(jié)果在決策級進行融合。使用局部特征的人臉識別算法對樣本中因表情、光照、姿態(tài)等因素的變化,具有一定的抑制作用,但大部分文獻并未對局部特征的鑒別性能做出分析,并且局部特征越多越影響識別算法的性能和效率。

本文提出了一種自適應(yīng)Gabor特征協(xié)同表示人臉識別算法(Gabor adaptive weight CRC,GAW-CRC)。將不同的方向和尺度的Gabor特征區(qū)分,鑒于每個通道下的Gabor圖像在不同的人臉數(shù)據(jù)庫中分類識別的能力不同,提出了一種自適應(yīng)的特征分量淘汰機制和自適應(yīng)權(quán)重計算方法。同時將鑒別能力較強的特征分量的協(xié)同表示分類結(jié)果加權(quán)融合,得出最終的分類結(jié)果,提高了算法的識別率。

1 協(xié)同表示分類算法與Gabor特征提取

1.1 SRC和協(xié)同表示分類算法

假設(shè)有N類訓練圖像,記為A=[X1,X2,…,XN],每類訓練圖像的樣本數(shù)為M,記為Xi=[xi,1,…,xi,j,…xi,M],i=1,2,…,N,j=1,2,…,M,可以用訓練圖像線性的表示測試圖像,即y=Aα+ε。其中,α為稀疏表示系數(shù),ε為一定允許范圍內(nèi)的噪聲。L0范數(shù)的優(yōu)化求解是一個NP問題,可用式(1)的L1優(yōu)化[9]求解,該方法已被證明是最近似L0優(yōu)化問題的解

(1)

按照式(2)計算每一類的表示誤差

(2)

根據(jù)誤差結(jié)果,將測試圖像劃分到誤差最小的類,如式(3)所示

identity(x)=arg min{ri(x)}

(3)

式中identity(x)為測試樣本圖像的類別。

文獻[3]將式(4)作為協(xié)同表示(collaborative representation,CR)的一般模型

(4)

同時將SRC視為CRC中的一個特例,并提出使用L2優(yōu)化的CRC_RLS (collaboration representation based classification with regularized least square)方法,協(xié)同表示[10]分類采用L2范數(shù)取代L1,減少了計算時間。

1.2 多分量Gabor特征提取

二維Gabor小波[11]的核函數(shù)定義為

(5)

設(shè)I(z)=I(x,y)代表一幅灰度圖像。將灰度圖像I(z)卷積后得到該圖像的Gabor小波表示,即

Gμ,v(z)=I(z)*ψμ,v(z)

(6)

在不同的尺度和不同的方向上,每一幅人臉圖像共產(chǎn)生40個Gabor特征分量。

2 自適應(yīng)Gabor特征的多分量協(xié)同表示算法

不同尺度和方向的Gabor特征鑒別能力存在差異[12],因此,在建模過程中對不同的Gabor特征需加以區(qū)分,對于鑒別能力較差的分量,予以淘汰,鑒別能力強的特征分量根據(jù)自適應(yīng)的權(quán)重函數(shù)加權(quán)融合。本文將上述描述的方法稱為自適應(yīng)Gabor特征的多分量協(xié)同表示分類(GAW-CRC)算法。

2.1 自適應(yīng)Gabor特征分量淘汰算法

通過實驗發(fā)現(xiàn),對于Gabor分量的特征集中那些類內(nèi)區(qū)別較大,類間變化并不明顯的特征分量,其分類結(jié)果并不好。因此,本文算法中,通過計算類內(nèi)方差和類間方差的比值,較為明顯地給出每個特征分量的鑒別能力,以淘汰鑒別能力明顯較差的特征分量。具體方法如下:

1)計算每個Gabor特征分量的每一類的均值

2)計算每個Gabor特征分量每一類的方差

3)計算每個Gabor特征分量中所有樣本類的類間方差均值

4)計算每個Gabor特征分量中所有樣本的均值

5)計算每個Gabor特征分量中所有樣本的方差

6)計算每個Gabor特征分量的樣本類內(nèi)方差和樣本類間方差的比值

當比值比較小時,意味著該特征分量對于樣本的鑒別能力較強。

本文自適應(yīng)Gabor特征分量淘汰算法中,選擇所有比值的中值Rc(m)或者平均值Rc(a)作為閾值分割,即Rc≥Rc(m)或者Rc≥Rc(a)即將其淘汰。將剩余的40-E個特征分量,構(gòu)建特征字典用于分類識別,E為被淘汰的分量。

2.2 自適應(yīng)權(quán)重計算

盡管剩余的40-E個特征分量鑒別能力較強,但并不能簡單地將每個分量協(xié)同表示分類的結(jié)果直接投票表決。本文分析了剩余特征分量對于最終識別結(jié)果的貢獻能力,提出了自適應(yīng)的權(quán)重計算函數(shù),將所有剩余Gabor變換特征分量各自構(gòu)建新的訓練樣本集,共有40-E個訓練集Ti,i=1,2,…,40-E,假定Xi=[xi1,xi2,…,xiN]表示第i個訓練集Ti中的N個Gabor圖像。對于第i個訓練集中的每一幅Gabor圖像xij,j=1,2,…,N,首先通過計算該向量與同一訓練集中其他向量的歐氏距離找到它的k近鄰[14,15]。令kij表示k近鄰中與xij是同一類標簽的樣本數(shù)量。那么第i(i=1,2,…,40-E)個訓練集的權(quán)重可通過式(7)得到

(7)

2.3 GAW-CRC具體步驟

輸入:訓練樣本的向量矩陣A=[X1,X2,…,XN]∈RM×N和測試樣本圖像y。

1)分別提取訓練樣本A和測試樣本y的Gabor特征的所有分量;

2)采用自適應(yīng)Gabor特征分量淘汰算法,將類內(nèi)方差和類間方差比值較大的分量淘汰;

3)采用本文的計算自適應(yīng)權(quán)重的方法,計算剩余40-E個Gabor特征分量的權(quán)重值;

4)將剩余40-E個Gabor特征分量構(gòu)造的字典,分別協(xié)同表示測試樣本對應(yīng)的分量,按照單位殘差最小原則,將測試樣本劃分到單位殘差最小的一類;

5)將每個Gabor分量的識別結(jié)果加權(quán)融合得出最終分類結(jié)果。

3 實驗結(jié)果與分析

算法在AR,FERET和Extended Yale B人臉數(shù)據(jù)庫上進行了大量的實驗。3個人臉圖像數(shù)據(jù)庫中包含了不同的表情,不同光照環(huán)境,不同種族不同膚色的人臉,是公認度比較高的數(shù)據(jù)庫。

將本文算法與SRC[1],GSRC[2],CRC[3]以及WMC-SRC[7]算法進行了比較。

3.1 FERET數(shù)據(jù)庫識別實驗

在FERET人臉庫中,針對每一類人臉存在的不同角度的姿態(tài),表情的變化和光照的變化,組成訓練樣本和測試樣本。本文算法在小樣本量情況下,針對測試樣本有姿態(tài)角度變化、表情和光照變化的情況進行了實驗。以每個訓練集中的第一幅圖像即正臉圖像作為訓練樣本,測試樣本由2幅小的姿態(tài)變化、2幅大的姿態(tài)變化、1張表情變化和1張光照變化組成,如圖1。將本文提出的算法的識別率與同樣的樣本環(huán)境下SRC,CRC和GSRC以及WMC-SRC算法識別率對比,結(jié)果如表1所示。

圖1 FERET數(shù)據(jù)庫上的人臉圖像

表1 FERET庫上單個訓練樣本的識別率 %

為了使自適應(yīng)的權(quán)重發(fā)揮作用,選擇盡量多樣本數(shù)量作為訓練樣本,剩余樣本作為測試樣本進行實驗。實驗結(jié)果如表2所示。

表2中可以發(fā)現(xiàn):本文算法在訓練樣本存在小角度姿態(tài)變化時,對比SRC和CRC算法的識別率可以提升8 %~12 %。而相對于用Gabor特征作為特征分類識別的GSRC算法的識別率也可以提升6 %~8 %。對比將Gabor特征單個方向和單個尺度作為特征融合進行識別的WMC-SRC算法,本文算法的識別率也有較為明顯的提高。

3.2 AR人臉數(shù)據(jù)庫識別實驗

AR人臉庫中共包含120各不同人的26個不同表情和有遮擋的人臉。實驗中,分別選擇男女各50個人,作為實驗對象。對每一類人臉,選擇其中14張未遮擋,但包含表情變化和姿態(tài)變化的樣本作為實驗數(shù)據(jù)。選擇每一類圖像中的不同數(shù)量的圖像作為訓練圖像,其余的人臉圖像作為測試圖像。取不同數(shù)量訓練樣本進行多次實驗分析,將每次實驗結(jié)果的平均值統(tǒng)計如表3所示。

由表3可知用于訓練的圖像比較少時,本文的算法對比其他算法識別率僅稍有提升。但當訓練樣本數(shù)目逐漸增多時,本文的算法識別率相較于其他算法識別率有較為明顯的提高。說明本文算法的特征分量淘汰機制和自適應(yīng)權(quán)重機制在訓練樣本數(shù)量充足時,對于最終的分類結(jié)果能夠發(fā)揮重要作用。

圖2為隨機選擇5,7,9幅不同數(shù)量的圖像訓練時,計算出40個Gabor特征分量類內(nèi)方差和類間方差比值的柱狀圖。圖中的40個條形為不同的Gabor分量的類內(nèi)圖像之間方差和類間方差的比值。條形較短的分量,其類內(nèi)聚合度高且類間距離大,表示該分量鑒別能力強,而條形較長的分量則類內(nèi)聚合度低且類間距離小,表示該分量鑒別能力弱。應(yīng)用本文提出的自適應(yīng)特征分量淘汰機制,僅使用條形較短的特征分量作分類識別會得到較高的識別率。

圖2 AR庫上選取不同像數(shù)量時特征分量的鑒別能力

圖3為不同維度對應(yīng)的識別率與SRC算法、CRC算法、GSRC算法以及WMC-SRC算法的識別率進行對比的。當樣本選取的特征維度較低時相對于另外的4種算法,本文算法具有更加明顯的優(yōu)勢。

圖3 AR庫上不同特征維度的算法識別率

3.3 Extended Yale B人臉數(shù)據(jù)庫識別實驗

Extended Yale B人臉數(shù)據(jù)庫中每一類樣本數(shù)據(jù)中含有9種不同姿態(tài)和64種不同光照條件的人臉圖像。實驗隨機取每個人臉的8,16,24,32幅圖像作為訓練圖像,剩余的圖像作為測試圖像。Gabor特征分量的淘汰機制選擇中值淘汰法。實驗結(jié)果如圖4。

圖4 Extended Yale B庫上訓練不同樣本個數(shù)識別率比較

可以發(fā)現(xiàn),本文算法在樣本個數(shù)變化的情況下,自適應(yīng)Gabor特征協(xié)同表示人臉識別算法得到的識別率結(jié)果高于其他算法。表明當存在表情變化以及光照條件變化情況下,GAW-CRC算法識別率相對于其他算法亦有所提高。

表4為本文的算法和其他算法運行時間的比較。由于本文算法需要計算淘汰后剩余的40-E個特征分量的識別結(jié)果,因此,其識別時間相對于單一特征的SRC算法、CRC算法和GSRC算法要長,但對較WMC-SRC算法針對全部Gabor特征分量的處理稍快。另外將自適應(yīng)的Gabor特征分量淘汰機制和自適應(yīng)權(quán)重算法結(jié)合SRC算法進行實驗,對比算法運行時間,本文算法在運行速度上具有極大的優(yōu)勢。

表4 Extended Yale B庫上各算法運行時間比較 s

4 結(jié) 論

基于CR的人臉識別算法,在構(gòu)造特征字典時,選擇Gabor變換的多個分量中最具鑒別力的分量進行特征重組,并將各個特征分量的字典協(xié)同地表示測試樣本。將每個分量分別用于分類識別的特征,按照本文提出的自適應(yīng)的權(quán)重計算方法,分別給每個分量賦予不同的權(quán)重,將各分量的識別結(jié)果進行加權(quán)融合得出最終的識別結(jié)果。

本文提出的自適應(yīng)GAW-CRC算法與傳統(tǒng)稀疏表示人臉識別算法相比,CR分類方法具有更強的理論依據(jù),在同類處理方式下,極大地降低了計算的復(fù)雜度。自適應(yīng)的Gabor多分量的特征提取,解決了Gabor變換特征組合使用對于分類識別準確性不足的缺點,淘汰了鑒別力較差的分量,并且將剩余鑒別力較好的分量按照貢獻度的不同加權(quán)融合,實驗證明本文算法在AR,F(xiàn)ERET,Extended Yale B人臉庫上均能有效地提高人臉識別的準確率。

[1] Wright J,Yang A,and Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.

[2] Yang M,Zhang L.Gabor feature based sparse representation for face recognition with Gabor occlusion dictionary[C]∥European Conference on Computer Vision,ECCV 2010,2010:448-461.

[3] Zhang L,Yang M,Feng X C,et al.Collaborative representation based classification for face recognition[DB].Computer Science:Computer Vision and Pattern Recognition.arXiv:1204.2358V2[CS.CV],2012.

[4] Zhang L,Yang M,Feng X.Sparse representation or collaborative representation:Which helps face recognition[C]∥2011 IEEE International Conference on Computer Vision(ICCV),IEEE,2011:471-478.

[5] 田 娟,鄭郁正.模板匹配技術(shù)在圖像識別中的應(yīng)用[J].傳感器與微系統(tǒng),2008,27(1):112-114.

[6] 胡正平,宋淑芬.基于全局和分離部件融合的雙L1稀疏表示人臉圖像識別算法[J].模式識別與人工智能,2012, 25(2):78-83.

[7] 楊清山,郭成安,金明錄.基于Gabor多通道加權(quán)優(yōu)化與稀疏表征的人臉識別方法[J].電子與信息學報,2011,33(7):1618-1624.

[8] 孫君頂,劉曉惠,陳鵬鵬.基于改進局部方向模式的人臉識別[J].傳感器與微系統(tǒng),2016,35(6):52-55.

[9] Yang A Y,Zhou Z,Balasubramanian A G,et al.Fast-minimization algorithms for robust face recognition[J].IEEE Transactions on Image Processing,2013,22(8):3234-3246.

[10] Wang L,Li Y,Wang C,et al.2D Gabor face representation method for face recognition with ensemble and multichannel model[J].Image and Vision Computing,2008,26(6):820-828.

[11] Yang M,Van Gool L,Zhang L.Sparse variation dictionary learning for face recognition with a single training sample per person[C]∥Proceedings of the IEEE International Conference on Computer Vision,2013:689-696.

[12] Ashrafulamin M,Yan H.An empirical study on the characteristics of gabor representations for face recognition[J].International Journal of Pattern Recognition & Artificial Intelligence,2011,23(3):401-431.

[13] Yang M,Zhang L,Zhang D,et al.Relaxed collaborative representation for pattern classification[C]∥2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),IEEE,2012:2224-2231.

[14] 劉中華,殷 俊,金 忠.一種自適應(yīng)的Gabor圖像特征抽取和權(quán)重選擇的人臉識別方法[J].光子學報,2011,40(4):636-641.

[15] Shi J,Liu X,Li Y,et al.Multi-channel EEG-based sleep stage classification with joint collaborative representation and multiple kernel learning[J].Journal of Neuroscience Methods,2015,254:94-101.

猜你喜歡
鑒別能力訓練樣本識別率
基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
計算機工程(2020年3期)2020-03-19 12:24:50
人工智能
“互聯(lián)網(wǎng)+教育”背景下巧用學習類APP
基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
提升高速公路MTC二次抓拍車牌識別率方案研究
寬帶光譜成像系統(tǒng)最優(yōu)訓練樣本選擇方法研究
融合原始樣本和虛擬樣本的人臉識別算法
基于稀疏重構(gòu)的機載雷達訓練樣本挑選方法
高速公路機電日常維護中車牌識別率分析系統(tǒng)的應(yīng)用
淺論新聞編輯的受眾意識
益阳市| 大悟县| 兰州市| 鄂温| 罗城| 仁布县| 湘乡市| 杭锦后旗| 福贡县| 临海市| 北海市| 抚宁县| 大埔县| 昂仁县| 左云县| 永年县| 甘孜| 陈巴尔虎旗| 轮台县| 曲沃县| 湟源县| 曲水县| 梁河县| 徐闻县| 平阴县| 兰西县| 蓝田县| 博罗县| 德清县| 西畴县| 德保县| 武川县| 万州区| 集贤县| 临沧市| 家居| 临安市| 治县。| 衡南县| 新津县| 定日县|