關(guān)健生
GUAN Jiansheng
廈門理工學(xué)院 電氣工程與自動化學(xué)院,福建 廈門 361024
School of Electrical Engineering and Automation,Xiamen University of Technology,Xiamen,Fujian 361024,China
人臉識別系統(tǒng)通常使用人臉圖像識別特定的身份,已廣泛應(yīng)用于生物特征認(rèn)證的人機(jī)交互中,如視頻監(jiān)控和訪問控制等[1]。最具代表性的人臉識別方法有主成分分析(Principal Component Analysis,PCA)[2]、線性成分分析(Linear Discriminant Analysis,LDA)[3]、獨(dú)立主成分分析(Independent Component Analysis,ICA)[4]等,這些方法在非限制條件下均能取得良好的效果,但是,在處理帶有光照、姿態(tài)、表情及場景變化的三維人臉識別問題時,效果并不是很理想。
為了解決三維人臉識別問題,學(xué)者們提出了許多用于提高非限制條件下人臉識別性能的算法,例如,文獻(xiàn)[5]提出了一種建立在數(shù)據(jù)源分析基礎(chǔ)上對典型人臉識別算法進(jìn)行后處理的方法,有效地提高了現(xiàn)有典型識別算法的識別性能在無約束環(huán)境下的魯棒性。為了在嵌入式系統(tǒng)中實現(xiàn)實時視頻圖像人臉識別,文獻(xiàn)[6]提出了基于TI系列TMS320DM642的快速人臉檢測系統(tǒng)設(shè)計方案,測試結(jié)果表明,系統(tǒng)可靠運(yùn)行,優(yōu)化后系統(tǒng)運(yùn)行速度提高,能夠?qū)崿F(xiàn)實時視頻圖像人臉識別。文獻(xiàn)[7]提出基于B樣條的多級模型自由形式形變(Free Form Deformation,F(xiàn)FD)彈性配準(zhǔn)算法,先用低分辨率FFD網(wǎng)格全局配準(zhǔn),再對全局配準(zhǔn)后的圖像分塊并計算對應(yīng)子圖塊的相關(guān)性系數(shù),對相關(guān)性系數(shù)小的子圖塊用高分辨率FFD網(wǎng)格局部細(xì)配準(zhǔn),在人臉畸變和表情變化很大的情況下,也能夠精確配準(zhǔn)和很好地重建,得到較高識別率。文獻(xiàn)[8]在保局投影算法(LPP)及支持向量機(jī)(SVM)的基礎(chǔ)上提出了一種基于相關(guān)反饋的視頻人臉識別算法,通過合理的數(shù)據(jù)建模提取出視頻中的時空連續(xù)性語義信息,同時能夠發(fā)現(xiàn)人臉數(shù)據(jù)中內(nèi)在的非線性結(jié)構(gòu)信息而獲得低維本質(zhì)的流形結(jié)構(gòu),還能通過反饋學(xué)習(xí)來增加樣本的標(biāo)記類別。文獻(xiàn)[9]為多姿態(tài)問題提出了基于多特征和人臉圖像多特征融合的3D人臉識別方法,在這種情況下,可以使用三種方法從3D人臉圖像中提取多特征:最大曲率圖像、平均邊緣圖像、范圍圖像,使用權(quán)重線性組合構(gòu)建融合特征。文獻(xiàn)[10]使用最接近給定查詢圖像的秩作為這個查詢圖像的描述符。文獻(xiàn)[11]提出了基于距離的邏輯判別和基于距離的最近鄰度量方法。文獻(xiàn)[12]提出了余弦相似性度量學(xué)習(xí)方法。最近,文獻(xiàn)[13]提出了“關(guān)聯(lián)預(yù)測”模型,利用帶有較大個人內(nèi)部變化的附加通用數(shù)據(jù)集來測量兩幅圖像之間的相似性,該模型中,每幅人臉圖像與用于相似性測量的通用數(shù)據(jù)集的視覺相似對象密切相關(guān)。文獻(xiàn)[14]提出使用屬性和相似分類器輸出作為人臉驗證的中層特征,很好地解決了三維人臉識別問題,然而,中層特征中的跟蹤比問題會在一定程度上影響識別效果。
受文獻(xiàn)[14]啟發(fā),提出了一種原型超平面學(xué)習(xí)算法,通過使用附加的未標(biāo)記的通用數(shù)據(jù)集構(gòu)建SVM模型,從而得到原型超平面的中層特征表示,利用迭代優(yōu)化算法求解目標(biāo)函數(shù),所得非零組合系數(shù)自動決定每個原型超平面用于三維人臉識別,利用SILD[15]進(jìn)行降維,余弦相似性度量完成人臉的識別,實驗結(jié)果表明了本文算法的有效性。本文的主要貢獻(xiàn)在于:(1)將中層特征中的跟蹤比問題定義為回歸問題,通過最大化弱標(biāo)記數(shù)據(jù)集的判別能力解決目標(biāo)函數(shù);(2)通過迭代優(yōu)化算法來求解目標(biāo)函數(shù),所得到非零組合系數(shù)自動地決定每個原型超平面;(3)文獻(xiàn)[14]中SVM模型使用附加的強(qiáng)標(biāo)記訓(xùn)練集,不同于文獻(xiàn)[14],本文算法只從未標(biāo)記通用數(shù)據(jù)集中選擇支持向量稀疏集,簡化了整個算法過程;(4)利用不同特征和不同特征類型進(jìn)行大量實驗,比較了各種情況的識別結(jié)果,表明了原型超平面學(xué)習(xí)算法的有效性。
(1)原型超平面的中層特征表示:本研究中,使用線性SVM對每個原型超平面建模,其中支持向量從大型未標(biāo)記通用數(shù)據(jù)集χ中自動選擇。注意:使用核變換可以很容易地將這里的線性SVM模型擴(kuò)展成非線性,使用表現(xiàn)定理,特征的權(quán)重向量w可定義為:
上式中,αj和 yj分別為未標(biāo)記數(shù)據(jù)xj的多變量和推斷類標(biāo)簽,合并系數(shù)βj=αjyj(j=1,2,…,N)合并每個未標(biāo)記樣本的多變量和推斷類標(biāo)簽,合并系數(shù)向量定義為β=[β1,β2,…,βN]T∈RN。
本研究中,xj是一個增強(qiáng)的低層特征(如,Gabor或LBP特征),為了避免引入SVM模型的基礎(chǔ)項,令它的最后一項為1。
給定弱標(biāo)記數(shù)據(jù)集中的任意樣本z,在SVM模型的決定值為:
它測量了樣本z與SVM模型的似然值,假設(shè)有C個線性SVM模型,則為每個SVM尋找合并系數(shù)向量βi(i=1,2,…,C),定義合并系數(shù)矩陣 B=[β1,β2,…,βC]∈RN×C,則樣本z的中層特征可表示為:
(2)中層特征學(xué)習(xí):使用弱標(biāo)記數(shù)據(jù)集中每個訓(xùn)練樣本z的新的中層特征表示 f(z),本文提出由FLD-like準(zhǔn)則來學(xué)習(xí)最優(yōu)合并系數(shù)矩陣B,注意:本文提出的方法在提供了每個樣本類標(biāo)簽時仍能執(zhí)行。具體地,本文提出在弱標(biāo)記數(shù)據(jù)集上通過最小化類內(nèi)散射并最大化類間散射的方法依照目標(biāo)函數(shù)來學(xué)習(xí)最優(yōu)B:
上式中,Sb和Sw定義為:
式(5)的目標(biāo)函數(shù)為跟蹤比形式,不存在閉合解,因此重新定義式(5)中的跟蹤比問題,即
如果βi(i=1,2,…,C)沒有約束條件時,求解式(7)跟蹤問題的比率可以直接使用一般的特征值分解方法。然而,式(7)中的βi(i=1,2,…,C)有稀疏約束,不能使用跟蹤算法求解本問題,因此,使用迭代優(yōu)化算法求解最優(yōu)B。
首先重新定義式(7)中的目標(biāo)函數(shù),從跟蹤比問題變?yōu)榛貧w問題,這樣就可以使用迭代優(yōu)化方法來求解。
(1)重新定義式(7)中的跟蹤比問題為回歸問題:給定弱標(biāo)記數(shù)據(jù)集中不同對象的M0對樣本,定義兩個數(shù)據(jù)矩陣:和 Hb=DTX∈RM0×N,為了定義另一個矩陣 Rw∈RN×N,先對式(6)中的 Sw進(jìn)行奇異值分解(SVD),即通過引入中間變量 A=[a1,a2,…,ac]∈RN×C重定義跟蹤問題為回歸問題:
(2)優(yōu)化式(8)的回歸問題:采用一個迭代優(yōu)化方法對A和B迭代優(yōu)化,給定A,求解下述問題來獲得B:
觀察到式(9)中β1,β2,…,βC是獨(dú)立的,通過優(yōu)化下述問題分開求解每個βi:
使用最小角度回歸求解最優(yōu)βi。
給定B,忽略掉βi上的約束條件,通過求解下述問題直接計算A:
使用SVD能夠獲得最優(yōu)A,即
上式中,U~=[u1,u2,…,uN]包含矩陣 U=[u1,u2,…,uN]前C個主導(dǎo)特征向量。本研究中,迭代求解式(9)和式(11),直至若干次連續(xù)迭代中B的絕對誤差小于預(yù)設(shè)的閾值,詳細(xì)的算法如下所示。
結(jié)果:決定SVM模型分類超平面的最優(yōu)合并系數(shù)向量:β1,β2,…,βC∈RN×1
初始化:初始化 A∈RN×C和 B∈RN×C總和為1,使用式(6)計算 Sb和 Sw;通過執(zhí)行 Sw的SVD,即來計算Hb=DTX∈RM0×N和 Rw∈RN×N
重復(fù):
給定 A,求解式(10)中的獨(dú)立Lasso問題得到C,使用最小角度回歸:
有了學(xué)習(xí)原型超平面,使用式(3),每個樣本都能表示成它的中層決策值特征,為了進(jìn)一步降低特征維度并提高性能,采用近期提出的SLID[15]來降維,僅使用弱標(biāo)記的訓(xùn)練數(shù)據(jù)就能學(xué)習(xí)判別性投影矩陣,當(dāng)每個樣本的類標(biāo)簽信息已知時,SILD和Fisher線性判別分析是等效的。SILD的訓(xùn)練過程中,僅使用相同對象的樣本對定義類內(nèi)散射矩陣,使用不同對象的樣本對定義類間散射矩陣,使用通用的特征值分解方法決定用于降維的投影矩陣。
測試過程中,對于每對測試數(shù)據(jù)z和z^,使用學(xué)習(xí)的原型超平面分別產(chǎn)生對應(yīng)的中層特征表示 f(z)和f(z^),然后使用SILD訓(xùn)練過程學(xué)習(xí)的投影矩陣將 f(z)和 f(z^)映射到一個空間,最后,在執(zhí)行人臉識別前使用余弦函數(shù)計算測試樣本對的相似性。
本文算法運(yùn)用了迭代過程,因此,這部分對其收斂性進(jìn)行了分析。
原型超平面的中層特征中,每個SVM模型的最優(yōu)分類超平面由學(xué)習(xí)的合并系數(shù)βj(j=1,2,…,N)決定,特殊情況下,如果βj為0,通用數(shù)據(jù)集中未標(biāo)記的樣本xj會被選為SVM模型的支持向量,當(dāng)支持向量是從未標(biāo)記的通用數(shù)據(jù)集χ中選出時,每個支持向量的標(biāo)簽在學(xué)習(xí)過程之后也可以從中推斷得出。如果βj是正數(shù)(或負(fù)數(shù)),yi=1(或 yi=-1)和 xj實際上可作為SVM模型的一個正樣本(或負(fù)樣本)來使用,而且期望SVM模型的每個分類超平面都位于兩個類之間的位置,并強(qiáng)制β為一個稀疏向量,亦即||β||<t,其中,t是控制β稀疏性的一個參數(shù)。式(9)中β1,β2,…,βC是獨(dú)立的,式(10)通過使用最小角度回歸可分別求出每個βi,利用式(9)和式(11)進(jìn)行若干次連續(xù)迭代,合并系數(shù)矩陣B的絕對誤差將越來越接近預(yù)設(shè)的閾值,最終目標(biāo)函數(shù)必定收斂。
為了更好地表明本文算法的收斂性,在USCD/Honda人臉數(shù)據(jù)庫上進(jìn)行實驗,參數(shù)t設(shè)置為0.5,C設(shè)置為400,實驗結(jié)果如圖1所示。
圖1 本文算法的收斂情況
從圖1可以看出,經(jīng)過4次迭代后,本文算法取得了穩(wěn)定的識別率,驗證了其收斂性。
實驗在 USCD/Honda[5]、FRGC v2[7]、LFW[16]及自己搜集的人臉數(shù)據(jù)集上將本文算法與其他幾種算法進(jìn)行了比較。
FRGC v2數(shù)據(jù)集包含在跑步機(jī)上行走的25個人的99個視頻序列,每個人有4個序列對應(yīng)于4個行走模型:慢、快、傾斜和抱球(缺少了一個人的持物序列),視頻中包含姿勢和表情的變化,如圖2所示為FRGC v2中的人臉圖像示例。
圖2 FRGC v2中的人臉圖像示例
USCD/Honda數(shù)據(jù)集包含20個人的有姿勢和表情變化的59個視頻序列,平均每個對象有3.0個視頻,每個視頻剪輯長度在24 frame/s下約為181幀,如圖3所示為USCD/Honda中的人臉圖像示例。
圖3 USCD/Honda中的人臉圖像示例
實驗在FRGC v2和USCD/Honda數(shù)據(jù)集上均使用圖像限制型訓(xùn)練模型,即只知道某樣本對是否屬于同一對象或不同對象,而不知道每個樣本的類標(biāo)簽,為了構(gòu)建未標(biāo)記通用數(shù)據(jù)集χ,將每幅人臉圖像中心區(qū)域通過移除背景的方式裁剪為80×150像素大小。從FRGC v2數(shù)據(jù)集上隨機(jī)選擇300個未標(biāo)記樣本用作通用數(shù)據(jù)集,從USCD/Honda人臉數(shù)據(jù)集上選擇圖像作為訓(xùn)練數(shù)據(jù)集,值得注意的是,未標(biāo)記通用數(shù)據(jù)集和測試集之間沒有重復(fù)圖像。實驗的每一輪精度定義為正確分類的樣本對數(shù)目除以測試樣本對總數(shù)目,標(biāo)準(zhǔn)差定義為其中,是標(biāo)準(zhǔn)偏差。
以USCD/Honda人臉數(shù)據(jù)集為例,考察了不同的原型超平面數(shù)目C和稀疏參數(shù)t對本文算法的性能的影響,包括識別的精度和整個算法所耗時間,C分別取100、200、400、600,t分別取0.1、0.2、…、0.8。實驗使用MATLAB7.0在PC機(jī)上實現(xiàn),計算機(jī)配置為:Windows XP操作系統(tǒng)、迅馳酷睿2處理器、2.5 GHz主頻、4 GB RAM,如圖4所示為參數(shù)C和t對本文算法識別精度的影響,圖5所示為C和t對本文算法訓(xùn)練所耗時間的影響。
圖4 參數(shù)C和t對本文算法識別精度的影響
圖5 參數(shù)C和t對本文算法訓(xùn)練所耗時間的影響
從圖4可以看出,當(dāng)C設(shè)置為一個較大數(shù)時,本文算法的平均精度會更好,但同時訓(xùn)練時間也會增加(如圖5所示)。本文也使用其他特征在USCD/Honda數(shù)據(jù)集上作了與FRGC v2數(shù)據(jù)集上類似的觀察,為了權(quán)衡有效性和效率,當(dāng)使用所有類型特征時,在兩個數(shù)據(jù)集上都設(shè)置C=400。當(dāng)設(shè)置參數(shù)t在0.2到0.8之間時,本研究的結(jié)果變得相對穩(wěn)定,考慮到?jīng)]有用于模型選擇的預(yù)定義附加數(shù)據(jù)集,因此,后面在USCD/Honda人臉數(shù)據(jù)集上的實驗設(shè)置參數(shù)t為0.5。
3.3.1 FRGC v2數(shù)據(jù)集
在FRGC v2數(shù)據(jù)集上,使用八種類型的特征,包括強(qiáng)度特征、LBP特征、Gabor特征和分塊Gabor特征及各個特征的方根,將本文算法與“低層特征+SILD”的性能進(jìn)行了比較。
對于強(qiáng)度特征,直接通過矢量化每個灰度圖像到12 000維特征向量來提取。LBP特征中,首先從每個10×10不重疊像素塊提取一個59針的直方圖,然后所有直方圖串聯(lián)成一個單一7 080維特征向量。使用40個Gabor核函數(shù)從5個等級8個方向來提取Gabor特征,為了降低特征維度,進(jìn)一步使用10×10變換因子下采樣Gabor濾波圖像,然而,這個重要的下采樣過程可能會降低人臉識別的性能。分塊Gabor特征中,下采樣之前將每個Gabor濾波圖像劃分成6個不重疊的塊,每個塊的Gabor濾波子圖像僅使用2×2的變換因子進(jìn)行下采樣,然后分別對每個塊的Gabor特征,而不是將它們串聯(lián)成一個很長的特征向量,對于每一對人臉圖像,對6個塊的Gabor特征使用余弦函數(shù)計算出6個相似度,然后輸出一個平均分?jǐn)?shù)。為了混合8類特征,每對圖像表示成一個8維相似度特征,然后采用線性SVM進(jìn)一步計算每對圖像最終的相似度。實驗中,本文算法使用中層特征,“低層特征+SILD”使用原始低層特征,除了強(qiáng)度特征的方根以外,結(jié)果如表1所示。
從表1可以看出,在最終驗證之前,本文算法采用SILD執(zhí)行降維,在其他所有類型的特征方面執(zhí)行效果均優(yōu)于“低層特征+SILD”[15],當(dāng)使用Gabor特征方根時,性能提升2.55%,使用LBP方根得到的結(jié)果為86.42%,結(jié)合使用所有特征時識別率可高達(dá)89.67%。
表1 FRGC v2數(shù)據(jù)集上使用不同類型底層特征的性能(平均精度±標(biāo)準(zhǔn)差)
此外,實驗直接使用文獻(xiàn)[17]提供的三類特征(LBP、CSLBP和FPLBP),考慮到所有人臉圖像都經(jīng)固定的檢測臉部關(guān)鍵點(diǎn)對齊過,將從一個視頻剪輯所有幀中提取出的平均特征,為本文算法和低層特征+SILD的后續(xù)過程輸出平均特征向量,識別結(jié)果如表2所示。
表2 各算法使用三種特征在FRGC v2上的識別結(jié)果
從表2可以看出,本文算法使用三類特征的性能明顯優(yōu)于“低層特征+SILD”,平均精度比“低層特征+SILD”高出3%,表明使用PHL學(xué)習(xí)分類超平面來提取特征的有效性。使用LBP特征,本文算法在ACC、AUC和EER方面性能提升比MBGS分別高出4.2%、4.9%和4.6%,使用CSLBP和FPLBP特征,本文算法也優(yōu)于MBGS。
3.3.2 USCD/Honda數(shù)據(jù)集
在USCD/Honda數(shù)據(jù)集上,實驗也使用文獻(xiàn)[17]提供的三類特征,并將本文算法與“MBGS”[17]算法和低層特征+SILD算法進(jìn)行比較,表3中列出了這三種算法在平均精度、曲線下方面積(AUC)和等差率(EER)方面的數(shù)據(jù)。
從表3可以看出,與表2的結(jié)果一致,本文算法使用三類特征的性能優(yōu)于“低層特征+SILD”,平均精度比“低層特征+SILD”高出3%,再一次表明使用PHL學(xué)習(xí)分類超平面來提取特征是有益的。使用三種特征時,本文算法均優(yōu)于MBGS。
3.3.3 自己采集的人臉數(shù)據(jù)庫上的實驗
由于USCD/Honda、FRGC v2視頻人臉數(shù)據(jù)庫的樣本類型不足,通過自采集構(gòu)建數(shù)據(jù)庫(如圖6和圖7所示),數(shù)據(jù)庫一共有15人,每人有16段視頻,采集數(shù)據(jù)時有意安排有正臉和側(cè)臉姿勢,并有意設(shè)置不同的光照環(huán)境,同時注意面部表情的刻意變化,主要的目的是在盡可能短的時間內(nèi)模擬真實視頻的各種環(huán)境。實際應(yīng)用中,視頻時間較長,一般都會有側(cè)臉、光照、表情的變化,因此,有針對性采集的視頻數(shù)據(jù)庫對基于視頻的人臉識別算法進(jìn)行比較實驗非常合理。
表3 各算法使用三種特征在USCD/Honda上的識別結(jié)果
圖6 正臉樣本
圖7 正側(cè)臉樣本
實驗將本文算法與其他幾種算法進(jìn)行了比較,包括隱馬爾可夫后處理模型[5]、基于合并的b/g樣本的方法[10]、屬性和相似分類器[1]、多級FFD配準(zhǔn)[7]、底層特征+SILD[14]、CSML+SVM[12]、尺度不變特征融合[9]和關(guān)聯(lián)預(yù)測[13],每個人的正臉樣本用于訓(xùn)練,正側(cè)臉樣本用于測試,比較結(jié)果如表4所示。
表4 本文算法與其他算法的識別性能比較
從表4可以看出,本文算法僅比文獻(xiàn)[13]中的“關(guān)聯(lián)預(yù)測”算法稍差,但是,“關(guān)聯(lián)預(yù)測”要求有個人內(nèi)部變化的強(qiáng)標(biāo)記附加數(shù)據(jù)集,而本文提出的本文算法僅需要附加的未標(biāo)記數(shù)據(jù)集,因此,相比另外幾種比較算法,本文算法取得了更好的識別效果。從標(biāo)準(zhǔn)差來看,本文算法的標(biāo)準(zhǔn)差最小,表明了其穩(wěn)定性優(yōu)于其他各個方法。
3.3.4 戶外人臉數(shù)據(jù)庫上的實驗
最后,在實際條件下采集的戶外人臉數(shù)據(jù)庫LFW上測試本文算法。實驗選擇包含55個對象的一個圖像集,如圖8所示為戶外人臉圖像示例。從每幅圖像的背景中裁剪出人臉區(qū)域,調(diào)整大小為64×64,不同于先前在室內(nèi)條件下采集到的測試圖像,這些圖像是在完全不受約束的現(xiàn)實環(huán)境中采集到的,實驗將本文算法與其他幾種算法進(jìn)行了比較,對于每個對象,分別選擇K=1,3,5,8幅未遮擋的圖像作為訓(xùn)練集,有不同遮擋類型的110幅圖像用于測試,每個訓(xùn)練集與探針集均不相交,比較結(jié)果如表5所示。
圖8 LFW人臉數(shù)據(jù)庫中的圖像示例
表5 各算法在LFW上的識別性能比較
從表5可以看出,與表4的結(jié)果一致,本文算法僅比“關(guān)聯(lián)預(yù)測”算法稍差,相比另外幾種算法,本文算法取得了更好的識別效果。從標(biāo)準(zhǔn)差來看,本文算法的標(biāo)準(zhǔn)差最小,再次驗證了本文算法的優(yōu)越性。
本文提出一種原型超平面學(xué)習(xí)算法,通過學(xué)習(xí)SVM模型的一組原型超平面尋找用于三維人臉識別的中層特征,在只從通用數(shù)據(jù)集選擇稀疏樣本集作為支持向量的稀疏約束條件下,通過最大化弱標(biāo)記數(shù)據(jù)集的判別能力解決目標(biāo)函數(shù),學(xué)習(xí)到的SVM模型的決策值用作中層特征,使用SILD進(jìn)一步降低特征維度,最后,使用余弦相似度完成最終的人臉識別。大量實驗表明本文提出的方法優(yōu)于其他現(xiàn)有算法。
未來會將本文提出的算法運(yùn)用到其他的非約束人臉數(shù)據(jù)集上,并結(jié)合其他的新穎技術(shù),進(jìn)行大量實驗,進(jìn)一步改善三維人臉識別的性能。
[1]楊傳振,朱玉全,陳耿.一種基于粗糙集屬性約簡的多分類器集成方法[J].計算機(jī)應(yīng)用研究,2012,29(5):1648-1650.
[2]Abdi H,Williams L J.Principal component analysis[J].Wiley Interdisciplinary Reviews:Computational Statistics,2010,2(4):433-459.
[3]曹潔,吳迪,李偉.基于鑒別能力分析和LDA-LPP算法的人臉識別[J].吉林大學(xué)學(xué)報:工學(xué)版,2012,42(6):1527-1531.
[4]柴智,劉正光.應(yīng)用復(fù)小波和獨(dú)立成分分析的人臉識別[J].計算機(jī)應(yīng)用,2010,30(7):1863-1866.
[5]代毅,肖國強(qiáng),宋剛.隱馬爾可夫后處理模型在視頻人臉識別中的應(yīng)用[J].計算機(jī)應(yīng)用,2010,30(4):960-963.
[6]鄒垚,張超.基于DSP的人臉識別算法實現(xiàn)與優(yōu)化[J].計算機(jī)應(yīng)用,2010,30(3):854-856.
[7]Kong Y,Zhang S,Cheng P.Super-resolution reconstruction face recognition based on multi-level FFD registration[J].Optik-International Journal for Light and Electron Optics,2013,124(24):6926-6931.
[8]魯珂,丁正明,趙繼東,等.一種基于相關(guān)反饋的視頻人臉?biāo)惴╗J].西安電子科技大學(xué)學(xué)報:自然科學(xué)版,2012,39(3):154-160.
[9]Wijaya I G P S,Uchimura K,Koutaki G.Multi-pose face recognition using fusion of scale invariant features[C]//Proceedings of the 2011 2nd International Congress on Computer Applications and Computational Science.Berlin Heidelberg:Springer,2012:207-213.
[10]黃榮兵,郎方年,施展.基于Log-Gabor小波和二維半監(jiān)督判別分析的人臉圖像檢索[J].計算機(jī)應(yīng)用研究,2012,29(1):393-396.
[11]Guillaumin M,Verbeek J,Schmid C.Is that you?Metric learning approaches for face identification[C]//2009 IEEE 12th International Conference on Computer Vision,2009:498-505.
[12]高全學(xué),謝德燕,徐輝,等.融合局部結(jié)構(gòu)和差異信息的監(jiān)督特征提取算法[J].自動化學(xué)報,2010,36(8):1107-1114.
[13]Yin Q,Tang X,Sun J.An associate-predict model for face recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2011:497-504.
[14]Kumar N,Berg A,Belhumeur P N,et al.Describable visual attributes for face verification and image search[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(10):1962-1977.
[15]Kan M,Shan S,Xu D,et al.Side-information based linear discriminant analysis for face recognition[C]//BMVC,2011:1-12.
[16]Miranda D.The face we make[EB/OL].[2013-10-11].http://www.thefacewemake.org.
[17]Wolf L,Hassner T,Maoz I.Face recognition in unconstrained videos with matched background similarity[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2011:529-534.