張超逸
基于特征臉識(shí)別考勤系統(tǒng)設(shè)計(jì)
張超逸
生物信息識(shí)別技術(shù)是利用人體本身所固有的物理特征和行為特征,通過數(shù)字信號(hào)處理和模式識(shí)別的方法來鑒別個(gè)人身份的技術(shù)[1]。而人臉識(shí)別作為一種典型生物信息識(shí)別技術(shù),以其自然性和可接受性等優(yōu)點(diǎn)得到了人們的喜歡,可應(yīng)用于軍事及民用的各行各業(yè)中[2]。本設(shè)計(jì)目的是利用人臉生物信息識(shí)別技術(shù),實(shí)現(xiàn)操作簡單、使用信息方便、識(shí)別結(jié)果準(zhǔn)確的人事考勤。本系統(tǒng)基于KL人臉識(shí)別技術(shù)設(shè)計(jì)考勤系統(tǒng),在KL變換人臉識(shí)別算法基礎(chǔ)上,通過增加或改變不同人臉姿態(tài),改進(jìn)人臉識(shí)別算法[3],大大提高了人臉識(shí)別率。用戶可通過本系統(tǒng)來采集人臉圖像,定義不同姿態(tài)數(shù)以獲得全姿態(tài)數(shù)據(jù)庫。使用過程中若有不能識(shí)別情況出現(xiàn),可改變或增加姿態(tài)數(shù),重新學(xué)習(xí)訓(xùn)練以得到正確識(shí)別。經(jīng)過測試,本系統(tǒng)已達(dá)到可實(shí)際推廣使用。
KL變換原理是以隨機(jī)向量信號(hào)X的協(xié)方差矩陣Ф的歸一化正交特征向量q所構(gòu)成的正交矩陣Q,來對該隨機(jī)向量信號(hào)X做正交變換Y=QX。PCA(Principal Component Analysis)是對變換矩陣Q中的特征向量進(jìn)行主分量提取的分析方法[4]。特征臉的實(shí)現(xiàn)方法有兩種,一種是特征值分解,另一種是奇異值分解[5]。特征臉方法是從KL導(dǎo)出的一種人臉識(shí)別技術(shù)[6],是將人臉的圖像看作是一種隨機(jī)向量,根據(jù)KL變換原理計(jì)算得到其正交KL變換矩陣Q。計(jì)算出變換矩陣Q的特征值和特征向量,通過統(tǒng)計(jì)分析排序,取出變換矩陣Q中較大特征值所對應(yīng)的特征向量作為特征臉基底。利用特征臉基底的線性組合可以描述和逼近人臉圖像,即可以進(jìn)行人臉識(shí)別與人臉合成。由基底組成的變換矩陣B為圖像訓(xùn)練樣本的總體散步矩陣。KL變換也是圖像壓縮中的一種最優(yōu)正交變換。
1.KL變換[7-10]
式中Cx為N×N對稱矩陣。
設(shè)從同一隨機(jī)向量得到M個(gè)樣本Xi,則其數(shù)學(xué)期望和協(xié)方差矩陣可近似表示為:
協(xié)方差矩陣Cx對應(yīng)特征向量和特征值,其中λ1>λ2>λ3>···>λN,
那么,KL變換核矩陣Ф是由Cx的特征向量構(gòu)成:Ф=[e1e2···eN],
2.圖像特征臉基底的確立[11-17]
假設(shè)人臉圖像有N個(gè)像素,則可以用N維向量r表示。如人臉訓(xùn)練集由M幅人臉圖像構(gòu)成,則可以用矩陣表示人臉訓(xùn)練集。
協(xié)方差矩陣Cx的特征向量e為人臉空間的基向量,也稱特征臉,由所有特征向量組成的矩陣Ф稱為特征臉基底。一般情況下,圖像像素N比圖像數(shù)大得多,其協(xié)方差矩陣Cx為N?N維矩陣,直接求解它的特征向量是困難的,因此引用奇異值分解定理來求協(xié)方差矩陣Cx的特征向量。
奇異值分解定理是,設(shè)X為一個(gè)n×r維矩陣,秩為r,則X存在兩個(gè)正交矩陣:
以及對角陣:
公式(11)中的U是X×XT的特征向量矩陣,具有n×n的方陣(U里面的向量是正交的,U里面的向量稱為左奇異向量);V是XT×X的特征向量矩陣,具有r×r的方陣(V里面的向量也是正交的,V里面的向量稱為右奇異向量);Σ是一個(gè)n×r的矩陣(除了對角線的元素都是0,對角線上的元素σi稱為奇異值)。特征值與奇異值關(guān)系:。上述分解稱為矩陣X的奇異值分解。
奇異值分解定理推論:若V向量已求得,則U=XVΣ-1,即
一般情況是,人臉訓(xùn)練集所包含的圖像數(shù)比圖像的像素?cái)?shù)要小得多,為了計(jì)算簡單快速,根據(jù)奇異值分解定理,可以轉(zhuǎn)求矩陣Cx=δT×δ的特征向量V(包含M個(gè)M維向量,M為人臉訓(xùn)練集圖像總數(shù))。
根據(jù)特征臉分析法,M個(gè)圖像中,取L(L<M)個(gè)特征臉足夠用于人臉識(shí)別。所以,僅取V的前L個(gè)最大特征值的特征向量計(jì)算特征臉。其中L的大小由閾值θ確定,即:
最后,根據(jù)奇異值分解定理的推論,由這L個(gè)V向量計(jì)算出L個(gè)U向量,U向量組成的特征向量矩陣Ф作為特征臉的基底。
3.圖像的識(shí)別
圖像識(shí)別過程就是將人臉圖像映射到由特征臉生成的空間上,比較其與已知訓(xùn)練人臉在特征臉空間中的位置而得到識(shí)別確認(rèn)。具體步驟如下:
(1)初始化,建立人臉圖像庫以供設(shè)計(jì)及學(xué)習(xí)訓(xùn)練用。
(2)根據(jù)人臉圖像庫計(jì)算特征臉,建立特征臉空間基底。
(3)用人臉圖像庫進(jìn)行學(xué)習(xí)訓(xùn)練,建立特征臉空間數(shù)據(jù)庫。
(4)輸入待識(shí)別人臉圖像,將其映射到特征臉空間基底,得到一權(quán)值向量。
(5)通過匹配,得到待識(shí)別圖像與特征臉子空間的距離大小,由此判斷它是否為特征臉空間數(shù)據(jù)庫中的人臉。
(6)若是特征臉空間數(shù)據(jù)庫中的人臉,根據(jù)權(quán)值向量識(shí)別其身份,得出結(jié)論。
1.算法設(shè)計(jì)
(1)建立訓(xùn)練圖像存放文件夾,每人一個(gè)子文件夾,每子文件夾存放多種不同姿態(tài)的相片。
(2)讀入訓(xùn)練圖像(圖像按列進(jìn)行掃描,把二維圖像數(shù)據(jù)轉(zhuǎn)換為一維數(shù)據(jù))。
(3)建立圖像矩陣R(每列數(shù)據(jù)為一幅圖像)。
(4)求圖像矩陣平均值向量m。
(5)計(jì)算出誤差圖像δ。
(6)計(jì)算協(xié)方差矩陣Cx。
(7)計(jì)算協(xié)方差矩陣Cx的特征值D及特征向量V。
(8)對特征值進(jìn)行降序排序,得序號(hào)。
(9)根據(jù)特征值序號(hào)對特征向量V進(jìn)行降序排序。
(10)根據(jù)閾值取出特征值較大的特征向量作
為主要特征向量。
(11)由V的主要特征向量計(jì)算U特征向量,建立特征臉空間基底Ф。
(12)由訓(xùn)練圖像投影到特征臉空間基底Ф,建立人臉子空間庫。
(13)讀入被識(shí)別圖像I。
(14)計(jì)算I對Ф的投影,并在人臉子空間庫中進(jìn)行匹配。
(15)匹配結(jié)果判別是否為人臉,若是則進(jìn)行身份識(shí)別,若不是則發(fā)出警示報(bào)告。
(16)若識(shí)別是錯(cuò)誤的,則繼續(xù)增加姿態(tài)相片數(shù),返回步驟(1)重新學(xué)習(xí)訓(xùn)練。
2.編程實(shí)現(xiàn)
(1)圖像獲取模塊:取得的圖像經(jīng)過預(yù)處理后存放到各自的文件夾。該模塊主要是從紅外光或自然光攝像頭拍照后捕捉的人臉圖片,也可以從圖片庫中獲取。本系統(tǒng)中的圖片可以在軟件的界面中選擇顯示以方便用戶使用或識(shí)別。
(2)建立人臉數(shù)據(jù)庫模塊:讀入訓(xùn)練圖像,建立特征臉空間基底Ф,再由訓(xùn)練圖像投影到特征臉空間基底Ф建立人臉子空間庫,最后把訓(xùn)練的人臉子空間庫存盤。若出現(xiàn)識(shí)別錯(cuò)誤,可改變或增加姿態(tài),重新學(xué)習(xí)訓(xùn)練。
(3)導(dǎo)入人臉知識(shí)數(shù)據(jù)庫:程序重新運(yùn)行時(shí),把人臉子空間知識(shí)庫導(dǎo)入內(nèi)存。
(4)輸入檢測圖像模塊:讀入被識(shí)別圖像,投影到特征臉空間基底Ф。
(5)檢測及識(shí)別模塊:被識(shí)別的特征臉與人臉子空間知識(shí)庫進(jìn)行特征匹配,得出識(shí)別結(jié)論。
(6)如果識(shí)別錯(cuò)誤,則增加姿態(tài),返回步驟(2),重新建立人臉子空間庫。
程序運(yùn)行主要界面如圖1所示。
圖1 系統(tǒng)主界面
3.軟、硬件運(yùn)行環(huán)境及調(diào)試運(yùn)行
硬件要求:PⅢ以上CPU;4G以上內(nèi)存;100G以上硬盤空間。
軟件要求:W indowsXP及以上版本操作系統(tǒng);采用可視化面向?qū)ο蟪绦蛟O(shè)計(jì)的Matlab2007版本為系統(tǒng)開發(fā)平臺(tái)。
本系統(tǒng)建立100個(gè)人的人臉庫作為系統(tǒng)調(diào)試,結(jié)果是:如果用人臉庫中人臉進(jìn)行識(shí)別,則正確率達(dá)100%;如果不是用人臉庫中的相片而是用同個(gè)人的不同相片進(jìn)行識(shí)別,則正確率可達(dá)90%以上;通過增加同個(gè)人的不同姿態(tài)相片數(shù),則可不斷提高正確識(shí)別率,若出現(xiàn)錯(cuò)誤識(shí)別時(shí),則繼續(xù)增加不同姿態(tài)數(shù)以達(dá)到正確識(shí)別;調(diào)試過程中,本系統(tǒng)增加到8個(gè)不同姿態(tài)數(shù)時(shí),正確識(shí)別率達(dá)到100%。
本系統(tǒng)經(jīng)過調(diào)試修改及實(shí)踐驗(yàn)證,已能全面滿足設(shè)計(jì)需要,可供人事考勤使用,有著較高的實(shí)用價(jià)值。
本系統(tǒng)具有如下特點(diǎn):
1.界面友好,使用方便,操作簡單,運(yùn)行效率高??蛇x擇顯示庫中圖像,方便用戶使用。
2.可方便新增圖像或改變圖像快速建立訓(xùn)練圖像人臉知識(shí)庫。
3.特征臉方法是一種基于K.L變換的人臉識(shí)別方法。用于人臉識(shí)別可以取得很好的識(shí)別效果,其識(shí)別率可達(dá)到80%~100%不等[7],這取決于人臉庫圖像的質(zhì)量或增加或改變不同姿態(tài)。
4.識(shí)別簡單有效,速度快,效率高。K.L變換是圖像壓縮中的一種最優(yōu)正交變換。從能量的角度看,K.L變換是最優(yōu)的,它不僅使降維前后的均方誤差最小,通過低維子空間表示對原數(shù)據(jù)進(jìn)行有效壓縮,使計(jì)算簡單快速,而且變換后的低維空間有很好的人臉表達(dá)能力。
5.圖像的原始灰度數(shù)據(jù)可直接用來學(xué)習(xí)和識(shí)別,不需人臉的幾何和反射知識(shí)。
6.特征臉識(shí)別效率主要取決于尺度、光照及姿態(tài)。本系統(tǒng)對圖像能進(jìn)行尺度歸一化,光照直方圖均衡化,每人存儲(chǔ)多幅不同姿態(tài)的圖像建立全姿態(tài)人臉知識(shí)庫,以提高識(shí)別率,可不斷增加姿態(tài),直至完全正確識(shí)別。通過這些技術(shù)改進(jìn),并經(jīng)過測試,本系統(tǒng)已達(dá)到設(shè)計(jì)要求,可供正常使用。
(作者單位:武夷學(xué)院海峽成功學(xué)院13級(jí)機(jī)械班)
[1]劉麗娜.基于特征臉和多特征的人臉識(shí)別算法研究.山東大學(xué)碩士論文,2006-05-22
[2]李江.紅外圖像人臉識(shí)別方法研究.國防科學(xué)技術(shù)大學(xué)博士論文,2005-06-01
[3]李剛.基于特征臉法的正面人臉識(shí)別研究.國防科學(xué)技術(shù)大學(xué)碩士論文,2002-11-01
[4]梅健強(qiáng).基于線性子空間方法的人臉識(shí)別技術(shù).天津大學(xué)碩士論文,2007-01-01
[5]劉翠響.人臉識(shí)別中高維數(shù)據(jù)特征分析.河北工業(yè)大學(xué)博士論文,2008-04-01
[6]孫鑫.特征子空間法人臉識(shí)別研究.電子科技大學(xué)碩士論文,2005-01-01
[7]龍琰.基于K-L變換的人臉檢測.四川大學(xué)碩士論文,2004-10-20
[8]曹麗.基于Gabor濾波器的人臉特征提取算法研究.東北大學(xué)碩士論文,2008-01-20
[9]李琳莉.人臉識(shí)別的圖像處理算法.內(nèi)蒙古大學(xué)碩士論文,2007-05-18
[10]雷明.基于小波變換與奇異值分解的人臉識(shí)別技術(shù)研究.沈陽工業(yè)大學(xué)碩士論文,2007-01-08
[11]王計(jì)元.基于膚色特征人臉檢測的自動(dòng)人臉識(shí)別系統(tǒng)的研究.華東師范大學(xué)碩士論文,2005-05-01
[12]黃軒宇.統(tǒng)計(jì)人臉識(shí)別系統(tǒng)的研究.東南大學(xué)碩士論文,2005-04-01
[13]黃曉麗.基于統(tǒng)計(jì)的自動(dòng)人臉識(shí)別系統(tǒng).西安電子科技大學(xué)碩士論文,2005-01-01
[14]李杰.基于小波和Fisher臉的人臉識(shí)別算法研究.北京交通大學(xué)碩士論文,2008-06-01
[15]董昆.基于加權(quán)特征臉和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別.吉林大學(xué)碩士論文,2007-04-23
[16]徐熙君.人臉識(shí)別及其遺傳算法實(shí)現(xiàn).青島大學(xué)碩士論文,2005-10-10
[17]劉嵩.基于特征融合的人臉識(shí)別[J].湖北民族學(xué)院學(xué)報(bào)(自然科學(xué)版),2011(2)