国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于強(qiáng)度PCNN的靜態(tài)圖像人臉識別

2015-06-23 13:55:27鄧紅霞李海芳
太原理工大學(xué)學(xué)報 2015年1期
關(guān)鍵詞:人臉識別人臉灰度

常 莎,鄧紅霞,李海芳

(太原理工大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,太原 030024)

基于強(qiáng)度PCNN的靜態(tài)圖像人臉識別

常 莎,鄧紅霞,李海芳

(太原理工大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,太原 030024)

為了減少人臉圖像中姿勢、表情和光照等因素對人臉識別的影響,引用了一種基于脈沖發(fā)放強(qiáng)度的脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN,pulse coupled neural network)的人臉特征提取方法。不同人臉圖像具有不同的灰度特征,將人臉圖像輸入PCNN模型后可以得到各個圖像特定的脈沖發(fā)放強(qiáng)度矩陣。實驗利用脈沖強(qiáng)度矩陣作為人臉特征,并結(jié)合距離分類器——余弦距離進(jìn)行人臉識別。仿真實驗表明,基于強(qiáng)度PCNN模型提取的特征能刻畫出人臉的細(xì)節(jié),對于不同姿勢、表情及面部明顯遮擋物的人臉圖像,具有較好的識別結(jié)果。該方法對于復(fù)雜人臉圖像特征的提取,具有較強(qiáng)的魯棒性。

脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN);人臉識別;特征提取;余弦距離

近年來,人臉圖像識別技術(shù)已經(jīng)日益成熟,并且廣泛應(yīng)用于眾多領(lǐng)域中,例如企業(yè)領(lǐng)域中的考勤系統(tǒng)以及軍事領(lǐng)域中的犯罪嫌疑人圖像確認(rèn)等[1]。盡管在人臉識別方面已經(jīng)提出了許多方法,但是由于其固有的復(fù)雜性和環(huán)境變化的影響(如光照條件變化)、主體行為(如面部表情、面部遮擋),人臉識別仍然是一個未解決的問題[2]。

目前,最常用基于子空間的特征提取算法主要有principal components analysis(PCA)[3],independent components analysis(ICA)[4]和linear discriminant analysis(LDA)[5]以及在這些算法基礎(chǔ)上改進(jìn)的一系列新的特征提取方法,這些方法的最終目的就是把原始高維數(shù)據(jù)投射到一個維數(shù)較低的特征空間然后進(jìn)行人臉識別。提取特征之后,就需要利用分類器進(jìn)行身份識別,常用的分類器為SVM[6],也有基于距離(如歐氏距離、余弦距離等)的分類器。

PCNN模型是由Eckhorm et al國外研究人員提出的一種新型的生物神經(jīng)網(wǎng)絡(luò)模型[7]。它是一種無監(jiān)督學(xué)習(xí)的網(wǎng)絡(luò),不需要提前進(jìn)行訓(xùn)練,而且對圖像處理具有很好的旋轉(zhuǎn)不變性、平移不變性、尺度縮放不變性和信號強(qiáng)度不變性,這一模型已經(jīng)廣泛應(yīng)用在圖像分割[8]、圖像融合[9]、圖像濾波等領(lǐng)域。隨后,云南大學(xué)周冬明等人利用平均點火時間序列[10]以及陜西師范大學(xué)王晅等人利用若干二值圖像的信息熵序列[11-12]作為人臉特征來實現(xiàn)身份識別。

由于標(biāo)準(zhǔn)的PCNN模型需要較多的參數(shù)設(shè)置,且基于N次迭代產(chǎn)生的二值圖像提取的點火時間序列和信息熵序列特征均是一種面的效果,表示的是圖像整體的特征,不能反應(yīng)人臉圖像中的細(xì)節(jié)邊緣或點的變化,因此,筆者在簡化的PCNN模型上引用了一種基于脈沖發(fā)放強(qiáng)度的PCNN模型。該模型將人臉圖像中的每個像素點經(jīng)PCNN處理后均可得到其特定的脈沖發(fā)放強(qiáng)度,把N次迭代得到的平均脈沖強(qiáng)度作為人臉圖像的特征,最后通過計算待識別人臉圖像的脈沖強(qiáng)度矩陣與各個身份的平均脈沖強(qiáng)度矩陣之間的余弦距離來判斷其所屬身份類別。

1 脈沖耦合神經(jīng)網(wǎng)絡(luò)

1.1 簡化的PCNN模型

PCNN模型是一個二維人工神經(jīng)網(wǎng)絡(luò),由多個神經(jīng)元相互鏈接構(gòu)成且是單層多參數(shù)的模型。傳統(tǒng)的PCNN模型中包含較多的參數(shù),因此對這些參數(shù)的設(shè)置將是一項十分繁瑣和復(fù)雜的任務(wù)。相比之下,簡化的PCNN模型可以更快、更有效地對圖像進(jìn)行處理[13]。簡化PCNN模型中的每個神經(jīng)元由三部分組成,即接受域(F和L通道)、調(diào)制域和脈沖產(chǎn)生部分。其簡化模型如圖1所示。

圖1 簡化的PCNN模型

模型采用的離散方程如下所述:

(1)

(2)

(3)

(4)

(5)

式中:n為迭代次數(shù);M為內(nèi)部連接矩陣,鄰域的大小一般為3×3;Iij為神經(jīng)元外部脈沖輸入信號;Fij(n)為神經(jīng)元的反饋輸入;Lij(n)為線性鏈接輸入;Uij(n)為經(jīng)過調(diào)制后的神經(jīng)元內(nèi)部活動項;Yij(n)為脈沖輸出,其值為0或1;θij(n)為動態(tài)閾值項。Fij(n)在接收到外部刺激Iij后,在神經(jīng)元內(nèi)部與Lij(n)鏈接形成Uij(n),當(dāng)其大于動態(tài)閾值θij(n)時,PCNN會產(chǎn)生脈沖,Yij(n)的值為1,反之為0。

1.2 基于強(qiáng)度的PCNN模型

基于PCNN模型提取圖像特征的方法簡單可行,模型中的每個神經(jīng)元被視為所輸入圖像中的一個像素,神經(jīng)元數(shù)目始終與所要處理圖像中的像素點一一對應(yīng),因此PCNN的結(jié)構(gòu)更適合圖像處理。當(dāng)PCNN模型中的神經(jīng)元在接受到外部不同的刺激(Iij)后,均會產(chǎn)生脈沖,但是產(chǎn)生的Uij(n)值大小卻各不相同,也就意味著Uij(n)/θij(n)的值也不相同,我們把這個比值稱之為神經(jīng)元的脈沖發(fā)放強(qiáng)度。每幅人臉圖像均有其特定的灰度刺激,因此產(chǎn)生的脈沖強(qiáng)度矩陣都可以代表其自身特性。

將上述簡化模型中的式(4)改進(jìn)如下:

(6)

式中:Qij(n)表示每次迭代過程中各個神經(jīng)元的脈沖發(fā)放強(qiáng)度;參數(shù)Uij(n)和θij(n)與式(4)中含義相同。

PCNN模型主要用于灰度圖像的處理,圖像的個性特征主要體現(xiàn)在各個像素之間的空間分布關(guān)系,不同的人臉圖像其像素的灰度值分布各不相同。圖像在經(jīng)過強(qiáng)度的PCNN模型處理后,使得各個神經(jīng)元在自身和周圍神經(jīng)元的耦合作用下得到其脈沖發(fā)放強(qiáng)度,此時輸出的脈沖發(fā)放強(qiáng)度極大程度的保留了人臉圖像信息,不僅反應(yīng)了人臉圖像的灰度分布情況,還包含了圖像中相鄰像素之間的空間幾何特性。由于脈沖發(fā)放強(qiáng)度矩陣與圖像的大小相同,產(chǎn)生的數(shù)據(jù)量較大,所以對人臉圖像進(jìn)行縮放變換預(yù)處理,將原始圖像按照指定的比率縮小,使得像素的灰度值是按照相同的規(guī)律的變化的,預(yù)處理后的圖片在人眼中的視覺效果與原圖像并無差別。

在PCNN模型中,對于圖像的縮放,其點火時間序列和脈沖發(fā)放強(qiáng)度具有很好的不變性,圖2-a為原始人臉圖像,圖2-b和圖2-c分別為圖2-a所對應(yīng)的點火時間序列圖和脈沖發(fā)放強(qiáng)度圖,圖2-b中的點火時間信號只記錄了每次迭代過程中被點火的神經(jīng)元總數(shù),是一種關(guān)于圖像整體灰度的特性,無法體現(xiàn)出人臉圖像中灰度的細(xì)微變化,而圖2-c中的脈沖發(fā)放強(qiáng)度記錄了每個像素點的脈沖發(fā)放信息,除了刻畫了圖像的整體布局,還反應(yīng)了其細(xì)節(jié)變化。

圖2 同一幅圖像的點火時間序列特征和脈沖發(fā)放強(qiáng)度特征

2 仿真實驗

2.1 數(shù)據(jù)庫介紹

實驗采用ORL和Yale人臉數(shù)據(jù)庫來驗證算法的有效性。ORL人臉數(shù)據(jù)庫中包含40個人共400張人臉灰度圖像,在每個人的10張圖像樣本中無論人臉姿勢、表情均無相同之處,在此庫中分別選取40個身份的前5幅圖像作為訓(xùn)練集樣本,剩余的全部人臉圖像作為待識別測試集。Yale數(shù)據(jù)庫中包含了15個人共165張人臉圖像,隨機(jī)選取數(shù)據(jù)庫中每個人的前N張圖片作為樣本集,共15×N張,剩余的165-15×N張圖像作為測試集。

2.2 強(qiáng)度PCNN模型中實驗參數(shù)設(shè)置

文中所使用的基于強(qiáng)度PCNN模型中需要設(shè)定5個參數(shù)值,分別為M,N,β,αθ,vθ。PCNN模型中的參數(shù)取值,對于實驗結(jié)果有著顯著地影響,但目前為止仍然沒有一種明確的方法來設(shè)置PCNN模型中的參數(shù)。實驗經(jīng)過多次調(diào)整參數(shù),得到合適的PCNN參數(shù)值,如表1所示。

表1 強(qiáng)度PCNN模型中參數(shù)取值

連接矩陣M依賴神經(jīng)元之間的距離,鏈接域為3,其連接強(qiáng)度計算公式如下:

(7)

2.3 人臉識別算法模型

實驗均在Matlab平臺下進(jìn)行測試,首先利用改進(jìn)的PCNN模型得到樣本集中每個圖像的強(qiáng)度矩陣,然后分別計算40個身份所有圖像的平均強(qiáng)度矩陣Q0,并使用數(shù)字1~40對其身份進(jìn)行標(biāo)識,這個過程得到平均強(qiáng)度矩陣將作為模板存儲下來。然后選擇每個人剩下的圖像進(jìn)行身份識別,這些圖像同樣需要計算它們的強(qiáng)度矩陣Q1。最后通過計算測試圖像的強(qiáng)度矩陣與已經(jīng)存儲的標(biāo)準(zhǔn)模板之間的余弦距離來進(jìn)行身份識別。實驗的算法模型如圖3所示。

圖3 人臉識別流程圖

圖4所示為ORL庫中身份6(圖4-a—圖4-c)和身份8(圖4-d—圖4-f)的部分人臉對應(yīng)的不同表情以及不同姿態(tài)的灰度圖像,圖5顯示了圖4中不同人臉圖像所對應(yīng)的PCNN脈沖發(fā)放強(qiáng)度圖,其中橫坐標(biāo)代表脈沖發(fā)放強(qiáng)度值,縱坐標(biāo)代表相同脈沖強(qiáng)度的神經(jīng)元個數(shù)。

由圖5可以看出,身份6中不同表情,不同姿勢人臉圖像對應(yīng)的脈沖強(qiáng)度圖5-a—圖5-c比較相似;身份8不同表情、姿勢人臉圖像的脈沖強(qiáng)度圖5-e—圖5-g也非常相似。而身份6與身份8各自的平均脈沖強(qiáng)度圖5-d與圖5-h表現(xiàn)出很大的差異性。

圖4 身份6和身份8的部分人臉灰度圖像

圖5 身份6和身份8的人臉圖像對應(yīng)脈沖強(qiáng)度圖

3 實驗結(jié)果與分析

首先在ORL人臉庫中利用文本特征提取方法。與其他常見的基于子空間的特征提取方法進(jìn)行比較,實驗結(jié)果(如表2所示)可以看出基于強(qiáng)度PCNN的識別算法所提取的人臉特征在ORL人臉庫中具有很好的識別結(jié)果。

表2 ORL人臉庫實驗結(jié)果 %

此外,為了進(jìn)一步確認(rèn)本文算法在圖像識別方面的有效性,在Yale人臉庫中使用本文提出的相同算法進(jìn)行人臉識別,同樣與其他子空間特征提取方法的識別結(jié)果進(jìn)行了比較,其實驗結(jié)果如表3所示。

表3 Yale人臉庫中不同特征提取方法的識別結(jié)果 %

由表3可以看出,識別準(zhǔn)確率隨著訓(xùn)練樣本數(shù)的增加而相應(yīng)提高。當(dāng)訓(xùn)練樣本數(shù)較少時,表中前4種基于特征臉的識別算法準(zhǔn)確率較低,但基于強(qiáng)度PCNN的識別算法即使在樣本數(shù)較少的情況下,其識別性能明顯優(yōu)于其他算法。此外,還可以看出所有算法在Yale人臉庫中的識別精度比ORL人臉庫均有所下降,這種結(jié)果的產(chǎn)生主要是由于Yale人臉庫中的人臉面部、頭部大小、方向以及周圍環(huán)境的變化比ORL人臉庫中更為劇烈所造成的,且部分人臉樣本中佩戴了眼鏡,增大了識別難度。

4 結(jié)論

首先對采用的ORL和Yale人臉庫中的圖像按統(tǒng)一比率進(jìn)行縮小變換,然后利用基于強(qiáng)度的PCNN模型得到各個圖像特定的脈沖發(fā)放強(qiáng)度,并將其作為人臉圖像特征進(jìn)行身份識別。實驗證明,該方法對于人臉圖像中有明顯遮擋物的圖像,能有效的提取人臉特征,具有較強(qiáng)的魯棒性,識別效率高于其他PCNN提取的特征。在今后的研究中,我們將會致力于處理更加復(fù)雜背景的人臉圖像,提高算法的健壯性。

[1] 施為.公安系統(tǒng)人臉識別算法的研究與實現(xiàn)[D].南京:南京郵電大學(xué),2013.

[2] Mohammed A A,Minhas R,Jonathan Wu Q M,et al.Human face recognition based on multidimensional PCA and extreme learning machine[J].Pattern Recognition,2011,44(10):2588-2597.

[3] Shchegoleva N,Kukharev G.Application of two-dimensional principal component analysis for recognition of face images[J].Pattern Recognition and Image Analysis,2010,20(4):512-527.

[4] Karande K J,Talbar S N,Inamdar S S.Face Recognition using Oriented Laplacian of Gaussian (OLOG) and Independent Component Analysis (ICA)[C]∥Digital Information and Communication Technology and it′s Applications (DICTAP),2012 Second International Conference on.IEEE,2012:99-103.

[5] Lu G F,Zou J,Wang Y.Incremental complete LDA for face recognition[J].Pattern Recognition,2012,45(7):2510-2521.

[6] Li W,Liu L,Gong W.Multi-objective uniform design as a SVM model selection tool for face recognition[J].Expert Systems with Applications,2011,38(6):6689-6695.

[7] Johnson J L,Padgett M L.PCNN models and applications[J].IEEE Transactions on Neural Networks/a Publication of The IEEE Neural Networks Council,1998,10(3):480-498.

[8] Imamoglu N,Gomez-Tames J,Gonzalez J,et al.Pulse-coupled neural network segmentation and bottom-up saliency-on feature extraction for thigh magnetic resonance imaging based 3D model construction[J].Journal of Medical Imaging and Health Informatics,2014,4(2):220-229.

[9] Li M,Li Y J,Wang H M,et al.Fusion algorithm of infrared and visible images based on NSCT and PCNN[J].Opto-Electron.Eng,2010,37(6):90-95.

[10] Li H,Xu D,Zong R.Face recognition based on unit-linking PCNN time signature[C]∥Advanced Computer Control,2009.ICACC′09.International Conference on.IEEE,2009:360-364.

[11] 王 晅,楊 光.改進(jìn)的脈沖耦合神經(jīng)網(wǎng)絡(luò)人臉特征提取方法[J].計算機(jī)工程與應(yīng)用,2013,49(1):213-216.

[12] Li X,Zheng H,Liu C.Face recognition scheme based on HSI-PCNN[J].Journal of Multimedia,2013,8(5):573-579.

[13] Wei S,Hong Q,Hou M.Automatic image segmentation based on PCNN with adaptive threshold time constant[J].Neurocomputing,2011,74(9):1485-1491.

(編輯:朱倩)

Static Image Face Recognition Based on the Strength of PCNN

CHANG Sha,DENG Hongxia,LI Haifang

(CollegeofComputerScienceandTechnology,TaiyuanUniversityofTechnology,Taiyuan030024,China)

In order to reduce the influence of the change of face posture,facial expression and light in the face image on face recognition,a novel feature extracting method is quoted for face recognition based on the strength of Pulse Coupled Neural network (PCNN).Different face images have different grayscale characteristics,every image can form a specific pulse intensity matrix after being put into the new PCNN model.Experiments use pulse intensity matrix as facial features,and combine the distance classifier—cosine distance for face recognition.Simulation results show that,the characteristics extracted by the strength of PCNN model can portray the details of the face.For different posture,facial expression and facial mask of the face image,good recognition result is obtained.This method has strong robustness in the aspact of feature extraction for complex face image.

pulse coupled neural network(PCNN);face recognition;feature extracting; cosine distance

2014-08-28

國家自然科學(xué)基金資助項目:抑郁癥EEG功能腦網(wǎng)絡(luò)構(gòu)建及異常特征分析研究(61373101);山西省自然科學(xué)(青年科技研究)基金資助項目(2014021022-5);山西省科技攻關(guān)基金資助項目(20130311037-4)

常莎(1990-),女,山西晉中人,在讀碩士,主要從事圖像識別,智能信息處理的研究,(Tel)15536888650

李海芳(1963-),女,教授,博士生導(dǎo)師,(E-mail)lihaifang@tyut.edu.cn

1007-9432(2015)01-0089-05

TP391

A

10.16355/j.cnki.issn1007-9432tyut.2015.01.018

猜你喜歡
人臉識別人臉灰度
采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過濾技術(shù)
人臉識別 等
有特點的人臉
基于灰度拉伸的圖像水位識別方法研究
揭開人臉識別的神秘面紗
三國漫——人臉解鎖
動漫星空(2018年9期)2018-10-26 01:17:14
基于最大加權(quán)投影求解的彩色圖像灰度化對比度保留算法
基于灰度線性建模的亞像素圖像抖動量計算
基于類獨立核稀疏表示的魯棒人臉識別
馬面部與人臉相似度驚人
东台市| 绥芬河市| 汉寿县| 乐东| 喜德县| 青龙| 广平县| 阿拉善左旗| 新津县| 七台河市| 岚皋县| 虎林市| 延津县| 平昌县| 裕民县| 舞钢市| 岑巩县| 桂东县| 合水县| 博客| 东城区| 芒康县| 江孜县| 丹巴县| 社旗县| 含山县| 赣榆县| 双桥区| 江孜县| 寿宁县| 紫云| 县级市| 伊春市| 兴仁县| 柳河县| 增城市| 布拖县| 岗巴县| 沧州市| 广西| 张家口市|