国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于深度學習的指靜脈識別研究

2018-03-05 02:09:53超,邵
計算機技術(shù)與發(fā)展 2018年2期
關鍵詞:手指卷積神經(jīng)網(wǎng)絡

吳 超,邵 曦

(南京郵電大學 通信與信息工程學院,江蘇 南京 210003)

1 概 述

生物識別技術(shù)是使用人體特征進行身份認證的一種方法,人體特征包括人臉、指紋、虹膜和靜脈。與傳統(tǒng)生物特征相比,人體的指靜脈特征具有安全性、唯一性和長期不變性等優(yōu)點。1992年,北海道大學的研究人員第一次證明了世界上任意兩個人即使是雙胞胎都不可能擁有完全相同的靜脈特征[1-2]。由于指靜脈圖像是利用紅外攝像頭采集得到,與指紋采集等相比,指靜脈采集具有非接觸性,并且很難被竊取和偽造。與指紋、聲音和人臉等生物特征不同的是,即使某個手指受到損傷,依然可以利用其他手指靜脈[3-4]。

由于指靜脈作為生物特征識別具有顯著的優(yōu)勢,因此國內(nèi)外都對此進行了廣泛研究。國外對該領域研究較早,技術(shù)較為成熟。日本日立公司從1997年就開始這方面研究,2004年推出靜脈認證的自動存取款機[5-6]。2010年,該公司的NaotoMiura等在指靜脈采集裝置的設計、指靜脈圖像的獲取和指靜脈特征識別等多個方面進行了深入研究并發(fā)表多篇文獻[7]。韓國國立大學的Joon Hwan等針對指靜脈圖像的預處理進行研究,并在2009年發(fā)表的文獻中指出通過梯度、主曲率與二值化等方法對指靜脈圖像進行預處理,可以有效提取靜脈紋路[8]。在國內(nèi),也有許多研究人員從事指靜脈識別研究。比如,張忠波等針對手指靜脈特征提取技術(shù),提出了基于曲波和神經(jīng)網(wǎng)絡的多尺度特征提取方法,取得了較好的識別效果[9]。

指靜脈圖像采集過程容易因光照強度、角度和環(huán)境溫度等外界因素的影響而降低圖像質(zhì)量。因此需要對指靜脈圖像進行適當?shù)念A處理,以降低外界因素對指靜脈識別的不利影響。指靜脈采集過程中,由于手指的旋轉(zhuǎn)、傾斜等會使同一手指靜脈在不同時刻產(chǎn)生輕微的旋轉(zhuǎn)角度,為了提高識別精度,需要對原始圖像進行矯正。

近年來,由于計算機運算能力的不斷提升,深度學習也有了巨大進步,獲得了優(yōu)異的成果。2012年,Alex等在ImageNet圖像分類競賽中利用AlexNet深度神經(jīng)網(wǎng)絡做出了非常好的效果,超過了其他所有淺層的方法[10]。深度學習可以通過學習一個深度非線性網(wǎng)絡,實現(xiàn)復雜函數(shù)逼近,展現(xiàn)了其從少量樣本集中學習數(shù)據(jù)集本質(zhì)特征的能力。因此文中提出基于深度學習的指靜脈識別方法。

2 指靜脈提取與預處理

2.1 指靜脈采集裝置原理

每個人的手指表皮下的靜脈紋路都是獨一無二的,即使是雙胞胎的對應手指靜脈分布也一定不相同。當進入成年以后,手指靜脈圖像不再改變,具有較好的穩(wěn)定性和唯一性。這為指靜脈識別提供了醫(yī)學依據(jù)。

指靜脈圖像采集裝置是由近紅外光發(fā)生裝置和紅外攝像頭采集裝置組成。實驗證明760~850nm波長的近紅外光對肌肉和骨骼具有較好的穿透能力,并且靜脈中的血紅蛋白對此范圍的近紅外光具有良好的吸收能力[11-12]。近紅外光從手指背部穿過,由于靜脈血紅蛋白可以吸收近紅外光,因此紅外攝像機采集到的手指圖像會形成一些較暗的紋路,這些紋路便是手指靜脈圖像。

然而由于光照強度、光照角度、骨骼和肌肉厚度等因素的影響,使得紅外攝像頭采集到的圖像除了包含指靜脈紋路外,還包含一些不規(guī)則的暗影和噪聲。這些噪聲會對后期的指靜脈識別產(chǎn)生干擾,需要對采集圖像做進一步處理。

2.2 指靜脈圖像的矯正

同一手指在不同時間采集手指靜脈時,不可避免地會因為手指與設備角度的偏差而產(chǎn)生差異較大的手指靜脈圖像。因此需要對圖像進行矯正。圖像矯正前,需要計算手指傾斜角度,并根據(jù)傾斜角通過圖像旋轉(zhuǎn)矯正原始圖像。

用F1(x,y)、F2(x,y)分別表示手指的左右邊界曲線,N1表示曲線F1上點的個數(shù),N2表示曲線F2上點的個數(shù)。(x1i,y1i)和(x2j,y2j)分別表示曲線F1第i個點的坐標以及曲線F2第j個點的坐標。圖像旋轉(zhuǎn)角度由以下公式給出:

(1)

(2)

(3)

(4)

(5)

(6)

(7)

(8)

(9)

得到指靜脈圖像傾斜角后,通過反向旋轉(zhuǎn)即可對圖像進行矯正。

經(jīng)過上述方法獲取旋轉(zhuǎn)角后進行反向旋轉(zhuǎn)得到矯正圖像。旋轉(zhuǎn)矯正后的圖像基本處于垂直角度,很好地解決了因為采集過程手指不同程度偏轉(zhuǎn)而產(chǎn)生的圖像差異問題。

2.3 指靜脈圖像的ROI提取

通過指靜脈采集裝置采集到的原始圖像包含指靜脈特征區(qū)域和背景區(qū)域,為了減少背景對后續(xù)指靜脈特征提取的影響,需要去除背景區(qū)域,即感興趣區(qū)域提取(region of interest,ROI)[13-17]。文中使用形態(tài)學算法處理手指邊緣,獲得精確邊緣檢測。

使用Sobel算子進行原始圖像的垂直邊緣檢測,但由于光線較暗,邊緣檢測效果并不是很好,會出現(xiàn)斷斷續(xù)續(xù)的點。因此下一步采用形態(tài)學算法進一步處理[18-20]。

對上一步的邊緣檢測結(jié)果進行閉合操作,閉操作可使輪廓線更光滑,減少狹窄的間斷和細長的鴻溝,消除小的空洞,并填補輪廓線中的斷裂。接著進一步骨骼化,細化邊緣區(qū)域,由此可以得到清晰明確的兩條邊界線。根據(jù)圖像左右的邊界線切割圖像得到指靜脈區(qū)域圖像。為了便于后續(xù)處理,把所有指靜脈圖像尺寸都放縮至300*100。

ROI圖像提取如圖1所示。

圖1 ROI圖像提取

2.4 指靜脈圖像增強

由于紅外光易受到手指肌肉和骨骼的影響,在非靜脈區(qū)域也會含有大量暗部。這使指靜脈圖像的對比度降低,對圖像識別產(chǎn)生不利影響。這里引入一個高斯高通濾波器來增強圖像的對比度[21-22]。濾波器的公式如下:

(10)

D(x,y)定義如下:

D(x,y)=[(x-x0)2+(y-y0)2]1/2

(11)

其中,D(x,y)表示中心點與點(x,y)的距離,卷積模板的中心點為D0(x0,y0)。通過更改系數(shù)a,b的值來調(diào)節(jié)濾波器的濾波效果。文中卷積模板尺寸為9,a和b的取值分別為12.41和-4。

實驗結(jié)果表明,濾波后的圖像對比度明顯高于原始圖像,很好地去除了暗部的不利影響。

3 深度神經(jīng)網(wǎng)絡

3.1 深度學習

深度學習(也稱深度結(jié)構(gòu)化學習,分層學習或深層機器學習)是基于一組算法的機器學習的分支,深度學習通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示[23]。

深度學習是機器學習研究中的一個新領域,其目的在于建立、模擬人腦進行分析學習的神經(jīng)網(wǎng)絡,它模仿人腦的機制來解釋數(shù)據(jù),例如圖像,聲音和文本。深度學習領域的研究主要致力于尋找對數(shù)據(jù)更好的表示以及構(gòu)建模型來從大規(guī)模無標簽的數(shù)據(jù)中學習這些特征表示。一些研究人員受到神經(jīng)學科的啟發(fā),基于神經(jīng)系統(tǒng)中的信息處理和通信模式的解釋構(gòu)建出多種模型。諸如深度神經(jīng)網(wǎng)絡、卷積深度神經(jīng)網(wǎng)絡、深度信念網(wǎng)絡和復現(xiàn)神經(jīng)網(wǎng)絡的各種深度學習架構(gòu)已經(jīng)應用于計算機視覺、自動語音識別、自然語言處理、音頻識別和生物信息學等領域,并且顯示出了一定的優(yōu)勢。

3.2 AlexNet神經(jīng)網(wǎng)絡模型

2012年,Geoffrey Hinton和Alex在ImageNet的競賽中使用一個8層的卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)刷新了圖像分類的記錄,奠定了深度學習在計算機視覺中的地位,后來大家把這8層的CNN命名為AlexNet。AlexNet是一種典型的卷積神經(jīng)網(wǎng)絡,共有8層,其中前5層是卷積層,后3層全連接,最后的一個全連接層的輸出是softmax。

整體結(jié)構(gòu)如圖2所示。

圖2 AlexNet網(wǎng)絡結(jié)構(gòu)

該卷積神經(jīng)網(wǎng)絡涉及到以下幾個部分:ReLU激活函數(shù)、卷積和池化。

(1)ReLU激活函數(shù)[24]。

Sigmoid是常用的非線性激活函數(shù),它能夠把輸入的連續(xù)實值“壓縮”到0和1之間。特別的,如果是非常大的負數(shù),那么輸出就是0;如果是非常大的正數(shù),輸出就是1。但是它有一些缺點:當輸入非常大或者非常小時,會有飽和現(xiàn)象,這些神經(jīng)元的梯度是接近于0的。如果初始值很大的話,梯度在反向傳播時因為需要乘上一個Sigmoid的導數(shù),使得梯度越來越小,導致網(wǎng)絡變得很難學習。并且Sigmoid的輸出不是0均值,這會導致后一層的神經(jīng)元將得到上一層輸出的非0均值的信號作為輸入,會對訓練產(chǎn)生不利影響。因此這里用ReLU激活函數(shù)來替代Sigmod激活函數(shù)。

(2)卷積。

AlexNet的核心就是卷積層。卷積運算一個重要的特點就是增強原信號特征,并且降低噪音。不同的卷積核能夠提取到圖像中的不同特征。

(3)池化。

池化是在卷積特征提取的基礎上,對每個卷積特征進行取平均(或者取最大值),進一步縮小隱藏節(jié)點對應的卷積特征維數(shù),減小分類器的設計負擔。

3.3 改進的神經(jīng)網(wǎng)絡模型

AlexNet神經(jīng)網(wǎng)絡結(jié)構(gòu)有6000萬個參數(shù),這給神經(jīng)網(wǎng)絡的學習帶來了很大問題。較多的參數(shù)使得學習成本增高,并且可能帶來過擬合的問題。因此提出改進方法,在不降低神經(jīng)網(wǎng)絡性能的前提下,進一步減少神經(jīng)網(wǎng)絡結(jié)構(gòu)的參數(shù)數(shù)量。策略如下:

(1)替換原來的3*3的卷積核為1*1的卷積核。

(2)減少輸入3*3卷積的特征圖(feature map)的數(shù)量。

具體實現(xiàn)中,將AlexNet網(wǎng)絡的每個卷積層分為兩個自帶ReLU函數(shù)的卷積層,第一層的卷積核大小為1*1,第二層的卷積中包含1*1和3*3兩種卷積核大小。在ImageNet上,參數(shù)數(shù)目可減少50倍。

改進后的AlexNet整體網(wǎng)絡結(jié)構(gòu)如圖3所示。

圖3 網(wǎng)絡結(jié)構(gòu)

3.4 Caffe開源框架

Caffe是一個清晰而高效的深度學習框架[25]。由于其模型與相關的優(yōu)化都是以文本的形式給出,因此使用Caffe框架可以方便地定義神經(jīng)網(wǎng)絡,并可以通過命令行或者接口的調(diào)用來方便地對網(wǎng)絡進行訓練。因此文中所有實驗都是在Caffe框架下進行。

在Caffe中有兩個核心配置文件train_val.prototxt和solver.prototxt。train_val.prototxt文件是網(wǎng)絡配置文件,該文件通過layer參數(shù)來定義不同的網(wǎng)絡層。solver.prototxt文件是Caffe運行的關鍵,它協(xié)調(diào)著整個模型的運作。在深度學習中,loss函數(shù)往往是非凸的,沒有解析解,必須找到一個優(yōu)化方法來求解。solver的主要作用就是交替調(diào)用前向(forward)算法和后向(backward)算法來更新參數(shù),從而最小化loss,實際上就是一種迭代的優(yōu)化算法。

在計算loss函數(shù)時,傳統(tǒng)的梯度下降算法(gradient descent,GD)要通過所有樣本計算梯度,而隨機梯度下降算法(stochastic gradient descent,SGD)通過一個樣本或部分樣本計算一個近似的梯度,因此SGD計算量要更小。在訓練集較大時,SGD算法收斂速度更快。因此文中采用SGD算法。

4 實 驗

4.1 數(shù)據(jù)集的擴展

實驗數(shù)據(jù)采集于123個人的四根手指,每根手指采集12張靜脈圖片,即數(shù)據(jù)集的大小為492*12。為了對網(wǎng)絡模型進行更好的訓練,減少數(shù)據(jù)集過擬合的問題,對該數(shù)據(jù)集進行擴展。擴展的方法是對原始圖像進行隨機抽取。抽取方式有兩種,第一種方法是在尺寸為300*100的原始圖像上隨機抽取一個尺寸為270*90的子圖像,并將原始圖像和抽取圖像統(tǒng)一壓縮尺寸到60*30。第二種方法是對原始圖像進行順時針和逆時針旋轉(zhuǎn),旋轉(zhuǎn)角度范圍為[0,2],并將原始圖像和抽取圖像統(tǒng)一壓縮尺寸到60*30。利用上述兩種抽取方式來擴展數(shù)據(jù)集,將原始數(shù)據(jù)集的大小由492*12擴大為492*120。

實驗結(jié)果表明,通過這兩種方式擴展得到的數(shù)據(jù)集具有良好的訓練效果。

4.2 實驗結(jié)果

通過上一節(jié)所提方法得到的數(shù)據(jù)集有492類手指圖像,每類包含120張。利用該數(shù)據(jù)集進行模型訓練。

該實驗利用Caffe開源框架設計和實現(xiàn)深度神經(jīng)網(wǎng)絡。其中計算機CPU型號為E7440,主頻2.4GHz,8核16G內(nèi)存。

利用Caffe框架對該神經(jīng)網(wǎng)絡進行迭代訓練達到80000次,實驗結(jié)果如表1、圖4和圖5所示。由表1可以看出,隨著訓練次數(shù)的增多,識別率逐漸提高,loss值逐步降低。由圖4和圖5可知,當訓練次數(shù)達到70000~80000次時,整個網(wǎng)絡模型趨于穩(wěn)定。

表1 訓練結(jié)果

圖4 識別率變化曲線 圖5 loss值變化曲線

以上實驗表明,改進過的AlexNet神經(jīng)網(wǎng)絡對指靜脈圖像進行分類能夠得到較好的結(jié)果。

5 結(jié)束語

隨著信息技術(shù)的高速發(fā)展,對生物特征識別技術(shù)的需求越來越高。由最開始的指紋識別、語音識別到后來的虹膜識別和指靜脈識別,每一次技術(shù)的突破都意味著信息安全的重要性不斷得到重視。如今,電子產(chǎn)品與人類的交互越來越頻繁,人們對設備的數(shù)據(jù)安全需求不斷提高,因此研究指靜脈識別具有很好的現(xiàn)實意義。近來發(fā)展火熱的深度學習證明了其在圖像分類等領域的優(yōu)勢。實驗結(jié)果表明,利用深度學習構(gòu)造深度神經(jīng)網(wǎng)絡模型,對指靜脈圖像的分類具有良好的效果。

[1] XI X,YANG G,YIN Y,et al.Finger vein recognition with personalized feature selection[J].Sensors,2013,13(9):11243-11259.

[2] KONO M,UEKI H,UMEMURA S.A new method for the identification of individuals by using of vein pattern matching of a finger[C]//Proceedings of the5th symposium on pattern measurement.Yamaguchi,Japan:[s.n.],2000:9-12.

[3] XIE S J,YANG J,YOON S,et al.Guided Gabor filter for finger vein pattern extraction[C]//Eighth international conference on signal image technology and internet based systems.[s.l.]:IEEE,2012:118-123.

[4] LU Y,YOON S,XIE S J,et al.Finger vein recognition using histogram of competitive Gabor responses[C]//22nd international conference on pattern recognition.[s.l.]:IEEE,2014:1758-1763.

[5] JAIN A K,ROSS A,PANKANTI S.Biometrics:a tool for information security[J].IEEE Transactions on Information Forensics and Security,2006,1(2):125-143.

[6] KONO M,UEKI H, UMEMURA S. Near-infrared finger vein patterns for personal identification[J].Applied Optics,2002,41(35):7429-7436.

[7] YAMADA J,NISHIKAWA Y.Personal identification device and method:U.S,6907134[P].2005-06-14.

[8] CHOI J H.Finger vein extraction using gradient normalization and principal curvature[J].Proceedings of SPIE,2009,7251:725111.

[9] ZHANG Z,MA S,HAN X.Multiscale feature extraction of finger-vein patterns based on curvelets and local interconnection structure neural network[C]//International conference on pattern recognition.[s.l.]:IEEE Computer Society,2006:145-148.

[10] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networks[C]//International conference on neural information processing systems.[s.l.]:Curran Associates Inc,2012:1097-1105.

[11] MIURA N,NAGASAKA A,MIYATAKE T.Feature extraction of finger-vein patterns based on repeated line tracking and its application to personal identification[J].Machine Vision and Applications,2004,15(4):194-203.

[12] 楊數(shù)強,王軍強,周 濤.手指靜脈采集控制板的研制[J].計算機工程與應用,2011,47(27):80-82.

[13] YANG J,SHI Y.Finger-vein ROI localization and vein ridge enhancement[J].Pattern Recognition Letters,2012,33(12):1569-1579.

[14] 楊金鋒,張海金.手指靜脈圖像感興趣區(qū)域提取方法研究[J].山東大學學報:工學版,2012,42(3):6-12.

[15] 苑瑋琦,高潔睿.基于局部灰度極小值的指靜脈圖像分割方法[J].計算機技術(shù)與發(fā)展,2016,26(7):109-111.

[16] 余成波,秦華鋒.手指靜脈圖像特征提取算法的研究[J].計算機工程與應用,2008,44(24):175-177.

[17] 楊 穎,楊公平.手指靜脈識別技術(shù)[J].計算機科學與探索,2012,6(4):343-354.

[18] LIU Z,YIN Y,WANG H,et al.Finger vein recognition with manifold learning[J].Journal of Network & Computer Applications,2010,33(3):275-282.

[19] WANG J X.Gabor filter based fingerprint image enhancement[C]//Fifth international conference on machine vision.[s.l.]:International Society for Optics and Photonics,2013.

[20] 岡薩雷斯,伍 茲,埃丁斯,等.數(shù)字圖像處理:MATLAB版[M].北京:電子工業(yè)出版社,2005.

[21] ROSDI B A,SHING C W,SUANDI S A.Finger vein recognition using local line binary pattern[J].Sensors,2011,11(12):11357-11371.

[22] 劉 洋,郭樹旭,張鳳春,等.基于稀疏分解的指靜脈圖像去噪[J].信號處理,2012,28(2):179-185.

[23] AREL I,ROSE D C,KARNOWSKI T P.Deep machine learning-a new frontier in artificial intelligence research [research frontier][J].IEEE Computational Intelligence Magazine,2010,5(4):13-18.

[24] GLOROT X,BORDES A,BENGIO Y.Deep Sparse Rectifier Neural Networks[C]//International conference on artificial intelligence and statistics.[s.l.]:[s.n.],2011:315-323.

[25] JIA Y,SHELHAMER E,DONAHUE J,et al.Caffe:convolutional architecture for fast feature embedding[C]//Proceedings of the22nd ACM international conference on multimedia.[s.l.]:ACM,2014:675-678.

猜你喜歡
手指卷積神經(jīng)網(wǎng)絡
手指背側(cè)復合組織塊離斷再植
基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
手指操
神經(jīng)網(wǎng)絡抑制無線通信干擾探究
電子制作(2019年19期)2019-11-23 08:42:00
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
基于傅里葉域卷積表示的目標跟蹤算法
基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
重型機械(2016年1期)2016-03-01 03:42:04
復數(shù)神經(jīng)網(wǎng)絡在基于WiFi的室內(nèi)LBS應用
筆穿手指
少年科學(2015年8期)2015-08-13 22:13:01
基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡的PID整定
镇赉县| 尚义县| 鄱阳县| 新和县| 凤城市| 平顶山市| 福鼎市| 定南县| 交城县| 汉源县| 大田县| 内丘县| 肥西县| 中宁县| 交城县| 昌江| 凤凰县| 从江县| 罗江县| 霸州市| 保亭| 蓝山县| 北碚区| 西青区| 尼勒克县| 怀仁县| 牟定县| 泾源县| 定兴县| 肥城市| 阿鲁科尔沁旗| 江永县| 红河县| 新竹县| 兰考县| 五大连池市| 山东| 福安市| 翁牛特旗| 道孚县| 怀远县|