国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于多維匹配距離融合的指節(jié)紋識(shí)別

2022-05-09 06:40:56楊子元閔衛(wèi)東
圖學(xué)學(xué)報(bào) 2022年2期
關(guān)鍵詞:指節(jié)特征提取編碼

黃 杰,魏 欣,楊子元,閔衛(wèi)東,3

基于多維匹配距離融合的指節(jié)紋識(shí)別

黃 杰1,魏 欣2,楊子元1,閔衛(wèi)東2,3

(1. 南昌大學(xué)信息工程學(xué)院,江西 南昌 330031;2. 南昌大學(xué)軟件學(xué)院,江西南昌 330047;3. 江西省智慧城市重點(diǎn)實(shí)驗(yàn)室,江西 南昌 330047)

指節(jié)紋識(shí)別(FKP)作為一種新型的生物特征識(shí)別方式,以其安全性和穩(wěn)定性而備受關(guān)注?;诰幋a的方法被認(rèn)為是該領(lǐng)域最有成效法之一,在模板匹配階段通常根據(jù)所提取的特征信息計(jì)算出2張圖片之間的匹配距離來(lái)判斷樣本。然而,一些模糊樣本無(wú)法通過(guò)單一的匹配距離進(jìn)行有效區(qū)分,從而導(dǎo)致較高的錯(cuò)誤接受率和錯(cuò)誤拒絕率。針對(duì)這一問(wèn)題,提出了一種輕量化且有效的多維匹配距離融合方法。主要思想是基于多種編碼方法中不同匹配距離之間的差異性和互補(bǔ)性,利用支持向量機(jī)(SVM)對(duì)多種匹配距離所構(gòu)造出的多維特征向量進(jìn)行分類。其具有極強(qiáng)的通用性,易嵌入到現(xiàn)有的基于編碼的方法中。在公開(kāi)的指節(jié)紋數(shù)據(jù)庫(kù)PloyU-FKP上進(jìn)行了從二維到四維匹配距離的大量實(shí)驗(yàn)。結(jié)果表明,該方法能夠普遍提高認(rèn)證的性能,EER最多可降低22.19%。

指節(jié)紋識(shí)別;多維匹配距離;差異互補(bǔ);支持向量機(jī);通用性

在網(wǎng)絡(luò)化信息社會(huì),許多場(chǎng)合需要準(zhǔn)確地識(shí)別一個(gè)人身份,生物特征技術(shù)為身份識(shí)別提供了有效地解決方案[1-2]。目前常用的生物特征包括面部、虹膜、指紋和掌紋[3-4]。指節(jié)紋作為一種重要的生物特征,具有信息豐富、限制少、保密性好、成本低等特點(diǎn),也逐漸進(jìn)入了研究者的視線。指節(jié)紋的研究始于2004年,并在近十年來(lái)取得了豐碩的成果[5-6]。

現(xiàn)有的編碼類指節(jié)紋識(shí)別(finger-knuckle- print,F(xiàn)KP)方法在模板匹配階段大多使用單一的匹配距離判斷2幅圖像是否屬于同一個(gè)人。但是,對(duì)于部分模糊樣本,單一匹配距離無(wú)法對(duì)其進(jìn)行準(zhǔn)確地區(qū)分,從而導(dǎo)致較高的錯(cuò)誤接受率和錯(cuò)誤拒絕率。因此,通過(guò)單一匹配距離認(rèn)證身份的方式不具有足夠的辨別力。本文提出了一種基于多維匹配距離融合的輕量化方法,基于多種特征提取算法,利用不同特征空間所計(jì)算出匹配距離之間的差異性和互補(bǔ)性。該方法在模板匹配階段將不同的匹配距離構(gòu)造成多維匹配距離向量再用支持向量機(jī)(support vector machine,SVM)進(jìn)行分類以緩解現(xiàn)有方法識(shí)別精度不足的問(wèn)題。其核心思想是將單一匹配距離擴(kuò)展為多維匹配距離,使單一匹配距離無(wú)法識(shí)別的模糊樣本能夠通過(guò)多維匹配距離被準(zhǔn)確識(shí)別,能夠嵌入到各種編碼類方法中,無(wú)論是現(xiàn)存的,還是未來(lái)即將出現(xiàn)的,其具有極強(qiáng)的通用性。

在特征提取階段,深度學(xué)習(xí)通常需要大量地訓(xùn)練樣本調(diào)整網(wǎng)絡(luò)中的參數(shù),實(shí)際應(yīng)用中一般很難獲取用戶大量的手指圖像,因此會(huì)導(dǎo)致深度學(xué)習(xí)方法不適用[7]。本文方法在匹配分類階段僅涉及二維到四維的特征(與匹配距離的個(gè)數(shù)相對(duì)應(yīng))。傳統(tǒng)的分類器,如SVM能實(shí)現(xiàn)理想的效果,無(wú)需通過(guò)深度神經(jīng)網(wǎng)絡(luò)(deep neural network,DNN)進(jìn)行分類。此外,SVM相對(duì)DNN而言,無(wú)需存儲(chǔ)大量參數(shù)且計(jì)算成本低。綜上,本文方法采用SVM分類器完成最終的分類。

1 相關(guān)工作

1.1 指節(jié)紋識(shí)別流程及相關(guān)進(jìn)展

FKP框架通常由圖片采集、預(yù)處理、特征提取和模板匹配4部分組成。其通用流程如圖1所示。同時(shí),圖2展示了指節(jié)紋圖片感興趣區(qū)域(region of interest,ROI)的裁剪。

圖1 基于指節(jié)紋的個(gè)人認(rèn)證系統(tǒng)的結(jié)構(gòu)

圖2 圖像ROI提取

近年來(lái),越來(lái)越多的算法表現(xiàn)出高精度、抗光照變化魯棒性、特征提取和匹配速度快等優(yōu)點(diǎn)[8]。LI等[9]首先提出了內(nèi)指指關(guān)節(jié)模式識(shí)別框架,包括內(nèi)指指關(guān)節(jié)模式預(yù)處理和識(shí)別算法,充分展示了整個(gè)識(shí)別過(guò)程。YANG等[10]利用二維Gabor濾波器提取圖像局部方向和角距離信息,以衡量2個(gè)競(jìng)爭(zhēng)碼映射之間的相似性,該算法被稱為競(jìng)爭(zhēng)編碼(Comp)。SUN等[11]提出了對(duì)2個(gè)方向正交的線性圖像區(qū)域進(jìn)行比較的新方法,然后生成一位特征碼,稱之為序數(shù)碼。XU等[12]提出了一種基于判別性和魯棒競(jìng)爭(zhēng)碼的方法(discriminative robust competitive code,DRCC),可對(duì)鄰域的方位信息進(jìn)行加權(quán),提高了優(yōu)勢(shì)方向碼的精度和穩(wěn)定性。ZHANG等[13]利用Gabor濾波的方向信息和幅值信息相結(jié)合的特征提取方案,是一種改進(jìn)競(jìng)爭(zhēng)碼并融合幅度碼的算法。ZHANG和LI[14]則利用Riesz變換對(duì)生物特征圖像的局部模式進(jìn)行編碼的方法,提出了2種Riesz變換編碼方案,即RCode1和RCode2,使用3位表示每一個(gè)編碼,并采用歸一化Hamming距離進(jìn)行匹配。GUO等[15]提出了一種將圖像與6個(gè)不同方向的Gabor濾波器實(shí)部卷積的響應(yīng)進(jìn)行二值化的編碼方法,并將其命名為BOCV,能夠較好地描述局部方向特征,對(duì)圖像旋轉(zhuǎn)具有較強(qiáng)的魯棒性。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)與傳統(tǒng)的基于編碼的方法一樣,在計(jì)算機(jī)視覺(jué)任務(wù)中具有顯著的性能,因此CNN也開(kāi)始被應(yīng)用于FKP的特征提取中[16-17]。然而,CNN需要大量的數(shù)據(jù)來(lái)訓(xùn)練模型。相比之下,基于編碼的方法具有計(jì)算復(fù)雜度低、存儲(chǔ)成本低、參數(shù)少、速度快等優(yōu)點(diǎn)。

1.2 特征提取濾波器

Gabor濾波器可以從圖像中提取3種類型的特征——幅度、相位和方向,這些特征可以在不同的情況下單獨(dú)使用或聯(lián)合使用[18]。本文采用的方法均利用Gabor濾波器提取指節(jié)紋特征,即

2 基于多維匹配距離的指節(jié)紋識(shí)別

本節(jié)介紹了一維匹配距離到多維匹配距離的原理分析和本文方法的總體流程。圖3為本文方法的認(rèn)證流程圖。

2.1 單一匹配距離到多維匹配距離的原理分析

編碼類方法往往是在特征提取和編碼階段之后,通過(guò)計(jì)算2幅模板之間的匹配距離對(duì)用戶身份進(jìn)行判斷。由于單一方法匹配距離的鑒別性不足,其存在大量模糊區(qū)間。為了減少歧義并方便后續(xù)的描述,首先對(duì)相關(guān)概念進(jìn)行定義:一對(duì)圖片之間的一維或多維匹配距離向量在向量空間可以視為一個(gè)新的樣本點(diǎn)。如果一對(duì)圖片屬于同類,則稱其之間的匹配距離向量所對(duì)應(yīng)的樣本為類內(nèi)樣本;如果一對(duì)圖片屬于不同類,則稱其之間的匹配距離向量所對(duì)應(yīng)的樣本為類間樣本。圖4為類內(nèi)、類間樣本分布圖,模糊樣本存在類內(nèi)和類間的重疊區(qū)域。

圖3 本文方法的認(rèn)證流程圖

圖4 類內(nèi)、類間和模糊樣本分布圖

模糊樣本的出現(xiàn)主要是因?yàn)樵肼暤挠绊懞吞卣魈崛∷惴ū旧淼娜毕?,部分類?nèi)樣本的匹配距離會(huì)偏大,而部分類間樣本的匹配距離會(huì)偏小。這些因素都將導(dǎo)致類內(nèi)和類間樣本的匹配距離分布出現(xiàn)重疊。因此,單一閾值無(wú)法準(zhǔn)確區(qū)分這些模糊樣本,圖5可以更加直觀地闡釋上述內(nèi)容。

受單一匹配距離局限性的啟發(fā),本文將多種匹配距離融合成多維匹配距離向量提高模板匹配階段的性能。不同的特征算法可以學(xué)習(xí)到不同的特征,其匹配距離也存在差異。因此,不同算法所計(jì)算的匹配距離具有一定的差異性和互補(bǔ)性,可以將其視為樣本的不同特征,并將其結(jié)合成匹配距離向量,再利用SVM進(jìn)行分類。以二維匹配距離為例,如圖6所示,二維匹配距離判決錯(cuò)誤的樣本數(shù)小于單一匹配距離判決錯(cuò)誤的樣本數(shù)。這是因?yàn)椴煌卣魈崛∷惴ㄓ?jì)算出的匹配距離存在差異性和互補(bǔ)性。其差異性使得當(dāng)樣本被一個(gè)匹配距離錯(cuò)誤判斷時(shí),另一個(gè)匹配距離可以補(bǔ)充進(jìn)行準(zhǔn)確地判斷。此外,2種匹配距離的結(jié)合或?qū)a(chǎn)生新的樣本間的差異使得樣本之間的差異更為明顯。

圖5 一維匹配距離的局限性

圖6 單一匹配距離和二維匹配距離分隔效果比較

SVM的基本思想是求解能正確劃分訓(xùn)練數(shù)據(jù)集和幾何間隔距離最大的分離超平面,即使分離面最近的數(shù)據(jù)點(diǎn)之間距離最大。對(duì)于線性可分的數(shù)據(jù)集而言,劃分的超平面有無(wú)窮多個(gè)(感知機(jī)),但是幾何間隔最大的分離超平面卻是唯一的。利用SVM的算法原理和公式。假設(shè)特征空間上的訓(xùn)練數(shù)據(jù)集為

為了解決這個(gè)優(yōu)化問(wèn)題,首先需要構(gòu)造拉格朗日函數(shù)以得到其對(duì)偶問(wèn)題,即

可化簡(jiǎn)得到

當(dāng)對(duì)一個(gè)數(shù)據(jù)點(diǎn)進(jìn)行分類時(shí),只需將數(shù)據(jù)點(diǎn)放入()中,并將結(jié)果與符號(hào)進(jìn)行比較,即

2.2 本文方法的總體流程

首先通過(guò)各個(gè)特征提取算法E提取每張圖片的特征信息E,i,接著根據(jù)各自算法所提取的不同特征計(jì)算2張圖片之間的匹配距離(E,i,E,j),然后將2張圖片的不同匹配距離融合成多維匹配距離向量(,)用于分類

其中,E為第個(gè)特征提取算法;E,i為用第個(gè)算法提取到第張圖片的特征信息;d為第個(gè)特征提取算法下,第和張圖片之間的匹配距離;D為第和張圖片所構(gòu)成的維匹配距離向量,也就是2.1中所定義的一個(gè)樣本點(diǎn)。

理論上,該方法適用于二維至維匹配距離向量,其中為大于2的正整數(shù)。在實(shí)驗(yàn)中,具體選取了二維匹配距離至四維匹配距離3種不同的維度進(jìn)行研究。類內(nèi)樣本的標(biāo)簽為1,類間樣本的標(biāo)簽為0,從整個(gè)數(shù)據(jù)集中隨機(jī)抽取一定數(shù)量的類間樣本進(jìn)行訓(xùn)練。

式(8)匯總了本文方法計(jì)算樣本最終距離的3種情況,即

其中,和分別為第和張圖像;1和2分別為相應(yīng)的類內(nèi)和類間匹配的置信度分?jǐn)?shù);1,2,···,d為根據(jù)各自特征提取算法計(jì)算的匹配距離;1,2,···,為各個(gè)匹配距離的權(quán)重,且所有權(quán)重之和等于1。

3 實(shí) 驗(yàn)

3.1 指節(jié)紋數(shù)據(jù)庫(kù)

本文所有的實(shí)驗(yàn)均在公共指節(jié)紋數(shù)據(jù)庫(kù)PolyU-FKP數(shù)據(jù)庫(kù)[13]上進(jìn)行測(cè)試。一共選取了147人的左食指、左中指、右食指、右中指的圖像,每根手指有12張圖像,總計(jì)588類手指,7 056張指節(jié)紋圖像。

3.2 參數(shù)與環(huán)境

實(shí)驗(yàn)中計(jì)算機(jī)配置環(huán)境為:Inter-Xeon E-2136CPU@3.30GHz16 GB內(nèi)存,Matlab R2017B,Visual C++ 2015專業(yè)版。為了減少匹配時(shí)間,采用Matlab和C++混合編程。

3.3 實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)結(jié)果是通過(guò)接收機(jī)工作特性(receiver operating characteristic,ROC)曲線來(lái)描述各個(gè)算法的認(rèn)證效果,曲線的橫坐標(biāo)表示真實(shí)接受率(geniune acceptance rate,GAR),曲線的縱坐標(biāo)表示錯(cuò)誤接受率(false acceptance rate,F(xiàn)AR)。評(píng)價(jià)指標(biāo)還包括錯(cuò)誤拒絕率(false rejection rate,F(xiàn)RR)和等錯(cuò)誤率(equal error rate,EER),其是ROC曲線與=+1相交的橫坐標(biāo)。本文對(duì)8種經(jīng)典編碼類識(shí)別方法進(jìn)行復(fù)現(xiàn)比較,分別為BOCV[15],ImComp[13],Comp[10],Magcode[13],DRCC[12],Ordinalcode[11],RCode1[14]和RCode2[14]。8種特征提取算法各自的EER見(jiàn)表1,同時(shí)圖7展示了其ROC曲線。

表1 經(jīng)典算法的EER (%)

圖7 經(jīng)典算法的ROC曲線比較

3.3.1 二維到四維的多維匹配距離

首先,將其中的2種匹配距離融合成二維匹配距離向量。表2展示了各組合使用該方法后的EER以及提升程度,提升程度指的是將各組合使用該方法后的EER與各組合中效果更好的一種匹配距離的EER進(jìn)行比較。

表2 二維組合的EER及比較(%)

表2中的方法均可在一定程度上提高二維距離組合的性能,其中,RC2和Comp這組的EER下降程度高達(dá)21.03%。進(jìn)一步的分析可發(fā)現(xiàn)Comp,RC1和RC2的3種算法的匹配距離均能很好地與其他匹配距離融合,算法之間較大的差異性是導(dǎo)致這一現(xiàn)象的根本原因。圖8展示了部分二維組合使用本文方法后的ROC曲線,并與其各自組合中的2種匹配距離的ROC曲線進(jìn)行比較。下文所有實(shí)驗(yàn)結(jié)果使用該方法均用Ours (xD,xxx+···+xxx)的形式表示,xD代表的是匹配距離的維數(shù)。

隨后本文對(duì)3種匹配距離的特征融合的效果進(jìn)行了研究,將3種不同的匹配距離融合成三維匹配距離向量,同樣也在性能上取得了一定地提升。結(jié)合圖9和表3比較了三維、二維和單個(gè)匹配距離的ROC曲線圖,其中二維匹配距離是選取3種匹配距離中在上述二維實(shí)驗(yàn)中效果較好的一種。不難發(fā)現(xiàn),在所有的組合情況中,三維匹配距離向量得到的鑒別性遠(yuǎn)好于任意一種匹配方法。然而,在和二維距離匹配方法相比則并不能達(dá)到更好的效果。

圖8 二維及其對(duì)應(yīng)一維ROC的比較

圖9 三維、二維和一維ROC的比較

主要原因是對(duì)合理特征數(shù)量進(jìn)行融合時(shí),所融合出的有效判別信息遠(yuǎn)大于融合所產(chǎn)生噪聲帶來(lái)的精度損失;相反的,當(dāng)特征融合數(shù)量增多時(shí),不同特征之間的差異性和互補(bǔ)性會(huì)越來(lái)越小,額外噪聲信息所帶來(lái)的精度損失會(huì)由于提取的不同特征之間相似度的提升而增多,特征融合帶來(lái)的精度增益逐漸小于噪聲帶來(lái)的精度損失,以致出現(xiàn)維數(shù)增高后,效果不升反降的情況,因此3種匹配距離組合不及其中2種較好匹配距離組合所能得到的效果好。在先前的工作[19]中,也進(jìn)行過(guò)類似的實(shí)驗(yàn),發(fā)現(xiàn)了類似的現(xiàn)象,即隨著特征融合數(shù)量的增多,噪聲帶來(lái)的精度損失逐漸超過(guò)精度增益,最終導(dǎo)致精度的下降。具體來(lái)說(shuō),三維特征組合的精度優(yōu)于一維特征,而五維特征組合的精度卻有部分不及三維特征組合。

表3 三維組合的EER(%)

為了進(jìn)一步驗(yàn)證,最后繼續(xù)對(duì)四維匹配距離進(jìn)行探究。表4列出了部分四維組合的結(jié)果,圖10展示了2幅四維、三維和二維的ROC比較曲線,從中可以看出,使用該方法后四維匹配距離組合的結(jié)果優(yōu)于組合中各個(gè)單維匹配距離的結(jié)果,且與對(duì)應(yīng)較好的三維組合相比,四維組合的性能幾乎沒(méi)有什么變化。然而,四維組合的EER均高于相應(yīng)的二維組合。

3.3.2 分?jǐn)?shù)融合有效性驗(yàn)證

最后,為了驗(yàn)證分?jǐn)?shù)融合的有效性,本文進(jìn)行了更多的對(duì)比實(shí)驗(yàn)。為了體現(xiàn)魯棒性和一般性,表5中將權(quán)重設(shè)置為0.5,對(duì)多組算法進(jìn)行了性能提升比較和分析,圖11中對(duì)2組算法分?jǐn)?shù)融合中權(quán)重的敏感性進(jìn)行了分析。

結(jié)合圖11和表5前3行和后3行對(duì)比分析,2種特征相似時(shí),分?jǐn)?shù)融合可略微提升性能;2種特征不同時(shí),分?jǐn)?shù)融合能夠較為明顯地提升性能。因此,無(wú)論哪種情況,分?jǐn)?shù)融合在本文方法中是有效的。

表4 四維組合的EER (%)

圖10 四維、三維和二維ROC的比較

表5 分?jǐn)?shù)融合后的EER(%)

圖11 權(quán)重x敏感性分析

3.4 小 結(jié)

本文實(shí)驗(yàn)從3個(gè)不同維度探究了多維匹配距離融合的提升效果,結(jié)果表明二維匹配距離融合結(jié)果相比于其他維度具有最佳的性能。表6列出了2組本文算法與其他算法的比較。

表6 各類算法EER的比較(%)

4 結(jié)束語(yǔ)

本文提出了一種融合多種特征算法的匹配距離提高指節(jié)紋認(rèn)證識(shí)別性能的方法。該方法主要利用不同特征提取算法計(jì)算出匹配距離之間的差異性和互補(bǔ)性,可有效地判決單一匹配距離無(wú)法判決的模糊樣本,其具有極強(qiáng)的通用性,且易于嵌入到各種編碼類方法中。

實(shí)驗(yàn)從二維至四維3種維度驗(yàn)證了本文方法的有效性。結(jié)果表明,多維匹配距離組合的性能優(yōu)于對(duì)應(yīng)的單一匹配距離,而二維匹配距離組合在多維匹配距離組中具有最好的性能。

本文方法在準(zhǔn)確率和魯棒性方面均可獲得較優(yōu)的效果。然而,總體效果在很大程度上是依賴于原有單個(gè)特征提取算法本身的精度,在未來(lái)的工作中,將針對(duì)指節(jié)紋特征提取算法進(jìn)行更多深入研究,提升單個(gè)算法的精度,從而進(jìn)一步提升該方法的效果。

[1] LENG L, YANG Z Y, MIN W D. Democratic voting downsampling for coding-based palmprint recognition[J]. IET Biometrics, 2020, 9(6): 290-296.

[2] LIM M H, YUEN P C. Entropy measurement for biometric verification systems[J]. IEEE Transactions on Cybernetics, 2016, 46(5): 1065-1077.

[3] FEI L K, LU G M, JIA W, et al. Feature extraction methods for palmprint recognition: a survey and evaluation[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2019, 49(2): 346-363.

[4] YANG Z Y, LENG L, MIN W D. Extreme downsampling and joint feature for coding-based palmprint recognition[J]. IEEE Transactions on Instrumentation and Measurement, 2021, 70: 1-12.

[5] 于霞, 王瑋. 內(nèi)指節(jié)紋識(shí)別方法研究[J]. 信息與電腦: 理論版, 2020, 32(8): 115-117.

YU X, WANG W. Research on recognition method of internal finger knuckles[J]. China Computer & Communication, 2020, 32(8): 115-117 (in Chinese).

[6] LI S Y, ZHANG B, FEI L K, et al. Joint discriminative feature learning for multimodal finger recognition[J]. Pattern Recognition, 2021, 111: 107704.

[7] FEI L K, ZHANG B, TENG S H, et al. Joint multiview feature learning for hand-print recognition[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 69(12): 9743-9755.

[8] 陸勁挺, 賈偉, 葉慧, 等. 指節(jié)紋識(shí)別綜述[J]. 模式識(shí)別與人工智能, 2017, 30(7): 622-636.

LU J T, JIA W, YE H, et al. Finger-knuckle-print recognition: a preliminary review[J]. Pattern Recognition and Artificial Intelligence, 2017, 30(7): 622-636 (in Chinese).

[9] LI Q, QIU Z D, SUN D M, et al. Personal identification using knuckleprint[M]//Advances in Biometric Person Authentication. Heidelberg: Springer, 2004: 680-689.

[10] YANG W M, HUANG X L, ZHOU F, et al. Comparative competitive coding for personal identification by using finger vein and finger dorsal texture fusion[J]. Information Sciences, 2014, 268: 20-32.

[11] SUN Z N, TAN T N, WANG Y H, et al. Ordinal palmprint represention for personal identification[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2005: 279-284.

[12] XU Y, FEI L K, WEN J, et al. Discriminative and robust competitive code for palmprint recognition[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2018, 48(2): 232-241.

[13] ZHANG L, ZHANG L, ZHANG D, et al. Online finger- knuckle-print verification for personal authentication[J]. Pattern Recognition, 2010, 43(7): 2560-2571.

[14] ZHANG L, LI H Y. Encoding local image patterns using Riesz transforms: with applications to palmprint and finger-knuckle-print recognition[J]. Image and Vision Computing, 2012, 30(12): 1043-1051.

[15] GUO Z H, ZHANG D, ZHANG L, et al. Palmprint verification using binary orientation co-occurrence vector[J]. Pattern Recognition Letters, 2009, 30(13): 1219-1227.

[16] TRABELSI S, SAMAI D, MERAOUMIA A, et al. Finger-knuckle-print recognition using deep convolutional neural network[C]//2020 1st International Conference on Communications, Control Systems and Signal Processing. New York: IEEE Press, 2020: 163-168.

[17] 羅威. 基于深度卷積網(wǎng)絡(luò)和局部紋理描息融合的指節(jié)紋識(shí)別方法研究[D]. 合肥: 合肥工業(yè)大學(xué), 2020.

LUO W. Research on finger-knuckle-print recognition based on fusion of basis and depth convolution network and local texture mapping[D]. Hefei: Hefei University of Technology, 2020 (in Chinese).

[18] NANNI L, LUMINI A. On selecting Gabor features for biometric authentication[J]. International Journal of Computer Applications in Technology, 2009, 35(1): 23.

[19] WEI X, WANG H, GUO G D, et al. Multiplex image representation for enhanced recognition[J]. International Journal of Machine Learning and Cybernetics, 2018, 9(3): 383-392.

Finger-knuckle-print recognition based on multi-dimensional matching distances fusion

HUANG Jie1, WEI Xin2, YANG Zi-yuan1, MIN Wei-dong2,3

(1. School of Information Engineering, Nanchang University, Nanchang Jiangxi 330031, China; 2. School of Software, Nanchang University, Nanchang Jiangxi 330047, China; 3. Jiangxi Key Laboratory of Smart City, Nanchang Jiangxi 330047, China)

As a novel biometric modality, finger-knuckle-print (FKP) recognition has gained much attention for its security and stability. Coding-based methods are considered as one of the most effective methods in this field. Such methods can distinguish samples according to one single matching distance between two images computed from the extracted features in the template matching stage. However, some fuzzy samples cannot be effectively distinguished by one single matching distance, leading to false acceptance and false rejection. To address this problem, a light-weight and effective method based on multi-dimensional matching distances fusion was proposed in this paper. The proposed method utilized the difference and complementarity between different matching distances of multiple coding-based methods, and applied support vector machine (SVM) to the classification of the multi-dimensional feature vectors constructed by the multiple matching distances. What’s more, the proposed method is a general method, which can be easily embedded into the existing coding-based methods. Extensive experiments were conducted for the range from two-dimensional matching distances to four-dimensional matching distances on the public FKP database, PolyU-FKP. The results have shown that the proposed method can generally improve their performances, with a maximum reduction of 22.19% in EER.

finger-knuckle-print recognition; multi-dimensional matching distances; difference complementarity; support vector machine; general method

TP 391

10.11996/JG.j.2095-302X.2022020279

A

2095-302X(2022)02-0279-09

2021-06-24;

2021-09-15

國(guó)家自然科學(xué)基金項(xiàng)目(62076117,61762061);江西省自然科學(xué)基金重大項(xiàng)目(20161ACB20004);江西省智慧城市重點(diǎn)實(shí)驗(yàn)室項(xiàng)目(20192BCD40002)

黃 杰(1997–),男,碩士研究生。主要研究方向?yàn)樯锾卣髯R(shí)別和計(jì)算機(jī)視覺(jué)。E-mail:jiehuang@email.ncu.edu.cn

閔衛(wèi)東(1966–),男,教授,博士。主要研究方向?yàn)閳D形圖像處理和計(jì)算機(jī)視覺(jué)等。E-mail:minweidong@ncu.edu.cn

24 June,2021;

15 September,2021

National Natural Science Foundation of China (62076117, 61762061); The Natural Science Foundation of Jiangxi Province, China (20161ACB20004); Jiangxi Key Laboratory of Smart City (20192BCD40002)

HUANG Jie (1997–), master student. His main research interests cover biometric identification and computer vision. E-mail:jiehuang@email.ncu.edu.cn

MIN Wei-dong (1966–), professor, Ph.D. His main research interests cover graphic image processing, computer vision, etc. E-mail:minweidong@ncu.edu.cn

猜你喜歡
指節(jié)特征提取編碼
基于特征模板的外指節(jié)紋特征提取方法
基于SAR-SIFT和快速稀疏編碼的合成孔徑雷達(dá)圖像配準(zhǔn)
《全元詩(shī)》未編碼疑難字考辨十五則
子帶編碼在圖像壓縮編碼中的應(yīng)用
電子制作(2019年22期)2020-01-14 03:16:24
Genome and healthcare
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
便攜式手外骨骼康復(fù)裝置結(jié)構(gòu)研究
Bagging RCSP腦電特征提取算法
多按小拇指防早生白發(fā)
創(chuàng)造(2016年5期)2016-02-01 00:44:09
基于MED和循環(huán)域解調(diào)的多故障特征提取
旬阳县| 永安市| 招远市| 马鞍山市| 古田县| 黔南| 常州市| 师宗县| 密云县| 文登市| 那坡县| 东乡| 准格尔旗| 桂平市| 蕉岭县| 丰都县| 区。| 镇雄县| 洛南县| 罗江县| 瑞昌市| 天台县| 罗源县| 安塞县| 郁南县| 霍州市| 广东省| 广灵县| 会理县| 湖北省| 东阳市| 平塘县| 侯马市| 福建省| 南川市| 昌江| 张家口市| 长葛市| 栖霞市| 松原市| 巢湖市|