国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于全局深度分離卷積殘差網(wǎng)絡(luò)的高效人臉識(shí)別算法

2019-07-23 01:24:14陳希彤
關(guān)鍵詞:識(shí)別率人臉識(shí)別人臉

陳希彤,盧 濤

武漢工程大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,湖北 武漢 430205

人臉識(shí)別作為生物特征識(shí)別技術(shù),一直是計(jì)算機(jī)視覺(jué)領(lǐng)域和機(jī)器學(xué)習(xí)的研究熱點(diǎn)之一。它在政府機(jī)構(gòu)、軍隊(duì)、銀行、社會(huì)福利保障、電子商務(wù)、安全防務(wù)等領(lǐng)域有廣泛應(yīng)用前景。近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)[1](convolutional neural network,CNN)為人臉識(shí)別提供新的解決方案,但人臉識(shí)別應(yīng)用仍有許多問(wèn)題亟待解決。如在實(shí)際監(jiān)控場(chǎng)景下目標(biāo)人臉距監(jiān)控設(shè)備較遠(yuǎn)及受光照、表情與多姿勢(shì)變化等因素影響下[2],要獲得滿意的識(shí)別效果,要求識(shí)別模型具備強(qiáng)大特征表達(dá)能力。高精度識(shí)別模型通常利用含多參數(shù)網(wǎng)絡(luò)來(lái)最大限度地學(xué)習(xí)更多特征,網(wǎng)絡(luò)訓(xùn)練時(shí)間因參數(shù)增加呈指數(shù)上升,在有限計(jì)算資源條件下難以進(jìn)行實(shí)時(shí)的人臉識(shí)別。而小型網(wǎng)絡(luò)實(shí)時(shí)性強(qiáng),但算法性能有限。因此利用高性能的輕量級(jí)深度學(xué)習(xí)識(shí)別網(wǎng)絡(luò)來(lái)發(fā)展與實(shí)際應(yīng)用更為緊密的人臉識(shí)別系統(tǒng)[3]顯得尤為重要。

現(xiàn)有的人臉識(shí)別算法可大致分為以下幾類:第一類方法是基于幾何特征的方法[4-5],該方法主要根據(jù)人臉器官形狀和幾何關(guān)系描述出每個(gè)人臉圖像特征,對(duì)特征矢量進(jìn)行比較,得出最佳匹配人臉。但基于幾何特征的識(shí)別方法難以提取待測(cè)人臉圖像的穩(wěn)定特征,易忽略較多人臉紋理信息,特別當(dāng)圖像分辨率較低、識(shí)別目標(biāo)姿態(tài)表情變化過(guò)大時(shí),識(shí)別率會(huì)受到較大影響。第二類方法是基于相關(guān)匹配的方法[6-7],其主要思想是將訓(xùn)練集與測(cè)試集人臉圖像樣本逐一歸一化后進(jìn)行互相關(guān)運(yùn)算進(jìn)行匹配,從而達(dá)到人臉識(shí)別的目的。該方法雖然充分考慮了人臉圖像的局部紋理細(xì)節(jié)信息,但僅對(duì)約束場(chǎng)景下的正面人臉有好的識(shí)別效果,且計(jì)算量較大,識(shí)別速度慢。第三類方法是基于深度學(xué)習(xí)的人臉識(shí)別算法,其憑借強(qiáng)大的非線性擬合能力,有效地模擬出大腦由淺入深認(rèn)知事物的過(guò)程,受到了人工智能領(lǐng)域的高度重視,也日益成為目前主流的人臉識(shí)別方法。

2006年,Hinton等[8]在《Science》上首次提出了深度學(xué)習(xí)的概念。深度學(xué)習(xí)本質(zhì)上也是一種特征學(xué)習(xí)方法,相對(duì)于傳統(tǒng)方法需要有相關(guān)專業(yè)背景的專家設(shè)計(jì)特征表示方式,深度學(xué)習(xí)則是使用一種通用學(xué)習(xí)過(guò)程從數(shù)據(jù)中獲取各層特征,其過(guò)程可以看做把原始數(shù)據(jù)通過(guò)一些簡(jiǎn)單的非線性的模型轉(zhuǎn)變成為更高層次的、更富語(yǔ)義信息的特征表達(dá),經(jīng)過(guò)足夠多組合變換來(lái)擬合的復(fù)雜函數(shù)。例如VGGNet[9]為牛津大學(xué)計(jì)算機(jī)視覺(jué)組和Deep-Mind公司共同研發(fā)一種深度卷積網(wǎng)絡(luò),探索了卷積神經(jīng)網(wǎng)絡(luò)的深度和其性能之間的關(guān)系,通過(guò)反復(fù)的堆疊的3×3小型卷積核和2×2的最大池化層,成功的構(gòu)建了16~19層網(wǎng)絡(luò)結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò),VGGFace利用VGGNet的16層網(wǎng)絡(luò)結(jié)構(gòu),將網(wǎng)絡(luò)最后一層輸出作為特征,利用Triplet-Loss損失函數(shù)訓(xùn)練進(jìn)行人臉識(shí)別,該方法在較少的數(shù)據(jù)集訓(xùn)練的基礎(chǔ)上達(dá)到了前人海量數(shù)據(jù)才能達(dá)到的識(shí)別效果。何凱明等[10]利用殘差學(xué)習(xí)的思想解決了VGGNet等傳統(tǒng)網(wǎng)絡(luò)在更深層網(wǎng)絡(luò)中因梯度消失無(wú)法訓(xùn)練、信息丟失、損耗等問(wèn)題,利用跳躍連接(skip connection)簡(jiǎn)化訓(xùn)練難度。Gao等[11]借鑒殘差學(xué)習(xí)方法,在保證網(wǎng)絡(luò)中層與層之間最大程度的信息傳輸?shù)那疤嵯?,將所有卷積層輸出密集連接起來(lái),大大加強(qiáng)了特征之間的傳遞,在提高識(shí)別率的同時(shí)高效利用特征信息。為提升在移動(dòng)設(shè)備上的識(shí)別精度,Chen等[12]提出一個(gè)模型大小僅為4 MB的小型識(shí)別網(wǎng)絡(luò),使用逆殘差結(jié)構(gòu)(inverted residual block)結(jié)合ArcFace Loss加速實(shí)時(shí)人臉驗(yàn)證,克服了人臉驗(yàn)證上常見(jiàn)輕量級(jí)神經(jīng)網(wǎng)絡(luò)性能不足的缺點(diǎn)。

人臉識(shí)別系統(tǒng)不僅需要兼顧系統(tǒng)判別精度與實(shí)時(shí)性,還需要對(duì)不同輸入數(shù)據(jù)具有較好魯棒性。上述基于深度學(xué)習(xí)的識(shí)別研究重點(diǎn)大多在通過(guò)增加網(wǎng)絡(luò)深度或?qū)挾葥Q取網(wǎng)絡(luò)更強(qiáng)大性能,因此使用少量參數(shù)的小型識(shí)別網(wǎng)絡(luò),提出不受限于機(jī)器資源和實(shí)時(shí)性等需求的高效人臉識(shí)別算法意義巨大。對(duì)此需要構(gòu)建一個(gè)針對(duì)不同場(chǎng)景的快速通用識(shí)別網(wǎng)絡(luò),可以有效處理復(fù)雜場(chǎng)景下的人臉識(shí)別任務(wù),準(zhǔn)確提取目標(biāo)所屬類別的特征信息,并在加速訓(xùn)練過(guò)程的同時(shí)使網(wǎng)絡(luò)更快收斂,提高識(shí)別性能。綜合考慮上述問(wèn)題,本文提出了一個(gè)基于全局深度分離卷積殘差網(wǎng)絡(luò)的高效人臉識(shí)別算法。

1 全局深度分離卷積殘差網(wǎng)絡(luò)

受到 GoogleNet[13]中 InceptionV3 模塊啟發(fā),為解決深層網(wǎng)絡(luò)提取抽象性特征導(dǎo)致空間集中性降低這一問(wèn)題,提出基于全局分離卷積(global separable convolution,GSC)與深度殘差學(xué)習(xí)模塊(Residual Block)相結(jié)合的高效識(shí)別網(wǎng)絡(luò)。將人臉圖像以隨機(jī)輸入方式放入深度殘差學(xué)習(xí)的網(wǎng)絡(luò)中,利用跳躍連接將學(xué)習(xí)到的淺層特征與深層特征融合,實(shí)現(xiàn)不同層次信息之間的交互,并結(jié)合全局深度分離卷積從多個(gè)獨(dú)立通道空間(spatial separation)中豐富多元特征的數(shù)量,提高特征的判別能力。本文定義訓(xùn)練樣本為其中輸入測(cè)試人臉圖像為xi∈?m×n,N為圖片總個(gè)數(shù),提出的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

網(wǎng)絡(luò)結(jié)構(gòu)共分為4個(gè)部分:第一部分為初始特征提取,用小尺度網(wǎng)絡(luò)(3×3卷積核,側(cè)重局部細(xì)節(jié)信息)取代傳統(tǒng)大尺度網(wǎng)絡(luò)(7×7的卷積核,注重全局細(xì)節(jié)信息)提取特征,初步減少模型參數(shù)量;第二部分構(gòu)建淺層殘差結(jié)構(gòu)進(jìn)一步學(xué)習(xí)特征,簡(jiǎn)化模型優(yōu)化難度;第三部分使用全局深度可分離卷積利用具有相互獨(dú)立空間的512組濾波器逐通道提取深層特征中每個(gè)節(jié)點(diǎn)的有效信息,取代多通道特征融合過(guò)程,進(jìn)一步減少網(wǎng)絡(luò)計(jì)算時(shí)間;第四部分為識(shí)別部分,利用全連接層級(jí)聯(lián)Softmax分類器,輸出模型所預(yù)測(cè)類別Ci,最后計(jì)算損失反向傳播微調(diào)學(xué)習(xí)權(quán)重,優(yōu)化整體模型。

圖1 全局深度分離卷積殘差網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Structure of global deep separation convolutional and residual network

1.1 深度殘差學(xué)習(xí)

深度學(xué)習(xí)網(wǎng)絡(luò)深度的增加對(duì)網(wǎng)絡(luò)的分類效果有著重要影響,研究人員發(fā)現(xiàn)理論上增加大量的權(quán)重參數(shù)會(huì)在一定程度上促進(jìn)網(wǎng)絡(luò)的識(shí)別性能,但當(dāng)常規(guī)的卷積神經(jīng)網(wǎng)絡(luò)堆疊到一定層數(shù)時(shí),往往會(huì)出現(xiàn)網(wǎng)絡(luò)梯度消失現(xiàn)象[14],即網(wǎng)絡(luò)識(shí)別率不再上升,甚至越來(lái)越差,這是因?yàn)橛?xùn)練深層網(wǎng)絡(luò)會(huì)產(chǎn)生梯度彌散/爆炸這一障礙。利用殘差學(xué)習(xí)的思想定義神經(jīng)網(wǎng)絡(luò)期望學(xué)習(xí)的目標(biāo)為Y,設(shè)X為原始圖像輸入經(jīng)過(guò)卷積(convolution,Conv)、批量歸一化(batch normalization,BN)、非線性激活(Re-LU)、最大池化(Max pooling)操作后所得到的特征,F(xiàn)(X,Wi)為X經(jīng)過(guò)兩次3×3卷積所提取到的特征,Wi為所學(xué)習(xí)權(quán)重參數(shù),將網(wǎng)絡(luò)需要學(xué)習(xí)的目標(biāo)簡(jiǎn)化為F(X,Wi)=Y-X。使用殘差學(xué)習(xí)模塊,有效緩解鏈?zhǔn)角髮?dǎo)梯度值較小問(wèn)題,優(yōu)化訓(xùn)練過(guò)程。

1.2 全局分離卷積

對(duì)于人臉的驗(yàn)證和識(shí)別,Wu等[15]已經(jīng)通過(guò)實(shí)驗(yàn)觀察到,具有全局平均池化層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)比使用全連接層代替全局平均池化層的卷積神經(jīng)網(wǎng)絡(luò)識(shí)別效果更不準(zhǔn)確,因?yàn)槿制骄鼗瘜記](méi)有考慮深層特征映射中每個(gè)節(jié)點(diǎn)的空間信息,籠統(tǒng)的將深層全局信息平滑后加以使用,破壞了所學(xué)特征的語(yǔ)義與空間信息。雖然輸入人臉圖片中心點(diǎn)的池化區(qū)域與邊角池化區(qū)域大小一樣,但是中心點(diǎn)區(qū)域包含了面部重要五官特征,邊角區(qū)域只包含部分重要特征。因此每個(gè)像素區(qū)域?qū)W習(xí)的權(quán)重應(yīng)該不同,但是平均池化層籠統(tǒng)的不同區(qū)域的權(quán)重設(shè)置為一樣,導(dǎo)致網(wǎng)絡(luò)識(shí)別效果下降。而可分離卷積與普通卷積操作不同之處在于每個(gè)通道使用不同濾波器單獨(dú)進(jìn)行卷積操作后,再利用1×1的卷積核進(jìn)行信息的融合,可分離卷積方法會(huì)優(yōu)先考慮特征區(qū)域的屬性,實(shí)現(xiàn)多通道特征堆疊與區(qū)域的分離。因此本文提出利用全局分離卷積取代一般深度學(xué)習(xí)識(shí)別網(wǎng)絡(luò)中的平均池化層,來(lái)提取深層特征中每個(gè)節(jié)點(diǎn)的有效信息,舍棄了多通道特征融合所帶來(lái)的冗余特征,減少模型整體的時(shí)間復(fù)雜度。針對(duì)實(shí)際場(chǎng)景的人臉識(shí)別,引入全局可分離卷積不僅可以減少網(wǎng)絡(luò)參數(shù),并且可以更好的實(shí)現(xiàn)深層網(wǎng)絡(luò)整體區(qū)域特征的精煉。

1.3 損失函數(shù)

使用交叉熵?fù)p失函數(shù)(cross entropy loss)[16]作為網(wǎng)絡(luò)的損失函數(shù),公式如下:

其中pi為真實(shí)類別標(biāo)簽概率分布,pk=1,為網(wǎng)絡(luò)所預(yù)測(cè)標(biāo)簽概率分布,設(shè)全連接層網(wǎng)絡(luò)輸出為θi,則有:

式(1)可改寫(xiě)為:

網(wǎng)絡(luò)優(yōu)化過(guò)程中使用自適應(yīng)矩估計(jì)(adaptive moment estimation,Adam)優(yōu)化算法來(lái)進(jìn)行反向傳播。自適應(yīng)矩估計(jì)算法利用梯度的一階矩估計(jì)和二階矩估計(jì)動(dòng)態(tài)調(diào)整每個(gè)參數(shù)的學(xué)習(xí)率。它的優(yōu)點(diǎn)主要在于經(jīng)過(guò)偏置校正后,每一次迭代學(xué)習(xí)率都有個(gè)確定范圍,使得參數(shù)較為平穩(wěn)。此外增加了隨機(jī)梯度下降(stochastic gradient descent,SGD)優(yōu)化方式來(lái)進(jìn)行實(shí)驗(yàn)對(duì)比,網(wǎng)絡(luò)損失對(duì)比如圖2所示,由于不同網(wǎng)絡(luò)層數(shù)訓(xùn)練時(shí)間大小有差異,因此分別配置相同網(wǎng)絡(luò)層數(shù)的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行損失比較從圖2中可以看出當(dāng)訓(xùn)練周期較小時(shí),雖然整體收斂趨勢(shì)相同,但使用Adam優(yōu)化方法優(yōu)先達(dá)到較小損失值,訓(xùn)練完畢后的損失值遠(yuǎn)小于SGD優(yōu)化方法,證明了使用自適應(yīng)矩估計(jì)優(yōu)化算法結(jié)合交叉熵?fù)p失函數(shù)的合理性。

圖2 不同優(yōu)化方式的訓(xùn)練損失Fig.2 Training loss of different optimizing methods

綜上所述,基于全局深度分離卷積殘差網(wǎng)絡(luò)的人臉識(shí)別算法總結(jié)如下:

輸出:人臉圖像的類別屬性Ci。訓(xùn)練部分:

2)根據(jù)公式(3)計(jì)算損失值,反向傳播微調(diào)學(xué)習(xí)權(quán)重,迭代直至訓(xùn)練完畢,得到網(wǎng)絡(luò)權(quán)重模型。

2)根據(jù)訓(xùn)練所獲得的權(quán)重模型提取人臉圖像的表達(dá)特征;

3)根據(jù)公式(2)輸出預(yù)測(cè)的類別標(biāo)簽Ci,計(jì)算整體識(shí)別率。

2 結(jié)果與討論

2.1 實(shí)驗(yàn)數(shù)據(jù)與參數(shù)

選取CASIA-Webface與Extend Yale-B人臉圖像數(shù)據(jù)庫(kù)為實(shí)驗(yàn)樣本,使用識(shí)別率(Recognition Rate)評(píng)估不同網(wǎng)絡(luò)的識(shí)別性能。CASIA-Webface原始數(shù)據(jù)庫(kù)包含10 575類人,共有圖片494 414張。本實(shí)驗(yàn)選取其中68人做為實(shí)驗(yàn)對(duì)象,其中每人包含多種姿態(tài)圖片共240張(見(jiàn)圖3)。原始圖片大小為128×128像素,全部圖片分為2個(gè)部分,第一部分選取13 600張用于深度學(xué)習(xí)訓(xùn)練,剩余2 720張用于分類測(cè)試。Extend Yale-B人臉數(shù)據(jù)庫(kù)包括38人共16 128張,每幅大小為192×168像素的灰度圖,有9種不同姿態(tài)和64種不同光照變化情況。在實(shí)驗(yàn)中,選擇每人60張?jiān)诓煌庹兆兓抡嫒四槇D像共2 280張人臉,隨機(jī)選取每類人35張共1 330張為訓(xùn)練樣本,剩余950張為測(cè)試樣本。

本算法網(wǎng)絡(luò)為串聯(lián)網(wǎng)絡(luò)結(jié)構(gòu),每個(gè)子網(wǎng)絡(luò)都需要進(jìn)行150次整體樣本迭代訓(xùn)練。本算法設(shè)置學(xué)習(xí)率逐步衰減,初始化學(xué)習(xí)率為0.001,每經(jīng)過(guò)20次整體迭代學(xué)習(xí)率減小為原來(lái)的1/3,權(quán)重衰減為0.000 1。為了避免網(wǎng)絡(luò)的過(guò)擬合,采用了殘差學(xué)習(xí)方法。在深度殘差學(xué)習(xí)網(wǎng)絡(luò)中,本文設(shè)置第一層子網(wǎng)絡(luò)步長(zhǎng)為1,填充為1,后三層子網(wǎng)絡(luò)步長(zhǎng)為2,填充為1,為避免所學(xué)殘差特征無(wú)法與后三層子網(wǎng)絡(luò)訓(xùn)練所得特征無(wú)法融合,融合之前將殘差特征進(jìn)行一次卷積核大小為3,步長(zhǎng)為2的卷積進(jìn)行特征圖下采樣操作。本實(shí)驗(yàn)先將圖像輸入卷積層,進(jìn)行最大池化操作提取初始特征,然后級(jí)聯(lián)基于深度殘差學(xué)習(xí)的全局分離卷積網(wǎng)絡(luò),使用全連接層進(jìn)行分類得出最終識(shí)別結(jié)果。

2.2 結(jié)果與分析

為了證明人臉數(shù)據(jù)集在本算法的網(wǎng)絡(luò)框架下能夠提取到有效魯棒性特征提高識(shí)別能力,本實(shí)驗(yàn)將圖片在不同的識(shí)別框架下進(jìn)行分類比較。對(duì)比實(shí)驗(yàn)采用深度學(xué)習(xí)近年來(lái)著名的神經(jīng)網(wǎng)絡(luò)識(shí)別算法:深度卷積神經(jīng)識(shí)別網(wǎng)絡(luò)(VGGFace),深度殘差學(xué)習(xí)神經(jīng)識(shí)別網(wǎng)絡(luò)(ResNet34),密集連接卷積神經(jīng)識(shí)別網(wǎng)絡(luò)(DenseNet121),移動(dòng)端上的快速卷積神經(jīng)識(shí)別網(wǎng)絡(luò)(MobileFaceNet)。本文中使用的對(duì)比算法VGGFace[9]的源代碼由論文作者Karen Simonyan 提供,ResNet34[10]的源代碼由論文作者Kaiming He提供,DenseNet121[11]的源代碼由論文作者 Gao Huang提供,MobileFaceNet[12]的源代碼由論文作者Sheng Chen提供。圖4分別給出了多姿態(tài)人臉數(shù)據(jù)集(CASIA-Webface)與受光照變化影響的人臉數(shù)據(jù)集(Extend Yale-B)在不同識(shí)別網(wǎng)絡(luò)框架下隨著訓(xùn)練周期變化的識(shí)別率。

圖3 人臉數(shù)據(jù)庫(kù)樣本:(a)CASIA-Webface,(b)Extended Yale-BFig.3 Visual samples from face databases:(a)CASIA-webface,(b)Extended Yale-B

圖4 不同訓(xùn)練周期的識(shí)別率:(a)CASIA-webface,(b)Extended Yale-BFig.4 Recognition rates of different periods training:(a)CASIA-webface,(b)Extended Yale-B

2.2.1 識(shí)別率對(duì)比 每組實(shí)驗(yàn)均選取網(wǎng)絡(luò)最后一次迭代結(jié)果作為最終識(shí)別率。從圖4可以看出,其他算法識(shí)別率隨周期變化波動(dòng)較大,本算法在兩種人臉圖像數(shù)據(jù)集中均獲得了最好識(shí)別效果。當(dāng)訓(xùn)練迭代次數(shù)較低時(shí),本算法識(shí)別率就高于其他算法,在經(jīng)過(guò)40個(gè)訓(xùn)練周期后識(shí)別率趨于平穩(wěn),隨著訓(xùn)練周期的增加依舊保持了良好的識(shí)別效果。在CASIA-Webface數(shù)據(jù)庫(kù)中與性能排名第二的算法ResNet34相比,識(shí)別率提升了2.9%,證明了算法在多姿態(tài)數(shù)據(jù)集中也具有較好性能。在Extend Yale-B數(shù)據(jù)庫(kù)中,VGGFace與DenseNet121算法識(shí)別率波動(dòng)較大,本算法穩(wěn)定的識(shí)別率體現(xiàn)了對(duì)光照變化的魯棒性。

2.2.2 特征分布分析 為了進(jìn)一步研究全局可分離卷積對(duì)網(wǎng)絡(luò)性能的影響,我們將經(jīng)過(guò)全局可分離卷積與平均池化操作后提取的特征向量降至二維進(jìn)行可視化分析。首先從Extend Yale-B數(shù)據(jù)庫(kù)隨機(jī)選取7人,每人包含25張圖像,組成待測(cè)數(shù)據(jù)集,將兩種方法提取到的1 024維特征向量利用T-分布鄰域嵌入(T-distributed stochastic neighbor embedding,T-SNE)方法將人臉特征映射至二維空間,可視化對(duì)比結(jié)果如圖5所示,不同顏色代表不同類別。在使用全局可分離卷積時(shí),同類圖像緊促映射到一起,且類間距離較大,當(dāng)使用平均池化時(shí),同類樣本間的聚類效果變差,不同類別樣本已不具有明顯區(qū)分性。

以上現(xiàn)象可從類內(nèi)方差與類間方差的統(tǒng)計(jì)角度進(jìn)行量化解釋,借助LDA線性判別分析進(jìn)行類內(nèi)與類間散度矩陣近似計(jì)算。

類內(nèi)散度矩陣定義如下:

圖5 可視化特征對(duì)比結(jié)果:(a)全局分離卷積,(b)平均池化(橫縱坐標(biāo)表示類間的相對(duì)距離)Fig.5 Comparison results of visualized features:(a)global separable convolution,(b)average pool(abscissa and ordinate represent relative distance between inter-class)

表1給出了不同卷積操作下特征向量的類內(nèi)與類間方差結(jié)果。

表1 類內(nèi)方差與類間方差統(tǒng)計(jì)結(jié)果Tab.1 The intra-class and inter-class variance results

對(duì)于人臉識(shí)別問(wèn)題,總期望類內(nèi)方差小,類間方差大來(lái)獲取更佳識(shí)別結(jié)果。根據(jù)表1計(jì)算結(jié)果可知,全局可分離卷積操作后類間方差與類內(nèi)方差比值更大,說(shuō)明學(xué)習(xí)到的特征更具區(qū)分性,判別能力更強(qiáng)。相比平均池化方法,類內(nèi)方差大于類間方差,類間距離較近,難以正確區(qū)分各個(gè)類別。根據(jù)以上結(jié)果分析可得,基于全局可分離卷積的網(wǎng)絡(luò)通過(guò)獨(dú)立空間提取的特征能更有效地區(qū)分不同人臉圖像所含內(nèi)容。

2.2.3 算法效率對(duì)比分析 不同識(shí)別算法測(cè)試時(shí)間如表2所示,對(duì)比分析如下:DenseNet使用了密集連接的方法減少網(wǎng)絡(luò)每層計(jì)算量以及實(shí)現(xiàn)特征的高度復(fù)用。而本文算法采用深度全局可分離卷積結(jié)合殘差學(xué)習(xí)模塊,減少了復(fù)用特征的冗余程度,同時(shí)加速訓(xùn)練初步特征提取流程。由于當(dāng)前的深度學(xué)習(xí)框架對(duì)密集連接沒(méi)有良好的優(yōu)化方法,只能借助特征圖之間的反復(fù)拼接操作,將之前提取到的特征圖拼接后一并傳入下層網(wǎng)絡(luò),因此在訓(xùn)練的時(shí)候密集連接會(huì)占用大量?jī)?nèi)存導(dǎo)致網(wǎng)絡(luò)性能的大幅度波動(dòng)(見(jiàn)圖4),相比之下本算法在第45個(gè)訓(xùn)練周期的時(shí)候就達(dá)到收斂狀態(tài),loss值穩(wěn)定在0.000 1左右,識(shí)別率趨于平穩(wěn)。

VGGFace為深度網(wǎng)絡(luò)識(shí)別算法,采用加深卷積神經(jīng)網(wǎng)絡(luò)層數(shù)、增加模型參數(shù)量的方法來(lái)提升識(shí)別性能。該方法利用多尺度特征信息融合的方式雖然能夠提升標(biāo)簽預(yù)測(cè)的精度,但是在網(wǎng)絡(luò)層數(shù)更深時(shí),會(huì)出退化問(wèn)題,容易導(dǎo)致訓(xùn)練集準(zhǔn)確率達(dá)到飽和,甚至下降。VGGFace全連接層特征維度為4 096,令計(jì)算時(shí)間開(kāi)銷遠(yuǎn)大于其他對(duì)比算法,此外該模型對(duì)光照變化大的圖片并不魯棒。本文算法通過(guò)構(gòu)建殘差學(xué)習(xí)網(wǎng)絡(luò),提取具有不同深度語(yǔ)義信息的特征進(jìn)行融合,不僅減小了網(wǎng)絡(luò)增加深度帶來(lái)的副作用,并結(jié)合全局可分離卷積減小了模型整體參數(shù)量,提升網(wǎng)絡(luò)整體性能。

表2 不同識(shí)別算法下平均每張圖片的測(cè)試時(shí)間Tab.2 Testing time(milliseconds per image)of different recognition algorithms ms

ResNet利用跳躍連接重復(fù)利用殘差信息使得網(wǎng)絡(luò)能具有更深層結(jié)構(gòu),得到更好的識(shí)別效果,但隨著網(wǎng)絡(luò)結(jié)構(gòu)的加深,隨之帶來(lái)的是網(wǎng)絡(luò)中參數(shù)的增多,計(jì)算量的增大,測(cè)試時(shí)間將會(huì)變得更久,而在現(xiàn)實(shí)應(yīng)用場(chǎng)景中,人臉識(shí)別任務(wù)更希望被更快速、更高效的方法來(lái)完成。本算法經(jīng)過(guò)大量實(shí)驗(yàn)結(jié)果驗(yàn)證得到結(jié)合全局可分離卷積的最佳殘差學(xué)習(xí)模塊層數(shù),使用較少卷積網(wǎng)絡(luò)層數(shù),利用更少的參數(shù)量減少運(yùn)算時(shí)間,達(dá)到超過(guò)ResNet34網(wǎng)絡(luò)的識(shí)別性能。

MobileFaceNet為在移動(dòng)設(shè)備上設(shè)計(jì)的輕量級(jí)識(shí)別網(wǎng)絡(luò),在LFW數(shù)據(jù)集上的人臉驗(yàn)證準(zhǔn)確率達(dá)到99.28%,使用了逆殘差模塊,該模塊首先將輸入的低維壓縮表示的特征擴(kuò)展到高維,使用輕量級(jí)深度卷積作為濾波器,隨后用線性卷積將特征投影回低維壓縮表示。由于該網(wǎng)絡(luò)使用1×1卷積核進(jìn)行特征升維,逐元素計(jì)算促使運(yùn)行時(shí)間逐步增加,且全連接層后又使用BN層進(jìn)行特征歸一化,即使參數(shù)量減少到99萬(wàn)個(gè),但還是增加了模型的總測(cè)試時(shí)間。

綜上所述,本文算法相比其他算法能提取出更具判別能力的特征信息來(lái)區(qū)分不同類別的人臉圖像,識(shí)別效果更好,具有更短的測(cè)試時(shí)間。例如,對(duì)于傳統(tǒng)的深度網(wǎng)絡(luò),本文的算法網(wǎng)絡(luò)結(jié)構(gòu)精簡(jiǎn),時(shí)間復(fù)雜度低;相較于密集連接復(fù)用特征信息的網(wǎng)絡(luò),本文的算法在特征復(fù)用方面進(jìn)行了優(yōu)化,避免了特征冗余導(dǎo)致的性能波動(dòng)。本文實(shí)驗(yàn)結(jié)果證明,使用基于全局深度分離卷積的殘差網(wǎng)絡(luò)有助于進(jìn)行人臉圖像的高效識(shí)別。

3 結(jié) 語(yǔ)

考慮到實(shí)際場(chǎng)景中深度學(xué)習(xí)方法識(shí)別人臉圖像的局限性,使用全局分離卷積來(lái)提高深度殘差網(wǎng)絡(luò)對(duì)人臉圖像全局特征信息的保真能力,提高了識(shí)別效率,并通過(guò)結(jié)合殘差學(xué)習(xí)模塊得到精準(zhǔn)的特征信息,達(dá)到了更好的識(shí)別效果。在CASIA-Webface與Extend Yale-B人臉數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:提出的基于全局深度分離卷積殘差學(xué)習(xí)網(wǎng)絡(luò)相較于前沿的識(shí)別網(wǎng)絡(luò)能更高效地進(jìn)行人臉圖像的識(shí)別。

猜你喜歡
識(shí)別率人臉識(shí)別人臉
人臉識(shí)別 等
有特點(diǎn)的人臉
揭開(kāi)人臉識(shí)別的神秘面紗
基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
三國(guó)漫——人臉解鎖
提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
基于類獨(dú)立核稀疏表示的魯棒人臉識(shí)別
馬面部與人臉相似度驚人
中卫市| 博爱县| 郁南县| 澄迈县| 肥东县| 奉贤区| 天祝| 镇雄县| 高淳县| 济宁市| 永寿县| 望都县| 获嘉县| 宜宾市| 大荔县| 墨玉县| 泸西县| 习水县| 开远市| 临沧市| 色达县| 定陶县| 绥芬河市| 怀来县| 黄陵县| 渭南市| 深圳市| 新民市| 长寿区| 务川| 海宁市| 柞水县| 太和县| 姚安县| 土默特左旗| 海原县| 时尚| 徐州市| 梅河口市| 灯塔市| 石林|