摘 要:針對傳統(tǒng)人臉識別存在識別速度慢、準(zhǔn)確度低等問題,本文設(shè)計(jì)了一種基于SSD深度學(xué)習(xí)算法的自動化人臉識別系統(tǒng)。首先,該系統(tǒng)采用基于深度學(xué)習(xí)算法的人臉識別方法檢測人臉圖像,并對關(guān)鍵點(diǎn)進(jìn)行預(yù)測。其次,利用SSD模型提取特征信息后構(gòu)建本地特征庫,完成人臉識別。最后,比較待檢測人臉圖像向量與本地特征向量間的歐氏距離,判斷結(jié)果并輸出。試驗(yàn)表明,SSD模型在檢測與識別上具有較好表現(xiàn),系統(tǒng)的識別速度超過25f/s,當(dāng)特征向量間的歐氏距離設(shè)定為0.5時(shí),識別準(zhǔn)確率高達(dá)99.3%。本文設(shè)計(jì)系統(tǒng)能夠提高人臉識別的魯棒性,具有較高的實(shí)時(shí)性與識別精度。
關(guān)鍵詞:SSD模型;深度學(xué)習(xí);人臉識別;特征向量
中圖分類號:TP 39" " " 文獻(xiàn)標(biāo)志碼:A
人臉識別是利用攝像機(jī)收集人臉圖像,進(jìn)而驗(yàn)證身份信息的技術(shù)。與生物識別相比,人臉識別能夠通過視頻設(shè)備更直觀地識別人員信息,具有高效、易推廣等優(yōu)勢[1]。目前的人臉識別研究主要集中在面部特征檢測,例如王傳傳等將人臉圖像進(jìn)行歸一化處理,通過訓(xùn)練模型取得了良好的識別效果[2];劉敏將人臉圖片作為輸入信息計(jì)算3次樣條權(quán)函數(shù),經(jīng)試驗(yàn)證明系統(tǒng)的識別率較高[3]。綜上所述,這些方法易受內(nèi)、外因素干擾,算法魯棒性較低。傳統(tǒng)識別算法在發(fā)展中已逐步被深度學(xué)習(xí)算法代替,深度學(xué)習(xí)算法能夠利用數(shù)據(jù)集進(jìn)行特征訓(xùn)練,使模型具有較強(qiáng)的魯棒性[4]。本文在利用注意力機(jī)制改進(jìn)歐氏距離函數(shù)的基礎(chǔ)上,設(shè)計(jì)了一種基于SSD深度學(xué)習(xí)算法的自動化人臉識別系統(tǒng),首先,利用深度學(xué)習(xí)算法檢測人臉圖像,并對關(guān)鍵點(diǎn)進(jìn)行預(yù)測。其次,利用SSD模型提取特征信息后構(gòu)建本地特征庫,完成人臉識別。最后,比較待檢測人臉圖像向量與本地特征向量間的歐氏距離,判斷結(jié)果并輸出。試驗(yàn)結(jié)果可知,該系統(tǒng)在滿足識別效率的同時(shí)也具有較高的識別精度,適應(yīng)性更廣泛。
1 基礎(chǔ)工作
1.1 算法原理
深度學(xué)習(xí)算法是將人臉圖像映射至歐氏空間,設(shè)定最優(yōu)閾值,計(jì)算不同人臉特征向量間的歐氏距離。如果歐氏距離低于設(shè)定閾值,就判定為同類;如果歐氏距離高于設(shè)定閾值,就判定為不同類。在框架中,根據(jù)既定尺寸輸入待識別樣本圖像,將其輸送至深度學(xué)習(xí)網(wǎng)絡(luò)中,提取輸入圖像的特征向量。其中,特征向量具有多維屬性,進(jìn)行歸一處理后,通過映射得到特征向量均值,待二元損失函數(shù)回歸后得出最終的識別結(jié)果。
1.2 模型構(gòu)建
深度學(xué)習(xí)算法是從一端到另一端的目標(biāo)檢測算法。與雙階段的檢測模型相比,SSD模型不需要生成先驗(yàn)候選框,能夠提升檢測準(zhǔn)確率。為強(qiáng)化泛化能力,SSD模型將Inception-v4作為骨干網(wǎng)絡(luò)塊進(jìn)行人臉特征提取,并將連接層轉(zhuǎn)變?yōu)榫矸e層,可在保證圖像檢測準(zhǔn)確的過程中逐步改進(jìn)漏檢與誤檢問題。SSD模型構(gòu)建流程如圖1所示。
SSD模型采用方向梯度直方圖特征,使預(yù)測的人臉部位回歸現(xiàn)實(shí),主要步驟如下:決策樹子節(jié)點(diǎn)存儲殘差回歸量,將輸入與殘差回顧量相加可得預(yù)測人臉形狀,如公式(1)所示。
q=(k1,k2,……,kn)
q(z+1)=qz+ε(epsilon)z (1)
式中:q表示n個關(guān)鍵點(diǎn)坐標(biāo)的人臉形狀集合;kt表示圖像k的第t個關(guān)鍵點(diǎn)坐標(biāo)(t=1,2……,n);qz表示第z次預(yù)測出的人臉形狀;ε(epsilon)z表示第z次測算出的殘差回歸量。
1.3 函數(shù)的改進(jìn)
歐氏距離函數(shù)是深度學(xué)習(xí)的核心構(gòu)成,應(yīng)用時(shí)一般通過在數(shù)據(jù)集上構(gòu)建合適的距離來解決相應(yīng)問題。在初始深度學(xué)習(xí)網(wǎng)絡(luò)中,模型通過深度學(xué)習(xí)網(wǎng)絡(luò)提取的特征距離來判定相似度。設(shè)輸入圖像樣本為x1、x2、y1和y2,通過歐氏距離求解距離|X|,如公式(2)所示。
(2)
從公式(2)可看出,歐氏距離表示各元素差的平方和,對奇異值來說沒有魯棒性。同時(shí),歐氏距離不同維度尺度存在差異,進(jìn)行相似人臉圖像訓(xùn)練時(shí)可能會出現(xiàn)識別誤差。為了解決該問題,部分學(xué)者應(yīng)用馬氏距離對歐氏距離進(jìn)行修正,其本質(zhì)是將樣本點(diǎn)線性轉(zhuǎn)換后計(jì)算距離,如公式(3)所示。
(3)
式中:ω表示正定矩陣,對輸入樣本點(diǎn)進(jìn)行線性轉(zhuǎn)換。
替換歐氏距離函數(shù)后,計(jì)算度量距離中所需的參數(shù)γ,參數(shù)結(jié)果通過最小化函數(shù)獲得。設(shè)l(f)為損失函數(shù),將對比損失作為損失函數(shù),原因是深度學(xué)習(xí)網(wǎng)絡(luò)無法執(zhí)行分類任務(wù),但能執(zhí)行不同樣本間的相似學(xué)習(xí)任務(wù),如公式(4)所示。
(4)
當(dāng)模型學(xué)習(xí)完不同樣本間的相似性后,在深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)中添加分類器進(jìn)行分類,如公式(5)所示。
(5)
在公式(5)中,m為1時(shí)表示同類別,反之為不同類別。分類器設(shè)計(jì)好后,根據(jù)深度學(xué)習(xí)網(wǎng)絡(luò)特有圖像進(jìn)行圖像訓(xùn)練。設(shè)數(shù)據(jù)集中有a類樣本,各類中有b個樣本,根據(jù)傳統(tǒng)訓(xùn)練模式,模型需要a×b個數(shù)據(jù)。使用深度學(xué)習(xí)網(wǎng)絡(luò)時(shí),可自由定義數(shù)據(jù)點(diǎn),該數(shù)據(jù)點(diǎn)就是深度學(xué)習(xí)網(wǎng)絡(luò)需要訓(xùn)練的數(shù)據(jù)數(shù)量,其中半數(shù)為同類別,其余則為不同類別。按照排序組合,可將最大樣本數(shù)s表示為公式(6)。
(6)
由公式(6)可知,在完整的人臉圖像數(shù)據(jù)庫中,利用較少的訓(xùn)練樣本可得一定數(shù)量的訓(xùn)練數(shù)據(jù),與生成式的對抗網(wǎng)絡(luò)生成的圖像相比,深度學(xué)習(xí)網(wǎng)絡(luò)降低了噪聲干擾,進(jìn)而增加了模型的魯棒性。
2 系統(tǒng)設(shè)計(jì)
2.1 整體框架
系統(tǒng)實(shí)現(xiàn)框架如圖2所示,包括人臉信息收集與人臉圖像識別2個模塊。首先,利用攝像機(jī)收集人員信息,通過信息提取與特征提取構(gòu)建人臉信息特征庫。其次,攝像機(jī)收集人臉圖像,并根據(jù)所得圖像信息提取人臉特征,從而獲得待識別特征。最后,將這些待檢測特征與特征庫信息進(jìn)行比較,并輸出最終結(jié)果。
2.2 信息收集
信息收集的作用是收集待識別人臉特征,并將其添加至本地特征庫中。信息收集流程如圖3所示。1)收集整體圖像。調(diào)用Oracle深度學(xué)習(xí)數(shù)據(jù)庫中的歐氏距離函數(shù),使用攝像機(jī)讀取人員視頻流,從中截取部分視頻幀,構(gòu)成數(shù)據(jù)集,并標(biāo)記好各類信息名稱。2)提取圖像。使用SSD模型檢測已標(biāo)記的圖像信息,利用回歸分析法分析圖像信息后將數(shù)據(jù)傳輸?shù)綀D像庫。3)提取特征。根據(jù)圖像庫存儲信息,利用SSD模型提取特征向量,不同圖像均可通過深度學(xué)習(xí)網(wǎng)絡(luò)提取出多維特征向量。4)搭建特征庫。存儲提取的特征向量和對應(yīng)信息,將存儲格式設(shè)置為TXT,用字符串記錄標(biāo)簽并存儲特征向量。
2.3 人臉識別
人臉識別的作用是完成人臉識別,即通過攝像機(jī)獲取待識別人臉信息。人臉識別流程如圖4所示。1)載入圖像特征庫。信息收集模塊與特征庫相連,將上述存儲的特征向量及其對應(yīng)信息作為識別結(jié)果進(jìn)行輸出,其中特征向量通過矩陣載入,對應(yīng)信息以Json載入。2)向量匹配。合理匹配提取出的特征向量和特征庫向量,從而獲取待檢測信息,并通過測算歐氏距離判斷匹配是否成功。3)輸出結(jié)果。比較待檢測特征向量、本地特征向量的歐氏距離|X|和已設(shè)閾值,如果已設(shè)閾值低于|X|,可知匹配失敗;如果已設(shè)閾值高于|X|,可知匹配成功。最后輸出與特征向量對應(yīng)的信息。
3 系統(tǒng)試驗(yàn)
3.1 試驗(yàn)配置
為了驗(yàn)證系統(tǒng)性能,本文進(jìn)行了人臉識別試驗(yàn)。試驗(yàn)數(shù)據(jù)來自常用的WiderFace數(shù)據(jù)集。該數(shù)據(jù)集包括大量不同種類、尺寸、姿態(tài)和遮擋程度的人臉圖像,因此被廣泛應(yīng)用于人臉檢測算法的訓(xùn)練和性能評估。本試驗(yàn)運(yùn)行軟硬件環(huán)境見表1。
3.2 模型訓(xùn)練
SSD模型采用梯度下降進(jìn)行相應(yīng)訓(xùn)練,設(shè)定學(xué)習(xí)率初始值為0.01,當(dāng)多次驗(yàn)證模型準(zhǔn)確率迭代次數(shù)不出現(xiàn)變化時(shí),學(xué)習(xí)率就會降低50%。因?yàn)閿?shù)據(jù)樣本量較大,所以選取數(shù)據(jù)集中的一部分進(jìn)行試驗(yàn),其余數(shù)據(jù)用于訓(xùn)練模型。在訓(xùn)練過程中,當(dāng)?shù)螖?shù)為120時(shí),模型準(zhǔn)確率開始逐步穩(wěn)定,同時(shí)相應(yīng)損失率為1.3%。為驗(yàn)證檢測準(zhǔn)確率的上限,將最大迭代次數(shù)設(shè)置為210。當(dāng)?shù)螖?shù)達(dá)到150時(shí),準(zhǔn)確率已無較大變化,因此綜合訓(xùn)練時(shí)長與損耗率等因素已無較多參考價(jià)值,不再進(jìn)一步增加迭代次數(shù)。強(qiáng)化前、后SSD模型訓(xùn)練的準(zhǔn)確率與損失率如圖5所示。從試驗(yàn)結(jié)果可知,強(qiáng)化前的準(zhǔn)確率為95.3%左右,強(qiáng)化后的準(zhǔn)確率高達(dá)98.5%,相應(yīng)的訓(xùn)練損失率可以忽略不計(jì)。
3.3 速度檢測
基于SSD深度學(xué)習(xí)算法的自動化人臉識別系統(tǒng)主要利用ISV-V02M013S-N高級視頻分析攝像機(jī)對識別結(jié)果進(jìn)行速度檢測。進(jìn)行系統(tǒng)試驗(yàn)后可知,本系統(tǒng)的識別速度均值>25f/s,已遠(yuǎn)超所需的23f/s標(biāo)準(zhǔn),因此本系統(tǒng)在人臉識別速度上符合現(xiàn)實(shí)工作需要。
3.4 精度檢測
為進(jìn)一步驗(yàn)證系統(tǒng)識別精度,從數(shù)據(jù)集中隨機(jī)抽取300人(600張圖像)進(jìn)行檢測。每個人有2幅圖像,選擇其中一幅作為待檢測圖像,另一幅放于特征庫。設(shè)定特征向量間的歐氏距離和閾值,如果閾值小于歐氏距離,可知特征庫中不存在圖像數(shù)據(jù),反之則需要重新判斷準(zhǔn)確率。精度檢測具體情況見表2。當(dāng)閾值為0.5時(shí),識別準(zhǔn)確率最高,為99.5%。由試驗(yàn)可知,本系統(tǒng)在識別準(zhǔn)確率方面能夠滿足現(xiàn)實(shí)所需。
4 結(jié)語
綜上所述,本文在利用注意力機(jī)制改進(jìn)歐氏距離函數(shù)的基礎(chǔ)上,設(shè)計(jì)了一種基于SSD深度學(xué)習(xí)算法的自動化人臉識別系統(tǒng)。在仿真測試中,SSD模型在檢測與識別上具有較好表現(xiàn),系統(tǒng)的識別速度超過25f/s。當(dāng)特征向量間的歐氏距離為0.5時(shí),識別準(zhǔn)確率高達(dá)99.3%,人臉識別的魯棒性有所提高。該系統(tǒng)具有顯著的識別效果,能夠應(yīng)用于不同的人臉識別領(lǐng)域。
參考文獻(xiàn)
[1]賀宇桐,盧泓熹.基于單目RGB活體檢測技術(shù)人臉識別系統(tǒng)的研究與實(shí)現(xiàn)[J].內(nèi)蒙古科技與經(jīng)濟(jì),2023(24):120-124.
[2]王傳傳,高婕.基于改進(jìn)FaceNet算法的人臉智能識別方法[J].工業(yè)控制計(jì)算機(jī),2024,37(2):126-128.
[3]劉敏.基于樣條權(quán)函數(shù)神經(jīng)網(wǎng)絡(luò)的人臉識別研究[J].現(xiàn)代信息科技,2024,8(4):109-112.
[4]焦陽陽,黃潤才,萬文桐,等.基于圖像融合與深度學(xué)習(xí)的人臉表情識別[J].傳感器與微系統(tǒng),2024,43(3):148-151.