湯雙霞
摘 要:現(xiàn)代人臉識別以深度學(xué)習(xí)技術(shù)為核心,以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),通過輸入圖像提取到人臉的特征值計算分析人臉的表情。通過分析當(dāng)前學(xué)生的專注度(表情變化),建立數(shù)據(jù)采集樣本集,通過訓(xùn)練計算完成課堂專注度分析,形成課堂學(xué)生專注度分布結(jié)果。結(jié)果表明,進行教師的課堂學(xué)情分析,有利于進行課程的教育教學(xué)改革,提高辦學(xué)水平,也有利于教育行業(yè)的技術(shù)進步,提高行業(yè)的信息技術(shù)教育水平。
關(guān)鍵詞:深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);課堂學(xué)情分析;專注度;數(shù)據(jù)采集;信息技術(shù)教育水平
中圖分類號:TP315 文獻標(biāo)識碼:A 文章編號:2095-1302(2019)06-0-02
0 引 言
隨著互聯(lián)網(wǎng)應(yīng)用和計算機網(wǎng)絡(luò)技術(shù)的飛快發(fā)展,大數(shù)據(jù)的應(yīng)用已經(jīng)直接影響到各個領(lǐng)域的信息系統(tǒng)中,大量數(shù)據(jù)的更新?lián)Q代,對不同類型的數(shù)據(jù)庫進行支撐。合理應(yīng)用相關(guān)數(shù)據(jù)信息,就能明確數(shù)據(jù)信息帶來的價值和意義。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,人臉識別技術(shù)采用深度學(xué)習(xí)的算法進行識別。深度學(xué)習(xí)是當(dāng)前基于深層次的研究人工智能網(wǎng)絡(luò)技術(shù)的基礎(chǔ)研究。
1 深度學(xué)習(xí)的發(fā)展及在教育領(lǐng)域的應(yīng)用
深度學(xué)習(xí)的出現(xiàn)打破了神經(jīng)網(wǎng)絡(luò)發(fā)展的瓶頸。深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)包括輸入層、隱含層和輸出層,通過這種多層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)實現(xiàn)復(fù)雜函數(shù)的逼近。深度學(xué)習(xí)具備擬合任何復(fù)雜函數(shù)的特點,在教育領(lǐng)域中也有不可估量的作用。深度學(xué)習(xí)在教育領(lǐng)域中的關(guān)系如圖1所示。
2 人臉識別技術(shù)的發(fā)展
2.1 傳統(tǒng)的人臉識別
人臉識別最早可以追溯到20世紀(jì)80年代,Calton發(fā)表了人臉進行身份識別的文章,拉開了人臉識別理論研究的序幕。Calton對人臉識別進行了潛心研究,但沒有研究到人臉自動識別的地步。人臉識別算法經(jīng)過了最近幾十年的摸索,達到了很好的識別率,能從數(shù)據(jù)集上訓(xùn)練和測試出算法的識別率。
2.2 以深度學(xué)習(xí)及神經(jīng)網(wǎng)絡(luò)技術(shù)應(yīng)用的人臉識別
深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)理論提出后,相關(guān)研究人員通過網(wǎng)絡(luò)可在圖像中聽到較大的噪聲,發(fā)現(xiàn)遮擋狀況。經(jīng)研究發(fā)現(xiàn),卷積神經(jīng)網(wǎng)絡(luò)對圖像平移、尺度的辨別較弱,但對加強網(wǎng)絡(luò)的性能非常有利。神經(jīng)網(wǎng)絡(luò)模型類似方法較多,有時滯神經(jīng)網(wǎng)絡(luò)、徑向基函數(shù)網(wǎng)絡(luò)和Hopfield網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)不需要人工特征提取算法設(shè)計、研究,自動收集數(shù)據(jù)集即可。
3 基于深度學(xué)習(xí)的人臉識別系統(tǒng)設(shè)計實現(xiàn)方法
3.1 人臉識別過程圖
3.2 基于深度學(xué)習(xí)人臉識別技術(shù)的過程
采用深度學(xué)習(xí)多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)(Multi-task Convolutional Neural Network,MTCNN)算法檢測人臉的位置,將原始圖像通過尺度變化為不同尺寸,構(gòu)建圖像結(jié)構(gòu),然后通過整體人臉及人臉的各種特征點進行定位。
通過Face++算法對收集到的人臉圖片進行深度訓(xùn)練,在LFW(Labeled Faces in the Wild)數(shù)據(jù)集上驗證準(zhǔn)確率高達90%。訓(xùn)練出一個9層的人工神經(jīng)網(wǎng)絡(luò)來進行人臉特征表達。基于深度學(xué)習(xí)的Face++算法人臉識別流程圖如圖3所示。
圖中,首先將人臉進行分塊,然后通過訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)提取出特征值,最后對這些特征值進行人臉身份分析。通過結(jié)構(gòu)光技術(shù)融合深度圖像信息,提高人臉識別的準(zhǔn)確度。人臉的深度圖可以很好地對人臉進行描述,不受光線、化妝等因素的影響。
4 結(jié) 語
人臉識別技術(shù)是基于人的臉部特征對輸入的人臉圖像或者視頻流進行識別,首先判斷其是否存在人臉 ,如果存在人臉,則進一步給出每個臉的位置、大小和各個主要面部器官的位置信息;依據(jù)這些信息,進一步提取每個人臉中所蘊涵的身份特征,并將其與已知的人臉進行對比,從而識別每個人臉的身份。在人臉圖像中提取特征值,分析當(dāng)期學(xué)生的專注度時,可自定義采樣頻率,建立數(shù)據(jù)采集群體樣本,利用統(tǒng)計學(xué)原理完成學(xué)生課堂專注度分析,將教學(xué)過程分析和專注度分析進行關(guān)聯(lián),形成課堂過程專注度分布結(jié)果。
參 考 文 獻
[1] LEE H,GROSSE R,RANGANATH R,et al. Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations [C]// Proc of the 26th International Conference on Machine Learning. New York:ACM Press,2009:609-616.
[2] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagene t classification with deep convolutional neural networks [C]// Advances in neural information processing systems. Cambridge,MA,USA:MIT Press,2012:1097-1105.
[3] SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [J]. arXiv preprint arXiv:1409.1556,2014.
[4] BEBIS G,GEORGIOPOULOS M. Feed-forward neural networks [J]. IEEE Potentials,1994,13(4):7-31.
[5] RUMELHART D E,HINTON G E,WILLIAMS R J. Learning Internal Representations by Error Propagation [M]// Parallel distributed processing:explorations in the microstructure of cognition,Cambridge,MA,USA:MIT Press,1986:318-362.
[6]劉穎超,張紀(jì)元.梯度下降法[J].南京理工大學(xué)學(xué)報,1993(2):12-16.
[7] ZUR R M,JIANG Y,PESCE L L,et al. Noise injection for training artificial neural networks:A comparison with weight decay and early stopping [J]. Medical physics,2009,36:4810.
[8] WON Y,GADER P D,COFLIELD P C. Morphological shared-weight networks with applications to automatic target recognition [J]. IEEE transactions on neural networks,1997,8(5):1195-1203.
[9]韓立權(quán).無線網(wǎng)絡(luò)攻擊中保護用戶敏感隱私信息仿真[J].計算機仿真,2017(3):277-280.
[10]李紅麗,許春香,馬耀鋒.基于多核學(xué)習(xí)SVM的圖像分類識別算法[J].現(xiàn)代電子技術(shù),2018,41(6):50-52.