李 駿,楊雅志
基于深度學習與有向無環(huán)圖SVM的局部調整年齡估計
李 駿1,楊雅志2
(1. 成都工業(yè)學院教務處教學建設與教學質量管理科,四川 成都 611730; 2. 成都工業(yè)學院計算機工程學院,四川 成都 611730)
為了進一步從人臉圖像中提高年齡估計的精度,提出一種基于深度學習與有向無環(huán)圖支持向量機(SVM)的局部調整年齡估計算法。在訓練階段,首先將經過VGGFace2數據集預訓練的SE-ResNet-50網絡進行微調,并在收斂時提取全連接層,將其首尾相連形成的向量作為表征并訓練得到多個one-versus-one SVM;在測試階段,先將待估計人臉圖像送入SE-ResNet-50以得到一個較為粗略的年齡估計值,然后設定具體鄰域,最后將訓練而成的SVM組合為一個有向無環(huán)圖SVM并以全局估計值為中心進行精準的年齡估計。為了表明算法的普適性,在不同種族的MORPH和AFAD圖像集中進行了實驗,結果驗證了算法的有效性。
年齡估計;深度學習;有向無環(huán)圖支持向量機;局部調整
年齡估計,旨在判別輸入人臉圖像的年齡值或年齡組別。雖然基于人臉圖像的年齡自動估計是多媒體應用、人機交互等許多實際應用中涉及的一項重要技術,但從人臉圖像中估計年齡仍然是一個具有挑戰(zhàn)性的問題:由于不同的人衰老的方式不同,衰老的過程不僅取決于人的基因,還取決于許多外部因素,如身體狀況、生活方式、居住地點和天氣狀況等。此外由于使用化妝品和配飾的程度不同,男性和女性的年齡也可能不同。如何在降低個體差異負面影響的同時,提取出一般的判別性老化特征仍然是一個有待解決的問題。
基于經典機器學習的年齡估計方法,包含特征提取與年齡判別2個步驟,其中特征提取通常利用主動外觀模型[1]、局部二值模式[2]、流形學習[3]或者仿生特征[4]等淺層表征方法,此后再采用K近鄰 法[4]、二次回歸函數[5]或支持向量回歸[6]等機器學習方法進行最終的年齡判別。
近些年在研究年齡估計時,常常采用深度學習的方法。文獻[6]利用卷積神經(convolutional neural networks,CNN)的第2~5層特征圖作為特征向量,然后進行非線性降維處理,最終利用支持向量分類與回歸、偏最小二乘法與典型性相關分析進行年齡預測。文獻[7]采用一個類Alexnet的CNN模型進行年齡估計。文獻[8]首先將人臉圖像分為不同的大小,再劃出多個局部對齊塊,最終將其輸入進4層的網絡,該方法通過增加樣本容量來增強CNN的泛化能力。文獻[9]將年齡標簽看作實數,使得輸出層含有一個神經元,其本質為年齡回歸。
在上述方法中通常只采用一種特定的生成式模型、判別式模型、分類CNN或回歸CNN進行年齡估計,其弊端為樣本容量、迭代次數等超參數設置一旦不合理或參數未完全收斂,便毫無容錯率可言,以至對最終的年齡估計精度產生決定性影響。
針對此不足,且為了進一步提高年齡估計的精度,將經典的機器學習與深度學習方法相結合,本文提出一種由粗到細、由全局到局部的局部調整年齡估計方法(local adjusted age estimation,LAAE),如圖1所示。在訓練階段,首先對經過VGGFace2數據集預訓練的SE-ResNet-50網絡進行微調,待到收斂時提取出全連接層,將其首尾相連形成的向量作為表征并訓練出多個one-versus-one SVM;在測試階段,先將待估計人臉圖像送入SE-ResNet-50以得到一個較為粗略的年齡估計值,然后設定具體鄰域并將訓練而成的支持向量機(support vector machine,SVM)組合為一個有向無環(huán)圖SVM以進行精準的年齡估計。
在超分辨率測試序列(visual geometry group,VGG)中,其CNN達到了19層,在GoogleNet中,網絡的層數史無前例地達到了22層,但是在深度學習中,網絡層數增多將伴隨著計算資源的消耗,模型易過擬合且易產生梯度消失與梯度爆炸問題。計算資源的不足對企業(yè)或科研經費充足的高校而言,只需要通過GPU集群就可以解決;過擬合也可通過大量采集有效樣本數據并配合Dropout等正則化方法來解決;而梯度方面的問題通過批量歸一化也可以很好地解決。貌似只要一直增加神經網絡的層數,就可以獲得收益,但是實驗數據卻不能有效地支撐此觀點[10]:隨著神經網絡層數的增多,訓練誤差逐漸下降,并趨于飽和。再增加網絡深度時,訓練誤差反而會增大。當網絡退化時,淺層網絡比深層網絡有更好地訓練效果,這時如果將低層的特征傳到高層,其效果不比淺層的網絡效果差。如一個VGG100網絡在第99層使用的是和VGG16第15層一模一樣的表征,那么VGG100的性能應與VGG16的性能相同。因此可以在VGG100的99層和15層之間添加一條恒等映射來達到此效果。從信息論的角度而言,由于數據處理不等式的存在,在前向傳輸的過程中,隨著層數的加深,特征圖譜包含的原圖像信息會逐層減少,而恒等映射的加入,保證了網絡后一層一定比前一層包含更多的圖像信息?;谶@種快捷映射的思想,便有了殘差神經網絡,即在原神經網絡中加入一系列殘差模塊而形成的,如圖2所示。
圖1 總體流程圖
圖2 殘差模塊
其可用X+1=(X)+(X+W)式表示,其中(X)=X為恒等映射在圖2左邊曲線;(X+W)為殘差部分在圖2右邊曲線,其中W為第l層的權重與偏置。當前一層與后一層的特征圖譜數量維度不同時,需要1*1卷積操作進行降維或升維,此時(X)=WX,其中為1*1卷積操作。
在CNN的卷積層中,一系列卷積核的集合可看作是輸入通道上的鄰域空間連接模式,可將空間維度上的信息和通道信息融合在局部感受野內[11]。CNN通過將一系列卷積層,非線性激活函數與池化操作進行堆疊以產生魯棒的表征,從而捕獲層次模式并獲得理論上的全局感受野。很多研究工作是從空間維度信息層面來提高網絡的性能,如Inception結構中嵌入了多尺度信息,依次聚合多種感受野上的特征;Inside-Outside中考慮了空間的鄰域信息。擠壓-激勵模塊(squeeze-and-excitation module,SE)通過考慮特征通道中的關系來提升網絡性能,其方法是自動學習每個特征通道的重要程度,然后依重要程度去提升有用的特征,同時抑制對當前任務用處不大的特征。SE的各部分操作如下:
(1):一般為卷積操作。
(2):擠壓(squeeze)操作。本文順著空間維度進行特征壓縮,使得輸出的維度和輸入的特征通道數相匹配。此外將每個二維的特征通道變成一個標量,此標量在某種程度上具有全局的感受野,其表征著在特征通道上響應的全局分布,而且使靠近輸入的層也可獲得全局感受野。
(3):激勵(excitation)操作。其是一個類似于循環(huán)神經網絡中門的機制,通過學習用來顯式地建模特征通道間的相關性參數來為每個特征通道生成對應權重。
(4):重賦值(scale)操作。將激勵輸出的權重看做經過特征選擇后的每個特征通道的重要性,然后逐通道相乘到先前的特征上,完成在通道維度上的對原始特征的重標定(feature recalibration)。
SE可集成到諸如Inception或殘差網絡中,本文將SE-ResNet-50作為主干網絡,如圖3所示。
圖3 SE-ResNet示意圖
首先經過一個殘差模塊,然后使用全局平均池化操作進行“擠壓”,緊接著以2個全連接層去顯式建模通道間的相關性:首先特征維度將為原來的1/(取16),然后再通過一個全連接操作升回到原維度。這種“Bottleneck”模塊具有更強非線性且極大減少了參數量與運算量。通過Sigmoid將特征權重歸一化為0~1間的值,最后通過Scale操作對各通道特征進行加權。
LAAE的思想是將CNN估計到的年齡值在局部鄰域內盡可能靠近真實年齡。示意圖如圖4所示。
圖4 局部調整示意圖
假設輸入數據為,對應的CNN輸出為(),即圖4中的1號小圓。也許()離圖中2號小圓的實際年齡值仍有一段距離,局部調整的年齡估計的思想便是在領域范圍2內左右滑動(即為增大或者減小)估計值(),使其更接近于實際年齡值,可用公式表示為?[()-,()+]。
如此可將局部調整年齡估計分為2步進行:①利用CNN網絡對所有訓練數據進行年齡分類。此步驟可看作是粗估計或全局估計;②以第一步的結果作為中心在小范圍內的領域中進行局部調整。此步驟可看作是細調或局部估計。
此時問題的關鍵在于如何在一定范圍內驗證不同的年齡值,以便進行局部調整。本文目標是通過全局回歸將最初估計的年齡值盡可能向真實年齡靠攏。并將每個年齡標簽看作是一個類,采用分類的方法對不同的年齡值進行局部調整或驗證。因為只有少量的年齡標簽用于每個局部調整,因此回歸方法不能正常工作。對于基于分類方法的局部調整,在分類器方法有許多可選項,但本文采用線性SVM用于局部調整。主要是因為SVM對于訓練樣本較少的情況具有魯棒性。這在之前的小樣本案例學習中已經被論證過,如人臉識別[12-13]、圖像檢索[14]、音頻分類與檢索[15]和人臉表情識別[16]。
給定分屬2類的訓練向量(1,1),···,(,z),其中?,z?{-1, +1},線性SVM可以學習一個最優(yōu)分類超平面+=0以最大化2類之間的間隔(margin)[17-18]。SVM的學習本質為求下列拉格朗日泛函的鞍點,即
其中,為拉格朗日乘子。其優(yōu)化目標可以被轉化為如下的對偶問題,即
此時最優(yōu)超平面可表示為對偶解,即
值可被代入原方程+=0當中進行求解。
測試時,對于任意數據點,分類結果為
若訓練數據不可分,則可引入松弛變量,關于這部分可參考文獻[17]。
經典SVM的設計是為了解決二分類問題,當其被拓展到多分類問題時有以下幾種方法:①one- versus-one:為每2類學習一個分類器;②one-versus- many:為每一類與剩余的其他類訓練出多個SVM;③many-versus-many:為所有類同時訓練SVM。最后的2種方法顯然不適合于本文算法,因為在進行局部調整時只有少量的部分樣本包含在內。若采用后面2種方法則SVM將會在每次局部調整時動態(tài)地重新訓練,這毫無疑問地會增加訓練復雜度。第一種方法在本次任務中是可行的,原因在于其不需要在線訓練SVM,即所有成對SVM分類器都會被離線訓練。
圖5 有向無環(huán)圖SVM
由圖5可見,有向無環(huán)圖的頂層只含有一個節(jié)點,即根節(jié)點,第2層有2個節(jié)點,以此類推,第層含有個節(jié)點,直到最底層即將類分類完畢。若輸入一個樣本,有向無環(huán)圖由根節(jié)點開始,計算每個節(jié)點的符號函數(·+)決策值(見式(4)),若為-1則進入左子節(jié)點,若為1則轉入右子節(jié)點。依次類推,在最后一層葉節(jié)點的輸出就可以表示樣本的類別。由此可見,有向無環(huán)圖實際相當于一個表格運算:初始時表格中包含所有類,此后每次的節(jié)點運算中對表格中的首尾2類進行比較,排除樣本中最不可能屬于的類別,并刪除表中的一個類,到最后表格中剩下的唯一一類即為樣本所屬的類別。
通常對于一個分類問題,在測試階段只需要進行-1次比較。這里,成對比較的次數被限制到了-1次,因為在局部調整時只有類涉及到了(<)。
理論上設計局部調整時的鄰域((),)= {|()-<<()+}是很難的,因為其是由諸多因素決定的,諸如樣本容量的大小與粗估計器的性能等。然而,可以有大方向存在:搜索的范圍越大,包含真實年齡的機會就越大。如果搜索范圍太小,可能達不到真實的年齡標簽,就局部搜索而言可能會找到一個任意的年齡標簽。另一方面,若局部搜索范圍太廣,其也增加了調整年齡時遠離真實年齡的可能性,因為局部分類只是一個局部最優(yōu)搜索。
為了對年齡估計進行局部調整與滿足有向無環(huán)圖SVM的特殊拓撲結構,本文嘗試了2的冪次方的不同的局部搜索范圍:2(=1),4(=2),8(=4),16(=8)。理論上可將搜索范圍延展到與數據集的樣本容量一樣,但這樣不滿足“局部調整”的策略,因此,本文最多將搜索范圍設置到16。
在實驗中,本文指定了不同的范圍,并演示了不同的局部搜索范圍對于結果的影響。目的是為了表明局部調整的確可以提高單一機器學習分類器或深度學習網絡的年齡估計性能。
為了驗證本方法的有效性與普適性,選擇由黃種人組成的AFAD數據集[9]和白人與黑人組成的MORPH數據集[20]進行消融與對比實驗。
(1) AFAD數據集。AFAD包括來自社交網路上的164 432張圖像,年齡范圍為15~40歲。是目前最大的用以年齡估計的開源數據集,對于研究無約束環(huán)境下的人臉年齡相當有意義。由于官方未提供對AFAD中訓練集與測試集的劃分標準,因此為了能與其他的年齡方法進行對照,隨機將AFAD劃分為80%的訓練集與20%的測試集。圖6為AFAD數據集中的部分示例。
圖6 AFAD示例圖像
(2) MORPH數據集。MORPH包括13 015個人的55 608張人臉圖像,年齡范圍為16~77歲。圖7為MORPH數據集中的一些示例。其劃分標準與AFAD類似。
圖7 MORPH示例圖像
在進行年齡估計之前,首先對原始的人臉圖像做以下預處理:采用級聯(lián)VJ檢測器[21]進行人臉檢測,其次采用主動外觀模型[1]對人臉基準點進行定位,最后將圖像縮放為224×224進行實驗。本次實驗在caffe[22]的GPU開源框架下進行,且所用SE-ResNet-50模型來源于文獻[23]。
為了證明LAAE的有效性,本文指定了不同的領域范圍,并演示了不同局部搜索范圍對于結果的影響。作為對比,還加入了只用SE-ResNet和只用SVM (此時的特征提取采用的是圖像三通道像素與線性降維–主成分分析)進行的年齡估計。消融實驗的結果見表1。
表1 不同鄰域設置下的MAE對比
由表1可得出以下結論:
(1) MORPH中的表現總比AFAD要好。究其原因,在于MORPH中的圖像是官方進行的拍攝,因此光照條件,攝像機性能等相當良好;而AFAD中的圖像是從人人網中進行爬取而獲得的,因此在分辨率上參差不齊,這便造成了性能上的差異。
(2) 深度學習的方法在2個數據集中的表現均好于經典的機器學習方法,這也進一步論證了深度學習的優(yōu)越性。
(3) 局部調整的效果好于單純的機器學習方法或單純的深度學習方法,但不同的鄰域使性能有所差異,且2個數據集上表現最好的鄰域設置是不一樣的。究其原因,在于MORPH與AFAD樣本容量的差異,即MORPH的類別數較多,因此其的搜索范圍越大表現的越好,但這一點在AFAD中卻截然相反,只有在=4時表現最好,之后鄰域越大效果反而越差。本文只將鄰域取到=8,除了上節(jié)所說的鄰域越大不滿足局部調整的先驗條件之外,還有一個重要原因,即若取=16,則局部調整的范圍就擴大到了32,而AFAD中的類別為40-15+1=36,即相當于年齡的二次估計。
為了進一步驗證方法的有效性,將所得結果與其他的基于深度學習的年齡估計方法進行對比。結果見表2和圖8~9。
表2關于Deeply learned feature[6],Multi-scale[8]與MR-CNN[9]的描述可參見引言。GA-DFL[24]將年齡順序分為一組離散的群組,并且跨年齡群組去學習深度特征映射而將每對人臉映射至新的表征空間項目。同時來自訓練集中的正向成對人臉組內(intra-group)的方差被最小化且負向成對人臉組間(inter-group)的方差被最大化。OH-Ranker[25]與OR-CNN[9]通過在年齡估計中引入標簽的排序信息進行一系列的二分類,不同之處在于前者采用SVM而后者采用CNN模型。CNN-ELM[26]采用CNN進行特征提取,而后采用極限學習機(extreme learning machine,ELM)進行年齡分類。D2C[27]提出了一種新的基于點向累積信號(point-wise cumulative signal)的累積隱含層。在此累積隱含層中,模型是通過相鄰年齡段的人臉進行間接學習的。由表2可看出,深度學習的方法優(yōu)于機器學習方法,且年齡標簽問題是年齡估計方法中不得不考慮的問題。此外,本文方法在MORPH與AFAD中分別達到了3.04與3.17的平均絕對誤差,很明顯超出了之前方法的性能。相較于最好方法的OR-CNN,本文方法在平均情況下的性能提升了大約6%。
表2 與其他方法的MAE對比
圖8 局部調整年齡估計與其他方法在MORPH上關于CS的對比
圖9 局部調整年齡估計與其他方法在AFAD上關于CS的對比
在與其他方法的累計分數指標對比方面,分別選取了在MORPH上表現最好的LAAE (=8)和在AFAD上表現最好的LAAE (=4),實驗結果如圖8與圖9所示。在圖8中,當可允許的誤差年齡范圍大于4之后,本文方法領先于其他對比方法。在圖9中,本文方法一直優(yōu)于OR-CNN。
本文提出一種局部調整的年齡估計方法LAAE。首先利用深度學習進行年齡全局的粗估計,然后通過設定鄰域而在有向無環(huán)圖SVM上在進行局部的細估計。通過實驗結果可以看出LAAE的性能好于純深度學習與純機器學習方法,與其他方法的對比也能進一步說明LAAE的有效性。在其他模式識別方面,LAAE在理論上是可行的。未來的研究方向,可以數據驅動鄰域搜索范圍而不是人為機械地進行設置。
[1] COOTES T F, EDWARDS G J, TAYLOR C J. Active appearance models[M]//Lecture Notes in Computer Science. Heidelberg: Springer, 1998: 484-498.
[2] LU J W, LIONG V E, ZHOU J. Cost-sensitive local binary feature learning for facial age estimation[J]. IEEE Transactions on Image Processing, 2015, 24(12): 5356-5368.
[3] GUO G D, FU Y, HUANG T S, et al. Locally adjusted robust regression for human age estimation[C]//2008 IEEE Workshop on Applications of Computer Vision. New York: IEEE Press, 2008: 1-6.
[4] GUO G D, MU G W, FU Y, et al. Human age estimation using bio-inspired features[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2009: 112-119.
[5] FU Y, HUANG T S. Human age estimation with regression on discriminative aging manifold[J]. IEEE Transactions on Multimedia, 2008, 10(4): 578-584.
[6] WANG X L, GUO R, KAMBHAMETTU C. Deeply-learned feature for age estimation[C]//2015 IEEE Winter Conference on Applications of Computer Vision. New York: IEEE Press, 2015: 534-541.
[7] LEVI G, HASSNCER T. Age and gender classification using convolutional neural networks[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). New York: IEEE Press, 2015: 34-42.
[8] YI D, LEI Z, LI S Z. Age estimation by multi-scale convolutional network[EB/OL]. [2020-06-01]. https://link. springer.com/chapter/10.1007%2F978-3-319-16811-1_10.
[9] NIU Z X, ZHOU M, WANG L, et al. Ordinal regression with multiple output CNN for age estimation[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 4920-4928.
[10] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2016: 770-778.
[11] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2018: 7132-7141.
[12] GUO G D, LI S Z, CHAN K L. Support vector machines for face recognition[J]. Image and Vision Computing, 2001, 19(9-10): 631-638.
[13] GUO G D, LI S Z, CHAN K L. Face recognition by support vector machines[C]//The 4th IEEE International Conference on Automatic Face and Gesture Recognition (FG 2000). New York: IEEE Press,2000: 196-201.
[14] GUO G D, JAIN A K, MA W Y, et al. Learning similarity measure for natural image retrieval with relevance feedback[J]. IEEE Transactions on Neural Networks, 2002, 13(4): 811-820.
[15] GUO G D, LI S Z. Content-based audio classification and retrieval by support vector machines[J]. IEEE Transactions on Neural Networks, 2003, 14(1): 209-215.
[16] GUO G, DYER C R. Learning from examples in the small sample case: face expression recognition[J]. IEEE Transactions on Systems, Man and Cybernetics, Part B (Cybernetics), 2005, 35(3): 477-488
[17] 李航. 統(tǒng)計學習方法[M]. 北京: 清華大學出版社, 2012: 15-16.LI H. Statistical learning methods[M]. Beijing: Tsinghua University Press, 2012:15-16 (in Chinese).
[18] 周志華. 機器學習[M]. 北京: 清華大學出版社, 2016: 45-46. ZHOU Z H. Machine learning[M]. Beijing: Tsinghua University Press, 2016: 45-46 (in Chinese).
[19] 王艷, 陳歡歡, 沈毅. 有向無環(huán)圖的多類支持向量機分類算法[J]. 電機與控制學報, 2011, 15(4): 85-89.WANG Y, CHEN H H, SHEN Y. Classification algorithm of multi-class support vector machines for directed acyclic graphs[J]. Journal of Motor and Control, 2011, 15(4): 85-89 (in Chinese).
[20] RAWLS A W, RICANEK K JR. MORPH: development and optimization of a longitudinal age progression database[M]// Biometric ID Management and Multimodal Communication. Heidelberg: Springer, 2009: 17-24.
[21] VIOLA P, JONES M. Rapid object detection using a boosted cascade of simple features[C]//2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2001: 511-518.
[22] JIA Y Q, SHELHAMER E, DONAHUE J, et al. Caffe: convolutional architecture for fast feature embedding[C]// Proceedings of the ACM International Conference on Multimedia – MM’14. New York: ACM Press, 2014: 675-678.
[23] CAO Q, SHEN L, XIE W D, et al. VGGFace2: a dataset for recognising faces across pose and age[C]//The 13th IEEE International Conference on Automatic Face and Gesture Recognition (FG 2018). New York: IEEE Press, 2018: 67-74.
[24] LIU H, LU J W, FENG J J, et al. Group-aware deep feature learning for facial age estimation[J]. Pattern Recognition, 2017, 66: 82-94.
[25] CHANG K Y, CHEN C S, HUNG Y P. Ordinal hyperplanes ranker with cost sensitivities for age estimation[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2011: 585-592.
[26] DUAN M X, LI K L, YANG C Q, et al. A hybrid deep learning CNN-ELM for age and gender classification[J]. Neurocomputing, 2018, 275: 448-461.
[27] LI K, XING J L, HU W M, et al. D2C: deep cumulatively and comparatively learning for human age estimation[J]. Pattern Recognition, 2017, 66: 95-105.
Locally adjusted age estimation based on deep learning and directed acyclic graph SVM
LI Jun1, YANG Ya-zhi2
(1. Teaching Construction and Teaching Quality Management Section, Department of Education, Chengdu Technological University, Chengdu Sichuan 611730, China; 2. School of Computer Engineering, Chengdu Technological University, Chengdu Sichuan 611730, China)
In order to further enhance the accuracy of age estimation, we proposed a locally adjusted age estimation algorithm based on deep learning and directed acyclic graph-support vector machine(SVM). In the training phase, the SE-ResNet-50 network, pre-trained on the VGGFace2 data set, was first fine-tuned. When it converged, the fully connected layer was extracted, and the vector formed by its end-to-end connection was employed as a representation and further trained multiple one-versus-one SVM. In the testing phase, we first sent the face image into SE-ResNet-50 to obtain a rough age result, then set the specific neighborhood, finally integrated the trained SVM into a directed acyclic graph SVM, and conducted accurate age estimation centering on the global estimation value. In order to show the universality of the algorithm, the results of experiments undertaken in MORPH and AFAD datasets of different races can verify the effectiveness of the algorithm.
age estimation; deep learning; directed acyclic graph support vector machine; local adjustment
TP 391
10.11996/JG.j.2095-302X.2021010001
A
2095-302X(2021)01-0001-07
2020-07-07;
7 July,2020;
2020-09-15
15 September,2020
四川省教育廳《省級教育體制機制改革試點項目》(G5-08)
:Provincial Education System and Mechanism Reform Pilot Project of Sichuan Provincial Education Department (G5-08)
李 駿(1983-),男,四川瀘縣人,助理研究員,碩士。主要研究方向為計算機輔助教學管理與高教研究。E-mail:luckyli1983@sina.com
LI Jun (1983-), male, research assistant, master. His main research interests cover computer-aided teaching management and higher education research. E-mail:luckyli1983@sina.com
楊雅志(1983-),男,四川崇州人,講師,在讀博士。主要研究方向為大數據與智慧教育。E-mail:yyzhi@mail.cdtu.edu.cn
YANG Ya-zhi (1983-), male, lecturer, Ph.D candidate. His main research interests cover big data and wisdom education. E-mail:yyzhi@mail.cdtu.edu.cn