謝 偉 陶亞平 高 潔 周東波 王 溦
基于YOWO的課堂學習行為實時識別*
謝 偉1,2陶亞平1,2高 潔3[通訊作者]周東波4王 溦1,2
(1.華中師范大學 人工智能與智慧學習湖北省重點實驗室,湖北武漢 430079;2.華中師范大學 計算機學院,湖北武漢 430079;3.華中師范大學 信息管理學院,湖北武漢 430079;4.華中師范大學 人工智能教育學部,湖北武漢 430079)
當前,課堂學習行為研究一般僅針對單幀圖像分析學生的行為,而忽視了行為的連續(xù)性,無法利用視頻信息準確刻畫學生的課堂學習行為。為了解決這一問題,文章實時識別真實課堂環(huán)境中學生的學習行為,首先采集某重點大學多個真實課堂教學中的授課視頻,歸納出7種典型的課堂行為;隨后,將行為識別中的YOWO模型遷移至課堂學生的學習行為識別場景中;最后,通過與基于圖片數(shù)據(jù)集的VGG16網(wǎng)絡模型、基于視頻數(shù)據(jù)集的YOLO-V2網(wǎng)絡模型進行實驗對比,驗證了YOWO模型對課堂視頻中的學生學習行為具有較高的行為識別準確率。上述研究表明,使用YOWO模型識別課堂中典型的學生行為,可以促進教師及時了解學生的學習狀態(tài),進而優(yōu)化教學過程,并能為課堂教學的過程化評價提供依據(jù)。
學習行為;行為識別;視頻分析;深度學習;YOWO模型
人工智能助推教育信息化不斷發(fā)展,科大訊飛輪值總裁吳曉如曾說:“人工智能將教學變?yōu)榇髷?shù)據(jù)分析以及人工智能輔助的以學生為中心的個性化學習,為每個學生提供個性化、定制化的學習內(nèi)容和方法,從而激發(fā)學生深層次的學習欲望。而且,在教育資源均衡化方面,人工智能也可以發(fā)揮很大的作用,可以有效解決以前遠程教學中師生不能進行有效互動和教師不了解學情的問題?!盵1]在此背景下,智慧教室開始逐漸被廣泛應用。課堂教學視頻中包含豐富的教學信息,故可利用智慧教室中的攝像頭獲取完整的授課視頻信息。以往的分析課堂教學信息大多來源于相關(guān)專業(yè)人員觀察錄制的授課視頻和手動記錄相應的學生表現(xiàn),這種方式的效率較低。因此,如何有效、實時地自動識別授課視頻中學生的課堂動作信息,進而分析其學習行為,最終改善教與學的互動關(guān)系,是當前教育中亟待解決的問題。然而,目前的學生課堂行為識別研究大多基于單幀圖像識別學生行為,忽略了行為的時序性。YOWO(You Only Watch One)網(wǎng)絡模型可以利用學生行為的時序特征[2],自動實時地識別學生課堂行為,并通過檢測框觀察學生所在的空間位置。因此,本研究基于YOWO網(wǎng)絡模型,通過檢測視頻中學生行為的時序性識別學生課堂行為,一方面讓教師了解學情,及時改進教學方法,優(yōu)化教學過程;另一方面便于學生及時做出調(diào)整,提高學習效率,最終改善教與學的互動關(guān)系,助力智慧課堂的發(fā)展。
在以往的教學過程中,教師大多通過弗蘭德斯互動分析系統(tǒng)(Flanders Interaction Analysis System,F(xiàn)IAS)[3]、基于信息技術(shù)的交互分析系統(tǒng)(improved Flanders Interaction Analysis System,iTIAS)[4]等方法分析學生的課堂行為,但是這些方法屬于人工分析的范疇,耗時耗力,無法實現(xiàn)持續(xù)、大規(guī)模的測量。因此,一些學者針對如何自動化捕捉學生在課堂上的動作信息進而分析其學習行為展開了研究。如在國外,Zhang等[5]將YOLO算法應用于學生面部運動檢測,預測學生是否參與課堂,在所構(gòu)建的四個視頻數(shù)據(jù)集中檢測臉部后,成功識別出打哈欠、笑、閉眼、向左看、向右看五種常見面部運動,識別準確率最高達到95.46%。在國內(nèi),蔣沁沂等[6]基于殘差網(wǎng)絡,利用構(gòu)建的課堂學習行為數(shù)據(jù)集,成功識別出上課、玩手機、記筆記、東張西望、看書、睡覺六種常見課堂行為,其平均識別率達到了91.91%;魏艷濤等[7]通過對VGG16網(wǎng)絡進行遷移學習,利用構(gòu)建的課堂學習行為數(shù)據(jù)集,識別出聽課、看書、書寫、站立、舉手、睡覺、左顧右盼七種行為,其準確率為93.33%;何秀玲等[8]基于人體骨架模型,利用構(gòu)建的課堂學習行為數(shù)據(jù)集,成功識別出東張西望、舉手、聽課、閱讀、睡覺、起立、書寫七種常見課堂學習行為,其平均識別率達到了97.92%;徐家臻等[9]基于人體骨架模型,利用構(gòu)建的課堂學習行為數(shù)據(jù)集,成功識別出聽講、看書、站立、舉手、寫字五種常見課堂學習行為,并分別探討了這些學習行為在GBDT模型、XGBoost模型、卷積神經(jīng)網(wǎng)絡中的VGG16和ResNet50、Inception-V3網(wǎng)絡模型下的準確率,其中XGBoost模型的識別準確率最高,其平均準確率為85.49%。前文提到的研究者構(gòu)建的課堂學習行為數(shù)據(jù)集都是圖片數(shù)據(jù)集,但是圖片數(shù)據(jù)集無法準確刻畫學生的課堂行為,因此一些研究者從視頻角度研究學生的課堂行為。例如,劉新運等[10]基于YOLO網(wǎng)絡檢測課堂學習行為,平均精準度為40.7%;譚斌等[11]通過Fast R-CNN網(wǎng)絡檢測課堂視頻中學生的玩手機、睡覺、學習三種行為,平均精準度為54.6%;廖鵬等[12]用背景差分的方法提取目標區(qū)域數(shù)據(jù),并將數(shù)據(jù)輸入VGG網(wǎng)絡模型中,成功識別出睡覺、玩手機、聽講三種常見的課堂行為,其平均識別率達到了85.28%。以上根據(jù)視頻數(shù)據(jù)集分析學生課堂學習行為的研究成果雖然成功識別了學生的課堂行為,但依然都是針對單幀圖像分析學生的學習行為,而忽略了視頻中行為的時序性,沒有利用行為的時序性準確刻畫學生的課堂學習行為。
總的來說,目前課堂學習行為識別研究存在兩個難點:①很難獲取課堂中的學生學習行為數(shù)據(jù),而在公開的行為識別數(shù)據(jù)集中恰好缺乏該類數(shù)據(jù),在此需要研究人員專門采集課堂視頻數(shù)據(jù),并對視頻依次進行篩選劃分、視頻分割和標注,這是一個十分耗時的工作;②學者研究的課堂學習行為識別,大部分是基于檢測,僅關(guān)注空間信息(只考慮單幀圖像就判斷其行為屬于某一類別),沒有充分考慮學習行為具有時序性(很多行為由連續(xù)的多幀圖像共同組成),不能很好地識別、分析學習行為。當然,空間信息可以識別部分課堂行為,如睡覺行為是學生趴在桌子上,全程不動或者身體變化幅度較小,對此研究人員只需考慮空間信息,因為單幀圖像可以較好地描述該行為。但是,大部分行為不能僅依賴單幀圖像進行描述,如學生從坐著到站立、從站立到坐下這兩個行為在時間順序上呈負相關(guān),如果只考慮空間信息而忽略時序性,那么檢測結(jié)果就是一個行為;可從時序角度考慮,這是兩個截然相反的行為。為此,在進行課堂行為識別時,研究人員需要更多地考慮連續(xù)多幀圖像,而不僅僅是單幀圖像。本研究著重從視頻數(shù)據(jù)集出發(fā),應用結(jié)合行為時序性的YOWO網(wǎng)絡模型來識別學生的課堂行為,且使用3D-CNN提取學生學習行為的時序特征、使用2D-CNN提取學生學習行為的空間特征,同時采用注意力機制融合時空特征,由邊框盒回歸輸出所屬類別、置信度和空間坐標信息。
YOWO模型由德國慕尼黑工業(yè)大學人機通信研究所提出,是目前流行的行為識別網(wǎng)絡模型之一。對比雙流[13]、多流[14][15]等行為識別網(wǎng)絡模型,YOWO模型能較好地通過檢測框觀察目標的所在空間位置;對比光流模型[16],YOWO模型改用3D卷積提取時序特征,極大地減少了額外計算費用,且可以達到實時識別的效果。YOWO模型主要由2D-CNN分支、3D-CNN分支、通道融合、邊框盒回歸四部分組成,如圖1所示。YOWO模型首先同時使用2D-CNN和3D-CNN提取時空特征,隨后使用自注意力機制將所提取的時空特征進行通道融合,最后由邊框盒回歸并輸出分類結(jié)果。
圖1 YOWO模型的網(wǎng)絡結(jié)構(gòu)圖
圖2 基于YOWO模型的學生課堂行為識別流程
本研究采用2D-CNN分支提取空間特征時,通過Darknet-19網(wǎng)絡模型分析學生行為的空間信息,并加強空間信息特征。在整個學習過程中,Darknet-19網(wǎng)絡模型多次使用3×3、1×1兩個濾波器,輸入的初始特征大小為C×H×W(C表示通道數(shù),這里為3;H、W分別為幀圖像的高、寬,這里分別為224、224),通過由32、64、128、256、512、1024、425組成的多個卷積模塊來提取特征,中間嵌有最大池化層、歸一化操作BN與激活函數(shù)LeakyReLU。其中,最大池化層用來減少中間數(shù)據(jù)的空間信息;歸一化操作BN可以減輕訓練模型對參數(shù)初始化的依賴,提升訓練速度,從而允許使用學習率較高的訓練模型,并在一定程度上增加訓練模型的泛化能力;在反向傳播過程中,輸入小于零的部分,激活函數(shù)LeakyReLU可以通過計算得到梯度a,如公式(1)所示。在本次實驗中,a取值為0.1。
這里之所以采用3D-CNN分支,是因為視頻流中行為的前后幀信息對該行為的識別具有關(guān)鍵作用。該分支通過3D-ResNext-101網(wǎng)絡模型,在空間和時序上同時提取學習行為特征,從而加強對行為的捕獲,用以分析學生行為的時序信息。在整個學習過程中,3D-ResNext-101多次使用7×7×7、1×1×1、3×3×3三個濾波器,輸入的初始特征大小為C×T×H×W(C、H、W的含義與數(shù)值與在Darknet-19網(wǎng)絡模型中相同;T表示連續(xù)的幀數(shù),這里為16),通過由64、128、256、512、1024、2048組成的多個卷積模塊來提取特征,中間嵌有最大池化層、歸一化操作BN與激活函數(shù)ReLU。其中,最大池化層與歸一化操作BN的作用與在Darknet-19網(wǎng)絡模型中相似。激活函數(shù)ReLU在計算過程中收斂速度快、計算梯度時求解簡單,如公式(2)所示。
本研究中的通道融合采用自注意力機制突出前后幀之間的關(guān)系,增強了特征的可分辨性。邊框盒回歸是參考YOLO的思想,在最后一層使用1×1卷積核產(chǎn)生目標通道數(shù)。最后,輸出學生的坐標框信息、所屬行為類別和置信度。
本研究擬基于YOWO模型識別學生在課堂中的行為,其流程如圖2所示,具體包括:①采集學生的學習行為數(shù)據(jù),即利用智慧課堂中前、后七個攝像頭,采集學生的實際課堂學習行為視頻。②數(shù)據(jù)預處理。首先,進行數(shù)據(jù)篩選與視頻分割,根據(jù)采集的課堂學習行為視頻,將包含要研究的部分學習行為分割成短視頻;然后,進行數(shù)據(jù)標注,將短視頻轉(zhuǎn)化成連續(xù)多幀的圖像,對幀圖像中的學習行為進行標注,并劃分訓練集、驗證集和測試集。③加載COCO數(shù)據(jù)集上預訓練的Darknet-19模型參數(shù)和Kinetics數(shù)據(jù)集上3D-ResNext-101模型參數(shù),利用訓練樣本精調(diào)YOWO模型。④將測試樣本輸入精調(diào)后的YOWO模型中,輸出測試的識別結(jié)果。
為了驗證YOWO模型對學生課堂行為識別的有效性,本研究分別使用YOWO模型、基于圖片數(shù)據(jù)集的VGG16網(wǎng)絡模型(基于相關(guān)經(jīng)典深度學習,方法類似)、基于視頻數(shù)據(jù)集的YOLO-V2網(wǎng)絡模型(識別速度更快,可以達到實時檢測效果),在學生課堂行為視頻數(shù)據(jù)集上進行實驗對比。
由于目前國內(nèi)沒有公開的學生課堂行為數(shù)據(jù)集,故本研究以2020~2021年湖北省武漢市某重點大學真實課堂教學環(huán)節(jié)中的授課視頻為原始數(shù)據(jù),通過分析學生的課堂行為特點,歸納出7種具有代表性的學生課堂行為(即書寫、站立、睡覺、聽講、翻書、玩手機、左顧右盼),構(gòu)建相應的學生課堂行為視頻數(shù)據(jù)集,每種行為的說明如表1所示。學習行為中的書寫、站立、聽講、翻書表示學生上課的積極行為,而睡覺、玩手機、左顧右盼表示學生上課的消極行為,以比較全面地反映學生在課堂中的學習狀態(tài)。
表1 學生課堂學習行為說明
本研究采集的原始數(shù)據(jù)是約6000分鐘的上課視頻,其中包含2門必修課、4門選修課,共計60個課堂場景。每個課堂場景為兩節(jié)課,共計時90~100分鐘。本研究采集的真實課堂場景是設(shè)有七個攝像頭的智慧課堂,攝像頭分布在教室的前、后(教室前方有4個、后方有3個),如圖3所示。由于實驗需要識別學生的課堂行為,因此實驗數(shù)據(jù)均為上課學生的正面信息,但是會存在學習行為部分遮擋的特點,如圖3(c)所示。
(a)書寫(b)站立(c)睡覺(d)聽課 (e)翻書(f)玩手機(g)左顧右盼
本研究對采集的視頻依次進行了以下處理:①篩選與裁剪分割。首先,對采集的全過程長視頻進行篩選;隨后,選取視頻中包含七大典型課堂行為的時間段,將其裁剪分割為單個320×240的短視頻。②數(shù)據(jù)標注。根據(jù)篩選出的短視頻,按照每秒30幀進行分割,生成jpg格式的幀圖像,共計得到約75400張幀圖像;然后,對所得的幀圖像按照七個類別進行行為標注,標注框為矩形框,部分標注幀圖像如圖3所示,即每張幀圖片用矩形框標注學生所在空間信息,矩形的左上角標注為該學生的行為類別,其中writing表示書寫、stand表示站立、sleeping表示睡覺、attend_a_lecture表示聽課、open_the_book表示翻書、playing_phone表示玩手機、glance_right_and_left表示左顧右盼。最后,導出的數(shù)據(jù)標簽文件以json文件進行保存,數(shù)據(jù)標簽文件由圖像文件信息、標注框坐標信息和所對應的標簽組成。
①硬件環(huán)境配置:本次實驗的主要設(shè)備配置為GeForce RTX 3080(GPU)10G顯存和i9-10920X(CPU)。②軟件環(huán)境配置:本次實驗所用的編程語言為Python,使用的框架為PyTorch。
本實驗的具體步驟為:①錄制學生在真實課堂中的學習行為視頻,采集學生的課堂行為視頻。②將采集的視頻長、寬統(tǒng)一裁剪為320px×240px,每秒鐘按照30幀均勻劃分生成jpg格式的圖像幀并進行標注。③加載COCO數(shù)據(jù)集上訓練的Darknet-19模型參數(shù)作為2D分支的預訓練模型,Kinetics數(shù)據(jù)集上訓練的3D-ResNext-101模型參數(shù)作為3D分支的預訓練模型。④將已標注的實驗數(shù)據(jù)隨機分割成訓練集、驗證集和測試集,比例近似為3:1:1 ;將其中的訓練集和驗證集輸入YOWO模型進行精調(diào),其中使用具有動量和權(quán)值衰減策略的小批量隨機梯度下降算法優(yōu)化損失函數(shù)。⑤將測試集輸入已訓練好的YOWO模型,評估其算法性能。本研究以行為的分類準確率為評價標準,同時也能獲得該類別的置信度及其目標學生的坐標信息。
在相同的實驗環(huán)境和超參數(shù)情況下,本研究分別對比YOWO模型、基于圖片數(shù)據(jù)集的VGG16網(wǎng)絡模型、基于視頻數(shù)據(jù)集的YOLO-V2網(wǎng)絡模型在學生課堂行為視頻數(shù)據(jù)集上的準確率,實驗結(jié)果如表2所示。
表2 不同網(wǎng)絡模型下學習行為結(jié)果的準確率對比
圖4 課堂中某一時刻學生行為的實時識別
由表2的實驗結(jié)果可知,站立行為是從坐到站的一個連續(xù)性過程,而VGG16、YOLO-V2忽略了學習行為的時序性,不能準確識別學生的課堂行為,因此在該性能上表現(xiàn)不佳;在實際的采集過程中,左顧右盼行為不可能持續(xù)發(fā)生,當學生的頭部偏轉(zhuǎn)到一定角度時,其角度不再會發(fā)生移動,所以較為復雜的YOLO-V2網(wǎng)絡模型的性能會高于VGG16網(wǎng)絡模型、低于YOWO模型??偟膩碚f,VGG16網(wǎng)絡模型適用于原作者構(gòu)建的、標準簡單的學生行為圖片數(shù)據(jù)集,而不太適用于較為復雜的場景;YOLO-V2網(wǎng)絡模型雖然基于視頻數(shù)據(jù)集檢測,但該模型主要分析單張幀圖片,沒有很好地利用視頻相鄰幀之間的時序性,故總體性能不佳;本研究遷移的YOWO模型充分利用了視頻相鄰幀之間的時序性,該模型識別七個學習行為的平均準確率為91.1%,適用于分析較為復雜的真實課堂場景,尤其適用于識別具有明顯時序性的左顧右盼與站立兩個學習行為。但考慮到Y(jié)OWO模型不能同時準確識別一個視頻中多個學生的行為,在實際應用過程中可以將視頻中多個學生的視頻先分割成單人視頻后再進行識別。圖4為課堂中某一時刻學生行為的實時識別,可以看出:分割成單人視頻后再進行識別的YOWO模型可有效排除學生課上的著裝、小部分遮擋、教室背景等無關(guān)因素的影響,成功識別出玩手機6人、睡覺3人、翻書1人,說明該時間段的學生大部分脫離學習狀態(tài),由此可以推斷該時間段為休息時間;而根據(jù)當時上課教師的反饋,該時間段的確屬于休息時間。可見,可以采用YOWO模型自動識別學生的課堂學習行為。
本研究基于YOWO模型實時識別學生的課堂行為,不僅考慮了行為的時序性,而且能在自主構(gòu)建的學生課堂行為數(shù)據(jù)中識別七種學生典型的課堂行為。此外,通過對比其他課堂學生行為識別論文中的相關(guān)算法,本研究驗證了YOWO模型對于課堂這一場景下學習行為識別的有效性:其平均識別準確率達到了91.1%,同時在真實課堂場景下學生課上的著裝、小部分遮擋、教室背景等無關(guān)因素的干擾下,依然有較好的識別效果。在實踐中,通過YOWO模型自動實時識別某一時刻單個學生的典型課堂學習行為,并分析其在該時刻的學習專注度,進而統(tǒng)計整個課堂學生在該時刻的學習專注度,教師便可以及時了解學生學習的整體情況,這為進一步改善課堂教學策略提供了參考依據(jù),有助于提高課堂教與學的效率。后續(xù)研究可以擴大數(shù)據(jù)的多樣性,如豐富學生的學習行為種類、增加同一行為的不同學生數(shù)量,以進一步提高識別的準確率;也可以修改相應的算法來研究學生的課堂學習行為,以更好地推動自動化實時分析課堂教學信息,進而優(yōu)化課堂教學策略。
[1]中國教育報.人工智能來了,教育當未雨綢繆[OL].
[2]K?püklü O, Wei X, Rigoll G. You only watch once: A unified CNN architecture for real-time spatiotemporal action localization[OL].
[3]Flanders N A. Analyzing teacher behavior[M]. Massachusetts: Addison-Wesley, 1970:107.
[4]顧小清,王煒.支持教師專業(yè)發(fā)展的課堂分析技術(shù)新探索[J].中國電化教育,2004,(7):18-21.
[5]Zhang Y, Qiu C Z, Zhong N, et al. AI education based on evaluating concentration of students in class: Using machine vision to recognize students' classroom behavior[A]. 2021 The 5th International Conference on Video and Image Processing[C].NY: Association for Computing Machinery,2021:126-133.
[6]蔣沁沂,張譯文,譚思琪,等.基于殘差網(wǎng)絡的學生課堂行為識別[J].現(xiàn)代計算機,2019,(20):23-27.
[7]魏艷濤,秦道影,胡佳敏,等.基于深度學習的學生課堂行為識別[J].現(xiàn)代教育技術(shù),2019,(7):87-91.
[8]何秀玲,楊凡,陳增照,等.基于人體骨架和深度學習的學生課堂行為識別[J].現(xiàn)代教育技術(shù),2020,(11):105-112.
[9]徐家臻,鄧偉,魏艷濤.基于人體骨架信息提取的學生課堂行為自動識別[J].現(xiàn)代教育技術(shù),2020,(5):108-113.
[10]劉新運,葉時平,張登輝.改進的多目標回歸學生課堂行為檢測方法[J].計算機工程與設(shè)計,2020,(9):2684-2689.
[11]譚斌,楊書焓.基于Faster R-CNN的學生課堂行為檢測算法研究[J].現(xiàn)代計算機(專業(yè)版),2018,(33):45-47.
[12]廖鵬,劉宸銘,蘇航,等.基于深度學習的學生課堂異常行為檢測與分析系統(tǒng)[J].電子世界,2018,(8):97-98.
[13]Simonyan K, Zisserman A. Two-stream convolutional networks for action recognition in videos[A]. Proceedings of the 27th International Conference on Neural Information Processing Systems[C]. Cambridge: MIT Press, 2014:568-576.
[14]Tu Z, Xie W, Qin Q, et al. Multi-stream CNN: Learning representations based on human-related regions for action recognition[J]. Pattern Recognition, 2018,79:32-43.
[15]Tu Z, Xie W, Dauwels J, et al. Semantic cues enhanced multimodality multistream CNN for action recognition[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2019,(5):1423-1437.
[16]Tu Z, Xie W, Zhang D, et al. A survey of variational and CNN-based optical flow techniques[J]. Signal Processing-Image Communication, 2019,72:9-24.
YOWO Based Real-time Recognition of Classroom Learning Behaviors
XIE Wei1,2TAO Ya-ping1,2GAO Jie3[Corresponding Author]ZHOU Dong-bo4WANG Wei1,2
At present, classroom learning behavior generally only analyzes students’ behavior in single-frame images, but ignores the continuity of behavior, and cannot accurately describe students’ classroom learning behaviors using video information. In order to solve this problem, this paper identified students’ learning behaviors in a real environment in real time. Firstly, lecture videos from multiple real classroom teaching in a key university were collected, and further 7 typical classroom behaviors were summarized. Subsequently, the YOWO (You Only Watch One) network model in behavior recognition was transferred to the scene of classroom students’ learning behavior recognition. Finally, through experimental comparison with the VGG-16 network model based on the picture dataset and the YOLO-V2 network model based on the video dataset, it was verified that the YOWO network model had a high behavior recognition accuracy rate for students’ learning behaviors in classroom videos. The above research showed that using the YOWO model to identify typical students’ behaviors in classrooms could not only help teachers to understand students’ learning status in a timely manner, further optimize the teaching process, but also provide a basis for the procedural evaluation of classroom teaching.
learning behavior; behavior recognition; video analysis; deep learning; YOWO model
G40-057
A
1009—8097(2022)06—0107—08
10.3969/j.issn.1009-8097.2022.06.012
本文受“信息化與基礎(chǔ)教育均衡發(fā)展省部共建協(xié)同創(chuàng)新”中心重點項目“基于視頻分析的鄉(xiāng)村學?!畬_f課堂’學生注意力獲取與績效關(guān)系建模研究”(項目編號:xtzd2021-004)、科技創(chuàng)新2030新一代人工智能重大項目“混合增強在線教育關(guān)鍵技術(shù)與系統(tǒng)研究”(項目編號:2020AAA0108804)、中央高校基本科研業(yè)務費項目“基于視頻人體動作識別的課堂學習行為建模與分析”(項目編號:CCNU20TS028)、華中師范大學教學改革研究項目“基于課堂學習行為分析與統(tǒng)計的教學方法優(yōu)化研究”(項目編號:202013)資助。
謝偉,教授,博士,研究方向為人工智能及其教育應用,郵箱為xw@ccnu.edu.cn。
2021年10月22日
編輯:小時