奧拉夫·扎瓦克奇-里克特 維多利亞·艾琳·馬林
【摘要】
多種國際報告顯示教育人工智能是當前教育技術新興領域之一。雖然教育人工智能已有約三十年的歷史,但是目前教育工作者仍然不清楚如何更大規(guī)模地發(fā)揮其在教學上的優(yōu)勢,也不清楚現(xiàn)實中它可能以何種方式對高等教育教與學產生有意義的影響。本文旨在通過系統(tǒng)綜述呈現(xiàn)人工智能在高等教育的應用研究概況。本研究最初檢索到2007—2018年間發(fā)表的2,656篇論文,根據(jù)明確的收錄和排除標準,最后采用146篇論文作為綜合分析的文獻。描述性結果顯示,此類論文多數(shù)涉及計算機科學、科學、技術、工程和數(shù)學(STEM)學科,定量研究方法是實證研究最常用的方法。對研究結果進行綜合分析顯示,教育人工智能在學習支持服務和教學以及行政管理服務方面的應用可以歸為四類:①特征分析和預測;②考核和評價;③自適應系統(tǒng)和個性化;④智能輔導系統(tǒng)。文章最后還對以下問題進行反思:對教育人工智能帶來的挑戰(zhàn)和風險幾乎不見批判性反思、與教學理論聯(lián)系不密切。必須進一步探索符合道德規(guī)范和教育規(guī)律的高等教育人工智能應用。
【關鍵詞】? 人工智能;高等教育;機器學習;智能輔導系統(tǒng);綜述
【中圖分類號】? ?G420? ? ? ? ?【文獻標識碼】? B? ? ? ?【文章編號】? 1009-458x(2020)6-0001-21
導讀:多年來,人工智能(artificial intelligence, AI)在促進教育教學質量提升方面被寄予厚望,國內外的研究大有日漸升溫之勢,如同其他教育技術一樣,AI也博足眼球,引發(fā)人們的豐富遐思。從現(xiàn)有研究成果看,中國是教育AI研究大國之一,發(fā)展教育AI儼然已經被提升到國家教育戰(zhàn)略高度。①②2019年由中國政府和聯(lián)合國教科文組織合作舉辦的“國際人工智能與教育大會”更是彰顯了中國作為教育AI大國的地位,國家最高領導人給大會發(fā)來賀信,充分肯定AI對教育發(fā)展的促進作用。
在這個大背景下,全面系統(tǒng)地回顧教育AI的研究成果,客觀認識現(xiàn)階段AI在教育領域的應用情況,了解面臨的困難和挑戰(zhàn),明確進一步發(fā)展的方向,應該是一件很有意義的事情。正是基于這種考慮,德國奧爾登堡大學(University of Oldenburg)的奧拉夫·扎瓦克奇-里克特(Olaf Zawacki-Richter)教授與其同事對2007—2018年間在同行評審期刊發(fā)表并被EBSCO Education Source、Web of Science和Scopus三家國際知名數(shù)據(jù)庫索引、聚焦AI在高等教育的應用并以英語和西班牙語發(fā)表的146篇高質量研究論文進行深度內容分析①,以回答以下三個問題:
1.高等教育AI研究成果的發(fā)表呈現(xiàn)何種趨勢?這些成果發(fā)表在哪些期刊?作者的地理分布和學科背景有何特點?
2.研究者如何理解教育AI?他們認為教育AI有可能產生哪些道德上的影響、挑戰(zhàn)和風險?
3.高等教育AI應用的本質和范圍是什么?
鑒于AI是一個跨學科的研究領域,學界對其“定義和理解尚未達成共識”。文章首先梳理了有關定義以及AI在高等教育的應用可能涉及哪些內容和方法??紤]到短期內尚不可能出現(xiàn)“能夠思考,甚至有意識,而不僅僅是模仿(人類)思維、做出理性行動”的AI,即強式或廣義AI,本研究關注的是“好像真的具有智能一樣”的弱式或狹義AI。文章接著闡述本綜述所采用的研究方法,包括文獻檢索方法、樣本收錄標準、編碼者間信度,以及編碼、數(shù)據(jù)提取和分析過程,也指出本研究的局限。
針對第一個研究問題的分析結果顯示,發(fā)文量隨著時間的推移呈現(xiàn)上升趨勢,近年尤為明顯,而刊載此類研究成果的期刊較為分散(146篇論文發(fā)表于104家期刊)。發(fā)文量較多的3家期刊是《國際AIEd期刊》(International Journal of Artificial Intelligence in Education)(n=11)、《計算機與教育》(Computers & Education)(n=8)和《國際新興學習技術期刊》(International Journal of Emerging Technologies in Learning)(n=5)。一半研究成果來自美國、中國和土耳其。第一作者主要來自計算機科學院系(42%)和STEM院系(20%),僅有8.9%來自教育學院系。定量研究方法是實證研究最常用的方法(73.3%),僅有1篇質性研究,8篇采用混合式研究方法,其余(20.5%)為理論性或描述性研究。
針對第二個問題的分析結果顯示,學界對AI的理解似乎較為模糊,僅有5篇論文給出清晰定義。有2篇對挑戰(zhàn)和風險進行批判性反思,主要涉及個人隱私和機構所需投入的經費和時間兩個方面。
針對第三個研究問題的分析結果顯示,AI在高等教育的應用集中在學習支持服務和教學以及行政管理服務上,可歸為4大類17子類(有些論文出現(xiàn)跨類情況):①特征分析和預測(錄取決定和課程安排;輟學和保留;學生模型和學業(yè)成績)(40%);②考核和評價(自動評分;反饋;評價學生的理解、投入和學術誠信;評價教學)(15%);③自適應系統(tǒng)和個性化(教授課程內容;推薦個性化內容;支持教師教學設計;使用學習數(shù)據(jù)監(jiān)控和指導學生;用概念圖表征知識)(18%);④智能輔導系統(tǒng)(教授課程內容;診斷學生的知識強項或缺陷并提供自動反饋;根據(jù)學生需要提供學習材料;促進協(xié)作;教師其他方面的職能)(20%)。這篇綜述詳細介紹了各(子)類研究的內容。
從總體看,AI在高等教育具有廣闊的應用前景,但是由于缺乏縱向研究,且以定量研究方法為主,研究結果對教育教學創(chuàng)新的促進作用與預期仍有一段很長距離。這其實是教育技術領域的通?。ㄒ姟敖Y論”的相關文獻)。本綜述還發(fā)現(xiàn):
1. 對教育AI在教學和倫理道德上可能帶來的挑戰(zhàn)和風險幾乎不見批判性反思。換言之,今后的研究應該更多關注“在教學、倫理道德、社會、文化和經濟等方面的意義”,不能囿于AI的技術能供性層面,尤其要“重新關注學習和教學法問題,也不應該忽視數(shù)字技術應用于教育所涉及的人的因素”。
2. 與教學理論聯(lián)系不密切。鑒于作者的學科背景(僅有8.9%來自教育學院系),缺乏教育視角不足為奇。這同樣是教育技術研究領域的通病(見“結論”的相關文獻)。當今技術決定論在教育教學實踐中依然大行其道,而與之呼應的是技術決定論思潮在教育教學研究中呈愈演愈烈之勢。澳大利亞莫納什大學(Monash University)賽爾溫教授是學界公認對教育技術秉承理性態(tài)度的學者,他的“苦口良藥”值得我們高度重視,他指出:“危險在于把數(shù)據(jù)和編碼看成提供指導和支持的權威而非相對的依據(jù)。教育如此復雜,遠非可以僅被簡化為數(shù)據(jù)分析和算法。如同數(shù)字技術一樣,數(shù)字化數(shù)據(jù)不能提供解決教育窘況的技術良方,不管分析結果可能顯得有多么大的說服力?!雹?/p>
作者最后呼吁“必須進一步探索符合道德規(guī)范和教育規(guī)律的高等教育AI應用”。的確,誠如托尼·貝茨(Tony Bates)所言②,AI在金融、醫(yī)療和市場營銷等領域的成功應用經驗和模式在教育領域不見得同樣可行,把AI視為解決教育問題的靈丹妙藥實屬炒作行為。他認為應該從以下幾個方面檢驗AI對教與學的促進作用:
1.某一款技術應用是否具備“現(xiàn)代”AI的三個特征:大型數(shù)據(jù)集、大型計算能力和強大而又恰當?shù)乃惴??與其他媒體技術(特別是普通計算機應用)相比,它是否有明顯的優(yōu)勢?是否促進了數(shù)字時代所需的技能和知識的培養(yǎng)?
2.是否無意中把某些偏見嵌入所采用的算法中?是否歧視某些群體?
3.是否違背倫理道德規(guī)范侵犯學生和教師的隱私以及他們在開放和民主的社會所擁有的權利?
4.結果是否“可以解釋清楚”?比如,教師或其他相關人士是否明白為何這款AI應用得出這些結果或做出這些決定并能向學生解釋清楚?
貝茨認為從扎瓦克奇-里克特教授等的綜述以及其他文獻看,目前教育AI在很大程度上講還不能滿足上述四個方面的要求。比如,很多AI輔導系統(tǒng)和自適應學習系統(tǒng)充其量只是普通計算機應用程序,很多應用于教與學的AI系統(tǒng)主要是為了呈現(xiàn)內容和檢測學生的理解和記憶,而非促進數(shù)字時代所需的技能和知識的培養(yǎng)。貝茨最后回到“自動化還是賦權”之問③。的確,如果我們發(fā)展教育AI的目的是通過實現(xiàn)教育教學“智能化/自動化”,減少對教師的需求(甚至是取代教師),從而達到降低教育成本的企圖,那么教育AI的研究方向和應用現(xiàn)狀難以有新突破。但是,如果目的是給教師和學生賦權,使AI能恰到好處地服務教育教學,那么主導AI在教育中應用的應該是教育工作者和學生,不是計算機科學家或高科技企業(yè)。更為重要的是,本綜述所總結的兩大問題——缺乏批判性反思和教育視角也能得以迎刃而解。
AI在教育領域是否“春常在”?我們拭目以待。
我在本綜述尚未定稿時就已經跟扎瓦克奇-里克特教授敲定其中文版在本刊“國際論壇”發(fā)表。衷心感謝他長期以來對我們的支持和信任!
一、引言
過去幾年,人工智能(Artificial Intelligence, AI)在教育的應用日漸升溫,廣為學界關注。2018年《地平線報告》把AI和自適應學習技術列為教育技術的重要發(fā)展(Educause, 2018),并預期兩三年內會被采用。根據(jù)該報告,專家預測2018—2022年教育AI增長43%,顯然2019年的《地平線報告》預計與教與學相關的AI應用的增長遠不止43%(Educause, 2019)?!昂翢o疑問,(AI)這種技術必定與高等教育的未來聯(lián)系在一起”(Contact North, 2018, p. 5)——這是加拿大一家主要非營利性在線學習機構的研究結論。私營公司在這個領域投入巨資(如Google花四億美元收購歐洲AI初創(chuàng)企業(yè)Deep Mind),加上非營利性公私合作伙伴機構的出現(xiàn)(如德國人工智能研究中心[Deutsches Forschungszentrum für Künstliche Intelligenz]④),人們目前對AI的興趣可能很快便會對高等教育機構產生重大影響(Popenici & Kerr, 2017)。比如,荷蘭的埃因霍溫科技大學(Eindhoven University of Technology)最近宣布將啟動一個AI系統(tǒng),并新增五十個AI教育和研究的教席。①
學界對教育人工智能(AI in education, AIEd)應用的研究已有約三十年歷史。國際教育人工智能學會(International AIEd Society)成立于1997年,該學會出版《國際AIEd期刊》(International Journal of Artificial Intelligence in Education),今年將舉辦第二十屆AIEd年度大會。然而,AI應用有可能在“學生在校學習生涯”(student life cycle)中向他們提供哪些學習機會——教育工作者剛剛開始研究這一類的問題。
雖然AI有可能提供很多支持教與學的機會,但是AI在高等教育的應用從道德層面講也帶來新問題和風險。比如,在財政緊縮的情況下,學校行政領導可能經不住誘惑采用有利可圖的自動化AI方案代替教師的教學。教師、教學助理、學生輔導員和行政人員可能會擔心智能導師、專家系統(tǒng)和聊天機器人將搶去他們的飯碗。AI有進一步提升學習分析能力的潛能,但是另一方面這些系統(tǒng)離不開大數(shù)據(jù),包括學生和教職員工的私密信息,這引起人們對隱私和數(shù)據(jù)保護的嚴重關切。最近成立的一些機構(如英國教育合乎道德規(guī)范人工智能研究院[Institute for Ethical AI in Education]②)旨在制定管理AIEd道德規(guī)范的框架,2019年4月《分析與政策觀察》(Analysis & Policy Observatory)發(fā)表了一篇有關澳大利亞制定AI道德框架的討論文章。③
羅素和諾維格(Russel & Norvig, 2010, p. 1020)告誡我們:“所有AI研究者都應該注意他們的工作可能會產生道德上的影響?!币虼?,針對AI教育應用可能帶來哪些道德層面的影響和風險,研究者對此有何反映呢?這也是我們想了解的問題。本文旨在對AI在高等教育的應用研究進行全面述評。近年來本領域發(fā)展迅速,教育工作者對AI越來越感興趣,因此這個綜述是非常必要的。
具體來說,本文希望通過系統(tǒng)文獻述評回答以下研究問題(參見:Gough, Oliver, & Thomas, 2017; Petticrew & Roberts, 2006):
①高等教育AI的成果發(fā)表是如何隨著時間推移發(fā)展的?這些成果發(fā)表在哪些期刊?作者的地理分布和學科背景有何特點?
②研究者如何理解AIEd?他們認為AIEd有可能產生哪些道德上的影響、挑戰(zhàn)和風險?
③AI應用于高等教育環(huán)境時其本質和范圍是什么?
AI源于計算機科學和工程學,但是在很大程度上受到其他學科的影響,如哲學、認知科學、神經科學和經濟學。由于AI領域的跨學科性,AI研究者對AI(乃至“智能”)的定義和理解尚未達成共識(Tegmark, 2018)。伊諾霍-盧塞納等(Hinojo-Lucena, Aznar-Díaz, & Cáceres-Reche, 2019)指出:“(AI)這種技術已經正在高等教育領域得到應用,雖然很多教師不知道其范圍,尤其是不清楚它包含哪些內容。”鑒于本研究的目的,我們應該澄清有關術語的含義。因此,我們擬在下一節(jié)梳理AIEd的各種定義以及AI在高等教育的應用可能涉及哪些內容和方法。
二、AIEd(教育人工智能)
AI的提出可以追溯到20世紀50年代,當時約翰·麥卡錫(John McCarthy)在美國達特茅斯學院(Dartmouth College)組織一次歷時兩個月的工作坊。他在組織這次工作坊的申請報告中第一次使用AI這個術語:“學習的每一個方面或智能的任何其他特征原則上都可以被精確描述,以便機器能對其進行模仿。(人工智能的)研究將在這種假設的基礎上進行。我們將試圖研究機器如何使用語言、進行抽象和形成概念以解決各種人類問題,并自我改進”(McCarthy, 1956, 轉引自 Russel & Norvig, 2010, p. 17)。
貝克和史密斯(Baker & Smith, 2019, p. 10)的AI定義更寬泛:“(AI用于描述)執(zhí)行通常與人腦相關,尤其是學習和解決問題之類的認知任務的計算機?!彼麄兘忉屨fAI不是指任何一種單獨的技術,而是一個統(tǒng)稱,用于描述各種技術和方法,比如機器學習、自然語言處理、數(shù)據(jù)挖掘、神經網(wǎng)絡或算法。
AI和機器學習經常同時出現(xiàn)在文獻中。機器學習是AI的一種方法,用于監(jiān)督和非監(jiān)督分類和特征分析,比如可用來預測某個學生輟學或被錄取的可能性,或者識別書面作業(yè)的主題。帕皮尼奇和科爾(Popenici & Kerr, 2017, p. 2)把機器學習定義為“AI領域的一個分支,包括能夠辨別模式、做出預測和把新發(fā)現(xiàn)的模式應用于非原先設計所涵蓋的情景的軟件。”
理性代理(rational agents)是AI的核心概念?!按砜梢员豢醋魇悄芡ㄟ^傳感器來感知周圍環(huán)境并通過執(zhí)行器對該環(huán)境采取行動的任何東西”(Russel & Norvig, 2010, p. 34)。真空清潔器機器人就是一種智能代理的簡單形式,但是如果我們講的是自動駕駛出租車,情況就變得非常復雜、充滿各種可能性了。
AI有強式和弱式(Russel & Norvig, 2010, p. 1020)或狹義和廣義之分(Baker & Smith, 2019, p. 10)。未來機器是否能夠思考,甚至有意識,而不僅僅是模仿(人類)思維、做出理性行動?這是一個哲學問題。短期內可能不會出現(xiàn)這種強式或廣義AI。因此,本文僅對“老式AI”(GOFAI,即good old-fashioned AI的縮略詞,是哲學家約翰·豪奇蘭德[John Haugeland]1985年創(chuàng)造的術語)在高等教育的應用研究文獻進行述評。換言之,這些代理和信息系統(tǒng)好像真的具有智能一樣。
“老式AI”可能在哪些方面應用于教育,尤其是高等教育?盧金等(Luckin, et al., 2016)把今天應用于教育領域的AI軟件分為三類:私人導師、協(xié)作學習智能支持系統(tǒng)和智能虛擬現(xiàn)實。
智能輔導系統(tǒng)(Intelligent tutoring systems, ITS)可用于模擬一對一私人輔導。它們能根據(jù)學習者模型、算法和神經網(wǎng)絡決定某個學習者的學習路徑和應該選擇什么內容,提供認知上的指導和幫助,與學生進行對話。ITS有巨大的應用潛能,尤其是對大型遠程教學機構而言,因為這些機構的課程報讀人數(shù)數(shù)以萬計,不可能提供一對一輔導。大量研究顯示學習是一項社會活動,學習的實質是交互和協(xié)作(比如,Jonassen, et al., 1995)。然而,在線協(xié)作離不開指導,必須有人主持此類活動(Salmon, 2000)。AIEd能夠根據(jù)學習者模型支持自適應分組,指導在線小組交互,或總結討論情況供教師用于指導學生朝著達成課程目標的方向努力,因此有助于促進協(xié)作學習。至于建立在ITS基礎上的智能虛擬現(xiàn)實,則可以用于吸引和指導學生參加增強現(xiàn)實和基于游戲的學習環(huán)境下的學習。比如,在虛擬或遠程實驗室,虛擬代理可以充當教師、學習指導者或學習伙伴(Perez, et al., 2017)。
隨著AIEd的發(fā)展和學生(大)數(shù)據(jù)以及學習分析已成為可能,盧金等(Luckin, et al., 2016, p. 35)主張“(學習)考核的復興”(renaissance in assessment)。AI能及時提供反饋和考核結果。我們不必要求學生暫停學習參加考核,而是可以把AIEd嵌入學習活動中,持續(xù)分析學生進步。算法則已經被用來預測某個學生不能完成作業(yè)或輟學的概率,而且準確率很高(比如:Bahadir, 2016)。
貝克和史密斯(Baker & Smith, 2019)從三個方面分析教育AI工具:①面向學生的AIEd;②面向教師的AIEd;③面向系統(tǒng)的AIEd。面向學生的AI工具指學生用于學習學科內容的軟件,如自適應或個性化學習管理系統(tǒng)或ITS。面向教師的系統(tǒng)則用于向教師提供支持服務,通過管理工作、考核、反饋和剽竊檢測等的自動化減輕教師工作量。AIEd工具還能提供學生學習進步情況分析,教師因此能夠未雨綢繆提供必要的支持服務和指導。面向系統(tǒng)的AIEd則能向學校行政管理人員和業(yè)務管理人員提供信息,比如監(jiān)控各學院的學生流失模式。
我們把高等教育的“學生在校學習生涯”(Reid, 1995)用作描述機構和行政管理層面以及支持教與學的各種基于AI的服務框架。
三、方法
綜述旨在通過使用清晰、系統(tǒng)和可復制的檢索方法,根據(jù)相關標準對檢索結果予以收錄或排除,以回答具體問題(Gough, Oliver, & Thomas, 2012)。然后對樣本進行數(shù)據(jù)編碼和提取,以便綜合分析研究發(fā)現(xiàn),揭示它們的實際應用情況,發(fā)現(xiàn)存在的不足或矛盾。本研究的樣本是146篇高等教育AI的論文。
(一)檢索方法
最初的檢索詞(見表1)和標準(見表2)包括以英語發(fā)表、同行評審的論文,這些論文涉及AI在各層次教育中的應用并且被三個國際數(shù)據(jù)庫索引:EBSCO Education Source、Web of Science和Scopus(標題、摘要和關鍵詞)。雖然學界對同行評審有些疑慮(比如:Smith,2006),本研究的樣本僅限于發(fā)表在同行評審期刊的論文。一般而言,這些期刊能贏得學界信任,遵循嚴格評審程序(Nicholas, et al., 2015)。文獻檢索于2018年11月進行,最初檢索到2,656篇文章。
剔除重復文章之后,我們決定把文章發(fā)表時間限于2007年或之后,因為這一年iPhone推出Siri。這是一款基于算法的個人助理,原先是美國國防高級研究計劃署(US Defense Advanced Research Projects Agency)資助的一個AI項目,后來轉變?yōu)橐患夜静⒈惶O果公司收購了。我們還決定把收錄范圍僅限于討論高等教育AI應用的文章。
(二)甄別和編碼者間信度
三位編碼者對1,549篇論文的標題和摘要進行甄別。這個階段的甄別要求編碼者具有敏感性而不是詳細分析,目的是決定哪些論文可以錄用。我們定期對第一批80篇論文是否符合收錄標準進行討論,以達成共識。我們隨機抽出20篇論文,評估三位編碼者(A、B和C)的編碼情況,并使用科恩 kappa(κ)系數(shù)檢查編碼者間信度(Cohen, 1960),了解不同評估者意見一致的程度(Neumann, 2007, p. 326)。Kappa值0.40~0.60、0.60~0.75和0.75以上分別被視為中、良和優(yōu)(Bakeman & Gottman, 1997; Fleiss, 1981)。編碼者A和B的編碼一致程度是κ=0.79,A和C是κ=0.89,B和C是κ=0.69(median=0.79)。因此,本研究的編碼者間信度達到“優(yōu)”等級。
經過最初的甄別之后,剩下332篇論文進行全文甄別(見圖1)。但是,其中有41篇論文無法檢索到全文,通過圖書館訂購系統(tǒng)和聯(lián)系作者均未果。因此,我們對其余291篇文章的全文進行甄別和編碼,進一步排除了145篇,最終剩下146篇。①
(三)編碼、數(shù)據(jù)提取和分析
所有文章被上載專門軟件EPPI Reviewer②以提取數(shù)據(jù),并制定編碼系統(tǒng)。編碼包括文章信息(發(fā)表年份、期刊名稱、作者國籍和第一作者學科背景)、研究設計和過程(實證或描述性、教育場景)和如何應用AI(學生在校學習生涯中的應用、具體的應用和方法)。此外,還對文章是否闡述AI的挑戰(zhàn)和益處以及是否對AI進行定義進行編碼。描述性數(shù)據(jù)分析在R-tidyr包統(tǒng)計軟件進行(Wickham & Grolemud, 2016)。
(四)局限
雖然本綜述方法嚴謹,但是任何綜述均受到其檢索方法的限制。我們選擇三個大型國際性教育研究數(shù)據(jù)庫,規(guī)定錄入文章必須是以英語或西班牙語發(fā)表并經同行評審,因此本綜述不包括其他語言的文章。同樣,會議論文、論文集論文、灰色文獻(grey literature)以及雖被上述三個數(shù)據(jù)庫索引但不是學術期刊論文等均被排除在外。此外,雖然我們把西班牙語同行評審作為錄入標準之一,但是檢索詞并不包含西班牙語,因此會影響對西班牙語文章的檢索。今后的研究可以考慮增加數(shù)據(jù)庫數(shù)量、出版/發(fā)表類型和語言等,以擴大述評范圍。但是,此時必須認真考慮所需的資源和實際操作上的難度。
四、結果
(一)期刊、作者和方法
1. 年發(fā)文量
從2007年起發(fā)文量顯著上升,2007年僅有6篇,到了2018年已經增加到23篇(見圖2)。
2. 發(fā)文期刊
146篇文章發(fā)表于104家期刊,發(fā)文最多的三家是《國際AIEd期刊》(International Journal of Artificial Intelligence in Education)(n=11)、《計算機與教育》(Computers & Education)(n=8)和《國際新興學習技術期刊》(International Journal of Emerging Technologies in Learning)(n=5)。表3列舉了2007—2018年至少發(fā)表兩篇AIEd論文的期刊。
3. 國家和地區(qū)分布
我們根據(jù)第一作者的國籍對他們的地理分布進行分析(n=38個國家和地區(qū))。表4顯示發(fā)文量至少兩篇的19個國家和地區(qū),另外,美國、中國(含臺灣地區(qū))和土耳其的發(fā)文量占全部樣本的50%。
4. 作者所屬部門
如同其他國家和地區(qū)分布一樣,我們僅分析第一作者的供職部門(見表5)。來自計算機科學院系的作者發(fā)文量最大(n=61),科學、技術、工程和數(shù)學(STEM)院系次之(n=29)。僅有9位第一作者來自教育學院系,有些作者同時供職于教育學和計算機科學院系(n=2)、教育學和心理學院系(n=1)或教育學和STEM院系(n=1)。
5. 方法
編碼結果顯示,30篇文章(20.5%)是理論性或描述性研究。大多數(shù)研究(73.3%)采用定量方法,僅有1篇(0.7%)是質性研究,8篇(5.5%)采用混合式方法。這項質性研究對英語為第二語言的學生進行訪談,目的是對自動作文評分系統(tǒng)和教師評分所提供的書面評語進行比較(Dikli, 2010)。很多研究采用準實驗方法,即把樣本分成實驗組(使用AI應用程序,如ITS)和控制組(常規(guī)教學),并進行前測和后測(比如:Adamson, Dyke, Jang, & Rosé, 2014)。
(二)對AI的理解和批判性反思挑戰(zhàn)與風險
146篇文章涉及不同類型和層次的AI,但是僅有5篇(3.4%)給出AI的清晰定義。這5篇文章指出AI的主要特點是AI與人腦的相似之處。作者們把AI理解為智能計算機系統(tǒng)或具有人類特點的智能代理,如能夠記憶知識、如同人一樣能夠感知和利用環(huán)境、能夠理解人類自然語言等(Huang, 2018; Lodhi, et al., 2018; Huang, 2018; Welham, 2008)。多迪格維克(Dodigovic, 2007)的AI定義是:“AI是一個用于指模仿智慧生物的機器的術語……AI是一個跨學科的知識和研究領域,旨在了解人腦的運作并在技術設計中應用人腦運作原理。在語言學習和教學中,AI可被用于模仿教師或學習者的行為?!倍嗟细窬S克是唯一一個來自藝術、人文與社會科學院系又對AI進行定義的作者,因此她把AI與第二語言學習的智能導師聯(lián)系在一起。
146篇論文中僅有2篇(1.4%)批判性反思AI應用于教育在道德層面的問題、挑戰(zhàn)和風險。比例之低令人難以置信。李(Li, 2007)在文章中表達了對智能代理支持下在線學習的隱私關切:“在開展基于代理的個性化教育時隱私也是一個重要關切。如上所述,代理能夠自動收集學生的很多個人信息,如學習風格和學習能力。事實上,個人信息是私有的。很多學生不想別人知道自己的隱私信息(如學習風格和學習能力)。學生可能會擔心教師出于特殊學習需要而根據(jù)學習表現(xiàn)區(qū)別對待學生。因此,必須先解決隱私問題,然后才采用基于代理的個性化教與學技術?!?/p>
韋勒姆(Welham, 2008)提到應用AI的另一個挑戰(zhàn),即很多公立學校無法承擔開發(fā)和引進基于AI方法所需的費用和時間。
(三)AI在高等教育的應用
如上所述,我們以學生在校學習生涯(Reid, 1995)這個概念為框架描述機構和行政管理層面各種基于AI的服務(如入學錄取、咨詢輔導、圖書館服務等)和教與學層面的學習支持服務(如考核、反饋和學習輔導等)。編碼結果顯示,92篇論文(63.0%)是圍繞學習支持服務的研究,48篇(32.8%)聚焦機構和行政管理服務研究,6篇(4.1%)涉及上述兩個領域服務的研究。大多數(shù)研究(n=91,62.3%)的對象是本科生,以研究生為研究對象的只有11篇論文(7.5%),另有44篇(30.1%)沒有說明研究對象的層次。
迭代編碼的結果表明,146篇論文涉及的AI應用可分為四個方面,共17個子類。這四個方面是:①特征分析和預測;②考核和評價;③自適應系統(tǒng)和個性化;④智能輔導系統(tǒng)(見表6)。
1. 特征分析和預測
很多AI應用以學習者模型和特征分析為基礎進行預測,如預測學生輟學或被某個專業(yè)錄取的概率,以便在學習過程中針對具體問題及時提供支持或反饋和指導。分類、建模和預測是教育數(shù)據(jù)挖掘不可或缺的一部分(Krishna, Kumar, & Sri, 2018)。
多數(shù)研究(55.2%,n=32)涉及機構和行政管理層面的問題,很多研究(36.2%,n=21)涉及課程的教與學,還有少數(shù)(8.6%,n=5)同時涉及這兩方面問題?!疤卣鞣治龊皖A測”類文章包括三個子類:錄取決定和課程安排(n=7)、輟學和保留(n=23)、學生模型和學業(yè)成績(n=27)。另有1篇是研究成本預測,對一所中國大學用于支持基于人工神經網(wǎng)絡的管理決策的成本進行預測(Ge & Xie, 2015)。
這一類全部58項研究均采用機器學習方法對模式進行識別和分類并對學生特征進行建模以實現(xiàn)預測。因此,它們都是定量研究。很多研究使用幾種機器學習算法(如ANN、SVM、RF、NB,見表7)①并將它們的總體預測準確度與常規(guī)的邏輯回歸進行比較。表7顯示所有研究均證明機器學習方法在分類準確度上優(yōu)于邏輯回歸。我們還可以使用F1分數(shù)評估分類器(classifiers)的表現(xiàn)(Umer, et al.,2017;關于診斷性準確率方法另見?imundi, 2009)。F1分數(shù)的值介于0~1之間,最佳值是1(最佳精確率和召回率)。一項根據(jù)在線討論參與情況預測學生小組項目表現(xiàn)的研究顯示,J48、NB和SVM的F1分數(shù)值很高,分別是0.848、0.911和0.914(Yoo & Kim, 2013)。
(1)錄取決定和課程安排
有研究指出:“準確預測學生的學業(yè)表現(xiàn)對做出錄取決定和提供更好的教育服務非常重要”(Chen & Do, 2014)。有四項研究旨在預測有意愿申請入學的人是否會被大學錄取。比如:阿昔克卡爾和阿凱(Acikkar & Akay, 2009)根據(jù)體能測試、全國入學考試成績和中學畢業(yè)的平均積分點(GPA)為土耳其一所體育和運動學校挑選候選人,他們使用SVM技術對學生進行分類并預測錄取決定,2006年的準確率是97.1%,2007年是90.51%。SVM也被安德里斯等(Andris, Cowen, & Wittenbach, 2013)用于研究可能偏向于來自美國某些地區(qū)申請入學者的空間模式(spatial patterns)。馮等(Feng, Zhou, & Liu, 2011)以中國25個省份的入學數(shù)據(jù)為訓練數(shù)據(jù),使用ANN模型預測其他省份的注冊率。機器學習方法和ANN也被用于預測學生選課行為以支持課程安排。凱丹等(Kardan, Sadeghi, Ghidary, & Sani, 2013)調查影響學生選課的因素,比如課程和教師特點、學習量、教學方式和考試時間,并建構一個模型,使用ANN預測兩個計算機工程和信息技術碩士專業(yè)的選課情況。凱丹等(Kardan & Sadeghi, 2013)的另一項研究是提出一個開課決策支持系統(tǒng)??偟目磥?,對錄取決定預測的準確率能夠達到很高水平,因此AI方案可以減輕行政管理人員的工作量,使他們能夠集中精力處理更難的問題。
(2)輟學和保留
這一類研究旨在開發(fā)早期預警系統(tǒng),以便能夠在學生入學第一年發(fā)現(xiàn)“危機”學生(比如:Alkhasawneh & Hargraves, 2014; Aluko, et al., 2016; Hoffait & Schyns, 2017; Howard, Meehan, & Parnell)或預測本科生的總體流失情況(比如:Oztekin, 2016; Raju & Schumacker, 2015)。德倫(Delen, 2011)收集美國一所大學過去八年25,224名新生的數(shù)據(jù),使用ANN、決策樹和邏輯回歸三種分類技術預測輟學情況。學生數(shù)據(jù)包括與他們的人口統(tǒng)計信息、學習情況和經濟情況相關的變量(如性別、年齡、民族、GPA、托福成績、財政資助、學生貸款等)。根據(jù)十折交叉驗證的結果,德倫發(fā)現(xiàn)ANN模型準確率最高(81.19%)(見表7),其結論是預測學生輟學的最重要因素是學生過去和現(xiàn)在的成績以及他們是否獲得財政支持。蘇塔娜等(Sultana, Khan, & Abbas, 2017)討論了工程學本科生的認知和非認知特征對預測其學習表現(xiàn)的影響。與其他很多研究相比,他們重點研究能提高預測準確率的非認知因素,即時間管理、自我概念、自我評價、領導力和社區(qū)支持。
(3)學生模型和學業(yè)成績
很多研究旨在分析學生特征并對他們的行為進行建模,以預測課程學習成績。侯賽因等(Hussain, et al., 2018)使用幾種機器學習算法分析來自英國開放大學虛擬學習環(huán)境的學生行為數(shù)據(jù),以便預測學生的學習投入。這對于一所大型遠程教學大學來講尤為重要,因為不可能組織絕大多數(shù)學生參加面授輔導。該研究旨在開發(fā)一個智能預測系統(tǒng),使教師能夠自動識別學習投入不足的學生并進行干預。斯皮科爾等(Spikol, Ruffaldi, Dabisias, & Cukurova, 2018)在工程學學生的工作坊上通過人臉和手勢跟蹤技術評估他們在基于項目的學習中的進步情況,他們的結論是多模態(tài)數(shù)據(jù)所產生的結果能使教師更好地了解基于項目學習活動的主要特征。布利克斯坦等(Blikstein, et al., 2014)根據(jù)學生在軟件開發(fā)項目創(chuàng)建的150,000份代碼記錄,研究他們學習計算機編程的模式,發(fā)現(xiàn)他們這個基于編程過程的模型比期中成績有更好的預測力。巴比奇(Babi, 2017)則是根據(jù)學生在在線學習環(huán)境的行為開發(fā)一個預測他們學習動力的模型。學生模型的研究是設計ITS和自適應學習環(huán)境的一個重要基礎。
2. ITS
研究ITS的29篇文章,除了1篇是針對機構和行政管理層面問題外,其余均是針對教與學層面的問題。針對機構和行政管理層面問題的這一項研究介紹了一款交互性智能學生助理StuA,能夠回答大學新生有關教師、考試、課外活動、圖書館服務等方面的問題(Lodhi, Mishra, Jain, & Bajaj, 2018)。
這些研究經常使用“智能(在線)導師”或“智能輔導系統(tǒng)”(比如:Dodigovic, 2007; Miwa, Terai, Kanzaki, & Nakaike, 2014)等名稱,雖然也有使用其他名稱的,如“智能(軟件)代理”(比如:Schiaffino, Garcia, & Amandi, 2008)或“智能助理”(比如:Casamayor, Amandi, & Campo, 2009; Jeschike, et al., 2007)。根據(jù)韋勒姆(Welham, 2008)的研究,最早見諸報道的ITS是1970年推出的SCHOLAR系統(tǒng),該系統(tǒng)允許師生相互提問但不支持持續(xù)對話。
有研究(Huang & Chen, 2016)介紹了ITS通常包含的模型:學生模型(如有關學生知識水平、認知能力、學習動力和學習風格等的信息)、教師模型(如分析學生現(xiàn)狀、選擇教學策略和模式、提供幫助和指導等)、領域模型(如學生和教師的知識表征)和診斷模型(如根據(jù)領域模型對錯誤和缺陷進行評估)。
這些研究對ITS的應用和驗證通常持續(xù)時間不長(一門課程或一個學期),只有一項縱向研究(Jackson & Cossitt, 2015)。多數(shù)研究顯示(一定程度)積極或令人滿意的初步結果,但是它們沒有考慮新技術應用于教育時可能會產生的新奇效應(novelty effect)。有一項研究呈現(xiàn)基于IT的支持服務產生負面影響(Adamson, et al., 2014);如果研究者也考慮該研究涉及的學習者類型這個因素,研究結果可能更有價值。
總體看,ITS的作用尚待進一步研究。五年前斯滕貝亨-胡和庫珀(Steenbergen-Hu & Cooper, 2014)對39項ITS研究進行元分析,結果發(fā)現(xiàn)ITS對學生的學習有一定影響,其作用不如教師輔導,但卻優(yōu)于其他教學方法(如傳統(tǒng)課堂教學、閱讀印刷或數(shù)字化文本、完成家庭作業(yè))。
根據(jù)本綜述的文獻,ITS的功能可分為教授課程內容(n=12)、診斷學生的知識強項或缺陷和提供自動反饋(n=7)、根據(jù)學生需要提供學習材料(n=3)、促進學習者協(xié)作(n=2)和教師其他方面的職能(n=5)。
(1)教授課程內容
這一類有四項研究涉及教授計算機科學內容(Dobre, 2014; Hooshyar, Ahmad, Yousefi, Yusop, & Horng, 2015; Howard, Jordan, di Eugenio, & Katz, 2017; Shen & Yang, 2011)。其他研究包括教授數(shù)學(Miwa, et al., 2014)、商業(yè)統(tǒng)計與會計(Jackson & Cossitt, 2015; Palocsay & Stevens, 2008)、醫(yī)學(Payne, et al., 2009)和心理學本科生的寫作和閱讀理解策略(Ray & Belden, 2007; Weston-Sementelli, Allen, & McNamara, 2018)。總體看,ITS在這些研究中的主要目的是向學生推送教學內容,同時也提供學習支持(提供自適應反饋以及涉及學習內容的問題的提示,發(fā)現(xiàn)學生在學習課程內容或完成練習過程碰到的困難或出現(xiàn)的錯誤)。
克朗等(Crown, et al., 2011)把教授內容和與聊天機器人的對話結合起來,即學生同時也從這種對話中學到知識,他們稱之為“基于文本的聊天代理”。這種教學方法更能促進具有主動性、反思性和思考性的以學生為中心的學習。達菲和阿澤韋多(Duffy & Azevedo, 2015)開發(fā)了一款ITS——MetaTutor,目的是教授人類循環(huán)系統(tǒng)但同時也通過系統(tǒng)自身的功能(計時器、使用不同學習策略的工具欄和學習目標等等)幫助學生進行自我調節(jié)學習。
(2)診斷學生的知識強項或缺陷和提供自動反饋
這一類有四項研究的ITS是一個計算機對學生的單向交流系統(tǒng),發(fā)現(xiàn)學生的知識缺陷并提供反饋。在涉及STEM的三項研究中,兩項通過反饋和監(jiān)控學生行為在虛擬實驗室提供虛擬幫助(Duarte, et al., 2008; Ramírez, et al., 2018),一項是單機ITS在計算機學科的應用(Paquette, Lebeau, Beaulieu, & Mayers, 2015)。此外,還有一項研究涉及ITS在第二語言學習中的應用(Dodigovic, 2007)。
兩項研究的診斷錯誤和提供反饋通過人機對話完成,一款是能通過識別問題與學習者進行交流的交互式泛在教學機器人(Umarani, Raviram, & Wahidabanu, 2011),另一款是基于大學物理入門的輔導對話工具包的輔導系統(tǒng)(Chi, VanLehn, Litman, & Jordan, 2011)。這款輔導對話工具包(TuTalk)是另一項研究開發(fā)的同伴對話代理的核心(Howard, et al., 2017),在這項研究中ITS與學生開展一對一解決問題的對話,交流可以通過語言和圖形進行,而且是過程導向,協(xié)作解決問題而非常規(guī)輔導。這項研究可被視為同伴代理協(xié)作的例子。
(3)根據(jù)學生需要提供學習材料
這一類有兩項研究著重學習材料的提供(Jeschike, et al., 2007; Schiaffino, et al., 2008),一項則是把這個功能當成該研究所開發(fā)的探測系統(tǒng)的一個特性進行介紹(Hall Jr. & Ko, 2008)。希夫里諾等(Schiaffino, et al., 2008)開發(fā)了一款面向eLearning學生的eTeacher系統(tǒng),通過觀察他們的課程學習行為形成學生特征分析,向他們提供個性化幫助。該系統(tǒng)既能推薦相應的閱讀材料和練習,也能推薦個性化行動。耶施克等(Jeschike, et al., 2007)研究的是用于統(tǒng)計力學虛擬實驗室的一款智能助理,該系統(tǒng)提供練習、學生學習評價以及適合具體學生的交互式課程材料。
(4)促進學習者協(xié)作
這一類只有兩項研究:一項使用有利于促進學習的話步(talk moves)支持在線協(xié)作學習討論(Adamson, et al., 2014),另一項通過提供自動反饋、自動生成問題和分析學習過程促進協(xié)作寫作(Calvo, et al., 2011)。這兩項研究均表明AI軟件有促進學生協(xié)作的潛能,因此應該成為今后一個研究方向。
(5)教師其他方面的職能
如上所述,貝克和史密斯(Baker & Smith, 2019, p.12)區(qū)分面向學生的AI和面向教師的AI。但是,只有兩篇ITS文章聚焦教師職能??ㄋ_馬約等(Casamayor, et al., 2009)研究如何通過監(jiān)控和發(fā)現(xiàn)協(xié)作學習過程的沖突向教師提供幫助。該研究的智能助理向教師提供每一個小組成員學習情況,包括每個人的進步、以何種方式參與小組學習、發(fā)現(xiàn)有沖突情況時發(fā)出的提醒信息以及學習風格(登錄之后的活動),方便教師適時采取干預措施。另一項研究是突出如何分攤教師的教學輔導工作(Chou, Huang, & Lin, 2011)。同樣強調減輕教師工作量的還有池等的研究(Chi, et al., 2011)。此外,很多面向學生的AI系統(tǒng)也會涉及教師職能,雖然它們的重點是幫助學生。
3. 考核和評價
這一類研究也是多數(shù)聚焦教與學的問題(86%,n=31),雖然有五項圍繞機構層面的應用研究。阿納多盧大學(Anadolu University)研究者使用Twitter API Twython獲取學生在Twitter上提到該校遠程開放教育系統(tǒng)使用情況方面的內容并采用情感分析法(sentiment analysis)分析這些內容,以便了解學生對該校在線遠程教育的意見(Ozturk, Cicek, & Ergul, 2017)。研究者通過分析這些公開獲取的數(shù)據(jù)了解學生的意見,因為他們可能無法從學校的學習管理系統(tǒng)獲取這類信息,因此研究結果有助于改進正在使用的系統(tǒng)。有兩項研究通過AI評估學生的先前學習認定??柶澋龋↘alz, et al., 2008)采用潛在語義分析(Latent Semantic Analysis)和電子檔案袋幫助學生設計個性化學習路徑;比勒特斯卡等(Biletska, Biletskiy, Li, & Vovk, 2011)使用語義網(wǎng)絡技術對學生在不同學校獲得的資格證書進行換算,可能還包括課程介紹和主題,方便授予學分。另一項聚焦機構層面問題的研究(Sanchez, et al., 2016)通過算法對照用人單位所要求的專業(yè)素養(yǎng)和能力培養(yǎng)學生,確保課程內容和業(yè)界需求一致。
總體看,AI應用能夠非常準確和高效完成考核和評價工作。然而,由于需要對這些系統(tǒng)進行校準和訓練(監(jiān)督機器學習),它們更適合應用于學生規(guī)模大的課程或專業(yè)。
這類文章可以進一步分為四個子類:自動評分(n=13)、反饋(n=8)、評價學生的理解、投入和學術誠信(n=5)、評價教學(n=5)。
(1)自動評分
對自動作文評分(Automated Essay Scoring)系統(tǒng)的研究涉及各個學科(如生物學、醫(yī)學、商學、英語作為第二語言等),但是多數(shù)在本科課程使用(n=10),包括以讀寫能力較差的學生為研究對象(Perin & Lauterbach, 2018)。吉爾爾等(Gierl, et al., 2014)采用LightSIDE這款開源Java軟件給醫(yī)學研究生作文評分,結果顯示計算機評分與教師評分的一致性介于94.6%到98.2%之間,因此在應對大規(guī)??己说脑u分任務時能夠減少人工費用和時間(Barker, 2011; McNamara, et al., 2015)。但是,他們強調并非所有體裁的作文適合使用自動作文評分系統(tǒng),而且由于需要使用大量預評分作文校準系統(tǒng),因此不宜在小班教學中使用。借助算法分析回答文本的模式已被發(fā)現(xiàn)有助于鼓勵學生做更多修改(Ma & Slater, 2015),不再只能依靠多項選擇測試檢查學生的知識和能力(Nehm, Ha, & Mayfield, 2012)。但是,自動作文評分系統(tǒng)的反饋質量一直引起關注(Dikli, 2010),貝克(Barker, 2011)發(fā)現(xiàn)系統(tǒng)提供的反饋越詳細學生越有可能對分數(shù)提出質疑,也有研究質疑自動反饋對語言初學者的幫助(Aluthman, 2016)。
(2)反饋
這一類研究包括各種面向學生的工具,比如:在學生感到不解或停滯不前時向他們提供提示或指導的智能代理(Huang et al., 2008)、向在飛行途中正在失去情景意識(situation awareness)的飛行學員發(fā)出警告的軟件(Thatcher, 2014)和具備生成自動反饋、幫助學生提高寫作水平的詞匯功能的機器學習技術(Chodorow, Gammon, & Tetreault, 2010; Garcia-Gorrostieta, Lopez-Lopez, & Gonzalez-Lopez, 2018; Nguyen, 2017; Quixal & Meurers, 2016)。這些技術能防止學生認知超負荷(Yang, Wong, & Yeh, 2009);基于自適應測試的自動反饋系統(tǒng)不僅能夠根據(jù)布魯姆的認知層次確定最恰當答案,而且還推薦額外材料和任務(Barker, 2010)。
(3)評價學生的理解、投入和學術誠信
有三項研究報告面向學生的工具評價學生理解概念(Jain, Gurupur, Schroeder, & Faulkenberry, 2014; Zhu, Marquez, & Yoo, 2015)和提供個性化幫助(Samarkou, et al., 2015)的情況。侯賽恩等(Hussain, Zhu, Zhang, & Abidi, 2018)使用機器學習算法評價英國開放大學學生在一門社會科學課程的學習投入,包括最終成績、考核分數(shù)和學生使用虛擬學習環(huán)境的情況,目的是提醒教師注意是否需要采取干預措施。阿米古德等(Amigud, Arnedo-Moreno, Daradoumis, & Guerrero-Roldan, 2017)使用機器學習算法評估學生作業(yè)雷同程度,檢查他們的學術誠信。該研究的平均準確率為93%,因此證明這種方法能減少對監(jiān)考員的需求或因需要登錄學生賬戶引發(fā)的隱私關切。
(4)評價教學
有四項研究在課程評價中使用數(shù)據(jù)挖掘算法評價教師表現(xiàn)(Agaoglu, 2016; Ahmad & Rashid, 2016; DeCarlo & Rizk, 2010; Gutierrez, et al., 2018),其中阿高格魯(Agaoglu, 2016)使用四種不同分類技術后發(fā)現(xiàn)評價問卷的很多問題不恰當。有一項研究通過算法評價微分方程課上所使用的教學方法的影響,結果發(fā)現(xiàn)提供即時反饋的在線作業(yè)比課堂反應系統(tǒng)的效果更好(Duzhin & Gustafsson, 2018)。這項研究還發(fā)現(xiàn),一般而言,以前考試成績對后面的考試結果有良好的預測作用,但是無助于了解學生在基于項目的任務中的表現(xiàn)。
4. 自適應系統(tǒng)和個性化
這一類研究多數(shù)涉及教與學問題(85%,n= 23),也有四項研究旨在解決機構和行政管理層面的問題,其中兩項研究聚焦本科生學習咨詢指導(Alfarsi, Omar, & Alsinani, 2017; Feghali, Zbib, & Hallal, 2011),阮等(Nguyen, et al., 2018)則是圍繞AI支持大學提供就業(yè)服務的研究。吳等(Ng, Wong, Lee, & Lee, 2011)開發(fā)一款基于代理的遠程學習管理系統(tǒng),該系統(tǒng)允許用戶獲取各專業(yè)的數(shù)據(jù),而不是僅限于使用某一個院系的數(shù)據(jù),可用于管理資源、支持決策和機構制定政策以及幫助管理本科生學習流程(如入學、考試和課程管理)。
這些研究對自適應系統(tǒng)的稱謂似乎不一致,這可能是因為自適應系統(tǒng)功能的多樣性所致的結果。有些研究采用的術語類似于ITS的別稱,如智能助理(Li, 2007; Ng, et al., 2011)。最常用的名稱是智能eLearning系統(tǒng)(Kose & Arslan, 2016)、自適應基于網(wǎng)站的學習系統(tǒng)(Lo, Chan, & Yeh, 2012)或智能教學系統(tǒng)(Ji & Liu, 2014)。如同ITS的研究一樣,多數(shù)研究對系統(tǒng)進行描述或包含試點但并沒有報告使用較長時間的結果,而且除了維格特等(Vlugter, et al., 2009)的研究顯示使用基于對話的計算機輔助語言學習系統(tǒng)的實驗組在延遲后測的成績比控制組低,其他研究通常只報告正面結果。
針對教與學問題的23項研究可以分成五個子類:教授課程內容(n=7)、推薦個性化內容(n=5)、支持教師教學設計(n=3)、使用學習數(shù)據(jù)監(jiān)控和指導學生(n=2)、用概念圖表征知識(n=2)。但是有些研究難以分類,因為其工具的使用目的特殊,包括幫助組建興趣相同的在線學習小組(Yang, Wang, Shen, & Han, 2007)、支持模擬商業(yè)決定(Ben-Zvi, 2012)和使用具身會話代理改變神經性厭食病人的態(tài)度和行為(Sebastian & Richards, 2017)。阿帕利西奧等(Aparicio, et al., 2018)的研究并不是分析自適應系統(tǒng)的應用情況,而是研究學生對信息系統(tǒng)(包括智能信息獲取系統(tǒng))應用于教育(尤其是生物醫(yī)學教育)的看法。
(1)教授課程內容
這一類研究涉及多種課程,包括環(huán)境教育(Huang, 2018)、動畫設計(Ji & Liu, 2014)、語言學習(Jia, 2009; Vlugter, Knott, McDonald, & Hall, 2009)、計算機科學(Iglesias, Martinez, Aler, & Fernandez, 2009)和生物學(Chaudhri, et al., 2013)。沃世爾等(Walsh, Tamjidul, & Williams, 2017)介紹一款基于機器學習與人機學習共生的自適應系統(tǒng),但沒有說明應用于哪一個學科的教與學。
(2)推薦個性化內容
這一類研究根據(jù)學生在工商管理學(Hall & Ko, 2008)和計算機科學(Kose & Arslan, 2016; Lo, et al., 2012)的學習行為分析結果向學生提供量身定制的內容、材料和練習。戴等(Tai, Wu, & Li, 2008)開發(fā)了一個旨在幫助在線學生選課的eLearning推薦系統(tǒng),而托雷斯-迪亞茲等(Torres-Díaz, Infante Moro, & Valdiviezo Díaz, 2014)研究的則是慕課(自適應)推薦系統(tǒng)根據(jù)學生個人偏好建議他們采取相應行動、推薦新內容等的效果。
(3)支持教師教學設計
有三項研究屬于這一類。一項是圍繞一個教學模式混合推薦系統(tǒng)的研究,旨在幫助教師根據(jù)具體班級的情況制定教學策略(Cobos, et al., 2013);一項介紹一個基于元數(shù)據(jù)的模型,該模型能夠進行自動學習設計,解決發(fā)現(xiàn)的問題(Camacho & Moreno, 2007);一項是描述性研究(Li, 2007),作者認為智能代理能完成重復性工作,從而節(jié)省在線教師的時間,使教師更能把精力集中在創(chuàng)造性工作上。
(4)使用學習數(shù)據(jù)監(jiān)控和指導學生
這一類研究的自適應系統(tǒng)能提取學生學習信息以做出相應診斷,使教師能主動提供個性化指導(Rovira, Puertas, & Igual, 2017)。此外,系統(tǒng)還能評價學生表現(xiàn)和提供個性化幫助和反饋,如“基于AI的學習者診斷、幫助和評價系統(tǒng)”(Learner Diagnosis, Assistance, and Evaluation System based on AI [StuDiAsE])(Samarakou, et al., 2015)。
(5)用概念圖表征知識
概念圖有助于培養(yǎng)學生對概念結構的自我意識。這一類的兩項研究均涉及專家系統(tǒng)。一項旨在通過綜合概念圖系統(tǒng)(ICMSys)呈現(xiàn)同伴的觀點,方便比較,減輕學生認知負荷,促進學生對概念的反思(Kao, Chen, & Sun, 2010);另一項旨在幫助英語為外語的大學生運用照應(referential)關系思維導圖提高閱讀理解能力(Yang, Wong, & Yeh, 2009),這個系統(tǒng)還提供系統(tǒng)指導的教學、練習和反饋。
五、結論與進一步研究的啟示
本文分析了AIEd研究的作者和發(fā)文期刊情況。研究發(fā)現(xiàn),本領域的主要研究者是來自美國、中國、中國臺灣地區(qū)和土耳其(占第一作者的50%)的學者,他們大多(62%)就職于計算機科學和STEM院系,主要發(fā)文期刊是《國際AIEd期刊》《計算機與教育》《國際新興學習技術期刊》。
更重要的是,本綜述顯示AI在高等教育有廣泛的應用潛能,包括向學生、教師和行政管理人員等提供支持。這些方面的應用被分為4大類(特征分析和預測、智能輔導系統(tǒng)、考核和評價,以及自適應系統(tǒng)和個性化)、17個子類。這樣的分類有助于學界了解和認識AIEd的實踐和研究。
縱向研究的匱乏,對技術進行描述性和試點研究為數(shù)可觀,以及以定量方法為主,尤其是準實驗方法的實證研究比比皆是,所有這些都說明,從對高等教育學習產生積極影響的角度看,AIEd實踐與研究的創(chuàng)新性和意義仍有很大的提升空間,如可以采用基于設計的研究方法(Easterday, Rees Lewis, & Gerber, 2018)。最近一項文獻綜述顯示有關教育技術促進個性化的研究也經常采用定量方法(Bartolomé, Casta?eda, & Adell, 2018)。米西約克和沃森(Misiejuk & Wasson, 2017, p. 61)在其學習分析文獻綜述中指出:“(有關學習分析的)實施研究和影響研究為數(shù)極少。”這一點也在本綜述得到印證。
今天我們仍然無法預測AI發(fā)展的全面影響,但是AI應用似乎可能成為未來20年最為重要的教育技術問題之一?;贏I的工具和服務在學生在校學習生涯中向學生、教師和行政管理者提供支持上的潛力很大。本綜述所歸納的各種應用為智能學生支持系統(tǒng)的設計和引導學生在自適應和個性化學習環(huán)境下進行學習提供巨大的教與學機會。對于大型高等教育機構(如遠程開放教學大學)而言更是如此,因為AIEd能幫助它們克服向眾多學生提供高等教育的機會(大眾化高等教育)所面對的窘境。AIEd也能有助于它們提供靈活且具有交互性和個性化的學習機會。比如:AIEd能給數(shù)以百計,甚至是數(shù)以萬計的作業(yè)評分,從而減輕教師的工作負擔,使他們能夠把精力放在充滿人文關懷的教學上。
必須指出,教育技術不(僅僅)是關乎技術,我們應該關心的是AIEd在教學、倫理道德、社會、文化和經濟等方面的意義。賽爾溫(Selwyn, 2016, p. 106)指出:“當然,危險在于把數(shù)據(jù)和編碼看成提供指導和支持的權威而非相對的依據(jù)。教育如此復雜,遠非可以僅被簡化為數(shù)據(jù)分析和算法。如同數(shù)字技術一樣,數(shù)字化數(shù)據(jù)不能提供解決教育窘況的技術良方,不管分析結果可能顯得有多么大的說服力?!?/p>
技術潛能不應該是我們追求的目標,我們應該經常自問:哪些(技術潛能)具有教學上的意義?教室的人臉識別技術(“智慧校園”[Smart Campus]①)在中國正被用于監(jiān)控學生的課堂表現(xiàn),并顯示在教師的儀表盤上。這是教育監(jiān)控的例子,諸如此類的系統(tǒng)能否給教師提供真正的增值服務,使其能夠及時了解學習小組的動態(tài)(包括在線和在校園的情況),并相應采取富有人性關懷和教學意義的措施?這一點現(xiàn)在還遠未定論。從這個意義上講,我們必須有“關懷道德”(ethics of care)之心,開始思考我們是如何發(fā)揮嵌入AIEd應用之中的算法決策系統(tǒng)的潛能的。此外,我們也不應該忘記AI系統(tǒng)“首先需要人的控制。即使最智能化的AI系統(tǒng)也可能出現(xiàn)非常愚蠢的錯誤?!瑼I系統(tǒng)的智能充其量只能達到用于訓練它們的數(shù)據(jù)的智慧程度”(Kaplan & Haenlein, 2019)。我們應該超越工具層面,重新關注學習和教學法問題,也不應該忽視數(shù)字技術應用于教育所涉及的人的因素(Casta?eda & Selwyn, 2018)。聯(lián)合國教科文組織關于AIEd促進可持續(xù)發(fā)展的機會和挑戰(zhàn)的報告涉及幾個方面的內容,這些內容均包括重要的教學、社會和倫理道德問題,比如確保AIEd的包容和公平、確保教師為AI驅動的教育做好準備、開發(fā)優(yōu)質和包容的數(shù)據(jù)系統(tǒng)、數(shù)據(jù)采集、使用和傳播的倫理道德和透明度等(Pedró, et al., 2019)。
本綜述有一個令人吃驚的研究發(fā)現(xiàn),即對于在高等教育實施AI應用可能在教學和倫理道德上帶來的問題以及風險的批判性反思嚴重缺失。從倫理道德上講,有一項學習分析文獻綜述也發(fā)現(xiàn)實證研究很少注意隱私問題(Misiejuk & Wasson, 2017)。如何把AI應用融合到學生在校學習生涯中?如何充分利用它們給創(chuàng)設智能教與學系統(tǒng)所帶來的巨大機會?這些問題有待于教育工作者和學習設計者進一步研究。本綜述顯示來自教育學院系背景的作者比例非常低,由此可見我們必須重視從教育的角度看AI這些技術的發(fā)展。
總體看,理論缺失可能是教育技術領域的一種典型現(xiàn)象。丘等(Hew, et al., 2019)發(fā)現(xiàn)三家一流教育技術期刊的文章中超過40%存在“去理論化”(a-theoretical)。巴托洛美等(Bartolomé, Casta?eda, & Adell, 2018)的綜述也顯示他們所分析的研究缺乏清楚的教育法視角。本綜述的大多數(shù)研究把重點局限于分析和發(fā)現(xiàn)數(shù)據(jù)中的模式,目的是為了開發(fā)模型和面向學生和教師的應用,或使用幾十年前提出的數(shù)學理論和機器學習方法支持行政管理上的決策(Russel & Norvig, 2010)。由于計算能力的發(fā)展和學生大數(shù)據(jù)唾手可得,這一類研究現(xiàn)在已經不是什么難事。然而,目前幾乎沒有證據(jù)表明AI驅動的教育技術促進了教學理論和學習心理學理論的發(fā)展。本綜述一個重要的啟示是:要鼓勵研究者闡述圍繞AIEd開發(fā)和實施的實證研究的理論基礎,這樣才能使研究結果得到推廣,幫助我們了解(如本綜述所示)將對高等教育機構帶來巨大影響的AI發(fā)展的原因和機制。
[參考文獻]
Acikkar, M., & Akay, M. F. (2009). Support vector machines for predicting the admission decision of a candidate to the School of Physical Education and Sports at Cukurova University. Expert Systems with Applications, 36(3 PART 2), 7228-7233. https://doi.org/10.1016/j.eswa.2008.09.007
Adamson, David, Dyke, G., Jang, H., & Penstein Rosé, C. (2014). Towards an Agile Approach to Adapting Dynamic Collaboration Support to Student Needs. International Journal of Artificial Intelligence in Education, 24(1), 92-124. https://doi.org/10.1007/s40593-013-0012-6
Agaoglu, M. (2016). Predicting Instructor Performance Using Data Mining Techniques in Higher Education. IEEE ACCESS, 4, 2379-2387. https://doi.org/10.1109/ACCESS.2016.2568756
Ahmad, H., & Rashid, T. (2016). Lecturer performance analysis using multiple classifiers. Journal of Computer Science, 12(5), 255-264. https://doi.org/10.3844/fjcssp.2016.255.264
Alfarsi, G. M. S., Omar, K. A. M., & Alsinani, M. J. (2017). A Rule-Based System for Advising Undergraduate Students. Journal of Theoretical and Applied Information Technology, 95(11). Retrieved from http://www.jatit.org
Alkhasawneh,? R., & Hargraves,? R. H. (2014). Developing a hybrid model to predict student first year retention in STEM disciplines using machine learning techniques. Journal of STEM Education: Innovations & Research, 15(3), 35-42. https://core.ac.uk/download/pdf/51289621.pdf
Aluko, R. O., Adenuga, O. A., Kukoyi, P. O., Soyingbe, A. A., & Oyedeji, J. O. (2016). Predicting the academic success of architecture students by pre-enrolment requirement: using machine-learning techniques. Construction Economics and Building, 16(4), 86-98. https://doi.org/10.5130/AJCEB.v16i4.5184
Aluthman, E. S. (2016). The Effect of Using Automated Essay Evaluation on ESL Undergraduate Students Writing Skill. International Journal of English Linguistics, 6(5), 54-67. https://doi.org/10.5539/ijel.v6n5p54
Amigud, A., Arnedo-Moreno, J., Daradoumis, T., & Guerrero-Roldan, A.-E. (2017). Using learning analytics for preserving academic integrity. International Review of Research in Open and Distance Learning, 18(5), 192-210. DOI: 10.19173/irrodl.v18i5.3103
Andris, C., Cowen, D., & Wittenbach, J. (2013). Support Vector Machine for Spatial Variation. Transactions in GIS, 17(1), 41-61. https://doi.org/10.1111/j.1467-9671.2012.01354.x
Aparicio, F., Morales-Botello, M. L., Rubio, M., Hernando, A., Mu?oz, R., López-Fernández, H., … Buenaga, M. de. (2018). Perceptions of the use of intelligent information access systems in university level active learning activities among teachers of biomedical subjects. International Journal of Medical Informatics, 112(December 2017), 21-33. https://doi.org/10.1016/j.ijmedinf.2017.12.016
Babic, I. D. (2017). Machine learning methods in predicting the student academic motivation. Croatian Operational Research Review, 8(2), 443-461. https://doi.org/10.17535/crorr.2017.0028
Bahad?r, E. (2016). Using neural network and logistic regression analysis to predict prospective mathematics teachers academic success upon entering graduate education. Kuram ve Uygulamada Egitim Bilimleri, 16(3), 943-964. https://doi.org/10.12738/estp.2016.3.0214
Bakeman, R., & Gottman, J. M. (1997). Observing interaction-an introduction to sequential analysis. Cambridge: Cambridge University Press.
Baker, R. S. (2016). Stupid Tutoring Systems, Intelligent Humans. International Journal of Artificial Intelligence in Education, 26(2), 600-614. https://doi.org/10.1007/s40593-016-0105-0
Baker, T., & Smith, L. (2019). Educ-AI-tion Rebooted? Exploring the future of artificial intelligence in schools and colleges. Retrieved from Nesta Foundation website: https://media.nesta.org.uk/documents/Future of AI and education v5 WEB.pdf
Barker, T. (2010). An automated feedback system based on adaptive testing: Extending the model. International Journal of Emerging Technologies in Learning, 5(2), 11-14. https://doi.org/10.3991/ijet.v5i2.1235
Barker, T. (2011). An Automated Individual Feedback and Marking System: An Empirical Study. Electronic Journal of E-Learning, 9(1), 1-14. https://www.learntechlib.org/p/52053/
Bartolomé, A., Casta?eda, L., & Adell, J. (2018). Personalisation in educational technology: the absence of underlying pedagogies. International Journal of Educational Technology in Higher Education, 15(14). https://doi.org/10.1186/s41239-018-0095-0
Ben-Zvi, T. (2012). Measuring the perceived effectiveness of decision support systems and their impact on performance. Decision Support Systems, 54(1), 248-256. https://doi.org/10.1016/j.dss.2012.05.033
Biletska, O., Biletskiy, Y., Li, H., & Vovk, R. (2010). A semantic approach to expert system for e-Assessment of credentials and competencies. Expert Systems with Applications, 37(10), 7003-7014. https://doi.org/10.1016/j.eswa.2010.03.018
Blikstein, P., Worsley, M., Piech, C., Sahami, M., Cooper, S., & Koller, D. (2014). Programming Pluralism: Using Learning Analytics to Detect Patterns in the Learning of Computer Programming. Journal of the Learning Sciences, 23(4), 561-599. https://doi.org/10.1080/10508406.2014.954750
Brunton,? J., & Thomas,? J. (2012). Information management in systematic reviews. In D. Gough, S. Oliver, & J. Thomas (Eds.), An introduction to systematic reviews (pp. 83-106). London: SAGE.
Calvo, R. A., ORourke, S. T., Jones, J., Yacef, K., & Reimann, P. (2011). Collaborative Writing Support Tools on the Cloud. IEEE Transactions on Learning Technologies, 4(1), 88-97. https://www.learntechlib.org/p/73461/
Camacho, D., & Moreno, M. D. R. (2007). Towards an automatic monitoring for higher education Learning Design. International Journal of Metadata, Semantics and Ontologies, 2(1), 1-1. https://doi.org/10.1504/ijmso.2007.015071
Casamayor, A., Amandi, A., & Campo, M. (2009). Intelligent assistance for teachers in collaborative e-Learning environments. Computers & Education, 53(4), 1147-1154. https://doi.org/10.1016/j.compedu.2009. 05.025
Casta?eda, L. & Selwyn, N. (2018). More than tools? Making sense of the ongoing digitizations of higher education. International Journal of Educational Technology in Higher Education, 15(22). https://doi.org/10.1186/s41239-018-0109-y
Chaudhri, V. K., Cheng, B., Overtholtzer, A., Roschelle, J., Spaulding, A., Clark, P., … Gunning, D. (2013). Inquire Biology: A Textbook that Answers Questions. AI Magazine, 34(3), 55-55. https://doi.org/10.1609/aimag.v34i3.2486
Chen, J.-F., & Do, Q. H. (2014). Training neural networks to predict student academic performance: A comparison of cuckoo search and gravitational search algorithms. International Journal of Computational Intelligence and Applications, 13(1). https://doi.org/10.1142/S14690268 14500059
Chi, M., VanLehn, K., Litman, D., & Jordan, P. (2011). Empirically evaluating the application of reinforcement learning to the induction of effective and adaptive pedagogical strategies. User Modeling and User-Adapted Interaction, 21(1), 137-180. DOI 10.1007/s11257-010- 9093-1
Chodorow, M., Gamon, M., & Tetreault, J. (2010). The utility of article and preposition error correction systems for English language learners: Feedback and assessment. Language Testing, 27(3), 419-436. https://doi.org/10.1177/0265532210364391
Chou, C.-Y., Huang, B.-H., & Lin, C.-J. (2011). Complementary machine intelligence and human intelligence in virtual teaching assistant for tutoring program tracing. Computers & Education, 57(4), 2303-2312. https://www.learntechlib.org/p/167322/
Cobos, C., Rodriguez, O., Rivera, J., Betancourt, J., Mendoza, M., León, E., & Herrera-Viedma, E. (2013). A hybrid system of pedagogical pattern recommendations based on singular value decomposition and variable data attributes. Information Processing and Management, 49(3), 607-625. https://doi.org/10.1016/j.ipm.2012.12.002
Cohen, J. (1960). A coefficient of agreement for nominal scales. Educational and Psychological Measurement, 20, 37-46. https://doi.org/10.1177/001316446002000104
Contact North. (2018). Ten facts about artificial intelligence in teaching and learning. Retrieved from https://teachonline.ca/sites/default/files/tools-trends/downloads/ten_facts_about_artificial_intelligence.pdf
Crown, S., Fuentes, A., Jones, R., Nambiar, R., & Crown, D. (2011). Anne G. Neering: Interactive chatbot to engage and motivate engineering students. Computers in Education Journal, 21(2), 24-34.
DeCarlo, P., & Rizk, N. (2010). The design and development of an expert system prototype for enhancing exam quality. International Journal of Advanced Corporate Learning, 3(3), 10-13. https://doi.org/10.3991/ijac.v3i3.1356
Delen, D. (2011). Predicting student attrition with data mining methods. Journal of College Student Retention: Research, Theory and Practice, 13(1), 17-35. https://doi.org/10.2190/CS.13.1.b
Delen, D. (2010). A comparative analysis of machine learning techniques for student retention management. Decision Support Systems, 49(4), 498-506. https://doi.org/10.1016/j.dss.2010.06.003
Dikli, S. (2010). The Nature of Automated Essay Scoring Feedback. CALICO Journal, 28(1), 99-134. DOI: 10.11139/cj.28.1.99-134
Dobre, I. (2014). Assessing the students knowledge in informatics discipline using the METEOR metric. Mediterranean Journal of Social Sciences, 5(19), 84-92. DOI: 10.5901/mjss.2014.v5n19p84
Dodigovic, M. (2007). Artificial Intelligence and Second Language Learning: An Efficient Approach to Error Remediation. Language Awareness, 16(2), 99-113. https://doi.org/10.2167/la416.0
Duarte, M., Butz, B., Miller, S., & Mahalingam, A. (2008). An Intelligent Universal Virtual Laboratory (UVL). IEEE Transactions on Education, 51(1), 2-9. DOI: 10.1109/SSST.2002.1027009
Duffy, M. C., & Azevedo, R. (2015). Motivation matters: Interactions between achievement goals and agent scaffolding for self-regulated learning within an intelligent tutoring system. Computers in Human Behavior, 52, 338-348. https://doi.org/10.1016/j.chb.2015.05.041
Duzhin, F., & Gustafsson, A. (2018). Machine Learning-Based App for Self-Evaluation of Teacher-Specific Instructional Style and Tools. Education Sciences, 8(1). https://doi.org/10.3390/educsci8010007
Easterday, M. W., Rees Lewis, D. G., & Gerber, E. M. (2018). The logic of design research. Learning: Research and Practice, 4(2), 131-160. https://doi.org/10.1080/23735082.2017.1286367
EDUCAUSE. (2018). Horizon Report: 2018 Higher Education Edition. Retrieved from EDUCAUSE Learning Initiative and The New Media Consortium website: https://library.educause.edu/~/media/files/library/ 2018/8/2018horizonreport.pdf
EDUCAUSE. (2019). Horizon Report: 2019 Higher Education Edition. Retrieved from EDUCAUSE Learning Initiative and The New Media Consortium website: https://library.educause.edu/-/media/files/library/ 2019/4/2019horizonreport.pdf
Feghali, T., Zbib, I., & Hallal, S. (2011). A web-based decision support tool for academic advising. Educational Technology and Society, 14(1), 82-94. https://www.learntechlib.org/p/52325/
Feng, S., Zhou, S., & Liu, Y. (2011). Research on data mining in university admissions decision-making. International Journal of Advancements in Computing Technology, 3(6), 176-186. https://doi.org/10. 4156/ijact.vol3.issue6.21
Fleiss, J. L. (1981). Statistical methods for rates and proportions. New York: Wiley.
Ge, C., & Xie, J. (2015). Application of Grey Forecasting Model Based on Improved Residual Correction in the Cost Estimation of University Education. International Journal of Emerging Technologies in Learning, 10(8), 30-33. DOI: 10.3991/ijet.v10i8.5215
Gierl, M., Latifi, S., Lai, H., Boulais, A., & Champlain, A. (2014). Automated essay scoring and the future of educational assessment in medical education. Medical Education, 48(10), 950-962. https://doi.org/10.1111/medu.12517
Gough, D., Oliver, S., & Thomas, J. (2017). An introduction to systematic reviews (2nd edition). Los Angeles: SAGE.
Gutierrez, G., Canul-Reich, J., Ochoa Zezzatti, A., Margain, L., & Ponce, J. (2018). Mining: Students Comments about Teacher Performance Assessment using Machine Learning Algorithms. International Journal of Combinatorial Optimization Problems and Informatics, 9(3), 26-40. https://ijcopi.org/index.php/ojs/article/view/99
Hall, O. P., & Ko, K. (2008). Customized content delivery for graduate management education: Application to business statistics. Journal of Statistics Education, 16(3). https://doi.org/10.1080/10691898.2008. 11889571
Haugeland, J. (1985). Artificial intelligence: The very idea. Cambridge, Mass.: MIT Press
Hew, K. F., Lan, M., Tang, Y., Jia, C., & Lo, C. K. (2019). Where is the “theory” within the field of educational technology research? British Journal of Educational Technology, 50(3), 956-971. https://doi.org/10.1111/bjet.12770
Hinojo-Lucena, F.-J., Aznar-Díaz, I., Cáceres-Reche, M.-P., & Romero-Rodríguez, J.-M. (2019). Artificial Intelligence in Higher Education: A Bibliometric Study on its Impact in the Scientific Literature. Education Sciences, 9(1), 51. https://doi.org/10.3390/educsci9010051
Hoffait, A.-S., & Schyns, M. (2017). Early detection of university students with potential difficulties. DECISION SUPPORT SYSTEMS, 101, 1-11. https://doi.org/10.1016/j.dss.2017.05.003
Hooshyar, D., Ahmad, R., Yousefi, M., Yusop, F., & Horng, S. (2015). A flowchart-based intelligent tutoring system for improving problem-solving skills of novice programmers. Journal of Computer Assisted Learning, 31(4), 345-361. https://doi.org/10.1111/jcal.12099
Howard, C., Jordan, P., di Eugenio, B., & Katz, S. (2017). Shifting the Load: a Peer Dialogue Agent that Encourages its Human Collaborator to Contribute More to Problem Solving. International Journal of Artificial Intelligence in Education, 27(1), 101-129. https://doi.org/10.1007/s40593-015-0071-y
Howard, E., Meehan, M., & Parnell, A. (2018). Contrasting prediction methods for early warning systems at undergraduate level. Internet and Higher Education, 37, 66-75. https://doi.org/10.1016/j.iheduc.2018.02.001
Huang, C.-J., Chen, C.-H., Luo, Y.-C., Chen, H.-X., & Chuang, Y.-T. (2008). Developing an Intelligent Diagnosis and Assessment E-learning Tool for Introductory Programming. Educational Technology & Society, 11(4), 139-157. https://www.jstor.org/stable/jeductechsoci.11. 4.139
Huang, J., & Chen, Z. (2016). The research and design of web-based intelligent tutoring system. International Journal of Multimedia and Ubiquitous Engineering, 11(6), 337-348. https://doi.org/10.14257/ijmue.2016.11.6.30
Huang, S. P. (2018). Effects of using artificial intelligence teaching system for environmental education on environmental knowledge and attitude. Eurasia Journal of Mathematics, Science and Technology Education, 14(7), 3277-3284. https://doi.org/10.29333/ejmste/91248
Hussain, M., Zhu, W., Zhang, W., & Abidi, S. M. R. (2018). Student engagement predictions in an e-Learning system and their impact on student course assessment scores. Computational Intelligence and Neuroscience. https://doi.org/10.1155/2018/6347186
Iglesias, A., Martinez, P., Aler, R., & Fernandez, F. (2009). Reinforcement learning of pedagogical policies in adaptive and intelligent educational systems. Knowledge-Based Systems, 22(4), 266-270. https://e-archivo.uc3m.es/bitstream/handle/10016/6502/reinforcement_aler_KBS_2009_ps.pdf?sequence=1&isAllowed=y
Jackson, M., & Cossitt, B. (2015). Is intelligent online tutoring software useful in refreshing financial accounting knowledge? Advances in Accounting Education: Teaching and Curriculum Innovations, 16, 1-19. https://doi.org/10.1108/S1085-462220150000016001
Jain, G. P., Gurupur, V. P., Schroeder, J. L., & Faulkenberry, E. D. (2014). Artificial Intelligence-Based Student Learning Evaluation: A Concept Map-Based Approach for Analyzing a Students Understanding of a Topic. IEEE Transactions on Learning Technologies, 7(3), 267-279. DOI: 10.1109/TLT.2014.2330297
Jeschike, M., Jeschke, S., Pfeiffer, O., Reinhard, R., & Richter, T. (2007). Equipping Virtual Laboratories with Intelligent Training Scenarios. AACE Journal, 15(4), 413-436. https://www.learntechlib.org/primary/p/23636/
Ji, Y., & Liu, Y. (2014). Development of an Intelligent Teaching System Based on 3D Technology in the Course of Digital Animation Production. International Journal of Emerging Technologies in Learning, 9(9), 81-86. https://doi.org/10.3991/ijet.v11i09.6116
Jia, J. (2009). An AI Framework to Teach English as a Foreign Language: CSIEC. AI Magazine, 30(2), 59-59. https://doi.org/10.1609/aimag.v30i2.2232
Jonassen, D., Davidson, M., Collins, M., Campbell, J., & Haag, B. B. (1995). Constructivism and computer-mediated communication in distance education. American Journal of Distance Education, 9(2), 7-25. https://doi.org/10.1080/08923649509526885
Kalz, M., van Bruggen, J., Giesbers, B., Waterink, W., Eshuis, J., & Koper, R. (2008). A model for new linkages for prior learning assessment. Campus-Wide Information Systems, 25(4), 233-243. https://doi.org/10.1108/10650740810900676
Kao, Chen, & Sun. (2010). Using an E-Learning System with Integrated Concept Maps to Improve Conceptual Understanding. International Journal of Instructional Media, 37(2), 151-151.
Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Whos the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62(1), 15-25. https://doi.org/10.1016/j.bushor.2018.08.004
Kardan, A. A., & Sadeghi, H. (2013). A Decision Support System for Course Offering in Online Higher Education Institutes. International Journal of Computational Intelligence Systems, 6(5), 928-942. https://doi.org/10.1080/18756891.2013.808428
Kardan, A. A., Sadeghi, H., Ghidary, S. S., & Sani, M. R. F. (2013). Prediction of student course selection in online higher education institutes using neural network. Computers and Education, 65, 1-11. https://doi.org/10.1016/j.compedu.2013.01.015
Kose, U., & Arslan, A. (2016). Intelligent E-Learning System for Improving Students Academic Achievements in Computer Programming Courses. International Journal of Engineering Education, 32(1, A), 185-198.
Li, X. (2007). Intelligent Agent-Supported Online Education. Decision Sciences Journal of Innovative Education, 5(2), 311-331. https://doi.org/10.1111/j.1540-4609.2007.00143.x
Lo, J. J., Chan, Y. C., & Yeh, S. W. (2012). Designing an adaptive web-based learning system based on students cognitive styles identified online. Computers and Education, 58(1), 209-222. https://doi.org/10.1016/j.compedu.2011.08.018
Lodhi, P., Mishra, O., Jain, S., & Bajaj, V. (2018). StuA: An Intelligent Student Assistant. International Journal of Interactive Multimedia and Artificial Intelligence, 5(2), 17-25. https://doi.org/10.9781/ijimai. 2018.02.008
Luckin, R., Holmes, W., Griffiths, M., & Forcier, L. B. (2016). Intelligence unleashed-an argument for AI in education. Retrieved from http://discovery.ucl.ac.uk/1475756/
Ma, H., & Slater, T. (2015). Using the Developmental Path of Cause to Bridge the Gap between AWE Scores and Writing Teachers Evaluations. Writing & Pedagogy, 7(2), 395-422. https://doi.org/10.1558/wap.v7i2-3.26376
McNamara, D. S., Crossley, S. A., Roscoe, R. D., Allen, L. K., & Dai, J. (2015). A hierarchical classification approach to automated essay scoring. Assessing Writing, 23, 35-59. https://doi.org/10.1016/j.asw.2014. 09.002
Misiejuk, K., & Wasson, B. (2017). State of the Field report on Learning Analytics. SLATE Report 2017-2. Bergen: Centre for the Science of Learning & Technology (SLATE). Retrieved from http://bora.uib.no/handle/1956/17740
Miwa, K., Terai, H., Kanzaki, N., & Nakaike, R. (2014). An intelligent tutoring system with variable levels of instructional support for instructing natural deduction. Transactions of the Japanese Society for Artificial Intelligence, 29(1), 148-156. https://doi.org/10.1527/tjsai.29.148
Moher,? D., Liberati,? A., Tetzlaff,? J., & Altman,? D. G. (2009). Preferred reporting items for systematic reviews and meta-analyses: The PRISMA statement. BMJ. Clinical Research Ed., 339, b2535. https://doi.org/10.1136/bmj.b2535
Nehm, R. H., Ha, M., & Mayfield, E. (2012). Transforming Biology Assessment with Machine Learning: Automated Scoring of Written Evolutionary Explanations. Journal of Science Education and Technology, 21(1), 183-196. https://doi.org/10.1007/s10956-011-9300-9
Neumann, W. L. (2007). Social research methods: Qualitative and quantitative approaches. Boston: Pearson.
Ng, S. C., Wong, C. K., Lee, T. S., & Lee, F. Y. (2011). Design of an Agent-based Academic Information System for Effective Education Management. Information Technology Journal, 10(9), 1784-1788. https://doi.org/10.3923/itj.2011.1784.1788
Nguyen, J., Sánchez-Hernández, G., Armisen, A., Agell, N., Rovira, X., & Angulo, C. (2018). A linguistic multi-criteria decision-aiding system to support university career services. Applied Soft Computing Journal, 67, 933-940. https://doi.org/10.1016/j.asoc.2017.06.052
Nicholas,? D., Watkinson,? A., Jamali,? H. R., Herman,? E., Tenopir,? C., Volentine,? R., . . . Levine,? K. (2015). Peer review: still king in the digital age. Learned Publishing, 28(1), 15-21. https://doi.org/10.1087/20150104
Oztekin, A. (2016). A hybrid data analytic approach to predict college graduation status and its determinative factors. Industrial Management and Data Systems, 116(8), 1678-1699. https://doi.org/10.1108/IMDS-09-2015-0363
Ozturk, Z. K., Cicek, Z. I. E., & Ergul, Z. (2017). Sentiment Analysis: an Application to Anadolu University. Acta Physica Polonica A, 132(3), 753-755. DOI: 10.12693/APhysPolA.132.753
Palocsay, S. W., & Stevens, S. P. (2008). A Study of the Effectiveness of Web-Based Homework in Teaching Undergraduate Business Statistics. Decision Sciences Journal of Innovative Education, 6(2), 213-232. https://doi.org/10.1111/j.1540-4609.2008.00167.x
Paquette, L., Lebeau, J. F., Beaulieu, G., & Mayers, A. (2015). Designing a Knowledge representation approach for the generation of pedagogical interventions by MTTs. International Journal of Artificial Intelligence in Education, 25(1), 118-156. https://www.learntechlib.org/p/168275/
Payne, V. L., Medvedeva, O., Legowski, E., Castine, M., Tseytlin, E., Jukic, D., & Crowley, R. S. (2009). Effect of a limited-enforcement intelligent tutoring system in dermatopathology on student errors, goals and solution paths. Artificial Intelligence in Medicine, 47(3), 175-197. https://doi.org/10.1016/j.artmed.2009.07.002
Pedró, F., Subosa, M., Rivas, A., & Valverde, P. (2019). Artificial intelligence in education: challenges and opportunities for sustainable development. Paris: UNESCO.
Perez, S., Massey-Allard, J., Butler, D., Ives, J., Bonn, D., Yee, N., & Roll, I. (2017). Identifying Productive Inquiry in Virtual Labs Using Sequence Mining. In E. André, R. Baker, X. Hu, Ma. M. T. Rodrigo, & B. du Boulay (Eds.), Artificial Intelligence in Education (Vol. 10331, pp. 287-298). https://doi.org/10.1007/978-3-319-61425-0 24
Perin, D., & Lauterbach, M. (2018). Assessing Text-Based Writing of Low-Skilled College Students. International Journal of Artificial Intelligence in Education, 28(1), 56-78. https://doi.org/10.1007/s40593- 016-0122-z
Petticrew, M., & Roberts, H. (2006). Systematic reviews in the social sciences: A practical guide. Malden, MA; Oxford: Blackwell Pub.
Phani Krishna, K. V., Mani Kumar, M., & Aruna Sri, P. S. G. (2018). Student information system and performance retrieval through dashboard. International Journal of Engineering and Technology(UAE), 7, 682-685. DOI: 10.14419/ijet.v7i2.7.10922
Popenici, S., & Kerr, S. (2017). Exploring the impact of artificial intelligence on teaching and learning in higher education. Research and Practice in Technology Enhanced Learning. DOI: 10.1186/s41039- 017-0062-8
Prinsloo, P. (2017). Fleeing from Frankensteins monster and meeting Kafka on the way: Algorithmic decision-making in higher education. E-Learning and Digital Media, 14(3), 138-163. https://doi.org/10.1177/2042753017731355
Quixal, M., Meurers, Detmar. (2016). How can Writing Tasks be Characterized in a way serving Pedagogical Goals and Automatic Analysis Needs? Calico Journal, 33(1), 19-48. https://doi.org/10.1558/cj.v33i1.26543
Raju, D., & Schumacker, R. (2015). Exploring student characteristics of retention that lead to graduation in higher education using data mining models. Journal of College Student Retention: Research, Theory and Practice, 16(4), 563-591. https://doi.org/10.2190/CS.16.4.e
Ramírez, J., Rico, M., Riofrío-Luzcando, D., Berrocal-Lobo, M., & Antonio, A. (2018). Students Evaluation of a Virtual World for Procedural Training in a Tertiary-Education Course. Journal of Educational Computing Research, 56(1), 23-47. https://doi.org/10.1177/0735633117706047
Ray, R. D., & Belden, N. (2007). Teaching College Level Content and Reading Comprehension Skills Simultaneously via an Artificially Intelligent Adaptive Computerized Instructional System. Psychological Record, 57(2), 201-218. https://opensiuc.lib.siu.edu/cgi/viewcontent.cgi?referer=https://www.google.com/&httpsredir=1&article=1103&co ntext=tpr
Reid, J. (1995). Managing learner support. In F. Lockwood (Ed.), Open and distance learning today (pp. 265-275). London: Routledge.
Rovira, S., Puertas, E., & Igual, L. (2017). Data-driven system to predict academic grades and dropout. PLoS ONE, 12(2), 1-21. https://doi.org/10.1371/journal.pone.0171207
Russel, S., & Norvig, P. (2010). Artificial Intelligence-A Modern Approach. New Jersey: Pearson Education.
Salmon, G. (2000). E-Moderating-The key to teaching and learning online (1st ed.). London: Routledge.
Samarakou, M., Fylladitakis, E. D., Früh, W. G., Hatziapostolou, A., & Gelegenis, J. J. (2015). An advanced eLearning environment developed for engineering learners. International Journal of Emerging Technologies in Learning, 10(3), 22-33. https://doi.org/10.3991/ijet.v10i3.4484
Sanchez, E. L., Santos-Olmo, A., Alvarez, E., Huerta, M., Camacho, S., & Fernandez-Medina, E. (2016). Development of an expert system for the evaluation of students curricula on the basis of competencies. FUTURE INTERNET, 8(2). https://doi.org/10.3390/fi8020022
Schiaffino, S., Garcia, P., & Amandi, A. (2008). eTeacher: Providing personalized assistance to e-learning students. Computers & Education, 51(4), 1744-1754. https://doi.org/10.1016/j.compedu.2008.05.008
Sebastian, J., & Richards, D. (2017). Changing stigmatizing attitudes to mental health via education and contact with embodied conversational agents. Computers in Human Behavior, 73, 479-488. https://doi.org/10.1016/j.chb.2017.03.071
Selwyn, N. (2016). Is technology good for education? Cambridge, UK: Malden, MA : Polity Press.
Shen, V. R. L., & Yang, C.-Y. (2011). Intelligent Multiagent Tutoring System in Artificial Intelligence. International Journal of Engineering Education, 27(2), 248-256.
?imundi, A.-M. (2009). Measures of diagnostic accuracy: basic definitions. Journal of the International Federation of Clinical Chemistry and Laboratory Medicine, 19(4), 203-2011. https://www.ncbi.nlm.nih.gov/pubmed/27683318
Smith,? R. (2006). Peer review: a flawed process at the heart of science and journals. Journal of the Royal Society of Medicine, 99, 178-182. DOI: 10.1258/jrsm.99.4.178
Spikol, D., Ruffaldi, E., Dabisias, G., & Cukurova, M. (2018). Supervised machine learning in multimodal learning analytics for estimating success in project‐based learning. Journal of Computer Assisted Learning, 34(4), 366-377. https://doi.org/10.1111/jcal.12263
Sreenivasa Rao, K., Swapna, N., & Praveen Kumar, P. (2018). Educational data mining for student placement prediction using machine learning algorithms. International Journal of Engineering and Technology(UAE), 7(1.2), 43-46. DOI: 10.14419/ijet.v7i1.2.8988
Steenbergen-Hu, S., & Cooper, H. (2014). A meta-analysis of the effectiveness of intelligent tutoring systems on college students academic learning. Journal of Educational Psychology, 106(2), 331-347. https://doi.org/10.1037/a0034752
Sultana,? S., Khan,? S., & Abbas,? M. (2017). Predicting performance of electrical engineering students using cognitive and non-cognitive features for identification of potential dropouts. International Journal of Electrical Engineering Education, 54(2), 105-118. https://doi.org/10.1177/0020720916688484
Tai, D. W. S., Wu, H. J., & Li, P. H. (2008). Effective e-learning recommendation system based on self-organizing maps and association mining. Electronic Library, 26(3), 329-344. https://doi.org/10.1108/02640470810879482
Tegmark, M. (2018). Life 3.0: Being human in the age of artificial intelligence. London: Penguin Books.
Thatcher, S. J. (2014). The use of artificial intelligence in the learning of flight crew situation awareness in an undergraduate aviation programme. World Transactions on Engineering and Technology Education, 12(4), 764-768. https://www.semanticscholar.org/paper/The-use- of-artificial-intelligence-in-the-learning-Thatcher/758d305305151 1cde2f28fc6b2181b8e227f8ea2
Torres-Díaz, J. C., Infante Moro, A., & Valdiviezo Díaz, P. (2014). Los MOOC y la masificación personalizada. Profesorado, 18(1), 63-72. http://www.redalyc.org/articulo.oa?id=56730662005
Umarani, S. D., Raviram, P., & Wahidabanu, R. S. D. (2011). Speech based question recognition of interactive ubiquitous teaching robot using supervised classifier. International Journal of Engineering and Technology, 3(3), 239-243. http://www.enggjournals.com/ijet/docs/IJET11-03-03-35.pdf
Umer, R., Susnjak, T., Mathrani, A., & Suriadi, S. (2017). On predicting academic performance with process mining in learning analytics. Journal of Research in Innovative Teaching, 10(2), 160-176. https://doi.org/10.1108/JRIT-09-2017-0022
Vlugter, P., Knott, A., McDonald, J., & Hall, C. (2009). Dialogue-based CALL: A case study on teaching pronouns. Computer Assisted Language Learning, 22(2), 115-131. https://doi.org/10.1080/095882209 02778260
Walsh, K., Tamjidul, H., & Williams, K. (2017). Human Machine Learning Symbiosis. Journal of Learning in Higher Education, 13(1), 55-62. http://cs.uno.edu/~tamjid/pub/2017/JLHE.pdf
Welham, D. (2008). AI in training (1980-2000): Foundation for the future or misplaced optimism? British Journal of Educational Technology, 39(2), 287-303. https://doi.org/10.1111/j.1467-8535.2008.00818.x
Weston-Sementelli, J. L., Allen, L. K., & McNamara, D. S. (2018). Comprehension and Writing Strategy Training Improves Performance on Content-Specific Source-Based Writing Tasks. International Journal of Artificial Intelligence in Education, 28(1), 106-137. https://doi.org/10.1007/s40593-016-0127-7
Wickham, H., & Grolemund, G. (2016). R for data science: Import, tidy, transform, visualize, and model data (First edition). Sebastopol, CA: O Reilly.
Yang, F., Wang, M., Shen, R., & Han, P. (2007). Community-organizing agent: An artificial intelligent system for building learning communities among large numbers of learners. Computers & Education, 49(2), 131-147. https://doi.org/10.1016/j.compedu.2005.04.019
Yang, Y. F., Wong, W. K., & Yeh, H. C. (2009). Investigating readers mental maps of references in an online system. Computers and Education, 53(3), 799-808. https://doi.org/10.1016/j.compedu.2009.04.016
Yoo, J., & Kim, J. (2014). Can Online Discussion Participation Predict Group Project Performance? Investigating the Roles of Linguistic Features and Participation Patterns. International Journal of Artificial Intelligence in Education, 24(1), 8-32. https://www.learntechlib.org/p/155243/
Zhu, W., Marquez, A., & Yoo, J. (2015). “Engineering Economics Jeopardy!” Mobile App for University Students. Engineering Economist, 60(4), 291-306. https://doi.org/10.1080/0013791X.2015.1067343
責任編輯 韓世梅