国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

教學(xué)人工智能:空間、限度與超越

2023-12-13 16:42程亞萍
現(xiàn)代教育科學(xué) 2023年6期

程亞萍

[摘 要]教學(xué)人工智能與人類教師相比,無論是在提升教學(xué)的高效化、精準(zhǔn)化和個性化方面還是在保障教學(xué)的科學(xué)性和可靠性方面都具有優(yōu)勢。但教學(xué)人工智能在應(yīng)用過程中面臨著技術(shù)上的困境、價值上的挑戰(zhàn)和治理上的難題。這就決定了教學(xué)人工智能是無法全面取代人類教師的地位,而應(yīng)該把簡單的教學(xué)任務(wù)交由教學(xué)人工智能處理,將復(fù)雜的教學(xué)任務(wù)交由人類教師處理,構(gòu)建一種積極務(wù)實的人機共處模式。在此基礎(chǔ)之上,還應(yīng)當(dāng)確立應(yīng)對算法難題之措施、保障人類教師和學(xué)生的權(quán)利、增強人員之間的交流和復(fù)合人才的培養(yǎng)以及建構(gòu)合理的責(zé)任分配機制等,以確保教學(xué)人工智能的廣泛應(yīng)用與發(fā)展。

[關(guān)鍵詞]教學(xué)人工智能;人機共處模式;教學(xué)決策;人工智能算法;篩選機制

[中圖分類號]G434[文獻標(biāo)識碼]A [文章編號]1005-5843(2023)06-0099-09

[DOI]10.13980/j.cnki.xdjykx.2023.06.015

2016年美國頒布了《國家人工智能研發(fā)戰(zhàn)略規(guī)劃》,提出在教育應(yīng)用中“研發(fā)更有效的人類與人工智能協(xié)作方法”[1]。這為教學(xué)領(lǐng)域應(yīng)用人工智能(Artificial Intelligence,簡稱 AI)開辟了道路,讓相關(guān)問題開始進入研究者的視野。近年來在大數(shù)據(jù)、云計算、5G技術(shù)、算法、區(qū)塊鏈、語音視覺識別等技術(shù)得到突破的前提下,教學(xué)人工智能的應(yīng)用與研究也邁入了快車道,掀起了一股熱潮。在這種情況下,我國亦根據(jù)國情制定了一系列的文件和政策,積極支持把人工智能技術(shù)在教學(xué)領(lǐng)域進行應(yīng)用并與之相結(jié)合作為重點來發(fā)展。如2017年國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,提出“利用智能技術(shù)加快推動人才培養(yǎng)模式、教學(xué)方法改革”。2018 年教育部印發(fā)了《教育信息化 2.0 行動計劃》,提出要開展智慧教育的探索與實踐。2019 年國務(wù)院印發(fā)了《中國教育現(xiàn)代化 2035》,提出2035年建成“智能化校園”和“智能化教學(xué)”等目標(biāo),無論是教學(xué)體系還是教學(xué)能力都實現(xiàn)智能化。在國家的一系列文件和政策的指引下,學(xué)界開始探究教學(xué)人工智能的空間與限度的問題。在探討教學(xué)人工智能的前景時,大多數(shù)學(xué)者認(rèn)為教學(xué)人工智能只能起到輔助性的作用,特別是對人類教師的教學(xué)決策能夠起到比較突出的改善性的作用[2],但有學(xué)者認(rèn)為教學(xué)人工智能有取代人類教師教學(xué)工作的潛在能力[3]。造成這些差異性認(rèn)識的原因在于:多數(shù)學(xué)者只是從宏觀和一般角度對教學(xué)中的人機共處模式及作用進行探討,大多停留在原則性和展望性層面上,未基于教學(xué)的獨特需求以及教學(xué)人工智能的實際應(yīng)用經(jīng)驗等從具體和微觀層面進行探討。鑒于此,本文從教學(xué)人工智能應(yīng)用現(xiàn)狀出發(fā),立足于教學(xué)的育人價值追求,對教學(xué)人工智能的空間、限度與超越展開深入探討。

一、教學(xué)人工智能的空間

從控制論的角度來看,當(dāng)在某一領(lǐng)域能夠利用一種工具或技術(shù)對人類的思考或勞動予以替代時可稱為人工智能。如美國人工智能領(lǐng)域的開拓者尼爾斯·尼爾森(Nils J.Nilsson)就把在比較復(fù)雜環(huán)境中能夠進行自主感知、學(xué)習(xí)、推理和決策的機器或系統(tǒng)作為人工智能定義的核心內(nèi)容。其顯著的標(biāo)準(zhǔn)是:能否將人類的事情完成,甚至比人類還做得好[4]。因此,本文所探討的教學(xué)人工智能是指那些能夠在教學(xué)中替代人類教師開展教學(xué)活動的機器或者系統(tǒng)。它是人類教師借助人機的高效協(xié)同,在智能化的教學(xué)環(huán)境中傳授知識和促進學(xué)生身心健康成長的過程[5]。也就是說,本文所指稱的教學(xué)人工智能是在廣義上使用這個概念。在這種情況下,基于網(wǎng)絡(luò)化、數(shù)字化和智能化融合驅(qū)動的人工智能技術(shù)被應(yīng)用于教學(xué)領(lǐng)域都屬于此類[6]。

當(dāng)前,許多人工智能助教系統(tǒng)進入教學(xué)領(lǐng)域,如我國北極星 AI 助教、句酷批改網(wǎng)和101 教育 PPT等[7],這已成為當(dāng)下的一種不可逆轉(zhuǎn)的趨勢和潮流。有學(xué)者認(rèn)為,倘若人工智能技術(shù)在教學(xué)中的應(yīng)用能夠產(chǎn)生出比人類教師更具可接受和可說服的教學(xué)效果來,那么在可靠性和成本效益方面自然比人類教師更具優(yōu)勢。在這種情況下,將人工智能視作教師也未嘗不可[8]。從教學(xué)人工智能表現(xiàn)出教學(xué)過程的高效化、精準(zhǔn)化、個性化以及科學(xué)性和可靠性上看,教學(xué)人工智能比人類教師具有明顯的優(yōu)勢[9]。首先,教學(xué)人工智能有利于實現(xiàn)教學(xué)內(nèi)容的個性化發(fā)展?!爸R大爆炸”的時代,不僅使教學(xué)內(nèi)容更加豐富,也導(dǎo)致了學(xué)生需求的多樣性?!安钌簧希瑑?yōu)生吃不飽”的現(xiàn)象在傳統(tǒng)課堂的教學(xué)中普遍存在。從當(dāng)前教學(xué)人工智能的應(yīng)用實踐來看,教學(xué)人工智能可以充分發(fā)揮其優(yōu)勢,在以下幾個方面對教學(xué)內(nèi)容個性化予以提升:一是人類教師可以根據(jù)學(xué)生的實際情況,結(jié)合教學(xué)人工智能所提供的豐富資源、工具和平臺,對每類學(xué)生選擇性適用,滿足學(xué)生的個性化需求。在人類教師和教學(xué)人工智能的交互作用下,教學(xué)人工智能囊括了教學(xué)所需的影音視頻、參考文件、測試、作業(yè)等教學(xué)資源、AR教學(xué)和VR教學(xué)等教學(xué)工具和各種平臺等,把原有受時空限制的教學(xué)予以無限地拓展,而且在教學(xué)人工智能的協(xié)助下有效推動教學(xué)流程的便捷化和自動化[10]。二是教學(xué)人工智能可以關(guān)注每個學(xué)生的學(xué)習(xí)需求。學(xué)生利用智能移動終端設(shè)備,隨時可以將自己不懂的問題傳輸給教學(xué)人工智能,教學(xué)人工智能根據(jù)之前積累的教學(xué)數(shù)據(jù)解答問題,對于不能解答的問題,教學(xué)人工智能會把問題反饋給人類教師,由人類教師做出解答。有效的人機交互模式既減輕了教師的工作負(fù)擔(dān)又能滿足學(xué)生的個性化需求。三是教學(xué)人工智能可以及時反饋每個學(xué)生的學(xué)習(xí)效果。教學(xué)人工智能可以實時反饋學(xué)生的學(xué)習(xí)數(shù)據(jù),還可以對單個學(xué)生及整個班級學(xué)習(xí)狀況生成評價報告,為人類教師深入了解課堂教學(xué)情況打下堅實基礎(chǔ),也為下一次課堂教學(xué)內(nèi)容安排與設(shè)計提供可參考的依據(jù)[11]。如北極星 AI 助教、101 教育 PPT都具有這樣的功能。其次,教學(xué)人工智能能夠更好地保障教學(xué)目標(biāo)的準(zhǔn)確實現(xiàn)。一般而言,教學(xué)活動應(yīng)該有明確的教學(xué)目標(biāo),可能包括多維的知識目標(biāo)、能力目標(biāo)和價值目標(biāo)。教學(xué)實踐中,不同教學(xué)目標(biāo)的達(dá)成依賴于不同的教學(xué)活動,往往難以在有限的課堂教學(xué)中完全達(dá)成,不同的人類教師在講授相同的教學(xué)內(nèi)容時也會側(cè)重不同的教學(xué)目標(biāo)。在教學(xué)人工智能系統(tǒng)中,通過建構(gòu)出相應(yīng)的算法模型,對教學(xué)的決策、實施、評價和分析做出判定[12]。這種算法模型的建構(gòu),能夠根據(jù)先前所建構(gòu)的知識圖譜而自動地關(guān)聯(lián)到相應(yīng)的教學(xué)知識鏈條,為確保相同的教學(xué)內(nèi)容達(dá)成完整的教學(xué)目標(biāo)提供了可靠和可行的路徑。例如一些教學(xué)內(nèi)容推送系統(tǒng)、智能導(dǎo)學(xué)系統(tǒng)(Intelligence Teaching System,ITS)、北極星AI助教等教學(xué)輔助系統(tǒng)在保障人類教師遵循相同教學(xué)達(dá)成相同教學(xué)目標(biāo)方面已經(jīng)取得一定的效果。此類研究也成為當(dāng)下的潮流,從而在充分發(fā)揮教學(xué)人工智能保障教學(xué)目標(biāo)實現(xiàn)中起到積極作用。再次,教學(xué)人工智能能夠基于教師群體的經(jīng)驗而實施更穩(wěn)定和可預(yù)測的教學(xué)活動,保障教學(xué)決策的科學(xué)性。教學(xué)活動的穩(wěn)定性和可預(yù)測性直接關(guān)系到教學(xué)的質(zhì)量和學(xué)生的可接受性,以及有效凝聚教學(xué)共識目標(biāo)的實現(xiàn)。一方面,在人工智能所具有的存儲能力、算法和算力的優(yōu)勢的支持下,教學(xué)人工智能能夠通過分析、歸類、匯總和索引等方式對教學(xué)內(nèi)容、教學(xué)規(guī)律、教學(xué)規(guī)范和教學(xué)環(huán)節(jié)等教學(xué)數(shù)據(jù)更加全面地掌握,教學(xué)人工智能的決策是基于全量信息,不管是在掌握信息總量方面還是在發(fā)掘和整理信息規(guī)律方面都擁有超越人類教師的能力。這就無疑對教學(xué)人工智能決策的全面性和理性化起到了保障作用。另一方面,在面對相對復(fù)雜和新型的教學(xué)內(nèi)容時,教學(xué)人工智能的決策也是在人類教師群體經(jīng)驗和公共理性的基礎(chǔ)之上而做出的,與個別人類教師可能按照直覺或臆想而作出的教學(xué)決策相比,應(yīng)該更具有穩(wěn)定性和可預(yù)測性。在具體的實踐中,人工智能教學(xué)輔助系統(tǒng)已展現(xiàn)出特有的穩(wěn)定性和可預(yù)測性。如Wiley和 Hastings 等人把學(xué)習(xí)者生成的文檔,在利用兩段式的機器學(xué)習(xí)和自然語言理解技術(shù)且結(jié)合語義索引(Latent Semantic Index)和Coh-Metrix 評分引擎的情況下,依靠對文檔中的因果關(guān)系及鏈條的檢測來評價學(xué)生對概念和想法的運用,其結(jié)果顯示采取混合方法檢測和評價內(nèi)容具有優(yōu)勢[13]。在這種情況下,意味著教學(xué)人工智能的決策已擁有更加穩(wěn)定和理性的特質(zhì),對提升教學(xué)的確定性和可預(yù)測性大有裨益,從而增強了教學(xué)整體的質(zhì)量和效果。最后,教學(xué)人工智能能夠有效防范人類教師決策的偏見風(fēng)險,保障教學(xué)效果的確定性。隨著人工智能技術(shù)的深入發(fā)展,近些年快速興起的腦機接口技術(shù)(Brain-Computer Interface,BCI)成為新的突破口。通過神經(jīng)網(wǎng)絡(luò)技術(shù)使算法不僅具備深度學(xué)習(xí)和自主學(xué)習(xí)的能力,而且具備自動迭代等能力。因此,能夠直接解構(gòu)、重組和發(fā)掘教學(xué)原始數(shù)據(jù)要素中的關(guān)聯(lián)意義,在這個基礎(chǔ)上開展教學(xué)的決策。這就將人類教師決策的偏見等不當(dāng)?shù)耐庠谝蛩嘏懦诮虒W(xué)決策過程之外,有利于保障教學(xué)決策的客觀性與合理性。對此,有學(xué)者就指出:當(dāng)在教學(xué)上發(fā)生與同類相關(guān)的爭議時,均可以利用同一的算法來解決。在這種情況下,教學(xué)人工智能能夠防范和消除人類教師出于對好教師或具有人情味的教師的名聲的追求而任意展開教學(xué)的風(fēng)險[14]。而且在具體的實踐中,教學(xué)人工智能的客觀性也得到了肯定。如Westera等人把學(xué)習(xí)者173 份的論文通過使用 Reader Bench 框架(一種自然語言理解的軟件模型),為這些論文報告生成一組文本復(fù)雜度指數(shù),然后將不同配置的機器學(xué)習(xí)算法相結(jié)合來預(yù)測分?jǐn)?shù),實驗表明該方法擁有相當(dāng)高的精確度。這樣確保了人類教師決策的客觀性,因而是符合“教書育人”要求的。

二、教學(xué)人工智能的限度

盡管教學(xué)人工智能在許多方面表現(xiàn)出比人類教師更優(yōu)的特性,但它仍面臨著技術(shù)上的困境、價值上的挑戰(zhàn)和治理上的難題[15]。只有全面和客觀地看待教學(xué)人工智能的限度,才能深入系統(tǒng)探討教學(xué)人工智能的發(fā)展前景。

(一)技術(shù)上面臨的困境

1.教學(xué)數(shù)據(jù)供給不足的困境。教學(xué)人工智能的優(yōu)勢是基于全量教學(xué)數(shù)據(jù)深度學(xué)習(xí)而對決策模型予以構(gòu)建,因此,它的科學(xué)性和可靠性是由教學(xué)數(shù)據(jù)的全面性、完整性和準(zhǔn)確性維系的。大多數(shù)人工智能教學(xué)輔助系統(tǒng)都是以教學(xué)案例作為數(shù)據(jù)學(xué)習(xí)來源進行制成的。當(dāng)下的教學(xué)案例無論在數(shù)量還是在質(zhì)量上都難以滿足教學(xué)人工智能所要求的全面性、完整性和準(zhǔn)確性標(biāo)準(zhǔn)。我國雖已建立一定的教學(xué)案例數(shù)據(jù)庫,但從數(shù)量上來看,可使用的公開教學(xué)案例可能僅占少部分。考慮到目前在案例公開程序上缺乏完善的管理制度,教學(xué)案例涉及智力成果歸屬問題,以及案例公開的成本等因素,教學(xué)案例選擇性公開的狀況普遍存在。從質(zhì)量上來看,即使是已公開的教學(xué)案例,也存在著質(zhì)量參差不齊的情形,甚至存在簡化教學(xué)設(shè)計以及重復(fù)進行教學(xué)設(shè)計等情形[16]。而且由于缺乏科學(xué)系統(tǒng)的教學(xué)數(shù)據(jù)積累計劃,已公開的教學(xué)數(shù)據(jù)并不能對教學(xué)的全貌進行細(xì)致全面的反映,如學(xué)生與教師之間的溝通與交流、獨特的教學(xué)視角和模式的運用、個人教學(xué)風(fēng)格的內(nèi)在張力地展現(xiàn)、教學(xué)委員會的群體討論等都難以依靠數(shù)據(jù)化的方式得到有效呈現(xiàn),這就導(dǎo)致了教學(xué)人工智能所習(xí)得的數(shù)據(jù)供給不足因此存在局限性,它們無法達(dá)到全面性、完整性和準(zhǔn)確性的數(shù)據(jù)狀態(tài),從而影響到教學(xué)人工智能的科學(xué)性和可靠性[17]。

2.教學(xué)人工智能難以擺脫算法黑箱的困境,這與實現(xiàn)教學(xué)目標(biāo)所要求的教學(xué)活動的透明性和公開性發(fā)生了沖突和矛盾。美國著名信息專家詹娜·布瑞爾(Burrell Jenna)對造成算法黑箱的原因進行了總結(jié),認(rèn)為一是因算法涉及國家機密或商業(yè)秘密而產(chǎn)生有目的的不透明;二是因在把握算法技術(shù)的能力和程度上的差異而產(chǎn)生技術(shù)文義的不透明;三是因算法的復(fù)雜性和先進性而產(chǎn)生固有的不透明[18]。以上三種原因也是影響教學(xué)人工智能算法透明度的主要因素。具言之,首先,當(dāng)前多數(shù)人工智能教學(xué)輔助系統(tǒng)都是通過外包給相關(guān)技術(shù)公司的方式予以開發(fā)并在它們技術(shù)支持下開展應(yīng)用。但這些公司都從自身商業(yè)利益出發(fā),常常拒絕向發(fā)包單位公開算法,甚至抵制相關(guān)算法的公開。如2018年美國紐約市出臺了《自動化決策特別工作組法》,實現(xiàn)監(jiān)管政府所應(yīng)用的諸多算法的目的。但這一法案遭到許多科技公司以商業(yè)秘密保護為由的強烈抵制,迫使該法案最終被取消[19]。其次,因教學(xué)人工智能算法愈是具有高效性和精確性,就愈需要先進技術(shù)予以支持和復(fù)雜的原理來進行支撐。但算法知識的專業(yè)性本來就使普通人難以理解其運作原理,這對于沒有計算機知識背景的教師或?qū)W生來說也如此,他們均難以對教學(xué)人工智能算法設(shè)計和運作機理進行掌握和理解。最后,教學(xué)人工智能算法的復(fù)雜性不僅表現(xiàn)為具有潛在的自我學(xué)習(xí)能力,而且表現(xiàn)為具有潛在的自我編程能力,還表現(xiàn)為具有潛在的自我更新迭代的能力,特別是可以輕松地擬合萬維以上的函數(shù)。因此,教學(xué)人工智能算法在應(yīng)用一段時間之后,哪怕是設(shè)計算法的人員也難以準(zhǔn)確解釋教學(xué)人工智能決策背后的算法邏輯。

3.教學(xué)數(shù)據(jù)挖掘需要大量投入的困境。教學(xué)人工智能的主流算法是建立在知識圖譜和深度學(xué)習(xí)相結(jié)合的基礎(chǔ)之上的,在這種基于從多個數(shù)據(jù)源中提取信息方式的知識圖譜的半監(jiān)督學(xué)習(xí)(semi-supervised learning)方法中[20],無論是數(shù)據(jù)的精確化程度還是模型的精細(xì)化程度都對教學(xué)人工智能決策的準(zhǔn)確性有著直接的影響。但結(jié)構(gòu)化的語義知識圖譜繪制并非是通過人工智能可以完成的,需要大量的教學(xué)專業(yè)人員歸納總結(jié)教學(xué)規(guī)律、教學(xué)規(guī)范以及教學(xué)構(gòu)成的相關(guān)節(jié)點的特點,而且對此打上明確的標(biāo)簽。這些人工歸納總結(jié)活動為機器深度學(xué)習(xí)提供可靠的數(shù)據(jù)集合。同時,因教學(xué)案例數(shù)據(jù)信息具有一定程度的不客觀性、不真實性和不全面性的問題,加之在教學(xué)術(shù)語運用方面也存在著不統(tǒng)一性,以及教學(xué)數(shù)據(jù)結(jié)構(gòu)化水平明顯不高等問題。這就不僅需要大量人工對相關(guān)數(shù)據(jù)進行清洗和挖掘,而且需要大量人工對相關(guān)數(shù)據(jù)予以結(jié)構(gòu)化改造。所以,從當(dāng)前教學(xué)人工智能的實踐來看,“有多少人工方能產(chǎn)出多少智能”“有多少優(yōu)秀人工才能帶來多少優(yōu)秀智能”[21]。這意味著教學(xué)人工智能的建設(shè)無論是在人力和物力方面還是在財力方面需要長期和大量的投入。另外,在人文社科領(lǐng)域,它的主觀性和不確定性一般表現(xiàn)得十分突出。在這種情況下,當(dāng)教學(xué)人工智能的準(zhǔn)確率達(dá)到一定水平與程度之后,如果再對教學(xué)人工智能的準(zhǔn)確率作進一步的提升,那么就需要以幾何倍的增長方式進行投入。因此,當(dāng)教學(xué)人工智能的可靠性與高效性未完全釋放出來,并且對它的應(yīng)用前景并不清晰的情況下,就需要通過長期的高投入去發(fā)展教學(xué)人工智能,無疑對教學(xué)人工智能的應(yīng)用與發(fā)展的信心和耐心是一種嚴(yán)峻的考驗。

(二)價值上面臨的挑戰(zhàn)

1.教學(xué)人工智能決策難以防范價值偏見的風(fēng)險。從表面上來看,教學(xué)人工智能基于內(nèi)在的邏輯功能是可以對人類教師先入為主的價值偏見起到防范作用的。但事實上,教學(xué)人工智能并非我們想象那樣能夠保持客觀與中立的狀態(tài)。這是因為,教學(xué)人工智能是基于挖掘和學(xué)習(xí)先前教師教學(xué)經(jīng)驗與數(shù)據(jù)而進行教學(xué)預(yù)測工作。而且教學(xué)人工智能離不開“GIGO(garbage in, garbage out)定律”的支配與影響,這使得教學(xué)人工智能對先前教師的教學(xué)經(jīng)驗予以習(xí)得的同時,不可避免的對先前教師教學(xué)經(jīng)驗中所包含的價值偏見部分予以習(xí)得,就產(chǎn)生了所謂的“偏見進,則偏見出”的現(xiàn)象[22]。再者,學(xué)校在教學(xué)人工智能技術(shù)開發(fā)方面的能力有限,多數(shù)人工智能教學(xué)輔助系統(tǒng)都是通過外包給技術(shù)公司的方式開發(fā)并在它們的技術(shù)支持下開展應(yīng)用。如果公司的技術(shù)人員本身存在價值偏見或基于自身利益的考慮而產(chǎn)生價值偏見等,那么就有可能將這些價值偏見寫入教學(xué)人工智能算法之中。而且算法黑箱和技術(shù)壁壘在教學(xué)人工智能發(fā)展中客觀存在,這就會導(dǎo)致無法立刻發(fā)現(xiàn)和及時糾正產(chǎn)生的價值偏見。在這種情況下,由于教學(xué)人工智能大規(guī)模應(yīng)用于教學(xué)領(lǐng)域。因此,在教學(xué)人工智能決策中產(chǎn)生價值偏見的風(fēng)險不可避免。

2.教學(xué)人工智能難以依據(jù)教學(xué)或社會發(fā)展的價值需求做出及時地改變或創(chuàng)新。教學(xué)并非是簡單的知識傳授活動。它是由教師的“教”與學(xué)生的“學(xué)”所構(gòu)成的,是以為社會培養(yǎng)棟梁之才為目的的活動[23] 。 因此,不管是對相關(guān)知識的理解還是對教學(xué)活動事實的認(rèn)定,通常均需要人類教師發(fā)揮一定的主觀能動性進行適當(dāng)?shù)臎Q策與指揮。人類教師要對政治、經(jīng)濟、文化、社會心理等因素進行充分考量,從而充分發(fā)揮教學(xué)活動溢出性的作用,以便與社會主義核心價值觀相契合,并引導(dǎo)學(xué)生培養(yǎng)正確的人生觀、價值觀和世界觀。不過,基于以“無須滿足任何更多的條件即可生成‘是’與‘否’的二元選項代碼”[24]的自動化決策的教學(xué)人工智能,盡管在決策過程中排除掉了人類教師帶有偏見的不當(dāng)因素,但這意味著教學(xué)人工智能不僅在展開價值判斷方面缺乏能力,而且在創(chuàng)新方面也缺乏能力,從而導(dǎo)致教學(xué)人工智能的應(yīng)用只能在對教學(xué)需求比較特定和單一,以及教學(xué)目標(biāo)比較明確和教學(xué)模式簡易比較可辨的場景中展開。再者,即便教學(xué)人工智能具有展開價值判斷和創(chuàng)新的能力,從倫理上來看,也是人類需要高度關(guān)注和加以控制的方面。究其原因在于:當(dāng)教學(xué)人工智能能夠替代人類教師展開價值判斷和創(chuàng)新時,人類教師的主體地位必然受到挑戰(zhàn),這就導(dǎo)致人類教師服務(wù)于教學(xué)人工智能而產(chǎn)生主客顛倒的風(fēng)險。

(三)治理上面臨的難題

1.人類教師的主體性喪失的風(fēng)險。教學(xué)人工智能的應(yīng)用可能產(chǎn)生教學(xué)被技術(shù)俘獲和人類教師被算法馴服的風(fēng)險。當(dāng)前的研究結(jié)果表明,由于人工智能不僅帶來了高效便捷和成本低廉的優(yōu)勢,而且?guī)砹嗽跊Q策方面具有較高的準(zhǔn)確性與一致性的優(yōu)勢。因此,很容易形成“強技術(shù)依賴”,在這種依賴心理的影響下,人類更傾向于選擇對機器的信任。尤其是在緊急狀況下,人類選擇對機器的信任超過了對人的信任[25]。在這種情況下,即便教學(xué)人工智能只是對人類教師教學(xué)工作起到輔助性的作用,但在受到從眾效應(yīng)的影響以及規(guī)避責(zé)任風(fēng)險的需求下,人類教師也會更加傾向于采取教學(xué)人工智能的決策結(jié)論,盡可能把自主性的判斷拋棄掉。這就帶來了教學(xué)人工智能應(yīng)用的正當(dāng)性危機。倘若人類教師的教學(xué)活動是由教學(xué)人工智能主導(dǎo)的話,那么人類教師和現(xiàn)有的教學(xué)制度對教學(xué)效果起決定性的作用就不復(fù)存在,而是接受外包服務(wù)并由開發(fā)教學(xué)人工智能算法技術(shù)的公司和人員來發(fā)揮決定性的作用。這必然與人類教師的教學(xué)獨占原則發(fā)生沖突,產(chǎn)生了接受外包服務(wù)的科技公司對教學(xué)實踐不當(dāng)介入的風(fēng)險。

2.教學(xué)決策主動性不足的風(fēng)險。一定程度上,教學(xué)人工智能類似于自動售貨機,隱去復(fù)雜的教學(xué)決策過程,提供成熟的教學(xué)產(chǎn)品。這一特點可能將人類教師和學(xué)生全程和深度參與教學(xué)活動過程的機會剝奪。從教學(xué)活動的特點來看,人類教師和學(xué)生的意見能否在教學(xué)活動中得到充分的表達(dá)和充分的尊重,是對教學(xué)效果產(chǎn)生影響的重要因素。教學(xué)人工智能決策方式的出現(xiàn),昭示了階段化的機器論斷可能取代傳統(tǒng)遞進式教學(xué)活動的過程,不僅導(dǎo)致人類教師和學(xué)生失去通過溝通不斷修正和深入表達(dá)意見的機會,而且導(dǎo)致人類教師和學(xué)生失去通過全面和深度參與教學(xué)活動過程的機會。而且當(dāng)人工智能技術(shù)得到進一步發(fā)展,它勢必在更大程度上影響到教學(xué)決策。這最終會造成對教學(xué)決策的可信賴性的損害。

3.教學(xué)人工智能決策帶來了事故責(zé)任分配的困境。從當(dāng)前的研究來看,人工智能教學(xué)主體的多元化、教學(xué)標(biāo)準(zhǔn)的復(fù)雜化和責(zé)任承擔(dān)方式的模糊性等因素使得教學(xué)人工智能的責(zé)任分配成為難題。首先,教學(xué)人工智能是人類教師的“替身”還是“助手”的問題尚無定論,所以,能否將教學(xué)人工智能當(dāng)做事故責(zé)任主體也存在著較大的爭議。即便是將教學(xué)人工智能當(dāng)成強人工智能看待,也有許多學(xué)者堅持否定教學(xué)人工智能的事故責(zé)任主體地位[26]。其次,人工智能教學(xué)標(biāo)準(zhǔn)的復(fù)雜化導(dǎo)致教學(xué)事故責(zé)任承擔(dān)方式的模糊,使得人工智能教學(xué)決策帶來的事故責(zé)任承擔(dān)條件以及承擔(dān)方式的建構(gòu)面臨著較大的挑戰(zhàn)。最后,教學(xué)人工智能的出現(xiàn)對原有的“誰出事故,誰承擔(dān)責(zé)任”的責(zé)任分配原則提出了挑戰(zhàn)。在事故責(zé)任的承擔(dān)方式上,是由教學(xué)人工智能擔(dān)責(zé),還是由人類教師、學(xué)校單獨擔(dān)責(zé)或共同擔(dān)責(zé)也存在一定的爭議。

綜上看來,教學(xué)人工智能面臨在技術(shù)上的困境、在價值上的挑戰(zhàn)和在治理上的難題。這就使得一些學(xué)者認(rèn)為教學(xué)人工智能只能作為人類教師的“助手”存在,難以像人類老師那樣自由開展工作和進行自主性的思考,只是一種高級的輔助工具而已。事實上,教學(xué)人工智能對教學(xué)的高效化、精準(zhǔn)化和個性化是大有裨益的,在保障教學(xué)的科學(xué)性和可靠性方面也更具優(yōu)勢。

三、教學(xué)人工智能的超越

以上對教學(xué)人工智能的可能空間與內(nèi)在限度的分析,為客觀和理性看待教學(xué)人工智能打下了堅實的基礎(chǔ)。但必須在充分發(fā)揮教學(xué)人工智能提升教學(xué)的高效化、精準(zhǔn)化和個性化的優(yōu)勢和保障教學(xué)的科學(xué)性和可靠性的同時,盡可能克服教學(xué)人工智能所存在的技術(shù)困境、價值挑戰(zhàn)和治理難題。

(一)構(gòu)建積極務(wù)實的人機共處模式

對于教學(xué)人工智能發(fā)展前景的探討必須明確教學(xué)領(lǐng)域內(nèi)的人機關(guān)系。這樣就需要客觀和理性看待教學(xué)人工智能的地位,教學(xué)人工智能到底是人類教師的“助手”還是“替身”?當(dāng)前學(xué)界較為現(xiàn)實的看法是將簡單的教學(xué)任務(wù)交由人工智能處理,將復(fù)雜的教學(xué)任務(wù)交由人類教師處理[27]。但爭論的焦點在于教學(xué)人工智能是否做處理簡單的教學(xué)任務(wù)。對此,本文認(rèn)為是可行的。其理由如下。

1.將簡單的教學(xué)任務(wù)交由人工智能處理在技術(shù)上具有可行性。簡單教學(xué)任務(wù)的教學(xué)對象明確,教學(xué)任務(wù)、教學(xué)目標(biāo)和規(guī)程相對明晰,這些特性與人工智能的形式邏輯內(nèi)核高度契合。教學(xué)過程中不需要對教學(xué)事實認(rèn)定進行復(fù)雜的推理,更不需要在對教學(xué)事實認(rèn)定中通過發(fā)揮主觀能動性來進行解釋,這就為教學(xué)人工智能提供了較為明晰的適用對象。人工智能教學(xué)輔助系統(tǒng)只要按照結(jié)構(gòu)化的語義知識圖譜進行類教學(xué)關(guān)聯(lián)就可以了,得出的教學(xué)結(jié)論是依靠“對號入座”的方式適用教學(xué)法則。從當(dāng)前已有的實踐來看,教學(xué)人工智能在一些可類型化的簡單教學(xué)中,對人類教師予以替代在技術(shù)上具有可行性[28]。

2.將簡單的教學(xué)任務(wù)交由教學(xué)人工智能處理并未對人類教師的主導(dǎo)地位予以否定。由于簡單的教學(xué)任務(wù)無論是在教學(xué)目標(biāo)、教學(xué)內(nèi)容上,還是在教學(xué)對象、教學(xué)規(guī)程上都是具體清晰的,人類或人工智能教師,都只需要依照教學(xué)目標(biāo)、教學(xué)內(nèi)容、教學(xué)對象和教學(xué)規(guī)程提供一個明確的教學(xué)結(jié)論就可以了。從根本上來看,教學(xué)人工智能處理簡單教學(xué)任務(wù)也只不過是在重復(fù)人類教師的經(jīng)驗和做法。最能夠體現(xiàn)人類教師主導(dǎo)地位的則是需要展開價值判斷或創(chuàng)新的部分,這是教學(xué)中難度最高和最復(fù)雜的部分。只要教學(xué)中的價值判斷或創(chuàng)新的權(quán)力被人類教師所掌握,就很難說教學(xué)人工智能對人類教師的主導(dǎo)地位形成挑戰(zhàn)[29] 。

3.將簡單的教學(xué)任務(wù)交由教學(xué)人工智能處理能夠降低教學(xué)成本和提升教學(xué)質(zhì)量。雖然科學(xué)技術(shù)邁進自反性科學(xué)化階段,但仍然既要重視科學(xué)自我招致錯誤的界定與分配問題,也要重視科學(xué)自我招致風(fēng)險的界定與分配問題。從成本—收益分析法的角度來看,這是正確處理科技與風(fēng)險之間關(guān)系的最佳方法。對于教學(xué)人工智能來講,當(dāng)把它適用于簡單教學(xué)任務(wù)地處理時,可能會在一定程度上產(chǎn)生人類教師意想不到的錯誤或差錯。但由于簡單的教學(xué)任務(wù)無論是在教學(xué)目標(biāo)和教學(xué)內(nèi)容還是教學(xué)對象和教學(xué)規(guī)程上都比較清晰,因此,簡單的教學(xué)任務(wù)方面所犯的錯誤很容易被發(fā)現(xiàn)并立即糾正,這樣通常成本十分低。特別是在教學(xué)部門建立相應(yīng)的算法審查機構(gòu),能夠及時和隨機地對教學(xué)人工智能算法展開審查并積極糾正錯誤即可。不過,這對于教學(xué)活動而言,在收益上是相當(dāng)可觀的。從整個教學(xué)活動來看,簡單的教學(xué)任務(wù)所占的比重是相當(dāng)高的,尤其是初學(xué)知識的部分,幾乎要占到將近80%。將這些教學(xué)任務(wù)交由教學(xué)人工智能處理,這就意味著可以對人類教師的數(shù)量進行一定程度地削減,進而能夠節(jié)省教學(xué)中人力和物力的消耗。與此同時,能夠讓有限的人類教師將更多的精力投入到教學(xué)中需要展開價值判斷或創(chuàng)新的部分,有利于促進教學(xué)質(zhì)量的不斷提升[30]。

(二)確立應(yīng)對算法難題之措施

教學(xué)人工智能的算法是其運行的核心。因此,對算法黑箱、算法歧視和算法漏洞的規(guī)制是實現(xiàn)教學(xué)人工智能正當(dāng)和可靠決策的前提與基礎(chǔ)。從教學(xué)人工智能的特質(zhì)來看,可以采取以下措施應(yīng)對教學(xué)人工智能的算法難題。

1.建立健全教學(xué)案例篩選機制,為教學(xué)人工智能的算法提供良好的數(shù)據(jù)學(xué)習(xí)集合打下基礎(chǔ)。其一,因教學(xué)人工智能決策是基于類型化的簡單教學(xué)任務(wù)而展開的。所以,必須在國家教育目的的規(guī)范下,以現(xiàn)有優(yōu)秀的教學(xué)案例等素材作為教學(xué)人工智能系統(tǒng)建模的基礎(chǔ)數(shù)據(jù)來源。其二,拓補現(xiàn)有教學(xué)信息的記載方式以及強化對教案的公開,從而確保作為教學(xué)人工智能學(xué)習(xí)素材樣本的全面性和完整性。同時,需要盡可能通過對教學(xué)信息記錄的電子化和自動化程度的提升,以實現(xiàn)類課堂教學(xué)過程的全面數(shù)據(jù)化,從而確保教學(xué)人工智能能夠全面系統(tǒng)地習(xí)得人類教師的經(jīng)驗。其三,完善教學(xué)案例的退出機制,這對于教學(xué)人工智能決策科學(xué)性的優(yōu)化大有裨益。在具體實踐中,通過機器自主清理那些過時和劣質(zhì)的教學(xué)案例,教育部門以標(biāo)注和定期審查等方式及時清理那些過時和劣質(zhì)的教學(xué)案例,從而確保作為教學(xué)人工智能學(xué)習(xí)素材樣本的高質(zhì)量。其四,拓補教學(xué)專家參與機制,應(yīng)當(dāng)讓經(jīng)驗豐富的教學(xué)專家參與對教學(xué)案例的選擇以及數(shù)據(jù)的標(biāo)注并對該過程予以主導(dǎo),從而不僅確保對教學(xué)案例的選擇和數(shù)據(jù)的標(biāo)注節(jié)點的合理性,而且確保對教學(xué)案例的選擇以及數(shù)據(jù)集合的代表性和準(zhǔn)確性,以提升教學(xué)人工智能決策的可靠性[31] 。

2.把育人為本這一基本價值嵌入算法之中,確保教學(xué)人工智能算法決策符合育人為本的價值導(dǎo)向。美國人工智能專家凱西·奧尼爾認(rèn)為,算法是一種無道德的想象力?;诖_保算法有益性的需要,就必須在算法當(dāng)中嵌入更好的價值,以便建構(gòu)出能夠與人類道德準(zhǔn)則保持一致的大數(shù)據(jù)模型[32]。可見,教學(xué)人工智能的算法設(shè)計人員應(yīng)當(dāng)將“育人為本”的價值嵌入教學(xué)人工智能的算法之中。一是通過確立價值函數(shù)和權(quán)重的方式,不僅把教學(xué)人工智能的價值判斷體系化,而且把教學(xué)人工智能的價值判斷客觀化。其中就是根據(jù)不同的教學(xué)類型,以及對價值的不同重視程度,來對相應(yīng)的權(quán)重比值進行確定,使教學(xué)人工智能無論在價值的選擇上還是在價值的判斷上具有一定的能力。從這種思路來看,美國學(xué)者托馬斯L.薩蒂就提出了等級層次和網(wǎng)絡(luò)層次分析法。而這種算法的構(gòu)建是基于定量分析和定性分析的結(jié)合[33],有利于人工智能對價值選擇難題有效應(yīng)對。二是通過建構(gòu)價值判斷預(yù)測模型,從而提升教學(xué)人工智能的價值判斷能力。從價值判斷預(yù)測模型的原理來看,它是通過當(dāng)前教學(xué)活動與先前教學(xué)案例之間是否存在局部或交叉的價值判斷區(qū)間進行檢索,而且通過對共享價值判斷在先前教學(xué)案例中所占比重予以權(quán)衡,從而采取類比方式確立當(dāng)前教學(xué)價值價值判斷預(yù)測模型。

3.提升教學(xué)人工智能算法的透明度和可解釋性,以滿足教學(xué)活動公開性要求。目前算法的可解釋性與商業(yè)秘密的保護及算法的先進性之間存在著矛盾。而教學(xué)人工智能系統(tǒng)多是通過外包給相關(guān)科技公司開發(fā)的,但教學(xué)人工智能的算法涉及教育公共利益。因此,學(xué)校在將教學(xué)人工智能系統(tǒng)外包給相關(guān)技術(shù)公司時就應(yīng)當(dāng)事先將算法代碼的交付和公開予以協(xié)商,從而保障教學(xué)活動參與者對教學(xué)人工智能算法的了解和把握。不過,代碼的開源并不必然帶來對算法決策邏輯架構(gòu)的掌握。從實踐來看,通常是愈準(zhǔn)確和強大的預(yù)測模型愈顯得較為復(fù)雜。同時,人工智能也在不斷強化自我學(xué)習(xí)能力、自我編程能力和自我迭代能力。這樣一來,連專業(yè)的技術(shù)人員對許多算法邏輯都難以掌握。因此,有學(xué)者認(rèn)為要求算法完全透明是一種奢望,只要能夠合理解釋和說明算法的設(shè)計目的及運行基本原理即可[34]。這就達(dá)到了對算法要求公開的目的。對此,相關(guān)研究人員開發(fā)了一種概念激活向量定量測試的算法[35]。而這種算法能夠以量化的方式把不同教學(xué)類型影響教學(xué)效果的程度顯示出來,有利于對教學(xué)人工智能算法的內(nèi)部運行狀態(tài)作一種解釋。

4.構(gòu)建教學(xué)人工智能算法審計制度,以消除教學(xué)人工智能算法的歧視。從人工智能應(yīng)用于不同領(lǐng)域的現(xiàn)狀來看,把獨立的算法審計機構(gòu)建立起來非常必要,特別是監(jiān)督和審計涉及公共利益的算法尤為必要。在這種情況下,就應(yīng)當(dāng)構(gòu)建教學(xué)人工智能算法審計制度,對教學(xué)人工智能的算法展開獨立的審計。因此,在構(gòu)建教學(xué)人工智能算法審計制度時,可以要求開發(fā)人員在教學(xué)人工智能算法之中事先嵌入審計線索,便于對教學(xué)人工智能算法決策的依據(jù)及過程進行記錄,有利于審計機構(gòu)開展教學(xué)人工智能算法的審計工作。如充分利用基于哈希函數(shù)的可編輯區(qū)塊鏈技術(shù),記錄和留存教學(xué)人工智能算法決策的關(guān)鍵節(jié)點,為開展教學(xué)人工智能算法審計工作提供方便的技術(shù)接口。特別在交付使用教學(xué)人工智能系統(tǒng)前,審計機構(gòu)就應(yīng)當(dāng)利用數(shù)據(jù)測試方式展開審計算法查看是否存在偏見和漏洞等問題,并且在交付使用教學(xué)人工智能系統(tǒng)后,審計機構(gòu)應(yīng)當(dāng)依申請或采取隨機抽查等方式展開審計,以保障教學(xué)人工智能算法的公正性和合理性[36] 。

(三)保障人類教師和學(xué)生的權(quán)利

無論人工智能技術(shù)如何發(fā)展,都必須把遵從個人自主和個人優(yōu)先放在突出位置。因此,在教學(xué)領(lǐng)域應(yīng)用人工智能不僅應(yīng)當(dāng)充分尊重人類教師和學(xué)生的自主選擇權(quán),而且應(yīng)當(dāng)充分尊重人類教師和學(xué)生的提出異議權(quán),還應(yīng)當(dāng)充分尊重人類教師和學(xué)生獲得解釋權(quán)。其一,對于簡單的教學(xué)任務(wù),人類教師和學(xué)生都擁有選擇是否運用教學(xué)人工智能的決定權(quán)。倘若人類教師和學(xué)生都拒絕或一方拒絕,那么學(xué)校就應(yīng)當(dāng)把簡單的教學(xué)任務(wù)交由人類教師完成。其二,在教學(xué)人工智能作出決策之后,如果學(xué)生或人類教師對教學(xué)人工智能作出決策提出異議。此時,就應(yīng)當(dāng)依照一定程序交由人類教師或?qū)W校來處理,這就意味著作為守門人的人類教師或?qū)W校在人機關(guān)系之中占據(jù)主導(dǎo)地位,從而防范教學(xué)人工智能對教學(xué)活動的統(tǒng)治風(fēng)險。其三,在教學(xué)人工智能作出決策的過程中,為了避免教學(xué)人工智能的算法利用其自身優(yōu)勢給人類教師和學(xué)生帶來不利的處境,人類教師和學(xué)生可以申請獲得專家或開發(fā)人員對教學(xué)人工智能算法進行解釋,以保障其獲得相對平等和有利地位的能力。

(四)增強人員之間的交流和復(fù)合人才的培養(yǎng)

隨著教學(xué)人工智能的不斷專業(yè)化和完備化,這就需要大批既精通教學(xué)又精通計算機技術(shù)的專業(yè)人員,只有在他們的通力合作中才能推動教學(xué)人工智能的進一步發(fā)展。其一,在教學(xué)人工智能系統(tǒng)地開發(fā)過程中,人類教師及相關(guān)教學(xué)專家需要參與對教學(xué)人工智能系統(tǒng)的設(shè)計、測試、應(yīng)用及改良等環(huán)節(jié),保障教學(xué)人工智能系統(tǒng)更加契合教學(xué)需求、符合教學(xué)規(guī)律和遵循教學(xué)倫理,這有利于對外包科技公司不當(dāng)介入教學(xué)風(fēng)險的防范。其二,在教學(xué)人工智能系統(tǒng)開發(fā)地過程中,技術(shù)開發(fā)人員需要深入了解教學(xué)的運作方式和實現(xiàn)教學(xué)目標(biāo)的途徑等特質(zhì),特別在設(shè)計之初應(yīng)當(dāng)深入學(xué)校調(diào)研和發(fā)放問卷,為設(shè)計出更加契合教學(xué)需求、符合教學(xué)規(guī)律和遵循教學(xué)倫理的人工智能系統(tǒng)打下堅實基礎(chǔ)。其三,從教學(xué)人工智能的應(yīng)用與長遠(yuǎn)發(fā)展來看,對既懂教學(xué)又懂技術(shù)的復(fù)合型人才的培養(yǎng)是關(guān)鍵,也是建構(gòu)可靠的教學(xué)人工智能系統(tǒng)的根本保障。因此,應(yīng)當(dāng)大力培育掌握相關(guān)人工智能技術(shù)的教學(xué)人才,從根本上確保教學(xué)人工智能的良好發(fā)展。

(五)建構(gòu)合理的責(zé)任分配機制

教學(xué)人工智能的責(zé)任分配是推動教學(xué)人工智能發(fā)展的基礎(chǔ),必須建立合理的責(zé)任分配機制。但要分兩種情形來進行構(gòu)建。其一,教學(xué)人工智能為教學(xué)活動提供了材料和數(shù)據(jù)等輔助性的情形。在這種情況下,由于教學(xué)人工智能并未作出決策,只是起到了輔助性的作用,當(dāng)教學(xué)人工智能出現(xiàn)偏誤時,應(yīng)當(dāng)遵從“誰使用,誰負(fù)責(zé)”的基本準(zhǔn)則。因此,由教學(xué)使用人員承擔(dān)主要的責(zé)任。但基于對教學(xué)人工智能所提供材料和數(shù)據(jù)起到輔助作用的程度,可以依照浮動比例原則確定教學(xué)人工智能系統(tǒng)的管理人員承擔(dān)責(zé)任[37]。其二,教學(xué)人工智能處理簡單教學(xué)任務(wù)的情形。在這種情況下,教學(xué)人工智能作出了決策,當(dāng)教學(xué)人工智能決策出現(xiàn)偏誤時,責(zé)任應(yīng)當(dāng)由哪個主體承擔(dān)并沒有定論。從當(dāng)前研究的現(xiàn)狀來看,由人類教師和學(xué)校單獨承擔(dān)或共同承擔(dān)均有一定的道理。但從學(xué)生的角度來看,學(xué)校是教學(xué)活動的主要推動者和開展者,將此責(zé)任交由學(xué)校來承擔(dān)是出于對學(xué)校的信任,而且不管是教學(xué)人工智能作出的決策還是人類教師開展教學(xué)活動都是以學(xué)校的名義進行的。因此,由學(xué)校承擔(dān)相應(yīng)的責(zé)任更加符合教學(xué)活動機制,學(xué)生、家長和社會也均可以接受。不過,完全由學(xué)校直接要求人類教師承擔(dān)此責(zé)任,這會給絕大部分不懂計算機技術(shù)的人類教師帶來困擾,也增大了承擔(dān)責(zé)任的成本,是不可取的方式,也阻礙了教學(xué)人工智能的廣泛應(yīng)用。

教學(xué)人工智能的興起是人工智能發(fā)展的必然結(jié)果,在應(yīng)用過程中會面臨著機遇和挑戰(zhàn)并存的局面。因此,一方面要發(fā)揮教學(xué)人工智能對教學(xué)的高效化、精準(zhǔn)化和個性化的提升能力以及保障教學(xué)科學(xué)性和可靠性的優(yōu)勢;另一方面要積極克服教學(xué)人工智能所存在的技術(shù)困境、價值挑戰(zhàn)和治理難題。雖然對教學(xué)人工智能所存在的技術(shù)困境、價值挑戰(zhàn)和治理難題的解決可以提出建議方案,但這些建議方案仍存在一定的局限性。例如,在具體的操作中,如何把簡單的教學(xué)任務(wù)與復(fù)雜的教學(xué)任務(wù)區(qū)分開來;在什么情況下將教學(xué)人工智能運用到簡單教學(xué)任務(wù)中去;對教學(xué)人工智能算法的規(guī)制是否會增加教學(xué)成本等[38]。所有這些問題都需要不斷深入研究。尤其對教學(xué)人工智能應(yīng)用與發(fā)展的探討不是一勞永逸的,必須在教學(xué)人工智能的應(yīng)用實踐中發(fā)現(xiàn)問題和解決問題,并不斷推進教學(xué)人工智能的進步,讓人類教師和學(xué)生從教學(xué)人工智能的健康發(fā)展中受益。

參考文獻:

[1]黃甫全,伍曉琪,唐玉溪,陳思宇,曾文婕.雙師課堂課程開發(fā)引論:緣起、主題與方法[J].電化教育研究,2022(02):99-107.

[2]葉芮杏,孫福海,黃甫全.AI全科教師開發(fā):基礎(chǔ)、模型與關(guān)鍵技術(shù)[J].電化教育研究,2022 (03):42-50.

[3]王緒強,胡凡剛.AI 教師賦能課堂教學(xué)的限度與超越[J].電化教育研究,2022(08): 29-35.

[4]Nilsson N.Artificial Intelligence:a New Synthesis[M].San Francisco:Morgan Kaufmann Publisher,1998:12.

[5]羅生全, 張雪.智慧教學(xué)概念的多元理解及新解釋[J].中國遠(yuǎn)程教育, 2022(11):6-14.

[6]郝志軍,楊穎東.人工智能與教學(xué)的合理性融合:優(yōu)勢、挑戰(zhàn)與策略[J].人民教育,2022(20):51-54.

[7]楊彥軍,羅吳淑婷,童慧.基于“人性結(jié)構(gòu)”理論的 AI 助教系統(tǒng)模型研究[J].電化教育研究,2019(11):12-20.

[8]柳晨晨,宛平,王佑鎂,楊剛.智能機器人及其教學(xué)應(yīng)用:創(chuàng)新意蘊與現(xiàn)實挑戰(zhàn)[J].遠(yuǎn)程教育雜志,2020(02):27-36.

[9]賀相春,郭紹青.人工智能助力教學(xué)創(chuàng)新的路徑研究[J].國家教育行政學(xué)院學(xué)報,2021(09):31-38.

[10]楊緒輝,沈書生.教師與人工智能技術(shù)關(guān)系的新釋——基于技術(shù)現(xiàn)象學(xué)“人性結(jié)構(gòu)”的視角[J].電化教育研究,2019(05): 12-17.

[11]汪時沖,方海光,張鴿,馬濤.人工智能教育機器人支持下的新型“雙師課堂”研究——兼論“人機協(xié)同”教學(xué)設(shè)計與未來展望[J].遠(yuǎn)程教育雜志,2019(02):25-32

[12]趙亮,陳志奎.大數(shù)據(jù)算法庫教學(xué)實驗平臺設(shè)計與實現(xiàn)[J].實驗技術(shù)與管理, 2020(06):197-201,206.

[13]郭炯,榮乾,郝建江.國外人工智能教學(xué)應(yīng)用研究綜述[J].電化教育研究,2020(02):91-107

[14]趙磊磊,蔣馨培,代蕊華.內(nèi)在主義技術(shù)倫理:教學(xué)評價智能化轉(zhuǎn)型考量[J].中國遠(yuǎn)程教育,2023(01):40-48.

[15]崔宇路,張海.教育人工智能應(yīng)用的困境、成因及對策[J].現(xiàn)代教育技術(shù),2022(06):35-42.

[16]朱妮.法治教學(xué)案例中的問題及其優(yōu)化[J].中學(xué)政治教學(xué)參考,2022(10):42-44.

[17]段金菊,鐘曉芳,黃襄,鄧智.智能時代在線案例教學(xué)資源的建設(shè)邏輯與評價向度[J].課程·教材·教法,2022(09):145-150,159.

[18]Burrell J. How the Machine “Thinks”:Understanding Opacity in Machine Learning Algorithms[J].Big Data & Society,2016(01):1-12.

[19]張凌寒,李榮.美國紐約算法監(jiān)管遇挫啟示錄[N].法治周末,2020-01-16(11).

[20]韓嵩,韓秋弘.半監(jiān)督學(xué)習(xí)研究的述評[J].計算機工程與應(yīng)用,2020(06):19-27.

[21]馮潔.人工智能對司法裁判理論的挑戰(zhàn):回應(yīng)及其限度[J].華東政法大學(xué)學(xué)報,2018(02):21-31.

[22]Mayson S.Bias in,Bias Out [J].Yale Law Journal,2019(128):2218-2223.

[23]和學(xué)新.教學(xué)的本質(zhì)究竟是什么[J].寧夏大學(xué)學(xué)報(人文社會科學(xué)版),2001(01):18-27.

[24]〔美〕盧克·多梅爾.算法時代:新經(jīng)濟的新引擎[M].胡小銳,鐘毅,譯.北京:中信出版社,2016:220.

[25]于雪.基于機器能動性的人機交互信任建構(gòu)[J].自然辯證法研究,2022(10):43-49.

[26]孫瑞芳,滕洋.人工智能時代教師主體性的遮蔽與復(fù)歸[J].教育研究與實驗,2023 (01): 52-59.

[27]唐玉溪,何偉光.人工智能時代教師何以存在:規(guī)定、窘境與超越[J].中國遠(yuǎn)程教育,2022(10):21-28,39.

[28]王良輝,夏亮亮,何文濤.回歸教育學(xué)的精準(zhǔn)教學(xué)——走向人機協(xié)同[J].電化教育研究,2021(12):108-114.

[29]高瓊,陸吉健,王曉靜,商家慧,周躍良.人工智能時代人機協(xié)同課堂教學(xué)模式的構(gòu)建及實踐案例[J].遠(yuǎn)程教育雜志,2021(04):23-33.

[30]李世瑾,顧小清.什么影響了人工智能教育的教學(xué)效果?——基于教師技術(shù)認(rèn)知和教學(xué)實踐層面的分析[J].現(xiàn)代教育技術(shù), 2022(08):92-99.

[31]顏海娜,聶勇浩.案例教學(xué)中的案例選擇與編寫——以“行政案例分析”教學(xué)為例[J].行政論壇,2012 (02):87-91.

[32]O'NeilC.Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy[M].New York:Crown,2016:204.

[33]〔美〕托馬斯·薩蒂.創(chuàng)造性思維:改變思維做決策[M].石勇,李興森,譯.北京:機械工業(yè)出版社,2017:259.

[34]Coglianese C,Lehr D.Transparency and Algorithmic Governance [J].Administrative Law Review,2019(01):1-55.

[35]Kim B,Wattenbersg M,GilmerJ,etal,Interpretability Beyony Feature Attribution:Quantitative Testing with Concept Activation Vectors[EB/OL].https://arxiv.org/abs/1711.11279v4,2018-04.

[36]張永忠,張寶山.算法規(guī)制的路徑創(chuàng)新:論我國算法審計制度的構(gòu)建[J].電子政務(wù),2022(10):48-61.

[37]BathaeeY.The Artificial Intelligence Black Box and the Failure of Intent and Causation[J].HHarvard Journal of Law & Technology,2017(31):889-938.

[38]王天平,閆君子.人工智能時代的知識教學(xué)變革[J].湖南師范大學(xué)教育科學(xué)學(xué)報,2021(01):47-54.

Teaching Artificial Intelligence: Space, Limit and Transcendence

CHENG Yaping

(Central China Normal University, Wuhan, Hubei 430079, Chin)

Abstract: Compared to human teachers, teaching artificial intelligence has more advantages in terms of efficiency and accuracy, personalization, and ensuring the scientific and reliability of teaching. However, teaching AI faces technical difficulties, value challenges, and governance challenges in the application process. This determines that teaching artificial intelligence cannot replace the position of human teachers. Moreover, it is necessary to delegate simple teaching tasks to teaching artificial intelligence and complex teaching tasks to human teachers to build a positive and pragmatic human-computer coexistence model. On this basis, it is also necessary to establish measures to address algorithmic challenges, protect the rights of human teachers and students, enhance communication between personnel, cultivate composite talents, and construct a reasonable teaching responsibility allocation mechanism to ensure the widespread application and development of artificial intelligence in teaching.

Key words:teaching artificial intelligence; man-machine coexistence mode; teaching decision-making;artificial intelligence algorithm; screening mechanisms