国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

可信賴人工智能教育應用的建設(shè)路徑與現(xiàn)實啟示

2023-07-26 00:31:30沈苑胡夢圓范逸洲汪瓊
現(xiàn)代遠程教育研究 2023年4期

沈苑 胡夢圓 范逸洲 汪瓊

摘要:人工智能技術(shù)在輔助教學上展現(xiàn)出了巨大潛力,也因其不透明性、無法預測性以及不當使用而引發(fā)爭議,建設(shè)可信賴的人工智能教育應用(AIED)成為國際共識??尚刨嘇IED強調(diào)“以人為本”的價值宗旨,以可靠、安全的AI技術(shù)為底層基礎(chǔ),以合倫理性的理解和使用為關(guān)鍵保障,觀照教育情境的復雜性,摒棄將通用AI倫理原則或其他AI應用領(lǐng)域的專業(yè)倫理原則生搬硬套到教育領(lǐng)域。英國作為人工智能倫理治理的先行者,在可信賴AIED建設(shè)方面積累了豐富經(jīng)驗,尤其體現(xiàn)在《人工智能保障生態(tài)系統(tǒng)路線圖》中。該《路線圖》從技術(shù)的開發(fā)、采購與使用三大階段出發(fā),分別采取倫理設(shè)計、倫理核查和AI素養(yǎng)培養(yǎng)等具體策略,構(gòu)建了可信賴AIED的保障體系。借鑒英國AIED的典型舉措,我國應在開發(fā)階段對智能教育產(chǎn)品開展本土化的價值敏感設(shè)計,采購階段對智能教育產(chǎn)品的可信賴度做出有意義的解釋,使用階段對師生用戶的人工智能素養(yǎng)加以培養(yǎng)和提升,以推動技術(shù)開發(fā)者、產(chǎn)品采購者、一線使用者等利益相關(guān)方共促可信賴AIED的本地建設(shè)。

關(guān)鍵詞:人工智能教育應用;可信賴人工智能;倫理設(shè)計;英國實踐

中圖分類號:G434? ?文獻標識碼:A? ? 文章編號:1009-5195(2023)04-0065-10? doi10.3969/j.issn.1009-5195.2023.04.008

一、引言

近年來,人工智能教育應用(Artificial Intelligence in Education,AIED)為教育形態(tài)的重塑提供了巨大的可能性。尤其是以ChatGPT為代表的新一代人工智能,更是憑借其高生成性、高自主性、高交互性,對傳統(tǒng)的教育方式和教學方法帶來沖擊,并進一步推動“因材施教”“終身學習”等教育理想走向現(xiàn)實。同時,因機器學習具有“黑箱”特征,與之相關(guān)的安全性和透明度等倫理質(zhì)疑也開始蔓延(Dignum,2019)??傮w來看,AIED對于傳統(tǒng)課堂來說尚屬陌生的“外來物”,在師生信賴不足的情況下,不乏技術(shù)誤用、濫用、棄用等情況出現(xiàn)。為保障AIED充分發(fā)揮其功能優(yōu)勢并為教育賦能,亟須建設(shè)起符合倫理要求且值得師生信賴的智能生態(tài)系統(tǒng)?;诖?,探究可信賴的人工智能教育應用(Trustworthy AIED)成為教育領(lǐng)域重要的研究話題。

長期以來,英國一直都是人工智能倫理治理的先鋒。作為“人工智能之父”艾倫·圖靈(Alan Turing)的故鄉(xiāng)和諸多著名AI企業(yè)(如DeepMind)的發(fā)源地,英國對AI倫理問題在政策上給予了大量關(guān)注。例如,在《人工智能行動計劃》(AI Action Plan)中,英國政府將“有效治理”作為國家發(fā)展AI的三大目標之一。2021年,英國中央數(shù)字與數(shù)據(jù)辦公室、人工智能辦公室與內(nèi)閣辦公室聯(lián)合發(fā)布了《自動決策系統(tǒng)的倫理、透明度與責任框架》(Ethics,Transparency and Accountability Framework for Automated Decision-Making),提出了保障系統(tǒng)安全、可持續(xù)、倫理性的7項要素(GOV.UK,2021)。同年出臺的《人工智能保障生態(tài)系統(tǒng)路線圖》(The Roadmap to an Effective AI Assurance Ecosystem,下文簡稱《路線圖》)明確提出了各利益相關(guān)方在建設(shè)可信賴AI過程中應分別承擔的責任(CDEI,2021a)。近年來,英國的學術(shù)組織、研究機構(gòu)、學校也都在努力探索可信賴AIED的建設(shè)路徑,貫徹相關(guān)政策的核心精神,積累了豐富的實踐經(jīng)驗。有鑒于此,本文將首先對可信賴AIED的發(fā)展和建設(shè)背景進行分析,然后針對英國在AIED全生命周期中開展倫理治理的具體實踐與典型案例進行剖析,最后從AIED設(shè)計者、采購者和一線用戶等利益相關(guān)方的視角出發(fā),反思和總結(jié)英國相關(guān)舉措對于我國可信賴AIED本土建設(shè)的啟示。

二、可信賴AIED的發(fā)展背景

“可信賴AIED”由“可信賴AI”這一概念引申而來,梳理其內(nèi)涵發(fā)展、現(xiàn)實困境和領(lǐng)域特征,有助于人們達成對可信賴AIED的一致共識。

1.可信賴AI的內(nèi)涵發(fā)展

我國學者李應潭在《人工智能可信賴性與可信賴算法研究》一文中將“可信賴AI”描述為“在沒有硬件故障的情況下,對于向它提出的一批問題,能夠做到?jīng)]有把握或無力回答的就不回答,有把握的才回答,回答的則保證正確”(李應潭,1999)。21世紀以來,這一概念強調(diào)的重心逐漸從技術(shù)維度轉(zhuǎn)向倫理維度,成為了社會技術(shù)倫理治理的最終目標之一。國際標準組織/國際電工委員會的第一聯(lián)合技術(shù)委員會(ISO/IEC JTC1)將人工智能的“可信賴”界定為“有能力提供客觀證據(jù)證明AI產(chǎn)品或系統(tǒng)可以完成特定要求以滿足利益相關(guān)者的期望”(ISO/IEC TR 24028:2020,2020)。

英國政府在人工智能相關(guān)戰(zhàn)略制定方面始終非常強調(diào)人工智能的“可信賴”問題。2016年,英國政府發(fā)布《人工智能:未來決策制定的機遇和影響》(Artificial Intelligence:Opportunities and Implications for the Future of Decision Making)報告,指出“公眾信賴”是人工智能得到有效利用的必要條件,建設(shè)信賴的核心在于公開的對話(GOV.UK,2016)。2017年,《在英國發(fā)展人工智能》(Growing the Artificial Intelligence Industry in the UK)報告再次指出,建立公眾對AI的信賴對于英國人工智能的成功發(fā)展至關(guān)重要,特別要增強數(shù)據(jù)信賴(Data Trust),以促進數(shù)據(jù)持有方和技術(shù)開發(fā)方之間安全地共享數(shù)據(jù);該報告還要求行業(yè)與政府攜手開發(fā)經(jīng)過驗證的框架和協(xié)議以確保數(shù)據(jù)共享的安全性和互惠性(Hall et al.,2017)。2018年4月,英國上議院下屬的人工智能委員會發(fā)布《英國人工智能發(fā)展的計劃、能力與志向》(AI in the UK:Ready,Willing and Able),指出如果公眾被過度暴露于負面的、失真的AI描述中,可能會導致公眾反彈,同時承認某些人工智能應用本身可能涉及誤導和欺騙,應辯證看待AI技術(shù)(House of Lords,2018)。此外,英國數(shù)字、文化、媒體和體育部(DCMS)在《國家人工智能戰(zhàn)略》(National AI Strategy)中進一步重申要建設(shè)“世界上最受信賴和支持創(chuàng)新的人工智能治理系統(tǒng)”的愿景(Kwarteng et al.,2021)。

2019年4月,歐盟人工智能高級專家組發(fā)布的《可信賴人工智能倫理準則》(Ethics Guidelines for Trustworthy AI),可謂是可信賴AI發(fā)展道路上的一個里程碑,其確立了“可信賴AI”的三項必要條件,即人工智能須符合法律法規(guī)、人工智能須滿足倫理道德原則及價值、人工智能在技術(shù)和社會層面應具有可靠性。該準則還明確了構(gòu)成可信賴AI的7個關(guān)鍵要素,分別為人的能動性與監(jiān)督,技術(shù)穩(wěn)健性與安全性,隱私與數(shù)據(jù)管理,社會與環(huán)境福祉,多樣性、非歧視性與公平性,透明性和問責制度(AI HLEG,2018)。聚焦于教育領(lǐng)域,經(jīng)濟合作與發(fā)展組織(OECD)于2020年4月發(fā)布了《教育中的可信賴人工智能:前景與挑戰(zhàn)》(Trustworthy Artificial Intelligence (AI)in Education:Promises and Challenges),提出了可信賴AI在教育中的要求,即只有同時滿足“AI能準確地執(zhí)行任務”和“以公平且恰當?shù)姆绞奖皇褂谩边@兩項條件時才能取得公眾信賴(Vincent-Lancrin et al.,2020)。

綜上,可信賴AI的內(nèi)涵經(jīng)歷了從物理層面的準確性延伸至社會層面的合倫理性的發(fā)展過程。開發(fā)出可靠的AI技術(shù),確保技術(shù)穩(wěn)健安全和透明,始終是信賴建設(shè)的基礎(chǔ)。而利益相關(guān)者如何能夠辯證地理解和恰當?shù)厥褂肁I,包括正確地管理數(shù)據(jù)、包容地推廣技術(shù)、主動地監(jiān)督使用,則是鞏固信賴的保障。

2.AIED面臨的信賴危機

目前,AIED產(chǎn)品已被廣泛應用于教育教學中。沉浸式體驗系統(tǒng)、智能導師系統(tǒng)、自動評估系統(tǒng)的出現(xiàn),為傳統(tǒng)的教學模式注入了變革的動力。已有很多原本不是專門為教育學科設(shè)計的各種社交網(wǎng)絡(luò)、博客、游戲平臺和移動應用程序,也都在潛移默化地影響著學習生態(tài)系統(tǒng)。但從應用現(xiàn)狀來看,機器學習所帶來的無法預測性、不透明性,以及對人工智能的不當使用等因素,導致教育環(huán)境中頻繁出現(xiàn)人機信賴危機。

比如,2020年受新冠疫情影響英國高考無法正常開展,英國資歷及考試評審局采用了智能系統(tǒng)為考生打分,但經(jīng)統(tǒng)計發(fā)現(xiàn),約39.1%的考生的成績被系統(tǒng)低估,尤其是位于較差考區(qū)的弱勢學生群體被系統(tǒng)“打壓”得最厲害(Rahim,2020)。2022年秋季美國高校有學生借助OpenAI開發(fā)的聊天機器人ChatGPT做作業(yè)、寫論文,甚至得到了高分,更是引發(fā)了高校的警覺,使一線教師陷入深深的擔憂之中(Roose,2023)。國內(nèi)方面,有學校使用頭環(huán)監(jiān)測學生的課堂注意力,也有學校使用手環(huán)記錄學生的位置和行為,并將這些數(shù)據(jù)報告給家長和教師,致使“校園監(jiān)獄化”等負面論斷頻頻出現(xiàn)(新京報,2019)。

“以人為本”是教育實踐者與研究者開展全部工作的起點與終點。上述事件反映出,目前應用于教育領(lǐng)域的人工智能產(chǎn)品,如果忽視了教育場景下的倫理訴求,非但不能達成預期效果,反而會致使教育異化,引發(fā)公眾抵觸情緒和人機信賴危機。美國教育傳播與技術(shù)協(xié)會(AECT)在2008年明確將教育技術(shù)界定為“通過創(chuàng)建、使用和管理適當?shù)募夹g(shù)和資源來推動學習和提升表現(xiàn)的研究與符合倫理的實踐”(Januszewski et al.,2013)。上述定義中的合倫理性意味著對AIED的倫理審視刻不容緩。

3.教育場景的復雜性

AIED如何設(shè)計和使用也受到教育場景復雜因素的影響。首先,教育場景下的受教育對象往往是易受外界影響的兒童和年輕人,其身心尚未成熟,相較于成人用戶更需要正當?shù)闹С忠龑АF浯?,與其他AI應用領(lǐng)域不同,教育領(lǐng)域中的很多問題并非“生死一線”問題,一項不恰當?shù)慕逃龥Q策看似不如醫(yī)療事故或交通事故那么嚴重,但這也意味著利益相關(guān)者很難及時發(fā)現(xiàn)決策的問題所在,因此也需要付出更多成本來修正或彌補其后果。再次,相較于制造、零售、安防等AI應用較為成熟的行業(yè),人工智能在教育領(lǐng)域的應用仍處于摸索階段,其帶來的直接和間接影響仍缺乏有效驗證,而且因為教育實踐本身的復雜性和隱晦性,以及影響教育目標實現(xiàn)的因素眾多,致使很難輕易地將技術(shù)因素剝離出來分析其影響路徑。最后,教育環(huán)境中的行為主體有自己的價值傾向性,難以一概而論,就像多數(shù)人工智能學家所追求的系統(tǒng)準確度并不一定是利益相關(guān)者最看重的東西。比如,學生可能希望在學習上擁有更多自主性,教師則希望在學習過程中保持人工監(jiān)督和隨時干預,而家長則希望系統(tǒng)決策是透明可解釋的(Holmes et al.,2021)。

基于教育領(lǐng)域的特殊性與復雜性,建設(shè)可信賴AIED并不能簡單地將通用的AI倫理原則或其他AI應用領(lǐng)域的專業(yè)倫理原則“生搬”到教育領(lǐng)域,而是要兼顧技術(shù)和教育的雙向視角,挖掘突破AIED場景中倫理困境的內(nèi)在進路。

三、可信賴AIED的建設(shè)路線

隨著AI的快速發(fā)展及其教育應用場景的不斷拓展,將碎片化的治理規(guī)則和治理工具整合為保障生態(tài)系統(tǒng)的迫切性和必要性持續(xù)凸顯。專門為英國政府提供人工智能安全、倫理和創(chuàng)新發(fā)展等政策建議的智庫——英國數(shù)據(jù)倫理與創(chuàng)新中心(CDEI)于2021年12月8日發(fā)布《人工智能保障生態(tài)系統(tǒng)路線圖》(下文簡稱《路線圖》),明確提出“在未來五年內(nèi)要建設(shè)一個蓬勃發(fā)展和有效的人工智能保障生態(tài)系統(tǒng)”的目標,并提出了較為成熟的建設(shè)路線(CDEI,2021a)。下文概述了《路線圖》中對于AI要達到“可信賴”標準所提出的具體要求以及對應的行動指南,可作為教育領(lǐng)域建設(shè)“可信賴AIED”的重要參照。

1.建設(shè)可信賴AIED的雙重要求

《路線圖》將建設(shè)可信賴AI遇到的挑戰(zhàn)劃分為信息問題和溝通問題兩類,前者指向“人工智能系統(tǒng)的設(shè)計是否值得信賴”,后者指向“人工智能系統(tǒng)的使用是否值得信賴”。

信息層面的信賴建設(shè)聚焦于提升技術(shù)產(chǎn)品自身的穩(wěn)健和可靠程度。如果AIED系統(tǒng)存在數(shù)據(jù)集質(zhì)量欠佳、算法偏見、決策機制不透明、隱私保護不當、無法抵抗外部攻擊等來自技術(shù)局限或設(shè)計不周的表現(xiàn),則會削弱公眾信賴,進而引發(fā)其對智能產(chǎn)品的抵觸和質(zhì)疑。有研究者發(fā)現(xiàn),IBM、曠視、微軟的人臉識別產(chǎn)品識別男性的準確率均高于女性,這類存在偏見的算法模型如果被用于教育中,很可能會加劇男童與女童在技術(shù)可及性方面的鴻溝(Buolamwini et al.,2018)。

溝通層面的信賴建設(shè)聚焦于提升技術(shù)在部署和使用過程中的恰當程度。這取決于用戶對技術(shù)的信賴與技術(shù)的可靠性是否匹配,過多和過少的信賴都會阻礙教育目標的實現(xiàn)。設(shè)想如果某著名的技術(shù)企業(yè)推出一個智能教學系統(tǒng),即便此系統(tǒng)的算法并不成熟、準確度也無從考量,但師生可能會因為公司名氣大或宣傳力度大而盲目相信此系統(tǒng),這種信賴錯置可能會導致誤用和濫用。而如果有一個算法成熟、準確度高的系統(tǒng),但由于其出自一家不知名的初創(chuàng)公司,或技術(shù)開發(fā)者沒有準確地將證明它很可靠的證據(jù)傳達給師生,或?qū)W校領(lǐng)導和師生缺乏對產(chǎn)品背后AI技術(shù)原理的了解等,都可能導致用戶不愿意信賴和使用該系統(tǒng),從而導致優(yōu)質(zhì)資源被浪費。

2.建設(shè)可信賴AIED的多方行動

《路線圖》還列明了處于人工智能供應鏈不同位置上的關(guān)鍵利益相關(guān)方,包括AIED開發(fā)人員、采購人員、一線用戶以及受AI影響的其他個人,尤其針對前三方還分別提出了明確的行動指南(見圖1),即要求多方在人工智能全生命周期的各個階段協(xié)作配合,以建設(shè)起人工智能保障生態(tài)系統(tǒng)。

具體來說,AIED開發(fā)人員需要保障技術(shù)本身的穩(wěn)健可靠,遵循相關(guān)法規(guī)標準進行開發(fā),盡可能地規(guī)避數(shù)據(jù)泄露、偏見歧視、損害自主等技術(shù)倫理問題。AIED采購人員需要對技術(shù)的可信程度與希望通過此系統(tǒng)達成的教育目標的匹配程度進行有效評估,并承擔起促進多方溝通的任務,避免信息不對稱情況的出現(xiàn)。AIED一線用戶需要提升自身的技術(shù)素養(yǎng),能根據(jù)技術(shù)的可信程度和相關(guān)證據(jù)在實踐中靈活、恰當?shù)厥褂肁IED。

從目前英國在教育領(lǐng)域的具體實踐來看,AIED的開發(fā)人員、采購人員和一線用戶都在推動可信賴AIED的建設(shè)上進行了初步探索。后文將分別從開發(fā)保障、采購保障與使用保障三個角度進一步解讀英國在建設(shè)可信賴AIED的典型舉措,并就其對我國教育領(lǐng)域人工智能倫理治理的啟示展開討論。

四、開發(fā)保障:AIED產(chǎn)品的倫理設(shè)計

按照《路線圖》的要求,AIED的開發(fā)者需要首先證明自己的開發(fā)是負責任且符合相關(guān)法規(guī)和標準的,同時要不斷向技術(shù)采購人員與一線用戶傳達其系統(tǒng)的可信賴程度。

在2021年英國政府網(wǎng)站發(fā)布的《AI晴雨表第五部分——教育》(AI Barometer Part 5 - Education)中,將AIED劃分為面向?qū)W生、面向教師和面向區(qū)域三類(CDEI,2021b)。在這些不同類別的AIED產(chǎn)品開發(fā)中,設(shè)計者都非常重視提升技術(shù)的可信賴程度。下文選取了英國3個典型的AIED開發(fā)項目,根據(jù)《可信賴人工智能倫理準則》的7項要素對其倫理重點進行歸類,并對其設(shè)計策略進行詳細解讀(見表1)。

1.面向?qū)W生的AIED:以AIAccess為例

面向?qū)W生的AIED往往以“智能導師系統(tǒng)”或“適應性學習平臺”的形式出現(xiàn)(Baker et al.,2019)。其通常以增進學生個性化學習為開發(fā)目標,具備基于學生需求設(shè)計和推送學習材料、診斷學生知識中的強項與薄弱處、提供自動化反饋、促進學習者合作等功能。

透明性是此類產(chǎn)品開發(fā)中關(guān)注的關(guān)鍵要素,其強調(diào)“算法的可解釋性”,即要求AI系統(tǒng)的工作原理、工作機制是可以被解釋的,系統(tǒng)所做出的任何決策都是有跡可循的。一個不透明的AI“黑箱”會使教師與學生難以深入理解并接受系統(tǒng)所進行的評估、推薦或預測,因而可能導致教師做出不當決策,學生錯失進一步提升學習的機會。

由倫敦大學學院知識實驗室(UCL Knowledge Lab)開發(fā)的人工智能評估系統(tǒng)軟件AIAccess,通過使用開放學習者模型(Open Learner Model,OLM)以保障其透明性。AIAccess是一款幫助學生進行數(shù)學與科學學習的智能評估軟件,能以可視化地圖的方式展示系統(tǒng)對于學習者完成任務表現(xiàn)的判斷,包括學生正在學習的內(nèi)容在整體學科知識地圖中的位置、學生在每個話題下已經(jīng)完成的不同難度水平的學習內(nèi)容,以及所獲得的系統(tǒng)支持程度等(Luckin,2017)。OLM使得系統(tǒng)的推理過程更加透明:一方面學生能夠更多享有對自己學習的控制權(quán),增強他們對自身學習負責的意識(萬海鵬等,2021);另一方面也讓教師能夠更好地掌握學生的知識理解水平,以便進一步開展個性化的學生管理與教學。

2.面向教師的AIED:以ClassCharts為例

面向教師的AIED旨在幫助教師減輕管理與教學方面的壓力。在這類系統(tǒng)中,通常會通過自動發(fā)布學習任務與材料以減輕教師的工作負擔;或者通過對學習者行為進行預測分析,以輔助教師更好地進行針對性的分組教學與班級管理。

隱私和數(shù)據(jù)管理是此類產(chǎn)品開發(fā)中關(guān)注的關(guān)鍵要素。教師在進行決策的過程中,不可避免地要收集學習者多方面的數(shù)據(jù),這就要求保障技術(shù)足夠穩(wěn)健安全,以避免侵犯學生個人隱私、泄漏個人數(shù)據(jù)等風險。

ClassCharts是一款輔助教師進行課堂管理的人工智能工具,能夠監(jiān)測教室中學生的行為,基于學生間的互動歷史與相互影響即時生成學生座位排布,追蹤教室中特定學生間的互動,并快速生成學生行為分析報告,以便于教師高效管理學生的行為。這些功能的實現(xiàn)需要收集眾多學生的行為與互動數(shù)據(jù)。為確保用戶安心使用,ClassCharts所屬公司Edukey聲明會嚴格遵守歐洲《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR),以標準化的政策和流程管理用戶數(shù)據(jù)。在數(shù)據(jù)隱私方面,公司聲明學校是教師與學生相關(guān)數(shù)據(jù)的控制方,具有決定收集何類數(shù)據(jù)、由誰處理數(shù)據(jù)的權(quán)力,而公司只是數(shù)據(jù)的處理方而非控制方,并且公司會保障用戶的“被遺忘權(quán)”(The Right to Be Forgotten),即用戶刪除個人信息的權(quán)力。在數(shù)據(jù)安全方面,公司指出他們用于存儲和處理數(shù)據(jù)的谷歌云服務器位于英國境內(nèi),從而保證了用戶數(shù)據(jù)存儲在歐洲經(jīng)濟區(qū)范圍內(nèi),并會在平臺中通過加密技術(shù)、防火墻等多層保護措施保障用戶數(shù)據(jù)的安全(Edukey,2022)。

3.面向區(qū)域的AIED:以BIT學校審查項目為例

面向區(qū)域的AIED多以學校管理系統(tǒng)的形式出現(xiàn),主要用于學校與地區(qū)層面上的整體改進,涉及不同學校間的數(shù)據(jù)共享。

多樣性、非歧視性與公平性是此類產(chǎn)品開發(fā)中關(guān)注的關(guān)鍵要素。在數(shù)據(jù)共享的過程中會涉及多元化的機構(gòu)和人群,內(nèi)嵌于技術(shù)的偏見問題可能會加劇對特定種族或社會文化背景人群的不公正對待,加深學生在資源和機會獲取方面的差距,進而擴大阻礙教育公平發(fā)展的數(shù)字鴻溝。

英國政府成立的行為研究小組(Behavioural Insights Team,BIT)近年來開展了借助機器學習為學校表現(xiàn)打分的大型社會實驗,以幫助英國教育標準局等機構(gòu)進行科學決策。該評估算法采集了大量的教育數(shù)據(jù),如各學校本地數(shù)據(jù)庫中的學生數(shù)據(jù)、英國教育標準局記錄的學校數(shù)據(jù)、學校職工普查數(shù)據(jù)、家長調(diào)查數(shù)據(jù)等,并基于這些數(shù)據(jù)對學校的未來表現(xiàn)進行預測(Baker et al.,2019)。但是,這種做法可能會因為數(shù)據(jù)樣本偏差而致使算法模型偏見,比如擁有黑人學生或教師比例更高的學校可能更容易被判斷為具有高風險的學校。對此,項目負責人聲明BIT團隊在項目規(guī)劃初期就將偏見風險納入考量,在創(chuàng)建數(shù)據(jù)集時特別加強了對數(shù)據(jù)集的來源、數(shù)據(jù)規(guī)模、代表性、特征選取和標注質(zhì)量的把關(guān),盡可能選取更高質(zhì)量的數(shù)據(jù)集;而對于可能直接或間接引發(fā)宗教、種族偏見等的數(shù)據(jù)則進行多輪審查與清洗,以期盡可能保障對機構(gòu)及其師生的公平對待(Reynolds,2017)。

五、采購保障:AIED產(chǎn)品的倫理核查

按照《路線圖》的要求,教育機構(gòu)負責采購AIED的人員應當要求開發(fā)人員和供應商提供關(guān)于技術(shù)值得信賴的證據(jù),以確保他們采購的系統(tǒng)符合標準,并向一線用戶傳達自己評估的結(jié)果。英國人工智能教育倫理研究所(The Institute for Ethical AI in Education,IEAIED)提出了面向AIED采購者的倫理框架(下文簡稱IEAIED框架),要求采購者在技術(shù)采購和部署階段保持倫理敏感度,擔負起教育機構(gòu)與技術(shù)企業(yè)的溝通橋梁責任(IEAIED,2021)。

1.IEAIED框架的倫理維度

IEAIED框架包含9個倫理維度和33條對應的核查指標,實現(xiàn)了對AIED開發(fā)目標以及目標實現(xiàn)形式的全方位審查。9個倫理維度如下:

一是實現(xiàn)教育目標,即AIED應被用于實現(xiàn)具有可靠證據(jù)支持的、以學習者為中心的明確的教育目標。二是評價形式,即AIED應被用于評價和識別更廣范圍內(nèi)的學習者能力。三是管理和工作量,即AIED應能增強教育機構(gòu)的能力,同時尊重人類關(guān)系。四是平等,即AIED應被用于促進不同學習者群體之間的公平,而不是以歧視任何學習者群體的方式被使用。五是自治,即AIED應被用于提高學習者對其學習和發(fā)展的控制水平上。六是隱私,即AIED應在隱私和合法使用數(shù)據(jù)來實現(xiàn)教育目標之間取得平衡。七是透明和問責,即人類最終要對教育成果負責,因此應對AIED的運作方式進行適當?shù)谋O(jiān)督。八是知情參與,即學習者、教育者和其他相關(guān)從業(yè)者應對AIED及其影響有合理的理解。九是合乎倫理的設(shè)計,即AIED應由了解AIED潛在影響的人來設(shè)計。

上述9個維度要求教育機構(gòu)的采購者不僅要對AIED產(chǎn)品本身進行審查,也強調(diào)了機構(gòu)內(nèi)部要進行自我反思和審視,比如前三個維度要求學校本身要知道自己使用AI的目的究竟是什么,以及明確AI能為學校帶來的益處和風險。此外,IEAIED框架也要求采購者與開發(fā)AIED的研發(fā)團隊進行深度溝通,比如最后一個維度要求采購者了解開發(fā)AIED的團隊構(gòu)成以及成員的技術(shù)素養(yǎng)水平。

2.IEAIED框架的獨特優(yōu)勢

與其他現(xiàn)有的AIED倫理框架相比(Aiken et al.,2000;Holmes et al.,2021),IEAIED 倫理框架在倫理視角、受眾群體、可操作性方面都具有鮮明的優(yōu)勢。

第一,在倫理視角方面,已有框架大多是從人工智能倫理原則視角出發(fā)將權(quán)威的技術(shù)原則(如計算機協(xié)會道德與職業(yè)行為準則、阿西莫夫機器人三定律、羅杰克拉克機器人七原則、歐盟可信賴人工智能倫理準則等)演繹于教育領(lǐng)域,而IEAIED框架中不僅包含了平等、自治、隱私、透明和問責、知情參與、合乎倫理的設(shè)計等技術(shù)倫理要求,還更多地關(guān)注到了教育目標、評價形式、管理和工作量等教育領(lǐng)域的特定倫理要求。

第二,在受眾群體方面,已有框架大多沒有區(qū)分特定的面向?qū)ο螅婕皟?nèi)容既包括技術(shù)本身要滿足的標準,也包括使用過程中人要注意的事項。而IEAIED框架直接面向教育機構(gòu)中負責采購AIED產(chǎn)品的負責人,也間接地要求技術(shù)開發(fā)者提供足夠的信息給采購者。

第三,已有框架大多包含了AIED需要達到的普遍標準,但沒有作出階段性的要求,也缺少操作指南,而IEAIED框架還為采購者提供了極為詳細的核查清單,包含了產(chǎn)品采購前、采購時、部署后每個階段應該核查的內(nèi)容,具有更強的針對性,也更能保障該框架的落地實施。

六、使用保障:提升一線用戶的AI素養(yǎng)

根據(jù)《路線圖》要求,作為一線用戶的師生需要對智能系統(tǒng)有所了解,以便恰當?shù)剡\用AIED來達成教育目標。近年來英國對教育的關(guān)注點放在了提升師生AI素養(yǎng)上。AI素養(yǎng)包括了解AI的基本技術(shù)和工作原理、批判性地理解AI對現(xiàn)實生活的影響和潛在的倫理問題、進行AI產(chǎn)品的創(chuàng)造等方面?!堵肪€圖》指出,讓每名學生都掌握基本的AI知識,不僅是理解基礎(chǔ)的編程、推理或數(shù)學概念,也不僅是簡單的倫理原則,而是要讓學生成為“有意識的、有自信的AI使用者”,知道應當問什么問題、應當注意哪些社會風險和倫理問題,以及AI能夠帶來什么機會。同時,《路線圖》也支持每位教師與AI同進步,幫助他們掌握有關(guān)AI技術(shù)的基本信息,以便在教學實踐中做出最優(yōu)選擇。

1.英國基礎(chǔ)教育階段的AI素養(yǎng)提升

在基礎(chǔ)教育階段,英國政府與社會組織協(xié)力提升師生的AI素養(yǎng)。在學生素養(yǎng)方面,英國的獨立慈善組織Apps for Good為英國超過20萬名中小學生提供了免費的技術(shù)課程,在幫助學生廣泛了解技術(shù)運用原理,并指導學生基于現(xiàn)實問題自主進行智能產(chǎn)品開發(fā)的同時,還講授了關(guān)于AI算法使用的社會、法律與倫理影響等內(nèi)容,以增進學生對可信賴AI的了解,旨在讓他們成為具有批判能力和負責任的AI技術(shù)使用者。在教師素養(yǎng)方面,由英國教育部資助建立的英國國家計算機教育中心(National Centre for Computing Education,NCCE)為英國中小學教師提供了具有學分與證書認證的計算機與技術(shù)課程以及免費的教學資源,并為有需求的學校提供資金支持,其目標是通過政府對NCCE項目的支持,讓英國每所學校的學生都享有世界領(lǐng)先的計算機教育。

2.英國高等教育階段的AI素養(yǎng)提升

在高等教育階段,英國大力發(fā)展數(shù)據(jù)科學與人工智能學科,以及人工智能倫理教學項目。目前已有92所英國大學提供了關(guān)于人工智能的本科生課程(UCAS,2022),并且有超過224個有關(guān)人工智能的研究生項目(FindAMasters,2022)。在英國政府發(fā)布的《在英國發(fā)展人工智能產(chǎn)業(yè)》(Growing the Artificial Intelligence Industry in UK)報告中還提出,英國大學應當結(jié)合雇主與學生的需求,為更多本科不是計算機或數(shù)據(jù)科學的學生開設(shè)更多人工智能一年制轉(zhuǎn)修碩士課程(One-Year Conversion Masters Degrees)。該報告還提出在一流大學還需創(chuàng)造至少200個AI領(lǐng)域的博士學位名額,而且預計在2025年需要增加至少1000個人工智能博士學位名額(Hall et al.,2017)。

此外,英國的多所大學還開設(shè)了關(guān)于AI倫理的課程。如劍橋大學提供了“AI倫理與社會”(AI Ethics and Society)碩士項目,旨在培養(yǎng)學生在AI技術(shù)所帶來的機遇與挑戰(zhàn)下所必備的專業(yè)知識與技能,從而讓他們能夠理解與應對復雜社會技術(shù)系統(tǒng)中關(guān)于隱私、監(jiān)控、公平、算法偏見、負責任的創(chuàng)新等方面的問題(Leverhulme Centre for the Future of Intelligence,2022)。牛津大學也成立了AI倫理研究院,重點關(guān)注AI與民主、人權(quán)、環(huán)境、治理、人類幸福、社會6個議題(Institute for Ethics in AI,2022),以促進可信賴AI的設(shè)計與使用。

七、英國可信賴AIED建設(shè)的經(jīng)驗與啟示

英國在探索可信賴AIED道路上積累了豐富的經(jīng)驗,《路線圖》中的三方行動指南以及前文述及的典型做法為我國可信賴AIED建設(shè)提供了重要的借鑒??紤]到中西方在文化價值觀以及AIED普及程度上的差異,我國也應該結(jié)合本土實際情況,靈活地調(diào)整可信賴AIED的建設(shè)路線和具體舉措。

1.開發(fā)階段:開展AIED本土化價值敏感設(shè)計

《路線圖》中始終強調(diào)多方利益相關(guān)者的合力建設(shè),要求在技術(shù)設(shè)計階段就要確保AIED有足夠的穩(wěn)健性。這種倡議與芭提雅·弗里德曼(Batya Friedman)等人所提出的價值敏感設(shè)計理論(Value Sensitive Design,VSD)相契合。在價值敏感設(shè)計的視角下,需要將利益相關(guān)者的倫理價值嵌入AIED的設(shè)計之中,通過倫理要素制約設(shè)計,達到使技術(shù)服務于正向度的社會建構(gòu)的目標(Friedman et al.,2002)。如前文中采用開放學習者模型、遵循隱私保護規(guī)范、采用高質(zhì)量數(shù)據(jù)集等做法都是價值敏感設(shè)計的實現(xiàn)形式。

以“隱私”這項倫理價值為例。AIED的開發(fā)者在進行產(chǎn)品設(shè)計時就要認識到,在便捷地收集數(shù)據(jù)的同時自身也承擔了更大的數(shù)據(jù)保護責任,應當依托國家政策制定嚴格的數(shù)據(jù)使用規(guī)范。歐洲GDPR就為眾多信息技術(shù)產(chǎn)品劃定了不可逾越的隱私邊界,如ClassCharts這款軟件的開發(fā)商就明確表示完全遵循GDPR的要求。對于我國來說,AIED在隱私方面的價值敏感設(shè)計則需要對標近年來我國出臺的《新一代人工智能治理原則——發(fā)展負責任的人工智能》《新一代人工智能倫理規(guī)范》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等政策要求,對數(shù)據(jù)收集范圍、收集過程、數(shù)據(jù)處理過程、數(shù)據(jù)所有者、可獲取數(shù)據(jù)者、知情同意流程等方面加以清晰界定和嚴格執(zhí)行。

另一方面,我國開展AIED價值敏感設(shè)計也需要契合我國本土文化價值的特點。比如,IEAIED要求“在隱私和合法使用數(shù)據(jù)以實現(xiàn)教育目標之間取得平衡”。這種平衡點的位置在不同文化背景下很可能會有所差異。參考霍爾的個人空間理論,有研究者指出,我國的傳統(tǒng)文化更強調(diào)集體主義,更能包容擁擠的個人空間,更愿意犧牲一部分隱私換取交際關(guān)系或者其他效用(郭望舒,2009)。以校園人臉識別技術(shù)為例,2019年瑞典的一所中學因為使用這類系統(tǒng)進行考勤而被瑞典數(shù)據(jù)保護局認定為違反GDPR,并處以2萬歐元的罰款(Coraggio,2019)。美國多個州市因為校園暴力事件頻發(fā),近年來才開始允許家長申請安裝教室攝像頭(Heintzelman et al.,2017)。相較于一些西方國家極為嚴苛的隱私保護手段,我國教育領(lǐng)域?qū)τ谶@類技術(shù)則采取了更加靈活、開放的態(tài)度,目前已有許多中小學和高校借助人臉識別技術(shù)開展智慧校園建設(shè),在承認此類技術(shù)優(yōu)越性的同時,通過《教育部等八部門關(guān)于引導規(guī)范教育移動互聯(lián)網(wǎng)應用有序健康發(fā)展的意見》等政策法規(guī)加以制衡。因此,在產(chǎn)品設(shè)計過程需要增強對我國本土文化的審視,切忌完全效仿國外做法而導致“水土不服”。

2.采購階段:溝通過程中對產(chǎn)品的可信賴度作出有意義的解釋

英國IEAIED所提出的倫理框架啟示我們要關(guān)注AIED的采購階段。我國教育機構(gòu)負責采購AIED的人員應該從多個維度對產(chǎn)品進行審查,要求AIED的設(shè)計者提供關(guān)于產(chǎn)品可信度的一系列證據(jù),以說明AIED實現(xiàn)預期目標和產(chǎn)生潛在影響的方式、算法背后的假設(shè)、AIED在準確性和可解釋性之間作出的權(quán)衡與理由。

在采購階段,特別需要關(guān)注上述證據(jù)的解釋力度。GDPR要求產(chǎn)品開發(fā)企業(yè)向利益相關(guān)者提供“有意義的解釋”(EU,2016)。因此,設(shè)計者需要確保這些證據(jù)的效度,即確保這些材料能夠證明在AIED設(shè)計過程中采取了減少偏見的措施,做出了滿足各類學習者需求的包容性設(shè)計,具備數(shù)據(jù)收集的正當目的,進行過利益相關(guān)者咨詢,具有多元化的組成,參與過技術(shù)倫理培訓,不會強迫學習者或致使其成癮,確認過產(chǎn)品會對學習者行為產(chǎn)生積極影響等。

此外,在我國本土教育場景下,“有意義的解釋”還涉及解釋形式、應用情境、面向?qū)ο?、解釋目的等各項具體因素。我國近年來開始大力推廣人工智能課程,但許多地區(qū)因師資、設(shè)備等條件制約,智能產(chǎn)品對于當?shù)貛熒鷣碚f仍是新興事物。針對這類用戶的特點,學校負責采購的人員應當要求設(shè)計者提供更加簡明易懂的說明指南。采購者作為學校內(nèi)部最了解AIED產(chǎn)品的人,還應該承擔起更多輔助性的責任,比如積極引導師生熟悉基本操作,教授師生如何在日常生活中應用,著重解釋清楚數(shù)據(jù)收集的正當目的與數(shù)據(jù)管理機制等,以提前規(guī)避倫理爭議。

3.使用階段:提升師生的AI倫理素養(yǎng)水平

如前文所述,過多或過少的信賴都會影響AIED產(chǎn)品的使用情況。師生需要了解AI技術(shù)的特點和可能帶來的影響,掌握與AI進行有效互動與批判性評估的能力,唯此才能適當?shù)匦仕麄儗τ谙到y(tǒng)的信賴程度。相較于英國在培養(yǎng)AI倫理素養(yǎng)方面的進展,我國目前缺少類似于Apps for Good這一類注重培養(yǎng)學生人工智能倫理素養(yǎng)的專業(yè)組織。近年來所出版的中小學人工智能教材中關(guān)于人工智能倫理主題的內(nèi)容也大多作為后置的補充單元,在廣度與深度上都有所不足(趙慧臣等,2019)。為提升一線師生恰當使用AIED產(chǎn)品的能力,我國應當進一步推動人工智能倫理教育的發(fā)展。

首先,國內(nèi)高校與研究機構(gòu)可以加強面向?qū)W生的人工智能倫理課程與工作坊開發(fā),從專業(yè)角度助力學生AI素養(yǎng)的發(fā)展。如美國麻省理工學院媒體實驗室(MIT Media Lab)就開發(fā)了面向中小學生的“AI與倫理”課程,通過一系列動手實踐活動,帶領(lǐng)學生學習AI系統(tǒng)的相關(guān)技術(shù)概念、AI技術(shù)的倫理與社會知識。而同樣由他們開發(fā)的“個人機器人小組”(Personal Robots Group)工作坊,也通過一系列與學生日常生活息息相關(guān)的趣味性活動向中小學生傳遞了數(shù)據(jù)隱私相關(guān)知識(Akgun et al.,2022),這些課程都可以作為我國開發(fā)類似教育資源的參考。

其次,開展更多以人工智能為主題的教師專業(yè)發(fā)展活動,在幫助教師學會在課堂中使用技術(shù)的同時,也讓教師理解 AI只是為教育賦能的一種可選擇的方法,并非唯一路徑。在“借助智能技術(shù)淬煉教師的核心能力”的同時,也讓教師警惕對于運用智能技術(shù)進行教學判斷的過分依賴(汪瓊等,2021)。

再次,中小學也應進一步加強與大學、科研機構(gòu)、人工智能企業(yè)的伙伴關(guān)系,依托學校的真實教育場景、教師的專業(yè)知識與教學智慧,以及其他機構(gòu)的AI前沿知識,以平等、互惠的合作形式,共同就AI在教育中的應用進行學習與探究。

總體來說,學校與相關(guān)機構(gòu)應協(xié)力支持師生更好地理解AI技術(shù)及其在教育中的倫理問題,樹立起他們對于可信賴AIED的合理預期,進而通過對AIED產(chǎn)品的恰當運用,建立起人與技術(shù)的相互信賴,使技術(shù)成為增進教育福祉的重大助力。

參考文獻:

[1]郭望舒(2009).中西方對于個人空間的比較性研究[D].北京:首都師范大學:31-33.

[2]李應潭(1999).人工智能可信賴性與可信賴算法研究[J].信息與控制, (2):7-13,18.

[3]萬海鵬,余勝泉,王琦等(2021).基于學習認知地圖的開放學習者模型研究[J].現(xiàn)代教育技術(shù),31(4):97-104.

[4]汪瓊,李文超(2021).人工智能助力因材施教:實踐誤區(qū)與對策[J].現(xiàn)代遠程教育研究,33(3):12-17,43.

[5]新京報(2019).廣雅中學擬采用電子手環(huán)被質(zhì)疑侵犯隱私,校方:還在研究[EB/OL].[2022-04-08].http://www.bjnews.com.cn/edu/2019/03/07/553814.html.

[6]趙慧臣,張娜鈺,閆克樂等(2019).高中人工智能教材的特征、反思與改進[J].現(xiàn)代教育技術(shù),29(11):12-18.

[7]AI HLEG (2018). Ethics Guidelines for Trustworthy AI[EB/OL]. [2022-04-08]. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.

[8]Aiken, R., & Epstein, R. (2000). Ethical Guidelines for AI in Education: Starting a Conversation[J]. International Journal of Artificial Intelligence in Education, 11(2):163-176.

[9]Akgun, S., & Greenhow, C. (2022). Artificial Intelligence in Education: Addressing Ethical Challenges in K-12 Settings[J]. AI and Ethics, 2:431-440.

[10]Baker, T., Smith, L., & Anissa, N. (2019). Educ-AI-tion Rebooted? Exploring the Future of Artificial Intelligence in Schools and Colleges[EB/OL]. [2022-06-07]. https://www.nesta.org.uk/report/education-rebooted/.

[11]Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification[C]// Proceedings of the 1st Conference on Fairness, Accountability and Transparency. US: ML Research Press:77-91.

[12]CDEI (2021a). The Roadmap to an Effective AI Assurance Ecosystem[EB/OL]. [2022-05-10]. https://www.gov.uk/government/publications/roadmap-to-an-effective-ai-assurance

-ecosystem/roadmap-to-an-effective-ai-assurance-ecosystem.

[13]CDEI (2021b). AI Barometer Part 5 - Education[EB/OL]. [2022-04-08]. https://www.gov.uk/government/publications/ai-

barometer-2021/ai-barometer-part-5-education.

[14]Coraggio, G. (2019). First GDPR Fine in Sweden for Illegal Facial Recognition at School[EB/OL]. [2022-05-22]. https://www.gamingtechlaw.com/2019/09/fine-gdpr-sweden.html.

[15]Dignum, V. (2019). Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way[M]. Switzerland: Springer Cham:50-60.

[16]Edukey (2022). Edukey and GDPR Compliance[EB/OL]. [2022-05-23]. https://www.edukey.co.uk/gdpr-compliance/.

[17]EU (2016). General Data Protection Regulation (GDPR)[EB/OL]. [2022-06-02]. https://gdpr-info.eu/.

[18]FindAMasters (2022). Masters Degrees in Artificial Intelligence, United Kingdom[EB/OL]. [2022-04-30]. https://www.findamasters.com/search/courses.aspx?CID=GB&JD=8&JS=810.

[19]Friedman, B., Kahn, P. H., & Borning, A. (2002). Value Sensitive Design: Theory and Methods[EB/OL]. [2022-04-30]. UW CSE Technical Report. https://research.cs.vt.edu/ns/cs5724papers/6.theoriesofuse.cwaandvsd.friedman.vsd.pdf.

[20]GOV.UK (2016). Artificial Intelligence: Opportunities and Implications for the Future of Decision Making[EB/OL]. [2022-04-08]. https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-

artificial-intelligence-ai-report.pdf.

[21]GOV.UK (2021). Ethics, Transparency and Accountability Framework for Automated Decision-Making[EB/OL]. [2022-04-08]. https://www.gov.uk/government/publications/ethics-transparency-and-accountability-framework-for-automated-decision-making.

[22]Hall, W., & Pesenti, J. (2017). Growing the Artificial Intelligence Industry in the UK[EB/OL]. [2022-06-06]. https://apo.org.au/node/114781.

[23]Heintzelman, S., & Bathon, J. (2017). Caught on Camera: Special Education Classrooms and Video Surveillance[J]. International Journal of Education Policy & Leadership, 12(6):1-16.

[24]Holmes, W., Porayska-Pomsta, K., & Holstein, K. et al. (2021). Ethics of AI in Education: Towards a Community-Wide Framework[J]. International Journal of Artificial Intelligence in Education, 32:504-526.

[25]House of Lords (2018). AI in the UK: Ready, Willing and Able?[EB/OL]. [2022-06-07]. https://www.politico.eu/wp-content/

uploads/2018/04/I-in-the-UK-ReadyWillingAndAble-April-

2018.pdf.

[26]IEAIED (2021). The Ethical Framework for AI in Education[EB/OL]. [2022-06-07]. https://www.buckingham.ac.uk/research-the-institute-for-ethical-ai-in-education/.

[27]Institute for Ethics in AI (2022). Research Themes[EB/OL]. [2022-05-23]. https://www.oxford-aiethics.ox.ac.uk/.

[28]ISO/IEC TR 24028: 2020 (2020). Information Technology-Artificial Intelligence - Overview of Trustworthiness in Artificial Intelligence[EB/OL]. [2022-05-22]. https://www.iso.org/obp/ui/#iso:std:iso-iec:tr:24028:ed-1:v1:en:term:3.47.

[29]Januszewski, A., & Molenda, M. (2013). Educational Technology: A Definition with Commentary[M]. UK: Routledge:10-12.

[30]Kwarteng, K., & Dorries, N. (2021). National AI Strategy[EB/OL]. [2022-06-07]. https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1020402/National_AI_Strategy_-_PDF_version.pdf.

[31]Leverhulme Centre for the Future of Intelligence (2022). Master of Studies: AI Ethics & Society[EB/OL].[2022-05-23]. http://lcfi.ac.uk/master-ai-ethics/.

[32]Luckin, R. (2017). Towards Artificial Intelligence-Based Assessment Systems[J]. Nature Human Behaviour, 1(3):1-3.

[33]Rahim, Z. (2020). Algorithms Can Drive Inequality. Just Look at Britains School Exam Chaos[EB/OL]. [2022-02-13]. https://www.cnn.com/2020/08/23/tech/algorithms-bias-inequality-intl-gbr/index.html.

[34]Reynolds, M. (2017). UKs Nudge Unit Tests Machine Learning to Rate Schools and GPs[EB/OL]. [2022-04-30]. https://www.wired.co.uk/article/rithms-schools-ofsted-doctors-behavioural

-insights.

[35]Roose, K. (2023). Dont Ban ChatGPT in Schools. Teach with It[EB/OL]. [2023-02-07]. https://www.nytimes.com/2023/01/12/technology/chatgpt-schools-teachers.html.

[36]UCAS (2022). Courses in Artificial Intelligence[EB/OL]. [2022-04-30]. https://digital.ucas.com/coursedisplay/results/courses?searchTerm=artificial%20intelligence&destination=Undergraduate&

distanceFromPostcode=&studyYear=2022&sort=MostRelevant.

[37]Vincent-Lancrin, S., & Van der Vlies, R. (2020). Trustworthy Artificial Intelligence (AI) in Education: Promises and Challenges[EB/OL]. [2022-06-07]. https://www.oecd-ilibrary.org/education/tificial-intelligence-ai-in-education_a6c90fa9-en.

收稿日期 2023-03-05 責任編輯 劉選

Path and Enlightenment of Trustworthy Artificial Intelligence in Education:

A Case Study of Typical Initiatives in the United Kingdom

SHEN Yuan, HU Mengyuan, FAN Yizhou, WANG Qiong

Abstract: Artificial intelligence (AI) has shown great potential in assisting teaching and learning. However, its opacity, unpredictability, and improper use have sparked controversies. Building trustworthy AI in education (AIED) has become an international consensus. Trustworthy AIED emphasizes a “people-centered” value, with reliable and secure AI technology as the underlying foundation and ethical understanding and usage as critical safeguards. Recognizing the complexity of educational contexts, it rejects the practice of mechanically applying general AI ethics principles or professional ethics principles from other AI application domains to the field of education. The United Kingdom, as a pioneer in AI ethics governance, has accumulated rich experience in constructing trustworthy AI in education, particularly evident in The Roadmap to an Effective AI Assurance Ecosystem. This roadmap starts from three significant phases: technology development, procurement and utilization. It adopts specific strategies such as ethical design, ethical verification, and AI literacy cultivation to establish a guarantee system for trustworthy AI in education. China should draw lessons from the UKs specific initiatives in AI in education. During the development phase, it is essential to conduct value-sensitive design of intelligent education products that align with local values. In the procurement phase, meaningful explanations should be provided for the selection of intelligent education products. During the utilization phase, efforts should be made to cultivate and enhance AI literacy among teachers and students. By doing so, China can promote the local development of trustworthy AI in education by involving technology developers, product procurers and frontline users.

Keywords: Artificial Intelligence in Education; Trustworthy Artificial Intelligence; Ethical Design; UK Initiatives

江华| 西宁市| 林西县| 沭阳县| 正蓝旗| 双柏县| 汝城县| 凌海市| 德江县| 曲阜市| 福海县| 当涂县| 开江县| 镇巴县| 香港| 龙江县| 丰顺县| 汨罗市| 南乐县| 民县| 甘孜县| 洞口县| 苗栗市| 武川县| 财经| 汽车| 连山| 清涧县| 泰和县| 神池县| 榕江县| 衡东县| 和田市| 木兰县| 白银市| 梁山县| 黔西县| 商都县| 鄂尔多斯市| 安吉县| 新巴尔虎左旗|