許向東
(揚州大學(xué) 新聞與傳媒學(xué)院,江蘇 揚州 225009)
人工智能技術(shù)在教育行業(yè)中的應(yīng)用場景十分廣泛,可為個性化學(xué)習(xí)、自適應(yīng)評估、智能輔導(dǎo)和虛擬現(xiàn)實教學(xué)等提供技術(shù)支撐[1]。學(xué)生可以采取個性化、交互式的高效學(xué)習(xí)方式,教師可獲得準確、實時和科學(xué)的學(xué)生教學(xué)和管理支持。誠然,人工智能技術(shù)為教育領(lǐng)域帶來了積極影響,但也引發(fā)了新的倫理危機,如削弱教師地位、侵犯學(xué)生自由、加深教育不公等,對教育正向價值的壓制、對教育育人價值的僭越、教育對人工智能的依附等問題愈發(fā)凸顯[2]。
近年來,生成式人工智能以勢不可擋的姿態(tài)進入大眾生活,其對教育領(lǐng)域也產(chǎn)生了深刻影響。據(jù)調(diào)查顯示,89%的美國大學(xué)生使用ChatGPT 完成作業(yè),53%的學(xué)生用其寫論文,48%的學(xué)生使用其完成測試,有些人還獲得了極高分數(shù),除非極其專業(yè)的檢測,一般教師無法察覺學(xué)生是否使用過ChatGPT,這種現(xiàn)象引發(fā)了學(xué)術(shù)誠信危機[3]??茖W(xué)技術(shù)是把雙刃劍,在為教育領(lǐng)域帶來巨大發(fā)展可能性的同時又需要在依托現(xiàn)實的倫理困境中進行超越現(xiàn)實的審視,這種審視對于教育主管部門建立合理的人工智能教育應(yīng)用倫理制度和法律法規(guī)至關(guān)重要。因此,本文對人工智能技術(shù)應(yīng)用于教育領(lǐng)域存在的倫理問題進行深入剖析,并提出針對性規(guī)避路徑,助力人工智能技術(shù)在教育領(lǐng)域的合理化應(yīng)用。
在綜合視角下,人工智能教育應(yīng)用的倫理問題涉及政策視域、學(xué)術(shù)視域和現(xiàn)實視域3 個方面。從政策視域來看,雖然已有一些政策文件對人工智能教育應(yīng)用的倫理問題進行了討論,如《北京共識》和《人工智能與教育制定者指南》,但大多數(shù)文件仍停留在框架層面,缺乏具體措施;學(xué)術(shù)視域下的研究思考了如何劃分人工智能教育應(yīng)用的倫理問題,并關(guān)注教師取代、隱私泄露、算法偏見等具體問題;現(xiàn)實視域下的研究敦促政策制定者與相關(guān)研究者給予的指導(dǎo)意見不能脫離現(xiàn)實,需具備實踐價值。
Holmes 等[4]悲觀地認為世界各地幾乎沒有開展任何研究,沒有商定任何準則,沒有制定任何政策,也沒有頒布任何法規(guī)來解決人工智能在教育領(lǐng)域的應(yīng)用所帶來的具體倫理問題。值得慶幸的是,政策制定者們已經(jīng)認識到這些問題的嚴峻性,在人工智能應(yīng)用于教育行業(yè)已經(jīng)產(chǎn)生以及可能產(chǎn)生的倫理問題上進行了廣泛討論。例如,《北京共識——人工智能與教育》[5]文件中提出有關(guān)人工智能教育應(yīng)用的倫理問題,包括人工智能應(yīng)用程序偏見、數(shù)據(jù)獲取與數(shù)據(jù)隱私保護、人權(quán)與性別平等、數(shù)字鴻溝導(dǎo)致的教育不公和包容性問題。為解決以上問題,該共識指出應(yīng)促進人工智能教育應(yīng)用的公平性與包容性,應(yīng)用人工智能促進性別平等,確保教育數(shù)據(jù)和算法使用合乎倫理、透明且可審核;《人工智能與教育:政策制定者指南》[6]是基于《北京共識》提出的具體思考,其指出要以合乎倫理、包容和公平的方式將人工智能用于教育領(lǐng)域,表達了對數(shù)據(jù)所有權(quán)、知情同意權(quán)、隱私權(quán)和人權(quán)方面的擔憂,同時提出6 個倫理問題;國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》[7]明確提出到2025 年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力;教育部印發(fā)的《教育信息化2.0 行動計劃》[8]提出網(wǎng)絡(luò)扶智工程攻堅行動,旨在實現(xiàn)“互聯(lián)網(wǎng)+”條件下的區(qū)域教育資源均衡配置,縮小區(qū)域、城鄉(xiāng)、校際差距,緩解教育數(shù)字鴻溝問題,實現(xiàn)公平而有質(zhì)量的教育。
總體來說,目前大多數(shù)政策性文件僅對人工智能教育應(yīng)用倫理問題的解決方案進行了框架設(shè)計,多關(guān)注宏觀層面的大問題。少數(shù)文件雖然關(guān)注到了具體的倫理問題,但也只分析了其潛在影響,未能給出相應(yīng)的規(guī)避路徑。
學(xué)術(shù)界從不同角度探討了人工智能教育應(yīng)用的倫理問題。例如,鄧國民等[9]從角色層面、技術(shù)層面和社會層面對人工智能教育應(yīng)用的倫理問題進行了思考,其中角色層面根據(jù)利益關(guān)系劃分為系統(tǒng)創(chuàng)建者、教師、學(xué)生和監(jiān)測員,分別闡述了其存在的倫理問題和應(yīng)承擔的倫理責任;技術(shù)層面提出了自動化決策倫理問責、算法倫理和數(shù)據(jù)倫理等技術(shù)倫理問題;社會層面提出了人工智能可能會轉(zhuǎn)變就業(yè)市場、改變?nèi)穗H關(guān)系和引發(fā)新的社會不公平等倫理問題;吳河江等[10]認為人工智能帶來的教育倫理風(fēng)險可分為兩類:一是一般性倫理風(fēng)險,即所有人工智能應(yīng)用都要面對的倫理風(fēng)險,主要為數(shù)據(jù)倫理與算法倫理風(fēng)險;二是特殊性倫理風(fēng)險,即人工智能在教育領(lǐng)域面對的特有倫理風(fēng)險,主要為教師職業(yè)道德與角色扮演、智能化師生間倫理關(guān)系等。文獻[9]的分層方法體現(xiàn)了遞進關(guān)系,但未強調(diào)因果關(guān)系;文獻[10]的分類方法體現(xiàn)了并列關(guān)系,但未考慮兩者的交集。
在人機共存的智能時代,智能技術(shù)幫助教師承擔的工作越來越多也越來越核心[11],關(guān)于人類教師是否會被取代一直是人工智能教育領(lǐng)域的熱點話題。對此,劉云杉[12]認為教學(xué)是一種生成性活動,不可能完全被預(yù)設(shè),教師具備的教學(xué)機智與教學(xué)藝術(shù)才是教學(xué)的魅力所在,而這是人工智能技術(shù)尚不具備的。
隨著ChatGPT 應(yīng)用場景的不斷拓展,虛假知識泛濫、技術(shù)異化風(fēng)險和學(xué)術(shù)不端行為等問題愈發(fā)凸顯暴露。首先,因語料庫不同,學(xué)生使用中文進行提問獲得的回答準確率偏低,ChatGPT 可能會編造虛假的內(nèi)容,這會對那些辨別能力不足的學(xué)生造成認知干擾;其次,一個好的論文通常代表作者進行了大量研究,具備優(yōu)秀的學(xué)術(shù)素養(yǎng),但ChatGPT 使論文寫作難度大大降低,使論文學(xué)術(shù)水平與作者學(xué)術(shù)素養(yǎng)不匹配;最后,ChatGPT 助長了學(xué)術(shù)不端風(fēng)氣,學(xué)生使用它寫作業(yè)、寫畢業(yè)論文和寫代碼等,無需進行獨立思考。為抵制AI 生成文本濫用行為,普林斯頓大學(xué)開發(fā)了GPTZero 軟件以確定文本是否由ChatGPT 創(chuàng)作。
除了ChatGPT,還有一項應(yīng)用的出現(xiàn)引發(fā)了諸多爭議。浙江一小學(xué)引進了一款監(jiān)控頭環(huán)[13],用于監(jiān)測學(xué)生是否處于注意力集中狀態(tài),并能實時打分上傳至教師的電腦中。大眾對該頭環(huán)提出很多質(zhì)疑:孩子的隱私能否得到保障?頭環(huán)收集的數(shù)據(jù)能否真正反映孩子的注意力情況?佩戴頭環(huán)導(dǎo)致的人格壓抑與心理障礙如何解決?如果孩子將注意力的提高歸功于頭環(huán),長此以往師生關(guān)系是否會割裂?目前,教育部門已經(jīng)責令學(xué)校暫停使用該頭環(huán)。
除了上述兩種典型代表,現(xiàn)實中還有大量人工智能教育應(yīng)用存在潛在的倫理風(fēng)險。因此,學(xué)校、教育機構(gòu)和科技公司在使用或開發(fā)智能教育應(yīng)用時應(yīng)進行全面的倫理風(fēng)險評估,以人為本地實現(xiàn)教育質(zhì)量提高。而教育監(jiān)管部門不能放松警惕,將新的智能技術(shù)設(shè)備引入課堂教學(xué)時應(yīng)有明確的規(guī)范,且應(yīng)為“人工智能+教育”制定應(yīng)有的操作底線。
人工智能教育應(yīng)用倫理問題的準確界定是對其進行正確研究的前提。當前學(xué)術(shù)界具有明顯的泛倫理化研究特征[14],即將一些技術(shù)本身和人本身的問題歸納到倫理問題范疇,如有人認為部分教師學(xué)習(xí)人工智能技術(shù)困難、人工智能技術(shù)發(fā)展過快等是倫理問題。筆者認為人工智能應(yīng)用于教育中所引發(fā)的問題必須具備倫理性才能被稱為倫理問題,即強調(diào)技術(shù)應(yīng)用過程中對人的影響。
算法桎梏主要體現(xiàn)在以下兩個方面:①算法黑箱。深度學(xué)習(xí)是人工智能算法的核心,其通過建立多層次神經(jīng)網(wǎng)絡(luò)處理和分析數(shù)據(jù)。盡管深度學(xué)習(xí)在教育領(lǐng)域取得了令人矚目的成果,但人類目前仍無法完全理解其在分析教育數(shù)據(jù)時采用的邏輯,即算法黑箱。算法的準確性、有效性無從考究,根據(jù)算法評估學(xué)生的知識基礎(chǔ)、學(xué)習(xí)效率等指標的公平性值得商榷;②算法偏見。人工智能本身不存在偏見問題,但開發(fā)者設(shè)計的算法和使用的數(shù)據(jù)存在偏見問題。人被量化、標簽化的現(xiàn)象普遍存在,用數(shù)據(jù)描述人的特性、用算法評價學(xué)習(xí)結(jié)果有將教育標準片面化、教育過程流水線化的嫌疑[15]。學(xué)生的個性發(fā)展具有獨特性和創(chuàng)造性,情緒具有不穩(wěn)定性,如何設(shè)計算法才能準確全面地反映其綜合情況將是人工智能技術(shù)應(yīng)用于教育領(lǐng)域的一大難題。
數(shù)字鴻溝一方面表現(xiàn)為發(fā)達地區(qū)與貧困地區(qū)教育資源不均衡。近年來較為熱門的雙師課堂教學(xué)模式原本意在促進教育公平,使師資力量薄弱的地區(qū)獲得優(yōu)質(zhì)教師資源,但本地教師缺乏信息化教學(xué)經(jīng)驗,無法有效提升信息化教學(xué)水平,反而會使課堂教學(xué)質(zhì)量和效率下降[16],因此對于人工智能教學(xué)設(shè)施普及率不高和人工智能技術(shù)人才稀缺的貧困地區(qū)而言,反倒是加劇了教育不公;另一方面表現(xiàn)為人工智能技術(shù)對少數(shù)群體和弱勢群體的包容性問題。面向殘疾人和老年人的人工智能教育應(yīng)用匱乏是世界范圍內(nèi)一直存在的現(xiàn)實困境。
ChatGPT 可以幫助學(xué)生完成課程資源搜索、論文大綱生成和家庭作業(yè)等,然而部分學(xué)生無法明確數(shù)據(jù)使用邊界,將論文或科研數(shù)據(jù)上傳至ChatGPT 數(shù)據(jù)庫中[17],極易導(dǎo)致數(shù)據(jù)泄露,引發(fā)知識產(chǎn)權(quán)糾紛。在未獲得許可或授權(quán)的情況下,用戶數(shù)據(jù)信息被過度采集和二次開發(fā)利用是 嚴重侵犯隱私權(quán)的行為[18]。例如,2022 年超星學(xué)習(xí)通被爆出數(shù)據(jù)庫信息泄露,其中包含學(xué)校/組織名、姓名、手機號、學(xué)號/工號、性別、郵箱、密碼等用戶個人隱私,泄露數(shù)據(jù)高達1.727 3 億條,且這些數(shù)據(jù)在境外平臺被公開售賣。雖然超星學(xué)習(xí)通官方緊急辟謠,否認用戶信息被泄露,但大量用戶表示收到大量騷擾電話和境外詐騙電話,對方甚至能準確報出自己的姓名和身份證號,此事引發(fā)了網(wǎng)民對于教育數(shù)據(jù)泄露的深刻擔憂。事實上,自2019 年12 月起工信部便開始發(fā)布《關(guān)于侵害用戶權(quán)益行為的 APP 通報》,其中違規(guī)收集或使用個人信息、欺騙誤導(dǎo)強迫用戶、強制頻繁過度索取權(quán)限成為教育類 APP 中出現(xiàn)頻率最高的問題[19]。即使是敏感性低的數(shù)據(jù),當其關(guān)聯(lián)起來時也能產(chǎn)生一組具有高度意義的數(shù)據(jù)鏈,這種現(xiàn)象稱為身份重新標識[20]。教育數(shù)據(jù)所有權(quán)歸屬不當將會直接導(dǎo)致數(shù)據(jù)安全問題,如果別有用心的人獲取到這些數(shù)據(jù)并加以分析,很容易就能人肉到數(shù)據(jù)生產(chǎn)者的各種信息,由此引發(fā)的連鎖效應(yīng)將是難以預(yù)估的。
教育是一種知識傳遞活動,也是一種情感實踐活動。當人工智能技術(shù)應(yīng)用于教育時,其是否應(yīng)該擁有情感識別和情感表達功能(自我意識)以滿足教師或?qū)W生的情感需求這一議題值得深入探討。在未來,人工智能技術(shù)可能會賦予機器人情感功能,它們的角色可能是家人、老師、寵物和伴侶等,人們無需通過社交即可獲得情緒價值,這將會導(dǎo)致人與機器之間的情感鏈接增強,而人與人之間的情感鏈接削弱。同樣的,人工智能技術(shù)應(yīng)用于教育領(lǐng)域時可能會造成情感遮蔽現(xiàn)象,即教師和學(xué)生的情緒、感受被技術(shù)屏蔽[2]。課堂教學(xué)活動是師生情感交互的重要環(huán)節(jié),一旦這種交互被人工智能技術(shù)阻斷,教育的人文關(guān)懷與情感傳遞將無法得到充分體現(xiàn)。
技術(shù)異化是對育人觀的顛覆。教學(xué)過程中如果教師和學(xué)生過于依賴人工智能技術(shù),使其地位從輔助教學(xué)轉(zhuǎn)變?yōu)橹鲗?dǎo)教學(xué),將會導(dǎo)致教育目標偏移。我國一直倡導(dǎo)主導(dǎo)與主體相結(jié)合的課堂教學(xué)結(jié)構(gòu),人工智能技術(shù)的盲目應(yīng)用將會解構(gòu)這種課堂教學(xué)結(jié)構(gòu)。德國哲學(xué)家馬克斯韋伯認為價值理性與工具理性是人類行為不可分割的兩個方面,二者在本質(zhì)上是合一的,價值理性解決主體做什么的問題,而工具理性解決如何做的問題[21]。人工智能教育應(yīng)用長期以來存在著工具理性僭越價值理性的詬病,表面上其是教育教學(xué)的輔助工具,但實際上教育行業(yè)卻對其盲目崇拜,一味追尋工具的高效使用,從而忽略了使用者身心的全面發(fā)展,直接導(dǎo)致人機—人人交互的情感危機。
此處主要針對應(yīng)用開發(fā)者,因為他們在開發(fā)和維護人工智能教育應(yīng)用方面具有最大權(quán)限。應(yīng)用開發(fā)者的職業(yè)素養(yǎng)失守可能源于對利潤的追求,如果開發(fā)者將商業(yè)利益置于倫理責任之上,他們可能會放松對人工智能教育應(yīng)用的倫理審查與測試,導(dǎo)致質(zhì)量和安全性問題,例如過度索取權(quán)限、超范圍收集個人信息、私自共享給第三方、強制用戶使用定向推送功能、未向用戶明示申請的全部隱私權(quán)限等。此外,缺乏相關(guān)部門監(jiān)督和規(guī)范化管理也是導(dǎo)致應(yīng)用開發(fā)者職業(yè)素養(yǎng)失守的原因之一。
人工智能技術(shù)的快速發(fā)展使得監(jiān)管機構(gòu)和法律制度難以及時跟進,開發(fā)者和使用者缺乏必要的約束和規(guī)范可能濫用技術(shù)或產(chǎn)生不當行為。此外,人工智能教育應(yīng)用涉及不同國家之間的數(shù)據(jù)流動和不同法律體系的碰撞,缺乏全球性倫理規(guī)約和監(jiān)管機制的現(xiàn)狀增加了倫理問題監(jiān)管的復(fù)雜性和挑戰(zhàn)性。
通過將人的全面發(fā)展放在首位、注重教育公平和學(xué)生需求、制定科技向善的價值取向,以及建立健全的法律保障和監(jiān)管框架可以最大程度地規(guī)避人工智能教育應(yīng)用中可能出現(xiàn)的倫理困境,為監(jiān)管部門、教育者、學(xué)生和相關(guān)從業(yè)者提供明確的行為準則和規(guī)范,確保人工智能技術(shù)的應(yīng)用目的與教育的最終目標相一致。本文提出的人工智能教育應(yīng)用倫理困境規(guī)避路徑如圖1所示。
Fig.1 Path for avoiding ethical dilemma in the application of artificial intelligence education圖1 人工智能教育應(yīng)用倫理困境規(guī)避路徑
教育是以人的發(fā)展為中心,關(guān)注人發(fā)展的未來性、生命性和社會性,這是構(gòu)建教育倫理的基本價值觀念和基本原則[22]。人工智能技術(shù)在教育中的應(yīng)用應(yīng)以學(xué)生需求和利益為中心,促進其認知、情感、社交和創(chuàng)造力發(fā)展,因此需要對其進行密切審視,以確保其服務(wù)于人的發(fā)展目標。目前有些學(xué)校在教室中布置了智能監(jiān)控,可以實時捕捉學(xué)生的行為數(shù)據(jù),判別其是否處于學(xué)習(xí)、發(fā)呆、打鬧等狀態(tài)。這樣做雖然對學(xué)生的不良行為有良好的糾正效果,但也存在侵入性和去人性化的嫌疑,會使學(xué)生產(chǎn)生焦慮情緒與排斥心理,教師與學(xué)生之間也會出現(xiàn)信任危機。一旦在技術(shù)的應(yīng)用過程中忽略了人本位思想,勢必發(fā)生關(guān)系錯位與人性壓制現(xiàn)象。
踐行以人為本的原則應(yīng)關(guān)注學(xué)生的個體差異和多樣性,通過個性化學(xué)習(xí)路徑和教學(xué)策略滿足個體需求,促進學(xué)生全面發(fā)展。教師在教育中扮演著不可替代的角色,即使有人工智能技術(shù)的輔助,也需擔負主導(dǎo)責任。此外,教師和開發(fā)者還需接受倫理培訓(xùn),提高對倫理問題的認識和敏感度,以便其在使用人工智能應(yīng)用時作出科學(xué)合理的決策。
在人工智能教育生態(tài)系統(tǒng)中,相關(guān)利益者需要有科技向善的價值取向。開發(fā)者者應(yīng)深入了解不同用戶的能力、需求和文化差異,避免設(shè)計出可能造成傷害或歧視的產(chǎn)品,致力于促進教育公平;教師要充分考慮和避免人工智能應(yīng)用可能對學(xué)生產(chǎn)生的負面影響,如過度依賴和上癮、社交以及情感發(fā)展匱乏等;學(xué)生在使用教育應(yīng)用時應(yīng)遵守相關(guān)準則和道德規(guī)范,誠實地提交真實和準確的信息,不應(yīng)利用系統(tǒng)漏洞或其他不當手段提供虛假數(shù)據(jù),同時了解技術(shù)的正確用途,避免濫用和錯用;監(jiān)管人員需監(jiān)督系統(tǒng)運營中產(chǎn)生教育數(shù)據(jù)的用途,保障數(shù)據(jù)安全。教育領(lǐng)域中的科技向善歸根結(jié)底是技術(shù)手段與教育價值的內(nèi)在統(tǒng)一,技術(shù)應(yīng)用的目的需與教育的最終追求相吻合[23]。
道德和法律都是社會規(guī)范的重要組成部分。與道德不同的是,法律是由國家制定并強制實施的行為規(guī)范,當人們不能在道德層面約束自己時,法律便可發(fā)揮作用。目前,大眾的人工智能倫理意識薄弱,類似利用AI 換臉侵犯個人隱私權(quán)的事件非常普遍,根源在于倫理規(guī)約缺失與相關(guān)法律法規(guī)匱乏。在教育行業(yè)中,學(xué)生是最易受到傷害的群體,其數(shù)據(jù)被濫用的現(xiàn)象普遍存在,法律保障是學(xué)生利益的最后防線。首先,政府應(yīng)制定嚴格的數(shù)據(jù)保護法規(guī),確保個人數(shù)據(jù)在人工智能教育應(yīng)用中合法、合規(guī)和安全地被使用;其次,政府應(yīng)建立獨立的監(jiān)管機構(gòu)或委員會,負責監(jiān)管人工智能教育應(yīng)用的倫理行為及其合規(guī)性;再次,政府應(yīng)加強對人工智能教育應(yīng)用違法行為的法律責任和追究機制,明確開發(fā)者和教育機構(gòu)在數(shù)據(jù)使用、隱私保護和倫理規(guī)范方面的責任,違反規(guī)定者應(yīng)承擔相應(yīng)的法律后果;最后,政府應(yīng)加強國際合作與經(jīng)驗分享,積極參與國際標準制定,確保人工智能教育應(yīng)用的倫理規(guī)范具有普適性。
人工智能技術(shù)在教育領(lǐng)域的應(yīng)用越來越廣泛,發(fā)揮的作用也越來越不可替代,我們要密切關(guān)注每一個環(huán)節(jié)可能出現(xiàn)的倫理問題,并及時采取措施解決這些問題,確保人工智能教育應(yīng)用的合理性、公平性和可持續(xù)性。通過堅持人本位思想、倡導(dǎo)科技向善的價值觀和建立健全的法律保障可以為人工智能教育應(yīng)用創(chuàng)造一個適宜的發(fā)展環(huán)境,實現(xiàn)技術(shù)與教育的有機結(jié)合,為學(xué)生的全面發(fā)展和個體潛能的實現(xiàn)提供更好的支持,推動教育領(lǐng)域的創(chuàng)新與進步。然而,人工智能合乎倫理的應(yīng)用仍然是一條漫長的道路,需要監(jiān)管部門、教育從業(yè)者和學(xué)生等各方的持續(xù)共同努力。