王曉敏 劉嬋娟
內(nèi)容提要 人工智能賦能教育是技術(shù)發(fā)展的時(shí)代必然,但在智能技術(shù)與教育的融合過程中,教育技術(shù)、師生關(guān)系以及教育環(huán)境等方面也會(huì)產(chǎn)生新的倫理風(fēng)險(xiǎn)。從理論上說,教育技術(shù)運(yùn)用方面的倫理風(fēng)險(xiǎn),主要根源于由認(rèn)知受限而導(dǎo)致的算法黑箱、由文化偏見而引致的算法歧視、由智能技術(shù)法制缺位而引發(fā)的倫理治理受阻;師生關(guān)系方面的倫理風(fēng)險(xiǎn),主要根源于教師、學(xué)生以及師生等倫理關(guān)系的錯(cuò)位;教育環(huán)境方面的倫理風(fēng)險(xiǎn),主要根源于由價(jià)值歧視導(dǎo)致的社會(huì)公平正義缺失,從而引發(fā)更深層次的教育不公平。因而,在人工智能賦能教育過程中,一方面要理性看待已經(jīng)出現(xiàn)或可能會(huì)出現(xiàn)的倫理困境,另一方面要在倡導(dǎo)智能技術(shù)和教育融合共生的基礎(chǔ)上,從加強(qiáng)技術(shù)支撐和倫理規(guī)范建設(shè)、構(gòu)建新型師生倫理空間、明晰智能教育倫理責(zé)任和提升師生智能素養(yǎng)等四個(gè)方面,構(gòu)建人工智能教育倫理治理新范式,以防患于未然。
關(guān)鍵詞 人工智能 技術(shù)賦能 教育倫理 師生關(guān)系
王曉敏,溫州醫(yī)科大學(xué)外國語學(xué)院講師
劉嬋娟(通信作者),溫州醫(yī)科大學(xué)健康與生命倫理研究中心教授
以深度學(xué)習(xí)為代表的人工智能技術(shù)在迅速發(fā)展的同時(shí),也被廣泛應(yīng)用于各領(lǐng)域。具有自動(dòng)寫作功能的語言優(yōu)化模型ChatGPT驚艷出場,聯(lián)結(jié)了現(xiàn)實(shí)空間與虛擬空間的“元宇宙”數(shù)字生活空間橫空出世,成長于數(shù)字化環(huán)境中的數(shù)字土著成為新一代的教育主體。面對這樣的現(xiàn)實(shí),人們不得不重新審視教育與技術(shù)之間的關(guān)系。在實(shí)踐中,人工智能在教育領(lǐng)域的應(yīng)用越來越廣泛,包括各教育利益相關(guān)者及教育管理部門對教育大數(shù)據(jù)的收集和使用,智能技術(shù)在學(xué)生的自主學(xué)習(xí)、教師的線上授課以及智慧課堂的行為識(shí)別中起到的輔助作用,等等。從理論上來說,人工智能賦能教育,其本質(zhì)就是提倡利用網(wǎng)絡(luò)技術(shù)、信息技術(shù)以及智能技術(shù)等改善現(xiàn)有教育中技術(shù)利用不足的問題。學(xué)者們逐漸重視“教育中的人工智能”(artificial intelligence in education, AIED)的研究。這一研究領(lǐng)域,主要是指人工智能與教育科學(xué)融合所形成的專項(xiàng)領(lǐng)域,其研究目的在于利用人工智能技術(shù)揭示學(xué)習(xí)發(fā)生機(jī)制、促發(fā)高效學(xué)習(xí)以及促進(jìn)教育改革發(fā)展[1]。這一應(yīng)用及其過程,被通俗地簡稱為人工智能技術(shù)賦能教育。在人工智能技術(shù)賦能教育的過程中,由于教育教學(xué)方式技術(shù)化的變革創(chuàng)新,師生關(guān)系與教育環(huán)境也一定會(huì)發(fā)生潛移默化的改變,并帶來人工智能技術(shù)環(huán)境下新的教育倫理問題。那么,人工智能賦能教育將可能產(chǎn)生哪些倫理風(fēng)險(xiǎn)呢?本文旨在通過探討這一問題構(gòu)建智慧教育倫理治理新范式,以做到未雨綢繆,防患于未然。
一、人工智能賦能教育的倫理風(fēng)險(xiǎn)
教育領(lǐng)域的技術(shù)賦能或?qū)逃龥Q策、教學(xué)應(yīng)用及教育環(huán)境等方面產(chǎn)生影響,從而催生教育變革。人工智能技術(shù)在解構(gòu)現(xiàn)有教育教學(xué)生態(tài)的同時(shí),也在建構(gòu)人工智能教育教學(xué)技術(shù)化的新生態(tài)。在技術(shù)化的教育新生態(tài)中,由于人工智能扮演類人的角色,所以它不僅改變了傳統(tǒng)教育生態(tài)中的人際關(guān)系,而且也促使教育倫理中關(guān)于道德行為的價(jià)值判斷標(biāo)準(zhǔn)發(fā)生變化。然而,即使作為技術(shù)倫理和教育倫理的結(jié)合體,人工智能教育倫理仍然應(yīng)該以“人”為研究的出發(fā)點(diǎn),規(guī)約人在人工智能應(yīng)用過程中的行為[2],這是因?yàn)榻逃膶ο笕匀皇腔钌娜?,而不是“技術(shù)”,更不能為了運(yùn)用技術(shù)而改變“人之為人”的本性。由此,以“教育是培養(yǎng)人之為人的教育活動(dòng)”作為考察和運(yùn)思的標(biāo)準(zhǔn)及出發(fā)點(diǎn),人工智能賦能教育將可能在教育技術(shù)、師生關(guān)系以及教育生態(tài)等方面產(chǎn)生倫理風(fēng)險(xiǎn)。
1.關(guān)于教育技術(shù)的倫理風(fēng)險(xiǎn)
人工智能時(shí)代最讓人焦慮的技術(shù)問題,就是算法黑箱問題和數(shù)據(jù)安全問題。先就算法黑箱問題對教育倫理的影響加以考察。眾所周知,現(xiàn)實(shí)世界為大量數(shù)據(jù)所重建,界面、數(shù)據(jù)、模型是智能算法黑箱的三大形成要素,而對于交互界面內(nèi)部數(shù)據(jù)的運(yùn)作邏輯——算法,人們卻無從知曉,這種算法的不公開不透明就是所謂的黑箱問題[3]。在教育領(lǐng)域中,算法黑箱可能會(huì)引發(fā)各種算法倫理風(fēng)險(xiǎn),主要體現(xiàn)在:①算法不公開引致教育主體對智能技術(shù)缺乏信任。當(dāng)教育者和學(xué)習(xí)者對智能教學(xué)系統(tǒng)的分?jǐn)?shù)計(jì)算規(guī)則、評價(jià)理由和預(yù)測的依據(jù)未知時(shí),他們會(huì)質(zhì)疑智能教學(xué)系統(tǒng)的可信度與有效性,這種信任缺失會(huì)妨礙教育者、學(xué)習(xí)者與智能教學(xué)系統(tǒng)之間的交互。②算法歧視遮蔽教育的公平性。算法的設(shè)計(jì)會(huì)不可避免地受到算法程序員的主觀影響,其背后是程序開發(fā)商等諸多教育利益相關(guān)者的觀點(diǎn)制衡,因此受主觀意識(shí)左右的算法設(shè)計(jì)存在“算法歧視”的風(fēng)險(xiǎn),遮蔽了教育的公平性。③算法設(shè)計(jì)過濾教育中富含人文價(jià)值的因素。算法的設(shè)計(jì)一般遵循固有的公式,因此在算法運(yùn)行過程中,很多教育中富含人文價(jià)值的因素是無法被精準(zhǔn)計(jì)算衡量的,這也在一定程度上造成了算法的偏差和偏見,引發(fā)新的教育不公平問題。
人工智能賦能教育的技術(shù)倫理風(fēng)險(xiǎn)還體現(xiàn)在數(shù)據(jù)倫理風(fēng)險(xiǎn)方面。數(shù)據(jù)智能本是智能教學(xué)系統(tǒng)得以順利運(yùn)行的基礎(chǔ)。然而旨在優(yōu)化教學(xué)的智能輔助數(shù)據(jù)技術(shù)卻變成了教學(xué)管理者對教育主體的監(jiān)控工具,其結(jié)果是教學(xué)世界變得冰冷,失去了教學(xué)生活的真實(shí)感。智能教學(xué)系統(tǒng)所記錄的有關(guān)教育者和學(xué)習(xí)者的各種數(shù)據(jù)信息,大部分是隱私信息,但是此類數(shù)據(jù)信息一旦保存或者運(yùn)用不當(dāng),就可能產(chǎn)生以下倫理問題:①教育數(shù)據(jù)安全危機(jī)四伏。智能系統(tǒng)的使用者很容易遭遇數(shù)據(jù)泄露、數(shù)據(jù)篡改等各種數(shù)據(jù)安全問題,但是由于作為數(shù)據(jù)主體的師生對于自身數(shù)據(jù)的收集和使用缺乏知情權(quán),一旦數(shù)據(jù)被泄露或未經(jīng)授權(quán)而被修改,就會(huì)對數(shù)據(jù)主體即師生產(chǎn)生不可預(yù)測的傷害;②數(shù)據(jù)管理人員的數(shù)據(jù)倫理意識(shí)薄弱。即使數(shù)據(jù)管理人員具備基本的數(shù)據(jù)倫理意識(shí),但是我們并不能排除他們?yōu)榱四怖缭絺惱砑t線并泄露數(shù)據(jù)主體個(gè)人信息的可能;③智能技術(shù)對教學(xué)行為的過度量化。如果人工智能技術(shù)過度侵蝕教育的人性化生態(tài),那么師生的一切教學(xué)行為和學(xué)習(xí)工作狀態(tài)都將會(huì)被量化,其導(dǎo)致的結(jié)果必然是教育的人性與靈性的喪失。
上述兩個(gè)方面技術(shù)倫理風(fēng)險(xiǎn)的存在,導(dǎo)致人工智能時(shí)代教育領(lǐng)域中倫理追責(zé)的困境,主要體現(xiàn)在:一是人工智能的道德主體界定的不確定性。目前,學(xué)界對于因模仿人的思維和行為而問世的人工智能在教育活動(dòng)中是否應(yīng)該承擔(dān)道德主體責(zé)任看法不一。在現(xiàn)實(shí)教育教學(xué)實(shí)踐中,當(dāng)智能教育應(yīng)用出現(xiàn)問題的時(shí)候,教育利益相關(guān)者會(huì)推諉責(zé)任,真正可追責(zé)的責(zé)任主體卻是模糊不清的。二是由智能教育學(xué)習(xí)系統(tǒng)創(chuàng)建成員構(gòu)成的復(fù)雜性而導(dǎo)致倫理責(zé)任不清晰。一般而言,智能教育學(xué)習(xí)系統(tǒng)創(chuàng)建者包括程序設(shè)計(jì)員和系統(tǒng)設(shè)計(jì)師等,但有關(guān)各成員倫理責(zé)任并沒有得到明晰的界定。因系統(tǒng)開發(fā)過程中每一個(gè)環(huán)節(jié)都存在著各種利害抉擇,而這些選擇都不可避免地會(huì)受到系統(tǒng)開發(fā)商商業(yè)理念的影響,所以一旦智能教育學(xué)習(xí)系統(tǒng)出了問題,具體的責(zé)任應(yīng)該由誰承擔(dān)就很難界定。三是除了智能產(chǎn)品的開發(fā)環(huán)節(jié),其系統(tǒng)評估者、使用者和監(jiān)督者的倫理責(zé)任也是不明確的。
2.關(guān)于師生關(guān)系的倫理風(fēng)險(xiǎn)
教育的本質(zhì)是育人,人工智能的應(yīng)用可能會(huì)在一定程度上妨礙教育育心、育德、育人本質(zhì)的實(shí)現(xiàn),進(jìn)而使得教育失去靈魂而變得機(jī)械化。從教師角度來看,如果教師無法有效駕馭人工智能、無法實(shí)現(xiàn)人機(jī)和諧共處,那么就極有可能產(chǎn)生一系列新的倫理困境,主要體現(xiàn)在:一是教師對智能技術(shù)的疏離。由于教師在教學(xué)上過度依賴人工智能,大量授課和訓(xùn)練鞏固環(huán)節(jié)都依賴智能平臺(tái)去完成,且智慧教學(xué)容易遮蔽教師的個(gè)人教學(xué)魅力和智慧。長此以往,教師的教學(xué)能力會(huì)逐漸弱化,其在教學(xué)中舉足輕重的主導(dǎo)地位將不復(fù)存在。這一角色變化降低了教師的身份認(rèn)同,從而引發(fā)教師對智能技術(shù)的非教育性疏離感[1]。二是部分教師的教學(xué)行為失范問題。某些教師由于人工智能素養(yǎng)未能在短期內(nèi)得到極大提升,往往對智能技術(shù)在教學(xué)中的應(yīng)用有抵觸情緒,導(dǎo)致無法有效地利用智能教學(xué)平臺(tái)對學(xué)生的綜合能力做出正確的評估、分析和決策,從而造成教師角色行為失德失范問題[2]。三是教師對人性化教育的觀照不足。人工智能的優(yōu)勢在于其強(qiáng)大的計(jì)算能力和預(yù)測能力,但在培養(yǎng)學(xué)生創(chuàng)造性思維、批判性思維、道德情感和道德品質(zhì)等方面則束手無策。因此,教師對智能技術(shù)的認(rèn)知不足與主觀依賴容易導(dǎo)致教師對學(xué)生人之為人特性的培養(yǎng)有所懈怠。
從學(xué)生的角度來說,在教育智能化的過程中,作為教育主體之一的學(xué)生,其角色地位也會(huì)發(fā)生相應(yīng)變化,從而引發(fā)一些新的倫理隱憂,主要表現(xiàn)在:一是學(xué)生的深層次學(xué)習(xí)實(shí)現(xiàn)受妨礙。智能技術(shù)或?qū)⑹沟脤W(xué)生的學(xué)習(xí)變得輕松愉快但卻難以深入。2022年底ChatGPT語言優(yōu)化模型的問世讓教育界如臨大敵,因?yàn)樘热魧W(xué)生主體長期依賴ChatGPT完成作業(yè),其在寫作時(shí)常需運(yùn)用的謀篇布局、辯證分析以及決策創(chuàng)新等高階思維能力將難以得到發(fā)展。人類一旦失去高階思維能力,未來又將如何與日益智慧的人工智能抗衡?二是學(xué)生的專注時(shí)長與記憶模式受影響。學(xué)生每天忙于完成各智能平臺(tái)的學(xué)習(xí)任務(wù),分配給每個(gè)平臺(tái)的時(shí)間非常有限?!澳秸n”的微視頻使學(xué)生的注意力區(qū)間調(diào)適為5—15分鐘,學(xué)生很難持續(xù)專注于一項(xiàng)學(xué)習(xí)任務(wù)。此外,永久可獲取的在線信息改變了學(xué)生檢索、存儲(chǔ)、回憶甚至重現(xiàn)知識(shí)的方式,影響了學(xué)生的記憶過程和習(xí)慣,不利于學(xué)習(xí)者知識(shí)的積累和鞏固。三是學(xué)生的自主選擇能力被削弱。智能教學(xué)系統(tǒng)的一大優(yōu)勢就是,能夠根據(jù)學(xué)習(xí)者日常學(xué)習(xí)行為模式的歷史數(shù)據(jù)推算出其學(xué)習(xí)需求和偏好,并自動(dòng)推送為學(xué)生量身定制的學(xué)習(xí)資源。但是,這種推送方式很容易給學(xué)生的學(xué)習(xí)內(nèi)容帶來諸多限制,不利于其全面廣泛地獲取豐富的知識(shí)。同時(shí),該方式也可能會(huì)使學(xué)生在自主選擇信息方面產(chǎn)生思維上的惰性,自主意識(shí)弱化,并由此導(dǎo)致學(xué)習(xí)主體性逐漸被智能技術(shù)所消解。
從師生互動(dòng)關(guān)系的角度來說,人工智能應(yīng)用于教育領(lǐng)域后,教學(xué)在一定程度上依賴智能機(jī)器,師生現(xiàn)實(shí)課堂的接觸時(shí)間銳減,過去充滿溫情的教育環(huán)境逐漸失去溫度,師生間的情感交流和道德教化失去倫理空間。教育和技術(shù)的倫理關(guān)系失衡必然會(huì)導(dǎo)致教育中最重要的師生關(guān)系發(fā)生變化。因此,人機(jī)該如何共存是不容忽視的倫理問題。一方面,智能技術(shù)的應(yīng)用破壞了師生對話的倫理空間,師生關(guān)系逐漸變得淡漠,背離了技術(shù)優(yōu)化教學(xué)的初衷。學(xué)生如果長期沉浸于虛擬的教育環(huán)境,將過分迷戀“投其所好”的智慧型教學(xué)系統(tǒng),認(rèn)為現(xiàn)實(shí)中的課堂教學(xué)無趣乏味從而不再主動(dòng)參與現(xiàn)實(shí)的教育活動(dòng),缺乏師生積極互動(dòng)的課堂將顯得更為沉悶,師生間的有效溝通變得愈加困難。另一方面,人工智能技術(shù)賦能教育使得學(xué)生尊師重教的倫理觀念逐漸淡化。在智能時(shí)代,教師的課堂講授不再是學(xué)生知識(shí)獲取的唯一渠道,因而在部分學(xué)生的認(rèn)知中,教師已不具有不可替代性,不再具有舉足輕重的地位。更甚者,從小和數(shù)字技術(shù)打交道的學(xué)生可以在技術(shù)操作方面對教師進(jìn)行知識(shí)與技能的反授。因此,教師的教學(xué)主導(dǎo)作用將接受嚴(yán)峻的現(xiàn)實(shí)考驗(yàn),傳統(tǒng)的師生倫理觀念將面臨巨大的時(shí)代挑戰(zhàn)。
3.關(guān)于教育生態(tài)方面的倫理風(fēng)險(xiǎn)
人工智能賦能教育的技術(shù)倫理風(fēng)險(xiǎn)也會(huì)涉及教育公平、教育的功利性傾向以及AI導(dǎo)致失業(yè)等問題。從教育公平角度來說,在人工智能實(shí)際應(yīng)用的過程中,一方面不同地域不同學(xué)校教師的智能教育素養(yǎng)發(fā)展不同步,其資源整合和人機(jī)協(xié)同等素養(yǎng)的差異會(huì)直接影響智能技術(shù)對教學(xué)質(zhì)量的優(yōu)化程度,智能技術(shù)在實(shí)際教學(xué)應(yīng)用中的不公平性便會(huì)由此凸顯。此外,各地域信息化發(fā)展速度迥異使得各地學(xué)生對信息化教育的接觸程度不一致,導(dǎo)致各地學(xué)生信息化素養(yǎng)參差不齊,自然對智能教育的適應(yīng)性和接受度也不一致,最終使得學(xué)生的學(xué)習(xí)效果產(chǎn)生分化現(xiàn)象。教育者智能教育素養(yǎng)和學(xué)習(xí)者智能學(xué)習(xí)素養(yǎng)的差異性會(huì)引發(fā)新型教育不公平。另一方面,智能技術(shù)的設(shè)計(jì)、應(yīng)用等各環(huán)節(jié)的篩選設(shè)定都暗藏著教育利益相關(guān)者的價(jià)值偏向,智能技術(shù)本身的不公平也會(huì)引發(fā)新型教育不公平問題。如何大幅度大范圍提高師生的人工智能素養(yǎng),確保智能技術(shù)本身的公平性,避免因數(shù)字鴻溝造成新型教育不公平,是教育生態(tài)方面亟待解決的倫理問題。
從教育的功利性傾向角度來說,人工智能賦能教育引發(fā)了新的教育生態(tài)方面的倫理風(fēng)險(xiǎn)。一方面,某些教育領(lǐng)域的互聯(lián)網(wǎng)企業(yè)只關(guān)注商業(yè)利益而忽略了社會(huì)倫理責(zé)任,為了迎合分?jǐn)?shù)至上的教育功利化“短視”需求,將業(yè)務(wù)重心放在義務(wù)教育階段的校外輔導(dǎo),專注于教唆學(xué)生運(yùn)用智能技術(shù)進(jìn)行“刷題”。這導(dǎo)致學(xué)生成了“刷題機(jī)器”,結(jié)果不僅使學(xué)生逐漸喪失了自主學(xué)習(xí)能力,而且也背棄了智能技術(shù)助力學(xué)生學(xué)習(xí)和生命成長的育人初心。另一方面,智能技術(shù)的應(yīng)用使各類教育資源的獲取變得更為便捷,想在學(xué)業(yè)方面勝出的學(xué)生們很容易受教育功利主義的影響,從而只注重增加學(xué)習(xí)的量卻忽略了自身能力的提升,除了完成學(xué)校的各項(xiàng)學(xué)習(xí)任務(wù),日夜忙于各大網(wǎng)絡(luò)平臺(tái)的學(xué)習(xí),卻收效甚微。學(xué)生超負(fù)荷學(xué)習(xí)的內(nèi)卷現(xiàn)狀引發(fā)了全社會(huì)的教育焦慮。
此外,AI的應(yīng)用將引發(fā)人們對失業(yè)問題的擔(dān)憂。人工智能技術(shù)的發(fā)展將對社會(huì)就業(yè)市場產(chǎn)生不同程度的影響。一方面,人工智能技術(shù)發(fā)展尚處于弱人工智能階段,在這一階段人工智能擅長推算認(rèn)知模擬和學(xué)習(xí)認(rèn)知模擬,其記憶、計(jì)算及推理能力已遠(yuǎn)勝于人類[1],因此與高效運(yùn)算、精確識(shí)別和復(fù)雜推理相關(guān)的工作便會(huì)受到?jīng)_擊。ChatGPT預(yù)訓(xùn)練模型出色的語言生成能力和復(fù)雜推理能力令世人震撼,其誕生自然會(huì)給語言應(yīng)用相關(guān)行業(yè)從業(yè)人員造成極大的生存威脅。在這一技術(shù)得到進(jìn)一步的完善提升后,大量文字工作者該何去何從是人類不得不正視的社會(huì)問題。今天是人工智能和文字工作者搶飯碗,那明天很可能會(huì)有其他類型的工作者因?yàn)锳I技術(shù)的突破性發(fā)展面臨失業(yè)危機(jī)。另一方面,雖然目前的弱人工智能尚不足以對各行業(yè)造成致命打擊,但人的智能與人工智能各有所長,相較于智能機(jī)器而言,人類并不擅長的理性認(rèn)知領(lǐng)域的相關(guān)工作逐漸由智能機(jī)器所替代。這必然會(huì)導(dǎo)致產(chǎn)業(yè)結(jié)構(gòu)和人力資源結(jié)構(gòu)的重大轉(zhuǎn)變,也要求提升勞動(dòng)力的素質(zhì)。因此,教育管理部門就應(yīng)該在培養(yǎng)能夠勝任智能時(shí)代各行業(yè)發(fā)展的人才資源方面提前布局,以防范大面積失業(yè)問題的出現(xiàn)。
總之,教育的本質(zhì)不是知識(shí)的堆砌而是靈魂的交流。然而,面對智能教育引發(fā)的算法黑箱、算法歧視和倫理追責(zé)等技術(shù)倫理風(fēng)險(xiǎn),教師和學(xué)生教學(xué)主體地位被削弱、教育的人文價(jià)值和道德追求受遮蔽、師生倫理空間受擠壓等倫理風(fēng)險(xiǎn)以及由此所導(dǎo)致的新型教育不公平、教育功利化、部分行業(yè)從業(yè)人員失業(yè)等教育生態(tài)方面的倫理風(fēng)險(xiǎn),只有明晰引發(fā)各種倫理風(fēng)險(xiǎn)的根源,才能更有效地進(jìn)行教育倫理治理,防患于未然。
二、人工智能賦能教育的倫理風(fēng)險(xiǎn)根源
從學(xué)科歸屬來看,人工智能倫理屬于技術(shù)倫理的分支領(lǐng)域[1],是為實(shí)現(xiàn)人與機(jī)器、人與人以及人與自然的和諧發(fā)展而形成的一系列有關(guān)人工智能活動(dòng)的價(jià)值觀、原則或規(guī)范的統(tǒng)稱[2]。教育倫理研究教育活動(dòng)中的道德問題,將倫理道德作為價(jià)值導(dǎo)向[3],引導(dǎo)構(gòu)建教育活動(dòng)中以教師為核心實(shí)踐主體的各種人際關(guān)系。事實(shí)上,倫理道德的合理性會(huì)隨著教育生態(tài)的變化而產(chǎn)生相應(yīng)的改變。在人工智能賦能教育的新生態(tài)中,其教育倫理層面還包括人與技術(shù)的關(guān)系。上文已經(jīng)論述了人工智能賦能教育在技術(shù)倫理、師生倫理以及教育生態(tài)倫理等方面可能存在的風(fēng)險(xiǎn),下文將探討導(dǎo)致這些倫理風(fēng)險(xiǎn)的根源。
首先,教育技術(shù)方面的倫理風(fēng)險(xiǎn)問題主要源于認(rèn)知受限而導(dǎo)致的算法黑箱問題、由文化偏見而引致的算法歧視以及由智能技術(shù)法治缺位而引發(fā)的倫理治理受阻等方面,具體體現(xiàn)在以下幾方面:①認(rèn)知受限導(dǎo)致算法黑箱問題。人工智能在模擬人類的思維和行為時(shí),也在展示不同的認(rèn)知類型,從傳統(tǒng)算法到深度學(xué)習(xí)算法再到強(qiáng)化學(xué)習(xí)算法最終到情感算法依次演進(jìn)[4],在短短兩個(gè)月內(nèi)月活用戶突破1億的ChatGPT模型就是運(yùn)用了Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu)。目前,在教育領(lǐng)域廣泛應(yīng)用的深度學(xué)習(xí)算法,主要是人工智能模擬人的大腦神經(jīng)網(wǎng)絡(luò)并使其工作機(jī)制與人腦學(xué)習(xí)功能相似的邏輯推演。然而,人類大腦的工作原理至今仍然是一個(gè)不能夠被完全知曉的領(lǐng)域,至少人類還不完全了解人腦運(yùn)作的細(xì)節(jié)[5]。就此而言,關(guān)于深度學(xué)習(xí)算法的運(yùn)作機(jī)制,即使是作為設(shè)計(jì)者的科學(xué)家和程序設(shè)計(jì)員,都是無法完全理解的,這必然會(huì)成為專業(yè)人員的算法黑箱,更何況普通民眾的認(rèn)知水平要遠(yuǎn)低于專業(yè)人士。普通民眾由于不具備專業(yè)的算法素養(yǎng),所以他們的認(rèn)知也必然受到限制,因而也無從理解傳統(tǒng)算法的算法代碼及數(shù)據(jù)的運(yùn)行邏輯,由此就必然產(chǎn)生認(rèn)知上的黑箱問題[6]。②文化偏見引致算法歧視。數(shù)字化時(shí)代,數(shù)字系統(tǒng)與文化緊密融合。數(shù)據(jù)作為人類觀察世界的表征形式,其相關(guān)研究本質(zhì)上是對人的研究,而人類文化往往帶著固有的偏見,導(dǎo)致作為其載體的數(shù)據(jù)也不可避免地承載著文化偏見,處理數(shù)據(jù)的大數(shù)據(jù)算法便自帶人類的歧視意識(shí)[1]。在實(shí)際應(yīng)用中,大數(shù)據(jù)算法如果要融入對教育人文價(jià)值、隱性知識(shí)和文化差異的衡量,不僅開發(fā)難度大而且耗時(shí)長。出于對經(jīng)濟(jì)效益的考慮,當(dāng)面臨對教育公正公平和產(chǎn)品開發(fā)效率的抉擇時(shí),大數(shù)據(jù)算法的開發(fā)者往往會(huì)舍棄對教育人文價(jià)值和教育公平性的追求,從而導(dǎo)致算法標(biāo)準(zhǔn)存在各種偏差,算法歧視大行其道。③智能技術(shù)法治缺位妨礙倫理治理。當(dāng)前,智能技術(shù)的相關(guān)法律制度是不完善的,而且其倫理規(guī)約也沒有被完全構(gòu)建起來,因而與智能技術(shù)相關(guān)的德行培育也是滯后的。這不僅不利于教育技術(shù)倫理秩序的有效構(gòu)建,而且也妨礙智能技術(shù)教育倫理治理的開展。因?yàn)楦骷夹g(shù)公司間存在商業(yè)競爭,且算法公開可能涉及的數(shù)據(jù)安全問題極易招致法律糾紛,所以各公司都不愿意公開自己的算法,這也導(dǎo)致了人為算法黑箱問題的產(chǎn)生。當(dāng)前,有關(guān)算法公開和數(shù)據(jù)安全的法律政策的更新不僅尚未跟上智能技術(shù)迅速發(fā)展的步伐[2],而且已有的相關(guān)法律政策的界限也是模糊的。同時(shí),在一定程度上,教育數(shù)據(jù)化也使得教育的人文性被遮蔽,教育可被數(shù)據(jù)化的合理限度仍缺乏必要的倫理規(guī)約。缺失了法律制度和倫理規(guī)約指引的各數(shù)據(jù)主體,其德行修養(yǎng)未能得到很好的培育。最后,作為教育數(shù)據(jù)主體的師生自身數(shù)據(jù)安全意識(shí)淡薄,缺乏相應(yīng)的法律保護(hù)意識(shí),也是造成技術(shù)治理困境的另一成因。
其次,師生關(guān)系方面的倫理風(fēng)險(xiǎn)問題源于教師教學(xué)工具性被放大、學(xué)生學(xué)習(xí)虛擬空間的主體性異位以及師生生命共生關(guān)系認(rèn)知缺失等方面。其主要體現(xiàn)在:①教師教學(xué)的工具維度得以放大。隨著人工智能在教育領(lǐng)域應(yīng)用的日益廣泛和深入,教育教學(xué)主體對智能技術(shù)將越來越依賴,極易產(chǎn)生過分崇尚新技術(shù)的片面化的技術(shù)理性取向。馬克斯·韋伯把理性分為工具理性和價(jià)值理性。工具理性追求事物的最大功效而價(jià)值理性則強(qiáng)調(diào)用純正的動(dòng)機(jī)和正確的方法實(shí)現(xiàn)目標(biāo)[3]。在人工智能賦能教育的初期階段,極易出現(xiàn)片面化的技術(shù)理性引發(fā)的一系列倫理困境。在運(yùn)用先進(jìn)的智能技術(shù)完成高效、可控教學(xué)的過程中,教師成為各項(xiàng)程序的執(zhí)行者,很多時(shí)候不再需要根據(jù)教學(xué)現(xiàn)場學(xué)生的情緒及言語反饋對教學(xué)方案和授課方式進(jìn)行靈活機(jī)動(dòng)的調(diào)整,教育將呈現(xiàn)按部就班的機(jī)械化趨勢。由于智慧課堂時(shí)間的增加,現(xiàn)實(shí)教學(xué)空間受擠壓,教師未能有足夠的課堂時(shí)間啟迪學(xué)生對有意義的價(jià)值問題進(jìn)行深度思考。對教學(xué)技術(shù)的長期依賴或?qū)⑹菇處熤饾u失去自主創(chuàng)新和自我反思的能力,那么教學(xué)活動(dòng)就會(huì)失去其應(yīng)有的靈動(dòng)性。②學(xué)生學(xué)習(xí)虛擬空間的主體性異位。德國古典哲學(xué)家費(fèi)希特用異化表示“自我”創(chuàng)造“非我”,客體由主體異化產(chǎn)生[4]。基于社會(huì)認(rèn)識(shí)論,智能虛擬教育場中的學(xué)生形象是現(xiàn)實(shí)教育場中“自我”的化身,是“自我”的另一個(gè)客體,當(dāng)“自我”的意志、情感、認(rèn)知等內(nèi)在特征未完全遷移至虛擬教育場中的“非我”時(shí),學(xué)生主體在教育虛擬場中的主體意識(shí)便被弱化,且在學(xué)校紀(jì)律等外在約束消解的情況下將逐漸形成與現(xiàn)實(shí)“自我”相去甚遠(yuǎn)的“虛擬人格”[5]。這樣,現(xiàn)實(shí)世界中的“自我”和虛擬世界中的“非我”之間的主體性異位,對學(xué)生學(xué)習(xí)能力的發(fā)展和人格的完善都會(huì)產(chǎn)生不良的影響,其結(jié)果是長期沉浸于智能學(xué)習(xí)的學(xué)生會(huì)疏于深度思考,思維鈍化,自主意識(shí)弱化,從而導(dǎo)致學(xué)生學(xué)習(xí)主體地位受到削弱。③師生生命共生關(guān)系的認(rèn)知缺失。在智能時(shí)代,以師為重的傳統(tǒng)師生倫理觀日漸式微,教師不再是學(xué)生知識(shí)獲取的主要渠道,線下現(xiàn)實(shí)教學(xué)時(shí)間銳減,教師言傳身教的空間受到擠壓。智能機(jī)器雖然取代了教師的知識(shí)教學(xué)工作,但二者并非必然的對立關(guān)系,在一定程度上二者是可以實(shí)現(xiàn)融合共生的。智能機(jī)器可以將教師從繁重的重復(fù)性知識(shí)教學(xué)勞動(dòng)中解放出來,騰出時(shí)間和精力去從事學(xué)生更為需要的道德情感教育和價(jià)值觀教育。也就是說,智能機(jī)器可以協(xié)助教師實(shí)現(xiàn)對學(xué)生的共育。如果在師生倫理空間受到嚴(yán)重?cái)D壓的智能時(shí)代,教師與學(xué)生未能以發(fā)展的眼光對師生關(guān)系有正確認(rèn)知,那么就會(huì)導(dǎo)致師生之間缺少關(guān)愛,教育失去溫度,師生關(guān)系淡漠。相反,如果我們能夠有正確的認(rèn)知,那么這種共生意識(shí)也就同樣適用于人類教師、智能教師與學(xué)生之間的關(guān)系,進(jìn)而實(shí)現(xiàn)三者和諧共生的愿景。
最后,教育生態(tài)方面的倫理風(fēng)險(xiǎn)問題,主要源于公平正義的終極理性價(jià)值缺失、追崇效率的技術(shù)功利主義盛行以及理性見長的人腦智能異化物誕生等方面,具體體現(xiàn)在以下幾方面:①公平正義的終極理性價(jià)值缺失。哲學(xué)視域下,價(jià)值論追求的終級(jí)理性價(jià)值以公平正義為內(nèi)在目的,唯有智能技術(shù)忠于這一價(jià)值,其發(fā)展才能以公平正義為導(dǎo)向[1],而負(fù)荷多重價(jià)值的技術(shù)兼具自然屬性和社會(huì)屬性,屬于人的行為,因而必然包含人的目的、價(jià)值等因素[2]。以彌合教育鴻溝、促進(jìn)人類教育公平為終極目標(biāo)的教育智能技術(shù),看似通過教育數(shù)據(jù)的量化能促進(jìn)教育公平,但實(shí)際上,智能教育產(chǎn)品開發(fā)的每一個(gè)環(huán)節(jié)都存在多種設(shè)計(jì)路徑的選擇,選擇的背后則是“資本以增加用戶粘性來謀取利益的商業(yè)邏輯”,其背后隱匿了更多的價(jià)值歧視[3]。如果教育的價(jià)值偏向被暗中嵌入技術(shù)設(shè)計(jì)的路徑中,那么以算法黑箱為掩護(hù)的智能教育產(chǎn)品就會(huì)加劇使用者價(jià)值觀的迷失,并進(jìn)而引發(fā)更深層次的教育不公平。②追崇效率的技術(shù)功利主義盛行。在現(xiàn)實(shí)的教育實(shí)踐中,智能教育的技術(shù)理性如果缺乏公平正義的價(jià)值理性的約束,則不可避免地會(huì)受到功利主義的侵蝕[4]。人工智能賦能教育后,教育技術(shù)的工具理性效果被最大化,其結(jié)果就是引發(fā)教育功利化問題。為了迎合部分家長和受教育者學(xué)習(xí)周期短的偏好,一些教育智能技術(shù)開發(fā)者急功近利,有意無意地忽視了對教育內(nèi)在價(jià)值的追求,只生產(chǎn)能高效傳遞教學(xué)信息的教育產(chǎn)品,簡化教育認(rèn)知過程,忽略對學(xué)生的情感教育和思維能力培養(yǎng)。這樣,教育的人文性就必然被束之高閣,而受教育者也會(huì)被動(dòng)地成為功利主義教育的犧牲品,教育培育人的本質(zhì)會(huì)由此受到遮蔽。③理性見長的人腦智能異化物誕生。馬克思的異化理論揭示了資本主義社會(huì)的工人可以與自己的勞動(dòng)發(fā)生疏離并出現(xiàn)勞動(dòng)異化現(xiàn)象。這一與異化理論同樣適用于智能時(shí)代的人與其勞動(dòng)成果之間的關(guān)系,人工智能是人腦的創(chuàng)造物且在服務(wù)于人類的同時(shí)與人腦發(fā)生疏離[5]。當(dāng)前,弱人工智能雖然屬于智能技術(shù)發(fā)展的初級(jí)階段,但人類區(qū)別于其他動(dòng)物的理性思維優(yōu)勢已不復(fù)存在,人工智能在模擬人腦的推算認(rèn)知方面已遠(yuǎn)超人腦,這一與認(rèn)知能力相關(guān)的工作將慢慢被智能機(jī)器所取代,人類的重復(fù)性勞動(dòng)將為智能機(jī)器所替代。
綜上所述,為了促進(jìn)智能技術(shù)和教育教學(xué)的融合共生并進(jìn)而實(shí)現(xiàn)人類對教育公平的終極追求,我們就需要在深刻反思智能教育倫理風(fēng)險(xiǎn)的基礎(chǔ)上,加強(qiáng)防范人工智能賦能教育的倫理風(fēng)險(xiǎn)。
三、人工智能賦能教育的倫理風(fēng)險(xiǎn)防范路徑
2019年聯(lián)合國教科文組織發(fā)布文件倡導(dǎo)重視人工智能深層次倫理問題的相關(guān)研究,提出要趨利避害地加以應(yīng)用。我們認(rèn)為,應(yīng)從加強(qiáng)技術(shù)支撐和倫理規(guī)范建設(shè)、構(gòu)建新型師生倫理空間、明晰倫理責(zé)任以回歸育心育德育人的教育本質(zhì)、提升智能素養(yǎng)以實(shí)現(xiàn)教育技術(shù)融合共生等方面進(jìn)行人工智能賦能教育的風(fēng)險(xiǎn)的防范。
第一,優(yōu)化技術(shù)支撐,加強(qiáng)技術(shù)倫理規(guī)范建設(shè)。人工智能在教育領(lǐng)域的應(yīng)用中存在算法“黑箱”問題,導(dǎo)致其推薦的個(gè)性化學(xué)習(xí)內(nèi)容、學(xué)習(xí)分析和評價(jià)缺乏可靠的解釋,從而使得教育主體對人工智能技術(shù)缺乏信任,同時(shí)也可能引發(fā)因數(shù)字鴻溝而產(chǎn)生的新型教育不公平問題。有研究表明,可解釋人工智能[1]在智能教學(xué)系統(tǒng)中的應(yīng)用能有效提升其內(nèi)部機(jī)制的透明度與可解釋性,獲得更高的信任度,是解決人工智能算法“黑箱”問題的有效路徑。當(dāng)學(xué)習(xí)者能夠明了智能教學(xué)系統(tǒng)所提供的學(xué)習(xí)評價(jià)、學(xué)習(xí)指導(dǎo)與推薦的學(xué)習(xí)內(nèi)容背后依據(jù)的學(xué)習(xí)策略時(shí),他們表示更受益且更愿意再次使用該智能系統(tǒng)。如果該系統(tǒng)能根據(jù)學(xué)習(xí)者的個(gè)性特征和認(rèn)知能力做出符合個(gè)性化需求的解釋,這種積極作用則更顯著[2]。雖然可解釋人工智能教學(xué)系統(tǒng)能夠在一定程度上消解目前人工智能算法黑箱和算法偏見引發(fā)的倫理風(fēng)險(xiǎn),但該技術(shù)的研究和應(yīng)用仍處于探索階段,其技術(shù)水平亟待提高。除了改進(jìn)技術(shù)應(yīng)用、優(yōu)化技術(shù)支撐,算法的倫理治理離不開法律規(guī)制的協(xié)同作用。確保算法的公開性、透明性與可追責(zé)性是消除因算法歧視而引發(fā)的新型教育不公平的有效途徑,加強(qiáng)行之有效的倫理規(guī)制,并積極推動(dòng)算法公開的相關(guān)法律政策制定。要積極完善專利制度,認(rèn)可算法相關(guān)發(fā)明的可專利性,為消除因算法公開引起的非法商業(yè)競爭解決后顧之憂,鼓勵(lì)符合倫理要求的算法良性創(chuàng)新發(fā)展[3]。
從防范數(shù)據(jù)的倫理風(fēng)險(xiǎn)角度來說,教育數(shù)據(jù)治理是從教育的價(jià)值追求出發(fā),以解決教育問題為目的,在教育倫理的規(guī)約下開展數(shù)據(jù)收集和分析,做出符合教育價(jià)值的決策[4]。教育數(shù)據(jù)治理的倫理包括制度倫理和德性倫理兩個(gè)向度,兩者相輔相成[5]。鑒于教育數(shù)據(jù)保護(hù)的特殊性,具有針對性的法律制度和專門機(jī)構(gòu)至今缺失。因此,為明晰教育數(shù)據(jù)安全保護(hù)的倫理紅線,專門法律制度的出臺(tái)以及教育大數(shù)據(jù)倫理共同體的構(gòu)建勢在必行,使教育數(shù)據(jù)安全治理有法可依,有規(guī)可循。此外,各數(shù)據(jù)主體德性倫理的培育需要制度引導(dǎo)和數(shù)據(jù)安全教育機(jī)構(gòu)的規(guī)勸,同時(shí)也需要自身道德自覺性的提升,發(fā)自內(nèi)心認(rèn)可和接受個(gè)人信息及安全隱私的倫理觀[6],共同建設(shè)技術(shù)可控、以人為本、以法為界的教育倫理治理新環(huán)境。同時(shí),在數(shù)據(jù)治理的過程中,我們也需要讓數(shù)據(jù)的收集和使用主體承擔(dān)倫理責(zé)任,以教育倫理為引導(dǎo),解決數(shù)據(jù)隱私泄露、數(shù)據(jù)越權(quán)篡改等倫理問題。教育數(shù)據(jù)主體也應(yīng)該提高自身的數(shù)據(jù)安全保護(hù)意識(shí)、數(shù)據(jù)權(quán)責(zé)意識(shí)和法律追責(zé)意識(shí),對意外產(chǎn)生的數(shù)據(jù)倫理問題做到有效防范和追責(zé)。
第二,彰顯厚德仁愛,構(gòu)建新型師生倫理空間。智能教育時(shí)代的教師面臨著教育主體地位被削弱、師生情感維系難度加大等倫理困境。為了破解這一困境,我們認(rèn)為應(yīng)該運(yùn)用蘊(yùn)含“貴和”文化內(nèi)涵的“和合”倫理,以追求融洽、和諧、和美的教學(xué)關(guān)系和人的整體生成[7]為出發(fā)點(diǎn)和落腳點(diǎn),引導(dǎo)教師角色轉(zhuǎn)變,創(chuàng)新師生倫理關(guān)系。
一方面要引導(dǎo)教師實(shí)現(xiàn)角色轉(zhuǎn)變?,F(xiàn)代智能教學(xué)系統(tǒng)主要根據(jù)算法給學(xué)生提供學(xué)情分析,推薦符合學(xué)生個(gè)性化需求的學(xué)習(xí)資源和策略,在知識(shí)傳授方面分擔(dān)了教師的部分教學(xué)任務(wù),在一定程度上取代了教師的授課地位。但是,智能機(jī)器和人最大的區(qū)別在于它沒有仁愛之心和創(chuàng)造力,因而智能技術(shù)無法與學(xué)生進(jìn)行情感互動(dòng)和人格互鑒,無法替代教師進(jìn)行情感教育和道德教育。然而,越是智慧的教育,越需要注重教育的人文屬性。那么,智能時(shí)代的優(yōu)秀教師就需要把仁愛之心帶到教學(xué)中來,真心實(shí)意地與學(xué)生進(jìn)行情感溝通,讓課堂充滿溫情和關(guān)愛,讓教育返璞歸真。這就需要教育實(shí)現(xiàn)人機(jī)協(xié)同、優(yōu)化教學(xué)過程,融教學(xué)、技術(shù)、人文建構(gòu)于一體,追求融合、和諧的教學(xué)關(guān)系和人的整體生成,以促進(jìn)學(xué)生的文化品格提升與生命成長為教學(xué)旨?xì)w[1]。
另一方面要重構(gòu)師生倫理關(guān)系。教師尊嚴(yán)是教育倫理建構(gòu)的原點(diǎn)[2],然而在智能時(shí)代,師道尊嚴(yán)的傳統(tǒng)倫理觀漸行漸遠(yuǎn)。面對技術(shù)與教育失衡的困境,教師應(yīng)該具備敏銳的先行探索意識(shí)[3],迅速調(diào)整角色定位,回歸教學(xué)主體的主導(dǎo)地位。人工智能技術(shù)協(xié)助教師從重復(fù)性勞動(dòng)中解脫出來,并不意味著教學(xué)主體讓位,而是教學(xué)主體要將更多的精力投入到智能技術(shù)無法企及的情感教育、道德教育以及創(chuàng)新教育中去。教師對學(xué)生的教育應(yīng)該是動(dòng)之以情、曉之以理,在教學(xué)之外成為學(xué)生情感上的引路人,在道德行為上成為學(xué)生的效仿典范,師生之間重新建立起心與心的溫情交流。以“愛”作為師生間溝通交流的重要方式,學(xué)生才會(huì)“親其師,信其道;尊其師,奉其教;敬其師,效其行”,師生共同構(gòu)建“師—技—生”和諧共處的新型倫理空間[4]。
第三,完善倫理責(zé)任機(jī)制,堅(jiān)守育心育德育人初心。在人工智能時(shí)代,技術(shù)的工具理性與教育的價(jià)值理性常常處于失衡狀態(tài),“人工智能技術(shù)所裹挾的工具理性僭越教育的育人價(jià)值”[5]的現(xiàn)象和問題越來越普遍。為此,我們需要在技術(shù)的工具理性和教育的價(jià)值理性之間尋求平衡點(diǎn),明晰并強(qiáng)化教育主體的倫理責(zé)任。雖然人工智能技術(shù)能否真的成為道德主體并在未來取代人類教師成為教學(xué)主體一直備受爭議,但是一個(gè)不爭的事實(shí)是當(dāng)下的人工智能技術(shù)并不具備教育主體所需的智慧、意志、態(tài)度和信念,因此無法承擔(dān)相應(yīng)的道德主體責(zé)任。這是因?yàn)閾碛行闹菭顟B(tài)是成為道德主體的必要條件[6],而人工智能不可能具備這一必要條件,自然無法真正成為人工智能教育倫理的道德主體,也永遠(yuǎn)無法占據(jù)人類教學(xué)主體的位置。因此,人類教育不能因智能技術(shù)對教師主體地位的僭越而對其產(chǎn)生非教育性疏離感,排斥智能技術(shù)在教育領(lǐng)域中的應(yīng)用。為了避免教師與智能技術(shù)處于對立的狀態(tài),我們應(yīng)該認(rèn)識(shí)到人工智能只是機(jī)器,一種促進(jìn)教學(xué)的輔助工具,人類教師的教學(xué)主體地位始終無法動(dòng)搖。不管人工智能變得多么強(qiáng)大,教育傳承文化、創(chuàng)造知識(shí)、培養(yǎng)人才的本質(zhì)不會(huì)變,立德樹人的根本目的不會(huì)變[7]。教育初心,育人為本,作為教育倫理的道德主體,教師應(yīng)始終堅(jiān)守育人初心。
第四,提升教師智能素養(yǎng),實(shí)現(xiàn)教育技術(shù)融合共生。人工智能賦能教育必然會(huì)導(dǎo)致技術(shù)逐漸擠壓教育教學(xué)空間并促生教育領(lǐng)域的技術(shù)反向馴化現(xiàn)象。技術(shù)的反向馴化是指人與技術(shù)從屬關(guān)系的顛倒,人類在發(fā)明、改進(jìn)技術(shù)的同時(shí),技術(shù)也在反向馴化人類[8]。教育領(lǐng)域的技術(shù)反向馴化現(xiàn)象導(dǎo)致教師教育主體地位被削弱,教育和技術(shù)陷入對立失衡的倫理困境。為了消除智能技術(shù)反向馴化現(xiàn)象,教師需要提升技術(shù)認(rèn)知、數(shù)據(jù)應(yīng)用、資源整合、創(chuàng)新教學(xué)、人機(jī)協(xié)同以及倫理安全等六個(gè)方面的素養(yǎng)。教育智能技術(shù)反向馴化的消除不僅需要提升教師的人工智能素養(yǎng),同時(shí)也需要學(xué)生的通力合作,師生一起提高對前沿技術(shù)的認(rèn)知并理性地對待人工智能在教育領(lǐng)域的賦能,化“有形”于“無形”,隱形化智能技術(shù)。當(dāng)師生在教學(xué)中都能駕馭智能技術(shù)時(shí),師生會(huì)將智能技術(shù)視為一種輔助教學(xué)的常規(guī)工具,便感受不到它在實(shí)際教學(xué)中對教育的僭越作用,在真正意義上達(dá)到技術(shù)與教育的融合。為此,為了適應(yīng)智能教育新生態(tài),政府應(yīng)該為不同教育階段的學(xué)習(xí)者提供信息技術(shù)教育,有效提升其數(shù)字勝任水平[1]。作為未來數(shù)字公民的學(xué)生的智能素養(yǎng)的培養(yǎng)顯得尤為重要,在努力提高數(shù)字化學(xué)習(xí)能力的同時(shí),學(xué)生應(yīng)避免過度依賴智能技術(shù),以防產(chǎn)生思維惰性,影響教育對其批判性思維和創(chuàng)造性思維的培養(yǎng),背離智慧教育的初衷。技術(shù)與教育融合共生的智能教育新形態(tài)亟需教師提升人工智能素養(yǎng),同時(shí)也需要學(xué)生理性應(yīng)對人工智能的教育賦能,與教師共同駕馭智能技術(shù),重建心靈交流和情感互動(dòng),做一個(gè)懂技術(shù)、有情感、有溫度、有品德的未來數(shù)字公民。
四、結(jié)語
人工智能賦能教育改變了教育生態(tài),給未來人才培養(yǎng)模式和教學(xué)方法變革帶來新的生機(jī),將使大規(guī)模個(gè)性化教學(xué)成為現(xiàn)實(shí),但同時(shí)也可能會(huì)造成復(fù)雜且棘手的教育倫理新困境。過度依賴智能技術(shù)的教育往往會(huì)導(dǎo)致工具理性對價(jià)值理性的僭越,忽視對學(xué)生人格的完善,師生間話語溝通、情感溝通以及道德熏陶的倫理空間受到擠壓和限制,教育極易偏離其育人的本質(zhì)從而引發(fā)一系列倫理問題。然而,我們需要客觀地看待并處理這一由技術(shù)發(fā)展而引致的教育倫理問題。一方面,我們需要明確,教育新生態(tài)中的智能技術(shù)發(fā)展和運(yùn)用是一個(gè)必然的趨勢,不能回避。另一方面,人工智能技術(shù)被運(yùn)用于教育教學(xué)實(shí)踐活動(dòng)中的時(shí)候,它只有遵循教育的價(jià)值和規(guī)律,才能有效促進(jìn)教育的長遠(yuǎn)發(fā)展。在智能算法的黑箱問題上,要求相關(guān)人員改進(jìn)技術(shù)使智能系統(tǒng)內(nèi)部運(yùn)作機(jī)制公開透明,這樣才能提升教育主體對智能教育系統(tǒng)的信任度;在教育數(shù)據(jù)安全問題上,只有依賴智能技術(shù)相關(guān)倫理規(guī)范與法律法規(guī)的出臺(tái),以及各數(shù)據(jù)主體德性倫理的培育,才能建設(shè)以人為本、以法為界的教育倫理治理新環(huán)境;在師生關(guān)系的倫理問題上,需要以根植于中華傳統(tǒng)文化的“和合”倫理取向?yàn)橹敢珜?dǎo)構(gòu)建智能時(shí)代仁愛型的師生倫理關(guān)系,讓智能教育變得更有溫度。
總之,人類必須立場鮮明地堅(jiān)信智能教育新生態(tài)中的道德主體和責(zé)任主體始終是人類教師,教育工作者需將學(xué)生的人格養(yǎng)成和生命成長視為教育的首要任務(wù),用仁愛之心堅(jiān)守教育育人的本真價(jià)值,實(shí)現(xiàn)智能技術(shù)和教育教學(xué)的融合共生。為此,我們要平衡好技術(shù)的工具理性和教育的價(jià)值理性之間的關(guān)系,明確并強(qiáng)化教師在人工智能教育倫理中的道德主體地位,通過師生人工智能素養(yǎng)的提升化解智能技術(shù)的反向馴化現(xiàn)象,并消除對人工智能技術(shù)的非教育性疏離感,進(jìn)而促使智能技術(shù)有效地服務(wù)于教育教學(xué)實(shí)踐活動(dòng)。
〔責(zé)任編輯:吳玲〕
本文為國家社會(huì)科學(xué)基金重點(diǎn)項(xiàng)目“醫(yī)學(xué)倫理委員會(huì)及其倫理審查能力建設(shè)研究”(19AZX014)的階段性成果。
[1]蔣鑫、朱紅艷、洪明:《美國“教育中的人工智能”研究:回溯與評析》,《中國遠(yuǎn)程教育》2020年第2期。
[2]李曉巖、張家年、王丹:《人工智能教育應(yīng)用倫理研究論綱》,《開放教育研究》2021年第3期。
[3]衣俊霖:《數(shù)字孿生時(shí)代的法律與問責(zé)——通過技術(shù)標(biāo)準(zhǔn)透視算法黑箱》,《東方法學(xué)》2021年第4期。
[1]龐茗月、戚萬學(xué):《智能技術(shù)引發(fā)的非教育性疏離感之倫理省思》,《現(xiàn)代教育技術(shù)》2021年第10期。
[2]張國立、劉曉琳、常家碩:《人工智能教育倫理問題及其規(guī)約》,《電化教育研究》2021年第8期。
[1]肖峰:《人工智能與認(rèn)識(shí)論的哲學(xué)互釋:從認(rèn)知分型到演進(jìn)邏輯》,《中國社會(huì)科學(xué)》2020年第6期。
[1]張衛(wèi):《人工智能倫理的兩種進(jìn)路及其關(guān)系》,《云南社會(huì)科學(xué)》2021年第5期。
[2]趙志耘、徐峰、高芳、李芳、侯慧敏、李夢薇:《關(guān)于人工智能倫理風(fēng)險(xiǎn)的若干認(rèn)識(shí)》,《中國軟科學(xué)》2021年第6期。
[3]王正平:《教育倫理學(xué)的基礎(chǔ)理論探究與建構(gòu)》,《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2017年第6期。
[4]肖峰:《人工智能與認(rèn)識(shí)論的哲學(xué)互釋:從認(rèn)知分型到演進(jìn)邏輯》,《中國社會(huì)科學(xué)》2020年第6期。
[5]徐獻(xiàn)軍:《人工智能的極限與未來》,《自然辯證法通訊》2018年第1期。
[6]譚九生、范曉韻:《算法“黑箱”的成因、風(fēng)險(xiǎn)及其治理》,《湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2020年第6期。
[1]張玉宏、秦志光、肖樂:《大數(shù)據(jù)算法的歧視本質(zhì)》,《自然辯證法研究》2017年第5期。
[2]譚九生、范曉韻:《算法“黑箱”的成因、風(fēng)險(xiǎn)及其治理》,《湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2020年第6期。
[3]吳俊明:《技術(shù)理性是技術(shù)素養(yǎng)的靈魂——科學(xué)課程中的技術(shù)教育(三)》,《化學(xué)教學(xué)》2013年第6期。
[4]歐陽英:《從馬克思的異化理論看人工智能的意義》,《世界哲學(xué)》2019年第2期。
[5]孫田琳子:《虛擬現(xiàn)實(shí)教育應(yīng)用的倫理反思——基于伯格曼技術(shù)哲學(xué)視角》,《電化教育研究》2020年第9期。
[1][3]韋妙、何舟洋:《本體、認(rèn)識(shí)與價(jià)值:智能教育的技術(shù)倫理風(fēng)險(xiǎn)隱憂與治理進(jìn)路》,《現(xiàn)代遠(yuǎn)距離教育》2022年第1期。
[2]吳致遠(yuǎn):《有關(guān)技術(shù)中性論的三個(gè)問題》,《自然辯證法通訊》2013年第6期。
[4]董云川:《人工智能促進(jìn)高等教育發(fā)展的倫理糾偏》,《重慶高教研究》2021年第2期。
[5]歐陽英:《從馬克思的異化理論看人工智能的意義》,《世界哲學(xué)》2019年第2期。
[1]可解釋人工智能在教育領(lǐng)域已開始嘗試應(yīng)用,通過對教育數(shù)據(jù)集的分析,構(gòu)建有意義的教育特征,針對不同算法,采用自解釋或局部解釋等方法,并選擇適當(dāng)?shù)慕换バ越忉尳缑嫦蚴褂谜叱尸F(xiàn)判斷的理由、預(yù)測的原因和計(jì)分規(guī)則等,賦予人工智能類人化的解釋能力。參見王萍、田小勇、孫僑羽:《可解釋教育人工智能研究:系統(tǒng)框架、應(yīng)用價(jià)值與案例分析》,《遠(yuǎn)程教育雜志》2021年第6期。
[2]R. Guidotti, A. Monreale, S. Ruggieri, F. Turini, F. Giannotti, D. Pedreschi, "A Survey of Methods for Explaining Black Box Models", ACM Computing Surveys(CSUR), 2018, 51(5), pp.1-42.
[3]張吉豫:《人工智能良性創(chuàng)新發(fā)展的法制構(gòu)建思考》,《中國法律評論》2018年第2期。
[4][5]謝娟:《教育數(shù)據(jù)治理的倫理框架:價(jià)值、向度與路徑》,《現(xiàn)代遠(yuǎn)程教育研究》2020年第5期。
[6]茍學(xué)珍:《智能時(shí)代教育數(shù)據(jù)安全的倫理規(guī)約簡論》,《電化教育研究》2021年第9期。
[7]張廣君、曾瑤:《走向“和合”:“互聯(lián)網(wǎng)+”時(shí)代的教師倫理取向》,《中國電化教育》2021年第4期。
[1]張廣君、曾瑤:《走向“和合”:“互聯(lián)網(wǎng)+”時(shí)代的教師倫理取向》,《中國電化教育》2021年第4期。
[2]彭海霞、李金和:《教師尊嚴(yán):教育倫理建構(gòu)的原點(diǎn)》,《教育科學(xué)研究》2017年第5期。
[3]韋嵐、陳士林:《人工智能時(shí)代大學(xué)教師的角色定位研究——技術(shù)整合視角》,《高等教育管理》2021年第5期。
[4]劉霞:《人工智能時(shí)代師生關(guān)系的倫理審視》,《教師教育研究》2020年第2期。
[5]王旦、張熙、侯浩翔:《智能時(shí)代的教育倫理風(fēng)險(xiǎn)及應(yīng)然向度》,《教育研究與實(shí)驗(yàn)》2021年第4期。
[6]戴益斌:《人工智能倫理何以可能?——基于道德主體和道德接受者的視角》,《倫理學(xué)研究》2020年第5期。
[7]顧明遠(yuǎn):《“人工智能+”正引起一場教育革命》,《中國教育報(bào)》2019年8月12日。
[8]孫田琳子:《人工智能教育中“人—技術(shù)”關(guān)系博弈與建構(gòu)——從反向馴化到技術(shù)調(diào)解》,《開放教育研究》2021年第6期。
[1]鄭旭東、范小雨:《歐盟公民數(shù)字勝任力研究——基于三版歐盟公民數(shù)字勝任力框架的比較分析》,《比較教育研究》2020年第6期。