張志華,季 凱
(南京郵電大學(xué) 教育科學(xué)與技術(shù)學(xué)院,南京 210023)
人工智能的發(fā)展促使許多行業(yè)發(fā)生了深刻變革,其與工業(yè)、醫(yī)療、金融、交通等呈現(xiàn)深度融合趨勢,但在教育領(lǐng)域卻進(jìn)展緩慢。當(dāng)前的教育模式仍以傳統(tǒng)教育為主導(dǎo),人工智能雖作為一種輔助性工具被廣泛運(yùn)用于教與學(xué)的各個環(huán)節(jié),但革命性的變革尚未出現(xiàn)。也正因如此,構(gòu)建規(guī)范的人工智能教育倫理框架,預(yù)見性地規(guī)避人工智能教育倫理風(fēng)險,結(jié)合現(xiàn)實開展理論研究成為一種現(xiàn)實需要。
技術(shù)的進(jìn)步促進(jìn)了教育發(fā)展,伴隨著人工智能技術(shù)的發(fā)展和應(yīng)用,教育生態(tài)逐漸被解構(gòu)并重新建構(gòu)。人工智能促進(jìn)教育變革的同時,也引發(fā)學(xué)界在哲學(xué)層面對其進(jìn)行了反思。從角色層面來看,鄧國民等認(rèn)為教育利益相關(guān)者將面臨更加復(fù)雜的倫理困境[5],教育的主體出現(xiàn)“類人”概念;從技術(shù)層面來看,蘇明等認(rèn)為需要通過倫理批判來改造人工智能教育異化的現(xiàn)象[6];從社會層面來看,Luckin等認(rèn)為人工智能教育存在數(shù)字鴻溝,并將帶來社會不公平問題[7]。同時,一系列問題接踵而至,如人工智能是否會取代教師?人工智能教育是解放還是弱化教育?人工智能教育行為規(guī)范是否道德?人工智能教育的合法性如何?倫理是維系社會秩序的規(guī)范,也是維系教育不偏離本質(zhì)的規(guī)范,即將到來的人工智能教育變革要警惕存在倫理問題隱患。
人工智能教育已成為當(dāng)前社會關(guān)注的熱點(diǎn)問題,運(yùn)用應(yīng)用倫理學(xué)應(yīng)對人工智能教育以及衍生的道德困境問題,是對人工智能技術(shù)發(fā)展的合理約束,也是確保教育向善發(fā)展的迫切需求。
應(yīng)用倫理學(xué)的基礎(chǔ)理論主要源于五種傳統(tǒng)規(guī)范倫理學(xué)進(jìn)路:功利論、義務(wù)論、契約論、正義論和美德論,其劃分標(biāo)準(zhǔn)依據(jù)的倫理原則、主張等或有不同,卻邏輯自洽[8]。應(yīng)用倫理學(xué)的發(fā)展離不開傳統(tǒng)理論的支撐和指導(dǎo),具有歷史性、具體性、發(fā)展性等特點(diǎn)。對人工智能教育倫理問題的探究應(yīng)遵循這些特點(diǎn)。人工智能教育的形態(tài)是技術(shù)和教育的交融,因此有必要多維度、多視角地探討具體問題,規(guī)范和促進(jìn)人工智能教育發(fā)展,并為其提供理性的道德指引。
技術(shù)倫理的現(xiàn)實道德問題集中在技術(shù)的本質(zhì)、技術(shù)倫理評估、技術(shù)的可控性、技術(shù)的主體等。教育倫理的現(xiàn)實道德問題集中在教育的本質(zhì)、教師的職業(yè)道德、教育公平等。人工智能教育倫理問題不應(yīng)囿于對技術(shù)倫理或教育倫理的單向探討,也不應(yīng)帶有經(jīng)典技術(shù)哲學(xué)的決疑論色彩,一味地強(qiáng)調(diào)其危害[9],而應(yīng)對人工智能技術(shù)與教育的關(guān)系進(jìn)行解構(gòu),在倫理—人工智能—教育的整體關(guān)系視閾中將傳統(tǒng)倫理理論植于人工智能教育,解決實際問題。
技術(shù)進(jìn)步是社會發(fā)展的重要驅(qū)動力,初期往往面臨著相關(guān)技術(shù)領(lǐng)域內(nèi)的治理失調(diào)問題。人工智能教育倫理問題的本質(zhì)在于技術(shù)與教育在應(yīng)用中的倫理沖突,為契合應(yīng)用倫理學(xué)解決實際道德問題之要義,本文依據(jù)功利論、義務(wù)論、契約論、正義論和美德論進(jìn)行分析,以盡可能地展示問題的全貌。
功利論,又稱“功利主義”,主流學(xué)說為“行為功利主義”,主張把行為的結(jié)果作為判斷行為是否道德的標(biāo)準(zhǔn),認(rèn)為正確的道德行為能夠帶來最大幸福。這里的幸福是指快樂或免于苦難,功利主義最大的追求是結(jié)果幸福,主張結(jié)果幸福大于行為正當(dāng)。
功利主義技術(shù)觀的目的是借助技術(shù)改善現(xiàn)狀。人工智能技術(shù)介入教育是為了克服工業(yè)教育模式的弊端,如同質(zhì)化的學(xué)生培養(yǎng)、抑制學(xué)生全面發(fā)展的需求等。非功利主義教育觀與功利主義教育觀相對,主張過程中的道德教育,教育倫理的最高價值目標(biāo)是善[10],培養(yǎng)個體的善,實現(xiàn)人的自由和價值,達(dá)到“教育即生活”和“生活即教育”的目標(biāo)。
民國元年(1912年),袁世凱就任民國大總統(tǒng),下帖請李瑞東赴京擔(dān)任其拱衛(wèi)軍武術(shù)總教長一職。同年,李瑞東與盟兄弟李存義、張兆東等人創(chuàng)中華武士會,李瑞東發(fā)揮了他小孟嘗的本色,出資不少,并在武士會成立后擔(dān)任名譽(yù)總教習(xí)。
功利主義技術(shù)觀與非功利主義教育觀價值取向的沖突,引發(fā)了現(xiàn)實的道德問題。個性化教育被認(rèn)為是人工智能教育的一個重要實踐方向,人工智能教育呈現(xiàn)出“深度學(xué)習(xí)+大數(shù)據(jù)”的優(yōu)勢[11],利用大數(shù)據(jù)分析和算法推薦,能夠基于學(xué)生的學(xué)習(xí)能力、興趣等提供定制化的教學(xué)內(nèi)容。但是,利用人工智能實現(xiàn)個性化教學(xué),并不一定能促進(jìn)學(xué)生的個性化發(fā)展。
人工智能教育的原則需要與學(xué)生的主體性地位相適應(yīng),個性化的算法推薦提升了教學(xué)內(nèi)容的精準(zhǔn)傳播,但也導(dǎo)致了學(xué)生獲得的知識域變窄。長此以往,學(xué)生喪失了獲取信息的自主權(quán),學(xué)生的主體性逐漸被消解[12]?,F(xiàn)實中的一個重要表現(xiàn)就是個性化教育下學(xué)生“幼稚化”[13],學(xué)生依賴于人工智能教育認(rèn)知,失去了對現(xiàn)實生活的體驗。如學(xué)習(xí)看地圖、規(guī)劃路線可以帶給人滿足感,能夠幫助人理解空間關(guān)系,懂得如何通過歷史、地理知識、社會學(xué)理論等來欣賞環(huán)境,而不單單以純功利的心態(tài)想著怎么最快、最輕松地到達(dá)目的地,這其實是學(xué)習(xí)的重要樂趣之一。技術(shù)作用于教育將造成教育異化,導(dǎo)致人工智能教育背離“教育即生活”和“生活即教育”的教育本質(zhì),因此,要堅決防止被技術(shù)異化的假象蒙蔽和迷惑。
義務(wù)論,又稱道義論,側(cè)重于評價人的行為或者某項活動的道德性。義務(wù)論追求行為與道德準(zhǔn)則的一致,其正當(dāng)性取決于所遵循的道德準(zhǔn)則是社會公眾普遍認(rèn)可的,而非個體所信奉遵循的道德信條。
人工智能教育的動機(jī)、行為的道德評價,取決于不同的“人”,也就是主體。技術(shù)催生了“類人”的行為,改變了人與人的行為關(guān)系。人工智能教育過程中存在技術(shù)、教師、學(xué)生多重主體及主體異位現(xiàn)象,主體所遵循的道德準(zhǔn)則不盡相同。人工智能教育動機(jī)受多重主體道德準(zhǔn)則影響,因而判定人工智能教育行為是否具有正當(dāng)性,需要從技術(shù)、教育及二者的辯證關(guān)系著手,運(yùn)用邏輯學(xué)解析倫理問題中行為動機(jī)的多維道德準(zhǔn)則,分析矛盾產(chǎn)生的根源,進(jìn)而完善人工智能教育倫理準(zhǔn)則。
用義務(wù)論審視人工智能教育倫理問題可以發(fā)現(xiàn),技術(shù)主體的介入沖擊了傳統(tǒng)教育主體間的倫理關(guān)系。人工智能越界行為屢見不鮮,例如,2019年發(fā)生的亞馬遜Alexa人工智能助手勸人自殺事件,就引發(fā)了責(zé)任界定問題。人工智能教育同樣會出現(xiàn)越界問題,基于行為、動機(jī)的道德評價,其主體到底是技術(shù)、教師還是學(xué)生?隨著深度學(xué)習(xí)算法的自我迭代,人工智能的行為變得越來越不透明,使得人工智能行為在出現(xiàn)偏差后,出現(xiàn)糾錯困難。人工智能行為選擇的原因日益變得不可解釋、問題解決變得日益不可控。依據(jù)現(xiàn)有法律,未來可能產(chǎn)生權(quán)責(zé)混淆、責(zé)任鴻溝等問題,進(jìn)而對行為方式的道德性產(chǎn)生質(zhì)疑。
主體關(guān)系的沖突也會引發(fā)其他現(xiàn)實道德問題,施教者的角色調(diào)整和學(xué)習(xí)者的角色轉(zhuǎn)換,教師被人工智能取代的恐慌,學(xué)生在現(xiàn)實和虛擬之間出現(xiàn)“本我”與“非我”主體性異位[14]。施教者過分依賴人工智能使得教師的身體缺位,可能會遮蔽教師在教育教學(xué)活動中的重要性,削弱教師的主體性地位;學(xué)習(xí)者脫離外部束縛,放大自身個性,甚至?xí)纬伞疤摂M人格”,表現(xiàn)出一些“非?!毙袨?,導(dǎo)致自我的現(xiàn)實性和虛擬性之間的張力和平衡被撕裂,自我陷入虛擬性異化陷阱。
契約論,此處意指自利契約論,關(guān)注的重點(diǎn)是個人權(quán)利,判定標(biāo)準(zhǔn)取決于是否遵循道德原則,可以說是義務(wù)論的發(fā)展。自利契約論可以用一個公式表述:一個行動是道德的,當(dāng)且僅當(dāng)它符合自利理性的人們在非強(qiáng)制性社會條件下可能達(dá)成和遵守的契約或協(xié)議[15]。契約論中的主動的權(quán)利指自由地追求自身利益的權(quán)利,被動的權(quán)利指言論自由權(quán)、人身自由權(quán)、隱私權(quán)等。
人工智能教育中的“類人”是否具有權(quán)利是存疑的, “類人”的出現(xiàn)源于技術(shù)設(shè)計者,因此探討技術(shù)是否具有正當(dāng)性問題,可將技術(shù)設(shè)計者作為主體分析其權(quán)利。人工智能主體與教育主體間達(dá)成合作契約,人工智能主體有義務(wù)為教育提供服務(wù),有權(quán)利要求教育遵循技術(shù)規(guī)律;反之,教育主體有義務(wù)為人工智能主體提供資源,有權(quán)利要求人工智能主體遵循教育規(guī)律。
以自利契約論探究人工智能教育倫理,按照霍布斯的社會契約論,契約的雙方從自利出發(fā)都應(yīng)放棄一部分權(quán)利,實現(xiàn)共同存在。應(yīng)用于人工智能教育的現(xiàn)實情境中,以隱私權(quán)為例,利用人工智能技術(shù)挖掘數(shù)據(jù)是服務(wù)教育,而學(xué)習(xí)者放棄一部分隱私權(quán)等權(quán)利,存在一定的正當(dāng)性。表面上看這一解釋符合契約論的要旨,但從法律層面看,《民法典》第一千零三十五條強(qiáng)調(diào)了處理個人信息的正當(dāng)性原則,個人信息的基礎(chǔ)屬性是個人身份信息,不完全屬于個人隱私權(quán),法理上無法明確界定數(shù)據(jù)挖掘的邊界,這也為保護(hù)個人隱私權(quán)增加了困難。
人工智能教育中需要大量數(shù)據(jù)支撐理論模型,教師和學(xué)生的行為、情緒、學(xué)習(xí)效果等都是數(shù)據(jù)收集和實驗的對象,算法對數(shù)據(jù)進(jìn)行再加工,解讀教師和學(xué)生行為的深層邏輯,這就會帶來算法和數(shù)據(jù)的倫理問題。哪些數(shù)據(jù)該搜集?會不會發(fā)生數(shù)據(jù)意外泄漏?如何分析、解釋和共享數(shù)據(jù)?如何在算法和數(shù)據(jù)挖掘中保護(hù)個體權(quán)利?一旦無法判定技術(shù)的正當(dāng)性與否,技術(shù)的正當(dāng)性和個人權(quán)利保護(hù)的矛盾必然會出現(xiàn)。
目前的人工智能教育是基于一定的技術(shù)規(guī)則而設(shè)計的,保留和放棄的權(quán)利都已被限定,需要考慮的是某些特定行為是否違反了個人的主動和被動權(quán)利,框定和約束技術(shù)的某些特定行為。
正義論,也稱非自利契約論,是義務(wù)論的另一種發(fā)展方向。其與契約論的相同之處在于都主張權(quán)利優(yōu)先于善,關(guān)注的重點(diǎn)是個人權(quán)利,不同之處在于非自利契約論以正義原則作為首要原則,在該原則的指導(dǎo)下人們自愿結(jié)成社會契約,由正義原則確定社會基本結(jié)構(gòu)。
羅爾斯在20世紀(jì)70年代提出了兩個正義原則。第一個原則主張同等自由的制度,自然狀態(tài)下正義社會中的公民擁有平等的權(quán)利。對于人工智能教育而言,人工智能追求在教育中保障人的平等受教育權(quán)利,在技術(shù)的最大限度下每個人都有平等的權(quán)利選擇教育,而不是每個人都必須接受同樣的教育。第二個原則也被稱為差異原則,認(rèn)為正義的社會未必是平均主義的社會,自然狀態(tài)下權(quán)利的分配有利于“最小受惠者”,即符合正義原則。人工智能教育能夠改變教育資源分配,使處在社會底層的也能享有受教育的權(quán)利。然而,階層間的教育水平差異實然存在,人工智能加大了教育水平的階層差異,加劇了社會階層的不穩(wěn)定。
由第一個原則推論出人工智能教育促進(jìn)教育平等,由第二個原則推論出人工智能教育引發(fā)社會不穩(wěn)定性,兩者間的矛盾將成為人工智能教育發(fā)展面臨的問題。教育平等指人們不受政治、經(jīng)濟(jì)、社會地位和民族、種族信仰及性別的限制,都享有受教育的權(quán)利。教育智能化、自動化等能夠促進(jìn)教育平等實現(xiàn),教師、學(xué)生能夠不受客觀因素限制享受技術(shù)帶來的益處。
人工智能算法模型和數(shù)據(jù)挖掘具有技術(shù)偏向性,能夠根據(jù)主體特征提供定制化服務(wù),但教學(xué)質(zhì)量、學(xué)習(xí)質(zhì)量的構(gòu)成維度仍有待商榷。人工智能的本質(zhì)是追求人機(jī)協(xié)同,即使在設(shè)計環(huán)節(jié)全力降低人為因素的影響,但仍會向行為主體的偏好傾斜。因此,人工智能教育產(chǎn)品仍有可能生成帶有部分群體價值偏向的決策[16]。這是人工智能教育發(fā)展初期階段必然要面臨的問題。
美德論,又稱“美德倫理學(xué)”,通常以人的美德和品質(zhì)為中心,將培養(yǎng)人的美德作為道德教育和道德實踐的首要功能。功利論和義務(wù)論的倫理學(xué)在討論道德的善惡時,主要集中在“我們應(yīng)當(dāng)做什么”,注重行為或?qū)嵺`應(yīng)當(dāng)遵守的原則、規(guī)范;美德論的倫理學(xué),則主要討論的是“我們應(yīng)當(dāng)成為怎樣性質(zhì)的人”。實際上,儒家的育人理念一貫倡導(dǎo)培養(yǎng)有德性的人,中國優(yōu)秀傳統(tǒng)文化具有美的向度[17]。教育以培養(yǎng)人、塑造人、解放人為目的,本質(zhì)上是一項崇善的事業(yè)。
人工智能的道德立場并非完全中立,在其設(shè)計和使用過程中也蘊(yùn)含了道德價值,如不傷害使用者等。其道德立場存在兩個場域:一是設(shè)計者場域,人工智能受到設(shè)計者的道德價值影響,產(chǎn)品往往帶有設(shè)計者的價值偏好;二是使用對象場域,使用者的價值取向會逐漸改變?nèi)斯ぶ悄墚a(chǎn)品,使其道德價值與使用者趨于一致。
人工智能教育的研發(fā)主要是以企業(yè)為主,以盈利為最終目的。資本的逐利性決定了人工智能教育存在利益上的追求,而教育作為一項公共事業(yè)難免會被侵犯,無法實現(xiàn)純粹教人向善的初衷,這與美德論強(qiáng)調(diào)的教育本質(zhì)背道而馳。國外學(xué)者在測試IBM、曠視、微軟人臉識別產(chǎn)品中發(fā)現(xiàn),識別的準(zhǔn)確率受性別影響,三個產(chǎn)品中對男性人臉識別的準(zhǔn)確率均高于女性[18-19]。由此可見,現(xiàn)有的人工智能技術(shù)尚不成熟,在教育領(lǐng)域中難免會受到性別等外部因素影響,進(jìn)而對決策產(chǎn)生誤導(dǎo)。
目前關(guān)于人工智能教育對學(xué)生成長和發(fā)展的影響尚無定論,但企業(yè)為了搶占市場,單純宣傳人工智能教育產(chǎn)品對知識管理、學(xué)習(xí)效率等產(chǎn)生的正向影響。在未經(jīng)過嚴(yán)格的科學(xué)驗證的情況下推廣人工智能教育產(chǎn)品,將對教育產(chǎn)生不可預(yù)估的負(fù)面影響。如果學(xué)校管理層或老師基于這些數(shù)據(jù)做決策,有可能會給學(xué)生帶來心理傷害[18]。因此,有必要去討論技術(shù)的德性問題。
人工智能教育的現(xiàn)實道德問題主要是在技術(shù)與教育耦合過程中出現(xiàn)的,問題產(chǎn)生的深層原因是制度不完善、個體意識缺失和組織結(jié)構(gòu)固化,因而,需要采取相應(yīng)對策,建構(gòu)技術(shù)的非功利性約束機(jī)制、動機(jī)過程的透明機(jī)制、個人權(quán)利的法律保障、社會階層的道德教育和技術(shù)德性的準(zhǔn)則制度。
人工智能教育的發(fā)展超前于其倫理發(fā)展,這也是造成人工智能教育倫理行為失范的客觀原因之一。從邏輯上講,完善人工智能教育倫理規(guī)范,主體方能有章可循、有規(guī)可依。因此,首先是從制度層面完善人工智能教育倫理規(guī)范,最大限度地呈現(xiàn)人工智能教育主體的共同倫理價值及倫理承諾。其次是抓緊推進(jìn)人工智能領(lǐng)域法律體系的完善。當(dāng)前,人工智能相關(guān)的法律大多體現(xiàn)在網(wǎng)絡(luò)信息安全的相關(guān)規(guī)定中,內(nèi)容滯后于人工智能技術(shù)發(fā)展,需要進(jìn)一步修正、充實,并允許部分地區(qū)、行業(yè)先試先行。再次是推動人工智能教育倫理評價制度化。建立第三方倫理評價機(jī)構(gòu),健全倫理評價機(jī)制和倫理問責(zé)制度。在歐盟發(fā)布的《可信賴的人工智能倫理準(zhǔn)則》中,問責(zé)是重要內(nèi)容,其包含著明確利益相關(guān)責(zé)任主體,并對算法、數(shù)據(jù)等審查、評估和監(jiān)管等,同時還可以記錄和修復(fù)負(fù)面結(jié)果,即出現(xiàn)問題后能夠確定責(zé)任方是誰,及時進(jìn)行評估、監(jiān)管和修復(fù)。最后是推動社會輿論對人工智能教育的監(jiān)督。努力為社會輿論提供發(fā)聲渠道,建立輿論監(jiān)督的長效機(jī)制。
人工智能教育的行為主體是人,人的道德準(zhǔn)則和倫理規(guī)范受政治、經(jīng)濟(jì)等社會因素以及個體心理因素的影響。因此,需要在個體發(fā)展的各個環(huán)節(jié)長期培養(yǎng)倫理意識,將倫理意識內(nèi)化為行為規(guī)范,最終推進(jìn)社會共識的形成。
首先,高站位開展人工智能教育倫理普及與教育。提升人工智能相關(guān)學(xué)科教師的職業(yè)道德素養(yǎng),教學(xué)內(nèi)容規(guī)劃應(yīng)明確人工智能教育倫理的教學(xué)目的、內(nèi)容及方法,對企業(yè)或其他利益組織通過“組織培訓(xùn)+自我學(xué)習(xí)”的方式進(jìn)行培養(yǎng)。其次,高起點(diǎn)培養(yǎng)人工智能教育安全監(jiān)管人員。人工智能教育監(jiān)管的困難在于對技術(shù)、教育和法律兼顧的人才較少,亟需培養(yǎng)復(fù)合型人才。最后,高標(biāo)準(zhǔn)提升社會公眾尤其是青少年的道德素養(yǎng)。各類學(xué)校要結(jié)合人工智能教育的特征,尊重虛擬環(huán)境中青少年的特點(diǎn)和思想品德建設(shè)規(guī)律,將道德培養(yǎng)融入課堂。
影響人工智能教育倫理行為的因素,除了個體自身因素外,人工智能教育的內(nèi)在組織和外部組織也將影響個體倫理行為,如組織結(jié)構(gòu)、倫理氛圍等。由于技術(shù)動機(jī)受技術(shù)設(shè)計者所在組織的倫理氛圍影響,人工智能教育主體的倫理自主性極易被抑制。
首先,建立網(wǎng)絡(luò)組織結(jié)構(gòu)。對人工智能教育主體所在的組織進(jìn)行去科層化的組織結(jié)構(gòu)改造,依托人工智能等技術(shù)實現(xiàn)信息共享和無障礙溝通,重塑教育組織形態(tài)。其次,建設(shè)關(guān)懷型組織倫理氛圍。加強(qiáng)組織的人文關(guān)懷建設(shè),尤其是對人工智能企業(yè)加強(qiáng)管理,營造向善的倫理氛圍;加強(qiáng)組織德性教化,喚醒組織成員的良知,重視道義與利益的平衡,促進(jìn)技術(shù)動機(jī)與教育本質(zhì)的協(xié)調(diào)發(fā)展。最后,建立人工智能教育道德委員會,成員應(yīng)包含人工智能與教育行業(yè)管理人員、技術(shù)專家、倫理學(xué)家及師生代表等。
人工智能與教育深度融合,給教育發(fā)展帶來無限可能。采取應(yīng)用倫理學(xué)視角分析人工智能教育倫理問題,在無限可能和無限危機(jī)的發(fā)展過程中,實現(xiàn)教人向善是人工智能教育的發(fā)展趨勢,堅守教育本質(zhì)是人工智能教育的發(fā)展共識,促進(jìn)教育平等是人工智能教育的現(xiàn)實展望,而支撐這一切的則是社會認(rèn)可的合理、健康、可信賴的人工智能教育倫理準(zhǔn)則。