方海光 舒麗麗 王顯闖
摘要: 以ChatGPT為代表的生成式人工智能對教育已經(jīng)產(chǎn)生了深刻影響。盡管人工智能在教育領(lǐng)域中具有許多潛在優(yōu)勢,但也引發(fā)了一系列倫理問題,如教育道德、隱私保護(hù)、透明度與公平性、知識產(chǎn)權(quán)和版權(quán)保護(hù)等。為充分利用人工智能教育優(yōu)勢,人類必須認(rèn)真研究人工智能教育的倫理問題。這需要政府、學(xué)校、機(jī)構(gòu)、企業(yè)等多方協(xié)作,共同參與制定政策和法規(guī),確保人工智能教育的安全性、公正性和道德性。教育研究者也要不斷深化人工智能教育應(yīng)用研究,使人工智能真正為教育變革帶來持續(xù)的助力。
關(guān)鍵詞:人工智能教育;ChatGPT;倫理道德;隱私保護(hù);倫理約束
當(dāng)前,教育領(lǐng)域人工智能倫理研究成為人工智能教育應(yīng)用研究緊迫且重要的內(nèi)容之一。為此,我國新一代人工智能治理專業(yè)委員會于2021年9月發(fā)布了《新一代人工智能倫理規(guī)范》,聯(lián)合國教科文組織于2021年11月發(fā)布了《人工智能倫理問題建議書》。實(shí)際上,人工智能迅速發(fā)展使其應(yīng)用領(lǐng)域不斷擴(kuò)大,特別是在教育領(lǐng)域,人工智能正在以新的方式促進(jìn)人類的思維方式和學(xué)習(xí)方式變革。一方面,傳統(tǒng)上我們認(rèn)為的人工智能的弱項(xiàng),如內(nèi)容創(chuàng)作、藝術(shù)創(chuàng)作等,正逐一被基于大數(shù)據(jù)和大模型的深度學(xué)習(xí)算法優(yōu)化而克服;另一方面,以ChatGPT為代表的生成式人工智能的超預(yù)期提前實(shí)現(xiàn),成為人工智能發(fā)展的重要里程碑。在教育教學(xué)領(lǐng)域,伴隨著人工智能技術(shù)不斷滲透、應(yīng)用于課堂內(nèi)外,人工智能已全面融入教育的教、學(xué)、管、評、測等各個環(huán)節(jié),引發(fā)了教育教學(xué)方式的深刻變革。但在應(yīng)用過程中,研究者們也深刻意識到人工智能教育應(yīng)用存在著潛在的風(fēng)險(xiǎn)和倫理道德問題。
一、人工智能教育應(yīng)用倫理問題日益凸顯
技術(shù)是一把“雙刃劍”,而人工智能是一種特殊的技術(shù)。實(shí)際上,對人工智能的應(yīng)用本身并不能保證教育變革的正確方向,人工智能系統(tǒng)在整個生命周期內(nèi)的任何進(jìn)程決策,也無法保證都能適切地滿足教育的需求。因此,如何確保人工智能與人類教育的協(xié)同發(fā)展演化,成為一個基礎(chǔ)性問題。人工智能教育應(yīng)用是利用人工智能技術(shù)輔助教育教學(xué)全過程,改善師生活動方式和評價方式,優(yōu)化教育教學(xué)效果的理論與實(shí)踐。對人工智能教育應(yīng)用倫理問題的研究基于人類與人工智能的相互關(guān)系。在人機(jī)協(xié)同教育理論的基礎(chǔ)上,隨著人工智能技術(shù)的演化和應(yīng)用程度的加深,人工智能越來越多地參與到人類教育的決策過程中,其發(fā)展演化過程分為三個階段。
(一)以人為主導(dǎo)的教育決策階段
在這一階段,人們僅僅把人工智能視作教育工具來使用。人完成主要工作和解決問題,機(jī)器為輔助。比如,教師在教學(xué)過程中使用人工智能一體機(jī)教學(xué),教師依舊是整個教學(xué)活動的主導(dǎo)者和人工智能工具的選擇使用者,人工智能教育應(yīng)用的倫理問題仍集中在人的身上。
(二)平等參與教育決策階段
在這一階段,教師和人工智能是平等的角色,人工智能可以輔助教師完成決策,并適當(dāng)?shù)貫榻處煼謸?dān)一定的教學(xué)工作。但是,當(dāng)人工智能參與教育決策時,會不可避免地對學(xué)生的教育和成長產(chǎn)生一定影響,而學(xué)生的成長本身是充滿未知的,無法用單一的決策決定學(xué)生的成長。也就是說,學(xué)生在成長中是可以犯錯的,但機(jī)器并不允許犯錯。這時,人工智能教育的倫理問題就比較突出。
(三)深度影響人類教育決策階段
在這一階段,機(jī)器具有一定的主觀性,課堂教學(xué)活動的發(fā)起可由教師完成,也可由人工智能完成。比如,當(dāng)前的“雙師課堂”,教育機(jī)器人和教師共同完成課堂教學(xué)活動,雖然教師依舊是課堂的重要決策者,負(fù)責(zé)監(jiān)督整個教學(xué)決策,可一旦把教學(xué)決策放權(quán)給人工智能,那么人工智能在這個過程中就會涉及教學(xué)目標(biāo)之外的內(nèi)容,對學(xué)生的成長產(chǎn)生較大影響。所以,如何讓教師把握住教學(xué)的主動權(quán),是我們在研究人工智能教育應(yīng)用倫理的過程中必須考慮的一個重要問題。
在人工智能教育應(yīng)用的不同階段,其所面臨的問題和挑戰(zhàn)也不盡相同,經(jīng)過系統(tǒng)的文獻(xiàn)分析和大量的教育實(shí)踐總結(jié),我們認(rèn)為人工智能教育應(yīng)用倫理主要涉及教育道德、隱私保護(hù)、透明度與公平性、知識產(chǎn)權(quán)和版權(quán)保護(hù)等核心議題。
二、人工智能教育應(yīng)用倫理的核心議題
人工智能教育的倫理問題可分為道德和倫理兩個層次。傳統(tǒng)上來看,道德更趨向于個體,而倫理則更趨向于群體,其中又伴隨著個體的影響。當(dāng)我們把人工智能應(yīng)用到教育領(lǐng)域時,會出現(xiàn)三類倫理問題:人工智能的倫理問題、教育的倫理問題、人工智能教育的倫理問題。這是因?yàn)?,人工智能是自然科學(xué)體系中的內(nèi)容,而教育是社會科學(xué)所要考慮的內(nèi)容。當(dāng)我們用自然科學(xué)的內(nèi)容解決社會科學(xué)領(lǐng)域的問題時,就會帶來新的矛盾,從而使倫理問題變得更為復(fù)雜。
(一)教育道德
人工智能的教育應(yīng)用需要尊重學(xué)生的自主性和個性差異,符合學(xué)生群體的認(rèn)知規(guī)律,而不能將學(xué)生簡單地視為數(shù)據(jù)加工的對象。只有技術(shù)應(yīng)用合乎道德規(guī)范,人工智能在教育領(lǐng)域中的價值和作用才能得到更好的發(fā)揮。因此,人工智能教育應(yīng)用需要強(qiáng)調(diào)并融入教育道德標(biāo)準(zhǔn)。以ChatGPT為例,最初是由美國開放人工智能研究中心(OpenAI)研發(fā)的大型語言模型,并不具有任何的倫理道德方面的“認(rèn)知”。它通過學(xué)習(xí)大量的文本數(shù)據(jù)并按照統(tǒng)計(jì)學(xué)的概率生成問題的回答,這就導(dǎo)致了學(xué)生在使用過程中容易獲得大量的有害內(nèi)容。
(二)隱私保護(hù)
在教育中應(yīng)用人工智能技術(shù),不可避免地會收集學(xué)生的個人信息,如姓名、年齡、性別等,以便為他們提供個性化的學(xué)習(xí)服務(wù)。在推廣人工智能教育的同時,開發(fā)者和使用者如果沒能重視教育隱私保護(hù)問題,并采取相應(yīng)的措施來確保數(shù)據(jù)的安全性和隱私性,很可能造成學(xué)生個人信息被濫用。比如,一些學(xué)者擔(dān)心將學(xué)生的信息輸入ChatGPT后,雖然在一定程度上能幫助自己做教育決策,更好地開展因材施教,但是這些與學(xué)生息息相關(guān)的數(shù)據(jù)可能被人工智能系統(tǒng)的研發(fā)人員未經(jīng)學(xué)校及家長許可就用在別處,也有可能被黑客盜取并利用它們進(jìn)行各種不法活動,給學(xué)生帶來傷害。
(三)透明度與公平性
保證透明度和公平性是一個先進(jìn)、開放、可持續(xù)的教育體系的必要條件。人工智能的決策依據(jù)往往是算法,而算法是可能存在偏見或歧視的。這是因?yàn)槲覀兯f的“算法”其實(shí)是由人編寫的,算法的結(jié)果也會受到編寫者的影響,進(jìn)而使決策產(chǎn)生偏差。例如,一個數(shù)據(jù)集可能存在隱含的偏見或歧視,當(dāng)這些數(shù)據(jù)被用來訓(xùn)練機(jī)器學(xué)習(xí)模型時,模型的結(jié)果也會帶有這些偏見或歧視。因此,人工智能教育的透明度和公平性問題至關(guān)重要,如果人工智能教育的過程不能被公開或存在不公平問題,將會對整個教育結(jié)果產(chǎn)生惡劣的影響。
(四)知識產(chǎn)權(quán)和版權(quán)保護(hù)
作為一種創(chuàng)造性活動,人工智能教育應(yīng)用的研發(fā)涉及很多原創(chuàng)內(nèi)容以及算法和程序,需要遵守知識產(chǎn)權(quán)的相關(guān)規(guī)定,并確保合法使用這些資源。以ChatGPT為例,它所生成的內(nèi)容往往是對已有文本的拼接,在生成的回答中我們只得到了最終結(jié)果,而對于這個結(jié)果是如何產(chǎn)生的,尤其是引自哪里并未有所提及,這就導(dǎo)致了知識產(chǎn)權(quán)和版權(quán)保護(hù)等問題的出現(xiàn)。
三、人工智能教育應(yīng)用倫理問題的解決對策
人類的學(xué)習(xí)不是完全程序化和形式化的過程,它同時還受歷史觀、信息觀、情感觀、家庭觀等一系列因素的影響。人工智能教育應(yīng)用也注定是一個復(fù)雜的混合性問題。因此,在研究人工智能教育的倫理問題時,我們要取得社會科學(xué)和自然科學(xué)思維體系的平衡。
(一)注重人工智能教育應(yīng)用的道德監(jiān)管
首先,應(yīng)堅(jiān)持以人為本的原則。人工智能教育的開展,應(yīng)尊重學(xué)生的個體差異和發(fā)展需求,關(guān)注他們的情感、思維和行為表現(xiàn),避免簡單的“刻板印象”和歧視性言論,確保不會傷害到學(xué)生的身心健康和切身利益。其次,應(yīng)強(qiáng)化道德引導(dǎo)和監(jiān)管機(jī)制。人工智能教育的開展,應(yīng)注重培養(yǎng)學(xué)生正確的價值觀和道德觀,鼓勵學(xué)生積極參與社會實(shí)踐,增強(qiáng)社會責(zé)任感和公民意識。最后,應(yīng)建立健全監(jiān)管機(jī)制。對違反道德規(guī)范和法律法規(guī)的行為,要及時糾正和懲處。以ChatGPT為例,為滿足社會約定俗成的倫理道德標(biāo)準(zhǔn),OpenAI研發(fā)了名為reword的模型。該模型具有激勵懲罰機(jī)制,以人工標(biāo)注打分的方法使其形成符合倫理道德標(biāo)準(zhǔn)的內(nèi)容,以此規(guī)避在教育應(yīng)用時的潛在風(fēng)險(xiǎn)。這種標(biāo)注方法雖然不可避免地還存在一些主觀因素,但從結(jié)果來看,已能夠在一定程度上剔除對學(xué)生有害的生成式內(nèi)容。這也為其他人工智能產(chǎn)品在教育領(lǐng)域中的應(yīng)用提供了一種可借鑒的處理方式。
(二)注重人工智能教育的數(shù)據(jù)隱私保護(hù)
首先,要保證學(xué)生的個人信息安全。學(xué)生在接受人工智能教育過程中會產(chǎn)生大量數(shù)據(jù),如學(xué)生個人基本信息、學(xué)習(xí)軌跡、學(xué)業(yè)成績等,這些信息必須得到嚴(yán)格的保護(hù),避免泄露、濫用或者篡改。其次,要明確收集和使用學(xué)生數(shù)據(jù)的目的與范圍。在涉及學(xué)生隱私的情況下,任何的數(shù)據(jù)收集和使用都必須遵守法律法規(guī),并且必須得到學(xué)生及其家長的明確授權(quán)和同意。學(xué)校和相關(guān)機(jī)構(gòu)也應(yīng)為學(xué)生提供保護(hù)個人隱私的知識和培訓(xùn),以增強(qiáng)他們保護(hù)自身隱私的意識和能力。最后,要加強(qiáng)技術(shù)手段的保障。針對人工智能教育的特點(diǎn),教育管理部門應(yīng)建立健全數(shù)據(jù)管理制度和技術(shù)安全保障體系,采用加密、匿名化、去標(biāo)識化、脫敏等技術(shù)手段,盡可能減少學(xué)生個人信息的泄露風(fēng)險(xiǎn),同時加大對不法分子盜取相關(guān)教育信息的懲處力度。
(三)確保人工智能教育決策的透明度與公平性
首先,要保證基于人工智能的決策具有可解釋性。這意味著教育機(jī)構(gòu)必須向用戶或?qū)W生清晰地解釋和展示其決策過程,讓他們了解決策背后的原因和依據(jù),從而能夠更好地發(fā)現(xiàn)人工智能教育應(yīng)用過程中存在的偏差或缺陷。其次,要確保人工智能技術(shù)應(yīng)用的透明度。使用人工智能技術(shù)的教育機(jī)構(gòu)應(yīng)提供足夠多的算法和數(shù)據(jù)集信息,以便外界進(jìn)行監(jiān)督和審查。最后,要確保人工智能教育的公平性。在使用人工智能技術(shù)時,教育機(jī)構(gòu)應(yīng)該采取公平、準(zhǔn)確、客觀的評價方式,避免產(chǎn)生歧視和偏見。比如,考慮到學(xué)生的個體差異,教育機(jī)構(gòu)可采用多元化的數(shù)據(jù)集和算法,以更好地滿足學(xué)生的個性化需求。與此同時,人工智能教育也應(yīng)當(dāng)以賦能教育公平為己任,公平對待所有學(xué)生。
(四)確保人工智能教育產(chǎn)出的知識產(chǎn)權(quán)和版權(quán)保護(hù)
首先,研發(fā)人員在進(jìn)行人工智能教育研究和開發(fā)時,對原創(chuàng)的內(nèi)容需要明確知識產(chǎn)權(quán)的歸屬,明確自己的權(quán)利和責(zé)任。人工智能教育應(yīng)用中的算法和程序,開發(fā)者可以采用發(fā)明專利、實(shí)用新型專利等形式保護(hù)自身知識產(chǎn)權(quán),也可以通過商標(biāo)、著作權(quán)登記等途徑加大對原創(chuàng)內(nèi)容的保護(hù)力度,制約他人在未經(jīng)授權(quán)的情況下復(fù)制自己的代碼和算法。其次,開發(fā)者和使用者都應(yīng)遵守版權(quán)法規(guī),確保不侵犯他人的知識產(chǎn)權(quán)和版權(quán)。最后,加強(qiáng)監(jiān)管和執(zhí)法力度。政府和相關(guān)機(jī)構(gòu)應(yīng)該加強(qiáng)對人工智能教育內(nèi)容的監(jiān)管和執(zhí)法力度,并嚴(yán)厲打擊盜版和侵權(quán)行為。例如,ChatGPT等生成式人工智能生成的內(nèi)容應(yīng)盡可能地標(biāo)明出處,使用者在使用其生成的內(nèi)容時也應(yīng)標(biāo)明引用的來源等。
四、總結(jié)與展望
綜上所述,盡管人工智能在教育領(lǐng)域中具有許多潛在優(yōu)勢,但同時也引發(fā)了教育道德、隱私保護(hù)、透明度與公平性、知識產(chǎn)權(quán)和版權(quán)保護(hù)等一系列倫理問題,在人工智能教育應(yīng)用中,如何保證教育公平、促進(jìn)教育高質(zhì)量發(fā)展,需要政策制定者、人工智能教育應(yīng)用研究者、開發(fā)者和使用者多方協(xié)作,并采取相應(yīng)措施來保證人工智能教育的安全應(yīng)用。
人工智能技術(shù)在教育領(lǐng)域中的應(yīng)用廣泛且深刻,其未來的發(fā)展前景非常廣闊,如構(gòu)建公平而有質(zhì)量的教育生態(tài)系統(tǒng)、推動學(xué)校教育評價變革、創(chuàng)新人才培養(yǎng)模式等。我們只有充分考慮人工智能教育的道德與倫理問題,并在實(shí)踐中加以維護(hù)和保證,才能使人工智能教育真正為教育變革帶來切實(shí)可行的益處。因此,我們應(yīng)該不斷深化人工智能教育應(yīng)用研究,推動其不斷向前發(fā)展。
參考文獻(xiàn)
[1] 中華人民共和國科學(xué)技術(shù)部.《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL].(2021-09-25)[2023-05-25]. https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[2] 聯(lián)合國教科文組織.人工智能倫理問題建議書[EB/OL]. (2021-11-24)[2023-05-25].https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi.
[3] 吳茵荷,蔡連玉,周躍良.教育的人機(jī)協(xié)同化與未來教師核心素養(yǎng)——基于智能結(jié)構(gòu)三維模型的分析[J].電化教育研究,2021(9):27-34.
[4] 彭紹東.人工智能教育的含義界定與原理挖掘[J].中國電化教育,2021(6):49-59.
(作者方海光系首都師范大學(xué)教育學(xué)院教授、博士生導(dǎo)師,教育部數(shù)學(xué)教育技術(shù)應(yīng)用與創(chuàng)新研究中心主任,北京市教育大數(shù)據(jù)協(xié)同創(chuàng)新研究基地主任;舒麗麗系首都師范大學(xué)教育學(xué)院碩士研究生;王顯闖系首都師范大學(xué)教育學(xué)院碩士研究生)
責(zé)任編輯:牟艷娜