童慧 楊彥軍
基金項(xiàng)目:江西省社會(huì)科學(xué)“十四五”基金項(xiàng)目2024年度課題“基于‘技術(shù)道德化視角的生成式人工智能應(yīng)用潛能與風(fēng)險(xiǎn)研究”(項(xiàng)目編號(hào):24JY17);江西科技師范大學(xué)2022年度教學(xué)改革課題“混合式課程中過程性學(xué)習(xí)評(píng)價(jià)改革與實(shí)踐”(課題編號(hào):202/6000011842)
[摘? ?要] 隨著生成式人工智能的快速發(fā)展及其在教育領(lǐng)域的廣泛應(yīng)用,國內(nèi)外研究者圍繞它及其背后的大語言模型教育應(yīng)用問題展開了熱烈的討論,但大部分研究因缺乏對(duì)生成式人工智能技術(shù)原理的了解而在問題探討中存在伊莉莎效應(yīng)。研究首先在對(duì)生成式人工智能技術(shù)學(xué)原理進(jìn)行深入剖析的基礎(chǔ)上,從維貝克“人—技雜合”視角對(duì)生成式人工智能的本質(zhì)展開技術(shù)哲學(xué)分析;其次,基于“技術(shù)道德化”理論分析了生成式人工智能教育應(yīng)用的四大潛能和面臨的五大風(fēng)險(xiǎn)挑戰(zhàn);最后,提出基于“人—技雜合”的思想從“設(shè)計(jì)者”和“使用者”兩種視角構(gòu)建“雙向奔赴”的全球人工智能治理體系,將成為未來探索的重要方向。
[關(guān)鍵詞] 生成式人工智能; 技術(shù)道德化; 大模型; 人—技雜合; 應(yīng)用風(fēng)險(xiǎn)
[中圖分類號(hào)] G434? ? ? ? ? ? [文獻(xiàn)標(biāo)志碼] A
[作者簡介] 童慧(1987—),女,回族,甘肅平?jīng)鋈?。副教授,博士,主要從事教育技術(shù)學(xué)基本理論研究與計(jì)算機(jī)支持的協(xié)作學(xué)習(xí)研究。 E-mail: leiyuth@126.com。
一、引? ?言
隨著生成式人工智能(Generative Artificial Intelligence, 以下簡稱GAI)的快速發(fā)展及其在教育領(lǐng)域的廣泛應(yīng)用,國內(nèi)外學(xué)者圍繞GAI及其背后的大語言模型教育應(yīng)用展開了熱烈的討論?!癎AI對(duì)教育領(lǐng)域?qū)?huì)產(chǎn)生怎樣的影響”“GAI時(shí)代人類教師將會(huì)遇到哪些挑戰(zhàn)”等問題成為熱點(diǎn)議題。技術(shù)樂觀主義者認(rèn)為,它將徹底變革人類學(xué)習(xí)方式和教育模式,因而成為GAI教育應(yīng)用的積極推動(dòng)者和探索實(shí)踐者;技術(shù)悲觀主義者認(rèn)為,它的應(yīng)用不但會(huì)帶來抄襲、學(xué)術(shù)造假、教師失業(yè)等問題,還會(huì)導(dǎo)致學(xué)生因缺乏思考而喪失其主體性,因而常采用抵制或批判的態(tài)度;還有部分技術(shù)中性主義者認(rèn)為,它的出現(xiàn)和以前教育技術(shù)發(fā)展史上的其他技術(shù)變革教育的預(yù)言一樣,終將消失在教育技術(shù)發(fā)展的歷史長河中。雖然技術(shù)樂觀主義者和技術(shù)悲觀主義者分析問題的視角和得出的觀點(diǎn)截然相反,但深入分析后發(fā)現(xiàn),大部分研究者的觀點(diǎn)背后都充斥著對(duì)GAI“黑箱”的過度遐想,其中,有些研究者以自己想象的GAI為出發(fā)點(diǎn)討論問題;技術(shù)中性論者看似客觀冷靜,但實(shí)則存在因循守舊之嫌,缺乏對(duì)GAI新產(chǎn)品及其影響的審慎思考和分析。GAI實(shí)際上能夠做什么,它在教育中應(yīng)用的潛能有哪些,它的教育應(yīng)用存在哪些風(fēng)險(xiǎn)挑戰(zhàn),人類該如何面對(duì)GAI,要深入解答這些問題,不但要深入GAI“黑箱”分析其技術(shù)原理,還應(yīng)當(dāng)從人—技關(guān)系的底層邏輯展開哲學(xué)思考,深刻審視人、技術(shù)與倫理道德的關(guān)系。
二、生成式人工智能的技術(shù)學(xué)原理探析
當(dāng)前對(duì)GAI應(yīng)用潛能及其風(fēng)險(xiǎn)的討論大多存在伊莉莎效應(yīng)(Eliza Effect),即由于人們對(duì)機(jī)器缺乏足夠的理性認(rèn)識(shí)而產(chǎn)生的用“擬人化”思維去理解機(jī)器及其行為的現(xiàn)象,更傾向于下意識(shí)地將人類情感和意圖賦予機(jī)器,認(rèn)為機(jī)器和人類的行為機(jī)理與模式類似[1]。要深入思考和探討GAI的應(yīng)用潛能、風(fēng)險(xiǎn)挑戰(zhàn)等問題,需要對(duì)其運(yùn)行原理進(jìn)行必要了解。本文所指的GAI是指能夠根據(jù)用戶的提示信息自動(dòng)生成文本、圖片、音頻、視頻等內(nèi)容的計(jì)算機(jī)程序[2]。根據(jù)生成內(nèi)容的不同,GAI可分為文本生成、圖片生成、音頻生成、視頻生成、代碼生成及多模態(tài)生成等類型。不同類型的GAI在可接受的輸入信息、可輸出的內(nèi)容類型、內(nèi)部處理機(jī)制復(fù)雜程度及具體算法方面存在較大差異,但其基本工作原理具有相似之處。簡單地講,能夠?yàn)楣娞峁┓?wù)的各類GAI都是建立在相應(yīng)的大型或基礎(chǔ)模型之上的計(jì)算機(jī)程序,即其底層支撐技術(shù)為大模型(Big Model)或基礎(chǔ)模型(Foundation Models)。例如,ChatGPT背后的GPT模型、文心一言背后的ERNIE Bot模型、通義千問背后的Qwen模型等。大模型是指具備大規(guī)模參數(shù)和復(fù)雜計(jì)算結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,可以簡單地理解為一套復(fù)雜的計(jì)算機(jī)程序,它由一系列實(shí)現(xiàn)復(fù)雜算法的函數(shù)及相應(yīng)參數(shù)列表構(gòu)成。所有的大模型都具備自我學(xué)習(xí)和生成輸出兩項(xiàng)基本功能,自我學(xué)習(xí)是完成大模型訓(xùn)練的過程,生成輸出是完成大模型應(yīng)用的過程。當(dāng)前主流的大模型都是基于深度人工神經(jīng)網(wǎng)絡(luò)算法實(shí)現(xiàn)的,屬于機(jī)器學(xué)習(xí)中的連接主義技術(shù)路線。人工神經(jīng)網(wǎng)絡(luò)就是模擬人類大腦中的神經(jīng)元運(yùn)作模式的計(jì)算機(jī)系統(tǒng),其中的參數(shù)描述神經(jīng)元之間連接的權(quán)重,模型訓(xùn)練的過程就是通過讓程序?qū)W習(xí)大量訓(xùn)練數(shù)據(jù)集并掌握背后存在的關(guān)聯(lián)規(guī)律,進(jìn)而動(dòng)態(tài)調(diào)整每個(gè)神經(jīng)元連接之間的連接權(quán)重將關(guān)聯(lián)規(guī)律表征為參數(shù)的過程,最終使得該計(jì)算機(jī)程序可以輸出與訓(xùn)練數(shù)據(jù)相似的或模型開發(fā)人員期望得到的新數(shù)據(jù)的過程[3]。如圖1所示,支撐基礎(chǔ)大模型的底層人工神經(jīng)網(wǎng)絡(luò)由一個(gè)個(gè)的神經(jīng)元構(gòu)成,每個(gè)神經(jīng)元之間的連接權(quán)重即一個(gè)參數(shù)。神經(jīng)元可分為輸入層、輸出層和隱藏層,其中,隱藏層的數(shù)量決定了神經(jīng)網(wǎng)絡(luò)的深度,進(jìn)而決定了神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力及模型的參數(shù)規(guī)模。由于模型訓(xùn)練過程需要花費(fèi)大量的時(shí)間,經(jīng)常采用預(yù)先訓(xùn)練的技術(shù)路線使其具備相關(guān)輸出能力,因此,大模型也常稱為預(yù)訓(xùn)練大模型。值得強(qiáng)調(diào)的是,模型預(yù)訓(xùn)練階段使用何種數(shù)據(jù)集將直接決定模型輸出內(nèi)容的特征。例如,使用教育學(xué)相關(guān)數(shù)據(jù)集訓(xùn)練的模型將生成具備教育學(xué)學(xué)科特色的話語。預(yù)訓(xùn)練完成的基礎(chǔ)大模型雖然具備了相應(yīng)類型內(nèi)容輸出的基本功能,但輸出的內(nèi)容共性有余而特色不足,常常難以獲得良好的實(shí)際應(yīng)用體驗(yàn)。因此,需要根據(jù)實(shí)際應(yīng)用場景(即下游任務(wù))再對(duì)基礎(chǔ)大模型進(jìn)行微小調(diào)整(即微調(diào))以形成具備特定功能的GAI產(chǎn)品。例如,訓(xùn)練一個(gè)教育技術(shù)學(xué)專業(yè)智能導(dǎo)師,通過大量通用文本數(shù)據(jù)集預(yù)訓(xùn)練的基礎(chǔ)模型使其具備自動(dòng)生成類人語言的基本功能——即“會(huì)說話”;如果想讓其輸出具備教育技術(shù)學(xué)專業(yè)知識(shí)、乃至某個(gè)導(dǎo)師個(gè)人話語風(fēng)格的指導(dǎo)語言——即“說專業(yè)的話”,還需要對(duì)基礎(chǔ)大模型進(jìn)行微調(diào)以開發(fā)具備特色功能的GAI產(chǎn)品。常見的微調(diào)技術(shù)有基于人類反饋的強(qiáng)化學(xué)習(xí)、提示學(xué)習(xí)等,前者通過人類標(biāo)注者對(duì)模型的輸出質(zhì)量進(jìn)行排序來訓(xùn)練獎(jiǎng)勵(lì)模型以優(yōu)化內(nèi)容生成策略,后者通過讓模型學(xué)習(xí)提問附加答案配對(duì)數(shù)據(jù)使得模型的生成內(nèi)容更符合用戶要求。無論采用何種策略,模型微調(diào)的過程就是能夠讓模型輸出更符合人類偏好或特定價(jià)值取向內(nèi)容的過程。模型訓(xùn)練完成后,用戶使用GAI的過程實(shí)際上是通過“提問”或“指令”觸發(fā)模型的輸出功能,從而輸出類人語言或其他期望得到的多模態(tài)信息的過程。同時(shí),用戶的使用行為及產(chǎn)生的過程性數(shù)據(jù)也已經(jīng)被用來優(yōu)化基礎(chǔ)模型,即用戶使用行為對(duì)基礎(chǔ)模型具有反向塑造作用。
圖1? ?生成式人工智能的技術(shù)學(xué)原理
綜上所述,GAI的技術(shù)學(xué)本質(zhì)就是一個(gè)復(fù)雜的計(jì)算機(jī)程序,核心是一個(gè)多層次的復(fù)雜人工神經(jīng)網(wǎng)絡(luò)。GAI的預(yù)訓(xùn)練過程就是利用大規(guī)模數(shù)據(jù)集對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行“通識(shí)教育”的調(diào)整神經(jīng)元連接參數(shù)的過程,微調(diào)過程就是利用特色數(shù)據(jù)集對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行“專業(yè)教育”的實(shí)現(xiàn)特色功能的過程,最終目的是讓人工神經(jīng)網(wǎng)絡(luò)可以具備開發(fā)者期望的輸出能力,這種輸出能力的本質(zhì)實(shí)際上是根據(jù)統(tǒng)計(jì)或關(guān)聯(lián)規(guī)律連續(xù)輸出基本信息表達(dá)單元的過程。例如,文字生成是按照得到的統(tǒng)計(jì)規(guī)律生成文字序列,圖片生成是按照相關(guān)規(guī)律生成像素序列,視頻生成是按照相關(guān)規(guī)律生成圖像序列等。用戶使用GAI的過程就是通過“提問”等互動(dòng)方式觸發(fā)神經(jīng)網(wǎng)絡(luò)輸出的過程??梢钥闯?,整個(gè)模型訓(xùn)練的過程就是對(duì)該人工神經(jīng)網(wǎng)絡(luò)進(jìn)行“教育”的過程,訓(xùn)練階段使用的數(shù)據(jù)集、算法和微調(diào)策略、意識(shí)形態(tài)、價(jià)值傾向都將影響模型的最終輸出“表現(xiàn)”。
三、基于“技術(shù)道德化”理論的生成式
人工智能本質(zhì)分析
(一)維貝克“技術(shù)道德化”理論要義
人類的進(jìn)化與技術(shù)的發(fā)展密不可分,人本身就是一種技術(shù)性存在。古希臘時(shí)期的阿那克薩戈拉就認(rèn)為,人在體力和敏捷性上比不上野獸,但人能使用自己的經(jīng)驗(yàn)、記憶、智慧和技術(shù)[4]。法國哲學(xué)家貝爾納·斯蒂格勒指出,人類自起源就是“缺陷存在”,因此,需要?jiǎng)?chuàng)造技術(shù)作為“代具”來彌補(bǔ)人類先天缺陷[5]?,F(xiàn)象學(xué)技術(shù)哲學(xué)家唐·伊德(Don Ihde)認(rèn)為技術(shù)并非自然存在,不能以本質(zhì)主義的視角出發(fā)理解技術(shù),而應(yīng)當(dāng)立足人類發(fā)展歷史和人類勞動(dòng)實(shí)踐活動(dòng),從人與技術(shù)、自然的關(guān)系中把握技術(shù),伊德基于“人—技互補(bǔ)”的視角將人—技關(guān)系歸為具身、解釋、他異和背景四種[6]。布魯諾·拉圖爾(Bruno Latour)則更加關(guān)注技術(shù)人工物對(duì)人行動(dòng)的影響,基于“人—技對(duì)等”的視角認(rèn)為,人與技術(shù)人工物都是行動(dòng)網(wǎng)絡(luò)中對(duì)稱的行動(dòng)者而相互交織、互塑共生,技術(shù)人工物通過“腳本”激勵(lì)或抑制人的行為。荷蘭技術(shù)哲學(xué)家彼得·保羅·維貝克(Peter-Paul Verbeek)則進(jìn)一步將人—技關(guān)系的認(rèn)識(shí)推向了新的高度,基于“人—技雜合”的視角提出了技術(shù)道德化理論,對(duì)當(dāng)前深入理解人—技關(guān)系相關(guān)問題開辟了新的視野[7]?!凹夹g(shù)道德化理論”由“技術(shù)調(diào)節(jié)”理論和“道德物化”理論兩部分構(gòu)成,前者側(cè)重于對(duì)技術(shù)本質(zhì)與功能的理解,后者側(cè)重于對(duì)技術(shù)倫理問題的反思。維貝克認(rèn)為,技術(shù)在人類世界不單單是中性的手段或工具,技術(shù)與人是相互塑造、糾纏的關(guān)系,技術(shù)具有物質(zhì)意義上的“道德能動(dòng)性”,從而對(duì)人的精神和行為具有不可忽視的塑造與影響的“調(diào)節(jié)”作用,并據(jù)此提出“技術(shù)調(diào)節(jié)”理論[7] 。蘭登·溫納(Langdon Winner)的技術(shù)政治理論認(rèn)為,技術(shù)在前期設(shè)計(jì)和部署中潛藏著對(duì)政治秩序的影響,在技術(shù)的使用之前以一種物質(zhì)的方式體現(xiàn)著人們的意圖[8]。維貝克在此基礎(chǔ)上發(fā)展出一種更加內(nèi)在的“技術(shù)伴隨”的倫理學(xué),認(rèn)為技術(shù)在設(shè)計(jì)時(shí)就已經(jīng)嵌入了倫理考量,從而影響著人們對(duì)技術(shù)的使用和決策,這種人—技伴隨的行動(dòng)倫理學(xué)強(qiáng)調(diào)技術(shù)與人共同發(fā)揮倫理作用,技術(shù)在調(diào)節(jié)過程中具備了道德性,據(jù)此形成了“道德物化”理論[7]。維貝克在整合了技術(shù)哲學(xué)“經(jīng)驗(yàn)轉(zhuǎn)向”和“倫理轉(zhuǎn)向”兩次轉(zhuǎn)向的基礎(chǔ)上,將技術(shù)倫理的討論放在人—技雜合體中進(jìn)行,提出了“技術(shù)調(diào)節(jié)”理論和“道德物化”理論,實(shí)現(xiàn)了技術(shù)哲學(xué)的第三次轉(zhuǎn)向——“道德轉(zhuǎn)向”[9]。
(二)基于“人—技雜合”視角的GAI本質(zhì)探析
從維貝克技術(shù)道德化理論“人—技雜合”視角來看,GAI在開發(fā)階段構(gòu)成“開發(fā)者—GAI雜合體”技術(shù)調(diào)節(jié)主體,GAI是技術(shù)開發(fā)人員本質(zhì)力量的外化,在這個(gè)“外化”的過程中既是一個(gè)開發(fā)者對(duì)其網(wǎng)絡(luò)信息搜索與處理能力“編碼”的過程,也是一個(gè)開發(fā)者意識(shí)形態(tài)與價(jià)值觀“道德物化”的過程,開發(fā)者在GAI模型訓(xùn)練過程中用什么來源的數(shù)據(jù)、用什么類型的算法、用什么微調(diào)規(guī)則,均體現(xiàn)著開發(fā)者的價(jià)值取向與偏好。在使用階段則構(gòu)成“使用者—GAI雜合體”的技術(shù)調(diào)節(jié)主體,在這個(gè)過程中首先是終端用戶對(duì)GAI中內(nèi)嵌的技術(shù)知識(shí)“解碼”的過程,是對(duì)使用者原有信息獲取與處理能力的增強(qiáng);其次是GAI中物化了的技術(shù)開發(fā)者道德準(zhǔn)則對(duì)用戶使用行為的“激勵(lì)”或“抑制”過程,潛移默化地影響著使用者的意識(shí)形態(tài)、價(jià)值判斷和道德實(shí)踐;同時(shí),也是用戶發(fā)揮自身主觀能動(dòng)性,對(duì)GAI進(jìn)行創(chuàng)造性使用與反向塑造的過程,使用者自身的信仰觀念、價(jià)值判斷也最終決定著產(chǎn)品發(fā)揮的實(shí)際效能,如圖2所示。值得說明的是,在“使用者—GAI雜合體”的糅合關(guān)系形成過程中,GAI用戶自身的數(shù)字素養(yǎng)決定著“使用者—GAI雜合體”整體功能的發(fā)揮。如果使用者具備良好的數(shù)字素養(yǎng),能夠較好地理解GAI底層運(yùn)行邏輯并有效“解碼”其潛在功能,則更有可能獲得高質(zhì)量的輸出。因此,可以說GAI的技術(shù)哲學(xué)本質(zhì)是一個(gè)模型開發(fā)者信息處理能力與價(jià)值觀念“物化”的技術(shù)人工物,正如卡爾·馬克思指出,技術(shù)的本質(zhì)不過是人的本質(zhì)力量的對(duì)象化。GAI中隱含的開發(fā)者知識(shí)能力及價(jià)值觀念,一方面,會(huì)“激勵(lì)”或“抑制”用戶特定行為的發(fā)生,也可能賦予用戶前所未有的新能力;另一方面,GAI生成的內(nèi)容本身也會(huì)隱含模型開發(fā)者的意識(shí)形態(tài)和價(jià)值取向,進(jìn)而對(duì)生成內(nèi)容的消費(fèi)群體產(chǎn)生顯性或隱性的“教育”性影響。
圖2? ?“人—技雜合”視角下的GAI技術(shù)哲學(xué)本質(zhì)
四、基于“技術(shù)道德化”理論的生成式
人工智能應(yīng)用潛能與風(fēng)險(xiǎn)
“技術(shù)道德化”理論基于“人—技雜合”的視角認(rèn)識(shí)技術(shù)本質(zhì)及其實(shí)踐倫理問題,并從設(shè)計(jì)和使用兩種語境提出 “道德物化”和“技術(shù)調(diào)節(jié)”理論。以下將分別從“技術(shù)調(diào)節(jié)”理論和“道德物化”理論分別闡釋GAI教育應(yīng)用潛能和教育應(yīng)用風(fēng)險(xiǎn)。
(一)基于“技術(shù)調(diào)節(jié)”理論的GAI教育應(yīng)用潛能分析
GAI在教育應(yīng)用過程中并不是一種中立的媒介,GAI與使用者積極主動(dòng)地共塑人在世界的方式,包括人的知覺和行動(dòng)、體驗(yàn)和存在。一方面,它調(diào)節(jié)著人類對(duì)現(xiàn)實(shí)的經(jīng)驗(yàn)和解釋,另一方面,它又調(diào)節(jié)著人類的行為和生活方式。技術(shù)新產(chǎn)品的使用過程既是產(chǎn)品內(nèi)涵知識(shí)及價(jià)值的“解碼”和對(duì)用戶賦能的過程,也是使用者發(fā)揮自身能動(dòng)性建構(gòu)“人—技復(fù)合的道德實(shí)踐者”創(chuàng)生倫理實(shí)踐場景的過程。GAI的教育教學(xué)應(yīng)用潛能分析應(yīng)基于使用者場景分析其對(duì)師生用戶的賦能及用戶創(chuàng)造性應(yīng)用的可能性,具體如下:
1. 基于人機(jī)自然交互的教育信息服務(wù)獲取
大數(shù)據(jù)時(shí)代的到來,使得“我們生活在信息的海洋中,卻忍受著知識(shí)的饑渴”這一問題日趨嚴(yán)峻。20世紀(jì)末,為應(yīng)對(duì)網(wǎng)絡(luò)信息激增而誕生的搜索引擎顯然已經(jīng)無法滿足大數(shù)據(jù)時(shí)代人類對(duì)信息獲取準(zhǔn)確性、便捷性和實(shí)用性的要求。GAI的出現(xiàn)讓人和計(jì)算機(jī)程序可以用擬人化的“聊天”方式更加便捷地獲取直接可用的多模態(tài)信息,人們無須在雜亂無章的搜索結(jié)果中二次遴選所需信息。Google 管理團(tuán)隊(duì)認(rèn)為,GAI的發(fā)展將催生新一代搜索引擎的出現(xiàn)[10]。為此,各大搜索引擎也迅速將GAI整合其中或探索布局基于大模型之上的對(duì)話式搜索引擎接口。GAI的廣泛應(yīng)用降低了人機(jī)交互的技術(shù)門檻,使得信息技術(shù)產(chǎn)品更加容易“上手”,“使用者—GAI雜合體”的形成更加容易,這是GAI對(duì)使用者信息獲取能力增強(qiáng)的過程,極大地提升了人類獲取教育信息與服務(wù)的效率。同時(shí),GAI與語音識(shí)別、機(jī)器翻譯、跨模態(tài)理解、腦機(jī)接口、數(shù)字人等技術(shù)的深度融合,促使人機(jī)自然交互的質(zhì)量大幅提升,人們獲取高質(zhì)量網(wǎng)絡(luò)信息與服務(wù)將逐漸變?yōu)椤傲恪奔夹g(shù)門檻活動(dòng)。
2. 基于多模態(tài)GAI的適應(yīng)性數(shù)字教育資源開發(fā)
GAI技術(shù)的不斷成熟,各類GAI也逐漸實(shí)現(xiàn)跨模態(tài)內(nèi)容理解與生成功能。例如,訊飛星火大模型、百度文星一格、阿里的通義千問、OpenAI新發(fā)布的Sora等均已具備根據(jù)文本、圖片、語音等輸入生成文本、視頻等多模態(tài)信息的功能。多模態(tài)GAI的發(fā)展,將極大提升數(shù)字教育資源開發(fā)的效率,使得適應(yīng)性數(shù)字教育資源開發(fā)與應(yīng)用成為可能。適應(yīng)性數(shù)字教育資源是人工智能內(nèi)容生成、自適應(yīng)學(xué)習(xí)技術(shù)與數(shù)字教育資源個(gè)性化服務(wù)的有效整合[11],強(qiáng)調(diào)以師生真實(shí)需求和個(gè)性特征為數(shù)字教育資源服務(wù)的前提,重點(diǎn)提升數(shù)字教育資源生成與教學(xué)應(yīng)用之間的適配性[12]。適應(yīng)性數(shù)字教育資源開發(fā)時(shí)代教師無須為搜索、加工和整合各類數(shù)字資源而發(fā)愁,GAI系統(tǒng)將會(huì)根據(jù)教師定制的提示工程,生成滿足教學(xué)需要和富有教師個(gè)性風(fēng)格的數(shù)字教育資源,甚至根據(jù)每個(gè)學(xué)生的個(gè)性特點(diǎn)生成個(gè)性化學(xué)習(xí)資源也將成為可能?;诙嗄B(tài)GAI的“使用者—GAI雜合體”為教師賦予新的多模態(tài)教育資源自主開發(fā)能力,助力數(shù)字教育進(jìn)入適應(yīng)性教育資源開發(fā)與應(yīng)用時(shí)代。
3. 基于人機(jī)共生互補(bǔ)的雙師課堂教學(xué)創(chuàng)新
GAI最受關(guān)注的應(yīng)用場景是課堂教學(xué)應(yīng)用,目前,國內(nèi)外已有許多學(xué)者對(duì)此進(jìn)行了較為深入的理論探討和實(shí)證研究[13]。維貝克的“技術(shù)道德化”理論正是基于“人—技雜合”的視角認(rèn)識(shí)技術(shù)的本質(zhì)及其作用問題。人類教育技術(shù)持續(xù)發(fā)展的動(dòng)力在于教師探索利用技術(shù)工具彌補(bǔ)自身不足,以提升教學(xué)效果的不懈追求。教師應(yīng)用GAI的過程中形成“教師—GAI雜合體”將更加便捷有效地彌補(bǔ)教師諸多缺陷,發(fā)揮替代、協(xié)助、增強(qiáng)和賦能等功能[14]。具體包括:(1)GAI替代功能,即教師無須參與可全部交付給GAI處理的任務(wù)。(2)GAI協(xié)助功能,即GAI協(xié)助教師更高效、優(yōu)質(zhì)地完成教師原本可以獨(dú)立完成的工作,使教師專注于創(chuàng)造性更高、情感導(dǎo)向性更強(qiáng)的工作。(3) GAI增強(qiáng)功能,即GAI支持教師更好地完成教師原本難以獨(dú)立完成的任務(wù)。(4)GAI賦能功能,即GAI支持教師完成自己原本無法完成的工作。
4. 基于人機(jī)對(duì)話博弈的學(xué)習(xí)教練與助理
GAI作為模型開發(fā)者信息處理能力與價(jià)值觀念“物化”了的技術(shù)人工物,它本身所具有的“擬人”功能賦予它成為用戶學(xué)習(xí)教練或助理的潛能。恰當(dāng)?shù)貞?yīng)用 GAI可在自主發(fā)展方面發(fā)揮如下功能:(1)自主學(xué)習(xí)的“GAI學(xué)伴”,學(xué)習(xí)者在語言學(xué)習(xí)中可以將GAI擬人化為語言“學(xué)伴”,在與GAI的連續(xù)性對(duì)話中發(fā)展語言能力;在繪畫技能學(xué)習(xí)或作曲練習(xí)中利用相關(guān)GAI輔助自己能力發(fā)展。(2)技能性任務(wù)的“GAI助理”,學(xué)習(xí)者在完成程序編寫、數(shù)據(jù)分析、學(xué)習(xí)資料查找的學(xué)習(xí)任務(wù)時(shí)利用GAI生成程序代碼、分析報(bào)告或文獻(xiàn)綜述,GAI扮演學(xué)習(xí)者助理的角色。(3)思維發(fā)展的“GAI教練”,學(xué)習(xí)者在與GAI交互的過程中學(xué)會(huì)人機(jī)交互式“提問(Prompt)”技巧,發(fā)展學(xué)生的精致化思維和計(jì)算思維;在與GAI“挑戰(zhàn)性”對(duì)話博弈中發(fā)展學(xué)生的批判性思維。(4)數(shù)字孿生的“GAI代理”,目前,大部分GAI都提供了相關(guān)的接口使得二次開發(fā)變得更加容易,每個(gè)專業(yè)級(jí)用戶都可以對(duì)GAI進(jìn)行模型微調(diào)訓(xùn)練和用戶界面定制化開發(fā),生成用戶在數(shù)字孿生世界的“GAI代理”。
(二)基于“道德物化”思想的GAI教育應(yīng)用風(fēng)險(xiǎn)分析
維貝克從技術(shù)的設(shè)計(jì)語境和使用語境相關(guān)聯(lián)的視角探討了技術(shù)“道德物化”的路徑。技術(shù)產(chǎn)品的開發(fā)過程是開發(fā)者將道德物化的過程,技術(shù)產(chǎn)品的使用過程是用戶完成物化道德解碼與發(fā)揮主觀能動(dòng)性的道德實(shí)踐過程,是“產(chǎn)品道德+主體道德”的復(fù)合性道德實(shí)踐活動(dòng)。目前,已有大量有關(guān)GAI應(yīng)用風(fēng)險(xiǎn)挑戰(zhàn)的理論研究,本文從“技術(shù)設(shè)計(jì)語境”和“技術(shù)使用語境”相關(guān)聯(lián)的動(dòng)態(tài)視角將GAI教育應(yīng)用的風(fēng)險(xiǎn)挑戰(zhàn)總結(jié)為以下5個(gè)方面。
1. GAI模型黑箱導(dǎo)致的意識(shí)形態(tài)風(fēng)險(xiǎn)
由前文GAI技術(shù)學(xué)原理的分析中可知,GAI在底層模型采用的算法機(jī)制、預(yù)訓(xùn)練階段使用的語料數(shù)據(jù)、微調(diào)階段人類反饋強(qiáng)化學(xué)習(xí)的價(jià)值導(dǎo)向等問題共同決定了它本身就是一個(gè)“黑箱”。我國教育的根本任務(wù)是“立德樹人”,主要使命是為黨和國家培養(yǎng)一代又一代德智體美勞全面發(fā)展的社會(huì)主義建設(shè)者和接班人。GAI作為對(duì)話式內(nèi)容生成人工智能產(chǎn)品,其在教育教學(xué)應(yīng)用中扮演著“準(zhǔn)教師”的角色。學(xué)生利用GAI提哪些問題、生成哪些內(nèi)容,既顯性地反映了學(xué)生的認(rèn)知需求與期望,也隱性地透露著學(xué)生的價(jià)值取向及意識(shí)形態(tài);GAI生成的內(nèi)容也隱含著模型訓(xùn)練數(shù)據(jù)集、產(chǎn)品開發(fā)者及技術(shù)資本的價(jià)值取向。Rudin等人認(rèn)為,基于黑箱模型的科技公司可能會(huì)隱瞞GAI的工作原理,這導(dǎo)致很難對(duì)機(jī)器人所生成知識(shí)的來源及鴻溝進(jìn)行揭示[15];GAI能憑借內(nèi)容生成的首要功能對(duì)意識(shí)形態(tài)的價(jià)值觀念層進(jìn)行滲透,依靠交互對(duì)話的產(chǎn)品形態(tài)對(duì)意識(shí)形態(tài)的話語方式產(chǎn)生影響,利用多維應(yīng)用的功能屬性對(duì)社會(huì)生活實(shí)踐領(lǐng)域展開強(qiáng)勢介入,導(dǎo)致當(dāng)下意識(shí)形態(tài)斗爭態(tài)勢風(fēng)云詭譎[16]。GAI模型黑箱導(dǎo)致的意識(shí)形態(tài)風(fēng)險(xiǎn)具有辨識(shí)難度大、滲透性強(qiáng)、外泄風(fēng)險(xiǎn)高等特點(diǎn),這是其教育應(yīng)用的最大風(fēng)險(xiǎn)挑戰(zhàn)。
2. GAI教育應(yīng)用成本導(dǎo)致的新型數(shù)字鴻溝
談及GAI教育應(yīng)用種種潛能與風(fēng)險(xiǎn),其基本前提是師生能有機(jī)會(huì)便捷公平地使用GAI產(chǎn)品。信息基礎(chǔ)設(shè)施建設(shè)情況、數(shù)字化終端擁有情況、數(shù)字素養(yǎng)與技能發(fā)展水平及網(wǎng)絡(luò)信息服務(wù)支付能力等因素,均決定著每個(gè)終端用戶的GAI使用機(jī)會(huì)。數(shù)字鴻溝的表現(xiàn)形態(tài)可分為20世紀(jì)的接入鴻溝、21世紀(jì)初的素養(yǎng)鴻溝和當(dāng)下智能鴻溝三個(gè)階段[17]。GAI教育應(yīng)用導(dǎo)致的數(shù)字鴻溝據(jù)此可分為一級(jí)接入鴻溝、二級(jí)素養(yǎng)鴻溝和三級(jí)智能鴻溝。首先,網(wǎng)絡(luò)設(shè)施普及情況、數(shù)字終端擁有情況、網(wǎng)絡(luò)信息有償服務(wù)支付能力以及區(qū)域網(wǎng)絡(luò)管理政策共同造就了一級(jí)接入鴻溝的形成。其次,GAI使用的過程是用戶對(duì)GAI技術(shù)產(chǎn)品內(nèi)涵價(jià)值的“解碼”過程,師生的數(shù)字素養(yǎng)決定著解碼過程中的價(jià)值損耗進(jìn)而形成二級(jí)素養(yǎng)鴻溝,例如,數(shù)字素養(yǎng)高的用戶更容易理解GAI技術(shù)黑箱的原理、更容易制定高質(zhì)量的提示工程(Prompt)、更容易批判性地評(píng)價(jià)GAI生成內(nèi)容的質(zhì)量,進(jìn)而導(dǎo)致使用效果的差異。最后,部分GAI產(chǎn)品憑借其行業(yè)先行效應(yīng)在推出后短期內(nèi)吸引了大批全球各地用戶,隨著企業(yè)技術(shù)的不斷成熟及GAI對(duì)用戶行為數(shù)據(jù)的持續(xù)積累,處于優(yōu)勢地位的產(chǎn)品將可能通過打造排他性數(shù)字生態(tài)體系逐漸形成行業(yè)壟斷,進(jìn)而形成以算法鴻溝、算力鴻溝和數(shù)據(jù)鴻溝為主要表現(xiàn)的智能鴻溝,進(jìn)一步加劇社會(huì)不平等現(xiàn)象。
3. GAI濫用導(dǎo)致的學(xué)術(shù)倫理風(fēng)險(xiǎn)
開展科學(xué)研究與學(xué)術(shù)寫作是GAI的重要研究方向,也是GAI推出后研究者最先關(guān)注到的主要風(fēng)險(xiǎn)挑戰(zhàn)領(lǐng)域。鑒于GAI在學(xué)生課程論文、考試測驗(yàn)及學(xué)術(shù)論文撰寫中的應(yīng)用可能造成的巨大沖擊,許多研究者、高校、學(xué)術(shù)期刊等紛紛聲明禁止或限制GAI在學(xué)術(shù)領(lǐng)域的應(yīng)用。Science期刊主編Thorp在 Science發(fā)表社論:“ChatGPT 很好玩,但不是作者?!?[18]Nature雜志在投稿指南中指出,ChatGPT等大語言模型不能成為論文作者[19]。雖然GAI在剛推出后受到了抵制和批判,但研究人員已經(jīng)使用GAI來輔助文獻(xiàn)檢索、數(shù)據(jù)分析、論文撰寫、論文翻譯和修改潤色[20]。Melnikov等人認(rèn)為,未來人工智能聊天機(jī)器人可能會(huì)生成假設(shè)、開發(fā)方法、創(chuàng)建實(shí)驗(yàn)[21]。同時(shí),GAI也暴露出其輸出存在不準(zhǔn)確、錯(cuò)誤、偏見甚至種族歧視等問題。Van Dis等在Nature上發(fā)文指出,科學(xué)研究正面臨著一場由GAI引發(fā)的對(duì)其原來珍視的價(jià)值觀、實(shí)踐準(zhǔn)則和標(biāo)準(zhǔn)的清算,解決這個(gè)問題的重點(diǎn)應(yīng)該是抓住其所帶來的機(jī)遇并管控可能的風(fēng)險(xiǎn),我們相信科學(xué)界將找到一種既能從GAI中受益,又不至于使科學(xué)工作失去其作為一項(xiàng)使人深刻而令人滿意的事業(yè)的許多重要方面:好奇心、想象力和發(fā)現(xiàn)探索[20]。
4. GAI過度依賴導(dǎo)致的認(rèn)知惰性
教育工作者最為擔(dān)心的是GAI教育應(yīng)用對(duì)學(xué)生認(rèn)知能力的影響。首先,從知識(shí)學(xué)習(xí)的角度看,學(xué)生利用GAI生成答案,簡化了知識(shí)獲取的過程,降低了對(duì)科學(xué)探索的內(nèi)在興趣,加大了學(xué)習(xí)惰性[22],成為“逃避學(xué)習(xí)”的工具[23]。其次,從認(rèn)知能力的角度,學(xué)習(xí)者會(huì)因長期過度依賴GAI生成的內(nèi)容而缺乏深入理解、深度思考和批判分析思維等高階認(rèn)識(shí)能力。上海大學(xué)轉(zhuǎn)化醫(yī)學(xué)研究院白龍等人研究認(rèn)為,過度依賴GAI系統(tǒng)可能會(huì)導(dǎo)致批判性思維受損和記憶保持能力改變[24-25]。再次,從腦科學(xué)和認(rèn)知心理學(xué)的角度來看,長期使用GAI可能會(huì)形成技術(shù)依賴,進(jìn)而對(duì)學(xué)生神經(jīng)系統(tǒng)產(chǎn)生實(shí)質(zhì)影響,形成成癮記憶神經(jīng)通路[26]。加拿大研究者的一項(xiàng)研究已經(jīng)表明,長期使用GPS導(dǎo)航會(huì)對(duì)人的空間記憶能力及海馬體結(jié)構(gòu)產(chǎn)生負(fù)面影響[27]。最后,從人類主體性的視角看,GAI可能會(huì)導(dǎo)致使用者思維的庸化和道德的鈍化,逐漸封閉自我意識(shí),放棄自由意志,造成人的主體性自我消解[28]。
5. GAI數(shù)字污染導(dǎo)致的模型崩潰
由于GAI大模型自身的原理性局限疊加用戶不清晰的使用命令,將導(dǎo)致大量不準(zhǔn)確、歪曲事實(shí)甚至機(jī)器編造的虛假信息在網(wǎng)絡(luò)空間迅速傳播,重塑網(wǎng)絡(luò)空間生態(tài),進(jìn)而導(dǎo)致的“信息扭曲”“數(shù)據(jù)污染”“數(shù)據(jù)貧困”“優(yōu)質(zhì)數(shù)據(jù)枯竭”等問題將日益嚴(yán)重。這些被污染的數(shù)據(jù)將不可避免地滲入下一代大模型訓(xùn)練的數(shù)據(jù)集,進(jìn)而會(huì)導(dǎo)致新的大模型用自己產(chǎn)生的“毒數(shù)據(jù)”訓(xùn)練自己的“自激”現(xiàn)象,最終導(dǎo)致“模型崩潰”(Model Collapse)。英國和加拿大的研究人員的研究證實(shí),使用大模型生成的數(shù)據(jù)對(duì)大模型進(jìn)行持續(xù)訓(xùn)練會(huì)導(dǎo)致不可逆的缺陷,使大模型原始數(shù)據(jù)分布的尾部消失,模型性能逐漸下降并最終導(dǎo)致“模型崩潰” [29]。算力、優(yōu)質(zhì)數(shù)據(jù)和大模型作為人工智能時(shí)代的基礎(chǔ)資源和數(shù)字基礎(chǔ)設(shè)施,不僅關(guān)系到國家數(shù)字經(jīng)濟(jì)生產(chǎn)效率的提升,更關(guān)系國家數(shù)字安全與長遠(yuǎn)發(fā)展。因此,在全力投入大模型訓(xùn)練與應(yīng)用的同時(shí),應(yīng)更加重視數(shù)據(jù)資源的“環(huán)保”與治理。
五、技術(shù)道德化理論視域下GAI教育應(yīng)用
風(fēng)險(xiǎn)應(yīng)對(duì)展望
GAI的快速發(fā)展為教育應(yīng)用帶來巨大潛能,也給全球教育生態(tài)造成巨大沖擊,GAI應(yīng)用規(guī)范與風(fēng)險(xiǎn)挑戰(zhàn)全球治理體系亟須建立。為此,我國先后發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》《全球人工智能治理倡議》,烏鎮(zhèn)世界互聯(lián)網(wǎng)大會(huì)發(fā)布了《發(fā)展負(fù)責(zé)任的生成式人工智能研究報(bào)告及共識(shí)文件》,首屆全球人工智能安全峰會(huì)簽署了旨在加強(qiáng)國際合作建立人工智能監(jiān)管體系的“布萊切利宣言”,聯(lián)合國教科文組織發(fā)布了專門針對(duì)教育領(lǐng)域的《教育與研究領(lǐng)域生成式人工智能指南》等共識(shí)性文件。這些初步探索為GAI教育應(yīng)用風(fēng)險(xiǎn)治理帶來重要指導(dǎo),但現(xiàn)有治理視角更多的是基于道德倫理應(yīng)用的外在式范式。維貝克解決技術(shù)倫理問題的內(nèi)在式路徑,不但敏銳地認(rèn)識(shí)到了技術(shù)人工物對(duì)人類道德行為的調(diào)節(jié)作用,更重要的是認(rèn)識(shí)到技術(shù)人工物的設(shè)計(jì)過程本身是負(fù)載價(jià)值的“道德物化”活動(dòng)。據(jù)此,他提出有效溝通技術(shù)人工物設(shè)計(jì)情境與使用情境,最大限度優(yōu)化技術(shù)人工設(shè)計(jì)以對(duì)沖“設(shè)計(jì)者謬誤”的依賴設(shè)計(jì)者的充分道德想象、拓展建構(gòu)性技術(shù)評(píng)估和情境模擬法三大方法。沿循維貝克的技術(shù)倫理問題治理方法論,基于“人—技雜合”的思想從“設(shè)計(jì)者”和“使用者”兩種視角構(gòu)建“雙向奔赴”的全球GAI治理體系,將成為未來重要的探索方向,這方面的相關(guān)思考將另文詳細(xì)闡述。
[參考文獻(xiàn)]
[1] DILLON S. The Eliza effect and its dangers: from demystification to gender critique[J]. Journal for cultural research,2020,24(1):1-15.
[2] 生成式人工智能服務(wù)管理暫行辦法[EB/OL].(2023-07-10) [2023-12-16]. https://www.gov.cn/zhengce/ zhengceku/202307/content_6891752.htm.
[3] 翟尤,郭曉靜,曾宣瑋.AIGC未來已來:邁向通用人工智能時(shí)代[M].北京:人民郵電出版社,2023:17.
[4] 北京大學(xué)哲學(xué)系.西方哲學(xué)原著選讀(上卷)[M].北京:商務(wù)印書館,1981:40.
[5] 張一兵.斯蒂格勒:西方技術(shù)哲學(xué)的評(píng)論——《技術(shù)與時(shí)間》解讀[J].理論探討,2017(4):57-63.
[6] 舒紅躍. 現(xiàn)象學(xué)技術(shù)哲學(xué)及其發(fā)展趨勢[J].自然辯證法研究,2008 (1):46-50.
[7] 彼得·保羅·維貝克.將技術(shù)道德化:理解與設(shè)計(jì)物的道德[M].閆宏秀,楊慶峰,譯.上海:上海交通大學(xué)出版社,2016:3-15,51-82.
[8] 衛(wèi)羚. 蘭登·溫納技術(shù)哲學(xué)思想的解讀——技術(shù)決定論與社會(huì)決定論的橋梁[J].福建論壇(人文社會(huì)科學(xué)版),2009(9):72-74.
[9] 史晨.技術(shù)哲學(xué)的第三次轉(zhuǎn)向——維貝克道德物化思想的三重特征[J].科學(xué)技術(shù)哲學(xué)研究,2020,37(5):67-73.
[10] GRANT N, METZ C. A new Chat Bot is a 'Code Red' for google's search business[N]. International New York times, 2022-12-21(1).
[11] ROZO H, REAL M. Pedagogical guidelines for the creation of adaptive digital educational resources:? a review of the literature[J]. Journal of technology and science education,2019,9(3):308-325.
[12] 羅江華,張玉柳.基于跨模態(tài)理解與重構(gòu)的適應(yīng)性數(shù)字教育資源:模型構(gòu)建與實(shí)踐框架[J].現(xiàn)代遠(yuǎn)程教育研究,2023,35(6):91-101.
[13] 張絨.生成式人工智能技術(shù)對(duì)教育領(lǐng)域的影響——關(guān)于ChatGPT的專訪[J].電化教育研究,2023,44(2):5-14.
[14] 楊彥軍,羅吳淑婷,童慧.基于“人性結(jié)構(gòu)”理論的AI助教系統(tǒng)模型研究[J].電化教育研究, 2019,40(11):12-20.
[15] RUDIN C. Stop explaining black box machine learning models for high stakes decisions and use Interpretable models instead[J]. Nature machine intelligence, 2019,1(5):206-215.
[16] 代金平,覃楊楊. ChatGPT等生成式人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)及其應(yīng)對(duì) [J]. 重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,29(5):101-110.
[17] 鐘祥銘,方興東.數(shù)字鴻溝演進(jìn)歷程與智能鴻溝的興起——基于50年來互聯(lián)網(wǎng)驅(qū)動(dòng)人類社會(huì)信息傳播機(jī)制變革與演進(jìn)的視角[J].新聞?dòng)浾撸?022(8):34-46.
[18] THORP H H. ChatGPT is fun, but not an author[J]. Science, 2023,379(6630):313.
[19] Nature. Initial Submission [EB/OL]. (2023-01-24) [2023-12-27]. https://www.nature.com/nature/for-authors/ initial- submission.
[20] VAN DIS E A M, BOLLEN J, ZUIDEMA W, et al. ChatGPT: five priorities for research[J]. Nature, 2023,614(7947):224-226.
[21] MELNIKOV A A, NAUTRUP H P, KRENN M, et al. Active learning machine learns to create new quantum experiments[J]. Proceedings of the national academy of sciences, 2018,115(6):1221-1226.
[22] BAIDOO-ANU D, ANSAH L O. Education in the era of generative artificial intelligence (AI): understanding the potential benefits of ChatGPT in promoting teaching and learning[J]. Journal of AI, 2023,7(1):52-62.
[23] 周洪宇,李宇陽.ChatGPT對(duì)教育生態(tài)的沖擊及應(yīng)對(duì)策略[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,44(4):134-143.
[24] BAI L, LIU X, SU J . ChatGPT: the cognitive effects on learning and memory[J]. Brain-X,2023,1(3):1-9.
[25] DENG X, YU Z. A meta-analysis and systematic review of the effect of chatbot technology use in sustainable education[J]. Sustainability,2023,15(4):2940-2959.
[26] 楊彥軍,張佳慧,童慧.數(shù)字媒介技術(shù)依賴的多學(xué)科析因及整合性闡釋[J].電化教育研究,2020,41(8):26-32.
[27] DAHMANI L, BOHBOT V D. Habitual use of GPS negatively impacts spatial memory during self-guided navigation[J]. Scientific reports, 2020,10(1):6310-6324.
[28] 雷磊.ChatGPT對(duì)法律人主體性的挑戰(zhàn)[J].法學(xué),2023(9):3-15.
[29] SHUMAILOV I, SHUMAYLOV Z, ZHAO Y, et al. Model dementia: generated data makes models forget[J]. arXiv e-prints,2023(5):17493-17511.
Study on the Potential and Risk of Educational Application of Generative Artificial Intelligence Based on Moralizing Technology Theory
TONG Hui1,? YANG Yanjun2
(1.Department of Education, Jiangxi Science and Technology Normal University, Nanchang Jiangxi 330038; 2.Institute of Education Development, Nanchang University, Nanchang Jiangxi 330031)
[Abstract] With the rapid development of Generative Artificial Intelligence(GAI) and its wide application in the field of education, researchers at home and abroad have launched a heated discussion about it and the educational application of large language model behind it. However, the Eliza effect exists in most studies because of the lack of understanding of the principle of GAI technology. This study firstly analyzes the essence of GAI from the perspective of Verbeke's "human-technology hybrid" on the basis of an in-depth analysis of the principle of GAI technology, and then elaborates four major potentials and five major risks and challenges faced by the application of GAI in education. Finally, based on the idea of "human-technology hybrid", a global AI governance system is proposed from the two perspectives of "designer" and "user" , which will become an important direction for future exploration.
[Keywords] Generative Artificial Intelligence; Moralizing Technology; Large Model; Human-Technology Hybrid; Application Risk