魯云鵬?李春玲
摘 要:從技術(shù)倫理角度出發(fā),依照“數(shù)據(jù)—算法—功能”運(yùn)作邏輯,辯證分析了ChatGPT對學(xué)生培養(yǎng)的影響。總體來看,ChatGPT性能高效穩(wěn)定、對用戶友好且互動(dòng)性強(qiáng),具有較強(qiáng)的場景通用性,是培養(yǎng)學(xué)生的有效技術(shù)工具;但ChatGPT也會(huì)引發(fā)對學(xué)生培養(yǎng)的反向馴化、認(rèn)知弱化、偏見學(xué)習(xí)等諸多倫理風(fēng)險(xiǎn)?;诖?,本文利用技術(shù)倫理中的“規(guī)約”思想,提出面向?qū)W生培養(yǎng)的人工智能“RED”規(guī)約模型,即通過綜合運(yùn)用制度規(guī)約、技術(shù)設(shè)備規(guī)約,以及課程設(shè)置規(guī)約,推動(dòng)ChatGPT與學(xué)生培養(yǎng)體系間的動(dòng)態(tài)平衡與互適。
關(guān)鍵詞:ChatGPT;技術(shù)倫理;學(xué)生培養(yǎng);影響機(jī)理
一、問題的提出
人工智能研究公司OpenAI于2022年底面向社會(huì)公眾發(fā)布的聊天程序ChatGPT,其依靠龐大的語料庫支撐、高度通用化的使用場景、強(qiáng)自然語言交互能力等諸多優(yōu)勢,能夠迅速捕捉用戶的真實(shí)意圖,高質(zhì)量完成論文撰寫、翻譯、編程等任務(wù),也因此僅用兩個(gè)月時(shí)間,便獲得超過1億活躍用戶的青睞。ChatGPT在文字處理上的能力,也迅速滲透教育、科研領(lǐng)域中。一方面ChatGPT能夠啟發(fā)學(xué)生寫作靈感,降低機(jī)械化課業(yè)負(fù)擔(dān);另一方面,學(xué)生利用該智能工具代寫論文、考試作弊等現(xiàn)象也屢見不鮮,對教育公平、科研誠信等帶來直接沖擊。對此,Nature一周內(nèi)連發(fā)兩篇文章討論ChatGPT對學(xué)術(shù)圈所產(chǎn)生的影響,巴黎政治學(xué)院、香港大學(xué)等高校更是直接禁止學(xué)生及教職工使用ChatGPT完成任何教學(xué)任務(wù),若違規(guī)則最高面臨被開除的風(fēng)險(xiǎn)。
然而,從技術(shù)倫理的視角來看,科技發(fā)展具有不可逆的特征。面對ChatGPT這一具有“現(xiàn)象級”影響力的人工智能工具,在教育領(lǐng)域中對其“一禁了之”,并不能解決現(xiàn)有問題。事實(shí)上,包括谷歌公司的BERT、微軟旗下的Turing NLG,以及百度的“文心一言”等一眾“類ChatGPT”產(chǎn)品,也在不斷完善自身的數(shù)據(jù)庫與算法,高性能人工智能時(shí)代來襲的趨勢,已越發(fā)明朗。與此同時(shí),技術(shù)上的革新也帶來社會(huì)對人才能力需求的變化。特別是對于相對缺少創(chuàng)造力、程序化的中等技術(shù)工作,均較高程度上面臨被人工智能替代的風(fēng)險(xiǎn)。但焦慮并非理性之舉,通過倫理介入,推動(dòng)ChatGPT這類高性能人工智能工具與現(xiàn)有教育的人才培養(yǎng)體系互適,才是實(shí)現(xiàn)兩者在結(jié)構(gòu)張力上保持動(dòng)態(tài)平衡的良性路徑。
二、ChatGPT對學(xué)生培養(yǎng)的辯證影響機(jī)理
ChatGPT的工作流程是基于“數(shù)據(jù)—算法—功能”的邏輯展開的,其中數(shù)據(jù)是訓(xùn)練與優(yōu)化ChatGPT的必要材料,而算法作為處理數(shù)據(jù)的手段,將直接影響到ChatGPT的性能表現(xiàn),功能則是ChatGPT工具屬性的具體表征形式,是算法應(yīng)用目標(biāo)實(shí)現(xiàn)的直接體現(xiàn)。因此要細(xì)化分析ChatGPT對學(xué)生培養(yǎng)的影響,關(guān)鍵在于有效識別這三個(gè)基本要素作用機(jī)理。
1.ChatGPT的數(shù)據(jù)對學(xué)生培養(yǎng)的影響機(jī)理
(1)數(shù)據(jù)的產(chǎn)生過程
作為高性能的大型語言模型,ChatGPT的數(shù)據(jù)產(chǎn)生渠道廣泛,包括但不限于公共網(wǎng)頁、維基與百度百科、開放數(shù)據(jù)源等,涵蓋各類語言、文化與主題。在數(shù)據(jù)生產(chǎn)的規(guī)模上,ChatGPT的模型參數(shù)量超過1750億。依照大模型的性能遵循伸縮率(Scaling Law)的原則,大模型的參數(shù)越多,數(shù)據(jù)集的規(guī)模越大,其性能與泛化能力就越強(qiáng),并且這一性能并非簡單提升,當(dāng)數(shù)據(jù)規(guī)模突破千億時(shí),其上下文學(xué)習(xí)、利用思維鏈等能力,會(huì)有跳躍性增長[1]。寬范圍、大規(guī)模的數(shù)據(jù)產(chǎn)生方式,使得ChatGPT建起頗為豐富的數(shù)據(jù)池,這不僅能在很大程度上增強(qiáng)數(shù)據(jù)魯棒性,同時(shí)也能夠提升其場景的通用性,為不同領(lǐng)域的學(xué)生在識記性知識、推理性問答、多語言翻譯等方面提供數(shù)據(jù)支撐。
但另一方面,數(shù)據(jù)作為能夠被ChatGPT識別的數(shù)字符號集合,其產(chǎn)生的過程仍舊遵循弱人工智能的實(shí)證主義邏輯。將包括思想文明、生活經(jīng)驗(yàn)等在內(nèi)的各類信息進(jìn)行單一且精確的量化衡量,以轉(zhuǎn)化為弱人工智能可以理解的語言,并通過可重復(fù)試驗(yàn)的方式,預(yù)測與回應(yīng)人的需求[2]。然而,ChatGPT在數(shù)據(jù)產(chǎn)生過程中的量化思維,并非完全適合學(xué)生培養(yǎng),因?yàn)樵诮逃^程中,存在大量無法測度的“知、情、意”等默會(huì)知識,并且學(xué)生培養(yǎng)本身就應(yīng)該充滿不確定性與模糊性,目的在于保護(hù)學(xué)生的天賦,為學(xué)生個(gè)性化發(fā)展提供更多可能性。正如多梅爾所提及的,無論我們的意圖多么符合科學(xué)精神,只要開始量化,就會(huì)造成狹隘性[3]。
并且這種數(shù)據(jù)生產(chǎn)邏輯的狹隘性,容易被ChatGPT數(shù)據(jù)產(chǎn)生的范圍廣、規(guī)模大所掩蓋,引導(dǎo)學(xué)生形成“一切皆可量化”的數(shù)據(jù)崇拜,盲目追捧大數(shù)據(jù)所帶來的知識的“真與全”,而忽視難以被數(shù)據(jù)量化表達(dá)的“善與美”。
(2)數(shù)據(jù)的采集過程
數(shù)據(jù)采集是基于數(shù)據(jù)源獲取數(shù)據(jù)的過程,對于ChatGPT而言,其首先是在人工干預(yù)下,確定數(shù)據(jù)采集的需求,包括數(shù)據(jù)采集的來源、類型、頻次等指標(biāo),并依照歐盟的《通用數(shù)據(jù)保護(hù)條例》、中國的《網(wǎng)絡(luò)安全法》等,明確數(shù)據(jù)采集的法律與倫理標(biāo)準(zhǔn)。其次,ChatGPT依照數(shù)據(jù)采集的實(shí)際需求與標(biāo)準(zhǔn),自動(dòng)設(shè)計(jì)與運(yùn)行數(shù)據(jù)采集器。再次,對抓取的數(shù)據(jù)進(jìn)行清洗,涉及自動(dòng)對數(shù)據(jù)去重、格式化、標(biāo)準(zhǔn)化等。為了保證數(shù)據(jù)質(zhì)量,這一過程也會(huì)有少量人工參與,對數(shù)據(jù)清洗進(jìn)行評價(jià)與優(yōu)化。最后,對采集到的數(shù)據(jù)進(jìn)行存儲(chǔ)與管理。
聯(lián)合國教科文組織在《教育中的人工智能:可持續(xù)發(fā)展的挑戰(zhàn)與機(jī)遇》中指出,數(shù)據(jù)采集要重視公正性、避免數(shù)據(jù)歧視等技術(shù)倫理問題。盡管ChatGPT在現(xiàn)有的技術(shù)范圍內(nèi),盡可能擴(kuò)大數(shù)據(jù)樣本量,人工評估數(shù)據(jù)清洗結(jié)果,但仍舊無法避免因數(shù)據(jù)本身的缺失、語言理解差異、算法缺陷等原因,造成的特定區(qū)域、社會(huì)群體或文化背景的數(shù)據(jù)采集頻率失衡的現(xiàn)象。ChatGPT只是相較于GPT-3等技術(shù),在“有毒”回答的輸出的概率上會(huì)有所降低。
(3)數(shù)據(jù)的共享過程
在教育領(lǐng)域中,因人工智能在數(shù)據(jù)共享過程中造成的用戶信息泄露,是現(xiàn)有技術(shù)倫理關(guān)注的重點(diǎn)問題。這一方面是由于數(shù)據(jù)本身具有高傳播、高流通、再生再創(chuàng)等特性,另一方面則是受到利益驅(qū)動(dòng)的影響,關(guān)于學(xué)生的數(shù)據(jù)會(huì)成為智能教育商業(yè)機(jī)構(gòu)相互交易或分享的商業(yè)數(shù)據(jù),部分組織甚至非法利用這些數(shù)據(jù),進(jìn)行惡意欺騙[4]。對此,ChatGPT的所屬公司OpenAI,高度重視保護(hù)數(shù)據(jù)隱私和安全,在其組織章程中將“開發(fā)安全和負(fù)責(zé)任的人工智能”作為使命,并從技術(shù)角度,通過數(shù)據(jù)脫敏、限制訪問權(quán)限、多重加密與身份驗(yàn)證技術(shù)等多種方式加以保障。
但同時(shí)OpenAI多以保護(hù)數(shù)據(jù)安全、知識產(chǎn)權(quán)、技術(shù)競爭、成本等為理由,并未對ChatGPT實(shí)現(xiàn)開源并有效公開其訓(xùn)練的數(shù)據(jù)集。這實(shí)質(zhì)上不僅違背其作為非營利組織在推動(dòng)人工智能發(fā)展、創(chuàng)造透明人工智能技術(shù)上的承諾與初衷,也與聯(lián)合國在《人工智能倫理問題建議書》中所倡導(dǎo)的算法可解釋、可理解不相符。這顯然對立了數(shù)據(jù)保護(hù)與數(shù)據(jù)共享間的關(guān)系。源代碼、數(shù)據(jù)等未能有效共享,也將加劇技術(shù)壁壘、數(shù)據(jù)獨(dú)裁等問題產(chǎn)生。對于學(xué)生培養(yǎng)而言,由于無法獲取到足夠的數(shù)據(jù)與源代碼資源,也將使得教育者難以通曉ChatGPT在教育領(lǐng)域中的算法原理、過程等,削弱教育主體對于學(xué)生培養(yǎng)過程中風(fēng)險(xiǎn)管理與控制能力,放大基于數(shù)據(jù)黑箱而帶來的倫理風(fēng)險(xiǎn)。
2.ChatGPT的算法對學(xué)生培養(yǎng)的影響機(jī)理
(1)深度學(xué)習(xí)模型
ChatGPT的深度學(xué)習(xí)算法具體為卷積神經(jīng)網(wǎng)絡(luò)、生成對抗網(wǎng)絡(luò)等。成熟、多樣的深度學(xué)習(xí)算法,使得ChatGPT能夠應(yīng)對龐大規(guī)模且多樣態(tài)的數(shù)據(jù)資源,并高效提取數(shù)據(jù)特征,建立復(fù)雜的非線性關(guān)系,推動(dòng)自然語言生成的連貫性與準(zhǔn)確性,特別是上下文對話的銜接能力,能夠有效提升包括學(xué)生在內(nèi)的用戶體驗(yàn)感。
但需要注意的是,在無有效的倫理規(guī)約與技術(shù)限制條件下,ChatGPT的高性能容易讓學(xué)生產(chǎn)生依賴性。而對于技術(shù)物的過度依賴,容易侵犯教育場域的連續(xù)性與完整性,并弱化學(xué)生作為教育主體,對于教育現(xiàn)實(shí)的感知[4]。連續(xù)且完整的教育場域是由教師、同學(xué)、教室、教材、學(xué)習(xí)氛圍等諸多物質(zhì)與精神元素構(gòu)成的有機(jī)統(tǒng)一體,其內(nèi)在的豐富性塑造學(xué)生個(gè)體在知識、技能、情感交流等各方面的發(fā)展。ChatGPT雖然能夠借助深度學(xué)習(xí)模型,高度模仿人類,提供基于對話式的虛擬學(xué)習(xí)空間,但若沉溺其中,則會(huì)破壞學(xué)生對教育現(xiàn)實(shí)的參與度,進(jìn)而加劇個(gè)人主義學(xué)習(xí),肢解圖書館、教室等傳統(tǒng)學(xué)習(xí)場所的公共性。教育場域中的虛擬與現(xiàn)實(shí)失衡,往往也會(huì)帶來學(xué)生在學(xué)習(xí)過程中的情感生成與社交表達(dá)困境,并誘發(fā)學(xué)生的情感遮蔽,形成現(xiàn)實(shí)本我與虛擬非我的主體性異位現(xiàn)象。
(2)強(qiáng)化學(xué)習(xí)模型
強(qiáng)化學(xué)習(xí)是人工智能依據(jù)特定環(huán)境反饋,學(xué)習(xí)如何采取最佳行動(dòng),以實(shí)現(xiàn)獎(jiǎng)勵(lì)信號的最大化。以與ChatGPT模型高度相似的InstructGPT為例,InstructGPT通過標(biāo)記員的人工標(biāo)記的方式來訓(xùn)練反饋模型,讓反饋模型再訓(xùn)練原有的GPT-3模型,從而實(shí)現(xiàn)基于人類反饋的強(qiáng)化學(xué)習(xí)。ChatGPT在InstructGPT的基礎(chǔ)上,借助其用戶界面,在每次生成對話答案旁,均有類似“有用”和“無用”圖標(biāo),用于實(shí)時(shí)獲取更為廣泛的用戶反饋信息,利用強(qiáng)化學(xué)習(xí)模型,不斷優(yōu)化其語言表達(dá)與信息傳遞準(zhǔn)確性,提升人機(jī)的交互效果。
ChatGPT基于人類反饋的強(qiáng)化學(xué)習(xí)模型,其技術(shù)的出發(fā)點(diǎn)是凸顯人的主體性的地位與價(jià)值。即使ChatGPT性能再優(yōu)異,仍舊是圍繞人類的需求展開。畢竟計(jì)算機(jī)只有和人結(jié)合在一起才能實(shí)現(xiàn)其價(jià)值,人賦予人工智能活動(dòng)的意義,這是由其作為技術(shù)工具屬性所決定的。然而,在現(xiàn)實(shí)的教育場域中,卻容易出現(xiàn)截然相反的結(jié)果,人工智能沖擊學(xué)生主體性的地位,使其再次成為“被塑造”的對象。ChatGPT通過及時(shí)捕捉學(xué)生的反饋,借助Q-Learning、自然語言處理技術(shù)等,在動(dòng)態(tài)調(diào)整與優(yōu)化答案、增加學(xué)生信任的同時(shí),也能夠不斷分析特定領(lǐng)域、專業(yè)的學(xué)生的行為與偏好特征,進(jìn)而對學(xué)生進(jìn)行“標(biāo)簽化”處理。這并不利于學(xué)生開闊自身視野,ChatGPT會(huì)基于學(xué)生偏好不斷強(qiáng)化學(xué)生的特定認(rèn)知,從而容易將其塑造成狹隘、封閉的個(gè)人。此外,缺乏足夠的辨別能力,過度信任人工智能的“出色”表現(xiàn),會(huì)使得學(xué)生發(fā)展的可能性從最初便被人工智能所規(guī)劃,違背學(xué)生發(fā)展的基本規(guī)律[5]。
(3)自適應(yīng)學(xué)習(xí)模型
對于ChatGPT而言,自適應(yīng)學(xué)習(xí)模式是通過搜集與分析數(shù)據(jù),利用Transformer架構(gòu)、多層自注意力機(jī)制來挖掘數(shù)據(jù)間的規(guī)律性與關(guān)聯(lián)性,以迭代、更新其自身算法與知識庫的過程,其目的在于不斷適應(yīng)外部環(huán)境與任務(wù)的變化,是ChatGPT靈活性與智能性的集中體現(xiàn)?,F(xiàn)有觀點(diǎn)多認(rèn)為,具備自適應(yīng)學(xué)習(xí)能力的弱人工智能,能夠依照學(xué)生的學(xué)習(xí)進(jìn)度、學(xué)習(xí)風(fēng)格與學(xué)習(xí)能力等信息對學(xué)生的學(xué)習(xí)任務(wù)實(shí)施精細(xì)化管理,為學(xué)生提供個(gè)性化、動(dòng)態(tài)化的學(xué)習(xí)建議與培養(yǎng)方案[6]。該特性是現(xiàn)階段推廣智能教育的重要優(yōu)勢所在。
但ChatGPT只是從技術(shù)角度上,能夠?yàn)閷W(xué)生個(gè)性化學(xué)習(xí)提供可能,并沒有有力的證據(jù)表明,引入ChatGPT等弱人工智能就一定能實(shí)現(xiàn)學(xué)生個(gè)性化學(xué)習(xí)。相反,教師簡單布置任務(wù),學(xué)生被動(dòng)詢問,人工智能負(fù)責(zé)判斷提供,反而可能會(huì)妨礙學(xué)生個(gè)性化發(fā)展?jié)撃艿募せ?。ChatGPT所應(yīng)用到的自適應(yīng)學(xué)習(xí)、深度學(xué)習(xí)等,本質(zhì)上仍舊是基于概率統(tǒng)計(jì)的算法模型。依照學(xué)生偏好所提供的答案,是基于數(shù)據(jù)庫中的頻率“多”,是大眾化、普遍化、平均化的行為或決策反應(yīng),那些新奇、“意外”的信息,會(huì)因?yàn)閿?shù)量上的“少”而被算法過濾掉,這反而會(huì)誘發(fā)學(xué)生同質(zhì)化發(fā)展。與此同時(shí),ChatGPT依照學(xué)生不同需求快速篩選出的答案,只是在形式與結(jié)果上看似個(gè)性化,但其底色仍舊是基于效率導(dǎo)向的標(biāo)準(zhǔn)化,甚至在自適性學(xué)習(xí)、強(qiáng)化學(xué)習(xí)的引導(dǎo)下變得“媚俗化”,這顯然也與教育所期待的學(xué)生個(gè)性化發(fā)展理念所不符。
3.ChatGPT的功能對學(xué)生培養(yǎng)的影響機(jī)理
(1)學(xué)生培養(yǎng)過程中ChatGPT的功能鏈
ChatGPT的功能主要是基于大規(guī)模數(shù)據(jù)與算法,模擬人類在語言上的能力。具體包括:其一,語言生成功能。ChatGPT能夠依據(jù)學(xué)生輸入信息的提示與要求,自動(dòng)生成多種類型的文本,如文章、對話、評論等。這是ChatGPT在學(xué)生群體中,使用頻率較高的實(shí)用功能,據(jù)在線課程供應(yīng)商Study.com的調(diào)查顯示,有89%的美國大學(xué)生借助ChatGPT生成作業(yè)文本。其二,語言理解功能。ChatGPT能夠依照上下文和語義信息,回答學(xué)生提出的各類問題,并給出建議。如果提供的是豐富的文字材料,還能進(jìn)行文本的總結(jié)與推理等。其三,語言翻譯功能。ChatGPT還支持包括中、俄、德等超過50種語言之間的實(shí)時(shí)翻譯與轉(zhuǎn)換。此外,隨著OpenAI開放了ChatGPT的接口,諸多可應(yīng)用于教育領(lǐng)域中的軟件或平臺(tái)也接入ChatGPT中,從而形成更為豐富的功能鏈。
(2)審慎對待ChatGPT在教育領(lǐng)域中的功能鏈
首先,過分強(qiáng)調(diào)ChatGPT所帶來的減負(fù)性與趣味性,容易引發(fā)情感投入與認(rèn)知投入的失衡,弱化學(xué)習(xí)的嚴(yán)肅性。依據(jù)學(xué)習(xí)投入理論的觀點(diǎn)來看,高質(zhì)量的學(xué)習(xí)涉及認(rèn)知投入、情感投入與行為投入這三個(gè)關(guān)鍵要素[7]。ChatGPT利用其減負(fù)性與趣味性,增加學(xué)生的情感投入,但ChatGPT也容易掩蓋認(rèn)知投入的重要性,即學(xué)生個(gè)體需要對所學(xué)的內(nèi)容進(jìn)行獨(dú)立思考、理解與記憶。ChatGPT瞬時(shí)呈現(xiàn)答案,這種帶有“不勞而獲”意味的學(xué)習(xí)方式,容易滋生學(xué)生認(rèn)知投入的惰性。更為重要的是,學(xué)生個(gè)體必要的認(rèn)知投入,包括復(fù)述、記憶等低階認(rèn)知,在“熟能生巧”機(jī)制的催化下,是批判性、創(chuàng)新性等高階思維產(chǎn)生的必要條件。而ChatGPT的長期介入,替代初級信息加工的方式,則會(huì)打斷這一過程,加之上文提到的學(xué)生可能產(chǎn)生的數(shù)據(jù)與算法崇拜、自主性缺失等問題,淺表性思維、慣性思維等反而會(huì)得到固化,不利于學(xué)生精致思考、意義構(gòu)建與自我指導(dǎo)。
其次,過分強(qiáng)調(diào)ChatGPT所帶來的減負(fù)性與趣味性,也容易制造學(xué)生培養(yǎng)的“虛假需求”。馬爾庫塞認(rèn)為,技術(shù)理性以控制并滿足個(gè)體“虛假需求”為作用機(jī)制,促使個(gè)體對于否定性、批判性、超越性的喪失,進(jìn)而喪失“自由”,成為“單向度的人”[8]。ChatGPT通過多樣化的功能表征,極大滿足學(xué)生對于效率的需求。特別是在人才競爭日趨激烈的當(dāng)下,效率成為檢驗(yàn)該工具“有用性”的最為重要的衡量標(biāo)準(zhǔn)。但從技術(shù)倫理角度來看,效率并非是教育主體的真實(shí)需求。真實(shí)需求是以自由、平等為基礎(chǔ),建立在主體性、主體間性以及他者性間的主體呼喚[9]。無論是對自由、平等抑或是責(zé)任的價(jià)值理性追求,是不能因?yàn)镃hatGPT的技術(shù)理性所帶來的效率需求所掩蓋,一味追捧效率只會(huì)為教育相關(guān)者帶來功利主義。
再次,過分強(qiáng)調(diào)ChatGPT所帶來的減負(fù)性與趣味性,也會(huì)導(dǎo)致教師在學(xué)生培養(yǎng)中的角色錯(cuò)位的現(xiàn)象。這種現(xiàn)象可利用技術(shù)倫理中的“反向馴化”加以解釋。技術(shù)物能夠按照人類意圖實(shí)現(xiàn)自身功能,協(xié)助人類“解蔽”,其本身可看作是一種對技術(shù)物的“馴化”過程。然而,隨著技術(shù)物與人類不斷融合,兩者之間的關(guān)系則會(huì)存在異化的可能,技術(shù)的意向結(jié)構(gòu),逐步“規(guī)訓(xùn)”人類,給人類打上技術(shù)的“烙印”,實(shí)現(xiàn)反向馴化[10]。典型的如智能手機(jī)已經(jīng)改變了人類閱讀偏好以及語言表達(dá)的習(xí)慣。對于教師而言,人工智能本應(yīng)被馴化為協(xié)助教學(xué)、分擔(dān)部分重復(fù)性知識傳遞工作的工具。但由于人工智能的高性能表現(xiàn),教師反而會(huì)依照人工智能的算法,決定如何傳遞教育內(nèi)容,采用何種教育方式,教師從學(xué)生培養(yǎng)過程中的創(chuàng)造者,反而變成了“消費(fèi)者”[3]。教師被人工智能反向馴化,站在“消費(fèi)者”的視角將使其難以對學(xué)生培養(yǎng)保持應(yīng)有的洞察力,以及失去對學(xué)生示范性引領(lǐng)的魅力。
綜合上述,圖1依照“數(shù)據(jù)—算法—功能”的邏輯,總結(jié)了ChatGPT對學(xué)生培養(yǎng)的影響機(jī)理??傮w來看,ChatGPT性能高效穩(wěn)定,對用戶友好且互動(dòng)性強(qiáng),具有較強(qiáng)的場景通用性,是培養(yǎng)學(xué)生的有效工具;但ChatGPT具有打斷性特征,在使用過程中也會(huì)引發(fā)反向馴化、認(rèn)知弱化以及偏見學(xué)習(xí)等倫理風(fēng)險(xiǎn)。
三、ChatGPT影響下學(xué)生培養(yǎng)的創(chuàng)新模式
針對ChatGPT打斷原有的學(xué)生培養(yǎng)體系的平衡態(tài),可能引發(fā)諸多倫理問題,本文基于技術(shù)倫理中的“規(guī)約”思想,提出面向?qū)W生培養(yǎng)的人工智能“RED”規(guī)約模型,即通過綜合運(yùn)用制度(Regulation)規(guī)約、技術(shù)設(shè)備(Equipment)規(guī)約、課程設(shè)置(Discipline)規(guī)約,以主動(dòng)適應(yīng)ChatGPT等高性能人工智能所帶來的影響。
1.制度規(guī)約:基于“敏捷治理”設(shè)計(jì)教育人工智能共識體系
當(dāng)前從技術(shù)倫理角度,各國、區(qū)域性合作組織等均對人工智能進(jìn)行制度規(guī)約,基本形成了人工智能設(shè)計(jì)與應(yīng)用的共識體系。但現(xiàn)有的制度規(guī)約多以“倡導(dǎo)式”的軟約束為主,多具有形式上的威懾效果,但實(shí)際的實(shí)施效力多取決于OpenAI等人工智能公司的自愿性。采用這種相對溫和的制度規(guī)約方式,主要是由于現(xiàn)階段包括ChatGPT在內(nèi)的人工智能仍停留在弱人工智能階段,處于發(fā)展初期,若強(qiáng)硬監(jiān)管很可能會(huì)出現(xiàn)“把嬰兒和洗澡水一起倒掉”的風(fēng)險(xiǎn),影響人工智能的發(fā)展進(jìn)程??紤]到平衡制度規(guī)約與人工智能技術(shù)關(guān)系的約束性,本文主張?jiān)诂F(xiàn)有軟約束的基礎(chǔ)上,設(shè)計(jì)基于“敏捷治理”的制度規(guī)約。
敏捷治理是源于軟件開發(fā)領(lǐng)域中的“敏捷方法”,其強(qiáng)調(diào)通過迭代等持續(xù)改進(jìn)的方式,快速響應(yīng)外部變化,以創(chuàng)造高價(jià)值。其治理目標(biāo)是在不犧牲治理有效性的前提下,盡早作出反應(yīng)與決策,高效準(zhǔn)確地回應(yīng)智能時(shí)代復(fù)雜的倫理與社會(huì)問題。具化到ChatGPT等高性能人工智能在學(xué)生培養(yǎng)領(lǐng)域中來,由于對人工智能技術(shù)快速且打斷性的發(fā)展缺乏預(yù)測性,因此制度的規(guī)約目標(biāo)應(yīng)隨著學(xué)生培養(yǎng)的變化而及時(shí)調(diào)整,這需要在尊重人工智能發(fā)展規(guī)律的前提下,敏銳捕捉并重視新人工智能技術(shù)可能引發(fā)的新技術(shù)倫理風(fēng)險(xiǎn)。在此基礎(chǔ)上,基于現(xiàn)有人工智能規(guī)約的共識原則,政府監(jiān)管部門應(yīng)積極組建針對教育領(lǐng)域的跨區(qū)域人工智能治理專業(yè)委員會(huì),并協(xié)同人工智能開發(fā)商、學(xué)校等主體,將捕捉到的倫理風(fēng)險(xiǎn),通過持續(xù)優(yōu)化原有制度規(guī)約的方式,及時(shí)回應(yīng)社會(huì)所關(guān)注的學(xué)生被量化、數(shù)據(jù)崇拜、自主性受侵等熱點(diǎn)問題。
2.技術(shù)設(shè)備規(guī)約:協(xié)同構(gòu)建基于ChatGPT的“教育大腦”
雖然ChatGPT表現(xiàn)出較強(qiáng)的場景通用性,但是教育領(lǐng)域具有默會(huì)性、模糊性等特殊屬性,若想真正將ChatGPT技術(shù)融入學(xué)生培養(yǎng),則需要依照教育的實(shí)際問題、教育邏輯、教育規(guī)則等內(nèi)容,從技術(shù)設(shè)備角度對ChatGPT進(jìn)行規(guī)約,主動(dòng)開發(fā)專屬于教育的核心模型、框架,而不應(yīng)是其他領(lǐng)域的“模仿者”。結(jié)合現(xiàn)有智能教育發(fā)展趨勢,以及ChatGPT對學(xué)生培養(yǎng)的影響,圖2通過嵌入技術(shù)設(shè)備規(guī)約的方式,嘗試構(gòu)建了基于ChatGPT技術(shù)的“教育大腦”模型。所謂教育大腦,是人工智能作為海量教育數(shù)據(jù)模型、深度學(xué)習(xí)算法等智能化技術(shù)的融合體,能夠模擬人類大腦接收、處理信息的特質(zhì),并根據(jù)實(shí)時(shí)反饋進(jìn)行動(dòng)態(tài)調(diào)整[11]。其構(gòu)建的目的在于智能時(shí)代下,解決教育學(xué)生培養(yǎng)創(chuàng)新問題,提升人工智能技術(shù)與學(xué)生培養(yǎng)體系相融合的理想度水平。教育大腦的構(gòu)建多是遵循人腦“輸入—計(jì)算—輸出”的基本邏輯展開,這與上文所提及的ChatGPT依照“數(shù)據(jù)—算法—功能”運(yùn)作方式是相吻合。
在輸入環(huán)節(jié)中,ChatGPT將學(xué)生基礎(chǔ)信息、培養(yǎng)目標(biāo)、學(xué)習(xí)內(nèi)容、教學(xué)活動(dòng)等作為專業(yè)化的外部信息源,利用自身在處理文本、圖像、語音等多模態(tài)信息上的能力,進(jìn)行數(shù)據(jù)采集。每一份數(shù)據(jù)可看作是類腦的教育神經(jīng)元,這些龐大數(shù)據(jù)彼此相互聯(lián)系,構(gòu)成教育神經(jīng)網(wǎng)絡(luò),并以結(jié)構(gòu)化、半結(jié)構(gòu)化等多元形態(tài)進(jìn)行存儲(chǔ)與加密,為類腦運(yùn)算提供“燃料”。在這一過程中,需要嵌入特征工程、偏見測試、重要性分析等技術(shù),用以規(guī)約ChatGPT在數(shù)據(jù)產(chǎn)生、采集、存儲(chǔ)等環(huán)節(jié)中,所可能引發(fā)的數(shù)據(jù)歧視、偏見學(xué)習(xí)等倫理問題。
在計(jì)算環(huán)節(jié)中,ChatGPT利用深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等算法集,模擬人腦對規(guī)約后的輸入信息進(jìn)行編碼,并完成比較、轉(zhuǎn)換、推理等“思維”活動(dòng)。在該過程中,可通過“道德矩陣”、監(jiān)督學(xué)習(xí)等技術(shù)規(guī)約的方式,對算法進(jìn)行調(diào)適,以嵌入符合人才培養(yǎng)期望的倫理腳本,調(diào)解技術(shù)意向性在教育情境中的價(jià)值指向。此外,由于教育是一種解釋性的行為,教育過程正是不斷將緘默知識透明化的過程,因此它要求教育者需通曉整個(gè)教育原理、內(nèi)容與過程,這也決定將ChatGPT應(yīng)用于人才培養(yǎng)領(lǐng)域中,需要算法保持可解釋性,開發(fā)者應(yīng)對教育領(lǐng)域的算法進(jìn)行規(guī)范化的闡釋與說明。例如可通過局部敏感性分析技術(shù)、人機(jī)交互、可視化等技術(shù)方式,協(xié)助教師、學(xué)生明確這些算法的前提假設(shè),算法可能忽略的因素,以及因此可能帶來的主體異化、同質(zhì)化等負(fù)面影響,為真正的個(gè)性化教育提供更優(yōu)算法支撐。
在輸出環(huán)節(jié)中,應(yīng)進(jìn)一步利用ChatGPT在語言生成、理解與翻譯等方面的能力,協(xié)同教師、學(xué)生、學(xué)校、家長等多元主體,通過整合現(xiàn)有教育資源,開發(fā)更具專業(yè)性的功能應(yīng)用,用以涵蓋學(xué)習(xí)診斷、內(nèi)容推薦與問答、教學(xué)評價(jià)與反饋等完整的人才培養(yǎng)環(huán)節(jié),實(shí)現(xiàn)教育大腦與內(nèi)外環(huán)境的互動(dòng)。開發(fā)基于ChatGPT技術(shù)的教育大腦的應(yīng)用,應(yīng)堅(jiān)持教學(xué)導(dǎo)向而非技術(shù)導(dǎo)向,由教育利益相關(guān)者需要什么樣的人才與培養(yǎng)模式來決定需要什么樣的應(yīng)用,而非反向馴化關(guān)系。對于教育主動(dòng)權(quán)的把握,可通過社會(huì)實(shí)驗(yàn)、風(fēng)險(xiǎn)評估、誠信檢測等技術(shù)手段進(jìn)行規(guī)約。在回答學(xué)生提問時(shí),也應(yīng)保持開放性原則,其答案盡量減少確定性詞匯的描述,并提供更多備選方案,引導(dǎo)學(xué)生主動(dòng)思考。
3.課程設(shè)置規(guī)約:更廣范圍下有機(jī)嵌入人工智能素養(yǎng)
ChatGPT在人才培養(yǎng)過程中,所帶來的反向馴化、認(rèn)知弱化等倫理問題,在很大程度上是由于學(xué)生、教師等對于高性能的人工智能還未“準(zhǔn)備好”。以我國為例,根據(jù)教育部公開數(shù)據(jù)顯示,截至2022年我國共有902所高等院校(含高職)開設(shè)或備案人工智能專業(yè),雖然總量穩(wěn)步提升,但僅占院??偭康?9.94%,且大部分是針對計(jì)算機(jī)專業(yè)的學(xué)生,通識課、相關(guān)基礎(chǔ)課開設(shè)數(shù)量比例偏低。但人工智能的影響,將涉及各教育水平和收入水平的職業(yè)[12]。面對ChatGPT等高性能人工智能對學(xué)生在職業(yè)技能與自我認(rèn)知方面的現(xiàn)實(shí)要求,應(yīng)有規(guī)劃地面向更廣泛的專業(yè)、不同年級的學(xué)生,開設(shè)人工智能相關(guān)課程,優(yōu)化現(xiàn)有人才培養(yǎng)的課程體系,提升學(xué)生人工智能的綜合素養(yǎng)。具體可從人工智能基礎(chǔ)知識、高階認(rèn)知能力、人文教育三個(gè)部分著手。
在人工智能技術(shù)基礎(chǔ)知識方面,可圍繞數(shù)據(jù)素養(yǎng)、算法素養(yǎng)、情景化問題解決的培養(yǎng)開設(shè)課程。在數(shù)據(jù)素養(yǎng)的培養(yǎng)中,學(xué)生應(yīng)能夠理解人工智能如何對數(shù)據(jù)進(jìn)行搜集、處理、分析、存儲(chǔ),以及對整個(gè)數(shù)據(jù)周期進(jìn)行管理等;在算法素養(yǎng)中,應(yīng)能理解算法本質(zhì)、識別算法類型的示例、典型人工智能的算法過程;在情景化問題解決方面,學(xué)生需討論與評估ChatGPT等典型人工智能解決實(shí)際問題的能力與適用性,并能有效識別特定技術(shù)產(chǎn)品、作品是否使用人工智能。
由于ChatGPT在程序化、機(jī)械式的初級信息加工任務(wù)上具有出色的性能表現(xiàn),這凸顯出高階認(rèn)知能力對學(xué)生培養(yǎng)的重要性,其主要包括設(shè)計(jì)思維、批判性思維、創(chuàng)新思維、交互思維與終身學(xué)習(xí)能力的培養(yǎng)。例如,針對設(shè)計(jì)思維而言,可開設(shè)人機(jī)交互課程,強(qiáng)化學(xué)生“以人為本”的設(shè)計(jì)理念,強(qiáng)化個(gè)體自主性意識,防范因過度依賴人工智能而帶來思考淺層化、形式化。此外,高階認(rèn)知能力的培養(yǎng)也對教師在開放性、探究性的任務(wù)布置,激發(fā)學(xué)生思考欲望的教學(xué)重點(diǎn)上提出了更高要求。
人工智能越發(fā)展,人文教育越重要。這是工具理性與價(jià)值理性動(dòng)態(tài)平衡發(fā)展的必然要求,也是教育回歸“促進(jìn)人的全面發(fā)展”的具體體現(xiàn)。人文關(guān)懷是人區(qū)別于弱人工智能的重要標(biāo)尺,對人工智能技術(shù)創(chuàng)新具有價(jià)值引領(lǐng)、價(jià)值選擇、價(jià)值參照等“以道馭技”的重要作用。上文關(guān)于ChatGPT教育大腦的構(gòu)建,所涉及的倫理腳本、偏見測試,均是從人文角度進(jìn)行的技術(shù)規(guī)約。重視技術(shù)倫理、思想道德建設(shè)、美學(xué)、科技哲學(xué)史等人文課程在各專業(yè)、各階段學(xué)生培養(yǎng)中的設(shè)置與考核比重,是強(qiáng)化學(xué)生社會(huì)責(zé)任感、自我認(rèn)同感、誠信與平等意識,解決ChatGPT等高性能人工智能所帶來的情感遮蔽、反向馴化等問題的重要手段。
四、研究展望
2023年3月,OpenAI發(fā)布了比ChatGPT性能更為強(qiáng)大的GPT-4模型,包括微軟的office 365在內(nèi)的更廣范圍的學(xué)習(xí)辦公軟件,也開始走向智能化。高性能人工智能技術(shù)快速發(fā)展,特別是其意向性、打斷性等特征,決定了人工智能對學(xué)生培養(yǎng)的影響是持續(xù)且變化的,這需要我們對此領(lǐng)域研究保持應(yīng)有的專注度,并且這一專注度,是需要通過倫理學(xué)、社會(huì)學(xué)、教育學(xué)、計(jì)算機(jī)等科學(xué)間的交叉融合,才能有效實(shí)現(xiàn)的。
參考文獻(xiàn):
[1] WEI J, WANG X, YANG Y, et al. Chain-of-thought: Efficient Content Planning with The use of Pretrained Language Models[C]. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, 2022: 124-133.
[2] 孫田琳子,沈書生. 論人工智能的教育尺度:來自德雷福斯的現(xiàn)象學(xué)反思[J]. 中國電化教育,2019(11):60-65,90.
[3] 多梅爾. 算法時(shí)代[M]. 胡小銳,譯. 北京:中信出版社,2016:67.
[4] 董云川,韋玲. 人工智能促進(jìn)教育發(fā)展的倫理糾偏[J]. 重慶高教研究,2021(2):51-58.
[5] 劉金松. 人工智能時(shí)代學(xué)生主體性的相關(guān)問題探討[J]. 現(xiàn)代教育技術(shù),2021(1):5-11.
[6] 胡藝齡,趙梓宏,顧小清. 教育生態(tài)系統(tǒng)視角下AI驅(qū)動(dòng)的學(xué)生核心素養(yǎng)發(fā)展模式研究:基于系統(tǒng)動(dòng)力學(xué)方法[J]. 現(xiàn)代教育技術(shù),2022(12):23-31.
[7] FREDRICKS J A, BLUMENFELD P C, PARIS A H. School Engagement: Potential of the Concept, State of the Evidence [J]. Review of Educational Research, 2004, 74(1): 59-109.
[8] 馬爾庫塞. 單向度的人[M]. 劉繼,譯. 上海譯文出版社,2008:104.
[9] 李育球. 主體性教育的三重性:主體性·主體間性·他者性:后形而上學(xué)主體性教育內(nèi)涵的探索[J]. 教育理論與實(shí)踐,2010(4):3-6.
[10] SILVERSTONE R. Television and Everyday Life [M]. London: Routlege, 1994:44.
[11] 顧小清,李世瑾. 人工智能教育大腦:以數(shù)據(jù)驅(qū)動(dòng)教育治理與教學(xué)創(chuàng)新的技術(shù)框架[J]. 中國電化教育,2021(1):80-88.
[12] FREY C B, OSBORNE M A. The Future of Employment: How Susceptible are Jobs to Computerization[J]. Technological Forecasting and Social Change, 2017, 114(2): 254-280.
[基金項(xiàng)目:國家社會(huì)科學(xué)基金青年項(xiàng)目(立項(xiàng)編號:22CZZ012)]
[責(zé)任編輯:余大品]