摘要:從教育與人工智能在技術(shù)層面的契合邏輯出發(fā),教育人工智能倫理面臨的三大悖論:主體性悖論、權(quán)利悖論和底線悖論。教育人工智能倫理具有基礎(chǔ)性、深遠(yuǎn)性和不可逆性的特點(diǎn),其倫理準(zhǔn)則的構(gòu)建可參考三種模式:理論應(yīng)用模式、中層原則模式、決疑案例普遍化模式。無論采用何種模式,破解悖論難題的關(guān)鍵是采用“非人主體說”,永遠(yuǎn)不要把人工智能擺放在人類主體的位置,必須立場鮮明地將其視為機(jī)器;人永遠(yuǎn)對自己的行為結(jié)果負(fù)責(zé);人應(yīng)該尊重自己,相信自己配的上最高尚的東西。只有如此,才不會(huì)淪落到與位卑一等的機(jī)器糾結(jié)倫理問題。
關(guān)鍵詞:教育人工智能;教育倫理;技術(shù)倫理;主體性悖論;“非人主體說”
中圖分類號:G434 文獻(xiàn)標(biāo)識碼:A
人工智能(AI)旨在讓人造物“像人一樣思考”,以類似于人的方式對外界作出反應(yīng),其本質(zhì)是如何進(jìn)行認(rèn)知的問題。AI的演進(jìn)訴諸于不同認(rèn)知理論,目前已形成符號主義、行為主義和聯(lián)結(jié)主義三大流派。技術(shù)層面上,從早期的側(cè)重經(jīng)典算法的弱人工智能,到目前關(guān)注深度學(xué)習(xí)的強(qiáng)人工智能。AI可視為人類智能的鏡像,折射了人認(rèn)知活動(dòng)某些機(jī)制和功能,使人的認(rèn)知間接地成為可以科學(xué)研究的“客觀”“外在”對象[1],教育正是通過對認(rèn)知規(guī)律的把控,達(dá)到增強(qiáng)學(xué)習(xí)者認(rèn)知效果和提升認(rèn)知能力的目的,從而使得對學(xué)習(xí)者的規(guī)訓(xùn)更加精準(zhǔn),當(dāng)下不少教育技術(shù)學(xué)學(xué)者提倡的計(jì)算思維、數(shù)據(jù)素養(yǎng)就是典型的例子。
“技術(shù)賦能教育”是當(dāng)下頗為流行的一句話,畢竟現(xiàn)時(shí)代的教育有著諸多讓人不滿意之處,在技術(shù)大爆發(fā)的時(shí)代,每一個(gè)人都受益于技術(shù)帶來的便利性,技術(shù)滲透于社會(huì)生活每一個(gè)角落,應(yīng)用于教育具有天然的合理性,人們對技術(shù)賦能教育是充滿期待的。人工智能不同于一般技術(shù),它攜帶有他者的意志,其開發(fā)應(yīng)用全面融入了社會(huì)價(jià)值觀[2]。當(dāng)其介入教育過程時(shí),人與人之間責(zé)、權(quán)、利關(guān)系出現(xiàn)的新變化,可能會(huì)產(chǎn)生教師意圖之外的結(jié)果。人工智能嵌入后,雖然不會(huì)像“汽車剎車失靈”那般的顯性化,但可能造成個(gè)人主體性被無意識侵害或社會(huì)權(quán)力結(jié)構(gòu)漂移,這類深層次的倫理問題,是人工智能賦能教育的理論和實(shí)踐研究必須警惕的。
教育作為培養(yǎng)人的社會(huì)活動(dòng),從技術(shù)學(xué)的角度而言,斯蒂格勒稱“教育是一套意識形態(tài)技術(shù),是一種傳輸與接受機(jī)制的記憶技術(shù),是個(gè)體與集體意識塑形及經(jīng)驗(yàn)時(shí)空定位筑模,其主要任務(wù)是在思想中進(jìn)行導(dǎo)向”[3]。人與其它物種的不同之處在于,人的生命歷程可以藉由“第三持存”保留下來并遺傳下去,這類持存可以超越基因汰選機(jī)制,在代際之間傳遞人類歷史的記憶,使人之為人。第三持存是區(qū)別于當(dāng)下體驗(yàn)(即第一持存)和事后意識(即第二持存)的存在,前兩類持存無法解決時(shí)間性問題,即心理學(xué)上所謂的遺忘,于是人類發(fā)明了用來表意的符號系統(tǒng)和時(shí)間偏倚的存儲(chǔ)介質(zhì),這個(gè)在傳播學(xué)上看似簡單的事實(shí),卻引發(fā)諸多哲人的關(guān)注,海德格爾稱之為“世界歷史性的物化”,波普爾將物化結(jié)果稱為“世界3”,其人類學(xué)意義在于,使得集體記憶可以被重新激活。
教育是社會(huì)持存重要的存在方式,在個(gè)體層面上以饋贈(zèng)方式將第三持存?zhèn)€性化,個(gè)體天然具有分享人類歷史財(cái)富的權(quán)利,在分享的同時(shí)完成自身的社會(huì)化,成為社會(huì)學(xué)意義上的人;在集體層面上,第三持存為人類共同擁有,是人類“必需的多余”。必需,是因?yàn)槿祟惏l(fā)展到技術(shù)文明階段,本能已經(jīng)退化到無法維持生物人在自然中存活,人類必須依靠不斷發(fā)展的技術(shù)維系自身的生存,技術(shù)革命(T-Revolution)取代生物進(jìn)化(B-Evolution);之所謂“多余”,是因?yàn)槠湓鲋挡贿^是在填充人的欲壑,而非滿足基本生存的需要。尼爾·波茲曼在《娛樂至死》中說,媒介的轉(zhuǎn)換過程中,很多東西并沒有得到復(fù)制,而是轉(zhuǎn)化成了另一種東西,最重要的那部分東西已經(jīng)丟失了[4],許多時(shí)候,技術(shù)更多地是作為一種娛樂性玩物而存在,其所承擔(dān)宗教、教育和生產(chǎn)的重任不過是一種托辭,至于其維護(hù)生存“必須性”更是蹤跡杳忽。
麥克盧漢說“一切技術(shù)都是身體和神經(jīng)系統(tǒng)增加力量和速度的延伸”[5],按照這個(gè)話語邏輯,我們可以說,人工智能是人的意志的延伸。美國哲學(xué)家Hilary Putnam在《理性、真理和歷史》一書提出過一個(gè)“缸中之腦”的思想實(shí)驗(yàn):將人的大腦移植出來放在一個(gè)培養(yǎng)缸里,用一臺(tái)超級計(jì)算機(jī)與大腦的末梢神經(jīng)相連,通過智能系統(tǒng)與其通訊,讓其發(fā)生記憶、遺忘和思考活動(dòng),并對外作出反應(yīng)[6],我們姑且把這個(gè)整體稱之為“腦機(jī)人”??苹眯≌f《三體》中有一個(gè)人物叫云天明,安樂死之后他的大腦被送到太空,大腦被外星文明復(fù)活成一個(gè)有自我意識的主體,小說后文有他的諸多神跡,是被讀者封神的角色。我們有理由認(rèn)為,這是人工智能的終極狀態(tài),把事物推到極致更容易看清問題的本質(zhì),在此情景下分析其可能產(chǎn)生的問題。
第一個(gè)問題:我們應(yīng)該將這個(gè)有自我意識的“腦機(jī)人”視為一個(gè)“人”,還是視為一個(gè)“機(jī)”?
第二個(gè)問題:假設(shè)缸中保存的是“我”的腦,“我”看到自己的“身體”是一堆機(jī)械,我該做何界定自我?
第三個(gè)問題:假如“我”感知到的一切,都是人們通過計(jì)算機(jī)虛擬出來的場景,我如何判斷周圍的世界是真是假?
把此三個(gè)哲學(xué)問題映射到教育現(xiàn)象中來:首先,任何教育都致力于培養(yǎng)和增強(qiáng)人的智能,盡管沒有任何一個(gè)教師承認(rèn)自己視學(xué)生為容器,但在教育過程中總是有意無意地向受教育者輸送自己認(rèn)可的知識、思想和觀念。雖然很多教師言說自己尊重學(xué)生,以學(xué)生為主體,但由于他確信自己所追求的是最有價(jià)值的,自己所經(jīng)驗(yàn)的是最真實(shí)的,于是越是用心于教育,越表現(xiàn)出強(qiáng)烈的主體性僭越,當(dāng)學(xué)生不認(rèn)可和不接受自己的理念時(shí),很難做到釋懷和毫無怨念。從一定的意義而言,此刻,教師并沒有真的將學(xué)生視為一個(gè)完整的人。
其次,學(xué)生在成長的過程中,對自己的身體、自己的課桌、自己的房間有明顯的邊界意識,但是隨著認(rèn)知領(lǐng)域的不斷擴(kuò)大,自己與世界的邊界愈發(fā)模糊,直至把自己消解于世界之中。不僅在意識層面上如此,物質(zhì)層面上也存在同樣的情況,物質(zhì)財(cái)富是個(gè)體存在的一種方式,學(xué)校教育主張個(gè)體要回饋和奉獻(xiàn)社會(huì)?,F(xiàn)世的人們,潛意識里也承認(rèn)并支持主體性的終極消解,日常話語“生不帶來死不帶去”“眾生皆過客”都蘊(yùn)含著這一思想。
再次,日常話語中有一個(gè)使用頻率極高的詞匯——認(rèn)真,意指嚴(yán)肅對待,“真”作為價(jià)值事物的三種基本類型之一,是指主體認(rèn)識與客體存在相符合,對“真”的認(rèn)識、認(rèn)知和把握,是近現(xiàn)代人們唯一無須為之辯護(hù)的追求,嚴(yán)肅對待作為認(rèn)真的首要含義,就是從此而來。仿真技術(shù)賦予了“假”合法性,人對自身的物理感覺、生理感知和心理感受實(shí)際上是模糊不清和邊界含混的[7],這使得人在物理、生理和心理的感知覺層面難以區(qū)分現(xiàn)實(shí)和虛擬現(xiàn)實(shí)、智能和人工智能,虛實(shí)難辨、真假難分將是未來人類面臨的新困境。與“認(rèn)真”相對,會(huì)出現(xiàn)一種新的文化形態(tài)“尚假主義”文化,用來表征那類超越實(shí)體的虛擬世界。
人工智能和教育都關(guān)涉人的存在,二者在識別、邏輯推導(dǎo)、經(jīng)驗(yàn)積累和與環(huán)境互動(dòng)等方面追求趨向一致,人工智能與教育的契合點(diǎn),同時(shí)也是悖論發(fā)生之處。人工智能作為新興技術(shù),其智能直接源自于人,當(dāng)其與教育發(fā)生關(guān)聯(lián)時(shí),又直接作用于人,這個(gè)過程中會(huì)不會(huì)出現(xiàn)類似器官移植和輸血一樣的排異反應(yīng),尚未可知。智能化汽車“剎車失靈”事件的主要原因是,駕駛員和剎車片之間不再是簡單的線性關(guān)系,其中嵌入了一個(gè)剎車智能管理系統(tǒng)。人工智能不同于其它技術(shù),它被允許有一定的自主性。對于教育人工智能而言,這種差異要求教育治理體系必須在柔性的教育道德規(guī)范和更具約束力的教育法律規(guī)范之間尋找立足點(diǎn),重建教育人工智能倫理體系。
技術(shù)體系化以后,人類的生存愈發(fā)依賴技術(shù),正如“和平需要由戰(zhàn)爭來維持”一樣,技術(shù)的負(fù)面效應(yīng)需要以技術(shù)的方式來解決,這種技術(shù)自治的后果導(dǎo)致了人類理性的迷失。教育在人類的自我拯救和作繭自縛之間游走,自身沉淪于技術(shù)座架又被寄希望作為社會(huì)救治的解藥。人工智能的介入會(huì)增強(qiáng)教育的盲目希翼感,繼而必然是巨大無措感。
(一)主體性悖論
智能系統(tǒng)的主體身份陷入失序狀態(tài)。教育志在引導(dǎo)人們過道德生活,道德生活意味著用理智來指導(dǎo)和控制行動(dòng),與自己的共同體和睦相處[8]。智能是道德的基礎(chǔ),共同體生活是道德結(jié)構(gòu)存在的場域,這是倫理學(xué)的基本原理。換句話說,沒有智能的事物是不會(huì)產(chǎn)生道德意識的,智能事物沒有共同體生活不會(huì)產(chǎn)生道德概念。若干“腦機(jī)人”放在一起,通過深度學(xué)習(xí)可以有智能的演化,但演化的結(jié)果會(huì)突破現(xiàn)代倫理規(guī)則,如微軟人工智能機(jī)器人Tay由預(yù)設(shè)“天真型人格”反轉(zhuǎn)為種族主義者,搜索引擎的智能會(huì)更大概率上將黑人姓名與犯罪記錄聯(lián)系在一起[9],將農(nóng)民工與社會(huì)底層現(xiàn)象聯(lián)系起來,人工智能基于大量案例習(xí)得這一規(guī)律,并將其揭示出來,文明人類會(huì)有意識地回避歧視的顯性化。人工智能系統(tǒng)缺乏共同體生活,不會(huì)產(chǎn)生主體自覺,沒有主體自覺就沒有主體和他者之分,自然不會(huì)產(chǎn)生由己及人的同理心和共在性。
現(xiàn)代倫理無法界定智能演化是“換代”還是“成長”,或許有人不覺得這是個(gè)倫理問題,是因?yàn)椤胺旁谝黄稹辈坏扔凇肮餐w生活”,共同體生活的重要性在于每個(gè)個(gè)體都浸潤在自我修正的反饋環(huán)境中,比如群體中會(huì)有“你把聰明勁兒用在正事上好不好”這樣的言語,這類反饋使得智能演化是受控的。血親群體是最典型的共同體生活的形態(tài),其內(nèi)含一套以輩分為內(nèi)容的制度。在共同體中生存,輩分關(guān)系是每個(gè)個(gè)體都必須熟悉和遵守的,每個(gè)個(gè)體都擁有兩個(gè)自我:個(gè)體自我和群體自我,兩類自我共同成就完整的主體性。其它所有的社會(huì)性群體,基本上都會(huì)參照血親群體構(gòu)造出類似輩分關(guān)系的層級制度。當(dāng)“腦機(jī)人”和學(xué)生們組成教育共同體后,學(xué)生是否需要給予“腦機(jī)教師”像人類教師一樣的敬畏和尊重?克隆技術(shù)被禁止用于人類,其主要原因,一方面是會(huì)產(chǎn)生倫理問題,另一方面是對身體的控制行為比較容易具有故意殺人和故意傷害行為的犯罪特征。這時(shí)候問題僅僅出現(xiàn)在身體層面,身體是精神所棲居之舍即精舍,其實(shí)棲居于身體之內(nèi)的那個(gè)存在——精神、靈魂、心……才是人之為人的核心要件。至于以何概念指代它,內(nèi)涵是否完全一致,不是本文討論的重點(diǎn),當(dāng)其以人工智能的形態(tài)被客觀化出來,之后產(chǎn)生的倫理問題會(huì)更難以解決。
目前,部分電子產(chǎn)品里的“小度”“小智”“小愛”“小布”“Siri”等智能系統(tǒng),多數(shù)被孩子們作為戲玩的對象。試想,若有兩臺(tái)分別以學(xué)界泰斗N先生和H先生命名的教育人工智能系統(tǒng),能夠進(jìn)行深度學(xué)習(xí),具有自我進(jìn)化機(jī)制,加之真人語音,人們該如何擺置?對于讀者諸君,自然可用一個(gè)“老師”或“教授”了之,不至于像帝制時(shí)代誤用不敬之語而因言獲罪,但兩位先生的碩博士研究生們,還有那些對先生充滿崇敬之情的人們,視其為師,還是視其為器?他們的下一代研究生們該稱智能先生為師爺么?或許有人讀到這個(gè)例子時(shí),會(huì)遲疑這樣的話題是否有對逝者不敬,這恰恰說明,倫理問題在人們潛意識的存在是普遍的和深刻的,心生糾結(jié)之緒也是必然的。
(二)權(quán)利悖論
傳統(tǒng)的技術(shù)設(shè)計(jì)、技術(shù)本身以及技術(shù)產(chǎn)出的結(jié)果,由專利法、產(chǎn)權(quán)法作為分配框架,體現(xiàn)出人類借助技術(shù)表達(dá)能力、表征勞動(dòng)量及其人際轉(zhuǎn)移關(guān)系,對技術(shù)的需求界定、流轉(zhuǎn)劃分和資源分配已經(jīng)具備成熟的法律、市場和習(xí)俗規(guī)則。人工智能的權(quán)利關(guān)系建立的政治合法性、歷史合理性與傳統(tǒng)技術(shù)不同,主體悖論引發(fā)的一個(gè)直接性結(jié)果就是權(quán)利爭議。試想,H教授的智能被眾弟子將其編程植入教育人工智能系統(tǒng),研發(fā)出“‘H先生人工智能教育系統(tǒng)”,人工智能從后期的各類交互中學(xué)習(xí),即基于外界輸入進(jìn)行自主風(fēng)險(xiǎn)評估并做出決策,由于沒有共同體生活,缺少鑠金之眾口的輿論機(jī)制,這種學(xué)習(xí)會(huì)放大人際親疏和對事物的喜惡偏見,點(diǎn)擊概率與疊加傳導(dǎo)技術(shù)將人類隱微的潛意識言行顯性化并強(qiáng)化,非程序設(shè)計(jì)者所能避免[10]。未來人工智能作品的版權(quán)爭議將會(huì)是棘手的問題,“H先生”認(rèn)為自己寫的論文和教學(xué)所產(chǎn)生的收益應(yīng)該屬于“自己”,教育人工智能系統(tǒng)的“造物主”該作何感想?另一方面,倘或該系統(tǒng)在工作中出現(xiàn)了差池,誰的人格、聲譽(yù)理應(yīng)為之買單?
與此相關(guān)的另外一個(gè)悖論是教育權(quán)問題。人們是否愿意把自己的孩子交給“腦機(jī)教師”進(jìn)行教育?在教育作為社會(huì)階層分篩器,考試文憑作為進(jìn)階職場入場券的背景下,對這個(gè)問題的回答可能會(huì)存在分歧。為了考取理想的大學(xué),犧牲身體健康已經(jīng)在所不惜,倫理問題變得無足輕重也在情理之中。當(dāng)必須在目的和手段之間作出選擇時(shí),人們對手段的認(rèn)可和接受往往會(huì)讓局外人感到不可思議。這個(gè)世界上沒有哪一條倫理能回避這樣一個(gè)事實(shí):在無數(shù)的情況下,獲得善的結(jié)果,一個(gè)人不得不采取道德上令人懷疑,或者至少有風(fēng)險(xiǎn)的手段。[11]還有,人們在網(wǎng)絡(luò)中傾向于夸張一點(diǎn)事實(shí)[12],一方面是因?yàn)檫@些事實(shí)并不直接與自己切身利害相關(guān),另一方面是因?yàn)閷ΜF(xiàn)實(shí)教育的無奈,只能寄希望于未來的可能途徑。人們對人工智能的美好期待仍保持高漲的勢頭,不少人對“腦機(jī)教師”持有歡迎和接納的姿態(tài)是可以理解的。
若是在上述問題上存在分歧,不妨再換一個(gè)問法:是否有人愿意把自己的嬰孩托付給“腦機(jī)人”養(yǎng)育?教育主張把人培養(yǎng)成為個(gè)性化的主體,強(qiáng)調(diào)“成為你自己”,反對把人訓(xùn)練成為工具?!澳X機(jī)教師”在知識的授遞方面被人們接受的可能性,遠(yuǎn)大于其在育人為人的方面被人們接受的可能性。且不論人們作何選擇,這背后隱藏的另一個(gè)問題暴露出來了,誰擁有教育權(quán)?邁克-波蘭尼曾指出,人類知道的遠(yuǎn)比其能表達(dá)出來的更多[13],人類教師長期吟詠斟酌地思考,能表達(dá)顯性化的不過是冰山一角,但其能在學(xué)生憤悱之際介入提點(diǎn)、啟發(fā)引導(dǎo),其終極關(guān)懷為意義與價(jià)值,更重要的是,教師始終以自己的人格作為擔(dān)保,對自己的言行負(fù)責(zé)。在這個(gè)層面上,無自我意識的智能系統(tǒng)只是一個(gè)工具,教育權(quán)本質(zhì)上是人類對自我命運(yùn)的把控。權(quán)利和責(zé)任是一對范疇,假若嬰兒的健康(且不說人生)出現(xiàn)了偏差,誰該對此負(fù)責(zé)呢?人工智能的“可追責(zé)性”①目前來看是一個(gè)大問題。
文明人無不置身于各種知識、思想和問題之中,一旦有閑暇便會(huì)思忖生命“終極意義”的有無及其內(nèi)容。當(dāng)“價(jià)值統(tǒng)一性”幻覺被現(xiàn)實(shí)擊碎時(shí),只能牢牢抱住價(jià)值分裂碎片,求得片刻安寧,猶如沉船事故中抓住一塊浮木,把孩子推上浮木或許是人最后的希望,若有人劃船經(jīng)過,人們決然會(huì)把孩子推向那個(gè)人,而不會(huì)想他是什么人。人們更愿意把自己的另一種存在方式即后代拋給人類,而不會(huì)選擇托付給機(jī)器養(yǎng)育。
(三)底線悖論
倫理的本質(zhì)是人與人之間的關(guān)系。東漢經(jīng)學(xué)大師鄭玄將其注釋為“倫,猶類也;理,分也”[14]。意為一類人與另一類人之間的邊界、分野。人工智能的教育倫理,即在教育場域中,人與智能技術(shù)的邊界及關(guān)系。歐盟委員會(huì)在2019年發(fā)布《人工智能倫理準(zhǔn)則》,參與起草工作的德國美因茨大學(xué)哲學(xué)教授托馬斯·梅辛格,對于此準(zhǔn)則“沒有禁止使用人工智能開發(fā)武器”表示批評[15],此批評所反映的就是底線問題。
從個(gè)人意愿的角度,技術(shù)服務(wù)于人類是沒有盡頭的。技術(shù),包括人工智能,對于個(gè)體而言具有無須辯護(hù)的意義和價(jià)值:保障生存、群體中勝出、加速欲望的實(shí)現(xiàn)、提供生活的便利等等。但是,教育研究不僅要從個(gè)人的角度來考慮問題,還應(yīng)當(dāng)從整個(gè)社會(huì)的角度來考慮。
當(dāng)從整個(gè)社會(huì)和人類的角度再去審視技術(shù),圖景截然不同:武器可以保全一個(gè)群體,卻能毀滅同類;生殖醫(yī)學(xué)可以保護(hù)母嬰的健康,卻消解了自然淘汰機(jī)制對人種的優(yōu)化作用;技術(shù)增強(qiáng)了人類改變世界的能力,人類某些功能的退化卻是必然的。人類通過技術(shù)擴(kuò)展自身功能的“強(qiáng)化策略”要比單純生物學(xué)變異潛能“進(jìn)化策略”要強(qiáng)大的多、迅速的多,疫苗的廣泛使用就是最好的例證,“自私的基因”決定了文明人不可能為了種的利益而放棄自身的存在[16],自殺和赴死許多時(shí)候是為了避免更大“惡”的結(jié)果。
個(gè)體和社會(huì),是觀照的技術(shù)倫理的兩個(gè)視點(diǎn),但若僅從此兩點(diǎn)出發(fā),仍不足以充分揭示“邊界”的合適位置。人工智能倫理,作為調(diào)和未來社會(huì)關(guān)系的準(zhǔn)則,需要考察個(gè)體與社會(huì)雙方對“人之本能欲望”控制權(quán)的博弈史。最早,人類和其它動(dòng)物一樣,行為方式完全受本能欲望支配,行為模式刻在基因里,這個(gè)階段,個(gè)體掌握著對本能欲望的控制權(quán);在過渡到社會(huì)性種群的過程中,個(gè)體壓制自己的本能欲望,服從群體的意志,典型標(biāo)志為“約”“理”“道”的出現(xiàn),即要求凡為人者必須遵守的規(guī)則,否則即被逐出群體甚至處死,這個(gè)階段,社會(huì)掌握著對本能欲望的控制權(quán);網(wǎng)絡(luò)技術(shù)為人類開辟了另一種存在空間,此空間為人之本能欲望的實(shí)現(xiàn)提供了新的可能,原有社會(huì)的倫理規(guī)則,一則不完全適用于網(wǎng)絡(luò)空間,二則其發(fā)揮作用的控制力量又主要來源于個(gè)體,這種情況下,社會(huì)對本能欲望的控制就出現(xiàn)空白區(qū)?,F(xiàn)代人們,經(jīng)受過文明的洗禮,竊以為,以“善”作為行動(dòng)的起點(diǎn)即可保障結(jié)果的圓滿性,豈不知“在通往地獄的道路上鋪滿了良好的愿望”②。2017年《人民日報(bào)》連發(fā)三篇評論,對智能平臺(tái)向用戶自動(dòng)推薦個(gè)性化內(nèi)容的互聯(lián)網(wǎng)業(yè)態(tài)提出了批評,指出智能化系統(tǒng)迎合用戶趣味,而使得智能平臺(tái)走向媚俗化[17]。從算法設(shè)計(jì)者的角度而言,智能化推薦是充分發(fā)揮計(jì)算機(jī)技術(shù)優(yōu)勢的創(chuàng)新之舉。一位程序員的算法策略猶如“洛倫茲的蝴蝶”,可能會(huì)對人類社會(huì)產(chǎn)生潛在的、深遠(yuǎn)的、不可預(yù)估的風(fēng)暴式影響,對其中的因果關(guān)聯(lián)解析,其難度恐怕超越了人類的認(rèn)知極限。
人工智能,主觀上旨于放大個(gè)體(善)的意志,實(shí)現(xiàn)服務(wù)于社會(huì)的目的,客觀上,其中攜帶的欲望成分也會(huì)被放大,這部分易于被其他個(gè)體所利用,導(dǎo)致欲望的泛濫不羈。人工智能不被禁止使用于開發(fā)武器,意味著天地良心的消解,人們可以藉技術(shù)之名,任由自己理性的作用,而隨便對陌生事物下斷語,根據(jù)自己的理性去設(shè)計(jì)行為規(guī)范,結(jié)果必然是英國歷史學(xué)家阿克頓所說的那樣:很多有良好動(dòng)機(jī)的人干了壞事[18]。猶如英國人把殖民視為向落后地區(qū)傳播文明。
(一)教育人工智能倫理的特殊性
人工智能倫理作為一般性的社會(huì)問題,其核心是不損害“人類”的利益。其困難之處在于,不同的群體會(huì)以自身的利益作為人類的利益,不同利益相關(guān)方會(huì)從各自角度提出相應(yīng)的準(zhǔn)則規(guī)范,如何協(xié)調(diào)統(tǒng)一構(gòu)建出被整個(gè)國際社會(huì)認(rèn)可的倫理框架。不同國家、民族、種族的人們對待親姻婚配、人類克隆和基因編輯等倫理問題,所持的態(tài)度比較相似。但是對于科學(xué)技術(shù)倫理的構(gòu)建,不同組織主導(dǎo)的倫理準(zhǔn)則,包括像歐盟、G20、經(jīng)合組織、UNESCO這樣國際組織,其工作也難免有失偏頗,如對待核武器、外星文明接觸,人們的意見就比較難以統(tǒng)一。此外,人們還會(huì)誤將短時(shí)期的利益作為未來的利益。因此,分散性和時(shí)效性是人工智能時(shí)代初期倫理準(zhǔn)則的必然特征。
教育作為全人類共有的事業(yè),涉及各階層人群,是最廣泛的非贏利性社會(huì)活動(dòng),教育倫理具有基礎(chǔ)性、深遠(yuǎn)性、不可逆性的特點(diǎn)。教育倫理,包括教育人工智能倫理,其內(nèi)容并不作為教學(xué)材料和教育政策直接進(jìn)入教育過程,而是以教育價(jià)值形態(tài)融入教師職業(yè)規(guī)范、德育評價(jià)、教師行為禁忌[19],以隱微的方式協(xié)調(diào)師生的行為和利益沖突,干預(yù)教育制度和政策,保障教育活動(dòng)在當(dāng)下和未來的社會(huì)系統(tǒng)中順利有效地開展,既柔性又野蠻地調(diào)節(jié)著教育與個(gè)體和社會(huì)之間張力的平衡。
(二)教育人工智能倫理的構(gòu)建路向
除了符合一般性社會(huì)倫理的基本規(guī)定,教育人工智能倫理還屬于技術(shù)倫理的范疇,其構(gòu)建過程可以參考科技倫理的范式。一般而言,科技倫理的構(gòu)建有三種模式:理論應(yīng)用模式、中層原則模式、決疑案例普遍化模式。
理論應(yīng)用模式采取自上而下的行動(dòng)路向,從某種形上的倫理觀或國家提倡的核心價(jià)值觀出發(fā),回應(yīng)具體的技術(shù)倫理問題。此模式適用于政府部門具有強(qiáng)力行政權(quán)的體制中,在“勢在必行”“迫在眉睫”的時(shí)候啟動(dòng)運(yùn)行,以官方文件的形式發(fā)布,對相關(guān)事態(tài)進(jìn)行監(jiān)管。教育人工智能倫理問題尚屬于未來事件,此模式近期不會(huì)啟動(dòng)。
中層原則模式,通常是自覺自發(fā)的行動(dòng)方式,主要由具有學(xué)術(shù)影響力和前瞻視野的人物提議,由某個(gè)組織機(jī)構(gòu)主導(dǎo),從倫理原則或社會(huì)基本訴求出發(fā),審視某類技術(shù)的價(jià)值內(nèi)涵、潛在風(fēng)險(xiǎn),形成相應(yīng)的倫理規(guī)范,成為某個(gè)專業(yè)、行業(yè)的指導(dǎo)原則。著名的“生命倫理學(xué)的四原則”就是這么來的[20]。此模式的產(chǎn)出,可以作為政策建議,是政府行政系統(tǒng)的重要智囊。未來教育人工智能準(zhǔn)則的出臺(tái),走此路向的可能性比較大。
決疑案例普遍化模式是自下而上的路向,社會(huì)上出現(xiàn)了影響廣泛的真實(shí)事件,用現(xiàn)行的法律條文無法調(diào)和,如虛擬學(xué)生華智冰[21]依靠“自己”的勞動(dòng)獲得了資產(chǎn),這份酬勞的歸屬問題;類似的,人工智能作品的版權(quán)問題;機(jī)器人與人類婚戀問題等。按照現(xiàn)代人們的倫理觀念,無論資產(chǎn)還是版權(quán),理應(yīng)歸屬該智能系統(tǒng)的開發(fā)者或擁有者,此觀念隱含的倫理原則是“華智冰不是人”。假設(shè)人工智能的發(fā)展達(dá)到了前文所描述的“腦機(jī)人”水平,他是否應(yīng)該成為道德接受者?是否應(yīng)該被要求承擔(dān)責(zé)任與義務(wù),這類問題就毋容回避。
人們認(rèn)識、理解并接受事件背后隱含的倫理原則,需要一個(gè)過程,但在特定事件的促逼之下,問題的解決又等不得,此種情況下決疑案例普遍化模式被啟動(dòng)。通過對以往相近案例的收集、比較和分析,將其納入已有的評判范式中比對,新型價(jià)值訴求和已有倫理原則在輿論催化作用下不斷雜糅,得出具有普適性的倫理準(zhǔn)則。
(三)教育人工智能倫理的核心內(nèi)容
前文描述的三個(gè)悖論有一個(gè)共同的內(nèi)核,即人類對人工智能主體性的認(rèn)定。人工智能越是接近人們的理想狀態(tài),這個(gè)問題就越凸顯,且不說達(dá)到正常人的水平,可以斷言:如若能達(dá)到一只寵物狗的智能水平,智能機(jī)器人足以讓大部分人癡迷。
哲學(xué)史上對主體的判定可以分為三類:亞里士多德式、康德式和戴維森式[22]。亞里士多德把主體規(guī)定為能夠?qū)徤魉伎肌碛袑?shí)踐智慧的存在。“智慧”是人們最寄希望予人工智能的,當(dāng)然也是人們最懷疑和不愿意承認(rèn)的地方;至于“審慎思考”,已經(jīng)不是問題,如各類棋牌博弈軟件的算法十分縝密,甚至表現(xiàn)出超越了人類的趨勢。用此標(biāo)準(zhǔn)來判定人工智能的主體性,焦點(diǎn)會(huì)集中在對“智慧”的理解與界定。教育會(huì)維護(hù)人類的尊嚴(yán),拒斥商業(yè)性的智慧理解及諸多不嚴(yán)肅的濫用。
康德以自由意志代替實(shí)踐智慧,將“理性”和“自律”作為判定主體的要件:在自由實(shí)踐領(lǐng)域,籍由理性能力獲得自律方為主體。如博弈機(jī)器人能否像棋牌教練那樣,在特殊的情境下表現(xiàn)出“承讓”。從算法的角度,似乎并不是問題,但是對“特殊情況”的判定可能會(huì)超程序員的預(yù)估,教練不會(huì)一味地打贏學(xué)生,示弱以鼓勵(lì)學(xué)生是常有的事。人工智能在理性層面上不存在任何問題,至少在目前的技術(shù)水平上,從它不受情感因素的困擾這個(gè)角度,可以肯定這一點(diǎn),但是其“自律”能力就難以把握了。中國俗語“十分聰明用七分,留下三分給兒孫”,且不論俗語的科學(xué)性如何,但它所透露的是,人對自我及未來關(guān)系的一種理解,通過對自我的掌控,也就是自律,以期與未來發(fā)生某種關(guān)聯(lián)。它遵循的是善理原則即尋求內(nèi)心的寧靜,而非真理原則即價(jià)值最大化。人工智能的進(jìn)化,本質(zhì)上是算法的設(shè)計(jì),遵循的是真理原則。如棋牌博弈軟件會(huì)打敗所有的對手,而不論對手是男女老幼、爺孫友朋。教育中存在“陪太子讀書”的現(xiàn)象,對先生的“自律”品行有特殊的要求,即便在現(xiàn)實(shí)的教育中,教師的自律依然是非常重要的素養(yǎng)。
戴維森將對主體的認(rèn)定與“行動(dòng)”及其“原因”聯(lián)系在一起。他認(rèn)為,主體的任何行動(dòng)都是有原因的,其原因是由前態(tài)度和相關(guān)信念組成的。前態(tài)度是指朝向某種行動(dòng)的意向狀態(tài),包括欲望、期待、習(xí)俗觀念等。而擁有相關(guān)信念意味著主體知道、相信、感知到他的行動(dòng)是前態(tài)度朝向的行動(dòng)[23]?!霸颉币馕吨鴮Α昂我匀绱恕钡睦斫馀c接受,與亞里士多德的“智慧”、康德的“自律”屬于相同的主體性范疇。人工智能系統(tǒng)是否會(huì)猶豫該不該做某事,是否具有行動(dòng)的意向性狀態(tài),程序員可以在算法上實(shí)現(xiàn)讓人工智能表現(xiàn)有點(diǎn)“像”,但在可遇見的未來,情感意志的數(shù)學(xué)模型很難精準(zhǔn)建立,智能機(jī)器人不會(huì)為了父母的期待而刻苦學(xué)習(xí),不會(huì)“為了中華之崛起而讀書”。
符合上述三種判定的主體,需要承擔(dān)相應(yīng)的道德責(zé)任與義務(wù),被人們普遍接受和認(rèn)可。除此之外,還有一種主體判定的理論,該理論認(rèn)為,所有的事件都處在因果鏈條之中,事件最直接的“因”可以被視為主體,如暴雨引發(fā)的人類所謂的災(zāi)害,導(dǎo)致人死亡,暴雨即是主體。但該主體并不承擔(dān)我們通常意義上的道德“責(zé)任”,它只是自然發(fā)生的事件,不具備承擔(dān)責(zé)任的能力[24]。表面上看來,此理論似乎并無太大的價(jià)值,既解決不了實(shí)際的問題,也未表現(xiàn)出主體性哲學(xué)應(yīng)有的睿智。但恰恰是這個(gè)不高明的理論,可以給許多現(xiàn)實(shí)的問題一個(gè)說辭:野生動(dòng)物傷人,要不要處死?寵物狗不拴繩恐嚇到小朋友,如何劃分責(zé)任?汽車剎車沒有達(dá)到駕駛員預(yù)期的效果,是非孰應(yīng)?洪澇疫情導(dǎo)致的損失,是否在理賠范圍內(nèi)?等等。我們稱此理論為“非人主體說”,此理論對教育人工智能倫理的構(gòu)建有很大啟發(fā)。
首先,永遠(yuǎn)不要把人工智能擺放在人類“主體”的位置,必須立場鮮明地將其視為機(jī)器??苹秒娪爸校瑱C(jī)器人有了人類的情感,當(dāng)科學(xué)家、生產(chǎn)商將其銷毀時(shí),賺得了不少觀眾的眼淚,這是因?yàn)楸藭r(shí)機(jī)器人代入了觀眾至親的主體位置;其次,人永遠(yuǎn)對自己的行為結(jié)果負(fù)責(zé),這是教育最核心的倫理觀念之一。將暴雨作為主體,意義在于,對不可知事物的祛魅,減少人類對神秘力量的恐懼。駕駛配備人工智能技術(shù)的汽車發(fā)生了事故,簡單地歸因于技術(shù)缺陷,是不完全合理的。作為能動(dòng)的、理性的主體,駕駛員應(yīng)該事先充分熟悉汽車的性能,如果一味地用自己習(xí)慣的方式對待新事物,并且指望新事物適應(yīng)自己,是不理智的。且莫說機(jī)器,即便是人,可能也無法完全符合你的意愿。再次,人應(yīng)該尊重自己,相信自己配的上最高尚的東西[25]。
教育需要提醒人們,退回到位卑一等的動(dòng)物、智能人造物,并非幸福之路,生命體發(fā)展的終極形態(tài)是以意識的形態(tài)存在,它的發(fā)展會(huì)加速人類對終極關(guān)懷的靠近,這才是最高尚的存在,也是一條無法逃離的不歸之路。
作為“人造物”,要求人工智能為人類服務(wù)是最基本的倫理準(zhǔn)則,這一點(diǎn)在任何時(shí)候都成立。人工智能和其它工具的差別在于其“自主性”,這種自主性的危險(xiǎn)之處是它可能和某個(gè)人之間發(fā)生有個(gè)體意義的關(guān)聯(lián),而致個(gè)體脫序于現(xiàn)實(shí)社會(huì)。還有,泛在而低廉的存儲(chǔ)設(shè)備容易檢索提取過去的信息,這會(huì)徹底打破“記憶”與“遺忘”在人類社會(huì)中長期以來維持的平衡狀態(tài)[26]。當(dāng)類似的事件達(dá)到一定的數(shù)量時(shí),就不再是簡單的道德問題了,人類就不得不重構(gòu)已有的倫理體系。
“腦機(jī)教師”是教育人工智能的終極形態(tài),它和人們期待的人工智能產(chǎn)品有著相同的本質(zhì)。人工智能技術(shù)包含的計(jì)算機(jī)、數(shù)學(xué)、邏輯學(xué)、心理學(xué)、社會(huì)學(xué)知識與技術(shù)具有無限的拓展空間,人工智能產(chǎn)品也就具有各種發(fā)展可能,我們無法斷言人工智能的可能形態(tài)。在可以預(yù)見的未來“腦機(jī)人”不會(huì)出現(xiàn),我們可以坦然將人工智能視為機(jī)器。因此,對人工智能倫理問題的思考,不可能找到終極寧止點(diǎn)而一勞永逸。從現(xiàn)有的倫理框架出發(fā),做加減法依然是當(dāng)前最現(xiàn)實(shí)的策略。未來,根據(jù)人工智能發(fā)展的具體水平,制定有針對性的倫理準(zhǔn)則為時(shí)不晚。
參考文獻(xiàn):
[1] 肖峰.人工智能與認(rèn)識論的哲學(xué)互釋:從認(rèn)知分型到演進(jìn)邏輯[J].中國社會(huì)科學(xué),2020,(6):49-71+205-206.
[2] 宋建寶.歐盟人工智能倫理準(zhǔn)則概要[N].人民法院報(bào),2019-04-19(08).
[3] [法]斯蒂格勒.技術(shù)與時(shí)間3:電影的時(shí)間與存在之痛的問題[M].南京:譯林出版社,2012.209.
[4] [美]波茲曼.娛樂至死.童年的消逝[M].桂林:廣西師范大學(xué)出版社,2009.66.
[5] [加]馬歇爾·麥克盧漢.何道寬譯.理解媒介:論人的延伸[M].南京:譯林出版社,2019.4.
[6] [美]普特南.童世駿譯.理性,真理與歷史[M].上海:上海譯文出版社,2005.33.
[7] 段偉文.虛擬現(xiàn)實(shí)技術(shù)的社會(huì)倫理問題與應(yīng)對[J].科技中國,2018,(7):98-104.
[8] [美]約翰·杜威,詹姆斯·H.塔夫斯.方永譯.倫理學(xué)[M].北京:商務(wù)印書館,2019.44.
[9] 谷學(xué)強(qiáng).搜索引擎中的倫理失范問題與治理研究[J].河南工業(yè)大學(xué)學(xué)報(bào)(社科版),2017,(6):61-66.
[10] 賈開,薛瀾.人工智能倫理問題與安全風(fēng)險(xiǎn)治理的全球比較與中國實(shí)踐[J].公共管理評論,2021,(1):122-134.
[11] [德]馬克斯·韋伯.馮克利譯.學(xué)術(shù)與政治[M].上海:生活·讀書·新知三聯(lián)書店,1998.
[12] David B.Whittier,周夢雅.網(wǎng)絡(luò)倫理教育與網(wǎng)絡(luò)心理[J].中國電化教育,2012,(3):1-7.
[13] Polanyi,M.The Tacit Dimension [J].Chicago:University of Chicago Press,2009.
[14] 蔡元培.中國倫理學(xué)史[M].北京:商務(wù)印書館,2012.33.
[15] None.歐盟發(fā)布人工智能倫理準(zhǔn)則[J].傳感器世界,2019,25(4):35.
[16] [英]里查德·道金斯.盧允中譯.自私的基因[M].長春:吉林人民出版社,1998.33.
[17] 人民日報(bào).三評算法推薦[EB/OL].http://opinion.people.com.cn/ GB/8213/420650/422761/index.html,2021-07-21.
[18] 王永章.過高的道德標(biāo)準(zhǔn)阻礙我們警惕人性之惡[J].人民論壇,2008,(13):7.
[19] 王正平.以新時(shí)代教育倫理道德引導(dǎo)我國教育現(xiàn)代化[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,49(1):71-82.
[20] 范瑞平,蔡昱等.關(guān)于生命倫理學(xué)四原則理論的新討論[J].中國醫(yī)學(xué)倫理學(xué),2021,34(4):395-407.
[21] 新浪科技.對話“華智冰”團(tuán)隊(duì):能力相當(dāng)于人類多少歲?她會(huì)有情感嗎 [DB/OL].https://baijiahao.baidu.com/s id=170285842189018 5670&wfr=spider&for=pc,2021-07-25.
[22] Thomas Mowers.On the moral agency of computers [J]. Topoi,2013,(32):229-230.
[23] Donald Davidson.Actions,Reasons and Causes [A].Essays on Actions and Events [C].Oxford:Clarendon Press,2001.
[24] 戴益斌.人工智能倫理何以可能——基于道德主體和道德接受者的視角[J].倫理學(xué)研究,2020,(5):96-102.
[25] [德]弗里德里?!ず诟駹?李智謀編譯.小邏輯(黑格爾對聽眾的致辭)[M].重慶:重慶出版社,2006.
[26] 鄒太龍,易連云.舍恩伯格大數(shù)據(jù)教育應(yīng)用思想的倫理關(guān)懷[J].中國電化教育,2020,(12):55-62.
作者簡介:
李子運(yùn):教授,博士,碩士生導(dǎo)師,研究方向?yàn)榻逃夹g(shù)基本理論、教育技術(shù)哲學(xué)。
Ethical Thinking of Artificial Intelligence Empowering Education
Li Ziyun(Department of Educational technology, Jiangsu Normal University, Xuzhou 221006, Jiangsu)
Abstract: The logic of the fit between education and artificial intelligence at the technical level reveals the three paradoxes facing the ethics of educational artificial intelligence: the Subjectivity Paradox, the Rights Paradox and the Base-line Ethic Paradox. The ethics of educational artificial intelligence is fundamental, far-reaching and irreversible, which regulates the balance of tension between education and individuals and society. The construction of educational artificial intelligence ethics can refer to three models: The Theory Application Model, The Middle Level Principle Model and The Doubtful Cases Generalized Model. No matter which model we choose, the key to solving the paradox problem is to adopt “Non-human subject theory”. We should never regard artificial intelligence as a human subject and must firmly treat it as a machine; Humans can always be responsible for the results of their actions; People should respect themselves and believe that they deserve the noblest things. Only in this way will it not fall into an ethical dilemma with a machine that is inferior to the human being.
Keywords: Educational Artificial Intelligence; educational ethics; subjectivity paradox; “non-human subject theory”
收稿日期:2021年8月1日
責(zé)任編輯:李雅瑄