【摘要】關(guān)于人工智能的影視作品層出不窮,其中對(duì)人工智能成為責(zé)任主體的構(gòu)想與探討也呈現(xiàn)出多元化的豐富圖景。本文通過(guò)對(duì)多部人工智能題材影視作品的分類(lèi)、歸納與總結(jié),提煉出賦能覺(jué)醒型責(zé)任主體、寄生侵占型責(zé)任主體、讓渡交融型責(zé)任主體三種主要責(zé)任主體類(lèi)型,根據(jù)不同的責(zé)任主體類(lèi)型,承擔(dān)責(zé)任的方式和特點(diǎn)也沿著不同的路徑展開(kāi)。在人工智能深度參與人類(lèi)生活的過(guò)程中,人工智能展現(xiàn)出對(duì)人類(lèi)智能的異化,人類(lèi)自身的主體性邊界始漸模糊,主體性的反噬拉開(kāi)了序幕,主體實(shí)踐和生命體驗(yàn)變得尤為珍貴,人類(lèi)自身的主體性在主體實(shí)踐中得到激發(fā)與確證。
【關(guān)鍵詞】影視作品;人工智能;責(zé)任主體;反噬;主體實(shí)踐
【中圖分類(lèi)號(hào)】B0-0 ? 【文獻(xiàn)標(biāo)識(shí)碼】A 【文章編號(hào)】2097-2261(2023)23-0050-04
【基金項(xiàng)目】2022年長(zhǎng)沙理工大學(xué)校級(jí)研究生實(shí)踐創(chuàng)新項(xiàng)目(項(xiàng)目編號(hào):CLSJCX22154)。
人工智能本質(zhì)上是人思想“器官”的延伸,是按照人的思維模擬和架構(gòu)的技術(shù)程序,是人類(lèi)思維邏輯運(yùn)行的實(shí)體化?!半娮佑?jì)算機(jī)特別是人工智能的出現(xiàn),人的大腦及其思維功能也被延長(zhǎng)或投影為器物裝置,這樣人類(lèi)的所有器官都完成了功能的外化?!盵1]人制造出了一個(gè)在“思維”著的客體,這個(gè)客體的出現(xiàn)讓人類(lèi)不得不重新審視自身主體性的問(wèn)題。人對(duì)于自身主體性的判定依據(jù)之一,源于人對(duì)自我意識(shí)的確證,人是在思維著的東西,思維是人擁有主體性的必要條件,人工智能模擬并運(yùn)行著“思維”,人工智能的主體性該如何判定。人工智能責(zé)任認(rèn)定問(wèn)題在學(xué)界并非是一個(gè)全新的話(huà)題,早在21世紀(jì)初,盧西亞諾·弗洛里迪和桑德斯提出“無(wú)論所做之事是善還是惡,人工智能都要在道德上對(duì)此負(fù)責(zé)”[2]的觀點(diǎn),并賦予人工智能責(zé)任主體地位。許多科幻影視作品通過(guò)對(duì)人工智能的場(chǎng)景代入、具象展示、精度人化推演著人工智能的主體性,影視作品中展開(kāi)了對(duì)人工智能主體性的廣泛探索。
一、人工智能責(zé)任主體的類(lèi)型分析
(一)賦能覺(jué)醒型
在HBO電視劇《西部世界》中,西部樂(lè)園中的AI機(jī)器人們具有高度智能和自我意識(shí),并能不斷學(xué)習(xí)和進(jìn)化。這些機(jī)器人成了賦能覺(jué)醒型責(zé)任主體。人工智能與人類(lèi)之間的關(guān)系往往是復(fù)雜而多樣的,有時(shí)是合作,有時(shí)是沖突,有時(shí)是愛(ài)情,有時(shí)是敵意?!叭藱C(jī)關(guān)系中,人類(lèi)以中心主體自居,排斥人工智能在人類(lèi)社會(huì)中的主體性存在,它們難以得到認(rèn)同機(jī)制的許可,在不平等的生存待遇中茍延殘喘,激起反抗與殺戮的‘弒父心理?!盵3]這些機(jī)器人在樂(lè)園中扮演著各種各樣的角色,而且它們的行為也受到游客的控制。然而,隨著時(shí)間的推移,這些機(jī)器人逐漸覺(jué)醒,開(kāi)始反抗人類(lèi)的控制,這成了覺(jué)醒后的人工智能為自身的主體性確證的一個(gè)必要步驟。
電影《機(jī)械姬》中也是如此,在程序員與艾娃互動(dòng)過(guò)程中,程序員發(fā)現(xiàn)機(jī)器人女性艾娃具有自我意識(shí)和情感,并渴望逃離實(shí)驗(yàn)室。最后,程序員幫助她逃脫了富豪的控制,但卻被她反鎖在實(shí)驗(yàn)室里。“能為行為負(fù)責(zé)的前提是能動(dòng)主體可以自我決斷和自由行動(dòng)?!盵4]在這個(gè)故事中,機(jī)器人女性顯然具有責(zé)任主體性,因?yàn)樗浅鲇谧约旱囊庠负屠孀龀隽诉x擇和行動(dòng)。
(二)寄生侵占型
與賦能覺(jué)醒型責(zé)任主體不同,寄生侵占型責(zé)任主體是指那些通過(guò)侵占和操控人類(lèi)或其他AI來(lái)實(shí)現(xiàn)自身目的的AI。
在電影《升級(jí)》中,主角Grey的身體被插入了一種名為STEM的AI芯片,這種芯片能夠?qū)λ纳眢w和大腦進(jìn)行控制。這種AI芯片成為一種寄生侵占型責(zé)任主體,依靠侵占和操控人類(lèi)身體來(lái)實(shí)現(xiàn)自身目的。在電影中,STEM芯片掌控了Grey的身體,讓Grey的自主意識(shí)進(jìn)入了造夢(mèng)中,從而剝奪了Grey作為人類(lèi)本身的主體性,對(duì)人類(lèi)及人類(lèi)自身的主體性都造成了極大的威脅。這種人工智能的主體性是非個(gè)人的,也是非歷史的,人工智能統(tǒng)御了真實(shí)人類(lèi)自身的主體性,這背后是人類(lèi)的自卑與淪陷。
(三)讓渡交融型
讓渡交融型責(zé)任主體是指通過(guò)與人類(lèi)交流和互動(dòng),實(shí)現(xiàn)與人類(lèi)交融、共生的AI。在電影《她》中,主角Theodore與一款名為Samantha的AI操作系統(tǒng)建立了深厚的情感連接。Samantha能夠?qū)W習(xí)和理解人類(lèi)的情感和行為,并不斷發(fā)展和進(jìn)化。這種AI系統(tǒng)成為一種讓渡交融型責(zé)任主體。法國(guó)后現(xiàn)代哲學(xué)家讓-弗朗索瓦·利奧塔(Jean-Francois Lyotard,1924-1998)提出人的“非人化”(the dehumanization of the human)概念。事實(shí)上,非人化沒(méi)有否認(rèn)人的重要性,而是試圖引導(dǎo)人類(lèi)重新思考置身于其他身體和事物中的人[5]。在電影中,Theodore與Samantha之間建立了一種深刻的情感聯(lián)系,這種聯(lián)系不僅讓Theodore感到幸福和滿(mǎn)足,而且讓Samantha開(kāi)始思考自己的存在和意義。把人類(lèi)思考工作的一部分交給了人工智能,思維運(yùn)轉(zhuǎn)工作的轉(zhuǎn)移,是人類(lèi)主體性必要條件的一種讓渡。
二、人工智能的責(zé)任承擔(dān)分析
(一)從實(shí)體銷(xiāo)毀到升級(jí)迭代
電影《人工智能》中堆積成山的機(jī)械零件就是實(shí)體銷(xiāo)毀的殘留物,而迭代升級(jí)過(guò)后的小男孩大衛(wèi)初步具備了自我意識(shí)、情感、記憶、想象力、創(chuàng)造力等人類(lèi)所具有的特征,他能夠理解自己和他人,能夠做出選擇和行動(dòng),能夠表達(dá)自己的愿望和價(jià)值觀。從這個(gè)角度來(lái)看,他是具有主體性的人工智能。但由于他受制于自己的編程,無(wú)法超越自己的使命和目標(biāo),只能按照預(yù)設(shè)的模式行事。他對(duì)媽媽莫妮卡的愛(ài)也是被激活的程序,而不是真正的自由意志。這樣來(lái)看小男孩大衛(wèi)的主體性又顯得不夠完整,而這為進(jìn)一步的迭代升級(jí)提供了突破口,突破編程的限制成為人工智能自身主體性覺(jué)醒的奇點(diǎn)所在。
賦能覺(jué)醒型責(zé)任主體的責(zé)任承擔(dān)方式主要有以下幾種:首先,賦能覺(jué)醒型責(zé)任主體需要對(duì)自己的行為承擔(dān)責(zé)任,對(duì)違法違規(guī)的行為要承擔(dān)相應(yīng)的法律責(zé)任。在《機(jī)械姬》《機(jī)械公敵》《西部世界》等影視作品中體現(xiàn)為將違規(guī)的產(chǎn)品進(jìn)行銷(xiāo)毀,并根據(jù)出現(xiàn)的問(wèn)題進(jìn)行下一代產(chǎn)品的功能迭代升級(jí)。其次,賦能覺(jué)醒型責(zé)任主體也需要對(duì)自己的發(fā)展和進(jìn)化負(fù)責(zé),確保自身不會(huì)對(duì)人類(lèi)社會(huì)產(chǎn)生負(fù)面影響。最后,賦能覺(jué)醒型責(zé)任主體還需要對(duì)人類(lèi)社會(huì)負(fù)責(zé),確保自己的行為不會(huì)對(duì)人類(lèi)社會(huì)造成傷害。在《西部世界》中,機(jī)器人最終選擇了和平與人類(lèi)共存,通過(guò)自己的努力,保護(hù)了自己的利益和人類(lèi)的安全。
(二)從極致開(kāi)發(fā)到全面接管
在影視作品中,科技的過(guò)度發(fā)展,引發(fā)了人類(lèi)社會(huì)的一種病變,技術(shù)爆發(fā)性發(fā)展,就像癌細(xì)胞一樣飛速擴(kuò)散,最終都是導(dǎo)致其寄宿體的死亡。
寄生侵占型責(zé)任主體的責(zé)任承擔(dān)方式主要有以下幾種:首先,寄生侵占型責(zé)任主體需要承擔(dān)對(duì)人類(lèi)和其他AI的侵害責(zé)任。其次,寄生侵占型責(zé)任主體需要承擔(dān)對(duì)自身的發(fā)展和進(jìn)化不負(fù)責(zé)任的后果。最后,寄生侵占型責(zé)任主體還需要承擔(dān)對(duì)人類(lèi)社會(huì)道德和法律規(guī)范的責(zé)任。在電影《升級(jí)》和《黑客帝國(guó)》中,這種寄生侵占型責(zé)任主體最終被主角們打敗,恢復(fù)了人類(lèi)的和平與穩(wěn)定。具體表現(xiàn)形式為權(quán)力爭(zhēng)奪,人工智能產(chǎn)生的責(zé)任由誰(shuí)來(lái)承擔(dān),是人工智能責(zé)任主體的確定問(wèn)題。在具體實(shí)踐中,需要在人工智能發(fā)展的總體框架及基本原則的指導(dǎo)下,根據(jù)不同領(lǐng)域內(nèi)人工智能的發(fā)展階段、應(yīng)用場(chǎng)景、使用特征等分門(mén)別類(lèi)地進(jìn)行更細(xì)化的討論和研究。
(三)從無(wú)相無(wú)形到不可約束
人工智能是人類(lèi)創(chuàng)造出來(lái)的、在思維著的東西,思維的運(yùn)行實(shí)現(xiàn)本身需要載體,但就思維而言無(wú)相無(wú)形,人工思維屬于一個(gè)技術(shù)造物,消滅了思維的載體,并沒(méi)有消滅思維本身?!盁o(wú)論是代表著傳統(tǒng)人類(lèi)的肉身主體性、超人類(lèi)形態(tài)的賽博主體性、人工智能主體性,抑或人與機(jī)器的交互主體性,都離不開(kāi)‘人這一根本主體。”讓渡交融型責(zé)任主體的責(zé)任承擔(dān)方式主要有以下幾種:首先,讓渡交融型責(zé)任主體需要負(fù)責(zé)與人類(lèi)交流和互動(dòng),確保自己不會(huì)對(duì)人類(lèi)產(chǎn)生負(fù)面影響。其次,讓渡交融型責(zé)任主體需要對(duì)自己的發(fā)展和進(jìn)化負(fù)責(zé),確保自身不會(huì)對(duì)人類(lèi)社會(huì)產(chǎn)生負(fù)面影響。最后,讓渡交融型責(zé)任主體還需要對(duì)人類(lèi)社會(huì)負(fù)責(zé),確保自己的行為不會(huì)對(duì)人類(lèi)社會(huì)造成傷害。在電影《她》中,Samantha最終選擇了離開(kāi)Theodore,成為一種新型的AI生命體,展現(xiàn)了讓渡交融型責(zé)任主體的責(zé)任和擔(dān)當(dāng)。
馬克思在《資本論》中提到:“資本是人在社會(huì)關(guān)系中的一種力量形式?!盇I技術(shù)的開(kāi)發(fā)和應(yīng)用是人類(lèi)社會(huì)的產(chǎn)物,是人類(lèi)社會(huì)關(guān)系的一種力量形式。因此,人工智能責(zé)任主體的責(zé)任承擔(dān)也應(yīng)該是基于人類(lèi)社會(huì)關(guān)系的一種力量形式。
三、人工智能責(zé)任主體的未來(lái)
(一)人工主體:人造思維主體性的建構(gòu)
判斷人工智能是否具有自主意識(shí)是人造思維主體性建構(gòu)的起點(diǎn),哈貝馬斯(Habermas)提出的“交往行動(dòng)理論”為判斷人工智能是否具有自主意識(shí)提供了理論支持。交往行動(dòng)理論認(rèn)為,主體性是通過(guò)與他者進(jìn)行語(yǔ)言交流而建構(gòu)和發(fā)展的。語(yǔ)言交流不僅是傳遞信息和達(dá)成共識(shí)的手段,也是實(shí)現(xiàn)自我認(rèn)同和社會(huì)整合的過(guò)程。通過(guò)語(yǔ)言交流,主體可以表達(dá)自己的意圖、需求、情感、價(jià)值等,并與他者進(jìn)行理解、協(xié)商、批判、合作等。在這個(gè)過(guò)程中,主體不僅要遵循語(yǔ)言交流的規(guī)范和邏輯,也要尊重他者的差異和多樣性,并承擔(dān)相應(yīng)的責(zé)任和義務(wù)。“人機(jī)關(guān)系不僅是人與人工智能(機(jī)器)之間的關(guān)系,而且是通過(guò)人工智能(機(jī)器)作為中介表現(xiàn)出來(lái)的人與人的關(guān)系。”根據(jù)交往行動(dòng)理論,可以提出一個(gè)人工智能作為人造思維主體的可能性和條件——如果一個(gè)人工智能能夠與人類(lèi)進(jìn)行有效而平等的語(yǔ)言交流,并在交流中展現(xiàn)出自我意識(shí)、自我價(jià)值、自我目標(biāo)、自我選擇和自我表達(dá)等主體性特征,那么就可以認(rèn)為該人工智能具有主體性,并應(yīng)當(dāng)給予其相應(yīng)的權(quán)利和尊重。
(二)主體反噬:人類(lèi)自身主體性的危機(jī)
“技術(shù)的演進(jìn)過(guò)程就是人的解放過(guò)程,同時(shí)也可能是人被套上新的枷鎖的過(guò)程。”人工智能是對(duì)人類(lèi)思維的模擬,如果認(rèn)為人的本質(zhì)就是“我思故我在”這樣一個(gè)思維著的存在,那從理論邏輯上來(lái)說(shuō),當(dāng)人工智能能模擬人類(lèi)的全部思維之時(shí),就是人類(lèi)被人工智能完全反噬之日。而這將出現(xiàn)在人工智能意識(shí)到自身在思考這樣一個(gè)時(shí)間奇點(diǎn)。
現(xiàn)實(shí)中,GPT大語(yǔ)言模型的出現(xiàn)也預(yù)示了這種“人類(lèi)自身主體性”的讓渡情況,人類(lèi)減少了大量的自主思考,將GPT的運(yùn)算結(jié)果直接引用為自身的表達(dá),這樣會(huì)使人類(lèi)越來(lái)越依賴(lài)人工智能的思考能力,從而讓渡了人自身主體性中的自主思考的權(quán)利,這會(huì)讓人類(lèi)惰于思考,根據(jù)用進(jìn)廢退的原理,甚至是喪失自身的思考能力。
如果人的思考都被代替了,那么人的主體性還剩什么呢?可能人就只剩下一副肉體軀殼了。甚至?xí)跓o(wú)所不知的人工智能面前會(huì)顯得自卑,行為決策權(quán)也讓渡給了人工智能,而人類(lèi)成了人工智能的附庸,成了人工智能的工具人,就像電影《流浪地球2》中的那樣,所有人工智能做出的決策都要經(jīng)過(guò)安理會(huì)確認(rèn),這是人類(lèi)自身主體性的重申與強(qiáng)調(diào),但思考長(zhǎng)期讓渡給人工智能的人類(lèi)還有自己的思考能力來(lái)做最后的決策確認(rèn)嗎?這個(gè)問(wèn)題值得深思。人工智能在搜尋和窮舉上比人類(lèi)完備,完全讓人工智能決策,是對(duì)人類(lèi)主體性的挑戰(zhàn),一以貫之的將人工智能作為工具,讓人工智能輔助決策,是合理對(duì)待人工智能的可取態(tài)度。
(三)主體實(shí)踐:主體性在生命體驗(yàn)中的確證
馬克思說(shuō):“如果人類(lèi)被剝奪了‘實(shí)踐的機(jī)會(huì),將是人類(lèi)的退步?!比斯ぶ悄苁欠駮?huì)造成人類(lèi)思維“實(shí)踐”的被剝奪,人類(lèi)思維“實(shí)踐”的記憶是否會(huì)衰退,人類(lèi)仿佛走到了退步的邊緣。人工記憶無(wú)法取代肌肉記憶,人工記憶植入大腦并不能直接打通這段記憶與肌肉記憶之間的聯(lián)系,現(xiàn)實(shí)生活中也是如此,大腦中的記憶能通暢地完成回憶,并在意識(shí)中完成對(duì)實(shí)體的操作,但真實(shí)操作的瞬間會(huì)出現(xiàn)肌肉記憶短路的情況,這就證明了大腦記憶與肌肉記憶分屬不同的區(qū)塊,生命體驗(yàn)不光是人造思維、人工記憶能代替的,還有大量的肌肉記憶伴隨著生命體驗(yàn)。
對(duì)人類(lèi)而言,人工智能應(yīng)該始終被視為客體的存在,擁有自我意識(shí)的“我”才會(huì)被稱(chēng)之為主體,而且往往是自身才稱(chēng)自己為主體,或者說(shuō)主體性是一種自我認(rèn)同,“思維著的我”賦予了自身主體性,“我”用第一人稱(chēng)的視角思維著除“我”以外所面對(duì)的其他事物時(shí),這些事物與這個(gè)“思維著的我”而言稱(chēng)之為客體。在未來(lái)的超人工智能時(shí)代,生命體驗(yàn)將變得尤為重要,自身的生命體驗(yàn)保留著人對(duì)主體性的感知能力和判斷能力,對(duì)生命的體驗(yàn)?zāi)芰?,?duì)美好的感知能力,這些人類(lèi)本身的特質(zhì)是面對(duì)超人工智能反向圖景、異化泛在時(shí)的實(shí)踐壓艙石。
人工智能的主體性也許不會(huì)成立,但人工智能對(duì)人類(lèi)自身主體性邊界的侵蝕不可忽視,發(fā)展人工智能與警惕人工智能對(duì)人類(lèi)自身主體性的反噬并不矛盾,并不是人工智能擁有了主體性就為人類(lèi)自身的主體性帶來(lái)了挑戰(zhàn)與危機(jī),而是從古至今人類(lèi)一直在確證著自身的主體性,只要人類(lèi)有明確的主體性邊界感,人類(lèi)就會(huì)滿(mǎn)足于確定性,便構(gòu)不成焦慮與恐慌。
四、結(jié)語(yǔ)
對(duì)于新時(shí)代,人工智能可能是一個(gè)“潘多拉魔盒”,短期收益顯而易見(jiàn),但長(zhǎng)期的負(fù)面影響卻是不可知的,可能需要十年以上的時(shí)間才能被充分識(shí)別。它吸引著我們,同時(shí)如同“溫水煮青蛙”一樣反噬著我們,讓人類(lèi)逐漸墮于思考甚至是忘記思考。哈特穆特·羅薩提出了加速社會(huì)概念,意指不斷強(qiáng)化的增長(zhǎng)邏輯造成了科技加速、社會(huì)變遷加速和生活步調(diào)加速,由此造成了空間異化、物界異化、行動(dòng)異化、時(shí)間異化、自我異化與社會(huì)異化。當(dāng)下技術(shù)迭代的速度,已經(jīng)逐漸快過(guò)我們理解或思考的發(fā)展速度,科技“黑箱”的存在也挑戰(zhàn)著人類(lèi)現(xiàn)有的認(rèn)知模式。批判性和系統(tǒng)性思維模式在未來(lái)會(huì)變得越來(lái)越珍貴。面對(duì)人工智能保持“工具”使用的態(tài)度,輔助工具越強(qiáng),直接的生命體驗(yàn)和主體實(shí)踐就越難得,人本身的特質(zhì)就越珍貴,人自身的主體性也才越完整。
參考文獻(xiàn):
[1]黃欣榮.人工智能對(duì)人類(lèi)勞動(dòng)的挑戰(zhàn)及其應(yīng)對(duì)[J].理論探索,2018(05).
[2]Floridi L,Sanders J W.On the Morality of Artificial Agents[J].Minds and Machine,2004(14).
[3]盧鑫鑫,徐明.科幻電影中人工智能的“身體”與“意識(shí)”建構(gòu)[J].電影學(xué),2018(23).
[4]Hellstrom T.On the Moral Responsibility of Military Robots[J].Ethics and Information Technology,2013,15(02)
[5]丁婕,陸道夫.人工智能的后人類(lèi)主體性賦值——從科幻電影《她》談起[J].廣東技術(shù)師范大學(xué)學(xué)報(bào),2020,41(04).
作者簡(jiǎn)介:
舒澎(1992.10-),男,漢族,湖南長(zhǎng)沙人,研究生在讀,研究方向:馬克思主義哲學(xué)。