張昌盛
(中國社會科學(xué)院 哲學(xué)研究所, 北京 100732)
智能機(jī)器人是人工智能(artificial intelligence,簡稱AI)在日常生活場景中的重要應(yīng)用類型之一,對未來人類生活的意義重大。從某種角度而言,長久以來人們所期盼的類人的、具有高度智能的機(jī)器人集中代表了人類對AI的終極夢想。智能機(jī)器人最終能模仿人到什么程度,或者說智能機(jī)器人的逼真度究竟能夠達(dá)到什么高度?這很大程度上可以看作是對未來人工智能的極限問題的另一種提法。智能機(jī)器人的逼真度問題會引出一個與智能機(jī)器人密切相關(guān)的基本理論——恐怖谷理論。恐怖谷理論本來是闡述高逼真度的智能機(jī)器人會引發(fā)的人類的一系列特別的感受和審美體驗,但在更深刻的層面,它指向了智能機(jī)器人及AI所能達(dá)到的極限。本文以恐怖谷理論為切入點,探討智能機(jī)器人的逼真度和未來AI的可能限度問題。
自20世紀(jì)50年代人工智能產(chǎn)生以來,關(guān)于智能機(jī)器人的設(shè)想就引起了學(xué)者的思考并進(jìn)入了大眾的視野。人們關(guān)于智能機(jī)器人有很多種思考角度,恐怖谷理論則是從人類的感受和審美體驗的角度談?wù)撊祟惡椭悄軝C(jī)器人之間的關(guān)系。
在AI產(chǎn)生之后,人們就期望制造出具有類似于人的智能和行動能力的機(jī)器人,可以承擔(dān)很多人類的工作,甚至這些機(jī)器人也會具有類似于人類的思維、情感和價值,成為人類生活的重要成員。后來,西方產(chǎn)生了很多具有影響力的機(jī)器人主題的科幻小說和科幻電影,核心問題是探討人類和機(jī)器人之間的關(guān)系。
過去幾十年,國際科技界一直有人在努力研發(fā)高仿真機(jī)器人,尤其是日本科技界投入了極大的智力和財力資源進(jìn)行機(jī)器人研發(fā),雖然取得了很大進(jìn)步,但多次陷入停滯狀態(tài),迄今距離目標(biāo)依然很遙遠(yuǎn)。這主要是因為數(shù)十年來AI科技進(jìn)展緩慢。
2010年左右,隨著辛頓(Hinton)等在深度學(xué)習(xí)算法領(lǐng)域中的重要突破, AI科技才重獲新生,隨之而來的是新一代人工智能技術(shù)研究和產(chǎn)業(yè)的爆發(fā)式發(fā)展?,F(xiàn)在的機(jī)器學(xué)習(xí)算法,成為人工智能的主流,在人類認(rèn)知的圖像識別、自然語言、機(jī)器翻譯、自動駕駛等領(lǐng)域不斷取得進(jìn)步,讓人們看到人工智能的大規(guī)模產(chǎn)業(yè)化乃至引發(fā)新的產(chǎn)業(yè)革命的前景。AI機(jī)器人可以為人類的生活和工作提供很多全新的重要輔助工作,甚至在很多場景中替代很多原先由人類承擔(dān)的工作和服務(wù)。
很多人期待,在不久的將來,具有高度智能的機(jī)器人能夠在人類日常生活中扮演重要角色,例如承擔(dān)家務(wù)、看護(hù)等工作,甚至可以充當(dāng)聊天、陪伴的伴侶,機(jī)器人不僅可以模擬人的思維、行為能力,而且可以具有類似于人的行為舉止、言說談吐、姿態(tài)表情(強(qiáng)人工智能者認(rèn)為機(jī)器人還可以具有類似于人的情緒及情緒表達(dá))。
未來的高仿真機(jī)器人能夠達(dá)到什么程度,很大程度上要回溯到人工智能的極限到底在哪里這個問題。數(shù)十年來,很多參與和關(guān)注人工智能領(lǐng)域的科學(xué)家、哲學(xué)家一直就這個問題爭論不休。AI的極限問題不僅涉及到前沿技術(shù)和基礎(chǔ)科學(xué)問題,更涉及到對意識、腦和人等問題的基本哲學(xué)立場和基本觀點層面的爭論。
這里最基本的問題就是對心智、意識和計算之間關(guān)系的看法。早在18世紀(jì),法國哲學(xué)家拉·梅特里就提出著名的命題“人是機(jī)器”[1]?,F(xiàn)在人工智能又把這個問題推到了新的階段:即心智的本質(zhì)是不是算法?人和智能機(jī)器有沒有本質(zhì)區(qū)別?20世紀(jì)50年代以來,立足于功能主義的科學(xué)家和哲學(xué)家如圖靈、丘奇等主張心智的本質(zhì)就是計算,大腦就是計算機(jī),因此計算機(jī)可以模擬人腦,而且可以由電腦的軟硬件模擬出一種類似于人類的、人工的意識;另外,立足聯(lián)結(jié)主義的科學(xué)家和哲學(xué)家則主張大腦并非計算機(jī),意識也不能歸約為符號計算的算法,但他們主張可以模擬大腦來發(fā)展人工智能。
現(xiàn)在看來,這個問題并非可以簡單回答,最終要由人工智能、認(rèn)知科學(xué)以及現(xiàn)象學(xué)等科學(xué)、哲學(xué)來聯(lián)合解答。
數(shù)十年來,人們關(guān)于智能機(jī)器人有多種思考角度,恐怖谷理論則是從人類的感受和審美體驗的角度論述人類和智能機(jī)器人之間的關(guān)系。
1970年日本機(jī)器人專家森昌弘在經(jīng)過大量關(guān)于機(jī)器人的田野調(diào)查基礎(chǔ)上撰寫了短文《恐怖谷》,闡述了恐怖谷理論。森昌弘文中的“恐怖谷效應(yīng)”是一個關(guān)于人類對機(jī)器人和非人類物體的感覺的假設(shè)?!翱植拦取边@個名詞最初來自Ernst Jentsch于1909年的論文《恐怖谷心理學(xué)》,1919年弗洛伊德在論文《恐怖谷》中進(jìn)行了進(jìn)一步闡述。森昌弘的恐怖谷理論則把恐怖心理學(xué)理論引進(jìn)到機(jī)器人領(lǐng)域,成為AI領(lǐng)域的一個重要問題。
森昌弘認(rèn)為:“當(dāng)機(jī)器人與人類相像超過95%的時候,由于機(jī)器人與人類在外表﹑動作上都相當(dāng)相似,所以人類亦會對機(jī)器人產(chǎn)生正面的情感。直至到了一個特定程度,他們的反應(yīng)便會突然變得極之反感。哪怕機(jī)器人與人類有一點點的差別,都會顯得非常顯眼刺目,讓整個機(jī)器人顯得非常僵硬恐怖,讓人有面對行尸走肉的感覺。人形玩具或機(jī)器人的仿真度越高人們越有好感,但當(dāng)超過一個臨界點時,這種好感度會突然降低,越像人越反感恐懼,直至谷底,稱之為恐怖谷??墒牵?dāng)機(jī)器人的外表和動作和人類的相似度繼續(xù)上升的時候,人類對他們的情感反應(yīng)亦會變回正面,貼近人類與人類之間的移情作用?!?1)百度百科.恐怖谷.https://wapbaike.baidu.com/item/%E6%81%90%E6%80%96%E8%B0%B7%E7%90%86%E8%AE%BA?adapt=1.
圖1 恐怖谷函數(shù)圖
從圖1的曲線可知,所謂恐怖谷與人造物的外形、動作的逼真度直接相關(guān);在恐怖谷的范圍內(nèi),相比而言,在同樣的逼真程度下,機(jī)器人在動態(tài)時比靜態(tài)時更讓人感到恐怖。
對“恐怖谷效應(yīng)”的相關(guān)問題在學(xué)界有種種闡釋,如艾斯·薩伊琴(Ayse Saygin)認(rèn)為其是由感知錯亂引起的,“人的大腦會預(yù)先根據(jù)觀察對象的外表預(yù)測對方可能的動作。而發(fā)現(xiàn)一個外表像人,走路卻像機(jī)器人的物體時,這會超出大腦的預(yù)期,產(chǎn)生錯亂”[2]。心理學(xué)家科特·格雷(Kurt Grey)等的研究表明,機(jī)器人“擁有感情”的特質(zhì)最令人感覺不安,這是因為我們在類人機(jī)器人身上看到了人類情感的影子,但我們卻無法理解這樣的情感[3]129。
恐怖谷理論發(fā)布之后,在機(jī)器人制造等行業(yè)產(chǎn)生了廣泛的影響,人們設(shè)計產(chǎn)品時盡量設(shè)法遠(yuǎn)離恐怖谷區(qū)域,以免讓人產(chǎn)生不適感。在后來的電影、動漫、漫畫以及電子游戲等制作中,人們也盡量使卡通人物在外形上減少人類的特征,以免墮入恐怖谷陷阱。
近日,德國的神經(jīng)科學(xué)家Pütten等在《神經(jīng)科學(xué)雜志》(JournalofNeuroscience)上發(fā)表文章稱,已經(jīng)確定了大腦內(nèi)部的機(jī)制有助于解釋恐怖谷效應(yīng)是如何發(fā)生的。他們在研究時發(fā)現(xiàn)內(nèi)側(cè)前額葉皮層的兩個不同部分對恐怖谷非常重要,“其中一部分將人類感的信號轉(zhuǎn)換為‘人類探測’信號,該區(qū)域的活動過度強(qiáng)調(diào)了人類和非人類刺激之間的界限——對人類的反應(yīng)最為強(qiáng)烈,而對非人的反應(yīng)則要弱得多。第二部分,腦內(nèi)側(cè)前額葉皮質(zhì)(VMPFC),將這一信號與可愛度評估相結(jié)合,產(chǎn)生了一種與恐怖谷反應(yīng)密切匹配的獨特活動模式”。他們的研究驗證了恐怖谷理論,“我們驚訝地發(fā)現(xiàn),腹內(nèi)側(cè)前額葉皮質(zhì)對類人機(jī)器人的反應(yīng)就像恐怖谷假說預(yù)測的那樣,對更像人類的因素反應(yīng)更強(qiáng)烈,但隨后在接近人類/非人類邊界的地方——即典型的‘山谷’——活動就會出現(xiàn)下降”[4]。
Pütten等的研究發(fā)現(xiàn),恐怖谷效應(yīng)的強(qiáng)度存在個體差異[4],因此沒有一種機(jī)器人設(shè)計能適合所有用戶,或者從另一個角度說,沒有一種機(jī)器人讓所有人害怕。
由現(xiàn)象學(xué)角度分析恐怖谷效應(yīng),需要解決如下3個方面的問題:
(1)主體關(guān)于機(jī)器人的經(jīng)驗是如何構(gòu)成的
從現(xiàn)象學(xué)的角度看,我們所認(rèn)知的外在存在有兩種類型:一種是關(guān)于外在對象和事物的認(rèn)知,另一種是關(guān)于對其他主體的認(rèn)知。這兩類認(rèn)知所具有的共性都是基于主體的意向性構(gòu)成,其顯現(xiàn)的結(jié)構(gòu)也都是由直觀顯現(xiàn)和非直觀的共現(xiàn)兩個方面組成,主體對對象的感知都有主題化和非主題化兩種方式。通常大多數(shù)的直觀中,對象的正面被我們感知,但是還有一部分并未直接顯現(xiàn),而是以“共現(xiàn)”的方式間接為我們把握,也就是我們通常只是直觀到對象的某些面或部分,但我們的意識把它構(gòu)成為一個對象整體。當(dāng)然,由于大多數(shù)感知并非被完全充實地直觀,因此總是有部分錯誤的可能性。這兩類認(rèn)知方式的差異在于:對于外部對象的認(rèn)知是一種客體化行為,而對于其他主體的認(rèn)知則包含著對身體、動作和表情等的客體化認(rèn)知,同時也有非對象化把握的部分,會把他人的身體、動作、表情認(rèn)知為不同于自我的其他主體的一部分,而不是看作像自然物一樣的、非生命的客觀對象。在更原初的層面,我們不僅以主體間性的方式把握他者的外形、語言和動作,而且把對象認(rèn)知為主體間性顯現(xiàn)的客體。
(2)恐怖谷效應(yīng)是如何產(chǎn)生的
我們對一個機(jī)器人的感知也是首先把握了其外形或行為的一部分,而意識在某些情況下會自發(fā)地把它構(gòu)成一個具有完整的外形或連續(xù)的行為的對象的部分顯現(xiàn)。當(dāng)機(jī)器人的外形或者行為的逼真度達(dá)到某種高度時,我們的意識會把它把握為類似自我的智能行動者(intelligent agent)。隨著智能機(jī)器人的逼真度由低到高,我們的意向構(gòu)成方式在逼真度的某一節(jié)點處會出現(xiàn)一個根本性的轉(zhuǎn)換,即由對對象的構(gòu)成方式轉(zhuǎn)變?yōu)閷λ咧黧w的構(gòu)成方式。這種意向構(gòu)成方式的自發(fā)轉(zhuǎn)換,是由于前述的感覺錯亂造成的。
我們對他者的具體的意向構(gòu)成包含很多配對、移情的意識構(gòu)成形式,這些方式依賴以往的具體經(jīng)驗。這種意向構(gòu)成的內(nèi)在視域具有整體性,是由對象的類型上的先天確定性所決定的。因此,雖然對象只是部分被直觀,意向構(gòu)成原則上是可錯的,但主體對對象內(nèi)在視域的整體把握引導(dǎo)著對對象的進(jìn)一步意向構(gòu)成和直觀充實的方向,避免意向構(gòu)成發(fā)生類型錯亂和部分之間的內(nèi)在沖突。但同時,以往的具體經(jīng)驗和意識模式也會參與和干擾意向構(gòu)成過程:我們的意向構(gòu)成會參雜著以往的經(jīng)驗、判斷和信念,如果不進(jìn)行現(xiàn)象學(xué)式的懸置,這些自然態(tài)度下的經(jīng)驗會以聯(lián)想、類比、猜測的方式夾雜在我們的具體經(jīng)驗中,那錯誤更難以避免。因此,在機(jī)器人的外形、語言及動作逼真度達(dá)到某種高度時,意識會具有一種自發(fā)地把它們類人主體的傾向。但由于機(jī)器人和人的類型上的先天性差異性,在對機(jī)器人的具體的認(rèn)知中,主觀上認(rèn)知他者的期望和預(yù)判導(dǎo)致對機(jī)器人的認(rèn)知由客體對象構(gòu)成模式轉(zhuǎn)換為他者主體構(gòu)成模式;同時,由于主體和機(jī)器人的內(nèi)在視域類型的差異性,這種對他者主體的經(jīng)驗的構(gòu)成會遭遇阻礙,導(dǎo)致該經(jīng)驗的內(nèi)在統(tǒng)一性、整體性無法達(dá)成,即對機(jī)器人的經(jīng)驗產(chǎn)生自我沖突,也就是造成感知錯亂。進(jìn)而,這種怪異的感知把機(jī)器人經(jīng)驗為怪異的、類型上陌生的、未知的他者,由此產(chǎn)生恐懼感。
當(dāng)機(jī)器人的逼真度進(jìn)一步提高,和人的相似度達(dá)到極高的程度時,至少從外表上,機(jī)器人和人在客體化直觀中被構(gòu)成類似于人的主體,類型上的差異性在某種程度上被克服,這個時候不適感、恐懼感消失。但這種相似性總是局部的、相對的,而某些方面細(xì)節(jié)的差異是難以克服的。例如主體的身體、表情和動作都是具身性的,是精神的一種外在表達(dá),這種具身性表達(dá)往往是智能機(jī)器人無法模擬的。
(3)機(jī)器人的哪些方面的高逼真性可以引起恐怖谷效應(yīng)
如上所述,當(dāng)主體試圖以經(jīng)驗他者主體的方式去認(rèn)知機(jī)器人時,就會因感知錯亂引起恐怖感受??梢姡瑱C(jī)器人的逼真性不限于外表和動作這些表象的層面,凡是類似于人的外形、思維、語言、表情、姿態(tài)、情緒、行為等諸多方面,都可以作為逼真性的內(nèi)容范圍。森昌弘的逼真度概念受限于當(dāng)時的AI科技的發(fā)展水平,主要是涉及機(jī)器人的外形和動作兩個方面,可稱之為狹義的逼真度概念??梢栽O(shè)想,未來的智能機(jī)器人可以模仿人類的內(nèi)容,不僅體現(xiàn)在范圍廣泛而全面,更體現(xiàn)在它可能能夠模擬人的最內(nèi)在的層面,包括模仿人的思維、語言、表情、情緒等。因此,我們可以在森昌弘的狹義逼真度概念的基礎(chǔ)上提出廣義的逼真度概念,即機(jī)器人在思維方式、語言表述、情感表達(dá)、情緒以及日常行為等多方面和人類的相似性。可以設(shè)想,這些涉及人類精神性的方面綜合起來后所能引起的情感錯亂的程度和恐怖谷效應(yīng)的程度,應(yīng)該遠(yuǎn)非以前的機(jī)器人的外表和動作所可比擬的。未來的機(jī)器人將會是對人類從身體、語言、行為、情緒等方面更為全面、綜合和深入的模仿。因此,恐怖谷理論的原圖(圖1)將會隨著AI科技的發(fā)展和逼真度概念的擴(kuò)展而不斷地被改進(jìn)修正,圖中的“恐怖谷”的“谷底”應(yīng)該會更深、兩側(cè)“谷壁”會更加陡峭。
因此,對于未來智能機(jī)器人可能達(dá)到的逼真性程度以及是否能夠跨越“恐怖谷”等問題的追問,必然會導(dǎo)向追問未來AI科技所能達(dá)到的深度和廣度的問題,即未來人工智能所能達(dá)到的智力和功能將在何種程度上或哪些方面能夠逐漸逼近乃至超越人類的智力和功能?
未來可實現(xiàn)的智能機(jī)器人能達(dá)到什么程度?這取決于AI的算法可以模擬的范圍,因為AI的智能基于算法。如果要讓機(jī)器人模仿人類的思維、認(rèn)知、語言、行為、姿態(tài)、表情乃至情緒,前提是AI的算法可以模擬人的認(rèn)知、語言和行為等方面。這意味著可以把人類的這些認(rèn)知、言談及行為理解為本質(zhì)上是一種基于種種軟件和硬件的生物計算。要實現(xiàn)未來的高仿真機(jī)器人的類人的基本功能,AI科技面臨的核心難題是如何解決智能算法問題。
下面本文將從功能主義、聯(lián)結(jié)主義、生物自然主義以及現(xiàn)象學(xué)等多個角度來考量未來人工智能可能達(dá)到的程度以及所需要的條件。
這里首先會遇到的問題是:智能和意識可以被歸結(jié)為自然的因素和規(guī)律的產(chǎn)物嗎?
按照自然主義的立場,答案是肯定的。自然主義認(rèn)為一切事物都可以歸為基礎(chǔ)本體層面和與主體相關(guān)的層面。所謂基礎(chǔ)本體層面是物理層面,人在最基礎(chǔ)層面是作為自然世界的一部分,人的身體包括大腦屬于所謂自然的基礎(chǔ)本體的層面,人的包括意識、語言、文化、價值等在內(nèi)的與主體相關(guān)的層面是奠基于自然本體的層面。在物理主義看來,宇宙是完全由物理規(guī)律支配的,是物理上封閉的宇宙,沒有非物理的心靈因素可以參與到物理世界的因果過程中。因此,一切生命過程包括人的意識、智能都是基于物理和生物規(guī)律的。
而從非物理主義的角度看,人的意識現(xiàn)象具有獨立性,不能被完全歸約為物理、生物的因素和規(guī)律。最典型的非物理主義是二元論,認(rèn)為身心是兩種不同類型的實體或者屬性。
從現(xiàn)象學(xué)角度看,人的智能是具身性主體的功能,因此與意識、大腦乃至身體有關(guān),但意識是產(chǎn)生智能的核心因素,而意識并不能歸約為大腦,甚至意識并非自然的產(chǎn)物,意識現(xiàn)象也超出了物理和生物的規(guī)律。歸根結(jié)底,人的意識乃至整個人的存在模式都不能被歸約為自然因素和規(guī)律的產(chǎn)物,而是由精神性的動機(jī)引發(fā)機(jī)制驅(qū)動的。因此,智能與意識、腦、身體相關(guān),但并不能歸結(jié)為生物學(xué)層面。
第二個問題隨之而來:認(rèn)知科學(xué)或者生命科學(xué)能夠系統(tǒng)、準(zhǔn)確地揭示人類的智能乃至意識的本質(zhì)和運(yùn)作機(jī)制嗎?
按照物理主義,意識現(xiàn)象不具有獨立的本體論地位,具有隨附性,乃是物理現(xiàn)象和性質(zhì)的表現(xiàn)形態(tài)。按照功能主義,基于硅基硬件和軟件的算法,計算機(jī)可以模擬出意識。按照自然主義,既然意識、智能根本上是生物現(xiàn)象,遵循生物學(xué)原理和物理規(guī)律,在原則上,神經(jīng)生物學(xué)或者整個生命科學(xué)等自然科學(xué)可以揭示這些關(guān)于人的智能和意識的客觀事實和規(guī)律。而按照非物理主義,意識現(xiàn)象具有獨立的本體論地位,不能規(guī)約為物理和生物現(xiàn)象,意識的特性及規(guī)律并非自然科學(xué)可以揭示的。
現(xiàn)象學(xué)認(rèn)為,既然意識不等同于腦,主體并不等同于身體,因而自然科學(xué)基于物理和生理層面的研究進(jìn)路是無法揭示意識的本質(zhì)和運(yùn)作機(jī)制的?,F(xiàn)象學(xué)并不關(guān)注大腦及身體的生理物理運(yùn)行機(jī)制,但依據(jù)本質(zhì)直觀方法,以描述的方式揭示意識的本質(zhì)特性和運(yùn)行機(jī)制。因此,未來的AI研究除了基于腦科學(xué)之外,還可以從現(xiàn)象學(xué)的意識研究中獲取啟發(fā)。
第三個問題是:關(guān)于人的這些生物事實和生物規(guī)律乃至意識,都可以歸結(jié)為算法嗎?
按照塞爾的看法,算法是與主體性相關(guān)的,“計算在本質(zhì)上并不是一種像消化或者光合作用那樣的內(nèi)在過程,而只是相對于為這種物理學(xué)提供一種計算性解釋的某智能體才會存在。結(jié)果是,計算并不是自然所固有的,而是相對于觀察者或使用者而言的”[5]9。從理性的人的角度看,不僅計算機(jī)有算法,一切自然現(xiàn)象當(dāng)中都包含算法,因此大腦乃至身體的運(yùn)作模式都是基于某一類生物的算法。
從非物理主義角度看,意識超出了物理規(guī)律的范圍,也無法形式化,不能被歸約為計算機(jī)的算法。
從現(xiàn)象學(xué)的角度看,意識不僅有高級的推理、抽象等理性思維形式,還有更基本的感性論層面[6],而后者是無法完全被形式化地刻畫的,此外還有更為原初的、前謂詞的、非對象性的層面均無法被對象化地表征;另外,心智具有具身性,身心是主體的不可分割的整體,因此很多具身性的意識現(xiàn)象和非對象性的身體現(xiàn)象并不能被符號表征,因而不能歸約為算法。
問題在于,即便退一步而言,我們把宇宙的運(yùn)行、生命的活動、大腦的運(yùn)作和意識活動都看作遵循某些廣義的算法,但這些現(xiàn)象分別是物理的、生物的和意識的活動,很難說它們本身就是一種計算機(jī)計算意義上的算法。
第四個問題是:關(guān)于人的智能、意識的這些基于生命運(yùn)作的算法可以被計算機(jī)模擬嗎?
首先,一個問題是廣義算法的可模擬性問題,即使人的智能、意識等可以被看作廣義的算法,但并不等于這些廣義的算法可以被模擬。按照功能主義的觀念,智能本質(zhì)無非是計算,心靈就像電腦,強(qiáng)人工智能可以由硅基的芯片以及算法實現(xiàn)人類的智能甚至產(chǎn)生類似于人類的意識;而按照弱人工智能的看法,類似人類的智能需要計算機(jī)模擬人腦神經(jīng)網(wǎng)絡(luò)及其運(yùn)行,這種模仿是有限的,因此人工智能可以在某種程度上逼近人類智能,但無法代替人類智能,更不用說產(chǎn)生意識了。按照塞爾的生物中心主義的看法,雖然人類的智能屬于廣義的算法,但基于生物的功能性組織,純粹依賴計算機(jī)算法和硬件,無法模擬人類的智能,但類似于人類的智能可以由類似于人類大腦的功能性組織實現(xiàn)。
根據(jù)現(xiàn)象學(xué),既然人類的部分意識和行為的確可以被符號表征,那么就具備了用算法模擬的基礎(chǔ),如高級的理性思維形式(推理、論證、想象等思維),以及在經(jīng)驗基礎(chǔ)上的歸納、類比、聯(lián)想等思維模式,都可以用符號計算或者仿腦的算法來模擬,因此人工智能可以在很多認(rèn)知方面接近于人的智能。但是,主體更為基礎(chǔ)的、原初的、具身的、非對象性的、整體性的層面則無法被轉(zhuǎn)化為算法模擬。
其次,這個問題涉及到AI的可計算性和算法復(fù)雜性?,F(xiàn)有的AI都是基于圖靈機(jī), AI的可計算性也受到圖靈機(jī)基本原理的限制,即便從理論原則上人的智能和意識等都屬于廣義的算法,而在邏輯和工程層面,基于丘奇-圖靈原則的計算機(jī)也未必能夠模擬人類智能和意識。除非,未來能夠發(fā)明一種“超計算”(Hyper-computation)[7]205解決AI的可計算性問題,以及未來量子計算機(jī)的成熟能夠解決AI所面臨的算力和計算復(fù)雜性問題。
總而言之,不同理論立場的人對AI的整體認(rèn)知和信念不同,對其在未來角色的期待也不同。例如持強(qiáng)人工智能立場者堅信終有一天AI將具有比肩人類甚至超過人類的智能,是類人行動者,而贊同弱人工智能立場者則認(rèn)為AI終究是輔助人類工作、生活的智能機(jī)器。
從現(xiàn)象學(xué)角度看,不僅強(qiáng)人工智能的預(yù)設(shè)無法實現(xiàn),通常的模擬大腦的弱人工智能對未來AI智能的預(yù)期也難以達(dá)成。不過借助現(xiàn)象學(xué)的意識的研究方法,可以啟發(fā)AI發(fā)明新的算法。也就是說,根據(jù)現(xiàn)象學(xué),意識并不能完全歸約為大腦的功能,而AI算法原則上只能部分模擬人的大腦和意識,那么未來可實現(xiàn)的AI只能是比聯(lián)結(jié)主義所設(shè)想的弱AI更弱的AI。
過去幾十年,AI功能主義和聯(lián)結(jié)主義兩種研究范式一直相互競爭,相應(yīng)的符號計算和大腦模擬兩種AI進(jìn)路也此消彼長。目前最主流的人工智能是大腦模擬的機(jī)器學(xué)習(xí),但還很難說哪一種范式會徹底勝出。也許在未來很長一段時間,這兩種AI研究范式還會繼續(xù)處于相互競爭但并存的狀況。
目前,聯(lián)結(jié)主義范式占據(jù)AI研究的優(yōu)勢地位,如以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)成為AI科技的主流,而深度學(xué)習(xí)算法恰好是在仿人類腦神經(jīng)網(wǎng)絡(luò)方面取得突破的;而基于功能主義的符號計算,AI依然在機(jī)器推理、證明等領(lǐng)域有其生命力。從制造智能機(jī)器人的角度看,研發(fā)未來AI的主要思路是要讓機(jī)器算法擁有模仿人類的意識和行為背后的深層神經(jīng)元運(yùn)作機(jī)制,顯然聯(lián)結(jié)主義的范式更適合這種AI發(fā)展模式。因為,人類的思維、語言和行為能力雖然有其遺傳和生理基礎(chǔ),但其能力的成熟是在社會生活中通過學(xué)習(xí)不斷習(xí)得的。因此,對于未來智能機(jī)器人更全面地模仿人類而言,機(jī)器學(xué)習(xí)算法將會是一種非常重要的進(jìn)路。
未來的AI科技需要什么樣的學(xué)科基礎(chǔ)?按照功能主義的強(qiáng)AI立場,未來以符號計算為主的AI科技主要是不斷基于數(shù)學(xué)和計算理論而進(jìn)行算法的創(chuàng)新;按照聯(lián)結(jié)主義的弱AI立場,未來以仿大腦神經(jīng)網(wǎng)絡(luò)為主的AI科技需要建立在腦科學(xué)、認(rèn)知神經(jīng)科學(xué)乃至整個神經(jīng)生物學(xué)基礎(chǔ)上;而按照現(xiàn)象學(xué)的立場,未來AI科技除了需要以數(shù)學(xué)、邏輯學(xué)、腦科學(xué)、認(rèn)知科學(xué)、神經(jīng)生物學(xué)等自然科學(xué)為基礎(chǔ),還需要從哲學(xué)層面對意識、具身性等問題的探索來揭示智能的本質(zhì)特性和運(yùn)作機(jī)制。限于本文的主題,下面主要從腦科學(xué)和現(xiàn)象學(xué)的角度簡述一下未來AI科技需要什么樣的科學(xué)和哲學(xué)研究作為前提。
如果按照聯(lián)結(jié)主義的進(jìn)路,那么AI和智能機(jī)器人的發(fā)展就需要基于未來的腦科學(xué)和生命科學(xué)。未來AI需要以基于腦神經(jīng)科學(xué)、神經(jīng)生物學(xué)乃至生物學(xué)的研究的高度成熟為前提。具體而言,要基于神經(jīng)生物學(xué)尤其是腦神經(jīng)科學(xué)所揭示的人類認(rèn)知、語言和行為等的腦神經(jīng)生物學(xué)的基本原理,創(chuàng)建相應(yīng)的算法來模擬這些機(jī)制。這就意味著,未來AI的突破,需要以這些學(xué)科的高度成熟為前提,才可能實現(xiàn)以算法對人類的認(rèn)知、語言和行為等諸多功能的高度近似的模擬。
首先,AI需要腦神經(jīng)科學(xué)對認(rèn)知、情緒、語言、行為等的腦神經(jīng)元機(jī)制的揭示,因此腦神經(jīng)科學(xué)是未來人工智能發(fā)展的基石。
其次,如果按照現(xiàn)象學(xué)的具身性理論,則人類的智能是具身的,也就是身體是塑造人類認(rèn)知框架和意識結(jié)構(gòu)的重要組成要素,因此未來的認(rèn)知神經(jīng)科學(xué)的研究將不限于腦神經(jīng)結(jié)構(gòu)及機(jī)制的研究,而是會擴(kuò)展到全身的感知器官,以揭示人類感受所具有的整體性機(jī)制。
再次,如果超出認(rèn)知而擴(kuò)展到情緒、語言和行為等方面,則會發(fā)現(xiàn)人類的體驗、認(rèn)知、行為舉止、言談乃至表情,往往是關(guān)聯(lián)的、動態(tài)的。因此,基于具身性的思路,需要對人的全身神經(jīng)系統(tǒng)、運(yùn)動系統(tǒng)乃至整個身體進(jìn)行深入系統(tǒng)的研究,揭示整個具身性的身體在塑造人類認(rèn)知和智能等方面所具有的基礎(chǔ)性、框架性作用。
最后,如果按照海德格爾的存在論現(xiàn)象學(xué),則此在的一切生存模式都是基于與世界的內(nèi)在關(guān)聯(lián)模式,即“此在在世界中存在”是理解人的認(rèn)知、語言和行為的基本預(yù)先存在的框架,也就是說,人的感知系統(tǒng)是對環(huán)境開放的、與環(huán)境相耦合的、具有整體性的,因此需要揭示這種與環(huán)境耦合、互動的認(rèn)知神經(jīng)科學(xué)機(jī)制。對人類智能的探究需要把主體與環(huán)境的互動、耦合的整體結(jié)構(gòu)考慮進(jìn)去,因此海德格爾式AI需要計算機(jī)可以模擬此在的生存論結(jié)構(gòu)尤其是與世界打交道的模式。
如前所述,從現(xiàn)象學(xué)的角度看,人類的智能僅從數(shù)學(xué)、腦科學(xué)、神經(jīng)生物學(xué)等科學(xué)的角度進(jìn)行研究是不夠的,需要采用本質(zhì)直觀的方式來揭示人的意識、具身性以及此在的在世存在方式等方面的本質(zhì)特征和運(yùn)行機(jī)制。雖然現(xiàn)象學(xué)的第一人稱視角也有其局限性,本質(zhì)直觀方法要受明見性原則的限制,但現(xiàn)象學(xué)依然可以為研究意識、主體、具身性等提供其獨特的理論貢獻(xiàn)?,F(xiàn)象學(xué)的這些深刻的直觀洞察一定程度上可以彌補(bǔ)自然科學(xué)方法研究意識方面的間接性局限,為AI算法的構(gòu)造提供頗具價值的啟發(fā)。因此,現(xiàn)象學(xué)將是未來AI發(fā)展的重要基礎(chǔ)學(xué)科之一。
和未來AI相關(guān)性比較大的現(xiàn)象學(xué)問題主要有如下幾個方面:第一是意向性問題,根據(jù)現(xiàn)象學(xué),一切客體化意識都是意向性的,意識行為總是指向意向?qū)ο?,?gòu)成意向?qū)ο蟆I所處理的大多數(shù)問題都是對象化的認(rèn)知、智能,因此意向性對于未來AI的認(rèn)知能力至關(guān)重要。從現(xiàn)象學(xué)的角度闡明如何從對象的意向性構(gòu)成角度分析對象的構(gòu)成,對于AI識別視覺、聽覺對象具有啟發(fā)性。現(xiàn)象學(xué)認(rèn)為,意向相關(guān)項(noema)[8]、意向?qū)ο蟮臉?gòu)成具有其內(nèi)在視域,這種視域具有的整體性使得對象和意義的構(gòu)成得以可能,這對于AI如何根據(jù)有限的數(shù)據(jù)分析來識別對象具有重要的啟發(fā)作用。第二是現(xiàn)象學(xué)的感性論,涉及到心靈、身體的關(guān)系,這個部分的深入研究結(jié)合被動綜合分析,可能對揭示底層的感性意識特性以及身心關(guān)系具有重要意義,這對于建構(gòu)未來AI感知等基礎(chǔ)層面的認(rèn)知能力很重要。第三是具身性問題,結(jié)合現(xiàn)象學(xué)的感性論對身心問題、具身性的框架結(jié)構(gòu)以及動感意識的研究,對于建構(gòu)具有身體感知、運(yùn)動感知的機(jī)器人具有很關(guān)鍵的作用。第四是生活世界問題,對生活世界的現(xiàn)象學(xué)研究,尤其是對生活世界中具有本質(zhì)性的形態(tài)學(xué)結(jié)構(gòu)和普遍性的基本運(yùn)作方式的揭示,可能會對解決AI的“框架難問題”(the frame problem)具有重要的推動作用。第五是主體間性問題,主體間性問題涉及到自我與他者的交互認(rèn)知關(guān)系,共涉及意識、語言和行為3個層面,對于主體間性的深層挖掘,有利于建構(gòu)機(jī)器人與人類交流互動的能力,對于處理人類和機(jī)器人的相互關(guān)系,以及建立智能社會的秩序具有重要而基礎(chǔ)的作用。第六是主體與世界的關(guān)系,如果按照海德格爾的存在論現(xiàn)象學(xué),即“此在在世界中存在”是理解人的認(rèn)知、語言和行為的基本預(yù)先存在的框架,則海德格爾式AI需要計算機(jī)模擬此在的生存論結(jié)構(gòu)尤其是與世界打交道的模式。另外,AI科技可以借鑒情感現(xiàn)象學(xué)和道德現(xiàn)象學(xué)的研究,它們是研究所謂機(jī)器情感和機(jī)器倫理的重要理論視角,也是未來建立整個機(jī)器人的行動哲學(xué)和倫理學(xué)的重要理論基礎(chǔ)。
從現(xiàn)有的哲學(xué)理論看,關(guān)于未來智能機(jī)器人的發(fā)展具有以下幾種可能性:從聯(lián)結(jié)主義和現(xiàn)象學(xué)看,AI無法具有類似于人的意識和具身性的主體性,因為表情、語言和動作的類型上的差異性是機(jī)器人無法克服的。從現(xiàn)象學(xué)看,越是在精神性的層面,人和機(jī)器人之間的差距越大,二者的相似總是表面的。因此,在這種情境下,智能機(jī)器人對人類的模仿不可能無限逼近,讓智能機(jī)器人達(dá)到足以跨越恐怖谷的超高逼真度是一件很困難的事情。
即便在設(shè)計智能機(jī)器人時避開機(jī)器人外形和動作這兩方面與人類的雷同,但當(dāng)機(jī)器人的認(rèn)知模式、語言和行為模式的逼真度達(dá)到一定高度時,也會引起恐怖谷效應(yīng)。這就使得某些智能機(jī)器人的設(shè)計陷入進(jìn)退兩難的境地:要么以降低逼真度為代價避免陷入“恐怖谷”,而這么做的缺點是智能機(jī)器人無法滿足某些輔助和陪伴的功能需求;要么設(shè)計高逼真度的智能機(jī)器人以滿足工作和生活的需求,但容易讓人類陷入情感錯亂,產(chǎn)生恐怖谷效應(yīng)。
當(dāng)然,從功能主義的強(qiáng)AI角度看,機(jī)器人也是會具有意識的,人的認(rèn)知、情感等功能可以由算法加芯片實現(xiàn)。因此,對強(qiáng)人工智能而言,跨越恐怖谷并非難事。如果有一天,人類能夠設(shè)計出這樣超高逼真度的機(jī)器人,人類也許會產(chǎn)生錯覺,模糊機(jī)器人和人類的界限,把機(jī)器人當(dāng)作人類的同類,而不僅僅是作為人類生活中充當(dāng)輔助工具的智能行動者。但功能主義本身面臨如無法說明意識所具有的感受性質(zhì)(qualia)這樣的困難問題,因此即便智能機(jī)器人表面上幾乎和人類一樣,也不會對人和世界具有意識和體驗,而僅僅是一種查爾莫斯所說的哲學(xué)僵尸(Philosophical Zombie or P-Zombie)[9]。
但如前所述,智能機(jī)器人及AI科技未來的成就并非現(xiàn)在就可以從理論上判定的,而最終是要通過AI科學(xué)的實踐來回答。AI科技的發(fā)展必須要奠基于數(shù)學(xué)、腦科學(xué)、神經(jīng)生物學(xué)及現(xiàn)象學(xué)等更為基礎(chǔ)的學(xué)科,汲取這些學(xué)科關(guān)于意識、腦及計算等方面的前沿成就,尤其是要以現(xiàn)象學(xué)的方法和腦科學(xué)的方法為參照,以現(xiàn)象學(xué)關(guān)于意識的研究來補(bǔ)充腦科學(xué)的認(rèn)知研究的不足,才可能最大程度地揭示人類智能的奧秘,才有可能讓AI的智能逐漸臻于其極限。
另外,如果設(shè)想未來有一天機(jī)器人的逼真度達(dá)到極致的極端情境,即如果它能成功跨越“恐怖谷”而無限逼近人類的智能,這時會產(chǎn)生一個有趣但很難有答案的問題:它面對其他逼真度很高但沒有能夠跨越“恐怖谷”的類人智能機(jī)器時,是否也會有類似于人的認(rèn)知錯覺和情感錯亂,產(chǎn)生類似于人類“恐怖谷”的效應(yīng)?如果答案是肯定的,則無論這種“恐怖谷”效應(yīng)只是“無心”的機(jī)器適應(yīng)環(huán)境的智能反應(yīng),還是伴隨著類似于人類的體驗和感受,都表明人和智能機(jī)器之間的界限逐漸模糊了。