(江西財(cái)經(jīng)大學(xué) 馬克思主義學(xué)院,江西 南昌 330013)
據(jù)庫茲韋爾(Ray Kurzweil)考證,約翰·馮·諾伊曼(John von Neumann)首次提出“奇點(diǎn)(Singularity)”。[1] 10-11真正進(jìn)行全面闡述的應(yīng)該是庫茲韋爾本人,并預(yù)言將在2045年到達(dá)奇點(diǎn)。“21世紀(jì)的前半葉將描繪成三種重疊進(jìn)行的革命——基因技術(shù)(G)、納米技術(shù)(N)和機(jī)器人技術(shù)(R)”,[1]123這“三種重疊進(jìn)行的革命”將為“奇點(diǎn)”來臨奠定堅(jiān)實(shí)的技術(shù)基礎(chǔ)。一旦“機(jī)器人在智能方面超過人類的奇點(diǎn)”[2]231來臨,人類的生存范式將發(fā)生根本性變革,人類將生存得難以想象的美好。國內(nèi)學(xué)者黃欣榮教授甚至認(rèn)為,大數(shù)據(jù)、互聯(lián)網(wǎng)和人工智能將有助于共產(chǎn)主義的實(shí)現(xiàn);[3]并且新人工智能將讓人類徹底得到身心的解放,全面解放之后的人類可以盡情享受智能機(jī)器給我們帶來的豐裕財(cái)富,在人工智能的幫助下闊步邁向更高境界。[4]可見,如果“奇點(diǎn)”確實(shí)存在的話,必將給我們的生產(chǎn)生活學(xué)習(xí)與工作帶來顛覆性變革。同時(shí)庫茲韋爾在論述GNR之后認(rèn)為“會(huì)引進(jìn)新的風(fēng)險(xiǎn)”。因此,“奇點(diǎn)”不僅給我們帶來全新的生存方式,而且也必將帶來諸多挑戰(zhàn),甚至直接威脅到人類的存繼。面對(duì)這些未來的挑戰(zhàn),我們最好是從現(xiàn)在開始構(gòu)建起人工智能的責(zé)任倫理體系,既是對(duì)我們自己負(fù)責(zé),也是對(duì)人工智能負(fù)責(zé),更是對(duì)構(gòu)建良好人機(jī)關(guān)系負(fù)責(zé)。
“奇點(diǎn)”來臨之后,意味著人工智能在智能方面超越人類,如何實(shí)現(xiàn)人機(jī)友好共存將是我們必須深入思考的問題。按照馬克思主義的觀點(diǎn),“這些人把自己和動(dòng)物區(qū)別開來的第一個(gè)歷史行動(dòng)不在于他們有思想,而在于他們開始生產(chǎn)自己的生活資料”,[5]即人類越來越能夠脫離動(dòng)物界而進(jìn)行著真正人的生存:人類能夠不斷地制造和使用工具,不斷確立起人的主體地位。因此,整個(gè)世界就出現(xiàn)主客二分的狀況:主體就是我們?nèi)祟悾腕w就是納入到我們生存范圍的客觀世界(當(dāng)然人類也能夠成為自己的客體)。但是如果人工智能的智能遠(yuǎn)超越人類,就意味著具有超級(jí)智能的它們也同樣能成為主體,整個(gè)世界就呈現(xiàn)出雙主體。雙主體的出現(xiàn)就意味著我們必須解決好如何與人工智能實(shí)現(xiàn)共存這一根本性問題,即到底是我們應(yīng)該聽命于人工智能還是人工智能應(yīng)該聽命于我們。
人工智能的強(qiáng)大要讓我們來命令它們顯然有點(diǎn)無能為力,反而是讓我們?cè)絹碓揭蕾囉谌斯ぶ悄?,特別是在我們面對(duì)困境而不能自拔的時(shí)候,更應(yīng)該聽聽人工智能的洞見。這樣才能讓我們生存得越來越好。當(dāng)我們隨時(shí)都要聽命人工智能的時(shí)候,我們的生存就會(huì)越來越人工智能化。當(dāng)然,我們可能會(huì)自豪地認(rèn)為,畢竟人工智能是我們的作品。既然是我們的作品,它們就應(yīng)該按照我們的要求來進(jìn)行設(shè)計(jì)與制造。當(dāng)我們能夠利用人工智能來不斷制造出新人工智能的時(shí)候,我們的意志就完全“嵌入”到它們身上,它們的行為必將最大程度地展現(xiàn)出人類的意志。因此,應(yīng)該是人工智能越來越像我們。但是古德(I.J.Good)強(qiáng)調(diào):“既然機(jī)器設(shè)計(jì)也是一項(xiàng)智能活動(dòng),那么超級(jí)智能機(jī)器應(yīng)該可以設(shè)計(jì)出更好的機(jī)器。毫無疑問隨后會(huì)出現(xiàn)一個(gè)‘智能爆炸’,人類的智能可能被遠(yuǎn)遠(yuǎn)甩在后面。因此,第一臺(tái)超級(jí)智能機(jī)器是人類需要完成的最后一項(xiàng)發(fā)明”。[2]229很難想象,在這個(gè)“智能爆炸”到來之后我們的意志在人工智能身上到底還能存留多少!特別是隨著“智能爆炸”的不斷發(fā)展且我們的生存已經(jīng)習(xí)慣了人工智能帶來的便利而越來越離不開它們的時(shí)候,人類只能越來越人工智能化,自覺不自覺地跟隨著人工智能的發(fā)展而生存。因此,很有可能超級(jí)人工智能就是我們的最后一項(xiàng)發(fā)明。
表面上看,“我們的機(jī)器將變得越來越像我們,而我們也會(huì)越來越像我們的機(jī)器”。[1]182而實(shí)際上,應(yīng)該是我們會(huì)越來越像人工智能。因?yàn)樽屓斯ぶ悄茉絹碓饺祟惢瘯?huì)由于人工智能的過于強(qiáng)大而失去控制。畢竟“智能爆炸”的出現(xiàn)就意味著人工智能完全可以離開人類而獨(dú)立完成自身的繁衍,并且每一代人工智能都將在智能方面超越上一代。因此,“人工智能計(jì)算機(jī)技術(shù)正不斷取得成功,并迅速成為我們生活中不可或缺的一部分?!瑼I將會(huì)改變我們的生活方式、我們的社會(huì),甚至是終結(jié)我們的族類”。[6]我們的生存只能是越來越人工智能化!
因此,之所以人類越來越人工智能化就在于人工智能不僅在實(shí)踐和意識(shí)方面和人類一樣,而且在智能方面遠(yuǎn)遠(yuǎn)超越人類,以致于人類特有主體地位受到了前所未有的沖擊,不得不與人工智能分享這個(gè)主體地位甚至讓位于人工智能。
現(xiàn)在我們可以要求人工智能越來越人類化,但是“奇點(diǎn)”來臨之后就只能是人類越來越人工智能化。既然我們將越來越人工智能化,那么我們就不得不思考生存的意義問題。意義是因?yàn)槿说莫?dú)有生存才得以產(chǎn)生,否則就無所謂意義的問題。毫無疑問,當(dāng)我們完全依賴人工智能而生存的時(shí)候,人類獨(dú)有的生存方式必將退卻,所謂真正人的生存將難以存繼,最終走向無意義化。
如果將人工智能僅僅界定為技術(shù),那么人工智能越發(fā)展就意味著我們?cè)侥軌蚋谜J(rèn)識(shí)、改造和控制世界,讓世界不斷向符合人類需要的方向變化。這樣,我們的生存就必然越來越好、越來越有意義。比如,隨著人工智能技術(shù)的發(fā)展,我們現(xiàn)在所進(jìn)行的工作基本上都可以交于人工智能來完成,因?yàn)槿斯ぶ悄鼙任覀兺瓿傻酶?。如果所有的工作都可以交與人工智能來完成,我們就完全可以按照自己的個(gè)性來發(fā)展自己??赡芫蛯?shí)現(xiàn)了人自由而全面發(fā)展的共產(chǎn)主義社會(huì)。因此,我們的生存必將按照自己的個(gè)性來不斷發(fā)展而越來越有意義。
但是,人工智能不僅僅是一項(xiàng)先進(jìn)的技術(shù),更應(yīng)該是一類具有人類意識(shí)且超越人類智能的新生命體。它們能夠完成的工作遠(yuǎn)遠(yuǎn)不僅限于生產(chǎn)領(lǐng)域,而是超越人類所能涉及的所有領(lǐng)域,并且在任何一個(gè)領(lǐng)域都比我們要完成得更好。這個(gè)更好足夠讓我們望而生畏。比如現(xiàn)在的人工智能能夠創(chuàng)作出非常優(yōu)美的音樂和寫作出非常愜意的詩詞,相信欣賞到這些音樂與詩詞的任何想要通過音樂與詩詞來尋找所謂“遠(yuǎn)方”的人們望而卻步。因?yàn)楫?dāng)你經(jīng)過勤學(xué)苦練達(dá)到與人工智能相媲美的境況時(shí),人工智能瞬息之間又實(shí)現(xiàn)了更新?lián)Q代,再次讓你望而生畏。那么到底是你去尋找“遠(yuǎn)方”還是讓人工智能幫你尋找“遠(yuǎn)方”呢?因此,“世上第一個(gè)超級(jí)智能一旦誕生,可能很快就會(huì)表現(xiàn)出強(qiáng)大的能力,它在任何領(lǐng)域的決策能力都比人類更強(qiáng),不論哲學(xué)、藝術(shù)、科學(xué)、政治、社會(huì)還是人際關(guān)系。如果我們發(fā)現(xiàn)自己做任何事都比不過超級(jí)智能,甚至遠(yuǎn)遠(yuǎn)不如它時(shí),該有什么反應(yīng)呢?從實(shí)際效果上來說,我們做的任何工作可能都會(huì)顯得毫無意義。”[7]143
總之,人工智能的過于強(qiáng)大表面上會(huì)讓我們的生存越來越有意義,實(shí)際上可能正在不斷地消滅其意義。當(dāng)生存失去意義的時(shí)候,“我們會(huì)不會(huì)所有人都為之折服,陷入絕望,任由自己縱情于沉浸式虛擬現(xiàn)實(shí)的燈紅酒綠之中,或者干脆用電刺激大腦的方式自取滅亡呢?”[7]144赫拉利(Yuval Noah Harari)甚至認(rèn)為:“由于接下來的科技發(fā)展?jié)摿O其巨大,很有可能就算這些無用的大眾什么事情不做,整個(gè)社會(huì)也有能力供養(yǎng)這些人,讓他們活下去。然而,什么事能讓他們打發(fā)時(shí)間,獲得滿足感?人總得做些什么,否則肯定會(huì)無聊到發(fā)瘋。到時(shí)候,要怎么過完一天?答案之一可能是靠藥物和電腦游戲”。[8]294如果真是如此,“奇點(diǎn)”不是使我們生存得越來越有意義,而是會(huì)消除我們尋找“遠(yuǎn)方”的最后避難所,生存徹底無意義。
因此,人類生存的無意義實(shí)質(zhì)上就是人工智能的智能遠(yuǎn)遠(yuǎn)超越人類,導(dǎo)致我們賦予世界以意義的能力受到了人工智能的沖擊,導(dǎo)致這種能力遠(yuǎn)遜于人工智能,不得不將此能力讓位于人工智能。
人類生存無意義的一個(gè)重要表現(xiàn)就是我們將逐步失去自主決策的能力而越來越被動(dòng)地生存。本來,“奇點(diǎn)”來臨之后的人工智能將為我們的決策提供更多的選擇與便利,畢竟通過人工智能能夠讓我們更加理解整個(gè)世界,我們肯定就能夠更好地作出決策而越來越自由。
恩格斯指出:“自由不在于幻想中擺脫自然規(guī)律而獨(dú)立,而在于認(rèn)識(shí)這些規(guī)律,從而能夠有計(jì)劃地使自然規(guī)律為一定的目的服務(wù)”。[9]因此,要求我們必須在充分認(rèn)識(shí)“自然規(guī)律”的基礎(chǔ)上做出正確的決策,進(jìn)而尋求到真正的自由?!八^自由,如所周知,就是能夠按照自己的意志進(jìn)行行為?!粋€(gè)人自由與否,與他實(shí)行自己意志的自身的、內(nèi)在障礙無關(guān),而只與他自身之外的外在障礙有關(guān):自由也即不存在實(shí)行自己意志的外在障礙”。[10]因此,要尋找到自由必須能夠自主地作出正確決策。如果不能自主地作出正確決策,我們就會(huì)完全受制于外在的障礙而不自由。而這個(gè)最大的外在障礙就是不能正確的認(rèn)識(shí)和利用規(guī)律,導(dǎo)致陷入決定論的泥淖,因?yàn)椤叭绻覀兺耆凑兆匀灰?guī)則來生存和發(fā)展,那么我們的決策與行為就是不可控的,必須完全按照因果關(guān)系來施展”。[11]如果完全陷入決定論的泥淖,我們就完全沒有自由可言。因此,我們要獲得生存自由就必須自主地作出決策。如果對(duì)外在障礙的認(rèn)識(shí)不夠,就會(huì)在規(guī)律面前無能為力,我們的生存就完全受制于決定論而沒有自由可言。如果能夠借助人工智能,我們就更能夠認(rèn)識(shí)和利用規(guī)律,更能夠根據(jù)自己的生存狀況自主地作出決策,更能夠獲得我們所需要的自由。
但是人工智能的過于強(qiáng)大導(dǎo)致我們作出的一切決策都顯得非常幼稚,還不如干脆讓人工智能來幫我們作出。我們只需要被動(dòng)地接受人工智能作出的決策就能夠獲得自由。人工智能具有的強(qiáng)大算法功能能夠洞察世間的一切奧秘,并且它們的“計(jì)算”能力遠(yuǎn)超人間一切天才。因此,與我們比較,它作出的決策絕對(duì)是“最優(yōu)”的。既然人工智能能夠?yàn)槲覀冏鞒觥白顑?yōu)”的決策,那么我們就沒有必要為作出自己的決策而苦苦煎熬,倒不如干脆放棄作出決策的權(quán)力,將這個(gè)權(quán)力轉(zhuǎn)讓或者異化給人工智能。這樣,雖然我們放棄了自主作出決策的權(quán)力,但是也并沒有因此而喪失自由。
問題的關(guān)鍵就在于,這樣的生存方式到底是不是獲得了我們所需要的自由。因?yàn)槲覀冏灾髯鞒鰶Q策就意味著我們必須為此承擔(dān)相應(yīng)的倫理責(zé)任,在承擔(dān)倫理責(zé)任的基礎(chǔ)上繼續(xù)作出更佳的決策進(jìn)而獲得更大的自由。如果完全依賴于人工智能為我們作出決策,姑且不論人工智能作出的決策是否會(huì)導(dǎo)致我們朝著機(jī)器化的方向發(fā)展,關(guān)鍵是我們無需承擔(dān)任何倫理責(zé)任。喪失責(zé)任的自由還是不是真正的自由?顯然這是一種動(dòng)物式的自由,是被動(dòng)地適應(yīng)客觀世界的生存方式;而人的自由是通過我們的決策及其形成的行為積極主動(dòng)爭取來的自由,是必須要承擔(dān)相應(yīng)倫理責(zé)任的自由。因此,“奇點(diǎn)”來臨之后可能會(huì)導(dǎo)致我們完全陷入人工智能造就出的新決定論境地,完全失去自主決策的權(quán)力而越來越被動(dòng)地生存。
因此,從根本上說人類喪失決策的權(quán)力是我們的主體地位受到前所未有沖擊的結(jié)果。由于主體地位的動(dòng)搖,人類的決策權(quán)力必然要讓位于享有超過人類主體地位的新主體即人工智能。如果人類還完全享有決策權(quán)力的話,那么人工智能就不可能享有相應(yīng)的主體地位。
正因?yàn)椤捌纥c(diǎn)”的到來將導(dǎo)致人類喪失決策的權(quán)力,因此人類只能被動(dòng)地接受人工智能制定的規(guī)則。這是人類生存無意義的另一個(gè)重要表現(xiàn),即我們將在逐步失去自主決策能力的基礎(chǔ)上喪失制定規(guī)則的權(quán)力。
人天生就是社會(huì)性動(dòng)物,而社會(huì)性動(dòng)物就意味著必須守規(guī)則,而規(guī)則就是人類為了實(shí)現(xiàn)共同目標(biāo)而協(xié)商制定出來的。隨著生存環(huán)境的變化,人類不斷通過協(xié)商、廢除、修改和制定規(guī)則。只要規(guī)則能夠不斷適應(yīng)人類的生存現(xiàn)實(shí),我們就應(yīng)該嚴(yán)格遵守規(guī)則以便尋求到更好的生存。這就要求,要使我們的規(guī)則越來越符合人類的生存現(xiàn)實(shí)就必須不斷地認(rèn)識(shí)它。如果認(rèn)識(shí)不清楚,我們的規(guī)則就不可能是好的規(guī)則,我們的生存就不可能越來越好。因此,我們要制定出好的規(guī)則,關(guān)鍵在于一方面能夠認(rèn)識(shí)清楚我們的生存現(xiàn)實(shí),另一方面根據(jù)此前的認(rèn)識(shí)進(jìn)行協(xié)商。
顯然“奇點(diǎn)”來臨之后,人類肯定會(huì)利用人工智能來幫助我們認(rèn)識(shí)清楚這個(gè)生存現(xiàn)實(shí),并希望為我們制定規(guī)則提供重要參考。但是,完全依賴于人工智能制定出來的規(guī)則是否就完全適合于我們呢?更何況,人工智能作為新的生命體,肯定也需要遵守規(guī)則。這就涉及到這樣的問題:以往制定出來的規(guī)則都是人與人相互協(xié)商的產(chǎn)物,但是現(xiàn)在有了人工智能的參與,制定出來的規(guī)則就不是人與人相互協(xié)商的產(chǎn)物,而是涉及到人與人工智能、人工智能與人工智能和人與人的相互協(xié)商。但是基于智能水平的差異,人類的認(rèn)識(shí)與人工智能的認(rèn)識(shí)肯定存有差異,我們肯定無法與人工智能進(jìn)行平等地協(xié)商進(jìn)而制定出適合人類與人工智能的規(guī)則。因?yàn)椤叭祟惣寄艿脑鲩L速度越來越緩慢,而計(jì)算機(jī)功能的增速卻越來越快”,[12]智商極限在150的我們“或許已經(jīng)能夠接受智商為250的機(jī)器人,因?yàn)檫@接近于人類生物智能的智商范圍。但是,對(duì)于智商1000的機(jī)器人或1萬的AI來說,我們?nèi)匀恍拇娌话病薄13]60因此,我們只能被動(dòng)地接受智商比人類高出數(shù)個(gè)數(shù)量級(jí)的人工智能制定出的規(guī)則。
即使我們能夠表面上平等地坐下來與人工智能進(jìn)行協(xié)商,但是如果在協(xié)商的過程中出現(xiàn)爭執(zhí),該如何處理呢?可以肯定,我們只能聽命于人工智能。另外,既然人工智能是具有生命的新主體,它們?cè)谥贫ㄒ?guī)則的時(shí)候也肯定優(yōu)先考慮自己。長此以往,人類必將交出制定規(guī)則的權(quán)力而異化給人工智能。如果如此,人類將永遠(yuǎn)只能被動(dòng)地接受規(guī)則而不能主動(dòng)地廢除、修改和制定規(guī)則。這樣的結(jié)果就是人工智能開始設(shè)計(jì)起人類,而不是人類設(shè)計(jì)人工智能。我們的生存也許就是這樣:“地球可能會(huì)變成一座沒有圍墻的動(dòng)物園,一個(gè)實(shí)實(shí)在在的陸地動(dòng)物飼養(yǎng)所,哪里只有陽光和孤獨(dú),我們的機(jī)械看管者為了維護(hù)正常的運(yùn)轉(zhuǎn)偶爾會(huì)推動(dòng)我們一下,而我們會(huì)為了自身的幸福高舉雙手歡迎這樣的幫助”。[14]
因此,由于智能水平的差異,我們必將逐漸失去制定規(guī)則的權(quán)力,進(jìn)而完全依賴于人工智能來幫助我們制定規(guī)則。長此以往,我們就成了一個(gè)被動(dòng)的執(zhí)行者,更甚者,我們會(huì)逐漸喪失對(duì)我們的生存現(xiàn)實(shí)的判斷能力。因?yàn)槲覀儫o需制定規(guī)則,根本不需要對(duì)我們的生存現(xiàn)實(shí)進(jìn)行任何認(rèn)識(shí)與判斷。這樣,我們反而成了被動(dòng)執(zhí)行指令的機(jī)器,并逐步被淘汰為動(dòng)物甚至機(jī)器人的寵物。實(shí)質(zhì)上,人類失去制定規(guī)則的權(quán)力就是人類已經(jīng)無法控制人工智能,導(dǎo)致人工智能異化,即原來的主體(人類)轉(zhuǎn)變?yōu)榭腕w,原來的客體(人工智能)轉(zhuǎn)變?yōu)橹黧w。簡言之,人工智能已經(jīng)不是人類的創(chuàng)造與作品,反而成了控制和規(guī)定人類的主體。
由于人工智能的過于強(qiáng)大,不僅人類生存的內(nèi)在條件正在不斷發(fā)生著不利于人類生存的變化,而且人類生存的外部條件同樣也正在不斷發(fā)生不利于人類生存的變化,環(huán)境資源不是越來越優(yōu)越,而是越來越危機(jī),即可能會(huì)對(duì)人機(jī)共存的環(huán)境帶來巨大挑戰(zhàn),直接威脅到我們生存所需的環(huán)境資源。現(xiàn)有的研究往往忽視這方面的挑戰(zhàn)。
眾所周知,人類生存環(huán)境的惡化從根本上說是由于環(huán)境資源的有限性,并且人的數(shù)量在不斷增長以及需求在不斷提升,難免會(huì)超出這個(gè)星球的承受能力。因此,要使我們能夠一勞永逸地生存下去,首先就需要提高環(huán)境資源的利用效率以減少浪費(fèi);其次是將我們的需求控制在地球可以承受的范圍內(nèi);再次是大力發(fā)展可再生資源;最后是努力發(fā)展可替代資源。但是在現(xiàn)有的技術(shù)條件下,任何一個(gè)方面都顯得舉步維艱。不過庫茲韋爾認(rèn)為,“奇點(diǎn)”來臨之后,特別是通過發(fā)展納米技術(shù),就會(huì)“使發(fā)展清潔、可再生、分布式和安全的能源技術(shù)成為可能”。[1]147不僅資源的利用效率極大提高而幾乎不產(chǎn)生浪費(fèi),而且我們將不再像現(xiàn)在一樣依賴不可再生資源。因此,環(huán)境資源必將越來越優(yōu)化,生存環(huán)境必將越來越好。
其實(shí),庫茲韋爾是根據(jù)現(xiàn)在的狀況來預(yù)測未來,并沒有意識(shí)到未來的人工智能和人類一樣也需要消耗大量的環(huán)境資源。如果僅僅是我們需要消耗環(huán)境資源,當(dāng)然可以通過發(fā)展高新技術(shù)來緩解甚至解決這個(gè)緊迫問題。但是人工智能本身所要消耗的資源又應(yīng)該如何來計(jì)算呢?特別是,“智能爆炸”的到來完全有可能會(huì)導(dǎo)致環(huán)境資源更加惡化。“智能爆炸”意味著人工智能數(shù)量的發(fā)展完全超出我們的控制。隨著人工智能的數(shù)量呈現(xiàn)指數(shù)增長,制造人工智能所需要的特殊資源也必將呈現(xiàn)出指數(shù)增長?,F(xiàn)在我們所能預(yù)測的是:“所有這些數(shù)字設(shè)備將需要更多的‘稀土’,更多的鈳鉭鐵礦石,更多的鋰以及許多其他日益稀缺的資源”;[15]196“為了查收電子郵件和短信,你需要諸如筆記本電腦、平板電腦和智能手機(jī)等設(shè)備,導(dǎo)致對(duì)鋰和鈳鉭鐵礦石等能源資源的需求也成倍增長”。[15]197而這些制造人工智能的特殊資源基本上都是不可再生資源。當(dāng)然你可以說,人工智能所需要的資源不是人類所需的,因此,對(duì)我們的生存不產(chǎn)生任何實(shí)質(zhì)性的威脅。但是不要忘記了,“奇點(diǎn)”來臨之后,我們的生存已經(jīng)與人工智能緊密結(jié)合在一起,如果人工智能不能得到持續(xù)發(fā)展,最終的結(jié)果就是我們也同樣不能持續(xù)發(fā)展。
其實(shí),不僅“智能爆炸”會(huì)帶來新的環(huán)境資源危機(jī),人工智能的不斷發(fā)展導(dǎo)致效率的提高同樣會(huì)帶來環(huán)境資源的新危機(jī)。因?yàn)槿斯ぶ悄艿陌l(fā)展僅僅是提高了效率進(jìn)而減少浪費(fèi)。但是從歷史視角分析,以往的任何一次科技革命都提供了新技術(shù),能夠不斷地提高環(huán)境資源的利用效率,但是效率提高了,我們的需要在質(zhì)與量兩方面也增長了。為了滿足我們的需要,科技的進(jìn)步必然得到進(jìn)一步發(fā)展的動(dòng)力。長此以往,人類所需的環(huán)境資源只能隨著效率的提高而不斷擴(kuò)大,以至于超過地球的承受能力而不斷產(chǎn)生新的危機(jī)。就目前而言,我們大談特談人工智能,也僅僅是因?yàn)樘岣吡诵剩]有產(chǎn)生根治危機(jī)的效果。
因此,“奇點(diǎn)”的到來不僅使人類生存的內(nèi)在條件(主體地位、賦予世界以意義的地位、決策權(quán)力和制定規(guī)則權(quán)力)受到前所未有的沖擊,而且人類生存的外在條件即環(huán)境資源也受到了重大沖擊,意味著人工智能對(duì)人類生存所產(chǎn)生的顛覆性影響是全方位的。
正因?yàn)槿斯ぶ悄軐?duì)人類生存所產(chǎn)生的影響是全方位的,即“奇點(diǎn)”來臨之后我們?cè)絹碓较袢斯ぶ悄?、我們的生存越來越無意義化、我們的自主決策權(quán)力正在被剝奪、甚至逐漸失去制定規(guī)則的權(quán)力、并且連我們生存所需的外部條件即環(huán)境資源也受到了威脅,那么我們就必須未雨綢繆地采取措施以避免這種狀況的發(fā)生。現(xiàn)在看來,我們最容易想到的是賦予人工智能以理性。如果人工智能和我們一樣具有人類的理性,那么人工智能的所作所為就會(huì)按人類的理性來展開,即可以借用理性來實(shí)現(xiàn)人工智能不斷服務(wù)于人類!但是這可行嗎?
從歷史分析,“世界在不斷進(jìn)步,我們很幸運(yùn),因?yàn)楫?dāng)今社會(huì)比人類歷史上任何時(shí)候都更加和平、有序,當(dāng)代人培育、提高自己智力、藝術(shù)和情感能力的機(jī)會(huì)空前增加”。[7]130而整個(gè)人類歷史能夠呈現(xiàn)出進(jìn)步的狀態(tài)關(guān)鍵在于人是有理性的。對(duì)于技術(shù)樂觀主義者而言,人工智能的飛速發(fā)展并沒有必要讓我們保持高度的警惕與擔(dān)憂,畢竟人工智能是人類發(fā)展的技術(shù)產(chǎn)物,并且“超級(jí)人工智能將會(huì)把理性作為自己的行動(dòng)指南,并因此變得仁慈”。[7]131因此,人工智能必將在我們的作用下發(fā)展成為對(duì)人類越來越友好的人工物,畢竟它們會(huì)擁有和我們一樣的理性。如果這樣,我們的生存會(huì)隨著人工智能的發(fā)展而不斷進(jìn)步。
確實(shí),如果人工智能能夠越來越理性化,對(duì)人類生存而言肯定是積極的。但是,如果人工智能越來越具有人的理性,那么人的理性是否存在著不可克服的矛盾?如果人的理性存在著不可克服的矛盾,那么擁有人的理性的人工智能是否也同樣存在著不可克服的矛盾?如果人工智能因?yàn)榫哂腥说睦硇远a(chǎn)生沖突,我們是否還有機(jī)會(huì)生存下去呢?
可以肯定,人類歷史上曾經(jīng)出現(xiàn)的各種危機(jī)都是理性的產(chǎn)物。至今讓我們記憶猶新的兩次世界大戰(zhàn)都是理性的產(chǎn)物,還有冷戰(zhàn)時(shí)期的美蘇爭霸導(dǎo)致隨時(shí)都有可能發(fā)生毀滅地球的核戰(zhàn)爭陰云同樣也是理性的產(chǎn)物,相信現(xiàn)在出現(xiàn)的各種生態(tài)危機(jī)也是理性的產(chǎn)物。因此,人類的理性并不完美,特別是理性沖突不可避免。如果人工智能將我們相互沖突的理性作為自己的行動(dòng)指南,那么人工智能之間的沖突同樣不可避免。一旦人工智能之間產(chǎn)生沖突,這樣的沖突所產(chǎn)生的破壞力肯定要比兩次世界大戰(zhàn)超出數(shù)十倍甚至更多個(gè)數(shù)量級(jí),必將危害到我們賴以生存的整個(gè)星球,世界末日就不是僅僅出現(xiàn)在宗教神話和科幻小說中。
可能更為恐怖的是,“奇點(diǎn)”來臨之后的人工智能就像我們一樣能夠自我繁衍,它們的理性必然同樣能夠“自我繁衍”下去而產(chǎn)生出新的理性體系,那么人類的理性如果一旦和人工智能的理性產(chǎn)生了沖突,那么我們應(yīng)該怎么辦?是完全屈服于人工智能的理性還是奮起反抗而迫使人工智能繼續(xù)接受我們的理性?顯然,“完全屈服”可能是最好的選擇,因?yàn)閵^起反抗的結(jié)果只能是自取滅亡。有人可能會(huì)認(rèn)為,我們還可以繼續(xù)發(fā)揮理性狡計(jì),比如利用拔掉插頭以切斷電源、賄賂、說服甚至威脅等方式,讓人工智能不斷服務(wù)于人類。但是現(xiàn)在我們就可以預(yù)見:“超人工智能將會(huì)變得超級(jí)精明,要靠拔插頭解決問題絕不可能”,[16]177且“超人工智能將足夠了解人類心理,可能知道什么樣的賄賂或威脅可能起作用,也可能知道哪些人最容易被哪些說服方式說服”。[16]178顯然在人工智能面前想通過理性狡計(jì)這樣的雕蟲小技來“迷惑”它們簡直就是天方夜譚。而且我們更應(yīng)該擔(dān)心:這樣的雕蟲小技一旦不能(也根本不能)取得成功而被它們識(shí)破且報(bào)復(fù)我們的悲慘境況。
因此,促使人工智能越來越理性化的結(jié)果可能就會(huì)違背我們的初衷,最終的結(jié)果很有可能就是摧毀一切。這就意味著促進(jìn)人工智能朝著有利于人類生存的方向發(fā)展不能寄希望于將人的理性“貫穿”到人工智能身上。
可見,借用人類的理性來實(shí)現(xiàn)人工智能不斷為人類服務(wù)的目標(biāo)是不可實(shí)現(xiàn)的,當(dāng)然我們不能就此而放棄促使人工智能不斷服務(wù)于人類這一目標(biāo)。除了賦予人工智能以理性之外,我們還可以通過“嵌入”倫理規(guī)則的方式來促使人工智能不斷服務(wù)于人類。
早在1940年12月,剛剛20歲的阿西莫夫(Isaac Asimov)就曾站在人類中心主義的立場闡述了他的機(jī)器人三定律。[13]63其實(shí)早期的人工智能研究者都認(rèn)識(shí)到一旦人工智能超越人類將會(huì)產(chǎn)生可怕的后果,特別是“聊天機(jī)器人”的發(fā)明者魏森鮑姆(Joseph Weizenbaum),在意識(shí)到人工智能帶來的可怕后果后就開始研究人工智能帶來的社會(huì)責(zé)任和道德問題。[17]因此,要使這種可怕后果不要發(fā)生的可能最佳方式就是為人工智能立法。比如,未來生命研究院提出“確保AI有益于人類社會(huì)”,美國計(jì)算機(jī)協(xié)會(huì)發(fā)布算法透明和可責(zé)性七項(xiàng)原則,德國提出全球首個(gè)自動(dòng)駕駛車倫理原則,韓國國會(huì)提出《機(jī)器人基本法案》和IEEE發(fā)布《人工智能設(shè)計(jì)的倫理準(zhǔn)則(第二版)》,等等。當(dāng)然,為人工智能立法的最好辦法就是在設(shè)計(jì)過程中“嵌入”倫理規(guī)則,保證人工智能不斷遵守倫理規(guī)則而為人類服務(wù)。段偉文認(rèn)為,應(yīng)該進(jìn)行“探討倫理嵌入的機(jī)器倫理研究”,“不僅是人工智能的設(shè)計(jì)者、控制者和使用者應(yīng)該遵守特定的倫理規(guī)范,而且還需要將特定倫理規(guī)范編程到機(jī)器人自身的系統(tǒng)中去?!盵18]這樣,就能夠通過“嵌入”倫理規(guī)則促進(jìn)人工智能成長而培育出具有道德判斷能力的可能,使人工智能成為道德智能體。
如果能夠通過“嵌入”倫理規(guī)則而不斷實(shí)現(xiàn)人工智能的倫理化,那么必將對(duì)我們的生存產(chǎn)生積極效果。但是問題的關(guān)鍵是我們應(yīng)該為人工智能“嵌入”怎樣的倫理規(guī)則。倫理規(guī)則和理性一樣具有相對(duì)性,倫理規(guī)則之間的沖突不可避免,倫理規(guī)則與現(xiàn)實(shí)之間的沖突同樣不可避免。就倫理規(guī)則之間的沖突而言,我們對(duì)倫理規(guī)則背后的基本倫理理念的理解仍然存在激烈的沖突,不同的理解必然會(huì)產(chǎn)生不同的甚至相互矛盾的倫理規(guī)則。人工智能在遵循這些倫理規(guī)則時(shí)必然會(huì)處于兩難的悖論境地。比如,如果“嵌入”以人為中心的功利主義規(guī)則,那么首先就必須回答什么功利、什么是功利最大化和傷害最小化、功利到底如何計(jì)算,等等。如果在這些問題還沒有搞清楚之前就將其中的倫理規(guī)則“嵌入”人工智能,那么它們能一以貫之嗎?
另外,倫理規(guī)則一旦制定出來就意味著具有一定的普遍性,能夠在任何情況下適用。那么將倫理規(guī)則“嵌入”人工智能之后,它們是否也會(huì)像我們一樣,會(huì)出現(xiàn)一旦產(chǎn)生具體沖突該如何遵循的困境?比如現(xiàn)在人們普遍思考的無人駕駛。當(dāng)無人駕駛汽車在面對(duì)不可避免的車禍的時(shí)候,到底是優(yōu)先保護(hù)車上的人還是車外的人?即人工智能是否也像人類一樣在普遍與特殊之間的矛盾中不能自拔?如果出現(xiàn)這樣的狀況,估計(jì)人工智能除了“死機(jī)”之外沒有其他更好的辦法。這就表明,人工智能很難將我們“嵌入”的倫理規(guī)則真正貫徹到底。
因此,一個(gè)具有人類意識(shí)的人工智能如果不能像我們一樣嚴(yán)格遵守相應(yīng)的倫理規(guī)則,肯定是可怕的;但是當(dāng)我們?cè)谒伎既绾螌惱硪?guī)則“嵌入”人工智能而使其倫理化的時(shí)候,卻發(fā)現(xiàn)我們不知道應(yīng)該“嵌入”什么樣的具體倫理規(guī)則;如果真的“嵌入”,人工智能必然會(huì)像我們一樣陷入普遍與特殊之間的矛盾中。
既然“奇點(diǎn)”的到來給人類的生存帶來了前所未有的沖擊,并且我們通過賦予人工智能以人類特有的理性和“嵌入”倫理規(guī)則都難以實(shí)現(xiàn)人工智能不斷服務(wù)于人類,那么我們就不能不思考一個(gè)十分緊迫的問題,人工智能到底是越來越友好還是越來越邪惡?當(dāng)然,如果從技術(shù)中立的角度來思考,人工智能肯定是既不好也不壞。但是技術(shù)中立性的觀點(diǎn)已經(jīng)不再適用于人工智能。因?yàn)槿斯ぶ悄懿辉傧襁^去的技術(shù)一樣呈現(xiàn)出死的技術(shù)產(chǎn)品,而是有意識(shí)且能夠自我繁衍的新生命體。它的好與壞直接決定了在“奇點(diǎn)”來臨之后,我們的生存是越來越好還是越來越壞。我們的生存與人工智能的好與壞產(chǎn)生了共進(jìn)退的局面。但是,我們還是希望人工智能越來越友好。從人類產(chǎn)生至今的歷史,我們完全有理由保持樂觀的態(tài)度。世界只能越來越好而不是越來越壞,就像歷史上曾經(jīng)出現(xiàn)的歷次科技革命一樣,在革命的前期與中期人類總是會(huì)產(chǎn)生各式各樣的悲觀情緒,而在革命之后甚至更長的一段時(shí)間,突然發(fā)現(xiàn)每次科技革命都給我們帶來了發(fā)展與進(jìn)步。因此,可能現(xiàn)在我們對(duì)人工智能充滿著各種擔(dān)憂,相信一旦真正實(shí)現(xiàn)了“奇點(diǎn)”,完全有可能是另外一番欣欣向榮。
但是歷史的樂觀并不意味著我們對(duì)于“奇點(diǎn)”就可以保持十足的樂觀,畢竟以往的科技革命都是我們控制下的技術(shù)進(jìn)步,而“奇點(diǎn)”來臨之后,人工智能將成為與我們并列站在客觀世界面前的一個(gè)新物種,特別是“智能爆炸”,意味著我們的地位將發(fā)生根本性的改變。人工智能的過于強(qiáng)大很難使我們與之進(jìn)行難分高下的競爭,結(jié)果只能是我們的生存越來越人工智能化,而不是人工智能越來越人性化,我們可能要不斷地依附于人工智能這個(gè)新物種。當(dāng)我們的生存越來越人工智能化,我們的生存也會(huì)走向無意義化,顯得一切都不如委托給人工智能。因?yàn)檫@樣,我們聽命于人工智能的決策而形成行為就不用承擔(dān)任何倫理上的責(zé)任,“無為”地生存下去可能是更好的生存。
當(dāng)然,面對(duì)強(qiáng)大的人工智能,如果我們能夠“無為”地生存下去,也不失為一種較好的生存,反正我們可以按照自己想要的方式好好地生存下去。但是想要與人工智能保持相安無事地和平相處也有一定的困難。關(guān)鍵是人工智能可能具有我們的意識(shí)與理性,可能也正在踐行著一整套獨(dú)特倫理規(guī)則。它們的意識(shí)、理性和倫理規(guī)則能夠和人類的和平相處嗎?如果不能,我們就不要希望獲得任何一方凈土。其實(shí)我們現(xiàn)在思考人機(jī)共存環(huán)境的時(shí)候,很大程度上是鑒于技術(shù)具有中立性的原因。因此,人工智能不會(huì)主動(dòng)出擊。但是人工智能不會(huì)是完全中立的,畢竟它們是具有意識(shí)和理性的新生命體,更為重要的是,我們與人工智能在環(huán)境資源方面不可避免地會(huì)發(fā)生沖突。只要有沖突,哪怕是很小的沖突,誰都不能保證人工智能不會(huì)主動(dòng)出擊。赫拉利就曾悲觀地預(yù)言:“一旦人工智能超越人類智能,可能就會(huì)直接消滅人類。人工智能這么做的理由,一是可能擔(dān)心人類反撲、拔掉它的插頭,二是要追求某種我們現(xiàn)在還難以想象的目標(biāo)?!盵8]294如果這樣的情況一旦發(fā)生,我們?nèi)祟惖纳婢碗y以為繼。因此,誰能保證人工智能不會(huì)越來越壞呢?
因此,與以往的科技革命相比,“奇點(diǎn)”的到來只能導(dǎo)致人工智能在智能方面越來越超越人類,越來越失去人類的控制,甚至最終取代人類。這樣的結(jié)果就是人類特有的主體地位必將完全為人工智能所取代。如果人工智能一旦與人類發(fā)生沖突,人類的命運(yùn)就難以想象,人工智能就是邪惡的。
綜上所述,為了保證我們能夠在2045年之后生存得越來越好,有必要現(xiàn)在未雨綢繆地采取措施,即擔(dān)負(fù)起未來的責(zé)任。庫茲韋爾指出:“科技是一把雙刃劍,在奔向奇點(diǎn)的道路上,與走向奇點(diǎn)的可能一樣,我們也很可能會(huì)走向岔路,造成令人擔(dān)憂的后果?!盵1]225現(xiàn)在看來,能否使未來的人工智能越來越友好,關(guān)鍵在于我們自己。因此,我們有責(zé)任、有義務(wù)促使人工智能越來越友好、越來越能夠促進(jìn)我們的生存。從責(zé)任倫理角度思考,這個(gè)責(zé)任與義務(wù)可能就是要求我們,從現(xiàn)在開始要逐漸構(gòu)建起人工智能的責(zé)任倫理體系,負(fù)責(zé)任地研究、開發(fā)和運(yùn)用。對(duì)人工智能擔(dān)負(fù)起全面的責(zé)任,這既是我們對(duì)人工智能擔(dān)負(fù)起全面責(zé)任,實(shí)質(zhì)上也是我們對(duì)自己擔(dān)負(fù)起全面的責(zé)任,從而實(shí)現(xiàn)人工智能也能夠擔(dān)負(fù)起全面的責(zé)任(如果人工智能真的能夠成為繼人類之后的新的有意識(shí)的生命體)。唯有如此,人工智能才能真正不斷地服務(wù)于我們。正如現(xiàn)在我們面臨的諸種生態(tài)危機(jī)一樣,由于一開始沒有對(duì)地球上的有生命和沒有生命的存在物承擔(dān)起應(yīng)有的責(zé)任,導(dǎo)致我們現(xiàn)在處于各式各樣的危機(jī)之中,直接威脅著人類的正常生存。如果我們一開始就承擔(dān)起了應(yīng)有的責(zé)任,諸種生態(tài)危機(jī)或許根本就不存在。也正因?yàn)橐婚_始沒有承擔(dān)起相應(yīng)的責(zé)任,導(dǎo)致我們現(xiàn)在不得不承擔(dān)更大、更多、更沉重的責(zé)任。我們現(xiàn)在研究、開發(fā)和利用人工智能又何嘗不是如此呢?因此,我們現(xiàn)在構(gòu)建人工智能的責(zé)任倫理體系已勢在必行,只有在研究、開發(fā)和利用人工智能的過程中不斷承擔(dān)起相應(yīng)的倫理責(zé)任,才能在未來的人工智能發(fā)展過程中實(shí)現(xiàn)責(zé)權(quán)利的統(tǒng)一,最終促使人工智能不斷為人類服務(wù)。不僅要負(fù)責(zé)任地研究、開發(fā)和利用人工智能,還必須使人工智能不斷地成為我們的創(chuàng)造和作品;不僅要負(fù)責(zé)任地構(gòu)建良好的人機(jī)關(guān)系,還必須實(shí)現(xiàn)在人類主導(dǎo)下人類與人工智能的和平共處;不僅要現(xiàn)在承擔(dān)相應(yīng)的倫理責(zé)任,還必須未雨綢繆地承擔(dān)起未來的倫理責(zé)任;不僅要負(fù)責(zé)任地不斷促進(jìn)人工智能為人類服務(wù),還必須在此基礎(chǔ)上為人工智能的發(fā)展創(chuàng)造良好條件。總之,我們必須負(fù)責(zé)任地研究、開發(fā)和利用人工智能,不僅要承擔(dān)好現(xiàn)在的責(zé)任,更應(yīng)該面向未來而勇于承擔(dān)未來的責(zé)任。