吳冠軍
(華東師范大學(xué) 政治學(xué)系暨中國(guó)現(xiàn)代思想文化研究所,上海 200026)
生活在當(dāng)下時(shí)代,我們以目不暇接的方式見證著技術(shù)的加速發(fā)展。[注]即便物理規(guī)律會(huì)框定一個(gè)終極的界限,然而著名的“摩爾定律”以及雷·庫(kù)茲韋爾提出的“加速回報(bào)定律”一次又一次地讓我們見證其不斷持續(xù)著的有效性。從2016年“阿爾法狗”(AlphaGo)以4比1擊敗世界頂級(jí)圍棋棋手李世石并隨后一路連敗(并且完敗)所有頂尖人類棋手開始,“人工智能”(artificial intelligence)迅速?gòu)囊粋€(gè)技術(shù)領(lǐng)域?qū)I(yè)論題,變成為引爆媒體與社交媒體的公共話題。在上海召開的“2018世界人工智能大會(huì)”集中地展示了人工智能在教育、健康、金融、零售、交通、制造、服務(wù)等各個(gè)領(lǐng)域的“全面賦能”。時(shí)至今天,不管對(duì)“人工智能”抱持怎樣的態(tài)度,恐怕誰(shuí)都會(huì)至少承認(rèn):它已然無(wú)可爭(zhēng)議地成為了定義這個(gè)時(shí)代的關(guān)鍵詞之一。在各種公共討論中,SpaceX創(chuàng)始人埃隆·馬斯克(Elon Musk)以人工智能領(lǐng)域?qū)I(yè)人士身份提出的“人工智能威脅論”無(wú)疑是極具影響力的一種聲音。
馬斯克把人工智能稱之為“人類面對(duì)的最大威脅”,并將開發(fā)人工智能的努力比作“召喚惡魔”之舉。早在2015年,馬斯克就聯(lián)合去年離世的斯蒂芬·霍金(Stephen Hawking)一起發(fā)出公開信,宣稱危險(xiǎn)的人工智能軍備競(jìng)賽已經(jīng)開打。在2017年8月,馬斯克則帶領(lǐng)一百多位人工智能領(lǐng)域?qū)<野l(fā)出公開信,呼吁限制人工智能的開發(fā)。馬斯克甚至以聳人聽聞的語(yǔ)調(diào)在推特上聲稱:人類的第三次世界大戰(zhàn)將會(huì)由人工智能開啟。就在今年2月,因理念分歧,馬斯克宣布退出了他與其他硅谷巨頭共同創(chuàng)立的非營(yíng)利性人工智能實(shí)驗(yàn)室OpenAI,他說(shuō)“我不同意OpenAI團(tuán)隊(duì)想做的一些事,綜合各種因素我們最好還是好說(shuō)好散”[注]馬斯克與硅谷知名創(chuàng)業(yè)孵化器Y Combinator的總裁薩姆·奧爾特曼于2015年12月共同成立非營(yíng)利性AI技術(shù)研發(fā)組織OpenAI,并宣布將會(huì)以“推動(dòng)AI技術(shù)造福人類”為己任,通過(guò)向社會(huì)無(wú)償分享自己的AI技術(shù),來(lái)規(guī)避由于科技巨頭壟斷AI技術(shù)而導(dǎo)致的潛在威脅因素。參見《埃隆·馬斯克:人工智能將引發(fā)三戰(zhàn)》,新浪新聞中心,
盡管得到霍金、比爾·蓋茨(Bill Gates)以及許多專家的聲援,馬斯克的人工智能威脅論仍是遭到了激烈的反對(duì)。信息、技術(shù)和創(chuàng)新基金會(huì)(ITIF)在2015就把馬斯克稱作“危言聳聽者”,指責(zé)他不負(fù)責(zé)任地激起了對(duì)即將到來(lái)的人工智能革命的擔(dān)憂。該基金會(huì)每年評(píng)選“樂(lè)戴獎(jiǎng)”(Luddite Award),專門頒發(fā)給那些試圖阻礙技術(shù)創(chuàng)新的人。“樂(lè)戴”一詞原指19世英國(guó)紡織工人發(fā)起的一個(gè)秘密社團(tuán),他們摧毀棉紡機(jī)器,聲稱新技術(shù)將毀滅世界。2015年馬斯克與霍金因人工智能威脅論而獲得“樂(lè)戴獎(jiǎng)”(蓋茨亦被提名該獎(jiǎng)項(xiàng))。2017年Facebook創(chuàng)始人馬克·扎克伯格(Mark Zuckerberg)甚至直接在推特上指名道姓地批評(píng)馬斯克關(guān)于人工智能的言論,認(rèn)為這些言論是“消極而且不負(fù)責(zé)任”的。而馬斯克則回嗆扎克伯格,聲稱后者對(duì)人工智能的理解“太有限”[注]參見《馬斯克霍金獲“阻礙科技創(chuàng)新”獎(jiǎng)》,網(wǎng)易科技,
然而真正值得我們追問(wèn)的問(wèn)題是:馬斯克的人工智能威脅論是否只是故作驚人之語(yǔ),作為當(dāng)代“樂(lè)戴分子”的馬氏,其言論是否值得認(rèn)真對(duì)待。在我看來(lái),即便馬斯克因把人工智能比作“惡魔”而引來(lái)一片噓聲,即便第三次世界大戰(zhàn)之“禍?zhǔn)住甭犐先ハ駱O了嘩眾之音,但在哲學(xué)層面上,該論題仍是值得我們認(rèn)真對(duì)待的。經(jīng)由競(jìng)速學(xué)、藥學(xué)、政治哲學(xué)的層層遞進(jìn)分析,我們將會(huì)看到:人工智能對(duì)人類的當(dāng)代挑戰(zhàn)并非在整體文明的層面上,亦即并非代表一種更智慧的文明從“外部”整體性地挑戰(zhàn)人類文明。[注]美劇《西部世界》就描繪了這樣一種“外部挑戰(zhàn)”的恐怖前景,而在現(xiàn)實(shí)中,歐盟委員會(huì)“人工智能高級(jí)別專家組”于2018年12月18日制定的《可信任的人工智能倫理準(zhǔn)則草案》,亦代表了這樣一種努力——通過(guò)使人工智能變成“可信任的人工智能”(trustworthy AI),防止人工智能在文明層面上挑戰(zhàn)人類。參見《歐盟委員會(huì)發(fā)布〈可信賴的人工智能道德準(zhǔn)則草案〉》,騰訊網(wǎng),
2018年辭世的法國(guó)哲學(xué)家保羅·維利里奧(Paul Virilio)提出“競(jìng)速學(xué)”(dromology),提議要把速度作為核心研究對(duì)象,“速度是肇因性理念,理念之前的那個(gè)理念”[注]Paul Virilio, The Aesthetics of Disappearance, trans. Philip Beitchman, New York: Semiotext(e), 2009, p. 32.。在維利里奧看來(lái),人類文明的變化根本上便是速度的變化:技術(shù)的演進(jìn)所帶來(lái)的實(shí)質(zhì)上就是速度的提升(人和物位移速度、信息傳遞速度等等);政治組織的變化(譬如從奴隸制、封建制到官僚制)歸根結(jié)底也正是協(xié)作速度的變化。維氏聲稱:“實(shí)際上并沒(méi)有‘工業(yè)革命’,有的只是一個(gè)‘競(jìng)速革命’;并沒(méi)有民主制,有的只是競(jìng)速制;并不存在戰(zhàn)略,有的只是競(jìng)速學(xué)”。[注]Paul Virilio, Speed and Politics: An Essay on Dromology, trans. Mark Polizzotti, New York: Semiotext(e), 2006, p. 69.
人類文明的變遷,就是由一個(gè)又一個(gè)“競(jìng)速革命”所逼使,而所謂的“戰(zhàn)略”就是在競(jìng)速學(xué)層面上去獲取優(yōu)勢(shì)。反過(guò)來(lái),人類文明所遭遇的各種危機(jī),亦根本上是由速度提升所帶來(lái)的挑戰(zhàn)。維利里奧在其師梅洛-龐蒂(Maurice Merleau-Ponty)奠基性著作《知覺(jué)現(xiàn)象學(xué)》基礎(chǔ)上提出如下論點(diǎn):事情發(fā)生的速度會(huì)影響人們對(duì)現(xiàn)象的知覺(jué),而溝通與運(yùn)輸?shù)乃俣忍嵘齽t會(huì)深層次地帶來(lái)知覺(jué)場(chǎng)的變異,亦即劇烈地改變頭腦環(huán)境。質(zhì)言之,速度影響的是“知覺(jué)的后勤”(logistics of perception)。高速飆車容易出車禍,最質(zhì)樸的原因就是駕駛員的知覺(jué)后勤補(bǔ)給跟不上他/她加給自己的“激情”速度。
速度的提升所造成的最根本的知覺(jué)場(chǎng)變異,是嚴(yán)格現(xiàn)象學(xué)意義上的“時(shí)空壓縮”:無(wú)論是信息與數(shù)據(jù)的高速流動(dòng),還是人與物的高速移動(dòng),都導(dǎo)致時(shí)間與空間在知覺(jué)層面上遭到壓縮(甚至地球被壓縮成一個(gè)“村落”)。[注]“地球村”的提法麥克盧漢在上個(gè)世紀(jì)六十年代便已提出。See Marshall McLuhan, Understanding Media: the Extensions of Man, Cambridge, Mass.: The MIT Press, 1994,pp. 34, 93.知覺(jué)場(chǎng)變異在給人類以及人類文明帶來(lái)“激情”(從騎馬到騎摩托、從磁懸浮到超音速飛機(jī)……)的同時(shí),亦帶來(lái)巨大的挑戰(zhàn)。一頭麋鹿的“生物算法”能夠?qū)σ?10公里/小時(shí)時(shí)速奔向它的獵豹作出反應(yīng),然而它的“知覺(jué)后勤”完全跟不上狙擊槍射出的子彈的速度。而較之麋鹿(以及其它鄰近物種),人的“生物算法”同樣無(wú)法跟上這樣的速度,否則1999年科幻片《黑客帝國(guó)》(片中英雄Neo可以從容地躲避子彈)當(dāng)時(shí)就不會(huì)如此激起觀眾視覺(jué)(知覺(jué))上的劇烈震撼并一舉斬獲“奧斯卡最佳視覺(jué)效果獎(jiǎng)”——該片實(shí)質(zhì)上通過(guò)“視覺(jué)特效”重新把子彈的速度減慢到我們知覺(jué)后勤的舒適區(qū)。換言之,當(dāng)人類文明不斷以加速的方式迎來(lái)一個(gè)又一個(gè)“競(jìng)速革命”,但人體的“生物算法”卻是更新緩慢的,因而應(yīng)對(duì)加速涌來(lái)的知覺(jué)場(chǎng)變異時(shí)就顯得越來(lái)越捉襟見肘了。
從競(jìng)速學(xué)角度來(lái)看,人工智能所帶來(lái)的挑戰(zhàn),恰恰亦正是落在速度提升上:人工智能在“深度學(xué)習(xí)”上的速度、對(duì)大數(shù)據(jù)的處理速度完敗人的“生物算法”。這輪“競(jìng)速革命”的社會(huì)性結(jié)果,生活在當(dāng)下的我們已經(jīng)開始見證到:從購(gòu)物、獲取資訊到擇偶、招聘人才……,人們正在把越來(lái)多的決斷權(quán)交給人工智能算法。面對(duì)人工智能帶來(lái)的速度,人的“知覺(jué)的后勤”已經(jīng)徹底坍塌;在“阿爾法狗”的學(xué)習(xí)速度面前,人類頂級(jí)棋手已徹底跟不上……當(dāng)代世界各種事件快速發(fā)生、“信息炸彈”(information bomb)不斷涌來(lái),人不再確信自身能夠有效地應(yīng)對(duì)與處理,在“競(jìng)速場(chǎng)域”中,越來(lái)越多的人已經(jīng)把曾經(jīng)建立在自身“知覺(jué)”(“生物算法”)上的信心讓渡給了人工智能。2019年3月10日,一架隸屬埃塞俄比亞航空的波音737 Max-8在埃塞俄比亞境內(nèi)墜毀,機(jī)上157名乘客和機(jī)組人員全部罹難?;诤谙蛔訑?shù)據(jù)的初步調(diào)查分析顯示此次空難同5個(gè)月前印尼獅航空難如出一轍,都源于該型號(hào)飛機(jī)上新增的“自動(dòng)防失速系統(tǒng)”(專業(yè)名稱為“機(jī)動(dòng)特性增強(qiáng)系統(tǒng)”,Maneuvering Characteristics Augmentation System):當(dāng)它綜合各種傳感器讀數(shù)而判斷飛機(jī)處于失速狀態(tài)時(shí),該智能系統(tǒng)便接管飛機(jī);飛行員與該系統(tǒng)爭(zhēng)奪飛機(jī)控制權(quán)但最終沒(méi)能獲得成功,導(dǎo)致飛機(jī)在高速撞擊地面時(shí)解體。[注]See Luz Lazo et al., “Investigators find 2nd piece of key evidence in crash of Boeing 737 Max 8 in Ethiopia”, The Washington Post, March 15, 2019.波音737MAX 8配備的自動(dòng)防失速系統(tǒng)的工作原理是:飛機(jī)飛行時(shí)機(jī)頭越高,攻角(氣流與機(jī)翼弦線之間夾角)越大,當(dāng)攻角超出一定范圍時(shí),飛機(jī)面臨失速風(fēng)險(xiǎn)。該系統(tǒng)一旦判斷飛機(jī)失速,可以無(wú)需飛行員介入即接管飛機(jī)控制,并使飛機(jī)低頭飛行,以糾正失速。如果這個(gè)調(diào)查是可靠的,那么,這兩場(chǎng)空難便可以被理解為人把決斷權(quán)讓渡給人工智能(“自動(dòng)防失速系統(tǒng)”截?cái)嗔俗隈{駛艙里的飛行員的“知覺(jué)的后勤”)后所導(dǎo)致的慘劇。
人/物、信息/數(shù)據(jù)移動(dòng)速度的巨幅提升(并且是加速提升),導(dǎo)致在當(dāng)下人類文明內(nèi)部,人工智能算法已然快速地、全方位地在淘汰人體的“生物算法”(“智能”)。在這個(gè)意義上,“人工智能革命”實(shí)則正是“競(jìng)速革命”的最新形態(tài)。從競(jìng)速學(xué)出發(fā),我們可以重新審視馬斯克“第三次世界大戰(zhàn)”論題:人工智能帶來(lái)的威脅,并不是它如“惡魔”那樣“有意”發(fā)動(dòng)世界戰(zhàn)爭(zhēng)、毀滅人類文明,而是在當(dāng)下主權(quán)性的民族國(guó)家格局下,人工智能所帶來(lái)的速度變化正在使它實(shí)質(zhì)性地拿到越來(lái)越多的決斷權(quán)。我們完全可以設(shè)想如下的場(chǎng)景(不少影視作品已然模擬過(guò)):國(guó)家領(lǐng)導(dǎo)人面對(duì)突然而來(lái)的警信,一小時(shí)后(甚至更短時(shí)間)各主要軍事基地將會(huì)受到另一國(guó)家全面的導(dǎo)彈襲擊,而緊急趕到軍情室的高官、參謀們?nèi)紵o(wú)法快速判斷出究竟真有襲擊還是錯(cuò)誤警報(bào)抑或黑客入侵,最后領(lǐng)導(dǎo)人只能倚賴人工智能的判斷來(lái)決定是否立即讓己方武器升空(以免太晚而全部被對(duì)方摧毀)……而現(xiàn)實(shí)的情況是,正如邁克斯·泰格馬克(Max Tegmark)所說(shuō):“發(fā)展正朝著徹底自主選擇和襲擊目標(biāo)的全自動(dòng)武器前進(jìn),把所有人拉出決策圈以取得速度,這在軍事上是極具吸引力的?!盵注]Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence,New York: Alfred A. Knopf, 2017 (ebook), p. 145.確實(shí),既然人類的判斷早已跟不上今天信息與武器的發(fā)展速度,那么徹底讓人工智能來(lái)直接決斷(以省下人作為“虛假?zèng)Q策者”所浪費(fèi)掉的那些邊際時(shí)間)更符合“競(jìng)速統(tǒng)治”(dromocracy)。維利里奧在四十多年前便宣稱人類文明已經(jīng)進(jìn)入“競(jìng)速統(tǒng)治”,而“競(jìng)速統(tǒng)治”的實(shí)質(zhì)便是速度的專政。正是“競(jìng)速統(tǒng)治”使馬斯克關(guān)于人工智能那聳人聽聞的命題具有了現(xiàn)實(shí)性——如果有第三次世界大戰(zhàn),它很可能是“全自動(dòng)”發(fā)生的。
事情發(fā)生速度的加速提升,使得人類對(duì)事情作出反應(yīng)的時(shí)間(決斷時(shí)間)變得加速縮短。這就是維利里奧說(shuō)的“速度的暴力”:“世界變得越小(作為遠(yuǎn)程通訊的相對(duì)主義效應(yīng)的一個(gè)結(jié)果),情境就越發(fā)被暴力性地折疊?!盵注]Paul Virilio, The Information Bomb, trans. Chris Turner. London: Verso, 2000, p. 67.事情越快地發(fā)生,它帶來(lái)的危險(xiǎn)也就越大,當(dāng)人的“智能”(“知覺(jué)后勤”)跟不上時(shí),人們就進(jìn)入了永恒的“緊急狀態(tài)”(state of emergency)。維利里奧生造“競(jìng)速學(xué)”這個(gè)詞(以及“競(jìng)速統(tǒng)治”、“競(jìng)速革命”),就是提示其讀者應(yīng)該從“競(jìng)賽”(race)角度來(lái)思考速度。速度就是戰(zhàn)爭(zhēng):“速度的原初性,同時(shí)就是軍事的原初性?!盵注]Paul Virilio and SylvereLotringer, Pure War, trans. PhilipBeitchman, B. O’Keefe and MarkPolizzotti, New York: Semiotext(e), 2008, p. 51.維氏在上個(gè)世紀(jì)七十年代就已經(jīng)指出,戰(zhàn)爭(zhēng)已經(jīng)從殺死敵人變成消滅敵人的知覺(jué)場(chǎng),戰(zhàn)場(chǎng)就是知覺(jué)場(chǎng)。倒計(jì)時(shí)的畫面已經(jīng)變成戰(zhàn)場(chǎng)的場(chǎng)景:地點(diǎn)在消失,戰(zhàn)士在消失,空間向度上的“圍攻狀態(tài)”(state of siege)被時(shí)間向度上的“緊急狀態(tài)”所取代。正是這種時(shí)間上的永恒的“緊急狀態(tài)”,使得人類決策者們心甘情愿乃至無(wú)可奈何地把決斷權(quán)一點(diǎn)點(diǎn)地交出去。
生活在當(dāng)代的我們,實(shí)際上在見證著知覺(jué)的后勤補(bǔ)給正在加速地被人工智能切斷——從日常生活到國(guó)際政治,從信息獲取、信息處理到最終決策,人類文明正在一條龍式地被人工智能接管。人們(作為有限個(gè)體)此前都是在有限信息與條件下做決策。諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)與圖靈獎(jiǎng)雙重得主赫伯特·西蒙(Herbert Simon)把人所具有的理性稱作“受約束的理性”(bounded rationality):人的“理性決策”根本性地受限于所掌握的信息、思考的時(shí)間以及思考者的智力與知識(shí)。[注]決策所導(dǎo)致的結(jié)果、手段與目的之間的匹配度以及潛在的替代方案,全都受限于思考者的信息、時(shí)間及其能力。SeeHerbert Simon, Administrative Behavior, 3rd edition, New York: The Free Press, 1976.故此,從來(lái)就不存在自由主義所預(yù)設(shè)的那種永遠(yuǎn)能做出最理性決策的“理性—經(jīng)濟(jì)人”。在本體論層面上,每一個(gè)決策,實(shí)際上都是德里達(dá)(Jacques Derrida)意義上的基于“無(wú)可決斷性”(the undecidable)的決斷。[注]關(guān)于“無(wú)可決斷性”的政治哲學(xué)分析,請(qǐng)參見吳冠軍:《政治哲學(xué)的根本問(wèn)題》,《開放時(shí)代》2011年第2期。人工智能雖未在本體論意義上破除有限性,亦即擁有“不受約束的理性”,然而卻已然被認(rèn)為遠(yuǎn)遠(yuǎn)勝過(guò)人類“知覺(jué)現(xiàn)象學(xué)”意義上的有限性,并因此開始實(shí)質(zhì)性地接管人類的決斷權(quán)。正是在這個(gè)意義上,人工智能實(shí)已深層參與乃至逐漸主導(dǎo)人類世界的變化。我們可以試問(wèn):肯尼迪與赫魯曉夫倘若生于一個(gè)世紀(jì)之后,他們是否還能以當(dāng)年的方式化解“古巴危機(jī)”?未來(lái)的領(lǐng)導(dǎo)人是否能夠無(wú)視人工智能的判斷而聲言——我了解對(duì)方,他(們)絕對(duì)不會(huì)讓導(dǎo)彈升空?如果一個(gè)領(lǐng)導(dǎo)人要不同意人工智能的判斷而以自己的判斷來(lái)做決定,即便他/她本人愿意擔(dān)負(fù)所有的責(zé)任,其部下們會(huì)不會(huì)執(zhí)行其命令,其國(guó)民會(huì)有多少人愿意站在其身后?人工智能的算法使得基于知覺(jué)場(chǎng)的“(人的)視角”徹底被剝奪。當(dāng)維利里奧說(shuō)“現(xiàn)今,不再有勝利,所有人都失敗”[注]Paul Virilio and John Armitage, “The Kosovo W@r Did Take Place”, in John Armitage (ed.), Virilio Live: Selected Interviews, London: Sage, 2001, p. 188.時(shí),他指的還是核導(dǎo)彈的速度,而今天人工智能的速度則使得這句論斷獲得更無(wú)從辯駁的力量:所有“人”都已經(jīng)失敗。
在這個(gè)人工智能聲稱比你更了解你的時(shí)代,人們不再自己耗費(fèi)精力去了解戀愛(ài)對(duì)象而交給婚戀APP算法來(lái)定位“最適合的TA”,國(guó)家領(lǐng)導(dǎo)人不再自己耗費(fèi)精力去深入了解其在國(guó)際上的伙伴與對(duì)手而依賴人工智能的大數(shù)據(jù)分析……這才是人工智能對(duì)人類文明的真正挑戰(zhàn)。2018年有一本暢銷書題為《人工非智能》(Artificial Unintelligence),作者用“人工非智能”這個(gè)詞來(lái)形容計(jì)算機(jī),意即媒體和專家們夸大了人工智能的智能程度。[注]作者主要聚焦在人工智能處理人類事務(wù)時(shí)的短板。See Meredith Broussard, Artificial Unintelligence: How Computers Misunderstand the World, Cambridge, Mass.: The MIT Press, 2018.然而,在我看來(lái),這個(gè)詞更好地形容了生活在“人工智能時(shí)代”中的人類。結(jié)合法國(guó)哲學(xué)家貝爾納·斯蒂格勒(Bernard Stiegler)近年來(lái)頻繁所使用的“系統(tǒng)性愚蠢”(systemic stupidity)這個(gè)概念,我的論點(diǎn)便是:“人工智能時(shí)代”人類文明自身恰恰會(huì)進(jìn)入“人工非智能”——一種人為導(dǎo)致的“系統(tǒng)性愚蠢”。
對(duì)于“人工非智能”,我們可以以手機(jī)(還用不著智能手機(jī)登場(chǎng))為例來(lái)解釋:我們大概都有這樣的感受吧,曾有一個(gè)時(shí)期我們擁有記住許多親友電話號(hào)碼的能力,然而自從用慣手機(jī)之后,再要去記住新認(rèn)識(shí)朋友那由十來(lái)個(gè)數(shù)字組成的號(hào)碼,卻是變成一件難上加難的事。恰恰是手機(jī)使我們變得更蠢了(記憶能力下降)。同樣地,那很早之前就已經(jīng)進(jìn)入我們生活的計(jì)算器(還用不著計(jì)算機(jī)登場(chǎng))使得我們大幅度喪失“心算”的能力。晚近在市場(chǎng)上出現(xiàn)并且已經(jīng)有了多次迭代的智能翻譯機(jī)使我們的跨語(yǔ)際溝通變得容易,然而已經(jīng)有人在聲稱不再需要“費(fèi)力”學(xué)習(xí)外語(yǔ)[注]典型如作家花千芳2019年3月17日在其個(gè)人微博上發(fā)表的學(xué)習(xí)英語(yǔ)無(wú)用論:“對(duì)于絕大多數(shù)中國(guó)人來(lái)說(shuō),英語(yǔ)都是一件廢物技能。浪費(fèi)了我們無(wú)數(shù)人力財(cái)力,犧牲了孩子們的寶貴童年”。了,亦即不再由自己來(lái)理解他人說(shuō)的話,而完全交由智能翻譯機(jī)來(lái)掌控溝通……當(dāng)越來(lái)越多此類“智能技術(shù)”在各個(gè)面向上深層次地滲入我們?nèi)粘I顣r(shí)候的,我們的“變蠢”正在越來(lái)越變成系統(tǒng)性的了。
人們以為自己只是在使用技術(shù)產(chǎn)品,然而后者恰恰在改變著人。根據(jù)布魯諾·拉圖爾(Bruno Latour)等人提出的著名的“行動(dòng)者—網(wǎng)絡(luò)理論”(actor-network theory),物同樣是行動(dòng)者,和其他行動(dòng)者處于彼此“觸動(dòng)”(affect)與“被觸動(dòng)”的網(wǎng)絡(luò)結(jié)構(gòu)中。譬如,當(dāng)一個(gè)人身上帶著一把槍,他/她就“被攜槍所轉(zhuǎn)型(transformed)”,“你變得不同,當(dāng)槍在你的手中”[注]Bruno Latour, Pandora’s Hope: Essays on the Reality of Science Studies, Cambridge, Mass.: Harvard University Press, 1999, pp. 177, 179, emphasis in original.??赡鼙緛?lái)酒吧里一個(gè)小口角,瞪兩眼說(shuō)兩句狠話也就結(jié)束了,但其中一方身上有槍時(shí),槍會(huì)讓自己參與進(jìn)來(lái)。我們可以進(jìn)一步給拉圖爾的“行動(dòng)者—網(wǎng)絡(luò)理論”添加入維利里奧與斯蒂格勒的色彩:當(dāng)一個(gè)人拿了槍,(a)他/她就進(jìn)入槍的速度而非人的速度(事情發(fā)生速度會(huì)大幅躥升),(b)他/她大幅度地變蠢(不拿把槍就不知道怎樣和別人交流)。正是在互動(dòng)觸動(dòng)的意義上,技術(shù)能夠根本性地改變?nèi)恕?/p>
維利里奧和斯蒂格勒都把技術(shù)物視作“義肢”(prosthesis):在維利里奧這里,義肢改變了“知覺(jué)后勤”(譬如望遠(yuǎn)鏡改變了我們對(duì)距離和維度的體驗(yàn));在斯蒂格勒這里,義肢則是一種“藥”(同時(shí)是良藥和毒藥),當(dāng)人們不加思考地肆用義肢,那就形同“磕藥”。這兩年,世界各地都有報(bào)道有人直接開車開進(jìn)海里,僅僅因?yàn)镚PS指示繼續(xù)保持直行……這樣的蠢人,恰恰是裝備很多技術(shù)義肢的人。所以斯蒂格勒提出“藥學(xué)”(pharmacology):作為“藥”的技術(shù)能治療人,也能毒害人。衣服能幫助我們御寒,但讓我們自身逐漸喪失御寒的能力;我們做筆記幫助記憶,但逐漸喪失復(fù)雜記憶能力;我們使用GPS幫助認(rèn)路,但逐漸喪失認(rèn)路能力;我們使用計(jì)算機(jī)幫助貯存和處理信息,卻使我們快速喪失這些關(guān)鍵能力,最終一步步走向“系統(tǒng)性愚蠢”。
其實(shí)“系統(tǒng)性愚蠢”早有端倪,斯蒂格勒最喜歡用的例子是美國(guó)前聯(lián)邦財(cái)長(zhǎng)格林斯潘(Alan Greenspan)2008年10月23日在國(guó)會(huì)對(duì)全球金融危機(jī)所作的解釋——他說(shuō)任何人包括他自己在內(nèi)都無(wú)法理解金融市場(chǎng)正在發(fā)生什么,因?yàn)闆](méi)有人跟得上算法的速度。那一刻清晰地標(biāo)識(shí)出:金融精英竟被自己的邏輯剝奪了關(guān)于自己邏輯的知識(shí),金融市場(chǎng)已經(jīng)成為“蠢人們的市場(chǎng)”(a market of fools)。[注]BernardStiegler, For a New Critique of Political Economy, trans. Daniel Ross, Cambridge: Polity Press, 2010, p. 47; BernardStiegler, Taking Care of Youth and the Generations, trans. Stephen Barker, Stanford: Stanford University Press, 2010, p. 22.斯蒂格勒據(jù)此提出“普遍化了的無(wú)產(chǎn)階級(jí)化”(generalizedproletarianization)命題,人的所有知識(shí)正在被清空:人的工作知識(shí),被自動(dòng)化機(jī)器的物質(zhì)化了的知識(shí)所取代;人的生活知識(shí),被那比所有人更了解所有人的“大數(shù)據(jù)”所吞蝕;而人的理論知識(shí),則變成一種無(wú)產(chǎn)階級(jí)化的偽知識(shí)。恰恰是這種偽知識(shí),生產(chǎn)出系統(tǒng)性愚蠢。[注]BernardStiegler, States of Shock: Stupidity and Knowledge in the 21st Century, trans. Daniel Ross, Cambridge: Polity, 2015, p. 133.斯氏表示他完全不同意格林斯潘關(guān)于金融危機(jī)的說(shuō)辭,但卻很明白這是一個(gè)被無(wú)產(chǎn)階級(jí)化的人所說(shuō)的。知識(shí)(工作知識(shí)、生活知識(shí)、理論知識(shí))被系統(tǒng)性抹除的后果便是,人的“能力”(capabilities)——在諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主阿瑪?shù)賮啞ど?Amartya Sen)意義上作為自由的保障的能力——被徹底剝除了,從而導(dǎo)致全面的貧困。森指出,貧困不僅僅指收入低下,而必須被視為對(duì)能力的剝奪。[注]Amartya Sen, Commodities and Capabilities, 2nd ed., Oxford: Oxford University Press, 1999.由能力的全面被剝奪所導(dǎo)致的貧困,便正是斯蒂格勒意義上的無(wú)產(chǎn)階級(jí)化——個(gè)體陷入真正的一貧如洗。
斯蒂格勒認(rèn)為:“人類紀(jì)”發(fā)展出的諸種認(rèn)知技術(shù),恰恰把認(rèn)知領(lǐng)域本身無(wú)產(chǎn)階級(jí)化了,換言之,把人系統(tǒng)性地變蠢?!罢J(rèn)知資本主義”(資本主義系統(tǒng)+認(rèn)知技術(shù))所導(dǎo)致的最大問(wèn)題就是理論知識(shí)被系統(tǒng)性地清除掉了。[注]Stiegler, For a New Critique of Political Economy, pp. 45-46.故此,伴隨著認(rèn)知技術(shù),在市場(chǎng)上所有人似乎變得更“聰明”,但恰恰是“普遍化的愚蠢”?!跋到y(tǒng)性愚蠢由普遍化了的無(wú)產(chǎn)階級(jí)化所產(chǎn)生,在消費(fèi)主義工業(yè)系統(tǒng)中,任何行動(dòng)者都無(wú)法逃離?!盵注]Stiegler, States of Shock, p. 45;Stiegler, Taking Care of Youth and the Generations, p. 22, emphasis in original.“認(rèn)知資本主義”誠(chéng)然是圍繞獲取智能而展開經(jīng)濟(jì)性活動(dòng)的資本主義形態(tài),然而在斯蒂格勒看來(lái),“有必要知道的是,在這種經(jīng)濟(jì)性的戰(zhàn)斗(盡管同時(shí)也是獲得智能的戰(zhàn)斗)中,一個(gè)人為之戰(zhàn)斗的東西,并不等同于智能,并且有時(shí)完全是它的反面。經(jīng)濟(jì)性戰(zhàn)斗原則上只能是達(dá)至獲得智能這個(gè)目標(biāo)的一個(gè)‘手段’。但在這場(chǎng)戰(zhàn)斗的過(guò)程中,某種反轉(zhuǎn)似乎出現(xiàn)了,以至于那只可能是‘手段’的東西變成了‘目的’,而目的成了手段。更進(jìn)一步,看上去是一場(chǎng)關(guān)于智能的經(jīng)濟(jì)性戰(zhàn)斗,通過(guò)智能,生產(chǎn)出了其反面:愚蠢、注意力的潰散、無(wú)響應(yīng)性、非文明性、‘思考的零度’”[注]Stiegler, Taking Care of Youth and the Generations, p. 31, emphasis in original.。在資本主義系統(tǒng)中展開的經(jīng)濟(jì)性的戰(zhàn)斗,吞噬了獲得智能的戰(zhàn)斗——所有投身這場(chǎng)戰(zhàn)斗的參與者們集體地走向智能的反面。而經(jīng)由數(shù)字科技所開啟的總體自動(dòng)化“認(rèn)知資本主義”在二十一世紀(jì)初期業(yè)已發(fā)展成了“計(jì)算性資本主義”(“算法資本主義”+“網(wǎng)絡(luò)化資本主義”)。關(guān)于智能的經(jīng)濟(jì)性戰(zhàn)斗已經(jīng)抵達(dá)“人工智能”階段,而人本身則普遍地?fù)肀А叭斯し侵悄堋?。知識(shí)(尤其是生活知識(shí)與理論知識(shí))無(wú)法計(jì)算、無(wú)法被算法兼容,故此在計(jì)算性資本主義中沒(méi)有它們的位置。在今天,“技術(shù)已經(jīng)抵達(dá)數(shù)字語(yǔ)法化的階段,它分析并綜合整個(gè)世界”,而這導(dǎo)致“系統(tǒng)性愚蠢與瘋狂的普遍散播”。通過(guò)智能穿戴裝備、植入物、云端計(jì)算等等“體外器官”,人現(xiàn)在可以放心地讓自己變蠢。[注]BernardStiegler, Automatic Society: The Future of Work, trans. Daniel Ross, Cambridge: Polity, 2016, p. 25; Stiegler, States of Shock, p. 123;BernardStiegler, The Neganthropocene, trans. Daniel Ross, London: Open Humanities Press, 2018, p. 145.
斯蒂格勒在其2018年新著《負(fù)人類紀(jì)》中寫道:“人工的、自動(dòng)化了的愚蠢,是反知識(shí)的具化,它徹徹底底是計(jì)算性的(算法的和網(wǎng)絡(luò)化的)資本主義。在這種資本主義中,‘后真相’苦痛作為普遍化了的去—知化(它本身是普遍化了的無(wú)產(chǎn)階級(jí)化的產(chǎn)物)的末世論而強(qiáng)加于人們,這個(gè)進(jìn)程恰恰當(dāng)我們進(jìn)入熵紀(jì)(Entropocene)而發(fā)生,而晚近這被《衛(wèi)報(bào)》稱作特朗普紀(jì)(Trumpocene)?!盵注]Stiegler, The Neganthropocene, p. 143.“后真相”社會(huì)恰恰是普遍化了的去—知化的產(chǎn)物,建立在人工的、自動(dòng)化了的愚蠢之上。而特朗普這個(gè)人物,典范性地標(biāo)識(shí)出這個(gè)時(shí)代的“人工非智能”特性:作為《像冠軍一樣思考》、《思想牛人》、《登頂之道》等暢銷書的作者,特朗普看上去極其“聰明”,能在認(rèn)知資本主義的市場(chǎng)上縱橫自如,在國(guó)內(nèi)和國(guó)際政治中似乎亦總能“如愿以償”,但恰恰是他不折不扣地成為系統(tǒng)性愚蠢的標(biāo)志性人物。而就是這樣的人物,今天領(lǐng)導(dǎo)著世界上最強(qiáng)大的國(guó)家。
聯(lián)合國(guó)2018年10月8日發(fā)布報(bào)告指出,倘若全球繼續(xù)按照目前的速度暖化下去,而又未能采取迅速和史無(wú)前例的相應(yīng)措施遏制升溫現(xiàn)象,到了2030年至2052年全球氣溫可能上升1.5攝氏度。而在2030年以后,即便各國(guó)政府采取更大規(guī)模和更雄心勃勃的減排計(jì)劃來(lái)落實(shí)在2015年《巴黎協(xié)定》中定下的目標(biāo)(即將全球平均氣溫升幅限制在前工業(yè)水平的攝氏2度以內(nèi),同時(shí)尋求將升幅收窄至攝氏1.5度),那也是不足夠的——要把全球暖化控制在1.5攝氏度以內(nèi),全球凈二氧化碳排放量必須在2030年之前較2010年的水平減少45%,同時(shí)在本世紀(jì)中達(dá)到“凈零”水平。聯(lián)合國(guó)政府間氣候變化專門委員會(huì)(IPCC)董事會(huì)成員阿卜杜拉(Amjad Abdulla)表示:“聯(lián)合國(guó)這份報(bào)告顯示,我們只有很渺茫的機(jī)會(huì),避免對(duì)我們目前所知、維持生命的氣候系統(tǒng)造成不可想像的破壞?!盵注]《全球氣溫2030至2052年上升1.5度,聯(lián)合國(guó)吁控制碳排放》,果樂(lè)頭條,
特朗普很“聰明”(他多次公開表示自己比奧巴馬等前任們“聰明”得多),但恰恰典范式地“具化”了去—知化了的愚蠢,而恐怖的是人類文明真的會(huì)因?yàn)檫@樣的愚蠢而進(jìn)入“特朗普紀(jì)”。在斯蒂格勒看來(lái),資本主義系統(tǒng)導(dǎo)致了技術(shù)創(chuàng)新變成永遠(yuǎn)在加速的、看不見其帶來(lái)變化(去-知化)的逐利過(guò)程,人類紀(jì)也正因此變成“熵紀(jì)”。而在今天,“熵紀(jì)”更好的名稱就是“特朗普紀(jì)”。[注]在劉慈欣獲得雨果獎(jiǎng)的科幻作品《三體》中,正是對(duì)世界大國(guó)之間因利益沖突無(wú)法就環(huán)境問(wèn)題達(dá)成法律意義上的協(xié)議,導(dǎo)致“三體地球組織”中的降臨派領(lǐng)袖人物麥克·伊文斯對(duì)人類文明徹底產(chǎn)生絕望:“我們不知道外星文明是什么樣子,但知道人類?!眳⒁妱⒋刃溃骸度w》,重慶出版社2008年版,第240頁(yè)。
從“熵紀(jì)”(“特朗普紀(jì)”)角度來(lái)審察馬斯克的“第三次世界大戰(zhàn)”命題,我們便能清晰地看到,那份可能使這個(gè)命題成真的“人工的、自動(dòng)化了的愚蠢”——誠(chéng)然,當(dāng)下正在鋪開的人工智能軍備競(jìng)賽正在使所有國(guó)家都集體加速陷入系統(tǒng)性愚蠢。馬斯克把人工智能比作“惡魔”也許不甚恰當(dāng),但“人工非智能”確實(shí)是人工智能深度社會(huì)化所帶來(lái)的一個(gè)無(wú)可回避的效應(yīng):一方面是速度導(dǎo)致的永恒的“緊急狀態(tài)”,另一方面則是普遍化了的去—知化。那些應(yīng)對(duì)永恒“緊急狀態(tài)”的未來(lái)的領(lǐng)導(dǎo)人,只需要有一張俊俏的臉蛋(這個(gè)趨勢(shì)已經(jīng)在發(fā)生),而不需要他/她有多智慧——人工智能代替人的“智慧”,后者只需要根據(jù)人工智能的“GPS導(dǎo)航”來(lái)行動(dòng)即可。
馬斯克希望用公開呼吁的方式,甚至不惜滿口“危言”以達(dá)“聳聽”的效果,來(lái)阻止人工智能軍備競(jìng)賽:“國(guó)家間對(duì)人工智能優(yōu)勢(shì)的爭(zhēng)奪,很可能引發(fā)第三次世界大戰(zhàn)?!盵注]參見前引《埃隆·馬斯克:人工智能將引發(fā)三戰(zhàn)》。馬氏這個(gè)努力除了使他成功地榮獲“樂(lè)戴獎(jiǎng)”外,顯然沒(méi)能有其他實(shí)質(zhì)性的效果。馬斯克本人晚近投入巨資成立了研發(fā)“腦機(jī)接口”的新公司Neuralink,他給出的說(shuō)法是:“既然我之前對(duì)人工智能的警告收效甚微,那么好的,我們自己來(lái)塑造人工智能的發(fā)展,讓它走向好的一面。”[注]參見前引《埃隆·馬斯克:人工智能將引發(fā)三戰(zhàn)》。盡管馬斯克已放棄了繼續(xù)呼吁,但值得我們進(jìn)一步去分析的是:為什么馬斯克(以及其他重量級(jí)人物如蓋茨、霍金)這些年來(lái)公開呼吁的努力會(huì)徹底無(wú)果?[注]針對(duì)馬斯克以“腦機(jī)接口”方案應(yīng)對(duì)人工智能威脅的專門分析,請(qǐng)參見吳冠軍:《神圣人、機(jī)器人與“人類學(xué)機(jī)器”——二十世紀(jì)大屠殺與當(dāng)代人工智能討論的政治哲學(xué)反思》,《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018年第6期,以及吳冠軍:《人工智能與未來(lái)社會(huì):三個(gè)反思》,《探索與爭(zhēng)鳴》2017年第10期。
在我看來(lái),內(nèi)嵌于當(dāng)下人類文明的兩個(gè)結(jié)構(gòu)性元素使馬氏這個(gè)呼吁注定無(wú)效。這意味著,人工智能軍備競(jìng)賽會(huì)導(dǎo)致所有國(guó)家集體加速陷入系統(tǒng)性愚蠢,而人類文明的當(dāng)下政治—經(jīng)濟(jì)格局卻已然配置好了確保通向系統(tǒng)性愚蠢的環(huán)境參數(shù)。
第一,我們的世界仍然處于全球資本主義秩序下。晚近這些年來(lái),人工智能(a)在各個(gè)產(chǎn)業(yè)內(nèi)巨幅降低成本,從而大幅增加利潤(rùn)空間;(b)對(duì)人類生活不斷提供各種優(yōu)質(zhì)服務(wù),并且服務(wù)的潛力無(wú)可窮盡。這兩者使得它具有廣闊的商業(yè)化前景。在資本主義系統(tǒng)中,只要有贏利空間,資本就會(huì)源源不斷地涌入,更何況是高額贏利的空間。[注]缺乏贏利性投資,則是資本主義經(jīng)濟(jì)危機(jī)的真正核心。當(dāng)盈余資本找不到贏利性出口,經(jīng)濟(jì)便陷入停滯,并隨之引起大規(guī)模失業(yè)、資本貶值……參見吳冠軍:《“歷史終結(jié)”時(shí)代的“伊斯蘭國(guó)”:一個(gè)政治哲學(xué)分析》,《探索與爭(zhēng)鳴》2016年第2期。這一點(diǎn)赫拉利(Yuval N. Harari)看得就很清楚:“只要讓他們獲得新發(fā)現(xiàn)、贏得巨大利潤(rùn),大多數(shù)的科學(xué)家和銀行家并不在乎要做的是什么事情?!盵注]赫拉利:《未來(lái)簡(jiǎn)史》,林俊宏譯,中信出版社2017版,第25頁(yè)。馬斯克對(duì)此可謂剛剛收獲了慘痛體驗(yàn):他所創(chuàng)建的OpenAI這個(gè)非營(yíng)利性組織在他離開后,已于2019年3月12日宣布重大重組,正式成立營(yíng)利性公司。娜奧米·克萊恩(Naomi Klein)曾經(jīng)提出“災(zāi)難資本主義”(disaster capitalism)一詞,意指資本主義把災(zāi)難變成“激動(dòng)人心的市場(chǎng)機(jī)會(huì)”[注]Naomi Klein, The Shock Doctrine: The Rise of Disaster Capitalism, New York: Metropolitan, 2007, p. 6.。在我看來(lái),這個(gè)詞同樣精準(zhǔn)地勾勒出如下狀況:資本主義系統(tǒng)內(nèi)的行動(dòng)者們都是“聰明人”(理性經(jīng)濟(jì)人),最后卻是集體性地導(dǎo)致災(zāi)難。
第二,我們的世界仍然處在民族國(guó)家格局中?!爸鳈?quán)”(sovereignty)更妥當(dāng)?shù)淖g法是“至高狀態(tài)”,在由主權(quán)國(guó)家組成的政治場(chǎng)域中,即便有覺(jué)得馬斯克言之有理的領(lǐng)導(dǎo)人,亦無(wú)法實(shí)質(zhì)性地采納其建議,使本國(guó)自外于人工智能軍備競(jìng)賽之外。這種所有行動(dòng)者都具有至高的自主決定權(quán)但實(shí)際上卻無(wú)法自主作出決定的狀況,便是一種經(jīng)典的“納什均衡”(Nash equilibrium)。數(shù)學(xué)家、諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主約翰·納什(John Nash)論證了存在著一類策略對(duì)局狀況,在其中沒(méi)有任何局中人可以因?yàn)閱为?dú)改變自己的策略而獲利。資本主義邏輯(利益最大化)加上主權(quán)國(guó)家格局(至高決斷權(quán)),就創(chuàng)建出此種狀況。
以下例子構(gòu)成了一個(gè)反思性的參照。1967年美國(guó)聯(lián)邦傳播委員會(huì)(FCC,F(xiàn)ederal Communications Commission)發(fā)布規(guī)定,煙草公司可以在電視上做廣告,但每條煙草廣告必須搭配一條公益廣告告知公眾“吸煙有害健康”。煙草公司此時(shí)便陷入到同類“納什均衡”中:它可以選擇不做廣告,但這樣顧客就會(huì)被對(duì)手搶走;而大家越做廣告,整體顧客卻越流失,因?yàn)闀?huì)有越來(lái)越多的人知曉吸煙的危害,并被反復(fù)提醒。于是,沒(méi)有公司敢放棄做廣告,明知該舉措會(huì)整體上使所有公司都受害?;谕瑯拥脑?,人工智能軍備競(jìng)賽的前景即便是災(zāi)難性的,但賽場(chǎng)內(nèi)的玩家們誰(shuí)也無(wú)法承受輕易退出所帶來(lái)的風(fēng)險(xiǎn)——大家表面上都很“睿智”,卻導(dǎo)致系統(tǒng)性愚蠢。
是以,因當(dāng)下世界全球資本主義秩序和主權(quán)民族國(guó)家格局這兩個(gè)結(jié)構(gòu)性因素,馬斯克的人工智能威脅論即便用詞再激烈,最后只能徒勞無(wú)功。馬斯克的“危言”真正帶來(lái)的思想激蕩,不在于人工智能在可預(yù)見的未來(lái)是否真的能引發(fā)第三次世界大戰(zhàn),而是在于如果他是對(duì)的,這個(gè)世界當(dāng)下這套支配性的政治—經(jīng)濟(jì)—意識(shí)形態(tài)建制,卻只能逼使所有人一起眼睜睜地看著它一步步發(fā)生……。
斯蒂格勒的批判性矛頭主要針對(duì)資本主義系統(tǒng)(“消費(fèi)資本主義”、“認(rèn)知資本主義”、“計(jì)算性資本主義”),故此他提議一種“新的政治經(jīng)濟(jì)學(xué)批判”,然而,當(dāng)代世界的主權(quán)國(guó)家格局同樣是系統(tǒng)性愚蠢的重要肇因。當(dāng)年美國(guó)煙草公司針對(duì)“納什均衡”想出的破局方法是推動(dòng)國(guó)會(huì)通過(guò)法案(1970年)禁止所有煙草公司在電視上做廣告,結(jié)果一年之內(nèi)煙草業(yè)整體利潤(rùn)提高了30%。該策略質(zhì)言之就是訴諸更高的力量,由它來(lái)取消所有行動(dòng)者的至高狀態(tài)。
返觀當(dāng)代世界,今天的聯(lián)合國(guó)并不具備高于主權(quán)國(guó)家的“至高性”。今年已90歲的德國(guó)哲學(xué)家哈貝馬斯(Jürgen Habermas)在2015年著作中還在努力呼吁,要以超民族國(guó)家的政治體來(lái)馴服“技術(shù)統(tǒng)治”。[注]Jürgen Habermas, The Lure of Technocracy, trans. Ciaran Cronin, Cambridge: Polity, 2015, p. 57.然而,2016年以來(lái)的英國(guó)脫歐、特朗普造墻、美俄《中導(dǎo)條約》廢除、美國(guó)退出《巴黎協(xié)定》等等一系列變化,則實(shí)是標(biāo)識(shí)了這個(gè)世界越來(lái)越無(wú)力抵抗系統(tǒng)性愚蠢。當(dāng)這個(gè)世界的“聰明人”全都“像冠軍一樣思考”時(shí),大家便會(huì)集體眼睜睜看著自己的愚蠢將整個(gè)世界吞沒(méi)。格雷漢姆·阿利森(Graham Allison)提出“修昔底德陷阱”(Thucydides Trap)[注]See for example Graham Allison, “The Thucydides Trap: Are the U.S. and China Headed for War?” The Atlantic, Sep 24, 2015.后,該論迅即被很多政界與學(xué)術(shù)界的“聰明人”競(jìng)相追捧,甚至被視作主導(dǎo)世界的永恒“鐵律”。然而,在當(dāng)代競(jìng)速場(chǎng)域中,堅(jiān)持“新崛起大國(guó)與既有大國(guó)必有一戰(zhàn)”之論實(shí)則是愚蠢到無(wú)可救藥,要知道(可能那些“聰明人”不知道)“理論”從來(lái)就具有構(gòu)塑“現(xiàn)實(shí)”的能力!在當(dāng)代世界,恰恰因?yàn)槔碚撝R(shí)已被系統(tǒng)性地剝奪,那么多“聰明人”(實(shí)則是被無(wú)產(chǎn)階級(jí)化的人)才會(huì)把阿利森的論調(diào)奉為鐵律,并不惜讓整個(gè)世界為自己的愚蠢買單。很不幸的是,我們正在見證的不是“修昔底德陷阱”,而是——借用斯蒂格勒“蠢人們的市場(chǎng)”之喻——一個(gè)“蠢人們的世界”的陷阱。愛(ài)因斯坦大半個(gè)世紀(jì)前曾說(shuō):“只有兩樣?xùn)|西是無(wú)限的:宇宙,和人類的愚蠢。而我對(duì)前者還無(wú)法確認(rèn)。”[注]當(dāng)然,和許多愛(ài)因斯坦的名句一樣,關(guān)于這句話的出處目前存有爭(zhēng)議,請(qǐng)參見Andrew Robinson,“We Just Can’t Stop Misquoting Einstein”,Primemind, Mar 14, 2016.在當(dāng)下這個(gè)“人工智能時(shí)代”里,這份愚蠢已然無(wú)需愛(ài)因斯坦級(jí)別的頭腦來(lái)確認(rèn)了。
前面三節(jié)分別從競(jìng)速學(xué)、藥學(xué)和政治哲學(xué)的分析性視角出發(fā),來(lái)考察當(dāng)下這個(gè)“人工智能時(shí)代”——所謂人工智能時(shí)代恰恰是人正在加速性地喪失自身智能的時(shí)代,恰恰是一個(gè)人類文明正在全面陷入系統(tǒng)性愚蠢的時(shí)代。在人工智能面前,當(dāng)下整個(gè)人類文明(“特朗普紀(jì)”),實(shí)是“其智可及,其愚不可及也”[注]《論語(yǔ)·公冶長(zhǎng)》:“寧武子,邦有道則知,邦無(wú)道則愚。其知可及也,其愚不可及也?!?。在2019年動(dòng)畫劇集《愛(ài)、死亡、機(jī)器人》中,當(dāng)人類文明終結(jié)很久之后,有三個(gè)機(jī)器人探索一個(gè)廢棄城市,并最后得出如下結(jié)論:“他們只是通過(guò)成為一幫傻人(a bunch of morons)而作死了自己?!盵注]《愛(ài)、死亡、機(jī)器人》第一季第二集《三個(gè)機(jī)器人》。“蠢人們的世界”是人工智能時(shí)代的真正陷阱。
美國(guó)著名解構(gòu)派學(xué)者艾維托·羅內(nèi)爾(Avital Ronell)曾在2002年出版了一部專著:《愚蠢》。在羅內(nèi)爾看來(lái),愚蠢無(wú)法被戰(zhàn)勝——人類可以發(fā)起一場(chǎng)針對(duì)毒品的戰(zhàn)爭(zhēng),卻無(wú)法發(fā)起一場(chǎng)針對(duì)愚蠢的戰(zhàn)爭(zhēng)。[注]Avital Ronell, Stupidity, Urbana: University of Illinois Press, 2002, p. 3.斯蒂格勒拒絕愚蠢無(wú)“藥”可救這種看法。在他看來(lái),我們必須立即發(fā)起針對(duì)愚蠢的斗爭(zhēng),爭(zhēng)分奪秒地去努力改變“特朗普紀(jì)”——在今天,“唯一值得去生活的事情,就是反抗愚蠢的斗爭(zhēng)”。愚蠢就像不正義(injustice),盡管不能徹底將之消除,但卻必須與之為戰(zhàn);一旦停止戰(zhàn)斗,愚蠢就將統(tǒng)治一切——“系統(tǒng)性愚蠢結(jié)構(gòu)性地阻止長(zhǎng)期視野的重新構(gòu)建”[注]Stiegler, Taking Care of Youth and the Generations, p. 132;Stiegler, For a New Critique of Political Economy, p. 5.。斯氏把同愚蠢進(jìn)行斗爭(zhēng)的實(shí)踐稱作“貢獻(xiàn)性實(shí)踐”:每一個(gè)拒絕變蠢的人,都是這個(gè)時(shí)代的貢獻(xiàn)者。而所謂的“別無(wú)它路”、“不再有別的替代方案”,這種思維本身就是系統(tǒng)性愚蠢的一個(gè)結(jié)果。作為哲學(xué)家的斯蒂格勒提出:“哲學(xué)誕生下來(lái),就是和智術(shù)性的愚蠢做斗爭(zhēng)?!盵注]Stiegler, States of Shock, pp. 44, 174; Stiegler, TheNeganthropocene, p. 83.今天的特朗普、格林斯潘們?nèi)缤畔ED時(shí)代的智者(sophists),個(gè)個(gè)看上去都極為“睿智”,然而帶給人類文明的卻恰恰是“智術(shù)性的愚蠢”。在斯氏眼里,他們不但“無(wú)—能”,而且“無(wú)—意識(shí)”。[注]Stiegler, Automatic Society, p. 161.
哲學(xué)家(愛(ài)智者)能做什么?哲學(xué)家無(wú)法改變“競(jìng)速革命”帶來(lái)的時(shí)空壓縮,無(wú)法改變技術(shù)的加速發(fā)展,但哲學(xué)家們可以通過(guò)介入性—批判性的分析,去改變技術(shù)的社會(huì)—政治效應(yīng)(socio-political effects)。用斯蒂格勒的話說(shuō),就是去“同一種導(dǎo)致愚蠢之統(tǒng)治的經(jīng)濟(jì)與政治情境做斗爭(zhēng)”[注]Stiegler, States of Shock, p. 32.。斯氏強(qiáng)調(diào)資本主義系統(tǒng)必須被改變[注]Ibid., pp. 62-63.關(guān)于對(duì)“數(shù)字資本”的進(jìn)一步分析,可參見藍(lán)江:《數(shù)字資本、一般數(shù)據(jù)與數(shù)字異化:數(shù)字資本的政治經(jīng)濟(jì)學(xué)批判導(dǎo)引》,《華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第4期。,而值得進(jìn)一步補(bǔ)充的是,民族國(guó)家的主權(quán)格局同樣必須要被改變。這種介入性的愛(ài)智慧實(shí)踐,用馬克思的話說(shuō),就是哲學(xué)家的“第十一論綱”:“哲學(xué)家們以往都僅僅是在以不同的方式解釋世界;但關(guān)鍵在于,去改變這個(gè)世界。”[注]Karl Marx, “Theses on Feuerbach”, in Eugene Kamenka (ed.), The Portable Marx, New York: Penguin, 1983, p.158.而改變資本主義秩序與民族國(guó)家格局這兩者,恰恰都是馬克思當(dāng)年提出的改變世界的方向。
在人工智能時(shí)代,改變世界的出路絕不會(huì)是拒絕加速發(fā)展的技術(shù)、讓一切回歸到前人工智能的“生物算法”上——在這個(gè)意義上,“樂(lè)戴分子”實(shí)際上從來(lái)無(wú)法改變世界。真正能夠改變世界的實(shí)踐必然是哲學(xué)性的,亦即需要實(shí)踐者投入自身的智能。首先,(a)追問(wèn)和思考如下問(wèn)題:我們能用加速發(fā)展的技術(shù)產(chǎn)生出怎樣的新的知識(shí)來(lái)?進(jìn)而,(b)在新知識(shí)的基礎(chǔ)上,不斷激進(jìn)地——加速地——更新既有的政治—經(jīng)濟(jì)—意識(shí)形態(tài)建制。這種哲學(xué)性實(shí)踐(愛(ài)智者的實(shí)踐)才是唯一的能同系統(tǒng)性愚蠢展開真正有效斗爭(zhēng)——有效擺脫人工智能時(shí)代的“第三次世界大戰(zhàn)”、擺脫“特朗普紀(jì)”、擺脫“修昔底德陷阱”(……)——的貢獻(xiàn)性實(shí)踐。[注]關(guān)于人工智能時(shí)代貢獻(xiàn)性實(shí)踐的進(jìn)一步討論,請(qǐng)參見吳冠軍:《后人類狀況與中國(guó)教育實(shí)踐:教育終結(jié)抑或終身教育?——人工智能時(shí)代的教育哲學(xué)思考》,《華東師范大學(xué)學(xué)報(bào)(教育科學(xué)版)》2019年第1期。而這篇文章,則旨在成為這種哲學(xué)性—貢獻(xiàn)性實(shí)踐中的一個(gè)微小但具體的努力。