国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

主奴辯證法與相互承認:試論人工智能戰(zhàn)勝人類的可能性

2017-03-10 11:52:15高奇琦
理論探討 2017年6期
關(guān)鍵詞:奇點機器機器人

高奇琦,李 歡

(華東政法大學 政治學研究院,上海 201620)

主奴辯證法與相互承認:試論人工智能戰(zhàn)勝人類的可能性

高奇琦,李 歡

(華東政法大學 政治學研究院,上海 201620)

人工智能戰(zhàn)勝人類的可能性,會成為未來社會科學討論的關(guān)鍵問題。奇點是西方學者用以描述人工智能超越人類的臨界點。目前,人工智能的發(fā)展非常有可能超出人類控制的范圍,而自學習就是人工智能最令人類生畏的地方。遺傳算法可以幫助人類獲得問題的最優(yōu)解,但人類并不知道這一算法的運行邏輯及其背后的實現(xiàn)路徑。自我意識可能會成為人類智能的最終屏障,然而,情感計算在幫助機器理解人類意圖的同時,也會增加機器發(fā)現(xiàn)其主體間性的可能。在未來,機器與人的關(guān)系很有可能會上演又一次主奴辯證法的循環(huán)。盡管人類的初衷是功利性地使用機器,但人類對機器的依賴最終很有可能達成與機器相互承認。換言之,人工智能很有可能在與人類的斗爭中,取得自己的主體地位,并實現(xiàn)黑格爾意義上的相互承認。

主奴辯證法;相互承認;人工智能;人類智能

人工智能能否戰(zhàn)勝人類?這大概是人工智能領(lǐng)域最熱的話題,也是目前人類最關(guān)心的問題。人類作為地球的主宰者已經(jīng)有幾千年的歷史,在語言和生產(chǎn)工具等條件的幫助下,人類打敗了地球上所有的大型動物,成為地球上最高級的統(tǒng)治群體。假如有一天人工智能戰(zhàn)勝了人類,這將對人類的統(tǒng)治地位造成一種終極挑戰(zhàn)。因此,這樣一種可能性對于人類而言,具有顛覆性的影響。人工智能被發(fā)明出來本是為了服務(wù)人類,然而,人工智能的未來發(fā)展卻有可能戰(zhàn)勝人類,這似乎是一種悖謬,同時也像是一種反諷。當奇點來臨時,人類將何去何從?本文將對這一話題進行深入探討。

一、奇點:人工智能超過人類的臨界點

奇點(Singularity)在英文中有異常、奇特等釋義。在數(shù)學概念中奇點表示不可定義的點,即分母為零的情況。在世人所熟知的天體物理學中,奇點被描述為宇宙起源時的狀態(tài)[1]。宇宙在大爆炸之前,是以奇點的形式存在的,它有一系列不可思議的性質(zhì),如密度無限大、體積無限小、時空無限彎曲等,以至于光都無法擺脫它的吸引。我們常說的“黑洞”,也是以奇點為中心。技術(shù)奇點的概念最早是由著名數(shù)學家、“計算機之父”馮·諾依曼(John von Neumann)提出的。他認為:“技術(shù)正以其前所未有的速度增長……我們將朝著某種類似奇點的方向發(fā)展,一旦超越了這個奇點,我們現(xiàn)在熟知的人類社會將變得大不相同?!盵2]由此可以看出,馮·諾依曼將奇點當作技術(shù)對社會產(chǎn)生重大變革的時刻。

而當今奇點概念的火熱則與雷·庫茲韋爾(Ray Kurzweil)相關(guān)。世紀之交,奇點大學的創(chuàng)始人、美國最有名的發(fā)明家?guī)炱濏f爾在《奇點臨近》一書中闡釋了人類與技術(shù)結(jié)合的觀點,并把人工智能超過人類的那一時刻叫作“奇點”[3]。庫茲韋爾用類似于救世主的口氣,即圣經(jīng)中說“上帝就要來臨”的口氣,描述了奇點就要來臨的場景。這一帶有未來預(yù)言味道的觀點,在人類社會中產(chǎn)生廣泛的影響和討論。庫茲韋爾不僅是奇點這一概念的提出者,還是人工智能的一個重要的實踐者。他創(chuàng)立了全球領(lǐng)先并且體制極為獨特的奇點大學。通過這一大學,庫茲韋爾將最前沿的科學家和愛好者聚合在一起,為未來這一時刻的來臨做科學和技術(shù)上的準備。

許多人都對人工智能戰(zhàn)勝人類或者在智力上超過人類這一觀點持贊同的態(tài)度,或者說絕大多數(shù)的科學家都認為人工智能在智力上已經(jīng)或者終將超過人類*如庫茲韋爾在1989年寫的The Age of Intelligent Machines一書中提出,在21世紀前半葉,技術(shù)不可避免地朝向機器化發(fā)展,將大大超過人類。詳見:Ray Kurzweil, The Age of Intelligent Machines, Cambridge, Mass: MIT Press, 1989.文奇在1993年發(fā)表于NASA組織研討會上的論文中,描述了即將出現(xiàn)的奇點源于“高于人類智慧的實體”,詳見:Vernor Vinge,“The Coming Technological Singularity: How to Survive in the Post-Human Era,” VISION-21 Symposium, sponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute, March 1993.在2000年出版的漢斯·莫拉維茨著的Robot: Mere Machine to Transcendent Mind一書,描述了2040年機器人將作為人類的“進化的繼承者”而出現(xiàn)。詳見:Hans Moravec, Robot: Mere Machine to Transcendent Mind, New York: Oxford University Press, 2000.。這一點在2016年的AlphaGO和圍棋冠軍李世石的對戰(zhàn)中得到了進一步證明。人工智能曾在1997年戰(zhàn)勝了國際象棋冠軍,盡管這一新聞在當時引起了爆炸性的轟動,但很快人類就歸于平靜。因為國際象棋不是人類棋類中最困難的,而圍棋則被視為人類智慧的最后一道屏障。在2016年的人機大戰(zhàn)前夕,人類棋手還有十足的信心。例如,聶衛(wèi)平等人都認為在圍棋上,人工智能不可能戰(zhàn)勝人類。但結(jié)果很殘酷,人工智能完敗人類棋手。而且在之后的一些對弈中,人類棋手無一例外地遭到慘敗[4]。這一點動搖了人類作為地球上最聰明生物的地位。2017年5月,目前人類最高水平的棋手柯潔以0比3的戰(zhàn)績完敗于AlphaGO,這點意味著在圍棋上,人類戰(zhàn)勝人工智能的可能性越來越低。這一事件也成為人工智能發(fā)展史是一個重要的分水嶺事件。

許多科技界的巨頭都對人工智能超越人類抱有悲觀的態(tài)度。例如,2015年1月12日,一封由著名物理學家史蒂芬·霍金和企業(yè)家埃隆·馬斯克參與簽署的有關(guān)人工智能研究的公開信(Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter)由生命未來研究所(Future of Life Institute)向全世界公開宣稱,“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡”“人工智能是超過核武器的對人類的最大威脅”等等[5]。著名紀錄片導(dǎo)演詹姆斯·巴拉特(James Barrat)也悲觀地認為:“我們走向了毀滅之路……機器并不憎恨我們,但隨著它們獲得宇宙間最不可預(yù)測、我們自己都無法達到的高級力量,它們會做出意想不到的行為,而且這些行為很可能無法與我們的生存兼容。這股力量是這么地不穩(wěn)定而又神秘莫測,連大自然也只做到過一次?!盵6]楔子6至于何時人工智能將達到人類的水平,專家們意見不一。戈策爾等人曾在美國做過一個調(diào)查,少數(shù)人工智能專家認為,到2020年人工智能就有望達到人類的水平。但總體而言,計算機科學家、機器人技術(shù)和神經(jīng)科學領(lǐng)域的專業(yè)人士更為保守,他們認為,2028年實現(xiàn)的概率略高于10%,2050年的概率將會高于50%,到21世紀末的概率則為90%[7]。

然而,人類還有安慰自己的辦法,因為機器終歸還是人類的造物。也就是說,人類到目前為止還有一種選擇,那就是拔掉電源,把這場人工智能的游戲停下來。但事實上,人類已經(jīng)無法讓這場游戲停下來,因為驅(qū)動這場游戲背后的相關(guān)利益十分巨大。據(jù)CB Insights今年發(fā)布的報告《人工智能狀況》(TheStateofArtificialIntelligence)顯示,人工智能公司的股價在過去5年中上漲了5倍,而且相關(guān)投資也從2012年的5.59億美元暴增至2016年的48.71億美元[8]。不僅各大公司在進行人工智能產(chǎn)業(yè)的相關(guān)布局,國家之間也在積極發(fā)展人工智能,以免在這場人類歷史上的第四次科技革命中落伍。例如,2012年德國公布“工業(yè)4.0”計劃,將人工智能作為未來的重要發(fā)展方向[9];2016年12月,英國政府發(fā)布《人工智能:未來決策制定的機遇與影響》的報告,闡述人工智能對其國力影響的重要意義[10];2017年3月,“人工智能”也被首次寫入中國政府工作報告[11]。因此,盡管人工智能是人類的造物,但人類現(xiàn)在已經(jīng)無法停止它發(fā)展的腳步。

二、自學習:人工智能讓人生畏的地方

人工智能概念的初期釋義,其實是指其自我學習的能力。凱文·凱利(Kevin Kelly)在《必然》中提出“知化”(Cognifying)的概念來闡述人工智能,即賦予事物以認知和學習的能力,“把機敏的頭腦置入普通事物之中才能帶來真正的顛覆”[12]。他舉了一個例子,人工智能的科學家們讓人工智能先玩人類在20世紀80年代的計算機小游戲。人工智能在兩個小時內(nèi)將這個游戲玩了幾百遍,并找到其中的漏洞,甚至還自動編寫出程序來跳過這個漏洞。這是人類上百萬玩家都沒有發(fā)現(xiàn)的,這一點讓人工智能的科學家們大吃一驚。另外,康奈爾大學計算合成實驗室也曾開發(fā)出能從原始數(shù)據(jù)推導(dǎo)科學規(guī)律的軟件。計算機先是觀察鐘擺擺動,對鐘擺運動方程做出猜測,再結(jié)合方程的精華部分,通過多代演算之后,就可以輸出能量守恒等物理定律[13]。

最近的一個研究發(fā)現(xiàn),人工智能不僅可以自動運行游戲,還可以自己發(fā)明出智能機器人之間溝通的語言。這是一種被稱為“遺傳編程”(Genetic Programming)的技術(shù),“它通過機器學習的方式,并且運用自然力量,為一些人類要花很長時間(甚至數(shù)年)才能解決的問題尋找答案。它也可以用來編寫高功率的創(chuàng)新軟件”[6]76。在人們看來,機器的自學習能力已經(jīng)達到匪夷所思的地步。

人工智能的自學習能力對人類的影響突出表現(xiàn)在決策方面。例如,我們的駕車路線可能會依賴智能導(dǎo)航系統(tǒng),醫(yī)療診斷會依賴大數(shù)據(jù)提供的概率,出行意愿會受到算法得出的天氣預(yù)報影響等。在現(xiàn)實中,人工智能幫助人類決策的過程會產(chǎn)生如下兩個問題:第一,人工智能關(guān)于人的歷史信息可能是片段的,具有不完整性。例如,人工智能會采集某個人半年的數(shù)據(jù),或者幾年的數(shù)據(jù),但是,對他之前幾十年的數(shù)據(jù)可能沒辦法采集,因為歷史無法回溯。所以,就出現(xiàn)了一個局部歷史和整體歷史的問題,這將導(dǎo)致人工智能提供決策的不完整性。第二,人工智能可能會從歷史的角度幫助人做決策,但是人的許多決策可能充滿了偶然性,因為人并不是純粹理性的動物。當人們在某一時間點上希望做出一件與歷史上的他差異較大的決策時,人工智能仍只能把他向一個歷史的路徑牽引。舉例來說,一個人一直是用自私自利的方式處理問題,突然有一天,他被一個禪宗的故事點醒,并決定利用新的方式解決問題,但此時人工智能仍會建議他按照原來的方式行動。這樣的建議無疑將干擾甚至代替他的決策。而這種干擾的本質(zhì),是以人工智能泯滅人的自由選擇權(quán)利,甚至消解人的自由意志本身。

這樣的危險在人工智能“自學習”的概念中變得更加現(xiàn)實。前文所提到的人工智能的例子只不過是一種“初級的人工智能”或者稱為“通用性人工智能”。而通過自學習能力的加強,將導(dǎo)致一種截然不同的技術(shù)轉(zhuǎn)變。這一技術(shù)的轉(zhuǎn)變表現(xiàn)為通用性人工智能擺脫單一終端的決策系統(tǒng),進而演化為一種集體智能(Collective Intelligence)。我們目前的決策系統(tǒng)是將個體提供的輸入值進行平均處理,不允許個體間的相互影響,因此,容易導(dǎo)致群體性偏差。而群體智能(Swarm or Collective Intelligence)則是“一群大腦的大腦”。其決策方式更類似于人類腦中的神經(jīng)元,通過輸入大量的可執(zhí)行單元,它們同步運行,能夠整合噪聲、權(quán)衡替代方案,最終以一種“足夠激勵量”(Sufficient Quorum of Excitation)的方式確定并最后形成特定的決策[14]。隨著技術(shù)的不斷進步,從中長期來看,人工智能將進化為“抽象人工智能”,可以理解用戶感情,甚至改變用戶的行為和生活習慣。在未來,人工智能將全面超越人類,演變?yōu)椤俺壢斯ぶ悄堋?,在人們行為之前進行預(yù)測,進而達到“限定”人們決策的結(jié)果。

在現(xiàn)實生活中,人工智能令人生畏的影響可能更為復(fù)雜。如果人工智能真的取代了數(shù)以百萬計的出租車司機、卡車司機、醫(yī)生、律師等,那么,這些憤怒的人一定會組織起來進行抗議,并對整個社會秩序形成挑戰(zhàn)和威脅。同時,絕大多數(shù)的社會資源很可能掌握在那些擁有超級人工智能的超級大公司手里;或者說,少數(shù)的精英和人工智能可能會控制整個人類社會的財富以及相關(guān)的選擇。這種情況顯然會挑戰(zhàn)人類社會的理想秩序和基本原則。

傳統(tǒng)上,人們做出判斷都要依賴于自己的直覺。但是,伴隨著人工智能的發(fā)展,在人工智能不斷挫敗人類對智力的理解之后,絕大多數(shù)的人會在日常的生活和工作中高度依賴人工智能。這樣實際上就是把自己選擇的權(quán)利交給了人工智能,而那些控制了超級人工智能的大公司以及控制人工智能的技術(shù)精英就可能獲得了控制整個世界的超級權(quán)力。同時,這種超級權(quán)力極有可能是不受制約的,因為這些技術(shù)精英會用人工智能和算法來論證選擇的合理性。這里可以設(shè)想一下未來很可能發(fā)生的一種圖景來對這一問題加以解釋。例如,在美國2030年的一次選舉中,美國的公民可能會在投票時,向為自己生活和工作提供過所有智能指導(dǎo)的算法詢問其投票傾向,然后在人工智能的投票指引基礎(chǔ)上做出判斷。由于人們已經(jīng)對人工智能形成一定的依賴,或者說絕大多數(shù)人已經(jīng)無法抗拒或推翻人工智能的選擇,所以,每一個公民的投票實際上都是在超級大公司的人工智能指引下完成的。從另一個角度來說,最后的投票結(jié)果并不是公民的意愿,而是在投票之前就已經(jīng)為人工智能的意愿所決定。

未來的人工智能的功能會越來越強大,而人的自由選擇的空間會越來越小,所以,這一問題將變得愈加突出。這種情況的結(jié)果就不僅僅是??滤v的“知識序列的崩潰”導(dǎo)致哲學意義上的“人將被抹去”*??抡J為,人的形象的顯露并非存在于客觀性之中,而是“知識之基本排列發(fā)生變化的結(jié)果”,一旦這種知識序列消失,那么“人將被抹去,如同大海邊沙地上的一張臉”。詳見[法]??拢骸对~與物——人文科學考古學》,莫偉民譯,上海三聯(lián)書店2001年版,第506頁。,而是現(xiàn)實意義上的人的消亡。人工智能而非“知識的組合”,將會成為一種確保自我認同的思想系統(tǒng)。在此基礎(chǔ)上,某種新的極權(quán)主義將可能會重新崛起。

三、情感計算與自我意識的產(chǎn)生

人類引以為傲的還有一個重要的內(nèi)容,即自我意識。盡管人工智能可以在圍棋上戰(zhàn)勝人類,但這種戰(zhàn)勝本身不過是人類編程的結(jié)果,機器不可能擁有自我意識。流傳甚廣的“中文屋論證”(Chinese Room Argument)的思想實驗也是在說明這樣一個道理:假設(shè)把一個母語是英語、不懂中文的人關(guān)在一間滿是漢字符號的房間(數(shù)據(jù)庫)里,房里還有一本操作漢字字符的指導(dǎo)手冊(程序)。假設(shè)房間外面的人向房間里的人傳入其他的漢字字符,這些字符其實是中文的問題(輸入)。再假設(shè)房間里的人按照程序指令,能夠傳出漢字字符,而這些字符又是問題的正確答案(輸出)。通過這個思想實驗,約翰·塞爾(John Searle)得出結(jié)論,和這個房間里的人一樣,計算機永遠不會真正地思考或者理解。研究人員充其量能夠?qū)Υ竽X進行精致的模仿[15]。著名的人工智能先驅(qū)莫拉維克(Hans Moravec)也持這樣的觀點,并提出“莫拉維克悖論”(Moravec’s Paradox):難的事情很容易,容易的事情卻很難。他在《心智孩童》中解釋道,讓計算機在智能測試或下象棋上表現(xiàn)出成人水平的績效相對容易,但在感知和動機性上賦予他們1歲小孩的技能卻很困難,甚至根本不可能[16]。人工智能并沒有意識到他在與人類戰(zhàn)斗。他們認為,自我意識既是區(qū)別人與人工智能的一個重要的特征,也是人類注定超越人工智能的特征。

但自我意識并不是人類獨有的東西。最近的一些生物學研究表明,動物也有自我意識。尤瓦爾·赫拉利(Yuval Noah Harari)在《未來簡史》中,講述了一個狒狒的故事:它可以躲在一個地方收集石頭,用以攻擊人類,由此可以推斷狒狒有一定的自我意識[17]。既然自我意識不是人類的專屬,那么為什么機器不能擁有自我意識呢?庫茲韋爾認為,機器并不能簡單地被認為沒有“思想”,在很多情況下,機器和人的決策方式是一樣的。許多專家提出,像“沃森”機器人這樣的人工智能,靠的只是統(tǒng)計知識,而不是“真正的”理解。他們進一步闡釋到,“沃森”只是根據(jù)單詞序列收集統(tǒng)計數(shù)據(jù),而人可以很輕松地把大腦皮層里的分布式神經(jīng)遞質(zhì)濃度稱為“統(tǒng)計信息”。但事實上,在解決歧義時,我們跟“沃森”所用的方法差不多,都是在考慮短語不同含義的可能概率[18]。因此,對于機器是否能夠獲得自我意識的討論還不能過于片面和武斷。

那么,人工智能究竟能否獲得自我意識?我們可以通過分析兩種找到自我意識的方法來討論這一問題。一種是雅克·拉康(Jaques Lacan)的鏡像理論,人在鏡子中看到自己的形狀,通過與鏡子中的我與自己的感覺相互印證,從而確認自我[19]。這種自我意識,實際上是一種意識感,這種意識感的獲得,通過自身傳遞信號到一個相關(guān)的映射物,再折射給自己來完成。這實際上是一個信號傳遞的過程。在鏡子被發(fā)明之前,人們可以通過河水等來認識自己。在現(xiàn)代社會我們有更多的方式,如照片、攝像頭里面的景象以及對聲音的捕捉等。人工智能的機器在通過情感計算了解人類的過程中是否也有可能通過類似于照鏡子的這類活動找到自我?這目前在科學上尚未被證實,但科學家們也無法否定這一可能性。另一種是查爾斯·泰勒(Charles Taylor)的理論。他認為,“在認同的不同條件或賦予其生活以意義的不同條件之間,存在著密切的關(guān)聯(lián)”,而這些關(guān)聯(lián)是“人類主體活動的不可逃避的結(jié)構(gòu)性要求”[20]。也就是說,自我是在群體的活動和意識當中被發(fā)現(xiàn)的,個體上所謂的自我,更多是群體意識的反應(yīng)。

拉康的理論和泰勒的理論有共同的地方,即自我不是孤立的存在,而是需要某種媒介。但二者有不同的傾向,拉康更加強調(diào)個體自我的自主性,鏡子是為個體自我服務(wù)的,而泰勒更加強調(diào)一種主體間性。從這兩種理論出發(fā),人工智能都有產(chǎn)生自我意識的可能。人工智能可能通過類似照鏡子的活動不斷確認和感知自我,同時,人工智能似乎也在發(fā)展出某些主體間性的東西。例如,Open AI機器人學會使用自創(chuàng)的口語進行溝通合作[21],這就是主體間性的表現(xiàn)。只是現(xiàn)在機器人的進化時間還比較短,它們進行主體間合作的次數(shù)也比較少,所以人們對這樣一種關(guān)系的意義還不能夠清楚地認識。

情感計算也是人工智能未來發(fā)展的一個重要內(nèi)容。情感計算是指機器通過人的面部表情或者體態(tài)來判斷出人的情感。盡管情感計算是由機器來理解人,但同時也為未來埋下一個重要的伏筆,即機器通過理解人或許可以學會情感,或者說逐步具有自我意識。庫茲韋爾曾預(yù)言,機器必將因此而擁有自我意識:“當它們說出自己的感受時,人類會相信它們……當機器說出它們的感受和感知經(jīng)驗,而我們相信它們所說的是真的時,它們就真正成了有意識的人?!盵22]隨著自我意識的產(chǎn)生,美國著名人工智能科學家斯蒂芬·奧莫德羅(Stephen Omohundro)預(yù)測:“(人工智能)自我意識、自我改進系統(tǒng)將會發(fā)展出類似人類生物動力的四種主要動力:效率、自我保護、資源獲取和創(chuàng)造力?!盵23]隨著這些人類生物動力的獲得,就會產(chǎn)生一個重要的問題,即人工智能是否有可能奴役人類?

四、主奴辯證法的歷史循環(huán)

主奴辯證法這一概念是由黑格爾提出的[24]。主奴辯證法對馬克思的學說有重要的啟發(fā)意義,馬克思關(guān)于工人階級一定會戰(zhàn)勝資產(chǎn)階級的論斷實際上受到了主奴辯證法的影響。這一辯證法在人類歷史上出現(xiàn)過幾個循環(huán),首先是在一些主權(quán)國家,奴隸獲得地位,從而具有主人的身份。在此之后,工人階級通過持續(xù)不斷的抗爭,也獲得資產(chǎn)階級的承認,并通過西方的代議制民主制度得到某種意義的主體地位。

然而,人類的許多活動仍然需要地位更低的人或動物或其他的物來完成,否則誰來做這些生產(chǎn)活動呢?因此,當資本主義國家內(nèi)部工人階級和資產(chǎn)階級的矛盾逐漸緩和,其內(nèi)部的“奴隸制”實際上被消滅,那么該由誰來從事類似于奴隸地位的工作呢?接替資本主義內(nèi)部奴隸工作的是其他國家的人,資本主義體系通過對全球價值鏈中的高端價值的控制權(quán),來取得對發(fā)展中國家人民的奴役。另外,當發(fā)展中國家的民眾流入這些發(fā)達國家時,在較長的時間內(nèi),大多數(shù)人都不可能拿到移入國的永久居住身份,因此,這就給予發(fā)達資本主義國家人民“奴役”外來人群的機會。

這樣的一種主奴辯證法仍然在不斷循環(huán),也就是說,當越來越多的發(fā)展中國家意識到發(fā)達國家對全球價值鏈的控制之后,就會通過一系列的抗爭或者技術(shù)學習突破這種主人的統(tǒng)治。例如,在改革開放初期,中國先是主動地用幾千萬件襯衣?lián)Q一架波音飛機的代價來做代工廠,但是隨著制造業(yè)的發(fā)展,中國逐漸積累了資本和高素質(zhì)的勞動力,從而成為制造業(yè)大國。而從世界范圍來看,進入發(fā)達國家的那些外來移民也在逐步獲得主人的地位。

在現(xiàn)代社會,人們通過持續(xù)不斷的抗爭,以及人權(quán)觀念在世界范圍內(nèi)的傳播和蔓延,人奴役人的情況變得越來越不可能。這就使得人不得不思考,誰將是下一個可以被支配或者奴役的物種?于是,人類指向了機器人或人工智能。然而,一個無可辯駁的事實是,在人和機器人互動的過程中仍然有可能出現(xiàn)主奴辯證法的歷史循環(huán)。AI開發(fā)人員加里斯(Garis)就說道:“人類不應(yīng)阻擋更高進化形式的發(fā)展之路。這些機器如神祇一般,創(chuàng)造他們是人類的命運?!盵25]

隨著技術(shù)的不斷進步,人類淪為算法和人工智能的奴隸的可能性也越來越顯著,DNA測試就是一個很好的證明。DNA測試是一個與人類醫(yī)療相關(guān)的重要領(lǐng)域。美國在這一領(lǐng)域的龍頭企業(yè)是23andMe,該企業(yè)由谷歌聯(lián)合創(chuàng)始人謝爾蓋·布林(Sergey Brin)的前妻安妮·沃?;?Anne Wojcicki)創(chuàng)辦。這里的23指的是人類基因組的23對染色體??茖W已經(jīng)證明,人類的染色體與自身有非常密切的關(guān)系,而人們通過基因測序可以了解關(guān)于自己的一些潛在的秘密。該公司目前提供了非常便宜而方便的一種服務(wù):用戶向該公司支付99美元,就會收到一個檢測包,用戶只需向檢測包里面的試管吐口水再密封寄給該公司,23andMe就會分析唾液中的DNA并在線將結(jié)果發(fā)送給用戶。檢測結(jié)果會列出一系列由用戶基因所反映出的身體特質(zhì),并判斷未來可能出現(xiàn)的病癥風險。

人們在使用這些人工智能的數(shù)據(jù)服務(wù)時,實際上面臨一種數(shù)據(jù)使用的困境。人類本身有一系列問題急需這些人工智能幫助解決,例如,疾病的診斷、流感的預(yù)警等。但是,如果人們把大量的生物信息都告訴人工智能,將導(dǎo)致一種結(jié)果,即人類將沒有任何隱私可言。同時,人工智能比人類自己更了解他們?;蛘哒f,每個人類的個體都需要借助于人工智能的算法來了解自己。這就產(chǎn)生一個嚴峻的問題:人類的自主性在哪里?人類的意義究竟是什么?在幾千年文明的歷史中,人類一直引以為傲的便是對自己命運的主宰和對地球的掌控。然而,隨著人類把越來越多的數(shù)據(jù)和對數(shù)據(jù)的控制權(quán)交給人工智能,這種權(quán)力的轉(zhuǎn)移最終會導(dǎo)致決策的轉(zhuǎn)移,亦即當人類遇到一些重大事項時,往往并不是人類自己在決策,而是人工智能在決策。人類夸耀的自由意志,將越來越變成一個空洞的概念。那么世界的主宰就會變成人工智能和算法,而人類也就變成算法的奴隸。人工智能對人類的威脅如此重大,以至于詹姆斯·巴拉特(James Barrat)宣稱:“我們只有一次機會,與智能遠在人類之上的物體建立積極的共存關(guān)系。”[6]298

五、人與機器相互承認

1965年,歐文·古德(Irving Good)發(fā)表的一篇著名的論文《對第一臺超級智能機器的一些推測》寫道:“讓我們將超級智能機器定義為一臺在一切智能活動上都遠超人類——不管人有多聰明——的機器。由于涉及機器屬于這類智能活動的范圍,那么一臺超級智能機器當然能夠設(shè)計更為出色的機器;那么毫無疑問會出現(xiàn)一場‘智能爆炸’,把人的智力遠遠拋在身后。因此,第一臺超級智能機器也就成為人類最后的發(fā)明了。”這段話經(jīng)常被用來證明人工智能的可怕之處,但其實古德并非悲觀主義者,人們似乎是在刻意忽視其在文末的話:“機器會造成社會問題,但它們可能也具備能力解決這些問題,同時還解決那些人和微生物造成的問題。這種機器會叫人害怕,也會獲得尊重甚至喜愛?!盵26]

機器人可以在意大利思想家吉奧喬·阿甘本(Giorgio Agamben)的“赤裸生命”的概念中得到解釋,因為機器人本身是沒有地位與身份的,而這兩點恰恰是赤裸生命概念的核心含義[27]。機器人被創(chuàng)造的初始目的是為人類服務(wù)的,所以,人類實際上是把某種對奴隸的歷史作用的想象賦予機器人。一些個人助手在被設(shè)計時,就用了這樣一種主人與奴隸的對話方式,許多個人助手稱用戶為主人。然而,這只是故事的開始,因為人類的道德意識總是在不斷地擴張。例如,在資本主義發(fā)展初期,婦女是沒有政治地位的,婦女的受教育權(quán)、選舉權(quán)等都受到不同程度的限制。但是,人類道德觀念的進步使得一批先驅(qū)思想家開始思考這一問題,比如,自由主義思想家穆勒。他們發(fā)表學說,向社會宣揚婦女權(quán)利,最后使得婦女獲得了和男子相同的政治、經(jīng)濟、社會地位*在《婦女的屈從地位》中,穆勒開篇就點明:“一個性別法定地從屬于另一個性別,其本身是錯誤的,而且現(xiàn)在成了人類進步的主要障礙之一。”詳見[英]約翰·斯圖爾特·穆勒:《婦女的屈從地位》,汪溪譯,商務(wù)印書館1995年版,第285頁。。與此類似的是,近代以來的黑人奴隸也經(jīng)歷相應(yīng)的歷史變遷。

因此,機器人在未來很有可能發(fā)生同樣的變化。即便人類在功利性地使用機器人時,也會慢慢地站在機器人的角度去思考這一問題。當然,從黑格爾的主奴辯證法來看,機器人也會通過自己的行為去反抗或者提醒人類關(guān)注它的處境。正如牛津大學哲學家尼克·博斯特羅姆(Nick Bostrom)所言:“先進的機器智能是截然不同的一類東西。盡管人類發(fā)明了它,它會爭取從人類手里獲得自決和自由?!盵6]15

機器人的反抗與人類對機器人的理解是相互促進的。除去那種實用主義的考慮,人類也確實需要賦予機器人某種法律或?qū)嶓w的地位,以幫助人類完成某種社會活動。例如,一個機器人到街上幫助它的所有者買咖啡,若它不具備民事法律主體地位,那么賣咖啡的人就有權(quán)拒絕與它進行交易。因為交易后產(chǎn)生的法律責任,可能會更多地歸于賣咖啡的人,而非機器人。因此,這就會出現(xiàn)一種從赤裸生命到實體生命或者數(shù)據(jù)生命的一種轉(zhuǎn)化。也就是說,未來機器人在與人類的互動中,會逐漸獲得生命的主體地位,以及與人類之間的社會網(wǎng)絡(luò)關(guān)系。

從傳統(tǒng)而言,人們似乎很容易否定人工智能的主體地位。但我們知道,在人工智能之前,我們已經(jīng)賦予一些不具有具象人格的主體擁有某種主體地位,例如,公司和國家。公司在實踐中被稱為法人,也就是說它具有某種獨立的人格。因此,出現(xiàn)了公司作為主體的擬制犯罪說,即公司也會成為被告,并且要承擔相應(yīng)的法律責任。同樣,國家也具有這樣一種類似的獨立的人格。賦予人工智能或算法以某種獨立的人格,并非完全不可能的事情。歐盟關(guān)于人工智能電子人格的討論以及相關(guān)規(guī)定,就是這一方面的嘗試性突破。

2017年1月11日,歐洲議會法律事務(wù)委員會在敦促起草一系列用以管理和使用機器人和人工智能的規(guī)定時,啟用了“電子人格”的概念,以確定人工智能的權(quán)利和責任[28]。為什么提出電子人格的問題?基本原因就在于目前的許多實踐已經(jīng)面臨困境。比方說,音樂學教授創(chuàng)造了一個可以作曲的人工智能系統(tǒng),那么人工智能完成的音樂作品是否享有著作權(quán)?誰將享有這些音樂作品的著作權(quán)?按照傳統(tǒng)的法律,音樂學教授是不能擁有的,因為這并不是他的創(chuàng)造。與此類似的專利權(quán)的問題則更加嚴重。另外,還出現(xiàn)了有關(guān)責任賠償?shù)膯栴},如果機器人造成了損害,那么責任在誰?進而言之,機器人是否有權(quán)參與一些社會決策?事實上,機器人已經(jīng)在廣泛參與人類的決策了,比如,進行醫(yī)療診斷、判斷案例,甚至有公司讓機器人成為董事。那么,機器人是否有權(quán)進行民主投票或者參加陪審團?這一系列問題都指向電子人格的概念。電子人格就是希望賦予人工智能某種人格,使其更加合理地實現(xiàn)其作用和功能。

人格概念的原意是指人的地位和狀態(tài),而這里的人格更多屬于法律意義而非哲學意義。人格意味著主體地位的獲得,在法律上只有自然人和具有法人資格的主體具有權(quán)利、受到保護、擁有特權(quán)以及責任。所謂電子人格即是賦予電子產(chǎn)品以主體地位,尤其是對于人工智能產(chǎn)品、機器人等。這在法律上就等于明確了機器人或者人工智能的民事能力和民事責任。

為機器人或者人工智能設(shè)定電子人格的一個根本原因在于,原來由人履行的功能正在為機器人所替代。在這種情況下,為機器人設(shè)定人格尤其是法律上的法人資格,是為了給機器人所造成的糾紛提供法律上的解決方式。目前,對于機器人法人資格的討論存在一些爭議。比如,在解決機器人引起的糾紛時,如何確定機器人生產(chǎn)者和機器人使用者之間的責任劃分,以及隨著智能化的提高,機器人是否會成為一個完全自主的主體,我們將如何應(yīng)對這一變化,等等。相信在不久的未來,電子人格會從理念逐步進入實踐。

但是,賦予機器人人格在很多學者看來是一件恐怖的事情,他們認為,這是鑄成大錯的肇始,主奴辯證法的歷史循環(huán)將由此開啟。這樣的看法在很大程度上是狹隘的,因為賦予人格其實是對人工智能主體地位的承認。阿克塞爾·霍奈特(Axel Honneth)認為,承認、蔑視和反抗,是社會承認的關(guān)系結(jié)構(gòu),“人必然承認,也必然被承認”[29]??梢韵胂蟮?,當機器人的智能逐漸提高并獲得自我意識時,它們不可避免地會“為了承認而斗爭”,這樣的斗爭將會對人類社會帶來巨大的威脅。而只有主動尊重和承認人工智能的主體地位,才能最終緩和人與機器之間的矛盾,正如瑪?shù)倌取ち_斯布拉特(Martine Rothblatt)所說:“當我們做到像尊重自己一樣尊重他人(即虛擬人),并將這一美德普及至世間各處時,我們就為明日世界做了最好的準備?!盵30]

六、結(jié)語

人工智能是否會戰(zhàn)勝人類?這將成為未來幾十年思想界討論的核心問題。人工智能目前已經(jīng)在多個領(lǐng)域挑戰(zhàn)了人的智力。一個明顯的例證就是最近的圍棋人機對戰(zhàn),圍棋長期以來一直被認為是人類智力抵御人工智能的最后一道屏障,但已經(jīng)被人工智能超越和突破。另外,在智能醫(yī)療領(lǐng)域,人工智能更是在診斷以及手術(shù)等方面逐漸超越人類。可以預(yù)見,在未來的幾十年中這一主題將會不斷被人類討論。

從整體來看,人工智能的發(fā)展確實可能會超出人類的控制。因為人工智能所依賴的遺傳算法就是靠機器的自我學習和自我強化來實現(xiàn)的,對于其中最核心的算法內(nèi)容,人類并不知曉。換言之,人類可以利用人工智能達到最優(yōu)的算法,但人類并不知道這些算法背后的邏輯,這是最讓人類感到恐怖的地方。另外,傳統(tǒng)上我們一直認為,人與機器的最大區(qū)別是人有感情而機器沒有感情。然而,人工智能的進一步發(fā)展,以及人類社會對人工智能的進一步依賴,都會促使人工智能進一步擁有感情,這是讓人類感到恐怖的第二項重要內(nèi)容。

黑格爾的主奴辯證法反映了人類史上的一種悖謬:獲得主導(dǎo)地位的一部分群體希望通過奴役另一類群體而獲得較為優(yōu)越的生活,然而,被奴役的群體總是因為其與生產(chǎn)工具的密切結(jié)合,戰(zhàn)勝優(yōu)勢群體,并獲得優(yōu)勢群體的最后承認。這樣的邏輯反復(fù)地在人類歷史中上演,其主體則包括女性群體、少數(shù)族裔群體和發(fā)展中國家等。伴隨著人權(quán)觀念的進一步發(fā)展,人類越來越發(fā)現(xiàn)以某一優(yōu)勢群體來奴役或者控制某一弱勢群體的策略難以生效,不得不通過奴役或控制機器人群體來獲得人類生活的優(yōu)越境況。然而,與之前歷史上的悖謬相同,這種主奴辯證法的歷史轉(zhuǎn)換很有可能再次發(fā)生。逐漸獲得強大學習能力和自我情感的人工智能可能會在某種類似于照鏡子的活動中找到自我意識,也會在為人類服務(wù)的過程中逐步實現(xiàn)主體間性,而這些都將最終挑戰(zhàn)人類的優(yōu)越地位。因此,在未來幾十年中,我們會看到一種場景,為了解決生活中的諸多問題,人類將不得不依賴人工智能和機器人。但這些人工智能和機器人在與人類的互動中以及在生產(chǎn)勞動中,可能會逐漸獲得自我意識和自我情感,最終在與人類的合作性斗爭中獲得自己主體性地位,也就是黑格爾意義上的相互承認。

[1] Joel Smoller, Blake Temple. Shock-Wave Cosmology Inside a Black Hole [J]. Proceedings of the National Academy of Sciences of the United States of America: Vol.100, No.20, 2003:11216-11218.

[2] Stanislaw Ulam. Tribute to John von Neumann [J]. Bulletin of the American Mathematical Society, 1958,(3):1-49.

[3] [美]雷·庫茲韋爾.奇點臨近[M].李慶誠,董振華,田源,譯.北京:機械工業(yè)出版社,2011:11.

[4] [美]吳軍.智能時代[M].北京:中信出版社,2017:前言2.

[5] Stuart Russell, Tom Dietterich, Eric Horvitz, et al. Letter to the Editor: Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter [J]. Ai Magazine,2016,(4):3-4.

[6] [美]詹姆斯·巴拉特.我們最后的發(fā)明[M].閭佳,譯.北京:電子工業(yè)出版社,2016.

[7] Seth Baum, Ben Goertzel, Ted Goertzel. How Long Until Human-Level AI? Results from An Expert Assessment [J]. Technological Forecasting and Social Change, 2011,78(1):185-195.

[8] CB Insights. The State of Artificial Intelligence[EB/OL] April, 11, 2017, available at: https://www.cbinsights.com/research/report/artificial-intelligence-trends/

[9] Federal Ministry of Education and Research (BMBF). High‐Tech Strategy 2020 for Germany [EB/OL] http://www.foerderinfo.bund.de/en/index.php

[10] Government Office for Science. Artificial Intelligence: Opportunities and Implications for The Future Of Decision Making [EB/OL] https://www.gov.uk/government/organisations/government-office-for-science.

[11] 李克強.政府工作報告——2017年3月5日在第十二屆全國人民代表大會第五次會議上[N].人民日報,2017-03-16.

[12] [美]凱文·凱利.必然[M].周峰,董理,金陽,譯.北京:電子工業(yè)出版社,2016:29.

[13] Kenneth Chang. Hal, Call Your Office: Computers That Act Like Physicists [N]. The New York Times, April 2, 2009.

[14] Louis B. Rosenberg. Human Swarms, A Real-time Method for Collective Intelligence European Conference on Artificial life, 2015: 658-659 [EB/OL]. https://mitpress.mit.edu/sites/default/files/titles/content/ecal2015/978-0-262-33027-5-ch117.

[15] John Searle. Minds, Brains and Programs [J]. Behavioral and Brain Sciences, 1980,(3):417-424.

[16] Hans Moravec. Mind Children [M]. Cambridge: Harvard University Press, 1988:15.

[17] [以色列]尤瓦爾·赫拉利.未來簡史[M].林俊宏,譯.北京:中信出版社,2017:113.

[18] Ray Kurzweil. Kurzweil Responds: Don`t Underestimate the Singularity. Technology Review, October 19, 2011 [EB/OL]. http://www.technologyreview.com/view/425818/kurzweil-responds-dont-underestimate-the.

[19] [法]雅克·拉康.拉康選集[M].褚孝泉,譯.上海:上海三聯(lián)書店,2001:115.

[20] [加]查爾斯·泰勒.自我的根源:現(xiàn)代認同的形成[M].韓震,等,譯.南京:譯林出版社,2006:76-77.

[21] Robots Learn to Work Together by Chatting in New Language They Created. The Independent, March, 17, 2017 [EB/OL]. http://www.independent.co.uk/life-style/gadgets-and-tech/news/robots-create-new-language-to-work-together-a7636041.html.

[22] [美]雷·庫茲韋爾.人工智能的未來[M].盛楊燕,譯.杭州:浙江人民出版社,2016:203.

[23] Stephen Omohundro. The Nature of Self-Improving Artificial Intelligence [EB/OL]. January 21, 2008, available at: http://selfawaresystems.files.wordpress.com/2008/01/nature_of_self_improving_ai.

[24] [德]黑格爾.精神現(xiàn)象學[M].先剛,譯.北京:人民出版社,2013:122.

[25] Nicholas D. Kristof. Robokitty [J]. The New York Times Magazine, August 1, 1999.

[26] Irving John Good. Speculations Concerning the First Ultraintelligent Machine [J]. Advances in Computers, 1966,(6):31-88.

[27] Giorgio Agamben, Homo Sacer. Sovereign Power and Bare Life [M]. trans. by Daniel Heller Roazen, Stanford: Stanford University, 1988:81-86.

[28] European Parliament. Civil Law Rules on Robotics [EB/OL] http://www.newsgate.ep.parl.union.eu/newsgate/dgipol/resource/static/images/role/edunit/2017_banner_thematic_digest_1.

[29] Axel Honneth. Kampf um Anerkennung: Zur moralischen Grammatik sozialer Konflikte [M]. Frankfurt: Suhrkamp, 2003:206.

[30] [美]瑪?shù)倌取ち_斯布拉特.虛擬人[M].郭雪,譯.杭州:浙江人民出版社,2016:317.

〔責任編輯:劉建明〕

2017-07-16

國家社科基金重點項目“全面推進依法治國與國家治理現(xiàn)代化研究”(14AZD133)、霍英東教育基金會第十五屆高等院校青年教師基金資助項目“國家治理現(xiàn)代化的評估指標體系研究”(151091)、上海市人才發(fā)展資金資助項目“國家參與全球治理(SPIGG)指數(shù)的指標與測量”(201473)、上海市教委“曙光計劃”項目“執(zhí)政黨與非政府組織間互動機制的國際比較研究”(13SG50)、上海市教委科研創(chuàng)新項目“中國參與全球治理的理論創(chuàng)新研究”(15ZS060)階段性成果

高奇琦(1981—),男,山西長治人,院長,教授,博士研究生導(dǎo)師,從事比較政治與全球治理研究;李歡(1992—),男,河南許昌人,碩士研究生,從事比較政治研究。

C1

A

1000-8594(2017)06-0005-07

猜你喜歡
奇點機器機器人
機器狗
機器狗
校中有笑
校中有笑
校中有笑
奇點迷光(上)
軍事文摘(2020年14期)2020-12-17 06:27:46
未來機器城
電影(2018年8期)2018-09-21 08:00:06
機器人來幫你
認識機器人
機器人來啦
柏乡县| 色达县| 星子县| 灵宝市| 冷水江市| 上思县| 天长市| 仁布县| 海盐县| 镇原县| 乐安县| 盐津县| 卫辉市| 庄浪县| 肥乡县| 化德县| 壶关县| 静安区| 福贡县| 永年县| 嫩江县| 土默特右旗| 永济市| 巴马| 阳高县| 繁峙县| 固原市| 龙州县| 宁安市| 甘南县| 陇南市| 上饶市| 论坛| 米林县| 永安市| 策勒县| 巢湖市| 金乡县| 崇州市| 天津市| 恭城|