於興中
算法已經(jīng)成為我們這個(gè)時(shí)代的迷思。算法為我們指引方向;算法為我們篩選研究成果;算法為我們確定該由機(jī)器還是人給我們做手術(shù);算法也能為我們吟詩作樂。更為厲害的是,算法還可以自己學(xué)習(xí)改進(jìn),精益求精。算法助人為樂,給人提供服務(wù)的前景好像一片光明。然而,算法到底是什么?它們?nèi)绾巫龅缴厦嫠f的這一切?算法可以解決任何難題嗎?算法有什么負(fù)面作用?這些問題計(jì)算機(jī)和人工智能的專家們到現(xiàn)在也還沒有統(tǒng)一的答案。1Solon Barocas, Sophie Hood, Malte Ziewitz,"Governing Algorithms: A Provocation Piece", https://ssrn.com/abstract=2245322 or http://dx.doi.org/10.2139/ssrn.2245322, accessed on March 10,2018.關(guān)于算法的文獻(xiàn)參見https://socialmediacollective.org/reading-lists/critical-algorithm-studies/accessed on March 10,2018。
倒是有人認(rèn)為算法大體上是可以界定的。但普遍意義上嚴(yán)格的定義卻也不太可能,因?yàn)榇嬖诓煌N類的算法,不同側(cè)重點(diǎn)的算法,而算法是在不斷擴(kuò)展變化的。這種變化不僅僅是某一種算法自身的演進(jìn),而且會(huì)有新種類的算法被不斷發(fā)掘出來。這就使算法的概念變得很難確定。比如,除了歷久不衰仍在運(yùn)用的經(jīng)典的順序算法(sequential algorithms), 現(xiàn)在已有的算法包括平行(parallel)、互動(dòng)( interactive)、分布式(distributed)、實(shí)時(shí)(real-time)、混合(hybrid),量子(quantum)算法,等等。新型的算法很有可能還會(huì)出現(xiàn)。當(dāng)然,這并不意味著給算法賦予嚴(yán)格的定義是絕不可能的事。2Yuri Gurevich, "What Is an Algorithm?",Microsoft Research, Redmond, WA, USA, https://www.microsoft.com/en-us/research/wp-content/uploads/2017/01/209a.pdf, accessed on March 10,2018.集所有算法于一身的模范算法是算法研究者的夢想。算法雖然難以界定,但有人說我們已經(jīng)進(jìn)入了算法社會(huì),人工智能、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)這些只不過都是算法社會(huì)的序曲。3Jack M. Balkin, "The Three Laws of Robotics in the Age of Big Data",Ohio State Law Journal, Vol. 78(2017).一時(shí)間,算法社會(huì)、算法文化、算法之治、社會(huì)算法這些新詞成為學(xué)界熱議的話題。那么,算法社會(huì)到底是一種什么樣的社會(huì)?人在算法社會(huì)中占據(jù)何種地位?算法之下,人還有沒有隱私?人還有沒有活路?
我們已經(jīng)生活在算法社會(huì),而且很多人認(rèn)為這是一件好事。從經(jīng)濟(jì)的角度來看,機(jī)器學(xué)習(xí)的算法可以刺激創(chuàng)新和生產(chǎn)增長。有研究表明,用于機(jī)器學(xué)習(xí)算法的大數(shù)據(jù)能夠?yàn)楹芏嘈袠I(yè)帶來增長點(diǎn),諸如廣告業(yè)、醫(yī)療衛(wèi)生、基礎(chǔ)設(shè)施、物流、交通運(yùn)輸,等等。就日常生活而言,算法可以幫助我們節(jié)省時(shí)間和精力,比如網(wǎng)上搜索工具,網(wǎng)上銀行以及智慧手機(jī)的程序,等等。最近人們在期待的數(shù)字個(gè)人助手很可能幾年后比手機(jī)更為搶手,因?yàn)閿?shù)字個(gè)人助手可以整合各種適合我們的信息,并且預(yù)料我們會(huì)有什么樣的需要。
然而,算法的廣泛使用也給一般人造成威脅。如果大公司可以通過大數(shù)據(jù)和算法事先了解我們的需求,那么這就對自主選擇和個(gè)人隱私帶來很大不便。我們的信用評估、健康記錄等現(xiàn)在都由機(jī)器來承擔(dān)。這對大企業(yè)來講是大好事,可以使企業(yè)更加有效率,而且有可能降低價(jià)格。在法律領(lǐng)域里擬真法律助手也越來越常見。ROSS系統(tǒng)已經(jīng)進(jìn)入多家律師事務(wù)所。Lex Machina也成為法律人越來越依賴的研究平臺(tái)。由于算法技術(shù)的發(fā)展,法律領(lǐng)域里事實(shí)上正在發(fā)生一場大的變革。法律人所從事的事業(yè)實(shí)際上需要根據(jù)所掌握的信息作出判斷。無論根據(jù)規(guī)則推理還是根據(jù)案例推理,都需要大量數(shù)據(jù)作為判斷的基礎(chǔ)。大數(shù)據(jù)的出現(xiàn)為法律人提供了非常好的機(jī)會(huì)。目前人們推崇的“定量法律預(yù)測”(QLP)很可能會(huì)越來越重要。然而,對于法律消費(fèi)者來說,大數(shù)據(jù)和算法并不總是福音。雖然某種算法設(shè)計(jì)之初,動(dòng)機(jī)是中立的,但也有可能產(chǎn)生偏見??赡苡捎诰幊陶呦乱庾R地把自己的偏見編進(jìn)了程序,也有可能數(shù)據(jù)本身就反映了相應(yīng)的社會(huì)偏見。
比如,在就業(yè)方面,大數(shù)據(jù)已經(jīng)廣泛用于幫助雇主挑選理想的工作人員,算法根據(jù)自己的運(yùn)作方式將應(yīng)聘工作者進(jìn)行篩選,并為雇主提供一份理想人選的名單。已經(jīng)有很多例子表明,通過算法提供的名單同樣會(huì)有歧視的現(xiàn)象。在美國的環(huán)境下,如果一個(gè)人的名字聽起來不像英美人常用的名字,則有可能成為算法歧視的對象。4Marina Bradbury, "There's an algorithm for that. Or there soon will be" , http://oecdinsights.org/2016/05/18/theres-analgorithm-for-that-or-there-soon-will-be/,accessed on March 10,2018.
對于同一事物,由于關(guān)注的重點(diǎn)不同,觀察的視角不同,所看到的結(jié)果也就不同。就互聯(lián)網(wǎng)而論,生意人關(guān)注的是網(wǎng)上的商機(jī),自由主義者關(guān)注的是網(wǎng)上的權(quán)利,政府工作人員則對網(wǎng)上內(nèi)容的治理更感興趣。網(wǎng)絡(luò)已經(jīng)滲透到我們生活的各個(gè)角落,離開網(wǎng)絡(luò),似乎已經(jīng)很難生存下去。互聯(lián)網(wǎng)起到了重新界定人生意義的作用,而網(wǎng)絡(luò)空間也發(fā)展成了另一個(gè)世界。
本文擬就算法社會(huì)的利與弊做點(diǎn)非專業(yè)性的評論,旨在強(qiáng)調(diào)人工智能的限度就是人的限度,算法社會(huì)并不是理想的社會(huì)。它們只是人的智性單向度發(fā)展的最新成果,科技烏托邦并不是人類的未來。理想的人類社會(huì)應(yīng)該是人的智性、心性和靈性都能得到高度發(fā)展的社會(huì)。算法社會(huì)只能使人的智性過度發(fā)展,從而使人喪失人性中更為寶貴和自然的組成部分,如心性和靈性。因此,必須以警惕的態(tài)度審視目前正在不斷升溫的人工智能萬能論。
今天,幾乎我們從事的所有事情都由算法決定。谷歌決定我們每天首先讀什么,亞馬遜決定我們買什么書,找房子、找工作或者找朋友,都離不開各種各樣的網(wǎng)絡(luò)服務(wù)商提供的平臺(tái),有意無意地遵從別人為你安排好的選擇,盡管你可能不愿意讓一臺(tái)機(jī)器為你做決定。我們在網(wǎng)上的行為和交易都會(huì)留下痕跡。無論買書,搜餐館,還是在網(wǎng)上跟銀行打交道都會(huì)成為“大數(shù)據(jù)”,網(wǎng)商將會(huì)根據(jù)你的喜好和購物習(xí)慣給你推薦物品。
算法本來只是由編程員編寫的一些電腦程式,但今天的算法已經(jīng)能夠自學(xué),自我完善。它們接受的數(shù)據(jù)越多,讀懂人的行為的概率就越大,在人工智能的路上就更進(jìn)一步,盡管我們無法判斷在這條路上走下去是好是壞。故此, 霍金(Haw King)說:“成功創(chuàng)造人工智能是人類有史以來最重大的事情;然而,不幸的是,這也可能是最后一次,除非我們學(xué)會(huì)如何避免危險(xiǎn)?!保ā癝uccess in creating AI would be the biggest event in human history.”“Unfortunately, it might also be the last, unless we learn how to avoid the risks.”)5參見The Independence, http://www.independent.co.uk/news/people/stephen-hawking-artificial-intelligence-diaster-hu man-history-leverhulme-centre-cambridge-a7371106.html,accessed on March 10,2018。
如上所述,在算法社會(huì),大數(shù)據(jù)、算法以及人工智能的運(yùn)用與人的命運(yùn)息息相關(guān)。人們的生活、就業(yè)及各種機(jī)會(huì)都受制于這些因素,而受惠于這些因素的主要是政府和企業(yè)。算法社會(huì)為政府和企業(yè)提供了大量的收集個(gè)人信息并且監(jiān)視控制個(gè)人的機(jī)會(huì)。政府通過各種渠道不僅可以有效地控制個(gè)人的網(wǎng)上信息和行為,也可以迫使企業(yè)就范,利用企業(yè)的基礎(chǔ)設(shè)施和技術(shù),幫助并參與對個(gè)人信息和網(wǎng)絡(luò)的控制。因此,在數(shù)字時(shí)代,個(gè)人的言論自由面臨的不僅僅是政府的監(jiān)控,同時(shí)也受到企業(yè)的監(jiān)控,而且企業(yè)的監(jiān)控?zé)o遠(yuǎn)弗屆。當(dāng)今的主要網(wǎng)絡(luò)提供商都是大型的跨國公司,它們的手臂可以伸到世界的每個(gè)角落。換句話說,在監(jiān)控資本主義的視野內(nèi),個(gè)人作為算法與網(wǎng)絡(luò)的消費(fèi)者是無處逃遁的。6John Bellamy Foster and Robert W. McChesney, "Surveillance Capitalism:Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age" , Monthly Review, Volume 66, Issue 03 (Jul 01, 2014).政府的手腳力所不能及的地方,企業(yè)卻更為有效。當(dāng)然,政府和企業(yè)的合作是建立在利益基礎(chǔ)上的,而政府和企業(yè)之間的利益也并不一致。政府需要借助企業(yè)的基礎(chǔ)設(shè)施和技術(shù)力量達(dá)到自己的目的,而企業(yè)則為了免于干擾或獲得更多資源與政府合作。盡管政府用納稅人的錢支持商家開發(fā)人工智能的做法是否正確很值得懷疑,但這種事情往往會(huì)以冠冕堂皇的借口證成,比如國家戰(zhàn)略、民族大計(jì)等。在政府、企業(yè)和個(gè)人這個(gè)三角關(guān)系中,個(gè)人沒有多少發(fā)言權(quán),只能是犧牲品。對個(gè)人權(quán)利(尤其是隱私權(quán)和言論自由)的威脅來自多方面的渠道。7Jack M. Balkin, "Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation" , UC Davis Law Review, (2018 Forthcoming); Yale Law School, Public Law Research Paper No. 615, https://ssrn.com/abstract=3038939 or http://dx.doi.org/10.2139/ssrn.3038939, accessed on March 10,2018.因此,在算法社會(huì),消費(fèi)者的權(quán)益變得尤其重要。
智能機(jī)器系統(tǒng)正在改變我們的生活。它們可以幫助人們安排日常事務(wù),操持家務(wù),從事研究,提供翻譯,判斷真假,協(xié)助斷案,甚至進(jìn)行藝術(shù)創(chuàng)作。隨著人工智能在生活中的普及和不斷提高,人類的生活會(huì)變得越來越有效率,越來越豐富。與此同時(shí),隨著人工智能以各種各樣的形式走入我們的生活世界,人們開始擔(dān)憂它可能帶來的麻煩。機(jī)器人違反了法律,或者傷害了人身或財(cái)產(chǎn),誰來承擔(dān)責(zé)任?如何控制機(jī)器人產(chǎn)品的質(zhì)量?自然人損壞了機(jī)器人,應(yīng)該如何賠償?無人駕駛的交通工具出了事故該如何問責(zé)?8Frank A. Pasquale, "Toward a Fourth Law of Robotics: Preserving Attribution, Responsibility, and Explainability in an Algorithmic Society" , Ohio State Law Journal, Vol. 78, 2017; U of Maryland Legal Studies Research Paper No. 2017-21,https://ssrn.com/abstract=3002546, accessed on March 10,2018.如何對待不良商家借人工智能謀取暴利?如何應(yīng)對人工智能引起的業(yè)界的亂象和泡沫?如何規(guī)制人工智能的科學(xué)探索,從而避免使其走向反人類的方向?諸如此類的問題使要不要制定專門的人工智能法成為一個(gè)重要的話題。姑且不說像人工智能是否會(huì)取代人工,通用人工智能會(huì)不會(huì)超越人類等這類大科學(xué)家、思想家和企業(yè)家們所擔(dān)心的終極問題。
當(dāng)然,目前人們最擔(dān)心的還是自己會(huì)不會(huì)丟掉工作。這種擔(dān)心不僅體力勞動(dòng)者有,腦力勞動(dòng)者也有。人工智能的發(fā)展會(huì)不會(huì)帶來大量的失業(yè)?貨運(yùn)卡車行業(yè)很明顯的已經(jīng)受到了沖擊。當(dāng)人們熱議伊隆·馬斯克(Elon Musk)的自動(dòng)駕駛汽車如何了得之時(shí),可以預(yù)見的問題是卡車司機(jī)、出租車司機(jī)該怎么辦?自動(dòng)化將會(huì)使更多的人失去工作機(jī)會(huì),包括辦公室工作人員。有多種研究已經(jīng)表明,未來20年間,大量的流水線工作人員,人文含量不高的工作崗位都會(huì)面臨被機(jī)器人代替的危險(xiǎn)。理想地說,自動(dòng)化在某種意義上說是一種解放生產(chǎn)力或者還人以自由的動(dòng)力。被解放出來的人也許可以從事更有意義的工作或者研究。一種樂觀的態(tài)度認(rèn)為,新技術(shù)革命初期會(huì)帶來失業(yè)潮,但最后都會(huì)創(chuàng)造更多的機(jī)會(huì)。但沒有人非??隙ǖ卣f這次也會(huì)如此。
另一個(gè)令人擔(dān)心的問題是不平等。大數(shù)據(jù)、人工智能、算法、數(shù)據(jù)解析、機(jī)器學(xué)習(xí)、區(qū)塊鏈,這些概念每天都在轟炸著我們??墒?,真正理解它們卻需要很好的教育背景。算法社會(huì)對人的科技素質(zhì)的要求非常高,沒有相當(dāng)?shù)慕逃疁?zhǔn)是難以適應(yīng)的。這就注定了算法社會(huì)一定是科技精英社會(huì)。少數(shù)人會(huì)成為主宰,而大多數(shù)人只能順從。我們可能正在期望一個(gè)比現(xiàn)有社會(huì)更不平等的社會(huì)。這種不平等是從起點(diǎn)到結(jié)果的全方位的不平等,這是羅爾斯(Rawls)、桑德爾(Sandel)和森(Sen)合起來也無法對付的。
這種不平等首先是對資源占有的不平等。在數(shù)字時(shí)代,數(shù)據(jù)是最重要的資源。對數(shù)據(jù)的占有是成功與否的基礎(chǔ)所在。目前的狀況是,只有為數(shù)不多的幾家公司有能力占有大量的數(shù)據(jù),競爭也只能在很小的圈子里進(jìn)行。臉書、谷歌、亞馬遜、蘋果及微軟這五家互聯(lián)網(wǎng)與人工智能開發(fā)的巨頭在業(yè)界早已形成壟斷之勢。9“The Internet Big Five Is Now the World's Big Five”, http://battellemedia.com/archives/2017/05/the-internet-big-five-isnow-the-worlds-big-five.php, accessed on March10, 2018.其次是對機(jī)器創(chuàng)造的財(cái)富的分配。由于機(jī)器的廣泛應(yīng)用,大量的人工被代替。資本家利用機(jī)器創(chuàng)造的財(cái)富分配給被取代了的人員的可能性并不大。財(cái)富最終自然而然地掌握在少數(shù)擁有人工智能的大公司的所有者和支持他們的當(dāng)權(quán)者手中。貧富差距正在而且將會(huì)被進(jìn)一步拉大。所謂“后勞工”社會(huì)就是數(shù)字技術(shù)上有優(yōu)勢的寡頭及其技術(shù)精英團(tuán)隊(duì)和當(dāng)權(quán)者同謀共贏的社會(huì)。思之,令人悲傷不已!
機(jī)器對于人的行為的影響也是值得擔(dān)憂的一個(gè)問題。智能手機(jī)的發(fā)明給人們的生活帶來了無與倫比的方便,但也幾乎把人變成了癮君子。很多抵抗力較弱的人已經(jīng)淪為手機(jī)的奴隸,每天機(jī)不離手,幾乎分分秒秒都在看手機(jī),或收發(fā)短信,或玩游戲,或看節(jié)目。美國佛羅里達(dá)州的一位母親沉迷于手機(jī)游戲,不顧孩子。孩子一哭,便對其施加暴力,致使孩子死亡,做母親的后悔莫及,而且還要面對法律的制裁。這樣的悲劇在美國不止一次地發(fā)生過。10“一位佛羅里達(dá)媽媽因孩子妨礙她在臉書上玩游戲?qū)⑵鋼u抖致死”,參見https://www.inquisitr.com/88682/alexandratobias-farmville/,2018年3月10日訪問。今天人們對機(jī)器的沉溺比當(dāng)年人們吸食鴉片可能有過之而無不及,所不同的是今天人們對迷戀機(jī)器的危害還沒有充分認(rèn)識。
任何先進(jìn)技術(shù)都是一把“雙刃劍”??梢员挥脕碓旄H祟悾部赡鼙挥脕須缛祟?。人工智能研究的最新最尖端的成果恐怕都是首先用于軍事方面。各國出于保護(hù)自己利益的需要,爭先恐后地發(fā)展人工智能武器裝備。無人駕駛飛機(jī)成為新一輪軍備競賽的主要裝備?,F(xiàn)在,擁有殺人機(jī)器人的國家已經(jīng)不少,而且在不斷增加。人工智能武器已經(jīng)成為軍火商販賣的新式武器。主權(quán)國家一面在指責(zé)別的國家惡意攻擊他們,一面在以防御的借口大肆發(fā)展人工智能武器。人工智能武器不僅指殺人的機(jī)器人,或者用機(jī)器人代替人去當(dāng)兵,而且更重要的是人工智能對網(wǎng)絡(luò)系統(tǒng)和其他智能系統(tǒng)的癱瘓性的攻擊。網(wǎng)絡(luò)安全因之是非常重要的安全問題。
然而,更為吊詭的而且也是無法預(yù)料的是人工智能自身的發(fā)展有可能超出人類的掌握。也許在某一個(gè)環(huán)節(jié),人創(chuàng)造的人工智能走上了獨(dú)立自主的道路,完全脫離了人的掌控而自行其是,成為人的敵人或者從事不利于人類的活動(dòng)。就像傳說中的只喜歡制造曲別針的機(jī)器人,一切在它的眼中都是制造曲別針的原料,連人也不能幸免。更不用說,如果庫茨韋爾(Ray Kurzweil)等人翹首以待的“奇點(diǎn)”成為現(xiàn)實(shí),人與機(jī)器的關(guān)系將會(huì)發(fā)生何種翻天覆地的變化!11人工智能的九個(gè)倫理問題,參見 https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intell igence/,2018年3月10日訪問。
所謂奇點(diǎn),我們知道這是廣義相對論里面的觀點(diǎn),后來也不斷地有人在用,庫茨韋爾把它推到了極致。意思是什么呢?奇點(diǎn)實(shí)際上就是虛實(shí)相交的點(diǎn),海天結(jié)合的地方,時(shí)間和空間結(jié)合的地方。既存在也不存在,充其量只是一種理論假設(shè)。庫茨韋爾寫了一本書就叫《奇點(diǎn)臨近》,提出所謂“奇點(diǎn)理論”,宣稱2045 年將出現(xiàn)“奇點(diǎn)”時(shí)刻,人類文明會(huì)走到終點(diǎn),生物人將不復(fù)存在,取而代之的是一個(gè)叫作“奇點(diǎn)人”的新物種。12Ray Kurzweil, The Singularity Is Near: When Humans Transcend Biology, Viking, 2005.換言之,庫茨韋爾預(yù)測 2045年人類將與機(jī)器融合,獲得永生。在《人神——未來簡史》中,赫拉利(Harari)把人完全劃約為算法,認(rèn)為每個(gè)人真正的實(shí)質(zhì)性的構(gòu)造是算法。13Yuval Noah Harari, Homo Deus: A Brief History of Tomorrow, HarperCollins Publishers, 2017.如果人真的只是由算法構(gòu)成的,那人工智能超越人是毫無疑問的,因?yàn)槿瞬粫?huì)比機(jī)器算得更快。這是一種非??膳碌睦碚摚疫\(yùn)的是,相信這種理論的人并不多。對奇點(diǎn)的癡迷也是對人工智能的迷思。有些人認(rèn)為超級人工智能的來臨已經(jīng)是鐵板釘釘?shù)氖?。但更多的學(xué)者專家則認(rèn)為,目前還沒有跡象表明近期會(huì)有超級人工智能的出現(xiàn)。就目前來看,人工智能可以解決的問題還是很有限的。
誠然,未來學(xué)家們在想象的空間里可以任意馳騁,勾勒人類未來的藍(lán)圖。但技術(shù)烏托邦已經(jīng)從樂觀走向了悲觀。庫茨韋爾和赫拉利陶醉在對技術(shù)的膜拜之中,而對人類的命運(yùn)僅僅給予了漫不經(jīng)心或者輕描淡寫的關(guān)注,好像人類的未來并不那么重要,只要他們心中的人即算法或者“奇點(diǎn)”的臨近即可成為現(xiàn)實(shí)。技術(shù)烏托邦的推動(dòng)者們認(rèn)為技術(shù)可以解決一切問題,實(shí)際上是對理性的過分依賴。技術(shù)烏托邦首先是一種思維方式,這種思維方式代表的是進(jìn)步史觀,而這種進(jìn)步主要是科技的進(jìn)步。進(jìn)步史觀在人類發(fā)展史上發(fā)揮過至關(guān)重要的作用,但也受到過尖銳的批判。在十八九世紀(jì),人們覺得世界是進(jìn)步的,今天比昨天好,明天會(huì)更好。然而,無數(shù)歷史事實(shí)證明進(jìn)步并不是絕對的。從幾千年來的歷史來看,人性可能沒有發(fā)生很大變化。贊成技術(shù)烏托邦的人想要找出一種科技模式,并用這個(gè)模式統(tǒng)御制度設(shè)計(jì),使人類社會(huì)更加完美,人們的生活過得更好。一旦能夠通過計(jì)算的方式把這些制度做出來,這就是最理想的社會(huì)??墒谴蠹叶贾肋@是非常天真的見解,因?yàn)槿瞬粌H僅是計(jì)算型的/理性的,而且還是隨情感和情緒變化的,非理性的。歷史證明,人類社會(huì)的發(fā)展,一如個(gè)人的成長,起關(guān)鍵作用的往往不是理性的設(shè)計(jì),而是非理性的激情和偶然性。植根于邏輯推理的技術(shù)烏托邦并不是一條出路。
換個(gè)角度看問題,我們應(yīng)該重新思考如何能夠重拾信心,重新發(fā)現(xiàn)立足點(diǎn)。這個(gè)立足點(diǎn)不僅僅是對人工智能的認(rèn)識,而且是對人的認(rèn)識,對人類社會(huì)的認(rèn)識,對現(xiàn)存的各種各樣制度的認(rèn)識。再一種可能的情況,就是如何能夠使人的心性、智性、靈性全面發(fā)展,從而避免單向度的發(fā)展。應(yīng)該充分認(rèn)識到,如果自然人會(huì)被機(jī)器人所代替,那恰恰就是因?yàn)槿说闹切员话l(fā)展到了極端,而湮沒了人的心性和靈性。
機(jī)器人會(huì)不會(huì)有一天徹底占領(lǐng)地球?機(jī)器人會(huì)不會(huì)全方位超過人類?截至目前我們看到的對這個(gè)問題的回答,大體是從理性、科技及利益的角度給出的。算法的特性,諸如輸入輸出、明確性、有限性和有效性可能已經(jīng)為算法預(yù)設(shè)了局限性。也就是說,算法是可以被人控制的。但是機(jī)器學(xué)習(xí)的算法卻有可能超出人的掌握而自主發(fā)展。一旦算法自主發(fā)展,機(jī)器人超過人類就不是天方夜譚。但是,如果從人的秉性出發(fā)來看問題,機(jī)器人是無法全方位超越人類的。所謂人的秉性是指人攝取精神價(jià)值資源的天賦。傳統(tǒng)上,它被理解為包括理性和非理性兩部分,非理性還可以進(jìn)一步分為感情和信仰。合而觀之,人的秉性包括了理性、感情和信仰三個(gè)層面(或三個(gè)維度)。這三個(gè)層面筆者稱為智性、心性與靈性。人不僅具有智性,還有心性和靈性。一般有經(jīng)驗(yàn)的人做決定雖然主要靠理性,但心性和靈性的影響也不可忽視,有時(shí)可能更為重要。人工智能如要超越人類,它必須具有心性和靈性,只有智性是遠(yuǎn)遠(yuǎn)不夠的。
人的心性是感情、情緒、感覺的發(fā)源地,屬于完全不同于智性的領(lǐng)域。截至目前,尚無報(bào)道聲稱已經(jīng)發(fā)現(xiàn)某個(gè)機(jī)器人為情所累。即便是克隆人,也可能只是一種結(jié)構(gòu)性的存在,即可以作為軀體存在,但卻無法復(fù)制一個(gè)人的歷史,生活的內(nèi)容及其興趣愛好。機(jī)器人就更不可能做到這些了。
智性的存在表現(xiàn)在合理性,可計(jì)算性、規(guī)則性,功利性和經(jīng)驗(yàn)上。合理性就是因果關(guān)系、比例、得失規(guī)劃,等等。合理性的行為是排除非理性因素干擾的行為。規(guī)則性是智性的另一體現(xiàn),一種活動(dòng)或者設(shè)想,只有把它規(guī)則化以后,才好把握,才好便于認(rèn)識和重復(fù)。功利性是智性的另一體現(xiàn),一件事可為或不可為,有利或無利,需要智性予以判斷,智性禁止得不償失的行為。經(jīng)驗(yàn)是智性的另一個(gè)角度,對某一事物的認(rèn)識和處理,在無法直接推理的時(shí)候,只有借助經(jīng)驗(yàn)。經(jīng)驗(yàn)證明是可行的則可行,經(jīng)驗(yàn)證明是不可行的則避免之,這四者合而為一便是智性。人工智能的概念涵蓋了邏輯推理、可計(jì)算性、規(guī)則性、功利性和經(jīng)驗(yàn),無疑是人類智性的體現(xiàn)。
靈性是一個(gè)難以捉摸的維度,非常難把握。但是我們每一個(gè)人都具有靈性,只是程度的不同而已。很多人出家、信教,很快就能修成正果,但不是所有的人都可以,有些人一輩子都無法修成正果。靈性又可包括恐懼感(或畏懼),崇拜,生命傾向、神秘性、神圣性和普世的愛等方面。
人類的心性、智性和靈性是相輔相成且互相制衡的。正如在現(xiàn)代政治制度的安排方面宗教要受到理性的限制,人工智能的發(fā)展也應(yīng)該受到人的心性和靈性的制約。如其不然,好萊塢的科幻大片里智能人占領(lǐng)世界的預(yù)言就可能會(huì)成為現(xiàn)實(shí)。
現(xiàn)在人工智能還處于弱人工智能階段,機(jī)器人還不能自己思考。強(qiáng)人工智能的出現(xiàn),根據(jù)300多個(gè)人工智能科學(xué)家的推測,至少也要45年以后。但研究人工智能可否擁有感情的問題,即人工情能(Artificial Emotional Intelligence)的研究,已經(jīng)成為一個(gè)熱點(diǎn)。14Richard Yonck, Heart of the Machine: Our Future in a World of Artificial Emotional Intelligence, Arcade Publishing, 2017.但是,根據(jù)目前的研究來看,機(jī)器人是否會(huì)具有心性和靈性依然是一個(gè)可想但不可及的問題。
18世紀(jì)意大利思想家維克(Vico)指出,歷史上曾經(jīng)存在過神的時(shí)代、英雄的時(shí)代和人的時(shí)代。與此相適應(yīng)產(chǎn)生了三種不同的法律。神學(xué)指導(dǎo)下的法律、英雄的法律和自然人性法。15Willem J. Witteveen, "Reading Vico for the School of Law", Chicago-Kent Law Review, Vol.83 (2008). T. Bergin and M.Fisch (tr.), The New Science of GiambattistaVico, Cornell Univ. Press, 1968.今天,我們進(jìn)入了機(jī)器的時(shí)代。機(jī)器時(shí)代召喚與之相適應(yīng)的法律和與之相匹配的法律認(rèn)識論和法律方法論。機(jī)器時(shí)代的法律或可被稱為人—物關(guān)系法、科學(xué)自然法,抑或文理混合法。不管怎么稱呼,這種法律所要調(diào)整的主要對象是人和自己制造的工具的關(guān)系,包括有生命的或無生命的工具,或類人的工具,而這種關(guān)系并不是一種財(cái)產(chǎn)關(guān)系。如同前三類法律的發(fā)展變化一樣,機(jī)器時(shí)代的法律也是建立在已有法律基礎(chǔ)上的,并不是一種完全沒有傳統(tǒng)支持的新型法律。
然而,傳統(tǒng)法律的局限也是顯而易見的。法律的主要內(nèi)容是契約、財(cái)產(chǎn)和權(quán)利義務(wù)。就契約而論,在以太坊區(qū)塊鏈平臺(tái)上廣泛應(yīng)用的智慧契約本身就是運(yùn)算代碼的一種反應(yīng)。傳統(tǒng)契約法對它一籌莫展。就財(cái)產(chǎn)而論,擬真財(cái)產(chǎn)性質(zhì)的確定是相當(dāng)困難的事情。到底是擬真資源還是擬真財(cái)產(chǎn)尚存在爭議。更何況,該用何種法律調(diào)整擬真資源或財(cái)產(chǎn)也是沒有定論的問題。契約法、勞動(dòng)法、知識產(chǎn)權(quán)法以及物權(quán)法都可能適用。就權(quán)利的主體而言,當(dāng)今時(shí)代,動(dòng)物有權(quán)利、山川草木皆有權(quán)利,連機(jī)器人都可能有權(quán)利。這完全顛覆了傳統(tǒng)的權(quán)利學(xué)說。需要一種新的權(quán)利學(xué)說來解釋并證成這些權(quán)利的合法性。更為重要的是,網(wǎng)絡(luò)技術(shù)、人工智能技術(shù)等科學(xué)技術(shù)本身具有自己的規(guī)律,人為的法律可能鞭長莫及,無法發(fā)揮有效的作用。這個(gè)領(lǐng)域中有效的調(diào)整工具可能更多的是人們所熟悉的代碼(Code),而非法律。簡言之,機(jī)器時(shí)代給現(xiàn)有的法律及其制度提出了難題,需要人們從新的角度認(rèn)真對待。傳統(tǒng)的源自19世紀(jì)的法律思想和法典意識是無法應(yīng)對21世紀(jì)的新型的動(dòng)態(tài)法律關(guān)系的。
另外,法律如何反映機(jī)器時(shí)代新的道德和倫理則是更大的課題。人的倫理、職業(yè)倫理、生物研究的倫理、機(jī)器人的倫理、人工智能的倫理等都與法律密切相關(guān)。這些都可能是機(jī)器時(shí)代立法和司法必須要遵循的指導(dǎo)原則。今天的法律人所面臨的學(xué)習(xí)任務(wù)是非常艱巨的。
有些人認(rèn)為,現(xiàn)有的法律已經(jīng)足以應(yīng)對人工智能引起的和可能引起的新的法律關(guān)系,或者調(diào)控由人工智能引發(fā)的法律后果,并不需要新的專門的法律調(diào)控。持這種觀點(diǎn)的人主要把人工智能看作一種產(chǎn)品,并且認(rèn)為現(xiàn)有的產(chǎn)品責(zé)任法就足以應(yīng)對人工智能引起的法律問題。具體而言,如果一個(gè)機(jī)器人侵犯了別人的利益,或者導(dǎo)致了別人的經(jīng)濟(jì)損失,機(jī)器人的制造者、所有者或者編程者應(yīng)該承擔(dān)法律責(zé)任。然而,機(jī)器人并不是單純的一般意義上的產(chǎn)品。現(xiàn)有產(chǎn)品責(zé)任法中關(guān)于產(chǎn)品的概念,并沒有預(yù)設(shè)針對智能活動(dòng)產(chǎn)品的內(nèi)容。
無論如何,如果要規(guī)管人工智能和算法的研發(fā),就必須要賦予人工智能一定的法律地位。雖然有些國家的法律已經(jīng)試圖賦予機(jī)器人一定的法律主體資格,比如韓國的機(jī)器人法案提倡機(jī)器人應(yīng)具有相應(yīng)權(quán)利義務(wù)的電子人格,愛沙尼亞的人工智能立法把機(jī)器人看作人的代理,介于獨(dú)立人格和財(cái)產(chǎn)之間,但很多研究者都不愿意把人工智能看作具有主體性的存在,而僅僅把它看作一種工具或者產(chǎn)品,不具有主體資格。
制定法律等于建立一種社會(huì)制度。制度建立的資源和途徑大致有三:一是把行之有效、持之以恒的實(shí)踐制度化。比如市場的出現(xiàn),開始并沒有固定的市場的概念,但人們習(xí)慣于在一定的時(shí)間和一定的地點(diǎn)交易,久而久之就產(chǎn)生了市場和調(diào)節(jié)市場的規(guī)范系統(tǒng)和制度。二是把精確可行的概念和理論制度化。人類社會(huì)有些制度的誕生和發(fā)展建基于偉大思想家的理論和學(xué)說。這方面的例子不勝枚舉。三是向別人借鑒學(xué)習(xí),比如法律移植。有史以來人們對法律、習(xí)俗、道德等規(guī)范系統(tǒng)的相互借鑒從未停止過。
就實(shí)踐而言,人工智能研究和運(yùn)用突飛猛進(jìn)的歷史并不長。實(shí)踐中尚未積累起足夠的經(jīng)驗(yàn),也未發(fā)展出可以類型化的比較成熟的牽涉人工智能的法律關(guān)系。因此,無法進(jìn)行制度化。也就是說,目前不可能制定出有關(guān)人工智能的完善的法律。從理論與學(xué)說的角度來看,無論描述性的還是預(yù)測性的,目前的理論界尚未就什么是人工智能的問題達(dá)成一致的認(rèn)識,而且也缺乏主要的概念范疇。因此,把理論或者學(xué)說制度化的前景也并不十分樂觀。從借鑒移植的角度來看,截至目前世界上也還沒有一部被命名為“人工智能法”的法律問世。但是,調(diào)整人工智能某些方面或某種形式的法律卻早已存在。比如,有關(guān)網(wǎng)絡(luò)平臺(tái)管理、機(jī)器人以及網(wǎng)上交易等方面的法律,諸如歐洲議會(huì)“關(guān)于制定機(jī)器人民事法律規(guī)則的決議”,韓國的“智能機(jī)器人法”,美國眾參兩院的“自動(dòng)駕駛法案”,等等。
毫無疑問,制定單項(xiàng)的或?qū)iT的法規(guī)調(diào)控人工智能的某一具體方面或形式是既有實(shí)踐,但這并不排除制定一部綜合性的概括性的“人工智能法”的可能性。當(dāng)人們不能完全掌握所需信息的情況下,可以先制定一部原則性的簡短的法律,隨著實(shí)踐的深入再制定詳細(xì)的實(shí)施細(xì)則。法律是在不斷發(fā)展變化中實(shí)現(xiàn)其生命價(jià)值的。比如,工傷的賠償最初大部分國家都采取嚴(yán)格侵權(quán)責(zé)任制。當(dāng)一個(gè)工人受傷,雇主有過錯(cuò)就要給予賠償,雇主無過錯(cuò)就不用賠償。這種侵權(quán)的賠償制不能夠涵蓋工傷的各種情況,各國不停改革,終于找出新的解決辦法——社會(huì)保險(xiǎn)制度。通過社會(huì)保險(xiǎn)制度來彌補(bǔ)侵權(quán)補(bǔ)償?shù)牟蛔?,使工傷賠償更加人性化。后來又發(fā)展到不管雇主有無過錯(cuò),只要有工傷都要賠償。這就要拿出一筆基金來處理工傷。在特別發(fā)達(dá)地區(qū),只要是與工人有關(guān),哪怕是在路上出了車禍,也要賠償。人工智能法對機(jī)器人行為的規(guī)管,也會(huì)有一個(gè)逐漸完善的過程。
如果要制定一部概括性的人工智能法,這部法律至少應(yīng)該明確立法的目的、指導(dǎo)原則以及鼓勵(lì)和限制的范圍和內(nèi)容。在精神上至少應(yīng)該反映出人類對自己的創(chuàng)造物的掌握能力和對科學(xué)技術(shù)規(guī)律的充分尊重。這部法律同時(shí)應(yīng)該設(shè)立一個(gè)監(jiān)管人工智能研發(fā)的專門機(jī)構(gòu),并賦予其相應(yīng)的權(quán)力,諸如質(zhì)量認(rèn)證的權(quán)力,進(jìn)一步制定實(shí)施細(xì)則和計(jì)劃的權(quán)力,起訴違法的權(quán)力以及行政處罰的權(quán)力,并且針對這些權(quán)力大致規(guī)定實(shí)施的程序和大體要求。這個(gè)機(jī)構(gòu)一定要吸收有關(guān)專家作為成員。紐約市議會(huì)新近通過的《算法問責(zé)法案》里就有專項(xiàng)規(guī)定,要求成立一個(gè)由自動(dòng)化決策系統(tǒng)專家和相應(yīng)的公民組織代表組成的工作組,專門監(jiān)督自動(dòng)決策算法的公平和透明。16The first bill to examine "algorithmic bias" in government agencies has just passed in New York City, http://www.businessinsider.com/algorithmic-bias-accountability-bill-passes-in-new-york-city-2017-12, accessed on March 8,2018.
世界正在發(fā)生翻天覆地的變化。我們正處在大轉(zhuǎn)變的開端。這次的變化在人類歷史上從未有過類似的先例。有些人喜歡用“第×次工業(yè)革命”來形容這次轉(zhuǎn)變,但不夠傳神,因?yàn)檫@次轉(zhuǎn)變要比工業(yè)革命意義深遠(yuǎn)得多。這次變化的后果現(xiàn)在尚難以預(yù)料,但很多科學(xué)家、學(xué)者和商業(yè)人士都紛紛表示為人類的未來擔(dān)憂。而未來學(xué)家、技術(shù)烏托邦主義者則非常向往這一時(shí)代的君臨。
人類歷史上曾經(jīng)有過劃時(shí)代的巨變,諸如宗教改革、文藝復(fù)興、工業(yè)革命、啟蒙運(yùn)動(dòng),以及法國大革命、美國獨(dú)立革命、俄國革命、中國的兩次革命,以及世界上其他國家的革命、獨(dú)立、合并等這些不可不稱之為偉大轉(zhuǎn)變的事件。然而,這些歷史巨變比起正在發(fā)生的和將要發(fā)生的巨變,真是小巫見大巫。因?yàn)橐酝木拮儫o論如何都是以人為中心發(fā)生的變化,人類并沒有對自己的未來失去控制,而今天孕育著的變化卻指向反人類、非人類,乃至滅絕人類的后果。這就是所謂后人類時(shí)代的降臨。
這種后人類狀況的來臨雖然是本世紀(jì)初的事,但其種子早就孕育在上世紀(jì)的社會(huì)制度和文化思潮中了。一言以蔽之,人對自己的狀況始終不甚滿意,一直在追求更高品質(zhì)的生活,試圖改變現(xiàn)有的狀態(tài),無論經(jīng)濟(jì)狀態(tài)、生活狀態(tài)、政治狀態(tài)還是個(gè)人狀態(tài)。也就是在這種不斷追求完美和完善的過程中,人類迎來了后人類時(shí)代。近現(xiàn)代以來不斷改進(jìn)的寬容與反思的文化環(huán)境,給了人們不斷認(rèn)識、解放自己的機(jī)會(huì),使個(gè)人的追求擺脫了傳統(tǒng)的束縛,自由放任,無拘無束地從事自己的研究。從宗教寬容到政治寬容再到文化寬容,現(xiàn)代社會(huì)鼓勵(lì)人們追求快樂幸福,自我實(shí)現(xiàn)。這使人們追求完美的事業(yè)從形象到職業(yè),從生活方式到科學(xué)研究成為正當(dāng)而有意義的工作。使自己變得更美更健康的人類增強(qiáng)工程方興未艾,化妝保養(yǎng)整容,采用激光除痣或美膚,機(jī)器強(qiáng)身已經(jīng)成為普遍現(xiàn)象。這預(yù)示著如果有一天,體內(nèi)植入芯片或者其他異物能夠使人變得更聰明、更強(qiáng)健或更美麗,人們是不會(huì)拒絕的。如此一來,人就把自己從自然人變?yōu)楹笕祟惲?。與此相聯(lián)系,人對自己本身的認(rèn)識也有了很大發(fā)展,因此才有了各種性傾向的展露和模糊。另外,由于所謂啟蒙、現(xiàn)代化、科學(xué)的發(fā)展而導(dǎo)致了現(xiàn)代單向度社會(huì)環(huán)境的存在,而單向度的環(huán)境則孕育了單向度的人。一言以蔽之,這些人基本上是理性—科學(xué)—經(jīng)濟(jì)—法律人。在這樣的框架里面,人的理性越來越發(fā)達(dá),而心性和靈性則受到了毀滅性的打擊。如果不做有意識的努力以遏制人的智性的無限制發(fā)展,算法社會(huì)將進(jìn)一步打擊并有可能毀滅人的心性和靈性,那也就意味著人的末日的來臨。