国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能政治風險的意蘊與生成

2020-02-11 13:58:56
江西社會科學 2020年5期
關(guān)鍵詞:權(quán)力人工智能人類

人工智能是以海量數(shù)據(jù)和超強算法為核心的高端技術(shù),在釋放人類發(fā)展局限的同時,也潛伏著撕裂政治秩序的傾向,進而構(gòu)成人工智能的政治風險問題。人工智能的政治風險是人工智能技術(shù)嵌入政治體系時施加于政治權(quán)力和政治價值的不確定性后果。結(jié)構(gòu)性、現(xiàn)代性、擴散性是人工智能型構(gòu)政治系統(tǒng)的三類風險特征。人工智能引發(fā)政治風險的技術(shù)路徑表現(xiàn)在兩個面向:一方面,人工智能的數(shù)據(jù)獨裁不斷侵犯政治權(quán)力邊界,使得政治結(jié)構(gòu)去中心化、政治決策數(shù)據(jù)化,以至政治滑入“數(shù)據(jù)利維坦”;另一方面,人工智能的算法失序腐蝕著政治價值,算法歧視、算法黑箱、算法自利逐漸消解民主政治的正義、公開、公意等美好精神。人工智能的這兩方面“勝利”,預示了民主政治大廈岌岌可危,這決定了人工智能政治風險的研究是當前一個緊迫而重要的議題。

人工智能(Artificial Intelligence)術(shù)語起源于20世紀50年代的達特茅斯會議,由約翰·麥卡錫(John McCarthy)和其他一些學者提出,之后從科技經(jīng)濟圈擴散至人類社會各個領(lǐng)域。2017年柯潔與AlphaGO的對決以來,人工智能再次成為社會關(guān)注焦點,被視為人類社會第四次革命的技術(shù)先鋒,似乎正在顛覆人類社會現(xiàn)有的組織、生產(chǎn)和生活形態(tài)。其中,人工智能對政治秩序的沖擊與挑戰(zhàn)尤為嚴峻。立足風險社會面向,通過剖析當前人工智能的研究現(xiàn)狀,學界試圖探析以下兩個主要問題:其一,在風險社會場域中,人工智能的政治風險意指何物,具有哪些特征?其二,當人工智能技術(shù)嵌入政治系統(tǒng)時,人工智能如何引發(fā)政治危機?本文嘗試對這些問題做出基礎性的研究,以期有助于人工智能政治風險研究在理論和實踐上的發(fā)展。

一、提出問題

人工智能的勃興對人類社會的影響將是顛覆性的。智能司法、智能金融、智能醫(yī)療、智能教育以及智能交通等人工智能體悄然進入人類日常生產(chǎn)與生活空間,成為釋放人類生理機能局限的有力“伙伴”。然而,在滿足人類社會需求的過程中,人工智能體模糊政治、社會、市場領(lǐng)域界限,撕裂人類社會固有的價值與平衡,引發(fā)了人類與人工智能體能否共存的爭論。

當下對人工智能的研究蔚為大觀,并呈現(xiàn)出兩個相互對立的問題域。第一類是威脅論,表現(xiàn)為一種對人工智能因技術(shù)異化而產(chǎn)生的恐懼心理。持該論者強調(diào),一旦人工智能達到奇點或智能化后,人類將無法解鎖人工智能的行為模式,它可能反過來對人類造成威脅,甚至加速人類死亡。2014年,埃隆·馬斯克(Llon Musk)向麻省理工學院的聽眾發(fā)起警告:人工智能的發(fā)展應該是謹慎的,它將是我們生存的最大風險源。史蒂芬·霍金(Stephen Hawking)更為悲觀地揭示全面發(fā)展人工智能與人類滅亡的直接關(guān)聯(lián)性。微軟公司的比爾·蓋茨(Bill Gates)和蘋果公司的史蒂夫·沃茲尼克(Steve Wozniak)也都表達了對人工智能技術(shù)危險與威脅的擔憂。[1](P5)第二類是技術(shù)論,即將人工智能視為人類歷史上出現(xiàn)的一次技術(shù)革新,聚焦于使用、推廣人工智能更好地服務于人類,并采取措施減輕其負面效應。持該論者認為,人工智能具備運行速度快、目標精準性、經(jīng)濟效益高以及適用于海量數(shù)據(jù)任務的技術(shù)先進性。Facebook的負責人馬克·艾略特·扎克伯格(Mark Elliot Zuckerberg)批判了霍金、埃隆·馬斯克等人的人工智能威脅論,強調(diào)人工智能是人類的福音,如果將人工智能視為一種威脅則顯得牽強附會,因為它的發(fā)生概率比大規(guī)模疾病、暴力導致的災難要低得多。百度人工智能研究員吳恩達贊同扎克伯格的觀點:“擔心人工智能,就跟擔心火星上人口太多差不多?!保?](P6)

上述兩種觀點代表了新近人工智能研究的基本面向,然而,它們之間并不存在對錯之分,只是研究取向各異而已。它們的論斷為人類探索人工智能技術(shù)應用與人類社會發(fā)展之間的關(guān)系奠定了基礎。然而,在風險社會環(huán)境下,何謂人工智能的政治風險?這些政治風險有何特點?人工智能技術(shù)如何型構(gòu)政治風險?從目前看,已有研究付諸闕如。

我們認為,要回答上述問題,需要對什么是人工智能作出一些基本判斷。一般認為,人工智能作為一種高端科技體,建筑于大數(shù)據(jù)(Big Date)和超強算法兩大基石之上。大數(shù)據(jù)的本質(zhì)是抽象意義上“大的數(shù)據(jù)”或“數(shù)據(jù)之大”,而不僅僅是數(shù)量上的數(shù)據(jù)之多。根據(jù)美國國家標準和技術(shù)研究院(NIST)的界定,大數(shù)據(jù)在于“數(shù)據(jù)的容量、數(shù)據(jù)的獲取速度或者數(shù)據(jù)的表示限制了使用傳統(tǒng)關(guān)系方法對數(shù)據(jù)的分析處理能力,需要使用水平擴展的機制以提高處理效率”[2]。算法則內(nèi)含著運算規(guī)則和計算能力的程序設計,是指“一種有限、確定、有效并適合用計算機程序來實現(xiàn)的解決問題的方法”[3](P13),其未來走向?qū)且环N新型的權(quán)力形態(tài)——算法權(quán)力。[4]大數(shù)據(jù)是先進算力和強大算法發(fā)揮作用的前置條件,而強大的計算力和算法程序可以分析、加工數(shù)據(jù),將眾多孤立的數(shù)據(jù)串聯(lián)起來,是實現(xiàn)數(shù)據(jù)價值技術(shù)工具,兩者共同塑造了人工智能的技術(shù)架構(gòu)。然而,獲取海量數(shù)據(jù)與設計算法程序并非一個自然演進的過程,它們共同受制于人類的科學理性與價值判斷,而正是人工智能體引發(fā)政治風險或社會危機的致災因子,也決定了人工智能技術(shù)生成政治風險的現(xiàn)實性。

二、人工智能政治風險的意蘊

在人類社會的發(fā)展過程中,任何科學技術(shù)的進步往往具有“雙重用途”特性:既給人類帶來福祉,又為人類社會埋下風險。人工智能也不例外??茖W技術(shù)的“普羅米修斯火種”效應決定了我們不能將人工智能僅僅視為一種技術(shù)工具的創(chuàng)新,而要從風險社會的高度,展現(xiàn)人工智能的政治風險內(nèi)涵及其內(nèi)在特征,從而挖掘隱藏在技術(shù)工具表象背后的風險形成邏輯。

(一)人工智能政治風險的內(nèi)涵

人工智能是現(xiàn)代社會中技術(shù)—經(jīng)濟領(lǐng)域的新拓展,在便利人類經(jīng)濟發(fā)展和社會進步的同時,也將技術(shù)風險引入人類社會。漢斯·約納斯(Hans Jonas)認為,現(xiàn)代技術(shù)本身孕育著巨大的風險,必須引起人們負責任的關(guān)注。風險社會理論學家烏爾里?!へ惪耍║lrich Beck)認為,風險社會經(jīng)由前現(xiàn)代社會到現(xiàn)代社會的轉(zhuǎn)化需要三個因素:科學技術(shù)的發(fā)展、全球化的擴張、工業(yè)社會的資本邏輯與知識理性結(jié)合。其中,科技的理性與無知成為貝克和安東尼吉·登斯(Anthony Giddens)批判現(xiàn)代性和構(gòu)建風險社會的核心論域。吉登斯提出:“‘人造風險’于人類而言是最大的威脅,它起因于人類對科學、技術(shù)不加限制地推進?!保?](P115)風險社會是現(xiàn)代性的必然結(jié)果,而現(xiàn)代性建基于工業(yè)主義以來的技術(shù)至上和個人主義。作為“人化”自然和人造社會的技術(shù),風險社會理論家們稱作現(xiàn)代性的風險之源,成為懸掛在人類社會之上的達摩克利斯之劍,對人類社會的一切活動有潛在風險。

風險社會視域下的風險類型劃分,存在四種界定依據(jù),其中典型的是按風險的涉及領(lǐng)域進行劃分,可以分為生態(tài)風險、經(jīng)濟風險、文化風險和政治風險。生態(tài)風險在于主體性的人的生存實踐對自然環(huán)境的破壞而形成的各種自然危機。溫室效應、海洋污染、能源危機是此類危機的典型。經(jīng)濟風險是因應市場的機制性失靈所導致的商品生產(chǎn)環(huán)節(jié)的紊亂與失序,比如金融危機、生產(chǎn)過剩等。文化風險表現(xiàn)為現(xiàn)代化過程中信仰、理性與道德法則的失范而出現(xiàn)的精神危機。政治風險則是“由于政治利益之間的對立與矛盾所引發(fā)的沖突與危機,主要表現(xiàn)為階級沖突、群體之爭,嚴重的甚至以軍事政變、地區(qū)戰(zhàn)爭和世界大戰(zhàn)等形式表現(xiàn)出來”[6](P169)。在風險社會下,這四類風險相互交融、互動,它們之間的風險邊界并非固定不變,而是因風險的際遇而處于變化之中。例如,發(fā)生在經(jīng)濟領(lǐng)域的金融危機,則可以轉(zhuǎn)換成政治危機,進而重塑人類的文化與生態(tài)認知。

人工智能的政治風險屬于風險社會中政治風險范疇,具備風險社會中政治風險的一般屬性,但也擁有自身技術(shù)政治風險的異質(zhì)性特征。我們認為,人工智能的政治風險是指以大數(shù)據(jù)和算法為核心的人工智能技術(shù)內(nèi)嵌于政治系統(tǒng)并施加于政治權(quán)力與政治價值的可能性危害。首先,人工智能以海量數(shù)據(jù)為技術(shù)前提,基于對數(shù)據(jù)的搜集、加工、制作與應用,強調(diào)技術(shù)主義的至上性,這勢必會分解科層制單向度的權(quán)力中心結(jié)構(gòu),衍生為技術(shù)理性的“專家政治”(expertocracy)傾向。其次,建立在超級算法基礎上的人工智能,在數(shù)據(jù)的理性算計中無法摒除算法歧視、算法黑箱、算法自利等固有缺陷,這將日益侵染民主政治的平等、公開、民主與人文關(guān)懷等價值信仰,最終引致人類社會滑入“技術(shù)利維坦”[7]的命運。最后,人工智能引致的政治風險是人類對技術(shù)“副作用”的一種理性認知,表現(xiàn)出人類關(guān)于高端科學技術(shù)應用于民主政治的審慎思考。當政治系統(tǒng)接納人工智能技術(shù)時,這種技術(shù)“副作用”就隨之生成,然而其行跡難以追蹤,無法通過感官直接獲得,只能依靠人類的主觀認知與理性構(gòu)建。結(jié)構(gòu)性、現(xiàn)代性、擴散性是人工智能的數(shù)據(jù)獨裁和算法失序“攻克”政治體系的風險特征,更是人類對人工智能政治風險可能性后果的理性判斷。

(二)人工智能政治風險的特征

人工智能的政治風險正與風險社會的其他風險逐漸合謀同軌(比如與金融風險、社會風險),導致此類風險不僅呈現(xiàn)一般風險類型的危害性、復雜性,更凸顯出自身技術(shù)主義引致的結(jié)構(gòu)性、現(xiàn)代性、擴散性特點。

第一,人工智能政治風險的結(jié)構(gòu)性。人工智能政治風險的結(jié)構(gòu)性是指人工智能技術(shù)對政治系統(tǒng)及其與社會系統(tǒng)的整體性解構(gòu)時帶來的結(jié)構(gòu)性治理變革。人類社會是一個高度組織性、系統(tǒng)性的有機構(gòu)造,任何社會的要素調(diào)整與秩序更新,必然會帶來全景式的變動。從政治系統(tǒng)內(nèi)部看,人工智能技術(shù)的應用將帶來政府組織的結(jié)構(gòu)性轉(zhuǎn)變。人工智能技術(shù)嵌入政治系統(tǒng)會直接激發(fā)政府組織結(jié)構(gòu)、管理體制以及運行機制方面的變革,使得政治系統(tǒng)日益信息化、智能化與現(xiàn)代化,可以說,后工業(yè)時代政府機構(gòu)的組織構(gòu)建、機制運行等方面已被技術(shù)力量所重構(gòu)。從政治系統(tǒng)外部看,人工智能政治風險的間接結(jié)構(gòu)性正在“途中”,它會通過對社會系統(tǒng)的“負效應”以展示技術(shù)對政治的張力,形成社會問題治理的結(jié)構(gòu)性困境。以就業(yè)為例。2017年麥肯錫研究報告顯示:有60%的職業(yè)(至少1/3)面臨著被技術(shù)替代的可能性,大量行業(yè)和工作者面臨著重新?lián)駱I(yè)的挑戰(zhàn);到2030年,依據(jù)行業(yè)的不同將會有0-30%的工作被自動化取代。[8]人工智能技術(shù)導致就業(yè)人員失業(yè)下崗問題將是一個嚴峻的社會問題,關(guān)涉社會福利與保障、社會再教育等方面?!皬恼伟l(fā)展角度來看,人工智能對人類社會造成的失業(yè)和倫理危機等問題,最終都會轉(zhuǎn)化為政治問題”[9],在這個意義上,要化解人工智能政治風險的社會性問題,需要政治系統(tǒng)創(chuàng)設各種社會風險控制結(jié)構(gòu)來實現(xiàn),而這也顯示出技術(shù)風險的結(jié)構(gòu)性。

第二,人工智能政治風險的現(xiàn)代性?,F(xiàn)代性標示著傳統(tǒng)社會的祛魅和工業(yè)社會的興起,是構(gòu)建風險社會理論的標桿。人工智能政治風險的現(xiàn)代性意指人工智能作為后工業(yè)社會的新興技術(shù)力量對現(xiàn)代民主政治所產(chǎn)生的不同于傳統(tǒng)社會的技術(shù)性后果。這類技術(shù)給政治系統(tǒng)帶來的風險有兩個方面。從表層看,人工智能政治風險的現(xiàn)代性以政治系統(tǒng)對智能技術(shù)的吸納、內(nèi)化程度效果而展現(xiàn)出來,這類似于工業(yè)時代其他技術(shù)革命對政府治理結(jié)構(gòu)的重塑過程。然而,要注意的是,在重構(gòu)過程中,技術(shù)所有者會出于私利考量而形成技術(shù)異化,這勢必會釀成政治無法吸收技術(shù)的現(xiàn)代性后果。從本質(zhì)看,這種現(xiàn)代性特征體現(xiàn)為人類“修補”科技理性與人文價值之間斷裂的努力。在現(xiàn)代性中,人類樂觀于自身的科技成就與創(chuàng)新,將技術(shù)主義推崇至上,形成了技術(shù)拜物教而無暇思考技術(shù)與人文的關(guān)聯(lián)。根據(jù)貝克的風險社會論斷,人工智能的政治風險是后工業(yè)社會的自反性,希冀在現(xiàn)代社會中尋找解決人工智能風險的政治“解藥”。但是,現(xiàn)代性風險的不確定性將會是一道難以逾越的鴻溝,因為“今日對人工智能沖擊的憂慮,重要的不是其本身,而是現(xiàn)代社會包容一日千里科技革命的能力急驟地退步,其背后是現(xiàn)代社會立足的兩大支柱本身受到科學革命的侵蝕。現(xiàn)代性的前提是科學理性與人文信仰的二分,當科學理性等同于技術(shù),意味著它已異化?!系壑馈偷赖卤坏韧谧非罄?,表明終極關(guān)懷開始退出社會”[10](P144-145)。

第三,人工智能政治風險的擴散性。人工智能政治風險的擴散性是指政治系統(tǒng)在學習、吸收、應用人工智能技術(shù)的過程中,逐漸強化嵌入其中的技術(shù)精英的價值形態(tài),同時基于全球化趨勢將這種單向度的價值理念不斷地擴散至世界。一方面,人工智能技術(shù)的生產(chǎn)、應用和轉(zhuǎn)移,有意識形態(tài)導向。技術(shù)、知識等要素是人類生產(chǎn)生活不可或缺的組成部分,它們屬于海德格爾式的客觀實在范疇,但是,生產(chǎn)、發(fā)明這些技術(shù)和知識的主體則是具有主觀能動性的技術(shù)精英或高端技術(shù)企業(yè)集團。那么,基于人類的有限理性或者利益偏好等固有需求,人工智能在其技術(shù)轉(zhuǎn)移和傳播的過程中將會內(nèi)置特定意識形態(tài)色彩。例如,性別歧視、種族歧視或國家之間的意識形態(tài)主張等,而建基于公意基礎上的政治系統(tǒng)在吸納人工智能技術(shù)時,會有意無意地擴散這種特定價值觀。另一方面,制度性破壞后果的全球性。人工智能對政治系統(tǒng)、政治價值的沖擊形成的政治風險屬于吉登斯所言的“人造風險”系列,“我們所面對的最令人不安的威脅是那種‘人造風險’,它來源于科學與技術(shù)的不受限制的推進”[6](P13),這種人造風險的“發(fā)展以及影響更加無法預測,‘無法用舊的方法來解決這些問題,同時它們也不符合啟蒙運動開列的知識越多、控制越強的藥方’;其中的‘后果嚴重的風險’是全球性的,可以影響到全球幾乎每一個人,甚至人類整體的存在”[11](P115)。在經(jīng)濟全球化的催化下,人工智能的政治風險具備了超越主權(quán)國家邊界的擴散能力,將給國際政治秩序帶來顛覆性沖擊。

人工智能政治風險的三個特征根植于人工智能技術(shù)嵌入政治系統(tǒng)的全過程,是人工智能的數(shù)據(jù)獨裁解構(gòu)政治權(quán)力和算法失序侵染政治價值這兩種風險形成路徑的彰顯。這決定了我們有必要進一步闡釋人工智能是如何引發(fā)政治風險的議題。

三、人工智能政治風險的形成

人工智能政治風險作為風險社會中的一種現(xiàn)代化“技術(shù)險種”,不同于核危機、化學產(chǎn)品風險、基因工程風險等技術(shù)風險的形成邏輯,它主要通過兩種途徑生成政治風險:一方面,在組織結(jié)構(gòu)上,人工智能依仗數(shù)據(jù)獨裁以解構(gòu)政治權(quán)力,致使政治權(quán)力結(jié)構(gòu)彌散化、決策權(quán)的非政治轉(zhuǎn)移,最終形成數(shù)據(jù)利維坦;另一方面,在終極價值上,人工智能基于算法失序以侵蝕政治價值,逐漸消解民主政治的正義、公開、公意等美好精神。

(一)人工智能的數(shù)據(jù)獨裁解構(gòu)政治權(quán)力,致使政治權(quán)力異化為精英權(quán)力

什么是人工智能的數(shù)據(jù)獨裁?在分析數(shù)據(jù)獨裁統(tǒng)治的興起時,尤瓦爾·赫拉利認為數(shù)據(jù)獨裁(Digital Dictatorships)的本質(zhì)在于讓數(shù)據(jù)統(tǒng)治我們。政治學意義上,獨裁是與民主相反的概念,獨裁意為獨自裁斷,多指獨攬政權(quán),實行專制統(tǒng)治,它存在著一個“施加者”的意蘊,即“誰”實施獨裁的問題。就人工智能時代的數(shù)據(jù)獨裁而言,需要把握兩個方面:其一,數(shù)據(jù)為何會獨裁,即工具屬性;其二,“誰的”獨裁,即主體資格。由此,我們認為,人工智能的數(shù)據(jù)獨裁是指技術(shù)精英(或技術(shù)類法人)在大數(shù)據(jù)的采集、加工、應用等數(shù)據(jù)價值生產(chǎn)過程中所占有的獨斷性優(yōu)勢與地位。其中,數(shù)據(jù)價值是形成數(shù)據(jù)獨裁的前提,而技術(shù)精英是實施數(shù)據(jù)獨裁的主體,技術(shù)精英憑借其擁有的數(shù)據(jù)信息優(yōu)勢享有數(shù)據(jù)權(quán)威,進而會在數(shù)據(jù)遷移入政治系統(tǒng)時衍生出自身的利益訴求和權(quán)力渴望。這就形成數(shù)據(jù)獨裁對政治系統(tǒng)已然權(quán)力結(jié)構(gòu)的沖擊,也就加劇人工智能政治風險的形成。

第一,政治權(quán)力結(jié)構(gòu)的彌散化。首先,早期工業(yè)時代權(quán)力的政府集中。自從工業(yè)社會以來,利用知識理性與技術(shù)主義開展針對傳統(tǒng)和權(quán)威性的祛魅運動一直是社會發(fā)展的主線,而在這種趨勢的侵染下,形成非人格化的以權(quán)力等級分配的科層組織。在馬克斯·韋伯看來,科層制的功能發(fā)揮在于對權(quán)力的有效行使,因為權(quán)力具有唯一性,指向一個中心,并以“庇護與臣服”的關(guān)系作為第一原理。這種權(quán)力的社會關(guān)系構(gòu)造一般適應于相對穩(wěn)定、變化較小的社會,并為政府組織開展公共管理活動提供了獨享性的權(quán)力基礎。其次,工業(yè)社會時代權(quán)力的技術(shù)分化。20世紀50年代以來,世界日益復雜化、信息化、網(wǎng)絡化以及全球化,傳統(tǒng)的科層制組織受到嚴重挑戰(zhàn),以權(quán)力為中心的組織架構(gòu)也日益呈現(xiàn)被去中心化趨勢。對政治權(quán)力結(jié)構(gòu)而言,“在信息化時代,掌握數(shù)據(jù)的主體既有政府等管理機構(gòu),同時也有眾多互聯(lián)網(wǎng)民營企業(yè)、各類社會組織等。因此人工智能時代,權(quán)力分布呈現(xiàn)去中心化圖譜結(jié)構(gòu),權(quán)力結(jié)構(gòu)日益多元和分化,這在一定程度上弱化了傳統(tǒng)的線下的多層國家權(quán)力結(jié)構(gòu)和單向治理模式”[12]。最后,后工業(yè)時代專家性的權(quán)力構(gòu)筑。人工智能對權(quán)力的去中心化訴求,將權(quán)力的科層制中心一分為二,形成科層制權(quán)力和專家性權(quán)力的二元分離格局。專家性權(quán)力依仗專業(yè)技術(shù)知識與能力,不斷增強權(quán)力賦能,形成對固有權(quán)力體系的挑釁,以至于有朝一日會享有權(quán)力的獨占性優(yōu)勢,并構(gòu)筑數(shù)據(jù)獨裁地位。權(quán)力的主導權(quán)經(jīng)由政府組織,逐漸滑落到技術(shù)—經(jīng)濟類的社會組織,非政治力量開始接過政治的領(lǐng)導角色,而政治要么與之合謀進而分享權(quán)力,要么淪為技術(shù)—經(jīng)濟的權(quán)力附庸。權(quán)力中心的技術(shù)—經(jīng)濟轉(zhuǎn)向遵循科學技術(shù)或市場組織對權(quán)力的把持與操控,使大型高科技類型組織與政府組織分享權(quán)力資源,而將其他社會主體排斥在外。“科研實驗室和董事會議室取代了議會或政黨,間接完成了對于未來的塑造。其他所有人,甚至包括政界和學術(shù)界那些最負責任、最收悉情況的人士,他們的生計多少都依賴于從技術(shù)亞政治的規(guī)劃桌上掉落的信息碎片。在未來的工業(yè)領(lǐng)域,科研實驗室和企業(yè)領(lǐng)導機構(gòu)將成為披著‘常規(guī)’外衣的‘革命小組’?!保?3](P287)可以說,在數(shù)字化生存時代,政治權(quán)力的彌散化趨勢,是以技術(shù)理性主義為預設前提,而推崇這種技術(shù)先導性的非政治力量往往是大型的高端科技企業(yè),它們將在第四次現(xiàn)代化浪潮中處于關(guān)鍵位置。

第二,決策權(quán)的非政治轉(zhuǎn)移。伴隨著權(quán)力的去中心化,非政治類型的技術(shù)市場組織贏得了主導政治決策的權(quán)力話語。貝克從技術(shù)—經(jīng)濟的視角分析了風險社會中政治決策權(quán)的轉(zhuǎn)移問題,他認為議會是理性的意志形成的中心,決策則是議會和獨立議員的職責所在。但是,在現(xiàn)代社會中,這項功能逐漸落到議會黨團領(lǐng)導層、政黨機構(gòu)、科層制乃至非正政府組織手中。造成決策權(quán)轉(zhuǎn)移的原因可以歸結(jié)為兩個方面:“首先,議會和行政部門的決策空間遭到了技術(shù)統(tǒng)治式封鎖;其次,以法團形式組織起來的壓力集團開始嶄露頭角?!保?3](P237)在政治決策日益科學化、精細化和前瞻性的前提下,擁有人工智能技術(shù)的大型技術(shù)組織完全可以憑借自身的數(shù)據(jù)信息和數(shù)據(jù)價值,占據(jù)政治決策權(quán)的有利地位。從極端角度看,這類高新技術(shù)組織擁有的決策信息優(yōu)勢并不低于政府掌握的數(shù)據(jù),它們將逐漸成為決策的權(quán)力主體,而這種情況的到來,也意味著政府決策權(quán)的旁落。依照這種設定,政治結(jié)構(gòu)只是在執(zhí)行專業(yè)意見的推薦內(nèi)容(比如環(huán)境政策,或者大型技術(shù)設施及其部署地點的選擇方面)。[13](P237-238)與此同時,人工智能的數(shù)據(jù)獨裁“也賦予或強化了大數(shù)據(jù)權(quán)力占有者以實現(xiàn)權(quán)力目的、表達權(quán)力意志、參與權(quán)力分享的實力”[14]。

第三,形成“數(shù)據(jù)利維坦”。擁有大數(shù)據(jù)資源的優(yōu)勢組織,逐漸進入傳統(tǒng)科層制的權(quán)力結(jié)構(gòu)中央,并分享著公共事務治理的決策權(quán)。這些優(yōu)勢單元與政府組織共謀形成的前提,主要出于維護自身利益的需要,并非出于人類公共事務利益的追求,而這將導致在追求分享權(quán)力的道路中,逐漸異化為“數(shù)據(jù)利維坦”,形成技術(shù)對政治權(quán)力的反噬。一方面,大數(shù)據(jù)權(quán)力的絕緣性、抽象性、虛擬性,會導致權(quán)力運作流程中的數(shù)據(jù)風險與數(shù)據(jù)盲區(qū),這很可能給國家治理“造成社會失范和政治失序的倫理黑洞。人類本身存在的公共困境將很有可能在大數(shù)據(jù)權(quán)力的運用中被放大、激化、掩藏,進而導致數(shù)據(jù)暴力、數(shù)據(jù)恐慌和數(shù)據(jù)災害等形色各異的風險”[13](P28)。另一方面,權(quán)力指向的公共空間遭受到大數(shù)據(jù)權(quán)力的無情割裂。大數(shù)據(jù)帶來的數(shù)據(jù)垃圾和數(shù)據(jù)病毒的沖擊,消弭掉公共生活固有的價值性和正常性,同時也導致不同人群在對這種以數(shù)字形式表現(xiàn)出來的新興資源進行爭奪之時出現(xiàn)社會分裂?!皵?shù)據(jù)利維坦”也在某種意義上不斷地制造和助推著社會分裂的過程?!皵?shù)據(jù)利維坦”助推社會分裂的過程可以歸結(jié)為三個階段:第一階段是數(shù)字信息技術(shù)成為控制工具;第二階段是數(shù)字信息技術(shù)發(fā)展造成群體隔離;第三個階段是數(shù)字信息技術(shù)的發(fā)展誘導群體極化。[15]

(二)人工智能的算法失序侵蝕政治價值,致使民主政治淪為技術(shù)功利主義

人工智能算法作為一項技術(shù)早已滲入民主政治的機理,給政治價值和政治管理以革命性的變革。如果將大數(shù)據(jù)比喻為人工智能體賴以生存的流動性的“血液”,那么,算法則是決定人工智能體能否有自主的行動能力。從技術(shù)哲學的角度看,算法作為一種運算能力,根植于“客觀實體”內(nèi)部,并依據(jù)“主體”的價值偏好、有限理性對外部世界做出決策判斷。我們認為,人工智能算法失靈引致的政治風險是指基于算法運作規(guī)則的人工智能體,由于自身內(nèi)在的算法偏見、算法自利、算法黑箱等失靈問題,引發(fā)對政治正義、政治透明、政治公意等民主價值理念的沖擊、損毀乃至背棄,最終給政治系統(tǒng)的有效運行和人類社會的正常發(fā)展加蓋了一層陰影。從這個意義上,人工智能的政治風險意味著算法失靈的政治風險,預示了技術(shù)理性對人文價值的撕裂,帶來的后果將會是根本性、全局性和災難性的。

第一,算法偏見損害政治正義。首先,算法的偏見意識。算法偏見(algorithmic bias)是指在看似沒有惡意的程序設計中,卻帶著設計者或開發(fā)人員的偏見,或者采用的數(shù)據(jù)是帶有偏見的,會釀成各種社會問題。例如,Google搜尋被曲解、聊天機器人在推特(Twitter)上散布種族主義和性別歧視信息等。凱西·奧尼爾在《算法霸權(quán)》中不無憂慮地指出算法偏正的危害,并呼吁數(shù)據(jù)模型的創(chuàng)造者們、政策的制定者及執(zhí)行者們應保持對算法黑箱使用的審慎態(tài)度。其次,政治的正義分配。政治的指涉在于“為一個社會權(quán)威性地分配價值”[16](P26),而正義則是政治權(quán)威性分配社會資源的基礎性原則,標識著人類權(quán)利的捍衛(wèi)與尊重。在羅爾斯看來,“正義是社會制度的首要美德”[17](P3),“在公平正義中,該理念作為公平正義觀點的一種形式具有其核心作用”[18](P184)。最后,算法偏見對政治正義的實施。上文論及人工智能與大數(shù)據(jù)關(guān)系時,表明大數(shù)據(jù)是人工智能的前提條件,起到“源泉”功能,它是算法得以運行的支柱。但是,這些數(shù)據(jù)信息的獲取、加工與應用則依靠人類操作,而這難免內(nèi)嵌人類有意或無意的價值偏見。錯誤的前提,導致錯誤的結(jié)局。當這些有偏見的數(shù)據(jù)被算法吸納,成為運算能力發(fā)揮的前提時,算法偏見或者算法歧視顯露無遺,“在實際應用中導致了種族歧視、性別歧視、年齡歧視、階層歧視、區(qū)域歧視、仇外思想等嚴重的政治后果”[19]。

算法偏見的出現(xiàn)并非抽象之物,而是客觀實存于現(xiàn)實情境中,算法偏見已將人類鎖進非正義的囚籠之中。2015年,卡內(nèi)基梅隆大學的研究發(fā)現(xiàn),較之女性求職者,谷歌為男性求職者提供的高薪工作廣告更多。同時,谷歌使用的其他算法也內(nèi)嵌了歧視,例如谷歌的自動完成功能,將“政客”描述為“政客是騙子”“政客是腐敗”“政客是變色龍”。2016年,COMPAS的研究用計算機程序來預測二次犯罪發(fā)現(xiàn),黑人被告遠比白人被告更容易遭受到再犯風險的誤判,而白人在同等條件下則遭到再犯率更低的誤判。[1](P93-94)人工智能算法歧視的危及范圍非常廣泛,將對人類社會的公平正義產(chǎn)生根本性沖擊。算法不僅是一項技術(shù),更是一種權(quán)力優(yōu)勢。如果這種權(quán)力優(yōu)勢賴以建立的前提是非正義、有偏頗的道義倫理,那將會是人類政治文明的災難。

第二,算法黑箱遮蔽政治透明。一方面,算法黑箱的形成意味著隱層,人工智能的算法黑箱囿于算法指令的生產(chǎn)與再生產(chǎn)過程中的匿名化與模糊化。政治公開、透明是20世紀以來民主政治孜孜不倦的追求,因為透明、公開的政治過程意味著政治合法性,而算法黑箱會遮蔽政治的透明性,必然導致政治合法化危機。人工智能的算法技術(shù)人員擁有制造算法黑箱的特權(quán),而其他人只知道算法的輸入數(shù)據(jù)與輸出結(jié)果,無法知曉輸入的數(shù)據(jù)如何加工、轉(zhuǎn)換成算法結(jié)果。例如,“亞馬遜公司已經(jīng)開始在警用系統(tǒng)中應用圖像識別軟件Rekognition,但面部識別系統(tǒng)一直面臨著女性和有色人種錯誤率的問題——錯誤率可以直接轉(zhuǎn)化為更多邊緣化群體受到阻礙和逮捕。雖然一些公司已經(jīng)做出了公開的偏見測試,但亞馬遜在這個問題上并沒有分享任何數(shù)據(jù),只是強調(diào)該服務是一個簡單的對象識別工具,僅用于法律目的”[19]。如果將這種算法運用到政治決策中,就會出現(xiàn)算法程序不透明、算法決策過程不公開、算法決策理由自我解釋性差以及算法元命令主觀化等問題,這對政治透明的價值追求是致命的。另一方面,算法黑箱遮蔽政治公開的技術(shù)性。一是算法技術(shù)的客觀性。英國議會下屬的人工智能特辦委員會在題為《英國人工智能發(fā)展的計劃、能力與志向》報告中,專門論述了算法黑箱的難題與治理對策,強調(diào)算法黑箱的存在是人工智能的一項技術(shù)難題,是指由于機器學習神經(jīng)網(wǎng)絡中存在隱層,科學家無法說明機器學習的優(yōu)化結(jié)果出自哪個節(jié)點,并做出令人信服的解釋的情形,而打破黑箱實現(xiàn)政治算法的公開化有待技術(shù)更新。二是算法技術(shù)的社會性。從這個意義上看,算法黑箱的存在是人為使然。上述分析已闡述了人工智能所有者會憑借技術(shù)優(yōu)勢而占有社會的資源,而算法黑箱的出現(xiàn)正是他們牟取、壟斷社會財富的有力工具。人工智能算法黑箱的技術(shù)客觀性和社會性構(gòu)筑了算法暴力對政治透明價值的侵襲,導致政治合法性危機。

第三,算法自利撕裂政治公意。1998年,人文學者兼作家尼爾·波茲曼(Neil Postman)在丹佛的講演中,提出了人類技術(shù)變革的五大教訓,其中之一是技術(shù)內(nèi)嵌著強大的觀念。在波茲曼看來,書寫或電報等新技術(shù)的出現(xiàn),帶來的觀念變革是知識、信息的分享跨越了時空局限與口口相授。他從技術(shù)對觀念的客觀變化來描述,但是,對新技術(shù)為何產(chǎn)生以及如何變革社會觀念則沒有深刻闡釋。其實,技術(shù)的產(chǎn)生很大一部分來自于人類革新自身環(huán)境的訴求。只是這類訴求被套用了私利與公意(general will)之分。公意是人類政治確立和延續(xù)的根本原則,在盧梭看來,公意是全體公民一致決定,等同于集體的真實利益。當人類的私利處于公意的鉗制秩序下,人類社會基本上是和諧穩(wěn)定的,反之私利占據(jù)公意的空間,人類社會將走向極權(quán)主義社會。如果人工智能算法技術(shù)的所有者憑借技術(shù)優(yōu)勢,強調(diào)自身利益或代表的集團利益凌駕于人類公意之上,那么,20世紀以來人類構(gòu)建的政治公意價值觀將面臨坍塌的可能。馬克思透過資本主義的生產(chǎn)過程,預測工業(yè)革命會促使財富愈發(fā)朝向生產(chǎn)資料所有者集中。與此相類似,人工智能的高歌猛進,將會導致財富過度集中到人工智能技術(shù)的所有者手中。在這種資本與技術(shù)的合謀行徑中,高新技術(shù)經(jīng)濟類組織出于維持自身的私利,將會無情地擠占政治的公意空間,乃至出現(xiàn)踐踏、割裂、分化政治的公意價值,最終導致人類政治價值的消解。

四、結(jié)語

本文立足風險社會理論面向,建構(gòu)人工智能政治風險的內(nèi)涵與特征,并側(cè)重闡釋人工智能對政治權(quán)力和政治價值的二重挑戰(zhàn)。一方面,人工智能的數(shù)據(jù)獨裁不斷侵犯政治權(quán)力邊界,使政治結(jié)構(gòu)呈現(xiàn)了去中心化、政治決策的數(shù)據(jù)化(非政治化),以至滑入數(shù)據(jù)利維坦。另一方面,人工智能算法從內(nèi)在層面對政治的價值系統(tǒng)發(fā)動侵襲,消解了人類社會賴以生存的正義、公開與公意等政治價值。人工智能的這兩方面“勝利”,預示著人類賴以生存發(fā)展的政治基石潛在著危機?!鞍殡S人工智能、虛擬現(xiàn)實、生命科學等領(lǐng)域的突破,這些無疑都在深刻改變有關(guān)人類、社會組織和宇宙的傳統(tǒng)認知。那么,科技是否已然形成自我封閉的趨勢,產(chǎn)生脫離人類控制從而帶來反叛的風險?具有千年傳統(tǒng)的人文主義,能否已然把握具有強大算法、海量數(shù)據(jù)且擁有深度學習能力的智能機器?人文的力量能否刺破科技所構(gòu)筑的堅固藩籬,深入其內(nèi)在的運作機制,進而激發(fā)具有足夠反思、可供替代選擇的技術(shù)方案?”[10](P354)面對人工智能的技術(shù)挑釁,人類政治如何應對?這不僅是技術(shù)風險強加于人類社會的外在壓力,更關(guān)乎民主政治乃至人類社會的發(fā)展命題,亟需引起理論界與實務界的研究與關(guān)懷。

猜你喜歡
權(quán)力人工智能人類
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
不如叫《權(quán)力的兒戲》
電影(2019年6期)2019-09-02 01:42:38
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
權(quán)力的網(wǎng)絡
博客天下(2015年12期)2015-09-23 01:47:57
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
大田县| 漳州市| 沂水县| 沈丘县| 吉安县| 建宁县| 张掖市| 余干县| 祁东县| 乡宁县| 亳州市| 顺义区| 西畴县| 治县。| 岫岩| 南漳县| 宜兰市| 浮梁县| 稻城县| 广州市| 十堰市| 乐昌市| 应城市| 无锡市| 宝山区| 四川省| 分宜县| 红河县| 灌云县| 易门县| 凤山市| 浦城县| 织金县| 枣强县| 泌阳县| 揭阳市| 思茅市| 班戈县| 息烽县| 西华县| 南汇区|