唐家佳
20 世紀(jì)兩部反烏托邦名著《1984》(1949)和《美麗新世界》(1931)分別預(yù)言過(guò)未來(lái)社會(huì)。前者表示未來(lái)是一種被領(lǐng)導(dǎo)階層以權(quán)力和技術(shù)高度控制的社會(huì),同時(shí)可以接收和發(fā)送信息的“電屏”無(wú)時(shí)無(wú)刻都在監(jiān)視著人們的一舉一動(dòng)。后者則認(rèn)為恰好相反,領(lǐng)導(dǎo)層不需要?jiǎng)佑帽┝C(jī)器,而是利用意識(shí)形態(tài)國(guó)家機(jī)器營(yíng)造了一個(gè)歌舞升平的“美麗新世界”,讓被統(tǒng)治者根本不想從迷夢(mèng)中醒來(lái)。二戰(zhàn)以來(lái),西方學(xué)界認(rèn)為人類(lèi)社會(huì)的發(fā)展趨勢(shì)是從《1984》走向《美麗新世界》,但是,網(wǎng)絡(luò)時(shí)代尤其是人工智能時(shí)代的到來(lái),似乎正在倒轉(zhuǎn)這一切,屬于私有的個(gè)人信息在人工智能技術(shù)的助力下很容易遭到監(jiān)視和泄露,所謂的隱私不復(fù)存在,從而使得這世界似乎從《美麗新世界》又開(kāi)始走向《1984》。本文以此為視角,分析自工業(yè)革命以來(lái)科技的變革對(duì)人類(lèi)社會(huì)的多次重構(gòu)及伴生的影響,思考在今天的人工智能時(shí)期,技術(shù)發(fā)展所帶了的隱私風(fēng)險(xiǎn)。
學(xué)術(shù)界普遍認(rèn)為人工智能學(xué)科的誕生是在1956年達(dá)特茅斯召開(kāi)的關(guān)于人工智能的研討會(huì),在當(dāng)年會(huì)議上起草了一份建議書(shū)中首次提出人工智能(Artificial Intelligence)這個(gè)概念。進(jìn)入21世紀(jì),深度學(xué)習(xí)和大數(shù)據(jù)的廣泛應(yīng)用,人工智能進(jìn)入了第三次研發(fā)浪潮,這其中最具代表性的事件要屬2016 年谷歌研發(fā)的人工智能?chē)宄绦驊?zhàn)勝了世界排名第一的圍棋選手李世石,這場(chǎng)令人出乎意料的人機(jī)對(duì)弈的結(jié)果引發(fā)了人工智能將如何改變世界的廣泛討論,隱藏在這場(chǎng)討論之中的是對(duì)人工智能未來(lái)前景的深深憂慮。正如尤瓦爾·赫拉利所說(shuō):“以人為中心的世界觀正在走向以數(shù)據(jù)為中心的世界觀,這種轉(zhuǎn)變并不只是一場(chǎng)哲學(xué)意義上的革命,而是會(huì)真真切切地影響我們的生活”[1]。烏爾里?!へ惪藙t更加悲觀的認(rèn)為,我們的社會(huì)己經(jīng)邁入到風(fēng)險(xiǎn)社會(huì)階段,貝克將這種風(fēng)險(xiǎn)定義為“人工智能風(fēng)險(xiǎn)”,是人工智能技術(shù)發(fā)展所引發(fā)的人為的、不可預(yù)見(jiàn)的不安全性,短期的失業(yè)、隱私破壞、技術(shù)依賴(lài),中期的威脅公眾安全、加劇社會(huì)不平等,長(zhǎng)期將消解人類(lèi)主體地位[2],本文著重探討人工智能時(shí)代的隱私風(fēng)險(xiǎn)。
學(xué)術(shù)界目前主要將隱私分為信息隱私、空間隱私、自決隱私等類(lèi)型。對(duì)于前兩種隱私比較容易理解,而自覺(jué)隱私則是指?jìng)€(gè)人不受外界干擾、可自主決定其隱私生活的權(quán)利,它建立在權(quán)利人意思自由的基礎(chǔ)上。[3]目前,以上3 種隱私均已受到人工智能不同程度的侵犯,自決隱私的侵犯通常表現(xiàn)的更為隱蔽,人作為數(shù)據(jù)產(chǎn)生的所有者卻對(duì)其沒(méi)有控制權(quán),即所謂的“自決權(quán)”。
筆者認(rèn)為,在人工智能時(shí)代還有一種基于人類(lèi)個(gè)體生物信息的隱私問(wèn)題,筆者稱(chēng)之為“生物信息隱私”,生物信息就是人體以DNA 編碼的遺傳信息,通過(guò)基因主導(dǎo)的人體的面部特征、生理特征和生物行為等,這類(lèi)隱私信息目前的應(yīng)用主要在人臉圖像識(shí)別和醫(yī)療健康領(lǐng)域。在今天基于計(jì)算機(jī)視覺(jué)(Computer Vision,CV),也稱(chēng)為機(jī)器視覺(jué)(Machine Vision,MV)的人臉識(shí)別技術(shù)正在走向日常生活中的應(yīng)用場(chǎng)景(如刷臉解鎖、刷臉支付、刷臉進(jìn)站等),這些應(yīng)用通過(guò)讀取人體細(xì)微差別的生物信息進(jìn)行編碼和建立數(shù)據(jù)庫(kù),利用這項(xiàng)技術(shù)可以從眾多個(gè)體中精確的識(shí)別出某個(gè)人,如果沒(méi)有很好地保護(hù)人臉這一具有弱隱私性的生物特征,同樣會(huì)對(duì)公民的隱私甚至人生安全造成威脅。而在醫(yī)療健康領(lǐng)域,人工智能主要依靠讀取患者的身體的生物信息和病理信息,建立關(guān)于患者的病歷庫(kù)并以此綜合形成龐大的醫(yī)療數(shù)據(jù)庫(kù)以幫助解決眾多醫(yī)學(xué)問(wèn)題。目前人工智能在醫(yī)療健康領(lǐng)域的應(yīng)用已經(jīng)由包括醫(yī)療機(jī)器人、智能診療、智能影像識(shí)別等。這些技術(shù)看似會(huì)成為人類(lèi)社會(huì)發(fā)展的福音,但爭(zhēng)議仍然很大。因?yàn)閭€(gè)人偏好還可能隨著使用習(xí)慣、社會(huì)環(huán)境的改變而變化,而生物特征一旦被大數(shù)據(jù)所掌握,人類(lèi)個(gè)體的一切神秘感都將消失,實(shí)則是對(duì)隱私最赤裸的監(jiān)控。
德國(guó)著名的哲學(xué)家馬克思·韋伯曾提出理性或合理化的概念,指的是“服從于合理決斷標(biāo)準(zhǔn)的那些社會(huì)領(lǐng)域的擴(kuò)大,與此相對(duì)應(yīng)的是社會(huì)勞動(dòng)的合理化,其結(jié)果是工具活動(dòng)(勞動(dòng))的標(biāo)準(zhǔn)也滲透到生活的其他領(lǐng)域(生活方式的城市化,交通和交往的技術(shù)化)”[4],韋伯的表述意在說(shuō)明現(xiàn)代社會(huì)“合理化”的進(jìn)程是和通過(guò)意識(shí)形態(tài)將科學(xué)技術(shù)的發(fā)展納入系統(tǒng)化和規(guī)范化結(jié)合在一起的。對(duì)此,馬爾庫(kù)塞認(rèn)為,也許技術(shù)理性本身就是意識(shí)形態(tài)層面的。不僅技術(shù)理性的運(yùn)用,而且技術(shù)本身就是(對(duì)自然和人的)統(tǒng)治,就是方法的、科學(xué)的、籌劃好了的和正在籌劃著的政治。即技術(shù)的恰如其分的運(yùn)用和(在既定情況下確定目標(biāo)時(shí))諸系統(tǒng)的建立[5]。在韋伯和馬爾庫(kù)塞對(duì)理性或合理化的闡釋中,都提到了關(guān)于技術(shù)的合理化運(yùn)用和從意識(shí)形態(tài)層面考慮規(guī)范技術(shù)運(yùn)用的制度化標(biāo)準(zhǔn)。對(duì)于現(xiàn)階段人工智能行業(yè)的發(fā)展,確實(shí)制造了人類(lèi)想要的東西,并將很多想象變成了現(xiàn)實(shí),也創(chuàng)造了大量的物質(zhì)財(cái)富,但是所有科技的發(fā)展背后都存在著滿布危機(jī)的“達(dá)摩克里斯之劍”,潛藏著的棘手問(wèn)題必須予以解決,這個(gè)過(guò)程需要多方共同參與。
首先一點(diǎn)就是韋伯和馬爾庫(kù)塞談到的關(guān)于技術(shù)的合理性運(yùn)用。韋伯將對(duì)合理性的闡釋分為兩種,一種是價(jià)值合理性,一種是工具合理性。價(jià)值合理性強(qiáng)調(diào)處事動(dòng)機(jī)的合理性并且要使用合理合法的手段去達(dá)到某種目的。工具理性則強(qiáng)調(diào)一切以效果最大化為標(biāo)準(zhǔn),行為動(dòng)機(jī)趨于功利性而漠視情感和倫理。工具理性給資本主義帶來(lái)有力的影響是促進(jìn)了它的發(fā)展,但此后漸漸走向極端化,于是韋伯開(kāi)始思考價(jià)值合理性對(duì)社會(huì)的發(fā)展同樣重要。筆者認(rèn)為關(guān)于技術(shù)的合理化應(yīng)用實(shí)質(zhì)在于實(shí)現(xiàn)價(jià)值合理性和工具合理性的兩者的融合。明確任何科技發(fā)展到最后都要面臨倫理問(wèn)題的挑戰(zhàn),關(guān)于技術(shù)合理性的使用不能缺乏對(duì)“人”的人文價(jià)值層面的關(guān)懷,而這個(gè)人在技術(shù)層面已經(jīng)被視為由數(shù)字和字母編碼而成的數(shù)據(jù)。因此無(wú)論是在商業(yè)層面、技術(shù)應(yīng)用層面還是醫(yī)療健康等層面,必須要注重對(duì)關(guān)聯(lián)的隱私數(shù)據(jù)進(jìn)行合理的保護(hù),保護(hù)大眾作為隱私信息生產(chǎn)的主體權(quán)利,并且嚴(yán)格要求合理化使用,不能隨意泄露、販賣(mài)給第三方或者是用于其他不正當(dāng)用途。
對(duì)于技術(shù)開(kāi)發(fā)者而言,對(duì)在當(dāng)前的歷史時(shí)期人工智能技術(shù)的應(yīng)用、開(kāi)發(fā)和風(fēng)險(xiǎn)要有充分的掌握和了解。當(dāng)前,需要人工智能技術(shù)開(kāi)發(fā)人員去解決有關(guān)的隱私風(fēng)險(xiǎn)主要集中在兩個(gè)方面,一方面是人工智能研發(fā)過(guò)程中難以突破的技術(shù)缺陷導(dǎo)致隱私難以被把控,另一方面是人工智能產(chǎn)品本身產(chǎn)生的難以被預(yù)知的突發(fā)行為帶來(lái)的隱私泄露風(fēng)險(xiǎn)。前者有賴(lài)于開(kāi)發(fā)者們不斷進(jìn)行領(lǐng)域創(chuàng)新,沖破技術(shù)壁壘,利用技術(shù)自身去規(guī)避隱私風(fēng)險(xiǎn)。后者從實(shí)質(zhì)來(lái)看,仍然是通過(guò)人的智力被研發(fā)出來(lái)并受到研發(fā)人員主體的控制,因此研發(fā)人員在完善專(zhuān)業(yè)領(lǐng)域技術(shù)開(kāi)發(fā)的同時(shí)仍需要遵循一定的技術(shù)倫理,并為人工智能的失控行為承擔(dān)應(yīng)有責(zé)任。
人工智能技術(shù)的出現(xiàn)確實(shí)實(shí)現(xiàn)了人類(lèi)對(duì)過(guò)去世界眾多美好的想象,正在重塑和重構(gòu)我們的生活的方方面面,但不可否認(rèn)的是,同時(shí)也將世界置于更多的挑戰(zhàn)之下。面對(duì)這些問(wèn)題的困惑時(shí)我們有必要回過(guò)頭去思考“科技真正想要的是什么”。凱文·凱利在《技術(shù)想要什么》中提到關(guān)于科技的需求,科技真正追求的其實(shí)和我們?nèi)祟?lèi)的需求一樣,我們希望能夠創(chuàng)造更多更有意義的價(jià)值?!耙豁?xiàng)技術(shù)找到自己在世界上的理想角色后,會(huì)積極的為其他技術(shù)增加自主性、選擇和機(jī)會(huì),我們的任務(wù)是引導(dǎo)每一項(xiàng)新發(fā)明培育這種內(nèi)在的‘善’”[6]。因此我們?cè)谒伎既斯ぶ悄芗夹g(shù)對(duì)隱私問(wèn)題帶來(lái)的影響時(shí)有必要回到技術(shù)發(fā)展的“初心”需求,即對(duì)價(jià)值的追求。正確認(rèn)識(shí)人工智能技術(shù)的本質(zhì)追求和其對(duì)社會(huì)生活各方面帶來(lái)的影響,從技術(shù)的開(kāi)發(fā)、應(yīng)用等層面多維度協(xié)同合作,規(guī)范行業(yè)管理,如此才能在隱私問(wèn)題上找到出路,重新人們對(duì)技術(shù)的信心。