趙洲洋
技術(shù)對人們享有權(quán)利和福利產(chǎn)生了巨大且深遠(yuǎn)的影響。信息時代越來越多的技術(shù)創(chuàng)新、迭代都以數(shù)據(jù)為基礎(chǔ)。與以往的技術(shù)相比,數(shù)據(jù)與數(shù)字技術(shù)更加靈活、更易于流動,使其影響的范圍更大。以大數(shù)據(jù)、云計(jì)算等數(shù)字技術(shù)為基礎(chǔ),使機(jī)器實(shí)現(xiàn)感知、認(rèn)知、決策、行動等智能行為的人工智能,更是引領(lǐng)了新一輪科技革命和產(chǎn)業(yè)變革,增強(qiáng)了人類自我改造能力,豐富了社會治理的實(shí)踐方式,營造了空前透明的社會環(huán)境,推動人類社會迎來人機(jī)協(xié)同、跨界整合、共創(chuàng)分享的智能時代,(1)《習(xí)近平向國際人工智能與教育大會致賀信》,《人民日報》2019 年5 月17 日,第1 版。助推了民眾權(quán)益的擴(kuò)展、深化與享有的便捷。中國順應(yīng)時代地提出,推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合,建設(shè)智慧社會。(2)習(xí)近平:《不斷做強(qiáng)做優(yōu)做大我國數(shù)字經(jīng)濟(jì)》,《求是》2021 年第2 期。智慧社會是高度網(wǎng)絡(luò)化、數(shù)字化和智能化的社會,其基本特征是在數(shù)字化基礎(chǔ)上實(shí)現(xiàn)萬物感知,在網(wǎng)絡(luò)化基礎(chǔ)上實(shí)現(xiàn)萬物互聯(lián),在智能化基礎(chǔ)上使社會更智慧,(3)汪玉凱:《智慧社會與國家治理現(xiàn)代化》,《中共天津市委黨校學(xué)報》2018 年第2 期。它是面向生活過程與社會細(xì)節(jié)的治理和服務(wù)模式的發(fā)展愿景,也將改變?nèi)藗兊纳鐣B接方式,重組生產(chǎn)組織方式,重塑生活方式。(4)王天夫:《數(shù)字時代的社會變遷與社會研究》,《中國社會科學(xué)》2021 年第12 期。
面對智慧社會帶來的變革且作為智慧社會建設(shè)的重要方面,黨的十九屆中央歷次全會提出“建立健全運(yùn)用互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段進(jìn)行行政管理的制度規(guī)則”,“以數(shù)字化轉(zhuǎn)型整體驅(qū)動治理方式變革”,“科技支撐的社會治理體系”與“信息化支撐的社會管理服務(wù)平臺”等要求,要求將大數(shù)據(jù)、云計(jì)算、人工智能等前沿智能技術(shù)運(yùn)用于社會治理場景。(5)劉燦華:《社會治理智能化:實(shí)踐創(chuàng)新與路徑優(yōu)化》,《電子政務(wù)》2021 年第3 期。對此,各地近年來紛紛出臺各類舉措,釋放創(chuàng)新潛力,為利用數(shù)字技術(shù)進(jìn)行智能社會治理與服務(wù)建設(shè)進(jìn)行了有益的探索。越來越多的治理主體加入智能社會治理中來,基本形成“政府+公民+企業(yè)+組織+科研機(jī)構(gòu)”的多元治理模式。(6)曲甜、張小勁:《大數(shù)據(jù)社會治理創(chuàng)新的國外經(jīng)驗(yàn):前沿趨勢、模式優(yōu)化與困境挑戰(zhàn)》,《電子政務(wù)》2020 年第1 期。在就業(yè)、教育、衛(wèi)生、養(yǎng)老、社會保障與救助以及司法等社會治理與服務(wù)領(lǐng)域,通過判別服務(wù)對象、登記服務(wù)信息、預(yù)測可能的風(fēng)險與服務(wù)內(nèi)容等數(shù)字技術(shù),公、私治理主體已經(jīng)將云儲存、算法決策、人工智能與數(shù)字識別等數(shù)字技術(shù)應(yīng)用于社會治理與服務(wù)。(7)林榮全:《數(shù)字化時代街頭官僚的責(zé)任性:分析框架與研究展望》,《電子政務(wù)》2021 年第10 期。以數(shù)字技術(shù)為支撐的智慧社會治理與服務(wù)具有明顯的高效性、(8)賈開:《人工智能與算法治理研究》,《中國行政管理》2019 年第1 期。預(yù)測性(9)高琦奇、張鵬:《從算法民粹到算法民主:數(shù)字時代下民主政治的平衡》,《華中科技大學(xué)學(xué)報(社會科學(xué)版)》2021 年第4 期。和混合性(10)韓志明、劉華云:《計(jì)算、算法和算力:基于信息的國家計(jì)算邏輯》,《探索與爭鳴》2021 年第3 期。,增強(qiáng)了社會治理的整體性、回應(yīng)性、開放性和合作性。(11)王振興等:《大數(shù)據(jù)背景下社會治理現(xiàn)代化:解讀、困境與路徑》,《電子政務(wù)》2019 年第4 期。但同時它也具有不透明性和部分自主性。為了應(yīng)對人工智能(AI)、間諜軟件和數(shù)字化國家等數(shù)字技術(shù)的影響,有研究者批判性地指出,如果不能從根本上改變對技術(shù)和私人行為的理解進(jìn)路,就難以確保新技術(shù)的開發(fā)和運(yùn)用會尊重和促進(jìn)民眾的根本利益。那么在以數(shù)字化技術(shù)為支撐的社會治理中,是否存在數(shù)字技術(shù)難以突破的關(guān)于權(quán)益保障的結(jié)構(gòu)性困境?數(shù)字技術(shù)的發(fā)展又為什么難以緩解甚至加劇一些結(jié)構(gòu)性矛盾?與此同時,將數(shù)字技術(shù)應(yīng)用于社會治理與服務(wù)又對民眾的權(quán)益和問責(zé)體系帶來了什么新的挑戰(zhàn)?又應(yīng)該如何解決這些結(jié)構(gòu)性困境與新興挑戰(zhàn)?中國和歐美國家?guī)缀跬瑫r開啟智慧社會治理與服務(wù),考察國外經(jīng)驗(yàn),對于理解智慧社會治理中民眾權(quán)益保障的問題具有重要意義。
為此,文章將以既有研究為基礎(chǔ),首先挖掘數(shù)字技術(shù)應(yīng)用于社會治理與服務(wù)所形成的智能社會治理與服務(wù)依舊難以突破的結(jié)構(gòu)性困境,以及其形成的機(jī)制,著重探討數(shù)字技術(shù)自身特性及其對公共權(quán)力、問責(zé)機(jī)制以及社會治理與服務(wù)中私人權(quán)力的影響。其次,探究數(shù)字技術(shù)應(yīng)用于社會治理與服務(wù)所引發(fā)的對民眾權(quán)益和責(zé)任體系所帶來的新挑戰(zhàn)。需要注意的是,社會治理本身內(nèi)含多主體性,以及數(shù)字技術(shù)的賦權(quán),令高科技企業(yè)提供的數(shù)據(jù)和相關(guān)服務(wù)具有公共性,成為具有部分公共權(quán)力的主體,其運(yùn)作過程也在行使公共權(quán)力,可能對民眾的權(quán)益和國家問責(zé)體系造成影響。例如國家或企業(yè)未經(jīng)授權(quán)即使用新技術(shù)形成的工具來監(jiān)視甚至威嚇民眾,這不僅對民眾的福利構(gòu)成風(fēng)險,還會更根本地撼動傳統(tǒng)的責(zé)任體系,模糊并削弱了損害權(quán)利行為的責(zé)任,進(jìn)而導(dǎo)致不平等。最后,由于人工智能的認(rèn)知、決策、行動能力強(qiáng)大,將從價值、技術(shù)和制度幾個層面嘗試提出,在實(shí)踐中應(yīng)對這些挑戰(zhàn)有效的方式。
和歷史上的技術(shù)進(jìn)步一樣,數(shù)字技術(shù)的發(fā)展也影響著涉及民眾權(quán)利和大眾福利的法律制度和社會實(shí)踐,但數(shù)字技術(shù)應(yīng)用于社會治理也存在一些難以突破的困境,甚至加深了一些結(jié)構(gòu)性矛盾。首先,數(shù)字技術(shù)本身深深嵌入原有社會的權(quán)力關(guān)系之中;其次,它可能阻礙和破壞傳統(tǒng)的問責(zé)與追責(zé)機(jī)制;第三,由于數(shù)字技術(shù)的尖端性,使得傳統(tǒng)上不受法律和制度約束的私人行為者,擁有越來越多、越來越大的公共責(zé)任和權(quán)力。這三者是數(shù)字時代智能社會治理與服務(wù)在結(jié)構(gòu)上對民眾權(quán)益的侵害。
數(shù)字技術(shù)所支撐的智能社會治理與服務(wù)并未能突破傳統(tǒng)的權(quán)力結(jié)構(gòu),甚至數(shù)字技術(shù)被質(zhì)疑為一場由精英主導(dǎo)的游戲。(12)尤班克斯:《自動不平等》,李明倩譯,北京:商務(wù)印書館2021 年版,第2 頁。技術(shù)通常被視為分散和破壞穩(wěn)定權(quán)力關(guān)系的手段,如蘭德(Land)等人就認(rèn)為技術(shù)為民眾更廣泛、更真實(shí)地提出訴求和保護(hù)民眾權(quán)益提供了機(jī)會。(13)Land M.K., “Participatory Fact-finding: Developing New Approaches to Human Rights Investigation through New Technologies”, in Alston, P., Knuckey, S., eds.,The Future of Human Rights Fact-Finding, Oxford, UK: Oxford University Press, 2015, pp. 399—424.盡管調(diào)查技術(shù)的發(fā)展可以關(guān)鍵性地推動問責(zé)運(yùn)作,(14)Dubberley S., Koenig A., Murray D., “Introduction: the Emergence of Digital Witnesses”, in Dubberley S., Koenig A., Murray D.,eds.,Digital Witness:Using Open Source Information for Human Rights Investigation,Documentation,and Accountability, Oxford, UK: Oxford University Press, 2020, pp. 1—11.但從整體上來看,“技術(shù)能夠增強(qiáng)民眾權(quán)益與社會福利”的假設(shè)并未在實(shí)踐上被證實(shí)。圖費(fèi)克奇(Tufekci)對“阿拉伯之春”和“占領(lǐng)華爾街”運(yùn)動中社交媒體所發(fā)揮的作用進(jìn)行了研究,他發(fā)現(xiàn),盡管技術(shù)推動社會運(yùn)動以驚人的速度發(fā)展,但速度也限制了其發(fā)展成熟的能力,而這種能力是使社會運(yùn)動能夠擁有長期權(quán)威和效力的關(guān)鍵。(15)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, New Haven, CT: Yale University Press, 2017, pp.3—27.正如占領(lǐng)華爾街和“黃馬甲”等運(yùn)動所表明的那樣,技術(shù)確實(shí)在許多方面有助于普通民眾提出訴求,但倡導(dǎo)關(guān)于民眾權(quán)益的長期變革依舊十分重要。
針對科學(xué)和技術(shù)作用的研究認(rèn)為“傳統(tǒng)的科學(xué)和創(chuàng)新政策會增加不平等,除非它們是專門為增進(jìn)平等而設(shè)計(jì)的”。(16)Cozzens S, Thakur D., “Problems and Concepts”, In Cozzens S., Thaku Cheltenham D., eds.,Innovation and Inequality:Emerging Technologies in an Unequal World, Cheltenhom, UK: Edward Elgar Publishing, 2014, pp. 3—22.這源于設(shè)計(jì)、開發(fā)、運(yùn)營技術(shù)具有一定壟斷性,從而使其設(shè)計(jì)者、開發(fā)者與運(yùn)營者擁有特權(quán)。市場激勵為導(dǎo)向的創(chuàng)新系統(tǒng)與模式,無論是知識產(chǎn)權(quán)系統(tǒng),(17)Kapczynski A., “The Cost of Price: Why and How to Get beyond Intellectual Property Internalism”,UCLA Law Review,Vol.59, 2012, pp.970—1026.還是西方社交媒體生態(tài),(18)Zuboff S.,The Age of Surveillance Capitalism:The Fight for a Human Future at the New Frontier of Power, NY: Public Affairs, 2019.在結(jié)構(gòu)上都傾向于滿足那些本已富?;蛴袡?quán)勢群體的需求。正如比拉內(nèi)(Birhane) 所說,“技術(shù)從來都不是中立的或客觀的——它就像一面鏡子,反映了社會偏見、不公平和不公正”。(19)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019 Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.蘭德等人詳細(xì)說明了權(quán)力不平衡嵌入技術(shù)系統(tǒng)的幾種方式,從基于假設(shè)的家庭人口數(shù)量來安裝的供水系統(tǒng),到對于新的氣候適應(yīng)技術(shù)或數(shù)據(jù)分析工具的需求與負(fù)擔(dān)能力不匹配,再到數(shù)據(jù)挖掘、政策算法和預(yù)測風(fēng)險模型各個環(huán)節(jié),數(shù)字技術(shù)的運(yùn)用最終不可避免地會復(fù)制并進(jìn)一步加深現(xiàn)有的不平等和權(quán)力失衡。
除延續(xù)不平等的權(quán)力框架外,技術(shù)還影響了追究侵犯民眾權(quán)利與大眾福利行為責(zé)任的能力。除用途好壞之別外,在許多情況下,技術(shù)可能幫助隱匿信息,并進(jìn)一步導(dǎo)致責(zé)任追溯困境。應(yīng)用數(shù)字技術(shù)還會模糊和分裂權(quán)威,從而使傳統(tǒng)的促進(jìn)問責(zé)的機(jī)制失效。
技術(shù)使得辨別違規(guī)者的身份更加困難,所以追責(zé)變得更加復(fù)雜與困難。即使涉及到價值判斷,公私治理主體也積極推動自動化決策,而技術(shù)所支撐的自動化決策使違規(guī)行為變得更加隱蔽,令原本必定被視為損害的行為變得自然而然。例如,預(yù)付費(fèi)式水表要求先預(yù)付水費(fèi)再供水,若未付款則會被斷水,然而在實(shí)踐中,預(yù)付費(fèi)和直接斷水兩種供水系統(tǒng)的處理方式截然不同,后者有法律保護(hù),防止被錯誤剝奪,而前者卻缺乏此類保護(hù)。
此外,決策自動化弱化了對侵權(quán)行為的追責(zé),也會破壞羞恥、社會化等機(jī)制,這些機(jī)制是維護(hù)民眾權(quán)利和大眾福利所依賴的。因數(shù)字技術(shù)的去時間性和去地域性,運(yùn)行某項(xiàng)技術(shù)的人員可能并不會對由此產(chǎn)生的任何違規(guī)行為承擔(dān)責(zé)任,因?yàn)樗麄儽旧聿⑽粗苯釉斐蓚?。例如市政機(jī)構(gòu)的工作人員可以決定安裝可能在未來某一時刻斷水的水表,但民眾對他們施加壓力很困難,因此當(dāng)發(fā)生斷水時,并沒有人會以此為憾事。(20)Roth K., “Defending Economic, Social and Ultural Rights: Practical Issues Faced by an International Human Rights Organization”,Human Rights Quarterly, Vol.26, No.1, 2004, pp.63—73.
在新的數(shù)字技術(shù)的創(chuàng)新、開發(fā)和推廣中,私營機(jī)構(gòu)起到了重要作用,這些企業(yè)是非常強(qiáng)大的信息和交流把關(guān)人,他們控制普通民眾的表達(dá)活動、用戶之間的聯(lián)系以及民眾獲取信息的途徑。(21)Gillespie T.,Custodians of the Internet:Platforms,Content Moderation,and the Hidden Decisions that Shape Social Media, New Haven, CT: Yale University Press, 2018.這就使得在數(shù)字技術(shù)時代,私人機(jī)構(gòu),特別是高科技企業(yè)在基礎(chǔ)設(shè)施和社會治理與服務(wù)中占據(jù)了重要的地位,它們也因技術(shù)壟斷了大量的公共權(quán)力。
針對私營公司掌握公共權(quán)力、提供公共服務(wù)這一新情況,各國政府的態(tài)度并不一致。在許多領(lǐng)域,美國政府越來越多地授權(quán)這些私營公司,使它們成為治理和監(jiān)管的代理人。(22)Bloch-Wehba H., “Global Platform Governance: Private Power in the Shadow of the State”,SMU Law Review, Vol.72, 2019, pp.27—80; Langvardt K., “Regulating Online Content Moderation”,Georgetown Law Journal, Vol.106, 2018, pp.1353—1388.特別是,政府將線上表達(dá)活動的監(jiān)管權(quán)下放給私營公司,(23)Land M.K., “Against Privatized Censorship: Proposals for Responsible Delegation”,Journal of International Law, Vol. 60, 2020, pp.363—432.它們因此有權(quán)決定是否公開那些被上傳到私營平臺的侵犯他人權(quán)益的證據(jù)。私營公司還研發(fā)和銷售既能實(shí)施又能阻止監(jiān)視的技術(shù),配合或拒絕政府監(jiān)視某些個人的要求,并創(chuàng)建可能決定人們生死的算法和武器系統(tǒng)。這些決定通常是出于商業(yè)利益,而不是基于對公共利益或權(quán)益保障的關(guān)切才做出的。(24)J?rgensen R.F., “Human Rights and Private Actors”, in Land & Aronson eds.,New Technologies for Human Rights Law and Pactice, Cambridge, UK: Cambridge Universh, Press, 2018, pp. 243—69.盡管如此,目前處理商業(yè)組織侵害權(quán)益的框架,仍舊建立在國家行使的公共權(quán)力與公司行使的私人權(quán)力的劃分基礎(chǔ)上,(25)Callamard A., “The Human Rights Obligations of Non-state Actors”, in R.F. J?rgensen, ed.,Human Rights in the Age of Platforms,Cambridge, MA: MIT Press, 2019, pp. 191—226.兩者涇渭分明,其中公共權(quán)力需遵守尊重和保護(hù)權(quán)利的約束性義務(wù),而私人權(quán)力是個體權(quán)利,不僅不必遵守約束性義務(wù),而且還需被尊重和保護(hù)。因此,目前美國等國家對于個人權(quán)益保護(hù)的相關(guān)法律規(guī)定,并不適用于這種劃分,且無法有效彌合兩者的區(qū)分。
治理理論指明了公共權(quán)力和私人權(quán)力不可逆地交織在一起的狀況和前景,應(yīng)該用什么樣的框架來分析兩者深度交融的狀況呢?公共機(jī)構(gòu)為私有技術(shù)提供資金、銷售渠道并建立了創(chuàng)新系統(tǒng),(26)福斯特、麥克切斯尼:《監(jiān)控式資本主義:壟斷金融資本、軍工復(fù)合體和數(shù)字時代》,《國外社會科學(xué)》2015 年第1 期。當(dāng)國家要求非國家行為者規(guī)范用戶的言論時,公司是否僅需負(fù)尊重言論自由的道德責(zé)任?當(dāng)公司設(shè)計(jì)并建立的人工智能系統(tǒng),在言論監(jiān)管背景下復(fù)制種族或性別偏見時,能否要求公司對其造成的權(quán)益損害負(fù)責(zé)?政府用私人公司設(shè)計(jì)建立的系統(tǒng)設(shè)置就業(yè)條件與社保繳費(fèi)率,一旦造成了危害應(yīng)由誰來負(fù)責(zé)?所謂公共事務(wù)和私人事務(wù)之間的區(qū)別已經(jīng)過時了,過分關(guān)注它,還影響我們對更為重要的責(zé)任體系與權(quán)益救濟(jì)的關(guān)注。
除了智能社會治理與服務(wù)面臨的三項(xiàng)結(jié)構(gòu)性障礙外,數(shù)字技術(shù)應(yīng)用于社會治理與服務(wù)時還引發(fā)了一些新的挑戰(zhàn)。近期數(shù)字技術(shù)對權(quán)益保護(hù)造成的挑戰(zhàn),包括政府進(jìn)行的信息監(jiān)視與騷擾對公民隱私權(quán)利的破壞、算法自動化決策和深度造假背景下人工智能與社會不平等的再生產(chǎn),以及數(shù)字國家興起造成的新的責(zé)任困境。
時至今日,技術(shù)作為國家權(quán)力潛在破壞者的時代早已過去,它更多地被用以加強(qiáng)和鞏固國家權(quán)力。手機(jī)和社交媒體等技術(shù)在很大程度上已被國家利用,(27)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, pp.373—392.政府和與為國家及資本服務(wù)的私人行動者,使用異常強(qiáng)大的間諜軟件和其他新工具來控制和管理信息空間,從而限制為爭取社會權(quán)益與福利而活動的社會人士。這些工具可分為侵?jǐn)_工具和監(jiān)視工具。米吉多(Megiddo)就認(rèn)為,政府的監(jiān)視和虛假信息,會極大地威脅和破壞民眾權(quán)益和法治,(28)Megiddo T. Online Activism, “Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law,Vol. 58, 2020, pp.394—442.這些“數(shù)字控制措施”的危害已不僅僅侵犯了個人隱私,還對自由和法治造成了重大危害,因此應(yīng)該被概念化為“一套構(gòu)成政府壓迫威脅的控制措施”。
1.侵?jǐn)_。西方國家的精英越來越多地使用社交媒體等工具來攻擊和削弱威脅者。正如美國律師協(xié)會人權(quán)中心的一份報告中所顯示,政府和與政府關(guān)系密切的一些行動者正通過社交媒體平臺騷擾和恐嚇為民眾權(quán)益保護(hù)而活動的人士。(29)Abbas M., Al-Wohaibi E., Donovan J., Hale E, Marugg T., et al.,Invisible Threats:Mitigating the Risk of Violence from Online Hate Speech Against Human Rights Defenders, Chicago: American Bar Association, 2019.其造成的寒蟬效應(yīng),不僅對活動者個人產(chǎn)生作用,而且還會削弱公眾對他們活動的支持。政府及相關(guān)方積極通過惡搞或造謠,或通過威脅公民和活動人士的切身利益,以詆毀他們表達(dá)的內(nèi)容。事實(shí)上,社交媒體的強(qiáng)大力量正在為政府所用,以對抗和控制為民眾權(quán)利和社會福利而活動的人士,政府利用了網(wǎng)絡(luò)分布式架構(gòu)和低把關(guān)的組織方式,來詆毀和混淆對立的信息來源。(30)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, pp.223—236變革成功與否的前提是倡議者傳達(dá)可靠信息的能力,但在充斥假新聞和巨魔農(nóng)場的環(huán)境中,即使那些有資源查證信息來源的人也很難知道該相信什么。
因此,盡管許多學(xué)者和活動人士認(rèn)為海量的信息源會使審查更加困難,從而間接有利于民眾表達(dá)訴求和政府提升回應(yīng)性。但各國政府則改變審查和應(yīng)對的策略,政府意識到它們不必阻止言論,而只需詆毀它即可。(31)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, pp.263—268.它們也不需要特別準(zhǔn)確地表達(dá)它們所懷疑的信息,相反,要破壞公眾動員,只需抹黑所有的信息來源,當(dāng)人們不知道該相信什么的時候,就什么也不會相信、什么也不會做。宣傳正在削弱真相的意義,從而破壞基于事實(shí)進(jìn)行組織的能力。政府為削弱異議、限制民間社會組織的空間甚至在某些情況下煽動暴力,而傳播的虛假信息和錯誤信息威力巨大,在技術(shù)和社交媒體素養(yǎng)水平低且缺乏強(qiáng)大獨(dú)立媒體的環(huán)境中更是如此。(32)Kelly S, Truong M, Shahbaz A, Earp M, White J.,Freedom on the Net 2017:Manipulating Social Media to Undermine Democracy,Washingtom, DC: Freedom House, 2017.
人工智能系統(tǒng)自動生成的虛假音頻或視頻,越來越成為虛假信息的來源,利用舊視頻合成沒有現(xiàn)實(shí)依據(jù)的全新內(nèi)容。這種深度造假對個人和社會造成了一系列危害,(33)Chesney B, Citron D., “Deep Fakes: a Looming Challenge for Privacy, Democracy, and National Security”,California Law Review, Vol.107, 2019, pp.1753—1819.格里高利(Gregory) 認(rèn)為“這些精心制造的假信息可能會被用來進(jìn)行可信度攻擊、混淆調(diào)查,并煽動針對社會活動人士的暴力行為”。(34)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, p.380.他建議,平臺與搜索引擎有責(zé)任設(shè)計(jì)和監(jiān)督生成式人工智能系統(tǒng)(AI)上述功能。他堅(jiān)持認(rèn)為,公司需要在產(chǎn)品設(shè)計(jì)之初就考慮人工智能等技術(shù)的潛在危害,而不僅僅是對已發(fā)布產(chǎn)品所造成的危害做出反應(yīng)。政府也有責(zé)任確立一個有效的制度框架來防范潛在危害。(35)Koenig A., “Half the Truth is Often a Great Lie: Deep Fakes, Open Source Information, and International Criminal Law”,AJIL Unbound, Vol.113, 2019, pp.250—255.
虛假信息不僅對維權(quán)活動人士個人構(gòu)成威脅,而且往往蓄意破壞他們追究損害權(quán)益行為的努力。因此,通過數(shù)字技術(shù)工具進(jìn)行的信息侵?jǐn)_旨在限制賦權(quán)權(quán)利(empowerment rights),(36)Cope K.L, Crabtree C., Lupu Y., “Beyond Physical Integrity”,Law Contemporary Problem, Vol.81, No.4, 2018, pp.186—188.即既懲戒行使這些權(quán)利的具體行為,也可以更普遍地用于“阻止挑戰(zhàn)國家權(quán)威的組織和動員意圖”??破?Cope)等指出,“信息和通信技術(shù)的進(jìn)步已經(jīng)并可能繼續(xù)降低政府實(shí)施大規(guī)模預(yù)防性鎮(zhèn)壓的成本”。(37)Cope K.L, Crabtree C., Lupu Y., “Beyond Physical Integrity”,Law Contemporary Problem, Vol.81, No.4, 2018, pp.189.因此,以數(shù)字技術(shù)為基礎(chǔ)的新型侵?jǐn)_工具使得追究國家責(zé)任比以往都更加困難。
2.監(jiān)視。西方各國還在使用監(jiān)視工具來維持和鞏固權(quán)力。一些國家政府就在使用由以色列NSO集團(tuán)公司生產(chǎn)的Pegasus 間諜軟件,來監(jiān)視和攻擊一些維權(quán)人士。一旦被安裝到手機(jī)上,Pegasus 軟件可以自動提取設(shè)備上所有數(shù)據(jù),如短信、聯(lián)系人、GPS 位置、電子郵件和瀏覽器的歷史記錄。它還可以通過使用手機(jī)麥克風(fēng)和攝像頭來記錄用戶周圍的環(huán)境,從而創(chuàng)建新的數(shù)據(jù)。(38)Hopkins N., “WhatsApp Spyware Attack was Attempt to Hack Human Rights Data, Says Lawyer”,Guardian, 2019-05-14.如生物識別數(shù)據(jù)、禁止在線加密和匿名、公共場所的面部識別等技術(shù)也被用以監(jiān)視人群,(39)Megiddo T., “Online Activism, Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law, Vol.58, 2020, pp.405—406.即使是普通的手機(jī)也會產(chǎn)生大量數(shù)據(jù),可用于識別個人的位置和行動軌跡。(40)Thompson SA, Warzel C., “Twelve Million Phones, One Dataset, Zero Privacy”,New York Times, 2019-12-10.通過技術(shù)制造商和平臺所有者收集的海量的各種數(shù)據(jù),使精準(zhǔn)跟蹤個人的身體活動、運(yùn)動、交流和消費(fèi)信息成為可能。(41)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal Human Rights Practice, Vol.11, No.2, 2019, p.380.人工智能、云計(jì)算等技術(shù)手段和缺乏保護(hù)精確隱私的法律框架,使這種監(jiān)控幾乎能夠在所有公私空間中實(shí)時進(jìn)行。許多國家為了進(jìn)一步推進(jìn)這種監(jiān)視活動,還限制民眾使用加密技術(shù)、禁止可能掩蓋互聯(lián)網(wǎng)用戶身份和位置的VPN(虛擬專用網(wǎng)絡(luò)),并威脅對記錄侵權(quán)行為的人施以人身暴力。(42)Kelly S., Truong M., Shahbaz A., Earp M., White J.,Freedom on the Net 2017:Manipulating Social Media to undermine Democracy, Doc., Freedom House, 2017, https://freedomhouse.org/report/freedom-net/2017/manipulating-social-media-undermine-democracy, 2021-10-18.正如威茲曼(Weizman)所描述的,如內(nèi)置攝像功能的手機(jī)等最初被認(rèn)為能夠監(jiān)督國家的工具,經(jīng)由政府及相關(guān)技術(shù)公司的“改造”,已被西方國家“武器化”。(43)Weizman E.,Forensic Architecture:Violence at the Threshold of Detectability, Brooklyn, NY: Zone Books, 2017.
面對突如其來的新冠肺炎疫情,為了更加有效控制疫情而建立的公共衛(wèi)生追蹤機(jī)制,可能也會導(dǎo)致更具侵入性的監(jiān)視,尤其是由不符合隱私保護(hù)標(biāo)準(zhǔn)的私人機(jī)構(gòu)進(jìn)行的監(jiān)視。(44)Kaye D.,Disease Pandemics and the Freedom of Opinion and Expression,Report of the Special Rapporteur on the Promotionand Protection of the Right to Freedom of Opinion and Expression, UN Human Rights Council, A/HRC/44/49, 2020-04-23.各國普遍使用智能手機(jī)追蹤病毒傳播軌跡,監(jiān)控人們是否遵守居家隔離指令。這些軟件搜集用戶的歷史位置等個人信息,在第三方服務(wù)器上儲存這些信息,有些商家還在軟件中嵌入了秘密搜集用戶信息的“后門”。澳大利亞的“新冠肺炎安全”軟件使用藍(lán)牙科技,可以自動在用戶手機(jī)上啟動位置定位。該軟件將海量數(shù)據(jù)儲存在美國亞馬遜公司的云存儲器中,需遵守美國《澄清境外數(shù)據(jù)合法使用法》,美國執(zhí)法機(jī)構(gòu)可利用該法案調(diào)用存儲在境外互聯(lián)網(wǎng)上的數(shù)據(jù)。(45)高望來:《人工智能與后疫情時代的數(shù)字治理》,《當(dāng)代世界與社會主義》2021 年第6 期。許多人擔(dān)心,如果緊急措施正常化,或政府利用危機(jī)來制定原本不可接受的措施,抑或如果公民更傾向于接受對其權(quán)利的限制,為應(yīng)對特殊危機(jī)狀態(tài)而采取的措施,就可能會被固定為日常性措施。(46)Nay O., “Comment: Can a Virus Undermine Human Rights”,Lancet, No.5, 2020, pp.238—39.
侵?jǐn)_和監(jiān)視都涉及深度交融的公共和私人行動,例如,在線的宣傳通常通過網(wǎng)絡(luò)中心或巨魔農(nóng)場等私人公司的系統(tǒng)來進(jìn)行,(47)Abbas M., Al-Wohaibi E., Donovan J., Hale E., Marugg T., et al.,Invisible Threats:Mitigating the Risk of Violence from Online Hate Speech against Human Rights Defenders, Chicago: American Bar Association, 2019.諸如Pegasus 之類的間諜軟件是由私人公司創(chuàng)建和銷售的,卻被公共權(quán)力用以進(jìn)行監(jiān)視活動。鑒于監(jiān)視的危害,聯(lián)合國特別報告員呼吁“除非科技公司提供令人信服的證據(jù),證明自己在盡職調(diào)查、透明度和責(zé)任等方面已采取足夠的措施……來防止或減輕使用這些技術(shù)侵犯民眾權(quán)益”,(48)Kaye D.,Surveillance and Human Rights,Report of the Special Rapporteur on the Promotion and Protection of the Rightto Freedom of Opinion and Expression, UN Human Rights Council, A/HRC/41/35, 2019-05-28.科技公司應(yīng)停止生產(chǎn)和銷售監(jiān)視技術(shù)。因此,數(shù)字化時代的公共與私人的關(guān)系,正如米吉多所說,“外包數(shù)字壓迫揭示了私人和公共權(quán)力的結(jié)合,這與以往的政府和私人商業(yè)行為者之間的關(guān)系不同”。(49)Megiddo T., “Online Activism, Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law, Vol.58, 2020, p.402.
在過去幾年中,人們越來越關(guān)注基于算法的決策對民眾權(quán)益和大眾福利的影響。(50)吳進(jìn)進(jìn)、符陽:《算法決策:人工智能驅(qū)動的公共決策及其風(fēng)險》,《開放時代》2021 年第5 期。人工智能研究院(AI Now Institute)將自動決策系統(tǒng)定義為“數(shù)據(jù)驅(qū)動的將原由人實(shí)行的程序、實(shí)踐或政策得以自動化的技術(shù),可以用于預(yù)測、識別、監(jiān)督、檢測和針對個人或社區(qū)等目的”。這些技術(shù)被廣泛應(yīng)用于各種場景,包括“分配有限的政府資源(如公共福利或衛(wèi)生服務(wù));預(yù)見并可能預(yù)防特定風(fēng)險;消除或限制決策中的自由裁量權(quán);并提供人本身無法進(jìn)行的大規(guī)模和大范圍分析”。(51)Richardson R., Cahn A., Kak A., Diaz A., Samant A., et al.,Confronting Black Boxes:a Shadow Report of the New York City Automated Decision System Task Force. Rep., AI Now Institution., https://ainowinstitute.org/ads-shadowreport-2019.pdf., 2021-11-28.
許多公司、計(jì)算科學(xué)家和決策科學(xué)家都對自動化決策系統(tǒng)大加推崇,可以通過大數(shù)據(jù)驅(qū)動的議程設(shè)置信息化、備擇方案討論全民化、決策執(zhí)行自動化、決策評估實(shí)時化、全過程跨領(lǐng)域綜合集成化等公共決策創(chuàng)新,(52)陳一凡、胡象明:《大數(shù)據(jù)驅(qū)動型的公共決策過程創(chuàng)新及效果評估——基于SSCI 和SCI 的文獻(xiàn)研究》,《電子政務(wù)》2019 年 第8 期。消除社會和政治議題中的人為偏見。(53)Miller A.P., “Want Less-biased Decisions? Use Algorithms”,Harvard Business Review, 2018-07-26.相較于人類,這些系統(tǒng)處理數(shù)據(jù)的能力更強(qiáng)、規(guī)模更大、速度更快,人類不得不依賴文化啟發(fā)法來克服信息鴻溝,但理論上人工智能系統(tǒng)不會受到這種障礙的影響。此類系統(tǒng)已被用于幫助警方預(yù)測犯罪熱點(diǎn)、調(diào)節(jié)交通、確定犯罪嫌疑人的社會風(fēng)險、探查某人是否參與金融欺詐或貸款額度、判斷工作匹配度、選擇要在線上向用戶展示的廣告、判別特定社交媒體帖子是否違反了平臺標(biāo)準(zhǔn)或當(dāng)?shù)胤桑⒃诜珊桶踩h(huán)境中創(chuàng)建面部和生物識別系統(tǒng)。
然而,研究者和人工智能批評者已經(jīng)證明,這些所謂的中立或客觀的人工智能系統(tǒng)復(fù)制了它們所運(yùn)用數(shù)據(jù)中固有的偏見,或者將特定的思維方式轉(zhuǎn)化為代碼。正如奧尼爾(O’Neil)所說,算法是嵌入在代碼中的觀點(diǎn),不同于人們將算法視為是客觀、真實(shí)、科學(xué)的。另外,因?yàn)樾湃魏秃ε聰?shù)字,而用算法來恐嚇用戶,讓用戶信任和恐懼算法,這也是一種營銷技巧。但當(dāng)我們盲目相信大數(shù)據(jù)時,很多事情都會出錯。(54)O’Neil C., The Era of Blind Faith in Big Data Must End., TED2017, April, 2017,Vancouver, Canada, https://www.ted.com/talks/cathy_o_neil_the_era_of _blind_faith_in_big_data_must_end, 2019-04-23.
人工智能在就業(yè)信息、就業(yè)保障和公共衛(wèi)生方面的應(yīng)用,(55)Richardson R., Schultz J.M., Crawford K., “Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice”,N.Y. University Law Review, Vol.94, 2019, pp.192—233.以及其在司法系統(tǒng)保釋、審判、警務(wù)和假釋等過程中潛在的負(fù)面影響,也受到了關(guān)注。人工智能在人臉識別系統(tǒng)、(56)Garvie C., Bedoya A., Frankle J.,The Perpetual Line-up:Unregulated Police Face Recognition in America, Georgetown Law Center of Privacy Technology, 2016, https://www.perpetuallineup.org/, 2021-11-28.社會救濟(jì)系統(tǒng)、自動駕駛汽車等領(lǐng)域?qū)γ癖姍?quán)益和社會福利的影響也備受關(guān)注。在互聯(lián)網(wǎng)基礎(chǔ)設(shè)施中人工智能直接影響世界各地的人們?nèi)绾闻c他人交流、分享觀點(diǎn)、參與政治行動以及在線查找信息,但人工智能系統(tǒng)存在的偏見早已為人所知。(57)Sweeney L., “Discrimination in Online ad Delivery”,Communication ACM, Vol.56, No.5, 2013, pp.44—54.搜索引擎和社交媒體平臺等在線中介機(jī)構(gòu)使用人工智能以多種方式控制人們訪問其平臺內(nèi)容,包括決定顯示的信息、產(chǎn)品、服務(wù)或其他帖子的內(nèi)容。對信息內(nèi)容的隱現(xiàn)和排序是數(shù)字時代重要的公共權(quán)力,在一些情況下,對信息的隱現(xiàn)或排序可能源于道德原因,不便于民眾搜索和運(yùn)用信息;而有一些可能會侵犯言論自由、隱私和集會自由等基本權(quán)利。當(dāng)人工智能被用以監(jiān)管言論和交流時,它可能有意或無意地屏蔽某些具有公共價值的主題、圖像或話語。人工智能系統(tǒng)也對殘障人士有很大的影響。隨著人工智能系統(tǒng)越來越多地用于匹配工作崗位、確定公共服務(wù)獲得資格、確定空間設(shè)計(jì)方案以及公民身份獲益權(quán),殘疾人士尤其會受到這類系統(tǒng)如何定義正常和殘障的影響。(58)West SM, Whittaker M, Crawford K.,Discriminating Systems:Gender,Race,and Power in AI, AI Now Institution, https://ainowinstitute.org/discriminatingsystems.pdf, 2019, 2021-07-23.
在過去幾年中,面部識別系統(tǒng)可能對人身權(quán)利造成的侵害也令人擔(dān)憂。(59)Schippers B., “Face Recognition Technology: the Human Rights Concerns”,Eolas Magazine, https://www.eolasmagazine.ie/facerecognition-technology-the-human-rights-concerns/, Vol.12, 2018, 2021-11-27.面部識別系統(tǒng)被廣泛地應(yīng)用在各國的執(zhí)法、公共安全和維護(hù)社會秩序行動中。除面部識別系統(tǒng)存在很大謬誤外,在美國和一些西方國家,人工智能為內(nèi)核的面部識別系統(tǒng)也被證明在多種方面存在歧視,尤其是針對女性和有色人群。(60)Buolamwini J., Gebru T. “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”,Proceedings of Machine Learning Research, Vol.81, 2018, pp.77—91.執(zhí)法部門使用設(shè)計(jì)不佳的技術(shù)進(jìn)行識別,會產(chǎn)生很高的錯誤識別率,進(jìn)一步導(dǎo)致?lián)p害民眾權(quán)益的風(fēng)險,尤其是被應(yīng)用于已經(jīng)在因過度監(jiān)管而苦苦掙扎的少數(shù)族裔社區(qū)?;谄た?Picard) 在“情感計(jì)算”方面的開創(chuàng)性工作,(61)Picard R.W.,Affective Computing, Cambridge, MA: MIT Press, 1997.科學(xué)家和技術(shù)公司最近提出,人工智能系統(tǒng)可以超越單純的身份識別,還能檢測從情感、影響、犯罪到性行為(62)Wang Y., Kosinski M., “Deep Neural Networks are More Accurate than Humans at Detecting Sexual Orientation from Facial Images”,Journal Personal Social Psychologics, Vol.114, No.2, 2018, pp.246—257.等多種特征,面部識別工具甚至有朝一日能夠預(yù)測政治意識形態(tài)和智商得分。(63)Levin S., “Face-reading AI will be able to Detect Your Politics and IQ, Professor Says”,Guardian, 2017-09-12.盡管其中一些功能有潛在的有益用途(如對抑郁或焦慮的自動視覺篩查),但無論預(yù)測是否準(zhǔn)確,此類系統(tǒng)都對隱私構(gòu)成巨大威脅。(64)Burdick A., “The A.I. ‘Gaydar’ Study and the Real Dangers of Big Data”,New Yorker, 2017-09-15.因?qū)γ娌孔R別系統(tǒng)中固有歧視和侵犯隱私的擔(dān)憂,它被如奧克蘭、伯克利、薩默維爾和波特蘭等許多城市禁止使用,值得思考的是,這些城市正是許多生產(chǎn)這些系統(tǒng)代碼的公司所在地。一些社會活動家、學(xué)者和許多技術(shù)開發(fā)人員擔(dān)心這些系統(tǒng)將被用來扼殺言論和集會自由,對本已脆弱的少數(shù)群體造成更大的影響,而以超越傳統(tǒng)的警務(wù)和公共安全的方式使用這些技術(shù),容易出現(xiàn)重大錯誤,導(dǎo)致錯誤逮捕或定罪。(65)Garvie C., Bedoya A., Frankle J.,The Perpetual Line-up:Unregulated Police Face Recognition in America, Georgetown Law Center of Privacy Technology,https://www.perpetuallineup.org/, 2016, 2021-10-19.
除了可能侵犯隱私和具有偏見外,人工智能和自動化還可能會限制勞動者權(quán)利。例如,泰勒(Taylor)就認(rèn)為,大部分人工智能革命的內(nèi)容實(shí)際上是炒作,旨在嚇唬員工,使得他們因?yàn)閾?dān)心最終會被機(jī)器取代,而少對資方提出要求。(66)Taylor A., “The Automation Charade”,Logic Magazine, 2018-08-01.許多看似由人工智能完成的工作,實(shí)際上是通過像亞馬遜的Mechanical Turk 這樣的系統(tǒng)將任務(wù)分解,再向低收入群體發(fā)包來完成的。泰勒等人稱這種現(xiàn)象為“人造自動化”(fauxtomation),在某些情況下,“人造自動化”只是一種廉價的營銷噱頭。但在其他情況下,憑借社交媒體與數(shù)字網(wǎng)絡(luò),資本實(shí)現(xiàn)了對勞動控制的轉(zhuǎn)型升級,勞動被更為細(xì)致地分化,現(xiàn)代人成為被數(shù)字所架構(gòu)的數(shù)字勞動主體的同時,資本剝削的觸角也延伸至人內(nèi)在的生命活動。(67)藍(lán)江、陳朦:《從產(chǎn)業(yè)勞動到數(shù)字勞動——?dú)v史唯物主義視角下的勞動批判研究》,《社會科學(xué)》2021 年第10 期。數(shù)字技術(shù)不僅成為一種限制勞工的手段,使工人不敢也無法保護(hù)自己的基本權(quán)利;而且導(dǎo)致社會呈現(xiàn)出資本集中的趨勢,以及依賴與貧困化的趨勢,這使得勞動者所遭遇的不僅僅是金錢的貧困,更是一種思想的貧困。
最后,人工智能技術(shù)也催生了進(jìn)一步加劇全球不平等的數(shù)據(jù)市場。例如,急于將人工智能引入欠發(fā)達(dá)國家有可能導(dǎo)致算法殖民,(68)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.在這種殖民體系中,被剝奪權(quán)利和被邊緣化的人的數(shù)據(jù)被提取出來用以獲取價值,最有權(quán)勢的全球公司和機(jī)構(gòu)從中獲益,而供給數(shù)據(jù)的人卻喪失了隱私,付出了巨大的代價。
(三)數(shù)字化國家與新的責(zé)任困境
前聯(lián)合國極端貧困與人權(quán)問題特別代表菲利普·阿爾斯通(Alston)在提交給聯(lián)合國的報告中,著重探討了利用技術(shù)系統(tǒng)提供社會保護(hù)和援助的“數(shù)字福利國家”的發(fā)展,以及這種方式對最弱勢群體權(quán)利的影響。(69)Alston P.,Extreme Poverty and Human Rights. Report of the Special Rapporteur on Extreme Poverty and Human Rights, UN Human Rights Council, UN Doc. A/74/493, 2019-10-11.為了追求效率和效果,西方各國越來越多地使用生物識別和算法等技術(shù)來確定接受社會援助的資格,并管理獲得福利的機(jī)會與流程。盡管這些技術(shù)“被描述為科學(xué)和中立的,但它們所反映的價值觀和預(yù)設(shè)卻與普惠的福利原則相去甚遠(yuǎn),甚至可能背道而馳”。
利用技術(shù)救助社會中最弱勢群體,事實(shí)上給他們帶來了沉重的負(fù)擔(dān),因?yàn)樗麄凂{馭這些技術(shù)的能力最弱。皮尤研究中心(Pew Research Center)的一份報告顯示,10%的美國人根本不使用互聯(lián)網(wǎng),這其中的大多數(shù)人都是貧困群體、少數(shù)族裔、農(nóng)村人口和老年人口以及沒接受過高中教育的人。正如阿爾斯通所指出的那樣,數(shù)字素養(yǎng)的匱乏會導(dǎo)致一些人群根本無法使用基本的數(shù)字工具,遑論有效和高效地使用了。同時互聯(lián)網(wǎng)的可及性也并非均質(zhì),對于那些需要支付高額費(fèi)用、需要曠工、需要去圖書館等公共設(shè)施、或必須向他人求助才能上網(wǎng)的人來說,上網(wǎng)獲取社會援助為他們的生活設(shè)置了額外的障礙。此外,數(shù)字化的福利國家也會不成比例地影響最弱勢群體的權(quán)利,因?yàn)樗殡S著更大的隱私負(fù)擔(dān),而這些負(fù)擔(dān)則由貧困及無權(quán)者承擔(dān)。數(shù)字化技術(shù)使得國家能夠更容易地監(jiān)視、識別、騷擾和懲罰福利受益人,尤其是其中最貧窮和最脆弱的人。
事實(shí)上,阿爾斯通報告關(guān)于數(shù)字技術(shù)對社會治理與服務(wù)影響的分析,并不局限于社會保護(hù)和福利國家的范疇,還針對更廣泛的數(shù)字化國家,因?yàn)槊慨?dāng)政府采用新技術(shù)來進(jìn)行治理和提供服務(wù)時,最脆弱的群體都有受到傷害的風(fēng)險。對數(shù)字國家的擔(dān)憂也與聯(lián)合國等國際組織相關(guān),因?yàn)樗鼈冊谌说乐髁x行動中采用了大量未經(jīng)測試的新技術(shù)。如最近聯(lián)合國世界糧食計(jì)劃署與數(shù)據(jù)挖掘公司Palantir 之間的合作就受到廣泛批評,因?yàn)樵摴镜纳虡I(yè)模式在疫苗分配領(lǐng)域存在侵犯基本人權(quán)的問題。(70)Greenwood F., “Why Humanitarians are Worried about Palantir’s Partnership with the U.N”,Slate Magazine, https://slate.com/technology/2019/02/palantir-un-world-food-programme-data-humanitarians.html, 2021-10-25.
采用新技術(shù)來解決治理問題也是有風(fēng)險的,因?yàn)榧夹g(shù)系統(tǒng)將內(nèi)嵌性地反映設(shè)計(jì)者的特權(quán)。如南非約翰內(nèi)斯堡在貧困社區(qū)安裝的預(yù)付費(fèi)式水表,這些社區(qū)居民經(jīng)常無錢支付水費(fèi)。(71)Shaver L., Safeguarding Human Rights from Problematic Technologies, See Land & Aronson, 2018, pp.25—45.為解決財務(wù)問題,約翰內(nèi)斯堡水務(wù)公司(Johannesburg Water)推出了新型水表作為技術(shù)解決方案。預(yù)付式水表每月只給每個家庭分配少量的免費(fèi)水,而不足的部分則需要通過購買水表代幣來補(bǔ)充。盡管安裝新水表主要是為了提高供水效率,但它反映并延續(xù)了固有的特權(quán)。例如約翰內(nèi)斯堡水務(wù)公司為費(fèi)里(Phiri)社區(qū)的每戶家庭分配6000 升的免費(fèi)水,假設(shè)一個家庭內(nèi)有8 口人,那么這個家庭每人每天就能夠分到25 升水。但事實(shí)上,費(fèi)里社區(qū)家庭平均有16 口人,這就使得原本就微薄的用水補(bǔ)貼被減半。那些決定何時停止供水的人是根據(jù)自己的經(jīng)驗(yàn)做出了上述家庭人口數(shù)的假設(shè),而其經(jīng)驗(yàn)就反映了財富的分配與環(huán)境。
技術(shù)還使對侵犯權(quán)益行為提出質(zhì)疑變得更加困難,因?yàn)檫@些行為所產(chǎn)生的惡劣影響通常由那些沒有能力挑戰(zhàn)其影響的人承擔(dān)。為什么沒有法律和技術(shù)保障的預(yù)付費(fèi)式水表會安裝在像費(fèi)里這樣的脆弱社區(qū)?可能是因?yàn)樵诟辉5纳鐓^(qū)安裝這種水表可能會招致更大的公眾抗議和政治壓力。同樣,阿爾斯通指出,“許多領(lǐng)取福利的人因相對剝奪和無能為力被強(qiáng)加了條件和要求,如果改為在成員較為富裕的社區(qū)進(jìn)行,這些條件、要求和形式就永遠(yuǎn)不會被接受”。
此外,在利用技術(shù)提供公共產(chǎn)品時,深度交融的公共和私人行動可能令追究侵犯權(quán)利行為的責(zé)任更加困難。“在設(shè)計(jì)、建設(shè)甚至運(yùn)營數(shù)字化國家的部分過程中,私營部門甚至發(fā)揮著主導(dǎo)作用”。(72)Alston P.,Extreme Poverty and Human Rights. Report of the Special Rapporteur on Extreme Poverty and Human Rights, UN Human Rights Council, UN Doc. A/74/493, 2019-10-11.然而,這些公司在運(yùn)作的過程中“幾乎不考慮民眾權(quán)益”,因?yàn)樗鼈冏约旱种票O(jiān)管,同時受新自由主義影響,政府也抵制監(jiān)管私營公司。對私人行為者的依賴也帶來了價值觀沖突的風(fēng)險,私營行為體參與福利供給和社會援助系統(tǒng)的動機(jī)不同,可能會導(dǎo)致福利系統(tǒng)本應(yīng)服務(wù)的公共利益與公司及其私人利益之間的沖突。因此,當(dāng)在數(shù)據(jù)資本主義基礎(chǔ)上建立的商業(yè)公司,承擔(dān)了設(shè)計(jì)監(jiān)控貧困者使用公共援助技術(shù)的責(zé)任時,保護(hù)貧困者的隱私權(quán)就變得更加困難。水表的例子就顯示出,私人參與者為了營利而開發(fā)的技術(shù)如何損害了民眾的基本權(quán)益。在商業(yè)環(huán)境中引入新技術(shù)通常需要投資,而投資可能會導(dǎo)致并鎖定后續(xù)的錯誤。在費(fèi)里的個案中,公司安裝儀表的巨額成本成為支持保留新系統(tǒng)的法律依據(jù),在訴訟期間,約翰內(nèi)斯堡市辯稱,卸載預(yù)付費(fèi)式電表將對自來水公司的“財務(wù)和可持續(xù)性”產(chǎn)生重大影響。(73)Bond P, Dugard J., “The Case of Johannesburg Water: What Really Happened at the Prepaid ‘Parish Pump’”,Law,Democracy andDevelopment, Vol.12, No.1, 2010, p.11.因此,該項(xiàng)技術(shù)已因?yàn)槌杀?,成為一種自我實(shí)現(xiàn)式的預(yù)言,一旦安裝,它及它對權(quán)利造成的任何損害將會被鎖定。
最后,也許最令人擔(dān)憂的是,使用技術(shù)來實(shí)現(xiàn)權(quán)利的方式鞏固和強(qiáng)化了一種商品化的意識形態(tài),在這種意識形態(tài)中,諸如水、住房、電力和食物等只是需要提供的商品,而不是生活所需的基本權(quán)利。正如阿爾斯通所指出的那樣,引入新技術(shù)也有可能會破壞享有經(jīng)濟(jì)權(quán)利,促進(jìn)向官僚程序的轉(zhuǎn)變,而背離了以社會保障權(quán)或社會保護(hù)權(quán)為前提的程序。同樣,對約翰內(nèi)斯堡的管理者來說,安裝水表的理由似乎是合理和適當(dāng)?shù)摹滤砜梢韵拗评速M(fèi)并確保居民支付水費(fèi)。但是當(dāng)居民買不起額外的預(yù)付代幣時,他們的生活就遭受了極大的困難。那些本就靠微薄資源生活的人被迫做出不可能的選擇,限制他們自己和家人的基本衛(wèi)生與需求,以確保免費(fèi)用水量可以持續(xù)整月。當(dāng)供水的目標(biāo)是以回收成本而不是提供基本需求為導(dǎo)向時,貧困者不可避免地遭受損失。
從西方國家智能社會治理與服務(wù)的過程可以發(fā)現(xiàn),當(dāng)今技術(shù)對人們權(quán)益構(gòu)成的威脅并不是像流行文化和科幻小說中描繪的那樣,機(jī)器擺脫了人類控制,成為自為的破壞者。相反,技術(shù)以相當(dāng)平常的方式威脅著民眾權(quán)利和大眾福利,除侵?jǐn)_公民隱私權(quán)外,技術(shù)將知識和權(quán)力集中在那些已經(jīng)掌握它們的人手中,并進(jìn)一步剝奪那些無權(quán)者,造成不平等的再生產(chǎn);同時造成傳統(tǒng)追責(zé)機(jī)制失效。對此,需要從價值導(dǎo)向、技術(shù)設(shè)計(jì)實(shí)踐和制度與法律等幾個層面著手,提出應(yīng)對這些問題的具體策略。
人工智能從誕生的那一刻起,就讓人類陷入一定程度的憂慮和恐懼當(dāng)中。智慧社會蘊(yùn)含著推動社會發(fā)展的巨大潛能,也具有無可否認(rèn)的風(fēng)險,要遏制人工智能帶來的風(fēng)險,最大限度地消除人工智能的負(fù)面影響,發(fā)揮“負(fù)責(zé)任”的人工智能,可以助力社會治理走向善治?!柏?fù)責(zé)任”已成為發(fā)展人工智能的高頻詞匯,2019 年5 月,OECD 成員國簽署政府間《人工智能推薦性原則和建議》,呼吁發(fā)展負(fù)責(zé)任的人工智能?!柏?fù)責(zé)任”涵蓋了人工智能的基礎(chǔ)研發(fā)層到應(yīng)用層,更應(yīng)成為貫穿人工智能發(fā)展的一條主線。無論是人工智能提供的產(chǎn)品還是服務(wù),都應(yīng)該是負(fù)責(zé)任的、全面的,應(yīng)該以增進(jìn)人類共同福祉為目標(biāo),應(yīng)該符合人類的價值觀和倫理道德,避免誤用,禁止濫用。
人工智能的到來使得一些人高呼“一切皆可計(jì)算”。需要警惕這種技術(shù)理性控制與人文精神流失的行為,無論何時發(fā)展都應(yīng)以人為中心,最終的目標(biāo)也是要實(shí)現(xiàn)人的自由全面發(fā)展。以發(fā)展人工智能來提升人民生活品質(zhì),抓住教育、醫(yī)療、養(yǎng)老等社會民生領(lǐng)域的突出矛盾和難點(diǎn)。大力發(fā)展智慧社會治理與服務(wù),讓人類生活更便捷、自在、舒適。以人工智能在人們?nèi)粘9ぷ鲗W(xué)習(xí)生活中的深度應(yīng)用,創(chuàng)造更加智能的工作和生活方式,來促進(jìn)人的全面發(fā)展,從保障和改善民生,為人民創(chuàng)造美好生活的需要出發(fā),讓改革成果更多惠及人民,智慧社會變革在一定程度上導(dǎo)致了社會分層和利益分化。人工智能的負(fù)面效應(yīng)造成的損失需要政府承擔(dān)調(diào)解和再分配與縮小貧富差距,使民眾感受到社會公平,因此要加強(qiáng)對勞動者的保護(hù),建立完善的社會保障制度,切實(shí)保障民眾基本生活,對于因人工智能而失業(yè)的人來說,政府應(yīng)該加大對人工智能企業(yè)的稅收,并進(jìn)一步將稅收轉(zhuǎn)化為失業(yè)人群的短期失業(yè)福利,以完善的社會保障制度,增加群眾的幸福感、獲得感、安全感。
首先,面對智慧社會治理中的隱私問題,學(xué)者們提出了技術(shù)解決方案的方向:第一,去識別化(de-identification),即在數(shù)據(jù)分析過程中避免將某一個特定人從人群識別出來。一是通過差分隱私(differential privacy);一是通過k-匿名(k-anonymity)。第二,限制搜索(limited searchability)。例如Snapchat 的“閱后即焚”功能,用戶拍攝照片或視頻發(fā)送給好友,好友閱后照片或視頻將自動焚毀。(74)曲甜、張小勁:《大數(shù)據(jù)社會治理創(chuàng)新的國外經(jīng)驗(yàn):前沿趨勢、模式優(yōu)化與困境挑戰(zhàn)》,《電子政務(wù)》2020 年第1 期。
其次,要解決社會不平等問題需要采取積極措施,在技術(shù)設(shè)計(jì)過程中分散知識和權(quán)力。多年來,政策、法律部門和技術(shù)界一直在討論如開源運(yùn)動(75)Benkler Y., “Law, Innovation, and Collaboration in Networked Economy and Society”,Annual Review of Law Social Science, Vol.13, 2017, pp.231—250.等替代性的參與式設(shè)計(jì)和技術(shù)開發(fā)的愿景。然而,大多數(shù)研究者都主要關(guān)注掌握權(quán)力技術(shù)優(yōu)勢的發(fā)達(dá)國家的參與者,但最近關(guān)于設(shè)計(jì)正義的研究(76)Costanza-Chock S.,Design Justice:Community-Led Practices to Build the Worlds We Need, Cambridge, MA: MIT Press, 2020.認(rèn)為,來自發(fā)展中國家的弱勢群體成員和專家必須參與決策,共商這些技術(shù)的未來。正如皮拉克(Piracés)指出的,正在進(jìn)行的關(guān)于人工智能和包容性的關(guān)鍵對話,“有可能蘊(yùn)含著被‘人工智能社會’塑造的風(fēng)險,這一對話討論的是包容,但卻沒有真正包括邊緣化人群的聲音。人工智能生態(tài)系統(tǒng)設(shè)計(jì)中若未考慮邊緣化人群的聲音,他們可能遭受技術(shù)的侵害。”(77)Piracés E., “Let’s Avoid an Artificial Intelligentsia”,Medium, Oct. 12. 2018 , https://points.datasociety.net/lets-avoid-an-artificialintelligentsia-inclusion-artificial-intelligence-and-human-rights-3905d708e7ed, 2021-11-29.參與式設(shè)計(jì)還要確保技術(shù)滿足從業(yè)者和權(quán)益捍衛(wèi)者對隱私、安全和免受傷害的需求,保護(hù)民眾的權(quán)利與福利“需要開放、分散化的平臺,和不會保存用戶信息并出售的工作人員”,(78)Al-Sharif M., “The Dangers of Digital Activism”,New York Times, https://www.nytimes.com/2018/09/16/opinion/politics/thedangers-of-digital-activism.html, 2021-11-29.如果無法保證上述條件,濫用平臺收集數(shù)據(jù)可能使人們面臨被騷擾和攻擊的風(fēng)險。
對于發(fā)展中國家而言,要避免民眾被日益邊緣化,需要在地方層面來探討國家采用哪些技術(shù)。不應(yīng)在不清楚“潛在目的是什么、誰受益以及誰可能受損,就簡單地引進(jìn)最新、最先進(jìn)的機(jī)器學(xué)習(xí)系統(tǒng)或其他的人工智能工具”。(79)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019 Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.由非洲民眾自己領(lǐng)導(dǎo)的保護(hù)非洲大陸國家免受西方公司和思維方式剝削,并建立基于地方專業(yè)知識和企業(yè)的運(yùn)動正方興未艾。南非土人會議深度學(xué)習(xí)項(xiàng)目(Deep Learning Indaba)可能是此類運(yùn)動最明顯的實(shí)例,該組織贊助了各種針對特定國家和整個非洲大陸的項(xiàng)目,將非洲計(jì)算機(jī)科學(xué)家和程序員聚集在一起,來教授、學(xué)習(xí)和開發(fā)系統(tǒng),用以解決共同關(guān)心的技術(shù)和社會問題的,Indaba 旨在發(fā)出非洲的聲音,成為一個由非洲主導(dǎo)的空間。
來自世界各地的科學(xué)家還積極參與倫理、法律和社會問題的討論,如在計(jì)算機(jī)協(xié)會年會中組織公平、問責(zé)和透明度會議等活動。科技工作者也開始組織起來,反對將他們的設(shè)計(jì)與產(chǎn)品用于明顯侵犯民眾權(quán)利和大眾福利之處。(80)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, p.380.一些大學(xué)的教師和學(xué)生抗議美國移民和海關(guān)執(zhí)法局使用亞馬遜網(wǎng)絡(luò)服務(wù)、GitHub 和 Palantir 等平臺與軟件,這表明軟件工程師和科技工作者更加關(guān)注和捍衛(wèi)自己智力創(chuàng)造的社會用途。(81)Costanza-Chock S., “Designing AI with Justice”,Public Books, 2019.然而,格林卻質(zhì)疑科技人士是否有完善的、能夠妥善處理這些具有挑戰(zhàn)性問題的社會和道德框架。(82)Green B.,The Smart Enough City:Putting Technology in Its Place to Reclaim Our Urban Future, Cambridge, MA: MIT Press, 2018.由于缺乏方法和理論來清晰地理解“善”的實(shí)際含義,計(jì)算科學(xué)家通常采用狹隘的方法來理解政治,包括對什么樣的社會條件在價值上是可取的,也僅僅提出模糊的(幾乎是重復(fù)的)主張。計(jì)算科學(xué)本身也“傾向于想當(dāng)然地認(rèn)為,以技術(shù)為中心的漸進(jìn)式改革是促進(jìn)社會進(jìn)步的合宜策略”,但僅通過技術(shù)可能無法解決潛在的不平等和壓迫,而不平等和壓迫會產(chǎn)生負(fù)面的社會結(jié)果,計(jì)算科學(xué)家只試圖通過他們的技術(shù)干預(yù)來補(bǔ)救。為了提高效率與效能,技術(shù)專家仍需在新技術(shù)的開發(fā)、設(shè)計(jì)和運(yùn)用過程中全面、共同協(xié)作。
參與進(jìn)程也需要透明度。由于自動化決策技術(shù)的發(fā)展,人們通常沒有機(jī)會去審查被用于分析的數(shù)據(jù)、其背后的代碼或其中嵌入的假設(shè)和價值判斷。不僅不從事程序員工作的人難以理解這些代碼,而且公司還經(jīng)常不遺余力地將它們作為商業(yè)機(jī)密加以保護(hù)。這就難以測試人工智能系統(tǒng)的準(zhǔn)確性或更好地理解其局限性,正如拉姆 (Ram) 等人所言,當(dāng)自動化系統(tǒng)做出關(guān)涉生死的決定時,通過增強(qiáng)技術(shù)透明度來監(jiān)督數(shù)字技術(shù)的能力至關(guān)重要。(83)Ram N., “Innovating Criminal Justice”,Northwest University Law Review, Vol.112, No.4, 2018, pp.659—724.
在技術(shù)創(chuàng)新領(lǐng)域中,公共部門同私營企業(yè)的行動深深交融的情況下,除實(shí)踐技術(shù)外,重新認(rèn)識有關(guān)維護(hù)民眾權(quán)利和大眾福利的制度,以及法律中的公/私區(qū)分是必要的。這并不意味著制度與法律是無關(guān)緊要的,而是它們必須以某種方式發(fā)展,以彌補(bǔ)應(yīng)用新技術(shù)所造成的責(zé)任缺口。如當(dāng)政府通過將權(quán)力外包給私營公司來審查它們自己無法審查的內(nèi)容,來規(guī)避對其權(quán)力的檢查時,(84)Land M.K., “Against Privatized Censorship: Proposals for Responsible Delegation”,Journal of International Law, Vol.60, 2020, pp.363—432.或者當(dāng)公眾無法補(bǔ)救他們所不了解的自動化系統(tǒng)造成的損害時,就會出現(xiàn)責(zé)任缺口而難以問責(zé)。(85)Crawford K, Schultz J. “AI Systems as State Actors”,Columbia Law Review, Vol.119, 2019, pp.1941—1972.在這種情況下,對公共權(quán)力和私人權(quán)力的嚴(yán)格區(qū)分并不能促進(jìn)作為保護(hù)民眾權(quán)益基礎(chǔ)的問責(zé)制和實(shí)現(xiàn)補(bǔ)救的根本目標(biāo)。然而,可以更新和實(shí)施國家在國際層面的行動和國內(nèi)法的規(guī)則,(86)Crawford K, Schultz J. “AI Systems as State Actors”,Columbia Law Review, Vol.119, 2019, pp.1941—1972.以確保國家無法逃避與使用新技術(shù)相關(guān)的損害的責(zé)任。
解決新技術(shù)的潛在危害還要求各國認(rèn)真履行保護(hù)個人免受非國家行為者傷害的責(zé)任。(87)Karanicolas M. “Squaring the Circle between Freedom of Expression and Platform Law”,Journal of Technology Law Policy, Vol.20, 2019—2020.國家可能要求私營公司自行制定評估技術(shù)產(chǎn)生影響的流程并將之制度化,要求技術(shù)公司必須將風(fēng)險評估納入技術(shù)開發(fā)和設(shè)計(jì)系統(tǒng),以便在涉及侵權(quán)風(fēng)險之前便排除它。國家不僅需要承擔(dān)推進(jìn)技術(shù)創(chuàng)新和發(fā)展技術(shù)的義務(wù),而且還必須擔(dān)負(fù)以支持而不是阻礙人們享有權(quán)益的方式促進(jìn)技術(shù)創(chuàng)新的責(zé)任。
盡管運(yùn)用技術(shù)手段來維護(hù)社會秩序、尋求社會公益的項(xiàng)目受到各方歡迎,但技術(shù)不能也不會自動解決社會問題。拉托內(nèi)羅(Latonero)在《連線》(WIRED)的一篇專欄文章中指出,將人工智能應(yīng)用于社會治理與公共服務(wù)活動中“帶有技術(shù)主義的味道,可能會掩蓋問題的本質(zhì),并在沒有適當(dāng)保障的情況下對弱勢人群造成風(fēng)險”。(88)Latonero M., “Opinion: AI for Good is Often Bad”,WIRED, https://www.wired.com/story/opinion-ai-for-good-is-often-bad/, 2021-11-27.他認(rèn)為,“被簡化的由最聰明的企業(yè)技術(shù)人員與最受尊敬的國際組織合作所提供的方案”永遠(yuǎn)不可能解決大規(guī)模的社會問題。格林也反對將復(fù)雜的政治和社會現(xiàn)象簡化為可以通過算法或應(yīng)用程序解決的技術(shù)問題,工程師和科學(xué)家無法識別和定義社會問題,這些問題只能由民眾自己完成,他人無法也不能越俎代庖。
通過數(shù)據(jù)獲取信息、進(jìn)行計(jì)算、直接供給,智能社會治理與服務(wù)加劇了現(xiàn)有市場制度下的不平等。如由數(shù)字技術(shù)所支撐的預(yù)測性警務(wù)威脅著生活在被嚴(yán)密監(jiān)管社區(qū)中的少數(shù)群體權(quán)利、雇傭與社會救助算法威脅就業(yè)人員的權(quán)利、社會保障算法威脅民眾權(quán)利。智慧社會治理與服務(wù)面臨的問題首先是歧視,即預(yù)測模型會出錯,越來越多的證據(jù)表明,對于脆弱的群體,模型出錯的頻率更高。其次是算法的不透明會削弱個人通過各種追責(zé)程序糾正錯誤的能力。最后,數(shù)據(jù)可能被用以監(jiān)視會使個人隱私權(quán)受到侵害。因此,高風(fēng)險決策中的錯誤、削弱個人糾正這些錯誤能力的不透明性、對生活各個領(lǐng)域的監(jiān)控日益增多,使得人們?nèi)找鎿?dān)憂在社會治理與服務(wù)中技術(shù)的作用。
此外,若要使技術(shù)對社會治理與服務(wù)產(chǎn)生變革性影響,必須更加關(guān)注誰出于什么目的設(shè)計(jì)和構(gòu)建了技術(shù)、以及其中嵌入了什么樣的權(quán)力和特權(quán)。因此,確保公平地獲取運(yùn)用技術(shù)的機(jī)會是技術(shù)處理社會問題的前提,但技術(shù)并非憑空運(yùn)作,而是依賴于體現(xiàn)結(jié)構(gòu)性不平等的復(fù)雜的專業(yè)知識、維護(hù)和治理網(wǎng)絡(luò)。引進(jìn)新技術(shù)的努力必須反思一系列有關(guān)權(quán)力的重要問題,包括在利益分配不均的社會情境中,哪些群體將從技術(shù)對現(xiàn)狀所做的改變中受益。技術(shù)還必須具有透明度,能夠接受外部監(jiān)督和審查,尤其是那些受負(fù)面影響最大的人的監(jiān)督和審查。
隨著智能治理進(jìn)程的加速推進(jìn),人們在享受數(shù)字紅利的同時也面臨著“數(shù)字暴政”的風(fēng)險,這種風(fēng)險在小范圍內(nèi)或許有差異地作用于個人,如接受社會福利的對象,但極端情況下,也存在著無差別的社會風(fēng)險。近年來,社會治理中掌握公共權(quán)力的政府與企業(yè)也越來越注重運(yùn)用數(shù)字工具,然而,當(dāng)我們在強(qiáng)調(diào)數(shù)字的工具價值和經(jīng)濟(jì)價值的時候,不能低估或者忽略了其對社會的深層次影響,特別是對弱勢群體的影響。技術(shù)確實(shí)有在諸多方面增強(qiáng)了決策的可能性,然而,科技能否挑戰(zhàn)世界基本權(quán)力結(jié)構(gòu)仍值得懷疑,創(chuàng)新的風(fēng)險和收益不太可能被平等分享。為此,需要以社會治理目標(biāo)為方向,來構(gòu)建有利于促進(jìn)民眾權(quán)益的技術(shù)。