文/楊華鋒
有史記載的人類社會,毫無例外都期待有序的政治生活,這種對秩序的追求,事實上塑造著對權力秩序的期待。權力秩序本質上意味著權力關系和權力結構的相對穩(wěn)定性和規(guī)范性。權力秩序關乎權力關系、權力格局以及權力效能等內容。就靜態(tài)而言,權力秩序意味著權力結構的平衡性,就動態(tài)而言,權力秩序意味著不同權力之間功能的協(xié)調性。[1]回顧歷史,權力秩序歷經基于暴力壓迫的壓制型、基于民主協(xié)商的協(xié)調型以及基于信息網絡的合作型三種類型。隨著信息社會邁向“數智社會”,一種基于智能算法的新型權力秩序正漸次成型。
技術的發(fā)展會帶來社會的變化,盡管這種變化未必都是“進步”性的。就像互聯(lián)網政治的發(fā)展一樣,起初不論是學界還是坊間,都賦予其網絡化結構以極大期許,認為其是構建去中心化、非等級化,推進更好民主的不二法門。然而,互聯(lián)網與生俱來的商業(yè)性和政治性,決定了它的發(fā)展與應用毫不例外,受到大型企業(yè)(跨國公司)及其他政治實體的引導與控制。所以,技術進步與社會進步并不是簡單正向線性關系。算法作為當前“數智時代”最為活躍的生產要素與技術稟賦,自然也不例外。
一方面,作為數字時代的技術核心,算法的應用為人類社會的生產、生活和公共管理提供了高效、便捷的方式、方法與路徑。公共領域、私人領域都不時閃現算法的身影,從個人的衣食住用行到企業(yè)的生產經營流通以及政府的高效、回應與前瞻性治理,無不受益于算法的助力??梢哉f“智能社會”“社會5.0”“數字政府”“智慧政務”等均是對此的積極回應。另一方面,“困在算法里”“沉默的螺旋”“信息繭房”“大數據殺熟”等也屢見報端,讓人不由自主地感覺生活在“被計算”與“被算計”的社會之中。
在數字社會迅猛發(fā)展的檔口,討論算法,容易讓人誤以為算法是步入大數據社會以后才出現的。其實不然,算法并非新鮮事,其來源于公元九世紀的波斯數學家花剌子密。20 世紀初,經典行政范式所討論的管理主義和泰勒制模式,是相對晚近的運用算法理性進行組織管理的設計與規(guī)劃。20 世紀30 年代,香農在萊布尼茨二進制和布爾運算符的基礎上發(fā)展出現代計算機語言。后來,圖靈發(fā)明圖靈機,二戰(zhàn)期間成功破譯德國密碼。[2]由此觀之,算法誕生之初主要以“技術”的面貌流傳于世。及至近幾十年,算法已被運用到政治、經濟、社會的方方面面,已在很多方面深刻地影響與塑造著社會結構與產業(yè)模式。
隨著算法嵌入經濟社會的領域不斷擴展,特別是在移動互聯(lián)、物聯(lián)網、“人聯(lián)網”、自媒體、新媒體大行其道,代碼無處不在的社會之中,權力越來越多地嵌套于算法之中。那些被精心設計過的算法就像黑洞一樣,肆無忌憚地收集其能夠收集到的一切。數字技術在與人類的互動過程中,通過定義人類可以做或不可以做的事情來監(jiān)控人類,通過控制人類對外界事物的感知來向人施加權力。[3]控制此類技術的人也就通過它獲得巨大的權力。在政治領域、市場領域以及社會生活領域,算法正扮演著越來越多的影響力、控制力角色。當越來越多的人開始意識到自己的生活被算法改變抑或重塑時,作為一種復合型的權力生產模式,算法權力應運而生。
就其行為特征而言,一是技術驅動性。作為一種技術性權力,其來源于技術的迭代與應用。通過持續(xù)不斷地數據收集和分析,輸出決策和預測,從而對社會個體行為進行無處不在、無孔不入的引導、控制。由于其濫觴于技術的發(fā)展與應用,本質上是技術驅動型的權力。二是場景虛擬性。算法權力得益于數字空間的存在,是以虛擬空間與物理空間相互交融建構為作用場域、以海量信息數據為原料、以強大的算力為保障,依附于有形的權力主體,隱蔽于社會主體的互動過程中。三是數據資源性。與工業(yè)時代主要依靠資本要素投入來提升社會生產力不同,數字時代主要依靠數據要素的挖掘。數據資源的交互與累積是算法權力增量的核心部件。四是動態(tài)擴散性。數字時代呈現出高度的交互性、實時性、共享性等網絡特征,信息資源的流動與配置從科層化逐漸轉向平臺化,隨著信息資源的流動,權力也實現動態(tài)性的擴散,不同程度上也呈現“去中心化”的結構性特征。
與以往的社會形態(tài)并無二致,算法權力秩序的合法性即其正當性,是由生產、擁有、操持、運用算法的組織或個人所決定的。這種合法性意味著人們對算法權力的普遍性承認、接受和認同的程度,同時也包括人們?yōu)榫S護這種權力秩序所呈現的支付意愿與支付能力。一般而言,權力秩序的構成包括權力結構的均衡化配置以及權力運行中的功能協(xié)調。
首先,從算法權力的結構來源來看,算法權力是一種復合型權力結構。技術發(fā)展對人類社會發(fā)展而言,是一把雙刃劍,其本身并無好壞善惡之分,區(qū)別在于技術由誰掌控、以何價值為目標、以何方式行使。在活躍的資本權力的誘導下,特別是在政治權力、市場權力持續(xù)擴張的情勢之下,技術具有突破既有領域擁抱權力屬性的理性沖動。也就是說,算法在政治、經濟、社會、國際議題等領域的不斷延伸,不僅實現了其技術性目標與利益性回報,還逐步建構出具有約束與規(guī)范意義的復雜權力關系。在該權力關系中,不僅關涉技術應用,也關乎資本收益,同時也受到政府權力的俘獲與誘導。因此算法權力兼具政治權力、市場權力與技術權力等綜合權力特征,在不確定性時代具有復雜系統(tǒng)的適應性,在權力結構上呈現出群體差異、產業(yè)差異、層級差異等復雜性,以及政府誘致、市場激勵與自主創(chuàng)新等混合交融的復合性。
其次,從算法權力的主體構成來看,算法權力主體是多元化的。掌握算法技術的個體以其技術優(yōu)勢成為權力主體,有意無意地將自身偏好融入代碼中,影響算法輸出結果;擁有豐裕資本的大型科技公司、擁有先進的技術人才團隊,具備獲取海量數據資源以支撐智能算法運行的能力;采用算法治理方式的政府或許是算法應用的新手,但因其往往是社會大數據的管理者與調閱者,擁有裁決、仲裁與使用權,在權力體系的運行中扮演“超級權力者”。盡管權力的主體是多元的,但權力的配置是不均等的。因政治生態(tài)、經濟模式以及社會條件等限制,多元權力主體的權力配置與影響力稟賦,因時因地存在巨大差異,其中政府權力往往具有主導性、創(chuàng)設性以及終結性,因而其他權力主體存在依附于或嵌套于行政權力的傾向。
再者,從算法權力的效能邊界來看,具有跨界性、靈活性與衍變性。就技術層面來說,算法權力具有技術理性與功能理性,是以技術理性為核心價值的科技型權力,追求效率、效能是其本質屬性。技術進步與數字時代的發(fā)展是交互建構的“螺旋上升”。算法在不斷的更新迭代與領域應用中,隨著適用性的演變,其不斷突破既有技術框架、形塑新型服務模式。在此過程中,算法權力如影隨形,其影響與誘致能力自然延伸至各議題領域。就市場層面而言,數字經濟、算法經濟已經成為數字時代的主要經濟業(yè)態(tài),基于算法的平臺經濟、共享經濟等新型經濟模式方興未艾,圍繞以數據為核心、以算法為驅動、以計算資源為保障的各種產品和服務不斷推陳出新,極大滿足與改善著人們生產生活的各種需求。與資本聯(lián)姻的算法權力輕而易舉地滲透進每個人的生活工作中,人們不知不覺成為算法權力的作用對象。就治理維度來說,算法對公共權力的嵌入,持續(xù)地影響著公共權力的運作,傳統(tǒng)的權力體系正以一種“全景式監(jiān)控”的方式,將權力觸角延伸至過去鮮有涉及的諸多社會事務之中,傳統(tǒng)權力的形態(tài)與功能發(fā)生技術型衍變,權力效用邊界覆蓋范圍發(fā)生重大調整,公私邊界也隨著技術邊界的模糊,而出現不同程度的動態(tài)波動,權力秩序的彈性、靈活性凸顯。
算法權力秩序的合法性是維系與保障數字經濟、數字產業(yè)、數字治理、智能社會和諧有序發(fā)展的必要條件。其風險主要源于非對稱權力格局下的算法壟斷、權力運行體系中的濫權與侵權以及權力功能性失衡下的倫理缺位。
大多情況下,數字技術基本都是按照掌權者和特權者的立場與價值觀來進行設計的,因此壟斷是其天然屬性。同時算法本身又具有高度的專業(yè)性,其計算與優(yōu)選過程,往往涉及大規(guī)模的數據和紛繁復雜的計算方法,一般民眾難以獲取或掌握算法透明所需的對稱信息。這種技術本身的“不可解釋性”造就了算法“黑箱”,形成權力行使與監(jiān)督之間的技術鴻溝,為利用算法缺陷、算法漏洞實施權力設租尋租,提供了擋箭牌與遮羞布,為算法獨裁、算法統(tǒng)治提供了技術條件。
一是行業(yè)壁壘中的“算法共謀”。數字時代,只要企業(yè)之間憑借相同或相似的算法,就能便捷地達成算法共謀,利用算法權力壓榨消費者而不被察覺,甚至逃避法律制裁。平臺企業(yè)對內利用算法優(yōu)勢實現對其“平臺帝國”的全面控制,對外通過數據壟斷實現流量與信息控制。將破壞市場主體的平等地位和市場公平競爭的自由秩序,削弱行業(yè)創(chuàng)新活力,既不能更好地滿足社會需求與期待,也不利于數字產業(yè)健康可持續(xù)發(fā)展。
二是算法競爭中的“算法鴻溝”。算法權力離不開海量數據資源、充足人才儲備、大量資金投入以及持續(xù)創(chuàng)新能力。具備上述條件的企業(yè)和國家將在算法競爭中處于有利地位,成為全球算法規(guī)則和算法產品的制定者、提供者乃至壟斷者。算法競爭中處于弱勢的個人、企業(yè)和國家,只能被動接受相應的標準規(guī)范及算法產品,二者間存在巨大的“算法鴻溝”。這種權力的不對稱性,疊加馬太效應后,會愈演愈烈,易將算法權力結構的差異演化為實體權力結構的巨大差別,繼而形成權力役使與附庸關系。
三是數據挖掘中的“算法安全”。算法權力對經濟社會及個體數據的大量采集,威脅個人隱私與國家安全。隱私方面,平臺公司大部分利潤來源于廣告,而這些廣告是建立在對用戶數據的收集和分析之上的,公眾的日常數據在這些平臺企業(yè)面前暴露無遺。[4]安全方面,數字社會中越來越多的信息以數據的形式儲存,那些單個數據點無法提供的信息或許能夠從龐大的數據庫中找到。比如,滴滴所擁有的數據包括乘客主動產生的數據和被動留下的數據,在收集、存儲、使用數據的過程中,滴滴不斷收集來自城市交通、教育、醫(yī)療、行政資源分布的核心數據,除了擁有基礎的出行數據和使用記錄,還通過數據分析進一步研判中國的大政方針、重大措施,一旦這些數據遭到泄露,將直接影響國家安全、公共利益和社會穩(wěn)定。[5]
算法權力的核心原則是把效率和效益放在首位,盡管平臺為了實現自身責任目標需要獲得部分準公共權力,但平臺對算法權力的濫用,扭曲了其提供公平公正基礎公共服務的責任。[6]同時,算法權力滲透于社會生活的廣度和深度遠超前智能時代的政治技術,其顯著影響是算法社會超越公民社會,導致的后果是公共領域與私人領域的邊界消弭,公民權利讓渡給算法權力,對算法權力的制約平衡機制闕如。[7]
一是算法濫權侵蝕公民自主選擇權。算法“權威”的濫用,通過算法評分、競價排序,影響人們的自主判斷力和決策力,侵蝕人們的自主選擇權。算法權力的正向效應,可以讓人們充分了解數據、信息。但算法也可用來創(chuàng)造一個對特定想法充滿敵意的環(huán)境,從公眾意識中消除或降低某些問題的聲量,從而導致規(guī)避公眾利益的規(guī)范和習俗的形成。如果一個算法顯著地扭曲了我們對世界的看法,導致我們持有原本可能沒有的信念、擁有原本可能沒有的感覺、去做原本未預期的事,那么我們很難覺察到施加在我們身上的權力本質。這也意味著基于算法的過濾器,濾掉了對強權者進行必要審視的技術視角。正如,以協(xié)同過濾推薦為技術原理的算法搜索排序,雖然解決了市場信息過度泛濫和選擇困難等問題。但同時也將平臺企業(yè)的商業(yè)意圖滲入其中,其普遍應用抑制了消費者的自由選擇權,破壞了平等自由的市場環(huán)境,使自由交易演變成算法操控下的“服從實驗”。在可預見的未來,當集結算法推薦功能的智能私人管家一出現,人們自覺不自覺地會依賴,也更愿意被算法推薦套牢,以享受更加便捷效率的生活模式。這種看似個性化、便捷化的生活方式,不斷侵蝕著個人選擇權。即使算法在未來能更好地實現內容推送的多樣性、個性化,但只要人們把對信息的選擇權交給算法,讓算法替我們做決定,必將失去自主性與判斷力。[8]也就意味著未來我們感知世界將越來越多地由數字系統(tǒng)所揭示或隱藏的東西所決定,有時還受制于公共機構,當政治思想和個體感受交由技術構建和塑造的時候,很難說我們依然在“自主”“理性”地行動。
二是算法權力的技術驅動性對人的主體性異化。隨著算法技術結構的深化,“技術+資本”的無序擴張會將資本收益、技術發(fā)展作為主體目標,而忽視或輕視人作為技術發(fā)展的終極目標的價值,算法權力對人的主體性異化成為自然結果。數字時代,資本與技術的交融,強化了勞動者對平臺化組織的人身依附,以及強化了對勞動者的“技術性剝削”。如在外賣環(huán)節(jié),平臺企業(yè)為了滿足消費者對服務速度的要求,追求收益最大化,有意無意地運用算法控制外賣騎手接單后的行為。[9]事實上建構出“困在算法里”的勞動者,在這種權力運行的結構化體系中,外賣騎士并不具備相應的權益保障機制,自然也就無法有力抵制算法權力帶來的壓力,大多只能選擇服從,以自我盤剝的方式成為算法的“玩偶”,以適配算法權力“非人性”化的“理性”設計。
三是算法權力使用不當沖擊價值秩序。技術內嵌著特殊價值,亦如互聯(lián)網技術就在內嵌自由、平等、民主等價值的同時,也內嵌著等級、紀律和社會控制。[10]算法的個性化推薦、營銷、推送也涉及到隱含的經濟與價值導向,這些包含著算法設計者和擁有者價值觀的具體設計,潛移默化地影響著人們的思想觀念和價值偏好,塑造著人們的世界觀、價值觀、人生觀。一旦算法權力被組織或個人視為操縱意識形態(tài)的工具,那么將會引發(fā)意識形態(tài)失序。算法權力可以通過分析用戶的行為獲取其行為偏好,繼而迎合用戶偏好,造就因人而異因事而設的“信息繭房”,倘若該繭房意在構建或沖擊某種意識流,將構成對既有意識形態(tài)秩序的沖擊與挑戰(zhàn)。
首先,算法權力逃離技術邏輯約束沖擊科技倫理。技術的應用始終離不開技術倫理的約束。誠如,轉基因食品的培育以及基因編輯嬰兒一樣,前者一定程度上有助于糧食安全,但從其誕生之日起始終環(huán)繞著安全性質疑。后者通過對人類基因數據的靶向干預,以追求所謂的善意。但其不僅擾亂醫(yī)療衛(wèi)生秩序,又嚴重違背科研、醫(yī)學倫理。作為技術的算法,當其權力被當作實現利潤或達成特定目的的手段的時候,其迭代更新將面臨“逃離”技術邏輯而失控的風險。當算法權力在資本的催化下,被扭曲成為企業(yè)不正當競爭的工具,這種行為就放大了算法本身蘊含的安全風險。
其次,算法歧視與偏見弱化了大型科技公司的社會責任。從算法的設計來看,算法權力中立是個偽命題。若某算法被選為最佳或最有效,其設計和功能就反映設計者的價值偏好,算法設計者所持價值觀不經意地凝結于代碼中,并被算法權力擁有者有效制度化。[11]由私人企業(yè)操控的軟件,自動攜帶了許多不為人知的決斷和準則。這些未經檢驗的個人決斷和準則成為算法編寫的基礎,而這些原則的實踐又反過來影響價值觀和決策過程。應注意的是,那些由商業(yè)公司編寫的算法,其背后也符合公司追逐私利、創(chuàng)造商業(yè)利潤的邏輯和要求。[12]在這種追逐利益的邏輯之下,大數據殺熟、個人隱私泄露等現象頻頻出現,大型科技公司的社會責任會因算法權力功能性的失衡而處于相對真空狀態(tài)。
再者,政府決策對算法權力的依賴誘致問責困境。政府對算法權力的依賴有可能導致公共責任主體的模糊化。在數字社會,行政人員對算法權力的依賴日益加深,他們甚至不需要思考如何決策,而只需等待算法給予“最優(yōu)決策”。但算法只能按照指令代碼行事,尚不能理解其行為將帶來何種后果,也無法保證其“最優(yōu)決策”始終向善,而一旦出現破壞性后果,算法自主決策易導致行政人員利用權力轉移之機擺脫責任追究。同時又無法追究相關責任主體的責任,因為算法只是代碼,此時責任主體變得模糊不清,追究相關責任以維護公共利益面臨困境。[13]如英國女性乳腺癌篩查漏檢丑聞。由于名為“公共衛(wèi)生英格蘭”的醫(yī)療機構的計算機算法出現故障,導致從2009 年至2018 年,大約45 萬名英格蘭女性未能受邀接受乳腺癌篩查。受這一故障影響,估計有135 名至270 名女性因未能及早發(fā)現乳腺癌而死于該種疾病。關于此次“算法錯誤”究竟是怎么產生的,國家衛(wèi)生醫(yī)療系統(tǒng)、公共衛(wèi)生局以及負責維護軟件的日立咨詢公司三方互相“踢皮球”,造成問責困境。[14]
所有的政治秩序、權力秩序都是建立在協(xié)調、合作和控制的基礎之上的,缺少任一板塊,組織化的集體生活都是無法想象的。誠然,有序的權力關系是實現政治有序的基礎,而有效的權力制約是實現權力秩序的保障。[15]只是一般說來,算法太迅速、太復雜,也因其適應性、專業(yè)性太強而不易受到人們監(jiān)督,由此算法權力的秩序風險才逐漸累積?;诩夹g邏輯生長培育出的復合型權力機制,不同于以往農業(yè)時代、工業(yè)時代,甚至信息時代的權力結構與功能體系,其權力結構中的主客體角色具有轉換性,算法權力的資源稟賦也因算法鴻溝的存在,而呈現極度的不平衡不均衡。另外,在權力運行的過程之中也存在“技術逃逸”的自然沖動,事實上也會造成權責體系的不平衡、責任倫理的不均衡。由此,如何有效地識別與規(guī)避算法權力秩序的合法性風險,賴于有效整合與統(tǒng)籌上述諸端不平衡不均衡的環(huán)節(jié)。
一是統(tǒng)籌發(fā)展與安全,提升算法技術安全發(fā)展的均衡性。純粹的技術在現實中并不存在,所謂技術理性往往也是嵌套在特定的社會理性與政治理性的結構之上的。算法作為一種技術,其在權力關系與權力結構體系中的準公共權力屬性,決定著它的發(fā)展要考慮安全性需求。一方面,就發(fā)展應用而言,發(fā)展產生的問題需要可持續(xù)的發(fā)展來解決??v覽技術發(fā)展史,每一次技術的發(fā)展都伴隨著新的風險和不確定性。算法黑箱、算法誤差、算法歧視等問題,需要技術的持續(xù)演進與不斷創(chuàng)新來解決,以盡可能降低由技術缺陷而導致的負面影響。同時,著力培育與塑造人的主體性意識,增強抵御“算法霸權”的能力。面對數字時代的算法權力,我們既不可盲目接受,也不宜簡單否定。技術進步對人類社會究竟會產生何種影響,技術權力將會在何種程度上改變傳統(tǒng)的權力關系體系,歸根結底,取決于人們如何看待和使用這種技術,以及怎樣應對由此衍生的收益與風險。因而在算法權力面前,應著力提升公眾主體性的自覺意識、提高識別算法陷阱、抵御算法霸權的能力,避免在算法權力運行體系中迷失自我。
另一方面,就安全保障而言,通過算法倫理的構建,明確算法權力的“紅線”,健全算法權責體系。構建相對完備的算法倫理體系,并將之嵌入到算法設計和算法權力運行的全過程之中,以此明確算法權力的倫理底線,明確算法應用領域、應用程度,以及當出現濫用誤用錯用時,如何限制、如何規(guī)范、如何追責。
二是正視算法的逐權謀利,明確企業(yè)與行業(yè)責任擔當。一方面,尊重商業(yè)利益,鼓勵企業(yè)責任自律。企業(yè)是算法技術的主要設計者和擁有者,掌握著技術主動權,相較政府和公眾而言,“算法黑箱”對企業(yè)影響較小?;谶@種技術便利,企業(yè)應加強自律,主動承擔或促進算法透明與算法審查的進程。算法權力是數字時代平臺企業(yè)獲取利潤的強有力工具,它在資本加持下,成為市場“點金石”。這一過程中,算法權力的運作離不開數據的“喂養(yǎng)”,龐大的數據來源于無數數據主體對個人信息權利的有限讓渡。由此,企業(yè)不應忘記算法權力的本源,應兼顧商業(yè)利益與企業(yè)責任,保護消費者權益,在不觸及商業(yè)機密的前提下,推動算法公開透明,或者研發(fā)可解釋算法,主動破解“算法黑箱”難題,承擔社會責任,防止算法權力濫用和壟斷帶來的潛在風險。
另一方面,規(guī)范行業(yè)秩序,引入第三方監(jiān)督。當單一企業(yè)自律動機不足時,應發(fā)揮行業(yè)協(xié)會作用。由行業(yè)協(xié)會組織制定的算法行業(yè)標準,能夠擺脫特定產業(yè)集團、利益集團或大型科技公司的利益糾纏,實現研發(fā)者、生產者、消費者、使用者、監(jiān)督者以及其他社會各方權力與權益之間的相對平衡。2019 年中國互聯(lián)網金融協(xié)會向會員單位發(fā)布《關于增強個人信息保護意識依法開展業(yè)務的通知》,事實上就是通過行業(yè)規(guī)范的制定與頒布,對算法權力結構與功能體系之間的失衡進行規(guī)范與調節(jié),提升算法客體在面對算法主體時所享有的權力稟賦,以此制約與制衡潛在算法暴力的發(fā)生。另外,行業(yè)協(xié)會不僅可以吸納壟斷算法權力的龍頭或頭部公司,也可以團結算法競爭中處于相對弱勢的中小企業(yè)。中小型科技公司,往往具備技術創(chuàng)新的潛力,但不具備與大型科技跨國公司相抗衡的能力與條件,憑其自身力量難以打破市場既有格局的壟斷性、寡頭性。此時,行業(yè)協(xié)會所具有的監(jiān)督、協(xié)調功能,則可以通過對全行業(yè)的整合與規(guī)范引導,促成對算法寡頭的約束與規(guī)制。
三是促進算法權力監(jiān)管的同時,構建算法共治體系的權責平衡。一方面,推進算法權力的政府監(jiān)管。在算法運用前中后實施全過程監(jiān)管,監(jiān)管內容應包括但不局限于數據收集與挖掘、算法設計與應用、算法倫理與規(guī)范等。政府的有效監(jiān)管是構建穩(wěn)定權力秩序的必要條件,當代法律秩序正在向著以算法為中心的智能社會法律秩序轉型,原有的法律秩序逐漸無法應對算法權力帶來的治理赤字。[16]算法治理赤字的不斷攀升,致使算法濫用監(jiān)督乏力、算法技術合規(guī)滯后、算法約束機制缺失?,F實中,政府監(jiān)管部門在面對算法難題時,普遍采取部門約談、罰款罰沒、算法下架、停用推薦等手段進行規(guī)制,難免給予人們一種頭痛醫(yī)頭、腳痛醫(yī)腳的回應性監(jiān)管之感,其治理效能具有短期性與周期性,難言可持續(xù)性治理。因此,應在轉變觀念,特別是改變對確定性治理方略、對簡單性思維方式的偏好,要擁有匹配數字時代的復雜性治理思維,扭轉對不確定性風險的恐懼。未來技術的發(fā)展與迭代必然是幾何指數的,其復雜性與不確定是社會常態(tài),由此衍生與滋生的治理困頓,自然也兼具復雜性與不確定性,故而革新治理觀念首當其沖。
另一方面,在持續(xù)推進監(jiān)管型政府建設的同時,也應關注算法共治體系的必要性與可行性。技術的發(fā)展、企業(yè)的自律、個人的自覺、行業(yè)協(xié)會的引導、政府的監(jiān)管等在算法權力體系的構成、運行過程之中,分處不同環(huán)節(jié)、扮演不同角色,單一理性、單一層級、單一主體的治理都難言善治,需要構建基于自治、德治與法治三位一體融合的權力規(guī)制體系,推進算法共治。在技術理性的關照下規(guī)范算法權力運行的基礎,以行業(yè)自律、企業(yè)自治方式消解其潛藏的技術倫理風險。在市場理性的視角下謀劃算法權力的企業(yè)道德責任與倫理路徑,在監(jiān)視資本主義興起的背景下以德治的方式規(guī)范算法權力的使用。進而在政府治理的視角中構建與算法權力發(fā)展與應用相匹配的權力結構體系與監(jiān)督約束機制,實現權力結構與權力功能的均衡發(fā)展。以最大限度地發(fā)揮算法權力帶來的效率、效能與便捷,規(guī)避算法壟斷、算法濫權以及算法倫理缺位等權力秩序的合法性風險。