肖紅軍 商慧辰
隨著平臺(tái)商業(yè)化的逐步深入,大數(shù)據(jù)和人工智能技術(shù)的研發(fā)和應(yīng)用逐漸集中于大型平臺(tái)。數(shù)據(jù)、算法、算力相輔相成,在平臺(tái)的運(yùn)用下以顛覆性和變革性的節(jié)奏將我們帶入算法時(shí)代。擁有核心算法的大型平臺(tái)可以迅速獲知互聯(lián)網(wǎng)平臺(tái)用戶(hù)的信息和軌跡,對(duì)市場(chǎng)行情作出精準(zhǔn)判斷并輕松獲取市場(chǎng)競(jìng)爭(zhēng)優(yōu)勢(shì)地位。算法使得平臺(tái)在市場(chǎng)信息收集、用戶(hù)偏好判斷、資源配置優(yōu)化、交叉網(wǎng)絡(luò)外部性構(gòu)建等方面存在以往技術(shù)難以替代的計(jì)算優(yōu)勢(shì),算法成為驅(qū)動(dòng)平臺(tái)資本主義運(yùn)行的“內(nèi)燃機(jī)”。借助算法的力量,平臺(tái)與用戶(hù)和社會(huì)保持著看似“輕鏈接”的中立關(guān)系,平臺(tái)行為表面上是算法自動(dòng)化決策的結(jié)果,在運(yùn)行過(guò)程中卻因算法技術(shù)自身因素和平臺(tái)價(jià)值偏好引發(fā)系列算法失當(dāng)問(wèn)題。對(duì)于消費(fèi)者來(lái)說(shuō),基于用戶(hù)行為的推薦與過(guò)濾算法導(dǎo)致的個(gè)性化排名和差異化定價(jià),通過(guò)向用戶(hù)提供碎片化認(rèn)知操縱用戶(hù)軌跡,實(shí)現(xiàn)價(jià)格歧視,侵害消費(fèi)者福利;對(duì)于平臺(tái)競(jìng)爭(zhēng)業(yè)態(tài)來(lái)說(shuō),不僅平臺(tái)和企業(yè)自身可以通過(guò)算法壓制競(jìng)爭(zhēng)對(duì)手曝光度、排斥新進(jìn)入者,平臺(tái)之間、企業(yè)之間亦可以通過(guò)算法實(shí)現(xiàn)隱性或顯性合謀,損害市場(chǎng)公平競(jìng)爭(zhēng)環(huán)境。算法黑箱的存在以及各式各樣的算法歧視、算法合謀、算法霸權(quán)等算法失當(dāng)行為引發(fā)了學(xué)術(shù)界和業(yè)界對(duì)于平臺(tái)算法的信任危機(jī),針對(duì)平臺(tái)算法的監(jiān)管迫在眉睫。
平臺(tái)經(jīng)濟(jì)下的算法監(jiān)管引起了國(guó)內(nèi)外政府和社會(huì)的高度重視。一方面,關(guān)于普適性算法監(jiān)管的制度供給不斷涌現(xiàn)。2018年5月,歐盟全面施行《通用數(shù)據(jù)保護(hù)條例》,提供了有關(guān)算法自動(dòng)化決策的行為指南,以個(gè)體賦權(quán)為主要形式的算法治理路徑由此展開(kāi)。2021年4月,歐盟委員會(huì)公布了《關(guān)于“歐洲議會(huì)和理事會(huì)條例:制定人工智能的統(tǒng)一規(guī)則(人工智能法案)并修訂某些聯(lián)盟立法”的提案》,確立了算法應(yīng)用主體和政府在算法應(yīng)用過(guò)程中應(yīng)遵循的底線(xiàn)原則,并界定了基于風(fēng)險(xiǎn)等級(jí)的算法應(yīng)用場(chǎng)景。相應(yīng)地,美國(guó)于2017年12月簽署通過(guò)了美國(guó)立法史上第一個(gè)對(duì)公用事業(yè)領(lǐng)域算法進(jìn)行問(wèn)責(zé)的法案,即《算法問(wèn)責(zé)法案》;2019—2022年,美國(guó)立法者相繼提出并持續(xù)更新《算法責(zé)任法案》,旨在為軟件、算法和其他自動(dòng)化系統(tǒng)帶來(lái)新的透明度和監(jiān)督方式。中國(guó)近年來(lái)也愈加意識(shí)到算法監(jiān)管的重要性。2021年,《國(guó)務(wù)院反壟斷委員會(huì)關(guān)于平臺(tái)經(jīng)濟(jì)領(lǐng)域的反壟斷指南》《中華人民共和國(guó)個(gè)人信息保護(hù)法》《關(guān)于維護(hù)新就業(yè)形態(tài)勞動(dòng)者勞動(dòng)保障權(quán)益的指導(dǎo)意見(jiàn)》印發(fā),對(duì)算法自動(dòng)化決策亮起了“紅燈”,以保護(hù)用戶(hù)數(shù)據(jù)隱私,維護(hù)勞動(dòng)者權(quán)益;國(guó)家互聯(lián)網(wǎng)信息辦公室等部門(mén)聯(lián)合印發(fā)《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》,以加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理。另一方面,監(jiān)管機(jī)構(gòu)逐步認(rèn)識(shí)到平臺(tái)作為算法的設(shè)計(jì)者、擁有者和使用者的角色地位,針對(duì)平臺(tái)算法的制度供給進(jìn)入公共治理視野。2020年12月,歐盟委員會(huì)發(fā)布《數(shù)字市場(chǎng)法》與《數(shù)字服務(wù)法》提案,對(duì)其互聯(lián)網(wǎng)領(lǐng)域的規(guī)則進(jìn)行全面改革,構(gòu)建了網(wǎng)絡(luò)平臺(tái)特別是大型平臺(tái)的梯度算法責(zé)任體系。中國(guó)也于2021年逐步加強(qiáng)了針對(duì)平臺(tái)算法的制度規(guī)制。2021年10月,國(guó)家市場(chǎng)監(jiān)督管理總局公布《互聯(lián)網(wǎng)平臺(tái)落實(shí)主體責(zé)任指南(征求意見(jiàn)稿)》《互聯(lián)網(wǎng)平臺(tái)分類(lèi)分級(jí)指南(征求意見(jiàn)稿)》,推動(dòng)平臺(tái)企業(yè)落實(shí)其算法規(guī)制責(zé)任。同年12月,國(guó)家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國(guó)家市場(chǎng)監(jiān)督管理總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,將應(yīng)用算法推薦技術(shù)向用戶(hù)提供信息的算法推薦服務(wù)提供者特別是大型平臺(tái)作為算法治理對(duì)象。為響應(yīng)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,國(guó)家互聯(lián)網(wǎng)信息辦公室牽頭開(kāi)展“清朗·2022年算法綜合治理”專(zhuān)項(xiàng)行動(dòng),重點(diǎn)檢查具有較強(qiáng)輿論屬性或社會(huì)動(dòng)員能力的大型網(wǎng)站、平臺(tái)及產(chǎn)品,推動(dòng)算法綜合治理工作常態(tài)化和規(guī)范化。但是目前特別是國(guó)內(nèi)平臺(tái)算法監(jiān)管仍處于起步階段,針對(duì)平臺(tái)算法監(jiān)管的系統(tǒng)性研究不足,平臺(tái)算法監(jiān)管的邏輯起點(diǎn)尚未明晰,在如何達(dá)到適度的監(jiān)管強(qiáng)度與合意的監(jiān)管模式等方面仍存在一些爭(zhēng)議,平臺(tái)算法監(jiān)管仍存在較大的研究空間。
隨著平臺(tái)算法監(jiān)管實(shí)踐的不斷推進(jìn),理論界也在不斷探索平臺(tái)算法監(jiān)管的完備體系與理想模式?,F(xiàn)有對(duì)平臺(tái)算法監(jiān)管的研究集中于以下方面:其一,部分學(xué)者針對(duì)特定的平臺(tái)算法議題進(jìn)行研究,一方面重點(diǎn)關(guān)注平臺(tái)應(yīng)用算法推薦技術(shù)帶來(lái)的倫理學(xué)風(fēng)險(xiǎn),認(rèn)為算法推薦技術(shù)會(huì)逐步讓人類(lèi)社會(huì)陷入“技術(shù)拜物教”的泥潭,并相應(yīng)地提出了倫理風(fēng)險(xiǎn)治理方案;另一方面則關(guān)注平臺(tái)算法應(yīng)用帶來(lái)的社會(huì)經(jīng)濟(jì)議題及其治理方案,如從算法合謀的類(lèi)型、危害、治理方式,算法黑箱的成因、風(fēng)險(xiǎn)和規(guī)制方案,算法歧視的分類(lèi)、界定、治理模式等具體算法議題出發(fā),試圖剖析各類(lèi)危機(jī)產(chǎn)生的機(jī)制,探索危機(jī)治理方案。其二,另有一些研究重點(diǎn)關(guān)注平臺(tái)算法的特定應(yīng)用場(chǎng)景,如針對(duì)人工智能醫(yī)用軟件平臺(tái)、第三方支付平臺(tái)等算法應(yīng)用場(chǎng)景提出相應(yīng)的風(fēng)險(xiǎn)控制與算法治理方案。其三,學(xué)術(shù)界也開(kāi)始系統(tǒng)性關(guān)注平臺(tái)算法監(jiān)管模式、平臺(tái)算法監(jiān)管實(shí)現(xiàn)路徑等方面,對(duì)歐美以及中國(guó)的平臺(tái)算法監(jiān)管 體 系 進(jìn) 行 剖 析 和 梳 理,并 試 圖 從 法 律 規(guī)制、技術(shù)監(jiān)管以及協(xié)同治理等角度探索平臺(tái)算法監(jiān)管的理想方案。盡管學(xué)術(shù)界對(duì)于平臺(tái)算法監(jiān)管作出了多條路徑的積極探索,對(duì)平臺(tái)算法監(jiān)管具有重要的理論和實(shí)踐價(jià)值,但目前平臺(tái)算法監(jiān)管仍存在許多理論探索的空間,尤其是對(duì)平臺(tái)算法監(jiān)管的邏輯自洽性和全景式監(jiān)管模式的刻畫(huà),有必要進(jìn)一步進(jìn)行深入探究和討論。
探究平臺(tái)算法監(jiān)管的邏輯起點(diǎn),是為了明確平臺(tái)算法監(jiān)管的緊迫性、正當(dāng)性與自洽性,即回答為什么要針對(duì)平臺(tái)算法進(jìn)行監(jiān)管。平臺(tái)算法監(jiān)管的邏輯起點(diǎn)主要可以從技術(shù)邏輯、發(fā)展邏輯、現(xiàn)實(shí)邏輯和責(zé)任邏輯四個(gè)方面予以解讀。
現(xiàn)代計(jì)算機(jī)算法概念主要來(lái)自20世紀(jì)英國(guó)數(shù)學(xué)家圖靈提出的圖靈論題,即一種通過(guò)在無(wú)限長(zhǎng)的紙條上進(jìn)行打孔計(jì)算的計(jì)算機(jī)假象模型,算法則是這個(gè)計(jì)算機(jī)抽象模型解決不同問(wèn)題的不同方法和程序。隨著邁入人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法成為主流,其通過(guò)設(shè)定某些參數(shù)條件使計(jì)算機(jī)自動(dòng)生成算法,即“算法的算法”,逐漸類(lèi)似于人類(lèi)大腦學(xué)習(xí)的方式,從而使算法能夠自我改進(jìn)、自我學(xué)習(xí)、自我強(qiáng)化。具體到平臺(tái)情境,平臺(tái)算法作為平臺(tái)功能得以實(shí)現(xiàn)的技術(shù)載體,體現(xiàn)為人機(jī)交互的決策機(jī)制,而平臺(tái)算法監(jiān)管的正當(dāng)性恰好與算法在人機(jī)交互過(guò)程中是否中立的認(rèn)知密切相關(guān)。部分學(xué)者堅(jiān)持技術(shù)中性論,哈佛大學(xué)教授梅賽納的觀點(diǎn)即技術(shù)中性論的代表性觀點(diǎn),其認(rèn)為技術(shù)應(yīng)用的目的和其產(chǎn)生的經(jīng)濟(jì)社會(huì)影響,均與技術(shù)本身固有的性質(zhì)無(wú)關(guān),而與“人”通過(guò)技術(shù)來(lái)做什么事情緊密相關(guān),因此只需要對(duì)操作算法的“人”進(jìn)行監(jiān)管。但是,在人工智能技術(shù)成長(zhǎng)的各個(gè)階段,不可解釋性、不確定性、魯棒性較差等特征一直伴隨著算法的發(fā)展且從未被完全解決,算法難以在運(yùn)行中保持完全中立。
一方面,平臺(tái)內(nèi)算法黑箱的存在成為平臺(tái)算法社會(huì)問(wèn)題生成的內(nèi)生邏輯,平臺(tái)算法背后的決策邏輯難以進(jìn)行理解、預(yù)測(cè)和評(píng)估。某些時(shí)候,算法與云數(shù)據(jù)、深度學(xué)習(xí)等前沿技術(shù)結(jié)合后會(huì)帶來(lái)技術(shù)不確定性和不穩(wěn)定性,在算法自動(dòng)化決策運(yùn)行和資源配置過(guò)程中,算法歧視、算法權(quán)力擴(kuò)張等成為算法運(yùn)行過(guò)程中內(nèi)生的技術(shù)隱憂(yōu),并在深度學(xué)習(xí)中不斷加強(qiáng)和固化,最終造成難以察覺(jué)、預(yù)測(cè)和糾正的惡性經(jīng)濟(jì)社會(huì)影響。另一方面,盡管技術(shù)本身是自由的、中立的、去中心化的,在當(dāng)前平臺(tái)應(yīng)用情境下,算法可以通過(guò)系列指令產(chǎn)生自動(dòng)化決策邏輯,自由地對(duì)平臺(tái)內(nèi)數(shù)據(jù)流和信息流進(jìn)行處理。但處于弱人工智能發(fā)展階段的算法僅具有“異質(zhì)自治權(quán)”,這一能力是在一定范圍之內(nèi)為算法提供最高程度的決策自由,而非無(wú)限自治權(quán),其決策過(guò)程中仍然隱含承載著平臺(tái)的價(jià)值觀和主觀決策意圖,這種主觀決策意圖偏見(jiàn)可能來(lái)自編程者無(wú)意識(shí)的編入,也可能來(lái)自輸入數(shù)據(jù)自身反映的社會(huì)偏見(jiàn)??傊?,隨著資本力量的介入,算法和技術(shù)的可規(guī)制性、中心化程度會(huì)越來(lái)越強(qiáng)。以上問(wèn)題的出現(xiàn)主要源于技術(shù)理性的內(nèi)在悖論,技術(shù)理性可劃分為工具理性與價(jià)值理性?xún)蓚€(gè)維度,而平臺(tái)算法作為技術(shù)與平臺(tái)、用戶(hù)互動(dòng)的產(chǎn)物,其在運(yùn)行過(guò)程中必然會(huì)納入“人”的價(jià)值和需要。若價(jià)值理性克服工具理性,則會(huì)催生算法“技術(shù)向善”,技術(shù)發(fā)展和應(yīng)用逐步契合于人類(lèi)社會(huì)的總體價(jià)值取向;一旦平臺(tái)內(nèi)部以經(jīng)濟(jì)目標(biāo)主導(dǎo)的經(jīng)濟(jì)邏輯相對(duì)于社會(huì)邏輯占據(jù)主導(dǎo)地位,工具理性占上風(fēng),算法設(shè)計(jì)應(yīng)用過(guò)程就傾向于將算法視為牟利工具,算法失當(dāng)行為可能就會(huì)出現(xiàn),催生出社會(huì)公平正義被破壞、個(gè)體權(quán)利不對(duì)稱(chēng)、倫理行為異化等社會(huì)風(fēng)險(xiǎn)。平臺(tái)算法在數(shù)學(xué)計(jì)算指令中隱藏著來(lái)自技術(shù)自身、輸入的數(shù)據(jù)或者平臺(tái)賦予的價(jià)值偏好和價(jià)值歧視,導(dǎo)致價(jià)值理性與工具理性?xún)纱缶S度之間的固有矛盾成為平臺(tái)算法運(yùn)行難以保持中立的重要原因。因此,對(duì)算法進(jìn)行監(jiān)管,對(duì)保證平臺(tái)算法決策結(jié)果的合意性和平臺(tái)運(yùn)行的穩(wěn)定性具有重要意義。
隨著計(jì)算機(jī)編程語(yǔ)言不斷豐富,算法應(yīng)用場(chǎng)景也逐漸從信息傳播擴(kuò)散至自動(dòng)駕駛、虛擬現(xiàn)實(shí)、區(qū)塊鏈、公共管理等多重領(lǐng)域。社會(huì)分工的存在更使得算法研發(fā)呈現(xiàn)分散、便捷、多樣化等特征。算法的可得性逐漸增強(qiáng),相應(yīng)地,其運(yùn)行過(guò)程中的衍生風(fēng)險(xiǎn)也逐漸增長(zhǎng)。由于算法的應(yīng)用而產(chǎn)生的算法風(fēng)險(xiǎn)則開(kāi)始從特定的算法應(yīng)用開(kāi)發(fā)者和網(wǎng)絡(luò)平臺(tái)逐步分散至獨(dú)立的算法研發(fā)專(zhuān)業(yè)人員以及利用算法模型進(jìn)行訓(xùn)練的算法用戶(hù)。甚至在沒(méi)有商業(yè)資質(zhì)的情況下,算法的研發(fā)和應(yīng)用依然可以被迅速搭建。平臺(tái)算法風(fēng)險(xiǎn)不僅來(lái)自平臺(tái)經(jīng)營(yíng)者本身,而且來(lái)源于在平臺(tái)之上應(yīng)用算法的分散式的算法開(kāi)發(fā)者,爬蟲(chóng)算法以及各類(lèi)信息技術(shù)知識(shí)社區(qū)的存在使得平臺(tái)算法風(fēng)險(xiǎn)范圍進(jìn)一步擴(kuò)大。
在深度學(xué)習(xí)領(lǐng)域,基于人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜層級(jí)使得輸入數(shù)據(jù)與輸出結(jié)果之間存在監(jiān)管審計(jì)機(jī)構(gòu)、社會(huì)公眾甚至開(kāi)發(fā)人員難以觸摸和理解的“黑箱”,算法技術(shù)開(kāi)發(fā)設(shè)計(jì)、系統(tǒng)數(shù)據(jù)輸入、平臺(tái)算法部署、算法自動(dòng)化決策、決策結(jié)果輸出等任一環(huán)節(jié)的缺陷都會(huì)引發(fā)難以估計(jì)和預(yù)測(cè)的系統(tǒng)風(fēng)險(xiǎn)。平臺(tái)在算法技術(shù)層、算法基礎(chǔ)層、算法結(jié)果層之間分別產(chǎn)生技術(shù)類(lèi)風(fēng)險(xiǎn)、數(shù)據(jù)類(lèi)風(fēng)險(xiǎn)、決策類(lèi)風(fēng)險(xiǎn),三個(gè)層次之間相互依存、相互傳導(dǎo)。此外,算法設(shè)計(jì)運(yùn)行的邏輯逐漸隱于暗處,表現(xiàn)出不可知性,體現(xiàn)為決策結(jié)果的算法外延與通過(guò)程序代碼和內(nèi)在計(jì)算過(guò)程實(shí)現(xiàn)的算法內(nèi)核逐步分離,算法運(yùn)行目的的隱蔽性逐漸增強(qiáng)。而對(duì)于平臺(tái)運(yùn)行內(nèi)在機(jī)理的監(jiān)管需要極高的技術(shù)水平和專(zhuān)業(yè)知識(shí),當(dāng)算法決策變得不可解釋時(shí),決策結(jié)果將會(huì)面臨質(zhì)疑,算法決策將會(huì)變得失控,算法信任將會(huì)面臨危機(jī)。例如,在司法或者醫(yī)療領(lǐng)域,一旦算法決策產(chǎn)生的結(jié)果無(wú)法通過(guò)現(xiàn)有認(rèn)知進(jìn)行解釋?zhuān)渌a(chǎn)生的司法判決或醫(yī)療診斷就難以令人信服,平臺(tái)算法的權(quán)威性就會(huì)受到挑戰(zhàn)。
更進(jìn)一步地,發(fā)展至宏觀層面,算法黑箱、算法失當(dāng)可能會(huì)產(chǎn)生扭曲消費(fèi)者決策、損害市場(chǎng)競(jìng)爭(zhēng)、影響收入分配功能等經(jīng)濟(jì)性風(fēng)險(xiǎn),以及侵犯?jìng)€(gè)人隱私、引發(fā)社會(huì)歧視、甚至損害生命健康和危害公共安全等社會(huì)性問(wèn)題。因此,當(dāng)人工智能發(fā)展逐步深化、算法應(yīng)用場(chǎng)景逐步多元化、算法開(kāi)發(fā)應(yīng)用逐步分散化、深度學(xué)習(xí)模式逐漸隱蔽化時(shí),為防止算法在發(fā)展過(guò)程中產(chǎn)生更多的技術(shù)、數(shù)據(jù)、決策類(lèi)風(fēng)險(xiǎn),就有必要厘清算法風(fēng)險(xiǎn)轉(zhuǎn)化條件和轉(zhuǎn)化邏輯,針對(duì)算法全生命周期建立完善的縱向監(jiān)管機(jī)制,不僅對(duì)算法失當(dāng)行為進(jìn)行糾偏,而且對(duì)算法權(quán)力的過(guò)度膨脹進(jìn)行約束,以防止算法在發(fā)展過(guò)程中擴(kuò)大衍生風(fēng)險(xiǎn)。
國(guó)內(nèi)算法監(jiān)管實(shí)踐仍聚焦于對(duì)算法應(yīng)用的開(kāi)發(fā)者及平臺(tái)進(jìn)行規(guī)制,算法監(jiān)管的假定對(duì)象主要還是提供信息科技及互聯(lián)網(wǎng)服務(wù)的平臺(tái)企業(yè)。但是,隨著算法在商業(yè)社會(huì)生活的深度嵌入,平臺(tái)算法的自動(dòng)化運(yùn)行可能會(huì)產(chǎn)生“責(zé)任鴻溝”?!柏?zé)任鴻溝”這一概念于2004年由安德利亞斯·馬提亞提出,即算法可以進(jìn)行自主學(xué)習(xí)和自動(dòng)決策,使得算法技術(shù)的設(shè)計(jì)開(kāi)發(fā)者、部署應(yīng)用者和擁有者無(wú)法預(yù)測(cè)算法運(yùn)行后果,個(gè)體無(wú)法對(duì)技術(shù)產(chǎn)生足夠的控制權(quán),即個(gè)體與算法運(yùn)行過(guò)錯(cuò)結(jié)果之間存在“責(zé)任鴻溝”。
一是問(wèn)責(zé)機(jī)制模糊。盡管《中華人民共和國(guó)個(gè)人信息保護(hù)法》《關(guān)于維護(hù)新就業(yè)形態(tài)勞動(dòng)者勞動(dòng)保障權(quán)益的指導(dǎo)意見(jiàn)》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等均規(guī)定平臺(tái)算法服務(wù)提供者承擔(dān)維護(hù)用戶(hù)合法權(quán)益、保護(hù)用戶(hù)數(shù)據(jù)信息安全、保證消費(fèi)者公平交易等責(zé)任,但由于平臺(tái)始終躲在所謂“算法中立”的掩體之后,平臺(tái)通過(guò)算法的底層邏輯捕獲數(shù)據(jù)、吸引流量,算法為平臺(tái)充分實(shí)施交易市場(chǎng)規(guī)則以及各類(lèi)市場(chǎng)主體之間的鏈接規(guī)則提供了技術(shù)支持,在平臺(tái)交易界面內(nèi),傳統(tǒng)的生產(chǎn)、消費(fèi)、分配等過(guò)程中的中間環(huán)節(jié)被消解,這為平臺(tái)利用算法自動(dòng)化決策逃脫監(jiān)管的牢籠提供了可能。在算法自動(dòng)化決策運(yùn)行機(jī)制下,當(dāng)自動(dòng)化決策的結(jié)果占主導(dǎo)地位而削弱人的主導(dǎo)性時(shí),“機(jī)器”而非“人”的過(guò)錯(cuò)的論調(diào)甚囂塵上。此外,算法引發(fā)的危機(jī)可能不僅僅由平臺(tái)引發(fā),而是由算法、數(shù)據(jù)、平臺(tái)相互聯(lián)結(jié)而產(chǎn)生的結(jié)果。因此,平臺(tái)主觀過(guò)錯(cuò)認(rèn)定機(jī)制模糊不清的問(wèn)題在人工智能時(shí)代進(jìn)一步加劇,平臺(tái)監(jiān)管下問(wèn)責(zé)機(jī)制的完善面臨著挑戰(zhàn)。
二是監(jiān)管節(jié)點(diǎn)滯后。由于平臺(tái)運(yùn)行過(guò)程中難以對(duì)其不同責(zé)任主體進(jìn)行責(zé)任認(rèn)定,針對(duì)平臺(tái)的監(jiān)管往往會(huì)產(chǎn)生監(jiān)管節(jié)點(diǎn)滯后的問(wèn)題。監(jiān)管機(jī)構(gòu)只能從其決策結(jié)果導(dǎo)致的危害程度和危害范圍對(duì)平臺(tái)進(jìn)行事后懲罰,平臺(tái)監(jiān)管淪為“被動(dòng)監(jiān)管”“運(yùn)動(dòng)性執(zhí)法”,以致不僅難以達(dá)到事前監(jiān)管的預(yù)防效果,而且會(huì)因監(jiān)管無(wú)效削弱監(jiān)管機(jī)構(gòu)的權(quán)威性。
三是監(jiān)管機(jī)制粗淺。由于單純的平臺(tái)監(jiān)管難以摸清平臺(tái)算法的運(yùn)行機(jī)制,算法所特有的不透明性和隱蔽性導(dǎo)致社會(huì)公眾難以理解平臺(tái)運(yùn)行的內(nèi)部邏輯,平臺(tái)算法技術(shù)的高度隱蔽性以及算法技術(shù)知識(shí)的高度專(zhuān)業(yè)化導(dǎo)致社會(huì)用戶(hù)在面對(duì)平臺(tái)算法技術(shù)的各類(lèi)歧視行為、算法霸權(quán)行為、算法壟斷行為時(shí)難以清晰觀察,尤其是在平臺(tái)個(gè)性化推薦與機(jī)器學(xué)習(xí)算法驅(qū)動(dòng)下能夠?qū)崿F(xiàn)社會(huì)用戶(hù)的三級(jí)價(jià)格歧視,且社會(huì)公眾由于知識(shí)距離以及信息不完全等造成社會(huì)治理失靈,甚至可能會(huì)產(chǎn)生其聚焦點(diǎn)與問(wèn)題點(diǎn)的社會(huì)治理錯(cuò)位、社會(huì)期望過(guò)分?jǐn)U張、社會(huì)訴求超過(guò)平臺(tái)企業(yè)釋能邊界的治理過(guò)度問(wèn)題。因此,在監(jiān)管過(guò)程中可能會(huì)出現(xiàn)“一刀切”、野蠻式監(jiān)管,即過(guò)度強(qiáng)化平臺(tái)的主體責(zé)任和社會(huì)責(zé)任,忽略算法運(yùn)行的一般規(guī)則,人為拓寬平臺(tái)的責(zé)任邊界,以致監(jiān)管過(guò)度,扼殺平臺(tái)經(jīng)濟(jì)發(fā)展的活力,進(jìn)而給平臺(tái)經(jīng)濟(jì)發(fā)展帶來(lái)較大的負(fù)面影響。
總之,“責(zé)任鴻溝”的出現(xiàn)導(dǎo)致平臺(tái)監(jiān)管存在問(wèn)責(zé)機(jī)制模糊、監(jiān)管節(jié)點(diǎn)滯后、監(jiān)管機(jī)制粗淺三大問(wèn)題。平臺(tái)監(jiān)管難以實(shí)現(xiàn)對(duì)算法失當(dāng)行為和責(zé)任缺失行為的有效監(jiān)管,針對(duì)平臺(tái)運(yùn)行的底層技術(shù)邏輯“平臺(tái)算法”的監(jiān)管迫在眉睫。
平臺(tái)企業(yè)控制著不可替代的核心算法,將平臺(tái)各個(gè)模塊嵌入由平臺(tái)企業(yè)制定規(guī)則與提供交易服務(wù)的平臺(tái)之上,平臺(tái)雙邊用戶(hù)成為算法邏輯下的具體參數(shù)且被全面數(shù)據(jù)化。從技術(shù)角度出發(fā),平臺(tái)企業(yè)履行社會(huì)責(zé)任的過(guò)程本質(zhì)上是以數(shù)字智能技術(shù)為底層技術(shù)支撐,通過(guò)大數(shù)據(jù)建構(gòu)、算法創(chuàng)新以及平臺(tái)服務(wù)界面等實(shí)現(xiàn)商業(yè)運(yùn)作與社會(huì)運(yùn)作,形成算法、技術(shù)驅(qū)動(dòng)的社會(huì)責(zé)任履責(zé)模式。
2021年9月,中國(guó)發(fā)布《新一代人工智能倫理規(guī)范》,將“增進(jìn)人類(lèi)福祉”列為人工智能的首要原則,提出了增進(jìn)人類(lèi)福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)六項(xiàng)基本倫理要求?!稊?shù)據(jù)安全法》第二十八條規(guī)定:數(shù)據(jù)新技術(shù)研究開(kāi)發(fā),要“有利于促進(jìn)經(jīng)濟(jì)社會(huì)發(fā)展,增進(jìn)人民福祉”。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》提出,算法推薦服務(wù)提供者應(yīng)當(dāng)堅(jiān)持主流價(jià)值導(dǎo)向,積極傳播正能量,促進(jìn)算法應(yīng)用向上向善。隨著人工智能的發(fā)展和機(jī)器學(xué)習(xí)的深化,人工智能算法深度應(yīng)用的平臺(tái)企業(yè)逐步成為數(shù)智經(jīng)濟(jì)時(shí)代下履行社會(huì)責(zé)任的主要經(jīng)濟(jì)載體,在數(shù)據(jù)、算力和算法的加持下,互聯(lián)網(wǎng)平臺(tái)在國(guó)民經(jīng)濟(jì)體系中的經(jīng)濟(jì)重要主體地位、資源配置能力和社會(huì)責(zé)任履責(zé)能力愈發(fā)凸顯。
平臺(tái)企業(yè)在“算法管理”過(guò)程中,通過(guò)算法這一底層技術(shù)對(duì)平臺(tái)用戶(hù)所需的信息進(jìn)行分類(lèi)、篩選、組合,并根據(jù)平臺(tái)用戶(hù)和多維利益相關(guān)方的需求在平臺(tái)上對(duì)財(cái)力、人力等資源進(jìn)行跨區(qū)域的分配與安排,這一算法管理行為就是使算法由抽象的數(shù)學(xué)概念走向具體實(shí)際應(yīng)用的過(guò)程,其目的是實(shí)現(xiàn)資源、信息最優(yōu)配置,創(chuàng)造社會(huì)福祉。但在平臺(tái)算法自動(dòng)化決策過(guò)程中,可能會(huì)造成平臺(tái)用戶(hù)個(gè)人隱私泄露升級(jí),因群體偏見(jiàn)、種族偏見(jiàn)而造成就業(yè)歧視加劇等算法歧視,還會(huì)使得平臺(tái)從業(yè)者因被算法支配而過(guò)度勞動(dòng)、工作自主權(quán)受限。在算法的工具主義導(dǎo)向驅(qū)動(dòng)下,平臺(tái)可能會(huì)偏離其社會(huì)責(zé)任使命,產(chǎn)生算法責(zé)任的缺失與異化問(wèn)題。而算法黑箱的存在使得各利益相關(guān)方和監(jiān)管機(jī)構(gòu)被所謂“自主性”運(yùn)行和決策欺騙,難以識(shí)別算法技術(shù)異化的內(nèi)在機(jī)理和引發(fā)的社會(huì)責(zé)任問(wèn)題。平臺(tái)算法作為平臺(tái)企業(yè)獲取用戶(hù)數(shù)據(jù),與用戶(hù)、社區(qū)等多元利益相關(guān)方進(jìn)行互動(dòng)的“代理者”,需要將社會(huì)責(zé)任融入自身,構(gòu)建負(fù)責(zé)任的平臺(tái)算法成為構(gòu)建負(fù)責(zé)任的平臺(tái)企業(yè)的關(guān)鍵。為防止平臺(tái)企業(yè)社會(huì)責(zé)任異化,亟須對(duì)平臺(tái)算法本身及其設(shè)計(jì)開(kāi)發(fā)、部署應(yīng)用、決策過(guò)程,以及算法在平臺(tái)經(jīng)濟(jì)領(lǐng)域的擴(kuò)張進(jìn)行監(jiān)管,將算法責(zé)任納入企業(yè)社會(huì)責(zé)任認(rèn)知、實(shí)踐與監(jiān)管框架之內(nèi),保證平臺(tái)算法決策對(duì)社會(huì)負(fù)責(zé)任。
建立合意性的平臺(tái)算法監(jiān)管模式,需要厘清目前平臺(tái)算法監(jiān)管中存在的問(wèn)題和面臨的困境,并予以針對(duì)性破解。在此,基于對(duì)平臺(tái)監(jiān)管邏輯起點(diǎn)的討論,剖析現(xiàn)有平臺(tái)算法監(jiān)管過(guò)程中存在的監(jiān)管認(rèn)知的非對(duì)稱(chēng)性、監(jiān)管對(duì)象的分散性以及監(jiān)管重點(diǎn)的不確定性三類(lèi)挑戰(zhàn)。
實(shí)現(xiàn)多方協(xié)同有效監(jiān)管,需要建立清晰且一致的監(jiān)管認(rèn)知,而目前平臺(tái)監(jiān)管過(guò)程中存在兩類(lèi)認(rèn)知非對(duì)稱(chēng)性,分別是不同認(rèn)知主體之間的監(jiān)管認(rèn)知非對(duì)稱(chēng)性以及抽象的法律與清晰的算法之間的非對(duì)稱(chēng)性,不同認(rèn)知主體之間的非對(duì)稱(chēng)性又包括不同監(jiān)管主體之間的認(rèn)知非對(duì)稱(chēng)性和監(jiān)管主體與平臺(tái)之間的認(rèn)知非對(duì)稱(chēng)性。
第一類(lèi)是不同認(rèn)知主體之間存在的非對(duì)稱(chēng)性。目前,平臺(tái)監(jiān)管主體主要可以劃分為政府機(jī)構(gòu)、行業(yè)協(xié)會(huì)、社會(huì)公眾、用戶(hù)等利益相關(guān)者,不同監(jiān)管主體的知識(shí)水平、政治站位、技術(shù)儲(chǔ)備存在差異,因而對(duì)于算法監(jiān)管的認(rèn)知也不盡相同。在監(jiān)管過(guò)程中,外部技術(shù)專(zhuān)家關(guān)注算法技術(shù)本身的技術(shù)風(fēng)險(xiǎn)稽核,政府和行業(yè)協(xié)會(huì)等關(guān)注算法可能帶來(lái)的法律風(fēng)險(xiǎn)和社會(huì)風(fēng)險(xiǎn),平臺(tái)用戶(hù)則關(guān)注自身福利等是否受到侵害。即使監(jiān)管目標(biāo)在經(jīng)濟(jì)、社會(huì)、環(huán)境問(wèn)題上達(dá)成一致,對(duì)算法的不同認(rèn)知也會(huì)使得不同監(jiān)管主體表現(xiàn)出不同的監(jiān)管思路。多方之間自說(shuō)自話(huà),不同主體之間對(duì)于治理的理解和方式存在錯(cuò)位,導(dǎo)致監(jiān)管注意力和監(jiān)管資源的不合理配置。此外,平臺(tái)與各監(jiān)管主體之間也難以在算法監(jiān)管上達(dá)成協(xié)同,這種矛盾主要來(lái)源于算法黑箱的存在。算法本身具有的高度技術(shù)復(fù)雜性和專(zhuān)業(yè)性,而出于商業(yè)機(jī)密保護(hù)或者逃脫監(jiān)管制裁的考慮,算法技術(shù)沒(méi)有辦法達(dá)到完全透明,信息的不對(duì)稱(chēng)使得平臺(tái)監(jiān)管主體相較于平臺(tái)而言處于劣勢(shì)地位,難以對(duì)平臺(tái)算法運(yùn)算步驟、技術(shù)原理和評(píng)價(jià)指標(biāo)進(jìn)行深入探究。因此,如何把不同監(jiān)管主體放到同一交流框架之下,并產(chǎn)生一致的監(jiān)管認(rèn)知,成為目前平臺(tái)監(jiān)管模式達(dá)成多方協(xié)同的重要前提。
第二類(lèi)是抽象的法律與清晰的算法之間存在的非對(duì)稱(chēng)性。算法顧名思義,即“計(jì)算方法”,盡管機(jī)器學(xué)習(xí)和深度學(xué)習(xí)使得算法運(yùn)行邏輯陷入黑箱之中,但其本質(zhì)上是一種固定的“輸入—輸出”機(jī)制。從價(jià)值導(dǎo)向來(lái)看,算法的設(shè)計(jì)者幾乎完全被“價(jià)值無(wú)涉”的保護(hù)傘所掩護(hù),能夠在追求“算得更好、算得更快”的過(guò)程中探索、認(rèn)知和運(yùn)用計(jì)算規(guī)律,而法律則需要持續(xù)回應(yīng)平臺(tái)自身、社會(huì)公眾以及其他利益相關(guān)方的價(jià)值訴求,反而體現(xiàn)出與計(jì)算方式幾乎無(wú)關(guān)的話(huà)語(yǔ)體系。具體而言,就是法律將具有濃厚價(jià)值意義的經(jīng)濟(jì)、社會(huì)和環(huán)境效益視為目標(biāo)立法,而算法可能在工具理性主義下將其視為盈利手段,目標(biāo)與手段在監(jiān)管過(guò)程中形成沖突和僵持,可能走向傷害平臺(tái)活力或者法律完全失效的極端。從計(jì)算方法來(lái)看,盡管法律也具有算法提高認(rèn)知效率的特征,但法律難以像算法一樣將所有的社會(huì)問(wèn)題轉(zhuǎn)化為計(jì)算問(wèn)題,越是價(jià)值和行為難以進(jìn)行客觀界定,法律的規(guī)定就越抽象,對(duì)具有明確計(jì)算方法論的算法的立法規(guī)制就越?jīng)]有針對(duì)性。算法開(kāi)發(fā)和應(yīng)用主體在這類(lèi)法律規(guī)制下,可能無(wú)法對(duì)如何進(jìn)行改善和自我管理產(chǎn)生清晰認(rèn)知,也可能會(huì)在模糊的法律制度下產(chǎn)生為自己開(kāi)脫于法律制裁的投機(jī)行為,以致算法監(jiān)管難以落地。
從監(jiān)管過(guò)程來(lái)看,目前平臺(tái)監(jiān)管陷入事前監(jiān)管不足、算法追責(zé)困難的窘境?,F(xiàn)有的平臺(tái)算法監(jiān)管的設(shè)計(jì)思路始終遵循“主體—行為—責(zé)任”的監(jiān)管思路,而忽略了平臺(tái)算法固有的技術(shù)邏輯,因而始終將平臺(tái)算法的規(guī)制對(duì)象定位于擁有和使用算法的平臺(tái)企業(yè)上。與之相反,由于計(jì)算機(jī)語(yǔ)言的不斷擴(kuò)張和算法應(yīng)用場(chǎng)景的極大豐富,算法的研發(fā)呈現(xiàn)來(lái)源更加分散、資源獲取更加便捷、風(fēng)險(xiǎn)形式更為多樣化的特征,僅僅對(duì)平臺(tái)的算法部署和決策結(jié)果進(jìn)行事后懲罰已經(jīng)難以滿(mǎn)足對(duì)日益發(fā)展變化的技術(shù)的規(guī)制。盡管目前關(guān)于算法備案制度、算法結(jié)果評(píng)估制度、算法監(jiān)管科技的呼聲日漲,但算法安全風(fēng)險(xiǎn)監(jiān)測(cè)、算法安全評(píng)估、科技倫理審查、算法備案管理等事前監(jiān)管的具體措施仍處于模糊定義階段,政策導(dǎo)向下缺乏明確的行動(dòng)指南,使得行政監(jiān)管機(jī)構(gòu)在實(shí)行事前監(jiān)管時(shí)僅具有朦朧的方向感而無(wú)法落地,最終還是陷入“一刀切”式監(jiān)管模式。
事前監(jiān)管的缺失,難免會(huì)導(dǎo)致事后問(wèn)責(zé)機(jī)制的缺陷。一方面,事前監(jiān)管的缺失使得在事后懲罰面臨平臺(tái)企業(yè)“技術(shù)中立”“算法黑箱”的抗辯時(shí)而難以實(shí)施。從1984的“環(huán)球影業(yè)訴索尼案”到2016年的快播案,“平臺(tái)無(wú)罪,研究開(kāi)發(fā)平臺(tái)的技術(shù)無(wú)罪”的論點(diǎn)備受平臺(tái)推崇。盡管目前關(guān)于技術(shù)中立的論斷幾乎已經(jīng)消失于廣大群眾的道德倫理環(huán)境之中,但這并不影響平臺(tái)可以借此在法庭上以“技術(shù)不可恥”的論調(diào)為自己進(jìn)行開(kāi)脫。特別地,隨著算法的深入發(fā)展,技術(shù)的可解釋性難度越來(lái)越大,或許是由于歷史數(shù)據(jù)的偏差,也或許是由于技術(shù)的缺漏,算法本身就可能作出歧視性的、錯(cuò)誤的自動(dòng)化決策,在事前監(jiān)管難以完善的監(jiān)管環(huán)境下,以高級(jí)的自動(dòng)化決策標(biāo)榜自身的平臺(tái)算法會(huì)走向不透明、不解釋、難審查、難改正的囚籠之中,學(xué)者稱(chēng)其為“算法暴政”。另一方面,毫無(wú)技術(shù)依據(jù)的平臺(tái)監(jiān)管處罰結(jié)果會(huì)導(dǎo)致監(jiān)管機(jī)構(gòu)公信力下降,平臺(tái)企業(yè)可能會(huì)為此承擔(dān)本不應(yīng)擔(dān)責(zé)的處罰,出現(xiàn)“政府監(jiān)管軟弱、平臺(tái)受罰委屈、公眾盲目同情”的不良后果。平臺(tái)自身可能承擔(dān)更為沉重的對(duì)算法技術(shù)進(jìn)行私人審查的義務(wù),使其在數(shù)據(jù)運(yùn)用和決策過(guò)程中畏首畏尾,為平臺(tái)經(jīng)濟(jì)的發(fā)展增添負(fù)擔(dān)。因此,目前亟須完善平臺(tái)經(jīng)濟(jì)發(fā)展的全過(guò)程監(jiān)管模式,特別是要補(bǔ)足事前監(jiān)管的漏洞,推進(jìn)監(jiān)管模式與算法技術(shù)的協(xié)同發(fā)展,防范監(jiān)管落后于技術(shù)發(fā)展帶來(lái)的各類(lèi)風(fēng)險(xiǎn)。
數(shù)字經(jīng)濟(jì)時(shí)代下,算法正以前所未有的深度和廣度涉入經(jīng)濟(jì)社會(huì)生活,特別是大數(shù)據(jù)和人工智能的發(fā)展使得算法得以突破“波蘭尼悖論”,明確編碼的決策系統(tǒng)也不再存在功能限制,算法可以實(shí)現(xiàn)自我學(xué)習(xí)、自我更新、自我發(fā)展。由此,算法的大面積應(yīng)用是不可避免的,平臺(tái)成為算法應(yīng)用的重要主體,算法監(jiān)管也在不同行業(yè)的平臺(tái)經(jīng)濟(jì)中全面鋪開(kāi)。在目前監(jiān)管政策處于試水階段、監(jiān)管資源有限的前提下,只有厘清監(jiān)管重點(diǎn)和監(jiān)管優(yōu)先級(jí),形成完整性、體系性的監(jiān)管框架,才能避免“大而不細(xì)”“泛而不精”的監(jiān)管誤區(qū)。目前,從我國(guó)平臺(tái)算法監(jiān)管體系來(lái)看,仍然存在監(jiān)管政策重點(diǎn)不明、監(jiān)管目標(biāo)模糊、監(jiān)管措施難以落地等監(jiān)管困境。
2021年9月,國(guó)家互聯(lián)網(wǎng)信息辦公室等九部門(mén)印發(fā)的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》從健全算法安全治理機(jī)制、構(gòu)建算法安全監(jiān)管體系、促進(jìn)算法生態(tài)規(guī)范發(fā)展三個(gè)方面搭建了算法監(jiān)管的整體框架,并規(guī)定了算法備案、算法監(jiān)督檢查、算法風(fēng)險(xiǎn)監(jiān)測(cè)、算法安全評(píng)估四項(xiàng)具體舉措。但是,自該文件出臺(tái)以來(lái),實(shí)踐過(guò)程中的法律政策規(guī)制更多依賴(lài)于社會(huì)響應(yīng)來(lái)確定監(jiān)管對(duì)象和規(guī)制邊界。如2022年3月正式出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》以及為落實(shí)該項(xiàng)規(guī)定而開(kāi)展的“清朗·2022年算法綜合治理”專(zhuān)項(xiàng)行動(dòng),雖在算法治理上具有前瞻性和探索性地位,對(duì)于平臺(tái)經(jīng)濟(jì)業(yè)態(tài)的健康發(fā)展具有積極作用,但其治理效果在于打破精準(zhǔn)推薦服務(wù)帶來(lái)的“信息繭房”“回聲室效應(yīng)”,主要回應(yīng)了社會(huì)上對(duì)“大數(shù)據(jù)監(jiān)控”“數(shù)據(jù)資本化”不滿(mǎn)的呼聲。盡管其一定程度上填補(bǔ)了社會(huì)公眾獲取與分配數(shù)據(jù)信息失衡監(jiān)管的法律空缺,但仍存在條文落實(shí)困難、制度設(shè)計(jì)模糊等問(wèn)題,大大降低了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》的可操作性。與此同時(shí),目前的制度設(shè)計(jì)并未從極有可能產(chǎn)生重大政治經(jīng)濟(jì)安全的領(lǐng)域和主體出發(fā)首先補(bǔ)足監(jiān)管框架,平臺(tái)算法監(jiān)管陷入輿論驅(qū)使下的“模塊化”監(jiān)管誤區(qū)。從平臺(tái)算法所在行業(yè)領(lǐng)域來(lái)看,現(xiàn)有的算法監(jiān)管未曾強(qiáng)調(diào)涉及人民生命健康和重大財(cái)產(chǎn)利益的重要行業(yè),如涉及經(jīng)濟(jì)安全的大型金融平臺(tái)、平臺(tái)經(jīng)濟(jì)占主導(dǎo)地位的電子商務(wù)行業(yè)等;從平臺(tái)算法的特定設(shè)計(jì)和使用主體來(lái)看,目前平臺(tái)監(jiān)管也尚未針對(duì)涉及國(guó)家重大安全問(wèn)題以及具備市場(chǎng)支配地位的大型平臺(tái)出臺(tái)相應(yīng)算法規(guī)制政策。盡管?chē)?guó)家互聯(lián)網(wǎng)信息辦公室曾對(duì)滴滴等大型平臺(tái)進(jìn)行了網(wǎng)絡(luò)安全審查,但針對(duì)平臺(tái)的算法分級(jí)分類(lèi)管理辦法以及算法監(jiān)督檢查、算法風(fēng)險(xiǎn)監(jiān)測(cè)、算法安全評(píng)估等具體措施始終處于模糊狀態(tài),針對(duì)某一特定平臺(tái)的直接懲罰也難以在行業(yè)內(nèi)形成一致的算法設(shè)計(jì)應(yīng)用準(zhǔn)則和底線(xiàn),監(jiān)管認(rèn)知難以建立,監(jiān)管可信度難以提升。
針對(duì)性突破平臺(tái)算法監(jiān)管的挑戰(zhàn),在保護(hù)平臺(tái)算法創(chuàng)新活力的同時(shí)規(guī)范其發(fā)展方向,促進(jìn)行業(yè)生態(tài)可持續(xù)發(fā)展,需要在監(jiān)管過(guò)程中遵循參與主體多元性、技術(shù)發(fā)展寬容性、監(jiān)管過(guò)程透明性、監(jiān)管政策場(chǎng)景化要求,并最終保證監(jiān)管結(jié)果的公平性。
平臺(tái)既是一個(gè)凝聚雙邊用戶(hù)并制定規(guī)則的商業(yè)生態(tài)系統(tǒng),又是將不同類(lèi)型主體凝聚在一起的社會(huì)生態(tài)系統(tǒng)。平臺(tái)作為整個(gè)生態(tài)的中心和規(guī)則制定者,通過(guò)資格審查、交易規(guī)則制定、聲譽(yù)機(jī)制設(shè)置等方式,為雙邊用戶(hù)構(gòu)建信任、安全、共贏的平臺(tái)交易環(huán)境。2021年9月,《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》印發(fā),對(duì)促進(jìn)算法生態(tài)規(guī)范發(fā)展作出了細(xì)化規(guī)定,明確表示應(yīng)當(dāng)樹(shù)立算法正確導(dǎo)向,推動(dòng)企業(yè)借助算法加強(qiáng)正能量傳播,引導(dǎo)算法應(yīng)用向上向善。如果平臺(tái)算法應(yīng)用失范,會(huì)對(duì)平臺(tái)自身產(chǎn)生成長(zhǎng)性挑戰(zhàn),其帶來(lái)的負(fù)外部性也會(huì)通過(guò)生態(tài)圈網(wǎng)絡(luò)傳導(dǎo)至整個(gè)商業(yè)社會(huì)系統(tǒng)之中。
因此,將科技向善、算法向善的理念內(nèi)化于心,就要在以平臺(tái)為中心的商業(yè)生態(tài)圈和社會(huì)生態(tài)圈中凝聚價(jià)值共識(shí),建立良好的價(jià)值生態(tài)環(huán)境。而平臺(tái)的功能又是通過(guò)算法來(lái)實(shí)現(xiàn)的,因此,為保證平臺(tái)生態(tài)正確的價(jià)值導(dǎo)向,就要在算法監(jiān)管過(guò)程中納入生態(tài)化理念,將多維利益相關(guān)方納入平臺(tái)算法監(jiān)管框架之中。體現(xiàn)在平臺(tái)情境下,就應(yīng)當(dāng)是在算法設(shè)計(jì)和運(yùn)行中納入社會(huì)規(guī)范與社會(huì)倫理因素,這就需要社會(huì)組織、輿論機(jī)構(gòu)、社會(huì)公眾、社區(qū)等對(duì)平臺(tái)算法運(yùn)行過(guò)程中可能產(chǎn)生的危害政治經(jīng)濟(jì)安全和社會(huì)福利,影響公平競(jìng)爭(zhēng)、市場(chǎng)秩序和行業(yè)可持續(xù)發(fā)展的行為進(jìn)行監(jiān)督和反饋,平臺(tái)為獲取社會(huì)合法性應(yīng)主動(dòng)響應(yīng)社會(huì)呼聲,實(shí)現(xiàn)算法自治。相應(yīng)地,平臺(tái)的開(kāi)放性和網(wǎng)絡(luò)化特征也有助于在商業(yè)生態(tài)圈和社會(huì)生態(tài)圈內(nèi)進(jìn)行科技向善理念的傳播,引導(dǎo)生態(tài)圈內(nèi)多元利益主體驅(qū)動(dòng)算法開(kāi)發(fā)設(shè)計(jì)、部署應(yīng)用向上向善,實(shí)現(xiàn)平臺(tái)算法發(fā)展的良性循環(huán)。
自平臺(tái)經(jīng)濟(jì)在我國(guó)蓬勃發(fā)展以來(lái),數(shù)字平臺(tái)經(jīng)歷了從包容審慎監(jiān)管逐步走向強(qiáng)監(jiān)管、細(xì)監(jiān)管的過(guò)程。國(guó)務(wù)院總理李克強(qiáng)在2017年中央政府工作報(bào)告中明確提出,要加快培育壯大新興產(chǎn)業(yè),本著鼓勵(lì)創(chuàng)新、包容審慎的原則,制定新興產(chǎn)業(yè)監(jiān)管規(guī)則。2019年8月,國(guó)務(wù)院辦公廳發(fā)布的《關(guān)于促進(jìn)平臺(tái)經(jīng)濟(jì)規(guī)范健康發(fā)展的指導(dǎo)意見(jiàn)》明確指出,應(yīng)創(chuàng)新監(jiān)管理念和方式,落實(shí)和完善包容審慎的監(jiān)管要求,打造適用于平臺(tái)經(jīng)濟(jì)發(fā)展的監(jiān)管機(jī)制。盡管在包容與審慎之間的認(rèn)知和實(shí)踐之間的博弈也導(dǎo)致了一些平臺(tái)成長(zhǎng)問(wèn)題,但在這一原則之下,平臺(tái)經(jīng)濟(jì)出現(xiàn)了體量的迅速增長(zhǎng)和市場(chǎng)的快速壯大。隨著平臺(tái)野蠻增長(zhǎng)和資本非理性涌入所引發(fā)的行業(yè)惡性競(jìng)爭(zhēng)和企業(yè)可持續(xù)發(fā)展問(wèn)題愈加突出,近些年來(lái),監(jiān)管機(jī)構(gòu)更加傾向于將監(jiān)管模式轉(zhuǎn)向不斷細(xì)化加強(qiáng)的“穿透式監(jiān)管”。穿透式監(jiān)管最初來(lái)自金融行業(yè),是指嚴(yán)格遵循實(shí)質(zhì)重于形式的功能性監(jiān)管邏輯,侵入性地對(duì)平臺(tái)進(jìn)行過(guò)程監(jiān)管、要素監(jiān)管與算法監(jiān)管。其中,穿透平臺(tái)企業(yè)這一“外衣”,對(duì)平臺(tái)算法進(jìn)行監(jiān)管成為平臺(tái)“穿透式監(jiān)管”的重要方式。以《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》為例,在規(guī)制對(duì)象分類(lèi)及其信息服務(wù)規(guī)范(如信息安全、用戶(hù)標(biāo)簽、頁(yè)面生態(tài))等方面均進(jìn)行了穿透式的規(guī)定。這些政策的出臺(tái)體現(xiàn)出未來(lái)平臺(tái)算法監(jiān)管的趨勢(shì)將會(huì)進(jìn)一步向精準(zhǔn)化方向發(fā)展。
然而,強(qiáng)監(jiān)管、細(xì)監(jiān)管下的政策安排不僅對(duì)有限政府監(jiān)管資源的利用配置提出了挑戰(zhàn),而且對(duì)平臺(tái)經(jīng)濟(jì)能否在穿透式算法監(jiān)管下保持其發(fā)展活力形成了阻礙。算法是平臺(tái)經(jīng)濟(jì)發(fā)展的技術(shù)支撐,如何在平臺(tái)算法監(jiān)管的同時(shí)處理好秩序和活力的關(guān)系、自由和秩序的關(guān)系、安全和發(fā)展的關(guān)系,是監(jiān)管過(guò)程中需要解決的問(wèn)題。為此,在監(jiān)管認(rèn)知上,首先要明確強(qiáng)監(jiān)管、細(xì)監(jiān)管不等同于嚴(yán)監(jiān)管,而是一種對(duì)技術(shù)發(fā)展保持包容、寬容理念的精準(zhǔn)化的適度監(jiān)管,監(jiān)管過(guò)程中為平臺(tái)經(jīng)濟(jì)下算法技術(shù)的成長(zhǎng)和發(fā)展預(yù)留了生存空間。同時(shí),以保護(hù)創(chuàng)新為基礎(chǔ),在保證算法自身安全、算法安全可控、算法應(yīng)用安全的基礎(chǔ)上,確保平臺(tái)算法技術(shù)在制度供給不斷強(qiáng)化的背景下仍可以對(duì)平臺(tái)經(jīng)濟(jì)進(jìn)行技術(shù)賦能。在監(jiān)管操作形式上,可以根據(jù)平臺(tái)算法的全生命周期進(jìn)行分階段的監(jiān)管設(shè)計(jì):算法設(shè)計(jì)階段對(duì)算法技術(shù)研發(fā)持支持包容態(tài)度,在促進(jìn)技術(shù)向善的基礎(chǔ)上保證平臺(tái)經(jīng)濟(jì)創(chuàng)新性的活力源泉;在算法應(yīng)用前和算法運(yùn)行過(guò)程中采取精準(zhǔn)化監(jiān)管,進(jìn)行算法運(yùn)行評(píng)估測(cè)試和密切監(jiān)控,避免平臺(tái)算法的自動(dòng)化決策結(jié)果引致的各類(lèi)風(fēng)險(xiǎn)。
監(jiān)管過(guò)程透明性主要包括兩大部分,分別是平臺(tái)算法相對(duì)于監(jiān)管部門(mén)和社會(huì)公眾的透明性,以及監(jiān)管制度、監(jiān)管過(guò)程相對(duì)于監(jiān)管對(duì)象和社會(huì)公眾的透明性。
一方面,要建立平臺(tái)算法相對(duì)于監(jiān)管部門(mén)的透明性。平臺(tái)算法不透明是平臺(tái)算法監(jiān)管難以達(dá)成合意性的重要原因,透明性原則的落腳點(diǎn)是實(shí)現(xiàn)對(duì)算法自動(dòng)化決策的規(guī)制,如果無(wú)法對(duì)算法產(chǎn)生清晰且正確的認(rèn)知,就無(wú)法判斷算法的自動(dòng)化決策是否可以達(dá)成社會(huì)公平與安全標(biāo)準(zhǔn)。2017年,美國(guó)計(jì)算機(jī)協(xié)會(huì)公布了算法治理七項(xiàng)原則,分別為知情原則、訪問(wèn)與救濟(jì)原則、可問(wèn)責(zé)原則、解釋原則、數(shù)據(jù)來(lái)源處理原則、可審計(jì)原則、檢驗(yàn)與測(cè)試原則。以上七項(xiàng)原則闡明了算法透明在算法治理中的必要性,同時(shí)也表示“透明≠源代碼完全公開(kāi)”。即在算法監(jiān)管過(guò)程中,算法的所有者、設(shè)計(jì)者、操縱者和所有者都具有披露算法的義務(wù),應(yīng)當(dāng)向監(jiān)管機(jī)構(gòu)和社會(huì)公眾解釋算法運(yùn)行結(jié)果和產(chǎn)生該結(jié)果的程序,而非僅僅將代碼公之于眾。落實(shí)在平臺(tái)情景之下,平臺(tái)企業(yè)出于對(duì)隱私數(shù)據(jù)、商業(yè)機(jī)密的保護(hù)或?yàn)榱吮苊馑惴ㄅ逗罂赡軐?dǎo)致的惡性競(jìng)爭(zhēng)與博弈,可進(jìn)行選擇性披露。監(jiān)管部門(mén)須對(duì)模型、數(shù)據(jù)、算法、決策過(guò)程和結(jié)果進(jìn)行明確記錄,并采取有效方法進(jìn)行模型檢驗(yàn)和算法測(cè)試,必要時(shí)可采取第三方審計(jì),保證事后問(wèn)責(zé)機(jī)制有效。因此,平臺(tái)算法透明制原則是指,在不涉及商業(yè)機(jī)密泄露、衍生惡性后果的前提下,平臺(tái)作為算法的設(shè)計(jì)、開(kāi)發(fā)、部署、應(yīng)用、決策、擁有主體,具有披露和解釋算法的義務(wù)。算法透明可以賦予政府對(duì)于算法失當(dāng)行為的可問(wèn)責(zé)性,同時(shí)也賦予用戶(hù)和社會(huì)公眾的知情權(quán)、選擇權(quán)和監(jiān)督權(quán)。
另一方面,要實(shí)現(xiàn)監(jiān)管制度、監(jiān)管過(guò)程相對(duì)于監(jiān)管對(duì)象的透明性。應(yīng)該明晰,算法透明只是通向算法可知的階梯,進(jìn)一步避免算法黑箱帶來(lái)的監(jiān)管障礙,需要監(jiān)管制度的進(jìn)一步完善和監(jiān)管科技的進(jìn)一步發(fā)展。近年來(lái),政府出臺(tái)了一系列平臺(tái)監(jiān)管、算法監(jiān)管制度,但是缺乏對(duì)監(jiān)管政策的解讀和落地式措施實(shí)施,導(dǎo)致政策出臺(tái)主體、政策實(shí)施主體、政策實(shí)施對(duì)象對(duì)政策的認(rèn)知不同。平臺(tái)在不斷加強(qiáng)的政策供給下反而難以明晰自己的責(zé)任邊界,導(dǎo)致平臺(tái)發(fā)展無(wú)所適從,難以通過(guò)獨(dú)立的監(jiān)管政策解讀進(jìn)行自我整改糾偏。因此,監(jiān)管政策也需要一定的透明度,即政策出臺(tái)者負(fù)有向監(jiān)管主體和監(jiān)管對(duì)象進(jìn)行政策解讀的義務(wù),使得各方主體樹(shù)立一致的監(jiān)管認(rèn)知和責(zé)任邊界認(rèn)知。與此同時(shí),針對(duì)不同平臺(tái)企業(yè)的算法監(jiān)管調(diào)查過(guò)程和結(jié)果也應(yīng)該及時(shí)進(jìn)行披露,既保證監(jiān)管過(guò)程受行業(yè)協(xié)會(huì)和社會(huì)公眾監(jiān)督,又為同行業(yè)同類(lèi)型平臺(tái)進(jìn)行算法自治提供參考。
勞倫斯·萊斯格曾提出“網(wǎng)絡(luò)需要各種類(lèi)型的選擇”,應(yīng)用于平臺(tái)算法監(jiān)管情景,也需要同樣樹(shù)立權(quán)變思維,將監(jiān)管方式場(chǎng)景化。2018年7月,中國(guó)人工智能開(kāi)源軟件發(fā)展聯(lián)盟提出了《人工智能 深度學(xué)習(xí)算法評(píng)估規(guī)范》,確定了由7個(gè)一級(jí)指標(biāo)和20個(gè)二級(jí)指標(biāo)組成的算法可靠性評(píng)估指標(biāo)體系?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》也強(qiáng)調(diào)要重點(diǎn)關(guān)注生成合成類(lèi)、個(gè)性化推送類(lèi)、排序精選類(lèi)、檢索過(guò)濾類(lèi)、調(diào)度決策類(lèi)五大類(lèi)互聯(lián)網(wǎng)信息服務(wù)中廣泛使用的算法,以上政策規(guī)范與規(guī)定的出臺(tái)均作出了場(chǎng)景化治理的有益嘗試。究其原因,在平臺(tái)算法監(jiān)管過(guò)程中,存在大量差異化、碎片化的場(chǎng)景生態(tài)模式,算法的技術(shù)差異性和生態(tài)的多元化使得在治理過(guò)程中需要對(duì)平臺(tái)監(jiān)管的不同場(chǎng)景進(jìn)行識(shí)別、追蹤、定位和分類(lèi),樹(shù)立場(chǎng)景化理念,構(gòu)建具有不同算法應(yīng)用場(chǎng)景之下的案例池與數(shù)據(jù)庫(kù)。
建立場(chǎng)景化的監(jiān)管模式,需要樹(shù)立敏捷性思維。在2018年的世界經(jīng)濟(jì)論壇上,首次提出要在有關(guān)第四次工業(yè)革命的政策制定中納入敏捷治理;2020年世界經(jīng)濟(jì)論壇報(bào)告《第四次工業(yè)革命的敏捷監(jiān)管:監(jiān)管者的工具包》中對(duì)敏捷治理有了更加明確的界定,認(rèn)為敏捷治理是一種具有參與廣泛性(包容性)和時(shí)間靈敏度(適應(yīng)性)的治理方式。2021年9月25日,國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布的《新一代人工智能倫理規(guī)范》吸納了“敏捷治理”概念,在管理規(guī)范部分明確提出“推動(dòng)敏捷治理”,這為我國(guó)算法監(jiān)管制度的完善進(jìn)一步提供了指導(dǎo)。相較于傳統(tǒng)公共治理模式下嚴(yán)禁朝令夕改的監(jiān)管模式,在數(shù)字經(jīng)濟(jì)時(shí)代,由于技術(shù)快速更新迭代,監(jiān)管環(huán)境持續(xù)變動(dòng)甚至顛覆,平臺(tái)算法監(jiān)管模式也要因時(shí)而變,采取更為敏捷的場(chǎng)景適應(yīng)性方式予以監(jiān)管響應(yīng)。在治理節(jié)奏上,敏捷治理強(qiáng)調(diào)要快速回應(yīng)和盡早介入,即要在事前監(jiān)管方面下功夫,對(duì)各類(lèi)應(yīng)用場(chǎng)景下的平臺(tái)算法進(jìn)行風(fēng)險(xiǎn)評(píng)估并做好風(fēng)險(xiǎn)預(yù)案。持續(xù)優(yōu)化算法場(chǎng)景化、精細(xì)化監(jiān)管模式,綜合考慮平臺(tái)算法應(yīng)用場(chǎng)景的風(fēng)險(xiǎn)程度、平臺(tái)算法所處行業(yè)的重要程度、平臺(tái)算法監(jiān)管對(duì)象的可規(guī)制性和作用形式,以及技術(shù)風(fēng)險(xiǎn)和應(yīng)用風(fēng)險(xiǎn)在算法運(yùn)行中所占的比重等因素,建立更為具體和更可操作的評(píng)估體系、分級(jí)分類(lèi)標(biāo)準(zhǔn),不斷完善平臺(tái)算法技術(shù)的備案制度。在治理規(guī)則上,不斷推進(jìn)彈性原則與具體化、類(lèi)型化規(guī)則有效結(jié)合,根據(jù)不同的碎片化場(chǎng)景直面平臺(tái)算法的高度動(dòng)態(tài)性和風(fēng)險(xiǎn)不確定性并進(jìn)行動(dòng)態(tài)調(diào)整,建立相應(yīng)案例池與數(shù)據(jù)庫(kù)作為調(diào)整依據(jù)。在治理方式上,采用力度輕、過(guò)程快的引導(dǎo)性治理,針對(duì)不同場(chǎng)景建立精準(zhǔn)化的監(jiān)管模式、監(jiān)管邊界、監(jiān)管手段,將場(chǎng)景化全面落實(shí)到平臺(tái)算法監(jiān)管體系之中。
平臺(tái)算法監(jiān)管的直接原因是算法應(yīng)用引致的各類(lèi)負(fù)外部性,負(fù)外部性的具體體現(xiàn)是對(duì)社會(huì)公平、行業(yè)公平的損害。社會(huì)公平主要是指平臺(tái)利益相關(guān)方如買(mǎi)方用戶(hù)、平臺(tái)勞動(dòng)者、投資者、社會(huì)公眾等在算法自動(dòng)化決策過(guò)程中是否因處于技術(shù)劣勢(shì)和認(rèn)知低谷的一方而遭受了權(quán)益侵害與算法歧視;行業(yè)公平主要是指平臺(tái)是否濫用算法權(quán)力導(dǎo)致不正當(dāng)競(jìng)爭(zhēng),行業(yè)內(nèi)企業(yè)是否擁有平等機(jī)會(huì)參與到公平競(jìng)爭(zhēng)環(huán)境之中。平臺(tái)算法產(chǎn)生公平性問(wèn)題的原因有三:一是抽樣原因,即采集的數(shù)據(jù)樣本本身產(chǎn)生了偏差;二是算法設(shè)計(jì)因素,即數(shù)據(jù)集中反映了現(xiàn)有的社會(huì)偏見(jiàn);三是在算法自動(dòng)化決策過(guò)程中,受平臺(tái)的經(jīng)濟(jì)價(jià)值導(dǎo)向所驅(qū)使,嵌入了平臺(tái)的歧視性?xún)r(jià)值認(rèn)知與取向。
國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)于2019年6月發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》中提出人工智能發(fā)展應(yīng)促進(jìn)公平公正,保障利益相關(guān)者的權(quán)益,促進(jìn)機(jī)會(huì)均等,通過(guò)持續(xù)提高技術(shù)水平、改善管理方式,在數(shù)據(jù)獲取、算法設(shè)計(jì)、技術(shù)開(kāi)發(fā)、產(chǎn)品研發(fā)和應(yīng)用過(guò)程中消除偏見(jiàn)和歧視。因此,平臺(tái)算法監(jiān)管的重要目標(biāo)就是保證監(jiān)管結(jié)果公平、數(shù)據(jù)采集廣泛可信、算法設(shè)計(jì)公正無(wú)歧視、算法應(yīng)用向上向善。目前,我國(guó)的算法監(jiān)管所追求的公平更加關(guān)注“個(gè)體公平”和“結(jié)果公平”,將算法歧視和算法決策結(jié)果視為重要的規(guī)制對(duì)象。如《中華人民共和國(guó)個(gè)人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等均將個(gè)體與結(jié)果公平視為重要的監(jiān)管目標(biāo)。未來(lái),仍需進(jìn)一步充實(shí)并深化“監(jiān)管目標(biāo)公平”的內(nèi)核,將過(guò)程公平、群組公平、權(quán)利公平等作為補(bǔ)充,不僅通過(guò)監(jiān)管在平臺(tái)算法設(shè)計(jì)、部署、應(yīng)用、決策過(guò)程中納入公平性思維,保障利益相關(guān)方的權(quán)利公平;而且要使個(gè)人能夠平等且有意義地參與到平臺(tái)算法監(jiān)管活動(dòng)全過(guò)程之中,彌補(bǔ)對(duì)特殊身份群體的保護(hù)空白,并致力于通過(guò)公民權(quán)利限制平臺(tái)算法權(quán)力,提高平臺(tái)算法監(jiān)管在公平性保障中的包容性。
近年來(lái),國(guó)內(nèi)外政府相繼出臺(tái)了各類(lèi)算法監(jiān)管法規(guī)和指導(dǎo)手冊(cè),包括針對(duì)算法技術(shù)即代碼本身和算法應(yīng)用過(guò)程中的各類(lèi)監(jiān)管模式。但是,目前的平臺(tái)算法監(jiān)管制度供給較為分散,監(jiān)管模式尚未形成體系,事前、事中、事后監(jiān)管位勢(shì)下的監(jiān)管主體及其使用的監(jiān)管手段有較大差異,不同監(jiān)管路徑之間難以達(dá)成協(xié)同,平臺(tái)算法監(jiān)管的合意性閉環(huán)和良性循環(huán)面臨挑戰(zhàn)。為厘清不同監(jiān)管模式下的監(jiān)管主體、監(jiān)管手段和監(jiān)管客體,彌補(bǔ)原有監(jiān)管模式體系性不足的缺陷,本文經(jīng)過(guò)對(duì)平臺(tái)算法監(jiān)管手段和監(jiān)管對(duì)象的系統(tǒng)性梳理,認(rèn)為應(yīng)當(dāng)從監(jiān)管手段和監(jiān)管對(duì)象兩個(gè)視角出發(fā)建立平臺(tái)算法的全面性監(jiān)管模式。
就監(jiān)管手段而言,許可認(rèn)為我國(guó)算法治理應(yīng)當(dāng)基于算法風(fēng)險(xiǎn)水平和自主性、工具性程度將算法進(jìn)行類(lèi)型化,基于法律治理、規(guī)范治理和代碼治理的有機(jī)耦合塑造“模塊化”的分級(jí)分類(lèi)算法治理體系。這一治理模式較為完整地歸納了算法監(jiān)管的實(shí)現(xiàn)進(jìn)路,但是其在研究中忽略了技術(shù)監(jiān)管技術(shù)的可能性,僅僅將代碼視為被監(jiān)管的對(duì)象,而忽視了技術(shù)本身可以作為一種手段對(duì)平臺(tái)算法進(jìn)行監(jiān)管。為彌補(bǔ)以上不足,本文認(rèn)為,監(jiān)管手段可以被劃分為法律監(jiān)管、規(guī)范監(jiān)管和技術(shù)監(jiān)管,即通過(guò)法律供給手段、社會(huì)規(guī)范手段和技術(shù)手段對(duì)算法進(jìn)行監(jiān)管。
就監(jiān)管對(duì)象而言,平臺(tái)特別是平臺(tái)巨頭在人工智能技術(shù)的加持下,為了有效鏈接雙邊市場(chǎng),為廣泛的人工智能開(kāi)發(fā)人士提供了人工智能開(kāi)放平臺(tái)。在平臺(tái)算法資源被有效利用的同時(shí),算法技術(shù)也因此而出現(xiàn)危機(jī)。一方面,龐大的算法技術(shù)開(kāi)發(fā)者群體在接受平臺(tái)技術(shù)賦能的同時(shí)缺乏社會(huì)規(guī)范教育,平臺(tái)算法在開(kāi)發(fā)過(guò)程中可能并未納入算法倫理思維和算法公平思維,算法技術(shù)本身存在算法脆弱性、算法黑箱、算法漏洞以及各類(lèi)性能缺陷和結(jié)構(gòu)性缺陷等技術(shù)風(fēng)險(xiǎn),甚至專(zhuān)業(yè)人員也難以解釋這種內(nèi)在風(fēng)險(xiǎn)和內(nèi)在不透明性。另一方面,平臺(tái)作為算法的部署應(yīng)用者和決策者,相對(duì)于算法開(kāi)發(fā)人員來(lái)說(shuō),充當(dāng)著算法安全“守門(mén)人”的角色,要防范算法在設(shè)計(jì)、開(kāi)發(fā)、部署、應(yīng)用、決策等過(guò)程中脫離人的掌控,在機(jī)器學(xué)習(xí)中實(shí)現(xiàn)不需要人的自主決定權(quán)的自動(dòng)化決策結(jié)果。其不當(dāng)利用過(guò)程可能會(huì)帶來(lái)算法歧視、算法霸權(quán)、算法合謀等危害行業(yè)生態(tài)與社會(huì)秩序的諸多政治、經(jīng)濟(jì)、社會(huì)問(wèn)題。因此,平臺(tái)監(jiān)管的監(jiān)管對(duì)象可劃分為算法技術(shù)本身以及算法應(yīng)用過(guò)程。
基于此,本文建立了平臺(tái)算法監(jiān)管的“監(jiān)管手段—監(jiān)管對(duì)象”監(jiān)管模式圖(見(jiàn)圖1),即未來(lái)針對(duì)平臺(tái)算法的監(jiān)管可以從“法律—技術(shù)”監(jiān)管、“法律—應(yīng)用過(guò)程”監(jiān)管、“規(guī)范—技術(shù)”監(jiān)管、“規(guī)范—應(yīng)用過(guò)程”監(jiān)管、“技術(shù)—技術(shù)”監(jiān)管、“技術(shù)—應(yīng)用過(guò)程”監(jiān)管六大模式出發(fā)進(jìn)行監(jiān)管體系的系統(tǒng)性構(gòu)建。
圖1 “手段—對(duì)象”監(jiān)管模式
監(jiān)管模式Ⅰ:“法律—技術(shù)”監(jiān)管。第一類(lèi)監(jiān)管模式為通過(guò)法律手段對(duì)算法技術(shù)進(jìn)行監(jiān)管,其監(jiān)管主體為政府等公共管理部門(mén),監(jiān)管對(duì)象為技術(shù)本身。1986年美國(guó)《電子記錄系統(tǒng)和個(gè)人隱私》評(píng)估報(bào)告已充分意識(shí)到對(duì)個(gè)人畫(huà)像技術(shù)進(jìn)行監(jiān)管的重要性。半個(gè)世紀(jì)以來(lái),各國(guó)紛紛對(duì)算法技術(shù)的規(guī)制進(jìn)行了立法和司法層面的探索。2020年,美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)發(fā)布了《人工智能和算法運(yùn)用》,從算法透明、算法可解釋權(quán)、決策公平、技術(shù)穩(wěn)健性和倫理問(wèn)責(zé)五個(gè)方面對(duì)算法技術(shù)的設(shè)計(jì)作出了規(guī)定。美國(guó)立法者提出的《2022年算法責(zé)任法案》更明確要求自動(dòng)化決策系統(tǒng)具有新的透明度和問(wèn)責(zé)制。我國(guó)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》亦從算法分級(jí)分類(lèi)管理的角度出發(fā),有效識(shí)別出互聯(lián)網(wǎng)信息服務(wù)中的高風(fēng)險(xiǎn)類(lèi)算法,重點(diǎn)關(guān)注生成合成類(lèi)、個(gè)性化推送類(lèi)、排序精選類(lèi)、檢索過(guò)濾類(lèi)、調(diào)度決策類(lèi)互聯(lián)網(wǎng)信息服務(wù)中廣泛使用的算法,并強(qiáng)調(diào)通過(guò)算法備案制度明確算法的基本原理、目的意圖和主要運(yùn)行機(jī)制,對(duì)算法技術(shù)和代碼運(yùn)行規(guī)則進(jìn)行監(jiān)管。但是,“法律—技術(shù)”監(jiān)管下的監(jiān)管制度尚不完善,特別是目前呼聲最高的算法備案制度,其制度層面涵蓋的算法評(píng)估、算法運(yùn)行監(jiān)管以及算法審計(jì)等具體內(nèi)容和規(guī)制邊界尚未得到司法和立法層面的落實(shí),制度設(shè)立尚處于起步階段,同時(shí)算法的不透明性和算法解釋可能帶來(lái)的利益沖突使得法律規(guī)制技術(shù)這一監(jiān)管模式在實(shí)踐層面出現(xiàn)事實(shí)約束力遠(yuǎn)低于其立法力度的局面。為此,需要持續(xù)加強(qiáng)平臺(tái)算法技術(shù)監(jiān)管的制度供給,完善法律對(duì)技術(shù)的約束體系。
監(jiān)管模式Ⅱ:“法律—應(yīng)用過(guò)程”監(jiān)管?!胺伞獞?yīng)用過(guò)程”監(jiān)管的監(jiān)管對(duì)象為平臺(tái)算法的部署應(yīng)用過(guò)程。2017年12月18日,紐約市市長(zhǎng)簽署通過(guò)了美國(guó)立法史上第一個(gè)對(duì)公用事業(yè)領(lǐng)域算法進(jìn)行問(wèn)責(zé)的法案,即《算法問(wèn)責(zé)法》,用以規(guī)制算法決策。該法明確規(guī)定了規(guī)制對(duì)象包括基于算法自動(dòng)化決策的情形以及算法輔助或者支持決策的情形,其適用主體是使用自動(dòng)化決策系統(tǒng)的行政機(jī)構(gòu)和慈善組織,其還對(duì)算法問(wèn)責(zé)制的實(shí)施主體進(jìn)行了界定,即自動(dòng)化決策工作組。類(lèi)似地,我國(guó)推出的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》是對(duì)算法應(yīng)用過(guò)程進(jìn)行監(jiān)管的典型,其明確了將算法推薦服務(wù)提供者作為規(guī)制對(duì)象,并對(duì)其信息服務(wù)規(guī)范以及服務(wù)提供過(guò)程中的用戶(hù)權(quán)益保護(hù)要求畫(huà)出了紅線(xiàn)。從以上法律法規(guī)中可以看出,目前關(guān)于算法應(yīng)用過(guò)程的法律規(guī)制將主要的規(guī)制對(duì)象定位于算法應(yīng)用主體,并在設(shè)定好算法可能帶來(lái)的危機(jī)和風(fēng)險(xiǎn)的前提下限制了應(yīng)用主體利用算法進(jìn)行決策的各種行為?!胺伞獞?yīng)用過(guò)程”監(jiān)管存在以下兩個(gè)問(wèn)題:第一,制定規(guī)則的專(zhuān)家和在法律制定過(guò)程中可能具備了算法稽核的能力,但是在監(jiān)管過(guò)程中無(wú)法保證所有的行政部門(mén)都具備算法監(jiān)管的技術(shù)能力,“技術(shù)鴻溝”仍然是法律制定過(guò)程中難以逾越的問(wèn)題。第二,在公共場(chǎng)景之下,針對(duì)算法應(yīng)用過(guò)程的監(jiān)管可能會(huì)存在其使用邊界,在技術(shù)難以完全透明、多方監(jiān)管主體自說(shuō)自話(huà)的情況下,針對(duì)應(yīng)用過(guò)程的監(jiān)管可能會(huì)存在失效風(fēng)險(xiǎn)。為彌補(bǔ)“法律—應(yīng)用過(guò)程”監(jiān)管可能出現(xiàn)的問(wèn)題,有必要在政府和平臺(tái)之間建立有意義的技術(shù)接口并遵循透明性原則,彌補(bǔ)技術(shù)鴻溝。
監(jiān)管模式Ⅲ:“規(guī)范—技術(shù)”監(jiān)管。規(guī)范監(jiān)管的主要監(jiān)督主體是社會(huì)公眾和平臺(tái)用戶(hù)等平臺(tái)利益相關(guān)者,法律和政府等監(jiān)管機(jī)構(gòu)賦予了社會(huì)公眾和平臺(tái)用戶(hù)對(duì)平臺(tái)算法從開(kāi)發(fā)設(shè)計(jì)到部署應(yīng)用過(guò)程的監(jiān)督權(quán),從而對(duì)算法決策施加影響,進(jìn)而對(duì)平臺(tái)算法進(jìn)行監(jiān)管?!耙?guī)范—技術(shù)”監(jiān)管是指社會(huì)公眾和用戶(hù)等對(duì)技術(shù)的開(kāi)發(fā)過(guò)程進(jìn)行監(jiān)管,這一監(jiān)管方式的實(shí)現(xiàn)完全建立在平臺(tái)主動(dòng)進(jìn)行算法披露和算法解釋的基礎(chǔ)上,受制于平臺(tái)自身意愿。因此,“規(guī)范—技術(shù)”監(jiān)管其實(shí)是一種相對(duì)被動(dòng)的監(jiān)管方式。一方面,“算法黑箱”的存在使得普通用戶(hù)和社會(huì)公眾難以厘清算法內(nèi)在的運(yùn)行邏輯,即使平臺(tái)保持了完整的技術(shù)透明度,用戶(hù)與社會(huì)公眾也無(wú)法從復(fù)雜的代碼中了解平臺(tái)真正的意圖;另一方面,基于用戶(hù)難以對(duì)技術(shù)進(jìn)行自我解讀,“規(guī)范—技術(shù)”監(jiān)管依賴(lài)于平臺(tái)的技術(shù)解釋?zhuān)欢?,平臺(tái)的人工智能解釋激勵(lì)目前尚顯不足,且平臺(tái)在進(jìn)行算法解釋時(shí)可以利用自己在智識(shí)上的優(yōu)勢(shì)地位向有利于自己的方向進(jìn)行算法技術(shù)解讀,蒙蔽、欺騙社會(huì)公眾的眼睛甚至引導(dǎo)其思維方式,掩蓋自己真正的算法失當(dāng)行為。
監(jiān)管模式Ⅳ:“規(guī)范—應(yīng)用過(guò)程”監(jiān)管。從用戶(hù)視角來(lái)看,2018年歐盟頒布的《通用數(shù)據(jù)保護(hù)條例》對(duì)識(shí)別分析和自動(dòng)化決策作出了規(guī)定,限制了企業(yè)收集與處理用戶(hù)個(gè)人信息的權(quán)限,旨在將個(gè)人信息的最終控制權(quán)交還給用戶(hù)本人,即個(gè)體賦權(quán)路徑。個(gè)體賦權(quán)定位于尊重人(平臺(tái)用戶(hù))的主體性,個(gè)人在了解算法自動(dòng)化決策的基礎(chǔ)上限制或者放開(kāi)平臺(tái)企業(yè)對(duì)個(gè)人數(shù)據(jù)的使用權(quán)限。但是個(gè)體賦權(quán)路徑在帶給用戶(hù)自由選擇權(quán)利的同時(shí),也出現(xiàn)了用戶(hù)個(gè)體能力不足、個(gè)體權(quán)利絕對(duì)化、認(rèn)知不對(duì)稱(chēng)、解釋不完全等問(wèn)題。從社會(huì)公眾視角來(lái)看,社會(huì)可以通過(guò)算法不當(dāng)應(yīng)用帶來(lái)的負(fù)面案例對(duì)平臺(tái)進(jìn)行輿論監(jiān)督。外賣(mài)騎手、網(wǎng)約車(chē)司機(jī)等被困在算法所搭建的系統(tǒng)之中,各類(lèi)在平臺(tái)經(jīng)濟(jì)形態(tài)下的新型就業(yè)者被“先進(jìn)”的算法綁定,將平臺(tái)經(jīng)濟(jì)形態(tài)下的運(yùn)作模式打造成泰勒制的翻版。社會(huì)公眾在生活中逐步發(fā)現(xiàn)算法濫用帶來(lái)的各類(lèi)社會(huì)責(zé)任議題,企業(yè)在合法性受到威脅的情況下不得不響應(yīng)社會(huì)議題?!耙?guī)范—應(yīng)用過(guò)程”監(jiān)管是一種行之有效的監(jiān)管方式,因?yàn)槠溆|及平臺(tái)能否打開(kāi)市場(chǎng)并且保持順利運(yùn)行的核心利益,對(duì)算法向善具有很強(qiáng)的激勵(lì)效應(yīng)。但是這一監(jiān)管模式多屬于事后監(jiān)管,在社會(huì)問(wèn)題已經(jīng)逐漸顯露甚至已經(jīng)嚴(yán)重危害社會(huì)福利時(shí),這一監(jiān)管效應(yīng)才會(huì)凸顯,因而需要同其他事前監(jiān)管模式進(jìn)行結(jié)合和協(xié)同,以實(shí)現(xiàn)事前事后的平臺(tái)算法全生命周期閉環(huán)監(jiān)管。
監(jiān)管模式Ⅴ:“技術(shù)—技術(shù)”監(jiān)管。在數(shù)字時(shí)代之前,市場(chǎng)秩序通過(guò)自發(fā)秩序、監(jiān)管秩序和法律秩序進(jìn)行規(guī)范和再造,而數(shù)字技術(shù)為我們帶來(lái)了新的秩序,即技術(shù)秩序。技術(shù)是平臺(tái)運(yùn)行的底層邏輯,其編碼構(gòu)成了平臺(tái)特定的運(yùn)行模式,形成了平臺(tái)的雙邊市場(chǎng)結(jié)構(gòu)和獨(dú)特的非中性?xún)r(jià)格結(jié)構(gòu),塑造出平臺(tái)獨(dú)一無(wú)二的商業(yè)模式和盈利模式。但與此同時(shí),技術(shù)也帶給了平臺(tái)進(jìn)行自我治理的能力。一方面,平臺(tái)可以對(duì)多源異構(gòu)的數(shù)據(jù)進(jìn)行挖掘,獲得人與事件的潛在關(guān)聯(lián),以控制更多不當(dāng)行為出現(xiàn),建立平臺(tái)內(nèi)部的算法問(wèn)責(zé)機(jī)制;另一方面,算法的自我學(xué)習(xí)機(jī)制可以使得算法在設(shè)計(jì)之初就納入社會(huì)規(guī)范原則,使其在深度學(xué)習(xí)階段進(jìn)行及時(shí)的自我識(shí)別,并在可能造成社會(huì)問(wèn)題的編碼方式上進(jìn)行自我糾偏。但是與“規(guī)范—技術(shù)”監(jiān)管模式相同,目前的“技術(shù)—技術(shù)”監(jiān)管模式仍然高度依賴(lài)于平臺(tái)的自覺(jué)性,監(jiān)管技術(shù)的開(kāi)發(fā)主體仍然是平臺(tái)自身或者平臺(tái)雇用的外部開(kāi)發(fā)人員,盡管各類(lèi)從事人工智能應(yīng)用開(kāi)發(fā)的人員可以便利地使用平臺(tái)提供的算法、算力,但其社會(huì)規(guī)范教育的缺失以及底層技術(shù)細(xì)節(jié)的模糊性使其難以對(duì)技術(shù)作出有效反饋和修改。為避免平臺(tái)自我監(jiān)管失范的情況發(fā)生,政府以及行業(yè)機(jī)構(gòu)等面臨著開(kāi)發(fā)監(jiān)管技術(shù)的巨大壓力。
監(jiān)管模式Ⅵ:“技術(shù)—應(yīng)用過(guò)程”監(jiān)管?!凹夹g(shù)—應(yīng)用過(guò)程”監(jiān)管相較于“技術(shù)—技術(shù)”監(jiān)管更容易實(shí)現(xiàn)。法律和算法在本質(zhì)上具有同一性,二者均是為實(shí)現(xiàn)特定目的而構(gòu)建出的一系列指令集,都具有降低認(rèn)知負(fù)擔(dān)、提高認(rèn)知效率的功能。因此,算法本身可以承擔(dān)法律的一些職能,即用“算法”來(lái)規(guī)制“算法”。利用技術(shù)進(jìn)行市場(chǎng)監(jiān)管的方式由來(lái)已久,“監(jiān)管科技”一詞最早在金融行業(yè)發(fā)展起來(lái),之后衍生為旨在使政府或行業(yè)方面的監(jiān)管工作現(xiàn)代化的新型數(shù)字技術(shù)。在算法透明難以實(shí)現(xiàn)、算法解釋有失偏頗的情況下,通過(guò)技術(shù)監(jiān)管手段對(duì)算法進(jìn)行規(guī)制就是一個(gè)更加行之有效的方案。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》指出,要建立健全用于識(shí)別違法和不良信息的特征庫(kù),完善入庫(kù)標(biāo)準(zhǔn)、規(guī)則和程序。發(fā)現(xiàn)未作顯著標(biāo)識(shí)的算法生成合成信息的,應(yīng)當(dāng)作出顯著標(biāo)識(shí)后,方可繼續(xù)傳輸。這一規(guī)定界定了算法推薦提供者的技術(shù)要求,相應(yīng)地,政府、行業(yè)協(xié)會(huì)等亦可以通過(guò)開(kāi)發(fā)相應(yīng)技術(shù)介入平臺(tái)算法決策過(guò)程,對(duì)算法應(yīng)用進(jìn)行行為監(jiān)測(cè)和結(jié)果監(jiān)測(cè),通過(guò)大數(shù)據(jù)分析與計(jì)算來(lái)界定并監(jiān)測(cè)算法失當(dāng)行為,完善算法監(jiān)管程序的技術(shù)漏洞。
平臺(tái)算法監(jiān)管是平臺(tái)經(jīng)濟(jì)背景下廣受關(guān)注的公共治理議題。欲實(shí)現(xiàn)法律監(jiān)管、規(guī)范監(jiān)管和技術(shù)監(jiān)管的良好銜接,對(duì)算法技術(shù)自身和算法應(yīng)用過(guò)程實(shí)現(xiàn)全面監(jiān)管,最終實(shí)現(xiàn)經(jīng)濟(jì)社會(huì)安全、行業(yè)可持續(xù)發(fā)展以及綜合價(jià)值的創(chuàng)造,還需要從制度供給、監(jiān)管技術(shù)、監(jiān)管網(wǎng)絡(luò)、監(jiān)管位勢(shì)四方面持續(xù)深化平臺(tái)算法監(jiān)管實(shí)踐。
平臺(tái)經(jīng)濟(jì)作為數(shù)字經(jīng)濟(jì)的重要組成部分,已經(jīng)充分涉入經(jīng)濟(jì)生活中的電子商務(wù)、在線(xiàn)教育、金融科技、數(shù)字媒體、物流等行業(yè)。技術(shù)的發(fā)展帶來(lái)了生產(chǎn)方式和生活方式的變革,同時(shí)也需要監(jiān)管制度為技術(shù)發(fā)展方向提供價(jià)值指引和適度規(guī)范。而平臺(tái)算法監(jiān)管的制度供給明顯存在遲滯和落后,在監(jiān)管重心和監(jiān)管完整性上存在一定的制度缺位和錯(cuò)位,因此,需要加強(qiáng)“硬法”的制度供給。制度供給層面,要將合規(guī)與合乎道德、穩(wěn)健安全、功能合意、社會(huì)與環(huán)境福祉、透明開(kāi)放和敏捷治理等負(fù)責(zé)任的算法六大構(gòu)成要件納入制度框架之中,建立完整的事前備案、風(fēng)險(xiǎn)監(jiān)測(cè)、事后問(wèn)責(zé)的算法監(jiān)管框架,進(jìn)一步完善“法律—技術(shù)”監(jiān)管和“法律—應(yīng)用過(guò)程”監(jiān)管。具體而言,法律規(guī)制的機(jī)制設(shè)計(jì)要盡可能清晰界定不同應(yīng)用場(chǎng)景下的平臺(tái)算法風(fēng)險(xiǎn)及收益,對(duì)存在或者可能存在風(fēng)險(xiǎn)的算法進(jìn)行算法解釋和測(cè)試,在目標(biāo)清晰化的基礎(chǔ)上,為平臺(tái)、用戶(hù)、監(jiān)管機(jī)構(gòu)、行業(yè)協(xié)會(huì)等多方主體建立合適的行動(dòng)策略結(jié)構(gòu),進(jìn)行多種制度工具的完善和組合,最終為各方博弈的理想均衡狀態(tài)創(chuàng)造條件。
然而,算法黑箱和“適度”透明原則的存在使得算法風(fēng)險(xiǎn)的分散性和規(guī)制難度進(jìn)一步上升,如果僅僅只依賴(lài)于原有的自上而下的制度設(shè)計(jì),算法監(jiān)管可能難以達(dá)成合意性的監(jiān)管效果,不僅在政策出臺(tái)和監(jiān)管機(jī)制設(shè)計(jì)上存在巨大壓力,而且可能因?yàn)閮?nèi)部利益關(guān)聯(lián)或政府的認(rèn)知局限阻礙平臺(tái)經(jīng)濟(jì)的健康可持續(xù)發(fā)展。單純的“硬法”規(guī)制在消除風(fēng)險(xiǎn)的同時(shí)可能產(chǎn)生潛在危險(xiǎn),即所謂“次階風(fēng)險(xiǎn)”。因此,在“硬法”自上而下的制度設(shè)計(jì)難以完全覆蓋全部監(jiān)管對(duì)象或者全部監(jiān)管領(lǐng)域時(shí),不妨將目光轉(zhuǎn)向一些具備技術(shù)基礎(chǔ)、行業(yè)經(jīng)驗(yàn)和監(jiān)管優(yōu)勢(shì)的行業(yè)協(xié)會(huì)或者個(gè)人,即平臺(tái)算法的“軟法”規(guī)制。隨著現(xiàn)代社會(huì)關(guān)系逐漸變得復(fù)雜多樣,國(guó)際立法能力逐步出現(xiàn)認(rèn)識(shí)的有限性和實(shí)踐的滯后性,在這一矛盾下“軟法”應(yīng)運(yùn)而生。體現(xiàn)在平臺(tái)算法規(guī)制情景上,對(duì)“硬法”的彌補(bǔ)可依賴(lài)于動(dòng)態(tài)性、專(zhuān)業(yè)性的平臺(tái)算法行為準(zhǔn)則,進(jìn)行“技術(shù)標(biāo)準(zhǔn)”這一“軟法”的規(guī)范性探索,其由國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)、企業(yè)標(biāo)準(zhǔn)等構(gòu)成,成為規(guī)制與自治之間的銜接點(diǎn)和緩沖區(qū)。通過(guò)算法的標(biāo)準(zhǔn)化,一方面,可以降低監(jiān)管機(jī)構(gòu)與算法系統(tǒng)進(jìn)行溝通的信息成本,有助于社會(huì)公眾逐步脫離“技術(shù)文盲”的境地并形成一套理解算法的基本框架,對(duì)于構(gòu)建良好的平臺(tái)算法生態(tài)具有重要意義;另一方面,技術(shù)標(biāo)準(zhǔn)這一“軟法”的建立可以囊括眾多的算法規(guī)制方式和工具,在適應(yīng)算法技術(shù)發(fā)展?fàn)顩r的同時(shí)建立算法規(guī)制的場(chǎng)景化、精細(xì)化治理方案。無(wú)論是“硬法”還是“軟法”,都應(yīng)該對(duì)可能會(huì)產(chǎn)生重大政治經(jīng)濟(jì)安全風(fēng)險(xiǎn)的行業(yè)和企業(yè)主體進(jìn)行規(guī)制,圍繞高敏感、高風(fēng)險(xiǎn)算法建設(shè)專(zhuān)有監(jiān)督網(wǎng)絡(luò),避免監(jiān)管資源的錯(cuò)位配置和資源浪費(fèi)。
“硬法”的強(qiáng)制性、保障性、規(guī)范性與“軟法”的靈活性、適應(yīng)性、場(chǎng)景化相互補(bǔ)充,最終實(shí)現(xiàn)法律法規(guī)、技術(shù)規(guī)范與社會(huì)規(guī)范之間的良好銜接,打造合意性的“硬法”“軟法”相結(jié)合的監(jiān)管體系。
在平臺(tái)算法監(jiān)管的法律監(jiān)管、規(guī)范監(jiān)管和技術(shù)監(jiān)管三大手段之中,目前處于發(fā)展弱勢(shì)地位的是技術(shù)監(jiān)管,技術(shù)監(jiān)管需要依賴(lài)的技術(shù)主體就是“監(jiān)管科技”。監(jiān)管科技的原始概念為“Reg Tech”,最早由英國(guó)金融行為監(jiān)管局于2015年提出,具體含義為“利用新技術(shù)促使達(dá)到監(jiān)管合規(guī)要求”。目前,監(jiān)管科技仍主要應(yīng)用于金融風(fēng)險(xiǎn)管理和金融企業(yè)合規(guī)運(yùn)營(yíng)方面。在平臺(tái)算法監(jiān)管領(lǐng)域,監(jiān)管技術(shù)還處于萌芽階段,但以技術(shù)治理技術(shù)、以算法監(jiān)管算法已經(jīng)成為公認(rèn)的必不可少的監(jiān)管手段。
從算法設(shè)計(jì)視角來(lái)看,可通過(guò)價(jià)值嵌入的算法設(shè)計(jì)技術(shù)和價(jià)值偏離的算法矯正技術(shù)進(jìn)行技術(shù)設(shè)計(jì)。價(jià)值嵌入的算法設(shè)計(jì)技術(shù)是將社會(huì)規(guī)范和平臺(tái)責(zé)任標(biāo)準(zhǔn)嵌入算法之中,使得平臺(tái)算法在深度學(xué)習(xí)中不斷加強(qiáng)社會(huì)倫理和責(zé)任標(biāo)準(zhǔn)的正反饋,最終產(chǎn)生對(duì)社會(huì)、經(jīng)濟(jì)、環(huán)境負(fù)責(zé)任的自動(dòng)化決策結(jié)果;價(jià)值偏離的算法矯正技術(shù)則是從算法的輸入端、算法本身和輸出端發(fā)現(xiàn)可能存在的價(jià)值偏離設(shè)計(jì),對(duì)數(shù)據(jù)和程序進(jìn)行自我治理,如通過(guò)技術(shù)手段來(lái)實(shí)現(xiàn)算法去偏見(jiàn)化??偟膩?lái)說(shuō),無(wú)論是價(jià)值嵌入的算法設(shè)計(jì)技術(shù),還是價(jià)值偏離的算法矯正技術(shù),都更加依賴(lài)于平臺(tái)算法自設(shè)計(jì)視角,將社會(huì)規(guī)范嵌入算法的迭代升級(jí)中。
相應(yīng)地,政府部門(mén)、行業(yè)機(jī)構(gòu)也應(yīng)開(kāi)發(fā)相應(yīng)的監(jiān)管科技,從算法監(jiān)督視角推動(dòng)算法風(fēng)險(xiǎn)評(píng)估技術(shù)的落實(shí),如算法監(jiān)管沙箱的合理運(yùn)用。在計(jì)算機(jī)安全領(lǐng)域中,沙箱可以作為一種為運(yùn)行程序提供隔離環(huán)境的安全運(yùn)行機(jī)制。與此相似,算法監(jiān)管沙箱就是指將進(jìn)行備案的算法在可觀察、可控制和相對(duì)封閉的環(huán)境中進(jìn)行試運(yùn)行,由此判斷算法技術(shù)的確定性、安全性、穩(wěn)健性和決策結(jié)果的無(wú)偏性。在算法投入運(yùn)行前對(duì)算法進(jìn)行安全性、公平性監(jiān)測(cè)并建立算法影響評(píng)估制度,無(wú)論是來(lái)自平臺(tái)自組織、政府機(jī)構(gòu)監(jiān)管還是第三方審計(jì)機(jī)構(gòu)審計(jì),監(jiān)管科技的運(yùn)用都能夠在較大程度上克服算法監(jiān)管過(guò)程中的信息不對(duì)稱(chēng),這種“技術(shù)”監(jiān)管“技術(shù)”的自動(dòng)化監(jiān)管模式使得監(jiān)管機(jī)構(gòu)、第三方審計(jì)機(jī)構(gòu)和平臺(tái)自身均可在一定程度上突破信息不對(duì)稱(chēng)、技術(shù)不透明的屏障,在“黑箱”存在的情況下仍可審查和評(píng)判現(xiàn)有算法中存在的社會(huì)風(fēng)險(xiǎn),甚至可以監(jiān)測(cè)、評(píng)估算法的社會(huì)后果。通過(guò)對(duì)算法目的、風(fēng)險(xiǎn)和控制能力的技術(shù)監(jiān)測(cè),既增強(qiáng)了算法監(jiān)管機(jī)構(gòu)的監(jiān)管能力,又緩解了事中與事后問(wèn)責(zé)的監(jiān)管壓力。
《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》在論述算法治理的主要目標(biāo)時(shí)強(qiáng)調(diào),要建立治理機(jī)制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局。其中,算法生態(tài)規(guī)范的具體內(nèi)涵為:算法導(dǎo)向正確、正能量充沛,算法應(yīng)用公平公正、公開(kāi)透明,算法發(fā)展安全可控、自主創(chuàng)新,有效防范算法濫用帶來(lái)的風(fēng)險(xiǎn)隱患。相應(yīng)地,建立良好的平臺(tái)算法生態(tài),要從平臺(tái)商業(yè)生態(tài)圈與平臺(tái)社會(huì)商業(yè)圈入手,保障生態(tài)圈內(nèi)多方利益主體參與到積極推動(dòng)平臺(tái)算法向上向善發(fā)展的算法治理進(jìn)程中來(lái)。
從監(jiān)管機(jī)構(gòu)內(nèi)部來(lái)看,要打破不同部門(mén)之間的信息壁壘和數(shù)據(jù)壁壘,互相整合數(shù)據(jù)資源和技術(shù)資源,避免在不同監(jiān)管部門(mén)之間產(chǎn)生“數(shù)據(jù)盲區(qū)”和“信息孤島”,建立以技術(shù)為支撐、多部門(mén)協(xié)同的網(wǎng)絡(luò)化監(jiān)管模式。從政府與平臺(tái)的協(xié)同來(lái)看,平臺(tái)作為算法的設(shè)計(jì)者和使用者,對(duì)算法技術(shù)和算法決策程序擁有更為清晰的認(rèn)知和更強(qiáng)的掌控力,平臺(tái)自身對(duì)數(shù)據(jù)和代碼的處理能力遠(yuǎn)遠(yuǎn)超越一個(gè)簡(jiǎn)單的服務(wù)提供商所擁有的權(quán)限,因此,無(wú)論是從社會(huì)、經(jīng)濟(jì)、環(huán)境價(jià)值創(chuàng)造出發(fā),還是從平臺(tái)自身可持續(xù)成長(zhǎng)出發(fā),平臺(tái)都具有算法自治義務(wù)。與此同時(shí),政府以及行業(yè)機(jī)構(gòu)可以分別通過(guò)強(qiáng)制性的“硬法”和指南式的“軟法”對(duì)平臺(tái)算法進(jìn)行規(guī)制。具體而言,在進(jìn)行算法設(shè)計(jì)時(shí),平臺(tái)需要根據(jù)技術(shù)標(biāo)準(zhǔn)對(duì)算法嵌入社會(huì)規(guī)范并設(shè)置安全干預(yù)機(jī)制,保證算法設(shè)計(jì)與算法矯正技術(shù)的發(fā)揮。在算法投入應(yīng)用前,一方面,平臺(tái)自身要進(jìn)行充分的算法測(cè)試,另一方面,要在監(jiān)管機(jī)構(gòu)和平臺(tái)內(nèi)部進(jìn)行充分備案,對(duì)算法進(jìn)行評(píng)估和審計(jì),確保投入市場(chǎng)的算法安全可控、無(wú)歧視。此時(shí),需要平臺(tái)和政府之間建立良好通暢的技術(shù)接口,保證有意義的算法透明、算法解釋與技術(shù)公開(kāi),針對(duì)不同算法技術(shù)、應(yīng)用情景和風(fēng)險(xiǎn)程度提出具有針對(duì)性的信息披露要求,形成分級(jí)分類(lèi)的算法透明披露體系。在算法投入應(yīng)用后,平臺(tái)自身須時(shí)刻進(jìn)行算法監(jiān)測(cè),發(fā)揮算法矯正技術(shù)的功能,對(duì)有可能產(chǎn)生風(fēng)險(xiǎn)的算法進(jìn)行及時(shí)糾偏。政府則應(yīng)發(fā)揮事中約束的作用,防范算法應(yīng)用過(guò)程中可能產(chǎn)生的算法合謀、算法歧視、算法霸權(quán)、行業(yè)壟斷等行為。算法應(yīng)用危害結(jié)果發(fā)生后,平臺(tái)負(fù)有向監(jiān)管機(jī)構(gòu)進(jìn)行解釋的義務(wù),政府等監(jiān)管機(jī)構(gòu)則需要根據(jù)事前備案中設(shè)置的算法問(wèn)責(zé)點(diǎn)以及平臺(tái)解釋進(jìn)行事后問(wèn)責(zé)與懲罰,以威懾性的終端責(zé)任懲罰機(jī)制防止算法技術(shù)濫用。
從平臺(tái)生態(tài)圈視角來(lái)看,主要是以“社會(huì)倫理”與“社群共識(shí)”為基礎(chǔ)的規(guī)范手段對(duì)平臺(tái)算法技術(shù)和算法應(yīng)用過(guò)程進(jìn)行治理。一方面,要加強(qiáng)用戶(hù)和利益相關(guān)方對(duì)平臺(tái)算法的治理。目前,歐盟的個(gè)體賦權(quán)路徑已經(jīng)對(duì)用戶(hù)治理進(jìn)行探索和嘗試,平臺(tái)和政府對(duì)平臺(tái)用戶(hù)提供涉及自動(dòng)化決策邏輯的有意義的信息,用戶(hù)可對(duì)信息進(jìn)行評(píng)估后選擇是否接受自動(dòng)化決策結(jié)果或者對(duì)決策程序提出質(zhì)疑,平臺(tái)負(fù)有向用戶(hù)解釋質(zhì)疑和完善自身技術(shù)漏洞的義務(wù)。另一方面,要將算法治理的框架納入平臺(tái)企業(yè)社會(huì)責(zé)任治理框架之中,加強(qiáng)社會(huì)公眾的新聞媒體監(jiān)督和社會(huì)組織監(jiān)督。社會(huì)公眾的監(jiān)管參與不僅可以促使平臺(tái)在進(jìn)行算法設(shè)計(jì)時(shí)考慮社會(huì)響應(yīng)和社會(huì)訴求,而且可以在算法運(yùn)行過(guò)程中對(duì)其產(chǎn)生的社會(huì)問(wèn)題進(jìn)行及時(shí)的監(jiān)控和反饋,發(fā)現(xiàn)平臺(tái)算法失當(dāng)行為的同時(shí)還可以及時(shí)識(shí)別制度漏洞,促進(jìn)監(jiān)管制度的完善和監(jiān)管技術(shù)的改善。平臺(tái)與政府機(jī)構(gòu)、行業(yè)協(xié)會(huì)、平臺(tái)用戶(hù)、社會(huì)公眾等利益相關(guān)方共同構(gòu)成平臺(tái)生態(tài)圈,算法作為平臺(tái)與各利益相關(guān)方進(jìn)行交流互動(dòng)的技術(shù)支撐,生態(tài)圈內(nèi)多方主體協(xié)同參與、共生共演,形成全面、動(dòng)態(tài)的生態(tài)化治理網(wǎng)絡(luò)。
彌補(bǔ)平臺(tái)算法監(jiān)管過(guò)程缺位的問(wèn)題,解決事后問(wèn)責(zé)機(jī)制難以自圓其說(shuō)的困境,應(yīng)建立事前、事中、事后全流程覆蓋的動(dòng)態(tài)化監(jiān)管機(jī)制。平臺(tái)算法問(wèn)責(zé)制度的構(gòu)建基礎(chǔ)在于算法設(shè)計(jì)者、擁有者、應(yīng)用者或者控制者負(fù)有對(duì)算法技術(shù)和算法系統(tǒng)設(shè)計(jì)進(jìn)行解釋的義務(wù),證明算法自動(dòng)化決策合理性的義務(wù),以及減輕算法濫用、算法失當(dāng)行為可能帶來(lái)的潛在危害或者負(fù)面影響的義務(wù),如算法設(shè)計(jì)者、擁有者、應(yīng)用者或控制者未履行其義務(wù),則應(yīng)根據(jù)責(zé)任認(rèn)定機(jī)制予以追責(zé)。
為建立完善的平臺(tái)算法問(wèn)責(zé)機(jī)制,事前監(jiān)管中應(yīng)當(dāng)建立算法備案制度。即在算法進(jìn)行部署應(yīng)用之前,由監(jiān)管部門(mén)或者第三方審計(jì)機(jī)構(gòu)對(duì)算法技術(shù)進(jìn)行穩(wěn)定性、安全性審查和審計(jì)認(rèn)證。算法備案制度的完善具有如下意義:第一,確保算法在投入應(yīng)用之前經(jīng)過(guò)了算法技術(shù)標(biāo)準(zhǔn)的審核,用“硬法”保障技術(shù)標(biāo)準(zhǔn)這一“軟法”在事前監(jiān)管中發(fā)揮重要作用,在數(shù)據(jù)、程序和代碼層面防范平臺(tái)算法可能產(chǎn)生的技術(shù)風(fēng)險(xiǎn)和應(yīng)用風(fēng)險(xiǎn)。第二,算法備案制度的完善便于查明算法風(fēng)險(xiǎn)的來(lái)源,確定算法責(zé)任主體,在事后問(wèn)責(zé)時(shí)確定問(wèn)責(zé)點(diǎn)。為保證算法備案制度的順利實(shí)施,一方面,需要平臺(tái)生態(tài)的支持,與政府機(jī)構(gòu)建立通暢的技術(shù)溝通渠道,主動(dòng)進(jìn)行理性的信息披露和算法解釋?zhuān)涣硪环矫?,也需要監(jiān)管沙箱等算法監(jiān)管科技的合理利用,進(jìn)行算法模擬和預(yù)演,建立算法影響評(píng)估制度,在提升算法透明性、保障個(gè)人正當(dāng)程序權(quán)利和強(qiáng)化公眾審查方面進(jìn)行補(bǔ)充加強(qiáng)。
事中則需要加強(qiáng)對(duì)算法運(yùn)營(yíng)的審查和算法正當(dāng)程序的監(jiān)督。以算法歧視為例,若算法的初始輸入數(shù)據(jù)存在偏見(jiàn)和歧視,那么隨著計(jì)算過(guò)程的循環(huán)和計(jì)算結(jié)果的深化,算法在機(jī)器學(xué)習(xí)中會(huì)加強(qiáng)對(duì)這種歧視的固化,最終構(gòu)成惡性的“反饋循環(huán)”。而平臺(tái)自身則很難或者沒(méi)有意愿去改變這種數(shù)據(jù)“輸入—輸出”方式,這就需要監(jiān)管機(jī)構(gòu)或者行業(yè)組織在事中對(duì)算法程序的正當(dāng)性進(jìn)行監(jiān)督,并督促算法應(yīng)用者和控制者在算法應(yīng)用過(guò)程中保障算法作用個(gè)體(用戶(hù))的知情權(quán)和自由選擇權(quán)利,這種權(quán)利一般由平臺(tái)的信息披露來(lái)實(shí)現(xiàn)。
事后監(jiān)管則需要建立追責(zé)和補(bǔ)救機(jī)制。一旦發(fā)生危害政治經(jīng)濟(jì)安全、個(gè)人隱私保護(hù)和社會(huì)福利的行為,就需要依據(jù)事前監(jiān)管的備案制度及時(shí)進(jìn)行內(nèi)容審查,確定追責(zé)點(diǎn),落實(shí)被追責(zé)主體的法律責(zé)任,作出客觀公正的判斷。事后監(jiān)管作為最為穩(wěn)妥的傳統(tǒng)規(guī)制手段,在平臺(tái)算法的全流程監(jiān)管中最具威懾力和權(quán)威性。Reform