梅立潤
(武漢大學馬克思主義學院,湖北武漢,430072)
借助技術的力量提高治理效度與水平業(yè)已成為現(xiàn)代國家治理的基本經(jīng)驗。人工智能時代的到來進一步豐富了國家治理的技術工具選擇,算法嵌入國家治理是大勢所趨,“借助于海量的大數(shù)據(jù)和具備強大計算能力的硬件設備,擁有深度學習算法的人工智能機器可以通過自主學習和強化訓練來不斷提升自身的能力,解決很多人類難以有效應對的治理難題”[1]。與此同時,人工智能時代的到來也促使國家治理產(chǎn)生深刻的算法依賴。由于算法可能出現(xiàn)偏見以及“算法黑箱”現(xiàn)象的存在①,因此深刻依賴于算法的國家治理也可能面臨一些難題。識別并有效應對算法依賴的衍生難題,是人工智能時代國家治理需要直面的重要理論與現(xiàn)實問題。
不斷意識到并努力克服自身局限是人類社會演進的鮮明特征之一,技術在輔助人類克服特定局限的過程中扮演至關重要的角色?!皬娜祟愇拿靼l(fā)展的愿景來看,人類技術發(fā)展多以增強能力、減輕負擔為主要目的。人類發(fā)展進程中的每一次科技革命都是一次人類能力的飛躍,機械化延伸、增強的是人的體力,信息化延伸、增強的是人的感知力。”[2]在某種意義上也可以認為,正是由于意識到人類在體力和感知力方面的特定局限以及存在克服這些局限的渴望,人類社會才發(fā)動了多次科技革命,最終以機械化克服了人類的體力局限,以信息化克服了人類的感知力局限。不過,人類對技術的期待與追求不僅僅停留于此。隨著人類逐漸意識到在成長和發(fā)展過程中所面臨的絕不僅僅是體力或感知力方面的局限,在人類引以為傲的智能方面也存在巨大的突破空間,于是便又開始探索模仿、拓展或延伸人類智能的技術。時至今日,已經(jīng)形成一股席卷全球的智能革命浪潮或者說以人工智能為標志的科技革命浪潮。
隨著人工智能相關專項國家戰(zhàn)略的密集出臺、新創(chuàng)人工智能企業(yè)的不斷出現(xiàn)、人工智能領域投融資的持續(xù)火熱以及人工智能具體應用場景的日益豐富,人類社會的智能化程度正在不斷提高,人工智能時代、智能社會已經(jīng)從概念走向實踐。由于算法是人工智能的“靈魂”,是人工智能的技術內核,因此人工智能時代和智能社會的到來即意味著“算法時代”“算法社會”和“算法生活”的到來[3-5]。眾多的事實與現(xiàn)象也已表明,“算法在現(xiàn)代社會愈發(fā)重要,通過挖掘分析和創(chuàng)新使數(shù)據(jù)產(chǎn)生了更大價值,提高了企業(yè)的運行效率,優(yōu)化了產(chǎn)品和服務的質量,提高了現(xiàn)代社會的自動化程度,影響著社會生活的各個方面,顯著提高了社會的運轉效率和人們智能化生活的水平,甚至通過預測和輔助決策等功能決定著人類社會未來的走向”[6]。不可否認,當前的人工智能技術應用主要集中于經(jīng)濟領域和社會領域,或用以促進一系列產(chǎn)業(yè)的轉型與升級,或用以為社會大眾提供更便利便捷、體驗感更好的各種生活服務,而在“算法統(tǒng)治的世界”[7],算法的作用最終會從經(jīng)濟領域、社會領域逐漸擴散滲透到國家治理領域。一方面,這符合歷次科技革命中標志性技術作用擴散的軌跡規(guī)律。雖然鑒于治理的廣泛關聯(lián)性影響,國家在決定是否將新技術應用于治理事務中時相對要更審慎,這在一定程度上會延緩新技術的應用進程,但是不會完全封阻這種進程。另一方面,這也契合現(xiàn)代國家治理的回應性特征。畢竟當人工智能帶來更佳的生產(chǎn)與生活體驗之后,社會大眾可能出現(xiàn)“期待轉移”,開始期待國家同樣利用人工智能提供更佳的治理體驗或公共服務體驗,而且一旦國家利用人工智能提供更佳的治理體驗或公共服務體驗之后,就只能按照“百尺竿頭更進一步”的邏輯繼續(xù)努力提供比之前更好的治理體驗或公共服務體驗。不管比之前好多少,總之就是不能比之前差或者長期保持在同一水平,因為社會大眾的心理預期會“水漲船高”。在國家治理越來越注重回應社會期待的環(huán)境中,這種“期待轉移”在某種程度上會促使或倒逼國家不斷擴大人工智能在國家治理領域的應用范圍與程度。
隨著人工智能嵌入國家治理的范圍不斷擴大以及程度不斷加深,國家治理對算法的依賴程度也會不斷增加。一方面,國家治理日益需要算法輔助進行信息處理。在信息爆炸時代,“一個越來越明顯的悖論是,政府的信息收集系統(tǒng)收集了大量的治理信息,卻不重視這些信息,更缺少整合、處理這些信息的能力,導致大量的信息沉睡在系統(tǒng)中”[8]。在人工智能時代,國家可以通過算法輔助按需要快速對各種特定類型的海量信息進行初步歸類和整理。比如北大方正技術研究院推出的“方正智思輿情預警輔助決策支持系統(tǒng)”,可以利用算法對海量互聯(lián)網(wǎng)信息進行自動抓取、自動分類、自動聚類、主題識別與追蹤,最終形成簡報、報告、圖表等分析結果。另一方面,國家治理日益需要算法輔助識別政策問題。在現(xiàn)代社會,人們越來越習慣于遇到問題向網(wǎng)絡求解,由此在一些搜索引擎上留下了豐富且真實的“數(shù)字足跡”或者說網(wǎng)絡行為數(shù)據(jù),“基于需求的主動搜索行為反映了人們對某些主題的關注度”[9]。通過算法對海量“數(shù)字足跡”或者說網(wǎng)絡行為數(shù)據(jù)進行挖掘和分析,可以更為全面、客觀和清晰地刻畫出社會公眾關注的議題版圖,從而為國家制定公共政策提供更加豐富的議題清單和更加科學的決策依據(jù)。再者,國家治理日益需要算法輔助監(jiān)測或預判社會問題與社會風險。在充滿變化和不確定性的現(xiàn)代社會,“未雨綢繆”或者說預見性地制定一些公共政策來應對可能出現(xiàn)的社會問題與風險,越來越成為檢驗一個國家治理水平的重要維度,而人工智能系統(tǒng)或算法在這方面同樣可以“大顯身手”。比如北京市懷柔公安分局研發(fā)的“犯罪數(shù)據(jù)分析和趨勢預測系統(tǒng)”,基于對當?shù)丶韧罅糠缸锇讣?shù)據(jù)的分析,能夠自動預測未來某段時間、當?shù)啬硞€區(qū)域可能發(fā)生犯罪的概率以及犯罪的種類。更為關鍵的是,“這些在過去需要多名專業(yè)分析人員花費幾天甚至幾個月才能做出的分析,如今只需點擊幾下鼠標就能直觀地呈現(xiàn)出來,而且預測結果更加科學、準確”[10]。盡管算法與國家治理的結合已經(jīng)日益成為一種潮流,但是鑒于算法本身的技術特性以及國家治理的廣泛關聯(lián)性影響,人工智能時代的國家治理需要特別警惕算法依賴可能引發(fā)的衍生治理難題。
人類社會的整體生存與發(fā)展不僅需要依持各種物質生產(chǎn)技術的更新進步,還需要依持各種價值理念的確立與修正。公平既是人類社會價值理念系統(tǒng)中的原初構成,也是政治的本質要求和國家治理的核心追求。國家治理公平與否,小至影響社會個體的切身福祉,大至關乎民心向背或者一個政權的興衰存亡。國家治理越是能充分細致、不偏不倚、一視同仁地考慮各方利益訴求,國家治理的公平性就越高,反之則越低。在前人工智能時代,許多國家主要依恃廣泛的代表機制和科層組織以人工采集與分析信息的方式來發(fā)現(xiàn)社會公共問題以及識別和處理其中的各種利益訴求。在人工智能時代,“萬物皆數(shù)”且“萬物互聯(lián)”,許多社會公共問題在生成與爆發(fā)之前或多或少會釋放出一些“數(shù)字信息”,采集與初步分析這些信息的任務主要由相關算法來完成。換言之,國家所發(fā)現(xiàn)的社會公共問題以及其中的各種利益訴求是經(jīng)由相關算法整理與挑選后以“清單”樣式呈遞在國家面前的。在此過程中,算法扮演著某種類似于“守門人”的角色,算法通過篩選與過濾決定了何種社會公共問題以及誰的利益訴求可以進入國家的視野或吸引國家更多的注意力。與此同時,算法還可以通過輔助決策或直接決策決定各種社會公共問題以及利益訴求會得到怎樣的處理。然而,算法偏見的存在可能使國家治理的公平性難以得到保證。
一方面,作為算法基礎的數(shù)據(jù)難以保證無偏見。由于算法需要數(shù)據(jù)喂養(yǎng)才能發(fā)揮作用,無數(shù)據(jù)支撐的算法就是“無根之木、無源之水”,因此國家治理算法依賴的背后其實是數(shù)據(jù)依賴。而“數(shù)據(jù),在本質上,是人類觀察世界的表征形式……人類文化是存在偏見的,作為與人類社會同構的大數(shù)據(jù),也必然包含著根深蒂固的偏見”[11],并且“這些偶然甚至錯誤的數(shù)據(jù)從源頭改正本就很難,通過大數(shù)據(jù)分享、加工、提供等方式傳播出去之后再想徹底改正更是難上加難”[12],這使得以數(shù)據(jù)為原料喂養(yǎng)出來的算法,很有可能隱蔽地繼承、傳導、循環(huán)甚至放大其數(shù)據(jù)母體中含有的偏見。比如,微軟2016 年3 月在Twitter 上推出了一個名為Tay 的AI 聊天機器人,Tay 可以通過與網(wǎng)友對話學習怎樣交談,Tay起初還給人一種善解人意、活潑可愛的感覺,然而不到一天時間就被網(wǎng)友“教成”了一個滿嘴臟話甚至說出一些極端話語的機器人,隨后被微軟迅速關閉并下線?!癟ay 是人工智能映射人類偏見的一個縮影,目前的人工智能算法最本質的規(guī)則就是它需要有大量的數(shù)據(jù)對其進行訓練——如果訓練的數(shù)據(jù)本身就帶著偏見、錯誤以及極端的思想,訓練的結果就會偏離正常的結果。”[13]在人工智能時代,國家治理行動的展開所依持的是規(guī)模巨大、類別復雜、質量參差不齊的數(shù)據(jù),在此基礎上訓練出來的輔助國家治理的相關算法,也就難以確保無偏見。
另一方面,算法設計過程存在人為操控的空間。在人工智能時代,雖然算法操控著眾多事務的運行,但是當算法操控其他事務的時候,其自身也存在被操控的可能,畢竟“算法決策總是需要用到一些目標變量或指標,或者對分析對象進行某種分類。而指標的選取、賦值以及分類方法都是人為設定的。如果這一過程受歧視性觀念影響,算法決策產(chǎn)生系統(tǒng)性的歧視后果就不足為奇了”[12]。正是因為算法設計者可能將自身的偏見嵌入算法中,所以人們才會認為“算法是一面鏡子,映射了人類社會許多固有的偏見”[14]。實際上,在一個充滿算法的時代,算法偏見的情形并不少見。比如美國司法部門在罪犯出獄之前會對其進行再犯罪評估,以判斷其是否適合出獄或出獄后是否需要采取必要的監(jiān)視措施。為此,美國司法部門采用了Northpointe 公司推出的風險評估系統(tǒng),而該系統(tǒng)對黑人給出的再犯風險評分是白人的兩倍。在洛杉磯市,一名輕微犯罪的黑人婦女被標記為“高風險”,而一名曾經(jīng)兩次武裝搶劫的白人男子卻被標記為“低風險”。最后的結果是,那名黑人婦女并沒有再犯罪,而那名白人男子卻再次犯了盜竊罪。國家治理事務相當繁雜,這使得在一些配套性算法解決方案的設計過程中,設計主體嵌入自身偏見的機會更多,空間更大。國家治理具有更加廣闊和深刻的影響,當特定國家治理事務采用的配套性算法解決方案存在偏見時,所帶來的負面效應或者說對國家治理公平性的損耗將是巨大的。
更為關鍵的問題是,算法的隱蔽性和復雜性使得潛藏在其中的偏見很難被發(fā)現(xiàn)。有人舉了一個非常生動的例子,“如果你是一個窮人,以前買過的東西都是相應品類中單價最低的,那么,在系統(tǒng)畫像里一個名為‘價格敏感程度’的維度中,你的分數(shù)就會非常高。于是乎,當你搜索一個關鍵詞后,從前到后翻十頁,你看到的都是為囊中羞澀的人量身定做的便宜貨。如果說LV 的店門上掛一個橫幅,說‘窮人與狗不得入內’,那肯定會被砸了——這是非常嚴重的偏見甚至歧視。但是在互聯(lián)網(wǎng)上,數(shù)據(jù)和算法帶來的偏見卻很隱蔽”[15]。而且在人工智能時代,萬物互聯(lián)會創(chuàng)造出龐大的數(shù)據(jù)流,“這些數(shù)據(jù)流在大數(shù)據(jù)、云計算、人工智能等技術的幫助下形成為‘算法’,屆時人類社會的資源配置將在很大程度上被程序化的‘算法’所取代,一切抉擇都聽‘算法’的,由‘算法’說了算,出現(xiàn)明顯的‘算法’崇拜”[16]。在算法崇拜情結下,人們將更加缺少警惕意識與反思能力,將更加傾向于服從算法或者計算機的判斷[17]。如此一來,即使是有偏見的算法也容易因為人們的信任而“避過檢查”,即使是由有偏見的算法導致的不公平結果也容易因為戴上了客觀與科學的算法面具而被認為是公平的,即使人們在追查算法偏見導致的不良后果時也不會輕易將線索指向算法。
總的來說,由于數(shù)據(jù)質量的客觀原因或算法設計者的主觀原因,算法可能產(chǎn)生偏見。如果國家治理依賴的是有偏見的算法,那么國家治理的公平性就難以得到保證,而且因為算法偏見的隱蔽性以及算法崇拜心理的存在,由算法偏見導致的不公平成為“隱蔽的不公平”,國家治理公平性的流失也由此變得更為隱蔽。
雖然與權力和權利相關的議題長期以來在政治理論研究以及政治實踐中占據(jù)顯要位置,但是“在當代民主政治與公共行政實踐中,責任越來越成為中心概念”[18],與責任相關的議題變得越來越耀眼,恰如弗雷德里克·莫舍爾所言,“責任很可能是行政——無論是公共行政還是私人行政——的詞匯表中最重要的詞語”[19]。盡管在當代民主政治與公共行政實踐中充斥著“責任話語”,然而要理解責任的意蘊卻并不容易??偟膩碚f,不管是在漢語語境中,還是在英語語境中,責任概念主要有兩種用法:一種是“職責意義上的責任”,即分內應做之事;一種是“過錯意義上的責任”,意味著行為主體某種過錯導致了不好的后果因而要面臨相應的譴責、懲罰、制裁等,即要讓行為主體為自身的過錯“付出代價”,這背后連帶著一個問責或者說責任追究的過程。通過分工明確主體職責并且在特定主體履責不力時進行問責,是一個政治體系健康運行的基礎。國家治理是一項頗為煩瑣復雜的工程,國家治理的展開既需要各種國家部門履行好各自的職責,也需要對國家部門出現(xiàn)的過錯行為進行問責。問責的前提是明確責任的歸屬,即明確是誰的責任或者說是誰的過錯。如果責任歸屬不清,那么問責就無從談起,不存在無對象的問責,否則與問責配套的相關制度、規(guī)則、標準、程序設計等都會失效或陷入空轉。
隨著人工智能技術段位的不斷提高和應用范圍的不斷擴大,國家治理的數(shù)字化轉型和智能化轉型進程也不斷加快,“循數(shù)治國”和“算法治理”成為備受理論與實踐雙向推崇的治理樣態(tài)。在此過程中,許多國家部門的行動越來越注重遵循算法的指示,“行政決策中人類形式上的參與無法掩蓋算法作出實質決策的真相”[20]。然而,算法并沒有人們想象中的那么靠譜,它也可能產(chǎn)生不可預測的后果。一方面,算法是為解決問題而生的。隨著社會問題越來越多且越來越復雜,算法設計的難度也在不斷增加,過去由幾百行、幾千行或幾萬行代碼組成的算法就可以解決問題,而如今想要設計出一種算法來解決某個問題可能需要寫幾十萬行、幾百萬行甚至是上億行代碼,在此過程中難免會有所疏漏或忽略,從而使算法產(chǎn)生一些不可預測的后果。另一方面,算法畢竟是由人設計的,算法的優(yōu)劣在很大程度上取決于算法設計者的認知能力、知識水平。算法設計者的認知能力、知識水平越高,就越有可能設計出優(yōu)秀的、完善的算法,反之則有可能設計出劣質的、有漏洞的算法。由于人的認知能力、知識水平都是有限的,算法設計者很難掌握與特定問題有關的所有知識,因此在算法設計過程中很有可能出現(xiàn)某些方面的偏差,最終使得算法后果“出乎意料”。再者,雖然針對特定問題設計出來的算法帶有一定的穩(wěn)定性,但是特定問題的發(fā)展態(tài)勢會受各種自然和社會環(huán)境因素變化的影響,而算法設計者很難全面了解和控制環(huán)境的變化,因而設計出來的算法可能難以解決已經(jīng)發(fā)生了變化的問題,“強行匹配”會使得算法的后果不可預測[21]。換言之,由于算法本身的復雜性程度日益提高、算法設計者的認知局限以及環(huán)境的動態(tài)變化,算法可能出現(xiàn)失誤,從而造成不可預測的后果或者說不好的、負面的后果。事實上,算法失誤已經(jīng)不是什么新鮮事。比如IBM 公司與得克薩斯大學的MD 安德森癌癥中心在2013 年合作開發(fā)了“Watson for Oncology”(沃森癌癥機器人),旨在輔助臨床醫(yī)生從豐富的患者和研究數(shù)據(jù)庫中發(fā)現(xiàn)有效的診療措施。然而,美國新聞媒體STAT News 在2018 年7 月查閱了IBM 的內部文件之后發(fā)現(xiàn),沃森癌癥機器人有時會給醫(yī)生提出錯誤甚至是危險的治療建議,如建議醫(yī)生給存在嚴重出血癥狀的癌癥患者使用會加重出血的藥物。關鍵問題是,由于算法可能出現(xiàn)各種類型的失誤,因此依據(jù)算法指示而行動的國家部門也可能出現(xiàn)各種類型的失誤,從而造成一些影響更加廣泛的、不好的或者說負面的后果。
國家治理影響廣泛的特性使得國家治理更不容有失,嚴肅問責可以倒逼國家部門盡職履責,盡可能減少治理失誤。問題在于,當治理失誤是由算法失誤導致時,到底應該向誰問責或者說追究誰的責任呢?雖然從理論上來說應該直接問責于相關國家部門,但是由于一些人工智能企業(yè)在數(shù)據(jù)與算法方面擁有獨特的優(yōu)勢,國家在解決社會公共問題時經(jīng)常需要人工智能企業(yè)提供“技術支持”或者說“技術輔助”,使得“政府在理論上仍然是最大的‘公共性’組織,但是實現(xiàn)公共任務的技術路線和工具,將更多依賴于廣泛的協(xié)同合作……隨著數(shù)字革命和人工智能技術的進步,未來可能有更多政府職能將被新技術方案或新技術機構革新或替代”[22]。因此,當由算法失誤導致治理失誤時,國家部門可能卸責于算法開發(fā)企業(yè)或算法設計者。由于算法可以自我學習與升級,因此即使是算法開發(fā)企業(yè)或算法設計者本身,有時都無法完全清楚地知道算法為何那般決策。也就是說,在數(shù)據(jù)輸入與結果輸出之間,人們明確地知道存在一個計算環(huán)節(jié),然而人們卻無法洞悉計算的邏輯與過程,這就形成了所謂的“算法黑箱”。恰如伊恩·博格斯特所言,算法就像“黑洞”,人們雖然可以清晰感受到它的影響,但是卻并不能對其內部一窺究竟[23]?!八惴ê谙洹钡拇嬖谕瑯邮沟盟惴ㄩ_發(fā)企業(yè)或算法設計者可以找到卸責的理由。隨著卸責鏈條的拉長,最終導致的局面就是,無法找到合適的對象來為算法失誤造成的后果“負責”,問責的大棒高高舉起卻難以揮下,國家治理陷入問責難題。正如有研究者所言,“即使因算法缺陷導致決策失誤,或者公眾對算法決策的結果不滿意,行政人員往往傾向于把責任諉過算法或算法開發(fā)公司,而對算法或算法開發(fā)公司又難以司法審查,責任主體模糊往往使得算法決策陷入審查難、問責難的窘境。例如,在英國女性乳腺癌篩查漏檢丑聞中,關于‘算法錯誤’究竟是怎么產(chǎn)生的,國家衛(wèi)生醫(yī)療系統(tǒng)(NHS)、公共衛(wèi)生局(PHE)以及負責軟件維護的日立咨詢公司三方互相踢皮球,然而最終結果很有可能是根本無法定論”[24]。強行問責是許多人想到的解決辦法,不過結果可能是得不償失,因為強行問責相關國家部門容易抑制國家部門將新技術帶進治理領域的動力,而強行問責算法開發(fā)企業(yè)或算法設計者又容易消解市場與國家進行技術合作的信心。
總體而言,以特定職責作為各種國家部門行動的方向指引,以問責校準校正各種國家部門的行動選擇,是保證國家治理有力有序有效的重要機制支撐。不過,在國家治理走向算法化的時代,當出現(xiàn)治理失誤時,“算法黑箱”和卸責鏈條的存在,使得問責對象較難鎖定,本應為治理失誤負責的主體很可能找到卸責理由而成功避責,出現(xiàn)問責空轉現(xiàn)象,誰的責任、誰來負責或者說問責于誰將成為一個難題。
在人工智能時代,國家治理算法化是大勢所趨,由深刻的算法依賴衍生出的國家治理公平難題和責任難題在此進程中可能會反復出現(xiàn)。“隱蔽的不公平”和“有理由的卸責”現(xiàn)象在多大程度上能夠得以克服或規(guī)避,決定了國家治理算法化最終能夠走多遠。
在人類社會漫長的發(fā)展演進史中,各種各樣的技術既造福過人類社會,也給人類社會帶來過麻煩。在技術色彩越來越濃厚的當今時代,技術向善越來越成為一種共識、一種推崇乃至一種信仰。以工具屬性為核心屬性的技術本身并無善惡,技術向善還是向惡關鍵在于使用主體的選擇。算法從本質上來說不過是一把“技術菜刀”,是無關好壞選擇的價值中立的、中性的工具[25]。人工智能時代的國家治理深刻依賴于算法,表面上來看,國家治理場景中的算法向善還是向惡主要取決于國家的選擇,實際上,雖然一部分數(shù)據(jù)掌握在國家的相關機構手中,但是更多的、每時每刻都在更新的數(shù)據(jù)掌握在少數(shù)網(wǎng)絡科技巨頭的手中[26]。由于“現(xiàn)有人類社會大數(shù)據(jù)的生產(chǎn)主要來自各類應用平臺,人們的工作和生活、學習、娛樂等消費記錄都通過各類應用平臺傳遞到云端,而這些應用平臺的研發(fā)者和運行者屬于少數(shù)互聯(lián)網(wǎng)企業(yè)”[27],而且只有少數(shù)大型科技公司、互聯(lián)網(wǎng)企業(yè)具備足夠的“動機”和“實力”將足夠的資源投入算法設計,許多優(yōu)秀的算法最終掌握在少數(shù)大型科技公司和互聯(lián)網(wǎng)企業(yè)(人工智能企業(yè))手中。因此,人工智能時代國家治理的算法依賴在某種意義上是國家對人工智能企業(yè)的技術依賴,國家治理場景中的算法向善還是向惡在很大程度上取決于人工智能企業(yè)的選擇。
如果人工智能企業(yè)在算法設計環(huán)節(jié)對數(shù)據(jù)的缺陷視而不見、嵌入偏見或者存在謀求私利的傾向,那么依賴于該算法的特定國家治理行動就必然難以達致公平的結果。如果人工智能企業(yè)意識到“卸責鏈條”的存在而不以追求盡善盡美的態(tài)度對待算法設計,那么依賴于不嚴謹算法或者說有漏洞算法而展開的特定國家治理行動就很難達到預期目標,甚至有可能造成不可挽回的損失。這也表明,如果人工智能企業(yè)能夠以技術向善“自律”,將技術向善內化為一種企業(yè)精神,將技術向善視為一種道德律令般的力量,在設計輔助國家治理的算法時盡可能對所用數(shù)據(jù)進行細致的檢查,盡可能避免摻雜私利與偏見,并且盡可能以負責任的態(tài)度增加算法設計的嚴謹性和道德性,那么實現(xiàn)國家治理場景中的算法向善就要容易得多,或者說國家治理出現(xiàn)偏差的概率就要低得多。其實,不少國家已經(jīng)意識到人工智能時代企業(yè)自律的重要性。比如,中國國家新一代人工智能治理專業(yè)委員會2021 年9 月25 日發(fā)布的《新一代人工智能倫理規(guī)范》就強調相關主體在研發(fā)環(huán)節(jié)要強化自律意識,加強人工智能研發(fā)相關活動的自我約束,主動將人工智能倫理道德融入技術研發(fā)各環(huán)節(jié),自覺開展自我審查,加強自我管理,不從事違背倫理道德的人工智能研發(fā)。毫無疑問,當國家治理深刻依賴于人工智能企業(yè)的算法設計時,人工智能企業(yè)自律是實現(xiàn)國家治理場景中算法向善或防止國家治理出現(xiàn)偏差的基礎,是最為節(jié)約成本的方式,也是最為理想的途徑。
在人工智能時代,期待人工智能企業(yè)自律以實現(xiàn)國家治理場景中的算法向善或避免國家治理偏差并不穩(wěn)當,正如曾經(jīng)的圖靈獎得主、加拿大蒙特利爾大學計算機科學教授Yoshua Bengio所言,“自我監(jiān)管沒有用。你認為自愿交稅有效嗎?沒有。遵守道德準則的公司相對于不遵守道德準則的公司會處于不利地位”[28]。或許可以這么形象地打比方,如果將國家治理場景中的算法向善視為一只飛鳥,人工智能企業(yè)自律僅僅是其中一只翅膀,依靠這一只翅膀,國家治理場景中算法向善這只飛鳥難以飛起來。那么,什么才是支持算法向善這只飛鳥起飛的另一只翅膀呢?答案是國家監(jiān)管。而推進國家監(jiān)管,制度設計是關鍵。
其一,建立硬覆蓋算法備案說明制度。凡是需要依靠人工智能企業(yè)提供算法支持的國家治理事務,相關人工智能企業(yè)都必須向國家提供算法設計理念與思路說明以及相關代碼內容,以備檢查。硬覆蓋算法備案說明制度可以對試圖主動嵌入偏見的算法設計行為形成震懾,也可以為日后算法失誤的責任認定提供線索與證據(jù),讓人為失誤與不可控制的技術失誤得以辨識,促使算法設計者以更負責任的態(tài)度開展工作。這在一定程度上將原本可以不斷卸脫的責任巧妙地前移至算法設計環(huán)節(jié)?;蛟S有人還擔心,人工智能企業(yè)會以算法是商業(yè)秘密為理由拒絕公開算法設計思路或提供相關代碼內容。此時就需要國家出場說明,任何意欲與國家合作或者說為國家治理提供算法支持的人工智能企業(yè)都需要以公開算法設計思路或提供相關代碼內容作為最基本的資格條件,否則即無最基本的合作資格。畢竟算法一旦參與到國家治理事務中,就涉及千千萬萬人的福祉,在某種意義上就具有公共性,“商業(yè)秘密對于效率和創(chuàng)新有一定的激勵作用,但政府的合法性和公共利益擁有壓倒性考量”[29]。實際上,算法備案說明制已經(jīng)在一些領域得到踐行,比如中國人民銀行、銀保監(jiān)會、證監(jiān)會與外匯局2018年3 月聯(lián)合發(fā)布的《關于規(guī)范金融機構資產(chǎn)管理業(yè)務的指導意見》就明確指出,金融機構運用人工智能技術開展資產(chǎn)管理業(yè)務時應當向金融監(jiān)督管理部門報備人工智能模型的主要參數(shù)。當然,人工智能企業(yè)就特定算法設計理念與思路向國家作出說明時需要詳細到何種程度以及向國家提供代碼內容時需要完整到何種程度,應由國家視具體的治理場景與事務相機而定。
其二,建立不定時算法抽檢審查制度。針對為國家治理提供技術輔助的各種人工智能企業(yè)以及各種旨在解決特定問題的算法,國家需要不定時進行算法抽檢審查,防止人工智能企業(yè)“備用分離”,即備案時是一套算法,實際應用時又是另外一套算法,既防止人工智能企業(yè)單方面擅自調整算法,也防止算法在自我學習過程中“變壞”而無人知曉。不定時、突擊式的算法抽檢審查可以讓國家更有可能看到處于真實運行狀態(tài)中的算法或者說看到算法的真面目,可以壓縮人工智能企業(yè)機會主義式進行算法設計的空間,使有偏見、有缺陷的算法無法長存,將“變壞”的算法扼殺于搖籃或萌芽之際,從而有助于避免后續(xù)的責任推諉。由于國家相關組織與部門在進行抽檢審查時可能成為“技術門外漢”,而人工智能企業(yè)則擁有更加專業(yè)的知識,因此可以考慮從多個人工智能企業(yè)中“借調”技術人才成立專門的行業(yè)性算法抽檢審查機構,以此作為國家推進算法抽檢審查的組織基礎。行業(yè)性的算法抽檢審查機構主要通過“過濾機制”發(fā)揮監(jiān)督制約作用,即由算法抽檢審查機構對為國家治理提供算法支持的人工智能企業(yè)進行算法抽檢審查,“過濾”掉有問題的算法。這種方式可以對人工智能企業(yè)起到一種威懾作用,最起碼可以威懾它們不敢刻意設計存有問題的算法?;蛟S有人存在這樣的擔心,即有些人工智能企業(yè)根本就不在乎自己所設計的算法能否通過抽檢審查,那么“過濾機制”就無法起到威懾作用。確實,這種情況是可能出現(xiàn)的,解決的辦法就是國家建立“紅黑榜”名單,通過抽檢審查的人工智能企業(yè)暫時進入“紅榜”,未通過的進入“黑榜”,對于進入“黑榜”的人工智能企業(yè),國家要壓縮其以后為國家治理提供技術支持的空間和機會,讓其付出“高昂的代價”。相反,對于進入“紅榜”的人工智能企業(yè),國家可以考慮增加與其合作的范圍和頻率。實際上,算法抽檢審查機構、“過濾機制”和“紅黑榜”的存在還可以間接發(fā)揮促進人工智能企業(yè)之間正向競爭的作用,而人工智能企業(yè)之間的正向競爭在某種意義上也是一種互相監(jiān)督制約。因為,如果有人工智能企業(yè)想獲得為國家治理提供算法支持的空間和機會,所提供的算法設計要經(jīng)得起檢驗,就需要盡可能地推出更優(yōu)秀、更具公平性、更負責任的算法。哪一家企業(yè)更愿意對算法結果負責,更愿意增加算法的公開透明度,更愿意解釋算法的設計精神,也就更有可能獲得國家的青睞。由于獲得國家的青睞類似于獲得一種名聲認證,而好的名聲對于人工智能企業(yè)自身發(fā)展的價值是不言而喻的,因此人工智能企業(yè)要想在競爭中勝出,就得確保不被別人發(fā)現(xiàn)漏洞或偏差,就要在算法設計過程中精益求精。
其三,建立開放式算法結果觀測制度。當人工智能企業(yè)將為解決特定國家治理問題而設計的算法投入使用之后,國家需要持續(xù)系統(tǒng)地觀測其輸出結果,并根據(jù)輸出結果決定是否需要調整、修補、優(yōu)化或廢置該算法。畢竟在“偏見進,偏見出”的邏輯下,算法輸出結果是推斷算法本身是否有問題的最直接與最有效的依據(jù)。我國發(fā)布的《新一代人工智能倫理規(guī)范》就在多處強調“強化人工智能產(chǎn)品與服務的質量監(jiān)測和使用評估”和“及時監(jiān)測人工智能系統(tǒng)”,由美國參議院兩位議員于2019 年4 月提出的《算法問責法(草案)》也主張對算法進行系統(tǒng)的影響性評估,這兩者都含有加強算法結果觀測的意味。推進算法結果觀測,國家可以充分借助“技術的力量”,針對特定操作算法再設計一套監(jiān)督算法,及時識別、糾正或終止特定操作算法在運行過程中出現(xiàn)的偏差[30]。更為重要的是,國家要充分借助“社會的力量”,形成一支開放式的靈活觀測隊伍。由于社會大眾是治理智能平臺、智能軟件或智能程序的使用者,或者說社會大眾是治理算法的直接受眾,因此社會大眾對算法到底是在為善還是在作惡最有發(fā)言權。如果社會大眾對算法作惡睜一只眼閉一只眼或者說熟視無睹,那么算法設計者就會更加有恃無恐,算法向惡就少一點阻力;而如果社會大眾對算法作惡深惡痛絕,那么算法設計者就會有所顧忌,算法向善就多一點希望。實際上,由社會大眾發(fā)現(xiàn)算法作惡并最終促使相關責任方承諾整改或者導致相關責任方遭受國家力量懲戒的例子頗多。這表明,通過建立開放式算法結果觀測制度,讓廣大社會民眾愿意及時向國家或行業(yè)機構反饋算法作惡的信息,而不是盲目相信一切算法和算法的一切判斷,國家或行業(yè)機構就能依據(jù)更迅捷以及更清晰的信號采取行動。這對試圖誤用和濫用算法的人工智能企業(yè)就會形成巨大的威懾,而對算法結果的重視也有利于抑制人工智能企業(yè)在算法設計環(huán)節(jié)嵌入偏見或降低要求的僥幸心理。
注釋:
① 需要說明的是,除了算法偏見和“算法黑箱”可能使依賴算法的國家治理面臨一些難題,其他算法問題也可能引發(fā)特定的國家治理難題。由于算法偏見和“算法黑箱”更為典型與常見,因此本文主要聚焦于此。