路于嬋
(蘇州大學(xué),江蘇 蘇州 215021)
自2017 年6 月谷歌公司推出ChapGPT 以來,該技術(shù)在世界范圍內(nèi)快速迭代發(fā)展并廣泛應(yīng)用,國內(nèi)部分科技企業(yè)及研究機構(gòu)也相繼發(fā)布生成式人工智能產(chǎn)品,如百度的“文心一言”、阿里的“通義千問”、商湯科技的“商量”、華為的“盤古”、騰訊的“混元”、中國科學(xué)院自動化所的“紫東太初”等[1]。 ChatGPT 目前已更新到GPT-4,這是OpenAI 在擴展深度學(xué)習(xí)方面的最新里程碑。GPT-4 利用深度學(xué)習(xí)技術(shù)構(gòu)建生成模型,利用大量數(shù)據(jù)來訓(xùn)練AI 系統(tǒng)執(zhí)行任務(wù),使該技術(shù)在各種專業(yè)和學(xué)術(shù)基準上表現(xiàn)出人類水平。 隨著人工智能技術(shù)的迅猛發(fā)展,部分企業(yè)和個人利用自身技術(shù)優(yōu)勢掌握了更多的數(shù)據(jù)和資源,將算法技術(shù)應(yīng)用在社會中的各個領(lǐng)域,并干預(yù)個人、政府等決策,從而極大地提高了在社會中的話語權(quán),推動著算法逐漸擺脫“工具”地位,因此有學(xué)者提出了“算法權(quán)力”這一概念[2]。 我國目前的研究主要集中在如何規(guī)制人工智能技術(shù)和算法權(quán)力異化等方面,對于“算法是否是權(quán)力”以及“算法是一種怎樣的權(quán)力”等基礎(chǔ)問題卻缺少研究。 本文主張“算法即權(quán)力”。 我們應(yīng)正確認識算法的本質(zhì),重新認識并調(diào)整生成式人工智能的法律定位,將算法運作模型作為新型的法律治理對象,完善我國相關(guān)法律規(guī)制。
權(quán)力是與社會不可分離的現(xiàn)象,貫穿人類社會發(fā)展的歷史。 討論“算法是否是權(quán)力”這個問題首先應(yīng)明確“權(quán)力是什么”。 權(quán)力是一個“本質(zhì)上爭議的概念”[3],盡管這一概念歷史悠久,但對于它的含義和適用標準等方面,人們一直缺乏共識。 權(quán)力一詞源自西方,其具體含義應(yīng)當(dāng)從西文中尋找。 馬克斯·韋伯(Max Weber)第一次提出權(quán)力的定義,“權(quán)力是迫使他人按照權(quán)力擁有者的意愿行事的能力,而被迫者在其他情況下并不會如此”[4]。 托馬斯·霍布斯(Thomas Hobbes)認為,“權(quán)力是一個人取得利益的手段”[5]。 相對于西方而言,我國對權(quán)力的研究則要落后很多。 我國學(xué)者周永坤在規(guī)范的權(quán)力學(xué)說視野下提出了規(guī)范的權(quán)力概念,“權(quán)力是確認和改變?nèi)穗H關(guān)系或處理他人財產(chǎn)或人身的正當(dāng)權(quán)力”[6]111。 盡管對權(quán)力的定義一直存在爭議,但大多數(shù)學(xué)者認為,“權(quán)力”在最低限度上講是指一個行為者或機構(gòu)影響其他行為者或機構(gòu)的態(tài)度和行為的能力①。 總而言之,權(quán)力在本質(zhì)上是權(quán)力主體對權(quán)利客體的控制力②。
在當(dāng)代社會,權(quán)力發(fā)展出了新的形式與特點。新的權(quán)力不靠權(quán)利,而靠技術(shù);不靠法律,而靠正?;?不靠懲罰,而靠控制[7]。 ChatGPT 的關(guān)鍵決策不是基于數(shù)據(jù)本身做出,而是基于算法分析的數(shù)據(jù)做出。 算法作為代碼的決策部分,是具有決定性作用的。 因此,人工智能的發(fā)展實質(zhì)上就是一場算法的變革。 以算法為基礎(chǔ)的人工智能系統(tǒng)正在社會生活的各個領(lǐng)域中取代人類進行決策,并逐步演化成為一種新型的權(quán)力形式。 算法的權(quán)力化源于其在技術(shù)上擺脫了“工具”地位[8],從而算法作為權(quán)力主體對人具有控制力。
1.算法主體地位增強
算法權(quán)力(Algorithmic power)將人類作為可計算、可預(yù)測、可控制的客體,而非作為主體。 在人工智能技術(shù)廣泛應(yīng)用之前,傳統(tǒng)的人工智能算法需要結(jié)構(gòu)化數(shù)據(jù)來進行模型構(gòu)建和信息處理,本質(zhì)是一種嚴格執(zhí)行相關(guān)指令的自動化工具。 而ChatGPT 不僅可以識別模式,還具有深度學(xué)習(xí)和自動生成內(nèi)容(AIGC)能力,從而使用基于這些模式創(chuàng)建的新數(shù)據(jù)進一步生成內(nèi)容。 因此,我們面對的是“具有認知潛力的主動和交互技術(shù)”,其通過在智能設(shè)備之間實現(xiàn)自動化。 它的運作不需要人類的參與,大部分將在人類無意識、未知的情況下進行。 與此同時,由于算法的自主決策行為不再需要人為的干預(yù),算法的運行機制從原來的透明狀態(tài)變?yōu)殡y以監(jiān)測的狀態(tài),從而產(chǎn)生了一種新型的權(quán)力運行方式。 在該模型中,由于算法執(zhí)行過程不透明和權(quán)責(zé)不匹配等問題,會給算法的安全性和公平性帶來隱患,并且這種隱患會隨著人工智能算法的進一步推廣而越來越嚴重。 自身的強人機互動性和無法解釋的推理能力有關(guān)。 生成式人工智能的強人機互動性使外部風(fēng)險由于難以預(yù)知而具有高度不確定性,而其自身的推理能力更是將這種不確定性由外部延伸至內(nèi)部。 算法從“客觀工具”變?yōu)椤爸饔^操作者”,與人的行為相分離。 因此,算法是被關(guān)注的權(quán)力主體,而不僅僅是實現(xiàn)權(quán)力的工具。
2.算法具有控制力
米歇爾·??抡J為算法是一種作為“主體化的權(quán)力技術(shù)”,它決定個人的行為,并使他們服從某些目的或統(tǒng)治[9]。 隨著人工智能的不斷發(fā)展,算法能夠在大數(shù)據(jù)的支持下進行自主訓(xùn)練、自主學(xué)習(xí),并在這個過程中形成了對多種應(yīng)用場景的認知與決策能力。 這一認知和決策功能的產(chǎn)生,使得算法從機械式地執(zhí)行轉(zhuǎn)變?yōu)閯討B(tài)地自我計劃,從本質(zhì)上實現(xiàn)了整個工作系統(tǒng)中部分權(quán)力由人向算法的轉(zhuǎn)移。 權(quán)力關(guān)系形成于權(quán)力主體的意愿,權(quán)力的行使是為了實現(xiàn)權(quán)力主體的目的,權(quán)力關(guān)系的實現(xiàn)過程受權(quán)力主體的意志的支配[6]58。算法代碼是網(wǎng)絡(luò)空間的“法律”。 它怎么規(guī)定,數(shù)據(jù)就會呈現(xiàn)怎么樣的結(jié)果,一切都以算法的規(guī)則為規(guī)則,以算法的意志為意志。 算法已經(jīng)深度介入社會,在潛移默化之中施展其日漸增長的控制力,權(quán)力越來越多地出現(xiàn)在算法中。
我國傳統(tǒng)上是國家權(quán)力即“公權(quán)力(power)”對應(yīng)個人權(quán)利“私權(quán)利(right)”的二元結(jié)構(gòu)。 公權(quán)力是指基于社會統(tǒng)治地位的公共意志而由國家公權(quán)力機關(guān)和公職人員行使的強制力量。 私權(quán)利即個人權(quán)利,是憲法和法律賦予公民的權(quán)益,個人有權(quán)做出或不做出一定行為,法無禁止即可為。但隨著社會的發(fā)展,第三方力量不斷增強,比如行業(yè)組織、社會組織等一些社會力量,傳統(tǒng)“公權(quán)力—私權(quán)利”二元結(jié)構(gòu)變革為“公權(quán)力—私權(quán)力—私權(quán)利”三元結(jié)構(gòu)[10]。 在人工智能時代,算法掌握了海量數(shù)據(jù)以及先進技術(shù),影響著我們生活的方方面面,我們已進入“算法統(tǒng)治”時代。 算法權(quán)力不同于國家機關(guān)的公權(quán)力,也不同于個人權(quán)利的私權(quán)利。 它是一種新型力量的發(fā)展,是一種私權(quán)力。
在大數(shù)據(jù)時代,任何事物都可以數(shù)據(jù)化,數(shù)據(jù)成為信息與利益的載體。 信息技術(shù)正在“構(gòu)成”而不是“調(diào)節(jié)”我們的生活,構(gòu)成社會和城市結(jié)構(gòu)的“東西”已經(jīng)發(fā)生了變化,它們正在由軟件和代碼來構(gòu)成。 擁有公權(quán)力的國家機關(guān)通過監(jiān)獄等強制機關(guān)對公眾具有強制力;資本通過自身經(jīng)濟、技術(shù)等資源優(yōu)勢掌握支配勞動的權(quán)力;而算法掌握海量信息資源,通過對數(shù)據(jù)的占有、加工以及結(jié)果的輸出,進化為資源、財產(chǎn),逐步“去工具化”,發(fā)展成為一種新型的、與數(shù)據(jù)資源相結(jié)合的社會力量。
首先,算法利用其掌握的海量數(shù)據(jù)資源鑄造“信息繭房”。 臉書的算法技術(shù)通過利用用戶與對象的互動、“贊”或評論等因素來確定用戶熱門新聞上顯示的內(nèi)容。 在網(wǎng)絡(luò)新聞產(chǎn)業(yè)鏈上,“算法分發(fā)”模式的迅速發(fā)展,極大地滿足了網(wǎng)絡(luò)新聞公司對信息傳播效率的需求,各大新聞媒介和社交平臺都在持續(xù)增加對算法技術(shù)方面的投資。長期來看,持續(xù)不斷地向使用者提供同質(zhì)化的信息,會讓使用者陷入“信息繭房”,從而阻礙使用者探索不同領(lǐng)域的知識,限制他們的視野、格局和思維。 諸如此類的量身定制與個性化推送不勝枚舉。 簡而言之,軟件下沉到我們的日常生活中,并通過流行的社交網(wǎng)站等頻繁地技術(shù)升級,意味著這些新的智能的權(quán)力結(jié)構(gòu)已深深嵌入我們的日常生活中。 目前我們正處于“黑匣子社會”中,編碼規(guī)則制定的價值和特權(quán)隱藏在黑匣子里。 權(quán)力越來越多地通過算法行使,技術(shù)的權(quán)力在不斷地增長。 在網(wǎng)絡(luò)社會中,人們被算法所約束的程度也會變得更高,這必然會影響每個人的自由意志和健全人格。
其次,ChatGPT 等先進的數(shù)字前線技術(shù)(無論是視頻上的虛擬技術(shù)還是服務(wù)機器人中的物理技術(shù))都存在嚴重的道德、公平和隱私風(fēng)險。 平臺利用算法技術(shù),免費獲取用戶的個人信息數(shù)據(jù),迫使用戶成為“數(shù)據(jù)制造者”的免費勞動力,從而實現(xiàn)了對用戶的第一次剝削;基于此,平臺利用其掌握的數(shù)據(jù)資源和算法技術(shù),對用戶的消費需求和偏好進行分析與塑造,從而實現(xiàn)對用戶的第二次壓榨;從此,平臺成為凌駕于個人之上的數(shù)據(jù)控制者,通過“數(shù)據(jù)圈地運動”和“數(shù)據(jù)殖民主義”進行數(shù)據(jù)資本的原始積累[11]。 同時,平臺經(jīng)營者在直接或隱蔽地收集大量用戶信息數(shù)據(jù)后,借助大數(shù)據(jù)與云計算技術(shù)完成對個體用戶的畫像,最后利用算法模型實現(xiàn)對不同消費者的差異化定價,進行“大數(shù)據(jù)殺熟”,以此達成蠶食消費者剩余價值的目的[12]。
掌握智能算法技術(shù)的抖音、淘寶等平臺從自身利益和運營需要出發(fā),制定了各種交易規(guī)則和糾紛解決機制等規(guī)則,平臺可利用算法技術(shù)監(jiān)督用戶在該平臺的行為,從而進行獎勵、懲罰等措施,比如禁言、封號等。 算法技術(shù)自行運作很少需要人的參與,并且具有技術(shù)、粘性客戶、信息資源等多種優(yōu)勢,能夠?qū)τ脩暨M行監(jiān)督、管理以及處分等,使得算法權(quán)力成為一種私權(quán)力。
首先,平臺利用自身優(yōu)勢使得“知情同意原則”如同虛設(shè)。 騰訊、淘寶等平臺會在新用戶注冊時利用格式條款獲取個人信息收集的權(quán)限,如果用戶不勾選“同意”則無法進入下一步,因此用戶面對要么同意要么退出的局面。 此時“同意”成為了一種被迫同意的情形,是用戶的無奈之舉。但用戶勾選“同意”就意味著接受平臺的算法,接受平臺算法的自動化決策。 平臺通過對個人畫像的構(gòu)建,進行個性化推薦內(nèi)容,用戶逐漸被迫接受,自我決定權(quán)逐漸被削弱。 軟件通過“學(xué)習(xí)”用戶的口味和偏好,為用戶提供符合他們自己的特定口味的內(nèi)容,這就是算法的結(jié)果。 隨著用戶開始看到信息如何影響他們生活世界的構(gòu)成,他們可能會開始主動塑造這些信息,從而引導(dǎo)軟件對他們的反應(yīng),而不是抵制。 人工智能對于我們?nèi)粘I铑I(lǐng)域的滲透,使人類進入了由“算法統(tǒng)治”的時代。
其次,“算法黑箱”加劇數(shù)字歧視和數(shù)字鴻溝。 ChatGPT 的算法大多嚴重依賴于兩種資源:用于訓(xùn)練和操作算法的豐富數(shù)據(jù)和復(fù)雜的算法運行程序。 而算法運行的基本原理難以理解,并且這涉及知識產(chǎn)權(quán)保護等問題,研發(fā)和運行算法的公司也不愿意公開這些數(shù)據(jù),從而造成了算法的不透明性和不可解釋性。 數(shù)據(jù)和算法中的偏見和歧視問題在人工智能和聊天機器人研究中非常嚴重。 當(dāng)算法通過與身份相關(guān)的數(shù)據(jù)區(qū)別對待不同身份的人群時,可能基于這種傾向性的數(shù)據(jù)庫對一些弱勢群體才產(chǎn)生間接性不同程度的負面影響[13]。 例如,在某些數(shù)據(jù)庫中,如果在測量和選擇數(shù)據(jù)時帶有偏見,就會導(dǎo)致數(shù)據(jù)庫中的樣本多為有色人種,那么基于這些數(shù)據(jù)分析就會得出歧視性的結(jié)論[14]。 同時,發(fā)展中國家技術(shù)落后導(dǎo)致ChatGPT 獲取的數(shù)據(jù)以及用于訓(xùn)練和完善算法的數(shù)據(jù)不對稱,邊緣化群體的數(shù)據(jù)將無法代表,從而造成數(shù)字鴻溝問題。 并且數(shù)字鴻溝繼續(xù)發(fā)展就可能帶來等差鴻溝,財富與信息迅速聚集,格局進一步固化[15]。
2023 年2 月27 日,中共中央、國務(wù)院印發(fā)了《數(shù)字中國建設(shè)整體布局規(guī)劃》,大力推進智慧法院、智慧檢務(wù)等建設(shè)。 在互聯(lián)網(wǎng)與科學(xué)技術(shù)的助力下,在線糾紛解決機制蓬勃興起,不僅分流了案件、精簡了程序,而且降低了糾紛解決成本,促使當(dāng)事人“接近正義”[16]。 算法正在發(fā)揮自己的力量,利用自己的技術(shù)優(yōu)勢比人類思考得更快、更全面、更準確。 人類的計算能力遠遠達不到大規(guī)模數(shù)據(jù)對運算能力的要求,這使得算法逐步獲得社會資源配置的權(quán)力。
算法因自身優(yōu)勢被公權(quán)力和社會民眾所需要,逐步嵌入公權(quán)力當(dāng)中,使得公權(quán)力超越了時間和空間的限制,極大提高了公權(quán)力的范圍和效率。因此,在一定程度上,公權(quán)力是促進算法權(quán)力發(fā)展的重要力量。 例如,深圳市“秒批”人才引進制度,只要將數(shù)據(jù)庫中的數(shù)據(jù)進行對比,就可以在短時間內(nèi)完成審批,不需要任何的人工干預(yù);在智能交通生態(tài)體系中,利用高清技術(shù)系統(tǒng)可對違規(guī)行為直接判斷并開出罰單。 人工智能技術(shù)和智能算法的應(yīng)用雖然給我們生活帶來了諸多便利,但是也存在很多新問題和新風(fēng)險。 新一輪技術(shù)革命使得算法形成了計算優(yōu)勢,深刻地影響人們的決策與行為,迫使人們讓渡部分決策權(quán)。 算法可以輔助甚至取代公權(quán)力,做出具有法律效力的算法決策。 長時間依賴算法將導(dǎo)致國家單位工作人員的參與度與決策能力下降。 在美國總統(tǒng)選舉、英國退歐公投等一系列“黑天鵝”事件中,算法逐步演變成為控制政治與社會的工具,構(gòu)成了一種較以往更加隱秘的新權(quán)力形式。 算法被視為將決策權(quán)從人類行為者手中奪走,或者自由裁量權(quán)被算法對思想的限制所侵蝕。
全球范圍內(nèi)生成式人工智能技術(shù)應(yīng)用已進入爆炸式增長階段,其在為社會帶來經(jīng)濟增長和生活便利的同時,也引發(fā)了各種法律風(fēng)險。 任何權(quán)力都有作惡的可能,因此控制權(quán)力是非常必要的。習(xí)近平總書記指出,要促進人工智能“同經(jīng)濟社會發(fā)展深度融合”,推動我國新一代人工智能健康發(fā)展。 2023 年7 月10 日,為促進生成式人工智能(AIGC)技術(shù)健康發(fā)展和規(guī)范應(yīng)用,國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合公布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)。 生成式人工智能治理應(yīng)符合其功能業(yè)態(tài)的技術(shù)邏輯,應(yīng)對算法權(quán)力進行制約,將重點放在人工智能大模型本身。
我國生成式人工智能技術(shù)發(fā)展存在滯后現(xiàn)象,相關(guān)法律規(guī)制應(yīng)在降低法律風(fēng)險的同時又不阻礙技術(shù)的創(chuàng)新發(fā)展,因此對于算法披露應(yīng)把握好一個“度”。 算法披露有利于提高算法透明以及算法可解釋性。 算法透明是指算法的設(shè)計者將算法的配置、工作方式和使用方式等信息披露給監(jiān)管部門或第三方以便監(jiān)管的制度[17]。 算法解釋權(quán)是指在自動化決策所作的特定決策對對方具有重大影響的情況下,對方有權(quán)請求對特定的決策作出解釋,以及請求更新數(shù)據(jù)或糾正錯誤的權(quán)利[18]。 我國相關(guān)規(guī)定都不同程度地強調(diào)了算法透明的重要性,但都是較為抽象的原則性規(guī)定,缺乏如何具體落實的規(guī)則。 《個人信息保護法》第24 條正式規(guī)定了個人的算法解釋權(quán),有利于打破“算法黑箱”,實現(xiàn)算法透明。 《暫行辦法》第4 條雖規(guī)定了基于“服務(wù)類型特點”采取不同措施提高生成式人工智能服務(wù)的透明度,但關(guān)于具體的“服務(wù)類型特點”并無進一步規(guī)定。
算法披露制度并非是“一刀切”式的要求,應(yīng)根據(jù)算法應(yīng)用領(lǐng)域的不同、商業(yè)秘密的保護以及披露后對算法模型安全、平臺秩序造成的影響等,進行分類分級治理研究。 算法披露可分為三個等級:第一,僅披露算法的存在,用戶具有一次性拒絕的權(quán)利。 第二,披露算法技術(shù)信息,用戶能夠評估自動化決策系統(tǒng)的應(yīng)用情況。 第三,解釋算法決策的具體機制。 商業(yè)領(lǐng)域的算法服務(wù)場景相比公共領(lǐng)域的算法服務(wù)場景,其對個人權(quán)益和社會公共利益的影響相對有限,因此公共領(lǐng)域的算法披露程度應(yīng)較大。 公共領(lǐng)域高風(fēng)險的算法應(yīng)用如刑事司法領(lǐng)域、自動駕駛領(lǐng)域等應(yīng)進行重點規(guī)制。部分純商業(yè)領(lǐng)域的算法隨著平臺企業(yè)的發(fā)展可能具有一定的公共屬性,相應(yīng)影響也就有所增強。
ChatGPT 的開發(fā)公司 OpenAI 官方網(wǎng)站發(fā)布的《隱私政策》指出,當(dāng)用戶使用 ChatGPT 時,會收集用戶的訪問、使用和互動等信息。 ChatGPT將從用戶中抽取少量的數(shù)據(jù)來提升模型的性能,如果用戶不想將這些數(shù)據(jù)用作提升性能,則可通過郵件方式提交給 OpenAI 公司。 生成式人工智能技術(shù)運行需要的海量數(shù)據(jù)來源于機器自動收集與無形爬取,并且會不斷收集使用者的個人信息,這導(dǎo)致人信息面臨泄露風(fēng)險,侵犯個人信息安全和隱私權(quán)等。 《暫行辦法》多處提到對個人信息的保護。 其中,第4 條明確規(guī)定“提供和使用生成式人工智能服務(wù)應(yīng)尊重他人合法權(quán)益”;第7 條規(guī)定“對于包含個人信息的數(shù)據(jù)收集應(yīng)當(dāng)征得個人信息主體同意”。 知情同意原則是個人信息保護的基石,將知情同意作為收集和處理個人信息的必要前提條件,達到對個人信息保護的目的。 但是由于人工智能技術(shù)的發(fā)展和智能算法的復(fù)雜機制,自然人難以預(yù)見個人信息面臨的種種風(fēng)險,即使被充分賦權(quán)也時常難以做出理性選擇,使知情同意機制時常處于無效狀態(tài)。
首先,我國應(yīng)賦予個人關(guān)于算法自動化決策的事前拒絕權(quán)、要求人工審查和解釋算法自動化決策等權(quán)利。 歐盟將個人自治權(quán)與人格尊嚴的保護作為核心理念,將個體賦權(quán)與算法控制相結(jié)合,構(gòu)建了數(shù)據(jù)治理框架下的個體賦權(quán)模式。 我國應(yīng)增強個人在自動化決策中的個人信息權(quán)益保護,個人有權(quán)知曉自己是否可退出以及退出機制等情況。 其次,我國應(yīng)對大型平臺進行嚴格規(guī)制。 大型平臺因具有用戶群龐大、數(shù)據(jù)收集和分析能力強等優(yōu)勢,不當(dāng)使用算法技術(shù)造成的危害將達到相當(dāng)?shù)膹V度和深度,對用戶個人利益、社會秩序等都可能造成嚴重影響,從而應(yīng)首先對其進行規(guī)制。平臺應(yīng)嚴格履行算法使用、處理記錄的保留義務(wù)和算法審核義務(wù)。 美國《2022 算法問責(zé)法案》對大型平臺的界定為近3 個財年的應(yīng)稅期間,平均年總收入超5000 萬美元或擁有超2.5 億美元股權(quán)的,以及以擁有、管理、分析等方式使用超100萬名用戶或消費設(shè)備識別信息的。
上述措施目的的實現(xiàn),都需要以算法權(quán)力的監(jiān)管為保障。 《暫行辦法》第3 條明確提出堅持發(fā)展和安全并重,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管。 生成式人工智能運行復(fù)雜,大都需要多方配合,算法主體呈多元化、動態(tài)化、分散化等特性,很難將其實施與最終的損害之間建立起直接關(guān)聯(lián),侵權(quán)責(zé)任主體界定困難。 并且《暫行辦法》第22 條對提供者的范圍界定不夠明晰。 目前我國網(wǎng)絡(luò)法律制度框架基本搭建完成,網(wǎng)絡(luò)治理一般都以網(wǎng)絡(luò)服務(wù)提供者作為關(guān)鍵主體,因此平臺責(zé)任一直是技術(shù)治理的核心議題[19-23]。 但由于生成式人工智能的人機交互特性,用戶也應(yīng)承擔(dān)自律的責(zé)任,避免參與及利用生成式人工智能行為給社會帶來危害。
人工智能體生成內(nèi)容是算法設(shè)計帶來的結(jié)果,而設(shè)計者在設(shè)計程序時也很有可能無法預(yù)見某一具體侵權(quán)行為的出現(xiàn)。 生成式人工智能通過算法自動生成內(nèi)容,那是否應(yīng)當(dāng)將人工智能作為責(zé)任承擔(dān)主體,將非法律意義上的道德責(zé)任歸咎于不具有情緒價值的人工智能存在很大爭議[24]。并且由于人工智能的廣泛傳播性,“更容易看到一些微小的疏漏以讓人無法預(yù)料的序列連續(xù)發(fā)生,就有可能變成更大的、更具破壞性的大事故”[25]。 這也倒逼人工智能治理模式向敏捷型治理轉(zhuǎn)換[26]。 敏捷型治理以“敏捷性”為目的,快速適應(yīng)場景變化,從主體監(jiān)管轉(zhuǎn)為分層監(jiān)管,解決侵權(quán)主體難以界定的問題;堅持算法風(fēng)險評估制度的常態(tài)化適用,從單一的事后監(jiān)管轉(zhuǎn)變?yōu)椤笆虑氨O(jiān)督—事中干預(yù)—事后審查”的全流程監(jiān)管模式,并重預(yù)防與應(yīng)對;進行技術(shù)賦能,運用技術(shù)解決監(jiān)管難題實現(xiàn)生成式人工智能治理范式革新。
由于信息技術(shù)的網(wǎng)絡(luò)化,權(quán)力在互聯(lián)網(wǎng)世界的作用范圍不再受物理世界的限制,其可以在極短的時間內(nèi)覆蓋到社會生活中每一個人,并涵蓋其生活的每一個位置和時刻。 以算法為核心的人工智能是時代的產(chǎn)物,不管人們愿意與否,它“時刻包圍著我們”,改變著我們的生活方式。 算法權(quán)力化根源在于“去工具化”,隨之而來的就是人的主體地位越來越弱。 通過分析算法權(quán)力,有利于在現(xiàn)實生活中更有針對性地對其進行規(guī)制,平衡好智能算法技術(shù)的安全與發(fā)展問題。
注釋:
① 盧克斯認為,權(quán)力概念的核心就是“A 通過某種與B 的利益相對的方式影響B(tài)”。帕森斯認為,“權(quán)力是一種保證履行有約束力的責(zé)任之能力”。參見戴維·米勒.布萊克維爾政治學(xué)百科全書[M].鄧正來,譯.北京:中國政治大學(xué)出版社,2002:641。
② 達爾認為,“A 對B 享有權(quán)力即A 可以迫使B 去做他本不愿去做的事情”。泰勒主張,“如果外在的條件使我發(fā)生改變,但這種變化并沒有違背我的利益,那就不存在權(quán)力”,“A 對B 有權(quán)力,意味著A 可要求B 為某些行為,而在其他情況下,B 完全可以不為這些行為”。上述內(nèi)容參見Robert A.Dahl,The concept of power,BehavioralScience3(1957),pp.202-203;Charles Taylor,Foucault on Freedom and Truth,PoliticalTheory2(1984),pp.172-173;Matteo Pallaver,“Power and its Forms:Hard,soft and smart”,A thesis submitted to the Department of International Relation of the London school of Economics,October32(2011)。