孫陽
摘要:基于博弈模型分析的人工智能生成行為強調(diào)決策收益和決策成本的不同結(jié)果,收益和成本的權(quán)衡進一步完善人工智能生成行為的決策標(biāo)準(zhǔn)。人工智能生成行為的決策收益與決策成本因生成內(nèi)容使用行為的共識狀態(tài)而發(fā)生實質(zhì)變化,對生成行為規(guī)范性質(zhì)形成共識的情況下,人工智能設(shè)備所有者與內(nèi)容使用者僅需要依據(jù)共識性理解進行決策。共識性理解即雙方主體對于生成內(nèi)容的使用是否需要取得授權(quán)形成一致判斷,這就需要人工智能生成行為的規(guī)范設(shè)計足夠明確和統(tǒng)一,當(dāng)雙方主體對于生成內(nèi)容的使用無法形成規(guī)則共識,圍繞生成行為的權(quán)益糾紛必然增加決策成本并降低決策收益。因此,厘清人工智能生成行為及其法律效力,促進規(guī)則共識的形成是決策標(biāo)準(zhǔn)指導(dǎo)規(guī)范設(shè)計的核心要素。
關(guān)鍵詞:人工智能生成行為 ?規(guī)范設(shè)計 ?博弈模型 ?收益與成本
中圖分類號:D922.17 文獻標(biāo)識碼: A文章編號:1674-8557(2024)01-0094-14
人工智能生成行為是人工智能技術(shù)應(yīng)用的主要內(nèi)容之一,通過人工智能相關(guān)主體的參與和決策實現(xiàn)產(chǎn)業(yè)需求與價值預(yù)期。作為重點發(fā)展和推廣的前沿技術(shù),人工智能生成過程中復(fù)數(shù)主體參與的技術(shù)特征要求清晰和統(tǒng)一的規(guī)范設(shè)計以協(xié)調(diào)不同主體之間的行為決策,提高人工智能生成行為的運行效率和應(yīng)用價值。人工智能生成內(nèi)容的多樣性要求規(guī)范設(shè)計不拘泥于特定法律部門,2023年8月起施行的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)中明確了人工智能生成行為的規(guī)范設(shè)計應(yīng)當(dāng)“促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益”?!稌盒修k法》中對于生成內(nèi)容的多層次要求意味著生成行為的規(guī)范設(shè)計不等同于特定法律規(guī)則的移植,而應(yīng)當(dāng)圍繞主體行為的決策,為人工智能生成行為提供制度性保障。
人工智能生成行為伴隨生成內(nèi)容的客觀結(jié)果,從行為模式上契合著作權(quán)作品創(chuàng)作生成的一般特征。因此,現(xiàn)階段人工智能生成行為的規(guī)范設(shè)計側(cè)重于討論著作權(quán)規(guī)則對人工智能生成行為的法律適用,通過作者權(quán)規(guī)則的適用確認人工智能生成內(nèi)容的著作權(quán)法律屬性,構(gòu)建類似于著作權(quán)作品權(quán)屬的規(guī)范標(biāo)準(zhǔn)。問題在于,人工智能生成行為的技術(shù)特征無法實現(xiàn)自然人格為基礎(chǔ)的作者權(quán)屬,需要借助于擬制人格實現(xiàn)作者主體身份的權(quán)利基礎(chǔ)。作者權(quán)規(guī)則的適用一定程度上壓縮了人工智能生成行為的規(guī)范調(diào)整空間,也不滿足人工智能生成行為多層次規(guī)范設(shè)計的總體要求。有鑒于此,人工智能生成行為的規(guī)范設(shè)計應(yīng)跳出生成內(nèi)容法律屬性認定的窠臼,圍繞人工智能生成行為的主體決策設(shè)計規(guī)范標(biāo)準(zhǔn)。本文基于博弈理論模型,圍繞人工智能生成行為的主體決策進行分析,探討構(gòu)建符合人工智能技術(shù)發(fā)展的生成行為決策標(biāo)準(zhǔn),為人工智能生成行為規(guī)范設(shè)計提供參照。
一、作為決策基礎(chǔ)的人工智能生成行為
明確法律規(guī)范的效力是行為主體進行決策的基本前提,也是行為主體通過具體決策最大化行為收益并降低行為成本的必然結(jié)果。人工智能生成行為屬于人工智能技術(shù)運行的主要類型之一,技術(shù)運行的基本特征和法律屬性直接決定了人工智能參與主體的行為邊界,行為邊界的厘清和確認影響人工智能生成行為的相關(guān)規(guī)范思考。在此基礎(chǔ)上形成的人工智能生成行為決策標(biāo)準(zhǔn)是人工智能參與主體進行合理決策的基本前提,也是影響人工智能生成行為收益與成本有效平衡的規(guī)范基礎(chǔ)。
(一)人工智能生成行為的技術(shù)構(gòu)成
人工智能是執(zhí)行既定任務(wù)并實現(xiàn)預(yù)期功能的技術(shù)系統(tǒng)集合,該系統(tǒng)集合包含人類主體參與、任務(wù)決策機制、內(nèi)容生成流程、機器學(xué)習(xí)步驟以及自我學(xué)習(xí)完善等基本構(gòu)成。人工智能生成行為遵循上述技術(shù)原則,基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容。需要說明的是,人工智能生成行為的技術(shù)構(gòu)成應(yīng)結(jié)合技術(shù)本質(zhì)進行類型化分析。
人工智能的典型特征在于人機交互的運行機制,圍繞人機交互的技術(shù)特征將人工智能劃分為具有自決性并能夠進行自主運行的技術(shù)系統(tǒng)。自決性即人工智能進行自主決策的基本特征,也是梳理人工智能生成行為中人機交互范圍與深度的主要技術(shù)指標(biāo)。實踐應(yīng)用中的人工智能生成行為需要通過人工指令完成具體的生成任務(wù),如語言翻譯、數(shù)據(jù)計算以及圖形生成等具體功能。一般而言,此類人工智能生成技術(shù)的自主決策程度較低,主要通過人工智能參與主體的行為介入實現(xiàn)既定的生成目標(biāo)。有觀點認為自主決策程度較低的人工智能屬于工具性技術(shù)應(yīng)用,本質(zhì)上作為人類行為的拓展工具。因此,自決性較低的人工智能生成行為僅僅是遵循人工智能參與主體的指令并依據(jù)預(yù)先設(shè)計的生成機制實現(xiàn)具體生成內(nèi)容;此時,分析人工智能生成行為的技術(shù)構(gòu)成清晰且明確:即發(fā)布指令的行為主體與機械執(zhí)行指令的技術(shù)應(yīng)用。
與之相對,自主決策程度高的人工智能生成行為強調(diào)人工智能參與主體的交互式行為過程;自決性高的人工智能運用所謂的“神經(jīng)網(wǎng)絡(luò)”設(shè)計模擬人類腦部行為,實現(xiàn)類似人腦的信息吸收、分類、決策和傳遞的基本功能。這一類模擬人腦的運行過程通過人工智能特有的機器學(xué)習(xí)機制來實現(xiàn),機器學(xué)習(xí)側(cè)重模擬人類認知和學(xué)習(xí)過程,通過系統(tǒng)的機制修正認知和學(xué)習(xí)過程中發(fā)生的錯誤,完成機器學(xué)習(xí)的整體流程,提高人工智能運行的基本效率。
以O(shè)penAI公司研發(fā)的人工智能對話系統(tǒng)為例。ChatGPT(Chat Generative Pretraining Transformer)即生成型預(yù)訓(xùn)練轉(zhuǎn)換程序,是由OpenAI公司于2022年11月30日發(fā)布的一款高自決性人生成式人工智能機器人。ChatGPT能夠通過學(xué)習(xí)和理解人類語言來實現(xiàn)和人類的對話功能,并能夠依據(jù)對話上下文語境來針對性的回答人類提出的問題。本質(zhì)上,屬于人工智能內(nèi)容生成技術(shù)(Artificial Intelligence Generate Content,AIGC)的具體應(yīng)用;通過學(xué)習(xí)人類語言和相關(guān)知識,ChatGPT具備了自主決策的語言內(nèi)容創(chuàng)作能力,進而通過程序運行生成語言形式的內(nèi)容。ChatGPT的自主決策通過兩大核心技術(shù)得以實現(xiàn):首先是基于生成式預(yù)訓(xùn)練的轉(zhuǎn)換機制(Generative Pretrained Transformer,GPT),以生成式自主學(xué)習(xí)為運行基礎(chǔ),從訓(xùn)練數(shù)據(jù)中提取并學(xué)習(xí)隱含的語言規(guī)律和對話模式,并訓(xùn)練出千億級別參數(shù)總量的大規(guī)模語言模型;其次,基于人類反饋強化學(xué)習(xí)(Reinforcement Learning with Human Feedback,RLHF)機制保證語言模型及其生成于人類的嘗試、認知、價值觀保持一致。
(二)技術(shù)特征區(qū)分的主體構(gòu)成
人工智能生成行為的參與主體基于人工智能的自主決策程度發(fā)生變化。自主決策程度較低的人工智能具有典型的工具特征,生成行為及其生成內(nèi)容本質(zhì)上人工指令的技術(shù)化結(jié)果。生成行為與生成內(nèi)容來源于指令輸入者的具體要求,貫徹指令輸入者的生成意志,生成行為的具體內(nèi)容基于具體指令和技術(shù)運行具有可預(yù)見性。此時人工智能生成行為主要通過單一主體實施且行為過程具有鮮明的工具屬性,決策標(biāo)準(zhǔn)可以參照著作權(quán)法中的法人作品規(guī)則構(gòu)建生成行為的規(guī)范模式。我國《著作權(quán)法》第11條規(guī)定,“由法人或者非法人組織主持,代表法人或者非法人組織意志創(chuàng)作,并由法人或者非法人組織承擔(dān)責(zé)任的作品,法人或者非法人組織視為作者?!狈ㄈ俗髌窓?quán)屬歸于具有法律擬制人格的法人組織,而實施創(chuàng)作行為的自然人在貫徹法人組織創(chuàng)作意志過程中具有工具特征;區(qū)別于傳統(tǒng)作者權(quán)規(guī)則的自然人格標(biāo)準(zhǔn),法人作品規(guī)則強調(diào)特定作品的創(chuàng)作需要投入大量人力、物力和財力才能完成創(chuàng)作的整體流程。
當(dāng)人工智能生成行為屬于法人組織的創(chuàng)作行為,則法人組織可以通過法人作品規(guī)則主張生成內(nèi)容的所有權(quán)。在深圳騰訊公司訴上海盈科科技公司侵害著作權(quán)糾紛中,深圳騰訊公司主張其自主研發(fā)的自動寫稿機器人Dreamwriter生成的文章享有著作權(quán),被告未經(jīng)許可轉(zhuǎn)載文章的行為侵犯其著作權(quán)并構(gòu)成不正當(dāng)競爭。在確認涉案文章具有獨創(chuàng)性的前提下,法院認為自動寫稿機器人Dreamwriter是由原告主持下的內(nèi)容編輯團隊、產(chǎn)品推廣團隊以及技術(shù)開發(fā)團隊共同完成研發(fā)設(shè)計。涉案文章依據(jù)法人作品規(guī)則被法院裁定為通過原告主持的團隊分工形成的獨創(chuàng)性作品,體現(xiàn)了原告對于發(fā)布涉案文章主題內(nèi)容的意圖和需求,滿足著作權(quán)法人作品的規(guī)范要件。
持有并使用工具的主體可以推定為工具的所有權(quán)人,能夠通過使用工具獲得收益并主張所有權(quán)。法人作品規(guī)則遵循相同的邏輯。法人作品規(guī)則明確了創(chuàng)作行為的權(quán)利歸屬和收益分配,為法人創(chuàng)作行為的決策標(biāo)準(zhǔn)提供規(guī)范參照。區(qū)別于低自決性人工智能中指令輸入者的核心地位,高自決性人工智能要求不同類型主體參與生成行為的整體過程。高自決性人工智能生成行為由此具有了不可預(yù)測屬性,生成內(nèi)容也具有更多可能;具體而言,高自決性人工智能生成行為的參與主體可以基本劃分為人工智能研發(fā)者、人工智能設(shè)備所有者、人工智能使用者、人工智能測試參與者以及人工智能基礎(chǔ)數(shù)據(jù)提供者。
上述不同類型的人工智能參與主體中,人工智能研發(fā)者、人工智能設(shè)備所有者以及人工智能使用者是影響人工智能生成行為及其生成內(nèi)容的參與主體,這三類主體的行為決策直接影響生成行為以及生成內(nèi)容的價值。其中,人工智能研發(fā)者為生成行為的實現(xiàn)提供最根本的技術(shù)支持;人工智能設(shè)備所有者為人工智能生成行為的開展提供物質(zhì)條件;人工智能使用者影響生成行為的推廣和應(yīng)用,間接決定生成內(nèi)容的使用價值。另一方面,人工智能測試與基礎(chǔ)數(shù)據(jù)提供也是人工智能生成行為中的主要環(huán)節(jié),對于人工智能生成行為的產(chǎn)業(yè)需求與價值開發(fā)具有重要影響;人工智能測試參與者的行為影響生成功能的穩(wěn)定性和預(yù)測性,間接影響人工智能使用者對生成行為的評估和決策。人工智能基礎(chǔ)數(shù)據(jù)提供者則需要通過確保數(shù)據(jù)的種類和質(zhì)量來提高人工智能生成內(nèi)容的多樣性和豐富性。
鑒于上述主體的行為模式存在實質(zhì)差異,作為決策標(biāo)準(zhǔn)依據(jù)的規(guī)范設(shè)計應(yīng)當(dāng)合理兼顧不同主體利益需求的有效平衡,為不同主體的行為決策提供有效的規(guī)范基礎(chǔ)。適用于低自決性人工智能的法人作品規(guī)則不能涵蓋高自決性人工智能的生成行為,這種規(guī)范設(shè)計思路仍然屬于圍繞生成內(nèi)容特征而設(shè)計規(guī)則的固有路徑,屬于對現(xiàn)有部門法律規(guī)則的機械移植。應(yīng)對高自決性人工智能生成行為的現(xiàn)實需求,如何解決固有路徑適用范圍有限的規(guī)則缺陷是構(gòu)建決策標(biāo)準(zhǔn)的核心問題。
二、基于博弈理論的分析:收益與成本
人工智能生成行為本質(zhì)上屬于復(fù)數(shù)主體參與和決策的技術(shù)應(yīng)用行為,行為過程中必然產(chǎn)生相應(yīng)的行為收益與行為成本,這就要求人工智能生成行為的決策標(biāo)準(zhǔn)需要充分考慮生成行為的技術(shù)特征而形成明確、統(tǒng)一且有效的規(guī)則參照。根據(jù)人工智能生成行為的一般過程,行為收益可以包括生成內(nèi)容的功能性使用、生成內(nèi)容的交易價值以及人工智能設(shè)備的使用收益等。另一方面,行為成本則涉及人工智能設(shè)備的研發(fā)投入、用于生成行為的數(shù)據(jù)搜集以及生成內(nèi)容權(quán)益分配而產(chǎn)生的潛在糾紛等。從行為決策的合理性出發(fā),人工智能生成行為的決策標(biāo)準(zhǔn)應(yīng)當(dāng)通過收益與成本的權(quán)衡滿足人工智能參與主體的利益需求。意大利制度經(jīng)濟學(xué)家維爾弗雷多·帕累托指出,“當(dāng)特定規(guī)則使一部分人的情況變得更好,又不會導(dǎo)致另一部分人的情況變得更差,那么這種規(guī)則帶來的經(jīng)濟狀態(tài)是有效的。”依據(jù)帕累托的規(guī)范評估原理,決策標(biāo)準(zhǔn)應(yīng)當(dāng)使包括人工智能研發(fā)者、人工智能使用者以及人工智能設(shè)備所有者等行為主體通過生成行為的實施取得收益,并且沒有任意一方主體因生成行為而單方面承受行為成本。
(一)博弈模型的基本原理
厘清了決策標(biāo)準(zhǔn)的制定原則,分析的重點在于如何有效的評估特定行為的收益與成本。博弈模型的核心機制在于不同行為主體在既定條件下的決策選擇,行為主體依據(jù)對方的決策選擇有利于本方的決策策略,爭取最大的決策收益并降低決策成本。博弈模型強調(diào)行為主體在決策過程中的理性人思維,每一次決策的結(jié)果都會爭取降低決策的成本并且增加決策的收益,在此基礎(chǔ)上通過多次重復(fù)的單一行為決策而形成針對某一類行為的統(tǒng)一決策標(biāo)準(zhǔn),具有此類決策特征且最為典型的博弈模型即為囚徒博弈。
囚徒博弈作為典型的博弈模型,指出參與博弈各方基于理性思維的博弈結(jié)果會導(dǎo)致博弈主體的結(jié)果相較于博弈之前更為不利。囚徒博弈假設(shè)了一個刑事審訊的特殊規(guī)則,即兩名嫌疑人面對審訊可以分別做出兩種不同的決策選擇:(1)選擇沉默;(2)選擇坦白供述罪行。過程中兩名嫌疑人無法確定對方選擇的結(jié)果,也無法同時與對方進行決策選擇的溝通。在囚徒博弈模型中,選擇沉默或坦白的不同決策將導(dǎo)致嫌疑人承受不同的結(jié)果。
1.?當(dāng)兩名嫌疑人在審訊過程中都選擇沉默,此時兩位嫌疑人分別承受3的監(jiān)禁期限。
2.?當(dāng)兩名嫌疑人在審訊過程中都選擇坦白,此時兩位嫌疑人分別承受10年的監(jiān)禁期限。
3.?當(dāng)一位嫌疑人選擇坦白而另一位嫌疑人選擇沉默時,選擇坦白的嫌疑人立即釋放(即監(jiān)禁期限為0),而選擇沉默的嫌疑人承受20年監(jiān)禁期限。
綜合不同情況下嫌疑人的決策選擇,堅持選擇沉默的決策更有利于嫌疑人承受較短時間的監(jiān)禁期限。當(dāng)雙方都接受并認可這一決策標(biāo)準(zhǔn)時,囚徒博弈模型中的嫌疑人總是以沉默作為進行博弈的優(yōu)先選擇,即追求最少監(jiān)禁時間的決策標(biāo)準(zhǔn)實際上是嫌疑人作為行為主體在決策過程中貫徹理性思維的必然結(jié)果,此時囚徒博弈中的決策主體在爭取個體決策成本最小化的過程中承擔(dān)了博弈決策的次優(yōu)后果;另一方面,嫌疑人雖然可以通過選擇坦白罪行來爭取最優(yōu)決策的收益即立即獲得釋放,但如果另一方嫌疑人此時也選擇坦白罪行,那么雙方都將承受10年時間的監(jiān)禁期限,此時雙方都不愿意以坦白罪行的決策策略換取最優(yōu)的決策收益,因為另一方同樣可能選擇最大化收益的決策策略(即坦白爭取立即釋放的結(jié)果)。需要說明的是,囚徒博弈中選擇次優(yōu)結(jié)果的決策并不符合經(jīng)濟學(xué)角度的帕累托最優(yōu)標(biāo)準(zhǔn),即雙方都因自利導(dǎo)向驅(qū)動的決策而導(dǎo)致雙方的狀況變得更為不利。囚徒博弈模型的決策結(jié)果是典型的個體理性人思維與群體理性結(jié)果沖突的情況,個體基于理性人思維決策的后果往往是群體利益的受損。
(二)人工智能生成行為的收益與成本
運用博弈模型的基本原理分析人工智能生成行為的收益與成本,首先需要明確博弈模型與人工智能生成行為的區(qū)別。不同于博弈模型的規(guī)則機制,現(xiàn)行法律規(guī)范體系不直接調(diào)整人工智能生成行為中的主體權(quán)利和義務(wù),人工智能參與主體的行為本質(zhì)上受制于收益與成本的權(quán)衡。因此,問題的關(guān)鍵在于行為主體的決策是否遵循理性人的基本思維邏輯,通過行為決策實現(xiàn)制度經(jīng)濟學(xué)標(biāo)準(zhǔn)中的帕累托最優(yōu)結(jié)果。遵循博弈模型的分析原理,關(guān)鍵在于建立人工智能參與主體的收益與成本結(jié)構(gòu)。
人工智能生成行為屬于特殊的物的創(chuàng)造行為,應(yīng)當(dāng)遵循一般物的創(chuàng)造行為規(guī)律來構(gòu)建收益與成本的分析結(jié)構(gòu)。物的創(chuàng)造可以宏觀上劃分為有形物的創(chuàng)造與無形物的創(chuàng)造兩個層面,有形物與無形物的劃分不能脫離財產(chǎn)規(guī)則的適用。從羅馬法到法國民法,物與財產(chǎn)在權(quán)利客體在概念層面是重合的。英國法學(xué)家梅因?qū)α_馬法中土地、奴隸等要式轉(zhuǎn)移行為分析時提出了物的基本概念。法國《拉魯斯大百科全書》指出:“凡是能構(gòu)成財產(chǎn)的一部分并可占為己有的財富即為物。這種物既可以是有體物,可以被人感知,包括一切動產(chǎn)或不動產(chǎn);也可以是無體物,既沒有實體存在,而又人主觀擬制的物。”對于物與財產(chǎn)的相關(guān)性,當(dāng)代《英國牛津大辭典》則在表述權(quán)利客體的物與財產(chǎn)時做出了動產(chǎn)與不動產(chǎn)的相同類別劃分:前者屬于可以請求返還特定物的財產(chǎn),而后者則屬于請求肌膚損害賠償?shù)呢敭a(chǎn)。由此可見,物與財產(chǎn)在法律規(guī)范層面的內(nèi)涵基本一致,法律規(guī)范對于財產(chǎn)的規(guī)制亦可用于物的規(guī)制。
人工智能生成行為產(chǎn)生特殊技術(shù)應(yīng)用的“物”——人工智能生成內(nèi)容,物與財產(chǎn)的同質(zhì)性奠定了財產(chǎn)規(guī)則分析人工智能生成行為的可行性。人工智能技術(shù)研發(fā)是人工智能生成行為的基礎(chǔ),實施生成行為首先需要投入技術(shù)研發(fā)的成本,包括研發(fā)人員的組織、研發(fā)資金的投入、研發(fā)技術(shù)的累積以及研發(fā)時間的消耗;伴隨人工智能研發(fā)的完成,基礎(chǔ)數(shù)據(jù)的投入與人工智能運行測試是生成行為實現(xiàn)目標(biāo)功能的前提。這個階段的行為成本則包括數(shù)據(jù)搜集整合與測試人工費用。鑒于研發(fā)過程的復(fù)雜性,總體研發(fā)成本一般需要由能夠統(tǒng)籌人工智能研發(fā)行為的主體來承擔(dān),實踐中這類主體往往是具有研究資源和組織能力的科技類型企業(yè)。因此,人工智能生成行為的決策主體一方應(yīng)當(dāng)為人工智能設(shè)備所有者。
生成內(nèi)容的使用者是典型的另一方?jīng)Q策主體,生成內(nèi)容使用的行為收益與行為成本基于人工智能生成行為的規(guī)范設(shè)計而發(fā)生變化。當(dāng)人工智能生成內(nèi)容不屬于人工智能設(shè)備所有者的財產(chǎn),生成內(nèi)容的使用對內(nèi)容使用者產(chǎn)生實質(zhì)收益;相反,人工智能設(shè)備所有者根據(jù)財產(chǎn)規(guī)則主張對人工智能生成內(nèi)容的控制,內(nèi)容使用者取得授權(quán)的成本轉(zhuǎn)化為設(shè)備所有者的收益。無視財產(chǎn)規(guī)則會導(dǎo)致人工智能研發(fā)行為的成本無法通過財產(chǎn)規(guī)則的專有性進行補償,導(dǎo)致人工智能設(shè)備所有者直接做出放棄研發(fā)行為的決策,以減少研發(fā)行為單方面承擔(dān)成本而不能維持收益的負面結(jié)果,因此,合理的博弈分析前提應(yīng)當(dāng)是承認財產(chǎn)規(guī)則下人工智能生成內(nèi)容是設(shè)備所有者的財產(chǎn)。
基于博弈理論中的決策分析模型,財產(chǎn)規(guī)則下的人工智能設(shè)備所有者與人工智能內(nèi)容使用者的決策包括以下情況。
1.?設(shè)備所有者與內(nèi)容使用者認為生成內(nèi)容的使用行為需要獲得授權(quán)。
2.?設(shè)備所有者與內(nèi)容使用者認為生成內(nèi)容的使用行為不需要獲得授權(quán)。
上述兩種情況中,設(shè)備所有者與內(nèi)容使用者對于生成內(nèi)容使用行為的法律性質(zhì)達成共識,能夠基于規(guī)則共識進行作品使用行為的相關(guān)決策,根據(jù)共識性決策,設(shè)備所有者與內(nèi)容使用者的決策收益與決策成本如下。
(1)設(shè)備所有者基于財產(chǎn)規(guī)則進行授權(quán)性使用,內(nèi)容使用者獲得設(shè)備所有者的授權(quán),同時向人工智能設(shè)備所有者支付生成內(nèi)容的使用費用,設(shè)備所有者獲得財產(chǎn)規(guī)則下的預(yù)期收益;由于決策雙方形成規(guī)則共識,不產(chǎn)生權(quán)益糾紛帶來的決策成本。設(shè)備所有者通過授權(quán)生成內(nèi)容使用而獲得決策收益,內(nèi)容使用者的決策成本則是支付的使用費用,而決策收益則是生成內(nèi)容的使用價值。
(2)設(shè)備所有者不尋求訴訟救濟等維權(quán)行為,內(nèi)容使用者不需要向人工智能設(shè)備所有者支付授權(quán)使用費用,設(shè)備所有者此時沒有財產(chǎn)規(guī)則的決策收益;內(nèi)容使用者的決策收益則為免于承擔(dān)的授權(quán)使用費用以及生成內(nèi)容的使用價值;由于雙方形成內(nèi)容使用行為的規(guī)則共識,沒有權(quán)益糾紛帶來的決策成本。
人工智能設(shè)備所有者與內(nèi)容使用者達成共識的條件下,決策雙方不會進入權(quán)益糾紛相關(guān)程序,不存在額外的決策成本,兩種情況下設(shè)備所有者與內(nèi)容使用者的決策收益與決策成本圍繞授權(quán)使用的費用相互轉(zhuǎn)化,在收益與成本總量不變的條件下在決策主體之間轉(zhuǎn)移;同時,共識條件下的決策能夠保證人工智能生成內(nèi)容的實際使用,有利于人工智能技術(shù)應(yīng)用的推廣和檢驗。因此,設(shè)備所有者與內(nèi)容使用者就人工智能生成行為達成共識并進行決策的情況符合帕累托最優(yōu)的制度經(jīng)濟學(xué)結(jié)果,也使有利于實現(xiàn)人工智能功能價值的決策標(biāo)準(zhǔn)。
當(dāng)人工智能設(shè)備所有者與內(nèi)容使用者就生成內(nèi)容使用行為無法達成規(guī)則共識,需要通過訴訟程序解決權(quán)益糾紛,設(shè)備所有者與內(nèi)容使用者的決策分為以下兩種情況。
1.?人工智能設(shè)備所有者基于財產(chǎn)規(guī)則發(fā)起訴訟并且勝訴,內(nèi)容使用者作為被告需要承擔(dān)損害賠償?shù)确韶?zé)任。
2.?人工智能設(shè)備所有者發(fā)起訴訟,內(nèi)容使用者作為被告勝訴,使用生成內(nèi)容的行為不侵犯設(shè)備所有者的合法權(quán)利。
基于博弈理論中的決策分析模型,設(shè)備所有者與內(nèi)容使用者的決策收益與決策成本情況如下。
(1)設(shè)備所有者勝訴時,設(shè)備所有者的決策收益為被告承擔(dān)的損害賠償?shù)确韶?zé)任;財產(chǎn)規(guī)則中的損害賠償一般以權(quán)利人的實際損失或侵權(quán)行為人的侵權(quán)收益為主要衡量依據(jù),損害賠償?shù)木葷瓌t以充分補償為主,懲罰侵權(quán)為輔。因此,人工智能設(shè)備所有者通過勝訴獲得的決策收益可以涵蓋被告使用生成內(nèi)容而未支付的授權(quán)費用,內(nèi)容使用者承擔(dān)的決策成本則是敗訴的法律責(zé)任以及訴訟費用的成本。
(2)設(shè)備所有者敗訴時,生成內(nèi)容的使用行為不屬于侵權(quán)行為,設(shè)備所有者因敗訴無法主張財產(chǎn)規(guī)則救濟而損失授權(quán)費用,設(shè)備所有者承擔(dān)的決策成本是訴訟費用的支付;另一方面,內(nèi)容使用者的使用行為不需要承擔(dān)授權(quán)費用,零成本的使用行為轉(zhuǎn)化為決策收益,同時,通過訴訟判決確認的使用行為合法性也有助于人工智能技術(shù)的推廣與產(chǎn)業(yè)價值的實現(xiàn)。
以上分析過程沒有具體強調(diào)財產(chǎn)規(guī)則的具體內(nèi)容,但分析并不影響決策收益和決策成本的基本結(jié)論。人工智能生成行為屬于動態(tài)發(fā)展的技術(shù)應(yīng)用,自主決策程度的技術(shù)發(fā)展直接決定了人工智能生成內(nèi)容的特征和價值;適用于人工智能生成行為博弈分析僅僅是行為決策的依據(jù)和前提,而分析的重點則著眼于行為主體的決策及其結(jié)果是否符合有利于人工智能的技術(shù)發(fā)展與整體決策收益的最大化。
三、博弈特征為導(dǎo)向的生成行為決策標(biāo)準(zhǔn)
基于博弈模型分析的人工智能生成行為強調(diào)決策收益和決策成本的不同結(jié)果,收益和成本的權(quán)衡進一步完善人工智能生成行為的決策標(biāo)準(zhǔn)。人工智能生成行為的決策收益與決策成本因生成內(nèi)容使用行為的共識狀態(tài)而發(fā)生實質(zhì)變化。共識狀態(tài)即雙方主體對于生成內(nèi)容的使用是否需要取得授權(quán)形成一致判斷,這就需要人工智能生成行為的規(guī)范設(shè)計足夠明確和統(tǒng)一,當(dāng)雙方主體對于生成內(nèi)容的使用無法形成規(guī)則共識,圍繞生成行為的權(quán)益糾紛必然增加決策成本并降低決策收益。因此,厘清人工智能生成行為及其法律效力,促進規(guī)則共識的形成是決策標(biāo)準(zhǔn)指導(dǎo)規(guī)范設(shè)計的核心要素。
(一)依托賦權(quán)進路,確立行為主體的權(quán)利地位
人工智能生成行為的賦權(quán)進路即通過賦予人工智能行為主體排他性權(quán)利,對生成內(nèi)容提供法律控制手段,從而一定程度和范圍內(nèi)針對生成內(nèi)容產(chǎn)生排除他人侵害的法律效果。賦權(quán)進路的功能之一在于通過激勵機制實現(xiàn)行為預(yù)期。經(jīng)濟學(xué)主張,激勵是行為主體對獎勵或懲罰產(chǎn)生預(yù)期而做出的相關(guān)反應(yīng)。人工智能行為主體在決策過程中依據(jù)決策收益與決策成本做出的行為決策選擇,亦是遵循激勵機制而產(chǎn)生的典型結(jié)果。
決策標(biāo)準(zhǔn)指導(dǎo)規(guī)范設(shè)計的核心在于形成行為主體之間的規(guī)則共識,通過賦權(quán)的規(guī)范設(shè)計確立行為主體的權(quán)利地位,以明確的權(quán)利地位形成清晰的權(quán)責(zé)關(guān)系,通過權(quán)責(zé)關(guān)系影響決策收益和決策成本的權(quán)衡,最終促成規(guī)則共識形成的激勵預(yù)期。
人工智能生成行為包括設(shè)備研發(fā)、數(shù)據(jù)收集和測試、生成內(nèi)容產(chǎn)出等,都屬于技術(shù)與人力層面的勞動投入,對于勞動的尊重和保護是法律制度的應(yīng)然態(tài)度。約翰·洛克在《論政府》中認為,“既然勞動是勞動者無可爭議的所有物,那么對于這一增益的所有物,除勞動者外沒有人能夠享有權(quán)利?!鼻拔牟┺哪P头治鲞^程明確了人工智能生成行為中人工智能設(shè)備所有者作為主要的人工智能相關(guān)勞動投入者的基本地位,依托賦權(quán)進路確立的權(quán)利主體應(yīng)以人工智能設(shè)備所有者為主要目標(biāo),結(jié)合《暫行辦法》的規(guī)定——“生成式人工智能服務(wù)提供者,是指利用生成式人工智能技術(shù)提供生成式人工智能服務(wù)(包括通過提供可編程接口等方式提供生成式人工智能服務(wù))的組織、個人”,人工智能設(shè)備所有者在技術(shù)層面與概念層面可以充分納入人工智能服務(wù)提供者的范疇,作為賦權(quán)后的權(quán)利主體也符合政策性文件的規(guī)范要求。
明確了人工智能設(shè)備所有者作為權(quán)利主體,下一步的規(guī)范設(shè)計在于確立權(quán)利主體的行為標(biāo)準(zhǔn)。賦予人工智能設(shè)備所有者對于生成內(nèi)容的控制權(quán),確立生成內(nèi)容的使用應(yīng)當(dāng)經(jīng)過設(shè)備所有者授權(quán)的基本規(guī)則標(biāo)準(zhǔn),即可滿足賦權(quán)進路的激勵機制。至于人工智能設(shè)備所有者享有的具體權(quán)利內(nèi)容和權(quán)利類型,對于博弈分析的過程和結(jié)果不發(fā)生實質(zhì)影響;相較而言,《暫行辦法》中并未明確具體的權(quán)利類型,僅規(guī)定了人工智能服務(wù)提供者與人工智能服務(wù)使用者通過服務(wù)協(xié)議確立雙方主體的權(quán)利和義務(wù)。這也為博弈分析提供了收益與成本的權(quán)衡參照。
基于上述分析,可以在《暫行辦法》第3章“服務(wù)規(guī)范”部分第9條第1款后加入如下表述:“提供者為生成式人工智能設(shè)備所有者的,有權(quán)要求人工智能服務(wù)使用者通過授權(quán)進行生成內(nèi)容的使用?!痹摽顑?nèi)容結(jié)合第9條第3款規(guī)定的雙方“簽訂服務(wù)協(xié)議,明確雙方權(quán)利義務(wù)”,實際上是通過法定結(jié)合意定的方式確認人工智能設(shè)備所有者的權(quán)利地位。
基于博弈理論中的決策分析模型,人工智能設(shè)備所有者與第三方的決策選擇包括以下幾種情況。
1.?人工智能設(shè)備所有者確立了權(quán)利地位,設(shè)備所有者與第三方形成了內(nèi)容使用需要授權(quán)的規(guī)則共識。
2.?人工智能設(shè)備所有者確立了權(quán)利地位,設(shè)備所有者與第三方未形成內(nèi)容使用需要授權(quán)的規(guī)則共識,雙方產(chǎn)生分歧。
3.?人工智能設(shè)備所有者未確立權(quán)利地位,設(shè)備所有者與第三方通過協(xié)議約定方式形成內(nèi)容使用的規(guī)則共識。
4.?人工智能設(shè)備所有者未確立權(quán)利地位,設(shè)備所有者與第三方未通過協(xié)議約定方式形成內(nèi)容使用的規(guī)則共識,雙方發(fā)生分歧。
上述4種情況中,設(shè)備所有者與第三方的決策收益與決策成本包括如下幾種。
(1)人工智能設(shè)備所有者通過授權(quán)生成內(nèi)容的使用獲得決策收益,第三方通過授權(quán)過程支付使用費作為決策成本,而決策收益為生成內(nèi)容的使用價值,由于決策雙方形成規(guī)則共識,不因權(quán)益糾紛產(chǎn)生額外的決策成本。
(2)人工智能設(shè)備所有者通過訴訟解決分歧并救濟權(quán)利,第三方參與訴訟;當(dāng)設(shè)備所有者勝訴時,第三方作為被告承擔(dān)敗訴的法律后果,設(shè)備所有者獲得的法律救濟即為決策收益,第三方承擔(dān)的賠償損失等法律責(zé)任以及訴訟費用即為決策成本;當(dāng)?shù)谌絼僭V時,設(shè)備所有者沒有獲得預(yù)期的法律救濟,第三方的決策收益為生成內(nèi)容的授權(quán)費用以及使用價值,而設(shè)備所有者需要承擔(dān)的訴訟費用則為決策成本。
(3)人工智能設(shè)備所有者與第三方訂立協(xié)議協(xié)調(diào)生成內(nèi)容使用的權(quán)利義務(wù)關(guān)系,設(shè)備所有者的決策收益為授權(quán)費用的獲得,第三方的決策成本為支付的授權(quán)費用;同時,雙方訂立協(xié)議的過程產(chǎn)生額外決策成本,包括確定協(xié)商對象的成本、生成內(nèi)容使用達成合意的成本、監(jiān)督協(xié)議有效充分履行的成本等。
(4)人工智能設(shè)備所有者與第三方通過訴訟解決生成內(nèi)容使用的分歧;設(shè)備所有者勝訴時,第三方作為被告承擔(dān)敗訴的法律后果,設(shè)備所有者獲得的決策收益是相應(yīng)的法律救濟,第三方的決策成本為承擔(dān)的賠償損失等法律責(zé)任以及訴訟費用;當(dāng)?shù)谌絼僭V時,第三方使用生成內(nèi)容的價值為決策收益,而設(shè)備所有者的決策成本為訴訟費用。
通過上述博弈分析,綜合比較4種情況下的決策收益與決策成本,可以得出賦權(quán)進路的必要性結(jié)論。確立人工智能設(shè)備所有者的權(quán)利地位,可以為第三方提供生成內(nèi)容使用的規(guī)則參照,即明確使用生成內(nèi)容應(yīng)當(dāng)取得授權(quán)的基本規(guī)則理解;當(dāng)?shù)谌浇邮艽祟愐?guī)則理解,即可與設(shè)備所有者形成規(guī)則共識,促成人工智能生成內(nèi)容的有效使用。相較而言,《暫行辦法》規(guī)定的雙方主體通過訂立協(xié)議來約定權(quán)利義務(wù),意味著設(shè)備所有者與第三方不得不承擔(dān)協(xié)商過程中貫穿始終的交易成本。即便雙方達成合意訂立協(xié)議,交易成本的客觀存在都會增加決策行為的成本總量;另一方面,雙方行為主體在分歧情況下都需要通過訴訟解決權(quán)益糾紛,此時決策成本都包括額外的糾紛解決機制(一般為民事訴訟)。因此,共識條件下確立人工智能設(shè)備所有者的權(quán)利地位,明確生成內(nèi)容使用需要通過設(shè)備所有者的授權(quán),是人工智能生成行為決策標(biāo)準(zhǔn)指導(dǎo)規(guī)范設(shè)計的有效路徑。
(二)明確行為標(biāo)準(zhǔn)和應(yīng)用場景,引導(dǎo)行為主體合理決策
人工智能生成行為是行為主體參與生產(chǎn)、加工和使用生成內(nèi)容的技術(shù)過程,主體行為的法律性質(zhì)直接決定了決策選擇與決策結(jié)果。合法的生成行為鼓勵行為主體積極從事并開展這一類型的生成行為,通過確認生成內(nèi)容的合法性鼓勵生成內(nèi)容的價值開發(fā),增加行為主體實施這一行為的決策收益;另一方面,禁止性生成行為則根本上否定了行為主體實施這一類生成行為的決策收益預(yù)期,以決策成本的承擔(dān)結(jié)果告誡行為主體規(guī)避相關(guān)生成行為的實施。
決策標(biāo)準(zhǔn)指導(dǎo)規(guī)范設(shè)計的重點在于形成行為主體之間的規(guī)則共識,通過明確生成行為的行為標(biāo)準(zhǔn)和應(yīng)用場景,綜合運用合法性確認與禁止性應(yīng)用場景規(guī)定,引導(dǎo)行為主體明晰人工智能生成行為的法律責(zé)任,通過清晰明確的決策收益與決策成本的權(quán)衡開展符合國家政策需求的人工智能生成行為;這也符合《暫行辦法》第3條規(guī)定的人工智能生成行為治理原則,即“國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管。”
《暫行辦法》對提供和使用生成式人工智能服務(wù)規(guī)定了合法性行為和禁止性行為,涉及國家安全、防止歧視、民事權(quán)利保護、維護公平商業(yè)競爭、保護個人信息以及服務(wù)透明度的基本要求。問題在于,《暫行辦法》第4條的規(guī)定并未具體規(guī)定明確的生成服務(wù)行為標(biāo)準(zhǔn),對于生成行為應(yīng)用場景缺乏具體規(guī)定,規(guī)定內(nèi)容在邏輯關(guān)系上也未盡合理;例如第2款第3項規(guī)定中將“尊重知識產(chǎn)權(quán)”與“保守商業(yè)秘密”相并列,實際上是模糊了商業(yè)秘密作為一項具體知識產(chǎn)權(quán)的法律屬性,間接突出了商業(yè)秘密在人工智能生成行為規(guī)范治理中的適用優(yōu)先性,一定程度上忽視了司法實踐中人工智能生成內(nèi)容相關(guān)的其他知識產(chǎn)權(quán)糾紛的治理需求。另一方面,概括式的規(guī)定內(nèi)容并不能夠為行為主體從事生成行為的決策提供有效的規(guī)則參照,遑論建立行為主體的規(guī)則共識,不符合前述決策標(biāo)準(zhǔn)的基本要求。
解決這一問題的規(guī)范設(shè)計思路,可以借鑒歐盟對人工智能生成行為的立法形式。歐盟議會于2023年6月14日通過《人工智能法案(草案)》(EU AI Act),而后提交歐盟各成員國討論并預(yù)期于2023年底達成協(xié)議通過;草案對于歐盟領(lǐng)域內(nèi)的人工智能依據(jù)具體行為模式和風(fēng)險層級劃分為:不可接受風(fēng)險(unacceptable risk)、高度風(fēng)險(high risk)以及有限風(fēng)險(limited risk)共三個層級。人工智能生成行為被劃分為有限風(fēng)險層級并規(guī)定透明性標(biāo)準(zhǔn)的行為準(zhǔn)則,即服務(wù)提供者應(yīng)告知使用者與人工智能互動的事實,充分告知內(nèi)容使用者該行為的技術(shù)和法律屬性,并允許使用者自主決定是否使用或繼續(xù)使用,具體包括圖片生成或編輯應(yīng)用、語音編輯處理應(yīng)用、聊天機器人應(yīng)用以及視聽錄像生成應(yīng)用等應(yīng)用場景的具體類型。歐盟對于人工智能生成行為的規(guī)范設(shè)計思路側(cè)重于生成行為風(fēng)險責(zé)任的類型劃分,結(jié)合具體的應(yīng)用場景,以透明度標(biāo)準(zhǔn)作為生成行為標(biāo)準(zhǔn),引導(dǎo)生成服務(wù)提供者與生成內(nèi)容使用者決定是否進行生成行為的相關(guān)決策。
參考歐盟的規(guī)范設(shè)計模式,可以將《暫行辦法》第4條第2款第3項規(guī)定內(nèi)容調(diào)整為:“尊重和保護在圖片、語音互動、試聽內(nèi)容的生成與編輯技術(shù)應(yīng)用過程中的著作權(quán)、專利權(quán)、商標(biāo)權(quán)及商業(yè)秘密,服務(wù)提供者應(yīng)充分告知使用者與人工智能生成技術(shù)互動的事實,服務(wù)提供者應(yīng)充分告知使用者生成行為可能涉及的著作權(quán)、專利權(quán)、商標(biāo)權(quán)及商業(yè)秘密的權(quán)利狀態(tài)與法律風(fēng)險,在用戶協(xié)議與服務(wù)協(xié)議中明確尊重商業(yè)道德,不利用算法、數(shù)據(jù)、平臺等優(yōu)勢,實施壟斷和不正當(dāng)競爭行為?!?/p>
基于博弈分析模型,人工智能服務(wù)提供者與生成內(nèi)容使用者的決策選擇包括以下幾種情況。
1.明確規(guī)定行為準(zhǔn)則與應(yīng)用場景,人工智能服務(wù)提供者與生成內(nèi)容使用者形成規(guī)則共識,遵守行為和場景的規(guī)定要求。
2.明確規(guī)定行為準(zhǔn)則與應(yīng)用場景,人工智能服務(wù)提供者與生成內(nèi)容使用者未形成規(guī)則共識,行為一方或雙方因違反規(guī)定承擔(dān)法律責(zé)任。
3.未明確規(guī)定行為準(zhǔn)則與應(yīng)用場景,人工智能服務(wù)提供者與生成內(nèi)容使用者就生成內(nèi)容的提供或使用通過訂立協(xié)議形成規(guī)則共識。
4.未明確規(guī)定行為準(zhǔn)則與應(yīng)用場景,人工智能服務(wù)提供者與生成內(nèi)容使用者就生成內(nèi)容的提供或使用未通過訂立協(xié)議形成規(guī)則共識,雙方產(chǎn)生分歧。
上述4種情況中,人工智能服務(wù)提供者與生成內(nèi)容使用者的決策收益與決策成本包括如下幾種。
(1)人工智能服務(wù)提供者與生成內(nèi)容使用者按照具體規(guī)定提供和使用生成內(nèi)容,決策收益為生成內(nèi)容的使用價值,雙方因遵守具體規(guī)定不承擔(dān)違法責(zé)任,決策成本為零。
(2)人工智能服務(wù)提供者與生成內(nèi)容使用者未按照具體規(guī)定提供和使用生成內(nèi)容,決策收益為生成內(nèi)容的使用價值,決策成本為一方或雙方需要承擔(dān)的法律責(zé)任。
(3)人工智能服務(wù)提供者與生成內(nèi)容使用者通過訂立協(xié)議來提供和使用生成內(nèi)容,決策收益為生成內(nèi)容的使用價值,決策成本為雙方協(xié)商過程中的交易成本。
(4)人工智能服務(wù)提供者與生成內(nèi)容使用者對于提供和使用生成內(nèi)容產(chǎn)生分歧,雙方通過訴訟解決糾紛。決策收益為勝訴方獲得的法律救濟,決策成本為敗訴方的法律責(zé)任以及訴訟費用。
綜合上述博弈分析,可以確認4種類型的決策情況下,行為主體按照具體規(guī)定的行為標(biāo)準(zhǔn)和應(yīng)用場景參與人工智能生成行為的決策成本最低。因此,明確行為標(biāo)準(zhǔn)和應(yīng)用場景推進人工智能生成行為的規(guī)范設(shè)計,有利于人工智能服務(wù)提供者與生成內(nèi)容使用者形成規(guī)則共識,最大程度實現(xiàn)決策標(biāo)準(zhǔn)所要求的決策收益與決策成本的有效權(quán)衡;同時,滿足決策標(biāo)準(zhǔn)的規(guī)范設(shè)計也需要符合國家人工智能政策宏觀發(fā)展要求,結(jié)合人工智能產(chǎn)業(yè)和技術(shù)特征,兼顧人工智能規(guī)范體系與其他部門法律體系的協(xié)調(diào)。
四、結(jié)語
人工智能生成行為具有重要的產(chǎn)業(yè)功能和應(yīng)用價值,而功能實現(xiàn)與價值開發(fā)需要行為主體在生成行為過程中進行有效的決策,應(yīng)對人工智能生成行為復(fù)數(shù)主體參與的技術(shù)現(xiàn)實,提升決策收益并限制決策成本是人工智能生成行為的合理決策標(biāo)準(zhǔn)。建立決策標(biāo)準(zhǔn)的基礎(chǔ)在于人工智能生成行為的規(guī)范設(shè)計,確保包括人工智能設(shè)備所有者與人工智能內(nèi)容使用者等行為主體能夠基于明確且統(tǒng)一的規(guī)則形成有利于行為主體決策的規(guī)則共識,增加決策收益,減少決策成本,促進人工智能生成內(nèi)容的有效使用:依托賦權(quán)進路,明確人工智能設(shè)備所有者的權(quán)利主體地位;具體規(guī)定人工智能生成行為的行為標(biāo)準(zhǔn)和應(yīng)用場景,引導(dǎo)行為主體合理決策。綜合人工智能生成行為規(guī)范立法的契機,以促進行為主體規(guī)則共識的形成作為規(guī)范設(shè)計的指導(dǎo)原則,是人工智能生成行為決策標(biāo)準(zhǔn)的制度性意義。
(責(zé)任編輯:陳曉屏)