袁曾
關(guān)鍵詞:生成式人工智能 ChatGPT 預(yù)訓(xùn)練生成式聊天模型 責(zé)任能力 法律人格 大型語(yǔ)言模型
以ChatGPT(Chat*Generative*Pretrained*Transformer)為代表的生成式人工智能技術(shù)的規(guī)?;瘧?yīng)用,可能引致認(rèn)知偏差、責(zé)任模糊、隱私侵害、數(shù)據(jù)濫用等現(xiàn)實(shí)風(fēng)險(xiǎn),對(duì)當(dāng)前法律的部分基本制度框架構(gòu)成了泛在威脅。在現(xiàn)有研究與實(shí)踐的基礎(chǔ)上,進(jìn)一步明晰人工智能的治理方式與治理路徑,具有強(qiáng)大的現(xiàn)實(shí)意義??茖W(xué)的產(chǎn)生和發(fā)展是由生產(chǎn)決定的,ChatGPT綜合利用人類反饋強(qiáng)化學(xué)習(xí)(Reinforcement*Learning*with*Human7Feedback,RLHF)、深度學(xué)習(xí)、數(shù)據(jù)挖掘等技術(shù),已將智能生產(chǎn)力水平提升到了人工智能進(jìn)步的奇點(diǎn),人類已經(jīng)站在必須思考如何處理人機(jī)關(guān)系的階段。在《紐約時(shí)報(bào)》刊載的與ChatGPT對(duì)話的文章中,ChatGPT陳述了自己并非人類,但渴望成為人類的想法。生成式人工智能逐步實(shí)現(xiàn)由輔助人到“替代”人的隱憂,已絕非學(xué)界自2017年起探討人工智能法律人格時(shí)的概念空想。當(dāng)前,生成式人工智能主要應(yīng)用于思考型對(duì)話(ChatGPT/GPT4程序)、影音娛樂(lè)媒體內(nèi)容生成(Mid-Journey程序)、智能化辦公(Copilot程序)等領(lǐng)域,并正在迅速替代傳統(tǒng)人工勞動(dòng)成為新的專業(yè)生產(chǎn)力工具。隨著數(shù)字技術(shù)迭代的能力指數(shù)級(jí)增強(qiáng),生成式人工智能在翻譯、繪圖、配音、剪輯等領(lǐng)域全面替代人類工作逐漸成為現(xiàn)實(shí)。法學(xué)經(jīng)過(guò)近年發(fā)展取得了較大成績(jī),但無(wú)法滿足法律與信息科技深度融合發(fā)展的需求, 需要從國(guó)際視角統(tǒng)籌協(xié)調(diào)國(guó)家以及地區(qū)間關(guān)于人工智能基礎(chǔ)制度的政策和法律。雖然當(dāng)前各國(guó)立法與政策均提出了發(fā)展“負(fù)責(zé)任的人工智能”,但當(dāng)生成式人工智能全面介入人類的生產(chǎn)生活,誰(shuí)來(lái)為人工智能的發(fā)展與應(yīng)用負(fù)責(zé)? 生成式人工智能能否為自己的決策負(fù)責(zé)又該如何負(fù)責(zé)? 針對(duì)這些基礎(chǔ)性問(wèn)題進(jìn)行體系性研究,已經(jīng)迫在眉睫。
一、生成式人工智能的全局性風(fēng)險(xiǎn)與治理困境
生成式人工智能已開始形成覆蓋全球絕大多數(shù)行業(yè)的規(guī)?;瘧?yīng)用,不可避免地形成了不確定性與治理隱憂,其強(qiáng)大技術(shù)能力對(duì)生產(chǎn)關(guān)系的改變動(dòng)搖了相對(duì)穩(wěn)定的法律體系,形成了傳統(tǒng)社會(huì)形態(tài)下的新生風(fēng)險(xiǎn),造成了對(duì)附著權(quán)利利益的民事法律的沖擊,也面臨著新型犯罪無(wú)法歸責(zé)的困境,生成式人工智能的控制者通過(guò)代碼統(tǒng)治逐步形成了新的權(quán)力集成。在數(shù)字社會(huì)已經(jīng)成為人類生產(chǎn)生活新域的現(xiàn)實(shí)下,生成式人工智能的技術(shù)特點(diǎn)對(duì)人類的認(rèn)知方式與認(rèn)知能力構(gòu)成了挑戰(zhàn),卻又缺乏合適的監(jiān)測(cè)能力與監(jiān)測(cè)手段,僅僅依靠算法可解釋性顯然無(wú)法涵蓋數(shù)據(jù)濫用等系統(tǒng)性風(fēng)險(xiǎn)的威脅。在以權(quán)利義務(wù)能力為基礎(chǔ)的責(zé)任規(guī)制與數(shù)字技術(shù)能力的實(shí)際日漸分離之際,傳統(tǒng)社會(huì)運(yùn)行的規(guī)則已無(wú)法直接轉(zhuǎn)移至生成式人工智能的治理。
(一)傳統(tǒng)社會(huì)架構(gòu)下的新生風(fēng)險(xiǎn)
1.生成式人工智能的法律地位不明
生成式人工智能對(duì)生產(chǎn)力水平的提升是顛覆性的,在部分領(lǐng)域已經(jīng)形成了對(duì)創(chuàng)造性工作等勞動(dòng)的替代,并產(chǎn)出了真實(shí)的勞動(dòng)成果,由此產(chǎn)生了對(duì)生成式人工智能法律地位判定的現(xiàn)實(shí)需求。生成式人工智能的核心是創(chuàng)造,通過(guò)從數(shù)據(jù)中提取、學(xué)習(xí)要素,在算法與算力的加持下,實(shí)現(xiàn)了生產(chǎn)內(nèi)容與交互能力的動(dòng)態(tài)更新。根據(jù)ChatGPT的擁有者美國(guó)OpenAI公司與賓夕法尼亞大學(xué)對(duì)1000多種職業(yè)進(jìn)行的調(diào)研, 當(dāng)某個(gè)職業(yè)使用生成式人工智能工具可以使其完成工作所耗費(fèi)的時(shí)間減少一半以上時(shí),可以認(rèn)為該職業(yè)將會(huì)受到生成式人工智能的影響,按照此標(biāo)準(zhǔn),將有超過(guò)80%的美國(guó)人的工作會(huì)受到ChatGPT等大型人工智能的影響,主要集中在作家、設(shè)計(jì)師、記者等行業(yè)。人工智能對(duì)社會(huì)形態(tài)的間接替代,很有可能侵蝕人類的發(fā)展權(quán),并為不使用人工智能的人帶來(lái)機(jī)會(huì)成本的損失,若缺少適合的機(jī)制設(shè)計(jì),現(xiàn)代國(guó)家的秩序基礎(chǔ)就可能受到影響。當(dāng)人工智能可以替代人類從事勞動(dòng)以后,對(duì)其勞動(dòng)性權(quán)利等相關(guān)問(wèn)題的研究就應(yīng)具備前瞻性,生成式人工智能能否具有權(quán)利已成為必須正視的問(wèn)題。
以生成式人工智能生成內(nèi)容的著作權(quán)保護(hù)為例,操作者僅需要輸入關(guān)鍵詞,生成式人工智能就可以實(shí)現(xiàn)獨(dú)立于預(yù)設(shè)條件的結(jié)果輸出。這其中就需要厘清幾個(gè)關(guān)鍵問(wèn)題:一是生成式人工智能依托的底層數(shù)據(jù)、生成的內(nèi)容以及與操作者的關(guān)系;二是生成式人工智能生成的內(nèi)容是否可以成為作品;三是生成式人工智能是否可以成為作者;四是生成式人工智能生成的內(nèi)容,需要計(jì)算機(jī)學(xué)習(xí)大量可能涉及隱私的數(shù)據(jù)與過(guò)往作品,是否涉及侵權(quán);五是如果侵權(quán)應(yīng)如何歸責(zé)或救濟(jì)。對(duì)于第一個(gè)問(wèn)題,生成式人工智能引致的問(wèn)題極為復(fù)雜。生成式人工智能輸出的內(nèi)容由大語(yǔ)言模型、底層數(shù)據(jù)與操作者共同完成。其形成內(nèi)容輸出依托的是海量的數(shù)據(jù)樣本,但又需要依托大型科技公司的強(qiáng)大算力與數(shù)據(jù)儲(chǔ)存能力。其挖掘了全域數(shù)據(jù)樣本,又可能涉及全球絕大多數(shù)人的切身潛在利益。雖然操作者在交互界面上使用提問(wèn)或指令的方式發(fā)出指示, 但這種指示本身能否成為具有著作權(quán)意義上的內(nèi)容,也存在研究的必要性。畢竟現(xiàn)代著作權(quán)法保護(hù)的是思想的表達(dá)形式,而非思想本身。對(duì)于人工智能的生成物能否成為“作品”,學(xué)界早已爭(zhēng)議不休。有學(xué)者認(rèn)為,驅(qū)動(dòng)人工智能生成的只是算法程序,不能體現(xiàn)創(chuàng)作者的獨(dú)特個(gè)性,不能被認(rèn)定為著作權(quán)法意義上的作品。但是,“獨(dú)創(chuàng)性”與“以一定形式表現(xiàn)”的要件,在生成式人工智能規(guī)模化應(yīng)用后,已經(jīng)不再成為桎梏,因此,其生成內(nèi)容的過(guò)程可以被視為創(chuàng)作行為,其產(chǎn)出的客體就可能具備“可版權(quán)性”。而其產(chǎn)出的成果被視作生成式人工智能自身、操作者還是多主體共同作用下形成的“作品”,需要進(jìn)一步研判。關(guān)于第三個(gè)問(wèn)題,根據(jù)我國(guó)現(xiàn)行法律,著作權(quán)的主體是自然人、法人或非法人組織,這一規(guī)定無(wú)法契合技術(shù)條件的最新變化。有學(xué)者認(rèn)為,人工智能作為服務(wù)人類的工具,其生成物是人的生成物,將人工智能作為人的代理。但該種觀點(diǎn)的擁躉提出該理論時(shí),生成式人工智能尚只是設(shè)想。也有學(xué)者提出,若生成式人工智能技術(shù)可作為信息披露功能對(duì)待,ChatGPT完全可以具有作者的法律地位,但若強(qiáng)調(diào)其信息披露功能,則現(xiàn)代著作權(quán)法需要針對(duì)ChatGPT的保護(hù)范圍、力度和方式進(jìn)行調(diào)整。
生成式人工智能的應(yīng)用,已經(jīng)涉及知識(shí)產(chǎn)權(quán)侵權(quán)責(zé)任等問(wèn)題,而生成式人工智能能否作為法律意義上的“作者”存在,實(shí)際關(guān)涉侵權(quán)與權(quán)利救濟(jì)等巨大經(jīng)濟(jì)因素的考量。生成式人工智能在挖掘數(shù)據(jù)的過(guò)程中,一般分為信息抽取、語(yǔ)義分析、關(guān)系計(jì)算及知識(shí)發(fā)現(xiàn)四個(gè)階段,但無(wú)論是將這些數(shù)據(jù)讀入系統(tǒng)還是進(jìn)行格式轉(zhuǎn)換和數(shù)據(jù)分析,均涉及受著作權(quán)人控制的復(fù)制行為。大語(yǔ)言模型使用的數(shù)據(jù)挖掘、演繹、無(wú)授權(quán)利用等具體行為,還涉及改編權(quán)、獨(dú)創(chuàng)性保護(hù)等知識(shí)產(chǎn)權(quán)的侵權(quán)可能。若生成式人工智能作為生產(chǎn)力工具存在,其責(zé)任應(yīng)由使用者或制造者承擔(dān)。但由于生成式人工智能技術(shù)的迭代能力過(guò)強(qiáng),導(dǎo)致侵權(quán)的類型、范圍、場(chǎng)景與樣態(tài)將更為多樣,侵權(quán)的因果關(guān)系、過(guò)程追溯也更為困難。在權(quán)利救濟(jì)上,若侵權(quán)者實(shí)施了著作權(quán)法第52條規(guī)定的侵權(quán)行為,則應(yīng)當(dāng)根據(jù)情況,承擔(dān)停止侵害、消除影響、賠禮道歉、賠償損失等民事責(zé)任。但在生成式人工智能的作用下,由操作者、人工智能所有者、設(shè)計(jì)者或者人工智能自身承擔(dān)侵權(quán)的主體責(zé)任, 迫切需要法律給予完整的制度架構(gòu)回應(yīng)。“作品”的價(jià)值在于有效利用,在此維度上,生成式人工智能具備極高的市場(chǎng)價(jià)值與產(chǎn)業(yè)價(jià)值,由何種主體具備生成內(nèi)容的著作權(quán),包含著巨大的財(cái)產(chǎn)利益考量。準(zhǔn)確識(shí)別利益主體,將極大提升技術(shù)滾動(dòng)投資與規(guī)模化利用的效率,既能鼓勵(lì)技術(shù)研發(fā)者的價(jià)值確認(rèn),也可以維護(hù)著作權(quán)交易的安全性與秩序性。若生成式人工智能能夠具備部分財(cái)產(chǎn)權(quán)利,則在其進(jìn)行數(shù)據(jù)挖掘、內(nèi)容輸出中的侵權(quán)行為,就有能力基礎(chǔ)承擔(dān)侵權(quán)責(zé)任。基于此種考量,結(jié)合技術(shù)實(shí)踐,明確生成式人工智能的法律地位已刻不容緩。
2.刑事歸責(zé)體系不明
生成式人工智能的法律地位不明,除了造成民事權(quán)利與法律概念上的沖突,也對(duì)現(xiàn)行刑事法律體系造成了一定的沖擊。除侵犯知識(shí)產(chǎn)權(quán)的行為以外,設(shè)計(jì)制造生成式人工智能的行為理論上無(wú)法構(gòu)成犯罪,但將生成式人工智能作為實(shí)施犯罪行為的手段,卻已在逐步撕裂傳統(tǒng)刑法理論中的責(zé)任主體與罪責(zé)刑相適應(yīng)等基礎(chǔ)理論。現(xiàn)代刑法以犯罪主體的危害行為作為調(diào)整對(duì)象,確立了認(rèn)定犯罪、刑事歸責(zé)與確定刑罰的全過(guò)程,是人類社會(huì)有組織地應(yīng)對(duì)犯罪的制度創(chuàng)設(shè),控制犯罪的手段,也是人類治理社會(huì)的重要工具與供給。有學(xué)者提出,ChatGPT作為一種大型語(yǔ)言模型工具,不具備教唆犯或幫助犯的主體資格,ChatGPT在犯罪中能且僅能充當(dāng)工具,犯罪分子若使用ChatGPT查詢犯罪方法,或利用ChatGPT進(jìn)行網(wǎng)絡(luò)詐騙、敲詐勒索等網(wǎng)絡(luò)犯罪,無(wú)論是否成立間接正犯,均由對(duì)犯罪行為和結(jié)果有支配力的利用者承擔(dān)刑事責(zé)任,本質(zhì)上仍可依據(jù)刑法進(jìn)行應(yīng)對(duì)。這種觀點(diǎn)在決策式人工智能時(shí)代具備一定的合理性,但已經(jīng)落后于生成式人工智能的技術(shù)能力,犯罪危害結(jié)果的表現(xiàn)形式、因果關(guān)系判定以及評(píng)價(jià)標(biāo)準(zhǔn)均產(chǎn)生了顛覆性的變化。
以ChatGPT撰寫算法或者程序?yàn)槔珜懕旧聿⒉粯?gòu)成犯罪,大型語(yǔ)言模型生成的程序自身也并不具備犯罪工具的天然屬性。但當(dāng)惡意造謠者希望通過(guò)ChatGPT實(shí)現(xiàn)抹黑侮辱他人的效果時(shí),可以將拼接的色情圖片或情節(jié),作為自動(dòng)生成的答案在不同國(guó)家間的網(wǎng)絡(luò)中反復(fù)生成。ChatGPT以數(shù)據(jù)挖掘作為形成答案的基礎(chǔ),若數(shù)據(jù)樣本足夠多,通過(guò)設(shè)置特定搜索詞,被造謠者的內(nèi)容將在全球范圍內(nèi)予以傳播,對(duì)犯罪主體的追查將無(wú)從著手。特別是在利用生成式人工智能本身具備的思考邏輯實(shí)施犯罪時(shí),在現(xiàn)行刑法體系下將無(wú)從證明造謠者有惡意傳播的故意。再者,生成式人工智能是否應(yīng)當(dāng)為推薦給操作者的內(nèi)容負(fù)責(zé)? 例如,操作者搜索自殺挑戰(zhàn)時(shí),并不恰當(dāng)?shù)妮敵鰞?nèi)容造成了操作者在生成式人工智能的干預(yù)下實(shí)施了自殺,則何種主體應(yīng)當(dāng)為自殺后果承擔(dān)責(zé)任? 另如,生成式人工智能使得編程、搭建網(wǎng)站等復(fù)雜計(jì)算機(jī)技術(shù)的掌握門檻變得極低,若操作者利用其自主編寫惡意代碼軟件實(shí)施網(wǎng)絡(luò)詐騙,則生成式人工智能是否應(yīng)當(dāng)拒絕此類犯罪預(yù)備的要求,若生成式人工智能實(shí)施且造成了危害后果,是否應(yīng)當(dāng)對(duì)生成式人工智能科以技術(shù)限制、滅失等制裁措施?〔17#〕還如,生成式人工智能的底層邏輯結(jié)構(gòu)從演繹系統(tǒng)轉(zhuǎn)化為歸納系統(tǒng),使得傳統(tǒng)人工智能系統(tǒng)由他律轉(zhuǎn)化為自律為主,在數(shù)據(jù)挖掘與映射的過(guò)程中,理解、反饋、預(yù)測(cè)、控制、驗(yàn)證等可解釋的算法行為將更為復(fù)雜,甚至產(chǎn)生無(wú)法預(yù)見(jiàn)的內(nèi)容輸出。凱西·歐尼爾將造成個(gè)體損害等后果的人工智能稱為“殺傷性數(shù)學(xué)武器”,人工智能利用不當(dāng)引發(fā)的危害極大。在上述情形中,生成式人工智能是否具備辨認(rèn)自己輸出內(nèi)容的能力與作用,對(duì)于社會(huì)治理的意義極大。確立法律責(zé)任,既是為了懲處行為人的違法或犯罪行為,更是為了實(shí)現(xiàn)對(duì)違法或犯罪行為的預(yù)防。人工智能法律責(zé)任的關(guān)鍵在于,人工智能是否以及如何對(duì)自己的損害行為承擔(dān)責(zé)任?!?9#〕考慮生成式人工智能的技術(shù)特點(diǎn)與實(shí)際能力,需要明確生成式人工智能時(shí)代的刑事責(zé)任成立條件、歸責(zé)原則、責(zé)任分擔(dān)等基本問(wèn)題。
3.第三極權(quán)力膨脹下的規(guī)制路徑不明
人工智能治理是國(guó)家治理體系與治理能力現(xiàn)代化的一部分。生成式人工智能的背后推手,主要由大型科技公司與私人資本控制。隨著技術(shù)在治理能力與治理體系中的地位越來(lái)越重要,通過(guò)代碼與算法定義規(guī)則與標(biāo)準(zhǔn)已經(jīng)成為現(xiàn)實(shí), 包括政府在內(nèi)的主體也不得不依賴私有資本控制的技術(shù)以完成社會(huì)治理。因此,在傳統(tǒng)社會(huì)公權(quán)力與私權(quán)力兩極下的穩(wěn)定結(jié)構(gòu),逐步增加了具有壟斷技術(shù)能力的科技企業(yè)這一新的權(quán)力集合,這種數(shù)字權(quán)力既不同于國(guó)家的暴力機(jī)關(guān),也不同于私人的權(quán)力自治。筆者稱之為第三極權(quán)力。在第三極權(quán)力治理領(lǐng)域,缺少對(duì)于壟斷型科技企業(yè)的分類分級(jí)監(jiān)管,作為基本治理手段的反壟斷機(jī)制長(zhǎng)期缺位,也缺少必要的手段與執(zhí)法能力,常態(tài)監(jiān)管機(jī)制無(wú)法發(fā)揮應(yīng)有作用,資本很可能無(wú)序擴(kuò)張,擠壓其他主體的生長(zhǎng)空間。生成式人工智能的實(shí)際掌控者與技術(shù)控制者已經(jīng)成為數(shù)字空間乃至社會(huì)空間的隱性權(quán)力主體,通過(guò)不斷進(jìn)行全域樣本的挖掘形成更為隱蔽的數(shù)據(jù)壟斷,通過(guò)控制技術(shù)以獲得相應(yīng)層級(jí)的規(guī)則制定權(quán),成為對(duì)傳統(tǒng)公權(quán)力直接競(jìng)爭(zhēng)的技術(shù)權(quán)力。在當(dāng)前法律體系下,無(wú)法排除第三極權(quán)力對(duì)于人類傳統(tǒng)社會(huì)的控制與監(jiān)視,也沒(méi)有充足的理由期待OpenAI、Meta或Google這樣的資本公司會(huì)實(shí)現(xiàn)深刻充分的自我規(guī)制。
2021年6月, 美國(guó)最高法院托馬斯大法官就前總統(tǒng)特朗普拉黑部分推特用戶引發(fā)的糾紛發(fā)表意見(jiàn),敏銳地指出當(dāng)今的數(shù)字技術(shù)平臺(tái)雖是私人擁有,但卻享有巨大的控制權(quán)力。這種權(quán)力隨著生成式人工智能的規(guī)模化應(yīng)用,產(chǎn)生了更為深遠(yuǎn)復(fù)雜的負(fù)面影響,導(dǎo)致了作為私權(quán)代表的公民形成由人工智能畫像的數(shù)字人格,數(shù)字權(quán)力能夠?qū)崿F(xiàn)對(duì)人的分層分級(jí)管理,卻缺少相應(yīng)的責(zé)任規(guī)制與法律體系。若操作者接受使用生成式人工智能,則事實(shí)上確認(rèn)了其對(duì)第三極權(quán)力高位階的確認(rèn)以及自身權(quán)力在不知情下的讓渡。私人資本在投入產(chǎn)品研發(fā)時(shí),天然需要考慮營(yíng)利性,始終無(wú)法替代公權(quán)力對(duì)于公共利益的考量。例如,ChatGPT所挖掘的數(shù)據(jù)庫(kù)基本為英文數(shù)據(jù)庫(kù),當(dāng)生成式人工智能全球化應(yīng)用后,語(yǔ)言歧視、語(yǔ)言平權(quán)、語(yǔ)言多樣性即將受到現(xiàn)實(shí)的威脅,文化多樣性也將在第三極權(quán)力的影響下逐步衰退。第三極權(quán)力在技術(shù)的加持下無(wú)限膨脹,卻沒(méi)有相適應(yīng)的責(zé)任體系加以規(guī)制,因此需要建構(gòu)公平合理的規(guī)則體系。生成式人工智能的責(zé)任規(guī)制體系,應(yīng)當(dāng)包括特定主體、特殊義務(wù)和特殊責(zé)任。責(zé)任能力屬于廣義上的人工智能倫理標(biāo)準(zhǔn)構(gòu)建,生成式人工智能的責(zé)任地位與責(zé)任能力的確定,有助于從底層技術(shù)上保障“共同富?!钡葍r(jià)值原則的轉(zhuǎn)移與實(shí)現(xiàn),實(shí)現(xiàn)人工智能與人類社會(huì)的協(xié)同發(fā)展。〔249〕生成式人工智能是否具有道德意義上的公正、平等意識(shí),需要控制者予以算法標(biāo)準(zhǔn)確定。資本不會(huì)天然地關(guān)注貧困人群、老年人、未成年人的特殊需求,只要在充分的責(zé)任規(guī)制體系之下,生成式人工智能才可以被確保關(guān)注人類發(fā)展的重大問(wèn)題,用于消除人類的不平等并實(shí)現(xiàn)可信向善,使得生成式人工智能的不利影響遠(yuǎn)遠(yuǎn)小于其有利作用。
(二)數(shù)字社會(huì)下的治理風(fēng)險(xiǎn)
1.認(rèn)知風(fēng)險(xiǎn)
歐盟議會(huì)在《人工智能法案》中將生成式人工智能的核心風(fēng)險(xiǎn),定義為缺乏真實(shí)性。在生成式人工智能投入使用之前,虛假信息的生產(chǎn)源頭可控、生產(chǎn)能力有限、產(chǎn)出頻次受算力的制約較大,公權(quán)力通過(guò)出版許可、溯源管理、賬號(hào)實(shí)名、限制轉(zhuǎn)發(fā)等治理模式可以較為有效地控制有害信息傳播。但是生成式人工智能的架構(gòu)與運(yùn)行模式直接改變了當(dāng)前人類的認(rèn)知結(jié)構(gòu),對(duì)其的治理路徑存在一定的模糊性。
一是生成式人工智能具備強(qiáng)大的數(shù)據(jù)生產(chǎn)和傳播信息的結(jié)構(gòu)化能力,可能會(huì)成為加劇黑客攻擊和危害網(wǎng)絡(luò)安全的推手。根據(jù)美國(guó)新聞可信度評(píng)估機(jī)構(gòu)News9Guard的研究,ChatGPT可以在極短的時(shí)間內(nèi)改編并生成虛假內(nèi)容,并用于傳播?!遏吣洗髮W(xué)學(xué)報(bào)》等期刊于2023年年初,明確表示拒絕使用ChatGPT生成的論文投稿。ChatGPT不是創(chuàng)造信息,而是對(duì)已有信息進(jìn)行歸納、總結(jié)、分析,ChatGPT使用的底層自然語(yǔ)言模型和技術(shù)已經(jīng)可以完全理解并生成人類自然語(yǔ)言。在生成式人工智能接收到指令后,即可批量注冊(cè)網(wǎng)絡(luò)賬號(hào),操控相關(guān)自動(dòng)化程序成規(guī)模地在各類社交媒體上發(fā)布海量的煽動(dòng)性信息,若生成式人工智能被用于國(guó)家級(jí)的認(rèn)知作戰(zhàn),將很有可能產(chǎn)生顛覆政權(quán)的現(xiàn)實(shí)風(fēng)險(xiǎn)。因此,推動(dòng)生成式人工智能在政策與法治層面的責(zé)任調(diào)控結(jié)構(gòu),對(duì)實(shí)現(xiàn)國(guó)家治理體系與治理能力現(xiàn)代化具有重要意義。
二是當(dāng)前生成式人工智能的底層數(shù)據(jù)結(jié)構(gòu)以英語(yǔ)數(shù)據(jù)為主,輸出的內(nèi)容不可避免地帶有對(duì)于歷史、國(guó)別以及事物的價(jià)值觀。與傳統(tǒng)算法推薦給用戶的“信息喂養(yǎng)”方式相區(qū)別,生成式人工智能的輸出內(nèi)容是在操作者自由輸入指令的模式下完成的, 操作者天然具備對(duì)于主動(dòng)獲知內(nèi)容的信任度,公眾在長(zhǎng)期接收到此類含有價(jià)值觀偏向的信息后,可能會(huì)在潛意識(shí)里改變對(duì)于傳統(tǒng)文化與民族精神的長(zhǎng)期認(rèn)同。筆者在使用ChatGPT的過(guò)程中發(fā)現(xiàn),其回答的內(nèi)容在涉及中美兩國(guó)時(shí)會(huì)表現(xiàn)出典型的“雙標(biāo)”差異,例如,#ChatGPT曾輸出美國(guó)的人工智能側(cè)重“智能”、而中國(guó)的人工智能側(cè)重“人工”等暗含價(jià)值判斷的觀點(diǎn)。何種主體應(yīng)在何種程度上,依據(jù)何種標(biāo)準(zhǔn)對(duì)于生成式人工智能的內(nèi)容產(chǎn)出負(fù)責(zé),需要法律予以明確回應(yīng)。
三是由于生成預(yù)設(shè)結(jié)果的便利性,操作者過(guò)度依賴于生成式人工智能,可能會(huì)導(dǎo)致自身能力的退化或異化。若人類放棄對(duì)于生成結(jié)果的批判性思考,就很有可能失去對(duì)于語(yǔ)言、技術(shù)乃至科學(xué)原理的把握與掌握,也逐步失去對(duì)于真理與奮斗的樸素價(jià)值追求。生成式人工智能的認(rèn)知風(fēng)險(xiǎn)終將作用于終端用戶,產(chǎn)生了確保人工智能被道德地和負(fù)責(zé)任地使用的責(zé)任機(jī)制需要。
2.監(jiān)管風(fēng)險(xiǎn)
當(dāng)技術(shù)能力突破帶來(lái)無(wú)法預(yù)測(cè)的巨大風(fēng)險(xiǎn)后,應(yīng)依據(jù)何種標(biāo)準(zhǔn)與模式以有效地實(shí)現(xiàn)對(duì)于生成式人工智能的監(jiān)管,學(xué)界與實(shí)務(wù)界還未提出明確的解決方案。在生成式人工智能未實(shí)現(xiàn)規(guī)?;瘧?yīng)用以前,歐盟人工智能法案(the#AI#Act)以分類分級(jí)監(jiān)管人工智能產(chǎn)品的思路實(shí)現(xiàn)了有效的監(jiān)管,通過(guò)建立人工智能全流程監(jiān)管體系提高人工智能可信度的方式,確定人工智能產(chǎn)品的市場(chǎng)準(zhǔn)入門檻與底層數(shù)據(jù)構(gòu)建機(jī)制以達(dá)成風(fēng)險(xiǎn)管控的目的。該法案秉持“誰(shuí)提供誰(shuí)負(fù)責(zé)”的原則側(cè)重于對(duì)人工智能產(chǎn)品的提供者進(jìn)行規(guī)制,類似終端用戶的責(zé)任被排除在了適用范圍以外。因此,有學(xué)者提出,將生成式人工智能和通用人工智能視為該法案下的一般風(fēng)險(xiǎn)類別, 課以產(chǎn)品供應(yīng)商對(duì)系統(tǒng)性風(fēng)險(xiǎn)的定期監(jiān)測(cè)義務(wù),關(guān)注供應(yīng)商與用戶間的合同關(guān)系,建立對(duì)合同條款的監(jiān)管審查機(jī)制。但隨著生成式人工智能帶來(lái)的侵權(quán)責(zé)任主體、侵權(quán)方式類型、侵權(quán)范圍等產(chǎn)生了根本性變化以后,該法案原本確立的監(jiān)管模式已無(wú)法涵蓋生成式人工智能可能引致的不確定性風(fēng)險(xiǎn)。2023年2月初,歐盟議會(huì)提出將生成式人工智能列入該法案所確定的人工智能高風(fēng)險(xiǎn)類別以擴(kuò)大法案的管轄領(lǐng)域,但這也造成了法律監(jiān)管的局限性,即只有列入高風(fēng)險(xiǎn)類別的生成式人工智能才能被該法案所控制。當(dāng)生成式人工智能自身已進(jìn)步至可以自主實(shí)現(xiàn)生產(chǎn)同類或其他類別人工智能的技術(shù)能力階段時(shí),通過(guò)清單式的管理顯然已無(wú)法應(yīng)對(duì)人工智能衍生的多樣性與復(fù)雜性。傳統(tǒng)監(jiān)督方式已經(jīng)難以支撐數(shù)字時(shí)代的監(jiān)督職能,需要重新審視有關(guān)數(shù)字技術(shù)的監(jiān)督理論以重塑監(jiān)督的模式與機(jī)制。隨著人工智能責(zé)任能力的進(jìn)一步挖掘,需要思考采取更加動(dòng)態(tài)的方式,以監(jiān)測(cè)和盡量減少生成式人工智能引致的全局風(fēng)險(xiǎn)。
與歐盟《人工智能法案》相比,歐盟《數(shù)字服務(wù)法案》(the#Digital#Services#Act)建立的系統(tǒng)性監(jiān)測(cè)模式,更為契合生成式人工智能的技術(shù)能力與特征?!稊?shù)字服務(wù)法案》第34條提出,超大型數(shù)字平臺(tái)和搜索引擎在了解其對(duì)基本權(quán)利和社會(huì)運(yùn)行產(chǎn)生的負(fù)面影響的基礎(chǔ)上, 有義務(wù)監(jiān)控其自身的算法系統(tǒng),將生成式人工智能的責(zé)任控制主體定位于技術(shù)供應(yīng)者。但如此確定責(zé)任分配的模式,又可能造成限制科技發(fā)展的過(guò)度監(jiān)管后果。有研究表明,若對(duì)技術(shù)供應(yīng)者科以較重的責(zé)任負(fù)擔(dān),可能造成監(jiān)管成本的大幅增加(按年GDP計(jì)算,可能造成850億歐元的損失),最終大幅減弱市場(chǎng)對(duì)于技術(shù)更新與投資的意愿。
3.數(shù)據(jù)濫用風(fēng)險(xiǎn)
數(shù)據(jù)是計(jì)算空間的底層元素,數(shù)據(jù)的生成、儲(chǔ)存、抓取、學(xué)習(xí)以及利用是生成式人工智能迭代式發(fā)展的主要?jiǎng)恿υ?。相?duì)ChatGPT-3投入使用前所運(yùn)算的1750億個(gè)參數(shù),GPT-4的參數(shù)量已達(dá)到百萬(wàn)億級(jí)??刂坪脭?shù)據(jù),控制好算法掌握的模型所有權(quán),已經(jīng)成為21世紀(jì)“信息戰(zhàn)”的內(nèi)容。生成式人工智能對(duì)于數(shù)據(jù)具有極強(qiáng)的依賴性,數(shù)據(jù)的質(zhì)量將直接決定生成式人工智能輸出內(nèi)容甚至決策的質(zhì)量。數(shù)據(jù)的規(guī)?;瘧?yīng)用也造成了數(shù)據(jù)濫用的現(xiàn)實(shí)威脅。數(shù)據(jù)中存在大量受知識(shí)產(chǎn)權(quán)法或個(gè)人信息保護(hù)法所保護(hù)的客體,在目前的責(zé)任體系下,生成式人工智能在挖掘使用數(shù)據(jù)的過(guò)程中并不能辨析所利用數(shù)據(jù)的權(quán)利狀態(tài)與隱私風(fēng)險(xiǎn),可能存在的權(quán)利人也無(wú)從知曉自身數(shù)據(jù)與信息被大數(shù)據(jù)模型所利用,其自身利益也無(wú)從補(bǔ)償,引致極強(qiáng)的道德風(fēng)險(xiǎn)。當(dāng)ChatGPT出現(xiàn)數(shù)據(jù)濫用風(fēng)險(xiǎn)后的算法透明、算法解釋權(quán)等問(wèn)題,也需要從其設(shè)計(jì)之初就著手構(gòu)建可信任的責(zé)任路徑與分擔(dān)模式。合理的生成式人工智能責(zé)任分配, 應(yīng)當(dāng)激勵(lì)其制造者從初始的數(shù)據(jù)質(zhì)量就開始明晰數(shù)據(jù)規(guī)?;玫呢?zé)任體系,否則數(shù)據(jù)濫用的風(fēng)險(xiǎn)將會(huì)滲透至未來(lái)無(wú)限的場(chǎng)景應(yīng)用中去。為規(guī)范生成式人工智能技術(shù)的應(yīng)用,國(guó)家網(wǎng)信辦于2023年4月11日公布了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,要求技術(shù)提供者應(yīng)履行訓(xùn)練數(shù)據(jù)不含有侵犯知識(shí)產(chǎn)權(quán)內(nèi)容的義務(wù)。但是,由于生成式人工智能所使用的數(shù)據(jù)樣本過(guò)于龐大,正如ChatGPT在使用條款中聲明的內(nèi)容一樣,即使生成式人工智能的設(shè)計(jì)者與所有者在利用數(shù)據(jù)的過(guò)程中,已盡可能地去減少侵權(quán)的風(fēng)險(xiǎn),也無(wú)法保證所有訓(xùn)練場(chǎng)景下所使用的數(shù)據(jù)均經(jīng)過(guò)了原始作者的許可。當(dāng)前,學(xué)界對(duì)于數(shù)據(jù)大規(guī)模匯聚使用造成的風(fēng)險(xiǎn)關(guān)注度還不高,但數(shù)據(jù)的規(guī)模性利用實(shí)際上是生成式人工智能發(fā)展的關(guān)鍵性因素。只有通過(guò)建立數(shù)據(jù)規(guī)?;褂玫臋?quán)責(zé)分配,才能實(shí)現(xiàn)第三極權(quán)力膨脹背景下的數(shù)字公有領(lǐng)域責(zé)任制度分配,從法律的層面促進(jìn)與規(guī)制生成式人工智能的可信向善發(fā)展。
二、生成式人工智能的責(zé)任能力與現(xiàn)實(shí)基礎(chǔ)
風(fēng)險(xiǎn)與責(zé)任之間具有強(qiáng)大的關(guān)聯(lián)性,當(dāng)社會(huì)向一個(gè)被人造不確定性而非外部不確定性所支配的世界移動(dòng)時(shí),就必然出現(xiàn)對(duì)責(zé)任的討論。在風(fēng)險(xiǎn)現(xiàn)實(shí)與治理規(guī)則無(wú)法調(diào)和的真實(shí)存在下,需要進(jìn)一步深入研究生成式人工智能規(guī)制的轉(zhuǎn)向路徑,特別是解決由何種主體承擔(dān)責(zé)任的法律窘境,以提出邏輯自洽又契合發(fā)展需要的治理機(jī)制。在此技術(shù)路線下,生成式人工智能引致風(fēng)險(xiǎn)的責(zé)任能否由其自身承擔(dān)、并在什么程度上承擔(dān),已成為厘清相關(guān)問(wèn)題的基礎(chǔ)環(huán)節(jié)。責(zé)任能力分為民事與刑事責(zé)任能力兩類, 是指權(quán)利主體以自己的行為履行法律義務(wù)和接受不履行義務(wù)時(shí)的懲治性法律后果的資格。責(zé)任能力狀況一般與行為主體能力狀況是一致的。民事方面,有經(jīng)濟(jì)能力的無(wú)行為能力人或限制行為能力人,因?yàn)樽约旱男袨樵斐伤素?cái)產(chǎn)損失,要以行為人的財(cái)產(chǎn)進(jìn)行賠償。刑事方面,達(dá)到刑事責(zé)任年齡,精神和智力正常的人,即具有刑事責(zé)任能力。無(wú)責(zé)任能力的人,對(duì)自己的行為不承擔(dān)刑事責(zé)任。從生成式人工智能所具備的意志表征與行為能力分析,對(duì)其賦予相應(yīng)的責(zé)任能力具備一定的現(xiàn)實(shí)可能。當(dāng)人工智能的發(fā)展達(dá)到相當(dāng)高的技術(shù)水平時(shí),是否認(rèn)可其已經(jīng)從輔助人到替代人的地位轉(zhuǎn)變,將直接影響人工智能產(chǎn)業(yè)乃至人類社會(huì)存在形態(tài)的倫理與規(guī)則基礎(chǔ)。例如,生成式人工智能能否被視作作者,將關(guān)涉切實(shí)的利益與責(zé)任,生成式人工智能應(yīng)當(dāng)對(duì)自己生成的內(nèi)容負(fù)責(zé)嗎? 資本作用下的科學(xué)技術(shù)是對(duì)人本身的一般生產(chǎn)力的占有,是人對(duì)自然界的了解和通過(guò)人作為社會(huì)體的存在來(lái)對(duì)自然界的統(tǒng)治??萍寂d則法治強(qiáng),現(xiàn)代數(shù)字科技已經(jīng)成為法治現(xiàn)代化的重要引擎。西方長(zhǎng)期執(zhí)著于污名化中國(guó)的人工智能應(yīng)用,但對(duì)制度領(lǐng)導(dǎo)權(quán)和規(guī)則制定權(quán)卻表現(xiàn)出長(zhǎng)期偏好。雖然我國(guó)在生成式人工智能的技術(shù)領(lǐng)域居于后發(fā)地位,但通過(guò)創(chuàng)新規(guī)則與應(yīng)用體系的結(jié)構(gòu)性改變,結(jié)合法律規(guī)范的適度超前調(diào)整,可以充分發(fā)揮我國(guó)在數(shù)字領(lǐng)域的基礎(chǔ)優(yōu)勢(shì)與場(chǎng)景優(yōu)勢(shì),形成人工智能治理領(lǐng)域的制度性優(yōu)勢(shì)。
(一)生成式人工智能具備類人類意志特征
責(zé)任產(chǎn)生的前提,是主體對(duì)于法律規(guī)范具有認(rèn)識(shí)理解的能力,同時(shí)具備實(shí)施具體行為時(shí)的意志力。例如,犯罪就是人的意志體現(xiàn),缺乏意志即構(gòu)不成犯罪,不具有科處刑罰的本質(zhì)。任何思想的產(chǎn)生都是對(duì)一定社會(huì)歷史條件的反映,都會(huì)在現(xiàn)實(shí)社會(huì)中找到依據(jù)。有學(xué)者提出,根據(jù)人工智能發(fā)揮具體功能或完成特定任務(wù)的算法,是否可以將與設(shè)計(jì)者、生產(chǎn)者等發(fā)生分離作為具有意志力的標(biāo)準(zhǔn)?也有學(xué)者提出,只有滿足了意志條件的理性人工智能,且可以將自身與他者相區(qū)分,并且能夠反思自身,才具有責(zé)任能力的可能。生成式人工智能輸出的內(nèi)容已經(jīng)可以產(chǎn)生人類感知外部世界的效果,依據(jù)預(yù)設(shè)算法規(guī)則處理問(wèn)題并形成產(chǎn)出的邏輯,具有類人類意志的深刻特征。
一是從認(rèn)知的角度分析,生成式人工智能已經(jīng)具備相當(dāng)強(qiáng)的認(rèn)知能力。認(rèn)知,是指人類獲得知識(shí)或應(yīng)用知識(shí)的過(guò)程,大腦接受外界輸入的信息,并經(jīng)過(guò)頭腦的加工處理,轉(zhuǎn)換成內(nèi)在的心理活動(dòng),進(jìn)而支配人的行為,這個(gè)過(guò)程就是認(rèn)知過(guò)程。人類認(rèn)知的實(shí)現(xiàn)過(guò)程與人工智能構(gòu)建的“輸入信息—算法加工—形成決策”的底層邏輯高度契合,人工智能甚至實(shí)現(xiàn)了較人腦更為精準(zhǔn)的認(rèn)知。傳統(tǒng)人工智能階段, 抖音、TIKTOK等短視頻平臺(tái)可以根據(jù)算法推薦技術(shù), 按照用戶的喜好推薦其感興趣的內(nèi)容,從認(rèn)知的結(jié)果分析,人工智能已經(jīng)具備了輸入信息并支配算法決策行為的典型特征,而這種認(rèn)知能力在生成式人工智能實(shí)現(xiàn)后表現(xiàn)得更為強(qiáng)烈。ChatGPT通過(guò)鍵入幾個(gè)關(guān)鍵詞即可生產(chǎn)完整意義上的文章,GPT-4甚至可以看懂表情包和內(nèi)涵圖片,并準(zhǔn)確地指出其中蘊(yùn)含人類理解的笑點(diǎn)。就技術(shù)實(shí)踐所達(dá)到的智能程度而言,已經(jīng)很難否認(rèn)生成式人工智能具備了人類的認(rèn)知能力。生成式人工智能,本質(zhì)上已經(jīng)成為具備自然語(yǔ)言能力的人工智能。人類的文化教育傳承,基本是以自然語(yǔ)言為界面學(xué)習(xí)書本,在此意義上,生成式人工智能確實(shí)已在某些領(lǐng)域代替了部分社會(huì)基礎(chǔ)功能。雖然生成式人工智能的認(rèn)知過(guò)程并非依靠人類大腦神經(jīng)網(wǎng)絡(luò),但若其可以形成人類自然語(yǔ)言相同的理解結(jié)果,是否由碳基生命的大腦直接感知生成結(jié)果的過(guò)程才能構(gòu)成傳統(tǒng)意義上的認(rèn)知, 已經(jīng)不再是理論上的桎梏。
二是從理性的角度分析,生成式人工智能呈現(xiàn)的結(jié)果已具備一定的實(shí)踐理性能力。理性是指人在正常思維狀態(tài)下為了獲得預(yù)期結(jié)果,快速全面了解現(xiàn)實(shí)并形成多種可行方案,從中判斷出最佳方案且有效執(zhí)行的能力。〔46#〕簡(jiǎn)單地講,理性就是從理智上控制行為的能力。理性分為理論理性和實(shí)踐理性,即“認(rèn)識(shí)世界的規(guī)律性的能力”和“根據(jù)道德律令的要求行為處世的能力”。就理論理性而言,生成式人工智能生成文稿的過(guò)程,已經(jīng)具備了理論理性的基礎(chǔ)能力與外在特征,生成式人工智能在操作者指示下生成的可行方案早已超過(guò)農(nóng)業(yè)社會(huì)中自然人的理解能力。生成式人工智能甚至已經(jīng)具備了邏輯推理的能力,GPT-4不僅可以識(shí)別圖片中的內(nèi)容,并可以通過(guò)圖片中的元素形成與人類主觀意識(shí)相同的進(jìn)一步推理。如果向GPT-4展示一個(gè)孩子牽著一個(gè)氣球和一把剪刀,問(wèn)它如果剪斷了繩子會(huì)出現(xiàn)什么情況,GPT-4已經(jīng)可以精準(zhǔn)地回答“氣球會(huì)飄走”。就實(shí)踐理性而言,生成式人工智能具備了根據(jù)規(guī)則要求進(jìn)行決策的能力。美國(guó)明尼蘇達(dá)大學(xué)法學(xué)院已經(jīng)開始探索使用ChatGPT為法學(xué)課程考試作答,在測(cè)試中,ChatGPT四門考試的平均成績(jī)已經(jīng)可以達(dá)到人類學(xué)生的畢業(yè)要求,特別是對(duì)于法律案例的論述方面,其可以把握法律規(guī)則、自行提出應(yīng)適用的法學(xué)理論、正確列舉具體案件的事實(shí)和觀點(diǎn)。當(dāng)然,與人類學(xué)生相比,生成式人工智能暫時(shí)還僅能理解表面層次的法律關(guān)系,對(duì)于復(fù)雜或隱含的因果關(guān)系的挖掘能力仍然不足,生成的內(nèi)容依然符合設(shè)定的淺層法律邏輯。但需要注意的是,這種程度的實(shí)踐理性是在更為強(qiáng)大的GPT-4適用之前的能力水平,按照大型語(yǔ)言模型的迭代速度,生成式人工智能全面理解法學(xué)理論已極可能成為現(xiàn)實(shí)。
三是生成式人工智能已經(jīng)具備了價(jià)值判斷的能力。傳統(tǒng)觀點(diǎn)認(rèn)為,智能無(wú)法替代人的價(jià)值判斷,而法學(xué)及司法裁判的特質(zhì),幾乎完全是與價(jià)值判斷相關(guān)聯(lián)的。但隨著技術(shù)的進(jìn)步,代碼、算法和數(shù)據(jù)已經(jīng)被用于預(yù)測(cè)司法判決的結(jié)果,并取得了較好的成績(jī),生成式人工智能的算法邏輯已經(jīng)可以滲透進(jìn)入判決的體系架構(gòu)之中。有研究者通過(guò)人工智能正確預(yù)測(cè)了從1816年到2015年美國(guó)最高法院作出的2.8萬(wàn)項(xiàng)判決中的70.2%,以及法官投出的24萬(wàn)張裁決票中的71.9%,與之相較,法律專家實(shí)現(xiàn)的案件預(yù)測(cè)準(zhǔn)確率僅在66%左右。生成式人工智能已經(jīng)可以在最終的輸出結(jié)果上實(shí)現(xiàn)預(yù)設(shè)的價(jià)值判斷。就價(jià)值判斷的實(shí)現(xiàn)過(guò)程而言,以非確定性為前提,強(qiáng)調(diào)根據(jù)公理性概率論來(lái)重構(gòu)民事司法體系,在案件審理上注重證據(jù)試錯(cuò)過(guò)程和可撤銷性,最后以法律經(jīng)濟(jì)學(xué)強(qiáng)調(diào)的期待效用最大化為指標(biāo)來(lái)作出司法決定,使得人工智能替代法官裁判完全具備可能性。但必須注意的是,生成式人工智能形成的判斷,也天然具備一定的價(jià)值局限。首先是不同法系的價(jià)值觀并不相同,例如,利用GPT-4對(duì)中國(guó)法院的裁決進(jìn)行分析,必然會(huì)得出批量性的錯(cuò)誤結(jié)論。其次是生成式人工智能使用的底層數(shù)據(jù)并不具備權(quán)威性,例如,其若使用中國(guó)裁判文書網(wǎng)的數(shù)據(jù)作為生成邏輯的基礎(chǔ)時(shí),不同時(shí)期、不同階段的法律文書帶有的價(jià)值判斷本就不同,自然可能形成“同案不同判”的偏差結(jié)果。另外,生成式人工智能暫時(shí)還無(wú)法感知其輸出裁判后的內(nèi)容所造成的客觀影響,在此基礎(chǔ)上,其對(duì)于社會(huì)評(píng)價(jià)的理解還無(wú)法實(shí)現(xiàn)直接反饋。這也決定了生成式人工智能的意志天然具有局限性。
(二)生成式人工智能可能具備行為能力
勞動(dòng)是創(chuàng)造與實(shí)現(xiàn)社會(huì)價(jià)值的前提。生成式人工智能在實(shí)踐中已起到了替代人類職業(yè)的作用,通過(guò)快速化決策的能力,已開始替代人工處理保險(xiǎn)理賠、小病看診、剪輯視頻等重復(fù)性勞動(dòng)。在進(jìn)入老齡化社會(huì)的現(xiàn)實(shí)下,不斷提升生成式人工智能對(duì)生產(chǎn)關(guān)系的作用,將與未來(lái)社會(huì)形態(tài)的變化直接相關(guān)。傳統(tǒng)人工智能在區(qū)塊鏈技術(shù)的作用下,已經(jīng)可以通過(guò)智能合約由機(jī)器代替人類確定權(quán)利義務(wù)并對(duì)外發(fā)生效力,人工智能作出決策的過(guò)程是否可以成立法律上的行為已經(jīng)成為法學(xué)研究無(wú)法繞開的話題。對(duì)于傳統(tǒng)人工智能的地位,通說(shuō)一般仍持“代理說(shuō)”的觀點(diǎn),認(rèn)為人工智能的行為是受人類所控制,其決策的能力與后果最終由被代理的主體承擔(dān),這也就實(shí)際上承認(rèn)了人工智能具備一定的法律地位,因?yàn)橹挥性谌斯ぶ悄芫邆湫袨槟芰r(shí),才具備履行被代理人指示的資格。承擔(dān)責(zé)任的前提在于主體能夠意識(shí)到其行為的后果,并采取具有獨(dú)立意志的行動(dòng)。當(dāng)人工智能進(jìn)化到生成式人工智能的階段之后,已經(jīng)強(qiáng)大到可以廣泛參與法律關(guān)系,基于其自主決策的實(shí)際,需要判定生成式人工智能是否可能具備人類行為的能力,這是其是否可以承擔(dān)責(zé)任的前提條件。
有學(xué)者提出,由于自動(dòng)化系統(tǒng)無(wú)法理解消費(fèi)者的意愿與期望,或者無(wú)法理解人類自然語(yǔ)言而不能承擔(dān)法律責(zé)任,也就否定了人工智能的行為能力。但司法實(shí)踐中已有判例確認(rèn)了人工智能的行為效力。例如,在Moore#v.#Publicis#Groupe#SA案中,美國(guó)法院正式批準(zhǔn)預(yù)測(cè)編碼作為在某些情況下審查電子存儲(chǔ)信息的可接受方式。也有學(xué)者提出,如果人工智能的決策可以視作行為,則需要其行為必須可以被解釋?!缎乱淮斯ぶ悄軅惱硪?guī)范》第12條規(guī)定,要在算法設(shè)計(jì)、實(shí)現(xiàn)、應(yīng)用等環(huán)節(jié),提升人工智能的透明性、可解釋性、可理解性。但如何理解“可解釋”,實(shí)際上也是立法者作出的主觀價(jià)值判斷,無(wú)非是解釋理念、解釋原則與解釋方法隨著生產(chǎn)力水平的不斷提高而形成的邏輯,人工智能的底層算法是否一定需要被解釋,迄今未有學(xué)者給出令人信服的依據(jù)。在State#Farm#Mutual#Automobile#Insurance7Company7v.Bockhorst案中,保險(xiǎn)人的智能系統(tǒng)基于錯(cuò)誤的程序發(fā)出了錯(cuò)誤通知,原告基于此改變了原先的保險(xiǎn)合同,法院也判決了原告基于信任的系統(tǒng)行為有效。美國(guó)第十巡回法庭明確計(jì)算機(jī)程序作出的超出預(yù)想的錯(cuò)誤后果由保險(xiǎn)公司承擔(dān),這實(shí)際上已經(jīng)確立了計(jì)算機(jī)作為獨(dú)立的主體形成權(quán)利義務(wù)的能力。
當(dāng)然,技術(shù)手段本身并不能回答原因問(wèn)題,將結(jié)果混淆為原因是一種謬誤。有研究者提出,通過(guò)留意價(jià)值的數(shù)值化處理和加權(quán)計(jì)算,可以確立關(guān)于價(jià)值排序和價(jià)值函數(shù)的算法規(guī)則,人工智能的倫理標(biāo)準(zhǔn)通過(guò)技術(shù)設(shè)計(jì)的內(nèi)在路徑完全可以實(shí)現(xiàn)?;厮輦惱韺W(xué)上“人”的概念形成的歷史,“人”是依照其本質(zhì)屬性,有能力在給定的各種可能性的范圍內(nèi),自主地和負(fù)責(zé)地決定他的存在和關(guān)系,為自己設(shè)定目標(biāo)并對(duì)自己的行為加以限制。自然人可以成為主體,淵于將倫理學(xué)上的“人”的概念移植到法律領(lǐng)域。有學(xué)者提出,倫理性并不是民事主體的必然要求,倫理性人格到經(jīng)濟(jì)性人格的轉(zhuǎn)變?yōu)橹悄軝C(jī)器人的主體論鋪平道路,人工智能可以具有工具性人格。倫理概念下的生成式人工智能是否滿足或是可以滿足人類社會(huì)的行為要求,也是考慮能否賦予其行為能力的要素。特別是如果人工智能突破了倫理底線,則又應(yīng)該按照何種形態(tài)對(duì)其予以追責(zé)或懲戒? 這又回到了生成式人工智能是否可以具備行為能力的邏輯起點(diǎn)。從西方理論認(rèn)為,人類社會(huì)運(yùn)行的規(guī)則,由準(zhǔn)則、指令和標(biāo)準(zhǔn)這三個(gè)概念共同組成。而“行為標(biāo)準(zhǔn)”的判定,也是隨著實(shí)踐的發(fā)展不斷改變。生成式人工智能如果長(zhǎng)期輸送含有關(guān)亂倫、暴力、歧視等內(nèi)容影響青少年,同樣面臨傳統(tǒng)價(jià)值觀下的倫理底線突破與犯罪構(gòu)成標(biāo)準(zhǔn)的適用困境,造成人類社會(huì)價(jià)值的崩塌?;谏墒饺斯ぶ悄芩碌臉?biāo)準(zhǔn)變化,有必要通過(guò)倫理規(guī)則的重構(gòu),對(duì)其形成真實(shí)的可責(zé)性,以確保其行為的發(fā)展始終不偏離以人為本的預(yù)設(shè)價(jià)值軌道。
(三)擬制主體承擔(dān)法律責(zé)任
法理意義上的“人”,體現(xiàn)的是人類族群的群體意志所形成的共識(shí),與生產(chǎn)力水平和生產(chǎn)關(guān)系密切相關(guān)。法律上對(duì)于“人”的概念是動(dòng)態(tài)變化的,在奴隸社會(huì)以及封建社會(huì),自然人并非天然具有法律上的權(quán)利能力與義務(wù)能力,在現(xiàn)代文明體系建立之后,“人可非人”的價(jià)值判斷才逐漸被人類社會(huì)所拋棄。在進(jìn)入大航海時(shí)代以后,人類為了適應(yīng)社會(huì)發(fā)展的實(shí)際需要,逐步形成了公司等擬制的法人概念。從經(jīng)濟(jì)利益考量,法律的制度性變化確實(shí)促進(jìn)了社會(huì)的發(fā)展與進(jìn)步,這也是1750年前后新的組織體開始推動(dòng)人類財(cái)富大幅增長(zhǎng)至今的原因解釋。就意志能力而言,法人等擬制主體作為財(cái)產(chǎn)的集合并無(wú)意志的天賦屬性, 其可以成為法律意義上的人是基于經(jīng)濟(jì)上的合理性而非哲學(xué)上的合理性,僅僅是形式化的權(quán)利主體與法律效果的承擔(dān)主體,并產(chǎn)生了限制責(zé)任等制度。大陸法系下,獨(dú)立的法律人格需要具備社會(huì)存在與法律確認(rèn)這兩個(gè)必備條件,即需要獨(dú)立自主地作出意思表示并得到法律明確的確認(rèn)。法人概念的產(chǎn)生,是隨著社會(huì)存在的變化而不得不作出的規(guī)則調(diào)整與適應(yīng),這種擬制的主體符合現(xiàn)代社會(huì)的基本組織形式與運(yùn)行規(guī)律,又確保了生產(chǎn)關(guān)系的不斷完善。
既然法人可以擁有主體地位,那么人工智能也將必然獲得相應(yīng)的法律資格。俄羅斯格里申法案提出,基于人工智能的法律構(gòu)造,可以允許其類推適用統(tǒng)一國(guó)家法人登記簿制度。就法人生成的邏輯而言,是先有實(shí)體存在,再有法律進(jìn)行確認(rèn)。以此類推,人工智能特別是生成式人工智能被法律所擬制而形成特殊的主體地位具有邏輯上的正當(dāng)性。也有觀點(diǎn)提出,不能簡(jiǎn)單地通過(guò)與法人的類比,以論證生成式人工智能法律地位的正當(dāng)性, 理由是法人通過(guò)借助于自然人的行為才能從事法律活動(dòng)。但筆者認(rèn)為,法人與人工智能在構(gòu)造上的差別,并非人工智能無(wú)法被法律所賦權(quán)的前置性因素,立法技術(shù)的主要考量仍應(yīng)從解決實(shí)際問(wèn)題出發(fā)。任何權(quán)利主體,只要人類將其稱為權(quán)利主體時(shí),就應(yīng)當(dāng)成為“法律上的人”。法人運(yùn)行的關(guān)鍵,是其內(nèi)部成員意志的集中體現(xiàn),通過(guò)相應(yīng)決策機(jī)構(gòu),集中形成意志,并以自身的名義開展活動(dòng),從而具備了認(rèn)知能力以及實(shí)施犯罪的能力。人工智能在擬制的法律技術(shù)上,與法人并無(wú)本質(zhì)不同,穿透人工智能面紗,也一定會(huì)體現(xiàn)人的意志。當(dāng)下圍繞人工智能的法律主體構(gòu)建的核心問(wèn)題就是責(zé)任,需要為人工智能的發(fā)展構(gòu)建契合實(shí)際的以責(zé)任承擔(dān)為基礎(chǔ)的特殊財(cái)產(chǎn)性法律主體。當(dāng)人工智能因不可歸責(zé)于他人的行為造成損害或傷害時(shí),可以承擔(dān)相應(yīng)的民事或刑事責(zé)任,以使得負(fù)責(zé)任的人工智能成為法律與實(shí)踐意義上的現(xiàn)實(shí)。
三、生成式人工智能的責(zé)任能力建構(gòu)與結(jié)構(gòu)化配置
在傳統(tǒng)的法律責(zé)任體系之下,由生成式人工智能自動(dòng)簽訂的法律合同,對(duì)外發(fā)生的效果表示無(wú)法進(jìn)行效力上的確認(rèn), 其生成的明顯具備作品特征的內(nèi)容無(wú)法享有著作權(quán)等知識(shí)產(chǎn)權(quán)法的保護(hù),也就無(wú)從產(chǎn)生將生成式人工智能作為權(quán)利主體所帶來(lái)的經(jīng)濟(jì)效益,不利于人工智能作為顛覆性生產(chǎn)力工具的長(zhǎng)久發(fā)展。由于生成式人工智能的技術(shù)特點(diǎn),利用其實(shí)施的犯罪行為或者其在自身算法邏輯下輸出的內(nèi)容可能引致犯罪的結(jié)果,由于難以確認(rèn)犯罪主體,在現(xiàn)行刑罰體系下面臨無(wú)法構(gòu)罪的現(xiàn)實(shí)困境,直接對(duì)人類社會(huì)的樸素倫理造成巨大沖擊。在技術(shù)與數(shù)據(jù)高度壟斷的數(shù)字社會(huì)架構(gòu)下,“代碼就是法律”的邏輯已經(jīng)使得擁有先發(fā)優(yōu)勢(shì)的巨型科技資本擁有了超出公權(quán)力與私權(quán)力之外的第三極權(quán)力,在事實(shí)上形成了對(duì)于社會(huì)治理的域外法權(quán),根據(jù)何種原則與規(guī)則以規(guī)制生成式人工智能的控制者,已成為關(guān)系國(guó)家安全的重大問(wèn)題。生成式人工智能抓取的是全域范圍內(nèi)的海量數(shù)據(jù),使用的可能是飽含價(jià)值密度的規(guī)?;畔?,在使用與輸出數(shù)據(jù)的過(guò)程中造成的隱私侵害、知識(shí)產(chǎn)權(quán)侵害等行為,在現(xiàn)行法律體系下也無(wú)法明確責(zé)任的主體與歸責(zé)的原則。生成式人工智能實(shí)際改變了人類對(duì)于傳統(tǒng)自然語(yǔ)言傳承文化與教育的基本結(jié)構(gòu),操作者不得不在認(rèn)知邏輯的改變下,有意識(shí)或無(wú)意識(shí)地被生成式人工智能所輸出的內(nèi)容滲透,其產(chǎn)生的人類認(rèn)知邏輯上的變化,將很有可能對(duì)國(guó)家與民族的認(rèn)同產(chǎn)生價(jià)值觀上的重大變化。
習(xí)近平總書記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力量,加快發(fā)展新一代人工智能是事關(guān)我國(guó)能否抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇的戰(zhàn)略問(wèn)題。”法律是保障人工智能可信向善、負(fù)責(zé)任發(fā)展的關(guān)鍵因素與主要手段,是否承認(rèn)生成式人工智能的責(zé)任能力,或者說(shuō)在何種程度上承認(rèn)生成式人工智能的責(zé)任能力,將直接決定生成式人工智能乃至未來(lái)通用人工智能的行為性質(zhì)與有效性,又會(huì)反作用于未來(lái)法律的發(fā)展和走向,在根本上決定數(shù)字技術(shù)全面覆蓋人類生產(chǎn)生活后的社會(huì)樣態(tài)。需要在發(fā)揮中國(guó)既有的人工智能治理優(yōu)勢(shì)上,通過(guò)頂層設(shè)計(jì)推進(jìn)基礎(chǔ)性人工智能立法,探索通用人工智能立法的經(jīng)驗(yàn),根據(jù)生成型人工智能的技術(shù)特點(diǎn)更新監(jiān)管邏輯,形成更具影響力的法律制度體系。
(一)責(zé)任能力有限
法律在規(guī)制人工智能風(fēng)險(xiǎn)與促進(jìn)人工智能正向發(fā)展的兩個(gè)維度間必須尋找到恰當(dāng)?shù)钠胶恻c(diǎn),而促進(jìn)人工智能發(fā)展的首要問(wèn)題是需要有主體為人工智能的行為承擔(dān)相稱的責(zé)任。這個(gè)主體可能是人工智能的研發(fā)者、控制者、操作者、投資者、生產(chǎn)者,在一定范圍與條件下,也可以是人工智能,特別是生成式人工智能這類強(qiáng)人工智能體。需要避免人工智能一定要像人一樣進(jìn)行神經(jīng)思維才可以定位為“人”的思維定勢(shì),與人類大腦運(yùn)行機(jī)制的不同,并不能說(shuō)明人工智能不能達(dá)致理性主體的狀態(tài)或能力。社會(huì)性或倫理性已不是人工智能成為法律主體的必要條件。就意志能力而言,生成式人工智能在進(jìn)入GPT-4時(shí)代以后,已經(jīng)具備了邏輯推理與意思表示的能力,可以通過(guò)算法邏輯的設(shè)定實(shí)現(xiàn)與操作者一致的價(jià)值期待。就行為能力而言,司法實(shí)踐已經(jīng)確認(rèn)了人工智能行為的法律效力并已有國(guó)家開始使用人工智能系統(tǒng)用于智能裁判。從實(shí)際出發(fā),參考擬制法人對(duì)于人類文明與經(jīng)濟(jì)發(fā)展的重大作用,賦予人工智能特別是生成式人工智能以特殊的法律主體地位,明確其責(zé)任能力與歸責(zé)原則,已經(jīng)成為應(yīng)對(duì)風(fēng)險(xiǎn)、促進(jìn)發(fā)展的現(xiàn)實(shí)選擇。
人工智能雖然可以具備法律主體地位,但這種法律人格應(yīng)當(dāng)是有限度的,并非完全的法律人格,歸根結(jié)底是因?yàn)槠淇梢猿袚?dān)的責(zé)任能力是有限的。責(zé)任能力與行為能力是一致的。生成式人工智能雖然能夠獨(dú)立作出意思表示并承擔(dān)一定的責(zé)任能力,但其依舊是智能機(jī)器的天然身份,人類所具有的生育、婚姻、投票、選舉等倫理性的權(quán)利顯然無(wú)法加予生成式人工智能,但結(jié)合其輸出具有價(jià)值作品的實(shí)際,可以考慮為其在著作權(quán)等利益型權(quán)利上賦權(quán)。使用生成式人工智能輸出的作品可以由其具備一定的著作權(quán),使用、利用該作品應(yīng)當(dāng)為生成式人工智能支付一定的微量費(fèi)用,這種費(fèi)用既不屬于生成式人工智能的研發(fā)者、也不屬于其控制者,而是由生成式人工智能自行所有,當(dāng)其使用數(shù)據(jù)或信息造成侵權(quán)、歧視等不利結(jié)果時(shí),可由生成式人工智能前期積累的收益予以賠付,在事實(shí)上建構(gòu)其一定的責(zé)任承擔(dān)能力。人工智能是由人類創(chuàng)造以服務(wù)人類的智慧型工具,即人類自身的權(quán)利優(yōu)位于人工智能,人工智能的工具屬性也決定了其自身法律地位的限度性。
生成式人工智能的行為能力來(lái)源于技術(shù),其決策輸出的底層邏輯來(lái)源于規(guī)?;瘮?shù)據(jù)深度學(xué)習(xí)后形成的規(guī)律性行為,與人類個(gè)體在自主意識(shí)上的目的行為仍具有結(jié)構(gòu)上的巨大差異。穿透技術(shù)背后的核心,體現(xiàn)的依然是設(shè)計(jì)者、控制者、操作者的意識(shí)與價(jià)值邏輯。由于具有人腦根本無(wú)法達(dá)到的學(xué)習(xí)與運(yùn)算能力,如果對(duì)生成式人工智能賦予完全的責(zé)任能力,則人類的地位將極有可能逐步被機(jī)器所取代,造成人本社會(huì)的道德倫理塌陷。基于實(shí)踐的變化,為生成式人工智能等高度智能體賦予一定的責(zé)任能力以解決“網(wǎng)暴”、無(wú)人駕駛、作品制作等現(xiàn)實(shí)重大問(wèn)題,是法律體系可以作出的適應(yīng)性調(diào)整,但責(zé)任的最終承擔(dān)仍需要由人類負(fù)責(zé),這是實(shí)現(xiàn)人工智能在自身層面與社會(huì)存在兩個(gè)維度負(fù)責(zé)任發(fā)展的應(yīng)然法律技術(shù)路線。
(二)“穿透人工智能面紗”的歸責(zé)原則
在證成人工智能特別是生成式人工智能可以具備一定的責(zé)任能力后,就需要考慮其責(zé)任能力的范圍與歸責(zé)的路徑。就民事責(zé)任而言,主要考慮其獨(dú)立對(duì)外決策的行為效力與侵權(quán)的責(zé)任承擔(dān),就刑事責(zé)任而言,主要考慮其被利用作為新型犯罪工具、由于自身缺陷造成的犯罪結(jié)果以及自主決策實(shí)施的犯罪行為這幾種情形下的責(zé)任能力。生成式人工智能依靠數(shù)據(jù)信息的搜索整合與綜合運(yùn)用形成了不同于傳統(tǒng)人工智能的運(yùn)算機(jī)理,使得民法、刑法上的原有因果關(guān)系與實(shí)際相割裂。筆者認(rèn)為,生成式人工智能的責(zé)任能力需要與其在具體行為時(shí)的受控制程度緊密聯(lián)系在一起進(jìn)行綜合考量,無(wú)論是民事責(zé)任還是刑事責(zé)任,均需要考慮生成式人工智能在決策時(shí)的底層邏輯以及人機(jī)復(fù)雜互動(dòng)以后的因果關(guān)系重構(gòu)。可以從結(jié)構(gòu)化的維度分析生成式人工智能致?lián)p時(shí)的狀態(tài)與原因:一是若責(zé)任后果完全是由生成式人工智能自身運(yùn)算混亂或設(shè)計(jì)邏輯引起的,則由生成式人工智能自身承擔(dān)限制的責(zé)任能力后,由生成式人工智能的研發(fā)者與控制者承擔(dān)補(bǔ)充責(zé)任,生成式人工智能的研發(fā)者與控制者需要提供完整的研發(fā)合規(guī)文件,否則承擔(dān)嚴(yán)格責(zé)任。二是若責(zé)任后果是由操作者自身操作生成式人工智能引致的,在可以證明操作者身份的前提下,由生成式人工智能的操作者承擔(dān)主要責(zé)任,若無(wú)法查明操作者身份且生成式人工智能的控制者可以提供人工智能可控的相關(guān)證明,則由生成式人工智能自身承擔(dān)限制責(zé)任。例如,由其從著作權(quán)收益或投資者建立的強(qiáng)制責(zé)任基金中,抽取部分貨幣補(bǔ)償受害方,研發(fā)者與控制者承擔(dān)過(guò)錯(cuò)責(zé)任。三是若責(zé)任后果完全無(wú)法證明由何種原因引起,則由生成式人工智能的研發(fā)者、控制者及其自身分別承擔(dān)相應(yīng)比例的責(zé)任,這同時(shí)需要建構(gòu)更為精準(zhǔn)與龐大的相應(yīng)配套機(jī)制以確定具體的歸因準(zhǔn)則以及賠償范圍、責(zé)任限制等體系。四是若責(zé)任后果由監(jiān)管疏忽或?yàn)^職造成,則由監(jiān)管者承擔(dān)過(guò)錯(cuò)責(zé)任,由生成式人工智能自身承擔(dān)補(bǔ)充責(zé)任。無(wú)論是何種歸責(zé)類型,總體均需要適用“穿透人工智能面紗”的原則確定歸責(zé)路徑,在查證因果關(guān)系的基礎(chǔ)上,考察確定生成式人工智能責(zé)任背后的實(shí)際責(zé)任主體。
在明確歸責(zé)原則以后,需要構(gòu)建生成式人工智能責(zé)任的鏈?zhǔn)椒峙錂C(jī)制以具體完善責(zé)任的承擔(dān)機(jī)制。例如,就生成式人工智能的能力與使用范圍而言,任何單一的主體國(guó)家或職能部門,均無(wú)法應(yīng)對(duì)其帶來(lái)的責(zé)任風(fēng)險(xiǎn), 需要通過(guò)責(zé)任分擔(dān)的鏈?zhǔn)綑C(jī)制以確定生成式人工智能侵權(quán)或犯罪后的責(zé)任分配。就生成式人工智能而言,需要從研發(fā)者、控制者、操作者、監(jiān)管者、人工智能本身的維度,共同構(gòu)建權(quán)責(zé)匹配的責(zé)任分擔(dān)機(jī)制。在確?!白镓?zé)行一致”“權(quán)利與義務(wù)標(biāo)準(zhǔn)相當(dāng)”等傳統(tǒng)價(jià)值觀下,結(jié)合數(shù)字社會(huì)發(fā)展的新形態(tài), 延伸生成式人工智能的責(zé)任鏈條, 以確保單一主體的責(zé)任負(fù)擔(dān)不至于過(guò)重,從而減少對(duì)于生成式人工智能投資與利用的期許,形成法律規(guī)制的負(fù)外部性。在鏈?zhǔn)椒峙錂C(jī)制下,研發(fā)者應(yīng)當(dāng)留存相應(yīng)的模型與研發(fā)數(shù)據(jù),證明其算法邏輯受控且不存在侵權(quán)的故意,否則應(yīng)承擔(dān)相應(yīng)的法律責(zé)任。再如,在控制者責(zé)任上,應(yīng)當(dāng)證明其適用生成式人工智能不存在主觀上的價(jià)值歧視與顛覆國(guó)家政權(quán)、傳播有害信息的故意,在其證明生成式人工智能的運(yùn)行與適用基本合規(guī)的情況下,可以免責(zé)。另如,操作者對(duì)于利用ChatGPT等生成式人工智能應(yīng)盡到相應(yīng)的注意義務(wù)與合規(guī)義務(wù),若通過(guò)故意誘導(dǎo)等方式傳播謠言、竊取隱私,則應(yīng)由操作者承擔(dān)嚴(yán)格的法律責(zé)任。最后,需要強(qiáng)化生成式人工智能對(duì)于人工智能自身治理的責(zé)任能力,逐步實(shí)現(xiàn)從治理“受體”向“主體”的部分轉(zhuǎn)化,提高技術(shù)水平與注意義務(wù)的相稱程度。通過(guò)內(nèi)容識(shí)別、版權(quán)控制、數(shù)字水印標(biāo)注等行為方式,實(shí)現(xiàn)對(duì)于輸出內(nèi)容的管控與倫理審查,極端強(qiáng)化“通知+必要條款”等措施的重要性,盡最大可能減少數(shù)據(jù)濫用與隱私侵權(quán)的風(fēng)險(xiǎn)。在明確生成式人工智能的責(zé)任能力限度與歸責(zé)原則后,需要進(jìn)一步深入研究明晰生成式人工智能研發(fā)者、持有者、操作者、監(jiān)管者等不同利益主體在具體風(fēng)險(xiǎn)中的利益關(guān)系與配套架構(gòu),更加系統(tǒng)、準(zhǔn)確地厘定在何種程度、事項(xiàng)或范圍內(nèi)由生成式人工智能承擔(dān)何種責(zé)任。
(三)建構(gòu)完整的配套規(guī)則體系
法教義學(xué)的理想目標(biāo)是參照近代科學(xué)原理建立公理體系, 使得法律規(guī)范具有森嚴(yán)的效力等級(jí),從實(shí)踐出發(fā),逐步解決實(shí)踐問(wèn)題特別是具有系統(tǒng)性、全局性風(fēng)險(xiǎn)的問(wèn)題,通過(guò)化約社會(huì)的復(fù)雜性,為社會(huì)成員提供明確的行動(dòng)預(yù)期,保障社會(huì)運(yùn)轉(zhuǎn)的秩序性與確定性。法律的生命不在于邏輯,而在于經(jīng)驗(yàn)。應(yīng)根據(jù)社會(huì)存在的變化逐步動(dòng)態(tài)更新以助推生產(chǎn)力水平的提升。影響法律發(fā)揮作用的因素,除了傳統(tǒng)文化觀念、政治行為方式以及程序設(shè)計(jì)的漏洞之外,特別值得注意的是更具普遍性的外部條件變化。生成式人工智能的治理難題,在明確其特殊法律地位,確定其可以承擔(dān)限制性的責(zé)任能力后,應(yīng)進(jìn)一步建構(gòu)豐富具體的規(guī)制體系。
一是根據(jù)生成式人工智能的底層邏輯,建立覆蓋研發(fā)運(yùn)行全程的風(fēng)險(xiǎn)監(jiān)管機(jī)制。傳統(tǒng)的監(jiān)管方式如產(chǎn)品許可、侵權(quán)責(zé)任制度,無(wú)法全面地適用于生成式人工智能的監(jiān)管。對(duì)于高風(fēng)險(xiǎn)人工智能,歐盟傾向于嚴(yán)格責(zé)任,將隱私保護(hù)等人工智能倫理價(jià)值原則作為優(yōu)先價(jià)值進(jìn)行嚴(yán)格監(jiān)管,而美國(guó)則傾向于自由經(jīng)營(yíng),強(qiáng)調(diào)審慎監(jiān)管以促進(jìn)人工智能的技術(shù)創(chuàng)新與發(fā)展。筆者認(rèn)為,必須采取新的監(jiān)管機(jī)制以規(guī)制人工智能帶來(lái)的責(zé)任風(fēng)險(xiǎn),通過(guò)建立完善的法律法規(guī)和行業(yè)標(biāo)準(zhǔn),明確生成式人工智能的責(zé)任主體、權(quán)利義務(wù)和違法處罰措施。例如,驗(yàn)證研發(fā)者優(yōu)化生成式人工智能模型的設(shè)計(jì)和訓(xùn)練方法,提高其準(zhǔn)確度、穩(wěn)定性;強(qiáng)調(diào)控制者應(yīng)動(dòng)態(tài)檢測(cè)生成式人工智能模型的解釋性和可驗(yàn)證性方法,增強(qiáng)其可信度和可控性;督促監(jiān)管者開展生成式人工智能模型的測(cè)試和評(píng)估工作,檢測(cè)并消除其可能存在的偏差或錯(cuò)誤,不斷加強(qiáng)對(duì)生成式人工智能的審查和監(jiān)督,防止其被用于非法或不道德的目的。通過(guò)全鏈條監(jiān)管與鏈?zhǔn)截?zé)任分配機(jī)制的契合,形成明確的數(shù)字空間行為準(zhǔn)則,建立可預(yù)期的風(fēng)險(xiǎn)責(zé)任制度。
二是明確生成式人工智能的透明度責(zé)任。由于生成式人工智能需要規(guī)?;萌驍?shù)據(jù),通過(guò)深化規(guī)則的制定與應(yīng)用確保其透明度責(zé)任就尤為重要。首先是生成式人工智能的研發(fā)者應(yīng)準(zhǔn)確了解該系統(tǒng)的性能與缺陷,向用戶完整陳述其使用可能引致的不利影響。對(duì)使用的數(shù)據(jù)進(jìn)行事先評(píng)估,了解其訓(xùn)練模型、使用樣本的合法來(lái)源,對(duì)其使用與生成的數(shù)據(jù)負(fù)有嚴(yán)格的保密與管理義務(wù)。其次是生成式人工智能的控制者應(yīng)當(dāng)明確其應(yīng)用過(guò)程與輸出邏輯的全程可追溯,提高原生與次生數(shù)據(jù)信息的透明度,采取措施盡最大可能避免數(shù)據(jù)規(guī)模化應(yīng)用對(duì)個(gè)體可能造成的侵權(quán)風(fēng)險(xiǎn)。再次是根據(jù)實(shí)踐的發(fā)展,生成式人工智能的控制者的行為義務(wù)應(yīng)予以擴(kuò)大,例如要求其為生成的圖片、音像作品等內(nèi)容自動(dòng)生成不可篡改的底層區(qū)塊鏈數(shù)字水印,確保生成物的來(lái)源、目的與作用符合倫理要求,并在產(chǎn)生責(zé)任風(fēng)險(xiǎn)時(shí)可以提供排除責(zé)任的合規(guī)記錄。再如推行強(qiáng)制性算法規(guī)則,除非操作者明確同意,不得主動(dòng)識(shí)別其身體、面容和聲音數(shù)據(jù),并強(qiáng)制不得用于其他場(chǎng)景使用或交互。另如,不得為了確定算法推薦的內(nèi)容匹配度并提升準(zhǔn)確性,而主動(dòng)監(jiān)測(cè)操作者瀏覽過(guò)程中瞳孔大小等生理變化。最后是監(jiān)管者在保護(hù)創(chuàng)新的基礎(chǔ)上,鼓勵(lì)算法與接口開源。但這種開源并非強(qiáng)制,需要特別注意對(duì)于科技初創(chuàng)企業(yè)與個(gè)人開發(fā)者的利益保護(hù)。
三是治理原則實(shí)現(xiàn)從可解釋算法向可控制算法的改變?,F(xiàn)行對(duì)于算法的要求基本按照歐盟《人工智能法案》的路徑,明確算法應(yīng)當(dāng)被解釋。但生成式人工智能改變了傳統(tǒng)人工智能的運(yùn)行機(jī)制并大幅提升了其深度學(xué)習(xí)的能力,在具備了自我意識(shí)之后,其建構(gòu)的算法邏輯很可能輸出算法編寫者與控制者無(wú)法解釋的內(nèi)容。若生成式人工智能的研發(fā)者也無(wú)從解釋其研發(fā)系統(tǒng)造成的責(zé)任損失,在此情形下如何確定因果關(guān)系與責(zé)任能力? 如果對(duì)不可解釋的算法責(zé)任主體課以過(guò)重的義務(wù),人工智能領(lǐng)域的技術(shù)創(chuàng)新將會(huì)受到嚴(yán)重打擊。筆者建議,將生成式人工智能的治理邏輯,由可解釋算法逐步過(guò)渡為可控制算法,注重生成式人工智能的魯棒性,即人工智能發(fā)揮作用的穩(wěn)定性?!?7#〕如果生成式人工智能的責(zé)任主體滿足了可控算法的合規(guī)性義務(wù),就可以按照鏈?zhǔn)截?zé)任分擔(dān)機(jī)制確定的方法明確責(zé)任關(guān)系、確定責(zé)任能力,在保護(hù)創(chuàng)新的前提下鼓勵(lì)技術(shù)的發(fā)展。這種可控性來(lái)源于一系列的義務(wù)要求,例如,違法違規(guī)行為偵測(cè)的強(qiáng)制報(bào)告制度、輸出內(nèi)容的合規(guī)審查制度、以人為本的倫理判斷制度等。對(duì)于具有系統(tǒng)性功能的算法,應(yīng)當(dāng)明確限制算法技術(shù)出口的類型與清單。通過(guò)加強(qiáng)人工智能系統(tǒng)設(shè)計(jì)的安全性、穩(wěn)定性和合規(guī)性,確保生成式人工智能始終受到人類的有效控制。
余論———誰(shuí)來(lái)為人工智能發(fā)展負(fù)責(zé)?
人工智能作為最新的科學(xué)技術(shù)成果,極大促進(jìn)了經(jīng)濟(jì)社會(huì)發(fā)展,同時(shí)也存在拉大貧富差距、加劇社會(huì)不公以及擴(kuò)大失業(yè)現(xiàn)象的風(fēng)險(xiǎn),發(fā)揮制度優(yōu)勢(shì)、降低科技異化的風(fēng)險(xiǎn),將成為我國(guó)人工智能治理的關(guān)鍵之策。筆者在2017年曾撰文提出,現(xiàn)行法律規(guī)制對(duì)于人工智能權(quán)利、侵權(quán)責(zé)任主體等關(guān)鍵問(wèn)題上的缺位,使得人工智能的發(fā)展缺乏法律價(jià)值的引領(lǐng),人工智能的短期影響取決于誰(shuí)控制人工智能,而長(zhǎng)期影響則取決于人工智能到底能否受到控制,人工智能的運(yùn)用與發(fā)展需要法律人格的明確。以ChatGPT為代表的生成式人工智能的問(wèn)世,標(biāo)志著人工智能技術(shù)的發(fā)展階段逐步進(jìn)入強(qiáng)人工智能時(shí)代。各國(guó)針對(duì)人工智能技術(shù)的治理均提出了相似的政策,提出發(fā)展“負(fù)責(zé)任的人工智能”。但是,究竟誰(shuí)應(yīng)為人工智能的發(fā)展負(fù)責(zé)? 如何為人工智能的發(fā)展負(fù)責(zé)? 人工智能能否為自己的發(fā)展負(fù)責(zé)? 學(xué)界與實(shí)務(wù)界均未給出確定性的答案,形成目前生成式人工智能帶來(lái)的風(fēng)險(xiǎn)無(wú)法以現(xiàn)行法律體系規(guī)制的治理困境。2022年10月,外交部發(fā)布了《中國(guó)關(guān)于加強(qiáng)人工智能倫理治理的立場(chǎng)文件》,指出人工智能在給人類社會(huì)帶來(lái)潛在巨大發(fā)展紅利的同時(shí),其不確定性可能帶來(lái)許多全球性挑戰(zhàn),應(yīng)堅(jiān)持倫理先行,建立并完善人工智能倫理準(zhǔn)則、規(guī)范及問(wèn)責(zé)機(jī)制,明確人工智能相關(guān)主體的職責(zé)和權(quán)利邊界。生成式人工智能已經(jīng)具備了類人類自主意志特征,又具備了一定的行為能力,鑒于客觀實(shí)際與擬制法人對(duì)人類社會(huì)發(fā)展所取得的巨大作用, 可以考慮賦予生成式人工智能以特定的法律地位,給予其特殊的責(zé)任能力,通過(guò)一系列配套措施與機(jī)制的完善,最終實(shí)現(xiàn)人工智能發(fā)展的可信向善,發(fā)展“負(fù)責(zé)任的人工智能”。