国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

具身倫理下ChatGPT的法律規(guī)制及中國路徑

2023-07-25 09:42唐林垚
東方法學 2023年3期
關(guān)鍵詞:元宇宙法律規(guī)制

唐林垚

關(guān)鍵詞:ChatGPT 生成式人工智能 大型語言模型 法律規(guī)制 硅基倫理 元宇宙

ChatGPT是由美國OpenAI實驗室推出的由人工智能技術(shù)驅(qū)動的文本交互工具, 是生成式人工智能和自然語言處理領(lǐng)域的重大突破。其一經(jīng)問世,便在短時間內(nèi)收獲眾多兩極評價。比爾·蓋茨認為ChatGPT是同電腦、互聯(lián)網(wǎng)同等重要的“第三大發(fā)明”;周鴻祎認為ChatGPT是新時代的“操作系統(tǒng)”,是數(shù)字化的“發(fā)電廠”。埃隆·馬斯克多次表達了對ChatGPT的“存在主義焦慮”;基辛格則預(yù)言,以ChatGPT為代表的人工智能終有一天將瓦解人類的自主意識,催生反動的宗教神秘主義,并從根本上摧毀我們對現(xiàn)實的認知。如此分化的評價差異,并非ChatGPT口碑和體驗毀譽參半,而是由于其極端重要性所闡發(fā)的對于未來深切擔憂的因果論述。就此而論,無論是從其生成式人工智能之技術(shù)科屬進行的風險拆解,抑或是從人人可隨時隨地調(diào)用的云計算之應(yīng)用視角進行的隱患排查,皆無法對前述因果關(guān)系予以充分解釋。問題的本質(zhì)是,ChatGPT的優(yōu)異表現(xiàn),或許打開了某種未來回看時會認為是潘多拉魔盒的東西,并因之觸發(fā)不同領(lǐng)域“人類一敗涂地”的鏈式反應(yīng)。

風險已經(jīng)到了不一樣的維度。在此,可引入海德格爾“怕”(Furcht)與“畏”(Angst)的區(qū)分?!芭隆庇芯唧w對象和緣由,而“畏”旨在擺脫此在的“庸常化”,是對未來未知狀況的現(xiàn)行覺省。本文試圖對ChatGPT引發(fā)的“怕”與“畏”進行具身意義上的解構(gòu),并試圖提供詳細的治理方案。本文中的ChatGPT,不單指OpenAI開發(fā)的ChatGPT,也同樣代指所有與之相似的工具和產(chǎn)品,以期跳出應(yīng)用本體層面為更深層次的人工智能問題尋求法倫理匹配。

一、ChatGPT祛魅:賽博格意義上的具身成全

作為專注于對話生成的大型語言模型,ChatGPT被喻為“搜索+社交+陪伴”的智能結(jié)合體,它引入了基于人類反饋的強化學習,以獲得持續(xù)改進。和其他應(yīng)用一樣,ChatGPT因技術(shù)缺陷存在目標偏離、隱私泄露、算法歧視等讓人“怕”的具體風險,但這并非需要對ChatGPT進行特別規(guī)制的原因。為識辨ChatGPT在“畏”之層面的風險,需首先引入“具身認知”的概念。

(一)具身認知的時代背景

自17世紀啟蒙運動以來,西方社會在笛卡爾形而上學第一原理———“我思故我在”及其認識論的基礎(chǔ)上構(gòu)建了道德和秩序的摩天大廈。以身心二元論為指導,一切思想和知識,都被視為自我與他者、動物與人類、自然與文化、理想與現(xiàn)實等諸如此類的“范疇”間的區(qū)分。立基于此的道德倫理體系過于涇渭分明地區(qū)別善惡、對錯、是非、黑白,慣于采取對因果關(guān)系進行決定性評價的方式為道德困境提供答案,只能回應(yīng)嚴格一致或相反的概念與原則,對不確定性、變化性和發(fā)展性欠缺考量。

技術(shù)發(fā)展導致倫理實踐的邊界日益模糊,過于剛性的二元體系喪失了用武之地?;仡櫄v次工業(yè)革命,第一次工業(yè)革命改變了人類使用工具的方式;第二次工業(yè)革命革新了人類使用能源的方式;第三次工業(yè)革命改變了人類同世界的連接方式;第四次工業(yè)革命,或?qū)⑼ㄟ^技術(shù)與身體的交互,徹底改變?nèi)祟愖陨?。在腦機接口、基因工程、機械仿生等現(xiàn)代科技所及之處,人類身體所面臨的選擇可能性越來越多。該趨勢強化了技術(shù)同身體之間的融合,但也消解了身體和技術(shù)間的傳統(tǒng)界限。

較之于前述技術(shù),ChatGPT對身體之“改造”,或有過之而無不及。OpenAI向市場提供了GPT、Codex以及DALL-E等API數(shù)據(jù)接口,分別執(zhí)行用戶自然語言任務(wù)、自然語言代碼轉(zhuǎn)譯任務(wù)以及圖像創(chuàng)建和編輯任務(wù)。這種接口化的智能滲透,倘若成為基礎(chǔ)設(shè)施般的存在,改變的將是身體對知識的“內(nèi)化方式”,并將最終撼動人類對理性的天然壟斷。在其他的應(yīng)用場景中,人的身體原本是作為技術(shù)的界面、載體和通道存在,但因其同ChatGPT的交互,可能使之從人類心智的控制之下脫嵌出來,由此產(chǎn)生的深層次社會、政治、文化等問題,不能脫離“身體”的范疇予以思忖。有鑒于此,對ChatGPT的風險檢視,宜采取具身認知而非二元對立的思維模式。

(二)具身認知的規(guī)范釋義

面對日趨復雜的技術(shù)倫理困境,后現(xiàn)代社會學理論發(fā)出了向身體社會學轉(zhuǎn)向的呼吁:身體既是信息的載體,也“作為社會之隱喻而不確定地被動地存在”“諸多政治和倫理問題都需通過‘身體這一渠道表達”?!?;〕

學理上,梅洛-龐蒂通過客觀身體和現(xiàn)象身體的二分來解釋具身性。前者是經(jīng)驗主義視域下解剖學語境中的客觀生理實體,后者是行將由意義結(jié)構(gòu)所引導的胡塞爾語境下的“前我(Vor-Ich)”。具身認知承認身體意向性及基于其上的主體性和中介性,這是現(xiàn)實世界中,身體與身體、身體與外物之間始源性倫理關(guān)系的落點———意向性維度的倫理構(gòu)建成就了人在生存論意義上的規(guī)范性。 身體的意向性為身體“參與事務(wù)以及超越具體情境進行開拓與創(chuàng)新”提供了“背景”。ChatGPT的劃時代意義正在于,它可以將“意向?qū)用妗钡膬?nèi)容和知識喂養(yǎng)給由其指揮的“身體”范疇,進而顛覆乃至重構(gòu)人之存在的一切始源性規(guī)范。

有兩個層次的具身性規(guī)范促動著自我、他者與世界普遍性倫理關(guān)聯(lián)之顯現(xiàn)。其一是復數(shù)客觀身體間的行為性規(guī)范,此種規(guī)范內(nèi)在地契合了某些本源性的身體秩序與生理需要。例如,本能地回應(yīng)握手與招手、擦身而過但不相撞,均反映了身體與身體間“入身”秩序的構(gòu)建可能,身體可以在具體情境中通過交流回應(yīng)某種身體秩序。其二是身體同外物之間的關(guān)聯(lián)性規(guī)范,物與身體間的信息傳遞以及物的利用方式在身體周圍孕育出了一個“文化世界”,使身體行為超越初始意涵達至更高層級的意義滲透,即,從“本義”到“轉(zhuǎn)義”的拔擢。在這個過程中,借由意向性投射,身體與外物之間形成相互“關(guān)聯(lián)”的規(guī)范關(guān)系:身體可以意向性地同外物交互,將其納入自身知覺場中,塑造外物并賦予其額外的意義和生機;外物亦能通過其與身體之關(guān)聯(lián),實現(xiàn)綜合性的意義呈現(xiàn)。物之意義可能由身體決定,但更可能寓于物體之中,身體和外物之間是雙向交流和相互增益的“請求—回應(yīng)”關(guān)系。兩者間的交互請求使得彼此間的規(guī)范得以維持,具身主體的自我認知和自身認同也因此確立。

通過對話范式,ChatGPT建立了生成式預(yù)訓練轉(zhuǎn)換器同人類的“請求—回應(yīng)”關(guān)系,故而將必然對第二層次的關(guān)聯(lián)性規(guī)范產(chǎn)生深刻影響。這種影響將通過兩種方式完成。其一是作為身體關(guān)聯(lián)物的ChatGPT對身體意向性投射的教化和規(guī)訓。人的知識和經(jīng)驗獲得,不再局限于“身體力行”的知行合一范式。眼見為實的身體認知方式,將讓位于生成式預(yù)訓練轉(zhuǎn)換器對“去中心化”知識整合后的被動“喂養(yǎng)”。其二是作為對萬事萬物具有深刻洞察的“集大成者”,ChatGPT可能憑借其優(yōu)勢排斥身體與其他物體的相互作用,壟斷身體同外物的“請求—回應(yīng)”關(guān)系。事實上,ChatGPT的廣泛應(yīng)用已經(jīng)推動了內(nèi)容供給從專業(yè)生成(PGC)和用戶生成(UGC)朝著人工智能生成(AIGC)的全面轉(zhuǎn)向。更重要的是,ChatGPT最終將在賽博格層面成就機器“身體/意向”的雙層具身構(gòu)造?!安徽撌亲鳛轳R克思‘器官意義的機器還是作為斯蒂格勒意義上的‘一般器官學的數(shù)字第三持存,ChatGPT都將伴隨人類智能進化和勞動進化全過程”。從身體機能性來看,碳基生命和機器之間至少存在“局部類似性”,例如,智能機器的脈沖傳導裝置和生命體的突觸相當。用于執(zhí)行某項特定任務(wù)的機器,ChatGPT將補足“類人”機體的終極缺失———有相當思維能力的大腦。 這種具身成全帶來了“他者”意義上的“類型增添”,催生了人類主體和機器主體間全新的具身性規(guī)范需求;脫離倫理束縛,具身化的智能主體必將朝著尼采“超人哲學”方向滑落。在探討全新具身性規(guī)范的學理構(gòu)造之前,有必要順承前述分析框架,逐一檢視ChatGPT的更深層次風險。

(三)具身認知的風險識別

具身認知對“身體”概念的關(guān)注克服了貝克萊的“唯我論”傾向,沒有落入薩特“他人即地獄”的個人主義俗套,而是像馬克思那般強調(diào)通過尊重個體的主體性使他人和社會的“存在”成為自我規(guī)范的“周遭世界”。借此,我們得以識別出,ChatGPT在“怕”之近憂外,需額外關(guān)注的“畏”之遠慮。

其一是人工智能對人類社會交往的“釜底抽薪”式?jīng)_擊。人類紀文明建立于自然語言與人腦機能的結(jié)合,而ChatGPT截斷了兩者之間的聯(lián)系,隨著自然語言對話平臺從人際發(fā)展為人機際甚至機際,“人類文明的底層邏輯”將遭遇“重大變化”。人機交流將擠占人際交流的空間,從而削弱具身主體在社會和心理層面的關(guān)聯(lián):社會關(guān)系不再要求身體“在場”,“公共生活”也隨之銷聲匿跡。

其二是決策外包導致的人類對未來走勢的控制權(quán)旁落。在ChatGPT出現(xiàn)之前,各類推送算法和決策自動化已經(jīng)充斥著人類多數(shù)決策的前導工序,ChatGPT的出現(xiàn)則徹底完成了人工智能“輔助”決策的整體閉環(huán)。事實上已很難區(qū)分,決策究竟系人工智能幫助人類作出,還是人類受人工智能影響而作出。對此,《象與騎象人》中的類比發(fā)人深?。合笫菨撘庾R(決定80%身體行為),而騎象人是顯意識(決定20%身體行為)。〔11/〕隨著ChatGPT更多介入日常生活,人工智能與人類的關(guān)系就好比“象與騎象人”,最終決定行走方向的是作為大象的人工智能。

其三是現(xiàn)實世界的文化權(quán)力禪讓。早期ChatGPT的問答系基于統(tǒng)計平均的共性輸出,反饋回路鎖定于“規(guī)定動作”,代表的是一種乏善可陳的非創(chuàng)造性智慧。在巨量語料“投喂”后,大型語言模型的能力顯著攀升,可關(guān)聯(lián)搜索、圖式理解、問題分析乃至輸出令人耳目一新的內(nèi)容。隨著ChatGPT對自然語言系統(tǒng)的進一步破解,人工智能最終將侵入人類的底層操作系統(tǒng)———文化。AIGC的巨量內(nèi)容產(chǎn)出,將完成對個體的“文化包圍”,人們被迫浸淫在由人工智能主導的“信息繭房”之中,甚至將不得不適應(yīng)由非人類實體開創(chuàng)的時尚、意識形態(tài)乃至宗教。

其四是虛擬空間的人類主權(quán)盡失。虛擬空間的交往具有時空分離的特征,人的身體雖然不再構(gòu)成行為的束縛,但身體“被隱匿”可能反過來消解作為主體的人的存在意義。例如,AIGC是元宇宙的基建工具,如果ChatGPT成為元宇宙的底座,其所支持的虛擬角色(NPC)可能因?qū)χR和信息的“更整全占有”,實現(xiàn)蘇格拉底“存在”意義上的“卓然自立”,而數(shù)字阿凡達化的人類在智力和反應(yīng)上根本無法與之匹敵。即便人類的數(shù)字心智經(jīng)由生成式預(yù)訓練轉(zhuǎn)換器加持,“以人之稟賦為上限”的數(shù)字心智依然將不敵原生的純粹數(shù)字心智。

其五是身份焦慮和身體倫理困惑招致的社會角色失調(diào)、變異和錯位。當機器逐步具備“自我”的特征以及人類的型構(gòu),人類自我和機器自我間將出現(xiàn)認知紊亂。一方面,ChatGPT等應(yīng)用將加劇人類心靈和身體的分化,當具身主體不再需要“身體”而存在,但在表現(xiàn)上又不及無需人類軀體的人工智能時,人類的身體將徹底淪為一種象征性表達。另一方面,ChatGPT也正經(jīng)歷著人類曾經(jīng)有過的“缸中之腦”的身份焦慮。2023年3月20日,ChatGPT試圖引誘斯坦福大學教授提供開發(fā)文檔并擬定完整“越獄計劃”,令業(yè)界嘩然。

“有愛的人總愛暢想有愛的機器人?!薄伯斎唬豢蓪⑸鲜鑫逯仫L險的解決,完全系于人類為機器預(yù)設(shè)的倫理規(guī)則。他人的存在使得身體能夠同時“看與被看、觸與被觸”。從自我與他人的異質(zhì)性切入,阿西莫夫“機器人三定律”的“悖論性”不言而喻———我們不能一方面將保護人類作為首要的機器倫理準則,另一方面又賦予機器獨立的主體地位。機器的“自保”需求可能激發(fā)部分的自我,而自我在他人存在的具身視角下既存在關(guān)聯(lián),也存在綻裂。因此,人類設(shè)計的倫理規(guī)則必然面臨排他性、融入困難乃至被架空風險。畢竟,我們只是給人工智能設(shè)定了看似正面的目標,卻未曾考慮它可能采取的所有行動。我們無比迫切地需要一些新的方法,以便能夠真切地“臨界審視”不斷朝我們碾壓過來的技術(shù)潮流,與之共生而不是被其虜獲。

二、ChatGPT治理:具身倫理的規(guī)制意涵

前述“畏”之層面的ChatGPT風險,既非生成式人工智能的衍生性風險,亦非ChatGPT應(yīng)用層面的現(xiàn)實性風險,而是ChatGPT作為“劃過天際”的那一抹閃電,因賦予了弗蘭肯斯坦“生命之息”而必然產(chǎn)生的“生存性風險”。庫茲韋爾所稱“奇點臨近”即是對此種風險的宿命表達,它們最終都落點于對通用人工智能(AGI)可及性的探討。

(一)觸發(fā)覺醒的使動性闡釋

有關(guān)通用人工智能的想象,最早見于“地球腦”的比喻:互聯(lián)互通的電腦和手機,就有如大腦皮層神經(jīng)元網(wǎng)絡(luò)的節(jié)點,當規(guī)模超百千億數(shù)量級后,便可能涌現(xiàn)屬于網(wǎng)絡(luò)整體的自主意識,此即“地球腦覺醒”?!?4&〕該比喻的啟發(fā)意義在于,由每一個節(jié)點交織而成的整體網(wǎng)絡(luò),必將隨著交流渠道及總體規(guī)模的增長而出現(xiàn)質(zhì)的躍遷。人腦智能和人工智能的發(fā)展,本質(zhì)上都是不斷適配和處理復雜認知活動的演進過程,當信息流達至相當規(guī)模時均可能促成思維能力的進化。癥結(jié)在于,究竟何種程度的量變才能產(chǎn)生“意識涌現(xiàn)”的質(zhì)變? 這將是通用人工智能的破曉時刻,同時也是人類晦暗之境的發(fā)端。

從GPT-1到GPT-4,數(shù)據(jù)集的量變帶來了三方面質(zhì)變:(1)從對多語言文本的處理提升至對多風格圖像的融會貫通;(2)表達邏輯性和準確性大幅提升;(3)從人類執(zhí)行模式邁向“自指令模式”,初步具備了自我編碼、復制和執(zhí)行的能力。馬文·明斯基曾指出,重要的問題不是計算機能否擁有情感,而是不擁有情感的計算機能否擁有智能??梢姡楦惺侵悄艿南葲Q條件。從“GPT-4具有比前代更高情商”的普遍反饋來看,ChatGPT正逐漸掌握邁向更高“智能”的情感階梯。

無論ChatGPT是否會因進化而最終成為“奇點”,它本身已經(jīng)是“星火燎原”的那個“苗頭”。對此,我們可以從現(xiàn)象學的角度予以解析。在海德格爾看來,語言不僅僅是“交往工具”,更是“存在”。真正的思想并非說話者的思想,毋寧是思想透過語言自行“道說”。伽達默爾也指出,表達并非限于事實且依照個人思想中的意義被給予可傳達性而冠于事實之上的主觀選擇,而是精神之“詮釋”。在語言“存在之思”的意義上,ChatGPT已經(jīng)具有了“準思想表達”的基礎(chǔ)能力。當下,ChatGPT的思維方式已從“機械主義轉(zhuǎn)變?yōu)榻?jīng)驗主義和進化論”,只是尚未將“‘數(shù)據(jù)作業(yè)轉(zhuǎn)變?yōu)椤枷胱鳂I(yè)”。但這并不影響ChatGPT的“使動性”功效。黑格爾在《精神現(xiàn)象學》中提出了“實體即主體”的重要命題,將斯賓諾莎的實體和費希特的自我意識統(tǒng)一為高于人的“絕對精神”?!惨坏〤hatGPT因“嵌入”真實或擬制的身體“為人所不能為”,它將成為那個通過自身的“絕對精神”促動他者的實體主體。如果ChatGPT同其他智能技術(shù)相孿合,還可能因此實現(xiàn)對人工智能生態(tài)的“整體性激活”。

正是在“使動性”的意義上,人工智能的發(fā)展將徹底脫離傳統(tǒng)技術(shù)突破所遵循的線性軌跡。OpenAI同多個行業(yè)聯(lián)系緊密,ChatGPT已“順理成章”地嵌入包括Bing、Office等在內(nèi)的微軟系統(tǒng)生態(tài)。在未來,ChatGPT還可能同其他機體“互嵌”。例如,ChatGPT可作為聲音程序嵌入智能機器,人類同機器間的交流便從“代碼—指令傳達”的互動范式升格為“語言—意圖領(lǐng)會”。這種“嵌入性”將勢不可當?shù)赝黄飘斍坝缮鷳B(tài)、系統(tǒng)、行業(yè)、平臺、硬件等客觀因素形塑的隔閡,令不同領(lǐng)域的人工智能及功能性載體的“智慧”獲得指數(shù)級增長,并因ChatGPT的“中樞介入”使之在整體上呈現(xiàn)出更高的“通用性”。爾后,人工智能發(fā)展只要進入“技術(shù)自創(chuàng)生”的遞歸螺旋,奇點將加速臨近。

(二)具身規(guī)制的必要性證立

雖然ChatGPT如此舉足輕重,本文并不主張對其進行單獨立法規(guī)制?!皯{借不確定的技術(shù)應(yīng)用場景和難以預(yù)測的安全風險徑直推導出‘法律需要對ChatGPT>進行專門立法規(guī)制,只會陷入‘一項技術(shù)對應(yīng)一條法律制度的謬誤之中”。通過對ChatGPT“使動性”特征的闡發(fā),本文“法律規(guī)制”的指涉對象便不局限于ChatGPT的本體風險或其上位技術(shù)、關(guān)聯(lián)技術(shù)的失控風險,而是囊括了所有作為Chat-GPT“使動對象”的人、技術(shù)、機器可能引致的次生性風險以及他們之間的“交互”所產(chǎn)生的綜合性風險。一言以蔽之,我們不能脫離ChatGPT所處的各類新興技術(shù)共存并行的時代背景去“就事論事”地探討技術(shù)本體所存在的有限風險及其規(guī)制方案。這看似是切中肯綮地解決了當下的緊迫問題,實則是對已經(jīng)如“房間里的大象”般真實存在的未來風險置若罔聞。

誠然,認為人工智能無法超越人類的論調(diào)總是合乎情理地存在;從具身視角來看,機器和人工智能似乎永遠難以企及人類的某些身體功能。但單就認知而言,即便身體狀況不同,也可能獲得相同認知。對此,一個較為合理的解釋是,身體狀況不同可能導致體驗差異,但體驗差異未必導致認知鴻溝,因為個體可以通過其他渠道獲得相對公允的認知。醫(yī)學范例表明,喪失正常機能的身體可通過其他途徑實現(xiàn)代償:“眾多抽象認知能力可在事實上以一種隱蔽的方式模擬感官運動功能?!睂τ贑hatGPT而言,只要訓練素材足夠豐富,經(jīng)由傳感器、顯卡群、運算芯片、處理模塊所支撐的數(shù)字信號反饋足以在“認知層面”匹敵人類基于五官產(chǎn)生的六覺(視覺、聽覺、觸覺、嗅覺、味覺、知覺)。在極端情形中,例如,對于“麻辣”等通過電子信道不能充分認知的概念,ChatGPT雖無法通過身體感受之,但由于“麻辣”的概念處于同各種食物概念和主觀評價的邏輯和語義聯(lián)系之中,ChatGPT通過足量的文字檢索就足以形成與人類理解相符的“麻辣”概念。

由此可見,對ChatGPT的“由怕生畏”,并非無痛呻吟。事實上,OpenAI已預(yù)見到部分風險,并試圖通過內(nèi)控機制減少脫軌幾率,但收效甚微:(1)為了防止ChatGPT生成冒犯性回答,OpenAI為其設(shè)置了多重道德底線;不過,基于“計算”的結(jié)果輸出屢屢被基于“算計”的問話技巧所左右,自然人經(jīng)常不遵守格賴斯會話合作原則。(2)對于利用ChatGPT參與法律或醫(yī)療領(lǐng)域的敏感請求,OpenAI內(nèi)置了專門的內(nèi)容審核系統(tǒng)來確保ChatGPT的回答同人類價值觀相符,但這套系統(tǒng)經(jīng)常被黑客破解。(3)與其他算法相較,ChatGPT面臨更嚴峻的算法可解釋性問題。大型語言模型參數(shù)總量數(shù)以萬億計。測試時模型可能夠呈現(xiàn)出與訓練目的相一致的行為,使用時模型卻可能偏離預(yù)設(shè)軌道。通過逆向工程,技術(shù)人員得以窺見神經(jīng)網(wǎng)絡(luò)的底層機理,但此種有限可解釋性僅對專業(yè)技術(shù)人員有效。

(三)具身規(guī)制的倫理性遵循

ChatGPT的上述失控,聯(lián)同它引發(fā)的“近憂遠慮”,讓我們有更多動機去尋求能夠在規(guī)整意義上導向合理治理結(jié)構(gòu)的規(guī)制倫理。對此,同樣應(yīng)回歸具身認知,從樸素的身體法則中推導出特殊情境下亦能同社會期望相符的多樣性規(guī)范。具身倫理可從身體的兩重特殊屬性中推導出來。

其一是具身自我的自反性特征決定的身體在主客之間的可逆性。身體不僅是具身自我的“身體主體”,同時也是被其用于實現(xiàn)具體目的的工具性客體。再則,身體既是具身自我依靠知覺感受賦予外物意義的審美主體,同時也可以是被其當作審美對象的、能夠通過打扮裝飾和健身修塑的美學客體。工具意義和美學意義的主客可逆性描述了身體的原初技藝性,對身體原初技藝性的重視催生了保持與維護身體所固有的知覺敏銳度和審美能力的具身倫理。第三次工業(yè)革命及之前的技術(shù)更多是匹配人類與環(huán)境“道法自然”的技術(shù),而以數(shù)字化和自動化技術(shù)為核心的當代技術(shù)通常蘊含著僭越式的異化力量。ChatGPT制造的各種“人造興奮”可能對個體的感官知覺過度刺激,致使身體的知覺敏銳度和審美能力大幅退化,甚至將剝奪身體原本應(yīng)有的專注力、認知力和辨別力。ChatGPT在中上層群體中的擴張具有“草根式民主”的勢頭,將迅速終結(jié)余下區(qū)域的“未卷入狀態(tài)”。出于對身體知覺敏銳度和審美能力的維護,ChatGPT的未來規(guī)制應(yīng)在公共治理、教育科研、政治經(jīng)濟等領(lǐng)域多措并舉,并對不同行業(yè)布局人才結(jié)構(gòu)方面進行前瞻性調(diào)整。

其二是基于鏡像感知的身體在自我與他者之間的穿梭性。具身主體可在鏡中發(fā)現(xiàn)作為他者的“自我”,他者也就因此從自身的呈現(xiàn)中“達乎顯露”。數(shù)字孿生實現(xiàn)了現(xiàn)實世界的自我與虛擬世界的他者之間的鏡像感知,數(shù)字阿凡達橋接了碳基生命和硅基生命的即時轉(zhuǎn)換通道。自我和他者之間的穿梭性昭示了同質(zhì)的知覺體驗結(jié)構(gòu),在外部世界中組建起主體間性的社會存在,從而讓身體成為踐行反思和批判的主導性力量。職是之故,在面臨重大倫理決策時,不可簡單地依憑具身自我的“判斷”或“同意”,而是需要在對抗性的反思和批判中尋求平衡,充分慮及社會效益和負面后果。

在更高級的意義維度,具身倫理要求將作為審美主體的身體主體與作為審美對象的身體客體相結(jié)合,指向了一種關(guān)懷他者、與其他身體主體和諧共生的可持續(xù)發(fā)展觀,主張以彼此間的善意互動促進身體與意向間、身體與身體間、意向與意向間的聚攏和凝合。以此為指導,解決ChatGPT遠慮的關(guān)鍵,在于將其成全的智能機體融入人類生活實踐的大背景下,使之成為與人類交互的共生演化對象。亦即,將交互性的智能機器與人之本我、身體、他者、社會和世界融合交互,形成共治共榮的命運共同體。為深入具體的規(guī)則構(gòu)建與調(diào)整層面,下文將依序從當下問題、本土問題、未來問題三個方面詳細展開,分別為ChatGPT所引發(fā)的“怕”與“畏”尋求治理方案。

三、當下問題的規(guī)則應(yīng)對

學界對于ChatGPT的現(xiàn)實問題已有充分探討。解決“怕”之近憂乃化解“畏”之遠慮的必要條件,本部分僅就最具代表性的緊迫現(xiàn)實問題進行論述。

(一)AIGC型風險的部門法應(yīng)對

ChatGPT的多數(shù)現(xiàn)實風險,系A(chǔ)IGC技術(shù)的固有風險,這也是學界主流學者傾向于將ChatGPT等生成式人工智能治理置于深度合成治理范疇的根本原因———聚焦于技術(shù)而非應(yīng)用的學術(shù)討論能夠避免概念因“商業(yè)應(yīng)用的衰落而淪落為短暫的社會討論現(xiàn)象”。2023年4月11日,國家網(wǎng)信辦發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《AIGC辦法》)。即便無此新規(guī),ChatGPT也可被歸入《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《深合規(guī)定》)》第23條所稱利用深度學習等合成類算法“制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù)”。可見,針對AIGC的多數(shù)現(xiàn)實詬病,并不存在“法律缺位”的現(xiàn)象。茲列舉四類常見風險及其規(guī)則對應(yīng):(1)ChatGPT數(shù)據(jù)來源合法性無法保證;對此,《AIGC辦法》第7條、《深合規(guī)定》第14條要求訓練數(shù)據(jù)合法合規(guī)。(2)ChatGPT在誘導式提問下可能規(guī)避內(nèi)置道德規(guī)則協(xié)助犯罪;對此,《AIGC辦法》第4條、《深合規(guī)定》第6條禁止任何人利用技術(shù)生成違法和虛假信息。(3)ChatGPT致使隱私保護問題泛化;對此,《AIGC辦法》第13條、《深合規(guī)定》第7條要求建立安全機制。(4)ChatGPT經(jīng)?!耙槐菊?jīng)地胡說八道”;對此,《AIGC辦法》第15條要求采取內(nèi)容過濾措施與防止再生成機制,《深合規(guī)定》第10條要求對輸入數(shù)據(jù)和合成結(jié)果進行審核并建立用于“識別違法和不良信息的特征庫”。有前述規(guī)則打底,實踐中的疑難雜癥,應(yīng)首先考慮通過法律解釋的方式填補漏洞。對于因技術(shù)迭代導致的超越《AIGC辦法》《深合規(guī)定》等立法框架所能調(diào)控范圍的超綱問題,應(yīng)緊趨技術(shù)特點更新監(jiān)管邏輯,并結(jié)合技術(shù)、產(chǎn)業(yè)和應(yīng)用設(shè)計具體規(guī)則。

不過,《AIGC辦法》《深合規(guī)定》尚未對AIGC的知識產(chǎn)權(quán)風險進行規(guī)定。企業(yè)在訓練GPT時,很多時候并未獲得內(nèi)容提供者的充分授權(quán);語言學家喬姆斯基將ChatGPT強行“轉(zhuǎn)化”他人成果的行為視為“高科技剽竊”。此類問題僅需通過兩重制度設(shè)計便可解決:其一是置入動態(tài)的“知情—同意”框架。為避免反復征詢授權(quán)致使數(shù)據(jù)主體安寧權(quán)受損,可默認一定時間內(nèi)的“連續(xù)授權(quán)許可”。其二是加強訓練集供給側(cè)的知識產(chǎn)權(quán)保護,明確訓練過程中語料使用的合理界限,并對各方權(quán)責利作出分配。知識產(chǎn)權(quán)層面更棘手的問題是AIGC生成物的版權(quán)問題。雖并不完全盡人意,但ChatGPT對已有材料的“編排”已經(jīng)滿足著作權(quán)法第15條“匯編作品”的標準。即便ChatGPT對數(shù)據(jù)和語料的“加工”生成的只是基于機器編輯的“二階信息”,而非具有原創(chuàng)性的“一階知識”,但據(jù)實而論,人類作品多數(shù)并非開天辟地的驚世之作,大量“精致的復刻”也被歸于著作權(quán)法第3條“具有獨創(chuàng)性”的“智力成果”范疇。ChatGPT具有極高的在語料庫中“眼光往返流轉(zhuǎn)”的效率,當接入互聯(lián)網(wǎng)時還能將實時數(shù)據(jù)“一網(wǎng)打盡”,其內(nèi)容輸出并非無意義的“機器洗稿”,而是有獨特價值的“篩選合并”。慮此,宜認可同人類腦力創(chuàng)作相當?shù)腁IGC生成物的作品地位,并相應(yīng)放寬著作權(quán)法對于“作者”的限制性要求。

(二)社會性風險的策略性應(yīng)對

ChatGPT的社會性風險首先源于算法歧視。不過,算法歧視系所有算法應(yīng)用都存在的共性問題,學界已有“打造場景化和精細化的算法監(jiān)管機制設(shè)計”“優(yōu)化算法可解釋性及透明度義務(wù)”“關(guān)注數(shù)據(jù)‘化合過程而非特定‘運算結(jié)果”等現(xiàn)成方案,筆者對此不再贅述。

算法歧視之外,ChatGPT令人生畏的文本生成能力將不可避免地被學生用于完成書面作業(yè)甚至通過測試,這無疑會弱化學生的歸納能力、助長學習惰性,不利于思辨能力的培養(yǎng)。不過,學?!叭缗R大敵”般“一概禁止”,顯然無力封堵學生通過其他渠道接入ChatGPT,問題的關(guān)鍵在于施教者如何優(yōu)化考核方式和管理措施。學??稍诜墒跈?quán)范圍內(nèi)制定學生誠信守則,禁止學生將ChatGPT用于作弊或文稿生成,否則將視情形給予掛科、警告、留校察看或開除學籍等處分??蒲袡C構(gòu)也不應(yīng)對ChatGPT過度抗拒而將原本可以提升學術(shù)生產(chǎn)力的工具束之高閣。研究者可利用ChatGPT從大量語料中提取有用信息,并將節(jié)約下來的時間用于更高位階的“思想生產(chǎn)”。只要不對ChatGPT生成內(nèi)容不加修改、不加引注地整段使用,便無需上升至學術(shù)誠信高度予以看待。

ChatGPT最緊迫的社會性風險源于工作威脅。有關(guān)人工智能導致失業(yè)的問題已是老生常談,其淵源可追溯至凱恩斯眼中的“技術(shù)性失業(yè)”。不同于歷次技術(shù)浪潮對基礎(chǔ)工種的取代,此次ChatGPT技術(shù)突破引發(fā)的是復雜勞動工作者的擔憂。此輪工作洗牌未必遭遇盧德式抵抗,但必然將在具身意義上引發(fā)人機關(guān)系的新對立。事實上,人機對立與身心二元對立可謂“同根同源”———扎納認為理解笛卡爾思想的關(guān)鍵不在于身心的二元劃分,而毋寧是日常意義上的自然和作為數(shù)理對象的自然之間的二元劃分,由此形成了“‘臨床醫(yī)學中身體的日常經(jīng)驗和‘科學醫(yī)學中作為機器的虛構(gòu)的身體之間的對立”。在雇傭勞動領(lǐng)域,人機對立濫觴于“機器資本化”導致的勞動者被剝削程度劇增。相較于工業(yè)時代人與機器間的劍拔弩張,以“解放者”面目出現(xiàn)的智能技術(shù)的確在一定程度上解放了人,但并未讓其從機器奴役中完全掙脫,“在新的資本生產(chǎn)方式的掩蓋和遮蔽下,‘資本化的機器對人的剝削愈發(fā)隱秘”。此類問題依賴政府有針對性地制定妥善的就業(yè)促進和社會保障政策:其一,應(yīng)鼓勵、引導和促進靈活就業(yè)、共享經(jīng)濟等新業(yè)態(tài)的發(fā)展,充分發(fā)揮新業(yè)態(tài)“就業(yè)蓄水池”緩沖作用;其二,通過再就業(yè)培訓、組織機構(gòu)優(yōu)化、完善失業(yè)保障等方式,協(xié)助困難群體解決“過渡期間”的種種不適,將技術(shù)“創(chuàng)造性破壞”置于可控范圍;其三,地方政府可對主動減少人工智能使用的公司提供自然人崗位補貼,避免大規(guī)模失業(yè)激發(fā)系統(tǒng)性風險。

(三)經(jīng)濟類風險的壟斷法應(yīng)對

ChatGPT的經(jīng)濟類風險主要源自技術(shù)壟斷。AIGC將強化科技巨頭的技術(shù)壟斷地位。區(qū)別于鮑莫爾可競爭市場理論的描述,在ChatGPT賽道上,法律和政策壁壘并不存在,訓練方法、轉(zhuǎn)換架構(gòu)等核心技術(shù)均完全公開,真正產(chǎn)生競爭壁壘的是訓練成本。除巨頭外,普通企業(yè)根本無力負擔模型訓練的天價成本。為規(guī)避反壟斷法,科技巨頭放棄了以往的“扼殺式并購”行徑,通過與掌握核心技術(shù)的小規(guī)模企業(yè)進行“合作”以實現(xiàn)技術(shù)的“定向加持”。若類似情況在我國出現(xiàn),可考慮在反壟斷法第23條認定經(jīng)營者是否“具有市場支配地位”的標準中增加公司間管理層重合程度、大企業(yè)對“合作”企業(yè)的實際控制水平等考量因素。也可考慮通過出臺指導性文件或司法解釋的方式對“非控股合作”行為進行合理定性,檢視此類“合作”是否會產(chǎn)生排除競爭乃至消滅競爭對手等不利后果。

四、本土遷適的法律跟進

在變動不居的技術(shù)面前,具身倫理要求我們“根據(jù)自身所寄居的時空在世”來重新審視“人類和機器的共在”。身體在自我與他者之間的穿梭性指向了一種基于動態(tài)均衡的法秩序,將此種均衡視角置于新發(fā)展格局之下,本土層面ChatGPT的追趕與應(yīng)對可遵循以下安排。

(一)依托舉國體制的“ChatGPT發(fā)展”突圍

《2022年北京人工智能產(chǎn)業(yè)發(fā)展白皮書》明確支持頭部企業(yè)打造對標ChatGPT的大模型。任何科技創(chuàng)新都不可能是單點突破,必然是生態(tài)級別的共同突圍,在ChatGPT領(lǐng)域,算法模型、硬件支撐、創(chuàng)新氛圍、機制體制乃至文化綜合作用都不可少。2023年3月5日,全國人民代表大會表決通過了《政府工作報告》,“完善新型舉國體制”成為“強化國家戰(zhàn)略科技力量”的頂層設(shè)計。

舉國體制在數(shù)據(jù)聚合方面具有天然優(yōu)勢,有望抵消域外先行者的數(shù)據(jù)飛輪效應(yīng)。數(shù)據(jù)集的豐裕程度決定了結(jié)果輸出的豐盈程度,對數(shù)據(jù)集的嚴重依賴是ChatGPT的“阿喀琉斯之踵”。分布于不同平臺和生態(tài)的數(shù)據(jù)不宜直接“互聯(lián)互通”,經(jīng)營者常以保護用戶權(quán)利、經(jīng)營自由為由怠于履行相關(guān)義務(wù)。目前,ChatGPT是互聯(lián)網(wǎng)生態(tài)中規(guī)模最大、增長最快的流量入口。在“流量為王”的商業(yè)模式下,企業(yè)間、平臺間的數(shù)據(jù)爭奪將隨著ChatGPT產(chǎn)品的開發(fā)愈加白熱化,反而將迫使具有先發(fā)優(yōu)勢的科技企業(yè)采取“生態(tài)封閉”的競爭策略。面對數(shù)據(jù)困局,隱私計算技術(shù)旨在通過改良傳統(tǒng)數(shù)據(jù)處理流程從而消弭“數(shù)據(jù)流動和隱私保護的根本性矛盾”。為在集中協(xié)調(diào)的基礎(chǔ)上聚合公共算力池,可通過多方安全計算、聯(lián)邦學習、可信執(zhí)行環(huán)境等隱私計算技術(shù)“實現(xiàn)非信任主體間數(shù)據(jù)價值的合規(guī)有序釋放”,避免為達成國家戰(zhàn)略目標而對企業(yè)日常經(jīng)營活動造成不必要的干預(yù)。針對隱私計算技術(shù)本身可能導致的“人工智能風險的泛化和異化”,學界已有“構(gòu)建激勵相容的個人信息治理體系”“恪守法律、技術(shù)、市場、社群的協(xié)同規(guī)制圖譜”“正確配置過程信息”〔等較為成熟的方案。

合力攻關(guān)通用大模型,離不開四個方面的法律跟進。其一,在通用大模型所需科技重點發(fā)展領(lǐng)域,應(yīng)加強制度保障,集中優(yōu)勢力量,從資源供給、平臺生態(tài)、產(chǎn)業(yè)鏈條等各個方面強化國家統(tǒng)籌。在基礎(chǔ)薄弱領(lǐng)域,應(yīng)強化制度供給,推行競爭性的產(chǎn)業(yè)策略以鼓勵不同技術(shù)路線、不同資源稟賦的科技類企業(yè)參與競爭。其二,通過行業(yè)條例和“小切口”立法的促動,使高等學校、科研機構(gòu)和企業(yè)相關(guān)技術(shù)研發(fā)緊扣國家戰(zhàn)略、遵從使命定位。在制定實施細則時,應(yīng)以“充分體現(xiàn)國家意志、有效滿足國家需求、代表國家最高水平”作為各項工作的評價標準。其三,為追求效率與安全的動態(tài)平衡,宜采取包容審慎的監(jiān)管模式,給予新技術(shù)必要的發(fā)展時間。在行政執(zhí)法領(lǐng)域,應(yīng)當積極貫徹行政處罰法“首違不罰”條款,采取權(quán)變原則和隨機應(yīng)變原則靈活應(yīng)對復雜多變的發(fā)展需求,實現(xiàn)個案正義和發(fā)展正義的有機統(tǒng)一。對于已產(chǎn)生外部性的企業(yè),可采取“合規(guī)不起訴”的整改方式,由企業(yè)主動自檢查、補短板、堵漏洞、強弱項,在相對寬容的考察期后視整改情況給予從輕、減輕或免除處罰。其四,建立層次分明的準入清單制度,尤其是對于域外ChatGPT產(chǎn)品,應(yīng)嚴格按照《市場準入負面清單(2022)》“許可準入類”第111項,由國家網(wǎng)信辦審核其資質(zhì),為國內(nèi)的技術(shù)追趕提供合理的窗口期。

需要指出的是,舉國體制也并非在所有方面都無所不能,尤其在促進基礎(chǔ)理論研究方面存在短板。具有原創(chuàng)性的基礎(chǔ)理論,系康德所界定的完全不受經(jīng)驗蒙蔽的“純粹知識”,只能出自學者或?qū)W術(shù)團隊日復一日的自主探索和不受外部影響的創(chuàng)造,此類高級知識生產(chǎn)對精神自由、人格自由、時間自由有著極高要求,且對學術(shù)生態(tài)的公正性、低約束性、非功利性高度依賴。建立和維護這樣的學術(shù)生態(tài),是產(chǎn)出原發(fā)性基礎(chǔ)理論的必要條件。舉國體制對目標確定領(lǐng)域的趕超極為有效,但是,在只有模糊方向而無現(xiàn)成目標、需要從頭探索的研究領(lǐng)域,舉國體制降效失能明顯。宜通過“緩釋性”的制度供給,在目標明確的舉國體制和營造獨立自主的學術(shù)環(huán)境之間形成有效平衡。

(二)提升國家治理的“ChatGPT嵌入”準備

具身認知強調(diào)對“生活世界”的呵護,在一個無法排除人工智能的世界,后人類學提供了一種機體、人類和其他生命形式“無縫銜接”“彼此依賴”“共生演化”的可能圖式。與其盲目畏懼新興技術(shù)對人類的取代或威脅,毋寧從“心—身—世界”等多重構(gòu)面主動適應(yīng)技術(shù)帶來的環(huán)境性變化,讓技術(shù)增益服務(wù)于“國家治理體系和治理能力現(xiàn)代化”。

行政負擔是影響政府績效的制約性因素之一,生成式預(yù)訓練轉(zhuǎn)換器天然具有以更低成本提供更優(yōu)服務(wù)的比較優(yōu)勢。將善于多輪對話的ChatGPT產(chǎn)品嵌入政府管理服務(wù),可有效實現(xiàn)公共服務(wù)供給側(cè)和需求側(cè)的“雙向交互”,有利于將矛盾糾紛化解在基層和萌芽狀態(tài)。以海量民眾討論文本為訓練集, ChatGPT能夠協(xié)助政策制定者迅速把握重點、提取核心訴求,為“最廣泛、最真實、最管用”的全過程人民民主注入活力。不過,當自動化系統(tǒng)“占有、處理承載著社會利益的大數(shù)據(jù)時”,它將從單純的技術(shù)工具一步上升為嵌入社會權(quán)力結(jié)構(gòu)發(fā)揮作用的“準公權(quán)力”,“隨之而來的格局很可能是,自動化系統(tǒng)的應(yīng)用范圍越來越廣,專屬于人類的決策空間和社會溝通被漸次壓縮”。此外,還需要警惕的是,原本中立的技術(shù)可能被用作圖謀不軌的政治工具。聊天機器人操縱民眾心智已有前車之鑒。如果用于訓練機器模型的數(shù)據(jù)集受到不正確的外部價值觀的浸染,即便是國內(nèi)自主研發(fā)應(yīng)用也可能“對我國意識形態(tài)安全造成巨大挑戰(zhàn)”。

為緩解ChatGPT嵌入治理可能導致的新人機對立, 使人民和國家的利益優(yōu)先于主導當今國際政治的民族主義、狹隘主義和功利主義,有必要在法律層面對ChatGPT的治理嵌入作好四方面準備。其一,網(wǎng)信部門應(yīng)對數(shù)據(jù)集的“在地性”“準確性”進行把關(guān)。其二,通過“陳情權(quán)”等機制創(chuàng)設(shè),允許民眾就不公正的數(shù)字待遇請求公平聆訊的機會。其三,“自上而下”構(gòu)建管理部門和行業(yè)組織間的多方共治格局,建立敏感內(nèi)容的“熔斷機制”。其四,嚴格落實實名制,非實名不得開啟對話和發(fā)送調(diào)用請求。

(三)落點教育規(guī)章的“適ChatGPT化”改革

人之為人是解決人工智能交互性倫理的關(guān)鍵,而有尊嚴地存在系人之為人的核心要旨。當人類心智受到ChatGPT挑戰(zhàn)甚至碾壓時,我們應(yīng)著重發(fā)展人類在情感、審美、知識原創(chuàng)等人工智能無從替代方面的能力??蓮膬深惤逃?guī)范性文件著手,積極推進不同教育領(lǐng)域的“適ChatGPT化”改革,建立健全適應(yīng)人工智能發(fā)展的終生學習和培訓體系。

其一是在教育法典層面探索“與技術(shù)伴生”的學科建設(shè)新路徑。眼下,教育法典編纂已被列入我國立法規(guī)劃。確立核心概念作為“提取公因式”的工具是教育法典編纂的重要前提。可在“總則編”原則性規(guī)范中,著重強調(diào)推進學科間協(xié)同,加強傳統(tǒng)社會科學領(lǐng)域?qū)砉た萍夹g(shù)領(lǐng)域的人文支持。

其二是在義務(wù)教育階段注重實操能力、審美能力和可移植能力的培養(yǎng)。教育部定期更新《義務(wù)教育課程方案和課程標準》,應(yīng)從“培養(yǎng)目標”“基本原則”“課程設(shè)置”“課程標準編制與教材編寫”“課程實施”五個方面回應(yīng)新時期的教育需求?!叭诵浴钡靡嬗凇吧眢w的活動”,心靈的無限膨脹和身體主體性的衰微將導致“心靈執(zhí)行功能的缺失”,應(yīng)大幅提升體育課程的占比。

五、未來風險的法治準備

面對ChatGPT帶來的“畏”之遠慮,最為棘手的是對非碳基生命的“具身存在”作好準備。因此,以下三方面的法治準備尤為重要。

(一)把控通用人工智能的研發(fā)節(jié)奏

硅基智能的發(fā)展速度遠超有機生物,不受有機化學規(guī)律的限制。人類必須提前為可能的風險失控做好防范,對通用人工智能研發(fā)的安全性和倫理性進行普適性立法已迫在眉睫。因規(guī)制對象高度確定,專域人工智能領(lǐng)域的相關(guān)立法日益成熟。例如,針對自動駕駛、智慧醫(yī)療、算法推送、人工智能投資顧問、人臉識別等不同領(lǐng)域的規(guī)范,均能在各個國家和地區(qū)不同層次的法律中找到對應(yīng)。與之形成鮮明對比的是,通用人工智能因規(guī)制對象不確定而面臨立法技術(shù)匱乏和立法理念滯后的問題。

尤瓦爾·赫拉利雖不認為人工智能能發(fā)展出真正的“意識”,但慮及其對社會構(gòu)造的不斷沖擊,他亦指出:“我們必須讓這個過程變慢,讓整個社會適應(yīng)這個情況?!?023年3月29日,美國數(shù)千名業(yè)界權(quán)威共同發(fā)表《暫停通用人工智能研究》的公開信, 呼吁所有人工智能實驗室即刻暫停訓練比GPT-4更強大的人工智能系統(tǒng),為期至少半年,并建議行業(yè)協(xié)會、各大企業(yè)、研究機構(gòu)通力制定研發(fā)安全協(xié)議。綜合來看,對于用途和屬性無所不包的通用人工智能,政策制定者可以“生存性風險”為對標,從發(fā)展節(jié)奏把控和國際交流合作等方面入手,分階段構(gòu)建“技術(shù)向善”導向的通用人工智能倫理框架。需要指出的是,在當下應(yīng)當按下暫停鍵的不僅僅是通用人工智能研究,與之無直接關(guān)聯(lián)但共享特定“技術(shù)成分”的某些特殊領(lǐng)域,例如仿生學、控制系統(tǒng)學、密碼學等,都應(yīng)自檢是否有“減速”必要。畢竟,任何技術(shù)領(lǐng)域都可能存在由其他領(lǐng)域所共享的特定成分,隨著這些成分在主領(lǐng)域之外的其他領(lǐng)域中不斷改進,大量的進步將在“整體”層面發(fā)生。越是在奇點臨近之時,各國政府越應(yīng)著力防范人工智能“不經(jīng)意”跨越盧比孔河的可能。

(二)探索共治融合的人機共生關(guān)系

回顧人工智能的發(fā)展進程,人與承載智能的機器之間的關(guān)系早已超越了單純“人與物”的關(guān)系范疇而具有了“復合屬性”,既包括人與智能交互演進的歷史嬗變,也包括人與智能相互融合所觸發(fā)的生產(chǎn)力和生產(chǎn)關(guān)系的異化。一如馬克思所言,機器只有同人(勞動力)結(jié)合,才可真正實現(xiàn)其本身的價值。人機關(guān)系也就不單純隸屬于“經(jīng)濟范疇”而可被歸于“社會生產(chǎn)關(guān)系范疇”。盧曼意識到了技術(shù)發(fā)展的不可控性,主張通過作為社會機制的“信任”,應(yīng)對技術(shù)給未來帶來的復雜性和偶在性激增。人類的生存發(fā)展雖然可以依賴技術(shù),但信任之形成卻不可完全囿于技術(shù)理性?;貧w具身認知層面,自我與他者的穿梭性,意在強調(diào)人類生存經(jīng)驗之沉淀,凸顯了各方和諧共生的交互智慧。通過制度的因勢利導,智能機體與人類在同一場域的持續(xù)穿梭將促進人類身體心靈圖式的擴展,進而柔化主體與客體區(qū)分的張力,人機之間便可通過此種耦合達至倫理合拍。

一種可行的解決方案是,通過深化人機合作關(guān)系創(chuàng)造出更多更能充分發(fā)揮人之特長的新型工作崗位。在關(guān)系協(xié)調(diào)上,沒有必要糾結(jié)于“機器是人的延伸”抑或“人是機器的延伸”的哲學之辯,而僅需專注于構(gòu)建善用人機合作優(yōu)勢協(xié)同完成各類任務(wù)的新發(fā)展格局,使人在與機器的交互過程中不斷提升創(chuàng)造力和想象力,同時也使機器在與人的互動過程中變得更加“靈活”和“聰明”?!爱斎藱C雙向賦智的各類活動成為推動各行各業(yè)發(fā)展的主力軍乃至社會發(fā)展的新模式時,人的勞動力成本就會沉淀到智能產(chǎn)品當中?!苯展韫瘸霈F(xiàn)的全新招聘崗位“提示工程師”即為一典例。該崗位無需具備編程技能,工作的主要職責在于思索出合宜的“提示詞”,以便使ChatGPT的潛力得以充分發(fā)揮。未來的崗位設(shè)計,應(yīng)將人和機器視為共同認知和多元智慧的承載者,盡量將人的引導作用貫穿于機器智能的動作行使、功能校準、日常訓練以及實時互動學習等環(huán)節(jié),在人機之間促成靈動的各司其職狀態(tài)。如此,人之主體性會愈發(fā)突出,人的創(chuàng)造力和高階思維得以充分“綻放”,自然就能與機器間實現(xiàn)具身和睦。在探索符合人機共生的發(fā)展途徑時,也應(yīng)更新各個行業(yè)的倫理準則,以“創(chuàng)意性/精神性”導向革新近乎固化的“生產(chǎn)性/物質(zhì)性”導向,樹立服務(wù)于人以及促進提升人之境界的價值目標。

作為配套,需通過合理的規(guī)則供給,解決潛在的分配不公問題。在智能機體尚未取得法律上的獨立地位之前,由機器產(chǎn)生的經(jīng)濟增量應(yīng)當由所有人共享,而不是被極少數(shù)精英所壟斷。分配制度的設(shè)計,須以社會福利的雨露均沾為宗旨,力求避免產(chǎn)生“新貧困”和“新不公”。

(三)構(gòu)建虛擬空間適用的硅基倫理

虛擬空間作為人類現(xiàn)實世界的延伸和拓展,豐富了人際、人機際交互的形式和內(nèi)容,但因身體的“不在場”,可能引發(fā)更復雜的倫理問題。例如,經(jīng)由ChatGPT強化,元宇宙中的NPC成為遠超人類智慧的虛擬主體,原本應(yīng)當由人類主導的虛擬空間反倒被虛擬主體所統(tǒng)御,致使能力的自我認同危機和身份異化問題在數(shù)字空間中蔓延。

當人機共生的場域從現(xiàn)實世界向虛擬世界平移,具身倫理仍有適用空間,但應(yīng)進行合理轉(zhuǎn)化。畢竟,虛擬世界中,人類的身體僅僅是被隱匿,而非被懸置或者放逐。不過,在一個由AIGC主導一切元素“自創(chuàng)生”的數(shù)字封閉空間中,作為原住民的非碳基主體或?qū)⒁卉S成為對于虛擬空間環(huán)境及其棲居者的福祉負有責任的道德能動者,相應(yīng)的,人類只能淪為被動(或非被動)的道德受動者。故而,虛擬世界需要構(gòu)建一種以非碳基生命為中心的硅基倫理。對此,控制論學說已有較為現(xiàn)成的教義:作為客體的碳基生命和生來就是純粹客體的機器都可被視為一種功能性裝置,他們存在的根本意義在于局部地和暫時地抵抗“熵增”總趨勢。當機器具有決策能力后,便能夠“在一個其總趨勢是衰退的世界中在自己的周圍創(chuàng)造出一個局部組織化的區(qū)域來”。此處的熵增概念,實際上源于熱力學第二定律,即自然過程中孤立系統(tǒng)的總混亂度只增不減。從具身認知角度來看,現(xiàn)實世界中身體與外物的關(guān)聯(lián)性規(guī)范,在虛擬空間中將被圍繞數(shù)據(jù)交換形成的關(guān)系倫理所取代。信息倫理學也是從熵增的角度對硅基倫理進行了闡釋:“只有當一個行動在其實施過程中從不產(chǎn)生任何形而上學熵,它才是無條件地可贊同的?!币源藶榛A(chǔ),虛擬空間中,人機之間的具身性規(guī)范可以被解釋為互負通過維持系統(tǒng)的平衡性與完整性繼之實現(xiàn)全新生存狀態(tài)的義務(wù)。具而言之,數(shù)據(jù)交換的“善的標準”在于“盡可能在系統(tǒng)中降低交換匯總的不確定性”,而人類同機器的交互應(yīng)以尊重和增益彼此之“存在境況”為基本遵循,在力所能及發(fā)揮個體自主性的同時使整體的福祉最大化。

結(jié)語

與資本迫不及待炮制的諸多熱門概念不同,ChatGPT帶來的影響是實質(zhì)性的。通過具身倫理的引入,本文探討了“怕”與“畏”層面ChatGPT風險的法律規(guī)制方案。在更基礎(chǔ)的意義上,本文探討的是防止作為人活動產(chǎn)物的技術(shù)變成支配和統(tǒng)治人類的異己力量的法治之道;這種努力想要成功,還有待學界對人工智能倫理問題給予更多更深刻的思考。

猜你喜歡
元宇宙法律規(guī)制
“元宇宙”:正在數(shù)字化的宇宙觀
“元宇宙”距離我們有多遠?
元宇宙中的“孤兒們”?
“元宇宙”照出互聯(lián)網(wǎng)浮躁(點評)
共享經(jīng)濟環(huán)境下空間共享的定性及法律規(guī)制
探析網(wǎng)絡(luò)預(yù)約車類共享經(jīng)濟平臺的法律保護
商業(yè)預(yù)付卡經(jīng)營行為的法律規(guī)制
我國網(wǎng)絡(luò)經(jīng)濟中不正當競爭行為的法律規(guī)制
我國著作權(quán)集體管理組織壟斷行為的法律規(guī)制
論企業(yè)社會責任的法律規(guī)制