引子
當我們談論人工智能(Artificial Intelligence,AI)時,很大程度上受到源自20世紀想象的影響,例如,直接把人工智能和機器人聯(lián)系起來,甚至是人形機器人。這可能也會影響法律人對人工智能的想象,包括是否承認人工智能作為具有自我意識的法律主體地位(或至少是人類行為的代理人),從而保護其特定權(quán)利(言論自由、著作權(quán))、劃定責任(締約、侵權(quán)),甚至強調(diào)可能的毀滅性風險。這種想象遠非受到科幻作品影響那樣簡單,深層次中還反映出人工智能在技術(shù)和應用上不同的發(fā)展路徑:早期人工智能研究更集中于對人腦的仿真模擬,探究意識、理性等更為宏大的哲學問題,但應用性較少;當下的人工智能走出了實驗室,借助互聯(lián)網(wǎng)服務直接影響到普通人的生活,在技術(shù)上并不執(zhí)著于創(chuàng)造一個完美的智能體,而是依靠算法(如機器學習和神經(jīng)網(wǎng)絡)不斷優(yōu)化,對海量數(shù)據(jù)自動挖掘與預測,通過無所不在的傳感器實時更新數(shù)據(jù),動態(tài)掌控著人類社會各個方面的運轉(zhuǎn),并把從某個特定領(lǐng)域升級為通用人工智能作為目標。從這個意義上說,人工智能并不神秘,它出現(xiàn)在日常生活中,不僅是工業(yè)社會生產(chǎn)自動化的延續(xù),也是互聯(lián)網(wǎng)商業(yè)化的必然結(jié)果和新階段。時至今日,歐美國家紛紛出臺政策,推動人工智能發(fā)展,力求提升經(jīng)濟效率和競爭力。
? 互聯(lián)網(wǎng)公司正逐漸主導實體經(jīng)濟和金融生產(chǎn)
如果我們擺脫簡單的擬人思維,把人工智能看作互聯(lián)網(wǎng)智能演進的新階段,為理解其法律規(guī)則,就有必要理解互聯(lián)網(wǎng)法律在過去20年中形成的路徑和推動力,從而探討人工智能是否有任何特殊性以至于需要新的規(guī)則。本文將從網(wǎng)絡法的兩個視角——實證性和生產(chǎn)性——切入,將它們延伸至人工智能語境下分別討論。“實證性”視角是我們觀察和應用任何規(guī)則的慣常思維方式,例如人工智能行為的具體規(guī)則如何確立、如何規(guī)制等,本文將討論支撐人工智能的兩個構(gòu)成性要素——算法與數(shù)據(jù)——可能帶來的法律問題,以及法律人處理人工智能的兩種路徑;“生產(chǎn)性”視角則深入規(guī)則背后,探索規(guī)則形成的政治經(jīng)濟因素,特別是經(jīng)濟生產(chǎn)方式的內(nèi)在要求。人工智能本質(zhì)上是一套復雜的代碼設計,既是影響社會行為的強力規(guī)范,也是產(chǎn)生新價值的生產(chǎn)機制;它驅(qū)動整個社會朝向更智能的方向變化,從而要求法律做出相應調(diào)整,尤其是確認新型經(jīng)濟利益的合法性。
限于篇幅,本文姑且將人工智能看成法律上的客體,暫不討論賽博格(cyborg)之類的人體轉(zhuǎn)向機械體或通過基因技術(shù)改變身體的問題(仍是法律上的人),也不討論人工智能作為一種人造物的自我意識問題(一個難以達成共識的哲學問題)。
理解網(wǎng)絡法的變遷
網(wǎng)絡法在中國的變遷大致遵循兩類邏輯:外生性的政治/監(jiān)管邏輯和內(nèi)生性的商業(yè)邏輯。政治/監(jiān)管邏輯體現(xiàn)為對“實證性規(guī)則”的追求,這些規(guī)則集中在國家(包括法院和監(jiān)管機構(gòu))如何對互聯(lián)網(wǎng)的內(nèi)容和行為進行規(guī)制,包括對網(wǎng)絡主權(quán)和信息安全的追尋。這集中反映了國家權(quán)力如何試圖介入新技術(shù)帶來的問題與挑戰(zhàn)。這一視角最早由美國法學界引出,特別是Lawrence Lessig的代碼理論將代碼(架構(gòu))和法律并列。由此,所謂的網(wǎng)絡法不僅要約束社會主體在網(wǎng)絡空間中的行為,也要對架構(gòu)的變化本身做出回應。
首先,就規(guī)制主體行為而言,出現(xiàn)了是否按照傳統(tǒng)線下行為規(guī)則的思路約束線上行為的討論。這一討論的核心是,互聯(lián)網(wǎng)問題是否具有任何特殊性,需要某些新規(guī)來解決。我們已經(jīng)看到,中國的互聯(lián)網(wǎng)行為監(jiān)管在很大程度上延續(xù)了傳統(tǒng)規(guī)則和管理方式,采取漸進的方式,這不僅成本較小,也給予監(jiān)管者一定的學習和探索空間。其次,就架構(gòu)變化本身而言,國家在宏觀上主張網(wǎng)絡空間中仍然需要主權(quán),不能成為法外之地,在微觀上相應出現(xiàn)了國家與平臺權(quán)力/責任二分的討論。例如,政府權(quán)力何時需要介入平臺治理,加強平臺的行政管理責任或安全保障責任,還是由后者根據(jù)自身情況自我規(guī)制,實現(xiàn)治理目標。政治/監(jiān)管邏輯要么遵循管理者的路徑依賴效應,要么堅持既有社會穩(wěn)定、意識形態(tài)安全價值。問題在于,監(jiān)管者在多大程度上能夠認識到代碼及其商業(yè)模式的特殊性,從而使監(jiān)管行為和行業(yè)特性相互協(xié)調(diào)融合。
另一種看待規(guī)則產(chǎn)生的方式遵循商業(yè)邏輯。這種生產(chǎn)性視角關(guān)注微觀權(quán)力運作,綜合將代碼、法律與社會規(guī)范放在一起,不單純從社會學意義上觀察社會主體行為如何受到影響,而是在政治經(jīng)濟學意義上將網(wǎng)絡空間的生成和擴散看成是一個由商業(yè)力量推動主導的生產(chǎn)性過程,關(guān)注價值由誰產(chǎn)生、如何分配,由此推動對新規(guī)則的內(nèi)生需求。按照這一視角,無論是法律還是架構(gòu),在具有實證性規(guī)制功能的同時,也是一種“生產(chǎn)性規(guī)則”?;ヂ?lián)網(wǎng)的生產(chǎn)模式?jīng)Q定了其對社會范圍內(nèi)生產(chǎn)資料的創(chuàng)造性生產(chǎn)和再利用,需要法律確認其生產(chǎn)方式的合法性,重塑關(guān)鍵法律制度,并解決和傳統(tǒng)生產(chǎn)模式的利益沖突。這一視角無疑幫助厘清新經(jīng)濟主張的例外特性,不僅展示出架構(gòu)和相應的法律改變,更指明了背后的政治經(jīng)濟原因,是更好地理解實證性規(guī)則的基礎。
兩類不同的邏輯在過去20年中交替出現(xiàn),相互制約,共同塑造了中國網(wǎng)絡法體系,也推動了中國互聯(lián)網(wǎng)的整體發(fā)展??傮w而言,鑒于國家有意促進新經(jīng)濟,需要推動傳統(tǒng)的屬地化、分口治理,事后運動治理模式發(fā)生轉(zhuǎn)變,認清互聯(lián)網(wǎng)商業(yè)模式和價值產(chǎn)生的根源,有利探索適應新經(jīng)濟性質(zhì)的管理體制。從這個意義上說,信息資本主義不斷要求對法律內(nèi)核進行改造,取代其中的傳統(tǒng)經(jīng)濟要素,打破限制生產(chǎn)要素自由流通的各類規(guī)則。
人工智能法律的實證性視角
如前所述,人工智能的本質(zhì)在于算法和數(shù)據(jù)處理,物理形體不必然是人工智能的構(gòu)成要素,因為即使是人形機器人,也不過是一個算法主導的硬件系統(tǒng),它實時收集信息,并按照算法的要求做出決定,繼而行動。更重要的是,具有物理形體的人工智能可以推動群體智能發(fā)展,通過分布式終端收集更多數(shù)據(jù)加以處理,并不斷傳輸至云端“大腦”,提升整體網(wǎng)絡的智能水平。
人工智能巳深度介入醫(yī)療領(lǐng)域
根據(jù)算法的復雜性和學習/運算能力對強人工智能和弱人工智能進行區(qū)分,這在技術(shù)認知上沒有問題,但在法律上很難按照智能程度給出精確的標準。法律應對復雜世界的方式是確立一般性的簡單規(guī)則,在概念上對社會個體進行抽象假定(如行為能力),而非針對特殊主體,否則規(guī)則體系本身將變得異常復雜,難于理解和操作。而人工智能從單一的自動化服務向多元通用服務轉(zhuǎn)變的過程可能是一個相當長的光譜,法律需要針對其本質(zhì)特征進行約束,并探索一套應對未來的方案。當我們說社會變得越來越智能的時候,事實上指由于數(shù)據(jù)搜集、儲存和處理的能力不斷增強,所有軟件/算法都可能朝向自動收集數(shù)據(jù),做出決定或判斷的趨勢,由于算法的復雜性,算法帶來的結(jié)果可能無法預測,并在更大范圍內(nèi)帶來系統(tǒng)性的不利后果。這種后果未必是毀滅性的風險,甚至只是在某個領(lǐng)域的制度設計問題,但人工智能恰好將這類社會問題具象化,掩藏在外表華麗、高效、更多是私人控制的“黑箱”中,就會引發(fā)一系列問題。
如果放在一個更大范圍內(nèi)觀察,在歷史上,人類社會隨著復雜性的增加,不可避免地產(chǎn)生以組織和技術(shù)形態(tài)出現(xiàn)的各類“黑箱”,它們的決定影響著社會發(fā)展和大眾福利,但仍然保持著某種秘密性。這一隱喻未必是陰謀論,其核心問題在于信息不對稱。為平衡相關(guān)當事人和社會大眾的知情權(quán)、避免恐慌、保持某種預測能力,人們不斷設計出某種程度的信息公開和透明化機制,例如政治辯論的公開化,法院訴訟程序透明化甚至公開庭審,上市公司強制信息披露等等。而人工智能不過是信息技術(shù)時代的新型黑箱,帶來更加嚴重的系統(tǒng)化影響?;ヂ?lián)網(wǎng)在興起過程中,通過降低信息成本,推動了開放政府、庭審直播,使信息公開透明更加便利,將生產(chǎn)性資源不斷解放出來,在更大社會范圍內(nèi)重新配置,產(chǎn)生新價值。然而,這一過程在消除一個又一個傳統(tǒng)黑箱的同時,產(chǎn)生了更為復雜的新黑箱,進而主導整個社會的生產(chǎn)過程。生產(chǎn)資料之間的信息變得越來越對稱,甚至可以實時互通信息,但作為信息匹配中介的人工智能卻變得更不透明,其規(guī)則設計和運作從屬于用戶甚至開發(fā)者無法理解的秘密狀態(tài),這回到了法律如何處理與代碼的關(guān)系問題。
一個類似的比較是人類自身:人腦經(jīng)過上百萬年的進化,演變成十分復雜精致的系統(tǒng)。盡管當代神經(jīng)科學不斷改變我們對人腦的認知,甚至每個人的大腦都不完全一樣,但就法律而言意義不大,這只能在邊際上改變個案判決。即使無從了解人腦的運轉(zhuǎn)機制,或者依據(jù)某種更加先進的科學知識解釋社會主體行動的具體理由,人類還是有能力形成社會規(guī)范,并演進成更加理性化的規(guī)則。這套規(guī)則只需要假定一般社會主體是(受限)理性的,由少數(shù)概念界定不同情形的心理狀態(tài)(故意、過失),并集中對人的外在行為進行約束,確定權(quán)利與義務,就足以以簡單規(guī)則應對(而非認識)這一紛繁復雜的世界。類似地,在處理算法的負外部性時,也可以有兩種不同的路徑:(1)關(guān)注算法的外部行為與后果,(2)關(guān)注算法內(nèi)部的設計規(guī)則。
大部分現(xiàn)有規(guī)則關(guān)注算法導致的(未意料)結(jié)果,例如內(nèi)容分發(fā)算法未經(jīng)審查造成非法或侵權(quán)內(nèi)容傳播,這一般由信息傳播者(即內(nèi)容服務商)承擔責任,算法本身并無法律地位,在造成不利后果的過程中只是一個工具。這類責任假定內(nèi)容服務商應當知道非法內(nèi)容的存在,并有能力通過算法設計或人力(比如人工審查)加以阻止。在諸多侵權(quán)場合,內(nèi)容服務商可以通過“避風港”規(guī)則免責,只要無法證明它實際知曉狀態(tài)。更復雜的是,如果軟件開發(fā)者聲稱自己無法控制信息的生產(chǎn)和傳播,卻造成一定社會危害的情形。無論是在快播案還是BT案中,軟件開發(fā)者都無法因這一原因而逃脫責任,法院的理由仍然是,開發(fā)者有能力知曉非法內(nèi)容的輸出(如果不是故意的話,例如快播向色情網(wǎng)站推廣該播放器)。類似地,如果一個具有物理形體的人工智能由于處理信息不當造成了外在損害,按照這一邏輯仍應由算法開發(fā)者負責。
而且,還有必要將算法產(chǎn)生的錯誤和算法缺陷本身區(qū)分開。長期以來,軟件行業(yè)一直通過拆封合同(shrink-wrap)解決缺陷軟件造成的短時崩潰或重啟問題,這種格式條款旨在確認這樣一種事實:沒有任何軟件是百分之百完美的,只要在用戶拆封使用該軟件時運行正常即可,服務商并不為軟件崩潰或死機造成的消費者損失負責,因為前者無法預料到缺陷帶來的風險。這就是為什么消費者需要接受軟件生產(chǎn)商不停的更新和補丁,軟件/應用不受產(chǎn)品責任的約束,被視為一種可以不斷升級改進的服務,這在免費軟件時代更是如此。按照這一思路,似乎有理由認為,無人駕駛汽車因算法計算錯誤導致車禍(何況造成事故的概率遠遠小于人類司機的錯誤)是這類軟件的正常的缺陷,消費者應當容忍這類錯誤。但無論是監(jiān)管者還是潛在的受害人都無法接受這種比擬。聲稱有潛在缺陷的交通工具(也包括醫(yī)療設備和其他與生命財產(chǎn)直接相關(guān)的算法)一旦投入使用就需要為此造成的后果負責。無論如何,這類思路仍然是通過后果施加事后責任,監(jiān)管者或法院并不想深入算法內(nèi)部了解造成事故的技術(shù)原因是什么。只要法律認定這一黑箱應當在合理范圍內(nèi)得到控制,事故可以避免,黑箱提供者就應當承擔責任。在這種情況下,保險(甚至是強制險)就成為確保這類發(fā)生概率小但潛在損失巨大的不二選擇,航空、醫(yī)療保險市場十分發(fā)達,可以預見將會延伸至更多由人工智能驅(qū)動的服務行業(yè)。
現(xiàn)實與虛擬的界限不斷模糊化
如果說事后救濟還無法確保安全,事前干預算法設計則是另一種選擇,同時帶來的問題也更復雜。早在20世紀,阿西莫夫就試圖為機器人立法,盡管他從未討論技術(shù)上的可行性。安全可能是人工智能服務的首要問題之一:一個中心化的入侵可能會導致所有終端都變得極度不安全。行業(yè)監(jiān)管者在不同行業(yè)為特定服務中的人工智能設定安全標準(如醫(yī)療器械、交通工具、自動化武器),實行安全保護等級制度,甚至要求被認定為重要設施的源代碼(如windows系統(tǒng))供監(jiān)管者備案,或在設計自動化交易程序時控制報單頻率的閾值等。又例如,在魏則西事件后,聯(lián)合調(diào)查組在整改意見中要求落實以信譽度為主要權(quán)重的排名算法,對商業(yè)推廣信息逐條加注醒目標識,予以風險提示。如果說這些監(jiān)管手段針對的是作為商業(yè)秘密的私人算法,諸如Open人工智能這樣的倡議則意在延續(xù)開源軟件運動路徑,確保軟件漏洞能夠得到更大范圍內(nèi)的監(jiān)督和修補。至少在中國,信息披露機制尚未成為算法監(jiān)管的重要手段,無論是強制性披露還是第三方披露。
當算法將某種交易或服務規(guī)則代碼化的時候,信息披露就更值得關(guān)注。代碼化的規(guī)則更容易執(zhí)行,但因為是私人服務創(chuàng)設的規(guī)則而無法像公共規(guī)則一樣接受審查和質(zhì)詢,只能通過社會后果評判。作為平衡,這并不意味著這類代碼就完全不公開,而只是以用戶協(xié)議的方式將代碼的功能和目的通過語言簡要向用戶展示。
總體而言,法院作為事后糾紛解決者沒有能力審查代碼本身,只能通過后果進行個案判斷。但也有一些例外,在某些案件中法院需要理解新型技術(shù)的運作以確定侵權(quán)責任:首先,在朱燁訴百度案中,法院盡管根據(jù)傳統(tǒng)侵犯隱私標準不認為百度廣告聯(lián)盟的廣告侵犯了原告隱私,但卻接受了針對百度的商業(yè)模式和數(shù)據(jù)收集技術(shù)的審查路徑;其次,在某些新型不正當競爭案件中,法院也加大了對其中侵權(quán)行為的技術(shù)審查,深入了解黑箱內(nèi)部(如robots協(xié)議、深度鏈接)。這一趨勢的風險是,法院因為專業(yè)知識的薄弱,越來越難以就復雜的事實問題進行認定,只能在審判過程中依賴專家證人或擁有專業(yè)知識的一方當事人,這無形中可能會導致法官偏離了傳統(tǒng)的法律問題,陷入他原先并不熟悉的領(lǐng)域。
有可能有第三種路徑:對算法處理的數(shù)據(jù)或生產(chǎn)性資源進行管理,防止造成消極后果。例如,依靠人力對搜索引擎處理的侵權(quán)信息進行審查;征信系統(tǒng)中禁止收集種族、性別、宗教派別、政治傾向等歧視性信息;在聲譽系統(tǒng)中打擊網(wǎng)絡推手刷單,避免虛假數(shù)據(jù);通過地域性監(jiān)管限制網(wǎng)絡專車及其司機的資質(zhì),等等。這在本質(zhì)上都限制了人工智能本身的能力,即使算法強大也不會造成不利后果。
這一路徑隱含說明,數(shù)據(jù)質(zhì)量本身(由收集和處理過程中的缺失導致)可能會產(chǎn)生無法預測的不利結(jié)果。與此相關(guān)的是,商業(yè)歧視性是人工智能可能帶來的系統(tǒng)性風險之一,集中體現(xiàn)了算法與數(shù)據(jù)之間的復雜動態(tài)關(guān)系。和傳統(tǒng)征信制度類似,那些未能積累充分個人信息的社會主體(data-poor),將被排除在更多的商業(yè)服務以外,尤其是當某一互聯(lián)網(wǎng)服務的信用評分和更多服務結(jié)合起來的時候。然而,即使人們跨越了“數(shù)字鴻溝”,也仍然會被“數(shù)據(jù)鴻溝”(data divide)歧視:算法會精確地根據(jù)各類信息識別社會主體的各類身份,將他們困在各自數(shù)據(jù)產(chǎn)生的無形繭房中,這不僅可能會剝奪人們接受教育、就業(yè)、貸款的公平機會,還可能給公共生活造成難以彌合的分裂。人工智能的歧視效應將是未來監(jiān)管者在各領(lǐng)域不得不面對的重要問題。
上文簡要探討了,人工智能的“實證性法律”將會越來越多地圍繞法律(主權(quán)權(quán)力)是否以及如何介入人工智能算法的運作,特別是在廣泛影響大眾利益的情形中,如何設計信息披露等監(jiān)管機制、干預某類代碼化規(guī)則的系統(tǒng)性歧視等。而和專門的監(jiān)管者相比,法院處理這類中立性問題可能更麻煩。從社會后果看,法院較好的回應方式仍然是根據(jù)外在行為后果,而非進入黑箱內(nèi)部,這不僅因為法官缺乏專業(yè)知識,更因為地方性法院無法對在全國范圍內(nèi)有影響力的算法進行總體干預。
人工智能的生產(chǎn)性視角
按照生產(chǎn)性視角,人工智能的范疇可以擴展至由算法帶動的整個商業(yè)模式和生產(chǎn)過程。一個更加強大的人工智能無疑有能力進行更多的數(shù)據(jù)分析,靈活匹配各類資源并為消費者提供更加個人化的服務。很大程度上這類人工智能設計的價值導向是商業(yè)性的,意在減少交易雙方的信息不對稱,并潛在地壓縮買賣雙方的價值剩余。人工智能作為一種生產(chǎn)方式,重新塑造了生產(chǎn)關(guān)系和生產(chǎn)模式的設計。整個社會生產(chǎn)將變得更加自動化和網(wǎng)絡化,迅速取代傳統(tǒng)生產(chǎn)組織。和網(wǎng)絡法演進的路徑類似,人工智能法律也會產(chǎn)生于經(jīng)濟利益沖突,并要求法律確認其生產(chǎn)的自主性與合法性。
互聯(lián)網(wǎng)公司的信息生產(chǎn)機制正逐漸主導實體經(jīng)濟和金融生產(chǎn),揭示了價值如何在新架構(gòu)中不斷生產(chǎn)和再生產(chǎn)出來。這一過程的第一個階段是超越傳統(tǒng)組織調(diào)配資源,從而瓦解了未來更多的組織形態(tài)的生產(chǎn)機構(gòu),并可能與大型傳統(tǒng)組織深度合作。第二個階段隨之而來:人工智能的低成本的創(chuàng)作對人類勞力的取代,并以主張獨特的言論自由、著作權(quán)等方式表現(xiàn)出來。例如,人工智能可以通過對海量網(wǎng)絡文本、圖片、音樂、視頻的深度學習、整合,創(chuàng)作出更多新作品,至少是在初級階段取代某些行業(yè)的勞動力,如新聞業(yè)和法律服務業(yè)。本文無法預見法律是否在未來會賦予某些通用人工智能以人格權(quán),但這一主張的實質(zhì)是以人工智能的人格掩蓋了其更具競爭力的財產(chǎn)利益,并使得其背后的互聯(lián)網(wǎng)公司的利益不受侵犯(著作權(quán))和任意干預(言論自由)。同時,人工智能也會變得愈加集中和封閉,大量中小開發(fā)者無力獲取更多數(shù)據(jù)資源,只能依托大型平臺開發(fā),成為平臺服務的螺絲釘;而平臺通過靈活的法律機制(生產(chǎn)內(nèi)容的永久免費授權(quán)、不固定期限勞動合同)最大限度地降低自身成本,同時防止生產(chǎn)者/用戶流失,被競爭對手搶奪。
如果我們再次回到黑箱的隱喻,算法及其算法控制的生產(chǎn)性資源就成為一個閉環(huán)的黑箱。安排調(diào)配生產(chǎn)性資源、授予用戶某種權(quán)利/義務會更多地從屬于互聯(lián)網(wǎng)公司內(nèi)部規(guī)則而非國家法律。上文已經(jīng)討論了法律如何干預的不同視角,這里提供了法律為何干預的更基礎的生產(chǎn)性理由。針對人工智能可能的法律問題包括:首先,會出現(xiàn)更多不正當競爭案件,包括與傳統(tǒng)行業(yè)和人工智能同業(yè)競爭者的各類糾紛,法院在這方面已經(jīng)積累了豐富的經(jīng)驗,但仍然需要面對新技術(shù)問題。其次,隨著分享經(jīng)濟的擴展,更多自由勞動力加入平臺,勞動關(guān)系糾紛會因此增加,要求平臺承擔雇主責任和社會保障義務,這就進一步涉及平臺上的價值分配問題。第三,對監(jiān)管者而言,平臺壟斷和價格管制問題可能變得更加突出,特別是人工智能驅(qū)動的競爭給市場帶來的負面效果。
結(jié)語
人工智能是資本主義和消費主義發(fā)展到更高階段的產(chǎn)物。本文十分簡要地討論了法律如何應對人工智能帶來挑戰(zhàn)的一些側(cè)面,核心要點是,立法者、法院和監(jiān)管者都需要思考人工智能是否有任何特殊性以至于需要新的規(guī)則,以及如何以合適的方式介入人工智能新問題,這一例外性往往可以從經(jīng)濟利益的角度找到根源。實證性視角和生產(chǎn)性視角為我們理解這些問題的出現(xiàn)提供了有益的幫助。未來的人工智能法律研究可能需要聚焦于不同服務形態(tài),摘掉人工智能和大數(shù)據(jù)的帽子和標簽,更細致地討論具體問題。
(作者單位:上海財經(jīng)大學法學院)
注釋:
[1]當下的大眾媒體、文化產(chǎn)品和社會公共認知正努力將未來的人工智能塑造成具有獨立意識的逐漸演化的主體,這集中體現(xiàn)在諸如《終結(jié)者》《我,機器人》《西部世界》《2001銀河漫游》這類科幻影視作品中。盡管人們也有理由進一步想象,一旦人工智能具有了自我意識,就不再可能忠實地為人類服務,而更可能對人類生存構(gòu)成威脅。其路徑和思維方式仍是20世紀的,和21世紀依托大數(shù)據(jù)機器學習迥然不同。事實上,按照日本學者森政弘提出的“恐怖谷理論”,人工智能不太可能在短時間內(nèi)人形普及化,因為這會在消費者心理上引發(fā)不安甚至恐懼。像Siri和Cornata這樣的語音助手、像Tay和小冰這樣的聊天機器人則不會有這種負面效果,因為用戶知道自己在和一個尚未通過圖靈測試的算法對話,他們甚至樂于教Tay在推特上辱罵用戶、發(fā)表種族主義和煽動性的政治言論。另一個可能影響中文世界讀者想象的因素是,把robot翻譯成“機器人”先驗地賦予了這類客體某種擬人化主體地位,而人形機器人(android)卻沒有引起更多的關(guān)注。
[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一個更加有用的綜合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究將具有物理形體的機器人作為法律的對象,特別區(qū)分了信息性和物理性效果,見Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一個不同觀點,見Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把機器人視為代理人在法律上也有相當?shù)臍v史,見Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.
[3]吳軍:《智能時代》,中信出版社2016年版。
[4]例如阿西莫夫的機器人系列小說中,無一例外地設定機器人擁有一個“正子腦”(positronic br人工智能 n),但卻沒有給出任何解釋。見阿西莫夫:《機器人短篇全集》,江蘇文藝出版社2014年版。
[5]這被稱為終極算法(master algorithm),見佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,中信出版社2016年版。
[6]尼古拉斯·卡爾:《玻璃籠子:自動化時代和我們的未來》,中信出版社2015年版。在互聯(lián)網(wǎng)發(fā)展的每一個階段都有某種意識形態(tài)化的術(shù)語或熱詞吸引投資,例如寬帶、大數(shù)據(jù)、分享經(jīng)濟、VR(虛擬現(xiàn)實)等,它們不過是互聯(lián)網(wǎng)形態(tài)的各類變種。例如,一個關(guān)于分享經(jīng)濟和之前互聯(lián)網(wǎng)經(jīng)濟的關(guān)聯(lián),參見胡凌:《分享經(jīng)濟的法律規(guī)制》,載《文化縱橫》2015年第4期。
[7]這種思維方式可追溯到霍布斯以來的法律實證主義。
[8]胡凌:《代碼、著作權(quán)保護與公共資源池》,載《騰云》2016年12月刊。
[9]關(guān)于兩類邏輯的具體表現(xiàn),集中參見胡凌:《探尋網(wǎng)絡法的政治經(jīng)濟起源》,上海財經(jīng)大學出版社2016年版。
[10]這在眾多(特別是國外的)中國互聯(lián)網(wǎng)觀察者身上十分常見,人們的注意力全都轉(zhuǎn)向中國政府如何嚴格管理和控制互聯(lián)網(wǎng)。在政治學研究中自然而然地并入“國家與市民社會”傳統(tǒng)框架,并吸納了關(guān)于在線抗爭、集體行動的傳播學與社會學研究。
[11]勞倫斯·萊斯格:《代碼2.0》,清華大學出版社2008年版。
[12]一個概述,見胡凌:《馬的法律與網(wǎng)絡法》,載張平主編:《網(wǎng)絡法律評論》2010年第11卷。
[13]胡凌:《非法興起:理解中國互聯(lián)網(wǎng)演進的一個框架》,載《文化縱橫》2016年第5期。這體現(xiàn)在版權(quán)、隱私、財產(chǎn)、不正當競爭、壟斷、勞動法等一系列制度中。這種對法律制度的改變不單純是在既有工業(yè)生產(chǎn)背景下微型創(chuàng)新帶來的變化,而是社會生產(chǎn)的重塑。
[14]比如說,平臺責任議題的出現(xiàn),和互聯(lián)網(wǎng)平臺更多轉(zhuǎn)向由第三方提供服務的信息中介模式直接相關(guān)。
[15]這一區(qū)分和觀察中國式資本主義興起的框架十分類似,政治經(jīng)濟學家們爭論的焦點就在于如何解釋中國改革開放三十年的成功經(jīng)驗,究竟是政府主導還是市場主導,但實質(zhì)上是一個混合制經(jīng)濟。
[16]由于科斯所說的企業(yè)信息成本和管理成本降低,調(diào)動生產(chǎn)要素的邊際成本趨近于零,企業(yè)組織形態(tài)本身將成為競爭的高成本。
[17]尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,中信出版社2015年版。
[18]古代的政治過程、現(xiàn)代的企業(yè)決策都是黑箱,對外人而言如果不是神秘,也是除魅之后的國家/商業(yè)秘密??ǚ蚩ǖ男≌f《審判》就精確描述了作為黑箱的訴訟過程,同一時代的韋伯也描述了理性化的國家機器應當像自動售貨機一樣。
[19]Frank Pasquale:《黑箱社會:掌控信息和金錢的數(shù)據(jù)法則》,中信出版社2015年版。
[20]帕伯斯:《差錯:軟件錯誤的致命影響》,人民郵電出版社2012年版。
[21]長久以來民用航空器已經(jīng)由軟件深度介入駕駛過程,以至于人類駕駛員無法在短時間內(nèi)預熱,形成另一種風險。
[22]阿西莫夫提出的“機器人三定律”(后來擴展至四點)雖然十分基礎,但仍然很難在具體情況下起作用,特別是當代倫理學上著名的“線車難題”之類的倫理困境??紤]到這些定律是為模擬人腦狀態(tài)下設計的,就更可疑;因為人腦并不總是按某些理性倫理原則行事的,在某些關(guān)鍵場合強烈依靠某些默認設置——直覺。
[23]由監(jiān)管機構(gòu)強制披露并審查事實做不到,只能依靠像蘋果這樣的平臺公司和軟件分發(fā)平臺幫助對成千上萬個軟件進行至少是安全審查。在臺式機時代,這一平臺責任幾乎不可能,自然狀態(tài)下的windows只能導致爭奪私人控制權(quán)的3Q大戰(zhàn)。但像烏云網(wǎng)這樣的第三方白帽黑客也被禁止探測和公開發(fā)布互聯(lián)網(wǎng)公司的漏洞。
[24]同注11。
[25]在筆者看來,法院應當將注意力放在知情同意的合同條款本身的適當性上,而不是一味接受黑箱的邏輯,因為后者確實無懈可擊。如果格式合同能準確反映代碼的設計,對其條款的審查是更好的選擇。百度引發(fā)的被遺忘權(quán)第一案反映的也是這個問題。
[26]一個補救方法還是盡可能地披露算法信息,允許用戶理性地生產(chǎn)/隱瞞個人信息,見戴昕:《自愿披露隱私的規(guī)制》,載蘇力主編:《法律和社會科學》第15卷第1輯,法律出版社2016年版。
[27]法律的人工智能化是本文另一個沒有討論的問題,與此相關(guān)的是大規(guī)模監(jiān)控、智能警務、犯罪預測等問題。
[28]美國諸多大型新聞機構(gòu)都廣泛應用人工智能進行新聞撰寫和分發(fā),而像ROSS系統(tǒng)這樣的法律人工智能已經(jīng)遭到美國律師協(xié)會的多起訴訟,理由是提供法律服務缺乏資質(zhì)和不正當競爭。
[29]Maurice Stucke and Allen Grunes, Big Data and Competition Policy ,Oxford University Press, 2016; Ariel Ezrachi and Maurice E. Stucke, Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy ,Harvard University Press, 2016.