孫 南 翔
(中國社會科學院 國際法研究所,北京 100720)
馬克思指出,從前各種生產方式的技術基礎在本質上是保守的,近代工業(yè)的技術基礎卻是革命性的(1)馬克思.資本論:第一卷[M].北京:人民出版社,1953:595.。 21世紀以來,隨著信息技術、生物技術、新能源技術、新材料技術等顛覆性工業(yè)技術的萌芽與發(fā)展,全球正加速推進第四輪科技革命和產業(yè)變革(2)馮昭奎.科技革命發(fā)生了幾次——學習習近平主席關于“新一輪科技革命”的論述[J].世界經(jīng)濟與政治,2017(2):4.。當前,以5G、云計算、區(qū)塊鏈、人工智能等技術為代表的技術競爭日益激烈。雖然網(wǎng)絡空間對人類生產和生活帶來了革命性的影響,然而,其仍沒有改變以人為本位的決策機制。技術與代碼規(guī)制方式并非網(wǎng)絡空間治理的終極目的,其僅僅是實現(xiàn)人本宗旨的工具(3)孫南翔.論互聯(lián)網(wǎng)自由的人權屬性及其適用[J].法律科學,2017(3):32.,然而,在人工智能時代則近乎迥異。當前,人工智能技術正潛移默化地重塑社會經(jīng)濟活動的方式,重構人類的社會組織形態(tài),推動國際行為體的內部變遷,進而引發(fā)國際體系的深刻變革(4)封帥.人工智能時代的國際關系:走向變革且不平等的世界[J].外交評論,2018(1):129.。從此層面而言,人工智能技術催生了人與物間的新型生產關系。人將可能不再是目的,而智能物不僅是手段,甚至可成為目的本身。
根據(jù)人類的認知,人工智能時代至少可分為三個不同的階段:第一階段為弱人工智能階段,其主要依賴人類的指示或支持,通過硬件設備的快速更新、大數(shù)據(jù)的持續(xù)積累、深度學習算法的不斷突破,促進人工智能技術的發(fā)展;第二階段為強人工智能階段,其主要依賴多層神經(jīng)網(wǎng)絡使人工智能獲得自我學習能力,甚至發(fā)展出機器學習系統(tǒng)自身的直覺和知覺(5)卡魯姆·蔡斯. 人工智能革命:超級智能時代的人類命運[M]. 張堯然,譯. 北京:機械工業(yè)出版社,2017:1-106.;第三階段為超人工智能階段,出現(xiàn)了在科學創(chuàng)造力、智力和社交能力等方面比最強的人類大腦還聰明很多的智能機器(6)周輝. 算法權力及其規(guī)制[J]. 法制與社會發(fā)展,2019(6):122.。綜合而言,弱人工智能技術仍是以人為中心,依靠人的命令從事深度學習;而強人工智能技術與超人工智能技術已無須以人為主體或本位,機器可實現(xiàn)自我學習,產生自我意識,特別是到了超人工智能階段,法律的作用將被進一步削弱甚至消亡。
與網(wǎng)絡時代相比,人工智能時代將顛覆傳統(tǒng)的國際法律框架,國際法體系的主體、結構、運行規(guī)則等關鍵要素都將隨之發(fā)生巨變。當然,由于技術所限,人工智能或機器人在短期內仍難以成為有自我意識的權利享有者和義務承擔者,更遑論成為超人類的群體(7)RYAN C. Robotics and the lessons of cyberlaw[J]. California law review,2015,103 (3):517.。因此,當前理論界和實務界都將關注點集中在人工智能時代的萌芽和發(fā)展階段。例如,歐洲理事會將人工智能定義為“旨在使機器產生人類認知能力的科學、理論和技術”(8)Council of Europe, artificial intelligence[EB/OL].[2019-12-03].https:∥www.coe.int/en/web/artificial-intelligence/glossary.,該含義隱含人工智能以服務人類為主要目的。
在人工智能的發(fā)展階段,人工智能加快了全球治理進程,克服了人類思維的偏見和局限性,提高了決策效率,為解決諸如氣候變化等高度復雜問題提供了全新的方法(9)鄭海琦,胡波. 科技革命對全球海洋治理的影響[J]. 太平洋學報,2018(4):39.。然而,人工智能技術也帶來了諸多挑戰(zhàn),特別是對以人人關系為基礎而設立的法律傳統(tǒng)及其法律體系產生了一些挑戰(zhàn)。人工智能技術導致了個性化規(guī)則及其適用的可能性,進而弱化了法律平等觀念并重構了公平與正義的理念(10)李晟. 略論人工智能語境下的法律轉型[J]. 法學評論,2018(1):98.。在國際法層面,現(xiàn)有的人工智能技術給貿易法、戰(zhàn)爭法、人權法等領域帶來了巨大的變革?;诖?,下文對作為國際法起源的海洋法進行分析,以此探索人工智能技術對國際法體系特別是國際法基本原則的挑戰(zhàn),并提出初步的應對建議。
人工智能技術的發(fā)展對世界秩序構成了嚴峻的挑戰(zhàn)。在弱人工智能階段到強人工智能階段的轉變過程中,當前的實踐主要關注人工智能技術給海洋法主體、海洋行為及海洋治理機制帶來的挑戰(zhàn)。
傳統(tǒng)上,國家是國際法的唯一主體。然而,人工智能技術的革命性發(fā)展使得科技企業(yè)或科學家擁有了可比擬于國家的權力。例如,英國馬諾爾研究公司曾為皇家海軍提供了場景感知的人工智能軟件,通過不同的算法和智能特征相結合,幫助軍艦探測和評估戰(zhàn)斗情景,檢測和處理迫在眉睫的威脅(11)鄭海琦,胡波. 科技革命對全球海洋治理的影響[J]. 太平洋學報,2018(4):42.。再比如,非政府組織利用野生動物安全保護輔助系統(tǒng),模擬、監(jiān)測和預測海上非法捕撈等國際偷獵者的活動(12)MATTHIJS M. International law does not compute:artificial intelligence and the development, displacement or destruction of the global legal order[J]. Melbourne journal of international law,2019,20(1):44.。諸如此類人工智能技術的運用使得科技企業(yè)和非國家行為體掌握了大量的數(shù)據(jù)和信息,極大影響著科學發(fā)展的未來方向,進而為人工智能介入全球海洋事務提供了基礎,但這樣可能會限制或削弱國家主權在海洋事務中的行使權力。
人工智能技術的發(fā)展對海洋法穩(wěn)定的秩序造成了潛在的威脅。美國使用大量的無人機對伊拉克進行監(jiān)視和打擊,通過無人機定位和攻擊,擊斃伊朗少將蘇萊曼尼。同時,人工智能技術也存在向海盜等海上犯罪團伙擴散的趨勢,為海洋安全治理帶來了新的挑戰(zhàn)。例如,海盜能夠輕易獲得裝有攝像機的無人機,并將其用于監(jiān)視和襲擊船舶。小型無人機花費不高且可從甲板上發(fā)射,因此海盜或其他組織有較強的意愿使用無人機,此舉可能對海洋安全構成潛在威脅(13)鄭海琦,胡波. 科技革命對全球海洋治理的影響[J]. 太平洋學報,2018(4):43.。由此可見,在人工智能時代,國家將不再是也不應是國際海洋法權利與義務的壟斷者。
當前在世界范圍內的海洋行為中,人工智能工具的使用是非常廣泛的?;谶\輸、研究或監(jiān)控目的的無人船舶或飛行器的使用給傳統(tǒng)的國際海洋秩序和航空秩序都帶來了挑戰(zhàn)。
海洋行為與行為歸責密切相關,下面以人工智能武器為例進行說明。在平時法中,當人工智能武器有違反國際法的行為時,不管是刑事行為還是民事行為,都可能使擁有或使用這些人工智能武器的國家產生責任(14)CASTEL J G,MATTHEW E C. The road to artificial super-intelligence:has international law a role to play?[J].Canadian journal of law and technology,2016,14(1):9.。受害者應該證明這些作為或不作為可以歸因于國家或相關機構。在戰(zhàn)時法中,機器人、無人船舶或其他人工智能武器必須在戰(zhàn)爭中遵守區(qū)分、比例性、軍事必要性和人道主義等規(guī)則。然而,海洋行為區(qū)分為軍事行為和民事行為。軍事行為和民事行為在國際人道法、合同義務、嚴格責任規(guī)則等方面存在著顯著的差異(15)UGO P. Guns, ships, and chauffeurs:the civilian use of UV technology and its impact on legal systems[J]. Journal of law, information and science,2011,21(2):224.。例如,現(xiàn)有的人道習慣法是以區(qū)分民用物體與軍事目標為前提的,其要求保護民用物體免受攻擊,除非民用物體被用于軍事目的(16)讓-馬里·亨克茨,路易斯·多斯瓦爾德-貝克. 習慣國際人道法規(guī)則[M]. 劉欣燕,等譯. 北京:法律出版社,2007:24.。由此,如何認定人工智能武器法律屬性的問題至關重要。特別是在海洋法上,很多無人船舶不僅從事巡邏和邊境安全事務,還從事運輸?shù)仁聞?。由此可見,人工智能武器的使用方式與其海洋法上的權利密切相關。
除了以傳統(tǒng)的國際立法方式解決人工智能武器問題外,很多國家還參加了聯(lián)合國日內瓦會議,就人工智能武器問題舉行正式談判。在人工智能領域,以非政府組織和網(wǎng)絡社會為主體的海洋治理機制正在形成。該治理機制由個人、職業(yè)機構、科學家、企業(yè)和公民社會等主體所組成(17)THOMAS B. International law and artificial intelligence[J]. German yearbook of international law,2017,60(1):91.。非國家實體通常以技術中立為理由排除國家的參與。例如,勞倫斯曾提出“編碼即法律” “編碼即正義”等觀點。他指出,與其他規(guī)制形式相同,電腦硬件和軟件能夠限制和指導行為(18)LAWRENCE L. Code and other laws of cyberspace[M]. New York:Basic Books,1999:88-89.。在某種程度上,人工智能技術推崇編碼或算法,而對人類社會中的道德、倫理和政治漠不關心,甚至有觀點直言不諱地指出“人工智能的世界拒絕國王、總統(tǒng)和選舉”(19)ALEXIS W. Net states rule the world, we need to reorganize their power[EB/OL].[2019-11-03] https:∥www.wired.com/story/net-states-rule-the-world-we-need-to-recognize-their-power/.。換言之,人工智能產生了無須道德、法律和倫理的世界。
不僅如此,海洋與人工智能治理機制融合的另一個嚴峻挑戰(zhàn)在于治理機制的巴爾干化。傳統(tǒng)上,海洋權利體系的規(guī)范體現(xiàn)在《聯(lián)合國海洋法公約》中。然而,由于人工智能技術不僅涉及海洋法,還涉及技術法、航空法、國際人道法等領域,因此,聯(lián)合國及相應的非政府機構正在加緊探索并研究人工智能的行為規(guī)范。從此層面而言,人工智能時代下的海洋治理機制正面臨碎片化的挑戰(zhàn)。
馬克思和恩格斯曾指出,思想、觀念、意識的生產最初直接與人類的物質生活、物質交往、現(xiàn)實生活的語言交織在一起(20)中共中央編譯局.馬克思恩格斯選集:第一卷[M]. 北京:人民出版社,2012:151.。世界的本原是物質的。在現(xiàn)有的人工智能階段,人工智能技術發(fā)源并受制于人,人工智能所產生的思想、觀念和認知來自人類世界。因此,國際海洋法應對人工智能技術的挑戰(zhàn)應從客觀世界中尋求解決方案。
技術進步伴隨著人類社會發(fā)展的始終。20世紀90年代的互聯(lián)網(wǎng)技術曾對全球法律秩序的穩(wěn)定性產生了巨大的沖擊。甚至有觀點認為,互聯(lián)網(wǎng)是獨特的,因此應旗幟鮮明地支持“互聯(lián)網(wǎng)例外主義”。該理論認為適用于互聯(lián)網(wǎng)的法律與適用于其他媒介的法律應是不同的。然而實踐證明,雖然谷歌公司、亞馬遜公司等互聯(lián)網(wǎng)企業(yè)逐步拓展,但互聯(lián)網(wǎng)技術與電話、電報、電視或電纜等技術相似,在法律規(guī)范及適用層面并不存在實質性的差異(21)SZOKA B, MARCUS A. The next digital decade:essays on the future of the internet[M]. Washington,D.C.:TechFreedom, 2010:179.。道德的規(guī)訓、法律的價值、倫理的觀念仍在網(wǎng)絡空間中發(fā)揮作用。虛擬空間與實體空間相同,并非法外空間。人類在實體空間所享有的法律權利在網(wǎng)絡世界中同樣應得到一以貫之的尊崇。
雖然對人工智能技術進行全面的國際立法可能是最好的方式,但由于國際條約制定的緩慢性與國際習慣法形成的滯后性,國際立法幾乎難以系統(tǒng)地解決更新頻繁的人工智能技術所產生的法律問題。在最優(yōu)情形下,國際習慣法的產生至少需要10~15年;雖然條約的制定速度能快些,但是其仍滯后于技術的更新?lián)Q代(22)COLIN B P. A view from 40,000 feet:international law and the invisible hand of technology[J].Cardozo law review,2001,23(1):185.。因此,對人工智能技術規(guī)制的最優(yōu)選擇應是最大化地發(fā)揮并探索現(xiàn)有的國際規(guī)則對人工智能技術的可適用性。托馬斯·布曾研究發(fā)現(xiàn),目前國際法院(包括前南斯拉夫國際法庭或國際法院)的案例足以解決人工智能時代的國家控制、歸責和代理等問題。溝通論表明,人類與人工智能之間的通訊并不必然與人與人之間的社會溝通存在差異(23)THOMAS B. International law and artificial intelligence[J]. German yearbook of international law,2017,60(1):101-104.?;诖耍瑘猿謱嶓w空間、網(wǎng)絡空間、物聯(lián)空間一體融合的法律機制是國際法應對人工智能挑戰(zhàn)的基本原則。
體系融合原則能夠在保護現(xiàn)有海洋秩序的前提下有效平衡人工智能時代的國家主權和海洋自由。按照實體空間的規(guī)則,任何在沿海國領海的無人船舶和無人機開展的活動若擾亂其秩序和安寧,那么沿海國均有權對該無人船舶和無人機行使執(zhí)法管轄權。毫無疑問,屬地管轄權是國家主權的基本內容,這在人工智能時代仍應得以適用。當然,人工智能技術也將產生新的權利體系,下面以登臨權為例進行說明。傳統(tǒng)的登臨權是指在特定情況下,一國軍艦對公海上外國船舶進行檢查和搜查的權利。在人工智能時代,傳統(tǒng)的登臨權演化為使用人工智能技術對船舶進行電子監(jiān)控、檢查甚至搜查,此即虛擬登臨權。虛擬登臨權是否屬于合法使用的權利引發(fā)了諸多爭議。有觀點認為,《聯(lián)合國海洋法公約》第110(2)條規(guī)定的登臨權僅限于“船舶上”。因此,若檢測以電子或人工智能等方式進行,那么該檢測違背了條約文本。然而,也有觀點認為,應在和平利用海洋的原則下認可虛擬執(zhí)法的正當性(24)呂方園. 海洋執(zhí)法“虛擬登臨權”理論困境與現(xiàn)實因應選擇[J]. 法學雜志,2019(4):100.。
毫無疑問,如果以體系融合原則考慮虛擬登臨權問題,其結論將更為明確。一方面,國家能夠對人工智能工具實施管轄。國家有關機構可根據(jù)獲得的線索對領海內無人船舶的網(wǎng)絡通信進行監(jiān)控。如果上述機構從該船舶發(fā)出的任何網(wǎng)絡通信中確認其正在非法運輸毒品,那么執(zhí)法人員應能夠使用人工智能技術使該船舶停止前行(25)邁克爾·施密特. 網(wǎng)絡行動國際法塔林手冊2.0版[M]. 黃志雄,等譯. 北京:社會科學文獻出版社,2017:262.。另一方面,人工智能技術也能夠賦予國家更大的能力。除了數(shù)據(jù)監(jiān)控外,虛擬登臨還包括通過無人機或機器人等方式實現(xiàn)執(zhí)法的目的。因此,體系融合原則最大化地發(fā)揮了現(xiàn)有海洋法規(guī)則的效用,相應地也實現(xiàn)了海洋自由與國家主權的有效平衡。
雖然人工智能技術帶來了顛覆性的觀念變革,但是現(xiàn)有的人工智能技術尚未改變人與物之間的從屬關系以及國家與公民之間的身份關系。特別是當前,我們仍未賦予人工智能以法律資格,也無法要求人工智能承當相應的法律責任。一方面,人工智能沒有可供自由處分的財產;另一方面,人工智能也缺少刑事或民事懲戒的感知與情感能力(26)IRIA G. Liability for AI decision-making:some legal and ethical considerations[J]. Fordham law review,2019,88(2):439.。因此,對人工智能法律責任的追究應采取技術穿透原則。
人工智能對歸責原則的挑戰(zhàn)主要體現(xiàn)為識別人類對人工智能技術的控制水平?!堵?lián)合國國家責任草案》體現(xiàn)了國家歸責的國際習慣法和一般法律原則,其第5條規(guī)定非國家機構的行為若是歸責于國家,那么該機構應行使政府的職權。對人工智能而言,目前的難點在于如何證明國家通過個體對其進行全面的控制或有效的控制。人類對人工智能的控制體現(xiàn)在三個層面:人工智能自身的識別能力、人工智能所承擔的任務類別、人類操作員對人工智能的監(jiān)督水平(27)張衛(wèi)華. 人工智能武器對國際人道法的新挑戰(zhàn)[J]. 政法論壇,2019(4):150.。從現(xiàn)有的技術水平出發(fā)可知,人工智能的控制主體是開發(fā)者、程序員、運營者及其用戶。雖然很多人將追求科學知識的自由視為一項基本權利,然而自紐倫堡審判以來,人們普遍認為科研自由并非完全不受限制,特別是應受到道德以及風險不確定性的限制??蒲薪^對自由的前提僅限于從事那些“負責任”的研究以及那些符合“合法的科學目的”的研究(28)ROSEMARY R. Public international law and the regulation of emerging technologies[M]∥ROGER B,ELOISE S,KAREN Y. The Oxford handbook of law, regulation and technology. New York:Oxford University Press,2017:500.。
從此層面,通過技術穿透原則,對人工智能的規(guī)制應穿透到人工智能本身,并追溯到其研發(fā)、運營及使用過程中。在現(xiàn)有的技術階段和法治水平下,若人工智能實體能夠被人類所控制,那么其應被視為是合法的。以人工智能武器系統(tǒng)為例,如果該系統(tǒng)無法得到人類的有效控制,那么其極可能被視為是不合法的(29)THOMAS B. International law and artificial intelligence[J]. German yearbook of international law,2017,60(1):91.。因此,使用人工智能技術或工具的國家或個體應承但對該人工智能進行有效控制的義務。當前,對高度自動化或自主武器系統(tǒng)進行“有意義的人類控制”是《常規(guī)武器公約》特定武器談判的重點事項(30)KENNETH A,MATTHEW C W. Debating autonomous weapon systems, their ethics, and their regulation under international law[M]∥ROGER B,ELOISE S,KAREN Y. The Oxford handbook of law, regulation and technology. New York:Oxford University Press,2017:1097.。
在海洋法上,著名的“荷花號案”裁決指出“在國際規(guī)則外,國家享有廣泛的自由”(31)孫南翔. 裁量余地原則在國際爭端解決中的適用及其拓展[J]. 國際法研究,2018(4):60.。由于當前各國未就人工智能技術達成共識并形成公約義務,因此原則上,各國的船舶和航空器均有權在公海及其上空行動,公海航行、飛越和鋪設海底電纜等行動均可適用于人工智能工具。國際海洋法也可適用于海上網(wǎng)絡基礎設施或通過海上網(wǎng)絡基礎設施而實施的人工智能行動(32)邁克爾·施密特. 網(wǎng)絡行動國際法塔林手冊2.0版[M]. 黃志雄,等譯. 北京:社會科學文獻出版社,2017:249.。當然,前提是國家應確保所開展的人工智能行動處于有效的控制范圍內。若無人船舶主張通過沿海國領海的無害通過權,則任何在該船舶上開展的人工智能行動都必須符合行使該權利所要求的條件。具體而言,人工智能工具的無害通過至少應包括:第一,人工智能工具并未對沿海國進行武力威脅或使用武力;第二,人工智能行動應限于該船舶或系統(tǒng)內部,并未對沿海國的安全造成威脅;第三,人工智能行動未對沿海國防務或安全產生影響;第四,人工智能行動不應以干擾沿海國通信系統(tǒng)或其他設施或設備為目的。
現(xiàn)階段的人工智能技術高度依賴數(shù)據(jù)與算法。數(shù)據(jù)和信息成為人工智能時代的新型資產,而算法從最初“提煉自這個世界,來源于這個世界”轉向“開始塑造這個世界”(33)馬長山. 智能互聯(lián)網(wǎng)時代的法律變革[J]. 法學研究,2018(4):22.。在人工智能時代,作為算法的競爭品,以國家、地域和社會概念為支撐的法律、道德甚至倫理將可能岌岌可危。例如,部分非政府組織創(chuàng)設了所謂的網(wǎng)絡行為規(guī)范,其并非產生于傳統(tǒng)的國際法被創(chuàng)設的場所,卻可以通過網(wǎng)絡等媒介進行跨國界的宣傳,向國際社會灌輸強烈的遵守意識,盡管這些網(wǎng)絡行為規(guī)范并不具有任何法律上的約束力。
未來,機器人將廣泛地參與到社會生活中,如家務機器人、工業(yè)機器人等,這些機器人將深刻地影響著人們的生活。因此,有必要為機器人制定共同的產品標準(34)楊延超. 機器人法:構建人類未來新秩序[M]. 北京:法律出版社,2019:20.。隨著社會治理的發(fā)展,人們已日益形成技術治理與法律治理二元共治的話語共識(35)鄭智航. 網(wǎng)絡社會法律治理與技術治理的二元共治[J]. 中國法學,2018(2):108.。換言之,人工智能時代法律也應實現(xiàn)技術化。在人工智能時代,我們面對諸多復雜的、具體的和技術性的問題,其中最為核心的問題是,法律標準如何轉化為“可測試、可量化、可衡量和合理的可靠性工具”(36)KENNETH A,MATTHEW C W. Debating autonomous weapon systems, their ethics, and their regulation under international law[M]∥ROGER B,ELOISE S,KAREN Y. The Oxford handbook of law, regulation and technology. New York:Oxford University Press,2017:1097.。
在實體層面,我們應探索通過技術手段解決法律關切的問題。在算法上,人工智能技術的運用涉及大量的技術法規(guī)和國際標準的制定問題,解決這些問題是未來規(guī)制人工智能技術的重要切入點。與法律相比,標準的制定更靈活、更方便,且能夠根據(jù)客觀實踐的變化而動態(tài)調整。因此,標準應成為解決與人工智能技術相關的道德和道義問題的場所。例如,有專家提出機器人制造準則,要求在編碼中規(guī)定“人工智能不會傷害人類”(37)CASTEL J G, MATTHEW E C. The road to artificial super-intelligence:has international law a role to play?[J].Canadian journal of law and technology,2016,14(1):12.。在國際標準領域,電氣和電子工程師協(xié)會(IEEE)正推動標準化道德原則的實施。該協(xié)會在人工智能以及自動系統(tǒng)的道德因素全球倡議中公布了 “道德嵌入的設計”一章的內容,提倡在技術中嵌入透明度、算法非歧視和隱私保護等規(guī)范。因此,各國應加大標準化協(xié)調工作力度,確保和平、有序的海洋規(guī)則體系的構建。
在程序層面,我們也應探索通過法律手段解決技術問題,特別是應在技術創(chuàng)新中增加法治的理念。歐盟學者指出,迎接人工智能挑戰(zhàn)的重要方式是在人工智能系統(tǒng)的發(fā)展、推廣和使用中普及法治(38)NILS M. Human rights implications of the usage of drones and unmanned robots in warfare[EB/OL].[2019-12-03].http:∥autonomousweapons.org/human-rights-implications-of-the-usage-of-drones-and-unmanned-robots-in-warfare/.。美國民主黨參議員布克(Cory Booker)和懷登(Ron Wyden)在2019年4月提出了《2019算法問責制法案》,要求美國聯(lián)邦貿易委員會對企業(yè)進行算法審查,并建立算法問責的明晰標準。歸納而言,全球法治的核心價值共有七項內容:第一,保護人類自由和尊嚴;第二,克服經(jīng)濟領域的絕對超級貧困;第三,縮小經(jīng)濟鴻溝;第四,防止對環(huán)境的更多危害;第五,縮小信息和技術鴻溝;第六,保證基本人權;第七,能夠允許新型技術的發(fā)展(39)樸仁洙. 第四次工業(yè)革命下的國際合作與法治發(fā)展——在“‘一帶一路’國際法治論壇”上的主旨發(fā)言[EB/OL].[2019-11-11].http:∥iolaw.cssn.cn/xszl/gjf10/ydyl/202001/t20200103_5070977.shtml.。在人工智能時代,實現(xiàn)法治的核心在于實現(xiàn)多元合作、實施算法問責制,而多元合作的前提是提高算法的透明度和解釋力。
在國際海洋法中,為用戶和相關個體提供技術性的正當程序權利是推動海洋法領域人工智能技術治理的應然路徑。算法使人工智能技術產生了異化,特別是削弱了傳統(tǒng)的知情權、參與權、異議權和救濟權。因此,在人工智能時代應重置個人權利以對抗算法權力,與人工智能相關的新權利體系包括賦予公眾算法的訪問權、解釋權(40)張欣. 算法解釋權與算法治理路徑研究[J]. 中外法學,2019(6):1430.。在某種程度上,技術科學與醫(yī)療科學相似,用戶或患者不一定掌握專業(yè)知識能夠看懂算法規(guī)則或藥方,但公開與透明將會促進社會的監(jiān)督和公眾的參與。鑒于此,若人工智能技術涉及海洋環(huán)境等內容,應根據(jù)《聯(lián)合國海洋法公約》的規(guī)定進行信息的分享,信息的分享不應限于國家層面,還應包括社會公眾層面。
習近平指出,“由人工智能引領的新一輪科技革命和產業(yè)變革方興未艾。人工智能正在對經(jīng)濟發(fā)展、社會進步、全球治理等方面產生重大而深遠的影響”(41)習近平. 推動人工智能更好造福世界人民[N]. 人民日報(海外版),2019-05-17(1).。當前,人工智能技術正重塑著國際海洋秩序。然而,由于國際立法的滯后性以及弱人工智能技術的非自主性,我們應加速研究人工智能技術對法律機制的影響及其對人類社會生活的挑戰(zhàn)。
第一,我國應積極探索國際海洋法對人工智能技術的可適用性。實踐中,若沒有清晰的、可預測的行動綱領,那么以人工智能技術為核心的新的軍備競賽將不可避免,大國勢必追求人工智能技術并運用于軍事領域以維持其大國地位。中小國家則會千方百計地尋求人工智能武器的擴散,以爭取獲得新的制衡手段(42)封帥. 人工智能時代的國際關系:走向變革且不平等的世界[J]. 外交評論,2018(1):141.。這將對全球安全體系和倫理基礎構成威脅。因此,我們應盡快探索國際海洋法對人工智能技術適用的可行性,實現(xiàn)海洋秩序的有序化、規(guī)則化和法治化。
第二,在人工智能技術發(fā)展過程中,我國應探索法律技術化和技術法律化的機制。國家是傳統(tǒng)國際法的主體。在人工智能時代,普通個人或科學家均能秘密開發(fā)相關武器,并逃離國際監(jiān)管機構的審查。為維護和平與發(fā)展的環(huán)境,我們有責任對人工智能技術產品及其設計者設定一定的道德標準,促使科技向善。在未來的人工智能時代,我國應加強道德、倫理與技術的融合,共同開發(fā)和發(fā)展有利于維護人類共同利益的人工智能技術。
第三,在人工智能時代,我國應與世界各國攜手共同迎接人工智能技術所帶來的挑戰(zhàn)。任一國家或國家行為體都無法解決人工智能所面臨的所有法律、道德和倫理問題。未來總是不確定的,但是法治會幫助我們維護社會的穩(wěn)定,以及實現(xiàn)未來的預期性及確定性。一方面,我們應積極引導法治在人工智能技術的使用、發(fā)明過程中發(fā)揮作用;另一方面,我們也應推動在人工智能技術的法律限制和道德規(guī)訓上形成政府間共識,促使科技融入并推動人類命運共同體的構建。
未來,人工智能技術還將產生自我學習與自我認知能力,它既不能被人類所規(guī)制,也無法為人類所預知(43)RYAN C. Robotics and the lessons of cyberlaw[J]. California law review,2015,103 (3):513.。毫無疑問,我們面臨的更大挑戰(zhàn)將是無知與未知的人工智能技術。