張吉豫
“科學進展是一種悲喜交集的福音?!?卡爾·雷門德·波普爾(Karl Raimund Popper),紀樹立譯,《科學革命的合理性》,載《世界科學譯刊》1979年第8期,第1頁。該文摘譯自《Problems of Scientific Revolution: Problems and Obstacles to Progress in the Science》,Rom Harré編,牛津大學出版社1975年版。該語句是波普爾教授引用了博德默(W. F. Bodmer)教授的觀點并表示贊同。這在人工智能領(lǐng)域體現(xiàn)得尤為突出。
自第一次工業(yè)革命以來,世界各國逐漸形成共識:科技創(chuàng)新對于社會進步、經(jīng)濟增長、人類福祉的提高和國家安全與競爭力提升有著重要意義。這尤其體現(xiàn)在各國政府重視和鼓勵創(chuàng)新的政策上。特別是21世紀以來,每一次科技界提出一個新的發(fā)展方向,很快就可以看到多國政府紛紛研究并發(fā)布促進政策。2例如,云計算這一概念被提出后,2010年8月,日本經(jīng)濟省發(fā)布《云計算與日本競爭力研究》,指出政府、用戶和云服務(wù)提供商應(yīng)構(gòu)建一個云計算產(chǎn)業(yè)發(fā)展的良好環(huán)境;2011年2月,美國發(fā)布《聯(lián)邦云計算戰(zhàn)略》;2011年9月,韓國政府制定了《云計算全面振興計劃》;2012年,歐盟委員會啟動“釋放歐洲云計算潛力”戰(zhàn)略計劃;2010年10月,中國國務(wù)院發(fā)布《國務(wù)院關(guān)于加快培育和發(fā)展戰(zhàn)略性新興產(chǎn)業(yè)的決定》,將云計算列為戰(zhàn)略性新興產(chǎn)業(yè)之一;2012年7月,國務(wù)院發(fā)布《“十二五”國家戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展規(guī)劃》,亦將云計算作為重點工程之一;等等。參見http://tech.sina.com.cn/it/2013-12-09/13538988745.shtml,2018年2月2日訪問。
在2016年AlphaGo戰(zhàn)勝人類頂尖圍棋手之后,人工智能這一概念成為社會各界關(guān)注的焦點。盡管“人工智能”并不是一個新的概念,在1956年美國達特茅斯人工智能暑期研究計劃會議上就已將人工智能這個名詞固定下來;但近十年來以深度神經(jīng)網(wǎng)絡(luò)為代表的人工智能算法在圖像識別、語音識別等領(lǐng)域取得的突破性進展,再結(jié)合超級計算機和云計算平臺提供的強大計算能力,以及傳統(tǒng)互聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)和正在發(fā)展的物聯(lián)網(wǎng)所帶來的日益豐富多樣的數(shù)據(jù)資源,為人工智能的發(fā)展繪制了一幅可信的光明圖景,引起了美國、歐洲、中國等多國政府的高度重視。3如美國國會發(fā)布了《為人工智能的未來做好準備》報告、《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》,美國國家科學基金會等贊助了《2016美國機器人發(fā)展路線圖——從互聯(lián)網(wǎng)到機器人》報告,蘋果公司發(fā)布了自己的人工智能發(fā)展報告,斯坦福大學發(fā)布了人工智能發(fā)展報告,2016年10月英國下議院的科學和技術(shù)委員會發(fā)布了《機器人和人工智能》報告,等等。2017年7月,中國國務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中提出“人工智能成為國際競爭的新焦點。人工智能是引領(lǐng)未來的戰(zhàn)略性技術(shù),世界主要發(fā)達國家把發(fā)展人工智能作為提升國家競爭力、維護國家安全的重大戰(zhàn)略”,我國要“搶抓人工智能發(fā)展的重大戰(zhàn)略機遇,構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢,加快建設(shè)創(chuàng)新型國家和世界科技強國”。4國務(wù)院《新一代人工智能發(fā)展規(guī)劃》,2017年7月8日,載http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm, 2018年2月2日訪問。習近平總書記在中國共產(chǎn)黨十九大報告中指出,要“推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實體經(jīng)濟深度融合”。5習近平:《決勝全面建成小康社會,奪取新時代中國特色社會主義偉大勝利——在中國共產(chǎn)黨第十九次全國代表大會上的報告》。
由此可見,發(fā)展人工智能科技和產(chǎn)業(yè)應(yīng)用是當前階段黨和國家的一項重要方針政策,是在目前各國大力發(fā)展人工智能的國際環(huán)境下,提升我國國家安全和全球競爭力、增進社會福祉的重要路徑,有必要創(chuàng)建能夠保障和促進人工智能技術(shù)創(chuàng)新發(fā)展的良好制度和政策環(huán)境。有利于人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展的法律制度則是其中一個非常重要的方面。
然而,在各國發(fā)布政策推進人工智能發(fā)展的同時,許多政府及民間組織也意識到人工智能在倫理、安全、隱私等諸多方面為人類社會帶來的重大挑戰(zhàn),紛紛提出對人工智能技術(shù)加強管制的要求和建議。實際上,呼吁政府對新技術(shù)進行監(jiān)管并不罕見;新技術(shù)的發(fā)展也需要建立比較明確的法律規(guī)范,使產(chǎn)業(yè)界和消費者均對技術(shù)應(yīng)用的法律有明確的預期。但此次引人注目的是,很多科技界、產(chǎn)業(yè)界的領(lǐng)軍人士都開始表達對于人工智能技術(shù)的擔憂,6Matthew U. Scherer,“Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies”,Harvard Journal of Law & Technology ,Vol.29,(2016),p.355.一些行業(yè)協(xié)會、產(chǎn)業(yè)組織也對倫理和安全高度重視。例如,美國電子和電子工程師協(xié)會(IEEE)設(shè)立了自主與智能系統(tǒng)倫理全球倡議項目,連續(xù)兩年發(fā)布了《人工智能設(shè)計的倫理準則》白皮書;7https://ethicsinaction.ieee.org/,2018年3月1日訪問。美國計算機協(xié)會下屬美國公共政策委員會也在2017年年初發(fā)布了《算法透明性和可問責性聲明》,提出了七項基本原則;8https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf,2018年3月1日訪問。等等。在上文所述國務(wù)院《新一代人工智能發(fā)展規(guī)劃》中提出要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架”,包括:(1)制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ);(2)民事與刑事責任確認;(3)建立追溯和問責制度;(4)加強對人工智能潛在危害與收益的評估;等等。9國務(wù)院《新一代人工智能發(fā)展規(guī)劃》指出,要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。開展與人工智能應(yīng)用相關(guān)的民事與刑事責任確認、隱私和產(chǎn)權(quán)保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責任等。重點圍繞自動駕駛、服務(wù)機器人等應(yīng)用基礎(chǔ)較好的細分領(lǐng)域,加快研究制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ)。開展人工智能行為科學和倫理等問題研究,建立倫理道德多層次判斷結(jié)構(gòu)及人機協(xié)作的倫理框架。制定人工智能產(chǎn)品研發(fā)設(shè)計人員的道德規(guī)范和行為守則,加強對人工智能潛在危害與收益的評估,構(gòu)建人工智能復雜場景下突發(fā)事件的解決方案。積極參與人工智能全球治理,加強機器人異化和安全監(jiān)管等人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應(yīng)對全球性挑戰(zhàn)。”中國電子標準化研究院在國家標準化管理委員會工業(yè)二部的指導下,組織編寫并發(fā)布了中國《人工智能標準化白皮書》(2018年版),10《人工智能標準化白皮書》(2018年版),載http://www.cesi.ac.cn/201801/3545.html, 2018年3月1日訪問。其中包含了“人工智能的安全、倫理和隱私問題”部分,體現(xiàn)了關(guān)于人工智能的倫理和法律規(guī)制的考慮。
盡管已產(chǎn)生諸多倡議,但在相關(guān)政策法規(guī)還不明晰的同時,人工智能技術(shù)在社會中已逐漸開始得到應(yīng)用,對人們的生活產(chǎn)生著日益明晰的影響。一方面,人工智能算法日益廣泛地滲透到用戶畫像、事件抓取與畫像、信息精準推送、征信、數(shù)字化文學藝術(shù)作品生產(chǎn)等應(yīng)用領(lǐng)域,直接影響著人們在線上網(wǎng)絡(luò)空間的生活,并間接與處于線下物理世界的我們發(fā)生聯(lián)系。另一方面,與機械裝置的控制相結(jié)合、直接作用于物理世界的人工智能的應(yīng)用也已展開。例如,在自動駕駛領(lǐng)域,我國北京、上海、重慶等城市已經(jīng)出臺試行政策,支持自動駕駛汽車測試。11例如,2017年12月,北京市交通委員會、北京市公安局公安交通管理局和北京市經(jīng)濟和信息化委員會發(fā)布了《北京市關(guān)于加快推進自動駕駛車輛道路測試有關(guān)工作的指導意見(試行)》和《北京市自動駕駛車輛道路測試管理實施細則(試行)》。諸多機構(gòu)預測,在不遠的將來,人工智能在醫(yī)療、交通、金融服務(wù)、媒體、廣告、零售、制造、教育等領(lǐng)域的應(yīng)用將日益普及。12See Mckinsey Global Institute,“Artificial Intelligence: the Next Digital Frontier?”,June 2017, https://www.mckinsey.com/~/media/McKinsey/Industries/Advanced%20Electronics/Our%20Insights/How%20artificial%20intelligence%20 can%20deliver%20real%20value%20to%20companies/MGI-Artificial-Intelligence-Discussion-paper.ashx, PWC, “2018 AI Predictions”, https://www.pwc.com/us/en/advisory-services/publications/artificial-intelligence-predictions.html,accessed on March 8, 2018.而當前也已經(jīng)出現(xiàn)了自動駕駛汽車的交通事故、司法定罪量刑中的算法歧視與不透明性、電子商務(wù)中“算法殺熟”、人臉識別與隱私憂患等一系列具體問題。人工智能的法律規(guī)制需求已近在眼前。
當前我國法律制度的發(fā)展完善面臨著一項急迫的任務(wù):面對人工智能這樣一項正處在飛速發(fā)展階段的復雜技術(shù),如何更好地構(gòu)建法律制度,以在推動人工智能技術(shù)創(chuàng)新發(fā)展的同時,能夠良好應(yīng)對人工智能技術(shù)可能帶來的倫理挑戰(zhàn)和社會風險問題。技術(shù)創(chuàng)新一方面充滿著不確定性,可能給社會帶來新的風險;另一方面技術(shù)創(chuàng)新又為社會發(fā)展、人類福祉的提升帶來新的機遇,并且需要一定發(fā)展空間以使其逐步完善。然而,目前支撐這一領(lǐng)域法治建設(shè)的法學理論和實踐經(jīng)驗都并不充分,有待法律界積極探索。正如曼尼(Geoffrey A.Manne)等所指出的,“關(guān)于創(chuàng)新、競爭和監(jiān)管政策之間的關(guān)系,已知與未知之間的比例驚人地低”。13Geoffrey A. Manne, Joshua D. Wright, eds., Regulating Innovation: Competition Policy and Patent Law under Uncertainty,Cambridge U. Press, 2009, p.4.本文旨在研究如何為安全可信的人工智能技術(shù)創(chuàng)新構(gòu)建良好的法律環(huán)境,分析典型法律制度對科技創(chuàng)新的激勵與規(guī)制特點,探討當前人工智能技術(shù)發(fā)展特點與法律規(guī)制,為相關(guān)法律制度基本框架的構(gòu)建提出一些初步建議。
科技界時常有一些“顛覆性創(chuàng)新”,然而對于法律這項人類的古老發(fā)明,基于對法的穩(wěn)定性的追求,人們在面對新問題構(gòu)建法律時,往往傾向于更多地在已有的概念、原則、制度的基礎(chǔ)上進行發(fā)展,以滿足對體系穩(wěn)定性的需要。因此,在具體探討激勵和規(guī)制人工智能創(chuàng)新發(fā)展的法律制度之時,必須借鑒法律對科技創(chuàng)新的激勵與規(guī)制。
在整個人類歷史長河中,人類科技的創(chuàng)新發(fā)展曾經(jīng)非常緩慢,直到近幾百年才發(fā)展日益迅速,而在近幾十年中則以指數(shù)級增長的速度發(fā)展。一種得到眾多支持的假說認為,如果某一領(lǐng)域的發(fā)明進展非常緩慢,最有可能的原因是支撐相應(yīng)研究的社會制度匱乏。有研究指出,在公元前2600多年的古埃及時代,伊姆賀特普(Imhotep)等一些“政府雇員”們解決了金字塔建造中遇到的很多技術(shù)難題,用現(xiàn)在的術(shù)語講,這些成就歸功于政府在研發(fā)領(lǐng)域里的直接采購。而在更廣闊的民用領(lǐng)域則缺少“政府采購”,也鮮有如此令人矚目的發(fā)明。在公元前600—公元前300年的古希臘時代,除政府在研發(fā)領(lǐng)域的直接采購外,促進研究和探索的制度還包括了給予研究者高度的尊敬和聲望、以教師為中心來組織學校等。這種制度對發(fā)明的激勵來源于政府的需要和研究者的興趣。14參見[美]蘇珊娜·斯科奇姆:《創(chuàng)新與激勵》,劉勇譯,格致出版社、上海人民出版社2010年版,第4—27頁。實際上,在人類社會發(fā)展的相當長的時間中,法律并不主動地深度介入技術(shù)創(chuàng)新領(lǐng)域。直到1474年威尼斯元老院專利法案的誕生15歐洲最早的“專利制度”與現(xiàn)代專利法在目的和具體制度上均有很大差異。在早期歐洲,采礦、伐木、河運等行業(yè)常由政府直接控制,政府則許可某些商人在一定時期或區(qū)域獨占經(jīng)營的權(quán)利,從而限制競爭,實現(xiàn)商人和政府的雙贏。1474年威尼斯元老院專利法案則不同,該法案規(guī)定:“吾人中有稟賦卓群者,擅長發(fā)明或發(fā)現(xiàn)各種精巧裝置;同時,本市乃禮儀富貴之邦,世界各地的才人智士也爭相而至。若法律規(guī)定知悉此種裝置者不得為模仿制造而損及發(fā)明人的聲譽,則將有更多人等積極發(fā)揮聰明才智,發(fā)現(xiàn)并制造各種實用器物,從而增進公共福祉。因此經(jīng)議會決定,本法作出如下規(guī)定:任何人在本城制造本城邦內(nèi)先前未曾有人制造的、新穎且精巧的、經(jīng)改進完善即可使用和操作的機械裝置,應(yīng)向本城行政部門登記,以使該發(fā)明得以應(yīng)用。未經(jīng)發(fā)明人同意,本城其他人在10年內(nèi)不得制造與該裝置相同或者相似的產(chǎn)品;若有仿造者,發(fā)明人可向本城執(zhí)行官告發(fā),執(zhí)行官可令侵權(quán)者賠償100枚金幣,并處銷毀侵權(quán)裝置?!?,以促進技術(shù)創(chuàng)新和應(yīng)用為宗旨的現(xiàn)代專利制度才初步形成。專利、獎賞、贊助等制度成為了現(xiàn)代歐洲社會激勵科學發(fā)展和技術(shù)創(chuàng)新的重要工具,互相配合,互為補充。與政府采購、獎賞等制度不同,現(xiàn)代專利制度實際是由市場決定一項技術(shù)能夠給發(fā)明人帶來的經(jīng)濟回報,而并非依賴少數(shù)主體來決定資金的分配。因而專利制度為真正滿足市場中人們需求的那些發(fā)明創(chuàng)造提供了激勵。
現(xiàn)代專利法在激勵技術(shù)創(chuàng)新方面具有如下幾方面的特點:
(1)總體上而言,專利制度一般并不主動限制技術(shù)創(chuàng)新發(fā)展方向,對于不能獲得專利保護的技術(shù)領(lǐng)域僅有非常有限的限制。16我國現(xiàn)行《專利法》第5條規(guī)定,對違反法律、社會公德或者妨害公共利益的發(fā)明創(chuàng)造,不授予專利權(quán)。第25條規(guī)定了對科學發(fā)現(xiàn)、智力活動的規(guī)則和方法、疾病的診斷和治療方法、動物和植物品種、用原子核變換方法獲得的物質(zhì)和對平面印刷品的圖案、色彩或者二者的結(jié)合作出的主要起標識作用的設(shè)計不授予專利權(quán)。
(2)專利制度不主動引導技術(shù)創(chuàng)新發(fā)展的具體方向,但由于專利制度并不直接獎勵創(chuàng)新,而是通過市場產(chǎn)生作用,因此,專利制度所真正激勵的創(chuàng)新,是有望在市場上獲得廣泛應(yīng)用的技術(shù)。
不同于獎賞、贊助等直接提供經(jīng)濟回報或支持的促進技術(shù)創(chuàng)新方式,專利制度不但沒有直接給予發(fā)明人經(jīng)濟收益,還要求發(fā)明人在申請時繳納申請費,并在授權(quán)后在希望保持專利有效的時間內(nèi)繳納年費,且專利年費一般隨著時間的推移而階梯性升高,以此來敦促那些已經(jīng)基本明確無法給權(quán)利人帶來收益的專利技術(shù)盡快進入公有領(lǐng)域。因此,在單純的專利制度下,如果一項專利技術(shù)完全沒有市場應(yīng)用需求和前景,擁有該專利并不能給專利權(quán)人帶來實際的經(jīng)濟收益,相反,還由于需要交納年費而徒增成本。當然,有的時期會存在一些特定的政策,給單純的專利制度加上一些市場之外的激勵。例如,個人可能憑借專利獲得某類評價上的優(yōu)勢,企業(yè)可能享受地方政府的專利申請費補貼或憑借專利享有減免稅收等優(yōu)惠,但這些并非專利制度本身之意,關(guān)于這些政策對于專利制度的利弊也有很多討論。因此,在不考慮其他特殊政策的單純專利制度下,只有對在市場上能夠被使用的發(fā)明創(chuàng)造,17這里所說的使用未必是企業(yè)自身真正使用了該技術(shù)。企業(yè)對于一項在市場中可能應(yīng)用的技術(shù)申請專利可能有多種目的,例如,可能用于提高他人進入市場的成本,或是用于防御,保障自己能夠進入相應(yīng)市場領(lǐng)域,等等。企業(yè)獲得相關(guān)專利權(quán)才能使企業(yè)在市場競爭中獲得更加優(yōu)勢的地位有積極意義。這種制度設(shè)計實際上使專利與市場需求建立起了密切聯(lián)系。在一定意義上,專利制度建立了一種由市場需求引導技術(shù)創(chuàng)新發(fā)展方向的法律支持。這一方面有利于使技術(shù)創(chuàng)新更切合市場需求,另一方面實際上也對專利制度能夠激勵的技術(shù)創(chuàng)新領(lǐng)域產(chǎn)生了限制。
(3)專利制度與促進技術(shù)創(chuàng)新發(fā)展的關(guān)系仍有許多質(zhì)疑。例如,1958年,美國經(jīng)濟學者弗里茨·馬克盧普(Fritz Machlup)在向美國國會提交的一份關(guān)于專利的研究報告中提出:“如果我們沒有專利制度,在對專利制度經(jīng)濟后果現(xiàn)有了解的基礎(chǔ)上,建議建立專利制度將是不負責任的;但是我們既然已經(jīng)在很長時間內(nèi)實施了專利制度,在現(xiàn)有了解的基礎(chǔ)上建議廢除專利制度也是不負責任的?!?8Fritz Machlup, An Economic Review of the Patent System, Study of the Subcommittee on Patents, Trademarks, and Copyrights of the Committee on the Judiciary, 85th Congress, 2nd Session, Government Priting Office, 1958, p.80.
(4)專利制度在軟件和商業(yè)方法的授權(quán)條件方面仍有較大的爭議。對于人工智能技術(shù)而言,很多創(chuàng)新將涉及軟件和商業(yè)方法。如何設(shè)置授權(quán)條件以符合人工智能的創(chuàng)新激勵需求,仍值得進一步觀察和論證。
除專利法外,我國《科學技術(shù)進步法》從其他方面原則性地規(guī)定了一些科技創(chuàng)新激勵制度,主要包括:國家建立科學技術(shù)獎勵制度,對在科學技術(shù)進步活動中做出重要貢獻的組織和個人給予獎勵;設(shè)立自然科學基金等基金,資助科研;稅收優(yōu)惠政策;鼓勵和引導金融機構(gòu)在信貸等方面支持科學技術(shù)應(yīng)用和高新技術(shù)產(chǎn)業(yè)發(fā)展,鼓勵保險機構(gòu)根據(jù)高新技術(shù)產(chǎn)業(yè)發(fā)展的需要開發(fā)保險品種;政府采購的優(yōu)先考慮;鼓勵企業(yè)設(shè)置內(nèi)部科學技術(shù)研究開發(fā)機構(gòu)和依法設(shè)置博士后流動站;明確關(guān)于國家資助科研項目的知識產(chǎn)權(quán)歸屬;等等。
自19世紀末20世紀初開始,人們發(fā)現(xiàn)一些新興科學技術(shù)的發(fā)展可能挑戰(zhàn)人類的倫理道德,或可能帶來公共風險,因而開始相對比較積極地通過法律對一些特定領(lǐng)域的科技研發(fā)和應(yīng)用進行規(guī)制。
在對人類傳統(tǒng)倫理道德的挑戰(zhàn)方面,人類胚胎干細胞的研究是一個典型實例。胚胎干細胞是指一類起源于胚胎,處于未分化狀態(tài),可以長期自我分化和自我更新,具有在一定條件下分化形成各種組織細胞潛能的細胞。19參見陸士新主編:《干細胞與腫瘤》,中國協(xié)和醫(yī)科大學出版社2009年版,第3頁。胚胎干細胞可能發(fā)育成人類的各種組織或器官,可能用于攻克很多原本難于醫(yī)治的疾病,具有非常重要的科研和醫(yī)學應(yīng)用價值。然而,人類胚胎干細胞的研究涉及比較激烈的倫理爭議。一方面,在提取人類胚胎干細胞時很有可能會使胚胎受到破壞甚至摧毀,而該胚胎是本可能發(fā)育成人的,因此涉嫌殺害人類生命。另一方面,很多人士擔心人類胚胎干細胞的研究可能會導致完整的克隆人,即實質(zhì)進行不同于“治療性克隆”的“生殖性克隆”,這對人類尊嚴和倫理維系都帶來挑戰(zhàn)。因此,英國、美國、澳大利亞等許多國家都出臺法律,對人類胚胎干細胞的研究予以管制。我國科學技術(shù)部、衛(wèi)生部也聯(lián)合下發(fā)了《人胚胎干細胞研究倫理指導原則》,20一些學者認為該規(guī)范缺少對進一步操作的規(guī)范細則,參見杜珍媛:《人類胚胎干細胞研究的倫理準則與法律監(jiān)管政策研究》,載《科技管理研究》2011年第17期。并在衛(wèi)生部發(fā)布的《醫(yī)療技術(shù)臨床應(yīng)用管理辦法》《人類輔助生殖技術(shù)規(guī)范》中也進行了相關(guān)規(guī)制。21衛(wèi)生部《醫(yī)療技術(shù)臨床應(yīng)用管理辦法》第58條規(guī)定,異種干細胞治療技術(shù)、異種基因治療技術(shù)、人類體細胞克隆技術(shù)等醫(yī)療技術(shù)暫不得應(yīng)用于臨床。衛(wèi)生部《人類輔助生殖技術(shù)規(guī)范》第三部分“實施技術(shù)人員的行為準則”第15項規(guī)定:禁止克隆人。同時,許多國家還進一步規(guī)定不對胚胎干細胞相關(guān)的技術(shù)方案授予專利。例如,我國現(xiàn)行《專利法》第5條中規(guī)定,對違反法律、社會公德或者妨害公共利益的發(fā)明創(chuàng)造,不授予專利權(quán)。在國家知識產(chǎn)權(quán)局發(fā)布的《專利審查指南》中規(guī)定,人類胚胎干細胞及其制備方法,均屬于《專利法》第5條第1款規(guī)定的不能被授予專利權(quán)的發(fā)明。由此可見,整體上而言,對于人類胚胎干細胞研究這類引起了重大倫理爭議的技術(shù),法律中傾向于采取比較嚴格的管制,并且拒絕予以激勵。
在風險方面,自工業(yè)化以來,現(xiàn)代科技和大規(guī)模生產(chǎn)所帶來的風險與日俱增。正如德國學者烏爾里?!へ惪耍║lrich Beck)所述,現(xiàn)代社會中的公眾可以切實感受到人類社會已經(jīng)進入“風險社會”階段。22參見[德]烏爾里?!へ惪耍骸讹L險社會》,何博聞譯,譯林出版社2004 年版。美國學者彼得·休伯(Peter Huber)則進一步將風險區(qū)分為“私人風險”(private risk)和“公共風險”(public risk)。公共風險這一概念用來指代那些集中或大規(guī)模生產(chǎn)的、廣泛傳播的,且在很大程度上超出了個體風險承擔者直接理解和控制的給人的健康或安全帶來的威脅。23Peter Huber,“Safety and the Second Best: The Hazards of Public Risk Management in the Courts”, Columbia Law Review,Vol. 85, No. 2 (Mar., 1985), pp. 277-337.一般認為,絕大部分的公共風險具有兩面性。例如,疫苗往往不會是100%的滅活,總會讓一些人患病;但整體而言,卻增進了公共健康。再如,可以想見,自動駕駛技術(shù)并不能完全避免交通事故的發(fā)生,總難免會有人因自動駕駛而遭受損傷,但也有許多人士預測,發(fā)展成熟后自動駕駛的普及除了可以為人們增加便利之外,也將可能從整體上大大降低交通事故發(fā)生的概率。
在風險治理方面,一般存在市場和政府兩種手段,對應(yīng)到法律制度層面,則主要有侵權(quán)法和政府規(guī)制兩種進路。24參見傅蔚岡:《對公共風險的政府規(guī)制——闡釋與評述》,載《環(huán)球法律評論》2012年第2期。侵權(quán)法是一種間接的規(guī)制模式,主要通過承擔侵權(quán)責任的威懾來影響未來的行為,促使相應(yīng)的主體提高注意程度,進而減少風險。政府規(guī)制則是政府通過設(shè)定相關(guān)行為的準入門檻、行為標準、要求強制披露風險活動的信息等方式來達到減少風險的目的。兩項路徑比較而言,侵權(quán)法依賴于事先固定的法律以及在事后對引起損害的事實的認定,更多地關(guān)注于個案,能夠通過雙方當事人及律師的對抗獲得個案更全面的信息,其實際對人們行為的影響力依賴于被侵權(quán)者對于他人過錯或產(chǎn)品缺陷責任等的證明能力。25參見司曉、曹建峰:《論人工智能的民事責任: 以自動駕駛汽車和智能機器人為切入點》,載《法律科學》2017年第5期。政府機構(gòu)則更便利組織跨學科專家團隊,對一個領(lǐng)域進行長期跟蹤和定期考察,滿足監(jiān)管所需的技術(shù)性、事實性判斷,通過設(shè)置產(chǎn)業(yè)標準等途徑影響科技企業(yè)的行為和技術(shù)產(chǎn)品的特性,并通過發(fā)布標準、進行公共宣傳,收集和傳播風險信息等途徑,使公眾更容易推斷一類產(chǎn)品的相對安全性。
綜上,對于新興技術(shù)的創(chuàng)新發(fā)展,專利制度針對市場競爭環(huán)境提供了本身不加過多選擇的“中立的”研發(fā)激勵,市場需求實際在很大程度上決定了技術(shù)創(chuàng)新發(fā)展方向,而針對倫理道德和風險治理需求的法律規(guī)制則對市場和行為進行了干預,引導技術(shù)創(chuàng)新向更加符合人類福祉的方向發(fā)展。由于規(guī)制在很大程度上影響了市場,在一定意義上,規(guī)制的導向也間接指導了專利制度能夠激勵的創(chuàng)新方向。在針對新技術(shù)發(fā)展構(gòu)建創(chuàng)新友好型法律環(huán)境時,應(yīng)該結(jié)合專利激勵與法律規(guī)制來綜合分析考量。
盡管人工智能的法律規(guī)制還是一個相對較新的話題,但已有許多學者和實務(wù)界人士從法律規(guī)制的視角下從許多不同方面分析總結(jié)了人工智能的主要特點。例如,馬修·謝勒(Matthew U.Scherer)提出了人工智能如下方面的特征使其在法律規(guī)制上較為困難:(1)自主性、預見性和因果關(guān)系方面;(2)控制方面;(3)研究和開發(fā)方面:謹慎程度低、分散開發(fā)、應(yīng)用大量構(gòu)架組裝和不透明性。再如,美國學者瑞安·卡曼(Ryan Calo)在對人工智能的一個領(lǐng)域——機器人法——進行研究時指出,機器人與互聯(lián)網(wǎng)相比具有不同的基本特質(zhì),因此會引發(fā)不同的法律問題,這些特質(zhì)包括:機器人第一次將基于多維、多來源數(shù)據(jù)的算法與對人身造成傷害的能力結(jié)合起來;機器人系統(tǒng)以不可預知的方式完成任務(wù);機器人越來越模糊人與工具之間的界限;等等。26Ryan Calo, “Robotics and the Lessons of Cyberlaw”, http://www.californialawreview.org/wp-content/uploads/2015/07/Calo_Robots-Cyberlaw.pdf,accessed on February 16, 2018.而杰克·巴爾金(Jack M. Balkin)教授則認為,由于技術(shù)在社會生活中的應(yīng)用不斷發(fā)展,而且人們不斷尋找新的方式來善用或不善用技術(shù),所以在特定的時刻凍結(jié)某些使用特征并將其標記為“必要的”可能是無益的。27Jack M. Balkin, “The Path of Robotics Law”, http://scholarship.law.berkeley.edu/cgi/viewcontent.cgi?article=1071&cont ext=clrcircuit,accessed on February 2, 2018.
上述總結(jié)都是從侵權(quán)法和政府規(guī)制角度減少和合理分配人工智能技術(shù)風險的重要視角。本文在此無意再從上述角度進行全面分析,而是希望從對傳統(tǒng)工程技術(shù)和信息技術(shù)產(chǎn)業(yè)實踐的觀察出發(fā),說明即使是存在專利制度激勵、國家獎勵的前提下,產(chǎn)業(yè)界仍然缺少足夠的動力來加強在產(chǎn)品安全性、正確性方面的創(chuàng)新技術(shù)的研發(fā)和應(yīng)用。然而對于以深度學習為代表的新一代人工智能技術(shù)而言,其安全性、可解釋性方面的技術(shù)創(chuàng)新發(fā)展還遠遠不夠,其應(yīng)用的普及性、傳播的迅速性、更加突出的不可解釋性和不可控性等,都使我們有必要通過更多的途徑來促進人工智能安全性、可解釋性方面的研發(fā)。
在2017年的人工智能重量級會議神經(jīng)信息處理系統(tǒng)進展大會(NIPS)上,阿里·拉希米(Ali Rahimi)將人工智能中的機器學習技術(shù)比作煉金術(shù)。28演講視頻參見https://www.youtube.com/watch?v=Qi1Yry33TQE。著名深度學習專家揚·勒丘思(Yann LeCun)在此后迅速做出回應(yīng),表示我們需要更好地理解我們所用的方法,但正確的態(tài)度應(yīng)該是嘗試去解決問題。具體參見https://www.facebook.com/yann.lecun/posts/10154938130592143。后續(xù)相關(guān)文獻可參閱Ali Rahimi and Ben Recht, “An Addendum to Alchemy”, http://www.argmin.net/2017/12/11/alchemy-addendum/,accessed on February 16, 2018。他指出,人工智能技術(shù)就好像當年的煉金術(shù)一樣“管用”。煉金術(shù)帶來了冶金、紡織、玻璃、醫(yī)療等領(lǐng)域的大量發(fā)明和技術(shù)進展,但同時煉金術(shù)也有一些謬誤存在,例如相信可以點石成金。從過去的煉金術(shù)到現(xiàn)代物理和化學,科學家們花費了2000年的時間。對于某些并不是那么關(guān)鍵的領(lǐng)域,采用單純的技術(shù)可以解決問題,例如使用煉金術(shù)來提煉純度更高的物質(zhì),或者使用機器學習來識別車牌號碼。但如果是關(guān)鍵場景,則需要我們更加謹慎,如期望用機器學習來影響判決、選舉等。
在工程領(lǐng)域,產(chǎn)業(yè)界常常并沒有強烈的直接動力在系統(tǒng)安全性和正確性方面做出更多投入,更常見的應(yīng)對是來源于問題發(fā)生之后的補救和分析。1849年,列隊士兵齊步通過法國曼恩河上大橋時,由于共振導致橋身斷裂,但橋梁載荷遠未超過許可范疇。塔科馬海峽大橋坍塌也是未考慮風載荷的共振而導致穩(wěn)定性不足的一個著名案例。正是類似事件,推動了相關(guān)理論的研究發(fā)展,并最終導致相關(guān)強制性標準的出臺。例如,美國AISC 360-10鋼結(jié)構(gòu)建筑規(guī)范和我國工程建設(shè)強制性標準,都指出設(shè)計師們在結(jié)構(gòu)設(shè)計時,應(yīng)根據(jù)情況對主要結(jié)構(gòu)進行動力分析,并對照動荷載頻率的統(tǒng)計進行調(diào)整來避免共振的影響。即使如此,如果要防止共振,必須要改變外部激勵頻率或者結(jié)構(gòu)固有頻率。由于外部振動激勵并不確定,而結(jié)構(gòu)的固有頻率調(diào)整也是很困難的,因此在設(shè)計中也只能有減輕振動的大體設(shè)計原則,而無法完全規(guī)避。再如,目前關(guān)于工程領(lǐng)域疲勞的計算大都是基于統(tǒng)計數(shù)據(jù),疲勞壽命以及各種導致疲勞出現(xiàn)的因素表現(xiàn)為方差極大的概率分布,這是建立有效疲勞理論的“瓶頸”。在工程實踐中即使結(jié)構(gòu)應(yīng)力遠低于疲勞極限也存在失效的可能,只是概率比較低。但即使如此,在機械和材料相關(guān)的諸多領(lǐng)域,也都確定了和疲勞測試相關(guān)的行業(yè)強制性標準。
在計算機領(lǐng)域,自從計算機問世以來,計算機系統(tǒng)的不確定性問題就一直伴隨著計算機的發(fā)展而存在。計算機軟硬件安全漏洞產(chǎn)生的根源在于系統(tǒng)驚人的復雜性,例如Linux操作系統(tǒng)內(nèi)核的規(guī)模在過去呈指數(shù)級增長,29“The Increasing Size of the Linux Kernel”, https://www.phoronix.com/scan.php?page=news_item&px=MTAxNDg,accessed on March 1, 2018.2015年6月發(fā)布的4.1版本Linux內(nèi)核代碼庫的代碼量已超過1950萬行。30GitStats - linux, https://www.phoronix.com/misc/linuxstat-june-2015/index.html,accessed on March 1, 2018.流行的Windows系統(tǒng)則超過5000萬行代碼,集成了數(shù)萬個驅(qū)動程序。31Codebases. Millions of lines of code. https://informationisbeautiful.net/visualizations/million-lines-of-code/,accessed on March 1, 2018.主流的商業(yè)操作系統(tǒng)或大型應(yīng)用系統(tǒng)都由上千萬甚至上億行代碼構(gòu)成。在計算機的核心硬件部件處理器設(shè)計中,幾十億個晶體管構(gòu)成的超大規(guī)模集成電路已經(jīng)非常常見。1994年英特爾公司的奔騰系列處理器曾被發(fā)現(xiàn)了一個浮點除法部件的錯誤,該錯誤僅會在極端的大量數(shù)學工程計算中導致錯誤結(jié)果,但英特爾公司最終為此遭受了近5億美元的損失。32Pentium FDIV bug. https://en.wikipedia.org/wiki/Pentium_FDIV_bug,accessed on March 1, 2018.正是在此之后,英特爾公司引進了劍橋大學開發(fā)的基于高階邏輯的定理證明器HOL系統(tǒng)33Interactive Theorem Prover. https://hol-theorem-prover.org/,accessed on March 1, 2018.并開發(fā)了商業(yè)化的形式化驗證系統(tǒng)FORTE,將形式化方法引入驗證流程從而改善系統(tǒng)設(shè)計的可靠性。34Roope Kaivola, Katherine R Kohatsu. “Proof engineering in the large: formal verification of Pentium4 floating- point divider”. International Journal on Software Tools for Technology Transfer. May 2003, Vol. 4, pp.323-334. https://doi.org/10.1007/s10009-002-0081-6,accessed on March 1, 2018.2018年1月報道的英特爾等公司的處理器中的“熔斷”和“幽靈”設(shè)計漏洞,對數(shù)十億顆處理器芯片造成難以消除的影響,經(jīng)濟損失難以估計。35Gibbs, Samuel, "Meltdown and Spectre: 'worst ever' CPU bugs affect virtually all computers". The Guardian. https://www.theguardian.com/technology/2018/jan/04/meltdown-spectre-worst-cpu-bugs-ever-found-affect-computers-intelprocessors-security-flaw,accessed on March 1, 2018.而在之前很長的一段時間內(nèi),首先以及主要關(guān)心系統(tǒng)安全和正確性的還是學術(shù)機構(gòu)的研究人員。過去的大量實踐情況顯示,產(chǎn)業(yè)界在系統(tǒng)行為的風險控制和產(chǎn)品性能、研發(fā)成本等方面進行權(quán)衡時,更多選擇性地忽視了前者。以“熔斷”和“幽靈”設(shè)計漏洞為例,所有應(yīng)用了分支預測和高速緩存技術(shù)的現(xiàn)代亂序超標量商業(yè)處理器幾乎都存在這兩個漏洞。即使在1995年就有研究人員對英特爾的處理器提出了風險質(zhì)疑,36O. Sibert, P. A. Porras, and R. Lindell,“The Intel 80x86 Processor Architecture: Pitfalls for Secure Systems”,In Proceedings of the 1995 IEEE Symposium on Security and Privacy,IEEE Press,1995.即使專業(yè)人員幾乎都知道被使用的計算機緩存原則上應(yīng)該被清除,37這兩個漏洞都是為了提高CPU性能而引入亂序執(zhí)行和預測執(zhí)行而產(chǎn)生的,這都可能導致預執(zhí)行的代碼被放入緩存,這些被使用的緩存原則上應(yīng)該被清除,但也許是緩存策略設(shè)計上出現(xiàn)了錯誤,也許是處理器設(shè)計者在權(quán)衡緩存信息安全和性能、功耗等因素上出現(xiàn)了失誤,最終處理器緩存中的信息并沒有被及時正確地清除,這使旁路攻擊可以讀取緩存,導致關(guān)鍵信息泄露。該漏洞一直到2018年才被公諸于世,并一直存在于包括英特爾、IBM、ARM等重量級公司的芯片產(chǎn)品中。
也許是由于計算機軟件系統(tǒng)能夠通過在線更新或者補丁的方式修正錯誤,軟件廠商們甚至可能對設(shè)計本身的安全性和正確性關(guān)注得更少。例如早期的Windows操作系統(tǒng)并不提供數(shù)據(jù)執(zhí)行保護,這會使內(nèi)存數(shù)據(jù)可以當作代碼來執(zhí)行。2003年,一款名為“沖擊波”的病毒38Blaster (computer worm). https://en.wikipedia.org/wiki/Blaster_(computer_worm),accessed on March 1, 2018.沖擊波病毒利用了2003年7月21日公布的一個windows遠程過程調(diào)用(RPC)漏洞進行傳播,造成了數(shù)十億美元的經(jīng)濟損失。掃蕩全球之后,微軟將其Windows XP升級為第二版服務(wù)包(SP2)時,才加入了數(shù)據(jù)執(zhí)行保護,避免在數(shù)據(jù)區(qū)域執(zhí)行代碼。由于軟件在系統(tǒng)的重要性越來越重要,其可信性問題也日益突出,這里所說的可信性,通常指在特定環(huán)境下其運行行為及其結(jié)果符合人們預期,并在受到干擾時仍能提供連續(xù)有效的服務(wù)。39劉克、單志廣、王戟等:《“可信軟件基礎(chǔ)研究”重大研究計劃綜述》,載《中國科學基金》2008年第3期。在過去的研究中,為獲得令人滿意的軟件可信性,形式化方法和工程化方法雖然取得了很大的進展,但在實際應(yīng)用中,相關(guān)的可信性軟件構(gòu)造、評測和確保等技術(shù)工作仍然嚴重滯后。此外,軟件的運行環(huán)境和開發(fā)環(huán)境已經(jīng)從傳統(tǒng)的封閉靜態(tài)環(huán)境延伸到了開放動態(tài)的分布式與網(wǎng)絡(luò)環(huán)境,其中計算實體的行為存在不可控性和不確定性, 這既對傳統(tǒng)的軟件開發(fā)方法和技術(shù)提出了挑戰(zhàn),更對運行時刻的可信保障提出了嚴峻的挑戰(zhàn)。40沈昌祥、張煥國、王懷民、王戟、趙波、嚴飛、余發(fā)江、張立強、徐明迪:《可信計算的研究與發(fā)展》,載《中國科學:信息科學》2010年第2期。
實際上,如何保證系統(tǒng)的可信性并給予恰當?shù)脑u價也是非常困難的。2005年, 美國科學院組織了專家小組對此進行了研究,咨詢報告建議用更好的證據(jù)來評估改進可信性的方法,軟件可信性問題的關(guān)鍵是證據(jù)的構(gòu)造與評價等,可通過收集足夠的證據(jù)來支持軟件的可信性認證。41National Research Council. 2007,Software for Dependable Systems: Sufficient Evidence, The National Academies Press,https://doi.org/10.17226/11923.這些結(jié)論和建議可能也適用于人工智能系統(tǒng),我們可能需要圍繞可信性目標,建立證據(jù)以及論證證據(jù)說明目標是否符合預期。
從系統(tǒng)復雜性來看,人工智能特別是深度學習技術(shù)的處境可能會和建筑、機械等工程領(lǐng)域的發(fā)展存在相似之處。目前的人工智能,特別是其中有關(guān)深度學習技術(shù)的理論亟待獲得突破。但實際上由于復雜系統(tǒng)中的高維度、非線性、隨機性以及大量反饋環(huán)節(jié)的存在,使理解和解釋復雜系統(tǒng)從來都是極其困難的。在具體的應(yīng)用場景上,由于梯度下降方向的選擇等問題,以機器學習為代表的人工智能技術(shù)并不穩(wěn)定。很多時候我們會把脆弱的技術(shù)用在了我們并未完全理解的場景上。而深度學習則為復雜系統(tǒng)的神秘性增加了更多的不可知因素。
人工智能技術(shù)領(lǐng)域的應(yīng)用范圍相比傳統(tǒng)工程技術(shù)可能更為廣泛,在廣度和深度上都可能更具影響力。對共振的不理解可能導致橋梁坍塌,對疲勞理論的不理解可能導致飛機墜毀,這些事件的發(fā)生固然重大,但就事件本身而言不具有傳播性,在概率上也不具普遍性。但廣泛基于計算機技術(shù)的人工智能系統(tǒng),一旦在關(guān)鍵應(yīng)用場景出現(xiàn)嚴重錯誤,則有可能在極短時間內(nèi)在極廣泛范圍內(nèi)造成災(zāi)難性影響。此外,人工智能技術(shù)的發(fā)展速度明顯更快,隨著計算能力和數(shù)據(jù)規(guī)模的大幅度增強,深度學習技術(shù)近十年來獲得了令人難以置信的發(fā)展。指數(shù)級的發(fā)展速度使未來難以預測,這也使我們有必要以更加審慎的態(tài)度對待人工智能相關(guān)技術(shù)的發(fā)展。
盡管有國家獎勵、專利制度等激勵,信息行業(yè)在安全性、正確性方面的創(chuàng)新投入遠遠不足。這在一定意義上提示我們,如果想更大力度地促進安全性方面的研究投入,可能有必要結(jié)合侵權(quán)責任制度和政府監(jiān)管來進行探索。在當前全球范圍內(nèi)人工智能發(fā)展應(yīng)用勢不可當?shù)那疤嵯?,?yīng)該看到當前人工智能技術(shù)迅猛發(fā)展的趨勢和潛在的社會影響,同時看到人工智能技術(shù)在當前安全性、可解釋性等方面技術(shù)創(chuàng)新的相對滯后,吸取之前軟件產(chǎn)業(yè)正確性驗證等方面發(fā)展相對落后的經(jīng)驗教訓,構(gòu)建可以更好地促進可信人工智能創(chuàng)新發(fā)展的法制環(huán)境。
一方面,人工智能技術(shù)正處于高速發(fā)展時期,缺少確定性,也需要一定發(fā)展空間來逐步完善;另一方面,當前人工智能技術(shù)在很多領(lǐng)域取得突出進展的同時,在安全性、可解釋性等方面的發(fā)展卻相對滯后。這些都是人工智能技術(shù)發(fā)展的特點,在法律制度構(gòu)建中需要予以考察。專利制度、侵權(quán)責任制度和政府機構(gòu)管制均對技術(shù)創(chuàng)新有一定的影響,而不同法律制度具有不同的特點和具體目的??梢詮纳鲜鋈齻€方面的結(jié)合來考慮,如何在保有一定人工智能技術(shù)創(chuàng)新發(fā)展空間的同時,通過法律制度保障其合倫理性、控制和減少風險,并促進對人工智能安全性、可解釋性領(lǐng)域的研發(fā)投入。
正如本文在第二部分中所述,那些不會在產(chǎn)業(yè)上加以利用的專利技術(shù),無法從市場上給發(fā)明人帶來收益,由此專利制度將難以激勵人們加大對這類技術(shù)創(chuàng)新的研發(fā)。而產(chǎn)業(yè)上是否會采用某些技術(shù),與法律對相關(guān)風險承擔的分配有密切關(guān)系。目前主流人工智能技術(shù)在安全性、可解釋性方面還沒有得到充分發(fā)展和廣泛的研發(fā)投入。此時,一方面,如果法律簡單地規(guī)定人工智能產(chǎn)品提供者在產(chǎn)品致人損害時的歸責原則為嚴格責任原則,或者在政府監(jiān)管時忽視了相關(guān)技術(shù)尚不成熟且正飛速發(fā)展的實際情況,創(chuàng)設(shè)過高或者過于單一的準入門檻,則有可能導致人工智能企業(yè)的大幅度減少,進而亦不能保障足夠的主體參與安全、可解釋人工智能技術(shù)的創(chuàng)新。另一方面,如果法律一直設(shè)置較低的準入門檻,也不規(guī)定相關(guān)責任,則可能致使企業(yè)沒有動力去應(yīng)用新的安全和可解釋性方面的技術(shù)。這其中的界限應(yīng)劃分在哪里,需要跨領(lǐng)域?qū)<裔槍唧w的典型應(yīng)用開展密切合作和深入考察。相關(guān)法律制度的構(gòu)建可以從以下幾方面開展:
(1)制定法律,設(shè)置人工智能產(chǎn)業(yè)發(fā)展與安全委員會,由其組織論證,將人工智能的主要應(yīng)用加以區(qū)分和考察,進行風險預評估,確定需進行特別規(guī)制考察的人工智能產(chǎn)品或服務(wù),并組建相應(yīng)的專家委員會進行標準制定或?qū)彶?、認證規(guī)則制定及法律規(guī)制構(gòu)建。
并非所有的人工智能應(yīng)用均需要特別規(guī)制。例如,有一款移動智能終端上運行的應(yīng)用程序“微軟識花”,它可以識別用戶拍攝的花朵,并自動分析輸出它判斷的結(jié)果——是哪種花和正確概率如何。這也是一款結(jié)合了智能圖像識別的人工智能產(chǎn)品,但這類程序在合理提示了自身判斷局限性的情況下,并不會不合理地致人損害或帶來公共風險。
在設(shè)置具體法律規(guī)制方面,本文認為當前重點在于建立一套結(jié)合不同法律規(guī)制及其特點的理論框架,使前述委員會可以相對容易地在進行了調(diào)研的基礎(chǔ)上構(gòu)建具體的規(guī)則。例如,可在一定程度上參考謝勒(Matthew U. Scherer)等提出的雙分支侵權(quán)體系(a bifurcated tort system),42Matthew U. Scherer,“Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies”,Harvard Journal of Law & Technology,Vol.29, (2016),p. 394.并在其基礎(chǔ)上進行擴展,對于獲得委員會認證或符合推薦性標準的產(chǎn)品,則在判斷產(chǎn)品提供者是否侵權(quán)時適用過錯責任原則;對于未獲得認證或不符合推薦性標準的產(chǎn)品,則在判斷產(chǎn)品提供者是否侵權(quán)時,適用嚴格責任原則。
(2)考察強制保險制度和賠償金制度的適用性;引導和鼓勵在人工智能領(lǐng)域中的商業(yè)保險,增強社會抵御風險的能力,使其在現(xiàn)代社會風險防范體系中更好地發(fā)揮作用。
(3)關(guān)注專利制度與標準必要專利。密切關(guān)注專利制度中軟件和商業(yè)方法相關(guān)發(fā)明創(chuàng)造可專利性的判斷標準,在可能影響到人工智能安全、可解釋性創(chuàng)新發(fā)展時組織論證。并且,在產(chǎn)業(yè)標準制定過程中,應(yīng)注重加強對促進安全、可解釋等方面的先進技術(shù)的引入。一方面將先進技術(shù)引入標準,促進相關(guān)技術(shù)的推廣應(yīng)用;另一方面通過標準必要專利的公平、合理、無歧視許可原則或其他機制,保障相應(yīng)專利的公平合理許可。
人工智能技術(shù)的發(fā)展和應(yīng)用為法學研究和法治建設(shè)提出了新的問題。對于快速發(fā)展的人工智能技術(shù),侵權(quán)責任分配以及監(jiān)管規(guī)則將對相關(guān)市場產(chǎn)生重要影響,并通過與專利制度的結(jié)合,間接引導著技術(shù)創(chuàng)新的發(fā)展方向。從一定意義上來看,責任分配和法律監(jiān)管對此類創(chuàng)新的影響比專利制度更為重要也更為基礎(chǔ),需要進行審慎論證。應(yīng)設(shè)置人工智能產(chǎn)業(yè)發(fā)展與安全委員會,針對重點應(yīng)用領(lǐng)域進行調(diào)研,并重視對于正在快速發(fā)展的人工智能技術(shù)對發(fā)展空間的需求,以及人工智能技術(shù)中安全性、可解釋性等方面發(fā)展相對滯后的現(xiàn)實,從專利制度、侵權(quán)責任制度和政府機構(gòu)管制三個方面的綜合考慮出發(fā),構(gòu)建可以更好地促進可信人工智能創(chuàng)新發(fā)展的法制環(huán)境。