范親敏,周茂雄
(1.福建省廈門市中級人民法院,福建 廈門 361012;2.福建警察學(xué)院 學(xué)報編輯部,福建 福州 350007)
隨著大數(shù)據(jù)、云計算、深度學(xué)習(xí)算法、傳感網(wǎng)、人腦芯片等技術(shù)的發(fā)展,人工智能被運用到眾多學(xué)科領(lǐng)域,推動經(jīng)濟社會從網(wǎng)絡(luò)化、數(shù)字化階段向智能化階段發(fā)展。在人工智能技術(shù)升級和產(chǎn)業(yè)市場化推動下,從早期的Puma560工業(yè)機器人、“快捷醫(yī)療參考”軟件,到Acrobot機器人、DxPlan項目,再到DaVinci手術(shù)機器人、“沃生”電腦醫(yī)生等在醫(yī)學(xué)領(lǐng)域的運用,人工智能與醫(yī)療的深度結(jié)合被視為新的風(fēng)險投資熱點和社會關(guān)注焦點。2017年,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》就發(fā)展智能醫(yī)療提出:“推廣應(yīng)用人工智能治療新模式新手段,建立快速精準(zhǔn)的智能醫(yī)療體系。探索智慧醫(yī)院建設(shè),開發(fā)人機協(xié)同的手術(shù)機器人、智能診療助手,研發(fā)柔性可穿戴、生物兼容的生理監(jiān)測系統(tǒng),研發(fā)人機協(xié)同臨床智能診療方案,實現(xiàn)智能影像識別、病理分型和智能多學(xué)科會診?!盵1]由此觀之,人工智能在醫(yī)學(xué)影像、藥物發(fā)掘、疾病分析、健康會診、臨床治療等醫(yī)學(xué)領(lǐng)域具有廣闊的發(fā)展空間。但人工智能本身所固有的“技術(shù)黑箱”和“自主學(xué)習(xí)”造成醫(yī)療人工智能在醫(yī)學(xué)臨床應(yīng)用上存在巨大風(fēng)險。例如,據(jù)報道,2007年,美國FDA就收到了來自社會的200余次投訴,指控醫(yī)療外科手術(shù)機器人導(dǎo)致病人遭受燒傷、切割傷與感染,甚至造成89例死亡事故[2]。醫(yī)療人工智能診斷失誤以及手術(shù)損害等不良事件的發(fā)生引發(fā)理論界和實務(wù)界對醫(yī)療人工智能的風(fēng)險責(zé)任規(guī)制、醫(yī)療人工智能的法律地位、醫(yī)療損害的責(zé)任承擔(dān)等法律問題展開熱議。法律在積極回應(yīng)科技發(fā)展需求的同時,也亟須應(yīng)對技術(shù)革新帶來的潛在風(fēng)險。醫(yī)療人工智能的發(fā)展不可避免地對現(xiàn)有的醫(yī)療法律秩序構(gòu)成挑戰(zhàn),形成了對醫(yī)療人工智能主體資格和法律責(zé)任的全面討論,特別是醫(yī)療人工智能造成醫(yī)療損害事件時,誰應(yīng)當(dāng)承擔(dān)責(zé)任?是醫(yī)療人工智能的生產(chǎn)者或制造者,還是醫(yī)療機構(gòu)或者醫(yī)生呢?亦或是人工智能本身能夠成為適格的責(zé)任主體?這一系列問題,均成為醫(yī)療法律責(zé)任研究關(guān)注的重點。
關(guān)于醫(yī)療法律責(zé)任,我國《侵權(quán)責(zé)任法》按照不同的致害原因和歸責(zé)原則,分成了醫(yī)療技術(shù)損害責(zé)任、醫(yī)療倫理損害責(zé)任以及醫(yī)療產(chǎn)品責(zé)任三種基本類型。從侵權(quán)責(zé)任法范疇看,醫(yī)療損害責(zé)任屬一般侵權(quán)行為,由以下要件構(gòu)成:(1)醫(yī)療機構(gòu)或醫(yī)務(wù)人員診療過程中的診療行為具有違法性;(2)患者遭受實際損害;(3)診療行為與患者損害之間具有因果關(guān)系;(4)醫(yī)療機構(gòu)及其醫(yī)務(wù)人員主觀上具有過錯[3]。隨著醫(yī)療人工智能的快速發(fā)展,不斷出現(xiàn)的智能醫(yī)療機器人等實質(zhì)性地改變了現(xiàn)有“醫(yī)務(wù)人員”的主體認(rèn)知,從而對現(xiàn)有的醫(yī)療法律責(zé)任提出了許多理論和現(xiàn)實挑戰(zhàn)。
責(zé)任主體是法律責(zé)任構(gòu)成的必備要件,在現(xiàn)行民法理論框架下,法律責(zé)任主體主要包括自然人和以自然人為集合的法人或其他組織。強調(diào)責(zé)任主體必須具備責(zé)任能力,追索其背后的理論淵源,來源于哲學(xué)上的自由意志理論。該理論強調(diào)只有具備自由意志支配能力的人才會對其自身行為負責(zé)。若其不具備自由意志,則其相應(yīng)的行為也不具備法律效果。正如日本學(xué)者北川善太郎所言:“法的人格者等于權(quán)利能力者?!盵4]《德國民法典》也規(guī)定將賦于權(quán)利能力作為是否擁有法律主體資格的制度邏輯,形成了“理性經(jīng)濟人—權(quán)利能力—法律人”的邏輯框架,無論是自然人、法人或非法人組織,其擁有法律主體資格的前提是賦予了其權(quán)利能力。具體到醫(yī)療法律責(zé)任領(lǐng)域,現(xiàn)行理論框架下的責(zé)任主體主要包括醫(yī)務(wù)人員和醫(yī)療機構(gòu)。但是,隨著人工智能技術(shù)的快速發(fā)展,智能機器人醫(yī)生等擁有越來越強大的智能,這些利用“反饋學(xué)習(xí)”機制而擁有強大學(xué)習(xí)能力和認(rèn)知能力的智能醫(yī)療機器人與人類差別甚小,特別是人工智能進入強人工智能和超人工智能階段尤為如此。那個時候出現(xiàn)的醫(yī)療人工智能,將具有主體意識和獨立的思考能力,能夠自主判斷和決策,可以與擁有生物大腦的人類相媲美,甚至更強。此時,進行醫(yī)療人工智能診斷的主體是智能醫(yī)療機器人還是人類醫(yī)生?智能醫(yī)療機器人在法律上是人還是物,其是否具有獨立的法律責(zé)任主體資格?這就成為探討醫(yī)療法律責(zé)任的元命題。關(guān)于是否賦予智能機器醫(yī)生等人工智能以“法律主體資格”,在一段時間內(nèi)引發(fā)了全球范圍內(nèi)的激烈爭論。有的學(xué)者認(rèn)為,在強人工智能背景下,人類只是扮演一名監(jiān)督者的角色,若其監(jiān)督行為不存在過錯或不當(dāng)之處,且人工智能產(chǎn)品本身也不存在缺陷,那么,應(yīng)當(dāng)賦予人工智能法律主體資格[5]。持相反觀點的學(xué)者認(rèn)為,“主-客體序格的自然法上服從規(guī)則的必須遵守,人工智能只能被定格在無法反應(yīng)與確證自我的客觀類存在物,而不能將其人格化”[6]。
過錯是法律責(zé)任的核心要素,是指行為人在實施某種侵害行為時,沒有盡到特定標(biāo)準(zhǔn)的注意義務(wù),從而造成他人損害時的一種應(yīng)受非難的主觀狀態(tài)[7],包括故意和過失兩種狀態(tài)。然而,現(xiàn)行的以人的理性和自由意志為核心的過錯歸責(zé)理論,在人工智能背景下卻備受挑戰(zhàn)。伴隨人工智能技術(shù)的不斷更新迭代,在運作過程中脫離人類的預(yù)期和控制,擁有自身思考和學(xué)習(xí)能力,成為人工智能的核心特征。而這使得以行為人主觀上“明知”或“應(yīng)知”的注意義務(wù)為前提的過錯法律責(zé)任難以適用因人工智能的使用而產(chǎn)生的侵權(quán)行為,肇因于以智能機器人為代表的人工智能是自主獨立運作,不是基于人的故意或者過失?那么,此時,是歸責(zé)于人工智能的設(shè)計者、開發(fā)者,亦或是生產(chǎn)者、使用者的責(zé)任?還是說可以直接歸責(zé)于人工智能本身呢?比如,在醫(yī)療人工智能中,一位人工智能外科醫(yī)生在執(zhí)行常規(guī)的腫瘤切除手術(shù)時,突然遇到邊上的動脈開裂,于是,智能醫(yī)生決定去修補動脈,監(jiān)督這臺手術(shù)的人類醫(yī)生同意該決定,智能醫(yī)生修補好動脈后,病人因出血太多,所以,智能醫(yī)生決定停止實施腫瘤切除手術(shù),監(jiān)督醫(yī)生表示同意。但病人不得不因此花費更多的住院治療費用以及腫瘤未能及時切除而造成的進一步病變的可能。經(jīng)事后評估,智能醫(yī)生的決定沒有任何錯誤,監(jiān)督醫(yī)生也不存在失職之處。對于因此而給患者帶來的相應(yīng)損失及新增風(fēng)險的賠償責(zé)任,應(yīng)當(dāng)由誰承擔(dān)?在人工智能是否具備獨立法律責(zé)任主體資格存有爭議的情況下,探討其是否存在過錯也就沒有客觀意義。那么,在這種情況下,醫(yī)療人工智能設(shè)計者、生產(chǎn)者、醫(yī)療機構(gòu)或者醫(yī)務(wù)人員等主體是否應(yīng)作為責(zé)任主體呢?若要追究上述主體相關(guān)責(zé)任,直接依據(jù)是《產(chǎn)品質(zhì)量法》嚴(yán)格責(zé)任歸責(zé)原則下的產(chǎn)品缺陷責(zé)任,但醫(yī)療人工智能所造成的損失既可能是由于生產(chǎn)制造過程中存在技術(shù)缺陷,也可能是由于人工智能系統(tǒng)本身基于大數(shù)據(jù)轉(zhuǎn)化和超級算法分析后獨立思考作出的決定,現(xiàn)實中對該事實認(rèn)定無法形成有效判斷。
責(zé)任認(rèn)定是一個邏輯推理過程,事實差異決定了結(jié)論不同[8]。因果關(guān)系認(rèn)定是分析損害原因與損害結(jié)果之間是否具有關(guān)聯(lián)的法律推理活動。事實的差異決定了因果關(guān)系的不同,從而決定了不同主體的責(zé)任承擔(dān)。隨著醫(yī)療人工智能的發(fā)展,以智能機器人醫(yī)生為代表的具有獨立思考決策能力的人工智能從事醫(yī)療診療活動,其所產(chǎn)生侵權(quán)后果的原因復(fù)雜多樣,有可能是制造設(shè)計中存在缺陷,也有可能是銷售使用中存在管理不當(dāng),還有可能是醫(yī)療人工智能自身所作出的判斷與決定,這就給醫(yī)療損害中的因果關(guān)系認(rèn)定帶來巨大挑戰(zhàn)。具體主要表現(xiàn)在:一方面,應(yīng)用于醫(yī)療領(lǐng)域的人工智能自身缺陷難以證明。依據(jù)《產(chǎn)品質(zhì)量法》的相關(guān)規(guī)定,生產(chǎn)者對產(chǎn)品缺陷所造成的損害承擔(dān)的是無過錯責(zé)任,而認(rèn)定產(chǎn)品缺陷的標(biāo)準(zhǔn)主要有二:一是產(chǎn)品是否存在危及人身或財產(chǎn)安全的不合理危險;二是產(chǎn)品是否符合保障人體健康、人身財產(chǎn)安全的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)。按照民事訴訟法“誰主張,誰舉證”原則,作為患者的受害人很難證明對其進行診療的醫(yī)療人工智能存在《產(chǎn)品質(zhì)量法》規(guī)定的缺陷,醫(yī)療人工智能高度自主性,導(dǎo)致侵害事實難以歸咎于設(shè)計者、生產(chǎn)者。且目前尚未制定醫(yī)療人工智能技術(shù)在保障人體健康、人身財產(chǎn)安全方面的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn),使得受害人在遭受損害后,無從援引相關(guān)標(biāo)準(zhǔn)以證明相關(guān)人工智能產(chǎn)品存在缺陷。另一方面,現(xiàn)代醫(yī)療人工智能系統(tǒng)的核心技術(shù)在于深度學(xué)習(xí)和超級算法,但深度學(xué)習(xí)在廣泛快速學(xué)習(xí)的同時,也存在“不受前提預(yù)設(shè)、經(jīng)驗法則、傳統(tǒng)智慧等因素限制”,造成智能機器人醫(yī)生的生產(chǎn)者、設(shè)計者難以預(yù)見及控制未來是否會出現(xiàn)相應(yīng)錯誤[9]。與此同時,算法本身也存在“技術(shù)黑箱”,所有的技術(shù)原理、信息、決策均在“黑箱”之中[10]。要對其中的算法模型和決策邏輯進行解釋,對于人工智能的研發(fā)人員尚且困難,更遑論法官、律師等法律工作者,這進一步加大了因果關(guān)系的認(rèn)定難度。
西方國家較早開始發(fā)展人工智能,在發(fā)展和使用的過程中也最先遇到了人工智能所造成的侵權(quán)損害責(zé)任問題,并且意識到要通過改變現(xiàn)有相關(guān)法律制度的手段來實現(xiàn)對人工智能發(fā)展進行必要的規(guī)制,以保障人類安全。
歐盟關(guān)于人工智能法律責(zé)任的研究走在世界的前列。2016年10月,歐盟議會法律事務(wù)委員會發(fā)布的《歐盟機器人民事法律規(guī)則》建議將智能機器人的設(shè)計、使用活動納入法律規(guī)范范疇,并在此基礎(chǔ)上提出了包括成立歐盟人工智能監(jiān)管機構(gòu)、確立人工智能倫理準(zhǔn)則、為智能機器人重構(gòu)責(zé)任規(guī)則、考慮賦予智能機器人“電子人”身份、明確“獨立智力創(chuàng)造”、注重隱私保護、推進標(biāo)準(zhǔn)化工作、制定特定的監(jiān)管規(guī)則、關(guān)注人工智能社會影響、加強國際合作等十大建議[11];2019年4月,歐盟先后又發(fā)布了兩份代表歐盟推動人工智能治理的最新文件,即《可信人工智能倫理指南》和《算法責(zé)任與透明治理框架》,對建立人工智能的倫理和法律框架進行具體安排??偟膩碚f,可以歸結(jié)為以下三點。
1.人工智能時代新的民事法律責(zé)任規(guī)則
在歐盟看來,以智能機器人為代表的人工智能與人類此前開發(fā)利用的機器工具是完全不同的,它們通過深度學(xué)習(xí)具備自主性和認(rèn)知特征,其行為難以為人類所預(yù)測和控制,造成傳統(tǒng)的民事法律責(zé)任規(guī)則難以適用,需要重新制定新的規(guī)制規(guī)則。歐盟認(rèn)為,這種規(guī)則應(yīng)以智能機器人為其自身行為承擔(dān)責(zé)任為出發(fā)點,通過解決人工智能的法律責(zé)任主體地位來重構(gòu)新的規(guī)則。為此,在其立法建議第50(f)項中就提出,從長遠角度考慮,有必要確立智能機器人的特殊地位,至少應(yīng)當(dāng)確保技術(shù)系統(tǒng)最復(fù)雜的智能機器人擁有“電子人”(electronic persons)的獨立地位,使其有資格擔(dān)負自身所致?lián)p害的責(zé)任,配以登記公示制度,智能機器人負責(zé)彌補自身所引起的侵害,以及它自主決定的、與第三方獨立交往的情形[12]。
2.“責(zé)任與機器人自主性成反比”規(guī)則
歐盟認(rèn)為,既然智能機器人的侵權(quán)行為造成損害后果,就應(yīng)當(dāng)追究其相應(yīng)的主體責(zé)任,以補償受害人。但責(zé)任主體所負責(zé)任范圍、大小應(yīng)與其賦予智能機器人自主性等級相統(tǒng)一,智能機器人的自主能動性與其他責(zé)任主體(除智能機器人本身外)應(yīng)負責(zé)任成反比。簡單來說,人工智能機器人自我學(xué)習(xí)和決策的能力越強,其他與人工智能技術(shù)利益相關(guān)的主體(如制造商、所有人、使用者等)所擔(dān)責(zé)任越少。人工智能機器人的培訓(xùn)者所擔(dān)責(zé)任與教育時間成正比,然而,雖然引入了“責(zé)任與人工智能機器人自主性成反比”的規(guī)則,但當(dāng)將機器人的侵害行為歸因于特定身份的時候,應(yīng)當(dāng)對受過訓(xùn)練的機器人產(chǎn)生的技能及憑其自身深度學(xué)習(xí)和自我迭代所獲得的技能加以區(qū)分,這樣才能平衡受害方與責(zé)任最終承擔(dān)者之間的利益沖突。
3.與人工智能民事法律責(zé)任規(guī)則相配套的制度
歐盟判斷,為人工智能造成的損害分配法律責(zé)任將是未來司法實務(wù)中面臨的極其復(fù)雜的問題。既然對于自主性程度高的智能機器人賦予獨立的“電子人”身份,以使其能夠成為法律責(zé)任歸責(zé)上的主體,那么,就應(yīng)當(dāng)進一步完善智能機器人獨立承擔(dān)責(zé)任的配套制度。為此,歐盟提出了許多探索性建議,比如,可以要求智能機器人相關(guān)主體為其生產(chǎn)、制造、使用的機器人承擔(dān)強制購買保險的義務(wù);可以設(shè)立賠償金制度,補充強制保險計劃;推動智能機器人的標(biāo)準(zhǔn)化工作,確保其更具安全可靠性,針對具有特定用途的機器人和人工智能出臺特定規(guī)則;可以通過強調(diào)說明義務(wù)、黑匣子記錄義務(wù)等透明性原則,方便人工智能損害責(zé)任的事實認(rèn)定等。
與歐盟相較而言,美國對人工智能侵權(quán)法律責(zé)任持相對保守態(tài)度,比如,在責(zé)任主體上,美國一些州的立法在對以自動駕駛汽車為代表的人工智能責(zé)任主體分配上,將責(zé)任分配給汽車的生產(chǎn)者、所有者或者占據(jù)所有者位置的“操作者”,在美國庭審中,對于責(zé)任的指控,更傾向于“自擔(dān)風(fēng)險”抗辯規(guī)則。美國不認(rèn)為當(dāng)前人工智能侵權(quán)的復(fù)雜程度及后果足以根本改變現(xiàn)行民事法律責(zé)任制度,按既有的產(chǎn)品質(zhì)量責(zé)任規(guī)則追究生產(chǎn)者、銷售者及使用者責(zé)任業(yè)已足夠。對于存在侵害風(fēng)險的自動駕駛汽車、電腦醫(yī)生等人工智能產(chǎn)品,可以實行召回制度,剝奪其再次開展相應(yīng)行為的資格,以避免它的人工智能系統(tǒng)再次做出侵害他人的指令[13]。同時,美國關(guān)于人工智能法律責(zé)任與歐盟也有一些共同之處,比如,對于人工智能應(yīng)當(dāng)使用差別化的歸責(zé)原則,按照嚴(yán)格責(zé)任、過錯責(zé)任分別適用于對人工智能產(chǎn)品擁有不同控制程度的相關(guān)主體;建立包括安裝黑匣子在內(nèi)的技術(shù)手段,保存人工智能產(chǎn)品在不同領(lǐng)域的“行為”信息,以作為法律責(zé)任認(rèn)定的證據(jù)參考;要求人工智能產(chǎn)品在售價中增加特定責(zé)任費用,建立政府或行業(yè)主導(dǎo)的儲備金;允許既懂得智能機器人專業(yè)技術(shù)知識,又擁有專業(yè)醫(yī)療知識的專家證人出庭發(fā)表意見,并推動相關(guān)政策標(biāo)準(zhǔn)的制定與執(zhí)行等。
綜上所述,在探索人工智能發(fā)展所帶來的法律責(zé)任承擔(dān)問題上,美國與歐盟呈現(xiàn)出相對保守與遞進發(fā)展兩種狀態(tài)。它們都從責(zé)任主體、歸責(zé)原則、責(zé)任方式、配套保護等角度,進行了許多具有現(xiàn)實應(yīng)對意義的探索。但于細微處比較,美國對人工智能的規(guī)制,更多地從現(xiàn)有法律責(zé)任制度的角度提出差別化的歸責(zé)原則,其責(zé)任主體仍舊是生產(chǎn)者、銷售者、使用者等相關(guān)主體;而歐盟則是站在社會和法律制度遞進發(fā)展角度,提議賦予人工智能獨立的主體資格,這是對現(xiàn)行法律責(zé)任制度原理的創(chuàng)新。
前文已述,醫(yī)療人工智能的興起與應(yīng)用將對現(xiàn)行的醫(yī)療損害責(zé)任制度提出現(xiàn)實挑戰(zhàn)。這些挑戰(zhàn),既可能造成接受醫(yī)療人工智能診療的患者所遭受的損害難以得到完整補償,也會給生產(chǎn)商、制造商、醫(yī)療機構(gòu)帶來責(zé)任分擔(dān)不確定,最終影響技術(shù)進步和社會發(fā)展。為了實現(xiàn)鼓勵人工智能研究發(fā)展和最大限度保護患者權(quán)益之間的平衡,筆者在綜合國外立法探索經(jīng)驗的基礎(chǔ)上,嘗試性地提出以下幾點構(gòu)建意見,以供參考。
對于醫(yī)療人工智能實施侵害的責(zé)任主體,美國、歐盟均認(rèn)為生產(chǎn)者、銷售者以及使用者應(yīng)作為相應(yīng)的責(zé)任主體,但是否將醫(yī)療人工智能視為擁有獨立人格的責(zé)任主體,卻有不同看法。歐盟認(rèn)為應(yīng)當(dāng)賦予其法律主體資格,但卻沒有進一步明確取得主體資格后的權(quán)利義務(wù)關(guān)系,也沒有設(shè)計相應(yīng)的責(zé)任承擔(dān)體系。對此,筆者認(rèn)為,在現(xiàn)階段尚不需要考慮是否應(yīng)當(dāng)賦予醫(yī)療人工智能以獨立的主體資格,一則是醫(yī)療人工智能是由人類設(shè)計與生產(chǎn)出來的,當(dāng)前階段人工智能所能完成的各項任務(wù)或采取的各種操作均取決于人類研發(fā)設(shè)計中事先制定好的代碼或程序,亦即人工智能還不具備獨立思考和獨立決策的能力,尚處在人類的掌控范圍之內(nèi),而且完全自主的醫(yī)療人工智能在短期內(nèi)尚不會出現(xiàn),因此,并不需要人工智能獨立承擔(dān)相應(yīng)的民事責(zé)任;二則若要賦予醫(yī)療人工智能以獨立的主體地位,讓其能夠獨立實施行為、承擔(dān)責(zé)任,離不開法律、政策及道德規(guī)范的體系化支持與調(diào)整,但這些目前尚都處于空白階段,在匹配的制度規(guī)范體系尚不健全的情況下,如果強行賦予人工智能獨立的法律主體資格,那么,可能會造成運作偏離合理向度下的混亂局面。況且,通過現(xiàn)行法律制度的擴展適用和法律解釋技術(shù)的成熟運用能夠有效解決現(xiàn)行面對的實際問題。
筆者認(rèn)為,對于醫(yī)療人工智能引發(fā)的法律責(zé)任承擔(dān)問題,可以綜合運用現(xiàn)有的法律責(zé)任歸責(zé)模式。首先,目前醫(yī)療人工智能通常是作為醫(yī)生“助手”的身份出現(xiàn),尚未達到具有獨立自主自由意志的智能程度,也就是說,當(dāng)前醫(yī)療人工智能更多表現(xiàn)為一種工具手段,對因其使用造成的醫(yī)療侵權(quán)責(zé)任,可適用《侵權(quán)責(zé)任法》的規(guī)定,對醫(yī)療機構(gòu)或醫(yī)務(wù)人員在人工智能使用過程中因操作或管理不當(dāng)致使患者遭受損害的,應(yīng)當(dāng)由醫(yī)療機構(gòu)承擔(dān)過錯責(zé)任。其次,現(xiàn)階段的醫(yī)療人工智能尚屬于人類研發(fā)生產(chǎn)的產(chǎn)品范疇,若因醫(yī)療人工智能自身程序瑕疵或設(shè)計缺陷導(dǎo)致的損害,應(yīng)由其設(shè)計者、生產(chǎn)者按照《產(chǎn)品質(zhì)量法》的規(guī)定承擔(dān)無過錯的產(chǎn)品瑕疵責(zé)任,并可在司法實踐中對證明責(zé)任進行傾斜分配,將人工智能是否存在缺陷、缺陷與損害事實之間因果關(guān)系等證明責(zé)任分配給設(shè)計者、生產(chǎn)者或醫(yī)療機構(gòu)承擔(dān)。最后,隨著人工智能的高度發(fā)展,可能會在超級算法和深度學(xué)習(xí)技術(shù)的深度應(yīng)用下產(chǎn)生具有獨立自主意識能力的人工智能。但這是一種伴隨技術(shù)的市場化應(yīng)用而產(chǎn)生的新生事物,市場化的運行方式要求醫(yī)療人工智能的生產(chǎn)者、制造者、使用者在享受其利益的同時也要具有風(fēng)險承擔(dān)的能力,風(fēng)險的不可預(yù)測性契合高度危險責(zé)任的適用,亦符合《侵權(quán)責(zé)任法》在社會發(fā)展與科技進步之間所做的立法選擇[14]。當(dāng)然,我國現(xiàn)行《民法總則》雖未將人工智能納入法律主體范疇,但假若醫(yī)療強人工智能或超強人工智能真的出現(xiàn)并席卷人類社會時,對《民法總則》或者《民法典》再進行適時的體系修改,以滿足社會發(fā)展需要,這也符合法律制度作為上層建筑決定于社會存在的哲學(xué)本質(zhì)。
在涉及人工智能所引發(fā)的醫(yī)療法律責(zé)任中,存在著責(zé)任主體難以界定、過錯責(zé)任原則難以適用、因果關(guān)系難以查清等現(xiàn)實困境,這不僅使受到損害的患者無法獲得公平賠償,而且也阻卻了生產(chǎn)者、醫(yī)療機構(gòu)進一步研發(fā)、使用先進的人工智能技術(shù)的工作熱情。為此,筆者認(rèn)為可以借鑒歐美經(jīng)驗,嘗試建立強制性保險和儲備金制度,由開發(fā)者、制造商、所有者(醫(yī)療機構(gòu))等通過多種方式支付費用,建立一個專門用于醫(yī)療人工智能法律責(zé)任支付的獨立資金池,既使患者的權(quán)益能夠得到有效保障,又使相關(guān)主體免于因承擔(dān)巨大風(fēng)險責(zé)任而喪失技術(shù)研發(fā)與使用的積極性[15]。該方式使得在智能醫(yī)療領(lǐng)域,因非人為因素導(dǎo)致的損害負擔(dān)通過風(fēng)險最小化的方式實現(xiàn)化解,為救濟受害人、分散醫(yī)療風(fēng)險、維護社會穩(wěn)定提供較為妥善的制度保障[16]。當(dāng)人工智能醫(yī)療機器人投入醫(yī)學(xué)使用時,生產(chǎn)商可以為其購買保險,在醫(yī)療損害出現(xiàn)時,無需糾結(jié)于侵權(quán)責(zé)任的歸屬認(rèn)定,由保險公司對受害人填補損害。同時,為了彌補保險制度范圍相對有限性的不足,建立儲備金制度則可實現(xiàn)優(yōu)勢互補。儲備金既包括生產(chǎn)者、銷售者、醫(yī)療機構(gòu)和患者在生產(chǎn)、銷售、使用時的附加費用分擔(dān),也接納社會捐贈。為確保儲備金的公開透明,可配以相應(yīng)的登記和公示制度。構(gòu)建強制保險和儲備金制度是擺脫囿于討論醫(yī)療人工智能是否能夠成為獨立的法律責(zé)任主體的理論爭議,而探索的一條能夠真正有效解決人工智能快速發(fā)展所面臨的法律責(zé)任問題的實踐之道。
在人工智能當(dāng)前發(fā)展階段,我們提出通過適用不同的法律責(zé)任模式實現(xiàn)差別化歸責(zé),但差別化責(zé)任的前提需要建立在對醫(yī)療人工智能的審批監(jiān)管機制上[17]。因此,在醫(yī)療人工智能產(chǎn)品越來越多、技術(shù)參數(shù)越來越復(fù)雜的背景下,有必要建立專門的人工智能監(jiān)管機構(gòu),通過“有形之手”監(jiān)督建立安全標(biāo)準(zhǔn)和倫理規(guī)則,實現(xiàn)對人工智能行業(yè)的監(jiān)督管理和風(fēng)險預(yù)測。這種前置性的審批制度,可以實現(xiàn)兩方面的作用,一方面,可以保證人工智能的產(chǎn)品質(zhì)量,保證投入到醫(yī)療衛(wèi)生事業(yè)中的智能機器人醫(yī)生等具有保障人身安全的可靠性,增進患者采用醫(yī)療人工智能的信心;另一方面,基于人工智能的安全標(biāo)準(zhǔn)和倫理準(zhǔn)則,也可以保證差別化醫(yī)療法律責(zé)任承擔(dān)的實現(xiàn)。對于符合一定生產(chǎn)標(biāo)準(zhǔn)并經(jīng)過審查的醫(yī)療人工智能,生產(chǎn)商、制造商實質(zhì)上只承擔(dān)有限的產(chǎn)品責(zé)任,作為受害人的患者也可以援引相應(yīng)的標(biāo)準(zhǔn)和準(zhǔn)則證明涉事醫(yī)療人工智能存在“缺陷”之處,對于沒有經(jīng)過審批的醫(yī)療人工智能,相關(guān)主體應(yīng)當(dāng)承擔(dān)嚴(yán)格責(zé)任,并且相互間是連帶責(zé)任關(guān)系。針對醫(yī)療人工智能監(jiān)管機構(gòu)及監(jiān)管標(biāo)準(zhǔn),可借鑒美國食品藥品監(jiān)督管理局(FDA)創(chuàng)新設(shè)立的“數(shù)字醫(yī)療軟件預(yù)認(rèn)證計劃(Precertification Program)”的監(jiān)管方法,通過設(shè)置專門負責(zé)醫(yī)療設(shè)備及科技監(jiān)管的機構(gòu) CDRH(Center for Devices and Radiological Health),按照前期試點項目中確定的客觀標(biāo)準(zhǔn)來“預(yù)先認(rèn)證”符合條件的智能醫(yī)療開發(fā)主體。但是,該項目現(xiàn)存最大的問題在于智能醫(yī)療管理標(biāo)準(zhǔn)有待進一步完善。無獨有偶,歐盟、英國、德國、新加坡等也都成立專家委員會研究與人工智能有關(guān)的隱私、安全和道德的行業(yè)特定準(zhǔn)則,以推動人工智能實現(xiàn)規(guī)范化健康發(fā)展。
醫(yī)療人工智能的產(chǎn)生和發(fā)展,一方面,給醫(yī)療領(lǐng)域?qū)崿F(xiàn)精準(zhǔn)化、個性化、高質(zhì)量的診斷和治療帶來希望;另一方面,也因其參與診療活動而給醫(yī)療損害法律責(zé)任的分配與承擔(dān)提出了現(xiàn)實挑戰(zhàn)。伴隨生物醫(yī)學(xué)技術(shù)和人工智能的深度融合和鏈?zhǔn)桨l(fā)展,最終可能出現(xiàn)具有學(xué)習(xí)能力、思考能力和決策能力的智能機器人醫(yī)生。這種智能機器人醫(yī)生也將對傳統(tǒng)的以自然人為中心的法律責(zé)任主體制度帶來挑戰(zhàn)。但法律制度的變更與發(fā)展是與社會經(jīng)濟發(fā)展的程度相適應(yīng)的。在當(dāng)前人工智能尚未全面進入強人工智能的背景下,人工智能產(chǎn)品尚處于人類的掌握和控制階段,提出賦予人工智能法律責(zé)任主體地位尚不必要。當(dāng)前,針對人工智能在醫(yī)學(xué)領(lǐng)域的應(yīng)用,應(yīng)當(dāng)堅持以“前端預(yù)防”代替“末端懲治”的原則,通過現(xiàn)有法律制度的整體運用和法律原則的系統(tǒng)解釋,在結(jié)合醫(yī)療責(zé)任風(fēng)險與利益的基礎(chǔ)上,按照生產(chǎn)者、銷售者、醫(yī)療機構(gòu)或醫(yī)務(wù)人員等相關(guān)主體不同的注意義務(wù)關(guān)系去認(rèn)定各方責(zé)任,以體系性的法律規(guī)制來有效應(yīng)對人工智能所帶來的挑戰(zhàn)。當(dāng)然,在未來真正進入強人工智能的人機共存的時代,法律也必須面對和解決智能機器人醫(yī)生的法律行為和法律地位問題,并對其進行適時的修正和更新,為患者維護自身合法權(quán)益提供法律救濟的制度安排,增進人類健康福祉。