【關(guān)鍵詞】醫(yī)療人工智能;法律地位;侵權(quán)責(zé)任
隨著科技的進(jìn)步,醫(yī)療人工智能正在日益廣泛、深入地應(yīng)用于醫(yī)療服務(wù)領(lǐng)域,其在診斷、治療等方面展現(xiàn)出了巨大潛力。然而,醫(yī)療人工智能的應(yīng)用也引發(fā)了侵權(quán)責(zé)任歸屬的新問題,這對現(xiàn)有的法律體系提出了一定挑戰(zhàn)。本文旨在深入探討醫(yī)療人工智能在侵權(quán)責(zé)任方面的法律問題,通過分析醫(yī)療人工智能侵權(quán)的現(xiàn)狀、法律困境及完善路徑,為構(gòu)建適應(yīng)新時代要求的醫(yī)療人工智能侵權(quán)責(zé)任制度提供參考,以期在保障患者權(quán)益的同時,推動醫(yī)療人工智能技術(shù)的健康有序發(fā)展。
(一)醫(yī)療人工智能的界定
1956年的達(dá)特茅斯會議上,麥卡錫、羅切斯特等專家首次提出了“人工智能”這一術(shù)語[1]。隨著醫(yī)療人工智能的研究發(fā)展,有學(xué)者認(rèn)為,醫(yī)療人工智能即以人工智能為技術(shù)手段,在數(shù)字醫(yī)療的基礎(chǔ)上,提供精確醫(yī)療服務(wù)的人工智能[2]。
人工智能醫(yī)療對傳統(tǒng)醫(yī)療和傳統(tǒng)法律產(chǎn)生了巨大的沖擊,法學(xué)界也在積極思考和回應(yīng)其引發(fā)的法律問題。
(二)醫(yī)療人工智能的立法規(guī)制
目前,醫(yī)療人工智能尚處于初級的開發(fā)和應(yīng)用階段,國內(nèi)外對于醫(yī)療人工智能乃至人工智能的法律規(guī)制都尚處于探索階段。
1.域外立法
歐盟在人工智能相關(guān)法律制定方面一直走在世界前列,早在2017年出臺的《歐洲機器人技術(shù)民事法律規(guī)則》里,就大膽設(shè)想人工智能可取得法律人格[3]。2024年3月,歐洲議會正式通過歐盟《人工智能法案》,與2022年歐盟《關(guān)于缺陷產(chǎn)品責(zé)任的指令的提案》結(jié)合起來,對人工智能產(chǎn)品存在缺陷并致害的侵權(quán)責(zé)任進(jìn)行規(guī)制。
2.中國立法
近年來,我國關(guān)于醫(yī)療人工智能的行政法規(guī)、部門規(guī)章和地方性法規(guī)數(shù)量不斷增多,醫(yī)療人工智能技術(shù)的應(yīng)用逐步被納入規(guī)范化管理。從更高層次立法進(jìn)程看,《人工智能法(草案)》被納入《國務(wù)院2023年度立法工作計劃》,并于2024年再次確認(rèn),標(biāo)志著我國人工智能立法正式邁入人大立法的新階段。
(一)醫(yī)療人工智能侵權(quán)責(zé)任主體不明確
由于人工智能產(chǎn)品使用過程中的復(fù)雜性,人工智能侵權(quán)的責(zé)任主體一直存在較大爭議。2015年英國發(fā)生了首例達(dá)芬奇機器人致死案件,該案最終認(rèn)定了醫(yī)務(wù)方對于事故的影響,從而以醫(yī)療損害責(zé)任的形式結(jié)案。但是,假使主刀醫(yī)生當(dāng)時盡到了其應(yīng)盡的責(zé)任,那么病人的死亡結(jié)果又應(yīng)該由誰負(fù)責(zé)?是達(dá)芬奇機器人的設(shè)計者、生產(chǎn)者、銷售者,還是所有者呢?與傳統(tǒng)的醫(yī)療侵害不同,人工智能的介入使得醫(yī)療過錯的界定變得更為困難。在這種情形下,由于機器本身目前不能獨立承擔(dān)法律責(zé)任,醫(yī)療人工智能又存在“人機混合”的屬性,若拋開機器自身存在缺陷的可能性而僅由醫(yī)方承擔(dān)責(zé)任的話,實在有失偏頗。
(二)“技術(shù)黑箱”阻礙侵權(quán)責(zé)任認(rèn)定
醫(yī)療人工智能軟件和算法缺陷的隱蔽性形成“技術(shù)黑箱”,使得作為“局外人”的我們無法知曉人工智能產(chǎn)品本身具體的運算過程,而只能知道其最終的演繹結(jié)果,這極易導(dǎo)致推理與演繹過程出現(xiàn)邏輯斷鏈,從而難以認(rèn)定因果關(guān)系。按照我國民事訴訟法確立的“誰主張,誰舉證”原則,患者作為原告方,需證明醫(yī)療人工智能軟件和算法存在缺陷、造成損害以及兩者之間存在因果關(guān)系,承擔(dān)較高的舉證責(zé)任,造成“專業(yè)者不舉證,舉證者不專業(yè)”的局面。
(三)侵權(quán)責(zé)任性質(zhì)認(rèn)定不明確
在醫(yī)療人工智能侵權(quán)的問題上,我國立法尚未作出相應(yīng)的規(guī)定,司法實踐通常將此類案件納入現(xiàn)行侵權(quán)法律框架。我國《中華人民共和國民法典》侵權(quán)責(zé)任編中,適用于醫(yī)療侵權(quán)方面的主要有產(chǎn)品責(zé)任、醫(yī)療損害責(zé)任和高度危險責(zé)任,但醫(yī)療人工智能侵權(quán)案件適用上述三種責(zé)任,均會存在無法消除的弊病。
1.產(chǎn)品責(zé)任
目前,我國將醫(yī)療人工智能產(chǎn)品視為醫(yī)療器械,進(jìn)行規(guī)制。因此,當(dāng)醫(yī)療人工智能造成損害時,適用產(chǎn)品責(zé)任具備合理性。這一責(zé)任適用的前提是產(chǎn)品存在缺陷,且損害是由于該缺陷導(dǎo)致的,但正如前所述,“技術(shù)黑箱”導(dǎo)致原告難以證明其中的因果關(guān)系。其次,由于我國尚無專業(yè)的人工智能缺陷鑒定機構(gòu),且尚未制定相關(guān)國家和行業(yè)標(biāo)準(zhǔn),鑒定機構(gòu)在處理相關(guān)事項時也步履維艱。最后,融合了深度學(xué)習(xí)和自主決策能力的醫(yī)療人工智能也帶來了不可預(yù)測的風(fēng)險,若損害是由于醫(yī)療人工智能自主學(xué)習(xí)做出的決策導(dǎo)致的,那么生產(chǎn)者就能用《中華人民共和國產(chǎn)品質(zhì)量法》第四十一條中的免責(zé)事由來逃避責(zé)任,這明顯不合理。
2.醫(yī)療損害責(zé)任
一方面,現(xiàn)階段醫(yī)療人工智能的使用仍需要依靠醫(yī)務(wù)人員的操作;另一方面,產(chǎn)品責(zé)任的適用場景不包括醫(yī)療機構(gòu)或醫(yī)務(wù)人員存在過錯的情形。因此,在醫(yī)療人工智能侵權(quán)案件中,醫(yī)療損害責(zé)任存在可適用性[4]。
然而醫(yī)療機構(gòu)承擔(dān)相應(yīng)法律責(zé)任必須以醫(yī)務(wù)人員的過失與患者的傷害之間存在因果關(guān)系為前提。在醫(yī)療侵權(quán)訴訟中,原告必須證明傷害是由于醫(yī)護人員沒能遵守當(dāng)時的醫(yī)療標(biāo)準(zhǔn),醫(yī)護人員未能履行與當(dāng)時醫(yī)療水平相符的診療義務(wù)。法院以“合格的醫(yī)生應(yīng)該做什么”為標(biāo)準(zhǔn),與具有相同技術(shù)背景和專業(yè)知識的其他醫(yī)生的做法進(jìn)行比較,評估醫(yī)生對患者的治療措施是否合理。然而,隨著人工智能這項新技術(shù)的引入,臨床實踐中的平均水平標(biāo)準(zhǔn)開始變得模糊不清[5]??梢?,人工智能介入醫(yī)療活動,加大了醫(yī)療損害責(zé)任的過錯要件判定難度。
3.高度危險責(zé)任
鑒于當(dāng)前學(xué)術(shù)界對于人工智能屬性的認(rèn)定尚不清晰、相關(guān)立法不完善以及高度危險責(zé)任體系的開放性特點,一些學(xué)者也主張,醫(yī)療人工智能侵權(quán)案件適用高度危險責(zé)任。醫(yī)療人工智能雖然尚未被納入法律規(guī)范體系內(nèi),但立法不可能對各種情形做出全面準(zhǔn)確的預(yù)測。法律設(shè)立了高度危險責(zé)任的一般條款,即使該一般條款未明確責(zé)任承擔(dān),仍可通過解釋闡明[6]。
然而適用高度危險責(zé)任會存在以下問題。首先,高度危險責(zé)任可分為高度危險物致?lián)p責(zé)任與高度危險作業(yè)致?lián)p責(zé)任[7],
學(xué)界對醫(yī)療人工智能造成患者損害應(yīng)適用何種致?lián)p責(zé)任尚無一致的觀點。其次,高度危險責(zé)任屬于無過錯責(zé)任。醫(yī)務(wù)人員與醫(yī)療機構(gòu)若作為危險活動或者危險物的作業(yè)人,將是賠償義務(wù)主體;然而設(shè)計者、生產(chǎn)者、運輸者這些參與人工智能產(chǎn)品從出廠到投入使用過程的人,得以逃脫責(zé)任,這顯然不合理。再次,把醫(yī)療人工智能歸為高度危險物或把人工智能參與診療過程的情況判定為高度危險作業(yè),可能導(dǎo)致公眾對人工智能產(chǎn)生誤解,產(chǎn)生排斥心理,不利于科技進(jìn)步與醫(yī)學(xué)發(fā)展[7]。因此,高度危險責(zé)任適用于醫(yī)療人工智能侵權(quán)仍可商榷。
(一)明確醫(yī)療人工智能的法律地位
具有健全的人體和人腦,擁有獨立的決策能力,能夠參與民事法律關(guān)系,這些是構(gòu)成民事主體法律人格的必備條件[8]。
很顯然,即使是最先進(jìn)的人工智能體,目前也難以符合這些條件。
換個角度看,即使某些國家認(rèn)可人工智能體的民事主體地位,至少在未來很長一段時間內(nèi)也會因為財產(chǎn)受限制而無法獨立承擔(dān)責(zé)任,真正進(jìn)行賠償?shù)倪€是醫(yī)療人工智能產(chǎn)品的生產(chǎn)者、銷售者、使用者等有能力承擔(dān)賠償責(zé)任的主體。所以現(xiàn)階段賦予人工智能法律主體地位,時機還不成熟。
(二)構(gòu)建多元化的責(zé)任主體
1.設(shè)計者
設(shè)計者包括外觀設(shè)計者,也包括軟件開發(fā)者。軟件開發(fā)者處于人工智能產(chǎn)業(yè)鏈最核心的位置,是從源頭代碼防范風(fēng)險最重要的主體。當(dāng)前人工智能技術(shù)飛速發(fā)展,其產(chǎn)品更新迭代過程中不排除從設(shè)計階段開始就存在設(shè)計缺陷,直至投入市場后該缺陷仍未被發(fā)現(xiàn),最終因為該缺陷導(dǎo)致患者被侵權(quán)的局面。因此,醫(yī)療人工智能產(chǎn)品的設(shè)計者為其產(chǎn)品的使用者排除合理危險的責(zé)任尤為重要。
2.生產(chǎn)者
生產(chǎn)者不僅包括產(chǎn)品的最終生產(chǎn)者,還應(yīng)包括零部件生產(chǎn)者。事故發(fā)生后,如果可以確定智能醫(yī)療人工智能損壞的具體原因,則由獨立部件的實際制造商對該侵權(quán)負(fù)責(zé);如果無法確定具體原因,或者機器以整體狀態(tài)損壞,則由最終生產(chǎn)者負(fù)責(zé)。近年來,貼牌加工、商標(biāo)授權(quán)的情況也越來越普遍,因為授權(quán)人能從中獲利,所以除了實際制造者,商標(biāo)所有人也應(yīng)作為生產(chǎn)者獨立承擔(dān)責(zé)任。
3.銷售者
受制于技術(shù)壟斷,醫(yī)療人工智能產(chǎn)品的定價一般都十分昂貴,銷售者可從中牟取巨大的利潤,根據(jù)收益風(fēng)險一致原則,要求銷售者承擔(dān)責(zé)任也無可厚非?!吨腥A人民共和國民法典》第一千二百零三條第一款規(guī)定,因有缺陷的產(chǎn)品遭受損害的,被侵權(quán)人有向生產(chǎn)者或銷售者請求賠償?shù)臋?quán)利。
4.管理者
管理者對設(shè)備有定期維護保養(yǎng)的義務(wù),若管理者失職導(dǎo)致人工智能出現(xiàn)故障,對患者造成侵害,可分為兩種情況。一種情況是此故障十分隱蔽,使用者(通常是醫(yī)務(wù)人員)無法在正常操作時發(fā)現(xiàn),應(yīng)由管理者為此承擔(dān)責(zé)任;另一種情況是,使用者在“可能未能”的情況下,由于自身一定的過失造成了侵權(quán)的局面,筆者認(rèn)為應(yīng)由管理者與使用者共同對患者承擔(dān)賠償責(zé)任。
(三)消解“技術(shù)黑箱”對侵權(quán)責(zé)任認(rèn)定的影響
1.完善因果關(guān)系認(rèn)定方法
破除“技術(shù)黑箱”是因果關(guān)系認(rèn)定的關(guān)鍵,為了解決這一問題,可將“黑匣子”技術(shù)運用于醫(yī)療人工智能產(chǎn)品,在事故發(fā)生后作為重要的因果判斷依據(jù)。黑匣子內(nèi)的數(shù)據(jù)應(yīng)由生產(chǎn)者自覺披露,如有隱瞞或惡意篡改數(shù)據(jù)者,則可推定其在法律上承擔(dān)過錯責(zé)任。此外,還可在開發(fā)之初加入可追溯性的模塊,實現(xiàn)運算過程的可還原、可解釋,便于事故發(fā)生后程序員進(jìn)行溯源。
2.調(diào)整舉證責(zé)任分配
醫(yī)療人工智能侵權(quán)案件中的被侵權(quán)者相較于其他主體,一般是弱勢一方;設(shè)計者、生產(chǎn)者因為知曉產(chǎn)品的工作原理和過程,通常具有更強的舉證能力。因此有必要將被侵權(quán)者的部分舉證責(zé)任轉(zhuǎn)移到設(shè)計者、生產(chǎn)者這一方,減輕被侵權(quán)者的舉證責(zé)任。醫(yī)療機構(gòu)在人工智能投入使用后,是與之接觸最頻繁的一方,相對而言也更容易發(fā)現(xiàn)潛在的不足,因此,醫(yī)療機構(gòu)也應(yīng)該對醫(yī)療人工智能設(shè)備、指令、操作等負(fù)有舉證責(zé)任。
(四)厘清醫(yī)療人工智能侵權(quán)責(zé)任性質(zhì)
1.產(chǎn)品責(zé)任
適用產(chǎn)品責(zé)任的核心環(huán)節(jié)是認(rèn)定產(chǎn)品缺陷。我國目前還沒有權(quán)威標(biāo)準(zhǔn),可參考風(fēng)險效用原則,綜合對比產(chǎn)品的有用性與危險性,以檢查研發(fā)設(shè)計者是否采取了足夠的安全保障措施,以確定產(chǎn)品是否有缺陷。
生產(chǎn)者能否主張免責(zé)事由的爭議點在于,產(chǎn)品缺陷是否在生產(chǎn)時就已存在且能被發(fā)現(xiàn)。筆者認(rèn)為,只要該缺陷屬于醫(yī)療人工智能產(chǎn)品本身的缺陷,無論是產(chǎn)品出廠時就已存在還是后天深度學(xué)習(xí)的結(jié)果,都應(yīng)由生產(chǎn)者承擔(dān)風(fēng)險。
2.醫(yī)療損害責(zé)任
根據(jù)《中華人民共和國民法典》第一千二百二十一條的規(guī)定,如果醫(yī)務(wù)人員未能履行其診療義務(wù),導(dǎo)致患者受到傷害,那么醫(yī)療機構(gòu)有責(zé)任承擔(dān)相應(yīng)的賠償?,F(xiàn)實中,人機協(xié)同模式下的醫(yī)療人工智能侵權(quán)行為,如果損害是產(chǎn)品缺陷和醫(yī)務(wù)人員操作失誤或醫(yī)院管理不當(dāng)共同導(dǎo)致的,應(yīng)考量原因力,分別適用產(chǎn)品責(zé)任和醫(yī)療損害責(zé)任,由產(chǎn)品的生產(chǎn)者與醫(yī)療機構(gòu)承擔(dān)不真正連帶責(zé)任[9]。
由于科技水平的限制,人工智能專業(yè)鑒定機構(gòu)的建立還需要一個循序漸進(jìn)的過程,對于醫(yī)療損害責(zé)任的過錯判定,可參考借鑒專家證人制度。我國也應(yīng)該不斷促進(jìn)高素質(zhì)人才培養(yǎng)與人工智能產(chǎn)業(yè)的發(fā)展,盡快促成建立專業(yè)的人工智能鑒定機構(gòu),滿足日益增長的人工智能侵權(quán)鑒定的需求。
人工智能賦能普惠醫(yī)療正在成為現(xiàn)實,人工智能在提高醫(yī)療服務(wù)水平方面具有廣闊的前景。與此同時,人工智能醫(yī)療侵權(quán)中的法律問題,需要我們更為深入地思考法律、完善法律,為科技進(jìn)步保駕護航,以確保醫(yī)療人工智能的發(fā)展符合人類社會根本利益的發(fā)展方向。