郭一帆
(1.全州大學(xué)法學(xué)院 韓國(guó)全州 55069;2.忻州師范學(xué)院法律系 山西忻州 034000)
未來(lái)人工智能將進(jìn)一步發(fā)展,能夠在沒有人類介入的情況下執(zhí)行更大范圍的工作。這種發(fā)展趨勢(shì)如果進(jìn)一步在醫(yī)療領(lǐng)域得到實(shí)現(xiàn),必然能夠?yàn)榛颊吆歪t(yī)療領(lǐng)域帶來(lái)利益,但是隨之而來(lái)的風(fēng)險(xiǎn)也會(huì)進(jìn)一步增加。因此,如何完善當(dāng)前法律規(guī)范,以防控風(fēng)險(xiǎn)、保障患者權(quán)益,從而促進(jìn)醫(yī)療人工智能行業(yè)健康發(fā)展是當(dāng)前必須解決的議題。
人工智能和人腦在信息處理方面具有共同點(diǎn)[1]5-15。人工智能可以像人類一樣推理,并且可以像人類大腦一樣運(yùn)算,甚至,人工智能還能夠進(jìn)行人腦無(wú)法處理的大數(shù)據(jù)測(cè)算。
對(duì)人工智能下定義并不容易,迄今為止,關(guān)于人工智能的定義學(xué)術(shù)界并不統(tǒng)一。廣義上講,人工智能通常被定義為需要智能的計(jì)算機(jī)系統(tǒng),或者被定義為可以合理解決復(fù)雜問題或采取適當(dāng)措施以實(shí)現(xiàn)現(xiàn)實(shí)生活目標(biāo)的系統(tǒng)。狹義上講,人工智能是用電腦技術(shù)來(lái)模擬人類推理、學(xué)習(xí)、適應(yīng)、感覺理解及其相互作用過程的智能系統(tǒng)。
人工智能是計(jì)算科學(xué)的一部分,致力于創(chuàng)建智能機(jī)器和程序。人工智能的目的是試圖模仿人類的意識(shí)并執(zhí)行任務(wù)。目前人工智能技術(shù)已經(jīng)經(jīng)歷了三個(gè)發(fā)展階段,1950年至1970年是所謂的神經(jīng)網(wǎng)絡(luò)時(shí)代,1980年至2000年是機(jī)器學(xué)習(xí)時(shí)代,2000年至今是深度學(xué)習(xí)時(shí)代。
深度學(xué)習(xí)可以利用算法解決對(duì)于傳統(tǒng)方法來(lái)說(shuō)非常復(fù)雜的問題。算法是指逐步解決問題的方法,它通常用于數(shù)據(jù)處理、計(jì)算以及其他數(shù)學(xué)和計(jì)算機(jī)操作。對(duì)于人工智能來(lái)說(shuō),算法是其核心和靈魂,而算力和大數(shù)據(jù)是其基礎(chǔ)。算力顧名思義是計(jì)算能力,由于現(xiàn)在計(jì)算機(jī)處理器的功能大幅增加,在此基礎(chǔ)上產(chǎn)生的人工智能技術(shù)通常擁有高速運(yùn)算的能力。而大數(shù)據(jù)是海量數(shù)據(jù)的集合,在一定時(shí)間內(nèi)無(wú)法用常規(guī)工具進(jìn)行分析、管理和處理[2]。人工智能利用大數(shù)據(jù)不斷進(jìn)行訓(xùn)練和試驗(yàn),逐漸取得進(jìn)步和成長(zhǎng)。今天人工智能在很多領(lǐng)域都獲得了廣泛應(yīng)用,并取得了豐碩成果。
在醫(yī)療領(lǐng)域,人工智能被廣泛地應(yīng)用于臨床診斷、醫(yī)學(xué)治療、醫(yī)療康復(fù)以及疾病預(yù)測(cè)和醫(yī)學(xué)研究等多個(gè)方面。
1.在臨床診斷方面的應(yīng)用
人工智能可以利用圖像解讀技術(shù)對(duì)醫(yī)學(xué)影像進(jìn)行解讀和分析,并以此來(lái)診斷疾病。例如醫(yī)療影像分析軟件“VUNOmed-BoneAge”通過分析X光影像來(lái)展示患者的骨骼年齡,醫(yī)生在該軟件的輔助下診斷性早熟癥或低生長(zhǎng)癥。又如,人工智能可以利用圖像解讀技術(shù)來(lái)診斷肺炎、乳腺癌、皮膚癌和眼科疾病等疾病[3]。
另外,人工智能可以通過提取實(shí)時(shí)數(shù)據(jù)診斷患者的健康狀況。例如,目前已經(jīng)開發(fā)的一種人工智能軟件,可以分析諸如患者血壓和血氧飽和度之類的生物信息,并在測(cè)量信息超出正常范圍時(shí)發(fā)出警報(bào)。
2.在醫(yī)學(xué)治療方面的應(yīng)用
人工智能可以用來(lái)為患者提供醫(yī)學(xué)治療建議。具體來(lái)說(shuō),人工智能可以分析諸如專業(yè)文獻(xiàn)和患者病歷之類的數(shù)據(jù),評(píng)估和比較可以選擇的各種治療方法,并提出最佳治療方法。例如,IBM公司推出的Watson for Oncology可以對(duì)龐大數(shù)量的醫(yī)學(xué)文獻(xiàn)和患者就醫(yī)記錄等數(shù)據(jù)進(jìn)行分析,對(duì)各種治療方法進(jìn)行評(píng)估和比較,并提出最佳的治療方法[4]。Watson還可以對(duì)一般的治療方法進(jìn)行分析,分析患者個(gè)人的醫(yī)療及健康信息數(shù)據(jù),盡可能地利用已有的治療數(shù)據(jù)給出治療方法建議,并告知患者或醫(yī)生選擇治療方法的優(yōu)先順序、副作用發(fā)生的可能性、醫(yī)藥品使用時(shí)的注意事項(xiàng)等。
另外,人工智能也被廣泛地應(yīng)用于醫(yī)學(xué)手術(shù)之中。以醫(yī)學(xué)手術(shù)機(jī)器人為例,1992年科研機(jī)構(gòu)利用人工智能技術(shù)成功開發(fā)出了整形外科手術(shù)用機(jī)器人“RoboDoc”,1994年開發(fā)出了腹腔鏡手術(shù)的輔助機(jī)器人“伊索(Aesop)”,1998年開發(fā)出了醫(yī)生遠(yuǎn)程操縱,而物理手術(shù)由機(jī)器人負(fù)責(zé)的“宙斯(Zeus)系統(tǒng)”。與通過常規(guī)皮膚切口進(jìn)行的手術(shù)不同,這些外科手術(shù)機(jī)器人進(jìn)行的手術(shù)最大限度地減少了皮膚切口以減少疤痕和后遺癥,并且這些機(jī)器人可以進(jìn)行精細(xì)而復(fù)雜的手術(shù)而不會(huì)晃動(dòng)。2000年,達(dá)·芬奇手術(shù)機(jī)器人獲得美國(guó)FDA批準(zhǔn),可以正式在手術(shù)室中使用[5]。達(dá)·芬奇手術(shù)機(jī)器人是由具備各種手術(shù)裝備和照相機(jī)的機(jī)器人手臂來(lái)進(jìn)行工作的手術(shù)平臺(tái),它可以通過最小的切口來(lái)實(shí)現(xiàn)復(fù)雜的手術(shù),被認(rèn)為是目前世界上最先進(jìn)的外科手術(shù)機(jī)器人。
3.在醫(yī)療康復(fù)和日常健康管理方面的應(yīng)用
隨著人們對(duì)康復(fù)輔助技術(shù)需求的不斷增長(zhǎng),人工智能在醫(yī)療康復(fù)領(lǐng)域中的應(yīng)用也越來(lái)越多。以最常見的腦卒康復(fù)為例,因?yàn)槟壳安]有針對(duì)腦卒的特效藥,腦卒患者只能依靠康復(fù)活動(dòng)來(lái)將肌肉、大腦和神經(jīng)進(jìn)行關(guān)聯(lián),但是這種康復(fù)活動(dòng)不是機(jī)械的肢體活動(dòng),而是需要根據(jù)身體狀況不斷調(diào)整的,因此,在輔助康復(fù)訓(xùn)練中,使用人工智能技術(shù)效果會(huì)更好。人工智能康復(fù)機(jī)器可以根據(jù)患者身體情況自動(dòng)調(diào)整訓(xùn)練參數(shù),幫助患者選擇最佳訓(xùn)練方案,有助于加快患者恢復(fù)、減少患者痛苦[6]。
在日常健康管理方面,市場(chǎng)上有幾款使用人工智能的應(yīng)用程序可提供定制的健康評(píng)估和治療建議。例如,Airdoc團(tuán)隊(duì)設(shè)計(jì)的應(yīng)用程序能夠?qū)κ澄飯D片進(jìn)行圖像識(shí)別和解讀,為用戶提供用餐建議,指導(dǎo)用戶的用餐習(xí)慣,保障用戶飲食健康。又如,由IBM開發(fā)的Arthritis Virtual Assistant也通過與患者互動(dòng)來(lái)進(jìn)行學(xué)習(xí),并為患者提供有關(guān)藥物管理、飲食和運(yùn)動(dòng)的個(gè)性化信息和建議[7]。此外,一些App還可以監(jiān)測(cè)抑郁癥、幫助管理慢性病、幫助護(hù)理監(jiān)護(hù)癡呆癥患者,為患者及其家屬的生活提供了便利。
4.在疾病預(yù)測(cè)方面的應(yīng)用
人工智能技術(shù)在短期內(nèi)最實(shí)際的影響是減少了預(yù)測(cè)的成本。如今,人工智能可以利用照片來(lái)識(shí)別人們的政治傾向,識(shí)別人們是否具有很高的智力、是否具有犯罪性質(zhì)、是否具有特定的個(gè)性以及是否具有其他各種個(gè)人特征。而在醫(yī)學(xué)領(lǐng)域,人工智能的這一個(gè)功能被廣泛應(yīng)用于疾病預(yù)測(cè)方面。
例如,Google Medical Brain的一個(gè)研究小組2018年6月使用深度學(xué)習(xí)模型,利用電子健康記錄信息來(lái)準(zhǔn)確預(yù)測(cè)包括醫(yī)院死亡率在內(nèi)的各種健康結(jié)果。IBM研究人員也為了預(yù)測(cè)精神病、焦慮癥、抑郁癥的發(fā)病率,使用了深度學(xué)習(xí)技術(shù)將精神科采訪內(nèi)容轉(zhuǎn)換成聲音文件進(jìn)行分析,并研發(fā)了可以用來(lái)診斷的語(yǔ)言模式,只要有300個(gè)單詞,就可以預(yù)測(cè)使用者的精神病發(fā)病率[8]。
5.在醫(yī)學(xué)研究方面的應(yīng)用
因?yàn)槿斯ぶ悄芸梢愿臁⒏娴厥占?、識(shí)別、分析、處理數(shù)據(jù),這使得人工智能被廣泛應(yīng)用于科學(xué)研究領(lǐng)域。在醫(yī)學(xué)研究領(lǐng)域,人工智能可以收集和分析醫(yī)學(xué)文獻(xiàn),可以幫助匹配適合研究的患者類型。例如,將Institute of Cancer Research的canSAR數(shù)據(jù)庫(kù)作為基礎(chǔ),采用人工智能技術(shù),結(jié)合患者的遺傳基因、臨床數(shù)據(jù)和科學(xué)研究信息,可以匹配用于癌癥藥物靶向治療的受試者。此外,醫(yī)學(xué)研究人員可以在人工智能的幫助下進(jìn)行藥物的研發(fā)工作。例如美國(guó)麻省理工學(xué)院研究團(tuán)隊(duì)利用人工智能研發(fā)了一種新型抗生素,能夠有效抑制大腸桿菌,并對(duì)新型肺炎病毒有效[9]。
1.準(zhǔn)確性有待提高
人工智能產(chǎn)品的治療建議、分析結(jié)果等可能會(huì)發(fā)生錯(cuò)誤。例如,吉森大學(xué)醫(yī)院曾經(jīng)測(cè)試了Watson系統(tǒng),醫(yī)生在電腦上鍵入“患者抱怨胸痛”,但是Watson系統(tǒng)診斷結(jié)果根本沒有提及諸如心臟病發(fā)作、心絞痛、心肌梗塞和主動(dòng)脈裂等疾病的可能,反而提出了“很少發(fā)生的特殊傳染病會(huì)引起胸痛”的診斷建議[10]。這實(shí)際上說(shuō)明人工智能產(chǎn)品雖然能夠在一定程度上幫助診斷,提出診斷建議,但是仍會(huì)發(fā)生錯(cuò)誤或誤差,其準(zhǔn)確性有待于提高。
2.不能與患者進(jìn)行充分交流
人工智能雖然可以根據(jù)患者病史、病歷、體檢報(bào)告、醫(yī)學(xué)影像等信息分析患者的病情并為患者提供診斷和治療建議,但是由于人工智能不能和患者進(jìn)行充分的交流,有可能會(huì)導(dǎo)致人工智能得不到準(zhǔn)確的信息而產(chǎn)生誤診或誤判。醫(yī)學(xué)具有復(fù)雜性,即使是經(jīng)驗(yàn)豐富的醫(yī)生在缺少交流的情況下也不能輕易做出診斷,因此,人工智能無(wú)法與患者進(jìn)行充分交流會(huì)限制人工智能在醫(yī)療領(lǐng)域的發(fā)展。
醫(yī)療人工智能的應(yīng)用面臨多種風(fēng)險(xiǎn),例如醫(yī)療人工智能法律主體資格尚未明確;不良后果發(fā)生時(shí)法律責(zé)任認(rèn)定存在爭(zhēng)議;存在數(shù)據(jù)偏見和歧視,數(shù)據(jù)公平難以保障;數(shù)據(jù)隱私和個(gè)人信息保護(hù)力度不足;立法監(jiān)管制度不夠健全;缺乏醫(yī)療人工智能相關(guān)人才。
要解決人工智能其他法律問題,首先要明確人工智能是否具備法律主體資格這一問題。2016年,歐盟法律事務(wù)委員會(huì)提出將智能機(jī)器人看作“電子人”,賦予其權(quán)利和義務(wù),這一法律規(guī)定沖擊了傳統(tǒng)的民法領(lǐng)域,對(duì)法律人格的概念進(jìn)行了顛覆性革新,頓時(shí)引起了各界對(duì)于智能機(jī)器人是人還是物、是否具有法律主體資格的熱議。目前,我國(guó)學(xué)界對(duì)于人工智能是否具有法律主體資格爭(zhēng)論不已,一部分學(xué)者認(rèn)為人工智能具備法律上的主體資格,該主體資格為限制性主體資格或者可以看作擬制人格,一部分學(xué)者認(rèn)為人工智能還未產(chǎn)生意識(shí),不具備意思表示能力,因此不具有法律主體資格[11]。而當(dāng)前并未有法律明文規(guī)定人工智能具有法律主體資格,可以獨(dú)立享有權(quán)利、履行義務(wù),因此關(guān)于人工智能的法律主體資格問題有待于進(jìn)一步深入討論。
人工智能推薦給患者的治療方案可能會(huì)發(fā)生錯(cuò)誤,患者選擇這一治療方案后可能會(huì)引發(fā)不良后果。例如,2015年英國(guó)的一項(xiàng)臨床試驗(yàn)使用了人工智能技術(shù)對(duì)可能會(huì)發(fā)生肺炎并發(fā)癥的患者進(jìn)行了預(yù)測(cè)和診斷,由于該技術(shù)并未采納全面的醫(yī)療信息,以致于該預(yù)測(cè)和診斷過于保守,使哮喘患者錯(cuò)誤地被診斷為不存在肺炎并發(fā)癥的可能。該患者基于人工智能的判斷選擇了出院但是最后卻因病情加重再次住院[12]。這樣的事件其實(shí)并不鮮見,關(guān)于這些事件中人工智能造成的損害后果該由誰(shuí)來(lái)承擔(dān)責(zé)任引起了廣泛的討論。
一部分學(xué)者認(rèn)為當(dāng)醫(yī)療機(jī)構(gòu)及其醫(yī)務(wù)人員使用人工智能時(shí)發(fā)生事故造成患者損害的,應(yīng)該按照《民法典》有關(guān)侵權(quán)責(zé)任法的規(guī)定,由醫(yī)療機(jī)構(gòu)承擔(dān)賠償責(zé)任。而一部分學(xué)者則認(rèn)為如果不能證明人工智能產(chǎn)品本身不存在缺陷的話,那么人工智能產(chǎn)品的生產(chǎn)者和銷售者也應(yīng)該承擔(dān)賠償責(zé)任,而且這種賠償責(zé)任可以按照《民法典》第1207條產(chǎn)品責(zé)任懲罰性賠償?shù)囊?guī)定來(lái)計(jì)算。因此對(duì)于這兩種責(zé)任如何認(rèn)定和承擔(dān)目前學(xué)界存在爭(zhēng)議。
而由人工智能制造者或生產(chǎn)者承擔(dān)法律責(zé)任是否又會(huì)阻礙人工智能技術(shù)的發(fā)展也是當(dāng)前需要考慮的問題。因此,如何合理劃分責(zé)任,在風(fēng)險(xiǎn)防控和創(chuàng)新促進(jìn)這兩個(gè)相互矛盾的目標(biāo)之間取得平衡是當(dāng)前亟待解決的問題。
人工智能應(yīng)用軟件具有減少人的偏見和錯(cuò)誤的潛力,但是人工智能具有兩面性,在訓(xùn)練人工智能時(shí)使用的數(shù)據(jù)是基于過去的現(xiàn)實(shí)資料,而這一資料本身就可能反映了過去所存在的社會(huì)歧視和偏見。如果采用這些數(shù)據(jù),那么新構(gòu)建的人工智能算法也必然會(huì)如實(shí)反映出社會(huì)的歧視和偏見。例如,美國(guó)司法系統(tǒng)用來(lái)預(yù)測(cè)罪犯未來(lái)再次犯罪的概率的系統(tǒng)使用了COMPAS算法,在經(jīng)過了嚴(yán)謹(jǐn)?shù)倪\(yùn)算和分析后該系統(tǒng)提出了“黑人再次犯罪的概率比白人高”的結(jié)論,這一結(jié)論與工作人員統(tǒng)計(jì)的實(shí)際犯罪率情況相反,這說(shuō)明看似中立的算法程序反映了社會(huì)中實(shí)際存在的種族歧視[13]。為解決這些問題而修改數(shù)據(jù)時(shí),例如,為消除歧視和偏見,修改訓(xùn)練數(shù)據(jù)或分析算法等,需要進(jìn)行其他形態(tài)的價(jià)值判斷,因此也會(huì)引發(fā)新的爭(zhēng)論。此外,人工智能開發(fā)者本身具有的偏見和歧視也會(huì)反映在算法之中。
算法的歧視大致可分為兩類。第一種是指在算法的設(shè)計(jì)階段,開發(fā)人員故意插入了一個(gè)歧視性元素,從而導(dǎo)致了歧視性結(jié)果。第二種可以認(rèn)為,不管算法開發(fā)者的意圖如何,都會(huì)產(chǎn)生差異效果。根據(jù)算法的程序,自動(dòng)決策中包含的優(yōu)先級(jí)、分類、關(guān)聯(lián)、過濾等都可能繼承現(xiàn)有社會(huì)的偏見并隱含歧視性屬性。這種歧視往往很難通過技術(shù)手段消除,而從源頭上甄別哪些數(shù)據(jù)帶有歧視性是極其困難的,這就導(dǎo)致這一算法一旦形成并投入使用的話會(huì)對(duì)社會(huì)公平造成較大的影響。
在迅速變化的人工智能環(huán)境中,個(gè)人信息的保護(hù)并非易事。在現(xiàn)實(shí)中,應(yīng)用人工智能可以輕易得到個(gè)人信息,人工智能以及人工智能所依賴的多樣的數(shù)據(jù)庫(kù)可以擴(kuò)張連接數(shù)據(jù)的能力或?qū)€(gè)人信息標(biāo)記成可識(shí)別的數(shù)據(jù)模式。例如,人工智能可以收集成千上萬(wàn)個(gè)不相關(guān)、幾乎毫無(wú)意義的數(shù)據(jù)點(diǎn),然后將這些數(shù)據(jù)用可信賴的方式組合在一起,就能得到個(gè)人信息數(shù)據(jù)。而在醫(yī)療領(lǐng)域,收集數(shù)據(jù)就更容易了,當(dāng)患者利用人工智能進(jìn)行醫(yī)療診斷或者健康管理時(shí),會(huì)輸入自己的既往病史、飲食習(xí)慣,甚至工資水平、旅行信息以及家庭住址等隱私數(shù)據(jù),雖然人工智能采集這些數(shù)據(jù),通過自主學(xué)習(xí)可以更有針對(duì)性地為患者提供服務(wù),但是這些數(shù)據(jù)泄露出去的可能性一直存在,這些數(shù)據(jù)一旦泄露,將給患者帶來(lái)巨大的損害。例如,2019年一家位于深圳的人臉識(shí)別公司發(fā)生大規(guī)模數(shù)據(jù)泄露事件,數(shù)百萬(wàn)用戶的敏感信息被泄露,具體包括用戶的身份證信息、24小時(shí)位置信息、人臉識(shí)別圖像等[14]。因此,在人工智能采集數(shù)據(jù)和保護(hù)數(shù)據(jù)隱私之間如何平衡是當(dāng)前必須思考的問題。
當(dāng)前由于人工智能技術(shù)處于快速發(fā)展階段,部分國(guó)家加強(qiáng)了對(duì)人工智能技術(shù)的規(guī)制,如韓國(guó)公布了《人工智能發(fā)展戰(zhàn)略》,法國(guó)制定了《國(guó)家人工智能戰(zhàn)略》,美國(guó)簽署《美國(guó)人工智能倡議》行政令,歐盟發(fā)布政策文件《歐盟人工智能》[15]。我國(guó)在2019年6月,出臺(tái)了《新一代人工智能治理原則—發(fā)展負(fù)責(zé)任的人工智能》突出強(qiáng)調(diào)了發(fā)展人工智能技術(shù)需要遵守的尊重隱私、安全可控等八個(gè)治理原則。但是在立法層面,關(guān)于人工智能的立法卻較為缺乏,存在立法空白,不能對(duì)人工智能從開發(fā)、使用、責(zé)任承擔(dān)等方面進(jìn)行全面的法律規(guī)制。而且由于人工智能的算法不夠透明,加之人工智能利用深度學(xué)習(xí)技術(shù)不斷學(xué)習(xí)進(jìn)步,對(duì)人工智能的運(yùn)作進(jìn)行監(jiān)管也存在困難。立法及監(jiān)管的缺失,不僅會(huì)損害患者的合法權(quán)益,而且會(huì)阻礙人工智能技術(shù)的發(fā)展,甚至?xí)绊懮鐣?huì)的和諧健康發(fā)展。因此,有必要出臺(tái)人工智能相關(guān)法律,加強(qiáng)對(duì)其技術(shù)的監(jiān)管監(jiān)督。
人工智能技術(shù)具有專業(yè)性和復(fù)雜性,人工智能的引入意味著醫(yī)務(wù)人員所需的技能和專業(yè)知識(shí)必須改變。當(dāng)未來(lái)人工智能技術(shù)在醫(yī)療領(lǐng)域普及時(shí),醫(yī)生必須掌握人工智能技術(shù)應(yīng)用的知識(shí),例如,外科醫(yī)生需要學(xué)習(xí)如何利用人工智能手術(shù)機(jī)器人進(jìn)行手術(shù),內(nèi)科醫(yī)生需要學(xué)習(xí)利用人工智能技術(shù)分析圖像和病歷。但是,就目前而言,既懂人工智能知識(shí)又掌握醫(yī)學(xué)知識(shí)的人才較為缺乏。一方面,現(xiàn)有的醫(yī)學(xué)教育體系,尚不能負(fù)擔(dān)關(guān)于醫(yī)療人工智能的教育任務(wù);另一方面,現(xiàn)在的醫(yī)生體系,要求醫(yī)生更新技術(shù)知識(shí)、改變傳統(tǒng)診療方式仍有一定困難。
同時(shí),除了在醫(yī)療體系中缺乏醫(yī)療人工智能相關(guān)人才外,實(shí)際上在設(shè)計(jì)、生產(chǎn)醫(yī)療人工智能產(chǎn)品時(shí)也缺乏這樣的人才。在醫(yī)療人工智能產(chǎn)品生產(chǎn)過程中,需要有能在數(shù)據(jù)篩選、模型設(shè)計(jì)、結(jié)果檢測(cè)等方面提出專業(yè)意見的人才,但是現(xiàn)實(shí)中人工智能技術(shù)和醫(yī)學(xué)均具有極高的技術(shù)要求,同時(shí)掌握兩門技術(shù)的人才非常少見。
醫(yī)療人工智能相關(guān)人才的缺乏一方面會(huì)導(dǎo)致醫(yī)療人工智能在設(shè)計(jì)和生產(chǎn)過程中與醫(yī)療實(shí)務(wù)產(chǎn)生偏差,降低人工智能的準(zhǔn)確性;另一方面也可能導(dǎo)致醫(yī)生在使用人工智能產(chǎn)品時(shí)由于知識(shí)缺漏或?qū)υ摷夹g(shù)不了解等原因造成診斷失誤或醫(yī)療事故。
為保障患者合法權(quán)益,促進(jìn)醫(yī)療人工智能行業(yè)健康發(fā)展,有必要明確界定醫(yī)療人工智能法律地位、明確劃分人工智能醫(yī)療事故責(zé)任承擔(dān)方式、選擇適當(dāng)數(shù)據(jù)樣本及研發(fā)者以規(guī)避偏見、盡快出臺(tái)個(gè)人信息保護(hù)法、完善人工智能相關(guān)立法加強(qiáng)全流程監(jiān)管以及大力培養(yǎng)醫(yī)療人工智能相關(guān)人才。
歐盟法對(duì)人工智能機(jī)器人的共同定義為,人工智能機(jī)器人需具備以下幾個(gè)特征:(1)通過傳感器和/或與環(huán)境(內(nèi)部連接)交換分析數(shù)據(jù);(2)可以自我學(xué)習(xí);(3)有物理上的支持;(4)具有適應(yīng)環(huán)境的行為;(5)不具有生物學(xué)意義上的生命[16]。也就是說(shuō)人工智能機(jī)器人是可以進(jìn)行自我學(xué)習(xí),積累經(jīng)驗(yàn),利用經(jīng)驗(yàn)以及學(xué)習(xí)的有效方法,進(jìn)行自主判斷,創(chuàng)造性地根據(jù)情況應(yīng)對(duì)環(huán)境的機(jī)器人。這樣具有自主性的人工智能可以被看作“電子人”。歐盟法賦予了這類“電子人”法律主體資格,規(guī)定其享有權(quán)利,承擔(dān)義務(wù)。對(duì)人工智能機(jī)器人法律主體地位持肯定觀點(diǎn)的學(xué)者均認(rèn)可人工智能機(jī)器人需要具備自主性,即推定其具有一定的“意識(shí)”。但是,目前階段,即使是與達(dá)·芬奇手術(shù)機(jī)器人類似的人工智能機(jī)器人也仍處于手術(shù)輔助地位,需要外部操作才能進(jìn)行手術(shù),實(shí)際具有醫(yī)療工具性質(zhì),不算嚴(yán)格的人工智能機(jī)器人,不能認(rèn)為其具備意思表示能力。因此,以當(dāng)前人工智能技術(shù)發(fā)展的階段來(lái)看,不能認(rèn)為人工智能具備法律主體資格,應(yīng)仍將其當(dāng)作民法中的“物”來(lái)看待。
當(dāng)人工智能發(fā)生事故致使患者合法權(quán)益受損,對(duì)此不良后果如何劃分責(zé)任是當(dāng)前需要明確的。如前所述,在醫(yī)療領(lǐng)域中人工智能仍不具備法律主體資格,即不具有人格,可被當(dāng)作“物”來(lái)看待。當(dāng)人工智能發(fā)生事故致人受損害時(shí),需要對(duì)受害人承擔(dān)賠償責(zé)任的責(zé)任主體范圍包括人工智能的開發(fā)者、生產(chǎn)者、經(jīng)營(yíng)者和使用者,但對(duì)于各責(zé)任主體的責(zé)任承擔(dān)方式目前學(xué)術(shù)界存在爭(zhēng)議。有學(xué)者認(rèn)為可以適用《產(chǎn)品銷售法》第41條、第42條的規(guī)定,對(duì)生產(chǎn)者適用嚴(yán)格責(zé)任原則,對(duì)銷售者適用過錯(cuò)責(zé)任原則來(lái)確定責(zé)任[17]。但是,對(duì)生產(chǎn)者適用嚴(yán)格責(zé)任原則的話,一方面會(huì)打擊生產(chǎn)者生產(chǎn)人工智能的積極性,加重生產(chǎn)者經(jīng)營(yíng)負(fù)擔(dān),不利于人工智能行業(yè)快速發(fā)展;另一方面也會(huì)造成生產(chǎn)者和開發(fā)者責(zé)任認(rèn)定的混亂,有可能導(dǎo)致兩者之間互相推諉責(zé)任。因此,有必要設(shè)置人工智能的特殊責(zé)任承擔(dān)方式。在受害人不存在過錯(cuò)的前提下,人工智能造成其合法權(quán)益的損害,該人工智能的開發(fā)者及生產(chǎn)者如果能夠提供完整的原始數(shù)據(jù),并且證明該數(shù)據(jù)在當(dāng)時(shí)技術(shù)水平背景下不存在紕漏,那么可以配合強(qiáng)制責(zé)任保險(xiǎn)或者人工智能補(bǔ)償基金對(duì)受害者進(jìn)行補(bǔ)償;但如果開發(fā)者及生產(chǎn)者不能提供完整的原始數(shù)據(jù),無(wú)法證明自己的開發(fā)、生產(chǎn)過程不存在紕漏,那么就需要對(duì)受害者承擔(dān)嚴(yán)格責(zé)任[18]。而對(duì)于人工智能的經(jīng)營(yíng)者和使用者則可以適用過錯(cuò)責(zé)任原則,當(dāng)經(jīng)營(yíng)者、使用者未能履行自己的注意、提示等義務(wù)時(shí),應(yīng)當(dāng)承擔(dān)對(duì)受害者的侵權(quán)責(zé)任。
人工智能中包含的數(shù)據(jù)及算法可能隱含偏見和歧視,會(huì)對(duì)社會(huì)的公平和正義造成負(fù)面影響,因此有必要減少和消除這些偏見和歧視。而要做到這一點(diǎn),需要從最基本的做起,即需要選擇適當(dāng)?shù)臄?shù)據(jù)樣本及合適的開發(fā)者。選擇適當(dāng)?shù)臄?shù)據(jù)樣本需要注意避免樣本偏差、幸存者偏差以及概率偏差,具體來(lái)說(shuō)選擇較大的樣本進(jìn)行統(tǒng)計(jì)可以避免以偏概全,選擇多種角度的樣本可以全面地觀察問題,選擇用數(shù)學(xué)方法驗(yàn)證客觀概率以及咨詢多位專家可以避免心理概率的偏差。而選擇合適的開發(fā)者需要注意盡量選擇不同性別、不同種族的開發(fā)者,不要對(duì)開發(fā)者的選擇存在偏好。同時(shí)開發(fā)者也應(yīng)遵守人工智能開發(fā)的倫理原則,不輸入自己的價(jià)值取向,尤其是在醫(yī)學(xué)領(lǐng)域更要避免偏見和歧視態(tài)度,保持對(duì)患者的客觀、公正態(tài)度。
保護(hù)數(shù)據(jù)隱私,保障個(gè)人信息安全既是保障個(gè)人合法權(quán)益的必然途徑,又是促進(jìn)大數(shù)據(jù)和人工智能行業(yè)發(fā)展的必然要求。當(dāng)前,我國(guó)出臺(tái)了多項(xiàng)法律及政策以保護(hù)個(gè)人的信息安全,其中《民法典》《網(wǎng)絡(luò)安全法》均對(duì)收集個(gè)人信息的原則、程序、責(zé)任等作出了明確的規(guī)定。但是,針對(duì)我國(guó)大數(shù)據(jù)行業(yè)快速發(fā)展的現(xiàn)狀有必要盡快出臺(tái)個(gè)人信息保護(hù)法以全面保護(hù)個(gè)人數(shù)據(jù)安全,保障個(gè)人數(shù)據(jù)隱私。
個(gè)人信息保護(hù)法應(yīng)完善互聯(lián)網(wǎng)行業(yè)規(guī)范,抵制使用緩存數(shù)據(jù),使整個(gè)行業(yè)形成保護(hù)個(gè)人信息的普遍認(rèn)識(shí)。對(duì)于網(wǎng)絡(luò)運(yùn)營(yíng)商,應(yīng)明確其保護(hù)用戶數(shù)據(jù)安全的責(zé)任,督促其健全在個(gè)人信息加工、個(gè)人信息存儲(chǔ)、個(gè)人信息共享等方面的安全保障機(jī)制;對(duì)大數(shù)據(jù)服務(wù)企業(yè),應(yīng)規(guī)定其數(shù)據(jù)交互、數(shù)據(jù)分析、數(shù)據(jù)共享方面的安全保障義務(wù),加強(qiáng)數(shù)據(jù)的保密工作,確保數(shù)據(jù)來(lái)源合法合規(guī)。同時(shí),個(gè)人信息保護(hù)法也應(yīng)引導(dǎo)個(gè)人形成保護(hù)個(gè)人數(shù)據(jù)隱私的認(rèn)識(shí),不在互聯(lián)網(wǎng)上隨意發(fā)布自己的個(gè)人信息,不要在不安全的網(wǎng)站(網(wǎng)盤)上存儲(chǔ)自己的個(gè)人信息,不要訪問不安全的鏈接、下載不安全的應(yīng)用等。
在醫(yī)療領(lǐng)域,醫(yī)院及其醫(yī)務(wù)人員應(yīng)按照相關(guān)規(guī)定,保護(hù)患者的個(gè)人信息。例如,應(yīng)建立數(shù)字平臺(tái)妥善保存患者的電子病歷、問診記錄、體檢報(bào)告等數(shù)據(jù),對(duì)患者的個(gè)人信息進(jìn)行加密處理,并定期檢查數(shù)據(jù)安全。
目前關(guān)于人工智能的法律規(guī)范滯后,尤其是在醫(yī)療領(lǐng)域存在大量的立法空白,因此需要盡快制定和完善相關(guān)法律規(guī)定,明確醫(yī)療人工智能產(chǎn)品的定義及開發(fā)和使用規(guī)范,明確其開發(fā)者、生產(chǎn)者、使用者的責(zé)任,明確醫(yī)療人員利用人工智能采集、使用及轉(zhuǎn)讓患者數(shù)據(jù)的原則、程序和規(guī)范,盡快建立統(tǒng)一的人工智能醫(yī)學(xué)倫理標(biāo)準(zhǔn),完善現(xiàn)行的醫(yī)生責(zé)任保險(xiǎn)制度,將人工智能發(fā)生的事故納入保險(xiǎn)賠償范圍。尤其是對(duì)于人工智能醫(yī)療器械,應(yīng)盡快明確其注冊(cè)指導(dǎo)規(guī)范,建立風(fēng)險(xiǎn)評(píng)估標(biāo)準(zhǔn),強(qiáng)化審核程序[19]。
在完善法律規(guī)范的同時(shí),應(yīng)建立人工智能全流程的監(jiān)管機(jī)制。從算法設(shè)計(jì)、產(chǎn)品生產(chǎn)到成果應(yīng)用均應(yīng)實(shí)現(xiàn)監(jiān)管。在外部監(jiān)管方面,監(jiān)管主體可以要求醫(yī)療人工智能開發(fā)商取得行政許可后才能研發(fā)醫(yī)療人工智能,要求開發(fā)商報(bào)備模型參數(shù)、算法設(shè)計(jì)流程,實(shí)現(xiàn)算法透明和算法的可解釋性、可問責(zé)性;并檢驗(yàn)醫(yī)療人工智能成果是否符合行業(yè)標(biāo)準(zhǔn),在人工智能成果投入使用后抽查其使用效果。在內(nèi)部監(jiān)管方面,人工智能的開發(fā)商應(yīng)建立內(nèi)部監(jiān)管制度,監(jiān)督人工智能應(yīng)用的數(shù)據(jù)采集、算法研發(fā)、設(shè)計(jì)是否違反法律倫理標(biāo)準(zhǔn),是否侵犯數(shù)據(jù)安全,是否存在偏見和歧視,是否可以實(shí)現(xiàn)醫(yī)療目的等情況。
為應(yīng)對(duì)未來(lái)醫(yī)療領(lǐng)域人工智能普遍應(yīng)用的前景,降低人工智能發(fā)生事故的風(fēng)險(xiǎn),大力培養(yǎng)既精通醫(yī)學(xué)知識(shí)又掌握人工智能相關(guān)原理的人才是必不可少的措施。
就目前醫(yī)學(xué)院的教學(xué)課程而言,有必要提供一定程度的教育,使醫(yī)學(xué)生能夠理解臨床環(huán)境中遇到的人工智能算法或軟件的基本操作原理。對(duì)現(xiàn)有的醫(yī)生體系而言,醫(yī)療機(jī)構(gòu)應(yīng)該增加人工智能技術(shù)的相關(guān)培訓(xùn),通過線上課程、線下講座、實(shí)踐操作、總結(jié)經(jīng)驗(yàn)等方式使醫(yī)生逐漸掌握人工智能新技術(shù),逐漸適應(yīng)診療方式的更新和轉(zhuǎn)變。
除此以外,還需要培養(yǎng)醫(yī)生的數(shù)據(jù)素養(yǎng)。醫(yī)生在使用醫(yī)療人工智能產(chǎn)品時(shí)應(yīng)注意患者數(shù)據(jù)的采集、處理、保存等應(yīng)符合法律規(guī)定,在保護(hù)患者個(gè)人信息的同時(shí)需要注意保障數(shù)據(jù)安全,不能隨意泄露、轉(zhuǎn)移、公開患者數(shù)據(jù)。
人工智能時(shí)代已經(jīng)來(lái)臨,人工智能有望給人類帶來(lái)巨大的利益,但與此同時(shí)人類社會(huì)中的既定經(jīng)驗(yàn)與規(guī)則秩序也將遭遇顛覆性挑戰(zhàn)。在醫(yī)療領(lǐng)域,既要促進(jìn)人工智能技術(shù)的發(fā)展,加深人工智能和醫(yī)療服務(wù)的合作,又要審慎使用這一技術(shù),避免該技術(shù)為人類帶來(lái)災(zāi)難。人工智能技術(shù)是把“雙刃劍”,只有加快立法進(jìn)程,健全法律規(guī)范,使法律和監(jiān)督成為“劍鞘”,才能握好這把劍,使之如臂使指,劍定乾坤。