李 明 李昱熙 戴 廉 李小虎
人工智能(artificial intelligence,AI)已經(jīng)在醫(yī)療健康領(lǐng)域進(jìn)行了廣泛的探索性應(yīng)用,部分已經(jīng)形成商業(yè)化的使用。AI將產(chǎn)生廣泛的影響,顯著地影響醫(yī)學(xué)實踐,改變患者體驗和醫(yī)生的日常生活。與此同時,AI先進(jìn)的技術(shù)也帶來一系列新的倫理挑戰(zhàn)。醫(yī)療倫理自古以來就貫徹整個醫(yī)學(xué)發(fā)展的各個階段,AI作為變革性的技術(shù),對醫(yī)療健康體系勢必產(chǎn)生重要的影響。本文就醫(yī)療AI倫理若干問題進(jìn)行探討。
涉及患者安全的風(fēng)險主要表現(xiàn)為 AI 提供的輔助診斷、治療建議以及操作可能誤導(dǎo)醫(yī)生進(jìn)行錯誤的決策,直接或者間接對患者產(chǎn)生不同程度的機體傷害。這種危害從技術(shù)上看主要來自系統(tǒng)的算法偏見(algorithmic bias)與漏洞。算法偏見指的是AI系統(tǒng)中產(chǎn)生不公平結(jié)果的系統(tǒng)性和可重復(fù)性錯誤,偏差可能是由于許多因素造成的,包括但不限于算法本身的設(shè)計、數(shù)據(jù)編程、收集、選擇或用于訓(xùn)練算法的方式相關(guān)的意外或非預(yù)期的使用或決策。 計算機產(chǎn)生的偏見幾乎無處不在,偏見的原因往往不在準(zhǔn)則中,而是在更廣泛的社會過程中。使其結(jié)果存在無意識和制度偏差。算法偏見主要分為 “數(shù)據(jù)驅(qū)動造成的偏見”“人為造成的偏見”與“機器自我學(xué)習(xí)造成的偏見”三種類別[1]。
“數(shù)據(jù)驅(qū)動造成的偏見” 指由于原始訓(xùn)練數(shù)據(jù)存在偏見性,導(dǎo)致算法執(zhí)行時將歧視帶入決策過程。鑒于算法本身不會質(zhì)疑其所接收到的數(shù)據(jù),只是單純地尋找、挖掘數(shù)據(jù)背后隱含的結(jié)構(gòu)和模式,如果人類輸入給算法的數(shù)據(jù)一開始就存在某種偏見或喜好,那么算法獲得的輸出結(jié)果也會與人類偏見相同。 例如,圖像識別以及使用機器學(xué)習(xí)和建立學(xué)習(xí)算法的過程中,存在潛在的偏差。訓(xùn)練圖像往往來源于某個具體合作醫(yī)療機構(gòu)的數(shù)據(jù),其圖像標(biāo)識過程中帶有鮮明的該醫(yī)療機構(gòu)的診斷特色和習(xí)慣。此外,算法概念化的框架本身包含了工作組的主觀假設(shè),這種基于“主觀”上的數(shù)據(jù)結(jié)果成為所謂“客觀”的數(shù)據(jù)輸入。盡管國際影像廠商設(shè)備的圖像質(zhì)量趨同同質(zhì)性,但更多的不同廠商影像設(shè)備也存在不同的設(shè)備型號、數(shù)字化成像質(zhì)量的程度上的差異,同時模型可能造成或加劇按年齡、性別、種族、地區(qū)或其他受保護(hù)特征劃分的醫(yī)療保健人群不公平現(xiàn)象。這些因素導(dǎo)致應(yīng)用的范圍存在偏差。
“人為造成的偏見”是指算法設(shè)計者為了獲得某些利益,或者為了表達(dá)自己的一些主觀觀點而設(shè)計存在歧視性的算法。這里包括主觀的偏見和客觀的偏見,一方面由于人和技術(shù)本身問題造成的,另外一方面也有人刻意而為之。斯坦福大學(xué)有學(xué)者認(rèn)為,用于醫(yī)療保健應(yīng)用的AI開發(fā)者的價值觀可能并不總是與臨床醫(yī)生的價值觀一致。例如,可能會有誘惑,引導(dǎo)系統(tǒng)采取臨床行動,提高質(zhì)量指標(biāo),但不一定是為患者護(hù)理[2]。這些算法可能會在被潛在的醫(yī)院監(jiān)管機構(gòu)審查時,扭曲為公眾評估提供的數(shù)據(jù)。而也有人為的偏見是來自醫(yī)學(xué)的本身特點,尤其在治療方案上有著區(qū)域、學(xué)派的分歧,治療方案選擇上存在人為的偏見,盡管循證醫(yī)學(xué)已經(jīng)成為主導(dǎo),但具有主觀色彩的經(jīng)驗醫(yī)學(xué)在臨床實踐上仍有效。很多時候,沒有治療唯一的“金標(biāo)準(zhǔn)”,這也就是為什么經(jīng)常出現(xiàn)等級性質(zhì)的方案推薦,有著專家共識、臨床指南、臨床規(guī)范的不等的標(biāo)準(zhǔn)。此外人為的偏見,也有可能來自系統(tǒng)開發(fā)機構(gòu)工程師倫理知識的匱乏,缺乏專業(yè)知識。
“機器自我學(xué)習(xí)造成的偏見”是隨著算法復(fù)雜程度的日益提高,通過機器學(xué)習(xí)過程形成的決策越來越難以解釋AI內(nèi)部的代碼、算法存在 “黑箱”[3],導(dǎo)致無法控制和預(yù)測算法的結(jié)果,而在應(yīng)用中產(chǎn)生某種不公平傾向。
進(jìn)入信息化時代后,患者個人健康信息數(shù)據(jù)(personal health information,PHI)一直被關(guān)注,亦有相應(yīng)的行業(yè)規(guī)范和政策法規(guī)進(jìn)行管理。隨著數(shù)據(jù)搜集、機器學(xué)習(xí)、AI等技術(shù)的使用,個人信息泄露的情況頻繁發(fā)生,個人隱私保護(hù)、個人健康信心重要性日益凸顯。當(dāng)前對于醫(yī)療AI應(yīng)用涉及患者的隱私問題、自我保護(hù)策略和可接受性尚還沒有清晰的策略。數(shù)據(jù)更多的泄露來源是在為AI進(jìn)行訓(xùn)練的患者數(shù)據(jù)。其中,人體基因組數(shù)據(jù)的泄露潛在的生物危害和商業(yè)利益更為突出。公眾對個人隱私泄露問題的顧慮占到調(diào)查人群的59.72%[4]。
從技術(shù)角度而言,醫(yī)生不了解AI算法的局限性或范圍,從而對這種不透明的“黑箱”效應(yīng)產(chǎn)生了盲目信仰或懷疑的可能,但還是不信任的占多數(shù)。由于醫(yī)療 AI 當(dāng)前還處于相對早期的臨床應(yīng)用階段,無論醫(yī)生還是民眾對醫(yī)療 AI 的信任程度未達(dá)到期望。很多醫(yī)療 AI 系統(tǒng)沒有很好地整合到醫(yī)療工作中,即醫(yī)療 AI 解決方案并未貫穿于醫(yī)療全流程,反而部分操作增加了醫(yī)生現(xiàn)有的工作負(fù)擔(dān),其帶來的價值沒有很好的體現(xiàn)。此外,醫(yī)生對醫(yī)療 AI 新技術(shù)存有各種顧慮,不自覺地表現(xiàn)出排斥和質(zhì)疑的心理,某種程度上延緩了新技術(shù)的迅速推廣實施。對于新技術(shù)的接受程度,具有海外進(jìn)修培訓(xùn)經(jīng)歷的高學(xué)歷的中青年醫(yī)生對 AI技術(shù)應(yīng)用更持有理性的態(tài)度,而部分年長的醫(yī)生對新技術(shù)持有質(zhì)疑和排斥的心理。此外,在醫(yī)療不同場景下的應(yīng)用,也導(dǎo)致對 AI 的評價與接受度不同。有研究發(fā)現(xiàn),在醫(yī)學(xué)培訓(xùn)教育上醫(yī)生對 AI 的作用認(rèn)可程度最高[5]。
醫(yī)生對 AI 系統(tǒng)臨床應(yīng)用的另一個顧慮是誰對醫(yī)療 AI 提供的決策最終負(fù)責(zé),如果出現(xiàn)錯誤,誰來承擔(dān)后果。當(dāng)前階段,醫(yī)療 AI 的最后結(jié)果仍需要人工校驗審核,醫(yī)生承擔(dān)由此對患者診療結(jié)局的責(zé)任。未來臨床廣泛引入醫(yī)療 AI 后如何實現(xiàn)問責(zé),現(xiàn)在仍不明確。
當(dāng)AI應(yīng)用結(jié)果導(dǎo)致醫(yī)療糾紛、關(guān)于人的倫理或法律沖突時,能否從技術(shù)層面對AI技術(shù)開發(fā)人員或設(shè)計部門問責(zé),并在AI應(yīng)用層面建立合理的責(zé)任和賠償體系,保障醫(yī)療 AI 在臨床發(fā)揮其應(yīng)有的價值。
醫(yī)療AI在特定領(lǐng)域特別是影像識別上已經(jīng)高于人類識別平均水平,而且具有較高的效率,但作為工具在臨床上也有濫用的風(fēng)險,從而導(dǎo)致過度醫(yī)療。根據(jù)某城市某三級醫(yī)院院網(wǎng)站公開報道,自醫(yī)院引入肺結(jié)節(jié)影像識別 AI 技術(shù)后,肺結(jié)節(jié)篩查人次三年中增長73%,篩查直接帶來的收益增長 81%,加上手術(shù)治療,醫(yī)院總收益增長100%。 隨著效率的提升,醫(yī)院業(yè)務(wù)水平得到極大的提高。從公開的數(shù)字看,AI 給醫(yī)院帶來豐富的經(jīng)濟(jì)回報。但從所在地區(qū)的衛(wèi)生統(tǒng)計年鑒來看,所在地區(qū)的非傳染性疾病的疾病譜分布情況未發(fā)生明顯改變,而根據(jù)該院肺部結(jié)節(jié)患者和手術(shù)量短期大幅增加可以懷疑其利用 AI工具進(jìn)行了過度醫(yī)療。這種過度醫(yī)療無疑對患者身體上和經(jīng)濟(jì)上都帶來傷害。在NLST(national lung screening trial)研究中,CT篩查組中96.4%的陽性結(jié)節(jié)為良性,我國農(nóng)村肺癌早診早治項目的假陽性率也較高。過高的假陽性可能導(dǎo)致過度診斷、過度治療、醫(yī)療資源的浪費及增加受檢者焦慮心理[6]。
醫(yī)療 AI 如同雙刃劍。2019年7月17日美國神經(jīng)網(wǎng)絡(luò)公司Neuralink在舊金山舉行新聞發(fā)布會,宣布腦機接口系統(tǒng)獲得新突破。此公司研發(fā)“像縫紉機一樣”的機器人,這個機器人可以將超纖細(xì)的線植入大腦深處。目的是將AI直接植入人類大腦皮層以提高人類智能水平(即腦機接口技術(shù)),Neuralink的初衷在于幫助人類解決腦部疾病。目前,研究人員已經(jīng)在猴子身上進(jìn)行實驗,讓猴子能用大腦來控制電腦。根據(jù)Neuralink官方公布的實驗信息,他們把老鼠頭部連接到USB-C端口,通過電線將老鼠的想法傳到計算機,當(dāng)軟件分析其大腦時,可以通過揚聲器聽到老鼠神經(jīng)元發(fā)射的信號。計劃明年用于人體試驗。從技術(shù)理論上看,這種技術(shù)可以實現(xiàn)雙向控制,也就意味著計算機可以控制大腦以至于控制人類的行為,這無疑會產(chǎn)生很大的風(fēng)險。
國家藥品監(jiān)督管理局出臺了對醫(yī)療 AI的相關(guān)指導(dǎo)規(guī)范,并已啟動了認(rèn)證流程,從范圍、風(fēng)險、臨床試驗上進(jìn)行了規(guī)定。醫(yī)院倫理委員會主要負(fù)責(zé)本醫(yī)療機構(gòu)中藥物和醫(yī)療器械臨床試驗、器官移植、涉及人的醫(yī)學(xué)研究、相關(guān)技術(shù)應(yīng)用、動物實驗以及醫(yī)療管理等活動的醫(yī)學(xué)倫理學(xué)審查。目前,在醫(yī)院內(nèi)實際應(yīng)用過程中還未有對 AI相應(yīng)的倫理審查機制,有醫(yī)院參照藥物臨床試驗引入的倫理審查機制對醫(yī)療 AI 引入進(jìn)行倫理審查,但很難做到完全適用。
在實踐中,有的倫理審查委員對于“不傷害”狹義地理解為不傷害身體,對風(fēng)險的認(rèn)識仍停留在僅關(guān)注生命健康、安全方面,忽視個人數(shù)據(jù)被不正當(dāng)處理、個人信息泄露、侵害隱私權(quán)所帶來的社會心理風(fēng)險[7]。更多醫(yī)院對醫(yī)療 AI 引入并未經(jīng)過倫理審查,也有醫(yī)院在對患者應(yīng)用醫(yī)療 AI 系統(tǒng)時嘗試用患者知情同意書來規(guī)避一些潛在風(fēng)險。
醫(yī)學(xué)倫理基本規(guī)范沿襲《希波克拉底宣言》直至現(xiàn)代的《日內(nèi)瓦宣言》[8],其基本原則包括對患者的不傷害原則、有利原則、公正原則和尊重原則。任何醫(yī)療新技術(shù)在醫(yī)療中應(yīng)用都基于醫(yī)療倫理道德,在倫理范圍內(nèi)規(guī)范醫(yī)療實踐的準(zhǔn)則和秩序,其新技術(shù)最終目的是為了人類健康福祉服務(wù),而非對人類的傷害。
眾多產(chǎn)業(yè)組織在AI倫理上制定了規(guī)范原則。目前,兩個影響較為廣泛的AI倫理共識:《阿西洛馬人工智能原則》(AsilomarAIPrinciples)和國際電氣電子工程師協(xié)會(Institute of Electrical and Electronics Engineers,IEEE)組織倡議的《人工智能倫理標(biāo)準(zhǔn)》,鼓勵技術(shù)人員優(yōu)先考慮道德規(guī)范自主和智能技術(shù)創(chuàng)造中的影響因素。很多國際巨頭如: IBM、Google、Microsoft、Intel 等都制定了AI的產(chǎn)品原則和倫理規(guī)定。這些原則大部分都涉及安全、透明、保護(hù)隱私、防止濫用等內(nèi)容,核心都是充分維護(hù)人類根本利益??梢钥闯?,這些都是以人為核心的理念。
目前,美國醫(yī)學(xué)會(American Medical Association,AMA)對醫(yī)療 AI 明確提出了規(guī)范,特別強調(diào)促進(jìn)精心設(shè)計、高質(zhì)量、經(jīng)臨床驗證的醫(yī)療保健AI的發(fā)展,即(1)根據(jù)以用戶為中心的,特別是針對醫(yī)師和其他醫(yī)務(wù)成員,進(jìn)行最佳實踐的設(shè)計和評估;(2)透明;(3)符合引線標(biāo)準(zhǔn)的再現(xiàn)性;(4)識別并采取措施解決偏見,避免引入或加劇醫(yī)療保健差異,包括對弱勢人群測試或部署新的AI工具時;(5)保護(hù)患者和其他個人的隱私利益,并保存信息[9]。
中國的一些醫(yī)療行業(yè)協(xié)會也成立了AI分會,在醫(yī)療 AI 倫理規(guī)范上也做了一定探索。然而,僅有中國醫(yī)師協(xié)會超聲醫(yī)師分會發(fā)布了《中國超聲醫(yī)學(xué)人工智能行為準(zhǔn)則:北京宣言》,并從“制定規(guī)范、科學(xué)管理;實現(xiàn)醫(yī)工結(jié)合、促進(jìn)轉(zhuǎn)化;以臨床為中心,使患者利益最大化”3個方面 13條細(xì)則闡述了準(zhǔn)則[10]。
目前,對跨學(xué)科領(lǐng)域的醫(yī)療AI還少有倫理上的研究與探索,推測其原因在于醫(yī)療 AI 尚未在臨床得到廣泛的應(yīng)用,臨床的迫切需求不夠強烈。綜合來看,醫(yī)療AI的倫理規(guī)范仍是以人為核心、強化患者安全、保護(hù)患者隱私、AI 技術(shù)要透明、防止濫用的最終目的是促進(jìn)疾病恢復(fù),維護(hù)人類健康,實現(xiàn)健康民主。
盡管醫(yī)療 AI 不可能取代醫(yī)生,但是醫(yī)生相當(dāng)多的重復(fù)性、規(guī)律性的診療工作可以被AI 所代替。長遠(yuǎn)來看,AI將產(chǎn)生廣泛的影響,徹底改變醫(yī)學(xué)實踐,改變患者體驗和醫(yī)生的日常生活,醫(yī)務(wù)人員的職業(yè)形態(tài)也必將發(fā)生改變,這就對醫(yī)生的臨床技能提出了更高的要求,應(yīng)更加注重對患者的人文關(guān)懷。
醫(yī)療 AI 應(yīng)用逐漸向消費者端滲透可及,主要表現(xiàn)為個人、組織更加便捷地獲取各專業(yè)領(lǐng)域及生活行為方式的最適宜決策建議,帶來開放、可及、民主式的醫(yī)療,給公眾和醫(yī)生更多機遇,也彌補之前醫(yī)患之間“信息不對稱”的鴻溝,患者可以更加積極主動地參與自身的診療過程,實現(xiàn)了“健康民主”,從而對整個醫(yī)療健康體系產(chǎn)生重大的變革。
為醫(yī)療AI的倫理創(chuàng)造“法律”或“規(guī)則”是具有挑戰(zhàn)性的,因為倫理道德界限很難教授軟件系統(tǒng)或者機器[11],而且醫(yī)學(xué)和相關(guān)影響因素本身的復(fù)雜性也決定了醫(yī)療AI倫理規(guī)范定義的艱巨性。此外,更核心的問題是人類的道德與倫理規(guī)范如何實現(xiàn)。
醫(yī)療AI系統(tǒng)發(fā)現(xiàn)、理解并指出人類在決策過程中的不一致性時,還可能揭示出人類自身偏袒、狹隘和認(rèn)知偏見的方式,反過來促進(jìn)人類采取更公正或平等的觀點。形成共同價值觀的過程中,人類可能比AI進(jìn)步得更多。
利用技術(shù)工具在AI中建立道德規(guī)范,部署AI的人面臨的問題之一是深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的黑盒子性質(zhì)。這使得建立透明度和減少偏見有一定的困難。作為技術(shù)的提供方,越來越多的公司正在部署技術(shù),搭建平臺來幫助解決這個問題。例如,IBM的AI OpenScale、開放源碼工具以及來自AI初創(chuàng)企業(yè)的解決方案,可以提供更大的透明度,并檢查偏見。在實現(xiàn)上,要確保創(chuàng)建道德的治理結(jié)構(gòu)并確保AI系統(tǒng)的責(zé)任,明確角色和結(jié)構(gòu),將AI道德責(zé)任分配給關(guān)鍵人員和團(tuán)隊,并賦予他們權(quán)力。利用調(diào)整現(xiàn)有的治理結(jié)構(gòu),在特定的團(tuán)隊中構(gòu)建問責(zé)制來實現(xiàn)。例如,組織中現(xiàn)有的道德主管(如首席道德官)也可以被委托負(fù)責(zé)研究AI中的道德問題。建立內(nèi)部和外部委員會,負(fù)責(zé)合乎道德地部署AI,這些委員會是獨立的,因此不會受到急于部署AI的人的壓力。
此外,對于使用機構(gòu),醫(yī)院倫理委員會需要對醫(yī)療 AI 倫理的制度進(jìn)行完善,全方位地對產(chǎn)品和方案進(jìn)行評估,既要保證安全不傷害也要顧及技術(shù)進(jìn)步性的意義。
2019年7月,中央全面深化改革委員會召開第九次會議,審議通過《國家科技倫理委員會組建方案》。會議指出,科技倫理是科技活動必須遵守的價值準(zhǔn)則。組建國家科技倫理委員會,目的就是加強統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),推動構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系。要抓緊完善制度規(guī)范,健全治理機制,強化倫理監(jiān)管,細(xì)化相關(guān)法律法規(guī)和倫理審查規(guī)則,規(guī)范各類科學(xué)研究活動。這將是國家最高層級的組織機構(gòu),指導(dǎo)所有科技類的倫理規(guī)范。
關(guān)于未來,一方面期望中華醫(yī)學(xué)會、中國醫(yī)師協(xié)會在國家級學(xué)會層面上制定醫(yī)療 AI 倫理規(guī)范,以進(jìn)行統(tǒng)一的指導(dǎo),另一方面對于醫(yī)療 AI 生產(chǎn)者與使用者有必要進(jìn)行教育和培訓(xùn),了解醫(yī)療AI面臨的倫理挑戰(zhàn),同時確保患者充分了解如何使用這些工具來決定其診療,更好地利用醫(yī)療 AI 工具為人類健康提供服務(wù)。