候 雄,劉玉秀,錢 蕾,徐 樂,史兆榮
近年來,人工智能受到醫(yī)療領域產(chǎn)學研各界的廣泛關注,醫(yī)療人工智能的應用場景不斷擴展,在醫(yī)學影像、健康管理、疾病風險預測、藥物研發(fā)、輔助診斷等醫(yī)療服務的多個方面發(fā)揮作用。人工智能前沿技術快速融入醫(yī)療,正在重塑醫(yī)療服務模式,改變醫(yī)院的未來,但隨之而來的倫理風險也不容忽視。醫(yī)療人工智能系統(tǒng)的復雜性讓醫(yī)學界遭遇巨大的不確定性。如何防范潛在的風險,讓人工智能更好地滿足患者的健康需求和醫(yī)務人員的工作需要,助力更高質(zhì)量的醫(yī)療衛(wèi)生服務體系的發(fā)展,成為醫(yī)學界的新課題。
醫(yī)療人工智能(artificial intelligence in medicine,AIME)是專門研究、開發(fā)用于模擬和擴展目前人工醫(yī)療的理論、方法、技術和應用系統(tǒng)的一門全新的醫(yī)療技術科學。人工智能在醫(yī)療領域的最早應用實踐是20 世紀70 年代的專家系統(tǒng)參與疾病的診斷和治療[1]。1997年,達芬奇機器人手術系統(tǒng)問世,3年后,經(jīng)美國食品和藥物管理局的批準,正式用于臨床。從2011年開始,人工智能被大規(guī)模應用于醫(yī)療衛(wèi)生領域。此后的幾年里,醫(yī)療人工智能在輔助診斷、醫(yī)學影像識別、自然語言理解以及疾病監(jiān)測等方面的表現(xiàn)令人矚目,如國際商業(yè)機器公司的腫瘤機器人沃森、谷歌公司的“深度思維”等在醫(yī)療服務場景當中的應用,無疑將人工智能技術在醫(yī)療健康領域的發(fā)展推向縱深。在人工智能技術的幫助下,通過對醫(yī)學資源的收集、挖掘和利用,人類醫(yī)師可以做出更為科學的臨床診療決策[2]。放眼全球,醫(yī)療衛(wèi)生服務的人工智能時代來臨,發(fā)達國家已拉開了醫(yī)療與人工智能融合的序幕,醫(yī)療人工智能技術在英美兩國遍地開花[3]。中國在人工智能領域的發(fā)展也不甘落后?!叭斯ぶ悄堋北粚懭?017年兩會政府工作報告,同年7月國務院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,提出了面向2030 年我國新一代人工智能發(fā)展的戰(zhàn)略部署,其中“醫(yī)療+人工智能”作為重點任務之一被提上日程,大力推廣應用人工智能治療新模式新手段,建立快速精準的醫(yī)療人工智能體系[4]。2018 年《關于促進“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的意見》進一步提出促進人工智能與醫(yī)療健康融合發(fā)展的一系列政策措施。將人工智能用于醫(yī)學領域,在促進服務效率提升和服務質(zhì)量改進的同時,伴隨而來的倫理問題也不容忽視。
2.1 安全問題醫(yī)療人工智能技術的應用主要面臨兩個方面的安全問題,技術安全和信息安全。技術安全是指在醫(yī)療人工智能設備的開發(fā)設計過程中由于技術限制,未能徹底保證在實際運行過程中不會因為系統(tǒng)故障而做出危害人類的行為。如沃森智能問診系統(tǒng)因推薦錯誤診療建議引發(fā)爭議,手術機器人也有明顯的缺點,比如沒有觸覺反饋,醫(yī)師無法感知,機器人替代醫(yī)師會增加患者的緊張感等。用于介入性治療中的醫(yī)療人工智能設備的清洗消毒和病菌隔離,以及遠程手術操控的精準度問題同樣值得深入探究。醫(yī)療人工智能系統(tǒng)的信息安全關系到患者的隱私權益。人工智能與醫(yī)療的融合意味著各種數(shù)據(jù)的開源開放,也蘊含著信息與隱私泄露的風險[5]。醫(yī)療人工智能機器將患者的信息保存于云端或服務器,即便被人為刪除也能找回。與人類醫(yī)務人員不同,醫(yī)療人工智能設備對患者信息的保存只是執(zhí)行指令,任何人只要能破解密碼都能從中提取信息,從而導致患者信息泄露。另外,醫(yī)療人工智能設備運營商擁有海量的患者健康數(shù)據(jù),這會給他們各種以患者隱私謀取暴利的機會,而無視患者的知情同意。在巨大的利益誘惑下,往往難以自律。比起如何約束醫(yī)療人工智能設備,更難的是如何約束這些信息的擁有者。
2.2 醫(yī)師的主體性地位受到挑戰(zhàn)醫(yī)療人工智能應用實踐的諸多報道皆提示人類醫(yī)師在醫(yī)療服務中的主導地位將面臨來自人工智能系統(tǒng)的挑戰(zhàn)。目前,達芬奇手術機器人系統(tǒng)被各大醫(yī)院應用于泌尿外科、婦科、心胸外科和腹部外科等手術中,精準切除病灶,取得了滿意的臨床療效[6]。手術機器人在操作的精確性方面取得了優(yōu)于人類醫(yī)師的表現(xiàn)。隨著阿里巴巴等互聯(lián)網(wǎng)巨頭在醫(yī)療領域的布局,通過手機就能享受掛號、繳費、查報告、B 超取號、在線健康咨詢等全流程服務。醫(yī)療人工智能對人類醫(yī)務工作者的工作替代問題引起了眾多關注,如智能導診機器人的引入使專門從事分診工作的醫(yī)務人員面臨失業(yè)風險,移動支付技術的推廣使醫(yī)院不得不考慮削減收費業(yè)務人員的數(shù)量。
未來,高度發(fā)達的腦-機接口技術將允許醫(yī)療人工智能設備與人類醫(yī)師的智力技能進行直接連接,理解和學習人類醫(yī)師做出醫(yī)療決策的過程,從而發(fā)展成為能夠做出自主醫(yī)療處置的“類人”機器。醫(yī)師對醫(yī)療人工智能設備的絕對優(yōu)勢和主導地位將被削弱,人工智能可能在涉及對圖像進行仔細研究的領域與醫(yī)師競爭或取代醫(yī)師,如醫(yī)學影像識別。人工智能影像診斷結果的醫(yī)療責任界定問題尚未明確[7]。因此,是否應該賦予醫(yī)療人工智能法律和倫理上的主體資格,發(fā)人深省。
2.3 公平受益問題在醫(yī)學領域使用人工智能技術,能更好地了解海量醫(yī)療數(shù)據(jù)之間的關系。通過最新的人工智能工具提供的數(shù)據(jù)解釋方法,研發(fā)人員專注于開發(fā)模型,以便預測人群乃至個體患特定疾病的風險,推薦基于最新醫(yī)學證據(jù)的最佳治療方案[8]。然而,醫(yī)療人工智能技術的成本高昂,且存在醫(yī)療資源的人群和地域分配不均,僅有少部分群體能受益于這一先進診療手段。以色列學者尤瓦爾·赫拉利在其著作《未來簡史:從智人到智神》中指出一旦少部分精英階層借助高度發(fā)達的人工智能技術享受更優(yōu)質(zhì)的醫(yī)療資源,普通群體健康狀況的改善將面臨更大的挑戰(zhàn)。由此可能帶來貧富差距進一步擴大,普通群體對精英階層的仇視加深,或因此對醫(yī)療人工智能技術本身產(chǎn)生抵觸。
醫(yī)療人工智能系統(tǒng)處理個人健康數(shù)據(jù)的關鍵挑戰(zhàn)在于確保這種處理是公平的,不帶任何偏見[9]??梢栽O想,保險公司借助醫(yī)療大數(shù)據(jù)的分析得出某一人群的癌癥風險高于一般人群,出于經(jīng)濟利益的考慮,很可能將增加這一人群的保費,甚至不為其提供保險。這顯然有悖于醫(yī)學倫理的非歧視原則。
2.4 醫(yī)患關系物化醫(yī)療人工智能意味著在最少的人為干預下用計算機模擬醫(yī)師的智能行為。作為一種醫(yī)療新技術,醫(yī)療人工智能應用的本意為輔助醫(yī)師提高診斷正確率和治愈率,以此促進醫(yī)療質(zhì)量提升[10]。醫(yī)療人工智能的應用減少了醫(yī)療服務場景中人類醫(yī)護人員的直接參與,醫(yī)師診療決策所需的依據(jù)從電子儀器終端獲取,醫(yī)務人員與患者的接觸點變少了。在診療過程中形成了“醫(yī)護人員-智能設備-患者”的間接聯(lián)系,妨礙了醫(yī)務人員深入了解患者的心理和社會支持等隱性需求。
醫(yī)學倫理中強調(diào)對患者的尊重,其重要表現(xiàn)就是醫(yī)患之間的有效溝通。人工智能技術的應用使醫(yī)務人員近乎擁有了“超能力”,智能影像識別、自然語言處理等技術使醫(yī)務人員從繁雜的讀片和病史詢問中解放出來,有更多的精力專注于疑難雜癥的診斷和治療。人工智能賦予人類醫(yī)師更為精準的疾病診斷能力,但是對輔助診斷技術的依賴致使醫(yī)務人員與患者直接進行語言溝通的機會減少,診療過程缺少人文關懷。毋庸置疑,比起冰冷的機器人,患者更希望為自己提供診療服務的是更溫暖的人類醫(yī)護人員。
歐盟委員會的《可信人工智能倫理指南草案》提出了一個可信人工智能框架,強調(diào)倫理的規(guī)范性和技術的健壯性[11]。這標志著人類對人工智能技術的規(guī)范引導邁入了新的階段,引發(fā)了對于醫(yī)療人工智能相關倫理問題的思考。如何確保醫(yī)療人工智能系統(tǒng)的穩(wěn)健性和安全性,從社會倫理和法律的角度進行規(guī)范,引導醫(yī)療人工智能健康發(fā)展,更具時代氣息和重要意義。
3.1 加強特殊監(jiān)管對醫(yī)療人工智能實施特殊監(jiān)管,確保其應用于醫(yī)療服務實踐時的安全可靠。一是確立監(jiān)管主體。當前醫(yī)療人工智能處于發(fā)展的初始階段,需以政府監(jiān)管為主,社會監(jiān)督為輔。政府主導建立一個國家層面的健康大數(shù)據(jù)安全保障體系[12],構建統(tǒng)一的醫(yī)療人工智能信息安全平臺,加強法律法規(guī)的規(guī)范和引導。我國政府已于2016年開始啟動全國健康大數(shù)據(jù)平臺的建設與布局。2018 年,公安部發(fā)布《網(wǎng)絡安全等級保護條例(征求意見稿)》,將網(wǎng)絡信息安全擴大到醫(yī)療健康大數(shù)據(jù),標志著醫(yī)療行業(yè)的信息安全工作邁入新的發(fā)展階段。同時鼓勵醫(yī)療人工智能專業(yè)協(xié)會的建立,借助行業(yè)專業(yè)學會的力量,實行法制化、規(guī)范化、專業(yè)化的監(jiān)管。二是實施準入制度,即技術準入和使用者資格準入。任何一項醫(yī)療新技術在投入臨床使用前必須對其安全性、有效性、經(jīng)濟性以及使用者的資質(zhì)進行有形的論證。為此,可以參照醫(yī)院倫理委員會的設置,建立專門的醫(yī)療人工智能應用監(jiān)督委員會,指導醫(yī)院適度引入醫(yī)療人工智能設備。三是建立相應的問責機制,針對醫(yī)療人工智能使用中出現(xiàn)的不良事件要保證其可追溯性。建議參考醫(yī)療高值耗材的管理模式,實行醫(yī)療人工智能設備強制登記制度,其編號可以為明確各方責任提供依據(jù)[13]。
3.2 明確醫(yī)師主體地位在醫(yī)療人工智能的實際應用中要確保人類醫(yī)師行動和監(jiān)督的優(yōu)先地位。醫(yī)療領域引入人工智能技術的初衷是增強醫(yī)師能力,輔助臨床決策。面對人工智能技術帶來的機遇和挑戰(zhàn),更需要堅定醫(yī)師主體地位,優(yōu)化診療質(zhì)量[13]。一是加快醫(yī)學知識更新。人類醫(yī)師必須走在醫(yī)療人工智能的前面。未來,具有豐富的疾病診治經(jīng)驗的醫(yī)師將顯得尤為珍貴?;谏疃葘W習的醫(yī)療機器人設備通過學習常見病、多發(fā)病患者的診療規(guī)范,將人類醫(yī)師從簡單病癥的診治工作中解放出來,使其有更多的精力用于醫(yī)學前沿知識的學習更新,將更多的時間花在疑難雜癥的診斷與治療上。二是加強臨床技能培訓,尤其是對醫(yī)療人工智能設備的使用。相比于傳統(tǒng)的診療技術,人工智能被用于醫(yī)療服務實踐的時間較短,目前行業(yè)內(nèi)不少醫(yī)療機構尚處于觀望狀態(tài)。醫(yī)療人工智能設備的全面推廣還有很長的路要走。以達芬奇手術機器人為例,引進該系統(tǒng)的均為國內(nèi)的頂級醫(yī)院,吸引了來自全國各地醫(yī)療機構的外科醫(yī)師前來進修學習。三是強化醫(yī)護人員的倫理和人文意識。希波克拉底誓言闡明了醫(yī)師與患者互動的基本原則,醫(yī)師有保護患者利益的責任。隨著大數(shù)據(jù)和人工智能技術被用于醫(yī)療服務,需要根據(jù)隱私保護、數(shù)據(jù)所有權、知情同意等潛在問題重新審視這些原則[14]。
3.3 強化倫理規(guī)約醫(yī)療人工智能涉及人的生命,在保障技術安全的前提下,人工智能在醫(yī)療領域的合理應用離不開倫理規(guī)范的引導。一是以道馭術,用“以人為本”之道指引人工智能技術在醫(yī)療領域健康發(fā)展。未來,醫(yī)護人員要想真正做到“以患者為中心”或?qū)⒚媾R新的挑戰(zhàn)。如Sharkey等[15]指出在老年患者的護理中使用人工智能,需要警惕對老年人的過度控制和幼稚化。為此,在醫(yī)療人工智能設備的開發(fā)設計中應充分考慮用戶的自主權,系統(tǒng)設置具有可恢復性,如果需要,可以設定為手動控制。二是規(guī)避偏見,讓醫(yī)療人工智能系統(tǒng)更可靠。受醫(yī)療人工智能系統(tǒng)測試所需患者數(shù)據(jù)的潛在偏好影響,智能輔助診斷系統(tǒng)將某些診斷指定為致命的,可能導致醫(yī)師對治療方案做出不利的調(diào)整。因此,應鼓勵開展醫(yī)療人工智能系統(tǒng)研發(fā)與測試的多中心合作,將不同區(qū)域間不同醫(yī)療機構的具有代表性的、結構化、高質(zhì)量健康數(shù)據(jù)用于醫(yī)療人工智能設備的深度學習訓練。三是堅持公平受益原則,共享醫(yī)療人工智能技術的紅利。醫(yī)療人工智能的整個創(chuàng)造過程,從早期的技術發(fā)展到實際應用,都與公平相關的問題交織在一起。對此,應加快人工智能適宜技術在醫(yī)療領域的推廣應用,將符合條件的醫(yī)療人工智能診療服務納入醫(yī)保支付范圍,實現(xiàn)醫(yī)療人工智能技術對更多人群的可及性。同時,組織專業(yè)機構開展醫(yī)療人工智能相關的科普和健康教育,為公眾解開醫(yī)療人工智能技術的神秘面紗,提高這一新興技術的接受度。
國家新一代人工智能治理專業(yè)委員會于2019年6 月17 日發(fā)布了《新一代人工智能治理原則——發(fā)展負責任的人工智能》,強調(diào)人工智能的研發(fā)與應用遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理的八條原則,開展負責任的人工智能研究與創(chuàng)新。醫(yī)療人工智能的道德倫理不是奢侈特征或者附件功能,而是構建以人為本的醫(yī)療人工智能系統(tǒng)的重要基礎。如果我們成功地創(chuàng)建了倫理標準,發(fā)展出有效的醫(yī)療人工智能的衡量標準,通過使人工智能工具更加開放和用戶友好,具備經(jīng)證實的臨床實用性,那么醫(yī)療人工智能將產(chǎn)生更大的社會效益。