劉 琪 谷笑穎
2017年,李克強(qiáng)總理在政府工作報(bào)告中首次提出人工智能(artificial intelligence,AI),這讓我們深深感受到了AI時(shí)代的到來。作為人們生活的重要領(lǐng)域,醫(yī)療領(lǐng)域也會(huì)因?yàn)锳I技術(shù)的廣泛應(yīng)用給人們帶來更多的福利。AI對(duì)于改善醫(yī)療資源配置不均、降低醫(yī)療成本、提高醫(yī)療效率問題發(fā)揮著重要的作用[1]。隨著AI在醫(yī)療實(shí)踐和醫(yī)學(xué)研究中的廣泛使用,人們將會(huì)面臨許多需要關(guān)注的問題和挑戰(zhàn)。醫(yī)療衛(wèi)生保健從業(yè)者和生物醫(yī)學(xué)研究人員已經(jīng)逐漸認(rèn)識(shí)到了AI技術(shù)的巨大潛力,但同時(shí)必須重新審視長期存在的醫(yī)學(xué)倫理原則,以及是否會(huì)提出新的倫理、社會(huì)等問題。
AI概念由美國計(jì)算機(jī)科學(xué)家約翰·麥卡錫于1956年在美國達(dá)特茅斯學(xué)院召開的學(xué)術(shù)研討會(huì)上提出,“讓機(jī)器達(dá)到這樣的行為,即與人類做同樣的行為”可以被稱之為AI。AI作為一門新的技術(shù)科學(xué),它是用來研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)[2]。
醫(yī)療AI是AI技術(shù)在醫(yī)療領(lǐng)域的運(yùn)用與發(fā)展。AI在醫(yī)療領(lǐng)域已廣泛應(yīng)用于醫(yī)療影像、醫(yī)學(xué)統(tǒng)計(jì)、虛擬助手、疾病診斷與預(yù)測等領(lǐng)域。2014年,電腦醫(yī)生Watson正式登上了醫(yī)療的舞臺(tái),它通過與病人溝通來了解病人的病情,之后會(huì)在較短的時(shí)間內(nèi)診斷出病人所患的疾病并開出藥方;Watson曾用10分鐘的時(shí)間為一名60歲的女患者診斷出白血病,并提出了治療方案[3]。2015年,Atomwise發(fā)現(xiàn)了該公司AI技術(shù)預(yù)測的兩種藥物可以在不到一天的時(shí)間內(nèi),而不是幾年的時(shí)間里,顯著降低埃博拉病毒的傳染性。2016年9月,谷歌旗下的AI公司Deepmind與Moorfield眼科醫(yī)院NHS(National Health Service)信托基金合作,通過在CT和核磁掃描成像上運(yùn)用智能分隔技術(shù),利用深度學(xué)習(xí)提高分割準(zhǔn)確率和速度,在不降低準(zhǔn)確率的前提下,提高分割的效率。在荷蘭,分析公司Zorgprisma Publiek通過IBM Watson的云端服務(wù)分析從保險(xiǎn)公司獲得的數(shù)字發(fā)票,使得患者能夠避免不必要的住院治療。在加拿大,Deep Genomics公司將深度學(xué)習(xí)技術(shù)應(yīng)用于基因組學(xué)中,從而揭示了疾病的遺傳根源,確定了疾病的遺傳決定因素[4]。
AI在我國醫(yī)療領(lǐng)域的應(yīng)用尚處于起步階段,但是我國醫(yī)療AI技術(shù)擁有廣闊的發(fā)展前景。2016年國務(wù)院在印發(fā)的《“健康中國2030”規(guī)劃綱要》中明確提出要大力推動(dòng)“互聯(lián)網(wǎng)+健康醫(yī)療”服務(wù),之后又相繼出臺(tái)《“十三五”衛(wèi)生與健康科技創(chuàng)新專項(xiàng)規(guī)劃》《新一代人工智能發(fā)展規(guī)劃》等政策。2018年6月,國內(nèi)首個(gè)肺癌臨床科研智能病種庫和肺癌多學(xué)科智能診斷系統(tǒng)由四川大學(xué)華西醫(yī)院等單位研發(fā)成功,這套系統(tǒng)對(duì)小于5毫米的肺部結(jié)節(jié)檢出率可達(dá)到98%以上。AI與醫(yī)療的結(jié)合被認(rèn)為是最有發(fā)展前景的領(lǐng)域,因?yàn)锳I在醫(yī)療上的運(yùn)用不僅可以提高醫(yī)療生產(chǎn)力[5],而且可以造福于人類。
由于AI在醫(yī)療領(lǐng)域所起的作用越來越顯著,使其在醫(yī)療領(lǐng)域的應(yīng)用范圍也在不斷擴(kuò)大,一些倫理困境也隨之?dāng)[在了我們面前。例如,AI會(huì)泄露患者的信息嗎?是否應(yīng)該給予AI主體地位?如何處理由AI引發(fā)的醫(yī)療事故?AI的算法是由人類設(shè)定的,出現(xiàn)算法“歧視”怎么辦?誰將在計(jì)算機(jī)提供的臨床決策中擁有最終決定權(quán)?全知機(jī)器將會(huì)關(guān)閉循環(huán),還是聰明的臨床醫(yī)生仍將發(fā)揮作用?保險(xiǎn)公司或托管醫(yī)院會(huì)配置算法嗎?病人還有發(fā)言權(quán)嗎?這些問題都不得不使我們深思。
2.1.1 人機(jī)互動(dòng)仍存困難
Byron Reeves和Clifford Nass都曾認(rèn)為人類與機(jī)器的相互作用和人與人的關(guān)系應(yīng)該是一樣的。他們認(rèn)為人機(jī)互動(dòng)應(yīng)具有基本的社交性和自然性,就像現(xiàn)實(shí)生活中人與人的互動(dòng)一樣[6]。但在當(dāng)前的技術(shù)條件下,AI仍然不具有像自然人一樣的意識(shí)。醫(yī)療AI需要接受準(zhǔn)確的數(shù)據(jù)輸入才能產(chǎn)生正確的診斷結(jié)果,而病人的癥狀并不是總能用正確的醫(yī)學(xué)術(shù)語來描述,癥狀和疾病之間的關(guān)系不總是簡單的,有許多癥狀和疾病重疊的情況,在這種情況下,對(duì)某一特定疾病的診斷,醫(yī)生們都會(huì)產(chǎn)生意見的分歧,病人可以完全信任一臺(tái)“智能機(jī)器”嗎?而且病人會(huì)因?yàn)楹ε潞涂謶蛛[瞞真實(shí)的病情,報(bào)告不準(zhǔn)確或不相關(guān)的信息,而一個(gè)經(jīng)驗(yàn)豐富的醫(yī)生是能夠從病人的神態(tài)中讀出病人未訴諸于口的信息,這樣一個(gè)能夠傾聽和理解自己的醫(yī)生更容易得到病人的信任,從而使醫(yī)生做出正確的診療判斷。聊天機(jī)器人正在興起,在將來如果AI算法可以通過應(yīng)用程序或聊天機(jī)器人來模擬同理心,那病人會(huì)愿意將信息全部分享給機(jī)器嗎?對(duì)于病人來說,同理心、有效的溝通和安慰十分重要。
2.1.2 臨床共情溝通存在障礙
醫(yī)療服務(wù)提供者和醫(yī)療需求者之間的關(guān)系是治療關(guān)系,所以醫(yī)療提供者在醫(yī)患關(guān)系中往往處于有利地位,不可避免地在一定情況下有可能對(duì)病患方造成傷害和壓力。那么,專業(yè)醫(yī)護(hù)人員與患者之間的關(guān)系就不僅僅表現(xiàn)為一種普通的社會(huì)關(guān)系,更有著重要的法律和道德關(guān)系。治療關(guān)系的核心是信任,因?yàn)樾湃问轻t(yī)療提供者與患者關(guān)系的基礎(chǔ)。為了做出準(zhǔn)確的診斷并提供最佳的治療方案,醫(yī)療提供者有必要與患者交流所有相關(guān)的臨床信息,這就需要進(jìn)行有效的臨床共情溝通。醫(yī)患臨床共情交流中,患者告知醫(yī)生關(guān)于自身不適癥狀及內(nèi)心顧慮,醫(yī)生在收集患者更多的相關(guān)信息資料后,根據(jù)對(duì)病情的判斷和病患的個(gè)人需求,進(jìn)行準(zhǔn)確的診斷和心理感知,從而提供更多的專業(yè)治療和心理安慰。與此同時(shí),通過有效的醫(yī)患溝通,患者感受被傾聽,進(jìn)而感受個(gè)人價(jià)值被理解和尊重,在心理上不再孤獨(dú),從而接收和配合醫(yī)生的治療方案,這樣醫(yī)療共情的溝通過程可以在一定程度上提高短期和遠(yuǎn)期療效[7]。而AI技術(shù)在臨床中的物理應(yīng)用,目前更多的是關(guān)注診斷程序、用藥指導(dǎo)及輔助醫(yī)療手段等,醫(yī)療AI模擬技術(shù)雖然具有令人難以置信的交互性和類人的移情關(guān)懷的外觀,但當(dāng)患者有意識(shí)地意識(shí)到醫(yī)療服務(wù)提供者是一臺(tái)機(jī)器時(shí),仍然缺乏良好的溝通和信任。
2.1.3 醫(yī)療AI主體地位欠缺
醫(yī)療AI在某種意義上只能根據(jù)預(yù)設(shè)程序,被動(dòng)地根據(jù)已知的選項(xiàng)對(duì)疾病進(jìn)行檢測和診斷預(yù)測,而不能從病人的角度進(jìn)行有效的情感交流,醫(yī)療AI能夠代替醫(yī)生完成一些重復(fù)性、技術(shù)含量低的工作,但是面對(duì)病情復(fù)雜的病人,醫(yī)生需要花費(fèi)時(shí)間與病人溝通來了解病情。而這些冰冷的機(jī)器是非人性化的,它們無法完成醫(yī)生和病人之間的溝通。例如,如果病人的病情和手術(shù)的復(fù)雜程度會(huì)影響到手術(shù)的質(zhì)量,醫(yī)生就需要提前告知病人手術(shù)存在的風(fēng)險(xiǎn),讓病人及其家屬?zèng)Q定是否選擇AI進(jìn)行手術(shù)。如果病人在手術(shù)前產(chǎn)生擔(dān)憂、反感甚至抵觸的心理,作為醫(yī)生,要及時(shí)地疏導(dǎo)病人的不良情緒以免影響到手術(shù)的質(zhì)量??梢娽t(yī)生和病人之間的互動(dòng)是無法通過算法來復(fù)制的,人類醫(yī)生的主體角色地位是必須的,而AI只能充當(dāng)醫(yī)生的助手,執(zhí)行一些日常的和算法設(shè)定的任務(wù)。
2.2.1 醫(yī)療大數(shù)據(jù)的隱私泄露
AI在醫(yī)療上的應(yīng)用,有很大部分都集中在虛擬數(shù)據(jù)處理上,即主要基于云計(jì)算和大數(shù)據(jù)的采集、處理和歸納。醫(yī)療大數(shù)據(jù)不僅包括病人的姓名、年齡、婚姻狀況、身份證號(hào)、職業(yè)等基本信息,還包括了病人大量的敏感信息,如現(xiàn)病史、遺傳史、身體缺陷、治療方案、治療情況、各種化驗(yàn)檢查結(jié)果、各種輔助檢查報(bào)告等更多的信息,這些內(nèi)容都涉及到了病人的隱私。含有病人隱私的數(shù)據(jù)保存于云端或存儲(chǔ)器,一旦醫(yī)院的網(wǎng)絡(luò)服務(wù)器遭到黑客或網(wǎng)絡(luò)病毒的攻擊,病人的信息就會(huì)泄露,如果這些信息被不法分子用到不正當(dāng)?shù)耐緩?,病人的隱私權(quán)就會(huì)遭到侵犯。2016年,全國30個(gè)省275例艾滋病感染者表示,他們收到了自稱是政府工作人員的詐騙電話,被要求提供數(shù)百元乃至上千元的手續(xù)費(fèi)才能獲得政府的補(bǔ)助。這就意味著一些艾滋病病人的個(gè)人信息已經(jīng)遭到了泄露[8]??梢钥闯?,在醫(yī)療數(shù)據(jù)大時(shí)代下,病人的隱私權(quán)很容易受到侵害,并且一旦泄露,將呈規(guī)模大、范圍廣的趨勢。
2.2.2 數(shù)據(jù)挖掘中的隱私安全問題
任何醫(yī)療數(shù)據(jù)挖掘工作的首要任務(wù)是確保病人的機(jī)密性。尊重隱私和信任反映了自主權(quán)和尊嚴(yán)的權(quán)利,被視為個(gè)人幸福的必要條件。由于侵犯隱私或未經(jīng)授權(quán)濫用信息將會(huì)導(dǎo)致對(duì)信任的背離,進(jìn)而損害了對(duì)醫(yī)療服務(wù)提供者及其衛(wèi)生健康職業(yè)的信任。
當(dāng)前,醫(yī)療AI技術(shù)中利用數(shù)據(jù)挖掘技術(shù)從大量的病歷數(shù)據(jù)中通過算法搜索隱藏于其中信息的過程被廣泛應(yīng)用,這種方法能夠有效地構(gòu)建合理的疾病診斷相關(guān)分組,目的是使AI適應(yīng)疾病診治的復(fù)雜性和多樣性,并且客觀、公平地進(jìn)行醫(yī)療診斷。但在應(yīng)用過程中,毫無疑問地會(huì)存在隱私泄露、數(shù)據(jù)庫被濫用,甚至?xí)?dǎo)致倫理和法律問題。例如,一個(gè)雇主可以通過訪問醫(yī)療記錄來篩選出那些有糖尿病或者嚴(yán)重心臟病的人,從而意圖削減其保險(xiǎn)支出[9]。這種數(shù)據(jù)是收集自特定的個(gè)人,那么就會(huì)出現(xiàn)一些涉及保密、法律和倫理的問題。又如,在遺傳基因的數(shù)據(jù)研究中,即使這項(xiàng)研究不涉及創(chuàng)建新的實(shí)驗(yàn)數(shù)據(jù),也會(huì)使由于信息相關(guān)性挖掘而可能造成許多家庭成員相關(guān)疾病隱私的暴露。
目前的醫(yī)療領(lǐng)域,如果沒有醫(yī)生的參與AI是不能獨(dú)立地對(duì)病人做出診斷的。隨著醫(yī)療AI技術(shù)的不斷發(fā)展,由于機(jī)器人較人腦有更多的腦容量和更強(qiáng)大的學(xué)習(xí)能力,未來在AI技術(shù)成熟時(shí),人們也越來越依賴AI技術(shù),機(jī)器人完全可以獨(dú)立自主地做出診斷結(jié)果,它的決策分析能力甚至可以超越人類。2017年,由幾位科學(xué)家共同開發(fā)出的診斷乳腺癌的AI與病理學(xué)家展開了一場比賽,比賽結(jié)果是病理學(xué)家準(zhǔn)確率為73.3%,AI準(zhǔn)確率為88.5%[10]。然而,雖然利用AI診斷的準(zhǔn)確率比較高,但是由于AI仍存在著不可預(yù)測性,醫(yī)療風(fēng)險(xiǎn)仍然不可避免。如果機(jī)器人獲得了法律上和道德上的主體地位,那么將來會(huì)出現(xiàn)依法執(zhí)業(yè)的“機(jī)器人醫(yī)生”嗎?如果AI協(xié)助做出的醫(yī)療決策對(duì)病人造成了傷害,AI是作為一種工具(如聽診器)還是作為單個(gè)實(shí)體來處理呢?
AI技術(shù)在醫(yī)療領(lǐng)域的不斷應(yīng)用也使得醫(yī)患關(guān)系變得十分復(fù)雜。傳統(tǒng)的醫(yī)患關(guān)系是指病人與醫(yī)療機(jī)構(gòu)和醫(yī)務(wù)人員之間的關(guān)系,而如今就多了病人與醫(yī)療AI系統(tǒng)或平臺(tái)之間這層關(guān)系。這也意味著AI給原本緊張的醫(yī)患關(guān)系帶來了巨大的挑戰(zhàn)。所以對(duì)于AI在診療過程中發(fā)生的醫(yī)療事故,整個(gè)醫(yī)療AI供應(yīng)鏈中的人,包括機(jī)器人設(shè)計(jì)者、程序員、生產(chǎn)廠商、設(shè)備采購員等是否都要承擔(dān)責(zé)任,這是當(dāng)前醫(yī)療AI應(yīng)用過程中不可避免的倫理和法律問題。
從表面上看來,算法作為一種數(shù)學(xué)結(jié)構(gòu),是很客觀的,不像人類那樣具有各種情緒和偏見,容易受到外界環(huán)境的影響,不會(huì)產(chǎn)生歧視。但是,實(shí)際情況卻并非如此。算法并非完全客觀,其中可能也會(huì)暗藏歧視。AI算法會(huì)出現(xiàn)“歧視”,這其中可能有數(shù)據(jù)本身的問題,也可能會(huì)有算法開發(fā)者和設(shè)計(jì)者的問題,因?yàn)锳I算法的開發(fā)者和設(shè)計(jì)者會(huì)把自己所持有的某種歧視嵌入到算法的設(shè)計(jì)目的中去,從而被AI所繼承。由于算法運(yùn)作的不可知,AI會(huì)把這種歧視進(jìn)一步放大或固化,從而設(shè)計(jì)出帶有“歧視”的AI。一旦這些帶有“歧視”的AI應(yīng)用到市場中去,可能會(huì)給人類帶來危害。
如果AI算法的開發(fā)者和設(shè)計(jì)者將違背醫(yī)學(xué)倫理的思想體現(xiàn)在算法上,那么制造出來的AI就會(huì)導(dǎo)致一些倫理問題。例如,如果算法開發(fā)者對(duì)某些群體具有歧視,因醫(yī)療數(shù)據(jù)涉及種族、性別、宗教信仰等信息,就會(huì)導(dǎo)致設(shè)計(jì)出來的醫(yī)療AI對(duì)這些群體具有診療歧視。在醫(yī)療保險(xiǎn)領(lǐng)域,AI在對(duì)投保人特征及其表現(xiàn)行為進(jìn)行分析,會(huì)對(duì)那些被識(shí)別為特殊疾病或未來發(fā)病率極高的投保人收取較多費(fèi)用,這種情況會(huì)對(duì)那種健康狀況不佳且經(jīng)濟(jì)條件差的投保人非常不利。所以帶有“歧視”的AI是不利于社會(huì)公正的。
AI在醫(yī)療領(lǐng)域的快速發(fā)展為人類健康保障提供了支撐,雖然醫(yī)療AI在應(yīng)用中存在一些倫理困境,但只要對(duì)這些倫理困境進(jìn)行研究和解決,就能讓醫(yī)療AI更好地造福人類。
首先,我國《職業(yè)醫(yī)師法》《母嬰保護(hù)法》等法律都對(duì)病人隱私權(quán)作出了規(guī)定,但這些法律很難具有現(xiàn)實(shí)操作性,制定系統(tǒng)完善的專門法是對(duì)病人隱私權(quán)最有力的保護(hù)。美國對(duì)隱私權(quán)法律制定方面采取的做法十分全面。1996年,美國國會(huì)通過了《健康保險(xiǎn)轉(zhuǎn)移與責(zé)任法案》,該法案對(duì)病人的隱私保護(hù)規(guī)則非常嚴(yán)格,即使是泄露了病人的姓名也屬于違反了該法案,在懲罰措施的制定方面也十分的詳細(xì)。所以在對(duì)病人隱私權(quán)保護(hù)法律的制定上可以借鑒美國的立法經(jīng)驗(yàn)。其次,加強(qiáng)病人的隱私保護(hù)還需結(jié)合政府的力量,政府應(yīng)該重視我國互聯(lián)網(wǎng)技術(shù)與醫(yī)療行業(yè)的結(jié)合,積極推進(jìn)病人信息保護(hù)新技術(shù)的開發(fā)應(yīng)用。最后,通過購買網(wǎng)絡(luò)保險(xiǎn)來規(guī)避病人隱私泄露的風(fēng)險(xiǎn)。許多發(fā)達(dá)國家都會(huì)購買網(wǎng)絡(luò)保險(xiǎn)來規(guī)避商業(yè)上的風(fēng)險(xiǎn),盡量將損失降到最低。所以,醫(yī)療大數(shù)據(jù)行業(yè)企業(yè)、醫(yī)療衛(wèi)生機(jī)構(gòu)和病人可以考慮購買網(wǎng)絡(luò)保險(xiǎn)來保護(hù)病人的隱私。
在過去的幾十年里,智能機(jī)器人的出現(xiàn)在醫(yī)療服務(wù)中占據(jù)了重要的地位,并且在其應(yīng)用過程中,不僅是開發(fā)先進(jìn)的程序來解決我們的臨床問題,而且科學(xué)家們?cè)噲D開發(fā)復(fù)制機(jī)器的心理素質(zhì)。AI倡導(dǎo)者的主張是大腦和機(jī)器之間沒有區(qū)別,他們認(rèn)為機(jī)器倫理也有可能,就像人類倫理一樣。根據(jù)AI科學(xué)家的說法,機(jī)器倫理的最終目標(biāo)是創(chuàng)造一臺(tái)本身遵循理想倫理原則或一套原則的機(jī)器,也就是說,在作出關(guān)于它可能采取的行動(dòng)路線的決定時(shí),是以這一原則或這些原則為指導(dǎo)的。筆者對(duì)這種觀點(diǎn)持質(zhì)疑態(tài)度,首先,倫理學(xué)不是一種可以計(jì)算的東西;其次,如果把思維歸因于機(jī)器,它就會(huì)引發(fā)與機(jī)器有關(guān)的倫理問題,如果不區(qū)分思維和機(jī)器,這不僅是在重新定義人類思維,而且是在重新定義整個(gè)社會(huì);最后,心智的概念是我們倫理思考的核心,有心智就是有能力做出自愿的決定和行動(dòng)。這是因?yàn)槿祟惖男闹鞘亲晕乙庾R(shí)的,而這是機(jī)器至今所缺乏的特性[11]。醫(yī)療行業(yè)除了為病人治療身體上的疾病,人文關(guān)懷也是至關(guān)重要的,醫(yī)生和病人之間存在的醫(yī)學(xué)道德現(xiàn)象和醫(yī)學(xué)道德問題是AI解決不了的,所以仍要堅(jiān)持人的主體地位,發(fā)揮好AI的輔助作用,構(gòu)建人機(jī)共同體,讓AI更好地為病人服務(wù)。
我國現(xiàn)有的規(guī)范醫(yī)療損害的法律主要是《醫(yī)療事故處理?xiàng)l例》和《侵權(quán)責(zé)任法》?,F(xiàn)階段,醫(yī)療AI仍不具備產(chǎn)生民事法律關(guān)系的主體資格,只是作為輔助醫(yī)生診療的工具,即醫(yī)療器械。醫(yī)療器械的工具屬性可以將其納入產(chǎn)品的范疇之中,《侵權(quán)責(zé)任法》中規(guī)定由于醫(yī)療器械產(chǎn)品缺陷造成的醫(yī)療損害,由醫(yī)療機(jī)構(gòu)和生產(chǎn)者承擔(dān)連帶賠償責(zé)任。
由于AI是基于復(fù)雜的算法和醫(yī)療大數(shù)據(jù)來對(duì)病人的病例進(jìn)行分析得到診療方案,在這一過程中,人們無法知道AI是如何操作的,而且目前在醫(yī)療領(lǐng)域也沒有一個(gè)AI技術(shù)和安全標(biāo)準(zhǔn),所以就無法識(shí)別AI醫(yī)療器械產(chǎn)品存在的瑕疵。一旦發(fā)生醫(yī)療事故,也就無法知道醫(yī)療AI產(chǎn)品是否有缺陷。這就迫切需要成立一個(gè)醫(yī)療AI監(jiān)管機(jī)構(gòu),這個(gè)機(jī)構(gòu)要由醫(yī)療AI生產(chǎn)者代表、醫(yī)學(xué)專家、倫理學(xué)專家等組成,從醫(yī)療AI的生產(chǎn)到投入使用都需要醫(yī)療AI監(jiān)管機(jī)構(gòu)審查醫(yī)療AI的安全性和倫理性。而且,在審查過程中,還需建立強(qiáng)制登記制度,一旦發(fā)生醫(yī)療事故可以明確各方責(zé)任。醫(yī)療AI監(jiān)管機(jī)構(gòu)必須嚴(yán)格監(jiān)督和審查醫(yī)療AI的生產(chǎn)和應(yīng)用,只有這樣才能降低醫(yī)療風(fēng)險(xiǎn),確保病人的健康權(quán)益。
正確使用算法可以識(shí)別和消除許多可避免的錯(cuò)誤和不必要的醫(yī)療事故。AI要避免出現(xiàn)“歧視”,算法的設(shè)計(jì)就必須要合乎倫理規(guī)范。一方面,不僅要對(duì)AI的技術(shù)開發(fā)人員進(jìn)行倫理培訓(xùn),還要加強(qiáng)相關(guān)從業(yè)人員的道德教育,使AI在開發(fā)和設(shè)計(jì)階段就接受倫理準(zhǔn)則的約束。另一方面,AI程序員要避免將個(gè)人的敏感數(shù)據(jù)寫入程序。敏感數(shù)據(jù)指病人的種族、政治傾向、宗教信仰等。AI的輸入和輸出之間存在著人們無法洞悉的“隱層”,被稱之為“黑箱”,之所以稱之為“黑箱”意味著人們不僅不能觀察到AI中的算法是如何運(yùn)作的,而且即使AI向人們解釋,也無法得到理解。所以僅僅對(duì)AI的開發(fā)者和設(shè)計(jì)者進(jìn)行監(jiān)督也不能完全避免AI出現(xiàn)“歧視”。這就需要法律要求AI研發(fā)機(jī)構(gòu)履行透明、公開、程序合法等義務(wù),一旦法律提出了相關(guān)的要求,那么算法的設(shè)計(jì)者就會(huì)接受社會(huì)的監(jiān)督而變得公正。
如今,醫(yī)療AI的整體發(fā)展趨勢已經(jīng)勢不可擋。AI在醫(yī)療領(lǐng)域的應(yīng)用有效提高了人類的整體醫(yī)療水平和健康狀況,但也不能忽視AI給醫(yī)療行業(yè)帶來的一系列倫理困境,這也再次證明了“科技是一把雙刃劍”。從發(fā)展程度上看,我們?nèi)蕴幱凇叭魽I時(shí)代”,但從發(fā)展趨勢上看,“強(qiáng)AI時(shí)代”也許離我們并不遙遠(yuǎn)。醫(yī)療AI關(guān)乎著人類的健康和生命,但在醫(yī)療AI技術(shù)方面才剛剛起步,所以更應(yīng)該加強(qiáng)對(duì)醫(yī)療AI的掌控能力,積極應(yīng)對(duì)醫(yī)療AI給人們帶來的倫理問題,使醫(yī)療AI技術(shù)朝著有利于人類健康的方向發(fā)展。