国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

可解釋人工智能醫(yī)療應(yīng)用的倫理問題*

2023-01-26 07:44:54鄢來均
中國醫(yī)學(xué)倫理學(xué) 2022年12期
關(guān)鍵詞:解釋性倫理人工智能

江 婧,曹 東,鄢來均

(1 廣州中醫(yī)藥大學(xué)馬克思主義學(xué)院,廣東 廣州 510006;2 廣州中醫(yī)藥大學(xué)醫(yī)學(xué)信息工程學(xué)院,廣東 廣州 510006;3 廣州中醫(yī)藥大學(xué)研究生院,廣東 廣州 510006)

0 引言

可解釋人工智能已成為學(xué)術(shù)界、產(chǎn)業(yè)界和政府部門研究的熱門話題。全世界范圍內(nèi)都在積極探索可解釋性的人工智能,例如2016年美國國防部高級計劃署(DARPA)就啟動了一項名為“可解釋人工智能”的大型項目(explainable artificial intelligence,XAI)。2019年歐盟委員會發(fā)布《人工智能道德準(zhǔn)則》(Ethics Guidelines for Trustworthy AI),強(qiáng)調(diào)要提高人工智能的透明度和實現(xiàn)可追溯性。2017年我國也在《新一代人工智能發(fā)展規(guī)劃》中,明確將“實現(xiàn)具備高可解釋性、強(qiáng)泛化能力的人工智能”作為未來我國人工智能布局前沿基礎(chǔ)理論研究。由于醫(yī)學(xué)領(lǐng)域的高風(fēng)險性,人工智能在醫(yī)療領(lǐng)域的可解釋性受到了更加廣泛的關(guān)注。在醫(yī)療領(lǐng)域,人工智能的可解釋性有助于提高模型的安全性和可靠性,增強(qiáng)目標(biāo)用戶的信任度等,但是,可解釋性方法可能引發(fā)的醫(yī)療倫理問題也日益凸顯。

探究可解釋人工智能醫(yī)療應(yīng)用倫理問題的意義關(guān)乎用戶的安全和公平問題。倫理學(xué)界從不同的角度對其進(jìn)行了倫理辯護(hù)。其中有兩種代表性觀點:一種觀點認(rèn)為,在醫(yī)療領(lǐng)域中,事后可解釋人工智能有助于增強(qiáng)用戶信任、提高系統(tǒng)的安全性等。另一種觀點認(rèn)為,人們應(yīng)該警惕甚至是避免在醫(yī)療領(lǐng)域中使用事后可解釋人工智能,因為事后解釋可能會引發(fā)潛在的風(fēng)險。盡管倫理學(xué)界對此不能取得一致意見,但他們都認(rèn)為探討可解釋人工智能醫(yī)療應(yīng)用倫理問題對患者的安全和公平具有重要意義。本文試圖從科技倫理視角審視可解釋人工智能醫(yī)療應(yīng)用倫理問題的新挑戰(zhàn),以期尋求合理的解決之道。

1 可解釋人工智能醫(yī)療應(yīng)用倫理問題的新挑戰(zhàn)

由于考察視角的不同,可解釋人工智能并沒有一個標(biāo)準(zhǔn)的定義。可解釋人工智能來自英文Explainable Artificial Intelligence,該術(shù)語由Van Lent等于2004年首次創(chuàng)造,用來描述他們的系統(tǒng)在模擬游戲應(yīng)用中解釋人工智能控制實體行為的能力[1]。自2016年DARPA啟動關(guān)于可解釋人工智能的研究之后,該術(shù)語開始被普遍接受,DARPA 將可解釋人工智能定義為一種系統(tǒng),它可以向人類用戶解釋其基本原理,描述其優(yōu)缺點,并傳達(dá)對其未來行為的理解[2]。Arrieta等[3]認(rèn)為,可解釋人工智能指的是,針對特定的受眾,通過給出細(xì)節(jié)和原因,使模型運轉(zhuǎn)更清楚和更容易,被受眾所理解的一項技術(shù)。本文認(rèn)為可解釋人工智能可以定義為:針對不同背景知識的目標(biāo)用戶,以其可以理解的方式,對模型決策過程的根據(jù)進(jìn)行解釋的一項技術(shù)。目的就是幫助人類理解機(jī)器為什么會作出這樣的決策以及決策是否可靠。

人工智能的可解釋問題源于深度學(xué)習(xí)的“黑盒”屬性。所謂“黑盒”屬性,指深度學(xué)習(xí)算法是不透明的。不同于傳統(tǒng)算法輸入和輸出之間的確定性,深度學(xué)習(xí)模型通過反向傳播不斷調(diào)整自己內(nèi)部的參數(shù)和規(guī)則,所以人類無法理解它們的內(nèi)部工作機(jī)制。在某些應(yīng)用領(lǐng)域,比如說人臉識別、文字翻譯,可解釋性并不是關(guān)鍵的要求,只要這些系統(tǒng)的整體性能足夠好,即使系統(tǒng)在運行過程中出現(xiàn)錯誤,也不會造成很大的影響,因此,這些領(lǐng)域?qū)θ斯ぶ悄芟到y(tǒng)可解釋性的要求相對比較低。但是,醫(yī)療領(lǐng)域則不同,醫(yī)療中的許多決策實際上是生死攸關(guān)的問題,微小的錯誤都可能會威脅到患者的生命安全,這時缺乏可解釋性就成為人工智能走向臨床應(yīng)用的限制性因素。所以,越來越多的專家學(xué)者將目光投向了人工智能在醫(yī)療領(lǐng)域的可解釋性,各種解釋方法應(yīng)運而生。目前,可解釋人工智能在醫(yī)學(xué)影像處理、疾病診斷、風(fēng)險預(yù)測等方面都取得了不錯的成績。例如,Nafisah等[4]利用可解釋人工智能處理胸部X光片檢測結(jié)核病,Thimoteo等[5]研究出通過血液檢測診斷COVID-19的可解釋人工智能,Curia[6]利用可解釋人工智能預(yù)測患宮頸癌的風(fēng)險。通過給出決策依據(jù),為臨床醫(yī)生提供有效的輔助信息,增加了用戶的信任,改善了模型的性能。盡管可解釋人工智能給醫(yī)學(xué)帶來了很多好處,但其在醫(yī)療應(yīng)用中也引發(fā)了不同以往的倫理挑戰(zhàn),具體而言,可解釋人工智能醫(yī)療應(yīng)用引發(fā)的倫理新挑戰(zhàn)主要表現(xiàn)在以下兩個方面。

1.1 事前解釋可能導(dǎo)致的醫(yī)療倫理問題

針對深度學(xué)習(xí)的“黑盒”屬性,人工智能專家創(chuàng)建了不同的解釋方法。根據(jù)不同的標(biāo)準(zhǔn),這些方法又分為不同的類別。Du等[7]根據(jù)獲得可解釋性的時間,將可解釋性方法總體上劃分為兩類:內(nèi)在解釋和事后解釋。這是兩種不同類型的解釋方法,它們以不同的方式處理不透明問題。內(nèi)在解釋指的是模型本身可解釋,因為可解釋性發(fā)生在模型訓(xùn)練之前,所以也稱為事前解釋,即無需事后引入另一個解釋模型就可以理解預(yù)測模型的決策依據(jù)。根據(jù)解釋的實現(xiàn)途徑,又可將事前解釋進(jìn)一步分為兩種:自解釋模型和內(nèi)置可解釋模型。自解釋模型就是指傳統(tǒng)機(jī)器學(xué)習(xí)中的簡單模型,例如決策樹、線性回歸等。無論是從理論上還是理解上,這些模型都具有比較好的可解釋性。內(nèi)置可解釋模型指的是,利用某些方法構(gòu)建可解釋的深度神經(jīng)網(wǎng)絡(luò)模型。目前,關(guān)于事前解釋性的研究多局限于決策樹、線性回歸等結(jié)構(gòu)簡單的傳統(tǒng)機(jī)器學(xué)習(xí)算法,而內(nèi)置可解釋模型由于對技術(shù)要求很高,暫時未取得突破性進(jìn)展。

事前解釋可能會導(dǎo)致醫(yī)療安全問題,其表現(xiàn)為以下兩種情況:一方面,事前解釋的人工智能系統(tǒng)預(yù)測準(zhǔn)確性較低,導(dǎo)致模型自身存在安全隱患。學(xué)術(shù)界一般認(rèn)為,人工智能系統(tǒng)的準(zhǔn)確性和可解釋性之間存在一定的矛盾,即模型的準(zhǔn)確性越高,可解釋性就越低;相反,模型的準(zhǔn)確性越低,可解釋性就越高[8]。盡管在Rudin[9]看來,在數(shù)據(jù)結(jié)構(gòu)化并具有良好的特征時,復(fù)雜模型和簡單模型之間的性能通常并沒有顯著差異。例如,利用決策樹算法構(gòu)建區(qū)分感冒和咳嗽的預(yù)測模型也具有較高的準(zhǔn)確率,基本達(dá)到診斷要求[10]。但是,這是基于醫(yī)療數(shù)據(jù)具有良好特征時,在現(xiàn)實情況中,絕大多數(shù)醫(yī)學(xué)數(shù)據(jù)是以多種模態(tài)呈現(xiàn),每種模態(tài)各有所長、相互關(guān)聯(lián),極大限制了對病癥的預(yù)測和診斷[11]。因此,雖然自解釋模型自身具備良好的可解釋性,但在面對多模態(tài)的醫(yī)療數(shù)據(jù)時,模型篩查水平和診斷效率與深度學(xué)習(xí)模型相比還是存在比較大的差異。因此,在醫(yī)療應(yīng)用中使用事前解釋人工智能就意味著要以犧牲準(zhǔn)確性為代價,從而導(dǎo)致人工智能系統(tǒng)在輔助臨床醫(yī)生治療中存在安全隱患,進(jìn)而給患者的生命安全帶來致命的威脅。

另一方面,事前解釋為對抗攻擊提供了有利條件,導(dǎo)致模型自身存在醫(yī)療安全隱患。對抗攻擊是神經(jīng)網(wǎng)絡(luò)模型中常見的攻擊方法,它通過輸入人類難以察覺的微小擾動,從而使模型進(jìn)行錯誤決策,甚至可以根據(jù)設(shè)計的擾動,輸出攻擊者想要的分類結(jié)果。研究發(fā)現(xiàn),解釋方法可以本能地為對抗樣本的生成提供特定區(qū)域[12]。對于模型的研究者來說,可解釋性技術(shù)有助于有效評估模型決策行為的安全性和可靠性,通過對抗訓(xùn)練,模型的魯棒性和安全性能得到有效的提升,從而消除模型實際部署應(yīng)用中的安全隱患。但是,對于模型的攻擊者來說,可解釋方法卻也為攻擊者探測原始模型弱點提供了有利條件,在醫(yī)學(xué)影像處理方面,對原始圖像添加人眼不可分辨的擾動,對于輸入中產(chǎn)生的微小變化,都會對深模型預(yù)測準(zhǔn)確性產(chǎn)生很大的影響。在臨床治療中,系統(tǒng)一旦受到對抗攻擊的干擾,那么提供的解釋結(jié)果必然會影響醫(yī)生的診斷過程,甚至?xí)`導(dǎo)醫(yī)生的診斷而給患者帶來致命的威脅。

1.2 事后解釋可能導(dǎo)致的醫(yī)療倫理問題

事后解釋指的是創(chuàng)建專門的解釋模型來解釋原始模型,即需事后引入另一個解釋模型才可以理解預(yù)測模型的決策依據(jù)。它往往針對的是復(fù)雜度比較高的模型[13],比如深度神經(jīng)網(wǎng)絡(luò)。因為可解釋發(fā)生在模型訓(xùn)練之后,所以稱為事后解釋。根據(jù)解釋的范圍,可進(jìn)一步將事后可解釋分為全局可解釋和局部可解釋。全局可解釋意味著用戶可以通過檢查復(fù)雜模型的結(jié)構(gòu)和參數(shù)從而理解模型整體是怎樣運行的。局部可解釋為模型的單個預(yù)測提供局部解釋。根據(jù)解釋方法是否依賴具體模型內(nèi)部參數(shù),又可分為模型無關(guān)的解釋方法和模型相關(guān)的解釋方法,模型無關(guān)解釋方法可針對任何預(yù)測模型,而模型相關(guān)解釋方法則是針對特定的預(yù)測模型。目前常見的事后解釋方法主要有知識蒸餾、激活最大化、類激活映射、反向傳播等。事后解釋能夠在保持模型性能的基礎(chǔ)上實現(xiàn)可解釋,因此,目前在醫(yī)療領(lǐng)域主要還是依賴基于事后解釋的人工智能系統(tǒng)。事后解釋主要會出現(xiàn)以下幾種倫理問題:

其一,醫(yī)療責(zé)權(quán)問題。將人工智能引入醫(yī)療領(lǐng)域本身就提高了醫(yī)療責(zé)任主體認(rèn)定的復(fù)雜度。在傳統(tǒng)醫(yī)療模式下,如果發(fā)生醫(yī)療事故,醫(yī)療機(jī)構(gòu)和醫(yī)護(hù)人員是責(zé)任主體,而將人工智能引入醫(yī)療領(lǐng)域之后,醫(yī)生和患者之間增加了人工智能和制造商,這就使得醫(yī)療責(zé)任主體的認(rèn)定變得更加復(fù)雜。即使將深度學(xué)習(xí)引入醫(yī)學(xué)領(lǐng)域提高了醫(yī)療診斷效率和準(zhǔn)確性,但是其應(yīng)對突發(fā)情況的反應(yīng)處置能力還是帶來許多有待解決的問題,目前的技術(shù)條件還無法保證百分之百的醫(yī)療準(zhǔn)確率。比如在醫(yī)學(xué)影像處理方面,對原始圖像添加人眼不可分辨的擾動對于輸入中產(chǎn)生的微小變化,都會對深度神經(jīng)網(wǎng)絡(luò)的預(yù)測準(zhǔn)確性產(chǎn)生很大的影響,如果出現(xiàn)醫(yī)療事故,應(yīng)該由誰負(fù)責(zé)。而此時事后解釋不僅僅是對傳統(tǒng)人工智能醫(yī)療責(zé)任主體問題的放大,并且是一種顛覆。Babic等[14]認(rèn)為這種事后合理化的解釋往往可能會成為一些利益相關(guān)者逃避醫(yī)療責(zé)任的手段。因為對于自身可解釋的人工智能來說,如果系統(tǒng)出現(xiàn)錯誤,我們可以通過回溯運行步驟找出錯誤的環(huán)節(jié),事后解釋卻難以回溯,而且這種事后的合理化有可能還會被一些利益相關(guān)者用來轉(zhuǎn)移注意力。例如,人工智能的制造商為了逃避醫(yī)療責(zé)任,故意設(shè)計一些對自身有利的事后解釋模型。當(dāng)出現(xiàn)醫(yī)療事故時,如果醫(yī)療責(zé)任主體難以認(rèn)定,患者權(quán)益將難以得到保障。

其二,醫(yī)療安全問題。在疾病預(yù)測方面,利用可解釋性人工智能取得了不錯的成績。例如,Rajpurkar等[15]基于深度學(xué)習(xí)開發(fā)了診斷肺部疾病的醫(yī)療預(yù)測模型,準(zhǔn)確度已達(dá)到專家級診斷精度。同時,通過事后解釋提取模型特征,為臨床醫(yī)生提供了有效的輔助信息,使醫(yī)生不再盲目的依賴黑匣子。但是研究發(fā)現(xiàn)[12],攻擊者可以利用事后可解釋性技術(shù)對醫(yī)療預(yù)測模型進(jìn)行對抗攻擊。一方面,在不改變解釋結(jié)果的前提下,攻擊者可以利用可解釋性技術(shù)探測醫(yī)療模型的漏洞,誘導(dǎo)模型作出錯誤的醫(yī)療決策;另一方面,在不改變醫(yī)療模型決策結(jié)果的前提下,攻擊者可以利用可解釋技術(shù)干擾醫(yī)療解釋過程,誘導(dǎo)解釋方法作出錯誤的醫(yī)療解釋。相關(guān)研究表明[16],由于事后解釋只是對原始模型的一個間接和近似的解釋,攻擊者可以還利用二者之間的不一致性設(shè)計針對系統(tǒng)的新型對抗樣本攻擊。因此,在臨床治療中,系統(tǒng)一旦受到對抗攻擊算法的干擾,那么提供的解釋結(jié)果必然會影響醫(yī)生的診斷過程,而錯誤的診斷可能會對患者生命安全產(chǎn)生嚴(yán)重的后果。此外,由于事后解釋的近似性,有時醫(yī)生甚至可能會被誤導(dǎo)引發(fā)錯誤的診斷,進(jìn)而給患者帶來致命的威脅。

其三,歧視性問題。在醫(yī)療人工智能的研發(fā)設(shè)計階段,由于訓(xùn)練數(shù)據(jù)偏倚等原因而將種族、性別、階層偏見等倫理問題帶入模型中,從而導(dǎo)致人工智能在醫(yī)療應(yīng)用中出現(xiàn)歧視性問題。例如,一種用于診斷乳腺癌的人工智能系統(tǒng)認(rèn)為黑人女性患乳腺癌的風(fēng)險更高[17]??山忉屝酝ㄟ^提高模型的透明度而被認(rèn)為是防范系統(tǒng)偏見的有效手段,但是研究發(fā)現(xiàn),目前的可解釋性方法并未達(dá)到預(yù)期目標(biāo),并且對解釋的依賴甚至?xí)档臀覀儗@些歧視行為的警惕[18]。醫(yī)療歧視引發(fā)的臨床風(fēng)險對患者的生理和心理都造成了嚴(yán)重的傷害,而且這種不平等很可能會加劇社會偏見,從而引發(fā)重大的道德問題。

其四,患者醫(yī)療自主權(quán)問題。所謂患者醫(yī)療自主權(quán),是指在醫(yī)患關(guān)系中,以實現(xiàn)患者自由意志為目的,基于患者的自主能力而對生命、健康等具體人格利益進(jìn)行選擇與決定的抽象人格權(quán)[19]。也就是說,以人工智能為輔助診療時,患者有權(quán)知道系統(tǒng)的局限性、決策的合理性等相關(guān)方面的問題。對于可解釋性的定義,學(xué)術(shù)界尚沒有統(tǒng)一的標(biāo)準(zhǔn),這是由于可解釋性并不是一個單純的技術(shù)問題,它是在人工智能與目標(biāo)用戶交互中才得以實現(xiàn)的。但是研究[20]卻發(fā)現(xiàn),醫(yī)療領(lǐng)域現(xiàn)有的大多數(shù)可解釋人工智能設(shè)計要么只關(guān)注算法本身的性能,要么就是側(cè)重于為臨床醫(yī)生提供解釋,往往缺乏面向患者的可解釋人工智能設(shè)計實踐。所以,對于絕大多數(shù)沒有專業(yè)知識背景的患者來說,人工智能醫(yī)療決策的根據(jù)依舊無法理解?;颊卟恢垒斎霐?shù)據(jù)的來源、預(yù)測模型的局限性、系統(tǒng)什么時候會出錯等相關(guān)方面的信息,患者無法在醫(yī)療中得到有效的溝通,只能被動地去接受。因此,在這個過程中,患者的醫(yī)療自主權(quán)就受到了挑戰(zhàn)。

2 可解釋人工智能醫(yī)療應(yīng)用倫理問題的根源剖析

鑒于以上可解釋人工智能醫(yī)療應(yīng)用倫理問題表現(xiàn),尋求問題的根源尤其重要。將從技術(shù)性、社會性、主體性三個方面探尋問題的根源所在。

2.1 技術(shù)性根源:可解釋性技術(shù)的負(fù)面效應(yīng)

可解性技術(shù)具有兩面性,它在推動醫(yī)學(xué)發(fā)展與進(jìn)步的同時,也難以擺脫其固有缺陷所帶來的負(fù)面效應(yīng)。其一,醫(yī)療人工智能系統(tǒng)的準(zhǔn)確性與可解釋性之間存在著一種權(quán)衡。即模型的準(zhǔn)確性越高,可解釋性就越高;相反,模型的準(zhǔn)確性越低,可解釋性就越低。因此,對于事前解釋的醫(yī)學(xué)人工智能系統(tǒng)來說,將自己限制在充分可解釋性的算法中,就意味著要以犧牲醫(yī)療準(zhǔn)確性為代價;其二,可解釋技術(shù)給對抗攻擊帶來了有利的條件。無論是事前解釋技術(shù)還是事后解釋技術(shù),都給攻擊者提供了可乘之機(jī)。一些不法分子會利用可解釋技術(shù)探測醫(yī)療模型的漏洞,進(jìn)而干擾原始醫(yī)療模型和解釋模型,嚴(yán)重威脅著醫(yī)療人工智能系統(tǒng)自身的安全;其三,由于目前事后解釋技術(shù)都是嘗試采用近似的方法來模擬模型的決策行為,以從全局的角度解釋模型的整體決策邏輯或者從局部的角度解釋模型的單個決策結(jié)果。所以,解釋過程往往不夠精確,解釋方法給出的解釋結(jié)果無法準(zhǔn)確地反映待解釋模型的實際運行狀態(tài)和真實決策行為,而且據(jù)最新研究表明[16],攻擊者還可以利用二者之間的不一致性設(shè)計針對系統(tǒng)的新型對抗樣本攻擊,從而嚴(yán)重威脅著可解釋系統(tǒng)在實際醫(yī)療應(yīng)用中的安全。

2.2 社會性根源:相關(guān)道德原則和立法的缺失

有關(guān)可解釋人工智能醫(yī)療應(yīng)用方面的道德原則與立法的缺失是倫理問題產(chǎn)生的社會原因。首先,道德原則的不完善。在可解釋人工智能醫(yī)療應(yīng)用與管理方面還沒有形成一套統(tǒng)一而又完善的道德規(guī)范體系,因此可解釋人工智能醫(yī)療應(yīng)用處于一種無規(guī)范可依據(jù)的失范狀態(tài)。各國對可解釋人工智能醫(yī)療應(yīng)用的認(rèn)識不同,從而造成了對可解釋人工智能醫(yī)療應(yīng)用的道德評價標(biāo)準(zhǔn)的多樣性,這些不同的沖突導(dǎo)致了一系列的倫理問題;其次,有關(guān)可解釋人工智能醫(yī)療應(yīng)用的立法的滯后同樣造成了一系列的道德倫理問題。面對層出不窮的可解釋人工智能醫(yī)療應(yīng)用倫理問題,法律顯現(xiàn)出滯后性。在我國,可解釋人工智能醫(yī)療應(yīng)用并未形成一套完善的法律體系,如果可解釋人工智能在醫(yī)學(xué)診療中發(fā)生醫(yī)療事故,那么誰該為此負(fù)責(zé)?如果醫(yī)院收集和存儲的患者信息遭遇泄露,又該由誰負(fù)責(zé)?

2.3 主體性根源:各利益相關(guān)者的利益多樣性

在復(fù)雜的技術(shù)系統(tǒng)中,可解釋技術(shù)的負(fù)面效應(yīng)是造成可解釋人工智能醫(yī)療應(yīng)用倫理問題的直接原因,但是技術(shù)離不開社會,可解釋技術(shù)的開發(fā)和應(yīng)用是基于社會中的各個組織與用戶來實現(xiàn)的,在這個新型系統(tǒng)中的各個主體才是帶來醫(yī)療倫理問題的內(nèi)在根源所在。首先,一些道德感不強(qiáng)的個體為了謀取個人私利,利用可解釋性技術(shù)的缺陷攻擊人工智能醫(yī)療模型,踐踏醫(yī)療倫理道德規(guī)范;其次,可解釋性技術(shù)設(shè)計主體為了獲得某些利益,或者為了表達(dá)自己的一些主觀觀點而設(shè)計帶有偏見性的解釋方法。比如,根據(jù)Linardatos等[21]的研究,目前現(xiàn)存的可解釋性方法無論它們應(yīng)用到醫(yī)療過程的哪個步驟,都過于關(guān)注特定群體層面的公平,而忽視了其他群體;最后,由于可解釋性與人的認(rèn)知密切相關(guān),導(dǎo)致對于可解釋的評估還未形成一個科學(xué)的評價標(biāo)準(zhǔn)。開發(fā)人員往往是站在開發(fā)者的角度創(chuàng)建解釋,因此,對于非專業(yè)用戶來說,解釋常常難以被理解。

3 可解釋人工智能醫(yī)療應(yīng)用倫理問題反思與應(yīng)對

盡管可解釋人工智能醫(yī)療應(yīng)用的倫理問題不可避免,但我們不能止步不前,我們需要探討應(yīng)對之法。

3.1 強(qiáng)化技術(shù)創(chuàng)新

可解釋性技術(shù)的負(fù)面效應(yīng)是可解釋性AI醫(yī)療應(yīng)用倫理問題產(chǎn)生的技術(shù)根源,但其倫理問題的解決也需要強(qiáng)化可解釋性技術(shù)的創(chuàng)新發(fā)展,借助技術(shù)手段消解倫理之困。首先,對于事前解釋來說,其面臨的最大挑戰(zhàn)是消除模型可解釋性和準(zhǔn)確性之間的矛盾。因此,未來在事前解釋方法的設(shè)計上,應(yīng)該重點平衡二者之間的矛盾。其中,一種直觀的方法是構(gòu)建基于因果結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,使模型具備發(fā)現(xiàn)數(shù)據(jù)間因果關(guān)系的能力;其次,對于事后解釋來說,其面臨的最大挑戰(zhàn)是近似的解釋往往無法正確反映待解釋模型的實際運行狀態(tài)和真實決策行為。未來一個有前景的潛在研究方向是設(shè)計數(shù)學(xué)上與待解釋模型等價的解釋方法或解釋模型[16];最后,二者同時面臨的挑戰(zhàn)是來自外部的對抗攻擊。對于研究人員來說,未來同樣可以利用對抗訓(xùn)練增強(qiáng)模型的魯棒性。

3.2 強(qiáng)化可解釋人工智能醫(yī)療應(yīng)用倫理教育

既然可解釋人工智能醫(yī)療應(yīng)用中的相關(guān)主體是導(dǎo)致倫理問題的深層根源,那么加強(qiáng)相關(guān)主體的倫理教育是解決問題的必由之路。因為技術(shù)人員參與了人工智能的全程開發(fā),數(shù)據(jù)收集、算法設(shè)計、性能測試等都是由技術(shù)人員操作,所以技術(shù)人員的道德品質(zhì)將直接影響到目標(biāo)用戶的相關(guān)權(quán)益。因此,在可解釋AI 設(shè)計的過程中,加強(qiáng)對設(shè)計人員的倫理教育對減少醫(yī)療倫理失序問題尤為重要。第一,鼓勵技術(shù)人員參加可解釋人工智能相關(guān)的倫理研討會。在系統(tǒng)開發(fā)的過程中,研究人員往往都是把重點放在算法本身,但是,可解釋人工智能并不是簡單的技術(shù)問題,它還涉及一系列倫理方面的問題。參加相關(guān)的倫理研討會有助于提高設(shè)計人員在開發(fā)過程中的倫理意識,減少歧視偏見等問題的產(chǎn)生。第二,將倫理教育融入開發(fā)人員的培養(yǎng)之中。例如,在大學(xué)階段開設(shè)可解釋人工智能倫理教育的相關(guān)課程,舉辦多種形式的人工智能倫理專題講座。

3.3 強(qiáng)化對醫(yī)護(hù)人員的培訓(xùn)和跨學(xué)科合作

加強(qiáng)對醫(yī)護(hù)人員的培訓(xùn)和跨學(xué)科合作有助于可解釋人工智能醫(yī)療應(yīng)用倫理問題的產(chǎn)生。調(diào)查顯示[22],大多數(shù)患者認(rèn)為人工智能輔助診斷是值得信賴的并且可以提高醫(yī)生的診斷能力,然而所有的調(diào)查者都堅持讓醫(yī)生來解釋人工智能輔助診斷。作為醫(yī)生,不一定需要精通計算機(jī)科學(xué),但是他們應(yīng)該充分了解與AI醫(yī)療相關(guān)的概念、技術(shù)和倫理挑戰(zhàn),這些知識能夠使他們在工作場所批判地檢視人工智能,可以向患者清楚地傳達(dá)人工智能的局限性,明確需要注意的風(fēng)險和危害,從而賦予患者更多的自主權(quán)和決策權(quán)。從長遠(yuǎn)來看,我們還應(yīng)該將人工智能知識作為專業(yè)醫(yī)療課程的一部分,作為住院醫(yī)師培訓(xùn)計劃的一部分,教授醫(yī)生醫(yī)療人工智能相關(guān)的知識,鼓勵他們參加關(guān)于人工智能倫理的研討會。此外,還需加強(qiáng)跨學(xué)科合作,因為人工智能最終面對的用戶是人類,基于此,人工智能不是一個單純的技術(shù)問題,它涉及心理等社會學(xué)科,因此我們需要優(yōu)先考慮跨學(xué)科合作。例如,人工智能科學(xué)家需要醫(yī)療專家的指導(dǎo)來選擇醫(yī)療上重要并且生物學(xué)上可信的保健應(yīng)用,而醫(yī)療專家則需要人工智能科學(xué)家的指導(dǎo)來選擇概念上精心設(shè)計和技術(shù)上可解決的預(yù)測問題。

3.4 完善相關(guān)道德原則和法律法規(guī)

相關(guān)道德原則和立法的缺失是可解釋人工智能醫(yī)療應(yīng)用倫理問題產(chǎn)生的重要原因之一,而創(chuàng)建完善相關(guān)道德原則和法律法規(guī)是解決問題的必由之路。這就需要創(chuàng)建一個通用的可解釋人工智能醫(yī)療應(yīng)用的道德標(biāo)準(zhǔn),確保應(yīng)用主體中的組織與個人對可解釋人工智能醫(yī)療應(yīng)用原則有著共同的認(rèn)識,有助于減少在數(shù)據(jù)采集和算法設(shè)計過程中因利益多樣性而產(chǎn)生的歧視與偏見。另外在相關(guān)法律法規(guī)中,一方面,要明確醫(yī)療責(zé)任主體具體應(yīng)該如何認(rèn)定,防止相關(guān)人員躲避醫(yī)療責(zé)任;另一方面,要制定針對患者隱私保護(hù)方面的法律法規(guī),避免泄露患者個人隱私,進(jìn)一步增強(qiáng)人們對人工智能的信任。此外,對于為了謀取私利,利用可解釋技術(shù)攻擊預(yù)測模型,肆意踐踏醫(yī)療倫理道德規(guī)范的不法分子,法律要進(jìn)行嚴(yán)厲的打擊。國家以及政府部門應(yīng)該盡快制定出有關(guān)可解釋人工智能醫(yī)療應(yīng)用的發(fā)展政策,只有由政府及其相關(guān)部門為可解釋人工智能醫(yī)療應(yīng)用的發(fā)展提供政策保證和法律監(jiān)督,才能夠保證我國在可解釋人工智能醫(yī)療應(yīng)用倫理監(jiān)管方面處于領(lǐng)先位置。隨著可解釋人工智能醫(yī)療應(yīng)用方面有關(guān)道德原則和法律法規(guī)的不斷健全,可解釋人工智能將會迎來更好的生存與發(fā)展契機(jī)。

3.5 實現(xiàn)個性化的交互式解釋

實現(xiàn)個性化的交互式解釋有助于提升用戶對人工智能系統(tǒng)的信任。隨著社會發(fā)展與技術(shù)的進(jìn)步,未來可解釋人工智能將在更加豐富的醫(yī)療情境下被更為廣泛的人群所使用。不同的人群、不同的醫(yī)療情境對人工智能解釋形式與內(nèi)容的期望都是不同的[23],因此個性化的交互式解釋是非常有必要的。這就要求在開發(fā)可解釋人工智能時,應(yīng)當(dāng)充分考慮人這一主體,充分調(diào)研目標(biāo)用戶的背景與需求,當(dāng)解釋系統(tǒng)的交互性得以提升時,用戶能夠獲取更加持續(xù)的解釋,深入了解系統(tǒng)背后的運行邏輯,用戶才能被賦予更多的自主權(quán)和決策權(quán),進(jìn)而增強(qiáng)對可解釋人工智能的信任。

4 結(jié)論與展望

可解釋人工智能在推動醫(yī)學(xué)向前發(fā)展的同時也引發(fā)了不同以往的倫理挑戰(zhàn)。審視未來的可解釋人工智能醫(yī)療應(yīng)用,既要關(guān)注可解釋性技術(shù)發(fā)展為人工智能醫(yī)療應(yīng)用帶來的有利條件,更需要研究者、管理者等認(rèn)識到可解釋人工智能醫(yī)療應(yīng)用所處的現(xiàn)實困境,為可解釋人工智能醫(yī)療應(yīng)用倫理問題的解決提供可行路徑,共同推動安全可靠的可解釋人工智能在醫(yī)療領(lǐng)域的發(fā)展。

猜你喜歡
解釋性倫理人工智能
《心之死》的趣味與倫理焦慮
論行政自由裁量的“解釋性控權(quán)”
法律方法(2021年4期)2021-03-16 05:35:16
護(hù)生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
英漢互譯中的認(rèn)知隱喻翻譯探究
文教資料(2018年30期)2018-01-15 10:25:06
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
融媒體時代解釋性報道的發(fā)展之路
傳播力研究(2017年5期)2017-03-28 09:08:30
下一幕,人工智能!
非解釋性憲法適用論
昔阳县| 仙居县| 徐州市| 阳东县| 巴东县| 芜湖市| 青河县| 寻乌县| 锦州市| 高清| 罗山县| 台南县| 无为县| 神农架林区| 双辽市| 安溪县| 邓州市| 泰安市| 滨海县| 广灵县| 扬中市| 扎赉特旗| 孟州市| 漳浦县| 营口市| 南郑县| 利辛县| 和政县| 江油市| 盱眙县| 于田县| 南雄市| 句容市| 博罗县| 泽库县| 元氏县| 龙泉市| 张家界市| 连州市| 烟台市| 塔河县|