国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

智能醫(yī)療的倫理困境與治理*
——基于以病人為中心的考察

2022-11-28 10:53鄒文卿呂禹含
醫(yī)學與哲學 2022年7期
關鍵詞:決策病人醫(yī)療

鄒文卿 呂禹含

早在古希臘時期,現(xiàn)代醫(yī)學之父——希波克拉底就提出了“以病人為中心”的臨床醫(yī)學傳統(tǒng),《希波克拉底誓言》是所有醫(yī)者需要遵循的承諾?,F(xiàn)代臨床醫(yī)學要求尊重并響應病人的個人偏好、需求和價值觀,并在臨床決策中充分堅持“以病人為中心”的基本理念。醫(yī)生的道德義務是為病人的最大利益行事,有責任確保和維護病人的權利,同時尊重病人的個人愿望和價值觀。當前,智能醫(yī)療取得了顯著進展,對醫(yī)學產(chǎn)生革命性影響。一些研究證實,深度神經(jīng)網(wǎng)絡已經(jīng)可以幫助解釋醫(yī)學掃描、病理切片、皮膚損傷、視網(wǎng)膜圖像、心電圖、內窺鏡檢查、面部和生命體征[1]。同時,人工智能在醫(yī)學檢測領域發(fā)展迅速,被譽為“21世紀的聽診器”,例如,英國檢測心臟病的人工智能程序準確率為80%,美國檢測血液感染的智能顯微鏡的準確率為95%,日本診斷癌癥生長的內窺鏡系統(tǒng)的準確率為94%[2]。許多研究表明,人工智能系統(tǒng)在疾病診斷或預后方面與臨床專家相當,甚至更好,它們給病人提供更可靠的診斷、及時的干預,并最終提高護理標準。但是也有研究表明,智能醫(yī)療給病人安全和人口健康也帶來一定的風險,其中包括大量的診斷錯誤、決策沖突、侵犯權益以及臨床醫(yī)生與病人之間溝通不足等問題,人工智能算法在某些情況下可能導致提供不符合病人利益的醫(yī)學發(fā)展結果[3]。如IBM沃森健康公司的癌癥人工智能算法,它被廣泛應用于癌癥病人的治療。該算法基于少數(shù)合成的非真實的病例,許多實際的治療建議被證明是錯誤的[4]。盡管人工智能技術在醫(yī)療領域有諸多成效并且前景廣闊,但存在著侵犯病人權益的倫理障礙和難題。如果對這些缺陷不加以重視,智能醫(yī)療就會存在造成重大醫(yī)療事故和社會問題的風險。

1 智能醫(yī)療對“以病人為中心”的臨床傳統(tǒng)的挑戰(zhàn)

1.1 醫(yī)學算法黑箱問題

雖然人工智能在醫(yī)學領域已經(jīng)取得不錯的成績,但機器學習系統(tǒng)引起了人們對其不可解釋性的擔憂。系統(tǒng)的有效性受限于其無法以一種可理解的方式來解釋自己的決策,決策建議與內在的因果聯(lián)系尚不清楚。這對智能醫(yī)療來說是一個潛在的問題。

當人工智能系統(tǒng)不透明時,算法自身的缺陷遮掩了數(shù)據(jù)處理結果的可預測性,就會引起黑箱問題。這種隱喻的表達方式解釋了為什么人們越來越擔心黑箱性質無法保證算法的可靠性。之前的人工智能將人類思維變成符號操作法,編程人員為每一條代碼賦予能力,并且可以控制系統(tǒng)的設計和行為。相比之下,機器學習在建立和自我完善的過程中并不需要明確的指令即可找到解決方案。有學者對其原理進行了解讀,深度學習網(wǎng)絡由輸入層、輸出層和介于兩者之間的多個隱藏層的序列組成。每一層通過輸入值的加權和結果傳遞給一個激活函數(shù),產(chǎn)生單元的輸出后,將單元的輸出用于后續(xù)層中的單元輸入。因此,深度神經(jīng)網(wǎng)絡本質上是聯(lián)合實現(xiàn)高度復雜(非線性)函數(shù)的單元集合,該函數(shù)將給定的輸入映射到特定的輸出。深度學習網(wǎng)絡通過對數(shù)據(jù)訓練來學習這種功能映射,隨著數(shù)據(jù)的積累,網(wǎng)絡通過對之前某一層的特征集進行聚合和重組,自動提取特征,從各種低層特征逐層地移動到更高層次、更抽象的數(shù)據(jù)表示[5]。

從理論上講,深度學習網(wǎng)絡的運作和行為在其建立過程中是無法預測的,因為它們只取決于培訓過程中的“歷史”或“經(jīng)驗”。2015年,紐約西奈山醫(yī)院的研究人員Joel Dudley將深度學習應用于醫(yī)院龐大的病人記錄儀數(shù)據(jù)庫,由此產(chǎn)生的程序被研究人員命名為Deep Patient。該程序使用大約70萬人的數(shù)據(jù)進行訓練,并且在沒有任何專家指導的情況下,Deep Patient在預測疾病方面展現(xiàn)出驚人的能力,似乎可以很好地預測肝癌以及精神分裂癥等難以預測的疾病的發(fā)生[6]。但是,研究人員也發(fā)現(xiàn)了它很難被理解的問題,當人們試圖了解為何這個程序可以做到這些的時候,才發(fā)現(xiàn)它沒有提供任何線索。以上只是眾多案例中的一起,黑箱問題在人工智能中已經(jīng)非常普遍。醫(yī)療人工智能可以很好地建立一個模型來達到一定的醫(yī)學目的,但人們卻不能理解它的工作原理。

算法黑箱引發(fā)的醫(yī)學理解和解釋的缺失,會對當代醫(yī)療實踐中以病人為中心的臨床傳統(tǒng)造成威脅。如果人們只重視結果的輸出,忽略了數(shù)據(jù)是以何種方式呈現(xiàn)其中的原理,將導致臨床醫(yī)生對病人的關懷潛移默化成對治療效益的追求。當人工智能系統(tǒng)發(fā)現(xiàn)這一偏好的轉變,將會偏向于提供更多效益最大化的臨床診斷,進一步漠視病人的價值觀念,最終將引起與以病人為中心的臨床共享信息、共享思考和共享思維的理想目標的沖突[7]。另外,如果臨床醫(yī)生和系統(tǒng)決策之間存在分歧,或當醫(yī)生無法理解深度學習網(wǎng)絡中隱藏的相關醫(yī)療信息時,他也不能以一種使病人能夠合理理解和處理的方式來呈現(xiàn)這些信息,這會增加醫(yī)患之間的不信任,甚至激發(fā)醫(yī)患矛盾。因此,如果我們過度依賴深度學習網(wǎng)絡進行醫(yī)療決策,就有可能因為其黑箱本質而失去醫(yī)療理解,這與以病人為中心的醫(yī)學理想相沖突。因此,醫(yī)學變成黑箱醫(yī)學越多,我們在現(xiàn)代醫(yī)學中保留以病人為中心的醫(yī)學理想就越少。

1.2 智能醫(yī)療的數(shù)據(jù)隱私問題

人工智能在醫(yī)學領域應用中可能對病人權益造成侵犯的另一個重要的問題是如何確保數(shù)據(jù)的隱私和安全性。由于人工智能需要從環(huán)境中收集和存儲大量數(shù)據(jù),在此過程中可能導致病人的個人數(shù)據(jù)與隱私受到威脅。同時,面部識別或基因組序列等方式成為獲取信息權限的途徑,無疑進一步阻礙了對病人隱私的保護。澳大利亞推出了一款智能醫(yī)療系統(tǒng)“我的健康”,公眾廣泛選擇退出記錄保存,表明了人們對數(shù)據(jù)隱私的擔憂。在新加坡的健康記錄數(shù)據(jù)庫遭到黑客攻擊,以及私人公司獲取此類個人數(shù)據(jù)后,人們對新加坡智能醫(yī)療的安全問題產(chǎn)生了擔憂[2]。

在實踐應用中,信息隱私雖然受到數(shù)據(jù)安全措施的保護,以避免數(shù)據(jù)泄露和防止人們隨意訪問這些信息。但值得注意的是,侵犯個人隱私權更多地發(fā)生在數(shù)據(jù)分享的過程中。例如,在醫(yī)療環(huán)境下,病人需要向醫(yī)生和其他衛(wèi)生人員提供一些個人信息。但是當病人的私人信息被披露給未經(jīng)授權的第三方時,就會發(fā)生違反隱私保密的問題。尤其是在緊急情況下,專業(yè)人員難以實施訪問控制。對于這些緊急情況,一些醫(yī)療數(shù)據(jù)庫允許合格的醫(yī)療專業(yè)人員以治療為目的訪問病人的醫(yī)療信息,即使他們沒有訪問該信息的權限。不僅如此,病人擔心數(shù)據(jù)會通過醫(yī)療保險記錄、藥物數(shù)據(jù)、基因數(shù)據(jù)等來源泄露,這些信息可能會被用于醫(yī)學研究或者其他商業(yè)領域。這種有意或無意的隱私侵犯都會引起人們來自人工智能對個人信息訪問的焦慮,擔心人工智能的治療水平得不到保障,更不愿意將個體的健康完全交付于人工智能。

人工智能在醫(yī)學領域的應用還存在另一種隱私侵犯的可能,是對“知情同意”的隱性威脅,影響個人在收集、使用和披露個人健康信息方面做出知情決定的能力[8]。在我們被動簽署“知情同意書”后,并不會被告知個人數(shù)據(jù)的去向,以及無法得知我們的數(shù)據(jù)會被用作什么途徑,將會產(chǎn)生怎樣的結果。病人對于這種意向不明的訪問請求通常會有所顧慮,共享數(shù)據(jù)所帶來的價值會影響一個人分享數(shù)據(jù)的意愿,甚至會影響數(shù)據(jù)的有效性。如果我們事先知道數(shù)據(jù)的屬性,如身份、種族、經(jīng)濟社會地位等會對他人甚至臨床環(huán)境帶來不利的影響,或者會對敏感數(shù)據(jù)特殊對待,那么病人在數(shù)據(jù)提供時可能會刻意隱瞞或篡改數(shù)據(jù)。這種類似于病人的自我保護方式恰恰反映了智能醫(yī)療迫在眉睫的安全問題。對于病人而言,解決數(shù)據(jù)隱私問題不僅需要來自各方強有力的干預,如應用高度安全的數(shù)據(jù)平臺和政府立法的新模式,還要解決問題背后潛在的公眾擔憂,即隱私數(shù)據(jù)使用的安全性和自主性。

1.3 算法偏差導致的公平與正義問題

人工智能的偏見與其算法的不透明有著復雜的聯(lián)系。對于理解算法的不透明性存在兩種方式:對醫(yī)生和病人不透明,但對特定人員透明;或者源于算法設計和編程固有的復雜性,其本質上是不透明的。無論何種透明程度,都共同指向了數(shù)據(jù)偏見的必然性,它的輸出仍然會通過提出解釋生理狀態(tài)的具體方法來影響診斷,從而影響醫(yī)療專業(yè)人員采取的行動[9]。

醫(yī)療人工智能接受了大量數(shù)據(jù)的訓練,但這不代表人工智能不存在偏見。首先,人工智能系統(tǒng)只針對那些匹配輸入數(shù)據(jù)的人,但對那些不匹配輸入數(shù)據(jù)的人表現(xiàn)不佳。如果在某些人群中幾乎沒有遺傳研究的數(shù)據(jù),那么設計用于預測遺傳結果的算法就會有偏差,不同區(qū)域、種族預測存在著風險的高估和低估的偏差。例如,在患有乳腺癌的女性中,與白人女性相比,黑人女性更容易被錯誤診斷患乳腺癌的風險[10]。其次,系統(tǒng)的不同解釋可能存在不同的目的,因此可能適合不同的利益相關者。有數(shù)據(jù)證明,機器學習算法可能無法對不同種族、性別、社會經(jīng)濟地位的病人提供同樣的結果[11]。最值得注意的是,婦女、少數(shù)群體和肥胖病人的治療選擇和縱向健康結果一般較差。在醫(yī)療資源緊張的情況下,機器可能會保留醫(yī)療資源提供給身份地位更高的病人。人工智能可能對某些已經(jīng)在社會上處于不利地位的人存在偏見,并為他們提供更糟糕的醫(yī)療保健。

然而問題是,即便披露了這些風險,但是仍不太可能消除在社會公平分配時的歧視與偏見。相反,人工智能的應用可能會不成比例地影響屬于某些亞人口的人,如少數(shù)民族。有研究表明,圖像識別軟件容易對某些少數(shù)民族的人產(chǎn)生偏見。例如,與膚色較淺的人相比,檢測深色皮膚的人的皮膚病的算法可能表現(xiàn)更差。這一事實可以歸因于機器學習所使用的數(shù)據(jù)不夠多樣。

智能醫(yī)療潛在的歧視與偏見引發(fā)的臨床風險不僅可能對病人造成身體傷害,還有可能影響病人的心理健康,進而造成二次傷害。病人自身成為算法受害者的同時,類似的偏見可能會無意中被納入算法。當系統(tǒng)自主地對病人進行分類,或者通過篩選轉診來優(yōu)先考慮個人獲得臨床服務的機會,這類系統(tǒng)可能會導致不平等現(xiàn)象長期存在,從而引發(fā)重大的道德問題。

1.4 智能醫(yī)療導致的病人權益問題

1.4.1 病人權益受到侵害的責任歸屬問題

醫(yī)療人工智能設備可以在沒有人為干預的情況下行動,并且依據(jù)算法決定行動方案。隨著人工智能被賦予更多的自主性,并且以獨有的個體“意識”參與到人類自身所進行的社會行為中來,人工智能將在醫(yī)療決策過程中有更多權力,與此同時,人工智能也將承擔更多的責任。然而,如果算法被證明存在缺陷,并且人工智能提出的醫(yī)療建議對病人產(chǎn)生了不良影響,那么責任由誰承擔呢?我們應該怪罪人工智能的錯誤還是醫(yī)生的失職呢?

傳統(tǒng)的責任歸屬會帶來很多問題,因為如果人工智能在臨床中應用的程度越來越強,醫(yī)生在醫(yī)療服務中的地位則越來越弱,那么醫(yī)生就不會或不能再為醫(yī)療行為和決定負責。對于受到侵害的病人來說,對醫(yī)生追責的權重應該更偏向于人工智能的責任。但這同樣引起了爭議,因為責任主體相互獨立,部分原因是他們各自包含的行動概念不同。機器可能更傾向于對疾病的治愈,但這種概念是在道德上和行為上普遍認同的?;谶@種道德概念,我們同樣很難認定責任方在于人工智能,因為這些信念、態(tài)度和價值觀會影響某些評估范圍,并且人工智能對這些標準的潛在反應為行為提供了客觀理由[12],即行為是理性、客觀、道德的,而錯誤來自于不可抗拒的“意外”。因此,當人工智能參與到責任主體范圍當中,現(xiàn)代醫(yī)學技術倫理的責任主體就不再限于醫(yī)生個人,而常常是一個群體,倫理責任的可分解性必然使得倫理責任的界限模糊起來[13]。面對著一個日益擴大的責任鴻溝,如果不加以妥善處理,就會對病人的健康、權利以及社會道德框架的一致性和法律責任概念的建立構成威脅。

1.4.2 共享決策與病人自主權問題

共享決策是病人行使自主權的重要前提。在臨床救治和倫理規(guī)范中,病人擁有按照個人意愿行事的權利,并且行為主體有權決定接受何種醫(yī)療建議。但是,為了使病人的同意有效,它必須被先行告知充分的信息后才能參與到臨床決策中,這意味著病人需要了解醫(yī)療程序的相關事實,即共享決策下病人自主權的有效性應該建立在真實信息的充分共享的過程中。因此,醫(yī)療信息的披露顯得尤為重要。只有醫(yī)生向病人披露有關醫(yī)療程序或條件的相關細節(jié),病人才能對其醫(yī)療保健作出知情的決定,從而給予有效的同意[14]。

目前,沃森腫瘤學公司根據(jù)一個特定的目標對治療方案進行排序,即最大化壽命。驅動沃森排名的價值集不是由接受治療的病人個體決定的。相反,它是通用的,而且本質上是隱蔽的[15]。所以,相關醫(yī)療信息難以披露,并且它的參與可能會重新引起以人工智能為主導的家長式的醫(yī)療決策模式。

引起人們關注的是,沃森算法是將病人壽命的最大化作為治療決策各項權重中的首要因素。然而,如果病人更青睞于選擇痛苦最小化的治療,沃森算法將很難實現(xiàn)。因此,將人工智能納入醫(yī)療決策或許會破壞臨床醫(yī)生和病人之間的共享決策,對病人的自主權和尊嚴構成威脅。如果這類算法無法優(yōu)先考慮病人的自由決策,那么將難以避免醫(yī)療人工智能系統(tǒng)在決策中帶來的個體傷害。例如,結果論依據(jù)“效益”作為衡量標準,使用者無法自我決定其他結果指標,包括成本效益和生活質量。如果經(jīng)過診斷,認為一位病人可以不進行治療以現(xiàn)在有疾病的狀態(tài)生存8年,假設這位病人可以選擇經(jīng)治療后痊愈且生存的時間為10年,人工智能和病人會做何選擇?他們的選擇會一樣嗎?病人可以在多個角度思考“完全健康”所需要的付出,例如,高昂的治療費用、痛苦而且漫長的治療過程,以及維持患病現(xiàn)狀和身體完全健康之間的權衡。而人工智能在大多數(shù)情況下難以甄別治療原則的優(yōu)先排序,容易與病人主觀要求產(chǎn)生分歧,更難以界定對于病人而言何為“最佳行動”和“最優(yōu)結果”。而實際情況將會更加復雜,病人的主觀決策和人工智能道德決策之間還有眾多衡量因素和標準,甚至不同時期的病人衡量標準也有所不同。

人工智能面向數(shù)據(jù)解析所做的決策沒有充分體現(xiàn)人的自由意志,或者難以周全病人的多維權利。而在具體的醫(yī)療決策中,數(shù)據(jù)通過整合、計算似乎給出了最佳的決策,但其實這種個性化決策帶有“欺騙”的意味,機器不能僅僅通過對一種病的大眾療法和病人的體態(tài)數(shù)據(jù)生成一個治療方案,這樣完全由機器自主的治療決策是對人自由權利的侵犯。數(shù)據(jù)統(tǒng)治下的決策本質上是算法和數(shù)據(jù)的互動,漠視了病人這一主體,打破了傳統(tǒng)醫(yī)學“以病人為中心”的關鍵原則。

2 堅持“以病人為中心”的倫理治理

規(guī)范智能醫(yī)療的倫理治理,需要來自多個方面因素的共同推動。它不僅要求人工智能技術的完善和發(fā)展,還需要加強與病人、醫(yī)生的互動,以及對醫(yī)學理念的終極詮釋,才能滿足智能醫(yī)療時代下“以病人為中心”的臨床需求。

2.1 增強人工智能的可解釋性

以目前的技術來看,為了確保病人的健康并維護他們的權益,保持對人工智能可解釋性的推進,并實現(xiàn)對人機交互的更好理解是至關重要的。首先,可解釋性的人工智能可將理論描述醫(yī)療建議和精準制定醫(yī)療決策的期望變成現(xiàn)實。雖然有學者指出,擁有更透明的算法并不能保證更好地解釋、預測和全面證明我們對算法結果的信任[16]。但是它會提供給我們一條明晰的進路,即當人工智能系統(tǒng)無法提供有關風險和副作用信息時,可以由專家來分析、補充和決定。這樣可以幫助決策參與者理解需求,以及對算法可解釋性的探究與部署。在實際應用中,增強人工智能的可解釋性需要針對具體情景來制定算法框架,這可能意味著技術成本的增加,但這是為數(shù)不多的可供探索的方案?;蛘呖梢葬槍Σ煌那榫?,預設透明的道德算法用以界定決策原則的主次序列。例如,該算法可以定義關鍵倫理原則和價值觀,避免機器在具體案例中不知所措,并且必要時必須犧牲一部分原則來維護關鍵原則[17]70。類似于這種在關鍵問題上設置透明“閘口”來規(guī)范算法,從而使用戶理解部分決策的制定原理的方法,在另一個角度為實現(xiàn)人工智能的可解釋性提供了可能。

其次,醫(yī)療風險必須要向病人披露,這意味著人工智能的可解釋性直接影響了病人的知情同意或更普遍的義務。同時,可解釋性可以有效檢測不合理的結果,不僅提高了專業(yè)人員識別人工智能錯誤的能力,還可以在一個相關的工作流程中改善病人護理。例如,決策曲線的分析,旨在量化使用模型來指導后續(xù)行動的凈效益,使他們能夠在實踐中安全且批判性地評價、采用和使用人工智能工具[18],更有效地將可解釋性轉化為醫(yī)療安全性。

2.2 建立多樣化數(shù)據(jù)降低算法偏差

在智能醫(yī)學的發(fā)展中,解決算法的歧視與偏見不應僅僅被視為是一個技術目標,而應是一個原則性問題。由于人工智能的生態(tài)系統(tǒng)結構內部的輸入精度和輸出精度之間存在很強的正相關性,所以數(shù)據(jù)模型的部署對于算法的影響尤其明顯。合理的模型要求數(shù)據(jù)在數(shù)量上是足夠的,在屬性上是多元化的。通過來自不同區(qū)域和社會各界的多方面努力,加之更廣泛的臨床研究來驗證智能醫(yī)療應用程序的實施,可以最大化地解除人們對算法偏差的擔憂。算法的設計應該在全球范圍內進行考量,數(shù)據(jù)的屬性包括但不限于年齡、種族、性別、社會人口階層和區(qū)域。為了減少偏差,臨床驗證應該在代表性人群中進行,它預設了系統(tǒng)的普適性,對于特殊數(shù)據(jù)、個性化案例,需要更加謹慎地進行臨床研究驗證。因為,即使在大型隨機對照試驗中確定了針對特定病人的特定干預措施的有效性,臨床病人也往往與臨床試驗人群不同[19]。特別是為了滿足質量持續(xù)改進的實踐要求,需要專業(yè)人員遵循機器和人為雙重控制原則,根據(jù)不斷變化的需求環(huán)境對數(shù)據(jù)庫進行審核,對模型中的數(shù)據(jù)盲點予以完善,針對不明確和不合理的數(shù)據(jù)加以調整,以明確數(shù)據(jù)在算法中實現(xiàn)的作用。

2.3 定義數(shù)據(jù)的道德屬性

在臨床中,醫(yī)療人工智能系統(tǒng)如何判定一個行為是否符合病人的道德義務?人們總是直觀地認為,人工智能不能像人類一樣思考,就無法比人做出更加人性化的倫理決策。其實不然,雖然人工智能無法模擬人類的意識,但是可以通過學習數(shù)據(jù)為基礎,以整合信息生成特有的知識和認知機制,來決定如何行動、執(zhí)行任務和創(chuàng)造新信息[17]39-59。但是,如果只是大量的數(shù)據(jù)集合的堆積,智能系統(tǒng)未必能制定適合病人的道德決策。所以值得重視的是,在進行算法運算之前,設計者需要給這些數(shù)據(jù)定義屬性,什么樣的結果是“好”的,什么樣的結果是符合人類道德主體的。類似于羅斯的“顯見義務”,當機器在做道德判斷的時候,如果它的行為符合某一種顯見義務,如忠誠、正義、不傷害別人等屬性,那么它就有可能符合道德要求。在醫(yī)療行為中,針對具體的病人與情境,如果沒有其他義務比顯見義務更符合這一情形,那么這就是道德上應該去做的“實際義務”。例如,病人在以現(xiàn)有疾病的狀態(tài)下的生存時間仍然大于完全健康的生存時間,那么在病人知情同意條件下,適當治療來減緩病人痛苦與完全治療的兩種方式在道德上是完全正當?shù)?,完全治療并不一定完全適用于病人,所以通過適當治療維持病人的生命也是符合“實際義務”的道德決策。智能醫(yī)療系統(tǒng)的顯見義務是自明的,但是由于實際義務需要對具體情境加以識別判斷,所以人工智能在行動之前必須了解該行為的所有特性。只有預設數(shù)據(jù)的道德屬性和行為的合理范圍,智能醫(yī)療系統(tǒng)才能給予合乎倫理的決策。

2.4 明確責任界定標準

傳統(tǒng)上,我們要求機器的操作員或者程序設定人員對其操作的后果負責,但現(xiàn)在可以證明,隨著機器行為的種類越來越多,傳統(tǒng)的責任歸屬方式越來越與我們的正義感和社會道德框架不兼容,因為沒有人對機器的行為有足夠的控制能力來承擔責任。這些案例構成了我們所說的責任差距,所以需要對不同案例具體分析來界定責任歸屬。例如,IBM沃森健康公司的許多癌癥治療算法建議被證明是存在缺陷的,從而對病人產(chǎn)生了醫(yī)源性風險。但針對沃森這類情況,我們恐怕難以追溯設計者的責任。因為,最初設定的程序功能會在機器學習的過程中逐漸自治。在這一過程當中,機器會擺脫設計者的控制,并逐漸將這種控制轉移到機器本身。而且,對于設計者來說,可糾正的符號和標識在人工神經(jīng)網(wǎng)絡中消失了,盡量避免風險的發(fā)生是他唯一能做的事情,倘若事先知道機器的局限性,他也不應該承擔責任[20]。

假設沃森給出了一個錯誤的治療建議,我們可以就這一問題具體分析。如果自治機器的錯誤表現(xiàn)來自其不可避免的局限性,那么必須定責機器本身。如果由代理人做出了最終的決定,我們還要考慮其他利益相關者的責任,如醫(yī)療機構和要求代理人根據(jù)自治機器的輔助算法進行醫(yī)療決策的技術設計公司,問責就會變得更加復雜。對于在不同程度上造成了醫(yī)療失誤的利益各方,他們都將涉及定責,但他們都不承擔全部責任。值得注意的是,集體式的責任概念似乎可以縮小責任差距,但事實上,對于受到傷害的病人來說并不是一件積極的結果,因為它存在潛在的責任互推的風險。因此,應該成立由醫(yī)生、病人、智能醫(yī)療程序設計者、政府、醫(yī)療機構、智能醫(yī)療設備開發(fā)公司等多主體共同參與的責任界定團體,經(jīng)共同協(xié)商,建立一套詳細的、明晰的責任界定標準。

2.5 建立尊重病人自主權的共享決策模式

醫(yī)療決策涉及病人的價值觀和偏好,對一名病人的最佳治療可能不是對另一名病人的最優(yōu)選擇。因此,對不同需要的病人,給予相同的醫(yī)療待遇不能說是一種公正。如果不考慮人們之間的差異,就談不上合乎道德的行動。因為公正的作用,并不建立在無視差別的基礎上,而是建立在根據(jù)差別運用一般原則的基礎上[21]。所以醫(yī)療決策應該由病人的價值觀決定,復雜的護理情況往往得益于其他專業(yè)人員和病人的參與,以實現(xiàn)一種在醫(yī)學上合理且符合病人價值觀的共享意識。為特定病人選擇最佳的治療需要病人和醫(yī)生的價值判斷,智能醫(yī)療應該傾聽病人、尊重病人,需要防止忽略病人的價值觀而將治療方式強加給病人。以病人為中心的現(xiàn)代臨床醫(yī)學第一個核心原則應是從業(yè)者應該努力將病人視為獨特的、自主的、具有特定的價值觀、偏好和生活目標的人?;诓∪说淖诮绦叛?、文化傳統(tǒng)以及多樣化的價值觀,不同的病人對應不同的醫(yī)療決策,當選擇涉及相似的風險和利益時,與病人共同決策最為有效。例如,當算法對治療的決策優(yōu)先級排序存在倫理沖突時,可以由醫(yī)生與病人進行有意義的對話,來促進關于病人偏好和可能的治療,以便在人工智能系統(tǒng)忽視倫理價值向度時為病人提供選擇的機會,防止科技活動對待不同社會群體的歧視和偏見。共同決策反映了對病人作為有權干預利益和參與醫(yī)療決策的尊重以及個人承諾,臨床中價值靈活的人工智能可以成為促進共享決策和將對病人自主權的尊重嵌入臨床實踐的盟友。

2.6 堅持“以病人為中心”的臨床傳統(tǒng)

現(xiàn)代醫(yī)學要求“以病人為中心”,充分考慮到病人的多維情境,維護尊重病人的利益和意見,是在任何科學時代都不應該違反的。相較于工具理性,價值理性在行動之前預設了一個核心價值觀念,所有行動都是圍繞著這一觀念進行,從病人意愿、預后、治療費用等多角度地分析何種方案更適合。工具價值是倫理價值的前提,沒有工具價值就無法帶來智能醫(yī)療技術質的飛躍,對效率性、實用性追求是技術發(fā)展的需要,也是時代的訴求,二者的統(tǒng)一旨在更好地實現(xiàn)醫(yī)療水平的進步。倫理價值是內核,它是醫(yī)學人文精神的載體,智能醫(yī)療不僅要做到精準治療,同時也要有人文的關懷,二者的合力才是智能醫(yī)療發(fā)展的關鍵所在。

智能醫(yī)療要堅持以病人為中心,首先需要實現(xiàn)其技術價值要求在臨床過程中對于特定病人通過精準的分析預設診療行為,對診療行為、醫(yī)療目的以及符合的結果范圍之間進行合理的權衡。在尊重病人自主性的前提下,智能醫(yī)療的干預措施伴隨著其可能結果和相關風險性質的不確定性,做出符合病人需求和權利的理性決策存在困難。所以,智能醫(yī)療不僅要為病人綜合考慮何種治療方案能更加行之有效地消除疾病,以生命延續(xù)作為最大化效益的功利目的追求,還要融合整個行動過程中的情感和精神價值,在治療過程中始終秉承某種價值信念的合理性行為。

3 結論

2022年3月,中共中央辦公廳、國務院辦公廳印發(fā)了《關于加強科技倫理治理的意見》,提出要不斷提升科技倫理治理能力,防控高新技術研發(fā)活動帶來的倫理風險。智能醫(yī)療的最新進展為改善人類醫(yī)療保健提供了機會,然而我們也面臨著智能醫(yī)療的諸多倫理挑戰(zhàn),并且在將技術轉化為有效的臨床部署仍然存在不可避免的前沿風險。因此,人們比以往任何時候都更加迫切地需要智能醫(yī)療受到約束和改進。正如本文所述,人工智能的技術風險可能會給臨床醫(yī)生的正確決策帶來威脅,而潛在的倫理風險侵害了病人的權益。人工智能如何影響醫(yī)療質量、滿足醫(yī)療要求,對于前瞻、穩(wěn)健和確定性的臨床部署至關重要。這就要求人工智能加速算法確定性以及可解釋性的技術建設,在全球范圍內建立數(shù)據(jù)集,以便于評估和消除復雜因素對于不同病人的歧視與偏見,來滿足適應臨床行動和決策的衡量標準。同時為了使智能醫(yī)療真正實現(xiàn)以病人為中心的護理,人工智能需要理解道德認知和具備道德義務意識,并且專注于人工智能與病人和臨床醫(yī)生之間的關系和互動質量方面,確保病人接受可控人工智能醫(yī)療的同時權益也不受侵犯,真正做到“以病人為中心”進行臨床考察。“以病人為中心”的原則是智能醫(yī)療時代下的訴求和共同愿景,這一原則下的護理履行了醫(yī)護人員將病人利益置于首位并尊重病人個人自主權的義務[7],并且在醫(yī)療層面和倫理層面將會為智能醫(yī)療帶來更好的價值。

猜你喜歡
決策病人醫(yī)療
《現(xiàn)代儀器與醫(yī)療》2022年征訂回執(zhí)
《現(xiàn)代儀器與醫(yī)療》2022年征訂回執(zhí)
誰是病人
為可持續(xù)決策提供依據(jù)
新型醫(yī)療廢棄物焚化艙
決策大數(shù)據(jù)
決策大數(shù)據(jù)
諸葛亮隆中決策
遇到疾病,如何醫(yī)療
病人膏育
昭苏县| 子长县| 绥德县| 巴彦县| 鹰潭市| 佳木斯市| 卓资县| 津市市| 凤翔县| 祁连县| 安宁市| 乌拉特后旗| 云龙县| 永吉县| 南岸区| 土默特左旗| 紫金县| 灵山县| 万源市| 随州市| 许昌县| 漳浦县| 闸北区| 桦南县| 柏乡县| 香港| 德令哈市| 循化| 特克斯县| 河北省| 石泉县| 平顺县| 柘荣县| 抚宁县| 乐陵市| 清水县| 安丘市| 张家川| 柳河县| 铜陵市| 淮北市|