關(guān)鍵詞:醫(yī)療人工智能,倫理風(fēng)險(xiǎn),倫理標(biāo)準(zhǔn),標(biāo)準(zhǔn)構(gòu)建
0 引 言
隨著第四次工業(yè)革命的來臨,人工智能(Artificial Intelligence,AI)技術(shù)已經(jīng)成為推動社會進(jìn)步和經(jīng)濟(jì)發(fā)展的重要力量。近年來,人工智能技術(shù)正廣泛地與各個行業(yè)相融合,醫(yī)療健康領(lǐng)域正是其部署和應(yīng)用的重點(diǎn)領(lǐng)域之一。目前人工智能在醫(yī)療領(lǐng)域的應(yīng)用主要包括智能診療、智能醫(yī)療機(jī)器人、智能影像識別、智能藥物研發(fā)、智能健康管理等方面[1]。醫(yī)療人工智能的出現(xiàn)給傳統(tǒng)醫(yī)療服務(wù)帶來了革命性的變化,極大提高了診療效率和準(zhǔn)確性,為廣大患者帶來了福音。不幸的是,伴隨技術(shù)進(jìn)步而來的還有各種倫理挑戰(zhàn)。數(shù)據(jù)隱私的泄露、算法偏見的產(chǎn)生、決策過程不透明以及責(zé)任歸屬模糊等問題的出現(xiàn),都在不同程度上引發(fā)了社會公眾對于醫(yī)療人工智能的爭議和擔(dān)憂。如何妥善應(yīng)對醫(yī)療人工智能倫理問題,促使其朝著健康的方向發(fā)展,是當(dāng)下亟需解決的問題。
人工智能倫理是開展人工智能研究、設(shè)計(jì)、開發(fā)、服務(wù)和使用等科技活動需要遵循的價值理念和行為規(guī)范[2]。醫(yī)療人工智能倫理問題是當(dāng)前學(xué)界研究的熱點(diǎn),研究主題正從原則規(guī)范向治理體系演進(jìn)[3]。目前我國在人工智能領(lǐng)域的立法工作處于起步階段,尚未建立起全面的人工智能規(guī)范體系??紤]到人工智能技術(shù)發(fā)展迅速、更新迭代快,依靠立法對其進(jìn)行規(guī)制難免存在滯后。而在法律出臺之前,標(biāo)準(zhǔn)能夠在一定程度上替代規(guī)則,承擔(dān)起豐富人工智能技術(shù)倫理價值內(nèi)涵的任務(wù)[4]。因此本文主張先行建立醫(yī)療人工智能的倫理標(biāo)準(zhǔn)體系對其進(jìn)行治理,待時機(jī)成熟再進(jìn)行立法。
本文在分析醫(yī)療人工智能面臨的主要倫理風(fēng)險(xiǎn)的基礎(chǔ)上,結(jié)合國內(nèi)外的相關(guān)研究和實(shí)踐經(jīng)驗(yàn),提出優(yōu)先重點(diǎn)建設(shè)核心部分的倫理標(biāo)準(zhǔn),之后再逐步對倫理標(biāo)準(zhǔn)體系進(jìn)行完善的構(gòu)想,以期為醫(yī)療人工智能倫理問題的解決提供一種可能的方案。
1 醫(yī)療人工智能面臨的主要倫理風(fēng)險(xiǎn)
全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會秘書處組織制定和發(fā)布的《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險(xiǎn)防范指引》指出,開展人工智能相關(guān)活動需要關(guān)注失控性、社會性、侵權(quán)性、歧視性以及責(zé)任性等5個方面的倫理安全風(fēng)險(xiǎn)。本文將從上述5個方面展開分析當(dāng)下醫(yī)療人工智能面臨的主要倫理風(fēng)險(xiǎn)。
1.1 失控性風(fēng)險(xiǎn)
失控性風(fēng)險(xiǎn)指的是醫(yī)療人工智能的行為和結(jié)果超出了預(yù)設(shè)和可控的范圍而引發(fā)的相關(guān)風(fēng)險(xiǎn)。首先,隨著算法的不斷發(fā)展,出現(xiàn)了深度學(xué)習(xí)算法之類的高級算法,其決策過程極其復(fù)雜,即使是開發(fā)者也難以完全理解其內(nèi)部工作機(jī)制。這種“黑箱”效應(yīng)使得醫(yī)療人工智能的決策難以被預(yù)測和追溯,其風(fēng)險(xiǎn)自然也就不可控了。其次,基于機(jī)器學(xué)習(xí)的醫(yī)療人工智能系統(tǒng)可能會進(jìn)行自我學(xué)習(xí)并調(diào)整其行為模式,這種自主性可能導(dǎo)致其作出開發(fā)人員設(shè)計(jì)預(yù)期之外的醫(yī)療決策,造成不可預(yù)見的后果。此外,醫(yī)療人工智能系統(tǒng)本身可能存在安全漏洞,如果被黑客侵入或者惡意篡改,就可能導(dǎo)致醫(yī)療機(jī)構(gòu)失去對系統(tǒng)的控制,進(jìn)而可能對患者的人身造成損害。
1.2 社會性風(fēng)險(xiǎn)
社會性風(fēng)險(xiǎn)是指因不合理使用醫(yī)療人工智能,如:濫用、誤用,而產(chǎn)生的相關(guān)風(fēng)險(xiǎn)。許多醫(yī)護(hù)人員在使用醫(yī)療人工智能系統(tǒng)之前并沒有經(jīng)過全面的培訓(xùn),很可能因不完全理解系統(tǒng)的工作原理和風(fēng)險(xiǎn)而錯誤地應(yīng)用這些技術(shù),危及患者健康。同時,對醫(yī)療人工智能的過度依賴可能會逐漸削弱醫(yī)生的專業(yè)判斷能力,患者對醫(yī)生的信賴程度也會不斷降低。此外,當(dāng)前醫(yī)療人工智能的相關(guān)應(yīng)用程序、智能穿戴設(shè)備(智能手表、智能手環(huán)等)都非常容易獲取,越來越多人將其用于日常的個人健康測試或監(jiān)控,但其結(jié)果的正確性往往無法得到保證,盲目地信任此類人工智能的醫(yī)療決策可能會因錯誤信息而導(dǎo)致健康受到損害。
1.3 侵權(quán)性風(fēng)險(xiǎn)
侵權(quán)性風(fēng)險(xiǎn)是指醫(yī)療人工智能對人的基本權(quán)利造成侵害的風(fēng)險(xiǎn)。當(dāng)下醫(yī)療人工智能的應(yīng)用可能會涉及對患者健康權(quán)、隱私權(quán)、自主權(quán)等基本權(quán)利的侵害。首先,醫(yī)療人工智能可能會因其訓(xùn)練數(shù)據(jù)不足、算法缺陷或其他技術(shù)問題而導(dǎo)致不正確的診斷,可能對患者健康造成損害。其次,健康數(shù)據(jù)相比于其他個人數(shù)據(jù),具有更高的敏感性和私密性[5]。如果醫(yī)療人工智能系統(tǒng)在處理和分析患者健康信息時,沒有做好相應(yīng)的安全措施,就可能導(dǎo)致數(shù)據(jù)泄露,致使患者的隱私權(quán)遭受侵犯。最后,診療過程中患者自主權(quán)的核心在于患者的知情同意權(quán)利是否得到尊重。醫(yī)療人工智能系統(tǒng)的決策過程往往缺乏透明性,患者無法理解其決策依據(jù),也就無法理解智能診療選擇的后果,進(jìn)而削弱患者的自主決策能力。
1.4 歧視性風(fēng)險(xiǎn)
歧視性風(fēng)險(xiǎn)是指醫(yī)療人工智能對人類特定群體抱有偏見,缺乏公平公正,而引發(fā)的相關(guān)風(fēng)險(xiǎn)。醫(yī)療人工智能系統(tǒng)的運(yùn)行主要依靠數(shù)據(jù)訓(xùn)練和算法決策,數(shù)據(jù)集質(zhì)量不佳或算法設(shè)計(jì)存在問題,均有可能導(dǎo)致算法決策帶有偏見。首先,由于數(shù)據(jù)收集者主觀上的有意選擇,或者是客觀上樣本太少、難以獲取,均可能致使數(shù)據(jù)在性別、年齡、種族、地區(qū)或其他重要因素上缺乏多樣性。醫(yī)療人工智能系統(tǒng)采用此種數(shù)據(jù)集進(jìn)行訓(xùn)練可能會導(dǎo)致算法帶有系統(tǒng)性偏見。其次,醫(yī)療人工智能的設(shè)計(jì)者,出于主觀偏好或者利益導(dǎo)向等原因,在設(shè)計(jì)算法時沒有秉承公正的理念,也可能導(dǎo)致算法最終輸出的結(jié)果帶有偏見。此外,由于醫(yī)療人工智能屬于新興技術(shù),有些國家或地區(qū)并沒有足夠的資金和技術(shù)支持來搭建醫(yī)療人工智能基礎(chǔ)設(shè)施。醫(yī)療人工智能資源分配不均,可能在落后地區(qū)和低收入群體中形成人工智能醫(yī)療資源的應(yīng)用“洼地”,違背“健康公平”的理念[6]。
1.5 責(zé)任性風(fēng)險(xiǎn)
責(zé)任性風(fēng)險(xiǎn)是指醫(yī)療人工智能相關(guān)方的責(zé)任難以界定所引發(fā)的風(fēng)險(xiǎn)。在傳統(tǒng)醫(yī)療模式中,醫(yī)療機(jī)構(gòu)和醫(yī)護(hù)人員一般是醫(yī)療事故責(zé)任承擔(dān)的主體。但是人工智能技術(shù)的介入,使得責(zé)任劃分變得復(fù)雜起來。一方面,醫(yī)療人工智能系統(tǒng)的決策過程往往是不透明的。當(dāng)人工智能出現(xiàn)誤診、漏診等情況時,難以追蹤和解釋導(dǎo)致錯誤的具體原因,因果關(guān)系的復(fù)雜性導(dǎo)致責(zé)任難以歸屬。另一方面,醫(yī)療人工智能系統(tǒng)的應(yīng)用涉及包括設(shè)計(jì)者、制造者、使用者等在內(nèi)的多方主體。一個以人工智能為中介而導(dǎo)致的倫理問題,往往不是“一己之力”,而更多的是“眾人合力”[7]。這種情況下界定各方的責(zé)任邊界變得十分復(fù)雜。對于人工智能本身是否需要承擔(dān)責(zé)任的問題,法律對此當(dāng)前并無規(guī)定。學(xué)界一般認(rèn)為基于當(dāng)前的技術(shù)發(fā)展階段,醫(yī)療人工智能只是一種工具,不具備法律主體資格,在將來醫(yī)療人工智能有自由意志屬性之后再賦予其法律人格為時未晚[8]。本文贊同這一觀點(diǎn)。
2 醫(yī)療人工智能倫理標(biāo)準(zhǔn)體系的核心內(nèi)容構(gòu)建
面對醫(yī)療人工智能倫理風(fēng)險(xiǎn)引發(fā)的一系列問題,當(dāng)務(wù)之急是構(gòu)建起相應(yīng)的倫理標(biāo)準(zhǔn)體系,防止問題的進(jìn)一步擴(kuò)大,影響到醫(yī)療人工智能產(chǎn)業(yè)向前發(fā)展。在倫理標(biāo)準(zhǔn)體系的構(gòu)建過程中應(yīng)遵循以下原則:
(1)全面性原則,醫(yī)療人工智能的倫理標(biāo)準(zhǔn)體系應(yīng)當(dāng)覆蓋其整個生命周期,建立從研發(fā)、生產(chǎn)、測試、應(yīng)用到退役下線的全過程倫理標(biāo)準(zhǔn)體系。
(2)可操作性原則,醫(yī)療人工智能倫理標(biāo)準(zhǔn)的設(shè)定應(yīng)當(dāng)是符合實(shí)際并且具體可行的,確保其能夠在實(shí)踐中得到有效落實(shí)。
(3)適應(yīng)性原則,醫(yī)療人工智能技術(shù)的更新速度極快,其面臨的倫理問題可能也會隨之發(fā)生變化,因而倫理標(biāo)準(zhǔn)體系需具備一定的靈活性和適應(yīng)性,便于根據(jù)技術(shù)的發(fā)展進(jìn)行動態(tài)調(diào)整。
(4)普適性與地域性原則,在確保醫(yī)療人工智能倫理標(biāo)準(zhǔn)具有國際通用性的同時,考慮到本國或者地區(qū)在文化、法律和社會背景上的不同,允許其存在一定程度的地域性差異。
鑒于建立醫(yī)療人工智能的全生命流程倫理標(biāo)準(zhǔn)體系是一個復(fù)雜且龐大的工程,本文主張優(yōu)先建立倫理標(biāo)準(zhǔn)體系中的倫理原則、數(shù)據(jù)管理與隱私保護(hù)、算法透明度和可解釋性、責(zé)任與合規(guī)性以及監(jiān)督與評估機(jī)制等幾個核心部分的倫理標(biāo)準(zhǔn),以應(yīng)對當(dāng)下日益頻發(fā)的倫理問題。
2.1 倫理原則標(biāo)準(zhǔn)化
目前國內(nèi)外都尚未形成統(tǒng)一的醫(yī)療人工智能倫理原則。國內(nèi)方面,我國傳統(tǒng)醫(yī)學(xué)倫理包括有利、尊重、公正和不傷害等四大原則。2022年3月,中共中央辦公廳、國務(wù)院辦公廳發(fā)布了《關(guān)于加強(qiáng)科技倫理治理的意見》,提出了以下5項(xiàng)科技倫理原則:增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)和保持公開透明。國際上比較有代表性的是世界衛(wèi)生組織(WHO)在2021年6月發(fā)布的《衛(wèi)生領(lǐng)域人工智能的倫理與治理》指南,該指南確定了醫(yī)療衛(wèi)生領(lǐng)域人工智能的6項(xiàng)倫理原則:(1)保障人類的自主性;(2)增進(jìn)人類福祉和保護(hù)安全及公共利益;(3)確保透明度、可解釋性和理解性;(4)培養(yǎng)責(zé)任感和實(shí)行問責(zé)制;(5)確保包容性和公平性;(6)促進(jìn)具有響應(yīng)性和可持續(xù)性的人工智能發(fā)展。
倫理原則是制定具體倫理標(biāo)準(zhǔn)的基礎(chǔ)和方向,因此制定一套通用的標(biāo)準(zhǔn)化倫理原則勢在必行。借鑒上述已有的相關(guān)倫理原則,本文提出以下5項(xiàng)醫(yī)療人工智能基本倫理原則:
(1)以人為本原則。醫(yī)療人工智能的開發(fā)和應(yīng)用應(yīng)當(dāng)首先考慮和保護(hù)人類的利益,將增進(jìn)人類健康和福祉作為根本目的。注重保障患者的生命安全和人格尊嚴(yán),確保醫(yī)護(hù)人員和患者的決策自主性。
(2)公正性原則。醫(yī)療人工智能應(yīng)當(dāng)確保對所有患者公正無私,不因患者在經(jīng)濟(jì)狀況、性別、年齡、種族等方面的差異而對其進(jìn)行差別對待。同時,公正性原則也要求對醫(yī)療資源進(jìn)行合理分配,確保所有人都能平等地享受到醫(yī)療人工智能帶來的便利。
(3)隱私保護(hù)原則。醫(yī)療人工智能系統(tǒng)應(yīng)當(dāng)確保涉及患者隱私的個人健康信息獲得妥善管理和保護(hù),對個人健康數(shù)據(jù)的使用必須依法依規(guī)進(jìn)行,保證患者對自己健康信息的處理擁有完全的知情權(quán)和選擇權(quán)。
(4)責(zé)任與問責(zé)原則。當(dāng)醫(yī)療人工智能引發(fā)醫(yī)療事故時,應(yīng)當(dāng)有明確的責(zé)任歸屬和問責(zé)機(jī)制,確?;颊邫?quán)益得到保護(hù)。應(yīng)當(dāng)明確包括開發(fā)者、制造者、醫(yī)療機(jī)構(gòu)及醫(yī)護(hù)人員等主體在內(nèi)承擔(dān)的不同責(zé)任,確保所有責(zé)任均可追溯。
(5)透明度與可解釋性原則。醫(yī)療人工智能系統(tǒng)的設(shè)計(jì)和應(yīng)用應(yīng)當(dāng)具有透明性,并且能夠以人類可以理解的方式進(jìn)行解釋,使得智能系統(tǒng)的相關(guān)人員能夠理解其運(yùn)作方式和決策依據(jù)。
2.2 數(shù)據(jù)管理與隱私保護(hù)倫理標(biāo)準(zhǔn)
數(shù)據(jù)管理與隱私保護(hù)倫理標(biāo)準(zhǔn)的構(gòu)建,主要是為了確保醫(yī)療人工智能應(yīng)用過程中的數(shù)據(jù)收集、存儲、處理和共享符合倫理要求,確保不侵犯患者的個人隱私。醫(yī)療人工智能的相關(guān)數(shù)據(jù)在收集和選取上應(yīng)當(dāng)符合公平性,在構(gòu)成上需滿足代表性、均衡性和規(guī)模性等要求。對于不符合要求的數(shù)據(jù)集,應(yīng)當(dāng)對其進(jìn)行進(jìn)一步的處理和校準(zhǔn),減少其中的偏見和不平衡后再用于醫(yī)療人工智能系統(tǒng)訓(xùn)練。在獲取醫(yī)療數(shù)據(jù)時,應(yīng)告知患者有關(guān)數(shù)據(jù)收集、存儲和處理的目的,保障患者知情權(quán),并取得其同意?;颊邔ζ鋫€人健康數(shù)據(jù)應(yīng)當(dāng)擁有訪問、修改和刪除等權(quán)利。在醫(yī)療數(shù)據(jù)的存儲、使用和傳輸?shù)倪^程中,有關(guān)主體必須采取包括數(shù)據(jù)加密、訪問控制、身份驗(yàn)證和安全審計(jì)等在內(nèi)的安全措施,防止數(shù)據(jù)的丟失、泄露、濫用和篡改,防止患者隱私受到侵犯。同時,應(yīng)當(dāng)防范醫(yī)療數(shù)據(jù)壟斷情況的出現(xiàn),建立數(shù)據(jù)流通的激勵機(jī)制,健全共享共通的數(shù)據(jù)標(biāo)準(zhǔn)規(guī)范,促進(jìn)不同的醫(yī)療人工智能平臺協(xié)同運(yùn)作[9]。
2.3 算法透明度和可解釋性倫理標(biāo)準(zhǔn)
算法透明度和可解釋性倫理標(biāo)準(zhǔn),是保證醫(yī)療人工智能算法的決策過程和結(jié)果能夠被理解和解釋的相關(guān)倫理標(biāo)準(zhǔn)。透明度倫理標(biāo)準(zhǔn),要求公開醫(yī)療人工智能算法的模型結(jié)構(gòu)、訓(xùn)練數(shù)據(jù)、輸入輸出、性能評估等信息,使得醫(yī)護(hù)人員、患者、監(jiān)管機(jī)構(gòu)等相關(guān)方能夠評估算法的可靠性和適用性??紤]到部分算法可能涉及商業(yè)秘密,可以根據(jù)醫(yī)療人工智能倫理風(fēng)險(xiǎn)高低的不同,設(shè)置不同程度的披露范圍要求。算法可解釋性是算法模型的客觀屬性[10],可解釋性倫理標(biāo)準(zhǔn)要求醫(yī)療人工智能的設(shè)計(jì)人員在模型構(gòu)建時應(yīng)盡量選用具有高解釋性的算法模型(如:決策樹模型),使得其決策過程更容易理解和解釋。醫(yī)療人工智能的研發(fā)設(shè)計(jì)主體應(yīng)肩負(fù)起解釋算法的義務(wù),必要時形成書面報(bào)告向行政主管部門報(bào)備[11]。算法透明度和可解釋性的提升有助于增加醫(yī)護(hù)人員和患者對于醫(yī)療人工智能的信任和接受程度。
2.4 責(zé)任與合規(guī)性倫理標(biāo)準(zhǔn)
責(zé)任與合規(guī)性倫理標(biāo)準(zhǔn)主要在于明確醫(yī)療人工智能應(yīng)用中各方的責(zé)任與義務(wù),確保智能系統(tǒng)的設(shè)計(jì)、制造和使用符合倫理規(guī)定。醫(yī)療人工智能系統(tǒng)的開發(fā)者和制造者,需對其設(shè)計(jì)、制造的系統(tǒng)和設(shè)備的安全性、可靠性及有效性負(fù)責(zé),確保系統(tǒng)能夠在預(yù)定的臨床環(huán)境中安全有效地運(yùn)行。醫(yī)護(hù)人員作為人工智能系統(tǒng)的使用者,需對使用該系統(tǒng)做出的臨床決策負(fù)責(zé),包括對人工智能提供的建議進(jìn)行評估和監(jiān)督,并在必要時進(jìn)行干預(yù)。監(jiān)管機(jī)構(gòu)應(yīng)確保醫(yī)療人工智能系統(tǒng)在上市前經(jīng)過嚴(yán)格的評審,滿足所有倫理和安全要求,并對市場上的人工智能系統(tǒng)進(jìn)行持續(xù)的監(jiān)督?;颊咭矐?yīng)對自身安全和健康負(fù)責(zé),在接受智能診療服務(wù)時,需全面了解可能存在的風(fēng)險(xiǎn),積極參與決策過程。此外,建立完善的責(zé)任追溯機(jī)制有助于解決潛在的責(zé)任劃分問題。醫(yī)療人工智能算法的決策過程和結(jié)果應(yīng)是可追溯的,相關(guān)數(shù)據(jù)、模型、參數(shù)和操作過程應(yīng)進(jìn)行記錄和存檔,以便在需要時進(jìn)行審計(jì)、調(diào)查和驗(yàn)證。
2.5 監(jiān)督與評估機(jī)制
建立醫(yī)療人工智能倫理標(biāo)準(zhǔn)的監(jiān)督和評估機(jī)制是保障其得到有效落實(shí)的重要手段。在外部監(jiān)督上,政府監(jiān)管機(jī)構(gòu)應(yīng)對醫(yī)療人工智能建立合倫理性評估程序,審核醫(yī)療人工智能系統(tǒng)的開發(fā)和使用是否符合倫理標(biāo)準(zhǔn),定期對醫(yī)療人工智能應(yīng)用進(jìn)行效果評估和倫理合規(guī)審計(jì),并對違規(guī)行為進(jìn)行處罰和糾正。單位內(nèi)部的倫理審查監(jiān)督則主要由倫理審查委員會負(fù)責(zé)。根據(jù)科技部、教育部、工業(yè)和信息化部等十部門在2023年10月聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》的規(guī)定,從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會。醫(yī)療人工智能相關(guān)單位的倫理審查委員會在人員構(gòu)成上應(yīng)當(dāng)多樣化,除醫(yī)護(hù)人員之外,還應(yīng)有研發(fā)人員、倫理專家、法律顧問和群眾代表等相關(guān)方。倫理審查委員會應(yīng)當(dāng)在醫(yī)療人工智能系統(tǒng)開發(fā)早期階段和上市前,進(jìn)行倫理審查,評估其設(shè)計(jì)、數(shù)據(jù)使用、隱私保護(hù)等是否符合倫理標(biāo)準(zhǔn)要求。在智能系統(tǒng)投入使用后,跟蹤評估醫(yī)療系統(tǒng)的實(shí)際使用效果,包括其安全性、有效性、公平性和對患者隱私的影響。此外,醫(yī)護(hù)人員、患者、社會公眾等有關(guān)人員也可以積極行使監(jiān)督權(quán),對醫(yī)療人工智能應(yīng)用過程中違反倫理標(biāo)準(zhǔn)的情況向相關(guān)部門進(jìn)行反映。
3 醫(yī)療人工智能倫理標(biāo)準(zhǔn)體系建設(shè)的配套建議
3.1 推動多方共建
醫(yī)療人工智能的應(yīng)用涉及多方利益主體,其倫理標(biāo)準(zhǔn)體系的構(gòu)建需要政府、行業(yè)協(xié)會、醫(yī)療機(jī)構(gòu)、研發(fā)機(jī)構(gòu)、高校以及社會公眾等多方主體的共同參與。政府部門應(yīng)當(dāng)發(fā)揮主導(dǎo)作用,制定相關(guān)政策、指導(dǎo)原則和行動框架,為醫(yī)療人工智能倫理標(biāo)準(zhǔn)體系的建設(shè)提供指導(dǎo)和支持。醫(yī)療人工智能有關(guān)行業(yè)協(xié)會應(yīng)當(dāng)積極制定本行業(yè)的倫理標(biāo)準(zhǔn),推動成員共同遵循倫理標(biāo)準(zhǔn),提升行業(yè)整體的倫理水平。醫(yī)療機(jī)構(gòu)和患者作為醫(yī)療人工智能系統(tǒng)的使用方,可以反饋在實(shí)際使用中遇到的技術(shù)和倫理問題,為倫理標(biāo)準(zhǔn)制定提供一手資料。研發(fā)機(jī)構(gòu)可以通過研究成果為倫理標(biāo)準(zhǔn)討論提供科學(xué)依據(jù)。高校應(yīng)積極開展醫(yī)療人工智能倫理的學(xué)術(shù)研究,為倫理標(biāo)準(zhǔn)的制定提供理論支持,同時加強(qiáng)對倫理人才的培養(yǎng)。社會公眾可以通過參加聽證會等方式,積極為醫(yī)療人工智能倫理標(biāo)準(zhǔn)的制定建言獻(xiàn)策,促使倫理標(biāo)準(zhǔn)更加貼合解決現(xiàn)實(shí)問題的需要。
3.2 加強(qiáng)國際合作
當(dāng)下人工智能治理已成為一項(xiàng)全球性的議題,倫理治理問題是其中的重要組成部分。我國醫(yī)療人工智能倫理標(biāo)準(zhǔn)體系的建設(shè)不能一味“閉門造車”,而應(yīng)以開放的心態(tài),積極擁抱國際倫理共治。歐美等國在醫(yī)療人工智能技術(shù)的開發(fā)和應(yīng)用方面早于我國,同時歷來重視人工智能倫理的建設(shè),在醫(yī)療人工智能倫理標(biāo)準(zhǔn)體系的建設(shè)上我國可以借鑒這些國家的成功經(jīng)驗(yàn)。我國可以通過舉辦國際會議、研討會等形式,邀請全球醫(yī)療人工智能領(lǐng)域的專家、學(xué)者和有關(guān)政府管理人員來華交流,共同探討醫(yī)療人工智能的倫理標(biāo)準(zhǔn)制定問題。支持中國的研究機(jī)構(gòu)、高等院校和企業(yè)與國際伙伴建立合作項(xiàng)目,進(jìn)行醫(yī)療人工智能倫理合作研究。同時,我國也可以利用本國在醫(yī)療人工智能倫理領(lǐng)域的研究和應(yīng)用成果,為國際倫理標(biāo)準(zhǔn)制定提供理論和實(shí)踐支持。我國作為發(fā)展中國家,積極參與有關(guān)國際科技倫理的制定工作,有利于打破由發(fā)達(dá)國家單方面主導(dǎo)國際科技倫理制定的局面,能夠更好地推動實(shí)現(xiàn)醫(yī)療人工智能發(fā)展福祉由世界各國共享[12]。
3.3 強(qiáng)化教育與培訓(xùn)
醫(yī)療人工智能倫理標(biāo)準(zhǔn)的貫徹實(shí)施有賴于相關(guān)人員倫理意識的提高,因此針對不同主體的倫理教育和培訓(xùn)工作十分有必要。對于醫(yī)療人工智能設(shè)計(jì)者和開發(fā)者而言,倫理教育能夠增進(jìn)其倫理自覺,使他們在人工智能系統(tǒng)的設(shè)計(jì)和開發(fā)中能夠優(yōu)先考慮到倫理問題[13]。對于醫(yī)護(hù)人員來說,在培訓(xùn)過程中能夠更全面地了解醫(yī)療人工智能系統(tǒng)的基本原理、潛在風(fēng)險(xiǎn)和倫理問題,在使用智能系統(tǒng)時能夠更加審慎,確?;颊叩碾[私權(quán)和自主權(quán)得到尊重。醫(yī)療人工智能的監(jiān)管者也有必要加強(qiáng)倫理教育,以便了解該領(lǐng)域的最新技術(shù)進(jìn)展和倫理挑戰(zhàn),制定合適的倫理政策和監(jiān)管措施。對患者和公眾進(jìn)行倫理教育的目的則在于提高他們對醫(yī)療人工智能的功能和風(fēng)險(xiǎn)的認(rèn)識,使他們能夠在醫(yī)療決策中做出知情的選擇。倫理教育和培訓(xùn)可以通過開展專題講座、宣講會、在線課程等多種方式進(jìn)行,通過持續(xù)的倫理教育,逐步提高有關(guān)主體的倫理自覺性。
4 結(jié)語
人工智能技術(shù)正在重塑醫(yī)療行業(yè)的未來,給醫(yī)療領(lǐng)域帶來了前所未有的機(jī)遇和挑戰(zhàn)。我們在享受醫(yī)療人工智能帶來的診療便利和效率提升的同時,必須警惕潛在的倫理風(fēng)險(xiǎn)。醫(yī)療人工智能領(lǐng)域的倫理問題不僅關(guān)系到技術(shù)的可持續(xù)發(fā)展,更關(guān)乎公眾的健康福祉和社會的公平正義。本文提出的倫理標(biāo)準(zhǔn)體系建設(shè)方案,旨在為醫(yī)療人工智能的發(fā)展提供明確的倫理指引和實(shí)施框架,從而促進(jìn)技術(shù)的健康發(fā)展和倫理風(fēng)險(xiǎn)的有效管控。醫(yī)療人工智能倫理標(biāo)準(zhǔn)體系的建設(shè)和完善是一個持續(xù)且充滿挑戰(zhàn)的過程,但只要我們堅(jiān)持在倫理治理的實(shí)踐中不斷探索與改進(jìn),就一定能夠推動實(shí)現(xiàn)醫(yī)療人工智能技術(shù)的良善發(fā)展,為人類社會帶來更多福祉。