張 寒
(中國傳媒大學(xué)馬克思主義學(xué)院,北京 100024)
現(xiàn)代人工智能起源于1950年艾倫·圖靈(Alan Turing)對機器智能的測試,1956年達特茅斯會議(Dartmouth Conference)上一位教授提出了“人工智能”的概念,籠統(tǒng)的定義就是“相對于人類和其他動物的自然智能,機器所展示的智能”。AI包括一套計算機科學(xué)技術(shù),這些技術(shù)使得AI能夠執(zhí)行通常需要人類智能才能完成的任務(wù),比如與人類對戰(zhàn)跳棋、國際象棋等益智類游戲,具有視覺感知、語音識別、語言翻譯等語言處理能力。21世紀(jì),人工智能得益于其他理論(如神經(jīng)網(wǎng)絡(luò)數(shù)學(xué))的發(fā)展、先進的計算能力 (如圖形處理)、廣泛獲取大數(shù)據(jù)用于機器學(xué)習(xí)的能力(如社會網(wǎng)絡(luò)、云存儲和計算機信息處理計算等)及軟件算法等[1]。我們正生活在一個被智能機器包裹的時代,有時候可能不是很明顯,但AI正以各種方式滲透到我們的生活和生產(chǎn)方式中。
比起其他科學(xué)技術(shù)領(lǐng)域,公眾對AI的感覺并不陌生。在公眾的意識中,AI最先以科幻或好萊塢電影的形式(超級智能機器人、終結(jié)者)在公眾中普及,隨后媒體對圍棋“人機大戰(zhàn)”的大肆報道,又一次捕獲了公眾對人工智能的關(guān)注,這一次討論的焦點變成“人工智能”是否將超越“人類智能”。大眾媒體的大肆炒作、渲染增加了公眾對AI的興趣,同時也增加了公眾對這項顛覆性技術(shù)負(fù)面影響的擔(dān)憂,如大規(guī)模失業(yè)、對個人自由的限制、經(jīng)濟不平等的加劇和人類經(jīng)驗的貶值等。2006年是AI發(fā)展的分水嶺,無人駕駛、Siri等語言助手將AI帶入大眾消費市場,關(guān)于“人機智力競賽”的討論話題也轉(zhuǎn)向了如何實現(xiàn)“人機共存”。未來AI還將用于解決更多的復(fù)雜任務(wù),包括改變醫(yī)療、健康和護理的方式。探討公眾如何參與和理解醫(yī)療人工智能的作用,對獲得公眾對這項創(chuàng)新技術(shù)的廣泛支持具有重要意義。
AI已經(jīng)成為醫(yī)療創(chuàng)新的前沿領(lǐng)域,從新藥研發(fā)、疾病預(yù)測、高級成像到醫(yī)療管理等醫(yī)療的各個環(huán)節(jié),都有AI的應(yīng)用前景。通過對大量數(shù)據(jù)的處理,執(zhí)行超出人類能力的醫(yī)療任務(wù),推動醫(yī)療、健康、護理方式的重大變革。以下是AI在醫(yī)療健康領(lǐng)域的具體應(yīng)用。一是提高新藥開發(fā)的效率。據(jù)統(tǒng)計,2003—2013年,將一種新藥推向市場的平均成本幾乎翻了一番,平均需要花費26億美元和15年的時間。最容易開發(fā)和安全有效治療常見疾病的藥物基本已經(jīng)找到,剩下的就是對治療疑難雜癥的藥物開發(fā),因此新藥研發(fā)的難度越來越大。全球制藥行業(yè)正處于藥物研發(fā)和回報率下滑的狀態(tài)。相對于10年前,每一美元藥物研發(fā)投入能有十美分的回報,而現(xiàn)在的回報卻不到兩美分[2]。藥物研發(fā)是非常復(fù)雜的過程,要經(jīng)過基礎(chǔ)研究、藥理學(xué)/病毒學(xué)分析、藥物開發(fā)、化合物發(fā)現(xiàn)、潛在藥物分析。人工智能在尋找新的潛在藥物方面有很大的潛力,機器學(xué)習(xí)算法可以篩選數(shù)百萬種化合物,縮小特定藥物靶點的選擇范圍,識別更有前景的候選藥物,提高藥物研發(fā)的效率,減少藥物開發(fā)的成本。尤其是進入患者時代,可以針對疾病缺陷篩選化合物,精準(zhǔn)研發(fā)以治療疾病。新一代的人工智能程序還可以對組織、細胞、基因或蛋白質(zhì)水平上的細微差異進行分析,迅速篩選出潛在的有毒藥物,關(guān)注那些有更大機會通過多項人體試驗的藥物,提高藥物通過監(jiān)管機構(gòu)批準(zhǔn)的通過率,加速藥物研發(fā)的過程。因此,制藥行業(yè)和世界各地的藥物監(jiān)管機構(gòu)都很關(guān)注AI在該領(lǐng)域的應(yīng)用,大型制藥公司正與AI初創(chuàng)公司建立合作,開發(fā)AI系統(tǒng)用于新藥研發(fā)。
二是在高級成像領(lǐng)域的應(yīng)用。許多臨床醫(yī)生的工作基于圖像展開,如對乳腺、甲狀腺、肝臟、卵巢、膀胱等多種臟器的常規(guī)檢查、病變診斷和篩查,常見的醫(yī)療辦法是通過X光片或磁共振成像(MRI)的檢查。AI的價值體現(xiàn)在兩個方面:①依靠深度學(xué)習(xí)算法,分析疾病情況和趨勢,輔助醫(yī)生進行診斷;②改善圖片的質(zhì)量,如評估成像順序、修復(fù)圖像偽影、修補不完整圖像、提高成像效率和圖片的可解釋性等,輔助醫(yī)生在更短的時間內(nèi)完成病變圖片讀取、疾病診斷和分期,評估治療反應(yīng)和預(yù)后,并盡可能減少錯誤,提高臨床診斷的精準(zhǔn)性和效率,最大限度地避免漏診誤診[3]。因此,放射學(xué)、病理學(xué)、眼科和皮膚病學(xué)等這些與視覺相關(guān)醫(yī)學(xué)領(lǐng)域?qū)θ斯ぶ悄苡泻艽笈d趣。在我國醫(yī)療AI企業(yè)中,從事醫(yī)學(xué)影像的企業(yè)數(shù)量最多,如騰訊推出的用于糖尿病、眼底等疾病診斷篩查的騰訊覓影,太美醫(yī)療科技推出的eImage醫(yī)學(xué)影像閱片系統(tǒng),以及靈醫(yī)智惠的眼底影像分析系統(tǒng)等[4]。
三是在預(yù)防醫(yī)學(xué)領(lǐng)域,AI被用于疾病風(fēng)險篩查和定制個性化的醫(yī)療保健方案。例如,在乳腺癌風(fēng)險篩查方面,乳腺癌的發(fā)病因素非常復(fù)雜。早期發(fā)現(xiàn)、早期識別、早期防控是提高生存率的主要方法。但是,歐美研發(fā)的主流風(fēng)險評估模型對個體患病方面的預(yù)測并不是很準(zhǔn)。人工智能深度學(xué)習(xí)技術(shù)的出現(xiàn),可以綜合考慮遺傳、激素、懷孕、哺乳、飲食、體重變化等多種因素,利用這些詳細的信息,建立針對女性個體風(fēng)險評估的更加精確的評估模型,還可以將不同地區(qū)、不同種群的樣本納入數(shù)據(jù)庫,提升風(fēng)險評估模型的廣泛適用性。谷歌、亞馬遜、國際商業(yè)機器公司(IBM)等科技巨頭正進入該領(lǐng)域,成立AI公司,或與醫(yī)院合作開發(fā)用于公共衛(wèi)生領(lǐng)域的AI疾病篩查軟件,以降低疾病篩查成本,提高疾病風(fēng)險評估的預(yù)測效果為目標(biāo),鼓勵人們參與早期檢測項目。
四是在醫(yī)療管理方面,AI可以替代醫(yī)生完成許多基礎(chǔ)性的工作,縮減工作流程,提高工作效率。例如,AI的應(yīng)用能夠提高醫(yī)療管理服務(wù)水平,通過智能設(shè)備進行身體檢查,將采集的個人健康數(shù)據(jù)上傳到云數(shù)據(jù)庫形成個人電子健康檔案,便于建立個性化的健康管理方案,進行健康評估和監(jiān)測,提高醫(yī)療管理水平[5]。人工智能技術(shù)將提供智慧就醫(yī)服務(wù),改善醫(yī)療資源緊張的局面。例如復(fù)旦大學(xué)附屬腫瘤醫(yī)院采用的人工智能的精準(zhǔn)預(yù)約系統(tǒng),通過AI分析患者病情,按病情把合適的醫(yī)生匹配給合適的患者掛號,實現(xiàn)病患與醫(yī)生的精準(zhǔn)匹配,大幅提升專家門診效率和患者滿意度[6]。
以上只列舉了醫(yī)療AI應(yīng)用的“冰山一角”,AI將推進醫(yī)療健康事業(yè)的巨大改變,讓公眾受益。但是,許多技術(shù)還處于研發(fā)階段,離實際應(yīng)用還有一段距離,除了技術(shù)層面的問題外,技術(shù)風(fēng)險、倫理困境和社會影響也是重要的考慮因素。人們對這項新型技術(shù)感到興奮和期待,倫理審查不是為了阻礙創(chuàng)新的步伐,而是從建立公眾對醫(yī)療AI工具的信任和信心的角度出發(fā),通過讓公眾了解醫(yī)療AI的構(gòu)建過程,客觀地看待醫(yī)療AI的潛力,增加公眾對該項創(chuàng)新技術(shù)的理解。相反,擴大虛假信息的傳播可能會削弱公眾對人工智能在醫(yī)療領(lǐng)域的信心。公眾的參與、理解和信任將成為醫(yī)療AI成功的關(guān)鍵。
本質(zhì)上,醫(yī)療AI發(fā)揮作用的基礎(chǔ)是對個人健康數(shù)據(jù)(圖片、處方、健康檔案、基因信息等)的深度學(xué)習(xí)工具的開發(fā),給機器(深度)學(xué)習(xí)系統(tǒng)注入數(shù)據(jù),然后從該系統(tǒng)中獲得結(jié)果,通過接觸大量的數(shù)據(jù)集,讓其能夠識別這些數(shù)據(jù)集中的模式,并重現(xiàn)期望的結(jié)果。因此,構(gòu)建有用的醫(yī)療AI工具需要訪問大量高質(zhì)量的數(shù)據(jù),對這些數(shù)據(jù)進行測試、訓(xùn)練、驗證。因此,合法獲得大量個人健康信息成為醫(yī)療AI研發(fā)的第一道關(guān)卡,必須符合數(shù)據(jù)保護法和隱私原則。
目前,在許多醫(yī)療AI的開發(fā)過程中,政府、醫(yī)院、大學(xué)等公共部門與大型私營部門開展合作尋找技術(shù)方案,由公共部門提供數(shù)據(jù),私營部門將信息用于藥品以及疾病預(yù)測、篩查等診斷工具,讓隱私和數(shù)據(jù)保護問題變得更為復(fù)雜。例如,2006年,英國政府與惠康基金會成立了生物信息庫(biobank),致力于生物醫(yī)學(xué)研究,掌握了大量的生物樣品、人類基因信息等數(shù)據(jù),這些信息有巨大的商業(yè)價值,如果用于醫(yī)療AI的研發(fā)將觸及倫理和法律問題。近期的一些事情,更增加了公眾對個人數(shù)據(jù)保護的擔(dān)憂。2016年,IBM沃森健康公司(Watson Health)與意大利政府簽署了一份協(xié)議,意大利政府在沒有獲得其公民明確同意的情況下,向IBM沃森健康公司披露了6 100萬意大利公民的匿名健康記錄,包括處方、基因組數(shù)據(jù)和電子健康數(shù)據(jù),并授予該公司獨家使用權(quán)和許可權(quán),以換取1.5億美元投資,為沃森健康部門在米蘭建立一個新的研究中心[7]。2019年,谷歌與醫(yī)療機構(gòu)阿森松(Ascension)建立合作,在公眾不知情或未經(jīng)個人同意的情況下獲取了數(shù)千萬人的健康記錄。谷歌計劃利用這些數(shù)據(jù)開發(fā)機器學(xué)習(xí)工具,使醫(yī)生更容易獲取患者的數(shù)據(jù)。雖然,谷歌聲稱這項合作符合《健康保險可攜性與責(zé)任法案》的數(shù)據(jù)共享規(guī)定,公司將根據(jù)協(xié)議進行數(shù)據(jù)研發(fā),患者數(shù)據(jù)不會用于其他方面,也不會并入谷歌的其他消費者數(shù)據(jù)合并。美國聯(lián)邦機構(gòu)正對此展開調(diào)查,將判斷這種以改善公共醫(yī)療事業(yè)為目的而征用個人數(shù)據(jù)的做法是否符合法律規(guī)定[8]。
這類未經(jīng)公眾知曉而使用個人數(shù)據(jù)的案例還有許多,即便醫(yī)療AI的研發(fā)是為了公共的利益,但是這些問題也需要被討論和回答:公立機構(gòu)是否有權(quán)以公民健康信息作為交換,向私營機構(gòu)提供這些非常有價值的數(shù)據(jù)?公立機構(gòu)和私營部門在該問題上應(yīng)該如何履行告知的義務(wù)、以什么方式獲得數(shù)據(jù)本體的同意?個人就數(shù)據(jù)保護如何向有關(guān)機構(gòu)問責(zé)?在數(shù)據(jù)被采用的過程中,個人的參與權(quán)、參與程度、退出機制如何得到保證?隨著公眾的權(quán)利意識不斷增強,利益訴求日益多元,減少公眾的疑慮,提高公眾的認(rèn)可度和接受度,是未來醫(yī)療AI創(chuàng)新面臨的重要挑戰(zhàn)。
醫(yī)療AI的研發(fā)者有義務(wù)讓公眾理解個人健康信息將如何被用于醫(yī)療、護理和研發(fā),公眾在個人信息被使用的時候應(yīng)該有選擇權(quán)。但是,許多情況下的“公眾參與”是很被動的。例如,在采集個人數(shù)據(jù)時,公眾被要求簽署知情同意書,以此放棄對個人數(shù)據(jù)的控制。如果不做出這樣的選擇,一旦算法工具被用于臨床,醫(yī)生將依靠這些算法系統(tǒng)進行決策,不同意共享健康數(shù)據(jù)的患者可能無法得到標(biāo)準(zhǔn)的治療,從而造成個人信息保護和治療效果/質(zhì)量之間的緊張關(guān)系。
由于高度的專業(yè)化,公眾的知識,甚至臨床醫(yī)生的知識,成為“外行知識”,他們不一定理解AI的設(shè)計者將如何使用個人數(shù)據(jù)。歐洲律師事務(wù)所Bristows針對英國普通公眾對人工智能態(tài)度的調(diào)查證實了這一點:公眾對人工智能涉及的隱私問題和數(shù)據(jù)保護存在認(rèn)識不足,人們對有關(guān)機構(gòu)何時、如何收集和處理個人信息缺乏了解;超過一半的受訪者認(rèn)為,人工智能不會使用他們的個人數(shù)據(jù),或者不知道是否會使用;而一旦他們知道這個情況,大部分人對AI使用他們的個人數(shù)據(jù)感到不舒服或不安。超過2/3的受訪者認(rèn)為人工智能應(yīng)該受到監(jiān)管,他們希望政府(英國)或超國家監(jiān)管機構(gòu)能建立起問責(zé)機制。還有相當(dāng)一部分人希望人工智能行業(yè)作為一個整體,在某種程度上能進行自我監(jiān)管[9]。
為了獲得公眾的信任和支持,醫(yī)療AI使用和處理個人數(shù)據(jù)應(yīng)具有合法性,人工智能行業(yè)需要更清楚地讓公眾了解它們的產(chǎn)品和服務(wù)是如何工作的,明確指出其中的利益和風(fēng)險。在確保個人信息受到保護的前提下,明確哪些可做、哪些不可做,說明對個人,甚至對整個社會的好處。如果醫(yī)療AI的開發(fā)者能讓公眾理解使用這些數(shù)據(jù)將為公眾健康帶來好處,比如提供更好的治療,情況可能會發(fā)生改變。當(dāng)公眾理解了AI發(fā)揮作用的方法和具體用途,他們就會支持醫(yī)療AI的研發(fā),并愿意分享個人數(shù)據(jù)。例如,英國的另一份研究報告指出,英國有超過700萬人患有心臟和循環(huán)系統(tǒng)疾病,因這些疾病導(dǎo)致的死亡占到了1/4,及早預(yù)防和發(fā)現(xiàn)心臟和循環(huán)系統(tǒng)疾病至關(guān)重要,人工智能的應(yīng)用將有潛力幫助改善心臟和循環(huán)系統(tǒng)疾病的預(yù)防、治療和護理。因此,85%的人支持醫(yī)生將人工智能用于輔助診斷和疾病治療;91%患有心臟和循環(huán)系統(tǒng)疾病的人表示,他們認(rèn)為公眾應(yīng)該充分了解人工智能在醫(yī)療領(lǐng)域的應(yīng)用;90%的人認(rèn)為,英國國家醫(yī)療服務(wù)體系有責(zé)任告知公眾人工智能目前和潛在的醫(yī)療用途[10]。
數(shù)據(jù)質(zhì)量是影響AI項目成功的關(guān)鍵,對數(shù)據(jù)使用的潛在負(fù)面后果評估,不能只局限于隱私相關(guān)風(fēng)險(如非法使用個人信息、數(shù)據(jù)安全等)的評估,更要考慮是否存在算法偏見(如歧視),要以群體和整個社會的價值為背景來考察。英國的做法值得參考,2016年,英國維康基金會(Wellcome Trust)與其他政府機構(gòu)共同發(fā)起了“理解患者數(shù)據(jù)計劃”(Understanding Patient Data Initiative), 該 組織由來自大學(xué)、地方政府、研究機構(gòu)、媒體等不同利益相關(guān)者共同組成,從不同受眾的視角為數(shù)據(jù)保護提供建議。這本來是一個為期兩年的項目,支持公眾、患者和醫(yī)療專業(yè)人士就醫(yī)療和護理數(shù)據(jù)的使用展開對話,旨在使患者數(shù)據(jù)的使用對患者、公眾和衛(wèi)生專業(yè)人員來說更加可見、可理解和可信。在初期資助結(jié)束時,鑒于數(shù)據(jù)科學(xué)的發(fā)展,以及研究人員、行業(yè)和媒體對如何正確使用公共健康數(shù)據(jù)的關(guān)注,該計劃得以延續(xù)。新一期的計劃(2019—2024)得到英國醫(yī)學(xué)研究委員會(Medical Research Council)和國家健康研究所(National Institute for Health Research)的資助[11]。2018年8月30日,英國政府更新了《數(shù)字倫理框架》,更強調(diào)從用戶角度去研發(fā)人工智能工具,使其符合安全性、倫理、法律和其他管理規(guī)定,也提出了判斷的標(biāo)準(zhǔn):①數(shù)據(jù)質(zhì)量;②基于公平性的原則構(gòu)建算法模型,避免偏見;③針對AI系統(tǒng)的設(shè)計者和執(zhí)行人的問責(zé)制;④數(shù)據(jù)使用要符合隱私保護的法律規(guī)定;⑤可解釋性和透明性,以讓利益相關(guān)者了解AI模型是如何構(gòu)建出來的;⑥對成本的考慮,建造、運行和維護AI的基礎(chǔ)設(shè)施、培訓(xùn)和教育的成本,以及采用AI項目是否比其他方式更節(jié)約成本[12]。我國數(shù)據(jù)保護立法正在快步推進,2020年,我國將制定《個人信息保護法》《數(shù)據(jù)安全法》兩部重要的法律,法律制度的完善,將為醫(yī)療人工智能的創(chuàng)新和改革發(fā)揮重要作用。
在公眾理解科學(xué)的研究中,信任一直是一個重要的話題。任何新技術(shù)的出現(xiàn),都會帶來風(fēng)險與信任的問題??茖W(xué)與公共領(lǐng)域的分離強化了人們對科學(xué)技術(shù)風(fēng)險的擔(dān)心,人們會選擇是否應(yīng)該信任科學(xué)。為了解普通公眾對人工智能技術(shù)的真正看法,許多國家都開展了相應(yīng)的調(diào)查。Bristows的調(diào)查發(fā)現(xiàn),普通公眾對人工智能如何影響人們的生活,影響是積極還是消極的,人工智能究竟如何發(fā)揮作用,如何避免技術(shù)風(fēng)險,個人應(yīng)該如何選擇,其實并不是很清楚,也存在不同的態(tài)度。只有1/7的受訪者認(rèn)為他們與人工智能有過接觸,只有2%的人認(rèn)為人工智能已經(jīng)對社會產(chǎn)生了影響。研究者指出,這表明當(dāng)人們遇到人工智能時,并不總是清楚AI是如何在實踐中使用的。47.4%的受訪者認(rèn)為人工智能會對社會產(chǎn)生負(fù)面影響,許多受訪者對隱私、責(zé)任和技術(shù)風(fēng)險感到擔(dān)憂。與年長受訪者相比,年輕受訪者(35歲以下)更樂于接受人工智能[8]。
公眾對人工智能的理解和參與存在較大的個體差異。一項針對美國的調(diào)研發(fā)現(xiàn),那些富有、性別為男性、受過高等教育或有計算機科學(xué)或編程經(jīng)驗的人更支持發(fā)展人工智能。調(diào)查指出,公眾對各種組織為了公眾的利益去發(fā)展、使用和管理人工智能沒有表現(xiàn)出較高的信任度。相對來說,在AI研發(fā)方面,人們最信任的組織是大學(xué)和美國軍方;在技術(shù)管理方面,人們認(rèn)為科技公司和非政府組織(如Open AI)的措施比政府更可靠。盡管如此,在對科技公司表示出“有信心”或“相當(dāng)有信心”的受訪者團體中,人們對臉書(Facebook)的信任度最低[13]。不難想象,這應(yīng)該跟近幾年Facebook頻繁爆出涉及侵犯/泄露用戶個人隱私的丑聞相關(guān),導(dǎo)致其受到輿論的嚴(yán)重批判,削弱了科技公司在公眾中的信任度。
公眾在某種特定環(huán)境或有某種特定需求的時候,會主動關(guān)注和學(xué)習(xí)科學(xué)信息,例如,公眾領(lǐng)域中突然暴發(fā)的某種危機——新的疾病、環(huán)境問題、食品安全等。長期患有某種疾病的人,也可能會成為這種疾病方面的專家。但是,公眾所具備的知識,并不足以支撐他們用到其他疾病或其他公眾上[14]88。對于澳大利亞的一項調(diào)研指出,既然患者對現(xiàn)行健康技術(shù)(如乳腺X光檢查系統(tǒng))的工作原理了解甚少,因此可能公眾也并不需要理解AI的運作[15]。但是,考慮到人工智能對醫(yī)療角色和責(zé)任的影響,以及越來越多關(guān)于人工智能的風(fēng)險、倫理、危害和治理等問題的對話,要建立公眾對醫(yī)療系統(tǒng)的持續(xù)信任,人們有權(quán)知道在醫(yī)療和護理中使用了怎樣的人工智能,以及有權(quán)選擇是否讓人工智能參與他們的醫(yī)療或護理。尤其是在算法存在自主決策的情況下,如果公眾不了解AI發(fā)揮作用的方式及其局限性,讓用戶做出“同意”AI決策的選項是沒有意義的。目前,并不能完全確認(rèn)使用人工智能一定比醫(yī)生更可靠、更安全、更少犯錯誤[16]。使用人工智能面臨的倫理問題,如偏見、歧視、不公平、不安全、不透明等負(fù)面效應(yīng),需要更長的時間去驗證。鼓勵公眾參與討論AI在醫(yī)療領(lǐng)域的風(fēng)險,并提供政策建議,督促利益相關(guān)者對技術(shù)風(fēng)險尋找可能的解決方案,將有利于醫(yī)生在治療過程中采用人工智能技術(shù),也有助于增加公眾對醫(yī)療系統(tǒng)的信任和減少公眾問責(zé)。在利用個人數(shù)據(jù)方面,公眾也愿意支持將個人醫(yī)療數(shù)據(jù)用于技術(shù)開發(fā),但要注意保密、控制、治理和確保為公共利益所使用。
任何技術(shù)創(chuàng)新能被廣泛采用,只有當(dāng)受其影響的人認(rèn)可和信任時才可能發(fā)生。按照“公眾理解科學(xué)”的希望,公眾應(yīng)該是一群特定的、主動的、有思想的公民[13]8。公眾參與理解醫(yī)療AI存在個體差異,需要區(qū)別對待。對醫(yī)生而言,迫于社會壓力也會采用新的醫(yī)療工具,以便為患者提供更好的治療。因此,使用這類工具的醫(yī)生應(yīng)有機會參與AI的研發(fā)過程,了解機器學(xué)習(xí)系統(tǒng)的構(gòu)建,對它們的結(jié)構(gòu)、數(shù)據(jù)的采集及其局限性有更多的了解。如果這些問題被黑箱化,可能會導(dǎo)致倫理困境。根據(jù)柯林斯提出的“互動專長論”,醫(yī)生的參與能增強不同范式專業(yè)共同體間的有效交流,讓AI研發(fā)人員在設(shè)計過程中更好地回應(yīng)醫(yī)生和患者關(guān)心的問題[17]。將來AI應(yīng)用到臨床,醫(yī)生也能對患者做出說明,在一定程度上促進公眾的理解和接受。對普通公眾而言,更關(guān)注的是應(yīng)用新技術(shù)的效果,以及對技術(shù)風(fēng)險的控制、治理和問責(zé)途徑。這意味著,AI行業(yè)應(yīng)該為不同層次的公眾參與和理解醫(yī)療AI創(chuàng)造不同的機會,更開放地說明如何將AI嵌入產(chǎn)品和服務(wù),坦率地說明AI是如何工作的,有哪些局限性和如何進行監(jiān)管,并說明AI的使用將如何影響他們的日常生活,以增強公眾的信心,為醫(yī)療AI創(chuàng)新獲取更廣泛的社會支持。通過制定倫理準(zhǔn)則和完善監(jiān)管制度,跟上已經(jīng)到來的機器學(xué)習(xí)和人工智能時代。
在非常復(fù)雜的醫(yī)療健康領(lǐng)域,眾多研究團隊希望AI程序的應(yīng)用能支持人類提供更快、更有效的醫(yī)療服務(wù)、診斷和分析,識別可能導(dǎo)致人類患有某種特定疾病的趨勢或遺傳信息,為發(fā)展中國家以及偏遠地區(qū)解決醫(yī)療資源不足的問題。
人工智能技術(shù)與醫(yī)療的合理融合,將為社會提供更高效、精準(zhǔn)、個性化的醫(yī)療服務(wù)。從目前的情況來看,醫(yī)療AI進入臨床領(lǐng)域還有很長的路要走,要經(jīng)過嚴(yán)格的倫理審查,做好醫(yī)療AI技術(shù)風(fēng)險的監(jiān)管。與其他領(lǐng)域相比,AI在醫(yī)療健康領(lǐng)域的應(yīng)用應(yīng)該更為謹(jǐn)慎,要以公眾的安全為目標(biāo),因為失敗的后果是沉重的,會讓人類的生命、健康處于危險之中。人工智能的使用正在改變傳統(tǒng)的醫(yī)療方法、流程、模式,甚至醫(yī)患關(guān)系。此外就是責(zé)任問題,如果診斷結(jié)果是由算法驅(qū)動的,那么臨床醫(yī)生能夠解釋的內(nèi)容可能就有限了,這就會顛覆傳統(tǒng)的專業(yè)醫(yī)生責(zé)任觀念。法學(xué)界對使用人工智能系統(tǒng)發(fā)生錯誤時的責(zé)任分擔(dān)、歸責(zé)原則等具體問題還存在分歧。雖然,有許多風(fēng)險判斷都是推測性的,但在實施之前需要仔細考慮和研究。
公眾對待醫(yī)療AI的應(yīng)用前景有不同的態(tài)度,隨著對我們的個人數(shù)據(jù)被越來越多地運用到與我們個人相關(guān)的決策分析上,人們對隱私、偏見和責(zé)任的擔(dān)憂也越來越突出。如果科學(xué)家和實驗室之外的人參與理解AI技術(shù)是重要的,那么如何設(shè)計人工智能科學(xué)中的公共參與活動與它們的實施同樣重要。公眾既是AI工具研發(fā)所需數(shù)據(jù)的貢獻者,也是將來醫(yī)療AI技術(shù)的體驗者和風(fēng)險的承受者。因此,從公眾的角度,理解醫(yī)療AI能做什么,不能做什么,了解其潛在的技術(shù)風(fēng)險和倫理問題,對醫(yī)療AI的研發(fā)非常重要。從用戶的角度出發(fā),發(fā)展負(fù)責(zé)任的AI系統(tǒng),我們需要考察技術(shù)的未來價值,包括臨床影響、是否存在偏見、問責(zé)機制、對患者的影響,以及其他法律、道德和職業(yè)責(zé)任相關(guān)的考慮。
提高公眾對醫(yī)療人工智能創(chuàng)新技術(shù)的理解還有許多工作需要做。實現(xiàn)這一目標(biāo)的一個關(guān)鍵部分是,在這些技術(shù)得到推動和發(fā)展的同時,積極動員患者和更廣泛的公眾參與。如果醫(yī)療AI的研發(fā)人員不能與患者互動,可能會導(dǎo)致大量醫(yī)療AI領(lǐng)域的錯誤信息傳播。政府部門、人工智能企業(yè)、專業(yè)團體、學(xué)術(shù)界及媒體必須協(xié)同努力,讓公眾全面、客觀地了解醫(yī)療AI這些新技術(shù)的建立過程、用途、益處、局限性和風(fēng)險監(jiān)管措施,建立對其的信任和信心,以獲得公眾對醫(yī)療AI的廣泛支持。