張 青 楊衛(wèi)敏 徐一峰
人工智能用以描述計(jì)算機(jī)系統(tǒng)模擬認(rèn)知過(guò)程,這一概念1956年在達(dá)特茅斯(Dartmouth)最早提出,定義為人工智能是用機(jī)械和電子裝置來(lái)模擬和代替人類的某些智能,也稱“機(jī)器智能” 或“智能模擬”[1]。近兩年人工智能發(fā)展迅猛,多國(guó)提出人工智能發(fā)展戰(zhàn)略,中國(guó)政府則在2017年7月宣布下一代人工智能發(fā)展計(jì)劃,推動(dòng)人工智能技術(shù)及相關(guān)規(guī)制、倫理法則、安全性等方面研究[2]。公眾對(duì)人工智能應(yīng)用持正面態(tài)度,但也存在隱憂,如擔(dān)心人工智能對(duì)工作和就業(yè)的影響[3],倫理及哲學(xué)學(xué)者則關(guān)注人工智能技術(shù)對(duì)人類尊嚴(yán)、自由意志等人的本體存在性的影響[4]。
人工智能在生命醫(yī)學(xué)領(lǐng)域的應(yīng)用已觸及多個(gè)方向,包括精神衛(wèi)生、影像病理、居家養(yǎng)老等。在腦健康及精神醫(yī)學(xué)領(lǐng)域,盡管有學(xué)者認(rèn)為人工智能應(yīng)用尚缺乏完備的倫理守則和可行的指導(dǎo)策略[5],但“聊天機(jī)器人”、在線心理咨詢已有實(shí)踐,又如使用人工智能進(jìn)行抑郁癥患者追蹤,通過(guò)語(yǔ)音語(yǔ)義識(shí)別、面部表情以及交互式聊天等方式,幫助抑郁癥患者在線支持[6-9]。人工智能在危機(jī)干預(yù)與自殺預(yù)防中具有積極意義[10],如自殺干預(yù)項(xiàng)目,“樹(shù)洞救援團(tuán)”通過(guò)算法識(shí)別語(yǔ)義和語(yǔ)用,識(shí)別具有高自殺風(fēng)險(xiǎn)的人員,給予及時(shí)人工干預(yù),作為生命支持系統(tǒng)和危機(jī)干預(yù)的應(yīng)用得到推廣[11]。
醫(yī)學(xué)影像是人工智能應(yīng)用的熱門(mén)領(lǐng)域:基于人工智能的影像讀片,輔助診斷提高醫(yī)學(xué)影像數(shù)據(jù)處理能力[12-14]。在生命情感支持中,人工智能機(jī)器人通過(guò)人臉識(shí)別、情緒識(shí)別,以及高仿真的柔性材料使用,愈發(fā)呈現(xiàn)出人“情感”特征,如陪伴機(jī)器人可能承載孤獨(dú)老人晚年的情感寄托[15],或是緩解遠(yuǎn)方子女因無(wú)法陪伴的愧疚。人工智能機(jī)器的演進(jìn),已遠(yuǎn)超越哈洛恒河猴實(shí)驗(yàn)中裹著絨布的裝置,在交互體驗(yàn)中被嘗試性地賦予價(jià)值和人文關(guān)懷,并必然對(duì)醫(yī)療組織運(yùn)行、醫(yī)療決策、醫(yī)患關(guān)系等產(chǎn)生深遠(yuǎn)影響[16]。機(jī)器在不知不覺(jué)中融入人的日常生活,引發(fā)人工智能發(fā)展進(jìn)程,對(duì)機(jī)器之芯和人類之心[17]、公平與正義、價(jià)值評(píng)估與歧視、安全與隱私、道德義務(wù)規(guī)制[18]等的憂慮與反思,或許真如海德格爾[19]所說(shuō)的:有一天人類連自身都交付給了技術(shù)。
人類歷史上歷次技術(shù)革命都涉及人與機(jī)器、人與人的關(guān)系改變,特別是近代工業(yè)革命肇始,人與機(jī)器關(guān)系復(fù)雜而對(duì)立,機(jī)器“任勞任怨”且生產(chǎn)效率高,沖擊就業(yè)而導(dǎo)致人類對(duì)機(jī)器的憤怒。隨著人工智能發(fā)展,新技術(shù)革命不僅沖擊人與人、人與機(jī)器的關(guān)系,同時(shí)提出機(jī)器與機(jī)器關(guān)系的新命題。
在醫(yī)學(xué)領(lǐng)域人工智能將引起醫(yī)患關(guān)系的深刻變化。協(xié)助醫(yī)療決策的人工智能機(jī)器已遠(yuǎn)不是一個(gè)X光機(jī)或排隊(duì)叫號(hào)軟件,人工智能通過(guò)可準(zhǔn)確讀識(shí)的醫(yī)療信息進(jìn)行算法分析,提供診療建議從而解放醫(yī)生時(shí)間[20];但也不乏導(dǎo)致醫(yī)生群體的困擾,如當(dāng)患者拿著網(wǎng)上檢索的疾病診療知識(shí)咨詢醫(yī)生時(shí),醫(yī)生覺(jué)得其行醫(yī)過(guò)程被干擾與冒犯。傳統(tǒng)醫(yī)患關(guān)系因此正被迅速異化為患者-機(jī)器-醫(yī)生多元關(guān)系。又如,基于互聯(lián)網(wǎng)的輕問(wèn)診被廣泛推廣,人工智能替代傳統(tǒng)導(dǎo)診,部分承擔(dān)起接診、分診功能,成為患者與醫(yī)生接觸的“中間人”,甚至通過(guò)自動(dòng)應(yīng)答,完成在線咨詢。新技術(shù)同時(shí)增加了患者與患者直接聯(lián)系,如各類患者俱樂(lè)部提供虛擬網(wǎng)絡(luò)社區(qū);醫(yī)生建立患者“粉絲”群以增進(jìn)患者黏性并提供線上指導(dǎo);通過(guò)人工智能從網(wǎng)絡(luò)社群中提取特定語(yǔ)義詞匯,主動(dòng)尋找高危自殺人員并采取干預(yù),這些應(yīng)用服務(wù)都深度融合了人工智能算法的支持。
信息化時(shí)代的萬(wàn)物互聯(lián)提出了人工智能機(jī)器之間的關(guān)系問(wèn)題,機(jī)器與機(jī)器發(fā)生指令沖突時(shí)依據(jù)怎樣的規(guī)則或如何確定指令的優(yōu)先等級(jí),各類傳感器采集的生命體征信息是根據(jù)證據(jù)等級(jí)還是其他原則進(jìn)行采信,人與人的關(guān)系模式是否可以套用到機(jī)器之間的關(guān)系處理中,諸如此類問(wèn)題都需要批判性考察。人工智能的算法技術(shù)目前仍不透明,由此產(chǎn)生對(duì)主體間、主客體間、客體間關(guān)系的影響將是深遠(yuǎn)的。這些變化將引起關(guān)系邊界的重新確立、道德責(zé)任的變化、爭(zhēng)議與沖突機(jī)制的重構(gòu)問(wèn)題等。
醫(yī)療環(huán)境和生命系統(tǒng)都具有極大不確定性,人工智能如何能夠應(yīng)對(duì)諸多不確定,是否具有程序自洽且符合倫理原則的決策系統(tǒng)?如何將各類經(jīng)由可穿戴傳感器、智能終端產(chǎn)生于復(fù)雜環(huán)境的醫(yī)療及健康數(shù)據(jù)整合形成一體化的數(shù)據(jù)集?研究復(fù)雜環(huán)境下機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘技術(shù),對(duì)人工智能開(kāi)發(fā)具有重要意義[21]。面對(duì)不確定性,《人工智能創(chuàng)新發(fā)展道德倫理宣言》客觀地指出:人工智能發(fā)展在深度與廣度上都是難以預(yù)測(cè)的[22]。這種困難不僅是技術(shù)層面上發(fā)展的不確定性,更是生命支持及醫(yī)療應(yīng)用場(chǎng)景中的不確定性。正如2019年LancetGastroenterolHepatol發(fā)表的關(guān)于人工智能與計(jì)算機(jī)輔助診斷在結(jié)腸鏡檢查的應(yīng)用系統(tǒng)綜述所指出機(jī)器學(xué)習(xí)面臨的挑戰(zhàn):如學(xué)習(xí)數(shù)據(jù)基于回顧性研究,機(jī)器深度學(xué)習(xí)需要構(gòu)建更大樣本量的數(shù)據(jù)庫(kù),以應(yīng)對(duì)臨床實(shí)踐中不確定性的挑戰(zhàn)[23]。
算法與決策制定總希望在一個(gè)相對(duì)確定的前提下進(jìn)行,人工智能如何通過(guò)一個(gè)非穩(wěn)態(tài)的模型建構(gòu)和學(xué)習(xí),產(chǎn)生相對(duì)確定的行動(dòng)決策?決策基于何種預(yù)設(shè)的價(jià)值系統(tǒng)以符合生命倫理的道德律令?這些問(wèn)題的回答需要在算法中植入基于情境的道德代碼,正如有研究者提出的:在機(jī)器中加入明確的倫理維度,使其具有倫理決策功能和社會(huì)幫輔功能[24]。
法律意義上對(duì)人作為法律主體界定是明確的,但當(dāng)人類由純粹自然演進(jìn)走向基因編輯、人類智能模擬時(shí)代,傳統(tǒng)民法約定的主客體邊界正發(fā)生動(dòng)搖[25]。人工智能倫理主體問(wèn)題,美國(guó)達(dá)特茅斯學(xué)院哲學(xué)系教授摩爾[26]根據(jù)智能機(jī)器的自主性程度,將機(jī)器劃分出四種人工道德主體:有道德影響的主體、隱性道德主體、顯性道德主體和完全道德主體。隱性倫理規(guī)則作為普遍性倫理共識(shí)成為人工智能發(fā)展早期倫理規(guī)約,顯性倫理規(guī)則以代碼形式被編制進(jìn)人工智能算法規(guī)則。也有人認(rèn)為由于人工智能主體缺乏自主性、意識(shí)以及動(dòng)機(jī),因而不符合道德主體的特征[27]。
以康德道德哲學(xué)審視機(jī)器道德主體合法性,康德[28]認(rèn)為理性與自由意志是判定道德行為主體的重要特征,《人工智能創(chuàng)新發(fā)展道德倫理宣言》認(rèn)為人工智能自主意識(shí)非自由意志屬性[22],即不承認(rèn)人工智能的道德主體地位,這如同盧卡斯-彭羅斯利用哥德?tīng)柌煌耆远ɡ硭岢觥叭诵膭龠^(guò)機(jī)器(圖靈機(jī))”,認(rèn)為心靈是不可計(jì)算的[29]。但相反觀點(diǎn)如米歇爾·巴洛恩(Michael Byron)認(rèn)為:以人的自我認(rèn)知革命為特點(diǎn)的第四次革命正日益挑戰(zhàn)人類所獨(dú)有的自由意志以及自我認(rèn)知能力[30]。
技術(shù)主體性的提修斯之船(Ship of Theseus)在多大程度上脫離而形成新的自我,使人類喪失獨(dú)占的主體性自我,沖擊人類中心主義的倫理底線?人工智能發(fā)展提出了生命個(gè)體邊界問(wèn)題,當(dāng)雷·庫(kù)茲韋爾(Ray Kurzweil)預(yù)言的“奇點(diǎn)”一旦出現(xiàn),比人更聰明的人工智能將真正沖擊人的本體存在地位[31]。
技術(shù)通常被認(rèn)為是價(jià)值中立的,技術(shù)應(yīng)用結(jié)果的善惡取決于使用者的價(jià)值立場(chǎng),但人工智能在道德價(jià)值判斷上是否仍舊是中立的,特別當(dāng)智能算法日益沖擊人類自主意識(shí),使人工智能機(jī)器越發(fā)具有邏輯推理能力的類道德主體時(shí),這種價(jià)值中立的立場(chǎng)是否依舊成立?瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)[32]認(rèn)為弱人工智能道德更是一種“操作性道德”,但隨著人工智能交互性的提高,將出現(xiàn)“功能性道德”,甚至完全道德行為,價(jià)值問(wèn)題勢(shì)必成為新的倫理挑戰(zhàn)。
人工智能作為技術(shù)的價(jià)值中立立場(chǎng)動(dòng)搖時(shí),人類是否依舊對(duì)技術(shù)本身給予信任?這一問(wèn)題早在1942年阿西莫夫通過(guò)“機(jī)器人三大原則”進(jìn)行約定:(1)機(jī)器人不可以傷害人或者通過(guò)不作為,讓任何人受到傷害;(2)機(jī)器人必須遵從人類的指令,除非那個(gè)指令與第一定律相沖突;(3)機(jī)器人必須保護(hù)自己的生存,條件是那樣做與第一、第二定律沒(méi)有沖突。三原則是人類以近乎上帝視角與機(jī)器人訂立契約,機(jī)器人成為聽(tīng)命于人、隨時(shí)準(zhǔn)備為人類“犧牲”的臣民,但問(wèn)題是:為什么智能機(jī)器必然需要聽(tīng)命于人類?
Taddeo[33]提出對(duì)人工智能信任需滿足的三個(gè)條件:(1)行動(dòng)者的交互;(2)交互中基于共同的規(guī)范與倫理準(zhǔn)則;(3)交互中的各部分可識(shí)別。Herman分析Moor對(duì)人造機(jī)器信任等級(jí)的劃分,提出不同場(chǎng)景下信任等級(jí)確定的三條特征:自主性(與獨(dú)立機(jī)器相關(guān))、風(fēng)險(xiǎn)/脆弱性(與人機(jī)系統(tǒng)中的機(jī)器相關(guān)),以及交互性(人主體與機(jī)器之間直接或間接交互性)[27]。
目前,人工智能數(shù)據(jù)來(lái)源于不同場(chǎng)景下開(kāi)發(fā)的各種應(yīng)用,醫(yī)學(xué)領(lǐng)域中人工智能通過(guò)深度學(xué)習(xí),形成一套算法模型,機(jī)器學(xué)習(xí)數(shù)據(jù)來(lái)源于精巧設(shè)計(jì)的臨床研究或真實(shí)世界,前者所謂循證醫(yī)學(xué)數(shù)據(jù)缺乏普遍性,但后者數(shù)據(jù)又可能混雜大量冗余信息,大數(shù)據(jù)的人工智能轉(zhuǎn)向?qū)⑷绾我?guī)制[34]?此外,數(shù)據(jù)采集過(guò)程中所包含的地區(qū)社會(huì)文化傳統(tǒng)習(xí)俗,及可能潛隱其中的不公正甚或歧視,通過(guò)人工智能學(xué)習(xí),使這樣一些現(xiàn)實(shí)問(wèn)題被承繼到算法中,從而通過(guò)一種拙劣的模仿將人類缺點(diǎn)[35],凝固在未來(lái)算法中,這是否使人工智能繼承了人類的“原罪”?
醫(yī)療數(shù)據(jù)所有權(quán)關(guān)涉隱私保護(hù),但所有權(quán)問(wèn)題也并非是顯而易見(jiàn)的,如加拿大醫(yī)療數(shù)據(jù)所有人包括患者個(gè)人以及收集醫(yī)療信息的醫(yī)療機(jī)構(gòu)、政府部門(mén)等,也有觀點(diǎn)認(rèn)為患者擁有具有身份信息的醫(yī)療數(shù)據(jù)所有權(quán),醫(yī)療服務(wù)提供者及政府相關(guān)部門(mén)具有脫敏后去身份信息的數(shù)據(jù)所有權(quán)[36]。非直接用于臨床的回顧性數(shù)據(jù)使用需要較大樣本量的情形,及具有明確社會(huì)利益且低風(fēng)險(xiǎn)的數(shù)據(jù)使用,被認(rèn)為可以在脫敏情況下二次使用并免除知情同意,加拿大在2014年修改《人相關(guān)倫理行為和研究》,提出對(duì)于二次使用的脫敏數(shù)據(jù)非必須知情同意[37]。我國(guó)于2016年10月發(fā)布的《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》,規(guī)定醫(yī)學(xué)研究要遵循知情同意原則,對(duì)已同意捐獻(xiàn)樣本及相關(guān)信息可用于所有醫(yī)學(xué)研究的,允許經(jīng)倫理委員會(huì)審查批準(zhǔn)后,免除簽署知情同意書(shū)[38],但對(duì)于人工智能數(shù)據(jù)的使用規(guī)則并未做明確規(guī)定。
人工智能需秉持公平與客觀,摒棄帶有偏見(jiàn)的數(shù)據(jù)和算法,杜絕可能的歧視性結(jié)果,但通過(guò)算法識(shí)別,實(shí)現(xiàn)精準(zhǔn)營(yíng)銷和價(jià)格歧視政策[39],為特定消費(fèi)者提供特定產(chǎn)品及不同的價(jià)格已事實(shí)存在。數(shù)據(jù)挖掘?qū)е碌钠缫暡粌H限于商業(yè)利潤(rùn)最大化,還有因民族、宗教、社會(huì)文化習(xí)俗差異所導(dǎo)致的不公平。層出不窮的軟件應(yīng)用,通過(guò)后臺(tái)信息收集,對(duì)用戶畫(huà)像和標(biāo)簽化并針對(duì)性推送信息,從而產(chǎn)生信息繭房效應(yīng)[40],經(jīng)機(jī)器選擇的信息傳播中,被精準(zhǔn)推送的人偏向于只能接收到與自己價(jià)值觀、偏好相關(guān)的信息,從而導(dǎo)致信息閉塞。另一個(gè)是所謂過(guò)濾泡問(wèn)題,那些不符合用戶喜好和與群體或個(gè)人價(jià)值觀念不符合的信息被自動(dòng)過(guò)濾[41]。
人工智能有助于醫(yī)療資源使用效率和效果提升,如通過(guò)電子病歷的數(shù)據(jù)挖掘,對(duì)于住院患者的診療、疾病進(jìn)展預(yù)后,開(kāi)發(fā)機(jī)器學(xué)習(xí)算法[42]。醫(yī)療數(shù)據(jù)整合需要不同數(shù)據(jù)產(chǎn)生部門(mén)形成有效交互的數(shù)據(jù)體系,如患者、醫(yī)療服務(wù)提供者、保險(xiǎn)公司、政府管理部門(mén)等,通過(guò)數(shù)據(jù)分析、優(yōu)化患者治療,提高人工智能時(shí)代的醫(yī)療公平性[43]。醫(yī)療決策行為本身的不確定性特點(diǎn),以及人工智能學(xué)習(xí)黑箱性質(zhì)(black box)[44],甚至有時(shí)程序員自身也不完全明了機(jī)器算法的內(nèi)在過(guò)程,使得人工智能輔助醫(yī)療決策存在風(fēng)險(xiǎn),影響患者利益。
人工智能算法存在風(fēng)險(xiǎn),其所給出的臨床診療決策錯(cuò)誤,由誰(shuí)來(lái)承擔(dān)相應(yīng)責(zé)任?美國(guó)和歐盟對(duì)人工智能應(yīng)用風(fēng)險(xiǎn)及責(zé)任采用等級(jí)評(píng)估規(guī)制,如美國(guó)對(duì)人工智能實(shí)施三級(jí)風(fēng)險(xiǎn)評(píng)估,不同風(fēng)險(xiǎn)等級(jí)的技術(shù)應(yīng)用對(duì)安全性及有效性給予不同的監(jiān)測(cè),甚至實(shí)行產(chǎn)品的全生命周期管理[45],歐盟也就人工智能技術(shù)應(yīng)用進(jìn)行規(guī)則制定及提出需要建立完善的培訓(xùn)機(jī)制[46]。
人工智能為數(shù)據(jù)安全提出嚴(yán)峻的現(xiàn)實(shí)問(wèn)題,在人工智能仍處于類似于庫(kù)恩所提出的科學(xué)發(fā)展階段的“前范式”期,亟待通過(guò)建立一種倫理審查制度,使人類與智能機(jī)器相互信任原則得到制度性保障,使人工智能成為人類生活的福祉。人工智能倫理審查機(jī)制,在《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)及《阿西洛馬人工智能 23 條原則》都提出有規(guī)約,但是人工智能基于算法與代碼,倫理審查是深入到編碼過(guò)程,還是僅審查算法執(zhí)行效果?前者從過(guò)程管理對(duì)人工智能加以約束,是更為實(shí)質(zhì)的前置性審查,后者更多地有賴于程序員自身的倫理道德自律,采取后置性審查方式。
人工智能在生命科學(xué)領(lǐng)域應(yīng)用的倫理審查,因技術(shù)復(fù)雜性和應(yīng)用場(chǎng)景多樣性,需要由來(lái)自于不同領(lǐng)域?qū)<医M成,包括醫(yī)學(xué)、生命科學(xué)、計(jì)算機(jī)科學(xué)、倫理學(xué)、法律等學(xué)科,設(shè)置倫理審查委員會(huì)應(yīng)當(dāng)成為人工智能時(shí)代倫理治理的重要制度性安排,Winfield等[47]提出的倫理治理策略,考慮計(jì)算機(jī)工程、機(jī)器人、信息與交流技術(shù)等方面:制定操作性倫理法則、全員覆蓋的科研倫理培訓(xùn)、負(fù)責(zé)任的創(chuàng)新及倫理風(fēng)險(xiǎn)評(píng)估、公開(kāi)透明、非預(yù)警式有助于價(jià)值提升的倫理治理策略,構(gòu)建積極前置有能力應(yīng)對(duì)潛在技術(shù)倫理問(wèn)題的倫理治理體系。
時(shí)代前進(jìn)的步伐不會(huì)因?yàn)閼雅f或者恐懼而停止,歷次工業(yè)革命表明支撐性技術(shù)發(fā)展和革新是無(wú)法阻擋的,對(duì)技術(shù)迎接和擁抱同時(shí)又懷有畏懼和抵抗,是人類永恒面對(duì)的存在性命題。后現(xiàn)代生命倫理境遇的啟幕,人工智能時(shí)代的降臨,人的生命正被數(shù)字革命重構(gòu),這終將是一個(gè)極富挑戰(zhàn)的領(lǐng)域[48],盡管尚難以判斷這是一場(chǎng)災(zāi)難的序曲還是一個(gè)偉大自由時(shí)代的黎明,人工智能對(duì)于既有關(guān)系顛覆將是全方位的,甚至是一種對(duì)于人的本體存在的根本性質(zhì)疑,無(wú)論人類是否已經(jīng)準(zhǔn)備好,人工智能終將向著尼爾森(Nilsson)所說(shuō)的堅(jiān)定不移的強(qiáng)人工智能的方向發(fā)展,能夠獨(dú)立自主完成任務(wù)的智能機(jī)器人將必然出現(xiàn)。
因此,需要構(gòu)建人工智能社會(huì)生態(tài)系統(tǒng),在生命哲學(xué)與道德哲學(xué)對(duì)于人之本體存在的高度自覺(jué)中,建立一個(gè)善的人工智能社會(huì)倫理基礎(chǔ)架構(gòu)和實(shí)現(xiàn)規(guī)則。無(wú)論人工智能作為生命支撐性技術(shù)或者作為朝向具有人類自由意志的方向演進(jìn),科技的倫理治理,都不應(yīng)遺忘亞里士多德所提出的:倫理學(xué)的目的是讓“人類生活得好”。