国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

醫(yī)學AI道德主體地位的哲學批判*

2022-12-06 12:55:06趙亮英
醫(yī)學與哲學 2022年8期
關鍵詞:感受性意向性語境

趙亮英

近年來,在國家人工智能(artificial intelligence,AI)發(fā)展戰(zhàn)略的助推下,我國的醫(yī)學AI得到了蓬勃發(fā)展。然而隨著AI在醫(yī)學影像、疾病預測和診療、醫(yī)藥研發(fā)、醫(yī)學健康管理等領域的廣泛應用,由醫(yī)學AI帶來的隱私泄露、算法歧視、誤診、責任主體不明確等倫理問題也引發(fā)了大眾對醫(yī)學AI的擔憂。特別是近年來智能醫(yī)療事故時有發(fā)生,醫(yī)學AI應用中道德主體不明確導致醫(yī)療事件無從追責的現象,進一步引發(fā)了大眾對醫(yī)學AI的懷疑和不信任。這些問題和關注既是確定當前醫(yī)學AI科學發(fā)展方向需要思考的問題,同時也是倫理學和哲學爭論的焦點,本文將從心靈哲學和認知哲學的角度對相關問題加以厘清和回應。

1 道德主體與“意識難題”

要確定醫(yī)學AI是否具有道德主體身份,首先要區(qū)分不同類型的醫(yī)學AI。在哲學界,AI一般可以區(qū)分為強AI和弱AI;目前的AI主要是通過算法程序使AI模擬人類的“心靈”系統,讓其擁有多層次的復雜推理或學習功能,進而讓設備“自主”完成相關行為,這種技術被學界稱之為是弱AI。當前醫(yī)學領域AI應用雖然還只是處于弱AI的起始階段,但已經表現出強大的智能化、自主化能力,對道德責任的傳統歸屬和理解構成了一定的挑戰(zhàn)。強AI雖然目前還只是概念性的存在,但是隨著科技的發(fā)展,大眾和學者們對強AI可能引發(fā)的倫理和社會問題也是十分地關注并時有爭論。對于到底什么是強AI,學界目前雖有不同看法甚至是爭議,但普遍認為,強AI與弱AI之間具有質的差別。強AI是指可能像人類一樣具有自由意志、思維和感受能力的AI,這樣的強AI甚至可以看成是一種“新人類”。倘若這種強醫(yī)學AI存在,那么毫無疑問,它應該像人類一樣成為一個完全獨立的道德主體,承擔起相應的道德責任和法律責任。對醫(yī)學AI道德主體地位的進一步分析需要以這一區(qū)別為基礎。

其次,人類作為整個世界中最為獨特的存在,與機器的最大區(qū)別就在于人類具有意識能力,確切地說具有自由意志,能夠根據自己的感受和意向,自由選擇并產生不同的行為,進而承擔相應的道德責任,自由意志是道德責任產生的必要條件。因此,詢問醫(yī)學AI是否能夠成為道德主體,首先就要厘清醫(yī)學AI是否可能具有自由意志。此外,要明確AI在醫(yī)藥、醫(yī)療、護理和管理等應用中的道德身份以及道德責任的歸屬,也必須從哲學上辨析弱AI在醫(yī)學應用中的“自主行為”模式與AI“人工意識”的關系,這也是當前醫(yī)學AI研究和應用中必須要應對和回答的問題。

也就是說,關于醫(yī)學AI的相關道德責任分析,必須以厘清醫(yī)學AI是否具有自由意志為線索展開。雖然隨著神經科學的發(fā)展,自由意志在一定程度上也受到不少懷疑論者和決定論者的挑戰(zhàn),但是不可否認,我們具有通過自己的感覺感知這個世界并有意向地調整自己行為的能力,這種通過意向性意識產生行動的經驗就是我們確信自由意志的基石[1]。因此,分析醫(yī)學AI的道德主體身份、是否具有自由意志實際就是分析醫(yī)學AI是否可能具有意向性意識,進而可以把醫(yī)學AI的自由意志問題轉化為意向性意識問題。進一步詢問醫(yī)學AI是否可能具有類似人類的自由意志,實際也就是探尋像人類一樣具有感受知覺和意向性的“人工意識”是否可能,這也是心靈哲學中的“意識難題”(the hard problem of consciousness)。所謂意識難題就是追問意識的本質到底是什么,要搞清楚我們是否可能用物理方法或科學方法來說明或模擬人類具有主觀性的、感受性意識和意向性意識[2]。確切地說,需要從哲學和科學的角度解釋清楚具有第一人稱特點的“意識”是如何產生的、與物理結構(大腦)如何發(fā)生關系或作用的問題,進而說明意識的感受性和意向性特征。倘若哲學上的分析能夠表明,純粹由物理結構組成的醫(yī)學AI不可能產生具有第一人稱特點、生物性質的感受性“意識”,AI的高智能、“擬人化”的意向性行為和情感表征只是一種機械功能主義的輸出,那么就可以直接消除醫(yī)學AI具有自由意志的可能,進而消解其具有道德主體身份的可能。在此基礎上,我們可以嘗試結合心靈哲學中所區(qū)分的不同層次的意向性意識和語境,進一步分析弱AI在醫(yī)學應用中的“自主行為”,解析AI在功能上模擬表征不同意向性意識的行為模式,從意向性表征的角度分析醫(yī)學AI應用中的功能行為以及責任歸屬問題,具體分析如下。

2 意向性因果關系與感受性

美國哲學家約翰·塞爾(John R.Searle)結合現代物理學和生物進化論,提出了心靈理論的生物自然主義立場(biological naturalism),把意向性意識看成是人類主要的心靈現象,從意向性(intentionality)的角度展開了對人類心靈意識的研究。對于意識的本質,塞爾提出了兩點:首先意識是一種自然的生物現象,是低層神經過程在大腦系統突現的一種特征,這是意識的物理基礎[3]。部分物理主義者也正是根據這一點,認為隨著科技的發(fā)展,AI的物理結構必定能夠與人類大腦的神經網絡相媲美,進而可以模仿大腦神經功能,以解決AI的“意識難題”。

但是,塞爾認為這些物理主義者都忽略了意識的第二個本質特征:意向性意識與大腦的特殊因果作用。塞爾[4]指出,意向性意識與大腦之間存在不同于傳統休謨式的因果關系,而是具有自我指稱性質(self-referential)的“意向性因果關系”(intentional causation)。塞爾[5]談道:“意向性是心靈借以內在地表現(represent)世界上的物體和事態(tài)的特征。但是,我們的心靈與世界處于經常的因果聯系之中的。當我們看到事物時,我們所看的物體引起我們對它們的視覺經驗。當我們回憶過去的事件時,那些過去的事件引起我們現在的回憶?!痹谌麪柨磥恚庀蛐砸蚬P系的自我指稱性質使得意向性意識可以通過主體自身的經驗得以自知。這就可以解釋意識的第一人稱特點:意識是一種主觀本體論的存在,是一種主觀的、內在的、定性的感知(sentience)或覺識(awareness)狀態(tài),只有當意識被“主體”經驗到時,它們才是存在的;并且這些感知或覺識的經驗本身,就是存在的意識,是第一人稱的主觀本體存在[6]。換言之,我們“經驗”到意識的同時也是客觀神經作用的過程;主觀感受過程和客觀神經過程,是意向性意識一枚硬幣的兩面。此外,塞爾還談到:人類意識的主觀本體論地位和物理世界的客觀本體論地位一樣,是我們所在的這個唯一的客觀世界所存在的兩種不同性質的本體論,都是這個世界的原初存在,因而主觀本體論不能還原為客觀本體論的實在,具有不可還原性[7]。

筆者認為,意向性因果關系的自我指稱性質實際上一方面說明了意識的產生是以大腦的神經過程為基礎,意識的產生與大腦的物理結構密切相關,是整個大腦和人身體相結合在一起、經過上億年進化而來的生物系統所突現的一個特征;另一方面也論證了意識主觀性特征的特殊性:即意識的產生的過程(與神經過程相關)同時也是人類具有意識感受的過程,是一枚硬幣的兩面。并且相對于人類而言,這種第一人稱的主觀性特點是意識的“靈魂”所在,也是人類的“靈魂”——自由意志所在。所謂意識的不可還原性,主要就是指意識感受的主觀性和私人性,只能以內省的方式被覺知,而不能被任何第三人稱的觀點加以驗證或解釋,更不可還原為任何物理的因果關系。正如內格爾(Nagel)[8]所談到的,我們永遠也無法得知“成為一只蝙蝠是什么感受”。物理世界不存在感受性,只有主觀的心理世界才存在感受性(意識),這是人類經過上百萬年的生物進化而突現的生物功能。AI作為一種科技成果,仍然是以第三人稱視角進行的研究。因此,即使隨著科技的發(fā)展,在結構上我們能夠非常完美、細致地描述并模仿人類意識與神經的因果作用過程,但是我們也無法讓AI體驗到人類的“意識”感受,因為主觀的生物心靈意識感受不能還原為外在的物理狀態(tài)。

也就是說,即使出現全仿真人腦神經結構的醫(yī)學AI也無法產生人類意識,因為由物理結構產生的AI無法產生具有自我指稱性質的因果力,因而無法產生具有第一人稱、主觀本體特征的意識“感受”,一個沒有感受性意識反饋的醫(yī)學AI當然無法產生真正的自由意志,即使它表現的再“智能”或像人類醫(yī)生一樣能夠“自主思考”和問診,但其在本質上仍然是一個高智能的“機器”,不具有道德主體身份和資格,AI本身也不應承擔像人類醫(yī)生一樣的道德責任。

3 意向性表征與人工心靈

然而有部分物理主義者認為,隨著科技的發(fā)展我們最終可以弄清楚人類大腦的神經結構和作用過程,AI的意識產生只是時間問題,那種認為意識感受在本體論上的不可還原性,其實是犯了概念范疇上的錯誤,正如我們吃了蘋果、香蕉、梨,但是我們吃不了“水果”;此外,還有部分功能主義者認為,他們不否認存在意識這樣的主觀心理狀態(tài),但是意識就是通過我們臉部的微笑、茫然、大聲痛哭、尋求幫助等各種外在的行為表現出來,具有主觀特征的意識也需要通過物理屬性(如外部行為)來表現。因此,即使我們最終也沒能弄清楚大腦的神經結構和作用過程或意識的本質,但是我們仍可以采用黑箱方法,從功能行為上來模擬人類“意識”的行為表現,即把意識的主觀“感受”看成是一個黑箱,通過功能系統可以讓AI表征“意識”行為。

塞爾的心靈理論中曾提到兩個層次的意向性:內在于心靈的意向性,即“原初意向性”(original intentionality)以及“派生的意向性”(derived intentionality)[9]。內在的心靈狀態(tài)通過意向性因果關系,使得人類能夠賦予語言具有關指(about to)世界的能力,也即是“意識”的關指能力,這是一種內在的、具有第一人稱特點的主體感覺。筆者認為,物理主義的以上兩種觀點實際上涉及到的就是兩個層次的意識表征問題,也可以看成是“意識難題”的兩個方面:一是內在的意識問題,或者說內在于我們大腦的那種意識“感覺”,即感受性能否被醫(yī)學AI所具有?前面的分析已經表明,塞爾認為對于我的意識(內在意向性意識),我有絕對的權威,具有不可還原性,這種生物性意識能力的感受性,AI不可能具有;但是物理主義者并不認同塞爾的這種解釋;所以我們可以把問題“AI可能具有這種具有‘感受性’的自我意識嗎?”轉換成“AI所表征的‘意識’和人類的內在意識是一樣的嗎?”再進行分析,這也是當前主流AI研究所做的嘗試,這便有了第二個方面的“意識難題”。

意識難題的第二個方面是關于意識的表征問題,即我們如何通過語言、肢體行為、文字或藝術等來表征我們內在的意向性意識問題。沒有內在的“感受性”的AI是否也可以根據“算法”做出正確的表征意識的言語行為?塞爾的心靈哲學理論中把言語行為中所包含的意向性意識稱之為“派生的意向性”,以區(qū)別前面我們提到的那種內在于心靈中的、具有感受性特質的原初意向性意識。部分功能主義者認為可以通過語言、表情、行為來表征派生的意向性意識——只要在程序上輸入足夠完整的知識,AI就可以通過算法表征“意識”內容,就好像AI也具有一個“黑箱”式的內在心靈意識,AI只是與自然人有一個不同的“心靈意識”承載者。那么AI可以做到嗎?這也是厘清醫(yī)學AI應用道德責任歸屬的核心問題。

對于第一個方面的問題,筆者認為,派生的意向性意識與原初意向性意識的區(qū)別就好像是一個人完全可以了解所有與游泳有關的知識,但是他卻不會游泳;一個人可以完全知道所有與顏色有關的知識,但是他卻不知道看到顏色是什么樣的感受。因此,雖然隨著神經科學的發(fā)展,在人類的大腦神經中或許可以找到每一個原初意向性意識的神經結構;但原初意向性意識的這種“感受性”不能通過功能結構的模擬而獲得;因為意向性意識的產生雖然在物理結構上必須依賴大腦的神經結構,但是其“感受到的內容”并不需要和現實的物理世界相聯系,就像意向性可以指稱在現實世界不存在的對象一樣,感受性的產生也可以只和某個可能世界相聯系,如我們經常說:“藍色是憂郁,紅色是熱情”“我可以想象我現在在外星球”等;塞爾關于意向性因果關系的自我指稱性質已經很明確地說明了感受性的不可還原性,是人類意識的“靈魂”所在,而產生意識的物理結構(大腦或其他物質)雖是必要的基礎,但對人類存在的意義來說,卻不是那么重要了。正是因為人類大腦結構的神奇性以及感受性意識的重要性,聯結主義者努力的方向就是要盡量模擬人類大腦的生物學結構,希望能夠重建一個完美的人工大腦,以促進AI發(fā)展的飛躍。那么,擁有像人類大腦一樣復雜結構的人工大腦就能夠產生感受性意識嗎?筆者認為不能,關于這一點我們將在第4部分進行分析。

對于第二個問題,雖然筆者并不完全認同塞爾的意向性心靈理論[10],但是塞爾的意向性指稱理論中也表明,在言語行為中,如果說話者要指稱成功,就必須“心中所指”,它既可以是現實世界的對象也可以是其他任何一個可能世界的對象,所以它的個人主觀意識很強。但是語言是用于交流的,并且我們主要是通過言語行為來表征內在的心靈意識,所以派生的意向性意識功能主要就是通過有效交流來實現。為了能夠達到有效的交流,把這種純粹的、私人的意向性意識表征出來,就需要結合語境。結合不同的語境,語言可以在原有的語法規(guī)則基礎上,產生豐富多樣的語用意義,也就是語境意識。如果按照前面功能主義的論點,如果把AI的心靈意識看成是個黑箱,或者直接說人工黑箱心靈,那么我們只需要辨析醫(yī)學AI在功能表征上是否可以達成有效交流。如果可以,那么就可以認為AI具有派生的意向性意識或者派生的人工意向性意識,AI擁有“黑箱”式人工心靈就是可能的,反之“黑箱”式人工心靈則不可能;對此,我們需要結合語境的概念進一步展開分析。

4 語境與AI表征行為的責任追溯

語境可以分為世界語境和交流語境[11]。世界語境是比較抽象也是最大的語境,它只把哪一個世界或可能世界作為論域,一般是指我們現實生活的語境,雖然我們一般不會說我是特指這個現實的世界。在世界語境中,我們可以根據我們的語法規(guī)則、慣例、習俗、文化等確定我們的言語行為、文字、藝術、肢體語言的意義,因為它是相對確定的、不變的。在這一點上,AI可以通過完善的程序和算法表征世界語境中的意向性意識。就像是中文屋中的瑪麗一樣,雖然她并不懂“內在的意義”,但是能夠根據程序和語法規(guī)則做出正確的行為,就好像她完全“懂”中文一樣。更深入的,隨著AI的完善,她也應該可以根據準確的社會文化知識程序,注意是有著確定意義和用法的行為規(guī)則、慣例、習慣的知識程序,例如通過知識程序理解“過馬路要看紅綠燈”“不可以殺人”“不能說謊”的涵義,把“水果蔬菜分類”等。在世界語境中,筆者認為,醫(yī)學AI可以有近乎完美的言語行為來表征他好像有一個“黑箱”式人工心靈意識,特別是在運用醫(yī)學大數據通過算法而做出醫(yī)學診斷、醫(yī)藥判斷等方面,醫(yī)學AI可以通過預設的算法得到“既定規(guī)則”的最好結果;但是我們知道,即使再完美的程序員也無法窮盡這個世界存在的一切知識并把它程序化,特別是極具私人性的、感受性的心理知識又如何能夠用確定的知識程序來規(guī)定?此外,在各種未知的道德沖突面前,即便是擁有完美道德知識的人類也難以抉擇,那么醫(yī)學AI又該根據什么“原則”進行抉擇呢?也就是說,在世界語境中,醫(yī)學AI也只能是能夠通過功能行為有限地表征“黑箱心靈”。

在醫(yī)學診斷、醫(yī)學專家系統以及醫(yī)學護理等醫(yī)學AI應用過程中,醫(yī)學AI的高智能也只是通過冰冷的大數據運算而得出的“最佳結論”;也即是通過算法智能模擬人類的意向性意識,進而表征出具有意向性的行為。在這一過程中,這種黑箱式人工心靈的功能模擬,是通過純粹的大數據運算來實現,所以其中最為重要的就是“運算方式”。如果科研人員對大數據的運算方式設計的足夠“人性化”,接近人類的思維方式,那么表征出來的意向性行為就越接近人類的表達。盡管如此,也不能否認這是一種純粹的物理結構上的功能模擬,醫(yī)學AI在這個過程中并不具有任何的感受性意識,當然不具有自由意志,進而也不具有道德主體身份資格。故而,倘若在這種醫(yī)學AI的應用過程中出現了由于運算方式、規(guī)則沖突、程序錯誤等類似醫(yī)療事故,應該向醫(yī)學AI的科研人員或機構追溯替代責任。

此外,語言的使用是非常靈活多變的,特別是當說話者意義與語詞意義不一樣時,說話者和聽者之間如何達成有效交流?用言語行為派生的意向性來表征內在的心靈意識,還必須引入交流語境。在社會交往過程中,我們的語言更多的是在交流語境中使用。所謂交流語境,是在世界語境的基礎上增加了具體條件,如說話的人、時間、地點和場景等,能達成有效交流的語境?!耙粋€語句的意義并不是在一切場合都能單獨地由說出這個語句時所完成的言語行為來決定,因為說話者想說出的意義可能比他實際說出的意義還要多一些?!盵12]在交流語境中對意向性意識的表征,才是真正體現人類意識的本質、深層意義和功能所在。例如情感特別是愛情的產生是沒有什么文化、套路可言的,即使你外在的言語行為表現的你似乎非常愛她或者不愛她,但是愛就是愛,不愛就是不愛,這種心動的“感受”不是按照規(guī)則、習俗、語法、文化背景、成長經歷或算法、經驗可以得出的,所以它才總是能給人生帶來各種意外和驚喜。AI或許通過完美程序可以理性地得出判斷:作為一個在這個背景成長的人應該會喜歡什么樣的人、喜歡一個人會出現什么樣的言語行為,但是事實上他就一定會愛上被程序鎖定、并符合這些條件的某一個人嗎?倘若兩個人之間沒有內在的心靈感受“愛慕”,又怎么會做出表征“愛意”的言語行為呢?再退一步說,即使AI通過算法,根據對方的種種行為“推知”他應該是愛上我了,那么AI再根據算法或程序決定表征“愛他”或者“不愛他”的行為,那么AI真的感受到了“愛”嗎?這是有效的交流嗎?或者這是人類所期待的“交流”嗎?也就是說,在交流語境中,要表征內在的意向性意識,必須要能夠具有這種“感受性”,才能做出相應的行為;如果沒有這種“感受性”,即使擁有再完美的“愛情”知識,但是因為沒有感受到“愛情”,不知道是否與對方存在“愛慕”,從而無法做出相應的言語行為;即使通過算法能夠推知這是“愛”的表達并有所回應,但是這仍然是一種“瑪麗式”的回應,不是人類的有效情感交流。

綜上所述,心靈的感受性并非僅僅是一系列數據、規(guī)則或語法,而是融合人類的情感、喜好、態(tài)度、靈感等復雜的、多維的心理狀態(tài),這種感受性的意識狀態(tài)是多變的、不確定的,具有私人性,并且是不可還原的;這也是人類意識所具有的特殊性質,正是因為我們可以根據不同的感受對語言的意義進行創(chuàng)造性使用和天馬行空的想象,這才使得我們人類的世界更加豐富多彩,充滿驚喜。像“愛”“恨”“信仰”“糾結”“悸動”這樣的感受性其實就是一種“意向性意識內容”[13],沒有這些內在的、感受性意識,也就不會產生相應的、派生的意向性行為,當然也不會有相應的言語行為或肢體行為來表征這種內在的意向性意識。雖然醫(yī)學AI在世界語境中可以通過算法有限地表現出“愛”“恨”或其他“喜怒哀樂”的外部表情或言語行為,但是因為其沒有內在的“感受性”,這也只是醫(yī)學AI通過運算所產生的“人性化”智能行為;進而在交流語境的醫(yī)學護理或治療中,醫(yī)學AI不能表現出像擁有豐富情感的人類醫(yī)生或護理員對患者的關心、愛護、理解、尊重等,更不能適時真正理解患者的情感需求或精神需求,如孤獨、尊嚴、沮喪等,從而進行深一層次的情感交流、精神或心理治療。因此,功能主義認為AI可以通過派生的意向性行為表征一個“黑箱式人工心靈”的論點也是不成立的。

那么擁有全仿真人類神經結構的AI就不能像人類大腦一樣突現出“意識”嗎?筆者認為,對于這個問題可以結合功能結構和功能意義的概念給予回應。

我們通常所說的“意識”實際是指由心靈和大腦(神經)組成的一個功能系統的功能表現:意識是整個主體功能系統中的功能意義部分,而大腦則是屬于整個功能系統的功能結構部分。功能意義和功能結構是心腦系統一枚硬幣的兩面,不可或缺,不可替代。功能結構是意識產生的物質載體,功能意義或意識則是心-腦系統的內涵或內容。意識是實在的、獨立存在的,這種主觀的意義感受不能還原為任何非心靈的物質[14];心-腦系統(或者說意識系統)的這種實在性表現為心靈的感受,即感受性的意向內容,這都是外部世界對主體的意義,是內在的,因而也是主觀的。并且對人類而言,意識的這種實在性比純粹的神經過程更為重要;人類存在的意義更多來自于心靈意識,沒有意識存在的物理過程就好比是無意識的機器人一樣,意義不大;正是意義導致了我們的行為,在世界語境中和交流語境中,語言的意義可以變得更加豐富多彩。

物理主義強調的那種通過“黑箱”式輸入-輸出系統來表征意識功能,其實就是試圖模擬心-腦系統的功能結構,以產生某種功能,例如我們可以通過功能結構的模擬制造出人工心臟、人工手、人工腳等。那么通過功能結構的模擬可以突現產生人類的意識嗎?筆者認為,人類心靈的感受性意識或意向性意識是在漫長的生物進化過程中,所具有的一種社會突現性質的功能,既然是一種突現性質,就不可能簡單地從結構還原的角度對之進行模擬。其荒謬性從哲學家普特南(Putnam)[15]關于“完美偽裝者”和“超級斯巴達人”的論證中,可見一斑。簡單來說,假設有一個極具表演天賦的演員,他能夠十分逼真地表演任何角色,他的一切動作、表情、語言等都和正常人在經歷這個角色的經驗表現一模一樣,如失去親人的“痛”,他會失聲痛哭、會有懊悔、會有隱忍等,但是他是否就真的具有失去親人的“痛感”呢?又如假設有一個經受過苛刻訓練的斯巴達人士兵,不管他內心有什么樣的感覺和情感,卻不會有任何外在行為的體現。如即使再痛苦他也不會有呻吟、哭泣、皺眉等,不會表現出正常人處于疼痛狀態(tài)的行為表現;那么在這種情況下,按照物理主義通過行為對意識的解釋,他就不具有“疼痛”的心理意識嗎?

也就是說,功能意義和功能結構是心-腦系統的兩個不同方面,作為功能意義內容的感受性不可還原,即內在的、原初的意向性意識不可還原,是一種主觀本體論的存在;物理主義期望通過功能結構的模擬突現產生意向性意識是不可能的。正如馬克思的辯證唯物主義也提到過,意識是在人類產生過程中,在與物質世界的生產實踐過程中逐漸產生的。這其中就指出,意識包含著在長期的社會互動實踐過程中產生的復雜的歷史文化因素,如世界觀、價值觀、道德倫理、宗教、情懷、喜好等;而這些因素本身就是復雜多變、不具有邏輯性和確定性的,這種不確定性是不能夠被任何一個“智能”的AI通過編入的程序或自動識別系統掌控。因此,筆者認同塞爾的分析,以人類大腦的生物結構為基礎,生成了兩種不同性質的實在,一種是物理實在,我們的身;一種是心靈實在,我們的意識;身-心之間具有可通達性,但是不具有可還原性,兩者之間是一種復雜系統關系。當然,這也并不影響我們可以通過物理主義中的功能-行為表征來模擬人類的思維邏輯或行為,這也是現代AI技術發(fā)展的科學性所在。

同理,醫(yī)學AI雖然具有許多突破傳統機器的特點,如自主性、系統性、純理性等,但其終究是對人類心靈-大腦功能結構的模擬基礎上的功能輸出,并且是在人類控制范疇內產生、發(fā)展和運用;所以,醫(yī)學AI不可能產生像人類一樣的“人工意識”或者“黑箱式人工心靈”,因而也不可能具有像人類一樣的道德主體地位而承擔相應的道德責任;筆者甚至認為,所有關于醫(yī)學AI的道德責任都應該根據不同語境的應用而追溯到人身上,包括科研者、生產者、監(jiān)管者或使用者等。在明確了這一點之后,我們才能夠更好地從人類自身出發(fā)完善關于醫(yī)學AI的責任倫理。

5 結語

《人類簡史》一書中曾這樣描述AI:“科幻小說常把智能和意識混為一談……但實際上,沒有理由相信人工智能會獲得意識,因為智能和意識是天差地別的兩種概念。智能是解決問題的能力,意識則是能夠感受到痛苦、喜悅、愛恨憤怒等事物的能力……提高智能的路其實有好幾條,其中只有一條需要靠意識,就像飛機不用發(fā)展出羽毛,但飛行速度卻比鳥更快,計算機也不用發(fā)展出哺乳動物所需要的感受,就能比哺乳動物更會解決問題……算法只需要學會辨別猿類在快樂、憤怒或恐懼下的生活模式,而不需要他自己感受到快樂、憤怒或恐懼?!盵16]

以上分析表明,醫(yī)學AI可以很好地解決世界語境中由算法、規(guī)則等決定的醫(yī)學應用問題,但是在交流語境中,因為“感受性”的缺乏不能夠達成有效交流,因而不能深層次對精神、情感和心理類的疾病進行治療;醫(yī)學AI不具有和人類一樣的 “內在意識”因而不具有道德主體資格,但這并不影響醫(yī)學機器人的高智能發(fā)展。當然,還需要注意的是,任何科學的發(fā)展和進步都是有風險的,醫(yī)學AI的發(fā)展也不例外;在醫(yī)學AI的發(fā)展過程中,不論是在設計過程還是應用過程中,我們沒有辦法窮盡所有的風險和責任擔當,所以應該允許存在一定程度的意外,這種意外的風險和責任需要政府、患者、科研人員和醫(yī)務工作者一起承擔。如此,才有可能促進醫(yī)學AI的發(fā)展,而不是由此束縛其發(fā)展。但是具體該如何對醫(yī)學AI的多維責任主體進行責任劃分,則是醫(yī)學AI倫理需要進一步深入研究的課題。

猜你喜歡
感受性意向性語境
感受性問題的生物學解釋途徑
學理論·下(2017年4期)2017-05-13 23:01:41
淺析胡塞爾現象學的意向性結構
中國市場(2016年45期)2016-05-17 05:15:53
語言學習中語境化的輸入與輸出
文學教育(2016年18期)2016-02-28 02:34:43
(簡論詩創(chuàng)作的意向性)
如何在中學音樂教學中突出音樂藝術的特點
跟蹤導練(三)2
論幽默語境中的預設觸發(fā)語
“選擇中國共產黨”何以成為群眾集體意向性——讀《井岡山的斗爭》
探索(2013年3期)2013-04-17 02:37:57
新課標下感受性閱讀教學之思考
成才之路(2012年26期)2012-04-29 00:44:03
話“徑”說“園”——來自現象學語境中的解讀
密云县| 台湾省| 承德县| 临漳县| 井研县| 凤台县| 牟定县| 肇源县| 锦屏县| 新绛县| 龙泉市| 安仁县| 彭阳县| 卢湾区| 惠州市| 山阳县| 定边县| 绿春县| 琼海市| 福泉市| 巴塘县| 封开县| 荥阳市| 德州市| 北宁市| 共和县| 浦县| 奉新县| 安平县| 潼南县| 琼中| 扬中市| 绥宁县| 环江| 麻城市| 岗巴县| 汤原县| 天柱县| 合川市| 耒阳市| 长葛市|