国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能技術(shù)的倫理問(wèn)題
——一種基于現(xiàn)象學(xué)倫理學(xué)視角的審視

2018-04-11 12:36:14偉,
關(guān)鍵詞:現(xiàn)象學(xué)倫理學(xué)自主性

孟   偉, 楊 之 林

(大連理工大學(xué) 哲學(xué)系, 遼寧 大連 116024)

一、兩種AI與兩種AI倫理

與農(nóng)業(yè)和工業(yè)等領(lǐng)域中的大多數(shù)技術(shù)及其倫理問(wèn)題的討論不同,近年來(lái)學(xué)術(shù)界關(guān)于人工智能及其倫理問(wèn)題的討論,很大程度上源于并著眼于人工智能技術(shù)自身的特殊性,即人工智能可能在未來(lái)發(fā)展出具有自主性智能體(autonomous agent)的技術(shù)成果。因此,人工智能技術(shù)的倫理討論不僅涉及到一般性的技術(shù)倫理問(wèn)題,而且涉及到可能具有自主意識(shí)和行為能力的人工智能體所產(chǎn)生的特殊倫理問(wèn)題。

從人工智能技術(shù)自身的發(fā)展以及相關(guān)討論來(lái)看,人工智能一般可分為弱人工智能(weak AI)研究和強(qiáng)人工智能(strong AI)研究。前者設(shè)計(jì)的“‘機(jī)器能夠智能地行動(dòng)’(或者也許更確切地,其行動(dòng)看起來(lái)如同它們是有智能的)”,而“‘能夠如此行事的機(jī)器確實(shí)是在思考’(與模擬思考相對(duì))的斷言則被稱為強(qiáng)人工智能假設(shè)”[2]。弱人工智能著眼于類似人類智能的設(shè)計(jì),因此也可稱為非自主性智能體的AI研究,而強(qiáng)人工智能著眼于真實(shí)人類智能的設(shè)計(jì),因此,這種研究也可稱為自主性智能體的AI研究。按照部分學(xué)者和大多數(shù)工程師的看法,當(dāng)前的人工智能研究主要是非自主性智能體的研究或者說(shuō)屬于弱人工智能研究。從研究成果來(lái)看,弱人工智能是指問(wèn)題求解、專家系統(tǒng)等各種模擬人類智能的技術(shù),而“強(qiáng)人工智能是指有自我意識(shí)、自主學(xué)習(xí)、自主決策能力的人工智能,也是人工智能發(fā)展的終極目標(biāo)”,強(qiáng)人工智能的實(shí)現(xiàn)還有很長(zhǎng)的路要走,因?yàn)檫€面臨著諸如意識(shí)問(wèn)題等棘手難題的解決[3]。也就是說(shuō),目前頗為興盛的人工智能研究成果基本上體現(xiàn)了弱人工智能研究,而強(qiáng)人工智能研究還基本停留在設(shè)想以及有待于成為現(xiàn)實(shí)的階段。

立足兩種人工智能技術(shù),人工智能的相關(guān)倫理討論也可以分為兩種,即弱人工智能倫理與強(qiáng)人工智能倫理?;蛘哒f(shuō),人工智能倫理可以在兩個(gè)層面上討論:一是作為一般性技術(shù)倫理問(wèn)題的人工智能倫理,這一層面同時(shí)適用于弱人工智能和強(qiáng)人工智能研究;二是作為特殊性技術(shù)倫理問(wèn)題的人工智能倫理,這一層面更適用于強(qiáng)人工智能,或者說(shuō)更適用于自主性智能體倫理問(wèn)題的研究。如果從機(jī)器人技術(shù)這一特定領(lǐng)域來(lái)審視人工智能倫理研究,那么非自主性智能體和自主性智能體的技術(shù)倫理,大致對(duì)應(yīng)于機(jī)器人倫理學(xué)(roboethics)和機(jī)器倫理學(xué)(machine ethics)研究[4]。機(jī)器人倫理學(xué)的任務(wù)是對(duì)設(shè)計(jì)機(jī)器人的人類主體進(jìn)行規(guī)范性約束,而機(jī)器倫理學(xué)則是研究如何使人類所設(shè)計(jì)的人工智能系統(tǒng)在行為上具有倫理性[5]。機(jī)器人倫理強(qiáng)調(diào)的是在機(jī)器人研究中的外在倫理規(guī)范問(wèn)題,而機(jī)器倫理則強(qiáng)調(diào)“在機(jī)器中嵌入符合倫理原則的相關(guān)程序,使其能夠?yàn)槭褂谜咛峁﹤惱韼椭蛘呤箼C(jī)器自身做出倫理決策,這是一種內(nèi)在于機(jī)器的倫理”[6]。機(jī)器人倫理更多是將機(jī)器人研究作為一般性技術(shù)進(jìn)行倫理審視,而機(jī)器倫理則涉及到機(jī)器如何成為具有自主能力的倫理智能體。當(dāng)然,兩種倫理研究之間并不是割裂的,機(jī)器人倫理的研究制約著機(jī)器倫理的研究,或者說(shuō),作為一般性技術(shù)的AI倫理可能制約著作為特殊性技術(shù)的強(qiáng)AI倫理研究。更具體地說(shuō),弱AI與強(qiáng)AI在一般性技術(shù)倫理與社會(huì)影響等方面可能面臨著同樣的問(wèn)題,而與弱AI相比,以自主性智能體為目標(biāo)的強(qiáng)AI可能還面臨著更為特殊的倫理和社會(huì)問(wèn)題。

二、AI的一般性技術(shù)倫理問(wèn)題

幾乎所有的技術(shù)都面臨著技術(shù)設(shè)計(jì)和使用等層面上的一般性倫理問(wèn)題,因此,不管是自主性還是非自主性智能體的AI研究都需要思考一般性的技術(shù)倫理問(wèn)題。

與其他技術(shù)領(lǐng)域相同,人工智能技術(shù)也需要考慮技術(shù)設(shè)計(jì)者、制造者和使用者的責(zé)任倫理問(wèn)題,尤其是需要明確技術(shù)主體遵循一種針對(duì)道德主體的內(nèi)在倫理規(guī)范要求。學(xué)界普遍意識(shí)到,“現(xiàn)階段探討人工智能倫理,主要是指加強(qiáng)人工智能設(shè)計(jì)倫理,旨在保證優(yōu)先發(fā)展造福人類的人工智能,避免設(shè)計(jì)者和制造出不符合人類價(jià)值和利益的人工智能”[7],即當(dāng)前的AI倫理主要討論技術(shù)設(shè)計(jì)者和使用者等道德主體的道德責(zé)任問(wèn)題。事實(shí)上,當(dāng)前眾多人工智能技術(shù)的應(yīng)用都涉及道德主體的道德責(zé)任問(wèn)題。例如,F(xiàn)acebook與劍橋分析政治數(shù)據(jù)公司的合作所導(dǎo)致的大規(guī)模侵犯用戶隱私的問(wèn)題,就表明AI技術(shù)的使用者在諸如信息數(shù)據(jù)的使用上不應(yīng)輕易受到經(jīng)濟(jì)和政治利益的左右,而應(yīng)當(dāng)承擔(dān)相應(yīng)的道德責(zé)任。在AI植入倫理規(guī)范的問(wèn)題上,算法設(shè)計(jì)者們也應(yīng)當(dāng)承擔(dān)公正和客觀的道德責(zé)任,從而盡可能保證將既有法律或道德準(zhǔn)則原封不動(dòng)地編寫(xiě)進(jìn)程序[7]。

按照羅爾斯的理論,內(nèi)在道德責(zé)任感源于作為社會(huì)正義的外在倫理規(guī)范,因此AI的責(zé)任倫理可能需要依賴于完善的倫理規(guī)范,這些倫理規(guī)范最終可以內(nèi)化為人工智能技術(shù)從業(yè)者的道德主體責(zé)任。例如,人工智能醫(yī)學(xué)診斷領(lǐng)域就有必要制定相關(guān)倫理規(guī)范來(lái)界定專家系統(tǒng)診斷失誤導(dǎo)致的過(guò)失責(zé)任等問(wèn)題,這些規(guī)范能夠反過(guò)來(lái)強(qiáng)化內(nèi)科醫(yī)生的道德責(zé)任感。例如,在美國(guó)部分州法庭看來(lái),專家系統(tǒng)類似于醫(yī)學(xué)教科書(shū),醫(yī)生有責(zé)任理解決策背后的推理以及自己判斷是否接受系統(tǒng)建議;而在自動(dòng)駕駛技術(shù)方面,程序一般不被當(dāng)作“司機(jī)”,雖然沒(méi)有法律來(lái)制裁自動(dòng)駕駛超速行為,但是一旦出現(xiàn)事故,車輛控制機(jī)構(gòu)的設(shè)計(jì)者應(yīng)當(dāng)承擔(dān)責(zé)任[2]740。這些法律規(guī)范的形成能夠有效地影響道德主體道德責(zé)任的養(yǎng)成與界定。

除了AI技術(shù)倫理中的責(zé)任倫理和倫理規(guī)范問(wèn)題外,人工智能與其他技術(shù)一樣面臨著可能引發(fā)相關(guān)社會(huì)問(wèn)題的樂(lè)觀或悲觀看法。例如,悲觀者擔(dān)心AI技術(shù)可能會(huì)帶來(lái)嚴(yán)重的失業(yè)問(wèn)題,樂(lè)觀者則認(rèn)為人工智能技術(shù)創(chuàng)造的工作機(jī)會(huì)遠(yuǎn)高于帶來(lái)的失業(yè)??傊?,AI技術(shù)倫理也需要從更大社會(huì)系統(tǒng)層面來(lái)討論技術(shù)本身所帶來(lái)影響,需要在過(guò)分擔(dān)憂和過(guò)分樂(lè)觀之間尋找一種倫理平衡。

三、AI的特殊性技術(shù)倫理問(wèn)題

與其他技術(shù)不同,人工智能技術(shù)的發(fā)展可能制造出與人相同甚至超出人類自身智能的自主性智能體。因此,與一般性技術(shù)倫理不同,人工智能技術(shù)的倫理問(wèn)題也變得更為特殊和復(fù)雜?!霸阱e(cuò)誤的手中,幾乎任何技術(shù)都有造成傷害的潛在可能,但是對(duì)于人工智能和機(jī)器人技術(shù)來(lái)說(shuō),我們的新問(wèn)題在于:錯(cuò)誤的手也許正好屬于技術(shù)本身”[2]740。這表明,技術(shù)設(shè)計(jì)和應(yīng)用等傳統(tǒng)問(wèn)題可能不再是倫理考量的關(guān)鍵,智能體的倫理自主性可能成為AI倫理的聚焦之所。

能否實(shí)現(xiàn)強(qiáng)人工智能是討論自主性智能體AI技術(shù)倫理學(xué)的前提。一方面人們認(rèn)為自主智能體的研究可能在未來(lái)成為現(xiàn)實(shí),因此有必要未雨綢繆討論自主智能體的倫理問(wèn)題。另一方面人們也深度懷疑自主智能體的實(shí)現(xiàn)。例如,20世紀(jì)中期杰弗森(Geoffrey Jefferson)質(zhì)疑圖靈,“直到一臺(tái)機(jī)器能夠出于思想或者感受到的情感,而不是由于符號(hào)的偶然飄落,寫(xiě)出一首十四行詩(shī)或譜寫(xiě)一首協(xié)奏曲,我們才能同意機(jī)器等同于大腦——也就是說(shuō),不只是寫(xiě)了,而且要理解它所寫(xiě)的”[2]733。當(dāng)代從事人工智能研究的大多數(shù)專家也主張,“擬人化地看待人工智能,甚至擔(dān)憂其作為一個(gè)新物種毀滅人類,有些杞人憂天了。人工智能在單一領(lǐng)域可能比人類強(qiáng)很多,比如下棋、運(yùn)算,但要讓人工智能像人類一樣能思考、有意識(shí),短期內(nèi)不太可能實(shí)現(xiàn)”[7]。阿西洛馬人工智能原則中也以“能力警惕”的概念提到這一倫理爭(zhēng)論,“我們應(yīng)該避免關(guān)于未來(lái)人工智能能力上限的過(guò)高假設(shè),但這一點(diǎn)還沒(méi)有達(dá)成共識(shí)”[8]??梢?jiàn),能否制造出具有人類智能的自主智能體,這是討論自主智能體AI倫理研究的前提。

對(duì)于強(qiáng)人工智能倫理學(xué)的討論當(dāng)然假定了這種自主性智能體的目標(biāo)是可能實(shí)現(xiàn)的。如果科學(xué)家相信強(qiáng)人工智能可以實(shí)現(xiàn),并且努力去實(shí)現(xiàn)這一目標(biāo),那么,自主性智能體的設(shè)計(jì)與制造就將會(huì)產(chǎn)生特殊的倫理規(guī)范要求。阿西莫夫科幻作品中提出的“機(jī)器人三定律”正是在滿足這一前提下產(chǎn)生并且被視為未來(lái)自主性智能體的倫理規(guī)范要求。這些規(guī)范意味著,如果遵循“機(jī)器人三定律”進(jìn)行強(qiáng)AI研究,那么就能夠?qū)崿F(xiàn)自主性機(jī)器人服務(wù)人類利益、與人類的友好相處的目標(biāo)。與此相同,當(dāng)代阿西洛馬人工智能原則中也提到,“高度自主的人工智能系統(tǒng)的設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致”[8]。

如果強(qiáng)AI滿足上述規(guī)范要求,那么強(qiáng)AI技術(shù)倫理可能還需要回答自主性智能體如何具有道德意識(shí)的問(wèn)題,以及應(yīng)當(dāng)具有何種道德意識(shí)的問(wèn)題。具有何種道德意識(shí)依賴于強(qiáng)AI的道德規(guī)范,因此更關(guān)鍵的問(wèn)題在于如何具有道德意識(shí),即如何在設(shè)計(jì)和制造過(guò)程中為自主智能體植入倫理規(guī)范乃至道德意識(shí)的問(wèn)題。就目前來(lái)看,人工智能的設(shè)計(jì)存在著“自上而下”(與人類智能進(jìn)化相反,從知識(shí)到符號(hào)組織再到信號(hào)處理,從而完成機(jī)器行為設(shè)計(jì))和“自下而上”(立足人類智能進(jìn)化,從信號(hào)處理行為等低級(jí)智能為符號(hào)加工活動(dòng)等高級(jí)智能奠基)兩種設(shè)計(jì)思路[9]4-5。與之相應(yīng),道德規(guī)范和道德意識(shí)的植入和生成也相應(yīng)存在兩種路徑。一種是體現(xiàn)“自上而下”理念的、算法承載道德規(guī)范的設(shè)計(jì)思路[7];另一種可能是基于身體圖式的道德認(rèn)知基礎(chǔ)并以此實(shí)施的“自下而上”的道德規(guī)范設(shè)計(jì)[5]。

自主智能體在未來(lái)成為現(xiàn)實(shí)可能還會(huì)帶來(lái)特殊的倫理、法律等社會(huì)問(wèn)題。例如,正如Sophia成為世界上第一個(gè)獲得公民身份的機(jī)器人所引起的爭(zhēng)論,人們需要回答,如果自主智能體與人具有同等的智能,那么它是否具有與人同等的身份和權(quán)利地位;如果自主智能體與人具有同等的智能,那么人類自身的獨(dú)特性是否會(huì)喪失,其與人類的關(guān)系又當(dāng)如何界定;如果自主智能體與人具有同等甚至超出人類的智能,那么這種“超人類主義”或超級(jí)人工智能是否如霍金所言會(huì)帶來(lái)人類種族毀滅的風(fēng)險(xiǎn)。對(duì)此,有的人認(rèn)為,一旦人類創(chuàng)造出超人智能,那么人類時(shí)代將走向終結(jié);而諸如莫拉維克(Has Moravec)等人則認(rèn)為,“它們將相當(dāng)迅速地取代我們的存在。我并不因?yàn)檫@后一種可能性而像許多人一樣驚慌失措,因?yàn)槲艺J(rèn)為這些未來(lái)的機(jī)器就是我們的后裔,是依照我們的想象和喜好建造的‘精神子孫’,是更強(qiáng)有力形態(tài)的我們自己,如同目前世代的生物形態(tài)子孫一樣,它們將承載著人類對(duì)長(zhǎng)遠(yuǎn)未來(lái)的最美好希望”[2]741。

四、作為規(guī)范和描述倫理學(xué)的現(xiàn)象學(xué)倫理學(xué)

“哲學(xué)之所以要成為一門嚴(yán)格的科學(xué),只是因?yàn)槲覀儽仨氝^(guò)一種倫理意義上的嚴(yán)肅生活?!盵10]35自現(xiàn)象學(xué)奠基人胡塞爾開(kāi)始,倫理學(xué)被視為現(xiàn)象學(xué)哲學(xué)的應(yīng)有之義。而現(xiàn)象學(xué)倫理學(xué)與其他倫理學(xué)思想的一個(gè)重要區(qū)別,則是現(xiàn)象學(xué)倫理學(xué)區(qū)分了描述倫理學(xué)與規(guī)范倫理學(xué),并且將描述倫理學(xué)視為規(guī)范倫理學(xué)的基礎(chǔ)。

道德現(xiàn)象的復(fù)雜性伴隨著道德規(guī)范的多樣性,但是源于人與動(dòng)物區(qū)分的西方哲學(xué)總體上主張將人類自身幸福作為倫理學(xué)思考的首要規(guī)范。例如,亞里士多德將人類生活得好(live well)作為倫理學(xué)的終極目的,而“中世紀(jì)的亞里士多德”之托馬斯·阿奎納則指出,倫理學(xué)“關(guān)乎人的整個(gè)生命和人類生命的終極目的”[11]653。現(xiàn)象學(xué)的規(guī)范倫理學(xué)接續(xù)了西方倫理學(xué)的發(fā)展傳統(tǒng),包含著“關(guān)于應(yīng)然的學(xué)說(shuō)和關(guān)于規(guī)范的學(xué)說(shuō)”的胡塞爾現(xiàn)象學(xué),也希望“通過(guò)某種倫理關(guān)懷完成人性改造,實(shí)施人類升華和人類拯救”。這種著眼于改造人類生活的規(guī)范倫理學(xué)也被稱為“改造倫理學(xué)”[12]。

胡塞爾的“改造倫理學(xué)”明確了提升人類幸福的規(guī)范目標(biāo),另外,現(xiàn)象學(xué)倫理學(xué)又明確指出了這種規(guī)范倫理學(xué)應(yīng)當(dāng)建立在一種描述倫理學(xué)基礎(chǔ)上,即“建立在關(guān)于實(shí)然的學(xué)說(shuō)和關(guān)于本體的學(xué)說(shuō)的基礎(chǔ)上,即建立在對(duì)自然、心靈、精神在意識(shí)之中的構(gòu)成分析的基礎(chǔ)上”[12]。這表明現(xiàn)象學(xué)倫理學(xué)與現(xiàn)象學(xué)哲學(xué)具有相同的理路,“如果胡塞爾提出的‘現(xiàn)象學(xué)’代表了一種人類哲學(xué)思考的基本方式,那么胡塞爾意義上的‘現(xiàn)象學(xué)的倫理學(xué)’就應(yīng)當(dāng)是指通過(guò)這種思維方式對(duì)倫理現(xiàn)象所作的觀察以及對(duì)其本質(zhì)結(jié)構(gòu)和本質(zhì)發(fā)生的把握,并在此基礎(chǔ)上進(jìn)一步提出并論證各種倫理要求,說(shuō)明和制定各種倫理規(guī)則”[12]。進(jìn)而,如同現(xiàn)象學(xué)哲學(xué)被視為一種描述的心理學(xué),現(xiàn)象學(xué)倫理學(xué)根本上更應(yīng)是一種描述倫理學(xué),“嚴(yán)格意義上的‘現(xiàn)象學(xué)的倫理學(xué)’是一種反思的和描述的倫理學(xué),也可以被稱作直觀的倫理學(xué),即它首先由對(duì)‘我如何以及為何意識(shí)到好/善’的直接描述分析所組成。而后它才是規(guī)范的倫理學(xué),即它最終會(huì)在直觀的基礎(chǔ)上提出‘我應(yīng)當(dāng)……’和‘你應(yīng)當(dāng)……’的基本準(zhǔn)則”[12]。

作為描述倫理學(xué)的現(xiàn)象學(xué)倫理學(xué)實(shí)質(zhì)上是一種道德意識(shí)的發(fā)生學(xué)。按照倪梁康先生的看法,這種道德意識(shí)的發(fā)生學(xué)即“是在現(xiàn)象學(xué)反思中進(jìn)行的對(duì)道德意識(shí)的有意無(wú)意的本質(zhì)直觀”,是胡塞爾所說(shuō)的“在現(xiàn)象學(xué)上得到論證的純粹倫理學(xué)”,這種描述的現(xiàn)象學(xué)倫理學(xué)與其說(shuō)是一種價(jià)值倫理學(xué),不如說(shuō)是一種道德心理學(xué),或道德意識(shí)現(xiàn)象學(xué)[12]。由于現(xiàn)象學(xué)哲學(xué)首先是一種意向性的哲學(xué),因此描述的倫理學(xué)也就是一種道德意向性學(xué)說(shuō)。在胡塞爾看來(lái),意向感受行為的分析構(gòu)成了胡塞爾倫理學(xué)思考的基礎(chǔ)。因?yàn)?,如果人們離開(kāi)感受,那么就不能談?wù)摗吧啤焙汀皭骸?;客體通過(guò)它們的價(jià)值調(diào)動(dòng)起我們的情感或欲求,而價(jià)值則源始地是以感受-價(jià)值的方式給予我們的[13]。

另一位重要的現(xiàn)象學(xué)倫理學(xué)家舍勒同樣認(rèn)可首先作為一種意向性倫理學(xué)的現(xiàn)象學(xué)倫理學(xué)思想。舍勒首先認(rèn)可現(xiàn)象學(xué)倫理學(xué)基于現(xiàn)象學(xué)意向性哲學(xué),如現(xiàn)象學(xué)家黑爾德所指出,“雖然現(xiàn)象學(xué)的倫理學(xué)——首先通過(guò)馬克斯·舍勒——乃是以一種價(jià)值論、而非以一種意向性倫理學(xué)而聞名于世。然而,只要一種價(jià)值理論不是從現(xiàn)象學(xué)方法的基本原則出發(fā)、不是從顯現(xiàn)者與顯現(xiàn)的相互關(guān)系原則出發(fā)而被建造起來(lái),它便是沒(méi)有根基的空中樓閣:無(wú)論人遭遇到什么,這些遭遇到的東西都是在相應(yīng)的特殊的進(jìn)行活動(dòng)中獲取其規(guī)定性,它們?cè)谶@些進(jìn)行活動(dòng)中被給予人”[14]。舍勒進(jìn)一步明確了一種情感的意向性關(guān)系的基礎(chǔ)性,主張“任何一種對(duì)某一對(duì)象的智性的如在(Sosein)把握,都以有關(guān)此對(duì)象的情感的價(jià)值體驗(yàn)為前提”[13]。例如,“喜歡”已經(jīng)可以構(gòu)成一個(gè)單獨(dú)的感受行為,它原初地指向它自己的對(duì)象——某種價(jià)值。這個(gè)感受行為與對(duì)“一段聲音”的表象行為可以說(shuō)是相互獨(dú)立的兩個(gè)行為。倪梁康先生由此判斷,“我們甚至可以說(shuō),舍勒的倫理學(xué)就是一種價(jià)值感受的現(xiàn)象學(xué)”[15]14。

五、人工智能的現(xiàn)象學(xué)倫理學(xué)

現(xiàn)象學(xué)倫理學(xué)意味著從道德意識(shí)的發(fā)生學(xué)和由此產(chǎn)生的規(guī)范層面將會(huì)對(duì)AI技術(shù)倫理的思考產(chǎn)生雙重啟示。總體上,當(dāng)前關(guān)于AI技術(shù)的討論主要集中于規(guī)范倫理學(xué)范圍,即對(duì)于AI技術(shù)來(lái)說(shuō),如何以不損害人類的利益為前提在技術(shù)主體與客體等方面制定合理的道德規(guī)范。

按照現(xiàn)象學(xué)倫理學(xué)關(guān)于規(guī)范倫理和道德意識(shí)發(fā)生的描述倫理的區(qū)分, AI倫理的討論需要首先區(qū)分作為一般性技術(shù)倫理和作為特殊技術(shù)倫理的問(wèn)題。此外,作為特殊技術(shù)的AI關(guān)注的是具有自主性道德意識(shí)的智能體,而現(xiàn)象學(xué)描述倫理學(xué)由于涉及道德意識(shí)的發(fā)生問(wèn)題,因此就有可能為特殊技術(shù)的AI倫理學(xué)思考提供參照?,F(xiàn)象學(xué)的規(guī)范倫理學(xué)可以適用于AI的一般技術(shù)倫理思考。胡塞爾的“改造倫理學(xué)”、海德格爾對(duì)技術(shù)的反思乃至對(duì)詩(shī)意生活的向往,這些都表明人類生活得更好可以作為AI技術(shù)的最高道德規(guī)范。這意味著,不管是著眼非自主智能體還是自主智能體的AI技術(shù),它們都需要一種人本主義的現(xiàn)象學(xué)規(guī)范倫理學(xué)。

現(xiàn)象學(xué)的描述倫理學(xué)實(shí)質(zhì)是從現(xiàn)象學(xué)的意向性認(rèn)識(shí)關(guān)系出發(fā),通過(guò)現(xiàn)象學(xué)直觀來(lái)呈現(xiàn)道德意識(shí)關(guān)系的發(fā)生??梢?jiàn),描述的倫理學(xué)揭示的是作為一個(gè)道德主體是如何具有道德意識(shí)的。從道德意識(shí)的發(fā)生學(xué)來(lái)看,強(qiáng)人工智能倫理學(xué)需要討論自主性的機(jī)器人如何能夠具有道德意識(shí),從而顯示出相應(yīng)的道德行為。

現(xiàn)象學(xué)的描述倫理學(xué)不僅表明自主性智能體的AI倫理學(xué)需要考慮道德意識(shí)的生成,而且為技術(shù)層面AI如何具有和顯現(xiàn)道德意識(shí)提供了有益啟示。強(qiáng)人工智能著眼于真實(shí)人類智能的研究,這意味著著眼于自主性智能體的強(qiáng)AI技術(shù)將涉及到如何使AI具有道德意識(shí)的問(wèn)題。如果像梅洛-龐蒂基于身體體驗(yàn)的知覺(jué)現(xiàn)象學(xué)等道德意識(shí)的描述現(xiàn)象學(xué)所主張的,道德意識(shí)的產(chǎn)生是“自下而上”的,那么自主智能體的道德意識(shí)的生成也可能是“自下而上”的,或者說(shuō),“自下而上”的道德規(guī)范植入就將比“自上而下”的道德規(guī)范植入更為有效、更符合自主智能體的需要。

六、結(jié) 語(yǔ)

現(xiàn)象學(xué)倫理學(xué)既是面向人本主義的規(guī)范倫理學(xué),又是注重道德意識(shí)生成的描述倫理學(xué)。同樣,人工智能技術(shù)既有面向人本主義的規(guī)范倫理要求,也有如何生成和植入道德意識(shí)的智能技術(shù)要求。在結(jié)合現(xiàn)象學(xué)倫理學(xué)思考人工智能倫理時(shí),還應(yīng)當(dāng)謹(jǐn)慎地注意到,盡管現(xiàn)象學(xué)更為重視描述倫理學(xué)對(duì)道德意識(shí)發(fā)生的研究,但是這并不意味著人們?cè)贏I技術(shù)倫理實(shí)踐上就應(yīng)當(dāng)無(wú)條件地遵循。第一,AI倫理的思考應(yīng)基于AI技術(shù)本身的現(xiàn)實(shí)發(fā)展,如果AI技術(shù)在實(shí)現(xiàn)自主智能體的研究上依然存在嚴(yán)重的爭(zhēng)議,那么,AI倫理更應(yīng)當(dāng)將對(duì)技術(shù)設(shè)計(jì)、使用等問(wèn)題的規(guī)范倫理思考置于優(yōu)先地位。也就是說(shuō),就AI技術(shù)本身的發(fā)展現(xiàn)狀來(lái)看,規(guī)范倫理學(xué)可以優(yōu)先于描述倫理學(xué)的思考。第二,如果認(rèn)可AI技術(shù)可能存在著由非自主智能體向自主智能體的技術(shù)進(jìn)化,那么基于AI技術(shù)的特殊性,應(yīng)當(dāng)在實(shí)踐中堅(jiān)持倫理優(yōu)先于技術(shù)的原則,即如同克隆技術(shù)的社會(huì)倫理問(wèn)題始終優(yōu)先于克隆的技術(shù)問(wèn)題,對(duì)于AI技術(shù)的倫理思考也應(yīng)當(dāng)優(yōu)先于技術(shù)的發(fā)展,諸如AI技術(shù)的開(kāi)發(fā)者“應(yīng)該始終把人工智能對(duì)社會(huì)負(fù)責(zé)的要求放在技術(shù)進(jìn)步的沖動(dòng)之上”[16]。第三,在非自主向自主智能體的技術(shù)過(guò)渡進(jìn)程中,尤其是在逐步開(kāi)發(fā)強(qiáng)人工智能的過(guò)程中,人類不僅應(yīng)時(shí)刻警醒以倫理要求來(lái)抑制這種技術(shù)沖動(dòng),而且在社會(huì)層面上還應(yīng)當(dāng)立足倫理來(lái)加強(qiáng)和改進(jìn)監(jiān)管,從而盡可能地適應(yīng)新技術(shù)的快速演變,防范AI技術(shù)失控造成的不可逆風(fēng)險(xiǎn)。

猜你喜歡
現(xiàn)象學(xué)倫理學(xué)自主性
開(kāi)拓·前沿·創(chuàng)新與學(xué)科建設(shè)——簡(jiǎn)評(píng)《中醫(yī)生命倫理學(xué)》
“紀(jì)念中國(guó)倫理學(xué)會(huì)成立40周年暨2020中國(guó)倫理學(xué)大會(huì)”在無(wú)錫召開(kāi)
倫理批評(píng)與文學(xué)倫理學(xué)
對(duì)“如是我聞”的現(xiàn)象學(xué)詮釋
英語(yǔ)學(xué)習(xí)的自主性及其教學(xué)應(yīng)用
實(shí)用英語(yǔ)教材與藝術(shù)生自主性培養(yǎng)
發(fā)揮主體作用,加強(qiáng)高中數(shù)學(xué)復(fù)習(xí)的自主性
“蟻?zhàn)瀣F(xiàn)象”的倫理學(xué)思考
學(xué)習(xí)共同體的現(xiàn)象學(xué)闡釋與應(yīng)用
維護(hù)科學(xué)的自主性
松原市| 泽库县| 舟山市| 于田县| 连城县| 中方县| 苍南县| 左权县| 工布江达县| 云浮市| 涡阳县| 巍山| 陆丰市| 望奎县| 郓城县| 大方县| 和硕县| 浦江县| 宁化县| 潮州市| 丰顺县| 登封市| 上林县| 新乡县| 黄浦区| 高雄县| 中山市| 神池县| 忻州市| 康马县| 武义县| 盈江县| 三门峡市| 石狮市| 礼泉县| 额济纳旗| 平原县| 阆中市| 孟州市| 沂源县| 大石桥市|