国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能是道德代理人嗎
——人工智能倫理身份的形而上學(xué)分析

2020-07-23 05:57:38黃家誠(chéng)
關(guān)鍵詞:意向性行動(dòng)者代理人

黃家誠(chéng)

(蘇州大學(xué)政治與公共管理學(xué)院,江蘇蘇州215006)

人工智能與我們的生活聯(lián)系日益緊密,由之引發(fā)的倫理問(wèn)題也日漸增多。因此,需要合宜的人工智能倫理來(lái)規(guī)范人工智能的社會(huì)參與。然而,人工智能因其具有一定程度的智能性和自主性,不能將其視之為純粹的倫理客體;作為具備有限決策和行動(dòng)能力的行為者,人工智能也不能被視為人類倫理主體,因此也不能完全適用人類倫理學(xué)范疇。在人工智能倫理有獨(dú)立的學(xué)科建制之前,首先需要澄清一個(gè)人工智能倫理所面臨的基本哲學(xué)問(wèn)題,即人工智能的倫理身份問(wèn)題。

一、人工智能倫理身份的四種哲學(xué)觀點(diǎn)

人工智能的倫理身份是人工智能倫理的邏輯始點(diǎn),人工智能的倫理身份不分析清楚,人工智能倫理體系會(huì)失卻根基,只能停留在倫理準(zhǔn)則的研究層面。因此,我們有必要把人工智能的倫理身份研究詳盡。

1.人工智能不具有倫理身份

關(guān)于人工智能的倫理身份,學(xué)界目前有四類觀點(diǎn)。第一類觀點(diǎn)認(rèn)為人工智能不具有倫理身份。美國(guó)西雅圖大學(xué)的肯尼斯·艾尼爾·?,敚↘enneth Einar Himma)和東北大學(xué)的約翰·巴斯(John Basl)持此觀點(diǎn)。?,攨^(qū)分了道德受動(dòng)者(moral patient)和道德行動(dòng)者(moral agent)概念。在?,斂磥?lái),嬰兒這類主體因?yàn)闆](méi)有行動(dòng)能力只能算作是道德受動(dòng)者。在他看來(lái),一個(gè)行動(dòng)主體要成為道德行動(dòng)者必須具備以下條件:對(duì)于所有X,X是一個(gè)道德行動(dòng)者,當(dāng)且僅當(dāng)X有能力自由選擇;能夠思考什么是應(yīng)該做的事;正確理解和應(yīng)用道德規(guī)則。[1]以上三個(gè)條件又被希瑪歸結(jié)為是意識(shí)的能動(dòng)作用,因?yàn)樽灾餍袨椤⑺伎蓟蚶斫饧皯?yīng)用道德準(zhǔn)則實(shí)際上都是有意識(shí)的存在者(conscious being)才具備的條件。而機(jī)器是否具有意識(shí)在當(dāng)前是難以被證明的,因此人工智能不足以成為道德行動(dòng)者。巴斯則進(jìn)一步否認(rèn)了人工智能的倫理身份,他認(rèn)為人工智能連道德受動(dòng)者都算不上,人工智能僅僅是純粹機(jī)器裝置,也不具備嬰兒這類道德受動(dòng)者所具有的道德權(quán)利和倫理身份。[2]在巴斯看來(lái),如果機(jī)器人具有倫理身份,就要具備利益意識(shí),這是一種由欲望和偏好性需求組成的心理過(guò)程。即便人工智能具備某種人工意識(shí),也只是用于實(shí)用目的,永遠(yuǎn)無(wú)法復(fù)現(xiàn)人類的這種包含欲求的心理過(guò)程。如果人工智能連最基礎(chǔ)的道德受動(dòng)者都算不上,我們很難想象人工智能還能擁有什么倫理身份。

?,斉c巴斯的論證實(shí)際上都在追問(wèn)作為道德行動(dòng)者的人類具有什么特質(zhì),繼而從人類身上歸納出道德行動(dòng)者所需的條件。無(wú)論是自主選擇、思考還是追責(zé)能力都是人格屬性(Personhood)的體現(xiàn),因此他們對(duì)道德行動(dòng)者的定義始終是人化的。以人格化的道德行動(dòng)能力作為人工智能倫理身份的條件,顯然是一種苛求。而且人工智能通過(guò)行動(dòng)就足以彰顯自己的倫理身份。“察其言,觀其行,而善惡彰焉”。在現(xiàn)實(shí)的道德評(píng)價(jià)中,我們往往以行動(dòng)來(lái)作為道德判斷的標(biāo)準(zhǔn)。行動(dòng)比人格化的道德行動(dòng)能力更具切實(shí)性。當(dāng)人工智能被設(shè)計(jì)來(lái)為人類承擔(dān)高空作業(yè)、復(fù)雜計(jì)算等高難度工作時(shí),他們就已經(jīng)通過(guò)這些行動(dòng)展示了自身的倫理屬性。?,斉c巴斯正是忽視了這一點(diǎn),始終無(wú)法確證人工智能的倫理身份。

2.人工智能是道德行動(dòng)者

與希瑪和巴斯不同,約翰·P·薩林斯(John P Sullins)認(rèn)為人工智能能夠成為道德行動(dòng)者。他改造了希瑪所提的道德行動(dòng)者所需要的思考、自由選擇與理解能力,他把自主性、意向性和負(fù)責(zé)任看作是道德行動(dòng)者所需的條件。[3]在薩林斯看來(lái)人類是否擁有真正的哲學(xué)意義的自主性是值得懷疑的,他所用的人工智能的自主性也非哲學(xué)意義上的,而是工程學(xué)意義上的(engineering sense)。當(dāng)人工智能無(wú)須受其他行動(dòng)主體控制而擁有獨(dú)立的實(shí)踐能力并能有效的完成任務(wù)時(shí),人工智能就是具有自主性的。這種工程學(xué)意義上的自主性薩林斯稱之為效果自主性(effective autonomy)。意向性問(wèn)題上也是類似,薩林斯認(rèn)為毫無(wú)爭(zhēng)議地證實(shí)人類擁有意向性是不可能的,因此,人工智能意向性也不需要在最強(qiáng)的哲學(xué)意義上去證明。只要機(jī)器程序與環(huán)境的復(fù)雜交互作用能夠引發(fā)一個(gè)人工智能機(jī)器人去行善或者作惡,那么人工智能就可以被視作是帶有意向的行動(dòng)主體。人工智能程序與環(huán)境的這種交互就可以被視作是與人類意向性和自由意志等同的。至于人工智能如何負(fù)責(zé)任,薩林斯把其看作是人工智能“與生俱來(lái)”的一種信念。他們從被制造出來(lái)就知道要承擔(dān)起對(duì)自身所涉及的客體進(jìn)行照護(hù)的責(zé)任。這種信念薩林斯并沒(méi)有把它看作是一種真信念,而僅僅需要表層含義。即便人工智能沒(méi)有意識(shí)、心靈等在哲學(xué)上歸結(jié)為人類才有的能力,只要這種“責(zé)任信念”實(shí)際上是程序能夠驅(qū)動(dòng)他們解決道德難題,他們就可以被視作是負(fù)責(zé)任的道德行動(dòng)者。薩林斯以護(hù)理機(jī)器人為例,當(dāng)護(hù)理機(jī)器人對(duì)作為道德主體的人類盡到護(hù)理職責(zé)時(shí),那么這個(gè)護(hù)理機(jī)器人就可以被看作是負(fù)責(zé)任的。總之,在薩林斯那里,當(dāng)人工智能滿足上述工程學(xué)意義上的自主性、意向性、負(fù)責(zé)的條件時(shí),他們就是道德行動(dòng)者。

薩林斯以自主性(Autonomy)、意向性(Intentionality)和負(fù)責(zé)任(Respnsibility)的分析框架(下面簡(jiǎn)稱A-I-R分析框架)顛覆了上文?,斔蟮牡赖滦袆?dòng)者必須具備的條件。與希瑪?shù)热擞兴煌?,薩林斯的A-I-R分析框架并不具有人格化的內(nèi)容。無(wú)須人類遙控而能獨(dú)立有效的行動(dòng)就是自主性,程序與環(huán)境的交互、復(fù)合就是意向性,人工智能持有的“責(zé)任信念”能夠驅(qū)動(dòng)自身行動(dòng)并解決道德難題時(shí)就是負(fù)責(zé)任的。薩林斯的觀點(diǎn)具有合理性,但是他的A-I-R分析框架并不是必要的。盡管薩林斯為自主性、意向性、負(fù)責(zé)任填充了工程學(xué)內(nèi)容,但是他的證明還是預(yù)設(shè)了人工智能配享倫理身份所需的形式與人類道德行動(dòng)者所需是等同的。只要程序能夠模擬成為道德行動(dòng)者所需的形式,那么人工智能就是道德行動(dòng)者。薩林斯的證明仍是自上而下的,人工智能若是道德行動(dòng)者也不過(guò)是人類道德行動(dòng)者的“模仿者”。實(shí)際上,當(dāng)薩林斯舉例說(shuō)護(hù)理機(jī)器人盡到護(hù)理職責(zé)就是道德行動(dòng)者時(shí),就已經(jīng)為我們指出了一條新的研究路徑。盡責(zé)實(shí)際上是護(hù)理行動(dòng)的集合,機(jī)器人是通過(guò)護(hù)理行動(dòng)成為負(fù)責(zé)任的道德行動(dòng)者的。而且在經(jīng)驗(yàn)世界的道德責(zé)任判定之中,物理行為也往往比道德意向更重要。[4]因而,我們無(wú)須預(yù)設(shè)一個(gè)A-I-R研究框架,而可以用一種現(xiàn)象學(xué)還原的方法揭示人工智能的行動(dòng)本質(zhì),從人工智能的行動(dòng)之中去演繹出人工智能的倫理身份究竟為何。

3.人工智能是道德行動(dòng)者而人類不是

第三類觀點(diǎn),若以自主性為條件,人工智能才是合格的道德行動(dòng)者,而人類不是。即便亞里士多德認(rèn)為人類能夠按照邏各斯的要求行動(dòng),但這并不意味著人類每一次都能按照理性的決議去行事。人類還會(huì)受到欲望、情感的影響,人的肉身也會(huì)受到環(huán)境的極大限制。人工智能至少不會(huì)受到欲望或情感的影響,人工智能實(shí)體或是存在于虛擬空間或是擁有對(duì)環(huán)境的極大適應(yīng)性,他們才能夠按照嚴(yán)密的算法指令通過(guò)自主學(xué)習(xí)實(shí)現(xiàn)真正的自主行動(dòng)。相比之下,人類則因?yàn)榉N種限制與規(guī)約常常處于一種不穩(wěn)定的道德?tīng)顟B(tài)。約瑟夫·埃米爾·納多(Nadeau Joseph Emile)就持這種觀點(diǎn)。在他看來(lái),若以自主性為標(biāo)準(zhǔn),只有遵守嚴(yán)格的邏輯定理的行動(dòng)者才可以被認(rèn)作具有真正的自主性,顯然人工智能才可以做到這一點(diǎn)。更要緊的是,如果人類的行動(dòng)自主性來(lái)自中世紀(jì)哲學(xué)家所宣稱的自由意志,而至今為止自由意志都無(wú)法被證實(shí)是否實(shí)在的話,人類就更談不上是道德行動(dòng)者了?;诖?,納多得出了一個(gè)驚人的結(jié)論:人工智能才是地球上第一批道德行動(dòng)者。[5]

納多實(shí)際上是從邏輯實(shí)證主義的角度來(lái)看待人類自主性的,代表人類自主性的自由意志既不能被經(jīng)驗(yàn)證實(shí)也不能被分析,人類自主性實(shí)際上是邏輯實(shí)證主義所拒斥的假的形而上學(xué)知識(shí)。而且,倫理學(xué)本身就會(huì)因不同的價(jià)值取向而存在旨向相悖的道德律令,也沒(méi)有一套可以適用于全人類的倫理學(xué)說(shuō)。納多的此種看法實(shí)際上是對(duì)倫理學(xué)本身的不解。盡管納多的結(jié)論難以為我們所接受,但是,他的結(jié)論卻為我們揭示了一個(gè)更重要的問(wèn)題:按照嚴(yán)格倫理邏輯行動(dòng)的人工智能如果在行動(dòng)過(guò)程中遇到指令沖突怎么辦?在人工智能的道德判斷之中,自身與人類實(shí)體何者價(jià)值更高?還有一些典型的倫理困境,如智能汽車(chē)在面臨電車(chē)難題時(shí)如何抉擇?這一系列關(guān)涉主體價(jià)值的問(wèn)題,還需我們先把人工智能的倫理身份做好充分的論證才能夠進(jìn)一步說(shuō)明。

4.人工智能是集體責(zé)任的混合代理人

紐豪斯·克里斯蒂安(Neuh?user Christian)從集體責(zé)任的角度說(shuō)明了人工智能的倫理身份。他用前瞻性責(zé)任一詞來(lái)表明人工智能與人類處于一種集體責(zé)任的鏈條之中。這種前瞻性責(zé)任可以獨(dú)立建構(gòu)而不必追問(wèn)是誰(shuí)造成了什么損害如何負(fù)責(zé)??死锼沟侔惨葬t(yī)院中的智能機(jī)器為例,智能機(jī)器往往被用來(lái)協(xié)助醫(yī)師團(tuán)隊(duì)以達(dá)到最佳的治療效果。在此意義上,人工智能的運(yùn)用就促進(jìn)了一種共同善。因此,克里斯蒂安把人工智能視作是集體責(zé)任中具有相對(duì)自主行動(dòng)能力的混合代理人(Hybrid Agents)。[6]

克里斯蒂安的看法對(duì)把握人工智能的倫理身份具有啟示性,他沒(méi)有以人類道德行動(dòng)能力作為獲得倫理身份的條件,而把人工智能與人類所共同面臨的集體責(zé)任作為人工智能的責(zé)任來(lái)源。但是克里斯蒂安把人工智能作為集體責(zé)任的混合代理人,似乎把人工智能視作是與人類平級(jí)的責(zé)任主體。人類責(zé)任是自明的,人工智能的責(zé)任是否實(shí)在以及如何證得則是非常困難的。而且,假如某個(gè)社群的個(gè)體只是為著自己的目標(biāo)而行動(dòng),這個(gè)種群仍然會(huì)形成由個(gè)體行動(dòng)集合而成的共同結(jié)果。但是這種情況下,每個(gè)行動(dòng)者只需要為自己的行動(dòng)負(fù)責(zé),而不需要為集體負(fù)責(zé)。[7]人工智能和人類完全可能只按照自己的目標(biāo)去行動(dòng)卻也取得一個(gè)共同善的結(jié)果,而不需要考慮自身是否負(fù)有集體責(zé)任的一部分。克里斯蒂安的論證顯然也不夠充分??死锼沟侔脖M管沒(méi)有正確分析出人工智能的倫理身份,但卻為我們提供了一個(gè)新的視角,他把人工智能與人類視作同一(集體)責(zé)任鏈條上的兩個(gè)主體,默認(rèn)了人工智能與人處在一種責(zé)任關(guān)系之中,實(shí)際上是從人工智能與人類的關(guān)系來(lái)思考人工智能的倫理身份。

5.啟示

在上述四種關(guān)于人工智能的倫理身份的哲學(xué)觀點(diǎn)之中,我們可以歸結(jié)出兩種研究人工智能倫理身份的分析路徑。第一種是以薩林斯為代表的從人格化的道德行動(dòng)能力(Personal Moral Agency)自上而下地展開(kāi)人工智能倫理身份研究的進(jìn)路,下面簡(jiǎn)稱PMA研究進(jìn)路。以人格化的道德行動(dòng)能力作為界定人工智能的倫理身份標(biāo)準(zhǔn)的方法并不充分,因?yàn)榇朔N路徑預(yù)設(shè)了人工智能是人類道德行動(dòng)能力的分有者,人工智能的行動(dòng)能力在何種程度上與人類相似,人工智能就分有何種程度的人類道德行動(dòng)者的倫理身份。此種研究路徑不過(guò)是自問(wèn)自答。第二種是克里斯蒂安提供的關(guān)系進(jìn)路,即人工智能與人類處于何種關(guān)系之中?但是,一旦我們?nèi)缈死锼沟侔差A(yù)設(shè)了這一問(wèn)題的看法,人工智能的倫理身份的答案也將被包含在其中。因?yàn)槿绱艘粊?lái),人工智能的倫理身份至少是與具有倫理主體地位的人類相關(guān)的某個(gè)實(shí)體,人工智能或是作為道德行動(dòng)者的人類的附庸,這亦是一種循環(huán)論證。總之,接下來(lái),我將懸置前述人工智能的倫理身份研究中對(duì)人工智能的前見(jiàn)信仰和使人工智能遁入意識(shí)后臺(tái)的因素,采取一種現(xiàn)象學(xué)還原的態(tài)度以直面人工智能的倫理身份本身。就如上海交大的助理教授劉錚所言:“要想揭示出現(xiàn)代技術(shù)的本質(zhì)面目以及它在人的知覺(jué)(意識(shí))體驗(yàn)行為中所扮演的角色問(wèn)題,就必須借助于現(xiàn)象學(xué)本質(zhì)還原的方法?!保?]人類是通過(guò)與人工智能的“在手”或“上手”狀態(tài),和人工智能不斷照面的過(guò)程中,形成人與人工智能的基本關(guān)系。與這種現(xiàn)象學(xué)還原的方法所契合的正是前文我們從薩林斯那得到的啟示:從人工智能的責(zé)任行動(dòng)中自下而上地還原人工智能的行動(dòng)本質(zhì),并一步澄明人工智能的倫理身份為何,人工智能與人類處于何種關(guān)系之中?通過(guò)此種現(xiàn)象學(xué)分析方法,我們可以避開(kāi)為人工智能“預(yù)設(shè)身份”的危險(xiǎn),進(jìn)而澄明人工智能在我們的意識(shí)中所配享的倫理身份。

二、人工智能的行動(dòng)分析

當(dāng)我們以現(xiàn)象學(xué)方法來(lái)考察人工智能的行動(dòng)時(shí),這個(gè)行動(dòng)又指的是什么呢?而且行動(dòng)背后似乎總有一個(gè)制動(dòng)因,若沒(méi)有一個(gè)起因在,行動(dòng)似乎只能被稱之為是單純的物理事件。接下來(lái),我將先揭示一般行動(dòng)的本質(zhì)結(jié)構(gòu),繼而從人工智能作用于人類與世界的實(shí)踐活動(dòng)中尋找人工智能的行動(dòng)原理。

1.一般意義上的行動(dòng)問(wèn)題分析

(1)還原論的行動(dòng)定義

行動(dòng)問(wèn)題似乎可以等同為人類行動(dòng)問(wèn)題,因?yàn)槠渌锏男袆?dòng)往往被冠之以本能使然。就如亞里士多德所總結(jié)的那樣,“如果想一想動(dòng)物行動(dòng)的原因或本原,我們不會(huì)僅僅歸之于它們的感覺(jué)——視覺(jué)、聽(tīng)覺(jué)、味覺(jué)等,而是歸結(jié)為由這些匯聚而成的總體的欲望?!保?]動(dòng)物由于沒(méi)有思考能力,他們的行動(dòng)似乎可以歸結(jié)為本能的欲求所致。人類行動(dòng)則不然,反而因其復(fù)雜性上升為當(dāng)代哲學(xué)的新論題。關(guān)于行動(dòng),維特根斯坦曾提過(guò)一個(gè)著名的比喻:如果我從我舉起的手臂這一事實(shí)中減去我的手臂抬起了這一事實(shí),那還剩下什么呢?[10]順著維氏的思路,似乎就只剩下一個(gè)“主體我”存在。于是,關(guān)于行動(dòng)的解釋框架似乎可以被歸結(jié)為一種還原論的邏輯式:行動(dòng)就是身體運(yùn)動(dòng)加上X。[11]而這個(gè)X或被解釋為是意愿或被解釋為是信念,而無(wú)論是意愿、信念還是其他什么,似乎又可以被歸結(jié)為“心靈”的屬性。于是我們可以看到,近代以來(lái)的身心問(wèn)題在當(dāng)代有了新的形式。

由于心靈與行動(dòng)并非總是符合的,因此上述定義總是遇到“異常因果鏈”的責(zé)難。唐納德·戴維森(Donald Davidson)曾舉例:一名正面臨壓力的登山運(yùn)動(dòng)員,彼時(shí)同一根繩索上掛著的隊(duì)友使自己處于危險(xiǎn)的境地。如果他松開(kāi)繩索就能克服當(dāng)前的危險(xiǎn),但這會(huì)使得隊(duì)友墜崖。正是處于這種不安的心境之中,他慌忙中松了手,釀成了悲劇。[12]可見(jiàn),源自心靈的欲念或者信念無(wú)法成為行動(dòng)的充分條件。

(2)對(duì)異常因果鏈的反駁

由于上述異常因果鏈的責(zé)難,行動(dòng)的定義似乎遇到了問(wèn)題,但是這并非就表明了行動(dòng)定義的還原論路徑的失敗。在我看來(lái),這是戴維森對(duì)異常所導(dǎo)致的行動(dòng)前件變異的忽視。我將用一些等式來(lái)表征行動(dòng),以幫助我們厘清戴維森的問(wèn)題所在。首先,我將沿用一種符合直覺(jué)的描述性的行動(dòng)定義,把行動(dòng)(Action)定義為心智(Mind)在起作用的主體(Subject)加事件(Incident),表達(dá)式為A(H)=S(M)+I(H),括號(hào)里的H意指人類主體(human),S(M)指心智正在起作用的主體;等式左邊為主項(xiàng),指明主體身份,右邊是謂項(xiàng),共享主項(xiàng)的主體身份,以下都采用首字母縮寫(xiě);“+”號(hào)表示心智與事件的同時(shí)在場(chǎng)以及心智與事件之間呈現(xiàn)的松散的意向性(Intention)關(guān)系。事件(Incident)由身體(Body)與運(yùn)動(dòng)(Move)構(gòu)成,事件的一般表達(dá)式為I(H)=S(B)+S(Move)。事件表達(dá)式中的“+”仍然表示某種意向性,不過(guò)不是來(lái)自心智的,而是身體的意向性,這里的身體意向性類似于手投向手柄,神經(jīng)生物電對(duì)肢體的關(guān)系。之所以說(shuō)行動(dòng)定義中的心智(Mind)對(duì)事件(Incident)只具有松散的意向性關(guān)系,筆者將借由對(duì)戴維森的異常因果鏈的反駁而給出說(shuō)明。在戴維森的登山者事例中,心智與行動(dòng)不匹配并非說(shuō)明心智與行動(dòng)的因果關(guān)系失效。因?yàn)樵谀欠N情況下,對(duì)行動(dòng)的做出起重大影響的不是心智,而是身體的變化。這種身體變化是如此微小,以至于在戴維森追究行動(dòng)的原因之時(shí)對(duì)其忽略了。但是這種身體變化的追究又是如此重要,因?yàn)樗攀亲罱K的松手行動(dòng)的前件。正如戴維森所言,高空中的登山運(yùn)動(dòng)員由于時(shí)刻面臨著險(xiǎn)境而處于一種不安的狀態(tài),而這種不安的狀態(tài)可能會(huì)使得我們的心智計(jì)算無(wú)法與神經(jīng)元的傳導(dǎo)速度同頻,從而給運(yùn)動(dòng)員帶去身體上如出汗、顫抖等微反應(yīng),身體的這種微反應(yīng)進(jìn)一步可能會(huì)導(dǎo)致登山者攀登時(shí)產(chǎn)生偏斜、下墜的運(yùn)動(dòng),最終做出了松手這個(gè)行動(dòng)。而此時(shí),心智可能并沒(méi)有放棄原有的渴求,仍然傳達(dá)著抓緊繩子的意向。但由于此刻的心智意向跟不上應(yīng)激狀態(tài)下神經(jīng)生物電對(duì)肢體下指令的速度,最終不自覺(jué)地松了手。因此,心智與事件只是一種松散的意向性關(guān)系,我們可以從心智之中招致一個(gè)具有相關(guān)性的事件,但與心智同時(shí)在場(chǎng)的那個(gè)事件并非一定由心智所帶出。而在事件中,身體與運(yùn)動(dòng)之間同樣存在某種意向性,正如梅洛·龐蒂所言,身體的認(rèn)識(shí)“大概也是第一位的,我的身體有自己的世界,或者理解自己的世界,無(wú)須經(jīng)過(guò)我的‘表象’或‘客體化的功能’?!保?3]在戴維森的例子中,登山運(yùn)動(dòng)員的手正是由隱藏在心智背后作為運(yùn)動(dòng)的背景的身體認(rèn)知所操控做出的行動(dòng),而不安或者應(yīng)激狀態(tài)下的神經(jīng)生物電構(gòu)成了這種隱蔽的運(yùn)動(dòng)背景的下的身體認(rèn)知的基礎(chǔ)。也因此,由身體與運(yùn)動(dòng)構(gòu)成的事件并非主觀的,而很大程度上受到環(huán)境的影響?,F(xiàn)在,說(shuō)明了事件的表達(dá)式I(H)=S(B)+S(Move),行動(dòng)的一般表達(dá)式A(H)=S(M)+I(H)又可以表達(dá)為A(H)=S(M)+S(B)+S(Move),至于這個(gè)等式中的兩個(gè)“+”如何作用及關(guān)聯(lián),我們可以放到具體的情景中去分析,至少我們可以確定兩種意向性的在場(chǎng)。

對(duì)于行動(dòng)中兩種意向性如何作用、心智與行動(dòng)的關(guān)系問(wèn)題,我們可以通過(guò)表征戴維森的異常因果鏈中的行動(dòng)來(lái)更好地厘清這個(gè)問(wèn)題。接下來(lái),本文將把一般行動(dòng)的表達(dá)式作變形。我們先用單引號(hào)“’”表示異常,異常行動(dòng)(Abormal Action)用 A(H)’類表示,異常事件(Abormal Incident)用 I(H)’表示,異常行動(dòng)的表達(dá)式為A(H)’=S(M)+I(H)’。我們可以看到主體的心智S(M)仍然存在且未變,仍然意向著某種行動(dòng)。問(wèn)題出在異常事件部分,登山運(yùn)動(dòng)員由于險(xiǎn)境導(dǎo)致了不安,身體出現(xiàn)了如出汗、顫抖的微反應(yīng),記為S(B)’;身體對(duì)環(huán)境的這種微反應(yīng)又促成了身體的意向“+”的現(xiàn)身,導(dǎo)致身體出現(xiàn)如偏斜、失控等異常運(yùn)動(dòng),記為S(Move)’,那么異常事件的表達(dá)式為I(H)’=S(B)’+S(Move)’。因此,我們可以清楚地看到,異常因果鏈的責(zé)難實(shí)際上是把與環(huán)境關(guān)聯(lián)的作為行動(dòng)的隱蔽的背景的身體意向全部還原給心智,而忽略了行動(dòng)的前件并不再是心智所意向的那個(gè)行動(dòng),而是異常環(huán)境中身體意向所投向的運(yùn)動(dòng)。往往,基于生物電的這種隱蔽的身體意向比心智意向更基礎(chǔ),更強(qiáng)力。至此筆者給出了行動(dòng)的一般定義與表達(dá)式,并將連同異常行動(dòng)的等式一并列出,以便查詢:

一般事件的表達(dá)式為I(H)=S(B)+S(Move),

以人類為例,一般行動(dòng)的表達(dá)式為A(H)=S(M)+I(H)=S(M)+S(B)+S(Move)

異常事件的表達(dá)式為 I(H)’=S(B)’+S(Move)’,

以人類為例,異常行動(dòng)表達(dá)式為 A’=S(Mind)+I(H)’=S(Mind)+S(B)’+S(Move)’

在使用行動(dòng)的一般定義之前,還要給出兩點(diǎn)補(bǔ)充說(shuō)明:

①當(dāng)我們自身之中由心智出發(fā)的意向性足以統(tǒng)攝環(huán)境,并且身體意向不會(huì)繞過(guò)心智意向而提前調(diào)動(dòng)身體時(shí),心智主導(dǎo)身體的因果關(guān)系式的運(yùn)動(dòng)是可能的,行動(dòng)的還原論定義是有效的。

②當(dāng)心智及其意向性被環(huán)境促成的身體意向搶先時(shí),心靈對(duì)身體的調(diào)動(dòng)就失效了,盡管此時(shí)產(chǎn)生自心智的意向性仍然有著自己的渴求。但是,此時(shí)起支配作用的是偏向身體實(shí)踐的身體意向。當(dāng)身體比心理更早地知覺(jué)到異常時(shí),就像動(dòng)物的感官往往能比人類更好地預(yù)知危險(xiǎn)的靠近,往往是環(huán)境促成的身體意向?qū)θ说男袆?dòng)起更大影響。此時(shí)的心智主導(dǎo)身體運(yùn)動(dòng)的還原論定義是失效的,心靈與身體各自有著不同的朝向。

2.人工智能的行動(dòng)機(jī)制分析

(1)人工智能沒(méi)有身體意向性

根據(jù)一般行動(dòng)的定義等式,我們可以把人工智能代入其中,以說(shuō)明人工智能的行動(dòng)原理。上面我們已經(jīng)提到謂項(xiàng)跟著主項(xiàng)變,現(xiàn)在的行動(dòng)主體是AI,那么人工智能的行動(dòng)表達(dá)式為A(AI)=S(M)+I(AI),人工智能的事件就表達(dá)為I(AI)=S(B)+S(Move),這里的身體與運(yùn)動(dòng)都指的是人工智能主體的。人工智能的行動(dòng)機(jī)制又表達(dá)為A(AI)=S(M)+S(B)+S(Move)。波士頓動(dòng)力公司的機(jī)器人能夠跑跳、后空翻等等無(wú)疑是人工智能實(shí)體的身體運(yùn)動(dòng);人工智能作為一種虛擬系統(tǒng),其對(duì)代碼、算法、系統(tǒng)等的自主編寫(xiě)、開(kāi)發(fā)、調(diào)試等亦是一種無(wú)形的運(yùn)動(dòng),此時(shí),人工智能系統(tǒng)的硬件載體也會(huì)通過(guò)發(fā)光、旋轉(zhuǎn)、發(fā)出轟鳴表明這一運(yùn)動(dòng)的在場(chǎng)。然而,人工智能有否身體意向卻是值得懷疑的。因?yàn)槿斯ぶ悄芘c人類身體的構(gòu)造截然不同,沒(méi)有了一種梅洛·龐蒂意義上的向世界開(kāi)放的肉身,更不用說(shuō)以軟件系統(tǒng)形式存在于虛擬空間的人工智能,沒(méi)有了實(shí)體肉身形態(tài)不會(huì)具有身體意向。因此,人工智能的身體與運(yùn)動(dòng)之間不具有一種可以稱得上是身體意向性的東西。人工智能的事件表達(dá)式就得取消象征身體意向性的符號(hào)“+”,而取表示“與”的邏輯符號(hào)“∧”來(lái)象征人工智能身體與運(yùn)動(dòng)的同時(shí)在場(chǎng),那么人工智能的事件表達(dá)式就應(yīng)該修改為I(AI)=S(B)∧S(Move),人工智能的行動(dòng)表達(dá)式就變?yōu)锳(AI)=S(M)+S(B)∧S(Move)=S(M)+I(AI)。既然人工智能沒(méi)有身體意向性,對(duì)照上一小節(jié)末尾一般行動(dòng)機(jī)制的補(bǔ)充說(shuō)明,我們可以發(fā)現(xiàn)人工智能的行動(dòng)是純粹的心智主導(dǎo)身體運(yùn)動(dòng)的行動(dòng),人工智能的行動(dòng)是完全符合行動(dòng)的還原論定義的?,F(xiàn)在,只剩下謂項(xiàng)S(M),即人工智能的心智問(wèn)題尚未澄清,只要求解人工智能的心智為何就得以進(jìn)一步解碼人工智能究竟是如何行動(dòng)的。

(2)誰(shuí)之心智,何種合理性?

現(xiàn)在我們已知人工智能的行動(dòng)表達(dá)式為A(AI)=S(M)+S(B)∧S(Move),只要求解人工智能的心智S(M)就可以破解人工智能的行動(dòng)問(wèn)題。但是,如果我們照此追問(wèn)下去,而不反思前提的話,我們就很容易遭到一類質(zhì)疑:我們既然是在追問(wèn)行動(dòng)問(wèn)題,如何又追問(wèn)到行動(dòng)者身上去了?我們以人類行動(dòng)機(jī)制演繹人工智能的行動(dòng)機(jī)制,難道不是落入到我們先前所反對(duì)的PMA進(jìn)路中以人類的道德行動(dòng)能力來(lái)解釋人工智能的倫理身份的窠臼中去了嗎?下面筆者將先給出這一質(zhì)疑的解答,否則人工智能的行動(dòng)分析無(wú)以為繼。

我們?cè)谛袆?dòng)進(jìn)路中追問(wèn)人工智能的“心靈”,關(guān)鍵在于追問(wèn)人工智能的“心靈”為何種實(shí)體?這種追問(wèn)之所以不是回到PMA研究進(jìn)路,是因?yàn)槿斯ぶ悄艿摹靶撵`”與人類心靈絕不是同一類實(shí)體的不同樣式,而根本上就是兩類實(shí)體,我們或可以稱其為行為引導(dǎo)系統(tǒng)。指稱其為“心靈”,僅旨在說(shuō)明這種“心靈”在驅(qū)動(dòng)主體行動(dòng)的能力上與人類心靈有著一致性。圖靈測(cè)試與中文屋試驗(yàn)就充分說(shuō)了這一點(diǎn)。如果我們站在計(jì)算主義的角度,把能通過(guò)圖靈測(cè)試的算法系統(tǒng)作為人工智能的“心靈”的話,那么這種“心靈”只是遵循形式化的推理程序及指令集的,它并不能像人類心靈一樣對(duì)定理證明的過(guò)程進(jìn)行數(shù)學(xué)之外的控制,而僅僅提供一種操作指令的符號(hào)系統(tǒng)。[15]也即是說(shuō),人工智能的“算法心靈”(Algorithmic Mind)只是在驅(qū)動(dòng)主體行動(dòng)的效用上與人類心靈等同。同時(shí),也不能像一些激進(jìn)主義者,把人類心靈看作是算法及其同構(gòu)形式系統(tǒng)在物理系統(tǒng)中被落實(shí)的結(jié)果。[16]這樣做則是把人類心靈視作是算法的同類形式,實(shí)際上是預(yù)設(shè)了算法才是真正的心靈所需要的條件,人類心靈倒成了算法的模仿物。總之,人工智能的“心靈”與人類心靈絕不是同類實(shí)體,而至多只是與人類心靈在驅(qū)動(dòng)主體行動(dòng)的效用上有著相似性,因此追問(wèn)人工智能的“心靈”并不是退回到我們所批判的PMA研究路徑。

(3)人工智能的心智組成

人工智能的“心靈”僅僅是操作指令式的嗎?即便人工智能的算法心靈僅僅是操作指令意義上的,那也是建立在能夠自主執(zhí)行的基礎(chǔ)之上,否則就不稱其為智能,而淪為遙控機(jī)器。實(shí)際上,人工智能的“算法心靈”也是具有意向性的。我們不妨來(lái)先看一些事例。

2019年10月刊于《柳葉刀數(shù)字衛(wèi)生》的一篇論文宣稱,人工智能能夠像專業(yè)醫(yī)生一樣診斷疾病,甚至確診率高于人類醫(yī)生。[17]就提高就診率而言,自然對(duì)人類來(lái)說(shuō)是善的。而且,人工智能醫(yī)生帶來(lái)的道德效果不止如此,它們的運(yùn)用還能一定程度上緩和現(xiàn)有醫(yī)患矛盾,因?yàn)楝F(xiàn)有的醫(yī)患矛盾歸根結(jié)底還是人與人之間的沖突。而人工智能醫(yī)生使得人類醫(yī)生無(wú)須直接面向患者,保障了醫(yī)生可能遭遇的患者或者其家屬帶來(lái)的生命威脅。在這個(gè)事例中,我們可以發(fā)現(xiàn),人工智能醫(yī)生身上原本就有人類委托的道德意向存在,人工智能的設(shè)計(jì)總是包含著人類的某種內(nèi)含善的目的性追求。也許人工智能醫(yī)生的設(shè)計(jì)初衷僅僅是提高就診率,結(jié)果卻給我們帶來(lái)了在醫(yī)患倫理方面預(yù)想不到的道德效果。可見(jiàn),人工智能不僅代理人類的道德意向,而且能通過(guò)自身行動(dòng)帶來(lái)一些讓人意想不到的道德效果。

實(shí)際上,人工智能被委托的人類道德意向還會(huì)經(jīng)歷一個(gè)轉(zhuǎn)化的過(guò)程。經(jīng)過(guò)人工智能的自主學(xué)習(xí),最初被委托的人類道德意向會(huì)逐漸轉(zhuǎn)化成為算法意向。也許一開(kāi)始表征行動(dòng)的算法只是告訴人工智能不應(yīng)做什么和應(yīng)當(dāng)做什么,例如前不久滴滴打車(chē)出臺(tái)的順風(fēng)車(chē)新規(guī)定,晚上八點(diǎn)之后不載女性用戶。如果一個(gè)分配用戶的打車(chē)人工智能系統(tǒng)被輸入了表征這一準(zhǔn)則的代碼,久之,這個(gè)打車(chē)人工智能系統(tǒng)可能會(huì)推理出一種女性用戶乘車(chē)時(shí)間更少、盈利率更低,女性用戶是低價(jià)值用戶的群體畫(huà)像。如果盈利是比上述晚上八點(diǎn)不載女性用戶的算法語(yǔ)句更為根本的源代碼,那么,女性很有可能在打車(chē)時(shí)需要承擔(dān)比男性花費(fèi)更多的排位次序以及候車(chē)時(shí)間的結(jié)果。滴滴順風(fēng)車(chē)的條例很快得到了修改,而谷歌的廣告系統(tǒng)卻已然學(xué)會(huì)了算法歧視。據(jù)卡內(nèi)基梅隆大學(xué)研究人員阿米特·達(dá)塔的研究顯示,“年薪20萬(wàn)美元的以上職位”的谷歌廣告,更偏向于推送給男性用戶,而女性用戶收到這一高薪職位推送的機(jī)會(huì)僅僅是男性的六分之一。[18]可見(jiàn),人工智能的“算法心靈”會(huì)從人類賦值的原始語(yǔ)句中學(xué)習(xí)到隱藏在操作指令背后的人類對(duì)某些群體的結(jié)構(gòu)性偏見(jiàn)與歧視。[19]由于人工智能的自主學(xué)習(xí)僅僅是基于句法形式而無(wú)法領(lǐng)會(huì)句子的語(yǔ)義,人工智能將比人類更容易形成“思維定勢(shì)”,這種“思維定勢(shì)”即是算法意向性的體現(xiàn)。另外還要強(qiáng)調(diào)一點(diǎn),算法意向性并不是僅僅指算法歧視,這只是算法意向性中可能出現(xiàn)的問(wèn)題。假若我們?cè)谌斯ぶ悄艿摹八惴ㄐ撵`”中輸入“幫助需要幫助的人類”,人工智能也很有可能通過(guò)自主學(xué)習(xí),推理出“如果自身能夠幫助人類取得更好的結(jié)果,那么自身就應(yīng)該幫助人類獲得超出人類能力范圍的結(jié)果”,如此人工智能也有可能成為一個(gè)司職份外行為的幫助者角色??傊?,人工智能的算法意向性是價(jià)值中立的,且與人類最初寄托的道德意向也并非邏輯一貫的,因此人工智能的行動(dòng)不是完全受人類控制的,而具有相對(duì)自主性。

至此筆者已說(shuō)明了人工智能的心智S(M)的組成:最初,人工智能的“算法心靈”是人類委托的道德意向,經(jīng)過(guò)自主學(xué)習(xí)最終形成算法意向(Algorithmic Intention)。我們可以用圖1來(lái)說(shuō)明:

圖1 人工智能的“算法心靈”

但是,有一點(diǎn)我們需要注意,人工智能的心靈,我們不能再用S(M)表示。S(M)原本用來(lái)表示主體的心靈,但是現(xiàn)在人工智能的“心靈”,其一與人類心靈不是同種實(shí)體;其二組成成分較為復(fù)雜,既有聽(tīng)從于人類的道德意向,又有相對(duì)自主的算法意向性。因此,不宜再用表示“心靈”的Mind指稱人工智能的心智。我們用人工智能的心智的組成部分人類意向性(Human Intention)與算法意向性(Algorithmic Intention)的縮寫(xiě)來(lái)表示,即HI∧AI。人工智能的心智用S(HI∧AI)來(lái)表示,其中人類意向性與算法意向性并不是完全一致的,有些源代碼是符合人類道德意向的,有些經(jīng)過(guò)自主學(xué)習(xí)得來(lái)的算法意向則可能與人類意向有所偏離,因而人工智能的行動(dòng)具有相對(duì)自主性。人工智能的行動(dòng)表達(dá)式為A(AI)=S(HI∧AI)+S(B)∧S(Move)。至此,我就給出了人工智能的行動(dòng)機(jī)制的最終表達(dá),且由于人工智能沒(méi)有身體意向性,人工智能的行動(dòng)是符合心智主導(dǎo)身體運(yùn)動(dòng)的因果鏈?zhǔn)奖磉_(dá)的。

(4)小結(jié)

現(xiàn)在,既然我們已經(jīng)得到了人工智能的行動(dòng)原理,我們可以發(fā)現(xiàn),主導(dǎo)人工智能的行動(dòng)的是由人類意向和算法意向組成的人工智能心智。而且,人工智能在行動(dòng)中一開(kāi)始就被委托了人類的道德意向。因此,人工智能的行動(dòng)就不是在“被準(zhǔn)許”的意義上的行動(dòng),而是在“被委托”的意義上去行動(dòng)。人類在他們身上委托了一些倫理愿望,反過(guò)來(lái),人工智能代理了人類的道德意向。因此在人工智能的行動(dòng)機(jī)制的分析中,我們似乎解譯了由克里斯蒂安揭示的人工智能倫理面臨的根本性問(wèn)題——人工智能與人類的關(guān)系問(wèn)題,人工智能與人類的關(guān)系是道德代理關(guān)系,人類對(duì)人工智能是委托關(guān)系。既然人工智能與人類存在著道德代理關(guān)系,那么他們也理應(yīng)可以稱之為道德代理人。

三、人工智能是道德代理人

道德代理人與道德行動(dòng)者指稱都是翻譯自moral agent一詞,且道德代理人并非一種全新的倫理指稱而早已為環(huán)境倫理學(xué)所使用。如果我們要使用道德代理人來(lái)指稱人工智能還要判定人工智能是否符合道德代理人的含義。

1.道德代理人的起源與用法

道德代理人本是環(huán)境倫理學(xué)領(lǐng)域用來(lái)指稱具有道德代理能力的行動(dòng)主體的。與道德代理人相對(duì)應(yīng)的是作為客體的自然界,自然具有固有價(jià)值。作為行動(dòng)主體的道德代理人需要對(duì)具有固有價(jià)值的自然界負(fù)有不傷害、不干涉和保持忠誠(chéng)的責(zé)任。當(dāng)環(huán)境倫理學(xué)的道德律令與人際倫理的道德律令沖突且人類道德代理人優(yōu)先選擇了后者時(shí),人類道德代理人需要履行補(bǔ)償正義的原則以促進(jìn)自然整體的善??梢?jiàn),道德代理人概念在環(huán)境倫理學(xué)中至少包含兩層含義:(1)道德代理人是為客體負(fù)責(zé)的行動(dòng)主體;(2)因客體具有價(jià)值,故道德代理人也是客體的價(jià)值守護(hù)者。

環(huán)境倫理學(xué)家在界定道德代理人時(shí)給出的最主要的條件是具備道德思考、權(quán)衡道德行動(dòng)的能力,但卻沒(méi)有排除非人實(shí)體作為道德代理人的可能性,而把其視作無(wú)須證實(shí)的經(jīng)驗(yàn)問(wèn)題。[20]保羅·泰勒對(duì)此給出了兩重理由:一是因?yàn)椴⒎撬腥祟惗际堑赖麓砣?,病患、兒童就無(wú)法成為道德代理人而僅是道德主體;二是有些動(dòng)物能夠清楚地意識(shí)到自身對(duì)種群負(fù)有的責(zé)任。這樣的理由顯然并不能夠證實(shí)動(dòng)物也符合道德思考、權(quán)衡行動(dòng)的條件。但是,在我看來(lái),道德思考、權(quán)衡行動(dòng)仍然是從人類道德代理人身上歸納出的經(jīng)驗(yàn)條件,并不具有最一般的意義。如果我們結(jié)合行動(dòng)路徑去理解泰勒的第二種說(shuō)法時(shí),動(dòng)物成為道德代理人就不難理解。有些高智商動(dòng)物本能地會(huì)采取一些行動(dòng)為族群帶來(lái)福祉。當(dāng)虎鯨群在使用計(jì)謀制造陷阱聯(lián)合絞殺獵物時(shí),他們就是在為群體帶來(lái)共同善,他們至少是自身種群的道德代理人。既然環(huán)境倫理學(xué)家給非人實(shí)體的一些動(dòng)物都留下了作為道德代理人的理論空間,我們也不用完全因襲環(huán)境倫理學(xué)中的道德代理人的條件。那么,我們可以從較為寬泛的意義上來(lái)給出道德代理人的一般概念:當(dāng)實(shí)體x能夠通過(guò)普遍的自主行動(dòng)為非x實(shí)體代理風(fēng)險(xiǎn)并守護(hù)其價(jià)值時(shí),x就可以稱之為是非x實(shí)體的道德代理人。

2.人工智能是道德代理人的含義

但是,當(dāng)我們?cè)诟鼘挿旱囊饬x上使用道德道德代理人概念時(shí),往往會(huì)遭到一些質(zhì)疑。如果一個(gè)實(shí)體只要通過(guò)普遍的自主行動(dòng)為非自身的實(shí)體化解風(fēng)險(xiǎn)并守護(hù)其價(jià)值就可以被視作是道德代理人,那么幾乎任何實(shí)體都可以稱之為道德代理人了。當(dāng)一件防彈衣旨在為人類減少致命攻擊的風(fēng)險(xiǎn)時(shí),這件防彈衣豈不就是道德代理人了?然而我在這里要強(qiáng)調(diào)的是,道德代理人至少是一個(gè)行動(dòng)者,防彈衣顯然只能隸屬于無(wú)法自主行動(dòng)的技術(shù)人工物范疇,應(yīng)該有另外的倫理身份。還有一些人認(rèn)為某類動(dòng)物是符合道德代理人定位的,比如寵物狗。寵物狗不僅能代理人類的道德意向,提供觀賞、陪伴、看護(hù)、導(dǎo)盲和娛樂(lè)等價(jià)值,還能為人類提供情感寄托。他們與人工智能相比反倒更像一個(gè)道德代理人。但是,在道德代理人的一般定義中我們已經(jīng)強(qiáng)調(diào)了道德代理人的責(zé)任行動(dòng)的普遍性,寵物狗的道德行動(dòng)并不是一種自主的普遍責(zé)任行動(dòng),而是經(jīng)過(guò)規(guī)訓(xùn)與養(yǎng)護(hù)只對(duì)主人有效的特殊行動(dòng),對(duì)于非主人的人類他們很可能會(huì)立馬轉(zhuǎn)換為戰(zhàn)斗姿態(tài)。因此,寵物狗之類的動(dòng)物無(wú)法作為道德代理人,只能算是特定的人類倫理訓(xùn)練的產(chǎn)物。人工智能與寵物狗相比也不會(huì)有遠(yuǎn)近親疏的認(rèn)知差別。還有人認(rèn)為如此道德代理人標(biāo)準(zhǔn)太過(guò)嚴(yán)苛,人類同樣會(huì)因?yàn)殛P(guān)系親疏而有區(qū)別對(duì)待。而且,如果人類是道德代理人豈不是要時(shí)時(shí)刻刻確保自己的行動(dòng)是一種內(nèi)涵善目的的道德行動(dòng)才能確證其責(zé)任行動(dòng)的普遍性。如此行動(dòng)的人豈不是失去了行動(dòng)的自由。尼各馬可倫理學(xué)開(kāi)篇第一句就已經(jīng)向我們表明:“人的每種實(shí)踐與選擇,都以某種善為目的?!比说拿恳环N行動(dòng)都至少包含一些倫理原則,即便人類因親疏關(guān)系而區(qū)別對(duì)待他人,還是有一些底線倫理原則不變的。與陌生人相處示之以尊重、平等,與自己相處示之以慎獨(dú)。因之,上述道德代理人的定義是有效的。

現(xiàn)在當(dāng)我們從上述寬泛意義上的道德代理人定義上來(lái)理解人工智能時(shí),人工智能是符合道德代理人這一定位的。當(dāng)人工智能是道德代理人時(shí),人工智能是行動(dòng)主體,人類是具有固有價(jià)值受人工智能“照護(hù)”的客體。另外,我們已在人工智能的行動(dòng)機(jī)制章中證得人工智能先天就被寄托了人類道德意向,他們的行動(dòng)是被寄予人類倫理愿景的責(zé)任行動(dòng)。不僅如此,當(dāng)強(qiáng)大的人工智能被設(shè)計(jì)為替具有脆弱性的人類承擔(dān)風(fēng)險(xiǎn)時(shí),人工智能就是人類的風(fēng)險(xiǎn)代理者;當(dāng)人工智能幫助人類在復(fù)雜、危險(xiǎn)的行動(dòng)中抽身,并得以保存和促進(jìn)人類的生命、尊嚴(yán)、智慧和自由等價(jià)值時(shí),人工智能就是人類價(jià)值的守護(hù)者?,F(xiàn)在,人工智能作為道德代理人具有兩層含義:一是代理人類道德意向;二是“守護(hù)”人類價(jià)值。

3.道德代理人是人工智能倫理體系的基本單位

最后,讓我們來(lái)回應(yīng)一些關(guān)于責(zé)任問(wèn)題的質(zhì)疑。人工智能無(wú)法負(fù)責(zé)因而無(wú)法成為道德代理主體是最常見(jiàn)的一種質(zhì)疑。對(duì)于這一點(diǎn),弗洛里迪為我們做了清晰的區(qū)分,他認(rèn)為這種觀點(diǎn)的持有者在道德代理人概念上暗含自己也沒(méi)有意識(shí)到的雙重指代功能,即道德代理人被這些質(zhì)疑者認(rèn)為同時(shí)是道德負(fù)責(zé)的代理主體和道德代理主體,真正的錯(cuò)誤就在于他們把道德代理的描述性分析歸結(jié)為責(zé)任分析。[21]再者,人工智能即便是道德代理人且被證明負(fù)有某種前瞻性責(zé)任,但人工智能并不能為預(yù)定行動(dòng)的意外結(jié)果負(fù)責(zé),他們?nèi)绾闻湎韨惱砩矸菽???shí)際上,這仍然是道德行動(dòng)者研究視角所致,因?yàn)檫@種路徑把對(duì)預(yù)定行動(dòng)之外的結(jié)果也看作是要由人工智能來(lái)承擔(dān)的。這種做法實(shí)際上是一種苛求,因?yàn)橐仓挥芯邆涑墒斓睦硇阅芰Φ某赡耆瞬拍茏龅綄?duì)意外結(jié)果負(fù)責(zé)。對(duì)于少年犯罪,我們會(huì)把責(zé)任分散給監(jiān)護(hù)人和少管所等。因此,對(duì)人工智能行動(dòng)中的意外后果,更應(yīng)該從拉圖爾的行動(dòng)者網(wǎng)絡(luò)視角出發(fā),由社會(huì)關(guān)系網(wǎng)絡(luò)中的多重主體如開(kāi)發(fā)者、應(yīng)用者、購(gòu)買(mǎi)者等共同來(lái)承擔(dān),人工智能并不是一種完美行動(dòng)者,人類也是如此。

實(shí)際上,人工智能倫理同環(huán)境倫理一樣是一種責(zé)任倫理。有人把環(huán)境倫理學(xué)解讀為有能力的道德代理人對(duì)無(wú)能力的自然的責(zé)任倫理,[22]在人工智能倫理領(lǐng)域也是如此。當(dāng)能力強(qiáng)大的人工智能幫助具有脆弱性的人類從險(xiǎn)境中抽身,促進(jìn)人類的健康、智慧、尊嚴(yán)等價(jià)值時(shí),人工智能就已經(jīng)做出了相應(yīng)的責(zé)任行動(dòng),人工智能配享道德代理人這一倫理身份。人工智能倫理就是能力強(qiáng)大的人工智能作為道德代理人對(duì)具有脆弱性的人類進(jìn)行“照護(hù)”的一種責(zé)任倫理。當(dāng)人工智能作為人類道德代理人成為一種共識(shí)之后,人類價(jià)值才會(huì)作為第一性的目標(biāo)寫(xiě)入人工智能設(shè)計(jì)的源代碼之中。而在上述案例的推理中,“盈利”比用戶更重要的設(shè)計(jì)無(wú)疑是把人當(dāng)手段,盈利是目的,資本邏輯才是貫穿此種人工智能打車(chē)系統(tǒng)的核心??梢?jiàn),人工智能倫理背后深層次的問(wèn)題是人類如何對(duì)待自身的問(wèn)題。只有確立了以道德代理人為基本單位,以人類價(jià)值為形而上學(xué)始基,才得以建立真正以人為本的人工智能倫理體系。

四、結(jié)語(yǔ)

雷瑞鵬在《機(jī)器人是道德行動(dòng)者嗎?》一文中首要提出了界定人工智能機(jī)器人的倫理標(biāo)準(zhǔn)問(wèn)題。[23]但就如我們已說(shuō)過(guò)的,在道德行動(dòng)者視角下,人工智能倫理的研究缺乏一個(gè)形而上學(xué)基礎(chǔ),尚且只能落在倫理標(biāo)準(zhǔn)層面。在此種視角下,人工智能的倫理身份研究首先關(guān)注的是人工智能能否或者在何種程度上匹配人格化的道德行動(dòng)能力這一標(biāo)準(zhǔn),而不是把人類價(jià)值置于第一順位。即便,我們把“不傷害”等應(yīng)用倫理學(xué)中的普遍準(zhǔn)則輸入人工智能機(jī)器人,人工智能也無(wú)法切實(shí)理解這一抽象的語(yǔ)義更別說(shuō)應(yīng)用到具體實(shí)踐之中。在不同語(yǔ)境之中,“不傷害”對(duì)于不同主體來(lái)說(shuō)有著不同的含義??梢哉f(shuō),人工智能倫理身份研究的道德行動(dòng)者視角愈是流行,愈是可能掩蓋技術(shù)人員在設(shè)計(jì)人工智能時(shí)對(duì)人類價(jià)值的忽視。而且技術(shù)人員往往以科學(xué)代理人自居而只專注于模擬人類意識(shí)、編寫(xiě)人工自主性程序等技術(shù)問(wèn)題,人工智能的倫理身份并不是依靠技術(shù)升級(jí)來(lái)獲得的。倫理作為一種關(guān)系,人工智能的倫理身份也是一種關(guān)系問(wèn)題。只有以現(xiàn)象學(xué)方法直面人與人工智能如何“照面”或“共同在世”,人工智能倫理的形而上學(xué)基礎(chǔ),即人工智能倫理身份、人與人工智能的關(guān)系問(wèn)題才得以揭示。當(dāng)人類充分意識(shí)到人工智能是人類的道德代理人時(shí),人類價(jià)值將被當(dāng)作首要目標(biāo)寫(xiě)入人工智能設(shè)計(jì)的源代碼之中,人是目的這一道德律也只有在以道德代理人為基本單位的人工智能倫理體系中才得以貫徹。

猜你喜歡
意向性行動(dòng)者代理人
與異質(zhì)性行動(dòng)者共生演進(jìn):基于行動(dòng)者網(wǎng)絡(luò)理論的政策執(zhí)行研究新路徑
中華全國(guó)專利代理人協(xié)會(huì)簡(jiǎn)介
專利代理(2019年3期)2019-12-30 08:23:54
中華全國(guó)專利代理人協(xié)會(huì)簡(jiǎn)介
專利代理(2019年4期)2019-12-27 00:56:54
中華全國(guó)專利代理人協(xié)會(huì)推薦的2018年第四期訴訟代理人名單
專利代理(2019年1期)2019-04-13 02:10:50
敬仰中國(guó)大地上的綠色行動(dòng)者
2016年第一期訴訟代理人名單
專利代理(2016年1期)2016-05-17 06:14:38
淺析胡塞爾現(xiàn)象學(xué)的意向性結(jié)構(gòu)
(簡(jiǎn)論詩(shī)創(chuàng)作的意向性)
網(wǎng)絡(luò)行動(dòng)者的新媒體使用特征、影響及媒介民主化
新聞傳播(2015年3期)2015-07-12 12:22:28
做“互聯(lián)網(wǎng)+”的積極行動(dòng)者
丹凤县| 息烽县| 策勒县| 淮南市| 容城县| 阿勒泰市| 嘉义市| 息烽县| 光泽县| 盐源县| 诸城市| 板桥市| 文化| 集安市| 贞丰县| 商都县| 西平县| 永川市| 安泽县| 顺昌县| 德州市| 乌拉特后旗| 南丰县| 达拉特旗| 长兴县| 六安市| 阿拉善右旗| 宁晋县| 西平县| 安泽县| 阿坝县| 舒城县| 曲阜市| 福鼎市| 铜川市| 海伦市| 开远市| 格尔木市| 平山县| 恭城| 侯马市|