趙欣
摘 要:智能機器人在給人類生活帶來日新月異變化的同時,給人類帶來新的倫理挑戰(zhàn)。智能機器人智能性的提高,促使人類在與其互動中更深刻地思考人的本質(zhì)。智能機器人替代部分人類社會角色從事繁重危險的工作,解放勞動力的同時也引發(fā)人們對智能機器人的警惕和擔(dān)憂。腦-機接口、人機交互技術(shù)使人機關(guān)系從對立走向融合。智能機器人與人在技術(shù)實踐中構(gòu)成共同的道德行動者,但目前,智能機器人仍然是弱人工智能,無法獨立承擔(dān)道德責(zé)任,不能成為和人類同等地位的道德主體,破解智能機器人的倫理困境,需要建立人-機責(zé)任共同體。
關(guān)鍵詞:智能機器人;機器倫理;道德能動者
“人工智能”一詞最初在1956年達(dá)特默斯學(xué)會上提出,這次會議被看作是人工智能誕生的標(biāo)志。人類在進(jìn)入計算機時代后,計算機技術(shù)的飛速發(fā)展為機器模擬人的某種思維和行為提供了必要的技術(shù)支撐,使人工智能的實現(xiàn)成為可能。人類希望能夠用計算機構(gòu)造出復(fù)雜的、達(dá)到同等甚至超越人類智慧的機器。如今人工智能融合計算機科學(xué)、認(rèn)知科學(xué)、哲學(xué)以及其他自然學(xué)科,在相互融合、相互滲透的基礎(chǔ)上,逐漸發(fā)展為新型的綜合性研究領(lǐng)域。智能機器人是人工智能的應(yīng)用領(lǐng)域之一。近年來,教育機器人、保姆機器人、軍用機器人、超聲機器人等在使用中的突出表現(xiàn)不斷刷新著人們對人工智能的認(rèn)知和期待。但是,在享受智能科技給生活帶來日新月異的變化的同時,由此引發(fā)的倫理道德問題也給人類帶來了困擾。
一、“智能機器人”的概念
人工智能的本質(zhì)是對人的意識、思維的信息過程的模擬。約翰·塞爾最早將人工智能劃分為弱人工智能與強人工智能。弱人工智能認(rèn)為人工智能模擬人類心靈的價值原則是為我們提供一個強有力的工具。而強人工智能則認(rèn)為計算機在能夠給出合適的程序的意義上,可以被理解為擁有其他種類的認(rèn)知狀態(tài),應(yīng)該被視為一個心靈[1]。塞爾的區(qū)分得到很多人的支持。弱人工智能是擅長特定單方面的智能,沒有完全自主性,服從于人的某種需要,并不真正擁有智能。強人工智能擁有和人類同等的心靈理解力,具備心靈的人工智能能夠產(chǎn)生自我意識,具有意向性,獨立思考問題,進(jìn)行自主抉擇,承擔(dān)行為責(zé)任。強人工智能具有道德主體地位。強人工智能的進(jìn)階是超級人工智能。牛津大學(xué)未來人類研究院主任Nick Bostrom把超級人工智能定義為在幾乎所有領(lǐng)域都比最聰明人類的大腦聰明很多。超級人工智能在各個方面強于人類,是超越人類的智能。雷·庫茲韋爾在《奇點臨近》中認(rèn)為“該技術(shù)性特異點將會在2045年這個不遠(yuǎn)的將來出現(xiàn),人工智能跨過‘奇點,計算和思維能力將遠(yuǎn)超人腦?!?/p>
捷克劇作家Karl Capek在戲劇作品中創(chuàng)造了robot這個名詞。這個詞源于捷克語的robota,意思是“勞役、苦工”。國際標(biāo)準(zhǔn)化組織將機器人定義為一種自動的、位置可控的、具有編程能力的多功能操作機,這種操作機具有幾個軸,能夠借助可編程操作來處理各種材料、零件、工具和專用裝置,以執(zhí)行各種任務(wù)[2]。機器人是人造的機器,根據(jù)智能性程度一般分為簡單機器人和智能機器人。簡單機器人多用于工業(yè)中,比如,工廠生產(chǎn)流水線上的機械臂、汽車制造過程中運用的噴漆機器人和搬運機器人,以及適應(yīng)電商的迅速發(fā)展出現(xiàn)的倉儲物流機器人等。它通過簡單的計算機編程,依靠人類的指令,在特定的工作領(lǐng)域完成重復(fù)性動作。智能是智力和能力的總稱,核心是思維,智能機器人的中央處理器嵌入人工智能程序,相當(dāng)于人類發(fā)達(dá)的大腦,能夠自主判斷和決策,是人工智能在真實世界中應(yīng)用的載體。
二、作為道德能動者的智能機器人
1998年荷蘭學(xué)派創(chuàng)始人彼得·克洛斯和安東尼·梅耶斯提出“技術(shù)哲學(xué)的經(jīng)驗轉(zhuǎn)向”,把經(jīng)驗轉(zhuǎn)向作為荷蘭技術(shù)哲學(xué)研究的立派范式,也促逼著技術(shù)哲學(xué)研究轉(zhuǎn)換到經(jīng)驗語境中[3]。所謂技術(shù)哲學(xué)的經(jīng)驗轉(zhuǎn)向是指與經(jīng)典技術(shù)哲學(xué)主要關(guān)注技術(shù)作為整體現(xiàn)象的“條件”不同——與之相伴隨的是“技術(shù)決定社會”“技術(shù)支配或?qū)⒔y(tǒng)治人類社會”的恐慌——當(dāng)代技術(shù)哲學(xué)則更加關(guān)注具體的技術(shù)如何影響人類生活本身,技術(shù)如何通過“物質(zhì)性”的手段或方式對人類的行動和體驗進(jìn)行塑形。技術(shù)哲學(xué)的經(jīng)驗轉(zhuǎn)向?qū)嵸|(zhì)上開辟了技術(shù)與倫理相結(jié)合的研究方式。技術(shù)觀的變化反映了不同歷史時期人對技術(shù)實踐的認(rèn)識和反思。人類紀(jì)元的開端伴隨著技術(shù)的出現(xiàn),它體現(xiàn)了人類從被動適應(yīng)環(huán)境到主動征服自然的轉(zhuǎn)變。經(jīng)典技術(shù)哲學(xué)或者把技術(shù)看作實現(xiàn)人的目的的工具,認(rèn)為技術(shù)本身不負(fù)載道德意義和道德價值,只是人類用來達(dá)到特定目的的工具,技術(shù)本身無善惡而言,因人的不同使用而造成善惡結(jié)果。工業(yè)革命后,人類飽嘗技術(shù)發(fā)展給環(huán)境生態(tài)帶來的惡果,片面夸大技術(shù)的自主性,對技術(shù)持悲觀主義態(tài)度,認(rèn)為人被技術(shù)所奴役。技術(shù)建構(gòu)論看到了技術(shù)工具論和實體論的缺陷,提出技術(shù)與社會之間是互相建構(gòu),互相影響的。20世紀(jì)末,技術(shù)哲學(xué)的經(jīng)驗轉(zhuǎn)向關(guān)注技術(shù)本身,在實踐中理解技術(shù),使人與技術(shù)之間形成經(jīng)驗上的動態(tài)互動機制。傳統(tǒng)倫理學(xué)建立在人本主義的基礎(chǔ)之上,倫理學(xué)被看作是人類的專屬領(lǐng)域,獨立的個體的人占據(jù)著倫理反思的核心地位。但是隨著經(jīng)濟和社會的發(fā)展,人類技術(shù)不斷地攀登一個又一個高峰,技術(shù)人工物不僅種類越來越多,其智能性也越來越高。技術(shù)已經(jīng)開始以各種各樣的方式調(diào)節(jié)人類的實踐和體驗,影響我們對外在世界的感知和行為方式,構(gòu)建著道德選擇的環(huán)境。倫理學(xué)已經(jīng)不再完全只是關(guān)乎于人類,技術(shù)的發(fā)展呼吁與之相適的倫理學(xué)的出現(xiàn)。倫理學(xué)問題只發(fā)生在如何使用知識時,科學(xué)研究引起的倫理學(xué)問題實質(zhì)上是倫理學(xué)本身不發(fā)達(dá)。重建理性化的倫理學(xué),當(dāng)納入不了時應(yīng)該修改理論體系,而不是削足適履,拒絕現(xiàn)實[4]。
實際上,自機器人誕生之初,學(xué)者們就圍繞著機器人的倫理展開廣泛討論。圖靈認(rèn)為測試者同時向一臺計算機和一個人提出問題,如果測試者從得到的答案中不能區(qū)分計算機和人,那么該機器就可以被看作是可以思維的(從而具有心靈和自由意志)。德雷福斯認(rèn)為人類推理依賴于本能與直覺,智能機器依賴于算法與程序,算法和程序是人類的編程,智能機器不可能具有人類一樣的道德主體地位。道德的前提是自由意志,如果將道德賦予技術(shù)物,那么技術(shù)物就必須具備兩個必要條件:即形成意向的能力以及實現(xiàn)意向的自由。意向性即心智指向某物,是理解人與世界關(guān)系的核心概念。人與世界之間存在著密不可分的關(guān)聯(lián),人的一切活動總是指向某物。在技術(shù)實踐中,人的意向性總是指向技術(shù)人工物,通過技術(shù)人工物得以實現(xiàn),又或是在技術(shù)人工物的背景下得以形成。同時,被意向性指向的人工物反過來影響人的意向性。減速帶提醒駕駛員要減速,攝像頭能夠震懾到犯罪分子。因此,意向性并非人類獨有,技術(shù)人工物擁有“非人”部分的意向性。道德決定和行動是人與技術(shù)人工物共同努力的結(jié)果。維貝克認(rèn)為技術(shù)意向性是在人與非人的關(guān)聯(lián)中產(chǎn)生的,是一種“雜交意向性”或者“復(fù)合意向性”。在理解技術(shù)與自由的關(guān)系上,維貝克從自由作為道德活動必要條件的現(xiàn)實性入手,認(rèn)為對于一個能應(yīng)對行動的主體來說,擁有自由的某些度就夠了,無論是人還是非人,絕對的自由都是不可能的。維貝克將自由理解為行動者與外在影響因素建立起聯(lián)系的能力,處于人—技術(shù)的關(guān)聯(lián)中,從而將技術(shù)物納入自由的維度中[5]。人類活動的自由也是有限度的,總是受到各種內(nèi)外因素的制約。人類設(shè)計智能機器人的編程代碼和運算規(guī)則,使機器人在算法框架內(nèi)運行,但是智能機器人在面對復(fù)雜狀況時,能夠在多種可能性中選擇執(zhí)行,每一種可能性的選擇與周圍環(huán)境和人之間形成的互動聯(lián)結(jié)都會有所不同。智能機器人的程序是預(yù)先設(shè)定的,但是機器人的行為選擇與外在因素之間的關(guān)聯(lián)可能性結(jié)果是不確定的、變動的。盡管有程序的預(yù)先設(shè)定,智能機器人在行為中總是會出現(xiàn)各種偏差,偏離對智能機器人的運行初衷,這與人類行為的不合目的性和多樣性基本一致。機器人的自主性與人類的自主性在可能性上是等量齊觀的[6]。另一方面,大數(shù)據(jù)、人工神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)等智能技術(shù)使智能機器人不斷重新組織已有知識結(jié)構(gòu)和信息,改善自身性能,在信息不足的情況下做出預(yù)測推理,人類對機器人知識能到達(dá)的峰值尚未可知,對智能機器人可能的行為發(fā)生也不完全可控。
擁有意向性和自由的技術(shù)人工物在技術(shù)實踐中與人構(gòu)成共同的道德能動者,拉圖爾在行動者網(wǎng)絡(luò)中認(rèn)為,道德行動者以多種方式相互交互,行動者既可能是人,也可能是非人。但是智能機器人不具備和人類同等的道德主體地位。布瑞提出作為道德主體應(yīng)該符合三個基本特征:“有能力根據(jù)對錯進(jìn)行推理、判斷和行動;對自己的行為應(yīng)當(dāng)遵守道德規(guī)范;對自己的行為及后果負(fù)責(zé)?!盵7]智能機器人以道德能動者身份參與到人類倫理體系中,使機器人與人之間互相界定,影響人類道德判斷,構(gòu)建人類道德決策環(huán)境,調(diào)節(jié)人類道德實踐。但是,就智能機器人的目前發(fā)展水平而言,智能機器人仍然處于弱人工智能水平,雖然具有一定程度的意向性和一定限度的自由,但是不能對自己的行為負(fù)責(zé),不能承擔(dān)道德責(zé)任的主體不能成為完全的道德主體。
三、智能機器人帶來的倫理風(fēng)險
智能機器人發(fā)展不斷沖擊“人”的概念。法國唯物主義的自然主義人性論者認(rèn)為人的本質(zhì)就在于人自身,即人的自然本性。拉美特里宣稱人是機器。近代資產(chǎn)階級理性主義認(rèn)為人的本質(zhì)是理性,而理性也就是自由??档抡J(rèn)為,人只有不受感覺世界的支配,服從自己理性發(fā)出的“絕對命令”,才是一個自己主宰自己的真正意義上的人。馬克思的實踐的唯物主義立足于現(xiàn)實的人和現(xiàn)實的人類社會,表明了人的本質(zhì)的兩個方面,一是“勞動創(chuàng)造了人本身”,一是人的本質(zhì)“在其現(xiàn)實性上,它是一切社會關(guān)系的總和”[8]。人在本質(zhì)上是自然屬性和社會屬性上的統(tǒng)一。從自然維度上來說,人的自然屬性是人的生物學(xué)特性,人具有稱之為“人”的外部形態(tài)特征、內(nèi)部機體構(gòu)成、思維意識形態(tài)以與其他物種區(qū)分。在社會維度上,人與人之間在實踐過程中產(chǎn)生出各種關(guān)系,在社會性交往中互相規(guī)定,形成“人之為人”的倫理綱常規(guī)范。技術(shù)上的成熟使智能機器人與人之間外在上的相似度越來越接近,甚至于高度仿真的類人機器人使人陷入“恐怖谷”理論,人的自然外表特征不再為人類所獨有。此外,完整健全的人擁有頭部、軀體、四肢,而因為各種原因?qū)е轮w殘缺者也稱為“殘疾人”。隨著智能科技的發(fā)展,人工假肢、人工內(nèi)臟器官應(yīng)用在臨床醫(yī)學(xué),接受人工器官移植的人不再是傳統(tǒng)生物學(xué)意義上純粹的“自然人”,人與智能技術(shù)物相結(jié)合,成為“賽博格人”。如果科技足夠發(fā)達(dá),人的全身器官都可以替換,那么,人和智能機器人之間區(qū)分的界限在哪里?界限的模糊難免使人陷入“忒修斯之船”悖論。此外,在社會實踐中,人與智能機器人之間形成了各種各樣的關(guān)系,如伴侶、寵物等。機器人智能性的提高,不斷挑戰(zhàn)人類的尊嚴(yán),使人類更深刻地反思自己的主體地位,思考人的本質(zhì)。
智能機器人對社會角色的替代引起倫理爭論。智能機器人在實踐中的應(yīng)用產(chǎn)生正負(fù)兩方面的效應(yīng)。智能機器人把人從繁勞的工作中解放出來,剩余勞動時間增多,從而尋求人的自由全面發(fā)展。智能機器人也用于代替人從事危險指數(shù)高的工作,比如掃雷機器人、勘察機器人、軍事機器人等。在新冠肺炎疫情中,醫(yī)院借助5G網(wǎng)絡(luò),利用超聲機器人為新型冠狀病毒感染的肺炎疑似患者開出遠(yuǎn)程超聲診斷書;一批戰(zhàn)疫機器人在防疫一線24小時工作;使用消毒機器人殺滅病菌;利用送餐機器人為病人服務(wù)等。智能機器人在新冠肺炎疫情的防控工作中大放異彩,在壓縮人力資源成本的同時,降低了醫(yī)院的交叉感染率,守護醫(yī)生和病人的生命。此外,智能機器人具有補位社會角色的作用,例如養(yǎng)老機器人替代子女看護老人,監(jiān)測老人健康狀況,即使子女不在身旁,老人也可以得到照顧;治療精神病患者的陪伴機器人可以替代人不厭其煩地與其進(jìn)行溝通,幫助進(jìn)行康復(fù)治療;學(xué)習(xí)機器人能夠在家長繁忙或者能力有限時輔導(dǎo)孩子學(xué)習(xí)。但是,智能機器人對部分人力的替代引發(fā)失業(yè)恐慌,尤其是低端體力勞動的從業(yè)者,這部分人本身社會技能欠缺,跟不上智能技術(shù)的步伐,會被淘汰在科技洪流外,增加社會負(fù)擔(dān)。另一方面,智能機器人依靠內(nèi)外部傳感器檢測自身狀態(tài)感知外部世界,通過感知和思維,規(guī)劃和確定任務(wù)。內(nèi)部計算編程偏失、外部環(huán)境的多樣性以及復(fù)雜性導(dǎo)致智能機器人在替代人進(jìn)行活動過程中因判斷誤差導(dǎo)致不良后果,后果的責(zé)任劃分難以厘清。智能機器人對社會角色的補位也會淡化人的責(zé)任意識。如護理機器人進(jìn)入家庭代替或幫助子女為父母養(yǎng)老,解決了未來社會養(yǎng)老問題。然而,護理機器人補位子女養(yǎng)老會導(dǎo)致孝養(yǎng)關(guān)系疏離化、孝道降階化等倫理風(fēng)險[9]。
智能機器人的發(fā)展誘發(fā)對人-機關(guān)系的思考。一般機器是受控于人類,實現(xiàn)人類目的的工具性技術(shù)物。智能機器人不同于其他技術(shù)物。首先,智能機器人是對人類本體的模擬,具有人類的基本特征,如外觀、動作、語言等,人往往對類人機器人有特殊的情感。智能機器人以“類人”角色進(jìn)入人類世界,人不止把機器人當(dāng)作工具,機器人也是人類的伙伴。人對普通機器的人為損毀習(xí)以為常,但是智能機器人的肢體破壞卻讓大部分人極為不適,人對智能機器人的特殊道德情感,導(dǎo)致在處理問題時會有情感偏袒。其次,智能機器人的綜合性能遠(yuǎn)超人類,得益于智能技術(shù)的發(fā)展,智能機器人的自主性越來越高,人類擔(dān)心機器人某天會反過來控制人類。2014年Elon Musk在麻省理工學(xué)院的一場公開訪談上提出“研究人工智能就像召喚惡魔一樣”?;艚鹨苍岢鋈斯ぶ悄芡{論。假如“不受控”機器人出現(xiàn),使得自然人不是以主體對待客體的方式,而是以主體對待主體的方式對待機器人,也就是說,自然人和機器人之間的關(guān)系不是主客體關(guān)系,而是主體間關(guān)系,不是人機關(guān)系,而是跨人際主體間的關(guān)系[10]。此外,“腦-機接口”技術(shù)打通人腦智能與機器智能之間的聯(lián)結(jié),實現(xiàn)人工智能植入人腦,人腦與智能機器之間交互連接構(gòu)成新型生物人工智能網(wǎng)絡(luò)。人與機器人的關(guān)系從人機分離的隔離狀態(tài)發(fā)展到人機協(xié)作的混合環(huán)境。智能機器人的開發(fā)和應(yīng)用帶來的一系列倫理風(fēng)險呼吁建立與之相適應(yīng)的機器人倫理,規(guī)范和引導(dǎo)智能機器人發(fā)展。
四、構(gòu)建人-機責(zé)任共同體
就目前發(fā)展水平而言,智能機器人仍然處于弱人工智能水平,不能獨立承擔(dān)道德責(zé)任,需要建立人-機責(zé)任共同體,使智能機器人與人在技術(shù)實踐上始終處于動態(tài)互動中,共同承擔(dān)道德責(zé)任。在設(shè)計階段,專注于特定類型的智能機器人設(shè)計,把所有利益相關(guān)者的利益和相關(guān)涉的倫理問題都暴露出來,進(jìn)行充分討論分析,把技術(shù)實踐與人文關(guān)懷充分結(jié)合,制造出合乎社會道德規(guī)范的智能機器人。在使用過程中,設(shè)計者、生產(chǎn)者與用戶之間有效協(xié)調(diào),對智能機器人的行為及時調(diào)整,政府充當(dāng)監(jiān)督者角色,使智能機器人在合乎倫理的框架內(nèi)行動。不能成為道德主體的智能機器人在法律上也不具有主體地位,智能機器人只能承擔(dān)部分道德責(zé)任,責(zé)任后果需要在設(shè)計者、生產(chǎn)者、用戶之間進(jìn)行權(quán)責(zé)劃分。歐盟議會提出賦予人工智能“電子人”的法律主體地位,由人工智能對其造成的損害直接承擔(dān)責(zé)任[11]。弱人工智能是無法獨立承擔(dān)道德責(zé)任的,我們期待人工智能的進(jìn)一步發(fā)展,使強人工智能成為獨立的道德主體。
參考文獻(xiàn):
[1][日]松尾豐.人工智能狂潮:機器人會超越人類嗎? [M].趙函宏,高華彬,譯.北京: 機械工業(yè)出版社,2011:1.
[2]苑亞欽.云計算概念及發(fā)展歷程[J].科技信息,2011(20):229.
[3]劉寶杰.試論技術(shù)哲學(xué)的荷蘭學(xué)派[J].科學(xué)技術(shù)哲學(xué)研究,2012,29(4):64-68.
[4]趙南元.認(rèn)知科學(xué)解密 [M].北京:清華大學(xué)出版社,2002:5.
[5]彼得·保羅·維貝克. 將技術(shù)道德化——理解與設(shè)計物的道德[M].上海:上海交通大學(xué)出版社,2016.
[6]張正清,黃曉偉.作為“他者”而承擔(dān)道德責(zé)任的智能機器——一種人工智能成為道德能動者的可能性[J].道德與文明,2018(4):26-33.
[7]閆坤如.人工智能機器具有道德主體地位嗎?[J].自然辯證法研究,2019,35(5):47-51.
[8]鄧曉芒,趙林.西方哲學(xué)史 [M].北京:高等教育出版社,2005:4.
[9]王健,林津如.護理機器人補位子女養(yǎng)老的倫理風(fēng)險及其防范[J].道德與文明,2019(3):131-137.
[10]程廣云.從人機關(guān)系到跨人際主體間關(guān)系——人工智能的定義和策略[J].自然辯證法通訊,2019,41(1):9-14.
[11]吳高臣.人工智能法律主體資格研究[J].自然辯證法通訊,2020,42(6):20-26.