国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能道德顧問的倫理問題*

2021-12-03 23:22王曉敏
醫(yī)學(xué)與哲學(xué) 2021年19期
關(guān)鍵詞:機(jī)器主體道德

李 洋 王曉敏 吳 影 周 嵐 劉 星

羅德里克·費(fèi)斯(Roderick Firth)[1]在1952年提出了著名的理想觀察者理論,該理論主要聚焦于個體道德判斷錯誤所引發(fā)的相關(guān)問題:個人由于錯誤的道德信仰、缺乏關(guān)鍵信息、道德偏見等限制易得出錯誤的道德判斷,從而做出錯誤的道德選擇。因此,設(shè)立一個全知全能、公正和無私的理想觀察者,對化解道德沖突十分必要[2]。費(fèi)斯的理論雖然獨(dú)辟蹊徑,但它更類似于一個組織結(jié)構(gòu),對于人類繁雜的日常道德判斷與道德選擇,理想觀察者角色似乎是不可能實(shí)現(xiàn)的。然而,有科學(xué)家提出,在某些條件下,我們的認(rèn)知和道德能力是可以分布在人工智能上的[3],21世紀(jì)的人工智能、賽博空間和虛擬現(xiàn)實(shí)已經(jīng)發(fā)展到前人無法想象的高度,人工智能具有理解和擴(kuò)展知識的可能性,可以創(chuàng)建具有人類價(jià)值基礎(chǔ)的智能顧問,幫助人類解決道德問題[4]。例如,我們通常無法做出符合自己道德目標(biāo)的選擇,因?yàn)榍楦泻椭庇X的判斷通常會取代信息的收集、反思和計(jì)算[5],而人工智能能夠摒棄人類生理構(gòu)造中不利于道德決策的部分,更理性、更直接地做出道德判斷。2015年,薩弗勒斯庫(Savulescu)和馬斯倫(Maslen)最早考慮把此想法落實(shí)在具體的技術(shù)層面,提出了“道德人工智能”理論[6]。

目前討論的人工智能道德顧問是指利用人工智能技術(shù)為個體提供適宜的道德建議,把人工智能應(yīng)用到人類道德生活。一些學(xué)者認(rèn)為,人類生理能力缺陷,有時不可能由后天的道德能力訓(xùn)練得到改善,因?yàn)樗ǔ8灿谖覀兊纳眢w機(jī)能中,如低血糖的人更容易發(fā)生偏執(zhí)行為[7]、血清素低下的人更容易使用暴力[8]。因此,人類易受某些情緒的影響而扭曲道德判斷,所以需要一位道德顧問。目前,對道德提升的普遍反對意見是它對行為主體的定義無法達(dá)成一致,所以在道德提升方面所做出的科技努力可能面臨挑戰(zhàn)。而提倡“人工智能道德顧問”技術(shù)的學(xué)者則認(rèn)為,其面臨的只是一些生物醫(yī)學(xué)干預(yù)的問題,一個為用戶量身定制的道德人工智能不僅可以保持道德價(jià)值觀的多元化,而且還可以通過幫助用戶克服其天生的心理局限來增強(qiáng)其自主權(quán),所以道德人工智能比其他形式的生物醫(yī)學(xué)道德增強(qiáng)更有優(yōu)勢[9]。

實(shí)際上,我們現(xiàn)在已經(jīng)廣泛使用了某些軟件來輔助我們決策和判斷,例如,智能環(huán)境處理器,人性化的嵌入式硬件設(shè)備、無縫的移動/固定通信機(jī)制、人類自然感覺的界面、可信任性和安全性等。人工智能技術(shù)以超越人類自主決策的能力正在逐漸介入甚至取代個體社會的日常事務(wù)判斷。所以,在人工智能技術(shù)的社會廣泛應(yīng)用方面,我們可以得到技術(shù)社會應(yīng)用的支持,甚至可以認(rèn)為它是科技進(jìn)步和社會發(fā)展的自然產(chǎn)物。

1 人工智能道德顧問應(yīng)用中的倫理問題

正如埃德蒙·羅爾斯(Edmund Rolls)所說,“遺傳”和“學(xué)習(xí)”在指導(dǎo)我們的行動和意圖以及我們的選擇和情感方面起著關(guān)鍵作用。人類是已知的生物系統(tǒng),顧問們做出的判斷必須與人類做出的判斷在生物學(xué)和心理機(jī)制上相一致[10]。但是從現(xiàn)實(shí)層面看,承認(rèn)“人非完人”和“注定實(shí)現(xiàn)不了道德理想”是發(fā)現(xiàn)問題的前提。歷史證明,濫用技術(shù)將威脅人類自由[11]。但科技本身是中性的,無關(guān)乎道德善惡。因此,科技對人類及環(huán)境的責(zé)任應(yīng)完全由人類承擔(dān),在應(yīng)用人工智能技術(shù)和產(chǎn)品時,必須高度警惕其在社會倫理領(lǐng)域中的潛在風(fēng)險(xiǎn)。

1.1 道德相對主義

在費(fèi)斯的理論中,理想觀察者雖然具有全知全能、清楚地了解事實(shí)和公正的特點(diǎn),但這樣的理想觀察者也可能是溫和的虐待狂[12],因?yàn)槲覀兪孪燃僭O(shè)了道德合法性的標(biāo)準(zhǔn),無論使用者是圣徒還是精神病患者,是道德的或是不道德的,是利己主義的還是利他主義的,都會接受被認(rèn)為合理的道德理論。這就可能導(dǎo)致道德相對主義的偏見產(chǎn)生,主要表現(xiàn)在以下方面。

首先,道德標(biāo)準(zhǔn)的植入偏見。作為新興領(lǐng)域,人工智能道德顧問技術(shù)可能面臨立法滯后的不利影響[13],如在《民法》《知識產(chǎn)權(quán)法》以及《刑法》等諸多領(lǐng)域[14],不僅缺乏有效的法律規(guī)制,而且某些技術(shù)的運(yùn)用還可能會與現(xiàn)行法律沖突。因此,對于人工智能道德顧問設(shè)計(jì)者來說,為了實(shí)現(xiàn)其道德顧問客觀有效并得到社會認(rèn)可的功能,需要事先植入社會公認(rèn)的道德標(biāo)準(zhǔn),而這種道德標(biāo)準(zhǔn)的植入可能缺乏法律規(guī)范,是隨意或帶有偏見的。

其次,道德提醒的編程偏見。按照人工智能道德顧問理論,該技術(shù)不會使我們更加道德,也不會導(dǎo)致我們更加不道德,它僅僅提供道德判斷和道德選擇的過濾和提醒功能,以限制個體道德選擇的錯誤性結(jié)果[12]。然而,這種道德判斷和道德選擇的過濾提醒,它可能忽視了人類道德生活和道德價(jià)值觀的多樣性,本身陷入道德相對主義的誤判,甚至導(dǎo)致道德霸權(quán)。因?yàn)楫?dāng)個體缺乏審視道德意見能力,不明所以地將道德顧問的道德判斷奉為圭臬時,或者當(dāng)?shù)赖骂檰栆庖娕c個體原有道德標(biāo)準(zhǔn)相左時,長期的道德判斷影響,就可能最終讓使用者陷入道德的無差異化或同一化境地。例如,經(jīng)過算法的升級換代,人工智能或許可完全繞過人腦固有的思維方式,形成“新智能思維”來模擬人類思維,從而使人類到達(dá)自身思維無法觸及的地帶,形成新興技術(shù)生命周期“峽谷”[15]。但是,對于絕大多數(shù)的智能工具用戶而言,他們不會試圖去了解算法的內(nèi)在邏輯,加上科技人員很難全面掌握、解釋智能技術(shù)在深入學(xué)習(xí)后的選擇機(jī)制,結(jié)果形成算法的“黑箱”,特殊情況下還會演進(jìn)為算法歧視[16]。

最后,道德溝通的價(jià)值偏見。一方面,由于人工智能道德顧問的輔助決策功能,它會根據(jù)事先設(shè)計(jì)好的道德標(biāo)準(zhǔn)進(jìn)行編程和道德判斷對錯提醒,可能與使用者的原有道德價(jià)值存在沖突,當(dāng)使用者進(jìn)行道德判斷或道德選擇時可能面臨道德困境。例如,該技術(shù)的用戶即真正的道德主體想要成為一個無私的人,某些遵循功利主義法則的道德顧問則可能會給出一些常人認(rèn)為不合理的建議,如捐贈他的大部分財(cái)產(chǎn)做公益活動[17]。用戶采納了這個建議,但是他在道德上可能不是完全的功利主義者,那么就意味著用戶執(zhí)行了一個違背初心的行為。另一方面,在道德異鄉(xiāng)人之間,原本可通過溝通協(xié)商的反思平衡的道德活動可能失效。正常情況下,我們的道德原則可能在兩個方面被增強(qiáng):(1)潛意識激活;(2)認(rèn)知資源的相對獨(dú)立性。正如我們所知道的,直覺和情感通常也是偏見和其他類型的非理性或不道德判斷的來源,它們使我們成為不良的信息處理者或不良的道德判斷者。因此,人工智能道德顧問可使用內(nèi)置在人們身邊的軟件來監(jiān)視其神經(jīng)生理活動,從所謂的“神經(jīng)反饋訓(xùn)練”使用戶改變與移情有關(guān)的腦區(qū)功能[18],從而增強(qiáng)道德情感。但這種生理性的增強(qiáng)可能是永久性的個性改變,導(dǎo)致用戶道德判斷的僵化和模式化,可能從根本上否定其自身的道德基礎(chǔ),最終使不同道德價(jià)值觀的個體溝通無效,威脅人們正常的道德生活。

1.2 道德主體判定

人工智能道德顧問是否具有道德主體地位涉及基本的概念內(nèi)涵研究。在法律術(shù)語中,主體指的是擁有主觀判斷能力且可以承擔(dān)法律責(zé)任的人。康德主義者認(rèn)為,道德主體是指有自我意識和道德認(rèn)知能力,能夠推理和形成自我判斷,且具有道德選擇和道德行為能力并承擔(dān)道德責(zé)任的道德行為者[19]。從這個角度出發(fā),只有具有理性思維能力的人才具有道德主體地位。在對人工智能道德顧問技術(shù)的假設(shè)中,它并沒有具備人類的情感、獨(dú)立意識、自由選擇和獨(dú)立承擔(dān)責(zé)任的能力。所以基于以上人類是唯一道德主體的結(jié)論,人工智能道德顧問是不可能被稱為道德主體的。雖然也有倫理學(xué)家持有不同的觀點(diǎn),他們相信自然界中不止是人類才具有道德主體地位[20],對道德主體的研究已經(jīng)從人類擴(kuò)展到動物甚至是技術(shù)人工物。但是人工智能道德顧問無論得到怎樣的完善都不會獲得行為能力,一個沒有行為能力的物體是不可能成為道德主體的[21],所以道德人工智能顧問絕無成為道德主體的可能。那么人類又該如何看待人工智能道德顧問呢?我們何以把一個比我們更聰明、更具有批判思維能力的物體只當(dāng)作工具?我們?nèi)绾闻卸ㄆ渖鐣矸菽兀?/p>

倫理學(xué)史中判定道德主體的標(biāo)準(zhǔn)是不一致的[22]。關(guān)于人工智能道德顧問在未來是否有可能演變成一個符合這些標(biāo)準(zhǔn)的道德主體,我們暫且懸置不論。人與人之間的道德行為會不會演變?yōu)闄C(jī)器與機(jī)器之間的道德行為?我們應(yīng)該思考人類創(chuàng)造了機(jī)器,還是機(jī)器借由人類而生,從而是否可能成為歷史演進(jìn)過程中的道德主體。在對道德主體的定義里,要更加細(xì)致地分析人工智能帶來的挑戰(zhàn)。而且在智能機(jī)器的設(shè)計(jì)之初就應(yīng)嵌入道德意識,人工智能科學(xué)家和技術(shù)人員應(yīng)該關(guān)注智能機(jī)器道德模型的構(gòu)建,要在智能機(jī)器設(shè)計(jì)之初就把“善”的理念嵌入其中,使得人工智能操作系統(tǒng)不僅遵守法律,還要遵守社會道德規(guī)范[23]。這無疑是對道德顧問技術(shù)的開發(fā)提出了更高的要求。

1.3 行為隱私保護(hù)

人工智能技術(shù)的應(yīng)用與發(fā)展,離不開數(shù)據(jù)采集與利用,而數(shù)據(jù)不斷更新與擴(kuò)張則會引發(fā)信息泄露、侵犯隱私的風(fēng)險(xiǎn)。當(dāng)前人工智能道德顧問以機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和自然語言處理為特征,可以從數(shù)據(jù)挖掘中創(chuàng)建數(shù)字資料,能在用戶不知情的情況下根據(jù)此類資料做出重要決定[24]。針對這個問題,用戶應(yīng)有權(quán)知道人工智能道德顧問在處理其數(shù)據(jù)時會發(fā)生什么,有權(quán)不接受對自身將產(chǎn)生不利影響的決定[25]。所以缺乏透明性的機(jī)器學(xué)習(xí)算法標(biāo)準(zhǔn)是有問題的,但是算法透明又是極其難以實(shí)現(xiàn)的。這就會導(dǎo)致人工智能道德顧問執(zhí)行命令時,可能會歪曲用戶面貌或透露用戶的隱私,從而違背用戶對隱私保護(hù)的期望,用戶在執(zhí)行人工智能道德顧問建議的同時也會扭曲他人對該用戶的合理評價(jià)。

這里的關(guān)鍵問題是,人工智能道德顧問涉及到的信息并非普通的身份信息,而是有關(guān)個體行為傾向的隱私信息。大部分人認(rèn)為機(jī)器人與計(jì)算機(jī)區(qū)分的依據(jù)是外觀,人們面對機(jī)器人有更加強(qiáng)烈的同情情緒,并認(rèn)為它具有更強(qiáng)的情感能力[26],這是人類可理解的自然反應(yīng)。但是在人工智能道德顧問的功能預(yù)設(shè)中,它們可通過影響個體潛意識激活和認(rèn)知資源改變直覺和情感,從而影響并改善個體道德判斷。在此之前,人工智能道德顧問仍需收集有關(guān)個體神經(jīng)生理活動,完成所謂的“神經(jīng)反饋訓(xùn)練”。這種大腦即時性的神經(jīng)生理狀態(tài),盡管在與即將發(fā)生的行為之間具有或然性聯(lián)系,但仍具有一定的因果聯(lián)系和預(yù)征性指征,代表著個體的客觀思想或行為計(jì)劃,屬于個人高度隱私信息。

隨著人工智能道德顧問技術(shù)的發(fā)展成熟和不斷完善,人們對它的接受度可能越來越高,兩者之間的緊密合作和信息互通將進(jìn)一步加強(qiáng),人們對人工智能道德顧問在心理上從屬、依戀和可信賴等感覺的增強(qiáng)[27],更多的人可能會接受它們?yōu)榛锇槎皇枪ぞ撸⑴c它們共享豐富的私密生活細(xì)節(jié)和敏感的個人數(shù)據(jù),個體行為隱私問題可能逐漸加劇并愈演愈烈。

1.4 行為責(zé)任認(rèn)定

目前對人工智能技術(shù)的監(jiān)管訴求主要是關(guān)于其算法,思路都大同小異,基本上主張算法要透明和共享[28]。但是,現(xiàn)有算法很難讀懂,即使專業(yè)的程序員也要花上很長時間才能看明白[29]。所以,即使通過透明性來監(jiān)管算法是可實(shí)現(xiàn)的,其成本也會很高。而且算法已經(jīng)成為各個研發(fā)公司的核心競爭力,要求算法透明可能對其知識產(chǎn)權(quán)保護(hù)產(chǎn)生沖突。

但這并非意味著我們對算法監(jiān)管無能為力,規(guī)制理論有新舊之分[30]。對于人工智能道德顧問這樣有廣泛未來市場的技術(shù),我們更應(yīng)考慮:如果其需要新的規(guī)制理論,什么樣的約束條件可以充分發(fā)揮技術(shù)正向價(jià)值的同時不突破道德紅線。從某種意義上講,人的決策過程也是一種算法運(yùn)算,只不過它遠(yuǎn)比機(jī)器算法更加復(fù)雜和隨機(jī)。所以我們可以從人類實(shí)踐中看到智能機(jī)器監(jiān)管問題的解決方法,例如,管理者不知道他的下屬們是怎么思考的,但可以通過構(gòu)建合理的激勵合約,引導(dǎo)下屬努力工作[31];同樣,我們也可以不知道機(jī)器是怎么思考的,但可以通過構(gòu)建合理的激勵合約,正確引導(dǎo)其行為。

漢斯·喬納斯(Hans Jonas)[32]從哲學(xué)特別是本體論視角出發(fā),提出對責(zé)任的更豐富的需求。他認(rèn)為責(zé)任不僅源于實(shí)際需要,更根本地源于生活本身的本體論性質(zhì),即源于它本身的目的。喬納斯提出對行為的道德要求,應(yīng)使行為所產(chǎn)生的影響與現(xiàn)實(shí)人類生活的延續(xù)相適應(yīng)。因此,對責(zé)任問題的審視要回歸于人,人工智能道德顧問雖然有認(rèn)知能力但沒有責(zé)任承擔(dān)能力,也不從人類具體的道德生活獲得自我肯定。所以,人工智能道德顧問是不能作為責(zé)任主體的。當(dāng)然,就算不考慮喬納斯的本體論,我們也可以確立對“責(zé)任”應(yīng)有更深入、更全面理解的必要性[33]?!柏?zé)任”是一個相關(guān)性的概念,不僅與個人屬性有關(guān),而且在團(tuán)體層面上更有意義。

在個人層面上,認(rèn)知能力并不一定需要自我意識,而承擔(dān)責(zé)任則必然需要自我意識[34]。由我們對于這項(xiàng)技術(shù)的設(shè)想,可以得知它確實(shí)作為一種決策主體而存在,是否可以等同于它應(yīng)該為決策帶來的結(jié)果負(fù)責(zé)呢?當(dāng)然,我們這里說負(fù)責(zé),只是一個簡化的說法。事實(shí)上,它無法為自己的行為負(fù)責(zé),作為一種產(chǎn)品,讓生產(chǎn)它的人為它負(fù)責(zé)還是使用它的人為它負(fù)責(zé)?在其做出一種行為時,它要為該行為負(fù)多大責(zé)任?如果它對人造成了傷害,它要承擔(dān)什么責(zé)任?上述問題的答案是或然的,在不同的時代背景下、不同的情境中答案會有所區(qū)別。例如,在鐵路普及之后,美國的侵權(quán)法發(fā)生了很大的改變:行人被要求禮讓火車。這個法規(guī)改變的原因在于如果墨守成規(guī)堅(jiān)持“禮讓行人”的社會公序良俗的話,那么鐵路在運(yùn)營中就需要時刻注意避讓行人,而達(dá)不到其高效的目的[35]。所以在考慮人工智能應(yīng)該承擔(dān)多大責(zé)任時,我們是否可以采用類似的觀念并做出改變呢?

2 結(jié)語

過去幾十年中,科技高速發(fā)展,智能機(jī)器人給人類帶來了許多便利,同時也引發(fā)了新的社會問題。人工智能道德顧問倡導(dǎo)者的關(guān)鍵主張是,頭腦與機(jī)器之間沒有區(qū)別,因此他們認(rèn)為機(jī)器倫理與人類倫理一樣有可能實(shí)現(xiàn)。與專注于圍繞人類使用機(jī)器倫理問題的計(jì)算機(jī)倫理不同[36],機(jī)器倫理關(guān)注的是機(jī)器對人類用戶(也許還有其他機(jī)器)行為和交互的倫理性[37]。人工智能道德顧問技術(shù)雖然還是空中樓閣,但是實(shí)際生活的例子表明,人們在某些情況下的確需要一位“道德顧問”,并且在已有的并得到廣泛應(yīng)用的技術(shù)里面,已經(jīng)展現(xiàn)出人工智能道德顧問技術(shù)實(shí)現(xiàn)的可行性。所以人工智能道德顧問技術(shù)是否可以開發(fā)及應(yīng)用,在得到倫理學(xué)辯護(hù)前,仍然值得期待。根據(jù)人工智能科學(xué)家的觀點(diǎn),符合機(jī)器倫理最終目標(biāo)的機(jī)器將遵循理想的倫理原則[38]。本文從這個最終目標(biāo)出發(fā),認(rèn)為人類應(yīng)該多維度地審視人工智能道德顧問技術(shù)面臨的諸多挑戰(zhàn),在堅(jiān)守道德紅線的前提下,使其成為一項(xiàng)安全性強(qiáng)、尊重人類道德主體地位、能被有效監(jiān)管且相關(guān)行為權(quán)責(zé)清晰以及值得用戶信賴的新技術(shù)。不過,人類尚且沒有一套萬事皆可行的倫理原則,何以有信心去創(chuàng)造一個接近費(fèi)斯70多年前設(shè)想的“虛構(gòu)人物”?何以面對可能成為道德決策弱者的局面?這些問題亟待當(dāng)代思想者、踐行者解答。人類擁有豐富的道德生活,并且具有實(shí)施高尚行為的能力。目前來看,人工智能道德顧問不會篡奪或超越人類的道德權(quán)威,我們應(yīng)該做的是承認(rèn)自身的道德局限性,利用人工智能實(shí)現(xiàn)道德主體潛力的最大化。

猜你喜歡
機(jī)器主體道德
強(qiáng)化述職評議 落實(shí)主體責(zé)任
機(jī)器狗
論碳審計(jì)主體
機(jī)器狗
頭上的星空與心中的道德律
何謂“主體間性”
跟蹤導(dǎo)練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
未來機(jī)器城
略論意象間的主體構(gòu)架
浦江县| 西藏| 中牟县| 桐乡市| 贵德县| 武汉市| 巴彦淖尔市| 文化| 栖霞市| 澎湖县| 西乌珠穆沁旗| 得荣县| 孟村| 丰宁| 略阳县| 特克斯县| 原阳县| 应城市| 方城县| 武穴市| 岳阳县| 宁德市| 浙江省| 景德镇市| 凤凰县| 金坛市| 临夏县| 仁化县| 嵊州市| 普安县| 绥化市| 唐山市| 通山县| 雅安市| 隆尧县| 钟山县| 昌平区| 大宁县| 西青区| 长寿区| 绵竹市|