国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能發(fā)展中的倫理問題探究

2021-12-08 01:26李傳軍
湖南行政學院學報 2021年6期
關(guān)鍵詞:倫理困境人工智能

李傳軍

摘要:近年來,人工智能發(fā)展勢頭強勁,深刻地改變了人類的生產(chǎn)方式和生活方式,極大地推動了經(jīng)濟社會的發(fā)展。然而,人工智能也引發(fā)了一系列重要問題,迫切需要我們從倫理學意義上作出解答。比如,在我們的社會中,人工智能的行為應(yīng)當是怎樣的?人工智能會不會侵犯人們的隱私權(quán)?人工智能會造成大規(guī)模的失業(yè)現(xiàn)象嗎?可以在戰(zhàn)爭中使用智能武器嗎?對超級人工智能和異?,F(xiàn)象擔憂是“杞人憂天”嗎?我們應(yīng)當把人工智能當作人一樣對待嗎?道義論、功利主義、美德倫理為我們理解人工智能倫理提供了三個不同的視角。尋找人工智能倫理調(diào)適的基本路徑應(yīng)當從界定人類與人工智能的關(guān)系入手,即人工智能的發(fā)展必須增進人類福祉,遵循人類的基本價值觀。

關(guān)鍵詞:人工智能;科技倫理;道德主體;倫理責任;倫理困境

中圖分類號:B82? ? 文獻標志碼:A? ? ?文章編號:1009-3605(2021)06-0038-11

一、導(dǎo)言

近年來,人工智能已經(jīng)成為信息科技領(lǐng)域發(fā)展勢頭最為強勁的“排頭兵”,甚至有人將之稱為對人類經(jīng)濟、社會、文化等各領(lǐng)域產(chǎn)生重大影響的顛覆性技術(shù)。人工智能研究的最終目標是從一個新的視角來認識人類的思維能力。人工智能與其他新興技術(shù)一道,形成了人工智能技術(shù)產(chǎn)業(yè)圈,深刻地改變了人類的生產(chǎn)方式和生活方式[1],極大地推動了經(jīng)濟社會的發(fā)展。然而,人工智能的“超能力”也足以讓人們產(chǎn)生某種擔憂,霍金就曾警告超人工智能會毀滅人類[2]。辯證地看,對人工智能盲目樂觀或者過于悲觀都不可取。積極的態(tài)度是正確應(yīng)對,興利除弊,使人工智能更好地造福于人類。

對于人工智能的理解取決于何謂“智能”。所謂“智”,即智慧,從心理學角度來看,知覺、判斷、思維等構(gòu)成了智慧的主要內(nèi)容。所謂“能”,即能力,將智慧以語言或行為表達出來即為能力。那么,基于上述“智能”認識,人工智能一般是指能夠模仿人類智能的機器。[3]關(guān)于這一點,有人發(fā)出這樣的疑問:人工智能究竟是擴展了人類的智能,還是對人類智能的替代?人工智能也好,機器智能也好,都不是簡單的技術(shù)的改變,而是生產(chǎn)力、生產(chǎn)關(guān)系、生產(chǎn)資料的改變。就人工智能的本質(zhì)而言,它還是一種虛構(gòu),尤其是一種科技意義上的虛構(gòu),這正如文學創(chuàng)作中所虛構(gòu)的人物和場景一樣。盡管如此,后者也產(chǎn)生了重要的作用。問題的關(guān)鍵是,人工智能能否像人們所期望的那樣不會對人類造成傷害?或者,人們所擔心的是負責設(shè)計人工智能的人在一開始設(shè)計的時候就作出了錯誤的選擇。

如果僅僅把人工智能看作是一種設(shè)備,那么很難說它與倫理問題有什么關(guān)聯(lián)。但是,對人工智能進行倫理考量,可以幫助人工智能設(shè)計者或者程序員盡可能考慮到人工智能的潛在風險以及自動設(shè)備的責任歸屬問題。因為即使人工智能并沒有內(nèi)置道德規(guī)范,但只要人工智能產(chǎn)生了倫理影響,即可以將之視為道德受體。進一步說,是否人工智能具備自主能力,就可以成為道德主體?而一旦被視為道德主體,是否要求人工智能具備情感、意志等方面的條件?因此,對于人工智能問題,應(yīng)進行系統(tǒng)的倫理思考,從而使得人工智能程序員、參與者和理論研究者能夠在他們的工作中考慮到人工智能對于倫理可能產(chǎn)生的影響。人工智能與新技術(shù)融合后,許多新舊問題交織在一起,這使得與人工智能相關(guān)的倫理問題極其復(fù)雜。[4]

人工智能技術(shù)發(fā)展非常迅速,比如在一些相當困難的游戲領(lǐng)域,人工智能的表現(xiàn)遠遠超過人類。在自動駕駛方面,人工智能技術(shù)得到了廣泛應(yīng)用。另外,人工智能軟件還能夠基于大量的數(shù)據(jù)實現(xiàn)人臉、語言和行為的精準識別。這些人工智能應(yīng)用產(chǎn)生了大量的公共數(shù)據(jù),從而可能對人類未來產(chǎn)生某種不利的影響。即便這只是一種可能性,對于人工智能的倫理考量也是必要的。況且,人工智能不僅在思維層面取得了較大進展,而且在情感層面越來越擬人化,[5]以至于當人工智能以人類所具有的功能相互作用時,至少在部分意義上,它們是被當作社會成員的。人工智能嵌入我們的生活引發(fā)了一系列重要的問題。這些問題或多或少與倫理有關(guān)聯(lián),有些問題迫切需要我們從倫理學意義上作出解答。

二、人工智能引發(fā)的倫理問題

人工智能為人類社會發(fā)展提供了美好的前景,但同時也產(chǎn)生了諸多至關(guān)重要的問題,這些問題如果運用倫理的視角分析可以得到更好的理解。

(一)在我們的社會中,人工智能的行為應(yīng)當是怎樣的?

人類社會經(jīng)歷了幾千年才造就現(xiàn)在的文明,在這一過程中,由于人類的錯誤也曾經(jīng)使得文明遭遇劫難,人類在處理自身錯誤時已經(jīng)積累了一定的經(jīng)驗,但是,對于人工智能可能犯的錯誤,人類還沒有做好充分的準備。計算機病毒造成的損害,人們已經(jīng)明了,而一旦人工智能系統(tǒng)中植入了不良代碼,或者人工智能系統(tǒng)被惡人控制,那么,其造成的損害將是人類所不能承受之重。

人工智能在最基礎(chǔ)的層面來說就是能夠作出選擇的計算機程序。當然,現(xiàn)在的智能系統(tǒng)主要是輔助人類作出決策,例如智慧城市中的交通、供水、供電等方面的系統(tǒng)優(yōu)化。未來,人工智能會更廣泛運用到其他領(lǐng)域,人工智能也有望在我們的日常生活中得到更多的應(yīng)用,比如智能掃地機、自動駕駛以及幫助照看寵物等。

我們都知道計算機程序能夠產(chǎn)生預(yù)料之外的后果,而且植入計算機系統(tǒng)也會產(chǎn)生附加的影響。正如真實世界的經(jīng)濟會突然崩潰一樣,計算機系統(tǒng)也不例外。人工智能具有自主學習能力,其行為會否超出人類的控制,從而造成無法挽回的損失?它們的責任與一般意義上的社會倫理責任有何關(guān)系?這是一個必須認真對待的問題。從本質(zhì)上來說,人工智能倫理問題雖然是因技術(shù)而產(chǎn)生的,但是它卻無法僅僅依靠技術(shù)來解決,人工智能的技術(shù)研發(fā)和應(yīng)用必須受到法律和道德規(guī)范的約束。不受任何約束的技術(shù),很有可能造成人類的毀滅。[6]可行的方案是建立人工智能倫理審查委員會以對人工智能倫理相關(guān)問題進行全面監(jiān)管。[7]倫理源于情感,比如孟子所說的“惻隱之心”就是基于情感的倫理意識,“羞惡之心”“辭讓之心”“是非之心”,雖然有了較多的理性反思,但或多或少地與情感有一定的聯(lián)系。因此,人工智能的道德學習是一個比較復(fù)雜的過程,它更多的是一個情感過程而非技術(shù)過程,因而很難程序化,這就使得人類對于人工智能倫理的監(jiān)管更為困難。人工智能倫理的關(guān)鍵是將人工智能這種技術(shù)物提升到人所處的道德地位,從而使人工智能成為受到倫理規(guī)范約束的道德能動者。[8]

(二)人工智能會不會侵犯人們的隱私權(quán)?

從社會發(fā)展的角度來看,隱私保護是文明社會的一個重要標志。隱私權(quán)是一項基本的人格權(quán)利,是人權(quán)的重要構(gòu)成部分,保護隱私權(quán)就是保護人權(quán)。在大數(shù)據(jù)時代,數(shù)據(jù)就是隱私。人工智能在開發(fā)、使用過程中會收集大量用戶信息,這些信息單獨地看,都是碎片化的信息,并不包含過多的隱私內(nèi)容,但是,當運用一定的智能算法來整合這些數(shù)據(jù)時,某個人的一切行為都會被描繪出來,也就是說,個人信息都會暴露無遺,隱私完全不存在了。在現(xiàn)代社會,很難想像一個人能夠完全脫離互聯(lián)網(wǎng),然而,只要運用網(wǎng)絡(luò),個人隱私信息就不可避免地被獲取,特別是一些不法分子在經(jīng)濟利益的驅(qū)動下,利用法律或政策的漏洞大肆收集用戶個人隱私信息,另外還有一些黑客通過入侵的手段竊取用戶的隱私信息。鑒于人工智能的算法對于普通用戶而言完全是一個黑箱,用戶的個人信息往往是在用戶不知情的情況下就被收集了,人們難免對個人隱私信息會否被過度收集而心存疑慮。[9]確實,在信息時代,要做到“大隱隱于網(wǎng)”是極其困難的,每個人都好像是“透明人”,不管他(她)在大街上、在單位,或者是在家里,都像處于“圓形監(jiān)獄”中。人們都希望一方面享受信息化的便利,另一方面保護個人隱私,這同樣也是人們運用人工智能的倫理困境。

由于人工智能具有自主學習的能力,人們在使用人工智能時,哪些信息會被收集,收集的信息如何處理,用戶是一無所知的。當人工智能系統(tǒng)存在漏洞時,它不可避免地對人們的隱私權(quán)造成侵犯。一旦這些隱私數(shù)據(jù)被無意或惡意泄露,犯罪分子就可能利用這些隱私數(shù)據(jù)從事犯罪活動。

數(shù)據(jù)是人工智能倫理約束的主要內(nèi)容。為了防范可能出現(xiàn)的上述問題,必須要求人工智能相關(guān)數(shù)據(jù)是透明的,即它所收集的任何數(shù)據(jù)必須以明示的方式獲得用戶的許可,而且,這些數(shù)據(jù)的流向以及使用方式也必須是透明的。對于技術(shù)與倫理的關(guān)系,有人主張應(yīng)當倫理優(yōu)先。人工智能發(fā)展不能以犧牲個人隱私權(quán)為代價,現(xiàn)在各種應(yīng)用場景中的人臉識別已經(jīng)引發(fā)人們對于技術(shù)凌駕于倫理之上的擔憂。人工智能倫理的核心問題之一是責任,在人工智能設(shè)計、使用等各個環(huán)節(jié)都需要強化倫理審查、約束機制,收集要授權(quán),使用有界限,存儲應(yīng)保護,唯其如此,才能形成人工智能有序發(fā)展、規(guī)范發(fā)展、健康發(fā)展的局面。

(三)人工智能會造成大規(guī)模的失業(yè)現(xiàn)象嗎?

歷史地看,每一次技術(shù)革命都會造成失業(yè)現(xiàn)象,特定的工種或工作崗位會被淘汰。人工智能是一種能夠替代人的智力勞動和體力勞動的前沿技術(shù)。毫無疑問,“雇傭”智能機器人“性價比”更高,因此,人工智能所帶來的自動化浪潮對于勞動密集型產(chǎn)業(yè)的影響是極其巨大的。當人工智能越來越強大時,傳統(tǒng)經(jīng)濟領(lǐng)域會減少大量原來由人力所承擔的工作崗位,特別是那些簡單的、重復(fù)性的工作崗位會被人工智能所替代,從而大幅度提高工作效率,降低生產(chǎn)成本,但是就業(yè)者的勞動權(quán)被剝奪,這會減少其經(jīng)濟收入,降低其生活質(zhì)量,加重其挫敗感,加劇社會不公平,甚至造成社會結(jié)構(gòu)的不穩(wěn)定。人工智能取代人的工作崗位并不僅僅局限于勞動密集型產(chǎn)業(yè),在一些智力密集型行業(yè),如醫(yī)療保健、新聞媒體、教育培訓(xùn)等,都出現(xiàn)了人工智能對人的工作崗位的取代現(xiàn)象[10]。如果隨著人工智能應(yīng)用范圍的擴展,當絕大多數(shù)工作都由人工智能承擔時,那么,人的主體性地位將受到挑戰(zhàn),因為工作并不僅僅是謀生的手段,更重要的是人作為主體的標志。如果一個人因為落后于人工智能時代,而被時代所拋棄,成了“多余的人”,那是多么荒謬的事啊。

當然,也有一種說法是,新技術(shù)會增加一些新的工作崗位。然而,這些工作崗位并非那些因為技術(shù)革新而失去崗位的人所能勝任的,而且,這些人由于其所從事的主要是簡單勞動,勞動技能較低,通過再培訓(xùn)獲得需要更高技術(shù)要求的新崗位也是極為困難的,即便能夠再就業(yè),也很有可能淪為智能機器的附庸。對于這些人來說,不公平顯然是存在的。人工智能技術(shù)的發(fā)展,在提高工作效率、消除舊技術(shù)所帶來的不公平的同時,也會造成新的不公平,即掌握了人工智能技術(shù)的人能夠獲得更大的就業(yè)方面的優(yōu)勢地位,從而形成“人工智能鴻溝”。這一鴻溝可以存在于不同人群,也可以存在于不同地區(qū)、不同國家。為了防止“資本的邏輯”或“技術(shù)的邏輯”來主宰人類的命運,勞動者要做好心理準備與技能儲備;政府應(yīng)當考慮到人工智能發(fā)展對于傳統(tǒng)就業(yè)的沖擊,要為被人工智能替代的人尋找出路,通過教育、培訓(xùn)提升他們的專業(yè)技能,建立健全社會保障制度,保護他們的合法權(quán)益。

(四)可以在戰(zhàn)爭中使用智能武器嗎?

關(guān)于在戰(zhàn)爭中使用智能武器的做法,已經(jīng)引起了廣泛的爭論。反對智能武器的觀點認為,一旦允許在戰(zhàn)爭中使用智能武器,怎樣保證它只針對軍事人員而不殺戮平民?它能否像戰(zhàn)士一樣遵循戰(zhàn)爭道德?誰來決定是足以使敵人喪失反抗能力即可還是直接殺死敵人?有人擔心,一旦智能武器被恐怖分子掌控,很可能造成對平民的大規(guī)模殺戮,甚至會引發(fā)世界大戰(zhàn)。

不過,也有很多人支持在戰(zhàn)爭中使用智能武器。他們認為,很多戰(zhàn)爭是必需且正義的,智能武器能夠讓人遠離火線。這種觀點還認為,在遵循旨在減少戰(zhàn)爭犯罪的戰(zhàn)爭法和交戰(zhàn)規(guī)則的前提下,戰(zhàn)爭中使用機器人要優(yōu)于人類參與戰(zhàn)爭。

無論是否在戰(zhàn)爭中使用人工智能,都應(yīng)當以促進人類和平為出發(fā)點。一旦出現(xiàn)智能武器使用異常而又無法人為干擾的情況,智能武器可能成為殺人惡魔。據(jù)報道,美國曾在阿富汗等地使用智能武器,但造成了163名平民被誤殺[11]。不僅如此,智能武器還會引發(fā)新一輪軍備競爭,破壞人類的基本價值體系,無人機和智能武器的大規(guī)模運用很有可能是人類文明的一場災(zāi)難。因此,開發(fā)智能武器必須進行專家評估,特別是應(yīng)當對其進行倫理風險評估。人工智能倫理的底線要求是不能允許人工智能對人類作惡。人類只有一個地球,世界各國應(yīng)共同致力于構(gòu)建人類命運共同體。因此,對于人工智能的惡意使用以及軍事應(yīng)用,必須從全球治理層面進行法治和倫理的規(guī)制。

(五)對超級人工智能和異?,F(xiàn)象擔憂是“杞人憂天”嗎?

我們常說,科技以人為本。20世紀40年代艾薩克·阿西莫夫(Isaac Asimov)就提出了“機器人三定律”[12],明確了人工智能的設(shè)計目的在于更好地服務(wù)于人類。但是,我們能否保證,人類與人工智能永遠處于“蜜月期”?隨著人工智能的深度學習能力的增強,人工智能所作出的復(fù)雜選擇是否一定符合人類社會的倫理規(guī)范?甚至,會不會有一天,人工智能強大到足以挑戰(zhàn)人類中心地位,它們不再甘心只是人類的工具與附庸,從而主宰人類社會?隨著人工智能越來越“智能”,人卻變得越來越“傻”了。僅就記憶力而言,人工智能的數(shù)據(jù)存儲能力越來越強大,而人類卻患上了健忘癥,一旦離開電子存儲設(shè)備,人類還能記憶什么?

現(xiàn)在,學者們對于未來人工智能的作用存在不同的理解。有學者將人工智能稱為我們現(xiàn)在最大的威脅,他們擔心:在人機關(guān)系中,人類的主體性地位能否得到保障?人類的價值觀能否被人工智能所認同?也有學者對人工智能持謹慎樂觀的態(tài)度,只是對超級人工智能表示擔心。他們認為,如果人類能夠很好地控制人工智能,那么人工智能的發(fā)展前景還是值得期待的。有學者認為,對于人工智能所造成的所謂異常不必“杞人憂天”,即便出現(xiàn)異常,也是低概率事件。不過,這一賭注代價確實太大,因為一旦人工智能出現(xiàn)異常,所造成的損失往往是巨大的。

在信息時代,人類與人工智能共同進行著信息化生存,在信息環(huán)境構(gòu)建方面(或者通俗地表述為“話語權(quán)”),顯然,人工智能更占據(jù)優(yōu)勢地位,如此一來,“人類獨一無二的地位將被取代”[13]108。那么,如果倫理規(guī)范的制定僅以話語權(quán)為依據(jù),人的主體性地位就岌岌可危了。早在公元前5世紀,古希臘智者普羅泰戈拉就提出“人是萬物的尺度”這一命題[14]。盡管對于這一命題有不同的理解,但是,其中所蘊涵著人的主體性地位是比較明顯的。然而,在人工智能時代,“智能和自主將不再是人類獨有的特性”[13]38,人的主體性地位就喪失了,這本質(zhì)上就是一種“異化”,是技術(shù)對人類的“反動”。是否還存在一種可能,即人工智能系統(tǒng)可以完全自主運轉(zhuǎn),那么,人的位置在哪里?怎樣保證在人工智能技術(shù)系統(tǒng)的構(gòu)建與改造過程中,以人為主導(dǎo)并受到人的控制?

(六)我們應(yīng)當把人工智能當作人一樣對待嗎?

隨著人工智能越來越深地介入人類社會,我們將面臨著如何對待人工智能的倫理困境?,F(xiàn)在,越來越多的學者認為,人工智能并非與道德無涉。正如在今天的社會中,人工智能已經(jīng)占據(jù)了極其重要的地位,在可以預(yù)見的未來,人工智能會成為一個擁有知識和關(guān)系的獨特個體。作為一個獨特個體,人工智能也有自己的權(quán)利嗎?也許有人認為,人工智能應(yīng)該追求人類福祉,而不應(yīng)當享有與人類同等的權(quán)利,但是,如果把人工智能定位為道德能動者,那么人工智能必須對其行為負責,人工智能倫理規(guī)范在對人工智能提出責任要求的同時,如何保障人工智能的權(quán)利也是一個必須加以重視的問題。

網(wǎng)絡(luò)時代,人們的人際交往能力在不斷下降。隨著機器人被設(shè)計得越來越精密,特別是一些智能伴侶機器人,在外形、聲音、行動等方面幾乎與真人無異,2017年沙特阿拉伯甚至賦予人形機器人索菲婭(Sophia)以公民身份,人形機器人越來越被視為一個有情感的個體,以保姆、伴侶甚至孩子的身份進入人們的家庭,這種現(xiàn)象很有可能會沖擊傳統(tǒng)的人倫關(guān)系[15]。當人們更多地與機器人交往時,會否減少與他人的人際交往?人際關(guān)系會否越來越淡漠?看一看我們周圍的“低頭族”,也許這種擔心并不是多余的。癡迷于網(wǎng)絡(luò)交流,忽視現(xiàn)實中面對面的交流,使人更疏遠。

另一方面,當人工智能發(fā)展到一定程度而具有道德判斷能力時,其道德感的生成并非瞬間完成的,而是有一個與人類互動養(yǎng)成的過程。此時,人工智能對人類的依賴關(guān)系更加強烈,人類與人工智能也同樣更加密不可分。人工智能不應(yīng)被簡單地理解為人類的附屬品,因為與其他技術(shù)產(chǎn)品不同,人工智能被賦予了“生命”“價值”“情感”等方面的內(nèi)涵。

人工智能倫理最核心的是責任問題,這種責任是相互的,即人類對人工智能的責任和人工智能對人類的責任同等重要。在大工業(yè)生產(chǎn)條件下,每個崗位、每個環(huán)節(jié)各司其職、各負其責,這是效率提升的必然要求,然而,這種高度分工必然造成責任的“碎片化”,即無人對整體負責。人工智能倫理的提出就是要打破這種僵局,構(gòu)建一種人類與人工智能共生共在的倫理共同體,因為人類與人工智能的生存本質(zhì)在信息這個層面實質(zhì)上是相同的。在傳統(tǒng)時代,作為個體的人和作為整體的人類與信息、數(shù)據(jù)關(guān)聯(lián)度并不高,但是,在大數(shù)據(jù)時代,信息即存在、數(shù)據(jù)即內(nèi)容,無論是人類還是人工智能,概莫能外。根據(jù)系統(tǒng)論的觀點,技術(shù)與人類之間是共生關(guān)系,人工智能的發(fā)展已經(jīng)使之與人類社會高度融合。而要構(gòu)建和諧的人-機關(guān)系,應(yīng)當以文化和價值觀的可接受性作為前提。

三、理解人工智能倫理的多元視角

人工智能不是與人類社會無關(guān)的純粹技術(shù)問題,而是存在于人類社會生活之中并對人類社會生活產(chǎn)生重大影響的新技術(shù)。既然人工智能是人類社會實踐的產(chǎn)物,那么,討論人工智能倫理問題就不可能脫離人類社會實踐的大背景。在我們研究人工智能倫理問題時,應(yīng)將之放置于人類社會倫理體系的大框架之中來認識。

人工智能倫理是科技倫理在人工智能領(lǐng)域的具象化,而科技倫理是對于科學技術(shù)活動中人與人、人與自然、人與技術(shù)等方面關(guān)系的倫理規(guī)范,屬于應(yīng)用倫理學的范疇。倫理是我們處理與自然、社會關(guān)系的基本規(guī)范。學習倫理學,可以使我們應(yīng)對倫理挑戰(zhàn),從而正確地理解世界以及正確地處理與他人的關(guān)系。通過倫理學理解世界的大多數(shù)研究方法要接受三個方向各異的主要定位:道義論、功利主義、美德倫理。

道義論認為倫理應(yīng)當遵從道德律令。與人類一樣,人工智能也應(yīng)當遵循道義論倫理學所確立的道德律令。如果人工智能具備自主性,成為道德能動者,具備了道德主體的地位,人工智能必須為自身的過失行為承擔責任,那么,這是否意味著人工智能的設(shè)計者、生產(chǎn)者、銷售者、所有者、使用者等可以免除責任呢?如果人工智能可以承擔責任,人類會否將自身應(yīng)當承擔的責任轉(zhuǎn)嫁給人工智能呢?人工智能如果成為人類免責的工具,不論是對于人工智能的權(quán)利保障而言,還是對于受害者(人工智能或人)的權(quán)利維護而言,都是不公平的。如果需要人工智能承擔民事責任,它有財產(chǎn)可供執(zhí)行嗎?如果需要人工智能承擔刑事責任,那么有期徒刑這種對人身自由的限制對于人工智能有沒有意義?如果判處人工智能死刑,是徹底銷毀還是抹去記憶?這種死刑有意義嗎?或者說,人工智能會像人那樣畏懼死亡嗎?“民不畏死,何以死懼之?”對于人工智能亦然是成立的。如果人工智能連對死亡的畏懼之心都沒有了,人類如何制約它?人工智能應(yīng)服務(wù)于人類,而不能使人類受制于它,這是人工智能倫理設(shè)計的底線原則。

功利主義倫理學也被稱為效果主義。通常,人們是根據(jù)某種行為的后果來判定是否合乎道德。相比較人類,人工智能在計算(“算計”)行為的后果(“效用”)方面,有著更大的優(yōu)勢。那么,能否說人工智能比人類更高尚呢?但實際上,行為是由理念主導(dǎo)的,道德行為之前必須有道德選擇問題。當人機互動成為可能,人類能否洞察人工智能某種行為的內(nèi)在動機?我們知道,對于情緒管理能力極好的人,測謊儀基本上沒有什么用處。同樣,人工智能比人類更善于隱藏自己的真實動機。這樣一來,人工智能是一個黑箱,人類反而是透明的,人類與人工智能的主次地位就顛倒了。人工智能對于人類的意義又在哪里呢?當然,從現(xiàn)實效用來看,那些道德水準較高的人工智能可能更容易與人類相處,更易被人類社會所接受。

美德倫理雖然歷史久遠,但是一直未受到足夠的重視。美德是美德倫理的核心概念,是指一個人持久的良好品性,包括基本美德(如仁愛、正義等)和派生美德(如友善、誠實、謙虛等)。美德倫理把行為主體的品質(zhì)和動機作為評價對象,認為美德可以培養(yǎng),強調(diào)道德教育的重要性。與道義論關(guān)注責任、功利主義關(guān)注后果不同,美德倫理重在優(yōu)良品質(zhì)的培養(yǎng),這是合乎道德行為的保障,因此,可以作為人工智能倫理設(shè)計的理論依據(jù)。在人類社會中,我們希望好人越多越好,壞人越少越好,同樣,在人工智能倫理設(shè)計環(huán)節(jié),應(yīng)當將道德規(guī)范預(yù)先植入人工智能系統(tǒng),讓人工智能成為一個“好機器人”,而不是一個“壞機器人”。

人工智能的發(fā)展對于傳統(tǒng)道德哲學構(gòu)成了挑戰(zhàn),一些既有的道德原則和倫理規(guī)范的適用性也存在著諸多問題。究其原因,在于人工智能顛覆了傳統(tǒng)的人與技術(shù)關(guān)系的判斷。在人工智能作為一種技術(shù)出現(xiàn)之前,其他所有的技術(shù)都未對人類的主體地位構(gòu)成挑戰(zhàn),而人工智能則對人進行了重構(gòu),甚至人的身份也出現(xiàn)了模糊,比如,基于生物傳感技術(shù)的可穿戴式人工智能設(shè)備就實現(xiàn)了“人-機”合一。人工智能技術(shù)的發(fā)展是非常迅速的,解決由人工智能所引發(fā)的倫理問題更是迫在眉睫。如果我們在人工智能倫理設(shè)計中缺乏前瞻性,人工智能技術(shù)發(fā)展所帶來的風險是難以控制的。當前人工智能倫理風險主要包括人類的決策主體地位難以完全保障、用戶隱私權(quán)受到侵犯、安全責任主體難以落實以及破壞社會公平等方面[16]。人工智能發(fā)展的目的在于增進全人類的福祉,任何技術(shù)的狂妄所帶來的都可能是一場災(zāi)難。倫理是作為主體的人在處理與他人、與自然關(guān)系時所產(chǎn)生的,是人類的基本屬性,人工智能倫理的實現(xiàn)就有一個“學”和“習”或者說“知”和“行”的過程,前者是指將人類倫理觀和倫理規(guī)范通過技術(shù)方式植入人工智能,后者是指人工智能在具體實踐中如何貫徹人類倫理觀和倫理規(guī)范。如果人工智能倫理只是止步于前者,那么,隨著人工智能更加“智能化”,特別是當人工智能的自主學習能力更強以至于在某種程度上獲得了主體地位時,倫理困境甚至倫理危機就不只是存在于科幻作品中,而極有可能成為現(xiàn)實了。

四、人工智能倫理調(diào)適的基本路徑

尋找人工智能倫理調(diào)適的基本路徑應(yīng)當從界定人類與人工智能的關(guān)系入手。因為,人工智能倫理的本質(zhì)就是人類與人工智能的關(guān)系。在討論人類與人工智能的關(guān)系時,有兩種理解方式。

一種是“主體說”,即認為人工智能擁有與人類相同的地位,人工智能是法律意義的“自然人”,能夠以自己的名義承擔責任、享受權(quán)利,而自我意識是承擔倫理責任的前提,因此,在倫理學意義上,人工智能本身就是道德主體。根據(jù)智能化水平的高低,人工智能分為弱人工智能、強人工智能和超人工智能。在目前的技術(shù)條件下,人工智能尚處于弱人工智能階段。在這一階段,如果說人工智能具備主體地位還比較牽強。當然,我們可以做出一種技術(shù)前瞻,未來的人工智能可能達到強人工智能乃至超人工智能水平,人工智能具有了自我意識和深度學習能力,自主性大大增強,一些科幻作品也將人工智能視為道德主體。屆時,人工智能倫理問題就更為復(fù)雜了。如果把人工智能視為道德主體,而且它能夠承擔道德責任,甚至比人做得更好,那么,人還有存在的必要嗎?人們對于人工智能所可能帶來的“去人類化”不無擔憂[17]。就其本質(zhì)而言,這就涉及人工智能與人類在道德構(gòu)建方面的責任邊界問題。人工智能的道德意識不可能自動生成,要通過預(yù)先植入或后來學習獲得,那么,人類就是人工智能的“造物主”或倫理老師,人工智能的道德意識(比如同情心、善惡、榮辱等)或者由人類通過算法植入或者在與人類的社會交往中生成。當然,如果有人別有用心,罔顧法律和道德,在人工智能的設(shè)計環(huán)節(jié)或?qū)W習環(huán)節(jié)“做手腳”,“教唆”人工智能做壞事,就相當于打開了“潘多拉魔盒”,對人類造成嚴重危害。所以,從根本上來說,對人類造成威脅不是人工智能,而是人類之中的“害群之人”。

另一種是“客體說”,即認為人工智能是服務(wù)于人類的一種技術(shù),這種觀點也是本文的立論前提。在目前的弱人工智能階段,人工智能只具有有限的自主性,背后的設(shè)計者和控制者仍然是人。人是主體,而人工智能是客體。既然如此,那么,從法律意義上講,人工智能必須有其監(jiān)護人或負責主體。我們目前所探討的人工智能倫理,本質(zhì)上是人工智能設(shè)計、開發(fā)、運用中的倫理問題,承擔倫理責任的主體是自然人或法人,而不是作為服務(wù)于人的人工智能。因為人工智能是人為構(gòu)建的計算機系統(tǒng),支配人工智能的是各種程序代碼,程序代碼的倫理規(guī)范必須是預(yù)置在計算機系統(tǒng)中的,這套倫理規(guī)范是由程序設(shè)計師來構(gòu)建或選擇的,因此,從終極意義上來說,人工智能的道德主體依然是自然人或法人。倫理學家的任務(wù)是幫助人工智能工程師確立正確的倫理觀,以促進人工智能與人類的倫理維度相匹配。在大工業(yè)生產(chǎn)模式下,技術(shù)標準與規(guī)范是必需的,在人工智能設(shè)計中植入倫理標準與規(guī)范是人工智能倫理的重要實現(xiàn)方式。當然,這些倫理標準與規(guī)范必須合乎大眾倫理價值。人工智能倫理本質(zhì)上是技術(shù)倫理,人工智能設(shè)計如何體現(xiàn)倫理構(gòu)建的基本要求,即人工智能不能傷害使用者以及其他道德關(guān)聯(lián)者,這是一個值得關(guān)注的重要問題。

一切自由都不是無條件的,如果自由不受任何約束,那必將造成人類的災(zāi)難。人工智能越發(fā)達,其所獲得的自由亦越多,也就越需要倫理的約束。人工智能的進展迫切需要我們擴展倫理學的適用范圍。人工智能的設(shè)計開發(fā)、應(yīng)用以及人機關(guān)系都存在著倫理問題。在過去,倫理學的基本問題只關(guān)乎人類和人類行為。隨著人工智能的越來越智能化,特別是當人工智能具有思考力和感知力時,它是否被視為“人”,就不是一個純粹技術(shù)問題,而必須進行倫理規(guī)范了。因為人工智能能夠基于自身對于復(fù)雜世界的感知而作出自主的行為選擇。在人類的諸多價值或目標之間往往存在著沖突,而且價值是模糊的、難以量化的,道德的復(fù)雜性意味著道德主體不僅要在善與惡之間選擇,而且有時面臨著在兩種及以上不同的價值之間做出選擇的困境,即“道德困境”。以自動駕駛為例,自動駕駛的汽車應(yīng)如何設(shè)計程序以做出一系列的行為選擇,或者當控制系統(tǒng)失靈時能夠進行人工干預(yù),從而避免或者對行人或者對其他車輛的傷害?在不可避免造成傷害的情況下,怎樣權(quán)衡這兩種傷害也許根本不存在所謂正確的選擇,對于程序設(shè)計人員而言,如何在程序設(shè)計時進行倫理考量?比如,何種價值應(yīng)當賦予某種特殊的機器以勝任特殊的任務(wù)。當然,之所以選擇一套價值而不是其他價值,有其成本效益的考慮。

正如人類社會的和諧存在與發(fā)展離不開倫理的調(diào)適一樣,我們正在進入的人工智能社會也離不開人工智能倫理的約束和規(guī)范,人工智能倫理是人工智能發(fā)展的“錨定樁”[18]。人工智能的發(fā)展必須增進人類福祉[19],遵循人類的基本價值觀,然而,人類價值本身是多元的,而且在多種價值之間也存在著沖突與矛盾,到底以何種價值作為人工智能的設(shè)計框架呢?因此,人工智能學習者不僅需要學習和掌握如何將各種算法代碼植入人工智能系統(tǒng),并使之做出相應(yīng)決策的技術(shù),更重要的是要學習倫理理論[20],后者確立了人類選擇行為的基本原則,相應(yīng)地,這些原則對于設(shè)計智能系統(tǒng)也是必需的。由于倫理結(jié)構(gòu)的復(fù)雜性,即使人工智能具備深度學習的能力,其獲得倫理認知能力也是一個循序漸進的過程,畢竟,人工智能既可能“跟著好人學好人”,也可能“跟著巫婆跳假神”,因此,進行人工智能倫理設(shè)計可能面臨著一個試錯的過程。另一方面,倫理規(guī)范又具有相對性,不存在普適性的倫理標準,反映在不同時代、不同國家、不同族群等,倫理規(guī)范都具有差異性,要將已經(jīng)達成的倫理共識(比如以人為本、公正、和諧、可持續(xù)發(fā)展等[21])形成“道德算法”植入人工智能,也即“算法從善”原則[22]。在人工智能設(shè)計過程中,倫理審查的關(guān)口應(yīng)當前置,以防患于未然,不能等待出現(xiàn)問題再“亡羊補牢”。人工智能倫理設(shè)計要有明確的價值定位,即賦予人工智能友善的動機,具備良好的道德品質(zhì),從而做出合乎道德規(guī)范的行為。各國應(yīng)在構(gòu)建人類命運共同體理念指導(dǎo)下,共同應(yīng)對人工智能倫理問題,建立完整、有效的人工智能倫理體系[23],確保人工智能的健康、可持續(xù)發(fā)展,使人工智能更好地增進人類福祉[24]。

參考文獻:

[1]閆坤如,馬少卿. 人工智能倫理問題及其規(guī)約之徑[J].東北大學學報(社會科學版),2018(4):331-336.

[2]孟偉,楊之林. 人工智能技術(shù)的倫理問題——一種基于現(xiàn)象學倫理學視角的審視[J].大連理工大學學報(社會科學版),2018(5):112-116.

[3]伍敏敏.芻論人工智能倫理問題的內(nèi)涵與性質(zhì)[J].智能建筑與智慧城市,2019(3):13-16.

[4]朱琳,周沐融,楊千騰. “革新”與“交融”:基于規(guī)范及準則的人工智能倫理生態(tài)圈的構(gòu)建[J].電子政務(wù),2021(7):80-90.

[5]陳凡,徐旭. 當代人工智能倫理設(shè)計的困境和超越[J].華中科技大學學報(社會科學版),2020(5):1-7.

[6]王東,張振. 人工智能倫理風險的鏡像、透視及其規(guī)避[J].倫理學研究,2021(1):109-115.

[7]劉露,楊曉雷,高文. 我國人工智能倫理監(jiān)管需求分析及對策研究[J].中國工程科學,2021(3):106-112.

[8]張正清,張成崗. 第四次革命:現(xiàn)代性的終結(jié)抑或重構(gòu)——信息倫理對人工智能倫理的啟示[J]. 武漢大學學報(哲學社會科學版),2018(3):177-184.

[9]段偉文.構(gòu)建穩(wěn)健敏捷的人工智能倫理與治理框架[J].科普研究,2020(3):11-15.

[10]王前,曹昕怡.人工智能應(yīng)用中的五種隱性倫理責任[J].自然辯證法研究,2021(7):39-45.

[11]高石. 簡單粗暴,美國無人機反恐遭抨擊[N].人民日報,2016-07-04(21).

[12]溫德爾·瓦拉赫,科林·艾倫. 道德機器:如何讓機器人明辨是非[M]. 王小紅,等,譯. 北京:北京大學出版社,2017:1.

[13]盧西亞諾·弗洛里迪. 第四次革命[M]. 王文革,譯. 杭州:浙江人民出版社,2016.

[14]張志偉. 西方哲學史[M]. 第2版.北京:中國人民大學出版社,2010:51.

[15]孫偉平.人工智能導(dǎo)致的倫理沖突與倫理規(guī)制[J].教學與研究,2018(8):57-63.

[16]趙志耘,徐峰,高芳,等. 關(guān)于人工智能倫理風險的若干認識[J]. 中國軟科學,2021(6):1-12.

[17]董青嶺.人工智能時代的道德風險與機器倫理[J].云夢學刊,2018(5):39-44.

[18]閆宏秀. 用信任解碼人工智能倫理[J].人工智能,2019(4):95-101.

[19]李倫,孫保學. 給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個維度[J]. 教學與研究,2018(8):72-79.

[20]任安波,葉斌.我國人工智能倫理教育的缺失及對策[J].科學與社會,2020(3):14-21.

[21]陳靜.科技與倫理走向融合——論人工智能技術(shù)的人文化[J].學術(shù)界,2017(9):102-111.

[22]田海平,鄭春林.人工智能時代的道德:讓算法遵循“善法”[J].東南大學學報(哲學社會科學版), 2019(5):5-13.

[23]陳小平.人工智能倫理體系:基礎(chǔ)架構(gòu)與關(guān)鍵問題[J].智能系統(tǒng)學報,2019(4):605-610.

[24]陳小平.人工智能倫理建設(shè)的目標、任務(wù)與路徑:六個議題及其依據(jù)[J].哲學研究,2020(9):79-87.

責任編輯:譚桔華

猜你喜歡
倫理困境人工智能
人工智能之父
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
翻譯職業(yè)道德準則的倫理困境
腦機接口技術(shù):倫理問題與研究挑戰(zhàn)
基層公務(wù)員政策執(zhí)行過程中倫理困境及對策
潛在舉報人秩序遵循倫理困境分析
本土文化視角下人力資源管理倫理困境的研究
寧養(yǎng)社會工作服務(wù)中的倫理困境及反思
湖州市| 砚山县| 额济纳旗| 若尔盖县| 阆中市| 湘潭县| 鄂州市| 乐亭县| 盐源县| 东兴市| 尉氏县| 达孜县| 苗栗县| 黎城县| 通辽市| 安远县| 兴山县| 安岳县| 民和| 博湖县| 娱乐| 盘锦市| 顺义区| 庄浪县| 定边县| 青河县| 蒲城县| 民县| 辽阳县| 长武县| 郧西县| 章丘市| 佛学| 乳山市| 屏东市| 光山县| 宽甸| 土默特左旗| 龙胜| 扎兰屯市| 金门县|