摘要:人工智能并非21世紀(jì)出現(xiàn)的新興概念,早在上世紀(jì)50年代就有以人工智能為主題的文學(xué)和影視作品問世,暢想著未來人類的生活方式。但自李世石和柯潔兩位世界頂尖圍棋選手在谷歌阿爾法狗面前折戟,未來人工智能與人類的關(guān)系開始變得撲朔迷離、發(fā)人深省,人類不再是世界上最聰明的物種,人類的地位似乎會在不遠的將來變得岌岌可危。人工智能作為一種新興事物,其產(chǎn)生與發(fā)展正如歷次科技革命一樣,成為了一種不可逆的歷史潮流,人類與人工智能的關(guān)系問題也一定會在未來的某日擺在我們面前,成為無法繞行與回避的重要課題。本文將以審慎的視角,回顧人工智能與人工智能倫理的發(fā)展過程,分析人工智能倫理的現(xiàn)狀,展望人工智能倫理未來可能的發(fā)展方向。
關(guān)鍵詞:人工智能;倫理;科技;未來
人類與科技的密切關(guān)系可以追溯到人類起源,從人的定義——能制造和使用工具來看,工具制造和使用的方法完全可以稱之為最源初的科技,人類通過科學(xué)認識自然,并通過技術(shù)改造自然,在認識自然與改造自然的過程中,科技也逐步完善,發(fā)展壯大。如同《人類簡史》所描述的觀點,“人類利用小麥種植得以果腹,小麥利用人類種植得以延續(xù)和擴張”1,由此觀之,科技與人類更類似于一種共生關(guān)系,科技的進步標(biāo)志著人類的發(fā)展,人類的發(fā)展依靠科技的進步。在這種依存關(guān)系中,為避免科技所帶來的風(fēng)險而裹足不前顯然是不現(xiàn)實的,歷史的車輪不可能由于人類的意志而停止,人類也不可能為了規(guī)避或然的風(fēng)險而選擇開歷史倒車。人工智能縱使伴隨著諸多爭議,其產(chǎn)生與發(fā)展、應(yīng)用與推廣、并最終融入我們的生活卻是大勢所趨,人工智能走入我們的生活只是時間問題,我們所要考慮的是需要以何種方式迎接人工智能的到來和普及,以及人工智能普及之后,我們需要如何與人工智能相處。
1 人工智能的起源與發(fā)展
1950年,馬文·明斯基(后被稱為“人工智能之父”)與其同學(xué)鄧恩·艾德蒙一起,建造了世界上第一臺神經(jīng)網(wǎng)絡(luò)計算機,這被認為是現(xiàn)代人工智能的一個起點。同年,有“計算機之父”之稱的阿蘭·圖靈提出了圖靈測試,以判斷機器是否具有智能。按照圖靈的考慮,如果一臺機器能夠與人類開展對話,而其交流對象有三分之一無法判斷其是否為機器,則這臺機器具有智能。他還大膽預(yù)測了具備真正智能機器出現(xiàn)的可能性。
1956年夏天,約翰·麥卡錫、馬文·明斯基、克勞德·香農(nóng)等科學(xué)家在美國達特茅斯學(xué)院開會,商議用機器來模仿人類智能,會議持續(xù)了兩個月的時間,雖然沒有達成共識,卻作為會議議題首次提出了“人工智能”這一概念,這是“人工智能”概念的正式提出,1956年也成了人工智能元年。
從人工智能自身的發(fā)展程度來劃分,學(xué)界通常將人工智能的發(fā)展分為三個階段2,其一是屬于圖靈機概念的AI,亦即可以與人交流,通過圖靈測試的AI,其二是等價于人類智能的人工智能AGI(通用人工智能,artificial general intelligence),其三則是全面超越人類智能的高端智能稱為SI(超級智能,super intelligence),目前我們應(yīng)當(dāng)處于向AGI發(fā)展的階段。不過,這種劃分僅僅是從智能程度上來區(qū)分。另外一些學(xué)者從哲學(xué)性質(zhì)上將人工智能進行了重新劃分,以是否具備笛卡爾“我思”特征為標(biāo)準(zhǔn),提出將人工智能劃分為尚未達到“我思”標(biāo)準(zhǔn)的非反思性人工智能,以及達到或者超越笛卡爾“我思”標(biāo)準(zhǔn)的反思性人工智能,稱為ARI(artificial reflexive intelligence)。一種觀點認為,奇點的標(biāo)志即ARI的誕生,由于人工智能具備了反思能力,成為了單獨的思維主題,它或許有能力對自身的行為進行不斷自我修正以實現(xiàn)進化,而這種進化或許是超出人類預(yù)期的,甚至是對人類有害的。
從這個視角來看,人工智能技術(shù)可以與一切傳統(tǒng)科學(xué)劃清界限,因為既有的科技成果,無論是汽車飛機還是核武導(dǎo)彈,無論是手機電視還是信息網(wǎng)絡(luò),其本源是一種工具,而具有反思性的人工智能除具有工具性以外,很可能還具有使用工具的能力,它或許能夠決定汽車要走那條路、飛機何時起飛、導(dǎo)彈射向何處,那么回溯到“人”的概念,會制造和使用工具的人工智能應(yīng)當(dāng)如何界定呢?
2 人工智能倫理的起源與發(fā)展
目前,關(guān)于人工智能的倫理尚未單獨成為一門學(xué)科,但已經(jīng)有一些學(xué)者前瞻性地意識到,人工智能倫理學(xué)體系的建立對調(diào)整人類與人工智能的關(guān)系,規(guī)范人工智能的發(fā)展方向必將產(chǎn)生積極和深遠的作用。麻省理工學(xué)院于2020年4月出版了《人工智能倫理學(xué)》一書,從技術(shù)層面解釋了人工智能,并對相關(guān)哲學(xué)探討進行了調(diào)查研究,或許是人工智能倫理學(xué)作為單獨學(xué)科發(fā)展的一個不錯的開端。
雖然在人工智能蓬勃發(fā)展的今日,人工智能倫理開始備受關(guān)注,不過人們關(guān)于人工智能倫理的思考卻早已存在了半個世紀(jì)。
1950年,科幻作家阿西莫夫提出了著名的“機器人三定律”,對人工智能倫理的發(fā)展無疑具有深遠的影響3,其要求機器人遵守“不傷害”“服從”和“自保”三條行動原則。這些雖然都是一些概要性原則,但我們不難發(fā)現(xiàn)其本質(zhì)是確保AI為人類服務(wù),這個內(nèi)核在以后數(shù)次關(guān)于人工智能倫理的討論中被保留了下來。2017年1月初,在美國加州的阿西洛馬市舉行的“beneficial AI”會議上,形成了“阿西洛馬人工智能原則”4,其6-18條指出了人工智能的倫理和價值,主要包括安全性、故障透明性、司法透明性、責(zé)任、價值歸屬、個人隱私等條款,旨在確保人類在新技術(shù)出現(xiàn)時能有效規(guī)避其潛在風(fēng)險。MIT媒體實驗室和哈佛大學(xué)伯克曼克萊恩互聯(lián)網(wǎng)及社會研究中心還共同成立了“人工智能倫理和監(jiān)管基金”,用于解決人工智能所帶來的人文及道德問題。次年,微軟發(fā)表的《未來計算》一書中,提出了人工智能開發(fā)的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任,反觀當(dāng)前的人工智能技術(shù)應(yīng)用,不難感受到微軟提出的六大原則直指要害、很有必要。反觀當(dāng)下關(guān)于人工智能的種種,大數(shù)據(jù)殺熟顯然違背了公平原則,特斯拉剎車失靈違背了可靠與安全原則,算法黑箱則與透明原則相悖,至于責(zé)任原則,國內(nèi)乃至世界上對于人工智能開發(fā)及應(yīng)用的立法較之技術(shù)的發(fā)展都顯得滯后和無力。
國內(nèi)較早提出人工智能倫理問題的是百度的李彥宏,在2018年的中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會“人工智能高端對話”環(huán)節(jié)的演講中,李彥宏提出了“AI倫理四原則”, 包括:AI的最高原則是安全可控;AI的創(chuàng)新愿景是促進人類更平等地獲取技術(shù)和能力;AI的存在價值是教人學(xué)習(xí),讓人成長,而非超越、替代人;AI的終極理想是為人類帶來更多自由與可能。作為全國政協(xié)委員,李彥宏在2019年的全國政協(xié)十三屆二次會議上進行了題為《加快推動人工智能倫理研究》的發(fā)言。發(fā)言中,他就建設(shè)人工智能倫理架構(gòu)提出了三點建議,一是明確人工智能倫理原則,二是強化領(lǐng)軍企業(yè)擔(dān)當(dāng),加快人工智能倫理原則落地,三是加強國際交流,引領(lǐng)行業(yè)發(fā)展,凝聚全球共識。
對比國內(nèi)外的人工智能倫理原則,我們不難發(fā)現(xiàn),安全和平等(公平)都被放在了比較重要的位置,而國外提出的人工智能倫理原則對于透明有著不同尋常的執(zhí)著,國內(nèi)卻并未提及有關(guān)內(nèi)容。一些資料顯示,人工智能借由深度學(xué)習(xí)而掌握的技能背后的算法,甚至連開發(fā)者都并不掌握,使得透明原則成為了一種奢望,這無疑是對人工智能的一種放任,與安全和平等(公平)原則相背離,使“安全可控”成為一句空談。因此,算法透明無疑是十分重要的,對于其他原則來講,或許算法透明應(yīng)當(dāng)作為優(yōu)先級更高的人工智能倫理原則。
國內(nèi)對于人工智能倫理的研究成果在近幾年呈現(xiàn)出蓬勃發(fā)展的態(tài)勢,但總體上來看,高水平的研究成果仍然較少。根據(jù)中國知網(wǎng)(CNKI)檢索結(jié)果顯示,以“人工智能”“倫理”為關(guān)鍵詞的文獻從2010年開始出現(xiàn)了較為顯著的增長,更是在2015年之后呈現(xiàn)快速增長的態(tài)勢,其中2019和2020年更是分別達到1115篇和1111篇,但以相同關(guān)鍵詞在中文社會科學(xué)引文索引(CSSCI)中檢索發(fā)現(xiàn),關(guān)于人工智能倫理的高水平研究成果全部分布在2017年以后,2017至2020年分別發(fā)表1篇、4篇、5篇、10篇,較之上千的基數(shù)來講,占比微乎其微。在人工智能迅猛發(fā)展的今天,各界應(yīng)當(dāng)對人工智能倫理給予更多的關(guān)注,以確保人工智能技術(shù)能夠持續(xù)快速健康地發(fā)展,不斷為人類創(chuàng)造新的財富與便利。
3 人工智能倫理的發(fā)展現(xiàn)狀與展望
3.1 人工智能倫理現(xiàn)狀
倫理是人倫道德之理,是處理人與人、人與社會之間的關(guān)系以及處理這些關(guān)系時所應(yīng)遵循的道理和準(zhǔn)則。而倫理學(xué)是哲學(xué)的一個分支學(xué)科,其本質(zhì)是關(guān)于道德問題的科學(xué),是道德思想觀點的系統(tǒng)化、理論化,其基本問題是道德和利益的關(guān)系問題,即“義”與“利”的關(guān)系問題。其主要包括兩方面的內(nèi)涵,一方面是道德和經(jīng)濟利益的關(guān)系問題,另一方面則是個人利益與社會整體利益的關(guān)系問題。5
前文提到,人工智能倫理可以認為濫觴于上世紀(jì)50年代由阿西莫夫提出的“機器人三定律”,而在近幾年伴隨著人工智能技術(shù)的發(fā)展與應(yīng)用,人工智能倫理逐步發(fā)展起來,不同的國家,不同的組織紛紛提出了人工智能的倫理原則和規(guī)范,例如美國五角大樓提出的“負責(zé)、公平、可追蹤、可靠和可控”,日本政府提出的《以人類為中心的人工智能社會原則》,歐盟提出的《AI倫理指導(dǎo)方針》,澳大利亞英聯(lián)邦科學(xué)和工業(yè)研究組織提出的《人工智能:澳大利亞的道德框架》……其具體內(nèi)容雖各不相同,本質(zhì)內(nèi)涵卻大同小異,但這些所謂的倫理規(guī)范或框架存在著一個不容忽視的通病——目標(biāo)太寬泛,操作性不強。較之歷史較悠久積淀較豐厚的醫(yī)學(xué)倫理學(xué)來講,人工智能的倫理架構(gòu)顯然容易使人無所適從,例如在醫(yī)學(xué)倫理中有公正的原則,禁止非醫(yī)學(xué)用途的胎兒性別檢查就很好地體現(xiàn)了這一點,又比如醫(yī)學(xué)倫理的尊重病人原則,其一個體現(xiàn)就是要求男醫(yī)生為女性患者檢查時,必須有第三位女性在場。而當(dāng)前階段的人工智能倫理僅停留在一些基本原則和框架層面,對于實際操作中的規(guī)范和要求并沒有明確的規(guī)定,執(zhí)行起來自由空間很大,從實際執(zhí)行效果來看,甚至可能尚不及原始的阿西莫夫機器人三定律。
人工智能倫理的另一個問題是其滯后性,雖然這種滯后性可能一方面是由于人工智能技術(shù)的發(fā)展過于迅速,但較之其他技術(shù)倫理,人工智能倫理仍然顯得頗為遲滯,至少從現(xiàn)階段看,我們并未發(fā)現(xiàn)和提出人工智能技術(shù)應(yīng)用的嚴(yán)格禁區(qū)??寺⊙蚨嗬Q生十年后聯(lián)合國即通過了禁止克隆人的克隆禁令6,人類基因組草圖繪制完成后的第三年,我國科技部和衛(wèi)生部即聯(lián)合下發(fā)了12條《人胚胎干細胞研究倫理指導(dǎo)原則》。這些存有較大爭議的技術(shù)從其出現(xiàn)到倫理框架的搭建完成雖也經(jīng)過了一定的周期,但相較于發(fā)展了半個世紀(jì)的人工智能技術(shù)來講,其倫理架構(gòu)無疑更加及時和未雨綢繆。
人工智能倫理的第三個問題是片面性。目前世界上的人工智能倫理規(guī)范多為人工智能應(yīng)用方面的指導(dǎo)原則,而對于人工智能的主體性,以及未來如何與人工智能相處,目前仍多停留在哲學(xué)討論層面,或許隨著人工智能技術(shù)的不斷進步,人工智能倫理也將逐步完善,但在市場經(jīng)濟的大潮之中,面對新技術(shù)的誘惑,人類能否保持克制,是否會出現(xiàn)個別狂熱分子,誰都沒有能力打包票。
3.2 人工智能倫理展望
伴隨著人工智能技術(shù)的飛速發(fā)展,人工智能倫理也必將得到越來越多的關(guān)注,近段時間的人工智能倫理的發(fā)展將以人工智能技術(shù)應(yīng)用規(guī)范為主,其基本原則將與人類的主流價值觀相吻合。而隨著奇點的逐漸臨近,人類也將會越來越多的審視人類與人工智能之間的關(guān)系,目前不少前瞻性的作品中甚至出現(xiàn)了人類無機化的預(yù)期7,如果人類無機化成為現(xiàn)實,人類與人工智能之間的壁壘將徹底被打破,我們不得不接受人工智能作為我們的一份子。屆時,新的悖論將會出現(xiàn)——我們無法以人類的倫理去規(guī)范“新人類”的行為。對于“新人類”來說,或許會產(chǎn)生革命性和顛覆性的倫理體系,這是屬于“新人類”的倫理。
參考文獻:
[1] 尤瓦爾·赫拉利. 《人類簡史:從動物到上帝》[J]. 中國民商, 2015(11):63-64
[2] 趙汀陽.人工智能提出了什么哲學(xué)問題?[J].文化縱橫,2020,{4}(01):43-57
[3] 本刊編輯部.“阿西莫夫三定律”與技術(shù)倫理[J].社會科學(xué)文摘,2020,{4}(11):1
[4] 商瀑.從“智人”到“惡人”:機器風(fēng)險與應(yīng)對策略——來自阿西洛馬人工智能原則的啟示[J].電子政務(wù),2020,{4}(12):69-76
[5] 何懷宏. 倫理學(xué)是什么[M]. 北京大學(xué)出版社, 2015
[6] 龔群. 克隆人的問題倫理及其前景倫理[J]. 上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)(04):27-33
[7] 尤瓦爾·赫拉利 . 未來簡史[M]. 上海社會科學(xué)院出版社, 2010
作者簡介:趙曉陽,1992年1月生,男,漢族,河南平頂山人,北京科技大學(xué)文法學(xué)院碩士研究生,研究方向公共政策分析。