段偉文
人工智能時代的價值審度與倫理調(diào)適
段偉文
人工智能體的擬主體性賦予了人工智能特有的擬倫理角色。通過對此擬倫理角色的分析,可以看到人工智能的價值審度與倫理調(diào)適的基本路徑應為負責任的創(chuàng)新和主體權利保護。立足對合成智能與人造勞動者的價值審度,可提出尋求算法決策與算法權力的公正性,呼喚更加透明、可理解和可追責的智能系統(tǒng),反思智能化的合理性及其與人的存在價值的沖突等價值訴求。應從有限自主與交互智能體概念出發(fā),進一步展開對人工智能的價值校準和倫理調(diào)適,這不僅有助于把握人工智能倫理研究與相關倫理規(guī)范和標準的內(nèi)涵,還可揭示“科技—產(chǎn)業(yè)—倫理”異質(zhì)性實踐所應有的明智。
人工智能;倫理;智能體;擬主體性;負責任的創(chuàng)新
對于人工智能,大多數(shù)人是通過國際象棋、圍棋的“人機大戰(zhàn)”以及在《終結者》、《少數(shù)派報告》、《機器管家》、《黑鏡》之類的科幻影視作品中得以初識的。20年前,當國際象棋大師卡斯帕羅夫在對弈中負于機器人“深藍”時,通過電視直播目睹這一震撼性事件的人們不禁對計算機的強大計算能力嘆為觀止。隨著新一波人工智能大潮涌動,谷歌圍棋機器人接連戰(zhàn)勝圍棋大師李世石和柯潔,則迫使人們不得不開始思考人工智能超越人類智能的現(xiàn)實可能性及我們的應對之道。對此,發(fā)明家出身的未來學家?guī)炱濏f爾(Ray Kurzweil)在《靈魂機器的時代》(1999)、《奇點臨近》(2005)等書中描繪了一幅機器烏托邦圖景:計算機將超過人類智能并幫助人在大約50年內(nèi)接近永生。但同為科技界意見領袖、曾為太陽微計算公司首席科學家的比爾·喬伊(Bill Joy)則認為這大大低估了其導致負面結果乃至未來危險的可能性。他在《連線》上發(fā)表一篇題為《為什么未來不需要我們?》(2000)的文章警示世人:在21世紀,我們最強大的技術——機器人、基因工程和納米技術——將使人類在物種意義上受到威脅。
在相關科幻影視作品中,往往更多地折射了人們對智能化未來的憂思:機器人與人工智能系統(tǒng)會不會變得不僅比我們聰明,而且具有自我意識而不為人所掌控,進而毀滅整個人類?那些數(shù)據(jù)驅(qū)動的智能商業(yè)推薦系統(tǒng)會不會發(fā)展成一眼看穿我們心機的“巫師”,讓我們因為內(nèi)心的一個“壞”念頭而被“預防犯罪”小組警告?機器人會不會突然產(chǎn)生自我身份認同?應該如何面對各種具有自我意識的智能體?等等?;氐浆F(xiàn)實世界,曾幾起幾落的人工智能再度爆發(fā),大數(shù)據(jù)智能、跨媒體智能、自動駕駛、智能化自動武器系統(tǒng)迅猛發(fā)展,其影響可謂無遠弗屆??萍紕?chuàng)新界意見領袖馬斯克等紛紛疾呼:要對人工智能潛在的風險保持高度的警惕!霍金不無擔憂地指出,人工智能的短期影響由控制它的人決定,而長期影響則取決于人工智能是否完全為人所控制。客觀地講,不論是否會出現(xiàn)奇點與超級智能,也不論這一波的人工智能熱潮會不會以泡影告終,毋庸置疑的是人工智能時代正在來臨。故通觀其態(tài)勢,審度其價值進而尋求倫理調(diào)適之道,可謂正當其時。
2015年9月,由國際期刊《負責任的創(chuàng)新》發(fā)起,包括中國學者在內(nèi)的全球十多位科技政策與科技倫理專家在《科學》雜志上發(fā)表了一封題為《承認人工智能的陰暗面》的公開信。信中指出,各國的科技、商業(yè)乃至政府和軍事部門正在大力推動人工智能研發(fā),盡管考慮到了其發(fā)展風險以及倫理因素,但對人工智能的前景表現(xiàn)出的樂觀態(tài)度不無偏見,因此,建議在對其可能的危險以及是否完全受到人的控制等問題進行廣泛深入的討論和審議之前,放緩人工智能研究和應用的步伐。[1](P1064)此舉旨在將人工智能的社會倫理問題納入現(xiàn)實的社會政策與倫理規(guī)范議程。
要全面理解人工智能的發(fā)展所帶來的社會倫理沖擊,先要大致了解一下人工智能的基本內(nèi)涵。像所有開放的和影響深遠的人類活動一樣,人工智能的不斷發(fā)展和加速進步使人們很難明確界定其內(nèi)涵。綜觀各種人工智能的定義,早期大多以“智能”定義人工智能,晚近則傾向以“智能體”(agents, 又譯代理、智能主體、智能代理等)概觀之。從人工智能的緣起上講,以“智能”定義人工智能是很自然的。就智能科學而言,計算機出現(xiàn)以前,對智能的研究一直限于人的智能。有了計算機的概念之后,人們自然想到用它所表現(xiàn)出的智能來模仿人的智能。人工智能的先驅(qū)之一圖靈在提出通用圖靈機的設想時,就希望它能成為“思考的機器”:一方面,能夠做通常需要智能才能完成的有意義的事情;另一方面,可以模擬以生理為基礎的心智過程。[2](P11)1956年,在美國達特茅斯學院召開的“人工智能夏季研討會”上,會議發(fā)起人麥卡錫(John McCarthy)、明斯基(Marvin Lee Minsky)、羅徹斯特(Nathaniel Rochester)和香農(nóng)(Claude Elwood Shannon)等指出,從學習與智能可以得到精確描述這一假定出發(fā),人工智能的研究可以制造出模仿人類的機器,使其能讀懂語言,創(chuàng)建抽象概念,解決目前人們的各種問題,并自我完善。[3]但在真正的人工智能研究開啟后不久,人們發(fā)現(xiàn)能夠?qū)崿F(xiàn)的人工智能與通常意義上的智能(人和動物的智能)很不一樣。特別是人工智能的研究者莫拉維克(Hans Moravec)發(fā)現(xiàn),讓計算機在一般認為比較難的智力測驗和棋類游戲中表現(xiàn)出成人的水平相對容易,而讓它在視覺和移動方面達到一歲小孩的水平卻很困難甚至不可能。這就是所謂的“莫拉維克悖論”,它表明,不僅人工智能與人和動物的智能不一樣,而且人工智能在不同研究方向上實現(xiàn)的機器智能也不盡一致。盡管有人認為,由于人工智能的大多數(shù)工作與人所解決的問題相關,而人腦為這些問題的解決提供了天然的模型,也有很多人相信通過研究計算機程序有助于了解大腦的工作機制,但迄今既未出現(xiàn)一種普適的智能理論,也沒有開發(fā)出圖靈和麥卡錫等樂見的可模擬人腦思維和實現(xiàn)人類所有認知功能的廣義或通用人工智能[Artificial General Intelligence(AGI), 又稱強人工智能、人類水平人工智能],而目前可實現(xiàn)的人工智能主要是執(zhí)行人為其設定的單一任務的狹義人工智能[Artificial Narrow Intelligence(ANI),又稱弱人工智能]。這使得人工智能研究依然是一門綜合性的實驗科學。
普適的智能理論難以構建,實際上意味著人們對人類智能的內(nèi)涵和機器智能的可能性均知之甚少,由此晚近主流人工智能教科書轉(zhuǎn)向以“智能體”定義人工智能。尼爾松(Nils J.Nilsson)在《人工智能:新綜合》(1998)前言中指出:“這本人工智能導論教材采用一種新的視角看待人工智能的各個主題。我將考量采用人工智能系統(tǒng)或智能體的發(fā)展這一較以往略為復雜的視角?!盵4](Pxvii)羅素(Stuart J.Russell)和諾維格(Peter Norvig)在《人工智能——一種現(xiàn)代方法(第一版)》(1995)前言中說:“本書的統(tǒng)一主題是智能智能體(intelligent agent)。在這種觀點看來,人工智能是對能夠從環(huán)境中獲取感知并執(zhí)行行動的智能體的描述和構建。每個這樣的智能體都實現(xiàn)了把一個感知序列映射到行動的函數(shù)?!盵5](Pvii)該書指出,在八種教科書中,對人工智能的定義分為四類:像人一樣行動的系統(tǒng)(圖靈測試方法)、像人一樣思考的系統(tǒng)(認知模型方法)、理性地思考的系統(tǒng)(思維法則方法)和理性地行動的系統(tǒng)(理性智能體方法)。人們在這四個方向都做了很多工作,既相互不服,又彼此幫助。若將人工智能研究視為理性智能體(rational agents)的設計過程,則更具概括性并更經(jīng)得起科學檢驗。在內(nèi)涵上,智能體一詞源于拉丁文agere,意為“去做”,在日常生活中有施動者或能動者的意思;基于人工智能的智能體則可以在工程層面“正確地行動”或“理性地行動”,是遵循合理性的理性智能體?;谌斯ぶ悄艿睦硇灾悄荏w的設計目標是使機器通過自身的行動獲得最佳結果,或者在不確定的情況下,尋求最佳的期望值。[6](P3-8)其中的合理性與理性主要指技術與工程上的合理性或理性,即一個系統(tǒng)或智能體能在其所知的范圍內(nèi)正確行事。而且,這種合理性或理性往往是有限的而非完美的,并可以通過人工實現(xiàn),亦即西蒙在《人工科學》中所探討的有限理性。
人工智能智能體——基于人工智能的智能體或理性智能體(簡稱人工智能體或智能體)是理解人工智能的核心概念,亦應是人工智能時代的價值審度與倫理調(diào)適的關鍵。在人機交互實踐中,人工智能體可通過自動的認知、決策和行為執(zhí)行任務(暫且不論其實現(xiàn)條件),這使其在一定程度上顯示出某種“主體性”,成為一種介于人類主體與一般事物之間的實體。值得追問的是:智能體所呈現(xiàn)的這種“主體性”有何內(nèi)涵?智能體因此可能扮演什么樣的倫理角色?
先討論第一個問題。目前人工智能體所呈現(xiàn)的“主體性”是功能性的模仿而非基于有意識的能動性(agency)、自我意識與自由意志,故應稱之為擬主體性。在人的感受中,智能體雖然貌似抽象,還有點似是而非,但就像柯潔與人工智能體對弈后感覺到某種神般的存在一樣,人們在面對各種智能化技術和設施時,會自然地感受到一種可以具有認知和行為能力的非人又似人的存在。從人類主體的認知、行動和交互的角度來看,人工智能體可以在功能上模擬人的認知和行為:既可能具有認知行動能力也可能具備溝通交往能力,既可能是實體的也可能是虛擬的,既可以模仿人的認知和行動也可以通過機器實現(xiàn)理性認知和行動。由此,人工智能體已經(jīng)逐步發(fā)展成為在認知、行動和交互等能力上可以部分地和人類相比擬的存在,故可視之為“擬主體”,或者說人工智能體具有某種“擬主體性”,就是指通過人的設計與操作,使其在某些方面表現(xiàn)得像人一樣。而“擬”會表現(xiàn)出某種逆悖性:一方面,它們可能實際上并不知道自己做了什么、有何價值與意義;另一方面,至少在結果上,人可以理解它們的所作所為的功能,并賦予其價值和意義。
從技術細節(jié)上講,智能體的功能和擬主體性是通過軟件編寫的算法對數(shù)據(jù)的自動認知實現(xiàn)的。智能體“能夠從環(huán)境中獲取感知并執(zhí)行行動”與智能體“實現(xiàn)了把一個感知序列映射到行動的函數(shù)”是對同一個過程的兩種表述,前者是從外部對智能體的擬主體性的描述,后者則揭示了更為本質(zhì)的智能計算過程。為了完成一項任務,運用智能算法所形成的映射關系對數(shù)據(jù)進行自動感知和認知,并據(jù)此驅(qū)動智能體的自動決策與行為。在當前迅猛發(fā)展的數(shù)據(jù)驅(qū)動的人工智能中,這種映射關系往往不是對研究對象本身的模式識別,而可能基于高維的非本質(zhì)的相關性和對應關系。概言之,智能算法是智能體的功能內(nèi)核,智能體是智能算法的具身性體現(xiàn)。
再來看第二個問題。原則上講,人工智能體的擬主體性使人工智能具有不同于其他技術人工物的特有的擬倫理角色。對此,我們可以從智能體的能力和關系實踐入手,在智能體的價值和倫理影響力以及由智能體的應用所匯聚的行動者網(wǎng)絡兩個層面展開初步的分析。
在智能體的價值和倫理影響力層面,計算機倫理學創(chuàng)始人摩爾(James H.Moor)對機器人的分類具有一定的啟發(fā)性。他根據(jù)機器人可能具有的價值與倫理影響力,將其分為四類:(1)有倫理影響的智能體(ethical impact agents)——不論有無價值與倫理意圖但具有價值與倫理影響的智能體;(2)隱含的倫理智能體(implicit ethical agents)——通過特定的軟硬件內(nèi)置了安全和安保等隱含的倫理設計的智能體;(3)明確的倫理智能體(explicit ethical agents)——能根據(jù)情勢的變化及其對倫理規(guī)范的理解采取合理行動的智能體;(4)完全的倫理智能體(full ethical agents)——像人一樣具有意識、意向性和自由意志并能對各種情況做出倫理決策的智能體。[7]若借助摩爾的劃分,可從價值與倫理影響力上將智能體分為倫理影響者、倫理行動者、倫理能動者(施動者)和倫理完滿者等具有四種不同能力的擬倫理角色。
智能體可能的擬倫理角色及其能力是通過設計實現(xiàn)的。其中,倫理影響者強調(diào)的是智能體中沒有任何倫理設計;倫理行動者意指設計者將其價值與倫理考量預先嵌入智能體中,使其在遇到設計者預先設定的一些問題時得以自動執(zhí)行;倫理能動者則試圖通過主動性的倫理設計使智能體能理解和遵循一般倫理原則或行為規(guī)范,并依據(jù)具體場合做出恰當?shù)膫惱頉Q策;而倫理完滿者則以智慧性的倫理設計令智能體可以像人類主體一樣進行價值倫理上的反思、考量和論證,甚至具備面對復雜倫理情境的實踐的明智。目前,人工智能體大多屬于倫理影響者,只有少量可以勉強算作倫理行動者,倫理能動者還只是機器倫理等理論探索的目標,倫理完滿者則屬于科幻。目前的人工智能體應以“有限自主與交互智能體”加以概觀。由此可見,智能體的價值與倫理影響力迄今無法獨立地主動施加,而只能在人機交互的關系實踐之中體現(xiàn),故只有把智能體放在其與人類主體構成的行動者網(wǎng)絡之中,才能真正把握智能體擬倫理角色的實踐內(nèi)涵。
通過行動者網(wǎng)絡分析,在由智能體的應用所匯聚的行動者網(wǎng)絡層面,不僅可以較為明晰地看到智能體的擬倫理角色與相關主體的倫理角色的關聯(lián)性與整體性,還有助于透視它們之間的價值關聯(lián)與倫理關系,廓清其中的責任擔當與權利訴求。一般地,對于人工智能體A,存在設計者D,故智能體可記為A(D)。若以拉圖爾式的行動者網(wǎng)絡來看智能體和人類主體的關系網(wǎng)絡,則可見由人工智能引發(fā)的價值關聯(lián)與倫理關系的基本模式不是簡單的“人—機”之間的二元關系,而是“控制者(C)—智能體[A(D)]—一般使用者(U)”之間的復合關系(其中一般使用者強調(diào)與控制者無直接共同利益且無法主導技術應用的非主導者和不完全知情者)。更重要的是,在基于此復合關系的行動者網(wǎng)絡中,“控制者”(C)、“智能體”[A(D)]和“一般使用者(U)”所具有的控制力或“勢”是不一樣的。因此,不能簡單地將這種復合關系看做是C與U以A(D)為中介的關系,而主要應該從“C—A(D)” 整體與U之間的關系來展開分析。由此,一方面,鑒于“C—A(D)”是主導者與施加者,U是承受者與受動者,前者的責任和后者的權利無疑是相關價值與倫理考量的重點;另一方面,由于A或A(D)的價值與倫理影響力的不同,“C—A(D)”整體責任的內(nèi)部劃分變得較其他技術人工物更為復雜。
這些分析不僅有助于廓清智能體與相關主體的倫理角色和倫理關系,也大致指出了人工智能體的價值審度與倫理調(diào)適的兩條現(xiàn)實路徑:負責任的創(chuàng)新和主體權利保護。負責任的創(chuàng)新的路線圖是:“控制者—智能體”應主動考量其整體對一般使用者、全社會乃至人類的責任,并在“控制者—智能體”內(nèi)部厘清設計責任和控制責任,以此確保一般使用者的權利,努力使公眾和人類從人工智能中獲益。主體權利保護的路線圖是:由權利受損的一般使用者發(fā)出權利訴求,展開對“控制者—智能體”的責任追究,進而迫使“控制者—智能體”內(nèi)部廓清責任——區(qū)分智能體的控制與設計責任。不論哪條路徑,都必須與人工智能的具體實踐和場景相結合,這樣才能使價值審度與倫理調(diào)適具有針對性和實效性。
眾所周知,正在爆發(fā)的這場人工智能熱潮,得益于大數(shù)據(jù)驅(qū)動、計算能力的提升、深度學習算法等帶來的數(shù)據(jù)智能和感知智能上的突破,可視為計算機科學與統(tǒng)計學、數(shù)據(jù)科學、自動傳感技術、機器人學等長期積累與相互融合的結果。對于當前人工智能的典型應用,集人工智能技術專家、創(chuàng)業(yè)家和倫理學家于一身的斯坦福大學人工智能與倫理學教授杰瑞·卡普蘭(Jerry Kaplan)指出,目前的人工智能所創(chuàng)造的機器智能在合成智能(synthetic intellects)和人造勞動者(forge labors)兩個方向有所突破,并正在向自主智能體(autonomous agents)發(fā)展。[8](P2-6)
合成智能與人造勞動者等應用人工智能(applied AI)主要是由數(shù)據(jù)驅(qū)動的,可稱之為數(shù)據(jù)驅(qū)動的智能。目前,應用人工智能中的數(shù)據(jù)主要指那些可以通過不同的信息表達形式和載體記錄下各種經(jīng)驗事實。這些作為經(jīng)驗事實的數(shù)據(jù)大致可分為三類:(1)量化的觀測事實,如基因組、宇宙結構等科學數(shù)據(jù),可穿戴設備、移動通信定位系統(tǒng)等傳感器記錄的運動、生理、位置、空氣質(zhì)量和交通流量等實時數(shù)據(jù);(2)人類在線行為的數(shù)字痕跡,如網(wǎng)絡搜索、社交媒體以及電子交易記錄等數(shù)據(jù);(3)原始事實的多媒體記錄,如視頻、音頻、圖片等記錄原始事實的數(shù)據(jù)。正是它們?yōu)楦鞣N數(shù)據(jù)驅(qū)動的人工智能提供了智能化認知的素材。
合成智能在很大程度上是數(shù)據(jù)驅(qū)動下對數(shù)據(jù)挖掘和認知計算等相關技術的綜合集成。根據(jù)研究重點和方法的不同,研究者們一般稱其為機器學習、神經(jīng)網(wǎng)絡、深度學習、大數(shù)據(jù)智能、跨媒體智能、認知計算等,而各種已有的人工智能的成果,如專家系統(tǒng)、計算機視覺、語音識別、自然語言處理等也往往根據(jù)需要融入其中。當前常見的合成智能是基于大數(shù)據(jù)與深度學習及機器學習的智能辨識、洞察和預測等自動認知和決策系統(tǒng),廣泛應用于人類無法直接高效認識的各種復雜的經(jīng)驗事實。其基本認知模式是,用計算機軟件和智能算法自動處理及分析各種類型的數(shù)據(jù),以獲取知識和形成決策。如通過對人的位置信息、網(wǎng)絡搜索與社交媒介行為等數(shù)據(jù)的分析、挖掘和聚合,對人的特征進行數(shù)字畫像,從中找到有商業(yè)價值的特征或各種人難以直接洞察的有意義的相關性等。目前,從個性化商品推薦到廣告推送、從信用評分到股市高頻交易、從智能監(jiān)控到智慧城市、從智能搜索到潛在罪犯的“智能識別”,合成智能已普遍應用于各種場景,正在全面顛覆著我們熟知的生活。
人造勞動者一般指可以模仿或代替人完成特定任務的智能化的自動執(zhí)行系統(tǒng),其智能也是數(shù)據(jù)驅(qū)動的,關鍵在于對數(shù)據(jù)的采集、處理、加工和控制。這類系統(tǒng)由各種能與設定環(huán)境互動的自動傳感器和執(zhí)行器結合而成,既可以是有物理結構的能加工、挖礦、掃地、救火、搜救、作戰(zhàn)的操作機器人,也可以是社交聊天、手機導航、知識搶答、智能客服之類交互性的軟件系統(tǒng)。最常見的人造勞動者是工業(yè)機器人和簡單的家用機器人,它們一般按照預先編好的程序工作,多為重復性的操作,工作環(huán)境一般也是簡單和可預見的。例如,一個工業(yè)機器人手臂在某個時刻出現(xiàn)在某一位置時,它所要擰緊的螺栓會恰好出現(xiàn)在那個地方。雖然人造勞動者可以使人們從一些煩瑣的事務和繁重、危險的勞動中解放出來,但令人普遍擔心的是,其對專業(yè)技能的取代可能導致技術性失業(yè)甚至“人工智能鴻溝”。
合成智能和人造勞動者的興起,使人工智能和自動智能系統(tǒng)在商業(yè)、制造、管理和治理等領域的應用獲得大量投資,但要使這種可能帶來重構性和顛覆性影響的力量造福人類,必須對其價值進行系統(tǒng)的審度??梢詮某吻寮夹g現(xiàn)狀、揭示價值負載、明確價值訴求三個層面加以探究。
澄清技術現(xiàn)狀的關鍵在于要分清事實與科幻,認識到合成智能與人造勞動者等應用人工智能當前發(fā)展的局限性。首先,當前數(shù)據(jù)驅(qū)動的人工智能既不具備人類智能的通用性,也沒能實現(xiàn)功能上與人類智能相當?shù)膹娙斯ぶ悄?,更遑論全面超越人類智能的超級人工智能。其次,目前應用人工智能的智能模式遠低于人類的智能模式,而且神經(jīng)科學和認知科學對人類智能的了解還非常有限。具體而言,目前數(shù)據(jù)驅(qū)動的人工智能所使用方法本質(zhì)上屬于分類、歸納、試錯等經(jīng)驗與反饋方法,在方法論上并不完備。機器翻譯、智能推薦、語音識別、情緒分析等看起來功效顯著,但高度依賴于以往的類似經(jīng)驗和人對數(shù)據(jù)的標注,其所模擬的“智能”往往只能推廣到有限的類似領域(局部泛化),而難以推廣到所有領域(全局泛化)。很多數(shù)據(jù)驅(qū)動的應用人工智能主要適用于認知對象及環(huán)境與過去高度相似或接近的情況,其理解和預測的有效性依賴于經(jīng)驗的相對穩(wěn)定性,其應對條件變化的抗干擾能力十分有限。以自動駕駛汽車為例,一旦出現(xiàn)未遇到過的路況和難以識別的新的物體等無法歸類的情況,就容易發(fā)生事故。
揭示價值負載的目的是反思人工智能的設計和應用中的客觀性,厘清相關主體的價值取向和價值選擇在其中的作用。一方面,數(shù)據(jù)的采集與智能算法的應用并非完全客觀和無偏見,其中必然負載著相關主體的價值取向。在人工智能與智能自動系統(tǒng)的數(shù)據(jù)選取、算法操作和認知決策中,相關主體的利益與價值因素不可避免地滲透于對特定問題的定義及對相應解決方案的選擇和接受之中,它們既可能體現(xiàn)設計者與執(zhí)行者的利益考量和價值取向,也會影響到更多利害相關者的利益分配及價值實現(xiàn)。另一方面,合成智能和人造勞動等人工智能應用一般是通過人機協(xié)同來實現(xiàn)的,相關主體的價值選擇必然滲透其中。通過機器學習和智能算法對數(shù)據(jù)進行洞察之類的應用人工智能不僅是各種計算與智能技術的集成,還必須將人的判斷和智能融入其中。要把握數(shù)據(jù)所反映的事實及其意義,必須借助人的觀察和理解進行標注。在視頻理解等智能化識別(如視頻鑒黃等)中,將人的經(jīng)驗通過人工標注融入數(shù)據(jù)之中,是提高準確率的關鍵因素。有標注的數(shù)據(jù)是深度學習最為重要的資源,這就是業(yè)內(nèi)常說的“有多少人工,就有多少智能”。
明確價值訴求旨在尋求使應用人工智能的發(fā)展更符合公眾利益和人類福祉所應該具有的價值目標。為此,尤需慎思細究者有三個方面:
第一,尋求算法決策與算法權力的公正性。諸多“算法決策”——基于數(shù)據(jù)和算法的智能化認知與決策——運用日廣,這一智能化的“政治算術”正在發(fā)展為“算法權力”。從政治選舉、產(chǎn)品推薦、廣告推送到信用評分和共享服務,算法決策普遍用于個人、組織和社會層面的特征洞察、傾向分析和趨勢預測,業(yè)已形成具有廣泛和深遠影響力的算法權力。算法決策常被簡單地冠以高效、精準、客觀和科學,但像所有人類社會認知與決策一樣,服務于問題的界定與解答的數(shù)據(jù)和算法是負載價值的,其中所蘊含的對人與社會的解讀和詮釋難免牽涉利害分配、價值取向及權力格局,其精準、客觀與科學均有其相對的條件和限度。在信息與知識日益不對稱的情勢下,若不對此加以細究,算法決策與算法權力很可能會選擇、聽任、產(chǎn)生甚至放大各種偏見和歧視,甚或淪為知識的黑洞與權力的暗箱。在智能算法擁有的權力越來越大的同時,它們卻變得越來越不透明。而這將可能使個人被置于德勒茲式的“算法分格”,而不得不承受各種微妙的歧視和精準的不公:搜索引擎會根據(jù)你以往的搜索興趣確定你的搜索結果;商家依照算法推測購買過《哈利·波特》的用戶可能會購買《饑餓游戲》并給出更高的報價;谷歌更傾向于招聘那些有熟人在其中供職的應聘者;機場會為那些收入高且愿意多付費以快速通關者提供較近的車位。[9]
在社會管理層面,算法權力影響更甚,更應謹防其被濫用。當前,整個社會逐漸被納入基于數(shù)據(jù)和算法的精細管理及智能監(jiān)控之下,各種決策與舉措愈益建立在智能算法之上,必須關注和防范由算法權力的濫用所導致的決策失誤與社會不公。尤其應該關注的是,對智能算法的迷信與濫用往往會造成公共管理系統(tǒng)的漏洞,甚至將其引向“人工愚蠢”。例如,某算法根據(jù)某種偏見將某一類人列為重點犯罪監(jiān)控對象,但不無吊詭的是,對這類人的關注貌似會證實其預設,卻可能會遺漏真正應該監(jiān)控的對象。
為了披露與削減算法權力的誤用和濫用,應對數(shù)據(jù)和算法施以“倫理審計”。其基本策略是,從智能認知與算法決策的結果和影響中的不公正入手,反向核查其機制與過程有無故意或不自覺的曲解或誤導,揭示其中存在的不準確、不包容和不公正,并促使其修正和改進。特別是算法權力的執(zhí)行者應主動披露自身在其中的利益,公開自身利益與他人利益和公眾利益之間可能存在的利益沖突。唯其如此,智能算法才可能避免力量的濫用,公正地行使其權力。
第二,呼喚更加透明、可理解和可追責的智能系統(tǒng)。雖然基于計算機、網(wǎng)絡、大數(shù)據(jù)和人工智能的智能系統(tǒng)已成為當代社會的基礎結構,但其過程與機制卻往往不透明、難以理解和無法追溯責任。除了隱形的利益算計、設計偏見以及知情同意缺失之外,導致此問題的主要原因是:智能系統(tǒng)及其認知與決策過程復雜萬分,遠遠超過了人的理解能力,對其機理即便是研發(fā)人員也不易做出完整明晰的解釋,且此態(tài)勢會越來越嚴重。一旦人工智能和自動系統(tǒng)的智能化的判斷或決策出現(xiàn)錯誤和偏見,時常難于厘清和追究人與機器、數(shù)據(jù)與算法的責任。例如,在訓練深度學習的神經(jīng)網(wǎng)絡識別人臉時,神經(jīng)網(wǎng)絡可能是根據(jù)與人臉同時出現(xiàn)的領帶和帽子之類的特征捕捉人臉,但只知道其識別效率的高低,而不知道其所使用的究竟是什么模型。正是這些透明性和可理解性問題的存在,使得人工智能潛在的不良后果的責任難以清晰界定和明確區(qū)分。
在自動駕駛、自動武器系統(tǒng)等智能系統(tǒng)中,涉及大量自動化乃至自主智能決策問題,如自動駕駛汽車中人與智能系統(tǒng)的決策權轉(zhuǎn)換機制、緊急情況下的處置策略等。由于這些決策關乎人生安危和重大責任界定,其透明性、可理解性和可追責的重要性愈發(fā)凸顯。為了解決這一日漸迫切的問題,歐洲議會2016年4月頒布的《一般數(shù)據(jù)保護條例(GDPR)》(擬于2018年實施)規(guī)定,在基于用戶層面的預測的算法決策等自動化的個人決策中,應賦予公眾一種新的權利——“解釋權”,即公眾有權要求與其個人相關的自動決策系統(tǒng)對其算法決策做出必要的解釋。這項法律將給相關產(chǎn)業(yè)帶來很大的挑戰(zhàn),應會促使計算機科學家在算法設計和框架評估階段優(yōu)先考慮透明性、可理解性和可追責,以免于偏見和歧視之訟。
第三,追問智能化的合理性及其與人的存在價值的沖突。近代以來,人類在合理性和理性化的道路上不斷前進,從計算機、互聯(lián)網(wǎng)、大數(shù)據(jù)到人工智能與機器人的發(fā)展將理性化的進程推向了智能化的新紀元。但人工智能所呈現(xiàn)的合理性與理性只是工程合理性或工具理性,應進一步反思其會不會給整個社會帶來更廣泛和更深遠的不合理性。對此,人們普遍關注的是可控性問題:鑒于人工智能擁有巨大的理性行動能力,這種力量能否為人類或社會的正面力量所掌控?一方面,它會不會因為太復雜而超越人的控制能力,使人們陷入巨大的風險而不知曉?另一方面,長遠來看,人工智能本身會不會發(fā)展成為一種不受人類控制的自主性的力量?
而更根本的問題是這種合理性與人的存在價值的沖突:人的存在的價值是不是應該完全用其能否適應智能機器來衡量?19世紀中葉,馬克思看到了彼時資本與勞動力之間存在不可調(diào)和的矛盾:資本通過工業(yè)自動化取代勞動。今天,邁過智能社會門檻的我們所面對的是:資本會不會通過人工智能取代人的頭腦?人工智能對普通勞動乃至專業(yè)技術勞動的沖擊,會不會在范圍、規(guī)模、深度和力度上引發(fā)前所未有的全局性危機?人工智能的發(fā)展會不會與人的存在價值發(fā)生深層次的難以調(diào)和的本質(zhì)性沖突?對此,德國哲學家京特·安德斯指出,雖然人們一再強調(diào)“創(chuàng)造是人的天性”,但當人們面對其創(chuàng)造物時,卻越來越有一種自愧弗如與自慚形穢的羞愧,這種羞愧堪稱“普羅米修斯的羞愧”——在機器面前,這種“創(chuàng)造與被創(chuàng)造關系的倒置”使人成了過時的人![10](P3-6)
在初步辨析人工智能體的擬倫理角色并對合成智能與人造勞動者等新近發(fā)展展開價值審度之后,我們必須對智能機器越來越多地替代人類決策和行動的未來發(fā)展趨勢進行進一步的追問。在迫近的未來,必將呈現(xiàn)的情境是:人類要么允許機器在無人監(jiān)督的情況下自行做出決定,要么保持對機器的控制。正是這一挑戰(zhàn),迫使我們進一步嘗試性地探討面向人工智能時代的價值校準與倫理調(diào)適之道。
從一般的倫理學理論來看,只有當人工智能發(fā)展到具有與人的智能相當?shù)膹娙斯ぶ悄軙r,才可能被接納為道德共同體的成員。對此,人工智能哲學家瑪格麗特·博登(Margaret A.Boden)指出,人工智能一旦被納入道德共同體,將以三種方式影響人機交互:(1)強人工智能將和動物一樣得到人類的道德關注;(2)人類將認為可以對強人工智能的行動進行道德評估;(3)人類將把強人工智能作為道德決策的論證和說服目標。[11](P162-163)然而,鑒于當前的人工智能發(fā)展還遠未達到這一或許會出現(xiàn)的未來情境,面向人工智能時代的價值校準與倫理調(diào)適,應與未來學家的悲觀主義和樂觀主義預見保持一定距離,而更多地訴諸人工智能當下的真實發(fā)展程度與可預見的未來的可能性。唯其如此,才能系統(tǒng)深入地慎思、明辨、審度與應對人工智能的倫理挑戰(zhàn)。
若以主流人工智能教科書主張的智能體概念通觀人工智能,其當下及可預見未來的發(fā)展程度可概觀為“有限自主與交互智能體”。其具體內(nèi)涵包括四個方面:首先,機器人和人工智能是可以在功能上模仿智能的理性智能體,但它們迄今沒有意識和理解力,是“無心”的智能體。其次,機器人和人工智能具有一定的自主性,可在一定條件下實現(xiàn)有限度的自動認知、決策和行動功能。再次,隨著其自主性的提升,人可能會在一定程度上將決策權轉(zhuǎn)讓給機器,但即便是設計者對其所設計的機器的自主執(zhí)行過程也往往并不完全理解。最后,人工智能和機器人具有一定的交互性,雖然人機互動或“人機交流”實質(zhì)上只是功能模擬而非實際意義上的溝通,但隨著逼真程度的提高,人們會在一定程度上將機器人和人工智能等具有擬主體性的智能體想象成跟人類似的主體,從而難免對這種替代性的模擬或虛擬主體產(chǎn)生心理依賴甚至情感需求。
從“有限自主與交互智能體”這一真實狀態(tài)出發(fā),可以將其與人類主體構成的行動者網(wǎng)絡放到經(jīng)驗環(huán)境即數(shù)據(jù)環(huán)境之中,進行價值流分析,為面向人工智能時代的價值校準和倫理調(diào)適奠定基礎。所謂價值流分析,其基本假設是:智能體與主體相關并負載價值,其每一個行動都有其價值上的前提和后果,都伴隨著價值上的輸入和輸出。價值流分析的目的就是厘清這些輸入和輸出的價值流向,找到那些輸入價值的施加者與責任人和接受價值輸出的承受者與權益人,使責任追究與權利保護有源可溯、有跡可循。在價值流分析的基礎上,可以具體地廓清智能體所執(zhí)行任務的利益訴求和價值取向,辨析相關數(shù)據(jù)采集與處理中的事實取舍和價值預設,進而系統(tǒng)地追問其中的智能感知和認知的客觀性與公正性、智能行為的利益分配與風險分擔等更為現(xiàn)實的問題。
當前,有關人工智能與機器人的倫理研究可大致分為四個進路:
(1)面向應用場景的描述性研究。這類研究旨在揭示大數(shù)據(jù)智能、跨媒體智能、社會化機器人(家用、護理、伴侶)、無人機、自動駕駛以及致命性自動武器系統(tǒng)等在發(fā)展中呈現(xiàn)出的亟待回應的道德沖突與倫理抉擇,其中既有對算法權力的濫用、人工智能加劇技術性失業(yè)、自動駕駛中的道德兩難等現(xiàn)實問題的揭示,也涉及機器人的人化、人對機器人的情感依賴、實現(xiàn)超級人工智能的可能性及其風險等前沿性問題。
(2)凸顯主體責任的責任倫理研究。這類研究的出發(fā)點是強調(diào)人類主體特別是設計者和控制者在人工智能與機器人的研究和創(chuàng)新中的責任——優(yōu)先考慮公眾利益和人類福祉、減少其危害與風險以及對后果負責等,包括機器人倫理及相關工程倫理研究等。其中影響較大的是維格(G.Veruggio)等人2002年倡導的“機器人倫理”(roboethics)。他們將“機器人”與“倫理”合并為復合詞“機器人倫理”,主要探討機器人的設計者、制造者、編程者和使用者在機器人研制與應用中的倫理責任與規(guī)范之道,并強調(diào)與機器人相關的人應該作為道德責任的主體。[12](P1499-1524)此后,他們在歐洲機器人學研究網(wǎng)絡(EURON)資助下提出了“EURON機器人倫理學路線圖”。
(3)基于主體權利的權利倫理研究。這類研究的出發(fā)點是強調(diào)主體在智能化生活中的基本權利,旨在保護人的數(shù)據(jù)權利等,試圖制約社會智能化過程中的算法權力濫用。目前主要包括針對數(shù)據(jù)與算法的透明性、可理解性和可追責等問題展開的數(shù)據(jù)倫理與算法倫理研究,聚焦于數(shù)據(jù)隱私權、數(shù)據(jù)遺忘權、數(shù)據(jù)解釋權、算法的透明性與公正性以及算法的倫理審計和校準等問題。
(4)探討倫理嵌入的機器倫理研究。人工智能與機器人智能體都被視為倫理影響者(有倫理影響的智能體)或倫理行動者(隱含的倫理智能體),其中涉及的責任和權利都是相對于主體即人而言的。機器倫理的倡導者則主張,可以通過倫理規(guī)范的嵌入使人工智能體成為倫理能動者(明確的倫理智能體)。在他們看來,隨著智能體的自主性的提升,自動認知與決策過程已呈現(xiàn)出從人類操控為主的“人在決策圈內(nèi)(Human in the Loop)”模式轉(zhuǎn)向以機器操控為主的“人在決策圈外(Human out the Loop)”模式的趨勢,而日益復雜的智能體一旦功能紊亂,可能導致巨大的傷害。因此,問題不僅是人工智能的設計者、控制者和使用者應該遵守特定的倫理規(guī)范,而且還需要將特定倫理規(guī)范編程到機器人自身的系統(tǒng)中去。為此,他們致力于探討將道德理論和倫理原則嵌入機器人和人工智能之中或使其通過成長性的學習培育出道德判斷能力的可能性,力圖使機器人和人工智能發(fā)展成為人工的道德智能體(Artificial Moral Agents,AMAs)。[13](P51-61)這一構想堪稱“機器人三定律” 的升級版(機器人三定律是由美國科幻小說家阿西莫夫提出的機器人必須遵守的道德律令:第一定律:機器人不得傷害人類或坐視人類受到傷害;第二定律:在與第一定律不相沖突的情況下,機器人必須服從人類的命令;第三定律:在不違背第一定律與第二定律的前提下,機器人有自我保護的義務)。盡管此進路已有一些探索,但在技術上存在極大困難,理論上也受到不少質(zhì)疑。實際上,不論是自上而下地在自動駕駛汽車等人工智能系統(tǒng)中嵌入倫理代碼,還是自下而上地讓其從環(huán)境中學習倫理規(guī)范,在近期都很難實現(xiàn)。信息哲學家弗洛里迪(L.Floridi)指出,為機器制定一套道德無異于白日夢科幻,而更為負責任的策略是在智能體內(nèi)部嵌入一定的安全措施,同時在機器自動操作時,人可以作為“共同決策人”發(fā)揮監(jiān)管作用。[14](P28-29)而更為吊詭的是,假若真能將合乎道德的倫理規(guī)范嵌入機器人和人工智能之中,是否意味著也可以輕而易舉地將非道德和反倫理植入其中?
由于機器人與人工智能近年來的爆發(fā)式發(fā)展,其社會倫理影響已經(jīng)引起全社會的高度關注,在產(chǎn)學研各界的推動下,對機器人與人工智能的倫理研究開始直接影響到國際人工智能與機器人的倫理規(guī)范和標準的制定。它們既充分考量了人工智能作為“有限自主與交互智能體”的現(xiàn)狀,也系統(tǒng)體現(xiàn)了人工智能體的價值審度與倫理調(diào)適的兩條現(xiàn)實路徑——負責任的創(chuàng)新和主體權利保護。在機器人原則與倫理標準方面,日本、韓國、英國、歐洲和聯(lián)合國教科文組織等相繼推出了多項倫理原則、規(guī)范、指南和標準。日本早在1988年就制定了《機器人法律十原則》。韓國于2012年頒布了《機器人倫理憲章》,對機器人的生產(chǎn)標準、機器人擁有者與用戶的權利與義務、機器人的權利與義務做出了規(guī)范。2010年,隸屬英國政府的“工程與物質(zhì)科學研究委員會(EPSRC )”提出了具有法律和倫理雙重規(guī)范性的“機器人原則”,凸顯了對安全、機器人產(chǎn)品和責任的關注?!坝鴺藴蕝f(xié)會(BSI)”在2016年9月召開“社會機器人和AI”大會,頒布了世界上首個機器人設計倫理標準《機器人與機器人系統(tǒng)設計與應用倫理指南(BS8611)》。該指南主要立足于防范機器人可能導致的傷害、危害和風險的測度與防范,除了提出一般的社會倫理原則和設計倫理原則之外,還對產(chǎn)業(yè)科研及公眾參與、隱私與保密、尊重人的尊嚴和權利、尊重文化多樣性與多元化、人機關系中人的去人類化、法律問題、效益與風險平衡、個人與組織責任、社會責任、知情同意、知情指令(Informed command)、機器人沉迷、機器人依賴、機器人的人化以及機器人與就業(yè)等問題提出了指導性建議。[15]
2012年歐盟在科技發(fā)展“框架7”下啟動“機器人法(ROBOLAW)”項目,以應對“人機共生社會”所將面臨的法律及倫理挑戰(zhàn)。2016年5月,歐盟法律事務委員會發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》,提出了包括機器人工程師倫理準則、機器人研究倫理委員會倫理準則、設計執(zhí)照和使用執(zhí)照等內(nèi)容的《機器人憲章》(Charter on Robotics)。同年10月,又發(fā)布了《歐盟機器人民事法律規(guī)則》(European Civil Law Rules in Robotics),對智能自動機器人、智能機器人、自動機器人做出了界定,探討了機器人意識以及阿西莫夫機器人定律的作用,還從民事責任的角度辨析了機器人能否被視為具有法律地位的“電子人”(electronic persons),最后還提出了使人類免受機器人傷害的基本倫理原則。同年,聯(lián)合國教科文組織的世界科學知識和技術倫理委員會(COMEST)的一個新興技術倫理小組發(fā)布了《機器人倫理報告初步草案》,不僅探討了社會、醫(yī)療、健康、軍事、監(jiān)控、工作中的機器人倫理問題,而且對運用機器倫理制造道德機器進行了討論。
自2015年以來,人工智能與機器人的發(fā)展在全世界掀起了高潮,社會各界和世界各國對人工智能與機器人的社會影響和倫理沖擊的關注亦隨之高漲。尤其值得關注的是2017年 1月在阿西洛馬召開的“有益的人工智能”(Beneficial AI)會議上提出的“阿西洛馬人工智能原則” (Asilomar AI Principles),以及2016年12月電氣電子工程師協(xié)會(IEEE)頒布的《以倫理為基準的設計:人工智能及自主系統(tǒng)以人類福祉為先的愿景(第一版)》?!鞍⑽髀羼R人工智能原則”強調(diào),應以安全、透明、負責、可解釋、為人類做貢獻和多數(shù)人受益等方式開發(fā)AI。其倡導的倫理和價值原則包括:安全性、失敗的透明性、審判的透明性、負責、與人類價值觀保持一致、保護隱私、尊重自由、分享利益、共同繁榮、人類控制、非顛覆以及禁止人工智能裝備競賽等。IEEE的《以倫理為基準的設計》則將專業(yè)倫理中的專業(yè)責任、工程倫理中的公眾福祉優(yōu)先以及工程師的責任落實到人工智能領域,把負責任的研究與創(chuàng)新和道德敏感設計等觀念運用于對人工智能和自主系統(tǒng)的價值校準與倫理調(diào)適。其指導思想是:人工智能及自主系統(tǒng)遠不止是實現(xiàn)功能性的目標和解決技術問題,而應將人類的福祉放在首位,應努力使人類從它們的創(chuàng)新潛力中充分獲益。其在倫理層面關注的要點是,人工智能與自主系統(tǒng)應遵循人類權利、環(huán)境優(yōu)先、責任追溯、公開透明、教育與認知等倫理原則,并使之嵌入人工智能與自主系統(tǒng)之中,以此指導相關技術與工程的設計、制造和使用。
這些原則和倫理規(guī)范的提出,將使科技界、產(chǎn)業(yè)界和全社會更加重視從產(chǎn)業(yè)標準層面展開對人工智能的價值校準與倫理調(diào)適,尤其是它們與人工智能倫理研究的結合,正在形成一種具有現(xiàn)實影響力的“科技—產(chǎn)業(yè)—倫理”實踐。在面向人工智能時代的異質(zhì)性實踐中,應充分凸顯實踐的明智,關注真實的價值沖突與倫理兩難。為此,特別應該從自然主義的倫理立場出發(fā),將技術事實的澄清與價值流的分析相結合,通過更細致的考量和更審慎的權衡探尋可行的解決之道,主要體現(xiàn)在三個方面:
第一,從理論層面和規(guī)范層面提出各種倫理原則以用于實踐時,必須考量其現(xiàn)實可能性并尋求折中的解決方案。以透明性和解釋權為例,不論是打開算法決策的“黑箱”,還是保留相關數(shù)據(jù)與算法決策過程的“黑匣子”,都必須考慮技術可行性以及成本效益比,都應有其限度。而更現(xiàn)實的辦法是在其應用出現(xiàn)較大的危害和爭議時,一方面,借助特定的倫理沖突,從對后果的追究倒逼其內(nèi)在機制與過程的透明性、可理解性和可追責;另一方面,將責任追溯與糾錯補償結合起來,逐步推進防止惡意使用、修復非故意加害等更務實的目標的實現(xiàn)。
第二,應擺脫未來學家的簡單的樂觀主義與悲觀主義立場,從具體問題入手強化人的控制作用和建設性參與。盡管未來學家的樂觀主義或悲觀主義基調(diào)在媒體相關討論中往往居于主導地位,卻帶有極大的盲目性。特別是未來學家的斷言經(jīng)常在假定與事實之間轉(zhuǎn)換,大多不足為據(jù)。以技術性失業(yè)為例,應超越簡單的樂觀主義和悲觀主義之爭,從受到人工智能發(fā)展威脅的具體的行業(yè)入手,通過建立負面清單、尋求最佳行業(yè)轉(zhuǎn)換實踐等辦法,強化有針對性的技能培訓和教育,使受到?jīng)_擊的勞動力實現(xiàn)有計劃的轉(zhuǎn)型。
第三,要從人機協(xié)作和人機共生而不是人機對立的角度探尋發(fā)展“基于負責任的態(tài)度的可接受的人工智能”的可能。應意識到發(fā)展人工智能旨在增強人類智能而非替代人類,要強調(diào)人類的判斷、道德和直覺對于各種智能體的關鍵決策不可或缺。同時,應通過更有效的人機協(xié)作,在人機交互中動態(tài)地加強機器的透明性、可理解性和可追責,以便更有效地消除人對人工智能的疑懼。當然,通過人機協(xié)同的“混合增強智能”實現(xiàn)有效的價值校準與倫理調(diào)適需要多學科的共識和協(xié)作,在理論和實踐上皆非易事。
展望未來,人工智能無疑將是人類最具開放性的創(chuàng)新,人工智能的倫理應屬“未完成的倫理”,其價值校準與倫理調(diào)適之路亦未有盡頭。從倫理實踐策略來看,鑒于倫理原則規(guī)范體系的抽象性,很難通過一般性的規(guī)范或倫理代碼的嵌入應對人工智能應用中各種復雜的價值沖突與倫理抉擇。在人工智能倫理研究的四種進路中,唯有從面向應用場景的描述性研究入手,作為關鍵訴求的凸顯主體責任的責任倫理(“問責”)和基于權利的權利倫理(“維權”),才會不失空洞并得以實質(zhì)推進。概言之,應立足作為“有限自主與交互智能體”的人工智能和機器人的現(xiàn)狀與發(fā)展,通過對人機交互的“心理—倫理-社會”的經(jīng)驗分析,把握各種智能體在其應用的現(xiàn)實和虛擬場景中呈現(xiàn)出的具體的自主性及交互性特質(zhì),進而在具體的場景中細致地校勘相關的控制、決策、問責、維權等在價值和倫理上的恰當性,并形成動態(tài)的和對未來場景具有啟發(fā)性的倫理共識。
[1] Christelle Didier, Weiwen Duan, Jean-Pierre Dupuy, and David H.Guston,etc.“Acknowledging AI’s Dark Side”.Science,2015, 349(9).
[2][11] 瑪格麗特·博登:《人工智能的本質(zhì)與未來》,北京,中國人民大學出版社,2017。
[3] J.Mc Carthy, M.L.Minsky, N.Rochester, and C.E.Shannon.“A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence” .1955, http://www-formal.stanford.edu/jmc/history/ dartmouth/dartmouth.html.
[4] Nils J.Nilsson.ArtificialIntelligence:ANewSynthesis.San Francisco: Morgan Kaufmann, 1998.
[5][6] Stuart J.Russell, and Peter Norvig.ArtificialIntelligence:AModernApproach.New Jersey:Prentice Hall, 1995.
[7] James H.Moor.“Four Kinds of Ethical Robot”.PhilosophyNow, 2009,72(March/April).
[8] 杰瑞·卡普蘭:《人工智能時代》,杭州,浙江人民出版社,2016。
[9] 段偉文:《大數(shù)據(jù)與社會實在的三維構建》,載《理論探索》,2016(6)。
[10] 京特·安德斯:《過時的人:論第二次工業(yè)革命時期人的靈魂》,上海,上海譯文出版社,2010。
[12] Gianmarco Veruggio, and Fiorella Operto.“Roboethics: Social and Ethical Implications of Robotics”.In Bruno Siciliano,and Oussama Khatib(eds.) .SpringerHandbookofRobotics.Berlin, Heidelberg: Springer,2008.
[13] Allen, C., Wallach, W., and I.Smit.“Why Machine Ethics”.In Anderson,M.,and S.L.Anderson (eds.).MachineEthics.Cambridge:Cambridge University Press, 2011.
[14] 朗伯·魯亞科斯、瑞尼·凡·伊斯特:《人機共生: 當愛情、生活和戰(zhàn)爭都自動化了,人類該如何相處》,北京,中國人民大學出版社,2017。
[15] The British Standards Institution.GuidetotheEthicalDesignandApplicationofRobotsandRoboticSystems.London:BSI,2016.
ValueReflectionandEthicalAdjustmentintheEraofArtificialIntelligence
DUAN Wei-wen
(Institute of Philosophy,Chinese Academy of Social Sciences,Beijing 100732)
The quasi-subjectivity of artificial intelligence agents gives artificial intelligence a unique quasi ethical role. Through analysis of the quasi ethical role of the agents, we can see that the basic approach of value reflection and ethical adjustment on the artificial intelligence should be responsible innovation and the protection of subject rights.Based on the evaluation of the value of synthetic intelligence and artificial laborers, it is necessary to put forward some value pursuits, which include seeking fairness of algorithmic decision and algorithm power, calling for a more transparent, understandable and accountable intelligent system, reflecting on the confliction between the rationality of intelligence and the value of human existence. What is more, we should introduce the value alignment and ethical adjustment of AI based on the concept of limited autonomy and interactive agent, so as to facilitate the analyzing of the meaning of artificial intelligence ethics and related ethical norms and standards, as well as the exploringof the necessary prudence in the heterogeneity practice of “science and technology-industry-ethics”.
artificial intelligence; ethics; agents; quasi-subjectivity; responsible innovation
段偉文:哲學博士,中國社會科學院哲學研究所研究員(北京 100732 )
(責任編輯林間)