王 剛
過去幾年,隨著快速發(fā)展的人工智能技術(shù)對人類社會的多個方面產(chǎn)生巨大的影響,人們越來越擔(dān)心人工智能系統(tǒng)的決定和行為給人類社會帶來潛在風(fēng)險。由于人工智能系統(tǒng)是由人類設(shè)計、制造和使用的人工產(chǎn)物,因此,人類應(yīng)當(dāng)對人工智能系統(tǒng)的決定和行為所引發(fā)的影響負有相應(yīng)的責(zé)任。為了確保人工智能系統(tǒng)的應(yīng)用具備安全性、并符合人類的利益,人類需要構(gòu)建一種對所有人負責(zé)的人工智能系統(tǒng)開發(fā)路徑。
人工智能系統(tǒng)的核心概念是“智能性”(agency),這種智能性主要體現(xiàn)在三個方面,即自主性(autonomy)、適應(yīng)性(adaptability)和交互性(interactivity)[1]。自主性是指智能體根據(jù)其所處的環(huán)境來進行自主行動的能力;適應(yīng)性是指智能體根據(jù)環(huán)境變化來調(diào)整自己的行為,從而使自己能夠適應(yīng)環(huán)境的能力;交互性是指智能體具備與其所處的環(huán)境進行相互作用的能力。其中,自主性是人們在人工智能領(lǐng)域中最常提及的方面。在很大程度上,人們將具有智能的人工系統(tǒng)等同于能夠自主行動的系統(tǒng)。
隨著自主性不斷增強,人工智能系統(tǒng)在許多公共領(lǐng)域扮演著重要角色,例如,在醫(yī)療、教育、交通、公共安全等領(lǐng)域,人工智能系統(tǒng)能夠在沒有人類操控的情況下做出自主性的決定和行動。人們越來越意識到,有必要采取相應(yīng)的措施以確保自主性系統(tǒng)的決定和行動能夠符合人類的福祉。關(guān)于這方面的典型范例是思考自動駕駛汽車面臨的道德困境。假設(shè)載有乘客的自動駕駛汽車即將撞上另一輛汽車,它可以選擇快速閃避另一輛汽車以拯救車內(nèi)乘客的生命,卻可能撞上公路上的行人。面對這種道德困境,自動駕駛汽車應(yīng)該如何做出自主性的選擇呢?
對于負責(zé)任的人工智能系統(tǒng)開發(fā)路徑而言,創(chuàng)建能夠處理這種道德困境的人工智能系統(tǒng)是其主要目標(biāo)之一,因此,人工智能系統(tǒng)的設(shè)計必須反映出社會對人工智能道德問題的關(guān)切。為了實現(xiàn)這一要求,人工智能系統(tǒng)的設(shè)計應(yīng)當(dāng)以問責(zé)原則、責(zé)任原則和透明性原則為基礎(chǔ),對傳統(tǒng)的自主性、適應(yīng)性和交互性原則加以擴充[2]。
問責(zé)(accountability)原則指的是人工智能系統(tǒng)應(yīng)該具備向人類解釋自身決策和行為的能力。一方面,人工智能系統(tǒng)需要通過解釋來確保人類對它的信任。人們愿意信任自主性系統(tǒng)的關(guān)鍵因素在于,系統(tǒng)能夠解釋其為何采取某種行為[3]。因此,通過解釋可以減少人工智能系統(tǒng)的不透明性,有助于人類對系統(tǒng)自身行為和決策實施的原因加以理解。另一方面,人們普遍認為機器不具備道德推理能力,因此,社會要求對機器的道德推理進行論證,或者至少確定自主性系統(tǒng)可以做出決策的范圍[4]55。正是基于這兩方面的原因,在人工智能系統(tǒng)的整個設(shè)計過程中,問責(zé)原則是設(shè)計人員和開發(fā)人員應(yīng)當(dāng)遵循的核心設(shè)計原則。
責(zé)任(responsibility)原則涉及人工智能系統(tǒng)的設(shè)計人員、開發(fā)人員、制造商、銷售商和使用人員應(yīng)當(dāng)承擔(dān)的責(zé)任。隨著自主性水平的不斷提升,人工智能系統(tǒng)在越來越多的場合下可以自主行動和自行做出選擇和決定。例如,汽車導(dǎo)航系統(tǒng)能夠根據(jù)交通狀況和用戶偏好設(shè)置為使用者自行規(guī)劃最佳的行進路線。然而,自主性系統(tǒng)也有可能做出錯誤的決策,給使用者帶來損失。需要指出的是,系統(tǒng)并不需要為自身的錯誤行為和決策負責(zé),因為它們是人類為了實現(xiàn)特定目的而制造的工具,這些行為和決策歸根到底取決于設(shè)計人員和開發(fā)人員創(chuàng)建它們的目的以及相關(guān)的設(shè)計選擇,同時還取決于使用者的使用設(shè)置。因此,為了規(guī)避人工智能系統(tǒng)可能給人類帶來的風(fēng)險,在人工智能系統(tǒng)的設(shè)計過程中,設(shè)計人員和開發(fā)人員有必要厘清人工智能系統(tǒng)的所有利益相關(guān)者各自應(yīng)當(dāng)承擔(dān)的責(zé)任。
透明性(transparency)原則是為了確保人工智能系統(tǒng)中的算法保持透明性。算法不透明(即所謂的算法“黑箱”)是人工智能系統(tǒng)的開發(fā)所面臨的一大挑戰(zhàn)。自主性系統(tǒng)的決策主要是根據(jù)學(xué)習(xí)算法而做出,但是系統(tǒng)的使用者卻無法理解該算法的運行機制和原理,更無法獲知算法設(shè)計人員和開發(fā)人員的真正意圖,由此導(dǎo)致算法的不透明性。算法不透明的最直接后果是算法偏見問題,如在2017 年,Google 公司的圖像識別算法將黑色人種的照片標(biāo)記為“大猩猩”,這一事件引發(fā)了人們對種族歧視問題的討論。算法偏見問題本質(zhì)上反映的是人工智能系統(tǒng)設(shè)計人員和開發(fā)人員的固有思維偏見。透明性原則的主要目標(biāo)就是要避免人工智能系統(tǒng)產(chǎn)生偏見。為此,該原則要求系統(tǒng)決策使用的數(shù)據(jù)和算法、系統(tǒng)的開發(fā)意圖和過程向公眾開放,并就此向公眾做出解釋說明。
在這三個原則中,始終貫穿著一個基本的要求,即設(shè)計人員和開發(fā)人員應(yīng)當(dāng)堅持以人類的基本價值觀和道德原則作為人工智能系統(tǒng)設(shè)計的核心指導(dǎo)思想。為了符合這一要求,我們可以在人工智能系統(tǒng)開發(fā)中采用價值觀設(shè)計路徑。價值觀設(shè)計是一種方法論設(shè)計路徑,它的目標(biāo)是為人工智能系統(tǒng)的設(shè)計、研究和開發(fā)制定社會和道德價值觀[5],從而確保人類價值觀和道德原則被明確地整合到系統(tǒng)的設(shè)計和執(zhí)行過程中,并使得使用者能夠識別系統(tǒng)決策所依據(jù)的價值觀。
價值觀是人類行為和態(tài)度的核心激勵因素。每個人都持有多種不同的價值觀(如成就、安全、仁愛),某種價值觀對某個人來說可能是最重要的價值觀,但對另一個人而言卻并非如此[6]。價值觀是人們在多種情況之間做出選擇的標(biāo)準,人們會根據(jù)對自己而言最重要的價值觀來做出決策。例如,假設(shè)某人追求的價值觀是“成就”,那么,他的一切選擇和決定就有可能圍繞著“實現(xiàn)事業(yè)上的成功”這一目標(biāo)來制定。對于人工智能系統(tǒng)而言,價值觀也是其做出決策和選擇的標(biāo)準,人類為人工智能系統(tǒng)所設(shè)定的價值觀決定了系統(tǒng)在運行過程中往往會采取符合該價值觀的行動。因此,在人工智能系統(tǒng)的設(shè)計過程中,將人類的基本價值觀和道德原則作為設(shè)計的核心指導(dǎo)思想可以確保人工智能系統(tǒng)的運行對人類負責(zé)并符合人類的根本利益。
人工智能系統(tǒng)是計算機程序,它的開發(fā)遵循著軟件設(shè)計方法論。人類價值觀是極其抽象的概念,我們很難將其整合到軟件設(shè)計中。價值觀設(shè)計路徑旨在于突破傳統(tǒng)軟件設(shè)計對人類價值觀關(guān)注度不足的局限,將人類的基本價值觀和道德原則置于系統(tǒng)設(shè)計和開發(fā)的核心。價值觀設(shè)計遵循著“從價值觀到準則再到功能”(反之亦然)的路徑。觀察抵押貸款申請系統(tǒng)的開發(fā),會注意到“公平”居于重要地位。假設(shè)抵押貸款申請系統(tǒng)的價值觀是“公平”,我們可以根據(jù)不同的準則來理解“公平”一詞,它既可以被理解為平等獲取資源的權(quán)利,也可以被理解為平等的機會,不同的理解將會導(dǎo)致截然不同的行為。平等賦予每個人獲取特定財產(chǎn)的機會意味著決策的制定是基于財產(chǎn)的價值觀;而平等的機會則意味著決策的制定是基于收入和年齡等因素。因此,設(shè)計人員需要明確說明系統(tǒng)的設(shè)計是建立在什么樣的理解之上。此外,設(shè)計人員也需要明確說明系統(tǒng)的準則如何被執(zhí)行,即明確說明這些準則如何被轉(zhuǎn)化為具體的系統(tǒng)功能。這是根據(jù)環(huán)境、個人觀念和設(shè)計人員的文化背景來決定的。就“公平”的價值觀而言,機器學(xué)習(xí)文獻確定了實踐平等機會觀的不同方式,例如人口統(tǒng)計學(xué)意義上的平等、平等的機會,等等。這些功能具有不同的結(jié)果。如果我們無法明確到底采用了哪種方式來實現(xiàn)“公平”的概念,我們就無法對不同的算法做出比較,進而也就無法理解它們的決策對不同人群的影響[4]62-64。
人工智能系統(tǒng)是人類設(shè)計、開發(fā)、制造和使用的人工產(chǎn)物,它對人類社會造成的影響很大程度上取決于設(shè)計人員和開發(fā)人員的設(shè)計選擇、決策和價值觀。遵循“問責(zé)”“責(zé)任”和“透明性”的人工智能系統(tǒng)設(shè)計原則有助于減少人工智能系統(tǒng)的應(yīng)用所帶來的風(fēng)險和負擔(dān),而堅持以人類的基本價值觀和道德原則作為人工智能系統(tǒng)設(shè)計的核心指導(dǎo)思想是實現(xiàn)這三個原則的基本要求,同時也是構(gòu)建對所有人負責(zé)的人工智能系統(tǒng)開發(fā)路徑的第一步。
人工智能系統(tǒng)是人類為了實現(xiàn)特定目的而創(chuàng)建的工具,為此,人工智能系統(tǒng)通常會采取各種行為來實現(xiàn)自身的目的,但這些行為不一定都符合人類的基本價值觀和道德原則。因此,人們期待人工智能系統(tǒng)能夠具備道德推理能力、維護人類的基本價值觀和道德原則,從而確保其行為符合人類的道德要求并對所有人負責(zé)。然而,不同的個人和社會對道德觀念和道德行為的理解存在很大的差異,這些不同的理解使得人們在同一情況下可以做出截然不同的決策。作為人工產(chǎn)物的人工智能系統(tǒng),如何對人類的道德價值觀念做出恰當(dāng)?shù)睦斫馐瞧涿媾R的一大難題。
當(dāng)今哲學(xué)家通常把道德理論劃分為三大部分:元倫理學(xué)、應(yīng)用倫理學(xué)以及規(guī)范倫理學(xué)。其中,規(guī)范倫理學(xué)試圖對我們?nèi)绾卧u價事物和判斷是非的問題加以討論,從而提出一套規(guī)范人們行為的規(guī)則。規(guī)范倫理學(xué)與“在人工智能系統(tǒng)設(shè)計中如何理解和應(yīng)用道德原則”的問題有很大的關(guān)聯(lián)。在規(guī)范倫理學(xué)的眾多學(xué)派中,與人工智能系統(tǒng)的道德推理有關(guān)的三個重要學(xué)派是推斷論(consequentialism)、義務(wù)論(deontology)和德性倫理學(xué)(virtue ethics)[4]37。
推斷論倫理學(xué)也被稱為目的論倫理學(xué),該理論認為道德行為就是能夠?qū)е伦罴押蠊男袨?,推斷論的代表性理論是邊沁的功利主義學(xué)說。功利主義認為,社會的幸福主要是根據(jù)大多數(shù)人的最大幸福來衡量,因此,對于某一行為而言,增加社會的利益(即最大多數(shù)人的最大幸福)的傾向比減少的傾向大,這就是“達到最大善”的行為。義務(wù)論倫理學(xué)的代表性理論是康德的實踐哲學(xué)??档抡J為,理性者應(yīng)該按照絕對命令來行動,即總是按照那些同時可以成為普遍規(guī)律的規(guī)則來行動。換言之,道德的行為就是符合普遍道德原則的行為。德性倫理學(xué)關(guān)注的是個人的內(nèi)在道德品質(zhì),該理論認為道德的行為就是符合德性品質(zhì)(如仁愛、智慧、勇敢、節(jié)制)的行為。
就自動駕駛汽車面臨的道德困境而言,采取不同的道德理論將會導(dǎo)致不同的選擇。推斷論或功利主義認為,汽車應(yīng)該關(guān)注自身行為的結(jié)果,并運用手段—目的推理來選擇對大多數(shù)人而言最佳的結(jié)果。因此汽車將會采取使得被拯救的生命總數(shù)最大化的選擇,如果車內(nèi)乘客的數(shù)量大于公路行人的數(shù)量,汽車會選擇撞擊行人以拯救車內(nèi)乘客的生命。義務(wù)論或康德主義認為,汽車將會考慮自身可能行為的道德性,并避免選擇其所知的會導(dǎo)致人身傷害的行為。因此,如果汽車知道迂回的行為會導(dǎo)致對某人的傷害,那么它就不會采取這一行為。德性倫理學(xué)認為,具有道德品質(zhì)的汽車關(guān)注的是自身的動機,同時它會考慮具有道德品質(zhì)的智能體會采取什么樣的行動。由此,它可能會得出的結(jié)論是,最具道德性的行為是保護最易受到傷害的行人[4]43。很顯然,這三種道德理論所采取的不同解決方案都具有自身的合理性,因此自動駕駛汽車面臨的道德困境并不存在最佳的解決方案。當(dāng)面對道德困境的時候,人工道德智能體必須具備對不同道德理論進行思考并做出選擇的能力,也就是說,具備所謂的道德推理能力。特定的個人和社會在面對道德價值觀念沖突時,個人和文化所優(yōu)先考慮的道德價值觀念決定了其在沖突的道德價值觀念之間做出選擇和決定的方式。然而,人工智能系統(tǒng)無法像人類一樣體會遺憾的感覺,因此難以對道德困境做出恰當(dāng)?shù)幕貞?yīng),換言之,人工智能系統(tǒng)缺乏應(yīng)對道德困境的創(chuàng)造性。對于人工智能系統(tǒng)而言,在特定情景下優(yōu)先考慮哪些道德價值觀念是其道德推理所面臨的主要挑戰(zhàn)。
在不同文化中,雖然高層次的抽象道德價值觀念通常是一致的,但是人們對某一行為應(yīng)當(dāng)遵循哪一種道德理論卻難以達成社會共識,不同的個人和社會優(yōu)先考慮的道德價值觀念并不相同。這意味著,人工智能系統(tǒng)的設(shè)計除了需要考慮基本的人類價值觀念之外,還需要考慮不同的個人和社會所持有的特殊道德價值觀念。因此,為了讓人工智能系統(tǒng)理解不同的特殊道德價值觀念,并根據(jù)具體的情景在這些道德價值觀念中做出合適的選擇,人工智能專家為人工智能系統(tǒng)設(shè)計了自頂向下(top-down)道德推理路徑和自底向上(bottom-up)道德推理路徑。
自頂向下路徑采用的是特定的道德理論(如功利主義理論),這一路徑通過對該道德理論的計算要求加以分析,從而設(shè)計出能夠執(zhí)行該理論的算法和子系統(tǒng)。采取特定道德理論的人工智能系統(tǒng)通過分析在系統(tǒng)中實施該理論所需的信息和程序要求,并將該分析應(yīng)用于子系統(tǒng)的設(shè)計以及與該設(shè)計相關(guān)聯(lián)的其他方面,從而具備根據(jù)該道德理論進行道德推理的能力[7]79。自頂向下路徑的最大特點是給出特定的道德理論,并明確規(guī)定哪些行為是符合該理論的道德行為,它要求人工智能系統(tǒng)根據(jù)這一道德理論來行動。自頂向下路徑需要將特定道德理論轉(zhuǎn)化為具體的算法,同時還需要利用該理論計算出不同情景下的最佳行動,從而指導(dǎo)人工智能系統(tǒng)做出符合該道德理論的決策和選擇。然而,這一路徑實施起來有很大的困難。一方面,盡管目前計算機的計算能力得到極大的提高,但是計算機仍然無法完成執(zhí)行某一特定道德理論所需的全部計算要求,因此將特定道德理論轉(zhuǎn)化為具體算法存在很大的難度。另一方面,不同的道德理論將會導(dǎo)致不同的決策結(jié)果,對于自頂向下路徑而言,采取哪一種道德理論仍然是具有爭議性的問題。
自底向上路徑強調(diào)的是創(chuàng)造某種環(huán)境,在這種環(huán)境中,智能體能夠自行探索行動方案、進行自我學(xué)習(xí),并因在道德上值得稱贊的行為而受到獎勵,以此獲得道德推理能力。與自頂向下路徑不同的是,自底向上路徑并不定義什么是道德的行為和什么是不道德的行為,任何道德原則必須由智能體自己去發(fā)現(xiàn)和構(gòu)建[7]80。自底向上路徑認為,通過觀察自身所處環(huán)境中其他人的行為,人工智能系統(tǒng)可以自主學(xué)習(xí)到道德行為,在面對道德困境的時候,它可以根據(jù)學(xué)習(xí)到的道德行為來做出合適的決策和選擇。目前,機器學(xué)習(xí)采用的就是這一路徑。需要注意的是,機器的學(xué)習(xí)是一個緩慢的過程,它需要學(xué)習(xí)各種情景中的道德行為。在該學(xué)習(xí)過程中,機器極有可能學(xué)得并強化人類的偏見、模式化的觀念以及具有文化烙印的行為,例如,人類對社會經(jīng)濟水平與犯罪率二者的關(guān)系持有某種偏見,機器在學(xué)得這一偏見后,通常會強化種族或地域之間的差異,如此一來,機器在面臨道德選擇時,可能會做出錯誤的決策。然而,對于機器的錯誤決策所造成的風(fēng)險,人類往往難以承受。
鑒于純粹的自頂向下路徑和自底向上路徑都難以滿足人工智能系統(tǒng)的道德推理要求,某些學(xué)者提出了將這兩種推理路徑的優(yōu)點結(jié)合起來的混合路徑[7]99。吉仁澤(Gigerenzer)認為,大部分道德行為是建立在啟發(fā)法(heuristics)的基礎(chǔ)上,而不是建立在道德規(guī)則或最大化原則的基礎(chǔ)上。啟發(fā)法是一種忽略部分可利用的信息、且不追求最優(yōu)化的心理過程,這意味著啟發(fā)法不涉及最大值或最小值的計算。啟發(fā)法本身沒有好壞之分,而是僅僅與使用該方法的環(huán)境有關(guān)。因此,道德行為是思維和環(huán)境相互作用的結(jié)果[8]。根據(jù)這一觀點,先天因素與后天因素對道德行為的形成都非常重要。對于道德智能體的創(chuàng)建而言,將這種觀點擴展到人工智能系統(tǒng)的道德推理中非常有必要,而這恰恰需要結(jié)合了程序化規(guī)則(先天因素)和環(huán)境觀察(后天因素)的混合路徑。在混合路徑中,既需要考慮先天因素,也需要考慮后天因素,而不是將這兩種因素視作“非此即彼”的對立。這意味著,自頂向下路徑(通過編程的方式)和自底向上路徑(以環(huán)境為基礎(chǔ))都難以做出道德決策,相反,必須將這兩種路徑結(jié)合起來[4]80。
對于人工智能系統(tǒng)而言,自頂向下路徑和自底向上路徑都是其不可或缺的道德推理方式。自頂向下路徑強調(diào)系統(tǒng)應(yīng)該遵循特定的道德原則,從而采取有利于社會的行動。這一路徑可以確保系統(tǒng)的決策符合人類的長期利益,而不是個人的短期私利。自底向上路徑側(cè)重于通過經(jīng)驗學(xué)習(xí)來發(fā)現(xiàn)社會認可的價值觀念和道德原則,相較于嚴格遵守特定道德原則的自頂向下路徑,采用自底向上路徑的人工智能系統(tǒng)在行為選擇上具有更大的靈活性。人工智能系統(tǒng)要想在不同情景中正常發(fā)揮作用,就必須了解社會動態(tài)和文化習(xí)俗,而自底向上路徑在這一方面具有很大的優(yōu)勢。因此,混合路徑是比較理想的人工智能系統(tǒng)道德推理路徑。一方面,遵循特定道德原則的人工智能系統(tǒng)能夠確保系統(tǒng)的行為不偏離人類的基本價值觀和道德原則,從而對所有人負責(zé);另一方面,允許人工智能系統(tǒng)在不違背特定道德原則的前提下根據(jù)具體環(huán)境來靈活學(xué)習(xí)不同的道德行為、對不同的道德理論做出表征,并做出適合該環(huán)境的道德決策,這能夠確保系統(tǒng)更高效地完成人類設(shè)定的具體任務(wù)。
然而,考慮到人類道德推理的復(fù)雜性,采用混合路徑的人工智能系統(tǒng)不可能實現(xiàn)像人類一樣的道德推理能力,僅僅依靠人工智能系統(tǒng)自身的道德推理能力并不足以完全確保人工智能系統(tǒng)的開發(fā)對所有人負責(zé)。當(dāng)人工智能系統(tǒng)面對自身難以解決的道德困境時,人類的干預(yù)和介入非常有必要。
作為人工產(chǎn)物,人工智能系統(tǒng)執(zhí)行的目標(biāo)是經(jīng)由人類嵌入到機器中,這些目標(biāo)始終與特定人群的需求有關(guān)。歸根到底,使得人工智能系統(tǒng)對所有人負責(zé)就是要確保我們嵌入到機器中的目標(biāo)是所有人確實需要的目標(biāo)[9]。因此,我們期望人工智能系統(tǒng)為實現(xiàn)特定目標(biāo)所做出的決策和行為能夠符合普遍的道德原則和人類的根本利益,從而規(guī)避人工智能系統(tǒng)帶來的潛在風(fēng)險。這就要求人工智能系統(tǒng)的設(shè)計人員和開發(fā)人員將人類的基本價值觀和道德原則置于系統(tǒng)設(shè)計的核心,賦予人工智能系統(tǒng)以道德推理能力。然而,人工智能系統(tǒng)的道德屬性本質(zhì)上是由人類所決定,系統(tǒng)被賦予的道德價值觀念并不具備價值中立性,因為人工智能系統(tǒng)的設(shè)計人員和開發(fā)人員、相關(guān)利益群體總是根據(jù)特定意圖和文化偏見來為系統(tǒng)選擇特定的道德價值觀念。在實踐層面上,人工智能系統(tǒng)的目標(biāo)和運行方式很大程度上是由系統(tǒng)設(shè)計人員和開發(fā)人員以及相關(guān)參與者所決定。避免人工智能系統(tǒng)帶有個人的文化偏見、成為特定人員獲取私利的工具是確保人工智能系統(tǒng)對所有人負責(zé)以及人工智能系統(tǒng)的目標(biāo)符合人類根本利益的關(guān)鍵。為了實現(xiàn)這一要求,人工智能系統(tǒng)的開發(fā)需要具備多樣性和包容性。
多樣性和包容性在人工智能系統(tǒng)開發(fā)中面臨巨大挑戰(zhàn)。一方面,在人工智能系統(tǒng)開發(fā)的過程中,系統(tǒng)設(shè)計人員和開發(fā)人員總是根據(jù)自己固有的文化偏見為系統(tǒng)設(shè)計其認為最合適的價值觀選項。這一現(xiàn)象不可能避免,因為文化偏見是人類的自然傾向,人類總是根據(jù)符合自身文化偏好的標(biāo)準在不同選項之間做出選擇;另一方面,人工智能系統(tǒng)的開發(fā)目前在很大程度上已經(jīng)被少數(shù)大型公司所控制,這些公司通過人工智能系統(tǒng)隨意獲取并占有公眾的所有信息和數(shù)據(jù),從而滿足少數(shù)人的利益需求;此外,這些公司還決定了人工智能系統(tǒng)的設(shè)計和開發(fā)方式,以此對公眾施加影響,從而實現(xiàn)少數(shù)人的特定意圖。為了最大限度避免這些問題,人工智能系統(tǒng)的設(shè)計和開發(fā)必須堅持以多樣性的所有含義為基礎(chǔ),顯然,多樣性的所有含義涉及性別、文化背景和種族等多個方面。此外,某些研究證據(jù)表明,認知的多樣性也有助于更好地做出決策。因此,人工智能系統(tǒng)的開發(fā)團隊?wèi)?yīng)該包括社會科學(xué)家、哲學(xué)家以及其他領(lǐng)域的專家,同時也應(yīng)該確保性別、種族和文化的差異[4]100。對于人工智能系統(tǒng)的開發(fā)而言,根據(jù)性別、階級、種族、學(xué)科和其他相關(guān)維度,將多樣性作為優(yōu)先選項納入人工智能系統(tǒng)的設(shè)計和開發(fā)中,以增加系統(tǒng)的包容性、寬容度以及思想和觀點的豐富性,這是迫切需要解決的問題[10]。
下面從“參與”“教育”和“監(jiān)管”三個方面來闡述實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性所需的路徑。
首先,實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性要求參與到人工智能政策討論和制定過程中的人員構(gòu)成保持多樣性。人工智能的潛在變革性要求我們加大對人工智能系統(tǒng)研發(fā)人員多樣性的關(guān)注,也就是說,需要意見、興趣、經(jīng)驗的多樣性,以及在等級結(jié)構(gòu)中地位的多樣性,從而確保人工智能系統(tǒng)表現(xiàn)出不同的人格類型,以此獲得各種類型的思維方式[11]101-102。然而,在人工智能研發(fā)領(lǐng)域以及技術(shù)行業(yè)的工作場所文化中,缺乏多樣性是普遍存在的問題。目前的情況是,在世界頂尖大學(xué)(如斯坦福大學(xué)、牛津大學(xué)、伯克利大學(xué)和ETH 等)中,平均80%的教授是男性。此外,在美國,男性占人工智能工作申請者人數(shù)的比例高達70%以上;而在美國科技部門,只有14%的員工是黑人或西班牙裔,盡管他們占總?cè)丝诘谋壤秊?7%。在德國,聯(lián)邦統(tǒng)計局提供的數(shù)據(jù)進一步證實了這種形式的不平等,例如,在計算機科學(xué)專業(yè)的一年級學(xué)生中,女性的比例只有20%左右[12]。這意味著,迫切需要增加女性以及不同族裔的人工智能系統(tǒng)研發(fā)人員的比例,保持參與群體的多樣性、意見的多樣性、經(jīng)驗的多樣性、思維方式的多樣性和文化的多樣性,以便更好地在人工智能領(lǐng)域中代表不同人群的利益、價值觀和需求。與此同時,將人工智能領(lǐng)域以外的學(xué)科專家(如社會科學(xué)家、法學(xué)家、經(jīng)濟學(xué)家)吸收到人工智能系統(tǒng)的研發(fā)過程中,也有助于人工智能系統(tǒng)保持一種多樣化的視角。
其次,實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性需要多樣化的人工智能教育。數(shù)字時代是一個變革和創(chuàng)新的時代,人文學(xué)科、藝術(shù)、社會科學(xué)和STEM(科學(xué)、技術(shù)、工程學(xué)和數(shù)學(xué))之間的傳統(tǒng)劃分已經(jīng)難以適應(yīng)數(shù)字時代的需求。未來的學(xué)生不僅應(yīng)該具備多學(xué)科的知識,而且還應(yīng)該具備跨學(xué)科的知識:即建立一個超越學(xué)科視角的知識框架[4]112。人工智能本質(zhì)上是跨學(xué)科的領(lǐng)域,然而,目前人工智能的課程范圍僅限于工程學(xué),這些課程的內(nèi)容無法滿足人工智能的跨學(xué)科發(fā)展趨勢。我們迫切需要對人工智能從業(yè)人員進行跨學(xué)科的培訓(xùn),拓寬人工智能相關(guān)課程的授課范圍,使未來從事該領(lǐng)域研究的人不僅具備人工智能工程學(xué)知識,同時還具備基本的哲學(xué)、社會科學(xué)、法律和經(jīng)濟學(xué)知識。
第三,實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性需要相應(yīng)的法規(guī)和監(jiān)管。在人工智能系統(tǒng)的開發(fā)過程中,算法偏見是人工智能透明性的主要障礙。機器學(xué)習(xí)算法是根據(jù)人工智能研發(fā)人員和決策者采集的數(shù)據(jù)為達某個目標(biāo)而產(chǎn)生,這些數(shù)據(jù)以及由此產(chǎn)生的算法必然帶有相關(guān)從業(yè)人員的偏見。偏見是人類思維固有的傾向,它也是人類采集的數(shù)據(jù)所無法避免的特征。算法偏見本質(zhì)上與人工智能系統(tǒng)的開發(fā)環(huán)境有關(guān),也就是說,與人工智能系統(tǒng)開發(fā)團隊人員構(gòu)成的多樣性和包容性有關(guān)。為了盡可能消除算法偏見,我們需要對人工智能系統(tǒng)的開發(fā)進行監(jiān)管,制定相應(yīng)的法規(guī)、明確規(guī)定對象、目標(biāo)和激勵措施,從而促進人工智能系統(tǒng)開發(fā)團隊的多樣性和包容性。
總之,只有人工智能系統(tǒng)的利益相關(guān)者,包括設(shè)計人員、開發(fā)人員、政策制定者、使用者在內(nèi)的所有人都能夠參與到人工智能系統(tǒng)的開發(fā)中,保持人工智能系統(tǒng)開發(fā)的多樣性和包容性,人工智能系統(tǒng)設(shè)計的核心價值觀和道德原則才可能具備普遍性,進而才有可能實現(xiàn)人工智能系統(tǒng)的開發(fā)貫徹對所有人負責(zé)的原則。
隨著自主決策能力不斷增強,人工智能系統(tǒng)日益影響著我們的生活和世界,這引發(fā)了人們對人工智能系統(tǒng)的決策和行為的潛在問題和風(fēng)險的擔(dān)憂。顯然,無論人工智能系統(tǒng)的自主性水平多高,智能體都無法為自己的決策和行為負責(zé),因為人工智能系統(tǒng)本質(zhì)上是人類為了實現(xiàn)特定目的而制造的人工產(chǎn)物,而決定這些目的的正是我們?nèi)祟悺S纱丝梢?,恰恰是我們?nèi)祟悜?yīng)當(dāng)對人工智能系統(tǒng)的行為和決策承擔(dān)起責(zé)任。這意味著,需要構(gòu)建一種對所有人負責(zé)的人工智能系統(tǒng)開發(fā)路徑,即堅持人工智能系統(tǒng)的設(shè)計以人類的基本價值觀和道德原則為核心指導(dǎo)思想,采用“問責(zé)”“責(zé)任”和“透明性”的設(shè)計原則;創(chuàng)建能夠根據(jù)人類的基本價值觀和道德原則來進行道德推理的系統(tǒng);保持人工智能系統(tǒng)開發(fā)團隊的多樣性和包容性。也只有如此,我們才有可能最大限度地規(guī)避人工智能系統(tǒng)的決策和行為所帶來的潛在風(fēng)險,從而確保人工智能系統(tǒng)的應(yīng)用有助于實現(xiàn)人類的福祉和根本利益。