,
隨著大數(shù)據(jù)技術(shù)的發(fā)展、算法的進(jìn)步和機(jī)器算力的大幅提升,人工智能在眾多領(lǐng)域不斷攻城略池,趕超人類。同時,圍繞人工智能產(chǎn)生的倫理問題也越來越突出,成為全社會關(guān)注的焦點。近年來,國際學(xué)術(shù)界對人工智能道德算法、價值定位、技術(shù)性失業(yè)和致命性自主武器等問題展開了廣泛的討論,一系列富有卓見的研究成果相繼問世。然而,學(xué)界關(guān)于人工智能倫理研究的問題框架尚未達(dá)成共識,正處于探索研究范式的階段,人工智能倫理的教育與教學(xué)究竟該從哪些方面展開仍然缺少框架指導(dǎo)。其實,設(shè)計和研發(fā)安全可靠的人工智能不是單純的技術(shù)層面的要求,也需要道德層面的引導(dǎo)和規(guī)制。人工智能的發(fā)展應(yīng)增進(jìn)人類福祉,與人類的道德價值相符合。要做到這一點,必須給人工智能一顆“良芯(良心)”。這意味著以打造“良芯(良心)”為中心任務(wù)的人工智能倫理研究應(yīng)圍繞“機(jī)芯”(機(jī)器之芯)和“人心”(人類之心)兩個維度來展開?!皺C(jī)芯”研究主要是指人工智能道德算法研究,旨在使人工智能擁有“良芯”,使之成為道德的人工智能或道德的機(jī)器(moral machine)?!叭诵摹毖芯渴侵溉斯ぶ悄苎邪l(fā)者和應(yīng)用者應(yīng)當(dāng)具有“良心”,使人工智能的設(shè)計合乎道德,避免惡意設(shè)計,并確保人工智能的善用,使之造福人類社會。也就是說,“人心”研究主要涵蓋人工智能設(shè)計倫理和社會倫理等方面的研究。“機(jī)芯”和“人心”研究存在諸多基礎(chǔ)性問題,需要在道德哲學(xué)層面做出回應(yīng)或拓展。因此,人工智能倫理研究包括人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計倫理和人工智能社會倫理等四個維度。
隨著人工智能和自主系統(tǒng)的決策能力的不斷提升,它們可能對傳統(tǒng)的道德哲學(xué)構(gòu)成挑戰(zhàn)。傳統(tǒng)的倫理觀念和道德理論的適用性問題將變得越來越突出,其中一些倫理原則或道德規(guī)范有可能會失效或部分失效,甚至在某些領(lǐng)域引起道德哲學(xué)的真空。不過,這反過來可能會倒逼倫理學(xué)家進(jìn)行更加深刻的思考,修正已有的道德概念和道德理論,提出適應(yīng)智能時代的全新的道德哲學(xué)體系,從而促進(jìn)道德哲學(xué)的整體發(fā)展。從這種意義上講,人工智能道德哲學(xué)不是替代傳統(tǒng)道德哲學(xué),而是對傳統(tǒng)哲學(xué)的延伸和擴(kuò)張。
那么,我們究竟該從何種意義上談?wù)撊斯ぶ悄艿牡赖抡軐W(xué)呢?按照尼克·波斯特洛姆(Nick Bostrom)和埃利澤·尤德考斯基(Eliezer Yudkowsky)的觀點,“創(chuàng)造思維機(jī)器的可能性提出了一系列的倫理問題,這些問題既與確保這種機(jī)器不傷害人類和其他道德上關(guān)聯(lián)的存在者有關(guān),也與機(jī)器自身的道德地位有關(guān)?!盵1](P316)智能機(jī)器不傷害人類和其他道德上關(guān)聯(lián)的存在者是設(shè)計倫理的要求,而機(jī)器自身的道德地位問題則是人工智能道德哲學(xué)的范疇,相關(guān)討論可以從人工智能的主體地位、道德責(zé)任和人機(jī)關(guān)系等方面展開。
第一,構(gòu)建人工道德主體(artificial moral agents,簡稱AMAs)是否是可能的?談?wù)撊斯ぶ悄軅惱硎欠駪?yīng)該把AMAs地位的確立作為前提。不過,按照計算機(jī)倫理學(xué)的開創(chuàng)者詹姆斯·摩爾(James Moor)的觀點,我們可以根據(jù)智能機(jī)器的自主性程度劃分出四種人工道德主體:有道德影響的主體、隱式的道德主體、顯式的道德主體和完全的道德主體。[2]因此,即使人工智能系統(tǒng)并沒有被內(nèi)置道德規(guī)范,只要其決策算法能夠產(chǎn)生倫理影響,即可將其視為具備道德推理能力,可以成為道德受體或道德關(guān)懷對象。此外,討論更為前沿的話題是:擁有自由意志或自主能力是否可以作為人工智能和自主系統(tǒng)成為道德主體的前提?如果人工智能有資格作為道德主體,那么人性中的情感和意識等因素是否是人工智能具備道德的必要條件?的確,擁有自我意識并且具備人類情感的人工智能會更像人,但將情感和自由意志賦予人工智能有可能會打開“潘多拉的魔盒”,給人類帶來災(zāi)難性后果。在處理人類錯誤方面,人類社會積累了豐富的經(jīng)驗,但如何應(yīng)對人工智能機(jī)器的錯誤方面,我們的社會可能還尚未做好充分準(zhǔn)備。如果不良情緒被植入智能系統(tǒng),它們可能不是給人們帶來便利,而是給人們制造更多麻煩。關(guān)于類似問題的探討對傳統(tǒng)的道德哲學(xué)提出了挑戰(zhàn),我們已有的關(guān)于“自由意志”“自主”“理性”“道德主體”“道德受體”“道德地位”等概念的內(nèi)涵可能需要重新被定義。這可能導(dǎo)致新的道德哲學(xué)的產(chǎn)生,或?qū)е聜鹘y(tǒng)的道德哲學(xué)發(fā)生轉(zhuǎn)向,如人工物倫理學(xué)的轉(zhuǎn)向?!芭c許多人的直覺想法相反,技術(shù)不再是讓我們的生存變得便利的簡單的中立工具。在這些技術(shù)完成它們功能的同時,已經(jīng)產(chǎn)生了更多的效應(yīng):它們框定著我們該做什么以及我們?nèi)绾误w驗世界,并且以此方式,它們積極參與到我們的生活中。”[3](P1)
第二,人工智能的道德權(quán)利和責(zé)任分配問題。在直覺上,多數(shù)人可能會認(rèn)為AMAs并不應(yīng)享有與人類相等的權(quán)利。在他們看來,AMAs是服務(wù)于人的福祉,而不應(yīng)該被設(shè)定為追求自身的福祉。人工道德主體的界定困難導(dǎo)致相應(yīng)的責(zé)任、義務(wù)和權(quán)利的認(rèn)定變得復(fù)雜。如果人工道德主體以人類伙伴的身份服務(wù)于社會,它們的權(quán)利和義務(wù)的邊界如何劃定,這是需要慎重對待以平衡人類的同理心。如果人工智能具有道德決策能力,同時獲得了道德主體的地位,那么它的設(shè)計者、制造者和使用者是否應(yīng)當(dāng)為它們的過失負(fù)擔(dān)相應(yīng)的責(zé)任?如果它們能夠承擔(dān)一定的責(zé)任,那么是否人們會設(shè)法將一些道德責(zé)任推卸給人工智能來承擔(dān)?面對這種情形,AMAs可能淪為替人類行為免責(zé)的一種工具,它們的權(quán)利保障可能更是無從談起。如果AMAs能夠為其不當(dāng)行為承擔(dān)完全責(zé)任,那么責(zé)任的邊界和限度的劃定問題將變得越來越突出。畢竟,道德譴責(zé)和否定評價如何對AMAs產(chǎn)生實際的道德約束力在技術(shù)上仍然是個難題。如果道德約束對于AMAs是不充分的,那么它們承擔(dān)相應(yīng)的法律責(zé)任是否是可行的?如果AMAs需要承擔(dān)一定的刑事責(zé)任,那么究竟何種懲罰對它們具有威懾力,例如清除記憶、機(jī)身銷毀等是否等同于機(jī)器的死亡?限制機(jī)器人人身自由是否有效?同時人類共同體在情感上能否接受這種形式的懲罰;如果它們沒有基本的財產(chǎn)權(quán),那么它們以何種形式承擔(dān)民事責(zé)任?是社會整體承擔(dān)還是多主體分擔(dān),這些都是值得深入探討的問題。
第三,人類道德與機(jī)器道德的關(guān)系問題。通常,人們是基于后果來判定某人行為是否道德,但通過深入探究,人們會認(rèn)識到主體的心靈狀態(tài)(意圖、動機(jī)或目的等)在評價或判定某人行為是否道德時發(fā)揮重要作用。目前,主流的道德理論基本都是以人類為中心提出的。隨著人機(jī)互動時代的到來,這些道德理論可能需要盧西亞諾·弗洛里迪(Luciano Floridi)提出的所謂“分布式道德”來補充。根據(jù)這種觀點,局部層面的智能體相互作用,可以導(dǎo)致系統(tǒng)整體或宏觀層面的道德行為和集體責(zé)任感的增加。[4]另外,雖然AMAs必須以人類價值為目標(biāo)被建構(gòu)起來,但面對多樣化的文化價值系統(tǒng)、多元化的宗教傳統(tǒng)和無數(shù)的倫理理論,我們究竟該選擇哪種作為底層的設(shè)計框架?按照瓦拉赫和艾倫的觀點,弱人工智能的道德實際上是一種“操作性道德”,由設(shè)計者和使用者賦予意義;隨著復(fù)雜程度的增加,人工智能將會表現(xiàn)出所謂的“功能性道德”,它將使其自身具備道德決斷能力并能夠影響道德挑戰(zhàn)。[5](P6)這種劃分有助于我們明晰所談?wù)摰牡降资侵负畏N道德。不過,如果純粹從實用主義視角出發(fā),那么人工智能是否有資格成為道德主體可能并不是最緊迫的問題,只要它們能夠像道德主體一般行動,盡可能地減少道德摩擦,而不惹是生非。從現(xiàn)實層面來講,那些在道德上具有卓越表現(xiàn)的智能機(jī)器會有更高的公眾認(rèn)可度,能夠更加順利地融入到人類社會。這種可接受性的動力學(xué)來源可能來自以下兩個方面:一方面機(jī)器道德的研究要求深刻理解人類道德的發(fā)生、起源和機(jī)制。從這種意義上建構(gòu)人工智能道德,可能要求我們更多地去思考如何從學(xué)習(xí)、進(jìn)化和發(fā)展的角度去考察如何培養(yǎng)人工智能的道德感;另一方面機(jī)器道德的研究對于傳統(tǒng)的道德哲學(xué)發(fā)揮“反哺”功能,它能夠激發(fā)傳統(tǒng)的倫理學(xué)研究做出革新,甚至催生全新的倫理學(xué)體系。
我們已經(jīng)生活在算法時代,幾十年前,人們對于“算法”的認(rèn)識主要是在數(shù)學(xué)和計算機(jī)領(lǐng)域?!爱?dāng)今,文明社會的每個角落都存在算法,日常生活的每分每秒都和算法有關(guān)。算法不僅存在于你的手機(jī)或筆記本電腦,還存在于你的汽車、房子、家電以及玩具當(dāng)中。”[6](P3)事實上,算法已經(jīng)成為當(dāng)今信息社會的一種基礎(chǔ)設(shè)施,它們能夠引導(dǎo)甚至支配人們的思維與行動。因此,算法越來越多地參與到人類的道德生活將是一種必然趨勢。當(dāng)然,有人會主張道德是不可計算的,反對用算法刻畫道德,甚至認(rèn)為道德領(lǐng)域是技術(shù)擴(kuò)張的禁忌之地。不過,人工智能對社會結(jié)構(gòu)的滲入作用勢不可擋,算法的影響早已深入到文明社會的每個角落。
人工智能相關(guān)技術(shù)的核心主要體現(xiàn)在決策算法方面。人工智能道德算法的研究主要是指那些在道德上可接受的算法或合乎倫理的算法,它們使自主系統(tǒng)的決策具有極高的可靠性和安全性。從這種意義上講,道德算法是實現(xiàn)人工智能功能安全的一項基本原則和技術(shù)底線。那么,人工智能如何才能成為一個安全可靠的道德推理者,能夠像人類一樣甚至比人類更加理性地做道德決策呢?在此,我們首先需要明確人工智能是如何進(jìn)行道德決策。也就是說,人工智能的道德推理機(jī)制問題。目前,相關(guān)研究主要沿著三個方向展開。
一是理論/規(guī)則驅(qū)動進(jìn)路。這也被稱為自上而下的進(jìn)路,它是將特定群體認(rèn)可的價值觀和道德標(biāo)準(zhǔn)程序化為道德代碼,嵌入智能系統(tǒng),內(nèi)置道德決策場景的指導(dǎo)性抉擇標(biāo)準(zhǔn)。在這方面,人們最容易想到的是20世紀(jì)40年代艾薩克·阿西莫夫(Isaac Asimov)提出的“機(jī)器人三定律”:“1.機(jī)器人不可以傷害人,或者通過不作為,讓任何人受到傷害;2.機(jī)器人必須遵從人類的指令,除非那個指令與第一定律相沖突;3.機(jī)器人必須保護(hù)自己的生存,條件是那樣做與第一、第二定律沒有沖突?!盵5](P1)從理論上講,伊曼紐爾·康德(Immanuel Kant)的道義論、約翰·密爾(John Mill)的功利主義和約翰·羅爾斯(John Rawls)的正義論等都可以成為理論驅(qū)動進(jìn)路的理論備選項。早期機(jī)器倫理尤其是符號主義的支持者對理論/規(guī)則驅(qū)動模式情有獨鐘,但技術(shù)瓶頸和可操作性難題使得這種研究進(jìn)路日漸式微。例如,有限的道德準(zhǔn)則如何適應(yīng)無窮變化的場景在技術(shù)上始終是個難題;如何調(diào)和不同的價值共同體對于不同的道德機(jī)器的需求存在種種現(xiàn)實困境;如何將內(nèi)置某種道德理論偏向的人工智能產(chǎn)品讓消費者接受也是一個社會難題。[7]近年來,新興起的一種綜合運用貝葉斯推理技術(shù)和概率生成模型的研究方法為自上而下式的研究進(jìn)路帶來曙光。[8]
二是數(shù)據(jù)驅(qū)動進(jìn)路。這種自下而上的進(jìn)路要求對智能系統(tǒng)進(jìn)行一定的道德訓(xùn)練,使其具備人類的道德推理能力,并利用學(xué)習(xí)算法將使用者的道德偏好投射到智能機(jī)器上。從根本上說,這是一種基于進(jìn)化邏輯的機(jī)器技能習(xí)得模式。這種研究進(jìn)路的支持者普遍持有一種道德發(fā)生學(xué)視角,主張道德能力是在一般性智能的基礎(chǔ)上演化而來,或?qū)⒌赖履芰σ暈橹悄艿淖宇惗皇歉哂谄胀ㄖ悄艿母唠A能力。因此,他們是運用與人類的道德演化相似的進(jìn)路展開研究的。如今,以深度學(xué)習(xí)(deep learning)為代表的數(shù)據(jù)驅(qū)動進(jìn)路獲得了更多的擁躉。在人工智能道德算法的研究中,道德學(xué)習(xí)將成為人工智能獲得道德能力的關(guān)鍵。有學(xué)者提出,人工智能可通過閱讀和理解故事來“學(xué)會”故事所要傳達(dá)的道德決策模式或價值觀,以此來應(yīng)對各種復(fù)雜的道德場景。[9](P105-112)不過,以深度學(xué)習(xí)為核心架構(gòu)的決策算法是基于相關(guān)性的概率推理,不是基于因果性的推理,這使得道德推理似乎呈現(xiàn)出一種全新樣態(tài)。實際上,道德決策算法并不是獨立運作的,需要和其他算法系統(tǒng)聯(lián)合決策。當(dāng)然,單單依靠學(xué)習(xí)算法是不夠的,甚至是有嚴(yán)重缺陷的。機(jī)器的道德學(xué)習(xí)嚴(yán)重依賴于訓(xùn)練數(shù)據(jù)樣本和特征值的輸入,不穩(wěn)定的對抗樣本重復(fù)出現(xiàn)可能導(dǎo)致智能機(jī)器被誤導(dǎo),基于虛假的相關(guān)性做出道德判斷,從而做出錯誤的道德決策。而且,算法的黑箱特征使得道德算法的決策邏輯缺乏透明性和可解釋性。另外,道德學(xué)習(xí)還會受到使用者價值偏好和道德場景的影響,做出與使用者理性狀態(tài)下相反的道德判斷。例如,人們不自覺的習(xí)慣動作往往是在理智上要克服的,而機(jī)器學(xué)習(xí)很難對此做出甄別。從這個意義上說,人工智能既有可能“學(xué)好”,也有可能“學(xué)壞”。
三是混合式?jīng)Q策進(jìn)路。自上而下和自下而上的二元劃分過于簡略,難以應(yīng)對復(fù)雜性帶來的種種挑戰(zhàn)?;旌鲜降臎Q策模式試圖綜合兩種研究進(jìn)路,尋找一種更有前景的人工智能道德推理模式。按照當(dāng)前學(xué)界普遍觀點,混合進(jìn)路是人工智能道德推理的必然趨勢,但問題是兩者究竟以何種方式結(jié)合。我們知道,人類的道德推理能力是先天稟賦和后天學(xué)習(xí)的共同結(jié)果,道德決策是道德推理能力在具體場景中穩(wěn)定或非穩(wěn)定的展現(xiàn)。與人類的道德推理不同,人工智能的道德推理能力在很大程度上是人類預(yù)制的,但這種能力并不能保證人工智能能夠做出合理的道德決策,因為道德決策與具體場景密切相關(guān),而場景又是極其復(fù)雜和多變的。因此,當(dāng)智能機(jī)器遭遇道德規(guī)范普適性難題時,到底該如何解決?這不僅是技術(shù)專家所面臨的難題,更是對共同體價值如何獲得一致性的考驗。面對具體場景,不同的道德規(guī)范可能發(fā)生沖突,也可能產(chǎn)生各種道德困境,究竟該以哪種標(biāo)準(zhǔn)優(yōu)化道德算法,價值參量排序的優(yōu)先性問題將會變得越來越突出。按照瓦拉赫和艾倫的分析,在眾多的候選理論中,德性理論將有可能成為一種最有前景的開發(fā)人工智能道德決策能力的模型。[5](P102-109)德性倫理將人們對后果與責(zé)任的關(guān)注轉(zhuǎn)向品質(zhì)和良習(xí)的培養(yǎng),因為這是好行為的保證,而這種道德良知的獲得被認(rèn)為恰恰需要混合式進(jìn)路來完成。
人工智能的設(shè)計倫理需要從兩個維度展開:一方面,設(shè)計和研發(fā)某種人工智能產(chǎn)品和服務(wù)之前,設(shè)計者或制造商要有明確的價值定位,能夠?qū)ζ渌a(chǎn)生的倫理和社會影響有總體預(yù)判;另一方面,人工智能為消費者提供服務(wù)的過程中如果出現(xiàn)價值偏差,系統(tǒng)內(nèi)置的糾偏機(jī)制能夠有效地防控危害繼續(xù)進(jìn)行,防止危險的發(fā)生。例如,數(shù)據(jù)挖掘技術(shù)可能將隱藏在數(shù)據(jù)中的偏見或歧視揭示出來并運用到行動決策,但機(jī)器自身很難像人類一樣自覺地抵制一些個人偏見或歧視,這要求通過技術(shù)手段和社會手段聯(lián)合消除偏見或歧視。
那么,如何才能設(shè)計出符合人類道德規(guī)范的人工智能呢?概言之,面對在智力上日趨接近并超越人類的人工智能,設(shè)計者要設(shè)法賦予其對人類友善的動機(jī),使其具備特定的道德品質(zhì),做出合乎道德的行為。設(shè)計人工智能使得它們能夠充分發(fā)揮特定的功能,同時又遵從人類道德主體的道德規(guī)范和價值體系,不逾越法律和道德的底線。但是,人工智能不可能自我演化出道德感,其工具性特征使得對它的利用可能出現(xiàn)偏差。因此,在設(shè)計人工智能產(chǎn)品和服務(wù)時,尤其應(yīng)當(dāng)努力規(guī)避潛在地被誤用或濫用的可能性。如果某些個人或公司出于私利而設(shè)計或研發(fā)違背人性之善的自主系統(tǒng),那么公共政策的制定機(jī)構(gòu)有必要提前對這些誤用和濫用采取法律和倫理規(guī)制。如果具有高度自主性的系統(tǒng)缺乏倫理約束機(jī)制和價值一致性,那么在其尚不成熟階段被開放使用,其后果令人堪憂。因此,為人工智能系統(tǒng)內(nèi)置良善的價值標(biāo)準(zhǔn)和控制機(jī)制是必要手段,這是保證智能系統(tǒng)獲得良知和做出良行的關(guān)鍵。
人工智能應(yīng)該更好地服務(wù)于人類,而不是使人類受制于它,這是人工智能設(shè)計的總體的價值定位問題。2016年,國際電氣和電子工程師協(xié)會(IEEE)發(fā)布《以倫理為基礎(chǔ)的設(shè)計:在人工智能及自主系統(tǒng)中將人類福祉擺在優(yōu)先地位的愿景》(第一版),呼吁科研人員在進(jìn)行人工智能研究時優(yōu)先考慮倫理問題,技術(shù)人員要獲得相應(yīng)的工程設(shè)計倫理培訓(xùn)。IEEE要求優(yōu)先將增進(jìn)人類福祉作為算法時代進(jìn)步的指標(biāo)。人工智能設(shè)計倫理是解決安全問題的必要措施,旨在保證優(yōu)先發(fā)展造福人類的人工智能,避免設(shè)計和制造不符合人類價值和利益的人工智能產(chǎn)品和服務(wù)。2017年12月12日,IEEE《人工智能設(shè)計的倫理準(zhǔn)則》(第二版)在全球同時發(fā)布,進(jìn)一步完善了對于設(shè)計者、制造商、使用者和監(jiān)管者等不同的利益相關(guān)方在人工智能的倫理設(shè)計方面的總體要求和努力方向。
人工智能產(chǎn)品制造者和服務(wù)提供商在設(shè)計和制造人工智能系統(tǒng)時,必須使它們與社會的核心價值體系保持一致。在這方面,IEEE《人工智能設(shè)計的倫理準(zhǔn)則》闡述的人工智能設(shè)計“基本原則”為我們提供了很好的啟示:第一,人權(quán)原則。算法設(shè)置應(yīng)當(dāng)遵循基本的倫理原則,尊重和保護(hù)人權(quán)是第一位的,尤其是生命安全權(quán)和隱私權(quán)等。第二,福祉原則。設(shè)計和使用人工智能技術(shù)應(yīng)當(dāng)優(yōu)先考慮是否有助于增進(jìn)人類福祉作為衡量指標(biāo),要避免算法歧視和算法偏見等現(xiàn)象的發(fā)生,維護(hù)社會公正和良序發(fā)展。第三,問責(zé)原則。對于設(shè)計者和使用者要明確相應(yīng)的責(zé)任,權(quán)責(zé)分配和追責(zé)機(jī)制是明晰的,避免相關(guān)人員借用技術(shù)卸責(zé)。第四,透明原則。人工智能系統(tǒng)的運轉(zhuǎn)尤其是算法部分要以透明性和可解釋性作為基本要求。第五,慎用原則。要將人工智能技術(shù)被濫用的風(fēng)險降到最低,尤其在人工智能技術(shù)被全面推向市場的初期,風(fēng)險防控機(jī)制的設(shè)置必須到位,以贏得公眾的信任。[10]
人工智能的設(shè)計目標(biāo)是增進(jìn)人類福祉,使盡可能多的人從中受益,避免造成“數(shù)字鴻溝”。智能技術(shù)的革命性進(jìn)展可能會改變當(dāng)前的一些制度設(shè)計,但這種改變不能偏離以人為本的發(fā)展結(jié)構(gòu),應(yīng)當(dāng)堅守人道主義的發(fā)展底線。技術(shù)設(shè)計不能逾越對個人和自身合法權(quán)益的控制權(quán),制度和政策的設(shè)計應(yīng)當(dāng)維護(hù)個人數(shù)據(jù)安全及其在信息社會中的身份特質(zhì)。如果人工智能系統(tǒng)造成社會危害,相應(yīng)的問責(zé)機(jī)制應(yīng)當(dāng)被有效地調(diào)用。實際上,這是要求相關(guān)管理部門能夠提前制定規(guī)則和追責(zé)標(biāo)準(zhǔn),使得智能系統(tǒng)的決策控制權(quán)最終由人類社會共同體掌握。按照阿米塔伊·埃齊奧尼(Amitai Etzioni)和奧倫·埃齊奧尼(Oren Etzioni)的建議,從技術(shù)自身的監(jiān)管角度考慮,應(yīng)當(dāng)引入二階的監(jiān)督系統(tǒng)作為智能系統(tǒng)的監(jiān)護(hù)人程序,以此來防控人工智能技術(shù)的潛在風(fēng)險。[11]對于社會監(jiān)管而言,人工智能的政府監(jiān)管機(jī)構(gòu)和相關(guān)行業(yè)的倫理審查委員會對于智能系統(tǒng)的使用數(shù)據(jù)和信息具有調(diào)取權(quán),并且能夠?qū)ο到y(tǒng)的安全性和可靠性進(jìn)行風(fēng)險評估、測試和審計,公眾也有權(quán)知曉智能系統(tǒng)的利益相關(guān)方及其倫理立場。
確保人工智能的算法設(shè)計合乎倫理,是一個復(fù)雜的社會工程,需要整合各個方面的專業(yè)資源,進(jìn)行跨學(xué)科的協(xié)作研究。為了提高智能機(jī)器的環(huán)境適應(yīng)性,在為智能系統(tǒng)嵌入人類價值時,要平衡和分配不同的道德、宗教、政治和民族風(fēng)俗習(xí)慣等因素的權(quán)重,使人工智能系統(tǒng)的設(shè)計能夠最大限度地符合人類社會的價值標(biāo)準(zhǔn)。人工智能的倫理問題的妥善處理需要多方合作,產(chǎn)業(yè)界和學(xué)術(shù)界應(yīng)形成聯(lián)動機(jī)制,共同推進(jìn)以價值為基礎(chǔ)的倫理文化和設(shè)計實踐。為此,下列措施對于實現(xiàn)上述實踐目標(biāo)是必要的:第一,需要發(fā)揮算法工程師的技術(shù)專長,提高他們對特殊場景中倫理問題的敏感性和工程倫理素養(yǎng),確保智能系統(tǒng)促進(jìn)安全并保護(hù)人權(quán);第二,需要人文社科學(xué)工作者加強對人類心智運轉(zhuǎn)機(jī)制和人工智能道德決策機(jī)制的研究,能夠為人工智能的相關(guān)倫理議題提供思考框架和辯護(hù)理由,使公眾認(rèn)識到智能系統(tǒng)的潛在社會影響;第三,需要審查和評估機(jī)構(gòu)嚴(yán)格行事,提高人工智能系統(tǒng)與人類道德規(guī)范體系的兼容度;第四,需要公眾參與、表達(dá)訴求和提供反饋。
隨著人工智能和自主系統(tǒng)逐步嵌入到社會生活的方方面面,人類與機(jī)器的關(guān)系將變得越來越復(fù)雜,由此所引發(fā)的社會倫理問題將變得越來越突出。如果人工智能的復(fù)雜程度不斷提高,越來越具有人性,那么“恐怖谷”(uncanny valley)現(xiàn)象是否會真實發(fā)生?雷·庫茲韋爾(Ray Kurzweil)預(yù)言的“奇點”(人工智能超越人類智能的點)是否真的已經(jīng)臨近?比人類更聰明的人工智能是否對人類“友好”,抑或損害人類福祉,甚至異化為劉易斯·芒福德(Lewis Mumford)所說的統(tǒng)治人類的“巨機(jī)器”?如果人工智能進(jìn)化為超級智能體,是否像科幻電影所描述的那樣反叛人類,奴役人類,甚至最終會消滅人類?在未來社會,人工智能如何造福于人類社會,避免被居心叵測的人類個體或團(tuán)體操控,危害或奴役他人。人類如何適應(yīng)和引導(dǎo)新型的人工智能社會,這些都是值得深入探討的問題。這類問題的倫理學(xué)探討并不直接著眼于幫助我們建構(gòu)AMAs,也不能僅僅局限于未來學(xué)、科幻作品式的想象和哲學(xué)的思想實驗,而應(yīng)該開展特定的定量分析來研究,完善技術(shù)風(fēng)險評估體系建設(shè),權(quán)衡災(zāi)難發(fā)生的可能性,并做好積極的預(yù)防措施。
事實上,如何善用和阻止惡用人工智能才是人工智能社會倫理研究的關(guān)鍵問題。這個問題的落腳點在于優(yōu)化人機(jī)合作關(guān)系,建立一種能夠使人類與智能機(jī)器相互適應(yīng)和信任的機(jī)制,使人工智能建設(shè)性地輔助人們的生產(chǎn)和生活。在這方面,當(dāng)前討論最多也最為實際的是人工智能是否會取代人們的工作,引起大規(guī)模的技術(shù)性失業(yè)?人們擔(dān)憂,強大的人工智能可能導(dǎo)致很多失業(yè)人員完全無法找到合適的工作,進(jìn)而使得社會結(jié)構(gòu)變得不穩(wěn)定。牛津大學(xué)對美國勞工統(tǒng)計局描述的702種職業(yè)所需技能進(jìn)行定量分析:“美國47%的工作極有可能會被高度自動化的系統(tǒng)所取代,這些職業(yè)包括的很多領(lǐng)域的藍(lán)領(lǐng)職業(yè)和白領(lǐng)職業(yè)?!瓱o論你接受與否,高達(dá)50%的就業(yè)崗位在不遠(yuǎn)的未來都有被機(jī)器占領(lǐng)的危險?!盵12](P147)回望歷史,每一次技術(shù)革命都可能導(dǎo)致失業(yè),很多工作崗位、工種和技能被淘汰掉。與此同時,技術(shù)革命也創(chuàng)造出很多新的職業(yè)和工作機(jī)會。不過,這次智能革命所具有的顛覆性可能不同于以往,它甚至有可能重新定義人們對于勞動的觀念。如果人工智能最終導(dǎo)致大規(guī)模的失業(yè)潮,如何滿足作為人們基本生活需要的勞動權(quán),社會穩(wěn)定如何得到維護(hù),社會保障制度如何負(fù)擔(dān)失業(yè)人員的生活?對于這些問題,學(xué)術(shù)界和政府相關(guān)部門從現(xiàn)在開始就需要展開深入研究。
人工智能的深入應(yīng)用還將涉及更大范圍的公平和正義的問題。歷史證明,新技術(shù)可以消除基于舊技術(shù)的不平等,但也可能產(chǎn)生新的更大的不平等。不同國家、地區(qū)和人群在獲得人工智能的福利方面可能存在不公平和不平等問題,導(dǎo)致“人工智能鴻溝”。如何避免這場技術(shù)革命引起新的差距,讓更多的人獲益,避免欠發(fā)達(dá)地區(qū)和弱勢群體在技術(shù)福利分配中再次陷入被動地位,彌合“人工智能鴻溝”,是人工智能社會倫理研究的焦點。從技術(shù)角度看,在算法時代,人工智能系統(tǒng)對數(shù)據(jù)的需求幾乎是無限的,這勢必涉及個人信息安全和隱私權(quán)等問題。為了應(yīng)對可能的倫理風(fēng)險,隱私政策和知情同意條款需要得到相應(yīng)的更新,商業(yè)機(jī)構(gòu)在對信息進(jìn)行數(shù)據(jù)挖掘和價值開發(fā)時要遵循相應(yīng)的倫理規(guī)范。數(shù)據(jù)共享方式有待創(chuàng)新,以維護(hù)數(shù)據(jù)安全,保護(hù)隱私權(quán)和個人信息權(quán)將是人工智能社會倫理研究的重點領(lǐng)域。
在一些具體領(lǐng)域,人工智能的深入應(yīng)用已經(jīng)產(chǎn)生較為熱烈的倫理討論和媒體關(guān)注。在軍事方面,是否應(yīng)該限制或禁止使用致命性自主武器系統(tǒng)(lethal autonomous weapons systems,簡稱LAWS)的話題備受熱議。LAWS真的能夠做到“只攻擊敵人,不攻擊平民”嗎?它們在不需要人類干預(yù)的情況下,能夠像人類戰(zhàn)士一樣遵守道德準(zhǔn)則嗎?如果LAWS可以上戰(zhàn)場作戰(zhàn),那它抉擇目標(biāo)生死的標(biāo)準(zhǔn)該由誰來制定?2015年7月,一封要求停止研發(fā)致命性自主武器系統(tǒng)的公開信獲得了3萬多人簽名,其中包括斯蒂芬·霍金(Stephen Hawking)、埃隆·馬斯克(Elon Musk)及眾多人工智能領(lǐng)域的專家。在他們看來,自主武器系統(tǒng)具有極大的風(fēng)險,一旦被研發(fā)成功并應(yīng)用,就可能被恐怖組織掌握,這對于無辜平民是巨大的安全威脅,甚至有可能引發(fā)第三次世界大戰(zhàn)。[13]在醫(yī)療領(lǐng)域,隨著醫(yī)療影像診斷的精準(zhǔn)度的不斷提高并超越醫(yī)生,人工智能技術(shù)可能被廣泛應(yīng)用于疾病診斷,如果出現(xiàn)誤診,責(zé)任究竟由誰來承擔(dān)?人工智能技術(shù)同時也加大了醫(yī)療數(shù)據(jù)泄露的風(fēng)險,醫(yī)療機(jī)構(gòu)保存的病人健康數(shù)據(jù)和電子病例有可能被不恰當(dāng)?shù)剡M(jìn)行價值開發(fā),如何合法地收集和管理這些數(shù)據(jù)已經(jīng)成為近年來學(xué)術(shù)界研究的熱點話題。近年來,美國某公司制造出性愛機(jī)器人的消息曾一度引發(fā)輿論熱議,支持和反對之聲不絕于耳。類似的仿真機(jī)器人的出現(xiàn)是否會對人類相互之間的情感構(gòu)成損害,是否對人們的婚姻觀念和社會制度造成沖擊,等等。
近年來,美國和英國等先后發(fā)布國家人工智能戰(zhàn)略報告,大力推動人工智能及其相關(guān)產(chǎn)業(yè)的發(fā)展。我國也極其重視人工智能和自主系統(tǒng)的研發(fā)和應(yīng)用,2017年7月8日,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》),將人工智能倫理法律研究列為重點任務(wù),要求開展跨學(xué)科探索性研究,推動人工智能法律倫理的基礎(chǔ)理論問題研究。《規(guī)劃》對人工智能倫理和法律制訂了三步走的戰(zhàn)略目標(biāo):到2020年,部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立;到2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系;到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系?!兑?guī)劃》指出,人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?、改變世界,但人工智能可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關(guān)系準(zhǔn)則等問題,要求在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風(fēng)險挑戰(zhàn),加強前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險,確保人工智能安全、可靠、可控發(fā)展。
我們必將生活在一個人機(jī)共生的時代。人類與機(jī)器之間勢必將發(fā)生各種沖突和矛盾,這些很難僅僅靠法律和制度來完全解決,人工智能倫理研究對于人機(jī)合作和信任將是必要之物。雖然我們對倫理學(xué)指導(dǎo)人們?nèi)粘I畹牡赖聸Q策常存疑慮,但是倫理學(xué)理論可以為智能機(jī)器的道德決策提供指南將是基本事實?,F(xiàn)階段,有很多人鼓吹我們正處在智能革命過程中,但這場革命并不能被無限制地夸大?!霸谥悄鼙l(fā)的前景下,我們?nèi)祟惥拖衲弥◤椡娴暮⒆??!M管我們把炸彈放到耳邊能夠聽到微弱的滴答聲,但是我們也完全不知道爆炸會在何時發(fā)生。”[14](P328)類似的未來學(xué)家式的擔(dān)憂、科技精英的猜想和科幻電影式的描繪雖然能為我們的倫理思考提供素材,但這些可能并不是我們實際上將會真實遭遇的情境。著眼于現(xiàn)實,人工智能倫理研究的目標(biāo)始終是要給人工智能一顆“良芯(良心)”,使其像人類那樣能夠明辨是非,進(jìn)而才能“行有德之事,做有德之機(jī)”。從這種意義上講,“機(jī)器之芯”和“人類之心”的研究是相得益彰的。這些研究能夠使得我們發(fā)現(xiàn)人造物與人類更多的相似性和差異性,恰恰是這些將會使我們更加明白“我們到底是誰”和“我們在做什么”。因此,人工智能倫理研究恰恰是對德爾斐神廟門楣上的神諭“認(rèn)識你自己”的最好詮釋。