馬玉杰
摘 ? ?要:隨著人工智能的廣泛應(yīng)用,如何確保人工智能的決策和行為符合人類的道德規(guī)范,將是未來科技發(fā)展的重點和方向。從我國發(fā)布的《新一代人工智能治理原則》中“負(fù)責(zé)任人工智能”的概念出發(fā),提出人工智能的發(fā)展應(yīng)“合乎道德責(zé)任設(shè)計”,在此基礎(chǔ)上分析人工智能的不同道德決策路徑,明確智能機器的推理過程,就此對人工智能道德決策中的信任問題進行探究,進一步確保人工智能系統(tǒng)的透明性和可預(yù)測性,提高公眾對于人工智能技術(shù)的信任,推進人工智能與人類的和諧共存。
關(guān)鍵詞:人工智能;合乎道德責(zé)任設(shè)計;道德決策;信任
中圖分類號:B82-057 ? ? ? ? ? ?文獻標(biāo)識碼:A ? ? ? ? ? ?文章編號:2095-7394(2020)01-0073-06
人工智能的快速發(fā)展和大規(guī)模應(yīng)用帶來了一系列的倫理困擾。如何確保其決策和行為符合人類基本道德規(guī)范,獲取公眾的信任,成為各國人工智能設(shè)計者、生產(chǎn)者、應(yīng)用者及社會管理者十分關(guān)注的課題。MIT的情感計算研究組主任羅莎琳德·皮卡德就說過,機器越自由,就越需要道德準(zhǔn)則。要機器為自己的行為負(fù)責(zé),前提是機器具有道德主體性是可能的。[1]但不容置疑,人工智能的決定權(quán)依舊在人,人工智能的設(shè)計也必須合乎道德責(zé)任的規(guī)范。
2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。這是我國在國家層面制定的首個發(fā)展人工智能治理原則,“負(fù)責(zé)任”涵蓋了人工智能的基礎(chǔ)研發(fā)層到應(yīng)用層,成為貫穿我國人工智能發(fā)展的一條主線。[2]
本文從我國新一代人工智能治理原則中提出的“負(fù)責(zé)任人工智能”的概念出發(fā),提出人工智能的發(fā)展應(yīng)“合乎道德責(zé)任設(shè)計”的原則,在討論發(fā)展其必要性及內(nèi)涵的基礎(chǔ)上,分析人工智能的不同道德決策路徑,就人工智能的信任問題進行初步地思考,從而引起人們更多關(guān)注和更加深層次的探討。
一、人工智能“合乎道德責(zé)任設(shè)計”的必要性及其內(nèi)涵
隨著人工智能技術(shù)的迅猛發(fā)展,其決策和行動的自主性也在日益增強,由此引發(fā)的倫理問題也日益凸顯,甚至在一定程度上會對人類社會形成威脅。因此,對人工智能的認(rèn)識不能只停留在技術(shù)層面,人工智能的發(fā)展應(yīng)以“合乎道德責(zé)任設(shè)計”為原則,提高公眾對人工智能的信任,確保人工智能以人為本,造福人類、增進人類共同福祉。
(一)“合乎道德責(zé)任設(shè)計”的必要性
作為一種新興技術(shù),人工智能在極大地改善人類生活的同時,也潛存著各種安全風(fēng)險。在人工智能的應(yīng)用中,用戶的個人敏感信息很容易泄露,個人隱私權(quán)將不可避免地受到侵犯,其中金融和醫(yī)療保健等領(lǐng)域最容易受到攻擊。在金融方面,用戶財產(chǎn)安全將受到不法分子的極大威脅,醫(yī)療服務(wù)的過程中的人工智能系統(tǒng)也會不可避免的造成一些失誤,例如:選擇不正確的藥物、算錯藥物的劑量或是使用了過期藥品,造成患者的身體傷害,最終導(dǎo)致病人死亡。圖靈在《智能機器》一文中也詳細(xì)講述了人工智能技術(shù)的發(fā)展趨勢和方向,同時也提到了人工智能對人類的威脅。路易斯維爾大學(xué)網(wǎng)絡(luò)安全實驗室的羅曼教授發(fā)表的《人工智能和網(wǎng)絡(luò)安全:人工智能的失敗》列舉出發(fā)生在2016年的10項重大人工智能失敗案例,其中涉及的安全威脅包括特斯拉自動駕駛汽車造成人員傷亡、機器人傷人事件等。因此,設(shè)計“合乎道德責(zé)任”的智能機器,確保人工智能的安全可靠,保障人類健康和生命安全,成為國內(nèi)外人工智能領(lǐng)域研究的核心內(nèi)容之一。
現(xiàn)今,國際上越來越多的國家及機構(gòu)開始制定人工智能倫理的發(fā)展規(guī)劃。2007年4月,韓國起草了《機器人道德規(guī)范》,為人類與機器人之間的關(guān)系制定了規(guī)章制度;2016 年,美國特朗普政府更新了奧巴馬政府發(fā)布的《國家人工智能研究和發(fā)展戰(zhàn)略計劃》,再次強調(diào)了人工智能的倫理法律與社會影響;2018年12月27日,日本發(fā)布《以人類為中心的AI社會原則》的規(guī)范,提出AI的使用不得侵害憲法和國際規(guī)范保障的基本人權(quán);2019年6月17日,我國新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,以“發(fā)展負(fù)責(zé)任的人工智能”為主題,希望“負(fù)責(zé)任”貫穿人工智能的研發(fā)和應(yīng)用的全過程;同時建立人工智能問責(zé)機制,明確研發(fā)者、使用者和受用者等的責(zé)任。[3]在我國推動人工智能發(fā)展的關(guān)鍵時期,開展人工智能倫理問題的探討有極為重要的意義。[4]
(二)“合乎道德責(zé)任設(shè)計”的內(nèi)涵
在機器倫理學(xué)中,最重要的問題之一涉及到如何使人工智能的設(shè)計“符合道德”。該領(lǐng)域的先驅(qū)蘇珊·安德森(Susan Anderson)將這一目標(biāo)定義為:“制造一種遵循人類理想的道德原則或一套指導(dǎo)其行為原則的機器;它在可能采取行動路線的決策中受既定原則的指導(dǎo),即在機器上“增加道德層面”。[5]其道德決策基于避免不道德行為或禁止某些不道德行為。[6]并在可預(yù)見的未來,機器人只允許被設(shè)計和用作目標(biāo)機制中影響道德行動和結(jié)果的道德參與要素。[7]
美國作家艾薩克·阿西莫夫在他著名的《機器人三定律》中通過構(gòu)想內(nèi)置的“機器倫理調(diào)節(jié)器”,設(shè)定機器人不得危害人類的原則。為機器人提出了第一個道德體系:第一定律:機器人不得傷害人類,也可能因不作為而傷害人類。 第二定律:機器人必須服從人類的命令,除非命令會與第一定律發(fā)生沖突。第三定律:機器人必須保護自己的存在,只要這種保護與第一定律或第二定律不沖突。如今,人工智能專家、倫理學(xué)家等正在共同努力,走在實踐阿西莫夫這一設(shè)想的路上。
2017年12月,美國電氣與電子工程師協(xié)會(簡稱IEEE),發(fā)布了《合倫理設(shè)計:利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》,呼吁將人類規(guī)范與道德價值觀嵌入人工智能系統(tǒng)中,在人工智能發(fā)展過程中關(guān)注人工智能的設(shè)計正義性,避免人工智能設(shè)計的不公平、使用的不公平、算法歧視等社會問題。[8]2018年5月25日,歐洲聯(lián)盟出臺的《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,簡稱GDPR) ,針對人工智能應(yīng)用的潛在風(fēng)險,國際社會在標(biāo)準(zhǔn)設(shè)計、倫理道德等方面也提出了一系列試圖控制智能機器系統(tǒng)的方案,逐漸形成一個共識原則,即通過算法給智能機器嵌入人類的價值觀和道德規(guī)范。
二、人工智能“合乎道德責(zé)任設(shè)計”的決策路徑
如何設(shè)計“合乎道德責(zé)任”的人工智能?涉及兩個問題:首先,應(yīng)為人工智能系統(tǒng)選擇哪些道德理論進行決策;其次,根據(jù)不同的決策路徑如何為一組候選決定計算結(jié)果。[9]本文主要對選擇何種合適的道德理論,予自上而下與自下而上兩種不同道德決策路徑兩個方面進行分析,判定智能機器的決策能力是否可靠,其決策系統(tǒng)是否安全透明,值得人類信任。
(一)道德理論決策選擇
人工智能信息處理有五個階段模型。第一階段:獲取信息,即從傳感器或遙測中獲得信息;第二階段:分析信息,即分類和整合數(shù)據(jù);第三階段:產(chǎn)生替代性的行動方案,即為一組候選決定計算結(jié)果;第四階段:選擇決策,即從備選方案中進行選擇;第五階段:激活執(zhí)行器,即執(zhí)行與該選擇相對應(yīng)的動作。[10]
從智能機器道德責(zé)任的角度來看,關(guān)鍵階段在于第三階段與第四階段——產(chǎn)生替代性的行動方案和選擇決策。在選擇決策這一階段,其關(guān)鍵要素是倫理學(xué)理論。盡管道德機器人的設(shè)計可以采用許多道德理論,但人工智能作為一種特殊目的的智能體,它的倫理道德關(guān)注點不是以“做好事”本身作為道德因素,而是做一些不違反道德規(guī)則的事。這里我們主要考慮兩種道德理論:功利主義和道義主義。
一項行動的價值取決于其后果的整體利益,即指從所有可能的行動中選擇適當(dāng)?shù)男袆?,以使所有人員獲得最大利益,該道德決策基于邊沁的“功利主義”。功利主義側(cè)重于效用最大化,以道德偏好的形式出現(xiàn)在效用函數(shù)中[11],基于對所有受影響的社會單位做出最有利的決定。從這一角度看,具有自動檢測能力的無人駕駛汽車在行為上具有行為能力,該自動駕駛汽車能夠檢測出街道上的行人并避開行人或為了不傷害行人而停車。因此,有能力計算其行為后果并評估其帶來收益的機器人必須被視為具有道德責(zé)任的。但是,該道德決策很難定義為“好”。在大多數(shù)應(yīng)用程序中,它被“實用程序”所代替。相反,道義主義更容易排除特定類別的行為,這種道德理論是關(guān)于遵循確定的對或錯,以及應(yīng)如何行事的準(zhǔn)則,使人工智能在道德上做出人類可接受的行為。例如,無論環(huán)境或后果如何,都可以指示智能機器不許殺人、說謊或造成傷害。但這種方法側(cè)重于根據(jù)獨立于其行動后果的道德原則行事,不關(guān)注行動的后果。
人工智能的決策處理能力取決于機器人行為的道德理論的選擇。如果它有能力展望、計劃和評估結(jié)果的“好處”,那么可以將其設(shè)計為遵循功利主義的道德決策路徑;如果它只能遵守規(guī)則,需要一種解決規(guī)則沖突的方法,道義主義的決策路徑更合適。
(二)自上而下與自下而上決策路徑分析
在人工智能系統(tǒng)中,將替代決策過程稱為自上而下、自下而上的決策方法。[12]在自上而下的決策路徑中,人工智能的設(shè)計者安裝可預(yù)測結(jié)果的決策算法。從本質(zhì)上講,其道德決策過程為選擇功利主義或道義主義之類的道德理論,將人類認(rèn)為是合乎道德責(zé)任的行為內(nèi)容嵌入到機器中,然后僅需確定何時應(yīng)用這些行為即可。
例如,Dehghani等人基于自上而下研究進路構(gòu)建的MoralDM模型,是一種試圖模仿人類道德決策過程的計算模型[13],該模型集成了AI的多種技術(shù),例如處理自然語言以從心理刺激中產(chǎn)生形式化的表示,用于建模和測量世俗與神圣價值影響的定性推理算法,確定道德后果和效用的類比推理算法。根據(jù)所面臨的問題,該模型能夠表現(xiàn)出功利主義和道義主義行為。
圖1為MoralDM模型的推理構(gòu)架圖。如圖所示,當(dāng)給定新的困境時,該模型的推理過程正式開始。該模型通過數(shù)量級推理(OMR)模塊計算出效用關(guān)系之間的每個選擇,同時采用了第一原則推理(FPR)和類比推理(AR)混合推理的方法選擇決策。其中,AR與FPR同時運行:AR模塊需要事先解決的決策案例借鑒過去的經(jīng)驗;FPR使用規(guī)范倫理學(xué)中的功利主義和義務(wù)論,在兩種互斥模式下運行制作決策;如果被分析的案件中不涉及任何神圣的價值,則通過選擇提供最高結(jié)果效用的行動來顯示功利主義的決策行為,反之確定涉及神圣的價值,則選擇道義論模式,對行動的結(jié)果效用優(yōu)先選擇無作為。
在自下而上的決策路徑方法中,程序員構(gòu)建了一個開放式系統(tǒng),該系統(tǒng)能夠從其環(huán)境中收集信息,預(yù)測其行動的結(jié)果,從替代方案中進行選擇,并且最重要的是具有從經(jīng)驗中學(xué)習(xí)的能力。自下而上的方法至少可以通過三種方式體現(xiàn)出來:第一種方法。機器人可以通過反復(fù)試驗,類似于無監(jiān)督學(xué)習(xí)來發(fā)展自己的道德決策選擇方法;第二種方法。機器的工程師可以訓(xùn)練機器人學(xué)習(xí)預(yù)先建立的道德準(zhǔn)則,類似于某種監(jiān)督學(xué)習(xí);第三種方法。機器人可以采用混合學(xué)習(xí)方法,即允許它繼續(xù)從經(jīng)驗和環(huán)境中學(xué)習(xí),但要以預(yù)先建立的原理為基礎(chǔ)。我們可以設(shè)想訓(xùn)練一種本質(zhì)上類似于圍棋游戲程序AlphaGo中神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)方法,通過情景響應(yīng)的實例為例,進一步學(xué)習(xí)行為舉止。
采用這種方法的道德智能體不會在道德決策過程中強加道德理論。相反,他們利用學(xué)習(xí)機制和內(nèi)在價值來指導(dǎo)自己的行為。自下而上的決策路徑方法試圖提供一種環(huán)境,使智能機器在該環(huán)境中通過反復(fù)試驗的經(jīng)驗逐步學(xué)習(xí),并選擇適當(dāng)?shù)男袨椤榇?,基于自下而上方法的智能機器是尋求發(fā)展和完善自己的道德規(guī)范。
溫德爾·瓦拉赫和科林·艾倫在其著作《道德機器如何讓機器人明辨是非》中提出的一種自下而上的對比方法,重點是合乎道德的智能機器擁有一套自己的道德約束,使智能機器的目標(biāo)與人類的目標(biāo)保持一致。GenEth模型就是一個一般的道德困境分析儀,其知識基于與道德相關(guān)的特征、職責(zé)、行動、案例和原則的概念。[15]道德上相關(guān)的特征包括是否存在一組給定職責(zé)的程度。動作在GenEth系統(tǒng)中表示為整數(shù)元組,其中每個值代表其滿足或違反給定職責(zé)的程度。一個案例涉及兩個動作,并表示為相關(guān)動作的相應(yīng)職責(zé)滿足/違反程度的差異的元組。最后,將道德行為偏好原則定義為析取范式謂詞給予案例的職責(zé)差異的下限。
三、人工智能“合乎道德責(zé)任設(shè)計”的信任問題