張正敏
(上海市質(zhì)量和標(biāo)準(zhǔn)化研究院,上海 200031)
近年來,人工智能技術(shù)發(fā)展突飛猛進,除了在特定場景——如圍棋等領(lǐng)域取得革命性突破外,在非特定場景的任務(wù)中——如無人駕駛也取得了長足的進步。前述這些應(yīng)用屬于較為正面的方面,但是一些不合理應(yīng)用也給經(jīng)濟社會發(fā)展帶來了許多問題,比如軍用人工智能技術(shù)對于士兵乃至整個人類生命的威脅、情侶機器人對家庭倫理的挑戰(zhàn)等,因此越來越多的人呼吁盡快開展人工智能倫理方面的研究。
在人工智能倫理研究方面,歐盟較為領(lǐng)先。早在2015年,歐盟議會法律事務(wù)委員會(JURI)就決定成立一個工作小組,專門研究與機器人和人工智能發(fā)展相關(guān)的法律問題。2019年,歐盟委員會發(fā)布了由歐盟人工智能高級專家組撰寫的《可信賴人工智能道德準(zhǔn)則》,提出了實現(xiàn)“可信賴AI全生命周期框架”的3個基本要素(合法性、合倫理性、穩(wěn)健性)、可信賴AI的基礎(chǔ)原則、評估可信賴AI的關(guān)鍵要求及其實現(xiàn)等。美國人工智能倫理體系發(fā)展相對其技術(shù)發(fā)展水平而言相對落后。2016年,美國電氣和電子工程師協(xié)會(IEEE)發(fā)布世界首個《人工智能道德準(zhǔn)則設(shè)計草案(Ethically Aligned Design)》(Version 1)。美國美國防創(chuàng)新委員會發(fā)布軍用人工智能倫理原則《人工智能原則:國防部人工智能應(yīng)用倫理的若干建議》,提出了“負(fù)責(zé)、公平、可追蹤、可靠、可控”五大原則。
其他國家、地區(qū)和組織中,2016年日本人工智能學(xué)會倫理委員起草了面向研究人員的倫理綱要草案;同年,英國標(biāo)準(zhǔn)行業(yè)協(xié)會發(fā)布業(yè)界首個關(guān)于機器人倫理設(shè)計的公開指標(biāo)——《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》;2017年聯(lián)合國發(fā)布了《機器人倫理報告》;2018年英國發(fā)布了《英國人工智能發(fā)展的計劃、能力與志向》。2019年世界經(jīng)濟論壇發(fā)布白皮書《AI治理:將倫理規(guī)范納入AI的整體方法》。在國內(nèi),2017年,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃的通知》,明確提出要加強人工智能相關(guān)法律、倫理和社會問題的研究,建立保障人工智能健康發(fā)展的法治法規(guī)和倫理道德框架,到2030年中國建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。2018年,在國家人工智能標(biāo)準(zhǔn)化總體組的成立大會上,《人工智能標(biāo)準(zhǔn)化白皮書2018》正式發(fā)布,論述了人工智能的安全、倫理和隱私問題;中國發(fā)展研究基金會發(fā)布報告《未來基石—人工智能的社會角色與倫理》提出了人工智能倫理三問;2018年世界人工智能大會,國家主席習(xí)近平致信提出要抓住機遇,處理好人工智能在法律、安全、就業(yè)、道德倫理和政府治理等方面提出的新課題。
李升[1]通過研究50部人工智能倫理準(zhǔn)則,認(rèn)為目前現(xiàn)有的倫理研究基本上可以分為2類:人類中心主義、非人類中心主義,其中以人類中心主義為基本立場的倫理準(zhǔn)則數(shù)量遠高于非人類中心主義的倫理準(zhǔn)則數(shù)量,并且提出了以“自主度”等級方法來解釋與分析不同類型人工智能倫理準(zhǔn)則數(shù)量差異的原因——非人類中心主義為核心理念的人工智能倫理準(zhǔn)則都集中在了自主度等級為10級的區(qū)域,5~10級之間具有很多空白,這些空白區(qū)域亟待填充。然而,其并沒有給出衡量“自主度”的方法。在人工智能領(lǐng)域,“道德圖靈測試”(Moral Turing Test,簡稱MTT)一般被公認(rèn)是可用于判斷人工智能“是/否”擁有道德,基本做法是將AI與人類混在一起回答問題,如果提問者通過一組道德問題在一定概率上(例如70%)不能區(qū)分出到底是AI還是人類在回答問題,那么AI則通過MTT,可認(rèn)為AI已具有道德能力[2]。然而作為一般性的通用方法,“道德圖靈測試”并沒有給出具體領(lǐng)域可供測試的問題集,目前也沒有公認(rèn)的問題集。杜嚴(yán)勇[3]在探討助老機器人的發(fā)展前景時指出“在制定行業(yè)標(biāo)準(zhǔn)時,充分考慮不同類別的老人的不同功能需要與個性偏好,比如針對智障老人、高齡老人、失能老人等制定不同的標(biāo)準(zhǔn),堅持評價標(biāo)準(zhǔn)的原則性與靈活性”“把納斯鮑姆的10項能力作為對助老機器人的評價標(biāo)準(zhǔn)”[4],提出評價標(biāo)準(zhǔn)應(yīng)在應(yīng)用層面加以細化。從上述人工智能倫理方面的研究可以看出,目前人工倫理研究存在的爭議主要集中在2個方面:(1)人類中心主義是否適當(dāng);(2)絕大多數(shù)倫理準(zhǔn)則顆粒度太粗,無法細化和實施,本文針對這2個問題進行重點探討。
辭海中關(guān)于“倫理”的解釋是“人們相互關(guān)系的行為準(zhǔn)則,或指具有一定行為準(zhǔn)則的人際關(guān)系?!睆纳鲜鲎⒔饪梢钥闯?,現(xiàn)代社會關(guān)于倫理對象的界定主要是“人”與“人”之間的相互關(guān)系。但是,如果時間回溯幾千年,大家可以發(fā)現(xiàn)倫理的對象并非一直如此界定;如果放眼未來,可能亦并非如此(見圖1)。
圖1 倫理主體的演化
在奴隸社會,奴隸的地位基本與動物相似,根本沒有社會地位,基本不被納入倫理規(guī)范的范圍,完全廢除奴隸制、倡導(dǎo)人人平等也只是最近幾百年發(fā)生的事情。之后,隨著經(jīng)濟、社會的發(fā)展,動物的福利越來越為更多人關(guān)注。印度的甘地說,從一個國家對待動物的態(tài)度,可以判斷這個國家及其道德是否偉大與崇高。美國湯姆·雷根(Tom Regan)認(rèn)為,動物跟我們擁有一樣的系統(tǒng)和起源,所有的生命主體在道德上都是一樣的,都是平等的。因此不少人主張倫理規(guī)范的范圍應(yīng)該進一步擴大,人與動物的關(guān)系應(yīng)逐步被納入倫理道德規(guī)范的范疇。在此邏輯基礎(chǔ)上,我們可以做進一步的推演:因為植物也是生物進化的一個分支,隨著時間的推移,必將會有更多的人認(rèn)為我們應(yīng)該善待植物,把植物也納入倫理規(guī)范的范疇。前述關(guān)于倫理對象的拓展,總體而言,還是基于碳基生物的。近年來,隨著計算機、通信、人工智能等技術(shù)的快速發(fā)展,硅基事物也不斷走入我們的生活,并且開始逐步挑戰(zhàn)過去用于界定倫理的界限(智力水平、力量等),(1)隨著科技的發(fā)展,人們發(fā)現(xiàn)人類自身其實是由雙螺旋DNA編譯而成的,而計算機是由0/1代碼編譯,從某種意義上來講,人與計算機并無根本的區(qū)別;(2)聽覺、視覺甚至是腦輔助等硅基設(shè)備與人逐步融為一體,半人半機器的“人”在享有倫理主體地位的同時,事實上也被硅基設(shè)備分享、蠶食倫理地位;(3)人工智能能力發(fā)展突飛猛進,從智能的層面不斷趕超人類,使得以往人類引以為傲的智能、能力等獨特優(yōu)勢不復(fù)存在,倫理主體的來源合理性受到挑戰(zhàn);(4)在現(xiàn)實社會中,沙特已經(jīng)授予了人工智能“索菲婭(Sophia)”公民身份,日本賦予了AI“澀谷未來(Shibuya Mirai)”居住權(quán),人工智能獲得倫理主體地位已經(jīng)在現(xiàn)實層面上取得突破。上述只列出了比較常見的一些理由,我們可以相信,隨著人工智能技術(shù)不斷滲透到經(jīng)濟、社會、生活各個方面,人工智能倫理地位必將不斷得到加強。未來,隨著科技的發(fā)展,物質(zhì)、自然也將不斷地被納入倫理規(guī)范的范疇,實際上,在我國歷史上,佛家、道家對于天人合一等理念已多有論述。
從上述分析我們可以看出,雖然目前只有較少部分的地區(qū)或組織主張非人類中心主義,但是隨著未來人工智能技術(shù)的不斷進步,各種形式的人工智能產(chǎn)品和技術(shù)逐步融入到我們的生活,非人類中心主義觀念將不斷被提出,并且關(guān)于人工智能倫理主體地位的探討必然伴隨著人工智能責(zé)任的分配和承擔(dān)。當(dāng)前,非人類中心主義現(xiàn)階段還不是主流,主要是因為人工智能技術(shù)發(fā)展還不夠充分,影響范圍還不夠大。我們需要做的是一方面加快人工智能技術(shù)的發(fā)展,另一方面秉承開放包容的態(tài)度,構(gòu)建統(tǒng)一的框架,統(tǒng)籌人工智能現(xiàn)在與未來的倫理發(fā)展。
借鑒GB/T 40429-2021《汽車駕駛自動化分級》中關(guān)于自動駕駛0~5級劃分的總體思路,本文認(rèn)為,對于人工智能倫理標(biāo)準(zhǔn)建設(shè),也應(yīng)在分級分類的基礎(chǔ)上建立統(tǒng)一的框架和基準(zhǔn),明確行業(yè)和應(yīng)用場景,確定人工智能倫理建設(shè)所處的具體階段、應(yīng)賦予的人工智能倫理地位、人工智能具體表現(xiàn)及應(yīng)承擔(dān)的責(zé)任等頂層內(nèi)容。以醫(yī)療行業(yè)為例,可將人工智能倫理建設(shè)階段分為:
(1)0級。應(yīng)急輔助,如實施心跳自動監(jiān)測,聯(lián)網(wǎng)發(fā)送報警等;人工智能不承擔(dān)任何責(zé)任。
(2)1級。檢測輔助,輔助醫(yī)生開展影像檢查和分析,提供檢測分析意見;人工智能不承擔(dān)責(zé)任。
(3)2級。組合輔助,多場景、多功能的集成,提供面向病患的數(shù)據(jù)池和綜合診療方案;人工智能承擔(dān)極少部分責(zé)任。
(4)3級。有條件自動診療,在特定環(huán)境下,由人工智能系統(tǒng)主導(dǎo)診療,人類認(rèn)為必要時,可介入。人工智能承擔(dān)部分責(zé)任。
(5)4級。高級自動診療,一般環(huán)境下,主要由人工智能系統(tǒng)主導(dǎo)診療,人工智能認(rèn)為必要時,申請人類介入。人工智能承擔(dān)大部分責(zé)任。
(6)5級。完全自動診療,全程人工智能診療。人工智能承擔(dān)全部責(zé)任。
一般認(rèn)為當(dāng)前國內(nèi)外醫(yī)療行業(yè)的人工智能發(fā)展水平,主要還處于從0級向1級的過渡階段,人工智能目前能夠做的主要是輔助醫(yī)生進行醫(yī)療影像資料的解讀、基于大數(shù)據(jù)進行病因的解析、提供部分診療建議等。在厘清當(dāng)前人工智能技術(shù)水平、所處階段的基礎(chǔ)上,可以認(rèn)為,今后一段時間醫(yī)療領(lǐng)域人工智能倫理建設(shè)應(yīng)以1級為主,適當(dāng)做2級、3級層面的前瞻性標(biāo)準(zhǔn)布局和研究,引領(lǐng)行業(yè)的標(biāo)準(zhǔn)化發(fā)展。
通過綜合分析國內(nèi)外人工智能倫理建設(shè)的指導(dǎo)思想、基本原則等相關(guān)內(nèi)容,本文認(rèn)為在明確本行業(yè)當(dāng)前人工智能發(fā)展的階段后,重點需考慮細化以下幾個中觀層面的內(nèi)容,并將其落實到產(chǎn)品、過程和服務(wù)中:
(1)人工智能倫理立法。關(guān)注法律的時代性,構(gòu)建人工智能時代下新法律體系,為人工智能倫理標(biāo)準(zhǔn)體系建設(shè)提供上位法依據(jù)。
(2)人工智能體的道德地位。根據(jù)人工智能發(fā)展階段的不同,確定人工智能是否享有部分或同等倫理主體的權(quán)利和義務(wù)等。
(3)安全性。安全性包括數(shù)據(jù)安全、算法安全等。
(4)公平性。人工智能算法是否存在歧視性和偏見。
(5)透明性。透明性即人工智能技術(shù)方法是否可解析、可追溯、可控制。
(6)倫理標(biāo)準(zhǔn)。構(gòu)建可信賴人工智能架構(gòu)、測試和驗證方法以及服務(wù)質(zhì)量指標(biāo)等。
測試和評價方法是落實人工智能倫理建設(shè)最基礎(chǔ)的一環(huán),本文通過分析圖靈測試方法及汽車行業(yè)關(guān)于智能性的測試和設(shè)計方法[5]的總體思路提出,具體行業(yè)人工智能倫理水平測試應(yīng)與責(zé)任地位相匹配,并且從低到高、從簡單到復(fù)雜,依次測試人工智能系統(tǒng)的功能性、智能性、價值判斷。
(1)功能性測試。功能性測試往往對應(yīng)于0~2級的初級階段。在這個階段,重點測試人工智能系統(tǒng)在特定場景、特定任務(wù)中是否能夠?qū)崿F(xiàn)特定的功能。例如,以自動駕駛為例,以場景為基礎(chǔ),配置不同的任務(wù)目標(biāo),考察人工智能系統(tǒng)在單項任務(wù)、綜合任務(wù)中的表現(xiàn),由此判斷人工智能的基本水平,這個階段基本上人工智能仍然以自動化、模仿人類行為為主。
(2)智能性測試。智能性測試往往對應(yīng)于2~4級的發(fā)展階段。在這個階段,重點測試人工智能系統(tǒng)在開放性場景中的類比能力、推理能力、抽象能力和情感能力等??梢詤⒖既祟悳y試智商、情商的方式,對系統(tǒng)進行開放場景測試,這個階段的人工智能具有一定的道德主體地位,需要承擔(dān)相應(yīng)的責(zé)任。
(3)價值判斷。價值判斷往往對應(yīng)于4~5級的高級階段。在這個階段,人工智能具有高度的自主性,可以類比自然人、法人,具有較高、甚至是完全的社會倫理地位。這個階段,重點測試系統(tǒng)的道德認(rèn)識、道德情感、道德意志、道德信念及價值觀念,實現(xiàn)實然性價值關(guān)系與應(yīng)然性價值關(guān)系的統(tǒng)一[6]。
除了上述確定發(fā)展階段、明確重點內(nèi)容、細化測試和評價方法等方面外,鑒于倫理標(biāo)準(zhǔn)建設(shè)的復(fù)雜性和廣泛性,下述內(nèi)容也值得關(guān)注:
(1)測試平臺建設(shè)。當(dāng)前,人工智能測試手段和方法亟待突破。上述0~4級人工智能的功能性測試、智能性測試效果的好壞很大程度上依賴于包含單項、綜合任務(wù)測試集的優(yōu)劣程度,這就需要測評平臺具有豐富多樣的場景、數(shù)據(jù);同時,為了提高測試效率,虛擬的測試平臺也是未來重要的發(fā)展方向。
(2)數(shù)據(jù)共享。數(shù)據(jù)是行業(yè)發(fā)展的基礎(chǔ),多場景、多國別的數(shù)據(jù)對于人工智能的發(fā)展至關(guān)重要。行業(yè)主管部門和企事業(yè)單位應(yīng)加大數(shù)據(jù)的融通工作,加強制度規(guī)范,建立數(shù)據(jù)有序開放交換平臺,鼓勵企業(yè)等單位開放自有數(shù)據(jù)、提供數(shù)據(jù)服務(wù),引導(dǎo)形成安全、合規(guī)、高效的數(shù)據(jù)共享開放體系。
(3)教育與審查。人工智能倫理建設(shè)除了從人工智能方面著手外,人類社會的教育與審查也必不可少。人工智能倫理方面的教育和審查包括面向企業(yè)家、管理者、科學(xué)家、設(shè)計師、工程師等群體制定倫理規(guī)則,構(gòu)建產(chǎn)品審查程序,建立倫理審查委員會等。
本文主要探討了當(dāng)前人工智能倫理標(biāo)準(zhǔn)化建設(shè)中存在的人工智能倫理主體地位不清及倫理原則顆粒度太粗無法落實的問題,分析了倫理主體對象的演化過程,提出了基于分級分類方法的人工智能倫理建設(shè)階段定位和測試評價方法,可為后續(xù)一段時期規(guī)劃倫理標(biāo)準(zhǔn)建設(shè)重點方向和任務(wù)提供參考。