国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

建設以阿西莫夫機器人學法則為基礎的現(xiàn)代人工智能倫理
——以《機器人學與人工智能示范公約》的解讀為基礎

2020-12-09 20:06張建文
山東社會科學 2020年7期
關鍵詞:阿西莫夫公約倫理

張建文

(西南政法大學 人工智能法律研究院,重慶 400031)

新興技術,特別是可能產(chǎn)生顛覆性效果的技術研發(fā)必須有相應的且被有效遵守和監(jiān)督的科技倫理為基礎。其中,智能機器人和人工智能技術就是極為迫切地需要建設詳細的倫理規(guī)則的技術領域。圖靈測試,作為最重要的智能機標準,幾乎也是關于智能存在與否的唯一可操作的標準,(1)[英]博登:《人工智能哲學》,劉西瑞等譯,上海譯文出版社2001年版,譯者序第2頁。本身就蘊含著這樣的矛盾:“只有我們不知道機器在想什么、怎么想時,才認為它有智能?!?2)劉慈欣:《序二 AI時代的曙光》,載李彥宏等:《智能革命:迎接人工智能時代的社會、經(jīng)濟與文化變革》,中信出版社2017年版,第19頁。也就是說,人工智能的本質(zhì)中就隱含著它們最終失控的可能性。筆者曾經(jīng)提出過,阿西莫夫的機器人學法則,并不是法律原則,也不是法律規(guī)范,而應當屬于關于調(diào)整機器人與人類關系的倫理原則。(3)張建文:《阿西莫夫的教誨:機器人學三法則的貢獻與局限》,《人工智能法學研究》2018年第1期。既然作為倫理原則,那就是說可以作為機器人學倫理規(guī)則建設的倫理指針,以機器人學法則為基礎提出機器人學和人工智能發(fā)展的倫理規(guī)則。2017年11月,俄羅斯自治科研組織機器人與人工智能調(diào)整問題研究中心的負責人Андрей Незнамов和該中心學術顧問Виктор Наумов起草了《機器人學與人工智能示范公約》,特別是提出了《創(chuàng)建和使用機器人與人工智能規(guī)則(1.0版)》。這個公約提出的相關機器人學與人工智能的倫理規(guī)范,提供了一個機會去觀察以阿西莫夫機器人學法則為基礎的機器人學與人工智能發(fā)展的倫理規(guī)則何以可能與如何構建的問題。誠然,目前關于機器人學與人工智能發(fā)展的倫理規(guī)則并不是只有俄羅斯學者提出的示范公約,而是有多個版本,如2017年初美國的《阿西洛馬人工智能原則》、2018年1月中國有關單位發(fā)布的《人工智能標準化白皮書(2018版)》、2018年4月10日在布魯塞爾簽署的《人工智能領域合作宣言》、2018年12月18日歐盟委員會人工智能高級專家小組發(fā)布的AI 開發(fā)和使用的《可信賴 AI 的道德準則草案》等。選擇俄羅斯學者提出的《機器人學與人工智能示范公約》作以解讀并不純粹出于筆者能夠深度閱讀俄語文本的個人偏好,而是基于該文本所具有的特點,那就是非常全面和詳細,涉及到機器人學和人工智能的一般概念、安全規(guī)則、創(chuàng)建和使用機器人的規(guī)則、人工智能的研發(fā)規(guī)則、軍事機器人的使用限制規(guī)則以及該公約所提出的機器人學與人工智能規(guī)則的發(fā)展機制等。當然,在解讀的過程中,筆者也會使用到其他版本的人工智能倫理規(guī)則作為參考。

一、以阿西莫夫機器人學法則為基礎的現(xiàn)代人工智能倫理何以可能:人工智能發(fā)展與人類命運共同體的安全焦慮

根據(jù)該公約作者們的觀點,之所以起草該公約,是考慮到以下因素(4)參看《Модельная конвенция о робототехнике и искусственном интеллекте》前言部分,http://robopravo.ru/matierialy_dlia_skachivaniia#ul-id-4-35.:在現(xiàn)階段人類面臨著確定最近幾十年的發(fā)展道路的全球性目標;思考科技進步的角色和確定其所提出的可能性,以及評估科技進步對世界秩序、國家、經(jīng)濟、社會和人類個體的影響的風險與后果,成為現(xiàn)代性的優(yōu)先任務之一;在科技進步的框架內(nèi)最近幾十年來變得日漸廣泛應用和積極發(fā)展各種用途的包括機器人在內(nèi)的物理網(wǎng)絡系統(tǒng);人類整體寄予發(fā)展機器人學與人工智能太多的期望,它們客觀上能夠解決諸多積累的問題并推動全球社會的發(fā)展;在開放前景的條件下決不能忽視由于使用新的機器人學與人工智能技術而可能產(chǎn)生的潛在危險和威脅;決不能排除可能會產(chǎn)生對現(xiàn)存世界秩序或者整個人類種族產(chǎn)生災難性后果的大規(guī)模應用機器人與人工智能的場景;盡管機器人和物理網(wǎng)絡系統(tǒng)的數(shù)量在增長,整體而言全球社會并未研究出關于使用它們的互動規(guī)則的綜合觀念;到目前為止尚不存在關于使用高度危險的機器人的協(xié)議或者規(guī)則,這不能不引起不安,它們由于自己的構造和用途能夠給相當多數(shù)的人們造成傷害;相當部分的人們關于人類與智能機器人的關系的觀念主要是通過大眾文化形成的,而且常常局限于艾澤科·阿西莫夫的機器人學法則,這可能會導致誤解,認為上述法則將會在研發(fā)所有的物理網(wǎng)絡系統(tǒng)時被廣泛考慮;盡管世界上有幾個國家在近年來開始發(fā)展人工智能立法,但是國際法和大部分民族法律體系并沒有提出專門的調(diào)整與使用機器人有關的社會關系的模式和機制;在當前所形成的條件下就產(chǎn)生了聯(lián)合所有利益相關的國家、創(chuàng)新行業(yè)代表、國際科學團體和專家制定創(chuàng)建、發(fā)展、推廣、使用和傳播物理網(wǎng)絡系統(tǒng)領域中的一般立場、法律規(guī)范和倫理規(guī)范,致力于理解必須全力創(chuàng)建作為開放發(fā)展文本的本公約,邀請所有利益相關方參與討論和完善該公約。

機器人學與人工智能的倫理規(guī)則之所以必要,端在于新興科技發(fā)展與進步對人類整體的未來影響的不確定性,這種不確定性引發(fā)的焦慮感,迫使人們不得不考慮對科學家的理論與技術創(chuàng)新活動施加必要的限制,以保障科學界從科技發(fā)展中所釋放的力量不會毫無方向性,以至于毀滅了創(chuàng)新者自己和創(chuàng)新者所在的或大或小的人類社會,乃至整個人類社會。

機器人學與人工智能的快速發(fā)展引起了人類整體的深深的集體焦慮和迫切的安全擔憂,為了給機器人學和人工智能的發(fā)展確定安全、可靠、可控的方向,制訂人工智能倫理的倡議者們呼吁全世界的專家學者們共同參加關于這一問題的討論,該問題的解決至少在目前是懸而未決且待盡快解決的。根據(jù)該公約前言部分的表述,作者們提出該公約的意圖在于:“確定由于積極發(fā)展物理網(wǎng)絡系統(tǒng)而可能會在社會和法律體系中產(chǎn)生的基本問題,總結在不同時期由不同專家們提出的機器人學基本規(guī)則,標識解決現(xiàn)存的和(或)可期待的問題的可能方向;倡導在不同國家的專家之間為制訂統(tǒng)一的關于創(chuàng)建和使用機器人與人工智能的規(guī)則的、倫理的和法律的觀念而進行討論。”(5)參看《Модельная конвенция о робототехнике и искусственном интеллекте》前言部分。

針對機器人和人工智能的法律調(diào)整問題,А.Незнамов不無感慨地用所謂的“紅旗法案”(6)An Act for Further Regulating the Use of Locomotives on Turnpike and other Roads for agricultural and other purposes (5th July 1865), URL: https://archive.org/stream/ statutesunitedk30britgoog#page/n246/mode/2up (дата обращения: 21.01.2018).暗喻:“機器人化的生產(chǎn)、自動化交通、機器人-醫(yī)生、可穿戴植入設備等等已經(jīng)出現(xiàn),但許多國家且不說完全缺乏立法基礎,而且對機器人化也持懷疑態(tài)度。正如以前對汽車適用通常的馬車的法律那樣,現(xiàn)在也正對機器人適用通常的機械的法律。久遠過往的教訓在物聯(lián)網(wǎng)時代也完全是現(xiàn)實的”(7)А.Незнамов.Красный флаг для робота.Стандарт.2018.№2(181),С.30.。他和該公約的另一位作者提出了關于適用于不同階段的機器人創(chuàng)建與使用調(diào)整原則,其中綜合性的原則可以適用于所有種類的機器人,包括安全與機器人安全優(yōu)先原則、機器人危險性(或者安全性)感知原則、設計安全原則、通過設計的隱私原則、來自人類一方的對機器人實施監(jiān)督的原則、禁止機器人主動造成傷害原則;專門性原則主要是用于個別類型機器人的,諸如對高度危險機器人強制適用額外的規(guī)則,如黑匣子、紅色按鈕、行為撤銷、切入災難模式等,再如遞推的自我完善的監(jiān)督原則只能適用于所謂的強人工智能。

二、現(xiàn)代人工智能倫理如何構建(一):適用的主體、對象及其范圍

根據(jù)該公約的文本來看,作者們將該公約分為前言、介紹性條款、機器人安全規(guī)則、創(chuàng)建機器人的一般規(guī)則、使用機器人的一般規(guī)則、研發(fā)人工智能的規(guī)則、使用軍事機器人的限制、機器人學與人工智能規(guī)則的發(fā)展,共計8個部分,42個條款。

作者們首先規(guī)定了機器人學的主體和客體,將“機器人學領域的研究者、研發(fā)者、資助機器人學研究與研發(fā)的人,以及機器人的生產(chǎn)者、所有者、占有者、操作者,國家權力機關和任何調(diào)控機關,還有使用者和其他與機器人包括具有人工智能的物理網(wǎng)絡系統(tǒng)進行互動的人”均稱為“機器人與具有人工智能的物理網(wǎng)絡系統(tǒng)的創(chuàng)建、推廣或者使用進程的參加者”,也就是機器人學的主體。(8)相對而言,在我國,對于人工智能倫理規(guī)范的適用主體范圍問題,主流的觀點將主體范圍集中于系統(tǒng)設計者和開發(fā)者(參看中國信息通信研究院安全研究所:《人工智能安全白皮書(2018年)》,第30頁),而沒有考慮從事人工智能基礎工作的研究者以及資助研究和研發(fā)的人。

機器人學的客體包括“在最寬泛理解上的所有種類的機器人,無論其用途、危險程度、可移動性或者自主性,以及任何形式的具有人工智能的物理網(wǎng)絡系統(tǒng)”。作者們特別指出,“在此情況下,除非可以從該公約文本中直接得出不同規(guī)定,為示范公約的目的,‘機器人’的術語在公約文本中將被在最廣泛的意義上予以解釋,也包括機器人化的裝置和物理網(wǎng)絡系統(tǒng),具有人工智能的物理網(wǎng)絡系統(tǒng)也在其中”。

可以說,在該公約的意義上,機器人的術語涵括了可能不具有人形的機器人化的裝置以及具有或者不具有人工智能的物理網(wǎng)絡系統(tǒng)。針對前述術語的概念,公約的作者們提出:首先,“機器人”和相近的諸如“機器人化的裝置”或者“智能機器人”概念的內(nèi)容,將根據(jù)這些概念在具體國家和(或)針對具體的機器人類型中最廣為接受的意義予以確定;其次,實在無法確定時,按照國際標準確定,“如果這些概念的意義無法確定,則可以使用現(xiàn)有的國際標準,特別是ISO8373:2012《機器人和機器人裝置. 術語與定義》”。也就是說,國際標準組織制定的相關標準僅具有補充性,是第二意義上的標準。

按照公約作者們的意見,他們所設計的創(chuàng)建、推廣和使用機器人的規(guī)則具有通用性,可以適用于所有的機器人學主體。但是,規(guī)則的通用性并不意味著要排斥其他可適用的規(guī)范,相反公約要求尊重其他可適用的法律規(guī)范、倫理規(guī)范和宗教規(guī)范,并賦予所適用的立法規(guī)范以更為優(yōu)先的地位,即“機器人創(chuàng)建、應用和使用進程的參加者有義務了解并遵守機器人被使用地或者被計劃使用地有效立法(“所適用的立法”)的要求,亦需考慮到包括倫理規(guī)范和宗教規(guī)范的其他可適用的規(guī)則”。

三、現(xiàn)代人工智能倫理如何構建(二):機器人安全規(guī)則

機器人安全規(guī)則盡管只是該公約的一部分,卻體現(xiàn)了阿西莫夫機器人不得傷害人類整體的零號法則以及機器人不得傷害人類個體的一號法則的基本價值理念。該公約相較于阿西莫夫所提出的機器人與人類關系的較為抽象和簡略的倫理原則,創(chuàng)造性發(fā)展出了一系列較為詳細的實現(xiàn)人類安全優(yōu)先原則的機器人安全規(guī)則。

(一)機器人安全原則的創(chuàng)新與發(fā)展

相較于阿西莫夫以零號法則和一號法則為基本內(nèi)容的人類安全原則,該公約的作者們提出了更為廣泛的人類安全視野,其所為的“機器人安全原則”包含了兩個層面的含義:一是最大安全保障原則,即“機器人的創(chuàng)建、應用和使用應當在保障個人、社會和國家的最大安全的條件下進行”;二是不得造成傷害原則,這里所謂的不得造成傷害的對象除了阿西莫夫所關注的人類個體和人類整體外,還包括了更為廣泛的對象,即“人類個體、人類整體、生物圈和整個生存環(huán)境”,體現(xiàn)了更為寬廣的人類與自然共生關系觀和地球作為人類生存基礎觀念下的人類安全原則,而非可能被做過于狹窄理解的阿西莫夫式的狹義人類安全觀。

(二)人類個體的基本權利保護

對人類的基本權利的保護是機器人安全原則中極其重要的一面,公約的作者們提出了較為一般性的要求,而且其所適用的范圍相對較小,即“對機器人所收集和處理的信息的獲取與使用不得侵犯人類私生活的不可侵犯性,也(或)不得違反依照所適用的立法對其他種類的保密信息的保護制度”,似乎僅局限于隱私權與個人信息的保護,而對于更為廣義和宏觀的關于人類尊嚴與價值的保障則付之闕如。也許作者們也認為,人工智能對隱私和個人信息保護的沖擊最大吧(9)韓丹東等:《人工智能太聰明讓個人信息如同裸奔》,《法制日報》2017年6月1日第5版;韓丹東等:《人工智能法律風險怎么消弭》,《法制日報》2017年6月1日第5版。。實際上,尊重、保護隱私權和數(shù)據(jù)保護問題,還直接影響到更廣泛的人權,最值得注意的是歧視、言論自由和信息自由。因此,在筆者看來,隱私權與個人信息的保護盡管也是“不可或缺的基本權利”(10)林鴻文:《個人資料保護法(2018最新版)》,書泉出版社2018年版,第48頁。,但是并未完全涵蓋和取代對人類尊嚴和自主的價值。

(三)不得造成傷害原則:禁止或限制機器人造成的損害規(guī)則

對于機器人所可能給人類造成傷害的情形,公約的作者們明確要求禁止機器人主動造成損害,即“除非本示范公約有不同規(guī)定,不允許制造能夠自己主動有目的地給人類個體造成傷害的機器人”。這里沒有明確表明這里所謂的傷害是何種傷害,從后文關于對人類財產(chǎn)損害的態(tài)度可以辨明,公約的作者們在這里談到的傷害是指對人類個體生命和健康的損害,因為他們提到了“對人類個體的財產(chǎn)的損害的條件、程序和后果由所適用的立法規(guī)定”。

對于智能機器人所可能造成的損害,公約的作者們似乎更傾向于限制而不是禁止,而且似乎在一定條件下,如為了預防更大的損害,允許智能機器人對人類或者人類的整體造成一定的損害,從第8條的文本標題“限制智能機器人造成損害”和文本表述上看,該條文的文本可能是最糟糕的,相對于阿西莫夫在零號法則和一號法則與其他法則之間清晰的重要性和絕對性的程度上的劃分,該文本的表述是一個嚴重的倒退,盡管在形式上糅合了阿西莫夫的零號法則和一號法則,“智能機器人不得給人類個體和人類整體造成損害,也不允許以其不作為而造成損害”,但是,該條相對于阿西莫夫作為不附帶任何例外條件的絕對性保護對象的理念和意圖,公約的作者們增加了例外條款,即“如果造成損害是被迫的且有理由能夠預防更大的損害”時,允許造成損害。在這里,由于公約的作者們將以保護人類整體為己任的零號法則和保護人類個體為己任的一號法則雜糅在一起,導致存在一個致命的缺陷或者含混之處,那就是這里允許造成的傷害到底是僅僅針對一個人、幾個人或者一個群體,還是允許可以對整個人類整體造成一定的損害以預防更大的損害?從阿西莫夫的機器人學法則的意圖和在其所提供的案例來看,似乎應當是在極端的情況下,即在被迫的且有理由能夠阻止更大的傷害時允許對一個、幾個人或者一個群體造成較小的損害,而不是允許對人類整體造成損害。阿西莫夫?qū)⑷祟愓w的保護放在更加突出的地位,從零號法則作為最后產(chǎn)生的機器人學法則,以及其將零號法則單列而不是修改一號法則以涵括人類整體的做法,可以體會到阿西莫夫?qū)C器人學法則的整體發(fā)展的新思考。然而,即使做這種更貼近阿西莫夫提出機器人學法則意圖的理解,也并不能阻止該公約的作者們在更關鍵的地方留下(盡管可能是毫無惡意地甚至是懷著善意地留下)有可能摧毀整個不得傷害原則的例外,那就是關于損害的概念的理解:“在此情況下,損害的概念根據(jù)智能機器人所掌握的信息確定。”對損害的這種確定方式,可能會為智能機器人造成更多、更大、更嚴重的傷害留下空間。估計作者們的意圖是希望為未來更加接近人類的智能機器人的出現(xiàn)預留空間,其假定的前提是智能機器人會像人類在具體的情況下那樣做出不一定比人類更好但也至少不比人類差的適當?shù)呐袛?。這可能是由公約的作者們對人工智能發(fā)展前景的極度樂觀預測所致,且不說至少在未來數(shù)十年內(nèi)將損害的定義權與判斷權委諸智能機器人的決定是不是個明顯低劣的決定,但至少說,其中蘊含的將人類在與機器人關系中的中心地位和人類尊嚴價值的尊重降低至智能機器人水平,或者反過來說,將智能機器人的地位和價值提升至與人類的地位和價值相同甚至略高,這并不是一個符合人類尊嚴的做法。因為判斷對人類個體或者整體的損害是否存在、孰大孰小、是否值得用作防止所謂更大損害的手段等問題,攸關人類自我的判斷和認識。

(四)最大安全保障原則:同等風險、人類中心、機器人危險性感知、黑匣子和紅色按鈕

同等風險規(guī)則道出了最大安全保障原則的底線,那就是,“在所有的使用機器人的過程中,人類個體不得遭受較之在沒有機器人參與的相同過程中他已經(jīng)遭遇的風險更大的對其生命和健康造成損害的風險”。

公約的作者們盡管也提出了似乎是最體現(xiàn)人類中心地位的條款,但是這種控制看起來更多的是針對外在行動的而非是內(nèi)在判斷的,是向人類個體提供信息式的而不是事先嵌入其內(nèi)在設計的,是事后式的和應急式的。

人類對機器人的可控性條款,要求“無論機器人的具體類型的目的特性,機器人應當在最大可能和合理程度上處在人類直接或者間接的監(jiān)督之下”。這種控制主要是通過任何人能夠公開無償和輕易地獲取相關信息,或者特定的主體依照特定程序獲取相關信息的方式來實現(xiàn)的,如“所有的關于任何機器人給人類個體、社會和環(huán)境造成危險的信息,均應當公開地、無償?shù)厍铱奢p易地為任何機器人學主體所獲取”;再如黑匣子條款規(guī)定:“機器人應當時時固定和保存關于自己的運作條件和所有其所實施的行為的信息”,但是該類信息獲取權并不是賦予所有人的,“對該信息的獲取應當提供給對機器人的行為和正常運作負責的人,以及按照所適用立法規(guī)定的程序提供給主管權力機關”;紅色按鈕條款則意味著,那些“在物理上與人們進行互動的且不處在人類的直接管理之下的機器人應當具備按照要求瞬間斷開或緊急斷開的功能”。

值得注意的是,從阿西莫夫機器人學法則的角度看,整個公約文本并沒有明確規(guī)定對機器人的自我保護,即對應于三號法則的內(nèi)容,但是存在一個看起來類似但實際上并無相同之處的條款,即關于保護機器人免受未經(jīng)許可的接近的條款——“機器人應當配備免遭未經(jīng)許可而對其系統(tǒng)和裝置的物理性和電子性接近的保護系統(tǒng)”。從該條的規(guī)定上看,是針對潛在的機器人研究者、研發(fā)者、生產(chǎn)者和推廣者提出的要求,而不是像三號法則是針對機器人自己提出的要求(也可以說是賦予的自我保護的權利);從該條的規(guī)范目的上看,這個條款的目的是通過防止未經(jīng)許可的對機器人的系統(tǒng)和裝置的接近,從而防止不法之徒將機器人作為傷害人類的手段而保護人類的安全。可以說,對機器人免受未經(jīng)許可的接近的保護僅是具有手段性的目的,其最終目的是保護人類,而三號法則的目的卻是允許機器人在不違反一號法則和二號法則的前提下保護自己。

(五)公約作者的創(chuàng)造:“高度危險機器人”的概念及其法律制度

“高度危險機器人”的概念和法律制度,則是公約作者們的創(chuàng)造,這個概念和制度只出現(xiàn)和存在于該作者們包括該公約在內(nèi)的作品中。按照兩位作者的意見,“在因機器人的設計特性和(或)其信息系統(tǒng)參數(shù)導致其行為由于人類不可能對之進行完全的控制而產(chǎn)生造成損害的高度蓋然性時,機器人被視為高度危險來源”(11)張建文:《格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評》,《華東政法大學學報》2018年第2期。。根據(jù)該公約第13條“高度危險機器人”的設計,“應當對由于自己的構造和用途潛在地能夠給人類個體造成包括致命性的傷害在內(nèi)的實質(zhì)性傷害的機器人的應用設立更高的保護其免于第三人未經(jīng)許可的接近的要求”。這里所謂的高度危險機器人,具體包括醫(yī)療機器人、植入設備、高度自動化交通工具、軍事機器人等?!皺C器人學的諸主體應當以該類機器人的危險性推定作為出發(fā)點,而主管權力機關應當規(guī)定相應的要求并監(jiān)督其在所屬司法管轄區(qū)內(nèi)的執(zhí)行?!贝送?,對于此類高度危險機器人還規(guī)定了人機管理的特別要求:“由于其構造和用途所決定的高度危險機器人潛在地對人類個體的消極作用,應當在其他人類個體的直接管理下進行?!?/p>

四、現(xiàn)代人工智能倫理如何構建(三):創(chuàng)建與使用機器人的一般規(guī)則

(一)創(chuàng)建機器人的一般規(guī)則:造福、責任、安全與遵守公約

對于創(chuàng)建機器人的一般規(guī)則,該公約的作者們提出了四個規(guī)則:創(chuàng)造公共福利、負責任地對待應用機器人后果的態(tài)度、安全優(yōu)先、遵守示范公約的可能性。

根據(jù)該公約第18條,所謂的創(chuàng)造公共福利,是指“機器人的研發(fā)者和生產(chǎn)者,以及其他參與機器人創(chuàng)建過程的人(‘機器人的創(chuàng)建者’)應當盡可能地努力使得他們所創(chuàng)建的機器人能夠給盡可能多的人們創(chuàng)造最大福利”。相較于阿西莫夫的機器人學法則,創(chuàng)建現(xiàn)代人工智能倫理的努力明確提出了造福公眾的目標,這一點在歐洲議會提出的關于機器人民法規(guī)范的動議中所附的《機器人技術研發(fā)者倫理守則》提出的造福原則中也得到了體現(xiàn)。

對機器人創(chuàng)建者以及資助機器人學領域的研究和研發(fā)的人提出了負責任地對待應用機器人后果的態(tài)度的要求,要求他們“應當了解,他們的活動不具有特別的技術性,負責地對待所可能產(chǎn)生的作為應用機器人的后果的那些社會與經(jīng)濟現(xiàn)象和情事,并極力預防與之相關的任何重大消極后果”。

作為一般原則的機器人安全原則在創(chuàng)建和使用機器人的領域中的具體體現(xiàn),公約的作者們明確提出了“安全優(yōu)先”規(guī)則,要求“在創(chuàng)建機器人時,保障人類安全的目的應當始終勝過所有其他目的和任務”。

對于機器人的創(chuàng)建者而言,“應當保障在設計上(考慮到本公約的可能的更正、修改和補充)遵守本公約指明的規(guī)則的可能性”。

(二)使用機器人的一般規(guī)則:建構人類中心的抑或平等的機器人與人類關系模式

使用機器人的一般規(guī)則,較之于研究和研發(fā)機器人更需要全面回應建構什么樣的人類與機器人關系模式問題,其中包含著在機器人與人類之間人類的基本權利、尊嚴和價值到底處在何種地位,是人類更優(yōu)先還是機器人更優(yōu)先,抑或二者可能構成平等的關系。后一種傾向還蘊含著機器人是否可能具有法律主體地位的問題,在機器人造成損害的情況下,責任的歸屬與分配問題也是機器人與人類關系模式的應有之義。根據(jù)有的學者的看法,服從法則——“機器人要服從人類”,就是“人當主子,機器為奴,為工具”,不傷害原則同樣是“主奴關系的推衍,視AI為聽使喚的奴仆”(12)馮象:《我是阿爾法:論法和人工智能》,中國政法大學出版社2018年版,第216-217頁。。

整體而言,公約的作者們在現(xiàn)階段對人類與機器人關系模式的構建充分貫徹了人類中心主義,也就是人類高于機器人的模式。但是,從作者們關于機器人法律地位的考慮看,作者們將機器人作為權利主體蘊含了不排除、不排斥而是允許將人類高于機器人的人類與機器人關系模式修改為機器人與人類有限平等的關系模式的傾向。

首先,該公約所提出的人類中心主義的人類與機器人關系模式,主要集中在對人類的基本權利和安全優(yōu)先的保護上(13)張建文:《阿西莫夫的教誨:機器人學三法則的貢獻與局限》,《人工智能法學研究》2018年第1期。。該公約要求,“在使用機器人的過程中,無論是否存在專門的法律調(diào)整,均應當遵守人類的基本權利和公認的道德與倫理規(guī)范”;“擁有預防和阻止機器人給其他人類造成未經(jīng)批準的(包括偶然的)損害之可能性的人,有義務為此采取所有可能的與對自己的生命或者健康的風險無關的措施”;“關于某一裝置或者客體為機器人的信息,應當使任何與之互動的人類個體或者其他機器人周知,但由于情勢所限或者由于其用途和適用具體形式的機器人的特別條件不需要的情形除外”;“機器人的運作原則上應當對其創(chuàng)建者和使用者而言為可預見的,符合其構造和用途,是安全的和可控的”;“機器人的運作應當以如下方式進行,即使得與其互動的機器人學諸主體能夠理解這些機器人的運作方式或者在進行互動時擁有取得足夠相關信息的可能性”;“如果不能從所適用的立法條款或者具體情勢中得出相反規(guī)定,履行機器人運作規(guī)則的責任,由機器人的創(chuàng)建者以及任何其他的能夠以自己的行為影響其履行的人承擔”。

其次,該公約蘊含了將人類中心主義的人類與機器人關系模式構建為人類與機器人有限平等的關系模式。

一是在人類作為使用者對待機器人的態(tài)度上,公約的作者們提出“尊重人類尊嚴”的要求,但是這個所謂的尊重人類尊嚴,并非是要求機器人尊重人類尊嚴,恰恰相反,卻是要求“人類不得以自己對待機器人的態(tài)度漠視人類的尊嚴”。這里蘊含的意圖不是突出和凸顯人類尊嚴的地位和價值,恰恰是要求人類作為使用者在對待機器人時不得過分殘酷或者嚴重違反人道規(guī)則。這種對人類使用者的倫理性限制,為可能的人類與機器人(特別是智能機器人)之間的有限平等關系模式建設鋪墊了倫理基礎。這有點類似于羅馬帝國時期皇帝對奴隸主任意對待奴隸的權力的限制,特別是公元2世紀時,無正當理由殺死奴隸被等同于殺害僑民。但是,筆者認為,將機器人與曾經(jīng)作為奴隸的自然人類比并不恰當,自然人即使作為奴隸存在,其本身的自然本性會使其他人類能夠在人性范圍和限度內(nèi)對其進行理解和判斷。也就是說,奴隸與主人這一對關系中所涉及的都是在最純粹的自然意義上相同的人類(種屬上的共性,就是“奴隸有生命——和罐子或者錘子不一樣,但更具體地說,是一種有生命的工具”(14)[美]列奧·施特勞斯:《古典政治哲學引論:亞里士多德〈政治學〉講疏(1965年)》,婁林譯,華東師范大學出版社2018年版,第50頁。)。在人類與機器人的關系上,機器人并不屬于與人同類的存在,盡管人類期望和決定要全面了解和絕對掌握機器人,但是并不意味著人類最終能夠全面了解和絕對掌握機器人。在沒有這種絕對性把握之前,無條件地將機器人與人類關系完全類比為奴隸與主人的關系,并試圖為機器人創(chuàng)造一個倫理性的主體地位,毫無疑問屬于愛心泛濫的體現(xiàn),羅馬帝國時期限制主人的權限也并非是為了“不漠視人類尊嚴”,而是羅馬人清楚地意識到,“處在一個大量存在努力的環(huán)境中,羅馬人經(jīng)受著時時的威脅”(15)Римское право:учеб.пособие для студентов вузов,обучающихся по специальности 030501《Юриспруденция》/А.А.Иванов-М.:ЮНИТИ-ДАНА:Закон и право,2016.C.130.,“有多少奴隸,就有多少敵人!”(16)Ранович А.Б.Первоисточники по истории раннего христианства.Античные критики христианства.3-е изд.М.,1990.С.97,104.這種觀點也不排除有將機器人作為動物看待的因素,要求人類在行使權利的時候不允許違背人道原則殘酷對待機器人(17)Гражданский кодекс Российской Федерации . Части первая , вторая . третья и четвертая . - Москва : Проспект , 2017. С.80.,“通過限制人的行為,來達到對動物權利的保護”(18)騰訊研究院等:《人工智能》,中國人民大學出版社2017 年版,第266 頁。。

二是在對機器人可能的法律地位上,公約的作者們預留了機器人作為權利主體的空間。盡管是有限的權利主體地位,但這種有限主體地位將會為機器人與人類使用者的平等地位建構初步的橋梁,并成為逐步擴展的基礎。根據(jù)作者們的意見,“在所適用的立法直接規(guī)定的情況下,機器人可以在民事流轉中作為獨立的人,包括作為其他機器人的所有權人”。盡管將該問題付諸各國國內(nèi)立法去解決,至少根據(jù)該作者們所提出的俄羅斯首部機器人法草案“格里申法案”的內(nèi)容和意圖來看,該公約作者們是要將機器人作為有限的權利主體,也就是權利能力被限定為特定范圍的主體,也有其他作者提出將其作為“準民事法律關系主體”(19)Е.Н.Ирискина,К.О.Бедяков.Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями робота как квазисубьекта гражданско-правовых отношений.Гуманитарная инаорматика.2016.Вып.10.С.63.。仍然不甚清晰的是,該權利能力的范圍目前希望限定在哪些領域,以及將來是否會擴大,有否可能在機器人智能水平達到或者接近人類的情況下賦予機器人與人類完全相同的權利能力范圍,等等。

五、現(xiàn)代人工智能倫理如何構建(四):人工智能研發(fā)規(guī)則

對于人工智能的發(fā)展和規(guī)制,А.Незнамов認為:“悖論在于,那種強人工智能還不存在。如果可能的,最好任何時候都不要創(chuàng)建它”,“一旦問世,它就會立即失控。而人們簡直就是不會有時間去創(chuàng)設游戲規(guī)則:現(xiàn)在就需要去寫下游戲規(guī)則”,“如果即使是存在0.1%的極端風險存在的可能性,法學家也有義務去著手工作。這就意味著,21世紀的法學領域期待著重大變革”(20)А.Незнамов.Искусственный вопрос.Стандарт.2018.№3(182),С.13.。所以,該文作者同時也是該公約的兩位作者之一,就把人工智能的研發(fā)規(guī)則作為該公約的重要組成部分,提出了四項規(guī)則:負責任的態(tài)度、人工智能危險性假定、知情互動和將公約條款適用于人工智能。

“負責任的態(tài)度”意味著,要求“人工智能和相近領域中的研發(fā)者、研究者以及研究資助者,有義務顧及社會情緒,而且無權忽視那種認為人工智能技術可能會對人類整體產(chǎn)生不可逆的后果并令人類自己承擔極端風險的意見”?!柏撠熑蔚膽B(tài)度”要求給純粹的瘋狂的以求真為導向的自然科學精神套上價值的籠套,明確要求不但是自然科學的研究者和研發(fā)者,就連資助這些研究和研發(fā)的人也要承擔顧及社會情緒的義務,明確他們沒有權利忽視那種特定的社會意見。正如施特勞斯所說:“某些意見雖然并非真理,但有益于政治生活”(21)[美]列奧·施特勞斯:《古典政治理性主義的重生——施特勞斯思想入門》,郭振華譯,華夏出版社2011年版,第197頁。,“技術和藝術從道德和政治中獲得解放將導致災難或人的非人化”(22)[美]朗佩特:《“什么是政治哲學”中的論證》,載 [美]列奧·施特勞斯:《什么是政治哲學》,李世祥等譯,華夏出版社2014年版,第307頁。。尤瓦爾·赫拉利說得更直白:“雖然科技帶來了許多美好的承諾,但我想特別強調(diào)的卻是威脅和危險。引領科技革命的企業(yè)和企業(yè)家,自然傾向于高聲謳歌科技創(chuàng)造的美好,但對于社會學家、哲學家和像我這樣的歷史學家,卻想盡快拉響警報,指出所有可能釀成大錯的地方”(23)[以]尤瓦爾·赫拉利:《今日簡史:人類命運大議題·序》,林俊宏譯,中信出版社2018年版,第8頁。。

正是基于對人工智能完全的絕對的安全性保障期待之不可能和人類理性有限不能顧及到所有可能的情形特別是意外的情形,“人工智能危險性假定”規(guī)則就極有必要,該規(guī)則同樣針對“人工智能與相近領域的研發(fā)者、研究者和研究資助者”,要求他們“應當以人工智能的危險性假定作為出發(fā)點”,“明白在沒有相反證明以前,所創(chuàng)造的或者正在創(chuàng)造的人工智能技術對人類而言是危險的”。從這種“人工智能危險性假定”出發(fā),“知情互動”規(guī)則就順理成章了,知情互動意味著要求“任何一項人類與人工智能的互動行為,未經(jīng)告知人類并獲得同意均不得進行”。

由于機器人與人工智能的緊密聯(lián)系,該公約的作者們提出“本公約中所述的機器人條款應當考慮其設計特性而適用于人工智能的物理網(wǎng)絡系統(tǒng)”。

六、現(xiàn)代人工智能倫理如何構建(五):軍事機器人的使用限制

阿西莫夫機器人學法則中的零號法則和一號法則構成了完整的不傷害原則。第一層意義上,機器人不得傷害人類是指機器人不得以自己的作為傷害人類的消極義務;第二層意義上,機器人不得以自己的不作為致使人類受到傷害又蘊含了機器人應當全力以自己的行為救助人類、使人類免遭傷害的積極義務。實際上,第二層面的不傷害原則并未在現(xiàn)代人工智能倫理中得到充分實現(xiàn)。

軍事機器人特別是將來智能化程度更高的機器人的使用是一個現(xiàn)實而又迫切需要解決的問題。該公約將軍事機器人的使用限制作為單獨的一個部分,提出了四個規(guī)則:一是人道主義戰(zhàn)爭規(guī)則的可適用性,明確要求“為軍事目的使用機器人不得違背世界上公認的人道主義戰(zhàn)爭規(guī)則”。二是為遵守人道主義戰(zhàn)爭規(guī)則的限制。這是關于軍事機器人的內(nèi)在設計的要求,“為軍事用途而創(chuàng)建的機器人,應當擁有自始就嵌入其中且不得修改的符合國際人道主義法規(guī)定的對進行戰(zhàn)爭的方法和手段的限制,無論機器人將會被用于哪個領土”。三是不得傷害和平居民。該條實際上包含了兩個層面的內(nèi)容:一方面是不得用于給和平居民造成傷害,即“被用于軍事目的的機器人不應當用于給和平居民造成傷害”;另一方面是對敵方的傷害的限制,要求“在軍事用途中使用機器人時必須以所有在此情況下盡可能的方法排除或者最小化機器人給敵方人手的生命和健康的傷害”。四是對使用機器人實施犯罪的責任,主要是對使用機器人實施軍事犯罪的責任,明確了責任的主體,即“使用機器人實施軍事犯罪的責任依照對控制這些機器人的人所實施的軍事犯罪所適用的規(guī)則確定”,而且“國家應當努力制定使用機器人實施軍事犯罪將構成加重情節(jié)的規(guī)范”。

七、現(xiàn)代人工智能倫理如何構建(六):機器人學與人工智能規(guī)則的發(fā)展

該公約的作者們將機器人學與人工智能規(guī)則的發(fā)展作為該公約的組成部分并且是最后的部分。第一,關于公約規(guī)則的適用,“在本示范公約的條款沒有強制性之前,機器人學主體有權指出自愿適用本公約的全部或者部分條款”。從表述來看,公約的作者們是期望該公約具有強制性約束力的,但在此之前只能作為機器人學主體們自愿選擇全部或者部分適用的文本。第二,示范公約的適用范圍。作者們將其開放給所有的司法管轄區(qū)自由適用并可作創(chuàng)建和使用機器人規(guī)則統(tǒng)一化的基礎使用,“本公約的規(guī)則可以在任何司法管轄區(qū)并由任何創(chuàng)建、應用和使用機器人進程的參加者團體作為創(chuàng)建和使用機器人規(guī)則統(tǒng)一化的基礎使用”。第三,推進制定公認的國際規(guī)則?!皺C器人學主體應當推動在制定公認的創(chuàng)建、應用和使用機器人的規(guī)則,以及協(xié)調(diào)可能在最大數(shù)量的司法管轄區(qū)適用的機器人學標準方面的國際合作”。第四,推動創(chuàng)建超國家機構。“為了有效地、協(xié)調(diào)地和完全地發(fā)展機器人學和人工智能,應當建立國家間的和非國家的機構,包括已經(jīng)存在的國際團體和組織下設立國家間的和非國家的機構”。第五,示范公約的發(fā)展?!氨竟s的條款應當經(jīng)討論、更正、修改和補充,以便它們在最大程度上體現(xiàn)當前人類社會中關于機器人和人工智能的觀點,并符合應當在機器人學和人工智能中發(fā)生效力的公認規(guī)則和規(guī)范。”

阿西莫夫機器人學法則在本質(zhì)上屬于機器人與人類關系的倫理原則,正是由于其作為原則顯得簡潔明了,但這種簡潔明了又成為其執(zhí)行中的不足之處,太過簡明反而對具體情形的指導性和可適用性不夠(24)張?zhí)锟保骸度嬗雍团φ瓶厝斯ぶ悄堋?,《光明日報?017年5月25日第2版。。

阿西莫夫機器人學法則應當成為現(xiàn)代人工智能倫理建構的基礎,從本文研究的《機器人學與人工智能示范公約》來看,阿西莫夫的機器人學法則的大部分內(nèi)容都在該公約中得到了體現(xiàn),但也并不是完全都得到了體現(xiàn)。以人類的中心地位(人類對機器人和人工智能的控制、人類基本權利和人類尊嚴的尊重和保障)和機器人與人工智能的安全性保障(其相對的是機器人和人工智能的危險性假定)為基點的該示范公約,以不同的表述涵蓋了大部分阿西莫夫機器人學法則,如將阿西莫夫的服從法則表述為來自人類一方對機器人的控制性、紅色按鈕等規(guī)則,將不傷害原則以機器人的安全性保障原則等形式予以接受和落實,并在具體的形式上創(chuàng)新和發(fā)展了機器人學法則中的不傷害原則與服從原則。也存在一些未能體現(xiàn)機器人學法則的地方:第一,未能體現(xiàn)阿西莫夫機器人學法則中的不傷害原則所蘊含的要求機器人以自己的積極作為救助人類個體或者人類整體的倫理義務;第二,未能體現(xiàn)阿西莫夫機器人學法則中的自我保護原則,即如何允許并以何種方式實現(xiàn)機器人在不違背第一法則和第二法則的前提下自我保護的問題有待進一步研究。

猜你喜歡
阿西莫夫公約倫理
《心之死》的趣味與倫理焦慮
圖書借閱公約
永不停歇的工作者
了解《生物多樣性公約》
《白噪音》中后現(xiàn)代聲景的死亡倫理思考
詩意的理性:論阿西莫夫機器人小說中的人機倫理
制定《圖書借閱公約》
倫理批評與文學倫理學
制定《圖書借閱公約》
華語科幻電影中的“倫理性”想象
四平市| 纳雍县| 师宗县| 旺苍县| 凌云县| 南皮县| 胶南市| 达孜县| 淮北市| 文昌市| 南郑县| 冀州市| 武城县| 潮州市| 定边县| 聂荣县| 美姑县| 北京市| 汉中市| 黄龙县| 璧山县| 灵宝市| 尚志市| 玉环县| 静乐县| 达孜县| 郓城县| 三河市| 施甸县| 磐安县| 离岛区| 遵义市| 土默特右旗| 朝阳区| 平湖市| 美姑县| 青海省| 张家口市| 万全县| 阿鲁科尔沁旗| 清丰县|