[日]新保史生 余夢凝
或許2020 年是“AI 原則熱潮”年,許多企業(yè)和機構在運用AI 時,出現(xiàn)爭先恐后公布AI 準則或者原則等傾向。在日本,不少企業(yè)和機構在廣泛制定并公布沿襲總務省“AI 網(wǎng)絡社會推進會議”[3]総務省「AI tzットpeーク社會推進會議」 (https://www.soumu.go.jp/main_sosiki/kenkyu/ai_network/index.html)。公布的《AI 研究開發(fā)原則》和《AI 利用原則》的各自AI 原則。目前,日本國內(nèi)大約有十家公司公布了類似的AI 原則。所有公布的原則,都是在參照總務省AI 網(wǎng)絡社會推進會議上制定的原則基礎上,根據(jù)各自企業(yè)討論的情況而確定的原則。今后,可能會有更多的企業(yè)會追隨這一風向,隨著越來越多的企業(yè)為跟上AI 原則的潮流,只是形式上公布AI 原則的現(xiàn)象,恐怕也會產(chǎn)生各種問題。在學術領域研究AI 原則的機會也會增多??梢灶A見,調(diào)查研究是否需要AI 原則,以及將原則的各個項目的一覽表以圓圈形式進行調(diào)查的星表式定量調(diào)查或許會越來越多。調(diào)查需要什么樣的原則,采用什么樣的項目等,或許是AI 發(fā)展搖籃期不可或缺的研究。
在運用AI 時應該考慮并遵循的“原則”,并不是說公布了就有意義,而是因為這個原則具有必要性和重要性。也就是說,思考為什么需要這些原則、根據(jù)這些原則應該做什么,然后將其作為解決問題的策略體現(xiàn)出來才有意義。從“AI 原則能否起作用”的觀點來看,到現(xiàn)在為止仍然需要反復思考制定原則的目的,以及在AI 的研究、開發(fā)及運用中,需要“最低限度必要的原則是什么”?隨著AI 原則熱潮的到來,要讓形式上的原則得到廣泛普及,作為未來的研究內(nèi)容,在明確非約束性原則的定位之后,下一步是否應該考慮將這些非約束性原則作為“法定公布要件”或者“法定要件”確定為約束性規(guī)則,即考慮如何運用非約束性原則作為面向?qū)嵱?、實施階段的法律規(guī)范,才能使AI 原則真正發(fā)揮作用是體現(xiàn)制定AI 原則的意義所在。
隨著AI 原則公布現(xiàn)象的泛濫,可能會朝著與原本制定AI 原則的意圖、意義等初衷相背離的方向發(fā)展。如果僅憑AI 最受關注,從而擴大公布復制粘貼的形式性AI 原則,可能將稀釋AI 原則公開的意義。其實,類似的先例在現(xiàn)實中已經(jīng)出現(xiàn)。例如,有企業(yè)根據(jù)日本《個人信息保護法》制定公布的《關于處理個人信息的法定公布事項》以及基于JIS Q15001《個人信息保護管理體系》公布的《個人信息保護準則》,可以說就是上述“復制粘貼”的典型示例?,F(xiàn)實中不難看到,一些企業(yè)將其他企業(yè)的《個人信息保護準則》原封不動地復制并公布,以此表明自己在個人信息保護方面已經(jīng)采取了措施,這種將原企業(yè)名稱簡單地換為自己企業(yè)名稱而內(nèi)容幾乎完全一致的現(xiàn)象不在少數(shù)。
雖然日本《個人信息保護法》并沒有直接明確規(guī)定企業(yè)或其他組織負有公開《個人信息保護準則》或《隱私策略》的義務,但第27 條卻規(guī)定企業(yè)有“公開持有個人數(shù)據(jù)相關事項等”的法定公開義務。根據(jù)2004 年4 月2 日日本內(nèi)閣會議通過的《個人信息保護基本方針》第6 條第1 款第1 項“個人信息處理企業(yè)等應采取的個人信息保護措施,對外要明確個人信息處理企業(yè)的實施措施,即在推進個人信息保護方面的方式和策略(隱私策略、個人隱私聲明等)”的規(guī)定,要求企業(yè)在收集、利用個人信息等過程中必須采取必要的保護措施并公開其措施準則;根據(jù)JIS Q 1501:2017《個人信息保護管理體系-要求事項》的第5.2.2 條“面向外部的個人信息保護方針”規(guī)定,也要求企業(yè)公開《個人信息保護準則》。由此可見,企業(yè)紛紛公布各自的《個人信息保護準則》是應法律規(guī)定之要求。
日本消費者委員會個人信息保護專業(yè)調(diào)查會的《個人信息保護專門調(diào)查會報告——〈個人信息保護法〉及其適用相關的主要討論》(2011 年7 月)(以下簡稱《調(diào)查會報告》)提出,“企業(yè)公開《個人信息保護準則》已經(jīng)處于相當形式化的狀態(tài),為確保企業(yè)個人信息處理情況的透明度,有必要探討企業(yè)公布《個人信息保護準則》的必要性;參考美國《聯(lián)邦交易委員會法》的規(guī)定,如果企業(yè)公布的準則跟實際處理情況不同,應該對其采取某種程度的處罰,即根據(jù)企業(yè)公布的內(nèi)容監(jiān)督其實際采取的措施,以保證公布準則的適當性及其實效性”?!墩{(diào)查會報告》總結(jié)了作為基本方針的隱私策略的討論意見,指出企業(yè)基于自定的《隱私策略》而采取的持有個人數(shù)據(jù)的利用停止、委托處理的透明化、明確使用目的、獲取源的具體記錄等的措施,由企業(yè)自主自律是不充分、不恰當?shù)模斜匾芯科浯胧┑倪M展狀況以及基本策略的作用等。造成形式化的主要原因,不僅是企業(yè)不公布《個人信息保護準則》是違法的,即使準則內(nèi)容與企業(yè)實際處理個人信息的情況不同,企業(yè)只要明示利用目的,或者適當?shù)毓计渌ㄖ?、公開事項等,就不會有人質(zhì)疑企業(yè)自定公布的《個人信息保護準則》的適當性?!墩{(diào)查會報告》針對《個人信息保護法》每三年修改一次的相關修訂意見,即關于“充實持有個人數(shù)據(jù)公開事項”的內(nèi)容,提出可以“通過完善個人信息處理企業(yè)向持有的個人數(shù)據(jù)本人說明的制度,使本人能夠切實理解并能參與到個人信息的處理過程中,同時從促進個人信息處理企業(yè)的適當處理,將個人信息處理機制、采取的措施、持有個人數(shù)據(jù)的處理方法等作為向本人說明的法定公布事項”的建議。[4]個人情報保護委員會「個人情報保護法ⅩⅣ(?。﹖titf3年ごと見直し制度改正大綱」(令和元年12 月13 日)20 頁。但是,對于企業(yè)個人信息處理準則的公開,在法律修訂時,也看不到如果準則等公布的內(nèi)容與實際處理措施不同而對其違法性提出質(zhì)疑或者處罰的修改內(nèi)容。
在美國法中,以個人信息保護準則為主,包括AI 原則或者準則在內(nèi),規(guī)定了當公布的內(nèi)容與實際操作措施不同時可以處罰的機制,這是《聯(lián)邦交易委員會法》(《FTC 法》)第5 條規(guī)定的內(nèi)容。以個人信息處理適用這個處罰機制為例,當認定企業(yè)公布的處理程序與實際的處理情況背離時,可以以“屬于不公正或欺騙行為的交易”(《FTC 法》)第5 條進行處罰。即《FTC 法》賦予FTC 有權要求企業(yè)公開其《隱私策略》等個人信息保護措施,如果企業(yè)沒有按照公布的內(nèi)容采取相應措施,屬于違反這一規(guī)定的行為,則有權對其進行行政處罰。根據(jù)《FTC 法》的規(guī)定,F(xiàn)TC 可以正式召開聽證會,為中止企業(yè)的違法行為下達停止命令。在此情況下,如果企業(yè)的該行為可能會帶來損害預期保護公共利益的結(jié)果,F(xiàn)TC 則可以發(fā)出臨時停止令,或者臨時或永久禁止令。如果企業(yè)的這種表里不一的行為已經(jīng)造成普遍存在不公平或欺騙性現(xiàn)象,或者FTC 已經(jīng)發(fā)布中止該行為的命令仍未獲得改善,F(xiàn)TC 可以公布監(jiān)管該行為或業(yè)務的行政處罰。如果企業(yè)不遵守FTC 命令繼續(xù)實施相關違法行為,每天將被處以最高10,000 美元的民事罰款。如果企業(yè)故意違反FTC 規(guī)定,必須為每種違法行為支付10,000 美元的罰款。此外,《FTC 法》第5 條也規(guī)定了FTC 前述權限適用除外的情況,規(guī)定金融機關(銀行、儲蓄貸款機構以及消費者信用機構等)、公共運營商(電信運營商及洲際承運人)、航空公司、貨物及倉儲公司,如果有類似不公正或者欺騙行為或業(yè)務時,不適用前述規(guī)定,而適用其他法律由其他行政機關管轄。美國《FTC 法》的這些規(guī)定提示,作為法定公布事項,公開與信息處理相關的措施內(nèi)容,其意義并不僅是宣布企業(yè)等機關已經(jīng)采取了對信息的適當處理和保護措施,從保護個人權益的角度出發(fā),促使企業(yè)保證以其公布的措施處理相關信息,并讓其通過認識到,若不遵守諾言可能會受到法律制裁,從而迫使其自覺遵守正確處理和保護相關信息的法律法規(guī)。在日本,相關法定公布的內(nèi)容、義務及程序等也是五花八門。例如有《特定商務法》《獎品表示法》規(guī)定的公布內(nèi)容、《金融商品交易法》規(guī)定的公開交易說明書、交易條款和利益沖突管理措施、《金融商品銷售等的法律》規(guī)定公開的勸誘方法、《個人信息保護法》規(guī)定公開的持有個人數(shù)據(jù)的相關事項以及其他以行業(yè)自律和行政機關等為對象的法律規(guī)定的公開事項等。日本的AI 原則或準則的公布不僅應該確定為法定的公布事項,還應參考美國《FTC 法》引進處罰機制。
2015 年是AI 熱潮的搖籃期,這個時期EU 的《機器人準則》(2014 年9 月)[5]Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics, FP7-SCIENCE-IN-SOCIETY-2011-1,Project No.: 289092.公布,美國也召開了We Robot 國際會議等,彼時國外有關AI、機器人法的討論日益高漲。在日本,筆者在《個人信息保護法》每三年修改一次的討論中提出,“企業(yè)根據(jù)《個人信息保護法》制定公布各自的《個人信息保護準則》或者《隱私策略》,當其所公布的內(nèi)容與實際個人信息處理措施不一致時,是否可以以處理方式不恰當將其往執(zhí)法對象的方向上考慮”的意見。[6]第 105 回 個人情報保護委員會(令和元年 5 月 17 日(金))資料4 新保史生提出資料 (https://www.ppc.go.jp/aboutus/minutes/2019/20190517/)。也提出了“對于AI 原則,是否也可以考慮將單純的非約束性原則從尋求靈活利用階段開始,轉(zhuǎn)移到法定公開事項的位置上”的建議。作為面向未來機器人共生社會所要求的基本原則,筆者參考OECD 隱私八原則,在2015 年機器人法學會成立籌備研究會上提出了“機器人法新八原則(新保試行方案)”。但是,在該籌備會上,在討論制定AI 未來規(guī)則或者必要的法規(guī)時,筆者從共同通用意識共享的必要性出發(fā),認為制定“AI原則”可能起到作用的新八原則試行方案卻受到了質(zhì)疑,反對意見認為“加強規(guī)制”可能會對技術開發(fā)引發(fā)寒蟬效應。[7]「深層斷面/「法學會」設立難航?ロ(Ⅵ)「社會進出」課題多ffk、業(yè)界関係者fk(x)異論」日刊工業(yè)新聞 2016/1/18 https://www.nikkan.co.jp/articles/view/00371272。之后,隨著AI 熱潮的興起,人們逐漸認識到制定AI 原則的重要性,為避免重蹈2015 年公布新八原則時的誤解和擔憂,筆者從著眼于新興技術的靈活利用需要推進必要的對策措施角度,再次提出應先完善基本法律的內(nèi)容,將非約束性AI 原則確定為實體規(guī)則的建議。本文是以提出試行方案為主要研究目的,建議制定《新興技術利用推進基本法》(簡稱《新興技術新法》,或“新保試案第二彈”)等基本法,以確保新興技術振興的基本理念為基礎,將基本原則予以實定。對于開發(fā)者或者企業(yè)來說,在推廣運用AI 的措施時,也可以認為這是宣傳以安全、放心的AI 運用為前提措施的絕佳機會。隨著人們認識到制定這樣的AI 原則或者以此為基礎的措施的重要性,在已經(jīng)接受的重要性被重新認識的良性循環(huán)中,期待更多的企業(yè)公布基于AI 原則的措施,在推進和促進新興技術開發(fā)方面,“AI 原則”具有重要意義。
在國際上,如果按時間順序排列,最早的有關AI 原則或準則的系統(tǒng)性研究成果當屬《EU 機器人準則》,這是首次嘗試對機器人相關法律課題進行系統(tǒng)性的研究,但研究報告并未提出系統(tǒng)性的指導方針,其實《日本機器人法新八原則》的最初靈感是來自于2014 年的這個《EU 機器人準則》。在國際社會中,EU 有先行制定各種規(guī)則的傾向,該準則也是如此。從2014 年的這個準則[8]EU 2014 年公布的這個《EU 機器人準則》報告的制作調(diào)查費用(預算)為149 萬歐元。在日本國內(nèi),類似這樣的準則等委托調(diào)查報告項目超過1 億日元的現(xiàn)在幾乎看不到。可知,EU 在相當早的階段就已著手對上述AI 原則的必要性做了研討,而原則等的制定工作,直到2016年以后才正式展開。對于公共部門的規(guī)制,EU 早已采取措施,美國、日本緊隨其后。從這一點來看,日本也是在相當早的階段就開始著手討論制定AI 原則或準則,特別是《AI 開發(fā)原則》在2017年就已公布,這與其他國家相比,也算相當領先。至此,特別是從2018 年以后,有關制定規(guī)制公共部門的AI 準則的情況迅速增加。自從隱私保護專員大會(ICDPPC)發(fā)布《數(shù)據(jù)保護原則》以來,各國已經(jīng)以相當快的速度公布了各式各樣的原則。其實“數(shù)據(jù)保護與隱私專員國際大會”(ICDPPC)的討論,說到底是隱私和數(shù)據(jù)保護的討論。挪威的《AI 與隱私》也同樣屬于這個領域制定的原則措施。近年來,在諸如自動駕駛、聯(lián)網(wǎng)汽車、特定于算法的領域以及醫(yī)療保健的各個領域等采取的措施中,也已逐漸地制定了各種具體的AI 原則。針對民間領域,雖然英國工程及物理科學研究理事會(EPSRC)[9]時系列fk(x)ⅩⅢtfと、2010 年 9 月に UK Research and Innovation (UKRI)の The Engineering and Physical Sciences Research Council (EPSRC) fu、研究開発者及sh利用 者向けの5xiiiの原則及sh産業(yè)界への7xiiiのetッfjージfk(x)構成fhxvtf原則PH公表しfttìの fu、近時の AI·ロ(Ⅵ)ットPH(X)Titf原則の中でtt最初のtìのと考xii(x)xvtf。EPSRC, Principles of robotics (https://epsrc.ukri.org/research/ourportfolio/themes/engineering/activities/principlesofro botics/).已于2011 年公布了《機器人原則》,但這是與工業(yè)用機器人相關的機器人工學、機器人技術領域的原則。法國也同樣公布了類似的機器人技術原則。民間領域的AI 原則制定工作的取得進展,是在人工智能研究所(AI Now Institute)于2016 年公布AI 原則之后。日本也以人工智能學會制定的AI 原則公布等為標志進入發(fā)展期。
2018 年,不僅是公共部門,各國的各種機構都在舉行AI 原則制定的討論,非營利組織、非政府組織也相繼公布了各式各樣的AI 原則。到2019 年,各國都在推進AI 原則制定的措施,民間企業(yè)公布AI 原則的動向是在2019 年。盡管英國的一些企業(yè)早在2017 年左右就制定了AI 原則,確切地說2019 年才是企業(yè)公布AI 原則的元年。
經(jīng)濟合作與發(fā)展組織(OECD)《AI 理事會勸告》 于2019 年5 月22 日采納了AI 原則。這是為尊重人權和民主價值、推進革新可信賴的人工智能而制定的。這個AI 原則,除OECD 的36 個成員國之外,還被阿根廷、哥斯達黎加、哥倫比亞、巴西等國家采納。OECD《AI 理事會勸告》采納AI原則的意義是通過發(fā)達國家之間的自由意見交換和信息交換,鑒于OECD 是以促進經(jīng)濟增長、貿(mào)易自由化、支援發(fā)展中國家(OECD 的三大目的)做貢獻為目的,以其在國際社會的這些作用和影響力,OECD 的AI 原則與以往的個別團體和研究組織制定的AI 原則不能同言而語,預計將會對未來的AI國際合作產(chǎn)生重大影響。OECD 的相關研究機構,除設置有對全體活動進行研究的一般機構之外,還按照OECD 的三大目的設立了經(jīng)濟政策委員會、貿(mào)易委員會、開發(fā)援助委員會。OECD 的議事決定機構是理事會,由部長級人士參加的部長理事會(每年舉行一次)和由常任代表主持的定期理事會(隨時舉行)。另外,執(zhí)行委員會(每年召開兩次)是討論主要問題的機構,從OECD 的作用和國際影響力來看,AI 原則被采納為《AI 理事會建議》的意義非常重大。
在OECD《AI 理事會勸告》中,為實現(xiàn)可信賴的AI 負責任的管理,提出了以五項互補價值為基礎的原則,即(1)促進包容性發(fā)展、可持續(xù)發(fā)展和福祉。必須通過促進AI 包容性發(fā)展、可持續(xù)發(fā)展和福祉,為人類和地球帶來利益。(2)以人為本的價值和公平。AI 系統(tǒng)必須設計為尊重法治、人權、民主主義的價值、多樣性,并采取適當?shù)陌踩胧ɡ?,根?jù)需要使人介入成為可能),保證社會公平公正。(3)透明性和說明責任。通過確保AI 系統(tǒng)的透明性并實施說明責任的信息公開,人們必須理解并對抗基于AI 的結(jié)果。(4)堅固性、可靠性及安全性。AI 系統(tǒng)需要貫穿整個生命周期、可靠、安全、放心地運用,必須持續(xù)評估和管理潛在風險。(5)責任制。開發(fā)、部署或運用AI 系統(tǒng)的組織和個人必須按照上述原則負責地使其正常運轉(zhuǎn)。其內(nèi)容針對AI 急速發(fā)展的現(xiàn)狀,設定了實用且靈活的標準。OECD 對于信息的處理,在隱私和數(shù)字安全風險管理等各領域采納了理事會的勸告,而該AI 原則卻被定位為是對這些既有的OECD 勸告的補充。OECD 理事會勸告的AI原則的適用范圍不局限于OECD 成員國,而是旨在應用于世界各地的AI 開發(fā)。此外,根據(jù)以這些AI 價值為基礎的原則,OECD 向各國政府提出了五項面對AI 的發(fā)展需要采取的應對措施,包括:(1)投資AI 的研究開發(fā)。推進對研究開發(fā)的公共和民間投資,促進可信賴的AI 創(chuàng)新。(2)培育AI 數(shù)字生態(tài)系統(tǒng)。通過共享數(shù)字社會基礎和技術、數(shù)據(jù)和知識的機制,培育可運用的AI 生態(tài)系統(tǒng)。(3)形成實現(xiàn)AI 的政策環(huán)境。確保政策環(huán)境為可信賴的AI 系統(tǒng)部署鋪平道路。人力能力建設和勞動市場變革的準備。讓人們掌握使用AI 的技能,幫助勞動者公平實現(xiàn)就業(yè)轉(zhuǎn)換。(4)可信賴的AI 國際合作。通過跨越國境和領域的合作,推進值得信賴的AI 的責任制管理。
眾所周知,歐盟(EU)在制定規(guī)則解決新問題上,各方面都走在了世界前列。例如,在個人信息保護領域,從1995 年制定的《個人數(shù)據(jù)保護指令》到2016 年制定的《通用數(shù)據(jù)保護條例》(GDPR)的轉(zhuǎn)變和法律規(guī)定的升級程度,可以說是舉世矚目。此外,EU 已經(jīng)開始研究AI 規(guī)制,可以預見,EU 在未來AI 規(guī)制的研究方面仍然處于領先地位。日本在AI 原則制定方面相較于其他國家來說也屬于領先者,作為先行者在既要維持傳統(tǒng)基本原則的基礎上又要考慮應對AI 的發(fā)展新制度的要求,這種情況下參考EU 的制度措施非常重要,日本應該借鑒EU 的經(jīng)驗。EU 自公布《EU 機器人準則》以后,隨著第三次AI 熱潮的到來,考慮到將來運用AI 自動系統(tǒng)可能會產(chǎn)生的法律問題,研究目標已經(jīng)轉(zhuǎn)向針對AI、機器人、自動系統(tǒng)與法律的問題。2018 年3 月公布的《AI、機器人、自動系統(tǒng)的聲明》[10]European Group on Ethics in Science and New Technologies, Statement on Artificial Intelligence, Robotics and‘Autonomous’Systems, Brussels, 9 March 2018.(以下簡稱《聲明》) 就是對這些問題研究的總結(jié)。[11]本文書の策定に際して主に參照fhxvてⅩⅣtf文書tt、The Forum on the Socially Responsible Development of Artificial Intelligence held by the University of Montreal in November 2017, 'Declaration for a Responsible Development of Artificial Intelligence’has been developed. It is now publicly accessible on an online platform where all sectors of society are invited to comment on the text.(http://nouvelles.umontreal.ca/en/article/2017/11/03/montreal-declaration-foraresponsible-development-of-artificial-intelligence/).該《聲明》鑒于AI、機器人以及“自動”技術的進步所帶來的倫理問題迫切需要應對以及所引發(fā)的問題更為復雜等情況,特別對這些問題進行了研討。其目的是尋找倫理、社會與法律問題的答案,為實現(xiàn)多方主體利益共贏而尋求不同舉措的多舉并用方式指明道路。為達到這一目標,強調(diào)集體、廣泛、全面的討論和對話非常重要,提出應該將焦點放在構成社會所需要的價值觀和在社會中技術所應發(fā)揮的作用上。該《聲明》的公布,標志著國際社會致力于建立共同的國際倫理和法律框架舉措的開始,其對象是AI、機器人技術和“自動”系統(tǒng)的設計、制造、使用和管理。該《聲明》提出的AI 基本倫理原則,表明了基于EU 各條約及《EU 基本權利憲章》確定的價值觀主張,為將來的AI 規(guī)制展開討論提供了基礎。
2018 年6 月,歐洲委員會成立AI 高級專家組(AI HLEG),[12]European Commission, High-Level Expert Group on Artificial Intelligence (https://ec.europa.eu/digital-single-market/en/highlevel-expert-group-artificialintelligence).2019 年4 月公布《可信賴AI 的倫理準則》[13]European Commission High-Level Expert Group on Artificial Intelligence, Ethics Guidelines For Trustworthy AI, 8 April 2019(https://ec.europa.eu/digital-singlemarket/en/news/ethics-guidelines-trustworthy-ai)(8 April 2019). (Ⅰ)イドfflイasのダウas ロードURL(https://ec.europa.eu/futurium/en/ai-allianceconsultation),(https://www.aepd.es/sites/default/files/2019-09/ai-ethics-guidelines.pdf). 最初の草案tt 2018 年 12 月 18 日に公表fhxvft。。 該準則規(guī)定了可以信賴的AI 的三個必要要件,即合法性,遵守所有適用的法律法規(guī);倫理性,遵循倫理原則和價值觀;可靠性,從技術及社會的視角觀察保障。該準則的目的是提供可信賴的AI 所需的框架,但確保合法性的原則不一定限于該框架,主要目的是提出促進倫理和健全的AI 發(fā)展所必需的要素,而且該準則涵蓋了所有利益相關者。值得一提的是,作為準則,重要的不僅是列出倫理性原則的一覽表,而是通過社會技術系統(tǒng)(socio-technical system)的方法來展示這些原則在實際發(fā)揮作用時需要考慮的因素。如前所述,“原則”只不過是原則,但以列出并展示原則為最終目的,恐怕無法發(fā)揮原則的作用。EU 專家組在注意到這一問題的基礎上制定了該準則,可以說是一個重大的發(fā)展。該準則由三部分構成。第一,可信賴的AI 準則的必要基礎。從保障基本權利的角度提出必要的AI 倫理原則,從尊重人的自主性、防止危害、公平性、可解釋性等角度探討必要的AI 倫理原則。此外,還需要在關照未成年人和殘疾人方面,從保護勞資關系等信息不對稱和處于弱勢地位群體的角度對AI 所帶來的問題進行了探討。從認識到可能引發(fā)難以預測的問題的基礎上,留意對個人和社會可能會帶來的巨大利益,同時也可能會帶來巨大的影響。具體而言,或許會對民主主義、法律的支配,甚至對人類的身心健康等產(chǎn)生影響,為減少這些風險,需要制定適當且平衡的相關標準。第二,提出了可信賴AI 的開發(fā)、實現(xiàn)和運用所需的七個條件,即人類的參與和監(jiān)督,技術的牢靠性和安全性,隱私和數(shù)據(jù)管理,透明度,多樣性、非歧視性和公正性,環(huán)境和社會福祉,問責制。第三,在AI 系統(tǒng)的開發(fā)、實施或使用中采用可信賴AI 的《評估清單》[14]European Commission, EU artificial intelligence ethics checklist ready for testing as new policy recommendations are published(https://ec.europa.eu/digital-singlemarket/en/news/eu-artificial-intelligence-ethics-checklist-ready-testing-new-policyrecommendations-are)(26 June 2019).,并驗證其適用的特定情況。
歐盟在AI 規(guī)制的研究方面,經(jīng)過到現(xiàn)在為止的上述討論,下一步應該是著手研究具體的規(guī)制問題。但相關研究的情況,在撰寫本文時還沒有看到EU 正式發(fā)布的官方信息,僅憑借EU 民間團體政策相關網(wǎng)站發(fā)布的信息,[15]Samuel Stolton, Commission considers facial recognition ban in AI ‘white paper’ 17th Jan, 2020(https://www.euractiv.com/section/digital/news/leak-commissionconsiders-facial-recognition-ban-in-ai-white-paper/)(updated:22nd Jan, 2020).推測EU 未來AI 規(guī)制研究的趨勢。預計EU 之后公布的《白皮書》會持續(xù)關注美國和中國在AI 研究開發(fā)方面的合作關系,同時以促進基于歐洲價值觀和原則的AI 研究及技術開發(fā)為目標,展示必要的規(guī)制方針內(nèi)容。該規(guī)制內(nèi)容大概包括:現(xiàn)行EU 有關AI 的政策框架;歐洲的具體政策(投資和技能提高以及中小企業(yè)對策);AI 系統(tǒng)開發(fā)所需的數(shù)據(jù)利用方法;將來歐洲的法律規(guī)制需要的主要觀點;利益相關者的貢獻和政策制定的時間軸等部分。總而言之,EU AI 規(guī)制框架的方向還是以促進新領域的創(chuàng)新為前提,同時在尊重歐洲的價值觀和原則的基礎上,以促進技術開發(fā)為目標。
對于運用AI 可能帶來的新風險,在EU 現(xiàn)行法的框架范圍內(nèi)并沒有涵蓋所有的問題,有效的規(guī)制方法尚待研究。為此需要研究防范以下風險,即基本權利的風險(具體來說,是從歧視、隱私及數(shù)據(jù)保護的角度來看的問題)、安全及法律責任的風險。在現(xiàn)有EU 成員國法律框架的基礎上,尚需研究能夠讓歐洲企業(yè)享受最大利益平衡的AI 規(guī)制框架,這個規(guī)制框架涉及以下六個方面的問題需要繼續(xù)研究,即從基本權利的角度上看,《EU 基本權利憲章》不適用于僅涉及民間部門的問題,也不適用于就業(yè)、社會保障、教育、公共服務等特定領域;從產(chǎn)品的觀點上看,EU 的產(chǎn)品責任相關法律適用于產(chǎn)品,但不適用于服務。特別是在醫(yī)療保健服務、金融服務和運輸服務中運用AI 的問題;在AI 的研究開發(fā)中,由于責任主體不明確,規(guī)制只適用于開發(fā)者為企業(yè)的情況;鑒于制造物性質(zhì)的變化,隨著在制造物中嵌入AI,以往不需要的產(chǎn)品升級變得跟軟件一樣,隨著制造物性質(zhì)的變化而產(chǎn)生的問題;新風險的出現(xiàn),有可能是因新的安全性而出現(xiàn)的風險;對于執(zhí)法的困難性,因難以保證透明度,所以對于執(zhí)法機關來說很難證明自動決策中是否存在歧視。在AI 法律義務的設置上,今后可能將重點討論后述七個方面的問題。即確保對開發(fā)人員的問責制和透明度;確保透明度并向運用者提供信息;降低AI 系統(tǒng)風險的設計原則;確保AI 學習數(shù)據(jù)的質(zhì)量和多樣性;對開發(fā)人員進行風險評估和緩解風險的措施;針對自動化的決策,探討人類參與的方法;產(chǎn)品需要采取的其他安全措施。為達到前述目的的AI 規(guī)制框架的選擇,還需要研究以下五個問題,即自主措施;針對公共部門及面部認證相關問題的個別領域的應對;針對風險較高的應用,應對風險的規(guī)則;從安全性及法律責任的角度出發(fā)的應對;提出治理。
依據(jù)《OECD 理事會勸告》制定的《OECD 隱私準則》從1980 年公布到現(xiàn)在,對各國相關法律制度的建設產(chǎn)生了廣泛影響。這從OECD 所有成員國都制定了《個人信息保護法》的情況可以佐證,而且OECD 成員國以外的其他國家,在制定或完善個人信息保護法律制度時,也都參照采納了《OECD隱私準則》中規(guī)定的八原則,因此,將其說成世界各國相關法制的“參照系”也不為過。但是,從OECD 隱私八原則本身的法律地位看,這些原則僅為OECD 成員國相關法律完善的準則,并不具有法律約束力。
1980 年《OECD 隱私準則》公布時,OECD 的許多成員國尚未制定隱私保護法,因此,《OECD隱私準則》針對其成員國規(guī)定了四項“要求”,即在國內(nèi)法的制定和完善中考慮《OECD 隱私準則》規(guī)定的原則,不得以個人隱私保護的名義阻礙個人數(shù)據(jù)的國際流通,協(xié)助執(zhí)行《OECD 隱私準則》,盡快同意適用《OECD 隱私準則》的特別程序與合作。也就是說,雖然《OECD 隱私準則》無法律約束力,但要求各國在國內(nèi)法中規(guī)定個人數(shù)據(jù)的國際自由流通和保護的必要程序,八原則作為通用的、普遍的原則被各國的法律制度參考或采納,從而完成從非約束性原則到普遍原則的轉(zhuǎn)變,在這一點上,這個轉(zhuǎn)變具有重要現(xiàn)實意義。這個意義在2013 年《OECD 隱私準則》修訂時的討論中也再次引起關注。[16]2013 年的OECD 指導方針修改中,由5 部22 個項目構成的1980 年版,在2013 年修改版中雖然變更為第6 部23 項,但是指導方針整體的項目數(shù)只增加了第1 項。并且,方針的對象范圍沒有變更,8 原則也沒有變更。另一方面,針對加盟國的“要求事項”,在上述第4 項中,①針對保護隱私和信息的自由流通,在政府內(nèi)的最高水平顯示領導能力并執(zhí)行;②將本勸告的附屬書中所示構成整體的指南通過所有相關人員(利益相關者)參與的過程來履行,③將勸告廣泛地滲透到公共部門和民間領域的三個方面。鑒于各國的法律整頓已經(jīng)完成,政府部門和民間領域雙方在實施確保其有效性的措施的同時,也變更為要求所有相關人員(利益相關者)參與的內(nèi)容。在制定規(guī)則方面,確保優(yōu)先權往往與取得主導權相聯(lián)系。例如,OECD 《AI 理事會勸告》制定的AI 原則等,以OECD 的影響力獲得了主導權。另外,在保護個人數(shù)據(jù)方面,EU 先行采取了各種措施,從《個人數(shù)據(jù)保護指令》到《通用數(shù)據(jù)保護條例》(GDPR)以及先行實施的各種新措施而公布的準則,可以規(guī)定要求EU 以外的其他國家也要采取相應措施,以對其準則做出回應,這對其他國家相關法律的制定起到了引領和主導作用。EU 在制定AI 準則或AI 原則方面,也在不斷地重復同樣的模式。EU 以2014 年公布的《機器人準則》為開端,隨后經(jīng)過多方討論公布了非約束性的AI 準則或AI 原則。強調(diào)在研究值得信賴的AI 準則時,重要的不僅是列出一份AI 倫理原則的清單,而是要讓這些AI 原則在實際操作中能夠發(fā)揮作用,即研究如何將這些非約束性原則納入到實際規(guī)則中,讓其轉(zhuǎn)變成具有約束力的普遍性原則非常重要。此外,EU 在針對AI 規(guī)制的法律完善方面,仍在進行系統(tǒng)性的研究,為在出版的《白皮書》中公布AI 相關概念和具體內(nèi)容做準備。在日本,總務省的AI 網(wǎng)絡推進會議有關AI 的舉措,也在其他國家采取行動前先行進行了研究,其成果于2016 年G7 香川·高松信息通信大臣會議[17]G7 香川·高松情報通信大臣會合 (https://www.soumu.go.jp/joho_kokusai/g7ict/index.html)(2016 年(平成 28 年)4 月)。上公布。鑒于AI 發(fā)展的趨勢,隨著未來有望出現(xiàn)的AI 原則熱潮的到來,AI 原則的傳播將增加社會對原則的接受度,即使是非約束性的準則或原則,在法律完善的過程中也能發(fā)揮參考作用。為確保實施法律完善后的實效性,AI 非約束性原則轉(zhuǎn)換為具有約束力的普遍原則也應進入研討階段。