季衛(wèi)東
內容摘要:當人工智能因深度學習而從他律系統(tǒng)轉化為自律系統(tǒng),特別是在人工智能網絡之間的相互作用及其連鎖反應不斷進行的情況下,黑箱化和失控的風險會不斷增大。“透明社會”與“黑箱算法”,這是數(shù)據(jù)驅動社會的一對根本矛盾,對國家治理方式的改革提出了新的挑戰(zhàn),也提供了新的機遇。為此,如何對人工智能進行適當?shù)摹⒑侠淼?、充分的?guī)制,確立人工智能開發(fā)的規(guī)則、倫理以及政策就勢必成為極其重要并非常緊迫的一項課題。國務院印發(fā)的2017年《新一代人工智能發(fā)展規(guī)劃》提出了人工智能發(fā)展的中國式制度安排以及九條主要原則,與國際社會已經形成的基本共識是相洽的;但在不同價值取向發(fā)生沖突時,怎樣決定取舍的元規(guī)則和優(yōu)先順序還有待進一步明確。為了在甄別和防范風險的同時保護人工智能開發(fā)的積極性和創(chuàng)造性,有必要更多地采取軟法方式,而不是簡單地提高硬法的懲戒力度。
關鍵詞:數(shù)字驅動 風險社會 人工智能網絡化 軟法與硬法 數(shù)據(jù)格式標準化
中國分類號:DFO-05? 文獻標識碼:A? 文章編號:1674-4039-(2019)05-0004-13
“走得太快了,靈魂跟不上”——這是一個游牧部族的古訓,也可以用來描述人工智能開發(fā)在中國突飛猛進卻隱患頻仍、局部失序的現(xiàn)狀?!? 〕
從自動駕駛的汽車到機器人運營的酒店,從電腦量刑到高頻度金融交易,人工智能已經滲透到經濟、政治、社會生活的各個方面,各種新奇事物層出不窮?!? 〕但是,對由此產生的風險以及必要的對策和規(guī)制方式,我們還缺乏足夠的認識和深入研討。人工智能的開發(fā)和利用大都還處于高速增長階段,相關的制度條件尚不完備,在很多重要方面還沒有制定明確的、適當?shù)摹⒔y(tǒng)一的倫理標準、法律原則、規(guī)則、規(guī)格以及政策。我們不能讓這樣的事態(tài)長期持續(xù)下去,否則將留下嚴重的后患。2017年7月21日由國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》已經指出研究相關法律問題和建立問責制度的必要性,提出了一些重要舉措。當然,人工智能開發(fā)的具體規(guī)制方式和規(guī)范內容還有待進一步充實、完善。
實際上,艾薩克·阿西莫夫早在1942年發(fā)表的科幻短篇小說《轉圈跑》中,就曾經提出了關于防止機器人失控的三大定律,即機器人不得傷害人或者對人受到傷害袖手旁觀;機器人必須服從人的指令,除非該指令危害到人;在遵循上述兩條定律的前提條件下,機器人必須保護自己。〔3 〕后來,為了避免允許機器人劫法場之類的邏輯漏洞,他在《機器人與帝國》中又追加了一條零定律:“機器人不得加害于人類整體或者因為坐視危機而加害人類整體”。〔4 〕這些富于靈感和遠見的主張為人工智能開發(fā)的規(guī)制展現(xiàn)了基本思路和雛形,對后來的制度設計產生了深刻影響,但卻不能充分反映當今社會的嶄新狀況和需求。
為了正確把握人工智能在全世界的發(fā)展趨勢以及問題群,我們首先需要對產業(yè)革命的進程進行簡單的回顧。
迄今為止,人類社會經歷了四次重大產業(yè)革命,采取了不同的基本生產方式。首先是機械化生產方式,由蒸汽機和紡織機的發(fā)明而啟動,從18世紀后期持續(xù)到19世紀前期。其次是電氣化生產方式,因電力和石油以及高度分工引發(fā),從19世紀后期持續(xù)到20世紀前期。接著以產業(yè)機器人的研發(fā)為契機,〔5 〕從20世紀60年代開始出現(xiàn)了自動化生產方式,其驅動力量是半導體、電腦以及互聯(lián)網。就在這個階段,人工智能的研究開始出現(xiàn)幾經起伏的熱潮。
初級的人工智能只不過是裝載了控制程序的家用電器,例如具有自動調節(jié)功能的洗衣機、冰箱以及電動剃須刀。較高級的人工智能則是裝載了知識數(shù)據(jù)庫的推理和探索系統(tǒng),例如象棋程序、掃地機器人以及對話軟件。更高級的人工智能搭載檢索引擎,可以按照既定算法進行機械學習,包括各種實用的專家系統(tǒng)?!? 〕現(xiàn)在我們通常所說的人工智能大多數(shù)就是指具有機械學習功能的計算機信息處理系統(tǒng)。
至此我們迎來了大數(shù)據(jù)時代,新的產業(yè)革命條件也開始日漸成熟。〔7 〕21世紀初由萬物互聯(lián)互通、大數(shù)據(jù)、人工智能引發(fā)的智網化生產方式,可謂第四次產業(yè)革命。正在進行中的這次產業(yè)社會的結構轉型是以數(shù)據(jù)驅動和人工智能網絡化為基本特征的。其主要構成因素有如下三項。
第一,物聯(lián)網(簡稱IOT)。物聯(lián)網導致數(shù)據(jù)的生成、流通、積蓄并不斷增大,通過數(shù)據(jù)合作實現(xiàn)最合理化的供應鏈,可以針對顧客個人需求進行產品和服務的創(chuàng)新。
第二,由物聯(lián)網形成和積累而成的大數(shù)據(jù)。對物聯(lián)網而言,大數(shù)據(jù)的收集和運用是關鍵,而大數(shù)據(jù)具有經濟價值,甚至被認為是一種新型通貨。大數(shù)據(jù)也使得個人生活狀態(tài)變得非常透明化,甚至可以說我們面對的是一個極端化的“透明社會”。
第三,人工智能。沒有人工智能,大數(shù)據(jù)的收集和運用都不可能實現(xiàn),而基于大數(shù)據(jù)的機械學習和深度學習又給人工智能帶來質變,可以不斷開發(fā)新產品、新服務,并且大幅度提高效率和質量。
這三種因素互相作用、相輔相成,推動人工智能網絡化程度不斷加深,促進現(xiàn)實空間與虛擬空間之間互動和反饋的關系不斷增殖,形成一種具備控制力的信息實體交融系統(tǒng)(簡稱CPS)。在這樣的背景下,以多倫多大學開發(fā)的圖像識別系統(tǒng)Super Vision以及谷歌的貓臉識別項目為標志,人工智能也從2012年開始進入了能夠自己進行“特征表現(xiàn)學習”(深度學習)的嶄新時代,為歷史性突破提供了重要契機?!? 〕
在人工智能的網絡化和萬物互聯(lián)互通的時代,阿西莫夫關于防止機器人失控的三大定律和零定律就顯得有些捉襟見肘了。從控制程序、知識數(shù)據(jù)庫到檢索引擎,人工智能都必須按照人給出的指令或算法來運行。在機械學習階段,即便有非常龐大的數(shù)據(jù),人工智能也不會自動學習,需要有人來提供數(shù)據(jù)的特征量和規(guī)格化方式才能進行學習和預測;通過機械學習,人工智能可以提供更高的精確度,但卻很難對復雜的、模糊的問題進行判斷。然而當機械學習的數(shù)據(jù)輸入不間斷地高速進行時,對輸出的預測就會變得非常困難。而在深度學習的場合,人工智能系統(tǒng)不僅按照算法進行數(shù)據(jù)處理,還采取多層次腦神經網絡的模型和方法,能從大數(shù)據(jù)中發(fā)現(xiàn)和提取特征量,揭示迄今為止未知的問題、樣式、結構以及原理,從而具有更高的自主性,因而更類似具有條件反射能力的動物或者自由意志的人。
當人工智能從他律系統(tǒng)轉化為自律系統(tǒng)、從演繹系統(tǒng)轉化為歸納系統(tǒng),特別是在人工智能網絡之間的相互作用及其連鎖反應不斷進行的情況下,預測、理解、驗證、控制就會變得更加困難,甚至出現(xiàn)黑箱化現(xiàn)象。“透明社會”與“黑箱算法”,這是數(shù)據(jù)驅動時代的一對根本矛盾,對國家治理方式的改革提出了新的挑戰(zhàn),也提供了新的機遇。〔9 〕無論如何,既然人工智能有自我學習和創(chuàng)新的潛力,能通過統(tǒng)合復數(shù)的身體功能進行精密管理,還會按照某種節(jié)奏不斷引起飛躍式的變化,甚至通過復雜的連鎖反應造成混沌,那么如何對人工智能進行適當?shù)?、合理的、充分的?guī)制,確立機器人研制的規(guī)則和政策就勢必成為極其重要并非常緊迫的一項課題。
在考慮對人工智能開發(fā)進行適當規(guī)制之前,必須對人工智能本身進行比較精準的概念界定。
不言而喻,人工智能是相對于人類智能而言的,而人類的智能活動通常表現(xiàn)為推理、學習以及自我改善。因此,人工智能就可以理解為借助電子計算機來實現(xiàn)推理、學習以及自我改善等活動的機制。換言之,人工智能就是能夠形成和運作這類活動機制的數(shù)據(jù)處理系統(tǒng),或者像人那樣思考的電子計算機。由此可以推論,人工智能的本質在于信息的輸入與輸出之間的關系?!?0 〕電子計算機擅長進行大量的、反復的信息處理和邏輯演算,但人類擅長進行直覺的分析和判斷,通過與環(huán)境的相互作用創(chuàng)造出主觀的世界圖像,并依此進行認識和預測。人工智能的發(fā)展目標就是要把這兩個方面密切結合起來,提高認識和社會控制的精確度和實效性。
目前的人工智能熱是由深度學習——利用腦神經網絡進行的機械學習——而引起的。過去五十年間的機械學習是由人根據(jù)專業(yè)知識和經驗來設計算法和特征量,通過反復試錯逐步提高電子計算機判斷的精確度,失誤比例一般在26%到27%之間徘徊。從2006年開始研發(fā)的深度學習,在2012年給這種持續(xù)已久的沉悶局面帶來了重大突破,使得人工智能識別的失誤比例驟然降到15%到16%的程度?!?1 〕深度學習的技術訣竅就是人類不再事先設計數(shù)據(jù)的特征量,而由電子計算機通過多階腦神經網絡模型下的分層化學習以及自我符號化的信息壓縮器,從輸入的數(shù)據(jù)中自動抽出數(shù)據(jù)的更高級特征量。也就是說,人工智能從此開始真正介入本來只能由人類智能決定的領域。如果從圖像數(shù)據(jù)到觀測數(shù)據(jù)、行動數(shù)據(jù)以及語言數(shù)據(jù)都可以進行深度學習,那就可以解決環(huán)境認識、行動預測以及知識獲得瓶頸等問題,勢必在很多領域引起科技和產業(yè)革命的連鎖反應。
深度學習的網絡結構以及各種人工智能之間互相聯(lián)網,形成了所謂“智網社會”,向國家治理和法律秩序提出了新的課題和挑戰(zhàn)?!?2 〕人工智能的網絡化的確可以為人類帶來巨大的便利和效益,但同時也勢必造成巨大的、缺乏清晰邊界的風險社會。與過去的信息通信技術不同,人工智能通過深度學習而導致變化的結果很可能是人工智能開發(fā)者自己也無法預測和控制的。人工智能網絡化勢必引起自動的組合變更,實現(xiàn)自我生成式的成長和變異乃至人工智能判斷的黑箱化,形成非常復雜的情況和網絡混沌。在這里,存在人工智能不透明化的風險、安全性風險、失控的風險等。另外,各種人工智能網絡相互間的目的競爭或沖突也會引起復雜的連鎖反應,很可能在某種情形下造成利用者或者第三者的權利或利益受到損害,或者危及社會秩序和法律制度的框架。在這里存在事故的風險、智慧型犯罪的風險、個人信息和隱私被泄露和濫用的風險、人為操縱選舉結果的風險等。為此,必須加強風險甄別和風險溝通。〔13 〕
如何對這類風險進行評價和管控成為人工智能網絡化社會的治理以及制度設計的核心問題。眾所周知,智網社會的最大特征是通過互聯(lián)網實現(xiàn)的越境性,無論效益還是風險都會突破國家和專業(yè)領域的既有樊籬進行傳遞和呈指數(shù)級擴散。因此,對人工智能網絡化的相關問題進行討論、采取對策不得不具備國際視野和全球視野,應該注重在互聯(lián)互通的狀況里尋求人類社會的最大公約數(shù)和基本共識。另外,由于相關的技術創(chuàng)新和市場培育還處于初級階段,特別需要積極鼓勵試驗和競爭,為了防止壓抑研究者和企業(yè)的能動性,對人工智能開發(fā)的規(guī)制也應該富于彈性,給試行錯誤及其糾正留下充分的空間。在這樣的條件設定下,如何使規(guī)制的舉措產生實際效力、具有可持續(xù)性就自然而然成為另一個需要強調的因素??傊斯ぶ悄芫W絡化社會的治理切忌“一刀切”的生硬強制手段,更適合采取多視角的、綜合性的、社群指向的“軟法”方式。只有這樣,人工智能在中國的發(fā)展才能跳出“一管就死、一放就亂”的傳統(tǒng)陷阱。
國務院印發(fā)的2017年《新一代人工智能發(fā)展規(guī)劃》在保障措施這一節(jié)里強調了人工智能發(fā)展的制度安排、開放包容的國際化環(huán)境以及社會基礎等基本理念。鑒于人工智能的技術屬性與社會屬性高度交叉融合的特殊情形,關于制度安排,規(guī)劃要求加強人工智能相關法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。開展與人工智能應用相關的民事與刑事責任確認、個人尊嚴和隱私以及產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等。通過法律規(guī)范和倫理規(guī)范的并用來實現(xiàn)社會交往的共享和互信。在立法方面,重點圍繞自動駕駛、服務機器人等應用基礎較好的細分領域,加快研究制定相關安全管理法規(guī),為新技術的快速應用奠定法律基礎。
由于人工智能是影響深遠的顛覆性技術,國務院規(guī)劃還重視圍繞人工智能開展行為科學和倫理等問題研究,建立倫理道德多層次判斷結構及人機協(xié)作的倫理框架。制定人工智能產品研發(fā)設計人員的道德規(guī)范和行為守則,加強對人工智能潛在危害與收益的評估,構建人工智能復雜場景下突發(fā)事件的解決方案,以夯實第四次產業(yè)革命“以人為本”的社會基礎。除此之外,規(guī)劃特別指出有必要積極參與人工智能全球治理,加強機器人異化和安全監(jiān)管等人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,共同應對全球性挑戰(zhàn),并且在全球范圍內優(yōu)化配置創(chuàng)新資源。在人工智能開發(fā)的規(guī)格、標準以及規(guī)制方式上與國際接軌,參與全球對話,這是值得高度評價的原則性立場。
關于技術標準框架體系和保障舉措,國務院規(guī)劃明確提出了安全性、可用性、互操作性、可追溯性等基本原則,要求逐步建立并完善人工智能基礎共性、互聯(lián)互通、行業(yè)應用、跨界融合、網絡安全、隱私保護等技術標準以及行業(yè)規(guī)范,特別是鼓勵人工智能企業(yè)參與或主導制定國際標準。針對相關的評估和安全監(jiān)管,2017年規(guī)劃注重人工智能對國家安全和保密領域影響的研究與評估,決定構建人工智能安全監(jiān)測預警機制并加強對人工智能技術發(fā)展的預測、研判和跟蹤研究。在風險評估和防控方面,從預防法學和因勢利導政策的角度明確近期重點關注對就業(yè)的影響;遠期重點考慮對社會倫理的影響,確保把人工智能發(fā)展規(guī)制在安全可控范圍內。機制設計的思路是建立和健全公開透明的人工智能監(jiān)管體系,實行設計問責和應用監(jiān)督并重的雙層監(jiān)管結構,實現(xiàn)對人工智能算法設計、產品開發(fā)和成果應用等的全流程監(jiān)管并加強懲戒力度。
在人工智能網絡化和數(shù)據(jù)驅動社會成形的背景下,國務院規(guī)劃特別注重人工智能行業(yè)和企業(yè)的自主操控、群智研發(fā)以及人工智能網絡安全技術的研發(fā),試圖構建動態(tài)的人工智能研發(fā)應用評估評價機制,要求“圍繞人工智能設計、產品和系統(tǒng)的復雜性、風險性、不確定性、可解釋性、潛在經濟影響等問題,開發(fā)系統(tǒng)性的測試方法和指標體系,建設跨領域的人工智能測試平臺,推動人工智能安全認證,評估人工智能產品和系統(tǒng)的關鍵性能”。從這一系列制度設計方案和舉措中,我們可以解讀出通過人工智能網絡來實現(xiàn)社會共生和普惠的原則、通過跨界協(xié)調和自律性尊重讓企業(yè)和社會都充滿活力的治理目標、通過利益相關者參與決策以及問責確保人工智能網絡互動的可控性與透明性。
通過上述分析,我國人工智能開發(fā)的主要原則和實施方法不妨歸納為以下九條:(1)共享互信原則——人工智能的開發(fā)以社會共生、人與人交往的互信以及開發(fā)利益的普惠為根本價值目標。(2)個體尊嚴原則——在數(shù)據(jù)驅動的智網社會,人工智能開發(fā)必須切實保障網絡安全、數(shù)據(jù)安全、個人信息安全以及公民的隱私權和名譽權。(3)民主參與原則——鑒于人工智能互聯(lián)互通、滲透到生活的各個角落,僅靠自上而下的決定和監(jiān)管必然存在盲點和漏洞,因而必須讓利益相關者也參與相關決策。(4)國際合作原則——鑒于人工智能跨界互聯(lián)互通的現(xiàn)狀以及標準統(tǒng)一的經濟合理性,人工智能開發(fā)應該立足于國際合作,對必要的規(guī)制也應該采取全球共同應對的方法。(5)相機規(guī)制原則——由于人工智能的技術復雜性和創(chuàng)新性,規(guī)范秩序的建構有必要讓立法(剛性規(guī)范)與道德規(guī)范、政策(柔性規(guī)范)兼具并用,并對合規(guī)性問題采取多層化判斷的方法。(6)公開透明原則——為了防止人工智能失控,確保設計者和企業(yè)的可問責性,對算法和程序應該要求公開、透明化,強調可說明性。(7)雙重規(guī)制原則——對于人工智能開發(fā)實施設計問責和應用監(jiān)督的雙重規(guī)制方式。(8)追蹤制裁原則——鑒于人工智能的本質在于信息輸入與輸出之間的關系,對有關產品和技術的研發(fā)、應用實行全流程監(jiān)管,并對違法和違規(guī)現(xiàn)象加大懲戒力度。(9)預防響應原則——針對人工智能開發(fā)中的風險要加強預防舉措,并建立危機處理的預警和應急處理體系?!?4 〕
關于人工智能開發(fā)引起的法律問題以及相關規(guī)制的理論探討的近況,上海交通大學凱原法學院彭誠信教授主持翻譯的“獨角獸法學精品·人工智能”系列三本圖書已經為我們提供了比較全面的概觀?!?5 〕其中關于機器人規(guī)制的內容也是從阿西莫夫三定律開始的,涉及機器人倫理學、人工智能管理規(guī)定、統(tǒng)一人工智能法典、聯(lián)合國人工智能公約、電子法、自動化執(zhí)法、法律責任與社會倫理等一系列問題和制度設計的構想,讀來饒有趣味。在這里,只想介紹和分析一下主要國家和超國家機構在人工智能規(guī)制方面的最新立法活動以及相關規(guī)范的基本內容,作為中國相關制度建設的借鑒。
美國政府從2016年5月開始正式研討人工智能的法律、倫理以及政策方面的問題,為決策進行準備。當年10月白宮發(fā)表了題為《為人工智能的未來做準備》報告書,提出人工智能的相關系統(tǒng)必須可控、公開透明可理解、有效發(fā)揮功能、與人類的價值和愿望一致等原則?!?6 〕與此同時,國家科學技術會議網絡和信息技術研究開發(fā)小委員會還發(fā)表了關于運用聯(lián)邦政府預算研究人工智能的方針《美國人工智能研究開發(fā)戰(zhàn)略計劃》,提出了副作用最小化的要求?!?7 〕隨后美國電氣電子學會也發(fā)表了關于人工智能設計倫理標準的報告書,提倡實現(xiàn)人權理念、人類與自然環(huán)境的效益最大化、減少人工智能和自律系統(tǒng)等帶來的風險和負面影響等三條原則?!?8 〕由亞馬遜、Deep Mind、谷歌、臉書、IBM、微軟五大公司發(fā)起,歐美產業(yè)界在2016年9月還締結關于人工智能的伙伴關系,旨在構建一個研究和討論人工智能技術改進和社會影響的開放性平臺,并發(fā)表了關于確保社會責任、采取防護措施等八項信條?!?9 〕來自不同機構和學科的專家也按照人工智能“可接受、有責任”的理念結成倫理專題社群,進行關于失控風險的腳本分析并提出對策建議?!?0 〕
歐盟的機器人法律項目從2012年開始活動,到2014年9月發(fā)表了機器人法律指南。2016年4月,歐洲議會法務委員會召開關于機器人和人工智能的法律和倫理問題的聽證會,并在5月公布了與機器人相關的民事法律規(guī)則的報告書草案。2017年2月歐洲議會通過《向歐洲委員會提出的關于涉及機器人民事法律規(guī)則的提案》,建議設立專門的歐盟機構、采納智慧機器人登記制、明確嚴格的損害賠償責任、保障知識產權等,要求歐洲委員會制定相關的歐盟法律。這個提案還建議確立機器人研發(fā)者的倫理行動規(guī)范,其中包括尊重基本人權、預防原則、包容性、問責、安全性、可追溯性、隱私權保護、效益最大化和危害最小化等內容?!?1 〕2018年5月25日歐盟開始施行一般數(shù)據(jù)保護條例,要求人工智能開發(fā)涉及個人信息處理時要通知本人,受到影響的個人有權獲得解釋。其中有些舉措比美國更加嚴格,對違反該法規(guī)的企業(yè)采取重罰政策。這項法規(guī)對數(shù)據(jù)向其他國家的轉移業(yè)務也生效?!?2 〕2018年12月歐盟委員會AI高級專家組發(fā)布了《人工智能開發(fā)和適用倫理指南》草案,以《歐盟基本權利憲章》為基準,力爭形成值得信賴的、負責任并且沒有偏見的人工智能,為此提出了七條關鍵要求。〔23 〕這個倫理指南將從2019年夏季開始進入試行,所有企業(yè)、政府部門以及社會團體都可以參加歐洲人工智能聯(lián)盟,通過共同遵循倫理指南在數(shù)據(jù)、算法、技術等方面推進伙伴關系。
日本總務省信息通訊政策研究所通過系列研討會在2016年10月制訂了《人工智能開發(fā)指針方案(征求意見稿)》,經過討論修改在2017年7月正式公布《為國際討論而作的人工智能開發(fā)指針方案》。日本方案的基本宗旨是:盡管人工智能的技術創(chuàng)新和互聯(lián)網化有望給經濟和社會生活帶來各種各樣的效益,但也存在黑箱化和失控的風險。人工智能是跨越國界互聯(lián)互通的,因此相關的效益和風險也勢必跨越國界產生連鎖反應。在這個意義上,智網社會的治理不可能局限在一國范圍內,而應該形成全球化的治理框架。為此,有必要通過開放式討論在利益相關者中凝聚國際共識。在人工智能開發(fā)的初期階段,通過立法來進行規(guī)制有可能導致創(chuàng)新活動的萎縮,因此對剛性規(guī)范的制定應持慎重態(tài)度,不妨更多地借助“軟法”等非正式的有序化機制。〔24 〕
日本的人工智能開發(fā)指針方案提出了五大理念:(1)人通過與人工智能網絡共生而共享其恩惠,并建立一個尊重人的尊嚴和個體自主性的“以人為本”的社會;(2)利益相關者應該對作為非約束性“軟法”的指針及其最佳實踐經驗進行國際共享;(3)應該通過創(chuàng)新的、開放式的開發(fā)活動和公平競爭增進社會效益,在尊重學術自由等社會價值的同時防范風險,確保效益和風險的適當平衡;(4)堅持技術的中立性,注意不給開發(fā)者造成過度負擔;(5)對指針方案的內容不斷斟酌,根據(jù)需要靈活進行修改?!?5 〕
根據(jù)這些理念,指針方案具體闡述了人工智能開發(fā)的九項原則,即人工智能系統(tǒng)互相連接和互相運用的“合作原則”(包括與國際標準和規(guī)格保持一致、數(shù)據(jù)形式統(tǒng)一化、界面和通信協(xié)議的公開、知識產權特許合同及其條件的公開等),確保輸入和輸出的可驗證性和判斷的可解釋性的“透明原則”(包括開發(fā)者公開算法、源代碼、學習數(shù)據(jù)等),開發(fā)者能駕馭人工智能的“可控原則”(為此可以采取監(jiān)督、預警、停機、斷網、修理等有效舉措),人的身體、生命、財產免于損傷的“無害原則”,保護人工智能系統(tǒng)本身的“安全原則”(包括系統(tǒng)的可信度、牢固性以及信息的機密性、完整性、可用性),防止人工智能利用者和第三者個人信息泄露和濫用的“隱私原則”,〔26 〕尊重人格的“倫理原則”,為用戶提供選擇機會的“支持原則”(包括設定系統(tǒng)默認、提示易懂的選項、及時反饋、緊急情況的警告、失誤的糾正等),以及對利益相關者履行說明義務的“問責原則”。〔27 〕
綜合上述信息,我們可以發(fā)現(xiàn)在人工智能開發(fā)的原則和政策方面,國際社會已經初步形成了一些基本共識。例如對國際通用的指針、標準、規(guī)格采取合作態(tài)度,盡量使設計方案統(tǒng)一化;為確保人工智能系統(tǒng)和智慧網絡之間互聯(lián)互通,必須共有相關信息;數(shù)據(jù)形式應該標準化;應該公開包括應用程序編程接口在內的接口和協(xié)議、知識產權的特許合同條件;確保技術的中立性以及透明性,判斷結果的可解釋性,等等。另外,在不同價值取向發(fā)生沖突時,進行選擇的元規(guī)則被公認為要優(yōu)先保護人的安全,慎重對待生命倫理,不得毀損人性的價值。在與人相關的復數(shù)價值判斷標準之中,優(yōu)先順位的排序如下:①生命,②身體,③財產。從“以人為本”的立場出發(fā),人工智能的開發(fā)者在設計階段就應該充分考慮私生活的平穩(wěn)、個人信息保密、通信保密,相關企業(yè)和服務商必須對利用者和利益相關者充分履行說明義務,尊重客戶的選擇自由。為了落實上述要求,有必要加強問責機制,提高懲戒的力度。
以上重點分析了在數(shù)據(jù)驅動的智網社會進行人工智能開發(fā)的有關原則、規(guī)則以及政策,與人工智能的適當規(guī)制相關的法律和倫理問題當然絕不局限于這些。例如機器人造成人身損害的風險應該如何預防和分散、怎樣承擔法律責任、人工智能武器的開發(fā)和使用的邊界在哪里等,都值得深入討論,需要制定相應的標準。隨著人工智能的廣泛應用,即使不采取強制手段也可能左右人們行為的“間接管制”變得越來越容易了。〔28 〕人工智能對社會的間接管制實際上就有可能在很大程度上侵蝕個人選擇的自我決定權,給那些不使用人工智能的人們帶來經濟損失以及其他各種代價。在這樣的狀況下,如果沒有適當?shù)臋C制設計,現(xiàn)代國家憲法和民法秩序的基礎勢必發(fā)生動搖?!?9 〕另外,還存在許多與人工智能相關的具體法律問題,這里也按照一定的邏輯關系略作概括性說明。
首先是人工智能生成物的歸屬問題。在智網社會,各種信息和文化作品的素材——新聞、網絡評論、照片、視頻和音頻、游戲、知識介紹、小說、音樂、畫像等,都在周流不息地流布和擴大再生產。這些內容的發(fā)布機制是平面化的、自由的,但作為商業(yè)性活動又是由少數(shù)信息技術公司巨頭所壟斷的。其中有些作品還是人工智能以低成本大量創(chuàng)造的。例如自動翻譯(科大訊飛)、自動著色和加工(“美圖秀秀”和“天天P圖”)、既有文章的加工和第二次創(chuàng)作,特別是自動文藝創(chuàng)作的軟件(英國音樂科技公司Jukedeck、美國谷歌DeepDream、日本東京大學開發(fā)的自動作曲系統(tǒng)Orpheus以及中國清華、北大、北郵共同研制的“薇薇寫詩機器人”)所產生的作品,著作權究竟屬于誰,涉及復雜的法律上和倫理上的問題,也很容易助長免費搭車的侵權現(xiàn)象。對于那些具有創(chuàng)造性貢獻的人工智能生成物要不要給予著作權上的保護、是否承認其壟斷性地位、保護是否要附加條件、保護期間多長為宜,需要在政策上進行慎重的權衡?!?0 〕
其次,但議論更多的是人工智能生成物的行為責任問題。例如2016年某公司開發(fā)的具有深度學習能力的對話系統(tǒng)在推特上登場后,由于受網絡上大量流傳的歧視性笑話的影響,不久這個系統(tǒng)就開始不斷發(fā)表具有種族歧視傾向的推特短文,損害他人的名譽,引發(fā)了憲法上的問責,被迫停止服務,進行整改。更廣為人知的實例是自動駕駛汽車造成事故時的責任。全球首例無人駕駛汽車撞人致死事件發(fā)生在2018年3月18日的美國亞利桑那州,導致加利福尼亞州開放上路測試的計劃擱淺。〔31 〕實際上,當自動駕駛汽車造成交通事故時,按照現(xiàn)行法制追究民事責任是很困難的,因為無法確認駕駛者的過失,也很難證明控制運行的軟件或人工智能的設計上存在問題;特別是在獲取的信息和利用的服務非常多樣化的情況下,責任主體勢必復數(shù)化。算法黑箱很可能導致人工智能采取某種不能預測的動作,這些都是汽車所有者和駕駛者既無法預知、也無從回避的,因而難以追究他們的過失責任。當然,也可以把人工智能軟件已經嵌入汽車作為理由,根據(jù)產品責任法向廠商請求賠償;〔32 〕或者設立以人工智能為保險對象的服務,通過保險制度來解決問題。至于對自動駕駛汽車造成的事故追究刑事責任,必須通過修改法律或者制定新法另設犯罪類型?!?3 〕
另外還有提供給人工智能進行學習的數(shù)據(jù)所伴隨的權利問題。例如通過讀取繪畫進行深度學習是否侵害作者的復制權,個人的消費信息、健康信息、經歷信息以及識別信息作為學習數(shù)據(jù)使用時是否侵害隱私權,把生產方法、銷售方法以及其他營業(yè)活動的大數(shù)據(jù)提供給人工智能是否引起不正當競爭,怎樣保護具有經濟價值的數(shù)據(jù),數(shù)據(jù)的大量積蓄和集中化會不會導致市場的壟斷,這些都需要深入研究,制定必要的法規(guī)、政策以及倫理標準。對于匿名加工個人信息以及相關數(shù)據(jù)庫的建設也應該有統(tǒng)一的規(guī)格和方法。2018年5月開始實施的歐盟一般數(shù)據(jù)保護條例被稱為21世紀的人權宣言,就是因為在網絡化社會特別強調尊重個人的原則。該條例第21條規(guī)定數(shù)據(jù)主體對數(shù)據(jù)的存檔具有異議權,如果數(shù)據(jù)管理者不能提供不得不這樣做的正當性根據(jù)(例如防止傳染病蔓延),就必須停止相應的信息處理。第22條還進一步規(guī)定,數(shù)據(jù)存檔等信息自動化處理本身不得給數(shù)據(jù)主體帶來任何法律效果。也就是說,關于個人特征的完全自動化評價,不得成為侵害該個人權益的決定的唯一根據(jù)。如果產生了諸如此類的重大影響,數(shù)據(jù)主體有權不服從?!?4 〕這種機制設計是值得我國留意和借鑒的。
不得不承認,我國以及各國的現(xiàn)行制度在保護人工智能方面仍然存在一些明顯的缺陷。我國的著作權法及其實施條例以及計算機軟件保護條例承認軟件產品、程序以及相關文書的著作權,以獨立開發(fā)、登記以及固定在實體物件上為前提條件給予法律保護,但關于算法即人工智能本身還沒有明文規(guī)定。如果算法是由復數(shù)的軟件程序構成,當然可以作為程序作品申請著作權上的保護,但算法即人工智能本身仍然無法申請專利權。人工智能僅有算法并沒有實用價值,而必須與數(shù)據(jù)的學習結合起來才能產生真正的意義。但對需要大量投入資源的學習用數(shù)據(jù)以及學習方法,法律卻不能提供保護。還有學習完畢的模型也具有很大的經濟價值,需要對其利用問題制定必要的管理規(guī)則。隨著人工智能及其網絡化的加速發(fā)展,這些問題勢必層出不窮,需要在制度和機制的設計上及時跟進甚至未雨綢繆。
此外,還有人工智能與行業(yè)法規(guī)之間關系如何處理,也是非常重要的課題。例如人工智能在相當程度上開始從事司法和法律服務,〔35 〕但從事法律實務活動本來是存在嚴格的門檻限制的,需要通過國家考試取得必要的資格。當中國的“睿法官”機器人(北京)、“明鏡系統(tǒng)”(浙江)、“法務云”(江蘇)、美國的ROSS律師機器人、JUDICATA法官機器人紛紛用于業(yè)務處理時,是否有違反法官法和律師法的嫌疑?如果人工智能被賦予法律人格,那么能否也被賦予法官資格或律師資格?不言而喻,同樣的問題也存在于醫(yī)療等行業(yè)?,F(xiàn)在人工智能已經廣泛應用于疾病的預測、預防以及診療服務,如果發(fā)生醫(yī)療事故應該如何追究責任正在成為熱議的話題。以上描述的這一切都在告訴我們:討論對人工智能怎樣進行適當?shù)囊?guī)制,逐步建立和健全相關的法律、政策以及道德的規(guī)范秩序,此其時也。