国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能危害風(fēng)險(xiǎn)的理性審視與治理體系研究

2021-03-25 13:08久,
關(guān)鍵詞:危害人工智能算法

李 茂 久, 張 靜

(1.中南財(cái)經(jīng)政法大學(xué) 刑事司法學(xué)院,湖北 武漢 430073;2.中南財(cái)經(jīng)政法大學(xué) 新聞與文化傳播學(xué)院,湖北 武漢 430073)

人工智能的話題已經(jīng)從一個(gè)技術(shù)應(yīng)用范疇演變成一個(gè)具有專業(yè)爭(zhēng)議性的社會(huì)公共話題。人工智能的出現(xiàn)改變了主體與客觀的認(rèn)知關(guān)系,將會(huì)深刻影響和改變未來(lái)法律的發(fā)展。人工智能顛覆了傳統(tǒng)的以“人”為中心的法律體系,試圖以賦予人工智能類(擬)人化法律主體資格來(lái)防范和處置未來(lái)可能的危害風(fēng)險(xiǎn)。但學(xué)界在探討人工智能創(chuàng)設(shè)各類社會(huì)危害風(fēng)險(xiǎn)的邏輯論證上存在著主體的錯(cuò)位、風(fēng)險(xiǎn)的夸大與邏輯的推測(cè)等諸多的問(wèn)題。

一、人工智能技術(shù)背景與風(fēng)險(xiǎn)情境:技術(shù)邏輯審視下的危害風(fēng)險(xiǎn)

1.人工智能的技術(shù)邏輯:數(shù)據(jù)與算法

人工智能是計(jì)算機(jī)與大數(shù)據(jù)技術(shù)科技融合的產(chǎn)物。它通過(guò)模擬和再造人類智能,生產(chǎn)出一種具有類人化智能的智能機(jī)器。根據(jù)現(xiàn)有技術(shù)的發(fā)展,按照智能程度的高低,人工智能可以分為弱人工智能、強(qiáng)人工智能和超人工智能。這種發(fā)展趨向也是人工智能從技術(shù)物體到技術(shù)智體發(fā)展的過(guò)程,也是逐步賦予人工智能更加智慧的過(guò)程,即人工智能具有深度學(xué)習(xí)能力和自我運(yùn)行算法的能力。人工智能的技術(shù)邏輯關(guān)鍵在于數(shù)據(jù)與算法,只有具備了這些人工智能才可以形成算法能力和學(xué)習(xí)能力。

首先,人工智能是數(shù)據(jù)智能。人工智能本質(zhì)上是預(yù)先構(gòu)建類型化的數(shù)據(jù)庫(kù),用大量的數(shù)據(jù)作為智能導(dǎo)向,人工智能通過(guò)數(shù)據(jù)庫(kù)提供數(shù)據(jù)支撐來(lái)完成所做的行為。其次,人工智能是算法?!八惴词且?guī)則”。算法為人工智能提供了意圖實(shí)現(xiàn)的目標(biāo),并為實(shí)現(xiàn)該目標(biāo)提供了具體的計(jì)算路徑與方法。算法本質(zhì)上是以數(shù)據(jù)為填充,通過(guò)計(jì)算步驟得到具體結(jié)果,算法的運(yùn)算結(jié)果與算法設(shè)計(jì)、算法部署以及應(yīng)用有關(guān),算法看似很艱深的計(jì)算科學(xué)概念,實(shí)際上在計(jì)算機(jī)科學(xué)家看來(lái),通過(guò)一些列步驟、用輸入的數(shù)據(jù)得到輸出結(jié)果就是算法的本質(zhì)[1]。從技術(shù)本體論上來(lái)講,人工智能具有一定的技術(shù)邏輯,并不是一個(gè)被人類技術(shù)“異化”的產(chǎn)物,它是在人類正常的智慧、科技手段和正常的場(chǎng)域內(nèi)合理存在的產(chǎn)物。

2.人工智能危害風(fēng)險(xiǎn)的技術(shù)判斷

技術(shù)奇點(diǎn)和圖靈測(cè)試被認(rèn)為是賦予人工智能獨(dú)立、能動(dòng)性活動(dòng)的技術(shù)支撐的重要依據(jù)。但技術(shù)奇點(diǎn)和圖靈測(cè)試一直受到很多批評(píng),其中一個(gè)最重要的質(zhì)疑是它偏向于純粹的符號(hào)問(wèn)題求解任務(wù)。它并不測(cè)試感知技能或要實(shí)現(xiàn)手工靈活性所需的能力,而這些都是人類智能的重要組成部分。機(jī)器智能不同于人類智能,試圖按照人類的方式來(lái)評(píng)估它,可能本身就是一個(gè)錯(cuò)誤[1]25。就人工智能的技術(shù)邏輯來(lái)判斷,主要存在的風(fēng)險(xiǎn)源是數(shù)據(jù)與算法。

(1)數(shù)據(jù)風(fēng)險(xiǎn)

人工智能的技術(shù)應(yīng)用建立在對(duì)大數(shù)據(jù)的應(yīng)用基礎(chǔ)上。在大數(shù)據(jù)時(shí)代,原始數(shù)據(jù)的設(shè)計(jì)和使用的流程復(fù)雜多樣,在運(yùn)作過(guò)程中,對(duì)于數(shù)據(jù)的篩選和使用無(wú)法把控,形成數(shù)據(jù)的不確定性。因此,人工智能的風(fēng)險(xiǎn)明顯存在數(shù)據(jù)風(fēng)險(xiǎn)。一種是“數(shù)據(jù)失靈”風(fēng)險(xiǎn),即基于原始數(shù)據(jù)的不充分或者瑕疵,在對(duì)數(shù)據(jù)不能形成有效修正的前提下,完全由數(shù)據(jù)計(jì)算得出信息,根據(jù)信息形成外在活動(dòng)。此種風(fēng)險(xiǎn)在于,如果原始數(shù)據(jù)的質(zhì)量不高,或者存有瑕疵,導(dǎo)致人工智能行為按照瑕疵的數(shù)據(jù)邏輯進(jìn)行計(jì)算,就形成潛在危險(xiǎn)。另一種是“數(shù)據(jù)操控”風(fēng)險(xiǎn)。由于人工智能的原始數(shù)據(jù)來(lái)源于人的加工處理,而人的決策難以擺脫個(gè)體價(jià)值的影響,如果一個(gè)對(duì)社會(huì)存有危害意識(shí)的人,通過(guò)數(shù)據(jù)加工,人為地將數(shù)據(jù)進(jìn)行偽造或者篡改,就會(huì)導(dǎo)致人的惡意外化為機(jī)器的危害行為,從而形成巨大的危害風(fēng)險(xiǎn)。

(2)算法風(fēng)險(xiǎn)

算法是一種新型的控制力量和規(guī)制形式。算法是計(jì)算機(jī)計(jì)算或執(zhí)行的一系列解決問(wèn)題的清晰指令。算法的風(fēng)險(xiǎn)主要體現(xiàn)在兩個(gè)方面。一是算法偏見(jiàn)與歧視導(dǎo)致的風(fēng)險(xiǎn)?!八惴▉?lái)自代碼編寫(xiě),從技術(shù)上來(lái)看,程序員按照設(shè)定任務(wù)(應(yīng)用)來(lái)編寫(xiě)源代碼(源程序),并經(jīng)過(guò)編譯程序轉(zhuǎn)換為目標(biāo)代碼或可執(zhí)行代碼”[2],然后控制和指揮人工智能的每一個(gè)動(dòng)作。然而在利益和惡意動(dòng)機(jī)的誘惑下,算法存在偏見(jiàn)就會(huì)導(dǎo)致人工智能的行為存在脫離正?;顒?dòng)或者行為形式的可能性,從而產(chǎn)生外在的風(fēng)險(xiǎn)。二是算法黑箱的風(fēng)險(xiǎn)。計(jì)算機(jī)直接從原始數(shù)據(jù)或者源代碼出發(fā),通過(guò)自我學(xué)習(xí)自動(dòng)生成對(duì)外界的認(rèn)知與行為。在人工智能通過(guò)數(shù)據(jù)與算法的技術(shù)鏈接與操作的過(guò)程中存在著人類無(wú)法操控與洞悉的“黑暗隱層”,稱之為“黑箱”。因此,算法面臨一定的未知風(fēng)險(xiǎn)。由于算法黑箱導(dǎo)致算法自主,從而形成人工智能脫離規(guī)定的正面目標(biāo)任務(wù)而產(chǎn)生反面的破壞活動(dòng)。比如,正在炒菜的機(jī)器人可能會(huì)打砸鍋碗,形成無(wú)法控制的危害風(fēng)險(xiǎn)。

二、人工智能的案例背景與規(guī)范情境:規(guī)范邏輯審視下的危害風(fēng)險(xiǎn)

1.人工智能的事實(shí)風(fēng)險(xiǎn):危害風(fēng)險(xiǎn)的孤立個(gè)案

目前,法學(xué)界探討人工智能存在的事實(shí)風(fēng)險(xiǎn)主要通過(guò)以下案例來(lái)論證?!?979年,一名叫羅伯特·威廉姆斯的美國(guó)人被一重型機(jī)械臂擊中了頭部而死亡。1981年,工程師肯基·鄂瑞達(dá)在修復(fù)機(jī)械手臂的時(shí)候被活活卡死在房屋的柱子上?!盵3]2015年7月,一名德國(guó)大眾汽車制造廠的年輕工人在安裝和調(diào)制機(jī)器人時(shí),被機(jī)器人擊傷胸部[4]。2016年,在深圳舉辦的中國(guó)國(guó)際高新技術(shù)成果交易會(huì)上,發(fā)生了一起一名叫“小胖”的機(jī)器人“故意”傷害他人和毀損財(cái)物的事件。2018年3月亞利桑那州坦佩發(fā)生的一起無(wú)人駕駛汽車事故中,Uber的一輛無(wú)人駕駛汽車撞死了一名行人[5]。英國(guó)首例機(jī)器人心瓣修復(fù)手術(shù)現(xiàn)場(chǎng)大亂,機(jī)器人把病人的心臟放錯(cuò)位置,并戳穿大動(dòng)脈,最終導(dǎo)致病人在術(shù)后一周死亡[6]。上述案例是從事實(shí)風(fēng)險(xiǎn)的角度論證人工智能創(chuàng)設(shè)的風(fēng)險(xiǎn)客觀存在,但上述案例存在以下問(wèn)題:

(1)被忽視的個(gè)案性質(zhì)

就目前學(xué)術(shù)界探討的人工智能危害案例的性質(zhì)而言,基本屬于生活事件,法律定性一般也僅承認(rèn)是意外事件。在20世紀(jì)出現(xiàn)的重型機(jī)械臂殺人的案件,囿于當(dāng)時(shí)的技術(shù)的限制,還處于機(jī)械的范疇之內(nèi),達(dá)不到人工智能的技術(shù)程度。這種事故屬于機(jī)械事故或者安全生產(chǎn)事故。即便2015年大眾公司機(jī)器人“殺人”案中,看似賦予了人工智能某種“意識(shí)”和“行為”的內(nèi)涵,但是從技術(shù)角度判斷來(lái)看,這種人工智能還不屬于強(qiáng)人工智能的技術(shù)范疇。在事故描述上是受害人在安裝和調(diào)制機(jī)器人,說(shuō)明該機(jī)器人并不是處于正常使用和工作之中,還存在人的操作以及機(jī)械的故障等問(wèn)題。所以,上述人工智能產(chǎn)生的傷人的危害結(jié)果,也僅僅是生活中發(fā)生的意外事件或者技術(shù)事故,其風(fēng)險(xiǎn)范疇仍舊屬于傳統(tǒng)風(fēng)險(xiǎn)社會(huì)中的正常的風(fēng)險(xiǎn)范疇。

(2)被遺漏的個(gè)案細(xì)節(jié)

上述案例中所列舉的“機(jī)器人殺人、傷害、毀財(cái)?shù)仁录倍际呛?jiǎn)單化的案例描述,突出機(jī)器人與危害結(jié)果之間的簡(jiǎn)單關(guān)聯(lián)性。但是任何一個(gè)案件尤其是刑事案件中危害后果大都由多種原因?qū)е?,上述的“機(jī)器人殺人、傷害、毀財(cái)事件”也多數(shù)是“多因一果”的案件模式。上述案例的必要細(xì)節(jié)被過(guò)濾,導(dǎo)致無(wú)法準(zhǔn)確地判斷個(gè)案中的因果關(guān)系。以簡(jiǎn)單化的案例,不能得出“智能機(jī)器人實(shí)施嚴(yán)重危害社會(huì)的行為也已經(jīng)真實(shí)地發(fā)生于人們的生活之中”[7]的結(jié)論。前述個(gè)案中的危害后果可能是機(jī)器的故障導(dǎo)致,也可能是人的設(shè)計(jì)與操作等問(wèn)題導(dǎo)致。

(3)被假設(shè)了的邏輯前提

學(xué)界在普遍引用前述案例的基礎(chǔ)上,為了論證人工智能的危害風(fēng)險(xiǎn)都對(duì)論證問(wèn)題的前提進(jìn)行了必要的假設(shè),即“接近奇點(diǎn)理論的時(shí)候,人工智能或者機(jī)器人開(kāi)始脫離人類的控制”[8];如果人工智能技術(shù)能夠向“機(jī)器人類”轉(zhuǎn)變,此時(shí)的智能機(jī)器人就有必要被賦予刑事人格[9];未來(lái)機(jī)器人將會(huì)和人一樣可以自由地活動(dòng)等。問(wèn)題的關(guān)鍵在于這個(gè)假設(shè)的前提即人工智能具有的“辨認(rèn)與控制能力”“自我意識(shí)”“奇點(diǎn)理論的實(shí)現(xiàn)”等是否現(xiàn)實(shí)的存在,且已經(jīng)被證實(shí)的存在。用假設(shè)的前提條件論證虛假的命題,本身就是一種虛假論證。

2.人工智能危害風(fēng)險(xiǎn)的價(jià)值判斷:傳統(tǒng)的危害風(fēng)險(xiǎn)

任何一個(gè)社會(huì)形態(tài)都天然地伴隨著風(fēng)險(xiǎn),從農(nóng)業(yè)社會(huì)的自然風(fēng)險(xiǎn)到工業(yè)社會(huì)的機(jī)械風(fēng)險(xiǎn)再到信息社會(huì)的智能風(fēng)險(xiǎn),社會(huì)層面的風(fēng)險(xiǎn)在不同的歷史階段有不同的表現(xiàn)形式。但是,這種風(fēng)險(xiǎn)的演變?cè)谛再|(zhì)上仍舊是人類活動(dòng)的結(jié)果。從某種意義上講,人工智能技術(shù)的出現(xiàn)是人類物質(zhì)性增強(qiáng)技術(shù)的重大突破,人類可以利用該技術(shù)來(lái)增強(qiáng)精神和身體能力從而拓展外部能力。所以,人工智能將伴隨著人類行為創(chuàng)設(shè)和制造各種社會(huì)風(fēng)險(xiǎn)。學(xué)界普遍認(rèn)為人工智能存在內(nèi)在的技術(shù)風(fēng)險(xiǎn)和外在的社會(huì)風(fēng)險(xiǎn)。對(duì)人工智能技術(shù)發(fā)展風(fēng)險(xiǎn)的擔(dān)憂并非是杞人憂天,而是具有一定現(xiàn)實(shí)性和客觀性[10]。就上述探討的人工智能實(shí)際導(dǎo)致的社會(huì)風(fēng)險(xiǎn)而言,其仍舊屬于傳統(tǒng)的社會(huì)風(fēng)險(xiǎn)的范疇。

(1)人工智能的危害風(fēng)險(xiǎn)不會(huì)引發(fā)人類的生存危機(jī)

風(fēng)險(xiǎn)包含自然風(fēng)險(xiǎn)和社會(huì)風(fēng)險(xiǎn),法律評(píng)價(jià)和關(guān)注的是社會(huì)風(fēng)險(xiǎn)。社會(huì)中任何具有自主能動(dòng)性的“物”,比如動(dòng)物或者人類都可能成為社會(huì)風(fēng)險(xiǎn)的來(lái)源。如前述案例,人工智能也可以在社會(huì)應(yīng)用的場(chǎng)域中形成對(duì)人或者物的危害風(fēng)險(xiǎn)。無(wú)論是工具型的人工智能還是獨(dú)立自主型的人工智能,只要活動(dòng)在社會(huì)關(guān)系中就伴隨著一定的危害風(fēng)險(xiǎn)。人工智能所產(chǎn)生的危害風(fēng)險(xiǎn)仍舊屬于傳統(tǒng)社會(huì)風(fēng)險(xiǎn)的范疇,屬于生產(chǎn)生活中技術(shù)風(fēng)險(xiǎn)的外在延伸。理性地審視這種衍生的危害風(fēng)險(xiǎn),在事實(shí)認(rèn)定和價(jià)值評(píng)判上,其仍舊屬于傳統(tǒng)犯罪風(fēng)險(xiǎn)的范疇。所以,人工智能的危害風(fēng)險(xiǎn)不會(huì)引發(fā)人類的生存危機(jī)。

(2)人工智能的危害風(fēng)險(xiǎn)不會(huì)導(dǎo)致社會(huì)異化

異化是哲學(xué)上的概念,“即由人自身產(chǎn)生出的一種異己的力量”[11]。人失去了自我,受制于這種異己的力量,異化的核心在于人成為客體之物,喪失自我的本質(zhì)。針對(duì)人工智能的危害風(fēng)險(xiǎn)會(huì)不會(huì)導(dǎo)致社會(huì)異化的問(wèn)題,有學(xué)者提出人工智能的負(fù)面后果;人工智能的濫用;人工智能變成了“決策者”具有“算法自主”能力,導(dǎo)致引發(fā)人類身份認(rèn)知的危機(jī)等[12]。這種假設(shè)性的異化風(fēng)險(xiǎn)回避了法律評(píng)價(jià)風(fēng)險(xiǎn)的基礎(chǔ)在于現(xiàn)實(shí)的生活。同時(shí)就異化風(fēng)險(xiǎn)的表現(xiàn)形式而言,人工智能的負(fù)面后果、人工智能的濫用等都不是人工智能異化的表現(xiàn)形式。人工智能的危害風(fēng)險(xiǎn)的來(lái)源、過(guò)程與結(jié)果始終伴隨著人的行為,人工智能永遠(yuǎn)是人工的產(chǎn)物,其引發(fā)的風(fēng)險(xiǎn)依舊脫離不了社會(huì)與人的關(guān)系范疇。因此,人工智能的危害風(fēng)險(xiǎn)不會(huì)導(dǎo)致社會(huì)異化。

(3)人工智能的危害風(fēng)險(xiǎn)仍舊沒(méi)有脫離人的活動(dòng)范疇

毫無(wú)疑問(wèn),人和人工智能在本質(zhì)屬性上就存在巨大的差異。人具有自然和社會(huì)的雙重屬性。人工智能屬于自然的物質(zhì)性范疇,是技術(shù)化的物質(zhì)體質(zhì)。人工智能在存在意義上不等于人,在能力范疇上與人具有巨大的智力差異性。盡管人工智能的技術(shù)越來(lái)越智能化,但是再聰明的“智能”也是“人工”的產(chǎn)物。盡管超人工智能具有語(yǔ)言塑造、自我學(xué)習(xí)、認(rèn)知推理以及創(chuàng)造規(guī)劃等能力,但它屬于“人造”范疇,這些能力的取得來(lái)源于人的能力。所以,人具有全面的能力,人可以改造客觀世界,但是人工智能也僅具有部分行為能力,它的能力范圍僅僅局限于特定的領(lǐng)域范疇。所以,無(wú)論何等智能程度的人工智能所產(chǎn)生的危害風(fēng)險(xiǎn)仍舊沒(méi)有脫離人的活動(dòng)區(qū)域。

三、風(fēng)險(xiǎn)聚焦與限縮:人工智能創(chuàng)設(shè)危害風(fēng)險(xiǎn)的理性審視

1.風(fēng)險(xiǎn)表象:人工智能創(chuàng)設(shè)危害風(fēng)險(xiǎn)的類型化評(píng)價(jià)

隨著人工智能技術(shù)的快速發(fā)展以及在社會(huì)各行業(yè)中的普及應(yīng)用,人工智能各種活動(dòng)的范圍會(huì)不斷擴(kuò)大,活動(dòng)頻率也會(huì)不斷增強(qiáng),人工智能必然會(huì)對(duì)社會(huì)產(chǎn)生一定的危害風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)屬于當(dāng)今社會(huì)科技風(fēng)險(xiǎn)的表現(xiàn)形式,具有一定的跨越時(shí)空性、高度的隱蔽性、不可預(yù)測(cè)性和復(fù)雜的關(guān)聯(lián)性。所以,未來(lái)人工智能創(chuàng)設(shè)的風(fēng)險(xiǎn)既是一種客觀現(xiàn)實(shí)的風(fēng)險(xiǎn),也是一種人們可以獨(dú)自判斷和認(rèn)識(shí)的主觀風(fēng)險(xiǎn)。由于學(xué)界對(duì)人工智能的風(fēng)險(xiǎn)的論證存在實(shí)然與應(yīng)然兩個(gè)層面,對(duì)于未來(lái)人工智能創(chuàng)設(shè)的風(fēng)險(xiǎn)必須堅(jiān)持以實(shí)事求是、科學(xué)理性的態(tài)度去分析評(píng)判。

目前,學(xué)界探討人工智能存在的危害風(fēng)險(xiǎn)主要分為兩種情況。第一種,“工具輔助型”人工智能所產(chǎn)生的危害風(fēng)險(xiǎn),即人工智能的工具性風(fēng)險(xiǎn)。如利用人工智能侵入股市數(shù)據(jù),干擾、控制和影響股市交易從而獲得不當(dāng)利益;利用人工智能侵犯?jìng)€(gè)人隱私或者收集個(gè)人信息,自動(dòng)駕駛帶來(lái)的道路與飛行公共安全風(fēng)險(xiǎn)等。在這種情況下,“人工智能僅僅是人的危害行為借用的工具”。第二種,“獨(dú)立自主型”人工智能所產(chǎn)生的風(fēng)險(xiǎn),即人工智能的功能性風(fēng)險(xiǎn)。有學(xué)者認(rèn)為,強(qiáng)人工智能產(chǎn)品完全有能力在設(shè)計(jì)和編制的程序范圍之外實(shí)施嚴(yán)重危害社會(huì)的行為,完全有可能對(duì)刑法所保護(hù)的社會(huì)關(guān)系造成嚴(yán)重侵害[13]。對(duì)于這種所謂的危害風(fēng)險(xiǎn),多數(shù)是借用電影里虛構(gòu)的場(chǎng)景進(jìn)行假設(shè)性的論證,還沒(méi)有以實(shí)際發(fā)生的社會(huì)案例作為論證事實(shí)。

2.風(fēng)險(xiǎn)聚焦:人工智能創(chuàng)設(shè)危害風(fēng)險(xiǎn)的去偽與存真

人工智能隨著技術(shù)的發(fā)展,會(huì)從單獨(dú)的工具性風(fēng)險(xiǎn)轉(zhuǎn)變?yōu)楣δ苄燥L(fēng)險(xiǎn)。人工智能基于技術(shù)性屬性所產(chǎn)生的工具性風(fēng)險(xiǎn),仍舊屬于傳統(tǒng)的風(fēng)險(xiǎn),是以人作為法律責(zé)任的主體,在法律的邏輯關(guān)系上比較清晰,也能夠有效地進(jìn)行風(fēng)險(xiǎn)處置與預(yù)防。現(xiàn)在法律需要應(yīng)對(duì)和處置的困境在于“獨(dú)立自主型”人工智能所產(chǎn)生的風(fēng)險(xiǎn)問(wèn)題。這種觀點(diǎn)論證的主要理由有:(1)人工智能具有行為和行為能力?!皺C(jī)器人具有獨(dú)立行為”“智能機(jī)器人自主決定并在設(shè)計(jì)和編制的程序范圍外實(shí)施嚴(yán)重危害社會(huì)的行為”[14]。(2)人工智能有自主意識(shí),具有辨認(rèn)和控制能力?!爸悄軝C(jī)器人所具有的獨(dú)立的辨認(rèn)能力和控制能力來(lái)源于程序”[14]79。當(dāng)人工智能體的人工神經(jīng)網(wǎng)絡(luò)規(guī)模足夠龐大時(shí),便會(huì)產(chǎn)生自主意識(shí)[15]。(3)人工智能具有行為能力或者責(zé)任能力。

人工智能獨(dú)立風(fēng)險(xiǎn)學(xué)說(shuō)存在以下幾個(gè)方面的問(wèn)題:

(1)主、客邏輯的錯(cuò)位

一個(gè)不容置疑的事實(shí)是,無(wú)論人工智能有多么智能,它始終是人工的產(chǎn)物。計(jì)算機(jī)是人類為了自身目的而設(shè)計(jì)制造的,這種制造者與被制造者之間的強(qiáng)關(guān)系將人置于面對(duì)面地統(tǒng)治機(jī)器的絕對(duì)優(yōu)越地位[16]。人和人工智能天生就有很大的區(qū)別。人屬于自然的范疇,具有生物體質(zhì)性;人工智能屬于物質(zhì)的范疇,具有技術(shù)體質(zhì)性。人工智能與人的關(guān)系從本源上來(lái)講,人是主體,人工智能是人的智慧與技術(shù)的產(chǎn)物,人工智能始終處于客體地位。人工智能是“人工”的結(jié)果,如果剔除了“人工”又哪里存在“智能”呢?從人工智能的起源動(dòng)機(jī)來(lái)看,人類制造人工智能的出發(fā)點(diǎn)是便捷與服務(wù)人類的自身發(fā)展,滿足人類的利益需求。所以,人工智能具有工具價(jià)值屬性,不具有自我利益訴求和自我獨(dú)立的生理與精神需要的屬性,由于人工智能不存在類人化的需求與利益。所以,處于客體地位的人工智能不會(huì)創(chuàng)設(shè)具有獨(dú)自的、超脫人之外的功能性的社會(huì)風(fēng)險(xiǎn)。

(2)角色假象的錯(cuò)位

把人工智能置于“人”的主體地位進(jìn)行角色聯(lián)想,認(rèn)為人工智能具有獨(dú)自的功能性風(fēng)險(xiǎn)也是人的角色假想的結(jié)果。前述的論證分析無(wú)一例外都加入了假設(shè)的成分。從人類心理安全訴求的角度來(lái)講,每一個(gè)人都極為關(guān)心自己的安全與命運(yùn),人們往往在加害與被害的角色聯(lián)想中進(jìn)一步強(qiáng)化了自己對(duì)于安全的訴求。人們的不安全感來(lái)源于未來(lái)的不確定性,而人工智能導(dǎo)致的危害風(fēng)險(xiǎn)具有極大的不確定性,這進(jìn)一步強(qiáng)化了人們對(duì)人工智能犯罪主體的內(nèi)心印象與確信。通過(guò)假想自己的加害與被害,然后把人機(jī)的犯罪關(guān)聯(lián)性進(jìn)行設(shè)想,就進(jìn)一步強(qiáng)化了要賦予人工智能犯罪主體資格的必要性,從而滿足人類自身的安全訴求。

(3)事實(shí)與價(jià)值的錯(cuò)位

前述論證人工智能可以創(chuàng)設(shè)獨(dú)立性的危害風(fēng)險(xiǎn)的各種觀點(diǎn),不僅進(jìn)行了前提條件的主觀預(yù)設(shè),也直接規(guī)避了事實(shí)問(wèn)題。無(wú)論學(xué)界認(rèn)定的人工智能具有獨(dú)立的行為,還是具有意識(shí)自由以及責(zé)任能力等,都直接用價(jià)值判斷來(lái)代替事實(shí)認(rèn)識(shí)。人工智能能否獨(dú)立地創(chuàng)設(shè)危害風(fēng)險(xiǎn)首先是一個(gè)事實(shí)判斷,即實(shí)際上人工智能在客觀上已經(jīng)產(chǎn)生了獨(dú)立的危害事實(shí),哪怕是一個(gè)孤立的危害事實(shí),都可以作為法律賦予人工智能主體資格的現(xiàn)實(shí)基礎(chǔ)。所以,前述論證人工智能存在功能性風(fēng)險(xiǎn)的觀點(diǎn)在事實(shí)與價(jià)值方面存在錯(cuò)位。

3.風(fēng)險(xiǎn)源頭:從人工智能的危害狀態(tài)轉(zhuǎn)變到人的危害能力

未來(lái)無(wú)論人工智能的智能程度如何超越人類,人與人工智能的關(guān)系始終不可能成為人與“人”的主體平等關(guān)系,這種關(guān)系的構(gòu)建不取決于權(quán)利而取決于能力。幾千年以來(lái),無(wú)論物種怎樣遷徙變化,人始終是地球物種的主人,人類不可能讓渡出自己的主宰地位從而造成人類的生存危機(jī)。所以,人工智能自誕生之日,就脫離不了技術(shù)與客體的宿命,人工智能的超級(jí)智能的產(chǎn)生需要依靠人的技術(shù)與智慧。同時(shí)機(jī)器不可能自我衍生,即脫離了人的技術(shù)作用,其無(wú)法自我繁殖。因?yàn)槿斯ぶ悄芴幱诩夹g(shù)性的客體地位,它不具備主觀的利益追求和客觀的危害行為。所以,人工智能不具備產(chǎn)生危害能力的現(xiàn)實(shí)條件。同時(shí),人工智能不是自然的產(chǎn)物,它具有一定的技術(shù)規(guī)則與程序,人工智能的技術(shù)規(guī)則也限縮了人工智能危害能力的建設(shè)。正如雖然人類掌握了基因編輯嬰兒的技術(shù),但是人類胚胎基因編輯卻仍被嚴(yán)格禁止一樣。基于前述的分析,對(duì)于人工智能的危害風(fēng)險(xiǎn),法律只能評(píng)價(jià)為一種危害狀態(tài),背后的實(shí)質(zhì)是人的危害能力問(wèn)題。所以,法律評(píng)價(jià)風(fēng)險(xiǎn)的重心要從人工智能的危害狀態(tài)轉(zhuǎn)變到人的危害能力上。

4.風(fēng)險(xiǎn)限縮:人工智能創(chuàng)設(shè)危害風(fēng)險(xiǎn)的理性審查

(1)風(fēng)險(xiǎn)的場(chǎng)域限制:市場(chǎng)邏輯的利益驅(qū)動(dòng)導(dǎo)致危害風(fēng)險(xiǎn)范圍有限

任何新生事物的產(chǎn)生與蓬勃發(fā)展背后都有利益驅(qū)動(dòng)。馬克思曾指出:“把人和社會(huì)連接起來(lái)的唯一紐帶是天然必然性,是需要和私人利益?!盵17]人工智能不是自然而然地“憑空”產(chǎn)生,人工智能的存在必須具備一定的條件,基礎(chǔ)的條件是人類技術(shù)的進(jìn)步,但是技術(shù)的進(jìn)步不代表一定能夠融入社會(huì)的場(chǎng)域應(yīng)用。人類技術(shù)的發(fā)展本身就是人類利益的驅(qū)動(dòng)。所以,人工智能的產(chǎn)生與快速發(fā)展的背后是社會(huì)的需求帶動(dòng)下的經(jīng)濟(jì)利益驅(qū)動(dòng)。即從現(xiàn)有的國(guó)家戰(zhàn)略和發(fā)展布局來(lái)看,人工智能主要是服務(wù)經(jīng)濟(jì)社會(huì)發(fā)展的客觀需求。所以,推動(dòng)人工智能的發(fā)展必然有“成本—回報(bào)—收益”的經(jīng)濟(jì)效益的訴求。這就決定了人工智能天然具有經(jīng)濟(jì)屬性,其產(chǎn)生與發(fā)展是成本與效益的市場(chǎng)邏輯的結(jié)果,具有經(jīng)濟(jì)利益的目的性,其適應(yīng)的領(lǐng)域和范圍也具有有限性,即“有利我才在”。人工智能不可能像人或者動(dòng)物的產(chǎn)生或存在一樣具有物種保全和延續(xù)生命的自然屬性,從而可以遍地存在?;谌斯ぶ悄芙?jīng)濟(jì)利益的訴求性,導(dǎo)致其創(chuàng)設(shè)的危害風(fēng)險(xiǎn)的場(chǎng)域范圍有限,風(fēng)險(xiǎn)系數(shù)很低。

(2)風(fēng)險(xiǎn)的技術(shù)限制:被夸大的智能技術(shù)導(dǎo)致危害風(fēng)險(xiǎn)缺乏技術(shù)基礎(chǔ)

現(xiàn)在探討人工智能獨(dú)立的危害風(fēng)險(xiǎn)都是建立在超人工智能具有假設(shè)性的自主意識(shí)和能動(dòng)行為的前提下,它會(huì)像人一樣創(chuàng)設(shè)不可預(yù)料的危害風(fēng)險(xiǎn)。但是必須理性地審視人工智能的發(fā)展之路并非預(yù)想的一帆風(fēng)順,其結(jié)果能否造就出一個(gè)所謂的具有深度學(xué)習(xí)能力的超人工智能是存疑的。理論上的設(shè)想與實(shí)際的產(chǎn)物是兩個(gè)不同的概念。就人工智能技術(shù)而言,“早在1965年,認(rèn)知科學(xué)的代表人物西蒙(H.A.Simon)就曾預(yù)言,‘在20年內(nèi),機(jī)器將能做人所能做的一切’。明斯基(M.Minsky)1977年,也曾預(yù)言,‘在一代人之內(nèi),創(chuàng)造人工智能的問(wèn)題將會(huì)基本解決’”[18]。但是,經(jīng)過(guò)幾十年的發(fā)展,歷經(jīng)研究綱領(lǐng)的數(shù)次變更,存留的三大技術(shù)學(xué)派仍未超出“認(rèn)知可計(jì)算主義”的研究視野與學(xué)科范圍。因此,至今在人工智能領(lǐng)域仍舊沒(méi)有出現(xiàn)技術(shù)性突破且發(fā)展不時(shí)地陷入不曾預(yù)想到的各種困難[16]19,目前這種困難依舊存在且沒(méi)有突破。1936年,圖靈在《論可計(jì)算數(shù)》一文中表示“人類心智活動(dòng)不可能超越任何機(jī)械程序”。對(duì)于人工智能未來(lái)之路其實(shí)還有很多的技術(shù)障礙有待突破。所以,被夸大的人工智能的危害風(fēng)險(xiǎn),目前缺乏技術(shù)基礎(chǔ),未來(lái)存在技術(shù)障礙。從另外一個(gè)角度思考,“技術(shù)”具有兩面性。人工智能會(huì)創(chuàng)設(shè)風(fēng)險(xiǎn),人工智能也可以消解風(fēng)險(xiǎn),利用人工智能的技術(shù)之盾,防備人工智能的風(fēng)險(xiǎn)之矛,也能夠確保人工智能的風(fēng)險(xiǎn)被最小化。

(3)風(fēng)險(xiǎn)的性質(zhì)限制:從風(fēng)險(xiǎn)到實(shí)害的過(guò)程限縮,降低了危害風(fēng)險(xiǎn)

人工智能無(wú)論其智能程度如何,其存在的風(fēng)險(xiǎn),既有作為工具性的危害風(fēng)險(xiǎn),也有作為自主性的危害風(fēng)險(xiǎn)。人工智能作為工具性的風(fēng)險(xiǎn)屬于人的責(zé)任范疇。這種風(fēng)險(xiǎn)屬于傳統(tǒng)的風(fēng)險(xiǎn)范疇且伴隨著人的行為存在且不可消滅。這種風(fēng)險(xiǎn)具有法律的可控制性和責(zé)任的歸宿性。但對(duì)于人工智能自主性的風(fēng)險(xiǎn)還存在跨越時(shí)空性、不可預(yù)測(cè)性和復(fù)雜的關(guān)聯(lián)性。所以,目前探討的人工智能的風(fēng)險(xiǎn)都是一副概率性的圖景,但法律關(guān)注危險(xiǎn)和實(shí)害。從風(fēng)險(xiǎn)到危害或者實(shí)害的轉(zhuǎn)變,是有一個(gè)逐步限縮的過(guò)程。首先,人工智能的應(yīng)用風(fēng)險(xiǎn)要經(jīng)過(guò)實(shí)驗(yàn)室的操作運(yùn)行和技術(shù)驗(yàn)證,只有技術(shù)運(yùn)行穩(wěn)定且成熟才可能擴(kuò)展到社會(huì)應(yīng)用領(lǐng)域。因此,實(shí)驗(yàn)室具有風(fēng)險(xiǎn)的過(guò)濾作用。其次,人工智能的社會(huì)應(yīng)用也有一個(gè)從局部應(yīng)用到全面擴(kuò)展的過(guò)程,相應(yīng)的也會(huì)過(guò)濾掉一定的危害風(fēng)險(xiǎn)。最后,從風(fēng)險(xiǎn)到實(shí)害是一個(gè)從未然到實(shí)然的過(guò)程,這一過(guò)程風(fēng)險(xiǎn)可能會(huì)發(fā)生實(shí)害,也可能不會(huì)發(fā)生實(shí)害。當(dāng)發(fā)生實(shí)害概率很低的時(shí)候,盡管有實(shí)害,但也屬于刑法中被允許的風(fēng)險(xiǎn)范疇。

四、人工智能危害風(fēng)險(xiǎn)的治理體系:風(fēng)險(xiǎn)控制、制度保障與立法監(jiān)管

人工智能的危害風(fēng)險(xiǎn)的社會(huì)治理是一個(gè)系統(tǒng)工程。理性地審視人工智能的危害風(fēng)險(xiǎn),要從技術(shù)治理、道德責(zé)任、制度保障和法律監(jiān)管等多個(gè)層次構(gòu)建人工智能危害風(fēng)險(xiǎn)的治理體系。

1.人工智能危害風(fēng)險(xiǎn)的技術(shù)治理邏輯——技術(shù)治理主義

人工智能危害風(fēng)險(xiǎn)的治理邏輯可以借用技術(shù)哲學(xué)中的技術(shù)治理主義的思路。技術(shù)治理思想被法國(guó)實(shí)證主義哲學(xué)家孔德、英國(guó)哲學(xué)家斯賓塞等人從不同方面發(fā)展。技術(shù)治理主義要求科學(xué)管理與專家治理。

(1)科學(xué)管理:風(fēng)險(xiǎn)分析與風(fēng)險(xiǎn)評(píng)估法

從技術(shù)角度而言,人工智能危害風(fēng)險(xiǎn)治理的邏輯前提是風(fēng)險(xiǎn)評(píng)估與風(fēng)險(xiǎn)分析。具體而言,就是在人工智能生產(chǎn)、制造的過(guò)程中對(duì)一系列風(fēng)險(xiǎn)進(jìn)行的管理步驟,包括風(fēng)險(xiǎn)識(shí)別與評(píng)估、風(fēng)險(xiǎn)管理策略、風(fēng)險(xiǎn)的技術(shù)解決與風(fēng)險(xiǎn)的制度監(jiān)督等。首先,人工智能廣泛應(yīng)用于社會(huì)領(lǐng)域之前要經(jīng)過(guò)危害風(fēng)險(xiǎn)的技術(shù)識(shí)別,確定人工智能在各種應(yīng)用領(lǐng)域可能存在的潛在問(wèn)題和可能造成的各種風(fēng)險(xiǎn),并定性分析其存在的可能后果,得出系統(tǒng)的風(fēng)險(xiǎn)源,并將這些風(fēng)險(xiǎn)源組合成固定的格式文件供以后分析參考。其次,要進(jìn)行風(fēng)險(xiǎn)的技術(shù)評(píng)估,即對(duì)潛在問(wèn)題可能導(dǎo)致的危害風(fēng)險(xiǎn)及其危害后果實(shí)行科學(xué)量化,并確定其嚴(yán)重程度,從而得到系統(tǒng)風(fēng)險(xiǎn)的綜合印象。最后,要進(jìn)行有效的風(fēng)險(xiǎn)管理,“在風(fēng)險(xiǎn)識(shí)別及風(fēng)險(xiǎn)分析的基礎(chǔ)上采取各種措施來(lái)減小風(fēng)險(xiǎn)及對(duì)風(fēng)險(xiǎn)實(shí)施監(jiān)控”[19]。針對(duì)人工智能可能產(chǎn)生的科技風(fēng)險(xiǎn),美國(guó)國(guó)家科學(xué)技術(shù)委員會(huì)也提出了經(jīng)典的風(fēng)險(xiǎn)技術(shù)分析法,即為了保護(hù)公共安全而對(duì)人工智能產(chǎn)品進(jìn)行有效監(jiān)管的方法,應(yīng)通過(guò)評(píng)估人工智能的風(fēng)險(xiǎn)源進(jìn)行有針對(duì)性的技術(shù)應(yīng)對(duì)。對(duì)人工智能的風(fēng)險(xiǎn)分析涉及很多風(fēng)險(xiǎn)因素,諸如智能產(chǎn)品的功能與大小、技術(shù)本身的風(fēng)險(xiǎn)、開(kāi)發(fā)軟件的環(huán)境、組織規(guī)模、人員經(jīng)驗(yàn)和客戶因素等。多年來(lái),科研人員開(kāi)發(fā)了許多風(fēng)險(xiǎn)因素分析法的理論模型,其中美國(guó)信息安全專家Bruce Schneier創(chuàng)設(shè)的風(fēng)險(xiǎn)分析法最為典型,其主要內(nèi)容為:第一,你想保護(hù)哪些資產(chǎn)?第二,這些資產(chǎn)的風(fēng)險(xiǎn)是什么?第三,安全解決方案在多大程度上減輕了這些風(fēng)險(xiǎn)?第四,安全解決方案還會(huì)帶來(lái)哪些風(fēng)險(xiǎn)?第五,安全解決方案會(huì)帶來(lái)哪些成本?[20]這些步驟在解決人工智能危害風(fēng)險(xiǎn)的問(wèn)題上主要是如何科學(xué)地確定人工智能的相關(guān)風(fēng)險(xiǎn)。人工智能在研發(fā)方案上具有不確定性,未來(lái)的應(yīng)用具有不受人主觀控制的因素。只有到智能技術(shù)的實(shí)際應(yīng)用層面,我們才能確定現(xiàn)行解決方案是否能夠充分減輕步驟3所規(guī)定的這些風(fēng)險(xiǎn),即有效地評(píng)估風(fēng)險(xiǎn)分析法的信度和效度。至于第4步和第5步是安全解決方案,它們大多與當(dāng)前制度規(guī)范有關(guān)。需要指出的是,上述風(fēng)險(xiǎn)分析模型是不完善的,因?yàn)樵撃P驼J(rèn)為減少人工智能風(fēng)險(xiǎn)的唯一途徑是依靠風(fēng)險(xiǎn)的評(píng)估制度,而忽視人工智能本身存在的技術(shù)風(fēng)險(xiǎn)。

(2)專家治理:人工智能技術(shù)的專家治理模式

基于規(guī)制人工智能在應(yīng)用場(chǎng)域存在的多方面風(fēng)險(xiǎn),未來(lái)要構(gòu)建多元的專家治理體系,即人工智能本身是科技的范疇,要在社會(huì)領(lǐng)域中構(gòu)建多元主體共同參與的多層次、多學(xué)科、多領(lǐng)域的治理模式,以專業(yè)防范來(lái)有效地應(yīng)對(duì)人工智能的危害風(fēng)險(xiǎn)。從人工智能設(shè)計(jì)、運(yùn)行、應(yīng)用的技術(shù)專家到司法領(lǐng)域的裁判官和與人工智能利益相關(guān)者,諸如科研單位、應(yīng)用企業(yè)和政府等,都要共同處理人工智能產(chǎn)生的危害風(fēng)險(xiǎn)。這種治理模式明顯改變了當(dāng)前社會(huì)在單一領(lǐng)域、單一主體下的單一治理模式。例如,以前法院的法官完全可以單獨(dú)處理的民事侵權(quán)責(zé)任糾紛,法官單一主體在司法這一領(lǐng)域就可以單獨(dú)處置。但未來(lái)涉及到人工智能的侵權(quán)責(zé)任問(wèn)題,必然會(huì)出現(xiàn)多主體、多專業(yè)的“會(huì)診”處置模式。實(shí)際上,在人工智能技術(shù)的專家治理模式下,“各方各有所長(zhǎng),各有所短。作為現(xiàn)代治理主導(dǎo)力量和公共政策制定者的政府往往缺乏專業(yè)技術(shù)儲(chǔ)備、技術(shù)預(yù)見(jiàn)性和行業(yè)前瞻性,作為技術(shù)開(kāi)發(fā)者和推廣者的企業(yè)則無(wú)法保持令人信服的中立性和權(quán)威性,而作為人工智能直接受眾的廣大民眾和社會(huì)組織雖然其日常生活和基本權(quán)益倍受影響卻無(wú)法成為主導(dǎo)性力量。顯然,最佳的治理策略必須是各方聯(lián)合行動(dòng)、共同參與,在對(duì)話、協(xié)商甚至彼此競(jìng)爭(zhēng)、相互博弈中尋找最為合理的解決方案”[21]。只有這樣,才能針對(duì)人工智能的危害風(fēng)險(xiǎn)的預(yù)防、過(guò)程監(jiān)管與處置等各環(huán)節(jié),共同有效地預(yù)防與處置。

2.人工智能危害風(fēng)險(xiǎn)的規(guī)范治理基礎(chǔ)——道德責(zé)任原則

(1)機(jī)器倫理:阿西莫夫三定律

為了避免人工智能可能造成的社會(huì)危害后果,抑制人工智能的危害風(fēng)險(xiǎn),有人在機(jī)性上提出了道德準(zhǔn)則,賦予機(jī)器人更加人性化的內(nèi)在約束。著名的科幻作家I.阿西莫夫已經(jīng)提出了機(jī)器人的倫理法則,即“阿西莫夫三定律”和“第零定律”?!鞍⑽髂蛉伞敝饕獌?nèi)容包括:第一定律,機(jī)器人不得傷害人類且要積極保護(hù)人類;第二定律,機(jī)器人必須服從人類的任何指令;第三定律,機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。此后,阿西莫夫以保護(hù)人類整體利益共同體為目標(biāo),提出了“第零定律”。該定律的核心思想是“機(jī)器人必須保護(hù)人類的整體利益不受傷害,將保護(hù)整體人類(humanity)作為機(jī)器人學(xué)的本初法則”[22]。在《紐約時(shí)報(bào)》最近的一篇專欄文章中,華盛頓大學(xué)教授Oren Etzioni 提出對(duì)人工智能系統(tǒng)的限制規(guī)則。第一,人工智能系統(tǒng)必須遵守適用于人類操作者的全部法律;第二,人工智能系統(tǒng)必須清楚地表明它不是人類;第三,未經(jīng)信息源的明確批準(zhǔn),人工智能系統(tǒng)不能保留或披露機(jī)密信息[19]11。以上是針對(duì)人工智能提出的最低限度的道德要求。究其實(shí)質(zhì)而言,實(shí)際上更多的道德要求是賦予背后對(duì)人的更高要求。

(2)人類底線:道德原則與道德規(guī)制

從本源上來(lái)講,人工智能的危害風(fēng)險(xiǎn)控制的關(guān)鍵在于“防人甚于防機(jī)”。從社會(huì)風(fēng)險(xiǎn)的來(lái)源及其表現(xiàn)形式來(lái)看,當(dāng)代人工智能的風(fēng)險(xiǎn)主要是人性風(fēng)險(xiǎn)。正如貝克指出:“各種風(fēng)險(xiǎn)其實(shí)是與人的各項(xiàng)決定緊密相連的,自然和傳統(tǒng)無(wú)疑不再具備控制人的力量,而是處于人的行動(dòng)和人的決定的支配之下?!盵23]不管未來(lái)的人工智能的智能水平如何,現(xiàn)實(shí)的定性是它始終處于技術(shù)的范疇之內(nèi)。前哈佛大學(xué)教授 E·梅塞納指出:“技術(shù)產(chǎn)生什么影響、服務(wù)于什么目的,這些都不是技術(shù)本身所固有的,而是取決于人用技術(shù)來(lái)做什么?!盵24]人工智能創(chuàng)設(shè)的風(fēng)險(xiǎn)始終伴隨著人的作用。所以,防范人工智能的危害風(fēng)險(xiǎn)必須要對(duì)人提出更高的道德要求。具體而言,在設(shè)計(jì)階段應(yīng)該強(qiáng)化對(duì)于人工智能算法與數(shù)據(jù)提供的技術(shù)與倫理的監(jiān)管。如有的學(xué)者提出,“要求設(shè)計(jì)者在設(shè)計(jì)算法過(guò)程中嵌入算法倫理。以立法形式要求算法通過(guò)道德審查標(biāo)準(zhǔn)”[1]24、“要求信息技術(shù)專家、社會(huì)學(xué)家等形成專家治理團(tuán)隊(duì)共同研究和設(shè)計(jì)在每一個(gè)階段中人工智能的倫理框架和道德準(zhǔn)則”[22]361,[25]等。

目前,為了約束人工智能技術(shù)研發(fā)人員,已經(jīng)出臺(tái)了關(guān)于人工智能技術(shù)倫理方面的道德準(zhǔn)則建設(shè)。比如在ASILOMAR 會(huì)議上制定的“阿西洛馬人工智能原則”,以及2017年 IEEE 電氣電子工程師學(xué)會(huì)提出的關(guān)于人工智能系統(tǒng)倫理全球倡議項(xiàng)目《人工智能設(shè)計(jì)的倫理準(zhǔn)則》,都是通過(guò)道德倫理準(zhǔn)則對(duì)從事人工智能領(lǐng)域的科研設(shè)計(jì)人員提出的行為道德規(guī)范準(zhǔn)則。2010年,美國(guó)組建的計(jì)算機(jī)責(zé)任特別委員會(huì)對(duì)智能產(chǎn)品研發(fā)人員系統(tǒng)提出道德原則,主要是用道德規(guī)范限制和約束工程師的設(shè)計(jì)、制造等行為,對(duì)他們參與設(shè)計(jì)的行為負(fù)責(zé)。第一條就明確了設(shè)計(jì)、開(kāi)發(fā)以及應(yīng)用智能產(chǎn)品的人員負(fù)有道德責(zé)任,也對(duì)可預(yù)見(jiàn)的產(chǎn)品后果負(fù)責(zé)。正如勞倫斯·萊斯格(Lawrence Lessig)所說(shuō):在現(xiàn)實(shí)生活中,我們認(rèn)識(shí)到法律是如何規(guī)范的——通過(guò)憲法、成文法和其他法律規(guī)范。在網(wǎng)絡(luò)空間中,我們必須理解不同的“代碼”是如何調(diào)控的——軟件和硬件[20]12-13,這段“代碼”就是網(wǎng)絡(luò)空間的“法律”。這一聲明是關(guān)于網(wǎng)絡(luò)空間的,同樣適用于支持人工智能的設(shè)備。計(jì)算機(jī)代碼的存在是為了執(zhí)行已經(jīng)設(shè)定好的功能。這些功能是由他們的程序員編寫(xiě)的,這些程序員在某種程度上充當(dāng)立法者的角色,因?yàn)樗麄兛梢詮?qiáng)迫設(shè)備以某種方式工作,或者禁止它這樣做。所以,人是人工智能程序代碼的編寫(xiě)者,在預(yù)防人工智能侵權(quán)的情況之下,除了事后的法律問(wèn)責(zé),更為關(guān)鍵的是要讓人工智能程序的編寫(xiě)者、開(kāi)發(fā)者和人工智能的制造者遵守基本的道德原則與程序規(guī)范。

3.制度保障:從審批登記制度到強(qiáng)制保險(xiǎn)制度

(1)審批與登記制度

要加強(qiáng)對(duì)人工智能風(fēng)險(xiǎn)源頭的監(jiān)管,就需要對(duì)人工智能進(jìn)行必要的審批與登記,采用強(qiáng)制審批與登記制度。強(qiáng)制審批登記制度對(duì)于防范人工智能存在的危害風(fēng)險(xiǎn)以及基于人工智能缺陷導(dǎo)致的侵權(quán)判斷和履行侵權(quán)責(zé)任方式等都具有重要意義。第一,從風(fēng)險(xiǎn)源頭的監(jiān)管上有利于保證人工智能的技術(shù)慎重,保證人工智能的安全可靠性。第二,可以對(duì)人工智能的日?;顒?dòng)進(jìn)行有效的監(jiān)控,判斷人工智能的活動(dòng)是否超越了審批登記的范疇,是否被人進(jìn)行了非法利用,有利于厘清人機(jī)之間的責(zé)任。第三,可以根據(jù)登記和審批的技術(shù)標(biāo)準(zhǔn)盡快地查清人工智能侵權(quán)的因果關(guān)系問(wèn)題,防止在事故發(fā)生以后,因?yàn)槿说囊蛩貙?duì)相關(guān)的設(shè)備或者程序進(jìn)行惡意刪減或者修改。人工智能恪守登記出生主義的原則是以安全為邏輯起點(diǎn),通過(guò)登記來(lái)管控未來(lái)可能出現(xiàn)的危害風(fēng)險(xiǎn)。登記出生主義涉及技術(shù)標(biāo)準(zhǔn)、數(shù)據(jù)保存、活動(dòng)區(qū)域與工作性質(zhì)甚至風(fēng)險(xiǎn)責(zé)任的劃分等,如果進(jìn)行了有效的登記公示,則完全可以作為責(zé)任劃分的參考依據(jù)。

(2)強(qiáng)制保險(xiǎn)制度

在科技風(fēng)險(xiǎn)語(yǔ)境之下,人類對(duì)于技術(shù)發(fā)展與進(jìn)步的渴求與人類的安全的訴求之間存在一定的緊張關(guān)系。有效的社會(huì)保障制度可以緩解這種緊張關(guān)系,使得技術(shù)的發(fā)展不會(huì)因?yàn)榧夹g(shù)的風(fēng)險(xiǎn)被扼殺或者剝奪。社會(huì)保障體系中最重要的就是社會(huì)保險(xiǎn)體制。所以,構(gòu)建人工智能的強(qiáng)制保險(xiǎn)制度可以很好地規(guī)避人工智能的危害風(fēng)險(xiǎn),使人從保險(xiǎn)的財(cái)產(chǎn)補(bǔ)償中獲得平衡感和安全感,尋求一種風(fēng)險(xiǎn)化解之后的確定性的狀態(tài)。正如汽車的發(fā)展與普及導(dǎo)致交通事故的風(fēng)險(xiǎn)一樣,在制度保障上,構(gòu)建強(qiáng)制保險(xiǎn)制度是化解人工智能的危害風(fēng)險(xiǎn)的最重要的保障制度。因此,在法律適應(yīng)規(guī)則上要構(gòu)建強(qiáng)制保險(xiǎn)制度和司法的強(qiáng)制賠償制度。

4.法律監(jiān)管:從立法規(guī)制到司法歸責(zé)

(1)立法規(guī)制

《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》中明確提到,要“加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問(wèn)題研究,制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”[26]。當(dāng)然,監(jiān)管的有效途徑仍然是立法監(jiān)管。正如美國(guó)Paul Giannellia教授所言:作為法律專業(yè)人士,面對(duì)我們不太了解的技術(shù),我們的第一反應(yīng)往往是走立法的道路,起草一個(gè)法律框架,以規(guī)范這些技術(shù)的使用和傳播。人工智能也沒(méi)能逃脫這一趨勢(shì),因?yàn)槊绹?guó)許多州已經(jīng)通過(guò)了旨在限制在某些領(lǐng)域使用人工智能的立法。事實(shí)上,到21世紀(jì)末將起草一項(xiàng)統(tǒng)一的人工智能法案。美國(guó)企業(yè)家埃隆·馬斯克(Elon Musk)也懇求立法者們迅速采取行動(dòng)來(lái)規(guī)范人工智能。歷史已經(jīng)證明,他關(guān)于為科學(xué)技術(shù)變革立法的主張是正確的,他的說(shuō)法已經(jīng)可以在人工智能的一個(gè)領(lǐng)域得到驗(yàn)證,那就是自動(dòng)駕駛汽車。迄今為止,美國(guó)已有21個(gè)州通過(guò)了有關(guān)自動(dòng)駕駛汽車的立法,預(yù)計(jì)還會(huì)有更多州效仿,美國(guó)聯(lián)邦政府目前也在起草一項(xiàng)法案來(lái)規(guī)范自動(dòng)駕駛汽車的使用[20]10。2017年美國(guó)計(jì)算機(jī)協(xié)會(huì)出臺(tái)了“算法問(wèn)責(zé)法案”,并成立了專門工作組和聯(lián)邦人工智能發(fā)展應(yīng)用咨詢委員會(huì);同年,歐盟會(huì)議制定并通過(guò)了《機(jī)器人民事法律規(guī)則》;韓國(guó)和愛(ài)沙尼亞都制定了《機(jī)器人基本法案》;2018年英國(guó)議會(huì)對(duì)人工智能進(jìn)行了特別立法,即其下設(shè)的人工智能特別委員會(huì)發(fā)布了《英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向》的報(bào)告,該報(bào)告的具體內(nèi)容主要包括人工智能開(kāi)發(fā)、設(shè)計(jì)、應(yīng)用和人工智能的法律責(zé)任以及數(shù)據(jù)安全和算法歧視等問(wèn)題。

隨著人工智能的廣泛普及與快速發(fā)展,未來(lái)法律會(huì)面對(duì)很多已知和未知的社會(huì)問(wèn)題亟須立法解決,正如前述的案例,人工智能的危害風(fēng)險(xiǎn)導(dǎo)致的責(zé)任問(wèn)題將是法律亟須解決的問(wèn)題之一。《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》也要求承擔(dān)開(kāi)展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任研究工作。隨著人工智能技術(shù)的普遍應(yīng)用,它必將深刻影響人們的生活,從立法的宏觀方面來(lái)看,必須要考慮起草一項(xiàng)統(tǒng)一的《人工智能法案》,統(tǒng)一規(guī)范人工智能的技術(shù)發(fā)展、技術(shù)參數(shù)、技術(shù)倫理以及責(zé)任分配等,以解決人工智能發(fā)展中出現(xiàn)的法律問(wèn)題。從微觀領(lǐng)域來(lái)看,未來(lái)在社會(huì)生活的某些具體領(lǐng)域必然會(huì)出現(xiàn)人工智能的具體應(yīng)用,比如交通領(lǐng)域的無(wú)人自動(dòng)駕駛汽車以及醫(yī)療和家庭服務(wù)中的人工智能。所以,未來(lái)在保持原有的法律體系范疇內(nèi),可以通過(guò)立法制定統(tǒng)一的《人工智能法案》。該法案可以采用從總則到分則的立法模式,對(duì)人工智能分階段、分職業(yè)地具體規(guī)范。通過(guò)立法可以更好地化解人工智能的危害風(fēng)險(xiǎn),為以后出現(xiàn)的危害結(jié)果的責(zé)任劃分提供明確的法律依據(jù)。

(2)司法歸責(zé)

對(duì)于人工智能產(chǎn)生的危害風(fēng)險(xiǎn)可以用不同的方式進(jìn)行調(diào)控和規(guī)制。司法是規(guī)制智能風(fēng)險(xiǎn)的必備手段,也是解決糾紛、穩(wěn)定社會(huì)秩序的主要手段。對(duì)于前文列舉的自動(dòng)駕駛汽車Uber撞死人案例。該案明顯在法律歸責(zé)方面顯得赤手無(wú)策。面對(duì)人工智能的危害風(fēng)險(xiǎn)以及所產(chǎn)生的社會(huì)實(shí)害問(wèn)題,有效科學(xué)的司法歸責(zé)對(duì)于化解智能風(fēng)險(xiǎn)與解決社會(huì)實(shí)害問(wèn)題極為重要。面對(duì)頻發(fā)的人工智能“傷人”與“毀壞財(cái)物”案件,司法必須走出歸責(zé)困境。從司法角度來(lái)看,諸如《人工智能法案》這種直接的立法模式可以及時(shí)有效地解決司法歸責(zé)依據(jù)不足問(wèn)題,從而理順“人機(jī)”之間的法律關(guān)系,讓智能風(fēng)險(xiǎn)涉及的責(zé)任主體在“扯不清、理還亂”的歸責(zé)邏輯中進(jìn)一步明確化、穩(wěn)定化。因此,在立法上有必要強(qiáng)化人工智能在研發(fā)、設(shè)計(jì)、制造和使用各階段存在的智能風(fēng)險(xiǎn)防范的義務(wù)主體,以及對(duì)社會(huì)造成實(shí)害時(shí)的司法賠償?shù)呢?zé)任主體。

面對(duì)人工智能在現(xiàn)實(shí)生活中可能出現(xiàn)的危害風(fēng)險(xiǎn),強(qiáng)化對(duì)人工智能在研發(fā)、設(shè)計(jì)、制造等階段風(fēng)險(xiǎn)的技術(shù)控制是治理之本。在社會(huì)治理體系上,要從道德上強(qiáng)化人工智能設(shè)計(jì)研發(fā)人員的倫理責(zé)任,強(qiáng)化針對(duì)人工智能相關(guān)危害風(fēng)險(xiǎn)的立法監(jiān)管,制定統(tǒng)一的法律規(guī)范,這樣才能更好地為司法相關(guān)提供明確的解決人工智能風(fēng)險(xiǎn)與危害的法律依據(jù)。

猜你喜歡
危害人工智能算法
降低燒烤帶來(lái)的危害
藥+酒 危害大
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
進(jìn)位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
酗酒的危害
下一幕,人工智能!
张家界市| 泗洪县| 鄯善县| 互助| 晴隆县| 台东市| 黄大仙区| 深圳市| 和龙市| 镇宁| 南漳县| 贡嘎县| 大丰市| 东兰县| 云安县| 西和县| 日土县| 东城区| 鄂伦春自治旗| 克什克腾旗| 丰县| 巴林右旗| 唐海县| 石阡县| 金寨县| 西藏| 来凤县| 大港区| 兴宁市| 凌海市| 广水市| 东乡| 盱眙县| 大港区| 南靖县| 昭平县| 西宁市| 阿克| 阜康市| 新竹市| 屏边|