国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能駕駛侵權(quán)責(zé)任的判定方法

2021-04-17 04:29:30孫日華
關(guān)鍵詞:領(lǐng)域主體人工智能

孫日華,任 欣

(河北地質(zhì)大學(xué) 法政學(xué)院,河北 石家莊 050031)

一、問題緣起

信息技術(shù)的不斷革新和發(fā)展可謂迎來了又一次科技革命。其中,人工智能的研究和應(yīng)用也正不斷影響著我們的社會和生活,一些行業(yè)甚至已經(jīng)開始運用具有認(rèn)知能力的人工智能來替代人工雇員[1]。自動駕駛汽車的出現(xiàn),也在駕駛領(lǐng)域擴展了“駕駛?cè)恕钡姆秶?便利了個人的出行。這不僅簡化了駕駛操作,給駕駛者減輕了負(fù)擔(dān),更為老年人、視力受損者或因其他身體原因不能親自駕駛汽車的人提供了出行便捷[2]。而人工智能在駕駛中的應(yīng)用不僅包含我們通常理解的無人駕駛,即在一種沒有人工操作和干預(yù)的情況下,依靠傳感器、全球定位系統(tǒng)等人工智能技術(shù)實現(xiàn)車輛自主駕駛的機動車,更包括智能駕駛的過程[3]。無人駕駛的出現(xiàn)以其“智能化”的標(biāo)準(zhǔn)更挑戰(zhàn)著目前駕駛領(lǐng)域駕駛者的技術(shù)與社會規(guī)范。

自動駕駛汽車無疑是人工智能研究中短期內(nèi)最有前景的領(lǐng)域之一,但作為新興之物,也必然引發(fā)制度上的反思。人工智能在駕駛中的困境和迷思集中在著名的“電車難題”①“電車難題”是法律經(jīng)濟學(xué)理論中最經(jīng)典的案件之一。它通過一個思想實驗,試圖解釋在緊急情況下,基于成本-收益的分析,如何做出理性選擇,但不同學(xué)者依舊對此爭論不休,至今沒有確定結(jié)論,畢竟道德和經(jīng)濟因素似乎都是我們無法規(guī)避的生活選項。中。尤其人工智能對駕駛界的大舉入侵,要思考的不僅僅是是否轉(zhuǎn)軌道而對一個抑或五個生命的衡量,還有車主、乘客與車外第三人的取舍。雖然這些問題在人類自身駕駛的領(lǐng)域也會存在,但人工智能中的駕駛不是人類緊急情況下或有道德指引的決策行動,而是通過算法的形式提前固定在人工智能的產(chǎn)生伊始。這種選擇在人工智能的駕駛領(lǐng)域無法改變,事故下的悲慘結(jié)局也在意外發(fā)生之初就已經(jīng)有了定局。

不能天真地將這種決策寄托于人工智能的情感擁有和道德決斷,起碼從目前來看,我們看到的AI背后大都靠算法和編程運行。沙特阿拉伯被授予正式公民身份叫Sophia的機器人也只是一個帶喇叭的木偶——我們所見各種發(fā)言和采訪,都是由人工撰寫內(nèi)容,然后合成語音輸出,最終成為我們所見的“人工智能”自主言論的騙局,駕駛領(lǐng)域人工智能的問題也還需要制度的規(guī)制。季衛(wèi)東認(rèn)為需要平衡好產(chǎn)業(yè)與AI治理之間的關(guān)系,防止人工智能“黑箱化”,加強人工智能治理中的“軟法”與“硬法”相結(jié)合。馬長山總結(jié)了當(dāng)前法律與AI之間的兩條道路,即把AI納入法律規(guī)制框架和把法律轉(zhuǎn)化為智能系統(tǒng),據(jù)此提出了“第三條道路”——法學(xué)與技術(shù)的對話、法律與人工智能的融合[4]。申衛(wèi)星認(rèn)為計算法學(xué)需要從計算思維研究法律問題,開展法律大數(shù)據(jù)分析[5]。宋保振則從數(shù)字權(quán)利和算法角度解讀人工智能所帶來的法律挑戰(zhàn),引發(fā)深刻的人工智能法律規(guī)制的思考[6]。而本文在其上述學(xué)者關(guān)于人工智能思考的基礎(chǔ)上,選取人工智能駕駛領(lǐng)域,切入其侵權(quán)責(zé)任中的利益平衡以及由此產(chǎn)生的當(dāng)下法律挑戰(zhàn),從其潛在的侵權(quán)可能性(或者必然)的角度開展分析,并試圖通過各種制約要素分析來解讀責(zé)任的設(shè)定,融合法教義學(xué)和社科法學(xué)的核心要點,構(gòu)造侵權(quán)責(zé)任的方法體系,以期最終提升整體社會福利和技術(shù)發(fā)展,而不是因此帶來災(zāi)難。

二、成本、分配與侵權(quán)責(zé)任的經(jīng)濟學(xué)推演

在侵權(quán)責(zé)任中,法經(jīng)濟學(xué)有著重要的理論支撐作用。以經(jīng)濟學(xué)為視角,不再單一地區(qū)分損害人和被害人,而將侵害作為雙方或多方相互關(guān)系來處理。法律在維護秩序的同時,也在通過不同利益之間的選擇和衡平追求經(jīng)濟與社會帕累托改進的過程,即在通過責(zé)任的分配體現(xiàn)價值衡量的結(jié)果,從而反向引導(dǎo)不同主體在不同角色中承擔(dān)相應(yīng)的注意義務(wù);同時,也通過責(zé)任分配的方式,調(diào)整事件中不同主體間的成本,基于選擇理性的考量,使人們趨向于選擇對其效用最大化的行為。而對社會整體而言,責(zé)任分配下的損害承擔(dān)和其導(dǎo)向的預(yù)防成本的支出,能使資源流向所需者,提高整體效率。

法律經(jīng)濟學(xué)站在理性人的角度,即每個人都會基于成本收益的考量選擇自身行為。因此,法律通過三個途徑影響個人行為:一是設(shè)定個人行為規(guī)則,二是改變個人偏好,三是協(xié)調(diào)人的預(yù)期,最終協(xié)調(diào)均衡結(jié)果[7]?;诖?對于某一行為的法律威懾將取決于抓獲概率與懲罰的嚴(yán)厲程度,這對于設(shè)定法律責(zé)任具有重要的指引價值,針對人工智能自動駕駛,這一經(jīng)濟學(xué)規(guī)則同樣適用。

目前,在關(guān)于駕駛責(zé)任的規(guī)定中,幾乎都依托于“人”和“車”兩個主體,主要考量行人為主的“生命權(quán)”和“車”——即“駕駛者”的相關(guān)行駛權(quán)利。我國《道路交通安全法》中,對二者責(zé)任做了基本劃定。在實踐過程中,侵權(quán)的發(fā)生通?;谛袨槿艘环交螂p方的過錯或過失,目前制度中也將過錯責(zé)任作為常見的歸責(zé)原則,根據(jù)行為人的過錯程度來劃分責(zé)任;同時,也引入無過錯責(zé)任,對機動車的責(zé)任進行了強約束。交通事故處理中的以“過錯”為論,過者擔(dān)責(zé)和雙方過錯下按照比例擔(dān)責(zé),直接體現(xiàn)了公平的法律價值,也是分配下的經(jīng)濟結(jié)果;而在雙方無過錯下的承擔(dān)方式則考量了雙方力量、成本和預(yù)防成本和發(fā)生的概率。機動車一方無過錯也應(yīng)承擔(dān)一定的責(zé)任之規(guī)定,雖然看似對機動車一方缺失公平,但制定的初衷在彌補行人受害者損失的同時,也在一定程度上強化了機動車的注意義務(wù)。立法者的初衷可能認(rèn)為機動車在道路上存在著客觀優(yōu)勢,即與行人發(fā)生交通事故損失較小、傷亡較低。但是,我們需要考量一個很重要的經(jīng)濟學(xué)原理,即責(zé)任規(guī)則的設(shè)定是基于誰避免事故發(fā)生的成本越低,責(zé)任就歸誰的原理[8]。對此,機動車和行人誰的防范成本更低呢?這是需要做詳細(xì)考證的。筆者認(rèn)為在正常情況下,即行人行為能力完全具備的情形之下,自我掌控行走行為的能力比機動車駕駛?cè)苏莆漳芰Ω鼜?走路總比駕車熟練),其防范事故發(fā)生的成本可能會更低,以此類推,責(zé)任應(yīng)該還原于過錯責(zé)任。但是,這可能受到道德的質(zhì)疑,畢竟,道德的底色具有慣性,并且影響深遠(yuǎn)且難以改變。也可能站在技術(shù)的角度論證機動車的防范事故成本更低,畢竟立場的差異會出現(xiàn)不同的思辨。當(dāng)然,法教義學(xué)傾向于做邏輯的、倫理的判斷,從文本主義角度切入對機動車無過錯責(zé)任認(rèn)定的判斷,并加以概率意義上的推理和分析,但從經(jīng)濟學(xué)角度開展反思也尤其必要和意義重大,尤其在關(guān)于人工智能駕駛層面開展責(zé)任分析方面,具有較大的比較優(yōu)勢。

總之,侵權(quán)責(zé)任重法經(jīng)濟的應(yīng)用,一方面通過補償受害者的方式填平其損失,以實現(xiàn)社會公正,達到法律的制度初衷;另一方面,通過規(guī)制促使偏向于支配的一方行為人增加“注意義務(wù)”,減少以雙方為整體的成本,從而達到提高社會效率的目的。這才是一種理想狀態(tài)(抑或理論狀態(tài)),并因此開展侵權(quán)責(zé)任的設(shè)定。那么,在人工智能駕駛領(lǐng)域是否可以嘗試這一推理的制度安排,需要我們在下文中進行深入的探討與交流,用理論去推測實踐的可能性,很多時候也是可以的,沒準(zhǔn)這一理論夠幸運呢。

三、傳統(tǒng)侵權(quán)制度面對人工智能駕駛的責(zé)任挑戰(zhàn)

(一)侵權(quán)基理的沖擊

駕駛責(zé)任的承擔(dān),更是人工智能在駕駛方面的一項重大議題。誠然,人工智能在駕駛中的應(yīng)用,在保障道路通暢度和節(jié)約能源方面起到一定作用,也使得現(xiàn)實技術(shù)取代了人類的自然理性,極大程度上避免或減少了“疏忽”和“過失”引發(fā)的交通事故。但這種人為的事故只是在人工智能的介入下減少而非避免,而由于人工智能對于駕駛的操縱,也在一定程度上給侵權(quán)行為的法律規(guī)定造成了困惑。換言之,人工智能的介入,部分或全部替代了人類現(xiàn)有對駕駛的“掌控”,打破了傳統(tǒng)侵權(quán)法中的責(zé)任規(guī)定,也打破了原本傳統(tǒng)道路中的“人”“車”格局的利益衡平。

人工智能對駕駛領(lǐng)域的侵入,關(guān)注的核心是主體問題。即人工智能能不能成為法律上的主體從而承接駕駛過程中的責(zé)任和義務(wù)。而另一方面,人工智能的設(shè)計者、制造者,甚至銷售者應(yīng)該在其中扮演什么角色。這些主體之間的模糊和絞合也沖擊著傳統(tǒng)的包含民刑責(zé)任在內(nèi)的道路交通法律體系。法律總是滯后的,尤其在人工智能的異軍突起面前,更顯得手足無措。

不可否認(rèn),科學(xué)的進步在于便捷人們的生活,對日常勞作進行部分替代,從而使我們從繁重的、重復(fù)的工作中解放出來,但這絕不意味著對人類權(quán)利的剝奪。隨著人工智能的繼續(xù)研究和發(fā)展,駕駛領(lǐng)域會趨于智能化或無人化?;蛟S未來的某一天,在駕駛領(lǐng)域,人工智能的控制占據(jù)了絕大多數(shù),甚至鮮少有人為操縱汽車駕駛的出現(xiàn)。但相信這并不是對人類駕駛的完全禁止,不論是基于人工智能操縱故障、作為人類的及時需求或其他突發(fā)情況,都可能有人為駕駛的出現(xiàn)。因此,在利益關(guān)系的衡量中,既不能只考慮單一人為駕駛中的情形,也不能理想化地將人工智能作為唯一汽車操縱者的理念作為制度制定或損益分配的背景。就算真的有人工智能統(tǒng)領(lǐng)駕駛領(lǐng)域的存在,也非短期內(nèi)的結(jié)果,而我們在一定時間內(nèi)都會趨于或處于人工智能和人為駕駛共存的狀態(tài)。因此,在制度制定和利益的考量中也應(yīng)該在傳統(tǒng)的“人” “車”中加入“人工智能”的角色,甚至包含人工智能制造者、管理者等主體?!毒S也納道路交通公約》也于2016年對原車輛必須含一名駕駛?cè)诉M行了修改,有條件地將車輛的駕駛責(zé)任賦予了自動駕駛系統(tǒng)。但需要注意的是,傳統(tǒng)侵權(quán)法中的過錯原則不能夠適用于人工智能。人工智能的獨立操作和運轉(zhuǎn)脫離人為控制,就人工智能本身來說無過錯或過失一說,無法運用過錯原則或傳統(tǒng)侵權(quán)理論中其他主觀歸責(zé)原則以判斷責(zé)任。而且人工智能作為我們生活中的工具,沒有承擔(dān)責(zé)任的能力,就算受害者出于懲罰式的破壞人工智能也并不能在實質(zhì)上彌補受害者,也更不能減少事故發(fā)生的概率。

而在責(zé)任的承擔(dān)上,尤其無人駕駛的出現(xiàn),沖擊了傳統(tǒng)侵權(quán)責(zé)任的過錯分配,對于人工智能來講,再不能以“過錯”為論,而只有代碼和執(zhí)行下的是與非[9];同時,在人工智能駕駛領(lǐng)域中,主體關(guān)系發(fā)生直接的變化,原交通道路法律關(guān)系中的“駕駛?cè)恕币环皆谥悄荞{駛和無人駕駛中被弱化甚至消失,更使得傳統(tǒng)的道路交通法律規(guī)定不再與人工智能下的新型駕駛領(lǐng)域相契合。

(二)法律責(zé)任的絞合

以經(jīng)濟學(xué)的角度,達到社會效益最大化的制度才是好的制度安排。而在人工智能的駕駛上,人工智能雖然在駕駛領(lǐng)域擁有行為“人”的能力,但其并不能獨立承擔(dān)責(zé)任,更沒有法律意義上的行為能力。目前,各國對此的規(guī)制不盡相同。德國的《道路交通法》中,針對目前的自動駕駛系統(tǒng)對駕駛員設(shè)置了“合理時間內(nèi)監(jiān)管”的義務(wù)[10];美國對其引發(fā)的侵權(quán)責(zé)任避而遠(yuǎn)之,在一起無人駕駛汽車和公共汽車間的交通事故中,最終法院以人工智能視為“駕駛員”劃定責(zé)任;而英國對于人工智能駕駛中的責(zé)任規(guī)定中,將汽車強制險的適用擴大到了產(chǎn)品責(zé)任,以在圖人工智能完全控制駕駛的情形中,予以受害者一定的保障。但上述均存在一定的問題:對于德國的合理時間監(jiān)管中,對于這段時間究竟有多久,如果因駕駛員沒有在“合理時間內(nèi)”監(jiān)管引發(fā)的責(zé)任如何承擔(dān)等問題并沒有明確的規(guī)定,其指向不明;這種緊急情況下的突然“監(jiān)管”使得汽車在一定時間內(nèi)歸于人工智能和人類的雙重控制下,是否能達到緊急情況下要求駕駛員監(jiān)管后的避險作用,還是會造成交接時間短期內(nèi)造成雙重控制者的慌亂還不得而知——雖然此在一定程度上屬于科技探討的領(lǐng)域,但也屬于法律制定所須考察的因素。而對于美國該案件中人工智能擔(dān)責(zé)的判例價值,最終責(zé)任的承擔(dān)主體必然也指向有責(zé)任能力的“人”;人工智能駕駛責(zé)任單純納入汽車強制險的規(guī)定,雖然保障了受害者,但對于汽車所有者卻不盡公平更甚,保險責(zé)任最終也會分?jǐn)偟秸w社會成員,并影響社會整體福利。

侵權(quán)責(zé)任設(shè)置是以外部效應(yīng)內(nèi)部化為目的,而對于僅以人工智能為由進行擔(dān)責(zé)劃定雖言之有據(jù),但一方面,在責(zé)任主體理論上還無法將人工智能納入。而在實踐中要求人工智能擔(dān)責(zé),不論是目前民事上停止侵害、賠償損失、賠禮道歉的責(zé)任承擔(dān)方式,還是刑事上的管制、拘役等方式,都不宜對人工智能適用。即使將責(zé)任轉(zhuǎn)移到其他“人”的身上,必將產(chǎn)生人工智能駕駛技術(shù)推廣的市場障礙,在降低親自駕駛車輛的各項成本(如身體、精神的舒適與便利)與增加了法律責(zé)任成本之間,理性人基本會選擇放棄人工智能。當(dāng)存在連帶責(zé)任追究的可能性之下,避而遠(yuǎn)之是最好的策略。若如此,人工智能駕駛所推廣的價值理念將失去意義,技術(shù)的革新將黯然失色。

(三)監(jiān)管與保障的缺位

對于自身群體之外的其他群體或現(xiàn)象,人們總是采取謹(jǐn)慎的態(tài)度。對于新出現(xiàn)的人工智能,打壓或抑制其發(fā)展的聲音亦不絕于耳。但基于其“便于人類”的出現(xiàn)初衷,我們應(yīng)該采取控制發(fā)展的方式。特別針對其不可預(yù)測性,監(jiān)管也成為最優(yōu)策略。美國《自動駕駛法案》就多注重對自動駕駛汽車的監(jiān)管[11],主要通過統(tǒng)一監(jiān)管、隱私保護和自動駕駛汽車顧問委員會的方式對這種新興駕駛方式進行調(diào)整;在標(biāo)準(zhǔn)管理上制定了《美國聯(lián)邦機動車輛安全標(biāo)準(zhǔn)》(FMVSS),以安全為目的對人工駕駛車輛進行標(biāo)準(zhǔn)限制。對于我國發(fā)展人工智能駕駛,監(jiān)管可能是比較合適的選擇,但同樣會涉及到成本增加的問題,需要追加人力成本、技術(shù)成本甚至司法成本,投入成本最終所帶來的收益,尚無法估量。因人工智能駕駛的投入適用,監(jiān)管本身的職權(quán)和職責(zé)分擔(dān)如何設(shè)定都將增加大量的協(xié)調(diào)成本。因此,這一領(lǐng)域的立法將會是漫長且審慎的。

人工智能的侵權(quán)損害當(dāng)然應(yīng)該要求損害者承擔(dān)責(zé)任。但基于人工智能駕駛侵權(quán)的特殊性,如果要求相關(guān)人承擔(dān)全部的損害責(zé)任,卻在加重其成本之下抑制了對人工智能研發(fā)的積極性。因此,第三方加入給予人工智能駕駛領(lǐng)域研發(fā)和侵權(quán)的保障對于人工智能的安全和發(fā)展尤為重要,但也會帶來人工智能車輛研發(fā)和生產(chǎn)的成本巨大,最終必將轉(zhuǎn)嫁給消費者;同樣,消費者也會逆向選擇放棄。

在對人工智能駕駛領(lǐng)域的保障措施上,不可或缺的是國家或行業(yè)的介入。以監(jiān)督方式跟蹤人工智能的研發(fā)、試用的同時,也用強制的手段對其中的偏差或不當(dāng)進行糾正。在保障人工智能侵權(quán)賠償?shù)耐瑫r,也從整體的角度力求達到保障人工智能發(fā)展的目的。但不論是國家、行業(yè)還是其他個體,這種保障動力的來源多只是基于職能的要求或宗旨的需要,不足以應(yīng)對現(xiàn)實中人工智能駕駛形形色色的問題;特別是對于人工智能的技術(shù)性壁壘,國家或行業(yè)是否一定能夠有效識別和檢驗是一個信息不對稱的問題。因此,保障的力度也會變得謹(jǐn)慎[12]。

當(dāng)然,也有人提出來,這種缺失通過風(fēng)險保險化得到克服。保險通過風(fēng)險評估、行為約束和分?jǐn)倱p失的環(huán)節(jié)對人工智能駕駛的檢測和保障不失為一種有效的方式。英國的《汽車技術(shù)與航空法案》就提出從保險的角度對人工智能的駕駛進行規(guī)制,通過備案制度、保險制度的方式防范風(fēng)險和責(zé)任分配[13]。但總體來說,保險對于人工智能駕駛還處于邊緣地帶,前途未卜,保險業(yè)一度認(rèn)為進入成本較高,降低了對其提供保障的激勵。

四、面向人工智能駕駛侵權(quán)責(zé)任的判定方法

隨著人工智能的繼續(xù)研究和發(fā)展,駕駛領(lǐng)域會趨于智能化或無人化,而人工智能發(fā)展中的不可預(yù)測性和一定程度上的不可逆性也成為其中最顯見的風(fēng)險之一。制度的完善當(dāng)然要遵循法的區(qū)域性質(zhì)以其內(nèi)的具體情況為據(jù),但同時,基于人工智能風(fēng)險的共生性[14],在考察國外的經(jīng)驗的基礎(chǔ)上,更需要從經(jīng)濟學(xué)角度對其責(zé)任進行制度設(shè)定。只有這樣才能滿足參與主體的“理性選擇”,實現(xiàn)帕累托最優(yōu),并最終實現(xiàn)社會福利的最大化,以推動人工智能駕駛的有效推廣。

(一)基于類型化思維的責(zé)任判定

人工智能以不同的形式對駕駛的滲入也決定了對此應(yīng)該區(qū)分對待。首先,應(yīng)區(qū)分駕駛中人工智能的類型,即無人駕駛和自動駕駛中涉及的不同情形和不同主體進行責(zé)任確定。在人工智能中,依據(jù)駕駛等級分級以確定侵權(quán)責(zé)任[15]。其次,也應(yīng)該區(qū)分事故發(fā)生類型。對于事故中是人為過錯或過失,還是汽車質(zhì)量問題或人工智能問題進行區(qū)分。對于人為過錯或過失或汽車質(zhì)量問題,偏向于按現(xiàn)行法律規(guī)定進行處理,對于人工智能的問題,除人工智能研發(fā)制造者過錯或過失,還包括目前可預(yù)測之外的問題出現(xiàn);同時,事故的發(fā)生很少是一方原因造成,界定責(zé)任主體首當(dāng)其沖。在對于人為或其他過錯的證明上,需要科技上進一步的探索,也需要制度予以明確的回應(yīng)。根據(jù)不同的侵權(quán)情形以區(qū)分設(shè)定侵權(quán)方式在立法效益上有一定意義。

基本立場是經(jīng)濟學(xué)的,一是防范成本低者擔(dān)責(zé)原則,哪一主體防范風(fēng)險發(fā)生的成本最低,責(zé)任就應(yīng)該歸屬這一方;二是秉承過錯原則,這樣可以產(chǎn)生必要的行為激勵,每個主體都應(yīng)該對自己的錯誤行為付出代價。由于人工智能的技術(shù)性壁壘,大多數(shù)人難以實現(xiàn)信息對稱。因此,強化人工智能企業(yè)責(zé)任是核心問題,僅此才能讓人工智能在進入市場之初就具備品質(zhì)保證,也是市場良性發(fā)展的最終追究。作為人工智能駕駛領(lǐng)域的消費者而言,存在著較為嚴(yán)重的信息不對稱,即使熟練掌握操作技能的駕駛者而言,強大的信息支配系統(tǒng)已經(jīng)為其設(shè)置了天然的認(rèn)知障礙,其只能掌控基本的“界面”上的顯性信息,卻無力深刻理解人工智能駕駛的內(nèi)在邏輯與機理。據(jù)此,人工自動駕駛企業(yè)的產(chǎn)品品質(zhì)保證將是侵權(quán)是否發(fā)生的首要條件,甚至決定了侵權(quán)在人工智能駕駛領(lǐng)域是否適用的邊界。

反觀當(dāng)下傳統(tǒng)的汽車駕駛領(lǐng)域,主要主體為企業(yè)、駕駛?cè)?消費者)、行人(潛在被侵權(quán)人)和保險行業(yè),這些主體的責(zé)任認(rèn)定較為清晰,可以更好地適用法律。但是,人工智能駕駛領(lǐng)域的責(zé)任主體將變得非常復(fù)雜,當(dāng)然也可以更加簡單,其取決于人工智能駕駛作為產(chǎn)品的保障范疇。若人工智能企業(yè)包攬了除駕駛?cè)嘶虻谌斯室饣蛑卮筮^失之外的全部責(zé)任,那法律關(guān)系將變得非常單純,甚至本文也失去了討論價值。但是,人工智能駕駛企業(yè)是否可能將其責(zé)任范圍做如此延長,是一個未知數(shù)。若此,自動駕駛企業(yè)將為其未來的潛在責(zé)任追加更多的產(chǎn)品質(zhì)量投入和保險投資,人工智能駕駛產(chǎn)品的價格將居高不下,甚至讓消費者望而卻步,畢竟人工智能駕駛企業(yè)在資本的激勵下,會毫不客氣地將成本轉(zhuǎn)嫁,這是基本的市場規(guī)律。據(jù)此,對于大多數(shù)消費者,也一定會選擇放棄人工智能駕駛產(chǎn)品。如果以此邏輯進行推導(dǎo)的話,人工智能駕駛領(lǐng)域?qū)⒉粫l(fā)展,畢竟這一領(lǐng)域的主要受眾是普羅大眾,其產(chǎn)品的市場占有率才是企業(yè)生存和發(fā)展的動力。對于人工智能駕駛領(lǐng)域,未來出現(xiàn)的潛在侵權(quán)責(zé)任主體不會很簡單。因為只有將責(zé)任按照不同主體的風(fēng)險防范能力、行為激勵方式、市場需求潛力、證據(jù)摘取水平甚至制度保障力度等因素進行合理劃分,才能保證人工智能領(lǐng)域的有序發(fā)展,才能最終提升人類的整體福利。事實上,人工智能領(lǐng)域只要傾向于民用,都將面臨責(zé)任主體類型化的考驗。

(二)拓展責(zé)任的“射程范圍”

在人工智能對駕駛領(lǐng)域的涉足中,相關(guān)的主體發(fā)生了變化。一方面,原本的制造商的重要性在一定程度上增加,原本駕駛者角色向安全司機方向轉(zhuǎn)變,甚至完全取締了這一角色的存在;另一方面,更是添加了系統(tǒng)提供者的重要地位,以及相關(guān)監(jiān)管者的出現(xiàn)。雖然新事物的出現(xiàn)初期多采取鼓勵的方式,但發(fā)展的過程中也應(yīng)該保障安全。在人工智能介入駕駛中也應(yīng)該從多方面考量進行責(zé)任劃定。對于汽車制造商,仍多以汽車本身為基,對汽車本身的缺陷承擔(dān)相應(yīng)的責(zé)任;而安全員則根據(jù)其在執(zhí)行安全控制或檢測過程中是否存在過錯或過失進行責(zé)任的承擔(dān);對于人工智能系統(tǒng)的提供者,在其過錯責(zé)任之外也應(yīng)該承擔(dān)一定的公平責(zé)任。

責(zé)任的主體增加并非要采取在事故前對其追究的敵視態(tài)度,而是通過責(zé)任的設(shè)定通過過錯或無過錯的歸責(zé)原則尋求受害者的補償途徑。更重要的是,通過事后責(zé)任的規(guī)定,以增加相關(guān)主體的違法成本,也在法律的引導(dǎo)作用下,通過行為人事前的預(yù)估和審視,對其加強警醒的作用以減少疏忽或過失的出現(xiàn)。

在監(jiān)管責(zé)任方面,有必要在傳統(tǒng)對駕駛領(lǐng)域硬性安全要求下加入人工智能軟技術(shù)體系,以加強對其的監(jiān)管。首先,對于人工智能技術(shù)的研發(fā)進行實時監(jiān)管。必要時期可引入嚴(yán)格責(zé)任原則以面對人工智能背景下的反競爭或不當(dāng)競爭,力求從源頭上杜絕或減少研發(fā)方取巧的策略生成,進而督促經(jīng)營者對人工智能進行有效的控制;其次,在流通領(lǐng)域加強監(jiān)管。可以選擇質(zhì)量跟蹤監(jiān)測和收益分配導(dǎo)向的方式,一方面,通過政府、行業(yè)等第三方主體對流通環(huán)節(jié)的人工智能和汽車進行監(jiān)管,以從多方面發(fā)現(xiàn)問題并獲得反饋,進而尋求改善方式;而另一方面,也從調(diào)整收益的角度影響相關(guān)主體的初始策略形成,從而促進人工智能的研發(fā)上“能”者多勞多得,營造良好的研發(fā)氛圍;最后,加強事故后處理的監(jiān)管和過錯方的責(zé)任。通過原則規(guī)定下責(zé)任分配的合理運用,給予受害者切實的補償;同時,也借此警醒潛在的侵害行為人以發(fā)揮法制的引導(dǎo)價值。

人工智能駕駛領(lǐng)域的侵權(quán)也相應(yīng)的伴隨違約責(zé)任,即法律的責(zé)任的競合。對于自動駕駛的消費者而言,若因自己自動駕駛產(chǎn)品本身造成了侵權(quán)行為,其本身也應(yīng)該兩套責(zé)任追究方式可以選擇,這可以視損害金額由消費者自主決定。這同樣對自動駕駛生產(chǎn)企業(yè)提出了較為嚴(yán)苛的產(chǎn)品質(zhì)量要求,承擔(dān)違約的產(chǎn)品責(zé)任的同時,如何避免因產(chǎn)品責(zé)任而造成侵權(quán)行為。同樣,是否需要區(qū)分自動駕駛企業(yè)產(chǎn)品的產(chǎn)品本體與智能系統(tǒng)之間的責(zé)任,也將成為我們考量的要素。筆者認(rèn)為,應(yīng)該將其劃歸為連帶責(zé)任,即對外消費者而言,其所適用的是自動駕駛產(chǎn)品的整體,其無力區(qū)分是產(chǎn)品本體還是智能系統(tǒng)的瑕疵造成了侵權(quán),其直接追索自動駕駛企業(yè)的責(zé)任即可,而企業(yè)內(nèi)部的連帶責(zé)任將交給人工智能駕駛企業(yè)自行處理。面對知識障礙,消費者提起責(zé)任追究過程中,在面對人工智能的知識壁壘,是否可以嘗試舉證責(zé)任倒置也值得我們深入思考。

(三)配套規(guī)范的保障機制

基于人工智能的不可預(yù)測性和其存在的現(xiàn)實風(fēng)險,有預(yù)防和治理之迫切需要。從目前來看,人工智能駕駛的發(fā)展最終會利于全人類,但尤其在逐步探索的過程中,無法避免侵權(quán)或事故的發(fā)生。對于這些損失,自然不能打著“發(fā)展”的旗號不予置理,也要防止過度要求相關(guān)主體賠償下對研發(fā)積極性的打擊。因此,強化第三方的保障機制尤為重要。一方面,設(shè)立國家支持,以財政支持的方式對人工智能駕駛研發(fā)方以資金支持,同時也對侵權(quán)事故受害者以制度救濟保障;另一方面,加強行業(yè)保障,以監(jiān)管人工直接駕駛、鼓勵相關(guān)基金的形成以作為研發(fā)的后援。另外,在侵權(quán)責(zé)任承擔(dān)上,可以引入保險機制。對于人工智能駕駛事故發(fā)生的可能性進行專業(yè)的計算,從而在保障受害者的同時加強對投保人的行為約束。而保險內(nèi)部的競爭也可以達到人工智能駕駛領(lǐng)域保險環(huán)境相互監(jiān)督、優(yōu)化效率的目的。

國家層面的支持是站在科技帶來整體社會福利的角度,其投入將考慮經(jīng)濟、社會乃至文化等各種要素,其所做一方面是投入財政支持,力推相關(guān)領(lǐng)域的創(chuàng)新發(fā)展,更大的保障方面是制度的保障。只有對該領(lǐng)域作出頂層設(shè)計才能保證該領(lǐng)域的健康發(fā)展,規(guī)避不必要的主體困惑和要素缺失。據(jù)此,如何理解現(xiàn)行民法典對于侵權(quán)問題的規(guī)定,將其適用于未來的人工智能駕駛領(lǐng)域確有必要。第一,如何發(fā)現(xiàn)法律,在民法典侵權(quán)部分的規(guī)定中發(fā)現(xiàn)法律要素,并將其人工智能自動駕駛領(lǐng)域侵權(quán)涵攝到該規(guī)定之下,主要相關(guān)的主體性要素是能夠找到法律上的依存空間的。第二,如何開展法律解釋,這種解釋分為兩個層面:一是針對該領(lǐng)域“兩高”可以推出司法解釋,對本文所論述的主體、客體、責(zé)任、分配等各方面作出更為科學(xué)詳盡的解釋,以便于司法審判中適用,二是法官在具體的司法裁判過程中的解釋,可以根據(jù)自動駕駛領(lǐng)域侵權(quán)的主要參與主體、風(fēng)險類型、過錯方式作出基本判斷,并解釋侵權(quán)的法律規(guī)定,將其適用于當(dāng)下個案。第三,如何推理與論證,這將是審理個案中法官的基本職責(zé)和能力,其在具備法教義學(xué)知識的基礎(chǔ)上,如何靈活經(jīng)濟分析的方法,完美地實現(xiàn)三段論的內(nèi)部論證和外部論證將考驗法官在審理人工智能案件中的司法智慧[16]。

保險或行業(yè)的保障是一套社會保障體系,國家可以作出引導(dǎo)和支持,但無法從根本上左右其決策,真正能夠提升其提供保障動力在于市場的激勵,即收益是否可觀。這也存在一個保險對于自動駕駛產(chǎn)品企業(yè)投入還是對消費者投入的問題。由于自動駕駛領(lǐng)域消費者自我操作空間不大,對于自動駕駛產(chǎn)品則熱要求較高,因此,保險對于自動駕駛領(lǐng)域的保險投保將更感興趣。對于消費者而言,既往的險種可能要發(fā)生變化,這種變化取決于自動駕駛產(chǎn)品所保證的產(chǎn)品責(zé)任范圍,排除產(chǎn)品責(zé)任之后的范圍,將是消費者所選取的保險范圍。對于行業(yè)而言,其主要是行業(yè)規(guī)范體系和行業(yè)自律的規(guī)范體系,其更大的約束力體現(xiàn)在自動駕駛企業(yè)之間,其以如何制定嚴(yán)格的規(guī)范體系、科學(xué)的內(nèi)部調(diào)處機制、高標(biāo)準(zhǔn)的準(zhǔn)入條件,將會不斷引領(lǐng)自動駕駛領(lǐng)域的良性循環(huán)發(fā)展[17]。

上述保障機制是一套從國家、社會、企業(yè)的系統(tǒng)工程,單靠每一個主體提供保障都難以為繼,畢竟人工智能的科技與技術(shù)革新,帶來的不僅僅是傳統(tǒng)法律關(guān)系的變化,更多是技術(shù)賦權(quán)之后所帶來的系列困擾。每個參與主體都沒有辦法依靠自身力量去完成市場、生活以及法律的改變,而且如此浩大的系統(tǒng)工程,也不是一個主體能夠承擔(dān)如此高昂成本的。只有多主體聯(lián)動,才能利用各自的信息優(yōu)勢,以低成本的方式實現(xiàn)整體的社會互動,并共同促進人工智能駕駛業(yè)態(tài)的發(fā)展,實現(xiàn)科技帶來的福利與驚喜。

五、結(jié)語

科技的發(fā)展不斷給人類帶來驚喜,但也危機四伏。人工智能已然成為了時代的寵兒,也發(fā)展成學(xué)界關(guān)注的焦點,并逐漸形成了關(guān)于人工智能、數(shù)字、算法、網(wǎng)絡(luò)等各種學(xué)術(shù)討論觀點。包括剛剛開始實行的《中華人民共和國民法典》也對新型的網(wǎng)絡(luò)侵權(quán)行為做了法律上的責(zé)任安排,但科技發(fā)展的強勁勢頭,總讓法律的規(guī)定逐步褪色。面對人工智能,法律邏輯的拓展要創(chuàng)設(shè)一種新型的、面向人類現(xiàn)代法治之可能生活的法律邏輯。其既延續(xù)了傳統(tǒng)法律邏輯的經(jīng)典問題,又注重對在一系列人類新興活動推動下產(chǎn)生的新問題之解決。據(jù)此,在方法論上而言,就需要發(fā)揮法律人的兩套思維體系。其一就是法律方法的靈活運用思維,即通過法律發(fā)現(xiàn)、法律解釋、法律論證等方法,將現(xiàn)有法律在射程范圍內(nèi)有效適用,又不超越邊界而遭遇公眾合法性與合理性質(zhì)疑,即可接受;其二則是經(jīng)濟學(xué)的考量,無論從社會治理效能角度還是理性個人角度,成本的合力算計,能夠讓制度設(shè)計更加潤滑,增加制度與社會的粘性。也因此,法教義學(xué)與社科法學(xué)(抑或法經(jīng)濟學(xué))的底色是一致的,其追求的都是以方法系統(tǒng)解釋、構(gòu)造制度,追求社會、公眾的可接受。這種可接受性既有制度意義上的,更有心理層面,雖然看似玄幻,但在具體個案之中基本能夠?qū)崿F(xiàn)平衡,尤其是加入整體社會整合力量。也因此,針對人工智能駕駛侵權(quán)領(lǐng)域的思考,本文也融合了解釋學(xué)和經(jīng)濟學(xué)的成分,在現(xiàn)有制度框架內(nèi),整合規(guī)制資源,類型化責(zé)任主體、考量成本投入,適度完善或拓展制度輻射范圍,通過法律解釋即可完成經(jīng)濟學(xué)意義上考量的責(zé)任設(shè)定使命,最終實現(xiàn)了方法系統(tǒng)的合力。

猜你喜歡
領(lǐng)域主體人工智能
論自然人破產(chǎn)法的適用主體
領(lǐng)域·對峙
青年生活(2019年23期)2019-09-10 12:55:43
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
關(guān)于遺產(chǎn)保護主體的思考
新常態(tài)下推動多層次多領(lǐng)域依法治理初探
論多元主體的生成
肯定與質(zhì)疑:“慕課”在基礎(chǔ)教育領(lǐng)域的應(yīng)用
屯昌县| 云安县| 昌宁县| 双流县| 石城县| 东港市| 赫章县| 连平县| 滨海县| 彭阳县| 绥滨县| 青神县| 新源县| 昌乐县| 长阳| 嘉兴市| 项城市| 蓬溪县| 旅游| 侯马市| 松原市| 都昌县| 金门县| 云和县| 逊克县| 尚义县| 乌兰察布市| 龙海市| 敖汉旗| 丹寨县| 沂南县| 隆林| 十堰市| 阿拉善左旗| 广西| 余姚市| 长岛县| 栖霞市| 鹰潭市| 绥棱县| 涞源县|