摘 要:因特網(wǎng)的廣泛應(yīng)用讓算法應(yīng)用席卷了社會的各個領(lǐng)域,信息時代重構(gòu)了信息傳播的結(jié)構(gòu)、突破了信息體量的上限、實現(xiàn)了信息的實時性傳輸、豐富了信息交互的方式,使算法這個數(shù)據(jù)驅(qū)動的力量可以跨空間、跨時間地采集和分析大量的數(shù)據(jù),從而讓算法發(fā)揮它真正的潛力。但是隨著算法技術(shù)的發(fā)展,算法應(yīng)用產(chǎn)生的一系列問題也開始突顯。本論文旨在通過闡述算法技術(shù)發(fā)展給權(quán)益保護(hù)帶來的風(fēng)險,分析侵權(quán)法應(yīng)對算法侵權(quán)的可行性與缺陷,提出對算法侵權(quán)歸責(zé)制度的具體設(shè)想。
關(guān)鍵詞:算法;法律;侵權(quán)責(zé)任
一、機(jī)器學(xué)習(xí)算法與最優(yōu)數(shù)據(jù)表達(dá)
機(jī)器學(xué)習(xí)是目前利用算法處理數(shù)據(jù)最主流的一種方式,它可以從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測和決策,是現(xiàn)階段解決人工智能問題的重要方式。為了達(dá)到準(zhǔn)確預(yù)測和決策的目標(biāo),機(jī)器學(xué)習(xí)會通過對原始數(shù)據(jù)的提煉,產(chǎn)生更好的數(shù)據(jù)表示,使后續(xù)任務(wù)的完成更加準(zhǔn)確與高效,所以找到最優(yōu)的數(shù)據(jù)表達(dá)是機(jī)器學(xué)習(xí)的核心任務(wù)。機(jī)器學(xué)習(xí)發(fā)展至今出現(xiàn)了可以解決多種問題的學(xué)習(xí)方法,學(xué)界一般將這些機(jī)器學(xué)習(xí)方法分為監(jiān)督式學(xué)習(xí)、非監(jiān)督式學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、深度學(xué)習(xí)。
二、算法應(yīng)用給權(quán)益保護(hù)帶來的風(fēng)險
算法作為當(dāng)今社會建設(shè)中的一個重要技術(shù)支撐,廣泛應(yīng)用于教育、醫(yī)療保健、能源、商業(yè)、交通等領(lǐng)域。例如在庫存管理中,可以通過算法來解決庫存管理中出現(xiàn)的問題,減少庫存周轉(zhuǎn)時間,提高空間利用率。在疾病診斷相關(guān)組(DRG)中,使用機(jī)器算法將大量患者的信息快速進(jìn)行分類。在商業(yè)應(yīng)用中,電商使用算法來進(jìn)行動態(tài)定價,以增加市場競爭力和使利潤最大化,學(xué)習(xí)和分析顧客的瀏覽和點擊行為,定制產(chǎn)品和服務(wù)或進(jìn)行個性化產(chǎn)品推送。似乎這樣看來算法和人類決策相比,算法更為著快速、效率、準(zhǔn)確。然而隨著算法應(yīng)用領(lǐng)域的不斷擴(kuò)張,其對權(quán)利的侵害讓我們產(chǎn)生疑問,算法真的可以凌駕于人類之上,作出比人類更為公正的決策?
Predpol犯罪預(yù)測模型與LSI-R量表就是算法在公共安全和司法領(lǐng)域應(yīng)用的例子,前者可以預(yù)測未來犯罪活動發(fā)生地點,后者可以評估罪犯的犯罪危險性水平。非營利組織Pro Publica研究發(fā)現(xiàn),這類算法系統(tǒng)性地歧視了黑人,白人更多被錯誤地評估為低犯罪風(fēng)險,而黑人被錯誤地評估為高犯罪風(fēng)險的概率是白人的兩倍。這兩者運用算法作出的決策都直接影響了公安部門與司法部門的行為,從而對算法決策相對人受到平等法律保護(hù)權(quán)利造成侵害。在社會經(jīng)濟(jì)方面,算法可以高效處理數(shù)據(jù)的能力,使一級價格歧視成為現(xiàn)實,其導(dǎo)致最典型的現(xiàn)象就是“大數(shù)據(jù)殺熟”,直觀體現(xiàn)就是“不同人不同價”、“不同手機(jī)不同價”等。甚至定價算法為商家之間達(dá)成默示壟斷協(xié)議創(chuàng)造了捷徑,從而構(gòu)成“算法共謀”。如果這種情況不加以控制,算法的應(yīng)用最終會侵害消費者權(quán)益,擾亂市場秩序。在個人信息保護(hù)方面,算法技術(shù)的發(fā)展已經(jīng)將個人信息權(quán)受到侵害的危險上升到了另一個高度,利用算法甚至可以從已被透露的個人信息中推測出未被透露的個人信息。
三、算法侵權(quán)適用侵權(quán)法的可行性與局限性
侵權(quán)法模式在規(guī)制算法方面有重要優(yōu)勢,它能夠快速響應(yīng)算法時代侵權(quán)行為的復(fù)雜化,救濟(jì)方式更為靈活。然而,算法的技術(shù)性特點和應(yīng)用廣泛的特點使得算法侵權(quán)變得普遍、行為方式更為隱秘、性質(zhì)難以被確定、損害結(jié)果更為多樣且影響范圍更大。目前的侵權(quán)法對算法侵害行為的認(rèn)定與責(zé)任承擔(dān)存在諸多困難,因此有必要深入分析算法侵權(quán)適用侵權(quán)法的可行性與局限性,以期明確侵權(quán)法對算法侵權(quán)的未來立法方向。
(一)算法侵權(quán)適用缺陷產(chǎn)品侵權(quán)責(zé)任的局限性
承擔(dān)缺陷產(chǎn)品侵權(quán)責(zé)任包括以下兩種情況:第一,產(chǎn)品本身存在缺陷,且是由于該缺陷對他人人身權(quán)利、財產(chǎn)權(quán)利造成侵害;第二,由于銷售者的過錯導(dǎo)致產(chǎn)品缺陷,且是由于該缺陷對他人人身權(quán)利、財產(chǎn)權(quán)利造成侵害。
但是算法侵權(quán)適用產(chǎn)品責(zé)任路徑存在一定的困難:首先,算法的產(chǎn)品性質(zhì)的難以確定。比如像百度、Google等搜索引擎和電商的定價算法模型很難被認(rèn)為是用于銷售的產(chǎn)品,搜索引擎的算法決策服務(wù)是免費提供的,甚至不享有知識產(chǎn)權(quán)中的專利權(quán)保護(hù);其次,產(chǎn)品責(zé)任是建立在產(chǎn)品缺陷的前提之下,但是算法侵權(quán)可能是由于輸入數(shù)據(jù)的錯誤和偏差所造成的。最后,算法侵權(quán)相對人的舉證困難。產(chǎn)品責(zé)任適用的是一般舉證責(zé)任,而算法與一般產(chǎn)品最大的差異是其自動化技術(shù)發(fā)展的復(fù)雜性,受侵權(quán)人往往發(fā)現(xiàn)不了算法的缺陷,無法證明其缺陷存在,也無法確定算法決策侵權(quán)的原因是由于算法缺陷造成的。
(二)算法侵權(quán)適用一般侵權(quán)責(zé)任
(1)侵害行為
算法關(guān)系人之間行為互相所造成的影響錯綜復(fù)雜,因此確定算法侵權(quán)者的義務(wù)產(chǎn)生來源是界定義務(wù)范圍的重點。毋庸置疑,算法侵權(quán)人首先必然需要承擔(dān)不侵害他人合法權(quán)益的基本消極義務(wù)。但由于算法自動化決策的不透明性和算法應(yīng)用的大規(guī)?;瑢?dǎo)致其可能侵權(quán)的風(fēng)險增高,并且一旦侵權(quán),所造成的損害也會更大。因此,事先規(guī)定算法侵權(quán)人的作為義務(wù)可以更加完善的保護(hù)法律認(rèn)為重要的社會關(guān)系。比如,規(guī)定算法所有人或控制者由于先前行為創(chuàng)設(shè)了危險情況所產(chǎn)生的作為義務(wù),或者是由于算法所處的平臺擁有法律規(guī)定的特定的職責(zé)所產(chǎn)生積極作為的安全保障義務(wù)。除此之外,算法侵權(quán)作為一種新型侵權(quán)類型,侵害行為的方式復(fù)雜且多樣,這其中還應(yīng)當(dāng)包括“準(zhǔn)侵害行為”,也就是在算法完全自主決策情況下的侵權(quán)行為,因為這個行為從客觀上看并不被算法應(yīng)用者完全控制。
(2)侵權(quán)主體
在算法決策造成他人損害時,不能簡單地認(rèn)定由該算法開發(fā)者或使用者承擔(dān)侵權(quán)責(zé)任,因為算法模型可能是由多個主體共同開發(fā)設(shè)計,同時也要考慮算法使用者對算法決策結(jié)果的過程的影響。這就涉及到多個侵權(quán)主體之間共同性的判定。對多個侵權(quán)主體之間的“共同性”判斷是影響共同侵權(quán)構(gòu)成的重中之重,在算法侵權(quán)的語境下,就是需要證明算法開發(fā)者與算法使用者對算法模型的設(shè)計目的、算法決策有共同認(rèn)識,或者對算法決策造成的結(jié)果應(yīng)當(dāng)共同盡到合理的注意而沒有注意。如前文所提到運用在公共安全領(lǐng)域和司法實踐中的算法,這些算法模型的設(shè)計初衷是為了滿足社會需求、促進(jìn)商業(yè)發(fā)展等合法目的,并不存在共同故意的情況。盡管共同過錯包括共同過失的情況,但是這也加重了受侵權(quán)人的舉證責(zé)任。因此,為了能夠更好保護(hù)受到算法決策相對人的合法權(quán)益,算法決策的共同侵權(quán)行為只要數(shù)個侵權(quán)主體基于一致的意思而行事,且在客觀上有共同的侵權(quán)行為,就應(yīng)當(dāng)承擔(dān)共同侵權(quán)責(zé)任。
(3)損害事實
算法決策可能會造成對人格權(quán)和身份權(quán)的損害,比如美國航空公司一名飛機(jī)駕駛員就由于算法多次錯誤地判定他是一名愛爾蘭共和軍領(lǐng)導(dǎo)人,使得他在機(jī)場遭到高達(dá)80多次的拘禁,該名飛機(jī)駕駛員的人格權(quán)受到了算法決策的侵害。算法決策的歧視性對自由、平等、尊重等利益的無形人格利益損害是算法侵權(quán)的重災(zāi)區(qū)。在司法實踐中,受侵害人一般需要承擔(dān)證明損害結(jié)果的發(fā)生、大小、程度等要素的舉證責(zé)任。在算法侵權(quán)中,損害后果可能只是表現(xiàn)為對受侵害人造成了不同程度的精神負(fù)擔(dān)和心理憂慮,可是這些精神損害在引起一系列身體疾病之前是很難被證明的。這不僅僅是算法侵權(quán)損害確定中的問題,也是證明具體人格權(quán)被侵害的舉證難題。英美侵權(quán)法對此有一個特色的制度設(shè)計,只要對這類權(quán)益有侵害事實,受侵害人就有權(quán)請求侵權(quán)主體承擔(dān)侵權(quán)責(zé)任。它們將這種類型的損害事實稱為可訴性損害(damage per se),可訴性制度減輕了算法侵權(quán)中受侵害人的舉證責(zé)任難度,可以加大對算法侵權(quán)的權(quán)益保護(hù)的力度。
(4)因果關(guān)系
在算法侵權(quán)的語境下,一般因果關(guān)系比較難以確定,算法侵權(quán)主體往往存在數(shù)個,算法自動化決策具有不透明性,因此算法侵權(quán)具有相當(dāng)?shù)碾[蔽性,甚至許多算法決策利害關(guān)系人不知道算法侵權(quán)的存在,因此也難以判斷其因果關(guān)系。為了明確算法侵權(quán)責(zé)任中的因果關(guān)系,可以考慮在某些權(quán)利保護(hù)領(lǐng)域內(nèi),對其適用違反作為義務(wù)的因果關(guān)系。例如算法開發(fā)者或者算法應(yīng)用者因為先前的行為產(chǎn)生作為義務(wù)或者因為平臺責(zé)任負(fù)有積極作為的安全保障義務(wù),那么其不作為的侵害事實與損害結(jié)果存在因果關(guān)系。
綜上所述,侵權(quán)主體義務(wù)范圍的界定、具體侵權(quán)主體的認(rèn)定、適用可訴性制度、因果關(guān)系的判斷都需要建立在算法自動化決策的透明性和可解釋性的基礎(chǔ)之上,而這都需要圍繞算法的技術(shù)性展開立法。然而,我國無論是對算法技術(shù)的強(qiáng)制性標(biāo)準(zhǔn),還是算法侵權(quán)責(zé)任都無專門規(guī)定,更不具有體系性。司法實踐中,只能根據(jù)其他分散在各個部門法中所涉及算法的條款予以適用,但特別規(guī)則多,普遍規(guī)則少。算法侵權(quán)責(zé)任相關(guān)法規(guī)的碎片化使規(guī)則的適用產(chǎn)生不確定性,規(guī)則適用又缺乏彈性。
四、結(jié)語
因此在當(dāng)今算法時代,法律應(yīng)當(dāng)對算法侵害行為造成的權(quán)利損害提供更加完備救濟(jì)依據(jù),充分認(rèn)識到傳統(tǒng)侵權(quán)法在認(rèn)定算法侵權(quán)責(zé)任方面的可行性和不足,關(guān)注算法的模型設(shè)計、使用目的、投入應(yīng)用、做出決策的每一個環(huán)節(jié)可能引發(fā)的風(fēng)險。本論文主要分析了侵權(quán)法對算法侵害權(quán)益的救濟(jì)可行性,當(dāng)然這僅僅是對算法侵權(quán)具體歸責(zé)制度的投礫引珠,更多的法律框架和具體制度的設(shè)計仍待學(xué)者進(jìn)一步探究。
參考文獻(xiàn)
[1] [美]凱西·奧尼爾.算法霸權(quán):數(shù)學(xué)殺傷性武器的威脅[M].中信出版集團(tuán),2018.
[2] 王利明.侵權(quán)責(zé)任法研究 (上卷)[M].中國人民大學(xué)出版社,2010.
[3] 王澤鑒.民法學(xué)說與判例研究(第二冊)[M].中國政法大學(xué)出版社,2009.
[4] 鄭戈.算法的法律與法律的算法[M].中國法律評論,2018.
[5] 孫政偉.大數(shù)據(jù)時代侵權(quán)責(zé)任法的基本功能與制度安排[M].吉林大學(xué),2017.
[6] Yuxi Li,deep reinforcement learningar,Xiv:1810.06339v1 [cs.LG] 15 Oct 2018.
[7] Anupam Chander,The Racist Algorithm,115 Mich.L.Rev.1023(2016).
[8] Pasquale F.The black box society: The secret algorithms that control money and information.Harvard University Press,2015.
作者簡介:李思潁(1994- ),女,碩士研究生,研究方向:民法。