迪莉婭
摘 要:[目的/意義]隨著人機(jī)社會(huì)的到來,大數(shù)據(jù)算法決策的應(yīng)用將會(huì)越來越普遍。但是大數(shù)據(jù)算法決策與普通的人工決策有很大的差異,其問責(zé)將是政府和企業(yè)未來面臨的重要難題。[方法/過程]本文探討了大數(shù)據(jù)算法決策問責(zé)的含義、重要性和緣起。[結(jié)果/結(jié)論]在分析了其難點(diǎn)的基礎(chǔ)上,從問責(zé)主體、機(jī)制、救濟(jì)措施3個(gè)方面提出了完善大數(shù)據(jù)算法決策問責(zé)的對(duì)策。
關(guān)鍵詞:大數(shù)據(jù)算法決策;問責(zé)
Abstract:[Purpose/Significance]With the advent of man-machine society,decision-making of big data algorithm will become a more and more common thing.But the decision-making of big data algorithm is quite different from that of ordinary manual decision-making.Its accountability will be an important problem for the governments and enterprises in the future.[Method/Process]This paper discussed the meaning,importance and origin of the decision making accountability of big data algorithm.[Results/Conclusion]The paper proposed the accountability countermeasures from the perspective of accountability subject and mechanism as well as relief measures based on the analysis of the difficulties of the decision-making accountability of big data algorithm.
Key words:decision-making of big data algorithm;accountability;countermeasure
2017年,國(guó)務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,對(duì)人工智能的倫理問題研究提出了明確的要求,要求展開跨學(xué)科的探索,加強(qiáng)前瞻性的預(yù)防和引導(dǎo),以降低其帶來的風(fēng)險(xiǎn),保證人工智能的安全、可靠和可控的發(fā)展[1]。人工智能的核心是算法問題,算法的不同產(chǎn)生的影響和結(jié)果將會(huì)千差萬別。算法可以稱之為當(dāng)今計(jì)算機(jī)、手機(jī)、物聯(lián)網(wǎng)的大腦。隨著大數(shù)據(jù)的發(fā)展,海量數(shù)據(jù)集的生成,單靠人類自己的力量去分析和利用數(shù)據(jù)做出決策已經(jīng)成為不可能。具體而言,算法(Algorithm)是基于特定的計(jì)算模型,旨在解決某信息處理問題而設(shè)計(jì)的一系列指令序列。簡(jiǎn)而言之,算法就是計(jì)算機(jī)代碼的運(yùn)算。
很多政府部門和企業(yè)采用大數(shù)據(jù)的技術(shù)和方法在公共政策的制定和市場(chǎng)運(yùn)營(yíng)中依靠算法智能決策,例如:在教育、醫(yī)療、司法、保險(xiǎn)、金融領(lǐng)域進(jìn)行信用評(píng)分評(píng)級(jí)、趨向分析判定、內(nèi)容推介和量化評(píng)價(jià)等。因此,隨著大數(shù)據(jù)的集聚,越來越多的政府部門和企業(yè)將算法作為數(shù)據(jù)轉(zhuǎn)化為知識(shí)及做出決策的工具,這就為算法主宰決策提供了無限增長(zhǎng)的可能性,而這種增長(zhǎng)帶來的影響是深遠(yuǎn)的。一方面,隨著人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的發(fā)展,很多決策依據(jù)一定的算法可以自動(dòng)做出,代替了傳統(tǒng)的人工決策,提高了決策的效率;另一方面,當(dāng)算法成為越來越多的組織機(jī)構(gòu)依賴決策的工具,那么算法不僅將重塑個(gè)人的生活,而且在大規(guī)模的社會(huì)、經(jīng)濟(jì)和政治進(jìn)程中將發(fā)揮重要的作用,即算法它不再僅僅被看作是代碼的運(yùn)算,而是代表了組織在各個(gè)領(lǐng)域中對(duì)資源的分配、輿論的導(dǎo)向、社會(huì)的公平等方面起到重要的指向性作用。雖然計(jì)算機(jī)常被視為客觀理性的機(jī)器,但算法是由人設(shè)計(jì)出來的,這本身就有可能具有偏見性和錯(cuò)誤性。因此,大數(shù)據(jù)算法決策的問責(zé)成為政府和企業(yè)未來面臨的難題,也成為學(xué)者們研究的重要課題。
1 文獻(xiàn)綜述
關(guān)于大數(shù)據(jù)算法問責(zé)的研究,國(guó)外有關(guān)的組織機(jī)構(gòu)和學(xué)者已經(jīng)從其必要性、算法決策透明化與問責(zé)、算法決策問責(zé)與法律、算法決策責(zé)任分配等方面展開了研究。
1)大數(shù)據(jù)算法決策問責(zé)的必要性。萬維網(wǎng)基金會(huì)認(rèn)為,算法決策之所以備受質(zhì)疑是因?yàn)槠浜谙鋯栴},這往往將公民和消費(fèi)者置于很高的風(fēng)險(xiǎn)當(dāng)中,為了減少算法決策造成的傷害和歧視,需要加強(qiáng)大數(shù)據(jù)算法決策的問責(zé),解決技術(shù)、倫理、知識(shí)和政策方面的鴻溝[2]。2)大數(shù)據(jù)算法決策透明化與問責(zé)。學(xué)者Paul B de Laat指出,算法的完全透明并不有助于其問責(zé),因?yàn)橥该饔锌赡軙?huì)侵犯?jìng)€(gè)人的隱私,同時(shí)也會(huì)使企業(yè)存在失去競(jìng)爭(zhēng)力的風(fēng)險(xiǎn)。因此,他認(rèn)為算法可以向監(jiān)督機(jī)構(gòu)公開,但是向大眾透明化并沒有可取之處[3]。3)大數(shù)據(jù)算法決策問責(zé)的法律問題。Anton Vedder等認(rèn)為,由于大數(shù)據(jù)環(huán)境的算法,只有將算法不僅僅看作數(shù)據(jù)處理的活動(dòng)中,算法的問責(zé)才有可能得到重視。目前,算法的影響已經(jīng)遠(yuǎn)遠(yuǎn)超過了數(shù)據(jù)保護(hù)法的范疇。在歐盟的《通用數(shù)據(jù)保護(hù)法》序言中指出,考慮到算法對(duì)自然人權(quán)利和自由的處理可能造成的風(fēng)險(xiǎn),需要調(diào)整控制者和加工者的義務(wù)。但是該法的主體部分并沒有對(duì)“義務(wù)的規(guī)制”進(jìn)行詳細(xì)的說明,影響了對(duì)算法問責(zé)的施行[4]。4)大數(shù)據(jù)算法決策責(zé)任的分配問題。Maja Brkan認(rèn)為,大數(shù)據(jù)算法決策所產(chǎn)生的不良后果應(yīng)該由算法的設(shè)計(jì)者,即開發(fā)商和算法的數(shù)據(jù)提供者,即算法的采納者之間進(jìn)行責(zé)任分配[5]。
目前,我國(guó)學(xué)者關(guān)于大數(shù)據(jù)算法決策的問題研究,更多的是從行業(yè)倫理規(guī)制的角度進(jìn)行探討,主要包括:1)算法在新聞?lì)I(lǐng)域應(yīng)用中所產(chǎn)生的倫理問題。學(xué)者王亞妮認(rèn)為,算法時(shí)代的來臨極大地提高了信息分發(fā)的效率,其中的推薦算法在一定程度上減輕了信息選擇的負(fù)擔(dān),但不同的算法都有其倫理風(fēng)險(xiǎn),將會(huì)帶來信息繭房、信息選擇權(quán)的讓渡以及主流價(jià)值導(dǎo)向的缺失等問題[6]。2)算法在無人駕駛領(lǐng)域應(yīng)用中所產(chǎn)生的倫理問題。學(xué)者王珀認(rèn)為,無人駕駛事故應(yīng)急算法中,為了防止“囚徒困境”的倫理風(fēng)險(xiǎn),認(rèn)為不宜強(qiáng)制采用功利主義的算法[7]。3)算法在人工智能領(lǐng)域應(yīng)用中所產(chǎn)生的倫理問題。學(xué)者魏強(qiáng)、陸平認(rèn)為,新一代人工智能具有高度的自適應(yīng)性,給人類帶來福利的同時(shí),也產(chǎn)生了隱私、安全、透明性等倫理風(fēng)險(xiǎn)[8]。
從整體來看,國(guó)外學(xué)者對(duì)于大數(shù)據(jù)算法問責(zé)已經(jīng)有了較為深入的研究,雖然大數(shù)據(jù)算法倫理會(huì)涉及到責(zé)任問題,但是我國(guó)學(xué)者更多的還是從道德層面進(jìn)行闡述和分析,而關(guān)于對(duì)其專門的“問責(zé)”問題研究還處于起始階段。
2 大數(shù)據(jù)算法決策問責(zé)的含義
隨著算法在各個(gè)領(lǐng)域的應(yīng)用,算法的透明度受到了普遍關(guān)注,并由此引發(fā)了算法問責(zé)的問題。因?yàn)樗惴ㄏ到y(tǒng)的自主性很強(qiáng),它根據(jù)獲取的數(shù)據(jù),不斷進(jìn)化和學(xué)習(xí),能夠形成一套自己的體系。這種結(jié)構(gòu)是開發(fā)設(shè)計(jì)者預(yù)料之外的,包括“黑箱”的存在,很難追溯到錯(cuò)誤的根源,這就可能會(huì)給當(dāng)前的倫理和秩序帶來關(guān)于歸責(zé)問題的挑戰(zhàn):到底是算法的失誤,還是工作人員的錯(cuò)誤判斷?在不久的將來,責(zé)任界定、行為監(jiān)管的判定可能變得十分困難,從而導(dǎo)致責(zé)任鴻溝問題的產(chǎn)生[9]。
因此,很多學(xué)者就什么是算法決策問責(zé)展開了討論。學(xué)者Neyland D認(rèn)為,問責(zé)意味著算法決策不僅需要證明其合理性而且還需承擔(dān)減輕任何由其造成的負(fù)面社會(huì)影響和潛在傷害的義務(wù)[10]。Robyn Caplan認(rèn)為,算法決策問責(zé)不僅指算法對(duì)社會(huì)產(chǎn)生影響的責(zé)任分配,如果造成了傷害,還包括相應(yīng)的救治機(jī)制。雖然以上兩位學(xué)者強(qiáng)調(diào)了問責(zé)的內(nèi)容,但是問責(zé)的主體并沒有闡明。美國(guó)公共政策理事會(huì)對(duì)于算法決策問責(zé)的主體做出了明確的規(guī)定,指出應(yīng)用算法的機(jī)構(gòu)即使對(duì)算法的結(jié)果不能做出合理的解釋,但是也應(yīng)該對(duì)采用算法做出的決策負(fù)責(zé)[11]。而本文認(rèn)為,算法決策問責(zé)是指采納和應(yīng)用算法決策的機(jī)構(gòu)在應(yīng)用算法決策過程中對(duì)于社會(huì)和個(gè)人產(chǎn)生的不良影響所應(yīng)承擔(dān)的責(zé)任以及采取相應(yīng)救濟(jì)措施的過程。
3 大數(shù)據(jù)算法決策問責(zé)的重要性
人工智能的本質(zhì)就是一種算法模型,在強(qiáng)大的計(jì)算能力支持下,計(jì)算機(jī)可以借助算法不斷地從大數(shù)據(jù)中進(jìn)行分析和學(xué)習(xí),通過反復(fù)試錯(cuò)和改錯(cuò)來吸取經(jīng)驗(yàn),實(shí)現(xiàn)自身智能化程度的不斷提高,從而幫助人類作出相應(yīng)的決策[9]。未來為了促進(jìn)人機(jī)社會(huì)的和諧發(fā)展,算法問責(zé)的研究和確立具有重要的意義。
1)有利于促進(jìn)大數(shù)據(jù)算法決策過程的透明度。為了避免智能化決策的“黑箱”,促進(jìn)大數(shù)據(jù)算法決策的數(shù)據(jù)來源、質(zhì)量及算法模型的設(shè)計(jì)以及運(yùn)行過程的透明度,是保證算法決策合法、公平、正義的重要意義所在,為大數(shù)據(jù)決策提供重要保障。
2)有利于促進(jìn)算法決策模型的科學(xué)性。大數(shù)據(jù)算法決策模型的設(shè)計(jì)是決策者思想、理念的最好體現(xiàn)。通過建立算法決策問責(zé)機(jī)制,促進(jìn)和指導(dǎo)大數(shù)據(jù)決策模型的設(shè)計(jì)必須符合客觀規(guī)律,具有客觀性、系統(tǒng)性和邏輯性,減少在算法模型設(shè)計(jì)中偏見、錯(cuò)誤以及歧視性傷害的風(fēng)險(xiǎn),在決策的邏輯模型、程序模型、數(shù)據(jù)處理模型和自定義模型的設(shè)計(jì)和應(yīng)用當(dāng)中符合公平和正義的原則。
3)有利于強(qiáng)化算法決策結(jié)果的責(zé)任性。決策失誤的問責(zé)并不會(huì)因?yàn)槭侵悄軟Q策而得到規(guī)避。無論是政府或者企業(yè),由于智能決策而造成的傷害或者歧視性的后果,作為決策者同樣要承擔(dān)問責(zé)。算法問責(zé)機(jī)制的構(gòu)建有助于極大地提高大數(shù)據(jù)算法決策的責(zé)任性,并對(duì)決策的失誤或者產(chǎn)生的不良后果進(jìn)行追溯和糾正,提高大數(shù)據(jù)算法決策的公開、公平和正義的價(jià)值導(dǎo)向。
4 大數(shù)據(jù)算法決策問責(zé)的緣起
有些推薦算法決策的應(yīng)用并不會(huì)產(chǎn)生實(shí)質(zhì)的傷害性后果,但是如果將算法應(yīng)用在犯罪評(píng)估、信用貸款、雇傭評(píng)估等關(guān)乎個(gè)人利益的場(chǎng)合,由于其并不是僅僅針對(duì)某一個(gè)人,而是采用規(guī)模化運(yùn)作的方式,可能會(huì)影響具有類似情況的一群人或者某一類人的利益,所以它的影響范圍會(huì)很大[12]。有人稱基于數(shù)據(jù)的算法是客觀和中立的,其實(shí)只是一個(gè)美麗的誤會(huì)而已。早期的算法決策的數(shù)據(jù)來源和算法決策的復(fù)雜度不高,且應(yīng)用領(lǐng)域并不廣泛,對(duì)于算法的問責(zé)沒有受到很高的重視。但是,隨著大數(shù)據(jù)時(shí)代的來臨,面臨紛繁復(fù)雜的數(shù)據(jù),很多企業(yè)和政府為了減少成本和提高效率,在很多領(lǐng)域采納算法決策,對(duì)于算法所引發(fā)的不公平和歧視性的現(xiàn)象也得到了更多的關(guān)注。算法所產(chǎn)生的偏見和歧視主要來自兩個(gè)方面:1)算法主體價(jià)值觀歧視。這種算法歧視主要來自算法設(shè)計(jì)者自身存在偏見或者歧視,將其融入到算法中所產(chǎn)生的歧視性后果。2)算法系統(tǒng)自然獲得的歧視。這種歧視一方面來自算法采用的客觀數(shù)據(jù)本身就具有歧視性,另外一方面,也體現(xiàn)在算法在演化過程中自身獲得所產(chǎn)生的歧視。具體表現(xiàn)在:
第一,嫌貧愛富性算法。算法一般經(jīng)過排序、分類、關(guān)聯(lián)和過濾幾個(gè)步驟。排序是將排名的標(biāo)準(zhǔn)嵌入到算法中進(jìn)行優(yōu)先等級(jí)的劃分。排序本身就是一個(gè)價(jià)值理念實(shí)現(xiàn)的過程。雖然大數(shù)據(jù)利用海量數(shù)據(jù)實(shí)現(xiàn)精細(xì)化的決策,但是也帶來了另外的悖論現(xiàn)象,那就是通過排序和分類,雖然有助于實(shí)現(xiàn)用戶精細(xì)化的畫像,但導(dǎo)致窮人和富人的標(biāo)簽更加明顯,如果被數(shù)據(jù)打上了“窮人”的標(biāo)簽,那么獲得貸款、信用、教育等的機(jī)會(huì)就會(huì)受到很大的影響。有證據(jù)顯示,在美國(guó)的金融服務(wù)領(lǐng)域,窮人通常受到的服務(wù)比較劣質(zhì),廣告商往往將高息貸款的服務(wù)投向窮人[13]。這種算法導(dǎo)致“嫌貧愛富”的現(xiàn)象,隨著自動(dòng)化決策的廣泛使用,有可能會(huì)加劇貧富差距和社會(huì)不公正現(xiàn)象的發(fā)生。
第二,性別歧視性算法。雖然信息技術(shù)秉持“技術(shù)中立”的原則,但是在系統(tǒng)運(yùn)行中,也無法保證其不會(huì)自動(dòng)修改程序,而出現(xiàn)歧視性的結(jié)果。據(jù)報(bào)道,亞馬遜曾經(jīng)開發(fā)的招聘工具具有性別歧視的現(xiàn)象,在進(jìn)行簡(jiǎn)歷的遴選時(shí),對(duì)于簡(jiǎn)歷上出現(xiàn)“女性”這個(gè)詞就會(huì)打低分,使得女性在求職中,獲得面試的機(jī)會(huì)大幅度的減少[14]。即使后來亞馬遜修改了程序,也無法保證系統(tǒng)不會(huì)出現(xiàn)歧視性的結(jié)果。
第三,種族歧視和年齡歧視性算法。有數(shù)據(jù)顯示,計(jì)算機(jī)對(duì)于淺色人種的誤判率只有1%,對(duì)深色人種的誤判率高達(dá)35%[15]。而且依據(jù)美國(guó)非政府組織機(jī)構(gòu)ProPublica調(diào)查顯示,F(xiàn)acebook在投放與購(gòu)房相關(guān)的廣告,排除了非洲裔美國(guó)人和猶太人。同樣,Uber和Verizon Wireless這些非常有名的公司也是按照年齡和性別的不同而投放不同的招聘廣告[16]。
5 大數(shù)據(jù)算法決策問責(zé)的難點(diǎn)
大數(shù)據(jù)算法決策有助于為民眾提供實(shí)時(shí)、智能、便捷的服務(wù),但是,由于決策主體、客體以及過程的不透明和難以解釋性等原因?qū)е聸Q策問責(zé)的難度大幅度增加。
5.1 大數(shù)據(jù)算法決策問責(zé)主體的復(fù)雜性
無論是公共領(lǐng)域還是私營(yíng)領(lǐng)域,應(yīng)用大數(shù)據(jù)作決策,都會(huì)涉及到算法系統(tǒng)的產(chǎn)生過程。如果算法系統(tǒng)是按照組織機(jī)構(gòu)的目標(biāo)以及程序員依據(jù)所完成的目標(biāo)設(shè)計(jì)出的算法系統(tǒng),那么系統(tǒng)做出的決策出現(xiàn)不公平和歧視性的傷害,有可能是由于算法設(shè)計(jì)者的能力或者其偏見導(dǎo)致的錯(cuò)誤,這種錯(cuò)誤很容易進(jìn)行查詢。但是,很多大數(shù)據(jù)決策系統(tǒng)采用的是機(jī)器學(xué)習(xí)系統(tǒng),隨著系統(tǒng)的不斷進(jìn)化,這些人工智能系統(tǒng)就會(huì)與環(huán)境交互,經(jīng)過“觀察”和“思考”,具備了一定的自主學(xué)習(xí)能力,而這種能力的獲得,與過去植入指令式“代碼”的決策非常不同,雖然有利于人機(jī)共同創(chuàng)造知識(shí),但是這種產(chǎn)生知識(shí)的原理、過程成為了“黑箱”,一旦決策失誤,問責(zé)的主體反而難以確定。
5.2 大數(shù)據(jù)算法決策過程的透明性和可解釋性難以實(shí)現(xiàn)
第一,算法過程的透明度是指影響算法決策的因素對(duì)使用、管理和受使用算法決策系統(tǒng)影響的人具備可知、可見的程度。透明度是算法決策問責(zé)的重要內(nèi)容。算法決策的透明有助于加強(qiáng)相關(guān)利益者和公眾的監(jiān)督,同時(shí)也是取得公眾信任的重要前提條件。因此,無論是歐盟的《通用數(shù)據(jù)保護(hù)法》還是美國(guó)即將出臺(tái)的《算法問責(zé)法案》都把透明性作為問責(zé)的重要要素。雖然算法的透明度成為普遍的訴求,但是算法錯(cuò)誤的難以監(jiān)控和糾正就會(huì)導(dǎo)致其的不可解釋性。因此,在自動(dòng)算法決策中,算法的透明性成為重要的挑戰(zhàn)[17]。但是,如果公開有關(guān)算法,很多企業(yè)和機(jī)構(gòu)認(rèn)為:①算法有可能是企業(yè)的機(jī)密,公開有關(guān)算法雖然有助于公眾監(jiān)督,但是會(huì)影響企業(yè)或者組織機(jī)構(gòu)的發(fā)展。②公開算法有可能會(huì)涉及大量的個(gè)人隱私。如果說算法是“大腦”,那么數(shù)據(jù)是養(yǎng)料。而很多算法系統(tǒng)的運(yùn)行離不開數(shù)據(jù),數(shù)據(jù)中又包含了大量的個(gè)人隱私數(shù)據(jù),因此,算法的透明和公開必然會(huì)涉及相關(guān)隱私的管理和規(guī)定。③有些算法本身就是“黑箱”,就是公開了,對(duì)于算法運(yùn)行的機(jī)理也難以清楚地解釋。
第二,算法的難以解釋性。算法的可解釋性,首先指的是面向用戶而非面向領(lǐng)域?qū)<液图夹g(shù)人員的解釋權(quán);其次,解釋的內(nèi)容包括整個(gè)決策的過程、輸入、輸出的關(guān)系、數(shù)據(jù)的來源、決策原理等方面[18]。因此,在應(yīng)用算法進(jìn)行決策的系統(tǒng)中,必須采用最終用戶可以理解的語(yǔ)言用于解釋,以便用戶能夠理解并獲取其信任。歐盟在2018年的《通用數(shù)據(jù)保護(hù)法》中創(chuàng)制了自動(dòng)化決策的解釋權(quán),要求每一個(gè)制定決策的算法能夠證明決策的正確性[19]。如何解釋自動(dòng)化決策的功能、原理、模型的設(shè)計(jì)以及計(jì)算的結(jié)果成為應(yīng)用機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)決策的難題。一方面是不可解釋性,即機(jī)器學(xué)習(xí)在自主學(xué)習(xí)過程中,所做出的決策,有時(shí)候本身就存在“黑箱”,如學(xué)者M(jìn)ayer Schnberger認(rèn)為:深度神經(jīng)網(wǎng)絡(luò)的美麗之處部分在于它們是“黑箱”,因?yàn)樗鼈円猿饺祟愡壿嬛獾姆绞焦ぷ鱗20];另外一方面,即使能解釋,但是解釋的復(fù)雜度很高,這也成為自動(dòng)化決策應(yīng)用和發(fā)展中的重要障礙因素之一。
5.3 大數(shù)據(jù)算法決策個(gè)人申訴的困境
申訴是指公民、法人或其他組織,認(rèn)為對(duì)某一問題的處理結(jié)果不正確,而向國(guó)家的有關(guān)機(jī)構(gòu)申述理由,請(qǐng)求重新處理的行為[21]。目前,就大數(shù)據(jù)算法決策所產(chǎn)生的人身傷害、財(cái)產(chǎn)損失,由于主體的多樣性、過程的不透明性等原因,不僅難以申訴,并且目前并沒有建立明確、專門的申訴機(jī)制。例如,就歐盟的《通用數(shù)據(jù)保護(hù)法》中雖然提出了建立人工智能倫理委員會(huì),以及全自動(dòng)化決策的知情—同意等權(quán)利,但是算法決策造成對(duì)當(dāng)事人的傷害問題并沒有明確的規(guī)定。另外,在2019年,歐盟公布的《可信賴人工智能的倫理準(zhǔn)則》中,雖然也提出了問責(zé)的問題,但也只是從風(fēng)險(xiǎn)防控的角度提出了加強(qiáng)審計(jì)和最小化負(fù)面影響的要素,并沒有對(duì)造成的傷害如何進(jìn)行評(píng)估和救濟(jì)等問題做出有關(guān)的規(guī)定。
6 完善大數(shù)據(jù)算法決策問責(zé)的對(duì)策
大數(shù)據(jù)算法決策造成的傷害,作為普通的受害人追溯起來非常的困難。因?yàn)榘凑彰袷略V訟的方式起訴到法院,依據(jù)慣例,誰(shuí)起訴誰(shuí)舉證的原則,受害人以一己之力舉證自動(dòng)化決策產(chǎn)生的錯(cuò)誤是很難實(shí)現(xiàn)的[22]。正如古德曼等人認(rèn)為,要想就自動(dòng)化招聘問題起訴雇主,這是一件極度困難的事情,因?yàn)閸徫磺舐氄咭苍S永遠(yuǎn)都不會(huì)知道企業(yè)是否采用了該種技術(shù)[14]。目前,已經(jīng)曝光的算法決策的傷害,通常由懂技術(shù)的專家、學(xué)者、工程師通過復(fù)雜技術(shù)的檢測(cè)和評(píng)估完成。因此,算法決策問責(zé)的難題比較普通的決策而言,增加了難度。
隨著人機(jī)社會(huì)的到來,構(gòu)建大數(shù)據(jù)算法決策問責(zé)制度成為未來政府、企業(yè)所要解決的重要難題。無論是算法還是驅(qū)動(dòng)算法的數(shù)據(jù),都是由人設(shè)計(jì)、創(chuàng)建和收集的,即使算法做出了錯(cuò)誤的決策或者出現(xiàn)了難以預(yù)期的結(jié)果,包括采用機(jī)器學(xué)習(xí)的方式,那么算法做出的決策也應(yīng)最終由人來負(fù)責(zé),而不應(yīng)該以算法決策為借口,不承擔(dān)相應(yīng)的責(zé)任。
6.1 依據(jù)不同的主體清楚劃分責(zé)任
雖然大數(shù)據(jù)算法決策的主體非常復(fù)雜,有人的因素,還有“機(jī)器”的因素,這就有必要清楚劃分決策主體的責(zé)任,才能有助于算法決策的有效實(shí)施和確定責(zé)任的歸屬。
人類以語(yǔ)言和文字表達(dá)對(duì)問題的意見和抉擇,而大數(shù)據(jù)算法的本質(zhì)是以計(jì)算機(jī)的代碼以及數(shù)學(xué)方式進(jìn)行意見的表達(dá)和決策。決策的結(jié)果嵌入了設(shè)計(jì)者、開發(fā)者、使用者的主觀選擇,除了算法本身的原因以外,決策的原料—數(shù)據(jù)的全面性、準(zhǔn)確性、完整性等因素也是影響算法的重要方面。因此,依據(jù)算法決策的目的、標(biāo)準(zhǔn)、功能、使用范圍和效果,劃分不同的責(zé)任主體,對(duì)算法造成對(duì)當(dāng)事人的傷害進(jìn)行評(píng)估和問責(zé)。①算法的設(shè)計(jì)者或者開發(fā)商。從人工智能產(chǎn)品來說,其本質(zhì)是一種商品。那么算法的設(shè)計(jì)者和開發(fā)商是算法決策產(chǎn)生的重要責(zé)任人,算法設(shè)計(jì)者既包括算法的工程師也包括采納算法的機(jī)構(gòu)。②算法決策的管理者。很多企業(yè)或者政府為了提高單位的效率,購(gòu)買大數(shù)據(jù)算法決策的產(chǎn)品,在工作中對(duì)用戶造成的傷害,算法決策的管理者也需要承擔(dān)相應(yīng)的責(zé)任。
傳統(tǒng)的決策問責(zé)遵循“誰(shuí)決策誰(shuí)負(fù)責(zé)”、“誰(shuí)主管誰(shuí)負(fù)責(zé)”,而作為大數(shù)據(jù)算法決策,雖然是機(jī)器做出的決策,所產(chǎn)生的傷害和負(fù)面影響,也需要有相應(yīng)的責(zé)任人負(fù)責(zé),因此,同樣要秉承“誰(shuí)設(shè)計(jì)誰(shuí)負(fù)責(zé)”和“誰(shuí)主管誰(shuí)負(fù)責(zé)”的原則。
6.2 構(gòu)建科學(xué)合理的問責(zé)機(jī)制
應(yīng)用大數(shù)據(jù)算法決策,其決策的“不透明性”和“不可解釋性”總是成為詬病的話題,為了促進(jìn)其透明性和可解釋性,構(gòu)建科學(xué)合理的問責(zé)機(jī)制,有助于防止其風(fēng)險(xiǎn)的發(fā)生。
1)成立專門的大數(shù)據(jù)算法決策問責(zé)委員會(huì)。其主要職責(zé)除了對(duì)大數(shù)據(jù)算法決策存在的風(fēng)險(xiǎn)進(jìn)行評(píng)估和制定相關(guān)的規(guī)則和制度以外,同時(shí)受理受到算法決策傷害的當(dāng)事人申訴。如果按照傳統(tǒng)產(chǎn)品造成的傷害,誰(shuí)受傷害誰(shuí)舉證的原則,當(dāng)事人很難做到。因此,鑒于大數(shù)據(jù)算法決策的高度復(fù)雜性,大數(shù)據(jù)算法決策產(chǎn)品所造成的傷害,需要建立由專家、學(xué)者、技術(shù)工作者共同組成的大數(shù)據(jù)算法決策問責(zé)委員會(huì),對(duì)當(dāng)事人造成的傷害進(jìn)行評(píng)估、認(rèn)證,為當(dāng)事人出具相關(guān)證據(jù)和報(bào)告。
2)建立明確的責(zé)任標(biāo)準(zhǔn)。作為開發(fā)、采用自動(dòng)化決策的機(jī)構(gòu),如果造成了歧視性、錯(cuò)誤的決策,依據(jù)決策的影響、嚴(yán)重程度需要承擔(dān)相應(yīng)的責(zé)任。目前,由于對(duì)錯(cuò)誤或者歧視的標(biāo)準(zhǔn)和認(rèn)知程度不同,導(dǎo)致對(duì)于自動(dòng)化決策產(chǎn)生負(fù)面影響的責(zé)任難以界定。例如,COMPAS是美國(guó)司法部門應(yīng)用的犯罪風(fēng)險(xiǎn)評(píng)估系統(tǒng)就對(duì)黑人有歧視的現(xiàn)象,該系統(tǒng)的算法往往會(huì)對(duì)黑人打上高風(fēng)險(xiǎn)犯罪分子的標(biāo)簽,如果黑人犯罪,將會(huì)面臨更加嚴(yán)厲的刑罰。但是,由于對(duì)算法偏差并沒有統(tǒng)一的界定和建立相應(yīng)的問責(zé)機(jī)制,導(dǎo)致目前很多法院依舊采用該系統(tǒng)而對(duì)出現(xiàn)的問題不用承擔(dān)任何責(zé)任[23]。因此,對(duì)于算法造成的傷害需要明確設(shè)計(jì)者、開發(fā)商、應(yīng)用商的責(zé)任,同時(shí)也需要?jiǎng)澐种饔^故意造成的傷害,還是算法系統(tǒng)自然習(xí)得的傷害,依據(jù)問題的不同,制定差別化的責(zé)任標(biāo)準(zhǔn),以便更好地預(yù)防算法所導(dǎo)致的不良后果。
3)加強(qiáng)算法的審計(jì)。加強(qiáng)審計(jì)是算法問責(zé)的重要方面,在歐盟的《通用數(shù)據(jù)保護(hù)法》中明確提出算法審計(jì)作為評(píng)估責(zé)任的重要手段。算法的審計(jì)既包括人工的審計(jì),也包括AI審計(jì),即審計(jì)內(nèi)容和過程的代碼化。由于算法的復(fù)雜性,在算法的審計(jì)過程中,對(duì)于算法和數(shù)據(jù)的偏差和偏見,只靠專家和技術(shù)人員的人工審計(jì)還是非常有限的,如果通過專業(yè)性的AI審計(jì)系統(tǒng),科學(xué)的檢查算法的學(xué)習(xí)模型,并測(cè)試訓(xùn)練數(shù)據(jù)和模型中的偏見,將會(huì)大幅度提高審計(jì)的效率和科學(xué)性。
6.3 制定全面救濟(jì)措施
目前,對(duì)于算法所造成的傷害,普遍采用的方法是對(duì)造成傷害的企業(yè)或者平臺(tái)進(jìn)行罰款,例如,歐盟《通用數(shù)據(jù)保護(hù)法》中規(guī)定,違反該法的相關(guān)規(guī)定,情節(jié)嚴(yán)重的違規(guī)企業(yè)接受2千萬歐元的罰款,或者繳納上一財(cái)政年度全球營(yíng)業(yè)額的4%,兩者取其高,進(jìn)行罰款,提高企業(yè)的責(zé)任感[24]。我國(guó)2018年制定的《電子商務(wù)法》第18條規(guī)定了網(wǎng)絡(luò)平臺(tái)算法個(gè)性化推薦結(jié)果的消費(fèi)者保護(hù)義務(wù),對(duì)于違反規(guī)定的企業(yè),由相關(guān)部門責(zé)令其限期改正,沒收違法所得,可以并處5萬元以上20萬元以下的罰款;情節(jié)嚴(yán)重的,并處20萬元以上50萬元以下的罰款[25]。從以上相關(guān)的法律規(guī)定來看,對(duì)于算法決策主體的懲戒主要以罰款和責(zé)令修正為主,但是對(duì)于算法所導(dǎo)致的個(gè)人消費(fèi)者的傷害性救濟(jì)尚未提及。因此,應(yīng)用算法對(duì)個(gè)人造成的歧視、不公平交易、侵害個(gè)人合法權(quán)益的行為,需要進(jìn)行原則性的規(guī)定,合理定性其行為,如果有嚴(yán)重侵犯?jìng)€(gè)人權(quán)益的行為,可將其定性為濫用優(yōu)勢(shì)地位、欺詐、誘導(dǎo)等不當(dāng)獲利和侵權(quán)行為,對(duì)于個(gè)人造成的傷害和侵權(quán)給予申訴,加強(qiáng)應(yīng)用算法決策的企業(yè)或者政府算法監(jiān)管的行為,更有助于算法決策的應(yīng)用獲得公眾的信任[22]。
在十九大報(bào)告中,明確提出了要加強(qiáng)和推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合,促進(jìn)我國(guó)經(jīng)濟(jì)和社會(huì)的繁榮發(fā)展。大數(shù)據(jù)算法決策技術(shù)在政府和企業(yè)領(lǐng)域中的應(yīng)用將會(huì)是未來發(fā)展的重要趨勢(shì)。隨著大數(shù)據(jù)產(chǎn)業(yè)的發(fā)展,我國(guó)對(duì)利用大數(shù)據(jù)所存在的問題也開始重視起來,例如:2015年我國(guó)制定的指導(dǎo)大數(shù)據(jù)發(fā)展的綱領(lǐng)性政策《大數(shù)據(jù)發(fā)展的行動(dòng)綱要》,對(duì)我國(guó)大數(shù)據(jù)應(yīng)用中隱私的保護(hù)做了一定的說明,但是對(duì)于大數(shù)據(jù)應(yīng)用的算法決策問責(zé)問題尚未涉及。算法問責(zé)是大數(shù)據(jù)應(yīng)用中的核心問題之一,因此,需要不斷加強(qiáng)大數(shù)據(jù)算法決策中問責(zé)問題的研究,保證算法決策能夠客觀、科學(xué)、透明,不斷促進(jìn)人機(jī)社會(huì)的和諧發(fā)展和大數(shù)據(jù)技術(shù)的科學(xué)利用。
參考文獻(xiàn)
[1]《新一代人工智能發(fā)展規(guī)劃》國(guó)發(fā)[2017]35號(hào)[EB/OL].https://wenku.baidu.com/view/752beed7c67da26925c52cc58bd631 86bdeb9204.html,2019-10-20.
[2]Algorithmic Decision-Making Based on MachineLearning from Big Data:Can Transparency,Restore Accountability?Philos.Technol,2018[EB/OL].https://link.springer.com/content/pdf/10.1007%2Fs13347-017-0293-z.pdf,2019-10-20.
[3]Algorithmic Accountability-Applying the Concept to Different Country Context,2017[EB/OL].https://webfoundation.org/docs/2017/07/Algorithms_Report_WF.pdf,2019-10-20.
[4]Anton Vedder,Laurens Naudts.Accountability for the Use of Algorithms in a Big Data Environment[EB/OL].https://lirias.kuleuven.be/retrieve/430572,2019-10-21.
[5]Maja Brkan.Do Algorithms Rule the World?Algorithmic Decision-Making and Data Protection in the Framework of the GDPR and Beyoud[EB/OL].https://techpolicyinstitute.org/wp-content/uploads/2018/02/Brkan_do-algorithms-rule.pdf,2019-10-21.
[6]王珀.無人駕駛與算法倫理:一種后果主義的算法設(shè)計(jì)倫理框架[J].自然辯證法研究,2018,(10):70-75.
[7]魏強(qiáng),陸平.人工智能算法面臨倫理困境[J].互聯(lián)網(wǎng)經(jīng)濟(jì),2018,(5):26-31.
[8]吳佳超.物聯(lián)網(wǎng)技術(shù)倫理問題研究[D].天津:天津大學(xué),2013.
[9]牟莉娜,陽(yáng)杰.人工智能時(shí)代的機(jī)遇與挑戰(zhàn):基于算法的審計(jì)決策[J].中國(guó)內(nèi)部審計(jì),2018,(12):4-6.
[10]Neyland D.Accountability and the Algorithm[EB/OL].https://link.springer.com/content/pdf/10.1007%2F978-3-030-00578-8_3.pdf,2019-10-20.
[11]Association for Computing Machinery US Public Policy Council(USACM),Statement on Algorithmic Transparency and Accountability,2017-01-12[EB/OL].https://www.acm.org/binaries/content/assets/public-policy/2017_joint_statement_algorithms.pdf,2019-10-20.
[12]搜狐網(wǎng).算法決策興起:人工智能時(shí)代的若干倫理問題及策略[EB/OL].http://www.sohu.com/a/143165651_455313,2019-10-20.
[13]AI算法歧視在普惠金融中的悖論、阻礙與解決方案[EB/OL].http://mini.eastday.com/a/180621063628033-2.html,2019-10-22.
[14]百度網(wǎng).檢測(cè)到女性就打低分?亞馬遜AI招聘工作被曝性別歧視[EB/OL].https://www.baidu.com/link?url=SrT5lZLs1Ra E35 ZkXbU4ZVGZfM5065Rn10B81pBDXf5AWiCu9qAU6yx41yv1J efOp eATtg_kiXfp6FyXaP0cdOhnpyOmrA86BAKlOXZmT1C&wd=&eqid=fec48db60004f238000000035d09a001,2019-10-22.
[15]雷鋒網(wǎng).消除人臉識(shí)別系統(tǒng)對(duì)不同膚色的誤判,為何比登天還難?[EB/OL].http://wangid.cn/news-5003-257.html,2019-10-22.
[16]ProPublica is Wrong in Charging Racial Bias in an Algorithm[EB/OL].https://www.acsh.org/news/2018/01/17/propublica-wrong-charging-racial-bias-algorithm-12427,2019-10-22.
[17]Diakopoulos.Nicholas,Algorithmic Accountability:Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2015,3(3):398-415.
[18]Principles for Accountable Algorithms and a Social Impact Statement for Algorithms[EB/OL].http://www.fatml.org/resources/principles-for-accountable-algorithms,2019-10-22.
[19]百家號(hào).解釋權(quán)條款剝奪深度學(xué)習(xí)的合法性:最嚴(yán)數(shù)據(jù)隱私條例今日生效[EB/OL].http://baijiahao.baidu.com/s?id=16014196283 24671330&wfr=spider&for=pc,2019-10-22.
[20]搜狐網(wǎng).歐盟要求解釋權(quán),或引發(fā)與人工智能公司的沖突[EB/OL].http://www.sohu.com/a/105378337_381309,2019-10-22.
[21]百度百科[EB/OL].https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=%E7%94%B3%E8%AF%89&rsv_pq=dc52ae88000180bd&rsv_t=6e24UCJ0VYdP1 LP387xQime4EJ3LXOix7bvqvSPkbSMx7vs9cemJpwJmeto&rqlang=cn&rsv_enter=1&rsv_sug3=1,2019-10-22.
[22]張凌寒.《電子商務(wù)法》中的算法責(zé)任及其完善[J].北京航空航天大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2018,(6):16-21.
[23]Joan Donovan,Robyn Caplan.Algorithmic Accountability:A Primer[EB/OL].https://datasociety.net/wp-content/uploads/2018/04/Data_Society_Algorithmic_Accountability_Primer_FINAL-4.pdf,2019-10-22.
[24]CSDN博客.你準(zhǔn)備好迎接GDPR(歐盟,通用數(shù)據(jù)保護(hù)法)了嗎?[EB/OL].https://blog.csdn.net/jessica_seiya/article/details/79061 406,2019-10-22.
[25]中華人民共和國(guó)電子商務(wù)法[EB/OL].http://lawdb.cncourt.org/show.php?fid=150891,2019-10-22.
(責(zé)任編輯:陳 媛)