文/陳霖煊
人工智能在警務(wù)領(lǐng)域的不斷深化應(yīng)用,使得執(zhí)法效率和執(zhí)法科技水平大大提升。人工智能要在執(zhí)法環(huán)境中獲得社會公眾的信任,不僅要遵守法律規(guī)定,還應(yīng)當(dāng)符合倫理原則。
因此,2018 年12 月,歐盟執(zhí)法效率委員會(CEPEJ)在現(xiàn)有監(jiān)管制度的基礎(chǔ)上,通過了第一個歐洲文書指引——《關(guān)于在法律系統(tǒng)及其執(zhí)法環(huán)境中使用人工智能的歐洲倫理憲章》(以下簡稱:歐洲倫理憲章),以確保人工智能不僅納入公共政策,而且也納入倫理道德框架。
歐洲倫理憲章不僅闡述了在執(zhí)法系統(tǒng)中使用人工智能(AI)的倫理原則,還為政策制定者、立法者和執(zhí)法專業(yè)人員如何應(yīng)對國家執(zhí)法程序中人工智能的快速發(fā)展提供了指導(dǎo)框架。
歐盟執(zhí)法效率委員會指出,在法律系統(tǒng)中使用人工智能工具和服務(wù),旨在提高司法的效率和質(zhì)量,值得鼓勵。然而,它必須以負(fù)責(zé)任的方式,尊重個人的基本權(quán)利,符合《歐洲人權(quán)公約》(ECHR)和歐洲委員會公約108 號保護(hù)個人數(shù)據(jù)條例,以及其他基本的原則。
歐洲倫理憲章指出,人工智能發(fā)展應(yīng)以增進(jìn)人類共同福祉為目標(biāo),應(yīng)保障個人基本權(quán)利,促進(jìn)人機(jī)和諧。執(zhí)法決策和數(shù)據(jù)的處理必須目標(biāo)明確,且完全符合歐洲人權(quán)公約保障的基本權(quán)利和公約保護(hù)個人數(shù)據(jù)條例。當(dāng)人工智能作為工具用于解決法律爭端或作為工具來協(xié)助執(zhí)法決策或指導(dǎo)公民時(shí),其核心宗旨是保障公民權(quán)利和獲得執(zhí)法公正、公平審判的權(quán)利。使用人工智能時(shí)還應(yīng)尊重法治原則,確保執(zhí)法機(jī)關(guān)在決策過程中的獨(dú)立性。因此,應(yīng)優(yōu)先按倫理和人權(quán)考慮設(shè)計(jì)人工智能法律工具,符合基本社會價(jià)值觀。
鑒于人工智能數(shù)據(jù)處理方法可能會通過分組或分類處理個人或群體數(shù)據(jù),從而揭示現(xiàn)有社會的歧視,公共政策執(zhí)行者必須確保人工智能處理法律數(shù)據(jù)不再產(chǎn)生或加劇現(xiàn)有社會歧視,保障人工智能法律數(shù)據(jù)不會被歧視性分析或使用。此外,在部署人工智能研發(fā)時(shí)需要特別注意社會敏感數(shù)據(jù),其中可能包括所謂的種族或族裔出身、社會經(jīng)濟(jì)背景、政治觀點(diǎn)、宗教或哲學(xué)信仰、遺傳數(shù)據(jù)、生物特征數(shù)據(jù)、與健康有關(guān)的數(shù)據(jù)或有關(guān)性取向的數(shù)據(jù)。如果權(quán)威部門和行政執(zhí)法部門發(fā)現(xiàn)這種歧視后,有必要采取措施糾正,以限制風(fēng)險(xiǎn),并考慮提高利益攸關(guān)方的認(rèn)識。最重要的是,相關(guān)部門應(yīng)該鼓勵使用人工智能模型和多學(xué)科科學(xué)分析來打擊這種社會歧視。
歐盟執(zhí)法效率委員會指出,人工智能法律數(shù)據(jù)模型的設(shè)計(jì)應(yīng)該能夠廣泛地利用相關(guān)執(zhí)法專業(yè)人員的專業(yè)知識,并邀請法律和社會科學(xué)領(lǐng)域的研究人員、經(jīng)濟(jì)學(xué)家、社會學(xué)家和哲學(xué)家等,參與到人工智能執(zhí)法程序設(shè)計(jì)環(huán)節(jié)中,推動國際組織、政府部門、科研機(jī)構(gòu)、教育機(jī)構(gòu)、企業(yè)、社會組織、公眾在人工智能發(fā)展與治理中協(xié)調(diào)互動。在充分尊重人工智能道德倫理原則和實(shí)踐的前提下,由項(xiàng)目團(tuán)隊(duì)共享共建共治,并通過實(shí)踐反饋不斷加強(qiáng)。
在安全性能方面,執(zhí)法決策的數(shù)據(jù)被輸入到人工智能算法的程序中時(shí),應(yīng)確保法律數(shù)據(jù)認(rèn)證來源,保證法律數(shù)據(jù)實(shí)際使用過程真實(shí)可靠;人工智能法律應(yīng)用過程必須可追溯,以確保法律實(shí)施的質(zhì)量和安全;所創(chuàng)建的數(shù)據(jù)模型和算法必須能夠在安全的環(huán)境中進(jìn)行存儲和執(zhí)行,以確保系統(tǒng)的完整性和安全隱秘性。
人工智能要堅(jiān)持普惠性和包容性,切實(shí)保護(hù)各相關(guān)主體合法權(quán)益,推動全社會公平共享人工智能帶來的益處,促進(jìn)社會公平正義和機(jī)會均等。透明、公正、公平的原則要求:使用數(shù)據(jù)工具時(shí)必須平衡知識產(chǎn)權(quán)和信息透明度之間的關(guān)系,保證公正性和知識完整性,以免產(chǎn)生法律后果;必須符合法律程序,形成科學(xué)閉環(huán)設(shè)計(jì),因?yàn)榉蓴?shù)據(jù)選擇過程和法律數(shù)據(jù)的質(zhì)量和準(zhǔn)確性直接影響到法律執(zhí)行階段;必須保證數(shù)據(jù)處理方法公開透明,以便接受外部監(jiān)督審計(jì)。除此之外,人工智能系統(tǒng)還可以用清晰的專業(yè)語言來解釋所提供的服務(wù)、已開發(fā)的智能工具和可能潛在的法律風(fēng)險(xiǎn)。國家法律部門或法律專家可以負(fù)責(zé)認(rèn)證和監(jiān)督審計(jì),并提供建議。行政司法部門可以頒發(fā)認(rèn)證,并定期進(jìn)行審查。
一是必須通過使用人工智能工具增加服務(wù)而不是限制服務(wù)。二是執(zhí)法系統(tǒng)的專業(yè)人員在任何時(shí)候都應(yīng)能夠?qū)彶閳?zhí)法決策和法律數(shù)據(jù),并根據(jù)特定案件的具體特點(diǎn),不完全受到司法結(jié)果的約束。同時(shí)人工智能工具提供的解決方案必須具有法律約束力,且必須以清晰可理解的語言告知公民。公民有權(quán)獲得法律咨詢、有權(quán)進(jìn)入法庭、有權(quán)在執(zhí)法過程實(shí)施前或期間獲得由人工智能告知的對案件事先處理方式,并有權(quán)提出異議。三是當(dāng)使用任何基于人工智能的信息系統(tǒng)時(shí),都應(yīng)該為公民提供人機(jī)結(jié)合方案,并與來自執(zhí)法系統(tǒng)的執(zhí)法人員進(jìn)行商議。
在這些原則中,尊重人權(quán)和不歧視是根本性原則。