胡曉萌,李 倫
(1.湖南師范大學(xué) 人工智能道德決策研究所,湖南 長沙 410081;2.大連理工大學(xué) 大數(shù)據(jù)與人工智能倫理法律與社會研究中心,遼寧 大連 116023)
萊布尼茨曾說:世界上沒有兩片完全相同的樹葉。這個世界上也找不出兩張完全相同的人臉,即使是雙胞胎的臉也存在細(xì)微差異而得以區(qū)分,所以人臉成為辨別個人身份的一個重要途徑。自動人臉識別技術(shù)(Automatic Face Recognition,AFR)的初衷便是賦予計算機具有像人一樣識別人臉的能力。自動人臉識別技術(shù)通過人的面部特征進行身份的識別和辨認(rèn),是一種重要的生物識別技術(shù)。本文所要討論的人臉識別技術(shù)就是自動人臉識別技術(shù)。
大數(shù)據(jù)、人工智能的發(fā)展引來了商業(yè)和資本對人臉識別技術(shù)的追捧。商業(yè)巨頭和創(chuàng)業(yè)團隊紛紛進入人臉識別這個人工智能最熱門的賽道。但是,隨著人臉識別技術(shù)的發(fā)展和應(yīng)用,人們對該技術(shù)的消極對抗情緒也越來越強。如2018年5月,36歲的英國人布里奇斯向法庭控訴南威爾士警察局侵犯了他的隱私權(quán),因警方未經(jīng)他本人同意而使用人臉識別系統(tǒng)掃描其面部,成為英國首起人臉識別的法律訴訟。2018年8月,瑞典數(shù)據(jù)監(jiān)管機構(gòu)對當(dāng)?shù)匾凰咧虚_出第一張基于GDPR的人臉識別的罰單。2019年11月,杭州野生動物世界強制游客“刷臉”入園,當(dāng)事人郭兵將其告上法庭,成為我國“人臉識別第一案”。
人臉識別技術(shù)最開始以公共安全和國家安全為價值使命而得到發(fā)展和應(yīng)用。但是如果安全這個價值訴求被放大而導(dǎo)致人臉識別技術(shù)被濫用的話,勢必會引起隱私、歧視等一系列倫理風(fēng)險。人們甚至開始擔(dān)心人臉識別技術(shù)會使人暴露在無處不在的監(jiān)視之中,演變成現(xiàn)實版的“楚門的世界”,世界各國也提高了對人臉識別技術(shù)的警惕。2019年5月14日,美國舊金山成為全球第一個通過立法禁止政府使用人臉識別監(jiān)視技術(shù)的大城市。英國也出臺政策限制人臉識別技術(shù)的應(yīng)用。
人臉識別技術(shù)的倫理風(fēng)險與技術(shù)的濫用和可靠性問題密切相關(guān),本文將從人臉識別技術(shù)的濫用和可靠性問題著手,分析人臉識別技術(shù)引起的倫理風(fēng)險,最后基于非力量倫理和責(zé)任倫理提出相應(yīng)的倫理原則和規(guī)制建議。
通過對人臉識別技術(shù)發(fā)展歷史的回溯,我們可以發(fā)現(xiàn)人臉識別技術(shù)因公共安全和國家安全的價值需求而得以發(fā)展和應(yīng)用。20世紀(jì)中葉,美國科學(xué)家開始了人臉識別技術(shù)研究。此后的數(shù)十年間,美國當(dāng)局投入大量資金支持人臉識別技術(shù)的研究,其背后的利益和價值訴求始終圍繞公共安全和國家安全。根據(jù)公共安全和國家安全的需求變化以及人臉識別的技術(shù)特點,人臉識別技術(shù)分為幾何特征時代、統(tǒng)計特征時代、大數(shù)據(jù)時代三個階段。
第一,幾何特征時代(1964年~1990年):1964年美國計算機科學(xué)家伍迪·布萊索(Woody Bledsoe)在一個情報機構(gòu)的資助下進行人臉識別技術(shù)的研究。他提出的基于人臉幾何結(jié)構(gòu)特征的識別方法,也是最早的人臉識別技術(shù)的方法。[1]7金出武雄、柯比與西羅維奇等人在此基礎(chǔ)上發(fā)展了基于幾何特征的人臉識別技術(shù)。
第二,統(tǒng)計特征時代(1991年~1997年):20世紀(jì)60、70年代開始,美國進入毒品、藥物泛濫的時代,毒品被美國當(dāng)局認(rèn)定為國家第一公敵。1990年9月紐約時報-CBS民意調(diào)查將毒品列為全美排名第一的社會問題[2]。由毒品滋生的犯罪和艾滋病是第二和第三大問題。1993年,美國國防部反毒品技術(shù)開發(fā)計劃辦公室出于監(jiān)控吸毒人員、控制毒品泛濫、維護公共安全的需求,啟動了具有里程碑意義的人臉識別技術(shù)(Facial Recognition Technology,F(xiàn)ERET)項目。特征臉(Eigenface)識別方法、“Fisher face”識別方法、彈性圖匹配識別技術(shù)等都是這一時期出現(xiàn)的具有代表性的人臉識別方法。1996年,艾提克(Atick)等人提出的局部特征人臉識別分析方法(Local Feature Analysis,LFA)具有較高的描述和判別能力,在此方法上開發(fā)了著名的FaceIt人臉識別商用系統(tǒng)。[3]21998年,英國倫敦的紐漢區(qū)安裝了Visionics公司的250多套FaceIt系統(tǒng),它可以自動掃描經(jīng)過攝像頭前的人的臉部,并在罪犯數(shù)據(jù)庫中搜索、比對,發(fā)出預(yù)警。
第三,大數(shù)據(jù)時代(1998年~至今):這一時期,人臉識別技術(shù)從實驗室走到了實用的商業(yè)階段。人臉識別技術(shù)開始通過使用由多層神經(jīng)網(wǎng)絡(luò)組成的深度學(xué)習(xí)算法,從大規(guī)模數(shù)據(jù)中自動學(xué)習(xí)分類信息,準(zhǔn)確率獲得極大提升,在動態(tài)人臉識別、較差環(huán)境下、低分辨率等應(yīng)用場景中人臉識別準(zhǔn)確率較低的問題也逐漸得到解決。
美國在2001年遭受9·11襲擊之后,國家安全成為美國政府關(guān)注的重要問題,生物識別技術(shù)被認(rèn)為是解決公共安全問題的終極手段,人臉識別技術(shù)被認(rèn)為是極為重要的生物識別技術(shù)。在9·11事件后的幾天,Viisage Technology的首席執(zhí)行官宣稱:“如果部署了我們的人臉識別技術(shù),則可能甄別出恐怖分子?!盵4]2014年,美國聯(lián)邦調(diào)查局應(yīng)用洛克希德·馬丁公司花費10億美元建造的新一代人臉識別技術(shù)系統(tǒng)(Next Generation Identification,NGI)來追蹤罪犯。
美國心理學(xué)家保羅·??寺?Paul Ekman)是表情識別的奠基性人物,他確定了人臉43塊肌肉可以創(chuàng)造1萬個面部特征,其中3000個表情是有意義的,并于1978年建立面部動作編碼系統(tǒng)(Facial Action Coding System,F(xiàn)ACS)。9·11事件后,美國FBI-CIA聯(lián)合反恐組與??寺献鲗μ胤N特工、安保人員等開展相關(guān)的面部表情識別培訓(xùn),用以確定潛伏在大型公共場所人群中的恐怖分子和可能造成公共安全威脅的人員。[5]16
在??寺难芯炕A(chǔ)上,美國政府資助了自動面部表情識別方面的研究。2009年,匹茲堡大學(xué)團隊研發(fā)的自動面部表情識別系統(tǒng)(Automatic Facial Expression Recognition System,AFERS)在FACS的手動操作基礎(chǔ)上實現(xiàn)了自動化。加州大學(xué)圣地亞哥分校團隊研發(fā)的計算機表情識別工具箱(The Computer Expression Recognition Toolbox,CERT),是基于機器學(xué)習(xí)和計算機視覺方法的全自動面部表情識別系統(tǒng)。該系統(tǒng)能夠自動檢測視頻流中的正臉表情,包括憤怒、厭惡、恐懼、喜悅、悲傷、驚奇和輕蔑,以及頭部姿勢等30個面部動作單元。這些技術(shù)系統(tǒng)后被運用于公共安全監(jiān)控、駕駛員疲勞自動檢測等諸多方面。
目前人臉識別技術(shù)的應(yīng)用主要分為三大類:(1)身份驗證,即人臉識別系統(tǒng)將掃描存入的人臉圖像進行特征提取,創(chuàng)建模板,在今后的身份驗證中進行匹配驗證,屬于一對一匹配。比如使用人臉識別的企業(yè)考勤功能、手機的面部識別解鎖功能,都是典型的人臉識別的身份驗證功能應(yīng)用。(2)身份識別,是一個一對多的匹配過程。在這個過程中,系統(tǒng)需要對不明身份的人進行識別。這個應(yīng)用功能也是人臉識別技術(shù)最開始得以發(fā)展的重要原因,主要應(yīng)用于公共安全領(lǐng)域。執(zhí)法部門在將采集的照片與現(xiàn)有數(shù)據(jù)庫進行比對時,會使用身份識別系統(tǒng)。如2017年我國四川省九寨溝縣公安局推廣使用的移動警務(wù)終端是典型的人臉識別的身份識別功能應(yīng)用。該終端具備“采集即錄入、錄入即比對、比對即發(fā)現(xiàn)”的功能,只需現(xiàn)場拍下一張人臉照片,即可與四川省人口信息管理系統(tǒng)和在逃人員、吸毒人員等特殊數(shù)據(jù)庫進行比對,數(shù)秒內(nèi)出結(jié)果。(3)狀態(tài)識別,判斷被檢測對象的精神狀態(tài)、注意力等。該應(yīng)用功能來自于保羅·??寺鼊?chuàng)立的表情識別體系?;谶@三類功能應(yīng)用方向,人臉識別技術(shù)目前已經(jīng)在公共安全、社區(qū)和企業(yè)管理、金融、交通、教育、移動通信、司法刑偵等領(lǐng)域得到了應(yīng)用。
人臉識別技術(shù)的大規(guī)模商業(yè)應(yīng)用遍地開花,而國家和行業(yè)對這一新興技術(shù)的監(jiān)管顯得有些滯后。人臉識別技術(shù)被應(yīng)用在很多非必要的場景,濫用現(xiàn)象十分嚴(yán)重。人臉識別技術(shù)的倫理風(fēng)險主要包括隱私泄露、識別錯誤、安全風(fēng)險和歧視等四個方面的倫理風(fēng)險。
人們每天出現(xiàn)在攝像頭下數(shù)百次,人臉數(shù)據(jù)在人們避無可避的情況下就被采集了。通過技術(shù)手段,很容易將人臉信息與身份信息關(guān)聯(lián)起來。隨之而來,人們行動軌跡、日常工作生活、興趣愛好等個人隱私信息都會被挖掘出來。人臉識別技術(shù)引起的個人隱私泄露風(fēng)險,以及由此引起的個人自由喪失的風(fēng)險,可能使人們生活在實時監(jiān)視的狀態(tài)之中。本杰明·黑爾(Benjamin Hale)提出了一個未來主義的思想實驗[6]149:想象一個社會,這個社會擁有無處不在的人臉識別技術(shù)監(jiān)控系統(tǒng),以防范人們從事犯罪活動,最終達成一個完美的警務(wù)理想。他認(rèn)為,這種治理方式會侵蝕人們的自由意志,因為人們不去犯罪并不是基于道德的動機,而是因為有人在監(jiān)視。
2015年,美國巴爾的摩警察局通過人臉識別,結(jié)合社交媒體的照片,識別在弗雷迪·格雷逝世的抗議活動中抗議者并進行了逮捕。喬治敦隱私與技術(shù)中心的研究表明,美國52個執(zhí)法機構(gòu)中,只有俄亥俄州犯罪調(diào)查局這一個機構(gòu)制定了人臉識別技術(shù)政策,明確禁止使用該技術(shù)跟蹤從事受保護的言論自由的個人。[7]2018年,浙江省杭州某中學(xué)在課堂中使用人臉識別技術(shù),實時對學(xué)生的課堂行為進行統(tǒng)計分析。這套“智慧課堂行為管理系統(tǒng)”針對學(xué)生的閱讀、舉手、書寫、起立、聽講、趴桌子等6種行為,結(jié)合面部表情是高興、傷心,還是憤怒、反感,分析學(xué)生在課堂上的狀態(tài),如果系統(tǒng)分析得出某位學(xué)生不專注的結(jié)論,會向任課老師發(fā)出提醒。后續(xù)的課堂人臉識別系統(tǒng)還加入了針對任課教師行為的統(tǒng)計和分析,以保證任課教師授課的敬業(yè)程度和教學(xué)效果。2021年全國“兩會”代表委員對人臉識別技術(shù)進課堂提出了批評,人臉識別技術(shù)不僅使師生們面臨隱私泄露的風(fēng)險,而且可能促使學(xué)生在一個無時不刻的監(jiān)視環(huán)境中出現(xiàn)表演型人格。[8]
目前支撐人臉識別技術(shù)的深度學(xué)習(xí)算法,高度依賴數(shù)據(jù)集,對訓(xùn)練數(shù)據(jù)集的質(zhì)量要求較高。我們每天在攝像頭下出現(xiàn)數(shù)百次,人臉數(shù)據(jù)很容易就被搜集作為訓(xùn)練數(shù)據(jù)集或?qū)φ諗?shù)據(jù)集。但是深度學(xué)習(xí)算法模型存在可靠性問題,深度學(xué)習(xí)模型離開訓(xùn)練使用的場景數(shù)據(jù),其實際效果就會降低。[9]28由于訓(xùn)練數(shù)據(jù)和實際應(yīng)用數(shù)據(jù)存在區(qū)別,訓(xùn)練出的模型被用于處理未學(xué)習(xí)過的數(shù)據(jù)時,準(zhǔn)確率就會降低。其次,也存在由于數(shù)據(jù)流通不暢、數(shù)據(jù)質(zhì)量良莠不齊和關(guān)鍵數(shù)據(jù)集缺失等造成的數(shù)據(jù)集質(zhì)量較低的情況,質(zhì)量較低的數(shù)據(jù)集是無法訓(xùn)練出一個可靠的算法。再次,人臉識別系統(tǒng)在人臉抓取、分析、識別的過程中存在一些局限性,比如面部遮擋及裝飾,或者兩張人臉的相似程度較高(雙胞胎),容易造成人臉識別的不準(zhǔn)確,所以人臉識別技術(shù)存在錯誤識別的風(fēng)險。
喬治敦隱私與技術(shù)中心的研究指出,美國大多數(shù)執(zhí)法機構(gòu)沒有采取任何措施來保證他們的人臉識別系統(tǒng)的識別結(jié)果是準(zhǔn)確的,尤其是在實時或大型數(shù)據(jù)庫中使用時人臉識別不如指紋識別準(zhǔn)確度高。當(dāng)時只有舊金山和西雅圖地區(qū)的兩家執(zhí)法機構(gòu)在將要購買人臉識別系統(tǒng)的時候,才要求對系統(tǒng)的準(zhǔn)確性進行測試,并且要求系統(tǒng)滿足一定的正確率。美國FBI在其人臉識別系統(tǒng)的隱私影響評估中承認(rèn),其系統(tǒng)可能不夠正確、可靠。[10]32雖然FBI聲稱它的系統(tǒng)擁有85%概率可以在相似排序前50名的待定人員照片中找到真正的目標(biāo)人,但也只有當(dāng)真正的目標(biāo)人的圖像儲存在人臉數(shù)據(jù)庫中時才會成功。如果目標(biāo)人的圖像不在數(shù)據(jù)庫中,系統(tǒng)仍然會產(chǎn)生一個或多個潛在的匹配人選,那么這些不是目標(biāo)人的匹配人選就極有可能并未犯罪而成為被追捕的犯罪嫌疑人。因為世界上有很多人長相相似,隨著數(shù)據(jù)庫中人數(shù)的增加,相似面孔出現(xiàn)的概率越大,識別匹配的準(zhǔn)確性就會越低。2019年埃塞克斯大學(xué)皮特·福西(Pete Fussey)教授的一項研究表明,英國警方使用的人臉識別技術(shù)有81%的概率可以將一個普通人識別成通緝犯。[11]58
安全風(fēng)險主要分為數(shù)據(jù)安全和技術(shù)安全兩部分。數(shù)據(jù)安全是全球關(guān)注的熱點問題,人臉識別的數(shù)據(jù)安全隱患和漏洞就像是一把“達摩克利斯之劍”。大規(guī)模的數(shù)據(jù)泄露事件頻頻發(fā)生,個人數(shù)據(jù)泄露條目數(shù)以億計。這些數(shù)據(jù)泄露事件的原因,主要是黑客攻擊、企業(yè)內(nèi)鬼泄露以及數(shù)據(jù)存儲管理疏忽等,其中人臉數(shù)據(jù)等生物識別數(shù)據(jù)因具有較高的交易價值而成為黑客攻擊的重點對象。
有些人臉識別技術(shù)應(yīng)用的場景,如小區(qū)、學(xué)校安保等,其網(wǎng)絡(luò)安全管理受限于成本而不具有很強的防御黑客攻擊能力,數(shù)據(jù)安全風(fēng)險隱患較大。雖然有一些小區(qū)安保的人臉識別系統(tǒng)數(shù)據(jù)存儲在本地,但是缺乏嚴(yán)格的數(shù)據(jù)安全及管理標(biāo)準(zhǔn),他人很容易從內(nèi)部IT人員或保安人員處獲得人臉數(shù)據(jù)。人臉等生物特征無法輕易改變,并且會伴隨人的一生,因此這些數(shù)據(jù)泄露所造成的的危害會是永久的、全社會的。更可怕的是,如果有機構(gòu)從安全相對松懈的小區(qū)門禁系統(tǒng)盜取某個重要目標(biāo)人物的生物特征數(shù)據(jù),那么這個人的行蹤會變得非常容易追蹤,人身安全和隱私面臨巨大的威脅。
技術(shù)領(lǐng)域永遠(yuǎn)存在“道高一尺,魔高一丈”的定律,再安全可靠的技術(shù)手段,都有被攻破的可能,人臉識別技術(shù)也不例外。技術(shù)安全風(fēng)險是人臉識別技術(shù)的重大風(fēng)險。2019年12月美國人工智能公司Kneron用特制的3D面具,成功欺騙了包括支付寶和微信在內(nèi)的諸多人臉識別支付系統(tǒng),完成了購物支付程序。Kneron的首席執(zhí)行官Albert Liu說:“這表明人臉識別技術(shù)并未達到安全標(biāo)準(zhǔn)......走捷徑是以犧牲安全為代價的?!盵12]
此外,當(dāng)人臉識別技術(shù)全面應(yīng)用于支付驗證、入戶驗證等場景,犯罪分子通過脅迫他人則更容易采用刷臉獲得身份驗證。在這個意義上,作為身份驗證的人臉識別技術(shù)比此前的密碼輸入驗證方式具有更大的風(fēng)險。
人臉識別技術(shù)不是孤立的技術(shù),是受多方面影響的,必然要與其他的數(shù)據(jù)、算法相關(guān)聯(lián),難以避免歧視性因素。第一,在訓(xùn)練人臉識別算法時采用了某個特殊群體的數(shù)據(jù),雖然這一選擇不一定是主觀決定的。第二,與人臉識別技術(shù)相關(guān)聯(lián)的其他算法中存在偏見。第三,在具體應(yīng)用中存在偏見,這相對于前兩類問題更隱蔽、更難識別,但其造成的危害一樣是難以估量的。
人臉識別技術(shù)在識別非洲裔美國人方面呈現(xiàn)出顯著的歧視問題。2012年由美國聯(lián)邦調(diào)查局參與的一項研究表明,人臉識別技術(shù)對非裔美國人、其他少數(shù)民族、婦女等人群的識別準(zhǔn)確率相較而言都非常低,而人臉表情識別、情緒識別造成的歧視問題更為顯著[13]1789。一項研究表明,目前商業(yè)應(yīng)用的大多數(shù)人臉表情識別、情緒識別系統(tǒng)都缺乏科學(xué)性,因為人們?nèi)绾瓮ㄟ^面部表情表達情緒,不同文化背景的人們有不同的表達方式,即使是同一個人表達情緒都存在很大的差異[14]29。
人臉識別技術(shù)在公共安全領(lǐng)域起著重要的作用,但是由于人臉識別技術(shù)的濫用和技術(shù)可靠性問題引起了個人隱私泄露、識別錯誤、安全風(fēng)險和歧視等倫理風(fēng)險。對人臉識別技術(shù)的發(fā)展和應(yīng)用,我們既要保持開放、包容和信心,也要保持理性審慎的態(tài)度。因此,需要建立健全人臉識別技術(shù)應(yīng)用標(biāo)準(zhǔn)和倫理規(guī)范,對人臉識別技術(shù)應(yīng)用的場景和范圍做出合理規(guī)定,使人臉識別技術(shù)更好地為人們生活服務(wù)。面對人臉識別技術(shù)的倫理風(fēng)險,我們從技術(shù)倫理的視角出發(fā),基于非力量倫理和面向未來的責(zé)任倫理提出人臉識別技術(shù)倫理規(guī)制的原則。
力量倫理的第一原則是尋求一切能做的事情,無限獲得力量。法國哲學(xué)家埃呂爾指出“人不再關(guān)心應(yīng)該做什么,而是考慮能做什么。”[15]35追求最大的力量之后,必須不遺余力,最大化地使出全部力量。力量倫理意味著,人的行為準(zhǔn)則是“能夠即應(yīng)當(dāng)”。人臉識別技術(shù)的濫用就是遵從技術(shù)力量倫理的要求。但是,對人臉識別技術(shù)力量的崇拜導(dǎo)致人臉識別技術(shù)被濫用到很多非必要的場景,隱私泄露、錯誤識別、安全和歧視等倫理風(fēng)險也就相應(yīng)增大并且危害嚴(yán)重。埃呂爾提出限制技術(shù)的非力量倫理方案[16]。非力量倫理主張,人類有能力實現(xiàn)的事情不一定要去做,對人臉識別技術(shù)的發(fā)展和應(yīng)用做出限制,使其服務(wù)于人的價值訴求。
尤納斯將責(zé)任分為形式責(zé)任和實質(zhì)責(zé)任。形式責(zé)任,即回溯責(zé)任,對行為產(chǎn)生的后果承擔(dān)責(zé)任;實質(zhì)責(zé)任,即前瞻責(zé)任,對將要做什么做出選擇,是面向未來的責(zé)任。尤納斯“未來的倫理學(xué)”主要討論的是實質(zhì)責(zé)任[17]123。在現(xiàn)代科技時代,掌控技術(shù)已成為人類的一種虛妄,人們無法控制和預(yù)見技術(shù)行為在未來造成的影響,更無法承擔(dān)技術(shù)造成危害的責(zé)任。因此,形式責(zé)任失效,能夠確保人類在未來持續(xù)存在的只能是實質(zhì)責(zé)任。正如人臉這一面部特征信息的敏感性和重要性,人們不可能在人臉數(shù)據(jù)被泄露后換一張臉,對于人臉數(shù)據(jù)泄露的事后追責(zé)就失去了意義,所以對于人臉識別技術(shù)的倫理風(fēng)險防范應(yīng)著眼于未然。
基于非力量倫理和面向未來的責(zé)任倫理,本文提出并闡述如下四個倫理原則,進一步提出防范人臉識別技術(shù)倫理風(fēng)險的規(guī)制建議。
非力量倫理主張,人類有能力的事情不一定要去做,應(yīng)該平衡技術(shù)的風(fēng)險與收益,在某些場景中人臉識別技術(shù)的使用不是必要的,就應(yīng)當(dāng)放棄使用。2019年5月14日,美國舊金山監(jiān)督委員會投票通過《停止秘密監(jiān)視條例》(Stop Secret Surveillance Ordinance)[18],使舊金山成為美國第一個禁止政府使用人臉識別監(jiān)視技術(shù)的大城市。該《條例》要求對所有監(jiān)視技術(shù)提案實行社區(qū)控制、透明和問責(zé)制,要求政府部門制定監(jiān)管監(jiān)視技術(shù)使用的政策,解釋購置新監(jiān)視工具的合理性,最后由舊金山監(jiān)管委員會決定是否購買使用這些技術(shù)。
必須使用人臉識別技術(shù)時,要明確人臉識別技術(shù)的使用邊界。政府在公共安全領(lǐng)域必須應(yīng)用人臉識別技術(shù)時,應(yīng)該采取風(fēng)險最小的方案。首先,盡可能通過對生物識別信息進行處理,如提取信息特征、而不直接留存?zhèn)€人面部特征信息的方式進行應(yīng)用,即使在留存?zhèn)€人面部特征信息的情形中,保存也不得超出實現(xiàn)功能目的所必需的最短時間。2019年3月15日英國發(fā)布的《警方使用自動人臉識別技術(shù)和監(jiān)控攝像系統(tǒng)指南》(Guidance:The Police Use of Automated Facial Recognition Technology with Surveillance Camera Systems)[19]就明確了最小必要原則,如在公共場所使用和操作自動人臉識別技術(shù)監(jiān)控攝像系統(tǒng)必須始終用于特定目的,該目的必須是一個合法目的,并且這個目的的達成是迫切且必需的。其次,攝像頭的投放數(shù)量和投放范圍要適當(dāng),不同部門的攝像系統(tǒng)應(yīng)納入統(tǒng)一管理,避免重復(fù)建設(shè),同時不能過度干涉?zhèn)€人的私生活。
企業(yè)在收集人臉數(shù)據(jù)時應(yīng)遵守最小必要原則,考慮使用人臉識別技術(shù)是否必要,必須使用時應(yīng)做到最小范圍收集數(shù)據(jù)。例如,GDPR第9條規(guī)定,在處理使用人臉數(shù)據(jù)時,生物特征數(shù)據(jù)屬于個人數(shù)據(jù)的“特殊類別”,除非某些特殊情況外,不得處理該類數(shù)據(jù),即遵循“原則禁止,特殊例外”的最小必要原則。同時,人臉識別研發(fā)和服務(wù)提供商有義務(wù)限制人臉識別技術(shù)的使用,在對方不能保證技術(shù)使用的安全性、合理性的情況下應(yīng)拒絕提供服務(wù),如微軟出現(xiàn)過拒絕向其他機構(gòu)提供人臉識別技術(shù)服務(wù)的先例,亞馬遜員工也曾聯(lián)名要求企業(yè)決策層停止向警方出售其人臉識別技術(shù)服務(wù)。
面向未來的責(zé)任倫理強調(diào)前瞻性地履行保護個人權(quán)益的責(zé)任,人臉識別技術(shù)的應(yīng)用應(yīng)該尊重個人知情同意的權(quán)利。在個人充分、明確知曉人臉數(shù)據(jù)會被如何收集、使用以及人臉識別技術(shù)應(yīng)用后果的情形下,得到信息主體明確的同意,才能夠使用人臉識別技術(shù)。國內(nèi)外關(guān)于個人信息保護的法律規(guī)范對人臉數(shù)據(jù)等生物識別數(shù)據(jù)的收集和使用都做出了尊重個人知情同意權(quán)利的規(guī)定。比如GDPR規(guī)定,人臉識別技術(shù)商業(yè)應(yīng)用可適用的唯一例外是獲得了數(shù)據(jù)主體的明示同意,即用戶清楚、具體且自主地授權(quán)企業(yè)收集、使用其人臉數(shù)據(jù)。
個人享有知情同意的權(quán)利,在此權(quán)利基礎(chǔ)上,人們在被要求“刷臉”時有拒絕的權(quán)利。而且,人們在拒絕“刷臉”的時候,機構(gòu)應(yīng)提供其他方式滿足人們驗證通過的需求。此外,企業(yè)的業(yè)務(wù)范圍可能發(fā)生改變,那么用戶人臉數(shù)據(jù)收集時的使用目的是否和目前一致,應(yīng)采取內(nèi)部審查機制,并與用戶和社會同步更新,獲得新的同意。
責(zé)任倫理不僅要求當(dāng)下的責(zé)任,也要求未來的責(zé)任,人臉識別技術(shù)當(dāng)下和未來都不能對人造成傷害。人臉識別技術(shù)的錯誤識別、隱私、安全風(fēng)險,都可能對個人造成巨大的傷害。
為了遵守和踐行不傷害原則,避免人臉識別技術(shù)可能造成的傷害。首先,政府牽頭、企業(yè)積極參與制定人臉識別技術(shù)的技術(shù)標(biāo)準(zhǔn),為技術(shù)研發(fā)提供可靠性基礎(chǔ);其次,建立完善人臉識別技術(shù)的數(shù)據(jù)安全保障機制,政府和企業(yè)應(yīng)當(dāng)采取網(wǎng)絡(luò)安全措施,采取數(shù)據(jù)加密、病毒防護、訪問控制、員工培訓(xùn)等補充措施,保障人臉識別技術(shù)系統(tǒng)和數(shù)據(jù)的安全;再次,企業(yè)應(yīng)當(dāng)建立技術(shù)可靠性保障制度,采取措施來確保人臉識別技術(shù)系統(tǒng)的結(jié)果準(zhǔn)確性、穩(wěn)定性,識別和消除歧視、錯誤識別等問題;最后,研發(fā)和使用人臉識別技術(shù)的企業(yè)或機構(gòu)應(yīng)當(dāng)建立問責(zé)制,提升相關(guān)人員的安全意識和職業(yè)道德意識,建立關(guān)于人臉識別技術(shù)的審計和懲罰機制。
針對人臉識別技術(shù)可能造成的歧視風(fēng)險,應(yīng)該從訓(xùn)練數(shù)據(jù)集、算法的設(shè)計、檢測審查等多個環(huán)節(jié)著手,貫徹公正原則,避免對部分人群、社區(qū)的歧視。英國《警方使用自動人臉識別技術(shù)和監(jiān)控攝像系統(tǒng)指南》提出的第二條倫理原則明確規(guī)定監(jiān)控攝像系統(tǒng)系統(tǒng)應(yīng)該用于促進公正。
為了確保公正,應(yīng)推動建立人臉識別技術(shù)的第三方評估審查體系。人臉識別技術(shù)具有一定的技術(shù)門檻,需要專業(yè)人員和機構(gòu)對技術(shù)進行評估審查。有效的審查機制,可以發(fā)現(xiàn)、改善人臉識別技術(shù)的錯誤識別、偏見等問題,同時也能避免誤用和濫用,促進人臉識別技術(shù)系統(tǒng)的安全、穩(wěn)定性,幫助人臉識別技術(shù)系統(tǒng)獲得公眾的信任。
人臉識別技術(shù)價值初衷是為了安全,并且為社會生活提供了諸多便利,然而,技術(shù)一旦被濫用就會對人和社會造成一系列的倫理風(fēng)險和問題。技術(shù)的發(fā)展和應(yīng)用應(yīng)始終以人的福祉為核心,人的價值更不應(yīng)讓步于技術(shù)的發(fā)展和應(yīng)用。人臉數(shù)據(jù)極其敏感,在現(xiàn)實版“楚門的世界”尚未真正到來之前,應(yīng)當(dāng)遵從技術(shù)的非力量倫理和責(zé)任倫理,對人臉識別技術(shù)的發(fā)展和應(yīng)用進行相應(yīng)的倫理規(guī)制,發(fā)揚技術(shù)的善,規(guī)避技術(shù)的惡,最終實現(xiàn)人與技術(shù)的自由關(guān)系。