国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人臉識別技術(shù)應(yīng)用中的隱私倫理問題及其消解路徑

2020-02-25 10:06蔣福明曾慧平
關(guān)鍵詞:人臉人臉識別倫理

蔣福明,曾慧平

(南華大學(xué) 馬克思主義學(xué)院,湖南 衡陽 421001)

時代變遷,技術(shù)賦能。人臉識別技術(shù)作為新興科技產(chǎn)物,給人們的生活帶來了極大的便利,開啟了人臉“技術(shù)識別”的新時代。然而,隨著人臉識別技術(shù)在金融、公共安全、軍事、教育、交通等領(lǐng)域的廣泛應(yīng)用,出現(xiàn)了企業(yè)、媒體、公共機構(gòu)等對人臉的非法收集、濫用、泄露等問題,這給個人隱私安全和群體隱私安全帶來了一定的隱患。

一、 人臉識別技術(shù)應(yīng)用中隱私倫理問題的表現(xiàn)

人臉識別技術(shù)(Face Recognition Technology)通常也叫人像識別或面部識別,是一種基于人的臉部特征進行身份識別的生物識別技術(shù),即用攝像機或攝像頭采集含有人臉的圖像或視頻流,并自動在圖像中檢測和跟蹤人臉,進而對檢測到的人臉進行臉部識別[1]。與其他身份識別技術(shù)相比,人臉識別技術(shù)具有自動記錄、統(tǒng)計、成圖及分析功能,因而其判別結(jié)果更精準、高效和便捷。也正因如此,在人臉識別技術(shù)面前人們變得愈發(fā)透明,每一個人的面部信息都可能被非法收集、惡意加工、恣意傳遞和散播。人臉識別技術(shù)的應(yīng)用依托于人臉信息的獲取、加工、儲存、傳播與使用,如果以人臉信息為媒介去竊取更多的他人隱私信息,用于敲詐勒索、非法經(jīng)營、倒賣牟利等行為,將會對人們造成嚴重傷害。并且,由于生物特征信息的敏感性、信息處理過程的復(fù)雜性、技術(shù)能效的有限性等因素的影響,人臉識別技術(shù)應(yīng)用中的隱私倫理問題在影響范圍或影響效果上都與一般的隱私問題不同。一些西方國家因擔憂人臉識別技術(shù)對公民隱私和自由的損害,對該技術(shù)的應(yīng)用持謹慎態(tài)度,甚至頒布了限制或者禁止人臉識別技術(shù)社會應(yīng)用的法令。

隱私一般是指個人的、不愿他人知曉與干涉的私人事務(wù)。羅斯科·龐德(Roscoe Pound)曾指出:“隱私權(quán)是產(chǎn)生于今天越來越擁擠的社會生活條件下的一種現(xiàn)代性需要,……把純屬個人性事務(wù)中的有關(guān)私人問題予以公開是對人格權(quán)的傷害?!盵2]從法律層面上看,“隱私權(quán)指自然人享有的私人生活安寧與私人信息依法受保護,不被非法侵擾、知悉、搜集、利用和公開的一種人格權(quán)”[3]。從倫理層面上看,它是個體享受私人事務(wù)被保護的一種權(quán)利,表達了對不傷害、自主自愿的倫理追求,是人類自由、尊嚴的表達,是人之為人的精神體現(xiàn)。無論是從道德層面還是從法律層面上看,隱私權(quán)作為人類生活的現(xiàn)代性需要,是基本的人格權(quán)利,應(yīng)與人類其他基本權(quán)利一樣受到尊重與保護。因此,指出并分析人臉識別技術(shù)應(yīng)用中存在的隱私倫理問題,探索解決其隱私困境的有效路徑,是當前事關(guān)人臉識別技術(shù)健康發(fā)展與社會和諧的緊迫任務(wù)。一般來說,人臉識別技術(shù)應(yīng)用過程中存在的隱私倫理問題主要表現(xiàn)在知情同意缺乏和信息自主失控兩個方面。

(一)“知情同意缺乏”侵犯意志自由

知情同意作為一項倫理原則誕生于醫(yī)療領(lǐng)域,最初主要用于保護病患的自主表達,現(xiàn)在已經(jīng)成為生命倫理學(xué)的一項基本倫理準則,它體現(xiàn)了尊重、不傷害和公正等倫理精神。人類具有尊嚴,而尊嚴來自主體的意志自由,來自其自主選擇的能力。中國傳統(tǒng)倫理學(xué)推崇人的意志自由,孔子認為“三軍可奪帥也,匹夫不可奪其志也”。他認為人有道德的自主自由性,并進一步提出“為仁由己,而由人乎哉”,其實質(zhì)是肯定道德主體的意志自由、自主性。康德認為“只有當生命作為自主的可能性之條件時,才有尊嚴”。當代政治哲學(xué)家羅納德·德沃金(Ronald Myles Dworkin)指出:“即使國家實施改善公共設(shè)施、使其成員獲得便利的舉措,也不能對個人的權(quán)利進行干涉或侵入?!盵4]因此,尊重人的尊嚴,就必然要尊重人的自主性,尊重人的意志自由。

隨著社會發(fā)展,知情同意原則已延伸至各個領(lǐng)域。在當今信息時代,知情同意原則作為隱私保護的第一道防線,是當事人行為道德選擇的前提與基礎(chǔ),是對人類尊嚴和人格利益維護的彰顯。我國于2020年3月發(fā)布的最新版《信息安全技術(shù) 個人信息安全規(guī)范》(GB/T35273—2020,以下簡稱“規(guī)范”)在2017版的基礎(chǔ)上對個人生物信息的收集與儲存進行了完善與細化。規(guī)范指出:“在收集個人信息時,應(yīng)向個人信息主體告知收集、使用個人信息的目的、方式和范圍,并獲得信息主體的授權(quán)同意;在收集個人生物識別信息前,應(yīng)單獨向個人信息主體告知收集和使用個人生物識別信息的方式、范圍、存儲時間和目的等,并且征得個人信息主體的明示同意?!盵5]

然而,在人臉識別技術(shù)應(yīng)用中大量私自收集、加工、分析與使用個人信息的行為正在侵蝕公民的隱私權(quán)。當前,大多商用人臉識別在收集人臉信息時并未就其收集方式、范圍、目的、存儲時間等做任何告知,更遑論征求人臉主體的同意。日前,“中國人臉識別第一案”[6]的被告方杭州野生動物園就因使用人臉識別技術(shù)作為入園檢測手段,被消費者以未提前告知與征得同意而私自收集人臉信息為由訴諸法庭,引發(fā)了多方關(guān)注。Facebook也曾面臨未經(jīng)同意而濫用伊利諾伊州人臉數(shù)據(jù)的350億美元集體訴訟案。在人臉識別技術(shù)應(yīng)用過程中的人臉信息儲存、使用等環(huán)節(jié),信息控制者為減少支出或避免沖突,在很大程度上會忽視信息主體的知情同意訴求。此外,大數(shù)據(jù)時代網(wǎng)絡(luò)數(shù)據(jù)的流轉(zhuǎn)速度使得信息控制者在客觀上也無法達到信息主體的“知情同意”要求。這些均使得信息主體的知情同意權(quán)處于被動狀態(tài)。

(二)“信息自主失控”妨礙人的主體性

自古以來,關(guān)于“人是什么?”的問題一直是思想家們探究的核心,他們從不同維度論證了人的特征,直到現(xiàn)在,這一問題仍是哲學(xué)界探討的熱點。在前人研究成果的基礎(chǔ)上,當代學(xué)者從新的角度對這一問題做出了回應(yīng)。甘紹平認為人是一種二元存在,是文化精神和自然生物的統(tǒng)一體,從倫理學(xué)上看,人的本質(zhì)就在于這種精神性的體現(xiàn),而人的精神性首先體現(xiàn)為人的自由。換言之,人的自由、自主決定的能力是人之為人的本質(zhì)體現(xiàn)[7]。所謂自由和自主就是當事人可以基于自身的決斷來行事,做自己的主人,而不是受他人意志的驅(qū)使。在人臉識別技術(shù)應(yīng)用生活化的今天,個人信息自主更應(yīng)該成為隱私保護的重要舉措。

然而,從2019年“ZAO-逢臉造戲”APP(以下簡稱ZAO)的AI換臉風(fēng)波、利用人臉信息幫助無法完成賬號實名認證的人群完成實名認證以獲取非法利益的過臉產(chǎn)業(yè),以及近期福建一銀行APP人臉識別技術(shù)被破解等一系列事實來看,人臉識別技術(shù)的廣泛與非理性應(yīng)用嚴重侵擾了人們的信息自主。在人臉識別技術(shù)應(yīng)用過程中,個人肖像的公開使得主體失去了對它的控制[8],信息很可能被非法使用(這其中不僅僅包括人臉信息,亦可能包含其他的個人隱私,譬如家庭住址、行蹤軌跡、通訊方式、財產(chǎn)信息、身份證號碼、健康生理信息等個人敏感信息)。并且,在當前網(wǎng)絡(luò)信息時代背景下,隱私信息經(jīng)過上萬次甚至千萬次的傳播與流轉(zhuǎn),信息主體對于自身信息所向何處、為誰所用、所用為何根本無法控制,個人信息自主完全沒有保障。

另外,個體信息自主的損害與喪失不僅影響自身,對群體隱私利益也存在嚴重威脅。人臉識別技術(shù)的研發(fā)與使用離不開人臉數(shù)據(jù)庫的支撐,但這些數(shù)據(jù)庫中的人臉模型信息卻不是信息主體能夠掌控的。2019年有多起新聞報道了人臉數(shù)據(jù)泄密的問題,最引人注目的就是一家安防領(lǐng)域的人工智能企業(yè)的大規(guī)模數(shù)據(jù)泄露事件,該企業(yè)因內(nèi)部數(shù)據(jù)庫的安全防護缺失導(dǎo)致250余萬公民個人信息數(shù)據(jù)被不受限制訪問。一種基于DNA的新的人臉識別方法將探針DNA圖譜與已知的面部圖譜數(shù)據(jù)庫相匹配,可以從已知身份的3D面部形狀中預(yù)測DNA信息,在驗證模式下其實質(zhì)性正確(83%,80%)超過錯誤(17%,20%)匹配[9]。如果群體成員中的核心或重要人物的DNA信息通過3D人臉圖像被預(yù)測得知,其后果的嚴重性不言而喻。美國圣母大學(xué)的Sheri A.Alpert探討了個體基因與其血親基因和所在種群基因間的關(guān)系,并指出:“在任何情況下,所有基因信息不僅與任何一個個體有關(guān),而且與他(她)的血親有關(guān),還可能與他(她)所在的種群有關(guān),任何群體中一小部分人的信息都可以(正確地或不正確地)包含該群體所有成員的信息?!盵10]與基因信息同屬生物信息的人臉信息不僅包含著單個個體生物特征,也包含了其所在群體的整體生物特征。如若數(shù)據(jù)庫中的人臉圖譜被作為預(yù)測群體基因信息的樣本,那么,不管作為樣本的那一小部分人的信息能否準確地預(yù)測群體基因,我們都應(yīng)該重新考慮人臉識別技術(shù)應(yīng)用對隱私的挑戰(zhàn)與威脅,避免其成為基因武器。

綜上所述,隱私權(quán)作為人權(quán)的組成部分,體現(xiàn)了人對基本權(quán)益的共同需求。而人權(quán)作為一種全球性、跨文化、跨民族的道德秩序,具有道德權(quán)利與法律權(quán)利的雙重屬性,是對人的根本利益的維護,是不同社會文化和社會生活方式的共同需求。保護隱私權(quán)在內(nèi)的人權(quán)所表達的不傷害理念體現(xiàn)了道德規(guī)范的根本性內(nèi)容。人臉識別技術(shù)對人類隱私的侵犯,導(dǎo)致對人類意志自由和信息自主的傷害,這足以體現(xiàn)人臉識別技術(shù)倫理問題的普遍性和嚴峻性。

二、人臉識別技術(shù)應(yīng)用中隱私倫理問題的歸因

產(chǎn)生人臉識別隱私困境的根源是多維度的,總的來說可以概括為信息主體隱私保護意識薄弱、信息獲取配合度要求較低、行業(yè)監(jiān)管缺失與相關(guān)立法滯后等三個方面。

(一)信息主體隱私保護意識薄弱

受社會發(fā)展和多元價值觀的影響,人們的個人隱私觀日益開放,個人可接受的隱私泄露底線逐漸向前推移,我們已進入到一個“弱隱私”時代。如今,通過各種網(wǎng)絡(luò)途徑向他人分享自己的生活、經(jīng)歷已成為人們?nèi)粘I钆c社交的一部分,而這些數(shù)據(jù)往往涉及個人隱私,如家庭住址、生活軌跡等,為隱私問題的滋長提供了土壤。這些信息是以數(shù)字化信息的形式存貯的,而數(shù)字化信息的特點是極易傳播和擴散。信息主體隱私保護意識薄弱,甚至忽視隱私泄露的風(fēng)險,有可能導(dǎo)致大量的個人信息碎片被積聚、關(guān)聯(lián),形成完整的個人數(shù)字畫像,最終將會暴露出個人的深度隱私。

人臉識別技術(shù)的生活化應(yīng)用大大削弱了人們的隱私防護意識。國際權(quán)威調(diào)研機構(gòu)市場洞察(Gen Market Insights)發(fā)布的《2018年全球人臉識別設(shè)備市場研究報告》顯示,近年來人臉識別設(shè)備市值不斷攀升,預(yù)計其市值將會以26.80%/年的速度增長,在2025年達到71.7億美元,這充分顯示了人臉識別行業(yè)旺盛的生命力。報告還指出,中國是人臉識別設(shè)備最大的消費區(qū)域,2017年消費額占全球比例為29.29%,2023年將達到44.59%,在2018—2023年復(fù)合年增長率為29.53%[11]。當前我國真正地進入了“刷臉時代”,各大商場、酒店、車站、學(xué)校、小區(qū)等地都設(shè)有人臉識別,從日常進出小區(qū)、乘坐地鐵、取快遞,到線下支付、領(lǐng)養(yǎng)老金、身份審核等,人臉識別技術(shù)貫穿我們的衣食住行和娛樂消遣,成為日常生活的普遍形式。人們對于人臉信息被收集的行為也習(xí)以為常,并認為理所當然。個人隱私防護意識逐漸被這種“習(xí)以為?!焙汀袄硭斎弧惫テ?,人臉信息等個人隱私被泄露、濫用的風(fēng)險也在這種麻痹大意中悄然而至。

(二)信息獲取配合度要求較低

傳統(tǒng)的生物識別技術(shù)在提取特征信息過程中對信息主體的配合程度要求較高,否則可能導(dǎo)致無法獲取特征信息或無法獲得高質(zhì)量特征信息,從而影響識別率。譬如,指紋識別在指紋提取過程中需要信息主體提供紋路清晰的手指并按要求移動手指以保證所采集指紋的完整性;虹膜識別則需要使用特定的機器對人的整個眼部進行拍攝,并且在特征提取過程中不能眨眼。

與傳統(tǒng)的生物識別技術(shù)相比,人臉識別技術(shù)獲取人臉特征信息的方式相對便捷。一方面,人臉識別技術(shù)特征信息提取配合度要求低。它不僅可以近距離獲取人臉特征信息,也可通過攝像頭或者遍布大街小巷的監(jiān)控探頭,在無需信息主體配合的情況下遠距離抓取人臉生物特征而不被信息主體察覺。另一方面,星羅棋布的網(wǎng)絡(luò)式監(jiān)控是人臉識別技術(shù)獲取或侵犯信息主體隱私的“抗辯理由”。巴拉巴西在其著作《爆發(fā):大數(shù)據(jù)時代預(yù)見未來的新思維》中指出:“我們正處于一種不斷變化但卻日趨精密的被監(jiān)視狀態(tài)中,……正是這些記錄的存在引爆了個人隱私危機,而這一問題的嚴重性再怎么夸大也不為過?!盵12]

安全感一直是人類生存過程中所追尋的。隨著時代的發(fā)展,安全防護技術(shù)大大提升,安全防護措施也更加嚴密。當今社會,監(jiān)控已成為人類日常生活安全防護的常態(tài),隨處可見。然而,監(jiān)控攝像給人們帶來“安全感”的同時,也在一定程度上充當了人臉識別技術(shù)隱私風(fēng)險的“加速器”。監(jiān)控攝像大量地記錄著人們的相貌特征、行為特征、生活軌跡等信息,盡管人臉識別時非接觸性的無感收集已經(jīng)簡化了采集程序、降低了信息采集難度、加快了采集進度、減弱了對被采集者的配合要求,但其利用監(jiān)控海量收集人臉信息,不僅增加了個人面部信息被非法采集的風(fēng)險,在心理上也更容易使信息主體忽視其背后蘊藏的隱私風(fēng)險。

(三)行業(yè)監(jiān)管缺失與相關(guān)立法滯后

行業(yè)監(jiān)管不力、標準參差不齊、數(shù)據(jù)安全防范不足,從而導(dǎo)致人臉信息泄露,這是人們抵觸人臉識別技術(shù)大范圍應(yīng)用的重要原因之一。目前有關(guān)人臉識別技術(shù)的行業(yè)標準尚未成體系,僅存在一些對人臉識別技術(shù)中的部分技術(shù)的統(tǒng)一標準。在人臉識別技術(shù)商用過程中人臉信息的采集和保管全靠商家自律,因此,在人臉識別技術(shù)應(yīng)用實踐中保護人臉信息主體的信息安全存在諸多障礙。

相較于人臉識別技術(shù)進步與突破的速度,有關(guān)人臉識別技術(shù)應(yīng)用以及人臉信息保護的立法明顯出現(xiàn)滯后。當前涉及人臉信息隱私保護的窘境在于:對人臉識別技術(shù)的應(yīng)用場景,人臉信息的采集、存儲、使用環(huán)節(jié)以及權(quán)力歸屬還沒有嚴格的法律限制。造成這種狀況的原因有三:其一,面對巨大的使用人群、海量的數(shù)據(jù)信息以及多元的價值觀念,建立一套完備的法律體系絕非易事;其二,高科技技術(shù)更新周期短,面對多變的立法訴求與瞬息萬變的新問題、新情況,整合相關(guān)的法律規(guī)則與調(diào)整方案絕非一日之功;其三,我國的立法程序嚴格,一部成熟適用的法典必須經(jīng)過反復(fù)斟酌與檢驗,不可不慎。

三、人臉識別技術(shù)應(yīng)用中隱私倫理問題的消解路徑

要維護人臉識別技術(shù)的良性運用,就要加強對公民隱私保護的宣傳教育、完善人臉識別技術(shù)相關(guān)法律法規(guī)、健全人臉識別隱私保護倫理約束機制,以明晰技術(shù)與隱私的邊界,緩解兩者矛盾。

(一)加強隱私保護方面的宣傳教育

人的行為一方面取決于自身情感機制的判定與認知上的權(quán)衡,另一方面受社會文化因素的影響。就如同德性論的觀點,最高的道德標準就是作為內(nèi)在規(guī)范的道德品格。加強對公民隱私保護宣傳教育的目的就在于利用情感、認知與行動之間的聯(lián)動性,從個體的內(nèi)部塑造其形態(tài),在人的內(nèi)心形成一個理性認知與習(xí)慣,繼而外化于行,規(guī)范與引導(dǎo)自身的倫理實踐。

信息主體的隱私觀念淡薄是隱私問題產(chǎn)生的重要原因之一,要維護自身隱私不受侵犯還需依靠信息主體隱私安全防護意識的提升。人工智能時代的隱私風(fēng)險呈現(xiàn)出與傳統(tǒng)隱私風(fēng)險相異的復(fù)雜性、多樣性以及多變性,因此只有針對其表現(xiàn)特征的隱私保護措施才能行之有效。第一,加強潛在隱私風(fēng)險教育。當前人們的生存、生活實踐范圍出現(xiàn)了跨越式的擴展和延伸,網(wǎng)絡(luò)信息的發(fā)展、各項智能產(chǎn)品的發(fā)明拓寬了人們認識世界、改變世界的道路,同時也增加了隱私泄露的風(fēng)險,譬如,非必要場合的人臉信息讀取、網(wǎng)站注冊中的詳細個人信息填寫、智能軟件中的多種權(quán)限請求,等等。因此,在實際生活中,要認清各種行為背后潛藏的隱私風(fēng)險,從源頭杜絕個人隱私的泄露,對于有爭議或不信任的軟件,盡量做到少用或不用。第二,加強數(shù)據(jù)遺忘與數(shù)據(jù)銷毀意識宣傳。隱私信息的數(shù)據(jù)化是當今時代的一種常態(tài),人們的生活軌跡、行為偏好等產(chǎn)生的信息都能以數(shù)字形式存儲,若是被大量存儲與整合,那后果將不可估量,因此數(shù)據(jù)銷毀與遺忘十分必要。

(二)強化責(zé)任倫理意識培養(yǎng)

如今,人們在享受人臉識別技術(shù)帶來的高效與便捷的同時,其帶來的矛盾與沖突已慢慢成為人類生活的新常態(tài)。隨著人臉識別技術(shù)對人們生活工作的深遠影響,所引發(fā)的一系列問題已變成當今社會必須面對的問題,這也是人臉識別技術(shù)發(fā)展中不可回避的問題。在這個充斥著技術(shù)風(fēng)險的時代,以塑造和培育人們責(zé)任意識為目的的責(zé)任倫理培養(yǎng)是應(yīng)對人臉識別技術(shù)風(fēng)險的有效策略。

首先,明確責(zé)任的主體維度及其責(zé)任分擔是與人臉識別技術(shù)應(yīng)用相關(guān)的隱私倫理研究中的一個重要問題。與傳統(tǒng)單一的技術(shù)責(zé)任主體不同,現(xiàn)代技術(shù)責(zé)任主體已轉(zhuǎn)變?yōu)轭?、群體等整體性主體,風(fēng)險后果的承擔也呈現(xiàn)出鏈條化、聯(lián)動性的特征,形成一個利益共同體。在人臉識別技術(shù)使用過程中,商家、企業(yè)、社會都各自承擔著不同的責(zé)任。譬如,企業(yè)在數(shù)據(jù)庫的管理方面有制定嚴密管理措施、維護數(shù)據(jù)安全的責(zé)任;社會有承擔建設(shè)安全、平等、可信、和諧的數(shù)據(jù)環(huán)境的責(zé)任。各主體對自身行為責(zé)任的回應(yīng),不僅是對自身利益的維護,也是一種道德要求。

其次,在行為后果的責(zé)任承擔時間維度方面我們應(yīng)該樹立一種前瞻性責(zé)任觀。尤納斯(Hans Jonas)的責(zé)任原則便是對這種后果特征的一種回應(yīng),他提出:“每個人都應(yīng)當有這樣的行為,以便你的行為效果與地球上真實的人類生命的永久持存相適應(yīng)。”他強調(diào)我們需要關(guān)注的不僅僅是當下行為后果的責(zé)任,更要關(guān)注該行為對未來影響的責(zé)任。在當今交流和聯(lián)系日益緊密的社會共同體背景下,人臉識別技術(shù)帶來的倫理風(fēng)險在時間與空間上都顯示出“廣延性”的特征。因此,加強人們的前瞻性責(zé)任倫理意識培養(yǎng),明確自身道德行為的責(zé)任后果,樹立風(fēng)險與利益相平衡的責(zé)任倫理觀,是避免人臉識別技術(shù)的福音轉(zhuǎn)化為威脅的道德呼吁。

(三)健全人臉識別技術(shù)隱私保護機制

首先,增加人臉識別技術(shù)設(shè)計階段的倫理建構(gòu)。從本質(zhì)上看,人臉識別是攜有不確定性風(fēng)險的實踐活動。并且,人臉識別技術(shù)已經(jīng)不是純粹單一的技術(shù)探索,而往往與企業(yè)、國家等利益群體間的博弈相關(guān),其風(fēng)險誘因也變得復(fù)雜。因此,為保障其更好地為人類服務(wù),在尊重其發(fā)展規(guī)律的基礎(chǔ)上,可在人臉識別技術(shù)設(shè)計階段建構(gòu)技術(shù)設(shè)計倫理原則,使之成為人臉識別技術(shù)的內(nèi)在維度。譬如,不傷害、公正、尊重、審慎等。

其次,嘗試建立人臉信息使用倫理審查系統(tǒng)。為數(shù)據(jù)庫人臉信息集設(shè)置守門人,建立一個用于審查人臉數(shù)據(jù)集訪問與使用的系統(tǒng),以此保護數(shù)據(jù)庫中人臉數(shù)據(jù)主體的安全與權(quán)益,進一步規(guī)范人臉信息的使用行為。系統(tǒng)主要關(guān)注請求者使用該數(shù)據(jù)的場合與目的,并要求數(shù)據(jù)使用者遵循數(shù)據(jù)使用的倫理合理性;如若隱瞞或者歪曲意圖,則需要承擔相關(guān)責(zé)任,譬如,失去數(shù)據(jù)庫的訪問與使用權(quán)限、賠償巨額罰款等。這就使得你無論決定要做什么時,都把前因后果考慮進去。

最后,尋求與發(fā)展人臉識別新業(yè)態(tài)。盡管人臉識別技術(shù)已初具人類視覺的基本樣態(tài),但人類視覺功能的復(fù)雜性是單一的人臉識別技術(shù)無法比擬的。隨著不斷出現(xiàn)的新的需求與變化,人臉識別技術(shù)在精準識別中難以達到人們的理想目標,很可能出現(xiàn)錯誤識別的狀況。在識別過程中,人臉識別技術(shù)不如人類視覺器官的最大原因就是人類大腦擁有比人臉數(shù)據(jù)庫更全面的目標特征信息,它包含但不限于聲音、體型、習(xí)慣等,人類視覺器官正是在這些基礎(chǔ)上進行識別判定?;诖耍覀兛梢阅7氯祟惔竽X的功能,在人臉數(shù)據(jù)庫的基礎(chǔ)上增加其他特征的數(shù)據(jù)庫,發(fā)展集人臉識別、聲音識別、指紋識別等于一體的復(fù)合識別技術(shù)。當前,螞蟻金服就是采用了復(fù)合型生物識別技術(shù)來保障客戶的資金安全。

(四)完善人臉識別相關(guān)法律法規(guī)建設(shè)

技術(shù)效用能否順利實現(xiàn),技術(shù)的正向價值能否得到保證,不僅受技術(shù)應(yīng)用主體素質(zhì)限制,還取決于社會立法與規(guī)范等外部環(huán)境的影響。因此,規(guī)范技術(shù)的良性發(fā)展與應(yīng)用、維護人的隱私與尊嚴,這個觀念不能僅僅停留在人們的頭腦中,而必須經(jīng)過嚴謹?shù)牧⒎ǔ绦颍怪蔀檎麄€社會必須遵循的行為規(guī)范,以及人臉識別技術(shù)正向價值得以實現(xiàn)的保障。

首先,設(shè)立人臉識別技術(shù)應(yīng)用禁區(qū)。通過立法明確規(guī)定何以可為,何以不可為,避免侵入性過強的舉措。遵循“必要且有限”原則,對信息采集的范圍及所收集的人臉數(shù)據(jù)使用場景作出嚴格限制,以防止數(shù)據(jù)的濫用。

其次,高度重視人臉數(shù)據(jù)收集和使用的知情同意。2003年10月16日聯(lián)合國教科文組織大會通過的《國際人類基因數(shù)據(jù)宣言》(International Declaration on Human Genetic Data)規(guī)定:獲取人類遺傳數(shù)據(jù)、蛋白質(zhì)數(shù)據(jù)或活檢數(shù)據(jù),以及隨后由公共或私人機構(gòu)進行的處理、使用和保存,均應(yīng)在締約方自由、知情和明確同意的情況下進行[13]。對于人臉識別技術(shù)的使用,收集方應(yīng)參照上述規(guī)定,在采集人臉信息前必須就相關(guān)信息與風(fēng)險做明確充分的告知,確保被收集人的知情同意權(quán)。只有切實執(zhí)行這些要求,才能維護人臉信息使用與個人隱私保護之間的平衡。

最后,明確相關(guān)主體的權(quán)責(zé)規(guī)定。第一,明確規(guī)定人臉識別技術(shù)應(yīng)用者(商家、企業(yè)等)的權(quán)利與義務(wù)。相關(guān)企業(yè)與商家在經(jīng)營過程中若需使用人臉識別技術(shù)應(yīng)到相關(guān)部門申報,獲得批準的商家與企業(yè)在不侵犯顧客權(quán)益的前提下有權(quán)對顧客使用人臉識別技術(shù),但也應(yīng)該承擔妥善保管顧客人臉信息的責(zé)任,并承諾不得將所采集的人臉信息另作他用。第二,明確規(guī)定對商家與企業(yè)違規(guī)的處罰標準等,以此提高信息外泄成本,降低風(fēng)險。歐盟《通用數(shù)據(jù)保護條例》(簡稱GDPR)在數(shù)據(jù)的控制者和處理者違規(guī)處理個人數(shù)據(jù)的后果方面就制定了嚴苛的懲罰標準:使用、銷售和轉(zhuǎn)讓數(shù)據(jù)的企業(yè),輕者處以罰款1000萬歐元或前一年世界銷售額的2%,重者處以罰款2000萬歐元或前一年世界銷售額的4%[14]。懲罰的目的是敦促商家及企業(yè)妥善保管用戶隱私信息。

人臉識別技術(shù)的良性發(fā)展不僅受制于公共政策和法律的協(xié)同治理,也受制于人類道德觀念的提升。我們應(yīng)該正確看待人臉識別技術(shù)與社會、人臉識別技術(shù)與人本身之間的關(guān)系,形成正確的、合理的科學(xué)技術(shù)社會觀,在技術(shù)發(fā)展、個人隱私以及公共福祉三者之間尋求平衡,讓人臉識別技術(shù)在安全、持續(xù)有序的語境下為人類服務(wù)。

猜你喜歡
人臉人臉識別倫理
《心之死》的趣味與倫理焦慮
人臉識別 等
有特點的人臉
一起學(xué)畫人臉
揭開人臉識別的神秘面紗
護生眼中的倫理修養(yǎng)
人臉識別技術(shù)的基本原理與應(yīng)用
三國漫——人臉解鎖
人臉識別在高校安全防范中的應(yīng)用
醫(yī)改莫忘構(gòu)建倫理新機制