白一方
6月8日,IBM首席執(zhí)行官Arvind Krishna向美國國會五位議員發(fā)出近千字公開函,呼吁國會頒布改革措施,以推進種族平等,反對種族歧視。IBM在信函中宣布將停止提供人臉識別及分析技術(shù),并反對將任何技術(shù)應用于大規(guī)模監(jiān)控、種族定性、侵犯基本人權(quán)自由、或其他任何不符合IBM信任與透明價值觀的任何行為當中。同時,IBM向科技媒體網(wǎng)站The Verge表示,除對現(xiàn)有客戶提供必要的技術(shù)支持以外,將全面退出人臉識別技術(shù)的研發(fā)業(yè)務,不再出售、營銷、更新或開發(fā)其他新產(chǎn)品。
IBM明確表示此次決定是基于近期美國黑人喬治·弗洛伊德因警察暴力執(zhí)法而慘死,以及近年來多起因種族歧視或執(zhí)法權(quán)濫用導致的黑人悲劇,使其認為反對種族歧視已經(jīng)成為全社會面臨的非常緊要的議題,而科技的使用也是其中的重要環(huán)節(jié)。
函件中指出:IBM公司自1953年9月開始研發(fā)第一臺商用計算機起,就一直致力于推廣和支持種族平等,IBM希望與國會通過限制警察權(quán)力,增強有色人種社群的教育及職業(yè)培訓,負責任的使用新技術(shù)等三個方面,共同促進公正和種族平權(quán)?,F(xiàn)在正是全面展開國會對話,討論人臉識別技術(shù)是否或應當如何被執(zhí)法機構(gòu)應用的最佳時機。
從筆者長期觀察的現(xiàn)象來看,不僅是IBM有此種技術(shù)倫理上的考慮,實際上,伴隨人工智能技術(shù)的不斷發(fā)展,很多私人公司都開始研發(fā)和提供人臉識別技術(shù),技術(shù)市場高度繁榮。但該技術(shù)導致的潛在風險一直存在,也引發(fā)了社會的高度關(guān)注和爭議。在這種敏感情況下,研發(fā)人臉識別技術(shù)的美國科技公司多少受到影響,面臨相關(guān)訴訟,也開始紛紛采取應對措施。例如:谷歌、Snapchat等大型硅谷科技公司都曾面臨關(guān)于面部識別的訴訟。專門研發(fā)人臉識別等人工智能技術(shù)的公司Clearview AI因從社交媒體上抓取大量人像信息,用于人臉識別的數(shù)據(jù)庫建設,并被廣泛應用于私人公司或執(zhí)法部門當中,而面臨多起隱私權(quán)訴訟。Facebook也遭遇一項涉及人臉識別技術(shù)使用的集體訴訟,因涉及人數(shù)眾多、金額巨大而受到廣泛關(guān)注。該案自2015年被起訴,認為Facebook在加標簽功能中,未經(jīng)用戶許可,對用戶照片中的面部進行識別,因此違反了伊利諾伊州《生物信息隱私法》。聯(lián)邦法院的法官在2018年對該案進行了有利于原告的判決,F(xiàn)acebook提出上訴但以失敗告終,最終于2020年1月達成高達5億5千萬美元的和解。而對于更為巨型的亞馬遜公司,由于曾將人臉識別技術(shù)出售給俄勒岡州和佛羅里達州的執(zhí)法部門,甚至引發(fā)了更大的波瀾:在2019年3月,來自谷歌、Facebook、斯坦福大學、杜倫大學、蒙特利爾大學、哈佛大學、多倫多大學、阿姆斯特丹大學等多個公司或研究機構(gòu)的共77名人工智能研究員發(fā)表聯(lián)名公開信,要求亞馬遜停止向執(zhí)法機構(gòu)出售“有缺陷的”人臉識別技術(shù)。出于技術(shù)被濫用的擔憂,于2019年5月針對人臉識別的應用發(fā)起了股東投票,雖然最終僅獲得2.4%的股東投票認為應當停止將人臉識別技術(shù)出售給政府機構(gòu),但有27.5%的股東投票支持對亞馬遜的Rekognition人臉識別服務是否會妨害民權(quán)和隱私進行進一步研究。然而,在巨大的社會聲浪下,最終,奧蘭多警察不得不在同年7月放棄亞馬遜的人臉識別平臺項目。
作為一個有長期技術(shù)和政策研究傳統(tǒng)的老派技術(shù)公司,IBM的此次表態(tài)其實并非該公司首次關(guān)注人臉識別的風險問題。2018年,麻省理工學院研究員Joy Buolamwini發(fā)表的研究報告中表明,IBM的Watsons視覺辨別平臺對于深膚色女性的判斷錯誤率高達35%,而對淺色皮膚男性的判斷錯誤率卻小于1%。對此,IBM表達了高度重視,并于2019年1月公布了包括一百萬面部圖像及視頻印象的Flickr網(wǎng)絡相冊數(shù)據(jù)庫,希望以此建立更加多元化的數(shù)據(jù)體系,幫助其人工智能驅(qū)動的人臉識別技術(shù)提高準確性和公正性,從而降低技術(shù)對于少數(shù)族裔的人臉識別偏見。
美國企業(yè)研究人員和學術(shù)界的這種憂慮,其實并非杞人憂天。由于技術(shù)的缺陷,導致人臉識別技術(shù)的應用面臨年齡、種族、性別歧視的極大可能。但由于在平衡技術(shù)倫理和現(xiàn)實需求之間的沖突問題上遲遲沒有突破性的理論進展,導致人臉識別領(lǐng)域一直缺乏相關(guān)法律法規(guī)的監(jiān)管,技術(shù)濫用風險極高,而公眾的憂慮也始終無法得到安撫。
一方面,美國國家標準技術(shù)研究所在2019年12月的一項研究顯示,實驗性證據(jù)表明,市場上現(xiàn)有的面部識別技術(shù)算法存在偏見,受年齡、性別、種族的影響非常大。該研究測試了全球99家機構(gòu)的189種算法,發(fā)現(xiàn)即使最先進的面部識別算法也不足以應對執(zhí)法部門或國家安全等關(guān)鍵領(lǐng)域中的應用。其中,針對黑人女性的一對多搜索錯誤率最高,而針對亞裔、非裔、美洲印第安人及太平洋島民的一對一搜索則全部產(chǎn)生誤判。兒童及老人的誤判率也更高。在某些情況下,對亞裔和非裔的誤判率比白人甚至高出百倍,識別率最高的人群則是中年白人男性。而在該研究中未涉及測試的亞馬遜Rekognition人臉識別項目也曾經(jīng)在2018年美國非營利性人權(quán)組織美國公民自由聯(lián)盟的一項研究中,被發(fā)現(xiàn)準確率存疑,甚至在對535名國會議員的面部掃描當中,將其中28名國會議員識別為罪犯。
另一方面,美國目前僅通過普通法確定了政府視頻監(jiān)控應當以不侵犯公民對隱私的預期為基本原則,尚缺乏聯(lián)邦層面針對人臉識別技術(shù)領(lǐng)域的權(quán)威法律。州法層面,2008年伊利諾伊州頒布《生物信息隱私法》,要求在收集信息時充分告知用戶并獲取書面授權(quán),并規(guī)定生物信息不得對外出售或披露。雖然并非針對人臉識別技術(shù),但該法案首次在美國境內(nèi)對生物識別信息進行了規(guī)范,其內(nèi)容與2018年頒布的歐盟《通用數(shù)據(jù)保護條例》中的包括個人面部信息在內(nèi)的“個人敏感信息”這一特殊數(shù)據(jù)類型的規(guī)定非常相似,均采取了比較嚴格的立法態(tài)度。
2019年,包括加利福尼亞州、馬薩諸塞州、新罕布什爾州等在內(nèi)的4個州,以及包括舊金山、奧克蘭、薩默維爾等在內(nèi)的多個美國城市在先后發(fā)布行政命令和法規(guī),禁止本州或城市警察系統(tǒng)內(nèi)的攝像頭使用人臉識別技術(shù),但并未禁止其他攝像頭使用該技術(shù),也為禁止聯(lián)邦執(zhí)法機構(gòu)的使用。
今年3月31日,華盛頓州剛剛簽署了關(guān)于人臉識別的SB 6280號法案,成為美國第一部全面限制執(zhí)法部分使用人臉識別技術(shù)的系統(tǒng)性法律,也被認為可能成為今后美國立法的范本。該法要求政府部門除緊急情況之外,應當在進行人臉識別掃描之前取得法院合法簽發(fā)的搜查令;用于識別的軟件應當經(jīng)過獨立測試,以確保準確性及對膚色、性別、年齡及其他特征不存在不公正的區(qū)別對待。但該法案仍然面臨民權(quán)組織認為對社會邊緣群體保護不到位的批評,認為該法對人臉識別技術(shù)的商業(yè)開發(fā)及對政府的販賣缺乏管制,并且缺少具體實施細則和違規(guī)的可歸責性。
筆者認為,人臉識別技術(shù)存在的偏見風險和美國政府部門對該技術(shù)的廣泛應用之間存在著不可忽略的矛盾。當政府機構(gòu)把識別結(jié)果作為判斷犯罪嫌疑人身份的輔助方式,甚至作為證據(jù)應用于逮捕、罰款、監(jiān)控等執(zhí)法行為當中時,由于技術(shù)對少數(shù)族裔的判斷準確率大幅偏低,將會不可避免的導致執(zhí)法誤判,且從算法層面強化種族歧視的觀念,從而引發(fā)警察權(quán)力濫用、不合理執(zhí)法等高度風險,影響執(zhí)法的準確性和客觀性。同時,政府機構(gòu)以其公權(quán)力做背書,對人臉信息的大面積采集將會勢必導致對公民隱私權(quán)的壓縮和損害。因此,近年來對于人臉識別技術(shù)的應用邊界的探討成為涉及科技、法律、生物、社會、道德領(lǐng)域的全方位熱點。而此次IBM的發(fā)聲,呈現(xiàn)了作為一家頭部科技公司的所承擔的社會義務和責任感。其公開函中對于警察系統(tǒng)改革和擴大少數(shù)族裔就業(yè)及教育機會的呼吁,對于反對系統(tǒng)化種族歧視和少數(shù)族裔平權(quán)有著一定的積極作用,而對于退出人臉識別業(yè)務的決定,也表明了其認為科技發(fā)展應當更具有責任感的企業(yè)價值觀。正如公開函中所述:
“人工智能是可以幫助執(zhí)法部門確保公民安全的利器。但人工智能系統(tǒng)的使用者和供應者也應當對確保人工智能的偏見測試負有責任,特別是用于執(zhí)法部門時,這樣的偏見測試應當被審計和通報。同時,國家警察也應當鼓勵和促進諸如監(jiān)控攝像及現(xiàn)代數(shù)據(jù)分析等技術(shù)的應用,從而帶來更大程度的透明度和警察的可歸責性?!?/p>
(作者系美國紐約州執(zhí)業(yè)律師、歐盟注冊信息隱私專家Certified Information Privacy Professional/Europe(CIPP/E)、美國注冊信息隱私專家(CIPP/US),主要從事商業(yè)及數(shù)據(jù)合規(guī)業(yè)務)
清律律師事務所,肇始于“清法律師團”,由一批畢業(yè)于清華大學的優(yōu)秀律師創(chuàng)建,已成為一家特色鮮明、業(yè)務領(lǐng)域廣泛、成員背景多元的新銳律師事務所。目前在北京、上海兩地設有辦公室。
一直以來,清律均以高度審慎的標準來歡迎和接納新成員。律所成員背景全面,覆蓋常年顧問、投融資并購、民商事訴訟等主要法律服務領(lǐng)域,深諳各實體行業(yè)的商業(yè)規(guī)則,有豐富的為各行業(yè)提供定制化法律服務的經(jīng)驗,具備為公私客戶提供全案的風險管控措施和糾紛解決的專業(yè)能力。
若干年來,清律秉持卓越的敬業(yè)精神和專業(yè)水準,為客戶提供定制、高效、務實、盡責的法律專業(yè)服務,贏得了客戶的信任和依賴,使得客戶能夠平穩(wěn)、健康地實現(xiàn)商業(yè)目標并取得矚目的成績。