趙 嬋
(湘潭大學 黨委組織部,湖南 湘潭 411105)
進入21世紀以來,以數(shù)字經濟為增長點的第四次工業(yè)革命方興未艾。數(shù)字經濟以數(shù)字化信息和知識為關鍵要素,以數(shù)字技術為核心驅動力,是工業(yè)互聯(lián)網(wǎng)、云計算、人工智能等數(shù)字技術產業(yè)化應用的新經濟形態(tài)。根據(jù)《中國互聯(lián)網(wǎng)發(fā)展報告(2022)》的統(tǒng)計,截至2021年底,我國數(shù)字經濟規(guī)??偭績H次于美國,穩(wěn)居世界第二,占全國GDP比重為39.8%,總值為45.5萬億元。人工智能產業(yè)規(guī)模為4041億元,已逐步融入經濟社會發(fā)展各領域并呈現(xiàn)出加速發(fā)展的良好態(tài)勢。與此同時,在數(shù)字經濟的深刻影響下,人類社會正處在歷史十字路口,面臨著一個社會結構重塑、發(fā)展路徑與制度選擇的重大問題[1]。例如,人工智能的高速發(fā)展給勞動力市場帶來較大沖擊與影響,“機器換人”的現(xiàn)實加劇了勞動就業(yè)市場的內卷與損耗,為此有必要“研究機器人、人工智能等技術對就業(yè)影響的應對辦法”(2019年《關于促進勞動力和人才社會性流動體制機制改革的意見》)。
人工智能(AI)對就業(yè)影響是多方面的。除“機器換人”的人力資本優(yōu)勢外,AI技術還可廣泛用于企業(yè)招聘、人事管理等領域,自動作出招聘錄用、職務升降、續(xù)聘解雇等人事決策,從而有效解決企業(yè)招聘與人事管理的痛點問題。AI招聘系統(tǒng)不僅可以簡化繁瑣面試流程,提高企業(yè)招聘效率,而且可以輔助或替代招聘錄用決策,消除可能存在的個人偏見。例如,美國FisrtJob公司所開發(fā)的AI招聘系統(tǒng)(Mya),既能對申請者的求職簡歷進行初步篩選和過濾,又可以根據(jù)招聘崗位的核心工作要求對求職者進行面試測評并提供備選的錄用推薦名單,從而避免或消除人為產生的潛意識判斷。
盡管不少研究者認為AI招聘可以消除各類人為偏見——如Keinberg et al(2018)認為,算法不僅可以提供一種新的透明化過程,有助于發(fā)現(xiàn)就業(yè)歧視的可能性,而且當平等就業(yè)權利遭遇威脅時,還是一種追求公平就業(yè)實踐的向善力量[2]113-166,但AI內嵌的算法自動化決策不可避免產生相應歧視風險,或加劇勞動力市場普遍存在的既有就業(yè)歧視等現(xiàn)象。例如,Natalia Criado和Jose M Such(2019)認為,隨著人工智能系統(tǒng)被委以越來越多的工作任務,數(shù)字歧視將成為一個嚴重社會問題。在他們看來,數(shù)字歧視是一種基于機器學習或深度學習等技術和個人數(shù)據(jù)所作出的算法自動化決策不公平、不公正或區(qū)別對待用戶的歧視形式[3]82。Datta et al.(2015)則通過自動化的探測工具發(fā)現(xiàn)谷歌的招聘廣告推送存在較為顯著的性別差異,由此證明了機器學習算法可能加劇就業(yè)性別歧視的潛在危害[4]92-112。
為此,研究者對就業(yè)領域的算法歧視開展了探索性的研究并得出極富啟示的結論與建議。例如,基于AI招聘之算法歧視類型劃分及其成因分析,程建華等主張應克服根源性的算法技術偏見,明確招聘主體責任,完善相關法律法規(guī)[5]126-128;與之類似,侯玲玲等人則認為,要有效規(guī)制國內算法就業(yè)歧視,應擴展歧視類型,明確算法歧視認定與豁免標準,明確算法開發(fā)主體和運營主體的法律責任,設立訴訟專門機構并確立舉證責任倒置規(guī)則等[6]13-16。然而,從所借鑒或參考的域外經驗來看,無論是算法就業(yè)歧視的法律規(guī)制抑或是算法技術的完善和改進,兩條徑路皆為治標之策,收效相對有限,且可能背離算法研發(fā)和推廣的產業(yè)政策方向[7]64。一方面,AI招聘的最終結論是差異性的,有的求職者會成為雀屏之選,有些則會名落孫山。其差異性影響的背后因素極為復雜且多樣,部分理由可歸因為對特定群體的歧視,如對女性求職者的性別歧視等。另一方面,AI算法被認定是“表面中立的”(facially neutral),沒有客觀的歧視“意圖”(intention),難以成立以主觀意圖為要件的直接歧視(disparate treatment)[8]519。因此,在不承認以統(tǒng)計性顯著差異為標志的間接歧視(disparate impact)的國家,算法就業(yè)歧視更難以有效認定和規(guī)范治理。職是之故,為有效因應算法就業(yè)歧視的風險與挑戰(zhàn),有必要重新審視AI招聘的應用及其潛在影響,合理判定算法就業(yè)歧視的成立與類型,并結合其可能的風險挑戰(zhàn),進而構想出一條現(xiàn)實可行的綜合治理之道。
1.AI招聘的現(xiàn)實應用
人工智能技術應用于就業(yè)招聘領域,自有其內在的實踐邏輯:自20世紀70年代以來,企業(yè)界開始在人事管理方面專注于開發(fā)并驗證用以遴選合適雇員的專業(yè)工具。易言之,以數(shù)據(jù)和算法為基礎的AI招聘,源于更快捷有效作出招錄員工決策的商業(yè)實踐需求[8]528。世界范圍內,AI招聘系統(tǒng)最初為世界500強的跨國公司所開發(fā)并加以利用。例如,2014年亞馬遜公司為應對大規(guī)模雇傭企業(yè)員工的需要,組織公司內部的機器學習專家開發(fā)了一套自動化工具,以協(xié)助企業(yè)HR部門作出招錄決定。盡管該項目因涉嫌性別歧視于2017年被終止,但以科技引領人事管理體系變革卻已在商業(yè)界漸成潮流。2018年,領英(LinkedIn)公司對9000名企業(yè)人事經理的問卷調查結果表明,35%的受訪者認為人工智能在未來的企業(yè)招聘中將發(fā)揮“非常重要”或“極其重要”的作用,9%的受訪者表示已采用人工智能技術來輔助企業(yè)招聘活動[9]。
過去幾年,科技公司和招聘平臺先后開發(fā)并提供以人工智能為基礎的招聘軟件或應用模塊,從而便于公司或雇主招募合格申請者并快速作出錄用決策。從AI招聘的開發(fā)應用來看,存在兩條各有千秋的技術路線:一是傳統(tǒng)企業(yè)級應用系統(tǒng)開發(fā)商,如用友、金蝶、北森等系統(tǒng)集成公司,在其所開發(fā)的HR SaaS系統(tǒng)中通過迭代開發(fā)的形式內嵌有人工智能為基礎的招聘管理模塊,為企業(yè)用戶提供一體化智能招聘整體解決方案,以協(xié)助企業(yè)提高招錄效能;二是招聘平臺或初創(chuàng)公司針對企業(yè)“招工難”和勞動者“求職難”的兩大痛點,通過數(shù)字化與智能化的流程改造,為企業(yè)提供從職位發(fā)布到評估錄用的自動化招聘服務,致力于解決企業(yè)人才需求問題。初創(chuàng)公司所開發(fā)的AI招聘系統(tǒng),在國外較為知名的有主營數(shù)據(jù)挖掘和職位匹配的Entelo和Hiretual、以面試和評估求職者為目標的HireVue和Mya,以及專注于職位描述(JD)優(yōu)化的Textio等;國內的相關應用包括近嶼智能的AI得賢招聘官、探也智能的TAIENT、滴孚科技的壹面等。
AI對招聘流程的介入與優(yōu)化涉及招聘廣告推送、面試求職者、進行能力測試、職位匹配推薦等環(huán)節(jié),并可根據(jù)AI招聘的主要任務分為兩大類型[8]531-532:(1)數(shù)據(jù)挖掘或職位匹配。在域外,最為常見的AI應用是基于對可得個人數(shù)據(jù)進行挖掘,以建立龐大的求職者數(shù)據(jù)庫,進而透過定制化的理想雇員模板,向雇主推薦最適配崗位要求的申請者。以Entelo為例,它建立了一個包含3億份個人簡歷的數(shù)據(jù)庫,其大部分數(shù)據(jù)并不來自個人的提交而是源于從各大主流社交平臺和網(wǎng)絡站點的搜索結果。Entelo所開發(fā)的預測算法不僅可以及時發(fā)現(xiàn)并向目標客戶推送有跳槽傾向的各類企業(yè)人才,而且可以基于算法的模式化分析讓目標公司接觸并招錄到合適的工作人選。(2)能力測試或流程管理。在能力測試上,部分AI招聘算法聚焦于評估求職者的工作表現(xiàn)及其能力適配。例如,GapJumers為消除可能的性別歧視或種族偏見,專注于開發(fā)一個以工作能力(技能)為基礎的盲評(blind)算法,即僅根據(jù)求職者的工作表現(xiàn)及其能力高低而排序推薦,并在測評時有意忽略任何其他可識別因素(如姓名、教育背景、公益工作等)的影響;在流程管理上,部分AI招聘應用主要專注于前端的職位發(fā)布或簡歷篩選,或側重于后端的面試與能力測評。
2.AI招聘對就業(yè)歧視的雙重影響
在世界范圍內,就業(yè)歧視不僅種類繁多,而且普遍存在。英美等西方國家在歷史與文化因素的影響下,透過對種族、性別、性取向、宗教信仰、健康、年齡等受保護特征的列舉式規(guī)定,發(fā)展出以形式平等為導向的直接歧視與以實質平等為圭臬的間接歧視的兩種反歧視學說[10]156-179。然而,雖然相關反就業(yè)歧視法制相當嚴密,全面涵蓋反差別對待和反差別影響的責任形態(tài),但在真實世界中,不僅就業(yè)歧視的現(xiàn)象較為嚴重,而且形成了嚴密法網(wǎng)保護與嚴重就業(yè)歧視并存的矛盾格局。我國雖然沒有西方語境下的反歧視立法,但對勞動者平等就業(yè)權提供了充分的法律保護。我國勞動法上受保護的特征(《就業(yè)促進法》第三章)主要包括民族、性別、殘障、健康與戶籍等,并確立了平等就業(yè)促進與企業(yè)用工自由的雙重規(guī)范目的[6]2。從法律實踐來看,我國就業(yè)歧視的類型復雜多樣,不僅涵括常見的健康歧視、性別歧視外,還包括學歷歧視、年齡歧視、基因歧視等超出法定歧視范圍的類型[11]15-30。
以數(shù)據(jù)和算法為基礎的AI招聘可能對現(xiàn)實存在的就業(yè)歧視產生積極或消極的影響。從積極面來看,AI招聘可以通過減少人為的主觀偏見,即用中立無偏的算法決策替代人類普遍存在的偏頗決定,以達到提升招聘決定科學性和客觀性、減少就業(yè)歧視的目標。算法做出的自動化決策,有時被視為公正無私的(faultless),沒有人類決策所具備的諸多缺陷;而且,其決策很少被外部的人為因素干擾,更不會像人類決策那般吹毛求疵[12]。為此,AI招聘算法可以減少就業(yè)歧視、促進就業(yè)平等,其典型做法主要有:(1)通過將受保護特征設定為招聘算法禁止利用或不得處理的目標變量(target variables),如將個人簡歷所列明的性別、民族、年齡、健康等受保護特征列為不得識別的因素,以消除可能的社會偏見;(2)必要時,可允許算法接觸并處理受保護特征等變量,以實現(xiàn)群體性的就業(yè)平等。鑒于算法自動化決策的形式平等特性,為實現(xiàn)對特定弱勢群體的傾斜保護,可以有意將特定群體的受保護特征予以衡量和考慮,并在算法設定上采取針對性的傾斜照顧[2]154;(3)可透過算法透明度原則,自我揭示或披露算法決策內含的人類偏見,并成為佐證就業(yè)偏見、算法歧視存在的有力證據(jù)。換言之,通過自證的算法決策結果,可以揭露公司過去招聘記錄的歷史偏見或歧視傾向,從而間接證實就業(yè)歧視的存在。
在消極面上,若缺少行之有效的控制或治理,AI招聘算法將放大或加劇就業(yè)歧視的泛濫。無論是透過機器學習抑或深度學習所作出的算法自動化決策,會承襲程序設計者、使用者以及社會的偏見,進而導致歧視性結果的發(fā)生或濫觴。相比于個人決策,算法決策具有更為系統(tǒng)且持續(xù)一致的歧視潛力,其影響范圍和規(guī)模更大。從社會偏見經由算法決策最終導向歧視的現(xiàn)實可能性來看,AI招聘的算法就業(yè)歧視有三個不同的階段性源頭:(1)AI招聘的算法建模(Modelling):AI招聘為解決招聘過程的關鍵痛點,需要算法開發(fā)者或運營者在建模過程中,通過對目標變量及其問題屬性進行必要的人為設定。這一人為設定的建模過程浸潤著算法開發(fā)者或運營者的主觀評價和偏見,后者將扭曲算法自動化決策的科學客觀性,進而誘發(fā)算法就業(yè)歧視的發(fā)生;(2)AI招聘的訓練(Training):AI招聘程序需要運用不同的“訓練”數(shù)據(jù)集,對程序的開發(fā)利用進行訓練與驗證。用以驗證學習的“訓練”數(shù)據(jù)集,既可能是離線的,也可能是在線的,但無論何種“訓練”數(shù)據(jù)集都是過去社會經驗的積淀,是社會決策者既定偏見或社會偏見的現(xiàn)實映射。因此,經由數(shù)據(jù)集“訓練”的招聘算法有可能習得并固化人類的社會偏見,進而導致歧視性結果的產生;(3)AI招聘算法的實際應用:除上述情形外,非歧視性建構的AI招聘算法亦有可能導致算法歧視的發(fā)生。較為典型的是所謂“代理歧視”,即算法通過非敏感性的個人數(shù)據(jù),可以對用戶進行精準畫像,識別出求職者的受保護特征(如性別、年齡、健康等),從而導致算法就業(yè)歧視的發(fā)生。
1.算法就業(yè)歧視的類型與認定
無處不在的社會偏見是造成算法就業(yè)歧視的心理學源頭。因此,在理論研究上,既有根據(jù)社會偏見轉化為算法歧視的發(fā)生邏輯,將算法就業(yè)歧視概分為社會歧視所致的算法轉化歧視、算法設計所致的算法技術歧視以及算法運行所致的算法決策性歧視[13]123-125;亦有從人機交互決策之技術路徑可能導致就業(yè)歧視的角度,將算法就業(yè)歧視區(qū)分為因“結果變量”具有非中立性導致的算法歧視和因“訓練集”數(shù)據(jù)具有歧視性導致的算法歧視[14]77-78。雖然上述算法就業(yè)歧視的類型劃分有利于針對歧視成因進行法律規(guī)制,但客觀上亦存在算法歧視與算法偏見相混同的弊端,因為偏見與歧視固然相關,但實則兩個不同性質的問題:偏見是社會心理學上固有的認知狀態(tài),歧視是法律所應禁止的不當行為[15]2-4。
作為一個法律概念,算法歧視應結合具體應用場景及其對不同群體的差異性影響而作出有效認定[16]81,不能遽然認定算法所映射或催生的就業(yè)偏見必然構成算法就業(yè)歧視。而且,法律是一種地方性知識,在西方語境中被認為就業(yè)歧視的法律現(xiàn)象,在其他非西方語境中并不必然構成法律上應予對待的特定歧視類型。例如,在性別歧視極為嚴重的印度,女性的勞動參與度極低,就業(yè)問題極其嚴峻。根據(jù)世界銀行統(tǒng)計,從2010-2020年,印度的職業(yè)女性人數(shù)從26%下跌至19%,其中2017-2022年間就有2100萬印度女性被迫退出就業(yè)市場[17]——這一女性就業(yè)比例的嚴重失衡在西方社會已然構成較為嚴重的就業(yè)歧視(作為間接歧視類型),但在性別偏見較為嚴重的印度則未必如此對待。
因此,西方語境中的歧視可以分為直接歧視(或差別對待)和間接歧視(或差別影響)。直接歧視立足于絕對的形式平等觀,即要求“相同者應相同對待”。在某種程度上,直接歧視體現(xiàn)為可比較的差別對待,而且歧視的“意圖”昭然若揭,是對反歧視法受保護特征的公然踐踏。間接歧視則取向相對的實質平等觀,是對機械的形式平等的背反。正如美國最高法院在Griggs v Duke Power案所提出的:“《民權法案》不但禁止公然的直接歧視,而且禁止形式上公平但實際上卻具有歧視性的行為?!盵18]168由此,勞動者只要能夠證明,雇主的相關決定或做法造成了基于特定受保護特征的差別影響,則足以認定該決定或做法具有歧視性。自從美國反歧視法引入間接歧視的類型后,其影響便越過了大西洋,成為西方各國的廣泛共識。
在勞動法領域,直接歧視與間接歧視的類型又可進一步歸屬為反分類(anticlassification)和反從屬(antisubordination)的規(guī)制進路,并深植于美國種族歧視歷史的政治法律論爭之中[19]64。反分類進路主張,AI招聘的算法決策應做到一視同仁,不得基于任何個人的受保護特征而予以差別對待,但由于直接歧視的認定需要證實相關決策主體存在“歧視意圖”,方能構成就業(yè)歧視,因此在算法“表面中立”的客觀認知中,算法就業(yè)歧視不應是反分類的規(guī)制目標,而主要是反從屬的規(guī)制目標[20]891-892。反從屬進路將歧視定義為社會地位的階層固化及其對歷史弱勢群體的壓制,因此其歧視形態(tài)具有社會結構性和系統(tǒng)性特征,是較為明顯的間接歧視或隱形歧視。
但是,要構成法律能有效回應的就業(yè)間接歧視,算法歧視的判定必須回答三個問題:(1)是否存在差別影響?在認定差別影響時,要綜合考慮兩個方面的構成要件:一是相關招聘條件、要求或標準適用于所有人,亦即平等對待全體求職者;二是盡管表面上平等對待全體求職者,但實際上導致具有特定受保護特征的人處于特別劣勢的地位,例如申請人所在群體的錄取比例很低或接近于零,等等。為此,在具體衡量間接歧視的不利結果時,它雖然關注遭遇歧視的個體歸屬,但顯然更側重于群體而非個體的待遇。因此,在認定差別影響上,它會以客觀的統(tǒng)計數(shù)據(jù)為準據(jù),并形成以具有統(tǒng)計顯著性為特征的“五分之四法則”(弱勢群體錄取比例不低于優(yōu)勢群體的80%)。(2)是否有正當性抗辯理由?差別影響并不必然構成間接歧視,因為雇主可以主張正當?shù)目罐q理由,即證明相關錄用條件或標準符合業(yè)務必要性或比例性原則的要求。在美國,如果相關做法符合雇主公司的商業(yè)需要或與完成工作的需求高度相關,則差別影響的結果是可接受的;而在歐盟和英國,正當性抗辯理由與比例性原則相契合,亦即相關做法“具有合法的目標,并且相關手段對于實現(xiàn)既定目標而言是適當?shù)那冶匾摹盵10]180。(3)是否存在可替代的算法決策?美國最高法院在確立間接歧視的Griggs v.Duke Power Co.案中認為,即使雇主成功證明了其做法的合理性,但原告可主張存在其他歧視性更小的手段,以反證雇主公司仍需對此承擔責任。歧視性更小的替代算法決策是比例性原則的合理適用,亦即任何差別影響需要滿足(狹義比例性原則之)最低損害的要求。只要存在其他可替代且歧視性更小的算法決策,即使雇主提出了正當性抗辯理由,但求職者仍可主張間接歧視的成立。
2.算法就業(yè)歧視的風險挑戰(zhàn)與治理需求
盡管西方反歧視法對算法決策所致就業(yè)歧視已有法律規(guī)制,但相關方案既不具有普遍適用性,又未能有效因應算法就業(yè)歧視的風險,因而需從治理的角度重新審視算法就業(yè)歧視的風險挑戰(zhàn)。
首先,AI招聘的算法歧視風險是客觀存在的,不會因為算法就業(yè)歧視的法律認定便自行消解。與之相反,雖然普遍認為AI招聘的算法決策不構成直接歧視類型,但人為偏見仍可通過算法的開發(fā)建?;颉坝柧殹睌?shù)據(jù)集而潛入算法自動化決策,并成為損害特定主體勞工權益的風險點。況且,潛在歧視風險是算法決策機制所附著或固有的,除非將其徹底摒棄不用,否則難以通過對算法決策結果的外部干預予以有效紓解。由此,既然不能僅從外部對其加以嚴格的法律規(guī)制或約束,則應返回技術治理的本源,以技術手段回應技術風險,以降低算法就業(yè)歧視的發(fā)生概率。
其次,AI招聘的算法就業(yè)歧視雖然可歸為間接歧視類型而加以規(guī)制,但其實際的規(guī)制效果未必理想。一方面,身為求職者的原告很難證實算法決策的差別影響構成間接歧視,因為算法決策的內在機理使得其決策符合“統(tǒng)計顯著性”的標準,容易成為可豁免雇主責任的抗辯理由。事實上,不少研究者均不約而同指出,基于“好雇員”的“訓練”數(shù)據(jù)集所建模的預測算法在本質上是自我驗證的(self-validating),因為預測算法是“標準”或“建構”的驗證研究,即證明特定實踐是衡量工作績效表現(xiàn)的尺度[20]866-867。另一方面,大部分遭遇就業(yè)歧視的求職者常常會因難以舉證而放棄維權,算法黑箱事實更進一步加劇了當事人舉證之難度。更何況要證成算法的間接歧視,原告還需要自證存在一種歧視性更少的替代算法,更難上加難。為此,還需要從現(xiàn)實角度進一步構建或完善適于防治算法就業(yè)歧視的法律規(guī)制。
最后,雖然算法就業(yè)歧視在倫理、政治上是不正確的,但部分歧視在經濟上是合理的,故而能穿透反歧視的嚴密法網(wǎng)[7]70。而且,各國的反歧視法歷史與立場多有差異,就業(yè)歧視的類型和法律規(guī)制也多有不同。例如,有學者曾將我國就業(yè)歧視概括為“職場歧視1.0”(用人單位在招聘條件上明確排除或限制錄用特定受保護特征的勞動者),故平等就業(yè)法仍停留在較為明顯的反直接歧視的立場,并對算法決策所產生的隱蔽就業(yè)歧視(“職場歧視3.0”)存在極大的不足[14]76。職是之故,在算法就業(yè)歧視之法律規(guī)制付諸闕如的前提下,有必要在社會政策上作出合理抉擇與有效應對。
基于AI招聘所孕育的算法就業(yè)歧視風險及挑戰(zhàn),在構想其具體的法律規(guī)制時,曾有兩條不同的徑路,即“改進算法”和“完善法律”[8]533-539。然而前述分析表明,任何單一徑路都不可能完全奏效,而須根據(jù)其所適應的問題病癥,采取對癥下藥的應對之策,最終形成算法就業(yè)歧視的綜合治理之道。
基于既有反歧視法無法有效應對算法就業(yè)歧視的現(xiàn)狀,以及參酌環(huán)境影響評價制度,有學者提出有必要建立算法影響評價制度,從完善算法技術的路徑出發(fā),加強源頭控制并防范算法就業(yè)歧視的發(fā)生風險[21]714-722。算法影響評價是一種新型的算法規(guī)制技術,是依據(jù)特定標準對算法自動化決策之過程、內容和結果進行系統(tǒng)評估的治理手段,有助于強化算法可解釋性,即要求AI招聘算法的開發(fā)設計者以通知或公告的形式闡述算法決策的機理、過程和結果,從而實現(xiàn)對算法原理及其結果的描述說明和解釋論證[16]84。本質上,算法影響評價不僅是一種典型的風險預防機制,可以披露事前的算法歧視風險并為事后的風險治理奠定基礎,而且是一套實現(xiàn)算法公平的技術治理手段,可以通過定制化的影響評價,將職場多元化和弱勢群體保護的公平理念嵌入招聘算法的開發(fā)設計之中,從而實現(xiàn)可負責算法(accountable algorithms)的構建。
在可負責算法的構建上,算法決策的可解釋性要求只是初步的形式要求,因為披露算法源代碼既非算法決策過程之公平性的必要條件,亦非其充分條件。就此而言,算法開發(fā)者或利用者應透過算法影響評估報告的形成,詳細說明其招聘決策所涉的模型建構原理、“訓練集”數(shù)據(jù)的來源和處理,進而表明數(shù)據(jù)使用不會侵犯個人信息權利并構成對特定群體的顯著歧視。而且,基于算法決策的影響評價[22]643-662,結合就業(yè)平等的實質要求, AI招聘的算法系統(tǒng)開發(fā)時應嵌入公平性的實質要求:(1)將隨機性(randomness)嵌入算法[22]683,以防范算法開發(fā)過程中的隱藏偏見,或避免導致一致性的歧視性結果。例如,如果招聘算法從過去經驗中習得女性求職者在職場上處于不利地位的判斷,將強化其招錄男性求職者的預測和匹配結果。因此,如果在相關算法設計時有意引入隨機性因素——部分預測表現(xiàn)不佳的求職者同樣將獲得錄用,那么算法決策系統(tǒng)的準確性和公平性將得到逐步有效的改善。(2)通過相應的機制設計,確保機器學習和算法的公平性,以實現(xiàn)個體公平(individual fairness)與群體公平(group fairness)的兼容。對此,簡單直接的做法是在訓練模型時,修改或遴選輸入數(shù)據(jù),不斷對比調試,以確保輸出結果符合公平特性。具體而言,在輸入訓練數(shù)據(jù)集時,要么刪除或剔除受保護特征的目標變量,要么去除敏感信息后盡可能保留原始信息,從而實現(xiàn)數(shù)據(jù)集的公平呈現(xiàn)(fair representation)。更為復雜的做法則是,通過定義公平性來約束算法的開發(fā)。例如,Dwork et al.主張“透過自覺的公平”,允許算法決策收集并明確利用諸如少數(shù)群體地位、性別或健康情況等敏感信息[23]215。
為因應算法就業(yè)歧視的認定與歸責難題,應從兩個方面進一步完善相關法律規(guī)定:一是將算法影響評價確立為制度性要求,并從評價主體、程序、標準等方面建構起具有國情特色的算法影響評價制度[16]84-85。具體而言,第一,在評估主體上,要區(qū)分評價監(jiān)管主體和評價實施主體并明晰各自職責權限。前者是具有特定監(jiān)管職權的政府主管部門,負責算法影響評價報告的報備與復核;后者是算法影響評價的獨立實施者,負有客觀撰寫評價報告的職責義務。第二,在評價程序上,要強化人民立場,依法保障公眾的知情權與參與權,尤其是在勞動領域,要增強勞動者及其工會組織對算法影響評價的知情同意。第三,在評價標準上,要充分考慮平等、公平、公正等核心價值在算法影響評價中的引領作用,推動機器學習算法等公平性算法的開發(fā)利用,并重新形塑算法決策的影響后果。第四,在評價報告上,要強化評價報告的備案審查和公開,尤其應向受算法決策影響的利益相關者予以強制披露,并適時賦予評價結論以一定法律效果,使之成為相關領域執(zhí)法與司法的事實依據(jù)。
二是在反就業(yè)歧視法上,有必要確認算法就業(yè)歧視為新型的勞動歧視形式,并根據(jù)合理的認定標準與程序以確認算法就業(yè)歧視的成立與歸責。雖然算法就業(yè)歧視與傳統(tǒng)的勞動歧視類型重疊交合,但又有一定特殊性和獨立性,故有必要明確其細化的認定標準,即從差別影響、正當抗辯理由和可替代算法決策等三個層面構建其合理要求[6]14,以妥善均衡平等就業(yè)與用工自由之利益訴求。而且,考慮傳統(tǒng)就業(yè)歧視之訴舉證困難,再加上算法黑箱等客觀情勢,有必要重新分配算法就業(yè)歧視的舉證責任,以減輕求職者或勞動者的舉證負擔。求職者或勞動者只需提供初步證據(jù),以表明用人單位存在歧視特定受保護特征之群體的行為或現(xiàn)象即可,用人單位則應自證相關招聘標準或就業(yè)政策符合業(yè)務必要性標準或有正當合法的抗辯理由。
法律規(guī)制不是萬能的,只能解決部分算法就業(yè)歧視問題,其余風險部分則應在政策上予以調整和回應,以實現(xiàn)就業(yè)政策與產業(yè)發(fā)展政策的銜接配合。當前,以大數(shù)據(jù)和人工智能技術為核心的數(shù)字經濟所推動的產業(yè)提質升級,是邁向中國式現(xiàn)代化的必由之路,也是實現(xiàn)“第二個”百年目標的關鍵動能,絕不能因其存在的風險問題便因噎廢食、放棄相關技術的廣闊應用前景。為此,要努力做好兩方面的協(xié)調平衡工作:一方面,為促進數(shù)字經濟的發(fā)展,應借鑒參考美國平臺就業(yè)歧視責任的豁免制度[6]10,對開發(fā)利用AI技術的招聘平臺或開發(fā)者實行算法就業(yè)歧視責任豁免。開發(fā)者或招聘平臺應豁免算法就業(yè)歧視的法律責任,是因為它們是AI技術的開發(fā)者,在與用人單位的委托關系中,屬于技術開發(fā)的受托人,僅應對用人單位負有信義義務。為此,除非相關平臺或開發(fā)者違反對用人單位的信義義務,相關歧視責任應主要由用人單位負責。免除相關開發(fā)主體和應用平臺在盡職履責情況下的就業(yè)歧視責任,有利于推動AI招聘技術的積極探索和創(chuàng)新應用,從而實現(xiàn)人工智能技術的更新迭代與公平利用。
另一方面,為緩解算法就業(yè)歧視對少數(shù)弱勢群體的負面影響與沖擊,應大力推動弱勢群體的就業(yè)促進工作,推行機會均等的公平就業(yè)實踐,充分提升弱勢勞動者的獲得感、滿足感和幸福感。例如,為推進男女平等的公平就業(yè)實踐,化解算法就業(yè)歧視對女性勞動者的沖擊和影響,既要充分考慮女性照護家庭的特殊職責,推動家庭服務和育兒工作的社會化,適時分攤女性勞動者在生育和養(yǎng)育后代的成本開支,又可實施遠程工作或靈活工時等制度做法[24]248,讓工作與職場對女性勞動者更友好、更平衡,逐步改變用人單位對女性勞動者所形成的刻板印象。
AI招聘的廣泛應用將深刻改變過去的人事管理模式,助推一場勞動力與AI技術雙重變奏的產業(yè)革命。遺憾的是,在AI招聘的實際應用過程中,因社會偏見等內在因素的影響及推波助瀾,算法歧視的潛在或現(xiàn)實風險仍不容忽視,需要認真對待。這些潛在和現(xiàn)實的歧視風險,或可轉為算法就業(yè)歧視而報以法律的“鐵拳”,但亦有逃逸于法律責任的可能性。為此,不應指望法律規(guī)制能夠解決所有與算法就業(yè)歧視相關的問題與挑戰(zhàn),而應從技術治理、法律規(guī)制和政策平衡等層面予以綜合回應。