国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

招聘算法歧視的法律規(guī)制

2022-04-07 17:27:51藍(lán)亭亭
關(guān)鍵詞:求職者規(guī)制用人單位

藍(lán)亭亭

(華東政法大學(xué),上海 200042)

一、問題的提出

在大數(shù)據(jù)時(shí)代,算法技術(shù)的應(yīng)用滲透至勞動(dòng)關(guān)系各個(gè)階段,并且根據(jù)不同階段的特征產(chǎn)生相應(yīng)的適用模式。在勞動(dòng)關(guān)系建立階段,即用人單位招聘階段,人力資源領(lǐng)域?qū)崿F(xiàn)了算法技術(shù)的深度參與,以期提高招聘效率,減輕企業(yè)招聘負(fù)擔(dān)。領(lǐng)英、智聯(lián)招聘、前程無憂等以算法利用為核心的網(wǎng)絡(luò)招聘平臺(tái)成為各大企業(yè)人才招聘的主要路徑之一。用人單位在雇傭決策上對(duì)算法技術(shù)的依賴性不斷提高。由理性精確的算法進(jìn)行雇傭決策看似排除了HR 的主觀偏見,但是招聘算法技術(shù)真正做到無偏見、無歧視了嗎?

數(shù)據(jù)來自于對(duì)社會(huì)現(xiàn)象的總體記錄,算法是于虛擬世界中解決現(xiàn)實(shí)問題的策略機(jī)制?!凹夹g(shù)中立”無法為“算法中立”背書,算法自誕生伊始,便背離了“價(jià)值中立”原則。算法歧視指依靠數(shù)據(jù)挖掘與機(jī)器深度學(xué)習(xí)(deep learning)的自動(dòng)決策系統(tǒng)對(duì)信息主體進(jìn)行分析、作出決策時(shí),由于非中立性訓(xùn)練數(shù)據(jù)或設(shè)計(jì)偏差,對(duì)信息主體進(jìn)行差別對(duì)待進(jìn)而導(dǎo)致的歧視性后果[1]。算法思維的固有缺陷、算法設(shè)計(jì)者主觀認(rèn)知偏差、算法技術(shù)本身的數(shù)據(jù)漏洞與樣本偏差、算法“黑箱”等問題導(dǎo)致算法歧視具有普遍性、隱匿性和頑固性等特點(diǎn)[1]。因而在人工智能為人類活動(dòng)帶來通訊便利、降低成本、提高效率等一系列益處的同時(shí),潛存的算法歧視卻逐漸成為了其新創(chuàng)優(yōu)勢(shì)下的隱憂。

在國(guó)外,算法決策和偏見、隱私和數(shù)據(jù)保護(hù)等相關(guān)問題受到各國(guó)相關(guān)規(guī)制機(jī)構(gòu)在立法上與學(xué)術(shù)上的關(guān)注,力圖采取措施緩解算法技術(shù)運(yùn)用于招聘過程中可能產(chǎn)生的偏差。在國(guó)內(nèi),算法技術(shù)運(yùn)用于招聘時(shí)產(chǎn)生的歧視風(fēng)險(xiǎn)屬于新興研究領(lǐng)域,國(guó)內(nèi)研究成果較少。我國(guó)司法實(shí)踐目前雖未出現(xiàn)因算法技術(shù)運(yùn)用于招聘時(shí)所產(chǎn)生的歧視案件,但是隨著算法技術(shù)在勞動(dòng)用工領(lǐng)域進(jìn)一步發(fā)展,算法參與招聘決策所引發(fā)的就業(yè)歧視將會(huì)成為勞資爭(zhēng)議焦點(diǎn)?;诖?本文試圖梳理可能產(chǎn)生的風(fēng)險(xiǎn)與解決之道。

二、招聘算法技術(shù)的應(yīng)用與歧視性風(fēng)險(xiǎn)

算法技術(shù)應(yīng)用于招聘過程的一大賣點(diǎn)是承諾提高招聘質(zhì)量,顯著消除招聘過程中的人為偏見與主觀性,改善如殘疾人、女性、高齡勞動(dòng)者等就業(yè)弱勢(shì)群體的雇傭前景,被合理規(guī)制的人工智能將有利于發(fā)現(xiàn)社會(huì)中的就業(yè)歧視現(xiàn)象[2]。

(一)招聘算法技術(shù)的應(yīng)用

在招聘過程中,算法技術(shù)可以深度參與“招聘漏斗”(recruitment funnel)的四個(gè)階段,即“尋找、篩選、面試與選擇候選人”[3]。目前,許多大型公司都將算法招聘工具作為提高招聘效率、降低招聘成本的利器,主要通過數(shù)字廣告投放、簡(jiǎn)歷分析系統(tǒng)、視頻面試系統(tǒng)這三個(gè)程序貫穿用人單位招聘的全流程。

1.數(shù)字廣告投放

在“招聘漏斗”的“尋找”階段,算法會(huì)從用人單位的角度出發(fā)尋找匹配程度較高的勞動(dòng)者。算法基于對(duì)海量數(shù)據(jù)的學(xué)習(xí),形成穩(wěn)定預(yù)測(cè)模型,進(jìn)而對(duì)新輸入進(jìn)行輸出預(yù)測(cè)。最常見的便是各大購(gòu)物軟件通過對(duì)用戶歷史瀏覽進(jìn)行收集分析后,提供特定的商品推薦。同理,在人力資源領(lǐng)域使用該種定位工具,針對(duì)性投放廣告將助長(zhǎng)就業(yè)歧視。例如,2017年,美國(guó)通信公司Verizon 在Facebook上投放了一則僅針對(duì)居住于美國(guó)首都或者最近訪問美國(guó)首都并對(duì)金融展現(xiàn)濃厚興趣的25 至36 歲人群的廣告[4]。此外,用人單位還可以通過現(xiàn)有員工“人物畫像”來定位人力市場(chǎng)里的“酷似受眾群體”[5],利用算法進(jìn)行信息匹配從而提高數(shù)字招聘廣告投放的針對(duì)性和有效性。

2.簡(jiǎn)歷分析系統(tǒng)

在“招聘漏斗”的“篩選”階段,算法會(huì)掃描求職者的簡(jiǎn)歷,識(shí)別與成功招聘相關(guān)的關(guān)鍵詞和特征信息,如工作經(jīng)歷、歷任雇主、學(xué)歷證書等,之后算法衡量每一個(gè)指標(biāo)的分?jǐn)?shù)并為每一個(gè)候選人進(jìn)行評(píng)分排序。而只有算法判定簡(jiǎn)歷與所招聘職位相匹配時(shí)才有機(jī)會(huì)被用人單位查看。在這個(gè)過程中,算法是否完全中立呢? 據(jù)路透社報(bào)導(dǎo)稱,亞馬遜停止了預(yù)期實(shí)現(xiàn)招聘流程自動(dòng)化的人工智能招聘工具,因?yàn)樗麄兇_定該工具對(duì)婦女有偏見。公司發(fā)現(xiàn),在這套人工智能招聘工具的運(yùn)用中,性別成為了一項(xiàng)區(qū)分標(biāo)準(zhǔn),軟件開發(fā)人員和其他技術(shù)職位候選人的評(píng)分單因性別便會(huì)產(chǎn)生差異,算法偏好于男性候選人,如果簡(jiǎn)歷分析得知求職者畢業(yè)于女校或者帶有“女性”字樣,便會(huì)受到算法的負(fù)面評(píng)價(jià)[6]。國(guó)內(nèi)智能招聘網(wǎng)站也正在進(jìn)行向數(shù)字化招聘的轉(zhuǎn)變。例如,線上招聘平臺(tái)“云聘會(huì)”主打核心功能便是簡(jiǎn)歷采集與解析,針對(duì)用人單位所需崗位畫像推薦合適人才。

3.視頻面試系統(tǒng)

在“招聘漏斗”的“面試”與“選擇候選人”階段,用人單位可以使用視頻面試系統(tǒng)對(duì)求職者預(yù)面試進(jìn)行初步篩選。算法通過分析求職者在錄像視頻中的面試表現(xiàn)(包括其面部表情、語(yǔ)音語(yǔ)速、眼神交流等)進(jìn)行數(shù)據(jù)收集、處理與分析,判斷求職者的工作風(fēng)格、勤勉度、忠誠(chéng)度與所求職崗位匹配的“成功可能性”并進(jìn)行評(píng)分和排名[5]。例如,2020年5月,網(wǎng)絡(luò)求職平臺(tái)“智聯(lián)招聘”推出“AI易面”這一功能,旨在通過對(duì)求職者進(jìn)行語(yǔ)義分析、神態(tài)分析、智力評(píng)測(cè)、性格測(cè)試等一系列結(jié)構(gòu)化測(cè)試,智能評(píng)判求職者是否符合預(yù)設(shè)的候選人畫像,借此快捷完成人崗匹配。

(二)算法招聘應(yīng)用的歧視性風(fēng)險(xiǎn)

1.基于訓(xùn)練數(shù)據(jù)的歧視性風(fēng)險(xiǎn)

算法技術(shù)具有實(shí)證主義屬性,以數(shù)據(jù)挖掘和信息處理作為決策基礎(chǔ),通過量化而非質(zhì)性的手段解構(gòu)人類行為與社會(huì)現(xiàn)象,通過數(shù)理分析的方式構(gòu)建模型識(shí)別不同屬性的因果關(guān)系和相關(guān)關(guān)系。存在偏差的訓(xùn)練數(shù)據(jù)會(huì)直接導(dǎo)致算法模型表達(dá)偏差,這便是算法技術(shù)“偏差輸入,偏差輸出”的問題[7]。當(dāng)算法分類和決策基于不準(zhǔn)確、不全面的信息時(shí),歧視會(huì)體現(xiàn)在算法的表達(dá)之中,這些表達(dá)往往是人類偏見的延續(xù),通過訓(xùn)練數(shù)據(jù)嵌入算法決策,不斷形成一個(gè)閉環(huán)。普林斯頓大學(xué)艾琳·卡利斯坎(Aylin Caliskan)等學(xué)者使用內(nèi)隱關(guān)聯(lián)測(cè)試(IAT)量化人類偏見時(shí)發(fā)現(xiàn),在利用高頻溝通語(yǔ)言對(duì)算法系統(tǒng)進(jìn)行訓(xùn)練時(shí),機(jī)器學(xué)習(xí)程序從文本語(yǔ)料庫(kù)中自動(dòng)推導(dǎo)的語(yǔ)義中包含了類似人類思維中的偏見[8]。算法從人類社會(huì)習(xí)得對(duì)受保護(hù)屬性(protected attribute)的歧視,并將其嵌入決策體系之中,算法應(yīng)用的高歌猛進(jìn)將在更大更深的社會(huì)層面滲透算法歧視的影響力。

2.基于設(shè)計(jì)偏差的歧視性風(fēng)險(xiǎn)

在分年齡和分性別進(jìn)行回歸的基礎(chǔ)上,為了更好地考察新老兩代不同性別農(nóng)民工的差異,本文對(duì)農(nóng)民工群體同時(shí)進(jìn)行了年齡和性別的分組回歸。結(jié)果發(fā)現(xiàn),新媒體使用對(duì)于新生代女性農(nóng)民工的工作匹配表現(xiàn)出了顯著影響,并且與前一回歸結(jié)果類似,社交媒體使用時(shí)間與APP 下載種類數(shù)量都與新生代女性農(nóng)民工的工作匹配呈現(xiàn)出了明顯的倒U型影響趨勢(shì)。從系數(shù)的絕對(duì)值上看,社交媒體使用時(shí)間(0.039)即新媒體使用的深度比APP下載種類數(shù)量(0.005)對(duì)工作匹配的影響更為重要。

設(shè)計(jì)偏差產(chǎn)生的原因可能來源于“技術(shù)偏見”和“社會(huì)偏見”兩種方式?!凹夹g(shù)偏見”來源于目前算法技術(shù)本身限制、不精準(zhǔn)的模型和錯(cuò)誤的設(shè)計(jì)決策?!吧鐣?huì)偏見”則根植于“社會(huì)制度、實(shí)踐和態(tài)度”,在設(shè)計(jì)過程中被嵌入代碼系統(tǒng),成為算法技術(shù)天生的歧視,即“編碼凝視”[9]。當(dāng)個(gè)人存在有意識(shí)或無意識(shí)的偏見時(shí),這種偏見會(huì)被投射進(jìn)算法系統(tǒng)設(shè)計(jì)和開發(fā)之中,并在算法決策時(shí)有所表征。機(jī)器學(xué)習(xí)建立于不同類別的數(shù)據(jù)集基礎(chǔ)上,通過算法設(shè)計(jì)者手動(dòng)分類的數(shù)據(jù)標(biāo)簽不可避免地存在主觀因素,而且通過數(shù)據(jù)記錄并不能可靠和準(zhǔn)確地識(shí)別、標(biāo)記各種跨文化的情感和情感表達(dá)。

三、招聘中算法歧視的歸責(zé)困境

基于通說,一般將“歧視”解釋為“因某些特征對(duì)個(gè)體區(qū)別對(duì)待,如依據(jù)種族、年齡、性別、國(guó)籍、宗教信仰、社會(huì)出身等因素,人為地在人們之間制造差異、不平等對(duì)待,其結(jié)果是損害了機(jī)會(huì)平等和待遇平等,其實(shí)質(zhì)是對(duì)人生而平等原則之違反”[10]。在現(xiàn)有法律法規(guī)規(guī)制下,一般將就業(yè)歧視視為侵權(quán)行為對(duì)其規(guī)制,其侵害的客體是公平就業(yè)權(quán)利[11]。算法技術(shù)引入職場(chǎng)領(lǐng)域后代替用人單位對(duì)招聘作出自動(dòng)化決策時(shí),顯現(xiàn)出的“歧視性行為”相比于傳統(tǒng)就業(yè)歧視而言是一種新型侵權(quán)行為,在現(xiàn)行法律框架之下是否能找到既有法律資源進(jìn)行規(guī)制成為亟需關(guān)注的問題。因此,有必要探討是否將上述算法技術(shù)在招聘過程中展現(xiàn)的歧視類型納入現(xiàn)行法律制度框架內(nèi),并審查現(xiàn)有法律規(guī)制是否存在規(guī)制漏洞或偏差,以此為基礎(chǔ)考慮是否對(duì)現(xiàn)有法律制度進(jìn)行調(diào)整與解釋。

(一)算法招聘歧視問題的立法罅隙

從立法上看,基于訓(xùn)練數(shù)據(jù)與設(shè)計(jì)偏差的歧視性風(fēng)險(xiǎn),算法招聘歧視陷入因果關(guān)系和責(zé)任認(rèn)定的難題,傳統(tǒng)侵權(quán)責(zé)任的適用陷入困境。目前法律法規(guī)對(duì)算法招聘歧視的規(guī)制僅來源于綜合性法律?!秱€(gè)人信息保護(hù)法》《網(wǎng)絡(luò)安全法》等法律提出透明性原則、最小侵害原則等數(shù)據(jù)處理原則以期確保數(shù)據(jù)挖掘與利用的合法性與正確性,同時(shí)賦予個(gè)人信息所有者訪問權(quán)、更正權(quán)、刪除權(quán)等數(shù)據(jù)處理的權(quán)利,對(duì)個(gè)人信息處理者的行為進(jìn)行事前規(guī)制[12]?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》制定更具有針對(duì)性的算法推薦規(guī)定,明確了算法推薦服務(wù)提供者的主體責(zé)任。其中第4 條明確了算法推薦服務(wù)的公平公正原則,第20 條“算法推薦服務(wù)提供者向勞動(dòng)者提供工作調(diào)度服務(wù)的,應(yīng)當(dāng)保護(hù)勞動(dòng)者取得勞動(dòng)報(bào)酬、休息休假等合法權(quán)益,建立完善平臺(tái)訂單分配、報(bào)酬構(gòu)成及支付、工作時(shí)間、獎(jiǎng)懲等相關(guān)算法”是對(duì)勞動(dòng)用工領(lǐng)域的精準(zhǔn)規(guī)制,但局限于勞動(dòng)關(guān)系存續(xù)期間平臺(tái)用工中對(duì)勞動(dòng)者勞動(dòng)報(bào)酬、休息休假等權(quán)益的保護(hù),并未提及招聘階段的就業(yè)歧視問題。而與事前規(guī)制相比,我國(guó)對(duì)事后規(guī)制的研究與實(shí)踐尚未成熟,法律未對(duì)招聘中所發(fā)生的算法歧視的責(zé)任承擔(dān)予以明確,勞動(dòng)者在受到算法招聘歧視后將陷入求法無門的困境。

(二)眾說紛紜的算法歸責(zé)問題

在理論學(xué)界,學(xué)者對(duì)于算法歧視的歸責(zé)問題莫衷一是。有學(xué)者堅(jiān)持適用如產(chǎn)品責(zé)任等傳統(tǒng)責(zé)任框架的規(guī)制路徑[13],將產(chǎn)品責(zé)任中的謹(jǐn)慎標(biāo)準(zhǔn)延伸至人工智能產(chǎn)品領(lǐng)域,提議健全完善謹(jǐn)慎算法標(biāo)準(zhǔn)進(jìn)行算法歸責(zé)[14]。然而產(chǎn)品責(zé)任以產(chǎn)品的缺陷為基礎(chǔ),證明產(chǎn)品存在缺陷以及缺陷與損害結(jié)果之間的因果關(guān)系對(duì)于受歧視的求職者來說意味著技術(shù)上與經(jīng)濟(jì)上的雙重負(fù)累。另外,囿于技術(shù)的開放性、迭代性與法律的兜底性、滯后性之間的沖突,如何定義謹(jǐn)慎義務(wù)的合理標(biāo)準(zhǔn)仍然是一個(gè)開放性論題。也有學(xué)者認(rèn)為侵權(quán)行為的責(zé)任主體應(yīng)該是人工智能,而不是具體操作者。理由是具有自我辨認(rèn)能力與控制能力的人工智能擁有行為的選擇權(quán),應(yīng)該獨(dú)立承擔(dān)責(zé)任,若將侵害他人的行為完全歸責(zé)于研發(fā)者與使用者實(shí)為不妥[15]。但是,如何判斷何為真正的“人工智能”? 達(dá)到怎樣標(biāo)準(zhǔn)的“人工智能”切實(shí)具有自我選擇權(quán)? 這些問題尚未明朗之際便將責(zé)任規(guī)于“人工智能”并不能使得被侵權(quán)者獲得救濟(jì)。在“人工智能”還未取得明確法律主體地位前,應(yīng)該確保算法歧視的責(zé)任能夠追溯到自然人或法人主體。也有學(xué)者認(rèn)為《個(gè)人信息保護(hù)法》第24 條規(guī)定“個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正”體現(xiàn)立法者的技術(shù)治理思路,直接將平臺(tái)算法作為法律監(jiān)管對(duì)象,而不再糾結(jié)主觀過錯(cuò)與違法結(jié)果等傳統(tǒng)法律歸責(zé)的認(rèn)知,確立了平臺(tái)算法問責(zé)制與以平臺(tái)治理為核心的算法自動(dòng)決策治理框架[16]。此種觀點(diǎn)將平臺(tái)的注意義務(wù)從算法設(shè)計(jì)擴(kuò)張至結(jié)果輸出,貫穿算法自動(dòng)決策的設(shè)計(jì)、部署、運(yùn)行與結(jié)果全過程以保證自動(dòng)化決策結(jié)果的公平性與合理性。平臺(tái)責(zé)任追究的對(duì)象已然穿透平臺(tái)的技術(shù)面紗,直抵平臺(tái)技術(shù)的底層邏輯——算法。然而對(duì)于技術(shù)治理的解釋極其容易匿于算法黑箱之后。算法系統(tǒng)的自我解釋性差,艱深復(fù)雜的運(yùn)行規(guī)則如同一個(gè)“黑箱”,給出的只是一個(gè)冰冷的數(shù)字。它是如何得出結(jié)論,依據(jù)什么,難以被審計(jì)與監(jiān)管。

目前,立法實(shí)踐和理論學(xué)界關(guān)注點(diǎn)多聚焦于算法技術(shù)在應(yīng)用過程中的事前規(guī)制,對(duì)于算法技術(shù)事后規(guī)制的關(guān)注稍有不足,對(duì)于算法歸責(zé)問題也各抒己見,未成統(tǒng)一論調(diào)。故有必要結(jié)合算法技術(shù)在招聘過程中的應(yīng)用場(chǎng)景與技術(shù)特征對(duì)傳統(tǒng)侵權(quán)責(zé)任規(guī)制機(jī)制進(jìn)行擴(kuò)展性研究與探討,檢驗(yàn)于既有法律框架之下算法歸責(zé)的騰挪空間和創(chuàng)新路徑。

四、招聘中算法歧視的責(zé)任規(guī)制

(一)招聘中算法歧視的責(zé)任主體

如前文所述,在“人工智能”還未明確取得法律主體地位之前,直接將責(zé)任歸于算法本身言之尚早。開發(fā)人員認(rèn)為,算法是中立的,只是容易嵌入有偏見的數(shù)據(jù)或陷入被社會(huì)不當(dāng)使用的錯(cuò)誤環(huán)境中。而使用者聲稱算法很難識(shí)別,更不用說理解了,因此排除了使用者在使用中道德含義的任何罪責(zé)[17]。但是我們應(yīng)該認(rèn)識(shí)到,歧視首先是一種道德行為,只有道德主體才能夠?qū)λ诉M(jìn)行具有價(jià)值判斷與價(jià)值選擇色彩的歧視行為,而一個(gè)道德主體最基本特性就在于能動(dòng)性[18]。從用人單位使用定位工具進(jìn)行廣告投放,到基于訓(xùn)練數(shù)據(jù)輸入偏差的歧視,最后到源自設(shè)計(jì)者固有認(rèn)知偏差與逐利思想的歧視,都可以看到“人”的能動(dòng)性。所以,算法招聘歧視的責(zé)任主體應(yīng)當(dāng)是“人”,主要是算法設(shè)計(jì)者與算法使用者(用人單位),而非人工智能算法本身。

我國(guó)對(duì)于算法歧視歸責(zé)體系的建構(gòu)尚未形成統(tǒng)一的觀點(diǎn),產(chǎn)品責(zé)任、人工智能擔(dān)責(zé)、平臺(tái)問責(zé)等理論都試圖用一個(gè)較為宏大的理論解決錯(cuò)綜復(fù)雜的算法責(zé)任問題。但是,算法會(huì)由于適用對(duì)象、適用主體、所涉目的的不同存在巨大差異,機(jī)械的使用產(chǎn)品責(zé)任、平臺(tái)問責(zé)等原則均未結(jié)合具體場(chǎng)景具體分析[19]。所以,在不同算法招聘歧視場(chǎng)景下,各個(gè)主體參與程度與方式不同,需要運(yùn)用算法規(guī)制的場(chǎng)景化原理,結(jié)合具體場(chǎng)景進(jìn)行分析。

1.廣告定向投放場(chǎng)景的責(zé)任主體

2.簡(jiǎn)歷分析與視頻面試場(chǎng)景的責(zé)任主體

而在簡(jiǎn)歷分析系統(tǒng)與視頻面試系統(tǒng)這兩個(gè)場(chǎng)景中,雖然算法分析結(jié)果呈歧視性,但是用人單位在這兩個(gè)系統(tǒng)運(yùn)作過程中的參與度很小甚至未參與其中,用人單位并未作出直接或者有意識(shí)的決定來排除某一個(gè)求職者,這時(shí)算法歧視的責(zé)任主體又為誰(shuí)? 用人單位需要對(duì)此負(fù)責(zé)嗎? 算法越是被構(gòu)造為令人難以理解的自主系統(tǒng),就越能將責(zé)任歸因于算法和設(shè)計(jì)算法的公司。

美國(guó)作為算法規(guī)制的先行者,自算法歧視等社會(huì)問題出現(xiàn)至今,已經(jīng)發(fā)布多項(xiàng)法案進(jìn)行規(guī)制,例如,2017年美國(guó)公共政策委員會(huì)(USACM)聯(lián)合歐洲公共政策委員會(huì)發(fā)布的《算法透明度和責(zé)任聲明》、2019年的《算法問責(zé)法案》、2021年的《算法正義和在線平臺(tái)透明度法案》,通過一系列法案建立算法問責(zé)的外部治理與實(shí)踐模式。總之,美國(guó)將算法歧視所帶來的損害后果歸責(zé)于算法設(shè)計(jì)者和算法使用者[20]。我國(guó)國(guó)務(wù)院于2017年發(fā)布的35 號(hào)文件《新一代人工智能發(fā)展規(guī)劃》中明確要求“實(shí)行設(shè)計(jì)問責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)”,說明在算法責(zé)任框架下規(guī)制算法設(shè)計(jì)的責(zé)任獲得考慮。在簡(jiǎn)歷分析系統(tǒng)與視頻面試系統(tǒng)中,為算法歧視承擔(dān)法律責(zé)任的,應(yīng)該是那些(有意或無意)注入歧視因子或有義務(wù)卻未能及時(shí)排除歧視因子的主體。首先是基于訓(xùn)練數(shù)據(jù)偏差而導(dǎo)致的歧視,相關(guān)人員在挖掘、收集、處理個(gè)人信息數(shù)據(jù)時(shí),應(yīng)保證數(shù)據(jù)用于自動(dòng)化決策結(jié)果公平公正。數(shù)據(jù)的處理者在選取、收集與輸入的過程中的歧視性操作導(dǎo)致歧視性結(jié)果的,應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。另外是基于設(shè)計(jì)偏差的歧視,算法設(shè)計(jì)者在數(shù)據(jù)標(biāo)簽標(biāo)注時(shí)懲罰受保護(hù)屬性以及設(shè)計(jì)過程中其他歧視行為所導(dǎo)致的算法決策歧視后果的,也應(yīng)對(duì)此承擔(dān)法律責(zé)任。此外,在算法后期自我更新、迭代進(jìn)化過程中需要進(jìn)行定期評(píng)估與核查。如果是核查者玩忽職守甚至于忽略算法自我進(jìn)化后呈現(xiàn)新的歧視傾向,則要承擔(dān)相應(yīng)法律責(zé)任[21]。

基于歧視來源的不同場(chǎng)景考慮不同的責(zé)任承擔(dān)主體,無法完全列舉出歧視行為產(chǎn)生的具體情形,也無法穿透算法技術(shù)黑箱進(jìn)行責(zé)任規(guī)制。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》于2022年3月1日正式實(shí)施,第24 條規(guī)定了算法推薦服務(wù)提供者履行備案手續(xù)的義務(wù),備案信息包括名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評(píng)估報(bào)告、擬公示內(nèi)容等信息。此時(shí)可以考慮完善備案制度防患于未然。一個(gè)算法系統(tǒng)可能是多個(gè)算法程序的集合,每個(gè)底層算法程序嵌入對(duì)應(yīng)的“法律識(shí)別標(biāo)識(shí)符”,對(duì)編碼進(jìn)行充分的審計(jì)記錄,這樣才能為之后可能發(fā)生的責(zé)任規(guī)制提供依據(jù),避免多方主體推諉的情形出現(xiàn)。

(二)算法招聘歧視應(yīng)適用無過錯(cuò)責(zé)任原則

算法歧視給平等原則帶來了巨大的挑戰(zhàn),不僅關(guān)系到求職者機(jī)會(huì)平等的問題,更牽涉經(jīng)濟(jì)發(fā)展與社會(huì)正義之間的博弈。我國(guó)主流平等觀的價(jià)值追求以用人績(jī)效為中心,認(rèn)為歧視的本質(zhì)是否定“量能就業(yè)”,并據(jù)此構(gòu)建起反就業(yè)歧視法的“侵權(quán)法模式”[22]。

1.過錯(cuò)原則與過錯(cuò)推定原則的適用難點(diǎn):勞動(dòng)者舉證責(zé)任過重

我國(guó)侵權(quán)責(zé)任的歸責(zé)原則主要有三種,分別為無過錯(cuò)原則、過錯(cuò)推定原則與過錯(cuò)原則。雖然我國(guó)侵權(quán)責(zé)任大部分經(jīng)由過錯(cuò)責(zé)任進(jìn)行規(guī)制,但是過錯(cuò)責(zé)任原則并不當(dāng)然適用于招聘過程中的算法歧視情形。過錯(cuò)責(zé)任原則下,勞動(dòng)者對(duì)招聘歧視的證明責(zé)任除了證明用人單位存在歧視行為、自己遭受損害結(jié)果和其間的因果關(guān)系外,還需證明用人單位存在歧視的主觀故意,這樣的舉證證明責(zé)任分配機(jī)制缺乏合理性。算法背靠能夠簡(jiǎn)化問題分析與弱化責(zé)任歸屬的技術(shù)黑箱,即使將各項(xiàng)指標(biāo)與數(shù)據(jù)的的輸入與輸出可視化,但藏于其后的還有錯(cuò)綜復(fù)雜的倫理判斷與法權(quán)關(guān)系,要求受到歧視的求職者透過算法背后近乎匪夷所思的原理與互動(dòng)機(jī)制[23]去判斷算法設(shè)計(jì)者的主觀狀態(tài)實(shí)為強(qiáng)人所難。而過錯(cuò)推定原則通過舉證責(zé)任倒置看似加重了算法設(shè)計(jì)者的證明責(zé)任,減輕受害者的訴訟負(fù)擔(dān),但是算法設(shè)計(jì)者擁有高深的專業(yè)知識(shí)與雄厚的財(cái)富能力,只要堅(jiān)稱“算法模型結(jié)構(gòu)合理,信息數(shù)據(jù)完善”,外人也難以考證。即使是相關(guān)領(lǐng)域的專業(yè)人員,在算法技術(shù)更新迭代速度迅猛的背景之下,對(duì)于其詳細(xì)運(yùn)行規(guī)則與輸出結(jié)果有時(shí)也難言其道。過錯(cuò)責(zé)任與過錯(cuò)推定責(zé)任在招聘中的算法歧視均面臨適用困境,很難在招聘算法歧視的事后規(guī)制上發(fā)力,反而成為被歧視的求職者尋求法律救濟(jì)的障礙。

2.無過錯(cuò)責(zé)任原則的適配性:傾斜保護(hù)勞動(dòng)者

從利益考量上,無過錯(cuò)責(zé)任原則在招聘算法歧視場(chǎng)景下的適用,傾斜保護(hù)勞動(dòng)者這一弱勢(shì)群體,符合法律追求正義的主流價(jià)值觀?;谕ㄕf,無過錯(cuò)責(zé)任原則不問行為人主觀上是否有過錯(cuò),只要有侵權(quán)行為、損害后果以及二者間的因果關(guān)系,責(zé)任主體就應(yīng)承擔(dān)民事責(zé)任。算法招聘歧視具有隱蔽性特征,證明用人單位在其中的主觀故意與勞動(dòng)者而言負(fù)擔(dān)沉重,不具有可操作性。認(rèn)定算法招聘歧視的責(zé)任時(shí),應(yīng)當(dāng)關(guān)注侵權(quán)行為的客觀影響,而非歧視的主觀故意。無過錯(cuò)責(zé)任原則抑制用人單位權(quán)力邊界擴(kuò)張,減輕勞動(dòng)者證明責(zé)任,使反招聘歧視制度設(shè)計(jì)更加平衡勞資雙方力量,于弱勢(shì)勞動(dòng)者而言是一種維護(hù)自身權(quán)益的武器,于用人單位而言是一種提高注意審慎義務(wù)的警醒。其實(shí),從我國(guó)《個(gè)人信息保護(hù)法》第24條的規(guī)定“個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正”也能看出立法者不再將主觀過錯(cuò)作為算法設(shè)計(jì)者的擔(dān)責(zé)條件,突破其“技術(shù)中立”的抗辯,要求算法設(shè)計(jì)者為算法結(jié)果公平公正承擔(dān)責(zé)任,需保證算法自動(dòng)化決策公平合理。綜上所述,基于保障求職者平等就業(yè)權(quán)利與保證算法技術(shù)公平公正的角度出發(fā),招聘過程中所出現(xiàn)的算法歧視情形應(yīng)當(dāng)適用無過錯(cuò)責(zé)任原則。

(三)算法招聘歧視的責(zé)任方式

當(dāng)算法設(shè)計(jì)者或者算法使用者進(jìn)行招聘歧視行為,除精神損害賠償與公開賠禮道歉等侵害一般人格權(quán)擔(dān)責(zé)方式外,還應(yīng)承擔(dān)懲罰性賠償責(zé)任,以完善算法招聘歧視的責(zé)任承擔(dān)方式。算法招聘歧視會(huì)給求職者帶來精神損害與物質(zhì)損失,包括但不限于工作機(jī)會(huì)喪失,因性別、年齡等受保護(hù)屬性被算法懲罰等,上述侵害理應(yīng)受到侵權(quán)責(zé)任的規(guī)制。那么算法招聘歧視應(yīng)該適用何種歸責(zé)方式,即相關(guān)責(zé)任主體依照何種進(jìn)路為招聘中的算法歧視承擔(dān)法律責(zé)任? 通過具體案件析理提升招聘歧視責(zé)任承擔(dān)的清晰度。從最高院發(fā)布的第185 號(hào)指導(dǎo)案例可以看出,法院將用人單位侵害勞動(dòng)者的平等就業(yè)權(quán)視為人格權(quán)侵權(quán),要求用人單位承擔(dān)公開賠禮道歉、賠償精神撫慰金及合理維權(quán)費(fèi)用的民事責(zé)任。算法招聘歧視本質(zhì)上也是對(duì)勞動(dòng)者平等就業(yè)權(quán)的侵害,算法是招聘歧視的一種方式,但這種方式具有其獨(dú)特性?;谡衅杆惴ㄒ碌恼衅钙缫暬蛟S只表現(xiàn)為算法輸出的一個(gè)判斷或者決策,并未“直接”侵犯求職者的人身和財(cái)產(chǎn)權(quán)益,但是毋庸置疑,招聘算法歧視間接、客觀地使求職者承受了巨大的財(cái)產(chǎn)損失,侵害其平等就業(yè)權(quán)利。所以,如因算法歧視損害他人人身、財(cái)產(chǎn)安全,被侵權(quán)人除了有權(quán)請(qǐng)求算法設(shè)計(jì)者、算法使用者承擔(dān)損害賠償、賠禮道歉、恢復(fù)名譽(yù)、消除影響等一般侵權(quán)責(zé)任[24]外,還可以根據(jù)算法招聘歧視的侵害規(guī)模調(diào)整懲罰性賠償數(shù)額。從制度價(jià)值與運(yùn)用機(jī)理上,懲罰性賠償制度具有鮮明的實(shí)用主義傾向,其意義在于增加算法設(shè)計(jì)者與算法使用者的違法成本,對(duì)抗資本侵襲。

五、結(jié)論

在技術(shù)驅(qū)動(dòng)的算法語(yǔ)境下,完善招聘時(shí)算法歧視的責(zé)任規(guī)制順應(yīng)了國(guó)務(wù)院《新一代人工智能發(fā)展規(guī)劃》的要求,也回應(yīng)了大數(shù)據(jù)時(shí)代新技術(shù)應(yīng)用對(duì)法律提出的挑戰(zhàn)。我國(guó)目前規(guī)范算法技術(shù)的法律法規(guī)體系聚焦于事前規(guī)制,囿于個(gè)人信息數(shù)據(jù)保護(hù)與個(gè)人信息權(quán)益維護(hù)的思維,難以覆蓋招聘時(shí)算法技術(shù)廣泛利用個(gè)人信息數(shù)據(jù)以及本身設(shè)計(jì)偏差所導(dǎo)致的算法歧視風(fēng)險(xiǎn),以及后續(xù)對(duì)算法歧視的法律救濟(jì)。算法歧視治理目前或陷入“技術(shù)治理的解釋性難度過高”的操作困境,或沉于“產(chǎn)品責(zé)任的審慎義務(wù)標(biāo)準(zhǔn)難以明確”的桎梏之中。招聘中的算法歧視需要更加細(xì)致的規(guī)定,從不同發(fā)生場(chǎng)景判斷算法歧視的責(zé)任主體,明確算法歧視的無過錯(cuò)責(zé)任原則以及具體擔(dān)責(zé)方式。依靠算法技術(shù),招聘歧視進(jìn)入了一個(gè)新的場(chǎng)景,呈現(xiàn)出新的方式,法律很難行至科技之前,但法律的治本之道永遠(yuǎn)不會(huì)被時(shí)代拋棄。《個(gè)人信息保護(hù)法》已經(jīng)為算法歧視發(fā)生后的事后追責(zé)與侵權(quán)救濟(jì)指明了方向與路徑[25],明確招聘中算法歧視的責(zé)任框架才能讓求職者在權(quán)利被侵害時(shí)有法可循,有法可靠。將算法技術(shù)應(yīng)用于越來越重要的社會(huì)和經(jīng)濟(jì)決策,除了被視為一種風(fēng)險(xiǎn),還能被視為一種潛在的機(jī)會(huì)。法律總是在為技術(shù)進(jìn)步所產(chǎn)生的影響做最后一道防線,希望社會(huì)在追求技術(shù)進(jìn)步的同時(shí)也不忘為那些被技術(shù)進(jìn)步所影響的人提供法律救濟(jì),兼顧高新技術(shù)發(fā)展與人類權(quán)益保障才能實(shí)現(xiàn)社會(huì)整體的“帕累托最優(yōu)”。

猜你喜歡
求職者規(guī)制用人單位
用人單位應(yīng)避免七個(gè)認(rèn)知誤區(qū)、切實(shí)保障職工年休假的合法權(quán)益
起初為娛樂,現(xiàn)在做招聘:直播幫中國(guó)求職者找工作
主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
性騷擾的用人單位法律責(zé)任研究
餐廳經(jīng)營(yíng)模式多樣 事先分清用人單位
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
加納移民局招聘:有妊娠紋不行
民生表情
面試中的12個(gè)禁忌
論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
达孜县| 吴江市| 陆良县| 随州市| 垦利县| 新乐市| 收藏| 儋州市| 锦州市| 卫辉市| 姚安县| 清徐县| 永丰县| 怀宁县| 周宁县| 苏州市| 辽阳市| 隆子县| 湘潭市| 年辖:市辖区| 精河县| 永康市| 沭阳县| 若羌县| 西和县| 兴宁市| 上杭县| 营山县| 拜城县| 洪雅县| 珲春市| 云阳县| 左云县| 河曲县| 盐山县| 陈巴尔虎旗| 嘉鱼县| 高青县| 岢岚县| 凤庆县| 津市市|