程建華,劉菲菲
(安徽建筑大學(xué)公共管理學(xué)院,安徽 合肥 230601)
人工智能(AI)是計算機科學(xué)領(lǐng)域研究、設(shè)計和應(yīng)用智能機器的一個分支,就其本質(zhì)而言,是對人的思維的信息過程的模擬(對人腦結(jié)構(gòu)模擬與人腦功能模擬)。隨著AI技術(shù)的不斷發(fā)展,它應(yīng)用到了人們生活的方方面面,其中一些崗位被智能機器取代,在一定程度上解放了人類的勞動力。與此同時也給人們帶來了一大難題,即人工智能技術(shù)中的算法歧視問題。算法歧視問題已經(jīng)引起了世界各國的關(guān)注,早些年,美國白宮發(fā)布的大數(shù)據(jù)研究報告、歐盟數(shù)據(jù)保護委員會( EDPB)發(fā)布的《應(yīng)對大數(shù)據(jù)挑戰(zhàn)》、我國2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》以及2021年國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》與《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》都關(guān)注到了智能背景下算法可能帶來的歧視問題。近年來,眾多學(xué)者就算法歧視的形成以及如何消除算法歧視也展開了激烈的探討。卜素認為人類刻板印象通過人工智能技術(shù)轉(zhuǎn)譯從而形成了算法歧視,要建立完善算法歧視審查體系才能規(guī)避歧視現(xiàn)象[1]。汪懷君、汝緒華認為算法歧視是人工智能算法在處理、解釋并應(yīng)用數(shù)據(jù)時產(chǎn)生的與人類相同的偏見與歧視,對算法歧視規(guī)制要從立法、技術(shù)以及觀念上著手[2]101-106。綜上所述,算法歧視現(xiàn)象不僅僅是技術(shù)本身出現(xiàn)缺陷,還受到思想觀念、立法、行業(yè)環(huán)境等的影響,算法歧視的消除需要從多方面進行規(guī)制。
近年來,AI技術(shù)逐漸被應(yīng)用于招聘領(lǐng)域,AI-HR(AI-HR是指AI賦能于人才選拔,解放HR的繁雜、重復(fù)性工作)隨之到來并朝著精細化方向發(fā)展。AI-HR中,算法深度參與了招聘的各個環(huán)節(jié),包括廣告的投放、簡歷的收集、錄用決策等。當(dāng)下,以算法為核心的招聘平臺——智聯(lián)招聘、BOSS直聘、獵聘等成為了企業(yè)獲取人才的重要渠道之一。使用數(shù)據(jù)系統(tǒng)和算法決策來監(jiān)測、篩選、評估和管理人員已經(jīng)成為了當(dāng)代招聘的一個重要特征。如方小雷創(chuàng)辦的近嶼智能公司研發(fā)的AI得賢招聘官[3],通過歷史大數(shù)據(jù)描繪人才數(shù)字畫像,再依靠算法自動從海量求職者中進行高效篩選與科學(xué)匹配。人工智能時代,算法的參與,為企業(yè)招聘帶來了極大便利。如依托算法進行的招聘可以極大降低招聘成本(資金投入與時間成本);增強招聘匹配程度,大數(shù)據(jù)算法深度分析下,可以高效快速獲取與企業(yè)相匹配的求職者;消除HR招聘官的技術(shù)障礙;等等。科技是把雙刃劍,AI招聘中算法為企業(yè)帶來便利的同時,也暗含著一系列算法歧視問題。算法參與下,看似科學(xué)、高效、中立的招聘模式并未實現(xiàn)真正的招聘平等,算法的編碼及數(shù)據(jù)收集等都受到人們價值觀念的影響,因此在很大程度上暗含著招聘歧視。
傳統(tǒng)招聘中的歧視,包括性別歧視、年齡歧視、身高歧視、地域歧視等。而AI-HR招聘,通過對海量數(shù)據(jù)的收集、整理、分析與應(yīng)用將傳統(tǒng)招聘過程中的歧視進一步擴大化、透明化,加劇了就業(yè)市場的挑戰(zhàn)。規(guī)制AI-HR招聘中的算法歧視問題,是保障求職者的合法權(quán)益、凈化就業(yè)市場的重要一步。本文擬圍繞智能招聘中暗含的算法歧視,探究AI-HR招聘中算法歧視的主要體現(xiàn)、歧視產(chǎn)生的原因以及如何消除這些歧視,以期使AI與招聘進一步融合,實現(xiàn)就業(yè)市場的高效與公平。
在招聘過程中,算法就求職者的基礎(chǔ)數(shù)據(jù)、能力數(shù)據(jù)、效率數(shù)據(jù)及潛力數(shù)據(jù)進行自動推送、篩選、評估和決策,最后的錄用結(jié)果可能有失公平。具體表現(xiàn)在以下3個方面:其一,AI算法下,求職者們獲得的數(shù)據(jù)信息存在差異,有失機會公平,即招聘數(shù)據(jù)推送歧視;其二,求職者對智能招聘中的算法了解甚微,從而無法得知自身數(shù)據(jù)與最終錄用結(jié)果的聯(lián)系,有失過程公平,即招聘數(shù)據(jù)解釋歧視;其三,有偏見的推送及篩選最終導(dǎo)致錄用結(jié)果不公平,有失結(jié)果公平,即招聘數(shù)據(jù)應(yīng)用歧視。
早些年,亞馬遜公司開發(fā)的自動招聘系統(tǒng),在對簡歷進行篩選時出現(xiàn)了歧視女性應(yīng)聘者的現(xiàn)象[4]12??▋?nèi)基梅隆大學(xué)Amit Datta等學(xué)者使用ADFisher(一個探索用戶行為與廣告設(shè)置如何交互的自動化工具)發(fā)現(xiàn),谷歌的廣告軟件向男性推送的高薪職位遠多于女性[5]。2019年,美國的研究人員進行了一項關(guān)于在線廣告優(yōu)化的實驗:將招聘廣告分發(fā)給臉書(Facebook)用戶,目標(biāo)受眾相同,在極端情況下,超市的收銀員職位最終分配給85%的女性觀眾,出租車司機職位分配給75%的黑人觀眾,伐木工人職位分配給90%的男性和72%的白人觀眾[6]。這種暗含歧視性的就業(yè)信息推送,在我國也常有發(fā)生。當(dāng)一些用工單位在招聘軟件(如智聯(lián)招聘、BOSS直聘、獵聘等)中輸入“程序員”時,男性求職者的簡歷會優(yōu)先被推送出來;當(dāng)輸入“前臺”時,系統(tǒng)則會優(yōu)先將女性求職者的簡歷推送出來。
看似為招聘廣告的定向推送,實則為被迫性“信息繭房”,又稱過濾氣泡[7]。企業(yè)根據(jù)求職者的數(shù)據(jù)信息,應(yīng)用AI算法對每位求職者進行定位,確定特定受眾對其進行廣告的精準(zhǔn)投放,這種針對性導(dǎo)致求職者獲取就業(yè)信息的機會不同,造成了就業(yè)不公平。這種招聘數(shù)據(jù)推送歧視可分為無意識歧視與有意識歧視。無意識歧視是指由于算法技術(shù)本身以及大數(shù)據(jù)算法下輸入的偏差樣本所致的歧視,也是當(dāng)下最難攻克的算法問題。招聘過程的核心是“適合”組織的招聘目標(biāo),這一要求使得招聘主體可充分利用其自由裁量權(quán)從而造成招聘過程中的有意識歧視。不管是前者還是后者,都在“源頭”上影響著求職者的職業(yè)發(fā)展,侵犯了求職者的平等就業(yè)權(quán)。
算法解釋權(quán)是指人們對算法決策下產(chǎn)生的具體行為具有獲得解釋以及要求更新或更正數(shù)據(jù)的權(quán)利[8]。而招聘過程中求職者不了解其算法的應(yīng)用過程,也不了解自身數(shù)據(jù)與最終錄用結(jié)果的聯(lián)系,無法獲得解釋,更無法對數(shù)據(jù)信息提出要求。求職者無法與算法得出的結(jié)果進行博弈,只能接受其結(jié)果,長此以往,該歧視現(xiàn)象將被固化,從而助長了就業(yè)市場的不良風(fēng)氣。
招聘數(shù)據(jù)解釋歧視可以分為兩種:一是招聘主體不可操控性歧視,即算法“黑洞”[9]所導(dǎo)致的解釋歧視。算法運行實質(zhì)上是數(shù)據(jù)輸入再輸出的過程,但是在數(shù)據(jù)輸入與輸出的過程中存在著很多無法解釋的“黑洞”。究其根本,是由于算法技術(shù)本身十分復(fù)雜,如設(shè)計算法時存在多個研發(fā)主體、多種算法的層層疊加、算法中人工神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)的自動深度學(xué)習(xí)等。算法“黑洞”導(dǎo)致算法決策不可解釋,招聘主體無法向求職者解釋最終的錄用結(jié)果。二是招聘主體可操控性歧視,即利益最大化導(dǎo)向所致的解釋歧視。招聘過程中利用算法技術(shù)操作規(guī)則的不透明,以企業(yè)利益最大化對求職者進行篩選。例如,隨著我國三孩政策的實行,某些企業(yè)對其工作崗位進行算法設(shè)定,不錄用已婚女性求職者(含有性別歧視);隨著我國人口的老齡化, 很多招聘中智能設(shè)定一系列年齡限制條件(含有年齡歧視),對這些影響就業(yè)結(jié)果的隱性要求,招聘主體為了切身利益并不向求職者解釋。不可操作性歧視與可操控性歧視都剝奪了求職者獲得解釋的權(quán)利,加劇了智能招聘的不公平性。
招聘數(shù)據(jù)推送歧視及招聘數(shù)據(jù)解釋歧視,必然導(dǎo)致招聘數(shù)據(jù)應(yīng)用歧視,即必然的不公平結(jié)果。招聘中算法歧視所導(dǎo)致的不公平結(jié)果表現(xiàn)在最終的錄用結(jié)果、薪資待遇等方面。錄用結(jié)果上主要表現(xiàn)為求職者因為一些崗位非必要條件(年齡、身高、長相、婚姻狀況等)錯失工作機會,例如比利亞雷亞爾訴雷諾煙草公司案中,比利亞雷亞爾多次在網(wǎng)上申請雷諾煙草公司的工作,卻一直未果[2]102,最后得知該公司篩選求職者時存在年齡歧視并且從未向被拒絕的求職者解釋其中的原因。薪資待遇上主要表現(xiàn)為就求職者的基礎(chǔ)數(shù)據(jù)、能力數(shù)據(jù)、效率數(shù)據(jù)及潛力數(shù)據(jù)等進行差異化“定價”,繼而影響到求職者今后的薪資待遇、職位變動等。我國《2020中國女性職場現(xiàn)狀調(diào)查報告》顯示,58.25%的女性在招聘過程中被問及婚姻生育狀況[10],企業(yè)無形中提高了對女性的錄用標(biāo)準(zhǔn),進而影響到其薪資待遇及未來發(fā)展。上述不公平結(jié)果并不等同于常規(guī)招聘中的效益原則,而是由求職者與招聘主體之間存在的極大“信息鴻溝”所致,如招聘信息的選擇性推送、簡歷篩選中的隱性年齡歧視或者智能招聘系統(tǒng)中算法自帶的偏見等。
傳統(tǒng)招聘中求職者本就處于弱勢地位,AI-HR招聘進一步加劇了這種現(xiàn)象,使求職者無法與最終的不公平結(jié)果進行博弈。錄用與否、薪資待遇如何等都與求職者密切相關(guān),影響著求職者今后整個的職業(yè)發(fā)展道路,因此如何消除智能招聘中的算法歧視、維護求職者的平等就業(yè)權(quán)是當(dāng)下亟須解決的問題。
算法可被定義為由編程人員設(shè)計的一系列“已被編碼的程序”或者“為了快速實現(xiàn)其目標(biāo)對特定數(shù)據(jù)進行處理的步驟”。算法作為解決問題的一種特定邏輯步驟,是程序代碼在計算機中的實現(xiàn),即編程人員選用一種計算機可識別的語言(計算機可識別指令由最初的一個0、1代碼串到低級程序設(shè)計語言,再到現(xiàn)在的高級程序設(shè)計語言,如Java、Python、C++等[11])對算法進行表述。編程人員運用程序設(shè)計語言與計算機進行交流,設(shè)計出“數(shù)據(jù)輸入、結(jié)果輸出”的有窮性算法(有窮性:在有限的步驟后,算法自動結(jié)束得出結(jié)果,不會無限循環(huán))。編程人員與計算機進行交流時,為了算法能夠更好地實現(xiàn),必然夾雜著其主觀選擇與判斷。人的價值觀念被嵌入算法程序設(shè)計中,所以說算法是人的觀點的一種呈現(xiàn),必然存在一定的偏見[12]。同時,算法在設(shè)計并實現(xiàn)時并不一定是由一人完成,也可能是多人協(xié)作共同完成。一人完成時可確保其前后銜接一致,但其個人主觀價值也被更多地反映在算法之中。多人共同完成時其效率與公正性相較于前者更高,但前后連貫銜接不能確保精確完成,同時也會夾雜多人價值觀念,導(dǎo)致算法出現(xiàn)偏差。正是由于現(xiàn)實世界中的我們將個人固有的偏見嵌入了代碼中,使得計算機世界中的算法并不是真正意義上的中立。
偏見性編碼下,AI-HR招聘中的算法暗含人的偏見。在智能互聯(lián)網(wǎng)時代,這種偏見可能進一步擴大化,進而呈現(xiàn)出“過濾氣泡”現(xiàn)象。偏見性編碼是人們無意識的個人偏見的附加,在算法運作過程中偏見將一步一步加深進而形成歧視。
AI-HR招聘相較于傳統(tǒng)的招聘方式,不僅可以降低招聘成本,同時還可以增強招聘匹配度。使用智能招聘系統(tǒng)監(jiān)測、分配、評估和管理勞動力是當(dāng)代就業(yè)市場的一個顯著特征。有關(guān)報告顯示,約98%的財富500強公司在招聘過程中使用某種類型的申請人跟蹤系統(tǒng)(ATS)[13],使公司以最高效率獲得最佳求職者。我國開啟AI-HR招聘的企業(yè),如騰訊、滴滴、字節(jié)跳動等一批知名企業(yè),其招聘效益也高于之前的傳統(tǒng)招聘[14]。AI-HR招聘中算法雖然給企業(yè)招聘帶來了極大便利,使其利益最大程度實現(xiàn),但過分追求利益也傷害了求職者的平等就業(yè)權(quán)。
所有的社會技術(shù)系統(tǒng),即使是為了減輕偏見而設(shè)計的,在設(shè)計時也考慮到了用例,但這些用例并不能適用于所有的場景。首先,AI-HR招聘中算法的使用可以讓企業(yè)從海量求職者中快速篩選出適合本企業(yè)的求職者,向合適的求職者定向推送招聘信息。雖然高效,極大節(jié)約了招聘成本,但也有失機會公平,出現(xiàn)過濾氣泡現(xiàn)象。其次,AI-HR招聘中使用算法一方面會出現(xiàn)招聘主體不可操控性歧視,另一方面會增加招聘主體可操控性歧視,即利益最大化導(dǎo)向所致的解釋歧視。最后,根據(jù)定向推送以及利益最大化篩選,企業(yè)做出最利己的選擇。AI-HR招聘中算法本身就暗含偏見性編碼,在利益最大化驅(qū)動下求職者的平等就業(yè)權(quán)一步步遭到了侵害。
《中華人民共和國勞動法》(以下簡稱《勞動法》)和《中華人民共和國就業(yè)促進法》(以下簡稱《就業(yè)促進法》)是我國用來保障勞動者工作平等權(quán)的主要法律依據(jù),包括勞動者的種族、民族、宗教信仰、性別、殘疾人、農(nóng)村勞動者等方面,并且力求實現(xiàn)企業(yè)用工自由與反對就業(yè)歧視兩個目標(biāo)之間的平衡[15]。但在實踐中,由于勞動力市場供需不平衡以及舉證困難等原因,其都更傾向于維護用人單位的自主用人權(quán)利而忽略了對求職者平等就業(yè)權(quán)利的保護。
當(dāng)今社會發(fā)展迅速,新技術(shù)、新生產(chǎn)工具給社會生活帶來了巨大改變,與此同時也出現(xiàn)了一系列原有法律制度無法正確處理的事件。AI-HR時代以算法為核心的招聘體系產(chǎn)生了一系列算法歧視問題,相對滯后的法律法規(guī)使得求職者的平等就業(yè)權(quán)更無法得到保護,這對我國反對就業(yè)歧視的法律提出了新的挑戰(zhàn)。挑戰(zhàn)主要表現(xiàn)在以下兩個方面:一是AI-HR招聘中算法的使用增加了對就業(yè)歧視認定的難度。如向求職者定向推送招聘信息,雖然推送廣告中不含有任何歧視性字眼,但其背后暗含著算法的深度計算,它只推送給特定條件的人群(例如只向某一年齡段女性推送招聘廣告),而未被推送的群體則被剝奪了了解招聘信息的機會。二是AI-HR招聘中算法的使用使得求職者提供招聘中存在歧視行為證明的難度大大增加。例如運用算法對簡歷進行審核或者做出最后錄用決策,看似是大數(shù)據(jù)下算法做出的中立性評價,實則背后暗含算法黑洞,求職者也無法獲得相應(yīng)的解釋?,F(xiàn)有法律法規(guī)已經(jīng)不能滿足AI-HR對求職者平等就業(yè)權(quán)保護的需求。
隨著信息技術(shù)的快速發(fā)展,算法被應(yīng)用于各行各業(yè)之中,改變著人們的生活方式?,F(xiàn)實生活中,人們享受著算法帶來的便利或者遭受著算法帶來的不公,本質(zhì)上是因其對算法沒有清晰的認識,從而出現(xiàn)惡性循環(huán),導(dǎo)致信息繭房進而形成過濾氣泡現(xiàn)象。
AI-HR招聘中使用算法技術(shù),就要求算法設(shè)計者、招聘主體以及求職者要有較高算法意識。算法設(shè)計者算法素養(yǎng)較低將導(dǎo)致偏見性編碼,在算法的深度自我學(xué)習(xí)下,招聘中的歧視現(xiàn)象將一步步擴大。招聘主體應(yīng)該明確自己的責(zé)任,若通過算法優(yōu)勢有意侵害求職者平等就業(yè)權(quán),或者不能認識到招聘中使用算法將會導(dǎo)致就業(yè)歧視現(xiàn)象的發(fā)生,將不利于就業(yè)市場的穩(wěn)定發(fā)展。招聘過程中,由于信息不對稱等原因,求職者處于弱勢地位,很難對大數(shù)據(jù)下算法決策提出反證,若又對算法了解甚少,無法運用合法手段維護自己的合法權(quán)益,將影響到求職者未來整個職業(yè)發(fā)展??梢娝惴ㄒ庾R、算法素質(zhì)對AI-HR招聘的實際運用有重要影響。
AI-HR招聘中算法技術(shù)的先天缺陷導(dǎo)致了歧視現(xiàn)象的必然出現(xiàn),如招聘廣告定向推送,求職者無法獲得解釋等。雖然智能招聘中算法的設(shè)計也是為了減輕偏見(用人單位的主觀偏好),在設(shè)計時也考慮到了很多用例,但是其技術(shù)本身還是存在缺陷,并且各種場景交雜在一起的時候并不是所有的用例都適合。所以技術(shù)出現(xiàn)問題,首先要用技術(shù)來彌補。要想從源頭上消除歧視,就必須先在技術(shù)上消除歧視。
首先要在算法設(shè)計時就盡量避免歧視,減少偏見性編碼,確保技術(shù)的中立性。編程人員在設(shè)計算法時,不能帶入自身價值觀念,不僅需要有較高的技術(shù)水平同時還要有較高的算法素養(yǎng)。很多研究人員,都在力求消除算法中存在的歧視因素,如約瑟夫等人試圖將哲學(xué)家羅爾斯的公平理論應(yīng)用于機器學(xué)習(xí)中,使得在算法的每一步設(shè)置中都去避免一種算法偏好[4]18。除了算法設(shè)計本身不含有偏見之外,其數(shù)據(jù)的挖掘與處理也十分重要。建立招聘數(shù)據(jù)挖掘[16]與數(shù)據(jù)預(yù)處理技術(shù)[17],從數(shù)據(jù)倉庫獲得高效準(zhǔn)確數(shù)據(jù)。若數(shù)據(jù)本身就含有歧視性,經(jīng)過算法處理,其歧視性將越來越大。只有針對性地開發(fā)設(shè)計不含有偏見的算法技術(shù),才能從真正意義上消除歧視。
大數(shù)據(jù)智能招聘中算法的使用為企業(yè)帶來巨大便利的同時,在一定程度上也損害了求職者的平等就業(yè)權(quán)。在招聘廣告的定向推送、簡歷的篩選與評估以及最終的錄用決策中,每一個階段都出現(xiàn)了或多或少的歧視現(xiàn)象,而這些通常都能讓招聘主體受益,進而導(dǎo)致招聘主體拒絕承擔(dān)其相應(yīng)的責(zé)任。為維護我國就業(yè)市場的穩(wěn)定性,招聘主體必須明確自身的責(zé)任。
招聘主體要明確自身的責(zé)任,切實保障就業(yè)市場的高效運轉(zhuǎn)。一是公平公正地提供就業(yè)崗位。企業(yè)存在用工自由,但前提是不得違反我國勞動就業(yè)法,不能利用存在的信息溝侵犯求職者的平等就業(yè)權(quán)。二是招聘主體作為算法的應(yīng)用者,有義務(wù)對算法造成的招聘歧視現(xiàn)象承擔(dān)相關(guān)責(zé)任。2021年我國國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》中就明確提到要強化企業(yè)主體的責(zé)任,企業(yè)要對算法應(yīng)用產(chǎn)生的結(jié)果負主體責(zé)任。三是維護求職者的平等就業(yè)權(quán)。作為算法的使用者有義務(wù)維護求職者的合法權(quán)益,積極解決算法中存在的客觀性、不可控制性所導(dǎo)致的歧視現(xiàn)象。
人類社會的生產(chǎn)生活以及思維方式受科技進步的影響會發(fā)生全新的變化,法律作為受經(jīng)濟基礎(chǔ)決定的上層建筑,也應(yīng)時刻根據(jù)社會生產(chǎn)方式的變革作出相應(yīng)修改和完善。關(guān)于AI-HR招聘中出現(xiàn)的就業(yè)歧視問題,多數(shù)國家都有相應(yīng)的法律法規(guī)條款對其進行規(guī)范,例如美國《民權(quán)法》第七章與《防止就業(yè)年齡歧視法》、歐盟的《歐盟基本權(quán)利憲章》第21條等。我國應(yīng)借鑒其他國家與地區(qū)的算法歧視治理經(jīng)驗,再結(jié)合我國就業(yè)市場自身狀況完善相應(yīng)法律法規(guī),減少以至杜絕招聘中算法歧視現(xiàn)象的發(fā)生。
相關(guān)法律法規(guī)的完善可以從以下幾方面進行:一是擴展歧視的類型,明確歧視的認定。修改相關(guān)法律法規(guī),擴大就業(yè)歧視的類型,將智能招聘中存在的算法歧視作為一種法定歧視類型,從而更好地保護求職者的合法權(quán)益。歧視類型得到擴展,明確并細化歧視認定的條件,可給求職者維護自身平等就業(yè)權(quán)利提供明確的法律標(biāo)準(zhǔn)。二是明確解釋義務(wù)的規(guī)則。智能招聘過程中存在解釋歧視,不囊括招聘主體不可操作性解釋歧視,要消除招聘主體可操作性解釋歧視,就要明確招聘主體的解釋義務(wù)。即將大數(shù)據(jù)智能招聘中運用算法的過程“翻譯”成為普通用戶可以理解的語言,對求職者存在的合理疑問提供解釋。解釋規(guī)則給求職者事后追究責(zé)任提供了證據(jù),從而更好地維護求職者的平等就業(yè)權(quán)利。三是設(shè)立專門的訴訟機構(gòu)。專門的訴訟機構(gòu)能夠幫助求職者有效收集證據(jù)材料并提供一定的技術(shù)支持,幫助求職者維護其就業(yè)權(quán)利,有序推進算法的備案工作。
算法素養(yǎng)是指算法的設(shè)計者、管理者、使用者應(yīng)該具備的算法能力、算法倫理以及普通民眾應(yīng)該具備的算法意識等。首先,算法設(shè)計者與算法的管理者、使用者除了應(yīng)具備一定的算法能力之外,更為重要的是要遵守算法倫理,不借助自身“優(yōu)勢”做出違背倫理道德的事情,嚴格遵守算法行業(yè)自律。其次,應(yīng)該有意識地培育普通民眾的算法意識,防止其因為不知道、不理解算法,遭遇算法服務(wù)中暗含的歧視性行為。培育人們的算法素養(yǎng),防止人們做算法文盲。
算法素養(yǎng)的培育任重道遠,需要多方共同努力。一是應(yīng)將算法教育納入基礎(chǔ)教育,構(gòu)建完善的課程培養(yǎng)體系。政府應(yīng)該將算法教育納入基礎(chǔ)教育之中,為民眾提供算法教育資料、資源,讓民眾意識到算法教育的重要性,學(xué)習(xí)算法知識進而了解AI-HR招聘中可能出現(xiàn)的算法歧視現(xiàn)象。二是充分發(fā)揮社會力量,宣傳算法知識的重要性,引導(dǎo)算法應(yīng)用向上向善。對算法知識進行宣傳,培養(yǎng)民眾的“拒絕算法文盲,從我做起”的意識。三是民眾應(yīng)積極主動提升算法素養(yǎng)。通過政府以及社會的強調(diào)與宣傳,讓民眾充分認識到人工智能背景下算法素養(yǎng)的重要性,從而自覺學(xué)習(xí)算法知識,減少算法歧視,提升算法使用的幸福感。
隨著科學(xué)技術(shù)的迅速發(fā)展,算法技術(shù)正在悄無聲息地影響著我國傳統(tǒng)的招聘方式。AI-HR招聘中算法的參與具有兩面性,既能夠防止也能加劇招聘中對求職者的就業(yè)歧視。AI-HR招聘中暗含的算法歧視問題,即招聘數(shù)據(jù)推送歧視、招聘數(shù)據(jù)解釋歧視、招聘數(shù)據(jù)應(yīng)用歧視極易被忽略,但卻嚴重侵害著求職者的平等就業(yè)權(quán)。究其根本,是算法技術(shù)本身的缺陷、利益導(dǎo)向下的招聘主體篩選、相關(guān)法律法規(guī)的滯后以及人們薄弱的算法意識所致。消除AI-HR招聘中的算法歧視問題不僅要從技術(shù)上進行真正的“消歧”,還需要招聘主體有所擔(dān)當(dāng),同時要完善相關(guān)法律法規(guī)以及慢慢培育人們的算法素養(yǎng)。只有消除算法歧視問題,才能更好地共享AI-HR招聘帶來的便捷性。