趙 嬋
(湘潭大學(xué) 黨委組織部,湖南 湘潭 411105)
進入21世紀(jì)以來,以數(shù)字經(jīng)濟為增長點的第四次工業(yè)革命方興未艾。數(shù)字經(jīng)濟以數(shù)字化信息和知識為關(guān)鍵要素,以數(shù)字技術(shù)為核心驅(qū)動力,是工業(yè)互聯(lián)網(wǎng)、云計算、人工智能等數(shù)字技術(shù)產(chǎn)業(yè)化應(yīng)用的新經(jīng)濟形態(tài)。根據(jù)《中國互聯(lián)網(wǎng)發(fā)展報告(2022)》的統(tǒng)計,截至2021年底,我國數(shù)字經(jīng)濟規(guī)??偭績H次于美國,穩(wěn)居世界第二,占全國GDP比重為39.8%,總值為45.5萬億元。人工智能產(chǎn)業(yè)規(guī)模為4041億元,已逐步融入經(jīng)濟社會發(fā)展各領(lǐng)域并呈現(xiàn)出加速發(fā)展的良好態(tài)勢。與此同時,在數(shù)字經(jīng)濟的深刻影響下,人類社會正處在歷史十字路口,面臨著一個社會結(jié)構(gòu)重塑、發(fā)展路徑與制度選擇的重大問題[1]。例如,人工智能的高速發(fā)展給勞動力市場帶來較大沖擊與影響,“機器換人”的現(xiàn)實加劇了勞動就業(yè)市場的內(nèi)卷與損耗,為此有必要“研究機器人、人工智能等技術(shù)對就業(yè)影響的應(yīng)對辦法”(2019年《關(guān)于促進勞動力和人才社會性流動體制機制改革的意見》)。
人工智能(AI)對就業(yè)影響是多方面的。除“機器換人”的人力資本優(yōu)勢外,AI技術(shù)還可廣泛用于企業(yè)招聘、人事管理等領(lǐng)域,自動作出招聘錄用、職務(wù)升降、續(xù)聘解雇等人事決策,從而有效解決企業(yè)招聘與人事管理的痛點問題。AI招聘系統(tǒng)不僅可以簡化繁瑣面試流程,提高企業(yè)招聘效率,而且可以輔助或替代招聘錄用決策,消除可能存在的個人偏見。例如,美國FisrtJob公司所開發(fā)的AI招聘系統(tǒng)(Mya),既能對申請者的求職簡歷進行初步篩選和過濾,又可以根據(jù)招聘崗位的核心工作要求對求職者進行面試測評并提供備選的錄用推薦名單,從而避免或消除人為產(chǎn)生的潛意識判斷。
盡管不少研究者認為AI招聘可以消除各類人為偏見——如Keinberg et al(2018)認為,算法不僅可以提供一種新的透明化過程,有助于發(fā)現(xiàn)就業(yè)歧視的可能性,而且當(dāng)平等就業(yè)權(quán)利遭遇威脅時,還是一種追求公平就業(yè)實踐的向善力量[2]113-166,但AI內(nèi)嵌的算法自動化決策不可避免產(chǎn)生相應(yīng)歧視風(fēng)險,或加劇勞動力市場普遍存在的既有就業(yè)歧視等現(xiàn)象。例如,Natalia Criado和Jose M Such(2019)認為,隨著人工智能系統(tǒng)被委以越來越多的工作任務(wù),數(shù)字歧視將成為一個嚴(yán)重社會問題。在他們看來,數(shù)字歧視是一種基于機器學(xué)習(xí)或深度學(xué)習(xí)等技術(shù)和個人數(shù)據(jù)所作出的算法自動化決策不公平、不公正或區(qū)別對待用戶的歧視形式[3]82。Datta et al.(2015)則通過自動化的探測工具發(fā)現(xiàn)谷歌的招聘廣告推送存在較為顯著的性別差異,由此證明了機器學(xué)習(xí)算法可能加劇就業(yè)性別歧視的潛在危害[4]92-112。
為此,研究者對就業(yè)領(lǐng)域的算法歧視開展了探索性的研究并得出極富啟示的結(jié)論與建議。例如,基于AI招聘之算法歧視類型劃分及其成因分析,程建華等主張應(yīng)克服根源性的算法技術(shù)偏見,明確招聘主體責(zé)任,完善相關(guān)法律法規(guī)[5]126-128;與之類似,侯玲玲等人則認為,要有效規(guī)制國內(nèi)算法就業(yè)歧視,應(yīng)擴展歧視類型,明確算法歧視認定與豁免標(biāo)準(zhǔn),明確算法開發(fā)主體和運營主體的法律責(zé)任,設(shè)立訴訟專門機構(gòu)并確立舉證責(zé)任倒置規(guī)則等[6]13-16。然而,從所借鑒或參考的域外經(jīng)驗來看,無論是算法就業(yè)歧視的法律規(guī)制抑或是算法技術(shù)的完善和改進,兩條徑路皆為治標(biāo)之策,收效相對有限,且可能背離算法研發(fā)和推廣的產(chǎn)業(yè)政策方向[7]64。一方面,AI招聘的最終結(jié)論是差異性的,有的求職者會成為雀屏之選,有些則會名落孫山。其差異性影響的背后因素極為復(fù)雜且多樣,部分理由可歸因為對特定群體的歧視,如對女性求職者的性別歧視等。另一方面,AI算法被認定是“表面中立的”(facially neutral),沒有客觀的歧視“意圖”(intention),難以成立以主觀意圖為要件的直接歧視(disparate treatment)[8]519。因此,在不承認以統(tǒng)計性顯著差異為標(biāo)志的間接歧視(disparate impact)的國家,算法就業(yè)歧視更難以有效認定和規(guī)范治理。職是之故,為有效因應(yīng)算法就業(yè)歧視的風(fēng)險與挑戰(zhàn),有必要重新審視AI招聘的應(yīng)用及其潛在影響,合理判定算法就業(yè)歧視的成立與類型,并結(jié)合其可能的風(fēng)險挑戰(zhàn),進而構(gòu)想出一條現(xiàn)實可行的綜合治理之道。
1.AI招聘的現(xiàn)實應(yīng)用
人工智能技術(shù)應(yīng)用于就業(yè)招聘領(lǐng)域,自有其內(nèi)在的實踐邏輯:自20世紀(jì)70年代以來,企業(yè)界開始在人事管理方面專注于開發(fā)并驗證用以遴選合適雇員的專業(yè)工具。易言之,以數(shù)據(jù)和算法為基礎(chǔ)的AI招聘,源于更快捷有效作出招錄員工決策的商業(yè)實踐需求[8]528。世界范圍內(nèi),AI招聘系統(tǒng)最初為世界500強的跨國公司所開發(fā)并加以利用。例如,2014年亞馬遜公司為應(yīng)對大規(guī)模雇傭企業(yè)員工的需要,組織公司內(nèi)部的機器學(xué)習(xí)專家開發(fā)了一套自動化工具,以協(xié)助企業(yè)HR部門作出招錄決定。盡管該項目因涉嫌性別歧視于2017年被終止,但以科技引領(lǐng)人事管理體系變革卻已在商業(yè)界漸成潮流。2018年,領(lǐng)英(LinkedIn)公司對9000名企業(yè)人事經(jīng)理的問卷調(diào)查結(jié)果表明,35%的受訪者認為人工智能在未來的企業(yè)招聘中將發(fā)揮“非常重要”或“極其重要”的作用,9%的受訪者表示已采用人工智能技術(shù)來輔助企業(yè)招聘活動[9]。
過去幾年,科技公司和招聘平臺先后開發(fā)并提供以人工智能為基礎(chǔ)的招聘軟件或應(yīng)用模塊,從而便于公司或雇主招募合格申請者并快速作出錄用決策。從AI招聘的開發(fā)應(yīng)用來看,存在兩條各有千秋的技術(shù)路線:一是傳統(tǒng)企業(yè)級應(yīng)用系統(tǒng)開發(fā)商,如用友、金蝶、北森等系統(tǒng)集成公司,在其所開發(fā)的HR SaaS系統(tǒng)中通過迭代開發(fā)的形式內(nèi)嵌有人工智能為基礎(chǔ)的招聘管理模塊,為企業(yè)用戶提供一體化智能招聘整體解決方案,以協(xié)助企業(yè)提高招錄效能;二是招聘平臺或初創(chuàng)公司針對企業(yè)“招工難”和勞動者“求職難”的兩大痛點,通過數(shù)字化與智能化的流程改造,為企業(yè)提供從職位發(fā)布到評估錄用的自動化招聘服務(wù),致力于解決企業(yè)人才需求問題。初創(chuàng)公司所開發(fā)的AI招聘系統(tǒng),在國外較為知名的有主營數(shù)據(jù)挖掘和職位匹配的Entelo和Hiretual、以面試和評估求職者為目標(biāo)的HireVue和Mya,以及專注于職位描述(JD)優(yōu)化的Textio等;國內(nèi)的相關(guān)應(yīng)用包括近嶼智能的AI得賢招聘官、探也智能的TAIENT、滴孚科技的壹面等。
AI對招聘流程的介入與優(yōu)化涉及招聘廣告推送、面試求職者、進行能力測試、職位匹配推薦等環(huán)節(jié),并可根據(jù)AI招聘的主要任務(wù)分為兩大類型[8]531-532:(1)數(shù)據(jù)挖掘或職位匹配。在域外,最為常見的AI應(yīng)用是基于對可得個人數(shù)據(jù)進行挖掘,以建立龐大的求職者數(shù)據(jù)庫,進而透過定制化的理想雇員模板,向雇主推薦最適配崗位要求的申請者。以Entelo為例,它建立了一個包含3億份個人簡歷的數(shù)據(jù)庫,其大部分數(shù)據(jù)并不來自個人的提交而是源于從各大主流社交平臺和網(wǎng)絡(luò)站點的搜索結(jié)果。Entelo所開發(fā)的預(yù)測算法不僅可以及時發(fā)現(xiàn)并向目標(biāo)客戶推送有跳槽傾向的各類企業(yè)人才,而且可以基于算法的模式化分析讓目標(biāo)公司接觸并招錄到合適的工作人選。(2)能力測試或流程管理。在能力測試上,部分AI招聘算法聚焦于評估求職者的工作表現(xiàn)及其能力適配。例如,GapJumers為消除可能的性別歧視或種族偏見,專注于開發(fā)一個以工作能力(技能)為基礎(chǔ)的盲評(blind)算法,即僅根據(jù)求職者的工作表現(xiàn)及其能力高低而排序推薦,并在測評時有意忽略任何其他可識別因素(如姓名、教育背景、公益工作等)的影響;在流程管理上,部分AI招聘應(yīng)用主要專注于前端的職位發(fā)布或簡歷篩選,或側(cè)重于后端的面試與能力測評。
2.AI招聘對就業(yè)歧視的雙重影響
在世界范圍內(nèi),就業(yè)歧視不僅種類繁多,而且普遍存在。英美等西方國家在歷史與文化因素的影響下,透過對種族、性別、性取向、宗教信仰、健康、年齡等受保護特征的列舉式規(guī)定,發(fā)展出以形式平等為導(dǎo)向的直接歧視與以實質(zhì)平等為圭臬的間接歧視的兩種反歧視學(xué)說[10]156-179。然而,雖然相關(guān)反就業(yè)歧視法制相當(dāng)嚴(yán)密,全面涵蓋反差別對待和反差別影響的責(zé)任形態(tài),但在真實世界中,不僅就業(yè)歧視的現(xiàn)象較為嚴(yán)重,而且形成了嚴(yán)密法網(wǎng)保護與嚴(yán)重就業(yè)歧視并存的矛盾格局。我國雖然沒有西方語境下的反歧視立法,但對勞動者平等就業(yè)權(quán)提供了充分的法律保護。我國勞動法上受保護的特征(《就業(yè)促進法》第三章)主要包括民族、性別、殘障、健康與戶籍等,并確立了平等就業(yè)促進與企業(yè)用工自由的雙重規(guī)范目的[6]2。從法律實踐來看,我國就業(yè)歧視的類型復(fù)雜多樣,不僅涵括常見的健康歧視、性別歧視外,還包括學(xué)歷歧視、年齡歧視、基因歧視等超出法定歧視范圍的類型[11]15-30。
以數(shù)據(jù)和算法為基礎(chǔ)的AI招聘可能對現(xiàn)實存在的就業(yè)歧視產(chǎn)生積極或消極的影響。從積極面來看,AI招聘可以通過減少人為的主觀偏見,即用中立無偏的算法決策替代人類普遍存在的偏頗決定,以達到提升招聘決定科學(xué)性和客觀性、減少就業(yè)歧視的目標(biāo)。算法做出的自動化決策,有時被視為公正無私的(faultless),沒有人類決策所具備的諸多缺陷;而且,其決策很少被外部的人為因素干擾,更不會像人類決策那般吹毛求疵[12]。為此,AI招聘算法可以減少就業(yè)歧視、促進就業(yè)平等,其典型做法主要有:(1)通過將受保護特征設(shè)定為招聘算法禁止利用或不得處理的目標(biāo)變量(target variables),如將個人簡歷所列明的性別、民族、年齡、健康等受保護特征列為不得識別的因素,以消除可能的社會偏見;(2)必要時,可允許算法接觸并處理受保護特征等變量,以實現(xiàn)群體性的就業(yè)平等。鑒于算法自動化決策的形式平等特性,為實現(xiàn)對特定弱勢群體的傾斜保護,可以有意將特定群體的受保護特征予以衡量和考慮,并在算法設(shè)定上采取針對性的傾斜照顧[2]154;(3)可透過算法透明度原則,自我揭示或披露算法決策內(nèi)含的人類偏見,并成為佐證就業(yè)偏見、算法歧視存在的有力證據(jù)。換言之,通過自證的算法決策結(jié)果,可以揭露公司過去招聘記錄的歷史偏見或歧視傾向,從而間接證實就業(yè)歧視的存在。
在消極面上,若缺少行之有效的控制或治理,AI招聘算法將放大或加劇就業(yè)歧視的泛濫。無論是透過機器學(xué)習(xí)抑或深度學(xué)習(xí)所作出的算法自動化決策,會承襲程序設(shè)計者、使用者以及社會的偏見,進而導(dǎo)致歧視性結(jié)果的發(fā)生或濫觴。相比于個人決策,算法決策具有更為系統(tǒng)且持續(xù)一致的歧視潛力,其影響范圍和規(guī)模更大。從社會偏見經(jīng)由算法決策最終導(dǎo)向歧視的現(xiàn)實可能性來看,AI招聘的算法就業(yè)歧視有三個不同的階段性源頭:(1)AI招聘的算法建模(Modelling):AI招聘為解決招聘過程的關(guān)鍵痛點,需要算法開發(fā)者或運營者在建模過程中,通過對目標(biāo)變量及其問題屬性進行必要的人為設(shè)定。這一人為設(shè)定的建模過程浸潤著算法開發(fā)者或運營者的主觀評價和偏見,后者將扭曲算法自動化決策的科學(xué)客觀性,進而誘發(fā)算法就業(yè)歧視的發(fā)生;(2)AI招聘的訓(xùn)練(Training):AI招聘程序需要運用不同的“訓(xùn)練”數(shù)據(jù)集,對程序的開發(fā)利用進行訓(xùn)練與驗證。用以驗證學(xué)習(xí)的“訓(xùn)練”數(shù)據(jù)集,既可能是離線的,也可能是在線的,但無論何種“訓(xùn)練”數(shù)據(jù)集都是過去社會經(jīng)驗的積淀,是社會決策者既定偏見或社會偏見的現(xiàn)實映射。因此,經(jīng)由數(shù)據(jù)集“訓(xùn)練”的招聘算法有可能習(xí)得并固化人類的社會偏見,進而導(dǎo)致歧視性結(jié)果的產(chǎn)生;(3)AI招聘算法的實際應(yīng)用:除上述情形外,非歧視性建構(gòu)的AI招聘算法亦有可能導(dǎo)致算法歧視的發(fā)生。較為典型的是所謂“代理歧視”,即算法通過非敏感性的個人數(shù)據(jù),可以對用戶進行精準(zhǔn)畫像,識別出求職者的受保護特征(如性別、年齡、健康等),從而導(dǎo)致算法就業(yè)歧視的發(fā)生。
1.算法就業(yè)歧視的類型與認定
無處不在的社會偏見是造成算法就業(yè)歧視的心理學(xué)源頭。因此,在理論研究上,既有根據(jù)社會偏見轉(zhuǎn)化為算法歧視的發(fā)生邏輯,將算法就業(yè)歧視概分為社會歧視所致的算法轉(zhuǎn)化歧視、算法設(shè)計所致的算法技術(shù)歧視以及算法運行所致的算法決策性歧視[13]123-125;亦有從人機交互決策之技術(shù)路徑可能導(dǎo)致就業(yè)歧視的角度,將算法就業(yè)歧視區(qū)分為因“結(jié)果變量”具有非中立性導(dǎo)致的算法歧視和因“訓(xùn)練集”數(shù)據(jù)具有歧視性導(dǎo)致的算法歧視[14]77-78。雖然上述算法就業(yè)歧視的類型劃分有利于針對歧視成因進行法律規(guī)制,但客觀上亦存在算法歧視與算法偏見相混同的弊端,因為偏見與歧視固然相關(guān),但實則兩個不同性質(zhì)的問題:偏見是社會心理學(xué)上固有的認知狀態(tài),歧視是法律所應(yīng)禁止的不當(dāng)行為[15]2-4。
作為一個法律概念,算法歧視應(yīng)結(jié)合具體應(yīng)用場景及其對不同群體的差異性影響而作出有效認定[16]81,不能遽然認定算法所映射或催生的就業(yè)偏見必然構(gòu)成算法就業(yè)歧視。而且,法律是一種地方性知識,在西方語境中被認為就業(yè)歧視的法律現(xiàn)象,在其他非西方語境中并不必然構(gòu)成法律上應(yīng)予對待的特定歧視類型。例如,在性別歧視極為嚴(yán)重的印度,女性的勞動參與度極低,就業(yè)問題極其嚴(yán)峻。根據(jù)世界銀行統(tǒng)計,從2010-2020年,印度的職業(yè)女性人數(shù)從26%下跌至19%,其中2017-2022年間就有2100萬印度女性被迫退出就業(yè)市場[17]——這一女性就業(yè)比例的嚴(yán)重失衡在西方社會已然構(gòu)成較為嚴(yán)重的就業(yè)歧視(作為間接歧視類型),但在性別偏見較為嚴(yán)重的印度則未必如此對待。
因此,西方語境中的歧視可以分為直接歧視(或差別對待)和間接歧視(或差別影響)。直接歧視立足于絕對的形式平等觀,即要求“相同者應(yīng)相同對待”。在某種程度上,直接歧視體現(xiàn)為可比較的差別對待,而且歧視的“意圖”昭然若揭,是對反歧視法受保護特征的公然踐踏。間接歧視則取向相對的實質(zhì)平等觀,是對機械的形式平等的背反。正如美國最高法院在Griggs v Duke Power案所提出的:“《民權(quán)法案》不但禁止公然的直接歧視,而且禁止形式上公平但實際上卻具有歧視性的行為。”[18]168由此,勞動者只要能夠證明,雇主的相關(guān)決定或做法造成了基于特定受保護特征的差別影響,則足以認定該決定或做法具有歧視性。自從美國反歧視法引入間接歧視的類型后,其影響便越過了大西洋,成為西方各國的廣泛共識。
在勞動法領(lǐng)域,直接歧視與間接歧視的類型又可進一步歸屬為反分類(anticlassification)和反從屬(antisubordination)的規(guī)制進路,并深植于美國種族歧視歷史的政治法律論爭之中[19]64。反分類進路主張,AI招聘的算法決策應(yīng)做到一視同仁,不得基于任何個人的受保護特征而予以差別對待,但由于直接歧視的認定需要證實相關(guān)決策主體存在“歧視意圖”,方能構(gòu)成就業(yè)歧視,因此在算法“表面中立”的客觀認知中,算法就業(yè)歧視不應(yīng)是反分類的規(guī)制目標(biāo),而主要是反從屬的規(guī)制目標(biāo)[20]891-892。反從屬進路將歧視定義為社會地位的階層固化及其對歷史弱勢群體的壓制,因此其歧視形態(tài)具有社會結(jié)構(gòu)性和系統(tǒng)性特征,是較為明顯的間接歧視或隱形歧視。
但是,要構(gòu)成法律能有效回應(yīng)的就業(yè)間接歧視,算法歧視的判定必須回答三個問題:(1)是否存在差別影響?在認定差別影響時,要綜合考慮兩個方面的構(gòu)成要件:一是相關(guān)招聘條件、要求或標(biāo)準(zhǔn)適用于所有人,亦即平等對待全體求職者;二是盡管表面上平等對待全體求職者,但實際上導(dǎo)致具有特定受保護特征的人處于特別劣勢的地位,例如申請人所在群體的錄取比例很低或接近于零,等等。為此,在具體衡量間接歧視的不利結(jié)果時,它雖然關(guān)注遭遇歧視的個體歸屬,但顯然更側(cè)重于群體而非個體的待遇。因此,在認定差別影響上,它會以客觀的統(tǒng)計數(shù)據(jù)為準(zhǔn)據(jù),并形成以具有統(tǒng)計顯著性為特征的“五分之四法則”(弱勢群體錄取比例不低于優(yōu)勢群體的80%)。(2)是否有正當(dāng)性抗辯理由?差別影響并不必然構(gòu)成間接歧視,因為雇主可以主張正當(dāng)?shù)目罐q理由,即證明相關(guān)錄用條件或標(biāo)準(zhǔn)符合業(yè)務(wù)必要性或比例性原則的要求。在美國,如果相關(guān)做法符合雇主公司的商業(yè)需要或與完成工作的需求高度相關(guān),則差別影響的結(jié)果是可接受的;而在歐盟和英國,正當(dāng)性抗辯理由與比例性原則相契合,亦即相關(guān)做法“具有合法的目標(biāo),并且相關(guān)手段對于實現(xiàn)既定目標(biāo)而言是適當(dāng)?shù)那冶匾摹盵10]180。(3)是否存在可替代的算法決策?美國最高法院在確立間接歧視的Griggs v.Duke Power Co.案中認為,即使雇主成功證明了其做法的合理性,但原告可主張存在其他歧視性更小的手段,以反證雇主公司仍需對此承擔(dān)責(zé)任。歧視性更小的替代算法決策是比例性原則的合理適用,亦即任何差別影響需要滿足(狹義比例性原則之)最低損害的要求。只要存在其他可替代且歧視性更小的算法決策,即使雇主提出了正當(dāng)性抗辯理由,但求職者仍可主張間接歧視的成立。
2.算法就業(yè)歧視的風(fēng)險挑戰(zhàn)與治理需求
盡管西方反歧視法對算法決策所致就業(yè)歧視已有法律規(guī)制,但相關(guān)方案既不具有普遍適用性,又未能有效因應(yīng)算法就業(yè)歧視的風(fēng)險,因而需從治理的角度重新審視算法就業(yè)歧視的風(fēng)險挑戰(zhàn)。
首先,AI招聘的算法歧視風(fēng)險是客觀存在的,不會因為算法就業(yè)歧視的法律認定便自行消解。與之相反,雖然普遍認為AI招聘的算法決策不構(gòu)成直接歧視類型,但人為偏見仍可通過算法的開發(fā)建?;颉坝?xùn)練”數(shù)據(jù)集而潛入算法自動化決策,并成為損害特定主體勞工權(quán)益的風(fēng)險點。況且,潛在歧視風(fēng)險是算法決策機制所附著或固有的,除非將其徹底摒棄不用,否則難以通過對算法決策結(jié)果的外部干預(yù)予以有效紓解。由此,既然不能僅從外部對其加以嚴(yán)格的法律規(guī)制或約束,則應(yīng)返回技術(shù)治理的本源,以技術(shù)手段回應(yīng)技術(shù)風(fēng)險,以降低算法就業(yè)歧視的發(fā)生概率。
其次,AI招聘的算法就業(yè)歧視雖然可歸為間接歧視類型而加以規(guī)制,但其實際的規(guī)制效果未必理想。一方面,身為求職者的原告很難證實算法決策的差別影響構(gòu)成間接歧視,因為算法決策的內(nèi)在機理使得其決策符合“統(tǒng)計顯著性”的標(biāo)準(zhǔn),容易成為可豁免雇主責(zé)任的抗辯理由。事實上,不少研究者均不約而同指出,基于“好雇員”的“訓(xùn)練”數(shù)據(jù)集所建模的預(yù)測算法在本質(zhì)上是自我驗證的(self-validating),因為預(yù)測算法是“標(biāo)準(zhǔn)”或“建構(gòu)”的驗證研究,即證明特定實踐是衡量工作績效表現(xiàn)的尺度[20]866-867。另一方面,大部分遭遇就業(yè)歧視的求職者常常會因難以舉證而放棄維權(quán),算法黑箱事實更進一步加劇了當(dāng)事人舉證之難度。更何況要證成算法的間接歧視,原告還需要自證存在一種歧視性更少的替代算法,更難上加難。為此,還需要從現(xiàn)實角度進一步構(gòu)建或完善適于防治算法就業(yè)歧視的法律規(guī)制。
最后,雖然算法就業(yè)歧視在倫理、政治上是不正確的,但部分歧視在經(jīng)濟上是合理的,故而能穿透反歧視的嚴(yán)密法網(wǎng)[7]70。而且,各國的反歧視法歷史與立場多有差異,就業(yè)歧視的類型和法律規(guī)制也多有不同。例如,有學(xué)者曾將我國就業(yè)歧視概括為“職場歧視1.0”(用人單位在招聘條件上明確排除或限制錄用特定受保護特征的勞動者),故平等就業(yè)法仍停留在較為明顯的反直接歧視的立場,并對算法決策所產(chǎn)生的隱蔽就業(yè)歧視(“職場歧視3.0”)存在極大的不足[14]76。職是之故,在算法就業(yè)歧視之法律規(guī)制付諸闕如的前提下,有必要在社會政策上作出合理抉擇與有效應(yīng)對。
基于AI招聘所孕育的算法就業(yè)歧視風(fēng)險及挑戰(zhàn),在構(gòu)想其具體的法律規(guī)制時,曾有兩條不同的徑路,即“改進算法”和“完善法律”[8]533-539。然而前述分析表明,任何單一徑路都不可能完全奏效,而須根據(jù)其所適應(yīng)的問題病癥,采取對癥下藥的應(yīng)對之策,最終形成算法就業(yè)歧視的綜合治理之道。
基于既有反歧視法無法有效應(yīng)對算法就業(yè)歧視的現(xiàn)狀,以及參酌環(huán)境影響評價制度,有學(xué)者提出有必要建立算法影響評價制度,從完善算法技術(shù)的路徑出發(fā),加強源頭控制并防范算法就業(yè)歧視的發(fā)生風(fēng)險[21]714-722。算法影響評價是一種新型的算法規(guī)制技術(shù),是依據(jù)特定標(biāo)準(zhǔn)對算法自動化決策之過程、內(nèi)容和結(jié)果進行系統(tǒng)評估的治理手段,有助于強化算法可解釋性,即要求AI招聘算法的開發(fā)設(shè)計者以通知或公告的形式闡述算法決策的機理、過程和結(jié)果,從而實現(xiàn)對算法原理及其結(jié)果的描述說明和解釋論證[16]84。本質(zhì)上,算法影響評價不僅是一種典型的風(fēng)險預(yù)防機制,可以披露事前的算法歧視風(fēng)險并為事后的風(fēng)險治理奠定基礎(chǔ),而且是一套實現(xiàn)算法公平的技術(shù)治理手段,可以通過定制化的影響評價,將職場多元化和弱勢群體保護的公平理念嵌入招聘算法的開發(fā)設(shè)計之中,從而實現(xiàn)可負責(zé)算法(accountable algorithms)的構(gòu)建。
在可負責(zé)算法的構(gòu)建上,算法決策的可解釋性要求只是初步的形式要求,因為披露算法源代碼既非算法決策過程之公平性的必要條件,亦非其充分條件。就此而言,算法開發(fā)者或利用者應(yīng)透過算法影響評估報告的形成,詳細說明其招聘決策所涉的模型建構(gòu)原理、“訓(xùn)練集”數(shù)據(jù)的來源和處理,進而表明數(shù)據(jù)使用不會侵犯個人信息權(quán)利并構(gòu)成對特定群體的顯著歧視。而且,基于算法決策的影響評價[22]643-662,結(jié)合就業(yè)平等的實質(zhì)要求, AI招聘的算法系統(tǒng)開發(fā)時應(yīng)嵌入公平性的實質(zhì)要求:(1)將隨機性(randomness)嵌入算法[22]683,以防范算法開發(fā)過程中的隱藏偏見,或避免導(dǎo)致一致性的歧視性結(jié)果。例如,如果招聘算法從過去經(jīng)驗中習(xí)得女性求職者在職場上處于不利地位的判斷,將強化其招錄男性求職者的預(yù)測和匹配結(jié)果。因此,如果在相關(guān)算法設(shè)計時有意引入隨機性因素——部分預(yù)測表現(xiàn)不佳的求職者同樣將獲得錄用,那么算法決策系統(tǒng)的準(zhǔn)確性和公平性將得到逐步有效的改善。(2)通過相應(yīng)的機制設(shè)計,確保機器學(xué)習(xí)和算法的公平性,以實現(xiàn)個體公平(individual fairness)與群體公平(group fairness)的兼容。對此,簡單直接的做法是在訓(xùn)練模型時,修改或遴選輸入數(shù)據(jù),不斷對比調(diào)試,以確保輸出結(jié)果符合公平特性。具體而言,在輸入訓(xùn)練數(shù)據(jù)集時,要么刪除或剔除受保護特征的目標(biāo)變量,要么去除敏感信息后盡可能保留原始信息,從而實現(xiàn)數(shù)據(jù)集的公平呈現(xiàn)(fair representation)。更為復(fù)雜的做法則是,通過定義公平性來約束算法的開發(fā)。例如,Dwork et al.主張“透過自覺的公平”,允許算法決策收集并明確利用諸如少數(shù)群體地位、性別或健康情況等敏感信息[23]215。
為因應(yīng)算法就業(yè)歧視的認定與歸責(zé)難題,應(yīng)從兩個方面進一步完善相關(guān)法律規(guī)定:一是將算法影響評價確立為制度性要求,并從評價主體、程序、標(biāo)準(zhǔn)等方面建構(gòu)起具有國情特色的算法影響評價制度[16]84-85。具體而言,第一,在評估主體上,要區(qū)分評價監(jiān)管主體和評價實施主體并明晰各自職責(zé)權(quán)限。前者是具有特定監(jiān)管職權(quán)的政府主管部門,負責(zé)算法影響評價報告的報備與復(fù)核;后者是算法影響評價的獨立實施者,負有客觀撰寫評價報告的職責(zé)義務(wù)。第二,在評價程序上,要強化人民立場,依法保障公眾的知情權(quán)與參與權(quán),尤其是在勞動領(lǐng)域,要增強勞動者及其工會組織對算法影響評價的知情同意。第三,在評價標(biāo)準(zhǔn)上,要充分考慮平等、公平、公正等核心價值在算法影響評價中的引領(lǐng)作用,推動機器學(xué)習(xí)算法等公平性算法的開發(fā)利用,并重新形塑算法決策的影響后果。第四,在評價報告上,要強化評價報告的備案審查和公開,尤其應(yīng)向受算法決策影響的利益相關(guān)者予以強制披露,并適時賦予評價結(jié)論以一定法律效果,使之成為相關(guān)領(lǐng)域執(zhí)法與司法的事實依據(jù)。
二是在反就業(yè)歧視法上,有必要確認算法就業(yè)歧視為新型的勞動歧視形式,并根據(jù)合理的認定標(biāo)準(zhǔn)與程序以確認算法就業(yè)歧視的成立與歸責(zé)。雖然算法就業(yè)歧視與傳統(tǒng)的勞動歧視類型重疊交合,但又有一定特殊性和獨立性,故有必要明確其細化的認定標(biāo)準(zhǔn),即從差別影響、正當(dāng)抗辯理由和可替代算法決策等三個層面構(gòu)建其合理要求[6]14,以妥善均衡平等就業(yè)與用工自由之利益訴求。而且,考慮傳統(tǒng)就業(yè)歧視之訴舉證困難,再加上算法黑箱等客觀情勢,有必要重新分配算法就業(yè)歧視的舉證責(zé)任,以減輕求職者或勞動者的舉證負擔(dān)。求職者或勞動者只需提供初步證據(jù),以表明用人單位存在歧視特定受保護特征之群體的行為或現(xiàn)象即可,用人單位則應(yīng)自證相關(guān)招聘標(biāo)準(zhǔn)或就業(yè)政策符合業(yè)務(wù)必要性標(biāo)準(zhǔn)或有正當(dāng)合法的抗辯理由。
法律規(guī)制不是萬能的,只能解決部分算法就業(yè)歧視問題,其余風(fēng)險部分則應(yīng)在政策上予以調(diào)整和回應(yīng),以實現(xiàn)就業(yè)政策與產(chǎn)業(yè)發(fā)展政策的銜接配合。當(dāng)前,以大數(shù)據(jù)和人工智能技術(shù)為核心的數(shù)字經(jīng)濟所推動的產(chǎn)業(yè)提質(zhì)升級,是邁向中國式現(xiàn)代化的必由之路,也是實現(xiàn)“第二個”百年目標(biāo)的關(guān)鍵動能,絕不能因其存在的風(fēng)險問題便因噎廢食、放棄相關(guān)技術(shù)的廣闊應(yīng)用前景。為此,要努力做好兩方面的協(xié)調(diào)平衡工作:一方面,為促進數(shù)字經(jīng)濟的發(fā)展,應(yīng)借鑒參考美國平臺就業(yè)歧視責(zé)任的豁免制度[6]10,對開發(fā)利用AI技術(shù)的招聘平臺或開發(fā)者實行算法就業(yè)歧視責(zé)任豁免。開發(fā)者或招聘平臺應(yīng)豁免算法就業(yè)歧視的法律責(zé)任,是因為它們是AI技術(shù)的開發(fā)者,在與用人單位的委托關(guān)系中,屬于技術(shù)開發(fā)的受托人,僅應(yīng)對用人單位負有信義義務(wù)。為此,除非相關(guān)平臺或開發(fā)者違反對用人單位的信義義務(wù),相關(guān)歧視責(zé)任應(yīng)主要由用人單位負責(zé)。免除相關(guān)開發(fā)主體和應(yīng)用平臺在盡職履責(zé)情況下的就業(yè)歧視責(zé)任,有利于推動AI招聘技術(shù)的積極探索和創(chuàng)新應(yīng)用,從而實現(xiàn)人工智能技術(shù)的更新迭代與公平利用。
另一方面,為緩解算法就業(yè)歧視對少數(shù)弱勢群體的負面影響與沖擊,應(yīng)大力推動弱勢群體的就業(yè)促進工作,推行機會均等的公平就業(yè)實踐,充分提升弱勢勞動者的獲得感、滿足感和幸福感。例如,為推進男女平等的公平就業(yè)實踐,化解算法就業(yè)歧視對女性勞動者的沖擊和影響,既要充分考慮女性照護家庭的特殊職責(zé),推動家庭服務(wù)和育兒工作的社會化,適時分攤女性勞動者在生育和養(yǎng)育后代的成本開支,又可實施遠程工作或靈活工時等制度做法[24]248,讓工作與職場對女性勞動者更友好、更平衡,逐步改變用人單位對女性勞動者所形成的刻板印象。
AI招聘的廣泛應(yīng)用將深刻改變過去的人事管理模式,助推一場勞動力與AI技術(shù)雙重變奏的產(chǎn)業(yè)革命。遺憾的是,在AI招聘的實際應(yīng)用過程中,因社會偏見等內(nèi)在因素的影響及推波助瀾,算法歧視的潛在或現(xiàn)實風(fēng)險仍不容忽視,需要認真對待。這些潛在和現(xiàn)實的歧視風(fēng)險,或可轉(zhuǎn)為算法就業(yè)歧視而報以法律的“鐵拳”,但亦有逃逸于法律責(zé)任的可能性。為此,不應(yīng)指望法律規(guī)制能夠解決所有與算法就業(yè)歧視相關(guān)的問題與挑戰(zhàn),而應(yīng)從技術(shù)治理、法律規(guī)制和政策平衡等層面予以綜合回應(yīng)。