張凌寒
(北京科技大學 文法學院,北京 100083)
數(shù)字時代,算法自動化決策已經深度嵌入到社會勞動,在就業(yè)、勞動資源分配、勞動者績效考核、勞動人事決策中發(fā)揮重要作用。勞動者資質、工作時間、生物數(shù)據(jù)、移動位置、勞動成果等各項信息均被充分數(shù)字化,算法自動化決策已經逐步接管雇主的決策權。根據(jù)2019年的報道,亞馬遜使用人工智能攝像頭識別工作效率低下的員工,計算工人消極懈怠的時間(Time Off Task,簡稱“TOT”),直接生成解雇指令,繞過主管開除工人[1]。機器學習算法可以“識別人類觀察無法發(fā)現(xiàn)的微妙模式,利用這些模式來產生準確的洞察力,并為更好的決策提供信息”[2]。算法自動化決策通過對勞動者數(shù)字化的計算自動生成各種決策,做出是否招聘、工作質量評定、解雇留用的自動化決策,成為實際的勞動資源配置者。
與此同時,就業(yè)與勞動中的性別歧視是一個古老且常新的話題。當數(shù)字時代的算法自動化決策遭遇傳統(tǒng)的性別歧視問題,女性的境遇會發(fā)生何種變化?本文圍繞勞動中的性別歧視在數(shù)字時代的發(fā)展、變化、挑戰(zhàn)及應對展開。第一部分探討算法自動化決策成為控制社會勞動生產的核心力量,對女性勞動者權益的影響;第二部分探討現(xiàn)行法律法規(guī)中的女性權益保障制度是否可資利用,以及受到的挑戰(zhàn);第三部分討論在新的勞動監(jiān)控與資源調配方式變革時如何有效保障女性勞動者的權益。
需要強調的是,勞動中的性別平等目標并非絕對平等。算法歧視是西方較為常見的研究范式和話語體系,但性別歧視和性別偏見則難得成為中西共通的問題。相比國外研究中較為常見的種族與族群的歧視問題研究,勞動中的性別歧視仍與其有重要區(qū)別:男女有別(基于生理性與社會性原因),仍廣泛被認為具備一定正當性與合理性的空間。各國法律事實上到今天都沒有真正尋求建立實質性的男女就業(yè)平權,而主要以打擊限制在雇傭、監(jiān)控與評估(薪酬安排)中明顯不合理的歧視行為為主。故本文并非力求數(shù)字時代中男女的絕對平等與形式平等,而旨在算法自動化決策控制社會勞動生產后,女性勞動者的境遇不至于惡化,并能夠得到現(xiàn)有法律制度的有效救濟。
算法本質是以數(shù)據(jù)為填充,通過計算步驟得到具體結果[3](P 21)。算法的運算結果與算法設計、算法部署及應用有關。為了解決某個問題算法被制造出來,被收集來的零散數(shù)據(jù)才可以被解讀并被賦予意義。如果說數(shù)據(jù)是數(shù)字經濟時代的生產要素,那么算法就是數(shù)字時代的生產工具[4](P 13)。在算法控制勞動生產的過程中,一方面,勞動者為算法自動化決策輸入數(shù)據(jù),其各種個人信息和行為被抽象為數(shù)字并被嵌入整合到數(shù)字時代的數(shù)據(jù)體系中,淪為生產過程的被動客體[5](PP 33-34);另一方面,勞動者也成為算法自動化決策的對象,其績效考核、任務分配等方面都被算法自動化決策支配。
算法被視作價值中立的技術方案,但是多個案例顯示,在算法自動化決策對勞動者做出數(shù)字化(statistics)、畫像預測(prediction)與評估(evaluation)的三個階段,人類社會的歧視也會隨著勞動者數(shù)字化與算法設計者的偏見被帶入算法模型中。伴隨著算法逐漸取代人類做出勞動人事決策,研究發(fā)現(xiàn)算法自動化決策分配的結果不僅延續(xù)了傳統(tǒng)的性別歧視,甚至加劇了性別歧視的隱蔽性,造成了算法隱性性別歧視,在勞動者個體層面卻難以獲知、難以覺察且難以證實。
隨著算法的廣泛應用,研究發(fā)現(xiàn),在勞動要素數(shù)據(jù)化、計算生成決策以及算法“黑箱”的過程中,算法中可能嵌入設計者和雇主固有的性別歧視。
勞動過程中算法自動化決策的重要功能之一是進行勞動者畫像,功能是做出預測。其主要目的是在招聘中尋找年齡、受教育程度、工作經歷、工作能力各項指標最符合企業(yè)需求的勞動者。畫像是指從統(tǒng)計學意義上,通過對某類用戶特征的統(tǒng)計分析模型構建過程,在此基礎上得出針對群體或者個體的具有統(tǒng)計學意義的分析結論。畫像(profile)既是技術用語,也已經成為法律規(guī)制的對象,在中國《個人信息保護法》和歐盟《通用數(shù)據(jù)保護條例》中均有相關規(guī)定。《信息安全技術—個人信息安全規(guī)范》中表述:“用戶畫像是通過收集、匯聚、分析個人信息,對某特定自然人個人特征,如其職業(yè)、經濟、健康、教育、喜好、信用、行為等方面做出分析或預測,形成其個人特征模型的過程?!眲趧诱弋嬒竦哪康氖菢嫿ǔ觥巴昝绖趧诱摺毙蜗?,并根據(jù)這類群體的各項指標去尋找最符合條件的勞動者,因此經常被用來做招聘、評定績效等勞動決策。
為了處理大量來自應聘者的信息,越來越多的企業(yè)改變了傳統(tǒng)人力資源部門工作人員瀏覽簡歷篩選應聘者的方式,開始使用機器學習算法處理大量數(shù)據(jù),并對應聘者進行識別和打分。例如,亞馬遜公司曾建立一個算法系統(tǒng),用于分析應聘者的簡歷以挑選出最佳雇員。但在該公司采用自己的招聘數(shù)據(jù)訓練算法之后,發(fā)現(xiàn)該篩選算法對女性應聘者產生了偏見?!芭浴币辉~或者女性特征的出現(xiàn)(比如畢業(yè)于女子大學或者在校期間參加了女子足球俱樂部等)會降低應聘者的排名。出現(xiàn)歧視女性求職者的問題后,亞馬遜最終放棄了這個人力資源的機器學習項目[6]。
這是由于算法自動化決策只能基于經驗而不能創(chuàng)造未來,創(chuàng)造未來需要只有人類才具備的想象力。如果20世紀60年代就出現(xiàn)了大學申請的大數(shù)據(jù)模型,可能到現(xiàn)在還有很多女性上不了大學,因為用來訓練模型的數(shù)據(jù)都來自成功的男性[7](P 238)。社會經濟生活的復雜性,導致各個因子本身的影響力也在動態(tài)中變化。因此,用戶畫像需要根據(jù)各個數(shù)據(jù)的變動做出及時調整。算法自動化決策雖然準確但是卻無法自我改善,除非開發(fā)者重新設計算法自動化決策。
另外,現(xiàn)有的數(shù)據(jù)集實際上并不完整,嚴重缺少基于性別分類的女性的相關數(shù)據(jù)。換句話說,男人是“一般人”或“標準人”,是人類數(shù)據(jù)的默認設置。經濟活動和日常生活的各方面都以男人的標準數(shù)據(jù)作為世界的普適數(shù)據(jù),而女性數(shù)據(jù)在各個領域均呈現(xiàn)缺失狀態(tài)[8](P 16)。例如,各個勞動場所設定男性的體感溫度為標準溫度,而大部分女性感覺過冷;汽車碰撞實驗數(shù)據(jù)是基于男性各項生理數(shù)據(jù)包括身高、肌肉分布等,使得女性在汽車碰撞中更容易受傷;用于訓練算法的女性聲音數(shù)據(jù)缺失,使得市面上大部分聲音識別算法對男性聲音識別率遠高于女性。同樣,職場上一個不需要懷孕生產和照顧年幼子女的男性被作為標準勞動者,男性上廁所的時間長度被設定為工人離開崗位的標準時長,這些數(shù)據(jù)標準設定都未考慮女性,各個領域女性數(shù)據(jù)的“不在場”使得從數(shù)據(jù)收集層面和標準設定層面就開始了對女性的系統(tǒng)性歧視。
更為嚴重的是,算法中無意識嵌入的性別歧視可能會進一步加劇固有的性別不平等。比如谷歌向男性推送高薪工作的頻率遠遠高于向女性推送的頻率。它在推送定向廣告時,認定男性更具有獲得高薪職位的可能性,于是對男性群體推送了1852次薪資為20萬元以上的職位,而對女性只推送了318次[9](P 801)。除了訓練數(shù)據(jù)的現(xiàn)實環(huán)境中存在男女收入不平等的情況外,可能還在于算法開發(fā)者中男性居多且并沒有為女性調整算法的性別平等意識。算法自動化決策應用再現(xiàn)并放大了人類固有的性別偏見。
算法的原理是中立的,但是算法的應用并不是中立的。算法的設計可以嵌入設計者和開發(fā)者的主觀意圖,算法做出的自動化決策也是算法設計使用者追求的結果。雇傭者有意識的性別歧視可能隱藏在算法技術的面紗之后。
勞動過程中算法自動化決策的重要功能之二是進行勞動監(jiān)控與評估。算法自動化決策出現(xiàn)的方式可能是企業(yè)智能管理系統(tǒng)、任務分配系統(tǒng)、倉庫存儲系統(tǒng)、人力資源管理系統(tǒng)等。被數(shù)字化的勞動者的個人信息和行動數(shù)據(jù)都會成為算法自動化決策進行勞動監(jiān)控的依據(jù)。舉例來說,無錫某廠的攝像頭記錄下車間內所有工人的在崗情況,并監(jiān)測他們的工作效率。比如,每一個元件均有規(guī)定加工時長,系統(tǒng)會通過攝像頭畫面識別工人動作,若用時過長,將會體現(xiàn)在月末對這名工人的考核中,并扣除相應績效,考勤員亦會對系統(tǒng)判定結果進行人工復核。電子考勤系統(tǒng)則把之前設在公司大門口的打卡程序細化到車間。工人若離開車間必須刷卡,若離開超過15分鐘,該記錄將與攝像頭錄像被一起提交到辦公自動化系統(tǒng),并在月末核算時扣除績效。算法對勞動者的監(jiān)控越來越嚴已經是一個趨勢。2020年中國企業(yè)采購數(shù)字化管理調研白皮書顯示,中國企業(yè)數(shù)字化采購市場規(guī)模從2017年的70.8億元上升至2019年的112.4億元,市場增速保持在20%以上的水平,預計2022年市場規(guī)模將超過200億元。在這樣的嚴格監(jiān)控下,算法自動化決策可能成為性別歧視的幫兇。
第一,雇傭者借助算法自動化決策分配任務,可以在分配階段就使女性逐步喪失工作機會。算法對勞動者進行畫像,即可在算法分配勞動任務的過程中,優(yōu)先將任務分配給符合完美勞動者畫像的員工。例如,研究發(fā)現(xiàn),利用公司當前和過去雇員的數(shù)據(jù)開發(fā)的機器學習算法,可逐步通過機器學習學會歧視孕婦和在病假未被計算情況下可能懷孕的婦女[10](PP 43-44)。勞動法規(guī)要求雇主要向孕婦提供必要的病假,因為孕婦可能比非孕婦使用更多的病假。但病假被設定為評估勞動者的績效指標,即可能產生法律禁止的對懷孕婦女的歧視效應。這種隱性的排除女性勞動者機會的性別歧視已經在網約車分配任務的實證研究中得到證實。根據(jù)研究,一個“可靠的”司機可以獲得更多的網約車訂單,一個完成2500次出行的網約車司機比一個在平臺上完成不到100次出行的司機每小時多賺14%。原因是平臺算法更傾向于隨時可以接受任務的網約車司機。男性司機有更長的每周開車累計時長,而且更少由于家庭和育兒的原因停止網約車駕駛[11]。作為對更高投入時長的回報,男性網約車司機享有比女性司機更多的報酬。
第二,雇主將決策權讓渡給算法自動化決策,使得女性勞動者的議價能力受到了限制。公司使用算法自動化決策做出員工績效評估與薪酬發(fā)放等人事決策,等于將勞動的管理權外包給了算法。當女性勞動者與公司雇主進行議價時,公司可主張自己只是采納算法的決策,而不參與算法自動化決策對數(shù)據(jù)的收集和對勞動者的評級。換言之,公司隱藏在算法自動化決策之后,對勞動者進行任務分配和勞動監(jiān)控,但當勞動者提出異議時則可將責任推卸給算法。企業(yè)通過攝像頭監(jiān)控和收集勞動者在勞動過程中的表現(xiàn)。但此種方式的弊端在于,仍需要人工進行監(jiān)視和判斷,效率低下且人工成本較高。隨著越來越多的工人使用可穿戴的工作設備,可數(shù)字化的勞動表現(xiàn)信息更為豐富。據(jù)報道,在中國上海某企業(yè)中,勞動者在工位上的時間、操作勞動時的速度、上班移動的位置都成為被收集和計算的對象。亞馬遜為物流中心的員工定下了嚴苛的工作標準,包括從貨架上取下商品之間的硬性時間間隔、工人的休息時間、去洗手間的時間等都被計入勞動過程中的表現(xiàn)。
算法自動化決策對于勞動成果與績效的評估,往往以性能和效率為客觀標準,忽視了女性擅長的情感溝通優(yōu)勢與工作靈活性。算法自動化決策以數(shù)字作為評定基礎,其標準設定為“最優(yōu)方案”以解決任務匹配、過程管理、結果評估等具體問題。歐洲經濟和社會理事會最近指出,“人工智能的發(fā)展目前是在一個主要由年輕白人男子組成的同質化環(huán)境中進行的”[12],女性算法自動化決策對完美勞動者進行畫像之初就處于劣勢,且隨著算法設定標準不斷被邊緣化,難以獲得同等工作機會、同等勞動報酬與晉升機會。
算法自動化決策的性別歧視對勞動者個體來說具有難以獲知、難以覺察、難以證實的特點,進一步造成女性勞動者獲得救濟的困難程度。
第一,算法自動化決策的性別歧視難以獲知。女性勞動者不僅難以知曉存在性別歧視,甚至對算法自動化決策存在本身都不知情。據(jù)報道,有企業(yè)進行建筑物內的員工監(jiān)控,在電梯中安裝攝像頭和錄音設備直接與算法系統(tǒng)相聯(lián)結,但并不告知勞動者[13]。根據(jù)中國《個人信息保護法》第13條的規(guī)定,基于人力資源管理目的收集勞動者個人信息并不需要勞動者本人的知情同意。這都使得勞動者處于對被收集數(shù)據(jù)與被算法自動化決策并不覺知的狀態(tài)下,自然也難以對算法自動化決策造成的性別歧視知情。勞動者的個人信息通過知情同意規(guī)則被企業(yè)收集并數(shù)字化。勞動者的年齡、受教育程度、既往工作經歷都可以被數(shù)字化。除了用來判定勞動者資質的個人信息,勞動者的生物敏感信息也被廣泛收集。勞動者的呼吸、血壓、心跳也可能被收集,用以來判斷勞動者的情緒狀態(tài)、心理健康、工作壓力等。如杭州某公司為員工發(fā)放智能坐墊,可感應人體心跳、呼吸、坐姿等數(shù)據(jù),這些數(shù)據(jù)流入人力資源管理部門數(shù)據(jù)庫中[14]。
第二,算法自動化決策的性別歧視難以覺察。一直以來勞動市場中的招聘就業(yè)性別歧視較為直接,如直接拒絕女性獲得某職位,或者直接給女性較男性更低的工作報酬。但是在網絡勞動中,性別歧視并不以正式的障礙或公開的排斥形式出現(xiàn)。除非一種算法的設計方式明確確定女性的收入低于男性,即直接歧視,在大多數(shù)情況下算法自動化決策造成性別歧視屬于間接歧視。然而,雇主有諸多理由來證明間接歧視是合理的,原因是報酬與工作量和工作表現(xiàn)相關。對于算法而言,性別如果影響勞動者的評定,并非是直接的因果關系,而是相關關系。因此,除非原告能夠拿出事實證明算法自動化造成的間接性別歧視是真實存在的,否則難以啟動職場性別歧視的救濟。即使將性別歧視不存在的舉證責任倒置給雇主,雇主也可能由于算法是商業(yè)秘密而無法承擔舉證責任。
第三,算法自動化決策的性別歧視難以得到證實。表面上看,在算法自動化決策的勞動決策中,男性和女性都可以平等地參與勞動,且公平地按勞動成果獲得報酬。然而,算法設定的勞動監(jiān)控標準與勞動考核標準并不對勞動者公布,即使勞動者感受到性別歧視,也需要大量的數(shù)據(jù)統(tǒng)計方能證實。如之前美國學者曾經根據(jù)百萬優(yōu)步(Uber)司機的數(shù)據(jù)分析得出男女司機薪酬不平等的調查結論。又或這種性別歧視必須通過專業(yè)的技術手段才能證實?!肮雀杪毼粡V告歧視案”中,卡內基梅隆大學和國際計算機科學研究所的研究人員建立了一個名為“廣告釣魚”(AdFisher)的工具,經過大量數(shù)據(jù)研究才證實谷歌對男性求職者網絡用戶展示的高管職位廣告中,薪酬要遠高于同等的女性求職者看到的數(shù)額[15](PP 741-761)。
綜上所述,算法自動化決策盡管看似在勞動人事決策中居于性別中立的地位,但實際上既可能在數(shù)據(jù)收集和算法設計方面嵌入人類既有的性別偏見,又可能成為雇主隱藏性別歧視的工具。然而,算法自動化決策中的性別歧視卻難以被勞動者獲知、察覺與證實,成為隱性的性別歧視。
算法自動化決策對女性的職場歧視,對勞動保障法律制度中的女性保護條款提出了挑戰(zhàn)。即使現(xiàn)有法律中對個人信息保護與應對自動化決策的條款進行了算法自動化決策規(guī)制,但應對隱性性別歧視仍力有不逮。
各國勞動法中都有保障性別平等的條款,但難以適用于算法自動化決策的隱性性別歧視。如需通過傳統(tǒng)勞動法制度來應對算法自動化決策造成的隱性性別歧視,既需要對傳統(tǒng)法律制度作出擴大解釋,也需要司法實踐中的指導性案例。
第一,勞動法中的反性別歧視條款的適用進路應對算法自動化決策存在局限。勞動法規(guī)制性別歧視的主體是雇主。雇主對雇員的性別歧視是通過人類之間的信息溝通方式實現(xiàn)的,如在招聘時由雇員告知雇主自己的性別,在工作過程中雇主的勞動人事決策不得以雇員的性別作為決策因素。所以傳統(tǒng)勞動法中為避免性別歧視,勞動者可以在應聘時拒絕提供自己的婚育信息,可以在雇主做出基于性別的不公平決策時,要求雇主予以解釋。但在算法自動化決策做出勞動人事決策中,這些信息溝通手段被算法自動化決策收集與分析的數(shù)據(jù)消解。如前文所舉實例,算法自動化決策無需勞動者提供婚育信息,即可通過算法自動化決策預測推斷出來。雇主做出勞動人事決策是否參考了性別因素,勞動者無從知曉。因為算法自動化決策是不對勞動者公開的,或者即使公開了,勞動者也并無閱讀和了解的專業(yè)知識與能力。因此,勞動法中傳統(tǒng)的反性別歧視條款的適用進路,由于雇主與雇員信息能力的不對稱而存在制度應對不足。也是出于這個原因,女性勞動者在算法自動化決策做出的勞動人事決策中,對于勞動評價較低、被邊緣化和喪失晉升機會等不利決策,無從主張性別歧視的救濟。
第二,算法自動化決策本質上將勞動規(guī)章代碼化,可擴張對勞動規(guī)章的合法性和合理性審查的范圍,將算法納入其中。《勞動合同法》第三十九條第(二)項規(guī)定,勞動者嚴重違反用人單位的規(guī)章制度的,用人單位可以解除勞動合同。企業(yè)“家規(guī)”是當勞動爭議發(fā)生時的判定依據(jù)?,F(xiàn)在企業(yè)普遍使用的算法自動化決策,如果涉及考勤、薪酬等問題,則應該被視作企業(yè)的勞動規(guī)章制度。然而,企業(yè)普遍并不告知勞動者算法自動化決策的決策因素與權重。根據(jù)《最高人民法院關于審理勞動爭議案件適用法律若干問題的解釋》(法釋〔2001〕14號)第十九條規(guī)定:“用人單位根據(jù)《勞動法》第四條之規(guī)定,通過民主程序制定的規(guī)章制度,不違反國家法律、行政法規(guī)及政策規(guī)定,并已向勞動者公示的,可以作為人民法院審理勞動爭議案件的依據(jù)?!笨梢?,“向勞動者公示”是作為勞動人事決策依據(jù)的重要條件,顯然現(xiàn)有的算法自動化決策并不滿足這一條件,因此不應作為判定勞動者違反勞動規(guī)章制度的依據(jù)。此外,一般要求具有合理性的勞動規(guī)章制度應充分征求勞動者意見,符合勞動者實際情況,顯然現(xiàn)有的算法自動化決策應用也并未與勞動者充分溝通。在算法自動化決策被用來做出勞動人事決策時,性別要素在其中是否影響以及如何影響決策、是否可能存在性別歧視,都應作為法院審查勞動規(guī)章合理合法性的重要內容。
第三,由于算法自動化決策具有不可解釋性,應擴大對于性別歧視結果的認定,將間接性別歧視納入勞動法規(guī)制的對象中。算法自動化決策可以以追求效率為最高目標,自動達成排除女性勞動者的決策結果,卻難以通過性別歧視的主觀意圖予以追責。這表明應重新認識勞動中的性別不平等,及時調整應對新類型性別不平等的法律與政策,并重新思考促進勞動性別平等的新機制?!秳趧臃ā贰毒蜆I(yè)促進法》《婦女權益保障法》《勞動合同法》中相關反性別歧視的規(guī)定均是針對直接性別歧視。數(shù)字時代的隱性性別歧視很難通過主觀意圖得到證明,而是應考察平臺用工性別不平等的形成機制,將性別不平等的結果作為認定性別歧視存在的標準,并以實質影響而非主觀故意作為性別不平等的衡量要素。
《數(shù)據(jù)安全法》《個人信息保護法》等相繼出臺,基本構建了中國對于算法自動化決策的規(guī)制框架。這些制度同樣適用于做出勞動人事決策的算法自動化決策。然而,針對算法自動化決策的法律規(guī)定較為原則和籠統(tǒng),需做出具體解釋并與技術監(jiān)管相配合,在算法自動化決策的數(shù)字化、畫像預測與評估三個階段予以規(guī)制。
第一,在勞動者數(shù)字化階段,雇主的個人信息使用需遵循必要正當與最小化的原則,避免將性別以及與性別相關的信息作為算法自動化決策的要素。根據(jù)《個人信息保護法》的規(guī)定,“處理個人信息應當具有明確、合理的目的,并應當與處理目的直接相關,采取對個人權益影響最小的方式。收集個人信息,應當限于實現(xiàn)處理目的的最小范圍,不得過度收集個人信息”。以勞動監(jiān)控與評價為目的的個人信息收集,應嚴守個人信息最小化的底線。如前文提到的收集勞動者血壓、心跳等生物信息,顯然已經超過了勞動監(jiān)控與評價的必要范圍。與此同時,雇主作為數(shù)據(jù)處理者要承擔《數(shù)據(jù)安全法》施以的數(shù)據(jù)安全保障義務,避免其保存與處理的員工個人數(shù)據(jù)泄露,因其處理的員工個人信息包括諸多敏感信息,如生物識別碼、社會保險號碼或銀行賬戶號碼。
第二,在畫像預測與評估的數(shù)據(jù)處理階段,雇主使用的算法自動化決策不得危害公共利益,尊重社會公德,性別平等也是其中應有之義?!稊?shù)據(jù)安全法》第八條規(guī)定:“尊重開展數(shù)據(jù)處理活動,應當遵守法律、法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,誠實守信,履行數(shù)據(jù)安全保護義務,承擔社會責任,不得危害國家安全、公共利益,不得損害個人、組織的合法權益?!蓖瑯?,《個人信息保護法》第二十四條也明確規(guī)定:“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正……通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定?!睉ㄟ^一系列實施細則,以及《勞動法》與《婦女權益保障法》的聯(lián)動,將算法自動化決策應保證性別平等作為司法實踐中確立的準則。
第三,應將算法自動化決策相關規(guī)制在勞動領域、女性勞動者權益保障領域進一步細化?,F(xiàn)階段,各部門法規(guī)規(guī)章及政策已經逐步在勞動領域觸及算法自動化決策的規(guī)制問題,但仍需在女性勞動者權益保障領域進一步細化。如2021年8月27日《互聯(lián)網信息服務算法推薦管理辦法(征求意見稿)》中明確規(guī)定:“算法推薦服務提供者向勞動者提供工作調度服務的,應當建立完善平臺訂單分配、報酬構成及支付、工作時間、獎懲等相關算法,履行勞動者權益保障義務。”2021年7月,國家相關部門發(fā)布《關于維護新就業(yè)形態(tài)勞動者勞動保障權益的指導意見》和《關于落實網絡餐飲平臺責任 切實維護外賣送餐員權益的指導意見》。兩部意見均體現(xiàn)了規(guī)制算法自動化決策、健全勞動者權益保障制度的精神。其中重要的政策包括要求企業(yè)使用算法自動化決策進行勞動任務分配等人事決策時,必須補齊勞動者權益保障短板。其一是要公示并允許勞動者參與規(guī)則制定(1)2021年7月16日,人力資源社會保障部、國家發(fā)展改革委、交通運輸部等八部門發(fā)布《關于維護新就業(yè)形態(tài)勞動者勞動保障權益的指導意見》,其中要求健全制度,補齊勞動者權益保障短板,“督促企業(yè)制定修訂平臺進入退出、訂單分配、計件單價、抽成比例、報酬構成及支付、工作時間、獎懲等直接涉及勞動者權益的制度規(guī)則和平臺算法,充分聽取工會或勞動者代表的意見建議,將結果公示并告知勞動者”。,其二是要確立算法自動化決策合理的勞動者績效考核標準(2)2021年7月26日,國家市場監(jiān)管總局、國家網信辦、國家發(fā)展改革委等七部門聯(lián)合印發(fā)《關于落實網絡餐飲平臺責任 切實維護外賣送餐員權益的指導意見》,對保障外賣送餐員正當權益提出全方位要求。規(guī)定網絡餐飲平臺及第三方合作單位要合理設定對外賣送餐員的績效考核制度,“優(yōu)化算法規(guī)則,不得將‘最嚴算法’作為考核要求,要通過‘算法取中’等方式,合理確定訂單數(shù)量、在線率等考核要素,適當放寬配送時限”。。在勞動者代表參與建議的過程中,應保證一定女性職工代表的比例,在訂單分配、報酬構成、獎懲的代碼化等勞動規(guī)則中嵌入性別平等要素。在確立勞動者績效考核指標時,“優(yōu)化算法規(guī)則,不得將‘最嚴算法’作為考核要求”,也應充分考慮到性別因素對于勞動者績效的影響,創(chuàng)建合理的勞動績效考核指標。法律法規(guī)要求勞動者參與算法規(guī)則制定實現(xiàn)勞動者的知情權已經成為世界立法趨勢。如西班牙修改了《工人章程》中關于工人知情權的第64條,要求平臺必須向工人的法律代表告知決定其工作條件的數(shù)學或算法公式。除此之外,雇主有義務就工作中使用“高風險”或“侵入性”人工智能咨詢工會意見。
保障女性勞動者在算法自動化決策中的權益,行政監(jiān)管與私權救濟不可偏廢。近兩年各國個人信息和數(shù)據(jù)立法中均涉及對個人在算法自動化決策中的私權救濟制度,應將其具體細化于女性勞動者權益保護領域,使得女性勞動者能夠通過私權救濟保障權益。
現(xiàn)有法律中保障女性勞動者權益的私權救濟路徑十分有限,這是基于社會生產效率與私權救濟成本的考量。在勞動者個人信息收集層面,《個人信息保護法》第十三條規(guī)定,基于人力資源管理收集個人信息無需個體知情同意。這就意味著,雇主在勞動者個人信息收集上具有相當大的權限,而其具體所受最小化與必要化限制尚無明確規(guī)定。在以私權保護著稱的歐盟《通用數(shù)據(jù)保護條例》中,也存在30多種基于公共利益的限制以及非經過數(shù)據(jù)主體同意可以進行數(shù)據(jù)收集的情形。算法自動化決策在勞動場所對勞動者數(shù)據(jù)收集、監(jiān)控與評估,使得勞動者個人早已自愿或被迫分享了大量個人信息。在勞動者個人信息處理期間,《個人信息保護法》規(guī)定個體有對自身數(shù)據(jù)的訪問權、更改權與刪除權。雇主應允許勞動者訪問在整個勞動期間產生的數(shù)據(jù),并有權刪除或糾正不準確或誤導性的數(shù)據(jù)。然而實踐中的情況是,勞動者對于算法自動化決策對自身的監(jiān)控與評估并不知情,更遑論訪問與修改。由于雇主與雇員實際并不平等的地位,即使知情,雇員也較難主張訪問與修改、刪除的權利。
在算法自動化決策結果的救濟層面,法律給予個體相應的救濟路徑?!秱€人信息保護法》第二十四條規(guī)定:“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正……通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定?!贝藯l可以從以下三個層面解釋細化,并在女性勞動者權益保護領域發(fā)揮重大作用。第一,雇主利用算法做出勞動人事決策,必須保證算法決策的透明度和結果公平公正。雇主有使用性別層面公平公正的算法自動化決策的義務,并且應該保證算法決策的權重與過程對勞動者透明。第二,雇主不得在沒有人為實質性參與或人工審核環(huán)節(jié)的情況下,僅使用算法做出對勞動者個人權益有重大影響的決策。勞動者可主張涉及招聘、晉升、解雇與懲罰的算法自動化決策對自身權益產生重大影響。這類勞動人事決策不應由算法自動化決策單獨做出,而必須經過人工的復核或人的實質性參與。第三,雇主利用算法做出對勞動者個人權益有重大影響的決策時,勞動者有權要求雇主予以說明。女性勞動者可主張,當其個人重大權益受到算法自動化決策影響時,雇主有必要對其中是否涉及性別因素以及如何做出此項決策提供必要說明。這一說明可作為女性勞動者主張勞動仲裁或提起勞動訴訟時的證據(jù)。鑒于《個人信息保護法》剛剛公布,有待司法實踐的進一步明確與具體化。
綜上所述,無論是傳統(tǒng)的勞動法制度還是新的個人信息與數(shù)據(jù)保護法規(guī),在應對女性勞動者在算法自動化決策中的權益保護問題上都面臨著挑戰(zhàn)。一方面這有賴于勞動法中有關性別平等制度的對算法自動化決策的擴大解釋,另一方面新的個人信息與數(shù)據(jù)法制度也亟待在實踐中具體細化。個人信息與數(shù)據(jù)法制度在女性勞動者權益保護上缺乏針對性,需要司法機關充分利用其來解決相應的女性勞動者權益保護案件以確立其指導意義。
消除算法自動化決策中的性別偏見,應確立專門針對性別偏見的制度框架,從算法設計、應用、補救等多個層面為女性勞動者提供專門支持。在勞動法與算法自動化決策規(guī)制的法律制度提供的一般性保護之外,仍應為實質性別平等構建專門的針對算法自動化決策性別歧視的相關社會制度。
應該如何解決人工智能和自動化中的性別偏見?最重要也是最初的步驟是將性別平等作為算法倫理予以確立,使得人工智能倫理道德標準中將性別平等作為重要的指標。
遺憾的是,影響力較大的幾個人工智能倫理制度都未將性別平等給予充分的考慮。例如《負責任的人工智能發(fā)展蒙特利爾宣言》沒有明確提到性別觀點,而AI4People組織發(fā)布的《良好人工智能社會的道德框架》只提到了性別的多樣性。經濟合作與發(fā)展組織(OECD)理事會關于人工智能的建議和20國集團的人工智能原則都強調了人工智能對減少性別不平等的重要性,但沒有提供如何實現(xiàn)這一目標的具體細節(jié)。
2019年8月,聯(lián)合國教科文組織發(fā)布的《北京共識——人工智能與教育》指出,要致力于開發(fā)不帶性別偏見的人工智能應用程序,并確保人工智能開發(fā)所使用的數(shù)據(jù)具有性別敏感性。該報告強調了人工智能應用程序應有利于推動性別平等,編碼者應該認識到算法的高效性、反復性和隱蔽性會導致編碼偏見,產生“差之毫厘,謬以千里”的災難性影響(3)參見《聯(lián)合國教科文組織正式發(fā)布國際人工智能與教育大會成果文件〈北京共識——人工智能與教育〉》,中華人民共和國教育部網站,http://www.moe.gov.cn/jyb_xwfb/gzdt_gzdt/s5987/201908/t20190828_396185.html。。如果放任算法自動化決策不重視性別平等,算法性別歧視的“車輪”會碾壓既有的社會性別平等成果。
在算法倫理中嵌入性別平等理念的重要方式之一,是將女性作為創(chuàng)造人工智能和算法自動化決策的積極參與者,而不僅僅是被動的接受者。由于78%的人工智能專業(yè)人員是男性,男性的經驗為算法的創(chuàng)建提供了參考和主導,無意識的性別偏見會對女性產生重大不利影響。根據(jù)世界經濟論壇與領英(LinkedIn)合作進行的一項關于性別差距的研究,只有22%的人工智能專業(yè)人士是女性。而在人工智能的一個分支——機器學習中,女性僅占主要研究人員的12%[16]。除了積極雇用更多的女性工程師外,人工智能和算法研發(fā)公司應該一開始就讓性別問題專家或婦女組織參與到算法的設計評估中來。女性可將自身性別意識與經驗充分融入人工智能和算法自動化決策的設計、開發(fā)和應用有關的所有步驟中。
應對數(shù)字時代的算法性別歧視,需建立覆蓋算法全生命周期的性別平等保障制度。應對算法自動化決策或嵌入或隱性的性別歧視,應從數(shù)據(jù)收集階段、數(shù)據(jù)處理階段和數(shù)據(jù)結果輸出階段全流程進行治理。
從數(shù)據(jù)收集階段開始,算法、人工智能和自動化的信息數(shù)據(jù)應按性別分列。避免數(shù)據(jù)由于不正確、不全面或不能代表受保護的群體時而具有的偏見性。正如研究發(fā)現(xiàn),“生活在大數(shù)據(jù)邊緣的人,無論是由于貧窮、地理或生活方式都比一般人的數(shù)據(jù)化程度低[17](P 15)。而女性群體的數(shù)據(jù)缺失,造成女性的經驗將無法為這些算法自動化決策提供信息,反過來可能會繼續(xù)使現(xiàn)有的對女性的性別偏見內在化。
在算法自動化決策應用階段,應重視性別間的平等使用。算法自動化決策的不平等使用有可能將婦女、老人等弱勢群體排除在數(shù)字經濟所帶來的機會之外,并由此延續(xù)進而加劇勞動力市場上現(xiàn)有的不平等。技術嵌入社會的進程不可避免,為保障社會機會平等,需要單獨為弱勢群體提供擺脫貧困或進入勞動力市場較高質量部分的途徑。這就需要國家依據(jù)公共利益,采取廣泛而積極措施,包括技能培訓、軟硬基礎設施和降低進入壁壘等專門政策。
促進性別平等需要除法律之外的社會制度的全面支撐。《聯(lián)合國工商業(yè)與人權指導原則》的性別框架為國家、公司和組織提供了一個有益的方案。該框架涉及三步循環(huán):促進性別平等的評估、促進性別平等的措施和促進性別平等的補救措施。該框架認為,促進性別平等的措施應該包括對婦女人權的不同的、交叉的和不相稱的不利影響的評估,而隨后的措施和補救措施應該能夠改變父權規(guī)范、不平等的權力關系和性別定型觀念(4)Valerio De Stefano,“Negotiating the Algorithm”:Automation,Artificial Intelligence,and Labor Protection,41 COMP.LAB.L.& POL’y J.15(2019).。
為消除算法自動化決策中的性別偏見,對算法外部的審計與評估不可或缺。雇主既應提前向勞動者公布算法自動化決策的規(guī)則,也應使勞動者了解算法自動化決策使用的數(shù)據(jù)與技術流程。除此之外,雇主應有其他預防方案,即引入外部監(jiān)督,請專門審計機器學習算法的公司進行驗證與評估工作[18]。這是由于盡管雇主和人力資源部門可以了解算法監(jiān)控與評估勞動過程的技術,但其并不具備數(shù)學和計算機的專業(yè)知識來自我檢查。算法的審計與評估應包括對算法與使用數(shù)據(jù)在運行階段的頻繁評估,以檢查是否有任何偏見(尤其是性別偏見),并制定解決偏見因素的決策。算法審計系統(tǒng)應構建對自動決策的準確性和相關性的定期審查,并應包括周期性地防止基于敏感數(shù)據(jù)的錯誤和不準確或歧視的程序和措施。這既有助于為日后的問責提供充分有效的信息,又符合鼓勵行業(yè)自律的自證合規(guī)原則。還需要在之前就設立不同算法的技術標準、測試程序,審核算法設計運行是否達到了相關標準。如美國平等就業(yè)機會委員會的《雇員甄選程序統(tǒng)一準則》,要求對機器學習算法進行審計,該規(guī)定適用于所有使用測試來做出就業(yè)相關決定的雇主。雇主應確保算法、數(shù)據(jù)輸入和目標與工作有關,并為該職位量身定做,而且算法的結果適合雇主的預期用途[19]。
在企業(yè)越來越多地使用算法自動化決策等技術工具來監(jiān)控、評估、指導勞動的情況下,對于算法自動化決策的審計與評估,實際上是對企業(yè)單邊權力的監(jiān)管與控制。算法自動化決策在性別歧視中的作用,實質上是壓縮女性勞動者的生存空間,也在合理化企業(yè)絕對的管理權力。算法自動化決策對勞動者數(shù)據(jù)的收集與分析具有較大的侵犯性,并可能導致性別歧視的實際結果。這不僅是對勞動者自主性、性別平等的侵害,甚至會進一步侵害勞動者的人格尊嚴。
數(shù)字時代,勞動者的數(shù)據(jù)化消解了人的主體性,將個體的人作為可量化的數(shù)據(jù),將群體的人當做可以被控制、分解、改變、交易、消費的數(shù)據(jù)庫,成為數(shù)字時代的“物化”(reification)方式。勞動者也在此過程中從決策的主體淪為被決策的客體。在此過程中,原有的弱勢群體更容易受到算法自動化決策的侵害。數(shù)字時代,算法自動化決策將日益滲透到勞動人事決策與其他工作場所中,以“潤物細無聲”的方式影響無數(shù)人。未來的幾十年,在算法自動化決策層面能夠促進還是惡化性別平等現(xiàn)狀,將決定女性勞動者在人工智能時代的社會地位。從算法自動化決策的數(shù)據(jù)收集層面、算法畫像與預測層面,以及勞動監(jiān)控和評估層面,都應積極進行性別平等的相關制度建設,通過擴大傳統(tǒng)勞動法適用范圍,在個人信息和數(shù)據(jù)法層面深化性別保護視角,創(chuàng)造未來數(shù)字時代性別平等的勞動環(huán)境。