□ 文 趙遲遲 劉 森
大數(shù)據(jù)時代,算法的自動化決策深度嵌入公私各領域,雖在效率提升、成本控制、精準度提高等方面有所裨益,但也復刻甚至強化了偏見與歧視。置身于“算法社會”,如何克服算法歧視,保證算法公平實值思考。在規(guī)制策略上,相較于以往技術層面的解決方案,法律規(guī)制不僅能夠避免技術治理陷入失靈困境,亦能為受害者提供妥善救濟,將算法的社會危害性降至最低。正因如此,本文著眼于算法歧視的法律規(guī)制研究,在厘清歧視成因的基礎上借鑒域外有益經(jīng)驗,通過構建本土化規(guī)制路徑來為今后的算法安全立法提供理論參考。
追根溯源,算法決策的不透明既源于算法的復雜性、專業(yè)性所建構的技術壁壘,又出于保護商業(yè)秘密的特別需要。
長期以來,人們一直認為算法只注重效率和準確性而不會受到人為因素的影響,但算法歧視的出現(xiàn)徹底改變了此種“算法中性”理念。一方面,與計算機領域盛行的GIGO定律相對應,在算法領域,同樣存在“Bias in,Bias out”(簡稱“BIBO”)的類似表述。倘若輸入數(shù)據(jù)內(nèi)含不公正要素,輸出結果亦將帶有歧視性色彩;另一方面,算法是計算機系統(tǒng)中的運行操作流程,表現(xiàn)為由專業(yè)人員編寫的一連串源代碼或數(shù)學程式。在此過程中,算法開發(fā)者極有可能將自我偏見投射到算法之中。另外,人為歧視亦可能在人無意識的狀態(tài)下實現(xiàn)對算法的深度嵌入。
首先,輸入數(shù)據(jù)的確定,主要靠隨機抽樣。不同類型的數(shù)據(jù)之間存在多寡之分,能夠被抽中成為樣本的數(shù)據(jù)往往是在統(tǒng)計上占多數(shù)族群的那一類,一些稀有但重要的數(shù)據(jù)就可能不被選上;其次,人應用算法并不苛求其能夠做到絕對精準,在實際運作中更加追求“決策性價比”。對于部分量少的數(shù)據(jù),算法極有可能將其歸入量多的數(shù)據(jù)之中,或者直接作為錯誤數(shù)據(jù)而舍棄。如此一來,不但無法保證樣本數(shù)據(jù)的多樣化,還將直接影響決策結果的公正與合理。
算法決策的透明度缺失,如同一個“黑箱”。對普通公眾而言,其所能知曉的只有最終的決策結果,決策流程、依據(jù)以及方式等內(nèi)容均無從得知。即便公開算法源代碼,缺乏專業(yè)知識的人所看到的也僅是由0和1組成的字符串,仍然難以理解。追根溯源,算法決策的不透明既源于算法的復雜性、專業(yè)性所建構的技術壁壘,又出于保護商業(yè)秘密的特別需要。
透明度的缺失為算法歧視提供了便利的生成空間。首先,算法“黑箱”帶來天然的技術屏障,在技術控制力得到強化的同時,“算法作惡”的可能性大為提升;其次,決策過程的不可描述使得算法極易通過不成比例的數(shù)據(jù)聯(lián)結出相關性,因降維挖掘,各種隱性歧視隨之產(chǎn)生;最后,決策當事人存在明顯的信息劣勢,即便存在差別待遇,受不利影響的當事人亦因信息隔絕而不自知。
基于強大的算力優(yōu)勢與深度的自主學習能力,加之算法“黑箱”所提供的可操作化空間,算法正日益擺脫“工具性”的角色定位,取而代之的則是社會資源調配能力的顯著增強。算法正日益形成一種介乎于公私權利之間的“準公權力”,即“算法權力”。對于權力,需要構建起完善的監(jiān)督制約機制,否則任由其“野蠻生長”,必然造成權力異化。就算法權力而言,現(xiàn)行法律的規(guī)制不足使其得以進一步擴張,在異化過程中逐步侵蝕公民權益空間,引發(fā)算法歧視、算法合謀等社會問題。
美國的算法歧視規(guī)制側重于對結果的審查,一旦發(fā)現(xiàn)特定群體遭受不公正對待,將對有關主體進行問責。2017年12月,紐約市議會通過了《政府部門自動決策系統(tǒng)法案》(以下簡稱《系統(tǒng)法案》)。作為美國首部算法治理法案,《系統(tǒng)法案》確立了以“外部問責”為核心的算法規(guī)制方向,形成了以問責為主要手段的規(guī)制策略。隨后,美國國會議員又提出了首個聯(lián)邦層面的人工智能法案——《算法問責法案》(以下簡稱《法案》),并于2022年2月推出了《法案》的2.0版本?!斗ò浮吠瑯硬尚袉栘熤?,但在問責之前又規(guī)定了事前評估與事中審查兩項基本義務。一方面,被涵蓋實體,即聯(lián)邦貿(mào)易委員會所管轄的任何個人、合伙企業(yè)或公司在使用新的自動化決策系統(tǒng)做出關鍵決策前,應當進行系統(tǒng)化的影響評估,并提交相應的評估總結報告;另一方面,在決策過程中,被涵蓋實體需要自行審查所用技術是否存在對人的不公正對待。而一旦造成歧視性后果,被涵蓋實體則需要及時提出補救或減輕措施。
算法權力異化引發(fā)“權力—權利”失衡,個體因權利缺失而受算法制約。為此,以《通用數(shù)據(jù)保護條例》(以下簡稱《GDPR》)為基礎,歐盟主張讓普通公民享有更多算法權利以擺脫算法的支配與控制,從而有效抑制算法歧視。第一,《GDPR》在前言部分直接規(guī)定數(shù)據(jù)控制者應當采取合適措施以確保個人數(shù)據(jù)安全,防止因種族或民族起源等原因而對自然人產(chǎn)生歧視性影響;第二,賦予公民知情權。在任何情況下,公民都有權知曉自動化決策的具體情況并表達個人觀點或作適當干預,數(shù)據(jù)控制者亦應提供與算法邏輯相關的有意義信息;第三,賦予公民拒絕權。公民有權在任意時間拒絕或撤回同意與其相關的各種數(shù)據(jù)處理活動,包括可能對其產(chǎn)生歧視性影響的自動化決策活動。在無例外情況下,公民并不受限于依靠自動化數(shù)據(jù)處理的決策結果,且不得建立在特殊類別的個人數(shù)據(jù)基礎上。
公平是社會的重要價值之一,算法歧視正是對公平理念的背離,故而有必要重塑算法公平理念,將偏離的價值取向予以糾正。首先,算法公平應貫穿算法運行的全過程,保證過程公平與結果公平。一方面,過程公平端賴于運行前偏見數(shù)據(jù)的剔除,運行中操作流程的透明度提高以及運行后決策結果的審查與調適;另一方面,結果公平不僅是形式上的“人人平等”,更應是綜合個體差異、行業(yè)類別、社會影響等諸要素的實質平等;其次,法律的算法和算法的法律不應成為一個閉環(huán),它們之間必須有人作為起點和終點。作為算法運行的直接參與者與主要控制者,開發(fā)者與使用者均應秉持公平理念,對算法歧視保持高度警惕。算法開發(fā)者不但需要在設計算法時避免將自我偏見嵌入算法,還應當在設計完成后進行試運行以確保算法公平。算法使用者則需要對算法的運作過程作全方位掌控,及時發(fā)現(xiàn)并排除任何可能影響算法公平的因素;最后,算法歧視本質上是對社會偏見的映射,重塑算法公平理念應盡力消除現(xiàn)實社會中的偏見與歧視,從整體上營造反歧視氛圍。而構建公平社會,需要全體成員的共同關注與參與,通過加強德行教育以使公平正義理念深入人心,積極引導社會成員知善、向善和行善,做到行為向善、科技向善。
一方面,權力本身應受制約,需從內(nèi)部明確算法適用范圍與權力行使程序;另一方面,算法權力與普通公眾力量對比懸殊,應從外部賦予公民權利以對抗算法權力。
3.2.1 算法權力的內(nèi)部規(guī)制
首先,并非任何領域都需要且可以由算法作出決策。根據(jù)參與決策的不同程度,可將算法適用范圍劃分為絕對允許區(qū)、相對禁止區(qū)與絕對禁止區(qū)。在絕對允許區(qū),各種繁重且復雜的工作可全然交由算法完成,而在相對禁止區(qū),算法僅可為輔助性工具,關鍵決策依然由人作出。至于絕對禁止區(qū),因決策事項能對特定個人或群體產(chǎn)生法律效力,故整個決策過程應由人獨立完成,算法并不能介入其中;其次,在權力行使上應引入行政法上的正當程序原則,但需作適度調適以契合權力運行的實際情況。具體而言,除一般意義上的告知、陳述、申辯等程序外,應特別增加提升算法可見性的程序,以確保算法權力實時處于被監(jiān)督狀態(tài),相對人能對權利運行作整體把握與評估,從而有效防止權力異化,降低損害發(fā)生概率。
3.2.2 算法權力的外部規(guī)制
第一,賦予公民控制權,包括算法決策控制權與個人數(shù)據(jù)控制權。公民既有權依憑個人意愿決定是否將某一事項的決策權讓渡給算法,又享有個人數(shù)據(jù)自決權,包括數(shù)據(jù)處理前的知情同意權、數(shù)據(jù)處理中的異議權以及數(shù)據(jù)處理后的刪除權。第二,賦予公民解釋權。當利用算法對相對人作出不利決定時,算法開發(fā)者與使用者應向相對人闡明原因、依據(jù)、過程、邏輯以及意義。倘若拒絕解釋或解釋不當,則意味著算法決策確有失范之處,相對人不但可以要求算法使用者采取糾正措施,改正算法錯誤,亦有權直接退出算法決策并追究有關主體的法律責任。
為防范算法歧視,有必要構建算法審查制度。
為防范算法歧視,有必要構建算法審查制度。首先,受制于算法技術壁壘與算法隱性歧視,包括決策相對人在內(nèi)的普通群眾并無能力審查出算法錯誤。而倘若要求算法所有者進行自我審查與評估,又將徒增運營成本,且可信度有限,難以收到預期效果。鑒于此,就審查主體而言,較為可行的方式應是另行設置專門的算法審查機構,即算法審查委員會(以下簡稱“算委會”)。算委會主要由計算機、人工智能等領域的專業(yè)人員與法律專家所組成,并可適度吸納部分工商業(yè)代表與普通群眾以滿足各方主體的利益訴求。算委會相對獨立,與決策當事人不存在任何利益沖突,專職負責算法安全審查工作;其次,就具體流程而言,算法所有者應在算法開發(fā)后、投入使用前向算委會提交有關材料,包括算法的基本信息、遵循的技術標準、應用范圍以及風險預測和控制等。算委會在收到材料后應立即開展審查工作,一旦發(fā)現(xiàn)被審查算法存在歧視風險,有權將材料退回并要求算法所有者及時改進算法。算法審查以二次為限,倘若經(jīng)二次審查后仍有歧視可能,算委會便可將該問題算法直接剔除,禁止投入使用。對于未經(jīng)審查而擅自使用者,算委會有權叫停并對相關責任人給予處罰。除此之外,為避免算法所有者出于經(jīng)濟利益的考量而在通過事前審查后又擅自改變運行邏輯以致另生歧視風險情況的發(fā)生,算委會應當開展不定期的動態(tài)審查,實現(xiàn)對算法的全過程監(jiān)督與管理;最后,在歧視的判斷問題上,學界存在以主觀意圖為標準的“差別待遇說”與以客觀結果為標準的“差別性影響說”。相比較而言,“差別待遇說”存在虛置可能,采行“差別性影響說”更為妥當。一方面,算法歧視具有高度隱秘性,在難以識別的情況下欲證明算法所有者具有歧視意圖較為困難;另一方面,算法所有者的主觀偏見僅為算法歧視的成因之一。受多種因素影響,即便不存在人為歧視,亦可能產(chǎn)生歧視現(xiàn)象,造成損害后果。這意味著算法歧視中,由于缺乏歧視意圖這一主觀要件,“差別待遇說”將面臨適用困境。
前述措施失靈,算法歧視已然產(chǎn)生,需要引入問責機制以救濟受害者。首先,算法決策當事人能力有限,即便遭受算法歧視,一般也無法通過私力救濟維護自身合法權益。加之算法決策具有反復和普遍性,更易造成群體性的不公正,故而引入集體訴訟制度更加符合現(xiàn)實需要;其次,因算法歧視而侵權并不適用傳統(tǒng)的因果關系理論,算法決策依據(jù)的是相關關系。因果關系必定是相關關系,但相關關系卻不一定是因果關系。進一步言,算法決策注重對數(shù)據(jù)的量化分析,不同輸入數(shù)據(jù)間當存一定相關性,否則將嚴重影響算法決策的精準性。根據(jù)皮爾遜相關系數(shù),相關系數(shù)r的絕對值大于或等于0.8,就可稱變量間具有極強相關性。有鑒于此,在算法問責的場域內(nèi),宜將0.8作為標準系數(shù)。倘若數(shù)據(jù)間的相關系數(shù)未達到0.8,則說明算法模型不盡合理,決策結果亦存在可能導致對人不公正對待的錯誤;再次,鑒于信息鴻溝的當然存在,在舉證責任的分配問題上,不宜沿用傳統(tǒng)的“誰主張,誰舉證”的舉證規(guī)則,較為妥適之法應是由更具舉證優(yōu)勢的算法開發(fā)者與使用者承擔舉證責任,證明其為確保算法公正而在主觀上不存在任何故意或過失,客觀上也已經(jīng)采取了必要措施,履行了應盡義務;最后,算法應用場景廣泛,不同場景下所關涉的利益主體與形式存有差異,生成的算法歧視的影響力與危害性亦有所區(qū)別。例如,由犯罪預測算法所引發(fā)的種族歧視給相對人造成的損害是巨大的,而由服務推薦算法所帶來的價格歧視對消費者的影響則相對較小。為此,就算法責任的承擔方式而言,應當具體問題具體分析,先根據(jù)具體情況確定不同級別的問責標準,再基于問責標準在民事、行政以及刑事責任中作出精細化選擇,要求責任人承擔以上三種責任之一種或多種。
大數(shù)據(jù)時代,算法基于強大的技術優(yōu)勢而前景廣闊。但我們不能就此陷入“技術烏托邦”之中,算法背后所隱藏的風險以及在應用過程中暴露出的問題同樣不容忽視,算法歧視便為其中之一。應當看到,算法技術不僅帶來偏見與歧視,亦在一定程度上改變了歧視樣態(tài),給傳統(tǒng)歧視規(guī)制帶來深刻挑戰(zhàn)。現(xiàn)階段,我國對算法歧視缺乏應有重視,尚未形成系統(tǒng)完備的法律規(guī)制體系,因而有必要加強國際合作,積極探索符合國情的本土化規(guī)制路徑。誠然,從法律層面規(guī)制算法歧視的具體舉措并不限于上文所述,但所有的規(guī)制措施,都須以人為本,努力維護人的主體價值。唯有如此,方能在推動算法技術進步的同時營造平等公正的技術氛圍,有效應對算法歧視帶來的風險與挑戰(zhàn)。