劉玉綽
隨著人工智能技術(shù)的快速發(fā)展,人類已經(jīng)邁進了大數(shù)據(jù)時代,算法(Algorithm)作為一門新興技術(shù)已被廣泛運用于人類的工作及生活中,如公司招聘、學(xué)校招生、警察偵辦案件、法官審判案件、銀行信貸、公司商品交易等活動對算法愈加倚重①鄭智航、徐昭曦:《大數(shù)據(jù)時代算法歧視的法律治理與司法審查——以美國法律實踐為例》,《比較法研究》2019年第4期,第111-122頁。。但是,任何事物均具有兩面性,算法在便利人類工作及生活的同時,也為人類在工作及生活中受到不公平待遇(算法歧視)埋下了隱患。當下算法歧視涵蓋性別歧視、種族歧視、信仰歧視、就業(yè)歧視、教育歧視、算法定價共謀、算法“殺熟”等類型,這表明算法歧視已侵蝕到個人基本權(quán)利、市場經(jīng)濟秩序以及個人經(jīng)濟利益等“肌體”①劉友華:《算法偏見及其規(guī)制路徑研究》,《法學(xué)雜志》2019年第6期,第55-66頁。,算法歧視問題儼然已成為亟須解決的社會問題。根植于資本內(nèi)部的算法歧視已經(jīng)危及到市場經(jīng)濟秩序的穩(wěn)定,亟須予以規(guī)制,國家也開始了大力的監(jiān)督工作。例如,國家市場監(jiān)督管理總局于2021年4月16日對阿里巴巴以實施壟斷行為為由罰款182億元,2021年4月26日又對美團以涉嫌實施“二選一”②“二選一”是指平臺利用優(yōu)勢地位和經(jīng)營者對其的依賴性,采取不正當手段強迫經(jīng)營者在平臺間進行唯一選擇。例如某電商平臺為了壟斷市場,要求商家只能在本平臺經(jīng)營,否則不再合作或?qū)ζ溥M行打擊。“二選一”是濫用市場支配地位的表現(xiàn),降低了社會效益,損害消費者權(quán)益。等壟斷行為為由宣布立案調(diào)查,唯品會、騰訊、百度等互聯(lián)網(wǎng)企業(yè)皆曾因壟斷問題受到了相應(yīng)處罰。筆者單通過知網(wǎng)對“算法歧視”進行檢索發(fā)現(xiàn),學(xué)界已發(fā)表有關(guān)算法歧視的期刊論文總計216篇(截至2021年12月底),其中,2004年1篇,2014年1篇,2017年2篇,2018年5篇,2019年46篇,2020年76篇,2021年85篇。不難看出,有關(guān)算法歧視的較為廣泛的研究從2019年才開始,并呈現(xiàn)逐年遞增趨勢。
從當前國家算法歧視治理現(xiàn)狀來看,雖然學(xué)界對算法歧視問題已進行了一系列研究,但對國家算法歧視治理的理論導(dǎo)向作用整體來看仍成效甚微。因此,極有必要立足于學(xué)界現(xiàn)有理論研究成果,對平等權(quán)進行憲法規(guī)范層面的解讀,并展開其憲法功能,為國家算法歧視治理體系與治理能力現(xiàn)代化提供憲法價值性指引,以增進算法歧視問題的治理實效。
算法是計算機領(lǐng)域的專業(yè)術(shù)語,是指為了達到特定的目的,運用一定復(fù)合控制結(jié)構(gòu)所設(shè)置的規(guī)則進行計算的方法。通俗地講,人們可以基于特定目的,在計算機特定軟件中輸入特定的指令,通過軟件的運行計算,得出決策。算法具有通用性、有效性、有窮性和確定性等特征,其中,通用性指算法能夠被重復(fù)應(yīng)用,有效性指算法能夠被有效執(zhí)行,有窮性指算法計算步驟有限,確定性指算法指示應(yīng)明確③張銘、王騰蛟、趙海燕:《數(shù)據(jù)結(jié)構(gòu)與算法》,北京:高等教育出版社2008年版,第11-12頁。。以上特征為算法的可操作性及易操作性提供了保障,再加之算法能夠突破人類計算能力的局限,幫助人類進行科學(xué)、高效決策,基于此頗受青睞,甚至有一部分人盲目認為算法可以“包治百病”,能為社會事務(wù)的決策提供最優(yōu)方案。但可以肯定的是,算法是柄雙刃劍,其在一定程度上可以放大人類的歧視,進而危及市場經(jīng)濟、民主政治、平權(quán)文化、和諧社會、綠色生態(tài)的協(xié)調(diào)發(fā)展。
歧視是道德與法律層面均明確禁止的范疇,算法歧視亦不例外。早在1996年,美國學(xué)者巴蒂亞·弗里德曼、海倫·尼森鮑姆就對算法歧視進行過相應(yīng)研究,將計算機系統(tǒng)的偏見分為先行存在性偏見、技術(shù)性偏見和突發(fā)性偏差。國際頂尖刊物《自然》《科學(xué)》均刊載過相關(guān)研究成果,論證了計算機能夠產(chǎn)生偏見,尤其是當計算機向人類學(xué)習(xí)時,類似情形則更為突出。例如,谷歌公司的照片軟件曾將黑人照片標為大猩猩,其在線廣告系統(tǒng)向男性推送高收入工作的頻率要遠遠高于女性。非盈利新聞機構(gòu)ProPublica于2016年公布的一項調(diào)查報告顯示,通過計算機對犯罪進行預(yù)測,黑人的預(yù)測犯罪率要遠高于白人①李本:《美國司法實踐中的人工智能問題與挑戰(zhàn)》,《中國法律評論》2018年第2期,第54-56頁。。結(jié)合算法與歧視的意涵,算法歧視宜定義為:算法在運用復(fù)合控制結(jié)構(gòu)所設(shè)置的規(guī)則進行計算的過程中,基于性別、種族、國家、信仰、年齡、受教育程度所產(chǎn)生的偏見現(xiàn)象。
綜合分析算法歧視的諸多類型,從所侵害利益的主體與屬性出發(fā),可以將算法歧視劃分為侵害公民基本權(quán)利的算法歧視、侵害競爭性利益的算法歧視、侵害個人民事權(quán)益的算法歧視等②劉友華:《算法偏見及其規(guī)制路徑研究》,《法學(xué)雜志》2019年第6期,第55-66頁。。其中,侵害公民基本權(quán)利的算法歧視主要表現(xiàn)在性別歧視、種族歧視、信仰歧視、教育歧視、勞動歧視等方面;常見的侵害競爭性利益的算法歧視主要指算法共謀,即經(jīng)營者之間利用算法形成某種合謀,以實現(xiàn)操縱市場的壟斷目的;侵害個人民事權(quán)益的算法歧視最常見的就是大數(shù)據(jù)“殺熟”,商家通過算法對消費者的身份、消費喜好、消費記錄、消費能力等進行綜合評判,并在此基礎(chǔ)上做出不同的營銷策略,打破了“同物同價”的傳統(tǒng)銷售模式。
再者,從運作特征或模式出發(fā),可以將算法歧視劃分為偏見代理型、特征選擇型、大數(shù)據(jù)“殺熟”型等。其中,偏見代理型算法歧視呈現(xiàn)出“中立進—偏見出”的運行特征,即決策者在算法機器中輸入了中立的數(shù)據(jù),卻得出了帶有歧視性的結(jié)果。例如,在犯罪預(yù)測算法中對郵政編碼過分強調(diào),容易導(dǎo)致犯罪預(yù)測高發(fā)區(qū)與黑人居住區(qū)產(chǎn)生關(guān)聯(lián),進而構(gòu)成種族歧視。特征選擇型算法歧視采取了“偏見進—偏見出”的運行模式,即決策者在算法機器中直接輸入諸如種族、性別等帶有偏見的信息,以求得出帶有偏見的計算結(jié)果。例如,當人們利用谷歌引擎搜索黑人名稱時,頁面彈出來的多是關(guān)于犯罪的信息。大數(shù)據(jù)“殺熟”型算法歧視主要表現(xiàn)為通過對計算機過往數(shù)據(jù)不斷進行學(xué)習(xí),然后采取價格歧視、特定推送等手段,實現(xiàn)“同物不同價”目的。
1.算法運行機理的分解。傳統(tǒng)意義上,人類在解決某種問題之前,大腦中會進行相應(yīng)的思維活動,然后根據(jù)該思維活動的結(jié)果做出某種決策,以實現(xiàn)問題的解決。在當下人工智能時代,算法將人的抽象思維轉(zhuǎn)換成計算機能夠理解的源代碼形式,以確保人的抽象思維能夠被計算機所感知③胡小偉:《人工智能時代算法風(fēng)險的法律治理》,《湖北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2021年第2期,第120-131頁。。簡而言之,人類將解決某種問題的思維通過代碼編輯的形式予以固化,然后在基于該代碼編輯所形成的計算機程序中輸入相應(yīng)數(shù)據(jù)并予以驅(qū)動,為問題的解決提供某種策略,此即算法運行的一般機理。
經(jīng)過對算法運行機理分解可知,算法可劃分為算法設(shè)計、算法開發(fā)、算法應(yīng)用三個發(fā)展階段(圖1)。其中,算法設(shè)計是人的邏輯思維的語言描述,算法設(shè)計者想要運用算法解決某種問題,首先需要將解決該問題的邏輯思維通過語言形式予以描述,然后交由算法開發(fā)者運用諸如BASIC、C++、HTML、JAVA等計算機語言編輯代碼的形式轉(zhuǎn)化為源代碼(又稱源程序)。算法應(yīng)用是驅(qū)動源代碼進行算法決策的程序,一般呈現(xiàn)出“數(shù)據(jù)輸入→計算→決策輸出”(圖1中A→B→C)的運行模式。但是,隨著算法技術(shù)的演化,部分算法機器具備了學(xué)習(xí)功能,算法機器能夠通過快速分析數(shù)據(jù)以實現(xiàn)模型“優(yōu)”化,接下來便由“優(yōu)”化后的機器對數(shù)據(jù)進行計算,以作出決策,該種應(yīng)用呈現(xiàn)出“數(shù)據(jù)輸入→計算→計算+→決策輸出”(圖1中A→B→B+→C)的運行模式??偠灾惴M跨邏輯實現(xiàn)與代碼實現(xiàn)兩大領(lǐng)域,實現(xiàn)了人類世界與程序世界的無縫對接。
圖1 算法運行機理圖示
2.算法歧視的觸發(fā)機制。受巴蒂亞·弗里德曼、海倫·尼森鮑姆對計算機偏見分類的啟示,本文從先行性、技術(shù)性、突發(fā)性三個層面對算法歧視的觸發(fā)機制進行探究。其中,先行性層面的觸發(fā)機制主要由于算法被人為嵌入某種偏見或者某種文化體制、政治制度等參數(shù)。鑒于算法開發(fā)者是按照算法設(shè)計者的指示行事,因此,先行性層面的觸發(fā)機制一般發(fā)生在算法設(shè)計階段(圖1)。技術(shù)性層面的觸發(fā)機制主要是因技術(shù)瓶頸引發(fā)的程序運行受限所致,其根源在于算法開發(fā)階段,結(jié)果產(chǎn)生于算法應(yīng)用階段(圖1)。突發(fā)性層面的觸發(fā)機制多是由于程序運行發(fā)生意外或者新知識的習(xí)得等原因所致,其發(fā)生于算法應(yīng)用階段(圖1),尤其是隨著算法學(xué)習(xí)能力的增強,這種突發(fā)性觸發(fā)機制導(dǎo)致的算法歧視正不斷增加,且其透明度較低,不易監(jiān)管。
平等為憲法的發(fā)展奠定了基礎(chǔ),經(jīng)歷了從道德形態(tài)向權(quán)利形態(tài)演變的歷史過程。平等最初是人的樸素情感及尊嚴感派生的道德準則。伴隨著資產(chǎn)階級革命的爆發(fā),法國《人權(quán)宣言》以法律的形式明確規(guī)定了平等權(quán),標志著平等開始由道德向基本權(quán)利過渡①阿部照哉、池田政章、初宿正典、中松秀曲:《憲法——基本權(quán)利篇(下冊)》,周宗憲譯,北京:中國政法大學(xué)出版社2006年版,第41頁。。受社會歷史條件的影響,平等權(quán)經(jīng)歷了由強調(diào)形式平等向?qū)嵸|(zhì)平等的觀念轉(zhuǎn)變。法國大革命時期的平等權(quán)注重機會平等,直至1919年《魏瑪憲法》問世,平等權(quán)才被賦予了實質(zhì)平等的內(nèi)涵,開始關(guān)注結(jié)果上的平等。目前來看,基本上所有的國家都以憲法或法律的形式對平等權(quán)作出了規(guī)定,一些國際公約及文件對平等權(quán)作出的規(guī)定更是推動平等權(quán)成為全球公認的基本權(quán)利。
除《憲法》第33條第2款(法律面前人人平等)之外,我國《憲法》第4條第1款(民族平等)、第5條第5款(反對特權(quán))、第33條第4款(平等享有權(quán)利和履行義務(wù))、第34條(選舉平等)、第36條第2款(信仰平等)、第48條第1款(性別平等)等條款亦對平等作出了規(guī)定。平等已經(jīng)完成了由道德形態(tài)向權(quán)利形態(tài)過渡,其作為基本權(quán)利已經(jīng)被絕大多數(shù)國家通過憲法或法律確認,我國簽署及加入的國際公約也均將其規(guī)定為基本權(quán)利,為了與國際接軌以及履行國際公約,有必要將平等視為基本權(quán)利。再者,《憲法》第33條第2款位于我國現(xiàn)行《憲法》“基本權(quán)利與義務(wù)”章節(jié),說明國家也有意將其作為基本權(quán)利。至于論證平等是否為憲法原則,有必要從陳征教授就平等權(quán)的分類談起,其將平等權(quán)分為一般平等權(quán)(法律面前一律平等)與特別平等權(quán)(民族平等、信仰平等、男女平等)①陳征:《我國憲法中的平等權(quán)》,《中共中央黨校學(xué)報》2010年第5期,第87-90頁。。然而,陳征教授就平等權(quán)的分類有待商榷。民族平等條款位于憲法總綱部分,盲目將其視為基本權(quán)利,可能會混淆總綱和基本權(quán)利與義務(wù)的邊界。信仰平等是宗教信仰自由的組成部分,將其獨立出來可能會割裂宗教信仰自由的完整性。男女平等條款的著力點在婦女權(quán)利上,該條款的最終目的是保護婦女權(quán)利,平等僅是噱頭。筆者認為,與其作這種劃分,我們不妨肯定平等之憲法原則屬性,如此恰可以實現(xiàn)其對民族平等、信仰平等、男女平等的指引功能。也就是說,平等相對于民族平等、信仰平等、男女平等是一項憲法原則,為后者的踐行提供了原則性指引??偠灾?,平等兼具憲法原則與基本權(quán)利雙重屬性;只將平等權(quán)歸為憲法原則,無視其基本權(quán)利屬性,不利于平等權(quán)價值的實現(xiàn);只將平等權(quán)歸為基本權(quán)利,無視其憲法原則特性,將導(dǎo)致其功能不完整。
綜合我國簽署及加入的上述國際公約和現(xiàn)行憲法平等條款的有關(guān)規(guī)定,平等權(quán)的內(nèi)容主要包括以下四個方面:(1)法律面前人人平等。即所有公民在法律執(zhí)行、適用、遵守方面一律平等,強調(diào)的是法律范圍內(nèi)的平等。(2)禁止歧視。綜合國際公約的規(guī)定,歧視可被定義為被法律所禁止的,以種族、性別、信仰、民族、財產(chǎn)等為理由,對特定主體實施的旨在限制或剝奪其權(quán)利的行為。當前歧視禁止已經(jīng)成為全球共識。(3)反對特權(quán)。特權(quán)就是某人或群體基于其某種優(yōu)勢在經(jīng)濟、政治、社會等層面所享有的特殊權(quán)利或權(quán)力。文明社會不應(yīng)有特權(quán)存在的空間,特權(quán)理應(yīng)被禁止。(4)合理差別。合理性的差別是符合我國憲法精神實質(zhì)的,無差別的絕對平等容易導(dǎo)致實質(zhì)的不平等。因此,有必要采用合理差別原則,彌補某些人或群體因自然或其他正當原因造就的劣勢,促成實質(zhì)平等。
德國憲法理論認為,基本權(quán)利具有“主觀權(quán)利”與“客觀法”雙重性質(zhì),該理論為憲法上平等權(quán)性質(zhì)與功能的探究具有重要的指引意義。
1.作為主觀權(quán)利的平等權(quán)。作為主觀權(quán)利,平等權(quán)是指公民基于憲法上的平等權(quán)要求公權(quán)力機關(guān)為或不為某種行為的權(quán)利。防御權(quán)功能是憲法平等權(quán)的首要功能,即防止公權(quán)力機關(guān)對平等權(quán)的行使不正當干預(yù)(圖2)。防御權(quán)功能最早提出于德國聯(lián)邦憲法法院的呂特案中,現(xiàn)已成為憲法學(xué)界較為流行的概念。我國憲法中的平等權(quán)也具有防御權(quán)功能,即公民個人可以與其他人平等地進行一系列活動,公權(quán)力機關(guān)不得非正當干涉。同時,平等權(quán)還具有受益權(quán)功能(圖2)。受益權(quán)功能是指公民基于某種利益的享受要求公權(quán)力機關(guān)為某種行為的功能。那么,我國憲法中平等權(quán)的受益權(quán)功能表現(xiàn)為公民基于某種利益的平等享受而要求公權(quán)力機關(guān)為某種行為的功能。比如,婦女、身高矮的公民、有乙肝病史的公民要求公權(quán)力機關(guān)采取某種措施,保障其平等地獲得就業(yè)機會。一般而言,憲法具有抽象性,無法為公民某種利益的平等享受提供具體的救濟路徑,這就需要國家通過立法予以保障。但是,當所依據(jù)的立法存在滯后或者缺失時,此時應(yīng)對公民依據(jù)平等權(quán)請求公權(quán)力機關(guān)為某種行為的積極意義予以肯定。
2.作為客觀法的平等權(quán)。作為客觀法的平等權(quán)向公權(quán)力機關(guān)提供了相應(yīng)的客觀價值秩序行為準則,為平等權(quán)的實現(xiàn)奠定了物質(zhì)性基礎(chǔ)。平等權(quán)的客觀秩序價值功能又可以進一步細分為以下功能(圖2):
圖2 平等權(quán)的雙重性質(zhì)及其相應(yīng)功能圖示
(1)制度性保障功能。德國學(xué)者卡爾·施密特最早提出制度性保障的目的是界分“制度”與基本權(quán)利,彼時基本權(quán)利要么被視為一種純粹的綱領(lǐng),要么被置于法律保留之下,其對立法機關(guān)的約束力有限,后者甚至可以通過立法將其架空。施密特為了規(guī)避基本權(quán)利的這種困境,對一些重要事項提出了制度性保障,以求為其提供憲法層面的特殊保護①《魏瑪憲法》第105條關(guān)于禁止設(shè)置例外法院的規(guī)定;第119條關(guān)于婚姻是家庭生活的基礎(chǔ)的規(guī)定;第139條關(guān)于星期日為休息日的規(guī)定;第103條關(guān)于職業(yè)公務(wù)員隊伍保障機制的規(guī)定;第142條對科學(xué)研究自由的憲法法律保障的規(guī)定等等。參見卡爾·施密特:《憲法學(xué)說》,劉鋒譯,上海:上海人民出版社2005年版,第182頁。。但是,當下的制度性保障與施密特所提出的制度性保障完全不同,其依附于基本權(quán)利并成為基本權(quán)利客觀價值秩序功能的一部分,強調(diào)立法機關(guān)就基本權(quán)利功能的實現(xiàn)進行積極立法。就平等權(quán)的制度性保障功能而言,基于平等權(quán)具有高度抽象性,為了確保其實現(xiàn),立法機關(guān)應(yīng)當積極開展相應(yīng)立法工作,以明確平等權(quán)的具體內(nèi)涵。
(2)組織和程序保障功能。組織和程序保障功能為基本權(quán)利的實現(xiàn)提供了便利條件,其與制度性保障功能的聯(lián)系甚為緊密??梢哉f,二者之間高度重合,組織和程序保障功能在一定程度上可以劃歸于制度性保障功能范疇,只是前者規(guī)定得更為具體罷了①張翔:《基本權(quán)利的規(guī)范建構(gòu)》,北京:法律出版社2017年版,第233頁。。其中,組織保障強調(diào)國家在建立某種制度時應(yīng)附帶對實施該制度的組織(產(chǎn)生、運行等)作出規(guī)定,例如,國家建立科研自由、勞動保障等制度時,就應(yīng)附帶著對高校學(xué)術(shù)委員會、教授委員會以及工會等組織作出規(guī)定。程序保障是基本權(quán)利深受美國憲法“正當程序”原則影響下續(xù)造的結(jié)果,其強調(diào)立法機關(guān)應(yīng)設(shè)計相應(yīng)的程序以保證基本權(quán)利的實現(xiàn),在此其還強調(diào)應(yīng)避免繁瑣的程序本身制約基本權(quán)利的實現(xiàn)。就平等權(quán)的組織和程序保障而言,國家在就平等權(quán)的實現(xiàn)建立某種制度時必須構(gòu)建相應(yīng)的組織,以及設(shè)計特定的運行程序。
(3)保護義務(wù)功能。廣義的保護義務(wù)包括制度性保障、組織與程序保障以及其他保障義務(wù);狹義的保護義務(wù)強調(diào)國家有義務(wù)保障公民免受第三人侵害。狹義的保護義務(wù)在當下占據(jù)主流地位,主要有刑法上的保護②陳新民:《憲法基本權(quán)利之基本理論(上)》,臺北:元照出版公司1999年版,第3頁。、警察法上的保護③李惠宗:《憲法要義》,臺北:元照出版公司2002年版,第94頁。、外交保護、基本權(quán)利第三人效力等類型,以上類型的保護義務(wù)均意在要求國家公權(quán)力機關(guān)保護公民免受公權(quán)力機關(guān)以外主體的侵犯。就平等權(quán)的保護義務(wù)功能而言,當公民平等權(quán)受到國家公權(quán)力機關(guān)以外的主體侵犯時,國家公權(quán)力機關(guān)應(yīng)采取相應(yīng)制裁措施,以保障平等權(quán)的實現(xiàn)。
如圖1所示,算法設(shè)計、開發(fā)、應(yīng)用階段均可能產(chǎn)生歧視。值得一提的是,除了算法設(shè)計階段人工注入偏見、算法開發(fā)階段遭遇技術(shù)瓶頸、算法應(yīng)用階段輸入偏見數(shù)據(jù)以及算法通過自主學(xué)習(xí)產(chǎn)生偏見等因素導(dǎo)致算法歧視外,還存在著一種更為隱秘的因素,更是固化了社會的不平等:社會本身所內(nèi)含的歧視可無形中借助算法決策得以外化,甚至算法設(shè)計者對此都難以察覺及把控。例如,《英國人工智能發(fā)展的計劃、能力與指向》就曾指出,如果數(shù)據(jù)庫本身對社會的不平等予以準確反映,可能同樣會產(chǎn)生歧視。也就是說,社會運行過程中充斥著諸如對婦女、種族等歧視的成分,算法的設(shè)計原理莫過于社會運行方式的模型重塑,如此看來,產(chǎn)生算法歧視則不足為奇。再者,算法基于對其設(shè)計之時以及之前經(jīng)驗的歸納,但其面向的卻是未來④洪丹娜:《算法歧視的憲法價值調(diào)適:基于人的尊嚴》,《政治與法律》2020年第8期,第27-37頁。。我們應(yīng)當清楚認識到,社會是不斷進化的,靠基于歷史經(jīng)驗的算法去預(yù)測未來,將無法完全跳出歷史偏見的局限。那么,這種帶有偏見成分的算法將幫助人們重復(fù)作出著一個個帶有偏見的決策。此外,算法歧視對平等權(quán)的侵害具有范圍廣、持續(xù)時間長的特點。算法可以借助互聯(lián)網(wǎng)渠道使其面向更多的應(yīng)用者,隨著算法應(yīng)用者的不斷增加,算法歧視的侵害范圍將不斷擴張。而且算法能夠在網(wǎng)絡(luò)系統(tǒng)中長久儲存,何時想要使用,何時便可拿出來使用,這無疑間接延長了算法歧視的持續(xù)時間。
平等強調(diào)人類社會的多元化發(fā)展,兼顧個人價值與群體價值。隨著社會文明程度的不斷提升,平等觀念日漸深入人心,平等被廣泛吸納進多部國際公約以及世界各國憲法中,已衍化為一種全球共識。尤其近幾十年來,各國幾乎都在致力于消除國內(nèi)的不平等現(xiàn)象,如美國在反性別歧視、種族歧視方面付出了諸多努力,我國通過少數(shù)民族加分政策維護教育平等,還通過立法規(guī)定男女平等享有繼承權(quán)等。整體來看,當下社會中顯性的不平等正逐漸改善,但隱性的不平等卻呈現(xiàn)一種愈演愈烈的態(tài)勢,其中以算法歧視最具代表性。隨著算法的發(fā)展,我們的生活越來越被算法所形成的“擬態(tài)環(huán)境”包圍,算法所產(chǎn)生的歧視正在無形中充斥著我們的生活。具而言之,算法為我們提供某種決策,其通過這種隱蔽的方式?jīng)Q定我們的行為,進而形成對某類群體的歧視。更可怕的是,隨著人工智能技術(shù)的飛速發(fā)展,網(wǎng)絡(luò)已經(jīng)實現(xiàn)了去中心化,導(dǎo)致很難在算法空間中識別歧視因素的關(guān)鍵節(jié)點。再加之算法學(xué)習(xí)能力的不斷增強,一來強化了其歧視的隱秘性,二來強化了其對歧視監(jiān)管的反制能力①吳喜、梁阿敏:《新媒體視域下的平等權(quán)保護——對網(wǎng)絡(luò)仇恨言論的反思》,《河北法學(xué)》2020年第7期,第24-38頁。。
縱覽當今世界各國政治體制,對立法、行政、司法等機關(guān)均作出相應(yīng)的建構(gòu),與之相對應(yīng),就基本權(quán)利則形成了包含立法、行政、司法在內(nèi)的法律保護模式,針對平等權(quán)同樣如此。平等權(quán)保障原本是一個老生常談的話題,我國對其已經(jīng)形成了較為成熟的理論,且在相應(yīng)理論指引下建構(gòu)了對應(yīng)的法律保護模式。平等權(quán)的法律保護模式本可以有序運行、“相安無事”,可惜因算法歧視的擴散導(dǎo)致這份“沉寂”被打破了并掀起了“驚濤駭浪”,具體表現(xiàn)在如下方面:
1.平等權(quán)保護立法凸顯滯后性。法律的穩(wěn)定性與滯后性是一對矛盾體。法律需要穩(wěn)定,但這樣會導(dǎo)致法律落后于社會發(fā)展;法律需要消除滯后,但這樣會動搖法律的穩(wěn)定。協(xié)調(diào)好法律穩(wěn)定與法律滯后的關(guān)系,是確保法律發(fā)揮其調(diào)節(jié)社會關(guān)系價值的關(guān)鍵所在,在針對不同時機、不同事項等具體情況,應(yīng)將適時調(diào)整維護法律穩(wěn)定與消除法律滯后的優(yōu)位。
法律滯后是人工智能時代平等權(quán)保護傳統(tǒng)立法面臨挑戰(zhàn)的癥結(jié)所在,消弭法律滯后相較維護法律穩(wěn)定應(yīng)被置于優(yōu)先地位。隨著算法科技的飛速發(fā)展,算法歧視在廣度及深度上取得了迅速擴展,立法者應(yīng)把握住時機,制定配套的立法策略,采取高效應(yīng)時性的立法技術(shù),以確保公民遭受算法歧視時得到及時的法律救濟。值得強調(diào)的是,法律滯后性的人為因素相較天然因素更值得關(guān)注。我國傳統(tǒng)立法往往傾向于法律糾紛的調(diào)節(jié),進而忽視了風(fēng)險的防控,尤其是算法技術(shù)的更迭比較頻繁,算法歧視治理的立法時機難以把握。如果算法歧視治理立法忽視風(fēng)險的防控,就會陷入“不成熟不立法,不立法更不成熟”的魔障。再者,根據(jù)我國全國人大常委會三次審議立法的相關(guān)規(guī)定來看,一部法律的立法周期需要2~5年,而根據(jù)“摩爾定律”,算法等人工智能技術(shù)的更新周期是一般為2年。也就是說,算法技術(shù)2年便可能更新?lián)Q代,現(xiàn)有全國人大常委會的三次審議立法程序的規(guī)定或許不能夠及時回應(yīng)算法歧視治理的需要,很容易陷入“新的立法的生效意味著其實質(zhì)意義上的過時”的困境。
2.平等權(quán)保護執(zhí)法監(jiān)管不力。隨著國家治理體系與治理能力現(xiàn)代化的穩(wěn)步推進,我國私力救濟與公力救濟相結(jié)合的權(quán)利救濟模式整體上已日趨成熟,針對平等權(quán)的算法侵害同樣應(yīng)采取該種模式。但是,公民算法歧視識別能力的增強仍跟不上算法升級進化的節(jié)奏,算法黑箱的運作更促使算法以一種極為隱蔽的形式侵害公民的平等權(quán),公民對此卻可能毫無察覺,也毫無辦法,因此,算法歧視的私力救濟在當下尚不存在現(xiàn)實基礎(chǔ)。其次,算法領(lǐng)域的行業(yè)自律機制尚未形成,主要是因為算法應(yīng)用主體“重私利、輕公益”,缺乏動力驅(qū)使其自我治理。再次,司法機關(guān)具有謙抑性,僅能提供事后救濟,無法就算法歧視予以事先預(yù)防。相較于以上三種保護路徑,行政執(zhí)法監(jiān)管更能為算法侵害的平等權(quán)提供全方位、多層次、寬領(lǐng)域的保護。
但是,我國當下針對算法歧視執(zhí)法監(jiān)管不力。首先,監(jiān)管目標帶有嚴重的傾向性。我國就算法歧視的治理依據(jù)分散在單行法或部門法中,這些立法往往明確將公共利益置于優(yōu)先保護的地位,公民個人平等權(quán)的保護則被置于從屬地位,嚴重削弱了算法歧視監(jiān)管的實效。例如,《消費者權(quán)益保護法》對社會經(jīng)濟秩序維護的價值預(yù)設(shè)要優(yōu)于消費者合法權(quán)益的保護,針對大數(shù)據(jù)“殺熟”的執(zhí)法監(jiān)管,執(zhí)法者最先考慮的是維護社會經(jīng)濟秩序,消費者合法權(quán)益的維護往往被置于從屬地位,這必將影響算法歧視監(jiān)管的實效。其次,缺乏專門性的監(jiān)管機構(gòu)。受條塊結(jié)合行政體制的影響,我國分散執(zhí)法、重復(fù)執(zhí)法問題仍然較為突出。就算法歧視而言,國家網(wǎng)信、電信、公安、工商、文化、民政、征信、勞動等部門基于其單位性質(zhì)均具有一定的監(jiān)管職責,這要么導(dǎo)致以上部門在算法歧視監(jiān)管中互相推諉,要么導(dǎo)致多頭監(jiān)管,造成行政資源的浪費。而且算法歧視監(jiān)管的職責主要被下沉至基層,基層人員素質(zhì)參差不齊、配置不合理、財政資源緊張等問題均制約著算法歧視執(zhí)法監(jiān)管的實效①鄧輝:《我國個人信息保護行政監(jiān)管的立法選擇》,《交大法學(xué)》2020年第2期,第140-152頁。。再次,技術(shù)監(jiān)管的傾向性使然。技術(shù)監(jiān)管傾向于效率、分權(quán)和自律,而法律治理傾向于權(quán)利、集權(quán)和他律,這樣容易導(dǎo)致技術(shù)監(jiān)管與法律治理脫耦與耦合的現(xiàn)象循環(huán)出現(xiàn)②鄭智航:《網(wǎng)絡(luò)社會法律治理與技術(shù)治理的二元共治》,《中國法學(xué)》2018年第2期,第108-130頁。,嚴重制約著算法歧視執(zhí)法監(jiān)管的實效。最后,監(jiān)管措施不夠細致及合理。我國算法歧視的事前防范性立法仍不夠成熟,相對應(yīng)的監(jiān)管機制尚未形成,事中監(jiān)督采取大量行政約談措施,事后采取處罰措施較輕,這些對算法歧視的震懾力度極為有限。
3.平等權(quán)保護的司法具有局限性。針對算法歧視對公民平等權(quán)的侵害,司法機關(guān)在權(quán)利救濟上多少表現(xiàn)得有些力不從心。首先,法律的滯后為算法歧視形成了一定的法律真空地帶,目前我國針對算法歧視的治理依據(jù)散見于民法、刑法、《網(wǎng)絡(luò)安全法》《消費者權(quán)益保障法》《婦女權(quán)益保障法》等部門法或個別法中,司法機關(guān)在面對一些算法歧視無從找尋審判依據(jù)在所難免。其次,算法歧視責任的認定為司法機關(guān)帶來了難題。算法設(shè)計者、應(yīng)用者對算法歧視造成的平等權(quán)侵害應(yīng)承擔相應(yīng)的責任,這是毋庸置疑的。但是,算法除了根據(jù)上述主體的指示實施侵害行為外,還可通過深度學(xué)習(xí),對公民平等權(quán)產(chǎn)生連算法設(shè)計者、應(yīng)用者都不可預(yù)測和不可控的侵害,該類責任如何認定,司法機關(guān)恐難定論。例如,微軟曾推出的人工智能聊天機器人Tay通過深度學(xué)習(xí),不到24小時便曝出大量反猶太人、性別歧視、種族歧視的言論。再次,倘若算法歧視對平等權(quán)的侵害已經(jīng)嚴重至犯罪程度,司法機關(guān)通過法律解釋予以定罪量刑,容易陷入有罪類推之嫌。再次,算法歧視對平等權(quán)侵害的司法管轄問題容易產(chǎn)生爭議。算法以計算機為載體,計算機通過互聯(lián)網(wǎng)為算法歧視對平等權(quán)的侵害突破了空間的限制,擴展了算法歧視的侵害面,此時應(yīng)如何確定司法管轄,值得深思。再次,算法歧視所侵害平等權(quán)的主體一般不特定。男女歧視、種族歧視、競爭利益侵害、大數(shù)據(jù)“殺熟”等類型中平等權(quán)的侵害主體均不特定,如何啟動司法救濟程序,同樣值得深思。再次,由于算法治理立法內(nèi)容上整體呈現(xiàn)“重刑輕民”的現(xiàn)象,而日常生活中存在很多算法歧視并不能達到觸犯刑法的程度,導(dǎo)致司法機關(guān)在處理此類平等權(quán)算法侵害案件中無法可依。最后,由于國別、地區(qū)、群體等因素的差異,不同國家、不同地區(qū)、不同群體對平等的認知可能存在差異,這些國家、地區(qū)、群體中的個體對算法歧視所導(dǎo)致平等權(quán)侵害的認知也就存在差異,司法機關(guān)在審判相應(yīng)案件時還應(yīng)將以上因素考量進去,這無形中增加了審判的難度。例如,算法設(shè)計者設(shè)計的某種算法在國人眼里并未侵害其平等權(quán),但在來華留學(xué)的非洲留學(xué)生眼里就是內(nèi)含種族歧視,司法機關(guān)對此應(yīng)如何評判是個難題。
平等權(quán)的防御權(quán)功能強調(diào)國家不得對平等權(quán)造成侵害。伴隨著人工智能技術(shù)的飛速發(fā)展,“算力即權(quán)力”,平等權(quán)正不斷遭受著算法權(quán)力的技術(shù)侵蝕,算法權(quán)力正從不同方面向公權(quán)力嵌入,并助推公權(quán)力形成權(quán)力濫用,導(dǎo)致平等權(quán)受到此迭加權(quán)力的嚴重侵害。因此,公權(quán)力機關(guān)對待算法技術(shù)應(yīng)當擦亮“雙眸”,并保持足夠的克制,切勿被其所鉗制,鑄成對平等權(quán)造成侵害的大錯。鑒于算法技術(shù)本身存在較高的歧視性風(fēng)險,公權(quán)力機關(guān)的重大決策往往與社會公眾的切身利益息息相關(guān),當公權(quán)力機關(guān)利用算法作重大決策時,勢必應(yīng)對算法技術(shù)的應(yīng)用保持高度謹慎的態(tài)度,這也是算法時代平等權(quán)防御功能的應(yīng)有之義。例如,2019年5月14日,舊金山市政府通過了《停止秘密監(jiān)視條例》,禁止警察、交管等部門使用人臉識別,因為該算法技術(shù)的運用往往會加劇種族不平等。
1.制度性保障功能的實現(xiàn)。平等權(quán)的制度性保障功能要求國家立法機關(guān)就治理算法歧視建構(gòu)系統(tǒng)的法律制度。在制度建構(gòu)過程中,我們應(yīng)積極推動算法歧視治理立法的智能化,利用算法及時發(fā)現(xiàn)歧視問題并提供最優(yōu)立法方案;還應(yīng)積極推動算法技術(shù)標準的法律化,從“代碼即法律”轉(zhuǎn)向“法律即代碼”,解決算法技術(shù)標準的弊端,減少算法治理立法的滯后性①邢鴻飛、呂漢東:《智能互聯(lián)網(wǎng)的法律風(fēng)險及其立法應(yīng)對》,《科技與法律(中英文)》2021年第1期,第10-18頁。。在整體立法思路上,應(yīng)該推動從過去的結(jié)果導(dǎo)向立法思路向以風(fēng)險防范為特征的預(yù)防性立法思路逐步過渡。再者,應(yīng)當在算法歧視治理立法中注重引入倫理規(guī)范與框架宣示性規(guī)范。倫理規(guī)范能夠及時對已經(jīng)或者可能產(chǎn)生變化的社會關(guān)系迅速予以回應(yīng);框架宣示性規(guī)范更富有彈性,這確保其能夠?qū)⒏嗌鐣虑闆r囊括進治理范圍。再者,在算法歧視治理立法中還應(yīng)注重“數(shù)字福祉”的嵌入。受盲目逐利思想的迷惑,算法的設(shè)計與開發(fā)往往傾向于迎合算法使用者的偏好,容易忽略“數(shù)字福祉”①數(shù)字福祉主要包括以下兩大內(nèi)涵:一方面是人人都可享受到數(shù)字技術(shù)帶來的紅利,最大化地實現(xiàn)普惠和賦能;另一方面是促進個人對數(shù)字技術(shù)和網(wǎng)絡(luò)服務(wù)的高質(zhì)量使用,減小、防止數(shù)字技術(shù)對個人的負面影響。參見曹建峰:《人工智能倫理的深入研究迫在眉睫》,《互聯(lián)網(wǎng)經(jīng)濟》2019年第4期,第36-41頁。,這無疑與社會對算法的整體期待相背離,長此以往,算法必將遭受來自社會的口誅筆伐。此外,算法歧視治理立法目前呈現(xiàn)“重刑輕民”的現(xiàn)狀,而社會中多數(shù)算法歧視往往夠不到入刑程度,這容易形成算法歧視治理的法律真空問題,該問題亟待通過立法解決。
針對算法歧視治理法律制度的具體建構(gòu),應(yīng)當涵蓋以下內(nèi)容:(1)強調(diào)依憲立法。算法歧視導(dǎo)致憲法中的平等權(quán)受到侵害,平等權(quán)的制度性保障功能要求立法機關(guān)予以立法治理,合乎憲法規(guī)定。(2)行政法基本原則的嵌入。算法歧視治理立法從整體上來看屬于行政法范疇,行政法基本原則嵌入其中理所當然,此舉能夠確保算法治理立法兼顧公平與效率、公共利益與私人利益。(3)目的明確與限定原則的全面貫徹。即通過立法要求算法設(shè)計、開發(fā)與應(yīng)用的目的應(yīng)當特定、明確及正當,從根上抑制算法作出帶有歧視的決策。(4)算法歧視的審查主體。我國就算法歧視尚未形成強有力的專門性審查部門,立法機關(guān)應(yīng)當對專門性審查部門的建構(gòu)及職能予以明確。(5)算法歧視的審查標準。法律既禁止不合理的區(qū)別對待措施,也認可基于合法目的的正當區(qū)別②韓鑠:《算法如何平等:算法歧視審查機制的建立》,《南海法學(xué)》2020年第2期,第114-124頁。。隨著算法技術(shù)的不斷升級,其對平等權(quán)進行侵害的手段愈發(fā)隱蔽,再加之算法學(xué)習(xí)功能還導(dǎo)致其產(chǎn)生不可測的歧視。因此,我們對算法歧視的審查可采雙重審查標準,即審查目的歧視與效果歧視,先對算法設(shè)計目的進行審查,如果目的審查中未發(fā)現(xiàn)偏見,再進行算法應(yīng)用效果審查。(6)算法的設(shè)計應(yīng)向有關(guān)行政機關(guān)備案。之所以采備案審查方式而不采行政許可方式,主要是因為行政許可的審查期限可能較長,算法技術(shù)更新?lián)Q代周期較短,采行政許可方式可能會耽誤算法及時地投入使用。(7)算法解釋權(quán)的規(guī)定。即當某算法決策對其相對人的權(quán)利義務(wù)產(chǎn)生實質(zhì)性影響時,該相對人有權(quán)請求算法設(shè)計者或應(yīng)用者就算法運行作出相應(yīng)解釋。(8)侵權(quán)責任的劃分。算法設(shè)計者、開發(fā)者、應(yīng)用者就算法歧視是否均應(yīng)承擔責任,應(yīng)承擔民事責任還是行政責任抑或刑事責任,各主體承擔責任的比重如何劃分,算法通過自主學(xué)習(xí)產(chǎn)生歧視的責任應(yīng)由誰承擔等,以上責任劃分問題均應(yīng)通過立法予以明確。再者,算法設(shè)計者、開發(fā)者、應(yīng)用者基于算法的設(shè)計、開發(fā)、應(yīng)用均在不同程度上獲得一定利益,因此,筆者建議在算法歧視歸責原則上采無過錯原則,即不論對算法歧視是否具有過錯,均應(yīng)當承擔連帶責任,另對各主體間的追索權(quán)應(yīng)予以明確。(9)建立算法歧視風(fēng)險的保險機制。倘若讓算法設(shè)計者、開發(fā)者、應(yīng)用者承擔無過錯責任,可能會加大產(chǎn)品的生產(chǎn)成本,阻礙算法技術(shù)的發(fā)展③鄭智航:《人工智能算法的倫理危機與法律治理》,《法律科學(xué)》2021年第1期,第14-26頁。。因此,筆者主張建立算法歧視風(fēng)險的保險機制,即由算法設(shè)計者、開發(fā)者、應(yīng)用者購買一定份額的保險,以分擔算法引發(fā)的歧視風(fēng)險。
2.組織與程序保障功能的實現(xiàn)。算法歧視的有效治理應(yīng)由行政機關(guān)與行業(yè)組織共同來實現(xiàn)。傳統(tǒng)的以“公權(quán)力—私權(quán)利”為特征的二元結(jié)構(gòu)已經(jīng)被以“公權(quán)力—社會權(quán)力—私權(quán)利”為特征的三元結(jié)構(gòu)所取代,三元結(jié)構(gòu)中的政府權(quán)力不是專斷性的權(quán)力,其在社會治理層面傾向于謀求與社會組織之間形成合作,在算法歧視治理層面同樣應(yīng)當如此。算法行業(yè)組織通過出臺平臺規(guī)范、協(xié)調(diào)平臺爭議、行使平臺監(jiān)督權(quán)等實際被賦予了“準行政權(quán)”①馬長山:《智慧社會背景下的“第四代人權(quán)”及其保障》,《中國法學(xué)》2019年第5期,第5-24頁。,其在算法歧視治理層面的作用不可小覷,政府加強與之在算法歧視治理層面的合作實為明智之舉。
針對平等權(quán)算法侵害的治理,我們有必要建構(gòu)專門的算法監(jiān)管機關(guān)。伴隨著算法應(yīng)用領(lǐng)域的不斷擴展,算法歧視的類型日趨多樣化,如果將不同類型的算法歧視交由不同的執(zhí)法機關(guān)予以監(jiān)管,將出現(xiàn)效率低下、行政成本高、專業(yè)性不強等問題。在我國,“網(wǎng)信辦”負責統(tǒng)籌有關(guān)部門強化互聯(lián)網(wǎng)信息監(jiān)管,可以賦予其算法監(jiān)管職能,由其統(tǒng)籌民政、工信、公安、郵政、銀行、市場監(jiān)督等部門進行算法監(jiān)管,并在“網(wǎng)信辦”中設(shè)立算法審查委員會專門負責該項工作。該算法審查委員會人員配給上應(yīng)由行政機關(guān)人員、專家、業(yè)界代表組成,共同行使備案、調(diào)查、調(diào)解、支持訴訟等職能,以確保實質(zhì)解決算法歧視爭議。另外,還需在地方設(shè)立與中央算法審查委員會相配套的下級機關(guān),并為其提供充足的“人、財、物”保障,以形成中央與地方在算法歧視治理上的聯(lián)動機制。此外,國家還應(yīng)支持鼓勵行業(yè)組織的建設(shè),必要時為其提供一定的援助,還應(yīng)尊重及適當吸納行業(yè)組織的意見。算法監(jiān)管機構(gòu)應(yīng)當協(xié)同行業(yè)組織審查企業(yè)的算法是否合規(guī)運行以及產(chǎn)生不良后果,并將審查結(jié)果向公眾披露,提升行業(yè)協(xié)會審查結(jié)果的權(quán)威性。
在憲法理論上,國家程序保障已經(jīng)從傳統(tǒng)上的司法救濟程序擴展至行政程序,并在德國、日本還與英國的“正當法律程序”交互運用②李震山:《程序基本權(quán)》,《月旦法學(xué)教室》2004年第19期,第32-36頁。。根據(jù)德國基本權(quán)利之“主觀權(quán)利客觀法”理論,基本權(quán)利作為客觀法具有制度性保障、組織和程序保障、保護義務(wù)等功能,其中,程序保障功能要求國家進行程序方面的建構(gòu),以保障公民基本權(quán)利。英國“正當法律程序”理論要求公權(quán)力機關(guān)應(yīng)當履行公開、公正、參與等程序義務(wù)。兩種理論交互運用,充實了基本權(quán)利程序保障的內(nèi)涵,即國家先是應(yīng)當圍繞公開、公正、參與等程序義務(wù)進行相應(yīng)程序性建構(gòu),然后是應(yīng)當嚴格履行上述程序義務(wù),以充分保障公民基本權(quán)利。針對平等權(quán)的算法侵害,程序保障的內(nèi)涵包括以下方面:(1)國家利用算法作出決策對公民平等權(quán)產(chǎn)生侵害時,公民能夠獲得公平公正的程序保障。(2)非國家公權(quán)力主體利用算法作出決策對公民平等權(quán)產(chǎn)生侵害時,國家應(yīng)當提供相應(yīng)的程序保障。首先,公民的平等權(quán)受到算法侵害時,應(yīng)當有訴訟途徑可以要求侵害者停止侵害、消除影響、賠償。其次,公民應(yīng)當有途徑委托相應(yīng)組織提起集體訴訟。最后,公民應(yīng)當有途徑要求監(jiān)管機關(guān)就平等權(quán)的算法侵害進行查處,當監(jiān)管機關(guān)不作為時,應(yīng)當有途徑提起行政不作為訴訟。
3.保護義務(wù)功能的實現(xiàn)。單一部門法提供的法律責任保護機制無法滿足對平等權(quán)全面保護的需要。平等權(quán)的基本權(quán)利地位確保其能夠打破各部門法的壁壘,匯聚各部門法規(guī)定的法律責任保護機制,以形成協(xié)同性的多元法律責任保護機制。簡而言之,民法、刑法、行政法、《消費者權(quán)益保障法》《婦女權(quán)益保障法》等法律均可對平等權(quán)提供相對應(yīng)的法律責任保護機制,但每一種法律責任保護機制都局限于特定情形,因此,惟有根據(jù)具體情況有針對性地采取相應(yīng)的法律責任保護機制,才能實現(xiàn)平等權(quán)的保護。首先,民事法律責任保護機制的運用。目前來看,公民個人針對算法歧視采取私力救濟的情形少之又少,還面臨著舉證、訴訟成本等問題,筆者建議國家對公民應(yīng)采取傾向保護原則。例如,在賠償數(shù)額與范圍的確定存在爭議時,司法機關(guān)應(yīng)盡可能作有利于公民個人的解釋;在歸責原則上盡可能讓算法設(shè)計者、開發(fā)者、應(yīng)用者承擔無過錯連帶賠償責任,以避免公民經(jīng)歷昂貴而漫長的訴訟;在舉證責任上規(guī)定舉證責任倒置;通過立法明確精神損害賠償責任等。其次,行政法律責任保護機制的運用。算法監(jiān)管部門可以采用責令停止侵害、消除影響、限期改正、賠禮道歉以及列入信用檔案、罰款、吊銷營業(yè)執(zhí)照、行政約談、行政拘留等多種措施,履行平等權(quán)保護義務(wù)。值得強調(diào)的是,監(jiān)管機關(guān)在采取以上措施時應(yīng)適機引入比例原則以及謀取與民事法律責任保護機制的協(xié)同,切勿因社會輿論壓力、政治壓力、執(zhí)法能力不足等情形造成“治理過度”。最后,刑事法律責任保護機制的運用。值得強調(diào)的是,刑事法律責任保護機制的運用必須是為了保護平等權(quán)方面“重大且根本性的法益”免于受到侵害情形下,才可為之。
算法正潛移默化地影響著人類的生活,但該項技術(shù)并非秉持完全的價值中立。盡管其為便利人類的生活功不可沒,但還需要明確其對人類基本權(quán)利的侵犯以及提供憲法功能性的應(yīng)對路徑。我們應(yīng)當對算法的應(yīng)用時刻保持著警醒,同時對平等權(quán)的算法侵害予以反思。與傳統(tǒng)的歧視相異,由算法產(chǎn)生的歧視造成了固化社會不平等、歧視識別困難和平等權(quán)法律保護模式滯后等危機,這增加了平等權(quán)的保護難度,也為平等權(quán)的憲法功能展開提供了“用武之地”。
論文在理論方面釋明了憲法中平等權(quán)的內(nèi)涵、屬性、性質(zhì)以及功能,并在此基礎(chǔ)上證成了國家立法、行政、司法機關(guān)針對平等權(quán)具有相應(yīng)的積極義務(wù)與消極義務(wù)。實踐方面探明了算法歧視所引發(fā)的危機,并針對上述危機提出立法、行政、司法等層面的行權(quán)建議。雖筆者盡力對憲法平等權(quán)進行多角度研讀,但仍不能使其擺脫抽象性樣態(tài),加之算法歧視類型多樣以及所引發(fā)危機復(fù)雜,在鉚合平等權(quán)與算法歧視方面仍難免有所遺漏,在此就教于方家。