裴 煒
(北京航空航天大學(xué)法學(xué)院,北京 100191)
在網(wǎng)絡(luò)信息技術(shù)與刑事司法不斷深入融合的背景下,控辯雙方未能得到同步的技術(shù)賦能。相較而言,以大數(shù)據(jù)分析和人工智能為依托的新興技術(shù)在助力打擊犯罪的同時(shí),亦在一定程度上沖擊著辯護(hù)權(quán)的有效行使,進(jìn)而影響著控辯平等對(duì)抗基礎(chǔ)上數(shù)字正義的實(shí)現(xiàn)。這一沖擊集中體現(xiàn)在算法在刑事司法決策過程中的介入,其中又以犯罪風(fēng)險(xiǎn)預(yù)測(cè)和社會(huì)危險(xiǎn)性評(píng)估為典型。但需要注意的是,在刑事司法過程中,算法的運(yùn)用通常并非止步于預(yù)測(cè)和評(píng)估,而是會(huì)進(jìn)一步影響后續(xù)的處置措施和司法決策。鑒于刑事訴訟活動(dòng)高度的強(qiáng)制性,這些處置措施往往會(huì)對(duì)相對(duì)人特別是犯罪嫌疑人、被告人的相關(guān)權(quán)益形成嚴(yán)重干預(yù),甚至?xí)绊懽罱K裁判結(jié)果的公正性?;诖?,能否及時(shí)、有效、充分地審查算法推論是算法推論相對(duì)人有效維護(hù)其實(shí)體權(quán)利和程序權(quán)利的前提,更是犯罪嫌疑人、被告人獲得有效辯護(hù)的前提。
近年來,我國(guó)已經(jīng)有許多學(xué)者關(guān)注到新興網(wǎng)絡(luò)信息技術(shù)與司法結(jié)合過程中可能產(chǎn)生的制度問題,相關(guān)研究成果廣泛涉及到司法運(yùn)行機(jī)制中的技術(shù)運(yùn)用、①例如李訓(xùn)虎:《刑事司法人工智能的包容性規(guī)制》,《中國(guó)社會(huì)科學(xué)》2021年第2期;魏斌:《司法人工智能融入司法改革的難題與路徑》,《現(xiàn)代法學(xué)》2021年第3期;王秀梅、唐玲:《人工智能在防范刑事錯(cuò)案中的應(yīng)用與制度設(shè)計(jì)》,《法學(xué)雜志》2021年第2期;馬長(zhǎng)山:《司法人工智能的重塑效應(yīng)及其限度》,《法學(xué)研究》2020年第4期;李曉楠:《可信賴AI司法:意義、挑戰(zhàn)及治理應(yīng)對(duì)》,《法學(xué)論壇》2020年第4期;江溯:《自動(dòng)化決策、刑事司法與算法規(guī)制——由盧米斯案引發(fā)的思考》,《東方法學(xué)》2020年第3期等。司法裁判與事實(shí)認(rèn)定中的技術(shù)運(yùn)用②例如張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應(yīng)》,《東方法學(xué)》2021年第3期;馮潔:《大數(shù)據(jù)時(shí)代的裁判思維》,《現(xiàn)代法學(xué)》2021年第3期;鄭曦:《人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制》,《中外法學(xué)》2020年第3期;胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,《東南學(xué)術(shù)》2020年第1期;宋旭光:《論司法裁判的人工智能化及其限度》,《比較法研究》2020年第5期;栗崢:《人工智能與事實(shí)認(rèn)定》,《法學(xué)研究》2020年第1期等。及證據(jù)和證明規(guī)則中的技術(shù)運(yùn)用等多個(gè)方面。③例如謝澍:《人工智能如何“無偏見”地助力刑事司法——由“證據(jù)指引”轉(zhuǎn)向“證明輔助”》,《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2020年第5期;熊秋紅:《人工智能在刑事證明中的應(yīng)用》,《當(dāng)代法學(xué)》2020年第3期等。這些研究從法律、倫理、政策、技術(shù)等多個(gè)角度深入分析司法語境下人工智能、算法、大數(shù)據(jù)等技術(shù)的定位和介入邊界,并在強(qiáng)化技術(shù)規(guī)制、提升算法可信度和透明度、明確人工智能責(zé)任分配等方面形成了一系列基礎(chǔ)共識(shí)。但是,現(xiàn)有研究成果更多地從算法決策的角度出發(fā),而較少關(guān)注到刑事司法領(lǐng)域的算法運(yùn)用目前主要停留在算法推論階段,即以算法標(biāo)識(shí)、畫像、評(píng)價(jià)來支撐后續(xù)決策。
這種對(duì)于算法決策和算法推論的關(guān)注不平衡亦體現(xiàn)在近些年的相關(guān)立法之中。例如,2021年出臺(tái)的《個(gè)人信息保護(hù)法》主要就自動(dòng)化決策進(jìn)行了規(guī)定,“通過自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說明,并有權(quán)拒絕個(gè)人信息處理者僅通過自動(dòng)化決策的方式作出決定”(第24條第3款)。鑒于我國(guó)《個(gè)人信息保護(hù)法》同時(shí)適用于公私領(lǐng)域的信息處理活動(dòng),這一規(guī)定原則上也適用于刑事司法活動(dòng)。特別是考慮到這一領(lǐng)域國(guó)家機(jī)關(guān)處理個(gè)人信息時(shí)的強(qiáng)制性和強(qiáng)干預(yù)性,其完全可以落入到“對(duì)個(gè)人權(quán)益有重大影響”之中。問題在于,現(xiàn)有規(guī)則一方面將其規(guī)制重點(diǎn)放置在個(gè)人信息的收集和處理而非解釋和推斷方面,④一些學(xué)者認(rèn)為,基于個(gè)人信息形成解讀和評(píng)價(jià)并不屬于個(gè)人信息保護(hù)立法規(guī)制的對(duì)象,而是需要在個(gè)案中進(jìn)行審查。歐盟《通用數(shù)據(jù)保護(hù)條例》和歐洲刑事法院的一系列判決表達(dá)了類似的立場(chǎng),例如歐洲法院(European Court of Justice)明確在判例中表示,在基于個(gè)人數(shù)據(jù)進(jìn)行決策的過程中,數(shù)據(jù)保護(hù)法的目的并不在于數(shù)據(jù)和決策過程的精確性和準(zhǔn)確性。See YS,M and S v Ministrer voor Immigratie,Integratie en Asie,joined cases C-141/12 and C-372/12;Sandra Wachter&Brent Mittelstadt,A Right to Reasonable Inferences:Re-Thinking Data Protection Law in the Age of Big Data and AI,Columbia Business Law Review,vol.2019,no.2(October 2018),pp.1-130.另一方面又難以為相對(duì)人提供可行且有效的審查和控制相關(guān)推論的法律工具。更重要的是,《個(gè)人信息保護(hù)法》制定的相關(guān)規(guī)則尚未與刑事訴訟法形成有效銜接,使得刑事司法這一特定場(chǎng)景下算法推論的正當(dāng)性與合理性難以判斷和救濟(jì)。本文正是由此出發(fā),試圖探索刑事司法中運(yùn)用算法推論的規(guī)制機(jī)制,以促進(jìn)算法推論合理性從而保障公民的合法權(quán)益。
大數(shù)據(jù)分析和人工智能等新型數(shù)字技術(shù)在司法領(lǐng)域的一大應(yīng)用功能在于對(duì)個(gè)人的行為和偏好等進(jìn)行推斷和預(yù)測(cè),進(jìn)而支撐甚至直接作出具有法律意義和效果的決策。在進(jìn)一步探討刑事司法中的算法推論問題之前,有必要對(duì)上述功能進(jìn)行細(xì)化分類,區(qū)分算法推論和基于算法的自動(dòng)化決策。在廣義層面,凡是利用技術(shù)輔助或替代人工決策的活動(dòng)均可以納入到算法決策的概念之下。例如,加拿大于2020年生效的《自動(dòng)決策指令》(Directive on Automated Decision-Making)將自動(dòng)化決策定義為“以任何技術(shù)協(xié)助或取代人類決策者的活動(dòng)”。在狹義層面,自動(dòng)化決策的核心則指向取代而非協(xié)助人工決策的情形。例如,歐盟通過的《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)中將自動(dòng)化決策定義為“僅基于自動(dòng)過程做出的決策”。其后,29條工作組(Article 29 Working Party)進(jìn)一步明確了“僅基于自動(dòng)過程”的具體含義,即在決策過程中沒有任何有意義(meaningful)的人工參與;至于利用技術(shù)自動(dòng)處理數(shù)據(jù)以評(píng)估自然人的特定屬性,GDPR將其定義為“畫像”(profiling)。①See Article 29 Data Protection Working Party,Guidelines on Automated individual Decision-Making and Profiling for the Purpose of Regulation 2016/679,issued on 3 October 2017 and revised on 6 February 2018,available at https://ec.europa.eu/newsroom/article29/items/612053.Accessed 26 September 2021.
如前所述,目前我國(guó)針對(duì)算法自動(dòng)決策的法律規(guī)制主要體現(xiàn)在2021年《個(gè)人信息保護(hù)法》的相關(guān)條文之中。根據(jù)該法第73條,“自動(dòng)化決策”是指“通過計(jì)算機(jī)程序自動(dòng)分析、評(píng)估個(gè)人的行為習(xí)慣、興趣愛好或者經(jīng)濟(jì)、健康、信用狀況等,并進(jìn)行決策的活動(dòng)”。這一定義事實(shí)上同時(shí)涵蓋了GDPR中“自動(dòng)化決策”和“畫像”兩個(gè)概念,但是并未說明前半段的畫像活動(dòng)與后半段的決策活動(dòng)之前是相互獨(dú)立還是支撐關(guān)系。結(jié)合該法第24條關(guān)于自動(dòng)化決策的具體規(guī)制思路可以看出,我國(guó)《個(gè)人信息保護(hù)法》在規(guī)制此類活動(dòng)時(shí),其重心仍然在于最終的決策部分,特別是對(duì)個(gè)人權(quán)益有重大影響的決策,一方面要保障決策的過程透明和結(jié)果公平公正,另一方面賦予相對(duì)人獲得解釋和拒絕自動(dòng)化決策的權(quán)利。從這個(gè)角度來看,之所以將畫像與狹義自動(dòng)化決策進(jìn)行聯(lián)合規(guī)定,在于狹義自動(dòng)化決策本身不可避免地會(huì)基于畫像產(chǎn)生。但這一點(diǎn)反過來未必成立,即基于算法所形成的對(duì)于相對(duì)人特定特征的分析、標(biāo)識(shí)或推斷,并不必然最終導(dǎo)向自動(dòng)化決策,而是可能僅僅作為標(biāo)識(shí),或者僅僅作為人工決策或其他自動(dòng)化決策系統(tǒng)的依據(jù)。換言之,二者盡管存在聯(lián)系,但在規(guī)制思路和重點(diǎn)、行為主體、涉及的自然人權(quán)益、救濟(jì)路徑等方面均存在較大差異?;诖?,本文所探討的算法推論僅指向前一階段,即,利用算法對(duì)自然人的特定個(gè)人特征進(jìn)行分析、畫像和評(píng)估的活動(dòng)。
區(qū)分算法推論與算法決策的主要原因在于,相對(duì)于商業(yè)領(lǐng)域自動(dòng)化決策的快速推進(jìn),刑事司法對(duì)于算法運(yùn)用的態(tài)度相對(duì)謹(jǐn)慎,新興數(shù)字技術(shù)的運(yùn)用更多起到的是輔助作用而非替代人工決策。例如,上?!?06”系統(tǒng)的全稱即是“刑事案件智能輔助辦案系統(tǒng)”,其強(qiáng)調(diào)該系統(tǒng)的功能是“提示、指引”,是“為法官、檢察官、偵查人員配備‘智能辦案助手’”,而非“機(jī)器辦案”。②嚴(yán)劍漪:《揭秘“206”:法院未來的人工智能圖景——上海刑事案件智能輔助辦案系統(tǒng)154天研發(fā)實(shí)錄》(2017-07-10),中國(guó)法院網(wǎng),https://www.chinacourt.org/article/detail/2017/07/id/2916860.shtml.這種避免由算法作出最終決策的機(jī)制是當(dāng)前算法規(guī)制的重要策略和工具之一,前述關(guān)于自動(dòng)化決策的法律規(guī)定也往往通過引入人工決策作為矯正或救濟(jì)算法錯(cuò)誤的主要方式。從這個(gè)角度講,刑事司法領(lǐng)域的算法運(yùn)用盡管更為謹(jǐn)慎,但在背后的算法規(guī)制邏輯上與私領(lǐng)域并無二致。
由此,我們可以進(jìn)一步梳理出運(yùn)用算法時(shí)由數(shù)據(jù)到?jīng)Q策的大致過程,該過程主要包含四個(gè)核心環(huán)節(jié):數(shù)據(jù)收集、數(shù)據(jù)分析或挖掘、標(biāo)識(shí)或評(píng)價(jià)、決策。其中,數(shù)據(jù)收集是大數(shù)據(jù)分析、人工智能等技術(shù)的應(yīng)用前提;數(shù)據(jù)分析或挖掘旨在發(fā)現(xiàn)目標(biāo)對(duì)象的特定特征;標(biāo)識(shí)或評(píng)價(jià)是基于前一步驟的特征分析作出的,核心在于將機(jī)器語言轉(zhuǎn)化為社會(huì)語言、數(shù)字身份轉(zhuǎn)化為社會(huì)身份;決策步驟則直接作用于目標(biāo)對(duì)象并可能引發(fā)相應(yīng)的法律效果。在自動(dòng)化決策的語境下,算法的應(yīng)用可能貫穿了上述四個(gè)環(huán)節(jié),特別是在最終的決策環(huán)節(jié)發(fā)揮主導(dǎo)作用。而在算法推論的語境下,算法的運(yùn)用停止在第三個(gè)環(huán)節(jié)即“標(biāo)識(shí)或評(píng)價(jià)”環(huán)節(jié),其后的決策既可能由人工作出,亦可能由其他算法作出。
如前所述,刑事司法領(lǐng)域?qū)τ谒惴ǖ倪\(yùn)用目前最多涉及到第三個(gè)環(huán)節(jié),這也形成了在這一領(lǐng)域探討算法推論的獨(dú)特重要性。通過分析算法推論在刑事司法中應(yīng)用的主要場(chǎng)景,可以進(jìn)一步觀察到算法推論對(duì)于刑事司法決策的影響,以及該影響對(duì)控辯雙方關(guān)系乃至最終的司法公正形成的沖擊。當(dāng)前刑事司法中算法推論主要有三個(gè)運(yùn)用場(chǎng)景:其一是作為大數(shù)據(jù)證據(jù)的證明機(jī)制,其二是作為社會(huì)危險(xiǎn)性或再犯罪風(fēng)險(xiǎn)的評(píng)估機(jī)制,其三是基于同案同判的裁判指引機(jī)制。
就算法推論支撐大數(shù)據(jù)證明這一場(chǎng)景而言,大數(shù)據(jù)分析本身與算法具有緊密聯(lián)系。以大數(shù)據(jù)分析為基礎(chǔ)的大數(shù)據(jù)證據(jù)并非刑事司法的最終裁判本身,卻是最為典型的以算法推論支撐決策的應(yīng)用場(chǎng)景。
近年來,多名學(xué)者對(duì)大數(shù)據(jù)證據(jù)進(jìn)行了系統(tǒng)且深入的研究,逐步明晰此類證據(jù)的概念、性質(zhì)、特征和規(guī)則。①例如劉品新:《論大數(shù)據(jù)證據(jù)》,《環(huán)球法律評(píng)論》2019年第1期;林喜芬:《大數(shù)據(jù)證據(jù)在刑事司法中的運(yùn)用初探》,《法學(xué)論壇》2021年第3期;元軼:《證據(jù)制度循環(huán)演進(jìn)視角下大數(shù)據(jù)證據(jù)的程序規(guī)制——以神示證據(jù)為切入》,《政法論壇》2021年第3期;吳才毓:《大數(shù)據(jù)公共安全治理的法治化路徑:算法倫理、數(shù)據(jù)隱私及大數(shù)據(jù)證據(jù)規(guī)則》,《政法學(xué)刊》2020年第5期;徐惠、李曉東:《大數(shù)據(jù)證據(jù)之證據(jù)屬性證成研究》,《中國(guó)人民公安大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2020年第1期。劉品新將“大數(shù)據(jù)證據(jù)”定義為“基于海量電子數(shù)據(jù)形成的分析結(jié)果或報(bào)告”,并將其技術(shù)過程歸納為三個(gè)環(huán)節(jié):第一是數(shù)據(jù)匯總和清洗,第二是建構(gòu)分析模型或算法,第三是運(yùn)算形成分析結(jié)論。②劉品新:《論大數(shù)據(jù)證據(jù)》,《環(huán)球法律評(píng)論》2019年第1期。元軼從大數(shù)據(jù)概念出發(fā),認(rèn)為“大數(shù)據(jù)證據(jù)”應(yīng)當(dāng)由“大數(shù)據(jù)集”和“大數(shù)據(jù)算法結(jié)論”兩部分構(gòu)成,“算法結(jié)論”是大數(shù)據(jù)證據(jù)的客觀反映。③元軼:《證據(jù)制度循環(huán)演進(jìn)視角下大數(shù)據(jù)證據(jù)的程序規(guī)制——以神示證據(jù)為切入》《政法論壇》2021年第5期。徐惠和李曉東則將大數(shù)據(jù)證據(jù)界定為“兼具證明案件事實(shí)材料和分析思維、方法、技術(shù)的綜合體”。從上述定義可以看出,在大數(shù)據(jù)證據(jù)的運(yùn)用場(chǎng)景下,最終作為證據(jù)證明案件事實(shí)的并非數(shù)據(jù)本身,而主要是基于數(shù)據(jù)通過算法推論后形成的結(jié)論。
刑事司法中算法推論的第二個(gè)主要應(yīng)用場(chǎng)景是社會(huì)危險(xiǎn)性或再犯罪風(fēng)險(xiǎn)評(píng)估。刑事訴訟從啟動(dòng)到最終裁判,充斥著大量的針對(duì)犯罪嫌疑人、被告人、罪犯的危險(xiǎn)性評(píng)估程序,④江溯:《論刑事司法中的危險(xiǎn)評(píng)估》,《南京社會(huì)科學(xué)》2021年第5期。例如,在我國(guó)刑事訴訟程序中涉及此類評(píng)估的程序包括但不限于是否及采取何種強(qiáng)制措施、審查起訴決定、是否使用戒具、是否采取或解除強(qiáng)制醫(yī)療、未成年被指控人社會(huì)調(diào)查、社區(qū)矯正調(diào)查評(píng)估⑤《社區(qū)矯正法》第18條規(guī)定:“社區(qū)矯正決定機(jī)關(guān)根據(jù)需要,可以委托社區(qū)矯正機(jī)構(gòu)或者有關(guān)社會(huì)組織對(duì)被告人或者罪犯的社會(huì)危險(xiǎn)性和對(duì)所居住社區(qū)的影響,進(jìn)行調(diào)查評(píng)估,提出意見,供決定社區(qū)矯正時(shí)參考。居民委員會(huì)、村民委員會(huì)等組織應(yīng)當(dāng)提供必要的協(xié)助?!?、寬緩量刑⑥《刑法》第37條規(guī)定法院可以根據(jù)犯罪情況和預(yù)防再犯罪的需要禁止罪犯從事相關(guān)職業(yè);第72條規(guī)定“應(yīng)當(dāng)宣告緩刑”的條件之一是“沒有再犯罪的危險(xiǎn)”及“宣告緩刑對(duì)所居住社區(qū)沒有重大不良影響”。、減刑假釋等刑罰執(zhí)行決定⑦《刑法》第81條第1款規(guī)定假釋的條件之一是“沒有再犯罪的危險(xiǎn)”;《最高人民法院關(guān)于減刑、假釋案件審理程序的規(guī)定》第5條第2款要求法院審理假釋案件時(shí)“綜合考慮罪犯的年齡、身體狀況、性格特征、假釋后生活來源以及監(jiān)管條件等影響再犯罪的因素”。等。這類措施往往具有較強(qiáng)的保安處分性質(zhì),是對(duì)犯罪嫌疑人、被告人或罪犯未來行為的評(píng)估和預(yù)測(cè),但會(huì)切實(shí)地影響刑事司法權(quán)力機(jī)關(guān)的相關(guān)決策,并現(xiàn)實(shí)干預(yù)相對(duì)人的實(shí)體或程序權(quán)利。
鑒于預(yù)測(cè)本身即為大數(shù)據(jù)分析的核心功能,其與社會(huì)危險(xiǎn)性或再犯風(fēng)險(xiǎn)預(yù)測(cè)具有高度的契合性,因而可以看到算法在這一場(chǎng)景中的廣泛應(yīng)用。例如,有學(xué)者通過研究美國(guó)運(yùn)用算法進(jìn)行危險(xiǎn)性評(píng)估的實(shí)踐經(jīng)驗(yàn)發(fā)現(xiàn),算法運(yùn)用于危險(xiǎn)評(píng)估已經(jīng)貫穿預(yù)測(cè)警務(wù)、審前拘留、起訴、判決、刑罰執(zhí)行等各個(gè)環(huán)節(jié)。⑧江溯:《論刑事司法中的危險(xiǎn)評(píng)估》,《南京社會(huì)科學(xué)》2021年第5期。
算法推論運(yùn)用于刑事司法的第三個(gè)主要場(chǎng)景涉及到審判環(huán)節(jié)的裁判指引機(jī)制。與通過算法進(jìn)行危險(xiǎn)性分析進(jìn)而影響個(gè)案量刑相比,裁判指引機(jī)制盡管影響的也是審判環(huán)節(jié),但卻是對(duì)裁判行為而非被指控人或罪犯行為的預(yù)測(cè),尤其典型地體現(xiàn)為類案推送、量刑建議、裁判預(yù)測(cè)等實(shí)踐應(yīng)用。此類算法應(yīng)用的實(shí)質(zhì)是試圖以算法模擬法官裁判,并以模擬的整體結(jié)果作為現(xiàn)實(shí)司法運(yùn)行中裁判的參照。⑨鄭曦:《人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制》,《中外法學(xué)》2021年第3期。
可以看出,這一場(chǎng)景是司法深度智能化的初步圖像和過渡階段,是諸如“AI法官”“電腦審判”“機(jī)器人法官”等概念的理想狀態(tài)在技術(shù)階段的現(xiàn)實(shí)運(yùn)用。一方面,此種場(chǎng)景成為當(dāng)前眾多司法裁判算法應(yīng)用開發(fā)的重點(diǎn)領(lǐng)域之一,并且成為同案同判原則在新時(shí)代的適用探索;另一方面,這種階段性也將其實(shí)際功能限定于“輔助”層面。①左衛(wèi)民:《AI法官的時(shí)代會(huì)到來嗎——基于中外司法人工智能的對(duì)比與展望》,《政法論壇》2021年第5期。也正是在這個(gè)意義上,現(xiàn)階段該場(chǎng)景只能納入算法推論而非算法決策的范圍。
當(dāng)前關(guān)于算法的規(guī)制重心更多在于上文論及的四個(gè)環(huán)節(jié)中的首尾部分,而針對(duì)中間環(huán)節(jié)的制度關(guān)注則相對(duì)較弱。以我國(guó)剛剛出臺(tái)的《個(gè)人信息保護(hù)法》為例,可以看到其一方面著重強(qiáng)調(diào)數(shù)據(jù)收集過程中的知情同意和最少收集原則,強(qiáng)調(diào)在處理個(gè)人信息時(shí)保障其質(zhì)量;另一方面針對(duì)自動(dòng)化決策設(shè)置了相應(yīng)的說明義務(wù)。但是針對(duì)由數(shù)據(jù)到?jīng)Q策的中間過程,特別是針對(duì)用以支撐人工決策的算法推論方式、質(zhì)量、評(píng)估和救濟(jì)機(jī)制等方面,本法并未涉及。問題在于,盡管當(dāng)前刑事司法領(lǐng)域算法的運(yùn)用更多地停留在推論而非直接決策階段,但這并非意味著算法推論不會(huì)干預(yù)公民的基本權(quán)利,由此形成現(xiàn)實(shí)問題與保障機(jī)制之間的錯(cuò)位。因此,在具體探討算法推論規(guī)制之前,需要認(rèn)識(shí)其對(duì)公民基本權(quán)利的干預(yù)風(fēng)險(xiǎn)。
如前所述,算法推論的核心功能在于標(biāo)識(shí)和評(píng)價(jià)。由此出發(fā),算法推論的質(zhì)量特別是錯(cuò)誤標(biāo)識(shí)主要在以下兩個(gè)層面對(duì)公民基本權(quán)利形成不當(dāng)干預(yù)的風(fēng)險(xiǎn):其一是錯(cuò)誤標(biāo)識(shí)本身對(duì)于平等保護(hù)原則的違反;其二是錯(cuò)誤標(biāo)識(shí)可能引發(fā)的后續(xù)歧視性待遇對(duì)于社會(huì)生活秩序穩(wěn)定性的破壞。
第一個(gè)層面的風(fēng)險(xiǎn)是基于法律平等保護(hù)的考量。平等保護(hù)是憲法規(guī)定的基本原則。1948年的《世界人權(quán)宣言》和1966年的《公民權(quán)利和政治權(quán)利國(guó)際公約》將其確立為國(guó)際社會(huì)公認(rèn)的基本原則;我國(guó)《憲法》第33條第2款規(guī)定,“中華人民共和國(guó)公民在法律面前一律平等”,這也是對(duì)平等保護(hù)原則的明確闡述。平等保護(hù)原則是對(duì)公民遭遇歧視性對(duì)待的反對(duì),而歧視的基礎(chǔ)則是對(duì)相對(duì)人的不當(dāng)分類。在國(guó)家權(quán)力運(yùn)行中,“分類”這一概念描述的是國(guó)家機(jī)關(guān)針對(duì)特定個(gè)體所屬群體進(jìn)行識(shí)別,并以該識(shí)別結(jié)果為基礎(chǔ),對(duì)被識(shí)別的特定個(gè)體進(jìn)行權(quán)利或義務(wù)的分配。②Steven M.Apple and Cary Coglianese,Algorithmic Governance and Administrative Law,in Woodrow Barfield(ed.),The Cambridge Handbook of The Law of Algorithms,Cambridge University Press,2020,p.171.
分類是否正當(dāng),在實(shí)質(zhì)層面取決于其采用標(biāo)準(zhǔn)的適當(dāng)性,在形式層面取決于其是否與法律的明確規(guī)定相違背。就實(shí)質(zhì)正當(dāng)性而言,典型的例證是對(duì)特定識(shí)別標(biāo)準(zhǔn)的否定。例如,我國(guó)《憲法》第34條禁止以“民族、種族、性別、職業(yè)、家庭出身、宗教信仰、教育程度、財(cái)產(chǎn)狀況、居住期限”來限制或剝奪公民的選舉權(quán)和被選舉權(quán)。此時(shí),分類標(biāo)準(zhǔn)是否正當(dāng)取決于國(guó)家權(quán)力運(yùn)行的目的,分類標(biāo)準(zhǔn)需要以能夠?qū)崿F(xiàn)該目的為前提,這是比例原則適當(dāng)性要求的題中之義,也是《憲法》第34條以成年年齡作為選舉權(quán)和被選舉權(quán)權(quán)利主體劃分標(biāo)準(zhǔn)的正當(dāng)性基礎(chǔ)。就形式正當(dāng)性而言,主要關(guān)注的是與現(xiàn)有法律制度及相關(guān)概念的匹配度。對(duì)此,典型的反面例證是近些年引發(fā)廣泛熱議的美國(guó)再犯風(fēng)險(xiǎn)預(yù)測(cè)系統(tǒng)CAMPUS,其中再次逮捕(rearrest)是該系統(tǒng)判斷再犯風(fēng)險(xiǎn)的重要標(biāo)準(zhǔn)。但逮捕明顯與最終定罪并非同一法律概念,二者在事實(shí)和證據(jù)的確定性上相去甚遠(yuǎn),這意味著被算法標(biāo)識(shí)為高再犯風(fēng)險(xiǎn)的相對(duì)人很可能并未再次實(shí)施犯罪。③Justin B.Biddle,On Predicting Recidivism:Epistemic Risk,Tradeoffs,and Values in Machine Learning,Canadian Journal of Philosophy,F(xiàn)irst View(July 2020),pp.1-21.與之類似的是,近些年歐洲人權(quán)法院的一系列案件也牽涉到未被定罪人員的個(gè)人數(shù)據(jù)被存入罪犯數(shù)據(jù)庫(kù)或被標(biāo)識(shí)為罪犯的情形,法院認(rèn)為這種錯(cuò)誤存留本身亦構(gòu)成對(duì)《歐洲人權(quán)公約》第8條的違反。④歐洲人權(quán)法院判決中具有代表性的此類案件是2008年的S.and Marper v.the United Kingdom案(application nos.30562/04 and 30566/04),本案中兩名申請(qǐng)人盡管未被定罪,但其指紋、細(xì)胞樣本和DNA樣本被存入警方數(shù)據(jù)庫(kù)。類似案件如2011年的Dimitrov-Kazakov v.Bulgaria案(application no.11379/03,申請(qǐng)人的個(gè)人信息被錯(cuò)誤記入警方罪犯數(shù)據(jù)庫(kù)并被標(biāo)識(shí)為“強(qiáng)奸犯”)、2011年的Khelili v.Switzerland(application no.16188/07,未從事過性行業(yè)的申請(qǐng)人被警方錄入系統(tǒng)并多年來被標(biāo)識(shí)為“妓女”)、2013年的M.K.v.France案(application no.19522/09,未被定罪的申請(qǐng)人的指紋被長(zhǎng)期錄入并保存于警方數(shù)據(jù)庫(kù)中)、2014年的Brunet v.France案(application no.21010/10,未被定罪的申請(qǐng)人的個(gè)人信息被錄入警方的犯罪記錄系統(tǒng))。
近年來,算法歧視的問題已經(jīng)引起理論界和實(shí)務(wù)界的廣泛關(guān)注,①例如李成:《人工智能歧視的法律治理》,《中國(guó)法學(xué)》2021年第2期(強(qiáng)調(diào)算法解釋、算法審核以及數(shù)字平權(quán)行動(dòng)來實(shí)現(xiàn)反歧視法律數(shù)字化轉(zhuǎn)型);丁曉東:《論算法的法律規(guī)制》,《中國(guó)社會(huì)科學(xué)》2020年第12期(提出場(chǎng)景化的算法規(guī)制路徑,并依具體場(chǎng)景構(gòu)建反算法歧視的具體制度);崔靖梓:《算法歧視挑戰(zhàn)下平等權(quán)保護(hù)的危機(jī)與應(yīng)對(duì)》,《法律科學(xué)》2019年第3期(建議建構(gòu)人工智能學(xué)習(xí)權(quán)和差別性影響標(biāo)準(zhǔn)以識(shí)別算法歧視,推進(jìn)法律與代碼相結(jié)合的雙重保護(hù)模式);劉友華:《算法偏見及其規(guī)制路徑研究》,《法學(xué)雜志》2019年第6期(提出通過保證數(shù)據(jù)可查性與算法可審計(jì)性、以公平、透明和可責(zé)為標(biāo)準(zhǔn)規(guī)范算法應(yīng)用);鄭智航、徐昭曦:《大數(shù)據(jù)時(shí)代算法歧視的法律規(guī)制與司法審查——以美國(guó)法律實(shí)踐為例》,《比較法研究》2019年第4期(提出通過法律規(guī)制與司法審查雙重路徑平衡數(shù)字鴻溝、抑制算法權(quán)力)。其運(yùn)用于國(guó)家權(quán)力層面將直接與法律的平等保護(hù)原則形成沖突。需要看到的是,這種歧視不僅存在于算法決策的領(lǐng)域,同時(shí)也存在于輔助后續(xù)決策的算法推論領(lǐng)域。當(dāng)分類標(biāo)準(zhǔn)缺乏正當(dāng)性時(shí),特別是在分類本身存在歧視的情況下,基于分類的標(biāo)識(shí)不可避免地會(huì)產(chǎn)生偏差乃至錯(cuò)誤,進(jìn)而影響后續(xù)的決策正當(dāng)性。
第二個(gè)層面的風(fēng)險(xiǎn)關(guān)注的是法律所保護(hù)的社會(huì)生活秩序的穩(wěn)定性。如果說平等保護(hù)問題關(guān)注的是錯(cuò)誤標(biāo)識(shí)行為本身,那么,社會(huì)生活秩序的穩(wěn)定性則關(guān)注的是錯(cuò)誤標(biāo)識(shí)的潛在后果。算法推論與算法決策的重要區(qū)別在于,前者并不直接導(dǎo)向?qū)窕緳?quán)利的現(xiàn)實(shí)干預(yù)。但是基于算法推論的識(shí)別和評(píng)價(jià)本身預(yù)示著未來形成決策的可能性,特別是在形成負(fù)面標(biāo)識(shí)的情況下。因?yàn)檫@意味著相對(duì)人的正常生活和相關(guān)權(quán)益未來遭受干預(yù)的現(xiàn)實(shí)風(fēng)險(xiǎn),進(jìn)而對(duì)法律所保護(hù)的社會(huì)生活秩序的穩(wěn)定性產(chǎn)生負(fù)面影響。例如在2011年歐洲人權(quán)法院審理的Dimitrov-Kazakov v.Bulgaria案②Dimitrov-Kazakov v.Bulgaria,ECtHR(2011),application no.11379/03.中,申請(qǐng)人因一起強(qiáng)奸案被警方訊問,盡管之后其未被起訴,但在警方記錄系統(tǒng)中被標(biāo)識(shí)為“強(qiáng)奸犯”。因?yàn)樵摌?biāo)識(shí),申請(qǐng)人之后在一系列涉及強(qiáng)奸或少女失蹤案件中被警方反復(fù)盤問,其日常生活受到嚴(yán)重?cái)_亂。歐洲人權(quán)法院最終認(rèn)定該標(biāo)識(shí)違反了《歐洲人權(quán)公約》第8條對(duì)私人生活的保護(hù)。
近年來,國(guó)際層面逐漸開始產(chǎn)生此類爭(zhēng)議案件,典型的情形是通過算法將特定人員標(biāo)識(shí)為潛在罪犯。例如,2021年美國(guó)最高法院審理的TransUnion LLC v.Ramirez案。③TransUnion LLC v.Ramirez,951 F.3d 1008.該案中,征信巨頭TransUnion錯(cuò)誤地將8185人標(biāo)識(shí)為潛在恐怖分子和販毒分子,并將其中1853人的此類信息提供給第三方機(jī)構(gòu),以便后者進(jìn)行信用評(píng)價(jià),作出是否雇傭等決定。該案的表層爭(zhēng)點(diǎn)是集團(tuán)訴訟的當(dāng)事人資格問題,背后的核心焦點(diǎn)在于錯(cuò)誤標(biāo)識(shí)本身是否構(gòu)成對(duì)公民權(quán)利的“實(shí)質(zhì)損害”(concrete harm)。盡管法院在本案中作出了否定評(píng)價(jià),并據(jù)此否定了標(biāo)識(shí)信息未被使用的人員的當(dāng)事人地位,但5:4的票數(shù)比也反映出爭(zhēng)議的激烈程度。所以,有學(xué)者提出,是否侵犯隱私權(quán)不應(yīng)當(dāng)以傳統(tǒng)的“實(shí)質(zhì)損害”為標(biāo)準(zhǔn)。④Daniel J.Solove & Danielle Keats Citron,Standing and Privacy Harms:A Critique of TransUnion v.Ramirez,Boston University Law Review Online,vol.101(August 2021),pp.62-71.
我國(guó)當(dāng)前關(guān)于刑事司法領(lǐng)域錯(cuò)誤標(biāo)識(shí)的相關(guān)研究和報(bào)道相對(duì)稀缺,但是現(xiàn)實(shí)中已然暴露出采用不合理標(biāo)簽的現(xiàn)象,例如,2019年湖南湘潭市發(fā)生的將失獨(dú)家庭列入“掃黑除惡重點(diǎn)監(jiān)管對(duì)象”的事件就引發(fā)了廣泛的輿論爭(zhēng)議。⑤相關(guān)事件報(bào)道參見《將“失獨(dú)家庭”列入掃黑除惡對(duì)象,怎么想的?》(2019-03-27),搜狐網(wǎng),https://www.sohu.com/a/304080705_114988.可以預(yù)想的是,如果將類似“失獨(dú)”的指標(biāo)納入到犯罪風(fēng)險(xiǎn)預(yù)測(cè)模型中去,不僅會(huì)擾亂風(fēng)險(xiǎn)預(yù)測(cè)本身,而且這一錯(cuò)誤標(biāo)簽會(huì)借由算法黑箱而難以被察覺和規(guī)制,由此形成規(guī)制障礙問題。
算法推論盡管區(qū)別于最終決策,但并非與公民的基本權(quán)利無涉。其不僅可能直接影響甚至決定后續(xù)決策的質(zhì)量,同時(shí),標(biāo)識(shí)本身就足以干擾相對(duì)人日常生活的穩(wěn)定性。鑒于刑事司法活動(dòng)的高強(qiáng)制性和刑罰權(quán)的高嚴(yán)厲性,算法推論之于相對(duì)人的權(quán)益干預(yù)將更為嚴(yán)重。如前所述,在由數(shù)據(jù)收集到最終決策的四個(gè)階段中,當(dāng)前立法主要關(guān)注的是首尾部分,中間涉及算法推論的部分則缺少必要的規(guī)則建設(shè)。這一點(diǎn)在司法實(shí)踐中也有所體現(xiàn),例如,在2020年的攜程酒店大數(shù)據(jù)殺熟案件中,盡管媒體熱議的是“殺熟”行為,但最終裁判的重點(diǎn)主要集中于非必要數(shù)據(jù)收集以及虛假宣傳、價(jià)格欺詐兩個(gè)事項(xiàng)。前者指向的是數(shù)據(jù)收集環(huán)節(jié),后者指向的是最終價(jià)格決策的正當(dāng)性。事實(shí)上并沒有真正涉及算法的評(píng)估問題。①余建華、徐少華:《浙江一女子以攜程采集非必要信息“殺熟”訴請(qǐng)退一賠三獲支持》,《人民法院報(bào)》2021年7月13日,第3版。這種現(xiàn)象背后的成因主要涉及兩個(gè)方面:一是損害結(jié)果的非顯性;二是過程的不透明性。
就損害結(jié)果的非顯性而言,這一點(diǎn)從上文提及的TransUnion案中已經(jīng)可以看出。具體來講,這種非顯性主要表現(xiàn)在兩個(gè)方面:其一在于算法推論的損害往往是無形權(quán)益,不僅使得權(quán)利主體難以及時(shí)和充分察覺損害的發(fā)生,同時(shí)也使得該損害結(jié)果難以在具體案件中進(jìn)行審查和衡量;其二在于算法推論損害后果的非即時(shí)性,即所形成的不利后果之一是一種未來因相關(guān)決策而遭受實(shí)質(zhì)侵害的風(fēng)險(xiǎn),是對(duì)未來損害的預(yù)期,而非案發(fā)時(shí)已經(jīng)產(chǎn)生的損害結(jié)果。
就推論過程的不透明性而言,這是近年來算法普受詬病的共性之處,其核心在于將算法運(yùn)行過程描述為難以從外部進(jìn)行觀察、評(píng)估和控制的“黑箱”(blackbox)。這種不透明性使得算法推論的規(guī)制存在三個(gè)層面的障礙:第一,難以在事前認(rèn)定算法本身包含偏見或歧視,更多地只能依賴實(shí)際不利決策發(fā)生后的結(jié)果評(píng)價(jià);第二,即便能夠認(rèn)定推論本身存在偏見或歧視,由于干預(yù)因素或參與主體的多元性,難以有效地進(jìn)行責(zé)任認(rèn)定,特別是難以將責(zé)任歸于算法本身;②張凌寒:《網(wǎng)絡(luò)平臺(tái)監(jiān)管的算法問責(zé)制構(gòu)建》,《東方法學(xué)》2021年第3期。第三,權(quán)益主體難以有效地對(duì)上述情形的存在以及與損害的因果關(guān)系舉證和證明,進(jìn)而加大了事后救濟(jì)的難度。
回歸到刑事司法的語境下,算法推論引發(fā)的權(quán)利損害風(fēng)險(xiǎn)更為嚴(yán)重和棘手。一方面,算法推論可能轉(zhuǎn)化為強(qiáng)制措施、具體偵查措施、案件事實(shí)認(rèn)定以及刑罰執(zhí)行的主要依據(jù),從而形成對(duì)相對(duì)人特別是犯罪嫌疑人、被告人和罪犯權(quán)益的重大減損;另一方面,刑事訴訟中固有的控辯能力差異會(huì)借由算法推論的規(guī)制障礙而被進(jìn)一步放大,從而實(shí)質(zhì)性損及辯方獲得有效辯護(hù)的權(quán)利。③裴煒:《論刑事數(shù)字辯護(hù):以有效辯護(hù)為視角》,《法治現(xiàn)代化研究》2020年第4期。對(duì)此,刑事訴訟制度需要對(duì)算法推論的損害風(fēng)險(xiǎn)予以充分認(rèn)知,在此基礎(chǔ)上針對(duì)相對(duì)人的數(shù)字劣勢(shì),通過賦予其獲得合理推論的權(quán)利,并為決策機(jī)關(guān)設(shè)置對(duì)應(yīng)的訴訟義務(wù),從而最大限度確保算法推論的正當(dāng)性和合理性。
刑事訴訟中獲得合理推論權(quán)的核心在于確保算法推論的合理性。其權(quán)利主體指向的是因算法推論而導(dǎo)致基本權(quán)益遭受減損或面臨減損風(fēng)險(xiǎn)等不利后果的訴訟參與人,其中又以犯罪嫌疑人、被告人為主要關(guān)注對(duì)象。獲得合理推論權(quán)的要素既包含程序的合理性,又包含實(shí)體的合理性。就前者而言,規(guī)制算法推論的首要思路仍然在于盡可能確保推論過程的透明可見,這不僅是后續(xù)審查的基礎(chǔ),同時(shí)也是相對(duì)人進(jìn)行權(quán)利救濟(jì)的前提。就后者而言,其一方面取決于算法推論所依賴的技術(shù)和數(shù)據(jù)的可靠性、完整性、準(zhǔn)確性,另一方面也取決于對(duì)推論本身合理性的及時(shí)、有效的識(shí)別、矯正及救濟(jì)。
之所以強(qiáng)調(diào)程序和實(shí)體兩個(gè)層面的合理性,其原因在于單純的程序?qū)用娴囊?guī)制盡管易于實(shí)現(xiàn),但也容易將權(quán)利保障這一目的異化為程序合規(guī)本身。而這正是Lauren B.Edelman所描述的“符號(hào)結(jié)構(gòu)驅(qū)動(dòng)”(mobilization of symbolic structures)現(xiàn)象,即通過采用符號(hào)、流程、程序、政策等方式使合規(guī)標(biāo)準(zhǔn)(compliance metric)取代法律程序,進(jìn)而使得法律原先設(shè)定的實(shí)質(zhì)目標(biāo)無法達(dá)成。④L.B.Edelman,Working Law:Courts,Corporations,and Symbolic Civil Rights,University of Chicago Press,2016,p.153.也正是在這個(gè)意義上,在規(guī)制算法推論應(yīng)用的過程中需要采取的是實(shí)質(zhì)正當(dāng)程序(substantive due process)的視角,⑤Margaret Hu,Big Data Blacklisting,F(xiàn)lorida Law Review,vol.67,no.5(February 2016),pp.1735-1809.將重心放在“發(fā)生了什么”而非“怎么發(fā)生”之上。⑥Ari Ezra Waldman,“Algorithmic Legitimacy”,in Woodrow Barfield(ed.),The Cambridge Handbook of the Law of Algorithms,Cambridge University Press,2019,pp.119-120.這種視角的轉(zhuǎn)變意味著當(dāng)算法推論運(yùn)用于輔助刑事司法決策時(shí),我們不僅需要關(guān)注推論如何做出,即算法推論過程本身的可解釋性問題,同時(shí)也更需要關(guān)注算法推論如何作用于最終決策。上述目標(biāo)不僅取決于算法規(guī)制的整體規(guī)制體系,也取決于個(gè)案訴訟程序中的保障機(jī)制。
借用Margot Kaminski關(guān)于人工智能可歸責(zé)性的理論框架,①M(fèi)argot Kaminski以人工智能可歸責(zé)性為出發(fā)點(diǎn),將算法透明性要求區(qū)分為個(gè)體性透明(individual transparency)與系統(tǒng)性透明(systemic transparency),其中前者關(guān)注的是受算法影響的特定相對(duì)人對(duì)算法應(yīng)用的知情,后者則關(guān)注的是圍繞算法應(yīng)用的機(jī)器系統(tǒng)和人類系統(tǒng)中錯(cuò)誤、偏見、歧視等的可見性。See Margot E.Kaminski,The Right to Explanation,Explained,BERKELEY TECH.L.J.,vol.34,no.1(August 2019),pp.189-218;Understanding Transparency in Algorithmic Accountability,in Woodrow Barfield(ed.),The Cambridge Handbook of the Law of Algorithms,Cambridge University Press,2019,pp.121-138.算法推論合理性的保障主要涉及三個(gè)層面:一是針對(duì)推論背后算法自身的技術(shù)規(guī)制;二是針對(duì)與該算法開發(fā)、評(píng)測(cè)、認(rèn)證、運(yùn)行等相關(guān)的主體的規(guī)制;三是對(duì)算法推論應(yīng)用主體的規(guī)制。當(dāng)前數(shù)據(jù)立法更多關(guān)注的是第一個(gè)層面,即強(qiáng)調(diào)算法背后技術(shù)原理的可靠性,對(duì)于算法可解釋性的要求也主要指向的是這一點(diǎn)。但是,技術(shù)的可靠性并不等同于技術(shù)應(yīng)用的合理性。作為一種價(jià)值判斷,后者在前者的基礎(chǔ)上更依賴于對(duì)技術(shù)運(yùn)用中的人的規(guī)制,由此形成算法推論系統(tǒng)保障的后兩個(gè)層面。
就算法開發(fā)、運(yùn)行、評(píng)測(cè)相關(guān)主體的規(guī)制而言,其核心關(guān)注的是算法形成過程中的倫理嵌入。例如,隱私設(shè)計(jì)(privacy by design)等概念的提出體現(xiàn)的即是這一要求。當(dāng)涉及到倫理問題,就意味著相關(guān)算法規(guī)制機(jī)制需要與特定應(yīng)用場(chǎng)景相契合。一方面,算法開發(fā)、運(yùn)行、評(píng)測(cè)等活動(dòng)應(yīng)當(dāng)有熟悉該特定場(chǎng)景的專業(yè)人員參與,這進(jìn)一步意味著需要設(shè)置相應(yīng)的主體資質(zhì)門檻;另一方面,相關(guān)活動(dòng)應(yīng)當(dāng)在實(shí)質(zhì)性上與該特定場(chǎng)景的價(jià)值、原則、概念和規(guī)則相契合。
具體到刑事訴訟場(chǎng)景,這一層面的規(guī)制應(yīng)當(dāng)至少包含以下三方面內(nèi)容:第一是參考隱私設(shè)計(jì)的整體思路。在算法開發(fā)中嵌入“數(shù)字無罪”理念,將“未經(jīng)法院判決不得認(rèn)定有罪”的原則貫穿算法開發(fā)始終,一方面,需要關(guān)注模型開發(fā)過程中對(duì)于有利于辯方的指標(biāo)的探索,特別是增加數(shù)據(jù)與技術(shù)中立性的審查標(biāo)準(zhǔn),同時(shí)形成辯方視角下的電子證據(jù)評(píng)估方法;另一方面,在計(jì)算結(jié)果存疑時(shí)做有利于辯方的解釋。第二是針對(duì)刑事訴訟程序設(shè)置類似于司法鑒定的算法技術(shù)開發(fā)資質(zhì)。其目的在于形成具體行業(yè)標(biāo)準(zhǔn)與規(guī)范以適應(yīng)本場(chǎng)景中算法推論的專業(yè)性要求,同時(shí)為事后相應(yīng)法律責(zé)任的分配提供依據(jù)。第三是圍繞該資質(zhì)形成定期的算法更新、評(píng)測(cè)、審查機(jī)制,以確保算法開發(fā)、運(yùn)行過程中存在的錯(cuò)誤、偏見或歧視等缺陷能夠被及時(shí)發(fā)現(xiàn)和矯正。②Radina Stoyknova,Digital Evidence:Unaddressed Threats to Fairness and the Presumption of Innocence,Computer Law & Security Review,vol.42(September 2021),pp.7-8.
就算法推論的應(yīng)用主體而言,其主要指向的是依靠算法推論進(jìn)行最終決策的刑事司法權(quán)力機(jī)關(guān)。對(duì)此類主體加以規(guī)制的目的在于,鑒于當(dāng)前階段刑事司法對(duì)于算法應(yīng)用所保有的必要的謹(jǐn)慎態(tài)度,這種謹(jǐn)慎應(yīng)當(dāng)反映在整體規(guī)制體系的設(shè)計(jì)之中。首先,算法推論的應(yīng)用應(yīng)當(dāng)以必要性和比例原則為框架,保證其適用符合實(shí)質(zhì)正當(dāng)程序的要求。其次,應(yīng)當(dāng)在刑事訴訟制度中建立起應(yīng)用算法推論的明確的法律依據(jù),劃定算法推論的適用情形、范圍和條件。再次,原則上應(yīng)當(dāng)存在其他實(shí)質(zhì)性依據(jù)以支持決策,特別是在相關(guān)決策可能嚴(yán)重限制或剝奪公民人身和財(cái)產(chǎn)權(quán)利的情況下,應(yīng)當(dāng)禁止以算法推論作為決策的唯一實(shí)質(zhì)性依據(jù)。最后,建立算法推論應(yīng)用的司法審查機(jī)制,強(qiáng)化刑事司法的程序監(jiān)督與制約。
合理推論權(quán)的系統(tǒng)保障在于盡可能在事前建立起相關(guān)機(jī)制,并相應(yīng)地預(yù)防和降低算法推論在后續(xù)應(yīng)用中的錯(cuò)誤風(fēng)險(xiǎn)。但系統(tǒng)保障不足以避免算法推論在個(gè)案中的誤用,因此,合理推論權(quán)仍然需要進(jìn)一步在具體案件的訴訟程序中予以落實(shí)??紤]到算法推論相對(duì)人往往居于訴訟中的弱勢(shì)地位,特別是犯罪嫌疑人、被告人,其與控方的力量差異是刑事訴訟的基本假設(shè),因此需要強(qiáng)化國(guó)家積極保護(hù)義務(wù)。
首先,合理推論權(quán)以相對(duì)人的知情權(quán)保障為前提,也是其獲得救濟(jì)的基礎(chǔ)。在依據(jù)算法推論進(jìn)行決策的情形中,應(yīng)當(dāng)強(qiáng)調(diào)決策者的告知義務(wù)。原則上,刑事司法機(jī)關(guān)基于算法推論作出不利于辯方的決策時(shí),應(yīng)當(dāng)承擔(dān)告知義務(wù)。考慮到前文論及的算法推論損害后果的非顯性和非即時(shí)性等特征,告知的啟動(dòng)不以相對(duì)人申請(qǐng)為前提,而是需要由決策機(jī)關(guān)主動(dòng)履行。在告知可能妨礙訴訟順利進(jìn)行時(shí),立法可以允許對(duì)告知進(jìn)行限制,典型的情形是在偵查階段告知可能妨礙偵查。但是這種限制需要有明確的法律授權(quán),同時(shí)需要分層級(jí)、分場(chǎng)景進(jìn)行階梯設(shè)置。
其次,合理推論權(quán)的核心在于評(píng)價(jià)推論的合理性。鑒于相對(duì)人的技術(shù)能力弱勢(shì),合理性的判斷對(duì)應(yīng)的是決策機(jī)關(guān)的釋明義務(wù),即刑事司法權(quán)力機(jī)關(guān)應(yīng)當(dāng)對(duì)利用算法推論推進(jìn)刑事訴訟程序、作出決定等承擔(dān)前置的說明義務(wù),這種說明義務(wù)的啟動(dòng)既可以依職權(quán)又可以依申請(qǐng)。但在以其作為剝奪人身自由決定、措施或判決的依據(jù)時(shí),原則上應(yīng)當(dāng)將推論說明設(shè)置為法定義務(wù)。其他情況下,該項(xiàng)義務(wù)可以基于申請(qǐng)而啟動(dòng)。
再次,合理推論權(quán)的重要功能之一在于平衡控辯雙方的數(shù)字能力差異。由此,我們提出以下兩個(gè)方面的制度設(shè)計(jì)。第一,針對(duì)上文論及的系統(tǒng)保障機(jī)制,應(yīng)當(dāng)明確其違反足以構(gòu)成相對(duì)人質(zhì)疑算法推論合理性并啟動(dòng)相應(yīng)救濟(jì)程序的充分依據(jù)。此時(shí),關(guān)于算法推論合理性的證明義務(wù)轉(zhuǎn)移至決策方。第二,基于控辯平等武裝原則的基本要求,有必要強(qiáng)化有專門知識(shí)背景的人員積極參與庭審并對(duì)算法推論的技術(shù)原理進(jìn)行解釋和評(píng)估的制度設(shè)計(jì),并且針對(duì)嚴(yán)重干預(yù)公民基本權(quán)利的算法推論強(qiáng)制要求專家參與庭審。
最后,合理推論權(quán)的實(shí)現(xiàn)依賴于救濟(jì)機(jī)制,其重心在于對(duì)推論可解釋性的檢驗(yàn),以及在檢驗(yàn)不能的情況下對(duì)該推論的法律效力的重新認(rèn)定。就可解釋性的檢驗(yàn)而言,一方面意味著多模型下推論結(jié)果的可重復(fù),另一方面意味著不可重復(fù)情況下的算法說明。通過多種算法模型形成的推論不一致時(shí),針對(duì)可能嚴(yán)重干預(yù)甚至剝奪公民人身權(quán)、財(cái)產(chǎn)權(quán)的措施,從保障人權(quán)的角度出發(fā),應(yīng)選取最有利于被指控人的解釋。就無法通過類似模型復(fù)檢的情形而言,對(duì)于使用第三方技術(shù)形成的算法推論,一則應(yīng)建立特定類型犯罪中的算法強(qiáng)制披露義務(wù),該義務(wù)應(yīng)當(dāng)嵌入上文提及的刑事司法算法開發(fā)主體資質(zhì)和行業(yè)規(guī)范之中;二則應(yīng)當(dāng)建立起第三方技術(shù)人員的出庭說明義務(wù),主要適用于控辯雙方對(duì)推論的合理性存在爭(zhēng)議,但無法通過算法本身進(jìn)行外部評(píng)價(jià),并且所涉事項(xiàng)對(duì)于定罪和量刑具有重要意義的情形。
在網(wǎng)絡(luò)信息時(shí)代,社會(huì)治理的各個(gè)領(lǐng)域可能面臨一些共同的挑戰(zhàn),算法治理便是其中的典型。不同場(chǎng)景中算法的具體運(yùn)用方式、程度均存在差異,算法治理所要達(dá)到的目的亦存在差異。因此,算法規(guī)制的探討不僅要著眼于宏觀層面,還應(yīng)結(jié)合具體場(chǎng)景的具體需要。在當(dāng)前刑事司法的場(chǎng)景中,算法的應(yīng)用尚未進(jìn)展到?jīng)Q策階段,但并不意味著對(duì)其進(jìn)行規(guī)制的緊迫性更低。相反,恰恰因?yàn)樗惴ǜ嗟匾酝普摰男问诫[藏于最終決策之后,在可能嚴(yán)重干預(yù)乃至減損公民基本權(quán)利時(shí),其危害性反而不易察覺,規(guī)制難度反而更高。對(duì)此,算法治理的相關(guān)研究需要關(guān)注到刑事司法領(lǐng)域的特殊性,同時(shí)刑事司法研究和制度建設(shè)也需要對(duì)當(dāng)前廣泛運(yùn)用的算法推論予以及時(shí)回應(yīng)。在這一過程中,國(guó)家刑罰權(quán)的高度強(qiáng)制性和嚴(yán)厲性使得形式意義上的正當(dāng)程序已經(jīng)難以滿足需求,算法推論的規(guī)制不能僅僅停留在可解釋性上,而是要進(jìn)入到實(shí)質(zhì)性與合理性的判斷層面。這種合理性不僅僅是案件真實(shí)的需要,更是刑事訴訟運(yùn)行中相對(duì)人重要權(quán)利得到有效保障的需要,是實(shí)質(zhì)正當(dāng)程序的題中應(yīng)有之義。
安徽師范大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)2022年6期