余鵬文
在數(shù)字技術(shù)發(fā)展日新月異的背景下,大數(shù)據(jù)、人工智能、區(qū)塊鏈等新興網(wǎng)絡(luò)信息技術(shù)在司法領(lǐng)域不斷得到深化運(yùn)用,使得我國(guó)刑事司法制度和訴訟程序迎來(lái)前所未有的發(fā)展機(jī)遇和現(xiàn)實(shí)挑戰(zhàn)。正如英國(guó)學(xué)者理查德·薩斯坎德在《法律人的明天會(huì)怎樣?——法律職業(yè)的未來(lái)》一書(shū)中提到,隨著信息技術(shù)和互聯(lián)網(wǎng)適用場(chǎng)域不斷擴(kuò)大,將產(chǎn)生龐大和難以計(jì)算的海量數(shù)據(jù),相應(yīng)地需要人機(jī)交互來(lái)幫助人們應(yīng)對(duì)大數(shù)據(jù)帶來(lái)的挑戰(zhàn),同時(shí)利用好其中蘊(yùn)含的豐富價(jià)值。大數(shù)據(jù)的顛覆性在于,重要的法律見(jiàn)解、關(guān)聯(lián)性,甚至算法可能會(huì)在法律實(shí)務(wù)中和法律風(fēng)險(xiǎn)管理中獲得核心地位。(1)理查德·薩斯坎德:《法律人的明天會(huì)怎樣?——法律職業(yè)的未來(lái)》,北京大學(xué)出版社,2015年,第62-63頁(yè)。從國(guó)家發(fā)展戰(zhàn)略和司法實(shí)踐情況來(lái)看,大數(shù)據(jù)加上算法,已經(jīng)成為智能刑事司法的中心議題,并且在預(yù)測(cè)警務(wù)、犯罪風(fēng)險(xiǎn)評(píng)估、量刑建議輔助、量刑決策輔助等事項(xiàng)上得到深度運(yùn)用,從而有效發(fā)揮人工智能技術(shù)在重復(fù)性、規(guī)律性工作中的效率優(yōu)勢(shì)。但同時(shí)也要注意,在刑事司法中使用人工智能來(lái)代替法官裁決,從理論上看有可能使得憲法和刑事訴訟法規(guī)定的程序正義基本原則變得面目全非,而算法歧視、算法黑箱等背離程序公開(kāi)性和公正性的技術(shù)特質(zhì)亦與刑事正當(dāng)程序相互沖突和抵牾,可能對(duì)社會(huì)結(jié)構(gòu)和司法體系造成不可逆轉(zhuǎn)的持續(xù)性損害。(2)Adrian Zuckerman, “Artificial Intelligence-Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review, Vol.136,No.9, 2020.
作為大數(shù)據(jù)和算法技術(shù)的結(jié)合體,人工智能在法律實(shí)踐中的應(yīng)用已經(jīng)成為全面推進(jìn)依法治國(guó),建設(shè)法治國(guó)家、法治政府、法治社會(huì)以及實(shí)現(xiàn)國(guó)家治理體系和治理能力現(xiàn)代化的必要路徑。2016年11月,在世界互聯(lián)網(wǎng)大會(huì)智慧法院暨網(wǎng)絡(luò)法治論壇上,我國(guó)最高人民法院院長(zhǎng)周強(qiáng)提出:“推動(dòng)人工智能技術(shù)在司法活動(dòng)中的應(yīng)用……通過(guò)推進(jìn)深度學(xué)習(xí)、大數(shù)據(jù)算法等在審判執(zhí)行工作中的深度應(yīng)用,大力開(kāi)發(fā)人工司法智能,為法官辦案提供智能化服務(wù)?!?3)周強(qiáng):《建設(shè)智慧法院 努力讓人民群眾在每一個(gè)司法案件中感受到公平正義》,2016-11-17,https://mp.weixin.qq.com/s/unJznriWfLJp6d0YaD7CTA,訪問(wèn)日期:2022-07-16。受到實(shí)踐需求以及政策導(dǎo)向等因素的影響,預(yù)測(cè)警務(wù)、智慧檢務(wù)和智慧法院建設(shè)是我國(guó)人工智能司法應(yīng)用的重點(diǎn)發(fā)展領(lǐng)域,也逐漸成為現(xiàn)代化司法應(yīng)用發(fā)展的新趨勢(shì)。
一是,在偵查階段,以預(yù)測(cè)警務(wù)為核心的犯罪風(fēng)險(xiǎn)防控機(jī)制成為各地警務(wù)工作的重要組成部分,從而實(shí)現(xiàn)對(duì)犯罪活動(dòng)的高效、精準(zhǔn)打擊。例如,2013年江蘇省蘇州市公安機(jī)關(guān)已經(jīng)積極探索運(yùn)用大數(shù)據(jù)思維和方法研發(fā)犯罪預(yù)測(cè)系統(tǒng)。該系統(tǒng)學(xué)習(xí)了蘇州市10年來(lái)發(fā)生的1300萬(wàn)條歷史警情數(shù)據(jù),記憶了包括居民收入水平、娛樂(lè)場(chǎng)所地點(diǎn)等7.8億條數(shù)據(jù),并且輸入關(guān)于實(shí)有人口和特殊人群地理信息等382種相關(guān)變量數(shù)據(jù),能夠通過(guò)自主關(guān)聯(lián)計(jì)算向基層民警推送重點(diǎn)巡防區(qū)域信息。(4)湯瑜:《大數(shù)據(jù)時(shí)代,“互聯(lián)網(wǎng)+警務(wù)”升級(jí)社會(huì)治理模式》,2017-01-04,http://www.mzyfz.com/cms/benwangzhuanfang/xinwenzhongxin/zuixinbaodao/html/1040/2017-01-04/content-1243792.html,訪問(wèn)日期:2022-07-16。二是,在檢察系統(tǒng)中,最高人民檢察院提出的智慧檢務(wù)建設(shè)重大戰(zhàn)略主要在于推進(jìn)智能輔助支持系統(tǒng)、案件管理應(yīng)用系統(tǒng)、遠(yuǎn)程提訊系統(tǒng)以及監(jiān)獄檢察信息指揮系統(tǒng)等體系建設(shè),為檢察機(jī)關(guān)提出精準(zhǔn)量刑建議、評(píng)估社會(huì)危險(xiǎn)性等檢察工作提供智能輔助,也能統(tǒng)籌優(yōu)化檢察機(jī)關(guān)“人、事、財(cái)、物、策”等各項(xiàng)管理事項(xiàng),全面提升檢察機(jī)關(guān)現(xiàn)代化管理水平。(5)李訓(xùn)虎:《刑事司法人工智能的包容性規(guī)制》,《中國(guó)社會(huì)科學(xué)》2021年第2期。三是,人工智能概念的引入對(duì)智慧法院建設(shè)起到積極的推動(dòng)作用,其涉及司法管理和實(shí)際辦案流程的智能化。針對(duì)大量審判數(shù)據(jù)的智能分類、提取、整合、分析,以及對(duì)相似數(shù)據(jù)的有效檢索,人工智能為刑事審判中的法官認(rèn)定事實(shí)和適用法律等決策提供資源推薦、案例研判以及實(shí)證分析等智能服務(wù)。2017年5月,由上海市高級(jí)人民法院牽頭研發(fā)的代號(hào)“206”的上海刑事案件智能輔助辦案系統(tǒng)是典型的智能應(yīng)用軟件。該系統(tǒng)集成了法律文書(shū)自動(dòng)生成、電子卷宗移送、輔助庭審、類案推送、量刑參考等多項(xiàng)功能,大大地提高了法院辦案質(zhì)量和效率,節(jié)約了司法資源和成本。(6)崔亞?wèn)|主編:《世界人工智能法治藍(lán)皮書(shū)(2019年)》,上海人民出版社,2019年,第122-124頁(yè)。此外,美國(guó)的COMPAS風(fēng)險(xiǎn)評(píng)估工具在大量刑事案件中通過(guò)預(yù)測(cè)再犯可能性來(lái)輔助法官量刑判決。該系統(tǒng)通過(guò)將犯罪參與作用、違反法規(guī)程度、暴力性質(zhì)、犯罪牽連、毒品濫用、經(jīng)濟(jì)困難、職業(yè)或教育問(wèn)題、社會(huì)環(huán)境、失業(yè)情況、固定住所、社會(huì)交往、認(rèn)罪態(tài)度和犯罪人格等相關(guān)信息轉(zhuǎn)化為數(shù)字進(jìn)行評(píng)估,并給出一個(gè)再犯風(fēng)險(xiǎn)系數(shù),法官可以據(jù)此決定犯罪人所應(yīng)遭受的刑罰或是否允許保釋。(7)Brennan, Tim, William Dietrich & Beate Ehret, “Evaluating the Predictive Validity of the Compas Risk and Needs Assessment System,” Criminal Justice and Behavior, Vol.36, No.1, 2009.
從上述信息技術(shù)的實(shí)踐應(yīng)用情況來(lái)看,以大數(shù)據(jù)分析為基礎(chǔ)的犯罪風(fēng)險(xiǎn)預(yù)防機(jī)制不斷擴(kuò)張,并且影響后續(xù)刑事訴訟程序,而人工智能也開(kāi)始深度介入社會(huì)危險(xiǎn)性和再犯風(fēng)險(xiǎn)的評(píng)估和預(yù)測(cè)。對(duì)此,當(dāng)從更為宏觀的視野審視當(dāng)下刑事訴訟制度正在經(jīng)歷的種種變化,審視數(shù)字技術(shù)引發(fā)的刑事司法權(quán)力格局變動(dòng)以及傳統(tǒng)和新型公民基本權(quán)利面臨的技術(shù)沖擊。(8)裴煒:《數(shù)字正當(dāng)程序——網(wǎng)絡(luò)時(shí)代的刑事訴訟》,中國(guó)法制出版社,2021年,第1頁(yè)。
1.犯罪控制:自動(dòng)化司法作為司法機(jī)關(guān)的“力量倍增器”
當(dāng)下大數(shù)據(jù)、算法等信息技術(shù)在司法當(dāng)中能夠得到深度運(yùn)用和迅速落地,盡管具有為當(dāng)事人、訴訟參與人及社會(huì)公眾提供便捷化、可及化訴訟服務(wù)的目標(biāo)導(dǎo)向,但主要推動(dòng)力還是在于新型技術(shù)手段在犯罪控制方面能夠發(fā)揮令人驚嘆的作用,尤其是針對(duì)利用新技術(shù)的網(wǎng)絡(luò)犯罪。(9)張建偉:《司法的科技應(yīng)用:兩個(gè)維度的觀察與分析》,《浙江工商大學(xué)學(xué)報(bào)》2021年第5期。具體表現(xiàn)在以下三個(gè)方面:一是自動(dòng)化司法需要與具體的任務(wù)、應(yīng)用場(chǎng)景結(jié)合,因而其中算法決策在設(shè)計(jì)時(shí)所嵌入的公共價(jià)值是單一的,即通??紤]的只是司法效率。例如,人工智能引導(dǎo)下的預(yù)測(cè)警務(wù)和人臉識(shí)別,能夠通過(guò)挖掘、學(xué)習(xí)和分析疑難復(fù)雜犯罪信息,準(zhǔn)確地鎖定和追蹤犯罪嫌疑人的身份,有利于提升案件的偵破率。二是刑事案件智能輔助決策系統(tǒng)作為人工智能司法應(yīng)用的創(chuàng)新發(fā)展,通過(guò)制定公檢法共同適用的證據(jù)標(biāo)準(zhǔn)和證據(jù)規(guī)則指引,實(shí)現(xiàn)公檢法辦理刑事案件網(wǎng)上運(yùn)行、互聯(lián)互通、數(shù)據(jù)共享,進(jìn)一步強(qiáng)化公檢法機(jī)關(guān)之間的相互配合,使得刑事案件辦理更加流水線化,相應(yīng)地提高刑事案件的辦案效率。(10)李訓(xùn)虎:《刑事司法人工智能的包容性規(guī)制》,《中國(guó)社會(huì)科學(xué)》2021年第2期。三是借助大數(shù)據(jù)與算法的技術(shù)優(yōu)勢(shì)建立的案件管理系統(tǒng)和智能輔助支持系統(tǒng),其中內(nèi)設(shè)的法律文書(shū)自動(dòng)生成、電子卷宗一鍵傳送、類案推送、量刑參考等附加功能能夠分擔(dān)司法人員大量日常的事務(wù)性工作,極大地提升案件辦理的質(zhì)效。(11)卞建林:《人工智能時(shí)代我國(guó)刑事訴訟制度的機(jī)遇與挑戰(zhàn)》,《江淮論壇》2020年第4期。
2.正當(dāng)程序:自動(dòng)化司法可能侵犯法律正當(dāng)程序基本原則
人工智能能提升打擊犯罪的司法效率,也能在一定程度上保障正當(dāng)程序,如通過(guò)類案推送和量刑參考等功能實(shí)現(xiàn)同案同判、類案類判,有助于實(shí)現(xiàn)法律平等適用。但從刑事訴訟法的限權(quán)視角出發(fā),刑事司法中過(guò)度關(guān)注技術(shù)賦能,在加強(qiáng)國(guó)家對(duì)社會(huì)的控制力的同時(shí),也可能損害司法制度中嵌入的程序正義基本原則,侵犯憲法和刑事訴訟法允諾保障的公民基本權(quán)利。對(duì)此,大數(shù)據(jù)在助力犯罪風(fēng)險(xiǎn)評(píng)估從而優(yōu)化刑事司法資源配置的同時(shí),也產(chǎn)生與刑事正當(dāng)程序的激烈沖突。比如犯罪治理提前啟動(dòng)、數(shù)據(jù)獲取分析能力差距以及第三方介入?yún)⑴c,上述特征與無(wú)罪推定原則、控辯平等原則和權(quán)力專屬原則之間產(chǎn)生矛盾。(12)裴煒:《個(gè)人信息大數(shù)據(jù)與刑事正當(dāng)程序的沖突及其調(diào)和》,《法學(xué)研究》2018年第2期。而在司法實(shí)踐中,美國(guó)COMPAS軟件不僅在輿論上受到批評(píng),在法庭上也受到挑戰(zhàn)。在State v. Loomis一案中,被告人對(duì)威斯康星州使用來(lái)源封閉的風(fēng)險(xiǎn)評(píng)估軟件作為判決其6年監(jiān)禁刑的依據(jù)提出質(zhì)疑,聲稱這一做法違反了美利堅(jiān)合眾國(guó)憲法第十四條修正案規(guī)定的正當(dāng)法律程序條款。被告人Loomis針對(duì)量刑時(shí)法官使用COMPAS工具提出三點(diǎn)反對(duì)意見(jiàn):第一,該軟件侵犯了被告依據(jù)案件準(zhǔn)確信息判刑的權(quán)利,因?yàn)镃OMPAS涉及商業(yè)秘密保護(hù)使得當(dāng)事人無(wú)法評(píng)估其準(zhǔn)確性;第二,侵犯了被告享有個(gè)性化判決的權(quán)利;第三,在量刑時(shí)審理法院將性別作為一項(xiàng)風(fēng)險(xiǎn)評(píng)估因素。(13)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).該案例也反映出以大數(shù)據(jù)和算法為代表的新型信息技術(shù)在介入刑事司法運(yùn)行過(guò)程中,將對(duì)傳統(tǒng)程序正義理論產(chǎn)生沖擊。
新型信息技術(shù)在對(duì)刑事訴訟基本理念和價(jià)值帶來(lái)沖擊時(shí),是否在一定程度上重新塑造我國(guó)刑事司法樣態(tài)?在“技法沖突”情況下,傳統(tǒng)程序正義理論又將遭遇哪些適用困境?而在當(dāng)前弱人工智能時(shí)代,對(duì)于刑事訴訟程序的規(guī)制究竟是以技術(shù)為核心還是以人為本?作為部門(mén)法學(xué)的研究人員,我們應(yīng)當(dāng)秉持一種什么樣的學(xué)術(shù)態(tài)度來(lái)重新調(diào)試數(shù)字化時(shí)代刑事程序正義理論?
大數(shù)據(jù)和算法共同構(gòu)成人工智能發(fā)展的兩大核心驅(qū)動(dòng)力,其中大數(shù)據(jù)主要是指規(guī)模龐大的數(shù)據(jù)存量和數(shù)據(jù)來(lái)源,而算法則是指數(shù)據(jù)分析的指令、程序和步驟。從技術(shù)層面來(lái)看,將大數(shù)據(jù)和算法應(yīng)用到司法場(chǎng)域,輔助司法決策,甚至在特定情況下可以直接依據(jù)人工智能做出司法決策,能夠使得司法裁判機(jī)制獲得處理海量信息的能力,有助于增強(qiáng)司法機(jī)關(guān)辦案能力、提高司法效率。但是,大數(shù)據(jù)和算法本身存在的風(fēng)險(xiǎn)也將對(duì)傳統(tǒng)程序正義理論產(chǎn)生技術(shù)性沖擊。(14)鄭飛主編:《中國(guó)人工智能法治發(fā)展報(bào)告(1978—2019)》,知識(shí)產(chǎn)權(quán)出版社,2020年,第126頁(yè)。
在目前的法學(xué)研究當(dāng)中,程序正義理論的基本要素尚未形成統(tǒng)一的認(rèn)識(shí)。有論者認(rèn)為,程序正義主要包括訴訟程序的公開(kāi)性、裁判人員的中立性和獨(dú)立性、當(dāng)事人地位的平等性、訴訟過(guò)程的參與性、訴訟活動(dòng)的合法性以及案件處理的正確性。(15)譚世貴主編:《刑事訴訟原理與改革》,法律出版社,2002年,第29-36頁(yè)。也有論者認(rèn)為,法律程序的設(shè)置應(yīng)符合以下基本的程序公正要求:一是程序的參與性,二是裁判者的中立性,三是程序的對(duì)等性,四是程序的合理性,五是程序的及時(shí)性,六是程序的終結(jié)性。(16)陳瑞華:《刑事訴訟法》,北京大學(xué)出版社,2021年,第45-49頁(yè)?;诖?,本文從傳統(tǒng)程序正義理論的諸多要素中提取出受自動(dòng)化司法影響較為深刻的四大基本原則來(lái)予以深入探討,即裁判中立原則、程序公開(kāi)原則、程序?qū)Φ仍瓌t和程序參與原則。
無(wú)論是人工決策程序還是算法決策程序,邏輯本身隱含著歧視的風(fēng)險(xiǎn),在一定程度上,算法偏見(jiàn)是一個(gè)不可避免的問(wèn)題。從人類文化偏見(jiàn)、算法本身的特性來(lái)分析大數(shù)據(jù)算法歧視的內(nèi)涵,可以發(fā)現(xiàn)即便在技術(shù)層面上算法設(shè)計(jì)者沒(méi)有將偏見(jiàn)植入大數(shù)據(jù)算法的主觀意愿,但由于“GIGO 定律” (Garbage In,Garbage Out)、數(shù)據(jù)樣本天然的權(quán)重差異以及大數(shù)據(jù)的擴(kuò)展屬性,大數(shù)據(jù)算法也存在偏見(jiàn)或歧視的必然性。(17)張玉宏、秦志光、肖樂(lè):《大數(shù)據(jù)算法的歧視本質(zhì)》,《自然辯證法研究》2017年第5期。而當(dāng)人工智能技術(shù)引入司法裁判,受限于錯(cuò)案責(zé)任追究制的壓力和趨利避害的本性,法官在利用刑事案件智能輔助決策系統(tǒng)來(lái)強(qiáng)化裁判結(jié)果的論證力時(shí),毫無(wú)疑問(wèn)會(huì)受到算法偏見(jiàn)的污染,對(duì)案件當(dāng)事人形成偏見(jiàn)或預(yù)斷,自然有違裁判者中立原則。(18)陳俊宇:《司法程序中的人工智能技術(shù):現(xiàn)實(shí)風(fēng)險(xiǎn)、功能定位與規(guī)制措施》,《江漢論壇》2021年第11期。例如,在威斯康星州的Loomis案中,黑人被告主張使用算法作出的量刑判決違憲。盡管威斯康星州最高法院最后認(rèn)定算法并未違憲,但卻對(duì)該事件的法官進(jìn)行了書(shū)面“警告”,要求其不能全盤(pán)接受人工智能的評(píng)估結(jié)果,而最多只能將其作為判斷依據(jù)之一,并要求其意識(shí)到測(cè)評(píng)結(jié)果中可能包含錯(cuò)誤和偏見(jiàn)。(19)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
而對(duì)于算法偏見(jiàn)的具體成因,通過(guò)借鑒萊普利·普魯諾(Lepri Bruno)的三分法,將算法歧視產(chǎn)生的根源概括為數(shù)據(jù)中預(yù)先就存有偏見(jiàn)、算法本身構(gòu)成歧視和數(shù)據(jù)抽樣偏差及其權(quán)重設(shè)置差異三個(gè)方面。(20)劉培、池忠軍:《算法歧視的倫理反思》,《自然辯證法研究》2019年第10期。一是算法歧視是對(duì)人類社會(huì)中既有偏見(jiàn)的反映,即當(dāng)下社會(huì)是充滿偏見(jiàn)的,人工智能在學(xué)習(xí)和理解了社會(huì)現(xiàn)狀之后,以此為基礎(chǔ)進(jìn)行人物側(cè)寫(xiě),將會(huì)把這些既存的偏見(jiàn)保存在算法之內(nèi)。(21)福田雅樹(shù)、林秀彌、成原慧:《AI聯(lián)結(jié)的社會(huì)——人工智能網(wǎng)絡(luò)化時(shí)代的倫理與法律》,社會(huì)科學(xué)文獻(xiàn)出版社,2020年,第314頁(yè)。例如,犯罪風(fēng)險(xiǎn)評(píng)估工具中存在種族差異的原因在于,不同種族之間的逮捕率是不相等的,而算法只是簡(jiǎn)單地重現(xiàn)了一種嚴(yán)重不平衡的社會(huì)現(xiàn)狀。除非所有群體都具有相同的逮捕率,否則這種算法偏見(jiàn)就難以避免。(22)Fry, Hannah, Hello World: Being Human in the Age of Algorithms, New York: W.W. Norton &Company, 2018, p.69.二是算法本身構(gòu)成一種歧視。因?yàn)樗惴ǚ诸愂腔跉v史數(shù)據(jù)進(jìn)行優(yōu)先化排序、關(guān)聯(lián)性選擇和過(guò)濾性排除的,以此來(lái)對(duì)特定人員貼上數(shù)字標(biāo)簽,將其劃入某一片區(qū)并與某一類概率性的群體關(guān)聯(lián)起來(lái),但這種分類所依據(jù)的要素可能并沒(méi)有考慮到是否合法或者合乎道德,從而產(chǎn)生算法歧視。(23)Vries, K.D., “Identity, Profiling Algorithms and a World of Ambient Intelligence,” Ethics & Information Technology, Vol.12, No.1,2010.例如,一個(gè)評(píng)估再犯概率的算法可能會(huì)將種族或膚色作為再犯的評(píng)價(jià)指標(biāo),僅僅是因?yàn)橛?xùn)練樣本中有較大比例是有色人種,因此在統(tǒng)計(jì)學(xué)上種族和膚色具有顯著意義,但在司法決策時(shí)將種族作為保釋、假釋或者量刑的判斷依據(jù),顯然會(huì)招致諸多批評(píng)。(24)Jon Kleinberg, et al., “Human Decisions and Machine Predictions,” The Quarterly Journal of Economics, Vol.133, No.1,2018.三是編程人員在設(shè)計(jì)算法過(guò)程中植入自己的偏見(jiàn),或者算法實(shí)際控制者可能在輸入數(shù)據(jù)時(shí)產(chǎn)生偏差或?qū)Σ煌蛩氐臋?quán)重分配不當(dāng),導(dǎo)致產(chǎn)生相應(yīng)的算法偏見(jiàn)或歧視。由于當(dāng)前在法律知識(shí)圖譜領(lǐng)域,機(jī)器學(xué)習(xí)主要還是采取監(jiān)督學(xué)習(xí)的方法,即人工標(biāo)記數(shù)據(jù)提供給機(jī)器,訓(xùn)練機(jī)器學(xué)習(xí),告訴機(jī)器這些標(biāo)簽數(shù)據(jù)的含義(25)葉衍艷:《法律知識(shí)圖譜的概念與建構(gòu)》,載華宇元典法律人工智能研究院編著:《讓法律人讀懂人工智能》,法律出版社,2019年,第27頁(yè)。,因而算法不可避免地融入程序編寫(xiě)人員的價(jià)值偏好。
“在人工智能系統(tǒng)輸入的數(shù)據(jù)和其輸出的結(jié)果之間,存在著人們無(wú)法洞悉的‘隱層’,這就是算法黑箱?!?26)徐鳳:《人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開(kāi)》,《東方法學(xué)》2019年第6期。算法黑箱與程序正義理論對(duì)司法決策的透明性要求明顯不符,導(dǎo)致人們可能無(wú)法理解人工智能機(jī)器是如何得出結(jié)果的,無(wú)法確定當(dāng)事人的論點(diǎn)是否得到公平考量,影響人們對(duì)刑事司法人工智能的認(rèn)同感。即便拋開(kāi)公平性不談,算法決策程序缺乏透明度可能導(dǎo)致過(guò)度信任自動(dòng)化司法結(jié)論的可靠性和科學(xué)性,從而產(chǎn)生“自動(dòng)化偏見(jiàn)(Automation Bias)”,即人類具有一種認(rèn)知傾向,就是會(huì)過(guò)于相信電腦自動(dòng)作出的判斷,并且囫圇吞棗地全盤(pán)接受這些判斷。(27)Danielle Citron,“Fairness of Risk Scores in Criminal Sentencing,” 2016-07-13, http://www.forbes.com/sites/daniellecitron/2016/07/13/unfairness-of-risk-scores-in-criminal-sentencing/#6d8f934a4479, 訪問(wèn)日期:2022-07-17。
對(duì)于算法缺乏透明度的問(wèn)題,可以歸納為主觀不愿和客觀不能公開(kāi)兩種情形。主觀不愿公開(kāi)算法決策程序主要是兩方面原因:一是設(shè)計(jì)算法的公司從維護(hù)自己商業(yè)秘密的權(quán)利角度出發(fā)竭力掩蓋其算法的內(nèi)部邏輯。(28)Rebecca Wexler, “Life, Liberty, and Trade Secrets: Intellectual Property in the Criminal Justice System,” STAN. L. REV. , Vol.70, No.5,2018.例如,在威斯康星州的 Loomis案中,法官將COMPAS犯罪風(fēng)險(xiǎn)評(píng)估工具的算法看作商業(yè)秘密,從保護(hù)知識(shí)產(chǎn)權(quán)的角度出發(fā)來(lái)豁免算法擁有者公開(kāi)算法代碼和說(shuō)明算法工作原理的義務(wù)。(29)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).二是從國(guó)家安全的角度考慮,為保證司法機(jī)關(guān)在算法決策程序當(dāng)中的支配性地位,防止犯罪分子反向?qū)W習(xí)自動(dòng)化決策系統(tǒng),因而大多數(shù)刑事司法人工智能的算法是不對(duì)社會(huì)公開(kāi)披露的。例如,在斯洛文尼亞,警方在所謂的“占領(lǐng)運(yùn)動(dòng)”期間創(chuàng)建了一個(gè)Twitter分析工具,用來(lái)追蹤“嫌疑人”并進(jìn)行情緒分析,而警方認(rèn)為該分析活動(dòng)屬于“偵查戰(zhàn)術(shù)和方法”,不允許公眾訪問(wèn)。(30)Ale? Zavr?nik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5,2021.但這種“黑箱”效應(yīng)也在客觀上增加了司法決策不公的風(fēng)險(xiǎn),甚至加劇司法機(jī)關(guān)在算法上濫用權(quán)力的可能。而在我國(guó),根據(jù)《中華人民共和國(guó)反不正當(dāng)競(jìng)爭(zhēng)法》《中華人民共和國(guó)政府信息公開(kāi)條例》等規(guī)定,算法也通常被認(rèn)為是受到法律保護(hù)的商業(yè)秘密或者國(guó)家秘密,因而刑事司法人工智能應(yīng)用的算法黑箱問(wèn)題依舊沒(méi)有得到解決。(31)雷剛、喻少如:《算法正當(dāng)程序:算法決策程序?qū)φ?dāng)程序的沖擊與回應(yīng)》,《電子政務(wù)》2021年第12期。
另一方面,從技術(shù)角度來(lái)看,即便法院將對(duì)所有人開(kāi)放源代碼和算法公式作為使用犯罪風(fēng)險(xiǎn)評(píng)估工具的先決條件,但連軟件開(kāi)放者或許都無(wú)法解釋某些算法決策是如何做出的。例如,人工神經(jīng)網(wǎng)絡(luò)(ANN)的機(jī)器學(xué)習(xí)算法通過(guò)一個(gè)復(fù)雜的分層結(jié)構(gòu)進(jìn)行學(xué)習(xí),其決策規(guī)則沒(méi)有經(jīng)過(guò)先驗(yàn)編程,通常對(duì)人類來(lái)說(shuō)是無(wú)法理解的。(32)Liu, Han-Wei, Ching-Fu Lin & Yu-Jie Chen, “Beyond State v. Loomis: Artificial Intelligence, Government Algorithmization, and Accountability,” International Journal of Law and Information Technology, Vol.27, No.2,2019.相較于人工司法決策是根據(jù)法律、事實(shí)和經(jīng)驗(yàn)來(lái)進(jìn)行演繹推理,算法決策是依據(jù)大數(shù)據(jù)的相關(guān)性而非因果關(guān)系,因此無(wú)法提供理由說(shuō)明。(33)張凌寒:《算法自動(dòng)化決策與行政正當(dāng)程序制度的沖突與調(diào)和》,《社會(huì)科學(xué)文摘》2021年第2期。隨著時(shí)間的推移,算法的機(jī)器學(xué)習(xí)難度將不斷提高,使得法院更難評(píng)估每個(gè)因素與機(jī)器結(jié)論的相關(guān)程度,這可能違反法律面前人人平等和程序公開(kāi)原則。
在自動(dòng)化司法中,算法和大數(shù)據(jù)都在司法機(jī)關(guān)的完全控制之下,而司法機(jī)關(guān)通過(guò)運(yùn)用刑事案件智能輔助系統(tǒng)來(lái)強(qiáng)化自身的數(shù)據(jù)獲取和數(shù)據(jù)分析能力,加之披露義務(wù)和信息溝通規(guī)則缺位,加劇了司法機(jī)關(guān)與辯方之間的信息不對(duì)等。具體而言,一是在數(shù)據(jù)信息資源分配上,控辯之間存在“數(shù)字鴻溝”,即一方是有能力收集、儲(chǔ)存、挖掘海量司法數(shù)據(jù)的政府機(jī)關(guān)和網(wǎng)絡(luò)信息從業(yè)者等,另一方則是被收集數(shù)據(jù)的對(duì)象,僅享有受到嚴(yán)格限制的數(shù)據(jù)訪問(wèn)權(quán)利。(34)Mark. Andrejevic, “Big Data, Big Questions: The Big Data Divide,” International Journal of Communication, Vol.8, No.1,2014.緣于國(guó)家安全和個(gè)人信息保護(hù)的考量,立法將追訴犯罪活動(dòng)中的相關(guān)信息和數(shù)據(jù)列入國(guó)家秘密,導(dǎo)致辯方向有關(guān)部門(mén)申請(qǐng)獲取相關(guān)數(shù)據(jù)時(shí)遭遇數(shù)據(jù)準(zhǔn)入障礙。相反,偵控機(jī)關(guān)能夠通過(guò)政府部門(mén)共建的大數(shù)據(jù)綜合一體化平臺(tái)交換獲取海量司法數(shù)據(jù),也可以依法要求網(wǎng)絡(luò)信息業(yè)者等私人機(jī)構(gòu)協(xié)助執(zhí)法,大幅度提升信息獲取能力。(35)裴煒:《數(shù)字正當(dāng)程序——網(wǎng)絡(luò)時(shí)代的刑事訴訟》,中國(guó)法制出版社,2021年,第89頁(yè)。二是即便控辯雙方獲取到同樣的原始數(shù)據(jù),但在數(shù)據(jù)應(yīng)用方面雙方依舊存在“數(shù)據(jù)分析鴻溝”。即面對(duì)海量司法數(shù)據(jù),只有擁有相關(guān)基礎(chǔ)設(shè)施和大數(shù)據(jù)分析技能的控方,才能從數(shù)據(jù)碎片中獲取有價(jià)值的信息資源。(36)林曦、郭蘇建:《算法不正義與大數(shù)據(jù)倫理》,《社會(huì)科學(xué)》2020年第8期。在2009年的Skilling案中,美國(guó)聯(lián)邦法院認(rèn)為政府可以通過(guò)向辯方開(kāi)放對(duì)原始數(shù)據(jù)庫(kù)的文件訪問(wèn)權(quán)限來(lái)履行證據(jù)開(kāi)示義務(wù)而無(wú)須考慮文件數(shù)量龐大,因?yàn)楸桓婺軌蛳裾粯铀阉魑募?。這種不考慮控辯雙方數(shù)據(jù)分析能力差異的“文件傾倒”(document dump)行為,進(jìn)一步加劇了控辯雙方的實(shí)質(zhì)不平等。(37)United States v. Skilling, 554 F.3d 529, 577 (5th Cir. 2009).
當(dāng)公共法院系統(tǒng)越來(lái)越依賴刑事司法人工智能應(yīng)用時(shí),實(shí)體法院似乎在不斷消亡中,未來(lái)實(shí)踐中可能難以看到控辯雙方在法庭上公開(kāi)推進(jìn)辯論、發(fā)表量刑意見(jiàn)和論點(diǎn)的過(guò)程,也無(wú)法使得當(dāng)事人確信其所認(rèn)真發(fā)表的觀點(diǎn)得到法官充分的考量,則司法權(quán)威性和司法公信力也會(huì)相應(yīng)地減弱。(38)Adrian Zuckerman, “Artificial Intelligence - Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review,Vol.136, No.9,2020.對(duì)此,可以從兩方面來(lái)分析大數(shù)據(jù)算法可能惡化當(dāng)事人參與訴訟程序的問(wèn)題。從被追訴人的角度來(lái)看,當(dāng)前的刑事案件智能輔助系統(tǒng)是由政府和私營(yíng)網(wǎng)絡(luò)信息企業(yè)共同合作設(shè)計(jì)完成的,即算法權(quán)力是由政府部門(mén)所壟斷的,因而辯方無(wú)法了解人工智能應(yīng)用的底層代碼和算法邏輯,難以評(píng)價(jià)和質(zhì)疑算法的準(zhǔn)確性和偏差度,始終處于算法信息劣勢(shì)的境地。事實(shí)上,算法自動(dòng)化決策程序消解了訴訟程序中當(dāng)事人陳述和申辯的環(huán)節(jié),造成了程序參與原則的缺失。(39)張凌寒:《算法自動(dòng)化決策與行政正當(dāng)程序制度的沖突與調(diào)和》,《社會(huì)科學(xué)文摘》2021年第2期。而從司法機(jī)關(guān)的角度來(lái)看,犯罪預(yù)測(cè)工具、刑事案件智能輔助系統(tǒng)的引入和推廣將加劇偵查人員形成有罪推定的判斷,并且通過(guò)連鎖反應(yīng)傳遞到法官,使其形成未審先定的預(yù)斷和偏見(jiàn),則當(dāng)事人通過(guò)參與訴訟來(lái)影響裁判的相關(guān)權(quán)利實(shí)質(zhì)上受到損害。(40)李訓(xùn)虎:《刑事司法人工智能的包容性規(guī)制》,《中國(guó)社會(huì)科學(xué)》2021年第2期。
程序參與原則缺失的直接后果是導(dǎo)致司法裁判的可接受性明顯下降。司法領(lǐng)域中決定當(dāng)事人是否相信訴訟程序公正的因素主要有四項(xiàng):一是審判人員在與當(dāng)事人進(jìn)行互動(dòng)時(shí)是否尊重個(gè)人尊嚴(yán),二是審判人員是否中立,三是審判人員是否值得信賴,四是當(dāng)事人是否有機(jī)會(huì)參與訴訟程序。(41)Tom R. Tyler & Hulda Thorisdottir, “A Psychological Perspective on Compensation for Harm: Examining the September 11th Victim Compensation Fund,” DEPAUL L. REV. , Vol.53, No.2, 2003.但在人工智能司法當(dāng)中,首先,理想狀態(tài)下當(dāng)事人可能并不是直接與司法機(jī)關(guān)人員進(jìn)行交互,而是由計(jì)算機(jī)程序來(lái)確定量刑方案,導(dǎo)致當(dāng)事人作為人的尊嚴(yán)價(jià)值事實(shí)上被消解了。其次,對(duì)大數(shù)據(jù)算法的主要批評(píng)之一是其可能強(qiáng)化司法系統(tǒng)中已經(jīng)存在的偏見(jiàn)和歧視,并且算法的不透明和復(fù)雜性也導(dǎo)致當(dāng)事人對(duì)計(jì)算機(jī)程序難以產(chǎn)生信任和認(rèn)同。最后,如果當(dāng)事人能夠參與到訴訟過(guò)程中,并向裁判者表達(dá)自己的觀點(diǎn),那么其更有可能相信程序是合法、合理的,尤其是能夠直接向法官講述自己版本的故事,就更有可能認(rèn)為訴訟程序是公平的,這通常被稱為“過(guò)程控制”。在刑事司法系統(tǒng)中,由于被告人往往是由律師代理,很少在庭審程序中與審判人員進(jìn)行直接交談,因而在過(guò)程控制上本來(lái)表現(xiàn)不佳,而大數(shù)據(jù)算法進(jìn)一步惡化了該問(wèn)題。即在傳統(tǒng)司法模式中,被告人在量刑時(shí)可以向法官做最后陳述,請(qǐng)求法官?gòu)妮p判決,但在自動(dòng)化司法中,被告人已經(jīng)知道最終量刑判決實(shí)際上在庭審前已由計(jì)算機(jī)程序預(yù)測(cè)作出,其最后陳述并不是與真正的審判人員進(jìn)行對(duì)話。(42)Alexandra Natapoff, “Speechless: The Silencing of Criminal Defendants,” N.Y.U.L. REV., Vol.80, No.5, 2005.人工智能司法決策可能導(dǎo)致機(jī)器法律與人類的正義觀之間的鴻溝不斷擴(kuò)大,甚至司法機(jī)關(guān)也會(huì)開(kāi)始失去公眾的認(rèn)同和支持。
在刑事司法中,人工智能、大數(shù)據(jù)分析和機(jī)器學(xué)習(xí)通過(guò)技術(shù)賦能有效提升司法機(jī)關(guān)的辦案效率,但同時(shí)人工智能司法的迅速發(fā)展也引發(fā)關(guān)于技術(shù)與法治的激烈討論,即現(xiàn)行的程序正義理論是否能夠適應(yīng)人工智能刑事司法。通過(guò)深入分析刑事司法人工智能應(yīng)用實(shí)踐和現(xiàn)實(shí)技術(shù)發(fā)展水平,可以發(fā)現(xiàn)人工智能對(duì)法律行業(yè)的影響才剛剛嶄露頭角,應(yīng)當(dāng)以弱人工智能為現(xiàn)實(shí)語(yǔ)境來(lái)探討數(shù)字時(shí)代正當(dāng)程序規(guī)制原理,才符合數(shù)字化刑事訴訟程序發(fā)展方向。
1956年,在美國(guó)達(dá)特茅斯會(huì)議首次提出人工智能的概念后,超強(qiáng)運(yùn)算能力、大數(shù)據(jù)的出現(xiàn)和發(fā)展以及算法的持續(xù)改進(jìn),使得學(xué)術(shù)界在討論人工智能司法時(shí)思維發(fā)散,以至于把合理的想象和預(yù)期變成當(dāng)下的真實(shí)。(43)李則立:《人工智能全面進(jìn)軍法律界?先做好這三件事!》,載華宇元典法律人工智能研究院編著:《讓法律人讀懂人工智能》,法律出版社,2019年,第344頁(yè)。
1.兩種模式:強(qiáng)人工智能司法 VS 弱人工智能司法
根據(jù)人工智能所呈現(xiàn)的自主意識(shí)和能力的不同,可以將人工智能的發(fā)展階段分為弱人工智能和強(qiáng)人工智能,即“機(jī)器能夠智能地行動(dòng)(其行動(dòng)看起來(lái)如同它們是有智能的)”被稱為弱人工智能假設(shè),而“能夠如此行事的機(jī)器確實(shí)是在思考(不只是模擬思考)”則被稱為強(qiáng)人工智能假設(shè)。(44)羅素、諾維格:《人工智能——一種現(xiàn)代的方法》,殷建平、祝恩、劉越等譯,清華大學(xué)出版社,2013年,第851頁(yè)。強(qiáng)人工智能相比于前一階段,能夠通過(guò)程序算法獲得自主意識(shí),獨(dú)立思考問(wèn)題并制定解決問(wèn)題的最優(yōu)方案,也被稱為人類級(jí)別的人工智能。(45)蔣佳妮、堵文瑜:《促進(jìn)人工智能發(fā)展的法律與倫理規(guī)范》,科學(xué)技術(shù)文獻(xiàn)出版社,2020年,第6頁(yè)。事實(shí)上,令社會(huì)廣泛擔(dān)憂的機(jī)器人和人工智能屬于強(qiáng)人工智能,但到目前為止人工智能技術(shù)尚未出現(xiàn)“奇點(diǎn)” (Singularity)突破和爆發(fā),因而人工智能的語(yǔ)義理解能力和識(shí)別人類情感能力尚落后于人類。(46)王瑩:《人工智能法律基礎(chǔ)》,西安交通大學(xué)出版社,2021年,第24頁(yè)。
在此前提下,判斷刑事司法人工智能應(yīng)用實(shí)踐情況究竟是強(qiáng)人工智能司法還是弱人工智能司法,其核心依據(jù)是“法官是否已經(jīng)能被人工智能所取代”。對(duì)于人工智能司法應(yīng)用的定位,學(xué)界主要存在“智能替代說(shuō)”和“有限智能說(shuō)”兩種觀點(diǎn)。前者認(rèn)為人工智能的本質(zhì)是對(duì)人的意識(shí)與思維的信息過(guò)程的模擬,隨著技術(shù)的發(fā)展,人工智能會(huì)實(shí)現(xiàn)“替代法官實(shí)現(xiàn)非規(guī)范判斷”直至最終“代替法官直接作出裁判”。(47)黃京平:《刑事司法人工智能的負(fù)面清單》,《探索與爭(zhēng)鳴》2017年第10期。而后者認(rèn)為在人工智能適用于司法的過(guò)程中,容易出現(xiàn)海量數(shù)據(jù)的殘缺性悖論;同時(shí),算法的“程序剛性”和“不透明性”與司法實(shí)踐的“復(fù)雜性”和審判程序的“公開(kāi)性”相沖突。以毫無(wú)節(jié)制的“人工智能+”方式改造審判空間后,法官定位勢(shì)必發(fā)生極大的動(dòng)搖,甚至造成審判系統(tǒng)乃至司法權(quán)的全面解構(gòu),(48)季衛(wèi)東:《人工智能時(shí)代的司法權(quán)之變》,《東方法學(xué)》2018年第1期。因此人工智能目前被定位為“法官辦案輔助工具”(49)潘庸魯:《人工智能介入司法領(lǐng)域的價(jià)值與定位》,《探索與爭(zhēng)鳴》2017年第10期。。而從司法實(shí)踐情況來(lái)看,目前廣泛應(yīng)用的人工智能司法產(chǎn)品大多是將通用化的技術(shù)移植到部分司法活動(dòng)中,但對(duì)于疑難案件的事實(shí)認(rèn)定、證據(jù)的證明力評(píng)價(jià)和法律解釋等司法問(wèn)題依舊難以通過(guò)人工智能來(lái)解決,還需要將法律知識(shí)、經(jīng)驗(yàn)邏輯、裁量理性等非形式因素與人工智能進(jìn)行深度融合。
2.實(shí)踐分析:以人為本的刑事司法人工智能應(yīng)用場(chǎng)景
認(rèn)知科學(xué)家瑪格麗特·博登(Margaret Boden)區(qū)分了三種不同類型的創(chuàng)造力:一是基本創(chuàng)造力,主要處于探索可能性的邊緣,其占創(chuàng)造力的97%且適合用于日常計(jì)算;二是混合不同概念構(gòu)造而組成的創(chuàng)造力(如曲線美的建筑),可能由人工智能來(lái)執(zhí)行;三是變革性創(chuàng)造力,包括自行改變游戲規(guī)則,比如畢加索的立體主義畫(huà)作。(50)Margaret A. Boden, AI: Its Nature and Future , Oxford: Oxford University Press, 2016, pp.68-72.在強(qiáng)人工智能時(shí)代,智能體系是由感知、記憶、決定和行動(dòng)等子系統(tǒng)構(gòu)建而成的,而且可以自主開(kāi)發(fā)概念和獲得技能,與人類最初的數(shù)據(jù)輸入和算法設(shè)計(jì)只存在微弱的關(guān)聯(lián)。此時(shí)以人類思維為基礎(chǔ)的程序正義理論對(duì)于強(qiáng)人工智能司法而言將毫無(wú)參考意義,因?yàn)槿斯ぶ悄芫哂腥祟愲y以企及的信息收集、分析和判斷能力,而人類的認(rèn)知能力難以揭示、解釋機(jī)器學(xué)習(xí)和算法決策的內(nèi)部邏輯。那么,法律訴訟的參與者將被視為糾紛根源,AI技術(shù)則被視為超越人類的問(wèn)題解決方案。這種基于人工智能的超人類主義可以將所有的現(xiàn)實(shí)都簡(jiǎn)化為數(shù)據(jù),得出“人類不過(guò)是信息處理對(duì)象”的結(jié)論。(51)Sarah Spiekermann, Peter Hampson, Charles Ess, et al., “The Ghost of Transhumanism & the Sentience of Existence,” 2017-07-19, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3617635, 訪問(wèn)日期:2022-11-09。
但在弱人工智能時(shí)代,大數(shù)據(jù)和算法技術(shù)應(yīng)用于刑事司法當(dāng)中并沒(méi)有降低人的主體性地位。具體表現(xiàn)為以下四個(gè)方面:一是在編程目標(biāo)上,當(dāng)下的自動(dòng)化司法決策的算法設(shè)計(jì)和編程都是為了追求特定的任務(wù),不具有一般人類智能水平。換而言之,人工智能仍然以任務(wù)為導(dǎo)向,它作為技術(shù)工具,是為人類設(shè)定的特定目標(biāo)和具體的對(duì)象而設(shè)計(jì)的,而不是正常地思考、判斷和行動(dòng)。(52)Turner, Jacob , Robot Rules: Regulating Artificial Intelligence, London: Palgrave Macmillan, 2019, pp.6-7.二是在算法邏輯方面,采用深度學(xué)習(xí)的人工智能是通過(guò)提取海量數(shù)據(jù)中的特征點(diǎn)來(lái)形成預(yù)測(cè)函數(shù)模型,并且隨著數(shù)據(jù)量的增大不斷試錯(cuò)來(lái)調(diào)整模型參數(shù)。(53)劉東亮:《技術(shù)性正當(dāng)程序:人工智能時(shí)代程序法和算法的雙重變奏》,《比較法研究》2020年第5期。但在司法實(shí)踐中,即使有極其微小概率的司法錯(cuò)誤也會(huì)造成社會(huì)秩序混亂,所以需要由人類對(duì)自動(dòng)化司法全過(guò)程進(jìn)行持續(xù)監(jiān)督和檢查。三是在訓(xùn)練策略上,刑事司法人工智能應(yīng)用是以監(jiān)督學(xué)習(xí)為主,即人工標(biāo)記訓(xùn)練數(shù)據(jù)提供給機(jī)器,機(jī)器再根據(jù)人工標(biāo)簽數(shù)據(jù)進(jìn)行學(xué)習(xí)和預(yù)測(cè)。編譯數(shù)據(jù)庫(kù)和創(chuàng)建用于預(yù)測(cè)的算法都需要由人類做出判斷,涉及開(kāi)發(fā)人員和管理人員的決策行為,因而可能出現(xiàn)輸入數(shù)據(jù)時(shí)存在偏差或者編譯代碼時(shí)植入偏見(jiàn)的錯(cuò)誤。四是在自然語(yǔ)言處理上,從原則上講,機(jī)器可以執(zhí)行自然語(yǔ)言處理,但其目前尚未完全理解和掌握自然語(yǔ)言。語(yǔ)言按照復(fù)雜性可以分為語(yǔ)法、語(yǔ)義和語(yǔ)用三個(gè)組成部分,其中語(yǔ)法決定語(yǔ)句的結(jié)構(gòu),語(yǔ)義關(guān)注語(yǔ)句的意義、詞語(yǔ)之間的關(guān)系以及所代表的含義,而語(yǔ)用學(xué)關(guān)注上下文之間的關(guān)系和意義。目前計(jì)算機(jī)科學(xué)已經(jīng)整理了語(yǔ)法,在語(yǔ)義學(xué)方面也取得了長(zhǎng)足的進(jìn)步,但要完全掌握語(yǔ)用學(xué)還需要較長(zhǎng)時(shí)間。(54)Brian Sheppard, “Incomplete Innovation and the Premature Disruption of Legal Services,” Mich. St. L. Rev., Vol.2015, No.5,2016.尤其是現(xiàn)有法律語(yǔ)言存在模糊性,不同學(xué)者對(duì)法律概念的內(nèi)涵和外延認(rèn)知有差別,對(duì)某一法律問(wèn)題的理解可能在法律職業(yè)共同體內(nèi)部有多種解釋。法律術(shù)語(yǔ)和法律解釋的標(biāo)準(zhǔn)化難題無(wú)疑使得司法領(lǐng)域中大部分難題仍然需要由人類來(lái)處理。
結(jié)合人工智能司法應(yīng)用實(shí)踐情況,為構(gòu)建專門(mén)針對(duì)刑事司法人工智能的規(guī)制機(jī)制,需要注意以下三點(diǎn):一是規(guī)制對(duì)象主要是國(guó)家專門(mén)機(jī)關(guān)與被追訴人之間的權(quán)力(利)義務(wù)關(guān)系,大數(shù)據(jù)和算法只是國(guó)家機(jī)關(guān)延伸其能力的一種工具,而刑事司法中公民所享有的不受國(guó)家專門(mén)機(jī)關(guān)任意侵犯的消極權(quán)利和獲得司法機(jī)關(guān)司法救濟(jì)的訴訟權(quán)利都應(yīng)當(dāng)?shù)玫奖U希欢且?guī)制依據(jù)依舊是程序正義理論當(dāng)中關(guān)于中立性、公開(kāi)性、對(duì)等性和參與性的法治原理,但需要考慮大數(shù)據(jù)和算法的使用不僅僅是提高國(guó)家機(jī)關(guān)的司法效率,還需要獲得公民對(duì)于訴訟程序的認(rèn)同;三是規(guī)制重點(diǎn)并非大數(shù)據(jù)和算法技術(shù)本身,而是背后人的意志及其行為。正如杰克·巴爾金所言,“在算法社會(huì),規(guī)制的核心問(wèn)題不是算法,而是使用算法的人及允許自己被算法支配的人。算法治理是由人使用特定的分析和決策技術(shù)對(duì)人進(jìn)行治理。”(55)杰克·巴爾金:《算法社會(huì)中的三大法則》,劉穎、陳瑤瑤譯,《法治現(xiàn)代化研究》2021年第2期。
那么,為什么要在刑事司法人工智能應(yīng)用中堅(jiān)持程序正義理論?在數(shù)字化時(shí)代刑事訴訟中,實(shí)現(xiàn)程序正義的基本要求,究竟可以產(chǎn)生哪些積極效果?從政策角度來(lái)看,黨的十八大以來(lái),習(xí)近平總書(shū)記多次強(qiáng)調(diào)要推動(dòng)大數(shù)據(jù)、人工智能等科技創(chuàng)新成果同司法工作深度融合,同時(shí)也要求讓人民群眾在每一個(gè)司法案件中感受到公平正義。在人工智能司法中貫徹程序正義是改革方向。而從理論角度來(lái)看,可以從尊嚴(yán)理論、司法公信力理論以及分布式道德責(zé)任理論的角度做出解釋。
1.尊嚴(yán)理論
在現(xiàn)代社會(huì),我們每個(gè)人的個(gè)性和特征受到尊重,這一點(diǎn)與《中華人民共和國(guó)憲法》中被定位為“基本原則”的尊重和保障人權(quán)原則相符合。但在人工智能刑事司法當(dāng)中,過(guò)度關(guān)注技術(shù)賦能、大數(shù)據(jù)算法黑箱和算法歧視以及嚴(yán)格司法的特點(diǎn)都可能會(huì)侵蝕這一原則。
第一,立法者、執(zhí)法者和利益集團(tuán)推動(dòng)人工智能刑事司法的動(dòng)機(jī)往往是對(duì)司法效率和司法精確性的追求,但狹隘地為了偵查犯罪、判定有罪和懲罰罪犯而追求智能司法可能威脅到尊嚴(yán)價(jià)值。(56)安德烈亞·羅思:《論機(jī)器在刑事審判中的應(yīng)用》,載趙萬(wàn)一、侯東德主編:《AI法律的人工智能時(shí)代》,法律出版社,2020年,第204-205頁(yè)。正如前述內(nèi)容,執(zhí)法部門(mén)已經(jīng)開(kāi)始運(yùn)用預(yù)測(cè)性警務(wù)工具來(lái)破除立案程序的限制,并監(jiān)督和約束不確定群體和個(gè)人,具有侵犯隱私和損害人的主體性的特殊風(fēng)險(xiǎn)。比如,“9·11”事件后德國(guó)立法機(jī)關(guān)根據(jù)已知恐怖分子的個(gè)人心理狀態(tài)等相關(guān)信息,創(chuàng)造出“恐怖分子潛伏者”的概念。這種國(guó)家大范圍監(jiān)控的預(yù)測(cè)性算法根據(jù)與犯罪關(guān)聯(lián)并不緊密的精神狀態(tài)等因素,對(duì)信仰伊斯蘭教的人員進(jìn)行提前篩選,并將未被公開(kāi)的穆斯林原教旨主義人員定位為“恐怖分子潛伏者”,推斷出其未來(lái)可能發(fā)生的犯罪行為。(57)Ale? Zavr?nik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5, 2019.這種拉網(wǎng)式調(diào)查的預(yù)防性篩查行為事關(guān)公民的隱私和尊嚴(yán),若只是從經(jīng)濟(jì)合理性和效率性出發(fā)考慮,則會(huì)導(dǎo)致在實(shí)踐中脫離刑事訴訟程序的嚴(yán)格規(guī)制,使得偵查機(jī)關(guān)實(shí)際上處于一種恣意濫權(quán)的狀態(tài)。對(duì)此,需要通過(guò)貫徹程序正義理論來(lái)重新考慮數(shù)據(jù)和算法資源的分配正義問(wèn)題,通過(guò)抑制公權(quán)力機(jī)關(guān)的恣意行為,加強(qiáng)訴訟中的人權(quán)保障,來(lái)為刑事司法中的個(gè)體提供平等參與訴訟的機(jī)會(huì)。
第二,人工智能司法中的算法偏見(jiàn)、算法黑箱等問(wèn)題加劇侵蝕個(gè)人的尊嚴(yán)自主空間。具體而言,犯罪風(fēng)險(xiǎn)評(píng)估工具可能列入虛假相關(guān)性作為犯罪風(fēng)險(xiǎn)預(yù)測(cè)評(píng)估的基礎(chǔ),并且將現(xiàn)實(shí)中已經(jīng)存在的偏見(jiàn)和錯(cuò)誤認(rèn)識(shí)混入算法,導(dǎo)致預(yù)測(cè)的準(zhǔn)確度下降,得出對(duì)被告人不利的風(fēng)險(xiǎn)評(píng)估結(jié)果。如果社會(huì)中的某些群體更有可能因?yàn)榉N族或居住的社區(qū)而被定罪,那么將前科或家庭住址作為決定刑期長(zhǎng)短的關(guān)鍵因素的量刑算法將加劇現(xiàn)有的不平等。(58)Ric Simmons, “Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System,” Ohio State Journal of Criminal Law, Vol.15, No.2, 2018.此外,算法黑箱會(huì)導(dǎo)致被評(píng)價(jià)對(duì)象無(wú)法預(yù)測(cè)對(duì)自己的評(píng)價(jià)結(jié)果,無(wú)法有意識(shí)地自主選擇和改變自身的不當(dāng)行為,這相當(dāng)于變相地剝奪被告人的自我改造機(jī)會(huì)。以Loomis案為例,被告主張做出再犯風(fēng)險(xiǎn)評(píng)估的智能系統(tǒng)無(wú)法保證準(zhǔn)確性也不具備驗(yàn)證可能性,侵害了其受憲法保障的正當(dāng)法律程序權(quán)利。由此也會(huì)產(chǎn)生諸多問(wèn)題,比如算法黑箱導(dǎo)致無(wú)法說(shuō)明做出此種預(yù)測(cè)結(jié)果的理由;相關(guān)評(píng)價(jià)只是預(yù)測(cè)具有類似屬性人員實(shí)施再犯的一般可能性,而非預(yù)測(cè)被告人實(shí)施再犯的具體可能性;該系統(tǒng)還存在著種族歧視傾向,即將黑人再犯的風(fēng)險(xiǎn)可能性估算為白人的兩倍。(59)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).對(duì)此,在人工智能司法中貫徹程序正義理論,要求法官不能將犯罪風(fēng)險(xiǎn)評(píng)估結(jié)果作為最終評(píng)價(jià)結(jié)論,而需要在程序上批評(píng)性地斟酌AI所做的預(yù)測(cè)評(píng)價(jià),秉持客觀態(tài)度、冷靜地側(cè)耳傾聽(tīng)被告人自身所言的故事,對(duì)被告人說(shuō)明裁判的理由,以及賦予當(dāng)事人對(duì)相關(guān)預(yù)測(cè)評(píng)估提出異議的權(quán)利,如此才能防止系統(tǒng)對(duì)個(gè)人做出概括性評(píng)價(jià)所導(dǎo)致的算法不公。
第三,即便能夠排除算法偏見(jiàn)和算法黑箱,追求內(nèi)部一致性和預(yù)測(cè)有效性的自動(dòng)化司法也可能侵犯人的尊嚴(yán)和主體性。一方面,刑事司法中法律文本并不能完全體現(xiàn)正義,需要一定程度的自由裁量權(quán)作為法律體系的必要補(bǔ)充部分,尤其是法官在緩和刑事處罰和個(gè)別化處遇方面能夠發(fā)揮重要作用。
但自動(dòng)化司法是較為固定地應(yīng)用法律規(guī)則,因?yàn)檐浖A(yù)先確定了一組事實(shí)對(duì)應(yīng)的法律后果。(60)James Grimmelmann, “Note, Regulation by Softiware,” The Yale Law Journal, Vol.114, No.7,2005.而隨著時(shí)間的推移,為克服裁判的不確定性,法官越發(fā)依賴通過(guò)咨詢?nèi)斯ぶ悄軄?lái)幫助他們做出決策,則算法將可能成為法律,甚至有效地取代法官。(61)⑥⑧Adrian Zuckerman, “Artificial Intelligence-Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review, Vol.136, No.9,2020.這將削弱法官的自主性和尊嚴(yán),使得法官淪為真正意義上的“橡皮圖章”和“自動(dòng)售貨機(jī)”。另一方面,對(duì)于被告人而言,過(guò)度自動(dòng)化的司法模式對(duì)于司法自由裁量權(quán)的限制可能導(dǎo)致其在庭審之前就已經(jīng)被判處刑罰。被告人所提出的證據(jù)、事實(shí)和主張無(wú)法在法庭上由法官進(jìn)行慎重地分析、考量和論證,也對(duì)裁判結(jié)果無(wú)法產(chǎn)生有效的影響力。被告人最終淪為人工智能任意擺弄和處置的訴訟客體,而非獨(dú)立的權(quán)利主體。畢竟法官不是“黑箱”,他必須在公開(kāi)法庭上將事實(shí)調(diào)查結(jié)果記錄在案和聽(tīng)取控辯雙方意見(jiàn),并受上訴法院審查。
當(dāng)然,也有反對(duì)意見(jiàn)認(rèn)為,若是能夠盡可能詳盡輸入關(guān)于被追訴人的相關(guān)數(shù)據(jù),則特征點(diǎn)就會(huì)相當(dāng)細(xì)微,所得出的預(yù)測(cè)結(jié)果更加接近于被追訴人的現(xiàn)實(shí)狀態(tài),也更加準(zhǔn)確和公正,這似乎是將被追訴人作為個(gè)人來(lái)尊重。(62)山本龍彥:《機(jī)器人、AI剝奪了人的尊嚴(yán)嗎?》,彌永真生、宍戶常壽主編:《人工智能與法律的對(duì)話3》,郭美蓉、李鮮花、鄭超等譯,上海人民出版社,2021年,第78頁(yè)。但以提高預(yù)測(cè)精度為目的來(lái)增加輸入數(shù)據(jù),則可能與隱私權(quán)保護(hù)之間產(chǎn)生緊張關(guān)系,甚至過(guò)于精細(xì)的AI人物側(cè)寫(xiě)會(huì)追溯和記憶關(guān)于被告人犯罪前科的相關(guān)信息,陷入“數(shù)字污名”困境,與尊重個(gè)人原則相互沖突,危害其重新獲得的社會(huì)生活的平穩(wěn)性。(63)山本龍彥:《AI與“尊重個(gè)人”》,福田雅樹(shù)、林秀彌、成原慧主編:《AI聯(lián)結(jié)的社會(huì)——人工智能網(wǎng)絡(luò)化時(shí)代的倫理與法律》,宋愛(ài)譯,社會(huì)科學(xué)文獻(xiàn)出版社,2020年,第320-321頁(yè)。因此,程序正義理論要求合理限制AI獲取數(shù)據(jù)的整全性,將其從特權(quán)地位驅(qū)趕下來(lái),由中立的裁判者通過(guò)綜合考量和自由裁量來(lái)最終量刑,以確保人們獲得主體性。
2.司法公信力理論
程序正義理論可以通過(guò)兩種方式建構(gòu)司法公信力:一是參與者感覺(jué)到與決策者有個(gè)人聯(lián)系,比如參與者與決策者來(lái)自于同一群體;二是決策者詳細(xì)解釋了其做出的決定。(64)Tom R. Tyler & E. Allan Lind, “A Relational Model of Authority in Groups,” Advances in Experimental Social Psychology, Vol.25, No.1, 1992.在第一種情況下,之所以人們相信法院裁判的道德權(quán)威,是因?yàn)榉ü俸彤?dāng)事人都共同分享著一般理性和常識(shí)推理,當(dāng)事人也熟悉行使司法自由裁量權(quán)的法官主觀上的信仰、感情、抱負(fù)、忠誠(chéng)、社會(huì)觀等道德觀念。⑥但就人工智能司法決策而言,其可能很好地反映了法律的邏輯推理,但目前為止無(wú)法理解和執(zhí)行任何道德判斷,所作出的判決不一定能反映當(dāng)事人的期望,難以促使公民對(duì)司法裁判形成制度上的信任。正如威爾莫特·史密斯所言,人們關(guān)心的不是法律的權(quán)威,而是法律機(jī)構(gòu)的權(quán)威。(65)F. Wilmot-Smith, Equal Justice, Cambridge, Massachusetts: Harvard University Press, 2019, p.1.在第二種情形中,在法庭上對(duì)相關(guān)利害問(wèn)題進(jìn)行辯論時(shí),律師不僅僅發(fā)表抽象的專業(yè)意見(jiàn)和提供獨(dú)立代理,也會(huì)傾聽(tīng)當(dāng)事人的意見(jiàn)和理解其主觀感受、情緒反應(yīng),因而能夠提供相應(yīng)的情感支持,最關(guān)鍵是能向法官傳達(dá)當(dāng)事人復(fù)雜的主觀立場(chǎng)。而法官也能夠與訴訟當(dāng)事人進(jìn)行溝通,在作出判決時(shí)說(shuō)明理由,從而鞏固法庭的合法性以及裁判的公信力。但是人工智能缺乏第一人稱的主觀視角,其算法不透明和難以理解,無(wú)法形成由正義司法官、公開(kāi)的法律程序所構(gòu)成的庭審權(quán)威圖景。⑧因此,根據(jù)自然公正(Natural Justice)的核心原則,任何一個(gè)案件都需要用充分的理由解答其決策邏輯。相應(yīng)地,通過(guò)確保自動(dòng)化司法決策具有一定的透明度,或者由特定領(lǐng)域的專家來(lái)解釋數(shù)據(jù)的輸入和輸出,能夠使得所有訴訟參與者充分了解算法決策的前因后果,消除算法黑箱下隱藏的程序不正義,提升最終量刑裁判的司法公信力。
3.分布式道德責(zé)任理論
正如福柯所言,現(xiàn)代社會(huì)的秩序主要不是由國(guó)王或國(guó)家權(quán)力維持的,而是由遍布社會(huì)的類似毛細(xì)血管的權(quán)力維持的,其權(quán)力結(jié)構(gòu)并非中心式的集權(quán)統(tǒng)治,而是由分布在社會(huì)基層人際關(guān)系中的各種微觀權(quán)力組成。(66)米歇爾·??拢骸兑?guī)訓(xùn)與懲罰(修訂譯本)》,劉北成、楊遠(yuǎn)嬰譯,生活·讀書(shū)·新知三聯(lián)書(shū)店,2019年,第230-231頁(yè)。同理,在數(shù)字化時(shí)代下,在一個(gè)代理系統(tǒng)中,道德行動(dòng)是由道德中立或者至少道德上可以忽略的人、機(jī)器或者雜合體等多個(gè)代理間的交互行為產(chǎn)生的。比如數(shù)據(jù)畫(huà)像是數(shù)據(jù)生成者、數(shù)據(jù)采集者、數(shù)據(jù)分析者、數(shù)據(jù)使用者、數(shù)據(jù)擁有者以及數(shù)據(jù)平臺(tái)等多個(gè)主體的交互行動(dòng)聚合而成,才能對(duì)單獨(dú)個(gè)體的行動(dòng)軌跡、行為模式、偏好等進(jìn)行數(shù)據(jù)畫(huà)像。此時(shí)出現(xiàn)錯(cuò)誤或不法時(shí),需要對(duì)分布式行動(dòng)的道德責(zé)任進(jìn)行厘清。(67)閆宏秀:《數(shù)據(jù)時(shí)代的道德責(zé)任解析:從信任到結(jié)構(gòu)》,《探索與爭(zhēng)鳴》2022年第4期。而在數(shù)字技術(shù)嵌入刑事司法活動(dòng)后,由人類和機(jī)器混合做出司法決策將成為司法常態(tài)。當(dāng)發(fā)生錯(cuò)誤決策時(shí),則涉及司法機(jī)關(guān)、數(shù)據(jù)提供人員、開(kāi)發(fā)設(shè)計(jì)人員、系統(tǒng)維護(hù)人員、系統(tǒng)部署者以及軟件使用者等多個(gè)主體的責(zé)任鏈條分配問(wèn)題。(68)張凌寒:《智慧司法中技術(shù)依賴的隱憂及應(yīng)對(duì)》,《法制與社會(huì)發(fā)展》2022年第4期。此外,由于自動(dòng)化司法決策系統(tǒng)的隨機(jī)性以及算法運(yùn)行過(guò)程的復(fù)雜性和不透明,司法人員無(wú)法有效審核評(píng)估大數(shù)據(jù)算法的合理性,但又受制于司法追責(zé)壓力,則可能在越發(fā)借助和依賴人工智能司法決策的同時(shí),將錯(cuò)案責(zé)任推卸給機(jī)器。(69)高童非:《數(shù)字時(shí)代司法責(zé)任倫理之守正》,《法制與社會(huì)發(fā)展》2022年第1期。對(duì)此,為避免產(chǎn)生阻礙技術(shù)發(fā)展的數(shù)字化道德責(zé)任分配困境,在技術(shù)上需要實(shí)現(xiàn)決策程序全過(guò)程留痕,同時(shí)有必要依據(jù)程序正義理論來(lái)為決策錯(cuò)誤追責(zé)設(shè)定一個(gè)合理的閾值,在必要時(shí)才能將刑事司法人工智能應(yīng)用系統(tǒng)的研發(fā)者、設(shè)計(jì)者、維護(hù)者和部署者納入追責(zé)體系當(dāng)中,避免將人類自身的決策錯(cuò)誤推卸到智能技術(shù)身上。
傳統(tǒng)程序正義理論在提出時(shí)并未考慮到人工智能技術(shù)在司法領(lǐng)域當(dāng)中的廣泛運(yùn)用,因而針對(duì)算法歧視、算法黑箱、數(shù)據(jù)偏差等自動(dòng)化司法決策程序出現(xiàn)的問(wèn)題往往無(wú)能為力,導(dǎo)致程序正義理論中強(qiáng)調(diào)的中立、公開(kāi)、對(duì)等、參與等核心要素都受到一定程度的侵蝕。但值得慶幸的是,弱人工智能時(shí)代的智能司法的價(jià)值選擇是在堅(jiān)持以人為本的基礎(chǔ)上盡可能發(fā)揮人工智能的功能,因而程序正義理論依舊是規(guī)制刑事司法中大數(shù)據(jù)和算法技術(shù)的核心理念?!叭斯ぶ悄芊梢?guī)則應(yīng)堅(jiān)持以人為本,發(fā)揮技術(shù)的正價(jià)值,規(guī)避技術(shù)的負(fù)價(jià)值,秉持人工智能局部替代人類、整體增強(qiáng)人類的價(jià)值理念?!?70)于海防:《人工智能法律規(guī)制的價(jià)值取向與邏輯前提——在替代人類與增強(qiáng)人類之間》,《法學(xué)》2019年第6期。
對(duì)此,2007年,希特倫教授提出了“技術(shù)性正當(dāng)程序”(Technological Due Process)的概念,在堅(jiān)守正當(dāng)程序關(guān)于中立性、公開(kāi)性、對(duì)等性和參與性的司法理念的同時(shí),也要求兼容發(fā)展技術(shù)理性以助力技術(shù)創(chuàng)新,因而強(qiáng)調(diào)通過(guò)優(yōu)化設(shè)計(jì)提高自動(dòng)化決策程序的公平、透明和可問(wèn)責(zé)性。(71)Danielle Keats CitronI, “Technological Due Process,” Washington University Law Review, Vol.85, No.6,2008.盡管“技術(shù)性正當(dāng)程序”一詞往往適用于自動(dòng)化行政程序當(dāng)中,但其在刑事訴訟當(dāng)中也具有一定的適配性,因?yàn)閮烧邔?shí)際上都是借助于對(duì)個(gè)人權(quán)利的嚴(yán)格保護(hù)來(lái)實(shí)現(xiàn)程序正義。而下文將進(jìn)一步圍繞“技法兼容”的思路來(lái)探討刑事司法中技術(shù)性正當(dāng)程序的基本內(nèi)涵。
算法黑箱和算法偏見(jiàn)是威脅裁判中立原則和程序公開(kāi)原則的兩大風(fēng)險(xiǎn)要素,其中算法黑箱有可能導(dǎo)致算法偏見(jiàn),但算法偏見(jiàn)也可能來(lái)自算法開(kāi)發(fā)者及其開(kāi)發(fā)過(guò)程。整體而言,算法黑箱與算法偏見(jiàn)都是刑事司法人工智能應(yīng)用中需要認(rèn)真對(duì)待的重要風(fēng)險(xiǎn)。2019年6月,我國(guó)新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,強(qiáng)調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理八條原則。其中,第二項(xiàng)“公平公正”原則要求在數(shù)據(jù)獲取、算法設(shè)計(jì)、技術(shù)開(kāi)發(fā)、產(chǎn)品研發(fā)和應(yīng)用過(guò)程中消除偏見(jiàn)和歧視,第五項(xiàng)“安全可控”原則要求人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性。對(duì)此,排除算法偏見(jiàn)和確立算法透明原則是技術(shù)性正當(dāng)程序的應(yīng)有之義。
1.排除算法偏見(jiàn)
算法偏見(jiàn)的具體成因包括數(shù)據(jù)中預(yù)先就存有偏見(jiàn)、算法本身構(gòu)成一種歧視、數(shù)據(jù)抽樣偏差及其權(quán)重設(shè)置差異等,導(dǎo)致的直接后果是平等權(quán)保護(hù)危機(jī)。對(duì)此,依據(jù)算法偏見(jiàn)形成的不同階段,在數(shù)據(jù)收集、算法設(shè)計(jì)以及應(yīng)用階段應(yīng)當(dāng)采取不同的規(guī)制措施來(lái)抑制算法偏見(jiàn)問(wèn)題。一是在數(shù)據(jù)收集階段,機(jī)器學(xué)習(xí)算法是根據(jù)其訓(xùn)練中使用的歷史數(shù)據(jù)進(jìn)行預(yù)測(cè)操作的,可能由于司法數(shù)據(jù)的體量和質(zhì)量缺陷,影響人工智能司法應(yīng)用的精準(zhǔn)性與普適性。對(duì)此,需要司法機(jī)關(guān)打破內(nèi)部信息壁壘,實(shí)現(xiàn)司法數(shù)據(jù)共享,由適合對(duì)各司法機(jī)關(guān)進(jìn)行統(tǒng)籌引導(dǎo)的部門(mén)牽頭完善跨區(qū)域、跨部門(mén)的統(tǒng)一司法數(shù)據(jù)庫(kù)建設(shè)。(72)程凡卿:《我國(guó)司法人工智能建設(shè)的問(wèn)題與應(yīng)對(duì)》,《東方法學(xué)》2018年第3期。二是在算法設(shè)計(jì)階段,實(shí)踐中人工智能司法應(yīng)用是由司法機(jī)關(guān)聯(lián)合技術(shù)公司共同研發(fā)的。為防止在算法編碼過(guò)程中植入設(shè)計(jì)者的偏見(jiàn)或者轉(zhuǎn)化既存的社會(huì)偏見(jiàn),司法機(jī)關(guān)應(yīng)當(dāng)向編程人員詳細(xì)闡釋模型設(shè)計(jì)整體意圖和價(jià)值取向,排除經(jīng)濟(jì)文化社會(huì)中不公正的偏見(jiàn)進(jìn)入到?jīng)Q策程序的可能性。三是在軟件應(yīng)用階段,應(yīng)當(dāng)對(duì)最終決策的公安司法機(jī)關(guān)人員進(jìn)行風(fēng)險(xiǎn)提示和警告,要求其認(rèn)識(shí)到算法可能混入錯(cuò)誤和偏見(jiàn),因而需要批判性地考量智能司法應(yīng)用所做的預(yù)測(cè)評(píng)價(jià)。在Loomis案中,威斯康星州最高法院從憲法上正當(dāng)程序的角度出發(fā),書(shū)面警示法官COMPAS所作預(yù)測(cè)評(píng)估存在不完整性,比如其中算法考慮的諸多要素因?yàn)橹R(shí)產(chǎn)權(quán)保護(hù)無(wú)法得到公開(kāi),評(píng)估工具只以威斯康星州的人口構(gòu)成為前提的調(diào)查(未交叉驗(yàn)證)以及將少數(shù)族群歸類為再犯風(fēng)險(xiǎn)更高人員的歧視行為,因而需要法官秉持懷疑態(tài)度來(lái)審視預(yù)測(cè)結(jié)果,不能將其作為最終評(píng)價(jià)。(73)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).但這些告知和提醒公安司法人員的程序性保障措施,通常是無(wú)效手段,因?yàn)楹雎粤讼嚓P(guān)人員的評(píng)估能力、盲從心態(tài)以及職業(yè)壓力。對(duì)此,需要結(jié)合算法透明原則,要求算法設(shè)計(jì)者或維護(hù)者告知機(jī)器預(yù)測(cè)結(jié)果的邏輯關(guān)系和正當(dāng)理由,確保公安司法人員有能力進(jìn)行審查和評(píng)估。
2.算法透明原則
算法黑箱問(wèn)題既可能是基于保護(hù)商業(yè)秘密和國(guó)家安全的人為因素,也可能是因?yàn)榇髷?shù)據(jù)算法的復(fù)雜性。在刑事司法中確立算法透明原則需要做到兩點(diǎn):一是通過(guò)算法公開(kāi)來(lái)揭示人工智能司法的運(yùn)作原理來(lái)確保決策具有可監(jiān)督性,二是要完整記錄算法運(yùn)行過(guò)程中所依據(jù)的事實(shí)和規(guī)則來(lái)確保決策具有可追溯性。對(duì)于前者,學(xué)界當(dāng)前存在關(guān)于算法公開(kāi)方式的爭(zhēng)議,即“完全公開(kāi)說(shuō)”和“限制公開(kāi)說(shuō)”?!巴耆_(kāi)說(shuō)”認(rèn)為任何用于司法或執(zhí)法的基本算法都應(yīng)該是公開(kāi)的,算法運(yùn)算的“商業(yè)秘密”不能對(duì)抗公共利益,政府應(yīng)當(dāng)重視公共領(lǐng)域中算法的透明度,通過(guò)立法要求相關(guān)主體公開(kāi)源代碼,使其接受公眾監(jiān)督。(74)李婕:《壟斷抑或公開(kāi):算法規(guī)制的法經(jīng)濟(jì)學(xué)分析》,《理論視野》2019年第1期?!安糠止_(kāi)說(shuō)”則認(rèn)為公開(kāi)底層數(shù)據(jù)和代碼既不可行,也無(wú)必要。一方面,從技術(shù)角度的層面來(lái)看,算法和數(shù)據(jù)在大多數(shù)人看來(lái)都是宛如“天書(shū)”的錯(cuò)亂代碼,要求強(qiáng)制公開(kāi)所能發(fā)揮的公眾監(jiān)督作用非常有限;(75)劉東亮:《技術(shù)性正當(dāng)程序:人工智能時(shí)代程序法和算法的雙重變奏》,《比較法研究》2020年第5期。另一方面,依據(jù)比例原則,算法設(shè)計(jì)人員和維護(hù)人員向公安司法人員和當(dāng)事人公開(kāi)披露系統(tǒng)算法和數(shù)據(jù)代碼,可能威脅到我國(guó)的數(shù)據(jù)安全和信息保護(hù)。而在刑事司法系統(tǒng)中,公檢法機(jī)關(guān)人員和當(dāng)事人并不需要對(duì)算法的底層代碼有深刻的理解,只需要知道算法使用的因素、權(quán)重分配以及算法結(jié)果的歷史準(zhǔn)確性,而這些信息對(duì)于技術(shù)部門(mén)而言較為容易提供。(76)Ric Simmons, “Quantifying Criminal Procedure: How to Unlock the Potential of Big Data in Our Criminal Justice System,” Michigan State Law Review, No.4, 2017.因此,在其他法律領(lǐng)域確立保障商業(yè)秘密和國(guó)家安全的適當(dāng)舉措后,制作預(yù)測(cè)警務(wù)和風(fēng)險(xiǎn)評(píng)估軟件的公司應(yīng)當(dāng)生成并保留一段時(shí)間內(nèi)的輸入數(shù)據(jù)和輸出結(jié)果以及犯罪預(yù)測(cè)因素,同時(shí)賦予外部各方受控的、有限的訪問(wèn)權(quán)限,保障被告人在訴訟中不因種族、性別、收入等因素而受到歧視。此外,自動(dòng)化司法應(yīng)當(dāng)生成審計(jì)追蹤記錄,用于后續(xù)說(shuō)明支持其決策的事實(shí)和規(guī)則,但由于涉及算法決策程序的過(guò)程控制,將在下文詳細(xì)論述。
程序正義理論的基本要求是受裁判直接影響的人員能夠獲得平等參與審判過(guò)程的機(jī)會(huì),從而對(duì)裁判結(jié)果的形成發(fā)揮有效的影響。但在自動(dòng)化司法決策程序當(dāng)中,由于算法和數(shù)據(jù)被國(guó)家機(jī)關(guān)壟斷,被追訴人受制于技術(shù)壁壘和數(shù)據(jù)獲取分析能力有限,司法實(shí)踐中辯方可能沒(méi)有機(jī)會(huì)和能力在訴訟活動(dòng)中對(duì)決策結(jié)果進(jìn)行質(zhì)證、反駁和發(fā)表辯論意見(jiàn)。對(duì)此,為保障辯方充分參與自動(dòng)化司法決策過(guò)程,需要構(gòu)建和完善以算法審計(jì)為核心的過(guò)程控制機(jī)制,為被追訴人對(duì)算法邏輯和預(yù)測(cè)結(jié)果表達(dá)自我見(jiàn)解提供前提要件,同時(shí)也需要公檢法機(jī)關(guān)在訴訟過(guò)程中履行向辯方說(shuō)明依據(jù)智能輔助系統(tǒng)做出決策的正當(dāng)理由,聽(tīng)取辯方的反饋意見(jiàn)并及時(shí)進(jìn)行合理解釋。
1.以算法審計(jì)為核心的過(guò)程控制機(jī)制
“算法審計(jì)”和“算法透明”都是對(duì)算法黑箱所引發(fā)的潛在問(wèn)題的回應(yīng)。但與全面公開(kāi)人工智能源代碼不同,算法審計(jì)是由可控的、非特定專業(yè)專家小組來(lái)執(zhí)行監(jiān)督,對(duì)不當(dāng)?shù)臎Q策規(guī)則進(jìn)行干預(yù)和糾正,而不會(huì)向公眾全面披露代碼和其他專有信息。(77)Susskind, Jamie, Future Politics: Living Together in a World Transformed by Tech, Oxford: Oxford University Press, 2018, p.355.算法審計(jì)機(jī)制主要分為審計(jì)追蹤和專家審計(jì)兩個(gè)關(guān)鍵步驟,前者要求軟件開(kāi)發(fā)人員創(chuàng)建一種溯源技術(shù),用于記錄支持算法決策的事實(shí)和規(guī)則,即在每次運(yùn)行算法時(shí)對(duì)非特定被告人數(shù)據(jù)、特定被告人數(shù)據(jù)以及合并前兩類數(shù)據(jù)以產(chǎn)生評(píng)估的具體運(yùn)算邏輯過(guò)程進(jìn)行存檔,詳細(xì)說(shuō)明系統(tǒng)所做的每一個(gè)關(guān)鍵決策中所應(yīng)用的實(shí)際規(guī)則。這為之后對(duì)算法決策進(jìn)行正當(dāng)性分析和技術(shù)推理提供可能性,也有助于公檢法機(jī)構(gòu)向當(dāng)事人說(shuō)明裁判理由,明確利用自動(dòng)化司法系統(tǒng)對(duì)其重要權(quán)利做出決策的緣由。(78)Danielle Keats CitronI, “Technological Due Process,” Washington University Law Review, Vol.85, No.6,2008.此外,審計(jì)追蹤制度的建立能夠覆蓋軟件編程設(shè)計(jì)、實(shí)施和應(yīng)用整個(gè)流程中所有人員的行為活動(dòng),為所有涉及的角色構(gòu)建一個(gè)完整連續(xù)的責(zé)任鏈條,以便于對(duì)算法決策全流程進(jìn)行持續(xù)監(jiān)督和檢查。(79)雷剛、喻少如:《算法正當(dāng)程序:算法決策程序?qū)φ?dāng)程序的沖擊與回應(yīng)》,《電子政務(wù)》2021年第12期。而在專家審計(jì)階段,考慮到被追訴人和律師的技術(shù)分析能力有限,則可以結(jié)合我國(guó)《刑事訴訟法》第一百九十七條規(guī)定的專家輔助人制度,將辯方聘請(qǐng)的具有專門(mén)知識(shí)的人列入算法審計(jì)專家小組當(dāng)中。公檢法機(jī)關(guān)應(yīng)當(dāng)在庭審之前組織專家小組對(duì)人工智能司法系統(tǒng)進(jìn)行評(píng)估和審核,而專家小組對(duì)決策系統(tǒng)的準(zhǔn)確性和偏差值所發(fā)表的意見(jiàn)應(yīng)當(dāng)隨案移送并允許辯方進(jìn)行查閱、摘抄和復(fù)制。同時(shí),參與算法審計(jì)的辯方專家可以在庭審時(shí)就相關(guān)技術(shù)問(wèn)題作出說(shuō)明,以便控辯審三方更為有效地理解自動(dòng)化司法決策結(jié)果的價(jià)值和限度。
2.權(quán)利保障的兩個(gè)關(guān)鍵:說(shuō)明理由和聽(tīng)取意見(jiàn)
人工智能介入刑事司法的最大危機(jī)是在不斷消解當(dāng)事人參與訴訟的行動(dòng)空間、影響范圍以及救濟(jì)渠道,導(dǎo)致被追訴人所享有的知情權(quán)、參與權(quán)、異議權(quán)以及救濟(jì)權(quán)處于名存實(shí)亡的境地,從而動(dòng)搖司法裁判的公信力和實(shí)效性。對(duì)此,應(yīng)當(dāng)明確技術(shù)融入司法活動(dòng)當(dāng)中不能只是強(qiáng)化國(guó)家機(jī)關(guān)偵查、控訴和定罪的能力,而是應(yīng)當(dāng)通過(guò)技術(shù)來(lái)進(jìn)一步保障被告人依法享有的訴訟權(quán)利,調(diào)試控辯不平衡問(wèn)題。簡(jiǎn)而言之,一方面,公檢法機(jī)關(guān)在使用預(yù)測(cè)警務(wù)軟件和犯罪風(fēng)險(xiǎn)評(píng)估工具時(shí),應(yīng)當(dāng)根據(jù)具體的案件情況,在明確清楚自動(dòng)化司法決策是可能出錯(cuò)的前提下,向被追訴人及其辯護(hù)律師詳細(xì)說(shuō)明作出決策時(shí)所依賴的計(jì)算機(jī)生成的事實(shí)或法律調(diào)查結(jié)果。我國(guó)《個(gè)人信息保護(hù)法》第二十四條第三款也規(guī)定,“通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定?!敝挥兴惴Q策對(duì)受影響的當(dāng)事人來(lái)說(shuō)是透明和可理解的,算法才顯得可信。(80)Ric Simmons, “Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System,” Ohio State Journal of Criminal Law, Vol.15, No.2,2018.
但公檢法機(jī)關(guān)在說(shuō)明決策理由時(shí),應(yīng)當(dāng)明確以下兩點(diǎn):一是注重說(shuō)明理由的重點(diǎn)內(nèi)容在于生成特定決策結(jié)果的算法邏輯,而非對(duì)于算法決策系統(tǒng)的設(shè)計(jì)、數(shù)據(jù)、邏輯等進(jìn)行寬泛解釋。(81)周尚君、羅有成:《數(shù)字正義論:理論內(nèi)涵與實(shí)踐機(jī)制》,《社會(huì)科學(xué)》2022年第6期。因?yàn)閷?duì)于公安司法人員而言,其并不擅長(zhǎng)對(duì)智能司法系統(tǒng)的底層代碼和算法模型進(jìn)行技術(shù)性解釋,而是應(yīng)當(dāng)結(jié)合具體適用場(chǎng)景以一種可理解的方式來(lái)闡釋決策結(jié)果的依據(jù)?!蛾P(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》第十三條也規(guī)定做好算法結(jié)果解釋,消除社會(huì)疑慮,推動(dòng)算法健康發(fā)展。二是針對(duì)法院系統(tǒng)由于司法鑒定制度改革導(dǎo)致內(nèi)部缺乏專業(yè)技術(shù)人員的難題,可以借鑒知識(shí)產(chǎn)權(quán)訴訟的技術(shù)調(diào)查官制度,在特定刑事案件當(dāng)中引入輔助法官的技術(shù)專家人員。在法官審理特定刑事案件遇到難以理解的技術(shù)問(wèn)題時(shí),技術(shù)調(diào)查官可以運(yùn)用專業(yè)技術(shù)知識(shí)為法官答疑解惑,協(xié)助法官斟酌評(píng)估和詳細(xì)說(shuō)明自動(dòng)化決策的合法性和合理性,并依法做出裁判。(82)楊秀清:《我國(guó)知識(shí)產(chǎn)權(quán)訴訟中技術(shù)調(diào)查官制度的完善》,《法商研究》2020年第6期。
此外,依據(jù)我國(guó)《刑事訴訟法》第八十八條、第一百六十一條、第一百八十七條以及第一百九十五條等相關(guān)規(guī)定,公檢法機(jī)關(guān)在審查逮捕、偵查終結(jié)前、審查起訴、庭前會(huì)議以及審判過(guò)程中都應(yīng)當(dāng)聽(tīng)取當(dāng)事人及其辯護(hù)人的意見(jiàn)。而2016年歐洲議會(huì)及歐盟理事會(huì)發(fā)布的《歐盟一般數(shù)據(jù)保護(hù)條例》第二十二條第三款規(guī)定,“數(shù)據(jù)控制者應(yīng)當(dāng)實(shí)施適當(dāng)?shù)拇胧┍Wo(hù)數(shù)據(jù)主體的權(quán)利、自由和合法利益,至少獲得對(duì)控制者部分的人為干預(yù)權(quán),表達(dá)數(shù)據(jù)主體的觀點(diǎn)和同意決策的權(quán)利?!?83)中國(guó)信息通信研究院互聯(lián)網(wǎng)法律研究中心、京東法律研究院主編:《歐盟數(shù)據(jù)保護(hù)法規(guī)匯編》,中國(guó)法制出版社,2019年,第71頁(yè)。對(duì)此,刑事案件中只要公檢法根據(jù)AI的預(yù)測(cè)結(jié)果來(lái)進(jìn)行決策,對(duì)當(dāng)事人的權(quán)利產(chǎn)生法律影響的,都應(yīng)當(dāng)積極聽(tīng)取當(dāng)事人及其辯護(hù)人對(duì)自動(dòng)化司法決策結(jié)果的意見(jiàn);若被追訴人對(duì)決策結(jié)果持有反對(duì)意見(jiàn),認(rèn)為公安機(jī)關(guān)、人民檢察院、人民法院及其工作人員不當(dāng)使用或過(guò)度依賴智能司法系統(tǒng),阻礙其依法行使訴訟權(quán)利的,可以向該機(jī)關(guān)或者其上一級(jí)機(jī)關(guān)投訴,也可以向同級(jí)或者上一級(jí)人民檢察院申訴或者控告。
沒(méi)有制裁則沒(méi)有義務(wù)。當(dāng)人工智能司法工作發(fā)生錯(cuò)誤時(shí),原有的歸責(zé)制度沒(méi)有考慮到算法決策或人機(jī)協(xié)同決策的情況,無(wú)法妥善解決現(xiàn)有的分布式道德責(zé)任分配問(wèn)題,因而有必要建立相應(yīng)的算法問(wèn)責(zé)機(jī)制,來(lái)防止智能司法系統(tǒng)出現(xiàn)監(jiān)管缺位和權(quán)力濫用的風(fēng)險(xiǎn)。對(duì)此,可以從以下兩個(gè)角度出發(fā)來(lái)完善算法問(wèn)責(zé)機(jī)制:一是以保護(hù)當(dāng)事人權(quán)利為優(yōu)先確立公安司法人員優(yōu)位追責(zé)原則。因?yàn)樵谛淌滤痉ó?dāng)中,公安司法人員與當(dāng)事人的利益聯(lián)系最為緊密,對(duì)于被告人訴訟權(quán)利的侵害也最為直接,同時(shí)公安司法人員在使用人工智能時(shí)還負(fù)有監(jiān)督審核并在第一時(shí)間進(jìn)行問(wèn)題矯正的義務(wù)。(84)程凡卿:《我國(guó)司法人工智能建設(shè)的問(wèn)題與應(yīng)對(duì)》,《東方法學(xué)》2018年第3期。此外,為鼓勵(lì)信息技術(shù)的創(chuàng)新發(fā)展和新技術(shù)在司法領(lǐng)域中的深化運(yùn)用,應(yīng)當(dāng)明確只有算法決策程序出現(xiàn)系統(tǒng)性、結(jié)構(gòu)性錯(cuò)誤時(shí),才可以對(duì)技術(shù)人員進(jìn)行追責(zé),原則上不能將司法工作錯(cuò)誤無(wú)正當(dāng)理由推卸給算法設(shè)計(jì)者、開(kāi)發(fā)者或者維護(hù)者。(85)高童非:《數(shù)字時(shí)代司法責(zé)任倫理之守正》,《法制與社會(huì)發(fā)展》2022年第1期。二是在追責(zé)前應(yīng)當(dāng)明確技術(shù)人員的配合司法義務(wù)。對(duì)于設(shè)計(jì)和搭建智能司法系統(tǒng)的技術(shù)人員而言,無(wú)論是軟件開(kāi)發(fā)者、系統(tǒng)架構(gòu)師還是應(yīng)用維護(hù)人員,也不管是出于善意還是出于惡意,其都應(yīng)當(dāng)嚴(yán)格執(zhí)行公安司法機(jī)關(guān)告知的設(shè)計(jì)需求和目標(biāo),不得嵌入影響用戶權(quán)利義務(wù)的非正式規(guī)則,即不得讓編程變成立法。(86)理查德·薩斯坎德:《線上法院與未來(lái)司法》,何廣越譯,北京大學(xué)出版社,2021年,第162-163頁(yè)。尤其是當(dāng)事人的訴訟權(quán)利是通過(guò)民主的立法過(guò)程在我國(guó)《憲法》和《刑事訴訟法》中予以明確規(guī)定的,這種立法過(guò)程提煉了特定時(shí)期社會(huì)的公共利益和主流價(jià)值觀,不得降級(jí)為計(jì)算機(jī)科學(xué)專家們?cè)趯?shí)驗(yàn)室中的編程工作。(87)Ale? Zavr?nik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5,2019.此外,上文提及的技術(shù)人員構(gòu)建審計(jì)追蹤機(jī)制以及協(xié)助使用者解釋算法和說(shuō)明理由的配合義務(wù),可以由最高人民法院、最高人民檢察院、公安部聯(lián)合相關(guān)技術(shù)監(jiān)管部門(mén)共同出臺(tái)規(guī)范性文件來(lái)統(tǒng)一規(guī)定研發(fā)標(biāo)準(zhǔn)和法律責(zé)任。