雷 磊
(中國政法大學法學院,北京 100088)
人工智能技術在司法領域的應用已成為我國國家信息化發(fā)展戰(zhàn)略的重要支點。2016年7月發(fā)布的《國家信息化發(fā)展戰(zhàn)略綱要》提出建設“智慧法院”,推動執(zhí)法司法信息公開,促進司法公平正義。2017年4月,最高人民法院印發(fā)《最高人民法院關于加快建設智慧法院的意見》指出,智慧法院是人民法院充分利用先進信息化系統(tǒng),支持全業(yè)務網(wǎng)上辦理、全流程依法公開、全方位智能服務,實現(xiàn)公正司法、司法為民的組織、建設和運行形態(tài)。在第十三屆全國人大五次會議上,《最高人民法院工作報告》將“深入推進司法體制改革和智慧法院建設”作為獨立板塊,視為“堅持體制改革和科技創(chuàng)新雙輪驅(qū)動”“人民群眾對司法公正的獲得感不斷增強”的重要表現(xiàn)。
有法官指出,在司法領域,“人工智能的運用能夠極大地減少人力的重復運用,減少人為因素對司法公正的干預,極大地提高司法活動的效率”[1]。這種觀點極具代表性。幾乎沒有爭議的是司法人工智能對于司法效率的提升,以及對“案多人少”矛盾之解決方面的重要意義。但有疑義的是,司法人工智能能否實現(xiàn)司法公正這一價值目標?當然,如果承認司法公正是一種有著不同實現(xiàn)程度的價值訴求的話,那么,司法人工智能在何種意義和范圍內(nèi)能否促進司法公正?與司法效率可以依靠實證研究得到檢驗不同,司法公正主要是一種理論判斷,需要深入人工智能的技術邏輯,看其與司法公正的理念是否匹配。
廣義上的司法公正涉及到司法程序的各個領域和各個方面,與司法的權威性、司法活動被社會倫理的認同程度、司法制度的宏觀構架, 以及司法程序的合理性相關。[2]相反,狹義上的司法公正主要涉及司法裁判活動。司法裁判是一項價值取向的活動,司法公正是司法裁判的價值訴求。一般認為,判斷現(xiàn)代司法是否具有公正價值,就是要看它是否既具有司法結果公正價值,又具有司法程序公正價值。[3]由此,司法公正就包含兩種類型,即實體公正與程序公正。并且通常認為,實體公正是司法公正的根本目標,程序公正是司法公正的重要保障。[4]程序公正注重訴訟過程的公平, 其最重要的原則是程序自治和當事人獲得同等對待。程序中的法官要做到對各方態(tài)度相同、權利相同和機會相同。所以, 當事人是否獲得了參與訴訟的機會, 訴訟過程中陳述、舉證、辯論的權利是否得到了同等關注, 法官對雙方當事人是否一視同仁而無任何偏頗, 是否同等地考慮和評價了雙方當事人的主張和證據(jù), 就成為判斷程序公正與否的主要標準。[5]程序上的步驟與方式的設計一方面是出于對實體公正結果預望值的確保,另一方面是則是基于程序的固有內(nèi)在價值(程序價值)之上。①
相反,實體公正更多與裁判結果相關,具體而言又包括形式正義與實質(zhì)正義兩方面。形式正義既包括平等,即同樣事物同樣對待,也包括法的安定性。法的安定性大體又囊括這幾層含義:其一,公民可以基于法律獲得關于其法律地位以及這一地位之法律條件的信息(可知性);其二,公民可以確鑿地依賴這類正確的信息來行為(可靠性);其三,公民可以預見到政府官員所作之具體法律決定的可能(可預測性);最后,政府官員必須遵循現(xiàn)行有效的實在法,必須以事前確定的一般性法律規(guī)范為司法、執(zhí)法的依據(jù),他們的裁量權要受到約束(可約束性)。②在這幾層含義中,最核心的是可預測性要求。形式正義落實為法官的義務就是“依法裁判”,因為依法裁判原本就蘊含依照事先頒布的一般性規(guī)則來處理案件的要求,“事先頒布”就意味著裁判標準的“可視化”,而“一般性規(guī)則”則意味著同案同判。當然,依法裁判的另一面向就是法官受制定法的拘束。這表明,通過制定法表達的價值實現(xiàn)的方式和方法對法官有約束力,因為未公開的條款、對法律續(xù)造的需求或具體案件中出現(xiàn)的法律矛盾,都使得法官必然訴諸立法者的評價(目的解釋)。同時,法官對正在適用的規(guī)則的目的之直接滲透,使得他們也參與了法律的塑造。[6]
與立法者不同,法官的這種塑造活動不是在一般意義上進行,而是“逐案”進行。正如德國法學家拉倫茨所說的:“法學所關心的不僅是明確性及法的安定性,同時也致意于:在具體的細節(jié)上,以逐步的工作來實現(xiàn)‘更多的正義’。”[7]P253③因此,法官需要在個案中來考量一般性規(guī)則的適用,為此要考慮到適用情境的諸多要素,也包括裁判結果之社會效果關照下的公正觀。反映在法官的義務上,就是要兼顧“個案正義”。司法裁判中的個案正義與一般的正義觀念相比具有兩個特征:一則它是具體正義而非抽象正義,二則它是法律正義而非純粹的倫理正義。[8]一方面,個案正義是具體個案中體現(xiàn)出的實質(zhì)正義。實質(zhì)正義涉及實質(zhì)價值或道德考量。實質(zhì)價值或道德考量是有一定范圍或受到限制的,它們應當來源于司法裁判所處國家或地區(qū)中流行的或符合大多數(shù)人道德觀念的主流價值觀或社會公正觀,而非法官個案的公正觀。但是,社會公正觀又難以明確表述為或“編碼為”一套明確的規(guī)則,它往往融合了社會不同層面的情理,是一種同理心正義。同理心正義是一種多元、動態(tài)正義。在此,個案情境尤為重要。情境的不同,決定了移情的經(jīng)驗和體驗自然也不同,這就造成了司法公正內(nèi)涵的復雜多樣。[10]個案正義的一個最為核心的特征,在于它的“個案性”。換言之,以個案正義形式出現(xiàn)的實質(zhì)正義往往無法一般化和規(guī)則化的處理,它總是要面對每個不同個案的不同情況,面對事先所未曾預料的不確定性。建立在不確定性基礎上的“因時制宜”“因地制宜”“因事制宜”的實踐智慧、權宜考量和共情能力,正是司法活動中實質(zhì)正義的重要特征。另一方面,個案正義是法律正義,它既要顧及社會的道德觀念,也要顧及已經(jīng)制度化了的價值,也就是得到法律制度支撐的價值判斷,例如法典和單行法的總則部分所規(guī)定的基本原則和價值。
因此,司法公正是司法領域的一種統(tǒng)合性價值訴求,既包括實體公正,也包括程序公正,既包括形式正義,也包括實質(zhì)正義。
人工智能研究有大量不同的技術途徑,其中得到最多研究、占據(jù)主導地位的兩大途徑是強力法和訓練法。強力法的基本原理是:第一,根據(jù)問題的精確模型,建立一個搜索空間;第二,壓縮搜索空間;第三,在壓縮空間中枚舉所有選項,找出問題的一個解。強力法的基本前提是:待解問題存在一個良定義的精確模型,且該模型默認為某種符號模型,以邏輯形式化、概率形式化和決策論形式化為主導模型。[11]強力法又包含推理法和搜索法兩種主要類型,搜索法是在狀態(tài)空間中進行搜索(如蒙地卡羅樹搜索),推理法則是在知識庫上進行推理,通常由一個推理機和一個知識庫組成,推理機是專業(yè)團隊研發(fā)的負責推理的計算機程序,知識庫則需研發(fā)者針對不同應用自行開發(fā)(專家知識庫)。[12]訓練法的工作原理是,用一個人工神經(jīng)網(wǎng)絡表示給定問題的輸入輸出格式(元模型),然后用大量標注數(shù)據(jù)去訓練這個元模型,即調(diào)整這個人工智能神經(jīng)網(wǎng)絡的連接權重,從而得到一個具體的亞符合模型。這種訓練遵從數(shù)據(jù)擬合原理。訓練集中的每個樣本包含著已對輸入值和期望的輸出值,訓練過程中反復比較被訓練的人工神經(jīng)網(wǎng)絡的輸出值與訓練樣本標注的期望的輸出值之間的偏差,用監(jiān)督學習算法調(diào)整元模型的參數(shù)(即人工神經(jīng)網(wǎng)絡中的連接權值),努力讓總體偏差盡量小。[10]可見,強力法是用知識和推理解答問題,要求針對某應用場景編寫相關的知識庫,然后用推理機回答問題;訓練法則要求首先采集、制作訓練數(shù)據(jù)集,訓練出一個合格的神經(jīng)網(wǎng)絡,然后用該網(wǎng)絡回答問題。
強力法利用顯式表達的知識進行推理來解決問題,所以是可解釋的,而訓練法利用人工標注的數(shù)據(jù)訓練人工神經(jīng)網(wǎng)絡(或其他隱式知識表示模型),用訓練好的人工神經(jīng)網(wǎng)絡來解決問題,不具有可解釋性。將強力法和訓練法應用于司法裁判,就相應產(chǎn)生了兩種人工智能運行方式:一種是顯式編碼、封閉規(guī)則的算法,通過法律專家系統(tǒng)實現(xiàn)對人類法律推理的模擬并將之應用于司法裁判的決策;另一種是機器學習算法,通過大數(shù)據(jù)分析訓練,發(fā)現(xiàn)人類司法裁判的內(nèi)在規(guī)律,并將之應用于對未來裁判的預測。[12]后者是人工智能和司法大數(shù)據(jù)相結合的產(chǎn)物。
在大數(shù)據(jù)時代,司法人工智能運行的基本原理是,將開放的司法數(shù)據(jù)通過自然語言處理后,輸入機器學習的算法之中,然后得出一種或多種用于預測或預見案件勝訴或敗訴可能性的模型。這個算法的目標并非復現(xiàn)法律推理,而是尋找判決中各個參數(shù)間的相關性。事實上,機器學習算法能做的,只是通過一種自動化的方式用多種預設配置將一組觀測值(輸入值)與一組可能結果(輸出值)關聯(lián)起來。它在組成司法判決的不同詞匯組之間構建分類鏈接:輸入階段的特定詞匯組(表征案件事實)對應于輸出階段的特定詞匯組(表征裁判結論)。它的基本原理近似于“訊飛”這樣的機器翻譯系統(tǒng),只能在一組詞匯和已經(jīng)完成的譯文之間對最佳匹配作可能的估計值,而無法真正“理解”所處理的句子的意思。[13]P156-157強力法與訓練法的區(qū)別只在于:在前者那里,哪些輸入值(案件事實特征)與輸出值(裁判結論)相關是通過計算機程序或者說人為預先設定的,司法人工智能只負責按照設定的模型來進行計算;而在后者那里,與輸出值(裁判結論)相關的輸入值(案件事實特征)由人工智能通過訓練自行學習獲得,至于是基于什么模型算法得到結果(輸出值)對于外部來說則是不透明的。但兩者的基本運行邏輯并無二致,即基于封閉場景進行價值中立的被動應用。
這也導致現(xiàn)有司法人工智能技術(其實是一般意義上的人工智能技術)具有如下三個特點:一是封閉性。在推理法上,封閉性表現(xiàn)為:存在一組固定、有限的知識,就可完全描述給定的應用場景。在訓練法上,封閉性表現(xiàn)為:可用一組固定、有限、帶人工標注的代表性數(shù)據(jù),完全描述給定的應用場景。因此,一個應用場景如果具有封閉性,則應用人工智能的強力法或訓練法技術,可以保證應用成功;如果不具有封閉性,則不保證應用成功(也未必失敗)。二是被動性?,F(xiàn)有人工智能技術不具備主動應用的能力,只能被動被人應用。即便是訓練法中,人工智能具有所謂“自主”學習能力,甚至深度學習能力,那也只有在人類給定問題的輸入輸出格式,事先標注好訓練數(shù)據(jù)集并在封閉性場景(如“下圍棋”)的前提條件下的學習。這種所謂的“自學”完全由設計者事先安排好,并非通常人的自學。三是價值中立。也就是說,人工智能技術本身無所謂善惡,人對它們的應用方式?jīng)Q定其善惡。以推理法為例,推理機給出的回答會不會對人有害,完全取決于知識庫是否包含可能隱含不良后果的知識。由于知識庫由人編寫,所以是設計者決定了推理法的具體應用的善惡。[11]
由上述不難看出,雖然司法人工智能具有人類法官不可比擬的優(yōu)勢,即數(shù)據(jù)搜索、比對、關聯(lián)的迅捷性和準確性,但也具有不可克服的缺陷:
首先是無法應對不確定性。人工智能技術應用成功所需的封閉性使其在面對非預期輸入時具有脆弱性。強力法無法繞過人工建模,不確定性對強力法的三方面挑戰(zhàn)也是對其建模的挑戰(zhàn):[10]一是對象的不確定性。現(xiàn)實世界中,一個對象往往存在不可預測的很多“變體”,試圖在建模中窮盡一個預期對象的所有可能應用場景中出現(xiàn)的所有變體,在工程上是不可行的。例如,盡管可為“正當防衛(wèi)”建立典型案例,但卻無法事先就窮盡正當防衛(wèi)的所有情形。二是屬性的不確定性?,F(xiàn)實世界中,屬性往往是含混的和場景相關的。一旦給出一種屬性的任何良定義的形式化描述,就意味著人為限定了該屬性的一部分可能場景,舍棄了該性質(zhì)的另一些可能場景。因此,用形式化方法建模原則上無法保證覆蓋實際應用中可能遇到的所有場景。例如,案件“情節(jié)惡劣”意味著什么?這類評價開放的概念很難被固定為數(shù)量有限的操作性標準。三是關聯(lián)的不確定性?,F(xiàn)實世界中現(xiàn)象是相互關聯(lián)的,一個現(xiàn)象可在不同場景中具有不同屬性,關聯(lián)于不同對象,并具有無法預測的關聯(lián)方式。人工智能系統(tǒng)的模型無法預測或描述現(xiàn)實世界中所有可能的關聯(lián),當人工智能系統(tǒng)在實際運行中遇到模型未表達的關聯(lián)時,就無法有效應對。例如,推理模型可能將“向他人開槍”現(xiàn)象關聯(lián)于“故意殺人”,甚至也關聯(lián)于“正當防衛(wèi)”,但卻沒有將“作戰(zhàn)”或“執(zhí)行死刑”這些關聯(lián)包含進來。訓練法繞過了人工建模,但它的性能依賴于海量數(shù)據(jù)及其人工標注的“質(zhì)量”(數(shù)據(jù)+標注),而這種質(zhì)量的保證來源于“采樣一致性假設”,也就是全體采樣樣本的概率分布和實際采樣樣本的概率分布之間的一致性。但實際采樣可能未包含必要特征點,所以這個假設在實際應用中無法保證。司法裁判的場合就是這樣一個非封閉性的場合,它要面對現(xiàn)實世界的諸多不確定性。
其次是不具有人類常識常情。人類具有復合型的知識和復雜的推理能力,而這其中有很大一部分屬于“通用型”的常識常情。一個人可能兼具多重身份,例如“法官”(在裁判活動領域)或者“棋手”(在棋類比賽中),但他首先是一個“人”。不管他從事哪個領域的活動,除了專業(yè)知識和能力外,他還會將其作為人所擁有的社會常識常情帶入它所從事的任何活動。這種常識和常情屬于現(xiàn)實世界的、跨越任何專業(yè)領域的底層知識和邏輯,很多時候往往是默會的。但人工智能恰恰不具備這類常識常情,所以阿爾法狗可以戰(zhàn)勝人類棋手(因為這只需專業(yè)知識和對于勝率的計算),但卻“不知道”棋子是不可以吃的。因為人與人工智能是完全不同的“物種”,兩者做事的難易程度往往恰好相反——對人容易的往往對人工智能難,對人難的(如下圍棋)往往對人工智能容易。所以人工智能下棋贏了人類,絕不等于人工智能在對人類更容易的事情上也能贏人類。所以在司法裁判活動中,哪怕是只需要常識常情作出判斷的簡單案件,對于人工智能來說也可能是難的,因為歸根結底,目前并沒有可以全盤模擬人類智能(對常識常情部分領域加以計算的)的通用人工智能。
最后是無法進行價值判斷?,F(xiàn)有人工智能技術不會自主地形成“價值判斷”,更不會基于這種價值判斷作出決策。[14]法律人并非將法律規(guī)則視為靜態(tài)的法律表述,而是將它們視為用來追求特定目的的手段。相反,人工智能無法理解不同論據(jù)的“意義”,以及這些論據(jù)與特定結論間的“支持”或“反對”關系。[15]尤其是在疑難案件中,法官往往要超越法律文本,進行復雜的價值權衡。價值權衡并非計算,無法被量化處理,也無法被代碼化。所以疑難案件往往就成為算法系統(tǒng)無法預期和應對的異態(tài)。
總的來說,司法論證包括兩個步驟:一是將結果性事實與原因性事實聯(lián)結起來,二是將這種原因性事實涵攝于規(guī)范的構成要件,并將特定法律后果與之聯(lián)結起來。兩種聯(lián)結分別涉及因果關系和歸責關系。而司法人工智能其實是將這兩個步驟化約為簡單的數(shù)據(jù)關聯(lián),也即從結果性事實(輸入值)與特定法律后果(輸出值)直接聯(lián)結起來,將之上升為通則性的算法規(guī)則。[16]這種聯(lián)結并不是“推理”,而是基于歷史數(shù)據(jù)的預測。司法人工智能進行的預測又包括兩種:一種是基于先前所有同類案件的歷史數(shù)據(jù)來預測當下案件的裁判結果(同案預測)。至于裁決這些先前同類案件的具體主體(法官)是誰,對于這種預測來說并不相關。另一種預測是基于法院或法官個人裁判的歷史數(shù)據(jù)來預測當下案件的裁判結果(個性預測)。比如商業(yè)公司推出基于法官“畫像”的判決書大數(shù)據(jù)應用產(chǎn)品,也即利用法官過去對同類案件的判決軌跡對其裁判行為進行分析和預測。[16]P53以下就分別對這兩種預測與司法公正的關系進行論述。
同案預測是基于類案裁判之歷史數(shù)據(jù)的預測。通常認為,司法人工智能有助實現(xiàn)同案同判,進而同案同判就表征司法公正。但這兩個判斷都不成立。
如前所述,司法人工智能的應用原理是基于歷史數(shù)據(jù)的預測。換言之,它將司法裁判的重心置于對過去裁判的模仿上,也即持一種歷史決定未來的思路。而這種思路符合人工智能成果的技術條件必須符合的封閉性準則。具體而言,如果一個應用場景符合以下條件,則該場景對于強力法是封閉的:(1)該場景的設計規(guī)范可以用有限多個確定的因素(變元)完全描述,而其他因素可以全部忽略;(2)這些因素共同遵守一組領域定律,而這組定律可以用一個人工智能充分表達;(3)相對于該場景的設計規(guī)范,上述人工智能模型的預測與實際情況足夠接近。[17]P8-9如果一個應用場景符合以下條件,則該場景對于訓練法是封閉的:(1)存在一套完整、確定的訓練評價準則,這套準則充分反映了該應用場景的設計規(guī)范;(2)存在一個有限確定的代表性數(shù)據(jù)集,其中數(shù)據(jù)可以代表該場景的所有其他數(shù)據(jù);(3)存在一個人工神經(jīng)網(wǎng)絡ANN和一個監(jiān)督學習算法,用該算法和代表性數(shù)據(jù)集訓練ANN后,ANN將滿足評價準則的全部要求。[17]P10-11在司法裁判這一應用場景中,對于待決案件被裁決的這一時刻點而言,同類案件的歷史數(shù)據(jù)是有限的。封閉性條件能夠確保基于有限歷史數(shù)據(jù)的裁判保持統(tǒng)一性,也即實現(xiàn)統(tǒng)一裁判(司法統(tǒng)一)。但問題在于,司法統(tǒng)一就意味著同案同判嗎?未必如此。關鍵在于何謂“同案”無法或不應由人工智能系統(tǒng)自身決定,這里既有技術方面的原因,也有理論方面的原因。
技術方面的原因主要仍在于前文所說的不確定性挑戰(zhàn)。這可以通過人工智能的運作模型來闡明。人工智能的運作模型涉及三層空間,即現(xiàn)實層、數(shù)據(jù)層和知識層。其中底層是數(shù)據(jù)層,就是人類的現(xiàn)實世界,是非常復雜、模糊和具象的。中間層是數(shù)據(jù)層,其中的數(shù)據(jù)是通過各種數(shù)據(jù)采集手段(如人工采集和機器感知)而從現(xiàn)實層獲得的,這一層是抽象的、格式化的。在數(shù)據(jù)采集過程中,一部分信息被搜集起來,同時現(xiàn)實中無限多信息被丟棄了。在數(shù)據(jù)層上,經(jīng)過人工建模或通過機器學習可以得到知識,知識是結構化的、包含語義的。在知識層上可以進行自然語言處理、推理、規(guī)劃、決策等。[10]在此,從現(xiàn)實層躍升到數(shù)據(jù)層和知識層有兩種方式,一種是通過人工構造,另一種是通過機器自主感知。
在人工構造數(shù)據(jù)庫和知識庫的情形下,④數(shù)據(jù)庫的完整性或者說采樣的全面性會影響“同案”判斷。因為機器裁判的可靠性很大程度上取決于它所使用的數(shù)據(jù)的質(zhì)量和對機器學習技術的選擇。例如,目前在機器學習的刑事案例庫中,納入到樣本庫的基本上都是有罪判決,而中國的無罪判決事實上非常低以至于“趨零化”。以有罪判決樣本為基礎構建起來的數(shù)據(jù)庫,幾乎不可能智能化地預測出無罪判決。[18]換言之,決定哪些案件數(shù)據(jù)“納入”樣本庫,從而成為機器學習樣本的依然是具有主觀意志的人。當然要指出的,“標注樣本”只是經(jīng)典訓練法的特征。但大數(shù)據(jù)時代的訓練法可能不再任何人工標注了。⑤但無論如何,在司法裁判中,訓練法的應用總是要以司法案例庫為運作基礎,而司法案例庫無論如何有賴于人類建立。在另一種方式中,智能機器人自主感知現(xiàn)實世界,獲得數(shù)據(jù),從中抽取知識,并利用知識進行理解、推理、規(guī)劃、決策,產(chǎn)生機器人行動,并在現(xiàn)實層中加以執(zhí)行。智能機器人的運行形成一個完整的閉環(huán),也即從現(xiàn)實層到現(xiàn)實層,所以現(xiàn)實層包含的不確定性會對機器人產(chǎn)生不可忽視的影響。[10]于此,人工智能系統(tǒng)在知識層形成的問題模型只能覆蓋現(xiàn)實層的一部分,至多在其范圍內(nèi)產(chǎn)生正確解。而面對不在此覆蓋范圍內(nèi)的非預期輸入,很可能產(chǎn)生錯誤解,例如皮膚病診斷人工智能系統(tǒng)會將一輛生銹舊卡車“診斷”為得了麻疹。[19]P14目前還有沒可相比擬的“司法機器人”,能夠直接感知(聽審)現(xiàn)實案件并作出裁判,所以這條路徑至少目前在司法領域還不可行。當然,技術問題之所以為技術問題,就在于它有被解決或接近解決的可能性。例如隨著全樣本案例庫的建立,采樣問題就可能會在相當大的程度上得到解決。再比如,隨著深度學習能力的進一步提高,人工智能系統(tǒng)問題模型覆蓋現(xiàn)實層的范圍可能會越來越大。但只要通用型人工智能沒有誕生,將“生銹舊卡車”和“麻疹”判斷為同案的可能性就依然存在。
相對來說,司法人工智能要面對的理論挑戰(zhàn)更為根本性。理論方面的原因主要是“同判”判斷本身的價值負載性?!巴竿小敝械摹巴浮敝傅氖恰巴惏讣?,也即屬于同一類型的諸案件。世上不存在兩個完全一樣的案件,并不存在什么固有的、實質(zhì)上的或原本的“同案”?!巴浮边€是“異案”取決于判斷的視角,而法律上的“同案”判斷取決于法律的視角。因此,兩個案件是否屬于同一類型,主要看它們之間是否具備相關相似性,而相關相似性的判斷標準則是由法律自身來提供的。法律不僅是語詞的系統(tǒng),也是意義的系統(tǒng),它將特定法律后果歸屬于特定事實要件之下。所謂的“相關相似性”,不僅指兩個案件事實層面上存在相同要素,也指兩個案件在“這些相同要素與法律后果相關”的意義上被法律等同評價。而能否被法律作等同評價,則要依據(jù)法律文本背后的法律目的。相對于法律目的而言,對案件事實之可能描述的多樣性要受此控制,即將為識別案件而進行的相關描述限于既有法律中已經(jīng)包含的那些描述。“同案”就是可被涵攝于相同法律規(guī)則之下的案件,也即滿足了同一法律描述的案件。[20]這就要求法律適用者理解法律文本的目的或意義。只有在法律所欲追求或評價的要點上具有相同意義,即意義同一性的,才屬于同一類型(同案)。意義不是事物外在的物理特征,因而類型判斷不是一種“物性的思考方式”,而是一種意義同一的探求;不是兩個案件的數(shù)個甚至全部的單列特征相同,而是由形形色色的特征組合構成的“整體性關照”。⑥
人工智能恰恰無法對意義進行整體性判斷和關照。因為人工智能系統(tǒng)盡管可能實現(xiàn)數(shù)據(jù)的最佳匹配,卻無法“理解”它所處理的語句意思。認知計算技術無法在人類閱讀的意義上閱讀文本,它具有的是智能處理文本的技術、識別與問題相關的那些元素的技術,以及以適當方式引起用戶注意的技術。[21]P16這里的突出表現(xiàn)就是,它無法避免建立“錯誤的相關性”,即兩個案件盡管具有事實特征上的相似性,但這種相似性卻不具有法律意義或不應與法律后果發(fā)生關聯(lián),而機器學習算法卻將其當作了“鏈接”法律后果的前提。例如,假如(一批)前案中(都)出現(xiàn)了“黑人”“女性”等要素,而待決案件中也存在,智能系統(tǒng)就很可能將它們識別為相關特征,并將前案所確定的法律后果與待決案件鏈接起來,并將之作為一個通行的法則(如“黑人女性詐騙的重判”)。但事實上,無論相關法律規(guī)范還是處理前案的法官都沒有意圖將它們作為與判決結果相關的事實特征來對待。這里就發(fā)生了所謂“算法歧視”問題。準確說,我們無法說“算法歧視”是一種真正的“歧視”,因為當智能系統(tǒng)作這種鏈接時,它并非有意為之——它壓根就不具備人類自由意志意義上的認知和理解能力。它所作的,無非是數(shù)據(jù)之間的關聯(lián)匹配而已。
因此,“同案”本身就是進行價值判斷(法律上的相似性)的結果。這種判斷只能由人類法官來進行,而無法交由不具備價值判斷能力的機器。當然,這種判斷也未必能夠完全客觀化,或者說在每一場合都達成共識,因為不同法官對于同一法律文本的意義和目的是什么,不少時候也會發(fā)生分歧。但即便存在個人價值判斷的余地,從而不同法官對同樣兩個案件作了不同判斷,也不影響同案同判原則本身。因為此時通常支持同案的法官會主張同判,而否認同案的法官會主張異判,他們的分歧只在于“法律的要求”究竟是什么。[22]甚至可以說,保留一定的分歧余地正是司法創(chuàng)新的前提。然而,基于大數(shù)據(jù)發(fā)掘產(chǎn)生的歷史平均判決,會被不自覺地等同于“最優(yōu)判決”,客觀上潛在地形成一種要求法官向其靠攏的壓力。也就是產(chǎn)生這樣的默示推導方式:(1)以前的案件都是這么判的;(2)所以,這種裁判就是最佳的;(3)所以,待決案件的法官也應這么判。顯然,這里犯了從“是”推導出“應當”的謬誤。過度地向平均數(shù)靠攏將會從根本上限制司法場景中基于價值變化或理念調(diào)整而進行的“創(chuàng)造性演變”,[23]消滅司法創(chuàng)新的空間。
退一步講,即便司法人工智能能夠?qū)崿F(xiàn)同案同判,那么同案同判就一定意味著司法公正么?未必如此。同案同判是依法裁判的衍生性義務,如果我們將依法裁判之“法”理解為一般性規(guī)則,而“一般性”又意味著“相同情況相同處理”的話,那么“依據(jù)一般性規(guī)則進行裁判”本就包含著同案同判的要求。同時,“等者等之、不等者不等之”,或者說“相同情況相同處理、不同情況不同處理”也寓意著平等,或形式正義。所以,就像哈特所說:“正義概念的一個基本要素就是同案同判原則。這是法律實施的正義,而非法律本身的正義?!盵24]P593, 623因此,依法裁判(包含作為其衍生性義務的同案同判)是形式正義的體現(xiàn),這也是(實體公正意義上的)司法公正的最低限度的要求。而之所以要在依法裁判之外另行提出同案同判,是因為同案同判具有“溢出”依法裁判之外的表征性價值,也即形式正義的可視化和可預期性的顯現(xiàn)化。換句話說,它是司法公正的一種價值符號。[22]
但是,“表征性價值”或“價值符號”并不等同于價值本身。除了“可視化”和“顯現(xiàn)化”等社會效果外,同案同判在司法公正中并不具備獨特的價值地位,它依然只是形式正義組成部分。因此,同案同判代表不了司法公正的全部。這里包括兩種情況:
一種情況是,同案同判可能會與“依法裁判”的要求發(fā)生矛盾。同案同判是依法裁判的衍生性義務,但并不等同于依法裁判。兩者發(fā)生背離的可能原因有二:一是過去的裁判是錯的,也即并沒有依據(jù)當時有效的法律規(guī)則進行裁判。在這種情形下,先案的判決是違法裁判的結果,但卻具有了既判力。此時同案同判的要求與依法裁判的要求發(fā)生了沖突。無疑,此時應該擺脫依據(jù)先案進行裁判的要求,徑直依據(jù)法律的要求作出不同裁判。同案同判是形式正義的要求,依法裁判同樣是形式正義的要求(因此在此并沒有去追問法律的內(nèi)容本身是否合理、正當)。當兩種形式正義的要求存在張力時,依法裁判要優(yōu)于同案同判。因為是依法裁判,而非同案同判,構成了司法的構成性義務。作為構成性義務,依法裁判是司法裁判活動不可放棄的,是后者的必要條件。放棄了依法裁判,司法裁判就不是“司法”活動了。依法裁判是司法裁判的普遍和一般的性質(zhì),而同案同判只是司法裁判的一個面向或具象化的展現(xiàn)。二是先案裁判所依據(jù)的法律規(guī)則被廢除,或者雖未被廢除,卻與后來所頒布的同位階或更高位階的法律規(guī)則發(fā)生了沖突。這里的情形是,過去的裁判的確是依據(jù)當時有效的法律規(guī)則作出的,并沒有違背“依法裁判”的要求,并在此意義上是對的。但由于后來的法律變更,先案裁判要么直接喪失了裁判基礎,要么根據(jù)“新法優(yōu)于舊法”“上位法優(yōu)于下位法”的準則間接喪失了裁判基礎。后案就不得按照前案裁判,而要根據(jù)新的裁判依據(jù)來作出,這樣才算落實了依法裁判的要求。
另一種情況是,同案同判可能會與“個案正義”的要求發(fā)生矛盾。這種情況下,同案同判并不與依法裁判的要求相矛盾,但卻會在待決案件中產(chǎn)生不公、甚至是嚴重不公的后果。這是因為,規(guī)則的本質(zhì)就在于一種“穩(wěn)固的一般化”[25]P49。它是對典型情形進行抽象化后的產(chǎn)物,它只能以一種通行的標準去對人或事作出要求。而在這一抽象化的過程中,它會忽略或省卻掉大量個別化的細節(jié)。而是否屬于法律上的“同案”,是根據(jù)規(guī)則(構成要件)的一般性標準,而非具體的細節(jié)來判定的。所以可能會發(fā)生這樣的情形:雖然待決案件與先案完全符合法律上的“同案”標準,也即受同一法律規(guī)則的調(diào)整,但由于待決案件具有額外的細節(jié)特征,而這種細節(jié)特征恰恰要求待決案件被特別對待。如果強行要求同案同判,就會因技術化操作犧牲部分個案的實質(zhì)正義。但既然同案同判的最終目的是向社會樹立司法公正價值,那么就必須兼顧社會公正觀。
當個案中同案同判的要求與個案正義的要求之間的沖突不可避免時,法官就面臨著一個選擇,即究竟是直接適用法律規(guī)則而不考慮個案后果,還是因追求個案正義去適用原則,從而為規(guī)則創(chuàng)制例外。這要訴諸于權衡。這說明,同案同判雖然重要,但并非法官終局性的司法義務,也不是不可凌駕的。當然,依法裁判/同案同判相比于個案正義依然具有初始的優(yōu)先地位,這是由法官在法律制度中的角色決定的。但畢竟不能否認,在某些時候,法官有更強理由去為規(guī)則創(chuàng)制例外,實現(xiàn)個案正義。當然,何時偏離規(guī)則去實現(xiàn)個案正義,無法在法哲學或一般法學說的層面上予以預先確定。因為如前所述,與一般化的規(guī)則不同,融合了社會公正觀之個案正義的具體要求因案件的情境會有不同,需要法官進行充分的個別化考量和實質(zhì)論證。⑦而這恰恰是機器算法的短板。因為司法裁判并非是機械活動,它是一項德性事業(yè),要為法治的吸引力負責。而法律不總是能在個案中帶來公正的結果,法官也沒有義務在任何情況下都依照法律行事。[22]我們不能僅執(zhí)著于人性差異所可能帶來的偏頗,卻忽視了統(tǒng)一代碼背后的僵化與冰冷。
綜上所述,其一,司法人工智能有助于實現(xiàn)司法統(tǒng)一,但司法統(tǒng)一并不一定意味著同案同判,因而不一定能實現(xiàn)同案同判意義上的形式正義;其二,即便司法人工智能能夠?qū)崿F(xiàn)同案同判,由于同案同判只是依法裁判的一個面向,它既可能與依法裁判相背離,因而無法實現(xiàn)作為更高要求之依法裁判意義上的形式正義,也可能與個案正義相矛盾,因而無法實現(xiàn)實質(zhì)正義。因此,司法人工智能不僅可能無法實現(xiàn)實體公正,而且可能與之相背離。
個性預測是基于法院或法官個人裁判歷史數(shù)據(jù)的預測。這類預測的基礎不在于類案裁判的歷史數(shù)據(jù),而在于作出類案裁判之法院或法官的個別化的歷史裁判軌跡。與同案預測的推導方式不同,個性預測的推導不是從全稱命題(“所有先前的類案都是這么判的”)到單稱命題(“待決案件也應當這么判”)的推導,而是從單稱命題(“法院A/法官a在先前的類案中都是這么判的”)到單稱命題(“(選擇了法院A/法官a,)法院A/法官a在待決案件中也會這么判”)的推導。⑧不考慮不可預測的意外等因素,這個推導本身并無邏輯謬誤,但它卻會鼓勵一種徹頭徹尾的策略主義行為,有嚴重違背司法倫理之虞。因為它一方面遵從了現(xiàn)實邏輯邏輯,另一方面則浸透著商業(yè)偏好邏輯,這都可能與司法公正發(fā)生沖突。
大數(shù)據(jù)時代的司法人工智能不僅基于歷史數(shù)據(jù)來計算,而且可以“預測”法官未來的行為,因為其核心要素便在于建構一種能夠?qū)崿F(xiàn)對判決進行預測的算法模型。[26]質(zhì)言之,這種機器算法其實就是基于特定法官之歷史裁判數(shù)據(jù),并基于其法官的身份進行評價、分析、比較或預測。針對法官的個性預測建立在兩種分析的基礎上,一是一致性分析,即將特定法官辦案數(shù)據(jù)與其他法官辦理類似案件的大數(shù)據(jù)對比,分析特定法官特定案件與整個司法系統(tǒng)的一致性狀況;二是連續(xù)性分析,即通過將特定法官特定在辦案件與其歷史相似案件的對比,分析法官判決標準是否具有連續(xù)性。⑨因此,個性預測的基本預設是,法官未來的裁判行為會與過去的裁判行為保持一致。
如果說人具有什么樣的性格和傾向可以通過其(規(guī)律性的)行為來展現(xiàn)的話,那么司法人工智能就是通過法官的(規(guī)律性的)裁判行為來對法官的性格和傾向進行描繪,也即為法官進行“畫像”。這種“畫像”被作為針對法官個人的算法系統(tǒng)的建?;A,用來預測法官在未來同類案件中的行為。甚至法官自己也未必能意識到自己“畫像”的模樣,因為人工智能時代的算法可能要比行為人自己更了解自己。尤其是在司法裁判文書全面網(wǎng)上公開的情形下,得出司法大數(shù)據(jù)加持的個性預測將得到極大的增強。與同案預測相比,圍繞法官個人數(shù)據(jù)展開的個性預測走得更為徹底。因為它已經(jīng)完全拋開了(圍繞“同案”的認定展開的)規(guī)則和案件的事實特征,而轉向了作出先案裁判的法官個人。所以對于這種預測來說,法律規(guī)則的規(guī)定與案件的典型特征都不是首要的,首要的作出判決的人。而人是個性化的,作出判決的人不同,裁判的結論也可能不同,哪怕是同類案件。這就使得司法人工智能的關注點從案件的規(guī)律轉向了人的規(guī)律性(個人自我的規(guī)律性軌跡)。這完全是一種否定裁判作為規(guī)則實踐的現(xiàn)實主義邏輯,暗合了霍姆斯(Holmes)的著名觀點:“法律,正是對法院將會采取的實際舉措作出的預測”[27]P157。所不同者,無非將這里的“法院”拓寬為包含“法官”在內(nèi)而已。
這種策略性和機會主義的態(tài)度關心的不是司法是否公正的問題,而是能否利用對法官裁判的預測獲得自身利益的問題,不是理由和論證的問題,而是偏好性結果的問題。個性預測在根本上挑戰(zhàn)了司法公正的理念:司法裁判既應是一種“看得見的正義”,也應是一種“說得出的正義”。前者是程序公正,后者是實體公正。程序公正將在下一部分論述,這里主要涉及實體公正。應當看到,實體意義上的司法公正不只是一種結果意義上的形式或?qū)嵸|(zhì)公正,它也必然與司法裁判的性質(zhì)相關。司法裁判在性質(zhì)上是一種說理來解決糾紛的活動。它不僅要告訴當事人和社會公眾,對于特定的糾紛,法院給出的判斷是什么,而且要告訴他們,為什么給出了這一判斷。即便自由裁量無法避免,法官也必須要給出裁判的理由。而給出理由就是在進行推理或論證。司法裁判中的法律推理,就是舉出規(guī)范性理由和事實性理由來支持最終得出的具體判決。判決書就是說理或推理的載體。有效的判決必須建立在充分的法律依據(jù)與事實理由的基礎之上,并通過合乎邏輯與情理的方式展現(xiàn)出從法律與事實推導到裁判 結論的過程。[8]簡言之,司法公正是一種基于理由和論證的公正。這種公正預設了參與者的視角,因為只有對于司法論證活動的參與者,或者關心法律體系下的正確決定為何的人來說,才會有司法公正抑或不公正的問題。相反,個性預測預設的是觀察者的立場,它只關心法官做過什么、將會做什么,而不關心裁判的正確性,或者公正或不公正的問題。⑩所以,基于“法官畫像”的現(xiàn)實主義邏輯與司法公正猶如兩條跑道上的馬,是背道而馳的。
如果說個性預測對實體公正的挑戰(zhàn)只是一種可能、而非必然的挑戰(zhàn)(因為被預測的法官作出的判決可能在實體上是公正的),因而是一種相對的挑戰(zhàn)的話,那么它對于程序公正的挑戰(zhàn)就是一種必然的、絕對的挑戰(zhàn)。在現(xiàn)實中,最有動力進行“法官畫像”的不是法院及法學研究者,而是有償提供法律服務的科技公司。例如,法國于2016年公布《數(shù)字共和國法》,要求在尊重有關人員隱私和評估再識別風險的基礎上向公眾免費提供所有法院的判決。該法頒布之后,法國國內(nèi)關于判決的大數(shù)據(jù)分析就迅速發(fā)展。不少法國科技公司利用大數(shù)據(jù)與人工智能技術對法官進行“畫像”、統(tǒng)計、排名,以此為基礎預測訴訟的成功概率、可能獲得的侵權賠償金額,甚至是幫助當事人選擇在贍養(yǎng)糾紛中更“慷慨”的法官。[28]這里的邏輯純粹是一種商業(yè)偏好邏輯:客戶喜歡什么樣的法官,就可以有償購買其“服務”。在本質(zhì)上,它與購買商品或其他服務的算法推薦系統(tǒng)沒有區(qū)別。[29]這種商業(yè)邏輯將嚴重侵蝕程序公正的理念。
一方面,程序公正的核心,即程序自治和當事人獲得平等對待原則將遭受侵害。就當事人獲得平等對待而言,個性預測可能會引發(fā)兩種不公正的情形:(1)法官大數(shù)據(jù)畫像的應用可能引發(fā)管轄權兜售的行為。司法實踐中,出于不同的動機,包括名譽或地方利益,一些法官希望審理更多的案件。當原告有廣泛的法院選擇時,這些法官有動機使法律更有利于原告,從而吸引更多的原告起訴。[30]此時,法官就相當于買方市場上的賣方那樣,判決追求的不是法律正義與社會公正,不是權利義務的合理分配,而是對處于優(yōu)勢的買方(原告)之偏好的迎合。因此,司法大數(shù)據(jù)分析的應用使得法官可能為了塑造良好的記錄而有意識地向公眾偏好傾斜,以便在管轄權競合的訴訟案件中爭取更多的案源,從而給法官判決形成了不當?shù)恼T導。這是一種新形式的司法腐敗,因為法官是在利用大數(shù)據(jù)畫像獲利。(2)法官大數(shù)據(jù)畫像的應用可能會加劇策略性的管轄權選擇行為,也就是“擇地訴訟”和“挑選法官”的訴訟投機行為?!皳竦卦V訟”是指當事人為了獲得有利于自己的判決結果而有意識地選擇在特定法院進行訴訟的行為。隨著大數(shù)據(jù)技術的普及和法官大數(shù)據(jù)畫像的廣泛應用,“擇地訴訟”和“挑選法官”的成本和難度將大幅度下降。小范圍的“訴訟策略”也就可能潛在地轉變?yōu)槠毡樾缘摹霸V訟投機”,進而影響司法公正。[28]在商業(yè)邏輯中,愿意付出更高價格者將獲得更好的服務(“價高者得”)。所以,有能力向商業(yè)公司購買“法官畫像”,或愿意以更高價格購買對自己有利的“法官畫像”的當事人,將比沒有購買能力或購買能力相對較弱者,具有壓倒性的勝訴機會?!肮茌牂喽凳邸迸c“挑選法官”都會導致當事人無法獲得司法的平等對待,只不過具體形式不同而已:“管轄權兜售”是在“賣法官”,是法官有意為之或法官與當事人的合謀,因而是司法腐??;而“挑選法官”是在“買法官”,是商業(yè)公司和當事人的合謀,并不需要法官意識到“挑選法官”行為的存在。但其背后的邏輯都是商業(yè)偏好邏輯,是將司法裁判視為買賣活動的一種類型。
就程序自治而言,法官大數(shù)據(jù)畫像的應用無疑干擾了司法的獨立和司法裁判過程的自主展開。個人預測能夠成功,就已經(jīng)意味著,裁判結論不再是訴訟活動終結的產(chǎn)物,不是論證和說理的結果,而是從一開始就被確定了的。司法已經(jīng)被“操控”了——被有支付能力的當事人,被意圖從中獲利的商業(yè)公司,也被想要獲得更多資源的法官自己,更準確地說,是被現(xiàn)代社會無所不在的商業(yè)邏輯。隨著人工智能技術對司法滲透范圍的擴大,司法全過程都可能被納入技術治理的視角之下,無遠弗屆、無處遁形。相應地,司法獨立和程度自治就會越發(fā)成為一個神話。
另一方面,法定法官原則也將遭受侵害。該原則的起源可追溯到1791年《法國憲法》。該憲法第五章第4條規(guī)定:“不得用任何專案法庭、或非經(jīng)法律規(guī)定的職權和移審辦法,使公民不受依法指定的審判官的審理。”該原則后來被德國所繼受,《魏瑪憲法》第105條和《德國基本法》第101條均規(guī)定,不得設立特別法院,不得剝奪任何人接受法定法官審判的權利?!胺ǘǚü佟敝傅氖沁@樣的法官:根據(jù)法定管轄權規(guī)定,以及根據(jù)通常是對此具有管轄權之法院內(nèi)部事先作出的一般性的業(yè)務分配計劃,這一法律爭議被分派給他。[31]P169法定法官原則確保了法官的獨立性和中立性。通常認為,法定法官原則包含四項內(nèi)涵,即特別法院之禁止,法院管轄法定,案件分配法定,以及任何違反法定程序的案件分配結果自然無效。其中,法院管轄法定是法定法官原則的核心。它指的是,某一案件具體由哪位法官予以審理,必須事先由一般性、抽象性的法律所明定。何等案件由何等法官承審,此乃法院的案件分配問題。在法治發(fā)達國家,法院的案件分配基本都由事先確定的、透明的程序予以決定。至于具體訴訟個案的分配,多數(shù)法院原則上均采取“隨機分配”與“平均分配”的原則。[32]法定法官原則的功能,一方面在于保障當事人的基本權利,尤其是公平審判權;另一方面在于確保法官的獨立性,防止外部力量干預司法。[32][33]這其實就是程序自治和當事人獲得平等對待的要求。所以,法定法官原則從案件分配機制的角度保障了程序公正。
但顯而易見的是,“買賣法官”的行為勢必侵蝕法定法官原則,侵害弱勢當事人的公平審判權,影響司法獨立。因為根據(jù)法定法官原則,裁判者的產(chǎn)生規(guī)則(案件分配程序規(guī)則)應當先于糾紛的發(fā)生,而個案的裁判者應當由法律事先確定的規(guī)則產(chǎn)生。但是,無論是“管轄權兜售”還是“挑選法官”的行為,其基本思路是“以操縱由何人審判的方式來操縱審判結果”,甚至通過改變案件審理者來影響審判結果。而一旦法定承審法官受到人為干擾而被剝奪裁判某起案件的審判權,而其他法官卻因人為因素取得裁判該案件的審判權,那么兩者的獨立性都將因外部因素的介入而受影響,程序公正也就無法得到確保。
綜上所述,其一,“法官畫像”的現(xiàn)實主義邏輯所蘊含的策略性與機會主義態(tài)度并不關心實體公正,因而可能與司法公正背道而馳;其二,“買賣法官”的商業(yè)偏好邏輯必然侵蝕程序公正的理念,即侵害程序自治和當事人獲得平等對待原則,及法定法官原則。
司法人工智能的基本運行邏輯是基于歷史數(shù)據(jù)預測。法律或司法裁判的確應具備可預測性,但可預測性指的只是指司法裁判應建立在事先已經(jīng)被公布的一般法律規(guī)則的基礎之上。[34]它指的不是法院或法官作出的判決實際上被某個公民或社會公眾所預測到,無論是被他們自己偶然地預測到,還是借助于人工智能或算法系統(tǒng)被有規(guī)律地預測到。因此,基于技術對司法裁判的預測不等同于司法裁判的可預測性,前者涉及事實上的預測能力,而后者涉及法律上的可預測性。這也說明,司法技術永遠無法完全取代司法判斷,尤其是司法中的價值判斷。因為司法裁判是一種價值內(nèi)置的活動,在這種活動中,“人”的邏輯不能被“機器”的邏輯所取代。這是司法的尊嚴的要求,更是人的尊嚴的要求。
目前司法人工智能的合適定位,就是司法裁判活動的輔助手段,主要旨在提高司法審判的效率。正如《最高人民法院關于加快建設智慧法院的意見》所提出的,智慧法院建設的目標,是要探索建立面向立案、審理、裁判、執(zhí)行等法院業(yè)務的知識圖譜,構建面向各類用戶的人工智能感知交互體系和以知識為中心的“人工智能輔助決策體系”。這是因為,從學科屬性上看,司法人工智能屬于法律信息學,準確地說,屬于決策法律信息學,主要涉及法律專家系統(tǒng)、決策輔助軟件和法律咨詢軟件。而法律信息學本質(zhì)上是信息學在法律領域中的應用,我國的智慧法院、智慧檢務、智慧公安工程中的有關司法人工智能均屬于此。盡管目前大部分學者都不否認司法人工智能的這種決策輔助地位,但筆者的確有一個擔憂:就像技術從來就不只是技術,而同時也負載著特定的價值追求或意識形態(tài)那樣,對司法人工智能的過度推崇和迷戀也會在不知不覺間產(chǎn)生一種導向,也即潛在地以技術主義的邏輯壓倒人的邏輯的導向。為此,要時刻牢記的是,技術永遠只是技術,司法人工智能的應用也永遠無法替代對司法公正的追求。“身披法袍的正義”終究是人的正義,而非機器的正義。
注釋:
① 例如,薩默斯就提出了九項程序價值(See Robert Summers, Evaluating and Improving Legal Process: A Plea for “Process Value”, in his The Jurisprudence of Law’s Form and Substance, Dartmouth: Ashgate Press 2000, pp.103ff.)
② 前兩層含義參見?ke Fr?ndenberg, From Rechtsstaat to Universal Law, Heidelberg e.t.: Springer, 2014, p.113;后兩層含義參見[美]布雷恩·塔瑪納哈:《論法治——歷史、政治和理論》,李桂林譯,武漢大學出版社2010年版,第148頁。
③ 引文中的“法學”指的是司法裁判視角下的法教義學。
④ 強力法同時通過人工構造數(shù)據(jù)庫和知識庫,而訓練法則可能只通過人工構造數(shù)據(jù)庫。
⑤ 來自圍棋領域的一個例證是,第四代“阿爾法狗”(即“阿爾法零”)已完全不依賴于人類圍棋知識了。
⑥ 關于類型思維及其特征,參見[德]阿圖爾·考夫曼:《類推與“事物本質(zhì)”——兼論類型思維》,吳從周譯,學林文化事業(yè)有限公司1999年版,第111-119頁。
⑦ 學理上能做的,只有在法教義學的層面上,對特定規(guī)則的例外情形進行類型化處理。
⑧ 為了論述的簡潔,以下用“法官”來同時指稱“法院”。就個性預測而言,基于特定法院的歷史裁判數(shù)據(jù)與基于法官個人的歷史裁判數(shù)據(jù)的預測并無區(qū)別。
⑨ 在此參考了王祿生:“司法大數(shù)據(jù)應用的法理沖突與價值平衡——從法國司法大數(shù)據(jù)禁令展開”,《比較法研究》2020年第2期。
⑩ 觀察者的立場不問某一法律體系中的正確決定是什么,而更關心在此一特定法律體系中決定如何實際地作出。相反,持參與者立場的人則在某一法律體系中參與到有關此一體系的命令、禁止、允許以及此一體系所欲達致的目的爭議之中。對此參見[德]羅伯特·阿列克西: 《法概念與法效力》,王鵬翔譯,五南圖書出版股份有限公司2013 年版,第42-43頁。