雷婉璐
(江蘇大學(xué) 法學(xué)院,江蘇 鎮(zhèn)江 212000)
智慧法院是司法改革和信息化時代的產(chǎn)物。智慧法院建設(shè)是促進(jìn)審判體系和審判能力現(xiàn)代化的需要,更是新時代人民群眾的新期待。 在這一時代背景下,部分法院研發(fā)的智能輔助審判系統(tǒng)陸續(xù)投入使用,但智能審判不僅是解決法律實務(wù)中案多人少的權(quán)宜之計,更是顛覆傳統(tǒng)司法原則、司法理性和司法規(guī)律并產(chǎn)生深遠(yuǎn)影響的巨大變革。就法官責(zé)任制而言,智能輔助審判對審判權(quán)運(yùn)行規(guī)律產(chǎn)生的巨大沖擊,使得法官責(zé)任在現(xiàn)行制度中出現(xiàn)了問責(zé)困境。 因此,在司法改革與信息化改革的雙重背景下,系統(tǒng)研究智能輔助審判對傳統(tǒng)司法權(quán)的挑戰(zhàn),化解智能輔助審判引發(fā)的法官問責(zé)困境,滿足廣大人民群眾日益增長的司法需求,已成為中國智慧司法建設(shè)中重要的理論與實踐命題。
2016年,最高人民法院院長周強(qiáng)首次提出建設(shè)立足于時代發(fā)展前沿的智慧法院。 “智慧法院是指以確保司法公正高效、提升司法公信力為目標(biāo),充分運(yùn)用互聯(lián)網(wǎng)、云計算、大數(shù)據(jù)、人工智能等現(xiàn)代科學(xué)技術(shù),促進(jìn)審判體系和審判能力現(xiàn)代化,實現(xiàn)司法審判及其管理高度智能化運(yùn)行所形成的法院?!保?]如今,在智慧法院建設(shè)新常態(tài)的背景下,學(xué)者們集中分析了人工智能在司法裁判中的“能”與“不能”,最終形成了一種基本共識,即人工智能是重要的司法輔助力量,但不能完全取代法官。 正如季衛(wèi)東教授強(qiáng)調(diào)的,“大數(shù)據(jù)、云計算、信息技術(shù)、人工智能都只是實現(xiàn)合法正義的輔助手段,切不可本末倒置,這是我們始終應(yīng)該銘記的一條基本原則”[2]。 然而,即使是弱人工智能時代的智能輔助審判技術(shù),它在為司法現(xiàn)代化提供新路徑的同時,仍然引發(fā)了諸多制度難題,亟需理論上的回應(yīng)。 比如,江蘇某法院因系統(tǒng)自動生成文書私放“老賴”出國案件[3],引發(fā)了社會對智能輔助審判案件中法官責(zé)任問題的思考。 法官可以“甩鍋”給機(jī)器嗎? 智能輔助審判是否會成為法官轉(zhuǎn)嫁責(zé)任的隱性通道? 經(jīng)由智能輔助審判的案件,應(yīng)當(dāng)由誰來承擔(dān)審判責(zé)任? 理論界雖然對此有所討論,但仍處于開拓階段,尚缺乏對智能輔助審判與法官責(zé)任相互關(guān)系的深刻把握與思考,由此所提出的人工智能時代法官責(zé)任該如何追究的建議,也只是方向性的。 因此,現(xiàn)有研究為本課題奠定了良好的研究基礎(chǔ),但提供的解釋力仍然有限,還存在進(jìn)一步拓展的空間。
有鑒于此,本文以智能輔助審判引發(fā)的法官問責(zé)難題為問題意識,論證這一難題出現(xiàn)的內(nèi)在機(jī)理在于算法權(quán)力與審判權(quán)的沖突,然后分析對比兩種破解這一難題的可能路徑,闡釋其中賦權(quán)型問責(zé)機(jī)制更為可取的緣由。 最后,初步勾勒出賦權(quán)型問責(zé)機(jī)制的實踐內(nèi)涵以及法官責(zé)任認(rèn)定的基本規(guī)則。
智能算法基于機(jī)器、架構(gòu)與嵌入優(yōu)勢超越了工具化屬性,獲得了實質(zhì)調(diào)配資源的力量,從而具備足以支配他人或影響他人資源的權(quán)力形態(tài),成為一種技術(shù)權(quán)力,稱之為算法權(quán)力[4]69。 算法權(quán)力對審判權(quán)的介入,使得傳統(tǒng)審判權(quán)在配置和運(yùn)行上出現(xiàn)了異化,表現(xiàn)為技術(shù)話語與專業(yè)話語的權(quán)力沖突,這一沖突正是構(gòu)成法官問責(zé)困境的內(nèi)在機(jī)理。
在國家權(quán)力架構(gòu)中,審判權(quán)的配置具有專屬性與排他性,但智能輔助審判技術(shù)對司法裁判領(lǐng)域的介入實則突破了審判權(quán)配置的專屬性,形成審判主體的雙重結(jié)構(gòu),導(dǎo)致決定者的復(fù)數(shù)化,事實上將出現(xiàn)程序員、軟件工程師、數(shù)據(jù)處理商、信息技術(shù)公司與法官共同作出決定的局面[5]。 裁判者復(fù)數(shù)化帶來的直接問題就是責(zé)任主體混淆不清。 中共十八大提出司法責(zé)任制改革,目的在于解決中國一直以來存在的判審分離現(xiàn)象所導(dǎo)致的“集體負(fù)責(zé),集體無責(zé)”的困境,在實現(xiàn)審理權(quán)和裁判權(quán)相統(tǒng)一的前提下,明晰責(zé)任主體。 但是,智能輔助審判進(jìn)一步增加了裁判主體的數(shù)量,造成審理權(quán)與判決權(quán)再次分離,使得審判主體多元、權(quán)限邊界模糊、責(zé)任主體不明。 可以想象的是,當(dāng)出現(xiàn)需要承擔(dān)責(zé)任的情形時,多個主體間勢必會相互推諉,造成無人負(fù)責(zé)的局面。 “當(dāng)案件裁決者由單一化走向多元化和復(fù)數(shù)化時,審理者的角色將不再確定、明晰,導(dǎo)致難以有效問責(zé),會使得正在著力推進(jìn)的司法責(zé)任制改革難以獲得真正落實。”[6]同時,算法運(yùn)行的不透明性、封閉性和不可解釋性使得算法決策成為普通人無法監(jiān)督的私密領(lǐng)域,人們雖然可以獲知機(jī)器給出的結(jié)果,卻無法知曉結(jié)果得出的具體過程,由此加劇了各主體間責(zé)任劃分的難度。 算法不透明可能為算法偏好提供隱蔽,進(jìn)而形成算法歧視,而算法歧視“善于把自身包裝成集體意志,模糊了責(zé)任主體;它攀附制度體系,狐假虎威地綁架制度為其張目;它脫離特定個體的偏見表達(dá),形成獨立的運(yùn)作方式。 最重要的是,它指皂為白,不遺余力地鞏固、加劇結(jié)構(gòu)性不平等”[7]。 這無疑與司法責(zé)任制改革的目標(biāo)和邏輯相悖。
審判權(quán)獨立行使(運(yùn)行)是最根本最普遍的司法規(guī)律[8]。 法官責(zé)任制必須以司法權(quán)獨立運(yùn)行為前提,具體表述為“讓審理者裁判、由裁判者負(fù)責(zé)”,即法官享有審理案件和作出終局裁判的權(quán)力,在此基礎(chǔ)上,由法官對案件的事實認(rèn)定和法律適用承擔(dān)責(zé)任。 一個人之所以可以被譴責(zé),是因為他本可以不這樣做時卻這樣做了。 道德基礎(chǔ)體現(xiàn)著責(zé)任承擔(dān)最自然的條件,其蘊(yùn)含在包括法律責(zé)任在內(nèi)的幾乎任何類型的責(zé)任之內(nèi)。 法官責(zé)任的道德基礎(chǔ)體現(xiàn)在法官享有只服從事實和法律,遵循其在憲法和法律規(guī)制下的自由意志并徑行作出裁判的自由。 審判權(quán)運(yùn)行的獨立性正是對這一道德基礎(chǔ)的保障。 如果審判權(quán)的獨立性受到了其他因素的不當(dāng)干擾,使得法官失去了裁判的自由度,法官責(zé)任便失去了最基本的道德基礎(chǔ)。然而,智能輔助審判使得法官的意志注入了除事實和法律之外的因素,比如,類案智能推送系統(tǒng)使得法官在作出裁判前已經(jīng)獲得類案的裁判結(jié)果,此時,法官作出裁判的依據(jù)不僅包括事實和法律,還包括類案智能推送系統(tǒng)的推薦結(jié)果。 而且,法官表示通過法院內(nèi)部智能輔助系統(tǒng)主動搜索案例往往無法獲得理想的可參考案例,真正要用的時候還是要到外網(wǎng)用商業(yè)公司開發(fā)的案例檢索系統(tǒng)進(jìn)行搜索[9]。 類案檢索系統(tǒng)的開發(fā)是由科技公司編寫代碼,形成算法,對海量裁判文書進(jìn)行情節(jié)特征的自動提取和判決結(jié)果的智能學(xué)習(xí),再根據(jù)法官點選的關(guān)鍵詞或提供的事實、情節(jié),自動統(tǒng)計、推送同類案件裁判情況。 即使是法院內(nèi)部的智能輔助系統(tǒng),也需要與科技公司合作完成。①如科大訊飛與三省一市合作,共同推進(jìn)“人工智能+法院”在長三角地區(qū)的應(yīng)用,參見《科大訊飛攜手長三角三省一市法院系統(tǒng)開啟智慧法院新篇章》,搜狐網(wǎng),2018-06-06,https://www.sohu.com/a/234211133_336009,訪問時間2021年3月15 日;京東數(shù)字科技集團(tuán)與北京市第三中級人民法院聯(lián)合打造了“數(shù)字法院智能一體化解決方案”,參見《京東數(shù)科打造數(shù)字法院智能一體化解決方案》,搜狐網(wǎng),2018-06-06,https://www.sohu.com/a/435792437_123753,訪問時間2021年3月21 日。由此,從技術(shù)角度講,何為類案,何種裁判文書在何時會被推送到法官面前是由科技公司編寫算法的程序員決定的。 “當(dāng)我們質(zhì)疑人類恣意時,也更有理由懷疑這些系統(tǒng)研發(fā)者會借著算法黑箱寫入法學(xué)家的偏見、科學(xué)家的武斷、企業(yè)的經(jīng)濟(jì)利益等,它們?nèi)詿o法擺脫商業(yè)、政治、強(qiáng)勢價值觀等力量操控?!保?0]司法裁判中多元主體意志的介入必然會對法官的自由心證過程造成一定的影響,進(jìn)而對審判權(quán)的獨立運(yùn)行形成沖擊,使得法官責(zé)任制流于形式。 更為嚴(yán)重的是,“有研究指出,人類極易受到‘自動化偏見’的影響,即使認(rèn)識到可能另有選擇,其也更傾向于服從計算機(jī)的判斷”[4]69。 一旦此種傾向得以發(fā)展,算法誘導(dǎo)裁判甚至主導(dǎo)裁判,可能對審判權(quán)獨立運(yùn)行形成更大的挑戰(zhàn),法官問責(zé)更加無從談起。
司法責(zé)任制改革的核心在于職責(zé)界分,通過賦予法官明確的權(quán)力厘清責(zé)任邊界,達(dá)致權(quán)責(zé)明晰的狀態(tài)。 因此,智能輔助審判對傳統(tǒng)審判模式的挑戰(zhàn)表現(xiàn)為算法權(quán)力與審判權(quán)的沖突,該沖突使得法官的“權(quán)”與“責(zé)”重新回到了混沌不清的狀態(tài),瓦解了司法責(zé)任制改革的核心邏輯,出現(xiàn)了法官問責(zé)難題。 對此,可以推導(dǎo)出兩種不同的解決路徑:一種是以現(xiàn)有權(quán)力狀態(tài)為前提,重構(gòu)法官責(zé)任體系;另一種是以現(xiàn)有法官責(zé)任體系為基本框架,重新配置法官權(quán)利,可稱之為賦權(quán)型問責(zé)。兩種路徑的目標(biāo)都是在恢復(fù)權(quán)責(zé)一致、權(quán)責(zé)明晰的基礎(chǔ)上,保障司法的可問責(zé)性。 但是,二者因?qū)Ψü俳巧牟煌J(rèn)知,分別走向了不同方向。
現(xiàn)有研究緣于對法官的不信任,認(rèn)為法官可能利用人工智能轉(zhuǎn)嫁責(zé)任,使得法官問責(zé)制流于形式。②有關(guān)論述可參見馬長山《人工智能的社會風(fēng)險及其法律規(guī)制》,載于《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第6 期;孫道萃《我國刑事司法智能化的知識解構(gòu)與應(yīng)對邏輯》,載于《當(dāng)代法學(xué)》2019年第3 期;鄭曦《人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制》,載于《中外法學(xué)》2020年第3 期。因此,解決這一問題的思路傾向于在現(xiàn)有權(quán)力結(jié)構(gòu)下,重新進(jìn)行責(zé)任劃分。 然而,有關(guān)責(zé)任主體的確定,理論界與實務(wù)界并未形成統(tǒng)一意見,主要觀點包括三種:一是人工智能使用者優(yōu)先承擔(dān),但可向開發(fā)者追償[11];二是直接由人工智能使用者承擔(dān)[12];三是人工智能獲得完整的法律擬制人格,獨自承擔(dān)審判責(zé)任[13]。 倘若采用第二種方案,直接由人工智能的使用者(法官)承擔(dān)審判責(zé)任,那么仍會出現(xiàn)裁判主體復(fù)數(shù)化所導(dǎo)致的責(zé)任主體不清、責(zé)任劃分不明的問題。 而且,當(dāng)責(zé)任范圍高于權(quán)力范圍時,增加了權(quán)力行使的責(zé)任感和危機(jī)感,但可能減少行使權(quán)力的主動性和積極性,誘發(fā)不作為。 如果責(zé)任過重,那么容易促使人們選擇各種逃避責(zé)任的方式,本來那些雖然沒有規(guī)定,但基于常識和合理性原則就可以辦的事情變得繁文縟節(jié)、拖拖拉拉、甚至辦不成。③引自李勇《權(quán)力超出責(zé)任易誘發(fā)不作為》,中國法律評論公眾號2020年7月16 日。倘若采用第一種方案,通過向人工智能開發(fā)者追償?shù)姆绞綔p輕使用者的責(zé)任是否合適? 答案是否定的。 首先,程序設(shè)計往往是多人合作共同開發(fā),因而很難追溯到具體的個人或組織。 其次,我們需要的是最小化責(zé)任的技術(shù),不宜過于擴(kuò)大系統(tǒng)設(shè)計者和使用者的責(zé)任[14]。目前,中國尚無專門針對人工智能這類特殊主體的懲罰方式,如果采用第三種方案,那么,讓機(jī)器以何種方式承擔(dān)責(zé)任才能實現(xiàn)問責(zé)的真正價值,滿足公眾的合理期待呢? 上述三種解決方案隨著人工智能的逐步發(fā)展,在技術(shù)層面或許可以做到,但其關(guān)鍵問題在于忽視了法官責(zé)任制的真正價值。 探討法官問責(zé)難題的解決路徑,不只是提出一種責(zé)任劃分的技術(shù)方案,而是在充分保留制度價值、遵循司法規(guī)律的前提下,選擇一種更符合中國司法實踐和司法需求的應(yīng)對路徑。 法官責(zé)任制的價值在于建立制度及其承諾的信任,通過法官對其審判工作承擔(dān)責(zé)任的方式獲得社會信任,強(qiáng)化司法公信力。 在中國目前司法信任危機(jī)仍較為嚴(yán)重的情況下,如果將審判責(zé)任交由機(jī)器或者機(jī)器的開發(fā)者來承擔(dān),那么可能造成對司法公信力的進(jìn)一步破壞。 更為重要的是,這一路徑雖然在技術(shù)層面可能解決智能輔助審判案件中的法官問責(zé)難題,但并沒有妥善處理算法權(quán)力與審判權(quán)的沖突,也沒有在機(jī)器與法官的角色沖突之間作出恰當(dāng)平衡。 換句話說,法官問責(zé)難題的解決建立在違背司法權(quán)運(yùn)行規(guī)律和犧牲法官裁判主導(dǎo)地位的基礎(chǔ)上,這在中國當(dāng)下的司法環(huán)境和司法人工智能發(fā)展的初級階段是存在風(fēng)險的。無論信息技術(shù)如何發(fā)展,都應(yīng)當(dāng)遵循司法規(guī)律,尊重法官的裁判主導(dǎo)地位,這是平衡科技與司法應(yīng)當(dāng)堅持的根本原則。
智能輔助審判引發(fā)法官問責(zé)難題的根源并不是為法官提供了轉(zhuǎn)嫁責(zé)任的渠道,而是算法技術(shù)權(quán)力對法官專業(yè)權(quán)力的挑戰(zhàn),導(dǎo)致法官權(quán)力在裁判決定權(quán)權(quán)重中的比例弱化以及法官主導(dǎo)地位在裁判決定地位中的逐漸消解。 簡言之,人工智能挑戰(zhàn)了法官作為“法官”的地位。 因此,在進(jìn)行法官問責(zé)之前,應(yīng)當(dāng)首先進(jìn)行權(quán)責(zé)關(guān)系的修正。 賦權(quán)型問責(zé)機(jī)制是指通過賦予法官相應(yīng)的權(quán)利,保障法官對裁判結(jié)果的決定權(quán),并由法官對其審判行為和裁判質(zhì)量承擔(dān)責(zé)任的一種問責(zé)機(jī)制。
首先,賦權(quán)型問責(zé)機(jī)制是由司法裁判性質(zhì)決定的。 卡多佐大法官在描述司法過程的縮影時說道:“運(yùn)用我們的邏輯、類推、哲學(xué)向前走,直到我們達(dá)到某個特定的點。 開始時,我們對這些路徑并沒有感到有問題;它們也遵循同樣的路線。 然后,它們開始分岔了,而我們就必須在它們之間作出選擇。 歷史或者習(xí)慣、社會效用或某些逼人的正義情感,有時甚或是對滲透在我們法律中的精神的半直覺性領(lǐng)悟,必定要來援救焦慮不安的法官,并告訴他向何方前進(jìn)。”[15]因此,真正的司法裁判絕不是對案件事實進(jìn)行規(guī)范匹配下的純粹演繹推理。 當(dāng)出現(xiàn)法律沒有規(guī)定、法律規(guī)定存在歧義與模糊或“合法”與“合理”相沖突的疑難案件時,法官的司法行為將產(chǎn)生一定程度的立法性質(zhì),法官實質(zhì)上在進(jìn)行著一種“自由的科學(xué)研究”,這種研究是專屬于法官基于法律思維才能完成的創(chuàng)造性活動。 這一活動背后是人工智能基于算法程序無法還原的司法理性,也是人工智能無法取代法官的關(guān)鍵緣由。 法官承載了實現(xiàn)司法功能的重要任務(wù),但是司法輔助系統(tǒng)對法官管控的強(qiáng)化,卸載了司法創(chuàng)造規(guī)則與改變社會的功能,使司法成為立法的附庸,成為與行政機(jī)關(guān)類似的執(zhí)法機(jī)構(gòu)。 那么此時的司法也就不再是司法,也就失去了司法的本質(zhì)功能與存在價值[16]。
其次,賦權(quán)型問責(zé)機(jī)制是司法責(zé)任制改革的必然要求。 司法改革和智慧法院是司法現(xiàn)代化建設(shè)的“車之兩輪、鳥之雙翼”,“司法人工智能應(yīng)當(dāng)緊密圍繞司法改革任務(wù)的特征來構(gòu)建司法人工智能,從而達(dá)到精準(zhǔn)和有效輔助司法改革的目的”[17]。司法責(zé)任制改革確立了主審法官責(zé)任制,意在還權(quán)于法官,保障法官裁判主體地位并由法官對案件質(zhì)量終身負(fù)責(zé)。 法官享有對案件進(jìn)行審理并自主作出裁判的權(quán)力,不受任何其他力量的不當(dāng)干預(yù),這是其承擔(dān)審判責(zé)任的前提和保障。 從這個角度來看,智能輔助審判是推進(jìn)法院進(jìn)一步落實司法責(zé)任制的重要方式,智能輔助審判應(yīng)當(dāng)有助于提升法官裁判主體地位,保障法官享有對案件結(jié)果的決定權(quán),明確審判責(zé)任的承擔(dān)主體。 然而,人工智能通過無形的算法系統(tǒng)強(qiáng)化了法院外部與內(nèi)部的行政結(jié)構(gòu),實際上重新形成了對法官的控制,其所形成的算法權(quán)力不僅違背了審判權(quán)的運(yùn)行規(guī)律,也與去行政化的改革目標(biāo)相背離,引發(fā)了責(zé)任認(rèn)定的制度困境。 人工智能所帶來的便利超乎想象,但是人類自身的惰性容易導(dǎo)致法官未來可能會對人工智能形成過分依賴,從以往的“規(guī)則依賴”“機(jī)構(gòu)依賴”和“制度依賴”轉(zhuǎn)向“機(jī)器依賴”,使得“輔助”趨向于“主導(dǎo)”。 例如,備受期待的類案推送功能,設(shè)計初衷是為法官提供參考,但考慮到照搬類案省時省力,不會引發(fā)數(shù)據(jù)異常報警,且能避免領(lǐng)導(dǎo)質(zhì)疑和當(dāng)事人上訪的風(fēng)險,必然會被絕大多數(shù)法官欣然接受[18]。 文書自動生成和量刑輔助功能也會面臨相似的境遇。 在這種算法支配審判的風(fēng)險下,對法官裁判決定權(quán)的保障顯得尤為重要。 唯有賦予法官擺脫依賴的權(quán)利和動力,保障法官始終享有對裁判結(jié)果的決定權(quán),才能進(jìn)行有效問責(zé)。
法官應(yīng)當(dāng)承擔(dān)審判責(zé)任不言而喻,但必須確保作為裁判者的法官享有對案件結(jié)果的決定權(quán)且具有終局性。 責(zé)任法定原則要求只有法律明文規(guī)定,才能成為確認(rèn)和追究違法責(zé)任的依據(jù)。 因此,對法官權(quán)利的賦予應(yīng)當(dāng)由法律予以固定化,確立法官對裁判結(jié)果的最終決定權(quán),同時明確智能輔助審判通過數(shù)據(jù)分析形成的推薦結(jié)果只能作為法官實施最終決定權(quán)的參考意見。
保障法官對裁判結(jié)果的決定權(quán),必須賦予法官適用人工智能的選擇權(quán),充分尊重訴訟中法官的主體地位和職業(yè)尊嚴(yán),最大限度上避免人工智能裁判可能帶來的負(fù)面效應(yīng)。 對司法人工智能的認(rèn)識僅停留在輔助裁判仍不具有指引價值,甚至?xí)驗槠浜滢o的定位使得司法實踐標(biāo)準(zhǔn)不一。 人工智能量刑輔助的定位必須進(jìn)一步精細(xì)化,即其是參考性輔助還是規(guī)范性輔助,前者是指量刑人工智能給出的“量刑”對法官只有參考價值,后者是指量刑人工智能給出的“量刑”具有規(guī)范作用,法官必須采納或者如不采納則需要給出合理的理由[19]。 賦予法官適用人工智能的選擇權(quán)就是要排除法官適用人工智能的強(qiáng)制性要求,將其歸于參考性輔助的價值定位。 法官有權(quán)根據(jù)案件情況和實際需求決定是否使用智能輔助,包括是否使用、何時使用以及使用何種智能輔助技術(shù)等。 比如,類案智能推送的啟動應(yīng)當(dāng)以法官的實際辦案需要為標(biāo)準(zhǔn),法官有權(quán)自主決定是否進(jìn)行類案檢索,對于智能推薦的裁判結(jié)果,法官有權(quán)選擇不予采納,無需說明不予采納的理由。 此外,如果類案推送系統(tǒng)可能會影響法官的自由心證,那么法官可以選擇形成裁判結(jié)果之后進(jìn)行參考。 這是因為法官的職責(zé)是對裁判結(jié)果釋法說理,法官應(yīng)在裁判文書中闡明事理,說明裁判所認(rèn)定的案件事實及其根據(jù)和理由。 法官還應(yīng)釋明法理,說明裁判所依據(jù)的法律規(guī)范以及適用法律規(guī)范的理由。 智能輔助既然是參考性價值,那么不予采納的理由當(dāng)屬法官自由心證的部分。 相反,如果采納,法官則應(yīng)當(dāng)在裁判依據(jù)部分闡明類比推理的過程,這是法官作出裁判的法理依據(jù)。
賦予法官適用智能輔助系統(tǒng)的選擇權(quán),意味著一旦法官選擇適用智能輔助系統(tǒng)的推薦結(jié)果,就同時負(fù)有對智能輸出結(jié)果的審查義務(wù),對這一義務(wù)的違反構(gòu)成其承擔(dān)責(zé)任的法定依據(jù)。 法官是人工智能的使用者,也是審判權(quán)的實際享有者,因而對智能系統(tǒng)生成結(jié)果的審查只有法官可以進(jìn)行。 比如,裁判爭議焦點自動歸納技術(shù),裁判爭議焦點一旦存在偏差便足以影響整個案情的走向,因而法官應(yīng)當(dāng)承擔(dān)審查裁判焦點是否準(zhǔn)確識別的義務(wù);偏離預(yù)警系統(tǒng)亦是如此,當(dāng)出現(xiàn)報警提醒時,法官應(yīng)當(dāng)審查這一偏離實質(zhì)上是否符合具體案件的事實和法律。然而,在案件數(shù)量激增或考核指標(biāo)等現(xiàn)實壓力下,難以保證法官不會對人工智能的便捷高效產(chǎn)生依賴,而選擇犧牲司法對于公正的價值追求。 一旦這種“依賴”借著算法權(quán)力的蔓延瘋長,就可能降低法官自由裁量的判斷能力,打破審判權(quán)運(yùn)行的基本架構(gòu),消解司法的本質(zhì),那么,司法將徹底被機(jī)器所奴役。 因此,在賦予法官選擇權(quán)的基礎(chǔ)上進(jìn)行個體問責(zé),不僅可以解決法官問責(zé)難題,降低錯誤出現(xiàn)的幾率,而且在一定程度上有助于克服法官“依賴機(jī)器”的惰性,維護(hù)司法權(quán)威。
法官作為智能系統(tǒng)的使用者,應(yīng)當(dāng)對其使用結(jié)果承擔(dān)責(zé)任。 但是,如果能夠證明法官確實已盡到審查義務(wù),不存在主觀上的故意或重大過失,裁判錯誤的出現(xiàn)是算法本身或其他法官無法查明的原因所致,應(yīng)當(dāng)如何保障法官免于懲罰呢? 比如,美國威斯康星州初審法院使用COMPAS 系統(tǒng)對艾瑞克·魯米斯進(jìn)行再犯風(fēng)險評估,以此作為量刑的依據(jù)。 該系統(tǒng)作出評估的方法是COMPAS 算法的提供者Northpointe 公司的商業(yè)秘密,用于評估的數(shù)據(jù)是記錄在案的犯罪記錄和被告自己提供的數(shù)據(jù),因而法官無法審查算法是否涉嫌歧視或是否得出了錯誤的評估結(jié)果。 此時,若由法官承擔(dān)責(zé)任顯然不符合歸責(zé)的因果關(guān)系基礎(chǔ),因而應(yīng)當(dāng)賦予法官對智能輔助算法運(yùn)行過程的知情權(quán),充分保障其訴訟權(quán)利。 該權(quán)利以法律的形式規(guī)定則意味著提供算法的技術(shù)公司有義務(wù)配合司法機(jī)關(guān)就特定案件將關(guān)鍵算法作出適度公開。 但這種公開存在的問題在于除了它的保密性外,更重要的是即使公開了,普通人也難以理解。 此時,有關(guān)算法規(guī)制、算法解釋與算法問責(zé)的研究成果可為這一問題的解決提供思考方向。 算法解釋權(quán)的本質(zhì)是對自動化決策“算法權(quán)力”的一種規(guī)制方式,是指當(dāng)自動化決策的具體決定對相對人有法律上或者經(jīng)濟(jì)上的顯著影響時,相對人向算法使用人提出異議,要求提供對具體決策的解釋,并擁有要求更新數(shù)據(jù)或更正錯誤的權(quán)利[20]。 雖然算法解釋權(quán)通常是指相對人對使用者的權(quán)利,但其強(qiáng)調(diào)的是自身利益受到算法決策影響的利害關(guān)系人有權(quán)要求通過算法解釋消除影響,免于受到算法不利結(jié)果的損害。 法官因算法決策受到不利影響時,應(yīng)當(dāng)有權(quán)請求對算法本身進(jìn)行解釋,明確造成損害后果的原因。 這里對可解釋性的要求有二種:一是能夠被包括法官在內(nèi)的普通人看懂和理解;二是與具體案件出現(xiàn)錯誤的原因相關(guān)。那么,算法是否可被解釋? 鄭戈認(rèn)為:“一旦法律提出了相關(guān)要求,技術(shù)界便會想方設(shè)法使算法成為可解釋的?!保?1]就程序而言,法官應(yīng)當(dāng)首先證明自己盡到了對智能運(yùn)算結(jié)果的審查義務(wù),比如應(yīng)當(dāng)在裁判文書中注明本案是否使用智能輔助審判技術(shù),并說明使用的智能輔助技術(shù)種類和采納智能推送結(jié)果的理由。 在此前提下,可依據(jù)算法解釋權(quán)向有關(guān)機(jī)構(gòu)申請進(jìn)行算法解釋,如果確實是由算法錯誤引起的,則構(gòu)成法官責(zé)任的免責(zé)事由,另交由算法問責(zé)的相關(guān)制度予以處理。 賦予法官的算法解釋權(quán)是推進(jìn)智能法院建設(shè)和法官有效問責(zé)的一種重要的平衡機(jī)制。 智慧法院建設(shè)的初衷是緩解法院案多人少的矛盾,推進(jìn)審判體系和審判能力現(xiàn)代化,倘若機(jī)器出錯的責(zé)任也由法官承擔(dān),法官就會偏向于選擇不使用人工智能,那么人工智能之于司法審判的優(yōu)勢將被全盤否定,智慧法院建設(shè)也將停滯不前。 賦予法官算法解釋權(quán)就是保障法官不受非過錯意圖結(jié)果的不利影響,根據(jù)案件需要自由決定智能輔助審判的使用,并對此承擔(dān)責(zé)任。
至此,我們得到了一個過錯責(zé)任原則在智能輔助審判案件法官責(zé)任追究中適用的基本路徑:經(jīng)由智能輔助審判的案件,法官故意利用人工智能違反法律法規(guī),或因使用人工智能時存在重大過失導(dǎo)致裁判錯誤并造成嚴(yán)重后果,依法應(yīng)當(dāng)承擔(dān)違法審判責(zé)任,但能夠證明是算法自身原因的除外。 如果法官未選擇智能輔助審判,則按照現(xiàn)有法律規(guī)定的責(zé)任范圍和程序進(jìn)行。 反之,如果法官選擇智能輔助審判,那么不僅應(yīng)當(dāng)遵守法律法規(guī)所規(guī)定的審判義務(wù),還應(yīng)當(dāng)履行對智能輔助結(jié)果的審查義務(wù)。 《關(guān)于完善人民法院司法責(zé)任制的若干意見》第25 條明確規(guī)定:“法官在審判工作中,故意違反法律法規(guī)的,或者因重大過失導(dǎo)致裁判錯誤并造成嚴(yán)重后果的,依法應(yīng)當(dāng)承擔(dān)違法審判責(zé)任?!边@一規(guī)定確立了主客觀相統(tǒng)一的法官責(zé)任歸責(zé)原則,法官只有在存在主觀過錯的前提下才可能承擔(dān)責(zé)任,否定唯結(jié)果主義論的錯案責(zé)任追究制。 對此,可以類比醫(yī)療事故的責(zé)任認(rèn)定原則,采用過錯責(zé)任推定,在違法行為與違法故意之間建立了一種事實推定關(guān)系,使有關(guān)的追責(zé)部門無需承擔(dān)不必要的舉證責(zé)任,法官只要違反了法律法規(guī),就足以被認(rèn)定為存在主觀過錯[22]。 因此,法官責(zé)任的認(rèn)定需要滿足三個條件:一是法官是否具有故意或重大過失;二是重大過失是否導(dǎo)致裁判結(jié)果錯誤;三是是否產(chǎn)生嚴(yán)重后果。①此處對法官主觀過錯的考察僅限于重大過失的情況。 主觀故意并不要求出現(xiàn)損害后果,因而無論是否使用智能輔助系統(tǒng),法官故意違反訴訟程序和故意不履行審查義務(wù)的行為都會直接導(dǎo)致責(zé)任的承擔(dān)。 另外,《關(guān)于完善人民法院司法責(zé)任制的若干意見》第25 條對于嚴(yán)重后果的要求并未因智能輔助裁判系統(tǒng)的介入而發(fā)生改變,因而在此不作討論。對于法官主觀過錯的考察可以采用過錯推定原則,只需要確定法官是否違反了法律法規(guī)所規(guī)定的法定義務(wù)即可,同時,還需要明確主觀過錯與裁判結(jié)果錯誤之間是否存在因果關(guān)系,由此形成法官義務(wù)與責(zé)任追究的三種情形(見表1)。
表1 法官義務(wù)與責(zé)任追究對照表
如表1 所示,法官違反審查義務(wù)時,無論其是否違反依法審判義務(wù),都應(yīng)當(dāng)承擔(dān)責(zé)任,但是責(zé)任的認(rèn)定應(yīng)根據(jù)過錯程度有所差異。 如果法官沒有違反審查義務(wù),但違反了依法審判義務(wù),比如違反了程序法的相關(guān)規(guī)定,此時,裁判結(jié)果是依據(jù)智能輔助的結(jié)果作出的,法官對程序法的違反與裁判結(jié)果錯誤之間并不存在因果關(guān)系。 然而,法官因重大過失違反了法律法規(guī)的規(guī)定,往往直接導(dǎo)致對人工智能的使用錯誤,比如,法官丟失證據(jù)導(dǎo)致在使用爭議焦點自動歸納系統(tǒng)時出現(xiàn)偏差,影響了整個案件的走向,導(dǎo)致裁判錯誤;再如,法官因文書類型選擇錯誤導(dǎo)致在使用文書自動生成系統(tǒng)時出現(xiàn)錯誤。 此時,雖然法官對程序法的違反并未直接導(dǎo)致裁判結(jié)果錯誤,但因?qū)е螺斎攵说牟僮魇д`使得輸出端的裁判結(jié)果錯誤,也應(yīng)認(rèn)定為具有因果關(guān)系,法官應(yīng)當(dāng)對此承擔(dān)責(zé)任。 由此,我們可以初步得出智能輔助裁判下法官責(zé)任的認(rèn)定規(guī)則,即只要法官因重大過失違反了依法審判義務(wù)或?qū)彶榱x務(wù),應(yīng)當(dāng)根據(jù)過失大小及其后果的嚴(yán)重程度承擔(dān)相應(yīng)的審判責(zé)任。
智慧法院建設(shè)時代,法官責(zé)任的明晰對于人民法院加強(qiáng)科技創(chuàng)新、全面深化智慧法院建設(shè)、促進(jìn)審判體系和審判能力現(xiàn)代化具有重要意義。 智能輔助審判技術(shù)有助于提升司法效率、強(qiáng)化司法公開,但智慧司法與傳統(tǒng)司法的沖突也是阻礙智慧法院建設(shè)與法院信息化改革的癥結(jié)所在。 就法官責(zé)任制而言,智能輔助審判技術(shù)因?qū)鹘y(tǒng)司法權(quán)形成沖擊從而影響了傳統(tǒng)法官責(zé)任制的制度基礎(chǔ)和作用機(jī)制,使得智能輔助審判技術(shù)下的法官問責(zé)陷入困境。 對此,應(yīng)通過賦予法官適用智能輔助系統(tǒng)的選擇權(quán)和算法解釋權(quán)構(gòu)建賦權(quán)型問責(zé)機(jī)制,即先賦權(quán),后問責(zé)。 通過法律對法官權(quán)利予以法定化和固定化,確立法官對裁判結(jié)果的最終決定權(quán),在此基礎(chǔ)上由法官承擔(dān)審判責(zé)任,既符合權(quán)責(zé)一致的理論要求,又符合司法實踐的現(xiàn)實需要。