林 靜
(華東政法大學(xué) 經(jīng)濟(jì)法學(xué)院,上海 201600)
隨著“十四五”規(guī)劃的發(fā)布,人工智能被列為國(guó)家重點(diǎn)發(fā)展的科技前沿領(lǐng)域之一,人工智能融入各個(gè)行業(yè)必將成為以后重要的發(fā)展趨勢(shì)。在互聯(lián)網(wǎng)、大數(shù)據(jù)、機(jī)器學(xué)習(xí)等現(xiàn)代技術(shù)尤其是人工智能算法和算力迅速發(fā)展的背景下,面對(duì)優(yōu)質(zhì)司法資源稀缺的情況,人工智能與司法審判深度融合有著廣闊的前景。
目前,一些地方已經(jīng)開始了這方面的嘗試。例如,上海市高級(jí)人民法院開發(fā)的“上海刑事案件智能輔助辦案系統(tǒng)”(簡(jiǎn)稱“206系統(tǒng)”)在全市得到廣泛使用,并得到最高人民法院的認(rèn)可;北京的“睿法官”系統(tǒng)與法官日常辦案無縫對(duì)接,推進(jìn)同案同判;還有重慶的“法治云”、河北的“智審”等人工智能系統(tǒng)與法院審判系統(tǒng)相結(jié)合,共同推進(jìn)了司法審判智能化。如此高歌猛進(jìn)的趨勢(shì)也引發(fā)了人們對(duì)人工智能時(shí)代司法活動(dòng)的憂慮,開始考慮法律領(lǐng)域可能遭受的來自于人工智能的巨大挑戰(zhàn)。美國(guó)首席大法官John Roberts在出席一場(chǎng)活動(dòng)時(shí)被問到,是否曾預(yù)見到有朝一日“智能機(jī)器在人工智能的驅(qū)動(dòng)下協(xié)助法庭裁決,甚至是更有爭(zhēng)議的司法裁決”。他回應(yīng)道:“這一天已經(jīng)近在眼前,這也給司法部門的工作帶來了巨大壓力?!?/p>
面對(duì)人工智能時(shí)代所蘊(yùn)含的危機(jī),探討司法裁判人工智能化的實(shí)現(xiàn)可能性,即司法裁判人工智能化是否能夠?qū)崿F(xiàn)就成為一個(gè)前提性問題,而我們又將如何應(yīng)對(duì)這一時(shí)代大趨勢(shì)?基于此,本文將歸納司法裁判人工智能化的理論依據(jù),借此對(duì)“人工智能取代論”作出回應(yīng)。在此過程中,將司法裁判人工智能化帶來的挑戰(zhàn)剝離出來,并在此基礎(chǔ)上嘗試探討人工智能在司法實(shí)踐中應(yīng)用的定位與法律規(guī)制路徑。
人工智能簡(jiǎn)稱AI,是對(duì)人的思維的信息過程的模擬。根據(jù)人工智能是否具有自我思考能力并能否付諸實(shí)踐進(jìn)行劃分,可以將人工智能分成三個(gè)發(fā)展階段:弱人工智能時(shí)代、強(qiáng)人工智能時(shí)代和超人工智能時(shí)代。①其中,弱人工智能(Artificial Narrow Intelligence,簡(jiǎn)稱ANI)不具備思考能力,也不會(huì)有自我意識(shí),如Alpha Go圍棋程序;強(qiáng)人工智能(Artificial General Intelligence,簡(jiǎn)稱AGI),是可以勝任人類所有工作的人工智能,指在各方面都能和人類比肩的人工智能;超人工智能(Artificial Super Intelligence,簡(jiǎn)稱ASI)則擁有自我意識(shí)和情感等,被認(rèn)為具有超越人類的能力,即在所有領(lǐng)域及所有認(rèn)知功能都比最強(qiáng)的人類大腦聰明很多的人工智能。迄今,這種超人工智能尚未出現(xiàn)。目前,人工智能技術(shù)在我國(guó)司法實(shí)踐中的應(yīng)用處于弱人工智能與強(qiáng)人工智能并用的階段,且仍然在不斷深化。學(xué)界對(duì)此持積極態(tài)度,主要有以下三種理由。
德國(guó)的馬克斯·韋伯有這樣一句經(jīng)典名言:“現(xiàn)代法官是自動(dòng)售賣機(jī),民眾投進(jìn)去的是訴狀和訴訟費(fèi),吐出來的是判決和從法典上抄下來的理由?!雹趨⒁婑R克思·韋伯.論經(jīng)濟(jì)與社會(huì)中的法律[M].張乃根,譯.北京:中國(guó)大百科全書出版社,1998:62.這種“自動(dòng)售賣機(jī)理論”,就成為“人工智能替代論”的前身。與韋伯的形式理性思想構(gòu)圖的發(fā)展相伴隨的是19世紀(jì)概念法學(xué)的興盛。在概念法學(xué)的視域中,法官只需從法律體系中發(fā)現(xiàn)法律即可完成對(duì)案件的判斷,在司法裁判中具體體現(xiàn)為“三段論”的要求:以法律規(guī)范為大前提,以從生活事實(shí)中分離出的法律事實(shí)作為小前提,針對(duì)法律事實(shí),法官尋找法律根據(jù),繼而作出法律決定。
人工智能裁判系統(tǒng)的構(gòu)建是通過將自然語言轉(zhuǎn)化為法律語言,再將法律語言進(jìn)一步轉(zhuǎn)化為計(jì)算機(jī)語言,在模擬“三段論”的剛性邏輯路徑的基礎(chǔ)上編制算法和程序,形成一種計(jì)算機(jī)的自動(dòng)推理模型。人工智能與法律領(lǐng)域的學(xué)者試圖以這樣的一種方式描述法律和法律推理,即生成能夠在一個(gè)計(jì)算機(jī)程序中實(shí)現(xiàn)的模型[1]。由此可知,司法裁判中的人工智能系統(tǒng)建立的算法邏輯嚴(yán)格依照法律形式主義的要求,將法官的裁判邏輯固定化下來,用一種“算法邏輯”取代了人腦中的主觀決策,形成一種數(shù)據(jù)驅(qū)動(dòng)型的正義。其實(shí),一直以來法官判案何嘗不是在以一種粗淺的方式計(jì)算著正義,試圖建立可以解釋正義的標(biāo)準(zhǔn)化衡量尺度,就法官裁判和算法裁判的本質(zhì)而言,都是在為各種爭(zhēng)議和糾紛提供一種可操作性的衡量標(biāo)準(zhǔn)。從這個(gè)意義上來講,人工智能裁判已經(jīng)具備了裁量正義的雛形,并且人工智能通過算法構(gòu)建正義具有天然的優(yōu)勢(shì):可以將法官裁判帶來的主觀性風(fēng)險(xiǎn)降到最低,最大限度的實(shí)現(xiàn)同案同判等。③參見蔡星月.算法正義:一種經(jīng)由算法的法治[J].北方法學(xué),2021(2):140.
在實(shí)踐中,司法資源的緊缺也是司法部門積極采用互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算、人工智能等新型信息技術(shù)以提高司法效率的重要原因。近些年來,隨著社會(huì)經(jīng)濟(jì)結(jié)構(gòu)轉(zhuǎn)型和公民權(quán)利意識(shí)的增強(qiáng),一些法院受理的案件數(shù)量增長(zhǎng)較快,法官人均辦案件數(shù)也相應(yīng)地增長(zhǎng)較快,這就成為司法領(lǐng)域大數(shù)據(jù)和人工智能應(yīng)用越來越廣泛的原因之一。
在一定條件下,人工智能基于大量的數(shù)據(jù)基礎(chǔ)和強(qiáng)大的計(jì)算能力,可以快速分析案情,準(zhǔn)確地做出決斷,比如可以迅速計(jì)算損害賠償、預(yù)估刑期等。尤其是在審理復(fù)雜疑難案件時(shí),因?yàn)槿斯ぶ悄懿门邢到y(tǒng)是封閉式裁判和歸納式裁判,所以它可以快速提取關(guān)鍵信息并與同類案件進(jìn)行比對(duì),從而得出較為科學(xué)的結(jié)論。在技術(shù)情況允許的條件下,上述過程可能在很短時(shí)間內(nèi)完成,人工智能審判將大大地節(jié)省司法資源,提高司法效率,盡可能地滿足社會(huì)成員的司法需求。①參見羅維鵬.人工智能裁判的問題歸納與前瞻[J].國(guó)家檢察官學(xué)院學(xué)報(bào),2018(5):24.
從另一方面看,人工智能裁判可以摒棄法官在司法裁判中可能出現(xiàn)的價(jià)值偏差,杜絕因法官個(gè)人的司法腐敗行為而污染了整個(gè)司法公正的泉源,導(dǎo)致司法公信力的下降。②英國(guó)哲學(xué)家培根在《司法論》里提出了著名理論:“一次不公正的審判,比十次犯罪所造成的危害還要尤烈,因?yàn)榉缸锊贿^弄臟了水流,而不公正的審判則敗壞了水的源頭?!痹僬撸斯ぶ悄茉诜深I(lǐng)域的適用已經(jīng)取得了相當(dāng)?shù)某晒?,建立了法律知識(shí)庫(kù)、法律信息檢索系統(tǒng)和法律專家系統(tǒng)等輔助型法律智能系統(tǒng),為決策型司法智能系統(tǒng)奠定了技術(shù)和經(jīng)驗(yàn)基礎(chǔ)??梢哉f,司法裁判人工智能化是人工智能時(shí)代司法工作的重要發(fā)展趨勢(shì)之一。
人工智能技術(shù)在司法領(lǐng)域的廣泛應(yīng)用推動(dòng)了法學(xué)學(xué)科的思維創(chuàng)新,隨著人工智能技術(shù)日新月異的發(fā)展,法律研究呈現(xiàn)出智能化、自動(dòng)化的趨勢(shì)。在案件預(yù)測(cè)技術(shù)上,人工智能系統(tǒng)裁決的算法是剛性的,因此通過對(duì)成千上萬份判決書進(jìn)行自然語言的處理,可以構(gòu)建模型來預(yù)測(cè)案件判決結(jié)果。人們不再像卡夫卡的小說《法律之門》中所描述的那樣,可以走近“法律之門”,但難以邁入門內(nèi),更難觀測(cè)“門”內(nèi)的設(shè)置、工序流程和決策機(jī)制,而通過人工智能技術(shù),可以消解因物理時(shí)空條件局限而導(dǎo)致的正義實(shí)現(xiàn)難題,使物理上的“接近正義”邁向數(shù)字意義上的“可視爭(zhēng)議”。③參見馬長(zhǎng)山.司法人工智能的重塑效應(yīng)及其限度[J].法學(xué)研究,2020(4):24.人工智能裁判的實(shí)現(xiàn)也對(duì)法學(xué)教育提出了挑戰(zhàn),要求技術(shù)人員和法律專家之間必須通力合作。國(guó)務(wù)院在2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》就提出,要培養(yǎng)掌握“人工智能+法律”的復(fù)合型人才。由此可見,法律與人工智能的結(jié)合是時(shí)代發(fā)展大趨勢(shì),這也在一定程度上推動(dòng)了法學(xué)教育的探索革新,開始更加注重對(duì)法學(xué)專業(yè)學(xué)生跨學(xué)科融合的教育培養(yǎng)。
同時(shí),借助大數(shù)據(jù)技術(shù),可以準(zhǔn)確評(píng)估和統(tǒng)計(jì)在社會(huì)治理中存在的問題,對(duì)司法系統(tǒng)自身的改革提供支持。建立在客觀數(shù)據(jù)和真實(shí)信息基礎(chǔ)上的智慧司法直觀展示了公正的意涵,通過“看得見”和“說得出”的體制嚴(yán)格限制司法內(nèi)部系統(tǒng)的不公正因素,推動(dòng)構(gòu)建以網(wǎng)絡(luò)化、陽光化、智能化為主要特征的現(xiàn)代司法。人工智能技術(shù)帶來的客觀性、科學(xué)性和合理性有效改進(jìn)了司法和社會(huì)之間的良好關(guān)系,引導(dǎo)建設(shè)新型的訴訟社會(huì)關(guān)系,有力促成了審判體系和審判能力的現(xiàn)代化[2]。
盡管計(jì)算機(jī)代碼運(yùn)算可以比人類更有效地進(jìn)行法律邏輯的推理和演算,進(jìn)而提高司法裁判的效率。但是,從司法領(lǐng)域人工智能助力的實(shí)現(xiàn)路徑和司法裁判的法理上來看,人工智能不能也不應(yīng)取代法官成為司法裁判主體。
法律人工智能決策是效仿法官裁判的過程。因此有必要對(duì)法官的裁判活動(dòng)進(jìn)行細(xì)致觀察和整體描述?!叭握摗敝鲝?,法官必須受法律規(guī)范的拘束,嚴(yán)格限制法官審判權(quán)中的自由裁量部分。正如拉爾夫·克里斯滕森將規(guī)范適用想象為,將個(gè)案歸屬到一般性規(guī)范之下的過程(涵攝),而不是對(duì)規(guī)范做進(jìn)一步填充或具體化的程序[3]14。因此,法官作為裁判者的權(quán)力僅限于在現(xiàn)有的法律規(guī)范下作出邏輯推論,進(jìn)行涵攝。在這種機(jī)械的法律推理觀的場(chǎng)景下,司法裁判者只是法律的搬運(yùn)工,司法裁判的含義僅限于機(jī)械判斷層面。如果裁判過程真如數(shù)學(xué)問題一樣可以通過推演和計(jì)算得出正確結(jié)論,那么機(jī)器的運(yùn)作效率與正確率是遠(yuǎn)高于人類的。然而,在實(shí)踐中法官審理具體案件究竟是如何得出判決的呢?審判過程是否真的如同韋伯描述的機(jī)械涵攝的程序呢?
法官裁判是一個(gè)復(fù)雜的判斷和決策過程。德國(guó)法學(xué)家約瑟夫·埃塞爾指出,司法判決是有創(chuàng)意的活動(dòng),其亦參與逐步自我實(shí)現(xiàn)的法秩序(相當(dāng)于在作用中的法)之發(fā)展及續(xù)造。當(dāng)司法判決逾越法律文本劃定的界限時(shí),它經(jīng)常求助于法律推得(或據(jù)稱可由法律推得)的“一般法律思想”或“原則”[3]18。法律體系的普遍實(shí)用性要求在制定法律時(shí)高度凝練要件,使得要件抽象化。因此,就使得法官在適用法律規(guī)范裁判案件時(shí),需要發(fā)揮嚴(yán)格的邏輯推理以及主觀能動(dòng)性在法律規(guī)范和案件事實(shí)之間來回穿梭。事實(shí)上,在司法實(shí)踐中,每個(gè)個(gè)案都或多或少有異于以往其他案件之處,一些案件的個(gè)體化和地域化色彩還十分鮮明。
法律形式主義理論將裁判過程歸納為一種機(jī)械式的法律推理觀,忽視了法官作為推理主體的社會(huì)性,即法官具有的主觀能動(dòng)性和法律推理靈活性,更進(jìn)一步講,法律形式主義發(fā)展到極端會(huì)成為“本本中的法律”。美國(guó)現(xiàn)實(shí)主義法學(xué)派對(duì)其僵化性進(jìn)行了深刻的批判?;裟匪狗ü倬兔鞔_提出,“法律的生命并不在于邏輯而在于經(jīng)驗(yàn)”[4],這種價(jià)值觀念在英美法系國(guó)家表現(xiàn)得尤為突出。英美法系國(guó)家的法官經(jīng)常頭戴白色假發(fā)的一個(gè)原因是為了表明自己的專業(yè)、權(quán)威和德高望重,以長(zhǎng)者的姿態(tài)作出判決。邏輯推理自然可以幫助法官審判案件,但是根據(jù)社會(huì)政策和邏輯等連接法律規(guī)范和案件事實(shí)并進(jìn)行價(jià)值判斷,有助于法官?gòu)亩鄠€(gè)角度看待案件,這就要求法官有一定程度的自由裁量權(quán)。①參見張保生.人工智能法律系統(tǒng)的法理學(xué)思考[J].法學(xué)評(píng)論,2001(5):17.自由裁量權(quán)的授予也對(duì)法官的職業(yè)素養(yǎng)提出了更高的要求。在美國(guó),大多數(shù)法官曾做過律師,具有法學(xué)學(xué)位和職業(yè)律師的經(jīng)驗(yàn)是成為一名法官最基本的資格要求。
由此可以看出,法官在司法實(shí)踐中要尋求個(gè)案的正當(dāng)裁判,不僅需要邏輯上嚴(yán)謹(jǐn)?shù)耐评恚残枰胸S富的實(shí)踐經(jīng)驗(yàn)作為積淀,從而在法律規(guī)范無法滿足事實(shí)案件的需求時(shí)根據(jù)高度抽象的法律原則和倫理道德作出裁判。而人工智能裁判的基礎(chǔ)是算法,它是基于研發(fā)人員輸入的計(jì)算機(jī)語言作為數(shù)據(jù)庫(kù),在導(dǎo)入案件事實(shí)后,對(duì)已有的數(shù)據(jù)進(jìn)行篩選從而得到最匹配的法律規(guī)范,在此基礎(chǔ)上作出嚴(yán)密的邏輯推理得到裁判結(jié)果。但是,人工智能的法律裁判并未考量非規(guī)范性要素,無法在高度抽象化的法律規(guī)范和具體案件事實(shí)之間搭建起說理的堅(jiān)實(shí)橋梁。
人工智能發(fā)揮司法裁判以研發(fā)人員輸入的數(shù)據(jù)庫(kù)為基礎(chǔ),以算法邏輯為路徑,受到嚴(yán)密的限制。人工智能具有處理和操作算法符號(hào)的功能,但是可能并不理解這些符號(hào)背后的含義。相較于人工智能,法官作為主體具有感性認(rèn)識(shí),其依據(jù)經(jīng)驗(yàn)、認(rèn)知和信仰作出裁判的路徑是人工智能目前無法企及的。
1.產(chǎn)生的非客觀性
就人工智能的產(chǎn)生而言,其算法的科學(xué)性也是存疑的。人工智能的算法和代碼的設(shè)計(jì)都要依靠編程人員的設(shè)計(jì)與選擇,因此受到研發(fā)人員或研發(fā)公司的限制。現(xiàn)在市面上大部分人工智能產(chǎn)品是由商業(yè)群體帶著很強(qiáng)的目的性研發(fā)出來的,因而導(dǎo)致人工智能產(chǎn)品本身在誕生時(shí)就帶有特殊的價(jià)值觀,這就有悖于司法的中立性。當(dāng)下我們也無法保障設(shè)置人工智能產(chǎn)品算法的編程人員全都具備法律知識(shí)背景,他們往往缺乏對(duì)社會(huì)科學(xué)的深刻認(rèn)識(shí)。因此,依賴編程人員將已有的法律規(guī)制準(zhǔn)確寫入程序是不現(xiàn)實(shí)的。同時(shí),還要考慮到,人工智能的數(shù)據(jù)庫(kù)是基于已有的法律規(guī)范和案件,不可能超前于現(xiàn)有的法律,而法律本身相較于現(xiàn)實(shí)又有一定的滯后性。在一些疑難案件中,人工智能審判無法作出富有創(chuàng)新性的判決,在這種情況下,法官可以結(jié)合具體要件和案件的特殊性作出裁決,這種優(yōu)越性是人工智能裁判無法比擬的。
2.算法應(yīng)用的非透明化與偏見
人工智能的算法系統(tǒng)以大數(shù)據(jù)為基礎(chǔ),其作出的審判決策本質(zhì)上是一個(gè)運(yùn)算結(jié)果,但我們只能看到輸入的數(shù)據(jù)以及得出的結(jié)果,對(duì)中間的運(yùn)算過程一概不知,由此可能會(huì)導(dǎo)致出現(xiàn)“算法黑箱”或“算法獨(dú)裁”。①參見高奇琦、張鵬.論人工智能對(duì)未來法律的多方位挑戰(zhàn)[J].華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(1):94.英國(guó)《衛(wèi)報(bào)》就曾發(fā)表評(píng)論指出,人工智能可能已經(jīng)出現(xiàn)種族和性別等偏見,這種偏見并非來自于機(jī)器本身,而是機(jī)器在學(xué)習(xí)人類語言時(shí)吸收消化了人類語言中約定俗成的理念,從而導(dǎo)致算法歧視。②參見蘇令銀.透視人工智能背后的“算法歧視”[N].中國(guó)社會(huì)科學(xué)報(bào),2017-10-10(5).2018年,在我國(guó)引發(fā)輿論熱議的“大數(shù)據(jù)殺熟”事件就引發(fā)了大眾對(duì)商家濫用大數(shù)據(jù)技術(shù)和算法歧視的擔(dān)憂,有媒體通過對(duì)2008名受訪者進(jìn)行的一項(xiàng)調(diào)查,顯示51.3%的受訪者遇到過互聯(lián)網(wǎng)企業(yè)利用大數(shù)據(jù)“殺熟”的情況,59.2%的受訪者指出在大數(shù)據(jù)面前信息嚴(yán)重不對(duì)稱,消費(fèi)者處于弱勢(shì)地位。③參見杜園春,等.51.3%受訪者遭遇過大數(shù)據(jù)“殺熟”[N].中國(guó)青年報(bào),2018-03-15(7).
隨著人工智能的發(fā)展與應(yīng)用,算法歧視帶來的問題已經(jīng)擴(kuò)大到人類日常生活和社會(huì)事物中,逐步影響人類社會(huì)經(jīng)濟(jì)發(fā)展的方方面面。更為嚴(yán)峻的問題是,算法歧視在形式上更具開放性和隱蔽性,帶來的風(fēng)險(xiǎn)具有不可預(yù)知性和不確定性[5]。
在通常情況下,“自動(dòng)售賣機(jī)”的運(yùn)行原理是建立在“法律的公理體系”之上的。如果法律體系可以被建構(gòu)得像公理體系那樣,法學(xué)家便可以像數(shù)學(xué)家那樣工作,法學(xué)問題也可以像數(shù)學(xué)問題一樣通過“計(jì)算”予以解決。④參見宋旭光.論司法裁判的人工智能化及其限度[J].比較法研究,2020(5):82-83.這種理論構(gòu)建的必要前提是法律本身可以做到完美無缺、邏輯自足,可以與具體的個(gè)案事實(shí)形成恰當(dāng)?shù)膶?duì)應(yīng)關(guān)系,法律適用者如法官的角色就只能像是一臺(tái)“自動(dòng)售貨機(jī)”:投入法條和事實(shí),輸出法律判決。但是,考慮到法律的抽象性、語言的開放性和社會(huì)生活的變化性等特征,這種關(guān)于法治的理想構(gòu)圖在理論和實(shí)踐上是根本不存在的。
1.法律的抽象性
法律并非是完美無缺的,法律是人為制定的,是從現(xiàn)實(shí)生活中抽象而來的,不可能超越現(xiàn)實(shí)生活。相反,生活是復(fù)雜多樣的,立法者永遠(yuǎn)也無法窮盡,更無法模擬將來會(huì)出現(xiàn)的案件。法官在裁判具體案件過程中發(fā)現(xiàn)現(xiàn)存的法律制度無法解決面前的爭(zhēng)議,一般會(huì)層層上報(bào)給上一級(jí)人民法院或是等待有關(guān)部門對(duì)法律規(guī)范重新作出解釋。回望法律信息的發(fā)展史,我們不難發(fā)現(xiàn),司法審判實(shí)際上是科技進(jìn)步推動(dòng)司法大數(shù)據(jù)顛覆司法小數(shù)據(jù),或者說,從小數(shù)據(jù)向大數(shù)據(jù)司法的演進(jìn),并帶動(dòng)司法理念改革的過程。⑤參見李飛.人工智能與司法的裁判及解釋[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018(5):33.這也是在實(shí)踐中不斷出臺(tái)法律修正案和司法解釋的原因之一:法律自其產(chǎn)生之日起與實(shí)踐之間就有一道無法逾越的鴻溝。
2.語言的開放性
法律解釋是法律推理的必要前提。但是,法律不可能通過強(qiáng)調(diào)用語的規(guī)范嚴(yán)格達(dá)到準(zhǔn)確的表達(dá),因?yàn)檎Z言本身具有“開放”的特性,它會(huì)因語境的不同而出現(xiàn)歧義和模糊。法律用語又不同于數(shù)理邏輯及科學(xué)性語言,它并不是外延性明確的概念,即使是較為明確的概念,仍然經(jīng)常包含一些本身欠缺明確界限的要素。法律的適用是一種對(duì)向交流的過程,法官在考慮可能適用的法條時(shí),就可能會(huì)對(duì)規(guī)范文字的精確意義產(chǎn)生懷疑。⑥參見楊春福.顯現(xiàn)的法律與隱在的法律——從語言學(xué)的角度分析[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2009(2):5.法官在每一個(gè)案件中引用法律規(guī)范進(jìn)行裁判都是法律解釋的過程,而法律解釋的辯證性對(duì)人工智能自然語言理解提出了嚴(yán)峻的挑戰(zhàn)。人工智能法律系統(tǒng)對(duì)法律知識(shí)庫(kù)中的規(guī)則進(jìn)行簡(jiǎn)單機(jī)械檢索是不夠的,需要跨越到社會(huì)知識(shí)庫(kù)進(jìn)行“跨庫(kù)檢索”。如同法官那樣,綜合諸如政策、道德、原則之類的價(jià)值考慮和對(duì)白紙黑字規(guī)則的具體解釋對(duì)案件作出判決,這就要求人工智能具有更高的主觀意識(shí)和靈活性。①參見張保生.人工智能法律系統(tǒng):兩個(gè)難題和一個(gè)悖論[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(6):34-35.
3.社會(huì)的變化性
瞬息萬變的現(xiàn)代生活與人工智能所要求的法律的穩(wěn)定性是相悖的。只有在法律規(guī)則具有一定的確定性和穩(wěn)定性的前提下,人工智能所依靠的龐大數(shù)據(jù)庫(kù)才能作為裁判的有效邏輯前提和基礎(chǔ)。但是,人類所面對(duì)的客觀世界的不確定性決定了法律規(guī)則的確定性是相對(duì)的。哲學(xué)家休謨就曾指出,“確定普遍的政治準(zhǔn)則,應(yīng)當(dāng)慎之又慎;在精神領(lǐng)域和物質(zhì)世界中經(jīng)??梢园l(fā)現(xiàn)無規(guī)律的和異常的現(xiàn)象”[6]。正因?yàn)榭陀^世界的確定性與不確定性并存,確定性的法律規(guī)則的描述是片面的,這決定了法律必須具有開放性,亟需在司法裁判中識(shí)別是否需要采取各種人為干預(yù)進(jìn)而彌補(bǔ)這一缺陷,以實(shí)現(xiàn)具體的司法公正。②參見李琦.法的確定性及其相對(duì)性——從人類生活的基本事實(shí)出發(fā)[J].法學(xué)研究,2002(5):35-36.
機(jī)器或程序能否成為裁判主體也是存疑的。學(xué)術(shù)界曾對(duì)人工智能究竟能否在刑事和民事范疇領(lǐng)域內(nèi)作為法律主體展開了激烈的探討。目前,學(xué)術(shù)界的主流觀點(diǎn)還是不承認(rèn)人工智能的法律主體地位,認(rèn)為在法律層面上將其定位為法律客體是較為妥當(dāng)?shù)?,主要理由是人工智能不具備?dú)立性和自主性,無法解決人工智能創(chuàng)造出來的物的歸屬問題,也沒有能力承擔(dān)法律責(zé)任。③參見崔文成.淺談人工智能的法律地位[J].上海法學(xué)研究集刊,2020(7):13-14.
理性是人類區(qū)別于其他生物的一個(gè)重要特征。運(yùn)用理性對(duì)少量信息和規(guī)則進(jìn)行推理和演繹是人類獨(dú)有的能力。哲學(xué)家康德指出,“那些其實(shí)存在不以我們的意志為依據(jù),而以自然的意志為依據(jù)的東西,如果它們是無理性的東西,就叫做物件。與此相反,有理性的東西叫做人身,因?yàn)樗鼈兊谋拘员砻髯陨碜栽诘鼐褪悄康模欠N不可被當(dāng)作手段使用的東西,從而限制了一切人性,并且是一個(gè)受尊重的對(duì)象”。④參見康德.道德形而上學(xué)原理[M].苗力田,譯.上海:上海人民出版社,2002:46.此外,康德提出的“人為自然立法”命題,充分肯定了人的主體性的能動(dòng)作用。由此,康德將理性與倫理價(jià)值標(biāo)識(shí)為主體的重要構(gòu)成要件。同樣的,自然人在司法裁判領(lǐng)域的理性和倫理價(jià)值判斷能力也是目前人工智能不具備的。⑤參見鄧經(jīng)超.人工智能對(duì)法教義學(xué)構(gòu)成挑戰(zhàn)嗎?[J].法律與倫理,2020(1):124-125.
從人工智能的產(chǎn)生原理來說,人工智能既是一項(xiàng)試圖理解人類認(rèn)知的科學(xué),也是一門試圖構(gòu)建具有類似人類能力機(jī)器的工程學(xué)科。我們肯定人工智能邏輯推理的智能度,但實(shí)際司法裁判的過程并非純粹的邏輯推理,即并非簡(jiǎn)單的事實(shí)推理與匹配工作。邏輯經(jīng)驗(yàn)主義者想要構(gòu)造的科學(xué)語言是不存在的,其堅(jiān)持的事實(shí)與價(jià)值并不是絕對(duì)二分的。司法意義上的審判活動(dòng)是具有判斷性質(zhì)的,而且判斷的范圍不僅僅限于對(duì)象的自然屬性,還需要事物的價(jià)值屬性作為補(bǔ)充。司法裁判追求的公平正義是各方博弈的結(jié)果,是各方利益的平衡,這是個(gè)靈動(dòng)的過程,必須由道德、倫理等加以保障。現(xiàn)實(shí)生活中的大部分疑難案件或有爭(zhēng)議的案件難點(diǎn)不在于尋找適當(dāng)?shù)姆梢?guī)范進(jìn)行涵攝,而在于價(jià)值認(rèn)知層面。法官在一些具有爭(zhēng)議性案件中的裁決任務(wù)其實(shí)本質(zhì)上是價(jià)值的衡量與抉擇,需要在案件中傳遞出特定的價(jià)值觀,對(duì)社會(huì)公眾的行為起引導(dǎo)作用。只有在與時(shí)俱進(jìn)的價(jià)值判斷中才能實(shí)現(xiàn)司法裁判追求的核心價(jià)值,這不是人工智能機(jī)械剛性的算法路徑可以完成的。
當(dāng)下人工智能不斷改革創(chuàng)新,其應(yīng)用貫徹到人們生產(chǎn)生活的方方面面,一些人已經(jīng)完全適應(yīng)、習(xí)慣甚至依賴人工智能。從人工智能的發(fā)展速度來看,新一代人工智能正在全球范圍內(nèi)蓬勃興起。從供給的角度來看,司法科技應(yīng)用是符合技術(shù)發(fā)展潮流的,但是,不能因此對(duì)其持過分樂觀和寬容的態(tài)度。當(dāng)前,社會(huì)和法學(xué)界中大部分人對(duì)人工智能的態(tài)度是較為寬容的,對(duì)其背后隱含的風(fēng)險(xiǎn)過于樂觀。①參見季衛(wèi)東.人工智能時(shí)代東司法權(quán)之變[J].東方法學(xué),2018(1):126-127.
從弱人工智能到強(qiáng)人工智能,再到超人工智能的發(fā)展過程是人類逐漸依賴人工智能的過程,人工智能在司法裁判中的應(yīng)用發(fā)展過程是人工智能裁判與司法正義不斷匹配的過程。但是,也要防止另外一種極端的情況發(fā)生,那就是算法有可能會(huì)成為司法權(quán)的代名詞,人類的權(quán)利義務(wù)的判定權(quán)有可能不再掌握于人類自己的手中。到那時(shí),司法公信力完全取決于人工智能的發(fā)展水平,那將有陷入過度依賴人工智能困境的危險(xiǎn)。如果人類任由人工智能肆意發(fā)展而不加以規(guī)范與約束,那這在本質(zhì)上反而不利于司法的進(jìn)步。人工智能算法絕不僅僅是一項(xiàng)單純的技術(shù)性問題,其蘊(yùn)含的政治風(fēng)險(xiǎn)、安全風(fēng)險(xiǎn)與倫理道德風(fēng)險(xiǎn)同樣不容忽視。②參見汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學(xué)技術(shù)哲學(xué)研究,2020(2):101.近些年,眾多科技公司的算法都被檢測(cè)出存在風(fēng)險(xiǎn)、倫理或道德方面的問題。例如,谷歌公司的搜索算法將黑人標(biāo)記為“大猩猩”;微軟公司的人工智能聊天機(jī)器Tay出乎意料的被“教”成了一個(gè)集反猶太人、性別歧視、種族歧視等于一身的“不良少女”;2018年國(guó)內(nèi)出現(xiàn)的飛豬大數(shù)據(jù)“殺熟”現(xiàn)象,引起眾多消費(fèi)者的不滿。在司法領(lǐng)域出現(xiàn)算法歧視,很可能會(huì)侵害公民權(quán)利甚至危害其生命安全。并且,如果司法領(lǐng)域的算法歧視在被冠以法院名義后更不易被發(fā)現(xiàn),其輸出的錯(cuò)誤價(jià)值觀在司法的引導(dǎo)功能下呈放大效果,會(huì)極大沖擊社會(huì)的倫理價(jià)值,由此引發(fā)的社會(huì)后果不堪設(shè)想。
有的學(xué)者認(rèn)為,編程可以被執(zhí)行的重要條件或者說重要限制在于程序必須足夠簡(jiǎn)單,并能在許多案件中被不斷重復(fù)而沒有顯著的變化。但是,即使是簡(jiǎn)單案件通常并不足以簡(jiǎn)單到可以用計(jì)算機(jī)模型來標(biāo)準(zhǔn)化的地步。大多數(shù)的案件在外來因素的沖擊之下是很難標(biāo)準(zhǔn)化的,更別提是疑難案件了。③參見馮潔.人工智能對(duì)司法裁判理論的挑戰(zhàn):回應(yīng)及其限度[J].華東政法大學(xué)學(xué)報(bào),2018(2):25.假如司法程序完全像人工智能程序那樣簡(jiǎn)單地標(biāo)準(zhǔn)化,這無異于是在挑戰(zhàn)社會(huì)因素和自然因素的多樣性,另一方面,將所有的可能性歸納在簡(jiǎn)單的算法程序中是不現(xiàn)實(shí)的,也切斷了當(dāng)事人可以從程序事項(xiàng)上獲得的救濟(jì)。人工智能介入司法領(lǐng)域使得傳統(tǒng)法律構(gòu)建的“權(quán)力—權(quán)利”制衡關(guān)系面臨新的挑戰(zhàn),信息化和數(shù)字化使得包括網(wǎng)絡(luò)主體在內(nèi)的第三方主體強(qiáng)制介入原本的二元格局。④參見裴煒.個(gè)人信息大數(shù)據(jù)與刑事正當(dāng)程序的沖突及其調(diào)和[J].法學(xué)研究,2018(2):43.在社會(huì)發(fā)展網(wǎng)絡(luò)化和數(shù)字化的背景下,人工智能可能會(huì)對(duì)訴訟各方關(guān)系的互動(dòng)模式產(chǎn)生較大影響。相比之下,國(guó)家權(quán)力具有天然的優(yōu)越性,其在信息的獲取上會(huì)有壓倒性的優(yōu)勢(shì),此時(shí),就要防止出現(xiàn)利用這種天然的優(yōu)越性侵害公民司法權(quán)利的情況發(fā)生。
司法是維護(hù)社會(huì)公平正義的最后一道防線??梢灶A(yù)見的是,司法裁判人工智能化會(huì)對(duì)社會(huì)產(chǎn)生較大的影響,特別是當(dāng)機(jī)器參與或主導(dǎo)的司法裁判出現(xiàn)錯(cuò)案時(shí),如果審判責(zé)任的歸屬和劃分不清晰、不明確,就會(huì)極大地影響司法的公信力。例如,美國(guó)威斯康星州訴盧米斯一案中以COMPAS系統(tǒng)評(píng)估報(bào)告為依據(jù)指導(dǎo)定罪量刑的做法,就受到了公眾的廣泛質(zhì)疑。在我國(guó)現(xiàn)行的法律制度框架下,機(jī)器尚未取得法律主體資格,不能獨(dú)立承擔(dān)法律責(zé)任。在司法審判人工智能化的場(chǎng)景下,審判責(zé)任在法官、智能系統(tǒng)和研發(fā)人員之間的安排無論如何分配都會(huì)引發(fā)社會(huì)爭(zhēng)議,導(dǎo)致司法公信力的下降。⑤參見周尚君,伍茜.人工智能司法決策的可能與限度[J].華東政法大學(xué)學(xué)報(bào),2019(1):62.
當(dāng)下不斷發(fā)展的人工智能技術(shù)已經(jīng)開始逐漸影響司法領(lǐng)域,這對(duì)司法裁判提出了挑戰(zhàn)。司法機(jī)構(gòu)必須適時(shí)調(diào)整法律解釋的方向和策略,以適應(yīng)司法裁判人工智能化的發(fā)展進(jìn)程。從社會(huì)發(fā)展情況看,嚴(yán)格規(guī)范人工智能的司法應(yīng)用已經(jīng)迫在眉睫。筆者認(rèn)為,遵循上述人工智能在司法領(lǐng)域適用的基本理念,可以在四個(gè)維度對(duì)其進(jìn)行規(guī)制,包括明確人工智能在司法應(yīng)用中的法律地位、各級(jí)法院區(qū)別適用、規(guī)制人工智能編譯者和確立明確的價(jià)值觀導(dǎo)向等,以實(shí)現(xiàn)其對(duì)法治的促進(jìn)作用。
對(duì)于人工智能的法律地位,筆者認(rèn)為,應(yīng)堅(jiān)持客體說中的工具論,即人工智能只能作為法律權(quán)利和義務(wù)的客體,不能獲得法律主體地位。當(dāng)前,可以將人工智能技術(shù)作為幫助法官裁判的工具,將其定位為一種“決策輔助”或“參謀者”的角色。未來,在逐步完善人工智能算法及司法數(shù)據(jù)庫(kù)的同時(shí),不斷探索人工智能在司法領(lǐng)域新的應(yīng)用。
隨著智慧法院建設(shè)工作的推進(jìn),我國(guó)各地法院已經(jīng)開始逐步建立相應(yīng)的人工智能輔助司法系統(tǒng),輔助司法人員處理在訴前、訴中和訴后程序中的機(jī)械性、重復(fù)性工作,這有利于司法人員抽出更多的時(shí)間處理人工智能無法處理的案件。例如,在訴前階段,建設(shè)完整的訴訟信息數(shù)據(jù)平臺(tái),從源頭上暢通維權(quán)渠道、疏導(dǎo)社會(huì)糾紛,并從中得到來自現(xiàn)實(shí)生活的一手?jǐn)?shù)據(jù),為司法政策的出臺(tái)提供信息數(shù)據(jù)。在訴訟階段,加強(qiáng)程序正義,依靠智能筆錄系統(tǒng)和智能輔助證據(jù)分析系統(tǒng),結(jié)合智能量刑標(biāo)準(zhǔn)建議分析,為法官的裁判建構(gòu)基礎(chǔ)。在訴后階段,可借助便捷的信息傳播技術(shù)及時(shí)公開裁判信息,增強(qiáng)司法過程的透明度,加強(qiáng)司法公開。同時(shí),做好基于大數(shù)據(jù)的風(fēng)險(xiǎn)計(jì)算和風(fēng)險(xiǎn)控制,完善輿情管理機(jī)制等。①參見宋保振.智慧社會(huì)背景下司法治理的理念轉(zhuǎn)變與實(shí)踐創(chuàng)新[J].山東大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020(4):98.
考慮到各級(jí)人民法院管轄案件的范圍以及其裁判結(jié)果帶來的社會(huì)影響的不同,不同級(jí)別的法院的人工智能在適用上應(yīng)當(dāng)有所區(qū)分,并作出相應(yīng)的限制。
最高人民法院、高級(jí)人民法院、中級(jí)人民法院、基層人民法院的案件管轄范圍呈階梯式遞減狀態(tài)。由于大多數(shù)較為簡(jiǎn)單的案件分流至基層人民法院,近年來,“案多人少”的狀況已經(jīng)成為基層法院工作的常態(tài),所以其對(duì)人工智能輔助系統(tǒng)的需求是最為迫切的。為緩解司法資源緊張的狀態(tài),應(yīng)當(dāng)有序推進(jìn)智慧法院的建設(shè)工作,重點(diǎn)在司法資源緊缺和人工智能發(fā)展水平較高的地方先行試點(diǎn)人工智能輔助系統(tǒng),如果能取得較好的成效,再逐步面向全國(guó)的基層法院推廣。最高人民法院和高級(jí)人民法院受理的案件或是性質(zhì)較為嚴(yán)重,或是當(dāng)事人對(duì)基層法院的判決存在爭(zhēng)議,或是案件的影響范圍較廣,這幾類案件在司法裁判的各個(gè)環(huán)節(jié)都需要有資歷的法官結(jié)合法律經(jīng)驗(yàn)、社會(huì)背景等諸多要素作出最為合理的判決,對(duì)人工智能的使用需要持謹(jǐn)慎態(tài)度。
人工智能在司法領(lǐng)域的應(yīng)用需要跨越法律與計(jì)算機(jī)編程這兩個(gè)專業(yè)領(lǐng)域,這就要求,負(fù)責(zé)司法審判人工智能應(yīng)用程序的編譯者既要精通編程專業(yè),還要有良好的法學(xué)、哲學(xué)、社會(huì)學(xué)、經(jīng)濟(jì)學(xué)等社會(huì)科學(xué)和人文學(xué)科的知識(shí)儲(chǔ)備。人工智能代碼和算法是剛性的,但是,如果編程人員只懂編程,缺乏應(yīng)有的其他素養(yǎng),那么編制出來的代碼是無法應(yīng)用到司法實(shí)踐中的。因此,為了更好地應(yīng)對(duì)人工智能時(shí)代的到來,要從源頭上抓起,培養(yǎng)出順應(yīng)時(shí)代潮流的綜合型人才。
具體來說,在培養(yǎng)司法領(lǐng)域人工智能產(chǎn)品的編譯者時(shí),應(yīng)在法學(xué)教育體系中融入程序編譯的相關(guān)課程,積極推進(jìn)學(xué)科交叉融合,努力培養(yǎng)復(fù)合性專業(yè)人才??紤]到該編程工作的人工智能產(chǎn)品是用于司法領(lǐng)域的工作崗位,且將來可能會(huì)輔助法官完成司法審判工作,對(duì)該編程人員的專業(yè)標(biāo)準(zhǔn)要求應(yīng)不低于當(dāng)前法官崗位的要求。
對(duì)司法領(lǐng)域的人工智能產(chǎn)品的制造生產(chǎn)鏈進(jìn)行事先審查也是很重要的環(huán)節(jié)。當(dāng)前,人工智能產(chǎn)品大多數(shù)是由商業(yè)公司創(chuàng)造出來的,受知識(shí)產(chǎn)權(quán)保護(hù),具有排他性。但是,多數(shù)商業(yè)公司都是以盈利為目的的,很難保證他們創(chuàng)造出來的人工智能產(chǎn)品完全符合司法部門的要求。因此,涉及司法領(lǐng)域的人工智能產(chǎn)業(yè)的發(fā)展是不能完全交由市場(chǎng)的,可能國(guó)家權(quán)力適當(dāng)介入會(huì)產(chǎn)生較好的結(jié)果。例如,可以嘗試由國(guó)有企業(yè)進(jìn)行研發(fā)、設(shè)計(jì)和生產(chǎn)制造,形成類似于鐵路、電力和通信行業(yè)的布局效果。
人工智能技術(shù)的迅猛發(fā)展以及司法領(lǐng)域人工智能技術(shù)的應(yīng)用,為法律規(guī)制提出了現(xiàn)實(shí)要求。目前,各個(gè)國(guó)家都開始從技術(shù)鼓勵(lì)、政策應(yīng)對(duì)逐步走向制度規(guī)制,如德國(guó)的《聯(lián)邦數(shù)據(jù)保護(hù)法》、加拿大的《個(gè)人信息保護(hù)法案》、法國(guó)的《數(shù)字共和國(guó)法》、英國(guó)的《2017年數(shù)據(jù)保護(hù)法案(草案)》、歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)等等。我國(guó)已頒布了一系列戰(zhàn)略規(guī)劃,相關(guān)的立法也勢(shì)在必行[7]。但是,目前對(duì)人工智能的規(guī)范尚處在一個(gè)大框架內(nèi),未對(duì)特定領(lǐng)域進(jìn)行單獨(dú)立法,這就需要對(duì)人工智能產(chǎn)業(yè)發(fā)展進(jìn)行原則性、方向性的指引,以便于調(diào)解和處理各種錯(cuò)綜復(fù)雜的利益沖突。在人工智能立法領(lǐng)域,強(qiáng)調(diào)社會(huì)公共利益優(yōu)先理念,突出利益平衡要求具有重要意義,這是因?yàn)槿斯ぶ悄芗夹g(shù)及其應(yīng)用不但是一個(gè)技術(shù)革新,而且也是一個(gè)對(duì)人類未來影響深遠(yuǎn)且關(guān)系每一個(gè)人切身利益的重大歷史事件。①參見趙萬一.機(jī)器人的法律主體地位辨析——兼談對(duì)機(jī)器人進(jìn)行法律規(guī)制的基本要求[J].貴州民族大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(3):159-162.在明確人工智能工具論的前提下,人工智能必須以人類優(yōu)先原則為限,人工智能法律規(guī)制應(yīng)以維護(hù)社會(huì)公眾利益為其優(yōu)先選項(xiàng)。當(dāng)然,國(guó)家的法律只能提供宏觀的原則性指導(dǎo),更精細(xì)、更靈活和更專業(yè)的規(guī)制需要通過行業(yè)規(guī)范來實(shí)現(xiàn)。隨著人工智能的進(jìn)一步發(fā)展,形成體系化的行業(yè)自律監(jiān)督規(guī)范也是指日可待的。
司法領(lǐng)域的人工智能化是歷史發(fā)展的大趨勢(shì),但機(jī)遇與風(fēng)險(xiǎn)往往是并存的?!叭斯ぶ悄苋〈摗边^分夸大了算法在司法裁判中的作用,人工智能應(yīng)當(dāng)被限制在工具范疇內(nèi)以實(shí)現(xiàn)人類利益最大化。放眼未來,隨著人工智能的不斷發(fā)展,其在司法審判領(lǐng)域?qū)⒋笥锌蔀?。同時(shí),當(dāng)人工智能被賦予人類的某些特質(zhì)后,應(yīng)如何認(rèn)定、協(xié)調(diào)人工智能和法官在司法審判中的作用,以及防范其背后所蘊(yùn)含的風(fēng)險(xiǎn),或許是更為值得關(guān)注的問題。