張保生
(中國政法大學 證據(jù)科學教育部重點實驗室,北京100088)
人工智能研究自1956年誕生以來,一直在朝著“知識的每個領域或智能的任何一個其他特征,都可以如此精確地加以描述,以致能夠制造出一種機器來模擬它”①的宏偉目標不斷邁進。經(jīng)過短短60年的發(fā)展,到2016年,阿爾法狗(AlphaGo)挑戰(zhàn)世界圍棋冠軍三局全勝,從而引發(fā)了新一輪人工智能研究的熱潮。然而,由深度學習所帶動的這一波人工智能熱潮,也引起學者們對媒體炒作、民眾翹盼和政府撒錢的擔憂。人工智能雖然具有無限美好的發(fā)展?jié)摿Γ淠壳八苓_到的“智能”水平還很低,學習算法系統(tǒng)的可解釋性、穩(wěn)定性、穩(wěn)健性等還很差。例如,就人工智能最尖端的模式識別技術而言,只要在人臉圖片上加一個很小的噪聲,機器的識別能力就會大打折扣;②對圖片中物體的位置、方向做很小的改動,機器識別就會變得很差,而人眼基本上不會犯這種低級錯誤。③因此,有專家感嘆,很多機器人不管外形多酷,都不過是裝了輪子的蘋果手機——它們既不會主動感知,也不會與真實物理世界互動,其智能還不如剛出生幾個月的嬰兒。④因此,在這一波人工智能熱潮中,不被深度學習的神話沖昏頭腦,冷靜思考智能模擬的現(xiàn)實困難,探索解決這些困難的具體途徑,應該成為下一階段人工智能研究的重點。
人工智能在法律領域中的應用,始于1970年布坎南等發(fā)表的《關于人工智能和法律推理若干問題的考察》一文。⑤此后,在技術進步和法律需求的雙重推動下,1981年,D·沃特曼和M·皮特森開發(fā)了“法律判決輔助系統(tǒng)”(LDS),這是專家系統(tǒng)在司法領域的第一次實際應用。該系統(tǒng)運用嚴格責任、相對疏忽和損害賠償?shù)饶P?,計算出責任案件的賠償價值,并論證了模擬法律專家意見的方法論問題。⑥在那之后,又經(jīng)過30多年的發(fā)展,到2016年,倫敦大學學院(UCL)、謝菲爾德大學和賓夕法尼亞大學科學家研制的人工智能程序,對歐洲人權法院584個案件的英文數(shù)據(jù)集進行分析,并提出了自己的裁決。人工智能“法官”與法官裁決相同的案件達到了79%。⑦
中國人工智能法律系統(tǒng)研發(fā)起步并不晚,這主要歸功于錢學森教授20世紀80年代倡導“法治系統(tǒng)工程研究”⑧所起的思想解放和理論奠基作用。此后取得的重要研究成果包括:1993年,中山大學胡釗等學生研制了《LOA律師辦公自動化系統(tǒng)》;⑨武漢大學法學院趙廷光教授主持開發(fā)了《實用刑法專家系統(tǒng)》,⑩該系統(tǒng)具有檢索刑法知識和輔助量刑的功能。在經(jīng)過20多年沉寂后,由深度學習所掀起的新一波人工智能熱潮也驚動了法律界。2016年,在世界互聯(lián)網(wǎng)大會智慧法院暨網(wǎng)絡法治論壇上,最高法院周強院長提出:“將積極推動人工智能在司法領域的應用?!蓖?,“元典律師工作平臺”開通,其定位于協(xié)助律師管理案件項目、跟進流程進度、整理文檔資料、利用法律大數(shù)據(jù)提供智能支持,“致力于讓機器逐漸習得法律認知能力”。2017年,武俠律師的“法律機器人”上線,欲借助互聯(lián)網(wǎng)、人工智能的優(yōu)勢構建法律服務平臺。該系統(tǒng)可在1秒鐘生成上萬字的法律咨詢意見和預判報告。周強院長的全國人大《最高人民法院工作報告》指出,人民法院將加快建設智慧法院,綜合運用云計算、大數(shù)據(jù)等技術,研究構建司法人工智能系統(tǒng),為審判體系和審判能力現(xiàn)代化注入新動力,為司法改革和法治中國建設提供有力支撐。在最高人民法院的積極推動下,北京、上海、浙江、江蘇、廣東、貴州等地推出了名稱不同的人工智能法律系統(tǒng)或“智慧法院”建設計劃,如北京法院的“睿法官”智能研判系統(tǒng)、上海法院的“206”刑事案件智能輔助辦案系統(tǒng),蘇州法院的“智慧審判蘇州模式”。可以預見,不久會有一批人工智能法律系統(tǒng)或“機器人法官”問世。
人工智能法律系統(tǒng)研發(fā)的動力,主要得益于科技進步和司法實踐的需要。但若認為人工智能技術已經(jīng)成熟到可以解決智能法律系統(tǒng)的關鍵問題,那則是一種重大誤解。對人工智能法律系統(tǒng)研發(fā)的盲目樂觀和急于求成,主要源于人們對“人工智能的本質乃功能模擬”的無知。何謂功能模擬?按照控制論的思想,就是不問結構如何,只要鋼鐵之軀的機器能做和人一樣的事情,就要承認它具有和人一樣的智能。舉個簡單例子,你開著一輛汽車通過收費站,電子眼自動讀取你的車牌號,電腦自動計算并扣繳過路費或停車費,電子欄桿自動抬起給你的車輛放行。這一套工作無需人來干,你就不得不承認這套系統(tǒng)能干和人類收費員一樣的事情,但是,你不能說它和人類收費員具有一樣的智能。因為,人類收費員還可以處理很多機器不能干的復雜的事情。目前,工業(yè)機器人已經(jīng)在很多領域代替了人的體力和腦力勞動,家庭機器人也開始進入日常生活服務領域,自動駕駛盡管還飽受詬病,卻也不再是不能解決的問題。人工智能就是要制造“人工的、模擬的、假的”智能,以代替人類“自然的、原型的、真的”智能,而且,這種制造愈能以假亂真,愈能顯示人的聰明才智,愈能解放人的腦力勞動。
而且,人工智能功能模擬的優(yōu)勢,也是它的局限性所在。這主要源于機器缺乏七情六欲,因而難以模擬人的主體意識、主觀感受和主體選擇。因此,單一的功能模擬路徑需要以結構模擬來補充,這催生了神經(jīng)網(wǎng)絡、腦-機接口等探索性方案。這些探索雖不會在短期內取得突破性成果,但這并不意味著面對困難我們無所作為,只能消極等待人工智能技術的成熟。法學家可以和邏輯學家、計算機專家密切合作,深入研究法律推理的機理和方法,探索其形式化或模型化的法學解決方案。這可稱為人工智能法律系統(tǒng)之基礎理論研究。
人工智能對人類思維的模擬,對于亞里士多德所謂兩類推理性思維而言,其難度是大不一樣的。第一類必然推理,其前提是不證自明的自然定律或定理,由于“通過證明科學而獲得的知識具有必然性”,人工智能在這類推理領域似乎可以縱橫馳騁;第二類辯證推理,其前提卻是人們“普遍接受的意見”,這使它具有“辯論、討論”等公開性論證的特點,其結構和功能更加復雜,通過這類推理所獲得的知識只具有或然性。人工智能法律系統(tǒng)的模擬對象是法律推理,涉及社會科學知識領域,其復雜性和困難程度都是第一類推理無法比擬的。
法律推理是一個法庭裁決(decision-making)過程,“前提是事實、法律和解釋,結論是表述本案裁決的主張”。法律推理作為法治國家通行的審判方式,以控、辯、審三方為互動主體,由事實認定和法律適用構成兩個階段。弗里德曼用信息論觀點分析了這個過程,將其分為原材料的輸入、加工、判決輸出和信息反饋等階段。在他看來,法院作為信息“加工廠”是一個控制論“黑箱”。“變?yōu)橐蟮纳鐣萘闹贫鹊囊欢溯斎耄袥Q和規(guī)則從另一端流出。我們應該把多少功歸于中間的黑盒子?機器如何操作,做些什么?”這些問題,既反映了法律推理本身的復雜性,也反映了對法律推理微觀研究的薄弱。
瑞典法學家瓦爾格倫(Peter Wahlgren)從人工智能角度對法律推理過程進行微觀研究,將其描述為一個從案情開始歷經(jīng)7個階段而做出裁決的活動過程,參見圖1。
圖1 法律推理的一般過程
在圖1中,由證成、法律檢索、解釋、規(guī)則適用、評價、學習、簡述構成的7個階段,使法律推理過程進一步細化,這對法學家具有重要的啟發(fā)。其中,證成是一個證據(jù)推理或事實認定的過程。經(jīng)過證成的案件二分為簡單案件和疑難案件,前者是案件事實清楚、法律規(guī)定明確的案件。簡單案件的法律推理一般是按照“法律規(guī)則+事實真相=判決結論”三段論方式進行的,由于案件事實簡單清楚,無需經(jīng)過復雜的證據(jù)推理,便可直接進入第二個階段的法律檢索;而且,由于法律規(guī)定明確,無需對規(guī)則進行解釋,便可“對號入座”進入規(guī)則適用階段。
從這個意義上說,目前國內外開發(fā)的所謂人工智能法律系統(tǒng),包括趙廷光教授的《實用刑法專家系統(tǒng)》,武俠律師的“法律機器人”,最高人民法院推動的北、上、廣、浙、蘇、黔等地即將推出的“智慧法院系統(tǒng)”,以及倫敦大學學院等開發(fā)的人工智能“法官”系統(tǒng),實際上都是“簡單案件—法律適用量刑系統(tǒng)”,即初級人工智能法律系統(tǒng),而不是“復雜案件—法律推理系統(tǒng)”。這些人工智能法律系統(tǒng)的特點是,沒有對證成階段的證據(jù)推理和法律適用階段的法律解釋進行模擬,而是直接把案件事實當作法律推理小前提,用三段論演繹推理方法得出裁判結論;其適用于簡單速裁案件或小額法院審判,可以減輕法官耗費在簡單案件上的腦力勞動,從而集中精力處理復雜疑難案件。當然,從審判之政治正當性考慮,即使簡單案件的審理,也應該是“人—機法律系統(tǒng)”,判決書必須由法官審核簽發(fā)。
與簡單案件相比,疑難案件是事實復雜、規(guī)則模糊的案件,因而需要走完法律推理從證成到簡述完整的7個階段,特別是要進行復雜的證據(jù)推理和法律解釋。就疑難案件人工智能法律系統(tǒng)而言,有兩點必須明確:第一,外圍技術不能代替核心技術。就是說,僅僅靠互聯(lián)網(wǎng),甚至“綜合運用云計算、大數(shù)據(jù)等技術”,是無法深入開展人工智能法律系統(tǒng)研發(fā)的,因為這些都是外圍技術。人工智能法律系統(tǒng)的核心技術是7階段法律推理模擬,特別是其中最困難的證據(jù)推理和法律解釋的模擬。因此,不能幻想用簡單的大數(shù)據(jù)挖掘方法,或單憑深度學習的方法,去解決高度復雜的法律推理模擬問題。第二,人工智能法律系統(tǒng)的研發(fā)內容不是“法律適用或量刑系統(tǒng)”,而是模擬法律推理全過程,制造能夠通過疑難案件級別“圖靈測試”的人工智能法律系統(tǒng)。這需要人工智能研究和法律推理研究互動,“一方面是用人工智能(通過把計算機的應用與分析模型相結合)來支撐法律推理的可能性;另一方面是應用法學理論來解決作為法律推理支撐系統(tǒng)的以及一般的人工智能問題”。
概而言之,在這一波人工智能法律系統(tǒng)研究熱潮中,如果不想讓“智慧法院”建設變成一場“大煉鋼鐵”的游戲,關鍵是要突破法律推理模擬的兩個難題:一是證據(jù)推理模擬,二是法律解釋模擬。只有扎扎實實地研究法律推理的過程和方法,找到法律推理模擬的“算法”,真正的人工智能法律系統(tǒng)才能出現(xiàn)。然而,恰恰是在這兩個關鍵科學問題上,人們認識不夠,投入不足,研究薄弱,其效果難免差強人意。
在法律推理研究中一直存在著兩個傾向:一是熱衷于探究法律適用中的實質推理問題,卻忽視事實認定對法律適用的決定作用;二是習慣于把疑難案件僅僅視為法律適用的疑難案件,而無視其實際上是事實認定的疑難案件。特文寧教授對此評論說,法學家們總是將“法律推理”局限于關于法律問題的推理,直到最近,那些對經(jīng)濟分析、后現(xiàn)代主義以及批判法學感興趣的人,才把其注意力轉移到證據(jù)問題上。
1.證據(jù)推理是一個發(fā)現(xiàn)法律推理小前提的操作
法律推理的典型邏輯形式是三段論推理,但從邏輯與歷史相統(tǒng)一的角度看,其實際操作卻不是先有法律大前提,而是先通過證據(jù)推理去發(fā)現(xiàn)小前提,再去尋找大前提。因此,帕頓(Paton)認為,歸納方法實際上常常作為演繹推理的一種補充理論:歸納法將大前提歸于從特殊案例中所得到的發(fā)現(xiàn),而演繹法則把這種發(fā)現(xiàn)視為既定的東西?!笆裁词恰∏疤帷俊∏疤岵⒎且活惪梢杂芍T如大法官的意見或者議會立法等權威命令‘賦予’真實性的命題。它是表示特定歷史情境的命題,因此它需要借助于特定的相關證據(jù)加以證明。”顯然,法律推理的小前提并非案件事實(fact),而是經(jīng)過法庭審判控、辯、審三方舉證、質證和認證過程所獲得的認識成果——事實真相(truth)。
審判中實際發(fā)生的法律推理過程可以分為三個步驟:第一步是通過證據(jù)推理查明事實真相,將其作為小前提;第二步是依據(jù)這個小前提,檢索或尋找法律規(guī)則(大前提);第三步才是法律適用,即從大前提到小前提而得出結論的演繹推理。從這個意義上說,沒有第一步準確的事實認定,就不可能有第二步法律檢索和第三步正確的法律適用。事實認定是法律推理的起點,這決定了人工智能法律系統(tǒng)首先要突破的難題是事實認定階段的證據(jù)推理。但目前,無論法學界還是人工智能專家對這一點都普遍缺乏認識,特別是對證據(jù)推理研究的困難和復雜性的估計嚴重不足,這難免會使人陷入盲目樂觀。
如上所述,人工智能法律系統(tǒng)目前取得的成果,均是在簡單案件的法律適用或量刑系統(tǒng)方面,這與法律推理全過程模擬的研發(fā)目標還有巨大差距。法律推理過程模擬的起點和難點是證據(jù)推理,因此應該將此作為主攻目標。證據(jù)推理模擬的困難來自兩個方面:一是證據(jù)分析,二是歸納方法。就證據(jù)本身而言,其相關性、可采性、證明力和可信性是證據(jù)分析的主要內容,是證據(jù)推理的前提性步驟。證據(jù)分析模擬的難點是可采性(admissibility),它是指“在聽審、審判或其他程序中被允許進入證據(jù)的品質或狀況”。可采性規(guī)則設置了兩個條件:一是必要條件,即“不相關的證據(jù)不可采”,或曰不相關證據(jù)排除規(guī)則,這對智能模擬程序來說并非高不可攀;二是其他條件,即相關證據(jù)排除規(guī)則,這才是智能模擬的難點。因為,后者是一個法官自由裁量權問題,涉及“危險性在實質上超過相關證據(jù)的證明力”的價值權衡。這個“實質上超過”的平衡檢驗表明,法官只有在對一個證據(jù)的消極影響超過其證明力十分自信時,才會排除該相關證據(jù)。表1反映了美國法院對規(guī)則403平衡檢驗進行實證研究所取得的成果:
表1 美國法院法官在規(guī)則403相關證據(jù)排除平衡檢驗中的自由裁量權
﹡如果證明力接近“中”等范圍的下限,且消極影響非常高;或者,如果證明力非常低,且消極影響接近“中”等范圍的上限,規(guī)則403可能允許排除證據(jù)。
從表1可見,當相關證據(jù)的證明力分別為“高、中、低”,規(guī)則403所列因素的消極影響與其對應,法官是否排除證據(jù)取決于運用“危險性實質上超過證明力”檢驗標準所做的價值權衡。人能平衡相互沖突的價值,權衡對人類生存和發(fā)展重要程度不同的價值位階。這種權衡反映了求真與公正、和諧、效率等價值的競合,“求真的目的與其他目的——諸如經(jīng)濟性、保護某些自信、助長某些活動、保護一些憲法規(guī)范——相互競爭”。證據(jù)推理應當追求真善統(tǒng)一,但價值推理模擬是一個弱項。在瓦爾格倫提出的人工智能5種知識表達途徑中,雖包括以道義為基礎的法律推理模型,但引入道義邏輯是智能模擬的一大難題。即使把道義邏輯硬塞進計算機程序,“鋼鐵之軀”的機器沒有生理需求,也很難自生價值觀念和主觀體驗。所以,要解決主觀選擇或自由裁量的問題,恐怕要反思人工智能傳統(tǒng)的功能模擬這一單一進路,是否需要以必要的結構模擬加以補充。
如果說可采性檢驗還只是證據(jù)能力或證據(jù)采納的門檻條件,那么,證據(jù)采信還要解決證據(jù)可信性評價問題?!翱尚判浴?credibility)是“使某些事情(如證人或證據(jù))值得相信的特性”。與科學研究中可以對證據(jù)可信性做長期觀察、反復檢驗不同,在訴訟活動中,證人可能失蹤或死亡,“文件可以偽造,貨幣可以假冒,圖像可以錯誤標記,血液樣品可以混合,毒品可以栽贓給他人”。如此一來,依據(jù)何種品質的證據(jù)進行推理,就成為人工智能法律系統(tǒng)必須面對的一個問題,如圖2“證言三角形理論”。
圖2 證言三角形理論
在證言三角形中,感知能力、記憶能力、誠實性和敘述能力是證言可信性的四種品質。聽者與說者的信息傳送、接收和加工,均受這四種品質影響,遠比一般通信理論要復雜得多。首先是敘述-歧義性,智能模擬不僅要考慮自然語言的模糊性,還要考慮敘述-歧義性背后起作用的心理因素。其次是誠實性,誠實與說謊是一體兩面的關系,目前要造一臺會說謊的機器還是天方夜譚,但從說謊及信息編碼等問題反向研究誠實機理不失為一種策略。最后是記憶和感知,人的記憶隨時間而衰減,感知則滲透著理性。心理學實驗研究表明,“目擊者們對他們看到的東西所做的敘述,經(jīng)常與事件的本來面目非常不同?!谝豁棇嶒炑芯恐校涂嘶籼?、菲格羅和霍夫在一間大教室里導演了一場襲擊一位站在講臺上的教授的事件,并在幾周后要求目擊者們辨認襲擊者。結果,大多數(shù)人——包括受害者挑錯了襲擊者”。因此,人工智能證據(jù)推理模擬,首先要解決輸入信息的可信性評估問題,具備分辨證據(jù)真?zhèn)蔚哪芰?。在審判中,這個問題是通過交叉詢問和彈劾證人來解決的?!敖徊姹P問是檢驗證人可信性并證明其說法可能存在另一面的有效方式?!弊C據(jù)分析能力可以通過研究律師交叉詢問策略和證人彈劾技巧、法官認證方法而獲得,這是一項極為困難的研究工作,因為這些策略、技巧和能力很多屬于經(jīng)驗智慧。
2.證據(jù)推理的經(jīng)驗性和歸納邏輯
(1)事實認定是一個經(jīng)驗推論過程。例如,證據(jù)相關性的檢驗就是一個經(jīng)驗判斷?!跋嚓P性的核心問題是,一個證據(jù)性事實能否與事實認定者先前的知識和經(jīng)驗聯(lián)系起來,從而允許該事實認定者理性地處理并理解該證據(jù)。”如圖3所示,從證據(jù)到待證事實的推論,使證人證言轉變?yōu)槭聦嵳J定者的信念,因而是一個客體主體化的過程,轉變的基礎是主體的經(jīng)驗。證據(jù)推理的經(jīng)驗性決定了其邏輯形式是歸納推理。在審判中,事實認定者與事實客體之間沒有任何直接聯(lián)系,不能像證人那樣親眼看到案件中發(fā)生的事情,只能通過證據(jù)對過去事實發(fā)生的可能性進行推論。這是一個由證據(jù)到推斷性事實(中間待證事實),再到要件事實(次終待證事實),最后與實體法要件(最終待證事實)聯(lián)系起來的歸納推理過程。
圖3 證據(jù)推論鏈條
在圖3中,E*代表案件的證據(jù),事實認定者只能在一定程度上從該證據(jù)推斷事件E確實發(fā)生了。通過命題E、F、G和P1…n指示的一系列推論鏈條,才能把證據(jù)E*與最終待證事實連接起來。例如,在張三謀殺李四案中,假設證人1提供證言(E*)說:“我看見張三那天下午4點15分進入李四家?!碑斣噲D把證人1的證言和最終待證事實(李四正是被張三謀殺)連接起來時,要求對每一待證要件事實(圖3中由P1…Pn所表示的每個次終待證事實)進行證明。假設,次終待證事實P1是“張三有謀殺李四的機會”,那么,通過命題E、F、G和P1指示的一系列推理環(huán)節(jié),都必須基于概括(G1……G4)。這些概括為每一個推理環(huán)節(jié)提供了動力或正當理由,準許了從命題E到命題P的推論。例如,從證人1“我看到張三那天下午4點15分進入李四家”的證言(E*)出發(fā),要求事實認定者推斷,張三那天下午4點15分確實去了李四家(E),該推論依據(jù)的概括4(G4)大概是“出庭作證的證人,通常是誠實的”;而從E到F(例如,張三那天下午4點30分在李四家)的推論,則可能是基于概括3“一個家庭訪客,通常會逗留15分鐘”(G3);以此類推。但是,這個推論鏈條中的證據(jù)支持的只是控方事實主張。事實認定者要“兼聽則明”,還需通過質證程序考慮辯方的證據(jù)。例如,辯護方證人可能作證說:“那天下午4點15分,我在一家電影院碰見張三,那家電影院距離李四家10公里?!泵鎸@些相互沖突的證據(jù)和事實主張,事實認定者必須對證據(jù)可信性做出評估,才能對不同事實主張成立的可能性做出判斷。
(2)概括的必要性和危險性:關于社會知識庫建構。歸納推理所依賴的經(jīng)驗知識,以“概括”(generalization)的形式反映了事物的一般聯(lián)系和人的一般行為方式。“反過來,這種概括又成為使我能夠把特定證據(jù)與人們希望證明的一個因素聯(lián)系起來的前提。”概括在證據(jù)推理中具有雙重性:“必要卻危險?!币辉槐匾醋C據(jù)推理離不開概括,如圖3所示,從證據(jù)E到次終待證事實P1的每一個推論步驟,都必須踩著“概括之石”(G1,G2,G3,G4),才能從證據(jù)“此岸”到達事實認定的“彼岸”;二曰危險,因為在社會“知識庫”中,從科學定律到直覺、成見、印象、神話、諺語、希望、推測或偏見,不同概括具有不同的可靠性等級。事實認定者如果依據(jù)不可靠的概括進行推論,就有產(chǎn)生錯誤判決的風險。例如,念斌投毒案一審判決書將公訴機關的指控直接采信為定案的證據(jù)稱:“經(jīng)審理查明,……2006年7月26日晚,被告人念斌看見快走到他的食雜店門口的顧客,轉向進了丁云蝦的食雜店,故對丁云蝦懷恨在心。次日凌晨1時許,被告人念斌從家中拿出一包老鼠藥將其中的一半用礦泉水瓶加水溶解后,倒入丁云蝦放在與他人共用廚房的鋁壺中。”這里,本案法官對被告殺人動機的推論,如圖4所示:
圖4 概括在證據(jù)推理中的基礎作用
在圖4的推論鏈條中,“通常,人們對搶走自己商機的人會起殺機”是一個概括。這個概括顯然不合常識,這是造成法院錯誤判決的一個重要原因。人工智能法律系統(tǒng)要模擬證據(jù)推理,除了法律知識庫,還要建立龐大的社會知識庫來貯存概括。這涉及一系列極其復雜的問題。比如,人類文明的普世知識與國家、民族的地方性知識如何安排?各國典籍(如四書五經(jīng)、圣經(jīng))、百科全書、官方政策文件、民俗習慣、諺語大全、群體成見和偏見、民眾生活時尚,統(tǒng)統(tǒng)都要入庫?或者要把一座圖書館裝進去嗎?要區(qū)分精華和糟粕嗎?這都是人工智能知識庫建設中令人糾結的問題。
(3)概括選擇困難:關于法官個體知識庫建構。與“社會知識庫”的建庫困難相比,更難的是“機器人法官”的個體知識庫如何構建?如果遇到文明的沖突、似是而非的常識,機器如何從中做出選擇?這個問題不解決,證據(jù)推理模擬就會變成空話。在審判過程中,法官個體知識庫作為一種經(jīng)驗智慧,對其在社會知識庫中選擇什么作為概括起著決定作用。個體知識庫包括個人的生活經(jīng)歷,是理解證據(jù)、選擇概括的基礎。“事實認定者都是帶著已有的知識體系、信念以及推理方式進入審判程序的,而這恰恰是快捷、高效交流的前提?!崩?,圣經(jīng)中有一個圍繞“誰的孩子”之爭的案例,國王在聽取了兩個女人的證言后,讓衛(wèi)兵拿來一把刀,要將孩子劈成兩半,分給這兩個女人。結果,一個女人哀求他留下孩子的命,另一個女人卻要劈了孩子。面對這些證據(jù),國王的推論鏈條如圖5所示:
圖5 “誰的孩子”之爭:國王的證據(jù)推論鏈條
在圖5的證據(jù)推理鏈條中,天下母愛的信念凝結為“虎毒不食子”這樣一個概括,依據(jù)這個概括進行推論,國王得出了誰是孩子生母的結論。
圖6 “誰殺了武則天女兒”之爭:高宗的證據(jù)推論鏈條
但對于人工智能證據(jù)推理模擬而言,困難還不止于此。例如,在“誰殺了武則天女兒”這樁歷史謎案中:“昭儀生女,(皇)后就顧弄,去,昭儀潛斃兒衾下,伺帝至,陽為歡言,發(fā)衾視兒,死矣?!本褪钦f,武則天(昭儀)生了一個女兒,皇后前來探望,待皇后走后,武則天掐死女兒,等到高宗皇帝來看女兒,武則天裝作歡天喜地帶高宗到床邊去看孩子,卻發(fā)現(xiàn)孩子死了。大家都說,皇后剛剛來過,武則天痛哭不止,高宗生氣地說“后殺吾女”。因此,高宗決心廢掉皇后。其推論鏈條如圖6所示,顯然也是以“虎毒不食子”做出概括來進行證據(jù)推論得出的結論。然而,假設此案由一位法官來斷,用“無毒不丈夫”做出概括,則其推論鏈條如圖7所示。
圖7 “誰殺了武則天女兒”之爭:法官的證據(jù)推論鏈條
正如圖6和圖7所示,在很多情況下,盡管證據(jù)是一樣的,但不同“法官”選用不同的概括,卻可得出完全相反的結論。這再一次提醒我們記住特文寧的名言:“概括之于證據(jù)推理,必要卻危險。”概括的這種雙重性,決定了證據(jù)推理結論的蓋然性,也決定了人工智能“法官”面臨概括選擇的困難。
3.證據(jù)推理模擬難題的解決途徑:形式化或定量化?
證據(jù)推理的復雜性,決定了人工智能法律系統(tǒng)必須從證據(jù)推理形式化起步,構建證據(jù)推理模型。對此,威格莫爾圖示法的開創(chuàng)性探索值得借鑒?!霸诂F(xiàn)代術語中,威格莫爾圖示法描述了一種建構推論網(wǎng)絡的過程?!蓖普摼W(wǎng)絡的優(yōu)勢在于,它是對思維可視化過程的一種嘗試,包含證據(jù)可信性的評價、證據(jù)之間關系的分析,以及證據(jù)支持或反對最終待證事實之推理過程的展示。圖示法由威格莫爾1937年出版的《司法證明科學》一書提出,它“要求分析者在一個論證中,清晰闡述每一個步驟,把論證分解為簡單命題,然后圖解(mapping)或圖示(charting)這些命題與次終待證事實之間的全部關系”。
威格莫爾開證據(jù)推理模型化之先河。他說:“鑒于人腦無法同時處理大量的想法,因此,需要將每一組在細節(jié)要素上融貫的想法精簡為單一的想法,直到人腦能夠同時處理這些單一想法并且給予每個想法合理的注意,以得出唯一的最終結論?!彼膱D示法,使支持某一主張的證據(jù)簡化而易于處理,在此基礎上對簡化的觀點進行綜合分析,符合分析模型應具備的條件,因而在他看來是“唯一徹底和科學的方法”。圖示法有三個特點:一是所有參與證明推論過程的證據(jù)、推論性主張、待證事實,都以命題形式,通過編制關鍵事項一覽表并做數(shù)字編號,被明確表述出來;二是推論過程被描述成一個以直線和箭頭連接的復雜路徑圖;三是從整體上觀察,圖示法將整個論證推理過程以較為直觀的形式表現(xiàn)出來,闡明了命題之間的相互支持、反駁或補強關系,易于暴露邏輯推論中的空白和弱點,有助于評估證據(jù)和論證的完整性程度。
威格莫爾證明科學,特別是其圖示法,是運用邏輯方法對證據(jù)推理加以形式化的一種偉大嘗試。遺憾的是,他在20世紀30年代提出的證明科學理論太超前,不僅超前于當時的司法實踐,也超前于當時的科技水平(如圖示邏輯學尚未成型,心理學還停留在粗糙的水平,計算機技術還不成熟,人工智能概念尚未提出),所以,其證明科學與圖示法一起被人們束之高閣、幾近遺忘了。直到20世紀60年代,隨著“新證據(jù)學”運動的興起,人們才開始重新挖掘他的證明科學思想。
進入21世紀后,英國特文寧、美國舒姆等教授將證據(jù)作為跨學科主題開展研究,對威格莫爾圖示法進行了改良。改良后的圖示法將原來的符號簡化為8個:(1)保留原來符號中的□表示證言性主張;(2)○表示情況證據(jù)或推斷性命題(“推斷性命題”為新增含義);(3)表示為他方提出的推論提出可選解釋的論證;(4)表示補強一個推論的論證;(5)—— 表示所提出的命題之間推論性關系的“方向”,↑表示“有助于支持”,←表示“有助于否定或削弱”。(6)∞表示事實認定者將聽到的證言主張或用其他感官感知為真的證據(jù);(7)表示法庭將司法認知的事實,或沒有證據(jù)支持而被接受的事實;(8)G表示在案件論證中可能起作用的概括。
改良版圖示法包括7步操作規(guī)程:(1)立場澄清。通過對四個問題的精確回答來澄清立場:我是誰?我處在訴訟進程的什么階段?什么證據(jù)材料可用作分析?我打算做什么?立場總是四個因變量——時間、目標、可用于分析的材料和角色——的函數(shù)。例如,律師必須從三種立場或角色來考察證據(jù):一是委托人的立場和辯護人角色;二是對手的立場和角色;三是事實裁判者的立場和角色。問題涉及:對手可能采用的案件理論,事實裁判者將在何種程度上分享其分析的證明力,證據(jù)整理所依賴的概括是什么。(2)精確簡述潛在的最終待證事實。(3)簡述潛在的次終待證事實。(4)簡述案件暫時性理論。(5)對可用數(shù)據(jù)的記錄,即時序法。一是基于個別證人、個別文件或其他證據(jù)種類的時序;二是總時序。(6)為產(chǎn)品做準備,包括圖示法中的一個關鍵事項表或圖示,或者概要法中的概要。(7)提煉和完成分析。特文寧等用一個假設的謀殺案為例,以其中61個證據(jù)編制了關鍵事項表和圖示,見圖8。
圖8 改良版圖示法:“一項調查”的關鍵事項表和圖示
改良版圖示法能夠從宏觀視角展現(xiàn)證據(jù)推理的過程,通過證明關系符號展現(xiàn)證據(jù)之間的推論關系以及證據(jù)、概括在推論網(wǎng)絡中所發(fā)揮的作用,從而發(fā)現(xiàn)推論的強度和不足;可以反映出制圖者相信哪些主張,以及哪些推論的證明力不強,需要補強。特文寧等學者認為,“它可以用來圖解除分析者自己確信之外的其他東西。比如,它可以被用于重構有關由其他人所制作之證據(jù)的論證或者用于預測某一未來裁判者可能的反應,它還可以被用于為庭審做準備,也可以被用來分析過去的審判。而且,它并不必然局限于法庭情景或者法律證據(jù)”。當然,我們認為,改良版圖示法還可以用來為人工智能法律系統(tǒng)模擬證據(jù)推理提供最佳的樣板。因為,“它是一幅有關分析者內心確信的圖表,既包括分析者對一群命題之間關系的確信,也包括分析者對他的暫時性結論的確信”。圖示法在證據(jù)推理模型化方面所做的努力,為人工智能法律系統(tǒng)指明了方向。
法律適用是審判過程的第二個階段。它是一個將法律規(guī)則應用于案件事實的推理過程。博登海默對法律適用做過如下論述:“在法院查明當事人之間爭議的事實以后,就可以按照邏輯演繹過程把這些事實歸屬于某個規(guī)則之下。然而,在這樣做之前,法官有必要先對構成該規(guī)則一部分的某些模棱兩可的措詞或不明確的概念進行解釋?!笨梢?,法律解釋是法律適用的一個重要環(huán)節(jié)或方法。
1.法律解釋是尋找法律推理大前提的操作
梁慧星把法律解釋視為“獲得裁判大前提的法律規(guī)范的作業(yè)”,認為它有三個特性:(1)法律解釋對具體案件的關聯(lián)性。它旨在確定法律規(guī)定對特定案件事實是否有意義。(2)法律解釋的價值取向性。法律解釋并非形式邏輯的操作,而是一種價值判斷,它以已經(jīng)成為法律基礎的內在價值判斷為依據(jù)。(3)法律解釋之解釋學循環(huán),即法律解釋作為理解過程表現(xiàn)為一個從整體到部分、再從部分到整體的循環(huán)。法律解釋的價值判斷性質,給人工智能模擬帶來了困難。
在法律推理過程中,法律解釋的運用需要一定條件:法律規(guī)定十分明確時,無需解釋就可適用法律;法律規(guī)定模糊不清時,則需進行解釋。哈特指出,在特別簡單的案件中,使人覺得法院的判決“是意義確定而清楚的既定規(guī)則之必然結果”?!叭欢?,在困擾著法院的大多數(shù)案件中,無論是法規(guī)中的規(guī)則,還是判例中的規(guī)則,它們所包含的可能結果都不止一個。在比較重大的案件中,總是有一個選擇的問題。在此,法規(guī)的一些用語會具有兩可的意義,對判例的含義‘究竟是’什么也會有對立的解釋,法官將不得不在其間做出選擇?!?/p>
美國現(xiàn)實主義法學家格雷認為,法律推理的大前提并非像分析法學所說的那樣,是預先存在的、等待法官去查找的白紙黑字規(guī)則,而是法官綜合了諸如政策、道德、原則之類的價值考慮和對白紙黑字規(guī)則的具體解釋而重新制定出來的規(guī)則。“制定法無法解釋自身,其含義是由法院來宣布的,而且正是基于法院宣告的含義而非其他含義,制定法才作為法律強加給社會。”格雷對法律推理大前提所做的這種“添加”或修正,雖使法律規(guī)則的客觀性打了折扣,但也確實提出了一個非常重要的問題,即法律推理畢竟是一種主體思維活動,如果大前提似鐵板一塊,對每個法官都是一樣的,法官就真的會變成一架生產(chǎn)判決的機器,審判過程就成了簡單運用三段論的機械推論。人工智能當法官可能會比有七情六欲的人公正,但人工智能也有致命弱點,即完全不通人情。法官當然不能把個人情感帶入法律推理過程,“法官需要冷靜,對一切訴訟多多少少要冷漠無情”;但另一方面,法官又不能喪失良知和人性——像孟德斯鳩所描述的只知機械遵循法律的“自動售貨機”。法官不能以法條的字面意義來判決,而必須考慮法律到底保護什么價值,這個價值與其他價值有什么沖突,哪個價值更為重要,等等。法官不是一臺計算機,他必須面對價值問題。1991年,柏林墻守墻士兵亨里奇因射殺一名企圖翻墻青年受到審判。其律師辯解說,該士兵開槍殺人是在執(zhí)行命令,他別無選擇,是無罪的。但法官賽德爾卻說:“作為警察,不執(zhí)行上級命令是有罪的,但打不準是無罪的。作為一個心智健全的人,此時此刻,你有把槍口抬高一厘米的主權,這是你應主動承擔的良心義務。這個世界,在法律之外還有‘良知’。當法律和良知沖突之時,良知是最高的行為準則,而不是法律。尊重生命,是一個放之四海而皆準的原則?!弊罱K,該士兵被判有罪,且不予假釋。所以,法律推理主體具有識別良法的判斷能力,這是人工智能法律系統(tǒng)難以模擬的。這又回到了道義邏輯問題。
2.法律解釋的建構性、辯證性和創(chuàng)造性
在法律解釋中,對法律推理標準的選擇起著決定作用。解釋法律規(guī)范的目的,一般不是為了澄清法律文本的字面意義,而是為判決尋找隱藏在法律規(guī)則之中的“依據(jù)”或標準。這是一個以一般的法律概念為基礎,對完整的法律體系進行反思,并結合了目的和政治、道德的“想象性重構”過程。例如,在埃爾默案中,格雷法官采用逐字逐句的嚴格解釋方法,認為遺囑法并未將謀殺作為例外排除在遺產(chǎn)繼承權之外。厄爾法官則采用目的解釋方法,認為遺囑法會允許謀殺者繼承遺產(chǎn)是荒唐的。根據(jù)“任何人不得從其錯誤行為中獲利”的原則,遺囑法應該被解釋為否定謀殺者有權繼承遺產(chǎn)。面對如此清楚的制定法文本,為什么會有迥然不同的解釋呢?對此問題,德沃金和哈特都強調“讀者”的決定作用,即在尊重特定語境中法律“范例”的前提下建構性地解釋法律。格雷和厄爾法官的爭論,表明他們對遺囑法的建構性解釋不同,一個認為立法機關制定的白紙黑字是法律,一個認為除白紙黑字之外的立法者意圖也是法律。有鑒于此,人工智能法律系統(tǒng),當然要對法律知識庫中的規(guī)則進行機械的檢索,以維護規(guī)則的權威性,這種設計并不困難;但要讓機器超越白紙黑字的法律另尋立法者意圖,則必須到社會知識庫去“跨庫檢索”法律推理的正當理由,從正義、利益和人權的目的標準進行價值選擇,這與證據(jù)推理模擬過程中遇到的概括選擇的困難程度是一樣的,因為,只有在機器具有主體意識的情況下才有資格談論選擇。
法律解釋的辯證性則對人工智能自然語言理解提出了嚴峻的挑戰(zhàn)。在制定法中,法律規(guī)則之所以模糊或不確定,在哈特看來是因為構成規(guī)則的日常語言既有“意思中心”又有“開放結構”。在語言外延涵蓋明確的中心區(qū)域,人們不會對其含義產(chǎn)生爭議;但在“開放結構”,即語言邊界上,就會產(chǎn)生一些爭議。盡管日常語言的模糊性、歧義性會給讀者造成一定的理解困難,但從解讀、溝通的角度看,獲得與作者相同的理解還是可以做到的。當然,語言的多義性會使理解具有無數(shù)的可能性。所以,法律解釋不能采用形式邏輯的線性思維方法。特別是“在解釋和運用含有‘正義’‘公平’‘正當’‘合理’‘過錯’‘顯失公平’‘動機’等詞語的法律規(guī)范時,形式邏輯的作用同樣是有限的。在這種情況下,法官必須借助辯證邏輯,從概念的內容和形式的對立統(tǒng)一、靈活性和確定性的統(tǒng)一來確定它們所反映的或應該反映的現(xiàn)實內容,以做到正確地理解和適用法律規(guī)范”。人工智能法律系統(tǒng)要建立法律解釋模型,必須破解辯證邏輯的形式化難題,然后才能模擬法官運用辯證邏輯對法律規(guī)則現(xiàn)實內容的發(fā)現(xiàn)過程。
法律解釋的保守性與創(chuàng)造性是一對矛盾,這是由實質正義和形式正義的矛盾決定的。法律解釋包含忠實原意的要求,但這有兩個困難:首先,人們基于不同的價值對什么是“原意”可能有各自的主觀理解,有人可能像格雷法官那樣認為逐字逐句解釋法律才是忠實“原意”,有人則可能像厄爾法官一樣接受“立法者意圖優(yōu)先”的價值觀念。其次,對“原意”的識別不能離開立法目的,但成文法經(jīng)常是競爭各派或利益集團之間妥協(xié)的產(chǎn)物,這使立法目的難以并經(jīng)常不能被識別。在這種情況下,霍姆斯提出解釋的“平意”(plain-meaning)方法,他認為,應該用常人理解的語言告訴他們法律的意圖是什么。但波斯納認為,所謂平意理解是不適當?shù)?,因為法律條文的穩(wěn)定性決定了它“是對法律概念的暫時表述”,而“成文法解釋的平意方法排除了對現(xiàn)在條件的考慮”。所以,他主張應該從解讀、溝通的角度來把握法律解釋。解釋是向前看的,具有形成政策的功能,是創(chuàng)造性的而不是機械的,因此,法律解釋者“不能只研究平意,他們必須努力懂得立法者所想解決的問題”。對此,沈宗靈和張文顯教授也認為,應該“從制定某一法律的目的來解釋法律。這里講的目的不僅是指原先制定該法律的目的,也可以指探求該法律在當前的需要,也就是說,原先的目的已不符合當前需要,因而通過法律解釋使其符合”。
如前所述,人工智能的特點是功能模擬,其前提是將模擬對象的思維過程形式化,這非常接近形式主義法律推理觀所倡導的形式正義。但形式正義與實質正義是一對矛盾。理德(William Read)認為,法律解釋具有重新界定概念術語和推動法律變革的創(chuàng)新功能。例如,對于禁止一個州“在其管轄權內剝奪任何個人受法律平等保護的權利”的憲法規(guī)范,美國最高法院前后的解釋就發(fā)生了明顯的變化。在1868年的解釋中,最高法院對第十四修正案“平等保護”的詞句增加了一些對各州政府的法律約束。在1896—1954年間,最高法院將這種約束解釋為:公共設施對于“被隔離卻是平等的”不同種族不得禁止,這是一個要求設施平等的解釋。在1954年“布朗訴教育委員會案”中,最高法院將這種約束力明確地解釋為:不論他們是否平等,禁止隔離公共設施。這樣,通過三次解釋,憲法關于平等保護規(guī)范的模糊含義一次次變得清晰起來,更加接近了實質正義。實質正義是形式正義的例外,這種創(chuàng)新只有在辯證邏輯指引下才能實現(xiàn),所以,問題又回到辯證推理模擬問題。羅爾斯在其“作為公平的正義理論”中論述了“兩個正義原則”: “第一個原則要求平等地分配基本的權利和義務;第二個原則則認為社會和經(jīng)濟的不平等(例如財富和權力的不平等)只要其結果能給每一個人,尤其是那些最少受惠的社會成員帶來補償利益,它們就是正義的?!闭x如果不僅意味著形式上的平等,而且要達到實質上的平等,法律手段的運用就會產(chǎn)生形式正義和實質正義如何統(tǒng)一的問題。即使對于人類法官而言,“形式正義和實質正義的不可兼顧性”也常常令其頭痛。這就給我們提出了一個值得注意的問題,人工智能法律系統(tǒng)也許只能在羅爾斯第一正義原則的基礎上實現(xiàn),即只能制造出“羅氏1型法官機”。這種“羅氏1型法官機”只可用于簡單案件的形式正義推理。
1.人工智能法律系統(tǒng)研究:旨在代替法官
必須承認,人工智能研究的“初心”確實是要全面模擬人類智能。1956年,美國學者J·麥卡錫、M·明斯基、N·羅卻斯特和C·Z·申農(nóng)向洛克菲勒基金會提出一項“人工智能研究”建議申請。該建議說:“此項研究意圖是在假說的基礎上向前推進一步。這個假設是知識的每個領域,或智能的任何一個其他特征,原則上是可以如此精確地加以描述,以致能夠制造出一種機器來模擬它?!边@里,“知識的每個領域”和“智能的任何一個其他特征”的嚴謹措辭表明,在這些先驅者心目中,人工智能要征服的知識領域、智能特征是沒有界限的。
在人類知識領域和智能現(xiàn)象中,法律領域的司法過程具有穩(wěn)定的對象(案件),依據(jù)明確的前提(法律規(guī)則、事實真相),遵守嚴格的程序,并要求得出確定的結論(判決),為人工智能研究提供了典型樣本、必要條件和最佳對象,可以成為任其縱橫馳騁的理想試驗場;人工智能法律系統(tǒng)以律師(檢察官)、法官和法學院師生為主要用戶,也具有誘人的市場前景。這些因素都是當前官方和民間新一輪人工智能法律系統(tǒng)熱潮不減的原因。盡管本文所討論的證據(jù)推理和法律解釋的難題會讓一些研究者和投資者頭腦更清醒一些,甚至或許知難而退,但也有可能激發(fā)另一些研究者挑戰(zhàn)這些難題,深入研究人工智能法律系統(tǒng)的關鍵問題和技術。
如果說人工智能研究旨在制造出模擬人類各種智能的機器,那么,人工智能法律系統(tǒng)的研發(fā)目標無疑是要制造出“機器人法官”。那么,什么是判斷人工智能法律系統(tǒng)成功的標準呢?從功能模擬的本質出發(fā),還是采用“圖靈測試”,即在測試者與被測試者(一個人和一臺機器)隔開的情況下,由測試者向被測試者提問,來判斷哪一個是機器?如果測試者分不清哪個是人、哪個是機器的回答,這臺機器便通過了測試,并被認為具有人類智能。顯然,“機器人法官”是否具有人類法官的智能,也可借助法律版“圖靈測試”:由測試者向被測試者(一個法官和一臺機器)提問,如果分不清何者為法官、何者為機器的回答,這臺機器便通過了測試,并被認為具有人類法官的智能。當然,“圖靈測試”存在級別問題,被試人是初中生還是大學教授,對被試機器的測試水平顯然不同。就人工智能法律系統(tǒng)的“圖靈測試”而言,不僅被試人是初任法官還是資深法官不同,而且測試者提出的問題屬于簡單案件還是疑難案件也有重大區(qū)別。
2017年,美國國會議員瑪利亞·坎特維爾(Maria Cantwell)的一份提案提出“人工智能”應該滿足五個特征:(1)所有可在多變且不可控的情況下作業(yè),無需過多人工監(jiān)管,或可自學以往經(jīng)驗、改善表現(xiàn)的人工系統(tǒng)??偟膩碚f,人工系統(tǒng)在其所從事的任務中表現(xiàn)越像人類,就越可稱得上采用了人工智能。(2)可像人類一樣思考的系統(tǒng),如認知架構與神經(jīng)網(wǎng)絡。(3)可像人類一般行動的系統(tǒng),如通過“圖靈測試”或其他利用自然語言處理、知識表達、自動推理、學習等同等測試的系統(tǒng)。(4)如機器學習等模擬認知任務的技術。(5)理智行事的系統(tǒng),如通過洞察、計劃、推理、學習、交流、決議及行動等活動從而完成目標的智能軟件代理及內置機器人。上述關于人工智能的五個特征,可以視為“定性版圖靈測試”。其中,特征(1)“表現(xiàn)越像人類”、特征(2)“可像人類一樣思考”、特征(3)“可像人類一般行動”,繼續(xù)堅持了功能模擬;特征(4)和(5)則把人工智能程序與智能機器人做了大致的區(qū)分,這為人工智能法律系統(tǒng)指明了一條從通過中間產(chǎn)品(智能軟件)輔助律師和法官工作,過渡到簡單案件機器人法官,再向復雜案件機器人法官研發(fā)邁進的分階段研發(fā)的途徑。
“盡管征途有艱險,越是艱險越向前?!比斯ぶ悄苎芯康摹俺跣摹?,決定了人工智能法律系統(tǒng)研究的宗旨是代替法官,并盡可能實現(xiàn)“以假亂真”。
2.人工智能法律系統(tǒng)應用:不能代替法官
人工智能法律系統(tǒng)能否通過“圖靈測試”而具有人類法官智能,與智能機器能否獨立擔任法官是兩個性質不同的問題:前者是技術問題,后者是政治問題。
像科幻電影所描述的那樣,將來有一天走在大街上、坐在辦公室、忙碌在車間里的可能既有自然人也有機器人,人機和平相處。問題是:本文討論的人工智能法律系統(tǒng)的兩個難題將來若能解決,那么,通過“圖靈測試”,能像人類法官一樣思考、一樣行動的“機器人”能否獨立擔任法官?為了進一步澄清這個問題,可把它轉化為兩個子問題:其一,智能機器如果超過科學家,能否獨立擔任法官?其二,智能機器如果超過國王,能否獨立擔任法官?
(1)柯林斯案的啟示:智能機器即使超過科學家也不能當法官
在司法證明科學理論的發(fā)展中,對證據(jù)進行精確概率解釋是一種形式化嘗試。但概率論解釋的問題在于,它只是針對證據(jù)片段,并試圖用假設概率賦值的方法將證據(jù)模型化,這可能得出荒謬的結果。例如,在1968年的柯林斯案中,根據(jù)證人證言,一名白人女性襲擊并試圖搶劫一名老年婦女后,乘一輛非裔美國男子開的轎車從現(xiàn)場逃離。隨后,符合其描述的一名白人女性和一名非裔美國男性被送交審判。檢控方聘請一位概率學家計算了具有證人所描述(并為被告人所具有)特征的任意兩個人的概率后,憑借計算對這兩位在押嫌疑人進行指控。這種做法受到了法學家的廣泛批評。哈佛法學院特賴布教授1971年發(fā)表《數(shù)學審判:法律過程中的精確和禮制》一文,明確反對將任何數(shù)字化概率運用于審判過程。其理由有三:第一,從交流角度說,只要法官和陪審團成員可被假定為不精通數(shù)學,他們就不應當用自己無法理解的語言接收信息;第二,數(shù)學論證很可能過于具有誘導性或產(chǎn)生偏見,那些貌似“硬”的量化變數(shù),很容易排擠那些“軟”的非量化變數(shù);第三,在諸如給無辜者定罪風險之可接受水平等問題上,量化分析在政治上是不適當?shù)摹?/p>
在上述三個理由中,前兩個涉及概率計算的基礎理論和經(jīng)驗有效性問題:一是客觀概率不足以解釋司法證明的性質?!坝嘘P事件在某種確切的情況下,要么發(fā)生過,要么沒有發(fā)生過。我們不能重復實驗一千次,來判定這些事件過去發(fā)生的頻率?!倍侵饔^概率或認知概率論在司法證明中雖具有一定的解釋力,卻忽略了某些重要的心理要素,形式化概率表達并不能完全傳遞信念的豐富內涵。而且,一項主觀概率評估是“無經(jīng)驗可證明為……正確或錯誤的主張”。鑒于此,艾倫教授另辟蹊徑,提出以最佳解釋推論(IBE)或“似真性”(plausibility)理論來取代概率論的精確性解釋。這是一種整體性解釋方法,即不局限于一個個具體的證據(jù),而是關注由證據(jù)拼合出來的整體案情或故事。將最佳解釋推論應用于民事訴訟,事實認定者可以在似真的有責案情與無責案情之間進行比較,原告和被告的故事哪一個更似真(更接近真相),哪一方便應該贏。在刑事訴訟中,根據(jù)無罪推定原則,如果沒有似真的犯罪案情,此人就無罪;如果有似真的犯罪案情,且無似真的無罪案情,此人就有罪。如果既有似真的犯罪案情又有似真的無罪案情,此人就無罪。顯然,似真性或最佳解釋推論用的不是形式邏輯或數(shù)理邏輯的精確量化方法,而是模糊邏輯的方法。
據(jù)特賴布教授反對數(shù)學審判的第三個理由是,在諸如給無辜者定罪風險之可接受水平等問題上,量化分析在政治上是不適當?shù)摹J裁词钦芜m當?就是只能由一個依法設立的獨立而無偏倚的法院,經(jīng)過公正、公開的審判,才能給一個人定罪。這是《世界人權宣言》第十條及《公民權利與政治權利公約》第十四條規(guī)定的內容,其構成了人類對二戰(zhàn)期間法西斯秘密警察濫用刑罰侵犯人權之深刻反思的成果。換言之,法庭審判是法官依據(jù)法律和證據(jù)進行的法律裁判,而不是科學家根據(jù)計算結果進行的科學裁判。既然科學家不能用精確計算來代替法官的法律裁判,那么,智能機器即使超過科學家,也不能獨立擔任法官。
(2)柯克大法官的預言:智能機器超過國王也不能當法官
法官是法律的化身?!胺ü倬褪欠捎删裢鯂M入現(xiàn)實王國控制社會生活關系的大門。法律借助于法官而降臨塵世?!币虼?,通過法學院教育精通法律知識,成為法官的必要條件。17世紀詹姆士一世曾質問英格蘭首席大法官E·柯克,為什么國王本人沒有做出法律判決的資格。他的理由是:法律是基于理性的,而他的推理能力同柯克法官一樣好??驴藢Υ嘶卮鹫f:“不錯,上帝的確賦予陛下極其豐富的知識和無與倫比的天賦;但是,陛下對于英格蘭王國的法律并不精通。法官要處理的案件動輒涉及臣民的生命、繼承、動產(chǎn)或不動產(chǎn),只有自然理性是不可能處理好的,更需要人工理性。法律是一門藝術,在一個人能夠獲得對它的認識之前,需要長期的學習和實踐?!笨驴说脑挵ㄈ龑雍x:第一,法律是理性,不是命令;第二,法律是一種特殊的理性而不是常識、道德哲學的運用和政策分析;第三,只有受過法律訓練、有法律經(jīng)歷的人,即懂得法律的法律家,才能運用這種理性。
其實,法官只掌握法律專業(yè)知識是遠遠不夠的。因為法律只是整個社會生活的一部分,如果不掌握其他人文社會科學知識,如歷史學、政治學、經(jīng)濟學、社會學、哲學,法官就不能從社會生活的整體上把握法律。博登海默指出:“如果對其本國的歷史相當陌生,那么他就不可能理解該國法律制度的演變過程,也不可能理解該國法律制度對其周遭的歷史條件的依賴關系。如果他對世界歷史和文明的文化貢獻不了解,那么他也就很難理解那些可能對法律產(chǎn)生影響的重大國際事件。如果他不精通一般政治理論、不能洞見政府的結構與作用,那么他在領悟和處理憲法和公法等問題時就會遇到障礙。如果他缺乏經(jīng)濟學方面的訓練,那么他就無法認識到許多法律領域中都存在法律問題同經(jīng)濟問題之間的緊密關系。如果他沒有受過哲學方面的基礎訓練,那么他在解決法理學和法學理論的一般問題時就會感到棘手,而這些問題往往會對司法和其他法律過程產(chǎn)生決定性的影響?!痹诜ü俚闹R結構問題上,一些法官和律師的意見更加尖銳,布蘭戴斯法官說:“一個法律工作者如果不曾研究經(jīng)濟學與社會學,那么他就極容易成為一個社會公敵?!贝骶S·保羅·布朗律師更直截了當?shù)卣f:“一個只懂法律的人,只是一個十足的傻漢而已?!?/p>
除了具備合理的知識結構之外,法官還必須擁有健全的思維品質:一是法治理念和法律信仰。他們必須把自己的忠誠首先奉獻于為之服務的法律制度而不是個人或群體,必須從法律規(guī)范的前提出發(fā)開始自己的思維,必須意識到自己的一言一行都代表著法律。二是公正的人格。法官應該是公正的化身。為了實現(xiàn)正義,法官必須將法律規(guī)范和道德規(guī)范作為自己的行為準則,主動排除來自外界的權力干擾和主觀的恣意。三是敏銳的思維。波斯納說:“一個法官,就像一個軍事統(tǒng)帥,進行的是一種‘組合性的’工作。要做好工作,要求有各種品質的組合,而反思的能力只是其中之一,道德洞見是另一種?!?/p>
既然連人類的科學家和國王都不能擔任或代替法官,那么,智能機器即使超過科學家和國王,也不能獨立擔任或代替法官。司法是社會爭端解決的最后一道防線,司法裁決涉及人的生命、自由、財產(chǎn)和人格等權利,關乎人類命運,這最后一道防線還是由人類法官來把守為好,這是“政治適當性”問題的含義所在。因此,如果要給智能機器立法,“不能獨立擔任法官職務”可以成為一條最重要的禁止性規(guī)定。
倫敦大學學院計算機科學系人工智能法律系統(tǒng)項目負責人尼古勞斯·阿特拉斯(Nikolaos Aletras)說:“我們并不認為人工智能會代替法官或律師,但我們認為,在案件快速模式識別方面,它們對導出確定的結果是有用的。”人工智能法律系統(tǒng)的開發(fā)策略應該是“人-機系統(tǒng)”解決方案,一是輔助司法審判,解放律師(檢察官)和法官的腦力勞動,使其專注于復雜疑難案件;二是促進司法公正,缺乏七情六欲干擾的機器判決可以為人類法官的判決發(fā)揮對照作用;三是輔助法學教育和法律培訓。人類法律家與智能機器的統(tǒng)一體的出現(xiàn),將促進司法文明、法學研究和人工智能的共同發(fā)展,具有無限光明的前景。
注釋:
①P·麥考達克:《人工智能早期史(1956年以前)》,《科學與哲學》1981年第6、7輯。
②Avishek Bose and Parham Aarabi, Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization, arXiv:1805.12302v1, May 31, 2018.
③Aharon Azulay and Yair Weiss,Why do deep convolutional networks generalize so poorly to small image transformations? arXiv:1805.12177v1, May 30, 2018.
④邸利會:《沒有神跡,用不著嚇唬,人工智能的真正突破還未到來》,《知識分子》,copyright@zhishifenzi.com。
⑤Buchanan & Headrick, “Some Speculation About Artificial Intelligence and Legal Reasoning”,StanfordLawReview23(1970),pp.40-62.
⑥Models of Legal Decision-making Report, R-2717-ICJ(1981).
⑦Artificial intelligence “judge” developed by UCL computer scientists. https://www.theguardian.com/technology/2016/oct/24/artificial-intelligence-judge-university-college-london-computer-scientists.
⑧參見錢學森:《論法治系統(tǒng)工程的任務與方法》(錢學森致吳世宦函,1981年8月21日),《科技管理研究》1981年第4期;錢學森、吳世宦:《社會主義法制和法治與現(xiàn)代科學技術》,《法制建設》1984年第3期;錢學森:《現(xiàn)代科學技術與法學和法制建設》,《政法論壇:中國政法大學學報》1985 年第3期。
⑨楊建廣、駱梅芬編著:《法治系統(tǒng)工程》,中山大學出版社1996年版,第344—349頁。
⑩趙廷光等:《實用刑法專家系統(tǒng)用戶手冊》,北京新概念軟件研究所1993年。