文/劉艷紅
(作者系中國政法大學刑事司法學院教授;摘自《法制與社會發(fā)展》2022年第1期)
2018年9月,美國國防高級研究計劃局(DARPA)啟動了被稱為“加速第三波”的人工智能探索(Artificial Intelligence Exploration,AIE)項目,探索人工智能類人水平的交流和推理能力,以實現人工智能對新環(huán)境的自適應。自此之后,人工智能的可解釋性成為人工智能領域的一個研究熱點。2019年4月8日歐盟委員會發(fā)布的《人工智能道德準則》(Ethics Guidelines for Trustworthy AI,以下簡稱《準則》),和2021年1月6日歐洲議會和理事會制定的《關于人工智能的統(tǒng)一規(guī)則(人工智能法)并修正某些聯合立法行為》,均從不同程度上對人工智能的可解釋性進行了強調。鑒于人工智能的可解釋性已經成為人工智能推廣和應用以及解決其法律責任問題的前提條件,并成為人工智能研究領域的下一個前沿問題,本文即以人工智能的可解釋性這一全新視角展開對人工智能法律責任問題的探討。
為了避免遭受諸如“你們的哲學家沒有付出哪怕最小的努力去理解非個體的存在和思想”的指責,人類必須主動放下身姿,關注人工智能的“存在與思想”,分析其行為是否具有可解釋性。為了避免人工智能的行為充滿不安全性與不確定性,人類必須主動思考,關注人工智能的可解釋性與可詮釋性,以合理實現對人工智能法律責任的制度安排。
當下學界在探討人工智能的法律問題時,主要圍繞人工智能的權利與義務這對范疇進行,也即討論人工智能是否具有法律地位,能否成為權利的享有者和義務的承擔者。但遺憾的是,這些學說均未有效回答人工智能為何有或者沒有法律地位,為何以及如何承擔法律責任,以至于學界圍繞這兩個問題一直爭論不休,甚至導致人工智能法學研究呈現出“泡沫化”傾向。事實上,確立人工智能的法律地位是為了解決權利能力與義務承擔問題,只要解決了權利與義務問題,也就解決了法律責任承擔問題。“一般性法律與基本權利的交互性影響,系通過解釋與實踐調和的方式來平衡基本權利主體之間的利益,為基本權利的內在限制?!边@意味著,在法哲學層面,權利理論的科學性指標有兩個,一是可解釋性,二是可實踐性。只有具有可解釋性的權利,才具有可實踐性,可解釋性是根本。行為只有具有可解釋性,行為主體才能成為權利主體,才能承擔法律責任,履行法律義務。因此,探討人工智能的法律責任問題,應該基于人工智能行為的可解釋性展開,而不是糾纏于各種不同的主體論與責任理論。換言之,探討人工智能的法律責任問題,應采用權利理論的視角和可解釋性的標準,按此全新路徑來推進對人工智能法律問題的探討。
人工智能作為類人類智能,無論我們是否賦予其主體資格,在解決其法律責任問題時,都必須解釋其是如何行為的。如果人們愿意將人工智能理解為法律科技的核心技術,就意味著“對人工智能的理解是建立人工智能相關法律關系不可或缺的前提條件”。因此,只有人工智能的行為具有可解釋性,人工智能才能與人類主體一樣成為法律責任的承擔主體,否則,不可解釋的行為將會使人工智能成為煉金術或者魔幻,不可言說,不可理解,并最終導致法律責任無法得到精準確立與分配。
法律主體要對自己的行為承擔責任,還意味著需要對人工智能的行為的可解釋性予以法教義學的探討,也即“以人類可理解的術語去解釋或描述人類與人工智能之間的相互交流”。只有通過人工智能行為的可解釋性,才能實現人工智能與人類的交互理解,進而將人工智能發(fā)展為可能的新型責任主體類型。
要解決人工智能的法律責任問題,就必須解決法律適用問題。按照卡爾·拉倫茨的觀點,法律適用“是一種對向交流的過程”,因此,“必須考慮在可能適用的法條之下,由‘未加工的案件事實’形成作為陳述之終局的案件事實,同時也必須考慮在終局的案件事實之下,將應予適用的規(guī)范內容盡可能精確化”。對于人臉識別、醫(yī)療診斷、自動駕駛等領域的人工智能法律責任問題,僅通過結果難以導向對案件事實的全面而終局性的了解,必須經由對人工智能做出的識別、診斷、駕駛等行為的解釋,了解行為過程的全貌,方能找到準確的適用規(guī)范,進而解決人工智能的法律責任問題。法學是探究法的客觀意義的科學,無論是法教義學,還是法解釋學,其內核都是要求對法律規(guī)范進行解釋,解釋者的目光在案件事實與法律規(guī)范之間往返逡巡,最終得出結論。法學的歷史就是法解釋的歷史,自然法學派、概念法學派、自由法學派、利益法學派、社會法學派、歷史法學派、分析法學派等各種學派之間的區(qū)別,無非是在解釋理念與解釋方法上的區(qū)別。探討人工智能法律責任問題的前提在于,必須合理解決人工智能行為的可解釋性,只有運用解釋學的方法進行人工智能法律問題研究,才能使人工智能的行為所產生的事實具有法律上的意義。因為“規(guī)范對于行動具有重大意義”,人工智能的行為無論是適用現有法律規(guī)范,還是適用未來新制定的法律規(guī)范,我們都“必須用解釋學或內在觀點來理解它,盡管我們對于規(guī)范的規(guī)范性基礎有著不同的意見,但使用能夠為人類主體懂得的詞語來理解和解釋顯得尤為必要”。只有對人工智能的行為進行解釋并使其為人類所理解,才能準確適用法律規(guī)范,確立人工智能的法律主體地位及相應法律責任?;诜山忉屗季S,只有將人工智能的“識、判、動、作”亦即自主識別、自動判斷、自主行動以及自主創(chuàng)作的過程予以清晰解釋,才能證立或正當化某一結論。
法教義學的立場認為,“解決一個具體的法律問題,也就意味著將某一法律規(guī)范適用于具體的個案之中,但案件的解決必須建立在理由建構的基礎之上”。這樣的理由,對于人工智能而言,當然是指向AI是如何識別數據并進行判斷進而作出某種決策的,這是決定人工智能能否對自己的行為承擔法律責任的實質性理由。比如,在動態(tài)定價領域,人工智能可以適時根據消費者喜好、商品的市場價格、商品銷量、購物車的停放數量、顧客評價等計算出理想的價格,實現全新的差異化定價。然而,如果因為定價前后不一而引發(fā)顧客對價格欺詐的投訴和索賠,那么,就必須解釋清楚,在人工智能的定價決策過程中是否存在算法歧視。為了避免人工智能不被接受,通過解釋,可以建構人工智能和人類之間的對話機制,從而使人工智能與人類之間具有更強的社會關聯性以及社會可接受性。人工智能的行為只有具有可解釋性,才能使人們對AI的認識達成共識。法律解釋本身就是通過使用特定語言并遵守一定規(guī)則進行言說的方式,促進共識的達成,減少人們在人工智能是否具有法律主體資格以及如何承擔法律責任問題上的分歧。
總之,在人工智能的法律責任問題上,如果人類能夠理解人工智能的決策和行為,那么,對人工智能法律責任的制度安排與評判就會正當而合理?!斑@就意味著,對人工智能的理解是建立人工智能相關法律關系不可或缺的前提條件。”法律責任的承擔意味著行為主體的行為能夠被闡釋和說明。
既然要討論人工智能的法律責任,就必須討論人工智能行為的可解釋性。那么,人工智能的行為是否具有可解釋性呢?如果說人的行為是意識的外在表現,那么人工智能的行為就是算法決策。人工智能具有可解釋性,就是人工智能的行為亦即算法決策能夠被解釋,易言之,就是我們能夠解釋人工智能如何在大數據的基礎上進行算法決策。
人工智能的行為應該具有可解釋性?!稓W盟通用數據保護條例》(General Data Protection Regulation)規(guī)定,使用者應具有“要求解釋的權力”。2021年9月25日,我國國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》第12條規(guī)定,要在算法設計、實現、應用等環(huán)節(jié),提升透明性、可解釋性、可理解性。易言之,人工智能應該具有可解釋性。但隨著AI的研究與應用不斷取得突破性進展,“高性能的復雜算法、模型及系統(tǒng)卻普遍缺乏決策邏輯的透明度和結果的可解釋性,導致在涉及需要作出關鍵決策判斷的國防、金融、醫(yī)療、法律、網安等領域中,或在要求決策合規(guī)的應用中,AI技術及系統(tǒng)難以大范圍應用”。同時,對于人工智能在未來可能主導人類的生活,人類既期待,又恐慌,而恐慌的來源正在于,人工智能的行為似乎不具有可解釋性,AI更類似于一個自循環(huán)的封閉系統(tǒng),無法言說,且難以被理解??山忉屝猿蔀槿斯ぶ悄芗夹g普及的重要因素,也成為決定人工智能在法律場景應用中是否應當承擔法律責任的關鍵因素。
在當下,是否存在一個可解釋的人工智能即XAI?從現有技術來看,人工智能的行為不具有可解釋性。在人工智能領域,輸入數據和輸出答案之間存在著一個不可被觀察的空間,這個空間通常被稱為信息黑箱,正是它引發(fā)出了AI是否具有可解釋性的問題。人工智能“黑箱問題的根源并非人工智能采用了人看不到的方式‘思考’,而是當前人工智能因采取了神經網絡、深度學習等算法而導致數據極其復雜。當前,人工智能科學亦致力于提高數據的可解釋度”。然而事實上,不僅僅是數據的復雜導致了人工智能的信息黑箱問題,人工智能本身的思考方式也確實無法被看到。因此,2020年2月19日,歐盟委員會發(fā)布《人工智能白皮書》,將提高人工智能的可解釋性作為因應下一波數據浪潮的重要內容。盡管學習算法在自然和人類行為領域開辟了新天地,但它們仍被籠罩在神秘之中,“計算機‘吞入’數以萬億的字節(jié),并神奇地產生新的觀點,關于大數據的書籍甚至也避談‘這個過程到底發(fā)生了什么’”。在AI領域,以深度學習為代表的人工智能技術雖然已取得了令人矚目的成就,但如何在機器學習中實現可解釋性的目標,亦即如何“確??梢苑羌夹g性的方式向最終用戶和其他利益相關方解釋算法決策以及任何驅動這些決策的數據”,仍是一個無法得到解決的難題。從當前的研究情況來看,AI領域的研究者已紛紛意識到人工智能的可解釋性的重要性,并已展開了很多研究。比如,有研究提出了評價人工智能可解釋性的若干標準,具體如算法結果具有合理性,算法可被改進,算法能提供學習的啟迪,算法要符合法規(guī)要求等。然而,結果具有合理性以及算法可被改進等評價標準只是針對人工智能進行解釋,而如何實現可解釋性,才是真正的難點。為此,AI領域的研究者又在解釋模型上進行探索。然而,無論科學家如何努力,人們都不得不接受一個并不樂觀的現實,即可解釋性研究還處于初級階段,依然還有大量的科學問題尚待解決?!霸诮忉屇P蜑槭裁从行Ъ叭绾芜\作方面,目前學界的研究還處于非常初級的階段”,“對于可解釋性的本質、研究手段,還未能形成統(tǒng)一認識,未能找到最佳方案”。并且,“不同學者解決問題的角度不同,對可解釋性所賦予的含義不同,所提出的解釋方法也各有側重。迄今為止,學術界對模型可解釋性仍缺乏統(tǒng)一的認識,可解釋性研究的體系結構仍不明確”。毫無疑問,隨著人工智能的發(fā)展,理解和解釋深度神經網絡的深度學習,是未來人工智能可解釋性研究的重要目標。然而,由于人工智能深度學習和算法決策的不可預測性,以及機器自身無法進行言說,我們認為,未來對深度學習可解釋性的研究仍會遭遇瓶頸。人類與機器建立“知其然”且“知其所以然”的人機互動的互信關系,恐難實現,人工智能具有可解釋性,注定是人類不切實際的夢想。
關于人工智能法律責任的全部問題在于,人工智能應否成為法律系統(tǒng)中的法律責任人。人工智能的可解釋性直接決定著人工智能的法律責任的有無,不具有可解釋性的人工智能難以被問責,因此人工智能的法律責任論也應該被否定。
法律責任的本質是答責或者說應答,即“行為人需要對其試試的某些行為作出應答”,“負有責任與自我說明實踐具有本質聯系”,應答法律責任是責任主體的自由意志與決定論的體現。人具有自由意志,“意志自律是一切道德法則以及合乎這些法則的職責的獨一無二的原則;與此相反,意愿的一切他律非但沒有建立任何職責,反而與職責的原則,與意志的德性,正相反對”。這意味著,在實際生活中,人有不受外界約束的意志自由??档轮赋?,人不是根據規(guī)律來行動的,而是根據對規(guī)律的觀念(Vorstellung) 來行動的,人是具有意志的理性生物?!霸谧匀唤缰?,每一物件都是按照規(guī)律起作用。唯獨有理性的東西有能力按照對規(guī)律的觀念,也就是按照原則而行動,或者說,具有意志?!薄叭松砩暇哂幸环N獨立于感性沖動的強迫而自行規(guī)定自己的能力?!焙诟駹栆仓赋觯骸白杂傻臇|西就是意志。意志而沒有自由只是一句空話;同時,自由只有作為意志,作為主體,才是現實的?!边@是自康德和黑格爾以來即已奠定的法律責任論的基石,即人類只對通過自由意志所選擇的行為承擔責任,或者說,人類只對自己所決斷的行為承擔責任。重要的是,對于自身的行為,人類是可以解釋其原因的。因此,以自我決定為根據并可以對決定過程予以解釋的自我答責,是法律歸責的基本原理,“行為人違反‘自我決定’這個一般的實踐原則而設定了任意、行為、結果的統(tǒng)一性時,行為人就應該自己對所發(fā)生的損害后果承擔完全的刑事責任”。當然,這一點在被侵權人或者被害人的行為導致了結果的發(fā)生時除外。人工智能不具有自由意志,從設計到運行,從啟動到結果,人工智能均處于人類指令的操控之下,而非作出自我決定。至于那些脫離人類操控的算法,其又因決策過程的不可解釋性而無法實現對責任的承擔。
總之,責任的本質是應答,而應答即行為人對自己行為的自我答責,它是以自由意志和自我決定為前提的,由于人工智能并不具有自我意志和自我決定,故其無法對自己的行為作出應答。人工智能只對人類輸入的指令有算法反應,對于自己造成的侵權或損害的責任并無認識,更談不上反應,其算法決策行為的不可解釋性意味著其對于責任承擔不可能有任何反應,這導致人工智能的法律責任基礎是不存在的。
確立法律責任,既是為了懲處行為人的違法或犯罪行為,更是為了實現對違法或犯罪行為的預防。如果在法律責任領域一直存在著關于報應主義的懲罰和教育主義的預防之爭,那么,在當下風險社會的現實中,預防主義無疑具有更重要的地位,預防已成為對行為人的行為施加法律責任的主要目的。不具有可解釋性的人工智能無法實現法律責任的預防目的。人工智能的設計者也許能夠說明設計原理和每個環(huán)節(jié)的細節(jié),但沒有人能夠解釋清楚,一旦進入算法決策過程,人工智能是根據什么來作出判斷的。這導致人工智能的諸多錯誤一再發(fā)生,這意味著,不可解釋的人工智能的算法決策錯誤是不可被預防的。如此一來,即便肯定人工智能具有法律責任,對于實現法律責任的預防目的,也是毫無助益的。
讓人工智能承擔法律責任并實現法律責任的預防目的,也許可以通過模型來實現。比如,“在刑事司法領域,人工智能有潛力更好地評估再次犯案的風險,并減少與犯罪和監(jiān)禁有關的成本。但是,當使用刑事判決模型在法庭上預測再次犯罪的風險時,我們必須確保該模型以公平、誠實和非歧視的方式行事”。換言之,如何實現模型本身的公平公正,也是一個問題。模型也是通過科技研發(fā)的產品,其本身也需要得到解釋,故將之應用于解釋人工智能并評估其再次發(fā)生犯罪的可能性,很不現實。而且,就法律行為而言,所有侵權或違法犯罪行為的成立均需要由證據來證明,然而,“我們現在沒有明顯的證據理論來解釋專家機器人產生的結果”,所有人工智能犯罪都是事后的結果,而不是能夠通過證據來解釋的結果,這使得對人工智能違法犯罪的認定極為困難。在人工智能的設計者、程序的編程者、機器人的操作者等當中,如果其中的任何人都能夠代表機器人來解釋人工智能的算法決策行為,那么恰恰說明,機器人缺乏專門的理由或證據來解釋其決策、行為及結果,這給預防侵權或犯罪提出了難題。如果模型的作用有限,那么,為了更好地解釋人工智能的行為并為預防違法犯罪提供良策,是否可以在未來充分發(fā)揮專家機器人的作用?有觀點指出,“為了確保未來的專家機器人能夠在發(fā)生訴訟時充分解釋他們的行為,律師應該與機器人專家合作”。然而,關于專家機器人的期待更多的是一種美好的設想,人類專家可以很好地解釋他們如何執(zhí)行某些任務,但機器做不到,“如果一個機器人不能提供連貫的解釋,它又怎么能發(fā)揮專家的作用呢”?
總之,如果人工智能的決策過程不能如同韋伯式的官僚決策那樣得到理解,那么,現今廣為傳播的預防理論對人工智能來說就是無效的,因為無論是積極的預防理論,還是消極的預防理論,都要求責任主體的行為可以被解釋。唯有如此,才能說明對責任主體適用法律規(guī)范是有意義的?!爸挥小悄苤黧w’的行動被視為‘違反規(guī)范’,才能通過對‘替代者’施以刑罰實現這一目的”,否則,人工智能是不能成為法律責任的適格主體的。
人工智能之所以會做出侵權或損害行為,并非人工智能的設計者通過規(guī)范其設計和部署過程就可以解決,因為在機器人接收所有數據之后,其內部的數據消化吸收與反饋過程會于數秒鐘之內完成,其作出決策的過程并不完全可控,人類設計出的人工智能的行為并非完全按照人的意志去發(fā)展并可以得到解釋。對于不可解釋的人工智能,即便令其承擔法律責任,在下一起事故中,同樣的錯誤或者新型的錯誤仍然不可避免,因為算法是一個黑洞。此外,人工智能的可解釋性還存在著一個話語轉化的問題,即如何將人工智能數學表述式的可解釋性話語轉化為法學話語?“從法學角度看,這種對解釋的要求不可或缺,人們用這種研究方法來探索能夠使應用算法構成一種可擔責行為的必要條件。然而,在轉化時需要注意,對從大數據中獲得的診斷進行解釋與對基于法學知識說理的爭議性結論進行解釋有所不同?!倍@個問題更具有超前性,它是在人工智能的可解釋性問題得到解決之后,人工智能法學研究領域的下一個前沿問題。