王 燕 玲
(華南師范大學 法學院,廣東 廣州 510898)
近年,人工智能體法律問題研究是學術(shù)熱點之一。尤其是ChatGPT問世以后,不少人對強人工智能時代的降臨充滿希冀,這就引發(fā)了人工智能體(1)本文中人工智能體指包含了人工智能技術(shù)(實現(xiàn)人工智能技術(shù))的智能機器人(智能計算機信息系統(tǒng)),為了行文方便,本文也將人工智能體簡稱為人工智能。能否成為刑事責任主體的重要問題。這“不但是只有明確誰應當對人工智能‘失控’行為所造成的危害結(jié)果承擔刑事責任,才能夠以此為基準建立起對于人工智能犯罪治理的法律體系”[1],“更是因為只有確定了刑事責任主體,才可能有針對性地設(shè)置與適用歸責原則與刑罰措施”[2]。以是否承認人工智能體的刑事責任主體地位為標準,目前形成了肯定說、否定說與區(qū)分說[2]。這些學術(shù)爭鳴,整體上仍限于刑法人這一文科群體的法學之視野,尚未能立于人工智能學科基于人工智能技術(shù)原理展開探討。這種脫離人工智能技術(shù)原理,探討人工智能體的刑事責任主體地位的做法,給人以辭令技巧的空轉(zhuǎn)之嫌,也無法為人工智能法學的發(fā)展提供切實有效的理論指導。正如喻海松博士所言,“對網(wǎng)絡(luò)犯罪的研究,遵循先搞清技術(shù)原理再談法律的基本路徑,避免法律論證脫離技術(shù)原理‘自說自話’”(2)參見海喻松《〈網(wǎng)絡(luò)犯罪二十講〉的基本進路》,https://mp.weixin.qq.com/s/lvcWhGhM6loLTTFZHK3UCA,2022年11月10日訪問。。畢竟,人工智能體的刑事責任主體地位的研究應該建立在事實和規(guī)范之上,應該在技術(shù)和法學的一體化上具有邏輯自洽性,而不是純粹化的主觀構(gòu)想?;谶@一問題意識,本文將基于技術(shù)原理和法學理論,采取一體化共視方式,探討人工智能體的刑事責任主體定位。
當前,有不少法律人認可具有自主意志的人工智能體,并承認其具備法律責任主體地位。其主要理由如下。第一,強人工智能體具有辨認能力和控制能力——這一人類所具有的智能,因而具有刑事責任能力(3)有個別學者認為,討論智能機器人具有辨認能力和控制能力,其走入了一個誤區(qū),而應立于社會防衛(wèi)論,創(chuàng)立以人工智能等科技風險為對象的“科技社會防衛(wèi)論”與“技術(shù)責任論”,將人工智能作為獨立的刑事責任主體,對具有實施了危害社會行為的人工智能施以技術(shù)危險消除措施。參見黃云波《論人工智能時代的刑事責任主體:誤區(qū)、立場與類型》,載《中國應用法學》2019年第2期。。有學者認為:“高級階段的智能機器人能夠脫離人類的程序控制而行動,而具備了與人類相同的辨認能力及控制能力,若其在該項自由意志支配下實施了違法行為,則無法再將其作為一項工具而存在,而應將其作為一個具有獨立承擔刑事責任能力的主體認定?!盵3]也有學者認為:“當智能機器人在程序設(shè)計和編制范圍外實施嚴重危害社會的行為時,智能機器人具有辨認能力和控制能力,因而具有刑事責任能力,應當獨立承擔刑事責任。智能機器人與自然人可以成立共同犯罪,這樣處理符合共同犯罪客觀方面、主體方面的要求,有利于解決智能機器人與自然人的刑事責任分擔問題?!盵4]還有學者認為“強人工智能機器人具備刑事責任主體的核心要件一一辨認、控制能力,因此強人工智能機器人能夠成為刑事責任主體?!盵5]第二,強人工智能體可以實施法律意義上的行為。有學者認為,刑法上的行為不一定是“人”的行為,也可以是其他主體的行為?!皩τ谝粋€基于普通故意傷害的被害人而言,被自然人故意傷害與被智能機器人故意傷害并沒有什么本質(zhì)的區(qū)別?!盵6]第三,強人工智能體與人類是平等的主體,兩者之間有主體間性。有學者認為,“當人工智能與人類一樣具有自主意識后,雙方主體就是各自的自在此在和彼此的共同存在,兩個主體之間既是主體,也是客體,在物質(zhì)與精神的交往實踐中表現(xiàn)為主客體的二重性,并且與客觀世界并列存在”[7]。第四,強人工智能體與人類有共情的可能性。有學者認為,“智能機器人擁有人類文明的基本素養(yǎng),懂得人類表達或接受情感的方式,使用人類的語言和文字,擁有與人類相似的體貌特征,它們比動物更理解人類的想法。如果將智能機器人視作奴隸或工具,其社會圖景與奴隸制復活將沒有明顯差異”[8]。
對于上述見解,法學界也有不同聲音。有學者從三個方面否定人工智能體的適格刑事責任主體地位:第一,強人工智能存在難以跨越的技術(shù)瓶頸,無法實現(xiàn)跨界領(lǐng)域的認識能力;第二,無論是內(nèi)生自發(fā),還是外在輸入,人工智能都無法生成意識,因而無法具有自由意志;第三,人工智能不可能具有人類的情感動機,無法體驗犯罪之樂和刑罰之苦, 因而不是適格的受罰主體[9]。也有學者從實然和應然兩個角度否定強人工智能體刑事主體地位,首先,超越編程外的人工智能不能形成自主獨立的程序,無法產(chǎn)生自由意志,也不能產(chǎn)生法規(guī)范意識;其次,承認人工智能體刑事主體地位,將會對傳統(tǒng)刑法理論帶來嚴重沖擊,刑事司法活動無法展開,相關(guān)強人工智能體刑法立法也缺乏必要性和合理性;最后,強人工智能體不能類比單位犯罪。
綜上,強人工智能體具有類人般的智能性是人工智能體具有獨立法律主體資格的決定性因素。如果人工智能體不能具有類人般的智能性,就沒有探討人工智能體的法律資格的必要。
人工智能技術(shù)專家認可人工智能體具有自我意識,具有類人般的智能嗎?中國工程院院士、歐亞科學院院士、中國人工智能學會名譽理事長、軍事科學院系統(tǒng)工程研究院李德毅研究員認為,“新一代人工智能將從傳統(tǒng)的計算機智能躍升為無意識的類腦智能,是人類智能的體外延伸,不涉及生命和意識,由人賦予意圖,通過有指導的傳承學習和自主學習,能夠與時俱進地解釋、解決新的智力問題,形成有感知、有認知、有行為、可交互、會學習、自成長的新一代人工智能——智能機器”“原始的自我意識是低級意識,只有自己本人才能體驗到這種意識的存在,正所謂‘我思故我在’,在此之上,才談得上高級意識或更高級的群體意識”“而要制造出類似人類皮膚這樣敏感的人工感知膜、電子皮膚甚至量子皮膚,還來日方長,也許要一百年”“對于高等生物而言,意識和智能是智慧的基礎(chǔ)”“新一代人工智能不觸及意識”“當前的人工智能都是專設(shè)智能,它們只能按照程序員的設(shè)定,完成特定的任務目標”[10]。國際核能院院士、中國人工智能學會不確定性人工智能專委會主任張勤教授指出,“事實上,計算機只能執(zhí)行人事先設(shè)定的程序(包括算法和數(shù)據(jù)),不具有真正意義上的智能,至少目前如此”。人工智能和人“一個顯著的區(qū)別是:人能夠通過自我意識理解事物,而計算機沒有自我意識,也理解不了事物(缺少理解主體)。從這個意義上講,學習(Learning)這個詞用在計算機上是不恰當?shù)?。擬合(Fitting)更準確,但不夠吸睛”[11]。中國工程院院士、清華大學信息學院院長戴瓊海教授指出,“人工智能的問題所在——難以理解場景與對象間的關(guān)系,人工智能能干成年人干的活,但理解能力不如一歲的孩子”(4)參見戴瓊海《人工智能未來的理解與創(chuàng)造》,http://aiig.tsinghua.edu.cn/info/1296/1551.htm,2022年11月6日訪問。。在2022年11月6日第五屆世界頂尖科學家論壇開幕式上,首屆世界頂尖科學家協(xié)會獎“智能科學或數(shù)學獎”得主——美國計算機科學與統(tǒng)計學家邁克爾·I·喬丹在其主旨演講中認為,“到目前為止,計算機還不能像人類一樣進行思考,因為人類是很復雜、精妙的”“‘機器學習’是讓計算機輔助人類,而不是開發(fā)一個和人類一樣的‘類人計算機’,是把人和人、人和市場、人和物件等聯(lián)系起來”(5)參見《“機器學習”將如何影響我們?首屆世界頂尖科學家協(xié)會獎得主這樣說》,https://view.inews.qq.com/k/20221106A03UW300,2022年11月8日訪問。。在2022年10月22日“智行中國”系列論壇第一期“邁向教育科學研究新范式”上,美國科學院院士、中國科學院外籍院士、世界著名數(shù)學家丘成桐在其主旨演講中認為,DeepMind(6)DeepMind位于英國倫敦,是由人工智能程序師兼神經(jīng)科學家戴密斯·哈薩比斯(Demis Hassabis)等人聯(lián)合創(chuàng)立的Google旗下前沿人工智能企業(yè)。其將機器學習和系統(tǒng)神經(jīng)科學的最先進技術(shù)結(jié)合起來,建立強大的通用學習算法。的工作確是人工智能進展的里程碑,“開始可以解決一些比較理論的問題,但是離人類思考的能力還是相當?shù)倪b遠”“到目前為止,人工智能還沒有能力問一個既有意義又有深度的問題”(7)參見丘成桐《人工智能與學“問”》,https://m.sohu.com/a/602657176_121119002,2022年11月8日訪問。。如肯定論者常引用2017年10月被沙特阿拉伯授予公民身份的智能機器人索菲亞,將其視為AI挑戰(zhàn)現(xiàn)行法律體的個例。對此,李開復先生評論道,索菲亞“絲毫沒有人性、人的理解、愛心、創(chuàng)造力。授予這樣一臺只會模式識別的機器‘公民’,是對人類最大的羞辱和誤導。一個國家用這種嘩眾取寵的方式來推進人工智能科研,只會適得其反”[12]。還有專家評論道,“索菲亞之于AI,就像變戲法的之于真正的魔法,我們把它稱作‘AI崇拜’‘假冒AI’或者‘遠程操控AI’可能比較好”(8)同上注。。
以智能司法為例,我國刑事司法人工智能走在世界前列,各地積極研發(fā)、應用刑事司法人工智能系統(tǒng),幾乎實現(xiàn)對刑事訴訟流程的全覆蓋。此類司法智能系統(tǒng)大致可以分為:智能輔助決策應用系統(tǒng)(如智能輔助量刑系統(tǒng))、智能輔助支持系統(tǒng)(如智能類案檢索系統(tǒng))、案件管理應用系統(tǒng)(如智能案管系統(tǒng))、訴訟服務應用系統(tǒng)(智能訴訟服務平臺)。人工智能技術(shù)的深入運用,實現(xiàn)了以往司法難以完成的任務。例如,智能輔助量刑系統(tǒng)可以解決量刑規(guī)則不明確的問題,有力推進量刑規(guī)范化,因而實務部門提出,要進一步提高量刑智能化水平(9)參見陳學勇《更高水平推進量刑規(guī)范化工作》,https://www.chinacourt.org/article/detail/2020/11/id/5562775.shtml,2020年11月7日訪問。,加強智慧檢務建設(shè),增加法律檢索、類案分析、量刑輔助等功能(10)參見《最高檢張軍檢察長向全國人大常委會作認罪認罰從寬制度適用情況報告》,https://mp.weixin.qq.com/s/PvUjrNntddwcYfAGrHkfIA,2022年10月14日訪問。。又如,實時從海量司法數(shù)據(jù)中發(fā)現(xiàn)問題,實現(xiàn)全程、自動、靜默和可視化精準監(jiān)管(如量刑偏離監(jiān)測),這將大大提升監(jiān)管的質(zhì)效。這都表明,將人工智能、大數(shù)據(jù)挖掘等技術(shù)和政法專業(yè)知識深度融合,就不同監(jiān)管場景研發(fā)所需系統(tǒng),智能化監(jiān)督手段,是實現(xiàn)案件管理監(jiān)督能力現(xiàn)代化必然選擇(11)筆者主持研發(fā)的《智能量刑偏離監(jiān)測系統(tǒng)》,可有效監(jiān)測宏觀的案件量刑偏離情況以及微觀的個案量刑偏離程度,受到司法實踐的高度認可,獲全國政法智能化建設(shè)智慧檢務創(chuàng)新產(chǎn)品稱號。?!拔磥響敱忠匀藶楸?、技術(shù)賦權(quán)理念,重塑人機關(guān)系新格局下的價值取向和行為準則,遵循法律公平正義的價值追求,構(gòu)建人機協(xié)同司法治理新格局?!盵13]若持人工智能體具有自主意志因而具備認識和控制能力這一觀點,那人工智能的司法應用將受到極大壓縮——擔憂司法被人工智能所操控,形成脫序的裁判。不過,從技術(shù)層面上看,這種擔憂是不合理的,因為人工智能只能輔助保障司法,而不會主宰操控司法。“在這樣的現(xiàn)代法治體制面前,大數(shù)據(jù)、云計算、信息技術(shù)、人工智能都只是實現(xiàn)合法正義的輔助手段,切不可本末倒置?!盵14]
綜上,在技術(shù)原理上,人工智能專家們就人工智能體的智能性定位可以總結(jié)如下。第一,人工智能系統(tǒng)是計算機系統(tǒng),屬于物理機器的一部分,不是人工創(chuàng)造出的生命。從進化論的角度來看,無機物先進化為有機物,再到無智能的生命體以及有智能的生命體。對尚不具有生命的物賦予主體資格,不符合進化論的基本規(guī)律。第二,形成人類智能的一個條件是具有自我意識,即能對自身存在的感知,以及對自己行為和驅(qū)動行為原因的感知,而這種意識不可以人造(只有誕生人工生命之后,也許才談得上人工意識)。人工智能體沒有自我意識,這是它和人的根本性區(qū)別,因而它理解不了周圍的事物。第三,人工智能技術(shù)或者系統(tǒng),是對人腦智能的模擬,是人類智能的體外延伸,但其智能水準和人類的思考能力相距遙遠。雖然在特定領(lǐng)域人工智能體展現(xiàn)出遠超常人的數(shù)據(jù)處理能力(如圍棋等棋類游戲),但是,就知識的綜合能力來看,人工智能體則顯得格外薄弱,如跨領(lǐng)域的知識匯總、提煉、創(chuàng)造能力,更沒有對人類感情的理解能力。所謂類人般的智能,至今仍是遙不可及。由此可見,在人工智能專家們的眼里,人工智能系統(tǒng)僅為對人類智慧的模擬,本身并不具有人類所具有的自我意識,而意識是主體內(nèi)在能動的自我認識和自我控制的基礎(chǔ),因此,人工智能體不具有類人般的辨認能力和控制能力,其本質(zhì)仍屬于受人類操控的物理世界的機器。
由于ChatGPT的誕生,因此,不少人認為強人工智能時代的出現(xiàn)已經(jīng)并不遙遠,并以作為強人工智能體具有刑事責任主體地位的重要論據(jù)[15]。誠然,ChatGPT所應用的大語言模型在模擬人類思維方面已經(jīng)取得巨大的進步。但是,這種模擬也是在人類現(xiàn)有語料填充下的訓練結(jié)果。從整合資料到富有創(chuàng)造性的獨立思考之間究竟還有多遠的距離,沒有人能夠給一個時間表。至于這一天能否會到來,實際上也是個未知之數(shù)。因此,有學者指出,“強人工智能不過是一種虛構(gòu)的擔憂”[16]。更何況,即使強人工智能體真的出現(xiàn),那時也可能發(fā)生不可想象的變化。現(xiàn)行刑法理論體系是否仍然能夠適用,也成為問題。更何況,在強人工智能體具有人類的思維能力的情況下,其是否還會與人類和平共存,也大有疑問。從國際關(guān)系的發(fā)展經(jīng)驗來看,同為人類,但不同國家和民族之間的沖突都此起彼伏。人類與強人工智能體的沖突似乎難以避免。從這個角度來看,是否應當讓脫離人類控制的強人工智能體出現(xiàn),更為緊迫。因此,在強人工智能體真正出現(xiàn)之前,就去討論其刑事責任主體問題,實在有點不著邊際。
由以上可見,從技術(shù)角度,人工智能專家們基于技術(shù)實現(xiàn)的原理以及自我意識實現(xiàn)的精細化與復雜性,否認了人工智能體的存在,而部分法學專家則從邏輯推理中論證并肯定了人工智能體的存在。從技術(shù)原理視角看,上述肯定論者的觀點當前缺乏事實及技術(shù)實現(xiàn)的依據(jù),脫離人工智能的本質(zhì),屬于假設(shè)性理論構(gòu)想。換言之,肯定論者對“智能機器人具有辨認能力和控制能力”這一論斷,缺乏事實層面的追問——智能機器人具有辨認能力和控制能力的事實根據(jù)是什么?目前及以后的技術(shù)實現(xiàn)是否具有可行性?應該如何實現(xiàn)?當然,盡管法學研究應具有適度的超前性(預見性),但這種超前性仍應有現(xiàn)實基礎(chǔ),否則易滑入“幻想”境地。在技術(shù)原理上,人工智能專家認為人工智能只是人類智能的模擬,沒有自我意識,屬于物理機器范疇——自我意識不可以人造(只有誕生人工生命之后,也許才談得上人工意識)。因此,可以認為肯定論者這種假設(shè)性理論構(gòu)想,當前缺乏技術(shù)原理上的現(xiàn)實基礎(chǔ)。
(強)人工智能體具備了自我意識,能就其外部環(huán)境主動性地進行自我辨認并控制自己的行為,可以達到人類的刑事責任能力程度的智能水平,因而人工智能體能夠具備法律主體資格,如成為刑事責任主體。但是,這個邏輯顯然難以成立。刑事責任能力作為責任要素,不僅僅具有事實性,還具有規(guī)范性。關(guān)于刑事責任能力的意義,在學界曾有爭議。根據(jù)新派的社會防衛(wèi)論,對行為人適用刑罰只需要考慮特殊預防的必要性,而不用考慮行為人是否具有責任能力。但是,這種觀點被認為是對人權(quán)和自由的踐踏,不為我國刑法所采納。也就是說,以責任能力作為犯罪要素,是出于保障人權(quán)的一個規(guī)范性判斷。假如刑法的目的只是特殊預防,就沒有必要再去討論責任能力的問題。因此,所謂“強人工智能體具有責任能力”的命題,其實是跳躍了一個重要的判斷前提,即是否需要保障人工智能體的人權(quán)。如果認為,承擔刑事責任的關(guān)鍵在于行為主體能夠意識到自身行為的社會屬性并在自我意志控制下實施行為,那么,在技術(shù)實現(xiàn)不可行的情況下,由于人工智能體沒有自我意識,則談不上意識到自身行為的社會屬性并在自我意志控制下實施行為的這種能力。這種缺乏刑法評價意義上的行為認識與控制要素的自主性(刑事可答責的基礎(chǔ)),不能認定為具有刑事責任的適格主體。不過,認為刑事責任主體的適格要求并不是主體的認識能力和控制能力,即并不需要其有自我認識意識這一前提要素,如刑罰可施于動植物,這一觀點已不被現(xiàn)代刑法及其理論所認可。當然,有個別學者認為,討論智能機器人具有辨認能力和控制能力,其走入了一個誤區(qū),而應立于社會防衛(wèi)論,創(chuàng)立以人工智能等科技風險為對象的“科技社會防衛(wèi)論”與“技術(shù)責任論”,將人工智能作為獨立的刑事責任主體,對具有實施了危害社會行為的人工智能施以技術(shù)危險消除措施[17]。筆者認為,這一觀點只是借刑法之名,行技術(shù)措施之實。若將技術(shù)危險消除措施納入刑罰圈,無疑極大地泛化了刑法,可能會導致刑法名存實亡。當前技術(shù)危險消除措施,可謂俯拾皆是;換而言之,基于“科技社會防衛(wèi)論”與“技術(shù)責任論”,將技術(shù)危險消除措施納入刑罰圈,從而將人工智能體作為獨立的刑事責任主體,事實上混淆了刑法和其他技術(shù)危險消除措施規(guī)范的界限。
支持人工智能體可以具備刑事責任主體資格的學者,就其對應的刑罰措施也進行了深入構(gòu)建。如劉憲權(quán)教授認為,智能機器人不享有財產(chǎn)權(quán),不享有參與政治生活的權(quán)利,不存在“人身權(quán)”,不具有生命,我國刑法規(guī)定的主刑(管制、拘役、有期徒刑、無期徒刑、死刑)和附加刑(罰金、剝奪政治權(quán)利、沒收財產(chǎn)),不能滿足人工智能時代對智能機器人的特殊處罰需求,適用于智能機器人的刑罰可以有三種,即刪除數(shù)據(jù)、修改程序、永久銷毀[4]。又如,盧勤忠教授認為,“強人工智能時代應采取新型社會責任論,強人工智能機器人承擔刑事責任的基礎(chǔ)是其對人類社會造成的威脅。在強人工智能時代,應通過刪除數(shù)據(jù)、修改程序和永久銷毀等契合強人工智能機器人特征的刑罰處罰方式來實現(xiàn)刑罰報應和預防的雙重目的”[5]。再如,有學者認為,若賦予人工智能產(chǎn)品刑事責任的主體地位,則可以考慮報廢、回收改造、罰金等特殊的刑罰措施,報廢是對人工智能產(chǎn)品最嚴厲的處罰措施,回收改造人工智能產(chǎn)品可以考慮回收、中斷智能程序?qū)ζ溥M行改造,罰金是對實施情節(jié)輕微犯罪的人工智能產(chǎn)品的不錯選擇[3]。與此類似,哈佛大學法學院萊西希教授認為,規(guī)制智能機器人時,結(jié)構(gòu)程序規(guī)制極具針對性,對機器人進行編碼是我們調(diào)節(jié)它們的大門,結(jié)構(gòu)程序規(guī)制可謂是對癥下藥的特別處罰措施[18](以下行文,刑罰措施均指上述論者提倡的針對智能主體的處罰措施)。筆者曾經(jīng)也認為,以強人工智能產(chǎn)品為對象,在設(shè)計具體的刑罰措施與體系時,刪除數(shù)據(jù)、修改程序、永久銷毀是一種具有可行性的選擇[19]。對此,如今在技術(shù)和法學共視下,不免存在這樣的疑問。一方面,“刪除數(shù)據(jù)”之類的措施,是否真的為刑罰方式?刑罰的本質(zhì)在于報應,目的在于預防。所謂報應,對于犯罪行為,需要施以嚴厲程度對等的刑罰措施,從而使受到破壞的法秩序得以恢復。就此而言,“刪除數(shù)據(jù)”等措施不可能限于與人工智能體因故障所造成的損害范圍,也就不能貫徹報應的要求。另外,“刪除數(shù)據(jù)”等措施也不可能實現(xiàn)一般預防的目的。所謂一般預防,是指通過刑事立法以及刑罰的適用,防止一般人以及潛在的犯罪人實施犯罪行為。如果“刪除數(shù)據(jù)”等措施要有一般預防功能,就需要讓一般人工智能體由于這些措施的實施而感到“恐懼”或者產(chǎn)生“對法忠誠”的積極情感。這無論如何都有點不可思議。那么,刪除數(shù)據(jù)等措施就剩下特殊預防功能。也就是說,通過刪除數(shù)據(jù)等措施,防止人工智能體再次出現(xiàn)故障或者失靈并由此造成損害。這就與對精神病人實施的保安處分措施無異。因此,所謂刪除數(shù)據(jù)等措施不符合刑罰的基本特征。另一方面,刑罰是懲罰,對犯罪人會帶來痛苦,那智能機器人能否感受“刪除數(shù)據(jù)”等措施的“痛苦”?痛苦是主體的神經(jīng)系統(tǒng)對外在環(huán)境不利因素的應激反應。刑罰中的痛苦有三重意義:一是讓犯罪人感受痛苦,使其記住刑罰的教訓,不再重蹈覆轍;二是讓一般人和潛在的犯罪人預測犯罪行為帶來的痛苦,從而遏制其實施犯罪的意識;三是激發(fā)有關(guān)痛苦的通感,從而將刑罰控制在人道合理的范圍。顯然,人工智能體沒有生命,也就無法發(fā)展出可以感知痛苦的神經(jīng)系統(tǒng)。那么,刪除數(shù)據(jù)等措施對于人工智能體而言就不可能成為一種令其痛苦的手段,也就不能納入刑罰的范疇。
既然“刪除數(shù)據(jù)”等措施不能納入刑罰范疇,那么,在強人工智能還未明朗的背景下討論這些刑罰措施是否屬于科幻式探討?“刪除數(shù)據(jù)”等是部分學者在當前弱人工智能時代所想象的刑罰措施。但是,這些措施的適用對象是強人工智能體。那么,當前的想象恐怕沒有實際效用。如果真的如部分學者所言,強人工智能具有辨認與控制能力,那么,人工智能體的自我學習已經(jīng)是正常運行的程序,智能體對于何時可以干預程序,能否啟動程序修改等簡單的編程代碼已經(jīng)具有了智能化的識別并可以通過強智能化手段進行判斷和干預,所謂的刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰措施還能存在嗎?尤其是強人工智能體被界定為不受人類束縛的主體,以其強大的數(shù)據(jù)處理能力,對于人類的生存而言已是極大的威脅。如果強人工智能體已經(jīng)擁有不受控制的智能,就很難想象其會服從人類律法。到了那時候,究竟是強人工智能體制裁人類還是人類制裁強人工智能體,尚屬未知之數(shù)。因此,所謂“刪除數(shù)據(jù)”等刑罰措施基本上是有限想象力下的一廂情愿。
現(xiàn)代刑法理論認為,刑罰具有針對性和懲罰性;如現(xiàn)行刑法中的刑罰種類,都是針對人類具有的某種權(quán)益進行剝奪,使其遭受痛苦。暫且不論懲罰性,刪除數(shù)據(jù)、修改程序、永久銷毀此類措施,對智能機器人是否具有針對性(特定性)。若回答是否定的,在技術(shù)層面上,將這些措施理解為機器維修更為妥當。
一方面,刪除數(shù)據(jù)、修改程序、永久銷毀等措施,根本不具有對智能主體的針對性。今天大眾使用的計算機、各種軟件和電子設(shè)備等,對其進行數(shù)據(jù)刪除、程序修改、銷毀回收等,這再稀松平常不過。事實上,自人類社會進入電子工具時代,工具中各種電子部件的維修,無不包含增刪數(shù)據(jù)、修改程序、永久銷毀(更換新硬件);若再向前推,對農(nóng)耕馬車、蒸汽機車之處理,也包含永久銷毀。因此,刪除數(shù)據(jù)、修改程序、永久銷毀等措施,在智能時代仍應視為是一種機器維修手段,是人類維護所使用工具行為的自然延續(xù)。另一方面,刪除數(shù)據(jù)、修改程序、永久銷毀等措施,盡管可能是法定措施,但其仍然應該理解為是一種基于產(chǎn)品監(jiān)管而采取的技術(shù)處置措施。例如,汽車產(chǎn)品召回制度,規(guī)定了法定的要求和程序,由缺陷汽車產(chǎn)品制造商承擔消除其產(chǎn)品缺陷的義務;這里的“消除”就包括對汽車部件的刪除數(shù)據(jù)、修改程序、永久銷毀等措施。至于制造商采取何種維修汽車的方式,則取決于實際所需,根本不需要什么法律上的正當化根據(jù),更無需依司法程序予以實施。因此,即使針對智能主體的刪除數(shù)據(jù)、修改程序、永久銷毀等措施具有法定性,也只是一種行政管理手段,而非懲罰性措施。就此,正如冀洋博士所言,肯定人工智能體刑事責任主體地位的學說,將簡單問題復雜化之后,自我織造出“‘刑罰——非刑罰’的悖論:以設(shè)計新刑罰為目標,而最終提出的‘刑種’只是人們在設(shè)備養(yǎng)護上的三項常規(guī)操作而已,不具有絲毫的刑罰實質(zhì);以刑法為出發(fā)點,最終將刑法變?yōu)榧夹g(shù)管理法甚至‘機器維修手冊’(能修就修,不能修就報廢)”[20]。也正如皮勇教授所言,探討智能主體的刑罰制度,需保持刑法體系的協(xié)調(diào),否則,“不僅會破壞刑法體系的系統(tǒng)性,處罰人工智能系統(tǒng)的規(guī)定在本質(zhì)上不是刑法,而是人工智能系統(tǒng)處置法”[21]。
因此,所謂對強人工智能體適用的刑罰措施只不過徒有刑罰之名,在本質(zhì)上來講只不過是行政管理或技術(shù)管理的措施而已。將這些措施冠以刑罰之名,反而會造成諸多問題。首先,會嚴重浪費司法資源。刑罰作為最為嚴厲的懲罰措施,有著最為嚴格的適用程序。按照刑事訴訟規(guī)則追究強人工智能體的刑事責任,就需要賦予其與自然人對等的辯護權(quán)利,甚至要適用非法證據(jù)排除規(guī)則。實際上,就連強人工智能責任主體論者也不會認同這一做法。其次,如果承認強人工智能體的刑事責任主體地位,就相當于將其視為犯罪人。犯罪人也是人,應當有人權(quán)?!靶谭ú粌H是善良人的大憲章,還是犯罪人的大憲章?!币虼?出于保障人權(quán)的刑法基本原則,不能對強人工智能體適用違反人道主義的刑罰。那么,刪除數(shù)據(jù)、修改程序和永久銷毀等措施是否屬于特別殘忍、侵犯強人工智能體的人權(quán),就存在疑問。但對此問題,強人工智能責任主體論者似乎并不關(guān)心。再者,刪除數(shù)據(jù)、修改程序、永久銷毀等措施在當前這個非強人工智能時代司空見慣,但強人工智能時代的機器人是何等模樣,其技術(shù)處置有哪些,目前基本靠“猜”。然而,今天非強人工智能時代的措施能否適用于將來強人工智能時代,或者將今天的措施套接在未知的智能時代,會不會是一種良好愿望下的“時空錯位”?如,奴隸時代的炮烙套接今天的死刑顯然不妥,罰金刑也未曾出現(xiàn)在奴隸時代刑罰的體系中。
若認可刪除數(shù)據(jù)、修改程序、永久銷毀等措施,可以作為智能主體的刑罰方式,但是否有必要進一步推敲:這些措施對智能主體可行嗎?例如,智能主體憑什么“束手就擒”甘愿被刪除數(shù)據(jù)?刪除的數(shù)據(jù)難道智能主體不能自我恢復嗎?同理,修改程序、永久銷毀為什么可行?
肯定智能主體的學說認為,智能主體具有刑法意義上的認識和控制能力,確認其刑法主體,有利于刑法的一般預防。如劉憲權(quán)教授認為,“人工智能時代的到來使得我們不得不警惕人類設(shè)計和編制的程序無法完全控制住‘頭腦’越來越發(fā)達的智能機器人的行為,智能機器人完全可能按照自主意識和意志實施嚴重危害社會的犯罪行為”,在這種情況下,“智能機器人完全具有獨立的辨認能力與控制能力,可以成為刑事責任主體并需要承擔刑事責任”[22]。又如學者王耀彬認為:“首先,類人型人工智能實體相較于動物、單位與自然人的相似程度更高,包含了法律設(shè)定主體的本質(zhì)要素——理性,并具備了侵犯法益的可能性,從而增強了賦予其刑事責任主體地位的必要性;其次,從刑法內(nèi)部構(gòu)成的教義學層面分析,類人型人工智能實體具備刑法上的認知控制能力及受刑能力,能夠成為刑事責任主體,以預防智能犯罪,遵從刑事責任主體基本內(nèi)涵的統(tǒng)一性與罪責自負原則。”[23]
基于上述肯定論,可以推斷:強智能主體,無論在其心智智力(算力),還是物理體力上(機械力),均遠超人類,和人類完全不在一個數(shù)量級;人類所能設(shè)想到的所有可能的懲罰性措施,均應在智能主體的掌控之中。若是如此,智能主體既然懂得趨利避害,自然有所防備。當前構(gòu)想的刪除數(shù)據(jù)、修改程序、永久銷毀等措施,實施中可能都會成為泡影。例如針對刪除數(shù)據(jù),智能主體會自我備份;即使刪除某一智能主體的特定數(shù)據(jù)(包括備份),它仍然可以向其同類復制相關(guān)數(shù)據(jù);再者,在萬物互聯(lián)的智能時代,智能主體的數(shù)據(jù)以什么形式、保存何處,共享到什么程度,都只屬于今天人類的科幻構(gòu)想。當然,肯定論者可以認為,人類可以通過物理強力控制單一智能主體,強行切斷其聯(lián)網(wǎng)功能,進而清洗式刪除其數(shù)據(jù)。然而,按論者的觀點,智能時代的物理力可能早已被智能主體所操控,我們又怎么能指望利用甲智能主體去控制乙智能主體呢?畢竟甲乙是同類,和人類是異類。再如,銷毀措施也同樣不可行,一方面智能主體可以通過流水線生產(chǎn),銷毀某一個還有千千萬萬;另一方面智能主體完全可以自我克隆,形成真身千千萬萬?!凹词故顷P(guān)閉甚至刪除人工智能系統(tǒng),也不同于自然人的死亡,因其能以完全獨立的信息運行狀態(tài)‘復活’?!盵21]
若上述推斷合理,那么刪除數(shù)據(jù)、修改程序、永久銷毀等措施,可以理解為,是肯定論者站在今天這個非強人工智能時代下的“時空錯位”的構(gòu)想。另外,在肯定論者認為的類人型人工智能體具備刑法上的認知控制能力及受刑能力之時,在筆者看來,這也是人類臣服于機器人之時;易言之,此時的智能主體已成為一個新的超強物種,因其超強的智力水準和物理體力,可以秒殺一切人。此時,人類已喪失創(chuàng)設(shè)針對智能主體之刑罰的資格,如何委屈保全不被團滅才是上策。
筆者并不否認未來會出現(xiàn)強人工智能時代,但無論這一智能時代下的智能主體是為人類所用之缺乏認知控制能力的機器,還是利用人類的具有認知控制能力的新物種,在技術(shù)層面上,它都不享有當下人類社會刑法意義上的刑事責任主體的資格——前者可以歸入機器,后者可以視為新物種??隙ㄕ撎岢膭h除數(shù)據(jù)、修改程序、永久銷毀等措施,恰恰是智能主體不具有刑事責任主體資格的前提,才具有可行性;否則,人類的一切措施,都是自我約束的保全之策。
總之,所謂對強人工智能體的刑罰措施既無現(xiàn)實意義,也面臨刑罰正當性的困境,實不可取。
如上所述,“刪除數(shù)據(jù)”之類的“刑罰”措施,是基于當下機器維修之舉,來構(gòu)建未來智能時代的刑罰措施,本身就具有時空錯亂的盲目性,和對智能機器刑事主體資格的反噬、否定性,近乎于科幻構(gòu)思。然而,法學不是法預測學,更不是法命理學。法學研究應該建立在事實和規(guī)范之上,應該具有邏輯自洽性;天生犯罪人說也是以頭骨為依據(jù)。就此,筆者贊同劉艷紅教授的如下論述:“如果說‘我們即將迎來人工智能時代’、自主思考的強人工智能就在‘明天’,那么我們離這個‘明天’究竟有多近?連科學家都不知道這個‘奇點’何時來臨,法學家又具有何種特異功能參透AI的未來禪機?對人工智能相關(guān)事務的法律規(guī)制尚需要我們積累更多的生活樣本,創(chuàng)建一些只適用于遙遠未來的理論、制定一些只沉睡在法典里的條文將比當前的‘象征性立法’更加浪費資源,因為這種‘立而不用’是名副其實的‘空談’?!盵24]當然,我并不反對法律的前瞻性,但對未來的前瞻應當以當下的社會現(xiàn)實為基底。在弱人工智能的技術(shù)規(guī)則都尚不明確的情況下,就去構(gòu)建強人工智能時代的刑事責任體系,無論如何都有點不切實際。用一個不恰當?shù)谋扔?強人工智能時代到來在概率上并不比外星人降臨地球高出多少?;孟雽娙斯ぶ悄荏w適用刑罰,還不如考慮一下如何規(guī)制外星人竊取地球資源。
另外,刑法上行為人的主體資格強調(diào)行為人的刑事責任能力,即行為人對自己行為所具備的,是否認識到自己的行為違法或有害社會,甚至是否認識到行為在刑法上的性質(zhì)、意義、作用和后果,并基于這種認識決定自己是否以行為觸犯刑法的能力[25]??梢哉J為,在各部門法中就自然人而言,整體上刑法對行為主體資格的認定最為嚴格。因此,退一步看,在其他部門法尚且不認可智能機器的“主體”資格的情形,刑法更無必要自告奮勇地承認其“主體”資格。同時,刑法學研究重心應當是解釋、回應以及致力于解決當下最關(guān)切、最迫切需要解決的社會問題,對那些實實在在已經(jīng)發(fā)生、正在發(fā)生、馬上要發(fā)生,而又沒有得到解決、解決得不好的社會問題,拿出真功夫深入研究,創(chuàng)造具有本土特色的刑法教義學知識。以自動駕駛為例,當前已經(jīng)發(fā)生了多次事故。這些事故能否在刑法上進行歸責,至今仍有諸多疑問。又如,在一次國際象棋比賽中,人工智能棋手因小孩犯規(guī)而夾住其手指致其受傷(12)參見《國際象棋機器人夾斷7歲男孩手指,對人工智能技術(shù)敲響警鐘!》,https://baijiahao.baidu.com/s?id=1740037779439460321&wfr=spider&for=pc,2022年11月11日訪問。,那么,責任如何分擔,也是個問題。對這些問題進行深入研究,比起構(gòu)建全自動汽車的刑事責任模型明顯更有價值。
在技術(shù)上,智能的實現(xiàn)可以脫離自我意識,無需生命載體,即其可以物化。對此,李德毅院士指出,“意識和智能是可以分離的。在計算機上表現(xiàn)出的計算智能就是一個極好的例子,計算機沒有意識。人類智能的發(fā)展史就是動力工具的發(fā)明史,動力工具是人的體力的體外延伸,如發(fā)明發(fā)動機、輪子、汽車、飛機可延伸人的出行范圍。而人工智能是人類智能的體外延伸,如發(fā)明油燈、電燈、望遠鏡可提升人的視力,發(fā)明算盤、計算尺、計算機可延伸人的計算力,發(fā)明駕駛腦可代替駕駛員的駕駛認知。人工智能的發(fā)展史表明人工智能可以脫離意識而存在”[10]。這種具有物化智能的機器人極大地擴展了人類的能力,大幅提升社會生產(chǎn)力和效率,在其不具有刑事責任主體資格的前提下,如何促進安全可信可控的人工智能技術(shù)研發(fā)與應用場景,確保人工智能始終朝著以人為本、科技向善的方向健康發(fā)展,這是刑法所面臨的新問題。
2022年11月10日,世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會的人工智能與數(shù)字倫理論壇上,與會中外嘉賓圍繞“人工智能的產(chǎn)業(yè)方向與倫理取向”展開討論。中國科學院院士張鈸指出,“無論是有意的濫用、還是無意的濫用,都要重視,我們必須對人工智能的研究、開發(fā)、使用進行嚴格評估和科學監(jiān)管”。之江實驗室主任、中國人工智能產(chǎn)業(yè)聯(lián)盟副理事長朱世強指出,“人工智能是人類智能在機器領(lǐng)域的延伸,真正的主動權(quán)仍然掌握在人的身上,技術(shù)沒有原罪,如何應用好技術(shù)才至關(guān)重要”。面對人工智能帶來的各類安全風險和倫理挑戰(zhàn),全國人大憲法和法律委員會副主任委員江必新認為,要構(gòu)建一個合理規(guī)范的數(shù)字倫理規(guī)則,“我們不能制約技術(shù)的發(fā)展,那就通過制定一套倫理規(guī)則來進行自我約束”(13)參見錢祎《要智能,更要智慧》,https://m.gmw.cn/baijia/2022-11/11/36152155.html,2022年11月11日訪問。??梢?人工智能的刑法問題應該歸結(jié)為:對人工智能體的開發(fā)者和使用者進行規(guī)制,從而保障人工智能體在各種應用場景下的安全使用。
在解釋論上,人工智能體的刑法規(guī)制當前能具體映射在哪些具體罪名上?以自動駕駛事故的刑法歸責為例,涉及多個不同主體的參與行為。如何對這些行為進行歸責,就成為疑問。付玉明教授認為:“在具體的刑事歸責方面,可以類型化為:非法利用自動駕駛汽車為犯罪工具者的故意責任、駕駛?cè)说倪^失責任、系統(tǒng)故障導致的生產(chǎn)銷售者的產(chǎn)品責任以及駕駛?cè)伺c系統(tǒng)存在過失競合的責任等幾種情況。對于自動駕駛模式造成交通肇事后逃逸的行為,駕駛?cè)瞬⒎菍嵭行袨槿?不存在構(gòu)成結(jié)果加重犯的可能。為避免交通事故結(jié)果的擴大,應擴張適用不報、謊報安全事故罪。對于生產(chǎn)者、銷售者所可能承擔的產(chǎn)品責任,以當時科學技術(shù)水平能夠預見到的產(chǎn)品缺陷為限?!盵26]筆者認為上述類型化的處理方式十分可取。自動駕駛事故發(fā)生的原因多種多樣,理應根據(jù)不同情形做出不同的處斷。但需要注意的是,對于人工智能體生產(chǎn)者、銷售者、管理者以及使用者的刑事責任,除了歸責可能性以外,更重要的是責任分擔規(guī)則的構(gòu)建。尤其是科技發(fā)展的風險預測在人工智能體過失責任中的貫徹路徑,需要進一步的深入研究。我初步認為,為了鼓勵人工智能技術(shù)的發(fā)展,不宜輕易認定自動駕駛事故等人工智能體的過失責任。只有在存在嚴重過失的情況下,才有追究刑事責任的余地。當然,如何判斷嚴重過失將是一個問題。在法學和技術(shù)共視的角度下,應當重視科技對法學的指引性意義。應當以技術(shù)規(guī)則的偏離程度作為判斷參與人的過失程度的核心標準。對于嚴重違反技術(shù)規(guī)則的參與行為,可認定為嚴重過失。例如,行為人在明知算法有漏洞的情況下生產(chǎn)、銷售人工智能汽車,導致自動駕駛過程中發(fā)生交通事故,認定為嚴重過失是合理的。對于駕駛?cè)硕?只要在駕駛過程中遵守自動駕駛的規(guī)則指引,就不能以其對自動駕駛過度依賴為由追究其過失責任。另外,人工智能技術(shù)正在迅猛發(fā)展,今天未能發(fā)現(xiàn)的缺陷或者漏洞明天就可能不再是個問題。因此,需要重視人工智能體風險的阻斷義務,認真發(fā)掘不作為犯理論,敦促作為義務人積極地履行其風險阻斷義務,避免潛在的技術(shù)風險現(xiàn)實化。
在立法論上,需要討論的問題是增設(shè)罪名的必要性以及增設(shè)罪名的具體路徑。皮勇教授認為,我國“現(xiàn)行刑法不適應自動駕駛汽車應用的特性,我國應當建立以生產(chǎn)者全程負責為中心的新刑事責任體系,使之在自動駕駛汽車生產(chǎn)和應用兩個階段承擔安全管理責任,生產(chǎn)者拒不履行自動駕駛汽車應用安全管理義務且情節(jié)嚴重的,應當承擔刑事責任”[27]。我對這個觀點持保留意見。自動駕駛汽車刑事責任的確有其特殊性。但是,不等于說我國當前的刑事責任體系對其完全無能為力,更不能認為必須為其建立一個新的刑事責任體系。首先,正如上文所說,對于自動駕駛事故完全可以根據(jù)不同情形分別追究故意犯和過失犯的刑事責任。就具體罪名而言,以危險方法危害公共安全罪、交通肇事罪及生產(chǎn)、銷售不符合安全標準的產(chǎn)品罪等罪名都有可能適用。只不過,在認定相關(guān)罪名的時候,需要考慮到技術(shù)發(fā)展和法益保護之間的平衡關(guān)系,在具體案件中需要謹慎處理。其次,重構(gòu)刑事責任體系的命題過于宏大。就目前的情況來看,人工智能產(chǎn)品的特性對于當前刑事責任體系不構(gòu)成根本性的沖擊。人工智能產(chǎn)品對法益的侵害集中在產(chǎn)品利用型和產(chǎn)品故障型兩種基本類型,僅限于產(chǎn)品刑事責任領(lǐng)域,對于其他類型的犯罪不產(chǎn)生實際影響。嚴格來講,圍繞人工智能產(chǎn)品的特性,充其量只能重構(gòu)產(chǎn)品刑事責任體系,不能一概地推廣到其他犯罪類型之中。何況,在人工智能技術(shù)規(guī)則尚不成熟的情況下,就算是產(chǎn)品刑事責任體系的重構(gòu),也沒有堅實的基礎(chǔ)。再次,有關(guān)人工智能產(chǎn)品刑事責任的立法,應當以完善技術(shù)規(guī)則以及行政規(guī)范為主。當前人工智能產(chǎn)品的風險防控難點不在于刑事責任的構(gòu)建,而在于技術(shù)規(guī)則不明朗以及產(chǎn)品數(shù)據(jù)不公開。一方面,認定事實是適用法律的基礎(chǔ)。如果對基本事實都無法分辨,就無法精準適用法律?,F(xiàn)在自動駕駛事故歸責的現(xiàn)實困境在于:包括法官在內(nèi)的法律人對于人工智能技術(shù)都是一知半解乃至一竅不通。在這種情況下,討論所謂的刑事責任體系無疑是建空中樓閣。因此,當務之急是建立一套完善的技術(shù)指南,并以此為參考構(gòu)建行政法上的行為規(guī)范,進而設(shè)立違反相關(guān)行政規(guī)范的新罪名。另一方面,數(shù)據(jù)公開也是正確歸責的重要一環(huán)。例如,近年來特斯拉智能汽車發(fā)生多次事故,但特斯拉公司拒絕提供完整的行車數(shù)據(jù),導致無法進行準確的責任分配。那么,如何平衡人工智能公司的數(shù)據(jù)權(quán)和社會公共利益之間的關(guān)系,就是亟待解決的問題。在我看來,數(shù)據(jù)權(quán)應當在特定場合讓步于社會公共利益。如發(fā)生致人死亡、重傷的事故,應當強制人工智能企業(yè)揭露與案情密切關(guān)聯(lián)的關(guān)鍵數(shù)據(jù)。當然,什么數(shù)據(jù)是關(guān)鍵數(shù)據(jù),也是有賴科技人員與法律人士共同研判。至少有一點可以肯定的是,決不能在不了解技術(shù)原理的前提下獨斷地制定人工智能法律規(guī)則。
筆者認為,學界爭鳴智能主體能否為刑事責任的主體,究其根本在于:如何界定“人”;易言之,如何界定人和機器的界限。畢竟,刑法屬于人類社會的“屬人法”,而不是針對動植物、機器的保護法、處置管理法。如果智能主體具備了“人”的屬性,成為人類的一份子,當然可以取得刑法中刑事責任主體的資格,反之則否。不過,筆者目前既無能力在人類社會學上定義“人”,也無能力預測人工智能技術(shù)未來的發(fā)展進程,僅能從現(xiàn)代刑法的通說和當前人工智能技術(shù)原理共視之下作上述探析??梢哉J為,一個缺乏自我意識,不具有價值判斷和創(chuàng)造能力的設(shè)備,不管如何稱之為“智能”,怎么都不可能具有“人”的屬性,仍然是和算盤、門栓鎖一樣的機械工具而已。正如網(wǎng)友所言,只要人類較真,今日人工智能立馬就叫“人工智障”。在刑法領(lǐng)域,當前或許如德國希爾根多夫教授所言,“如何處罰這個機器人,斷電、斷油還是推到水中去?電子人的觀點可以運用到民法之中,在刑法之中迄今為止可能存在一些難度”(14)參見汪承昊《綜述|機器人責任——對法律的新挑戰(zhàn)》,https://mp.weixin.qq.com/s/Ju7QJEzImF3FtwCumVl6Dg,2022年11月5日訪問。。與其追究虛無縹緲的機器人主體責任,還不如腳踏實地地理清人工智能技術(shù)的基本規(guī)則,并以之為基礎(chǔ),發(fā)展人工智能產(chǎn)品刑事責任的解釋論,以及構(gòu)建相關(guān)行政規(guī)范,為將來的立法做好準備。