王燕玲
(華南師范大學法學院,廣東廣州510006)
2017年被稱為我國人工智能時代的“元年”,人工智能技術(shù)、應用以及政策扶持、理論研究等引起社會熱切關注,傳統(tǒng)法律體系轉(zhuǎn)型的時代命題也應運而生。目前,刑法理論界對“人工智能+刑法”的命題已展開初步的討論。例如,有觀點認為,人工智能具有超人類的屬性,人工智能技術(shù)存在重大的制度性風險,對人類社會與人的主體地位形成威脅。在人工智能時代,智能機器人的出現(xiàn),會逐漸侵蝕傳統(tǒng)刑法體系中“人”的主體性,有關刑法的存在基礎、功能意義、任務與功能等內(nèi)容,都可能受到深刻的影響,人工智能社會與智能時代的刑法可能隨之出現(xiàn)。①參見孫道萃:《人工智能對傳統(tǒng)刑法的挑戰(zhàn)》,《檢察日報》2017年10月22日。也有觀點認為,在人工智能時代,隨著智能機器人的出現(xiàn),傳統(tǒng)的刑事責任理論陷入被動,追究智能機器人的刑事責任是一個新的技術(shù)與理論難題。②參見高奇琦、張鵬:《論人工智能對未來法律的多方位挑戰(zhàn)》,《華中科技大學學報(社會科學版)》2018年第1期。應該說,這些初步的探索具有一定的前瞻性與現(xiàn)實意義,既突出強調(diào)了智能時代對“人的主體性地位”的影響以及由此對傳統(tǒng)刑法的多重作用,也暗含了傳統(tǒng)刑法理論體系等需要積極響應并作出調(diào)整(譬如解決刑事責任問題)的意義。
當前,鑒于人工智能技術(shù)時代帶來的重大影響,關于人工智能時代的刑法命運問題的研究,迫切需要聚焦以下幾個方面。一是人工智能技術(shù)背景下的智能主體(智能機器人、智能產(chǎn)品等)的刑法地位,主要涉及其是否具有刑事責任能力、是否屬于當代刑法意義上的一種新的犯罪主體,以及由此對“人”作為犯罪主體的傳統(tǒng)格局的影響。這一問題具有基礎性和全局性,左右后續(xù)問題的解決。二是在人工智能技術(shù)的廣泛應用背景下,智能產(chǎn)品等智能時代的“主體”是否需要承擔刑事責任以及如何對其追究刑事責任,進而要求傳統(tǒng)刑事歸責理論作出合理的改變。三是人工智能時代下的新型犯罪有別于傳統(tǒng)犯罪,對其施加的刑事制裁也應作出調(diào)整,傳統(tǒng)的刑罰措施與刑罰體系迎來裂變。四是積極推動當代刑法理論體系與人工智能時代的呼應。這不僅是刑法理論研究的新增長點,也是當代刑法立法的重要內(nèi)容。
在人工智能時代,智能主體的智能化程度不斷升高,其最終結(jié)果是與“人”可以媲美甚至超越人的智能,這就直接從根本上沖擊“人”作為犯罪主體的刑法地位,也引發(fā)了智能主體是否可以成為犯罪主體及其客觀的影響等一系列問題。
目前,鑒于人工智能技術(shù)的本質(zhì)就是基于“算法”而形成的高度智能化屬性,由此確立的智能主體,在不斷接近人類的智能之際,其主體性問題也必然出現(xiàn)。它是指智能主體是否與人無差異、是否可以作為一種犯罪主體而存在的問題。
目前,關于新興智能主體可能的未來刑法地位,主要觀點如下。其一,電子人。該觀點認為,人工智能的主要特征是智能化,在智能程度不斷升高后,智能主體逐步具有自主性、主動性,不再是完全受人支配的行為客體、制造產(chǎn)品等,法律應設定為“電子人”。③參見郭少飛:《“電子人”法律主體論》,《東方法學》2018年第3期。其二,有限的法律擬制主體。該觀點認為,從刑法的角度看,智能機器人及更廣義的人工智能主體并不具備法律的主體資格與地位。相比之下,賦予智能機器人具有民事領域的主體地位,并不存在法律技術(shù)障礙。在現(xiàn)有條件下,關于智能機器人是否具有法律人格的討論,當前需要結(jié)合現(xiàn)行有效的法律規(guī)定,根據(jù)解釋論的基礎和限度,在堅持人工智能為客體的原則下,運用擬制的法律技術(shù),將特定情形下的人工智能認定為法律主體。④參見陳吉棟:《論機器人的法律人格基于法釋義學的討論》,《上海大學學報(社會科學版)》2018年第3期。其三,分階段的法律主體類型。該觀點認為,從法理的角度看,自主意識和獨立的意思表示是法律主體應當具備的必要條件,財產(chǎn)是主體承擔法律責任的物質(zhì)基礎,并為賦予法律主體資格提供了可行性。初期的人工智能仍屬于“行為”工具的范疇,自主智能機器人的“自主意識”和“表意能力”以及“人性化”是賦予智能機器人取得法律人格的必要條件。在智能時代的后期,人工智能作為工具論以及作為法律擬制的主體等,將漸次成為智能機器人的法律人格形式。⑤參見孫占利:《智能機器人法律人格問題論析》,《東方法學》2018年第3期。其四,有限的法律主體人格。該觀點認為,人工智能具有獨立自主的行為能力,有資格享有法律權(quán)利并履行義務和承擔責任,人工智能應當具有法律人格。不過,由于人工智能承擔行為能力的后果有限,人工智能適用特殊的法律規(guī)范與侵權(quán)責任體系安排,其具有的法律人格是有限的法律人格,域外對此已有立法上的嘗試。⑥參見袁曾:《人工智能有限法律人格審視》,《東方法學》2017年第5期。
總體上看,關于正在形成的人工智能主體是否應當具有法律主體資格,上述四種看法總體上均持肯定的立場,并以限制的法律主體為主要立場,同時,也側(cè)重根據(jù)人工智能技術(shù)的發(fā)展階段對人工智能主體的法律地位進行動態(tài)判斷和劃分。
應該說,以上四種觀點,各有其可取之處。它們的共同之處在于,基于技術(shù)發(fā)展與現(xiàn)實需要的情況,理性地、有限制地明確肯定人工智能主體應當具備法律主體的資格,進而認為其也可以作為刑法意義上的犯罪主體。同時,上述觀點的主張者認為,在目前的智能技術(shù)以及應用背景下,賦予人工智能體完全與人一樣的法律主體資格,在技術(shù)上不夠現(xiàn)實,在實踐中也難以把控。基于這些考慮,他們提出根據(jù)人工智能技術(shù)的發(fā)展階段,確立不同類型的人工智能體及其法律資格、行為能力等的做法,是貼合實際的。
然而,上述觀點中存在的共同問題在于以下幾方面。其一,只肯定應然層面的必要性是不夠的。在討論人工智能體的法律資格與地位的問題上,不能僅僅根據(jù)人工智能技術(shù)的發(fā)展趨勢,進而基于智能技術(shù)及其應用過程中所呈現(xiàn)出的“智能現(xiàn)象”,主張在應然層面上要確認智能主體的法律地位。這是過于簡化的討論,因為智能技術(shù)與刑法的對接并非直接相通的關系,而是復雜的邏輯轉(zhuǎn)換問題。只有實定法明確了科學合理的對接原則、規(guī)則以及標準后,才能在實然層面討論這些問題。否則,更多的是空談,無法在刑法層面解決可操作性等問題。其二,要區(qū)分智能主體在一般意義與刑法語境中的差異。從智能主體的行為環(huán)境看,一般意義上的智能主體,和刑法意義上的智能主體,是存在差異的。這主要是因為刑法評價智能主體的行為及其責任等問題時,是立足于規(guī)范層面,遵循法定原則,并且對象是人及其實施的行為。因此,不能將一般意義上的智能主體及其法律主體資格問題,直接用于刑法意義之上,而應結(jié)合實際情況進行分析和判斷。其三,要準確把握刑法意義上的智能主體所應具備的基本條件。作為刑法意義上的智能主體,它必須滿足刑法所規(guī)定的條件和要素。在傳統(tǒng)刑法理治中,犯罪主體的關鍵要素是刑事責任能力,并主要通過人的心理因素與生理因素來進行雙重判斷。對于智能主體而言,盡管其與傳統(tǒng)的人作為犯罪主體是有差異的,但是在人工智能的初期階段,從法理上仍可以參照適用。
基于此,可以看出的是,在討論智能主體是否具備刑法中的主體資格問題時,仍需要回歸到規(guī)范刑法學層面,嘗試探討智能主體的刑事責任能力等規(guī)范要素。盡管其可能不是最好的辦法,但它目前是適當?shù)臋?quán)宜之計。
按照傳統(tǒng)刑法理論,犯罪主體以具備刑事責任能力為前提,犯罪主體通常是自然人,但也包括法律擬制的法人。對于智能主體而言,對其特定層面上的刑事責任能力的考察,也不妨成為判斷智能主體地位的一個重要突破口。
我國刑法理論研究者較早地意識到刑事責任能力對判斷智能主體的地位的重要作用,并形成了以下判斷的方法。其一,以人工智能產(chǎn)品的智能強弱度作為評價系數(shù)。人工智能技術(shù)是基于“算法”而推進的,其目標是與“人的智能”高度接近或者完全超越“人的智能”。因而,不同人工智能技術(shù)或階段,所確立的智能水平或程度是不同的。由此,可以根據(jù)智能程度,對智能主體進行劃分。易言之,人工智能技術(shù)是不斷發(fā)展的,從其應用的角度看,不同類型的人工智能體,主要差異在于智能程度的繁簡。例如,有觀點認為,人工智能產(chǎn)品作為目前高度智能化的現(xiàn)實載體,可以根據(jù)其是否具有辨認能力和控制能力,將其區(qū)分為弱人工智能產(chǎn)品與強人工智能產(chǎn)品。前者在設計和編制的程序范圍內(nèi),可以獨立判斷,可以自主作出決策,但歸根結(jié)底,仍然是設計者或使用者的意志,缺乏刑法意義上的辨認能力和控制能力。后者在設計和編制的程序范圍內(nèi),可以獨立判斷,可以自主作出決策,實現(xiàn)設計者或使用者的意志,也可以超出設計和編制的程序設定的范圍,進行自主決策,基于自身的獨立意志實施相應行為,因而整體上都具有辨認能力和控制能力。⑦參見劉憲權(quán):《人工智能時代刑事責任與刑罰體系的重構(gòu)》,《政治與法律》2018年第3期。其二,刑事責任年齡的“功能類比”路徑。不同的智能產(chǎn)品,其智能化的程度也不同,由此,智能化程度是最基本的技術(shù)差異特征,它的作用類似于判斷刑事責任能力及其程度的刑事責任年齡。從技術(shù)本身以及判斷系統(tǒng)的可行性而言,需要一套符合實際且便于操作的智能評判標準,評價主體可以是研發(fā)者及行業(yè)技術(shù)人員,目的是為了對智能產(chǎn)品的智能化程度采取技術(shù)認定,通過類比來判斷人工智能產(chǎn)品的智能化程度與刑事責任年齡的匹配性。人工智能產(chǎn)品的智能水平很低,則類似于完全無刑事責任狀態(tài),也就是普通機器。人工智能產(chǎn)品的智能水平較高,則類似于相對有刑事責任狀態(tài)。智能水平很高,則類似于完全有刑事責任階段。⑧參見馬治國、田小楚:《論人工智能體刑法適用之可能性》,《華中科技大學學報(社會科學版)》2018年第2期。其三,域外立法的正面參考。俄羅斯的“格里申法案”主張,雖然機器人與現(xiàn)實的動物相似,是特定相似性的財產(chǎn),但根據(jù)機器人的發(fā)展趨勢,它也可能成為人類的自主代理人。關于機器人的地位及其規(guī)制問題,應當兼顧傳統(tǒng)法律對動物和法人的調(diào)整思路。機器人具有特殊的法律構(gòu)造,可以類推適用統(tǒng)一國家法人登記簿,并創(chuàng)設機器人登記簿。⑨參見張建文:《格里申法案的貢獻與局限》,www.iolaw.org.cn,2018年8月7日訪問?!案窭锷攴ò浮睂C器人的定義具有一定的過渡性,同時,“格里申法案”中的機器人作為法律調(diào)整的對象要素,具有高度的智能性和自主性,與歐洲議會制定的《機器人民法規(guī)范》(2017年)所使用的“智能自主機器人”的通用定義很接近,具備通過數(shù)據(jù)獲取的自主能力、物理支持形式和調(diào)整自身行為以適應環(huán)境的能力等。⑩參見上注,張建文文。
以上三種不同的看法,所立足的角度各有其合理性。應當肯定的是,從智能程度的角度進行分析是最直接和有效的方式。從技術(shù)的評價角度看,可以將人工智能技術(shù)的應用發(fā)展分為弱人工智能、強人工智能和超人工智能三個階段,目前應當還處于弱人工智能階段。通過這種方式還可以更客觀地判斷智能主體是否具有刑事責任能力及其程度。基于這種考慮,從傳統(tǒng)刑事責任能力的判斷路徑出發(fā),以“刑事責任年齡”進行類比分析,也是一條可行的探索路徑。同時,從域外法的立場出發(fā),既然有國家和地區(qū)啟動立法,并對智能主體的法律資格和地位作出明確規(guī)定,則意味著從法理上可以擬制智能主體的法律資格,進而也可以在刑法層面擬制智能主體的刑事責任能力及其程度、類型等。
筆者認為,在人工智能技術(shù)深入發(fā)展的背景下,對于發(fā)展狀態(tài)中的不同智能主體,其是否具有刑事責任能力的問題,應當從更廣闊的多角度進行綜合的分析和判斷。其一,在人工智能的初期階段,運用傳統(tǒng)刑法原理進行分析有其合理性與可行性。盡管從長遠看,人工智能時代與傳統(tǒng)社會是漸行漸遠的關系,以傳統(tǒng)社會為基礎的當代刑法體系,并不直接適用于智能時代的犯罪問題,但是,考慮到當前仍處于人工智能時代的初期階段,而且這場變革耗時漫長,可以肯定的是,當代刑法在很長時期都是有效的,可以發(fā)揮非常重要的作用。易言之,當代刑法原理仍然是認識智能時代和解決智能犯罪問題的重要工具。有鑒于此,在解決智能主體是否具有相應的法律資格等問題上,也不宜斷然拋棄當代刑法體系,討論刑事責任能力問題是必要且可行的,有助于分析智能主體的刑法地位問題。其二,人工智能技術(shù)及其所達到的智能程度是最基礎的技術(shù)標準與依據(jù)。應當明確的是,目前的智能主體仍以人類社會為存在基礎,但智能主體已經(jīng)橫跨于智能時代,未來可能專屬于智能時代。因此,智能主體的首要特征是“技術(shù)”問題,其次是與之高度關聯(lián)的智能程度問題。在考察智能主體的法律資格及其行為能力時,也需要立足于智能技術(shù)這一首要因素,圍繞智能程度這一關鍵問題,展開相應的討論,否則有可能偏離問題的實質(zhì)。其三,弱人工智能產(chǎn)品與強人工智能產(chǎn)品的區(qū)分有一定的視野狹隘性。目前,在刑法理論上,區(qū)分弱與強人工智能產(chǎn)品的觀點是被較早明確提出的,同時,其也提供了一種類型化的思考方向,為當前如何分析智能主體、智能犯罪的責任等問題,提供了有益的視角。然而,這種看法具有一定的“先入為主”的缺陷。從智能主體的發(fā)展趨勢看,智能主體并不是簡單的“產(chǎn)品”,如此分類嚴重降低了智能主體的“獨立性”,也從語言邏輯上默認了智能主體從屬于人類社會,并且,從智能技術(shù)層面看,強與弱的技術(shù)判斷并非易事,兩者的界限也不是涇渭分明的,故這種類型化思考未必貼近實際情況。更重要的是,根據(jù)智能程序來區(qū)分強與弱,其實質(zhì)仍然是對智能程度的一種判斷,強與弱的劃分是比較簡化的思考方式。其四,要在“技術(shù)+刑法”的原則下對智能主體的刑事責任能力問題進行綜合性、比較性分析。在考察智能主體的刑事責任能力問題時,應當堅持“技術(shù)+刑法”的綜合性原則,對智能主體的智能程度及其類型進行理性分析,從而建立起層次分明的智能主體格局,同時,也可以適當參考域外的立法及相關做法,但應當立足于我國智能技術(shù)的發(fā)展及其應用情況。
在人類社會中,人是最重要的存在基礎,也是占據(jù)主導地位的行動主體。從近現(xiàn)代刑法的發(fā)展史看,保障人權(quán)作為其核心命題,正是圍繞加害人與被害人以及受之影響的國家、社會而展開的。然而,在智能時代,智能主體的出現(xiàn),不僅打破這種長期以來的制度平衡關系,而且對傳統(tǒng)刑法的發(fā)展與走向產(chǎn)生了深刻的影響。
1.實施犯罪與承擔刑事責任的能力
從邏輯上看,自然人具有刑事責任能力是其作為犯罪主體的基本前提,相應地,智能機器人是否具有刑事責任能力,是其成為刑事責任主體的關鍵前提。①參見高銘暄、馬克昌主編:《刑法學》(第七版),北京大學出版社、高等教育出版社2016年版,第85頁。目前,智能機器人可以通過深度學習,逐步確認自主意識和自我意志,從而,智能機器人可以超出研發(fā)者與設計者所設計和編制的程序范圍,獨立實施危害行為。獨立的辨認能力和控制能力是其基礎。智能機器人具備獨立的辨認能力和控制能力,則意味著具有和“人”一樣的刑事責任能力。智能機器人可以是獨立的刑事責任主體,實施了嚴重危害社會的犯罪行為,應當承擔刑事責任。②參見劉憲權(quán)、朱彥:《人工智能時代對傳統(tǒng)刑法理論的挑戰(zhàn)》,《上海政法學院學報》2018年第2期。
換言之,在智能技術(shù)的“算法”邏輯中,智能主體是完全具備獨立性與自主性,但其前提是不脫離智能技術(shù)所處的社會環(huán)境和基礎。同時,不能直接套用人類社會的“固見”進行“同質(zhì)化”思考,而需要切換社會背景與話語體系,肯定人工智能社會的獨立性,進而肯定智能主體的獨立性。當然,智能主體畢竟不是“人類”,也不可能真正做到完全等同的思考與判斷,但在實施犯罪和承擔刑事責任的能力問題上可以進行“等價”判斷。同時,這套判斷體系是獨立的,其基本的組成要素、判斷規(guī)則以及標準等,都需要立足于智能技術(shù)的特征、智能時代的背景以及智能社會形態(tài)的規(guī)律。對于傳統(tǒng)刑事責任能力判斷所依賴的生理標準與心理標準是否可行與如何調(diào)整等,都是今后需要考慮的重要技術(shù)問題。
2.機器人權(quán)利及其刑法保護
人工智能技術(shù)的發(fā)展以及智能主體的推陳出新,迅速強化了智能主體的地位,相應地,機器人是否擁有權(quán)利及其權(quán)利地位等問題相繼涌現(xiàn)。當然,機器人的權(quán)利,不同于人類的“自然權(quán)利”,相比之下,智能主體的權(quán)利具有法律的擬制性、利他性、功能性等特殊性。目前,從智能技術(shù)及其應用等因素看,機器人的權(quán)利主要有數(shù)據(jù)共享權(quán)、個體數(shù)據(jù)專有權(quán)、基于功能約束的自由權(quán)、獲得法律救濟權(quán)等。從法理上看,確立機器人的權(quán)利,對傳統(tǒng)法律體系與權(quán)利體系都有影響。從立法技術(shù)看,應明確機器人權(quán)利的邊界及法律保留事項、加強法律與機器人倫理規(guī)范的銜接、建立機器人監(jiān)管機制。從技術(shù)發(fā)展的趨勢看,伴隨智能主體的智能程度及其地位的提升,必然出現(xiàn)智能主體的權(quán)利問題。
智能機器人不僅可以作為未來的潛在犯罪主體,而且,作為人工智能社會的行為主體,智能機器人也同樣具有相應的法律權(quán)利。盡管權(quán)利的內(nèi)涵與形式存在很大的差異,但不妨礙智能主體的地位與基本權(quán)利應受到保護。作為擁有法律賦予的基本權(quán)利的智能主體,對智能主體進行保護既是必要的,也是對其法律主體地位的一種維護。
在人工智能時代,犯罪主體身份的變動,也直接牽涉到其他犯罪構(gòu)成要件要素的整體變化。這不可避免地影響刑事歸責問題。對此,需要站在一個更契合人工智能時代的語境下展開更理性的討論,通過刑事歸責來遏制刑事風險問題。
人工智能技術(shù)是現(xiàn)代互聯(lián)網(wǎng)信息技術(shù)的下一個端口,從其刑事風險的類型看,利用人工智能技術(shù)本身及其應用實施犯罪以及最具智能性的智能主體實施犯罪,是最常見的類型,其本質(zhì)是技術(shù)濫用作為一種犯罪工具,濫用主體應當承擔刑事責任。
1.行為定性的路徑
在人工智能時代的發(fā)展初期階段,智能程度偏低的人工智能產(chǎn)品等作為犯罪工具,被利用于實施嚴重危害社會的犯罪行為,可能涉及危害國家安全、國防利益、公共安全、社會管理秩序、經(jīng)濟秩序以及侵犯公民人身和財產(chǎn)等方面。同時,從刑法角度看,行為人故意利用人工智能實施犯罪行為的刑事責任分析,都是在人工智能及其應用對于行為人而言只是一種“智能工具”的情況下進行的。
對此,目前形成了以下不同的看法。其一,非犯罪工具化。不斷智能化的人工智能主體,具有深度學習、持續(xù)學習以及決策和行動等能力。智能機器人自主行動的,則可能造成對人類權(quán)利的損害。不過,人工智能所有者、生產(chǎn)者或程序開發(fā)者,不應當作為“替罪羊”,否則,對司法公正與技術(shù)創(chuàng)新都百害而無一利。③參見詹可:《人工智能法律人格問題研究》,《信息安全研究》2018年第4期。其二,犯罪工具化。在人類設計和編制的程序范圍內(nèi),智能機器人實施的行為,主要體現(xiàn)了人類的意志。智能機器人實施嚴重危害社會的犯罪行為,本質(zhì)是為了實現(xiàn)研發(fā)者或者使用者的犯罪意志,應當將該智能機器人看作研發(fā)者的“工具”,智能機器人本身不應當承擔刑事責任,智能機器人的研發(fā)者或者使用者才是真正的責任主體。如果研發(fā)者和使用者是不同的自然人或單位,則可以成立共同犯罪,但研發(fā)者或者使用者與智能機器人目前不能成立共同犯罪。④參見劉憲權(quán)、胡荷佳:《論人工智能時代智能機器人的刑事責任能力》,《法學》2018年第1期。
以上的兩種思考,可以說是相互對立的,其分歧源自于對智能主體的“主體地位”有不同的認識,從而也導致對是否存在利用智能主體實施犯罪的客觀情況有不同看法。目前,智能機器人通常不具有真正的獨立性,因而,其所實施的犯罪行為,往往是根據(jù)人類設計和編制的程序范圍而作出的。從犯罪本質(zhì)看,這其實是人類的意志之體現(xiàn),即使發(fā)生了嚴重危害社會的犯罪行為,智能機器人也只是一種“智能工具”,自身不需要承擔刑事責任,但利用的主體則不能例外。
2.新型網(wǎng)絡罪名的解釋張力
從刑法原理的角度看,對利用人工智能主體等實施犯罪的情形,進行前瞻性的定性討論,具有積極的意義。然而,受制于理論、立法等滯后的因素,對其進行相對獨立的定性分析可能效果不佳,對此,不妨從刑法解釋學的角度出發(fā),嘗試對現(xiàn)有的關于網(wǎng)絡犯罪的規(guī)定與人工智能時代需要刑法作回應和調(diào)整的相關行為及其社會關系進行比對性分析和解釋,取得包容性和一致性以后,可以按照我國現(xiàn)行刑法的規(guī)定對后者予以定罪量刑。
《刑法修正案(九)》增加了我國《刑法》第286條之一、第287條之一、第287條之二。這是三個純正的網(wǎng)絡犯罪罪名,對網(wǎng)絡社會進行不同層次的保護。對于利用人工智能主體實施犯罪的,從犯罪本質(zhì)以及犯罪的類型化特征看,與網(wǎng)絡“工具型”犯罪具有高度的相似性,因此,上述三個罪名的刑法解釋意義在于以下幾點。其一,《刑法修正案(九)》增設了我國《刑法》第286條之一,規(guī)定了拒不履行信息網(wǎng)絡安全管理義務罪,這是典型的網(wǎng)絡不作為犯罪,將違背法定作為義務的網(wǎng)絡危害行為予以犯罪化。⑤參見謝望原:《論拒不履行信息網(wǎng)絡安全管理義務罪》,《中國法學》2017年第2期。對于智能主體的研發(fā)者與設計者而言,明知負有相應的研發(fā)與設計義務,即遵循“算法”邏輯而科學、理性以及安全進行研發(fā)與設計的義務,而且具備履行這些法定義務的“技術(shù)能力”,在有關部門通知其應當及時糾正和修改的情況下,拒不履行法定的義務,而且造成嚴重后果的,是一種典型的不作為犯罪,也危及智能主體安全,可以按照我國《刑法》第286條之一的規(guī)定予以處罰。其二,非法利用信息網(wǎng)絡罪。在互聯(lián)網(wǎng)犯罪時代,利用網(wǎng)絡實施犯罪是最常見的形態(tài),也是危害最廣泛的類型。對此,《刑法修正案(九)》增加了我國《刑法》第287條之一,規(guī)定了非法利用信息網(wǎng)絡罪。該罪將非法利用信息網(wǎng)絡的預備行為予以實行行為化,⑥參見孫道萃:《非法利用信息網(wǎng)絡罪的適用疑難與教義學表述》,《浙江工商大學大學學報》2018年第1期。對積極打擊“網(wǎng)絡手段型”犯罪及其前端的黑色產(chǎn)業(yè)鏈都有積極的作用。對于利用人工智能主體實施犯罪的,目前,在立法供給顯然跟不上的情況下,可以在必要時援引我國《刑法》第287條之一,對一些明顯屬于高度危險的利用智能主體的預備行為的,情節(jié)嚴重的,予以定罪處罰。其三,我國《刑法》第287條之二規(guī)定的幫助信息網(wǎng)絡犯罪活動罪被認為是“共犯的正犯化”立法,將一些危害程度已經(jīng)超過正犯的行為予以獨立處罰,從而避免“共犯從屬性”理論所帶來的定罪障礙。⑦參見趙秉志:《中國刑法的最新修正》,《法治研究》2015年第6期。對于實施危害智能主體的犯罪,在實踐中,往往也需要相應的技術(shù)支持與幫助。對于在明知的情況下,仍然提供相應的技術(shù)支持與幫助的,如侵入和破壞智能程序的工具等,情節(jié)嚴重的,屬于需要獨立處罰的技術(shù)幫助行為,應啟用“共犯的正犯化”的立法思維,通過援引我國《刑法》第287條之一的規(guī)定,結(jié)合具體情況,對這類犯罪進行有效的打擊。
從類比的角度看,當前不斷趨于嚴峻的網(wǎng)絡犯罪,在本質(zhì)上與人工智能時代的犯罪具有“相當性”。換言之,智能主體可以是被害的對象,繼而也可能是需要保護的對象,因為這關系到智能時代的安全與有序,不過,如何對其加以保護需進一步討論。
1.研發(fā)者與使用者作為責任主體與預見義務的判斷
對于人工智能初期階段,智能主體的研發(fā)者與設計者處于非常重要的地位,負有監(jiān)管的義務。根據(jù)我國《刑法》的規(guī)定,監(jiān)督過失犯罪的責任主體并不包含人工智能產(chǎn)品的研發(fā)者和使用者,也不包含人工智能產(chǎn)品本身,因此,對這類研發(fā)者和使用者而言,不能追究監(jiān)督過失的刑事責任。這可能是現(xiàn)行刑法應對人工智能刑事風險的制度缺陷。⑧參見劉憲權(quán):《人工智能時代的刑事風險與刑法應對》,《法商研究》2018年第1期。然而,從學理上看,研發(fā)者與設計者對于智能主體而言,具有不可替代的地位和作用,甚至目前處于“獨占”狀態(tài),應當是首要的“倫理責任者”與安全的“守護者”,也是智能主體所面臨的刑事風險的首要來源。
在人工智能技術(shù)處于不斷發(fā)展的情況下,判斷人工智能的研發(fā)者和使用者是否對危害結(jié)果負有預見義務,需要考慮人工智能研發(fā)或使用的當時的人工智能技術(shù)發(fā)展水平。進一步講,在判斷研發(fā)者或使用者的預見能力問題時,人工智能技術(shù)的發(fā)展情況與水平是首要考慮因素??傮w上看,基于人工智能技術(shù)的發(fā)展情況,要么是可以避免危害結(jié)果的發(fā)生,要么是無法避免危害結(jié)果的發(fā)生。對此,存在以下觀點。其一,負有預見危害結(jié)果發(fā)生的義務,可以避免危害結(jié)果的發(fā)生,因未預見而導致危害結(jié)果的發(fā)生,研發(fā)者或使用者成立一般過失犯罪,需要承擔相關刑事責任。其二,不負有預見義務,無法避免危害結(jié)果的發(fā)生,不構(gòu)成一般過失犯罪。至于是否可以成立監(jiān)督過失犯罪,則先需要判斷研發(fā)者或使用者是否具有監(jiān)督義務,只是目前的法律并未作出相應的規(guī)定。⑨參見前注⑦,劉憲權(quán)文。這種看法有其合理性。從人工智能技術(shù)的開發(fā)與應用看,設計者和研發(fā)者處于最前端,也是技術(shù)風險的掌控者,同時負有一定的事前安全管理義務,因此,從邏輯上看,有承擔刑事責任的必要性和可能性。不過,對其追究監(jiān)督過失的刑事責任,是非常嚴苛的責任模式。例如,智能機器人的研發(fā)者與設計者往往不是個人而是一個團隊,這就涉及共同犯罪與單位犯罪問題。對于無法直接查明具體責任人員的,一旦作為犯罪處理,實際上是將共同過失犯罪以共同犯罪論處,這就需要改變刑法理論與立法。⑩參見劉明祥:《區(qū)分制理論解釋共同過失犯罪之弊端及應然選擇》,《中國法學》2017年第3期。同時,追究研發(fā)者與設計者的監(jiān)督過失責任,是以負有相應的監(jiān)督義務,如風險防范與控制、監(jiān)督、制止等不同的義務為前提的,這需要通過立法的方式予以明確。因而,在人工智能技術(shù)的初始階段,考慮到技術(shù)的中立性,仍需慎重進行,更應當明確入罪的標準。
2.傳統(tǒng)計算機犯罪罪名的解釋能力
在現(xiàn)行我國刑法尚未對人工智能作出具體規(guī)定的條件下,對于針對智能主體實施的犯罪問題,在定性上,也可以援引網(wǎng)絡“對象型”犯罪規(guī)定,從而緩解“無法可依”的窘境。
根據(jù)我國《刑法》第285條第1款的規(guī)定,非法侵入計算機信息系統(tǒng)罪的犯罪對象是僅限制于“國家事務、國防建設、尖端科學技術(shù)領域的計算機信息系統(tǒng)”,顯然,這無法與智能主體所依賴的智能程序、算法等內(nèi)容相匹配,因而,缺乏解釋的前提和基礎,然而,其他的計算機犯罪罪名仍具有一定的解釋意義。首先,是非法獲取計算機信息系統(tǒng)數(shù)據(jù)罪。對于非法獲取人工智能技術(shù)或智能產(chǎn)品的應用程序等行為,如果嚴重危害了智能主體的安全以及智能技術(shù)、智能時代的安全的,刑法有必要予以介入。從定罪的角度看,可以考慮依照我國《刑法》第285條第2款,以非法獲取計算機信息系統(tǒng)數(shù)據(jù)罪論處。這是因為智能主體所依賴的技術(shù)或程序等,因其高度依附于具有主體資格與地位的智能主體,不宜視為一種財產(chǎn),從擴張解釋的角度看,它更接近是一種智能數(shù)據(jù)。①參見孫道萃:《網(wǎng)絡財產(chǎn)性利益的刑法保護:司法動向與理論協(xié)同》,《政治與法律》2016年第9期?;诖耍壳半A段可以援引第285條第2款,用于對這類犯罪進行定罪時的應急之用。其次,是提供侵入、非法控制計算機信息系統(tǒng)程序、工具罪。智能主體具有高度的智能性,而且研發(fā)與設計的過程都是高技術(shù)含量,也配有非常有嚴密的安全保障措施等,因此,實施危害智能主體的行為,也往往需要相應的“技術(shù)優(yōu)勢”作為支撐,客觀上也就形成了一條黑色的犯罪利益鏈條。對于實施危害智能主體的犯罪行為的,如果有提供侵入或非法控制等違法程序、技術(shù)或者工具等的,是一種獨立的幫助他人實施犯罪的危害行為。在對這類犯罪進行定性時,可以依照我國《刑法》第285條第3款的規(guī)定,②參見黃太云:《〈刑法修正案(七)〉解讀》,《人民檢察》2009年第6期。更好地打擊黑色產(chǎn)業(yè)鏈條,同時,也間接提高實施危害智能主體安全的犯罪行為的成本,繼而發(fā)揮積極預防的效果。最后,是破壞計算機信息系統(tǒng)罪。從智能技術(shù)的初期應用階段的實際情況看,智能主體仍具有較為明顯的“人造屬性”,在技術(shù)層面上仍未擺脫其“行為客體”的屬性。相應地,智能主體運行或行動所依賴的程序等,可以視為與計算機信息系統(tǒng)相類似的概念。因而,實施針對智能主體及其程序等的危害行為的,嚴重危害智能主體的正常運行,情節(jié)嚴重的,可以依照我國《刑法》第286條的規(guī)定進行論處。
從人工智能技術(shù)發(fā)展的角度看,針對人工智能所設計和編制的程序,對于日益智能化的智能機器人而言,其控制能力將明顯下降。這也就意味著人類作為研發(fā)者與設計者,對智能主體的控制力也會不斷降低。相應地,真正意義上的智能機器人在不久的將來可能出現(xiàn),其將完全具有獨立的辨認能力與控制能力,完全可能按照自主意識和意志實施嚴重危害社會的犯罪行為,應當成為刑事責任的主體。由此可見,對智能機器人追究刑事責任,其關鍵前提是智能機器人可以作為刑法意義上的獨立犯罪主體。對此,有觀點認為,意志自由存在與否對于刑事責任能力的認定有重要的意義,智能機器人在設計和編制的程序范圍外實施行為,實現(xiàn)的是其自己而非研發(fā)者與設計者等外部人員的意志,相應地,智能機器人的行為完全可能認為是法律意義上的行為,今后刑法可以考慮在必要的時候,賦予智能機器人刑事責任主體的地位。③參見前注⑧,劉憲權(quán)文。應該說,這是智能主體地位的發(fā)展趨勢,但問題在于,即使明確了智能主體的獨立地位,對其所實施的獨立犯罪,在立法無法跟上的情形下,對其進行“定性分析”與“有效處罰”幾乎都不可能。同時,從法理上看,即使肯定了智能主體的犯罪主體地位,仍需要解決的問題是智能主體自主實施的獨立行為,是否屬于刑法意義上的“危害行為”。對此,有觀點認為,智能機器人在設計和編制的程序范圍外的行為,與傳統(tǒng)的“行為”相比,僅在人的生理因素上有差異,在實質(zhì)內(nèi)容上并無差異,因此,在設計和編制的程序范圍外實施的行為,可以視為是智能機器人獨立實施的新的刑法意義上的“行為”。④參見前注④,劉憲權(quán)、胡荷佳文。應該說,在設計和編制的程序范圍外實施行為時,如果智能機器人的行為實現(xiàn)的是自主意志而非他人意志,可以視為刑事責任主體。這是在人工智能的初期階段,基于智能程度的強與弱之差異,并特別對高強度的智能主體所作的一種身份預判,所得出結(jié)論也是合情合理的。同時,根據(jù)設計與編制的程序范圍作為主要的衡量標準,來判斷智能主體是否具有獨立的意志自由以及是否屬于獨立的主體,雖有一定的可操作性,但也有較為明顯的認識狹隘性,既無形中默認了智能主體依附于人這一制造者的客體特質(zhì),也限制了智能主體不斷趨于獨立的潛能。盡管如此,通過上述方式對智能主體獨立實施犯罪和承擔刑事責任問題的“論證”,仍可以為這類問題的司法應對提供有益的方向。當然,更重要的問題在于,在人工智能時代,傳統(tǒng)犯罪主體理論等問題可能會迎來一個很大幅度的動蕩。⑤參見陳興良:《犯罪主體的消解——一個學術(shù)史的考察》,《環(huán)球法律評論》2011年第1期。如何妥善地處置該問題,直接關系到智能主體的刑法命運。
無論是刑法原理的拓展,還是刑法解釋學的展開,在回應人工智能時代的挑戰(zhàn)時都顯得“力不從心”,因為立法完善的積極功能尚未被釋放,也就無法從規(guī)范本體的層面化解“規(guī)范供給不足”的難題。關于網(wǎng)絡犯罪的刑罰應對就是力證。對于人工智能時代的刑事風險,刑法立法應作出前瞻性的有組織反應,從而提高當代刑法的時代性與治理犯罪的效果。
在任何社會形態(tài)中,刑法通過立法實現(xiàn)自我完善與功能轉(zhuǎn)型,不僅是立法所具有的“變革”能力的客觀體現(xiàn),也是社會歷史經(jīng)濟發(fā)展所“倒逼”的結(jié)果。對于人工智能時代的犯罪問題,刑事立法完善仍然是應有的選擇。
1.人工智能時代倒逼立法變革
在大變革時代,理論界應當確立的一般共識是,人工智能技術(shù)的發(fā)展,客觀上迫使傳統(tǒng)刑事立法作出改變,因應智能時代的新型、專屬立法是必然趨勢。首先,人工智能技術(shù)的迅猛發(fā)展及其廣泛應用,已經(jīng)在很大程度上對傳統(tǒng)法律制度、倫理道德觀念等產(chǎn)生了重大影響,社會變革要求法律轉(zhuǎn)型。人工智能技術(shù)的快速迭代與法律發(fā)展及其監(jiān)管的滯后現(xiàn)象之間的不適性會進一步加劇??梢钥隙ǖ氖?,在人工智能時代,法律的“無人區(qū)”問題會逐漸顯現(xiàn),簡單地說,就是很多人工智能引發(fā)的法律問題,傳統(tǒng)法律制度無法有效解決。在這種劇烈變革的背景下,加快人工智能領域的專業(yè)立法與制定符合國情需要的法律法規(guī)是當務之急。其次,人工智能技術(shù)的發(fā)展及其廣泛運用,對法律本質(zhì)、法律功能、法律規(guī)則、法律的價值導向等問題,都有不同程度的受到影響,這要求刑事立法轉(zhuǎn)型。在此背景下,立法作為反映法律制度的基本載體與規(guī)范表現(xiàn)形式,也必然受到影響。易言之,任何立法都是社會變化發(fā)展的產(chǎn)物。對于刑事立法而言,也是如此。通過立法對人工智能的刑事風險進行回應是其使命所在,并且不能落后于現(xiàn)實社會對刑事立法的迫切需求。
2.應對人工智能的刑法立法方向
不同的社會形態(tài),要求與之相適應的立法活動。例如,面對傳統(tǒng)的犯罪問題與正在迅猛發(fā)展的網(wǎng)絡犯罪問題,刑事立法的立場及其內(nèi)容是有差異的,⑥參見孫道萃:《網(wǎng)絡安全刑事保障的體系完善與機制構(gòu)建》,《華南師范大學學報(社會科學版)》2017年第5期。否則便違背了科學立法的基本精神。這對于人工智能時代的刑事立法而言也是如此。
關于當前如何把握人工智能時代的立法方向,筆者認為,需要關注以下幾個方面。第一,立法的前瞻性。維護社會規(guī)范的穩(wěn)定期望是法律制度的核心功能,但是,人工智能技術(shù)的興起與發(fā)展,隱藏無限的不確定性,導致傳統(tǒng)法律功能的獨特性逐步喪失?;凇八惴ā钡臋C器學習成為新的知識與智能的形成方式,法律的學習與發(fā)展、法律規(guī)范的形式、法律規(guī)范的穩(wěn)定性等,都受到了人工智能技術(shù)的約束,這是傳統(tǒng)法律逐漸走向“死亡”的前兆。隨著全面的人工智能時代即將到來,刑法作為“回顧性法律”,也需要對未來可能產(chǎn)生的風險進行預先性的展望。注重人工智能犯罪立法的前瞻性,人工智能犯罪立法應做到前瞻性與刑法安定性的統(tǒng)一,區(qū)分刑事立法的前瞻性與過度刑法化。構(gòu)建人工智能犯罪相關規(guī)范體系,包括人工智能犯罪的主體制度、人工智能犯罪的行為模式、人工智能犯罪的刑事責任。⑦參見王肅之:《人工智能犯罪的理論與立法問題初探》,《大連理工大學學報(社會科學版)》2018年第4期。第二,試驗性的專門立法。目前,人工智能技術(shù)及其應用雖然發(fā)展很快,但仍處于初期階段,圍繞人工智能時代展開的立法相對有限。對于自動駕駛等智能技術(shù)發(fā)展已經(jīng)相對成熟、產(chǎn)品亟待進入市場的應用領域,立法需求是旺盛的,可以嘗試進行地方性或試驗性的立法。這種立法模式可以較好地兼顧個別需要與整體立法的關系,可以就一些特定問題進行立法,解決現(xiàn)實需要,同時也避免了整體立法條件不成熟下的“立法趕制”。第三,局部調(diào)整是當前的主流方向。由于人工智能技術(shù)的復雜性等因素,人工智能時代可能出現(xiàn)諸多新的法律風險,傳統(tǒng)刑法在面對這些問題時,會在不同領域出現(xiàn)一些空白地帶。從立法應對的幅度和范圍看,完整意義上的“機器人刑法”作為更具顛覆性的做法,與“傳統(tǒng)刑法修正”的漸進性改革方案,是相互對立和依存的。前者的變革是劇烈的,同時也是徹底的,后者的變革是逐步的,同時也是有局限性的。不同的道路選擇會有不同的結(jié)果。例如,對智能犯罪時代的過失犯罪等問題的處理是不同的。⑧參見鄭戈:《如何為人工智能立法》,《檢察風云》2018年第7期。從更穩(wěn)妥的立場看,局部調(diào)整在很長一段時間是主要的選擇,而且,局部性的調(diào)整可以通過積累的方式,為今后的整體調(diào)整奠定基礎資源和準備條件。這更現(xiàn)實的理由在于,人工智能技術(shù)仍處在早期階段,人工智能應用的智能化程度相對不足,人工智能背景下的新型智能犯罪不具有真正的獨立性。
關于人工智能時代的刑法立法活動,合理增設新的罪名是回應司法需求的當務之急。只是在罪名增設的問題上,要防止“見招拆招”的被動性,提高立法的科學性與體系性,循序漸進地根據(jù)實際需要并立足長遠增設新型罪名。
關于罪名增設的問題,有觀點認為,宜考慮增設以下罪名。其一,濫用人工智能罪。在人工智能時代,濫用人工智能行為,是對人類社會的安全這一核心利益的破壞,應當特別加以規(guī)制。從社會危害性的程度看,濫用人工智能的危害,可能要高于傳統(tǒng)犯罪行為。對于在自主意識和意志的支配下實施行為的,智能機器人應當承擔刑事責任。其二,人工智能事故罪。對于人工智能產(chǎn)品或智能機器人所引發(fā)的重大社會危害,在大多數(shù)情況下,研發(fā)者和使用者作為“負責主體”,對潛在的風險具有一定的事前控制能力。由此,人工智能產(chǎn)品研發(fā)者和使用者承擔嚴格責任是符合法理的。嚴格責任是以負有特殊義務為前提的,目前主要以違反人類社會中的法律以及道德等規(guī)范和價值、數(shù)據(jù)保護義務、自主武器系統(tǒng)的有效控制等為主要情形。同時,濫用人工智能罪與人工智能產(chǎn)品事故罪的增設,其實都指向研發(fā)者和使用者,前者是從故意犯罪的角度出發(fā),而后者是從過失犯罪方面出發(fā),構(gòu)成一個完整的罪名結(jié)構(gòu)體系。⑨參見前注⑧,劉憲權(quán)文。
對于濫用人工智能罪、人工智能事故罪的探討,應該說,都比較客觀地回應了理論上的一些前沿思考以及現(xiàn)實情況。在人工智能時代,濫用智能技術(shù)可能是較為常見的,但智能技術(shù)的使用主體不負責任的行為也多有發(fā)生。對于這兩類行為,情節(jié)嚴重的,予以刑事處罰有其必要性。同時,考慮到現(xiàn)有規(guī)定的不相稱性,另行增設新的罪名有其積極意義。只是從行為特征等因素看,濫用智能技術(shù)與智能技術(shù)事故的區(qū)分仍具有較強的傳統(tǒng)立法思維的局限性,在人工智能犯罪時代是否繼續(xù)可行值得研究。并且,增設過失型的智能犯罪,是否有些激進也值得商榷。
罪名增設的實質(zhì)是犯罪化,犯罪化的立法進程必須堅持適度必要的原則,要充分釋放新增加罪名的規(guī)制范圍和能力,提高立法體系與功能之間的協(xié)調(diào)性。
當前,結(jié)合有關罪名增設的討論,考慮到人工智能時代的演變及其刑事風險的發(fā)展規(guī)律,在采取必要的犯罪化策略時,應注意以下幾個問題。其一,犯罪類型的分析。應該說,人工智能的刑事風險類型,是確定罪名增設的基本邏輯所在。目前來看,人工智能的刑事風險,大體可以分為三類。一是利用人工智能技術(shù)或智能機器人實施犯罪,是一種非法利用行為。二是針對人工智能技術(shù)或智能機器人實施犯罪,是一種針對智能時代的安全價值的破壞行為。三是智能機器人作為完全獨立的新型犯罪主體,實施真正意義上的智能犯罪。這是全新的犯罪現(xiàn)象問題,其內(nèi)部可以劃分不同的情形。這三類犯罪的基本性質(zhì),從危害行為的類型看,可以概括為“非法利用智能技術(shù)”“破壞智能技術(shù)安全”“智能機器人獨立實施犯罪”三種情形。相應地,對于這三類不同的犯罪,立法者也要對癥下藥,增設與之相關的罪名,避免立法的重復性與交叉性,提高立法的專門性與有效性。同時,對于智能主體獨立實施犯罪的情形,由于這一觀察過于超前,在立法上也應審慎。其二,罪名性質(zhì)的選擇。傳統(tǒng)刑法是以結(jié)果犯為主的,但在人工智能時代,智能主體實施的犯罪具有很強的技術(shù)性特征,因而,在罪名的性質(zhì)選擇上,需要注意的是以下兩方面。一方面,應遵循危險犯的適度增設原則。人工智能技術(shù)的法律風險,可以認為是一種技術(shù)危險。在任何情況下,技術(shù)具有中立性,同時,技術(shù)風險具有潛伏性、蔓延性以及不可控性等特征。在風險社會,人工智能技術(shù)的濫用風險等更可能出現(xiàn),一些利用人工智能技術(shù)的行為往往具有高度危險性,在必要的情況下應當對其進行處罰。然而,增設危險犯應當堅持適度原則,避免犯罪圈的不當擴大。另一方面,要慎重增設過失犯。目前,人工智能技術(shù)是人類社會探索科學技術(shù)的最前沿。作為一項新興技術(shù)的探索,人類的認識能力是相對有效的,也是隨著人工智能技術(shù)的發(fā)展而發(fā)展的。因此,對于人工智能技術(shù)及其應用的研發(fā)者、設計者、運營者、推廣者等而言,在履行有關安全等義務時,需要客觀上考慮到技術(shù)發(fā)展的水平,在認定其是否履行了有關義務時,也應科學地評判其認識能力與避免能力。對于一般的業(yè)務過失或監(jiān)督過失的行為,應當慎重處罰,否則,不利于鼓勵技術(shù)創(chuàng)新。對于嚴重過失且造成重大危害結(jié)果的,可以在條件成熟的情況下制定相應的罪名。
在刑法學體系的框架下,犯罪與刑罰屬于“首尾”兩端的基本范疇,犯罪是前提,刑罰是末端,兩者的協(xié)同呼應關系,是依法有效打擊犯罪的制度保障。⑩參見孫道萃:《罪責刑關系論》,法律出版社2015年版,第21-23頁。對于人工智能時代下的新型犯罪問題,傳統(tǒng)刑罰體系也需要及時作出相應的調(diào)整。
1.刑罰體系更新的必然性
在人工智能時代,犯罪的本質(zhì)及其特征等因素,都在不同程度上發(fā)生了變化,刑事責任的內(nèi)容也是如此。刑罰作為末端,也受此影響?;谟行椭魏皖A防犯罪的目的,有必要對傳統(tǒng)刑事制裁體系進行一定的調(diào)整。
在新的社會形態(tài)和犯罪問題等背景下,適時作出調(diào)整是必然的。首先,這是罪刑均衡的新需要。從犯罪與刑罰兩個基本范疇的邏輯關系看,犯罪的輕重與刑罰的輕重應當是對應的,而且刑罰必須是有效的。在人工智能犯罪時代,犯罪形態(tài)的本質(zhì)特征及其構(gòu)成要件要素在不同程度上發(fā)生了變化,基于罪刑關系的對稱性與均衡性,顯然不宜繼續(xù)套用傳統(tǒng)的刑罰種類,而需要設置與之相適應的刑罰種類以及刑罰體系。其次,這是實現(xiàn)刑罰目的的需要。重構(gòu)我國刑罰體系并將智能機器人納入刑罰處罰的范圍符合刑罰的目的,同時也符合人工智能時代發(fā)展的需要且并未違背基本法理。最后,這是確認刑事責任主體資格的必然要求。智能機器人是具有刑事責任能力的一種新的犯罪主體,盡管不同于自然人或法人,但其既已納入刑罰處罰的范圍,那么,就必須接受刑罰處罰。只是由于智能機器人不是人,刑罰處罰措施也需要根據(jù)犯罪主體的變動而調(diào)整。
在此基礎上,從刑法學理的角度看,智能機器人所適用的刑罰體系在一定程度上要有別于現(xiàn)有的自然人和單位主體,所以,需要遵循不同的立場和原則。例如,設計智能機器人的刑罰體系時,必須堅持罪刑相適應原則、以刑罰目的為導向原則、刑罰節(jié)儉性原則。①參見前注⑦,劉憲權(quán)文。刑罰措施及其體系必須能夠“有效地”懲罰不同類型的人工智能犯罪問題。
2.立法完善的建言
目前,關于立法完善的路徑已經(jīng)形成了以下不同看法。其一,刪除數(shù)據(jù)、修改程序、永久銷毀。一是刪除數(shù)據(jù)。強人工智能產(chǎn)品的行動能力依賴其相應的數(shù)據(jù)信息,也是其實施犯罪行為所依賴的前提。刪除這些數(shù)據(jù)信息,就等于“抹除”強人工智能產(chǎn)品的“犯罪記憶”,強人工智能產(chǎn)品也恢復到原有的正常狀態(tài)。二是修改程序。如果刪除數(shù)據(jù)的做法,無法刪除有可能實施違法犯罪行為的“負面數(shù)據(jù)”,也就是說無法阻止強人工智能產(chǎn)品主動獲取這些實施犯罪的數(shù)據(jù)??紤]到正面引導的失效,應當強制修改該智能產(chǎn)品的基礎程序,限定智能產(chǎn)品獲取外界數(shù)據(jù)、深度學習的能力在特殊的范圍之內(nèi),進而徹底剝奪實施犯罪行為的可能性。三是永久銷毀。如果刪除數(shù)據(jù)與修改程序都無法奏效,而且強人工智能產(chǎn)品在程序上具備了“反刪除能力”或“反修改能力”的,那么,永久銷毀成為最后的選擇。對于強人工智能產(chǎn)品而言,刪除數(shù)據(jù)、修改程序、永久銷毀形成了一定的刑罰階梯與處罰的層次性,可以與強人工智能產(chǎn)品所實施行為的社會危害性及其“人身危險性”形成邏輯與程度上的對應關系。②參見前注⑦,劉憲權(quán)文。其二,報廢、回收改造、罰金等。如果人工智能產(chǎn)品具有自主意志,則應賦予其刑事責任的主體地位,相應地,報廢、回收改造、罰金等特殊的刑罰措施,是可以考慮的應對措施。一是徹底報廢實施嚴重犯罪行為的人工智能產(chǎn)品,這是最根本、最嚴厲的處罰措施。二是回收改造人工智能產(chǎn)品。對于實施了犯罪行為的人工智能產(chǎn)品,可以考慮回收,中斷智能程序,由專門的技術(shù)人員研究系統(tǒng)缺陷,通過改造與試驗后,決定重新投入使用,避免研發(fā)及制造成本的浪費。三是罰金刑。人工智能產(chǎn)品實施犯罪的,如果犯罪情節(jié)輕微的,可適用罰金刑。③參見蔡婷婷:《人工智能環(huán)境下刑法的完善及適用——以智能機器人和無人駕駛汽車為切入點》,《犯罪研究》2018年第2期。應該說,這兩種看法具有一定的前瞻性和積極意義,對今后如何針對人工智能犯罪問題設計相適應的刑罰措施有參考價值。
顯然,根據(jù)我國《刑法》所確立的刑罰體系,從刑罰處罰的對象及刑罰處罰的方式等內(nèi)容看,均無法也不能涵括智能機器人。相比之下,刪除數(shù)據(jù)、修改程序、永久銷毀等與人工智能技術(shù)相適應的一些“制裁措施”,是能夠適用于智能機器人及其相關犯罪的刑罰處罰方式。如果今后立法條件趨于成熟,針對智能主體,可以設置相應的財產(chǎn)刑或者權(quán)利刑等措施,提高刑事制裁的有效性。應該說,以強人工智能產(chǎn)品為對象,在設計具體的刑罰措施與體系時,刪除數(shù)據(jù)、修改程序、永久銷毀是一種具有可行性的選擇,但應更豐富地拓展視野。
3.立法修正思路的探索
設計針對人工智能犯罪的刑事制裁措施及其體系是一項全新的探索,并無現(xiàn)成的經(jīng)驗可循,因而,需要根據(jù)人工智能技術(shù)及其刑事風險的動態(tài)進行考量,具體而言,應考量以下方面。其一,傳統(tǒng)刑罰種類的歷史揚棄命運。誠然,死刑、有期徒刑或者罰金刑、驅(qū)逐出境等傳統(tǒng)意義上的生命刑、自由刑、財產(chǎn)刑以及資格刑等刑罰制度,對于智能犯罪以及智能機器人的犯罪主體而言,不僅在內(nèi)容與形式上不相適應,而且也暴露了傳統(tǒng)刑罰種類在智能犯罪時代的“無效”問題。進一步講,人類社會在近現(xiàn)代刑法體系中所確立的自由刑為主導、財產(chǎn)刑為輔助的刑罰結(jié)構(gòu),由于具體的刑罰措施與刑罰種類無法對智能犯罪主體起有效作用,使其立法的滯后性暴露無遺。在此情況下,諸如死刑等具體的傳統(tǒng)刑罰措施被迫作出改變,“揚棄”成為最理性的選擇。盡管如此,傳統(tǒng)刑罰體系與刑罰結(jié)構(gòu)的法學構(gòu)建思維與邏輯,仍有其可借鑒之處。例如,對于智能產(chǎn)品而言,研發(fā)者與設計者基于“算法”而制作的電子運行程序,在很大程度上決定了智能產(chǎn)品作為犯罪主體的“行動能力”,即具有決定刑事責任能力的作用。對其進行不同程度的限制或刪除,可以起到類似于“終極剝奪”或“有期限的限制”等制裁效果,與針對人類的死刑或有期徒刑措施,有同樣的效果。其二,類型化的思維。在人工智能時代,智能機器人的智能程度不盡相同,智能產(chǎn)品的表現(xiàn)形式不一,研發(fā)者、設計者也有差異。在此背景下,為了避免立法的碎片化,應當重視類型化的立法思維,對同類型或相似類型的犯罪主體,設置相適應的刑罰措施,從而建立健全人工智能時代的刑罰體系。其三,分階段、分步驟增設新的刑罰措施。人工智能技術(shù)是不斷發(fā)展的,其應用過程中所產(chǎn)生的刑事法律風險也會變動不定,但不變的是智能技術(shù)的風險問題。因此,在調(diào)整刑罰種類與刑罰體系時,應當因地制宜,分階段、分步驟進行調(diào)整。也就是說要根據(jù)人工智能犯罪的發(fā)展趨勢、基本規(guī)律、主要類型、危害屬性等多種因素,立足“刑罰有效性”的目的,不斷修正和完善刑罰種類,繼而完善刑罰體系,實現(xiàn)可持續(xù)的應對效果。