于沖(中國(guó)政法大學(xué)副教授、網(wǎng)絡(luò)法學(xué)研究中心研究員)
人工智能時(shí)代背景下,人工智能犯罪開(kāi)始越來(lái)越多地受到學(xué)界關(guān)注。對(duì)于人工智能算法自主決策行為及其引發(fā)的危害后果,傳統(tǒng)民事、刑事規(guī)則很多情況下都顯出明顯的滯后與評(píng)價(jià)的空白,以至于刑法學(xué)界關(guān)于人工智能犯罪的研究呈現(xiàn)出“智能化”、“想象化”和“過(guò)度未來(lái)化”的空想特質(zhì)。針對(duì)可能出現(xiàn)和已經(jīng)出現(xiàn)的人工智能犯罪,應(yīng)當(dāng)明確刑法所要規(guī)制的對(duì)象不是機(jī)器人,而是機(jī)器人背后的技術(shù)行為和人的過(guò)錯(cuò)。因此,關(guān)于人工智能的刑法規(guī)制,應(yīng)當(dāng)立足于人工智能的技術(shù)實(shí)質(zhì)和發(fā)展規(guī)律,以算法規(guī)制為核心,系統(tǒng)化地思考人工智能的刑法評(píng)價(jià)進(jìn)路。
在智能互聯(lián)網(wǎng)時(shí)代,人類決策權(quán)向人工智能的不斷轉(zhuǎn)移,導(dǎo)致“制定標(biāo)準(zhǔn)、制造硬件、編寫代碼的人擁有相當(dāng)程度的控制力量”,而“人工智能變?yōu)閳?zhí)行人類指令、通過(guò)算法解決問(wèn)題的一種智慧性高級(jí)工具”。因此,關(guān)于人工智能基于自主決策造成的危害后果的責(zé)任追究,傳統(tǒng)刑法逐漸面臨挑戰(zhàn)?;诖?,學(xué)界圍繞人工智能的刑法規(guī)制模式,展開(kāi)了人工智能主體化與否的爭(zhēng)議。
整體上講,人工智能犯罪基本可以分為三類:一是以人工智能為對(duì)象的犯罪,即對(duì)人工智能系統(tǒng)、數(shù)據(jù)、算法等實(shí)施的攻擊破壞等狹義的計(jì)算機(jī)犯罪;二是以人工智能為工具的犯罪,即利用人工智能實(shí)施的非法爬取數(shù)據(jù)、侵犯公民個(gè)人信息,以及違反人工智能安全管理義務(wù)觸犯的拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪等傳統(tǒng)犯罪;三是以人工智能為“本體”的犯罪,即人工智能深度學(xué)習(xí)“本體化”以后自主決策實(shí)施的危害社會(huì)的“犯罪行為”。前兩類犯罪同當(dāng)前網(wǎng)絡(luò)犯罪以及傳統(tǒng)犯罪的網(wǎng)絡(luò)異化態(tài)勢(shì)具有相似性,完全可以以現(xiàn)有的應(yīng)對(duì)思路進(jìn)行回應(yīng)。對(duì)于第三類以人工智能為本體的犯罪,成為困擾當(dāng)前學(xué)界的一大難題,形式上體現(xiàn)為傳統(tǒng)刑法的罪過(guò)論、行為論、刑罰論在人工智能自主決策實(shí)施“犯罪”面前束手無(wú)策。這種束手無(wú)策所體現(xiàn)出的人工智能主體化、算法的不可控性進(jìn)一步加劇了刑法理論在解決人工智能犯罪面前的“妥協(xié)”。典型的人工智能主體化觀點(diǎn)認(rèn)為,可以以智能機(jī)器人能否在設(shè)計(jì)和編制程序范圍外實(shí)施行為,作為區(qū)分刑事責(zé)任能力即辨認(rèn)能力和控制能力有無(wú)的界限。針對(duì)強(qiáng)人工智能階段智能機(jī)器人獨(dú)立實(shí)施嚴(yán)重危害社會(huì)的犯罪行為,應(yīng)當(dāng)堅(jiān)持相對(duì)獨(dú)立的刑法評(píng)價(jià),借鑒法律擬制的思維,將人工智能擬制為與自然人和法人并列的第三類新型責(zé)任主體,從而建立適合該類主體的特殊刑罰體系。另有學(xué)者從應(yīng)對(duì)“道德困境(moral dilemmas)”作出倫理選擇能力的角度,論證了機(jī)器人刑事歸責(zé)的合理性,認(rèn)為當(dāng)人工智能能夠成功學(xué)會(huì)表達(dá)和決定道德的問(wèn)題時(shí),其將會(huì)有能力理解懲罰的意義,進(jìn)而具有刑法意義上的行為人的資格。持否定論觀點(diǎn)的學(xué)者一般認(rèn)為,未來(lái)人工智能系統(tǒng)成為犯罪主體應(yīng)當(dāng)具備“具有與人類社會(huì)規(guī)范意義上的辨認(rèn)能力和控制能力”“法律允許進(jìn)入人類社會(huì)”“受到人類社會(huì)法律的管理”三個(gè)核心要素,且需與刑法體系相協(xié)調(diào),即包括刑法的目的與任務(wù),以及犯罪、刑事責(zé)任與刑罰相關(guān)規(guī)定相協(xié)調(diào),而這些條件都是人工智能所不具備的。另有學(xué)者從“道德預(yù)設(shè)”和“目的預(yù)設(shè)”的角度否定了人工智能的法律主體資格,認(rèn)為機(jī)器只能被設(shè)計(jì)成遵守法律而不能理解法律,只有人類才能理解“權(quán)利”和“責(zé)任”的涵義,法律不可能會(huì)對(duì)機(jī)器人本身的行為產(chǎn)生影響,如刑罰的震懾效應(yīng)對(duì)機(jī)器人來(lái)說(shuō)幾乎沒(méi)有意義。與肯定論和否定論有所不同,階段論的基本立場(chǎng)是,是否賦予人工智能刑法主體地位應(yīng)當(dāng)結(jié)合當(dāng)前科技發(fā)展現(xiàn)況進(jìn)行探討。因此,階段論的學(xué)者認(rèn)為,在未來(lái)很長(zhǎng)一段時(shí)間內(nèi)人工智能都將是從屬于人類的工具,現(xiàn)階段承認(rèn)人工智能具有刑事主體地位為時(shí)過(guò)早,純粹出于“幻想”的理論探討有違刑法的“沉穩(wěn)”與“謙抑”品格。
在肯定說(shuō)、否定說(shuō)和階段說(shuō)中,筆者認(rèn)為,否定說(shuō)雖然在刑法意義的層面否定了人工智能的主體地位,但是不同的否定說(shuō)的理論依據(jù)并不完全相同,筆者將在本文接下來(lái)的論述中予以闡明。而階段說(shuō)和肯定說(shuō)都是不妥當(dāng)?shù)?,誠(chéng)然,當(dāng)前人工智能技術(shù)依然停留在弱人工智能階段,此時(shí)的人工智能更多的是作為一種智能“產(chǎn)品”和輔助人類具體事務(wù)的“工具”出現(xiàn)在人類面前,其不具有自主意識(shí)和自由意志已基本成為學(xué)界的通說(shuō)觀點(diǎn),當(dāng)人工智能與犯罪行為相聯(lián)系,出現(xiàn)侵害法益的后果時(shí),通過(guò)傳統(tǒng)刑法的犯罪理論體系追究其背后的“人”的刑事責(zé)任即可解決問(wèn)題。但是技術(shù)的發(fā)展遠(yuǎn)超于人類的想象,強(qiáng)人工智能時(shí)代的到來(lái)必然是大勢(shì)所趨,因此階段論適用范圍過(guò)窄且缺乏一定的立法遠(yuǎn)瞻性,無(wú)法回答未來(lái)強(qiáng)人工智能時(shí)代自主性極強(qiáng)的智能機(jī)器人獨(dú)立進(jìn)行犯罪行為時(shí)的立法規(guī)制問(wèn)題。
而肯定說(shuō)存在的最大問(wèn)題在于,一味地將智能機(jī)器人與人的特征進(jìn)行對(duì)比,論證人工智能具有刑事責(zé)任能力的可能性,忽略了刑法理論中責(zé)任主體,只能是人的最基礎(chǔ)也是最核心的要素。人工智能作為一種人造物是否會(huì)產(chǎn)生自我意識(shí)并不是刑法所要討論的問(wèn)題,這是一個(gè)至今理論界無(wú)法得出定論的哲學(xué)問(wèn)題。法律所要調(diào)整的是穩(wěn)定、清晰的法律關(guān)系,人的本質(zhì)是社會(huì)關(guān)系的總和,人工智能的本質(zhì)是人的工具、人的器官延伸,人工智能不可能在法律關(guān)系中成為一個(gè)真正的主體,刑法理論中的責(zé)任主體只能是人,即使現(xiàn)今大部分國(guó)家承認(rèn)法人也具有犯罪能力,但法人本質(zhì)上是由自然人組成的社會(huì)集合體,即使是我國(guó)規(guī)定的單位犯罪,也是通過(guò)具體的自然人實(shí)施的,單位犯罪中除追究單位的刑事責(zé)任外,一般也要追究相關(guān)自然人的刑事責(zé)任。因此,筆者基本上贊同否定說(shuō)的觀點(diǎn),即不論是弱人工智能抑或強(qiáng)人工智能階段,智能機(jī)器人均不得具有刑法主體地位。但筆者的理由與否定論者并不完全相同,而是源于對(duì)責(zé)任主體理論根基的重新解讀,源于對(duì)技術(shù)倫理與立法道德沖突的自我反思。
當(dāng)前學(xué)界對(duì)于人工智能是否具有刑法主體地位的討論,似乎偏離了最基本的軌道,即應(yīng)當(dāng)在堅(jiān)持刑法基本理論的基礎(chǔ)之上,去探討人工智能刑法主體地位的合理性。筆者認(rèn)為,刑法對(duì)人工智能刑事責(zé)任主體地位賦予與否的關(guān)鍵,核心不是在于能不能的問(wèn)題,而是應(yīng)不應(yīng)的問(wèn)題。
刑法中責(zé)任主體的理論根基只能是人,刑事責(zé)任是人在應(yīng)該而且能夠選擇符合法律規(guī)范的行為時(shí),卻主體性地選擇了違反法律規(guī)范的行為,因而必須接受的譴責(zé)和懲罰。通說(shuō)認(rèn)為,刑法上的責(zé)任能力,由辨認(rèn)能力與控制能力組成。但辨認(rèn)能力與控制能力,不是對(duì)任何事物的辨認(rèn)控制能力,而是對(duì)法律規(guī)范、社會(huì)規(guī)范的辨認(rèn)能力和行為人控制自己按照規(guī)范行為的能力。這種辨認(rèn)控制能力的選擇與承認(rèn),不單單是從技術(shù)層面進(jìn)行的,還要經(jīng)過(guò)法律的價(jià)值選擇。概言之,責(zé)任能力是人特有的主體性特征,而人工智能經(jīng)過(guò)深度學(xué)習(xí)算法和數(shù)據(jù)處理后生成的“思維能力”,僅僅是從技術(shù)層面對(duì)外部事物進(jìn)行感知并作出判斷,雖然會(huì)進(jìn)行思考,但此類思考都是基于人類的初始程序設(shè)定,歸根究底還是離不開(kāi)人類的控制。即使未來(lái)出現(xiàn)了智力遠(yuǎn)超人類的人工智能,仍然應(yīng)當(dāng)將高階人工智能的認(rèn)知和決定能力與人的辨認(rèn)能力和控制能力嚴(yán)格加以區(qū)分。這是由人與人工智能基本關(guān)系的定位所決定的。不管是何種階段,人工智能都是模仿人類智能所創(chuàng)造出的、處于人類控制之下的延伸物,人工智能由于機(jī)器學(xué)習(xí)的算法所產(chǎn)生的意識(shí)和意志能力具有依附性,永遠(yuǎn)是人類賦予的,具有相對(duì)性,永遠(yuǎn)應(yīng)當(dāng)受到人的控制。人工智能只是復(fù)制和模擬作為主體的人類,其終究是模仿人類智能創(chuàng)造而出的,是人類思維的產(chǎn)物,屬于人類勞動(dòng)創(chuàng)造的客體。
“刑法不僅要面對(duì)犯罪人保護(hù)國(guó)家,也要面對(duì)國(guó)家保護(hù)犯罪人,不單面對(duì)犯罪人,也要面對(duì)檢察官保護(hù)市民,成為公民反對(duì)司法專橫和錯(cuò)誤的大憲章。”若賦予人工智能以法律主體地位,相應(yīng)地,人工智能也應(yīng)具備一套完整的權(quán)利義務(wù)規(guī)則體系,當(dāng)人工智能具有法律主體資格,其被人類侵害時(shí)是否也要考慮人工智能應(yīng)受法律保護(hù)的權(quán)利?當(dāng)人工智能成為犯罪主體時(shí),法律是否需要保障人工智能作為“犯罪人”的權(quán)利?這一系列的問(wèn)題都需要法律進(jìn)行解答。其次,刑罰是以痛苦為本質(zhì)內(nèi)容的,但單純的痛苦并不是刑罰的目的,包含在刑罰中的對(duì)行為的否定評(píng)價(jià),由刑罰傳達(dá)給行為人與一般人,從而抑制未然的犯罪。對(duì)人工智能科以刑罰并不能有效實(shí)現(xiàn)刑罰針對(duì)特定人的特殊預(yù)防以及不特定人一般預(yù)防的功能。人工智能不具有生物學(xué)意義上生命特征以及獨(dú)立財(cái)產(chǎn),現(xiàn)行刑法中的自由刑或財(cái)產(chǎn)刑無(wú)法有效地針對(duì)人工智能進(jìn)行處罰,實(shí)施犯罪行為的人工智能并不能意識(shí)到自身行為的社會(huì)屬性以及可制裁性。而對(duì)個(gè)別人工智能實(shí)施制裁,也并不會(huì)影響到其他具有法益侵害可能性的人工智能,同樣無(wú)法實(shí)現(xiàn)刑罰威懾、教育、感化的一般預(yù)防功能。另外,從刑罰的安撫、補(bǔ)償功能角度審視,對(duì)人工智能進(jìn)行處罰所實(shí)施的刪除數(shù)據(jù)或永久銷毀等,并不能慰藉被害人及其親屬因犯罪侵害而受到的精神創(chuàng)傷和引起的憤恨情緒,使受到犯罪破壞的社會(huì)心態(tài)回復(fù)平衡,而且人工智不具有獨(dú)立的財(cái)產(chǎn),也無(wú)法彌補(bǔ)被害人受到的物質(zhì)損失,由此將導(dǎo)致刑罰一般預(yù)防目的中所需的社會(huì)效應(yīng)得不到反饋。
人類的道德觀和價(jià)值觀設(shè)計(jì),人工智能作為服務(wù)人的工具,而非與人類并存的主體。人工智能本質(zhì)上是一種工具,這種工具和其他工具一樣,是人類發(fā)現(xiàn)和利用自然規(guī)律的產(chǎn)物,是為了追求更好的生活目標(biāo)所創(chuàng)造出的科技產(chǎn)物,從服務(wù)人類的工具屬性而言,人工智能并非與人類并存的主體,僅具有客體屬性。對(duì)人性的理解決定了刑法學(xué)的性質(zhì),所謂人性,即為人區(qū)別于動(dòng)物、區(qū)別于其他事物的本質(zhì)特征。人工智能表現(xiàn)出的“人性”僅為人類知識(shí)的處理結(jié)果,人類在作出決定時(shí),更多的不是靠理性計(jì)算,而是靠直覺(jué)、情緒、感情等來(lái)作出判斷,這是人與跟智能機(jī)器人最大的區(qū)別,即使未來(lái)出現(xiàn)能夠進(jìn)行自主思考的智能機(jī)器人,也不可能和人類一樣,機(jī)器只能靠邏輯或者從數(shù)據(jù)中自我學(xué)習(xí),進(jìn)行判斷。
針對(duì)可能出現(xiàn)的人工智能犯罪以及刑事責(zé)任承擔(dān)的問(wèn)題,需明確刑法所要規(guī)制的對(duì)象不是機(jī)器,而是機(jī)器背后的技術(shù),也即人工智能技術(shù)背后的行為和行為人。
2006年以來(lái),以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)算法,在機(jī)器視覺(jué)和語(yǔ)音識(shí)別等領(lǐng)域取得了極大的成功,人工智能的發(fā)展模式也從過(guò)去追求“用計(jì)算機(jī)模擬人工智能”,逐步轉(zhuǎn)向以機(jī)器與人結(jié)合而成的增強(qiáng)型混合智能系統(tǒng)。有學(xué)者認(rèn)為,人工智能的本質(zhì)在于算法和數(shù)據(jù)處理,“類人化”的物理形體并非構(gòu)成人工智能的必備要素,即使是人形機(jī)器人,也只不過(guò)是算法主導(dǎo)下的一個(gè)硬件系統(tǒng)。此即突顯出算法在人工智能發(fā)展中的核心和主導(dǎo)地位。現(xiàn)今人工智能具備的深度學(xué)習(xí)能力、獨(dú)立的自主判斷能力和自我決策能力,使得機(jī)器自我學(xué)習(xí)的結(jié)果變得更加不可控,這種機(jī)器學(xué)習(xí)的結(jié)果,將會(huì)使得將來(lái)社會(huì)面臨更大的風(fēng)險(xiǎn)和不確定性,而如何規(guī)制人工智能時(shí)代的智能機(jī)器犯罪問(wèn)題,表面上看屬于法律難題,實(shí)際難點(diǎn)卻是在于技術(shù)而不是法律。盡管強(qiáng)人工智能基于深度學(xué)習(xí)算法,能夠不受最初編寫的原始算法控制,進(jìn)而擁有自主作出判斷和決策的能力,但卻不能全盤否定人類作為算法設(shè)計(jì)者和開(kāi)發(fā)者的主導(dǎo)性地位,及對(duì)人工智能行為的決定性影響。人工智能進(jìn)行深度學(xué)習(xí)所需的原始算法,以及作為學(xué)習(xí)內(nèi)容的海量數(shù)據(jù),都是由人類設(shè)計(jì)或提供,即便人工智能在后續(xù)學(xué)習(xí)中可能會(huì)有新的算法產(chǎn)生,數(shù)據(jù)庫(kù)內(nèi)容進(jìn)行動(dòng)態(tài)更新,但人類依然可以在源頭控制人工智能風(fēng)險(xiǎn)發(fā)生。
人工智能帶來(lái)的犯罪異化,對(duì)于傳統(tǒng)刑法理論的沖擊,已經(jīng)超越了傳統(tǒng)犯罪的網(wǎng)絡(luò)異化、網(wǎng)絡(luò)犯罪的傳統(tǒng)化對(duì)于刑法理論、刑法體系的挑戰(zhàn)。如果說(shuō)網(wǎng)絡(luò)犯罪異化帶來(lái)的刑法沖擊尚可以借助傳統(tǒng)刑法的擴(kuò)大解釋、刑法的罪名增設(shè)進(jìn)行應(yīng)對(duì),人工智能犯罪的沖擊則是跳出了傳統(tǒng)刑法的理論框架和規(guī)則框架,以至于刑法學(xué)界關(guān)于人工智能犯罪的研究呈現(xiàn)出“智能化”、“想象化”和“過(guò)度未來(lái)化”的空想特質(zhì)。2016年歐洲議會(huì)針對(duì)人工智能可能獨(dú)立作出自主“決策”并執(zhí)行“決策”的情況,提出賦予人工智能以“電子人格”的立法建議報(bào)告。但就如何具體落實(shí)人工智能“電子人格”所必需的民事行為能力和責(zé)任能力時(shí),該份報(bào)告并未給出具體可行的方案,對(duì)于人工智能機(jī)器人造成的損害,報(bào)告僅提議制造商為機(jī)器人購(gòu)買強(qiáng)制性保險(xiǎn)。由此觀之,最終的責(zé)任承擔(dān)者都是人,智能機(jī)器的財(cái)產(chǎn)終究是人類通過(guò)某種方式給予的,因此賦予人工智能以“法律人格”似乎多此一舉。應(yīng)當(dāng)明確,人工智能刑法、人工智能主體化觀點(diǎn)的提出,某個(gè)程度上反應(yīng)出傳統(tǒng)刑法在信息化時(shí)代、智能化時(shí)代的準(zhǔn)備不足和理論慌亂。解決這一癥結(jié)的出路,在于明確人工智能的問(wèn)題,明確人工智能犯罪背后的技術(shù)過(guò)錯(cuò)是人的過(guò)錯(cuò),在刑法可評(píng)價(jià)的范圍內(nèi)對(duì)人工智能進(jìn)行規(guī)制。
人工智能生產(chǎn)、部署、運(yùn)行的核心在于數(shù)據(jù)的獲取、加工和分析,而支撐數(shù)據(jù)活動(dòng)的算法則成為核心的核心。因此,對(duì)于人工智能的刑法規(guī)制,應(yīng)當(dāng)跳出規(guī)制企業(yè)行為、規(guī)制人工智能本身(即人工智能主體化)的傳統(tǒng)思維,樹(shù)立起數(shù)據(jù)安全保障、算法規(guī)制為核心的人工智能刑法評(píng)價(jià)模式??梢哉f(shuō),算法的開(kāi)發(fā)者及應(yīng)用者等決定著算法影響社會(huì)的具體方式,不當(dāng)?shù)乃惴☉?yīng)用必然對(duì)既有的社會(huì)秩序和傳統(tǒng)的法律框架體系造成威脅。在刑事領(lǐng)域,對(duì)于人工智能潛在的犯罪風(fēng)險(xiǎn),大部分可以通過(guò)傳統(tǒng)刑法對(duì)人工智能算法背后的行為人進(jìn)行規(guī)制得到解決。需要強(qiáng)調(diào)的是,算法的可解釋性是算法進(jìn)入法律的前提,法律對(duì)算法的規(guī)制可以使技術(shù)的發(fā)展不偏離合法合規(guī)的軌道。“即使算法結(jié)果是由數(shù)據(jù)自動(dòng)化處理得出,從本質(zhì)上講就是人為編制的運(yùn)算法則,其中的回報(bào)函數(shù)體現(xiàn)著工程師的設(shè)計(jì)意圖和價(jià)值取向。因此在算法設(shè)計(jì)過(guò)程中,應(yīng)當(dāng)通過(guò)法律的價(jià)值影響算法的回報(bào)函數(shù),加強(qiáng)對(duì)網(wǎng)絡(luò)社會(huì)的技術(shù)治理手段的法律歸化?!鄙鐣?huì)治理目標(biāo)的實(shí)現(xiàn)必然要對(duì)技術(shù)進(jìn)行法律化的規(guī)制,必須打破算法的黑箱操作,加強(qiáng)對(duì)算法的法律規(guī)制,使得算法更符合社會(huì)的倫理基礎(chǔ)與價(jià)值基礎(chǔ)。我們需要理性對(duì)待信息技術(shù)的發(fā)展并看清其本質(zhì)的有限性,使網(wǎng)絡(luò)技術(shù)回歸到原初的工具位置,更好地服務(wù)人的生活。