華南農(nóng)業(yè)大學(xué)人文與法學(xué)學(xué)院 梁穎欣,梁雅淇
大數(shù)據(jù)和人工智能技術(shù)迅速發(fā)展是科技進(jìn)步和發(fā)展的必然結(jié)果,人類已然邁入人工智能時(shí)代。2017年7月8日國(guó)務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,進(jìn)一步明確了我國(guó)新一代人工智能發(fā)展的戰(zhàn)略目標(biāo),將發(fā)展人工智能技術(shù)上升為重要國(guó)家戰(zhàn)略。隨著人工智能的發(fā)展,其在國(guó)內(nèi)外被運(yùn)用于諸多領(lǐng)域,尤其是法律領(lǐng)域,在法律文書(shū)寫(xiě)作、法律咨詢、案情預(yù)測(cè)以及案件審理輔助等方面。然而,人工智能是一把雙刃劍,在給社會(huì)發(fā)展帶來(lái)便利的同時(shí)也產(chǎn)生了無(wú)法預(yù)計(jì)的風(fēng)險(xiǎn),刑法在人工智能發(fā)展和運(yùn)用的過(guò)程中必然會(huì)受到影響,因此對(duì)于人工智能背景下可能出現(xiàn)的對(duì)刑法的挑戰(zhàn)需要進(jìn)行探討,從而提出相應(yīng)的應(yīng)對(duì)策略。
人 工 智 能(Artificial Intelligence),英文縮寫(xiě)為AI。人工智能最初是由麥卡錫在1956年提出的,但當(dāng)時(shí)并沒(méi)有對(duì)人工智能作出詳細(xì)的定義。后來(lái),“人工智能之父”馬文·明斯基指出,人工智能是指一門建立在其可以模擬人類的前提下,利用編程語(yǔ)言和理論模型來(lái)幫助解決人類的現(xiàn)實(shí)問(wèn)題,并提高人類解決相關(guān)問(wèn)題的能力的科學(xué)。也有其他的說(shuō)法,稱人工智能是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。
由此可見(jiàn),對(duì)于人工智能的定義,在學(xué)界尚未形成統(tǒng)一的意見(jiàn),不同的學(xué)者有不同的理解。但無(wú)論如何,人工智能與人類有著密切聯(lián)系、不可分割,這一點(diǎn)無(wú)需質(zhì)疑。
當(dāng)下,關(guān)于人工智能的分類,參照不同的分類標(biāo)準(zhǔn)有不同的分類方法,其中獲得較多學(xué)者認(rèn)可的方法有“二分法”“三分法”和“四分法”,科學(xué)界關(guān)注較多的是“四分法”。由于法學(xué)更多考量行為人是否具有獨(dú)立的思考、辨認(rèn)和控制能力,因此法學(xué)界多圍繞“二分法”對(duì)人工智能進(jìn)行討論[1]。
1.弱人工智能
弱人工智能是指沒(méi)有自主意識(shí)和自我認(rèn)知功能的人工智能系統(tǒng)與方法,并沒(méi)有真正推理和解決問(wèn)題的智能機(jī)器[2]。弱人工智能是目前人工智能領(lǐng)域主要研究的內(nèi)容,但其智能范圍較窄,只擅長(zhǎng)于某一特定領(lǐng)域,是執(zhí)行人類所賦予的指令的機(jī)器。當(dāng)年戰(zhàn)勝世界圍棋冠軍的“阿爾法狗(AlphaGo)”便屬于弱人工智能體,日常生活中的人臉識(shí)別系統(tǒng)以及智能家電的計(jì)時(shí)等也屬于弱人工智能機(jī)器。
2.強(qiáng)人工智能
強(qiáng)人工智能是指能夠思考和解決問(wèn)題的智能機(jī)器,具有高度的自主性[3],這種類似人類級(jí)別的人工智能。相比弱人工智能,強(qiáng)人工智能的職能范圍較寬,可以涉及多個(gè)領(lǐng)域。強(qiáng)人工智能知道自己在做什么,能夠自主思考、自主處理事務(wù),它不一定會(huì)按照人類預(yù)先設(shè)定的指令來(lái)運(yùn)行,而是會(huì)根據(jù)不同的情況作出決定。目前強(qiáng)人工智能體并不多,但隨著科技的發(fā)展,強(qiáng)人工智能的增加是必然的,提前預(yù)見(jiàn)和對(duì)其進(jìn)行國(guó)內(nèi)外研究的總結(jié)思考十分必要。
關(guān)于弱人工智能的刑事責(zé)任主體資格認(rèn)定。由弱人工智能的概念可知,弱人工智能機(jī)器人受控于人類所設(shè)計(jì)的程序,其對(duì)所實(shí)施的一切行為都不具有獨(dú)立的意識(shí),也不具有自我認(rèn)知功能,其本質(zhì)只是使得人類工作和生活更便利的機(jī)器。因此,弱人工智能機(jī)器人不應(yīng)當(dāng)具備刑事責(zé)任主體資格,其本身并不滿足刑法所規(guī)定的刑事責(zé)任主體具備的條件,這一點(diǎn)在學(xué)界幾乎沒(méi)有爭(zhēng)議。關(guān)于強(qiáng)人工智能的刑事責(zé)任主體資格認(rèn)定。自強(qiáng)人工智能出現(xiàn)以來(lái),在學(xué)界一直存在爭(zhēng)議,主要有肯定說(shuō)、折中說(shuō)和否定說(shuō)三種觀點(diǎn)[4,5]。筆者認(rèn)為,強(qiáng)人工智能機(jī)器人可以作為刑事責(zé)任的主體,主要原因有以下幾點(diǎn):第一,當(dāng)強(qiáng)人工智能機(jī)器人發(fā)展到一定階段時(shí),可以脫離程序自主實(shí)施犯罪,這滿足了實(shí)施嚴(yán)重危害社會(huì)的行為的要件。第二,是否具備刑事責(zé)任能力主要看兩個(gè)方面,即年齡和精神狀況,這兩個(gè)方面都是以自身的辨認(rèn)能力與控制能力為標(biāo)準(zhǔn)來(lái)衡量的。因此,能否成為刑法意義上的刑事責(zé)任主體取決于行為人對(duì)自己的行為是否具有辨認(rèn)能力與控制能力。最后,雖然現(xiàn)行刑法對(duì)人工智能體自主犯罪未作出規(guī)定,但違法必究,一旦強(qiáng)人工智能機(jī)器人實(shí)施了犯罪行為,就應(yīng)當(dāng)承擔(dān)刑事責(zé)任。綜上,強(qiáng)人工智能機(jī)器人符合構(gòu)成刑事責(zé)任主體的條件,應(yīng)當(dāng)具有刑事責(zé)任主體資格。
人工智能在生活中的運(yùn)用愈發(fā)多元化,人工智能可以使得產(chǎn)品智能化,也能使得犯罪工具和犯罪手段智能化[6]。在互聯(lián)網(wǎng)、大數(shù)據(jù)等新技術(shù)發(fā)展的今天,傳統(tǒng)犯罪的行為模式也因此發(fā)生改變,犯罪方法和手段更加多樣化,風(fēng)險(xiǎn)性越來(lái)越高。以最常見(jiàn)的信息收集為例,相比其他方式,線上收集信息是最便利的。在人工智能時(shí)代,獲取信息的時(shí)間是極短的,只要填寫(xiě)人將資料進(jìn)行上傳,這些資料就會(huì)集中在一起。用于工作固然是便利的,但一旦人工智能技術(shù)被不法分子利用或者人工智能機(jī)器人產(chǎn)生自主意識(shí)實(shí)施犯罪,所收集的信息就會(huì)被竊取或泄露,人們的信息安全得不到保障,長(zhǎng)期下去更是會(huì)擾亂社會(huì)秩序,引起恐慌。
1.弱人工智能體被人利用,用作犯罪工具以實(shí)施犯罪
現(xiàn)今,人工智能體仍處于低級(jí)階段,其僅能夠執(zhí)行人類所設(shè)計(jì)的指令,無(wú)法辨認(rèn)人類所輸入的指令是否具有危害性。2019年3月,有犯罪分子使用基于人工智能的軟件模仿一家英國(guó)能源公司首席執(zhí)行官的聲音,騙取其下屬22萬(wàn)歐元。在我國(guó)首例利用AI人工智能犯罪案中,亦有人利用人工智能的自主識(shí)別能力,非法獲取公民的個(gè)人信息后大量販賣。國(guó)內(nèi)外大量出現(xiàn)的新型人工智能犯罪,在大多數(shù)情況下,是利用弱人工智能體的識(shí)別能力、改造能力等,將其作為犯罪工具,以實(shí)現(xiàn)犯罪目的,這是對(duì)犯罪客觀方面的挑戰(zhàn)。
2.研發(fā)人員或使用人員對(duì)弱人工智能體的監(jiān)督義務(wù)未履行導(dǎo)致過(guò)失犯罪
對(duì)于弱人工智能體而言,研發(fā)人員和使用人員是其發(fā)明主體和使用主體,這兩個(gè)主體對(duì)弱人工智能體有監(jiān)督義務(wù),以防出現(xiàn)危害社會(huì)的行為。弱人工智能體仍存在許多缺陷,如研發(fā)人員或使用人員未履行對(duì)弱人工智能體的監(jiān)督義務(wù),導(dǎo)致弱人工智能體出現(xiàn)危害社會(huì)的行為,開(kāi)發(fā)者和使用者在主觀上存在監(jiān)督的過(guò)失,應(yīng)構(gòu)成過(guò)失犯罪。以無(wú)人駕駛為例,美國(guó)推出目前為止第一部也是唯一一部自動(dòng)駕駛汽車法案—《聯(lián)邦自動(dòng)駕駛汽車政策指南(FAVP)》,德國(guó)聯(lián)邦參議院在2017年6月頒布了《道路交通法》(第八修訂案),明確了使用自動(dòng)駕駛系統(tǒng)時(shí)駕駛員所具備的權(quán)利以及需履行的義務(wù)。但我國(guó)現(xiàn)行刑法以懲罰故意犯罪為原則,懲罰過(guò)失犯罪為例外,且目前對(duì)弱人工智能體開(kāi)發(fā)者和使用者的監(jiān)督義務(wù)未進(jìn)行明確規(guī)定,因此很難追究研發(fā)人員和使用人員的監(jiān)督過(guò)失責(zé)任。長(zhǎng)此以往,弱人工智能體所產(chǎn)生的危害后果將難以計(jì)量,對(duì)社會(huì)的危害將越來(lái)越大,這不利于保護(hù)受害人的合法權(quán)益和維護(hù)社會(huì)公平正義。
3.強(qiáng)人工智能體在自主意志的支配下實(shí)施犯罪
雖說(shuō)現(xiàn)階段的人工智能體以弱人工智能體為主,但在科技高速發(fā)展的今天,強(qiáng)人工智能體的出現(xiàn)是社會(huì)發(fā)展的必然結(jié)果。由前述可知,強(qiáng)人工智能體具有自主意志,從某種程度上看,與人類幾乎沒(méi)有區(qū)別。強(qiáng)人工智能體完全脫離人類的控制,在自主意志的支配下實(shí)施犯罪,是無(wú)法歸責(zé)于研發(fā)人員或使用人員的,而按照目前的刑法規(guī)定,也無(wú)法將其定罪。現(xiàn)行刑法規(guī)定的犯罪主體僅僅是自然人和單位,未將強(qiáng)人工智能體納入其中,這就難以對(duì)強(qiáng)人工智能體的違法行為進(jìn)行規(guī)制,這對(duì)于將來(lái)強(qiáng)人工智能體犯罪的責(zé)任追究有一定的難度。
由前述可知,強(qiáng)人工智能體在經(jīng)過(guò)深度學(xué)習(xí)后,能夠具備獨(dú)立意志和自我意識(shí),甚至有可能按照自己的意志實(shí)施犯罪,此時(shí)強(qiáng)人工智能體已經(jīng)不再是機(jī)器,它具有了法律意義上的刑事責(zé)任主體地位。強(qiáng)人工智能體的出現(xiàn)是必然結(jié)果,而強(qiáng)人工智能體是否存在犯罪的可能性則取決于其學(xué)習(xí)的內(nèi)容。如果未來(lái)的某一天強(qiáng)人工智能體實(shí)施了犯罪,而刑法中沒(méi)有任何規(guī)定,它就可以凌駕于法律之上,利用法律的漏洞繼續(xù)犯罪。要想防患于未然,就要對(duì)強(qiáng)人工智能體的犯罪行為進(jìn)行有效規(guī)制。因此,在刑法中應(yīng)當(dāng)明確強(qiáng)人工智能體的刑事責(zé)任主體地位,將強(qiáng)人工智能體增加到刑法所規(guī)定的刑事責(zé)任主體當(dāng)中,將強(qiáng)人工智能體刑事犯罪納入刑法的規(guī)制范圍。
近年來(lái),人工智能犯罪事件層出不窮,而現(xiàn)行的法律在這一方面有所欠缺,目前也沒(méi)有任何國(guó)家將人工智能犯罪寫(xiě)入本國(guó)刑法之中。但歐美地區(qū)一些國(guó)家已經(jīng)開(kāi)始進(jìn)行對(duì)人工智能立法的相關(guān)探討,歐盟早在2016年就已發(fā)布《歐盟機(jī)器人民事法律規(guī)則》,雖然是一個(gè)民事法律規(guī)則,但其中對(duì)人工智能的研發(fā)和審查人員制定了規(guī)則,并賦予了復(fù)雜的自主機(jī)器人以法律地位的可能性,這為日后制定專門的人工智能犯罪刑事法律規(guī)范打下了基礎(chǔ)。為對(duì)人工智能犯罪進(jìn)行有效的規(guī)制,切實(shí)保障社會(huì)與公眾的利益,我國(guó)應(yīng)當(dāng)借鑒英美法系國(guó)家的相關(guān)規(guī)定,增設(shè)與人工智能相關(guān)的罪名。對(duì)于弱人工智能犯罪,可以增設(shè)濫用人工智能產(chǎn)品罪[7],以防止當(dāng)事人故意利用人工智能機(jī)器人實(shí)施犯罪,具體的定罪量刑可以參考刑法中已有的類似罪名。另外,還應(yīng)當(dāng)設(shè)立人工智能重大責(zé)任事故罪[8],以防出現(xiàn)研發(fā)人員或使用人員未盡到監(jiān)督義務(wù)導(dǎo)致過(guò)失犯罪的情況,一旦由于監(jiān)督過(guò)失導(dǎo)致數(shù)據(jù)泄露或其他更嚴(yán)重的危害,其危害難以磨滅,控制人工智能的主體應(yīng)當(dāng)承擔(dān)較重的責(zé)任,更應(yīng)該受到刑法的規(guī)制。
人工智能體存在的基礎(chǔ)是程序,對(duì)于程序可以進(jìn)行數(shù)據(jù)刪除、修改以及永久銷毀。永久刪除人工智能體犯罪時(shí)所依賴的數(shù)據(jù),相當(dāng)于刪去了人工智能體犯罪的工具,人工智能體無(wú)法再利用這些數(shù)據(jù)實(shí)施犯罪,但這遠(yuǎn)遠(yuǎn)不夠。隨著人工智能體段位的提升,找回已刪除的數(shù)據(jù)并不困難,而找回?cái)?shù)據(jù)的過(guò)程屬于程序,對(duì)程序進(jìn)行修改才能夠較為有效地阻止人工智能體犯罪,也可以通過(guò)對(duì)程序的修改引導(dǎo)人工智能體學(xué)習(xí)正面的、積極的數(shù)據(jù)。對(duì)于強(qiáng)人工智能體而言,前面兩種處罰措施都沒(méi)有太大的效果,因?yàn)榇藭r(shí)強(qiáng)人工智能體已經(jīng)產(chǎn)生了自主意識(shí),哪怕是刪除數(shù)據(jù)和修改程序也很難阻止其再次犯罪,故采取永久銷毀的方法來(lái)對(duì)強(qiáng)人工智能體的犯罪進(jìn)行永久性處罰是最合適的。
當(dāng)下,社會(huì)正處于人工智能時(shí)代,歸根結(jié)底,人工智能與人類傳統(tǒng)認(rèn)知存在一定的偏差,傳統(tǒng)的刑法規(guī)定存在一定的滯后性。要在堅(jiān)持刑法基本原則的同時(shí),結(jié)合社會(huì)現(xiàn)狀,通過(guò)對(duì)比研究國(guó)內(nèi)外對(duì)于人工智能犯罪的研究和探索,以實(shí)現(xiàn)立法觀念的更新,從而更好地對(duì)相關(guān)的定罪量刑適用進(jìn)行一定的調(diào)整。否則,隨著人工智能的發(fā)展,刑法的持續(xù)落后會(huì)導(dǎo)致人工智能犯罪無(wú)法得到規(guī)制,社會(huì)和公眾的利益無(wú)法得到保障,整個(gè)社會(huì)都會(huì)陷入困境。