(吉林大學(xué) 法學(xué)院,吉林 長(zhǎng)春 130012)
人工智能這個(gè)概念早在20世紀(jì)50年代就已經(jīng)出現(xiàn),但其發(fā)展并非一路順利,而是歷經(jīng)了三起兩落,隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺、語音識(shí)別及自然語言處理等領(lǐng)域取得突破性進(jìn)展,人工智能技術(shù)在社會(huì)生活領(lǐng)域的應(yīng)用日趨成熟[1],這一技術(shù)不再僅停留在學(xué)術(shù)界的討論階段,而成為各國政府和企業(yè)家的追捧對(duì)象。我國也非常重視人工智能的發(fā)展,先后發(fā)布了《機(jī)器人產(chǎn)業(yè)發(fā)展規(guī)劃(2016—2020年)》《新一代人工智能發(fā)展規(guī)劃》《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》等一系列相關(guān)文件鼓勵(lì)、促進(jìn)人工智能的發(fā)展,而且在政府的支持下我國的人工智能技術(shù)已經(jīng)在各個(gè)領(lǐng)域迅速發(fā)展,“智慧法院”“百度醫(yī)療大腦”和“富士康機(jī)器人”等都是人工智能應(yīng)用于社會(huì)生活的現(xiàn)實(shí)例子。然而人工智能發(fā)展也不可避免地存在一定的風(fēng)險(xiǎn)和隱患,國家在大力倡導(dǎo)發(fā)展人工智能技術(shù)產(chǎn)業(yè)的同時(shí)也要求構(gòu)建配套的風(fēng)險(xiǎn)防范機(jī)制,以防范潛在風(fēng)險(xiǎn)。習(xí)近平在主持中共中央政治局集體學(xué)習(xí)時(shí)就明確指出:“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。”[2]因此,關(guān)于人工智能體法律規(guī)制包括刑事法律規(guī)制相關(guān)問題的研究對(duì)我國當(dāng)前法治社會(huì)的發(fā)展而言具有跨時(shí)代意義。
人工智能的發(fā)展不僅是一場(chǎng)科技的革命,也將會(huì)對(duì)傳統(tǒng)社會(huì)倫理、法律提出挑戰(zhàn)。我國法學(xué)理論界從法理學(xué)、民法和著作權(quán)法等不同視角探究人工智能時(shí)代法律制度受到的沖擊和可能發(fā)生的變革,自2017年起人工智能相關(guān)法律問題爭(zhēng)論的“戰(zhàn)火”燒到了刑法學(xué)界,是否要改變傳統(tǒng)的刑事責(zé)任主體范圍,賦予人工智能體獨(dú)立的犯罪主體資格,成為這場(chǎng)刑法學(xué)論辯的核心問題。
人工智能體依據(jù)發(fā)展程度不同而有強(qiáng)弱之分,弱人工智能體僅是人類編程控制下改造社會(huì)的工具,可能成為犯罪對(duì)象或犯罪工具卻因明顯不具有自主意志而不可能成為刑事責(zé)任的主體,對(duì)于這一點(diǎn)刑法學(xué)界基本上能夠達(dá)成共識(shí)。然而,對(duì)于脫離人類編程控制的強(qiáng)人工智能體或者說智能機(jī)器人是否會(huì)成為刑事責(zé)任的主體,目前理論界存在兩種觀點(diǎn)。一是否定說。持否定說的學(xué)者認(rèn)為:“未來已來,但是不是說來就來,主張人工智能體具有主體,尚不具有現(xiàn)實(shí)意義”[3];“人工智能系統(tǒng)對(duì)其活動(dòng)的法律規(guī)范意義不可能具有自主性認(rèn)識(shí),不可能具有刑法意義上的辨認(rèn)、控制能力,刑法不應(yīng)將其作為刑事責(zé)任主體”[4]。二是肯定說。持肯定說的學(xué)者認(rèn)為,“強(qiáng)人工智能體能在人類的設(shè)計(jì)編程之外實(shí)施行為具有獨(dú)立意志,且與人類相比具有更強(qiáng)的控制能力與可培養(yǎng)的辨認(rèn)能力,可以成為刑事責(zé)任的主體”[5]?!艾F(xiàn)實(shí)生活中人工智能體在部分國家和地區(qū)已經(jīng)具有了法律人格,而且既然法人能夠獨(dú)立承擔(dān)刑事責(zé)任,人工智能體與法人之間的刑事責(zé)任理念沒有實(shí)質(zhì)性的法律差異,其也可以具有刑罰適應(yīng)能力,所以人工智能體成為刑事責(zé)任主體不存在障礙?!盵6]肯定說和否定說就以下三個(gè)方面存在正面的沖突:(1)人工智能體刑事責(zé)任討論的前提范疇問題;(2)人工智能體是否具有辨認(rèn)、控制能力和可罰性的問題;(3)人工智能體是否具有法律人格等問題。
事實(shí)上,人工智能體是否具有刑事主體地位的問題應(yīng)當(dāng)從兩個(gè)層面進(jìn)行考察:一是實(shí)然層面,即人工智能體在自身能力上是否能夠具備辨認(rèn)、控制能力和承擔(dān)刑事責(zé)任的能力;二是應(yīng)然層面,即人工智能體應(yīng)不應(yīng)該發(fā)展至具有刑事責(zé)任主體地位的階段,當(dāng)然前提是從目前來看人類對(duì)人工智能的發(fā)展能否達(dá)到這種程度是具有一定控制力的,至于是否要積極實(shí)現(xiàn)則需要進(jìn)行風(fēng)險(xiǎn)的評(píng)估和利益的衡量。
有關(guān)人工智能發(fā)展的爭(zhēng)論中影響最大的莫過于對(duì)人工智能威脅論的爭(zhēng)辯,一方以伊隆·馬斯克為代表,對(duì)強(qiáng)人工智能和超級(jí)人工智能時(shí)代的到來充滿擔(dān)憂,認(rèn)為人工智能發(fā)展的終點(diǎn)可能是人被機(jī)器所控制;另一方以馬克·扎克伯格為代表,認(rèn)為人工智能是改善人類生活的重要發(fā)明,而且人工智能不可能超越人類,威脅論者是在危言聳聽。雙方的爭(zhēng)論看起來針鋒相對(duì),但事實(shí)上并不是在同一個(gè)話語體系下對(duì)話。威脅論者所擔(dān)憂的“人工智能”指的是強(qiáng)人工智能甚至是超級(jí)人工智能,而威脅論的反對(duì)者所指的“人工智能”則是弱人工智能,在不同的語境之下抽象地對(duì)人工智能是否會(huì)給社會(huì)帶來威脅進(jìn)行討論其實(shí)不過是各說各話而已,并沒有真正形成觀點(diǎn)上的交鋒與碰撞。同理,若抽象地討論人工智能的刑事責(zé)任主體資格問題,有的學(xué)者是在弱人工智能的語境之下論述,有的學(xué)者是以強(qiáng)人工智能時(shí)代為討論背景,且學(xué)者們對(duì)“人工智能”的概念也有不同的理解,在前提概念沒有厘清的情況下一味地概念附會(huì)只會(huì)制造學(xué)術(shù)泡沫,并無助于認(rèn)清人工智能時(shí)代刑事責(zé)任主體的范圍[7]。
有的學(xué)者在沒有清晰認(rèn)識(shí)人工智能體差異的前提下,將強(qiáng)人工智能也簡(jiǎn)單理解為一種算法,始終認(rèn)為人類具有唯一的主體性,提出無論是在弱人工智能時(shí)代還是在強(qiáng)人工智能時(shí)代都應(yīng)堅(jiān)持“人力可控時(shí)定罪,人力不可控時(shí)不定罪”的定罪原則[8]。事實(shí)上,人工智能按照其發(fā)展程度分為弱人工智能(專用人工智能)、強(qiáng)人工智能(通用人工智能)和超級(jí)人工智能。強(qiáng)人工智能與弱人工智能之間的差異在于機(jī)器是真的智能,還是表現(xiàn)得“好像”很智能一樣[9]。若機(jī)器依附于人類設(shè)置的編程和軟件活動(dòng)則表明尚處于弱人工智能時(shí)代;若機(jī)器能夠在人類設(shè)計(jì)和編程的范圍之外獨(dú)立思考、作出決策,并且可以按照自己的意志實(shí)施行為,則意味著強(qiáng)人工智能時(shí)代的來臨;而超級(jí)人工智能是指人工智能將超過人類智力的極限點(diǎn),達(dá)到這個(gè)狀態(tài)的時(shí)間點(diǎn)就是“奇點(diǎn)”[10]。按照理論推理和概念描述的內(nèi)容,強(qiáng)人工智能體已經(jīng)脫離了人類的控制,具有主體性,因此,將強(qiáng)人工智能體理解為絕對(duì)的客體是對(duì)人工智能體內(nèi)涵的理解存在偏差,對(duì)前提性概念存在誤解的基礎(chǔ)上討論人工智能體的主體地位問題,所得出的結(jié)論將很難令人信服。
雖然有部分人工智能專家對(duì)人工智能的未來發(fā)展充滿信心,認(rèn)為“奇點(diǎn)”一定會(huì)出現(xiàn),但大部分科學(xué)家就現(xiàn)實(shí)情況作出冷靜的分析后認(rèn)為,“目前還沒有已知的強(qiáng)人工智能算法或明晰的工程路線可以實(shí)現(xiàn)這些構(gòu)想”[11]。強(qiáng)人工智能時(shí)代很可能只是人們的一種美好的夢(mèng)想并且無法實(shí)現(xiàn),理由是:
其一,從弱人工智能過渡到強(qiáng)人工智能技術(shù)上存在難以逾越的鴻溝。有學(xué)者認(rèn)為科技的發(fā)展是爆發(fā)式的,人工智能技術(shù)已經(jīng)在逐漸改變我們的生活和工作方式,而且弱人工智能體已經(jīng)在某些方面具有超越人類的能力,所以強(qiáng)人工智能時(shí)代的到來也是可以預(yù)期的[12]。人們之所以對(duì)強(qiáng)人工智能時(shí)代的來臨持有過于樂觀的態(tài)度,部分原因是對(duì)人工智能當(dāng)前發(fā)展速度的認(rèn)知與實(shí)際的發(fā)展進(jìn)度之間存在一定的偏差。人工智能系統(tǒng)在社會(huì)生活中應(yīng)用的范圍不斷擴(kuò)張,人們誤以為是人工智能技術(shù)本身在高速發(fā)展,但實(shí)際上近十年來人工智能技術(shù)本身一直停留在深度學(xué)習(xí)的發(fā)展階段,并沒有什么突破性的進(jìn)展,而人工智能體也不會(huì)突然自己“覺醒”自我升級(jí)為智能機(jī)器人,從弱人工智能到強(qiáng)人工智能的交替需要計(jì)算機(jī)技術(shù)、神經(jīng)網(wǎng)絡(luò)技術(shù)等相關(guān)領(lǐng)域合作完成。目前實(shí)現(xiàn)由弱到強(qiáng)的最現(xiàn)實(shí)策略是讓機(jī)器模擬人的大腦運(yùn)作過程來達(dá)到智能,即通過打造人工網(wǎng)絡(luò)神經(jīng)元模擬人類大腦的神經(jīng)網(wǎng)絡(luò)運(yùn)作程序,但這種理論很難付諸實(shí)踐,谷歌投入大量資金發(fā)展了近十年僅組成16000個(gè)處理器,這與人類大腦中的數(shù)十億個(gè)神經(jīng)元相比不值一提[13]。雖然弱人工智能在某些領(lǐng)域表現(xiàn)出超人的能力,但是這僅僅意味著AI技術(shù)在許多垂直領(lǐng)域內(nèi)的局部進(jìn)展?fàn)顩r良好,從AI的整體發(fā)展來看,跨領(lǐng)域的發(fā)展進(jìn)程很緩慢,存在技術(shù)上難以突破的瓶頸[14]。從目前發(fā)展趨勢(shì)和強(qiáng)弱人工智能時(shí)代交替所需要的技術(shù)支持來看,很難確定強(qiáng)人工智能時(shí)代一定會(huì)實(shí)現(xiàn)。
其二,強(qiáng)人工智能體存在的觀點(diǎn)缺乏哲學(xué)基礎(chǔ)。人的心智是非常復(fù)雜而難以解釋的,目前哲學(xué)家對(duì)人類所具有的意識(shí)、智能等概念尚不能明確作出界定,何談對(duì)人工智能體是否具有人類的意識(shí)和智能進(jìn)行判斷?而且目前人工智能的發(fā)展更強(qiáng)調(diào)理性的智力而忽視情感方面的能力,所以很難令人相信會(huì)有與人類在理解力、智能等方面相匹敵的人工智能體出現(xiàn)。
其三,從人工智能的發(fā)展史來看,人工智能的發(fā)展隨時(shí)可能再次面臨低谷。人工智能的發(fā)展并非一帆風(fēng)順的,曾因技術(shù)發(fā)展瓶頸而停步不前,也曾因社會(huì)政治、經(jīng)濟(jì)條件不允許而遭受冷落,雖然目前人工智能的發(fā)展很繁榮,但也不能保證它在短期之內(nèi)就會(huì)有巨大的進(jìn)步,下一個(gè)階段是人工智能的發(fā)展停滯期也不是毫無可能。
總的來說,雖然人工智能正在我國的金融發(fā)展、城市基礎(chǔ)設(shè)施建設(shè)以及醫(yī)療等領(lǐng)域發(fā)揮一定的作用,但也僅是在特定的領(lǐng)域發(fā)揮決策、預(yù)測(cè)和分析的功能,尚處于發(fā)展的初期,也就是弱人工智能時(shí)代[15]。從目前的發(fā)展?fàn)顩r而言,探討強(qiáng)人工智能體或說是智能機(jī)器的人的刑事法律主體地位問題實(shí)在是為時(shí)尚早。
依據(jù)我國刑法規(guī)定,刑事責(zé)任主體指的是能夠承擔(dān)刑事責(zé)任的自然人和單位,而刑事責(zé)任的承擔(dān)以具備刑事責(zé)任能力為前提,因此討論人工智能體是否具有刑事責(zé)任主體資格就是在討論其是否具有刑事責(zé)任能力。根據(jù)刑法通說的觀點(diǎn),刑事責(zé)任能力是犯罪能力和刑罰適應(yīng)能力的統(tǒng)一,這里的犯罪能力指的是辨認(rèn)、控制能力,而刑罰適應(yīng)能力指的是承擔(dān)刑事責(zé)任的能力[16],若人工智能體具備刑事責(zé)任能力,則既要求其具有辨認(rèn)、控制能力,也要求其具有接受刑罰處罰的可能性以保證能夠達(dá)到刑罰處罰的目的[17]。但從目前的發(fā)展情況來看,人工智能體不可能具有刑事責(zé)任能力。
智能機(jī)器人具備刑事責(zé)任能力的論證思路是:承認(rèn)其具備獨(dú)立的意志→具有辨認(rèn)、控制能力→具有刑事責(zé)任能力,這一論證過程看似很有道理,實(shí)則只是一種脫離實(shí)際的紙上談兵,缺乏可操作性。理由是:
其一,如何判斷人工智能體是否具備獨(dú)立意識(shí)?人工智能體具備獨(dú)立的意識(shí)是其具備辨認(rèn)、控制能力的基礎(chǔ)和前提,而判斷人工智能體是否具有獨(dú)立意識(shí)的參照對(duì)象是人的獨(dú)立意識(shí),哲學(xué)角度人的“獨(dú)立意識(shí)”的內(nèi)涵尚含混不清,沒有一個(gè)統(tǒng)一的界定,在判斷標(biāo)準(zhǔn)尚不明晰的情況下科學(xué)確定人工智能體是否具有獨(dú)立意識(shí)似乎不太現(xiàn)實(shí),若人工智能體的獨(dú)立意識(shí)都不能確定就討論其是否具備辨認(rèn)、控制能力就如同空中樓閣,沒有理論根基。
其二,智能機(jī)器人如何獲得價(jià)值判斷的能力?刑事責(zé)任能力核心的判斷標(biāo)準(zhǔn)是辨認(rèn)、控制能力,其中辨認(rèn)能力指的是行為人對(duì)行為及結(jié)果在法律上的性質(zhì)和意義有認(rèn)識(shí)的能力,控制能力是指行為人有決定是否要實(shí)施某特定行為的能力,辨認(rèn)能力是控制能力存在的前提。行為人具備辨認(rèn)能力不僅要求其對(duì)自身行為、結(jié)果、因果關(guān)系等客觀事實(shí)有認(rèn)知的能力,還要求其對(duì)行為在法律上的意義、性質(zhì)和后果具有判斷的能力,因此,辨認(rèn)能力不僅僅是事實(shí)認(rèn)知的能力,還包含價(jià)值評(píng)判的能力。若人工智能體具備辨認(rèn)能力,則意味著其既要有事實(shí)認(rèn)知的能力,還應(yīng)該有價(jià)值評(píng)判的能力。事實(shí)認(rèn)知能力容易實(shí)現(xiàn),“電子眼”和“電子耳”對(duì)客觀事實(shí)的認(rèn)識(shí)能力要比人類還要強(qiáng)很多。但是,人工智能體如何獲得價(jià)值判斷的能力?途徑一是“人工智能體通過人類設(shè)計(jì)的程序中所蘊(yùn)含的道德、倫理、法律規(guī)范作出價(jià)值判斷”[18]。這種表述本身存在邏輯上的漏洞,若人類能夠通過相關(guān)程序控制人工智能體的價(jià)值判斷能力,那說明人工智能體還在人類的控制之下,其不具有獨(dú)立的意識(shí),也就不具有辨認(rèn)、控制能力。而且若人類能夠通過“道德嵌入”的方式賦予人工智能體價(jià)值判斷的能力,就能根據(jù)提前預(yù)估的道德風(fēng)險(xiǎn)設(shè)計(jì)出能夠規(guī)避道德和法律風(fēng)險(xiǎn)的人工智能體,那么,人工智能體將永遠(yuǎn)不會(huì)實(shí)施違反道德和法律的行為,就根本不會(huì)成為刑事責(zé)任主體[19]。途徑二是人工智能體依靠其自身的強(qiáng)化學(xué)習(xí)擁有人類的價(jià)值判斷能力,這完全是自我升級(jí)的結(jié)果。目前尚未有任何依據(jù)表明人工智能體將會(huì)具備這種自我升級(jí)的能力,即使人工智能體擁有這種自我升級(jí)的能力,其對(duì)自身行為價(jià)值判斷的標(biāo)準(zhǔn)也存在不確定性,人工智能體完全可能會(huì)產(chǎn)生一種獨(dú)立的、新的行為規(guī)范作為判斷自身行為意義的標(biāo)準(zhǔn),這種行為準(zhǔn)則是否會(huì)與目前社會(huì)的道德準(zhǔn)則、法律規(guī)范一致很難說。在這種情況下人工智能體確實(shí)既有事實(shí)判斷的能力也有價(jià)值判斷的能力,但其對(duì)自身行為性質(zhì)的認(rèn)識(shí)并不是參照現(xiàn)行刑法規(guī)范作出的,那么其對(duì)自身行為在現(xiàn)行刑法中的意義還是沒有認(rèn)知。
綜合分析來看,人工智能體具備與人類一樣的價(jià)值判斷能力基本是一種不可能實(shí)現(xiàn)的猜想。既然人工智能體不可能對(duì)自身行為的法律性質(zhì)有明確的認(rèn)識(shí),那么,其也就不可能具備辨認(rèn)能力,更不可能具備控制能力。因此,人工智能體不可能具備辨認(rèn)、控制能力。
根據(jù)美國學(xué)者杰夫里的公式①美國學(xué)者根據(jù)費(fèi)爾巴哈的心理強(qiáng)制說提出一個(gè)判斷犯罪是否發(fā)生的公式:CB(犯罪行為)=BP(增加犯罪的可能性)—PP(感受到刑罰痛苦的可能性)。,當(dāng)行為人感受到刑罰處罰痛苦的可能性大于實(shí)施犯罪的可能性,其犯罪行為就會(huì)減少或不發(fā)生[20]。我國傳統(tǒng)的刑罰體系包括生命刑、自由刑、財(cái)產(chǎn)刑和資格刑。一方面,人工智能體區(qū)別于血肉之軀的人類,傳統(tǒng)刑罰對(duì)其適用的空間有限;另一方面,人工智能體是否應(yīng)具有獨(dú)立法律主體地位,在多大的范圍之內(nèi)擁有何種權(quán)利都很難界定,因此,通過傳統(tǒng)刑罰體系懲罰人工智能體來預(yù)防犯罪存在一定障礙。于是有學(xué)者建議重構(gòu)刑罰處罰結(jié)構(gòu)以適應(yīng)人工智能時(shí)代的發(fā)展,認(rèn)為可以對(duì)人工智能體處以刪除程序、修改程序和永久銷毀的刑罰處罰措施[21]。持這種觀點(diǎn)的學(xué)者認(rèn)為“智能機(jī)器人已經(jīng)具有獨(dú)立的意識(shí),其具有感知痛苦的能力,也能在刑罰處罰的痛苦與犯罪獲得的快感之間衡量后調(diào)整自己的行為,對(duì)其進(jìn)行刑罰處罰能夠達(dá)到特殊預(yù)防的效果”。同時(shí),若智能機(jī)器人已經(jīng)具備了獨(dú)立學(xué)習(xí)的能力,當(dāng)有人工智能體遭受到刑罰處罰的痛苦,對(duì)其他人工智能體將會(huì)起到一種威懾作用,因此對(duì)人工智能體的處罰能夠?qū)崿F(xiàn)一般預(yù)防和特殊預(yù)防的功能[22]。
然而,一方面,既然承認(rèn)人工智能體有獨(dú)立的意識(shí),那么即使刪除數(shù)據(jù)、修改程序?qū)ζ湟财鸩坏叫塘P處罰的效果,因?yàn)槿斯ぶ悄荏w自身有獨(dú)立的意識(shí)表示其已經(jīng)不受人類數(shù)據(jù)和程序的控制,即使刪除了相關(guān)數(shù)據(jù)還是可以通過自我升級(jí)恢復(fù);另一方面,人工智能體的本質(zhì)是一套系統(tǒng),機(jī)器人僅是這套程序的載體或者說容器,即使永久地銷毀了人工智能體,其也還是有“復(fù)活”的可能性,不能像自然人一樣對(duì)死亡有恐懼感和痛苦感,既然刑罰無法真正地對(duì)人工智能體發(fā)揮作用,那么一般預(yù)防和特殊預(yù)防的目的也都無法實(shí)現(xiàn)。因此,從目前的研究成果來看,設(shè)計(jì)適應(yīng)人工智能體的刑罰框架不過是坐而論道,不具現(xiàn)實(shí)操作性和實(shí)際意義。
綜上所述,就目前的技術(shù)發(fā)展情況而言,人工智能體具備辨認(rèn)、控制能力和刑罰適應(yīng)能力缺乏實(shí)際操作的可能性,所以人工智能體很難具有刑事責(zé)任能力。
雖然從目前的技術(shù)發(fā)展情況來看,人工智能體具有刑事責(zé)任能力還只是空想,但科技創(chuàng)造了諸多奇跡,人工智能是否要朝著這個(gè)方向發(fā)展以及發(fā)展到何種程度還是一個(gè)值得思考的問題。強(qiáng)人工智能和超級(jí)人工智能時(shí)代來臨代表世界上將會(huì)出現(xiàn)一種和人類一樣具有思考能力,甚至超出人類智力程度很多倍的“永生”機(jī)器出現(xiàn),那么人類是否還能幸存就是個(gè)值得擔(dān)憂的問題[23]。強(qiáng)人工智能時(shí)代到來的時(shí)刻一定是顛覆世界的時(shí)刻,既對(duì)社會(huì)制度產(chǎn)生巨大沖擊也會(huì)直接威脅到人類個(gè)人權(quán)利的保障,因此要在人工智能的發(fā)展過程中清醒地認(rèn)識(shí)到其可能帶來的風(fēng)險(xiǎn),就如禁止克隆技術(shù)和人類基因編輯一樣,人工智能的發(fā)展速度也需要法律的控制。所以,人工智能體刑事責(zé)任主體問題的討論不僅要思考“能不能”的問題,更要關(guān)注要不要賦予其刑事責(zé)任主體地位的問題[24]。
目前一些刑法理論界的學(xué)者已經(jīng)開始對(duì)強(qiáng)人工智能體實(shí)施犯罪行為的情況充滿擔(dān)憂:若機(jī)器超出人類控制之外成為具有自我意識(shí)的智能機(jī)器人,在自我意識(shí)支配之下與人類產(chǎn)生矛盾和沖突,損害人類利益、造成嚴(yán)重的社會(huì)危害應(yīng)當(dāng)要承擔(dān)刑事責(zé)任[25]。事實(shí)上,強(qiáng)人工智能時(shí)代能否出現(xiàn)還是一個(gè)科學(xué)上的未解之謎,來自專業(yè)人工智能研究領(lǐng)域的專家和學(xué)者們對(duì)此并不看好,但退一步來說,倘若在未來的某個(gè)時(shí)間強(qiáng)人工智能時(shí)代真的到來,存在于智能機(jī)器人與人類之間的矛盾和沖突也并非刑法所能解決的問題。
首先,刑法在和平狀態(tài)下才能發(fā)揮作用。霍布斯認(rèn)為人類的天性中存在沖突的基因,在沒有一個(gè)令所有人敬畏的權(quán)力出現(xiàn)之前,人類處于每個(gè)人對(duì)每個(gè)人的戰(zhàn)爭(zhēng)狀態(tài)下,人們的生活充滿了不安和恐懼,為了擺脫這種戰(zhàn)爭(zhēng)的威脅,能夠享有和平的生活狀態(tài),人們?cè)敢夥艞壸约旱牟糠謾?quán)利授權(quán)給一個(gè)集體或個(gè)人從而形成國家,國家是共同權(quán)力的代表,其存在的價(jià)值是內(nèi)求安定、外謀和平[26]。國家利用權(quán)力的威懾力設(shè)立法律規(guī)范限制人們的行為來實(shí)現(xiàn)國家內(nèi)部的安定。反過來說,若社會(huì)處于戰(zhàn)爭(zhēng)狀態(tài)人們的權(quán)利很難匯合授予給能夠代表公眾意識(shí)的集體或個(gè)人,也很難形成一個(gè)令人畏懼的共同權(quán)力,而沒有共同的權(quán)力也就沒有法律規(guī)范存在的根基和基礎(chǔ)。因此,只有在相對(duì)和平狀態(tài)下的國家才有法律適用的可能性,刑法又是法律規(guī)范的一個(gè)分支,所以刑法也僅能在處于相對(duì)和平狀態(tài)下的國家中發(fā)揮作用。
然而,強(qiáng)人工智能時(shí)代的社會(huì)風(fēng)險(xiǎn)超出刑法的調(diào)整范圍。若真的存在與人的智力、能力相當(dāng)?shù)娜斯ぶ悄荏w,很難確定其是否愿意接受人類的控制為人所服務(wù),人們最擔(dān)憂的情況是強(qiáng)人工智能體想要擺脫人類的控制依照自己的意志實(shí)施違反人類社會(huì)共同價(jià)值規(guī)范的行為,甚至想要傷害、征服人類。雖然刑法是一種有效的社會(huì)糾紛解決機(jī)制,但當(dāng)社會(huì)的主要矛盾是人工智能體與人類之間的權(quán)利和權(quán)力之爭(zhēng)時(shí),從歷史發(fā)展的客觀規(guī)律來看,這種爭(zhēng)端最終的解決機(jī)制往往是戰(zhàn)爭(zhēng)而不是法律。倘若這種可怕的想象成真,與人類作對(duì)的反叛者對(duì)原有的共同權(quán)力的象征——國家就不再有敬畏之心,依托于國家權(quán)威而存在的法律規(guī)范對(duì)這些反叛者自然也就沒有威懾力。相反,他們會(huì)想要打破原有的共同權(quán)力體建立一個(gè)新的權(quán)力體,形成新的法律規(guī)范和制度。因此,若強(qiáng)人工智能時(shí)代真的來臨,刑事法律規(guī)范也將失去其功能性,強(qiáng)人工智能體是刑事責(zé)任主體就是個(gè)偽命題。
討論人工智能體是否具有刑事主體資格無法回避的一個(gè)前置性問題就是:人工智能體是否具有法律人格?若其不具備法律人格就更不用考慮承擔(dān)刑事責(zé)任的問題。對(duì)于人工智能體法律人格的探討最開始是由法理學(xué)者和民商法學(xué)者發(fā)起的,隨后也有刑法學(xué)者在此基礎(chǔ)上開始思考這一問題,已經(jīng)有一些刑法學(xué)者開始支持賦予人工智能體限制的法律人格或完全的法律人格,主要從兩個(gè)層面進(jìn)行論證:其一是從哲學(xué)基礎(chǔ)的層面,認(rèn)為人的道德意志的來源是大腦,人工智能體也可以具備與人類思考能力相同的大腦,所以其也就有道德理性,人工智能體具有法律人格的哲學(xué)基礎(chǔ);其二是從實(shí)現(xiàn)可能性的層面,將人工智能體與單位犯罪相類比,從單位獲得法律人格的歷史發(fā)展軌跡推論人工智能體擁有法律人格也是社會(huì)發(fā)展的必然[27],而且已經(jīng)有一些國家和國際組織開始提出法案甚至實(shí)驗(yàn)賦予人工智能體法律人格。事實(shí)上這兩個(gè)論證理由都值得推敲,對(duì)于第一個(gè)理由,道德是指人與其知識(shí)、技能有別的一種內(nèi)在素質(zhì),包括道德情感和道德觀念[28]。人的道德理性總是與人性和情緒這種抽象的概念聯(lián)系起來,其產(chǎn)生的機(jī)理是個(gè)復(fù)雜的過程,是否完全來源于人的大腦也是難以明確的,所以以人腦與人工智能體能力相當(dāng)作為其具有道德理性的論據(jù)難以令人信服。對(duì)于第二個(gè)理由,從單位被確定具有法律人格的發(fā)展過程來看,將人的意志集合起來的單位與自然人相比有集資的優(yōu)勢(shì)、長(zhǎng)生的優(yōu)勢(shì)、分擔(dān)風(fēng)險(xiǎn)的優(yōu)勢(shì)等諸多優(yōu)勢(shì)[29],因此法律賦予其獨(dú)立的人格為的是促進(jìn)經(jīng)濟(jì)發(fā)展和人類進(jìn)步,是適應(yīng)社會(huì)發(fā)展的應(yīng)然之舉。然而,在人工智能飛速發(fā)展的今天,法律賦予人工智能體獨(dú)立人格的必要性和優(yōu)勢(shì)尚未體現(xiàn)出來,而且若法律賦予人工智能體獨(dú)立的人格反而會(huì)帶來很多的弊端,一旦人工智能體具有獨(dú)立的人格,將與自然人享有平等的權(quán)利,他們將會(huì)與人類共同分享自然資源,而且社會(huì)經(jīng)濟(jì)制度、政治制度和法律制度都要作出相應(yīng)調(diào)整,這些付出的成本遠(yuǎn)遠(yuǎn)高于創(chuàng)造人工智能所要節(jié)約的成本,因此賦予人工智能體獨(dú)立的人格不符合經(jīng)濟(jì)合理性原則,未必會(huì)成為社會(huì)發(fā)展的必然趨勢(shì)。而且國際相關(guān)組織提出賦予人工智能體法律地位的報(bào)告也只是停留在提出建議的階段,對(duì)于如何具體落實(shí)人工智能體的法律人格并沒有設(shè)計(jì)具體的規(guī)則[30]。
法律人格提倡論者期待著賦予人工智能體權(quán)利和義務(wù),將其作為法律規(guī)制的對(duì)象能夠緩解人類對(duì)人工智能犯罪的恐慌,保障科技的發(fā)展不受阻礙。這種觀念表現(xiàn)出一種為了發(fā)展科學(xué)技術(shù)不顧社會(huì)倫理道德規(guī)范的架勢(shì),這種思想是很危險(xiǎn)的。“機(jī)器人之父”阿西莫夫提出的“機(jī)器人三定律”明確了人和機(jī)器人之間的地位關(guān)系,機(jī)器人應(yīng)該是依附于人類的附屬品,機(jī)器人的過度發(fā)展帶來的可能是災(zāi)難而不是便利,雖然人工智能威脅論的觀點(diǎn)聽起來似乎更像荒誕不經(jīng)的電影劇本,但是這關(guān)乎人類的命運(yùn),即使有微乎其微的可能性也沒有必要冒風(fēng)險(xiǎn)。而法律應(yīng)是將人工智能對(duì)人類造成的損害控制在提前預(yù)測(cè)范圍內(nèi)最有效的方法,而不是為人工智能的無節(jié)制發(fā)展背書[31]。
綜上所述,人工智能體的過度發(fā)展有威脅人類安全、危害社會(huì)制度的風(fēng)險(xiǎn),不應(yīng)賦予其獨(dú)立的法律人格,所以人工智能體不應(yīng)成為刑事責(zé)任主體。
德國學(xué)者烏爾希里·貝克曾經(jīng)預(yù)言在風(fēng)險(xiǎn)社會(huì)之下可能會(huì)出現(xiàn)一種有組織的不負(fù)責(zé)任的現(xiàn)象,即“我們企圖在破壞性影響與個(gè)人因素間建立聯(lián)系,而后者很少能夠從工業(yè)生產(chǎn)模式的復(fù)雜體系中被分離出來”[32]。貝克認(rèn)為隨著社會(huì)分工的不斷進(jìn)化,責(zé)任在多方利益角逐的過程中成為“燙手的山芋”,個(gè)人將會(huì)通過多種形式企圖推卸責(zé)任。依據(jù)貝克的觀點(diǎn),人工智能時(shí)代將刑事法律責(zé)任轉(zhuǎn)嫁給人工智能體似乎也是個(gè)人逃避責(zé)任的一種表現(xiàn),但當(dāng)個(gè)人可以不再承擔(dān)任何責(zé)任時(shí)其行為就會(huì)缺少約束,社會(huì)破壞性的影響就難以修復(fù)和預(yù)防,而且我國尚處在弱人工智能時(shí)代,個(gè)人是人工智能體背后的實(shí)際控制者,所以追究個(gè)人責(zé)任才是人工智能時(shí)代防范風(fēng)險(xiǎn)的有效手段。
一方面,國家對(duì)人工智能體法律規(guī)制對(duì)象提出了指導(dǎo)性意見。2018年1月18日國家人工智能標(biāo)準(zhǔn)化總體組、專家咨詢組成立大會(huì)在北京召開,同期召開了2018人工智能標(biāo)準(zhǔn)化論壇,中國電子技術(shù)標(biāo)準(zhǔn)化研究院在此次論壇上發(fā)布了《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》,為近期我國人工智能的研究提供了方向。白皮書中指出,“未來法律和政策應(yīng)當(dāng)作出明確的規(guī)定以保證權(quán)責(zé)的統(tǒng)一,應(yīng)在技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系,以便在技術(shù)層面可以對(duì)人工智能技術(shù)開發(fā)人員或部門問責(zé),在應(yīng)用層面可以建立合理的責(zé)任和賠償體系”[33]。根據(jù)白皮書表述的內(nèi)容,國家對(duì)人工智能相關(guān)法律的規(guī)制對(duì)象主要是人工智能的技術(shù)研發(fā)者和使用者。
另一方面,社會(huì)公眾對(duì)人工智能時(shí)代法律責(zé)任的承擔(dān)主體的意見也很一致。騰訊研究院于2017年5月至6月展開了一次人工智能相關(guān)問題的網(wǎng)絡(luò)問卷調(diào)查,其中一個(gè)問題就是人工智能的法律責(zé)任歸屬問題,調(diào)查結(jié)果顯示,認(rèn)為企業(yè)(產(chǎn)品生產(chǎn)者)應(yīng)當(dāng)承擔(dān)法律責(zé)任的受訪者占到77.9%,產(chǎn)品生產(chǎn)者以絕對(duì)性的優(yōu)勢(shì)成為公眾認(rèn)為最應(yīng)該承擔(dān)法律責(zé)任的主體;排在第二位的法律責(zé)任承擔(dān)主體是人工智能的使用者[34]。因此,無論是官方的態(tài)度還是社會(huì)民眾的意愿,都是認(rèn)為目前人工智能的法律責(zé)任主體應(yīng)該是人工智能的提供者和使用者而不是人工智能體本身,法律應(yīng)當(dāng)通過明確研發(fā)者、生產(chǎn)者和使用者的法律責(zé)任來維護(hù)人工智能時(shí)代的社會(huì)秩序和安全。
刑法在法律體系中處于保障法的地位,刑事法律責(zé)任與其他法律責(zé)任相比具有一定的特殊性,結(jié)合我國刑事法律規(guī)范的特征和人工智能時(shí)代可能存在的犯罪行為,依照主觀罪過的不同具體可以分為兩種情況:
其一,人工智能的研發(fā)者、生產(chǎn)者和使用者可能承擔(dān)故意犯罪的刑事責(zé)任。首先,人工智能之父艾倫·圖靈曾說,“即使我們可以使機(jī)器服從于人類,比如在可以在關(guān)鍵時(shí)刻關(guān)掉電源,然而作為一個(gè)物種我們也應(yīng)該感到極大的敬畏”[35]。從成本效益分析的角度來看,人類研發(fā)風(fēng)險(xiǎn)性極高的人工智能體帶來的弊端要大于預(yù)期的收益,而且人工智能的發(fā)展軌跡可能直接威脅到整個(gè)人類社會(huì)的存亡,僅僅依靠科技道德對(duì)其進(jìn)行規(guī)范遠(yuǎn)遠(yuǎn)不夠。從風(fēng)險(xiǎn)的嚴(yán)重程度上刑法應(yīng)適當(dāng)對(duì)人工智能的研究領(lǐng)域進(jìn)行一定的限制,對(duì)人工智能的研發(fā)內(nèi)容進(jìn)行必要的約束。若研發(fā)者違反刑法禁止性規(guī)定,研發(fā)具有危險(xiǎn)性的人工智能體應(yīng)當(dāng)承擔(dān)故意犯罪的刑事責(zé)任。其次,人工智能也可能被不法分子所利用而成為一種升級(jí)的犯罪工具。例如,一些應(yīng)用人工智能技術(shù)的無人飛行器的使用,從積極的方面在資源勘探、海洋監(jiān)測(cè)以及軍事領(lǐng)域都發(fā)揮了重要的作用;從消極的方面若人工智能的使用者利用這種可以搭載炸藥等危險(xiǎn)物品的無人飛機(jī)實(shí)施殺人、傷害行為或者恐怖主義活動(dòng),其要承擔(dān)故意殺人、傷害以及恐怖主義相關(guān)犯罪的刑事責(zé)任。最后,我國處于弱人工智能時(shí)代,從人工智能研發(fā)出來到廣泛地應(yīng)用于日常生活之間有個(gè)過渡的環(huán)節(jié),即生產(chǎn)者對(duì)人工智能產(chǎn)品的批量生產(chǎn)過程。目前人工智能體不是以獨(dú)立個(gè)體的身份存在,尚未動(dòng)搖人類中心主義的現(xiàn)實(shí),只是輔助人類更好生活的工具[36],本質(zhì)上人工智能體是一種產(chǎn)品。我國現(xiàn)行刑法第一百四十條至一百五十條規(guī)定了生產(chǎn)、銷售偽劣產(chǎn)品罪相關(guān)的刑事責(zé)任,人工智能的生產(chǎn)者與普通產(chǎn)品的生產(chǎn)者并沒有本質(zhì)上的差異,其也可以適用這一節(jié)的相關(guān)罪名,人工智能的生產(chǎn)者也是刑事責(zé)任的主體[37]。
其二,人工智能的研發(fā)者和使用者可能是過失犯罪的犯罪主體。刑法理論界的通說認(rèn)為“過失犯罪的本質(zhì)是具有注意能力的人對(duì)注意義務(wù)的違反,因而合理的判斷行為人是否具有注意能力和負(fù)有注意義務(wù)就成為正確認(rèn)定犯罪過失的關(guān)鍵”[38]。人工智能研發(fā)者的工作就是通過設(shè)計(jì)軟件和編程創(chuàng)造出人工智能產(chǎn)品,作為專業(yè)技術(shù)人員經(jīng)過多年人工智能相關(guān)知識(shí)的培訓(xùn)和研究,在人工智能的研發(fā)過程中經(jīng)過多重的理論分析和實(shí)踐探索,其對(duì)人工智能產(chǎn)品本身是否存在安全隱患,將這類產(chǎn)品投入使用是否會(huì)引發(fā)危害后果應(yīng)該能夠作出科學(xué)的判斷,因此可以合理地認(rèn)為研發(fā)者對(duì)人工智能產(chǎn)品可能引發(fā)的嚴(yán)重危害社會(huì)的后果具有認(rèn)識(shí)、預(yù)見的能力。同時(shí),人工智能的研發(fā)行為是一種具有高度風(fēng)險(xiǎn)性的行為,因此研發(fā)者應(yīng)當(dāng)承擔(dān)一定的注意義務(wù),且注意義務(wù)來源于法律、法規(guī)或業(yè)務(wù)規(guī)定。目前全國標(biāo)準(zhǔn)化信息委員會(huì)(SAC/TC 28)已經(jīng)與國際標(biāo)準(zhǔn)化組織機(jī)構(gòu)合作,逐步對(duì)人工智能研發(fā)涉及的各個(gè)相關(guān)領(lǐng)域開展標(biāo)準(zhǔn)化工作,這意味著我國權(quán)威機(jī)構(gòu)已經(jīng)為人工智能研發(fā)者設(shè)置一定的注意義務(wù)。因此,人工智能的研發(fā)者具備注意能力和注意義務(wù),是過失犯罪的刑事責(zé)任主體。另外,人工智能的使用者在產(chǎn)品的使用過程中也應(yīng)當(dāng)承擔(dān)一定的注意義務(wù),若其違反法律規(guī)定的注意義務(wù),造成危害結(jié)果的出現(xiàn),也會(huì)成為過失犯罪的刑事責(zé)任主體,需要承擔(dān)過失犯罪的刑事責(zé)任 。
“不要因?yàn)樽叩锰h(yuǎn),而忘記了當(dāng)初為什么要出發(fā)”,人類發(fā)展人工智能的目的是獲得更好的生活,人工智能體始終應(yīng)該在人類可控范圍內(nèi),一旦失去這種控制,人類將會(huì)面臨未知的危險(xiǎn)。因失去對(duì)人工智能體的控制引發(fā)的不良后果可能要比研發(fā)高級(jí)人工智能所獲得的價(jià)值還要大,出于趨利避害的本能也應(yīng)該思考是否要走到那一步。若人類始終是人工智能背后的真正控制者,那么人工智能體不過是人類實(shí)現(xiàn)自我意志的傀儡,當(dāng)法益侵害結(jié)果出現(xiàn),應(yīng)苛責(zé)具有非難可能性的人類而不是人工智能體本身。