隋林熹
(北京師范大學(xué),北京 100091)
“工具論”認(rèn)為,人類最早制作的石器即屬于“制造工具的工具”,而這種工具一旦出現(xiàn)便產(chǎn)生了“工具的疊加”,每一次“工具的疊加”都促進(jìn)生產(chǎn)力的極大發(fā)展。[1]人類與其他動(dòng)物的重要區(qū)別即語(yǔ)言與技術(shù)知識(shí)的積累,使得人類不斷創(chuàng)造出更為高級(jí)的生產(chǎn)工具。從目前發(fā)展速度來看,人類所創(chuàng)造的工具正在不斷超越人類本身,最令人所熟知的是阿爾法圍棋(AlphaGo)智能程序,其在2016 年、2017 年接連擊敗世界冠軍李在石與柯潔。人工智能在多個(gè)領(lǐng)域取得的突破使得刑法應(yīng)當(dāng)考慮其實(shí)施犯罪、破壞社會(huì)秩序的可能。目前人工智能最常見的分類是強(qiáng)人工智能與弱人工智能之分。這種分類并非以是否類人化為區(qū)分標(biāo)準(zhǔn),更不是以是否具有自由意識(shí)為區(qū)分標(biāo)準(zhǔn),而是以處理問題的系統(tǒng)為界分。強(qiáng)人工智能可以通過一套系統(tǒng)處理不同智能問題,而弱人工智能需要不同系統(tǒng)處理不同智能問題。強(qiáng)人工智能可以和人類相近也可以具有與人不同的思維模式與生活法則。[2]強(qiáng)人工智能或弱人工智能的分類最早由哲學(xué)家約翰·賽爾提出,后出現(xiàn)人工通用智能(Artificial General Intelligence)和超人工智能(Super intelligence)等計(jì)算機(jī)科學(xué)領(lǐng)域術(shù)語(yǔ),對(duì)人工智能的分類尚未出現(xiàn)準(zhǔn)確符合刑法語(yǔ)境的方法?!爸悄軝C(jī)器人在沒有獨(dú)立的意識(shí)和意志情況下的任何行為,都只能看作是研發(fā)者和使用者犯罪的工具?!盵3]目前學(xué)界內(nèi)的討論主要以是否具有獨(dú)立意識(shí)為強(qiáng)人工智能與弱人工智能分類的依據(jù)。
否定論一方面認(rèn)為,刑法不應(yīng)探討尚未誕生之物的刑事責(zé)任,不能建立在假設(shè)的基礎(chǔ)之上推定人工智能具有刑事責(zé)任主體資格。另一方面認(rèn)為,有學(xué)者以人工智能不具有認(rèn)識(shí)能力、控制能力為由,否認(rèn)人工智能能夠成為刑事責(zé)任的主體。意識(shí)為何物現(xiàn)在沒有科學(xué)的定論,從現(xiàn)有科學(xué)來說人的意志也是依賴于客觀存在的,生物電與化學(xué)物質(zhì)的分泌使得人有產(chǎn)生意識(shí)的基礎(chǔ)。機(jī)器是否具有如同人一般的自由意志是不可能證偽的,必須從實(shí)然角度去觀察機(jī)器的特有意識(shí)。過去想要達(dá)成強(qiáng)人工智能(AGI)普遍以計(jì)算機(jī)科學(xué)或神經(jīng)科學(xué)為單一導(dǎo)向,最新的Tianjic 芯片可以兼容兩個(gè)平臺(tái)并通過神經(jīng)生物科學(xué)模型模仿大腦皮層的運(yùn)作方式進(jìn)行整體性、魯棒性的自主學(xué)習(xí)。[4]法律條文具有滯后于社會(huì)發(fā)展的特性不意味著法學(xué)理論也應(yīng)滯后于社會(huì)發(fā)展,并且上述Tianjic 的技術(shù)突破尚屬于擬人形人工智能,計(jì)算機(jī)的二進(jìn)制與量子比特的態(tài)疊加原理注定人工智能與人思維方式的區(qū)別。不可否認(rèn)作為碳基生物的人類具有創(chuàng)造硅基生物的可能。
在9 至19 世紀(jì)的西歐記載了兩百多件審判動(dòng)物的案例,[5]在上世紀(jì)單位能否成為刑事責(zé)任的主體尚處于激烈爭(zhēng)論,由此可見刑事責(zé)任的主體是動(dòng)態(tài)變化的過程。認(rèn)為人工智能不具備意志自由從而否定其歸責(zé)可能這一觀點(diǎn)缺乏合理性。學(xué)者科爾勞什認(rèn)為自由意志是一種被迫的但又必要的假設(shè),[6]現(xiàn)代腦神經(jīng)科學(xué)實(shí)驗(yàn)逐漸認(rèn)為自由意志是一場(chǎng)“幻象”,基于磁共振成像(FMRI)技術(shù)發(fā)現(xiàn)早在被試者意識(shí)到做出選擇之前,他們的大腦已經(jīng)做出選擇,然后讓自己相信這是自己基于自由意志做出的選擇而不是生物化學(xué)導(dǎo)致的結(jié)果。[7]人的自由意志逐漸被證偽的情況下難以否認(rèn)功能強(qiáng)大的人工智能不具有自由意志。法人的本質(zhì)存在多種學(xué)說,我國(guó)《民法典》贊同法人實(shí)在說中的組織體說,認(rèn)為法人不是擬制而來的,而是自然形成的。法人與自然人重要的差別在于人格權(quán)中的身體權(quán)、健康權(quán)、配偶權(quán)等,這些權(quán)利也被認(rèn)為是人獨(dú)有的特征。與自然人差別巨大的法人具有獨(dú)立的行為能力與意思能力也可以成為刑事責(zé)任的主體,在問題解決、自我決策、最優(yōu)路徑選擇方面勝于法人的人工智能至少應(yīng)當(dāng)作為擬制的主體受刑法所規(guī)制。
目前依然沒有刑法語(yǔ)境下對(duì)人工智能的分類方法,主要采取是否具有“自由意志”為強(qiáng)、弱人工智能的界分標(biāo)準(zhǔn),而人工智能的自由意志無法被證明且目前尚未產(chǎn)生成為肯定論的阿喀琉斯之踵。在分析素材匱乏的情況下大多以AlphaGo 與“大眾汽車殺人案”作為分析的出發(fā)點(diǎn)。雖然有諸多學(xué)者通過人工智能的技術(shù)特點(diǎn)與刑事責(zé)任能力對(duì)應(yīng)的方法進(jìn)行證立,但依然需要實(shí)際判斷標(biāo)準(zhǔn)作為補(bǔ)充。不能認(rèn)為人工智能做出的行為只要在編程范圍之內(nèi)就沒有“自由意志”。這要求必須從實(shí)然角度出發(fā),觀察人工智能從事制造危險(xiǎn)行為時(shí)的屬性、能否歸責(zé)于自然人以及是否突破預(yù)設(shè)程序邊界等等問題。判斷人工智能在某一案件中是否應(yīng)當(dāng)承擔(dān)刑事責(zé)任也不能僅僅從人工智能自身行為出發(fā),生產(chǎn)者、使用者與監(jiān)管者對(duì)人工智能刑事責(zé)任主體地位的認(rèn)定也具有重要作用。
許多學(xué)者提出對(duì)人工智能應(yīng)參考單位的評(píng)價(jià)與規(guī)制路徑,并采取相似的法律擬制技術(shù)。筆者認(rèn)為單位與人工智能均由人所創(chuàng)造,但單位作為一種制度體現(xiàn)的是集體的意志而不是自然人意志的簡(jiǎn)單相加。人工智能的擬制技術(shù)不能完全參考單位犯罪,但單位與自然人的刑事責(zé)任判斷的區(qū)別點(diǎn)同樣也會(huì)是人工智能與人刑事責(zé)任的區(qū)分點(diǎn)。在公司法中存在法人人格否認(rèn)制度,刑法也有學(xué)者提出“單位人格”否認(rèn)制度,[8]以此來刺破法人“面紗”,由自然人承擔(dān)相應(yīng)責(zé)任。當(dāng)一個(gè)人工智能制造了法律不允許的危險(xiǎn)時(shí)同樣應(yīng)當(dāng)觀察其行為性質(zhì)與屬性。若其制造危險(xiǎn)、侵害法益的行為屬于“工具”或“制造工具的工具”。對(duì)人工智能作為“工具”則應(yīng)當(dāng)保持“價(jià)值中性”,也即目的與手段的分離[9],同一個(gè)工具可能體現(xiàn)出對(duì)立或各異的目的,人工智能自身對(duì)行為產(chǎn)生的任何后果不具有傾向性。根據(jù)韋爾策爾(Welzel)、毛拉賀(Maurach)等學(xué)者提出的目的行為論,人對(duì)自己動(dòng)作所產(chǎn)生怎樣的結(jié)果應(yīng)當(dāng)具有可預(yù)見性,目的行為是“有意識(shí)地從目標(biāo)的角度引導(dǎo)的所為。”比如護(hù)士注射時(shí)不知道自己手里的針劑量可致死,其行為是有目的的注射但不是有目的的殺害。[10]人工智能做出的自由行為應(yīng)當(dāng)與其意欲達(dá)成的任務(wù)目標(biāo)保持一致。一個(gè)智能程度僅能被當(dāng)做工具使用的人工智能不能稱之為強(qiáng)人工智能,真正的強(qiáng)人工智能能夠?yàn)樽陨韯?chuàng)造目的,具有為自身設(shè)置任務(wù)的能動(dòng)性與自覺性,不依賴于人類為其預(yù)設(shè)目標(biāo)與任務(wù)。黃榮堅(jiān)教授指出:“所有犯罪都是直接犯罪,也都是間接犯罪。這是由于人的意志永遠(yuǎn)無法直接實(shí)現(xiàn)侵害,所以人永遠(yuǎn)是利用工具才能實(shí)現(xiàn)侵害?!盵11]人工智能制造危險(xiǎn)的行為擺脫價(jià)值中性,體現(xiàn)出超脫工具特性時(shí),才具備刑事法律主體的資格;若其存在價(jià)值中性或被認(rèn)為所操控時(shí)應(yīng)當(dāng)否認(rèn)其承擔(dān)刑事責(zé)任的能力。
人與人工智能的智慧所依賴的客觀存在不同導(dǎo)致其決策機(jī)制的差異,人的決策機(jī)制往往是趨利避害。比如霍布斯認(rèn)為我們的決策來源于自利身體機(jī)制,目的是為了某種對(duì)自己的善。人工智能被創(chuàng)造之初即作為工具,目的是為了尋求最優(yōu)解,是一種完全的“理性”。人在做某一行為時(shí),行為方式與產(chǎn)生的結(jié)果是可以窮盡的。當(dāng)在計(jì)算機(jī)運(yùn)行預(yù)先設(shè)置的編程所可能產(chǎn)生的行為方式與結(jié)果多于人類時(shí),其擺脫人類控制的條件下,自由選擇其中一種行為過程與方式那么可認(rèn)為其是自主選擇的。人無法擺脫智力與身體的束縛,不能苛求人工智能機(jī)器也擺脫編程與算法的束縛。許多學(xué)者認(rèn)為人工智能無法習(xí)得道德規(guī)范、沒有道德自我決定權(quán),從而否認(rèn)人工智能成為刑事法律責(zé)任的主體?!半娷囯y題”這一道德困境不僅引起社會(huì)科學(xué)不同領(lǐng)域內(nèi)的廣泛討論,在設(shè)計(jì)自動(dòng)駕駛汽車算法時(shí)也出現(xiàn)諸多爭(zhēng)論。梅賽德斯-奔馳的安全產(chǎn)品經(jīng)理 Christoph von Hugo 在《Car and Driver》上表示,在其設(shè)計(jì)人工智能汽車時(shí)將會(huì)優(yōu)先保障乘客的生命安全,因?yàn)榧词故侨祟愸{駛員也不能很好地處理該問題,并且未來L4-L5 級(jí)自動(dòng)駕駛汽車的水平勝于人類駕駛員。[12]這一采訪引發(fā)了激烈的討論。也有學(xué)者受羅爾斯《正義論》中“無知之幕”的啟發(fā),提出“最大化最小值”的決策方法。[13]可見,人類對(duì)同一道德問題有著不同見解,機(jī)器人按照尋求最優(yōu)解的方式解決問題不能認(rèn)為是背離理性主體所信守的道德義務(wù)。目前人工智能在道德問題的決策往往采取一種算法,面臨同樣情形時(shí)可能采取一種行為方式。在能做出刑法意義行為的強(qiáng)人工智能時(shí)代,其道德行為的決策不應(yīng)只遵循同一預(yù)設(shè)算法,而是可以通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)豐富自身決策水平與決策數(shù)量。當(dāng)超過一定數(shù)量擺脫編程的預(yù)設(shè)時(shí),可以認(rèn)為獲得了道德上的自決權(quán)。同樣,在人工智能技術(shù)足夠發(fā)達(dá)時(shí),相信會(huì)有相關(guān)行政法規(guī)、規(guī)范性法律文件以及行業(yè)標(biāo)準(zhǔn)對(duì)人工智能規(guī)范的習(xí)得進(jìn)行嚴(yán)格要求,人工智能學(xué)習(xí)全部法律數(shù)據(jù)庫(kù)中的案例、條文并非難事。當(dāng)人工智能在學(xué)習(xí)完現(xiàn)行有效的法律規(guī)范,依然在無人為控制與預(yù)設(shè)的情況下違反法律規(guī)范、制造法律不允許的風(fēng)險(xiǎn),可以認(rèn)為其行為是具有刑法意義的。例如微軟曾在推特上推出聊天機(jī)器人Tay,但其很快接受推特用戶“蠱惑”,散布女權(quán)仇恨主義、種族主義、納粹主義等等。像Tay 這樣的易于操控的人工智能,會(huì)因?yàn)橥饨缧畔⒌妮斎耄瑢?duì)整個(gè)系統(tǒng)的行為和功能產(chǎn)生嚴(yán)重影響。[14]如果該聊天機(jī)器人通過迭代升級(jí),具備了計(jì)算機(jī)科學(xué)領(lǐng)域多任務(wù)處理的能力,成為強(qiáng)人工智能,并且其習(xí)得了法律規(guī)范以及不同類型的道德規(guī)范,其仍然在網(wǎng)絡(luò)空間散布分裂、仇恨等信息,那么可以認(rèn)為其做出了具有刑法意義的行為,存在觸犯尋釁滋事或者煽動(dòng)分裂國(guó)家等罪名的可能。
責(zé)任能力是承擔(dān)刑事責(zé)任的前提,刑事處罰對(duì)自然人的非難建立在犯罪決議的基礎(chǔ)之上,行為人應(yīng)當(dāng)承擔(dān)不克制犯罪沖動(dòng)、未能阻卻結(jié)果發(fā)生的責(zé)任。在單位引入刑事責(zé)任能力這一概念時(shí),學(xué)界也存在反對(duì)的聲音。自然人引入刑事責(zé)任能力是為了排除不適格的人群,年齡、認(rèn)知能力等生物因素成為核心判斷標(biāo)準(zhǔn)。刑事責(zé)任能力理論以自然人為核心,單位顯得格格不入,因此有學(xué)者主張將單位合法性、財(cái)產(chǎn)等內(nèi)容作為專門規(guī)定單位犯罪的主體條件。[15]自然人具有限制或減輕刑事責(zé)任的形態(tài),而單位僅有具備或不具備兩種狀態(tài)。對(duì)于人工智能責(zé)任能力的考察不應(yīng)將重點(diǎn)放在人獨(dú)有的“心理責(zé)任”,而是可以圍繞硅基生物特點(diǎn)賦予獨(dú)有的責(zé)任能力判斷方式。通過“綜合觀察標(biāo)準(zhǔn)”的確立,多道心理測(cè)試(俗稱“測(cè)謊”)在美國(guó)大多數(shù)州的案件審理過程中所采納,中國(guó)司法部《法醫(yī)類司法鑒定執(zhí)業(yè)分類規(guī)定》對(duì)該技術(shù)也進(jìn)行了認(rèn)可。犯罪心理測(cè)評(píng)儀器與讀譜技術(shù)的發(fā)展,使洞悉人類想法逐漸從空想、偽科學(xué)走向現(xiàn)實(shí)、科學(xué)。想要探求人工智能的主觀心理狀態(tài)相比人腦而言顯得更加簡(jiǎn)單,通過提取人工智能系統(tǒng)的處理數(shù)據(jù)、指令等方式分析其行為來源。若發(fā)現(xiàn)其相關(guān)數(shù)據(jù)被自身隱藏、刪除,則更能從側(cè)面證明人工智能具有認(rèn)識(shí)自身行為的能力或有人為操控因素。但由于運(yùn)作機(jī)制、決策方式的差異使刑法對(duì)其責(zé)任形式的判斷不得不采取異于人類的方法。
對(duì)人工智能進(jìn)行歸因與歸責(zé)離不開對(duì)生產(chǎn)者、使用者甚至監(jiān)管者構(gòu)成要件符合性的判斷。例如,生產(chǎn)者自研發(fā)之初即帶著殺人目的制造出強(qiáng)人工智能武器,即使該人工智能主體具有承擔(dān)刑事責(zé)任的能力,但由于其創(chuàng)造時(shí)就帶有犯罪的目的性,仍然屬于人犯罪的工具。生產(chǎn)者沒有下令殺死誰,人工智能基于自己意志進(jìn)行判斷而殺人,生產(chǎn)者在此情形下也屬于“概括性”的故意,對(duì)行為對(duì)象、手段、性質(zhì)不要求有明確的認(rèn)識(shí)。[16]其認(rèn)識(shí)到該機(jī)器會(huì)殺人,但對(duì)殺死誰沒有具體的認(rèn)識(shí)。這種情形下人工智能不會(huì)與生產(chǎn)者構(gòu)成共同犯罪,因其目的和手段與研發(fā)者目的產(chǎn)生耦合,無法擺脫工具的屬性。即使生產(chǎn)者自研發(fā)與損害后果的產(chǎn)生具有較長(zhǎng)的時(shí)間、空間跨度,但從客觀歸責(zé)角度,其研發(fā)行為就是制造了法律不允許的風(fēng)險(xiǎn),生產(chǎn)之后不對(duì)其進(jìn)行法律規(guī)范與道德規(guī)范的指引學(xué)習(xí)更使風(fēng)險(xiǎn)提升。若在生產(chǎn)者故意制造犯罪工具的情形下承認(rèn)人工智能承擔(dān)刑事責(zé)任,則可以借鑒共同犯罪實(shí)行過限的原理。例如甲生產(chǎn)一款人工智能機(jī)器,可以通過神經(jīng)網(wǎng)絡(luò)習(xí)得所有暴力犯罪,并指揮其從事相關(guān)暴力犯罪。但在人工智能不斷提升自己的過程中逐漸習(xí)得了其它犯罪方法,從事詐騙、操縱證券期貨市場(chǎng)、侵犯知識(shí)產(chǎn)權(quán)等類型犯罪,其犯罪所產(chǎn)生的損害后果已經(jīng)無法被生產(chǎn)者的故意所包含,不能認(rèn)為其屬于生產(chǎn)者的工具。另一方面,生產(chǎn)者對(duì)注意義務(wù)的違反也影響著人工智能的刑事責(zé)任。行業(yè)標(biāo)準(zhǔn)、國(guó)家標(biāo)準(zhǔn)以及規(guī)范性法律文件對(duì)研發(fā)者義務(wù)的規(guī)定會(huì)成為法律的先導(dǎo),其會(huì)對(duì)人工智能的生產(chǎn)者、研發(fā)者避免從事犯罪行為進(jìn)行技術(shù)上的引導(dǎo)。比如對(duì)人工智能進(jìn)行安全性測(cè)試的義務(wù)、強(qiáng)制習(xí)得法律道德規(guī)范義務(wù)、風(fēng)險(xiǎn)行為的預(yù)測(cè)制止義務(wù)、數(shù)據(jù)保存與上傳義務(wù)等等。當(dāng)人工智能生產(chǎn)者未能履行到上述義務(wù)、違反相關(guān)標(biāo)準(zhǔn)時(shí),可以認(rèn)為其具有間接故意或者過失。當(dāng)構(gòu)成間接故意時(shí)也不宜以共同犯罪論處,因不輸入法律規(guī)范、加裝保護(hù)程序所可能導(dǎo)致的損害結(jié)果多種多樣??梢詤⒄丈a(chǎn)銷售偽劣產(chǎn)品罪名的方式進(jìn)行處罰。構(gòu)成過失時(shí)也可以參照重大責(zé)任事故罪,[17]對(duì)生產(chǎn)者進(jìn)行處罰。將人工智能作為刑事責(zé)任的主體的重要原因之一即在于對(duì)自然人、法人處罰的空白。當(dāng)人工智能技術(shù)被普遍性適用并屢屢引發(fā)危害行為,但對(duì)自然人、單位又無刑法上歸因、歸責(zé)的依據(jù)時(shí),不能簡(jiǎn)單作為意外事件或民事案件進(jìn)行處理。如果認(rèn)為對(duì)人工智能科處刑法不能起到一般預(yù)防與特殊預(yù)防的作用也無實(shí)際意義,那么處罰的空白更會(huì)導(dǎo)致危害行為的發(fā)生。當(dāng)人工智能發(fā)表引起公憤的言論抑或是操縱機(jī)器產(chǎn)生危害他人健康的后果,對(duì)其進(jìn)行銷毀,一定程度可以滿足民眾對(duì)其犯罪的憎恨情緒,無論是道義報(bào)應(yīng)還是法律報(bào)應(yīng),能夠體現(xiàn)對(duì)人工智能的懲戒。而對(duì)人工智能切斷網(wǎng)絡(luò)、阻止其學(xué)習(xí)與工作、銷毀等方式抑制其再犯可能,體現(xiàn)了特殊預(yù)防的目的。當(dāng)法律文書裁判上傳網(wǎng)絡(luò),強(qiáng)人工智能在深度學(xué)習(xí)后,了解此行為會(huì)導(dǎo)致負(fù)面的結(jié)果,也可以起到一般預(yù)防的作用。肯定人工智能刑事責(zé)任是有必要的,但也要以自然人的刑事責(zé)任認(rèn)定為依賴,不能單獨(dú)審視人工智能的刑事責(zé)任。
根據(jù)行為責(zé)任論,刑法非難對(duì)象是行為本身以及行為中所體現(xiàn)的犯罪意圖。根據(jù)《刑法》十四條,一般認(rèn)為故意的責(zé)任形式可以被劃分成認(rèn)識(shí)因素與意志因素。從認(rèn)識(shí)上明知會(huì)發(fā)生危害社會(huì)的后果,從意志上希望或放任危險(xiǎn)結(jié)果的發(fā)生。劉憲權(quán)認(rèn)為,強(qiáng)人工智能產(chǎn)品可以通過“電子眼”、“電子耳”達(dá)到對(duì)外界的認(rèn)識(shí),通過精準(zhǔn)的算法與大數(shù)據(jù)形成對(duì)自己行為的控制。[18]由于自然人與電腦決策機(jī)制不同,也應(yīng)當(dāng)適用不同的判斷方式。從認(rèn)識(shí)因素來看,是否認(rèn)識(shí)到行為會(huì)發(fā)生危害社會(huì)的后果,目前的弱人工智能也可以實(shí)現(xiàn)。犯罪預(yù)測(cè)系統(tǒng)在公安偵查中發(fā)揮的作用有目共睹,例如孟菲斯警察廳使用犯罪預(yù)測(cè)技術(shù)“BLUE CRUSH”,能夠預(yù)測(cè)可能出現(xiàn)問題的區(qū)域,從而使孟菲斯警察局能夠主動(dòng)分配資源以降低風(fēng)險(xiǎn),此舉使得該市犯罪率下降10%。[19]目前犯罪預(yù)測(cè)可以預(yù)測(cè)人的犯罪行為與后果,人工智能預(yù)測(cè)自身行為產(chǎn)生的后果更為簡(jiǎn)單。在最為簡(jiǎn)單的人身暴力犯罪中只要習(xí)得醫(yī)學(xué)、法醫(yī)學(xué)知識(shí),即可預(yù)估自己行為所可能造成的傷勢(shì)。而意志因素中的希望或放任則可以檢索人工智能為自己預(yù)設(shè)的目標(biāo)與任務(wù)。若數(shù)據(jù)表明該目標(biāo)明確以該目標(biāo)、該危害結(jié)果呈現(xiàn)積極追求的任務(wù)處理方式可以認(rèn)為是直接故意。而為了實(shí)現(xiàn)另一個(gè)犯罪意圖或正常意圖,行為過程中造成了損害后果,且能夠表明人工智能技術(shù)上具有結(jié)果避免的高度可能,可以認(rèn)為是放任危害結(jié)果的發(fā)生。從過失角度而言,舊過失論強(qiáng)調(diào)結(jié)果的預(yù)見義務(wù),新過失論則以違反結(jié)果回避義務(wù)為核心。人工智能可能由于自身架構(gòu)、學(xué)習(xí)歷程以及設(shè)計(jì)上的局限,導(dǎo)致其可能產(chǎn)生偏離任務(wù)目標(biāo)的行為與損害后果。以自動(dòng)駕駛汽車為例,路況、天氣、地形以及交通規(guī)則的差異極有可能使自動(dòng)駕駛系統(tǒng)違反交通管理法規(guī),進(jìn)而造成嚴(yán)重后果。同樣基于依托于大功率計(jì)算機(jī)的人工通用智能存在運(yùn)算負(fù)荷超載仍繼續(xù)運(yùn)算從而觸犯過失損壞電力設(shè)備罪的可能。刑法的發(fā)展應(yīng)當(dāng)具有一定的前瞻性,以強(qiáng)人工智能尚未誕生、不具有自由意志來否定人工智能的可歸責(zé)性不符合客觀發(fā)展?fàn)顩r。生物具有多樣性,智慧生物同樣具有多樣性,人可以通過科學(xué)技術(shù)量的積累實(shí)現(xiàn)“人類工具”向“人造智慧體”發(fā)生質(zhì)的改變。為法人設(shè)計(jì)法人人格否認(rèn)、單罰制雙罰制等方式說明目前罪責(zé)理論不排斥人工智能,需要的是發(fā)展人工智能的歸責(zé)判斷標(biāo)準(zhǔn)加以支持,符合客觀發(fā)展趨勢(shì)。