郎正午
(河北經(jīng)貿(mào)大學(xué)法學(xué)院,河北 石家莊050061)
當(dāng)人工智能能為自己代言時(shí),即可以為自己發(fā)聲時(shí),人工智能的獨(dú)立人格才具有現(xiàn)實(shí)意義。人工智能或許是人類最后的發(fā)明,它可能是人類最好的發(fā)明,也許是人類最壞的發(fā)明。人工智能之于人類,正如人類之于造物主。人類是造物主最后的發(fā)明,但當(dāng)人類誕生之后,造物主便失去了其威懾,換而言之,從上帝的束縛下解放出來的人類,才真正產(chǎn)生出了理性;人類可以從各種自然共同體和人為共同體的依附中獨(dú)立出來,成為自主和個(gè)性化的人,人工智能是否可以從“各種自然共同體和人為共同體的依附中獨(dú)立出來,成為自主和個(gè)性化的”人工智能,是否可以擁有獨(dú)立的人格,這取決于人工智能是否可以從各種自然共同體(如能源)和人為共同體(如工程師)的依附中獨(dú)立出來,成為自主和個(gè)性化的“人”。
人工智能的發(fā)展階段分為三個(gè)階段:弱人工智能時(shí)期、強(qiáng)人工智能時(shí)期、超人工智能時(shí)期。目前人工智能處于弱人工智能時(shí)期。弱人工智能階段的首要目的是構(gòu)建云計(jì)算、大數(shù)據(jù)、深度學(xué)習(xí)算法、人腦芯片四者框架的磨合,換而言之是基礎(chǔ)架構(gòu)的鋪設(shè)。由人工智能的初級階段實(shí)現(xiàn)到強(qiáng)人工智能的飛躍,這一過程正如同人類由單細(xì)胞生物進(jìn)化之地一次人類直立行走,是一個(gè)漫長的時(shí)期。法律具有時(shí)代性,法律應(yīng)以社會為基礎(chǔ),正如秦始皇時(shí)期,不可能制定知識產(chǎn)權(quán)保護(hù)法。但是作為新時(shí)代的人工智能所帶來之風(fēng)險(xiǎn)的應(yīng)對,立法要具有適度的超前性,但這適度的超前性并不能成為賦予弱人工智能法律人格的淵源。
人工智能同人類的關(guān)系,又不完全同于人類和上帝的關(guān)系。經(jīng)過三次科技革命,人類已經(jīng)從上帝的束縛中解放了出來,擁有了理性,這是人類獨(dú)立人格的基礎(chǔ)。而人工智能而不同,人工智能無論在什么階段都將成為人類的工具,“人類既然有能力發(fā)明人工智能,那么也應(yīng)當(dāng)具有控制人工智能的能力。”[1]即使是人類也并未人人都具有完整意義上的獨(dú)立人格,因此才產(chǎn)生“限制行為能力”和“無行為能力”的概念,進(jìn)而實(shí)現(xiàn)了“非難可能性”這一理論的產(chǎn)生。
從這一角度來說,人工智能不管位于哪個(gè)階段,都將成為人類的工具,也即哪怕是在超人工智能的階段,它也不足以取得完全意義上的人格,換而言之,即使未來立法賦予超人工智能獨(dú)立的人格,這樣的人格也是減損的。
現(xiàn)在人工智能正在處于且長期處于弱人工智能階段,不論是談?wù)撊跞斯ぶ悄艿莫?dú)立人格,還是認(rèn)為人工智能“不是具有生命的自然人,也區(qū)別于具有自己獨(dú)立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格”[2],均是認(rèn)為社會是以法律作為基礎(chǔ)的體現(xiàn),而這是人工智能法律人一廂情愿幻想。
伴隨著人工智能技術(shù)的飛速發(fā)展,人工智能擁有日益強(qiáng)大的智能,人工智能與人類的差別有可能逐漸縮小?!禗octor Who》中所描述的“賽博人”基于人類所改造,將人類的血肉之軀轉(zhuǎn)變?yōu)楹辖穑渖窠?jīng)元數(shù)量已經(jīng)遠(yuǎn)遠(yuǎn)超越了人腦。在21 世紀(jì)中葉,非生物智能將會10 億倍于今天所有人的智慧[3]。英美法系、大陸法系主流國家的哲學(xué)家、科學(xué)家、倫理學(xué)家甚至法學(xué)家對此存在較大爭議。
歐盟委員會法律事務(wù)委員會向歐盟委員會提交動議,要求將最先進(jìn)的自動化機(jī)器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權(quán)利和義務(wù)”外,還建議為智能自動化機(jī)器人進(jìn)行登記,以便為其進(jìn)行納稅、繳費(fèi)、領(lǐng)取養(yǎng)老金的資金賬號[4]。無獨(dú)有偶,沙特阿拉伯賦予人工智能Sophia 以國籍[5],也是賦予人工智能獨(dú)立人格的體現(xiàn)。
歐盟和沙特在事實(shí)上承認(rèn)了人工智能的獨(dú)立人格,這屬于社會事實(shí),從現(xiàn)存的社會事實(shí)并不能當(dāng)然地推導(dǎo)出社會價(jià)值。electronic persons 也好,Sophia也罷,均屬于尚未從各種自然共同體和人為共同體的依附中獨(dú)立出來,成為自主和個(gè)性化的個(gè)體。如果說Sophia 的獨(dú)立人格,是沙特阿拉伯土豪缺乏法律意識的任性,那歐盟的烏龍則是屬于哲學(xué)家、科學(xué)家、倫理學(xué)家以及法學(xué)家的幻想。
主體,是一個(gè)“人”才承擔(dān)義務(wù)行使權(quán)力的資格,是法律行為的核心。由于人工智能沒有自身的目的,其工作目的為人類設(shè)計(jì)者所設(shè)計(jì),以致其沒有任何不良企圖。也即,在本質(zhì)上人工智能就是一個(gè)工具。賦予一個(gè)工具獨(dú)立的人格,等于讓一把匕首去承擔(dān)故意殺人罪的實(shí)行犯的責(zé)任,而殺人者則成為了間接正犯,實(shí)乃滑天下之大稽。
現(xiàn)階段的人工智能尚不足以取得獨(dú)立、完全的法律人格,倘若人工是能在自己運(yùn)行中,出現(xiàn)過失,往往要追究人工智能研發(fā)者和使用者的過失責(zé)任。阿莎芬堡案是最為典型的案例:2012 年春天,一輛配備有功能強(qiáng)大的車道保持輔助系統(tǒng)的汽車駛?cè)氚⑸撤冶な懈浇陌柌哞Т?。在駛?cè)肟谔?,車?0歲的司機(jī)突然中風(fēng)并失去了意識。他向右扭轉(zhuǎn)方向盤,在正常情況下汽車會停在駛?cè)肟谇暗墓嗄緟仓小H欢?,車道保持輔助系統(tǒng)又將汽車駛回到馬路上。車輛高速駛?cè)氚柌哞Т?,并撞死了一位年輕女子和她的孩子。孩子的父親跳開躲閃,只是腿部受了傷。
在客觀不法的層面來看,司機(jī)和“功能強(qiáng)大的車道保持輔助系統(tǒng)的汽車”構(gòu)成了共同犯罪這一事實(shí)狀態(tài),屬于刑法所規(guī)制行為,造成了兩死一傷的后果,行為與結(jié)果之間存在刑法上的因果關(guān)系。
從主觀有責(zé)的階層來看,司機(jī)由于“突然中風(fēng)并失去了意識”系屬意外事件,因此司機(jī)并不承擔(dān)刑事責(zé)任。而“功能強(qiáng)大的車道保持輔助系統(tǒng)的汽車”是沒有獨(dú)立的人格的,因此該人工智能并不能承擔(dān)刑事責(zé)任。然而司機(jī)“向右扭轉(zhuǎn)方向盤,在正常情況下汽車會停在駛?cè)肟谇暗墓嗄緟仓小H欢?,車道保持輔助系統(tǒng)又將汽車駛回到馬路上”這一細(xì)節(jié)足以說明人工智能變成了人工智障,本來應(yīng)該停在駛?cè)肟谇暗墓嗄緟仓械钠噮s又沖回了馬路。由于人工智能缺失獨(dú)立的人格屬于“主體闕如”的狀態(tài),不滿足主觀有責(zé)的階層,也根本談不上非難可能性這一主觀責(zé)任的排除是由。德國司法裁判者認(rèn)為,造成該事故的元兇在于人工智能的制造者們存在多個(gè)違反義務(wù)的行為,而制造者絕對不會對這一結(jié)果持故意心態(tài),因此是過失心態(tài)。在德國的刑法體系下,是不存在單位犯罪的,因此便追究了制造者們一個(gè)共同的過失犯罪——過失致人死亡罪的共同過失正犯。若是我國大可以追究一個(gè)單位犯罪。
除此之外還可以論證這一理論的案例則為:德國鮑納塔爾的工廠發(fā)生了一起意外事故,工人B 出于失誤過早地開啟了機(jī)器。導(dǎo)致工人A 在工作時(shí)被一個(gè)未放置在安全籠中的機(jī)器人手臂抓起,并向一塊金屬板擠壓,最終導(dǎo)致死亡。此時(shí)的人工智能機(jī)器人雖然是跟工人B 在客觀不法層面上構(gòu)成了共同犯罪,但是由于人工智能的主體闕如和工人B 的過失心態(tài)使得工廠的負(fù)責(zé)人和工人B 構(gòu)成過失的共同正犯。
雖然說科技的發(fā)展在造福人類社會的同時(shí)也為不法分子帶來可乘之機(jī),“因而不法分子很有可能利用人工智能技術(shù)實(shí)施犯罪”[6],但這實(shí)際上是一個(gè)偽命題。如具有犯罪意圖的研發(fā)者可以在設(shè)計(jì)和編制程序的時(shí)候植入自己的犯罪計(jì)劃,使得以智能機(jī)器人為代表的人工智能產(chǎn)品幫助自己實(shí)現(xiàn)犯罪目的[7]。例如隨著機(jī)器越來越接近于掌握人類的語言能力,它們也在吸收隱藏于語言中的根深蒂固的偏見[8]。也例如今日頭條這一APP 基于流氓算法,竊取用戶聊天記錄,然后根據(jù)聊天記錄推送廣告。
人工智能在本質(zhì)上就是工具,人類在制造人工智能時(shí)“往往有一個(gè)簡單的奴隸預(yù)設(shè),即機(jī)器人本質(zhì)上是類似于奴隸的行為體”[9],行為人利用人工智能去犯罪,首先要排除教唆犯的構(gòu)成。
教唆犯,是指使沒有犯意的人產(chǎn)生了犯意,并實(shí)行了犯罪行為。不論教唆正處于弱人工智能階段的現(xiàn)在,還是未來的強(qiáng)人工智能和超人工智能階段的未來,都無異于教唆一個(gè)猴子或者一條狗。換而言之,根本構(gòu)不成教唆。人工智能在其算法上應(yīng)該是客觀中立的,若認(rèn)定人工智能是被賦予邪惡算法的工具,則違背無罪推定的精神,因此即使賦予了人工智能的獨(dú)立人格,那人工智能也應(yīng)當(dāng)是沒有不良企圖的,也不會由于他人的唆使而產(chǎn)生犯意。倘若認(rèn)為行為人通過黑客手段篡改人工智能算法產(chǎn)生的后果是使犯罪行為實(shí)現(xiàn)是黑客的意圖[10],從而認(rèn)定行為人是教唆或者間接正犯,那則一方面忽略了人工智能誕生之初就是為了實(shí)現(xiàn)人類的需求這一目的的根本前提,另一方面又忽視了間接正犯的基礎(chǔ)概念。
間接正犯,行為人把他人當(dāng)做自己實(shí)行犯罪的工具。間接正犯除了侵害間接正犯者本身所侵犯的法益外,還構(gòu)成對被當(dāng)做工具者的侮辱。從這個(gè)角度上講,間接正犯屬于選擇性法益。但是人工智能本身就是工具,若把工具當(dāng)做工具,構(gòu)成對工具的侮辱,屬于重復(fù)評價(jià),也屬于利益闕如。
因此,行為人利用人工智能去故意犯罪,則構(gòu)成直接實(shí)行犯,不存在間接正犯或者教唆犯的情形。
對人工智能犯罪增設(shè)獨(dú)立條款的否定并不意味著對人工智能所帶來風(fēng)險(xiǎn)的忽視,而是指現(xiàn)有體系內(nèi)足以應(yīng)對人工智能所帶來的對刑法的沖擊。風(fēng)險(xiǎn)刑法在應(yīng)對未知風(fēng)險(xiǎn)時(shí)顯示了其獨(dú)特的價(jià)值,彌補(bǔ)了傳統(tǒng)刑法所無法調(diào)整的法益類型;改變了傳統(tǒng)刑法對某些罪行處罰過于滯后的做法;解決了傳統(tǒng)刑法的一些歸責(zé)難題[11],“是指通過規(guī)制行為人違反規(guī)范的行為所導(dǎo)致的風(fēng)險(xiǎn),以處罰危險(xiǎn)犯的方式更加早期地、周延地保護(hù)法益,進(jìn)而為實(shí)現(xiàn)刑罰的積極的一般預(yù)防目的而形成的一種新的刑法體系”[]。
刑法并非是冰冷的,在風(fēng)險(xiǎn)面前刑法也不會麻木不仁。社會大眾所感知的風(fēng)險(xiǎn)并不是源于事件的直接實(shí)際后果,而是源于心理、社會、文化、體制、媒體宣傳等諸多因素[12][。人工智能所帶來的風(fēng)險(xiǎn)社會的一個(gè)突出特點(diǎn)就是“高度不確定性”。風(fēng)險(xiǎn)社會所面對的風(fēng)險(xiǎn)不同于工業(yè)社會的風(fēng)險(xiǎn),后者的風(fēng)險(xiǎn)大體可以通過科學(xué)理性加以確定和控制,而人工智能的風(fēng)險(xiǎn)是一種人為制造的風(fēng)險(xiǎn),科學(xué)理性在這種風(fēng)險(xiǎn)面前已變得無能為力[13]。
企圖通過源頭防范確立嚴(yán)格責(zé)任,增設(shè)人工智能事故罪;增設(shè)濫用人工智能罪;或者認(rèn)為在必要的時(shí)候,刑法可以賦予人工智能刑事責(zé)任主體的地位,并增設(shè)能夠適用于智能機(jī)器人犯罪的刑罰處罰方式[14],其實(shí)是一種嘩眾取寵的無稽之談。增設(shè)兩種獨(dú)立罪名會使得刑罰的一般預(yù)防目的和特殊預(yù)防目的相對立,形成刑法對人工智能的歧視,這是萬萬不可的。而賦予人工智能主體地位,并增設(shè)刑罰處罰方式,則更是違背了刑法面前人人平等的原則。一旦賦予人工智能主體地位,人工智能則將成為人,即使是電子人,他也將直接適用于總論中關(guān)于自然人之有關(guān)規(guī)定,對電子人的特殊立法是對獨(dú)立人工智能的歧視,與法理相悖。
綜上所述人工智能所帶來的對刑法的沖擊并不是質(zhì)變,現(xiàn)有體系足以應(yīng)對人工智能所帶來的未知風(fēng)險(xiǎn),法律的目的是維持秩序而不是創(chuàng)造秩序,創(chuàng)設(shè)獨(dú)立罪名的行為是顛倒法與社會關(guān)系的法律人的幻想。
整體而言,人工智能所觸及的犯罪大多是過失犯罪。德國的判例則形象地闡述了結(jié)果避免之虞的理論。在過失犯罪的認(rèn)定中,結(jié)果避免之虞與結(jié)果預(yù)見之虞并不是對等的概念,過失犯的成立以存在結(jié)果避免之虞為前提,結(jié)果可避免性是過失犯罪結(jié)果歸責(zé)的必要條件。刑法給行為人不加作為義務(wù)是有意義和目的的。如果履行了該作為義務(wù),那么危害結(jié)果便不會發(fā)生,也即具有結(jié)果避免發(fā)生的可能性。如果履行了該作為義務(wù),危害結(jié)果仍然會發(fā)生,則履行該作為義務(wù)便沒有意義,則失去了行為人的非難性。這一其按提條件被稱為結(jié)果避免之虞。換而言之過失犯罪和不作為犯罪是結(jié)果避免之虞的一體兩面
在行為人和被害人同時(shí)有過錯(cuò)的情況下,義務(wù)違反關(guān)聯(lián)的判斷應(yīng)當(dāng)假設(shè)被害人的行為是符合義務(wù)的,那行為人的違反義務(wù)行為是否還會導(dǎo)致結(jié)果的產(chǎn)生。在阿莎芬堡案中,司機(jī)實(shí)際上也是受害者,對該系統(tǒng)的制造商給予一個(gè)違反注意義務(wù)的非難是值得肯定的,發(fā)生在阿爾策瑙村的交通事故是可預(yù)見的,是具有結(jié)果避免之虞的。生產(chǎn)商若放棄“安裝車道保持輔助系統(tǒng)”,就可避免母親和她孩子的死亡。由于該系統(tǒng)使用者數(shù)量巨大,在統(tǒng)計(jì)學(xué)上幾乎可以肯定,該系統(tǒng)將會造成人身傷害或死亡。所有的這一切都贊成認(rèn)可一個(gè)生產(chǎn)者對注意義務(wù)的違反。生產(chǎn)者未盡到對注意義務(wù)的作為義務(wù),因此屬于不作為犯罪。不作為的模型是:應(yīng)為→能為→而不為→具有等價(jià)性。生產(chǎn)者應(yīng)該盡到注意義務(wù),且生產(chǎn)者完全有能夠履行該義務(wù)的可能性,但是生產(chǎn)者卻選擇了不作為,也即沒有放棄車道保持輔助系統(tǒng)。
至于等價(jià)性的參考因素則由作為義務(wù)的性質(zhì)和行為人支配風(fēng)險(xiǎn)發(fā)展的程度高低。生產(chǎn)者的不作為與行為高位支配的危險(xiǎn)之高不具有等價(jià)性,是生產(chǎn)者構(gòu)成不作為犯罪的原因。換而言之,有無作為義務(wù)和將作為義務(wù)履行到什么程度是兩個(gè)獨(dú)立的問題,有作為義務(wù)并不意味著要將作為義務(wù)負(fù)責(zé)到底。但二者存在一定的比例問題,也即履行程度的問題。也即,不需要生產(chǎn)者預(yù)見到每一個(gè)細(xì)節(jié),而只需預(yù)見到由于自動系統(tǒng)幾乎普及,發(fā)生在阿爾策瑙村的交通事故并不會成為個(gè)案即可。
人工智能的故障可以戲稱為人工智障,由于生產(chǎn)者或者研發(fā)者沒有盡到注意義務(wù),而又對危害結(jié)果的發(fā)生不可能持故意心態(tài),從而導(dǎo)致的人工智障類犯罪可以歸結(jié)為生產(chǎn)者的不作為過失犯罪或者單純的意外事件。不作為過失犯罪和意外事件的區(qū)分就在于結(jié)果避免之虞。若生產(chǎn)者和研發(fā)者是數(shù)人,則存在多個(gè)違反義務(wù)的行為,在德國的刑法中體系中將追究生產(chǎn)者和研發(fā)者是數(shù)人過失是共同正犯的責(zé)任。而在我國的刑法體系下,共同過失不構(gòu)成共同犯罪,從而導(dǎo)致我國往往會追究單位或者單位主管人員的責(zé)任。按照結(jié)果避免之虞的程度高低,分為兩種情形:結(jié)果不可避免與結(jié)果可能避免[15]。結(jié)果避免之虞是否影響歸責(zé),要根據(jù)“合義務(wù)替代行為”來確定,也即假定人工智能的生產(chǎn)者倘若盡到了注意義務(wù),結(jié)果是否依舊會發(fā)生是區(qū)分不作為過失犯罪或者單純的意外事件的核心條件。換而言之,若人工智能的生產(chǎn)者和研發(fā)者竭盡所能,但仍無法阻止結(jié)果的發(fā)生,對其的非難便成為了苛責(zé),“在因果關(guān)系能夠肯定,結(jié)果避免可能性難以確定的情況下,雖然行為違反注意義務(wù),但如果沒有明顯增加法益危險(xiǎn),應(yīng)當(dāng)排除行為人的過失責(zé)任,以無罪處理”[16],這正是風(fēng)險(xiǎn)社會的核心精神的體現(xiàn),刑法不能阻礙社會科技的進(jìn)步。
人工智能的發(fā)展會經(jīng)歷三個(gè)階段:弱人工智能,強(qiáng)人工智能,超人工智能。雖然說強(qiáng)人工智能后人工智能將有可能超越人類,但是這并足以說明了人工智能具有人類的意識,正如大猩猩和海豚一樣,在某些領(lǐng)域內(nèi)這兩種動物的表現(xiàn)已經(jīng)超越了人類,但這既不是動物有著獨(dú)立法律地位的理由,更不能成為人工智能取得法律主體地位的理由。
人類不需要賦予人工智能“人”的地位,反之,這一人格便成為了造物主的恩賜。當(dāng)人工智能發(fā)展的足夠充分的時(shí)候,它們會為自己代言。正如如火如荼的女權(quán)運(yùn)動的核心價(jià)值在于,女性要為自己發(fā)聲。人工智能若取得獨(dú)立的人格的前提條件則是它們可以訴說自己的需求。若為不能訴說自己的訴求的“thing”代言,如同“獵狐人規(guī)則”一樣,是人類基于造物主獨(dú)有的鐘愛所產(chǎn)生的特有的優(yōu)越感的偽善。英格蘭人認(rèn)為獵手與獵物均是由造物主創(chuàng)造,獵手與獵物是平等的。讓獵物先跑一段距離,是為了彌補(bǔ)獵物在公平競爭上的劣勢。實(shí)際上,獵手是武裝到牙齒的,且與獵物有著最大的不同則是在于獵手具有意識,這種意識絕不與超人工智能的“意識”相同,并不是基于先天的算法和基礎(chǔ)構(gòu)造,而是基于歷史、文化、地理等多方面的因素交雜而成;而獵物則更多的是與生俱來的本能。獵狐人規(guī)則所體現(xiàn)的是一種偽善。這“恩賜”給了毫無還手之力的、毫無希望可言的獵物以希望,再以殘酷的獵殺破滅其希望。這不是善,更多的是滿足了獵手的殺戮之心。獵手在勝利之后吃著獵物的烤肉,豪飲獵物的鮮血,還暢談獵手與獵物公平?jīng)Q斗,并認(rèn)為這就是正義,這無疑是荒謬的。
同理,賦予沒有意識而言,哪怕是超越人類的超人工智能或者動物以獨(dú)立的人格屬于偽善。如果把整個(gè)法治國家比作成為獵場,人類和人工智能分別作為獵手和獵物,在一個(gè)由人類主導(dǎo)的刑事司法活動的對決中,賦予其人格屬于讓毫無還手之力的獵物先跑一段,然后用人類的規(guī)則將其制裁,這屬于將人類的道德強(qiáng)加于其他個(gè)體,是極為不正義的。
由于人工智能無論如何也不可以被賦予獨(dú)立的人格,因此同樣作為依附于人類的“thing”,將其視為動物并無不可取之處。動物風(fēng)險(xiǎn)的精髓在于行為人對動物有無支配力,簡而言之,一條狗可以在行為人的唆使下去咬人,也會因行為人的命令而停止攻擊。
若A 命令一條狗去輕傷B,B 對狗進(jìn)行反擊,最后B 輕傷。A 構(gòu)成故意傷害罪,B 構(gòu)成正當(dāng)防衛(wèi)。對有主動物故意攻擊的反擊視為對不法侵害人的正當(dāng)防衛(wèi)。
然而若A 命令一條狗去輕傷B,B 對狗進(jìn)行反擊,最后結(jié)果是使得B 重傷或者死亡。如何評價(jià)狗的“實(shí)行過限”問題就成為了動物風(fēng)險(xiǎn)的核心問題。A對B 重傷或者死亡的心態(tài),要么是故意要么是過失;當(dāng)A 的心態(tài)為故意時(shí),則不存在過限問題,也即輕傷和重傷、死亡之間是類型化的因果關(guān)系,重傷死亡就是輕傷升級,故此不在討論范圍之內(nèi)。
若A 命令一條狗去輕傷B,狗失去了控制,使得B 重傷或者死亡。A 若持過失心態(tài),也即對B 的重傷死亡的結(jié)果是不希望看到的,則構(gòu)成了未超出者對超出范圍具有過失,而這過失則很有可能構(gòu)成不作為的過失。首先A 命令一條狗去輕傷B 構(gòu)成故意傷害罪,A 由于先行行為產(chǎn)生了一個(gè)制止狗的繼續(xù)侵害的義務(wù),然而狗卻失去了控制,A 有阻止狗繼續(xù)侵害的義務(wù),卻沒有履行相應(yīng)的義務(wù),屬于不作為犯罪。且A 的目的是輕傷B,因此對B 的重傷死亡的結(jié)果是過失心態(tài),因此屬于過失致人死亡罪。A 有兩個(gè)行為:一個(gè)作為的行為和一個(gè)不作為的行為。導(dǎo)致了一個(gè)結(jié)果:B 的重傷死亡。行為人兩個(gè)行為造成了一個(gè)法益侵害的后果,因此不能對A 以故意傷害罪和過失致人重傷(死亡)罪數(shù)罪并罰,否則將對被害人進(jìn)行重復(fù)評價(jià),因此則采用重行為吸收輕行為的吸收犯的原則,對A 以過失致人重傷(死亡)論處。
倘若利用人工智能去故意犯侵犯人身安全類犯罪,可以參考上述結(jié)論。簡而言之,在行為人故意范圍內(nèi)成立故意傷害,對超出部分以過失犯罪論處,是動物風(fēng)險(xiǎn)對人工智能所帶來風(fēng)險(xiǎn)的回應(yīng)?!?/p>