□姚瑤
內(nèi)容提要 以自動駕駛汽車為代表的人工智能產(chǎn)品致害所涉犯罪主體復(fù)雜多樣、前置性規(guī)范缺失,以及人工智能產(chǎn)品固有的自主與黑箱特性等問題給過失犯理論帶來了變革的壓力與挑戰(zhàn)。傳統(tǒng)過失犯理論、新過失犯理論以及客觀歸責(zé)理論都無法解決人工智能產(chǎn)品致害所涉過失犯罪認(rèn)定問題。人工智能產(chǎn)品致害所涉過失犯罪刑事責(zé)任的認(rèn)定問題應(yīng)當(dāng)接受“法益保護優(yōu)先,兼顧科技發(fā)展”刑事政策的約束與指引。堅持“法益保護優(yōu)先”的基本定位,意味著要借鑒風(fēng)險控制理論,以及客觀歸責(zé)理論中創(chuàng)設(shè)法所不允許危險與實現(xiàn)法所不允許危險的判斷規(guī)則,進行客觀層面是否入罪的判斷;遵循“兼顧科技發(fā)展”的制約原則,則需要運用結(jié)果預(yù)見可能性理論中信賴原則等內(nèi)容,進行主觀層面是否出罪的認(rèn)定。
人類社會已經(jīng)從農(nóng)業(yè)時代、工業(yè)時代走向了信息技術(shù)時代,以數(shù)字化為特征的算法技術(shù)給我們的生活生產(chǎn)、社會治理以及經(jīng)濟發(fā)展帶來了深刻變革。其中,可提升駕駛便利性與安全性的自動駕駛技術(shù),成為了國家重點關(guān)注和支持的對象。2020年2 月,國家發(fā)改委等11 部委聯(lián)合印發(fā)了《智能汽車創(chuàng)新發(fā)展戰(zhàn)略》,展望到2025 年,實現(xiàn)有條件自動駕駛的智能汽車達(dá)到規(guī)?;a(chǎn),實現(xiàn)高度自動駕駛的智能汽車在特定環(huán)境下市場化應(yīng)用。雖然自動駕駛汽車研發(fā)與市場化應(yīng)用的態(tài)勢高歌猛進,但自動駕駛汽車交通肇事也引起了嚴(yán)重的法益侵害,引發(fā)了公眾對自動駕駛汽車安全性能的擔(dān)憂。當(dāng)技術(shù)的發(fā)展不可避免地進入快車道,更應(yīng)當(dāng)重視搭乘科技快車的社會大眾的安全,將技術(shù)帶來的風(fēng)險限定在合理范圍之內(nèi),以減少科技發(fā)展給社會帶來的不確定風(fēng)險,建立良好的智能技術(shù)生態(tài)環(huán)境。基于此,當(dāng)自動駕駛汽車等人工智能產(chǎn)品給公眾造成了重大法益侵害,而這種損害是由于人工智能產(chǎn)品領(lǐng)域相關(guān)主體所實施的法不允許的危險行為所致,就需要考慮追究相關(guān)主體的刑事責(zé)任,以發(fā)揮刑法的犯罪懲治與行為指引功能,促使人工智能技術(shù)在以人為本原則的制約下科學(xué)發(fā)展。
立足于當(dāng)下科技的發(fā)展,我國正處于弱人工智能發(fā)展階段,在此階段,人工智能產(chǎn)品致害問題并未給故意犯罪的歸責(zé)理論帶來沖擊,這是由于人工智能產(chǎn)品只具備工具屬性而不具備主體資格,而行為人利用人工智能產(chǎn)品實施的故意犯罪,只是實現(xiàn)了犯罪手段的升級,從而造成法益侵害或者侵害危險指數(shù)倍的提升。而與故意犯罪不同,對人工智能產(chǎn)品致害所涉過失犯罪的認(rèn)定具有障礙,這種障礙主要是由人工智能技術(shù)引起的。
人工智能產(chǎn)品領(lǐng)域分工與合作的進一步加劇,給過失犯罪刑事責(zé)任主體的認(rèn)定帶來了困難。一方面,專業(yè)分工尺度深化。相較于傳統(tǒng)產(chǎn)品,人工智能產(chǎn)品旨在通過模擬、延伸人腦進行交流和行動的方式參與社會交互活動,以實現(xiàn)在特定領(lǐng)域內(nèi)替代人類的目的。人工智能產(chǎn)品效用的實現(xiàn)都?xì)w因于數(shù)字化技術(shù)的不斷深化,生產(chǎn)者的生產(chǎn)設(shè)計環(huán)節(jié)就如同基因一般決定著自動駕駛汽車的先天安全性能。①隨著人工智能由弱到強的發(fā)展態(tài)勢,人工智能產(chǎn)品對研發(fā)設(shè)計的依賴性亦不斷增強。另一方面,角色分工界限模糊。隨著人工智能技術(shù)不斷發(fā)展,人類的角色亦不斷地被替代。伴侶機器人替代妻子的角色,自動駕駛汽車替代駕駛員的角色。以自動駕駛為例,使用者不需要對半自動駕駛汽車的運行進行全程控制,自動駕駛系統(tǒng)開啟時,使用者只須履行部分駕駛職責(zé);當(dāng)自動駕駛技術(shù)不斷發(fā)展并進入全自動駕駛階段時,自動駕駛系統(tǒng)可以自行完成全部駕駛?cè)蝿?wù),不會向使用者發(fā)出接應(yīng)請求,不需要使用者對車輛進行接管與控制??梢?,隨著智能化進程的不斷向前發(fā)展,人工智能產(chǎn)品使用者的義務(wù)與人工智能產(chǎn)品研發(fā)設(shè)計者的義務(wù)呈現(xiàn)出此消彼長的關(guān)系。傳統(tǒng)機動車責(zé)任事故主要是由于駕駛?cè)藛T超速等違章行為引起的,自動駕駛技術(shù)的出現(xiàn),使得駕駛錯誤的來源從駕駛員轉(zhuǎn)向了設(shè)計和制造自動駕駛汽車的生產(chǎn)者。②
基于此,人工智能產(chǎn)品致害場景下,承擔(dān)過失刑事責(zé)任的主體也隨之發(fā)生了改變。傳統(tǒng)產(chǎn)品致害,通常只需要考慮是否存在產(chǎn)品質(zhì)量或者是否存在使用不當(dāng)問題。然而,在人工智能產(chǎn)品領(lǐng)域分工與合作進一步深化的影響下,人工智能產(chǎn)品致害事故發(fā)生后,還需要考慮研發(fā)設(shè)計等主體是否實施了相關(guān)危害行為。例如,自動駕駛汽車發(fā)生交通事故后,不僅需要考量自動駕駛汽車的駕駛員是否需要承擔(dān)交通肇事罪的刑事責(zé)任,還需要判斷自動駕駛汽車研發(fā)設(shè)計者的設(shè)計缺陷、生產(chǎn)制造者的制造缺陷對危害結(jié)果貢獻(xiàn)力的大小,在此基礎(chǔ)上判斷上述主體是否需要承擔(dān)刑事責(zé)任以及承擔(dān)刑事責(zé)任的大小。另外,在人工智能產(chǎn)品的使用需要人機互動的情形下,還要妥善界定過失犯罪成立的范圍。例如,在自動駕駛汽車開啟自動駕駛功能的同時,也需要駕駛者隨時保持注意力集中以應(yīng)對危險的場合,如果自動駕駛汽車對駕駛者未手握方向盤的行為應(yīng)持續(xù)報警而未報警,同時駕駛者由于疏忽大意而未保持注意力集中,進而未對自動駕駛汽車進行接管控制而引發(fā)危害結(jié)果的情形下,需要對生產(chǎn)者與駕駛者的刑事責(zé)任的承擔(dān)和分配問題進行深入探討。
人工智能產(chǎn)品設(shè)計與使用環(huán)節(jié)的規(guī)范性標(biāo)準(zhǔn)的缺失給客觀層面刑法注意義務(wù)的判定帶來難題。違反相關(guān)的行政法律法規(guī)等規(guī)范的規(guī)定,造成刑法構(gòu)成要件危害結(jié)果的,刑法應(yīng)當(dāng)對該行為進行規(guī)制,以彌補行政法規(guī)制不足,發(fā)揮保障法作用。與自動駕駛相關(guān)的法律法規(guī)或行政規(guī)章等規(guī)范性文件大致可以分為兩類:第一類為自動駕駛汽車道路測試與示范應(yīng)用管理規(guī)范,第二類為自動駕駛汽車公共道路行駛的管理規(guī)范。2021 年9月1 日起實施的,由交通運輸部等部門聯(lián)合印發(fā)的《智能網(wǎng)聯(lián)汽車道路測試與示范應(yīng)用管理規(guī)范(試行)》對自動駕駛汽車道路測試與示范應(yīng)用管理機構(gòu)、車輛、駕駛?cè)说冗M行了規(guī)定,這些規(guī)定在行政管理層面具有重大意義,并不能滿足自動駕駛汽車交通肇事后刑事歸責(zé)的需求。雖然該規(guī)范在第六章“交通違法與事故處理”中規(guī)定了“公安機關(guān)交通管理部門應(yīng)當(dāng)依法對當(dāng)事人的道路交通安全違法行為作出處罰,構(gòu)成犯罪的,依法追究當(dāng)事人的刑事責(zé)任”。但是現(xiàn)階段,我國關(guān)于自動駕駛汽車在公共道路行駛的規(guī)定缺失,《道路交通安全法》(2021 年修正)未明確自動駕駛汽車的法律地位,未肯定自動駕駛汽車在公共道路上行駛的合法性,未對自動駕駛汽車的駕駛條件進行特殊考量,與自動駕駛汽車相關(guān)的駕駛要求仍游離在法律規(guī)定之外?;诖?,法律如何評價自動駕駛汽車減輕駕駛負(fù)擔(dān)、提供駕駛便利的使用目的?是否允許自動駕駛者醉酒駕車?是否允許適當(dāng)放寬自動駕駛者的年齡以及視力等要求?這些在立法層面仍是懸而未決的關(guān)鍵問題。目前,自動駕駛技術(shù)的日漸成熟和法律規(guī)制空白已經(jīng)形成了鮮明的對比。③正如學(xué)者指出,在自動駕駛技術(shù)接二連三造成事故,危害到公民的人身安全和公共安全的時候,我們沒有一個行之有效的法律可以對這些風(fēng)險進行良好的規(guī)制。④過失犯也是不作為犯,以違反作為義務(wù)為前提,鑒于無法依據(jù)相關(guān)行政法律規(guī)范中的注意義務(wù),對自動駕駛汽車等人工智能產(chǎn)品的設(shè)計、生產(chǎn)以及使用主體所具有的刑法上客觀注意義務(wù)進行判斷,從而對人工智能產(chǎn)品致害所涉的過失刑事責(zé)任認(rèn)定產(chǎn)生嚴(yán)重阻礙。
自動駕駛技術(shù)“自主決策”的特性,給刑法因果關(guān)系與預(yù)見可能性的判定帶來爭議。在刑事責(zé)任的認(rèn)定中,因果關(guān)系占據(jù)了重要的地位,學(xué)界關(guān)于因果關(guān)系的探討亦從來沒有停止,雙層次因果關(guān)系理論、相當(dāng)性因果關(guān)系理論以及客觀歸責(zé)理論都是為了解決刑事歸責(zé)中的因果關(guān)系問題而提出的。傳統(tǒng)的危害行為與危害結(jié)果之間引起與被引起的因果關(guān)系理論已經(jīng)無法適應(yīng)現(xiàn)代社會刑事歸責(zé)的需求,由此學(xué)界提出了疫學(xué)因果關(guān)系理論、危險升高理論等,將危害行為與危險結(jié)果的發(fā)生概率升高的關(guān)系納入刑法學(xué)研究視野。隨著人工智能技術(shù)的不斷發(fā)展,智能產(chǎn)品獲得數(shù)據(jù)信息并據(jù)此作出相應(yīng)行動的事實過程,引發(fā)了學(xué)界關(guān)于因果關(guān)系理論的再次反思。以自動駕駛汽車為例,自動駕駛技術(shù)依據(jù)認(rèn)識、決策、以及行動實現(xiàn)運行功能,詳言之,自動駕駛系統(tǒng)通過接收實時的車輛、行人、交通指示信號燈以及交通指示標(biāo)識等與交通環(huán)境相關(guān)的數(shù)據(jù)化信息,從而做出轉(zhuǎn)彎、減速、停車讓行等決策。鑒于交通環(huán)境復(fù)雜多變,加之自動駕駛技術(shù)自主的適應(yīng)能力,因此有學(xué)者認(rèn)為,自動駕駛技術(shù)的自主性也給預(yù)見可能性的判斷帶來障礙,學(xué)者指出,雖然人類設(shè)計、制造并部署了它們,但它們的行為卻不受人類的直接指令約束,而是基于對其所獲得的信息的分析和判斷而展開,而且,它們在不同情境中的反應(yīng)和決策可能不是其創(chuàng)造者可能預(yù)料到或者事先控制的。⑤無獨有偶,也有學(xué)者指出,由于人工智能深度學(xué)習(xí)的應(yīng)用,智能機器人的行為將是非線性的,實際上是不可預(yù)測的。⑥
自動駕駛汽車是具有代表性的人工智能產(chǎn)品,以自動駕駛技術(shù)給刑事歸責(zé)問題帶來的挑戰(zhàn)為視角,可洞察人工智能時代刑事歸責(zé)的困境。第一,人工智能產(chǎn)品以減輕使用者負(fù)擔(dān)為宗旨,而為實現(xiàn)這一目的,研發(fā)設(shè)計者承擔(dān)了部分使用者的注意義務(wù)。因此,與傳統(tǒng)產(chǎn)品致害問題相較,人工智能產(chǎn)品致害不僅要考慮直接使用者的刑事責(zé)任,也要考慮研發(fā)設(shè)計領(lǐng)域主體的責(zé)任。在此影響下,人工智能產(chǎn)品致害場合中多因一果的過失犯罪問題突出,需要直面監(jiān)管過失以及共同過失等過失競合問題;第二,風(fēng)險制造主體必須自覺規(guī)范自身行為,否則會觸犯以違反前置性法律規(guī)范為前提的法定犯的高壓線,然而人工智能領(lǐng)域規(guī)范缺失以及技術(shù)標(biāo)準(zhǔn)發(fā)展滯后的事實,給刑事歸責(zé)帶來挑戰(zhàn);第三,人工智能產(chǎn)品自主決策的特性給預(yù)見可能性、因果關(guān)系的判斷帶來難題,傳統(tǒng)的過失犯理論已難以應(yīng)對司法實踐,過失犯歸責(zé)路徑面臨著變革的壓力與契機。
對自動駕駛汽車交通肇事過失刑事責(zé)任歸責(zé)問題進行研究,不僅具有為自動駕駛汽車的發(fā)展提供法治保障的現(xiàn)實社會效益,在理論上創(chuàng)建符合人工智能時代背景的過失犯歸責(zé)路徑,亦可推動過失犯歸責(zé)理論的升級與蛻變,為刑法理論尋求知識增量。正是為了實現(xiàn)上述愿景,學(xué)界以自動駕駛汽車為研究對象,圍繞德國的客觀歸責(zé)理論、日本的新過失犯理論以及我國傳統(tǒng)的過失犯罪認(rèn)定理論對人工智能產(chǎn)品致害所涉過失犯罪的歸責(zé)方案進行了深入探索??傮w而言,現(xiàn)有方案存在以下漏洞。
自動駕駛汽車交通肇事過失刑事歸責(zé)問題的探討,需要建立在自動駕駛汽車的特性之上。有學(xué)者基于“技術(shù)黑箱” 給預(yù)見可能性判斷帶來的障礙,主張通過回避預(yù)見可能性來構(gòu)建自動駕駛汽車交通肇事所涉過失犯歸責(zé)路徑。⑦在大數(shù)據(jù)和人工智能技術(shù)所依賴的算法系統(tǒng)中,輸入數(shù)據(jù)和輸出結(jié)果之間存在著無法洞悉的“隱層”,算法黑箱在事實上遮蔽了數(shù)據(jù)處理和交易決策的運行過程。然而,從“存在技術(shù)黑箱”的論據(jù)推導(dǎo)出“回避預(yù)見可能性” 的結(jié)論并不具有合理性。事故發(fā)生后,不能直接回避預(yù)見可能性,這是由于算法的可解釋性決定的??山忉屝栽跀?shù)據(jù)挖掘和機器學(xué)習(xí)場景中被提及,被定義為向人類解釋或呈現(xiàn)可理解的術(shù)語的能力。歐盟《一般數(shù)據(jù)保護條例》就規(guī)定消費者具有對自動化決策的解釋權(quán)。實際上,也只有在算法具有可解釋性的前提下,人類才可以掌控人工智能技術(shù),這是自動駕駛等人工智能技術(shù)得以規(guī)范發(fā)展并持續(xù)造福于人類社會的必要條件。自動駕駛汽車所實施的按照交通信號指示燈行動、運行時與前車保持一定的間距等行為都是自動駕駛系統(tǒng)深度學(xué)習(xí)的結(jié)果,但是這種可控的結(jié)果一定是生產(chǎn)設(shè)計者事先設(shè)計好的,是具有可解釋性的。在學(xué)界,已有學(xué)者敏銳指出,除自動駕駛汽車本身外,其余主體如果能夠承擔(dān)刑事責(zé)任,其可解釋性雖比自然人駕車引發(fā)交通事故的可解釋性稍復(fù)雜,但依然存在解釋、驗證的余地。⑧自動系統(tǒng)的具體行動無法預(yù)測,取決于后天的學(xué)習(xí)和信息的處理,但是這并不意味著這些系統(tǒng)的風(fēng)險在事前無法被認(rèn)識到。⑨
當(dāng)然,當(dāng)自動駕駛汽車的運行沒有滿足人們的期待,發(fā)生了交通事故而引發(fā)了法益侵害后果時,事故發(fā)生的原因可能并不具有解釋的可能,在可解釋性例外地不發(fā)揮作用的場合,才能考慮免除自動駕駛汽車研發(fā)設(shè)計者的預(yù)見可能性??偠灾?,在考量自動駕駛汽車交通肇事所涉過失刑事責(zé)任認(rèn)定問題時,直接主張回避對預(yù)見可能性進行判斷是不可取的。
學(xué)者基于人工智能技術(shù)的有用性指出,隨著無人駕駛汽車的廣泛運用,由于其所帶來的社會利益巨大,因此其對社會造成的危險完全可能轉(zhuǎn)化為一種“允許的風(fēng)險”,從而不能將其所造成的損害歸責(zé)于使用者、生產(chǎn)者或設(shè)計者。⑩要排除研發(fā)人員承擔(dān)責(zé)任的可能性,同時完全排除所有人和銷售商承擔(dān)刑事責(zé)任的可能。?由此可見,學(xué)者是在強調(diào)刑法應(yīng)當(dāng)保障技術(shù)發(fā)展的立場上,提出排除自動駕駛汽車領(lǐng)域某一主體刑事責(zé)任的觀點。但另一方面,也有學(xué)者基于風(fēng)險社會的背景指出,權(quán)利保障讓位于安全治理,自由刑法讓位于安全性。?這種觀點認(rèn)為應(yīng)當(dāng)強化刑法的風(fēng)險預(yù)防功能,強調(diào)刑法應(yīng)當(dāng)重視維護社會大眾的利益。實際上,在自動駕駛汽車交通肇事所涉過失犯歸責(zé)問題上,基于被害人的權(quán)益得不到切實維護的擔(dān)憂而提出的嚴(yán)格責(zé)任,便源于此種價值判斷。例如,有學(xué)者指出,即便生產(chǎn)者缺乏主觀罪責(zé),也要根據(jù)嚴(yán)格責(zé)任的要求追究生產(chǎn)商的刑事責(zé)任,這是由于企業(yè)生產(chǎn)人工智能產(chǎn)品所獲利潤巨大,讓人工智能的生產(chǎn)者承擔(dān)嚴(yán)格責(zé)任是對公平的一種修正,同時也使得對科技研發(fā)產(chǎn)生的阻礙最小化。?
一方面,如果刑法對承受人工智能技術(shù)風(fēng)險的社會大眾的權(quán)益不進行保護,一味偏激地維護人工智能技術(shù)的發(fā)展,不僅會使人工智能的發(fā)展偏離為人類謀福祉的軌道,更在道義層面違背了“人是目的,而不是為了技術(shù)可以隨時舍棄的手段”的根本要義。另一方面,基于重視風(fēng)險防范與公眾法益保護而提出的嚴(yán)格責(zé)任,不僅會限制人工智能技術(shù)的發(fā)展,也會背離刑法責(zé)任主義原則。由此可見,刑事政策目的不一定招致過失歸責(zé)方案的爭議。人工智能技術(shù)風(fēng)險的不確定性與人工智能技術(shù)的有用性相伴而生,在此情形下刑法究竟應(yīng)如何看待人工智能技術(shù)的兩面性,會對人工智能產(chǎn)品致害場景下的過失犯歸責(zé)方案產(chǎn)生決定性影響。
學(xué)者結(jié)合傳統(tǒng)過失犯理論、新過失犯理論以及客觀歸責(zé)理論,對自動駕駛汽車交通肇事所涉過失犯歸責(zé)路徑進行探討。但在搭建自動駕駛技術(shù)與過失犯歸責(zé)理論結(jié)合的橋梁時,或缺少對基礎(chǔ)理論的反思,或忽視與自動駕駛技術(shù)的契合。
1.我國傳統(tǒng)的過失犯認(rèn)定標(biāo)準(zhǔn)已不足以指導(dǎo)司法實踐
有學(xué)者根據(jù)我國刑法總則關(guān)于過失犯罪的定義指出:“應(yīng)當(dāng)預(yù)見該無人駕駛汽車系統(tǒng)存在漏洞,但由于疏忽大意而沒有預(yù)見,或者已經(jīng)預(yù)見到技術(shù)漏洞存在卻輕信可以避免,由此發(fā)生重大交通事故,應(yīng)構(gòu)成過失犯罪?!?我國傳統(tǒng)刑法理論中對犯罪過失的認(rèn)定,主要依賴于對行為人心態(tài)進行考察。然而,若通過對行為人的主觀心態(tài)進行探究從而得出歸責(zé)與否的結(jié)論具有一定的恣意性,將導(dǎo)致犯罪圈的不當(dāng)擴大或縮小。心理學(xué)雖然對揭示過失犯的心理概念具有一定的參照價值,但過失犯作為一種責(zé)任形式,還是應(yīng)當(dāng)從規(guī)范層面進行分析。?另外,把犯罪故意的認(rèn)識因素與意志因素引入犯罪過失,是與犯罪故意的定義相呼應(yīng)的邏輯結(jié)果。然而,邏輯上的完美不能掩蓋道理上的瑕疵,若認(rèn)為故意犯罪的罪責(zé)體現(xiàn)在行為人對犯罪結(jié)果的“放任或者希望”的意志因素上,那么對于危害結(jié)果的發(fā)生完全持有反對態(tài)度的過失犯罪就不具有罪責(zé)可罰性。正如學(xué)者所言,從存在論的角度而言,過失犯主觀上不希望甚至是排斥危害結(jié)果的發(fā)生,該意志非但不能體現(xiàn)行為人的主觀惡性,相反恰好體現(xiàn)其主觀善性。?由此可見,依據(jù)我國刑法對犯罪過失的定義所提出的自動駕駛汽車等人工智能產(chǎn)品致害場合的過失犯歸責(zé)路徑并不具有可行性。
2.客觀歸責(zé)理論忽視了主觀因素對犯罪成立的限定作用
客觀歸責(zé)理論之所以能夠在過失犯中大行其道,正是由于它契合過失犯歸責(zé)結(jié)構(gòu)從主觀向客觀轉(zhuǎn)變的需要。?在考慮自動駕駛汽車交通肇事所涉過失犯歸責(zé)的具體路徑時,也有學(xué)者主張依據(jù)客觀歸責(zé)理論進行客觀層面的判斷。學(xué)者指出,在歸因方面,將客觀歸責(zé)理論中對危害行為與危害結(jié)果的實質(zhì)判斷融入到條件說的判斷之中,從而使因果關(guān)系的判斷更加充實,在歸責(zé)層面,認(rèn)為即使主觀過錯難以證明,由于研發(fā)者、生產(chǎn)者與使用者違反了注意義務(wù),就要對行為人進行刑事追責(zé)。?可見,論者認(rèn)為在客觀層面只要研發(fā)者、生產(chǎn)者和使用者違背了注意義務(wù),即使主觀層面的罪過難以判斷,也應(yīng)當(dāng)對其進行刑事追責(zé)。由此可見,論者沒有考慮到主觀層面對犯罪成立的限制作用。實際上,客觀歸責(zé)的路徑雖然看到了主觀歸責(zé)的弊端,但是并不能因此否定主觀要素在過失犯歸責(zé)中的重要地位,結(jié)果預(yù)見可能性仍可成為排除犯罪的事由,以合理限定過失犯的成立范圍。例如,要求自動駕駛汽車的研發(fā)設(shè)計者對于危害結(jié)果的發(fā)生具有具體的結(jié)果預(yù)見義務(wù)強人所難,故而,在構(gòu)成要件層面無法將結(jié)果預(yù)見義務(wù)作為犯罪成立的必備要素。但是,為了體現(xiàn)罪責(zé)主義原則的要求,應(yīng)在責(zé)任層面考量結(jié)果預(yù)見可能性的有無,將研發(fā)設(shè)計者確實無法預(yù)見的結(jié)果排除在犯罪之外。由此,在過失犯歸責(zé)的路徑選擇中,通過客觀歸責(zé)理論進行了不法的判斷之后,應(yīng)當(dāng)進一步對主觀層面的罪責(zé)加以限制,若完全擺脫主觀因素對犯罪認(rèn)定的限制作用,將導(dǎo)致犯罪圈不當(dāng)擴大,不僅具有結(jié)果責(zé)任的危險,也會對自動駕駛等人工智能技術(shù)的發(fā)展產(chǎn)生負(fù)面影響。
3.新過失犯歸責(zé)理論無法與自動駕駛技術(shù)相銜接
在人工智能產(chǎn)品致害所涉的過失刑事歸責(zé)的場合,除了主張借助客觀歸責(zé)理論外,借鑒新過失論的主張也已蔚然成風(fēng)。例如,有學(xué)者認(rèn)為,刑法認(rèn)定人工智能產(chǎn)品的生產(chǎn)者違反了注意義務(wù)的前提是其違反了結(jié)果預(yù)見義務(wù),而認(rèn)定其違反結(jié)果預(yù)見義務(wù)的前提又是具有預(yù)見可能性。?然而,以預(yù)見可能性為重心的歸責(zé)機制,最大的缺陷便在于無法有效應(yīng)對當(dāng)代社會所面臨的過失犯的歸責(zé)難題,其所賴以構(gòu)建的歸責(zé)原理,即誰對風(fēng)險有預(yù)見或預(yù)見可能性,便應(yīng)對風(fēng)險所造成的實害結(jié)果負(fù)責(zé),日益與社會發(fā)展的現(xiàn)實相脫節(jié)。?新過失犯論所主張的先主觀、后客觀的判斷思路無法與人工智能技術(shù)相契合。依據(jù)新過失犯理論,危害結(jié)果發(fā)生后首先要對預(yù)見可能性進行判斷,要求對結(jié)果必須有具體的預(yù)見可能性,在此基礎(chǔ)上對行為人是否違反客觀注意義務(wù)進行判斷,而這種刑事歸責(zé)的思路無法適用于自動駕駛汽車等人工智能產(chǎn)品致害所涉過失犯罪的刑事歸責(zé)中。新過失論強調(diào)的是具體的預(yù)見可能性,而在自動駕駛汽車領(lǐng)域,除了在直接駕駛?cè)诉`規(guī)行為引起的交通肇事的場合,可以對具體的預(yù)見可能性進行判斷外,對于研發(fā)設(shè)計者、生產(chǎn)制造者的具體預(yù)見可能性是難以判斷的。當(dāng)發(fā)生了法益侵害結(jié)果時,不區(qū)分具體情形地一味強調(diào)對算法如何運行有具體的預(yù)見,具有強人所難之嫌。所以,若根據(jù)新過失論,在“行為人對危害結(jié)果是否具有具體的預(yù)見可能性”的第一層次判斷上,就可能得出否定的結(jié)論,由此無法再進行“行為人是否履行了客觀注意義務(wù)”的第二層次判斷。由此可見,新過失犯歸責(zé)理論在解決人工智能產(chǎn)品致害所涉過失犯歸責(zé)問題時面臨失效的困境。
自動駕駛汽車交通肇事所涉的過失刑事責(zé)任認(rèn)定問題,是人工智能時代刑法如何介入規(guī)制人工智能刑事風(fēng)險的縮影。無論是基于刑法的謙抑性原則主張的排除相關(guān)主體的刑事責(zé)任,還是基于刑法的預(yù)防性功能提出的嚴(yán)格責(zé)任原則的立場都過于極端,產(chǎn)生了矯枉過正的效果。應(yīng)當(dāng)堅守以法益保護為根本,兼顧技術(shù)發(fā)展原則的指引與約束,在此基礎(chǔ)上構(gòu)建人工智能產(chǎn)品致害所涉過失犯罪刑事責(zé)任認(rèn)定的教義學(xué)解決方案。
人工智能產(chǎn)品風(fēng)險現(xiàn)實化后,應(yīng)當(dāng)首先在客觀層面進行是否入罪的判斷:尋找風(fēng)險控制責(zé)任主體,確定導(dǎo)致事故發(fā)生的危害行為,以及判定危害行為與危害結(jié)果之間的因果關(guān)系。這是以法益保護為根本,踐行以人為本發(fā)展觀的必然要求。
1.利用合法則的條件說確立事實上的因果關(guān)系
在風(fēng)險制造主體之間的分工合作進一步深化的背景下,為了防止風(fēng)險制造者不負(fù)責(zé)任的行為危害到公共安全,就需要風(fēng)險制造方謹(jǐn)慎實施業(yè)務(wù)行為,通過控制自身業(yè)務(wù)領(lǐng)域的風(fēng)險,滿足社會大眾對安全的期待?;陲L(fēng)險社會中分工合作的現(xiàn)實與風(fēng)險控制理論,當(dāng)發(fā)生了法益侵害結(jié)果,首先應(yīng)當(dāng)依據(jù)合法則的條件說確定引發(fā)危害結(jié)果發(fā)生的具體原因,尋找出相關(guān)責(zé)任主體?;诖?,在自動駕駛汽車交通肇事后,首先應(yīng)通過安置的行車記錄儀還原事故發(fā)生過程,并查清事故的人為原因。在自動駕駛汽車交通肇事引發(fā)法益侵害后果的場合,通過科學(xué)技術(shù)所確定的人為原因無外乎有三類,即研發(fā)設(shè)計的原因、生產(chǎn)銷售的原因以及使用運營的原因。通過判斷引發(fā)事故的原因存在于設(shè)計研發(fā)領(lǐng)域、生產(chǎn)制造領(lǐng)域亦或是使用領(lǐng)域,有利于進一步限定“實施了法所不允許的危險”的成立范圍。
2.判斷相關(guān)主體是否創(chuàng)造了法不允許的危險
人工智能領(lǐng)域形式上客觀注意義務(wù)的缺失并不能成為制止刑事手段介入的障礙,可以通過判斷實質(zhì)上是否創(chuàng)造了法所不允許的危險彌補形式上客觀注意義務(wù)缺失的現(xiàn)狀。實際上,即使前置法意義上的客觀注意義務(wù)充分且完善,在進行刑事歸責(zé)時也需要將這種形式上的注意義務(wù)借助于是否創(chuàng)造了法所不允許的危險的判斷進行實質(zhì)化。
首先,在研發(fā)設(shè)計階段,設(shè)計者創(chuàng)造的法所不允許的危險包括兩種情形:一種是設(shè)計者根本沒有履行結(jié)果回避義務(wù),比如,在緊急情況發(fā)生前的適當(dāng)時間點,報警系統(tǒng)應(yīng)當(dāng)報警而未報警,由此引發(fā)了法益侵害結(jié)果,設(shè)計者就應(yīng)當(dāng)基于此種設(shè)計缺陷對結(jié)果承擔(dān)責(zé)任;另一種為設(shè)計者沒有充分履行結(jié)果回避義務(wù),例如,半自動駕駛汽車要求輔助駕駛?cè)藭r刻保持警惕,以便于隨時都可以接管車輛,在此要求下,不僅接管自動駕駛汽車的提示是必要的,也要求自動駕駛系統(tǒng)提示輔助駕駛?cè)藭r刻保持警惕狀態(tài)。如同機動車對沒有系好安全帶的行為進行報警一樣,自動駕駛系統(tǒng)需要對于駕駛員沒有將雙手放在方向盤的行為進行持續(xù)且充分的警示,否則將認(rèn)為自動駕駛系統(tǒng)具有設(shè)計缺陷,由此可以判定相關(guān)的研發(fā)設(shè)計者創(chuàng)造了法所不允許的危險。
其次,在生產(chǎn)銷售階段,只要生產(chǎn)者的生產(chǎn)行為違反了設(shè)計的要求造成了制造缺陷,并由此引發(fā)了自動駕駛汽車交通事故的,就應(yīng)當(dāng)認(rèn)為生產(chǎn)者制造了法所不允許的危險。此時,自動駕駛汽車生產(chǎn)者承擔(dān)刑事責(zé)任的依據(jù)與傳統(tǒng)機動車生產(chǎn)者承擔(dān)刑事責(zé)任的依據(jù)并無區(qū)別。對于銷售者而言,如果明知自動駕駛汽車存在缺陷而銷售,最后由于此缺陷導(dǎo)致了交通事故發(fā)生的,應(yīng)當(dāng)認(rèn)為銷售者創(chuàng)設(shè)了法所不允許的危險。無論是自動駕駛汽車的生產(chǎn)者還是銷售者,其所實施的法所不允許危險的行為并沒有程度之分,即沒有是否充分履行了結(jié)果回避義務(wù)的區(qū)分,而只有履行了結(jié)果回避義務(wù)與未履行結(jié)果回避義務(wù)的區(qū)分。例如,生產(chǎn)者沒有按照設(shè)計的要求對自動駕駛汽車的傳感器進行生產(chǎn)的行為,是不存在程度區(qū)分的。
最后,在運營使用階段,使用者或所有者也可能創(chuàng)設(shè)法所不允許的危險。即使是完全自動駕駛汽車,在其出廠后的運行過程中,也需要周期性的保養(yǎng)、維護、系統(tǒng)升級甚至是維修,汽車的操作系統(tǒng)需要定期校正以確保它所運行的是經(jīng)過最新的數(shù)據(jù)庫訓(xùn)練過的最新軟件程序,而這些仍應(yīng)由機動車的保有人來負(fù)責(zé)。?另外,自動駕駛汽車的使用人在行車前應(yīng)當(dāng)履行開啟自動駕駛系統(tǒng)的自檢程序的義務(wù),只有在經(jīng)過系統(tǒng)的自檢程序,確定自動駕駛汽車沒有故障的前提下才能正常行車。除此之外,由于半自動駕駛汽車需要人機互動才能實現(xiàn)特定環(huán)境下的運行任務(wù),這就要求使用者具有在緊急時刻接管自動駕駛汽車的義務(wù)。例如,半自動駕駛汽車進入復(fù)雜路況后,駕駛者仍一直疏忽大意,在車輛的報警系統(tǒng)響起后,應(yīng)當(dāng)介入而不介入,或者即使駕駛者介入及時,但由于應(yīng)急行為不合理導(dǎo)致交通事故發(fā)生的,也認(rèn)為駕駛者創(chuàng)造了法所不允許的危險。
3.判斷相關(guān)主體是否實現(xiàn)了法所不允許的危險
是否實現(xiàn)了法所不允許的危險是判斷結(jié)果是否可歸責(zé)于行為人的必備步驟。這一層次的判斷是通過對危害結(jié)果的實質(zhì)性判斷,來判斷危害行為與危害結(jié)果之間是否具有刑法上的因果關(guān)系。筆者認(rèn)為,是否實現(xiàn)了法所不允許的危險應(yīng)當(dāng)結(jié)合危害結(jié)果的大小,以及結(jié)果回避可能性大小進行判斷。一方面,人工智能產(chǎn)品致害產(chǎn)生的法益侵害結(jié)果越嚴(yán)重,承擔(dān)刑事責(zé)任的可能性越大。刑法對人工智能產(chǎn)品領(lǐng)域研發(fā)設(shè)計主體、生產(chǎn)銷售主體以及使用操作主體的過失行為進行規(guī)制,目的是規(guī)范其自身行為,保障社會大眾利益。但是,為了防止刑法過度介入,對自動駕駛等人工智能技術(shù)產(chǎn)生不良影響,應(yīng)當(dāng)注重發(fā)揮刑法謙抑性原則,只有當(dāng)人工智能產(chǎn)品在使用中造成了嚴(yán)重的法益侵害結(jié)果時,才考慮發(fā)揮刑法的法益保障作用。另一方面,結(jié)果回避可能性越大,承擔(dān)刑事責(zé)任的可能性越大。學(xué)界通常主張,若行為人履行了結(jié)果回避義務(wù),也無法避免危害結(jié)果發(fā)生的,不能將結(jié)果歸責(zé)于行為人。由此可見,結(jié)果回避可能性理論是為了檢驗規(guī)范的有效性而設(shè)立的。而在對結(jié)果回避可能性進行判斷時,要考慮合義務(wù)替代行為的可行性問題。比如,2016 年發(fā)生在美國佛羅里達(dá)州的特斯拉自動駕駛汽車事故,以及發(fā)生在我國京港澳高速河北邯鄲段的特斯拉自動駕駛汽車事故的原因,皆為自動駕駛技術(shù)沒有能準(zhǔn)確識別障礙物,即自動駕駛汽車研發(fā)設(shè)計領(lǐng)域的問題導(dǎo)致了事故的發(fā)生。如果認(rèn)為在研發(fā)當(dāng)時,即使實施了其他的替代行為也并不具有效用與成本方面的可行性,那么就應(yīng)當(dāng)否認(rèn)結(jié)果回避可能性,從而在客觀層面排除違法性。另外,當(dāng)危害結(jié)果的發(fā)生是由于兩種或者兩種以上的事實原因引起時,對于危害結(jié)果是否可歸于危害行為的判斷,也離不開對于結(jié)果回避可能性的判斷。比如,由于自動駕駛系統(tǒng)設(shè)計缺陷,致使不能持續(xù)報警,而使用者在運行自動駕駛汽車前,也沒有對自動駕駛系統(tǒng)的可用性進行檢查的場合,認(rèn)為研發(fā)設(shè)計主體與使用者都創(chuàng)造了法所不允許的危險,兩者的過失行為都是導(dǎo)致危害結(jié)果發(fā)生的原因。根據(jù)結(jié)果回避可能性理論,若得出上述主體偏離標(biāo)準(zhǔn)的行為都實質(zhì)性地升高了危害結(jié)果發(fā)生的危險,就認(rèn)為行為人實現(xiàn)了法所不允許的危險,進而可以對其進行刑事歸責(zé)??傮w而言,只有在實施了合義務(wù)的替代行為可以避免危害結(jié)果的可能性較大,且法益侵害后果嚴(yán)重時,才可追究自動駕駛汽車領(lǐng)域相關(guān)主體的刑事責(zé)任。
雖然以結(jié)果預(yù)見可能性為基礎(chǔ)構(gòu)建的過失犯歸責(zé)理論已經(jīng)不足以應(yīng)對人工智能時代風(fēng)險規(guī)制的需求。但是,在對過失犯進行歸責(zé)時仍不能舍棄對結(jié)果預(yù)見可能性的判斷,結(jié)果預(yù)見可能性在人工智能產(chǎn)品致害所涉的過失犯歸責(zé)框架中承擔(dān)著“避免過度關(guān)注法益保障而忽視人工智能技術(shù)發(fā)展”所提倡的限制犯罪成立范圍的使命。在人工智能領(lǐng)域過失刑事歸責(zé)問題中,阻卻結(jié)果預(yù)見可能性成立主要涉及算法黑箱、異常因素以及信賴原則三要素。
1.算法黑箱阻卻結(jié)果預(yù)見可能性
一方面,前文雖然已經(jīng)通過算法的可解釋性原則否定了“因算法黑箱的存在主張回避預(yù)見可能性”的觀點;另一方面,也指出了算法黑箱的存在確實會對預(yù)見可能性的判斷產(chǎn)生實質(zhì)障礙,在人工智能產(chǎn)品致害領(lǐng)域無法依據(jù)新過失犯理論所主張的“預(yù)見可能性在先”的判斷范式。另外,若取消預(yù)見可能性對過失犯罪成立的限制功能,具有擴大犯罪圈的危險。人工智能技術(shù)的認(rèn)知系統(tǒng)與決策系統(tǒng)通過算法相關(guān)聯(lián),如果危害結(jié)果的發(fā)生是由于算法的深入學(xué)習(xí)所致,人工智能產(chǎn)品的研發(fā)設(shè)計者在事前可能確實無法具體預(yù)見到。正如學(xué)者所言,盡管制造商、程序員等盡量避免可能發(fā)生的危險,力圖把危害降至最低限度,但受自動駕駛車輛自身性能決定,仍然存在無法預(yù)測、無法解釋的危險,這種偶然出現(xiàn)的危險超出了制造商、程序員等的預(yù)料,難以預(yù)測和避免。?基于此,雖然無法將結(jié)果預(yù)見可能性作為判斷人工智能領(lǐng)域相關(guān)主體承擔(dān)刑事責(zé)任的充分條件,但是可以將結(jié)果預(yù)見可能性作為判斷相關(guān)主體是否具有刑事責(zé)任的必要條件,即如果沒有預(yù)見可能性,就可以排除相關(guān)主體的刑事責(zé)任。質(zhì)言之,基于自動駕駛技術(shù)的自主決策的特性,對研發(fā)設(shè)計者的預(yù)見可能性的有無需要通過排除法進行判斷,可以通過否定研發(fā)設(shè)計人員的預(yù)見可能性而否定罪責(zé),從而排除刑事歸責(zé)。但應(yīng)當(dāng)注意的是,如果危害結(jié)果首次發(fā)生,經(jīng)專家分析后證明危害結(jié)果確實難以預(yù)料,那么就可以否定相關(guān)設(shè)計生產(chǎn)者的預(yù)見可能性,但如果同種情形發(fā)生了兩次或兩次以上,此時就不能通過否定結(jié)果預(yù)見可能性而排除刑事歸責(zé)。
2.異常因素阻卻結(jié)果預(yù)見可能性
與具備技術(shù)屬性的算法黑箱不同,異常因素是對介入因素進行價值判斷而得出的結(jié)論。介入因素是指介于先前行為與最后結(jié)果之間的因素,如果某個介入因素被界定為異常因素,那么就可以通過否定先行行為人對最后危害結(jié)果的預(yù)見可能性來排除其對最后結(jié)果承擔(dān)刑事責(zé)任的可能性。在人工智能產(chǎn)品致害領(lǐng)域,如果研發(fā)設(shè)計主體的危害行為與最后發(fā)生的危害結(jié)果之間介入了異常因素,就可以排除該主體的刑事責(zé)任。異常因素的認(rèn)定需要根據(jù)案件事實進行價值判斷。以自動駕駛汽車交通肇事為例,自動駕駛汽車研發(fā)設(shè)計主體應(yīng)當(dāng)對駕駛員未手握方向盤的行為進行持續(xù)警示而未警示,且同時介入了駕駛員因為疏忽大意而未按照規(guī)定及時接管自動駕駛車輛的場合,針對自動駕駛汽車交通肇事的危害結(jié)果,駕駛者的違規(guī)行為不能被稱為異常因素。
再如,在自動駕駛汽車行駛途中,在駕駛員心臟驟停而陷入昏睡狀態(tài)的情況下,駕駛員的腳通常會離開加速踏板,汽車也會因此減速,并在道路拐彎的地方偏離道路從而停車,如果該車同時使用了車道居中功能和ACC,那么該車將高速地通過道路,最終可能導(dǎo)致駕駛員受傷。?要實現(xiàn)道路居中功能,需要以駕駛者重復(fù)地確認(rèn)居中功能指令為前提。如果間隔一段時間后,自動駕駛汽車未收到駕駛者的“道路居中”指令,自動駕駛汽車需要減速甚至停車,交通肇事的危害結(jié)果就不會發(fā)生。因此,不能直接將駕駛者心臟驟停認(rèn)定為異常因素,應(yīng)當(dāng)對假定的替代行為的可行性進行判斷,若認(rèn)為設(shè)計出讓駕駛者可以重復(fù)確認(rèn)的道路居中功能是合理且可行的,那么就可以認(rèn)為研發(fā)設(shè)計主體創(chuàng)造了法所不允許的危險,就不能通過主張心臟驟停為異常因素來排除其對危害結(jié)果的預(yù)見可能性。另外,如果囿于技術(shù)的發(fā)展水平,假定的替代行為不具有可行性,那么就不存在創(chuàng)造了法所不允許的危險,既然先行行為不存在,心臟驟停就不可能成為介入因素,更不可能被評價為異常因素。
3.信賴原則阻卻結(jié)果預(yù)見可能性
日本學(xué)者深町晉指出,在信賴自動駕駛系統(tǒng)的妥當(dāng)運轉(zhuǎn),但是其卻沒有妥當(dāng)運轉(zhuǎn)的情況下,如果能夠信賴汽車廠商設(shè)計并制造了妥當(dāng)運轉(zhuǎn)的AI 時,根據(jù)信賴原則,行為人不承擔(dān)責(zé)任。?雖然認(rèn)為信賴原則可以在自動駕駛汽車領(lǐng)域適用得到共識,但是對于信賴原則在自動駕駛領(lǐng)域否定的是結(jié)果預(yù)見義務(wù)還是結(jié)果回避義務(wù)具有爭議。這是因為,對于信賴原則否定的是結(jié)果預(yù)見義務(wù)還是結(jié)果避免義務(wù)本身就具有理論上爭議,有學(xué)者認(rèn)為信賴原則可以限制注意義務(wù)人的預(yù)見義務(wù),也有的學(xué)者認(rèn)為信賴原則的功能在于可以成為減輕結(jié)果回避義務(wù)之負(fù)擔(dān)的理由。?在自動駕駛汽車領(lǐng)域,筆者贊同信賴原則的適用可以否定結(jié)果預(yù)見義務(wù)。因為從使用人角度來說,自動駕駛技術(shù)的吸引力在于從駕駛員到乘客身份的轉(zhuǎn)變,使用人不再需要時刻保持對周邊環(huán)境的高度警惕,基于此,使用者可主張信賴自動駕駛技術(shù)而免除對危險結(jié)果的預(yù)見義務(wù)。但是,如果駕駛者在危險發(fā)生之前,已經(jīng)發(fā)現(xiàn)自動駕駛汽車沒有任何減速或者轉(zhuǎn)向的跡象時,此時駕駛者就不能對自動駕駛汽車產(chǎn)生合理的信賴,而應(yīng)當(dāng)主動關(guān)閉自動駕駛系統(tǒng),否則駕駛者就應(yīng)當(dāng)對結(jié)果承擔(dān)責(zé)任。另外,站在自動駕駛汽車的研發(fā)設(shè)計主體的角度,如果其未夸大自動駕駛技術(shù),就可以信賴使用者作為理性行為人可以在不同的自動駕駛技術(shù)級別的汽車中履行相應(yīng)的配合措施,從而也可免除研發(fā)設(shè)計主體對危害結(jié)果的預(yù)見義務(wù)。
人工智能技術(shù)的發(fā)展不可避免地會帶來刑事風(fēng)險在內(nèi)的法律風(fēng)險。而鑒于刑法具有最強的教育與行為指引功能,刑法對生產(chǎn)者與設(shè)計者在生產(chǎn)設(shè)計人工智能產(chǎn)品的過程中實施的不安全行為不能放任不管,否則將從反向強化風(fēng)險制造主體集體不負(fù)責(zé)任現(xiàn)象,從而產(chǎn)生危害公共安全的危險。另外,自動駕駛技術(shù)的發(fā)展離不開包含刑事法律手段在內(nèi)的法治手段的護航,通過刑事法律手段使自動駕駛的參與主體多一份嚴(yán)謹(jǐn)與認(rèn)真是保證自動駕駛汽車等人工智能產(chǎn)品安全可靠發(fā)展,進而持續(xù)造福人類社會的前提?;诖?,如何對人工智能產(chǎn)品帶來的刑事風(fēng)險進行規(guī)制,發(fā)揮刑法保障法的作用,不僅是社會大眾對刑法研究的期待,也是刑法學(xué)者的時代使命。由此,刑法學(xué)者應(yīng)盡力突破人工智能產(chǎn)品帶來的過失刑事責(zé)任認(rèn)定難題,探討人工智能產(chǎn)品所涉過失犯罪歸責(zé)的教義學(xué)解決方案,為人工智能時代過失犯理論的轉(zhuǎn)型升級貢獻(xiàn)智識。
注釋:
①姜濤、刁永超:《自動駕駛汽車涉罪的歸責(zé)難題及其解決方案》,《學(xué)術(shù)界》2021 年第5 期。
②王樂兵:《自動駕駛汽車的缺陷及其產(chǎn)品責(zé)任》,《清華法學(xué)》2020 年第2 期。
③張閎詔、董玉庭:《自動駕駛中危險駕駛行為的刑法應(yīng)對》,《學(xué)習(xí)與探索》2020 年第12 期。
④劉憲權(quán):《人工智能時代的刑事責(zé)任演變:昨天、今天、明天》,《法學(xué)》2019 年第1 期。
⑤司曉、曹建峰:《論人工智能的民事責(zé)任:以自動駕駛汽車和智能機器人為切入點》,《法律科學(xué)》2017 年第5期。
⑥參見[美]瑞恩·卡洛、邁克爾·弗蘭金:《人工智能與法律的對話》,陳吉棟譯,上海人民出版社2018 年版,第8頁。
⑦參見王霖:《自動駕駛場景下過失犯歸責(zé)困境巡檢與路徑選擇——以規(guī)范歸責(zé)模式為視角》,《河北法學(xué)》2020 年第3 期。
⑧盧有學(xué)、竇澤正:《論刑法如何對自動駕駛進行規(guī)制——以交通肇事罪為視角》,《學(xué)術(shù)交流》2018 年第4 期。
⑨參見陳京春:《對人工智能的科學(xué)判斷與刑法的理性應(yīng)對》,《上海政法學(xué)院學(xué)報》2020 年第6 期。
⑩江溯:《自動駕駛汽車對法律的挑戰(zhàn)》,《中國法律評論》2018 年第2 期。
?參見王德政:《人工智能時代的刑法關(guān)切:自動駕駛汽車造成的犯罪及其認(rèn)定》,《重慶大學(xué)學(xué)報(社會科學(xué)版)》2020 年第3 期。
?劉艷紅:《刑法理論因時代發(fā)展需處理好五種關(guān)系》,《東方法學(xué)》2020 年第2 期。
?姜濤、柏雪淳:《誰之責(zé)任與何種責(zé)任:人工智能的責(zé)任模式配置慎思》,《河南社會科學(xué)》2009 年第4 期。
?陳結(jié)淼、王康輝:《論無人駕駛汽車交通肇事的刑法規(guī)制》,《安徽大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019 年第3 期。
?陳興良:《過失犯論的法理展開》,《華東政法大學(xué)學(xué)報》2012 年第4 期。
?參見李居全:《論英國刑法學(xué)中的犯罪過失概念》,《法學(xué)評論》2007 年第1 期。
??勞東燕:《過失犯中預(yù)見可能性理論的反思與重構(gòu)》,《中外法學(xué)》2018 年第2 期。
?參見劉憲權(quán):《涉人工智能犯罪中的歸因與歸責(zé)標(biāo)準(zhǔn)探析》,《東方法學(xué)》2020 年第4 期。
?劉憲權(quán):《涉人工智能產(chǎn)品犯罪刑事責(zé)任的歸屬與性質(zhì)認(rèn)定》,《華東政法大學(xué)學(xué)報》2021 年第1 期。
?參見馮潔語:《人工智能技術(shù)與責(zé)任法的變遷——以自動駕駛技術(shù)為考察》,《比較法研究》2018 年第2 期。
?彭文華:《自動駕駛車輛犯罪的注意義務(wù)》,《政治與法律》2018 年第5 期。
?[日]松尾剛行:《關(guān)于自動駕駛汽車與刑事責(zé)任的考察》,《法治現(xiàn)代化研究》2019 年第1 期。
?[日]深町晉也:《機器人、AI 與刑事責(zé)任》,載[日]彌永真生、常壽編:《機器人、AI 與法》,有斐閣2018 年版,第215 頁。
?參見陳子平:《刑法總論》,元照出版公司2017 年版,第221 頁。