徐永偉 袁 彬
當(dāng)前,包括我國在內(nèi)的諸多國家都爭相開放自動駕駛道路測試,并為自動駕駛汽車發(fā)放路測牌照。整個世界范圍內(nèi),圍繞自動駕駛技術(shù)的研究與實測已經(jīng)成為交通產(chǎn)業(yè)變革的先聲。而伴隨自動駕駛技術(shù)的智能化演進,交通領(lǐng)域的徹底顛覆已經(jīng)成為勢不可擋的趨勢。
根據(jù)我國工業(yè)和信息化部最新發(fā)布的《汽車駕駛自動化分級》推薦性國家標(biāo)準(zhǔn)(2021年1月1日正式實施),基于駕駛自動化系統(tǒng)能夠執(zhí)行動態(tài)駕駛?cè)蝿?wù)的程度,可以將駕駛自動化分成0至5級。這也是我國首個自動駕駛汽車分級標(biāo)準(zhǔn),其駕駛自動化等級與劃分要素的關(guān)系,如下表所示:(1)2021年9月22日,我國市場監(jiān)管總局針對自動駕駛功能正式出臺了《汽車駕駛自動化分級》國家推薦標(biāo)準(zhǔn)(GB/T 40429-2021),該標(biāo)準(zhǔn)將于2022年3月1日正式實施。這一自動駕駛分級與工業(yè)和信息化部《汽車駕駛自動化分級》推薦性國家標(biāo)準(zhǔn)保持了一致。
可以發(fā)現(xiàn),當(dāng)前自動駕駛的概念其實同時涵蓋著“輔助駕駛”“人機共駕”與“無人駕駛”的范疇,(2)袁彬、徐永偉:《“人機共駕”模式下交通肇事罪的適用困境與突圍》,《廣西大學(xué)學(xué)報》(哲學(xué)社會科學(xué)版)2019年第5期。分別指向0級—2級的駕駛自動化、3級駕駛自動化、4級—5級駕駛自動化。在實踐中,三種類型的自動駕駛概念基本不作區(qū)隔,并為制造商、營銷商、媒體、學(xué)者、社會大眾等不同立場下的解讀者進行差異化定義。(3)比如,自動駕駛汽車生產(chǎn)商、營銷商為誤導(dǎo)消費者,就常常將僅具有輔助駕駛功能的自動駕駛汽車稱之為無人駕駛。但毋庸置疑,它們的駕駛自動化意義是不同的,也應(yīng)當(dāng)進行區(qū)別性的規(guī)范解讀。具體而言,輔助駕駛及“人機共駕”的自動化意義在于“駕駛行為的機器代理”,無論是基于風(fēng)險提示、協(xié)助決策還是對車輛控制的介入,本質(zhì)上都是通過對部分駕駛行為的機器代理來減輕駕駛的人力負擔(dān)、提高駕駛的安全系數(shù)。因而,即便是在第3級別的駕駛自動化,駕駛?cè)艘廊恍枰O(jiān)控車輛行駛狀況以便隨時接管駕駛。相較而言,無人駕駛的自動化意義則在于“駕駛行為的機器替代”。(4)洪政緯:《無人駕駛法治邁向新紀(jì)元——德國立法允許自動駕駛汽車上路》,《科技法律透析》2017年第5期。換言之,人的駕駛行為不復(fù)存在,而駕駛?cè)说母拍钜矊⒆呦蛳?。在這其中,無人駕駛的自動化意義顯然更具刑法理論的升華價值與前瞻意義。理由在于:
表1 駕駛自動化等級與劃分要素的關(guān)系
第一,輔助駕駛及“人機共駕”的自動化意義所表征的技術(shù)路徑是“人體器官的延長”,機器只是人的“代理者”,(5)李河:《從“代理”到“替代”的技術(shù)與正在“過時”的人類?》,《中國社會科學(xué)》2020年第10期。由此帶來的規(guī)范適用變遷基本上可以為刑法理論的“自適應(yīng)”所消解。但對于無人駕駛而言,其自動化意義所表征的技術(shù)路徑是機器對人的“替代”,這帶來的規(guī)范適用變遷則很大程度上需要突破現(xiàn)有刑法理論的桎梏進行知識框架的重新搭建。
第二,人工智能的技術(shù)賦能更多地呈現(xiàn)在無人駕駛領(lǐng)域,人們當(dāng)前對自動駕駛的憧憬與寄托實際上指向的也是無人駕駛,例如“人類被更為可靠的自動駕駛所取代,它們既不喝酒,也不會承受壓力,更不會忽視交通規(guī)則,交通事故就會因此減少百分之九十”,(6)S.A.Beiker,“Legal aspects of autonomous driving”,Santa Clara Law Review, Vol.52,No.4,2012,pp.1145-1156.“被排除在獨立駕駛之外的人(例如兒童、老年人和殘疾人)都將能夠在同等條件下上路”(7)J.K.Gurney,“Crashing into the unknown:An examination of crash-optimization algorithms through the two lanes of ethics and law”,Albany Law Review, Vol.79,No.1,2016,pp.183-268.等等。
第三,無人駕駛是輔助駕駛與“人機共駕”發(fā)展的必然結(jié)果與終極目的,但兩者并非技術(shù)發(fā)展上的漸進關(guān)系。申言之,自動駕駛的發(fā)展并不必然遵循0級—4級的技術(shù)升級規(guī)律,而是可能會隨著關(guān)鍵技術(shù)、生產(chǎn)成本等瓶頸的突破直接過渡到無人駕駛階段。尤其是伴隨5G技術(shù)的迅速普及,無論是對外部物聯(lián)網(wǎng)低延時互聯(lián)互通的推進,還是在內(nèi)部傳感器數(shù)據(jù)處理接近(或超過)人反應(yīng)時間的實現(xiàn),都將極大地推動無人駕駛汽車的“落地”。因而,作為全球最先布局5G技術(shù)市場的中國,在當(dāng)前階段就妥善考慮無人駕駛的刑事責(zé)任問題并非是“泛人工智能化的學(xué)術(shù)研究”,(8)劉艷紅:《人工智能法學(xué)研究的反智化批判》,《東方法學(xué)》2019年第5期。而是刑法學(xué)人在人工智能時代的未雨綢繆之舉以及時代責(zé)任所負。
第四,前瞻性的法律制度建設(shè)是技術(shù)變革的“催化劑”與“穩(wěn)定劑”,在“搶抓人工智能發(fā)展的重大戰(zhàn)略機遇,構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢”這一時代背景下,具有先導(dǎo)性的責(zé)任機制設(shè)計更是實現(xiàn)無人駕駛技術(shù)“彎道超車”的關(guān)鍵所在。相反,“不明確的責(zé)任最終將會成為阻礙無人駕駛汽車進入市場的制度性障礙”。(9)翁岳暄、多尼米克·希倫布蘭德:《汽車智能化的道路:智能汽車、自動駕駛汽車安全監(jiān)管研究》,《科技與法律》2014年第4期。
因此,本文選取更具規(guī)范性、前瞻性討論價值的無人駕駛作為因應(yīng)人工智能時代的刑法命題,以探求其自動化意義背后的刑法教義學(xué)意蘊。
1.無人駕駛自主化的技術(shù)面向
更準(zhǔn)確地講,無人駕駛的“自動化”應(yīng)當(dāng)稱之為“自主化”,強調(diào)的是一種非機械性、非預(yù)設(shè)性的自動化。換言之,無人駕駛是人工智能技術(shù)賦能下的“自主駕駛”(autonomous driving),而非“自動的無人駕駛”(automated driving)。兩者的區(qū)別在于:后者是在一個給定的范圍內(nèi),由機器遵循既定的腳本(scenario)把多項功能自行串起來執(zhí)行的駕駛技術(shù);而前者則不需要給定范圍,完全由機器自主地完成駕駛?cè)蝿?wù)。舉例來說,假設(shè)無人汽車是循著固定的車道或軌道行駛,不能偏離該預(yù)設(shè)的車道或軌道,那就屬于“自動的無人駕駛”。一旦在運行車道上出現(xiàn)障礙物等狀況時,“自動的無人駕駛”可以改變速度去避免碰撞、也可以停下來,但卻無法自行離開車道去閃避障礙。而“自主駕駛”的無人汽車則可以自己判斷鄰近車道的可行的情況,然后重新制定新的駕駛路線。(10)胡竹生、王樂智:《自駕車的未來與挑戰(zhàn)》,《機械工業(yè)雜志》2019年第4期。
無人駕駛自主化的技術(shù)面向,其實踐過程呈現(xiàn)為:環(huán)境感知——路徑規(guī)劃——控制與執(zhí)行。具體而言:(1)環(huán)境感知:基于深度學(xué)習(xí)的計算機視覺,無人駕駛汽車可以通過攝像頭、激光雷達、超聲波雷達、GPS等獲取環(huán)境狀態(tài)信息與車身狀態(tài)信息,從而獲得相應(yīng)的感知能力,進而完成一系列復(fù)雜的路況檢測;(2)路徑的預(yù)測規(guī)劃:無人駕駛汽車根據(jù)出行需求,利用高精度地圖的定位技術(shù)繪制出自出發(fā)點至目標(biāo)點的無碰撞、可通過的路徑,再由算法模型依照行駛過程中所獲取的環(huán)境數(shù)據(jù)等實時作出最優(yōu)路徑選擇;(3)控制與執(zhí)行:根據(jù)算法模型作出的路徑規(guī)劃,自主地實現(xiàn)對車輛的行駛控制??梢?,無人駕駛汽車能夠完全自主地感知、決策與執(zhí)行,從而在技術(shù)層面消解了人類駕駛?cè)说慕巧捌湄?zé)任。
2.無人駕駛“黑箱”化的技術(shù)面向
人工智能技術(shù)在算法(algorithm)模型的構(gòu)建上主要借助了計算機領(lǐng)域的深度學(xué)習(xí)(deep learning),即利用人工神經(jīng)元廣泛互連的運作機制。(11)付亦寧:《深度(層)學(xué)習(xí):內(nèi)涵、流變與展望》,《南京師大學(xué)報》(社會科學(xué)版)2021年第2期。在具體的實現(xiàn)層面,其經(jīng)歷了一個前、中、后期的發(fā)展歷程:前期主要采用的是“監(jiān)督學(xué)習(xí)算法”(supervised learning algorithms),將采集的數(shù)據(jù)進行人工標(biāo)注后進行訓(xùn)練,再通過參數(shù)的調(diào)整形成最優(yōu)的算法模型;中期采用的是“無監(jiān)督學(xué)習(xí)算法”(unsupervised learning algorithms),直接從未標(biāo)注的數(shù)據(jù)本身得到數(shù)據(jù)的性質(zhì),再基于數(shù)據(jù)總結(jié)或?qū)?shù)據(jù)分組,以推進數(shù)據(jù)驅(qū)動的決策,在這一過程中,由于“不存在數(shù)據(jù)和預(yù)定義模式組成的培訓(xùn)集,往往能夠創(chuàng)建新的、意想不到的模式”;(12)T.Zapusek,“Artificial intelligence in medicine and confidentiality of data”,Asia Pacific Journal of Health Law & Ethics, Vol.11,No.1,2017,pp.105-126.后期技術(shù)成熟階段的“強化學(xué)習(xí)算法”(reinforcement learning algorithms),則是通過自主性的獎懲機制實現(xiàn)算法的自我提升和改進。
上述算法模式的演進脈絡(luò),其實展現(xiàn)的是算法決策逐漸“去人類化”的過程與走向,相應(yīng)地,算法的過程與結(jié)果也越來越難以被人類所解釋或演算。而建立在“無監(jiān)督學(xué)習(xí)算法”和“強化學(xué)習(xí)算法”模型下的無人駕駛操控過程更是如此,利用現(xiàn)有的人類技術(shù)與知識可視化手段是無法做到調(diào)制、也無法作出解析的。因而,隨同算法訓(xùn)練模式的革新,無人駕駛的技術(shù)過程呈現(xiàn)出來的完全是一種“黑箱”模型。
因應(yīng)無人駕駛技術(shù)面向上的自主化、“黑箱”化特征,有必要進行刑法教義學(xué)上的解構(gòu),探求其背后刑法理論資源與解釋原理的結(jié)構(gòu)性變化,進而明確其在刑事責(zé)任承擔(dān)中的現(xiàn)實意蘊。
對無人駕駛技術(shù)的自主化特征而言,其將導(dǎo)致歸責(zé)根據(jù)與注意義務(wù)理論發(fā)生深刻的變革。這包括:其一,“人類駕駛?cè)私巧诩夹g(shù)層面的消解,會導(dǎo)致交通肇事罪的主體在規(guī)范層面的缺位”,(13)黃波:《自動駕駛交通肇事的刑法應(yīng)對》,《天府新論》2018年第4期。由此,在刑事責(zé)任的承擔(dān)上,原本由人類駕駛?cè)顺袚?dān)的刑事責(zé)任就需要重新進行分配,否則就會造成“過失犯中歸責(zé)的間隙”;(14)儲陳城:《人工智能時代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論》,《東方法學(xué)》2018年第3期。其二,無人駕駛技術(shù)的自主化將“導(dǎo)致以人為中心建立的各種交通規(guī)則和概念體系逐漸消亡”,(15)車浩:《刑事法治關(guān)山萬里 刑法研究穩(wěn)步前行》,《中國社會科學(xué)報》2017年12月27日,第4版。交通肇事罪圍繞駕駛?cè)怂鶚?gòu)建的過失責(zé)任體系(結(jié)果預(yù)見義務(wù)、結(jié)果回避義務(wù))也將失去意義。
對無人駕駛技術(shù)的“黑箱”化特征而言,其將導(dǎo)致過失責(zé)任的判斷與因果關(guān)系理論發(fā)生深刻的變革。這包括:其一,“無人駕駛機動車交通事故責(zé)任的基本性質(zhì)是車的責(zé)任”,(16)楊立新:《用現(xiàn)行民法規(guī)則解決人工智能法律調(diào)整問題的嘗試》,《中州學(xué)刊》2018年第7期。但對無人駕駛汽車的產(chǎn)品責(zé)任進行刑法歸責(zé)的過程中,算法的不可解析性將導(dǎo)致無法回溯考察生產(chǎn)商、研發(fā)者是否具有預(yù)見可能及結(jié)果避免可能,易言之,傳統(tǒng)過失責(zé)任的判斷法則不復(fù)存在;其二,算法“黑箱”性導(dǎo)致無人駕駛交通事故中“實行行為與危害結(jié)果之間的可解釋性幾乎難以證立”,(17)盧有學(xué)、竇澤正:《論刑法如何對自動駕駛進行規(guī)制——以交通肇事罪為視角》,《學(xué)術(shù)交流》2018年第4期。申言之,傳統(tǒng)因果關(guān)系的歸責(zé)體系也近乎失靈。
對無人駕駛技術(shù)的刑法教義學(xué)解構(gòu),表明我們已經(jīng)無法在熟悉的刑法語境與場域中自如地討論無人駕駛交通事故中的刑事責(zé)任問題。不法層面(因果關(guān)系與結(jié)果歸屬)、責(zé)任層面(過失責(zé)任)引發(fā)的歸責(zé)障礙將導(dǎo)致傳統(tǒng)交通事故中的責(zé)任體系走向崩潰,必須基于無人駕駛的現(xiàn)實技術(shù)導(dǎo)向,重構(gòu)交通事故中的刑事責(zé)任及其分配體系。
重構(gòu)無人駕駛交通事故中的刑事責(zé)任及其分配體系,首先需要梳理和明確其刑事責(zé)任的范圍。當(dāng)然,刑事責(zé)任范圍的確定并不僅僅是一個具象的刑法教義學(xué)問題,還是一個抽象的刑事政策問題。進言之,刑法既要面向潛在的受害人考慮現(xiàn)實的法益保護,同時又要面向國家戰(zhàn)略考慮預(yù)留人工智能發(fā)展的風(fēng)險容許空間。因而,無人駕駛交通事故中的刑事責(zé)任范圍實質(zhì)上是一種風(fēng)險分配與利益平衡的結(jié)果。
筆者認為,可以通過從“責(zé)任性質(zhì)——責(zé)任界限”兩個層面合理地界定無人駕駛交通事故中的刑事責(zé)任范圍。其中,責(zé)任性質(zhì)的厘定所要解決的是交通事故刑事評價的類型問題,主要通過“產(chǎn)品責(zé)任的主導(dǎo)原則”來實現(xiàn)。責(zé)任界限的劃定所要解決的是交通事故刑事評價的限度問題,主要通過“風(fēng)險的分擔(dān)原則”與“風(fēng)險的分解原則”來完成。
事實上,交通事故中的刑事評價均具有二重性,即交通肇事刑事責(zé)任與產(chǎn)品刑事責(zé)任。由于普通汽車的生產(chǎn)、制造技術(shù)早已臻于完善,因而交通事故的刑事歸責(zé)主要集中在駕駛?cè)说慕煌ㄕ厥滦淌仑?zé)任,基本上不涉及產(chǎn)品刑事責(zé)任。況且,即便是存在著產(chǎn)品的瑕疵,除非已經(jīng)達到了駕駛?cè)藷o法控制的程度,否則,產(chǎn)品瑕疵與危害結(jié)果之間的因果關(guān)系都可能會被駕駛?cè)说倪^失行為所中斷。但進入到無人駕駛場域中,由于駕駛?cè)私巧南?,交通事故就主要呈現(xiàn)為產(chǎn)品事故,相應(yīng)地,產(chǎn)品刑事責(zé)任也將取代交通肇事刑事責(zé)任成為主導(dǎo)的責(zé)任類型。(18)當(dāng)然,一旦將產(chǎn)品刑事責(zé)任確立為無人駕駛交通事故中主導(dǎo)的刑事責(zé)任類型,現(xiàn)有的罪名體系(如生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪)顯然是無法滿足刑法規(guī)制需要的,罪名的擴充、罪責(zé)的拓展就將成為必然。
第一,人類由駕駛?cè)说匠丝偷慕巧儎?,?dǎo)致其不再屬于交通肇事罪適格的責(zé)任主體。雖然無人駕駛汽車具有獨立的自主意志,但目前尚不承認人工智能(體)具有刑事責(zé)任主體資格,“刑法理論學(xué)說仍不愿意將犯罪的責(zé)任歸咎于人工智能,而更傾向于將人確定為犯罪者——負有責(zé)任的主要行為人,如使用者、監(jiān)督者或者生產(chǎn)者”,(19)M.Dobrinoiu,“The influence of artificial intelligence on criminal liability”,Lex ET Scientia International Journal, Vol.26,No.1,2019,pp.140-156.因為秉持著“人類中心主義”的立場,“所有由人創(chuàng)造的物體仍然被合理地視為財產(chǎn)類型、犯罪目標(biāo)”,(20)O.E.Radutniy,“Criminal liability of the artificial intelligence”,Problems of Legality, Vol.138,2017,pp.132-141.而不是行為主體。由此,無人駕駛汽車也就無法作為“駕駛?cè)恕背袚?dān)交通肇事的刑事責(zé)任。而且,無人駕駛的研發(fā)者、生產(chǎn)者也不具有承擔(dān)交通肇事刑事責(zé)任的先決條件,“無人駕駛將根據(jù)算法對周圍地區(qū)的觀測結(jié)果自主地采取行動,因此,生產(chǎn)者對無人駕駛的作為或不作為就不再負有責(zé)任,除非他能夠預(yù)見并避免無人駕駛的有害行為,但這樣的預(yù)見實際上幾乎是不可能的”。(21)T.Zapusek,“Artificial intelligence in medicine and confidentiality of data”.質(zhì)言之,交通肇事刑事責(zé)任體系根本難以“遷移”到無人駕駛交通事故的刑事評價之中。從某種程度上說,“法益只能維系于該自動駕駛的安全性”。(22)楊寧:《自動駕駛與刑法研究的新展開》,《人民法治》2018年第6期。如此一來,無人駕駛交通事故的刑事評價只能圍繞無人駕駛汽車的產(chǎn)品安全展開,而產(chǎn)品刑事責(zé)任就將成為主導(dǎo)的責(zé)任類型。
第二,無人駕駛汽車背靠人工智能技術(shù),具備強大的數(shù)據(jù)分析能力與運轉(zhuǎn)速度,因此,其能避免大部分自然人所犯的交通過錯(比如酒駕、超速、超載、疲勞駕駛等)。質(zhì)言之,傳統(tǒng)的交通風(fēng)險樣態(tài)將被大幅壓縮,交通肇事罪的適用空間基本不復(fù)存在。但作為新興的智能產(chǎn)品,“無論傳感器和控制軟件多么先進,由于嚴格的物理原因,無人駕駛汽車也會產(chǎn)生交通事故”,(23)S.Nyholm & J.Smids ,“The ethics of accident-algorithms for self-driving cars:An applied Trolley Problem?”,Ethical Theory and Moral Practice,Vol.11,No.5,2016,pp.1275-1289.例如在“在出現(xiàn)備份系統(tǒng)故障或傳感器讀數(shù)錯誤的情況下”。(24)K.Tranter,“The challenges of autonomous motor vehicles for Queensland Road and criminal laws”,QUT Law Review, Vol.16,No.2,2016,pp.59-81.況且,就目前的技術(shù)狀況而言,無人駕駛汽車出現(xiàn)不穩(wěn)定的“非必要系統(tǒng)行為”(unwanted system behaviors)的潛在因素也遠甚于普通機動車,(25)翁岳暄、多尼米克·希倫布蘭德:《汽車智能化的道路:智能汽車、自動駕駛汽車安全監(jiān)管研究》。這就有很大可能會導(dǎo)致交通事故。因而,作為技術(shù)承載的產(chǎn)品刑事責(zé)任自然也將成為居于主導(dǎo)地位的責(zé)任類型。
第三,在無人駕駛階段,作為交通肇事罪前置法規(guī)范的交通運輸管理法規(guī)早已經(jīng)導(dǎo)入無人駕駛系統(tǒng)的算法中,“對交通法律法規(guī)的記憶及對自身駕駛行為合法性的辨認就成為無人駕駛車輛所必須具備的能力”。(26)程龍:《自動駕駛汽車交通肇事的刑法規(guī)制》,《學(xué)術(shù)交流》2018年第4期。也就是說,對交通運輸管理法規(guī)的恪守已經(jīng)轉(zhuǎn)換為無人駕駛汽車的產(chǎn)品性能問題,由此,交通事故的刑事評價類型也就應(yīng)當(dāng)過渡到產(chǎn)品刑事責(zé)任的范疇。
1.風(fēng)險的分擔(dān)原則
確立風(fēng)險的分擔(dān)原則,其目的在于平衡技術(shù)生產(chǎn)(或研發(fā))與責(zé)任負擔(dān)的問題。實際上,無人駕駛交通事故中的結(jié)果歸責(zé)很容易將責(zé)任主體拖入難以維系的境地,因為新興技術(shù)的發(fā)展總是不可避免地伴隨著法益侵害的危險。但是,基于無人駕駛所帶來的巨大社會便利與收益,個人和社會絕無可能會拋棄無人駕駛。由此,就有必要以容許風(fēng)險理論來確立風(fēng)險的分擔(dān)機制,從而合理地劃定無人駕駛交通事故刑事評價的限度。
容許風(fēng)險理論的法理依據(jù)在于:“人在生活當(dāng)中的行為選擇本來就是趨于利害衡平的考量,基于此一原則,在人類對于事情未來的發(fā)展沒辦法百分之百的預(yù)知及掌控的情況下,就必須要做合理的冒險,否則整體來看,反而會使得現(xiàn)實的生活受到更大的損害”。(27)黃榮堅:《刑罰的極限》,臺北:元旦出版有限公司,1998年,第160頁。其實,電力、礦業(yè)、鐵路、航空、駕駛、醫(yī)療、運動競技等現(xiàn)代產(chǎn)業(yè)或行為活動,都與人類生命、健康、財產(chǎn)等法益損害有所關(guān)聯(lián)。如果依照傳統(tǒng)過失理論,對行為人的危險行為所引起的結(jié)果追究刑事責(zé)任,那么社會生活將會陷入全面停擺的狀態(tài)。正是這一理論脈絡(luò)中,容許風(fēng)險的法理為新過失論奠定了基礎(chǔ)。
按照新過失論,容許風(fēng)險理論的教義學(xué)意義就在于劃定了一條風(fēng)險承擔(dān)的界線,逾越這道界線方有過失。(28)林東茂:《刑法綜覽》,北京:中國人民大學(xué)出版社,2009年,第133頁。在實踐效果上,這一方法論重新確定了注意義務(wù)的中心,即由結(jié)果預(yù)見義務(wù)轉(zhuǎn)向結(jié)果回避義務(wù)。據(jù)此,在無人駕駛交通領(lǐng)域,就可以將“生產(chǎn)者雖預(yù)見危害結(jié)果但卻無法避免危害結(jié)果的情形排除”,(29)劉憲權(quán):《涉人工智能產(chǎn)品犯罪刑事責(zé)任的歸屬與性質(zhì)認定》,《華東政法大學(xué)學(xué)報》2021年第1期。從而給予無人駕駛技術(shù)的發(fā)展以相對寬松的法律環(huán)境。從這一層面上講,新過失論的真正特色,恰恰在于“重視行為的有用性,限定過失的范圍”。(30)馬克昌:《比較刑法原理》,武漢:武漢大學(xué)出版社,2002年,第232頁。而容許風(fēng)險理論中所要“容許的風(fēng)險”,最終將由無人駕駛的最終受益者(即社會大眾)所忍受和承擔(dān),即“將上述行為的危險部分地分配給了社會”。(31)黎宏:《日本刑法精義》,北京:法律出版社,2008年,第210頁。
“新過失論將過失客觀化,認為過失是‘懈怠’一定的回避措施,以不作為范式的構(gòu)造來理解過失”。(32)[日]前田雅英:《刑法總論講義》,曾文科譯,北京:北京大學(xué)出版社,2017年,第181頁。在“不作為”的具體判斷上,結(jié)果回避義務(wù)借助社會相當(dāng)性理論實現(xiàn)了行為標(biāo)準(zhǔn)的客觀化。而在技術(shù)研發(fā)或生產(chǎn)領(lǐng)域,“一定的回避措施”實質(zhì)上指向的就是產(chǎn)品的安全性標(biāo)準(zhǔn)。也就是說,在無人駕駛汽車符合當(dāng)時(研發(fā)或生產(chǎn)時)的科技以及國家、行業(yè)所期待的安全性標(biāo)準(zhǔn)的情況下,仍然發(fā)生了交通事故,無人駕駛汽車的研發(fā)者或生產(chǎn)者將不再承擔(dān)過失責(zé)任。(33)由于產(chǎn)品犯罪的特殊性質(zhì),如果是在事后發(fā)現(xiàn)存在產(chǎn)品缺陷而未能及時召回該無人駕駛汽車的情況下,就不再屬于可以被“容許”的風(fēng)險。
2.風(fēng)險的分解原則
確立風(fēng)險的分解原則,其目的在于平衡技術(shù)使用與責(zé)任負擔(dān)的問題。無人駕駛是一種具有顯著風(fēng)險的人工智能技術(shù),是基于對無人駕駛的完全信賴而使用的行為,也就成為了一種創(chuàng)設(shè)風(fēng)險的行為。但是,如果對這種創(chuàng)設(shè)風(fēng)險的行為進行客觀歸責(zé),必然會引起消費者消極的“避責(zé)”心理,最終導(dǎo)致無人駕駛汽車市場的低迷與萎縮。因此,有必要延拓信賴原則理論在無人駕駛領(lǐng)域的適用,以分解無人駕駛汽車使用人的刑事責(zé)任。
信賴原則,是容許風(fēng)險概念的延伸性原則。在新過失論者看來,信賴原則是限定注意義務(wù)的,即基于行為人最初可以依賴的不會發(fā)生結(jié)果的情狀(尤其是他人的行為),行為人實施的行為導(dǎo)致結(jié)果發(fā)生的,就要因為沒有注意義務(wù)而不能將結(jié)果歸屬于行為人。(34)張明楷:《外國刑法綱要》(第三版),北京:法律出版社,2021年,第210頁。但是,應(yīng)該注意到,信賴原則在機動車交通事故中的適用對象被限定在交通參與人,如行人、其他駕駛?cè)藛T,信賴的內(nèi)容是前述交通參與人能夠遵守交通秩序。而在無人駕駛交通事故中,信賴原則的引入應(yīng)當(dāng)根據(jù)交通領(lǐng)域的重大變化進行一定的拓展,其適用對象相應(yīng)地轉(zhuǎn)變?yōu)闊o人駕駛汽車的使用人和無人駕駛汽車,信賴的內(nèi)容則是無人駕駛的自主化駕駛能夠遵守交通秩序。
信賴原則在無人駕駛交通事故中的適用基礎(chǔ),可以作出如下的闡釋:一方面,無人駕駛的技術(shù)本質(zhì)就在于將人類從駕駛中解放出來,“操作者既然知道車輛主要依靠自主行使,就有理由相信車輛的人工智能及其自主駕駛功能”,(35)彭文華:《自動駕駛車輛犯罪的注意義務(wù)》,《政治與法律》2018年第5期。如果不存在這種信賴,就等于徹底否定了無人駕駛存在的現(xiàn)實意義;另一方面,嚴格意義上說,無人駕駛汽車使用人只要按照使用規(guī)定操作,便是盡到注意義務(wù)。畢竟,一般用戶難有能力察覺人工智能有無異狀,只能信賴合法出廠的無人駕駛汽車;(36)王紀(jì)軒:《自主型人工智慧事故的刑事評價》,《高大法學(xué)論業(yè)》2021年第2期。由此可見,“信賴原則實質(zhì)上已經(jīng)帶有強烈的規(guī)范責(zé)任分配意義”,(37)古承宗:《刑事交通事件中的容許風(fēng)險與信賴原則》,《月旦法學(xué)雜志》2011年第6期。可以合理地限縮無人駕駛交通事故刑事評價的限度。這樣,就可以將使用人從無人駕駛交通事故的刑事責(zé)任范圍中剝離出來,從而打通了無人駕駛汽車進入市場的最后屏障。
綜上所述,通過“產(chǎn)品責(zé)任的主導(dǎo)原則”,可以為無人駕駛交通事故中的刑事責(zé)任確定責(zé)任的性質(zhì),即其主導(dǎo)的責(zé)任類型應(yīng)當(dāng)是產(chǎn)品刑事責(zé)任;而通過“風(fēng)險的分擔(dān)原則”與“風(fēng)險的分解原則”,可以為無人駕駛交通事故中的刑事責(zé)任劃定責(zé)任的限度,前者要求在無人駕駛汽車符合當(dāng)時的科技以及國家、行業(yè)所期待的安全性標(biāo)準(zhǔn)的情況下仍然發(fā)生交通事故的,應(yīng)排除無人駕駛研發(fā)者或生產(chǎn)者的產(chǎn)品刑事責(zé)任,而后者則意味著無人駕駛汽車使用人被排斥在刑事責(zé)任范圍之外。(38)這里無人駕駛汽車使用人的刑事責(zé)任是相對傳統(tǒng)交通肇事罪中駕駛?cè)说男淌仑?zé)任而言的,并不意味著無人駕駛汽車使用人沒有任何責(zé)任,筆者在后文“產(chǎn)品刑事責(zé)任的邊界”部分中將對此作出論述。
明確了無人駕駛交通事故中的刑事責(zé)任范圍,下一步需要著力解決的問題就將是刑事責(zé)任的具體分配問題。在此,筆者嘗試通過“責(zé)任主體—罪責(zé)判斷—責(zé)任邊界”要素的層層限定,將無人駕駛交通事故中的刑事責(zé)任由大致的責(zé)任范圍精確到具體的責(zé)任范疇,進而徹底消解其所面臨的歸責(zé)困境。
1.產(chǎn)品刑事責(zé)任的主體判定
無人駕駛交通事故中的刑事責(zé)任分配,需要首先明確其責(zé)任主體。但問題在于,是否有必要將無人駕駛汽車產(chǎn)業(yè)鏈上的各個環(huán)節(jié)都納入產(chǎn)品刑事責(zé)任的歸責(zé)主體,并在其中分配刑事責(zé)任?
如上所述,無人駕駛產(chǎn)品刑事責(zé)任的主體范圍可以涵蓋無人駕駛技術(shù)(系統(tǒng))的研發(fā)者、零部件(硬件、軟件)的供應(yīng)者、無人駕駛汽車的生產(chǎn)者等整個產(chǎn)業(yè)鏈條中的組成部分。但筆者認為,無論是基于技術(shù)風(fēng)險的控制還是刑事責(zé)任的歸咎,都適宜將產(chǎn)品刑事責(zé)任全部分配給無人駕駛汽車生產(chǎn)商(者),使其成為刑事責(zé)任的“集成”者。
(1)技術(shù)風(fēng)險的控制視角
無人駕駛交通事故中的刑事責(zé)任分配,其目的在于實現(xiàn)對人工智能技術(shù)的風(fēng)險控制。而對于技術(shù)的風(fēng)險控制而言,必然需要接受經(jīng)濟法則(成本法則)的約束,以尋求技術(shù)風(fēng)險的最優(yōu)化控制。筆者認為,無人駕駛汽車生產(chǎn)者具有技術(shù)風(fēng)險的最優(yōu)控制地位,應(yīng)當(dāng)將產(chǎn)品刑事責(zé)任向無人駕駛汽車生產(chǎn)者傾斜。理由在于:
第一,在無人駕駛的技術(shù)流程中,生產(chǎn)者最能有效地控制風(fēng)險并平衡無人駕駛技術(shù)的收益與成本。(39)[德]霍斯特·艾丹米勒:《機器人的崛起與人類的法律》,李飛、敦小匣譯,《法治現(xiàn)代化研究》2017年第4期。無人駕駛汽車生產(chǎn)者上承無人駕駛系統(tǒng)提供者(研發(fā)者),下接無人駕駛汽車的使用者,恰好處在了消化成本的最佳位置。申言之,它既可以通過無人駕駛技術(shù)的商用選擇影響無人駕駛系統(tǒng)提供者(研發(fā)者)的技術(shù)方向,比如關(guān)系無人駕駛系統(tǒng)安全的“魯棒性”(robust)(40)無人駕駛系統(tǒng)的“魯棒性”,一般指無人駕駛汽車在發(fā)生故障時的容錯性能,保證系統(tǒng)在超出常規(guī)頻率發(fā)出指令、網(wǎng)絡(luò)過載、算法實效等極端情況下,仍然能夠正常(或降級)運作,直至完成可靠退出等,從而避免安全問題的發(fā)生。設(shè)計和“冗余性”(redundancy)(41)無人駕駛系統(tǒng)的“冗余性”,一般指為了系統(tǒng)的可用性,而采用兩套或者兩套以上的相同或相似且相對獨立配置并可切換使用的設(shè)計。簡言之,就是當(dāng)一套系統(tǒng)出現(xiàn)問題時,另一套系統(tǒng)能夠迅速切換,在不改變系統(tǒng)運行狀態(tài)的條件下保障系統(tǒng)仍然可用。設(shè)計;也能夠通過對無人駕駛汽車的定價等方式分散風(fēng)險的負擔(dān),從而具備了控制技術(shù)風(fēng)險的天然優(yōu)越性;
第二,“無人駕駛技術(shù)作為實驗室中的科研成果,幾乎是無害的”,(42)姜濤、柏雪淳:《誰之責(zé)任與何種責(zé)任:人工智能的責(zé)任模式配置慎思》,《河南社會科學(xué)》2019年第4期。只有經(jīng)由無人駕駛汽車生產(chǎn)者投入生產(chǎn),技術(shù)風(fēng)險才會真正地轉(zhuǎn)化為現(xiàn)實的刑事風(fēng)險。因此,由無人駕駛汽車生產(chǎn)者承擔(dān)刑事責(zé)任,可以敦促其充分履行產(chǎn)品的注意義務(wù)與管理職責(zé),進而最大可能地避免技術(shù)風(fēng)險的現(xiàn)實化;
第三,有論者認為,“追究人工智能產(chǎn)品缺陷產(chǎn)品研發(fā)者的刑事責(zé)任能夠引導(dǎo)人工智能技術(shù)的健康發(fā)展”,(43)劉憲權(quán):《人工智能時代技術(shù)風(fēng)險的刑法應(yīng)對》,《華東政法大學(xué)學(xué)報》2018年第5期。但歸根結(jié)底,無人駕駛技術(shù)的商用是自由市場經(jīng)濟的選擇,利用市場的“優(yōu)勢劣汰”就足以調(diào)控?zé)o人駕駛的技術(shù)研發(fā)。進言之,刑事治理的重點不應(yīng)在于無人駕駛技術(shù)的研發(fā)者,而在于擁有技術(shù)選擇優(yōu)勢地位的生產(chǎn)者。況且,新技術(shù)、新發(fā)明總是建立在不斷試錯的基礎(chǔ)上,對無人駕駛技術(shù)研發(fā)者動輒課以刑責(zé),勢必會“消耗”研發(fā)者的研發(fā)熱情,進而阻遏人工智能轉(zhuǎn)變?yōu)樾乱惠啴a(chǎn)業(yè)變革核心驅(qū)動力的技術(shù)裂變進度。
(2)刑事責(zé)任的歸咎視角
對無人駕駛交通事故中的刑事責(zé)任分配而言,試圖細致周延地考察、分配無人駕駛汽車產(chǎn)業(yè)鏈中各個環(huán)節(jié)的刑事責(zé)任并不現(xiàn)實。筆者認為,從有利于刑事責(zé)任歸咎的立場出發(fā),應(yīng)當(dāng)明確由無人駕駛汽車的生產(chǎn)者作為產(chǎn)品刑事責(zé)任的“集成”者。理由在于:
第一,在責(zé)任分配機制的設(shè)計上,我們往往追求這種多重義務(wù)的設(shè)置,其基本理念就是——有越多的人當(dāng)保證人,出事的風(fēng)險就越低,因此,就要盡量讓每一個人都承擔(dān)避免損害發(fā)生的義務(wù)。比如,有學(xué)者指出,“刑法應(yīng)介入對無人駕駛的技術(shù)研發(fā)、生產(chǎn)制造、系統(tǒng)運營、現(xiàn)實使用等環(huán)節(jié),從而實現(xiàn)刑法的全方位調(diào)控”,(44)趙秉志、詹奇瑋:《現(xiàn)實挑戰(zhàn)與未來展望:關(guān)于人工智能的刑法學(xué)思考》,《暨南學(xué)報》2019年第1期。相應(yīng)地,產(chǎn)品刑事責(zé)任也就要分散到每個具體的環(huán)節(jié)中。但是,這種原本旨在降低損害風(fēng)險的多重義務(wù)設(shè)計,結(jié)果可能會適得其反,因為可以承擔(dān)義務(wù)的人越多,就越有可能沒有人會真的盡義務(wù)。(45)黃榮堅:《交通事故責(zé)任與容許信賴》,《月旦法學(xué)雜志》1999年第7期。質(zhì)言之,越是追求多重義務(wù)主體,越有可能造成責(zé)任的“扯皮”與推脫。最后,就可能導(dǎo)致貝克在風(fēng)險社會理論中所提出的“組織化的不負責(zé)任”的現(xiàn)象,即“沒有人被認定為須承擔(dān)責(zé)任”。(46)[英]珍妮·斯蒂爾:《風(fēng)險與法律理論》,韓永強譯,北京:中國政法大學(xué)出版社,2012年,第54頁。而且,當(dāng)前無人駕駛汽車研發(fā)者與制造者的深度協(xié)作,實際上已經(jīng)使責(zé)任很難被準(zhǔn)確地分割。如果責(zé)任的追究需要回溯到每一個階段查證責(zé)任的承擔(dān)主體,也必將會耗費巨量的司法資源。因此,為了保證刑法的規(guī)制效率,有必要將無人駕駛汽車的產(chǎn)品刑事責(zé)任集中到無人駕駛汽車生產(chǎn)者中。
第二,有觀點認為,“人工智能產(chǎn)品的設(shè)計和制造者的行為是更加前端的原因,這是導(dǎo)致危害結(jié)果的風(fēng)險的最初來源”,(47)葉良芳、馬路瑤:《風(fēng)險社會視閾下人工智能犯罪的刑法應(yīng)對》,《浙江學(xué)刊》2018年第6期。追究無人駕駛汽車研發(fā)者的產(chǎn)品刑事責(zé)任似乎更能達到預(yù)防效果。但是,無人駕駛汽車從研發(fā)到商用,中間橫亙著生產(chǎn)者的技術(shù)測驗與實路測試。換言之,生產(chǎn)者還具有對無人駕駛技術(shù)的查驗和測試義務(wù)。這對于無人駕駛交通事故而言,研發(fā)者的產(chǎn)品缺陷與危害結(jié)果之間的因果關(guān)系就被“間接”化了。如此一來,將產(chǎn)品注意義務(wù)集中到生產(chǎn)者,并由其承擔(dān)產(chǎn)品刑事責(zé)任也具有教義學(xué)上的根據(jù)。
第三,隨同無人駕駛系統(tǒng)的所有權(quán)轉(zhuǎn)移,無人駕駛系統(tǒng)內(nèi)的結(jié)果回避義務(wù)也將轉(zhuǎn)移給無人駕駛汽車生產(chǎn)者。進言之,在生產(chǎn)無人駕駛汽車時,其“有客觀技術(shù)能力去避免制造導(dǎo)致該車輛違反交通運輸管理法規(guī)、出廠時就有缺陷的自動駕駛系統(tǒng)”。(48)王德政:《人工智能時代的刑法關(guān)切:自動駕駛汽車造成的犯罪及其認定》,《重慶大學(xué)學(xué)報》2020年第3期。這樣一來,原本應(yīng)由無人駕駛研發(fā)者應(yīng)承擔(dān)的過失責(zé)任也就轉(zhuǎn)移給了無人駕駛汽車生產(chǎn)者。從這一角度考量,由無人駕駛汽車生產(chǎn)者承擔(dān)刑事責(zé)任并非是嚴苛之舉。
概而言之,無人駕駛汽車生產(chǎn)者作為無人駕駛技術(shù)的集成者,將產(chǎn)品刑事責(zé)任向其傾斜與集中不僅可以節(jié)約整體技術(shù)風(fēng)險的控制成本,還能最有效率地完成刑事責(zé)任的歸咎問題。
2.產(chǎn)品刑事責(zé)任的承擔(dān)模式
明確無人駕駛汽車生產(chǎn)者作為產(chǎn)品刑事責(zé)任的分配對象后,還需要繼續(xù)論證該刑事責(zé)任的承擔(dān)模式問題。換言之,無人駕駛生產(chǎn)者作為刑事責(zé)任主體,是一種個人責(zé)任的模式還是集體責(zé)任的模式,又或者集體責(zé)任與個人責(zé)任兼而有之。產(chǎn)品刑事責(zé)任的承擔(dān)模式也涉及責(zé)任的分配與確定問題,因而需要在責(zé)任主體這一范疇內(nèi)予以妥當(dāng)?shù)卣撟C。
無人駕駛汽車生產(chǎn)者成為產(chǎn)品刑事責(zé)任主體,意味著所有有關(guān)無人駕駛汽車的注意義務(wù)都將由該生產(chǎn)者承擔(dān)。但所謂的無人駕駛汽車生產(chǎn)者,其實也是一個生產(chǎn)流程的集合體,它的內(nèi)部涉及汽車設(shè)計、制造、零部件安裝、道路測試等諸多的參與者。如此一來,似乎還需要根據(jù)交通事故的發(fā)生原因繼續(xù)在無人駕駛汽車生產(chǎn)者的內(nèi)部尋找直接責(zé)任人員。相應(yīng)地,也就應(yīng)該由違反注意義務(wù)的具體個體(自然人)承擔(dān)產(chǎn)品刑事責(zé)任。然而,這有可能導(dǎo)致的結(jié)果是:一方面,由于我國不承認共同過失犯罪,因此只能查證到具體參與者的過失責(zé)任,否則,就只能按照“存疑時有利于被告”的原則,不追究任何人的刑事責(zé)任;另一方面,在無人駕駛汽車生產(chǎn)分工愈來愈精細的情況下,每個可以究責(zé)的對象,都可能會是結(jié)果發(fā)生的原因,這樣一來,責(zé)任會被切割而零碎化,責(zé)任主體也將會無限地擴大。
因此,無人駕駛汽車的產(chǎn)品刑事責(zé)任應(yīng)當(dāng)摒棄雖然精細但不實用的個人責(zé)任模式,而應(yīng)當(dāng)尋求法人責(zé)任(集體責(zé)任、單位責(zé)任)的模式。如此,就不再追究每個環(huán)節(jié)的執(zhí)行是否有過失,而是“從整個組織結(jié)構(gòu)的行為,去判斷是否有因果、是否有監(jiān)督過失,這不僅可以減輕檢察機關(guān)的舉證責(zé)任,還能有效地防止組織體犯罪”。(49)吳景欽:《無人車致人死亡刑事究責(zé)之疑難》,《臺灣法學(xué)雜志》2019年第8期。
1.產(chǎn)品犯罪的注意義務(wù)范圍
產(chǎn)品犯罪的注意義務(wù),直接指向的是生產(chǎn)者對無人駕駛汽車所應(yīng)擔(dān)保的安全程度。在新過失論的理論發(fā)展過程中,出現(xiàn)了“危懼感說”理論,試圖將作為注意義務(wù)前提的預(yù)見可能性置換為不安感、危懼感,以此擴充注意義務(wù)的范圍。但是,這種觀點與我們通過“容許風(fēng)險理論”和“信賴原則理論”限縮過失犯罪處罰范圍的初衷相違背,會導(dǎo)致利益失衡的后果。況且,如果過分擴充注意義務(wù)范圍,“生產(chǎn)者可能不愿意引進增加其責(zé)任的無人駕駛技術(shù),或者可以對該技術(shù)定價,以收回其預(yù)期的責(zé)任成本,這可能導(dǎo)致比社會最優(yōu)水平更高的價格和更低的技術(shù)采用率”。(50)J.Levy,“No need to reinvent the wheel:Why existing liability law does not need to be preemptively altered to cope with the debut of the driverless car”,Journal of Business,Entrepreneurship and the Law, Vol.9,No.2,2016,pp.355-388.為此,產(chǎn)品犯罪注意義務(wù)范圍的合理界定,要綜合無人駕駛汽車可能發(fā)生交通事故的機率以及損害程度,為生產(chǎn)者確立適當(dāng)?shù)淖⒁饬x務(wù)范圍。進言之,對這一注意義務(wù)的范圍,要進行實質(zhì)性的利益衡量,不能要求生產(chǎn)者避免所有可能發(fā)生的危險,而是“生產(chǎn)者必須致力于在可期待的范圍內(nèi)使其產(chǎn)品盡可能地安全”。(51)[德]Eric Hilgendorf:《自動駕駛與刑法——以“阿莎芬堡案”為例》,林信銘譯,《高大法學(xué)論業(yè)》2019年第1期。在此基礎(chǔ)上,按照交通事故發(fā)生的原因,可以將注意義務(wù)的范圍確定為生產(chǎn)安全的防范義務(wù)與使用安全的防范義務(wù)。
生產(chǎn)安全的防范義務(wù),實際上就是指無人駕駛汽車生產(chǎn)的安全性標(biāo)準(zhǔn)的要求。這一安全性標(biāo)準(zhǔn),主要包括三方面的內(nèi)容:其一,是指有關(guān)《產(chǎn)品質(zhì)量法》等前置法規(guī)范對產(chǎn)品所提出的一般性的義務(wù)要求,指產(chǎn)品在當(dāng)前技術(shù)水平下符合保障人體健康和人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn);其二,是由交通肇事罪的注意義務(wù)合理轉(zhuǎn)化為產(chǎn)品犯罪的注意義務(wù),即要求將“交通運輸管理法規(guī)”“有關(guān)無人駕駛車輛的特別交通運輸管理法規(guī)”等適法性的要求嵌入無人駕駛系統(tǒng)的算法中;其三,是將平等、公平、正義等倫理規(guī)則上升為刑法安全義務(wù)的,例如無人駕駛系統(tǒng)識別程序存在算法偏見,(52)陳洪兵、陳禹衡:《刑法領(lǐng)域的新挑戰(zhàn):人工智能的算法偏見》,《廣西大學(xué)學(xué)報》(哲學(xué)社會科學(xué)版)2019年第5期。就可能影響無人駕駛汽車面臨“電車難題”困境時的責(zé)任承擔(dān)。
使用安全的防范義務(wù),“人工智能產(chǎn)品的使用領(lǐng)域仍受生產(chǎn)者支配,這一點與普通產(chǎn)品存在本質(zhì)區(qū)別”,(53)劉憲權(quán):《涉人工智能產(chǎn)品犯罪刑事責(zé)任的歸屬與性質(zhì)認定》。因而生產(chǎn)者在產(chǎn)品投入使用后對無人駕駛汽車的異常仍然具有一定的安全防范義務(wù)。這一使用安全的防范義務(wù),主要包括兩方面的內(nèi)容:其一,是一般性的安全防范義務(wù),比如產(chǎn)品故障的排除義務(wù)、產(chǎn)品缺陷的警告義務(wù)、產(chǎn)品缺陷的召回義務(wù);其二,是專門針對無人駕駛系統(tǒng)的安全防范義務(wù),比如對無人駕駛系統(tǒng)的及時更新與監(jiān)督的義務(wù),“雖然傳統(tǒng)汽車和無人駕駛汽車的硬件可望在較長時間內(nèi)保持相似,但后者本質(zhì)上更依賴于系統(tǒng)(軟件),只要無人駕駛車輛仍在流通,就需要保持更新”。(54)T.Liivak,“Liability of a manufacturer of fully autonomous and connected vehicles under the product liability directive”,International Comparative Jurisprudence, Vol.4,No.2,2018,pp.178-189.
2.產(chǎn)品刑事責(zé)任的罪責(zé)判斷
在無人駕駛汽車生產(chǎn)者違背上述注意義務(wù)的情況下,就產(chǎn)生了產(chǎn)品刑事責(zé)任的罪責(zé)。但就罪責(zé)的具體判斷而言,尤其是要證明產(chǎn)品犯罪注意義務(wù)的違反,卻并非易事。筆者認為,無人駕駛生產(chǎn)者的罪責(zé)判斷應(yīng)當(dāng)轉(zhuǎn)變?yōu)橄鄬栏褙?zé)任的方式,即不要求起訴方證明被告人的主觀過錯,但被告人可以以無過失等理由來進行辯護。在此種情況下,并沒有脫離主觀責(zé)任的軌道,僅僅是證明責(zé)任的轉(zhuǎn)移而已。(55)趙秉志:《英美刑法學(xué)》,北京:科學(xué)出版社,2010年,第63頁。
第一,就無人駕駛交通事故而言,“無人駕駛汽車并沒有事先設(shè)計固定的操作規(guī)制,而是允許汽車自主根據(jù)對數(shù)據(jù)的分析作出判斷”,(56)江溯:《自動駕駛汽車對法律的挑戰(zhàn)》,《中國法律評論》2018年第2期。如果不深入無人駕駛汽車的技術(shù)流程,很難直接判定生產(chǎn)者是否違背注意義務(wù)。因而,在無人駕駛汽車生產(chǎn)者的產(chǎn)品刑事責(zé)任上,適用相對的嚴格責(zé)任既是一種無奈之舉,也是因應(yīng)人工智能時代作出的現(xiàn)實調(diào)整。況且,無人駕駛汽車生產(chǎn)者完全可以根據(jù)其技術(shù)優(yōu)勢反證其已經(jīng)充分地履行了產(chǎn)品的注意義務(wù),從而排除其罪責(zé)。
第二,在智慧城市與智能交通的發(fā)展背景下,無人駕駛汽車生產(chǎn)者在國家統(tǒng)籌下協(xié)同運用智能化操作系統(tǒng)管控?zé)o人駕駛汽車的運行。這就意味著,無人駕駛汽車生產(chǎn)者掌控著大量的管控資源,既具有判斷交通事故發(fā)生原因的技術(shù)優(yōu)勢,同時也具有掩蓋事故真相的技術(shù)優(yōu)勢,因而,對其適用相對的嚴格責(zé)任也具有相當(dāng)?shù)谋匾院涂尚行浴?/p>
第三,交通事故屬于公共安全的范疇,具有重大法益保護的特殊性,而且,無人駕駛汽車一旦推向市場也具有一定的擴散性、廣泛性、不可控性等特征。因此,有必要通過相對的嚴格責(zé)任形成一定的倒逼機制,這不僅能夠避免生產(chǎn)者在資本市場的推動下罔顧技術(shù)上的不成熟而過早地將無人駕駛汽車投放市場,也可以要求其不斷改善其系統(tǒng),并在技術(shù)上可行和合理的情況下監(jiān)控和改進已上市的無人駕駛汽車,(57)潘俊良:《自駕車之發(fā)展與挑戰(zhàn)——以德國法制為借鑒》,《科技法律透析》2018年第12期。從而達致對交通安全的最佳保護狀態(tài)。
產(chǎn)品刑事責(zé)任的邊界,即在產(chǎn)品刑事責(zé)任的主導(dǎo)之外,無人駕駛汽車交通事故中的其他責(zé)任類型。這些事由的存在,超出了無人駕駛汽車生產(chǎn)者的產(chǎn)品刑事責(zé)任范疇,應(yīng)當(dāng)由它們分別承擔(dān)各自的刑事責(zé)任。
1.無人駕駛汽車使用人違反消極保證義務(wù)
對于無人駕駛汽車的使用人而言,雖然其角色經(jīng)歷了由駕駛者到乘客的實質(zhì)“蛻變”,但其對無人駕駛汽車依然存在一定的消極保證義務(wù)。無人駕駛汽車使用人違反消極保證義務(wù),如果妨害到駕駛行為的正常運轉(zhuǎn),就需要承擔(dān)相應(yīng)的刑事責(zé)任。
一則,無人駕駛汽車使用人不應(yīng)當(dāng)惡意干擾無人駕駛系統(tǒng)的操作,(58)黃波:《自動駕駛汽車交通肇事的刑法應(yīng)對》。而使之處于可能失控的危險境地。例如,如果無人駕駛汽車使用人惡意干擾無人駕駛系統(tǒng)固定程序運行而導(dǎo)致危害后果的,應(yīng)當(dāng)由其承擔(dān)相應(yīng)的刑事責(zé)任。
二則,無人駕駛汽車使用人具有保養(yǎng)與維護的義務(wù)。如果使用人怠于履行無人駕駛汽車的保養(yǎng)義務(wù)或者在無人駕駛汽車發(fā)出維修警示時未能及時地進行維修,由此造成危害后果的,也應(yīng)當(dāng)由其承擔(dān)相應(yīng)的刑事責(zé)任。
三則,無人駕駛汽車使用人不能超出無人駕駛汽車的設(shè)計內(nèi)容或者限制。雖然無人駕駛汽車能夠根據(jù)道路情況實時作出決策調(diào)整,但安全引航到具體的目的地卻是預(yù)先設(shè)定的,倘若無人駕駛汽車使用人在操作領(lǐng)域外強行設(shè)定地點(超出無人駕駛汽車使用的地理區(qū)域),由此造成的危害后果就應(yīng)當(dāng)由其承擔(dān)相應(yīng)的刑事責(zé)任。
2.第三方非法介入無人駕駛系統(tǒng)
第三方非法介入無人駕駛系統(tǒng)而導(dǎo)致交通事故時,無人駕駛汽車生產(chǎn)者不承擔(dān)刑事責(zé)任,而轉(zhuǎn)由第三方承擔(dān)。
實際上,第三方對無人駕駛系統(tǒng)的非法介入,完全可以根據(jù)現(xiàn)行刑法理論中的抗辯事由進行分析。例如,第三方對無人駕駛系統(tǒng)算法的破壞,就可以“針對它的故障提出(類比于人類)精神錯亂的辯護”。(59)G.Hallevy,“I,robot-I,criminal:When science fiction becomes reality:Legal liability of AI robots committing criminal offenses”,Syracuse Science & Technology Law Reporter,Vol.22,2010,pp.1-37.再如,“從安裝間諜軟件到第三方跟蹤車輛的移動,到對車輛進行更直接的危險干擾,使其崩潰,或‘綁架’”,(60)K.Tranter,“The challenges of autonomous motor vehicles for Queensland Road and criminal laws”.可以類比于人類的脅迫行為。這些都能成為無人駕駛汽車生產(chǎn)者的免責(zé)事由,而轉(zhuǎn)由具體的第三方承擔(dān)相應(yīng)的刑事責(zé)任。
當(dāng)然,上述免責(zé)事由也可以根據(jù)因果關(guān)系的中斷理論來解釋。在第三方非法介入的情況下,駕駛行為與交通事故后果之間的因果關(guān)系被第三方的行為所中斷,也可以得出無人駕駛汽車生產(chǎn)者免責(zé)的結(jié)論。
世界四大國際會計師事務(wù)所之一的畢馬威會計師事務(wù)所(KPMG)在2020年《自動駕駛汽車成熟度指數(shù)報告》(Autonomous Vehicles Readiness Index)中,用四項標(biāo)準(zhǔn)來衡量自動駕駛汽車成熟度指數(shù),分別為“政策及立法”(policy and legislation)、“技術(shù)和創(chuàng)新”(technology and innovation)、“基礎(chǔ)設(shè)施”(infrastructure)、“消費者可接受度”(consumer acceptance)。在這其中,排在最前位的即是“政策及立法”狀況。這充分表明,人工智能的發(fā)展從來都不只是技術(shù)的競爭,同時也是法律環(huán)境的競爭。(61)吳英霞:《無人駕駛汽車規(guī)范發(fā)展法律路徑研究》,《科技管理研究》2019年第2期。在自動駕駛的技術(shù)研發(fā)中,在2級、3級自動駕駛領(lǐng)域,我國仍然落后于西方國家,正因如此,提前化的歸責(zé)設(shè)計是實現(xiàn)我們在4級、5級自動駕駛(無人駕駛)領(lǐng)域“彎道超車”的關(guān)鍵所在。
更進一步說,無人駕駛汽車作為人工智能技術(shù)周期演進過程中最被看好的領(lǐng)域之一,正是我們審視人工智能的絕佳入口。著眼于無人駕駛汽車之內(nèi),我們解決的是其交通事故中的刑事責(zé)任及其分配問題,超越于無人駕駛汽車之外,“有關(guān)無人駕駛汽車規(guī)制的立法能夠為調(diào)整人工智能提供一個細小但十分有趣的樣本,為預(yù)測未來法律將如何規(guī)制人工智能提供了一個途徑”。(62)John Frank Weaver:《機器人也是人——人工智能時代的法律》,鄭志鋒譯,臺北:元照出版公司,2018年,第113頁。這也是本文希望透過對無人駕駛交通事故中的刑事責(zé)任分配所作出的嘗試。從這個意義上說,只有最大限度地通過責(zé)任機制的設(shè)計實現(xiàn)人工智能技術(shù)發(fā)展與社會安全保障之間的“帕累托最優(yōu)”,才最有可能在未來的人工智能時代中掌握主動權(quán)。