張?zhí)锟?/p>
前不久,一名27歲的特斯拉Model S駕駛員被指控過失殺人罪。其實,這是2019年12月29日發(fā)生的一起事故,被指控的駕駛員名為亞德,其駕駛的Model S以很快的速度駛離高速公路,在闖紅燈后,直接撞上一輛本田思域,造成2名乘客當(dāng)場死亡。
事后,兩名死者的家屬分別起訴了特斯拉公司和亞德,稱因亞德的疏忽及特斯拉公司銷售有缺陷的車輛,造成嚴(yán)重交通事故。美國加利福尼亞州檢察官指控亞德犯有兩項過失殺人罪。這意味著亞德成為美國歷史上首位因L2自動駕駛系統(tǒng)(簡稱L2)發(fā)生嚴(yán)重事故后被指控重罪的駕駛員。
不過,即便亞德被判有罪,也無法阻擋自動駕駛技術(shù)的進(jìn)一步發(fā)展,但因其引發(fā)的悲劇也在告訴人們:任何技術(shù)的發(fā)明和被全社會接受都要付出一定的代價。安全和效率是判斷技術(shù)是否成功的主要標(biāo)準(zhǔn)。從這兩個主要標(biāo)準(zhǔn)來看,現(xiàn)階段自動駕駛技術(shù)還不成熟。
L2是汽車自動化駕駛(0級~5級,即L0~L5)的第3級,是指在特定的設(shè)計運行范圍內(nèi)可持續(xù)執(zhí)行橫向和縱向運動控制的動態(tài)駕駛?cè)蝿?wù)。雖然行駛過程中L2能同時自主控制方向(橫向)和加速、制動(縱向),但是在整個行駛過程中,駕駛員必須實時監(jiān)控周圍的環(huán)境情況,并隨時準(zhǔn)備接管車輛。因此,L2是自動駕駛和人工駕駛的結(jié)合,主要由人工駕駛掌控安全。L2出現(xiàn)事故,主要是駕駛員不當(dāng)使用L2造成的。
安全性是制約和推動自動駕駛技術(shù)的首要因素。長期以來,以特斯拉公司為代表的汽車公司一直認(rèn)定,有Autopilot裝置的自動輔助駕駛系統(tǒng)(L1、L2級別)的安全性高于人工駕駛。2018年,特斯拉公司創(chuàng)始人馬斯克宣稱Autopilot 2.0自動駕駛系統(tǒng)比人類駕駛安全2、3倍。其根據(jù)是,美國公路安全保險協(xié)會(IIHS)2016年關(guān)于致命事故的一般統(tǒng)計數(shù)據(jù),人類駕駛造成致命事故的平均里程為9000萬英里(約14500萬千米),而特斯拉造成第一次致命事故前已經(jīng)行駛了1.3億英里(約2.03億千米)。但是,這個安全統(tǒng)計本身并不準(zhǔn)確。IIHS的致命事故的統(tǒng)計數(shù)據(jù)包括所有車輛(SUV、卡車、公交車、摩托車等)發(fā)生的所有致命事故。事實上,馬斯克應(yīng)該比較類似車型的車輛,即大型豪華轎車與Model S,大型豪華SUV與Model X,中型豪華轎車與Model 3,分別對比。
2022年1月17日,特斯拉股東羅斯·蓋博在推特上發(fā)問:“自從FSD(全自動駕駛系統(tǒng))測試版上線以來,就沒有發(fā)生過任何一起傷亡事故,而同期的美國有2萬人死于車禍。是不是這樣的?”馬斯克立即以不容置疑的口吻回復(fù):“正確!”FSD相當(dāng)于自動駕駛的L4,可以在沒有人為干預(yù)的情況下,在特定區(qū)域內(nèi)的道路上行駛。如果發(fā)生意外或系統(tǒng)失效,L4自動駕駛汽車可以自主干預(yù)。這個級別的自動汽車在大多數(shù)情況下不需要人為干預(yù),但是駕駛員仍然可以選擇手動操控。
美國國家公路交通安全管理局在一份聲明中要求,每輛車都需要人類駕駛員始終處于控制之中,即使車輛配備了部分自動化駕駛系統(tǒng)。這是否意味著部分自動駕駛裝置是畫蛇添足?因此有專業(yè)人員提出,自動駕駛系統(tǒng)的研發(fā)應(yīng)當(dāng)跳過L3直接到達(dá)L4或L5,實現(xiàn)全自動駕駛。這也是為何馬斯克對FSD測試版如此有信心的原因。但是,汽車駕駛直接進(jìn)入全自動化未必能說服業(yè)界,更不可能讓所有人信服。此次訴訟案塵埃落定后,或許人們對自動駕駛的看法會發(fā)生變化,無論是研發(fā)方向還是事故的法律處理,都可能獲得有益的啟示。
自動駕駛汽車出車禍的爭議之一是“誰需要對車禍負(fù)責(zé)”,若無法解決這個問題,自動駕駛就無法普及。根據(jù)現(xiàn)在的情況,有人列舉了一系列應(yīng)當(dāng)為事故負(fù)責(zé)的人或機(jī)構(gòu),如設(shè)計和制造自動汽車的公司和法人、給自動駕駛寫編程軟件的產(chǎn)品經(jīng)理和程序員、保險公司和法人、車主,以及實際的駕車人。
實際上,此次檢方起訴的是特斯拉公司和亞德,說明按目前的法律,生產(chǎn)自動駕駛汽車的公司(車企)和駕車者要負(fù)責(zé)任,但后者的責(zé)任更大。自動駕駛系統(tǒng)只是Model S的一個輔助駕駛裝置,并非一個完全自主的系統(tǒng)。特斯拉公司已經(jīng)在《車主手冊》中明確指出,使用自動駕駛技術(shù)產(chǎn)生的責(zé)任由車主本人承擔(dān)。
即便駕車者把汽車駕駛的主動權(quán)交付給自動駕駛系統(tǒng),也只是一種“委托”關(guān)系,即駕車者把汽車委托給了自動駕駛系統(tǒng),按照一般法學(xué)原則,由此產(chǎn)生的責(zé)任仍由委托人承擔(dān),即由駕車者負(fù)責(zé)。此外,特斯拉公司也特別注明,自動駕駛系統(tǒng)只為駕駛員提供幫助,在這種狀態(tài)下應(yīng)該把手放在方向盤上,以便隨時可以轉(zhuǎn)換為人工駕駛。這也意味著,低級別的自動駕駛狀態(tài)應(yīng)由駕駛員本人承擔(dān)主要責(zé)任,高級別的自動駕駛則由廠家和設(shè)計者承擔(dān)主要責(zé)任。
不過,由于存在爭議,2016年3月國內(nèi)發(fā)生的一起特斯拉自動駕駛致死案直到今天還沒有結(jié)案。23歲的高雅寧駕駛父親的特斯拉Model S在京港澳高速邯鄲段行駛時,與前方的道路清掃車發(fā)生追尾事故身亡。經(jīng)交警認(rèn)定,事故中,駕駛者高雅寧負(fù)主要責(zé)任。但其父親高巨斌認(rèn)為,特斯拉公司夸大宣傳的自動駕駛功能是車禍的元兇,并將特斯拉公司告上了法庭。控辯雙方對于“自動駕駛”狀態(tài)下車輛未能識別前方車輛是否構(gòu)成質(zhì)量缺陷、事故應(yīng)當(dāng)由駕駛者還是特斯拉公司承擔(dān)責(zé)任等問題,仍存在較大爭議,因此一直未判決。如果美國的案件有了明確的判決結(jié)果,也許會給中國的案件一個借鑒。
未來,立法機(jī)構(gòu)可能會制定分門別類或獨立的法律來處理與自動駕駛相關(guān)的案件。美國的一些州已經(jīng)在行動。近日,美國賓夕法尼亞州參議院提出,計劃修訂現(xiàn)行交通法律,加入帶有或不帶有司機(jī)的自動駕駛汽車的操作責(zé)任判定。那些擁有高級自動駕駛系統(tǒng)(ADS)或受到高級自動駕駛系統(tǒng)遠(yuǎn)程操控的高度自動駕駛車輛(HAV),將不受當(dāng)今需要人類司機(jī)駕駛的、不搭載自動駕駛系統(tǒng)的車輛的法規(guī)約束。得克薩斯州法律則規(guī)定,自動駕駛汽車“在所有行程中完全由自動駕駛系統(tǒng)操作”,不受傳統(tǒng)車輛法律或人類司機(jī)操作車輛的規(guī)定約束。但是,目前還沒有適用于全美范圍的聯(lián)邦法規(guī)出臺。不過,即便針對自動駕駛汽車單獨立法,也只是高級別自動駕駛汽車才適用這樣的法律,而目前的自動輔助駕駛車輛還會受傳統(tǒng)交通法規(guī)的管理。
自動駕駛技術(shù)會繼續(xù)迅速發(fā)展,而且人們希望能以較小的代價獲得較為成熟的自動駕駛技術(shù)應(yīng)用。同時,相應(yīng)的法律管理也應(yīng)提上議事日程,才能配合和促進(jìn)自動駕駛技術(shù)的發(fā)展和普及。