陳云培
1967年英國哲學家菲利帕·福特首次提出的電車難題,被很多人熟知。一輛失控的列車在軌道上行駛,列車正在行進的軌道上,有5個人被綁起來,無法動彈,列車將要碾過他們,若此時你站在改變列車軌道的操縱桿旁,可以通過拉動這個操縱桿將列車引導到另一條軌道,但另一條軌道上有也有1個被綁著無法動彈的人,只要列車變換軌道,也會碾過那個人,但可以救下正在行進軌道的5個人,此時你會怎么選?作為倫理學的思想實驗,這個問題被很多人討論,多數(shù)人在遇到這個問題時,是很難做出選擇的,也無法給出很完美的答案,在現(xiàn)實生活中也很少有人會遇到類似的難題,而在自動駕駛的技術(shù)框架下,這個問題將普遍存在,并會引導和決定自動駕駛技術(shù)的發(fā)展方向。
在設(shè)計自動駕駛汽車軟件系統(tǒng)時,無疑會遇到這樣一個問題,當遇到不可避免的汽車碰撞的情況,如果自動駕駛的汽車選擇不避讓,將會對路人造成傷害,如果自動駕駛汽車選擇避讓,又會造成車內(nèi)乘客受傷,即在“乘客優(yōu)先”與“行人優(yōu)先”之間,自動駕駛汽車軟件系統(tǒng)應(yīng)做何種選擇?
在自動駕駛技術(shù)發(fā)展的初期,這個問題的決策者將由編寫自動駕駛汽車軟件系統(tǒng)的軟件工程師所決定,自動駕駛汽車軟件系統(tǒng)對于這類情況的設(shè)計方案或許沒有一個既定的標準,也很難有一個既定的標準。在如何做到將行人與乘客的傷害降到最低這個問題上,會有無限種選擇,也無法做到全面的涵蓋。而自動駕駛汽車軟件系統(tǒng),是由一行行代碼組成的,軟件工程師很難做到窮舉,即便能將大部分的可能性進行羅列,那也代表著巨量的代碼行數(shù),這也將是一個巨大的數(shù)據(jù)計算過程,在自動駕駛汽車遇到不可避免的碰撞時,是否能在種可能中做出最完美的選擇,又將是一個值得考慮的問題。
即便可以對所有的可能性進行列舉,且可以成功、及時地在自動駕駛汽車行駛過程中進行判斷,那是否代表著自動駕駛汽車的電車難題會被破解?恰恰相反,當自動駕駛汽車進入市場后,將面臨著消費者的選擇,作為給消費者提供服務(wù)的自動駕駛汽車軟件系統(tǒng)供應(yīng)商,應(yīng)該在設(shè)計產(chǎn)品的過程中充分考慮消費者的需求,即“乘客優(yōu)先”,那就應(yīng)該在設(shè)計自動駕駛汽車軟件系統(tǒng)的過程中將保護乘客安全的條例放在首位,如果真做這樣的選擇,將會被絕大多數(shù)作為行人角色的群體抨擊,即便將“乘客優(yōu)先”放在首位,作為消費者的乘客也可能不會鼎力支持,因為在出行過程中作為乘客的角色并非一直存在,在其他情況下也有可能轉(zhuǎn)變?yōu)樾腥说慕巧?,在此情況下,自動駕駛汽車又將會和成為行人角色的消費者站在對立面。使用者角色的轉(zhuǎn)變,讓自動駕駛汽車軟件系統(tǒng)的安全性設(shè)計很難做出符合所有人要求的標準。
作為自動駕駛汽車的消費者,在自動駕駛汽車軟件系統(tǒng)供應(yīng)商眼中,他們就是自己的“上帝”,在設(shè)計軟件系統(tǒng)時,偏向于為“上帝”提供更好的服務(wù)無非是正常的選擇,即在自動駕駛汽車軟件系統(tǒng)設(shè)計過程中選擇“乘客優(yōu)先”,而非“行人優(yōu)先”,從商業(yè)方面考慮也是很正常的考量。但是從社會倫理道德方面考慮,行人和乘客都是活生生的生命,又怎么可以通過代碼來決定某一方的安全與否呢?正如前文所述,作為乘客的角色并非是永久的,在日常生活中一定會轉(zhuǎn)變?yōu)樾腥说慕巧?,在角色轉(zhuǎn)換后,站在行人角色上的消費者又應(yīng)該如何去看待自動駕駛汽車呢?沒有人愿意成為自動駕駛時代的“犧牲品”。
自動駕駛汽車軟件系統(tǒng)的安全性設(shè)計,是為了避開人類駕駛員在操作車輛過程中失誤的種種可能,從而降低汽車發(fā)生碰撞時對人類帶來的傷害,每個人都希望能擁有一輛足夠安全的自動駕駛汽車,可是自動駕駛系統(tǒng)很難實現(xiàn)100%的安全標準,這是毋庸置疑的。自動駕駛汽車在行駛過程中需要判斷路況,對道路信息進行分析并做出對應(yīng)的決策和動作,和人類駕駛員駕駛汽車一樣,整個過程包含了數(shù)據(jù)感知、規(guī)劃決策、控制執(zhí)行3個部分,每個部分都需要自動駕駛汽車在設(shè)計過程中進行足夠完善的考量,繁雜的步驟讓自動駕駛汽車是否可以做到符合所有角色的出行要求,就需要軟件工程師在設(shè)計自動駕駛汽車軟件系統(tǒng)時,盡可能做出和人類駕駛員一樣的“駕車價值觀”的軟件系統(tǒng)。
很多自動駕駛汽車碰撞事故表明,自動駕駛汽車并不會主動去碰撞行人,但在道路狀況復雜,自動駕駛汽車很難做出正確的判斷,而自動駕駛汽車上的安全員由于對自動駕駛汽車軟件系統(tǒng)足夠的信任,不會立刻去接管車輛,從而導致自動駕駛汽車“被迫”碰撞行人的現(xiàn)象依舊存在,在這些碰撞事故中,就可以看出自動駕駛汽車軟件系統(tǒng)設(shè)計得不夠完善。
而未來的自動駕駛汽車軟件系統(tǒng)將完全取締安全員的角色,自動駕駛汽車在行駛過程中如果遇到無法避免的碰撞時,就需要獨立地、快速地做出決策,這就需要自動駕駛汽車軟件系統(tǒng)足夠“聰明”,能夠判別各種復雜的道路情況,并執(zhí)行對人類的傷害降到最低的行為決策。但作為人類駕駛員的我們尚且無法做到足夠完美的選擇和判斷,又如何去期待自動駕駛汽車軟件系統(tǒng)可以做出預判?作為人類的我們在面對電車難題時尚且無法提供統(tǒng)一的標準答案,作為一行行代碼寫下的自動駕駛汽車軟件系統(tǒng),又如何去得出最優(yōu)的標準解?
自動駕駛時代終究會到來,作為社會中的一分子,全部都是參與者,沒有一個旁觀者,軟件定義汽車下的自動駕駛汽車對于每個人來說都是一樣的,如何做到最完美的自動駕駛避障解決方案,是仍舊需要考量和討論的事情,沒有人可以置身事外。自動駕駛汽車的出現(xiàn),必將影響我們的出行習慣和交通管理方案,而一個好的自動駕駛軟件系統(tǒng)出行方案,是需要自動駕駛汽車軟件系統(tǒng)供應(yīng)商、消費者、政府、保險機構(gòu)、汽車后市場服務(wù)企業(yè)等多角色的參與與討論,但自動駕駛汽車面對的道德困境無法避免且終將無法得到統(tǒng)一的答案。