方陵生/編譯
以人類倫理觀給無人駕駛汽車編程?
方陵生/編譯
· 自動駕駛汽車撞死人,被受害人家屬告上法庭受審的將是計算機代碼(以及編制代碼的計算機程序員)。
設想一下,2034年的某個夜晚,一個醉酒行人突然倒在一輛無人駕駛汽車前,當場死亡。如果是人類司機在開車,這會被認定是一次意外事故,因為行人顯然也有錯,再理智的人類司機也難以及時避開。但早在2020年代,隨著無人駕駛汽車的普及,車禍發(fā)生率減少了90%,對應司機過失的“理性人”法律標準早已消失,現(xiàn)在的標準是“理性機器人”。
根據(jù)新的法律標準,受害者家屬將起訴汽車制造商,稱盡管汽車來不及剎車,但它可以避開周圍行人,越過雙黃線,撞上旁邊車道上的無人駕駛車。根據(jù)車輛傳感器的數(shù)據(jù)再現(xiàn)事故現(xiàn)場證實了這一點。原告律師會向汽車軟件的首席設計師責問,“為什么自動汽車不轉向?”
今天的法院在處理交通肇事案件時,不會問司機為什么在即將撞車那一刻不采取緊急措施,因為這個問題毫無意義,司機當時驚慌失措,根本無法思考,只能憑直覺行事。但如果駕駛汽車的是機器人,這個“為什么?”就是一個有效合法的提問了。
人類的道德標準和法律法典并非完美,可產(chǎn)生各種解釋和假設,令計算機工程師們無所適從。最重要的是,具有良好判斷力的人類知道何時可以不受法律條文字面意義所限,而以尊重法律的精神實質為重。如今工程師們必須要做的是,將最基本的判斷因素教給汽車機器人和其他自主機器人。
車輛駕駛實現(xiàn)計算機控制的歷史至少可以追溯到1970年代,從最早引入的電子防鎖死剎車系統(tǒng)開始,發(fā)展為如今更多的高級功能,如自動駕駛、加速和緊急制動等。目前,英國部分地區(qū)、荷蘭、德國和日本,全自動車輛的測試是法律允許的,但前提是車里要有一個人類測試司機。另外,美國的四個州和哥倫比亞特區(qū)已有法律明確規(guī)定無人駕駛是合法的,而美國其他一些州至少也沒有禁止。谷歌、日產(chǎn)、福特及其他公司也表示,他們預計在今后5到10年內(nèi)實現(xiàn)真正的無人駕駛操作。
自動駕駛車輛通過一系列傳感器獲得周圍環(huán)境的信息,如攝像機、超聲波傳感器、雷達和激光雷達等。在美國加州,自動化車輛上牌照要向機動車輛管理部門提供碰撞前30秒傳感器的所有數(shù)據(jù)。工程師們因此能夠憑借這些車輛感知到的精確數(shù)據(jù)重現(xiàn)事故現(xiàn)場,考慮替代方案以及機器人所做決定背后的邏輯。因此可以向計算機提問,要求它對其推理進行概括,就像要求人類解釋他們在游戲中或在駕駛模擬器中的每一個決定一樣。
監(jiān)管機構和訴訟律師能夠根據(jù)這些,堅稱自動車輛有著超人的安全標準,在不可避免的但很少會出現(xiàn)的撞車事故后,通過嚴格的審查,汽車制造商和軟件開發(fā)商也會以今天的人類駕駛員無法理解的方式為無人駕駛車輛的行為辯解。
無人駕駛車輛的輕微交通事故:今年早些時候,谷歌汽車與一輛巴士車發(fā)生了輕微的刮擦,這是首例無人駕駛汽車被認為至少部分有錯的交通事故
所有的駕駛行為都有一定的風險,如何將這種風險在司機、行人和騎自行車的人,甚至是車輛的所有者之間分配,涉及到的還有倫理道德上的考慮。無論對于工程師還是一般公眾來說,重要的是,汽車的決策系統(tǒng)還要能權衡其行為在倫理道德上的意蘊。
在道義上模棱兩可時,通常的反應是在盡可能減少損害的情況下以法律條文為準,這樣的策略很有吸引力,因為它不僅可以讓開發(fā)商輕松為肇事車輛行為辯護(“我們完全沒違反法律”),而且還將定義道德行為的責任轉嫁給了立法者。遺憾的是,這方面的法律還遠未完善。
例如,在大多數(shù)國家,法律也要依賴于司機的常識,在事故發(fā)生前法律條文也難有作為。在開頭的例子中,自動駕駛車輛根據(jù)編程中與法律條文相關的指令,拒絕轉向越過雙黃線的另外一條車道,即使有撞上醉酒行人的風險,即使邊上車道上只有一輛里面沒人的無人駕駛汽車。法律很少會為“有人突然倒在馬路上”這種緊急狀況制定例外免責條款,盡管例外也有,如維吉尼亞州有法律條文暗指,只要能避免碰撞,這種(越過雙黃線)的行為就是合法的(法律原文是“假使采取這樣的行動可以保證安全”)。在這種情況下,就要由自動汽車的開發(fā)者來決定,在什么情況下越過雙黃線是安全的、合法的。
無人駕駛汽車很少能百分百確定前面的道路是否暢通無障礙,或跨越雙黃線是否安全合法。而是對這種“確認度”進行估算,比如98%或99.99%。工程師要事先決定,達到多高的“確認度”才可越過雙黃線,規(guī)定的閾值還要取決于汽車正在試圖避開的是什么,是一個塑料袋還是一個行人。
盡管如此,自動駕駛汽車還會用所謂的判斷力來規(guī)避法律。例如,谷歌承認在有些情況下可允許其車輛超過限速,以跟上交通車流,在這種情況下如果慢速行駛反而會增加危險。在其他一些緊急情況下,大多數(shù)人也會選擇超速行駛,比如在送急診病人去醫(yī)院的途中。斯坦福大學的克里斯·格迪斯(Chris Gerdes)和莎拉·桑頓(Sarah Thornton)反對將法律條文作為硬性限制編碼到軟件中,如果加速可以獲得很大好處時,司機們不會拘泥于某些法律條文,而是將其視為“可塑性”的條文,司機不會因為“不得超越雙黃線”的法律規(guī)定而愿意被困在幾英里長的自行車車流后,他們會選擇越過雙黃線超車,暫時性地無視這條法律條文。
即使是在法律條文規(guī)定的范圍內(nèi),自動駕駛汽車也可以做出許多微妙的安全決策。例如,車輛在車道內(nèi)的位置,很大程度上沒有硬性的法律規(guī)定,大多數(shù)車道幾乎都有一般車輛的兩倍寬,司機可以利用這額外的空間避開一些碎片障礙,或者與附近行駛路線不穩(wěn)的車輛保持一定距離。
在2014年的一項專利中,谷歌進一步引伸了這一概念,專利描述自動駕駛車輛如何通過在車道內(nèi)合理定位以將事故風險降至最低。谷歌引用了這樣一個例子,一輛自動駕駛汽車行駛在三車道的公路上,右邊車道上有一輛大卡車,左邊車道上有一輛小汽車,為優(yōu)化本身的安全度,自動駕駛汽車會將自己定位在車道上略偏離中央的位置上,接近小汽車,偏離大型卡車。
這似乎是一種明智的選擇,也可能是大多數(shù)人會做的事情,不管是有意識還是無意識。盡管如此,它還是引發(fā)了倫理道德上的擔憂。自動化駕駛汽車通過靠近比它更小的汽車,減少了總體風險,但現(xiàn)在風險分配卻變得不公平起來。小車難道就應該承擔更多風險,就因為它個頭小?如果這個問題只是涉及某個司機的習慣,這也許無關緊要。但如果將這種風險再分配方案正式應用于無人駕駛汽車,就有可能產(chǎn)生一些重大后果。
在每一個這樣的例子中,一輛汽車要根據(jù)多方面的價值評估做出決定,它可能撞上物體的價值、物體主人的價值等。人類會依據(jù)本能做出決定,而自動駕駛車輛與人不同,它們會根據(jù)風險管理策略精心計劃的結果做出決定,將風險定義為發(fā)生事故的可能性與其災難性后果程度的總和。
2014年谷歌還為這種類型的風險管理進行了專利申請,在這項專利中,谷歌公司描述道,車輛可能為獲得看到紅綠燈的更好視角而轉換車道,或選擇繼續(xù)留在當前車道里,以避免小概率的碰撞風險(如因某個出故障傳感器的錯誤讀數(shù)),代價是有可能忽略掉紅綠燈的信息。對每種潛在結果的可能性加以評估(獲得益處或付出代價的大小),將每種可能事件的嚴重程度與可能發(fā)生的概率綜合起來,得出風險評估的最終值,如果利弊權衡結果在合理范圍內(nèi),自動駕駛車輛就會根據(jù)計算結果采取某種行動。
問題是,自動駕駛車輛發(fā)生碰撞事故的風險率極低。在美國每行駛257 000公里或每12年才發(fā)生一次。因此,即使自動駕駛車輛上路后會源源不斷產(chǎn)生龐大數(shù)量的數(shù)據(jù),也許我們還需要更多時間才能計算出各種可能場景中碰撞事故的發(fā)生概率。
至于損害大小及責任分配就更難了。財產(chǎn)損失的估計可能還比較簡單,保險行業(yè)在這方面有很多的經(jīng)驗,但對傷亡損失的評估則比較困難。對于事故風險,僅僅考慮到生命損失和交通影響還不夠,還有倫理道德上的重要問題。例如,自動駕駛車輛對待出現(xiàn)在路上的每一個生命都必須同等對待,但是否應給予沒有戴頭盔的摩托車手更多的閃避空間呢?因為相對于另一個穿著全套防護裝備的摩托車手,未加保護的人在車禍中活下來的可能性更低。但這似乎又有些不公平,難道穿著全套防護裝備的摩托車手要因為他的安全意識而受到不公正對待嗎?
機器人倫理和人類倫理道德之間的另一個區(qū)別是,它們的倫理道德有可能會被曲解,即使程序員的出發(fā)點是好的。想象一下,一輛無人駕駛汽車會以一些涉及交通事故的民事訴訟案和居民點情況調(diào)查為依據(jù)制定的程序算法,對不同地區(qū)行人緩沖空間的分配進行調(diào)整,盡管這是一個非常合理的、善意的、控制車輛行為的有效方法,但它也有可能導致一些不盡人意的結果。例如,某個區(qū)域行人受傷率較低,但實際原因是因為他們生活在交通量較小的低收入社區(qū)中,算法無意中對窮人產(chǎn)生不公平待遇,由于給他們提供了較小的緩沖區(qū),而導致他們外出散步時被車撞的風險略有增加。
人們可能會覺得,所有這些擔憂只是一些學術上的爭論而已,但實際上這些都是無法規(guī)避的現(xiàn)實問題。由于機器人駕駛員會不折不扣地執(zhí)行計算機程序,因此最好的辦法是在程序設計時就要事先考慮到一切不良后果,而不是事后采取補救措施。
這也是為什么許多研究者會假設某些自動駕駛車輛必須在兩個或多個壞結果中進行選擇并做出決定的部分原因。其中最著名的是一個“電車問題”假設,電車即將撞上一群不知危險即將到來的玩耍兒童,阻止悲劇發(fā)生的唯一方法是改變方向將在橋一側行走的一個胖子撞下橋去(這里體重是一個關鍵因素,如果他不是太胖的話,可以在發(fā)現(xiàn)危險時自己跳出橋外)。那么,在這種情況下,你會不會采取行動犧牲一條生命來挽救更多生命呢?無疑你是愿意犧牲一個生命來挽救更多生命的,但你很難下定這樣的決心,而如果你的回答是“不”,你又將如何面對那么多孩子家長呢?
重要的是,自動駕駛汽車邏輯判斷也是有缺陷的。讓我們再假設一下,一個行人突然出現(xiàn)在一條雙車道的隧道里,車輛無法及時停下,被迫轉向進入另一車道,撞上迎面駛來的載滿乘客的公共汽車,行人安全絕對高于其他任何道路使用者的邏輯在這種情況下可能會更危險。
道路車輛自動化的倫理道德并非一個不能解決的問題,其他領域內(nèi)也有一些處理類似風險與利益的案例可資借鑒。例如,捐贈器官如何分配給病人,衡量標準是接受器官移植后患者的生存年限和生活質量等變量的綜合考慮。
自動車輛面臨更大的挑戰(zhàn),它們必須在信息不完全的情況下,在程序員通常考慮不到的一些情景中,迅速做出決定,畢竟以軟件編碼編寫的倫理道德太過死板,缺乏靈活性。幸運的是,對于自動駕駛車輛,公眾想要的并不是超人的智慧,而是有倫理內(nèi)涵的行為。解決方案不必完美,但應慎重考慮,合情合理。
[資料來源:IEEE Spectrum][責任編輯:彥 隱]