鄭凱歌
人工智能技術(shù)已經(jīng)應(yīng)用到人們?nèi)粘I畹母鱾€(gè)方面,逐漸開(kāi)啟了人工智能時(shí)代。而人工智能的普及也孕育出一系列的倫理問(wèn)題,自動(dòng)駕駛技術(shù)中“電車(chē)難題”應(yīng)運(yùn)而生:面對(duì)即將發(fā)生碰撞的行人,是直行直接撞向行人,還是急轉(zhuǎn)彎撞向一旁,將乘車(chē)人置于險(xiǎn)地。自動(dòng)駕駛技術(shù)作為人工智能時(shí)代的產(chǎn)物,這一倫理難題的解決決定著自動(dòng)駕駛技術(shù)在未來(lái)能否順利推廣。自動(dòng)駕駛汽車(chē)只有被提前置入具有倫理道德的事故算法,公眾才會(huì)放心購(gòu)買(mǎi)使用。
自動(dòng)駕駛汽車(chē)在行駛過(guò)程中,需要自動(dòng)駕駛系統(tǒng)自主做出行駛決策,這就需要設(shè)計(jì)者和倫理學(xué)家提前為自動(dòng)駕駛汽車(chē)嵌入道德算法,在此期間產(chǎn)生一系列倫理難題,比較典型的包括電車(chē)難題和隧道難題。
“電車(chē)難題”是指當(dāng)自動(dòng)駕駛汽車(chē)發(fā)生不可避免的碰撞時(shí),關(guān)于碰撞目標(biāo)如何選擇的問(wèn)題。這一問(wèn)題最初由菲利帕·福特提出,經(jīng)典表述是:一輛失控的電車(chē)在電車(chē)軌道上高速駛來(lái),軌道上有五個(gè)人,碰撞馬上發(fā)生。此時(shí),你可以拉動(dòng)一個(gè)拉桿,讓電車(chē)開(kāi)到另一條軌道上。但另一個(gè)電車(chē)軌道上也有一個(gè)人,你是否會(huì)拉動(dòng)拉桿嗎?[1]。另外一種表述為:一輛失控的電車(chē)在電車(chē)軌道上高速駛來(lái),軌道上有五個(gè)人,碰撞馬上發(fā)生。此時(shí)你站在軌道上方的天橋上,天橋上有一個(gè)胖子,若推下胖子就可以擋住即將碰撞的電車(chē),拯救軌道上的五人??紤]以上狀況,你會(huì)推下胖子嗎?一項(xiàng)關(guān)于“電車(chē)難題”的調(diào)查顯示:89%的人認(rèn)為拉動(dòng)拉桿拯救五人是可接受的,但只有12%的被調(diào)查者同意推下胖子。這一調(diào)查結(jié)果表現(xiàn)了謀殺和放任死亡的差別,對(duì)此調(diào)查的解釋還有很多,這也反映了倫理困境的復(fù)雜兩難,而自動(dòng)駕駛道德算法設(shè)置就是這一復(fù)雜倫理困境的現(xiàn)實(shí)化。
隧道難題是電車(chē)難題的變型,但本質(zhì)上具有差異?!半娷?chē)難題”表征的是面對(duì)不可避免的碰撞時(shí),對(duì)碰撞目標(biāo)的選擇困境;“隧道難題”突出的是當(dāng)乘車(chē)人和行人發(fā)生利益沖突時(shí)的選擇困境。隧道難題的表述為:一輛電車(chē)正高速駛?cè)胨淼?,此時(shí)一名兒童堵在了隧道入口處,悲劇即將發(fā)生。如果選擇直行進(jìn)隧道,會(huì)導(dǎo)致兒童死亡;如果選擇撞向隧道的墻壁,會(huì)致使乘車(chē)者死亡。而這些復(fù)雜兩難的倫理難題,必須在自動(dòng)駕駛汽車(chē)投入市場(chǎng)前得到妥善解決。畢竟沒(méi)有人會(huì)把自身和家人安危交給決策不明確的自動(dòng)駕駛系統(tǒng),這也是自動(dòng)駕駛技術(shù)發(fā)展的首要難題。
讓·弗朗索瓦·伯尼法等學(xué)者力圖尋找一種即能降低社會(huì)事故死亡預(yù)期,又符合大眾道德偏好的倫理理論,以此作為自動(dòng)駕駛道德算法的基礎(chǔ)。因此,自動(dòng)駕駛技術(shù)的道德算法選擇面對(duì)一個(gè)問(wèn)題: 是道德偏好和選擇偏好本身就相互獨(dú)立,還是因?yàn)橘?gòu)買(mǎi)情境導(dǎo)致道德偏好的轉(zhuǎn)變?
調(diào)查顯示,大眾在選擇偏好中會(huì)表現(xiàn)出道德偏好,但在購(gòu)買(mǎi)情境中,選擇偏好又會(huì)發(fā)生改變。因此,在置入自動(dòng)駕駛汽車(chē)的道德算法時(shí),不能簡(jiǎn)單地依賴(lài)大眾在電車(chē)難題中表現(xiàn)出的功利主義偏好。道德偏好與選擇偏好的相互獨(dú)立表現(xiàn)出道德判斷的雙加工模型。在道德困境中,被試者在“非親身性”情境中,理性的認(rèn)知占主導(dǎo),感性的情感喚起較輕,容易作出功利主義選擇;而涉及直接傷害的“親身性”兩難困境,被試者更易感同身受。購(gòu)買(mǎi)情境對(duì)被試者來(lái)說(shuō),更容易激發(fā)被試主體關(guān)于生存發(fā)展和個(gè)體安危的關(guān)注,其情感喚起度高于“非親身性”的電車(chē)難題,影響了主體的行動(dòng)偏好。
盡管功利主義道德算法在調(diào)查中得到了大眾的道德認(rèn)同,也可以減少社會(huì)整體事故死亡率,但在購(gòu)買(mǎi)情境中受到阻礙。因此,尋找一種既能保證大眾購(gòu)買(mǎi)意愿,又能提高社會(huì)整體安全預(yù)期的道德算法便成了當(dāng)務(wù)之急。
“羅爾斯算法”為改變功利主義犧牲少數(shù)人的算法預(yù)設(shè),提出“底線(xiàn)優(yōu)先原則”。雷本提出以羅爾斯的“最大化最小值”原則為基礎(chǔ),建構(gòu)一種底線(xiàn)安全最大化的新算法。羅爾斯式算法通過(guò)最大化弱勢(shì)群體的收益推動(dòng)博弈雙方達(dá)成“帕累托最優(yōu)”,改變了功利主義為達(dá)到生存最大化而舍棄少數(shù)人的方式。在乘車(chē)者和行人生命同時(shí)受到威脅時(shí),羅爾斯式算法選擇最大化生存率最低一方的生存率。
但羅爾斯式算法對(duì)事故主體生存率的評(píng)估是否準(zhǔn)確卻存在爭(zhēng)議,另外一種觀(guān)點(diǎn)關(guān)于反向不公:如果我們把事故中生存概率小的一方作為重點(diǎn)保護(hù)對(duì)象,那是不是事故中安全系數(shù)更高的一方就會(huì)成為 “靶子”?例如,據(jù)官方數(shù)據(jù)統(tǒng)計(jì),戴頭盔會(huì)讓騎行者在事故中的傷亡率降低,但如果騎行者知道自動(dòng)駕駛事故算法會(huì)優(yōu)先保護(hù)生存率最低者,他們是否會(huì)不再戴頭盔呢? 因?yàn)椤邦^盔”很可能因其安全性而成為自動(dòng)駕駛事故算法的 “靶子”,這顯然是不公平的[2]。
獲得大眾支持的功利主義算法陷入了購(gòu)買(mǎi)困境;具有“最大最小值”原則的羅爾斯算法帶來(lái)了反向不公困境,使設(shè)計(jì)者不得不考慮另一個(gè)問(wèn)題:如果統(tǒng)一的算法無(wú)法滿(mǎn)足實(shí)際需要,那放棄統(tǒng)一算法,打造個(gè)人倫理算法,把選擇權(quán)讓渡給車(chē)主。自動(dòng)駕駛汽車(chē)道德算法設(shè)置一直面對(duì)的問(wèn)題:怎么為一個(gè)復(fù)雜兩難的道德問(wèn)題預(yù)設(shè)答案,個(gè)人倫理算法的提出,將統(tǒng)一性的道德算法變更為個(gè)體的獨(dú)特選擇,以“預(yù)設(shè)選擇”代替“預(yù)設(shè)答案”。
賈斯帕·康提薩的“道德旋鈕”架構(gòu)是個(gè)人化倫理算法中最具有代表性的。該架構(gòu)中,旋鈕兩端分別對(duì)應(yīng)“利他主義”和“利己主義”,中央對(duì)應(yīng)“功利主義算法”:即優(yōu)先保護(hù)行人和優(yōu)先保護(hù)乘客,以及完全中立。駕乘人員在“利他主義”與“自我主義”之間進(jìn)行傾向性選擇?!暗赖滦o”優(yōu)勢(shì)在于:自動(dòng)駕駛系統(tǒng)成為使用者道德選擇的延伸,以“多元主體”代替“單一主體”,完成了設(shè)計(jì)者向使用者的權(quán)責(zé)讓渡。并且,道德旋鈕的利己主義選項(xiàng)可以完全保護(hù)乘車(chē)人的完全,緩解了大眾對(duì)純粹功利主義算法自動(dòng)駕駛汽車(chē)的購(gòu)買(mǎi)排斥。
個(gè)人化倫理算法與強(qiáng)制性倫理算法的本質(zhì),都是通過(guò)對(duì)有限資源的權(quán)衡以求達(dá)到生存率最大化的帕累托最優(yōu)解。
個(gè)人選擇事故算法會(huì)帶來(lái)更多倫理難題,所帶來(lái)的囚徒困境讓個(gè)體更加不堪重負(fù)。以機(jī)動(dòng)車(chē)道路通行原則作類(lèi)比,我國(guó)采取右側(cè)通行原則,而有些國(guó)家采用左側(cè)通行原則。左側(cè)通行和右側(cè)通行無(wú)法判斷誰(shuí)更具有優(yōu)勢(shì),但一定都優(yōu)于誰(shuí)快誰(shuí)占道。在混亂的秩序中,采取一個(gè)統(tǒng)一的、強(qiáng)制的規(guī)則,更能打破僵局規(guī)范秩序。只有政府介入進(jìn)行強(qiáng)制性的倫理設(shè)定才能使社會(huì)全體利益最大化,政府應(yīng)該給自動(dòng)駕駛技術(shù)制定統(tǒng)一的、強(qiáng)制性的算法標(biāo)準(zhǔn)。
如今學(xué)界,倫理理論已經(jīng)出現(xiàn)相互融合之勢(shì)。規(guī)則功利主義是功利主義對(duì)義務(wù)論的吸納;康德式倫理學(xué)開(kāi)始對(duì)后果進(jìn)行考量;義務(wù)論和功利主義也逐漸承認(rèn)美德的重要性并試圖將美德納入自身理論框架。不同倫理理論彼此吸收、相互融合正在發(fā)生,這一過(guò)程實(shí)際上也是倫理理論對(duì)自身局限性的認(rèn)識(shí)和突破。
設(shè)計(jì)者從研究方法和實(shí)踐操作層次上提出許多方案,目標(biāo)旨在消解諸生命間的排他性沖突。多數(shù)道德算法都選擇引用系統(tǒng)性的倫理理論,但又因?yàn)闆](méi)有處理好自身缺陷而走向失敗。因而,運(yùn)用倫理理論相互融合的方式以突破自身局限,來(lái)處理好內(nèi)部特征之間的關(guān)系。我們應(yīng)該吸收和利用美德倫理學(xué)、義務(wù)論和目的論等可借鑒的倫理理論,形成備選規(guī)則系統(tǒng)庫(kù)。
改變規(guī)則思維,焦距達(dá)成共識(shí)。為了解決不同主體的倫理價(jià)值沖突,可以引用契約論精神。在自動(dòng)駕駛汽車(chē)道德算法設(shè)定過(guò)程中,需要考慮的利益主體包括行人、乘車(chē)人、制造商以及政府,契約主義為事故中利益主體的商議提供了借鑒。另外,可以展開(kāi)討論,考慮不被接受倫理規(guī)則有哪些,進(jìn)行反向啟發(fā),從而為達(dá)成共享理解。
在設(shè)計(jì)自動(dòng)駕駛汽車(chē)的道德算法時(shí),可遵循兩大原則:綜合性原則和個(gè)性化原則?;趦纱笤瓌t的批評(píng)性反思的道德算法:調(diào)用一切倫理資源,形成備選規(guī)則庫(kù)—綜合性原則化;乘客自主地因情境采用不同的倫理規(guī)則—個(gè)性化原則。我們應(yīng)尊重復(fù)雜的倫理直覺(jué),調(diào)用一切倫理資源,因情境采用相應(yīng)的倫理規(guī)則而非倫理理論。
政府介入進(jìn)行強(qiáng)制性的倫理設(shè)定可以提供社會(huì)整體安全預(yù)期,自動(dòng)駕駛技術(shù)應(yīng)制定統(tǒng)一的、強(qiáng)制性的算法標(biāo)準(zhǔn)。自動(dòng)駕駛技術(shù)道德算法也需要倫理理論相互融合。倫理理論融合或許不能完全實(shí)現(xiàn),但不同倫理理論彼此吸收、相互融合卻正在發(fā)生。自動(dòng)駕駛技術(shù)的道德算法的設(shè)計(jì)還有很長(zhǎng)的路要走,需要改變規(guī)則思維,達(dá)成共識(shí),并且在實(shí)踐中不斷完善。