亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自動駕駛汽車的道德算法設(shè)計
        ——一種風險分配立場

        2021-07-05 07:39:36
        天府新論 2021年4期
        關(guān)鍵詞:功利主義電車道德

        于 涵

        真正有價值的悲劇不是出現(xiàn)在善惡之間,而是出現(xiàn)在兩難之間。

        ——黑格爾

        一、從“電車難題”和“摩托車困境”談起

        最早的“電車難題” (the Trolley Problem),是英國哲學家菲莉帕·富特(Philippa Foot)于1967年提出的。難題的內(nèi)容十分簡潔:一輛有軌電車失去了控制,司機看見前方的軌道上有五個人。司機可以任憑電車繼續(xù)前行,這樣一來,這五個人一定都會被撞死(這五個人不知何故都無法離開軌道);司機也可以將電車轉(zhuǎn)向,開到一條岔道上,而這樣只會撞死另一個人。那么,司機是否應(yīng)當把電車開到人少的軌道上,撞死一個人,而不是五個人呢?(1)卡思卡特:《電車難題》,朱沉之譯,北京大學出版社,2014年,第3-4頁。以此為基礎(chǔ),演化出了非常多版本的“電車難題”,此處不再贅述。諾亞·古道爾(Noah Goodall)就此提出過另外一種情況:一輛自動駕駛汽車正面臨迫在眉睫的撞車事故。它可以選擇兩個目標中的一個轉(zhuǎn)向:要么是戴頭盔的摩托車手,要么是沒有戴頭盔的摩托車手。那么,該如何做出決策呢?(2)網(wǎng)址:https://www.wired.com/2014/05/the-robot-car-of-tomorrow-might-just-be-programmed-to-hit-you/,訪問日期:2021年5月4日。(姑且稱戴頭盔的人為甲,沒戴頭盔的人為乙,并稱這一決策難題為“摩托車困境”)如果撞向甲,甲戴頭盔的本意是為了保護自身安全,而現(xiàn)在卻變成了“活靶子”,這不是在變相鼓勵違反交通規(guī)則的行為嗎?如果撞向乙,由于其沒戴頭盔,受到的傷害肯定遠遠高于甲,兩弊相權(quán)不是應(yīng)該取其輕嗎?

        無論是“電車難題”還是“摩托車困境”,其共同點都是當面對人類目前無法解決的倫理問題時,自動駕駛?cè)绾翁幚怼?3)唐興華、郭喨、唐解云:《電車難題、隱私保護與自動駕駛》,《華東理工大學學報(社會科學版)》2019年第6期。若將這個問題置于傳統(tǒng)的交通事故中,駕駛員所做出的任何決定均沒有太多探討的空間,因為這是其價值觀與潛意識的體現(xiàn),并無正確與錯誤之分。而這個問題在自動駕駛領(lǐng)域,需要道德算法設(shè)計理念考量形式法治與實質(zhì)法治的權(quán)衡、法律與道德的界限、價值序列的排序、不同價值觀的取舍等,這些都是促成結(jié)果多元化的重要因素。不可否認的是,我們沒有辦法找到一種能夠統(tǒng)攝所有人思想的通用理論。那么,面對功利主義與義務(wù)論的二元對立,我們不禁要問:是否有必要預(yù)設(shè)道德算法?如何預(yù)設(shè)道德算法?

        二、兩種算法設(shè)計模式之爭

        (一)功利主義模式

        作為功利主義(utilitarianism)的開創(chuàng)者,邊沁認為,功利原理是指:它按照看來勢必增大或減小利益有關(guān)者之幸福的傾向,亦即促進或妨礙此種幸福的傾向,來贊成或非難任何一項行動。(4)邊沁:《道德與立法原理導論》,時殷弘譯,商務(wù)印書館,2017年,第59頁,第60頁。(就整個共同體而言)當一項行動增大共同體幸福的傾向大于它減小這一幸福的傾向時,它就可以說是符合功利原理的。(5)邊沁:《道德與立法原理導論》,時殷弘譯,商務(wù)印書館,2017年,第59頁,第60頁。穆勒指出,“功利主義把‘功利’或‘最大幸福原理’當作道德基礎(chǔ)的信條主張,行為的對錯,與它們增進幸?;蛟斐刹恍业膬A向成正比”(6)穆勒:《功利主義》,徐大建譯,上海人民出版社,2007年,第7頁,第35-41頁。。實際上,對功利原則的證明十分復(fù)雜(7)穆勒:《功利主義》,徐大建譯,上海人民出版社,2007年,第7頁,第35-41頁。,甚至可以認為它是“不證自明”的(8)邊沁認為,“人類身心的天然素質(zhì),決定人們在一生的絕大多數(shù)場合一般都信奉這個原理而無此意識……當一個人試圖反駁功利原理時,他所用的理由實際上是從這個原理本身抽引出來的,雖然他對此渾然無知?!睘榇?,邊沁舉了一個例子,他曾聽人說:“功利原理是個危險的原理,在某些場合考慮它有危險?!边@等于是說,考慮功利是不符合功利的;簡而言之,考慮它亦即不考慮??蓞⒁娺吳撸骸兜赖屡c立法原理導論》,時殷弘譯,商務(wù)印書館,2017年,第61頁。,但其結(jié)論卻很簡單:功利原則是解決任何實踐問題的唯一和完全充分的理由,而不用依賴任何更高的理由。(9)邊沁:《政府片論》,沈叔平等譯,商務(wù)印書館,2017年,第157頁。根據(jù)功利主義原則,在“電車難題”中,應(yīng)該犧牲一個人而挽救另外五個人;在“摩托車困境”中,則犧牲戴頭盔的駕駛員。

        對于這一問題的回答,我們可能沒有辦法簡單根據(jù)“兩弊相權(quán)取其輕”的原則,理所應(yīng)當?shù)貭奚贁?shù)無辜者。根據(jù)功利主義模式所得到的結(jié)論,建立在經(jīng)驗主義認識論的基礎(chǔ)之上,且與大多數(shù)人的理性相符,即便可能和日常生活中的道德直覺相背離。但不可否認的是,以此設(shè)計道德算法仍具有相當?shù)恼斝?。然而,若兩條軌道上的人數(shù)相等,又該如何進行抉擇呢?或許,當“人”這個概念完全被形式化后,功利主義者很難以“幸福最大化”為基準回應(yīng)這一問題。其原因在于,功利主義模式對“電車難題”的回應(yīng)并不是具體的,而是在無知之幕(veil of ignorance)下,將人抽象化。如果置于特定情境中,人與人的價值必然存在差異。舉例來說,若只考慮社會貢獻因素進行取舍,那么在此觀念指引下,社會最終必然會分裂成兩個極端。

        正如羅爾斯在《正義論》中指出:“功利主義觀點的突出特征是:它直接地涉及一個人怎樣在不同的時間里分配他的滿足,但除此之外,就不再關(guān)心(除了間接的)滿足的總量怎樣在個人之間進行分配?!?10)羅爾斯:《正義論》,何懷宏等譯,中國社會科學出版社,1988年,第25頁。由此帶來如下問題:其一,功利主義將“最大多數(shù)人的最大幸福”置于最高位階,凌駕于所有因素之上,但可以為此犧牲雖為少數(shù)卻是無辜者的利益嗎?少數(shù)和多數(shù)并不是獨立的,而是相對的,在不同的情境下可以相互轉(zhuǎn)化。如果將功利主義視為一種絕對的價值準則,演變到最后,結(jié)果只能淪為:每個人都是被犧牲者。其二,如果將生命視為可以用于“緊急避險”的犧牲品,即變相承認生命與生命之間存在質(zhì)與量的差別,這會導致生命成為一種“交易品”,于法不容,甚至導致多數(shù)人的“暴政”。(11)如果將類似問題視為簡單的數(shù)學題,必然會使個人權(quán)利處于極其不穩(wěn)定的狀態(tài)中。舉例來說,可以隨時進入你的私人空間,甚至將你殺害,只要是為了實現(xiàn)多數(shù)人利益的最大化。其三,人類欲望并非道德原則,無法從“是”推出“應(yīng)當”。即便多數(shù)人贊同某一算法是既定事實,但也不是算法具有正當性的充分條件。就如同毒樹之果(fruit of the poisonous tree)一樣,用一種“非法”方式取得的結(jié)果,將自己的幸福建立在別人的不幸之上,還能被視為一種“幸?!眴??社會可以為了追求好的結(jié)果,而采取壞的手段嗎?(12)功利主義可能為刑訊逼供提供理論支撐。舉例來說,某一犯罪集團的某一成員被捕,如果采取刑訊逼供,得到有用信息,就可以制止犯罪集團的不法行為,那么,一個人的痛苦和千萬人的幸福、安定相比,自然是可以舍棄的。其四,功利主義將個人的幸福與他人的幸?;旌显谝黄鹩嬎悖瑳]有體現(xiàn)出對個體權(quán)利的尊重。舉例來說,如果自動駕駛汽車在能夠避免損傷的情況下,故意撞向某人而致其受傷,這對被撞傷者無疑是“非幸?!?,但若因此給成千上萬的人帶來“幸福”,那么,依據(jù)功利主義理念,有什么理由禁止這種行為的發(fā)生呢?

        綜上所述,不難發(fā)現(xiàn),即便功利主義模式存在瑕疵,但它仍具有極強的優(yōu)越性。究其原因,主要在于功利主義的認識論是以經(jīng)驗為基礎(chǔ)的,相較于唯理論所強調(diào)的“絕對真理”,少了些許神秘色彩,與我們的日常生活相貼切,而具有極強的現(xiàn)實意義。

        (二)義務(wù)論模式

        義務(wù)論(deontology)的代表人物是康德,他反對功利主義道德原則,認為“幸福的規(guī)范往往夾雜著一些愛好的雜質(zhì),所以,人們不能從稱之為幸福的滿足的總體中,制訂出明確無誤的概念來”(13)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。如果將道德置于人類欲望——即便是追尋幸?!?,便混淆了“幸福”和“善良”間的界限,從而誤解了道德的真正含義。倘若道德不是建立在欲望之上,那還剩下什么呢?盡管康德是一名基督教信徒,但他并沒有將某些神圣權(quán)威(如上帝)視為道德的基礎(chǔ),而是強調(diào)通過“純粹實踐理性”以實現(xiàn)道德。康德認為,“只有出于責任的行為才具有道德價值”, “一個出于責任的行為,其道德價值不取決于它所要實現(xiàn)的意圖,而取決于它所被規(guī)定的準則”。(14)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。這與邊沁所提倡的功利主義只注意到人類感性部分不同(15)從嚴格意義上講,功利主義并未完全摒棄“理性”這一概念,只不過這種理性是“工具理性”,是實現(xiàn)目的最大化的手段,而非決定何種目的值得去追尋。相較而言,康德所提倡的“理性”觀念,是一種“純粹實踐理性”,即忽略所有的經(jīng)驗?zāi)康亩O(shè)定了一種先驗性。,因為人還有理性,理性與感性是人類的一體兩面,而只有將理性視為最高統(tǒng)治者,才不會使我們淪為欲望的存在??档逻M一步指出,“只有為有理性的東西所獨具的,對規(guī)律的表象自身才能構(gòu)成,我們稱之為道德的,超乎其他善的善”(16)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。為了實現(xiàn)道德,每個人都應(yīng)該服從這樣一種規(guī)律,即“任何時候都不應(yīng)把自己和他人僅僅當作工具,而應(yīng)該永遠看作自身就是目的”(17)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。就目的而言,“超越一切價值之上,沒有等價物可代替的才是尊嚴”(18)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。??档掠纱藢⒌赖伦罡咴瓌t定義為“意志自律性”,即“意志由之成為自身規(guī)律的屬性,而不管意志對象的屬性是什么”(19)康德:《道德形而上學原理》,苗力田譯,上海人民出版社,2005年,第15頁,第16頁,第17頁,第53頁,第55頁,第61頁。。從這個意義上講,道德并不是一味地遵循欲望,也不是為了實現(xiàn)某種目的而選擇的最佳手段,而是根據(jù)自己給自己設(shè)定的法則而“自律地行動”。也就是說,應(yīng)當通過尊重人的尊嚴的方式將人視為目的,即為了目的本身去選擇目的。

        康德式的尊重(Achtung)針對的是人類廣泛存在的、沒有差別的理性能力。他將人視為目的本身,而非實現(xiàn)目的的手段,從而將每個人都定義成自由的客體。從義務(wù)論的觀點出發(fā),在“電車難題”中,五個人的權(quán)利與一個人的權(quán)利是平等的,如果為了五個人而犧牲一個人,那么這個被犧牲者便成為挽救五個人性命的工具,而非將其作為目的本身加以尊重。當然,如果換一個視角,或許基于功利主義也可以得到相同的結(jié)論。具體來說,如果允許通過犧牲一個人的方式來挽救五個人,那么今后每個人都會盡量避免自己成為“那一個人”,故而從長遠的角度來看會降低“功利”。然而,依據(jù)義務(wù)論仍然可以對這種觀點進行反駁,因為這種功利主義說辭是將潛在的“那一個人”視為他人幸福(目的)的一種純粹手段(工具)。也就是說,不犧牲“那一個人”,只是為了讓其他人不會擔心自己成為“那一個人”而已。

        在“電車難題”中,既然拯救五個人是道德義務(wù),不犧牲一個人也是道德義務(wù),那么當兩者發(fā)生沖突時,只能選擇不作為,即“遵從上帝的旨意”。然而,康德式的義務(wù)論在很多情況下缺乏現(xiàn)實可操作性,甚至會陷入“烏托邦”似的幻想。舉個極端的例子來說:倘若一條軌道上站著一個人,而另一條軌道上站著1億人(如果可能的話),如何抉擇?難道能依據(jù)義務(wù)論模式得出“1億不大于1”的結(jié)論?這顯然是很荒謬的。此假設(shè)中,功利主義將理論與現(xiàn)實割裂開來,將人抽象為觀念上的存在加以比較,從而具備了義務(wù)論難以反駁的優(yōu)勢。屆時,被命運選中的那個犧牲者,或許只能將其視為一種“原罪”,而非1億人針對他一個人的不公。由此觀之,在電車難題中,如果雙方所犧牲的利益的天平出現(xiàn)嚴重傾斜,其結(jié)果必然會滑向功利主義。

        三、是否有必要預(yù)設(shè)道德算法

        自動駕駛汽車的普及注定是一股不可阻擋的潮流。在人工智能時代下,如何實現(xiàn)人與人工智能的和諧共處呢?很多人回答過這一問題,代表性例證是“阿西莫夫三定律”(Asimov’s three laws)(20)“阿西莫夫三定律”是指:第一,機器人不得傷害人類,或看到人類受到傷害而不作為;第二,機器人必須服從人類的命令,除非與第一條相沖突;第三,機器人必須保護自己,除非這種保護與前兩條相沖突。更多評述可參見Balkin,Jack M.,“The Three Laws of Robotics in the Age of Big Data,”Social Science Electronic Publishing,2017,pp.1-10.,其旨在引導科技向善(Tech for Social Good),即在機器人“傷害人類”與“保護人類”之間選擇后者而盡力規(guī)避前者。這種制度架構(gòu)符合任何一個正常人的理性認知,并沒有什么值得探討的空間。而真正困難的抉擇并非出現(xiàn)在善惡之間或利弊之間,而是在“兩惡”或“兩弊”之間,這也正是探討“電車難題” (或“摩托車困境”)的核心價值所在。如果不預(yù)設(shè)道德算法,意味著在面臨上述困境時,有以下兩種可供選擇的路徑:

        一是將決定權(quán)交給車主,由其自行選擇承受損害的主體。這無疑將選擇結(jié)果與個體在一剎那間的價值判斷相連接,具有較大的偶然性與隨機性。就車主而言,采用功利主義模式與道德直覺相違背,采取義務(wù)論模式又缺乏現(xiàn)實可操作性。在不斷追問下,可能會陷入道德之愣(morally dumbfounded),并引發(fā)決策悖論:怎么選擇都可以,怎么選擇又都不行。最終,道德抉擇只能來自情感本能,即從樸素的價值觀出發(fā),以直覺先行,而推理通常在判斷形成之后才做出,目的是影響別人(如圖1所示)。(21)喬納森·海特:《正義之心:為什么人們總是堅持“我對你錯”》,舒明月、胡曉旭譯,浙江人民出版社,2014年,第47頁。筆者反對由車主設(shè)定道德算法,理由有二:其一,將道德難題交給車主,無疑將個體行為與自動駕駛連結(jié)在一起。由于損害結(jié)果與車主行為直接相關(guān),則難免會要求車主在一定程度上——未必是全部——承擔責任。此時,個體在道德上的自私性將充分表現(xiàn)出來。例如,在任何情況下,均采取最大限度地保護自己的方式。其二,就技術(shù)層面而言,隨著自動駕駛技術(shù)的進步,人類駕駛?cè)私巧徊粩嘞?22)黃波:《自動駕駛汽車交通肇事的刑法應(yīng)對》,《天府新論》2018年第4期。,甚至完全淪為一個“乘客”。而在突發(fā)事件中,往往需要在極短的時間內(nèi)做出道德抉擇。這對車主(乘客)而言,既不可能,也不現(xiàn)實。

        二是將決定權(quán)交給“上帝”,采取一種無差別的抉擇方式,無論現(xiàn)實情況如何,算法均回避多元的社會現(xiàn)實,不存在任何的傾向性。為了實現(xiàn)“公平”決策,甚至有學者建議在道德體系中使用隨機數(shù)生成器。(23)Robert Trappl, “Ethical Systems for Self-Driving Cars:An Introduction,”Applied Artificial Intelligence,2016,Vol.30,No.8,p.746.那么,就自動駕駛汽車而言,可以不預(yù)設(shè)任何道德算法,抑或采取一種“擲硬幣”的方式將命運交給“上帝”嗎?答案是否定的,理由有三:其一,鑒于人工智能的發(fā)展對社會的影響愈發(fā)凸顯,人們普遍認為,受到人工智能影響的人應(yīng)該對技術(shù)足夠了解。(24)Wischmeyer T.,“Artificial Intelligence and Transparency:Opening the Black Box,”in Wischmeyer T.,Rademacher T.(eds.),Regulating Artificial Intelligence,Springer,Cham,2020,p.76.在“算法黑箱”(black box)中產(chǎn)生的結(jié)果難以被民眾接受,是“刑不可知,則威不可測”的一種倒退。算法的不透明性使其喪失了對行為的指引功能,民眾沒有辦法明確地采取有利于己的行動。為了規(guī)避潛在風險,只能被動做出遠高于算法設(shè)計所需要的讓步,其結(jié)果必然導致個人權(quán)利空間被壓縮。其二,算法設(shè)計必須引入公眾參與,實行民主決策。究其原因,不僅在于這與每個人的權(quán)益——所承受的風險——緊密相關(guān),更是實現(xiàn)風險決策者與風險承受者相統(tǒng)一的因應(yīng)之策。其三,不預(yù)設(shè)道德算法或許能夠?qū)崿F(xiàn)形式平等,但可能與實質(zhì)平等相悖。以“摩托車困境”為例,如果撞甲還是撞乙完全是隨機的,不存在任何傾向性,那固然做到了形式平等。但倘若撞不戴頭盔的乙會致其死亡,而撞戴頭盔的甲僅會致其輕傷,此時若撞向乙,顯然與實質(zhì)平等相抵牾。不預(yù)設(shè)道德算法可能導致自動駕駛汽車選擇不道德的行為,甚至觸碰法律所維護的底線。

        正如美國麻省理工學院情感計算研究組創(chuàng)始人羅薩琳德·皮卡德(Rosalind Picard)所言,機器的自由度越大,便越需要道德標準。(25)Wallach,Wendell and Allen,Colin,Moral Machines:Teaching Robots Right from Wrong,Oxford University Press,2009,p.23.就自動駕駛汽車而言,設(shè)計道德算法是必要的,關(guān)鍵在于如何規(guī)避功利主義模式與義務(wù)論模式的弊端,以實現(xiàn)最優(yōu)解。

        四、風險分配模式:第三種路徑之可能

        功利主義模式與義務(wù)論模式是基于不同價值觀的表征,兩者在特定情境下均具有合理性,并不存在“上下之分”,有的只是“左右之別”。而筆者所提出的風險分配模式是在功利主義與義務(wù)論兩種極端中選取的第三條道路,其優(yōu)越性可以從一種更抽象的方式加以證立。舉例來說,如果甲、乙兩人需要分完100元錢,那么,甲之所得必為乙之所失,甲之所失必為乙之所得,這顯然是一個零和博弈。如何設(shè)定各自的分配金額呢?當然,可以將100元錢全部給甲,或者全部給乙。但這兩種分配方式處于兩種極端,使一方收益最大化而另一方損失最大化的做法,是極其不公的。如果選取第三種分配方式,使甲、乙兩人都分到一定數(shù)額的金錢,那么,無須討論何處才是“黃金分割點”,因為只要將這個點設(shè)在兩種極端之間,即便其中一人只分到一元錢,相較于上述兩種分配方式而言,也是占優(yōu)的。

        道德算法設(shè)計中的風險分配與財富分配相似,唯一的區(qū)別可能在于:財富是可分的,而風險一旦轉(zhuǎn)化為現(xiàn)實損害,就由不確定性變?yōu)榇_定性,從而無法分割。具體來說,在道德算法設(shè)計中,撞甲抑或撞乙是二元對立的抉擇,被撞者必然受到全部損害,即100%;而另一方必然不會受到任何損害,即0。損害沒有辦法像財富一樣,在兩者之間公平分擔。(26)誠然,如果事后讓沒被撞的人給予被撞者一定的物質(zhì)補償,也是在變相“分擔”風險。但就風險本身而言,是無法分割的。那么,第三種模式如何生成呢?答案在于概率。實踐中,談及概率的意義非常有限。因為在損害發(fā)生時,概率要么是100%,要么是0,不存在第三種可能。但是,將概率引入道德算法設(shè)計具有極強的理論意義:一方面,其將損害轉(zhuǎn)化為風險,將確定性轉(zhuǎn)化為不確定性,正面回應(yīng)了自動駕駛的道德算法設(shè)計悖論;另一方面,基于調(diào)和論立場,運用偶然性強行打破了功利主義算法與義務(wù)論算法間的界限,至少在理論上徘徊于兩種極端之間,且具有超越兩者的顯著優(yōu)勢。

        從本質(zhì)上講,道德算法的設(shè)計模式體現(xiàn)著自動駕駛汽車的風險分配方式,起決定作用的是社會主流的價值判斷與價值選擇。理論上無法設(shè)計出一套既符合社會大眾共識又滿足公平正義要求的通解,這或許正是“電車難題”的核心癥結(jié)所在。為了確保道德算法的有效性與普適性,應(yīng)當采取道德的普遍化原理(principle of universalization),即每項有效的規(guī)范必須滿足如下條件:所有旨在滿足每個人的利益的規(guī)范,其普遍被遵循所產(chǎn)生的結(jié)果與附帶作用,均能不經(jīng)強制而為所有相關(guān)者所接受。(27)Jurgen Habermas,Moral Consciousness and Communicative Action,The MIT Press,1999,p.65.具體來說,一方面,把是否“滿足每一個人的利益”視為規(guī)范有效性證明的標準,在這里“每一個人”代表著一種超越任何特定社會、團體、階層的“每一個單個的個人”的意思,即它并不指特定群體也不指那種抽象的或總體的人;另一方面,它又要求在所有可能的或不同的應(yīng)用情境中來確證規(guī)范的有效性(它因此把對規(guī)范實踐的“后果和副作用”的適當考慮當作是否“滿足每一個人的利益”的條件)。(28)劉鋼:《哈貝馬斯與現(xiàn)代哲學的基本問題》,人民出版社,2008年,第215頁。從這一立場出發(fā),風險分配模式與道德的普遍化原理十分契合。一方面,它沒有以部分群體的價值觀為基礎(chǔ),制定統(tǒng)攝所有人——自然包含擁有不同價值觀的另一部分群體——的道德算法,而是將自我與他我置于同一位階進行考量,通過交換主體性,使每一個人都能站在他人利益的立場之上;(29)可以參見無知之幕版“電車難題”,https://www.wjx.cn/jq/10003546.aspx,訪問日期:2020年6月4日。另一方面,將抽象算法與具體情境相結(jié)合,通過民主協(xié)商使每一個個體表明自身利益,并在合理的妥協(xié)中實現(xiàn)“人人利益之并行”。由此觀之,風險分配模式具有超越功利主義與義務(wù)論的顯著優(yōu)勢。那么,如何以此為基礎(chǔ),設(shè)計道德算法呢?

        (一)道德算法的支點:價值等級序列

        價值等級序列是指價值在相互的關(guān)系中具有一個“級序”,根據(jù)這個級序,一個價值要比另一個價值“更高”或者說“更低”,它包含在價值本身的本質(zhì)之中,并且并不只對那些為我們所“熟悉的價值”有效。(30)馬克斯·舍勒:《倫理學中的形式主義與質(zhì)料的價值倫理學》,倪梁康譯,商務(wù)印書館,2011年,第146頁。從理論上講,既然存在道德算法,就肯定能找到一個由不同層級價值所構(gòu)成的“序列”。它的最高一級就是直接“撞毀整個地球”,最低一級是作為被撞對象所損害的最低價值。在這兩級之間,包含了自動駕駛汽車可能侵犯的所有潛在利益。這些利益遵循著“無形”的序列,由高到低排序。在設(shè)計道德算法時,需要找到能夠衡量所有被撞對象價值大小的基本標尺,從而進行傾向性選擇。其實,美國麻省理工學院媒體實驗室(MIT Media Lab)一直致力于機器道德的研究,通過測試來了解大眾對于道德兩難議題的看法,以為研究自動駕駛汽車道德提供依據(jù)。實驗結(jié)果表明,民眾對于不同性質(zhì)利益間的權(quán)衡是相對一致的,如傾向于保護遵守交通法則的人,相較于保護動物而言,傾向于保護人類,等等。(31)網(wǎng)址:http://moralmachine.mit.edu/,訪問日期:2020年6月4日。另可參見:Awad,Edmond etc., “The Moral Machine Experiment,”Nature,2018.

        從本質(zhì)上講,價值序列的設(shè)定與刑法中的“緊急避險”條款相似,即為了消除自動駕駛汽車在道德困境中的危害,通過犧牲較小利益的方式而保全較大利益。從社會主流的價值判斷與普通民眾的基本認知出發(fā),一個普遍能接受的價值序列是:生命利益大于身體利益,身體利益大于動物利益,動物利益大于財產(chǎn)利益。也就是說,當不同性質(zhì)的利益間發(fā)生沖突時,必然以犧牲較低階利益的方式保全較高階利益,而人類生命處于最高位階。在確定了價值序列之后,需要回答的便是:在同種利益間——如人的生命和人的生命——如何進行取舍?這種取舍,不能簡單依據(jù)數(shù)量的多寡而優(yōu)先考慮一方,而應(yīng)努力尋求彼此間的“實際一致性”(practical concordance)。

        (二)道德算法的核心:風險分配均等化

        風險(risk)是指特定時間內(nèi)某種特定危害發(fā)生的可能性或者某種行為引發(fā)特定危害的可能性。(32)Baldwin,R (eds.),“Law and Uncertainty:Risks and Legal Processes,”Kluwer Law International,1997,pp.1-2.許多著作中用數(shù)學公式來表現(xiàn)風險,即期待值R等于用于表達某一個可能時間及其后果的數(shù)值(損害規(guī)模S)乘以有關(guān)該事件及其后果發(fā)生的可能性(H)的數(shù)值:R=H×S。(33)劉剛編譯:《風險預(yù)防:德國的理論與實踐》,法律出版社,2012年,第24頁。在設(shè)計道德算法時,應(yīng)當引入風險理論,以保證機器決策的隨機性。質(zhì)言之,應(yīng)當根據(jù)損害程度決定風險分配的概率,而不是在兩難決策中進行非此即彼的確定性選擇。如果從博弈論的角度來看,算法設(shè)計不應(yīng)存在純策略均衡,而應(yīng)構(gòu)建混合策略均衡,即讓潛在的被撞者知道,是否戴頭盔與是否被撞之間沒有必然的線性因果關(guān)系。當然,這種隨機模式與擲硬幣不同,不是走向完全無為的混沌狀態(tài),而是利用偶然性,防止?jié)撛诒蛔舱甙l(fā)現(xiàn)道德算法的設(shè)計規(guī)則,從而規(guī)避被撞的可能。

        將風險理論引入道德算法設(shè)計的優(yōu)勢在于,可以緩解功利主義與義務(wù)論間的張力。那么,如何計算概率呢?最基本的原則就是實現(xiàn)風險分配的均等化。偏離風險理論而另行尋求其他的界限,不僅會破壞兩難決策下的平衡,還會導致被撞者在承受風險程度上的懸殊,甚至畸重或畸輕。面對公民日常生活和社會運轉(zhuǎn)之中泛在的算法歧視(34)何傲翾:《數(shù)據(jù)全球化與數(shù)據(jù)主權(quán)的對抗態(tài)勢和中國應(yīng)對——基于數(shù)據(jù)安全視角的分析》,《北京航空航天大學學報(社會科學版)》2021年第3期。,風險分配均等化是設(shè)計道德算法的科學且公正的參考系,具有客觀性、隨機性、公平性、普適性,可以最大程度地跨越時間與空間的界限,是道德算法的核心。基于這一理念,便能夠回答前文中提到的兩個問題。就“電車難題”而言,如果不考慮其他因素(35)德國發(fā)布了世界首份自動駕駛倫理指南,第九條指出,“在事故不可避免的情況下,基于個人特征(年齡、性別、身體或精神體質(zhì))而進行的任何區(qū)分都是嚴格被禁止的”。也就是說,禁止依據(jù)人群屬性對受害者區(qū)分對待。參見Luetge,C.,“The German Ethics Code for Automated and Connected Driving,”Philos. Technol,2017,No.30,p.552.,只從數(shù)量來看的話,則有5/6的概率撞向一個人,有1/6的概率撞向五個人。在“摩托車困境”中,如果戴頭盔的甲被撞,受到的傷害值是3,而沒戴頭盔的乙被撞,受到的傷害值是7,則有70%的概率撞甲,有30%的概率撞乙(見表1)。

        表1

        (三)道德算法的修正:社會主流價值

        算法應(yīng)恪守基本倫理規(guī)則和主流價值導向。(36)陳曉彥:《用主流價值導向駕馭算法》,《白銀日報》2019年9月28日。對于如何設(shè)計自動駕駛汽車的道德算法這一問題,在不存在通用正解的前提下,本質(zhì)上是在決定用何種價值觀將風險分配給誰。與財富分配的等級化相區(qū)別,風險分配應(yīng)以均等化為基礎(chǔ),并通過不斷修正而實現(xiàn)“公平性”。質(zhì)言之,風險分配方式應(yīng)遵循社會主流價值,并隨著主流價值的發(fā)展變化而及時調(diào)整,從而形成某種程度的循環(huán)。對混合方法的綜合或更迭運用,由一整套復(fù)雜的規(guī)則構(gòu)成,它優(yōu)于其他單個方法或多個方法的簡單采用,更能體現(xiàn)出對悲劇性選擇的正確認識。(37)蓋多·卡拉布雷西、菲利普·伯比特:《悲劇性選擇:對稀缺資源進行悲劇性分配時社會所遭遇到的沖突》,徐品飛、張玉華、肖逸爾譯,北京大學出版社,2005年,第214頁。因此,道德算法的設(shè)計并不是永恒不變的,而應(yīng)根據(jù)社會主流的價值判斷與價值選擇,對均等化分配風險之基準進行修正。當然,這種調(diào)整存在兩個默認的前提:其一,社會主流價值判斷并非由某一方單獨決定,而是采取一種民主的方式表達所有潛在受影響者的利益;其二,算法能夠呈現(xiàn)這種價值判斷,即具備可操作性,這就將社會地位等因素——至少在現(xiàn)有技術(shù)水平下——排除在外。

        對風險分配均等化的修正需要從三個層面展開。首先,確定所有需要考量的因素,包含但不限于年齡偏好、性別偏好、是否重視保護乘客、是否違反交通法規(guī)等。其次,根據(jù)重要程度,設(shè)定每個因素的權(quán)重。例如,社會主流價值取向表明,極其重視交通法規(guī),而不太重視性別偏好。那么,在協(xié)商后可能會將前者的權(quán)重設(shè)定為30%,后者的權(quán)重設(shè)定為5%。最后,將各個因素的權(quán)重作為對風險分配均等化的修正。以“摩托車困境”為例,如果只考慮交通規(guī)則因素,在甲(戴頭盔)沒有違反交通規(guī)則而乙(沒戴頭盔)違反了交通規(guī)則的情況下,需要把30%的權(quán)重加進去,且確??傮w概率為100%(見表2)。

        表2

        五、結(jié) 語

        針對自動駕駛汽車的道德算法設(shè)計模式,本文超脫功利主義與義務(wù)論的爭辯,以風險分配為基礎(chǔ),旨在用不確定性算法代替確定性算法,以逼近理論上可能存在的、通用的“正解”。質(zhì)言之,道德算法并不是固定不變的。當特定群體所承受的風險超越極限時,便應(yīng)再次通過民主程序,根據(jù)社會主流價值判斷調(diào)整各因素的權(quán)重,從而修正風險分配均等化?;蛟S,這就是風險社會下分配風險的終點與宿命。

        猜你喜歡
        功利主義電車道德
        頭上的星空與心中的道德律
        十幾歲(2021年24期)2021-11-18 02:18:40
        基于Baja電車點線面動態(tài)仿真轉(zhuǎn)向設(shè)計
        小電車,大問題
        康有為早期政治思想的功利主義解讀
        原道(2019年2期)2019-11-03 09:15:08
        跟蹤導練(五)(2)
        道德是否必需?——《海狼》對道德虛無主義的思考
        法律解釋的功利主義傾向
        法律方法(2018年3期)2018-10-10 03:20:54
        不能將功利主義標簽化
        淺析西方現(xiàn)代功利主義
        辛苦的電車售票員
        国产精品久久久免费精品| 国产精品泄火熟女| 男女下面进入的视频| 国产精品无码片在线观看| 成人女同av免费观看| 视频一区二区三区黄色| 色www永久免费视频| 无码中文字幕在线DVD| 亚洲国产高清在线视频| 日本在线观看不卡一区二区| 91成人自拍国语对白| 手机看片久久国产免费| 最新国产乱视频伦在线| 丝袜美腿久久亚洲一区| 亚洲色图视频在线免费看| 国产精品一区二区无线| 亚洲AV综合久久九九| 日本一区二区啪啪视频| 在线播放国产自拍av| 让少妇高潮无乱码高清在线观看| 久久福利青草精品免费| aa视频在线观看播放免费| 日本免费在线一区二区三区| 三年片在线观看免费观看大全中国| 亚洲国产精品久久久久秋霞影院| 国产2021精品视频免费播放| 日本免费一区精品推荐| 亚洲成人中文字幕在线视频 | 久久视频在线| 中文字幕不卡在线播放| 看大陆男女真人草逼视频| 国产精品久久久久久久久电影网| 国产超碰人人模人人爽人人喊 | 亚洲黄片av在线免费观看| 中文字幕亚洲乱码成熟女1区| 国产在线精品一区二区中文| 91日本精品国产免| 亚洲一区二区三区新视频| 99国产精品久久久久久久成人热| 国产suv精品一区二区| 国产亚洲女在线线精品|