□鄭戈
內(nèi)容提要 自動(dòng)駕駛汽車是人工智能技術(shù)得到全面、綜合應(yīng)用的產(chǎn)業(yè)領(lǐng)域,涉及到算法自動(dòng)化決策與人的自主性和尊嚴(yán)之間的潛在沖突。由于法律本身的回應(yīng)性和救濟(jì)性特征,導(dǎo)致它無(wú)法提前介入到算法設(shè)計(jì)過(guò)程之中,因而無(wú)法為算法設(shè)計(jì)提供向善的指引。我國(guó)雖然越來(lái)越重視人工智能倫理問(wèn)題,并為此設(shè)立了相關(guān)機(jī)構(gòu),制定了相關(guān)規(guī)則,但關(guān)于人工智能倫理的討論卻停留在科技向善、以人為本等抽象原則的層面,沒(méi)有形成有針對(duì)性的自動(dòng)駕駛汽車算法倫理。本文通過(guò)對(duì)德國(guó)交通與數(shù)字基礎(chǔ)設(shè)施部倫理委員會(huì)報(bào)告、倫理學(xué)中的電車難題討論和道德心理學(xué)領(lǐng)域的“道德機(jī)器試驗(yàn)”的介紹和分析,討論了為自動(dòng)駕駛汽車裝上倫理方向盤(pán)的必要性和可能的推進(jìn)方式。
2022 年11 月23 日閉幕的上海市十五屆人大常委會(huì)第四十六次會(huì)議通過(guò)了《上海市浦東新區(qū)促進(jìn)無(wú)駕駛?cè)酥悄芫W(wǎng)聯(lián)汽車創(chuàng)新應(yīng)用規(guī)定》,這意味著車內(nèi)不配備駕駛?cè)撕蜏y(cè)試安全員的L4和L5 等級(jí)高度自動(dòng)駕駛和完全自動(dòng)駕駛的智能網(wǎng)聯(lián)汽車在上海市浦東新區(qū)的劃定路段和區(qū)域不僅可以開(kāi)展道路測(cè)試,而且可以進(jìn)行示范應(yīng)用、示范運(yùn)營(yíng)和商業(yè)化運(yùn)營(yíng)等創(chuàng)新應(yīng)用活動(dòng)。這是繼深圳經(jīng)濟(jì)特區(qū)于6 月通過(guò)《智能網(wǎng)聯(lián)汽車管理?xiàng)l例》后又一自動(dòng)駕駛汽車領(lǐng)域的重大地方立法進(jìn)展,表明車上只有乘客而沒(méi)有駕駛員的無(wú)人駕駛汽車在我國(guó)公共道路上行使已經(jīng)不是夢(mèng)想,而是有法律作為保障的現(xiàn)實(shí)。
另一方面,我國(guó)在人工智能倫理方面的制度建設(shè)也取得了顯著的成就,并開(kāi)始積極參與這一領(lǐng)域的國(guó)際規(guī)則制定。2022 年11 月16 日,中國(guó)裁軍大使李松率團(tuán)出席在日內(nèi)瓦舉行的《特定常規(guī)武器公約》締約國(guó)大會(huì),并向大會(huì)提交了《中國(guó)關(guān)于加強(qiáng)人工智能倫理治理的立場(chǎng)文件》。①文件主張“增進(jìn)各國(guó)對(duì)人工智能倫理問(wèn)題的理解,確保人工智能安全、可靠、可控,更好賦能全球可持續(xù)發(fā)展,增進(jìn)全人類共同福祉”。在此之前,我國(guó)已于2020 年10 月21 日成立了國(guó)家科技倫理委員會(huì),發(fā)布了《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,在科技倫理原則表述、治理體制、制度保障以及審查和監(jiān)管等方面邁出了重要的步伐。深圳經(jīng)濟(jì)特區(qū)和上海市在先后通過(guò)的《人工智能產(chǎn)業(yè)促進(jìn)條例》中都提出了科技向善、以人為本的倫理原則,并且都創(chuàng)設(shè)了倫理委員會(huì),引入了倫理風(fēng)險(xiǎn)評(píng)估、倫理審查、倫理安全標(biāo)準(zhǔn)管理、倫理指引和倫理教育等制度。
但是,這兩個(gè)方面的發(fā)展并沒(méi)有有機(jī)結(jié)合起來(lái)。規(guī)范自動(dòng)駕駛汽車的法律沒(méi)有涉及倫理,涉及倫理的政策性文件和法律中又沒(méi)有專門(mén)針對(duì)自動(dòng)駕駛汽車的內(nèi)容。這一方面導(dǎo)致自動(dòng)駕駛汽車算法設(shè)計(jì)這一最需要倫理指引的人工智能應(yīng)用領(lǐng)域缺乏倫理指引,甚至缺乏形成倫理共識(shí)的制度引導(dǎo);另一方面又導(dǎo)致倫理方面的規(guī)范性文件過(guò)于抽象和空泛,只能提出類似于“科技向善”這樣的原則,對(duì)具體行為缺乏明確的引導(dǎo)和評(píng)價(jià)作用,也缺乏場(chǎng)景適配性和語(yǔ)境敏感性,而這些品性是倫理考量的基本特征。
自動(dòng)駕駛汽車是人工智能技術(shù)全方位、集成化應(yīng)用的產(chǎn)物,自動(dòng)駕駛系統(tǒng)是一個(gè)由感知、定位、決策和執(zhí)行模塊組成的復(fù)雜系統(tǒng),每一個(gè)模塊都涉及到不同的倫理問(wèn)題。感知模塊借助攝像頭、激光雷達(dá)、毫米波雷達(dá)等各種傳感器來(lái)采集車輛和環(huán)境信息,包括車輛和環(huán)境中的人的信息,這便涉及到隱私、個(gè)人敏感信息和其他個(gè)人信息。雖然法律上規(guī)定了告知同意、最少必要等原則,但如何通過(guò)技術(shù)設(shè)計(jì)來(lái)體現(xiàn)這些原則卻涉及到倫理考量與安全考量、性能考量之間的權(quán)衡。定位模塊同樣涉及車輛和車輛中的人的信息,這里具體地說(shuō)就是位置信息,同時(shí),它還涉及到高精地圖,而這又與測(cè)繪活動(dòng)所觸及的國(guó)家安全和公共安全等利益息息相關(guān)。決策模塊處理感知和定位模塊采集到的信息,并做出相應(yīng)的選擇:是繼續(xù)沿原來(lái)的車道直行還是拐彎?是加速還是減速?是剎車還是通過(guò)?執(zhí)行模塊則執(zhí)行決策模塊的選擇,做出相應(yīng)的“行為”。決策模塊和執(zhí)行模塊從表面上看類似于人的大腦和四肢,能表現(xiàn)意向性和行為,因此也最直接地關(guān)系到倫理,即行為主體出于自由意志而做出的行為,因其對(duì)他人、對(duì)社會(huì)產(chǎn)生的影響而接受的規(guī)范性評(píng)價(jià)。
最著名的人工智能倫理原則表述,即阿西莫夫的機(jī)器人律法②,就是以擬人化地想象機(jī)器人能夠自主決策和行動(dòng)為前提的。但實(shí)際上人工智能系統(tǒng)并不會(huì)通過(guò)解釋文義而有意識(shí)地執(zhí)行這樣的準(zhǔn)則,它不會(huì)像人類那樣通過(guò)語(yǔ)言學(xué)習(xí)和經(jīng)驗(yàn)累積而直觀地判斷什么是人,什么是傷害,什么是自我保存。讓我們看看一個(gè)比自動(dòng)駕駛系統(tǒng)簡(jiǎn)單無(wú)數(shù)倍的簡(jiǎn)單算法,也就是把垃圾郵件歸入垃圾郵箱的算法。即便是如此簡(jiǎn)單的任務(wù),用傳統(tǒng)的符號(hào)—邏輯編程方法都難以完成。程序員需要界定無(wú)數(shù)個(gè)如果(如果郵件地址中包含abcde 等等字符,如果郵件內(nèi)容中包含abcde 等等字符,……),而且即便是在設(shè)定了無(wú)數(shù)的條件之后,出錯(cuò)率仍然很高。如今的垃圾郵件歸類算法則采用機(jī)器學(xué)習(xí)的方法,即把相當(dāng)數(shù)量的郵件分別標(biāo)注為正常郵件和垃圾郵件,然后讓算法自己去其中尋找模式或規(guī)律,對(duì)正確的輸出給予獎(jiǎng)勵(lì),對(duì)錯(cuò)誤的輸出給予懲罰,如此不斷優(yōu)化。自動(dòng)駕駛系統(tǒng)遠(yuǎn)比垃圾郵件歸類算法復(fù)雜,所涉及的訓(xùn)練數(shù)據(jù)集更加龐大和多樣,單是幫助系統(tǒng)識(shí)別行人和車輛的算法就需要海量的訓(xùn)練樣本,任何用自然語(yǔ)言或數(shù)學(xué)語(yǔ)言表達(dá)的一般性規(guī)則都無(wú)法變成機(jī)器可以執(zhí)行的命令。從這個(gè)意義上講,人工智能倫理不是機(jī)器的倫理,而是人的倫理,是人工智能設(shè)計(jì)者的倫理,它旨在為設(shè)計(jì)者提供道德上的“北極星和羅盤(pán)”,指引設(shè)計(jì)者去選擇符合倫理且技術(shù)上可行的設(shè)計(jì)方案。
為什么需要在法律中為倫理考量創(chuàng)造空間呢?首先,這是數(shù)字技術(shù)時(shí)代政府、數(shù)字技術(shù)企業(yè)與普通用戶之間新型權(quán)力格局的必然需求。“算力即權(quán)力”已經(jīng)成為當(dāng)下的基本社會(huì)事實(shí),而算力主要并不掌握在政府手中。人類社會(huì)生活越來(lái)越依賴網(wǎng)絡(luò)和數(shù)字技術(shù)對(duì)海量人類行為數(shù)據(jù)的處理,從網(wǎng)上購(gòu)物到日常消費(fèi)支付,從核酸碼到線上會(huì)議,從滴滴打車到自動(dòng)駕駛汽車,每一項(xiàng)日?;顒?dòng)背后都涉及到算力支撐、算法處理和數(shù)據(jù)生成。在這樣的總體數(shù)字化環(huán)境中,執(zhí)法者和監(jiān)管者去監(jiān)督數(shù)據(jù)處理的全過(guò)程是完全不可能的,讓數(shù)據(jù)主體通過(guò)訴訟或?qū)で笮姓葷?jì)的方式來(lái)維護(hù)自己的權(quán)利也只能起到個(gè)案糾錯(cuò)的作用,而無(wú)法成為常態(tài)。傳統(tǒng)的權(quán)利本位的法律模式和命令—控制本位的規(guī)制模式都無(wú)法有效發(fā)揮權(quán)利保障和風(fēng)險(xiǎn)控制的作用。在這種背景下,由法律來(lái)確定框架性和底線性的基本原則,以平臺(tái)責(zé)任的形式將遵循這些原則的責(zé)任落實(shí)到數(shù)據(jù)掌控者和處理者身上,使之內(nèi)化為它們的運(yùn)營(yíng)準(zhǔn)則和經(jīng)營(yíng)成本,政府從外部監(jiān)督其合規(guī)行為,在出現(xiàn)可觀察到的疏于履行責(zé)任的事件(往往是社會(huì)危害后果十分嚴(yán)重的事件)時(shí)強(qiáng)力介入,嚴(yán)厲處罰,這無(wú)疑是最為務(wù)實(shí)的一種制度設(shè)計(jì)方案。這種模式將權(quán)利本位和風(fēng)險(xiǎn)規(guī)制本位的因素融合到一起,形成了所謂的“元規(guī)制”,即強(qiáng)調(diào)監(jiān)管者與被監(jiān)管者之間的合作而非對(duì)抗,行為規(guī)則的內(nèi)化,以及法律和倫理原則在整個(gè)數(shù)字基礎(chǔ)設(shè)施中的泛在化。企業(yè)一方面需要向政府和公眾表明自己在產(chǎn)品和服務(wù)設(shè)計(jì)中體現(xiàn)了保護(hù)法定權(quán)益和倫理價(jià)值的原則,即所謂通過(guò)設(shè)計(jì)保護(hù)隱私(privacy by design)、通過(guò)設(shè)計(jì)保障安全(security by design)等等,另一方面需要提出一套標(biāo)準(zhǔn)來(lái)規(guī)范設(shè)計(jì)者的行為,以確保規(guī)?;漠a(chǎn)出不至于埋下出現(xiàn)嚴(yán)重后果引發(fā)輿情或?qū)е卤O(jiān)管者介入的隱患。這兩方面的需求都使得企業(yè)本身也有動(dòng)力去參與倫理原則的提出和公共討論。
其次,法律本身就是社會(huì)的底線倫理,或“義務(wù)的道德”,如果突破了法律,人與人之間的和平共處就無(wú)法實(shí)現(xiàn),基本的社會(huì)秩序就無(wú)法得到維持。但只有法律是不夠的,因?yàn)槲覀儾粌H要活著,還要活得有尊嚴(yán)感和幸福感,這時(shí)候就需要倫理原則指引人們?nèi)プ霾恢褂谑刈〉拙€的對(duì)社會(huì)有益的事情。在日常社會(huì)交往中,倫理是內(nèi)生的,依靠社會(huì)評(píng)價(jià)、同儕壓力和親情友情來(lái)“執(zhí)行”。但在人工智能等科技領(lǐng)域,由于信息不對(duì)稱和專業(yè)能力不對(duì)稱,普通社會(huì)公眾很難對(duì)某種技術(shù)支撐的產(chǎn)品或服務(wù)的善惡利弊做出評(píng)價(jià),因此需要專業(yè)化和制度化的倫理評(píng)價(jià)和倫理審查機(jī)制。
第三,法律是回應(yīng)性的,它只能在特定損害結(jié)果發(fā)生后,判斷這種結(jié)果是否是因?yàn)樘囟ǚ申P(guān)系中的主體由于過(guò)錯(cuò)或違背法定義務(wù)而造成的,并且在損害行為與損害結(jié)果之間存在因果關(guān)系的情況下提供救濟(jì)。在人工智能技術(shù)遍布于我們?nèi)粘J褂玫母鞣N手機(jī)應(yīng)用、購(gòu)物平臺(tái)、社交媒體和交通工具背后的當(dāng)下,很多損害結(jié)果是難以察覺(jué)但卻像溫水煮青蛙那樣惡化著我們的總體生存環(huán)境的,比如大數(shù)據(jù)殺熟、過(guò)度獲取和濫用個(gè)人信息、誘導(dǎo)青少年上癮的常見(jiàn)用戶界面設(shè)計(jì)和算法設(shè)計(jì)等等。在這種資本通過(guò)技術(shù)肆意利用人性弱點(diǎn)的背景下,個(gè)人覺(jué)察損害結(jié)果本已不易,證明平臺(tái)有過(guò)錯(cuò)或違反法定義務(wù)更難,而證明因果關(guān)系則是難上加難。倫理在此時(shí)可以作為法律的補(bǔ)充,事前的倫理指引和倫理審查可以確保用戶界面和算法設(shè)計(jì)者知曉什么樣的設(shè)計(jì)是向善的,是在公眾充分知情的情況下能夠被接受的,從而至少確保有可持續(xù)商業(yè)追求的企業(yè)和工程師在進(jìn)行相關(guān)設(shè)計(jì)時(shí)就遵循倫理原則。而法律則在出現(xiàn)可見(jiàn)的嚴(yán)重?fù)p害結(jié)果時(shí)強(qiáng)力介入,懲處那些觸碰規(guī)則底線的行為主體。
第四,法律是一般性和剛性的,它更像是柵欄或圍墻,界分出合法與非法的邊界。它天然缺乏敏捷性、靈活性和場(chǎng)景適配性。如果法律規(guī)則過(guò)嚴(yán)過(guò)密,必會(huì)遏制技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展;如果過(guò)寬過(guò)疏,則又會(huì)留下巨大的漏洞,使大量模糊而又圓滑的危害民生福祉的行為成為漏網(wǎng)之魚(yú)。這對(duì)于有人工智能助力的法律主體來(lái)說(shuō)尤其如此。而倫理則具有更強(qiáng)的場(chǎng)景適配性和行業(yè)特定性,它更像是量身定制的合體衣服,由技術(shù)專家、人文社會(huì)科學(xué)家、行業(yè)組織和特定用戶群體通過(guò)行為互動(dòng)和協(xié)商溝通發(fā)展出來(lái),約束從業(yè)者的行為,因此能夠與法律配合營(yíng)造出既有利于企業(yè)和創(chuàng)新者追求正當(dāng)利益,又有助于維護(hù)個(gè)人尊嚴(yán)和權(quán)利的良好制度環(huán)境。
最后,法律的規(guī)范性本身就來(lái)源于倫理,而倫理則形成于社會(huì)生活中的基本預(yù)期,包括隱私預(yù)期、安全預(yù)期和風(fēng)險(xiǎn)預(yù)期。法律中的核心概念和標(biāo)準(zhǔn),都來(lái)自于穩(wěn)定的社會(huì)預(yù)期所支持的倫理準(zhǔn)則,比如侵權(quán)法中的“注意義務(wù)”??档略裕骸拔覀兛傆幸惶炜梢圆蝗で竺穹ǖ臒o(wú)窮無(wú)盡的雜多條款,而去尋求它們的原則;因?yàn)橹挥性谶@里面,才包含著人們所說(shuō)的立法簡(jiǎn)化的秘密?!雹圻@里的“原則”,就是上述意義的倫理原則。但對(duì)于自動(dòng)駕駛汽車這樣的新興技術(shù)產(chǎn)品,人們就如何與之共處和互動(dòng)尚未形成穩(wěn)定的社會(huì)預(yù)期,因此還沒(méi)有積累起足夠從中提煉剛性的法律規(guī)則的倫理資源,在這個(gè)領(lǐng)域,以倫理討論促進(jìn)社會(huì)共識(shí)形成尤為重要,立法不可操之過(guò)急。
2017 年,德國(guó)議會(huì)通過(guò)了《道路交通法》的第八修正案,④允許配備駕駛員的高度自動(dòng)化和完全自動(dòng)化汽車上路。⑤其中的§1b 款(標(biāo)題為“車輛駕駛員在使用高度或全自動(dòng)駕駛功能時(shí)的權(quán)利和義務(wù)”)規(guī)定:
(1)車輛駕駛員可以在按照第1a 款使用高度或全自動(dòng)駕駛功能駕駛車輛時(shí)不再專注于交通狀況和車輛控制;在這樣做時(shí),他必須保持足夠的警覺(jué),以便可以隨時(shí)履行第(2)項(xiàng)規(guī)定的義務(wù)。
(2)車輛駕駛員有義務(wù)在下述情況下立即重新控制車輛,
a.如果高度或全自動(dòng)系統(tǒng)請(qǐng)求他這樣做,或
b.如果他認(rèn)識(shí)到或由于明顯的情況必須認(rèn)識(shí)到高度或全自動(dòng)駕駛功能的預(yù)期用途之先決條件不再滿足。
與這一注意義務(wù)分配模式相配套的責(zé)任規(guī)則是:如果是在§1b(1)項(xiàng)規(guī)定的情況下使用自動(dòng)駕駛功能時(shí)發(fā)生了交通事故,責(zé)任在自動(dòng)駕駛汽車一方時(shí),由自動(dòng)駕駛汽車制造商負(fù)責(zé)賠償;如果是在§1b(2)項(xiàng)規(guī)定的情況下,駕駛員應(yīng)當(dāng)接管而未接管,或接管后發(fā)生事故,責(zé)任在自動(dòng)駕駛汽車一方的,則由駕駛員承擔(dān)責(zé)任。
與此同時(shí),聯(lián)邦交通與數(shù)字基礎(chǔ)設(shè)施部部長(zhǎng)亞歷山大·多布林特(Alexander Dobrindt)任命了一個(gè)“自動(dòng)與網(wǎng)聯(lián)駕駛倫理委員會(huì)”來(lái)討論和確立自動(dòng)駕駛汽車算法設(shè)計(jì)的倫理標(biāo)準(zhǔn)。這個(gè)委員會(huì)由十四名委員組成,分別來(lái)自哲學(xué)、法律、社會(huì)科學(xué)、技術(shù)影響分析、消費(fèi)者保護(hù)、汽車工業(yè)和軟法開(kāi)發(fā)等學(xué)科和行業(yè)背景,主席由前聯(lián)邦憲法法院法官烏多·迪·法比歐(Udo Di Fabio)擔(dān)任。委員會(huì)最終提出了一份包含二十項(xiàng)倫理原則的報(bào)告。⑥我們可以大致把這些原則分成三類。第一類是確定基本價(jià)值并對(duì)它們進(jìn)行排序的原則,比如第一條確認(rèn)了安全、便捷交通和人的自主性作為基本價(jià)值,第二條確認(rèn)了保護(hù)人的生命優(yōu)先于所有功利性價(jià)值。第七條要求:“在采取了各種可能的技術(shù)審慎措施均無(wú)法避免事故的情況下,要把保護(hù)人的生命放在首位。在技術(shù)上可行的限度內(nèi),系統(tǒng)應(yīng)當(dāng)被編程為可以接受對(duì)動(dòng)物和財(cái)產(chǎn)的損害,如果這樣做可以避免對(duì)人的損害?!?/p>
第二類原則旨在為法律的執(zhí)行創(chuàng)造技術(shù)條件,比如要求自動(dòng)駕駛汽車算法設(shè)計(jì)必須使車輛能夠辨識(shí)、記錄和保存每一時(shí)間點(diǎn)上車輛的實(shí)際控制者:是人,是車載系統(tǒng),還是遠(yuǎn)端控制者,從而為發(fā)生事故時(shí)確定責(zé)任分配提供證據(jù)支持。
第十六條:[系統(tǒng)的設(shè)計(jì)] 必須能夠明確區(qū)分車輛是在使用無(wú)人駕駛系統(tǒng)還是一位有可能接管的司機(jī)在負(fù)責(zé)。就并非完全無(wú)人駕駛的系統(tǒng)而言,人機(jī)交互界面的設(shè)計(jì)必須使得在每一個(gè)時(shí)間點(diǎn)上都有明確的規(guī)則,并且能夠辨識(shí)責(zé)任在哪方,尤其是能夠辨識(shí)車輛的控制者。為了明確責(zé)任的分配(Zust?ndigkeiten)以及法律責(zé)任的承擔(dān)(Verantwortung),與車輛操控相關(guān)的流程時(shí)間和接入規(guī)則都必須被記錄和保存。這對(duì)于人和技術(shù)交接的情況尤為重要。應(yīng)當(dāng)致力于交接程序及其記錄國(guó)際標(biāo)準(zhǔn)化,以確保面臨車輛、汽車技術(shù)和數(shù)字技術(shù)的跨境流動(dòng)時(shí)網(wǎng)絡(luò)協(xié)議、記錄格式和義務(wù)的可兼容性。
第三類原則強(qiáng)調(diào)算法決策的限度,確定某些決策只能由人來(lái)做出,這里最明顯的例子就是第八條:
第八條:真正的倫理困境決策,比如生命與生命之間的比較權(quán)衡,取決于包含所有參與者的不可預(yù)測(cè)行為的具體事實(shí)情境。這種決策因此無(wú)法被標(biāo)準(zhǔn)化,無(wú)法根據(jù)一個(gè)確定無(wú)疑的倫理體系來(lái)進(jìn)行編程。技術(shù)系統(tǒng)之設(shè)計(jì)是為了避免事故,而不是取代或預(yù)測(cè)一位道德上明辨是非的、負(fù)責(zé)任的司機(jī)的決策,因?yàn)樗鼈儫o(wú)法被標(biāo)準(zhǔn)化,以做出對(duì)于事故結(jié)果的復(fù)雜的或直覺(jué)性的評(píng)估。雖然一位人類司機(jī)在緊急情況下可以采取客觀上違法的行為,導(dǎo)致一人死亡而挽回一個(gè)或多個(gè)其他人的生命,他的行為不一定具有主觀上的可責(zé)性。此種考慮各種具體情況的事后裁判難以被轉(zhuǎn)化成抽象的、一般性的事前評(píng)估。它們同樣無(wú)法被編程。因此我們認(rèn)為有必要通過(guò)一個(gè)獨(dú)立的公共機(jī)構(gòu)(比如聯(lián)邦自動(dòng)化交通系統(tǒng)事故調(diào)查局或聯(lián)邦自動(dòng)和網(wǎng)聯(lián)交通安全局)來(lái)系統(tǒng)處理相關(guān)經(jīng)驗(yàn)。
正如大多數(shù)一般性的抽象原則一樣,這一原則顯得十分合理,而一旦將其置于具體的應(yīng)用場(chǎng)景之中,立刻暴露出明顯的問(wèn)題。試想這樣一個(gè)完全可能發(fā)生的場(chǎng)景:按照法律所允許的那樣,自動(dòng)駕駛汽車的駕駛員在開(kāi)啟了高度或完全自動(dòng)化的駕駛系統(tǒng)后雙手離開(kāi)了方向盤(pán),將注意力轉(zhuǎn)移到手機(jī)屏幕或車載影音設(shè)備上。而車輛在平穩(wěn)行駛一段時(shí)間后來(lái)到一個(gè)十字路口,由于此時(shí)面向車輛的交通信號(hào)燈是綠燈,車輛保持原速度繼續(xù)直行。這時(shí)突然有三名兒童手牽著手沖過(guò)馬路,即使剎車也無(wú)法立刻停下并避免撞到。唯一的替代方案是向右偏轉(zhuǎn),撞倒遵循交通規(guī)則在直行的一輛摩托車,并可能導(dǎo)致騎手死亡。這時(shí),車輛向駕駛員發(fā)出了接管請(qǐng)求。我們知道,如果一個(gè)人持續(xù)專注于一件事情,保持精神上的適度緊張,她便有可能對(duì)這件事情中出現(xiàn)的未曾預(yù)料的情形做出迅速且有效的處理。而一個(gè)人如果已經(jīng)完全放松,或者在專注地做別的事情,突然讓她接手處理她沒(méi)有保持持續(xù)注意力的事情中出現(xiàn)的意外,其結(jié)果必然是驚慌失措,有可能導(dǎo)致比不采取任何行動(dòng)更加嚴(yán)重的后果,比如因?yàn)槭置δ_亂亂打方向盤(pán),既撞死了騎手,也撞死了三個(gè)兒童。
倫理委員會(huì)匯集了來(lái)自不同學(xué)科、不同行業(yè)背景的人士圍繞一個(gè)問(wèn)題進(jìn)行聚焦討論,從而有可能看到單一視角下被遮蔽的問(wèn)題。同時(shí),倫理討論與立法過(guò)程不一樣,無(wú)需追求文本內(nèi)容中的邏輯一致性和無(wú)矛盾性,因此得以把矛盾和困境呈現(xiàn)出來(lái),供公眾進(jìn)行進(jìn)一步的討論。比如,由于認(rèn)識(shí)到了人類接管處理倫理兩難問(wèn)題這一要求可能導(dǎo)致上述認(rèn)知和反應(yīng)能力約束(或稱人類算力約束)下的荒謬結(jié)果,報(bào)告對(duì)技術(shù)提出了更高的要求:
第十七條:高度自動(dòng)化汽車的軟件和技術(shù)應(yīng)當(dāng)做到實(shí)際上避免在緊急情況下突然將控制權(quán)轉(zhuǎn)交給人類司機(jī)的情況。為了確保有效、可靠和安全的人機(jī)溝通并避免讓人承擔(dān)過(guò)重的負(fù)擔(dān),系統(tǒng)應(yīng)當(dāng)更強(qiáng)地適應(yīng)于人類交流行為并且不要求人類的高度適應(yīng)能力。
將第八條和第十七條放到一起,我們可以發(fā)現(xiàn)既要保障人的自主性又要確保安全性/有效性的困難。第八條是對(duì)人的尊嚴(yán)和自主性的保障,它要求人類承擔(dān)起直面?zhèn)惱砝Ь巢⒆龀鲞x擇的責(zé)任,拒絕將權(quán)衡人的生命價(jià)值的決策交給機(jī)器,體現(xiàn)了康德所說(shuō)的“人是目的,不是手段”的義務(wù)論倫理立場(chǎng)。而第十七條又承認(rèn)了人自己的局限性,認(rèn)識(shí)到在出現(xiàn)倫理兩難選擇時(shí)人類或許無(wú)能力做出符合倫理的選擇,因此要求技術(shù)被設(shè)計(jì)為不能突然要求人類接管。但這兩項(xiàng)要求是不可能同時(shí)被做到的。如果機(jī)器能夠預(yù)見(jiàn)到兩難選擇即將發(fā)生,并在給人類留下充分準(zhǔn)備時(shí)間的情況下請(qǐng)求人類接管,那么這就不是真正的倫理兩難問(wèn)題了,甚至不符合普通交通事故的實(shí)際情形。所有的事故都是突發(fā)的,而不是讓人有準(zhǔn)備時(shí)間的。
在一次訪談中,委員會(huì)主席法比歐指出,通過(guò)組建這個(gè)跨學(xué)科、跨行業(yè)的委員會(huì),更容易在技術(shù)可能性的限度內(nèi)尋找倫理或法律問(wèn)題的答案,并且為技術(shù)發(fā)展構(gòu)建規(guī)范指南針(normative Kompass)。委員會(huì)的任務(wù)是在較短的時(shí)間內(nèi)提出可操作的方案。⑦但非常明顯的是,時(shí)間約束壓倒了可操作性考量,因?yàn)閺目档率降摹敖^對(duì)命令”出發(fā)用演繹邏輯的方法推導(dǎo)出倫理原則是比較容易的,而考慮涉及無(wú)數(shù)技術(shù)細(xì)節(jié)的可操作性問(wèn)題則是需要耗費(fèi)大量時(shí)間的,而且是需要進(jìn)行大量試驗(yàn)的。德國(guó)交通部倫理委員會(huì)所認(rèn)可的倫理上的“絕對(duì)命令”就是確保自主決策并負(fù)責(zé)的個(gè)人(selbst-verantwortlichurteilenden Menschen)始終能夠做出自由選擇并對(duì)此負(fù)責(zé)。由此推演出的原則就是:技術(shù)只服務(wù)于無(wú)爭(zhēng)議的人類價(jià)值,比如避免事故、減少交通擁堵、節(jié)能環(huán)保等等,而不能代替人類去處理人類自身都無(wú)法給出明確答案的兩難問(wèn)題。人的自主性在此得到強(qiáng)調(diào),在面臨倫理選擇時(shí),人類的接管成為技術(shù)設(shè)計(jì)上的當(dāng)然選項(xiàng)。而為了使人類不至于為此承受過(guò)重的負(fù)擔(dān),機(jī)器還需適應(yīng)人的認(rèn)知和行為模式,在請(qǐng)求人類接管時(shí)不能過(guò)于“突然”。這是技術(shù)上難以做到的要求。
在倫理上提出超出現(xiàn)有技術(shù)能力的要求是沒(méi)有太大問(wèn)題的,“良師常常對(duì)自己的學(xué)生提出他知道他們不可能達(dá)到的要求。他這樣做的時(shí)候是懷著逼出學(xué)生的潛力這一值得贊揚(yáng)的動(dòng)機(jī)”,但法律不能要求不可能做到之事,因?yàn)榉墒怯袊?guó)家強(qiáng)制力所施加的制裁后果的,要求不可能之事就是強(qiáng)迫人追求卓越,這本身是不道德的。立法者不能將自己的身份混淆為教師:“對(duì)于未能做到他所要求之事的學(xué)生,老師照樣可以為他們實(shí)際上做到的事情而表?yè)P(yáng)他們,不會(huì)因此便顯得虛偽或自相矛盾。在類似的情況中,政府官員面臨的則是這樣一種選擇:要么做出嚴(yán)重不義之事,要么對(duì)偏離法律要求的情況視而不見(jiàn),從而導(dǎo)致人們不再尊重法律?!雹嘣诋a(chǎn)品責(zé)任法領(lǐng)域,產(chǎn)業(yè)缺陷的判斷是以現(xiàn)有技術(shù)發(fā)展水平為基準(zhǔn),而不是以理論上可能達(dá)到的技術(shù)水平為基準(zhǔn),并允許“發(fā)展風(fēng)險(xiǎn)抗辯”。因此,當(dāng)?shù)聡?guó)于2021 年再次修改《道路交通法》⑨時(shí),在接管問(wèn)題上確立了與倫理委員會(huì)提出的倫理原則截然相反的規(guī)則:
本法所稱的最低風(fēng)險(xiǎn)狀態(tài)是指這樣一種狀態(tài),在其中,車輛:
3.獨(dú)立將自己置于最低風(fēng)險(xiǎn)狀態(tài),如果繼續(xù)行駛只有在違反交通法規(guī)的情況下才能進(jìn)行;
5.檢查技術(shù)監(jiān)督指定的操作并決定不予執(zhí)行,而是獨(dú)立將車輛置于最低風(fēng)險(xiǎn)狀態(tài),如果此種駕駛操作會(huì)危及交通參與者或無(wú)關(guān)人士。
這是一項(xiàng)極具創(chuàng)新性的規(guī)則,它要求自動(dòng)駕駛汽車系統(tǒng)被設(shè)定為可以拒絕接受人類的接管,如果人類的指令(1)違法;或(2)威脅到他人的安全。這與人類的自主性原則形成明顯沖突,是一種客觀違法性或損害性標(biāo)準(zhǔn)。但如果技術(shù)上可以做到,的確是可以減少大量故意或過(guò)失造成的交通事故。這種系統(tǒng)不僅應(yīng)當(dāng)安裝在無(wú)人駕駛汽車上,也應(yīng)當(dāng)安裝在人類駕駛的車輛上。試想,如果大連“五·二二”事件⑩中肇事車主駕駛的是一輛安裝了此種自動(dòng)駕駛系統(tǒng)的車輛,即使他想要去撞死行人,車輛也不會(huì)聽(tīng)從他的指揮,這不僅可以避免多人傷亡的結(jié)果,也可以使他本人避免犯下后來(lái)被判處死刑的罪行。
德國(guó)交通部倫理委員會(huì)的工作給我們?nèi)c(diǎn)啟示:首先,法律和倫理的交織和互補(bǔ)才能確保科技向善。倫理討論可以揭示出自動(dòng)駕駛汽車算法設(shè)計(jì)中需要考慮的為確保人的尊嚴(yán)和人類福祉所必須的因素,促使科技界和產(chǎn)業(yè)界圍繞這些因素去尋找技術(shù)方案。在尚未普遍進(jìn)入社會(huì)生活領(lǐng)域的新興技術(shù)領(lǐng)域,由于還未形成社會(huì)的道德共識(shí)和穩(wěn)定預(yù)期,立法恐操之過(guò)急,制度化的倫理討論可以帶動(dòng)公共討論。哪怕一開(kāi)始提出的倫理原則不夠完善,不具有技術(shù)可行性,但文本的形成有助于公共討論的聚焦和細(xì)化深入,為此后的立法創(chuàng)造條件。其次,人工智能倫理要走出抽象原則的層面,真正落實(shí)為設(shè)計(jì)理念中不可或缺的要素,便需要結(jié)合具體的應(yīng)用場(chǎng)景提出細(xì)致的對(duì)設(shè)計(jì)行為有指導(dǎo)意義的具體原則。德國(guó)交通部倫理委員會(huì)報(bào)告提出的二十項(xiàng)原則便是迄今可見(jiàn)的最細(xì)致的自動(dòng)駕駛汽車算法設(shè)計(jì)倫理原則。這些原則雖然還不夠完善,甚至存在上面分析過(guò)的顯見(jiàn)內(nèi)在矛盾,但卻已經(jīng)為進(jìn)一步的提煉和發(fā)展打下了基礎(chǔ)。第三,倫理委員會(huì)的工作也幫助德國(guó)汽車工業(yè)樹(shù)立了重視倫理的形象,進(jìn)一步增強(qiáng)了德國(guó)品牌的競(jìng)爭(zhēng)力。上述報(bào)告形成之后很快就成為德國(guó)在國(guó)際交通政策對(duì)話中的王牌,并很快在G7 和G20 的交通部長(zhǎng)會(huì)議上得到各國(guó)的認(rèn)可。
德國(guó)交通部倫理委員會(huì)報(bào)告中提到的必須交給人去決策的“真正的倫理困境決策,比如生命與生命之間的比較權(quán)衡”,就是倫理學(xué)上經(jīng)典的“電車難題”。這個(gè)最早由英國(guó)倫理學(xué)家菲利帕·福特提出的思想試驗(yàn)迄今已經(jīng)催生了無(wú)數(shù)的研究文獻(xiàn),以至于形成了所謂的“電車學(xué)”。毫無(wú)意外的是,絕大多數(shù)關(guān)于自動(dòng)駕駛汽車倫理的討論都會(huì)提到電車難題,并基于對(duì)電車學(xué)在自動(dòng)駕駛領(lǐng)域應(yīng)用前景的態(tài)度而分為“電車樂(lè)觀主義”和“電車悲觀主義”?!半娷嚇?lè)觀主義”認(rèn)為電車學(xué)的既有學(xué)術(shù)成果為發(fā)展自動(dòng)駕駛技術(shù)倫理準(zhǔn)備了豐富的理論資源,只要將這些理論資源稍加調(diào)整,使之更有針對(duì)性,就可以從中提煉出適用于自動(dòng)駕駛汽車算法設(shè)計(jì)的倫理。而“電車悲觀主義”則相反,認(rèn)為電車學(xué)所體現(xiàn)出的思維方式與自動(dòng)駕駛系統(tǒng)所使用的機(jī)器學(xué)習(xí)方式存在本質(zhì)的區(qū)別,電車學(xué)對(duì)于思考自動(dòng)駕駛汽車相關(guān)的倫理問(wèn)題沒(méi)有太大幫助?;趯?duì)自動(dòng)駕駛汽車背后的機(jī)器學(xué)習(xí)算法的理解,本文認(rèn)為電車悲觀主義的立場(chǎng)更符合技術(shù)可能性。電車學(xué)的基本假定是:(1)存在一個(gè)獨(dú)立的理性主體;(2)這個(gè)理性主體對(duì)車禍場(chǎng)景中的所有選項(xiàng)及其后果都有充分的信息;(3)這個(gè)理性主體可以根據(jù)這些信息做出道德判斷,選擇特定的行動(dòng),并承擔(dān)相應(yīng)的道德和法律責(zé)任。但這些假定對(duì)于人類來(lái)說(shuō)就是不成立的,對(duì)于自動(dòng)駕駛系統(tǒng)來(lái)說(shuō)更是與其技術(shù)原理格格不入。在車禍發(fā)生時(shí),駕駛員大多是憑本能而不是理性判斷行動(dòng),她往往看不到所有的選項(xiàng),即使看到了往往也來(lái)不及根據(jù)理性選擇采取行動(dòng)。而自動(dòng)駕駛系統(tǒng)所采用的機(jī)器學(xué)習(xí)算法是從無(wú)數(shù)人類駕駛行為數(shù)據(jù)和模擬駕駛數(shù)據(jù)中進(jìn)行學(xué)習(xí),找出其中的規(guī)律或模式,選擇決策邏輯并不斷優(yōu)化的。它不是一個(gè)按照演繹邏輯來(lái)推理的決策者。如前所述,這也是唯一技術(shù)上可行的路徑。按照演繹邏輯編程的機(jī)器貌似算法透明邏輯清晰,但就連識(shí)別垃圾郵件這樣的相對(duì)簡(jiǎn)單的任務(wù)都無(wú)法很好地完成,因?yàn)槌绦騿T需要將符合垃圾郵件特征的所有條件都事先編寫(xiě)成代碼,這是一項(xiàng)難以完成的任務(wù)。同時(shí),作為人工智能的自動(dòng)駕駛系統(tǒng)并不具備“上帝視角”,它在視覺(jué)、聽(tīng)覺(jué)等方面還不如人類,目前導(dǎo)致人類死亡的自動(dòng)駕駛汽車車禍,從中國(guó)的高雅寧駕駛特斯拉Model S 出車禍到美國(guó)的Uber 自動(dòng)駕駛汽車車禍和特斯拉Model S 車禍,都是因?yàn)樽詣?dòng)駕駛系統(tǒng)未能識(shí)別出前方車輛或人,而且都是在能見(jiàn)度很高的情況下,也就是說(shuō),在駕駛員沒(méi)有轉(zhuǎn)移注意力去做別的事情可以很容易看到的情況下。計(jì)算機(jī)視覺(jué)不是人們所想象的類似于人類的那種視覺(jué),而是一種基于對(duì)大量樣本的“學(xué)習(xí)”而形成的概率論判斷。更具體地說(shuō),計(jì)算機(jī)視覺(jué)本質(zhì)上是某種概率論的分類器,比如樸素貝葉斯分類器、決策樹(shù)、支持向量機(jī)或邏輯回歸模型。這種方法與人基于感知、直覺(jué)和經(jīng)驗(yàn)的判斷相比仍有相當(dāng)大的差距。?雖然這在大多數(shù)情況下不會(huì)妨礙人工智能實(shí)現(xiàn)其功能,正如荷蘭計(jì)算機(jī)科學(xué)家、圖靈獎(jiǎng)得主艾茲赫爾·戴克斯特拉(Edsger W.Dijkstra)所說(shuō):“追問(wèn)計(jì)算機(jī)能否像人那樣思考,并不比追問(wèn)潛水艇是否會(huì)像人那樣游泳更有趣”,?但對(duì)這一技術(shù)現(xiàn)實(shí)的理解至少可以讓我們認(rèn)識(shí)到人工智能技術(shù)(包括自動(dòng)駕駛技術(shù))的局限性以及對(duì)其做擬人化理解的不可取性。盡管如此,由于電車難題目前占據(jù)了人工智能倫理討論(尤其是自動(dòng)駕駛汽車倫理討論)的核心位置,我們還是有必要理解它的邏輯和作用。
“電車難題”起源于一個(gè)與自動(dòng)駕駛汽車無(wú)關(guān),甚至與電車也沒(méi)有關(guān)系的語(yǔ)境中,菲利帕·福特提出這個(gè)假想的例子是為了分析人們反對(duì)人工流產(chǎn)的理由,尤其是分析其中的一個(gè)經(jīng)常被天主教徒提出的理由,即“雙重效應(yīng)學(xué)說(shuō)”(The Doctrine of the Double Effect,簡(jiǎn)稱DDE):一個(gè)行為可能導(dǎo)致兩個(gè)結(jié)果,一個(gè)是行為主體想要獲得的結(jié)果,另一個(gè)是其可以預(yù)見(jiàn)但不一定想要的結(jié)果。?為了實(shí)現(xiàn)一個(gè)好的結(jié)果,可以預(yù)見(jiàn)的壞結(jié)果在某些情況下是一種不得不接受的代價(jià)。反之,故意為惡(比如殺害一個(gè)人)是應(yīng)當(dāng)絕對(duì)被禁止的,哪怕這樣做可以挽救另一個(gè)人的生命。因此,按照反對(duì)人工流產(chǎn)的天主教徒的觀點(diǎn),施行人工流產(chǎn)手術(shù)來(lái)挽救一位難產(chǎn)的孕婦的生命是不應(yīng)當(dāng)被允許的,因?yàn)槭┬羞@種手術(shù)的人故意殺害了一個(gè)人(胎兒)的生命,盡管這樣做的結(jié)果是救回了孕婦的生命。因?yàn)樵袐D的死亡不是醫(yī)生故意導(dǎo)致的,而胎兒的死亡則是。殺人顯然比眼睜睜看人死亡更加惡劣。這里涉及兩項(xiàng)義務(wù):一是不傷害他人的消極義務(wù),二是為他人提供幫助的積極義務(wù),前者比后者更為優(yōu)先。為了分析這個(gè)學(xué)說(shuō),福特假設(shè)了各種例子,其中一個(gè)就是:一輛剎車失靈的有軌電車(福特用的詞是tram,而不是后來(lái)的電車難題討論者們用的trolley)駛到了一個(gè)岔路口,按原定路線開(kāi)會(huì)撞死軌道上五位正在施工的工人,而轉(zhuǎn)到另一條軌道會(huì)撞死一位工人,這時(shí)司機(jī)應(yīng)當(dāng)如何選擇。福特指出,“雙重效應(yīng)學(xué)說(shuō)” 這時(shí)指出了一條幫助司機(jī)走出道德困境的出路:變道去撞向一個(gè)人,從而使五個(gè)人得救,因?yàn)檫@時(shí)司機(jī)不是故意想要?dú)⒑@個(gè)人,而只是預(yù)見(jiàn)到這個(gè)人可能會(huì)因?yàn)樽约旱淖兊蓝蛔菜?,更何況這個(gè)人還有一線生機(jī),比如發(fā)現(xiàn)電車開(kāi)過(guò)來(lái)驚險(xiǎn)地躲開(kāi),因?yàn)榇藭r(shí)他的自主行動(dòng)能力并沒(méi)有被剝奪,這與胎兒的情況不同。福特的整篇論文是復(fù)雜而沒(méi)有定論的,她舉的有些例子證明雙重效應(yīng)學(xué)說(shuō)得出的結(jié)論是符合道德直覺(jué)的,而另一些例子則說(shuō)明雙重效應(yīng)學(xué)說(shuō)會(huì)得出與人們的道德直覺(jué)相悖的荒謬結(jié)論。有軌電車的例子屬于前者。
可以看出,福特所描述的電車難題的例子在表述上還比較粗糙,很容易被人挑出毛病,比如很難說(shuō)這位司機(jī)的變道選擇不是故意殺害那一位工人,因?yàn)樗吘故撬緳C(jī),他選擇了變道,他明知變道會(huì)導(dǎo)致那一位工人的死亡。另一位著名的道德哲學(xué)家朱迪斯·查韋斯·湯森發(fā)現(xiàn)了這個(gè)問(wèn)題,認(rèn)為這個(gè)例子中司機(jī)做的事情與下面這個(gè)例子中的醫(yī)生所做的事情很難區(qū)分開(kāi)來(lái):有一位手術(shù)技藝無(wú)可挑剔的醫(yī)生,最擅長(zhǎng)做器官移植手術(shù),他目前有五位垂危的病人,兩位各自需要一片肺,兩位各自需要一個(gè)腎,一位需要一顆心。有一位健康的年輕人恰好來(lái)體檢。這位醫(yī)生可以把這個(gè)年輕人拆了救這五位病人嗎?從表面上看,這兩個(gè)例子大不相同,但湯森認(rèn)為它們?cè)诜治龅囊饬x上并無(wú)二致:都是為了救更多的人而犧牲一個(gè)人,都并不希望這個(gè)人的死亡(有人會(huì)說(shuō):天哪,你都把人的心肺腎摘了還不希望人家死亡?但福特的司機(jī)同樣是故意撞向了那個(gè)工人。兩者都沒(méi)有征求被犧牲者的同意)。湯森追問(wèn):為什么第二個(gè)例子會(huì)引起巨大的道德反感,而第一個(gè)不會(huì)?為此,她設(shè)計(jì)出兩個(gè)更精致版本的電車難題例子:
例一,一輛失控的電車駛來(lái),沿原軌道它會(huì)撞向五位正在施工的工人,而如果它變道則會(huì)撞向一位工人。這時(shí)一位正好站在扳道機(jī)旁的路人面對(duì)一個(gè)選擇:要不要扳道?
例二,一輛失控的電車駛來(lái),撞向五位正在施工的工人,它會(huì)先從一個(gè)天橋下穿過(guò)。你是天橋上的路人,你旁邊有一個(gè)胖子,你準(zhǔn)確地估算如果把這個(gè)胖子推下天橋落在軌道上,能有效地讓電車停下來(lái)。你要不要把他推下去?
通過(guò)把司機(jī)替換成路人,湯森得以論證:站在扳道器旁的路人通過(guò)扳道“不僅僅是最小化了事故所造成的死亡人數(shù);他最小化了已經(jīng)在威脅人的生命的不可避免的事故所造成的死亡人數(shù),無(wú)論這位路人做什么,都會(huì)有人死亡”。?換句話說(shuō),路人只是撥轉(zhuǎn)了死神的矛頭,使它指向一個(gè)人而不是五個(gè)人,但死神并不是他招來(lái)的。但天橋上的胖子這個(gè)版本卻不一樣。胖子本來(lái)是一個(gè)局外人,他站在天橋這個(gè)安全空間里。如果沒(méi)有被人為地推下天橋,他是無(wú)法預(yù)期也沒(méi)有理由預(yù)期自己會(huì)被天橋下的車輛撞到的。將胖子推下天橋的行為是將胖子當(dāng)成實(shí)現(xiàn)外在于他的主觀世界的工具(這時(shí)把胖子替換成大石頭也能達(dá)到同樣的目的,如果碰巧有塊大石頭的話)。?如果他是自愿做出犧牲就另當(dāng)別論了。外科醫(yī)生的例子與推胖子的路人的例子一樣,而與扳道的路人的例子不一樣,這便解釋了為什么例一中路人應(yīng)當(dāng)扳道,而例二中的路人不應(yīng)推下胖子。
為了使自己的論證更加嚴(yán)謹(jǐn)周延,湯森還加上了一個(gè)時(shí)態(tài)限定,也就是共時(shí)性的現(xiàn)在進(jìn)行時(shí):“如果一個(gè)人面臨著此時(shí)此刻(here and now)立即采取某種行動(dòng)的選擇,一是做出一個(gè)行為會(huì)導(dǎo)致五個(gè)人死亡,二是做出另一個(gè)行為會(huì)導(dǎo)致一個(gè)人死亡,那么(在其他條件相同的情況下)他應(yīng)該選擇第一種行為而不是第二種?!?在外科醫(yī)生的例子中,健康的年輕人與五位病人的生命危險(xiǎn)既非同源,亦非共時(shí),如果不殺害這位年輕人,五位病人也還可以等待合適的捐贈(zèng)器官,無(wú)論可能性是大還是小。這與無(wú)法避免的交通事故場(chǎng)景完全不同。
湯森把司機(jī)替換成路人后,使得電車難題具有了與自動(dòng)駕駛汽車倫理議題表面上的直接相關(guān)性:例子中的路人可以替換成自動(dòng)駕駛系統(tǒng)。討論者們天真地認(rèn)為,只要將道德哲學(xué)家們已經(jīng)通過(guò)周密的分析論證得出的結(jié)論用代碼寫(xiě)進(jìn)程序,讓機(jī)器去執(zhí)行,就可以一勞永逸地解決現(xiàn)實(shí)世界中類似于電車難題那樣的問(wèn)題了。但正如前面已經(jīng)討論過(guò)的,機(jī)器學(xué)習(xí)算法所采用的不是三段論式的演繹推理,而是學(xué)習(xí)大量范例的經(jīng)驗(yàn)主義方法,而且這是包括自動(dòng)駕駛技術(shù)在內(nèi)的人工智能技術(shù)之所以能夠比傳統(tǒng)的編程更有能力處理真實(shí)世界中的復(fù)雜問(wèn)題的原因所在。用哥德?tīng)柌煌陚湫远ɡ淼谋硎龇绞?,我們可以說(shuō):形式邏輯上越自洽的系統(tǒng)對(duì)真實(shí)場(chǎng)景的覆蓋越不完整,能夠處理的問(wèn)題越簡(jiǎn)單;而覆蓋了越多真實(shí)場(chǎng)景應(yīng)對(duì)經(jīng)驗(yàn)的算法,在形式邏輯上越不自洽。像電車難題這樣假設(shè)其他條件相同的前提下孤立出A、B 選項(xiàng)的思維方式,如果用來(lái)給自動(dòng)駕駛汽車編程,它就完全無(wú)法上路了。為了讓自動(dòng)駕駛汽車能夠應(yīng)對(duì)真實(shí)世界的電車難題,就必須用大量的事故場(chǎng)景數(shù)據(jù)集來(lái)訓(xùn)練它,但真實(shí)世界中的此種場(chǎng)景是很少的,無(wú)法滿足訓(xùn)練的需要,因此還需要人為創(chuàng)造出許多模擬電車難題場(chǎng)景的數(shù)據(jù)。這樣做不僅成本巨大,而且還存在很大的潛在風(fēng)險(xiǎn),比如,一輛學(xué)習(xí)了大量應(yīng)對(duì)電車難題的數(shù)據(jù)的自動(dòng)駕駛汽車,在本來(lái)不至于發(fā)生事故的場(chǎng)景中,“看到”馬路一邊出現(xiàn)了五個(gè)人,另一邊出現(xiàn)了一個(gè)人,它可能選擇去撞那一個(gè)人,以“挽救”本來(lái)不需要它挽救的五個(gè)人。試圖將電車難題作為自動(dòng)駕駛汽車算法設(shè)計(jì)中倫理考量之重點(diǎn)的人士,完全無(wú)視了它的技術(shù)特點(diǎn),只關(guān)注到它最后表現(xiàn)出的“行為”上,而忽視了訓(xùn)練出這種行為的前期工作中需要思考的包含倫理考量的問(wèn)題,比如:(1)通盤(pán)的訓(xùn)練數(shù)據(jù)集合:在這個(gè)總體的數(shù)據(jù)集合中,有多少數(shù)據(jù)應(yīng)該專門(mén)用來(lái)訓(xùn)練處理電車難題式事故的能力;(2)結(jié)構(gòu):假設(shè)事故場(chǎng)景被包含在訓(xùn)練理想駕駛操作的數(shù)據(jù)集中,這些場(chǎng)景的結(jié)構(gòu)是否應(yīng)該被設(shè)計(jì)成像電車難題那樣?(3)裁斷:是否應(yīng)該以道德哲學(xué)家們關(guān)于如何在電車難題場(chǎng)景下做出選擇的學(xué)說(shuō)為標(biāo)準(zhǔn)來(lái)“獎(jiǎng)勵(lì)”和“懲罰”算法,使之最終能夠做出令道德哲學(xué)家們滿意的決策?如果是,應(yīng)該采納哪位或哪些道德哲學(xué)家的學(xué)說(shuō)?要知道她們的學(xué)說(shuō)可是不一樣的,甚至有些是截然相反的。而將“電車學(xué)”思維方式引入自動(dòng)駕駛汽車討論的學(xué)者們多數(shù)關(guān)心的只是最后一個(gè)環(huán)節(jié),即(4)是否應(yīng)當(dāng)按照電車難題那樣的結(jié)構(gòu)來(lái)設(shè)計(jì)自動(dòng)駕駛汽車算法,使之在不可避免的事故場(chǎng)景出現(xiàn)時(shí)像道德哲學(xué)家們(現(xiàn)在先不管她們之間的分歧)所希望的那樣去行動(dòng)??出于對(duì)這些因素的考慮,我認(rèn)為在思考自動(dòng)駕駛汽車倫理問(wèn)題時(shí),應(yīng)當(dāng)避開(kāi)電車難題,或至少要將它擺到相當(dāng)次要的位置。電車難題的意義在于訓(xùn)練人的倫理思維,而不適合用來(lái)訓(xùn)練機(jī)器。
電車難題是道德哲學(xué)家或倫理學(xué)家們構(gòu)建出來(lái)的思想試驗(yàn),其主要目的在于通過(guò)類似于數(shù)學(xué)運(yùn)算那樣的推演過(guò)程,澄清在其他條件相同的情況下如何區(qū)分和判斷選項(xiàng)A 與選項(xiàng)B 的倫理分值。但人類的現(xiàn)實(shí)生活卻永遠(yuǎn)不是因變量和自變量、A選項(xiàng)和B 選項(xiàng)般界限分明的,我們所面對(duì)的所有現(xiàn)實(shí)問(wèn)題都要求在信息不完備、行動(dòng)結(jié)果不確定的情況下去采取行動(dòng)。自動(dòng)駕駛汽車所融入其中的交通場(chǎng)景尤其如此。因此,相較于倫理學(xué)層面的演繹推理式討論,對(duì)相關(guān)立法、倫理原則發(fā)展和公共政策制定更有幫助的是社會(huì)科學(xué)的經(jīng)驗(yàn)研究。通過(guò)這種研究,我們才能了解與自動(dòng)駕駛汽車相關(guān)的社會(huì)預(yù)期和社會(huì)上多數(shù)人面對(duì)類似于電車難題那樣的場(chǎng)景時(shí)愿意做出的選擇,從而確定法律上的注意義務(wù)標(biāo)準(zhǔn)、責(zé)任分配原則以及風(fēng)險(xiǎn)規(guī)制強(qiáng)度。在這方面,“道德機(jī)器試驗(yàn)”是一個(gè)很好的范例。?
2015 年,三位分別來(lái)自法國(guó)和美國(guó)的科學(xué)家通過(guò)亞馬遜的眾包平臺(tái)(Amazon Mechanical Turk)進(jìn)行了一項(xiàng)涉及1928 位受試者的線上心理試驗(yàn)。這項(xiàng)試驗(yàn)具有十分明確的現(xiàn)實(shí)針對(duì)性:要讓一種新技術(shù)產(chǎn)品被社會(huì)所接受,制造商和立法者都需要發(fā)展或制定出與這種產(chǎn)品相關(guān)的體現(xiàn)倫理的公共敘事和立法,這套公共敘事必須滿足三個(gè)條件:(1)具有內(nèi)部邏輯一致性(不自相矛盾);(2)不引起公眾反感;(3)對(duì)消費(fèi)者有吸引力。這項(xiàng)試驗(yàn)就是試圖搞清楚:自動(dòng)駕駛汽車當(dāng)然應(yīng)該以安全為首要設(shè)計(jì)目標(biāo),但在事故難以避免而不得不兩害相權(quán)取其輕的場(chǎng)合,人們期待算法設(shè)計(jì)讓汽車做出何種選擇?試驗(yàn)的方式是設(shè)計(jì)出若干類似于“電車難題”的自動(dòng)駕駛汽車交通事故中的選擇難題,讓受試者在各種選項(xiàng)中做出選擇。?這一試驗(yàn)得出的最重要發(fā)現(xiàn)就是:
1.絕大多數(shù)人都希望無(wú)人駕駛汽車被編程為:在采取了各種可能的預(yù)防措施都無(wú)法避免事故的情況下,如果車內(nèi)乘客的人數(shù)少于車外潛在受害者的人數(shù),車輛須犧牲自己(包括車內(nèi)乘客)以避免傷害他人。
2.絕大多數(shù)人都表示不會(huì)購(gòu)買如此編程的車。
這一發(fā)現(xiàn)與更具一般性的“社會(huì)困境”(即“囚徒困境”的擴(kuò)大版)高度一致:
設(shè)想一種情境,在其中每一個(gè)人都面臨一種選擇:是選擇社會(huì)合作性(或利他主義的)行動(dòng)X,還是選擇自利的行動(dòng)Y。
1.幾乎所有的人都會(huì)選擇生活在一個(gè)所有的(其他)人都做X 而不是Y 的社會(huì)。換句話說(shuō),沒(méi)有人喜歡生活在一個(gè)所有人都自私的世界。
2.但是,所有的人都會(huì)因?yàn)樽鯵 而獲益。換句話說(shuō),不管其他人怎么做,我都寧愿生活在一個(gè)我有自由/權(quán)利做Y 的世界。
此項(xiàng)研究澄清了一個(gè)制度設(shè)計(jì)上的關(guān)鍵問(wèn)題:自動(dòng)駕駛汽車畢竟是一種消費(fèi)產(chǎn)品,為了讓這種產(chǎn)品能夠有銷路,車內(nèi)乘客的安全應(yīng)當(dāng)被放在首位或者說(shuō)應(yīng)當(dāng)被排除在功利主義計(jì)算之外。自動(dòng)駕駛汽車內(nèi)部應(yīng)當(dāng)是法律所劃定的一個(gè)安全空間,就像步道、人行橫道和安全島一樣。
這項(xiàng)研究成果在《科學(xué)》雜志上發(fā)表后,引起了很大轟動(dòng)。原作者與麻省理工學(xué)院媒體實(shí)驗(yàn)室合作設(shè)計(jì)了一個(gè)專門(mén)的網(wǎng)站來(lái)繼續(xù)這一試驗(yàn),旨在“量化對(duì)應(yīng)當(dāng)指引機(jī)器行為的倫理原則的社會(huì)預(yù)期”,并進(jìn)而為提出“普世機(jī)器倫理”(Universal Machine Ethics)做好準(zhǔn)備。這個(gè)被命名為“道德機(jī)器” 的網(wǎng)站共收到來(lái)自233 個(gè)國(guó)家和地區(qū)的上千萬(wàn)志愿者對(duì)道德困境問(wèn)題做出的四千萬(wàn)項(xiàng)決策,是迄今為止最大規(guī)模的心理學(xué)試驗(yàn)。這次的研究成果在《自然》雜志上發(fā)表。?在“道德機(jī)器”網(wǎng)站?的主界面上,用戶可以依次看到13 種不可避免的車禍場(chǎng)景,取決于是保持車道還是轉(zhuǎn)彎,每一種場(chǎng)景都有兩種不同的可能結(jié)果,用戶可以點(diǎn)擊選擇他們認(rèn)為更可以接受的結(jié)果。選擇主要圍繞九個(gè)因素:避免撞人還是避免撞寵物;一直保持車道還是轉(zhuǎn)向;優(yōu)先保護(hù)車上乘客還是優(yōu)先保護(hù)行人;保持車道撞向較多的人還是轉(zhuǎn)向撞倒較少的人;撞男性還是撞女性;撞年輕人還是撞老年人;撞遵守交規(guī)過(guò)馬路的行人還是撞亂穿馬路的人;撞健康的人還是撞不健康的人(從身材判斷);撞社會(huì)地位較高的人還是撞社會(huì)地位較低的人(從衣著判斷)。還有若干場(chǎng)景涉及不包括在上述類型中的特定角色,比如罪犯和社會(huì)貢獻(xiàn)很大的專業(yè)人士(比如科學(xué)家和醫(yī)生)以及孕婦。這項(xiàng)試驗(yàn)只發(fā)現(xiàn)了三項(xiàng)跨文化、跨國(guó)別的普遍道德偏好,即人的生命優(yōu)先于動(dòng)物的生命、更多人的生命優(yōu)先于更少人的生命、年輕人的生命優(yōu)先于老人的生命。圍繞其他因素的選擇則呈現(xiàn)出極大的文化差異性,即使在同一區(qū)域、同一國(guó)家、同一文化群體內(nèi)部,離形成共識(shí)或者哪怕是大多數(shù)人同意的距離也較遠(yuǎn)。而比較有共識(shí)的三項(xiàng)道德偏好,除了人的生命優(yōu)先于動(dòng)物的生命以外,如果作為預(yù)先編程的設(shè)計(jì)都涉嫌違反法律,尤其是年齡(以及其他場(chǎng)景中涉及的性別、職業(yè)、身材、社會(huì)地位等等)屬于法律禁止作為區(qū)別對(duì)待之基礎(chǔ)的歸類,基于這些歸類的區(qū)別對(duì)待構(gòu)成歧視。由此可見(jiàn),德國(guó)交通部倫理委員會(huì)報(bào)告所提出的倫理原則中唯一允許機(jī)器自動(dòng)化執(zhí)行的選擇是在事故難以避免的情況下可以犧牲動(dòng)物和財(cái)產(chǎn)來(lái)保護(hù)人的生命,這一選擇是符合社會(huì)預(yù)期的。
這項(xiàng)研究的政策和法律意義在于為今后的制度設(shè)計(jì)提供了關(guān)于社會(huì)道德預(yù)期的相對(duì)可靠的經(jīng)驗(yàn)研究結(jié)論。正如作者所言:
關(guān)于指導(dǎo)自動(dòng)駕駛汽車的倫理原則的決定不能完全由工程師或倫理學(xué)家來(lái)做出。為了讓消費(fèi)者從傳統(tǒng)的人工駕駛汽車轉(zhuǎn)向自動(dòng)駕駛汽車,為了讓廣大公眾接受人工智能驅(qū)動(dòng)的汽車在他們的道路上擴(kuò)散,這兩個(gè)群體都需要了解被編程進(jìn)這些自動(dòng)駕駛汽車的倫理原則的起源。換句話說(shuō),即使倫理學(xué)家就自動(dòng)駕駛汽車應(yīng)該如何解決道德困境達(dá)成一致,如果公民不同意他們的解決方案,他們的工作也將毫無(wú)用處,無(wú)法促使公眾選擇自動(dòng)駕駛汽車承諾的未來(lái),從而改變交通現(xiàn)狀。任何設(shè)計(jì)人工智能倫理的嘗試都必須建立在至少了解公共道德的基礎(chǔ)上。?
倫理考量是自動(dòng)駕駛汽車算法設(shè)計(jì)中不可缺少的因素,但企業(yè)出于利益最大化的動(dòng)機(jī)往往缺乏內(nèi)生激勵(lì)來(lái)將倫理考量納入自己的產(chǎn)品設(shè)計(jì)流程,因此需要國(guó)家通過(guò)法律來(lái)促使或迫使企業(yè)追求符合倫理的設(shè)計(jì)。同時(shí),倫理原則不能只是恰好被賦予倫理把關(guān)權(quán)的那些人的個(gè)人道德偏好的表述,而必須是社會(huì)共識(shí)的產(chǎn)物,符合一般性的社會(huì)預(yù)期,因此需要通過(guò)制度設(shè)計(jì)來(lái)引導(dǎo)社會(huì)展開(kāi)自動(dòng)駕駛方面的倫理問(wèn)題研究和討論,促進(jìn)社會(huì)共識(shí)的形成。從長(zhǎng)遠(yuǎn)來(lái)看,重視倫理考量的商業(yè)氛圍和社會(huì)環(huán)境不僅有利于企業(yè)競(jìng)爭(zhēng)力的形成,而且有助于一個(gè)國(guó)家的整個(gè)行業(yè)獲得國(guó)際競(jìng)爭(zhēng)力?;谏鲜隹紤],本文提出五項(xiàng)具體的建議:
首先,除了目前已經(jīng)設(shè)立的國(guó)家科技倫理委員外,交通部?jī)?nèi)部應(yīng)當(dāng)設(shè)立專門(mén)針對(duì)自動(dòng)駕駛汽車的倫理委員會(huì)。一方面負(fù)責(zé)提出供立法和公共政策制定者參考的倫理指導(dǎo)意見(jiàn),另一方面引導(dǎo)行業(yè)和教育科研機(jī)構(gòu)展開(kāi)倫理討論和倫理教育,將倫理意識(shí)的培育納入到促進(jìn)產(chǎn)業(yè)發(fā)展、實(shí)現(xiàn)交通強(qiáng)國(guó)的戰(zhàn)略之中。
其次,應(yīng)當(dāng)在自動(dòng)駕駛汽車測(cè)試、示范運(yùn)營(yíng)和商業(yè)運(yùn)營(yíng)的管理機(jī)制中加入倫理審查環(huán)節(jié),由主管部門(mén)負(fù)責(zé)召集跨學(xué)科、跨行業(yè)、跨領(lǐng)域的人士組成倫理委員會(huì),對(duì)自動(dòng)駕駛汽車算法設(shè)計(jì)是否以及如何貫徹了政府的倫理指導(dǎo)意見(jiàn)和行業(yè)的倫理標(biāo)準(zhǔn)進(jìn)行審查。這可以促使企業(yè)形成自己內(nèi)部的倫理原則和倫理考量。
第三,我國(guó)汽車工業(yè)和數(shù)字技術(shù)領(lǐng)域的專業(yè)協(xié)會(huì)和行業(yè)協(xié)會(huì)應(yīng)當(dāng)像IEEE 那樣在關(guān)注科技議題的同時(shí)注重倫理標(biāo)準(zhǔn)的研發(fā),提出中國(guó)版的符合倫理的設(shè)計(jì)準(zhǔn)則,并圍繞著這些準(zhǔn)則凝聚行業(yè)共識(shí),使中國(guó)的自動(dòng)駕駛汽車系統(tǒng)、產(chǎn)品和服務(wù)在具有更高質(zhì)量的同時(shí)體現(xiàn)更高的倫理品質(zhì)。
第四,應(yīng)當(dāng)在大學(xué)的相關(guān)專業(yè)(比如電子電氣、計(jì)算機(jī)、自動(dòng)化和汽車制造)中設(shè)置倫理課程,比如本文作者所在的大學(xué)就在電子信息與電氣工程學(xué)院開(kāi)設(shè)了“人工智能思維與倫理”課程?,不僅教育未來(lái)的算法設(shè)計(jì)者具備倫理考量的意識(shí)和能力,而且通過(guò)文理工交叉的教學(xué)和科研尋找技術(shù)上可能的科技倫理落實(shí)方案。
最后,我國(guó)應(yīng)借助已有的國(guó)際磋商機(jī)制(比如聯(lián)合國(guó)、G20、東盟等等)積極提出并倡議本國(guó)提煉和發(fā)展出的自動(dòng)駕駛汽車算法倫理原則,參與和引領(lǐng)相關(guān)國(guó)際標(biāo)準(zhǔn)和規(guī)則的形成與制定,為未來(lái)交通注入中國(guó)元素,創(chuàng)造中國(guó)空間。
注釋:
①《中國(guó)關(guān)于加強(qiáng)人工智能倫理治理的立場(chǎng)文件》,載中華人民共和國(guó)外交部網(wǎng)站,http://newyork.fmprc.gov.cn/ziliao_674904/tytj_674911/zcwj_674915/202211/t20221117_1 0976728.shtml。
②機(jī)器人律法(Laws of Robotics)是美國(guó)科學(xué)家和科幻小說(shuō)作家伊薩克·阿西莫夫在1942 年的短篇科幻小說(shuō)“轉(zhuǎn)圈圈”中提出的內(nèi)置于機(jī)器人設(shè)定中的倫理法則。其最初版本包含三項(xiàng)法則:1.一個(gè)機(jī)器人不能傷害一個(gè)人,也不能因?yàn)椴蛔鳛槎鴮?dǎo)致一個(gè)人被傷害;2.一個(gè)機(jī)器人必須服從人類對(duì)它的命令,除非該命令與第一律法相沖突;3.一個(gè)機(jī)器人必須保護(hù)自己的生存,只要這種自保不與第一和第二律法相沖突。Isaac Asimov,“Runaround”,in I,Robot,London: HarperVoyager,2013,p.31.
③[德]康德著:《純粹理性批判》,鄧曉芒譯,楊祖陶校,人民出版社2017 年第2 版,第201 頁(yè)。
④Achtes Gesetzzur ?nderung des Straβenverkehrsgesetzes(8.StVG?ndGk.a.Abk.) G.v.16.06.2017 BGBl.I S.1648(Nr.38);Geltung ab 21.06.2017,可下載于:BGBl.I 2017 S.1648-Achtes Gesetz zur ?nderung des Straβenverkehrsgesetzes-dejure.org.
⑤有不少評(píng)論者認(rèn)為這部法律只允許L3 及以下級(jí)別的自動(dòng)駕駛汽車上路,這是錯(cuò)誤的理解。實(shí)際上,這次修訂已經(jīng)允許L4 和L5 級(jí)別的自動(dòng)駕駛汽車上路了,只不過(guò)要求其必須有駕駛員。導(dǎo)致誤解的原因是不少人混淆了技術(shù)等級(jí)和法律要求,L4 和L5 級(jí)別的自動(dòng)駕駛汽車在技術(shù)上可以做到自主控制,不需要駕駛員,但法律要求其必須有駕駛員。法律要求并不因此降低車輛的自動(dòng)化技術(shù)等級(jí)。
⑥Ethik -KommissionAutomatisiertes und Vernetztes-Fahren,Eingesetztdurch den Bundesminister für Verkehr und digitaleInfrastruktur,Bericht,Juni 2017,可下載于:berichtder-ethik-kommission.pdf (bund.de).
⑦“Paternalistischsindschon die Internetkonzerneunterwegs.” Staatsrechtslehrer Udo Di Fabio empfiehlt das Prinzip der PrivatautonomiealsKompass für die Regulierung des Internets Ein Interview.Sankt Augustin/Berlin: Konrad-Adenauer-Stiftung e.V.2018.
⑧[美]朗·富勒著:《法律的道德性》,鄭戈譯,商務(wù)印書(shū)館2005 年第一版,第84 頁(yè)。
⑨2021 年7 月,德國(guó)聯(lián)邦議會(huì)通過(guò)《修訂道路交通法和強(qiáng)制保險(xiǎn)法的法律——自動(dòng)駕駛法》(以下簡(jiǎn)稱德國(guó)“自動(dòng)駕駛法”),Gesetzzur?nderung des Straβenverkehrsgesetzes und des Pflichtversicherungsgesetzes-Gesetzzumautonomen-Fahren,下載網(wǎng)址:https://www.bgbl.de/xaver/bgbl/start.xav?startbk=Bundesanzeiger_BGBl&start=//* [@attr_id=%27bgbl121s3108.pdf% 27]#_bgbl_% 2F% 2F*% 5B% 40attr_id%3D%27bgbl121s3108.pdf%27%5D_1641381743887。此處所引條款在§1e(2)。由于高度和完全自動(dòng)化汽車上不再有司機(jī),監(jiān)督車輛運(yùn)行狀態(tài)的人被稱為 “技術(shù)監(jiān)督”(TechnischenAufsich)。
⑩2011 年5 月22 日,劉某駕駛一輛黑色寶馬轎車在大連市中山區(qū)五惠路由西向東行駛至勞動(dòng)公園北門(mén)人行過(guò)道斑馬線處,在等候綠燈指示時(shí)突然發(fā)動(dòng)車輛,在7 秒鐘內(nèi)將速度從0 提高到108 公里/小時(shí),故意沖撞行人,導(dǎo)致5 人死亡,多人受傷。2021 年10 月13 日,大連市中級(jí)人民法院公開(kāi)開(kāi)庭審理了劉某以危險(xiǎn)方法危害公共安全案,判處劉某死刑,剝奪政治權(quán)利終身。
?關(guān)于概率論的算法與決定論的算法之差異及其對(duì)法律和倫理分析的意義,請(qǐng)參閱鄭戈:《算法的法律與法律的算法》,《中國(guó)法律評(píng)論》2018 年第2 期。
?轉(zhuǎn)引自:Virginia Dignum,Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way,Springer Nature,2019,p.116.
?Philippa Foot,“The Problem of Abortion and the Doctrine of the Double Effect,” Oxford Review,Number 5,1967.p.5-15.
?Judith Jarvis Thomson,“The Trolley Problem,”94 Yale Law Journal 1395 (1985),p.1408.
?David Edmonds,Would You Kill the Fat Man? The Trolley Problem and What Your Answer Tells Us about Right and Wrong,Princeton University Press,2014,p.38.
?Judith Jarvis Thomson,“The Trolley Problem,”p.1415.
?對(duì)這些問(wèn)題的詳盡討論請(qǐng)參閱Jeff Behrends and John Basl,“Trolleys and Autonomous Vehicles New Foundations for the Ethics of Machine Learning,” in Ryan Jenkins,Davidern,and TomHíbek (eds.),Autonomous Vehicle Ethics:The Trolley Problem and Beyond,Oxford University Press,2022,p.58-79.
?關(guān)于道德機(jī)器試驗(yàn)的設(shè)計(jì)初衷、試驗(yàn)方法、主要發(fā)現(xiàn)和成果發(fā)表過(guò)程,請(qǐng)參閱:Jean-Fran?ois Bonnefon,The Car That Knew Too Much: Can a Machine Be Moral? The MIT Press,2021.作者讓-弗朗索瓦·布勒豐就是這個(gè)試驗(yàn)的發(fā)起人和組織者。
?Jean-Fran?ois Bonnefon,Azim Shariff,and Iyad Rahwan,“The Social Dilemma of Autonomous Vehicles,” Science,Vol.352,Issue 6293,June 24,2016,p.1573-1576.
?Edmond Awad,Sohan Dsouza,Richard Kim,Jonathan Schulz,Joseph Henrich,Azim Shariff,Jean-Fran?ois Bonnefon,&Iyad Rahwan,“The Moral Machine Experiment,” Nature,Vol.563,November 1,2018,pp.59-78.https://doi.org/10.1038/s41586-018-0637-6.
??https://www.moralmachine.net.
?俞陶然:《交大開(kāi)設(shè)人工智能倫理必修課,為未來(lái)算法工程師輸入倫理意識(shí)》,載《解放日?qǐng)?bào)》2021 年9 月15日,可參閱新華社網(wǎng)站轉(zhuǎn)載版:《AI 專業(yè)有門(mén)不教算法的“倫理必修課”》,載新華網(wǎng),http://www.xinhuanet.com/tech/202110 09/cdb6ffb799764a82bfa0dd5df7418c28/c.html。