于 雪
責(zé)任的原意是對(duì)某事的回應(yīng),負(fù)責(zé)任意味著回答某件事的狀態(tài)或事實(shí),這是對(duì)某個(gè)行為提供解釋的能力。因而,它涉及主體的特定心理動(dòng)機(jī)和溝通、判斷、反思等能夠承擔(dān)責(zé)任的主體能力[1](350-376)?;诖?,責(zé)任一直被視為人類語境中獨(dú)有的概念,并且承擔(dān)責(zé)任被視為人類獨(dú)有的能力。但是,智能機(jī)器的崛起正在改變這種傳統(tǒng)意義上的責(zé)任觀念,有些學(xué)者開始試圖將責(zé)任歸因于這些智能機(jī)器。例如,溫德爾·瓦拉赫(Wendell Wallach)和科林·艾倫(Colin Allen)通過提出一種功能等價(jià)的思路來對(duì)人工系統(tǒng)進(jìn)行責(zé)任歸因。這種觀念轉(zhuǎn)變的假設(shè)一方面是由于數(shù)字化時(shí)代促發(fā)了關(guān)于“人”本質(zhì)的新認(rèn)識(shí),這些新認(rèn)識(shí)主要來自信息技術(shù)和智能技術(shù)對(duì)“人”自身的深刻影響。另一方面,由于機(jī)器人化、自動(dòng)化、數(shù)字化等時(shí)代特征帶來的挑戰(zhàn),人們?cè)谏鐣?huì)、政治和經(jīng)濟(jì)系統(tǒng)的組織形式中對(duì)責(zé)任的理解也發(fā)生了根本性的轉(zhuǎn)變[2](1-20)。盡管這種責(zé)任范式的轉(zhuǎn)變會(huì)導(dǎo)致責(zé)任鴻溝(responsi?bility gap)①責(zé)任鴻溝的概念是安德烈亞斯·馬蒂亞斯(Andreas Matthias)提出的。在他看來,傳統(tǒng)意義上機(jī)器的制造商/操作者(在道德上和法律上)要對(duì)其操作的后果負(fù)責(zé),但基于神經(jīng)網(wǎng)絡(luò)、遺傳算法和自主體架構(gòu)的自主學(xué)習(xí)機(jī)器,創(chuàng)造了一種新的情況,即機(jī)器的制造商/操作者原則上不能夠預(yù)測(cè)未來機(jī)器的任何行為,因此不能承擔(dān)責(zé)任,這就是“誰應(yīng)該為智能機(jī)器的后果負(fù)責(zé)”的責(zé)任鴻溝。參見MATTHIAS A,“The responsibility gap:Ascribing responsibility for the actions of learning automata,”Ethics and Information Technology,2004,6(3),pp.175-183.的出現(xiàn),但是這種轉(zhuǎn)變?nèi)匀辉诔掷m(xù)。并且,隨著智能機(jī)器在道德情境中參與度的提升,這種責(zé)任范式的轉(zhuǎn)變也涵蓋了道德責(zé)任?;谶@種對(duì)責(zé)任范式轉(zhuǎn)變的接納以及對(duì)責(zé)任鴻溝的彌合,本文試圖為智能機(jī)器的責(zé)任歸因(responsibility ascription 或responsibility attribution)提供新的解決思路,其中道德設(shè)計(jì)是解決該問題的關(guān)鍵環(huán)節(jié)。據(jù)此,本文首先回應(yīng)智能機(jī)器為何需要道德設(shè)計(jì),并且在現(xiàn)有道德設(shè)計(jì)進(jìn)路的基礎(chǔ)上,提出道德交互設(shè)計(jì)的理念,將責(zé)任置于動(dòng)態(tài)的交互環(huán)境中以實(shí)現(xiàn)人機(jī)交互過程中的責(zé)任歸因。
智能機(jī)器指的是以智能系統(tǒng)和智能平臺(tái)為依托的自動(dòng)機(jī)器,其核心特征是自動(dòng)化和智能化①本文關(guān)于智能機(jī)器自動(dòng)化和智能化特征的強(qiáng)調(diào)來自我國封錫盛院士對(duì)機(jī)器人的分類,即根據(jù)機(jī)器人的智能化程度將其分為無智能機(jī)器人(1.0 機(jī)器人)、智能機(jī)器人(2.0 機(jī)器人)和生物機(jī)器人(3.0 機(jī)器人)。1.0 機(jī)器人是基于自動(dòng)化技術(shù)的機(jī)械電子裝置,其核心特征是自動(dòng)化,而2.0 機(jī)器人是在1.0 機(jī)器人的底層之上增加了智能頂層,因此其核心特征是智能化。本文所談及的智能機(jī)器是技術(shù)層面的2.0 機(jī)器人,其行為過程表現(xiàn)為“既定使命和被感知的環(huán)境信息經(jīng)過智能頂層的分析、決策和規(guī)劃過程,產(chǎn)生由底層執(zhí)行的行為指令”。參見封錫盛:《機(jī)器人不是人,是機(jī)器,但須當(dāng)人看》,《科學(xué)與社會(huì)》2015 年第2 期。。自動(dòng)化指的是機(jī)器設(shè)備或系統(tǒng)在沒有人或較少人的直接參與下,經(jīng)過一系列操作而實(shí)現(xiàn)預(yù)期目標(biāo)的過程。自動(dòng)化是機(jī)器的基本特征,是機(jī)器區(qū)別于一般的工具(如手工工具)的根本特征。智能化指的是機(jī)器設(shè)備或系統(tǒng)通過模擬個(gè)人智慧或群體智慧而體現(xiàn)出的“計(jì)算”、“思考”和“創(chuàng)造”能力。智能機(jī)器的自動(dòng)化水平與智能化程度不斷提升,促使其更加頻繁和深入地參與到人類的道德場(chǎng)景中,甚至包括道德決策、道德行動(dòng)等場(chǎng)景,因而在其設(shè)計(jì)中加入道德關(guān)懷(moral consideration)的呼吁也越發(fā)強(qiáng)烈。這一方面是因?yàn)橹悄軝C(jī)器自身的道德涉入程度在不斷加深,另一方面則是因?yàn)殡S之而來的道德風(fēng)險(xiǎn)的擴(kuò)散。
隨著智能機(jī)器的算力提升和算法優(yōu)化,其道德涉入程度也在加深。根據(jù)詹姆士·摩爾(James Moor)的倫理能動(dòng)者劃分方式②摩爾根據(jù)不同的倫理涉入程度,將倫理能動(dòng)者分為四種類型,分別是有倫理影響的能動(dòng)者(ethical impact agents)、隱性的倫理能動(dòng)者(implicit ethical agents)、顯性的倫理能動(dòng)者(explicit ethical agents)和完備的倫理能動(dòng)者(full ethical agents)。摩爾對(duì)倫理能動(dòng)者的劃分(參見于雪、王前:《“機(jī)器倫理”思想的價(jià)值與局限性》,《倫理學(xué)研究》2016 年第4 期)比較經(jīng)典,本文據(jù)此對(duì)智能機(jī)器的道德涉入程度加以區(qū)分。,智能機(jī)器的涉入程度呈現(xiàn)出遞進(jìn)式的加深過程。
第一階段是“有道德影響的智能機(jī)器”,其功能相對(duì)簡(jiǎn)單,由人類進(jìn)行操作,機(jī)器基于既定目標(biāo)執(zhí)行任務(wù)。這類機(jī)器體現(xiàn)出一定的道德作用,表現(xiàn)為影響人們的道德觀念或行為。例如,工業(yè)生產(chǎn)中的機(jī)械臂可以代替人類在高溫、危險(xiǎn)和需長時(shí)間工作的環(huán)境中作業(yè),以降低人類死亡的可能性。
第二階段是“道德隱性的智能機(jī)器”。從功能上看,這類機(jī)器可以在人類輔助操作下實(shí)現(xiàn)一些相對(duì)復(fù)雜的功能。這類機(jī)器的道德影響往往是隱性的,既包括無意識(shí)設(shè)計(jì)行為導(dǎo)致的間接道德后果,如使用超聲波機(jī)器增加了因?yàn)樘盒詣e而選擇流產(chǎn)的可能性,也包括有意識(shí)設(shè)計(jì)行為導(dǎo)致的直接道德后果,如設(shè)計(jì)一種仿制鈔票的機(jī)器會(huì)有可能導(dǎo)致制造假鈔的作惡行為。不同于有道德影響的智能機(jī)器,道德隱性的智能機(jī)器在其被設(shè)計(jì)的過程中已經(jīng)蘊(yùn)含著道德訴求,只是需要操作的人通過一定的方式將其中的道德因素解析出來。
第三階段是“道德顯性的智能機(jī)器”。從功能上看,這一類智能機(jī)器與前面兩類智能機(jī)器最大的不同是具有決策功能,能夠在復(fù)雜環(huán)境中基于一定的程序算法作出判斷和決策,并據(jù)此實(shí)施行動(dòng)。這種決策能力體現(xiàn)在道德情境中則表現(xiàn)為道德決策能力,通過內(nèi)在的道德機(jī)制,機(jī)器能夠評(píng)估道德情境中的可能性,并依據(jù)道德原則和規(guī)范作出最優(yōu)的道德選擇。例如,邁克爾·安德森(Michael Anderson)和蘇珊·安德森(Susan Leigh Anderson)將羅斯的顯見義務(wù)作為道德原則設(shè)計(jì)到機(jī)器的算法程序中,使用者可以利用程序來判定在不同道德情境中道德選擇的不同后果[3](476-492)。更多的設(shè)計(jì)方法參見表1①筆者依據(jù)約翰-斯圖亞特·戈登(John Stewart Gordon)對(duì)道德機(jī)器的分類整理而成。參見GORDON J S,“Building moral robots:Ethical pitfalls and challenges,”Science and Engineering Ethics,2020,26(1),pp.141-157.。
表1 道德機(jī)器的四種設(shè)計(jì)路徑
第四階段是“道德完備的智能機(jī)器”,其在功能上無須人類介入,自身能夠完全地實(shí)現(xiàn)判斷、決策和行動(dòng)的過程。這一階段的智能機(jī)器在道德上被賦予了完備道德能力,能夠在道德情境中作出基于考量的道德選擇和行為,目前還只存在于科幻電影中,如《2001 太空漫游》中的HAL②HAL(型號(hào)為HAL9000)是《2001 太空漫游》中的一臺(tái)具有人工智能的高級(jí)電腦系統(tǒng),它為了執(zhí)行任務(wù),選擇“殺死”飛船中的三位科學(xué)家和二位宇航員。之所以將HAL 視為道德完備的智能機(jī)器,是因?yàn)樵诘つ釥枴さつ崽兀―aniel Dennett)看來,HAL 比一般的計(jì)算機(jī)系統(tǒng)(如“深藍(lán)”)更加完備。按照丹尼特的術(shù)語,如果“深藍(lán)”是“意向系統(tǒng)”,那么HAL 就是“高階意向系統(tǒng)”(a higher-order intentional system),即它“能夠建構(gòu)關(guān)于自身信念的信念,建構(gòu)關(guān)于自身欲望的欲望,建構(gòu)關(guān)于自身害怕或希望的信念”。參見GORDON J S,“Building moral robots:Ethical pitfalls and challenges,”Science and Engineering Ethics,2020,26(1),pp.141-157.。智能機(jī)器道德涉入程度的加深表明其在道德場(chǎng)景中起作用的程度也在加強(qiáng),這意味著智能機(jī)器有可能承擔(dān)越來越多的道德角色,因此要在其設(shè)計(jì)中嵌入道德考量。
道德風(fēng)險(xiǎn)(moral risk)指的是道德活動(dòng)或決策帶來的可能傷害。隨著智能機(jī)器道德涉入程度的加深,其引發(fā)的道德風(fēng)險(xiǎn)也在不斷擴(kuò)散。一方面,智能機(jī)器依賴于復(fù)雜的操作系統(tǒng),某個(gè)細(xì)微因素的變化就有可能導(dǎo)致整個(gè)操作系統(tǒng)的不穩(wěn)定甚至崩潰,一些黑客也有可能通過攻擊操作系統(tǒng)的某個(gè)程序來控制智能機(jī)器從事不道德的行為;另一方面,智能機(jī)器在社會(huì)中的滲透與嵌入也會(huì)引發(fā)社會(huì)脆弱性,比如就業(yè)結(jié)構(gòu)、家庭結(jié)構(gòu)、社會(huì)組織結(jié)構(gòu)等重要社會(huì)關(guān)系的結(jié)構(gòu)性調(diào)整。
此外,智能機(jī)器道德風(fēng)險(xiǎn)的擴(kuò)散還會(huì)引起關(guān)于其能否在道德意義上被接受的問題,即道德接受性(moral acceptance)。道德接受性強(qiáng)調(diào)在關(guān)于道德行動(dòng)的情境中主體是否自愿地同意、接納或贊成客體的行為,包括道德接受主體、道德接受客體以及道德接受語境這三個(gè)方面[4](621-640)?;谶@三個(gè)方面,智能機(jī)器的道德接受性可以分為客體導(dǎo)向和主體導(dǎo)向??腕w導(dǎo)向主要涉及智能機(jī)器自身的特征、智能機(jī)器的發(fā)展前景及潛在影響、與此相關(guān)的法律責(zé)任和道德責(zé)任等因素。主體導(dǎo)向主要涉及接受主體對(duì)智能機(jī)器的態(tài)度、判斷、期待、主觀動(dòng)機(jī)等方面??腕w導(dǎo)向與主體導(dǎo)向都與接受語境相關(guān),不同語境下的接受性和可接受程度是不同的。這種不同源自智能機(jī)器的道德風(fēng)險(xiǎn),而道德風(fēng)險(xiǎn)的擴(kuò)散會(huì)降低智能機(jī)器被接受的可能性。為了應(yīng)對(duì)這種情況,轉(zhuǎn)向一種道德設(shè)計(jì)的實(shí)踐路徑是必要的。以設(shè)計(jì)的方式將道德內(nèi)嵌于機(jī)器之中,使機(jī)器在有限的可能性中預(yù)防由其不確定性導(dǎo)致的道德風(fēng)險(xiǎn),能夠更好地應(yīng)對(duì)潛在的風(fēng)險(xiǎn)后果并提升其易感性(susceptibility)和回彈力(resilience)。
智能機(jī)器的道德設(shè)計(jì)是以設(shè)計(jì)的方式將道德內(nèi)嵌于機(jī)器之中。根據(jù)道德嵌入的不同程度,本文將當(dāng)前的道德設(shè)計(jì)進(jìn)路總結(jié)為“強(qiáng)進(jìn)路”與“弱進(jìn)路”?!皬?qiáng)進(jìn)路”旨在設(shè)計(jì)具有道德決策能力的智能機(jī)器(如“道德顯性的智能機(jī)器”)使其有可能成為道德行為的發(fā)起者?!叭踹M(jìn)路”則旨在設(shè)計(jì)無道德決策能力的機(jī)器(如“道德隱性的智能機(jī)器”),通過嵌入道德價(jià)值的方式使其有可能成為道德行為的承受者。這兩條道德設(shè)計(jì)進(jìn)路都面臨著能否對(duì)其責(zé)任歸因的困境,前者涉及能否將智能機(jī)器視為責(zé)任主體(the subject of responsibility),后者涉及能否將智能機(jī)器視為責(zé)任客體或責(zé)任對(duì)象(the object of responsibility)。
“強(qiáng)進(jìn)路”強(qiáng)調(diào)通過設(shè)計(jì)的方法將道德決策能力嵌入到機(jī)器之中,使其成為道德情境中行為的發(fā)起者。這種設(shè)計(jì)進(jìn)路中的智能機(jī)器也被瓦拉赫和艾倫稱為“人工道德能動(dòng)者”(Artificial Moral Agents,AMAs)[5](4)。AMAs 的設(shè)計(jì)想法來自“為機(jī)器增加倫理維度”的機(jī)器倫理,即“創(chuàng)建一類能夠遵循一種正當(dāng)?shù)膫惱碓瓌t或者一套準(zhǔn)則的機(jī)器”[6](109-114)。因此,該進(jìn)路主要關(guān)注何種道德原則或倫理標(biāo)準(zhǔn)應(yīng)當(dāng)被賦予智能機(jī)器。關(guān)于這個(gè)問題,當(dāng)前的研究相對(duì)豐富,總體上可以分為四種路徑:自下而上路徑、自上而下路徑、混合式路徑、其他路徑。不同路徑的核心釋義及其代表觀點(diǎn)詳見表1。
該進(jìn)路的核心是通過將道德原則嵌入機(jī)器算法的過程使其具備道德決策能力從而成為道德行為的發(fā)起者,它試圖讓智能機(jī)器成為道德情境中的行為主體。該進(jìn)路面臨著是否以及如何使智能機(jī)器成為責(zé)任主體的問題,換句話說,該不該讓智能機(jī)器負(fù)責(zé)?這種觀點(diǎn)比較激進(jìn),而直接承認(rèn)智能機(jī)器的責(zé)任主體地位至少要先回答以下兩個(gè)問題。
一是,作為主體承擔(dān)道德責(zé)任意味著該主體應(yīng)當(dāng)是“道德能動(dòng)者”(moral agents),那么具有道德決策能力的智能機(jī)器能否成為道德能動(dòng)者?
道德能動(dòng)者是能動(dòng)者(agents)的一個(gè)子集,能動(dòng)者指的是能夠根據(jù)其意向主動(dòng)實(shí)施某種行動(dòng)的實(shí)體或主動(dòng)的行動(dòng)者(actors)[7](35-45),而道德能動(dòng)者則強(qiáng)調(diào)該行動(dòng)處于道德情境中。具體而言,實(shí)體X 可以被認(rèn)為是道德能動(dòng)者需要滿足以下四個(gè)條件:(1)X 具有能力;(2)根據(jù)該能力,X 可以自由選擇;(3)X 審慎地考慮該做什么;(4)在實(shí)際情況中,X 能夠正確地理解并且應(yīng)用道德規(guī)則[8](19-29)。簡(jiǎn)化之,道德能動(dòng)者可以按照道德規(guī)則自由地行動(dòng)。傳統(tǒng)的哲學(xué)觀點(diǎn)(如康德哲學(xué))認(rèn)為道德能動(dòng)者只能是人,動(dòng)物、人工物、環(huán)境等非人因素都不能是道德能動(dòng)者。盡管被嵌入道德決策能力的智能機(jī)器通過程序算法同樣也展現(xiàn)出了按照道德規(guī)則自由行動(dòng)的能力,但是這里的“自由”在何種意義上與人類的自由等同仍有待澄清,因而將其視為道德能動(dòng)者的想法仍然是難以被接受的。盡管有一些主張承認(rèn)人工道德能動(dòng)者的呼吁,但這些呼吁無法解釋人工物如何作為責(zé)任主體承擔(dān)道德責(zé)任。
二是,作為主體承擔(dān)道德責(zé)任意味著該主體應(yīng)當(dāng)具有“道德自主性”(moral autonomy),那么具有道德決策能力的智能機(jī)器是否具有道德自主性?
斯蒂芬·達(dá)沃爾(Stephen Darwall)對(duì)四種自主性的區(qū)分可以回應(yīng)這個(gè)問題,即“個(gè)體自主性”(per?sonal autonomy)、“道德自主性”、“理性自主性”(rational autonomy)和“能動(dòng)自主性”(agential autono?my)[9](263-284)?!皞€(gè)體自主性”是從個(gè)人價(jià)值和個(gè)體目標(biāo)出發(fā)考慮行動(dòng)的自主性,“道德自主性”則依據(jù)道德規(guī)范和倫理準(zhǔn)則??档碌摹癮utonomy”實(shí)際上同時(shí)體現(xiàn)了這兩種自主性,即依據(jù)高級(jí)(道德)律令作出的自我決定。因此,這兩種自主性一直被認(rèn)為是人類所獨(dú)有的?!袄硇宰灾餍浴币罁?jù)的是“最重要的理由”(weightiest reason),而“能動(dòng)自主性”則依據(jù)“真正的行動(dòng)”(genuine action),根據(jù)達(dá)沃爾的解釋,這二者從某種意義上說可以通過算法賦予人工系統(tǒng)。因此,盡管對(duì)具有決策能力的智能機(jī)器而言,它們滿足實(shí)現(xiàn)理性選擇和自主行動(dòng)的條件,但也僅能體現(xiàn)理性自主性和能動(dòng)自主性,而無法體現(xiàn)使其能夠成為責(zé)任主體的道德自主性。
綜上,“強(qiáng)進(jìn)路”試圖設(shè)計(jì)一種道德機(jī)器使其成為責(zé)任主體是很有爭(zhēng)議的,如果不能清楚地解釋機(jī)器如何體現(xiàn)道德自主性并成為道德能動(dòng)者,是無法將其視為責(zé)任主體而將責(zé)任歸因于其的。
與“強(qiáng)進(jìn)路”不同,“弱進(jìn)路”并不試圖將道德決策能力“寫入”機(jī)器算法中,而是將道德價(jià)值賦予智能機(jī)器,使其有可能成為道德關(guān)懷對(duì)象。這種想法來自“為了價(jià)值的設(shè)計(jì)”(design for values)[10](27-31),通過將價(jià)值設(shè)計(jì)到技術(shù)中以使技術(shù)最大限度地符合社會(huì)大眾的價(jià)值預(yù)期。那么道德是否也可以作為一種價(jià)值被嵌入智能機(jī)器的設(shè)計(jì)之中呢?
伯特倫·馬萊(Bertram Malle)從寬泛的意義上提出了利用道德能力(moral competence)將道德價(jià)值賦予機(jī)器。道德能力的五個(gè)核心要素分別是:道德詞匯(a moral vocabulary)、道德規(guī)范(moral norms)、道德認(rèn)知和影響(moral cognition and affect)、道德決策和行動(dòng)(moral decision making and action)、道德溝通(moral communication)。把道德詞匯設(shè)計(jì)到智能機(jī)器中可以使機(jī)器構(gòu)建出對(duì)規(guī)范的概念化理解、學(xué)習(xí)和使用,如可以將“懲罰”“原諒”“訓(xùn)斥”等對(duì)違規(guī)行為的回應(yīng)設(shè)計(jì)到機(jī)器的道德詞匯中。道德規(guī)范的設(shè)計(jì)可以通過同時(shí)賦予機(jī)器規(guī)范獲?。╪orm acquisition)和規(guī)范表征(norm rep?resentation)兩種能力實(shí)現(xiàn)。賦予機(jī)器以道德認(rèn)知能力指的是使機(jī)器能夠基于分割視覺和語言的事件流識(shí)別違反道德規(guī)范的現(xiàn)象,從被分割的事件中識(shí)別出有意圖的行為,從而以反事實(shí)推理能力阻止事件的發(fā)生。為機(jī)器嵌入道德決策和行動(dòng)能力與“強(qiáng)進(jìn)路”十分相似。最后,智能機(jī)器應(yīng)當(dāng)增加道德交流的維度,即通過交流的方式來修正道德判斷和決策[11](243-256)。
該進(jìn)路的核心是通過將道德價(jià)值賦予智能機(jī)器使其成為道德情境中的行為對(duì)象而被道德關(guān)懷,該進(jìn)路面臨著是否以及如何使智能機(jī)器成為責(zé)任客體的問題,即該不該對(duì)智能機(jī)器負(fù)責(zé)?該不該關(guān)懷智能機(jī)器?這條進(jìn)路相對(duì)比較溫和,但仍然有兩個(gè)問題需要回答。
一是,將道德價(jià)值賦予智能機(jī)器,并且承認(rèn)它們是應(yīng)當(dāng)被負(fù)責(zé)的責(zé)任客體是否意味著機(jī)器真的能夠被道德關(guān)懷?
將智能機(jī)器視為道德關(guān)懷對(duì)象有一個(gè)預(yù)設(shè)的前提,即人類很容易與世界上的事物建立一種情感聯(lián)系,也很容易將某種仿佛存在的能動(dòng)性(as-ifagency)歸因于事物。比如,人們對(duì)擬人化機(jī)器人有一種天然的好感,這在理論上可以得到社會(huì)心理學(xué)家弗里茨·海德(Fritz Heider)的歸因理論(attribu?tion theory)的支持。該理論是從人自身出發(fā)解釋其對(duì)象的行為,所以是作為人類的我們決定了我們想要與作為機(jī)器的“它們”建立道德關(guān)系,那就等同于“它們”有了道德狀態(tài)。換句話說,如果我們決定將某物視為道德關(guān)懷對(duì)象去回應(yīng)它,那么就等同于該物是道德對(duì)象。這里有一個(gè)簡(jiǎn)化的關(guān)系式:我感覺X 是道德關(guān)懷對(duì)象→X 是道德關(guān)懷對(duì)象。將這個(gè)關(guān)系式置于責(zé)任框架中,則改為:我感覺X 有責(zé)任→X 有責(zé)任。但是,這個(gè)關(guān)系式顯然有待澄清,因?yàn)槿鬤 表示一支鉛筆,則該結(jié)論就顯得荒謬了。因此,承認(rèn)智能機(jī)器的責(zé)任客體地位的理由也尚不充分。
二是,將智能機(jī)器視為責(zé)任客體并納入責(zé)任考量的范圍,對(duì)機(jī)器而言有什么意義?
將智能機(jī)器視為責(zé)任客體意味著將其視為行為的承受者,并且承認(rèn)該行為將導(dǎo)致一個(gè)后果。這是將智能機(jī)器納入責(zé)任網(wǎng)絡(luò)(responsibility networks)的做法,責(zé)任網(wǎng)絡(luò)是克里斯蒂安·紐豪澤爾(Christian Neuh?user)提出的,包括六個(gè)特征:(1)規(guī)模龐大;(2)責(zé)任主體或規(guī)范標(biāo)準(zhǔn)、權(quán)限等其他相關(guān)要素難以界定;(3)責(zé)任網(wǎng)絡(luò)是在不清楚如何定義具體責(zé)任時(shí)出現(xiàn)的;(4)責(zé)任網(wǎng)絡(luò)結(jié)合了幾種不同的責(zé)任;(5)當(dāng)事人通常有不同的立場(chǎng)(例如,他們是一種責(zé)任的主體,但卻是另一種責(zé)任的客體);(6)責(zé)任網(wǎng)絡(luò)中的關(guān)系元素經(jīng)常重疊[12](269-286)。紐豪澤爾的責(zé)任網(wǎng)絡(luò)將關(guān)涉某行為的所有利益相關(guān)者都納入其中,這當(dāng)然也包含了智能機(jī)器。在責(zé)任網(wǎng)絡(luò)中,智能機(jī)器是作為責(zé)任客體被納入的,并且是一個(gè)應(yīng)當(dāng)被道德關(guān)懷的對(duì)象。這里的論證依據(jù)是智能機(jī)器作為人類道德世界的一部分且在道德上值得考慮,因此就是責(zé)任網(wǎng)絡(luò)中的道德關(guān)懷對(duì)象。但是,通過將智能機(jī)器納入責(zé)任網(wǎng)絡(luò)的方式承認(rèn)其責(zé)任客體的地位對(duì)于機(jī)器自身而言究竟有什么意義?如果不能合理地回答這個(gè)問題,那么這種論證就僅是隱喻意義上的。
總的看來,“弱進(jìn)路”相對(duì)柔和,僅主張智能機(jī)器應(yīng)當(dāng)是被負(fù)責(zé)任的對(duì)象,但該進(jìn)路也尚未澄清對(duì)其負(fù)責(zé)和道德關(guān)懷究竟意味著什么,因而將智能機(jī)器視為責(zé)任客體而對(duì)其責(zé)任歸因的理由也是不充分的。
上述兩條道德設(shè)計(jì)進(jìn)路都試圖對(duì)智能機(jī)器進(jìn)行責(zé)任歸因,“強(qiáng)進(jìn)路”試圖回答“該不該讓智能機(jī)器負(fù)責(zé)”,而“弱進(jìn)路”則試圖回答“該不該對(duì)智能機(jī)器負(fù)責(zé)”。然而,這兩條進(jìn)路都遇到了困難,前者無法解釋智能機(jī)器如何具備道德自主性和道德能動(dòng)性以負(fù)責(zé),而后者也無法解釋對(duì)智能機(jī)器負(fù)責(zé)任究竟有什么意義。在本文看來,這些困難在于把目光置于智能機(jī)器本身,更關(guān)注作為設(shè)計(jì)產(chǎn)品的機(jī)器,在一定程度上忽視了設(shè)計(jì)中的智能機(jī)器與人之間的交互關(guān)系。本文提出一種道德交互設(shè)計(jì)理念,以人與智能機(jī)器的設(shè)計(jì)關(guān)系作為框架來理解責(zé)任。道德設(shè)計(jì)的責(zé)任歸因應(yīng)當(dāng)是人與智能機(jī)器的交互關(guān)系,而責(zé)任歸因的目的也在于更好地塑造智能機(jī)器與人的交互關(guān)系。
交互設(shè)計(jì)是設(shè)計(jì)活動(dòng)中的一個(gè)重要方向,通過不同的形式促成人與機(jī)器之間的交流互動(dòng)。隨著交互模型的優(yōu)化,交互設(shè)計(jì)也呈現(xiàn)出從“輸入—反饋”的單向關(guān)系到“推薦—選擇”的雙向關(guān)系的變化。正是基于這種變化,本文提出一種道德交互設(shè)計(jì)的理念。該理念指的是在人機(jī)交互過程中實(shí)現(xiàn)道德設(shè)計(jì),強(qiáng)調(diào)人與智能機(jī)器之間的道德信息交換,人為智能機(jī)器提供可計(jì)算的道德理論,智能機(jī)器為人提供計(jì)算過程和可供選擇的計(jì)算結(jié)果,在人和智能機(jī)器的互動(dòng)過程中實(shí)現(xiàn)一種“推薦—選擇”的道德設(shè)計(jì)。這既不是簡(jiǎn)單地為智能機(jī)器輸入固定的道德理論,也不是人被動(dòng)地接受智能機(jī)器的道德輸出,而是在人與智能機(jī)器的動(dòng)態(tài)關(guān)系中實(shí)現(xiàn)道德設(shè)計(jì),如通過設(shè)計(jì)一些動(dòng)態(tài)情境使智能機(jī)器獲得關(guān)于情境的敏感性,從而在道德行動(dòng)中提供恰當(dāng)?shù)妮o助。智能機(jī)器需要“處于”這樣一個(gè)交互情境中,以促成道德行為,這是因?yàn)椤暗赖滦袨槭且粋€(gè)主體間動(dòng)態(tài)的交互過程”[13](104-116)。
這種貫穿在人機(jī)交互過程中的道德設(shè)計(jì)也許能夠回應(yīng)上面提及的責(zé)任歸因困境,其回應(yīng)方法是不再將責(zé)任歸因于作為實(shí)體的智能機(jī)器(無論是責(zé)任主體歸因還是責(zé)任客體歸因),而是將責(zé)任歸因于人與智能機(jī)器的交互關(guān)系,因?yàn)椤埃圬?zé)任]主體不再是感知者或觀察者,而是一個(gè)積極與環(huán)境聯(lián)系的行為者”[14](50)。這種思路的核心就在于以人機(jī)之間的動(dòng)態(tài)關(guān)系來應(yīng)對(duì)道德分歧(moral disagree?ment)[15](591-608),因?yàn)楸M管人們?cè)谔囟ǖ牡赖吕碚撋洗嬖诜制纾麄兛梢栽诹己玫赖滦袨榈睦由线_(dá)成一致,雖然在面臨道德困境時(shí),彼此的道德判斷有可能會(huì)大相徑庭[16](2105-2108)。
本文所提出的道德交互設(shè)計(jì)是一種設(shè)計(jì)理念,是為了回應(yīng)現(xiàn)有道德設(shè)計(jì)進(jìn)路的責(zé)任困境,目前還未有成熟案例。不過,從技術(shù)上嘗試基于人機(jī)交互的設(shè)計(jì)有很多種方法,比如機(jī)器人專家羅德尼·布魯克斯(Rodney Brooks)設(shè)計(jì)的情境機(jī)器人,因其具身化特征可以與它所處的環(huán)境相互作用?;谇榫趁舾行缘牡赖聭?yīng)當(dāng)是在人機(jī)交互的過程中生成的,這種嘗試為道德交互設(shè)計(jì)提供了方法論層面的可能性,即通過交互設(shè)計(jì)的方法將道德嵌入機(jī)器,使機(jī)器在與人互動(dòng)的過程中實(shí)現(xiàn)道德選擇和道德生成。
道德交互設(shè)計(jì)理念對(duì)責(zé)任歸因困境的回應(yīng)在于將傳統(tǒng)的基于主客二分的實(shí)體性責(zé)任重構(gòu)為基于關(guān)系的交互性責(zé)任。實(shí)體性責(zé)任是指將責(zé)任建立在實(shí)體上,強(qiáng)調(diào)責(zé)任主體和責(zé)任客體之間的關(guān)系。道德設(shè)計(jì)中的“強(qiáng)進(jìn)路”與“弱進(jìn)路”所涉及的責(zé)任都是這種實(shí)體性責(zé)任,將智能機(jī)器或者視為責(zé)任主體或者視為責(zé)任客體,都是在主客二分的框架下理解責(zé)任的,因而產(chǎn)生了責(zé)任歸因的困境。
實(shí)體性責(zé)任的一個(gè)理論依據(jù)是行為主義,即從可觀測(cè)行為(observable performance)出發(fā)判定行為中的責(zé)任。約翰·達(dá)納赫(John Danaher)提出了“倫理行為主義”(Ethical Behaviourism)來論證機(jī)器人的道德責(zé)任歸因。他的論證結(jié)構(gòu)是:
(1)如果一個(gè)機(jī)器人在行為上大致等同于另一個(gè)被廣泛認(rèn)為具有重要道德地位的實(shí)體,那么為機(jī)器人提供同樣的地位是正確和適當(dāng)?shù)模?/p>
(2)機(jī)器人可以大致等同于其他實(shí)體,人們普遍認(rèn)為,這些實(shí)體具有重要的道德地位;
(3)因此,賦予機(jī)器人重要的道德地位是正確和恰當(dāng)?shù)?。?7](2023-2049)
有意思的是,行為主義在20 世紀(jì)70 年代左右就已經(jīng)受到了抨擊,因?yàn)樗荒芙忉寖?nèi)在的心理活動(dòng),那么為什么在當(dāng)前的機(jī)器人倫理討論中又一次被提出來了呢?[18](1-9)達(dá)納赫的解釋是“倫理行為主義論證了一個(gè)可靠的認(rèn)知基礎(chǔ)或保證——相信我們對(duì)其他實(shí)體負(fù)有責(zé)任和義務(wù)——可以在可觀察到的行為關(guān)系和對(duì)我們(以及周圍環(huán)境)的反應(yīng)中找到”[17](2028)。倫理行為主義的建議是有價(jià)值的,因?yàn)橹悄軝C(jī)器的外在行為表現(xiàn)可以直接決定其責(zé)任分配,但是這更多地表現(xiàn)為法律責(zé)任、經(jīng)濟(jì)責(zé)任等外在責(zé)任關(guān)系,而不是道德責(zé)任這種必須涉及內(nèi)在心理活動(dòng)的責(zé)任關(guān)系。因此,本文建議在吸納倫理行為主義合理成分的基礎(chǔ)上,轉(zhuǎn)回對(duì)基于關(guān)系的交互性責(zé)任的尋求以化解責(zé)任歸因困境。
責(zé)任本就是一種關(guān)系性存在,但是這種關(guān)系是一種外在的關(guān)系,即主客二分的關(guān)系。本文所提倡的交互性責(zé)任建立在主體間的交互關(guān)系上,表現(xiàn)為一種內(nèi)在的關(guān)系,即動(dòng)態(tài)的、生成性的責(zé)任。道德交互設(shè)計(jì)理念所涉及的責(zé)任更多地表現(xiàn)為這種交互性責(zé)任,即在這種動(dòng)態(tài)生成的交互關(guān)系中理解人與智能機(jī)器的責(zé)任。交互性責(zé)任有兩個(gè)特點(diǎn):一方面,責(zé)任主體和責(zé)任客體既不是一元的也不是自足的,而是與其他人類和非人類相互作用的主體或客體;另一方面,責(zé)任產(chǎn)生于與人類和非人類的互動(dòng)中,由人類和非人類共同構(gòu)成的“主體—客體”的框架來承擔(dān)。艾倫·漢森(Allan Hanson)的聯(lián)合責(zé)任(joint responsibility)就是一種基于延展能動(dòng)性(extended agency)和交互能動(dòng)性(interaction agency)的責(zé)任類型。在漢森的責(zé)任框架中,責(zé)任不是作為屬性或特性,而是作為“主體—客體”之間的交互作用和聯(lián)結(jié)方式[19](91-99)。道德交互設(shè)計(jì)理念將責(zé)任視為一種交互性責(zé)任,將責(zé)任置于動(dòng)態(tài)的交互環(huán)境中并將其歸因于人機(jī)交互關(guān)系。需要說明的是,在交互性責(zé)任的歸因問題上,不是對(duì)已發(fā)生事件的懲罰性追責(zé),而是對(duì)尚未發(fā)生事件的預(yù)防性責(zé)任,它不是一種后置責(zé)任而是一種前置責(zé)任。
智能機(jī)器的蓬勃發(fā)展帶來了諸多問題,其中的責(zé)任問題尤為顯著。通過設(shè)計(jì)的方式將道德嵌入智能機(jī)器的做法在一定程度上得到了認(rèn)可,但是隨之而來的責(zé)任困境尚未得到普遍關(guān)注。無論是“強(qiáng)進(jìn)路”引出的“該不該讓智能機(jī)器負(fù)責(zé)”還是“弱進(jìn)路”引出的“該不該對(duì)智能機(jī)器負(fù)責(zé)”,都是在尋求一種基于主客二分的實(shí)體性責(zé)任。本文提出一種道德交互設(shè)計(jì)理念,構(gòu)想在人機(jī)交互過程中實(shí)現(xiàn)道德設(shè)計(jì)。該設(shè)計(jì)理念下的責(zé)任將呈現(xiàn)為一種動(dòng)態(tài)的、生成的交互性責(zé)任。這種預(yù)防性的前置責(zé)任方式將有助于跨越“責(zé)任鴻溝”,從而實(shí)現(xiàn)人機(jī)交互過程中的責(zé)任歸因。這種構(gòu)想只是一次新的嘗試,希望能夠?qū)θ藱C(jī)之間的責(zé)任歸因提供新的解釋思路。但無論如何,解決人機(jī)之間責(zé)任問題的構(gòu)想和解析都將有助于建構(gòu)未來的人機(jī)共生社會(huì)。