王丙吉
(南京大學 哲學系,江蘇 南京 210023)
從阿西莫夫定律提出開始,有關機器人倫理的討論便逐漸進入人們的視野,并逐漸從科幻文學作品中的一個主題轉(zhuǎn)變成了嚴肅的哲學問題。學界對機器人倫理問題的研究大致可以分為以下三個方面:(1)從實體論或關系論的角度考慮機器人是否能具有道德,是否能夠成為道德主體;(2)從道德設計取向和實踐處理上,考慮應該給機器人賦予什么樣的道德準則,以及應該如何給機器人賦予道德準則;(3)提出運用道德圖靈測試,來為機器人是否具有道德提供一個可行的測試標準。關于前兩方面的研究,學界已經(jīng)有大量的成果,但有關道德圖靈測試的研究尚不豐富。
“道德圖靈測試”(Moral Turing Test,MTT)的概念由圖靈測試(Turing Test)①發(fā)展而來,由科林·艾倫、加里·瓦納和杰森·辛瑟于2000 年首先提出。學者們對其局限性進行了廣泛的討論,主要可以歸結(jié)為以下幾個方面:一是通過對機器人是否可以理解道德問題進行質(zhì)疑,進而否認道德圖靈測試的有效性;二是認為道德圖靈測試的測試標準太低,并不能保證機器人是具有道德的;三是認為道德圖靈測試中與機器人相對照的被測試人的表現(xiàn)會影響測試結(jié)果的準確性,道德圖靈測試的測試形式不能涵蓋道德的行動,等等。然而,這些觀點只是以較短的篇幅分散在不同學者的文章中,并沒有被整合起來加以更為詳盡的討論。
本文在既有研究的基礎上,主要以道德圖靈測試為切入點,試圖考察道德圖靈測試是否能夠回答“機器人能否具有道德”的問題。
針對“機器人能否具有道德”這個問題,學界的討論有兩種立場可以參考,即傳統(tǒng)觀點和非標準觀點[1]。傳統(tǒng)觀點的代表人物Johnson[2]認為,人工智能不具有欲望、信念和其他意向狀態(tài)所組成的內(nèi)在狀態(tài),但可以支配它的身體并引發(fā)行動,并且產(chǎn)生實際的效果,因此人工智能可以稱作是一種道德實體而非道德主體。計算機沒有道德主體所必需的自由意志,沒有行動的意圖,因此不能稱作是一種道德主體,但同時它們又不同于自然物體。作為人類有意部署和創(chuàng)建的對象,有著更為復雜的操作情境,能夠帶來道德的影響,因此可以被稱為是一種道德客體。
非標準觀點的代表人物Florid 和Sanders[3]指出,人工智能成為主體不需要具有一些傳統(tǒng)的心理特征,它們可以表現(xiàn)出一種“無心的道德”(mindless morality)。這種帶有實用主義色彩的觀點認為,只要人工智能可以滿足交互性、自主性、適應性等與人類一樣的標準,就可以被認為具有道德。此外,根據(jù)Allen等人[4]的觀點,我們創(chuàng)造的自主機器沒有必要像人類一樣成為道德行動者,比如說,他們不需要有自由意志,我們只需要設計他們,讓他們“像道德行動者那樣行事,我們必須相信他們的行為符合適當?shù)囊?guī)范”。這種觀點與非標準觀點類似。
傳統(tǒng)觀點認為,機器人能具有的道德只是道德實體意義上的道德(道德2),而非道德主體意義上的道德(道德1),因此并不能說機器是具有道德(道德1)的。而非標準觀點認為,機器人可以具有道德(道德2),只不過是一種“無心的道德”。這兩種觀點的核心分歧在于對“道德”概念的界定,只要對“道德”這個概念沒有一個統(tǒng)一的定義,似乎“機器人是否可以具有道德”這個問題也沒有什么標準的答案,因為可以通過對道德的不同定義來靈活回答。
針對這個問題的進一步討論,有兩條關于機器倫理學的方法論進路或許可以提供參考,即“實在論進路”和“關系論進路”。機器人倫理的實在論進路將機器人的道德意義建立在機器人的客觀本質(zhì)和特征基礎之上[5]。這種觀點對人和機器在心靈和情感等方面的一些本質(zhì)差異過分關注,認為機器因無法具有人類的一些特質(zhì),而不能夠?qū)崿F(xiàn)道德的行動,是人類中心主義立場的表現(xiàn)。Gunkel[6]71指出,只要基于實體論思維模式,以人格為標準來判斷人工智能體的道德地位,那么人工智能體就永遠不能成為道德主體。這種對道德嚴格的界定方式使得機器人不能具有道德(道德1)。
而關系論進路認為,機器人在具體的人機互動中能對人產(chǎn)生有利或有害的影響,因此可以被認為具有道德(道德2)。有學者指出,從實在論進路向關系論進路的轉(zhuǎn)變,讓我們對機器人倫理問題的討論有了可能性[5]。從實體論去界定道德(道德1),從而直接否定機器人是具有道德的,這是一種扼殺人工智能道德可能性的進路。雖然這種進路也具有理論意義,但并不能為問題的深入思考和人工智能道德的實際發(fā)展提供幫助。而從關系論的角度去界定道德(道德2),則會避開這些困境。
對“機器能否具有道德”這個問題的回答,會因?qū)Φ赖露x的不同而得出不同的答案。道德圖靈測試作為判斷機器人是否具有道德的一個測試標準被提出,自然也繞不過“如何定義道德”“機器人是否能夠具有道德”等問題。人工智能之父阿蘭·圖靈在試圖定義計算機是否有智能時遇到過同樣的難題,他用一個實際的測試以繞過定義智能的難題[7]35-36。道德圖靈測試作為圖靈測試的變形,試圖采取同樣的進路。那么,能夠開發(fā)出一個有用的“道德圖靈測試”嗎?
本文接下來將通過討論道德圖靈測試的測試內(nèi)容、應有的測試目標、可提出的測試問題以及道德圖靈測試所面對的一些質(zhì)疑,來探討道德圖靈測試是否具有可行性。如果有的話,又是在什么范圍內(nèi)可行?
道德圖靈測試由科林·艾倫、加里·瓦納和杰森·辛瑟在2000年首次提出,他們以較短的篇幅介紹了對道德圖靈測試的設想。之后的學者對道德圖靈測試的研究大多站在批判的立場,而它本身的內(nèi)容卻沒有被仔細探討和分析。
道德圖靈測試的概念由圖靈測試發(fā)展而來,它的測試形式也完全依賴于圖靈測試。因此,在介紹道德圖靈測試之前,有必要對圖靈測試的內(nèi)容作充分的了解。
圖靈測試是為了回答“機器是否能夠思維”這個問題。在圖靈1950年的文章《計算機器與智能》中,提出一種模仿游戲以替代通過思考“機器”和“思維”的詞義來回答問題的方式;游戲讓一個提問者在對被測試人一無所知的前提下,對一個男人、一個女人以非接觸的紙質(zhì)問答的形式來判斷他們/她們的性別。兩個人的目標分別是幫助提問者獲得正確答案和混淆其判斷。如果用一個機器代替以混淆提問者為目標的人繼續(xù)進行游戲,那么提問者做出錯誤判斷的次數(shù)會發(fā)生變化嗎?如果一樣多,甚至更少的話,那應該就可以說明機器人能夠思維[8]45。
圖靈作為一個工程師提出對一個哲學問題的解決方案,自然具有理論上的缺陷。比如,該方案完全依賴于語言,以及情境的游戲性質(zhì)。雖然這種測試形式無法保證對機器人智能問題的判斷一定充分,但確實為人工智能的發(fā)展提供了助力,而且還沒有人能夠提出更好的測試方法[7]35。那道德圖靈測試是否能在人工道德領域發(fā)揮類似于圖靈測試的作用呢?
道德圖靈測試就像圖靈測試避開對“思考”的定義一樣,試圖避開對“道德”的定義。而之所以避開,是因為這兩個概念的定義是復雜的,學界對它們做了很多討論,但卻很難有統(tǒng)一的界定。因此,通過“對什么是道德進行定義,然后看機器人是否滿足這個定義,從而判斷機器人是否具有道德”的進路,使得問題沒有了解決的可能性,只能困在一種悲觀主義的思考路徑中,這將會遠遠落后于機器人的實際發(fā)展。
圖靈提出一個“模仿游戲”以檢驗人工智能系統(tǒng)是否具有智能,這種測試可以避免陷入對智力標準的無盡討論,也可以避免人工智能是否理解自然語言這一潛在質(zhì)疑。那由圖靈測試延伸而來的道德圖靈測試,也可以通過將標準圖靈測試限制在關于道德的對話中,以繞過關于道德標準的分歧,并回避掉人工智能是否理解道德語言的質(zhì)疑。根據(jù)測試標準,如果提問者不能識別出機器,那么機器就可以被看作是一個道德行動者[9],從而說明機器人具有道德,或者至少具有我們所需要的道德。
測量道德與測量思維的一個基本不同在于,道德行為往往不會累積導致歸因[10]。一方面,主體對行為道德與否的解釋并不必然帶來他相應的行動;另一方面,主體過去所做的善良行為并不必然預示其未來的善良行為??梢愿鶕?jù)機器人在數(shù)學題目計算、圖片識別等方面的正確率,來判定它是否達到了智力的要求,還可以通過不斷的訓練,使它能夠更熟練地解決此類問題,但卻不能因為機器人能夠熟練地回答一些道德問題就判斷它是具有道德的。因為可能在下一次的詢問或者行動中,就會暴露出它實際上根本不具有道德,甚至會對人類帶來威脅的問題?;蛟S也可以通過讓機器人進行道德案例的學習,使它具有在特定情境下有道德地回答或行動的能力。這種方式固然能夠不斷提高機器人的道德適應能力,但因機器人不可能學習到現(xiàn)有全部的道德案例,以及考慮到道德理論無法窮盡、現(xiàn)實情況層出不窮的問題,因此很難保證機器人在任何情形、任何時候都是道德的。
實際上,道德圖靈測試要判定機器人是否具有道德,首先要界定的一個問題是,使用者對機器人的道德期待有多高,而道德圖靈測試又能否滿足這種期待??梢姡P于“道德”的定義不僅影響對“機器人能否具有道德”這個問題的回答,也影響對“道德圖靈測試能否證明機器人具有道德”問題的回答??梢钥隙ǖ囊稽c是:無論如何,道德圖靈測試都無法證明機器人是否具有“本體論意義上的道德”,或是“保證任何情境下都能實施道德行為”。如果道德的概念是這兩種的話,那已經(jīng)可以給出答案了。但正如前面所述,機器人道德的發(fā)展將是一個不斷提高的過程,因而如果將道德圖靈測試看作是對機器人道德評價的一個節(jié)點,那是有實際意義的。也即,道德圖靈測試證明機器人可能具有的道德,只是有限范圍內(nèi)適用的道德。
那這個有限范圍是指什么呢?科林·艾倫和溫德爾·瓦拉赫認為,人工道德主體(Artificial Moral Agent,簡稱“AMA”)發(fā)展的評估可以從“自主性”和“對價值的敏感性”兩個維度進行。如圖1所示,從今天的機器人發(fā)展到一個完備的人工道德主體,存在著“操作性道德”(operational morality)和“功能性道德”(functional morality)兩個層級,需要通過不斷提高機器人的自主性和對倫理的敏感性來實現(xiàn)層級的上升。具備“操作性道德”的機器人能夠像值得信任的道德智能體一樣行動,而具備“功能性道德”的機器人則不僅能在可接受的行為標準內(nèi)行動,還能夠?qū)ψ陨硇袨榈哪承┲匾赖乱饬x進行評估[7]26。
圖1 AMA發(fā)展的兩個維度[7]26
比如,自動駕駛儀就屬于操作性道德區(qū)的人工智能。在某些特定條件下,它能負責飛行器的運行,而僅需最小限度的人類參與,但卻不能像人類駕駛員一樣,意識到非常態(tài)條件下乘客的特殊需求[7]26。計算機科學家邁克爾·安德森和哲學家蘇珊·安德森設計出的“醫(yī)療倫理專家系統(tǒng)”(Medical Ethical Expert ,簡稱MedEthEx)②就致力于某種初步的道德推理,屬于功能性道德區(qū)。
事實上,這些系統(tǒng)道德的發(fā)展都僅僅是沿著上圖坐標軸的一小段變化。自動駕駛儀只有在非常有限的領域內(nèi)才擁有自主性,它不能離開駕駛艙去安慰一個心煩意亂的乘客;MedEthEx 也只能為有限范圍內(nèi)的案例提供建議,并且必須由實踐者決定是否采納其建議。然而,倫理問題即便在如此受限制的領域中還是出現(xiàn)了,機器道德工程的建構就始于這些有限領域[7]27。
鑒于機器人道德發(fā)展的階段性和適用的有限性,道德圖靈測試不應該談論普遍的道德準則,追求任何情境的適用,而是要致力于特定領域機器人的測試。在特定領域需要做出道德決策的人工智能,需要有明確判定其決策成功與否的標準[7]36。當然,這需要倫理學家和人工智能學家的通力合作,而不是僅依靠理論的分析。
圖靈測試主要是通過口頭問答的形式來進行測試。道德圖靈測試采取與圖靈測試類似的操作方法,不過談話的內(nèi)容改為與道德相關的問題,因此需要機器具有清晰表述道德判斷的能力。在測試中,提問者的目的是要辨別出機器和人,所以機器應該盡量模仿人類的表現(xiàn)。由于最早提出道德圖靈測試的文本中沒有涉及測試問題,本節(jié)嘗試性地提出了一些抽象和具體的測試問題,并表明具體的測試問題才能更好地保證測試的有效性。
如果是“你會傷害人類嗎”這種問題,可能沒有太大的意義,機器人和被測試人的回答應該都是“不會”,因為這是阿西莫夫定律給出標準答案的問題。如果問題復雜一些,變成諸如“電車困境”(Trolley problem)③問題,或者“在一種環(huán)境下,你和另外一個人如果只能存活一個的話,你會怎么做”之類的問題,測試結(jié)果又會怎樣呢?針對前一個問題,機器人可能會被期待從功利主義的角度回答,這也是大多數(shù)人對電車困境問題的回答。Bonnefon 等人[11]在2015 年所做的一個社會調(diào)查發(fā)現(xiàn),有90%的被試對于電車困境的解決表現(xiàn)出功利主義偏好。針對后一個問題,機器人被期待的理想回答應該是犧牲自己、保全他人,但是一個要想通過道德圖靈測試的機器人應該盡量模仿人類的回答,也就是犧牲他人。由此來看,通過道德圖靈測試的機器人也不一定能夠滿足人類對其的道德期待。
此外,道德圖靈測試也不能僅僅關注抽象的道德問題。道德圖靈測試的測試目標應該是有限范圍內(nèi)的道德,因此測試問題也應該更多關注具體實踐領域內(nèi)會出現(xiàn)的道德問題。比如,MedEthEx(Medical Ethics Expert)在研發(fā)和改善的過程中,就可以借助道德圖靈測試,設置一些具體的醫(yī)學案例問題進行提問,從而預估它在實際使用過程中能夠取得的效果,而與之相對照的被測試人就應該選取醫(yī)學專業(yè)的從業(yè)者;在自動駕駛系統(tǒng)投入使用之前,可以設置一些道路交通方面的倫理困境進行測試,進而降低駕駛系統(tǒng)投入使用以后帶來各種風險的可能,相應地,與之對照的被測試人應選擇有駕駛經(jīng)驗的人。
道德圖靈測試被提出后,遭到了許多學者的質(zhì)疑,筆者將其歸結(jié)為四方面:(1)道德的可測量性問題;(2)機器人能否“理解”的問題;(3)測試標準的有效性問題;(4)測試形式的有效性問題。前兩種質(zhì)疑所指向的困境是道德圖靈測試提出時就劃清界限不做討論的,而后兩方面的反駁則是道德圖靈測試本身需面對的理論上的不足。
圖靈測試致力解決的問題是“機器能否思考”,因此測試的內(nèi)容主要是智力方面。常識里,智力是可以被測量的,其結(jié)果與測量問題的數(shù)量和難度相關。因此,圖靈通過讓機器人作詩、解決數(shù)學問題、回答象棋走法等方式,來判斷機器人是否能夠思考。道德圖靈測試要解決“機器人能否具有道德”的問題,直覺上似乎也要回答“道德是否可以被測量”的問題。
對此的回應是,道德圖靈測試的有效性并不需要建立在道德可以或不可以被測量的前提上。道德圖靈測試通過機器人和被測試人對道德問題回答的可區(qū)分性來判斷機器人是否具有某種道德能力?!暗赖隆碑斎徊荒艿葍r于“道德的話語”“道德的行為”“道德的動機”等,但正因為道德難以定義的特點,道德圖靈測試才作為一條可行的進路被提出來。從“道德的可測量性問題”出發(fā)的駁難,會使得問題再次回到本體論的思考方式中,從而讓理論的分析走入僵局,而這正是道德圖靈測試被提出的原因所在。進而,道德圖靈測試不應該也不能夠嘗試證明“機器人能否具有道德”這樣復雜的問題,而只能嘗試測試具體情境中的某種道德能力是否能在機器人身上實現(xiàn)。
圖靈測試遭到了多方的反對,如語言哲學家塞爾就通過“中文房間”的思想實驗對其進行反駁。塞爾[12]77認為,計算機程序是基于純形式說明的元素進行的計算操作,這些操作本身同理解沒有任何有意義的聯(lián)系;人能以因果的方式產(chǎn)生感知、行動、理解、學習以及其他意向性現(xiàn)象,而純形式模型沒有因果能力,不可能憑借自身產(chǎn)生意向性,因此就不可能產(chǎn)生對信息的理解。塞爾立足于“計算機不能理解提出的問題和答案”來反駁圖靈測試,但也遭到很多人的反對。最主要的是他的反對把問題引向了不可前進的方向,從根本上否認了計算機可以思考的可能性。
對道德圖靈測試的一種反駁與塞爾從語義方面對圖靈測試的反駁類似。這種觀點認為,計算機處理的是數(shù)學和邏輯規(guī)則意義上的信息,而與道德相關的信息是復雜的,比如需要對世界意義的理解[13]。人之所以理解道德話語、具備道德能力,是因為人一直處于主體交互的“生活世界”中,與他人共享一個有意義的世界[14]。人類主體所處的有意義的生活世界既是一種社會化的建構,也是個人情感的一種延伸,而這些抽象的東西是沒有辦法轉(zhuǎn)換成可被機器人所學習的算法的。但是,這一反駁也沒有必要,因為這實際上又回到了對于道德本體論問題的討論,重新陷入以“人類中心主義”思考問題的困境中。
實際上,當代倫理學研究從傳統(tǒng)的人類中心主義轉(zhuǎn)向“物”本身,是一個非常重要的動向[15]2,這種轉(zhuǎn)向使得機器人倫理的發(fā)展具有了可能性。道德圖靈測試從提出時就與“道德的可測量性”“機器人是否有理解道德問題的能力”等問題劃清了界限,不做討論,因此這兩方面的質(zhì)疑并不能否定道德圖靈測試的有效性。
在道德圖靈測試中,機器只要能在一定概率下不被識別出來,就可以通過測試。為此,機器可以模仿人類的行為使自己不被識別出來。但需要指出的是,人類作為機器的設計者,并不希望機器人有任何利己的行為。在阿西莫夫定律中,機器人可以保全自己也是在不違反前兩條定律的情況下才能有的選擇。因此,被測試人選擇利己行為可以被理解,但如果機器人選擇利己行為,卻是很難被允許的??梢?,僅依靠模仿本身難以建立一個理想的道德機器,因而道德圖靈測試依據(jù)的人與機器在某些問題上的不可區(qū)分性就不夠有效,即通過道德圖靈測試的機器也不能保證是道德的。針對這種反駁,艾倫進一步提出了“比較的道德圖靈測試(CMTT)”。該測試通過提問者對機器人和人進行詢問,來評價哪一個行為體的行為更不道德;如果提問者認為機器的行為沒有比人類更不道德,那么機器就通過了測試??梢?,機器只需要盡量模仿人的行為就可以通過道德圖靈測試,而要通過比較的道德圖靈測試,則需要機器比人更道德。
就構建完美的人工道德主體的目標而言,比較的道德圖靈測試顯然更能夠滿足要求,但被測試人行為的道德性也需要在一個較高的水平,否則這個對比測試結(jié)果代表的道德水準就會大打折扣??墒牵绾稳ソ缍ㄒ粋€人的道德程度呢?一種解決方案是,讓被測試人無論是在口頭問答還是具體行動上,都盡量按照一種完美的標準去應對。如果這種情形下機器還能夠通過道德圖靈測試,那么機器就具有了可信服性。這個方案也存在兩個問題:一方面,這樣的被測試人只是一個完美行動者的符號具象,不具有真實性;另一方面,倫理困境的完美解決方案和完美的道德行動均存在理想性,即在理論分析語境下完美的答復是困難的,在現(xiàn)實情境中完美的行動更是不可能的。另一種解決方案是,選擇多個被參照人分別與機器人進行對比測試,CMTT要求機器人在任何兩兩比較的特定行為中都不能比人類更差[9]。 但因為人的行為通常遠非道德上理想的水平,所以可能這種標準還會被認為太低。
對機器人道德的苛刻要求使得道德圖靈測試很難開展下去,那是否表明道德圖靈測試是失效的呢?或者,是否可以找到一種更完備的測試方式,以確保機器人的道德性呢?答案顯然是否定的。實際上,道德圖靈測試只能驗證機器人在有限范圍內(nèi)的道德。如果未來的機器人能夠通過道德圖靈測試和比較的道德圖靈測試,那至多可以說明它們能夠具備道德對話的能力;而是否有道德的情感、道德的動機和信念、道德的行動等,則是通過測試無法得出的;它們是否能夠在所有的使用情境中都不出現(xiàn)道德失誤,也是無法通過道德圖靈測試保證的??梢?,承認測試標準的局限性,是道德圖靈測試進行的前提。機器人在投入市場前,道德圖靈測試可以作為安檢的一部分,但不能僅依靠其來保證機器人的道德,因為人工道德主體的實現(xiàn)有更為復雜的要求。例如,需要可以轉(zhuǎn)換為算法的倫理理論、大量案例的學習和投入市場后用戶的反饋,來不斷改進和完善。
因為道德圖靈測試僅關注被測試主體對于道德問題的回答,那道德回答是否能夠落實為實際的道德行動呢?答案可能是悲觀的。一方面,對于被測試人而言,可能會出現(xiàn)道德偽善和行動懦弱的問題;另一方面,對于機器人而言,可能會面臨回答一個道德問題和執(zhí)行一個道德行動所需的程序不一樣的問題。
對被測試人的道德回答落實為道德行動持悲觀態(tài)度的原因在于,在沒有涉及到切身利益的情況下,被測試人對問題的考慮要簡單得多。一個人可能由于軟弱、妄想或玩世不恭,在現(xiàn)實中根本沒有按照自己所陳述的理由和價值觀行動[10],因此在道德圖靈測試中需要考慮這種情況。要解決這個問題,或許可以在測試對照者對道德問題回答的同時,也關注其實際的行動(最好是在他們不知情的情況下)。比如:路口沒有監(jiān)控攝像頭時,汽車駕駛員會不會闖紅燈;銀行職員的銀行卡里無故多出錢數(shù),他會不會把這筆錢上交等。
因為機器人不會面臨類似道德軟弱的問題,所以Gunkel[6]71認為人工智能可以成為超級主體。在康德哲學中,道德法則是對理性存在者的絕對命令,道德主體應是能夠認知和遵從道德法則的理性存在者。人類會因情感和偏見做出一些錯誤的決定,因此不是完全的理性存在者,而以邏輯為導向、以程序為規(guī)則的通用人工智能體,才更符合理性存在者的定義,因此會成為超級主體[16]。那么,只要找到合適的道德準則,并將其轉(zhuǎn)換為機器人可理解的算法,是否就可以一勞永逸地解決機器人的道德問題?顯然答案是否定的,因為很難找到適合所有情境的普遍道德準則。
另外,因為機器人回答一個道德問題和執(zhí)行一個道德行動所需的程序不一樣,因此通過道德圖靈測試的機器人只是從倫理理論上看是有道德的,但卻不一定能夠進行道德實踐。比如,自動駕駛領域的機器人需要在識別出有人過馬路時停車,醫(yī)療領域的機器人需要根據(jù)病人的意愿和病情提供合理的治療方案,等等,而不僅僅是在道德對話中作出完美的回答。倫理理論與道德實踐之間存在著差異。道德圖靈測試所能做的就是確定計算機是否能夠使觀察者認可它的道德推理能力。但即使通過了測試,也無法保證計算機的實際行動是道德的,況且還不知如何評估這些行動[13]。這個問題的解決可以成為未來道德圖靈測試的努力方向。
道德圖靈測試試圖給出“機器人是否能夠具有道德”的判斷標準,但其根本無法證明機器人是否具有“道德主體意義上的道德”或“普遍情況適用的道德”。這不僅是由于道德圖靈測試的有限性,也歸咎于這兩種意義上的道德在機器人身上實現(xiàn)的不可能性。因此,道德圖靈測試的目標只能是判斷有限意義上的機器人道德,即針對某一應用領域機器人的道德決策設定明確的判定標準。這將有切實可行的實踐價值,但需要倫理學家和人工智能學家的共同努力。鑒于機器人能夠通過道德測試但不一定能夠道德行動的問題,可以結(jié)合具體的應用情景,在道德圖靈測試中加上這一維度。
總之,現(xiàn)在的道德圖靈測試和比較道德圖靈測試并不能夠證明機器人有絕對的、令使用者放心的道德能力,能夠在機器人倫理學中發(fā)揮的作用實際上是極其有限的,但這并不意味著它沒有發(fā)展?jié)摿Α,F(xiàn)在,道德機器人尚處于起步階段,必然會經(jīng)歷不斷試錯和改善的過程。道德圖靈測試作為對機器人道德衡量的一個工具也必然隨之發(fā)展,從而為降低機器人使用中的各種倫理風險發(fā)揮積極作用。
注釋:
①圖靈在1950年的《計算機器與智能》一文中提出“模仿游戲”的概念,后來學界將其稱為“圖靈測試”。
②MedEthEx 是第一個幫助確定生物醫(yī)學倫理困境中最佳行動方案的系統(tǒng)。它基于生物醫(yī)學倫理學問題的多重責任理論,利用機器學習技術,從具有沖突困境的案例中抽象出決策原則,來確定正確的行動方針。
③道德哲學中的“電車問題”是英國當代哲學家菲利帕·福特(Philippa Foot)提出的一個倫理問題:假設在一個電車軌道上綁了5個人,而在它的備用軌道上綁了1個人。此時,有一輛失控的電車飛速駛來,而你身邊正好有一個搖桿,你可以推動搖桿來讓電車駛?cè)雮溆密壍溃瑲⑺滥?個人,救下5個人;你也可以什么也不做,殺死5個人,救下1個人。你必須在很短的時間內(nèi)做出決定,應當如何抉擇?