摘要:隨著信息技術(shù)的不斷智能化發(fā)展,機(jī)器人的發(fā)展取得了一系列的重大突破,從執(zhí)行簡(jiǎn)單指令到以深度學(xué)習(xí)為核心,機(jī)器人成為時(shí)代進(jìn)一步發(fā)展的強(qiáng)大動(dòng)力。隨著其使用范圍不停地?cái)U(kuò)大和深入,機(jī)器人也日益與人類(lèi)關(guān)系密切。出于對(duì)人身安全的考慮,人類(lèi)也開(kāi)始反思和重視機(jī)器人的道德倫理問(wèn)題。本文通過(guò)對(duì)機(jī)器人道德倫理的發(fā)展及其未來(lái)進(jìn)行分析闡述,以期可以讓讀者對(duì)機(jī)器人道德倫理有更加深刻、更加全面的認(rèn)識(shí)。
關(guān)鍵詞:人工智能? 機(jī)器人 ?道德倫理
中圖分類(lèi)號(hào):G644
一、機(jī)器人道德倫理的早期設(shè)想
機(jī)器人“Robot”是由捷克語(yǔ)“Robota”改編而來(lái),“Robota”是指“強(qiáng)制性勞動(dòng)”或“奴隸”,即只會(huì)從事繁重作業(yè)而不會(huì)感到勞累的機(jī)器,由此“Robot”才正式作為專(zhuān)業(yè)術(shù)語(yǔ)被人加以引用[1]。
機(jī)器人的早期出現(xiàn)是為了減少戰(zhàn)場(chǎng)上不必要的人員傷亡,而戰(zhàn)爭(zhēng)后,工業(yè)革命的接連發(fā)生致使機(jī)器人成為工廠進(jìn)行作業(yè)的主力,近年來(lái)信息技術(shù)不斷的智能化使得機(jī)器人在更多的領(lǐng)域之中使用。在機(jī)器人快速發(fā)展的同時(shí),人類(lèi)也對(duì)機(jī)器人產(chǎn)生了擔(dān)憂——機(jī)器人是否會(huì)威脅到人類(lèi)的生存。
1942年阿西莫夫在《環(huán)舞》中首次提出“機(jī)器人三大定律”[2],試圖以此來(lái)規(guī)范和約束機(jī)器人的行為:
1.機(jī)器人不能對(duì)人類(lèi)的生命安全造成傷害,或者間接讓任何人受到傷害。
2.機(jī)器人必須服從人類(lèi)的命令,除非該命令傷害到人類(lèi);
3.機(jī)器人必須對(duì)自己的生存負(fù)責(zé),條件是不與前兩條法則矛盾。
阿西莫夫在這之后又補(bǔ)充了第零定律:“機(jī)器人必須確保人類(lèi)的整體利益不受到傷害,這一條件優(yōu)先于其他三條法則”。
阿西莫夫的機(jī)器人三大法則是簡(jiǎn)單的關(guān)系原則,它的運(yùn)行依靠高度理性的力量,認(rèn)為守法即正義,違法即邪惡。他率先定義了機(jī)器人道德倫理,嚴(yán)格來(lái)說(shuō)是對(duì)機(jī)器人的道德倫理要求,把機(jī)器人設(shè)想成在康德意義上的道德生物。不違背三大定律的機(jī)器人,都有高度的自我約束意識(shí)和道德自律能力。
阿西莫夫提到的“機(jī)器人三大定律”直到現(xiàn)在仍被使用。而1979年發(fā)生的工人試圖從倉(cāng)庫(kù)取回一些零件而被機(jī)器人殺死;和1981年一個(gè)日本維修工人在進(jìn)行機(jī)器維修的時(shí)而被機(jī)器人殺死[3]的事件,致使更多科學(xué)家開(kāi)始研究如何避免機(jī)器誤傷人事件的發(fā)生,并在研究中開(kāi)始進(jìn)一步思考是否應(yīng)該對(duì)機(jī)器人進(jìn)行道德倫理建構(gòu)。
二、目前機(jī)器人道德倫理的三種理論進(jìn)路
隨著科技和機(jī)器人技術(shù)的發(fā)展,機(jī)器人系統(tǒng)也日趨復(fù)雜,而這種復(fù)雜性要求機(jī)器人系統(tǒng)自身可以做出道德決策,即通過(guò)“倫理子程序”來(lái)程序化,而科學(xué)家將這稱(chēng)之為人工道德智能體(AMAs)。
但是,針對(duì)機(jī)器是否應(yīng)該具有道德,即人工道德智能體的建設(shè)有無(wú)必要性這一點(diǎn)科學(xué)界仍在進(jìn)行探討,同時(shí)也探討在理論上如何有可能的構(gòu)建人工道德智能體。耶魯大學(xué)教授溫爾德·瓦拉赫和著名認(rèn)知哲學(xué)家科林·艾倫一同創(chuàng)作的《道德機(jī)器: 如何讓機(jī)器人明辨是非》一書(shū),從理論上探討機(jī)器人倫理設(shè)計(jì)最具影響力的成果,他們把人工道德智能體的設(shè)計(jì)進(jìn)路分為自上而下、自下而上和混合進(jìn)路三種[4]。
一般而言,自上而下式進(jìn)路是指在構(gòu)建人工道德智能體應(yīng)該選取一個(gè)倫理理論,如道義論或功利主義,在計(jì)算機(jī)程序中分析實(shí)現(xiàn)這一理論在信息和程序上的必要條件,接著把分析應(yīng)用到設(shè)計(jì)子系統(tǒng)和它們相互之間聯(lián)系的方式上,因此在最初,科學(xué)家們對(duì)于機(jī)器人道德倫理的研究通常集中于自上而下的規(guī)范、標(biāo)準(zhǔn)和對(duì)道德判斷的理論進(jìn)路。自上而下式進(jìn)路不僅凸顯了倫理價(jià)值的重要性,也能夠幫助道德智能體辨明模糊的道德直覺(jué)方面。但是自上而下式進(jìn)路也有其缺陷,一是很難辨別究竟是什么樣的更為具體的規(guī)則或準(zhǔn)則才能得到人類(lèi)的一致認(rèn)可,另是人類(lèi)也不可能計(jì)算出所有的可能,因此為人工道德智能體打造一套明確的自上而下的規(guī)則是行不通的。
自下而上式進(jìn)路是基于進(jìn)化與發(fā)展的觀點(diǎn)提出的,其重點(diǎn)是將行為體置于一個(gè)特定的環(huán)境中,而行為體在這其中可以像人一樣進(jìn)行學(xué)習(xí),并進(jìn)一步發(fā)現(xiàn)或構(gòu)建倫理原則,而不是如自上而下式進(jìn)路一般直接定義了什么是道德。自上而下式進(jìn)路在培育智能體的隱含價(jià)值觀上表現(xiàn)的更為直接,這種通過(guò)自下而上的發(fā)展方式更能反映出行為體具體的因果決定因素。因此自下而上式進(jìn)路要求人工道德智能體能夠進(jìn)行自我發(fā)展,而發(fā)展則是一個(gè)漫長(zhǎng)和反復(fù)的過(guò)程。但是這種進(jìn)路也存在某種缺陷,一是這一進(jìn)路也許缺乏安全性,如讓系統(tǒng)處于道德倫理自上而下的引導(dǎo)下;二是這種自下而上的進(jìn)化進(jìn)路似乎也是人類(lèi)負(fù)擔(dān)不起的奢侈。
從上述看,自上而下和自下而上兩種進(jìn)路都具有明顯的劣勢(shì),都不足以解決目前所面臨的問(wèn)題,因此溫爾德和科林便提出了第三種進(jìn)路——混合式進(jìn)路。
工程師們對(duì)于復(fù)雜任務(wù),通常都是從自上而下式的分析開(kāi)始,去指導(dǎo)自下而上式地組織模塊。因此自上而下進(jìn)路與自下而上進(jìn)路的相互作用稱(chēng)之為混合式進(jìn)路,而如何將這兩個(gè)進(jìn)路統(tǒng)一起來(lái)則成為科學(xué)家們思考的一個(gè)問(wèn)題,在亞里士多德教誨中我們可以找到解決問(wèn)題的關(guān)鍵,倫理美德與實(shí)踐智慧和智識(shí)美德,他認(rèn)為,智識(shí)美德是可學(xué)習(xí)的,但是倫理美德卻需要通過(guò)習(xí)慣養(yǎng)成和實(shí)踐練習(xí),這就意味著將不同的美德安置在人工道德智能體上可能需要不同的方式。
溫爾德和科林提出的構(gòu)建人工道德智能體的混合式理論進(jìn)路在軍事界也受到廣泛關(guān)注,如在國(guó)外的《自主軍用機(jī)器人: 風(fēng)險(xiǎn)、倫理與設(shè)計(jì)》這一報(bào)告中,就提出應(yīng)該采用這一進(jìn)路來(lái)設(shè)計(jì)軍用機(jī)器人[5]。
三、對(duì)機(jī)器人道德倫理的未來(lái)設(shè)想
自上而下進(jìn)路、自下而上進(jìn)路和混合式進(jìn)路都是在理論上描述該如何設(shè)計(jì)人工道德智能體,但是沒(méi)有任何人知道該如何去實(shí)現(xiàn)它。
根據(jù)理論上的三種進(jìn)路,研究人員也提出了在實(shí)際中應(yīng)該如何設(shè)計(jì)道德軟件的三條一般進(jìn)路[6],也許可能不止是三條進(jìn)路,但是,在已經(jīng)開(kāi)始的現(xiàn)實(shí)的編程工作中,就只采用了以下三條進(jìn)路:
一是基于邏輯的進(jìn)路,它試圖提供一個(gè)數(shù)學(xué)上嚴(yán)格的框架來(lái)模擬理性智能體的道德推理;
二是基于案例的進(jìn)路,從道德或不道德的行為事例中探索各種推理或?qū)W習(xí)道德行為的方式;
三是多智能體進(jìn)路,則研究當(dāng)遵循不同倫理策略的智能體相互作用時(shí)都會(huì)發(fā)生什么。
由于道德軟件正處于起步階段,為了更進(jìn)一步的發(fā)展,我們也應(yīng)該將感性方面的社交性、意識(shí)和情感等考慮到人工道德智能體的軟件設(shè)計(jì)中。也只有理性與感性的結(jié)合才能設(shè)計(jì)出更像人的人工道德智能體,這也將是未來(lái)機(jī)器人的道德倫理所發(fā)展的方向。
參考文獻(xiàn)
[1]曾艷濤.機(jī)器人的前世今生[J].機(jī)器人技術(shù)與應(yīng)用,2012(02):1-5.
[2]張雪嬌. 阿西莫夫?qū)C(jī)器人世界的倫理凝視[D].華中師范大學(xué),2015.
[3]王東浩. 機(jī)器人倫理問(wèn)題研究[D].南開(kāi)大學(xué),2014.
[4]杜嚴(yán)勇.機(jī)器人倫理設(shè)計(jì)進(jìn)路及其評(píng)價(jià)[J].哲學(xué)動(dòng)態(tài),2017(09):84-91.
[5]Patrick Lin,George Bekey,Keith Abney,Autonomous Military Robotics: Risk, Ethics and Design, http://ethics. calpoly. edu /onr report. pdf.
[6]Wendell Wallach,Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford 90 University Press,2009.
作者簡(jiǎn)介:張彤(1995- ),女,陜西寶雞人,武漢理工大學(xué)哲學(xué)系在讀碩士。