亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        能將倫理準(zhǔn)則嵌入人工智能機(jī)器嗎?

        2018-05-31 09:15:22蘇令銀
        理論探索 2018年3期

        蘇令銀

        〔摘要〕 人工智能技術(shù)的發(fā)展帶來了一系列倫理問題,其中能否將人類價(jià)值觀和規(guī)范嵌入人工智能系統(tǒng),從而賦予人工智能機(jī)器以人性的光輝,成為當(dāng)前人工智能機(jī)器面臨的突出倫理問題。人工智能機(jī)器在做出倫理決策時(shí),面臨自上而下和自下而上的將倫理準(zhǔn)則嵌入人工智能機(jī)器的方法論困境。從目前來看,人們不需要也不可能把倫理準(zhǔn)則嵌入人工智能機(jī)器。為應(yīng)對人工智能機(jī)器的倫理挑戰(zhàn),我們可以采取法律規(guī)制、技術(shù)監(jiān)管、倫理建模和程序正義等綜合策略。

        〔關(guān)鍵詞〕 人工智能機(jī)器,倫理準(zhǔn)則,無人駕駛汽車,倫理選擇方法

        〔中圖分類號〕B829 〔文獻(xiàn)標(biāo)識碼〕A 〔文章編號〕1004-4175(2018)03-0038-08

        無人駕駛汽車又稱自動駕駛汽車、電腦駕駛汽車或輪式移動機(jī)器人,是一種通過電腦系統(tǒng)實(shí)現(xiàn)無人駕駛的智能汽車。無人駕駛汽車技術(shù)的研發(fā)已經(jīng)有數(shù)十年的歷史,21世紀(jì)初呈現(xiàn)出接近實(shí)用化的趨勢。谷歌無人駕駛汽車于2012年5月獲得美國首個(gè)無人駕駛車輛許可證。無人駕駛汽車依靠人工智能、視覺計(jì)算、雷達(dá)、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,讓電腦可以在沒有任何人類主動操作下自動安全地操作機(jī)動車輛。同樣國內(nèi)的一些互聯(lián)網(wǎng)公司也積極跟進(jìn), 2014年百度已經(jīng)啟動無人駕駛汽車計(jì)劃,2016年5月16日百度宣布與安徽省蕪湖市聯(lián)手打造首個(gè)全無人車運(yùn)營區(qū)域,這也是國內(nèi)第一個(gè)無人車運(yùn)營區(qū)域。根據(jù)現(xiàn)有已經(jīng)發(fā)布的各種聲明,那些配備了人工智能且已經(jīng)行駛了幾百萬英里的無人駕駛汽車能夠讓這些車自主地作決策。這些決策具有倫理和社會意義,尤其是無人駕駛汽車可能會造成嚴(yán)重傷害時(shí)。本文以無人駕駛汽車為例來初步探討人工智能機(jī)器所產(chǎn)生的倫理問題。

        一、人工智能機(jī)器帶來的倫理問題

        面對無人駕駛汽車的飛速發(fā)展,對它的爭論一直就沒有停過。支持者認(rèn)為車輛無人駕駛技術(shù)的優(yōu)點(diǎn)是使出行更安全(因?yàn)槿コ巳藶槭д`因素),緩解交通壓力,并減少環(huán)境污染。一些喜歡駕車的人認(rèn)為,駕駛會讓人感到輕松愜意,無人駕駛技術(shù)還得解決許多問題。無人駕駛技術(shù)永遠(yuǎn)是將保護(hù)車輛和車內(nèi)人員作為第一要?jiǎng)?wù)。而一個(gè)駕駛員則可能寧愿犧牲自己的車來保護(hù)他人。這些問題涉及到無人駕駛的倫理選擇、倫理風(fēng)險(xiǎn)等問題。在現(xiàn)實(shí)社會中,無人駕駛汽車和其他配備人工智能機(jī)器的廣泛應(yīng)用帶來了一系列倫理問題。

        是否應(yīng)該賦予機(jī)器倫理地位一直困擾著人工智能的倫理研究。機(jī)器人是純粹的機(jī)器,還是具有應(yīng)有的倫理地位?它們是被看作“物”,還是應(yīng)該被加入到之前被排除在外的諸如奴隸、外國人和動物等之列?倫理主體只屬于人類?或者機(jī)器能被視為倫理主體嗎?有“機(jī)器倫理”嗎?智能機(jī)器只能被看作工具嗎?它們的倫理地位是實(shí)實(shí)在在的嗎?以往的觀點(diǎn)往往伴隨著一種常識,至少當(dāng)人們被問到機(jī)器人是否具有倫理地位,大多數(shù)傾向于消極甚至否定的回答。然而,與機(jī)器人(有時(shí)是計(jì)算機(jī))互動的人們同時(shí)經(jīng)常以另外的方式提出建議。他們把機(jī)器人不是看作“物”或“純粹的機(jī)器”,而是比這些“更多”。

        人工智能機(jī)器倫理地位爭論的核心和出發(fā)點(diǎn)是關(guān)于倫理主體兩個(gè)根本不同理念之間的對立,反過來似乎也產(chǎn)生了對人工倫理主體概念完全不同的預(yù)期。這就是各自不同的所謂標(biāo)準(zhǔn)觀點(diǎn) 〔1 〕和實(shí)用主義觀點(diǎn) 〔2 〕。在某種程度上這兩個(gè)不同的變體可能有理由去爭論這些真正的沖突。然而,爭論的出發(fā)點(diǎn)是這兩種倫理主體觀點(diǎn)的一般概念首先是沖突的,而且這也為作出人工智能機(jī)器倫理地位不同的結(jié)論留下了空間。

        人工智能機(jī)器倫理地位的標(biāo)準(zhǔn)觀點(diǎn)認(rèn)為,人類倫理主體需要滿足特定的條件,如理性、自由意志或自治、非凡的意識。而實(shí)用主義的觀點(diǎn)認(rèn)為,對人工智能機(jī)器而言只需要存在某些行為和反應(yīng)就可以。有人可能會說,實(shí)用主義的觀點(diǎn)只需要模擬或展現(xiàn)行為的全部或部分標(biāo)準(zhǔn),而標(biāo)準(zhǔn)的觀點(diǎn)實(shí)際上需要全部標(biāo)準(zhǔn)。

        黛博拉·約翰遜(Johnson, D.)就是機(jī)器倫理標(biāo)準(zhǔn)觀點(diǎn)的主要支持者之一。她認(rèn)為,人工智能機(jī)器E要成為倫理主體必須具備下列條件:(1)E能夠以自己的身體引起物理事件;(2)E有一個(gè)內(nèi)在的規(guī)定I,它組成了自己的欲望、信仰和其他有意圖的規(guī)定,這些規(guī)定共同組成了E以某種方式(理性和意識)行動的原因;(3)規(guī)定I是導(dǎo)致第一個(gè)條件的直接原因;(4)條件(1)中的物理事件對倫理存在重要性的影響。當(dāng)計(jì)算機(jī)系統(tǒng)運(yùn)轉(zhuǎn)時(shí),它們的行為對表達(dá)世界其他方面產(chǎn)生影響,這些表達(dá)效果有害或有益?!? 〕 這些條件中(1)也可能是(2)保證E是一個(gè)主體。一般來說,(2)和(3)往往被我們賦予人類倫理主體的存在。條件(4)則確保一個(gè)特定情況的行為是倫理上相關(guān)的,這是一個(gè)主體成為倫理主體的關(guān)鍵。然而,沒有關(guān)于人工智能機(jī)器倫理地位這方面的進(jìn)一步爭論。約翰遜通過描述主體是如何把行為和存在區(qū)分來總結(jié)這個(gè)定位:“一切行為(人類和非人類;自愿和非自愿)都可以用其原因來解釋,但只有行動能被解釋為一系列內(nèi)部心理狀態(tài),我們才能解釋為什么一個(gè)主體的行動總是關(guān)乎他們的信仰、欲望和其他有意圖的規(guī)定?!?〔3 〕 約翰遜反對人工智能機(jī)器具有倫理地位的主要理由直接取決于條件(2)和(3)的觀點(diǎn)。人工智能機(jī)器不能成為倫理主體,因?yàn)樗鼈內(nèi)狈赡軐?dǎo)致它們行為發(fā)生的內(nèi)在心理規(guī)定。盡管它們可能從外部角度提醒人類行為表現(xiàn)出“行動”的感覺,但這些行為由于缺乏這些內(nèi)在的心理規(guī)定而無法具有倫理品質(zhì)。

        人工智能機(jī)器倫理地位實(shí)用主義觀點(diǎn)的代表人物是弗洛里迪(Floridi)和桑德斯(Sanders)。他們想要重新考慮像意識這樣的標(biāo)準(zhǔn),并主張一個(gè)“非意圖的倫理” 〔4 〕。他們的出發(fā)點(diǎn)是當(dāng)我們根據(jù)所謂的典型實(shí)例推斷一般的標(biāo)準(zhǔn)時(shí),我們所選擇的抽象程度取決于我們所選擇的抽象層次。適用于標(biāo)準(zhǔn)觀點(diǎn)的抽象級別是非常低的,保持接近成年人標(biāo)準(zhǔn),不以人類為中心對倫理主體可能會實(shí)現(xiàn),同時(shí)觀察與倫理主體基本結(jié)構(gòu)特點(diǎn)相關(guān)的一致性和相似性。弗羅里迪和桑德斯提出人工智能機(jī)器倫理地位的抽象層次。在這個(gè)層次中,人工智能機(jī)器E的倫理標(biāo)準(zhǔn):(1)交互性,E與環(huán)境互動;(2)獨(dú)立性,E有能力改變自身和它的相互作用,而不受外部條件的直接影響;(3)適應(yīng)性,E可能會基于(1)的結(jié)果而改變在(2)中的實(shí)現(xiàn)方式 〔4 〕。雖然條件(1)與標(biāo)準(zhǔn)觀點(diǎn)大致對應(yīng),但條件(2)看似與標(biāo)準(zhǔn)觀點(diǎn)中內(nèi)部精神狀態(tài)的需要有很大差異。條件(3)也是不同的,兩者都較弱,因?yàn)椴灰驟的相互作用直接由條件(2)引起,通過添加條件(1)和(2)的聯(lián)合響應(yīng),從而使得條件變得更強(qiáng)。弗洛里迪和桑德斯認(rèn)為,“隨著倫理主體概念的修正,人工智能機(jī)器的倫理地位概念規(guī)避了約翰遜所說的爭論” 〔4 〕。

        然而,正如前面提到的,人工智能機(jī)器倫理地位爭論的前景要比這兩種對立的倫理主體哲學(xué)概念的應(yīng)用更為復(fù)雜。琳達(dá)·約翰遜(Johansson, L.)提出人工智能機(jī)器具有倫理地位的標(biāo)準(zhǔn),其中包括與標(biāo)準(zhǔn)觀點(diǎn)所要求的狀態(tài)相似的精神狀態(tài),但同時(shí)也建議應(yīng)該從實(shí)用主義的角度來理解這些標(biāo)準(zhǔn)。琳達(dá)·約翰遜理解的人工智能機(jī)器需要具備辨別倫理相關(guān)信息的能力(如動機(jī)、后果等),基于這些信息作出倫理判斷,并根據(jù)這些判斷發(fā)起行動。雖然約翰遜承認(rèn)這些條件需要意識,但是她主張一個(gè)不可知論者的身心問題,因此提出了一個(gè)“虛擬”方法:凡表現(xiàn)出來的功能,通常存在相關(guān)性能力的展示。因此,雖然人工智能機(jī)器的倫理地位不是嚴(yán)格(概念上或本體論上)由這些功能決定,但它們在實(shí)踐中(從認(rèn)識論上來說)是由它們的存在所標(biāo)示。面對一臺表現(xiàn)得像倫理主體的機(jī)器,我們應(yīng)該得出結(jié)論:它是人工倫理主體,這就是我們能得到的所有理由。

        還有一種觀點(diǎn)認(rèn)為,人工智能機(jī)器的倫理地位可能會被摧毀。除了基于標(biāo)準(zhǔn)觀點(diǎn)的論據(jù)之外,琳達(dá)·約翰遜還認(rèn)為,由人工智能機(jī)器設(shè)計(jì)的特征會侵蝕一個(gè)智能的倫理體,即使它可能具有意圖性的特征或表現(xiàn)出內(nèi)在精神狀態(tài)的跡象?!盁o論將來的行為如何獨(dú)立自治和交互式計(jì)算機(jī)系統(tǒng),它們都是人類行為(直接或間接)、人類社會制度和人類決策的產(chǎn)物……計(jì)算機(jī)系統(tǒng)和其他人工物都有意向,意向嵌入他們設(shè)計(jì)師的有意識行為。人工物的意向性與它們的功能密切相關(guān)?!?〔3 〕

        弗朗西絲·S.格勞森斯基(Frances S. Grodzinsky)和同事運(yùn)用類似的觀點(diǎn),認(rèn)為沒有任何機(jī)器可以基于標(biāo)準(zhǔn)觀點(diǎn)和實(shí)用主義觀點(diǎn)聲稱這種獨(dú)立性的程度。無論故意狀態(tài)或?qū)嵱弥髁x的對應(yīng)物,可能歸因于機(jī)器,這些條件都不能與人類創(chuàng)造者完全分離開來。“如果有一個(gè)抽象層次的低等人工智能機(jī)器的倫理地位,可以將主體行為明確歸因于它的設(shè)計(jì)者,這樣的主體則不是一個(gè)倫理主體。因此,主體本質(zhì)上變成了它的設(shè)計(jì)者的延伸。顯然,該主體有可能遠(yuǎn)離最初設(shè)計(jì),并與設(shè)計(jì)人員走得很遠(yuǎn)。在這種情況下,設(shè)計(jì)、實(shí)現(xiàn)和部署軟件程序之后的某個(gè)時(shí)候,可能沒有一個(gè)抽象級別,原始設(shè)計(jì)者和實(shí)現(xiàn)者最初意圖是可以被識別的。這種情況似乎滿足了弗洛里迪和桑德斯所說的倫理主體的條件。然而,正如我們在上面所說的那樣,這種情況并不能削弱設(shè)計(jì)者的責(zé)任,在這種情況下人工智能機(jī)器的倫理地位受到了它的設(shè)計(jì)者的限制?!?〔5 〕

        如果這個(gè)論點(diǎn)有效,那么它實(shí)際上似乎對任何為人工智能機(jī)器提供空間的主張都同樣有力,不管它與標(biāo)準(zhǔn)或?qū)嵱弥髁x觀點(diǎn)有什么聯(lián)系。這個(gè)論點(diǎn)的核心似乎并不是僅僅存在于這個(gè)或那個(gè)特性(例如意圖或獨(dú)立性),而是關(guān)于這個(gè)特殊主體特征的屬性。因此,即使我們接受這樣的概念機(jī)器是有意圖的狀態(tài),或者功能取代了這些意圖狀態(tài),這些機(jī)器將屬于它的設(shè)計(jì)者(或用戶)而不是機(jī)器。同時(shí),也不確定琳達(dá)·約翰遜的認(rèn)知轉(zhuǎn)折在多大程度上也適用于此。她聲稱,只要人工智能機(jī)器相關(guān)特征的屬性與典型案例相同,我們就應(yīng)該以務(wù)實(shí)方式假定人工智能機(jī)器倫理地位的存在。

        被視為典型自主性機(jī)器的無人駕駛汽車是一種學(xué)習(xí)機(jī)器。它們依據(jù)程序收集處理信息并得出結(jié)論,并在沒有人的干預(yù)和指導(dǎo)的情況下相應(yīng)地改變它們自己的行為方式。因此,這樣一輛汽車可能被設(shè)置了一個(gè)程序,其中包含不超過速度限制的指令。只知道其他汽車不能超過這些速度限制,從而得出結(jié)論它也應(yīng)該不超過速度限制。比如,導(dǎo)致乘客死亡的特斯拉汽車在行駛過程中就是超速9英里。考慮到這些車輛可能造成傷害,研究者認(rèn)為無人駕駛汽車需要作出“錯(cuò)誤的”和“正確的”選擇。換句話說,計(jì)算機(jī)應(yīng)該被制造成或成為“明確的倫理推理者”。正如蘇珊·李·安德森和邁克爾·安德森(Susan Leigh Anderson and Michael Anderson)所指出的,“在理想的情況下,我們希望能夠信任自主機(jī)器自行作出正確的倫理決策,這就要求我們?yōu)闄C(jī)器創(chuàng)建一個(gè)倫理準(zhǔn)則框架?!?〔6 〕1許多人工智能研究人員似乎認(rèn)為,如果這些機(jī)器能夠自行作出成千上萬的信息驅(qū)動和認(rèn)知決策——何時(shí)減速,何時(shí)停止,何時(shí)避讓,等等——它們也應(yīng)該能夠作出倫理選擇。這種假設(shè)對那些認(rèn)為事實(shí)問題和倫理問題之間沒有本質(zhì)區(qū)別的人來說是特別合理的。因?yàn)樗麄冋J(rèn)為這兩者都可以視為受到理性驅(qū)動的心理過程。正像約翰·斯圖亞特·密爾曾指出的,“我們的倫理能力是我們的理性的一個(gè)分支” 〔7 〕330。總之,能夠自行作出決策的無人駕駛汽車以及其他配備了人工智能的機(jī)器似乎都需要倫理指導(dǎo)。

        二、人工智能機(jī)器倫理選擇的方法論困境

        無人駕駛汽車和其他類似的人工智能機(jī)器作出倫理選擇時(shí),需要遵循人類倫理偏好。但人工智能機(jī)器倫理選擇的兩種主要方法(自上而下與自上而下)使得無人駕駛汽車中的“電車難題”面臨新的困境。機(jī)器倫理倡導(dǎo)者主張可以通過倫理準(zhǔn)則嵌入使人工智能機(jī)器成為倫理能動者。為此,他們致力于探討將倫理準(zhǔn)則嵌入人工智能機(jī)器之中,使其通過成長性的學(xué)習(xí)培育出倫理判斷能力的可能性。自上而下和自下而上將倫理準(zhǔn)則嵌入人工智能機(jī)器被 認(rèn)為是使無人駕駛汽車或其他人工智能機(jī)器自行作出倫理選擇的主要途徑。但是這兩種途徑存在缺陷。

        (一)自上而下將倫理準(zhǔn)則嵌入人工智能機(jī)器的缺陷。自上而下方法,即在人工智能機(jī)器中預(yù)設(shè)一套可操作的倫理準(zhǔn)則,如自動駕駛汽車應(yīng)將撞車對他人造成的傷害降到最低。在自上而下方法中,倫理準(zhǔn)則是被編程到汽車的指導(dǎo)系統(tǒng)中。這些倫理準(zhǔn)則可能是阿西莫夫的“機(jī)器人三定律”、《摩西十誡》及其他宗教戒律或者一般的倫理準(zhǔn)則。比如康德的絕對命令、功利主義或結(jié)果論的某種形式。主要不是一個(gè)程序員指示汽車在特定條件下以最正確的方式行駛,汽車能夠根據(jù)植入其人工智能程序的倫理準(zhǔn)則作出倫理選擇。

        自上而下方法的批評者(以及一些支持者)認(rèn)識到,堅(jiān)持任何特定的倫理準(zhǔn)則所固有的困難。因?yàn)樵谀撤N程度上它們其中任何一個(gè)意圖都會導(dǎo)致在倫理上不可接受的行動和結(jié)果。在無人駕駛汽車方面,人們對“電車難題”的應(yīng)用給予了極大關(guān)注。就像許多學(xué)者那樣,媒體經(jīng)常把它們作為一種討論手頭問題的框架。兩個(gè)常見的例子:(1)本杰明·康斯坦特(Benjamin Constant)指出,絕對命令將迫使某人告訴殺人犯他的獵物位置,因?yàn)樵谌魏吻闆r下都禁止說謊 〔8 〕1774-1799。(2)如果遵循結(jié)果論就會得出結(jié)論認(rèn)為作為一種減少造成不可避免損失的方法,一輛汽車最好選擇撞向相鄰車道內(nèi)兩輛車中比較便宜的那輛汽車,這顯然引起人們的擔(dān)憂 〔9 〕58-65。

        事實(shí)上,這些(和其他)倫理準(zhǔn)則已經(jīng)發(fā)展出試圖解決這些“缺陷”的變形體。盡管如此,在一些倫理學(xué)說中仍有一些重要的辯論,突出在特定哲學(xué)體系中所面臨的困境,這些哲學(xué)體系是為具有人工智能機(jī)器提供倫理指導(dǎo)的系統(tǒng)。例如,對于 “效用”是否可以量化以及如何被量化,存在眾所周知的重大分歧,邊沁和穆勒就對是否有不同水平的效用(快樂的“高”和“低”)存在分歧。結(jié)果論者繼續(xù)面臨這些挑戰(zhàn)。例如,估計(jì)長期后果和決定應(yīng)該為誰考慮后果等。電車難題的大部分思想實(shí)驗(yàn)認(rèn)為,每一個(gè)生命都是生命,因此殺死五個(gè)人顯然比殺死一個(gè)人更糟糕。然而,人們并沒有像對待幼兒園里的孩子那樣,對身患絕癥的老年公民給予同樣的倫理價(jià)值,也沒有將特蕾莎修女視為罪犯。

        沒有必要在這里反復(fù)討論各種倫理學(xué)說之間的重大分歧。這就足以表明,考慮到這些差異無論是使用一種或結(jié)合這些倫理準(zhǔn)則,人們都很難設(shè)計(jì)出一種能夠自行作出倫理選擇的機(jī)器。像“電車難題”并非一無是處,像其他心理實(shí)驗(yàn)一樣它們可以作為一個(gè)具有挑釁性的對話起動器。它們可以被用來作為一種有效的教學(xué)工具。例如用于說明結(jié)果論和義務(wù)論的區(qū)別。然而,它們對人工智能機(jī)器的選擇模式來說尤其會適得其反。“電車難題”是非常做作的,它們通常只留下兩個(gè)選擇,而且這兩個(gè)選項(xiàng)和其他條件都不能被修改。例如選擇的框架要么是殺死一個(gè)孩子,要么造成毀滅性災(zāi)難。為了進(jìn)一步簡化這個(gè)場景,它假設(shè)殺死兩個(gè)人“顯然”比殺死一個(gè)人更糟糕,這無視大多數(shù)人對不同人的生命的不同看法。比如將一個(gè)95歲的晚期癌癥患者與25歲的退伍老兵或者孩子相比較。詹姆斯·奧康納補(bǔ)充道:“電車?yán)碚摰腻e(cuò)誤之處在于它被含蓄地設(shè)計(jì)但卻帶有明顯的教條主義,它規(guī)定救援者不是處在一個(gè)位置,或者沒有這種傾向,或者真的需要幫助。只有通過選擇一個(gè)或另一個(gè)斯巴達(dá)式的選擇范圍,所有的選擇都在倫理上令人厭惡,電車哲學(xué)家已經(jīng)預(yù)先設(shè)定好了介入場景方案。由此可見,電車方法是以一種高度貧困的人性觀為前提的?!?〔10 〕芭芭拉·弗里德(Barbara Fried)指出,“電車學(xué)的‘知識壟斷鼓勵(lì)一些哲學(xué)家把更多的注意力放在‘邊緣性的古怪案例上,而不是現(xiàn)實(shí)生活中發(fā)生意外傷害風(fēng)險(xiǎn)的大多數(shù)案例?!?〔11 〕 法學(xué)界一個(gè)重要的格言:“艱難的案件會導(dǎo)致更糟糕的法律”,由于特別極端情況而引起注意的案件往往是由某些法律或規(guī)則而導(dǎo)致的,而這些法律或規(guī)則只適用于貧乏規(guī)則。因此,“定時(shí)炸彈”的情景被用來證明功利主義的倫理規(guī)范是對酷刑的辯護(hù) 〔12 〕211-228。

        但是有人可能會問,“如果人類可以做到這一點(diǎn),為什么智能機(jī)器不能呢?”作為回應(yīng),人們首先注意到人類能夠應(yīng)付細(xì)微差別和處理模糊的決策,但計(jì)算機(jī)程序員發(fā)現(xiàn)這樣的決策特別費(fèi)力。此外,當(dāng)一個(gè)人認(rèn)為可以基于這個(gè)或那個(gè)哲學(xué)基礎(chǔ)而作出倫理選擇時(shí),實(shí)際上人類首先從撫養(yǎng)他們的人那里獲得他們自己的倫理價(jià)值觀,然后,當(dāng)他們接觸到來自新的群體、文化和亞文化的各種投入并逐步發(fā)展他們自己的個(gè)人倫理組合時(shí),修改他們自己的這些價(jià)值觀。此外,這些價(jià)值受到特殊的社會原則影響,這些社會原則并不局限于任何一個(gè)倫理準(zhǔn)則。簡而言之,自上而下的方法是非常難以置信的。

        (二)自下而上將倫理準(zhǔn)則嵌入人工智能機(jī)器的缺陷。自下而上方法,讓人工智能機(jī)器運(yùn)用反向強(qiáng)化學(xué)習(xí)等機(jī)器學(xué)習(xí)技術(shù)研究人類相關(guān)現(xiàn)實(shí)和模擬場景中的行為,使其樹立與人類相似的價(jià)值觀并付諸行動,如讓自動駕駛汽車研究人類的駕駛行為。在機(jī)器倫理學(xué)的第二種方法即自下而上的方法中,機(jī)器將學(xué)習(xí)如何通過觀察人類在實(shí)際情況下的行為,而不是被教授任何形式的規(guī)則或具有任何特定的倫理準(zhǔn)則來作出倫理選擇。這種方法已經(jīng)被應(yīng)用于無人駕駛汽車學(xué)習(xí)的非倫理方面。例如,卡內(nèi)基梅隆大學(xué)研究人員發(fā)明早期自動駕駛汽車,能夠經(jīng)過2-3分鐘人類駕駛員的培訓(xùn)之后在高速公路上行駛。其普遍化能力允許在四車道的道路上行駛,盡管它只是在一條或兩車道的道路上被訓(xùn)練的 〔13 〕。機(jī)器學(xué)習(xí)也被一些研究人員用來改善和提高汽車的行人檢測能力 〔14 〕。此外,來自英偉達(dá)公司的一個(gè)團(tuán)隊(duì)最近展示一輛無人駕駛汽車,它使用“端到端”的機(jī)器學(xué)習(xí),即在觀察了72小時(shí)的人類駕駛數(shù)據(jù)之后,它就可以自主駕駛?!?3 〕然而,將這些視為機(jī)器學(xué)習(xí)倫理行為的先例,就假定學(xué)習(xí)紅綠燈的不同反應(yīng)沒有顯著的差異,并學(xué)習(xí)理解、欣賞倫理命令,以便必須要特別注意不要撞到與汽車在同一車道行駛的騎自行車的人,更不要說不去干擾或故意傷害騎車的人 〔15 〕88-114。然而,汽車被要求處理的各種倫理問題是非常罕見的。比如,在不可避免的碰撞事故中誰能殺死或傷害誰這些問題。根據(jù)2013年美國交通部的數(shù)據(jù),每行駛1億英里只導(dǎo)致了77人受傷和1.09人死亡 〔16 〕。而且,每一個(gè)這樣的挑戰(zhàn)情況都與下一個(gè)不同:有時(shí)是一只小貓導(dǎo)致事故,有時(shí)是一輛校車導(dǎo)致的事故,等等。無人駕駛汽車必須以這種方式經(jīng)歷幾個(gè)生命周期跟隨一個(gè)人去學(xué)習(xí)倫理。

        可見,這是統(tǒng)計(jì)學(xué)上機(jī)器學(xué)習(xí)程序的一個(gè)廣泛問題,以及更廣泛的統(tǒng)計(jì)推斷。當(dāng)從某一概率分布中抽取樣本時(shí)就會出現(xiàn)異常事件,這一結(jié)果是很難預(yù)測的,有一些反應(yīng)是正常的。首先,根據(jù)定義這些是“異常值”,其罕見出現(xiàn)的頻率是有邊界的。第二,人類司機(jī)面臨同樣的問題,通常以不可預(yù)測的方式作出反應(yīng),有時(shí)會導(dǎo)致所謂的“人為錯(cuò)誤”。第三,先進(jìn)的機(jī)器學(xué)習(xí)系統(tǒng)從以往的經(jīng)驗(yàn)作出概括,并通常涵蓋前所未有的情況。對機(jī)器學(xué)習(xí)來說,這仍然是一個(gè)具有挑戰(zhàn)性的研究課題,但它并不是這個(gè)領(lǐng)域唯一的研究課題。大多數(shù)時(shí)候人工智能機(jī)器可以與法律手段保持一致。在其他情況下,它們可以被要求遵守它們用戶的倫理偏好。當(dāng)然,這兩種倫理的指導(dǎo)方式將揭示無人駕駛汽車百萬英里下的情況(每一個(gè)都是獨(dú)特的和往往難以預(yù)測的)下,總是會有一些無法預(yù)見的事件和程序會發(fā)生。例如,當(dāng)一個(gè)金屬氣球正好飛到無人駕駛汽車的前面時(shí),把它搞混了。在這些情況下,最好的選擇是隨機(jī)地決定哪一方會受到傷害(包括無過錯(cuò)保險(xiǎn))。如果這些情況是重復(fù)的,法律的指導(dǎo)原則或倫理機(jī)器人將需要被人類更新。

        因此,人們建議無人駕駛汽車可以通過某種作為一種集體思維或利用群體智能的聚合系統(tǒng),并從數(shù)百萬人的倫理決策中學(xué)習(xí)。然而,人們應(yīng)該注意,這可能會導(dǎo)致汽車習(xí)得一些不倫理的偏好。如果他們知道許多人所做的,智能汽車可能會加速、尾隨并參與到路怒中。還必須注意到,當(dāng)面對類似“電車難題”帶來的選擇時(shí),人們可能會作出自動反應(yīng),而不是在倫理討論和決策上。也就是說,觀察人們不會教給這些機(jī)器是什么倫理,而是什么是普遍的。這個(gè)問題是由簡·弗朗西斯(Jean-Francois)、博納豐(Bonnefon)、阿奇姆·謝里夫(Azim Shariff)和伊亞德·拉萬(Iyad Rahwan)等所做的實(shí)驗(yàn)支持。他們測試了參與者對無人駕駛汽車是否應(yīng)該作出實(shí)用的倫理選擇的態(tài)度,即使這意味著為了拯救更多的行人而犧牲乘客的生命。他們發(fā)現(xiàn)大多數(shù)受訪者希望無人駕駛汽車在沒有參與的情況下作出實(shí)用的選擇。對他們自己來說,他們希望汽車能以他人為代價(jià)而優(yōu)先考慮自己的幸福。正如哲學(xué)家帕特里克·林(Patrick Lin)所說,“沒有人想要一輛汽車關(guān)心更大的善,他們想要一輛車關(guān)心他們自己。” 〔17 〕對于谷歌、特斯拉或任何其他汽車制造商來說,這幾乎不可能成為符合倫理標(biāo)準(zhǔn)的汽車,它們最不聽從大眾的意見。

        簡言之,自上而下和自下而上方法都面臨非常嚴(yán)重的困難。此進(jìn)路在技術(shù)上存在極大困難,理論上也受到不少質(zhì)疑。這些困難更多的不是技術(shù)上的,而是與倫理哲學(xué)的內(nèi)在結(jié)構(gòu)有關(guān)。尤其是相比于人工智能機(jī)器能否一開始就成為倫理主體的問題,這些困難顯得蒼白無力。實(shí)際上,不論是自上而下地在自動駕駛汽車等人工智能系統(tǒng)中嵌入倫理代碼,還是自下而上地讓其從環(huán)境中學(xué)習(xí)倫理規(guī)范,在近期都很難實(shí)現(xiàn)。正如信息哲學(xué)家弗洛里迪(L.Floridi)所指出的,“為機(jī)器制定一套倫理無異于白日夢,更為負(fù)責(zé)任的策略是在智能機(jī)器內(nèi)部嵌入一定的安全措施,同時(shí)在機(jī)器自動操作時(shí),人可以作為‘共同決策人發(fā)揮監(jiān)管作用?!?〔18 〕28-29但是,假若真能將合乎倫理的倫理準(zhǔn)則嵌入機(jī)器人和人工智能系統(tǒng)之中,是否意味著也可以輕而易舉地將非倫理準(zhǔn)則和反倫理準(zhǔn)則嵌入其中呢?

        這樣看來,似乎人們不需要也不可能把倫理嵌入人工智能機(jī)器,機(jī)器也不能像孩子那樣習(xí)得倫理準(zhǔn)則,這樣它們就能自己作出倫理選擇。在很多情況下,社會可以對人工智能機(jī)器所作的事情設(shè)置法律限制。或許未來,用戶可以為它們提供倫理指導(dǎo),雇傭倫理機(jī)器人來使得配備了人工智能的機(jī)器保持正常運(yùn)轉(zhuǎn),但目前這一愿望很可能還遙遙無期。

        三、應(yīng)對人工智能機(jī)器倫理挑戰(zhàn)的策略選擇

        人工智能機(jī)器倫理選擇的現(xiàn)實(shí)困境表明,人們不需要也不可能把倫理嵌入人工智能機(jī)器。但對人工智能機(jī)器的倫理選擇實(shí)施監(jiān)管仍是必不可少的。為此,社會可以對人工智能機(jī)器帶來的倫理挑戰(zhàn)和“技術(shù)性風(fēng)險(xiǎn)”采取法律規(guī)制、技術(shù)監(jiān)管、倫理建模、程序正義等綜合策略選擇。

        (一)人工智能選擇的法律規(guī)制。法律規(guī)制是社會風(fēng)險(xiǎn)治理的重要手段,也是倫理和社會價(jià)值在人類世界中實(shí)現(xiàn)的主要方式。許多倫理和社會價(jià)值觀都體現(xiàn)在法律 (以及它們在法規(guī)中的表達(dá))中,即它們是集體制定和實(shí)施的。例如,為了提高安全性,汽車必須在停車標(biāo)志上停放。那些不接受這些價(jià)值觀的人將被禁止行駛、處罰(如簽發(fā)罰單)或被監(jiān)禁(如醉駕者)。實(shí)現(xiàn)社會和倫理價(jià)值的法律強(qiáng)制是至關(guān)重要的。因?yàn)橥ㄟ^由立法機(jī)關(guān)制定的法律來執(zhí)行的許多價(jià)值,由法院解釋并由國家執(zhí)行,原則上不受個(gè)人的審議和選擇。它們需要集體審議和決定。社會不讓每個(gè)人決定他或她是否認(rèn)為它在倫理上合適的不是速度也不是要?jiǎng)x車,而是靠左邊行駛 (通常),避免闖紅燈、窗外扔垃圾、不戴安全帶、離開事故現(xiàn)場、醉酒駕駛或在法定年齡以下開車。因此,智能機(jī)器能夠做出倫理選擇的觀點(diǎn)只考慮了它們的主人或者用戶應(yīng)該做什么,并沒有考慮到汽車應(yīng)該做什么。

        把所有這些選擇作為本質(zhì)上是合乎倫理的,但是無視人類行為和決策的許多方面不受個(gè)人審議和決定,機(jī)器倫理的支持者看到對于配備了人工智能的機(jī)器而言,更大領(lǐng)域的倫理決策比實(shí)際存在的要多。就像所有其他汽車一樣,無人駕駛汽車必須遵守法律,如果他們認(rèn)為速度、污染等問題是合乎倫理的,就沒有必要去考慮。確實(shí),這些法律可能會考慮到這些車的特殊性。不過,像所有其他車輛一樣,無人駕駛汽車需要遵守集體同意的法律,否則就會被從馬路上拖走。它們的所有者、程序員和制造商需要對所造成的任何傷害承擔(dān)責(zé)任 〔19 〕。

        對人工智能機(jī)器的倫理指導(dǎo)應(yīng)該利用一個(gè)新的人工智能程序,它將“讀取”其擁有者的倫理偏好,然后指導(dǎo)這些機(jī)器留意它們,它們被稱為“倫理機(jī)器人”。倫理機(jī)器人是一個(gè)人工智能程序,它能夠分析成千上萬條的信息(不僅是在互聯(lián)網(wǎng)上公開的信息,而且包含從本地計(jì)算機(jī)存儲和其他存儲設(shè)備收集的信息),這些信息是關(guān)于特定行為的個(gè)體為了確定個(gè)人倫理偏好。然而,倫理機(jī)器人的方法并不要求機(jī)器學(xué)會接受任何一種倫理,或任何倫理能動者具有的屬性。倫理機(jī)器人僅僅是“讀取”用戶的倫理偏好并指示機(jī)器注意它們。也許有人會問:假如這些偏好有害呢?如果汽車從個(gè)人那里學(xué)會如何行進(jìn),它們可能學(xué)會“壞”的行為。因此,倫理機(jī)器人最終也需要在法律規(guī)定的范圍內(nèi)解決問題。

        因此,將倫理嵌入機(jī)器或教授倫理給機(jī)器是非常繁重的工作。人工智能機(jī)器所作的許多倫理選擇都是被迫作出,不需要也不應(yīng)該由它們作出。因?yàn)檫@些選擇是由社會、立法機(jī)構(gòu)和法院作出。剩下的許多或許可以由“倫理機(jī)器人”來選擇,這讓汽車的“行為”與車主的倫理偏好保持一致。當(dāng)然,法律和倫理機(jī)器人都不能完全克服某些決策困境,比如一些極端異常的情況。

        考慮到人類對現(xiàn)有技術(shù)和制度認(rèn)知的局限性,立法者和政策制定者當(dāng)前提出對人工智能的管制必然需要經(jīng)過提出、試錯(cuò)和總結(jié)經(jīng)驗(yàn)才可能完善?,F(xiàn)階段我國開展對人工智能的法律規(guī)制可以先從發(fā)現(xiàn)和確認(rèn)全世界應(yīng)當(dāng)共同遵守的原則開始。2017年簽署的阿西洛馬人工智能原則就為設(shè)計(jì)一套保障與人類價(jià)值觀一致的AI安全發(fā)展指南作出了有益的嘗試。

        (二)人工智能機(jī)器選擇的技術(shù)監(jiān)管。技術(shù)監(jiān)督是人工智能機(jī)器倫理選擇風(fēng)險(xiǎn)治理的重要手段。風(fēng)險(xiǎn)社會理論指引下的技術(shù)監(jiān)管有以下特點(diǎn):風(fēng)險(xiǎn)規(guī)避的主要路徑是事先預(yù)防而不是事后補(bǔ)救;風(fēng)險(xiǎn)規(guī)避的基礎(chǔ)范式是從技術(shù)研發(fā)到應(yīng)用過程的責(zé)任制度;風(fēng)險(xiǎn)規(guī)避的重要措施是奉行技術(shù)民主原則。解鈴還須系鈴人。人工智能機(jī)器的倫理選擇風(fēng)險(xiǎn)本質(zhì)上是由技術(shù)本身造成的。因此,要有效應(yīng)對人工智能機(jī)器的倫理決策風(fēng)險(xiǎn)問題,實(shí)施技術(shù)上的監(jiān)管不失為一種行之有效的方法。比如,為了防止無人駕駛汽車作出不倫理的行為選擇,可以借助大家比較認(rèn)同的倫理準(zhǔn)則設(shè)計(jì)智能算法和“倫理的機(jī)器人”對人工智能機(jī)器或系統(tǒng)施加“技術(shù)性”監(jiān)管,也就是以人工智能技術(shù)系統(tǒng)來監(jiān)管人工智能技術(shù)系統(tǒng)。這種技術(shù)監(jiān)管機(jī)制可以借助兩種途徑來實(shí)施:一是外部監(jiān)管。隨著智能機(jī)器學(xué)習(xí)能力的不斷增強(qiáng),人工智能機(jī)器的倫理選擇可能會偏離初始設(shè)置,因此監(jiān)管機(jī)構(gòu)需要定期審查其智能機(jī)器的倫理算法是否還能通過倫理水平測試,是否有必要進(jìn)行倫理算法的升級。二是內(nèi)部監(jiān)管。即從算法上設(shè)置一種二階程序?qū)崟r(shí)地監(jiān)控人工智能系統(tǒng)或機(jī)器的運(yùn)行,也就是用人工智能系統(tǒng)監(jiān)管人工智能機(jī)器的倫理選擇。

        (三)人工智能機(jī)器選擇的倫理建模。在人工智能機(jī)器選擇的過程中,嘗試開發(fā)一些計(jì)算軟件能夠在倫理需要的情況下提供指導(dǎo)。實(shí)際上已經(jīng)有這樣軟件開發(fā)的嘗試。第一個(gè)例子是一個(gè)實(shí)用的軟件工具叫杰里米 〔20 〕368。這個(gè)程序通過使用簡單的產(chǎn)品結(jié)果的效用強(qiáng)度、持續(xù)時(shí)間和概率(其中的每一項(xiàng)都由用戶來估算)來測量任何行動的效用結(jié)果。在無人駕駛汽車的環(huán)境中,效用可以被定義為安全或者損害成本的反面,它是基于強(qiáng)度、持續(xù)時(shí)間和概率的基礎(chǔ)上來自于倫理模型的估計(jì)。這個(gè)模型主要缺陷是它單獨(dú)使用功利主義倫理學(xué)理論,這種理論忽視了情景、美德和個(gè)體傷害的限制。

        麥克拉倫(McLaren)開發(fā)了兩個(gè)工具來幫助倫理決策,第一個(gè)工具是“講真話者”,這是一個(gè)能夠分析兩個(gè)案例主題并決定是否告訴真相的程序 〔21〕。程序標(biāo)識案例之間的異同,列出在每一種情況下贊成或反對說真話的理由。這是詭辯推理的例子,一個(gè)通過比較相似情況下的問題而不是使用從另一組被試中習(xí)得的規(guī)則達(dá)到結(jié)論。案例研究使用符號而不是輸入自然語言處理更容易被機(jī)器可讀。類似的程序來自麥克拉倫的SIROCCO 〔21 〕,使用詭辯從國家專業(yè)工程師學(xué)會中與工程倫理問題相關(guān)的倫理規(guī)范來識別原則,像“講真話者”和“SIROCCO”避免倫理判斷,而是提出可以幫助用戶做出決策的與倫理相關(guān)的信息。

        無人駕駛汽車甚至更復(fù)雜的例子將會繼續(xù)出現(xiàn)碰撞事故。為了減少損失,車輛必須持續(xù)不斷地評估對其自身和其他的風(fēng)險(xiǎn)。甚至簡單的演習(xí)將要求車輛確定本身及其他可以接受的風(fēng)險(xiǎn)。這些風(fēng)險(xiǎn)的計(jì)算、驗(yàn)收和分?jǐn)偸莻惱磉x擇,人類司機(jī)將無法監(jiān)督這些選擇。車輛有時(shí)必須通過明確預(yù)先設(shè)置的程序指令、機(jī)器學(xué)習(xí)的方法或者兩者的某種結(jié)合自主地作出倫理選擇。倫理建模已經(jīng)取得了一些進(jìn)展,但仍留有大量的工作要去做。

        (四)人工智能機(jī)器選擇的程序正義。確立人工智能機(jī)器選擇的正義程序也非常必要。人類社會中的制度規(guī)范、法律準(zhǔn)則和司法決策受程序正義的約束?;谥悄芩惴ɑA(chǔ)上的人工智能機(jī)器選擇理應(yīng)受到程序正義的約束。正如希特輪(Danielle Keats Citron)在其論文《技術(shù)正當(dāng)程序》中所指出的:鑒于智能算法日益決定著各種決策的結(jié)果,人們需要建構(gòu)技術(shù)公平規(guī)范體系,通過程序設(shè)計(jì)來保障公平的實(shí)現(xiàn),并借助于技術(shù)程序的正當(dāng)性來強(qiáng)化人工智能機(jī)器決策系統(tǒng)的透明性、可審查性和解釋性。為了避免倫理算法歧視,2016年12月美國頒布的白宮人工智能報(bào)告將“理解并解決人工智能的倫理、法律和社會影響”列入國家人工智能發(fā)展戰(zhàn)略。英國下議院科學(xué)技術(shù)委員會呼吁成立一個(gè)專門的人工智能委員會,對人工智能當(dāng)前以及未來發(fā)展中的社會、倫理和法律影響進(jìn)行研究。

        近年來,國際人工智能界日趨重視人工智能中的倫理規(guī)范與法律規(guī)制問題,并推動相關(guān)技術(shù)標(biāo)準(zhǔn)及社會規(guī)范的研討和制定。如我國出臺的《新一代人工智能發(fā)展規(guī)劃》,專門提出人工智能倫理與法律的“三步走”規(guī)劃,IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則。但是,將人類倫理準(zhǔn)則或法律規(guī)范嵌入到人工智能機(jī)器中,仍是當(dāng)今世界面臨的前沿性科學(xué)難題,這需要技術(shù)、倫理、法律等控制手段配合使用、高度融合和跨學(xué)科領(lǐng)域合作。從目前來看,機(jī)器不能像孩子那樣習(xí)得倫理準(zhǔn)則,人們不需要也不可能把倫理嵌入人工智能機(jī)器。社會可以對人工智能機(jī)器決策帶來的倫理挑戰(zhàn)和“技術(shù)性風(fēng)險(xiǎn)”采取法律規(guī)制、技術(shù)控制、倫理建模和監(jiān)管機(jī)制。

        應(yīng)該承認(rèn),相當(dāng)數(shù)量的決策都涉及倫理和法律兩方面的要素。例如,法律規(guī)定在許多情況下車輛必須給行人讓路。要求汽車在許多情況下要避讓行人是由法律規(guī)定的。盡管如此,那些對他人有強(qiáng)烈尊重的人更有可能采取額外的預(yù)防措施,甚至比那些對這個(gè)價(jià)值的承諾更弱的人更不愿意靠近行人。因此,汽車需要在由倫理機(jī)器人來指導(dǎo),以確定它們是否接近法律規(guī)定的界限,或者給予它更大的余地。除了遵守倫理和社會價(jià)值觀之外,其他許多因素(比如通過對現(xiàn)實(shí)和情感的解釋)都會影響無人駕駛汽車的倫理選擇。將人類驅(qū)動的汽車和無人駕駛汽車進(jìn)行比較很可能會發(fā)現(xiàn),許多人對無人駕駛汽車的評價(jià)要比人駕駛汽車高得多。隨著相關(guān)技術(shù)的進(jìn)一步發(fā)展,這種情況尤其可能會發(fā)生。這一發(fā)現(xiàn)具有重大的倫理意義,因?yàn)樵诳深A(yù)見的未來,人們預(yù)期無人駕駛汽車將比人類駕駛的汽車安全得多。

        參考文獻(xiàn):

        〔1〕Eshleman, A. Moral Responsibility. In E. N. Zalta (Ed.). The Stanford Encyclopedia of Philosophy〔EB/OL〕.http://plato.stanford.edu/archives/sum2014/entries/moral-responsibility/.

        〔2〕Levin, J. Functionalism. In E. N. Zalta (Ed.)〔J〕. The Stanford Encyclopedia of Philosophy,2013(12).

        〔3〕Johnson, D. Computer systems: Moral entities but not moral agents〔J〕. Ethics and Information Technology, 2006(4).

        〔4〕Floridi, L., Sanders, J. W. On the morality of artificial agents〔J〕. Minds and Machines, 2004(3).

        〔5〕Grodzinsky, F. S., Miller, K. W.,Wolf, M. J. The ethics of designing artificial agents〔J〕. Ethics and Information Technology,2008(3).

        〔6〕Michael Anderson, Susan Leigh Anderson (eds). Machine ethics〔M〕. Cambridge: Cambridge University Press,2011.

        〔7〕John Stuart Mill.On liberty and other essays〔M〕. Oxford: Oxford University Press,2008.

        〔8〕Constant, Benjamin. Des re actions politiques〔M〕. Oeuvres comple`tes ,1797.

        〔9〕Noah Goodall. Ethical decision making during automated vehicle crashes〔M〕. Transportation research record: journal of the transportation research board,2014.

        〔10〕OConnor, James. The trolley method of moral philosophy〔J〕. Essays in Philosophy, 2012(13).

        〔11〕Fried, Barbara H. What does matter? The case for killing the trolley problem (or letting it die) 〔J〕. The Philosophical Quarterly ,2012(62).

        〔12〕Lucas Jr., George R. Engineering, ethics and industry: the moral challenges of lethal autonomy In Killing by remote control: the ethics of an unmanned military〔M〕.New York: Oxford University Press,2013.

        〔13〕Bojarski, Mariusz, Davide Del Testa, Daniel Dworakowski, Bernhard Firner, Beat Flepp, Prasoon Goyal, Lawrence D. Jackel et al. End to end learning for self-driving cars〔EB/OL〕. https://arxiv.org/ abs/1604.07316.

        〔14〕Harris, Mark. New pedestrian detector from Google could make self-driving cars cheaper〔EB/OL〕.http://spectrum.ieee.org/cars-that-think/transportation/self-driving/new-pedestrian-detector-from-google-could-make-selfdriving-cars-cheaper.

        〔15〕McDermott, Drew. What matters to a machine. In Machine ethics, ed. Michael Anderson, and Susan Leigh Anderson〔M〕 .Cambridge: Cambridge University Press,2011.

        〔16〕National Highway Traffic Safety Administration. Traffic safety facts 2013: A compilation of motor vehicle crash data from the fatality analysis reporting system and the general estimates system. US Department of Transportation〔EB/OL〕. https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812139.

        〔17〕Metz, Cade. Self-driving cars will teach themselves to save lives—but also take them. WIRED〔EB/OL〕. http://www.wired.com/2016/06/self-driving-cars-will-power-kill-wont-conscience/.

        〔18〕朗伯·魯亞科斯,瑞尼·凡·伊斯特.人機(jī)共生:當(dāng)愛情、生活和戰(zhàn)爭都自動化了,人類該如何相處〔M〕.北京:中國人民大學(xué)出版社,2017.

        〔19〕Etzioni, Amitai, Oren Etzioni. AI assisted ethics〔J〕. Ethics and Information Technology ,2016(1).

        〔20〕M. Anderson, S. L. Anderson, C. Armen.Towards Machine Ethics: Implementing Two Action-Based Ethical Theories〔C〕// in Proceedings of the AAAI 2005 Fall Symposium on Machine Ethics, Arlington,VA,2005.

        〔21〕B. M. McLaren.Computational Models of Ethical Reasoning: Challenges, Initial Steps, and Future Directions〔J〕. IEEE Intelligent Systems, 2006(21).

        責(zé)任編輯 蘇玉娟

        午夜免费观看日韩一级视频| 波霸影院一区二区| 国产亚洲av人片在线播放| 精品人妻一区二区三区狼人| 国产精品久久精品第一页| 四川少妇大战4黑人| 麻豆AⅤ精品无码一区二区| 日韩精品一级在线视频| 国产变态av一区二区三区调教 | 国产色秀视频在线播放| 国产精彩视频| 日本特殊按摩在线观看| 久久精品网站免费观看| 久久综合精品国产一区二区三区无码 | 丰满人妻一区二区三区视频53| 国产精美视频| 玩弄放荡人妻一区二区三区| 人成在线免费视频网站| 国自产精品手机在线观看视频| 中文字幕国产欧美| 亚洲精品国产一区av| 黄片视频免费观看蜜桃| 国产成熟人妻换╳╳╳╳| 日韩AV有码无码一区二区三区| 麻豆视频在线观看免费在线观看| 中文有码亚洲制服av片| a级毛片内射免费视频| 日韩在线不卡一区在线观看| 新视觉亚洲三区二区一区理伦| 国产专区一线二线三线码| 精品午夜福利1000在线观看| 国产三级在线看完整版| 青青草免费手机视频在线观看| 国产精品_国产精品_k频道| 久久精品免视看国产盗摄| 日本一区二区三区综合视频| 人妻少妇乱子伦无码视频专区| 日本一区二区三区高清千人斩 | 人妻夜夜爽天天爽三区丁香花| 久久人人玩人妻潮喷内射人人| 精品亚洲一区二区99|