亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的責(zé)任困境:以自主能動(dòng)性和道德圖靈測(cè)試為探討中心

        2020-12-08 14:45:28黃素珍
        山東社會(huì)科學(xué) 2020年4期
        關(guān)鍵詞:圖靈行動(dòng)者能動(dòng)性

        黃素珍

        (上海師范大學(xué) 哲學(xué)與法政學(xué)院哲學(xué)系,上海 200234)

        人工智能被認(rèn)為是一種在機(jī)器上模擬、實(shí)現(xiàn)和延伸人類智能的技術(shù),近幾十年來(lái)這種技術(shù)經(jīng)歷了一個(gè)從以計(jì)算能力為核心的計(jì)算智能、以語(yǔ)音識(shí)別和圖像識(shí)別為核心的感知智能的發(fā)展歷程后,現(xiàn)在進(jìn)入了認(rèn)知智能的迅猛發(fā)展階段,并深入到在物理性狀上模擬人腦的生物性神經(jīng)結(jié)構(gòu)和功能,成為具有深度學(xué)習(xí)和高度自主控制能力的系統(tǒng)。一方面,人工智能被設(shè)計(jì)成即便脫離了人類的即時(shí)控制,仍然能夠憑借其模擬認(rèn)知神經(jīng)網(wǎng)絡(luò)而具備獲取和重新組織新的知識(shí)、根據(jù)不同的具體情景改變自適應(yīng)性等功能,并據(jù)此持續(xù)作出合理的決策和獨(dú)立行動(dòng)。在可預(yù)見(jiàn)的未來(lái),它們的行為將越來(lái)越深入地影響人類的生活。另一方面,當(dāng)高度自動(dòng)化的人工智能由于能夠自我調(diào)整以適應(yīng)具體的工作任務(wù),生產(chǎn)商對(duì)這一學(xué)習(xí)過(guò)程不再干預(yù),而使用者往往無(wú)法清楚地理解和評(píng)估機(jī)器內(nèi)部的算法機(jī)制與決策邏輯,難以預(yù)測(cè)其行為后果,對(duì)人工智能的行動(dòng)決定權(quán)似乎已從人類手中轉(zhuǎn)移到以算法和數(shù)據(jù)為核心技術(shù)的人工智能自己身上,加之設(shè)計(jì)者、開(kāi)發(fā)者、生產(chǎn)者、使用者等相關(guān)主體與人工智能的行為后果之間缺乏清晰的、可追溯的因果關(guān)系,這就帶來(lái)一系列嚴(yán)重的道德責(zé)任歸屬和分配問(wèn)題。已經(jīng)出現(xiàn)或可預(yù)見(jiàn)的困境包括:金融服務(wù)機(jī)器人如果根據(jù)大數(shù)據(jù)技術(shù)而自主作出導(dǎo)致投資者損失的金融交易決策,它能否對(duì)此負(fù)責(zé);無(wú)人駕駛汽車如果撞傷行人或破壞開(kāi)放領(lǐng)域內(nèi)的私人財(cái)物,該事故應(yīng)該由誰(shuí)負(fù)責(zé);脫離人力控制的軍事機(jī)器人能否對(duì)誤擊平民的軍事打擊負(fù)有戰(zhàn)爭(zhēng)責(zé)任;醫(yī)療服務(wù)機(jī)器人是否需要對(duì)因其醫(yī)療決定而導(dǎo)致的醫(yī)療事故負(fù)責(zé),或輔助安樂(lè)死的人工智能能否具備對(duì)人類生命質(zhì)量的識(shí)見(jiàn)而代替病人做出醫(yī)療決策。

        這些已經(jīng)發(fā)生或很有可能發(fā)生的實(shí)踐困境在三個(gè)方面挑戰(zhàn)了傳統(tǒng)責(zé)任觀的條件:(1)在認(rèn)知條件上,如果人類主體不了解或無(wú)法預(yù)測(cè)人工智能行為造成的后果,我們傾向于不對(duì)人類主體進(jìn)行責(zé)任歸屬;(2)在因果條件上,如果人類主體的意圖、意愿、決定等與人工智能的行為后果缺乏明確的因果關(guān)系,也無(wú)法因果性地控制該行為的發(fā)生與否,我們似乎也難以將其歸責(zé);(3)在心理?xiàng)l件上,人工智能模擬人類大腦神經(jīng)的內(nèi)部算法機(jī)制似乎能夠自主產(chǎn)生與人類主體類似的決策、推理和行動(dòng)能力,不受外部干涉和控制,那么人工智能而非相關(guān)的人類主體似乎可以甚至在實(shí)踐上有必要被歸責(zé)。此外,即使我們認(rèn)為(1)(2)不足以消解人類主體的責(zé)任,但在人類設(shè)計(jì)者、開(kāi)發(fā)者、生產(chǎn)者和使用者等多主體共同參與的情況下,我們?nèi)匀蝗狈Υ_定的標(biāo)準(zhǔn)把人工智能具體的行為后果的責(zé)任在這些主體之間進(jìn)行恰當(dāng)?shù)臍w屬和分配。這就會(huì)帶來(lái)兩個(gè)理論后果:要么我們承認(rèn)人工智能具有道德行動(dòng)者(moral agent)的地位,但很可能由此消解人類主體的責(zé)任;要么我們始終承認(rèn)人類主體要對(duì)人工智能的行為后果負(fù)責(zé),但仍然缺乏與傳統(tǒng)責(zé)任條件不同的責(zé)任歸屬和分配標(biāo)準(zhǔn)。

        本文試圖以自主能動(dòng)性和道德圖靈測(cè)試為兩個(gè)探討維度,指出以深度自適應(yīng)學(xué)習(xí)能力和自主控制能力為核心功能的人工智能因其缺乏道德心理學(xué)方面的特性,因此不能在本體論和規(guī)范性層面成為“充分的道德行動(dòng)者”,但在解釋性或描述性層面,人工智能作為“潛在的或隱性的道德行動(dòng)者”在實(shí)踐必要性的意義上應(yīng)當(dāng)被納入人機(jī)復(fù)雜交互環(huán)境的道德責(zé)任的歸屬和分配機(jī)制。只有確定人工智能能否成為道德行動(dòng)者,抑或始終只能被當(dāng)作執(zhí)行人類意圖的工具,我們才能回應(yīng)在多主體協(xié)作、人機(jī)廣泛交互、后果不確定的情境中人類主體和人工智能各自的責(zé)任性質(zhì)、歸屬和分配的條件,以便為設(shè)計(jì)出一個(gè)更安全、更可靠的人工智能技術(shù)環(huán)境提供一個(gè)構(gòu)建共同體責(zé)任文化的理論支持,以恰當(dāng)?shù)卦u(píng)估人類主體和人工智能的倫理風(fēng)險(xiǎn)和相應(yīng)責(zé)任。

        一、“人工道德行動(dòng)者”與道德圖靈測(cè)試

        針對(duì)機(jī)器人發(fā)展過(guò)程中可能出現(xiàn)的倫理風(fēng)險(xiǎn),早在60多年前艾薩克·阿西莫夫(Isaac Asimov,1920—1992)就預(yù)見(jiàn)到有必要建立道德準(zhǔn)則來(lái)指導(dǎo)機(jī)器人的行為,他確立了機(jī)器人三定律:“(1)機(jī)器人不得傷害任一人類個(gè)體,也不得因不作為而讓任一人類個(gè)體受到傷害;(2)機(jī)器人必須服從人類的命令,除非這種命令與第一定律相沖突;(3)機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不違反第一或第二定律?!?1)參見(jiàn)Isaac Asimov, I, Robot. New York: Gnome Press, 1950. 同時(shí)參見(jiàn)Isaac Asimov, ‘The bicentennial man’ in The bicentennial man and other stories, New York: Doubleday, 1984.阿西莫夫的機(jī)器人三大道德定律旨在盡量減少?zèng)_突,因此,不傷害人類的要求優(yōu)先于服從人類,服從人類勝過(guò)機(jī)器人的自我保存。隨后,阿西莫夫在此基礎(chǔ)上加上了優(yōu)先于以上三條的定律——“第零定律”(Zeroth Law):“機(jī)器人不得傷害人性,也不得因不作為而傷害人性?!?2)同上,同時(shí)參見(jiàn)Wendell Wallace, Colin Allen, Moral Machines : Teaching Robots Right from Wrong, London: Oxford University Press, 2009, p. 48.阿西莫夫的機(jī)器人三大定律開(kāi)啟了機(jī)器倫理(machine ethics)、機(jī)器人倫理(robots ethics)、計(jì)算倫理(computing ethics)或人工智能倫理(AI ethics)的先聲,這些理論認(rèn)為有必要以倫理規(guī)范約束人工智能技術(shù)的發(fā)展,以降低其倫理風(fēng)險(xiǎn),提高人類福利和其他社會(huì)價(jià)值。為了達(dá)到這個(gè)目標(biāo),最好的方式就是在編程層面把基本倫理原則變得是可計(jì)算的,從而通過(guò)編程的方式將其嵌入機(jī)器的行為機(jī)制中。(3)參見(jiàn)Michael Anderson, Susan Leigh Anderson, “Asimov’s ‘Three Laws of Robotics’ and Machine Metaethics,” in AI and Society (2008) 22:4, pp. 477-493.

        艾倫與瓦拉赫認(rèn)為,這種自上而下的進(jìn)路存在三個(gè)主要缺陷:首先,它不過(guò)是把傳統(tǒng)的規(guī)范倫理學(xué)理論直接應(yīng)用于技術(shù)領(lǐng)域,并且還忽視了新一代人工智能能夠模擬人類神經(jīng)認(rèn)知的機(jī)制,它是一個(gè)高度復(fù)雜的自動(dòng)系統(tǒng),沒(méi)有任何單一的算法能夠因果性地決定某一人工智能的一切行為。第二,這一進(jìn)路忽視了各個(gè)規(guī)范倫理學(xué)理論已有的內(nèi)部困難,以及由此帶來(lái)的在編程上如何實(shí)現(xiàn)“可計(jì)算”的問(wèn)題,例如對(duì)于功利主義,什么是效用,以什么標(biāo)準(zhǔn)衡量效用與其他人類價(jià)值的沖突,這些問(wèn)題仍然屬于功利主義內(nèi)部懸而未決的理論問(wèn)題,更不用說(shuō)在機(jī)器編程上實(shí)現(xiàn)出來(lái)功利主義原則。第三,傳統(tǒng)的規(guī)范倫理學(xué)理論的目標(biāo)都旨在追求抽象的普遍性和邏輯上的自洽性,因此難以把實(shí)踐中所有相關(guān)的復(fù)雜情況都容納在內(nèi),因此也就難以斷定針對(duì)一類經(jīng)驗(yàn)情境,采用何種規(guī)范倫理學(xué)理論作為算法原則才是最恰當(dāng)?shù)摹?4)參見(jiàn)Wendell Wallace, Colin Allen, Moral Machines : Teaching Robots Right from Wrong, London: Oxford University Press, 2009.

        因此,艾倫與瓦拉赫試圖繞過(guò)規(guī)范理論上的普遍分歧,不預(yù)設(shè)道德行動(dòng)者的本體論或形而上學(xué)前提,也不斷定人工智能能否合乎倫理地行動(dòng),而是借用圖靈測(cè)試,將其轉(zhuǎn)化成“道德圖靈測(cè)試”。圖靈測(cè)試源自英國(guó)著名數(shù)學(xué)家、計(jì)算機(jī)之父阿蘭·圖靈在1950年提出的一個(gè)開(kāi)拓性的問(wèn)題:“計(jì)算機(jī)能夠思考嗎?”他的基本思路是,“機(jī)器如果在某些現(xiàn)實(shí)條件下能夠非常好地模仿人類回答問(wèn)題,以致使回答在相當(dāng)長(zhǎng)的時(shí)間內(nèi)被誤認(rèn)為它不是機(jī)器,那么機(jī)器就可以被認(rèn)為是能思維的”(5)圖靈測(cè)試被公認(rèn)為奠定了人工智能的理論基礎(chǔ),參見(jiàn)Alan Turing, “Computing Machinery and Intelligence”, Mind, (1950) 59: 236, pp. 433-460. 中譯本參見(jiàn)[英]A·M·圖靈:《計(jì)算機(jī)器與智能》,載[英]瑪格麗特·博登:《人工智能哲學(xué)》,劉西瑞、王漢琦譯,上海譯文出版社2001年版,第56-91頁(yè)。。圖靈測(cè)試的思路預(yù)設(shè)了行為主義和操作主義,智能首要地被定義為語(yǔ)言能力,一個(gè)人通過(guò)一系列對(duì)話(語(yǔ)言行為),如果不能區(qū)分與他對(duì)話的是人抑或機(jī)器,那么就可以認(rèn)定這臺(tái)機(jī)器類似一個(gè)人類主體,或具有人類的思維智能。艾倫與瓦拉赫的道德圖靈測(cè)試延續(xù)了這一基本思想:假設(shè)某人分別與一臺(tái)人工智能和另一個(gè)人進(jìn)行道德性質(zhì)的對(duì)話(例如分別提出以?shī)蕵?lè)為目的獵殺動(dòng)物的行為是否是不道德這類問(wèn)題),如果提問(wèn)者不能以高于一般常人偶然出錯(cuò)的方式分辨出與他對(duì)話的是機(jī)器還是人類,那么我們就可以宣稱這臺(tái)機(jī)器是一個(gè)“人工道德行動(dòng)者”(Artificial Moral Agent,下文簡(jiǎn)稱AMA)(6)Wendell Wallace, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, London: Oxford University Press, 2009, p. 70. 同時(shí)參見(jiàn)Colin Allen, Gary Varner, “Prolegomena to any future artificial moral agent,” Journal of Experimental and Theoretical Artificial Intelligence (2000) 12: 3, pp. 254-255.。這一測(cè)試并不預(yù)設(shè)任一道德標(biāo)準(zhǔn),就算這臺(tái)人工智能認(rèn)為獵殺動(dòng)物的行為在道德上是可接受的,甚至撒謊欺騙對(duì)話者,令其相信它是人類,只要它提供了恰當(dāng)?shù)牡赖吕碛?,我們就可以合理地相信它是一個(gè)道德行動(dòng)者。

        艾倫認(rèn)為,如果AMA是可能的,那么剩下的問(wèn)題就是在算法層面上實(shí)現(xiàn)AMA,這需要把特定的道德認(rèn)知和道德推理過(guò)程轉(zhuǎn)變?yōu)锳MA決策過(guò)程的有機(jī)組成部分,將道德規(guī)則程序化或變得是“可計(jì)算的”(7)Colin Allen, Gary Varner, “Prolegomena to any future artificial moral agent,” Journal of Experimental and Theoretical Artificial Intelligence (2000) 12: 3, p. 253.。在這一點(diǎn)上,盡管他們承認(rèn)自上而下的進(jìn)路存在諸多缺陷,但仍然采用這一進(jìn)路,以“道義邏輯”的方式在AMA的算法結(jié)構(gòu)上編入可計(jì)算的倫理規(guī)范(例如功利主義、義務(wù)論、契約論、雙重效應(yīng)學(xué)說(shuō)等)。同時(shí),他們也看重“自下而上的進(jìn)路”(a bottom-top approach),即人工智能在經(jīng)驗(yàn)性情境中通過(guò)案例學(xué)習(xí)(case study)模擬人類的道德行為,調(diào)整或修正事先通過(guò)編程而嵌入的算法規(guī)范,從而間接地獲取普遍而抽象的道德規(guī)范在具體情景中的應(yīng)用規(guī)則,并利用它們來(lái)指導(dǎo)未來(lái)的決策,甚至形成類似人類的社會(huì)性情感關(guān)系。為了使這兩條進(jìn)路能夠共同發(fā)揮作用,他們把作為道德決策核心的自主性能力和與道德事實(shí)相關(guān)的敏感性能力作為AMA的兩個(gè)必要條件,它可以被設(shè)計(jì)成可以根據(jù)對(duì)規(guī)范的理解作出自主的決策,進(jìn)而決定自己的行為。

        但令人困惑的是,艾倫與瓦拉赫并沒(méi)有回應(yīng)針對(duì)標(biāo)準(zhǔn)圖靈測(cè)試提出來(lái)的“語(yǔ)義理解”問(wèn)題是否同樣會(huì)發(fā)生在道德圖靈測(cè)試上。對(duì)標(biāo)準(zhǔn)圖靈測(cè)試的經(jīng)典批評(píng)來(lái)自約翰·塞爾對(duì)“強(qiáng)人工智能”的評(píng)論,根據(jù)塞爾的觀點(diǎn),人的心理活動(dòng)的意向性本質(zhì)必須以大腦的生理—生物特性為基礎(chǔ),表達(dá)的是對(duì)語(yǔ)言的語(yǔ)義理解,而不在于計(jì)算機(jī)是否具有與人一樣的外在行為或功能狀態(tài)。計(jì)算機(jī)的程序純粹是句法的或語(yǔ)法的,是運(yùn)用形式規(guī)則對(duì)抽象的符號(hào)進(jìn)行形式操作,而人的心理過(guò)程的根本特征在于語(yǔ)義屬性或語(yǔ)義內(nèi)容,即對(duì)詞匯形成意義理解或意向性活動(dòng),因此計(jì)算機(jī)程序不能等同于人類心智。(8)[美]約翰·塞爾:《心靈、大腦與程序》,載[英]瑪格麗特·博登:《人工智能哲學(xué)》,劉西瑞、王漢琦譯,上海譯文出版社2001年版,第92-120頁(yè)。與圖靈測(cè)試面臨的問(wèn)題類似,艾倫與瓦拉赫并沒(méi)有斷定AMA能否理解和識(shí)別對(duì)話情境中的倫理要素和道德詞匯的意義,因?yàn)橐_定一個(gè)行動(dòng)者是否理解和恰當(dāng)使用道德詞匯的語(yǔ)義,遠(yuǎn)比確定它能否理解非道德詞匯要棘手得多。對(duì)具體情景中倫理要素的理解是一個(gè)社會(huì)化建構(gòu)的過(guò)程,人類個(gè)體在其中逐漸發(fā)展自己對(duì)情景中倫理詞匯的“語(yǔ)義學(xué)”的理解能力、同情能力和敏感性,并區(qū)分哪些要素具有道德重要性,哪些沒(méi)有,從而形成道德判斷和自身行動(dòng)的道德理由。機(jī)器為了可以勝任對(duì)話,使得人類觀察者確定他是在與一個(gè)道德行動(dòng)者打交道,我們需要假定它必須理解討論中所設(shè)計(jì)的全部情境,區(qū)分這些情境中哪些與道德理由相關(guān),清楚支撐道德話語(yǔ)合理性的社會(huì)生活語(yǔ)境,以及理解這些話語(yǔ)對(duì)道德主體內(nèi)在狀態(tài)的影響。但為了讓機(jī)器以有意義的方式參與道德對(duì)話,它就必須已經(jīng)理解道德話語(yǔ)的意義,而為了達(dá)成對(duì)道德話語(yǔ)的語(yǔ)義理解,它必須已經(jīng)參與到道德的社會(huì)化建構(gòu)過(guò)程,即為了通過(guò)道德圖靈測(cè)試,它已經(jīng)是一個(gè)道德行動(dòng)者,那么這就犯了循環(huán)論證的錯(cuò)誤。與之相對(duì),人類主體之所以具備這些能力在于他一直處于主體交互的“生活世界”中,與他人共享一個(gè)意義和共情的世界,在此背景中進(jìn)行有意義的道德對(duì)話和道德辯護(hù)。沒(méi)有任何一種人工智能算法能夠容納生活世界的全部參照信息從而作為啟動(dòng)應(yīng)用的初始條件,如果有,那么它就添加了道德圖靈測(cè)試根本沒(méi)有預(yù)設(shè)的大量經(jīng)驗(yàn)性前提,因而它只能限于用在經(jīng)過(guò)高度人工信息過(guò)濾和人為設(shè)計(jì)的環(huán)境,而這根本不是我們所設(shè)想的人類正常的道德對(duì)話情境。

        另外一個(gè)嚴(yán)重問(wèn)題在于他們對(duì)自主性概念的使用。艾倫和瓦拉赫之所以強(qiáng)調(diào)以“自主性”定義AMA,是因?yàn)樗麄円庾R(shí)到單純強(qiáng)調(diào)用道德規(guī)范從外部約束人工智能設(shè)計(jì)者和操作者的行為是不夠的,還需要在人工智能的內(nèi)部結(jié)構(gòu)中設(shè)置能夠進(jìn)行“倫理推理”的算法機(jī)制,即“把倫理放入機(jī)器中”,通過(guò)“自上而下”的編程程序和“自下而上”的案例應(yīng)用兩個(gè)方面讓AMA成為現(xiàn)實(shí)。這背后預(yù)設(shè)了一個(gè)道德認(rèn)知主義的前提,即認(rèn)為心靈本質(zhì)上是一個(gè)處理信息的機(jī)制,道德決策和道德推理的過(guò)程可以類比為計(jì)算的過(guò)程,因此,計(jì)算機(jī)作為一個(gè)信息處理系統(tǒng),只要輸入足夠多的“道德規(guī)則”(算法)和“道德知識(shí)”(信息),那么計(jì)算機(jī)就能夠根據(jù)更高層次的規(guī)則將信息應(yīng)用于具體情景,它也就能因此被賦予道德行動(dòng)者的地位。但他們默認(rèn)使用的自主性概念來(lái)自于對(duì)當(dāng)代人工智能技術(shù)中自主學(xué)習(xí)能力的觀察,并沒(méi)有提出一個(gè)關(guān)于自主性的清晰論述,他們看起來(lái)更像是未加區(qū)分地就把人工智能脫離人類控制的“自動(dòng)化”行為類比為人類行動(dòng)者的“自主性”行為。此外,對(duì)自主性概念的簡(jiǎn)單化處理導(dǎo)致他們過(guò)快地從對(duì)人工智能自主能力的經(jīng)驗(yàn)描述過(guò)渡到認(rèn)為它們具有規(guī)范性意義的倫理主體的地位,即在認(rèn)知主義倫理學(xué)的框架內(nèi)把“自主的行動(dòng)者”等同于“道德行動(dòng)者”,在這一點(diǎn)上,他們并沒(méi)有對(duì)自主性與道德能動(dòng)性之間的關(guān)系展開(kāi)充分的前提論述。

        此外,通過(guò)道德圖靈測(cè)試的人工智能系統(tǒng)不管其認(rèn)知能力和自主決策能力多么強(qiáng)大,我們?nèi)匀豢梢院侠淼貞岩伤鼈兪欠窬邆涞赖旅舾行?。正如上文所述,即便觀察者通過(guò)道德對(duì)話,可以確定某一人工智能能夠進(jìn)行道德推理和道德辯論,我們也不能肯定它能以道德敏感性實(shí)現(xiàn)事實(shí)行為,例如具備共感和同理性,有能力理解他人的感受,對(duì)相關(guān)的倫理要素具有敏感性,能夠在復(fù)雜的情況下作出有效的倫理判斷,并能夠評(píng)估它們的行為可能帶來(lái)的道德和社會(huì)后果,例如醫(yī)療服務(wù)機(jī)器人需要衡量病人對(duì)物質(zhì)福利的需求和對(duì)自主價(jià)值的需求。道德敏感性意味著人類行動(dòng)者總可以質(zhì)疑他被給予的道德要求,但要假定人工智能可以意向性地質(zhì)疑算法給予它的目標(biāo)或經(jīng)過(guò)自下而上的方式而獲得的道德知識(shí),這就需要設(shè)置超出道德圖靈測(cè)試之外的關(guān)于人工智能是否具有自我意識(shí)、意向性、自由意志、自我反思、動(dòng)機(jī)等內(nèi)在特質(zhì),而這正是艾倫和瓦拉赫使用圖靈測(cè)試所意欲排除的前設(shè)條件。

        瓦拉赫已經(jīng)意識(shí)到為了讓人工智能能夠以倫理的方式推理和行動(dòng)而建構(gòu)的AMA仍然面臨某些關(guān)于價(jià)值選擇的道德風(fēng)險(xiǎn)。(9)參見(jiàn)Wendell Wallach, “Robot minds and Human Ethics: the Need for a Comprehensive Model of Moral Decision Making”, Ethics and Information Technology (2010) 12: 3, pp. 243-250.例如一輛無(wú)人駕駛汽車可能面臨是撞向突然沖出馬路的行人以保護(hù)司機(jī)還是緊急剎車但傷害司機(jī)的選擇,一個(gè)醫(yī)療服務(wù)機(jī)器人可能面臨為了促進(jìn)病人的福利而喂藥或尊重病人的意愿不喂藥的選擇。在這兩個(gè)場(chǎng)景中,這輛已經(jīng)具有深度學(xué)習(xí)能力的無(wú)人駕駛汽車和醫(yī)療服務(wù)機(jī)器人“應(yīng)該”作出什么樣的具有道德涵義的決策?它能否“理解”這個(gè)場(chǎng)景屬于一個(gè)道德兩難困境?我們應(yīng)該根據(jù)什么規(guī)范標(biāo)準(zhǔn)把它作出不同決策而帶來(lái)的“道德責(zé)任”歸到它們身上?

        (4)銑槽機(jī)施工成槽時(shí)對(duì)周圍土體擾動(dòng)較小,一般不容易出現(xiàn)大量漏漿塌槽的現(xiàn)象,小量漏漿時(shí)需及時(shí)調(diào)整泥漿性能指標(biāo),補(bǔ)充槽內(nèi)泥漿,同時(shí)也應(yīng)在現(xiàn)場(chǎng)儲(chǔ)備足量的粘土、膨潤(rùn)土、水泥等堵漏材料,以免在造孔過(guò)程中遇特殊地層出現(xiàn)槽孔大量漏漿時(shí)應(yīng)對(duì)不及而導(dǎo)致塌槽,造成施工安全隱患。

        因此,即便AMA在決策能力方面具備最低限度的自主性,甚至通過(guò)自下而上的學(xué)習(xí)模式,形成了類似人類情緒反應(yīng)的能力,并根據(jù)由算法嵌入的框架和相關(guān)的倫理要素作出道德評(píng)估和道德選擇,我們?nèi)匀恍枰吻逡悦枋鲂院鸵?guī)范性兩種維度呈現(xiàn)出來(lái)的不同的自主性,繼而在道德心理學(xué)層面判定人工智能能否對(duì)它行為后果的“道德對(duì)錯(cuò)”具有不同的實(shí)質(zhì)性的語(yǔ)義理解能力和情感反應(yīng)能力。因此,他們通過(guò)道德圖靈測(cè)試得出AMA可行性的結(jié)論與其說(shuō)是證成,不如說(shuō)是“類比”。

        二、自主能動(dòng)性:描述性與規(guī)范性

        艾倫與瓦拉赫認(rèn)為,“自主性”是構(gòu)成人工智能之所以成為AMA的要素,這項(xiàng)能力指的是在操作和決策“自主”方面脫離人類控制的自動(dòng)性和獨(dú)立性。但是艾倫與瓦拉赫對(duì)自主性概念的使用存在一個(gè)嚴(yán)重問(wèn)題,如果AMA能夠自主行動(dòng)并參與到道德情境中,那么它們是否能夠?qū)σ?guī)范作出充分反應(yīng)這一問(wèn)題就會(huì)凸顯出來(lái)。為了澄清如何從對(duì)人工智能核心能力的描述過(guò)渡到它們由此具有道德規(guī)范性意義上的“道德行動(dòng)者”的本體論地位這一問(wèn)題,我們需要在行動(dòng)哲學(xué)與道德哲學(xué)交叉層面闡明自主性概念的描述性和規(guī)范性雙重涵義。

        在當(dāng)代行動(dòng)哲學(xué)中,“自主性”理論的重要源頭之一是由哈里·法蘭克福(Harry Frankfurt)發(fā)展起來(lái)的自主性層級(jí)模型(hierarchy of autonomy)。法蘭克福試圖以意愿的層級(jí)結(jié)構(gòu)和認(rèn)同概念建立一個(gè)關(guān)于人類能動(dòng)性的論證模式,把自主性視作個(gè)體通過(guò)對(duì)低階欲望進(jìn)行批判性反思的認(rèn)同活動(dòng),進(jìn)而把人類行動(dòng)者與其他類型的行動(dòng)者區(qū)分開(kāi)來(lái)。(10)參見(jiàn)Harry Frankfurt, “Freedom of the Will and the Concept of a Person,” Journal of Philosophy (1971) 68, pp. 829-839.法蘭克福的自主性理論模型沒(méi)有直接訴諸傳統(tǒng)形而上學(xué)的“意志”概念,而是以“意愿”(volition)或“欲望”來(lái)指向“意志的內(nèi)在組成”(inner organization of the will),作為行動(dòng)者概念化自我的手段。通過(guò)把個(gè)體欲望區(qū)分為“一階欲望”和“二階欲望”,法蘭克福認(rèn)為個(gè)體是自主的,或者說(shuō)他的行為之所以是自主的,乃在于直接激發(fā)行動(dòng)的一階欲望被二階欲望所“認(rèn)同”(endorsement/identification)(11)參見(jiàn)Harry Frankfurt, The Importance of What We Care About, Cambridge: Cambridge University Press, 1988, pp. 12-25. 中譯本參見(jiàn)[美]哈里·法蘭克福:《事關(guān)己者》,段素革譯,浙江大學(xué)出版社2010年版。。所謂一階欲望指的是行動(dòng)者對(duì)于行動(dòng)對(duì)象的直接欲求或意向,即我們最初形成的想做某件事的心理傾向,而二階欲望是我們對(duì)一階欲望的欲求,它反映的是我們經(jīng)過(guò)反思性評(píng)價(jià)并意愿真正實(shí)現(xiàn)的欲望。只有得到二階欲望認(rèn)同的一階欲望才是行動(dòng)者本真的或真正屬己的欲望,這樣出于本真欲望而發(fā)出的行為才能稱得上是自主的選擇和行為。

        “認(rèn)同”概念在這里是法蘭克福意愿結(jié)構(gòu)的核心,認(rèn)同是一個(gè)心理活動(dòng)與心智活動(dòng)的過(guò)程,在這個(gè)過(guò)程中,行動(dòng)者的意向活動(dòng),尤其是欲望,整合成為真正屬于或由行動(dòng)者所創(chuàng)制(authorize)的東西,通過(guò)二階決斷的過(guò)程,特定的欲望才能真正“屬于”這個(gè)行動(dòng)者,才能真正表達(dá)行動(dòng)者的真實(shí)意志?!爱?dāng)一個(gè)人認(rèn)同自己的欲望的時(shí)候,他對(duì)它們是能動(dòng)的,他所作的事是他主動(dòng)的?!?12)[美]哈里·法蘭克福:《事關(guān)己者》,段素革譯,浙江大學(xué)出版社2010年版,第61頁(yè)。行動(dòng)者通過(guò)運(yùn)用認(rèn)同能力,作為二階決斷的結(jié)果真正體現(xiàn)他的自主能動(dòng)性(autonomous agency),一個(gè)個(gè)體行動(dòng)是自主的,當(dāng)且僅當(dāng)行動(dòng)者的行動(dòng)決斷來(lái)自于他的本真的反思認(rèn)同;一個(gè)個(gè)體人格是自主的,當(dāng)且僅當(dāng)他的選擇與行為是他“全心全意”真正欲望的東西,與其“真實(shí)自我”相吻合。按照法蘭克福的說(shuō)法:“一個(gè)人對(duì)自己的一個(gè)二階欲望的認(rèn)同,那個(gè)欲望變成了一個(gè)二階決斷。那個(gè)人因此就擔(dān)負(fù)起對(duì)有關(guān)的一階和二階欲望以及這些欲望引導(dǎo)他實(shí)現(xiàn)的那些行為的責(zé)任……對(duì)于我們內(nèi)心生活,對(duì)自我欲望的認(rèn)同……在人類精神性(mentality)的現(xiàn)象學(xué)和哲學(xué)中都起到首要的作用?!?13)Harry Frankfurt, Necessity, Volition, and Love, Cambridge University Press, 1999, p.132.

        對(duì)欲望/意愿結(jié)構(gòu)的層級(jí)性劃分非常簡(jiǎn)明地刻畫(huà)了人類行動(dòng)者所具有的傾向性、意向性、主觀性或精神性特質(zhì),即我們并非按照直接的欲望而行事。二階欲望與一階欲望的區(qū)分以及前者對(duì)后者的認(rèn)同活動(dòng)形成了一個(gè)“反思性距離”、“反思性的自我評(píng)價(jià)”或“意愿的結(jié)構(gòu)”(14)[美] 哈里·法蘭克福:《事關(guān)己者》,段素革譯,浙江大學(xué)出版社2010年版,第62頁(yè)。,這個(gè)距離使得我們能夠?qū)ψ钪苯拥挠M(jìn)行有意識(shí)的反思,在此基礎(chǔ)上才有可能作出真實(shí)的選擇和決定。自主行動(dòng)的可能性也正在于個(gè)體并不是受 “欲望”的直接驅(qū)動(dòng)而行動(dòng)的,而是對(duì)“一階欲望”具有一般反思的能力,即形成對(duì)一階欲望的二階欲望,這也是人格與非人格(例如動(dòng)物)的本質(zhì)區(qū)別之一。

        從上述分析來(lái)看,法蘭克福的欲望層級(jí)模型和反思認(rèn)同是價(jià)值中立(value-neutral)的,他并不考慮欲望內(nèi)容的社會(huì)性來(lái)源與評(píng)價(jià)性維度。(15)基于欲望的社會(huì)性對(duì)法蘭克福提出的批評(píng),參見(jiàn)M. Berstein, “Socialization and Autonomy,” Mind (1983) 92, pp.120-123。以及Charles Taylor, Sources of Self: The Making of Modern Identity, MA: Harvard University Press, 1989.在他看來(lái),自主性并非是一個(gè)實(shí)質(zhì)性的價(jià)值,而是一種反思性的決定能力;重要的不是形成“正確的”欲望,而是形成本真的決斷和本真自我。他的理論并沒(méi)有回答行動(dòng)者到底能夠依據(jù)什么標(biāo)準(zhǔn)對(duì)欲望進(jìn)行選擇和評(píng)價(jià),因此二階欲望很有可能自身并非是自主的,為了判斷二階欲望是本真的,行動(dòng)者就需要形成三階、四階欲望等無(wú)限回溯的意愿鏈條。正如沃特森指出的,法蘭克福的模型沒(méi)有區(qū)分“欲求”(wanting)和“評(píng)價(jià)”(valuing),正是評(píng)價(jià)系統(tǒng)構(gòu)成了一個(gè)人看待世界的支點(diǎn),如果失去此支點(diǎn),個(gè)人也就失去了“作為行動(dòng)者的同一性”(16)Gary Watson, , 1975. "Free Agency," Journal of Philosophy (1975) 72, p. 106.。由于法蘭克福的自主性理論只是聚焦于作為程序性能力的自主性,以描述性的方式刻畫(huà)自主人格的特征,但因其內(nèi)涵過(guò)于單薄,難以真正區(qū)分由行動(dòng)者的內(nèi)在力量激發(fā)的“行動(dòng)”與物理性質(zhì)的“事件”。因此,法蘭克福的自主性理論難以說(shuō)明和證成他提出來(lái)的目標(biāo):“行動(dòng)不僅僅是發(fā)生在這個(gè)人之內(nèi)或他身上的事情,而是他作為一個(gè)行動(dòng)者而做的事情”(17)[美]克里斯蒂娜·科爾斯戈德(又譯科絲嘉):《柏拉圖與康德倫理學(xué)中的自我構(gòu)成》,葛四友譯,載《世界哲學(xué)》2011年第3期。。

        針對(duì)法蘭克福自主性理論中規(guī)范性缺失這一問(wèn)題,科爾斯戈德提出了一個(gè)以“實(shí)踐同一性”為核心的實(shí)質(zhì)性自主性理論。在我們諸多實(shí)踐身份里,她認(rèn)為最為重要的是我們的“道德同一性”,即我們“把自己的人性看作是規(guī)范性的、看作是理由和義務(wù)的來(lái)源”(18)[美]克里斯蒂娜·科爾斯戈德:《規(guī)范性的來(lái)源》,楊順利譯,上海譯文出版社2010年版,第148頁(yè)。??茽査垢甑抡J(rèn)為,我們的實(shí)踐同一性正是“規(guī)范性承諾”的來(lái)源。實(shí)踐同一性的最終根源在于行動(dòng)者的本質(zhì)是具有自我意識(shí),并根據(jù)理由而行動(dòng)的個(gè)體,這樣的個(gè)體是形而上學(xué)意義上的自我建構(gòu)的統(tǒng)一體,關(guān)涉到我們?nèi)绾慰创白约菏钦l(shuí)”。實(shí)踐同一性最終也就是具有自我意識(shí)的行動(dòng)者根據(jù)自己對(duì)個(gè)人同一性的認(rèn)識(shí)而反思認(rèn)同的建構(gòu)結(jié)果,“自我意識(shí)的反思結(jié)構(gòu)必然地把我們置于在我們自身之上的權(quán)威和我們作為一個(gè)結(jié)果”(19)Christine Korsgaard, Self-Constitution: Agency, Identity, and Integrity, Oxford: Oxford University Press, 2009, p.10.??茽査垢甑率褂每档率降牡赖略捳Z(yǔ),認(rèn)為道德規(guī)范性通過(guò)“自我認(rèn)同而完成”:“只要你是一個(gè)理性存在者,你就必須在自由觀念之下行動(dòng)?!惆涯阕约憾皇悄阋乐袆?dòng)的那個(gè)誘因看作是你行動(dòng)的原因??档抡J(rèn)為你就必須基于一個(gè)普遍法則去行動(dòng)。除非你普遍地意愿,否則你不可能把自己看作是你行動(dòng)的原因——你不可能把這個(gè)行動(dòng)看作是你自己意志的產(chǎn)物?!?20)[美]克里斯蒂娜·科爾斯戈德:《柏拉圖與康德倫理學(xué)中的自我構(gòu)成》,葛四友譯,載《世界哲學(xué)》2011年第3期。根據(jù)這一觀點(diǎn),具有一般的實(shí)踐同一性同時(shí)就意味著行動(dòng)者必然發(fā)展出道德規(guī)范性意義上的實(shí)踐同一性。

        根據(jù)科爾斯戈德的觀點(diǎn),要構(gòu)建具有這一特征的成功的規(guī)范性理論必須滿足三個(gè)條件。首先,一個(gè)成功的規(guī)范性理論要基于第一人稱的視角,而基于第三人稱的理論只具有現(xiàn)象解釋的作用。所謂第一人稱指“從自己的角度看”,主體反思所要接受的原則或規(guī)則是否得到“證成”,因?yàn)闊o(wú)論我們被給予什么樣的規(guī)范,我們總能提出自我追問(wèn):我為什么要服從那樣的道德要求?我為什么應(yīng)該是道德的?換句話說(shuō),規(guī)范性問(wèn)題必須是針對(duì)道德行動(dòng)主體而提出來(lái)的道德證成問(wèn)題。(21)[美]克里斯蒂娜·科爾斯戈德:《規(guī)范性的來(lái)源》,楊順利譯,上海譯文出版社2010年版,第15頁(yè)。第二個(gè)條件是“動(dòng)機(jī)透明性”,它被用以解釋道德規(guī)范性如何能夠激發(fā)我們產(chǎn)生一個(gè)行動(dòng)動(dòng)機(jī)。第三個(gè)條件是自我意識(shí),它要求合格的規(guī)范性理論能夠說(shuō)明,為什么主體會(huì)對(duì)自己實(shí)施的道德錯(cuò)誤產(chǎn)生強(qiáng)烈的愧疚感,甚至?xí)a(chǎn)生自我同一性的危機(jī)。(22)[美]克里斯蒂娜·科爾斯戈德:《規(guī)范性的來(lái)源》,楊順利譯,上海譯文出版社2010年版,第18-19頁(yè)。

        科爾斯戈德按照實(shí)踐同一性概念對(duì)法蘭克福的反思認(rèn)同概念進(jìn)行了轉(zhuǎn)化。正因?yàn)槿司哂蟹此颊J(rèn)同的意志結(jié)構(gòu),因此人不會(huì)依據(jù)直接的一階欲望行事,而是“出于理由”而行動(dòng),行動(dòng)者也由此對(duì)自己的理由形成了一個(gè)“承諾”(23)[美]克里斯蒂娜·科爾斯戈德:《規(guī)范性的來(lái)源》,楊順利譯,上海譯文出版社2010年版,第113頁(yè)。。但不同的是,法蘭克福的反思概念涉及的是如何鑒定出一個(gè)本真欲望的實(shí)現(xiàn)過(guò)程,而科爾斯戈德的目標(biāo)則是要鑒定出一個(gè)最具有證成力量的規(guī)范性理由。其中占主導(dǎo)地位的不是心理意義上的欲望,而是基于主體自我意識(shí)的反思結(jié)構(gòu),即作為整體的人格其本質(zhì)是“他必須出于理由行動(dòng)”(24)[美]克里斯蒂娜·科爾斯戈德:《規(guī)范性的來(lái)源》,楊順利譯,上海譯文出版社2010年版,第114頁(yè)。。在這個(gè)理論框架中,一個(gè)行動(dòng)者要具備道德能動(dòng)性,首先必須將自己反思認(rèn)同為能夠根據(jù)規(guī)范理由而行動(dòng)的主體。

        根據(jù)上文的分析,如果援引法蘭克福價(jià)值中立或單純作為描述性概念的自主性去理解人工智能的能動(dòng)性特點(diǎn),認(rèn)為人工智能具有與人類行動(dòng)者類似的自我導(dǎo)向、自我管理、自我決策的能力,能夠根據(jù)多個(gè)選擇項(xiàng)制定并執(zhí)行一定的行動(dòng)策略,這只能說(shuō)明一般意義的基本“行為”(behavior),而非由行動(dòng)者基于內(nèi)在意愿結(jié)構(gòu)而發(fā)出的“行動(dòng)”(action)。而按照科爾斯戈德的規(guī)范性自主性理論,認(rèn)為一個(gè)具有高度自主系統(tǒng)的人工智能能夠?qū)ζ湫袨榫哂胸?zé)任能力,那我們就忽視了成為道德行動(dòng)者最基本的規(guī)范性條件:它不僅能夠理解,并且也能夠基于自我意識(shí)進(jìn)行反思認(rèn)同的過(guò)程,根據(jù)得到證成的道德理由去行動(dòng)。因此,當(dāng)艾倫與瓦拉赫把“自主性”作為AMA的特征時(shí),他們指的是機(jī)器脫離了人類的直接控制而能夠繼續(xù)以自動(dòng)化的方式運(yùn)作,這是最低程度的自主性,而非在刻畫(huà)與物理事件本質(zhì)上不同的“行動(dòng)”特征,更不足以說(shuō)明AMA具有道德規(guī)范性意義。因此,不管在描述性抑或規(guī)范性層面上,他們言說(shuō)的不是在行動(dòng)能力和規(guī)范性意義上的“自主性”,而是一種概念上的誤用。

        三、責(zé)任歸屬:一般行動(dòng)者與道德行動(dòng)者

        艾倫與瓦拉赫力圖建立AMA旨在解決這樣一個(gè)問(wèn)題:除非我們賦予可自主作出行動(dòng)決策的人工智能以道德地位,否則我們?cè)趥鹘y(tǒng)的責(zé)任歸屬條件下難以解決因人工智能迅猛發(fā)展而產(chǎn)生的責(zé)任消解或責(zé)任感模糊的問(wèn)題。但專注于為人工智能配備道德決策能力,而不關(guān)注人工智能嵌入其中的社會(huì)系統(tǒng),人類主體的責(zé)任感很有可能在漫長(zhǎng)的技術(shù)鏈環(huán)中被消解;同樣,完全剔除人工智能的倫理位置,人機(jī)交互技術(shù)環(huán)境的復(fù)雜性就會(huì)遭到忽視。他們所訴諸的道德圖靈測(cè)試和自主能動(dòng)性都存在概念上的問(wèn)題,因此不能滿足道德能動(dòng)性的恰當(dāng)條件。

        正如上文所述,除了最基本的不受外部控制的自主性能力,一個(gè)能夠承擔(dān)道德責(zé)任的行動(dòng)者還應(yīng)當(dāng)具備道德敏感性,包括識(shí)別具體情景的道德要素的能力、判斷道德價(jià)值的優(yōu)先性、理解什么樣的普遍規(guī)范和價(jià)值能夠被用于具體情景等認(rèn)知能力,即行動(dòng)者不僅在行動(dòng)上看起來(lái)是符合一定的規(guī)范,他還應(yīng)當(dāng)出于對(duì)規(guī)范的語(yǔ)義理解而做出意向性的行動(dòng),能夠?qū)ψ约旱男袨樽鞒鲆?guī)范性評(píng)價(jià)和反思,并對(duì)此具有道德性質(zhì)的反應(yīng)性情感。反應(yīng)性情感在這里主要指識(shí)別和作出恰當(dāng)情感性反應(yīng)的能力,例如內(nèi)疚、羞恥、憤怒、義憤、正義感、怨恨、同感、共情、尊嚴(yán)感、感激、原諒等與道德規(guī)范性密切相關(guān)的情感。(25)參見(jiàn)P. F. Strawson, “Freedom and Resentment,” Proceedings of the British Academy (1962) 48, pp.1-25.這個(gè)觀點(diǎn)最早由彼特·斯特勞森(Peter Strawson)闡明,他認(rèn)為,反應(yīng)性態(tài)度本質(zhì)上源自我們總是生活在一定的社會(huì)性關(guān)系中,是我們實(shí)踐生活和人際期待的自然表達(dá),而非外在于實(shí)踐生活的某一個(gè)理性判斷標(biāo)準(zhǔn)。當(dāng)我們判斷一個(gè)人是否應(yīng)該負(fù)有責(zé)任,當(dāng)且僅當(dāng)我們通過(guò)反應(yīng)性態(tài)度讓他負(fù)責(zé)是恰當(dāng)?shù)摹M高^(guò)反應(yīng)性態(tài)度,道德責(zé)任和道德能動(dòng)性本質(zhì)上是根植于我們作為社會(huì)性參與者這一本質(zhì)。

        即便艾倫與瓦拉赫基于自主能動(dòng)性和道德圖靈測(cè)試而建構(gòu)的AMA一定程度上失敗了,但這并不意味著人工智能不能作為“一般行動(dòng)者”而參與到多主體的人機(jī)交互的責(zé)任歸屬和分配中。自主性作為道德行動(dòng)者的重要能力,其實(shí)現(xiàn)有程度之別,根據(jù)程度不同我們可以區(qū)分如下從一般行動(dòng)者到道德行動(dòng)者的層級(jí),并據(jù)此分配不同程度的道德責(zé)任和共同責(zé)任。(26)例如Moor根據(jù)人工智能的發(fā)展階段而區(qū)分了三類道德行動(dòng)者:第一階段的人工智能在其行為輸出上體現(xiàn)的是人類設(shè)計(jì)者呈現(xiàn)在意圖中的倫理規(guī)范,模仿人類的道德行為,是為隱性的(implicit)道德行動(dòng)者;第二階段的人工智能具備類似人類的道德推理能力,可以在按照算法的道德模型并確切輸入信息的條件下決定應(yīng)該做什么,且參與道德決策,這屬于顯性的(explicit)道德行動(dòng)者;第三階段的人工智能具有類似人類主體的道德能動(dòng)性,具備能夠做出道德判斷和道德辯護(hù)的能力,具有自我意識(shí)和自由意志,屬于充分的(full)道德行動(dòng)者。Moor認(rèn)為,從第一階段到第三階段的人工智能的實(shí)現(xiàn)是一個(gè)經(jīng)驗(yàn)性的技術(shù)發(fā)展問(wèn)題,而非斷然不可跨越的鴻溝。參見(jiàn)J. H. Moor, “The Nature, Importance, and Difficulty of Machine Ethics,” Intelligent Systems, IEEE (2006) 21:4, pp.18-21. 但與Moor的觀點(diǎn)不同,本文認(rèn)為不能僅僅關(guān)注人工智能的道德能動(dòng)性發(fā)展階段,還應(yīng)該關(guān)注人類主體在這一發(fā)展過(guò)程中所要承擔(dān)的責(zé)任程度和范圍。

        (1)人工智能在技術(shù)操作層面“似乎表現(xiàn)得”具有人類的道德認(rèn)知和道德行為努力,它的自動(dòng)化系統(tǒng)和行為機(jī)制就不受外部控制這一點(diǎn)上具有最低程度的自主性,但由于它不具有規(guī)范性的語(yǔ)義理解能力和高階的自主性能力,對(duì)倫理要素和行為后果的“道德對(duì)錯(cuò)”也缺乏相應(yīng)的情感反應(yīng)能力,因此,我們可以將其劃分為“不充分的行動(dòng)者”或“一般行動(dòng)者”(agent in general)以作為解釋導(dǎo)致某一物理事件的一個(gè)因果性原因,并承擔(dān)相應(yīng)的因果性責(zé)任(causal accountability)。我們可以把人工智能的能動(dòng)性與動(dòng)物的能動(dòng)性進(jìn)行類比,例如城市里沒(méi)有拴牢狗繩的寵物犬咬傷了路人,搜救犬把一個(gè)溺水的人救了上來(lái),我們認(rèn)為它們?cè)谝l(fā)行為后果上可以被賦予責(zé)備、懲罰或贊揚(yáng)、獎(jiǎng)賞的道德評(píng)價(jià)性語(yǔ)言,但并不因此就認(rèn)為它們是充分的道德行動(dòng)者,即便它們的行為在一定程度上脫離主人的控制,我們也會(huì)認(rèn)為主人需要對(duì)它們的行為負(fù)有一定的責(zé)任。在這些事件上它們與其主人的疏忽監(jiān)管或有效教養(yǎng)共同成為道德歸屬的對(duì)象,并根據(jù)能動(dòng)性程度的不同而被分配不同分量的道德責(zé)任。

        與之類似,對(duì)于在整個(gè)無(wú)人駕駛情景中的人工智能,我們可以認(rèn)為它是其行為的發(fā)起者,是對(duì)整個(gè)場(chǎng)景的描述性和解釋性要素之一;如果缺乏這一要素,我們就難以解釋無(wú)人駕駛倫理的兩難困境。反過(guò)來(lái),如果單純根據(jù)這一因果性解釋要素,我們就認(rèn)為該無(wú)人駕駛汽車具有充分的責(zé)任能力,我們就消解了所有的相關(guān)各方參與者的責(zé)任。把能動(dòng)性語(yǔ)言賦予人工智能是為了解釋它的行為,而非為了它在現(xiàn)實(shí)中能夠?qū)嵺`能動(dòng)性,更不是以此為借口而推諉人類主體的責(zé)任,其最終目標(biāo)是為了建構(gòu)一個(gè)更全面的多主體責(zé)任環(huán)境。

        (2)成熟的人類行動(dòng)者展現(xiàn)的能動(dòng)性是一個(gè)規(guī)范性概念,除了最低限度的自主能力,還包括意愿層級(jí)結(jié)構(gòu)的自主性與作為內(nèi)在意向性和規(guī)范反思能力的自主性,因此,人類行動(dòng)者因其展現(xiàn)為“充分的道德行動(dòng)者”(full moral agent)而承擔(dān)“主體責(zé)任”(agent responsibility)。正如前述,除了自主性能力外,充分的道德能動(dòng)性還指行動(dòng)者具有有意識(shí)的心理意圖和反應(yīng)性情感,對(duì)規(guī)范性目標(biāo)進(jìn)行反思性認(rèn)同,辨別相關(guān)的倫理要素,把普遍的道德原則適用于具體情景等概念化能力,并將自我設(shè)想為在社會(huì)性關(guān)系中自我賦予道德責(zé)任。這種主體責(zé)任在人機(jī)交互環(huán)境中主要體現(xiàn)為人類設(shè)計(jì)者、開(kāi)發(fā)者、生產(chǎn)者、使用者、維護(hù)者在人工智能技術(shù)上實(shí)現(xiàn)其意圖、目標(biāo)和價(jià)值承諾,并在促進(jìn)福利、尊重自主、公平開(kāi)放等價(jià)值共識(shí)上建立更負(fù)責(zé)任的科技框架。(27)近年來(lái)世界各國(guó)已經(jīng)積極推進(jìn)人工智能倫理框架的確立,例如歐盟于2019年4月發(fā)布《人工智能倫理準(zhǔn)則》,以尊重基本人權(quán)和核心價(jià)值觀與技術(shù)上的安全可靠為關(guān)鍵建立“可信賴的人工智能”;我國(guó)亦于2019年6月發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,指出人工智能倫理的主旨不僅在于設(shè)立自上而下的規(guī)范,還要考慮人工智能能否作為潛在的行動(dòng)者被納入到整個(gè)責(zé)任框架中。在這一框架內(nèi),主體責(zé)任可以根據(jù)每一參與者在每一個(gè)環(huán)節(jié)的影響分量和后果而分為可定位、可問(wèn)責(zé)的具體職責(zé)(accountability)與法律責(zé)任(legal liability)。

        (3)人類行動(dòng)者和人工智能共同構(gòu)成多主體的人機(jī)交互整體,以擔(dān)負(fù)“共同責(zé)任”(joint responsibility)。這是一種積極的共同責(zé)任觀,它超越了狹義的倫理框架,旨在建立一個(gè)更全面的倫理框架以便把人工智能作為不充分的道德行動(dòng)者納入進(jìn)來(lái),同時(shí)保持人類行動(dòng)者對(duì)自主系統(tǒng)有意義的控制。參與人工智能技術(shù)工程的每個(gè)環(huán)節(jié)的個(gè)體和集體參與者都意識(shí)到自己的行動(dòng)是更大圖景中不可缺失的一部分,在消極方面將可預(yù)見(jiàn)的風(fēng)險(xiǎn)盡可能地降到最低,在積極方面則把人工智能行為對(duì)提升人類主體責(zé)任感的影響納入進(jìn)來(lái),將人類主體與人工智能之間的關(guān)系視為超越狹隘的目的—手段的共同協(xié)作關(guān)系。

        基于對(duì)不同類型的能動(dòng)性的區(qū)分,我們可以看出,一方面,人工智能的最低限度自主性能力并不滿足道德能動(dòng)性的條件,也無(wú)法為具有高度自主系統(tǒng)的人工智能提供道德歸屬的條件。如果說(shuō)人工智能具有一定的能動(dòng)性,那么也只是在因果性意義上使用自主性這一概念,即脫離外力的即時(shí)操作而自動(dòng)制定行為決策,它起到的是描述事件發(fā)生的作用,而不具有構(gòu)成道德能動(dòng)性所需要的充分條件。當(dāng)我們脫離情景,孤立地討論具有深度學(xué)習(xí)能力和自主能力的人工智能對(duì)它的行為后果與人類一樣負(fù)有完全的道德責(zé)任,這是誤導(dǎo)性的,很有可能導(dǎo)致我們忽視甚至消解人類參與者的責(zé)任。我們應(yīng)當(dāng)修正傳統(tǒng)責(zé)任話語(yǔ)的不足,將涉及人工智能行為的整個(gè)情景作為一個(gè)整體來(lái)探討其中道德責(zé)任歸屬和分配問(wèn)題,把風(fēng)險(xiǎn)責(zé)任納入到人工智能的設(shè)計(jì)、開(kāi)發(fā)、應(yīng)用和維護(hù)等整個(gè)過(guò)程中,并建立可追溯和可追責(zé)的責(zé)任分配框架。

        日益發(fā)展的人工智能技術(shù)在自主能力方面獲得迅猛的發(fā)展,雖然并沒(méi)有達(dá)到人類道德行動(dòng)者所具備的具有層級(jí)結(jié)構(gòu)和規(guī)范性維度的自主性,以及具有作出道德敏感性和情感反應(yīng)性態(tài)度等能力,但仍然可以據(jù)此將其劃分為一般行動(dòng)者以用構(gòu)建一個(gè)包括人類主體和人工智能在內(nèi)的責(zé)任歸屬和分配框架,這并不排除人工智能可以從一般行動(dòng)者發(fā)展成為充分道德行動(dòng)者的可能性。解決這個(gè)難題已經(jīng)超出了本文的任務(wù),本文只是力圖指出人工智能倫理的一個(gè)可能的思路:這個(gè)跨越是否僅僅是一個(gè)技術(shù)經(jīng)驗(yàn)性的問(wèn)題,還需要我們從人工智能的復(fù)雜算法、道義邏輯、形而上學(xué)、行動(dòng)哲學(xué)、認(rèn)知科學(xué)、道德心理學(xué)、規(guī)范倫理學(xué)等各個(gè)學(xué)科對(duì)道德能動(dòng)性作出深度的綜合性研究。

        猜你喜歡
        圖靈行動(dòng)者能動(dòng)性
        艾倫·圖靈: 數(shù)學(xué)與邏輯的奇才
        與異質(zhì)性行動(dòng)者共生演進(jìn):基于行動(dòng)者網(wǎng)絡(luò)理論的政策執(zhí)行研究新路徑
        調(diào)動(dòng)主觀能動(dòng)性,提高寫(xiě)作水平
        新英鎊
        高職英語(yǔ)教學(xué)中學(xué)生“主體能動(dòng)性”的發(fā)揮
        人工智能簡(jiǎn)史
        敬仰中國(guó)大地上的綠色行動(dòng)者
        語(yǔ)言與圖靈測(cè)試
        網(wǎng)絡(luò)行動(dòng)者的新媒體使用特征、影響及媒介民主化
        新聞傳播(2015年3期)2015-07-12 12:22:28
        做“互聯(lián)網(wǎng)+”的積極行動(dòng)者
        免费无码又爽又刺激又高潮的视频 | 国产成人精品三上悠亚久久| 日本一区二区精品色超碰| 丰满熟妇人妻av无码区 | 91老司机精品视频| 永久免费中文字幕av| 久久免费看的少妇一级特黄片| 三a级做爰片免费观看| 久久无码高潮喷水| 国产精品不卡无码AV在线播放| 一本久久综合亚洲鲁鲁五月夫| 漂亮人妻被强了中文字幕| 国产色xx群视频射精| 99久久人人爽亚洲精品美女| 99热成人精品国产免| 国产不卡av一区二区三区| 精品免费国产一区二区三区四区| 成在人线av无码免观看麻豆| 国内精品久久久久久久亚洲| 99伊人久久精品亚洲午夜| 亚洲亚洲人成综合丝袜图片| 无码aⅴ在线观看| 人妖熟女少妇人妖少妇| 91九色人妻精品一区二区三区| 亚洲av日韩av无码污污网站| 亚洲AV无码乱码1区久久| 亚洲国语对白在线观看| 狠狠97人人婷婷五月| 少妇高潮惨叫喷水在线观看| 亚洲综合久久一本久道| 一本久道高清视频在线观看| 中文字幕一区二区人妻性色| 国产v综合v亚洲欧美大天堂| 中文字幕亚洲一区视频| 国产精品爽爽久久久久久竹菊| 日韩AV不卡一区二区三区无码| 成人永久福利在线观看不卡| 亚洲国产av一区二区不卡| 日韩精品极品视频在线观看免费| 女同亚洲女同精品| 一区二区三区成人av|