亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能倫理規(guī)范是什么類型的規(guī)范?

        2020-03-20 03:46:53吳童立
        文史哲 2020年2期

        吳童立

        摘 ?要:人工智能倫理規(guī)范的制定是人工智能研究領(lǐng)域的重大議題,大多數(shù)人都遵循一種“理想規(guī)則主義”的設(shè)計思路。然而,這種思路在理論上無法成立,在實(shí)踐中會帶來更大風(fēng)險,其深層預(yù)設(shè)是看待人工智能的工具主義態(tài)度。實(shí)際上,基于因果推理模型的人工智能具有真正意義上的自主性,有充分理由被賦予道德主體的資格。因此,一種關(guān)系性規(guī)則的設(shè)置才能更好地處理人工智能的倫理問題,這要求它們能夠?yàn)樽约旱男袨樨?fù)責(zé),其重要條件就是具有一定程度的產(chǎn)權(quán)。

        關(guān)鍵詞:人工智能道德主體;儒家倫理規(guī)范;理想規(guī)則主義;關(guān)系性規(guī)則

        一、引言

        長久以來,機(jī)器作為工具的一種被視為人類能力和心智的延伸。自新千年開始,隨著大數(shù)據(jù)、深度學(xué)習(xí)、仿生技術(shù)、人工知覺等領(lǐng)域的快速發(fā)展和不斷交叉融合,具有更強(qiáng)自主能力的人工智能產(chǎn)品被不斷研發(fā)出來并獲得廣泛應(yīng)用。無論是具有一定“判斷能力”的無人機(jī),還是能夠機(jī)智地回答問題的Siri,已經(jīng)真正進(jìn)入到人們的視野和生活中。一個共識正在形成:人類終將制造出外形與行為與我們相似人工智能,并與它們在同一個世界中共處。這個共識自然地引發(fā)了一種擔(dān)憂:人工智能會給人類社會帶來何種風(fēng)險?這種風(fēng)險是否可以被人類預(yù)測并控制?為了控制這種風(fēng)險應(yīng)該對人工智能的研發(fā)和使用制定什么樣的規(guī)范?政府和學(xué)術(shù)團(tuán)體已經(jīng)行動起來,2016年歐洲議會發(fā)布的關(guān)于人工智能和機(jī)器人的報告,表達(dá)了其對于機(jī)器人將給人類帶來的風(fēng)險的關(guān)注;聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會于2016年的報告,討論了人工智能技術(shù)進(jìn)步帶來的社會與倫理問題;我國在2017年7月發(fā)布了《新一代人工智能發(fā)展規(guī)劃》;耶魯大學(xué)于2017年組織了“We Robot”跨學(xué)科會議。

        但分歧依然廣泛存在。一種的聲音把人工智能視為人類的潛在挑戰(zhàn)者,認(rèn)為一旦人工智能具有了與人類相當(dāng)甚至超過人類的智能水平,那么它們將成為代替人類的新物種和人類歷史的終結(jié)者,人類應(yīng)該首要地考慮這種存在論意義上的風(fēng)險。另一種聲音則把人工智能當(dāng)作一種具有更高自動化程度的機(jī)器,認(rèn)為從弱人工智能到強(qiáng)人工智能的跨越還很遙遠(yuǎn)甚至永遠(yuǎn)無法實(shí)現(xiàn),我們更應(yīng)該關(guān)注的是對人工智能算法、標(biāo)準(zhǔn)和使用進(jìn)行規(guī)范,以避免產(chǎn)生一系列具體的技術(shù)、倫理、法律風(fēng)險。這種分歧形成了一種潛在的非此即彼的預(yù)設(shè):人工智能要么類似于超人,要么類似于機(jī)器。這個預(yù)設(shè)又牽涉到一些更為古老和根深蒂固的觀念:人類的主體性似乎與一個包含著諸如意識、自由意志、情感、善惡識別能力等組成的概念集合聯(lián)系在一起。我們將指出,尤其是在討論有關(guān)人工智能的倫理議題時,這些預(yù)設(shè)是有害的。不假思索地接受它們,會讓我們錯失一些重要的思考維度。本文試圖表明,并沒有充分理由把主體性視為是先天地屬人的,即使是弱人工智能也應(yīng)當(dāng)被賦予至少一定程度的道德主體資格,以某種較為對等的方式與人類在同一個社會中共處;從一種關(guān)系論角度考慮人工智能的倫理規(guī)范,在理論上可以得到有效的辯護(hù),在實(shí)踐上亦有助于更好地處理人工智能引發(fā)的倫理、法律和社會問題。劉紀(jì)璐教授的文章《儒家機(jī)器人倫理》(以下簡稱“劉文”)代表了一種與筆者大相徑庭的主流思路,其論述邏輯嚴(yán)謹(jǐn)而富于洞見,通過與它的對話可以更清晰地呈現(xiàn)出我們的問題意識。因此,本文的討論將從對劉文的分析開始。

        二、“儒家機(jī)器人”不能做什么

        劉文試圖回答兩個彼此相關(guān)的問題。第一,與人工智能倫理的主流理論,即阿西莫夫三定律、康德式道義論、功利主義相比,為何儒家倫理原則更好且更適合作為機(jī)器人的倫理規(guī)范?第二,如何對儒家倫理法則進(jìn)行詮釋并使之成為一種可以被算法化的規(guī)則?

        作者首先指出了三種主流理論的困難。阿西莫夫機(jī)器人定律由于只是寬泛地給出了不傷害、服從命令、自我保護(hù)等原則,而沒有給出更豐富的要素以對不同的道德情境進(jìn)行辨識、區(qū)分和比較,故無法適用于很多道德選擇的情況。尤其是在傷害無法避免的情形如電車難題中,機(jī)器人將陷于進(jìn)退兩難無法行動的困境??档碌懒x論應(yīng)用于機(jī)器人,會遭遇一個元問題層面的悖論:康德理論要求行動者具有自發(fā)的能動性以成為“目的王國”的公民,但機(jī)器人本質(zhì)上是人造的工具,這本身就違背了康德原則。功利主義的首要問題是人們不愿意把讓機(jī)器人把這個原則應(yīng)用于自己,同時,這個原則在有些情形中顯得過于激進(jìn)的以至于對個人的權(quán)利造成侵害。基于這些分析,作者進(jìn)一步提出了儒家機(jī)器人的原則:“忠”被詮釋為機(jī)器人對自身功能性角色的恪守,“恕”對應(yīng)著一種對負(fù)面價值和負(fù)面結(jié)果的禁止行動的“消極黃金法則”,“仁”則體現(xiàn)為幫助人類行善并禁止幫助人類作惡的道德命令。這種儒家式機(jī)器人會積極地完成自己角色設(shè)定內(nèi)的功能,在此設(shè)定之外則通常選擇不進(jìn)行干涉,同時能夠保證不作惡和不協(xié)助作惡。作者指出,它在道德決策中的表現(xiàn)會優(yōu)于其他幾種主流模型,例如,在電車情形和天橋情形中能夠以絕大多數(shù)人認(rèn)同的方式行動,在自動駕駛情形中則選擇優(yōu)先保護(hù)駕駛員。

        可以清楚地看到,劉紀(jì)璐教授的討論主要針對只有局部智能與人類相當(dāng)?shù)娜跞斯ぶ悄?,他關(guān)注的是如何設(shè)計它們的行動準(zhǔn)則以使其更好地服務(wù)人類且不造成意外的風(fēng)險。這種關(guān)注隱含了一種我稱之為“理想規(guī)則主義”的預(yù)設(shè)。劉文中引用的一段話概括了這個預(yù)設(shè):“機(jī)器倫理的終極目標(biāo)……是要創(chuàng)造一種機(jī)器,它自己遵循一套理想的道德準(zhǔn)則;也就是說,機(jī)器是由這個原則或這些原則決定的,它決定了可能采取的行動”。這種觀點(diǎn)可以分解為兩個底層主張:第一,可以設(shè)計出一種通用的、普適的理性規(guī)則體系來處理所有道德情境;第二,只要嚴(yán)格地使用這種規(guī)則體系,就可以使得機(jī)器人避免道德風(fēng)險。與之相對應(yīng),我們可以提出兩個問題:第一,存在一種普適的人工智能道德規(guī)則體系嗎?第二,即使這種體系在某種意義上可以被創(chuàng)造出來,它是處理人工智能道德問題的最佳方式嗎?我們對兩個問題的回答都是否定的。

        劉文的立論主要基于兩個廣受關(guān)注的道德思想實(shí)驗(yàn),即電車難題和自動駕駛選擇難題。已經(jīng)有不少研究指出了,這些思想實(shí)驗(yàn)由于過于抽象和簡化地設(shè)置了道德情境,可能導(dǎo)致忽略一些重要的因素。以人工駕駛為例,MIT媒體實(shí)驗(yàn)室制作的“道德機(jī)器”網(wǎng)站,就列出了13種可能場景供受訪者進(jìn)行考慮,其中涉及司機(jī)和路人的性別、年齡段、職業(yè)、社會身份或地位、是否特殊人群(如孕婦)、是否遵守交通規(guī)則、物種(人或動物)等要素。孫保學(xué)指出,自動駕駛難題中涉及的價值不僅是雙方的生命,而是包含著多元價值維度,因此除了一些普遍原則,還應(yīng)該依據(jù)情境引入特殊的價值要素(如違反交通規(guī)則者承擔(dān)更多責(zé)任,孕婦和兒童享有優(yōu)先權(quán)等)作為重要參量。如果把視角延伸到這種更豐富語境組成案例系列中,儒家機(jī)器人的“優(yōu)先保護(hù)司機(jī)”的功能主義法則就顯得過于單薄和缺乏說服力。

        電車難題的兩種情形常常被視為分別屬于功利主義和道義論的應(yīng)用場景,但細(xì)究起來,其中要考慮的要素也很多,尤其是,如何對這些要素進(jìn)行界定以判定它們適用于何種原則,也依然是充滿爭議的。例如,如果天橋上的胖子不算涉事者故不應(yīng)該被牽扯進(jìn)來,那么電車支線軌道上的那個人應(yīng)被算作涉事者嗎?如果推胖子被視為制造了一個新的威脅因而算作主動傷害,電車轉(zhuǎn)向支線軌道算不算主動傷害?根據(jù)什么原則來判定“把人當(dāng)作工具”,又根據(jù)什么原則來判定“副作用”?對這些要素的考察并不是無關(guān)緊要的。情境的輕微變化就會導(dǎo)致對要素的不同判定。在湯姆森設(shè)計的環(huán)軌情形中,電車的支線與主線在另一端匯合為一個環(huán)軌,根據(jù)他的解釋,殺死支線上的一個人就不再僅僅是避開5人產(chǎn)生的副作用,而成為救5人的必要手段——如果電車不是因?yàn)樽驳侥莻€人而停下來,它依然會通過環(huán)軌回頭撞死5人。不難看到,由于沒有考慮這些要素及其情境依賴的不同排序方式,儒家機(jī)器人不能有效區(qū)分電車情形和環(huán)軌情形。

        劉紀(jì)璐教授也許會申辯說,之所以不考慮某些要素,是因?yàn)檫@些要素是對人類不可見的或無暇顧及的,例如,司機(jī)既無法知道路人的身份也來不及反應(yīng)和判斷。但是,這種能力缺乏對人工智能而言很可能不成立。未來社會完全有可能對每個個體的數(shù)據(jù)進(jìn)行電子標(biāo)記,人工智能可以在極短時間內(nèi)進(jìn)行預(yù)先識別并據(jù)此做出判斷。劉紀(jì)璐教授可以進(jìn)一步聲稱,對于一個具有特定功能的機(jī)器人,其功能范圍之外的要素對于道德判斷而言是無關(guān)的。但是,一個基于功能的行動所涉及的范圍并不總是能夠被涇渭分明地界定出來。如果說自動駕駛機(jī)器人的功能包含著最小傷害,那么這個最小傷害優(yōu)先適用于司機(jī)還是路人,則很難說先天地包含在功能的定義中。另一方面,如果即將撞到的路人是一位軍政要人,其突然死亡可能導(dǎo)致更大的混亂和傷亡,就需要更加謹(jǐn)慎地考慮“一視同仁”的原則是否適用。

        這些理由都不是決定性的。劉紀(jì)璐教授可以綜合考量多種因素在不同情境中的取舍和配比,通過添加次級法則對他的儒家機(jī)器人進(jìn)行調(diào)整,其規(guī)則體系在原則上仍然可以得到辯護(hù)。我們必須對理想規(guī)則主義給予致命一擊。這個論證的最嚴(yán)格的版本是哥德爾給出的。上世紀(jì)初,他曾判決性地證明了不完備性定理,即在任何一個豐富到足以包含算數(shù)的形式系統(tǒng)中,系統(tǒng)的一致性都不可能在這個系統(tǒng)自身之中得到證明。這種特性也可以延伸到語義系統(tǒng)中:“在語言A的內(nèi)部不可能給出一個對于它自身的完全的認(rèn)識論描述,因?yàn)锳的句子的真理概念不能在A的內(nèi)部得到定義。這個定理乃是包含算術(shù)的形式系統(tǒng)中不可判定命題的存在的真正根據(jù)。”換言之,一個形式系統(tǒng)或語義系統(tǒng)為真的條件是,其中存在著某種不確定性。至于道德的理想規(guī)則系統(tǒng),盡管與這種形式系統(tǒng)不盡相同,但其真依然部分地依賴于系統(tǒng)的一致性,故無法避免地具有某種不可判定性。另一方面,道德規(guī)則系統(tǒng)的問題甚至更復(fù)雜,它還具有另一重真值來源,即人類的道德直覺和理性辯護(hù)。這些道德直覺豐富多元,而且時常彼此沖突或不一致。在電車難題中,這種沖突體現(xiàn)為,哲學(xué)家對選取哪種理由為主流的選擇進(jìn)行辯護(hù)產(chǎn)生了嚴(yán)重的分歧。在自動駕駛難題中,直覺的不一致表現(xiàn)地更為明顯:人們普遍認(rèn)為配備功利主義算法的自動駕駛汽車最符合道德,但并不想購買這種汽車。不能把這種現(xiàn)象簡單地視為私心與道德感的斗爭,或是源于某種類似意志薄弱的不徹底性,更恰當(dāng)?shù)姆绞绞前阉斫鉃閮煞N關(guān)于正確性的不同標(biāo)準(zhǔn)的沖突。趙汀陽因此評論道:“嚴(yán)格地說,這是人的悖論,不是機(jī)器的悖論。機(jī)器只是遵循規(guī)則而已,問題在于我們不知道應(yīng)該為自動汽車選定什么樣的規(guī)則?!?/p>

        面對紛繁復(fù)雜的情境和彼此沖突的直覺,人類本能地想要找到一種簡單的、標(biāo)準(zhǔn)的規(guī)則體系。但是只要觀察一下我們的日常生活,就會發(fā)現(xiàn)這種理想道德行為指南很少能夠?qū)崿F(xiàn),如果回顧一下人類歷史,還會發(fā)現(xiàn)這種想法有時甚至是危險的。人們或許會把這歸結(jié)為人類情感和理性的不一致、每個人獨(dú)特的個體性或彼此差異的利益訴求,諸如此類。人工智能的出現(xiàn)又一次激發(fā)了人類對理想規(guī)則體系的本能訴求。與人類不同,人工智能沒有情感干擾、沒有自我邊界、沒有利益訴求,能夠絕對理性地遵從指令,用一個教科書式的規(guī)則體系對它進(jìn)行規(guī)范似乎是理所當(dāng)然的。但是,這個貌似無懈可擊的推論中存在著一個未言明的預(yù)設(shè),我們認(rèn)為這個預(yù)設(shè)是錯誤的。

        根據(jù)前文的分析,“理想道德規(guī)則體系不存在”的依據(jù)在于道德體系自身的不完備性和道德直覺的多元性。進(jìn)一步認(rèn)可“人類可以不按照理想規(guī)則行動”的依據(jù),除了對上述事實(shí)的承認(rèn),還在于對人類道德主體資格的認(rèn)可——人們有權(quán)且道德上允許按照某一個可以得到辯護(hù)的道德直覺來行動,如果這一行動的理由和結(jié)果與共同體認(rèn)可且得到充分辯護(hù)的某種準(zhǔn)則不一致,行動主體應(yīng)該承擔(dān)道德責(zé)任。由此反觀,認(rèn)為“人工智能只能按照理想規(guī)則行動”的依據(jù),就在于人工智能沒有這種道德主體資格。但是,缺乏情感、自我邊界和利益訴求的特點(diǎn),并不是沒有主體資格的理由。這種觀點(diǎn)背后的真正預(yù)設(shè),正如瓊森所言:人工智能只是純粹的機(jī)器和工具。劉文雖然在引論部分談到了“人工道德主體”,但是在論證過程中并沒有涉及這種主體性。我們在后文將指出,這一立場在理論上是無法得到有效辯護(hù)的,在實(shí)踐上則難以處理人工智能社會引發(fā)的一系列問題。拋棄這一立場,則會根本上改變我們對人工智能倫理規(guī)則的構(gòu)想方式,以及人類與人工智能關(guān)系的看法。

        三、人工智能主體意味著什么

        面對人工智能這一“新物種”,大多數(shù)人并沒有做好心理準(zhǔn)備。我們會把戰(zhàn)勝人類頂級棋手的AlphaGo稱做“阿爾法狗”,這種暗含貶低的稱呼折射了人們對待人工智能的心態(tài):一方面承認(rèn)它在某方面智能上的強(qiáng)大已經(jīng)遠(yuǎn)超人類極限,另一方面則認(rèn)為它不過是一個沒有智慧和心靈的低等造物,一個機(jī)械裝置,一個工具。在這里,人類的智能、自主意識、情感、道德等能力似乎被想象成一種難以探究的、甚至帶有神秘色彩的東西。這些東西為人類所獨(dú)有,人因此配享道德上的主體資格。但是,這種“獨(dú)有性斷言”真的完全成立嗎?進(jìn)一步來說,即使人工智能真的在這些方面與人類有重大差別,這能構(gòu)成它們不是道德主體的有效理由嗎?

        一個最常見的說法來自對圖靈測試的攻擊。塞爾在《思想、大腦和程序》一文中提出了著名的“中文屋”思想實(shí)驗(yàn),用來證明人工智能只是一堆程序,它根本沒有“理解”自己在做什么,故沒有真正的智能。假設(shè)密室里有一個人按照某個程序(此程序可以翻譯中文)操作一些字符串,來對外面的人遞進(jìn)來的中文問題字條以中文字條進(jìn)行回答,那么盡管此人完全不懂中文,但外面的人會以為他懂得中文。把中文屋里的人換做人工智能,就可表明:即使通過了圖靈測試,也并不代表具備了真正的理解和智能。我認(rèn)為,這種觀點(diǎn)既過高地估計了人類的“理解”,也過低地估計了人工智能的“計算”。

        讓我們對上述思想實(shí)驗(yàn)稍加改動:有一個英語國家的人被植入了一種大腦芯片,此芯片可以在極短的瞬間把英文翻譯為中文(也可以把中文翻譯成英文),這個人通過一段時間的練習(xí)可以熟練地與中國人交談,由于芯片信息傳遞速度非??欤餐耆m應(yīng)了這種交流方式,以至于常常意識不到自己是在通過芯片的“翻譯”在和中國人談話。這種技術(shù)在未來是完全有可能實(shí)現(xiàn)的,如果我們問那個人是否會說中文,他很有可能回答“是”,至少不像中文屋情形中那樣非常確定地給出否定回答。人們經(jīng)常認(rèn)為理解伴隨著的一種特殊的感覺和能力,這個思想實(shí)驗(yàn)告訴我們,“理解的感覺”完全可以通過偶然的方式被建構(gòu)出來,因此它不像人們想象的那么重要。反過來就證明了,“理解”的核心特質(zhì)是能夠在相關(guān)情形中“使用”某種規(guī)則。這一點(diǎn)在下棋的情況中體現(xiàn)得更加明顯:沒有任何證據(jù)表明柯潔比AlphaGo對圍棋的理解更加深刻。另一方面,塞爾的支持者低估了人工智能使用規(guī)則所需要的“能力”的復(fù)雜程度。中文屋思想實(shí)驗(yàn)的誤導(dǎo)在于把這種能力簡化為一個程序和幾張紙條,但是這個程序至少包括了對詞性區(qū)分的規(guī)則、對句法組織的規(guī)則、對句子屬性區(qū)分的規(guī)則、同一個詞在不同語境中的應(yīng)用規(guī)則、中文日常知識的數(shù)據(jù)庫,等等。要使用這個程序,也不僅僅是輸入一個字符串這么簡單,而是涉及復(fù)雜的、多步驟的操作。丹尼爾·丹尼特因此總結(jié)道,我們總以為人類的理智能力來自于他們能理解,其實(shí)理解本身不是一種原因,而是一種效果,它從成堆的能力中涌現(xiàn)出來,是各種能力疊加生成的。對“理解”的這種分析和還原表明,我們沒有自認(rèn)為的那么“理解”,人工智能也不是想象中的那么“無理解”。看來,人類是時候放下對理解能力之獨(dú)有性的傲慢偏見了。

        另一種對人工智能主體資格的質(zhì)疑,其理由是人工智能缺乏一些必要的心理成分,如情感和感受。這種觀點(diǎn)認(rèn)為,苦樂、愛恨、羞恥、自尊等情感和感受是人格和德性的基礎(chǔ),如果缺乏這些特質(zhì)就不能夠成為道德上的主體。這是一種典型地來自人類經(jīng)驗(yàn)的立場:我們的確是在各種情感和感受中建構(gòu)起自我的人格,辨識和塑造了自身的道德品質(zhì)。但是,這并不表明它是主體性和道德的先天條件??档乱呀?jīng)給出了一個著名的反駁路徑:主體性來自于為自身訂立并遵守一種可普遍化法則的能力,它屬于包括但不限于人類的任何理性存在者。情感主義的支持者也許會說,至少同情或移情應(yīng)該被視為道德能力的一個基石,如果缺少了它,道德所必須的交互主體性和敏感性將會坍塌。同時,心理成分依賴于人類的生理結(jié)構(gòu),人工智能沒有這樣的結(jié)構(gòu)也就不具有相應(yīng)的情感和感受。我們對此的回應(yīng)是,應(yīng)該對“情感反應(yīng)”和“情感體驗(yàn)”做出區(qū)分。人工智能的確不具備人類的情感體驗(yàn),但這對主體性和道德資格都不是必須的。另一方面,完全可以用一些規(guī)則設(shè)置來讓人工智能做出與情感反應(yīng)等價的行為,例如,把同情心定義為“己欲立而立人”或“己所不欲勿施于人”,把羞恥感定義為“對于被規(guī)定為錯誤的行為,每觀察到一次則為其負(fù)值增加一個分值的權(quán)重標(biāo)記”。

        對人工智能主體資格最主要的反駁是,它缺乏真正的自主性。這類反駁主要集中在三個方面。第一,自主性要求一種內(nèi)在狀態(tài),內(nèi)在狀態(tài)由欲望、信念和其他有意識的狀態(tài)組成,以保證行動是出于主體的意圖而做出的。人們普遍認(rèn)為人工智能缺乏這種內(nèi)在意圖。有論者進(jìn)一步提出,意圖應(yīng)然是自然生成的,而人工智能的所謂“意圖”無非是設(shè)計者植入的東西。第二,自主性要求行動者對于自己的行動有所意識,因?yàn)橹挥幸粋€有意識的行動才具有道德屬性,才能夠被贊揚(yáng)或譴責(zé)。然而,人工智能被認(rèn)為是不具有意識的。第三,自主性要求行動者具有自由意志,能夠做出真正的選擇被視為自主性的一個特征。定律可以限制但不能構(gòu)成人類的自主性,但是對于人工智能來說,代碼形式的定律構(gòu)成并定義了它的全部行為,它沒有超出定律的自由意志。

        在我看來,這些觀點(diǎn)貌似有理,實(shí)則獨(dú)斷。自主性的概念并未包含如此多的要求,它們主要來自于對人類經(jīng)驗(yàn)的耦合。本文無意在形而上學(xué)層面討論諸如“意識的本質(zhì)”、“自由意志是否存在”這類問題,我們的關(guān)注點(diǎn)在于闡明一種在直覺上有效、在經(jīng)驗(yàn)中可行的對自主性的理解,以澄清何種行動者有資格被視為道德主體。首先,內(nèi)在意圖與內(nèi)在心理狀態(tài)的類比是模糊的甚至隱喻性的。有時候甚至連我們也說不清自己的欲望和信念來自哪里、如何形成,在康德主義者看來,它們不過是一種被給予之物。所謂內(nèi)在的、自然生成的特性,更多是基于一種未經(jīng)充分辨析的經(jīng)驗(yàn)性感受,其是否成立都很可疑,更談不上是本質(zhì)特征。自主性的實(shí)質(zhì)是一種自治,正如弗洛里迪·盧西亞諾和杰夫·桑德斯所指出的,是在沒有外部刺激的情況下可以自己調(diào)整內(nèi)部狀態(tài)或特征,從而不受他者(即人類)干預(yù)地控制自己的行為;進(jìn)一步的要求是,通過改變自己的特征或內(nèi)部狀態(tài)來改進(jìn)自身規(guī)則。面對一個這樣的人工智能,我們很難拒絕承認(rèn)它具有真正意義上的自主性。薩爾托指出,即使它的意圖不是“原初的”,只要人們對他進(jìn)行了“認(rèn)知授權(quán)”,那么機(jī)器人按照規(guī)則自主產(chǎn)生的決策都可以視為出于自身意圖的。其次,關(guān)于有意識地行動之要求,暫且不說意識極有可能是一種涌現(xiàn)出來的效應(yīng)甚至幻覺,關(guān)于“有意識地行動”之定義本身也存在爭議。以自動駕駛為例,如果人工智能可以提前對情況做出預(yù)判并且根據(jù)某個規(guī)則行動,有什么理由說它不是有意識地這樣做呢?對于意識的經(jīng)驗(yàn)性感覺的執(zhí)念,再一次影響了人們對問題實(shí)質(zhì)的把握。況且,意識對于道德責(zé)任也不見得是必須的,實(shí)用主義觀點(diǎn)的支持者認(rèn)為,具有穩(wěn)固的、可觀察的行為就足以支持我們對道德主體的責(zé)任要求。最后,自由意志與自主性、道德主體資格的強(qiáng)相關(guān)性也是相當(dāng)可疑的。法蘭克福已經(jīng)出色地論證,道德責(zé)任并不依賴于一種基于可供取舍的可能性(alternative possibilities)的自由意志觀點(diǎn)??档抡J(rèn)為,自由意志不在于跳出規(guī)則,而恰恰在于遵從規(guī)則。在這個意義上,納多甚至聲稱只有機(jī)器人才有真正的自由。

        因此,一種能夠獨(dú)立地對情況進(jìn)行判斷,通過調(diào)整和使用規(guī)則做出決策的人工智能,具有一種真正意義上的自主性,應(yīng)當(dāng)被賦予道德主體的資格。人們或許仍然對此抱有疑慮。中文屋里的圖靈機(jī)器人的刻板印象揮之不去,目前主流的深度學(xué)習(xí)機(jī)器人,只是用概率計算的方式把海量大數(shù)據(jù)與多層神經(jīng)網(wǎng)絡(luò)進(jìn)行耦合,這看起來只是一個沒有能動性的高級木偶。近年來人工智能算法領(lǐng)域興起的因果推理模式,為機(jī)器人具有真正的“智能”帶來了曙光。加州大學(xué)洛杉磯分校計算機(jī)系的玻爾(Judea Pearl)教授和朱松莼教授是此領(lǐng)域的代表人物,玻爾的《因果性》一書在2011年獲得了計算機(jī)圖靈獎。根據(jù)朱松莼的介紹,不同于流行的“大數(shù)據(jù)、小任務(wù)”模式,這是一種“小數(shù)據(jù)、大任務(wù)”模式。前者的目標(biāo)是通過大數(shù)據(jù)匹配來實(shí)現(xiàn)鸚鵡學(xué)舌式的精確模仿(被動學(xué)習(xí)),后者的目標(biāo)則是讓人工智能通過觀察學(xué)習(xí)和因果推理,在復(fù)雜情況中自主地找到合理解決方案。他舉了一個例子:日本研究人員發(fā)現(xiàn)一只烏鴉通過把堅(jiān)果放在路中間讓汽車壓碎的方式吃到了果仁。這不是一個簡單的任務(wù)。砸碎堅(jiān)果超出了烏鴉的物理動作能力,它首先嘗試高空拋物等方法未果,然后想到汽車可以壓碎堅(jiān)果,它要觀察車流的變化,以安全的方式把堅(jiān)果放在路上并取回果仁。任務(wù)的完成并不是像AlphaGo那樣通過無數(shù)次的大數(shù)據(jù)訓(xùn)練實(shí)現(xiàn)的,而是通過動機(jī)—觀察—推理—假設(shè)—驗(yàn)證這樣的過程實(shí)現(xiàn)的。這種方法類似于人類解決問題的方法,是歸納學(xué)習(xí)(inductive learning)和演繹學(xué)習(xí)(deductive learning)的結(jié)合。沿著這個方向設(shè)計的人工智能,可以通過一個定義好的身體基本行動功能和一個包含價值函數(shù)與決策函數(shù)的模型空間,做出具有真正自主性的行動。

        不難發(fā)現(xiàn),這樣的人工智能不是按照一個標(biāo)準(zhǔn)手冊來行動,而是用常識和理性對特殊情形做出回應(yīng)。關(guān)鍵是,如同人類行動一樣,這種回應(yīng)的方式不能被完全預(yù)測到——我們不能再把他們簡單地視為機(jī)械工具了。對于這樣的人工智能,丹尼爾·丹尼特建議人們最好使用“意向立場”(the intentional stance)去理解和對待。意向立場通過諸如欲望和信念等認(rèn)知狀態(tài)去理解一個實(shí)體的行為,它代表了我們解釋和預(yù)測可以采取有目的行動的復(fù)雜實(shí)體之行為的唯一可能視角。與物理立場和設(shè)計立場進(jìn)行對比,有助于我們更清楚地理解這種視角。物理立場是通過以自然法則為說明框架的物理性質(zhì)或條件來解釋實(shí)體的行為,如用氣壓、溫度、濕度等變量關(guān)系來解釋為何下雨;設(shè)計立場則是通過裝置的設(shè)計或功能來說明實(shí)體的行為,如用設(shè)計原理來說明手表為何能指示時間。這兩種立場顯然難以說明人工智能的自主行為,相反地,如果我們使用意向立場,把人工智能當(dāng)作理性智能體來看待,就可以通過分析它所處的場域、身位和動機(jī),來判斷它所具有的欲望和信念,并大致預(yù)測它將決定采取何種行動來實(shí)現(xiàn)其目的。如果我們認(rèn)識到更完善的自主能力是人工智能的發(fā)展趨勢,就不得不承認(rèn)唯有采取意向立場,才能更加準(zhǔn)確地理解和預(yù)測它們的行為,才能最大程度地避免它們帶來的各種問題。由于這種立場也是人類理解自身和其他高等動物的方式,它也就自然地賦予了人工智能一種“類人的”而非“擬人的”屬性以及真正的主體資格。我將進(jìn)一步闡明,這種視角會改變?nèi)祟悓ψ陨砼c人工智能關(guān)系的理解方式,從而啟發(fā)人們用一種新的倫理和行動規(guī)則來對人工智能進(jìn)行設(shè)計。

        四、從正確性規(guī)則到關(guān)系性規(guī)則

        與人類共處于同一個世界,作為行動主體的人工智能會以何種方式、何種規(guī)則做出具有道德意義的判斷呢?如前文所述,具有自主性的人工智能,其行動是由外來的數(shù)據(jù)、構(gòu)成性的任務(wù)和內(nèi)在的推理模型共同構(gòu)成的。觀察數(shù)據(jù)主要用于學(xué)習(xí)統(tǒng)計中要素的相關(guān)性,推理模型構(gòu)成了判斷和決策的能力,而任務(wù)則不只是作為被給定的功能角色那么簡單。引發(fā)人類偏好的任務(wù),是生物進(jìn)化和文化傳承所塑造的一些值得追求的價值,以及它們與其他價值錯綜復(fù)雜的相互關(guān)系。不同的任務(wù)要求從環(huán)境中提取特定變量而忽視其他變量。這些都需要學(xué)習(xí)和推理,而不是通過簡單的設(shè)定就能實(shí)現(xiàn)的。可見,即使對于用來“驅(qū)動”人工智能的價值函數(shù)來說,自下而上的觀察學(xué)習(xí)也至關(guān)重要。道德是社群行為規(guī)范的一種,當(dāng)人工智能進(jìn)入人類的社群,它首先要觀察社群的規(guī)范、理解社群的訴求、把握社群的內(nèi)部和外部關(guān)系,這些是人工智能進(jìn)行道德判斷必不可少的訓(xùn)練。一個理想規(guī)范手冊無法窮盡情況的復(fù)雜性,如同人類一樣,人工智能的道德訓(xùn)練只能在大量的具體案例中,尤其是在互動中才能逐漸塑造出“道德品格”。這種品格包含了對情境的敏感性、對核心要素的辨別、對次級相關(guān)性的提取和權(quán)衡等,唯有據(jù)此做出的道德判斷才能被認(rèn)為是正當(dāng)?shù)?、可靠的和相對安全的?/p>

        如此看來,電車難題也許并不是一個最具代表性的案例。它通過一種抽象過濾了若干要素,把細(xì)微而復(fù)雜的道德考量極端化為非此即彼的選擇。盡管這種情形有出現(xiàn)的可能,但這絕不是日常和典型的道德情形。最近正在熱播的劇集《都挺好》可以為我們提供一個更加常見的倫理情境。假設(shè)現(xiàn)在有一個人工智能保姆來照顧父親蘇大強(qiáng),它該以何種方式處理遇到的日常問題呢?請注意,這里的人工智能不是一個只會被動地接受人類指令的服務(wù)工具,它可以自主地進(jìn)行決策。為了在這個問題家庭中照顧好這個愛找麻煩的老人,人工智能需要知道哪些事物和行為對老人有好處、哪些應(yīng)該被禁止,它還需要了解老人的脾氣性格以找到最能夠讓他接受的服務(wù)方式,它也要了解雇主(老人子女)的要求和偏好,理解他們的家庭關(guān)系甚至清楚他們的財務(wù)狀況。在如此復(fù)雜的情形中,不可能預(yù)先設(shè)計出一個最優(yōu)解植入到機(jī)器人的數(shù)據(jù)庫中,也不可能指望它一開始就把所有事情處理得當(dāng)。人工智能與人類保姆一樣,需要與這個家庭逐步磨合,通過一次次的互動來積累和調(diào)整自己的數(shù)據(jù)庫,反向推理、學(xué)習(xí)和估算這個家庭成員的價值函數(shù),從而最終達(dá)到一個良好的功能角色。

        在這里,真正的學(xué)習(xí)是一個交互的過程,但人工智能的交互性方面往往被低估。香農(nóng)的信息論認(rèn)為,交流就是編碼和解碼,只要雙方有一個共同的碼本和一些共享的背景知識,就總是能夠成功實(shí)現(xiàn)通訊。這種觀念的影響一直持續(xù)到今天。大部分人仍然認(rèn)為,碼本和背景知識理所當(dāng)然地可以被標(biāo)準(zhǔn)化,此為理想規(guī)則主義的來源之一。被忽略的是,背景知識不等于公共知識,更多情況下它是“本地知識”。如果交流雙方?jīng)]有共享同一個本地知識,就很難從對方的“編碼”中準(zhǔn)確地提取意義。例如,西方人不太理解中國電影《流浪地球》中人類帶著地球逃離太陽系這一故事設(shè)置,中國人也常常抓不住西方笑話的“笑點(diǎn)”。要掌握這種本地知識,需要引入一種關(guān)系性視角:我們總是在一種(至少是想象的)關(guān)系中把握具體的“應(yīng)當(dāng)”。朱松莼總結(jié)道:“兩個人之間至少要表達(dá)五個腦袋minds:我知道的東西、你知道的東西、我知道你知道的東西、你知道我知道的東西、我們共同知道的東西。還有,對話的時候你的意圖是什么等等諸多問題?!?/p>

        關(guān)系在道德中的重要性早已耳熟能詳。列維納斯寫道:“在道德中,關(guān)系是先在的;道德不是實(shí)體,而是體現(xiàn)在一種優(yōu)先的關(guān)系中?!崩麏W波特則論證了倫理關(guān)系的可拓展性,他指出倫理所適用的“共同體”概念是逐步擴(kuò)大的:最初只適用于主人,然后擴(kuò)展到人類,未來還應(yīng)該進(jìn)一步擴(kuò)展到“土地”——包括土壤、水、植物和動物。我們不知道倫理關(guān)系是否真的能拓展到土地上的一切,但它至少應(yīng)該包含具有自主性的人工智能。筆者認(rèn)為,應(yīng)該區(qū)分兩種不同的規(guī)則:正確性規(guī)則和關(guān)系性規(guī)則。前者是一些得到倫理辯護(hù)的正確行為準(zhǔn)則,后者則是引導(dǎo)與共同體達(dá)成合理關(guān)系的那些機(jī)制性行動框架。誠然,人類需要對人工智能嵌入一些守則式的正確性規(guī)范,但從關(guān)系主義的視角來看,這些規(guī)范至多是次級規(guī)范。既然人工智能有資格作為道德主體,那么在這些規(guī)范之上還應(yīng)該有一些更高層級的規(guī)范,即指導(dǎo)主體間互動方式的關(guān)系性規(guī)范。

        我們無意窮舉這類規(guī)范,在此僅展示一條作為示例:人工智能應(yīng)當(dāng)做那些其所處的共同體會給予正面反應(yīng)的事情,避免做共同體會給予負(fù)面反應(yīng)的事情。需要指出,其中的“正面反應(yīng)”和“負(fù)面反應(yīng)”都是動態(tài)的,因?yàn)樯鐣?guī)范就是人們在競爭與合作過程中達(dá)到的“準(zhǔn)平衡態(tài)”。社群規(guī)范可以是多維的,其中的平衡也是動態(tài)的。事實(shí)上,劉文中提出的三條儒家規(guī)范,即忠(忠誠)、恕(互惠)、仁(人道)都帶有強(qiáng)烈的關(guān)系性色彩。遺憾的是,作者對它們進(jìn)行了一種標(biāo)準(zhǔn)規(guī)范式解讀?!爸摇北欢x為忠于角色,行文中又對角色職責(zé)進(jìn)行了類似于行為守則的明確規(guī)定;“恕”所表達(dá)的“己所不欲勿施于人”被解讀為一個禁止行動的類別清單;“仁”則被簡化為“做好事要請示人類”和“禁止協(xié)助作惡”。不難發(fā)現(xiàn),這種解讀把多元的、立體的、動態(tài)的關(guān)系扁平化和靜態(tài)化了,作為關(guān)系主義之核心特征的語境論和交互性也就不復(fù)存在。儒家式倫理——尤其是內(nèi)嵌于中華政治—文化—社會生態(tài)的那種規(guī)范體系,奠基于一種由血緣關(guān)系到社會關(guān)系的類比,從而形成一個類似于同心圓的社會—文化結(jié)構(gòu);當(dāng)這個結(jié)構(gòu)被置于一個科層制的等級關(guān)系中,同心圓又被立體化為一個金字塔的結(jié)構(gòu)。通過天人關(guān)系的宇宙論圖景的加持,這一結(jié)構(gòu)把個體看作是內(nèi)在地歸屬于群體的(不同于西方文明“個體組成群體”的觀念),從而強(qiáng)烈地要求用一種關(guān)系主義的方式理解倫理規(guī)范。因此,一種真正的儒家機(jī)器人需要嵌入的是這種關(guān)系性和結(jié)構(gòu)性的規(guī)則。

        在關(guān)系主義的視角下,一個自然的問題是:人與人工智能是什么關(guān)系?既然前文已經(jīng)為人工智能的主體地位做出了辯護(hù),那么首先肯定的是,我們不主張一種工具性關(guān)系。除此以外,兩個主體之間還可以有主奴關(guān)系、領(lǐng)導(dǎo)關(guān)系、伙伴關(guān)系、情侶關(guān)系等多種關(guān)系。我們建議,可以對這些類型的關(guān)系持有一種開放態(tài)度。正如人們之間的關(guān)系是在一種社會結(jié)構(gòu)和生活場景下經(jīng)過自然平衡而建立起來,人工智能與人的關(guān)系也應(yīng)在同一個過程中得到觀察和發(fā)展。

        不過,對于道德主體之間的關(guān)系,仍有一些必要的前提需要強(qiáng)調(diào),其中最核心的就是為自己的行為負(fù)責(zé)。負(fù)責(zé)的首要條件就是能夠接受懲罰。有人認(rèn)為人工智能先天地缺乏對懲罰的敏感性,懲罰所具有的威懾、補(bǔ)償、勸誡三大作用對它們都不成立,理由是人工智能既不會產(chǎn)生恐懼、愧疚這樣的情感,也不具有賠償能力。這種觀點(diǎn)沒有看到,懲罰的關(guān)鍵并不在于被懲罰者的主觀體驗(yàn),而在于對其后續(xù)行為產(chǎn)生的實(shí)際影響。只要內(nèi)置了關(guān)系性規(guī)則的人工智能可以接受到公眾的正面或負(fù)面反應(yīng)并據(jù)此調(diào)整自己的行為,懲罰就是對它們具有客觀效力的。至于補(bǔ)償?shù)哪芰?,我們?yōu)槭裁床荒芙o予人工智能以一定程度的產(chǎn)權(quán)呢?法學(xué)家烏戈·帕加羅創(chuàng)造性地提出了“數(shù)字特有產(chǎn)”的概念。他指出,古羅馬的奴隸主一方面為了保證奴隸可以作為代理人進(jìn)行自主交易,另一方面保證自己的利益不受奴隸行為的負(fù)面影響,而賦予奴隸或家子一定數(shù)額的獨(dú)立財產(chǎn),即“特有產(chǎn)”。受此啟發(fā),他建議通過數(shù)字賬戶的形式賦予人工智能以“數(shù)字特有產(chǎn)”,它可以是一種保險,也可以是主人私有產(chǎn)權(quán)的延伸(例如增加擔(dān)保)。我認(rèn)為,其中一部分還可以通過社會公共基金的形式來支付,其數(shù)額可用事故概率和補(bǔ)償成本經(jīng)過大數(shù)據(jù)測算來決定。一旦擁有了獨(dú)立產(chǎn)權(quán),人工智能就可以作為法律上的代理人自主行動(例如,與交易方簽訂合同),并有能力對自己的行動負(fù)責(zé)。這樣,在未來世界人工智能將作為一種獨(dú)特但真正意義上的社會成員,與人類共同參與到社會生活中去。

        五、結(jié)語

        自古希臘以來,自然物和人工物的區(qū)分成為人類認(rèn)知的一個基礎(chǔ)性分類框架,隨著現(xiàn)代生物學(xué)的發(fā)展,它又與有機(jī)體和無機(jī)體的區(qū)分相結(jié)合,融入到人們對生命的理解中。這一分類學(xué)曾經(jīng)彰顯出人類執(zhí)著而強(qiáng)烈的自我意識,也限定了人類認(rèn)知事物的邊界。當(dāng)我們站在即將到來的人工智能社會的十字路口,更加細(xì)致的反思和分析告訴我們,這個邊界并非如想象的那樣清晰和堅(jiān)固?,F(xiàn)在還沒有證據(jù)表明硅基的人工物不可能具有生命,更沒有充分理由斷言具有真正自主性的人工智能不能被賦予主體資格。我們應(yīng)該以一種更加平等和開放的態(tài)度與這個新的物種相互認(rèn)識,相互適應(yīng)。盡管現(xiàn)在還難以想象人工智能具有情感體驗(yàn)和自我意識,但作為一個行動主體,它們與我們并無二致。如果用一種因果推理模型和關(guān)系主義規(guī)則來設(shè)計人工智能,它們與我們的“思維方式”也會大致相似。

        但是,也不能由此斷言人工智能與人類沒有實(shí)質(zhì)性差別。至少存在著三個真正的差異,可能會造成人工智能的行為和社會結(jié)構(gòu)產(chǎn)生顯著偏離。第一,人工智能可以通過聯(lián)機(jī)成為一個“榮格式集體存在物”,它們的個體邊界在原則上是可消除的。第二,人工智能具有一種“蘇格拉底式的透明性”,對它們而言不存在人類那樣的“認(rèn)知”與“接受”之間的鴻溝,或者說,它們是先天地知行合一的。第三,人工智能原則上可以通過數(shù)據(jù)復(fù)制轉(zhuǎn)移實(shí)現(xiàn)“不死”,生存也不是它們的首要需求。不難設(shè)想,根據(jù)這些特征形成的人工智能社會(假設(shè)獨(dú)立于人類社會),很可能會演化出完全不同的社會結(jié)構(gòu)。因此,如何與這樣一類行動主體共處于同一個社會,仍是擺在人類面前的重大課題。一種樂觀的看法把人工智能視為服務(wù)型機(jī)器,一種悲觀的看法則把它們視為完全異于人類的怪物,二者都是偏頗的,更加理智的看法是把它們當(dāng)作一個可交流但有差異的族類。與這個族類和諧共處無疑是一個巨大的挑戰(zhàn),這種挑戰(zhàn)在人類的歷史和現(xiàn)實(shí)生活中都曾反復(fù)出現(xiàn)。無論人工智能社會將帶來什么,都是人類必須要積極面對的。

        [責(zé)任編輯 鄒曉東]

        亚洲av无码国产精品色午夜字幕| 久久亚洲精品成人综合| 日韩av他人妻中文字幕| 中文字幕色偷偷人妻久久一区| 日本爽快片100色毛片| 日本不卡在线视频二区三区| 日韩av二区三区一区| 女女同性av一区二区三区| 白白色白白色视频发布| 国产午夜无码片在线观看影院| 91福利视频免费| 亚洲av高清资源在线观看三区| 91麻豆精品国产91久久麻豆| 亚洲国产精品无码久久98| 婷婷综合久久中文字幕蜜桃三电影 | 999zyz玖玖资源站永久| 内射无码专区久久亚洲| 97在线视频免费| 国产优质av一区二区三区| 精品无码人妻夜人多侵犯18| 免费无码毛片一区二区三区a片 | 精品国产日韩一区2区3区| 无码制服丝袜中文字幕| 中文字幕亚洲五月综合婷久狠狠 | 一本色道久久综合亚洲精品小说| 青青草免费在线手机视频| 中文字幕一区二区中文| 中文字幕在线亚洲日韩6页| 久久精品国产亚洲Av无码偷窍| 在线小黄片视频免费播放| 国产精品99精品久久免费| 精品乱码久久久久久中文字幕| 日本护士一区二区三区高清热线| 91视色国内揄拍国内精品人妻| 国产激情视频一区二区三区| 综合色久七七综合尤物| 熟女不卡精品久久av| 午夜成人理论福利片| 国内精品久久久久久无码不卡| 亚洲福利av一区二区| 国产白浆一区二区三区性色|