亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人機(jī)混合能動者的倫理意義、建構(gòu)分析和啟示

        2019-12-14 06:12:34
        哲學(xué)分析 2019年5期
        關(guān)鍵詞:人機(jī)意向倫理

        鄔 桑

        人工智能(簡稱“AI”)正在前所未有地參與到人們的生活當(dāng)中,它們不僅能夠認(rèn)出人的臉孔、管理家居,甚至能夠駕駛汽車、操縱殺傷性武器。這使得人工智能的倫理問題同樣前所未有地引起了人們的擔(dān)憂。人工智能的倫理爭議究其根本是一個(gè)技術(shù)社會化的問題,但它與其他的技術(shù)社會化問題又有所不同:首先,以人工智能的自主程度而言,它的社會化涉及一個(gè)新社會主體——人工道德能動者的存在論;同時(shí),由于人工智能背后的大數(shù)據(jù)技術(shù)支持,人工智能將具有其他技術(shù)所不能及的廣泛性。這二者的結(jié)合給哲學(xué)社會科學(xué)造成了這樣的困境,如果我們拒絕承認(rèn)人工智能的道德能動者地位,將會有大量的責(zé)任問題處于無責(zé)任主體的空缺中;而如果我們予以認(rèn)可,人工道德能動者作為一種新的社會主體又將帶來更多的倫理問題。本文通過對人工智能作為人工道德能動者的特征考查,對以上困境此提出了一種出路,認(rèn)為在相當(dāng)長一段時(shí)間內(nèi),人機(jī)混合能動者是解決人工智能的倫理問題的關(guān)鍵主 體。

        一、從能動者走向道德能動者的AI

        機(jī)器、機(jī)器人或者人工智能被視為能動者已經(jīng)得到了廣泛的認(rèn)可。事實(shí)上,早在塞爾用“中文屋”論證來反駁強(qiáng)人工智能觀點(diǎn)時(shí),該理論背后就蘊(yùn)含了這樣一種立場:人工智能可以在一種最小化的意義上具備和人類能動性一樣的解釋、預(yù)測和表征的能力,這也意味著認(rèn)可人工智能的能動者地位。隨著人工智能在近年的急速發(fā)展,它突出的決策力和行動力也使越來越多的學(xué)者認(rèn)為人工智能不僅是一個(gè)理論上的能動者,而且是一個(gè)現(xiàn)實(shí)世界中的理性能動者①參見Paul Verschure & Philipp Althaus,“A Real-world Rational Agent:Unifying Old and New AI”,Cognitive Science,Vol.27,No.4,pp.561—590,2003;Sven Nyholm,“Collective Agency,Responsibility,and Corporate vs. Private Self-driving Cars:Who’s Doing the Driving?”,collective intentionality X conference,The Hague,2016。,被稱為人工能動者。這一立場可謂貫徹了拉圖爾的“行動者”概念,“我使用actor、agent 或actant,并不對他們可能是誰和他們有什么特征做任何假設(shè),他們可以是任何東西”②Bruno Latour,The Pasteurization of France,London:Harvard University Press,1988,p.252.。

        人工智能被設(shè)定為一種人工能動者,這引發(fā)了兩個(gè)合理的追問:既然如此,人工能動者是自主的能動者嗎?人工能動者是道德能動者嗎?從倫理的邏輯上來講,第一個(gè)問題的答案是第二個(gè)問題的前提條件,因此,有必要在此簡要地回答。目前,人工能動者的自主性在不同研究路徑上有不同策略的論證,從基本立場上看,是支持人工能動者的自主性的。利斯特和佩蒂特通過能動者的概念來建立一個(gè)能動者的BDI(belief-desire-intention)模型,論證了符合該模型的能動者都是自主的能動者,人工能動者也位列其中;③Christian List & Philip Pettit,Group Agency:The Possibility,Design,and Status of Corporate agents,London:Oxford University Press,2011,p.26,p.20.弗洛里迪和桑德斯④Luciano Floridi & J.W. Sanders,“On the Morality of Artificial Agents”,Minds and Machine,Vol.14,2004,pp.349—379.,以及哈格⑤Jaap Hage,“Theoretical Foundations for the Responsibility of Autonomous Agents”,Artificial Intelligence and Law,Vol.25,No.3,2017,pp.255—271.對能動者采取了去心靈化研究策略,認(rèn)為意向性、自由意志是行動的附加屬性,并沒有在行動中影響到真實(shí)的世界,以此來反對康德主義者“只有擁有理性和自由意志的存在才能具備自主性”的批判,支持人工能動者成為自主的能動者;筆者也曾就主流的人的自主性理論展開討論,認(rèn)為人的自主性理論中并沒有拒斥非人主體成為自主主體的可能,人工能動者的自主性問題實(shí)質(zhì)是在決定論世界中能動者自主的可能性,而理性回應(yīng)論能夠支持人工能動者實(shí)現(xiàn)這一可能。①鄔桑:《人工智能的自主性與責(zé)任》,載《哲學(xué)分析》2018 年第4 期。

        如果說第一個(gè)問題還比較理論化、距離現(xiàn)實(shí)較遠(yuǎn),第二個(gè)問題則是人工能動者在現(xiàn)實(shí)應(yīng)用中迫切需要答案的,也是本文研究的出發(fā)點(diǎn)。道德能動者,簡而言之,“是互動的、自主的、有適應(yīng)能力的并可以實(shí)施有道德資質(zhì)的行動的”實(shí)體。②盧恰諾·弗洛里迪:《信息倫理學(xué)》,薛平譯,上海:上海譯文出版社2018 年版,第197 頁。從能動者到道德能動者,這一延伸對于人工能動者來講必須謹(jǐn)慎。公眾常常認(rèn)為,人工能動者所帶來的倫理困擾是由于人工智能發(fā)展得越來越復(fù)雜、越來越“聰明”,或者說越來越像人類,這使得人工能動者能夠完成許多困難的工作,甚至是人類無法完成的工作。然而,這些困擾與其說是人工智能的復(fù)雜性帶來的,毋寧說是人工能動者的自主性帶來的。系統(tǒng)復(fù)雜性的增加并不僅僅增加了人工能動者的可操作性,也增加了它的自主性,隨著自主性的增加,意味著人工能動者越來越多地參與到人的社會生活和社會工程之中。這就使得人、制度和環(huán)境等社會要素都參與到了可能的倫理決策當(dāng)中來。正如瓦萊赫所指出的,技術(shù)帶來的問題“通常由那些要素(特定的技術(shù)、人、制度、環(huán)境等等)與社會技術(shù)(socialtechnical)系統(tǒng)的其他要素的相互影響而產(chǎn)生”③W. Wallach,A Dangerous Master:How to Keep Technology from Slipping Beyond our Control,New York:Basic Books,2015,p.34.。因此,如果承認(rèn)人工能動者的道德能動者地位,隨之而來的問題就不再是人工能動者本身的問題,而是社會技術(shù)系統(tǒng)的復(fù)雜問題。問題的復(fù)雜性也不是人工能動者系統(tǒng)本身的復(fù)雜性,是通過社會技術(shù)系統(tǒng)的種種要素相互作用而呈幾何數(shù)量增長的復(fù)雜 性。

        既然承認(rèn)人工能動者是道德能動者要面對如此復(fù)雜的前景,最簡單方便的策略似乎就是直接否定它:不要讓人工能動者走向道德能動者,一些學(xué)者形象地稱之為“no-go”立場。④Don Howard & Ioan Muntean,“A Minimalist Model of the Artificial Autonomous Moral Agent(AAMA)”,In SSS-16 Symposium Technical Reports,Association for the Advancement of Artificial Intelligence,AAAI,2016.他們的基本觀點(diǎn)是認(rèn)為非人類的能動者不能駕馭“善”或者認(rèn)為它們?nèi)鄙俪蔀榈赖履軇诱叩谋匾獥l件之一,即道德責(zé)任。他們的理由基本上是基于康德主義的,認(rèn)為規(guī)范的能動者需要自由意志、意向性、道德上可問責(zé)、動機(jī)和理性,因此,不適于加諸人工能動者。⑤J. H. Moor,“The Nature,Importance,and Difficulty of Machine ethics”,Intelligent Systems,IEEE,Vol.21,No.4,2006,pp.18—21.人工能動者總是受制于人類的,它們根本算不上真正的能動者,只是人類的代理能動者。理性解釋對于道德能動者來說至關(guān)重要,“對它來說行為并不是檢驗(yàn)它的重點(diǎn)——不論是自然行為還是機(jī)器行為,當(dāng)理性解釋不存在的時(shí)候,道德能動者也就不存在”①D. G. Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,Vol.8,No.4,2006,pp.195—204.。

        No-go 立場無疑在理論上延續(xù)了人類中心主義的倫理學(xué)傳統(tǒng),企圖以人類能動者與非人類能動者為界建立一堵柏林墻。但是,這兩者都不能讓no-go 立場站穩(wěn)腳跟。首先,元倫理的可能性并不應(yīng)當(dāng)僅限于人類,人們的思維中對萬物有一種普遍的倫理期待。試想,當(dāng)隕星即將撞擊地球的時(shí)候,人們依然會希望隕星能“大發(fā)慈悲”來避免災(zāi)難。也就是說,是否具備心靈并不應(yīng)當(dāng)影響人們對相關(guān)的行動做出道德評價(jià),將倫理話語局限于個(gè)人能動者妨礙了倫理學(xué)在當(dāng)今社會多領(lǐng)域中的發(fā)展,例如,集體責(zé)任和全球性道德行為。且早在能動者概念擴(kuò)展至自然人和法人時(shí),人類中心主義就失去了它的主導(dǎo)地位。更重要的是,哲學(xué)的劃界并非生物學(xué)的劃界,如果按照人類與非人類的區(qū)分來鑒別能動者,倘若有朝一日人類遇見了另外一種智慧生物,那么這種智慧生物將毫無懸念地被認(rèn)為是非能動者。人工智能在哲學(xué)上的劃界也不應(yīng)該是固定的抽象層次,它“使得一個(gè)能動者在這個(gè)抽象層次上的行為可以被明白地賦予其設(shè)計(jì)者,則人們應(yīng)當(dāng)斷定那個(gè)能動者不會是一個(gè)道德能動者”②盧恰諾·弗洛里迪:《信息倫理學(xué)》,第198 頁。。因?yàn)?,如果按照這樣的劃界方式,任何尚未出現(xiàn)卻同樣重要的能動者特征都不會出現(xiàn)在這一抽象層次當(dāng)中,那么具備該特征的能動者都將被排除在外,正如“可觀察性”的標(biāo)準(zhǔn)曾經(jīng)將量子力學(xué)置于尷尬之地一樣。也就是說,道德能動者的判定不應(yīng)該基于對事物本質(zhì)下定義的方 式。

        基于以上的駁論,對人工智能是否可以成為道德能動者這一問題,哲學(xué)家們開辟了一條以道德可替代性為目標(biāo)的計(jì)算主義路徑。道德可替代性指的是計(jì)算機(jī)的道德行動能夠在原則上等同于人類能動者,從而能夠替代人類的道德行動。這條路徑的實(shí)現(xiàn)方式則是將行動看成是一個(gè)變化的互動過程,通過追問行動過程來人工地進(jìn)行行動設(shè)計(jì)。它要回答的問題事實(shí)上與心靈哲學(xué)關(guān)心的問題有一定的相似性:“心靈”是一個(gè)計(jì)算過程嗎?道德也是可計(jì)算的嗎?如果是,我們怎么樣在一個(gè)人工能動者上實(shí)現(xiàn)呢?這一設(shè)計(jì)需要怎樣的基本要素?基于這些問題可以看出,可替代性“并不是一個(gè)能夠通過描述已有的能動者來解決的純經(jīng)驗(yàn)問題,它是一個(gè)‘如何可能’的問題,需要將探討延伸到可能的道德能動者領(lǐng)域,不論它們是否存在,迫使我們?nèi)ソ⒎侨祟惖哪軇有缘挠?jì)算模型”③Don Howard & Ioan Muntean,“A Minimalist Model of the Artificial Autonomous Moral Agent(AAMA)”.。

        因此,計(jì)算主義路徑的首要工作就是使道德行動去心靈化,使道德行為成為可計(jì)算的。簡要來講,這個(gè)過程通過模型化,將道德行動看作一個(gè)信息進(jìn)程,信息的兩端聯(lián)系著能動者和受動者,能動者和受動者同樣被視為信息化的實(shí)體,它們依賴于所采用的抽象層次以及相應(yīng)的可觀察量的集合。道德行動變成了由能動者所發(fā)出的一系列信息,這些信息導(dǎo)致了受動者的狀態(tài)轉(zhuǎn)換。這使得對于道德行動的關(guān)注點(diǎn)從推敲能動者的“邏輯”(也就是研究人的心靈)轉(zhuǎn)變?yōu)閷ο箝g的數(shù)據(jù)結(jié)構(gòu)關(guān)系以及它們的行為。①盧恰諾·弗洛里迪:《信息倫理學(xué)》,第152—154 頁。這就使得道德行動不再是人類中心主義的,也不再依賴于人的心靈和心靈產(chǎn)生的目的、意向性、自由等。去心靈化使人工信息化實(shí)體有成為道德能動者的可能,并且在道德功能主義的意義上能夠?qū)崿F(xiàn)可替代人類道德行動的目 標(biāo)。

        在此基礎(chǔ)上,信息倫理學(xué)論證了人工能動者成為道德能動者的哲學(xué)抽象方式。被視為信息倫理學(xué)創(chuàng)始人的弗洛里迪提出,所有實(shí)體作為信息化實(shí)體具有固有的道德價(jià)值,這一點(diǎn)是通過提升分析對象的抽象層次來論證的。②同上書,第160—164、175—178 頁。對抽象層次的提升,可以這樣來理解:例如象棋中的“相”,它必然具有顏色、質(zhì)地、形狀等性質(zhì),在考慮這些性質(zhì)時(shí),它的抽象層次是比較低的,但這些性質(zhì)對于“相”的本質(zhì)來講是相對不重要的。當(dāng)我們將它作為象棋的代表性、行進(jìn)方式等進(jìn)行信息化的抽象,也就是提升它的抽象層次,那么即使它只是一個(gè)點(diǎn),我們?nèi)匀怀姓J(rèn)它是“相”。以抽象層次來看,倫理的人類中心論就是抽象層次比較低的。它對無生命的實(shí)體的拒斥即使是在傳統(tǒng)倫理學(xué)中也不盡人意——如果上帝存在,人們毫無疑問會認(rèn)為上帝是道德能動者。這意味著,選擇不同的抽象層次會得到不同的道德能動者劃界。那么在選擇合適的抽象層次時(shí),信息化實(shí)體成為道德能動者完全是可以接受的。因此,就信息化實(shí)體可以成為能動者而言,它們也可以成為可問責(zé)的道德能動 者。

        機(jī)器倫理論述了人工能動者成為道德能動者的實(shí)證研究路徑。對機(jī)器倫理的研究者而言,重要的不是“誰”(who)是道德能動者,而是“怎么”(how)實(shí)現(xiàn)道德能動者。瓦萊赫和艾倫在《道德機(jī)器——如何讓機(jī)器人明辨是非》中探討了人類的道德如何能在人工能動者上實(shí)現(xiàn)的問題。③Wendell Wallach & Colin Allen,Moral Machines:Teaching Robots Right from Wrong,New York:Oxford University Press,2009,pp.58—62.他們認(rèn)為雖然人工能動者尚不足以成為完全倫理主體,即像人類一樣思考的倫理實(shí)體,但是能夠通過設(shè)計(jì)來實(shí)現(xiàn)顯性倫理主體,即通過內(nèi)置倫理范疇和道義邏輯實(shí)現(xiàn)倫理的實(shí)體。可能實(shí)現(xiàn)的人類道德理論有三種:道義論、效果論和德性倫理。這三者對應(yīng)了在人工能動者上設(shè)計(jì)道德行為的方式:自上而下的、自下而上的和混合型?!白陨隙隆敝傅氖且阅撤N特定的倫理理論作為切入點(diǎn),用它來分析和指導(dǎo)算法與子系統(tǒng)的計(jì)算要求,從而實(shí)現(xiàn)需要的結(jié)果?!白韵露稀敝傅氖怯酶鞣N性能指標(biāo)(例如圖靈測試)來測試,通過試錯(cuò)的方式逐步調(diào)整性能,最終使系統(tǒng)達(dá)到指標(biāo)要求。在這個(gè)過程中,是將倫理價(jià)值規(guī)范隱藏在行動當(dāng)中,而非明確地描述出來?;旌闲停櫭剂x是前兩者的混合。由于前兩者過于簡單化和理想化,因此,在實(shí)踐中工程師們往往采用混合型的算法設(shè)計(jì)。這一策略有效地使得人工道德能動者成為現(xiàn) 實(shí)。

        可以看到,在人工智能(可能)需要做出倫理決策這一現(xiàn)實(shí)需求下,人工能動者成為道德能動者在理論上已經(jīng)做好了準(zhǔn) 備。

        二、人機(jī)混合能動者作為倫理主體的必要性

        然而,瓦萊赫和艾倫對人工能動者不能成為完全倫理主體的想法至今依然是正確的。就目前而言,它們要成為像人類一樣獨(dú)立發(fā)揮作用的主體還為時(shí)尚早,人工道德能動者要面臨的困境還有很 多。

        “好”的決策問題。人工道德能動者和所有的道德能動者一樣,在做決定的時(shí)候面臨幾個(gè)可供選擇的決策,必須要從中挑選出哪一個(gè)是最好的?!昂谩钡臎Q策對于人工智能而言,可能被定義為在多大程度上接近一個(gè)該領(lǐng)域內(nèi)技能優(yōu)秀的人。但是對于道德決策而言,很難評選出一個(gè)可以學(xué)習(xí)模仿的對象,因?yàn)榈赖骂I(lǐng)域的許多決策都是“好”的,而不是完美的。要做出“好”的決策需要三個(gè)前提,首先,人工道德能動者需要一個(gè)基本的倫理立場(也許是功利主義或者康德主義等)。其次,它要能夠分辨出在一定情況下,出現(xiàn)了哪些沖突的選項(xiàng)。最后,它需要認(rèn)識到在特定的情境下,一般的概念或原則需要特定的解釋。①M(fèi)ichael S. Pritchard,“Moral Machines?”,Science and Engineering Ethics,Vol.18,No.2,2012,pp.411—417.也就是說,瓦萊赫和艾倫賴以設(shè)計(jì)道德能動者的自上而下的方式并不是算法,而是理解語境、獲取信息、進(jìn)行預(yù)測等等的綜合。對于人類來說做出“好”的決策依賴于通過經(jīng)驗(yàn)進(jìn)行內(nèi)化的判斷力,算法則無法做到。甚至,為了達(dá)成“好”的決策,人們可能會臨時(shí)轉(zhuǎn)換倫理立場,這挑戰(zhàn)了人工道德能動者的基本設(shè)計(jì)思 路。

        倫理觀契合問題。作為一個(gè)道德能動者,必然有它的受動者。對于人工智能而言,它的受動者有很大幾率是人。這就涉及道德能動者之間的互動?;訋淼牡谝粋€(gè)困難在于如何解決道德維度不同的問題。通常,即使是人類的道德考慮也是因人而異的,人們需要從童年開始學(xué)習(xí)如何與不同道德標(biāo)準(zhǔn)的人相處,學(xué)習(xí)在何種程度上做出妥協(xié)和讓步,同時(shí)不損害自己的正直。但是,對于人工道德能動者來說,什么是正直呢?它能被算法實(shí)現(xiàn)嗎?這一點(diǎn)對人工道德能動者來說恐怕還很困難。人工能動者與人的互動中的道德維度問題也會使人感到困擾,這就是倫理契合的問題。人們通常傾向于選擇道德觀念契合的人作為合作者,當(dāng)這個(gè)合作者是人工道德能動者的時(shí)候,人們?nèi)绾蝸泶_定與它的道德觀念的契合程度呢?這對普通大眾提出了過高的要求,大眾不會像哲學(xué)家一樣明確自己的道德立場是某某主義的,我們很難想象一個(gè)人走進(jìn)一家機(jī)器人公司,要求買一臺康德主義的或者多元主義的機(jī)器人。如此,對于個(gè)人的使用者而言,人工道德能動者很可能成為一個(gè)高深莫測又不善妥協(xié)的道德主體,讓人望而卻 步。

        具身化問題。徐英瑾提出:“機(jī)器倫理學(xué)的核心關(guān)涉將包括對人工智能的‘身體’——而不僅僅是‘心智’——的設(shè)計(jì)規(guī)范,即必須嚴(yán)肅考慮‘怎樣的外圍設(shè)備才被允許與中央語義系統(tǒng)進(jìn)行恒久的接駁’這一問題?!雹傩煊㈣骸毒呱硇?、認(rèn)知語言學(xué)與人工智能倫理學(xué)》,載《上海師范大學(xué)學(xué)報(bào)》2017 年第6 期。倫理規(guī)范本身就具有身體的圖式,倫理表達(dá)也在各種意義上與身體相關(guān)。例如,“不許殺人”意味著禁止一個(gè)身體對另一個(gè)身體機(jī)能的終結(jié)。一旦無視身體圖式的預(yù)設(shè),可能就會臆造出無意義的倫理規(guī)范,例如,“禁止人在周五飛翔”。那么對于承載人工智能的機(jī)體,同樣需要設(shè)計(jì)與“身體”相關(guān)的倫理規(guī)范,而不能僅僅考慮算法。需要保證人工道德能動者對它的身體圖式的理解與人類對它的身體圖式的要求相一致。例如,對于微型自動攝影機(jī)器人,它的倫理設(shè)計(jì)就應(yīng)當(dāng)包括“禁止進(jìn)入私人住宅”。但是,當(dāng)人工道德能動者的機(jī)體與人類的身體差別過大時(shí),這種對應(yīng)的倫理設(shè)計(jì)就會變得異常困難,它們很可能因?yàn)闊o法理解人類的身體圖式而無法理解倫理規(guī)則。因此,在具身化問題的局限之下,人工道德能動者恐怕只能在有限的情景和技能上是可問責(zé)的,難以成為完全倫理主 體。

        在種種限制人工道德能動者問責(zé)范圍的問題之下,可以看到,在許多涉及人工道德能動者的情況下,仍然存在倫理主體缺失的情況。要解決主體缺失的情況,有兩種方式,一種依賴于人工智能和機(jī)器倫理發(fā)展到能夠讓人工道德能動者成為完全倫理主體,但這似乎需要長久的努力;另一種則是在此之前尋找一種合理的倫理主體作為代替,使在算法設(shè)計(jì)中無法實(shí)現(xiàn)的問題在現(xiàn)實(shí)中得到補(bǔ) 強(qiáng)。

        筆者認(rèn)為,無論以上哪兩種方式,都意味著要給人機(jī)混合道德能動者足夠的關(guān)注,使它作為倫理主體發(fā)揮作用。人機(jī)混合道德能動者(以下簡稱“混合能動者”),顧名思義是由人與計(jì)算機(jī)、機(jī)器、人工智能等非人類能動者共同組成的行動主體,它屬于一種多行動者系統(tǒng)(multi-agent system)。事實(shí)上,混合能動者已經(jīng)有相當(dāng)長的歷史,例如,駕駛員和汽車,從外部看來就是一個(gè)混合能動者。隨著人工智能在各種終端設(shè)備上的普及,混合能動者也越發(fā)普遍。在本文中,混合能動者特指由人與人工智能相關(guān)的能動者所組成 的。

        混合能動者作為人工智能的倫理研究中的一個(gè)倫理主體有其必要 性。

        首先,如果人工智能真的能夠發(fā)展到完全倫理主體,那么人類與人工智能的合作與融合將成為社會中普遍的情況,二者將以合作的方式成為混合能動者,這意味著混合能動者是一個(gè)必要的倫理主 體。

        其次,在人工智能尚不能夠成為完全倫理主體時(shí),混合能動者能夠作為替代的倫理主體承擔(dān)責(zé)任。上文所提及的三個(gè)使人工道德能動者不能成為完全主體的問題,其根本所在都是機(jī)器倫理與人的倫理接駁所產(chǎn)生的問題。當(dāng)我們將視角拉遠(yuǎn),把倫理主體從人工物延伸到混合能動者,這些問題就會暫時(shí)地被回避,等待技術(shù)進(jìn)一步發(fā)展來予以解決?;旌夏軇诱叩牡赖滦袆邮怯扇藱C(jī)共同做出的(如何實(shí)現(xiàn)將在下一節(jié)闡述),這一過程中,人在其中就扮演了倫理指導(dǎo)的角色。因此,諸如解決“好”的決策問題、倫理觀契合的問題將會交予人類。這并不是說完全剝奪了人工道德能動者的決策權(quán),對于多能動者系統(tǒng)來說,整個(gè)系統(tǒng)的輸出本身就是由多能動者共同完成的。在此考慮一個(gè)案例,女兒被綁架的母親和她的私人偵探共同來做出營救計(jì)劃,此時(shí),假設(shè)母親有可能因?yàn)橛H緣問題而向綁匪屈服,但偵探建議依據(jù)成功的經(jīng)驗(yàn)和理智來做決定,那么最終做出的決定無論是怎樣的都是兩人的共同決定,由兩者共同承擔(dān)責(zé)任。那么,當(dāng)我們把偵探換成一個(gè)人工智能,也是同樣由兩者共同承擔(dān)責(zé)任。具身化問題也是如此,將機(jī)器無法衡量的倫理問題交由它的合作者,以此來彌補(bǔ)目前設(shè)計(jì)不能實(shí)現(xiàn)的缺憾。正如,徐英瑾在討論具身化問題之后指出的,“我們必須在硬件構(gòu)造上就使機(jī)器人產(chǎn)生對其他機(jī)器人特別是人類的‘需要’,就像人類社會中的任何一個(gè)成員在生物學(xué)意義上需要他人才能夠生存一樣”①徐英瑾:《具身性、認(rèn)知語言學(xué)與人工智能倫理學(xué)》。,機(jī)器人與人組成混合能動者本身就是順應(yīng)期待且有必要 的。

        混合能動者作為倫理主體符合技術(shù)與社會高度融合的現(xiàn)實(shí)對倫理研究的需求。人工能動者在具備了高度智能以后,應(yīng)當(dāng)被視為一個(gè)社會—技術(shù)—認(rèn)識高度糾纏的人造物,這就意味著它將會與人、與社會密不可分。筆者認(rèn)同目前的人工智能哲學(xué)中將人工能動者作為研究主體的思路,這是因?yàn)槿斯ぶ悄苷軐W(xué)與人工智能科學(xué)本身高度相關(guān),且研究在一定程度上正是為了指導(dǎo)人工智能本身的研發(fā)。但是,跳出人工智能本身,以一種外部的倫理視角來看,我們討論倫理主體的時(shí)候,討論的是采取社會行動的那個(gè)主體,不論它的本體論是什么。例如,在公共場合遇到令人討厭的“熊孩子”,我們會認(rèn)為整個(gè)家庭缺乏社會責(zé)任感,因?yàn)槭沁@個(gè)家庭造成了相應(yīng)的社會行動。因此,筆者認(rèn)為,在混合能動者已經(jīng)成為現(xiàn)實(shí)的當(dāng)今社會,有必要分給混合能動者一些關(guān)注,進(jìn)行相關(guān)的倫理研究。一方面,關(guān)注如何將人機(jī)的知識、情感圖式結(jié)合起來,另一方面,也應(yīng)當(dāng)關(guān)注結(jié)合后產(chǎn)生的新型主體對社會的種種影響。許多研究者將對人工物的使用方式當(dāng)作是使用者的本身倫理問題,但是,社會—技術(shù)—認(rèn)識的觀點(diǎn)認(rèn)為如何使用人工物本身就是技術(shù)的社會整合問題,不應(yīng)該與技術(shù)拆分開來,因此,將混合能動者作為倫理主體來看待是有必要 的。

        混合能動者是促進(jìn)分布式道德在信息社會更好地發(fā)揮作用的重要一環(huán)。分布式道德是這樣一種道德行動,系統(tǒng)所造成的有道德承載的行動結(jié)果,其背后是由多個(gè)能動者的道德行動造成的,它們的道德行動可能是道德中性的或者可以忽略的。①Luciano Floridi,“Distributed Morality in an Information Society”,Science and Engineering Ethics,Vol.19,No.3,2013,pp.727—743.例如,某支付網(wǎng)站承諾,它的消費(fèi)者每購物一筆,就向綠化事業(yè)捐獻(xiàn)出一分錢,這使得消費(fèi)者本來是道德中性的購物行動匯聚起來產(chǎn)生了道德上善的行動。這個(gè)系統(tǒng)中的能動者顯然并不局限于單純的人類或者非人類,因?yàn)椋{馭分布式道德的力量,需要集聚可能是善的行動,同時(shí)碎片化可能是惡的行動,為了實(shí)現(xiàn)以上兩點(diǎn),需要一種作為“道德促成者”的技術(shù)機(jī)制。筆者認(rèn)為,這種技術(shù)機(jī)制可能實(shí)現(xiàn)的方式在于由人工智能“輔助”人類,通過人機(jī)結(jié)合的方式來促進(jìn)善的行動。例如,共享單車和它的使用者,事實(shí)上是系統(tǒng)中的底層的一個(gè)混合能動者。更進(jìn)一步,整個(gè)系統(tǒng)本身也是一個(gè)多能動者系統(tǒng),它本身是一個(gè)更大的混合能動者。只有給予混合能動者更多的研究關(guān)注,建立更有力的能動者系統(tǒng),才能夠推進(jìn)“道德促成者”的及技術(shù)機(jī)制,借助它們基于分布式道德處理信息時(shí)代的倫理問 題。

        基于以上分析,混合能動者不僅在人工智能的發(fā)展階段中是有重要作用的倫理主體,而且也將在人工智能實(shí)現(xiàn)了完全倫理主體的飛躍以后仍然長期存在,因此針對混合能動者的哲學(xué)研究是必要的。筆者認(rèn)為目前對于人機(jī)混合能動者的關(guān)注還遠(yuǎn)遠(yuǎn)不夠,有必要加強(qiáng)以它為主體的相關(guān)哲學(xué)研究,以促進(jìn)其作為倫理主體承擔(dān)道德責(zé)任的路 程。

        三、人機(jī)混合能動者的行動哲學(xué)建構(gòu)

        早在1996 年,圖梅勒就指出“人工智能……和多能動者系統(tǒng)理論屬于社會行動理論的范圍”,設(shè)計(jì)人工智能的目標(biāo)本身就包括使它成為“社會化世界”中的智能機(jī)器。②Raimo Tuomela,“Philosophy and Distributed Artificial Intelligence:the Case of Joint Intention”,in N. Jennings,& G. O’Hare(eds.),F(xiàn)oundations of Distributed Artificial Intelligence,New York:Wiley,1996,pp.487—503.因此,人工能動者與人共同構(gòu)成混合能動者是有其社會行動理論基礎(chǔ)的。③筆者認(rèn)為不需要論證人類處于完全指揮權(quán)中的人機(jī)混合能動者(例如駕駛員和汽車),它們顯然是可能而且現(xiàn)實(shí)的,此處開始論證的是人機(jī)各自具備道德能動性的混合能動者。這里,社會行動理論基礎(chǔ)指的不僅是人工能動者是按照“社會化”的標(biāo)準(zhǔn)來設(shè)計(jì)的,也指它與人類是以社會化的方式進(jìn)行合作,而不是以人與工具的方式相結(jié)合。這意味人機(jī)融合與其他的技術(shù)社會化過程不同,它是一個(gè)人類能動者與人工能動者之間的互動問題,而不是單純的人類接納技術(shù)的問 題。

        這一轉(zhuǎn)變使得我們在理解人工智能時(shí),僅僅意識到“人—技術(shù)—社會”的聯(lián)系是不夠的,而需要進(jìn)一步地理解為“主體—主體—社會”的聯(lián)系。理解混合能動體的建構(gòu),需要跳出技術(shù)哲學(xué)的視角,進(jìn)入社會哲學(xué)的視 角。

        因此,人機(jī)混合能動者可以被看作一個(gè)多能動者協(xié)作的集體能動者。建構(gòu)混合能動者的哲學(xué)理論來源是集體行動理論。集體行動理論認(rèn)為,構(gòu)成一個(gè)集體能動者需要,首先,形成一個(gè)獨(dú)立的集體意向,以及,集體成員有效地協(xié)作使集體能夠采取意向行動。因此,下面將針對前文所述的人機(jī)各自作為倫理主體的不同之處來考察混合能動者的建構(gòu)方 式。

        人工智能不能理解“我們”的概念,因此,在所有的集體行動理論中,只有個(gè)人主義路徑的集體行動理論才能夠使人機(jī)形成混合能動者,超個(gè)人主體路徑的集體行動理論不適用于混合能動者。在這里,個(gè)人主義路徑指的是對于每一個(gè)具體的行動來說,實(shí)現(xiàn)它的是個(gè)體的意向性,而不是集體的意向性。也就是說,每一個(gè)參與者持有的意向是“我要(和其他人)完成某事(的一部分)”。超個(gè)人主義路徑則相反,參與者持有的意向是“我們要完成某事”。超個(gè)人主義路徑要求每一個(gè)參與的能動者持有并理解“我們”的理念,而根據(jù)第二節(jié)人工能動者不能成為完全道德能動者的理由,人工能動者暫時(shí)不能夠處理自己的具身性問題,更不能夠去理解人與自己聯(lián)合而產(chǎn)生的具身性問題。因此,超個(gè)人主義路徑對人工智能來說是無法完成的。對于人工智能,我們最多只能要求人工能動者在行動中具備以“我”為基礎(chǔ)的意向,因此,人機(jī)混合能動者只能采取個(gè)人主義路徑的集體行動理論來建 立。

        個(gè)人主義路徑的集體行動理論在形成集體意向時(shí)也有兩種不同的方式,一種是聯(lián)合意向(joint intention),另一種是共有意向(share intention)。聯(lián)合意向的特征在于,它的聯(lián)合行動旨在實(shí)現(xiàn)一個(gè)集體的結(jié)果(collective end),該集體結(jié)果是由多個(gè)參與者共同持有的個(gè)體結(jié)果,由相關(guān)的參與者的行動來實(shí)現(xiàn)。因此,米勒也將其稱為聯(lián)合行動的集體結(jié)果理論。①Seumas Miller,Social Action:A Teleologicial Account,Cambridge:Cambridge University Press,2004,pp.56—57.簡單來講,聯(lián)合行動至少包括行動者A 和行動者B,以及它們在情況s 下各自的行動x 和y,雙方都持有一個(gè)結(jié)果e,在相信對方會行動并且確實(shí)行動的時(shí)候會自己也相應(yīng)地行動,從而實(shí)現(xiàn)e,雙方在這個(gè)過程中持有的行動意向就是聯(lián)合意向。共有意向與聯(lián)合意向較為相近,同樣要求參與者在情況s 下各自的行動x 和y,但是,不同之處在于參與者需要考察其他人的行動計(jì)劃,并且以自己的角度考察該行動計(jì)劃,據(jù)此對自己的行動做出調(diào)整,以完成整個(gè)集體的目標(biāo)。②Michael E. Bratman,Shared Agency:A Planning Theory of Acting Together,New York:Oxford University Press,2014,p.248.

        基于本文的分析,混合能動者的實(shí)現(xiàn)依賴聯(lián)合意向的建構(gòu)方式,人工能動者能實(shí)現(xiàn)與人類形成聯(lián)合意向,從而建構(gòu)混合能動者。這是因?yàn)?,?lián)合意向只需要參與者明確其要完成的部分,并且信賴其他參與者也會完成各自的部分。人工能動者在行動上依靠設(shè)計(jì)能夠完成所需的工作,在自主性上能夠?qū)崿F(xiàn)自主(道德)選擇。因此,即使它尚未成為一個(gè)完全倫理主體,也可以與人共同形成聯(lián)合意向。相對地,人工能動者無法形成共有意向。因?yàn)?,共有意向要求人工能動者考量合作者的?jì)劃和意圖,而這些計(jì)劃和意圖都是與參與者的能動性掛鉤的。如果要人工能動者去理解參與者的能動性,就必須理解參與者的具身性,這又觸及了人工能動者的短板。舉例來說,一個(gè)機(jī)器人和人共同搬運(yùn)一個(gè)箱子,人類的計(jì)劃是用手抬箱子或是用肩膀抗箱子,對機(jī)器人來說完全不同,機(jī)器人必須理解手和肩的位置與力量才能夠進(jìn)行合作。因此,聯(lián)合意向是更現(xiàn)實(shí)的建構(gòu)人機(jī)混合能動者的方 式。

        要使混合能動者形成聯(lián)合意向并實(shí)現(xiàn)它,有兩個(gè)關(guān)鍵點(diǎn)。其一,是集體結(jié)果的可分解性?;旌夏軇诱叩男袆有枰繀⑴c者的多個(gè)聯(lián)合意向共同指向結(jié)果,因此,集體結(jié)果可分解程度越高、對過程分解得越精細(xì),就越適合人工能動者采取行動。人工能動者能夠完成復(fù)雜的單個(gè)行動,但無法完成模糊的指令,因而對集體結(jié)果的分解至關(guān)重要。其二,是人機(jī)的相互信任度。人類能動者和人工能動者必須相互信任,相信彼此有能力完成各自要完成的決策和行動。這一點(diǎn)并不是顯而易見的,許多人工智能的設(shè)計(jì)者都沒有認(rèn)真地考慮人工智能在何種程度上應(yīng)該信任人類。例如,在2018 年3 月波音737MAX 墜毀事件中,駕駛員注意到機(jī)頭過低的問題,企圖修正,但自動駕駛?cè)哉J(rèn)為應(yīng)當(dāng)壓低機(jī)頭,最終導(dǎo)致了空難。人和人工智能之間應(yīng)當(dāng)有一種信任機(jī)制,或者一種信任的維度,這決定了混合能動者能否成功實(shí)現(xiàn)目標(biāo)。在較為簡單的目標(biāo)面前,人機(jī)信任是比較容易實(shí)現(xiàn)的,但在面對復(fù)雜的目標(biāo)時(shí),這種信任的維度究竟如何,仍是值得研究 的。

        拋開建構(gòu)分析中仍需進(jìn)一步研究的細(xì)節(jié)來看,混合能動者是能夠完成目標(biāo)并且被問責(zé)的。如果按照圖梅勒的集體能動者模式來分,混合能動者是一個(gè)I-mode 能動者。圖梅勒根據(jù)個(gè)體能動者所處的狀態(tài)將集體能動者分為we-mode 和I-mode。他認(rèn)為集體是以一個(gè)基礎(chǔ)的理念(ethos)開始的,集體成員在集體理念的指導(dǎo)下,形成共同的集體目標(biāo)。將自己作為集體成員而思考、行動并使集體的所得最大化,這種思考方式被稱為we-thinking,基于這種集體思考方式行動的成員被稱為wemode 模式。①Raimo Tuomela,Social Ontology:Collective Intentionality and Group Agency,New York:Oxford University Press,2013,pp.21—23.很顯然,人工能動者無法實(shí)現(xiàn)we-mode 模式,“使集體所得最大化”的決策就應(yīng)當(dāng)是“好”的決策,這是它的短板。I-mode 則是以“我”能夠如何完成目標(biāo)而作為思考模式參與集體行動的模式。這種模式在社會和自然界都十分常見。人工能動者以“我”要做什么作為計(jì)算的目標(biāo),與人類進(jìn)行共同行動,使得混合能動者成為可能。明確這一點(diǎn)的意義在于,I-mode 中的能動者是能夠拆分、各自承擔(dān)道德責(zé)任的。這使得混合能動者既能作為整體承擔(dān)責(zé)任,也能夠各自被問責(zé),這是符合日常對于人工智能的認(rèn)知和期待的,也使得人機(jī)間的責(zé)任問題有了較清晰的解決方 向。

        混合能動者的行動哲學(xué)分析不僅給責(zé)任問題提供了解決思路,也給人工智能的倫理規(guī)則設(shè)計(jì)提出了新的要求。在形成聯(lián)合意向的分析中,可以看到,以混合能動者為分界,與受動者相關(guān)的意向有多個(gè):從混合能動者外部來看,它具備一個(gè)整體地指向受動者的意向;從其內(nèi)部來講,人、機(jī)各自有一個(gè)指向受動者的意向,同時(shí),人、機(jī)互相之間存在各自的合作意向。也就是說,總共存在五個(gè)意向:混合能動者→受動者、使用者→受動者、AI →受動者、使用者→AI、AI →使用者??紤]到這五個(gè)意向方向,當(dāng)我們考慮人工智能相關(guān)的倫理設(shè)計(jì)時(shí),不能僅僅思考人工智能本身,而是應(yīng)盡力保證形成這五個(gè)意向的過程和方式都沒有(公認(rèn)的)倫理問題。這才能在源頭上阻止有倫理爭議的結(jié)果。因此,基于這五個(gè)意向方向,人工智能的設(shè)計(jì)者與規(guī)范制定者需要考慮的倫理維度(至少)有六個(gè):人工智能本身、AI—使用者、AI—受動者、混合能動者—受動者、使用者—受動者、使用者—AI。

        從行動哲學(xué)的角度對混合能動者進(jìn)行建構(gòu)分析,論證了混合能動者的存在論可能性、可問責(zé)性。同時(shí),也推論出了當(dāng)前人工智能在倫理設(shè)計(jì)中存在某些問題的哲學(xué)根 源。

        結(jié) 語

        在大數(shù)據(jù)、云計(jì)算、深度學(xué)習(xí)技術(shù)的支持下,人工智能參與人類事務(wù)的情況越來越多,隨之產(chǎn)生的許多責(zé)任困境又無法讓人工智能完全地承擔(dān),因此,社會和學(xué)術(shù)研究對人工智能的倫理主體的需求是迫切而重要的。在人工智能尚不足以成為完全倫理主體的過渡時(shí)期,以人機(jī)混合能動者作為替代的倫理主體是有其現(xiàn)實(shí)需求和理論基礎(chǔ) 的。

        開展以人機(jī)混合能動者為主體的哲學(xué)研究不僅是倫理上的權(quán)宜之計(jì),也有其必要性。僅以本文尚不甚深入的剖析來看,以混合能動者入手來研究所提出的問題正是人工智能社會面臨挑戰(zhàn)的關(guān)鍵問題,例如,合作問題、信任問題和倫理維度問題。但是,以混合能動者為主體的研究尚未引起廣泛的關(guān)注,有待加強(qiáng)。以混合能動者作為切入點(diǎn),是為了更好地應(yīng)對人工智能時(shí)代所產(chǎn)生的倫理挑戰(zhàn),以人工物社會化的研究方式來前瞻性地構(gòu)筑一系列的戰(zhàn)略方針,化解傳統(tǒng)問責(zé)機(jī)制的困境,發(fā)揮人工智能帶來的技術(shù)進(jìn)步優(yōu)勢,減低人工智能的倫理風(fēng) 險(xiǎn)。

        猜你喜歡
        人機(jī)意向倫理
        《心之死》的趣味與倫理焦慮
        人機(jī)“翻譯員”
        供應(yīng)趨緊,養(yǎng)殖戶提價(jià)意向明顯
        從內(nèi)到外,看懂無人機(jī)
        南都周刊(2021年3期)2021-04-22 16:43:49
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        東方留白意向在現(xiàn)代建筑設(shè)計(jì)的應(yīng)用解析
        活力(2019年19期)2020-01-06 07:35:50
        批評話語分析中態(tài)度意向的鄰近化語義構(gòu)建
        中國修辭(2017年0期)2017-01-31 05:41:04
        “人機(jī)大戰(zhàn)”人類智慧遭遇強(qiáng)敵
        海外星云(2016年7期)2016-12-01 04:17:50
        未來深空探測中的人機(jī)聯(lián)合探測
        太空探索(2016年5期)2016-07-12 15:17:58
        醫(yī)改莫忘構(gòu)建倫理新機(jī)制
        丝袜美腿亚洲综合一区| 冲田杏梨av天堂一区二区三区| 日本午夜伦理享色视频| 久久精品色福利熟妇丰满人妻91| 国产免费一区二区在线视频| 国产av一区二区三区在线播放| 97碰碰碰人妻无码视频| 亚洲中文字幕无码久久2020| 亚洲精品一区网站在线观看| 国产午夜视频高清在线观看| 无码av专区丝袜专区| 免费无码高潮流白浆视频| 国产精品欧美一区二区三区不卡| 93精91精品国产综合久久香蕉| 久久久精品国产视频在线| 日韩精品久久午夜夜伦鲁鲁| 精品高朝久久久久9999| 国产精品无码久久久久| 国产精品自产拍在线18禁| 在线a人片免费观看高清| 麻豆精品在线视频观看| 国产激情无码一区二区| 亚洲欧美日韩在线一区| 亚欧同人精品天堂| av在线高清观看亚洲| 国产伦精品免编号公布| yeyecao亚洲性夜夜综合久久| 天堂女人av一区二区| 北岛玲亚洲一区二区三区| 男女性行为免费视频网站| 狠狠的干性视频| 亚洲欧美日韩一区在线观看| 亚洲一区二区三在线播放| 人妻一区二区三区av| 国产精品你懂的在线播放| 亚洲黄色尤物视频| 少妇我被躁爽到高潮在线影片| 乱子轮熟睡1区| 久久99精品国产99久久| 中文字幕在线一区乱码| 久久国产精品亚洲va麻豆|