張正清 北京航空航天大學(xué)馬克思主義學(xué)院講師、博士
2019年中國(guó)政府工作報(bào)告指出: “打造工業(yè)互聯(lián)網(wǎng)平臺(tái),拓展‘智能+’,為制造業(yè)轉(zhuǎn)型升級(jí)賦能”,并提出 “深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,培育新一代信息技術(shù)、高端裝備、生物醫(yī)藥、新能源汽車、新材料等新興產(chǎn)業(yè)集群,壯大數(shù)字經(jīng)濟(jì)。”這是我國(guó)政府連續(xù)三年在政府工作報(bào)告中提及人工智能的發(fā)展政策,2017年提出 “把智能制造業(yè)作為主攻方向”,2018年又提出 “發(fā)展智能產(chǎn)業(yè),拓展智能生活”。人工智能的戰(zhàn)略意義還體現(xiàn)在對(duì)于社會(huì)問(wèn)題的治理上,每年消耗在社會(huì)問(wèn)題的定性與分析上的成本是驚人的,而人工智能基于對(duì)社會(huì)信息的高效處理,可以給出更為經(jīng)濟(jì)、準(zhǔn)確的方案,從而優(yōu)化政策制定過(guò)程[1]??梢?,人工智能的生產(chǎn)化、社會(huì)化是并行展開的,如何發(fā)展實(shí)用、適用的人工智能,是我們的著力點(diǎn)。
不同于人工智能產(chǎn)業(yè)的蓬勃發(fā)展,人工智能本身的規(guī)范問(wèn)題沒有得到與之相匹配的重視程度。在政策制定層面,倫理規(guī)范往往只是錦上添花的部分或者實(shí)現(xiàn)目的的手段。法國(guó)政府呼吁考慮世界范圍內(nèi)已有的人工智能政治、倫理規(guī)則,為的是能在產(chǎn)業(yè)發(fā)展中表達(dá)自己的規(guī)則,確立領(lǐng)先地位[2]。善的人工智能社會(huì) (Good AI Society)計(jì)劃也表明[3],在美國(guó)、英國(guó)、歐盟的人工智能政策制定中,政府、企業(yè)與研究者的角色與責(zé)任是目前最關(guān)注的內(nèi)容。人工智能規(guī)制架構(gòu)所指導(dǎo)的框架、監(jiān)管、流程與部門規(guī)定,往往側(cè)重于行業(yè)標(biāo)準(zhǔn)和產(chǎn)品設(shè)計(jì)[4]。
不同于政策的偏重,倫理學(xué)的研究對(duì)于人與機(jī)器的互動(dòng)更關(guān)注。從計(jì)算機(jī)、人工智能的倫理研究過(guò)程看,在20世紀(jì)80年代中期,人們就開始爭(zhēng)論計(jì)算機(jī)是否產(chǎn)生出控制人類行為的技術(shù)路徑,從而引發(fā)人們對(duì)于計(jì)算機(jī)倫理問(wèn)題的關(guān)注;在20世紀(jì)90年代,政策制定者們提出了關(guān)于計(jì)算機(jī)犯罪、數(shù)據(jù)安全、數(shù)字專利和電子商務(wù)的第一批規(guī)定。2000年以后,一系列道德困境出現(xiàn)了,在機(jī)器人產(chǎn)業(yè)和機(jī)器學(xué)習(xí)中,人們提出了新的應(yīng)用倫理學(xué)領(lǐng)域,例如 “機(jī)器人倫理學(xué)”和 “機(jī)器倫理學(xué)”[5]。從2016年開始,人工智能形成了較為完整的倫理規(guī)約框架,規(guī)范人工智能的四個(gè)治理方向已初步形成,關(guān)注于人工智能的社會(huì)意涵、人工智能的技術(shù)影響、人工智能的法律與規(guī)范、人工智能的倫理[6]。即便存在這樣一些規(guī)范框架,產(chǎn)業(yè)政策與倫理規(guī)范之間依然存在側(cè)重、發(fā)展與規(guī)制上的巨大差異。
發(fā)展錯(cuò)位與內(nèi)外差異性使得學(xué)界與產(chǎn)業(yè)界在一些核心議題上存在爭(zhēng)論。例如,目前學(xué)界認(rèn)為,未來(lái)社會(huì)存在人工智能取代智力型工作的遞進(jìn)階段[7],當(dāng)經(jīng)歷過(guò)這幾個(gè)階段之后,處于工作崗位上的人會(huì)被人工智能完全替代。同樣,還有一種說(shuō)法,認(rèn)為有些職業(yè)存在被替代的風(fēng)險(xiǎn),甚至有人預(yù)測(cè)出了各職業(yè)被人工智能取代的概率[4]。然而這些研究與論述很少體現(xiàn)在政策規(guī)范文本與產(chǎn)業(yè)發(fā)展規(guī)劃之中,導(dǎo)致這種理論關(guān)注與現(xiàn)實(shí)規(guī)范不對(duì)等的原因有以下兩個(gè):
(1)行業(yè)與學(xué)界的發(fā)展錯(cuò)位。技術(shù)先行、倫理配套是一系列新興技術(shù)發(fā)展的事實(shí)過(guò)程。每一代新技術(shù)的產(chǎn)生都是在其應(yīng)用到一定階段時(shí),人們才能真正認(rèn)識(shí)到倫理問(wèn)題的重要性。歷史地看,倫理實(shí)現(xiàn)規(guī)范功能的滯后性是普遍現(xiàn)象,對(duì)于現(xiàn)在的人工智能產(chǎn)業(yè)也依舊如此。但是新興技術(shù)又呈現(xiàn)另一種特殊性,例如人體增強(qiáng)技術(shù)、納米技術(shù)、人工智能技術(shù),在尚未在產(chǎn)業(yè)界應(yīng)用之前,就已經(jīng)引起了廣泛的倫理討論。這種現(xiàn)象導(dǎo)致了一種行業(yè)與倫理討論的分離,目前在人工智能的倫理討論中就出現(xiàn)了這種分離。在人工智能的倫理研究中,存在一種未來(lái)主義的觀點(diǎn),其倫理思考與規(guī)范建立在當(dāng)下尚未出現(xiàn)的技術(shù)條件之上。例如在親密關(guān)系機(jī)器人的倫理反思中,很多學(xué)者指出可以順暢交流、進(jìn)行肢體動(dòng)作互動(dòng)的機(jī)器會(huì)替代目前的家庭成員;而社會(huì)機(jī)器人的從業(yè)者指出,目前的商用機(jī)器人在外觀上依然無(wú)法實(shí)現(xiàn)被人完全接受的水平,更談不上替代人類家庭成員,因此主張的機(jī)器道德能力、道德價(jià)值是有問(wèn)題的[8]。這種沖突還體現(xiàn)在強(qiáng)-弱人工智能的分歧、長(zhǎng)期-短期人工智能發(fā)展的分歧之中。強(qiáng)人工智能或許可能擁有類人的思維能力,或者與人不同的思維能力,但是已經(jīng)成為很多學(xué)者討論的起點(diǎn);而弱人工智能強(qiáng)調(diào)智能機(jī)器只是服務(wù)人性,而不是創(chuàng)造一種新的人性,智能機(jī)器有一些輔助人智力的能力即可[9],這是政策制定的認(rèn)識(shí)基礎(chǔ)。這些分歧導(dǎo)致規(guī)范性研究與產(chǎn)業(yè)研究之間溝通的障礙,也造成了政策、戰(zhàn)略與行業(yè)規(guī)范之間的錯(cuò)位。
(2)內(nèi)在與外在兩種進(jìn)路的分歧。人工智能的倫理研究與哲學(xué)研究側(cè)重對(duì)心智、語(yǔ)言、意向性等內(nèi)在性問(wèn)題的討論,而規(guī)范、政策與戰(zhàn)略規(guī)劃關(guān)注于人工智能的社會(huì)表現(xiàn)與互動(dòng),這導(dǎo)致了倫理規(guī)范與技術(shù)現(xiàn)實(shí)之間的內(nèi)外分歧。對(duì)于人工智能這種特殊技術(shù)來(lái)說(shuō),其對(duì)人類社會(huì)深度、自動(dòng) (自主)的參與,使人看到了自身行使道德行為的影子。雖然對(duì)于每個(gè)技術(shù)物,都有合倫理設(shè)計(jì)的要求,但是對(duì)于人工智能來(lái)說(shuō),符合倫理不只是從一個(gè)被動(dòng)的參與者角度來(lái)討論,更是一種主動(dòng)的、游走在受控與非受控之間的模糊對(duì)象。正是這種模糊性,使得人工智能很早就被人發(fā)現(xiàn)存在倫理問(wèn)題,因?yàn)槲覀儫o(wú)法像對(duì)待一般的電器那樣處理智能機(jī)器?,F(xiàn)在的技術(shù)確實(shí)制造了一些可以自我決策的自動(dòng)機(jī)器,但是其自主性還非常有限,除非機(jī)器有一種類人的道德能力[10]。而問(wèn)題在于,半個(gè)多世紀(jì)的人工智能討論,在起伏間從未拋棄道德問(wèn)題的關(guān)懷,卻至今沒有產(chǎn)生一個(gè)系統(tǒng)的、公認(rèn)的規(guī)范方式,更多的理論仍然糾纏在意識(shí)問(wèn)題、主體問(wèn)題之上。
從戰(zhàn)略、框架走向具體規(guī)范的中間環(huán)節(jié),要求考慮具體的行動(dòng)方案。這種行動(dòng)方案的重點(diǎn)在于消除技術(shù)現(xiàn)實(shí)與倫理規(guī)范之間的分歧,讓技術(shù)設(shè)計(jì)者與政策制定者之間達(dá)成共識(shí),并讓這種共識(shí)可以被社會(huì)一般成員所接受?;谶@個(gè)目的,我們提出一些規(guī)范性的取舍方式,為人工智能政策制定提供建議。
(1)在把道德能力作為評(píng)價(jià)道德機(jī)器的基礎(chǔ)標(biāo)準(zhǔn)之外,進(jìn)一步關(guān)注人工智能的道德接受性。首先,一項(xiàng)技術(shù)的社會(huì)接受程度和道德可接受性之間存在關(guān)聯(lián)[11],對(duì)于制定人工智能的倫理規(guī)范來(lái)說(shuō),對(duì)于接受性的考察遠(yuǎn)比對(duì)于智能能力的評(píng)估重要。人工智能會(huì)有何種程度的道德表現(xiàn),不是一個(gè)具體實(shí)行的道德規(guī)范需要考慮的問(wèn)題。因?yàn)閷?duì)于目前階段的人工智能來(lái)說(shuō),我們規(guī)范的對(duì)象應(yīng)該以智能能力最低限位為標(biāo)準(zhǔn)。一味假設(shè)人工智能在將來(lái)的超前發(fā)展?fàn)顩r、預(yù)測(cè)人工智能在未來(lái)可能產(chǎn)生的影響,會(huì)影響那些使用情景更普遍化的社會(huì)機(jī)器。人工智能目前行為的合理性尚在建構(gòu)之中,我們無(wú)法通過(guò)現(xiàn)行的人類自身的倫理規(guī)范來(lái)很好地規(guī)定人工智能。此時(shí)人機(jī)互動(dòng)的社會(huì)接受度就是制定人工智能道德規(guī)范的標(biāo)準(zhǔn),因?yàn)橹挥斜簧鐣?huì)廣泛接受的行為才有可能是道德的行為,這是一條自下而上的決策路線。其次,人工智能倫理規(guī)范應(yīng)該是全社會(huì)都接受的規(guī)范,而不是專業(yè)團(tuán)體內(nèi)部的規(guī)范。目前,各個(gè)與人工智能產(chǎn)業(yè)相關(guān)的共同體都在試圖制定規(guī)范人工智能的行業(yè)標(biāo)準(zhǔn),這是有益的嘗試,但是這些行業(yè)規(guī)范不能直接轉(zhuǎn)化成人工智能的全社會(huì)道德規(guī)范,因?yàn)樾袠I(yè)規(guī)范主要站在設(shè)計(jì)者的角度來(lái)思考人工智能的倫理問(wèn)題,這種產(chǎn)品、服務(wù)層面的規(guī)范無(wú)法直接使用在人機(jī)交往的現(xiàn)實(shí)活動(dòng)中。更為深層的原因是,人工智能的設(shè)計(jì)者、生產(chǎn)者目前是以人類的智能定義為目標(biāo)來(lái)行動(dòng)的,因此會(huì)產(chǎn)生類人的道德規(guī)范或者混雜著與人相關(guān)的道德規(guī)范。對(duì)于更廣大的社會(huì)成員來(lái)說(shuō),他們并沒有智能模擬和實(shí)現(xiàn)層面的策略性考慮,所以專業(yè)團(tuán)體內(nèi)部規(guī)范會(huì)潛移默化地塑造社會(huì)成員,這有失倫理規(guī)范的公平性。因此,人工智能從業(yè)者應(yīng)該謹(jǐn)慎地推廣本領(lǐng)域內(nèi)部共識(shí)標(biāo)準(zhǔn),應(yīng)該嘗試轉(zhuǎn)譯和還原內(nèi)部標(biāo)準(zhǔn),以形成更普遍的標(biāo)準(zhǔn),從而獲得更廣泛的社會(huì)接受程度。
(2)在現(xiàn)行道德規(guī)則的框架下,把共識(shí)性知識(shí)作為另一個(gè)重要的影響因素。對(duì)常識(shí)性道德知識(shí)進(jìn)行技術(shù)層面的規(guī)范化,要優(yōu)先于對(duì)傳統(tǒng)倫理學(xué)規(guī)則的模擬。在機(jī)器行為與機(jī)器學(xué)習(xí)的研究中,一直存在兩種截然不同的路徑,如暴力法與訓(xùn)練法、事理圖譜與知識(shí)圖譜等。雖然孰優(yōu)孰劣存在爭(zhēng)議,但都體現(xiàn)了人工智能內(nèi)在的邏輯方式。對(duì)于道德行為來(lái)說(shuō),目前很多學(xué)者仍然使用規(guī)則優(yōu)先的道德推理方式,強(qiáng)調(diào)從一般的倫理原則到具體行為的推論模式。實(shí)際上,倫理學(xué)內(nèi)部對(duì)于基本規(guī)則的討論尚未定論,各個(gè)規(guī)則之間也充斥著矛盾。如果以某種倫理原則為基礎(chǔ),如功利主義,不但會(huì)在解釋行為的一致性上產(chǎn)生問(wèn)題,更會(huì)使得持有其他倫理原則的互動(dòng)者無(wú)法接受。設(shè)計(jì)道德機(jī)器與倫理教育有內(nèi)在的一致性,問(wèn)題不是在于學(xué)習(xí)了多少倫理理論與原則、規(guī)范,關(guān)鍵在對(duì)于社會(huì)普遍接受的行為如何理解與執(zhí)行。道德溝通與互動(dòng)不是基于雙方行為的倫理學(xué)來(lái)源,而是基于行為本身。這不是在主張一種后果主義的評(píng)價(jià)標(biāo)準(zhǔn),而是要在道德動(dòng)機(jī)、道德判斷、道德說(shuō)明、道德行動(dòng)的全過(guò)程中,把共識(shí)性道德知識(shí)放在首要地位。因此,人工智能的倫理邏輯應(yīng)該是模仿與學(xué)習(xí),這與目前的倫理教育的內(nèi)核是一致的,更容易被社會(huì)成員所接受。在這種理念下,內(nèi)在進(jìn)路所帶來(lái)的設(shè)計(jì)與評(píng)價(jià)的矛盾就可以被解決。內(nèi)在進(jìn)路對(duì)倫理規(guī)則的內(nèi)在化,是建立于相信由規(guī)則推導(dǎo)出的行為的正確性,以及出于接受規(guī)則而接受行為的推論。而人對(duì)機(jī)器的接受是極為苛刻的,人與人之間在倫理規(guī)則上的讓步與妥協(xié),很難出現(xiàn)在人與機(jī)器之間的關(guān)系上。因此,外在進(jìn)路所主張的行為評(píng)價(jià)與道德期望就變得更加合理。
(3)除了對(duì)于利益相關(guān)者的道德規(guī)范外,還要關(guān)注對(duì) “人機(jī)互動(dòng)”中的一般參與者的規(guī)范。智能機(jī)器的倫理規(guī)范不僅僅應(yīng)該是對(duì)于機(jī)器、設(shè)計(jì)者、生產(chǎn)者的規(guī)范,還應(yīng)該是對(duì)于使用者等更廣泛意義上的參與者的規(guī)范。目前人工智能的倫理討論更像是行業(yè)規(guī)范,只針對(duì)人工智能產(chǎn)業(yè)內(nèi)部相關(guān)人士進(jìn)行規(guī)定。對(duì)于人工智能人工物的行為規(guī)范性討論較少,而得到討論的主要問(wèn)題是對(duì)人工智能的責(zé)任問(wèn)題,很少討論整體上的規(guī)范性。而大眾使用人工智能的規(guī)范就少之又少,鮮有人提及?;谂c非人實(shí)體的道德關(guān)系而進(jìn)行規(guī)范,目前在動(dòng)物保護(hù)、環(huán)境生態(tài)領(lǐng)域比較常見,人對(duì)于非人存在的對(duì)待方式,在很大程度上反映了人自身的道德品質(zhì)。人對(duì)自動(dòng)化機(jī)器的非道德行為,會(huì)塑造人的道德自我,從而影響人對(duì)其他互動(dòng)對(duì)象的道德意向性。在社會(huì)機(jī)器人的研究中,道德心理學(xué)研究者極其關(guān)注與機(jī)器互動(dòng)所培養(yǎng)出來(lái)的行為習(xí)慣,這種習(xí)慣本身就是倫理規(guī)范的表現(xiàn)。因此,對(duì)于使用者進(jìn)行規(guī)范,還可能反向推動(dòng)規(guī)范設(shè)計(jì)行為,設(shè)計(jì)與倫理的時(shí)間錯(cuò)位也會(huì)得到解決。并且,由于不是讓大眾被動(dòng)接受專業(yè)團(tuán)體的道德知識(shí),大眾可以更多地發(fā)揮常識(shí)知識(shí)的作用,更容易形成社會(huì)共識(shí);而專業(yè)團(tuán)體因此受到更普遍的道德規(guī)則約束,更容易形成與一般社會(huì)成員在行為規(guī)范上的相互建構(gòu)。