尹鐵燕,代金平
(貴州師范大學(xué) 馬克思主義學(xué)院,貴州 貴陽 550001)
2017年7月,國務(wù)院頒布《新一代人工智能發(fā)展規(guī)劃》,提出要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架?!保?]2018年,《人工智能標(biāo)準(zhǔn)化白皮書》闡述了人工智能的安全、倫理和隱私問題。2019年6月,國家新一代人工智能治理委員會發(fā)布《發(fā)展負(fù)責(zé)任的人工智能:我國新一代人工智能治理原則發(fā)布》,突出了“發(fā)展負(fù)責(zé)任的人工智能”這一主題,同時提出了人工智能發(fā)展的八大原則,即“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作與敏捷治理。”[2]“開放協(xié)作”強調(diào)在人工智能倫理治理中多主體之間協(xié)同治理。人工治理倫理的“敏捷治理”強調(diào)治理的適應(yīng)性與靈活性。敏捷治理是一種政府、科技工作者、設(shè)計制造者、社會公眾共同參與的多元治理模式。2021年1月,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會正式發(fā)布《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南——人工智能倫理安全風(fēng)險防范指引》(以下簡稱《指引》)?!吨敢穼θ斯ぶ悄軅惱戆踩L(fēng)險進(jìn)行了分類,對研究開發(fā)者、設(shè)計制造者、部署應(yīng)用者和用戶提出了相應(yīng)的操作規(guī)范和基本要求。《指引》為我國人工智能倫理安全標(biāo)準(zhǔn)體系化建設(shè)奠定了重要的理論基礎(chǔ)。世界上其他各國也都陸續(xù)制定了人工智能國家戰(zhàn)略文件。例如,德國于2013年4月制定了《德國工業(yè)4.0戰(zhàn)略》,日本于2016年1月制定了《超級智能社會5.0》,美國于2016年10月制定了《國家人工智能研究和發(fā)展戰(zhàn)略計劃》,英國于2016年10月制定了《人工智能:未來決策制定的機遇與影響》,俄羅斯于2017年7月制定了《數(shù)字經(jīng)濟列入俄羅斯2018—2025年戰(zhàn)略》,法國于2018年3月制定了《國家人工智能戰(zhàn)略》。各國制定人工智能國家戰(zhàn)略文件,旨在應(yīng)對人工智能潛在的倫理和法律挑戰(zhàn),以期為人工智能向善發(fā)展提供理論指導(dǎo)和智力支持。
近年來,隨著科學(xué)技術(shù)的快速發(fā)展,人工智能倫理已經(jīng)成為學(xué)界研究的熱點議題。如何正確處理好科技與人類的關(guān)系、確??萍枷蛏埔呀?jīng)成為當(dāng)務(wù)之急。人工智能的研究進(jìn)路、研究架構(gòu)、研究方式已經(jīng)取得了豐碩的研究成果,但是相關(guān)問題還有待進(jìn)一步深入研究。張衛(wèi)提出“外在主義”和“內(nèi)在主義”兩種研究進(jìn)路,認(rèn)為兩種進(jìn)路在治理手段和治理對象上實現(xiàn)了互換,從而厘清了二者的關(guān)系,構(gòu)筑起“外在主義”和“內(nèi)在主義”二者相互補充、相得益彰的人工智能倫理完整的研究架構(gòu)[3]。朱琳等提出要構(gòu)建“人工智能倫理生態(tài)圈”,強調(diào)倫理規(guī)范在人工智能倫理生態(tài)圈中的核心地位,認(rèn)為在人智能倫理生態(tài)中最重要的生產(chǎn)關(guān)系即為數(shù)據(jù)的權(quán)力、權(quán)利和權(quán)益[4]。趙志耘等提出了人工智能倫理風(fēng)險的理論內(nèi)涵、表現(xiàn)形式和生成機理。研究指出,人工智能倫理風(fēng)險主要包括人類決策自主受控、侵犯隱私、偏見和歧視加劇、安全責(zé)任劃歸困難與失當(dāng)、破壞公平、生態(tài)失衡6大類風(fēng)險。人工智能倫理風(fēng)險源于技術(shù)—人—社會—自然之間的復(fù)雜交互,主要包括技術(shù)內(nèi)生型倫理風(fēng)險和技術(shù)應(yīng)用型倫理風(fēng)險兩大生成路徑[5]。王東、張振認(rèn)為,人工智能面臨一定的倫理風(fēng)險問題,諸如技術(shù)倫理風(fēng)險、社會倫理風(fēng)險和人類生存?zhèn)惱盹L(fēng)險等。規(guī)避人工智能所帶來的倫理風(fēng)險,需堅持維護(hù)人類共同利益的最高倫理規(guī)范,在全面深化基本原則遵循的基礎(chǔ)上,推進(jìn)倫理制度建設(shè)和新型人機關(guān)系建構(gòu)[6]。戴益斌以人工智能產(chǎn)品的典型代表即智能機器人為例,從道德主體和道德接受者的角度出發(fā),討論了人工智能倫理是何以可能的問題。研究指出,智能機器人無法成為真正的主體,因為它不可能擁有心智狀態(tài)[7]。陳凡、徐旭認(rèn)為,人工智能倫理設(shè)計面臨著結(jié)果不確定性、非公正性和建構(gòu)缺失,為此,我們需要對當(dāng)前人工智能倫理設(shè)計進(jìn)行必要的解構(gòu)與反思,并從倫理張力、協(xié)同性和客體主體化中尋找解蔽之路[8]。吳紅、杜嚴(yán)勇對已有的人工智能倫理原則進(jìn)行簡要介紹與特征分析,然后論證倫理原則發(fā)揮積極作用的可能性,最后針對不同行為主體提出實現(xiàn)從倫理原則到行動的可能途徑[9]。李倫、孫保學(xué)提出人工智能倫理研究的四個維度:人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計倫理和人工智能社會倫理[10]??偠灾?,學(xué)界已經(jīng)對人工智能倫理的研究進(jìn)路、體系建構(gòu)、風(fēng)險管理、倫理設(shè)計與反思等展開了深入研究,對人工智能倫理治理和人工智能倫理教育提供了有益參考。
人工智能技術(shù)在帶給人類種種益處與便利的同時,也引發(fā)了形形色色的倫理問題。人工智能倫理是處理人類與人工智能產(chǎn)品或服務(wù)之間相互關(guān)系時應(yīng)該遵循的基本道德準(zhǔn)則。人工智能發(fā)展可以劃分為弱人工智能、強人工智能和超人工智能三個階段。用認(rèn)識論審視,弱人工智能還處于人類認(rèn)識的感性階段,對外界刺激還只是形成感覺、直覺和表象的感性認(rèn)識;強人工智能和超人工智能已經(jīng)處于人類認(rèn)識的理性階段。強人工智能在外界刺激下能夠形成概念、判斷和推理的理性認(rèn)識;而超人工智能已經(jīng)完全具備人類的思維方式和創(chuàng)造能力。弱人工智能在人類生產(chǎn)和生活中扮演著輔助的角色,執(zhí)行人類寫好的代碼、編好的邏輯,完成人類交給的某項具體的任務(wù);而強人工智能或超人工智能可以在人類生產(chǎn)和生活中扮演主角,完全可以代替駕駛員進(jìn)行自動駕駛汽車,能夠取代醫(yī)生獨立進(jìn)行外科手術(shù),亦能代替投資顧問進(jìn)行商業(yè)投資等。強人工智能或超人工智能已經(jīng)具備較高的自我決策能力,甚至能取代或超越人類的智慧,從而引起人類社會秩序的真正變革。那么,人工智能會不會在未來取代人類而存在?人會不會在未來受制于自己創(chuàng)造的機器人呢?隨著人工智能的迅速發(fā)展,如何應(yīng)對強人工智能或超人工智能時代的“人機倫理”問題呢?從人工智能的長遠(yuǎn)發(fā)展來看,構(gòu)建完善的人工智能倫理治理體系具有現(xiàn)實性和必要性。對人工智能倫理問題的討論必須站在“人”的立場上,對人類面臨的倫理困境進(jìn)行理性審視并找到破解人工智能倫理困境的出路。本文試圖探討人工智能倫理的哲學(xué)意蘊、現(xiàn)實問題和相應(yīng)治理進(jìn)路,以期為人工智能倫理治理提供有益參考。
人機關(guān)系是人工智能時代不可回避的一對核心關(guān)系。那么,在人工智能時代,人機關(guān)系是平等主體之間的關(guān)系還是主體(人)與客體(物)之間的關(guān)系?人機關(guān)系能取代人際關(guān)系嗎?人類在使用情侶機器人、助老機器人、軍用機器人時,如何正確處理好人機關(guān)系?黑格爾的主奴辯證法可以很好地分析人機關(guān)系。黑格爾在《精神現(xiàn)象學(xué)》中引入勞動這一中介的概念,論證奴隸是如何在勞動中形成獨立自我意識并逐步擺脫主人的控制的;同樣,人類利用人工智能為自身服務(wù),而人工智能產(chǎn)品(比如機器人)通過深度學(xué)習(xí)可以形成自我意識,進(jìn)而有可能控制人類。這樣,人機關(guān)系就發(fā)生了易位。人工智能產(chǎn)品本身不具備人的心智狀態(tài),因而只能作為道德接受者而存在。布賴森的新工具主義把機器人視為奴隸,認(rèn)為機器人的責(zé)任歸屬在它的生產(chǎn)方或操作方,機器人本身不能承擔(dān)責(zé)任。用辯證法審視,人機關(guān)系的本質(zhì)是人與物的關(guān)系,是一種主奴關(guān)系,而人際關(guān)系的本質(zhì)是人與人之間的關(guān)系,是一種平等的社會關(guān)系。用人機關(guān)系代替人際關(guān)系是一種科技異化,更是一種社會關(guān)系的異化。“無論當(dāng)下還是未來,智能機器的本質(zhì)仍是“屬人性”,是人類自我生成和自我實現(xiàn)的“高級”對象化產(chǎn)物,其歸根結(jié)底應(yīng)作為手段服務(wù)于作為目的的人。”[11]因此,智能機器在醫(yī)療、教育、金融、交通、軍事等各個領(lǐng)域的應(yīng)用都是最終服務(wù)于廣大人民群眾,為人們的生產(chǎn)生活提供便利。對于侵犯人類生存權(quán)、發(fā)展權(quán)的人工智能產(chǎn)品(腦機接口、芯片植入、基因編輯等),應(yīng)嚴(yán)格控制其設(shè)計和應(yīng)用,否則就會導(dǎo)致人機關(guān)系的異化。因此,在人工智能發(fā)展中,人與機器的關(guān)系必須始終是主奴關(guān)系,進(jìn)而保證人工智能研發(fā)和應(yīng)用中的向善性,確保人的道德主體性得到充分彰顯。
政府管理強調(diào)政府的單一主體地位,而社會治理突出多元主體的協(xié)同治理效能。從政府管理到社會治理的轉(zhuǎn)化,體現(xiàn)了國家治理體系和治理能力現(xiàn)代化的實踐探索取得重要進(jìn)展。用辯證法審視,政府管理是社會治理的前提和基礎(chǔ),而社會治理是政府管理智能化的生動體現(xiàn)。政府管理強調(diào)政府對人工智能的宏觀指導(dǎo)和監(jiān)督,而社會治理強調(diào)多主體參與人工智能設(shè)計、生產(chǎn)、使用、評價的全過程。政府對人工智能產(chǎn)品研發(fā)負(fù)有指導(dǎo)、監(jiān)管的責(zé)任和義務(wù)。政府管理部門要對人工智能的發(fā)展方向進(jìn)行宏觀把握和整體規(guī)劃,制定相應(yīng)的人工智能倫理規(guī)范和安全標(biāo)準(zhǔn)。政府管理部門對人工智能的開發(fā)與應(yīng)用負(fù)有管理責(zé)任和義務(wù)。政府必須建立關(guān)于人工智能的管理方案,對人工智能產(chǎn)品研發(fā)的全員、全程、全方位監(jiān)督,并落實各個環(huán)節(jié)的責(zé)任負(fù)責(zé)制。由此可見,政府管理強調(diào)政府對人工智能的宏觀管理功能。
在社會治理中,黨委和政府在社會治理中起主導(dǎo)性作用。黨的十九屆四中全會公報提出:“社會治理是國家治理的重要方面。必須加強和創(chuàng)新社會治理,完善黨委領(lǐng)導(dǎo)、政府負(fù)責(zé)、民主協(xié)商、社會協(xié)同、公眾參與、法治保障、科技支撐的社會治理體系。建設(shè)人人有責(zé)、人人盡責(zé)、人人享有的社會治理共同體,確保人民安居樂業(yè)、社會安定有序,建設(shè)更高水平的平安中國?!保?2]人工智能倫理治理強調(diào)多主體之間的協(xié)作。人工智能倫理僅依靠政府管理是遠(yuǎn)遠(yuǎn)不夠的,需要全體社會成員參與人工智能倫理的設(shè)計、制造、使用、售后的全過程。從多元治理的主體來看,政府管理是倫理治理的核心,科技工作者是倫理治理的主導(dǎo),社會公眾是倫理治理的關(guān)鍵。
人工智能倫理是人工智能設(shè)計的底色,而人工智能設(shè)計是人工智能倫理的價值訴求,蘊含人工智能倫理的底色之美。人工智能設(shè)計需要考慮人類福祉與人工智能產(chǎn)品的雙重價值。就增進(jìn)人類福祉而言,需要把公正性、多元包容性、責(zé)任性、AI可控性作為其基本標(biāo)準(zhǔn),就人工智能本身的發(fā)展而言,需要把安全性、可解釋性、可持續(xù)性作為其基本標(biāo)準(zhǔn)。人工智能設(shè)計彰顯人類的主體價值,是創(chuàng)造人類生產(chǎn)生活需要的、具有自主學(xué)習(xí)能力的、會思考的人工智能產(chǎn)品的主體性活動。一方面,人工智能設(shè)計與社會價值觀念密切相關(guān),傳統(tǒng)的倫理觀、宗教觀、隱私觀都會對人工智能設(shè)計產(chǎn)生深刻影響;另一方面,人工智能設(shè)計反過來促進(jìn)社會價值觀的變革。人工智能技術(shù)本身具有價值導(dǎo)向性。例如,B超技術(shù)的應(yīng)用可以讓人們預(yù)知胎兒的性別,由此引發(fā)“墮胎是否合乎道德”的思考。許多國家已經(jīng)把胎兒作為獨立的法律主體和道德主體,以此維護(hù)胎兒的生命權(quán)。由此可見,人工智能已經(jīng)并將持續(xù)對人類社會產(chǎn)生深遠(yuǎn)影響。人工智能設(shè)計必須合乎倫理性,否則人工智能就會導(dǎo)致社會秩序的混亂。用辯證法審視,人工智能倫理是人工智能設(shè)計的前提和基礎(chǔ),人工智能設(shè)計中滲透著倫理。完善的人工智能設(shè)計是人工智能倫理的充分彰顯和完美體現(xiàn)。用范疇學(xué)審視,人工智能倫理是人工智能設(shè)計的子范疇,是人工智能設(shè)計不可或缺的重要組成部分。人工智能設(shè)計者在人工智能產(chǎn)品的研發(fā)中起關(guān)鍵作用,其不僅需要有人工智能的專業(yè)知識,還需要具備倫理學(xué)的知識背景。在人工智能設(shè)計中要充分運用倫理學(xué)知識,樹立前瞻性的道德責(zé)任意識。“從人工智能的發(fā)展現(xiàn)狀來看,人工智能倫理關(guān)系討論的實際上是人工智能設(shè)計者、人工智能使用者、人工智能監(jiān)管者和智能機器本身之間的交互關(guān)系,它貫穿人工智能運行、管理和決策的全過程,其中居于核心位置的是人工智能設(shè)計者的設(shè)計?!保?3]人工智能進(jìn)行合倫理設(shè)計,體現(xiàn)了一種道德責(zé)任意識。設(shè)計者要對人工智能產(chǎn)品的安全性和可靠性負(fù)責(zé)到底。因此,人工智能設(shè)計不僅包括產(chǎn)品自身的功能設(shè)計,還包括人工智能倫理設(shè)計。人工智能倫理的實踐路徑可以采取嵌入設(shè)計的方式,把倫理原則和倫理規(guī)范嵌入到人工智能設(shè)計之中,并通過人工智能技術(shù)建構(gòu)人工智能倫理。人工智能發(fā)展必然要求對人工智能產(chǎn)品進(jìn)行倫理規(guī)制,從而實現(xiàn)人類與人工智能產(chǎn)品的和諧相處。
倫理和法律是處理人類社會關(guān)系的兩種基本方式和基本工具。倫理和法律有何區(qū)別和聯(lián)系呢?倫理是一種自發(fā)形成的,處理人與人、人與社會、人與自然之間相互關(guān)系的道德準(zhǔn)則,而法律是依靠國家強制力執(zhí)行的規(guī)范體系。人工智能倫理與人工智能法律遵循倫理與法律的一般邏輯關(guān)系。人工智能倫理強調(diào)在人工智能開發(fā)和應(yīng)用中形成人類的自覺、自律的道德行為,對人工智能設(shè)計者、使用者和監(jiān)管者的倫理要求較高。而人工智能法律強調(diào)國家作為統(tǒng)治階級工具的管理職能,體現(xiàn)國家對人工智能賦予制度性的法律規(guī)范。不管是人工智能倫理還是人工智能法律,都是實現(xiàn)人工智能發(fā)展的重要保障,二者在人工智能發(fā)展中不斷進(jìn)行深度融合與實踐轉(zhuǎn)化,即實現(xiàn)道德法律化和法律道德化。用辯證法審視,人工智能倫理是制定人工智能法律的前提和基礎(chǔ),而人工智能法律是人工智能倫理的重要保障,是對人工智能倫理規(guī)范中無法實現(xiàn)的部分進(jìn)行強制性規(guī)定并運用國家機器保證其強制力執(zhí)行。為了解決人工智能帶來的現(xiàn)實問題,并保證人工智能的有序發(fā)展,必須綜合運用倫理和法律的規(guī)范體系。例如,“機器人法律資格的民事主體問題、人工智能生成作品的著作權(quán)問題、智能系統(tǒng)致人損害的侵權(quán)法問題、人類隱私保護(hù)的人格權(quán)問題,以及智能駕駛系統(tǒng)的交通法問題、機器‘工人群體’的勞動法問題”[14]等,可以運用法律規(guī)范予以強制性規(guī)制,亦可先進(jìn)行倫理價值指引,為相應(yīng)的法律法規(guī)出臺提供學(xué)理支撐。對于智能機器人的設(shè)計和使用,可以預(yù)先設(shè)立法律規(guī)范和道德準(zhǔn)則,對其進(jìn)行倫理指引,對智能機器人的設(shè)計者、使用者進(jìn)行法律約束和倫理約束??傊?,為保證倫理規(guī)范的自覺履行,可設(shè)立相應(yīng)的法律法規(guī),實現(xiàn)道德的法律化;同樣,當(dāng)法律已經(jīng)內(nèi)化為人們的道德規(guī)范時,可以轉(zhuǎn)化為一種道德,實現(xiàn)法律的道德化。
道德主體問題的實質(zhì)就是責(zé)任倫理問題。那么,什么是道德主體?道德主體即承擔(dān)道德責(zé)任的、具備自我意識的行為者。依此類推,人工智能倫理引發(fā)的道德主體問題即人工智能到底由誰來負(fù)責(zé)的問題。人工智能可以作為除人類之外獨立的倫理主體嗎?人工智能時代道德主體是人還是機器?還是二者都可以成為道德主體呢?道德主體決定人工智能產(chǎn)品售后產(chǎn)生的責(zé)任分配與劃界問題。人工智能能夠成為責(zé)任主體嗎?亞里士多德在《尼各馬可倫理學(xué)》第三卷中對責(zé)任主體進(jìn)行了經(jīng)典詮釋,提出了擔(dān)負(fù)責(zé)任的主體應(yīng)符合的基本標(biāo)準(zhǔn)?;谶@一標(biāo)準(zhǔn),人工智能不具備承擔(dān)道德責(zé)任的能力,人工智能自身作出的倫理判斷也是人類進(jìn)行設(shè)計的,并非出于自身的意愿,人工智能在無知狀態(tài)下作出的倫理決策是可以免責(zé)的。例如,2016年5月7日,一輛特斯拉汽車在美國佛羅里達(dá)州高速公路上與一輛垂直方向開來的掛車發(fā)生相撞,造成司機死亡。2018年3月18日,美國硅谷優(yōu)步公司的自動駕駛汽車撞傷亞利桑那州的一名女子,之后不幸身亡。這是全球首例自動駕駛車輛致人死亡的事故。在汽車開啟人工智能自動駕駛模式時,到底誰是道德主體?機器人是否具備人的基本屬性并使自身成為道德主體呢?在自動駕駛中,行人和乘客同時面臨危險時應(yīng)該如何抉擇?是保護(hù)行人還是乘客?面對不同生命的取舍時,是選擇保護(hù)多數(shù)人還是少數(shù)人?自動駕駛導(dǎo)致的交通事故應(yīng)該由誰來承擔(dān)責(zé)任?是啟動自動駕駛模式的汽車司機還是自動駕駛系統(tǒng)設(shè)計者呢?當(dāng)我們把人的生死權(quán)交給人工智能技術(shù)及其提供的服務(wù)時,我們不得不思考一個問題,就是人工智能能否代替人類成為道德主體呢?阿西莫夫的三定律原則為道德主體的界定提供了有益參考。1942年,阿西莫夫提出機器人行為的三定律原則,即機器人不能傷害人類或坐視人類受到傷害;在與第一定律原則不相沖突的情況下機器人必須服從人類的命令;在不違反第一與第二定律原則的基礎(chǔ)上機器人有自我保護(hù)的義務(wù)。1985年,阿西莫夫進(jìn)一步提出第零法則,即機器人即使出于自我保護(hù)也不能直接或間接傷害人類。根據(jù)阿西莫夫的三定律原則,如果人工智能的存在是以保護(hù)人類、服務(wù)社會為最終目的的話,那么此時的人工智能就不是倫理主體,而只是人類的附屬品而已。如果人工智能具有自我保護(hù)意識,在面臨風(fēng)險時優(yōu)先保護(hù)自己的話,人工智能就會給人類帶來災(zāi)難性的后果。筆者以為,人工智能產(chǎn)品(比如機器人)不能作為“完全的道德主體”而存在。隨著人工智能產(chǎn)品(比如機器人)自我意識不斷增強,其本身具有一定的倫理判斷能力,可以作為“有限的道德主體”而存在,必須正確引導(dǎo)其更好地為人類社會服務(wù)。
隨著人工智能的廣泛使用,探討政府如何有效運用人工智能為國家和社會服務(wù)具有現(xiàn)實性和必要性。人工智能發(fā)展必須在政府治理的框架中進(jìn)行,換言之,人工智能應(yīng)該為社會治理提供新方法、新路徑。政府必須對人工智能發(fā)展進(jìn)行宏觀把控,必須堅持以人民為中心的基本原則,把人的根本利益作為人工智能發(fā)展的終極目標(biāo),引導(dǎo)人工智能向善發(fā)展,構(gòu)建友好型人工智能。以大數(shù)據(jù)為依托的人工智能技術(shù)對公共決策產(chǎn)生重要影響。人工智能深入經(jīng)濟、政治、社會、生態(tài)、黨的建設(shè)諸方面。例如,在2020年以來的疫情防控中,我國迅速構(gòu)建了以大數(shù)據(jù)技術(shù)和人工智能技術(shù)為重要依托的疫情防控體系,充分彰顯了國家治理體系和治理能力現(xiàn)代化建設(shè)的能力。隨著人工智能在政府決策中的廣泛應(yīng)用,也帶來一系列的人工智能智能倫理問題。人工智能倫理如何體現(xiàn)其透明性和可解釋性呢?人工智能導(dǎo)致的政府決策失誤應(yīng)該由誰來買單?人工智能用于政府決策如何解決算法歧視問題呢?政府決策中如何體現(xiàn)其公平性和反歧視性呢?算法歧視可能會進(jìn)一步強化人類的刻板印象,算法歧視會導(dǎo)致性別歧視、種族歧視、地域歧視等。這些人工智能發(fā)展帶來的社會問題應(yīng)該如何應(yīng)對?政府在運用人工智能進(jìn)行公共決策時如何保證數(shù)據(jù)樣本的精準(zhǔn)性呢?深度決策中如何避免人工智能(機器人)深度學(xué)習(xí)的“黑箱”現(xiàn)象呢?筆者以為,在人工智能算法方面,人工智能設(shè)計與應(yīng)用必須確保人的基本權(quán)利不受侵害,同時要保證人工智能算法的透明性、公正性、可控性。
人工智能對現(xiàn)代社會秩序產(chǎn)生重要影響。怎樣保證人工智能更好地為社會服務(wù),既是一個重大的理論問題,更是一個重大的現(xiàn)實問題。人工智能發(fā)展將會引起社會秩序的重大變革,必須在解構(gòu)中重構(gòu)社會新秩序。一是人工智能引發(fā)的社會公正問題。從經(jīng)濟學(xué)視角看,“大數(shù)據(jù)殺熟”是一種價格歧視,是商家實現(xiàn)利潤最大化的手段和方法?!按髷?shù)據(jù)殺熟”的前提和基礎(chǔ)是電子商務(wù)憑他對消費者有充分的了解,從而針對消費者個體制定潛在客戶可以承受的價格。二是人工智能引發(fā)的婚姻倫理問題。未來學(xué)家伊恩·皮爾森博士預(yù)測,“到2050年左右,人類與機器人的性愛將變得非常流行,機器人有可能最終取代人類性伴侶?!蹦敲矗詯蹤C器人是否會給人類帶來婚姻危機呢?已婚人士使用性愛機器人能否認(rèn)定為婚內(nèi)“出軌”?人與機器人結(jié)婚是否符合社會倫理規(guī)范?這些問題值得反思和研究。三是人工智能引發(fā)的性別歧視問題。性愛機器人大多數(shù)都以女性樣態(tài)呈現(xiàn),即將女性物化,這種做法是否會加劇對女性的性別歧視?四是人工智能引發(fā)的種族繁衍危機。性愛機器人可能引起社會基本結(jié)構(gòu)的變遷,導(dǎo)致家庭關(guān)系的消失。在人工智能時代應(yīng)如何維護(hù)家庭的和諧,進(jìn)而維護(hù)整個社會的和諧呢?五是人工智能引發(fā)的就業(yè)問題。就業(yè)是最大的民生問題。在未來,大批工人將會被工業(yè)機器人取代。如何保證失業(yè)工人的權(quán)益成為社會將會面臨的重大課題。六是決策歧視問題。具有自主學(xué)習(xí)能力的人工智能往往會對根據(jù)數(shù)據(jù)記錄的部分群體產(chǎn)生地域歧視、種族歧視、性別歧視等。例如,在人工智能決策和管理中,“黑人”更容易與“犯罪”聯(lián)系在一起。七是人工智能引發(fā)的個人隱私保護(hù)問題。在大數(shù)據(jù)時代背景下,個人的健康信息、所在的位置信息、瀏覽的網(wǎng)絡(luò)信息等都會暴露在公眾面前,個人隱私處于隨時被窺探的狀態(tài)。
教育是最大的民生問題。當(dāng)今世界正面臨百年未有之大變局。教育必須面向現(xiàn)代化、面向世界、面向未來。人工智能倫理教育遵循教育的一般規(guī)律。隨著人工智能的飛速發(fā)展,進(jìn)行人工智能倫理教育具有現(xiàn)實性和必要性。
1.人工智能技術(shù)的科技工作者的倫理意識不強已經(jīng)成為人工智能發(fā)展的重要瓶頸。人工智能設(shè)計者對其產(chǎn)品投放市場后的倫理風(fēng)險估計不足,可能損害公開利益和個人利益。
2.同時擁有人工智能與倫理學(xué)專業(yè)背景的高級研究人員不足。人工智能倫理作為一門交叉學(xué)科,需要人工智能和倫理學(xué)的雙重學(xué)術(shù)背景和知識儲備。然而,人工智能倫理一般都是由擁有馬克思主義哲學(xué)、西方哲學(xué)的學(xué)者們進(jìn)行研究。
3.缺少人工智能倫理研究的科研平臺。人工智能倫理的學(xué)術(shù)體系、學(xué)科體系、話語體系尚未真正建立,人工智能倫理課程建設(shè)和教材建設(shè)明顯滯后,人工智能專業(yè)的學(xué)生缺乏人工智能倫理教育。
4.人工智能倫理的學(xué)科支撐不足。人工智能倫理的基礎(chǔ)研究理論支撐不足,研究范式還有待進(jìn)一步創(chuàng)新;對人工智能的國際發(fā)展的最新成果研究把握不足,還有待進(jìn)一步深入研究。
5.人工智能倫理的大眾化教育體制機制不健全,社會公眾的人工智能倫理知識缺乏。加強人工治理倫理的知識科普具有極大的現(xiàn)實意義。
人工智能技術(shù)最終服務(wù)與廣大人民群眾,必須以人的利益為根本出發(fā)點和落腳點。馬克思主義的基本立場就是人民立場。馬克思、恩格斯在合寫的《神圣家族》中提出:“‘思想’一旦離開‘利益’,就一定會使自己出丑。”[15]“為了人民,依靠人民,保護(hù)人民是馬克思主義政黨的本質(zhì)要求,是中國共產(chǎn)黨的宗旨體現(xiàn),脫離人民,背叛人民,與人民為敵,終究會走向失敗?!保?6]中國共產(chǎn)黨繼承和發(fā)展了馬克思主義關(guān)于人民立場的思想。毛澤東鮮明提出:“人民,只有人民,才是創(chuàng)造世界歷史的動力?!保?7]鄧小平指出:“群眾是我們力量的源泉,群眾路線和群眾觀點是我們的傳家寶?!保?8]江澤民強調(diào):“黨的理論、路線、綱領(lǐng)、方針、政策和各項工作,必須堅持把人民的根本利益作為出發(fā)點和歸宿?!保?9]胡錦濤強調(diào):“堅持發(fā)展為了人民、發(fā)展依靠人民、發(fā)展成果由人民共享。”[20]習(xí)近平總書記多次提出:人民立場“是中國共產(chǎn)黨的根本政治立場,是馬克思主義政黨區(qū)別于其他政黨的顯著標(biāo)志?!保?1]中國共產(chǎn)黨領(lǐng)導(dǎo)下的一切工作都必須堅守人民立場。
人工智能發(fā)展過程中必須始終堅守人民立場,讓人工智能真正服務(wù)于人們的生產(chǎn)和生活場域。
1.在人工智能技術(shù)的開發(fā)和應(yīng)用中,要以國家、社會和個人的現(xiàn)實需求作為其價值歸宿,實現(xiàn)精準(zhǔn)開發(fā)和精準(zhǔn)營銷。國家、社會和個人的現(xiàn)實需求是多樣化的。例如,應(yīng)對國防和軍隊現(xiàn)代化的需要,為了減少戰(zhàn)爭傷亡和軍人數(shù)量,可以考慮未來使用軍用機器人;應(yīng)對老年化趨勢,為了解決養(yǎng)老難的問題,可以考慮未來使用助老機器人;應(yīng)對道德失范、誠信缺失等社會不良現(xiàn)象,為了重構(gòu)社會信用體系,可以考慮使用人工智能決策。
2.在人工智能技術(shù)的開發(fā)和應(yīng)用中,要堅持普惠性原則,逐步降低人工智能產(chǎn)品的研發(fā)成本,把人工智能產(chǎn)品作為大眾化的商品進(jìn)行開發(fā)和推廣,把人工智能作為人們實現(xiàn)美好生活的重要載體和實踐方式。習(xí)近平在《我們的目標(biāo)就是讓全體中國人都過上更好的日子》中指出:“我們的目標(biāo)很宏偉,但也很樸素,歸根結(jié)底就是讓全體中國人都過上更好的日子。我們有充分的信心實現(xiàn)我們的目標(biāo)?!保?2]黨和國家的利益與人民的利益是一致的,黨和國家的奮斗目標(biāo)就是要實現(xiàn)國家富強、民族振興和人民幸福的中國夢。人工智能服務(wù)于國家治理體系和治理能力的現(xiàn)代化建設(shè)。人工智能技術(shù)的開發(fā)、推廣和應(yīng)用,就是要讓廣大人民群眾在生產(chǎn)和生活中體驗到幸福感、獲得感、安全感。
3.在人工智能技術(shù)的開發(fā)和應(yīng)用中,要建立人工智能產(chǎn)品的售后評價體系。通過售后評價體系不斷優(yōu)化其產(chǎn)品性能,從而不斷提升使用者的高質(zhì)量價值體驗。
4.人工智能的研發(fā)和應(yīng)用中應(yīng)體現(xiàn)其向善性、透明性、公平性和可控性,把人的利益始終作為人工智能的終極價值訴求。
在人工智能發(fā)展中,權(quán)利與義務(wù)應(yīng)保持高度統(tǒng)一:
1.建立人工智能倫理審查制度。成立人工智能的公開審查機構(gòu),完善人工智能倫理的公開審查制度。人工智能的公開審查機構(gòu)可以由政界、學(xué)界和商界的專業(yè)人士組成。通過政府主要領(lǐng)導(dǎo)人、學(xué)術(shù)界的科研工作者和商界精英的通力合作,對人工智能產(chǎn)品研發(fā)進(jìn)行前瞻性思考。
2.構(gòu)建人工智能倫理的解釋話語體系。人工智能倫理解釋話語是指其蘊含的倫理內(nèi)容的闡釋,包括公平、正義、民主、平等、責(zé)任、權(quán)力等,倫理解釋話語客觀上要求用倫理的眼光反思人工智能技術(shù)、產(chǎn)品和服務(wù)。在人工智能技術(shù)的開發(fā)中,要保證人工智能算法的公開透明性,具體表現(xiàn)為確?!叭斯ぶ悄芩惴ǖ目山忉屝浴⒖沈炞C性和可預(yù)測性?!保?3]38可解釋性客觀上要求人工智能決策或者行為的機制機理能夠被人類所理解和接受,對人工智能設(shè)計者或使用者的綜合素養(yǎng)要求較高,要求其對算法的過程和特定的決策提供解釋,從而維護(hù)人工智能產(chǎn)品消費者的知情權(quán),也能使消費者對人工智能算法進(jìn)行有效的監(jiān)督和避免算法決策的失誤??沈炞C性就是算法結(jié)果的可重復(fù)性,要求在特定的條件下再現(xiàn)算法運用產(chǎn)生的結(jié)果,以便解決算法解釋和算法追責(zé)問題??深A(yù)測性要求保證算法的準(zhǔn)確性和使用數(shù)據(jù)的全面性,及時發(fā)現(xiàn)并統(tǒng)計不準(zhǔn)確預(yù)測結(jié)果的數(shù)量,不斷提升其數(shù)據(jù)的準(zhǔn)確性和算法的精準(zhǔn)度。
3.構(gòu)建人工智能監(jiān)察體系。設(shè)立人工智能倫理委員會,建立人工智能倫理問責(zé)制度。在人工智能的應(yīng)用中,要堅持權(quán)利與責(zé)任相統(tǒng)一的基本原則,對人工智能產(chǎn)品的開發(fā)和應(yīng)用實行問責(zé)制度,即“在人工智能的設(shè)計和使用中留存相關(guān)的算法、數(shù)據(jù)和決策的準(zhǔn)確記錄,以便在產(chǎn)生損害結(jié)果時能夠進(jìn)行審查并查明責(zé)任歸屬;即使無法解釋算法產(chǎn)生的結(jié)果,使用了人工智能算法進(jìn)行決策的機構(gòu)也應(yīng)對此負(fù)責(zé)?!保?3]38
4.構(gòu)建人工智能安全保障體系。在數(shù)據(jù)處理方面,要充分保障人工智能產(chǎn)品使用者的個人權(quán)益。為保障人工智能使用者的個人信息相關(guān)權(quán)益,要建立個人敏感信息的嚴(yán)格審查制度。對個人敏感信息要進(jìn)行嚴(yán)格的訪問控制,利用相關(guān)技術(shù)降低個人信息的敏感度,采取有效措施保障個人信息主體的知情權(quán);同時,要充分保護(hù)人工智能使用者的隱私權(quán)益,避免人工智能產(chǎn)品應(yīng)用中個人信息的泄露。
5.構(gòu)建人工智能可持續(xù)發(fā)展體系。在社會效益方面,要建立人工智能的可持續(xù)性發(fā)展的指標(biāo)體系,保障人工智能的向善性。向善性要求對人工智能發(fā)展的經(jīng)濟效益和生態(tài)效益進(jìn)行綜合考量,還要對人工智能系統(tǒng)是否傷害或欺騙人類進(jìn)行深入思考。
6.構(gòu)建人工智能法律體系?!皬淖詣玉{駛、智能媒體、智能醫(yī)療、智慧風(fēng)控等各領(lǐng)域立法中進(jìn)行體系化梳理和理論抽象,建立完整的人工智能法律體系?!保?4]
7.建立面向國際社會的人工智能合作治理的體制機制。面對經(jīng)濟、科技的迅速發(fā)展,世界越來越成為你中有我、我中有你的命運共同體。中國要積極與其他國家合作,構(gòu)建面向世界的人工智能倫理治理體系,為全球人工智能倫理治理提供中國智慧和中國方案。總之,人工智能對經(jīng)濟社會發(fā)展產(chǎn)生深刻影響,必須深刻反思人工智能發(fā)展中帶來的倫理困境,實現(xiàn)人工智能發(fā)展與和諧社會構(gòu)建的有機統(tǒng)一。
人工智能在帶給人類更多福祉的同時,也可能產(chǎn)生安全風(fēng)險。因此,政府相關(guān)職能部門要鼓勵人工智能產(chǎn)品的研究開發(fā)者、設(shè)計制造者、部署應(yīng)用者和用戶等共同參與,構(gòu)建多主體參與的人工智能倫理安全風(fēng)險防范體系,科學(xué)應(yīng)對人工智能可能造成的失控性、社會性、侵權(quán)性、歧視性、責(zé)任性風(fēng)險。
1.建立人工智能倫理的政府審查制度。政府在人工智能倫理治理中扮演引導(dǎo)者、監(jiān)督者的角色。政府可以成立專門的人工智能倫理審查委員會,對人工智能產(chǎn)品進(jìn)行倫理評估。人工智能倫理審查委員會可以由政府職能部門負(fù)責(zé)人、知名大學(xué)教授、企業(yè)高管等組成。
2.研究開發(fā)者在進(jìn)行倫理設(shè)計時要有前瞻性的風(fēng)險防范意識、合作意識,可以吸收設(shè)計制造者、部署應(yīng)用者和潛在用戶等參與人工智能產(chǎn)品的倫理設(shè)計,對人工智能產(chǎn)品進(jìn)行客觀、公正、全面的倫理安全風(fēng)險分析,在設(shè)計中要避免研究開發(fā)可能被惡意利用的人工智能產(chǎn)品,從而預(yù)防對人工智能的誤用、濫用;同時,在倫理設(shè)計中要把人的基本權(quán)利放在首位,盡量避免人的人身權(quán)、隱私權(quán)、財產(chǎn)權(quán)受到侵害。此外,還要提防人工智能對特定群體的主觀和客觀偏見,厘清人工智能使用中的責(zé)任劃界問題,對人工智能設(shè)計全過程,特別是關(guān)鍵決策進(jìn)行詳細(xì)記載,以便在需要時啟動回溯機制進(jìn)行追責(zé)。
3.建立人工智能倫理安全風(fēng)險的保障機制、事故應(yīng)急處置機制等,避免設(shè)計損壞公共利益和個人利益的人工智能產(chǎn)品。設(shè)計制造者應(yīng)充分認(rèn)識研究開發(fā)者的設(shè)計意圖,在人工智能產(chǎn)品的制造中要嚴(yán)格執(zhí)行設(shè)計理念,并對制造中的倫理風(fēng)險進(jìn)行客觀公正的研判;同時,要謹(jǐn)慎開展對自主學(xué)習(xí)能力和自我改進(jìn)能力很強的人工智能產(chǎn)品的研發(fā),不斷提升人工智能產(chǎn)品的可解釋性和可控制性。
4.建立人工智能產(chǎn)品的應(yīng)急處置機制、反饋和賠償機制等。部署應(yīng)用者要充分了解研究開發(fā)者的設(shè)計意圖和設(shè)計制造者的制造原理,指導(dǎo)用戶合理使用人工智能產(chǎn)品。部署應(yīng)用者是連接設(shè)計制造者和用戶的中間商,需要直接對用戶提供售前和售后服務(wù),特別要重視對用戶提供人工智能產(chǎn)品提供機制機理的解釋性服務(wù)和風(fēng)險防范告示。
5.建立用戶使用前的倫理培訓(xùn)制度,引導(dǎo)用戶科學(xué)合理地使用人工產(chǎn)品。用戶是人工智能產(chǎn)品的直接使用者、受益者,應(yīng)認(rèn)真閱讀產(chǎn)品說明書,在使用中遇到問題應(yīng)及時反饋給部署應(yīng)用者,再由其反饋至研究開發(fā)者和設(shè)計制造者。
6.建立人工智能多元主體的制衡機制,明確多元主體的治理邊界。必須明確多元主體各自扮演的角色,實現(xiàn)分工合作,彰顯多元治理效能。多元主體共同參與人工智能倫理治理是一種協(xié)同治理,更是一種精準(zhǔn)治理,是對國家治理體系和治理能力現(xiàn)代化建設(shè)的積極回應(yīng)。
創(chuàng)新的關(guān)鍵在人才,人才培養(yǎng)的關(guān)鍵在于教育。發(fā)展人工智能的關(guān)鍵在于技術(shù),而技術(shù)必然掌握在人的手中。人工智能技術(shù)一旦被廣大人民群眾所掌握,就會轉(zhuǎn)化為人工智能發(fā)展的巨大引擎和強大動力。
1.構(gòu)建大中小學(xué)一體化的人工智能課程體系、教材體系和教學(xué)體系。在大中小學(xué)開設(shè)人工智能通識課程,為不同學(xué)段的受教育者提供人工智能技術(shù)的基礎(chǔ)理論和研究范式,全面提升國民的綜合素養(yǎng);同時,針對高校人工智能專業(yè),應(yīng)加速推進(jìn)人工智能倫理課程建設(shè),把人工智能倫理課程納入學(xué)分,同時編撰人工智能倫理課程的統(tǒng)編教材。
2.構(gòu)建人工智能倫理專業(yè)的學(xué)術(shù)體系、學(xué)科體系和話語體系。加強人工智能倫理的基礎(chǔ)理論研究,不斷發(fā)掘新的研究范式,實現(xiàn)人工智能專業(yè)和倫理學(xué)專業(yè)的深度融合發(fā)展。在高校研究生階段開設(shè)“人工智能倫理方向”的倫理學(xué)專業(yè),鼓勵人工智能、哲學(xué)等相關(guān)專業(yè)的本科生報考“人工智能倫理方向”的倫理學(xué)專業(yè);同時,可以組建“人工智能安全工程”學(xué)科,建立人工智能強制性安全標(biāo)準(zhǔn)與規(guī)范,培養(yǎng)大批高水平的人工智能安全員。
3.構(gòu)建人工智能倫理人才培養(yǎng)體系。把高級技術(shù)人才的培育擺在核心位置,加快培養(yǎng)倫理學(xué)專業(yè)的人工智能倫理方向的高級技術(shù)人才,鼓勵有條件的高校培養(yǎng)“人工智能倫理方向”的博士生,還要設(shè)立人工智能倫理方向的博士后流動站,為人工智能倫理學(xué)研究提供基礎(chǔ)理論支撐和研究范式創(chuàng)新。
4.建立人工治理倫理人才引進(jìn)機制。大量引進(jìn)海內(nèi)外優(yōu)秀的人工智能高級技術(shù)人員,并且要用待遇和平臺留住人才?!霸谑澜缛斯ぶ悄馨l(fā)展的競爭中,各國對優(yōu)秀人才的爭奪尤為激烈,同時也極為重視對本國人才的培養(yǎng)?!保?5]人工智能時代必須高度重視人才引進(jìn),用人才引領(lǐng)科技創(chuàng)新。
5.建立人工智能高端智庫建設(shè)的體制機制。設(shè)立人工智能智庫建設(shè)平臺,高度重視人工智能的理論成果轉(zhuǎn)化為實踐創(chuàng)新成果,為國家制定具有戰(zhàn)略性、前瞻性和可行性的人工智能政策發(fā)揮關(guān)鍵作用。
人工智能倫理問題是人類社會共同面臨的核心議題。中國特色社會主義進(jìn)入新時代,習(xí)近平總書記提出人類命運共同體理念,構(gòu)建面向世界的人工智能倫理的對外話語傳播體系,是對人類命運共同體理念的時代回響。中國在人工智能倫理方面取得的理論成果和基本經(jīng)驗,要與世界各國“共建共享”。人工智能倫理的對外傳播要充分彰顯中國的國際話語權(quán)、國際影響力。通過構(gòu)建面向世界的人工智能倫理對外話語傳播體系,拓展中國智慧和中國方案的世界生存空間,讓更多的外國人了解中國的最新科技進(jìn)展。中國人工智能倫理發(fā)展和研究不是僵化封閉的,而是對外開放的。當(dāng)今世界正面臨百年未有之大變局,中國作為國際社會重要的組成部分,在國際社會扮演著重要的角色。
1.以人工智能倫理為主題,采取宏大敘事的方式,講好中國的人工智能倫理原則,為人工智能倫理的全球治理提供中國方案和中國智慧。
2.發(fā)揮海內(nèi)外高端人才、海外留學(xué)人員的作用。利用他們國際化的學(xué)術(shù)背景,傳播好中國人工智能倫理的研究進(jìn)展。一方面要吸收海內(nèi)外的人工智能高端人才參與中國的人工智能倫理研究項目,提升中國人工智能倫理研究的國際化水平;另一方面,要充分發(fā)揮有人工智能倫理學(xué)術(shù)背景的留學(xué)人員的作用,鼓勵他們傳播好中國人工智能發(fā)展的聲音?!皬V大留學(xué)人員既有國內(nèi)成長經(jīng)歷又有海外生活體驗,既有廣泛的國內(nèi)外人際關(guān)系又有豐富的不同文化交流經(jīng)驗,許多外國人通過你們了解中國、認(rèn)識中國,許多中國人通過你們了解世界、認(rèn)識世界?!保?6]
3.創(chuàng)新人工智能的對外傳播載體。利用人工智能電影、短視頻等,引領(lǐng)觀眾對人工智能技術(shù)進(jìn)行創(chuàng)生反思。人工智能倫理發(fā)展和研究必須增強對外傳播,以期引起國際社會的話語共鳴,從而爭取更大的國際話語表達(dá)權(quán)。
4.充分尊重傳播對象的語言、文化、民族等,準(zhǔn)確把握人工智能倫理的對外傳播對象的特殊性,對傳播對象進(jìn)行細(xì)分,不斷把潛在受眾群體轉(zhuǎn)化為現(xiàn)實受眾群體。習(xí)近平總書記指出:“要著力推進(jìn)國際傳播能力建設(shè),創(chuàng)新對外宣傳方式,打造融通中外的新概念新范疇新表述,把我們想講的和國外受眾想聽的結(jié)合起來,努力爭取國際話語權(quán)?!保?7]人工智能倫理的對外話語在把握受眾群體喜好的基礎(chǔ)上,需要不斷采取新方法新手段。
5.充分運用大數(shù)據(jù)技術(shù),準(zhǔn)確把握人工智能倫理的中國特色,實現(xiàn)精準(zhǔn)傳播。以公共安全、公正、平等、人權(quán)等為主題,打造國內(nèi)外觀眾喜聞樂見的傳播載體,推動人工智能倫理的傳播方式的多樣化。
6.構(gòu)建人工智能倫理文化的對外傳播體系,增強人工智能倫理智庫建設(shè)的道路自信、理論自信、制度自信和文化自信,推動人工智能發(fā)展的國際話語自信。中國特色社會主義道路、中國特色社會主義理論、中國特色社會主義制度和中國特色社會主義文化為人工智能倫理全球治理提供中國方案和中國智慧。
7.充分發(fā)揮人工智能倫理的話語主體的權(quán)威效應(yīng),利用主流媒體擴寬人工智能倫理的話語場域。人工智能倫理的話語傳播主體多為政界和學(xué)界的權(quán)威人士,通過他們在主流媒體的發(fā)聲,不斷創(chuàng)新人工智能倫理的對外話語表達(dá)。
8.建立人工智能倫理國際交流與合作機構(gòu),廣泛開展各國之間的人工智能技術(shù)合作與交流。
構(gòu)建完善的人工智能倫理治理體系是推進(jìn)國家治理體系和治理能力現(xiàn)代化的重要渠道。人工智能技術(shù)與倫理學(xué)的深度融合和創(chuàng)新發(fā)展,既有利于促進(jìn)人工智能的創(chuàng)新性發(fā)展,也有利于提升國家治理的現(xiàn)代化水平?!拔覀儜?yīng)主動適應(yīng)科學(xué)技術(shù)迅猛發(fā)展的態(tài)勢,將人工智能技術(shù)應(yīng)用于社會治理,更新治理理念,提升治理水平,推進(jìn)國家治理體系和治理能力現(xiàn)代化。”[28]人工智能的倫理治理是一種前瞻性倫理治理。面對人工智能迅速發(fā)展帶來的風(fēng)險和挑戰(zhàn),前瞻性倫理治理要求尊重人工智能的發(fā)展規(guī)律,動員全體社會成員參與人工智能的開發(fā)與應(yīng)用的全過程。人工智能倫理治理的關(guān)鍵在發(fā)揮人的作用。政府的監(jiān)管和公眾的參與是科學(xué)家進(jìn)行“負(fù)責(zé)任創(chuàng)新”的重要保障。人工智能發(fā)展引發(fā)的公共安全、責(zé)任劃界、科技異化、人權(quán)保障、教育保障等問題還有待進(jìn)一步探討。人工智能倫理的治理原則、治理框架、研究范式、實踐轉(zhuǎn)化等還有待進(jìn)一步深入研究。