徐玖玖
摘 要:人工智能是模擬、延伸和拓展人類智能的新興技術(shù),其道德性的實(shí)現(xiàn)尤為重要。人工智能的道德失范既是一種客觀的現(xiàn)象描述,也是一種主觀的價值判斷,既有積極效應(yīng),也有消極效應(yīng)。從全球人工智能道德性實(shí)現(xiàn)的實(shí)然應(yīng)對來看,人工智能道德準(zhǔn)則的探索呈現(xiàn)出技術(shù)主義、降維虛化、內(nèi)核分歧的特點(diǎn),并不能為道德性的實(shí)現(xiàn)提供可行方案。這一困境的根本原因在于人工智能技術(shù)性與道德性之間的沖突難以調(diào)和,而以“技術(shù)—法治—人文”為范式進(jìn)路,探索技術(shù)性與道德性的激勵相容之道,是這一問題的關(guān)鍵所在。對此,引入原則導(dǎo)向治理理論,可以在人工智能道德性實(shí)現(xiàn)的理想狀態(tài)與現(xiàn)實(shí)規(guī)范之間創(chuàng)造出包容審慎的制度空間,構(gòu)建由核心原則框架與工具選擇共同組成的人工智能原則導(dǎo)向治理體系,實(shí)現(xiàn)人工智能道德性在道德價值、技術(shù)要求和法律語言之間的“轉(zhuǎn)錄”。
關(guān)鍵詞:人工智能;道德性;技術(shù)性;原則導(dǎo)向治理;法治;激勵相容
中圖分類號:DF523文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1001-2397.2021.03.02 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):
“人工智能時代”①來臨,信息技術(shù)正在與社會經(jīng)濟(jì)生活深度融合,人機(jī)交互不斷加深,人工智能不但成為日常生活的構(gòu)成要素,而且逐漸向聲譽(yù)、信用等具有人格屬性的私領(lǐng)域滲透。②在這場“第四次工業(yè)革命”③中,人工智能作為引領(lǐng)未來的戰(zhàn)略性技術(shù),對于提升國家競爭力、維護(hù)國家安全、提高人民生活水平都具有重要的意義。習(xí)近平總書記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,加快發(fā)展新一代人工智能是事關(guān)我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇的戰(zhàn)略問題”,“要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德?!毙氯A社:加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ) 推動我國新一代人工智能健康發(fā)展,載《人民日報》2018年11月1日,第1版。相較于一般的技術(shù)創(chuàng)新,人工智能的特殊性是其旨在模擬、延伸和拓展人類智能,對于人類社會的發(fā)展具有更深層次的影響。然而,人工智能的發(fā)展也對既有的社會結(jié)構(gòu)及其規(guī)范體系產(chǎn)生沖擊,出現(xiàn)了一系列偏離傳統(tǒng)價值觀念的失范現(xiàn)象。例如,人工智能技術(shù)的應(yīng)用對社會、文化和政治環(huán)境帶來的系統(tǒng)性影響Kate Crawford,Ryan Calo,There is a Blind Spot in AI Research,538 Nature 311-313(2016).;人工智能設(shè)備的行為可能會超出所設(shè)定的原則,從事不道德行為Amitai Etzioni,Oren Etzioni,AI Assisted Ethics,18 Ethics Inf.Technol.149-156(2016).;人工智能技術(shù)可能因訓(xùn)練數(shù)據(jù)的偏差Michael Veale,Reuben Binns,F(xiàn)airer machine learning in the real world: Mitigating discrimination without collecting sensitive data,4 Big Data & Society 1-17(2017).導(dǎo)致更加不公平的決策歧視;等等。因此,如何實(shí)現(xiàn)人工智能的道德性,紓緩技術(shù)與道德之間的沖突,是始終縈繞在人工智能發(fā)展之上的“達(dá)摩克利斯之劍”。人工智能道德失范的“基因”是否會成為技術(shù)創(chuàng)新的阻礙因素?怎樣的治理范式才能解除人們對于技術(shù)的擔(dān)憂?如何實(shí)現(xiàn)科技的可持續(xù)發(fā)展?對于這些問題的回答,都將決定人工智能的未來之路。
一、人工智能道德失范的判定與討論
(一)人工智能道德失范的客觀存在:技術(shù)失序與規(guī)范失效
“道德失范”(disordered moral)通常屬于倫理學(xué)的范疇,是指由于社會生活中道德價值及其規(guī)范要求的缺失或失效,導(dǎo)致社會行為和社會生活出現(xiàn)混亂。高兆明:《簡論“道德失范”范疇》,載《道德與文明》1999年第6期,第8-10頁。從這一意義上而言,人工智能的道德失范是一種狀態(tài),即社會既有的價值觀念被技術(shù)所打破或否定,包括法律在內(nèi)的各類社會規(guī)范喪失約束能力,而新的、有效的規(guī)范尚未建立或達(dá)成共識,由此所呈現(xiàn)出的失序現(xiàn)象。因此,人工智能道德失范的判定包括兩個因素:一是存在失序現(xiàn)象,二是缺乏有效規(guī)范。
第一,人工智能技術(shù)存在失序現(xiàn)象。對于技術(shù)失序的擔(dān)憂廣泛見于各國或國際組織關(guān)于人工智能相關(guān)的政策文件之中。例如,2020年2月歐盟委員會發(fā)布的《人工智能白皮書:通往卓越和信任的歐洲之路》(White Paper on Artificial Intelligence-A European Approach to Excellence and Trust)將人工智能可能帶來的危害描述為,生命健康和財產(chǎn)安全等物理傷害、隱私和尊嚴(yán)等非物理傷害;2019年4月澳大利亞工業(yè)創(chuàng)新和科技部發(fā)布的《人工智能:澳大利亞的倫理框架》(Artificial Intelligence: Australias Ethics Framework)提出,算法可能有損公平、透明、基本權(quán)利保護(hù)等法益Dawson,D.et al.,Artificial Intelligence: Australias Ethics Framework,Data61 CSIRO,Australia,40-41(2019).,甚至瓦解作為法治根基的正當(dāng)程序原則。Danielle Keats Citron,Technological Due Process,85 Washington University Law Review 1249(2007).而從實(shí)踐來看,由人工智能技術(shù)所引發(fā)的訴訟案件已然出現(xiàn),算法失能和技術(shù)風(fēng)險帶來的道德失范成為裁判的焦點(diǎn)。例如,在2019年Lynch v.State該案中,被告人威利·林奇(Willie Lynch)被訴八年監(jiān)禁,證據(jù)是一張從傾斜角度拍攝的較為模糊的犯罪嫌疑人照片。由于無人能夠辨認(rèn)該名黑人男子,警方通過面部識別算法“人臉分析比較測試系統(tǒng)”進(jìn)行識別,并在匹配結(jié)果中選定被告人。詳見Lynch v. State,No.SC2019-0298 (Fla.Sup.Ct.2019)。一案中,警方運(yùn)用“人臉分析比較測試系統(tǒng)”(FACES)辨認(rèn)犯罪嫌疑人,F(xiàn)ACES通過處理和分析被匹配圖像,將其與數(shù)據(jù)庫中圖像進(jìn)行比對,并將識別出的圖像根據(jù)匹配度的高低進(jìn)行排序。法庭認(rèn)為FACES所應(yīng)用的算法并非完全中立、可靠、準(zhǔn)確的描述,法庭所援引的研究報告甚至指出,相比白人、老人和男人,面部識別算法更容易誤認(rèn)黑人、年輕人和婦女。
第二,人工智能技術(shù)缺乏有效的治理范式。在應(yīng)對人工智能技術(shù)失序的過程中,無論是傳統(tǒng)的人文主義進(jìn)路,還是新興的技術(shù)主義進(jìn)路,都面臨著一定程度的困境。一方面,傳統(tǒng)的人文主義范式被打破。人文主義視角以人類權(quán)利為邏輯起點(diǎn),以人類的尊嚴(yán)和福祉為導(dǎo)向,要求技術(shù)表現(xiàn)出一定的人文關(guān)懷和人文精神。然而,道德具有抽象性和非單一性,以法律的可規(guī)制性為標(biāo)準(zhǔn),可以發(fā)現(xiàn)道德的法律支持包含兩個層次:一是基礎(chǔ)的層次,基本的道德義務(wù)在長期的社會發(fā)展中演化為普遍共識,并通過法律形式得以固化和執(zhí)行;二是超越的層次,即更高階的“善”,受制于不同國家和地區(qū)文化傳統(tǒng)、法治水平、民眾選擇等因素的影響。唐凱麟、曹剛:《論道德的法律支持及其限度》,載《哲學(xué)研究》2000年第4期,第67頁?;A(chǔ)層次的道德雖然更易獲得法律的支持,但不同法制體系對于道德的解讀和實(shí)踐亦有差異;而超越層次的道德存在多元性,法律無法對此課以過于嚴(yán)格的規(guī)范要求。
另一方面,新興的技術(shù)主義范式亦有局限。技術(shù)主義視角是從技術(shù)出發(fā),將道德問題還原為技術(shù)問題,認(rèn)為技術(shù)的設(shè)計與開發(fā)應(yīng)當(dāng)承載道德價值,并有利于實(shí)現(xiàn)人類的目標(biāo)。人們對運(yùn)用人工智能模仿人類理性活動抱有極高的期待,新近技術(shù)已經(jīng)從簡單的形式推理向不精準(zhǔn)推理和非單調(diào)推理發(fā)展,人工智能打破了人類與理性之間的親歷關(guān)系,被視為技術(shù)可以依靠自身解決道德問題的重要標(biāo)志。簡單的計算主義和技術(shù)主義思潮將“技術(shù)主義”作為歸正道德失范的“萬能解”,認(rèn)為技術(shù)風(fēng)險源于科學(xué)也應(yīng)求解于科學(xué),通過技術(shù)方案或者技術(shù)專家實(shí)現(xiàn)“技術(shù)治理”。然而,在客觀方面,人類的理性活動不可能完全通過機(jī)械的數(shù)據(jù)呈現(xiàn)為一種“規(guī)范的作業(yè)”;在主觀方面,技術(shù)產(chǎn)業(yè)化使科學(xué)界在事實(shí)上無法完全擺脫資本的俘獲。鄭戈:《如何為人工智能立法》,載《檢察風(fēng)云》2018年第7期,第16-17頁。技術(shù)專家作為理性經(jīng)濟(jì)人存在的逐利性,并不會因其受制于職業(yè)道德的約束就自發(fā)地趨向完全理性。根據(jù)馬克思主義哲學(xué)辯證唯物主義,主客觀相統(tǒng)一是正確認(rèn)識事物的一項(xiàng)基本原則。技術(shù)作為一種客觀事物需要與人的作用相結(jié)合,本身無法脫離人而單獨(dú)存在。技術(shù)主義無法為人工智能的道德性提供自洽的范式,人工智能仍要接受法律的規(guī)訓(xùn)和道德的指引,承載起良好的價值理念。
(二)人工智能道德失范的辯證認(rèn)知:消極效應(yīng)與積極效應(yīng)
技術(shù)的發(fā)展催生了關(guān)于人工智能道德問題的廣泛討論。從國外研究來看,Edmond Awad等從233個國家和地區(qū)數(shù)百萬人次超過4000萬條的決策中發(fā)現(xiàn),自動駕駛汽車的決策遵循人類的道德偏好,并受到人類文化差異的影響。Edmond Awad,et al.,The Moral Machine Experiment,563 Nature 59-64(2018).Anna Jobin等發(fā)現(xiàn),全球范圍內(nèi)人工智能的道德準(zhǔn)則在透明、公平正義、無害、責(zé)任和隱私五個方面出現(xiàn)融合,但具體實(shí)踐和概念內(nèi)涵仍有較大分歧。Anna Jobin,Marcello Ienca,Effy Vayena,The Global Landscape of AI Ethics Guidelines,9 Nature machine intelligence 389-399(2019).Brent Mittelstadt認(rèn)為,相較于醫(yī)學(xué)倫理原則,人工智能倫理原則在概念化和體系化的表述中,缺乏共同目標(biāo)和信任關(guān)系、專業(yè)的歷史和規(guī)則體系、將原則轉(zhuǎn)化為實(shí)踐的可行性方法、健全的法律和問責(zé)機(jī)制等要素。Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 501-507(2019).國內(nèi)關(guān)于人工智能道德性實(shí)現(xiàn)的研究亦是碩果稇載:例如,王東浩認(rèn)為應(yīng)當(dāng)培育智能體的自主決策能力和道德控制力王東浩:《人工智能體引發(fā)的道德沖突和困境初探》,載《倫理學(xué)研究》2014年第2期,第68-73頁。;李倫認(rèn)為人工智能需要一顆“良芯”,“行有德之事,做有德之機(jī)器”李倫主編:《人工智能與大數(shù)據(jù)倫理》,科學(xué)出版社2018年版。;孫那提出應(yīng)在立法、司法裁判和法律效果評價等環(huán)節(jié)嵌入道德的考量因素孫那:《人工智能的法律倫理建構(gòu)》,載《江西社會科學(xué)》2019年第2期,第15-23頁。;楊慶峰認(rèn)為應(yīng)當(dāng)通過透明性和關(guān)聯(lián)性構(gòu)建人工智能倫理原則。楊慶峰:《從人工智能難題反思AI倫理原則》,載《哲學(xué)分析》2020年第2期,第137-150頁。可以發(fā)現(xiàn),現(xiàn)有研究主要集中于倫理學(xué)、哲學(xué)、信息科學(xué)等學(xué)科范疇,雖有交叉學(xué)科的廣度,但整體呈現(xiàn)為較為零散和碎片化的學(xué)術(shù)場域樣態(tài)。而法學(xué)領(lǐng)域尚未形成專門針對人工智能道德性實(shí)現(xiàn)的規(guī)范分析,亦未尋找到技術(shù)主義、人文主義等不同范式相互融合的可行路徑。
人們對人工智能從擁抱之姿向?qū)徤髦畱B(tài)轉(zhuǎn)變,關(guān)注焦點(diǎn)從靜態(tài)的技術(shù)本身向動態(tài)的技術(shù)應(yīng)用轉(zhuǎn)向,希望人工智能的自主決策能夠與人類的道德觀念相一致。Rossi,How do You Teach a Machine to be Moral?,The Washington Post,November 5 (2015),https://www.washingtonpost.com/news/in-theory/wp/2015/11/05/how-do-you-teach-a-machine-to-be-moral/.然而,目前人工智能產(chǎn)業(yè)缺乏共同的價值標(biāo)準(zhǔn),從業(yè)者缺乏識別和應(yīng)對道德問題的敏感認(rèn)知和專業(yè)能力,導(dǎo)致技術(shù)出現(xiàn)失控或脫離規(guī)范的約束。在這種道德失范的未來圖景中,人工智能與人類的發(fā)展、幸福和自我實(shí)現(xiàn)并不趨同。而對于這一話題的探討需要回歸到最基礎(chǔ)的問題,即如何認(rèn)識人工智能的道德失范,并在辯證唯物論基本規(guī)律的框架中展開討論。人工智能道德失范的判定隱含著一個大前提,即某種特定的道德標(biāo)準(zhǔn)先于技術(shù)而存在。高兆明:《簡論道德失范的范疇》,載《道德與文明》,1999年第4期,第9頁。因此,在人工智能的道德性如何實(shí)現(xiàn)、實(shí)現(xiàn)的必要性、實(shí)現(xiàn)的限度等具體問題上,就必須考量既有道德價值是否正當(dāng)、合理和必要。從這一角度而言,人工智能的道德失范是客觀現(xiàn)象與主觀判斷的統(tǒng)一。一方面,人工智能的道德失范具有客觀性和必然性。隨著信息技術(shù)的創(chuàng)新和發(fā)展,社會規(guī)范體系無法滿足技術(shù)演變所產(chǎn)生的制度需求,人工智能的道德失范是復(fù)雜社會技術(shù)系統(tǒng)中必然存在的客觀現(xiàn)象。另一方面,人工智能的道德失范具有主觀性和變化性。事實(shí)上,應(yīng)對人工智能的社會規(guī)范并非固定不變,本身亦處于不斷否定之否定的過程狀態(tài),并在矛盾與沖突中改變、適應(yīng)和提升。由此,人工智能的道德失范是伴隨技術(shù)發(fā)展的一種正常的社會現(xiàn)象,其既有矛盾沖突的消極效應(yīng),也存在創(chuàng)新更替的積極效應(yīng):對于前者而言,人工智能道德失范是技術(shù)處于一種風(fēng)險失序和規(guī)范失效的過程狀態(tài);對于后者而言,人工智能道德失范也代表著規(guī)范轉(zhuǎn)向和價值重塑的過渡階段。因此,人工智能道德性的實(shí)現(xiàn)既需要激勵其積極的一面,又需要審慎其消極的一面,在法治的框架中實(shí)現(xiàn)積極效應(yīng)與消極效應(yīng)的博弈均衡。
二、人工智能道德性的實(shí)然應(yīng)對與應(yīng)然需求
(一)實(shí)然應(yīng)對:人工智能道德性實(shí)現(xiàn)的全球探索
從全球范圍來看,人工智能的道德性難題并非中國所特有,而是各國人工智能法律治理的共同話題。通過檢索和梳理可以發(fā)現(xiàn),自2016年1月1日至2020年6月30日,以公共部門為發(fā)布主體,針對人工智能道德性進(jìn)行專門規(guī)定的政策文件有13件(表1)。檢索方式:以“道德”(ethic/moral)、“人工智能“(AI)、“政策”(policy)、“準(zhǔn)則”(guidelines)作為關(guān)鍵詞,通過Google進(jìn)行搜索和人工篩選。檢索時間:2020年6月30日。需要說明的是,本文在整理中也重點(diǎn)參考了Jobin、Ienca和Vayena《人工智能道德準(zhǔn)則的全球圖景》(The Global Landscape of AI Ethics Guidelines)一文的相關(guān)數(shù)據(jù)和文獻(xiàn)目錄??紤]到檢索的局限性和篩選的主觀性,本文的樣本必然存在著一定的偏差,但是根據(jù)大數(shù)法則,這種偏差不會對分析的客觀性和準(zhǔn)確性產(chǎn)生實(shí)質(zhì)影響。整體而言,自2017年開始,各國公共部門就高度關(guān)注人工智能的道德問題,對于人工智能道德準(zhǔn)則的期待多集中于公平公正、責(zé)任安全、透明可信、隱私保護(hù)、以人為本、效益等方面(圖1)。人工智能道德性實(shí)現(xiàn)的全球探索整體呈現(xiàn)出技術(shù)主義、降維虛化、內(nèi)核分歧的特點(diǎn)。第一,在范式選擇上,帶有濃厚的技術(shù)主義色彩,通過將道德問題還原為技術(shù)問題,要求人工智能技術(shù)在開發(fā)、應(yīng)用和創(chuàng)新中承擔(dān)起捍衛(wèi)道德倫理的責(zé)任。第二,在文本表述上,主要由宣示性或倡導(dǎo)性條款組成,在規(guī)則向?qū)嵺`的轉(zhuǎn)化過程中出現(xiàn)了降維虛化。各國人工智能道德性的實(shí)現(xiàn)方案多停留于更高階的“原則”層面,既沒有與現(xiàn)行規(guī)范進(jìn)行接軌和協(xié)調(diào)Thilo Hagendorf,The Ethics of AI Ethics: An Evaluation of Guidelines,30 Minds and Machines 99-120(2020).,也無法為在道德價值、技術(shù)要求和法律語言之間形成科學(xué)、合理、規(guī)范的“轉(zhuǎn)錄”提供規(guī)范性的工具選擇,最終“始于原則”而“終于原則”。第三,在具體內(nèi)核上,人工智能的道德準(zhǔn)則雖然出現(xiàn)趨同,但在重要概念、基本框架、實(shí)現(xiàn)方式等方面尚未形成共識。
由此觀之,目前全球人工智能道德準(zhǔn)則的實(shí)踐探索并不能為道德性的實(shí)現(xiàn)提供可行方案。人工智能道德性實(shí)現(xiàn)的困境源于技術(shù)性與道德性之間的沖突難以調(diào)和,無法達(dá)致技術(shù)與道德的均衡支點(diǎn)。人工智能的道德失范源于其原生性的技術(shù)基因。技術(shù)與社會的深度結(jié)合成為公共事務(wù)的重要表達(dá)方式,對基本的道德理念和人類的主體性產(chǎn)生沖擊,模糊作為主體的人與作為客體的人造物之間的界限,消解人們對于道德倫理的普遍共識。而人工智能的道德性意味著技術(shù)需要承擔(dān)起權(quán)利保護(hù)、效率激勵、公共利益等多重價值,彌合從業(yè)者、監(jiān)管者、社會公眾之間的利益訴求。這種價值的背負(fù)表明人工智能的道德性實(shí)現(xiàn)不可能是完全中立的,而必然隱含著對某種價值標(biāo)準(zhǔn)的偏好。因此,人工智能的法律治理需要在技術(shù)性與道德性之間尋找利益的均衡支點(diǎn),如果過于宏觀則會喪失規(guī)范的意義,如果過于微觀又會禁錮技術(shù)邁進(jìn)的步伐。
(二)應(yīng)然需求:人工智能技術(shù)性與道德性的激勵相容
學(xué)界對于人工智能的治理范式已有不同學(xué)說。張守文教授認(rèn)為,人工智能產(chǎn)業(yè)應(yīng)當(dāng)在“技術(shù)-制度”的分析框架內(nèi),因循“人工智能技術(shù)—人工智能產(chǎn)業(yè)—經(jīng)濟(jì)法規(guī)制”的邏輯主線。張守文:《人工智能產(chǎn)業(yè)發(fā)展的經(jīng)濟(jì)法規(guī)制》,載《政治與法律》2019年第1期,第2-10頁。龍衛(wèi)球教授認(rèn)為,人工智能的法律治理需要考慮其強(qiáng)社會面向,構(gòu)建“技術(shù)—社會+經(jīng)濟(jì)”的新立法范式。龍衛(wèi)球:《人工智能立法的“技術(shù)-社會+經(jīng)濟(jì)”范式——基于引領(lǐng)法律與科技新型關(guān)系的視角》,載《武漢大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2020年第1期,第65-76頁。曹建峰研究員認(rèn)為,人工智能的治理范式可以選擇科技人文協(xié)作為進(jìn)路,實(shí)現(xiàn)科技與人文的平衡。曹建峰:《人工智能治理:從科技中心主義到科技人文協(xié)作》,載《上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2020年第5期,第98-107頁。張文顯教授提出應(yīng)以“未來法治”為科學(xué)范式,實(shí)現(xiàn)“面向未來”“走向未來”和“引領(lǐng)未來”的法治,構(gòu)建以科學(xué)、人本、包容、普惠、共治為元素的智能社會法律秩序。張文顯:《構(gòu)建智能社會的法律秩序》,載《東方法學(xué)》2020年第5期,第4-19頁??梢园l(fā)現(xiàn),人工智能的治理范式始終圍繞著技術(shù)和人文社會是人類相互行動所形成的抽象化關(guān)系體系,因此對于人工智能社會面向的關(guān)注,本質(zhì)上屬于人文主義視角的解讀方式。這兩個關(guān)鍵詞,區(qū)別在于面向的維度或選擇的側(cè)重點(diǎn)有所不同。
正如前文所述,僅憑單一的人文主義或技術(shù)主義范式無法有效應(yīng)對人工智能的道德失范。人工智能的道德性實(shí)現(xiàn)涉及倫理、觀念、法感情等因素,這使技術(shù)與道德之間的博弈存在著一定的張力。技術(shù)性與道德性之間的均衡需要依托人類的理性思辨,而非將道德價值、技術(shù)語言與既有法律進(jìn)行簡單的拼接。對此,“技術(shù)—法治—人文”可以成為人工智能道德性實(shí)現(xiàn)的新范式,即以法治為媒,連結(jié)技術(shù)與道德,既規(guī)范技術(shù)的應(yīng)用邊界,促進(jìn)其道德性的實(shí)現(xiàn),又為技術(shù)預(yù)留包容審慎的空間。由此,推動技術(shù)主義與人文主義的范式融合,調(diào)適地、漸進(jìn)地化解技術(shù)與道德之間的沖突,在法治的框架中實(shí)現(xiàn)價值的均衡與歸正,探索人工智能道德性實(shí)現(xiàn)的激勵相容之道。
“技術(shù)—法治—人文”的范式進(jìn)路是將憲法和法律作為人工智能道德性實(shí)現(xiàn)的框架秩序韓大元:《當(dāng)代科技發(fā)展的憲法界限》,載《法治現(xiàn)代化研究》2018年第5期,第1-12頁。,對科技可能帶來的非理性后果保持審慎觀察,以法治手段均衡技術(shù)創(chuàng)新與人類權(quán)利之間的關(guān)系。然而,成文法的規(guī)范體系具有滯后性,亦不可能絕對完備,無法調(diào)整所有形態(tài)的社會矛盾。正如梅因所言,“社會的需要和社會的意見常常是或多或少地走在法律的前面,……因?yàn)榉墒欠€(wěn)定的,而我們談到的社會是前進(jìn)的?!盵英]梅因:《古代法》,沈景一譯,商務(wù)印書館1959年版,第15頁。對此,原則主義(principlism)可以為“技術(shù)—法治—人文”三路向的融合提供一個均衡的支點(diǎn),提高治理方案的適用性和周延性?;谠瓌t主義,通過法律原則的確立達(dá)成一定范圍的道德共識,將道德要求轉(zhuǎn)化為具體的責(zé)任形式,以期道德性在現(xiàn)實(shí)層面得以實(shí)踐和呈現(xiàn)。
三、人工智能道德性的實(shí)現(xiàn)路徑與理論證成
(一)原則導(dǎo)向治理的引入與評價
原則導(dǎo)向是相對于規(guī)則導(dǎo)向而言的,兩者的根本區(qū)別并不在于是否包含具體的規(guī)則,而是規(guī)則的使用方法:規(guī)則導(dǎo)向監(jiān)管通過一系列的法律法規(guī)實(shí)現(xiàn)盡可能的全面覆蓋,以確保市場活動的合規(guī)性,但由于規(guī)則過于具體和細(xì)致,市場主體和監(jiān)管機(jī)構(gòu)的能動空間較為有限;李有星等:《互聯(lián)網(wǎng)金融監(jiān)管的探析》,載《浙江大學(xué)學(xué)報(人文社會科學(xué)版)》2014年第4期,第94頁。原則導(dǎo)向治理強(qiáng)調(diào)規(guī)則的出發(fā)點(diǎn)或目的,明確被監(jiān)管者需要遵守的根本性義務(wù),以結(jié)果為導(dǎo)向,以更高位階的原則而非具體的規(guī)則為工具FSA,Principles-based regulation-Focusing on the Outcomes That Matter,http://www.fsa.gov.uk/pubs/other/principles.Pdf.,但不對被監(jiān)管者如何達(dá)到這一目標(biāo)進(jìn)行具體要求Julia Black,F(xiàn)orms and paradoxes of principles-based regulation,3 Capital Markets Law Journal 425-457(2008).,在語言表述上多為定性術(shù)語而非定量術(shù)語,為市場主體提供充分的發(fā)展空間。原則導(dǎo)向監(jiān)管的邏輯在于,從業(yè)者作為最直接的市場主體應(yīng)當(dāng)有能力在市場競爭中精準(zhǔn)地推演和量化風(fēng)險,相較而言,監(jiān)管者容易出現(xiàn)拖滯和官僚等傾向,產(chǎn)生阻滯效應(yīng)。因此,2008年金融危機(jī)爆發(fā)之前,原則導(dǎo)向監(jiān)管被視為激活金融市場的“催化劑”和培育金融創(chuàng)新的“溫室”,并在各國實(shí)踐中發(fā)展出了“最少的監(jiān)管就是最好的監(jiān)管”“輕觸式監(jiān)管”(light touch regulation)等多種形態(tài)。但是2008年金融危機(jī)爆發(fā)后,原則導(dǎo)向監(jiān)管被認(rèn)為是次貸危機(jī)釀成的制度根源。理由在于,原則導(dǎo)向的監(jiān)管認(rèn)為,從業(yè)者都是謹(jǐn)慎并且負(fù)責(zé)的,因此市場也具有了自我修正和調(diào)整的能力。然而事實(shí)是,市場并非萬能,從業(yè)者也并非完全理性。原則導(dǎo)向監(jiān)管過于依賴金融機(jī)構(gòu)的理性,只能對“有原則”的從業(yè)者產(chǎn)生約束,卻變相地為“無原則”的從業(yè)者提供了漠視風(fēng)險、套取紅利的尋租通道。
從法治的思維觀之,人工智能的道德性實(shí)現(xiàn)若以原則導(dǎo)向治理參考借鑒金融監(jiān)管中的原則導(dǎo)向監(jiān)管理論,在人工智能法治中表述為“原則導(dǎo)向治理”更為妥當(dāng)。不同于金融領(lǐng)域已有較為成熟的市場秩序和制度基礎(chǔ),人工智能產(chǎn)業(yè)仍然處于發(fā)展階段,由此產(chǎn)生的許多問題暫時不宜全以“監(jiān)管”論之,而是更多地體現(xiàn)出“治理”的特點(diǎn)。為徑,尚需回答三個問題:第一,人工智能原則導(dǎo)向治理能否在技術(shù)和道德之間實(shí)現(xiàn)可行的“轉(zhuǎn)錄”。雖然原則導(dǎo)向治理更多體現(xiàn)為更高階的法律原則,但同樣需要將道德的要求、理念和精神進(jìn)行概念化和規(guī)范化,成為能夠應(yīng)用于個案判斷的法律語言,而不能為道德困境和價值取舍等難題提供逃遁的空間。K.Danner Clouser,Bernard Gert, A Critique of Principlism,15 The Journal of Medicine and Philosophy 219-236(1990).第二,人工智能原則導(dǎo)向治理是否會導(dǎo)致道德的簡單化。有觀點(diǎn)認(rèn)為,人工智能的道德要求僅僅是一種“美德信號”(virtue-signalling)Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 501-507(2019).,對人工智能的技術(shù)性和道德性實(shí)現(xiàn)法律歸化,最終恐淪為一種烏托邦式的治理。人工智能涉及諸多各異的專業(yè)領(lǐng)域,為了適應(yīng)學(xué)科交叉的多元性,法律(包括法律原則)似乎唯有不斷簡化內(nèi)涵、模糊定義才能滿足應(yīng)用的需要。但這種為了適用性而進(jìn)行的妥協(xié),亦使規(guī)范過于抽象而喪失了良好治理的價值,甚至可能產(chǎn)生道德相對主義。關(guān)于道德相對主義的負(fù)面效應(yīng),可見于美國學(xué)者艾倫·布盧姆(Allan Bloom)的《美國精神的封閉》(The Closing of the American Mind)一書。布盧姆認(rèn)為,價值多元主義、文化相對主義使美國人以開放、多元之名,喪失了對善惡是非的判斷和對自然權(quán)利的關(guān)懷,最終結(jié)出虛無主義的惡果。第三,人工智能原則導(dǎo)向治理是否會違反法治原則。法治的基本要求是規(guī)則在表述上應(yīng)當(dāng)明確、清晰,滿足所有主體對規(guī)則確定性的需求,而模糊的開放性標(biāo)準(zhǔn)和不確定的法律概念都可能加重被監(jiān)管者的義務(wù),是用“簡單的外衣”覆蓋“復(fù)雜的身軀”。
(二)人工智能原則導(dǎo)向治理的合理性論證
原則導(dǎo)向監(jiān)管并不等于“放任監(jiān)管”,事實(shí)上,即使是在后危機(jī)時代,金融監(jiān)管也并未摒棄高級監(jiān)管原則的應(yīng)用。[荷]喬安妮·凱勒曼、雅各布·德汗、費(fèi)姆克·德弗里斯:《21世紀(jì)金融監(jiān)管》,張曉樸譯,中信出版社2016年版,第45頁。原則導(dǎo)向與規(guī)則導(dǎo)向之間并無絕對的優(yōu)劣之分,只有相對的適合與否,代表著不同的監(jiān)管理念:原則導(dǎo)向監(jiān)管更尊重市場競爭、產(chǎn)業(yè)創(chuàng)新和從業(yè)者自律,弱化政府的功能和作用,保持政府干預(yù)的謙抑性;規(guī)則導(dǎo)向監(jiān)管則展現(xiàn)了“父愛主義”的規(guī)制色彩,強(qiáng)調(diào)市場主體應(yīng)當(dāng)遵循各類規(guī)范的具體要求。相較而言,原則導(dǎo)向治理在人工智能道德性實(shí)現(xiàn)的議題上更具適用性和合理性。
第一,原則導(dǎo)向治理的靈活性和包容性更有利于調(diào)和人工智能技術(shù)性與道德性之間的矛盾。人工智能的道德性實(shí)現(xiàn)需要在不斷變化的技術(shù)語境與相對確定的規(guī)則要求之間尋求可行路徑。規(guī)則導(dǎo)向治理強(qiáng)調(diào)被監(jiān)管者的合規(guī)性,其定量要求的列舉雖然有利于提高效率和統(tǒng)一標(biāo)準(zhǔn),但對于發(fā)展中的人工智能產(chǎn)業(yè)而言,亦存在著過于滯后、僵化和割裂的局限性,而為應(yīng)對新問題、新風(fēng)險頻繁地立改廢釋亦會使規(guī)范體系越發(fā)臃腫龐雜。人工智能原則導(dǎo)向治理則是確定制度目標(biāo)和預(yù)期結(jié)果,通過概要性的基本準(zhǔn)則以及相應(yīng)的工具手段規(guī)定從業(yè)者的基本義務(wù),形成預(yù)見性、前瞻性和基準(zhǔn)性的治理框架。這種靈活性和包容性使人工智能原則導(dǎo)向治理在應(yīng)對技術(shù)創(chuàng)新和風(fēng)險演化時,可以較少地依賴于靜態(tài)或固定的量化指標(biāo)和行為要求,為協(xié)調(diào)人工智能技術(shù)性和道德性的兩難困境提供博弈空間。
第二,原則導(dǎo)向治理是人工智能實(shí)現(xiàn)“技術(shù)-法治-人文”重構(gòu)型立法的重要方式。智能時代打通了技術(shù)與生命的雙向通道從技術(shù)到生物智能的方向表現(xiàn)為修剪甚至制造生命,從生物智能到技術(shù)的方向表現(xiàn)為智能算法的深度模仿。,科技極大地沖擊了人類作為唯一智能生命的神圣性和不可操縱性,深刻地改變著傳統(tǒng)法學(xué)的面相,引發(fā)了人們對于賽博朋克之下社會基本價值失序的深切擔(dān)憂。人工智能的道德性實(shí)現(xiàn),既需要解放思想,也需要警惕片面的技術(shù)理性論的滲透,將技術(shù)價值和道德價值整合納入法律的價值體系之中,實(shí)現(xiàn)人工智能的重構(gòu)型立法。而在這樣一個復(fù)雜多變的新興技術(shù)領(lǐng)域?qū)崿F(xiàn)制度重構(gòu),原則導(dǎo)向治理能夠促進(jìn)形成更具道德性的治理方案,彰顯法治之精神。在現(xiàn)代信息社會,原則導(dǎo)向治理可以成為緩釋監(jiān)管者、從業(yè)者和社會公眾之間的利益沖突,探尋最大限度的共識并重建協(xié)作與信任的有益通路。
第三,原則導(dǎo)向治理是過渡階段人工智能立法的務(wù)實(shí)選擇。2017年國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》(國發(fā)〔2017〕35號),提出到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,到2030年建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。2020年10月,中共中央辦公廳、國務(wù)院辦公廳發(fā)布《深圳建設(shè)中國特色社會主義先行示范區(qū)綜合改革試點(diǎn)實(shí)施方案(2020-2025年)》,強(qiáng)調(diào)要“支持深圳擴(kuò)寬經(jīng)濟(jì)特區(qū)立法空間,在新興領(lǐng)域加強(qiáng)立法探索,依法制定經(jīng)濟(jì)特區(qū)法規(guī)規(guī)章”,賦予深圳在人工智能等領(lǐng)域的先行先試權(quán)。我國人工智能立法已蓄勢待發(fā),然而其現(xiàn)實(shí)的立法條件卻尚不成熟。人工智能技術(shù)遠(yuǎn)未成熟,諸如人工智能的法律責(zé)任、主體地位、權(quán)利內(nèi)容等基礎(chǔ)理論問題仍存在較大爭議,客觀上很難在短期內(nèi)制定出科學(xué)合理、完備可行的法律規(guī)范體系。對此,有觀點(diǎn)提出,可以選擇諸如自動駕駛等技術(shù)相對成熟、產(chǎn)品應(yīng)用存在需求的領(lǐng)域,先行展開地方性、試驗(yàn)性的立法。鄭戈:《如何為人工智能立法》,載《檢察風(fēng)云》2018年第7期,第16-17頁。但這仍未回答人工智能如何體系化立法、如何構(gòu)建頂層制度等問題。原則導(dǎo)向治理與規(guī)則導(dǎo)向治理并非二選一的排斥關(guān)系,而是在完備性和不確定性之間,根據(jù)技術(shù)、社會、法治發(fā)展的客觀規(guī)律,結(jié)合產(chǎn)業(yè)特點(diǎn)和治理場景因勢選擇:規(guī)則導(dǎo)向治理更適合實(shí)現(xiàn)高效、重復(fù)、統(tǒng)一規(guī)制的領(lǐng)域;原則導(dǎo)向治理則更適合能夠允許從業(yè)者發(fā)揮主觀能動性,實(shí)現(xiàn)“創(chuàng)造性”合規(guī)的領(lǐng)域。因此,原則導(dǎo)向治理對于過渡階段的人工智能立法具有更高的適用性,以先發(fā)展后規(guī)范、先原則后規(guī)則為進(jìn)路,化解人工智能立法的現(xiàn)實(shí)困境。
四、人工智能道德性實(shí)現(xiàn)的原則框架及其解釋
原則導(dǎo)向治理中的“原則”并非簡單的治理“底線”或“基本原則”,從抽象層面而言,是指追求一種治理目標(biāo)或治理結(jié)果的過程和方式。從前文可知,全球人工智能的道德性實(shí)現(xiàn)在公平公正、責(zé)任安全、透明可信、隱私保護(hù)、以人為本、效益等方面出現(xiàn)趨同。但是并非所有原則都適合作為人工智能道德性的原則框架,例如隱私保護(hù)原則更多是個人信息保護(hù)維度的要求,而以人為本原則應(yīng)是所有原則的最終指向,是更為抽象的“元理念”。對此,人工智能的道德性實(shí)現(xiàn)可以構(gòu)建由透明可信原則、公平公正原則、責(zé)任和安全原則、效益原則組成框架體系,在此基礎(chǔ)上實(shí)現(xiàn)人工智能的原則導(dǎo)向治理。
(一)透明可信原則
透明可信原則是人工智能道德性實(shí)現(xiàn)的“帝王原則”,從原則導(dǎo)向治理的角度而言,人工智能的道德性實(shí)現(xiàn)旨在尋求一種調(diào)適性的“透明可信”。
第一,透明可信原則并非“全面的、簡單的、絕對的公開”。一方面,代碼等技術(shù)內(nèi)容難以為非專業(yè)人士所理解和認(rèn)知,要求人工智能絕對公開和透明缺乏實(shí)際意義。另一方面,國家安全、知識產(chǎn)權(quán)和商業(yè)秘密保護(hù)通常會成為對抗這一原則的理由,使其流于形式而無法實(shí)現(xiàn)。透明可信原則的意旨在于打破技術(shù)壁壘所帶來的道德失范,在法律治理與產(chǎn)業(yè)激勵之間尋求信任與合作的平衡點(diǎn)。因此,原則導(dǎo)向治理中的透明可信原則應(yīng)當(dāng)理解為一種包容審慎的調(diào)適性監(jiān)管:對于風(fēng)險較高的人工智能應(yīng)用,將透明可信原則納入資質(zhì)審查的范圍,進(jìn)行預(yù)先解釋或公開備案;對于風(fēng)險較低的人工智能應(yīng)用,可以采取信息披露、消費(fèi)者主體限定等方式,避免過度倚重指令式的規(guī)則導(dǎo)向治理。
第二,透明可信原則與可解釋原則例如2020年8月,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology,NIST)發(fā)布《可解釋AI草案》,提出可解釋人工智能的四項(xiàng)要求:一是解釋(explanation),是指系統(tǒng)應(yīng)當(dāng)為輸出的結(jié)果附隨證據(jù)或理由,但是解釋并非追求極致的精細(xì)和全面,過于清晰地表達(dá)決策的過程反而可能有損解釋的準(zhǔn)確性;二是有意義(meaningful),是指系統(tǒng)應(yīng)當(dāng)提供可為用戶所理解的解釋,包括預(yù)期結(jié)論和共識形成兩個方面;三是準(zhǔn)確性(explanation accuracy),是指解釋能夠準(zhǔn)確地反映系統(tǒng)輸出的過程,但準(zhǔn)確性并不等于正確性,前者是一種客觀描述,而后者是一種主觀評價;四是知識極限(knowledge limits),是指系統(tǒng)應(yīng)當(dāng)僅在設(shè)定的條件下或達(dá)到足夠可信度的條件下進(jìn)行輸出。是不同范式對同一問題的表達(dá)。有觀點(diǎn)認(rèn)為,對于技術(shù)的規(guī)制正在從透明性向可解釋性轉(zhuǎn)化,要求從業(yè)者對決策的過程、結(jié)果和原因提供“與利益攸關(guān)者的專業(yè)程度相適應(yīng)”的解釋。Claude Castelluccia,Daniel Le Métayer,Understanding Algorithmic Decision-making: Opportunities and Challenges,Study,Panel Future Sci.Technol.,Eur.Parliamentary Res.Service 18(2019).“解釋對于關(guān)乎它們的行動、行為和決策透明與否是重要的,尤其是在人類需要基于AI系統(tǒng)結(jié)果決策的場景中更加重要。一種合適的解釋能夠提升人們對于系統(tǒng)的信任,在交互關(guān)系中能夠更好的合作?!盤rashan Madumal,et al.,Towards a Grounded Dialog Model for Explainable Artificial Intelligence.轉(zhuǎn)引自:楊慶峰:《從人工智能難題反思AI倫理原則》,載《哲學(xué)分析》2020年第2期,第143頁。可信與可解釋是人文主義進(jìn)路和技術(shù)主義進(jìn)路對同一問題不同視角的表達(dá)楊慶峰:《從人工智能難題反思AI倫理原則》,載《哲學(xué)分析》2020年第2期,第143頁。,都意在降低因技術(shù)所產(chǎn)生的信息不對稱程度,兩者并不矛盾。
第三,透明可信原則與可溯源、可問責(zé)之間并非互斥關(guān)系。有觀點(diǎn)認(rèn)為,對于人工智能可能產(chǎn)生的錯誤或風(fēng)險,法律應(yīng)當(dāng)要求其可溯源而非透明。邏輯在于,算法透明原則在可行性方面無法應(yīng)對國家安全、社會秩序和私主體權(quán)利,在必要性方面無法等于可知,缺乏規(guī)制的有效性,因此,相較于算法透明的事前規(guī)制,以算法問責(zé)為代表的事后規(guī)制更加妥當(dāng)。沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,載《環(huán)球法律評論》2019年第6期,第20-39頁。但在人工智能的道德性實(shí)現(xiàn)中,仍應(yīng)堅持透明可信的“帝王原則”地位。一方面,透明可信與可溯源、可問責(zé)之間的區(qū)別在于階段的不同,前者以算法為起點(diǎn),著力于應(yīng)用階段,后兩者以結(jié)果為起點(diǎn),著力于后算法階段。事實(shí)上,可溯源和可問責(zé)更多體現(xiàn)于責(zé)任和安全原則,與透明可信原則并不沖突。另一方面,算法可溯源、可問責(zé)在人工智能道德問題上的適用性尚需進(jìn)一步商榷。人工智能技術(shù)對于道德價值的沖擊是深層次的、結(jié)構(gòu)性的,這種影響無法通過事后階段的溯源或問責(zé)實(shí)現(xiàn)彌補(bǔ)和覆蓋。對于透明可信原則的局限性,需要通過細(xì)化限度范圍、優(yōu)化工具選擇等方式增強(qiáng)其科學(xué)性和合理性,而非否定或摒棄。
(二)公平公正原則
公平公正原則是人工智能道德性實(shí)現(xiàn)的基礎(chǔ)性原則。公共部門與私營部門在如何實(shí)踐公平公正原則這一問題上分歧較大:公共部門強(qiáng)調(diào)技術(shù)的應(yīng)用與結(jié)果應(yīng)有助于減輕偏見、避免歧視White House,Guidance for Regulation of Artificial Intelligence Applications(draft),(2020),https://www.whitehouse.gov/wp-content/uploads/2020/01/Draft-OMB-Memo-on-Regulation-of-AI-1-7-19.pdf.;私營部門則希望通過標(biāo)準(zhǔn)、編碼等技術(shù)的修正或升級形成解決方案。分歧的原因在于,公平公正原則的實(shí)踐頗為困難,盡管各國普遍“收錄”其作為人工智能道德性的重要組成部分,但“對于公平的討論往往流于文字修辭,缺乏嚴(yán)謹(jǐn)性和準(zhǔn)確性”。Claude Castelluccia,Daniel Le Métayer,Understanding Algorithmic Decision-making: Opportunities and Challenges,Study,Panel Future Sci.Technol.,Eur.Parliamentary Res.Service 43(2019).而極端的技術(shù)主義進(jìn)路用統(tǒng)計學(xué)的方法實(shí)現(xiàn)數(shù)學(xué)意義上的公平,但卻忽視了公平公正本身亦是一個公共政策問題,仍然需要人文主義視角下的溝通與對話,以及規(guī)范主義視角下程序和權(quán)利的保障。
第一,公平公正原則是貫穿人工智能全生命周期的基本原則。一方面,應(yīng)警惕技術(shù)應(yīng)用的結(jié)果可能對社會和人類發(fā)展帶來不平等、歧視等問題;另一方面,在人工智能開發(fā)階段(例如訓(xùn)練數(shù)據(jù)、訓(xùn)練方式等),應(yīng)當(dāng)在源起時明確其是否存在偏見,設(shè)定相應(yīng)的措施手段。
第二,公平公正原則是動態(tài)的持續(xù)性要求。公平公正原則旨在促進(jìn)平等、正義和多樣性的實(shí)現(xiàn),然而神經(jīng)科學(xué)證明人們無法全面認(rèn)知自身的意識過程,這種認(rèn)知偏差同樣會影響人工智能道德性的實(shí)現(xiàn)。因此,需要對人工智能全生命周期設(shè)定公平性的監(jiān)測、審核和反饋機(jī)制,避免因機(jī)器的無意識偏見或從業(yè)者的“內(nèi)省錯覺”(introspection illusion)減損道德價值。
第三,公平公正原則是一種實(shí)質(zhì)正義。公平公正原則本身就帶有一定的“偏見”,隱含著對弱勢群體的傾斜性保護(hù)。因此,公平公正原則并非絕對的“去偏見”化,亦非形式公平或技術(shù)公平,而應(yīng)以實(shí)質(zhì)公平為導(dǎo)向。這也導(dǎo)致人工智能的道德性實(shí)現(xiàn)在工具選擇中必然會表現(xiàn)出一定的“弱父愛主義”色彩,通過規(guī)則構(gòu)建增強(qiáng)個體的理性條件。
第四,公平公正原則是一種程序正義?!吧啤钡挠懻摬⒎切∪后w的智識判斷,而是關(guān)乎最廣泛普通人的價值選擇。無論是依據(jù)科學(xué)敘事還是監(jiān)管邏輯進(jìn)行立法,都容易使風(fēng)險判斷和工具選擇出現(xiàn)內(nèi)循環(huán)的局限性。因此,人工智能公平公正原則的實(shí)踐需要程序正義的保障,即在系統(tǒng)開發(fā)、程序應(yīng)用、算法設(shè)計和政策決策的過程中,涉及到重大道德倫理問題時,需充分咨詢公眾、專家、企業(yè)等群體的意見,在最大范圍內(nèi)達(dá)成社會共識。
(三)責(zé)任和安全原則
責(zé)任和安全原則是人工智能道德性實(shí)現(xiàn)的保障性原則。責(zé)任原則一般是指,人工智能從業(yè)者應(yīng)當(dāng)對系統(tǒng)的正常運(yùn)作以及相關(guān)的道德準(zhǔn)則負(fù)責(zé)。而安全原則一般是指,人工智能需要避免產(chǎn)生傷害,同時防止和減少風(fēng)險的產(chǎn)生。責(zé)任原則和安全原則一體兩面,安全原則是責(zé)任原則的目的和指向,責(zé)任原則是安全原則的工具和結(jié)果,兩者不宜分立討論,而是應(yīng)當(dāng)納入同一框架內(nèi),根據(jù)“安全-風(fēng)險-責(zé)任”的邏輯脈絡(luò)實(shí)現(xiàn)規(guī)制。參考借鑒《人工智能:澳大利亞的倫理框架》(討論稿)中的“算法影響評估”Dawson,D.et al.,Artificial Intelligence: Australias Ethics Framework,Data61 CSIRO,Australia,63-65(2019).,可以對人工智能的道德性影響展開評估,并采取不同的應(yīng)對措施:首先,根據(jù)人工智能在影響范圍、所涉領(lǐng)域、失范類型等因素,以程度大小分為不重要、輕微、重要、重大、至關(guān)重要等五級道德性影響等級;其次,在道德性影響等級的基礎(chǔ)上,針對不同的人工智能道德失范問題分別采取應(yīng)對措施,屬于不重要級別、輕微級別人工智能道德性影響的,以內(nèi)部控制和測試、行業(yè)標(biāo)準(zhǔn)、企業(yè)自律等方式為主;屬于重要級別人工智能道德性影響的,應(yīng)相應(yīng)增設(shè)影響評估、風(fēng)險控制、信息披露等方式;屬于重大級別人工智能道德性影響的,還需通過專家咨詢、專員設(shè)置、資格審查等方式予以規(guī)范;至關(guān)重要級別人工智能道德性影響的人工智能應(yīng)當(dāng)嚴(yán)格審查,必要時禁止應(yīng)用。同時,人工智能原則導(dǎo)向治理中的責(zé)任和安全原則,既包括物理意義上的技術(shù)安全,也包括抽象意義上的安全可控。人工智能技術(shù)應(yīng)當(dāng)避免直接或間接地?fù)p害用戶以及利益相關(guān)方的權(quán)益,而決策者和從業(yè)者都應(yīng)對人工智能在社會穩(wěn)定、價值觀念、法情感等方面可能產(chǎn)生的沖擊保持審慎,選擇更為成熟而非冒進(jìn)甚至激進(jìn)的方案。
(四)效益原則
效益原則是人工智能道德性實(shí)現(xiàn)的激勵性原則。效益原則通常關(guān)注人類社會的福祉、繁榮、和平和幸福,包括繁榮經(jīng)濟(jì),為社會創(chuàng)造更多的機(jī)會,促進(jìn)人們對科學(xué)的理解等內(nèi)容。原則導(dǎo)向治理中的效益原則既是公益與私益的統(tǒng)一,也是一國與全球的統(tǒng)一。一方面,效益原則不僅僅是宏觀層面的公共利益,同樣是微觀層面的私益。目前對于人工智能道德性的規(guī)范思考多以“監(jiān)管”作為邏輯起點(diǎn),尚未形成產(chǎn)業(yè)激勵層面的制度考量。原則導(dǎo)向治理有助于在產(chǎn)業(yè)激勵層面提供一定的包容審慎空間,意即,這種效益不僅僅是社會或人類視角下的公共利益,同樣包含了每個人工智能產(chǎn)業(yè)的從業(yè)者、企業(yè)等主體的私益訴求。另一方面,效益原則不僅僅是一國之福祉,同樣是人類社會的整體利益。根據(jù)人工智能原則導(dǎo)向治理的和諧發(fā)展理念,這種效益不能局限于一國之內(nèi),不應(yīng)是國家性的效益,而應(yīng)當(dāng)是全人類(包括代際之內(nèi)和代際之間)范圍內(nèi)的共同利益。
五、人工智能原則導(dǎo)向治理的工具選擇
(一)建立人工智能倫理咨詢與審查機(jī)制,強(qiáng)化公眾參與和民主決策
首先,通過人工智能倫理咨詢與審查機(jī)制為人工智能立法和公共政策提供廣泛意見。一方面,形成日常性的人工智能倫理咨詢機(jī)制,并在中央層面建立人工智能政策委員會。人工智能倫理咨詢機(jī)制負(fù)責(zé)為行業(yè)監(jiān)管部門提供信息、更新知識,持續(xù)跟蹤科技風(fēng)險的新發(fā)展,建立人工智能風(fēng)險評估體系,并為行業(yè)監(jiān)管部門提供關(guān)于人工智能道德問題的專業(yè)意見,推動形成具有動態(tài)性、漸進(jìn)性和調(diào)適性的行業(yè)監(jiān)管。人工智能政策委員會負(fù)責(zé)宏觀審慎監(jiān)管和政策協(xié)調(diào)工作,就人工智能道德問題向行業(yè)監(jiān)管部門提出建議。另一方面,確立具有約束力的人工智能倫理審查機(jī)制,以行業(yè)監(jiān)管為基礎(chǔ)構(gòu)建具體的實(shí)施流程和規(guī)范體系。人工智能倫理審查機(jī)制需要進(jìn)一步規(guī)范化、制度化、普遍化,由行業(yè)監(jiān)管部門與審慎監(jiān)管部門通過監(jiān)管備忘錄等形式形成信息共享機(jī)制,并在此基礎(chǔ)上定期更新,明確不同行業(yè)監(jiān)管部門在人工智能道德性實(shí)現(xiàn)方面的職責(zé)范圍。在人工智能可能涉及重大倫理或道德問題時,行業(yè)監(jiān)管部門應(yīng)在充分咨詢信息科學(xué)、倫理學(xué)和法學(xué)等領(lǐng)域?qū)I(yè)意見的基礎(chǔ)上,與人工智能政策委員會就重大議題的信息、建議、知識等方面展開溝通和合作。
其次,推動形成對于人工智能道德性實(shí)現(xiàn)的公共討論和民主決策過程。無論是由科技專家主導(dǎo)的技術(shù)規(guī)范,還是由法律專家主導(dǎo)的司法裁判,在涉及社會公眾重大利益的決策中,人工智能法治應(yīng)當(dāng)為普通民眾預(yù)留充分的意見空間。具體而言,在憲制框架中依循法定程序進(jìn)行充分的討論和審議,將人工智能決策相關(guān)的重大倫理和道德問題交由更具廣泛代表性的集體展開商討,在技術(shù)、法治、人文三路向的基礎(chǔ)上凝練社會共識,體現(xiàn)人民群眾普遍認(rèn)同的道德、情感和價值判斷,標(biāo)明人工智能道德性實(shí)現(xiàn)的底線。
(二)構(gòu)建人工智能領(lǐng)域的主體適當(dāng)性制度與避風(fēng)港規(guī)則
從業(yè)者往往被視為人工智能道德性實(shí)現(xiàn)的關(guān)鍵,甚至有觀點(diǎn)提出應(yīng)當(dāng)建立高風(fēng)險人工智能系統(tǒng)開發(fā)人員的許可制度Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 503-505(2019).,以從業(yè)者的準(zhǔn)入門檻為工具,將技術(shù)的道德難題交托于具有較高道德標(biāo)準(zhǔn)的主體進(jìn)行解決,并在有限的主體范圍內(nèi)落實(shí)道德原則的實(shí)踐要求。但其中存在著一定的邏輯錯位,人工智能的風(fēng)險必須結(jié)合應(yīng)用場景展開討論,主體資格的篩選并不能保證技術(shù)能符合更高的道德要求。風(fēng)險的討論應(yīng)當(dāng)回到其對應(yīng)的概念之上,即風(fēng)險的承擔(dān),讓能夠承擔(dān)高風(fēng)險的主體承擔(dān)高風(fēng)險、獲取高收益,讓無法承擔(dān)高風(fēng)險的主體承擔(dān)低風(fēng)險、獲取低收益,這才是符合成本收益理論的制度選擇。
因此,相較于從業(yè)者許可制度而言,更加合理的工具選擇應(yīng)當(dāng)是以“從業(yè)者有責(zé),消費(fèi)者自慎”的主體適當(dāng)性制度為主,以“避風(fēng)港規(guī)則”為輔,形成人工智能法律治理的雙重責(zé)任規(guī)則。根據(jù)近代民法契約自由的法治精神,交易達(dá)成,嚴(yán)格執(zhí)行何勤華:《美國法律發(fā)達(dá)史》,上海人民出版社1998年版,第181頁。,“成年人應(yīng)當(dāng)自己照拂自己。他無須法律的家長主義來庇護(hù)自己。在他行動之時,他就應(yīng)當(dāng)已經(jīng)意識到了行為的風(fēng)險,就必須承擔(dān)相應(yīng)的后果?!盵美]伯納德·施瓦茨:《美國法律史》,工軍等譯,法律出版社2007年版,第65頁。但是受到技術(shù)、理性、信息等約束條件的影響,特別在新興的人工智能領(lǐng)域,消費(fèi)者在客觀上無法真正了解和確知技術(shù)的后果,主體的理性條件與風(fēng)險承擔(dān)之間存在不對等,需要借助法律的意旨補(bǔ)充和扶助消費(fèi)者的意思表示行為。具言之,對于具有技術(shù)高風(fēng)險性或是涉及重大倫理道德問題的人工智能應(yīng)用,應(yīng)當(dāng)作為特殊場景,適用“從業(yè)者有責(zé),消費(fèi)者自慎”的主體適當(dāng)性規(guī)則。一方面,從業(yè)者對于技術(shù)可能帶來的風(fēng)險予以充分的預(yù)期、披露和告知,同時根據(jù)消費(fèi)者在技術(shù)與理性方面的不同認(rèn)知水平進(jìn)行主體分類,確保技術(shù)應(yīng)用與使用者的主體適當(dāng)性相匹配;另一方面,消費(fèi)者應(yīng)當(dāng)保持自慎的理性姿態(tài),保證其在主體適當(dāng)性審查中所提供的信息準(zhǔn)確并且全面,為從業(yè)者展開主體適當(dāng)性的分類和匹配提供判斷依據(jù)。由此,通過不同主體應(yīng)用不同風(fēng)險條件的人工智能技術(shù),在一定程度上呈現(xiàn)法律對于弱者實(shí)現(xiàn)傾斜保護(hù)的立法取向。與此同時,構(gòu)建激勵人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展的“避風(fēng)港規(guī)則”作為人工智能從業(yè)者責(zé)任承擔(dān)的平衡砝碼,避免對人工智能系統(tǒng)的提供者課以過于嚴(yán)格的法律責(zé)任,人工智能技術(shù)提供者在被告知技術(shù)應(yīng)用存在違背道德要求時,應(yīng)當(dāng)及時啟動審查程序并采取相應(yīng)措施。對于因消費(fèi)者未盡到真實(shí)告知義務(wù)而產(chǎn)生的損害、已盡到法定義務(wù)但在現(xiàn)有技術(shù)條件確實(shí)無法預(yù)判的風(fēng)險等特殊情形,應(yīng)減輕或免除技術(shù)提供者的責(zé)任。
(三)將人工智能的道德性實(shí)現(xiàn)納入企業(yè)社會責(zé)任的范疇
人工智能具有高度的專業(yè)性和技術(shù)性,“在法制定層面與法適用層面都需要有足夠的專業(yè)知識來構(gòu)架、填充、認(rèn)知、運(yùn)作行為規(guī)范與評價規(guī)范”。高秦偉:《社會自我規(guī)制與行政法的任務(wù)》,載《中國法學(xué)》2015年第5期,第75頁。人工智能從業(yè)者的“良好行為”一方面需要依靠主體的道德信念和職業(yè)操守,另一方面也需要以治理結(jié)構(gòu)為基礎(chǔ),以企業(yè)社會責(zé)任為依托,搭建人工智能道德性實(shí)現(xiàn)的責(zé)任機(jī)制,進(jìn)而提高原則導(dǎo)向治理的可執(zhí)行性。科技企業(yè)對于示范性規(guī)則、準(zhǔn)則、標(biāo)準(zhǔn)等治理方案的探索非?;钴S,特別是大型的科技企業(yè),既是原則治理的接受者,也是重要的參與者和制定者。Anna Jobin,Marcello Ienca,Effy Vayena,The Global Landscape of AI Ethics Guidelines,9 Nature Machine Intelligence 389-399(2019).企業(yè)的自我規(guī)制在本質(zhì)上而言是社會自我規(guī)制的一種,但在鼓勵企業(yè)充分發(fā)揮技術(shù)優(yōu)勢、實(shí)現(xiàn)自我規(guī)制的同時,也需要對市場主體的脆弱性保持警醒,避免原則導(dǎo)向治理僅呈現(xiàn)為一種虛化的假象。自我規(guī)制的脆弱性來源于兩個方面的影響:一是技術(shù)人員作為個人的脆弱性,二是企業(yè)作為集體的脆弱性。有觀點(diǎn)曾經(jīng)嘗試從信義義務(wù)的角度證成企業(yè)的社會責(zé)任例如,鄭佳寧:《目標(biāo)公司董事信義義務(wù)客觀標(biāo)準(zhǔn)之構(gòu)建》,載《東方法學(xué)》2017年第4期,第42-51頁。,其原理在于,由于技術(shù)壁壘的存在,消費(fèi)者處于易受技術(shù)主體影響的弱勢地位,對企業(yè)形成了合理的、特殊的依賴,由此產(chǎn)生企業(yè)的信義義務(wù)。但是傳統(tǒng)的公司治理結(jié)構(gòu)要求企業(yè)應(yīng)當(dāng)對股東負(fù)責(zé),相較而言,消費(fèi)者利益以及社會公共利益并不具備邏輯上或法律上的優(yōu)先性。意即,人工智能企業(yè)(包括其技術(shù)人員)可能出于增加收益的目的,選擇為了企業(yè)利益而忽略風(fēng)險,甚至拋棄技術(shù)應(yīng)用背后的道德考量。Manders-Huits,Michael Zimmer,Values and Pragmatic Action: the Challenges of Introducing Ethical Intelligence in Technical Design Communities,10 International Review of Information Ethics 37-44(2009).因此,人工智能原則導(dǎo)向治理需要將道德性實(shí)現(xiàn)契入企業(yè)的治理結(jié)構(gòu),推動企業(yè)自上而下形成具體規(guī)范,通過實(shí)例、示例、標(biāo)準(zhǔn)等多種形式,探索不同道德原則實(shí)現(xiàn)“轉(zhuǎn)錄”的具體方案。
與此同時,人工智能企業(yè)的類型、規(guī)模、技術(shù)、信息等條件,同樣會影響企業(yè)承擔(dān)社會責(zé)任的條件和能力。因此,對于人工智能道德性實(shí)現(xiàn)課以社會責(zé)任的要求,需要根據(jù)技術(shù)條件和責(zé)任能力進(jìn)行分類,形成梯度設(shè)計,避免因缺少對不同人工智能企業(yè)特殊性的觀察而產(chǎn)生規(guī)制的失衡。具體而言,對于一般性的人工智能企業(yè),可以要求其公司治理目標(biāo)包含其他利益相關(guān)者的訴求,這些利益相關(guān)者包括監(jiān)管機(jī)構(gòu)、政府以及消費(fèi)者等主體;對于技術(shù)風(fēng)險較高或涉及重大道德倫理問題的人工智能企業(yè),則應(yīng)當(dāng)將這一治理目標(biāo)嵌入公司的具體結(jié)構(gòu)和管理制度之中,例如,設(shè)立專任的技術(shù)風(fēng)險安全官或倫理道德審查委員會,將安全與道德問題納入內(nèi)部監(jiān)督和審查的范圍,完善技術(shù)風(fēng)險與安全問題的信息披露機(jī)制等。
(四)擴(kuò)大司法裁判在人工智能道德性實(shí)現(xiàn)中的能動空間
通過原則導(dǎo)向治理實(shí)現(xiàn)人工智能道德性的最終環(huán)節(jié),即為糾紛的解決。這需要依托于法官作為“人”的理性思辨。據(jù)檢索,現(xiàn)有涉及人工智能技術(shù)應(yīng)用糾紛的案件已有四例檢索方式:以中國裁判文書網(wǎng)為數(shù)據(jù)庫,關(guān)鍵詞為“事實(shí)”部分包含“人工智能”,案由為民事侵權(quán)或刑事案件。檢索時間:2020年10月26日。通過檢索共獲得80篇裁判文書,經(jīng)人工篩選后選取4篇關(guān)聯(lián)度較高的司法案例。,兩例為民事侵權(quán),兩例為刑事犯罪:李××與廣州網(wǎng)易計算機(jī)系統(tǒng)有限公司網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案[(2019)桂0802民初3026號],原告起訴被告的人工智能客服造成其游戲賬號產(chǎn)生財產(chǎn)損失;黃××與北京百度網(wǎng)訊科技有限公司網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案[(2018)粵0192民初1322號],原告起訴被告的人工智能圖片搜索技術(shù)從第三方網(wǎng)站抓取圖片,相關(guān)搜索結(jié)果侵犯其名譽(yù)權(quán);裴×犯提供侵入、非法控制計算機(jī)信息系統(tǒng)程序、工具罪案[(2018)川13刑終240號],被告人通過人工智能訓(xùn)練提高打碼平臺識別驗(yàn)證碼的能力,增加他人QQ號被盜取的風(fēng)險;張×、陳××、張××等提供侵入非法控制計算機(jī)信息系統(tǒng)程序工具罪案[(2018)浙0602刑初101號],被告利用識別圖片驗(yàn)證碼的AI人工智能程序,提高打碼平臺識別驗(yàn)證碼的能力,幫助他人批量注冊或盜取QQ賬號。從未來的趨勢來看,人工智能糾紛通過司法途徑進(jìn)行解決的情形必然持續(xù)增加。
事實(shí)上,從美國人工智能的治理實(shí)踐來看,法官在化解人工智能所帶來的倫理難題和道德爭議中扮演著非常重要的角色。除了技術(shù)專家之外,研究者希望通過司法過程推動人工智能活動中不同利益訴求的競爭、訴辨與對抗,由法官從中立的角度完成人工智能技術(shù)性與道德性的價值衡量。Jerry L.Mashaw,Reasoned Administration and Democratic Legitimacy: How Administrative Law Supports Democratic Government,Cambridge University Press,2018,p.82.未來我國人工智能糾紛也需要向司法解決途徑進(jìn)一步推動。在這一背景下,為了彌合技術(shù)與法律之間的鴻溝,訴訟法中的專家輔助人制度也許可以成為一個適用的接口。我國現(xiàn)有專家輔助人制度(“有專門知識的人”)見于《民事訴訟法》第79條,是指具有專業(yè)知識的人,經(jīng)當(dāng)事人申請并經(jīng)人民法院允許,代表當(dāng)事人對鑒定意見進(jìn)行質(zhì)證,或者對案件事實(shí)所涉及的專業(yè)問題提出意見,是對鑒定人制度的補(bǔ)益。目前,我國法律還沒有明確專家輔助人意見的性質(zhì)及其法律效力參見竇淑霞:《法官對專家輔助人意見的采信與心證形成的路徑分析》,載《法學(xué)雜志》2018年第2期,第108-123頁。,對于人工智能糾紛中專家輔助人意見,可以參考美國《聯(lián)邦證據(jù)規(guī)則》第702條“專家證人證言采信規(guī)則”,基于以下因素予以綜合制定:該意見是否建立在充足的事實(shí)和資料基礎(chǔ)上;是否是可靠的科學(xué)方法或原理的產(chǎn)物;該科學(xué)方法或原理是否可靠地運(yùn)用于案件事實(shí)。
六、結(jié)語:面向未來的人工“善智”
人類社會總是處在發(fā)展和演進(jìn)之中,在智能時代不斷前進(jìn)的滾滾車輪之上,法律亦在不斷調(diào)整、適應(yīng)和更新。人工智能作為一項(xiàng)新興科技,已然成為國家競爭的新場域。2016年以來,世界各國高度關(guān)注人工智能的發(fā)展與治理,相關(guān)的政策規(guī)范頻頻出臺,出現(xiàn)了共同沖擊人工智能制度高地的競爭樣態(tài)。對于人工智能的道德性實(shí)現(xiàn),同樣應(yīng)該遵循國內(nèi)與國際相聯(lián)系、歷史與現(xiàn)實(shí)相關(guān)聯(lián)的發(fā)展思維。一方面,人工智能治理的全球探索是一個借鑒樣本。通過借鑒,可以在較短時間內(nèi)學(xué)習(xí)和掌握有益經(jīng)驗(yàn),降低因調(diào)查、論證、試錯等過程產(chǎn)生的成本。但是,人工智能的道德性實(shí)現(xiàn)應(yīng)充分尊重我國在社會、經(jīng)濟(jì)、技術(shù)發(fā)展中的階段性和客觀性,鋪設(shè)符合科學(xué)精神、法治理念、人文關(guān)懷的治理進(jìn)路,避免“無前提的移植,無邊界的應(yīng)用,無定性的普及”。參見馮顏利:《新時代哲學(xué)的使命:范式創(chuàng)新、思維革命、方法論自覺》,載《中國人民大學(xué)學(xué)報》2018年第6期,第33-41頁。另一方面,在原則導(dǎo)向治理的框架內(nèi)謀求人工智能道德性的共識,避免出現(xiàn)惡性制度競爭。新興制度的不斷出現(xiàn)強(qiáng)化了制度的聚合效應(yīng),產(chǎn)生制度服從(institutional deference)現(xiàn)象。參見劉瑋:《兼容性制度競爭:雙層對沖與地區(qū)制度的嵌套設(shè)計》,載《世界經(jīng)濟(jì)與政治》2020年第2期,第67頁。未來全球數(shù)字經(jīng)濟(jì)的競爭將會從要素競爭,進(jìn)入長期的以法治為核心的制度競爭階段。在這一階段,如果對于人工智能的道德性缺乏共識作為秩序框架,可能會產(chǎn)生不正當(dāng)?shù)闹贫雀偁幮袨椤?/p>
因此,在全球范圍內(nèi)實(shí)現(xiàn)人工智能的道德性是當(dāng)下與未來人類社會的共同議題。人工智能的全球治理仍處于共識性規(guī)則框架的探索階段,從競爭到合作,從單一到多元,對于人工智能道德問題的審慎考量和進(jìn)路探索,使其呈現(xiàn)為一種過程(process),而不是簡單的目標(biāo)(destination)。Brent Mittelstadt,Principles Alone Cannot Guarantee Ethical AI,11 Nature Machine Intelligence 505(2019).人工智能的道德性可以成為人工智能全球治理的基礎(chǔ),穿越科技、經(jīng)濟(jì)、文化的差異最終落腳于文明與文明之間的合作。人工智能的道德性實(shí)現(xiàn),既是一個國家人工智能法治的重要組成部分,也是全球治理框架的共同敘事,使人工智能“善智”的宏大藍(lán)圖高奇琦:《全球善智與全球合智:人工智能全球治理的未來》,載《世界經(jīng)濟(jì)與政治》2019年第7期,第24-48頁。真正有助于人類,有益于未來,有益于人類命運(yùn)共同體的建構(gòu)。ML
How is the Morality of Artificial Intelligence Possible?
——An Legal Approach Based on Principle-oriented Governance
XU Jiu-jiu
(Institue of Law, China Academy of Social Science,Beijing 100720,China)
Abstract:Artificial Intelligence is a newly emerging technology which stimulates,extends and expands human intelligence,thus its moral practice is particularly important.The moral anomie of artificial intelligence is not only an objective description of phenomena,but also a subjective judgment of value,with both positive and negative effects.From the practical response of the moral practice of global artificial intelligence,the exploration on the moral principles of Artificial Intelligence shows technicism,and the phenomenon of suspension and blur appears in the process of transformation from high-level principles to specific norms.Also some of the principles are inconsistent with each other.The essence of the moral anomie of artificial intelligence is the interest imbalance brought by the game relationship between innovation and safety in the technological development.While the approach of “technology-rule of law-humanity” to explore the incentive compatibility between technology and morality should be the necessary and key to the moral practice of artificial intelligence.Based on this,the introduction of the principle-oriented governance theory creates an inclusive and prudent institutional space between ideal orientation of moral practice and realistic norms,and set up a system of principle-oriented governance consists of structure of core principle and the choice of tools to transcribe the morality of Artificial Intelligence among moral values,technological requirements and legal language.
Key Words:artificial intelligence;morality;principle-oriented governance;rule of law;incentive compatibility
本文責(zé)任編輯:林士平
青年學(xué)術(shù)編輯:孫 瑩