亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能治理原則的倫理基礎(chǔ):價(jià)值立場、價(jià)值目標(biāo)和正義原則

        2023-01-15 07:16:44周江偉
        浙江社會(huì)科學(xué) 2023年1期
        關(guān)鍵詞:福祉倫理原則

        □ 趙 瑜 周江偉

        內(nèi)容提要 近年來,在世界范圍內(nèi)涌現(xiàn)出大量的人工智能治理原則。這些文件通常采取“原則主義”的策略,通過提取“最大公約數(shù)”的方法對(duì)倫理共識(shí)進(jìn)行清單化的列舉。這種策略固然有益于回避爭議、促進(jìn)協(xié)同,但也難免在具體情境中陷入概念模糊和自相矛盾。為了明晰概念、澄清語境、促進(jìn)對(duì)話,本文搜集了來自全球各地的88 份原則文本,在倫理學(xué)理論脈絡(luò)中定位人工智能治理核心議題和相關(guān)主張。研究發(fā)現(xiàn)治理原則圍繞著價(jià)值立場、價(jià)值目標(biāo)和正義原則三個(gè)核心問題展開,在不同的理論脈絡(luò)和現(xiàn)實(shí)情境中,構(gòu)成了一個(gè)豐富而系統(tǒng)的問題域。推動(dòng)人工智能的治理實(shí)踐,需要在靜態(tài)的對(duì)話框架之上進(jìn)一步構(gòu)建動(dòng)態(tài)的規(guī)制措施,而整合原則文本的倫理基礎(chǔ)和治理框架,有助于推動(dòng)抽象的倫理主張轉(zhuǎn)變?yōu)榫唧w的治理實(shí)踐,以應(yīng)對(duì)復(fù)雜現(xiàn)實(shí)情境中的道德選擇和行動(dòng)需求。

        引言:人工智能倫理的原則主義方案及其困境

        人工智能技術(shù)挑戰(zhàn)了現(xiàn)有的社會(huì)治理體系,如何在數(shù)字化、智能化轉(zhuǎn)型中尋求適當(dāng)?shù)闹卫硇问匠蔀閲H社會(huì)共同面臨的問題。在過去的幾年里,已經(jīng)出現(xiàn)諸多人工智能治理原則,它們試圖以一種“準(zhǔn)立法”的方式推進(jìn)相關(guān)領(lǐng)域的規(guī)制。這些原則往往重觀點(diǎn)表達(dá)而輕規(guī)制程序,因此也被稱為“軟法”。相較于缺乏彈性的“硬法”,“軟法”治理具有更好的敏捷性,能夠靈活地支持技術(shù)治理、協(xié)調(diào)社會(huì)行動(dòng),也為“硬法”的出臺(tái)做出準(zhǔn)備。在我國,國務(wù)院于2017 年制定的《新一代人工智能發(fā)展規(guī)劃》中就確立了倫理規(guī)范、法律法規(guī)、政策體系“三步走”的整體戰(zhàn)略,2019 年科技部指導(dǎo)的國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《發(fā)展負(fù)責(zé)任的人工智能:新一代人工智能治理原則》,確立了“和諧友好”“公平公正”等八項(xiàng)治理原則。

        人工智能治理原則往往通過提取“最大公約數(shù)”的方法對(duì)倫理共識(shí)進(jìn)行清單式列舉,以回避高層理論的邏輯演繹和由此產(chǎn)生的觀點(diǎn)沖突,這被認(rèn)為是原則主義方法在該領(lǐng)域的體現(xiàn)。原則主義(Principlism)是一種源起于生命倫理學(xué)的中層方法,它擱置哲學(xué)理論爭議,以社會(huì)成員所共有的道德常識(shí)來構(gòu)建基本框架,從而更高效地應(yīng)對(duì)現(xiàn)實(shí)倫理困境。具體而言,原則主義對(duì)不同社會(huì)文化和思想脈絡(luò)中的道德觀點(diǎn)進(jìn)行歸納,經(jīng)過通約、簡化和列舉而形成倫理框架。這種方法試圖為社會(huì)成員提供識(shí)別并概念化倫理挑戰(zhàn)的共同話語,幫助缺少系統(tǒng)倫理學(xué)知識(shí)的從業(yè)者和相關(guān)機(jī)構(gòu)做出道德判斷并形成實(shí)踐方案。

        然而這種回避哲學(xué)傳統(tǒng)而訴諸道德常識(shí)和社會(huì)共識(shí)的方法正日益受到實(shí)踐挑戰(zhàn)和理論批評(píng)。首先,抽象原則缺乏明晰性和具體性。在通約和求取共識(shí)的過程中,倫理原則變得過度抽象或模糊,不僅遮蔽了隱含在同一議題下的觀念差異,也無法提供適應(yīng)情境的實(shí)踐指南。其次,原則清單重枚舉而輕協(xié)調(diào)。同一份原則清單往往源自多個(gè)倫理傳統(tǒng)和理論脈絡(luò),并列式的語言策略無法處理競爭價(jià)值排序的深層疑惑,也無法構(gòu)建起不同倫理學(xué)脈絡(luò)之間的對(duì)話空間。

        面對(duì)原則文本在明確性和協(xié)調(diào)性上的不足,有政策建議者向G20 組織提交了政策提議,要求建立人工智能治理協(xié)調(diào)委員會(huì)(CCGAI),協(xié)調(diào)人工智能的治理方案和行動(dòng)。學(xué)術(shù)界嘗試借助多種方法對(duì)原則文本進(jìn)行內(nèi)容分析,以提供更為整體和清晰的描述。但基于文獻(xiàn)計(jì)量方法的分析依然不能有效解決關(guān)鍵概念的語境依賴問題,整合的結(jié)果自然也無法超越原則主義的“清單式”敘述。

        本文嘗試建立一個(gè)可供比較和對(duì)話的整體框架,并在此基礎(chǔ)上整合和澄清現(xiàn)有人工智能治理原則的倫理基礎(chǔ)。首先,我們嘗試盡可能全面地搜集原則文本。文獻(xiàn)檢索主要通過三種方式進(jìn)行:先是通過在線數(shù)據(jù)庫或匯總清單進(jìn)行文獻(xiàn)檢索,共查找到三個(gè)在線數(shù)據(jù)庫和兩個(gè)匯總清單;然后是通過現(xiàn)有研究中整理的文獻(xiàn)清單進(jìn)一步補(bǔ)充檢索;最后是通過搜索引擎檢索“AI guidelines”“AI ethic”等關(guān)鍵詞,對(duì)所得的前三十條鏈接進(jìn)行人工訪問和篩選。在去除重復(fù)內(nèi)容后,共獲得88 份原則文件。其次,在分析的過程中引入了闡釋主義的研究傳統(tǒng):更加注重語境信息,以應(yīng)對(duì)概念的多義性和靈活性;同時(shí)更加重視倫理理論脈絡(luò)梳理,使整體框架既從原則文本中浮現(xiàn),又從理論命題中延展而來。

        一、人工智能治理的價(jià)值立場:人類、生態(tài)和技術(shù)物

        應(yīng)當(dāng)珍視誰的價(jià)值,是一切倫理觀首先要面對(duì)的問題。東西方的倫理傳統(tǒng)都體現(xiàn)了深厚的人類中心主義立場。在人類中心主義的價(jià)值立場下,人類被賦予了某種固有價(jià)值或價(jià)值的優(yōu)先性,而人類之外的其他事物則僅具有服務(wù)于人的工具價(jià)值。

        絕大多數(shù)的人工智能治理原則文本都體現(xiàn)了人類中心主義立場。其中有14 份原則文本對(duì)此做出了直接聲明。這些聲明在表述上略有差異,但總體可以歸納為三類:“人類中心”“聚焦人類”和“人類優(yōu)先”。另一些文本則聚焦于人類與人工智能技術(shù)物的關(guān)系,嘗試在人類中心的立場下定位二者在價(jià)值譜系中的相對(duì)位置。具體而言,一方面是直接聲明人類相比于機(jī)器所具有的優(yōu)先地位,如“我們把人類放在第一位,但也看到了人機(jī)交互的優(yōu)勢”(45);另一方面則是在人機(jī)關(guān)系中界定機(jī)器的從屬性和次要性,要求在人機(jī)協(xié)同的關(guān)系中始終把人工智能視作實(shí)現(xiàn)人類目標(biāo)的工具(1,46),其任務(wù)是協(xié)助而不是取代人類(19,22,30,40,71,72),更不能操縱和支配人類以使人類異化為工具。當(dāng)人工智能被設(shè)想成為具有一定自主行動(dòng)能力的行動(dòng)者時(shí),對(duì)其從屬地位的聲明就轉(zhuǎn)變?yōu)橐环N行動(dòng)規(guī)范,要求人工智能尊重人類社會(huì)的價(jià)值、規(guī)范和法律。這種規(guī)范性要求已經(jīng)逐漸在政府、科研機(jī)構(gòu)和產(chǎn)業(yè)界構(gòu)成的多元治理網(wǎng)絡(luò)中成為共識(shí)。2019年中國科技部(78)、北京人工智能研究院(77)和中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(73)先后發(fā)布了人工智能治理原則,符合人類的價(jià)值觀和倫理規(guī)范是三者對(duì)“以人為本”理念的共有闡釋。

        價(jià)值立場差異也往往體現(xiàn)在對(duì)制度安排的主張中。國際技術(shù)法協(xié)會(huì)等非政府組織積極主張?jiān)诜缮洗_認(rèn)人工智能的工具地位,并明確地拒絕為其賦予法人資格(46,65)。關(guān)于機(jī)器人法律地位的討論往往也與具體的問責(zé)實(shí)踐相關(guān)聯(lián)。在問責(zé)過程中,首先要面對(duì)的問題是誰具有承擔(dān)責(zé)任的能力與資格。盡管有學(xué)者將道德視為一種后天養(yǎng)成的能力,肯定了技術(shù)物具有道德行動(dòng)能力的可能性①,但這種能力在維貝克看來僅僅是引發(fā)道德影響的能力②,而不是承擔(dān)責(zé)任的能力。正如博文斯所指出的,問責(zé)制是基于行動(dòng)者和問責(zé)者之間的社會(huì)關(guān)系③,在這個(gè)意義上技術(shù)物是否被接納為我們的社會(huì)成員構(gòu)成了其是否能夠成為責(zé)任主體的必要條件。在大多數(shù)的原則文本中,人工智能依然被視為一種工具,而并非具有構(gòu)成社會(huì)關(guān)系能力的同伴。

        人類中心主義并不忽視其他事物的價(jià)值,例如由于生態(tài)環(huán)境關(guān)系到人類的福祉,具有某種不可忽視的工具價(jià)值,人類中心主義也關(guān)注人工智能對(duì)自然環(huán)境的影響,主張保護(hù)環(huán)境并促進(jìn)其可持續(xù)發(fā)展。部分原則明確闡述了這種立場,如“人工智能系統(tǒng)應(yīng)該造福全人類,包括子孫后代。因此,必須確保它們是可持續(xù)且環(huán)保的。此外,它們應(yīng)該考慮到環(huán)境和其他生物”(76)。保護(hù)其他事物的主張也在另一種價(jià)值路徑中成立,即應(yīng)當(dāng)避免對(duì)其他事物的殘忍行為,從而防止人類對(duì)虐待同伴的舉動(dòng)變得不敏感,正如康德所說的“對(duì)動(dòng)物和精神的責(zé)任”。這種擴(kuò)展的價(jià)值視野在中國科技部發(fā)布的《新一代人工智能治理原則》中被納入到“包容共享”意涵之中,被闡釋為對(duì)環(huán)境所持有的一種友好態(tài)度(78)。

        隨著倫理學(xué)視野的擴(kuò)展,人類中心主義的觀點(diǎn)也逐漸面臨著來自兩個(gè)方面的挑戰(zhàn)。其一是環(huán)境倫理的興起和發(fā)展,這質(zhì)疑了人類對(duì)其自身價(jià)值優(yōu)于其他物種的假設(shè),并探討了賦予自然環(huán)境和其他非人類事物以內(nèi)在價(jià)值的可能性。其二是將內(nèi)在價(jià)值擴(kuò)展到技術(shù)物的討論。一方面,有觀點(diǎn)試圖否認(rèn)人類的特殊性。梅特里就曾將人的身體類比為“一架巨大的、極其精細(xì)、極其巧妙的鐘表”④,并由此否認(rèn)人類之于技術(shù)物的特殊性,主張將人類享有的權(quán)利和尊嚴(yán)擴(kuò)展到技術(shù)物上。另一方面則是對(duì)于超級(jí)人工智能的想象,使人們開始考慮如何面對(duì)人類以外的擁有理性和情感的事物,以及是否應(yīng)將其納入“目的王國”中。

        部分原則文本呼應(yīng)了以上兩種思潮。就有關(guān)生態(tài)環(huán)境的聲明來說,這些原則的制定者對(duì)人類中心主義的立場保有謹(jǐn)慎態(tài)度,將人類福祉、動(dòng)物福祉或生態(tài)福祉并列敘述,卻沒有明確地表達(dá)它們之間的關(guān)系,更沒有將其置于一個(gè)等級(jí)序列中進(jìn)行比較,這在一定程度上體現(xiàn)一種廣泛存在的立場猶豫。但也有個(gè)別原則試圖在人類利益和其他生物或生態(tài)環(huán)境利益之間進(jìn)行平衡,如“AIS 必須允許個(gè)人追求自己的喜好,只要他們不傷害其他有情生物”(12)。就有關(guān)技術(shù)物的聲明而言,《韓國機(jī)器人憲章2012》做出了具有爭議性的聲明,主張超越人類中心主義的立場,賦予機(jī)器人類似于人類的基本權(quán)利,例如免于擔(dān)憂受傷或死亡的生存權(quán)利和不受虐待的權(quán)利。據(jù)此該憲章將故意損壞或摧毀機(jī)器人、由于重大過失使機(jī)器人受傷、以故意和過分侮辱性的方式對(duì)待機(jī)器人的行為視為犯罪(2)。

        生命未來研究院立足于一個(gè)更長遠(yuǎn)也更具超越性的視野,在其頒布的《阿西洛馬人工智能原則》中認(rèn)為“超級(jí)人工智能可代表地球生命歷程中一個(gè)深遠(yuǎn)的變化”(12),這顯示了更為徹底的非人類中心主義,不僅承認(rèn)了地球生命形態(tài)的多樣性,更將內(nèi)在價(jià)值從具體的生命形式中抽離出來予以獨(dú)立的尊重。

        盡管也有原則關(guān)注了人類之外的價(jià)值主體,甚至主張它們與人類共享內(nèi)在價(jià)值,但這些聲明往往被一筆帶過,缺少更詳細(xì)的分析與闡述。在搜索到的88 份原則中72 份持有人類中心立場,16份因關(guān)注了自然環(huán)境、其他生物或人工智能等非人類的固有價(jià)值而持有非人類中心主義立場。整體而言,人類依然是議題的中心,現(xiàn)有原則大多未將人工物納入“目的王國”,這也構(gòu)成了人工智能治理的價(jià)值目標(biāo)和正義原則的邏輯起點(diǎn)。

        二、人工智能治理的價(jià)值目標(biāo):福祉與尊嚴(yán)

        福祉(well-being),有時(shí)候也被稱作“審慎價(jià)值”(prudential value),用以區(qū)別于審美價(jià)值和道德價(jià)值。關(guān)于福祉的討論始終圍繞著“be good for”(造福于/對(duì)…好)的議題展開⑤,正如凱根所指出的,對(duì)任何一種試圖闡釋有關(guān)人類福祉的本質(zhì)和來源的理論,都必須滿足“有益的條件”⑥。在人類中心主義的立場下,福祉所面對(duì)的核心問題是一般意義上非工具性的、好的生活是怎樣的,什么樣的事物有益于人類實(shí)現(xiàn)這種生活。

        尊嚴(yán)一般而言指受到尊重的權(quán)利。西塞羅是最早討論人類尊嚴(yán)的哲學(xué)家之一,他將尊嚴(yán)與特定地位相關(guān)聯(lián)。他認(rèn)為,在政治領(lǐng)域尊嚴(yán)來自于官職、等級(jí)等身份地位,而當(dāng)尊嚴(yán)被推及到普遍化的人時(shí),便來自于人類在宇宙中相較于其他自然事物所具有的更高地位。正如阿德勒所指出的“人的尊嚴(yán)在于人之為人的尊嚴(yán),是一種擺脫他物所有而具有的尊嚴(yán)”⑦。這些被視為人類天性的特征在近現(xiàn)代社會(huì)轉(zhuǎn)型過程中被制度和法律加以確認(rèn)和保護(hù),維持和發(fā)展這些天性被認(rèn)為是人類與生俱來的、不可侵犯的權(quán)利。

        雖然福祉和尊嚴(yán)的議題各有側(cè)重,但它們共同回答了應(yīng)當(dāng)珍視何種人類價(jià)值的問題。這兩個(gè)概念也并非彼此孤立或相互排斥,在不同的理論源流中它們的意義邊界常常相互交疊,有時(shí)甚至可以彼此通約。例如,對(duì)亞里士多德來說,福祉的實(shí)現(xiàn)有賴于作為最終目標(biāo)的“至善”的達(dá)成。在“至善論”福祉觀的基本形式里,“人類的美好生活是由人性決定的,人性包含一套特定的能力,這些能力的鍛煉和發(fā)展對(duì)人類有好處”⑧,而這也意味著福祉與尊嚴(yán)的概念被統(tǒng)一了起來。

        (一)集體層面和個(gè)體層面的人類福祉聲明

        在人工智能原則文本中,有關(guān)人類福祉的聲明在兩個(gè)層面展開。其一是人類集體層面的福祉,它指向了人們共同確認(rèn)的社會(huì)目標(biāo),而人工智能技術(shù)則被期望用于促進(jìn)這些目標(biāo)的實(shí)現(xiàn)。這些目標(biāo)在許多原則文本中被概述為一種關(guān)于更好社會(huì)生活的總體期待,如“服務(wù)文明進(jìn)步”(78)、“取得社會(huì)重大進(jìn)步”(46),“創(chuàng)造更好的社會(huì)……塑造共同美好的未來”(34)等。這種有關(guān)總體愿景的表述,在中國主流語境里與儒家和諧社會(huì)的價(jià)值觀念相結(jié)合。在《新一代人工智能治理原則》中,“增進(jìn)人類共同福祉”的目標(biāo)被納入“和諧友好”的原則中,并成為其首要內(nèi)涵。也有原則文本指向較為具體的社會(huì)目標(biāo),諸如經(jīng)濟(jì)效益、公共衛(wèi)生、精神文化和公共安全等,它們共同構(gòu)成了有關(guān)人類集體福祉的目標(biāo)列表。公共部門往往通過這種方式來聲明和推進(jìn)人工智能發(fā)展的優(yōu)先事項(xiàng),如美國白宮在《人工智能應(yīng)用監(jiān)管指南》中所指出的“人工智能預(yù)計(jì)將對(duì)社會(huì)和經(jīng)濟(jì)生活的各個(gè)部門產(chǎn)生積極影響,包括就業(yè)、交通、教育、金融、醫(yī)療保健、個(gè)人安全和制造業(yè)?!保?3)

        其二是人類個(gè)體層面的福祉,它關(guān)注一般意義上的、抽象的人類個(gè)體。在搜集到的文本中,基本所有關(guān)于福祉的主張都在個(gè)體層面上回避了經(jīng)典的“快樂主義”和“欲望主義”的福祉觀念,其背后原因與人工智能技術(shù)的持續(xù)發(fā)展使“體驗(yàn)機(jī)器”的隱喻逐漸可能成為現(xiàn)實(shí)有關(guān)⑨?!绑w驗(yàn)機(jī)器”的隱喻假設(shè)如果人的經(jīng)驗(yàn)可以借由機(jī)器模擬產(chǎn)生,那么這種虛擬的愉悅感或欲望滿足的體驗(yàn)是否在實(shí)際上增進(jìn)了人的福祉?人工智能的快速發(fā)展,直接地強(qiáng)化了相關(guān)爭議。目前僅有少量原則以慎重的方式討論了人工智能在創(chuàng)造快樂和滿足欲望上的價(jià)值,但更多的文本延續(xù)對(duì)“體驗(yàn)機(jī)器”的道德憂慮,強(qiáng)調(diào)“情緒和意向的幻覺不應(yīng)該被用于剝削脆弱的用戶”(1)。

        同時(shí),共有28 個(gè)原則文本在個(gè)體層面的福祉聲明中強(qiáng)調(diào)對(duì)某些人類能力的鍛煉、補(bǔ)充和擴(kuò)增。相關(guān)主張不僅涉及在主觀上增強(qiáng)人類的認(rèn)知能力(76,75),使人類能夠面對(duì)更加復(fù)雜的認(rèn)知對(duì)象(84),還要求在客觀上擴(kuò)展和補(bǔ)充人類的經(jīng)驗(yàn)(26),促進(jìn)知識(shí)獲取機(jī)會(huì)的增長(42),從而在結(jié)果上能夠提升人類對(duì)世界的理解(4),以求更快、更準(zhǔn)確地處理和評(píng)估事實(shí)(66),做出更加明智的選擇和決策(76,66),提出有前景的新想法和新策略,解決人類面對(duì)的問題(84)?;凇爸辽普摗钡母l碇鲝埻簿劢褂谔囟ǖ纳鐣?huì)群體,特別是在生理上失能或在社會(huì)結(jié)構(gòu)中處于弱勢地位的群體,如女性(37),老年人(47),殘障人士(16)等。人工智能技術(shù)在賦能弱勢群體并改善他們的不利處境上被寄予厚望。

        (二)維持人類特性和尊重人類基本權(quán)利的聲明

        人類的尊嚴(yán)依系于自身的固有特性,在啟蒙主義的傳統(tǒng)下,理性被視為人之為人的關(guān)鍵。正如康德所說的“如若它們是無理性的東西,就叫做物件(Sachen)。與此相反,有理性的東西,叫做人身(Personen)”⑩。而理性的特質(zhì)又使得人類能夠自己選擇并決定著自己的行動(dòng)。由此理性、自由和自治被內(nèi)在地統(tǒng)一起來,構(gòu)成了啟蒙主義者眼中人類最根本的天性。

        然而隨著人工智能技術(shù)的發(fā)展,機(jī)器智能作為另一種可能的理性行動(dòng)者,引發(fā)了關(guān)于理性是否為人類所獨(dú)有的爭論。盡管多數(shù)文本嘗試回避爭議,但仍有原則對(duì)此做出直接的回應(yīng)。世界科學(xué)知識(shí)和技術(shù)倫理協(xié)會(huì)在其《機(jī)器人倫理報(bào)告》中就明確重申理性作為人類獨(dú)有天性的觀點(diǎn),認(rèn)為盡管機(jī)器人可能擁有超越人類個(gè)體的認(rèn)知能力和學(xué)習(xí)能力,但它們僅僅是人類創(chuàng)造力的結(jié)果,并不能為自己設(shè)定目的,不能將機(jī)器人與人類混淆(15)。

        人工智能的發(fā)展在某種意義上也在促使人類重新審視自身的特性,隨著自動(dòng)化技術(shù)的日漸成熟,機(jī)器智能實(shí)現(xiàn)的功能越來越多,尋找人類的不可替代性并使人類從事更有意義、更符合自身特性的工作,也是治理原則中頻頻出現(xiàn)的議題。許多原則文本強(qiáng)調(diào)了人類在情感和社會(huì)關(guān)系上的不可替代性(3)。除此之外,直覺、創(chuàng)造力等通常無法由機(jī)械推理實(shí)現(xiàn)的特征也被看作是人類所特有的(24)。一些原則超越了傳統(tǒng)的尊嚴(yán)觀念,認(rèn)為人類的尊嚴(yán)不僅指獨(dú)有的優(yōu)越性,還包括獨(dú)特的弱點(diǎn)和缺陷,主張無論是生理還是心理上的人類弱點(diǎn)都應(yīng)該得到尊重(3)。

        維持人類特性的要求與賦能人類增進(jìn)福祉的主張之間存在著張力。雖然使用技術(shù)矯正和恢復(fù)人類功能的傳統(tǒng)長期存在,然而隨著技術(shù)想象的延展,人類不再僅僅尋求修復(fù),而是試圖增強(qiáng)自身以獲得超過人類能力邊界的生理和心理特征,這種思潮被稱作“超人類主義”或“后人類主義”。為此《歐洲機(jī)器人民事法規(guī)則》納入一條特別的原則,要求“限制人類使用增強(qiáng)技術(shù)”,以避免現(xiàn)有形態(tài)的人類被遺忘或因被迫采用增強(qiáng)技術(shù)而消失。

        在維護(hù)和尊重人類基本權(quán)利層面,相關(guān)議題主要圍繞著身心健康的權(quán)利和自由、自治的權(quán)利展開。為避免人工智能直接或間接地對(duì)人類生理造成損害成為核心議題,限制和規(guī)范人工智能技術(shù)在自動(dòng)化武器上的應(yīng)用受到高度關(guān)注和密切討論。一些原則明確拒絕將自動(dòng)化技術(shù)用于武器制造(41)以及其他暴力與戰(zhàn)爭行為(4)。人工智能在心理健康方面的影響也日益受到關(guān)注,如何避免人工智能技術(shù)給人類帶來精神困擾往往是討論的焦點(diǎn),例如避免人工智能刻意模仿或展示殘忍行為以造成精神創(chuàng)傷(11),或是增加壓力、焦慮,使人類感到被數(shù)字環(huán)境騷擾(12)等。此外,鑒于人工智能系統(tǒng)日益中介并調(diào)節(jié)著人類的社會(huì)交往,有原則也主張人工智能不應(yīng)損害人類情感關(guān)系的維系,避免造成或加劇人的脆弱性和孤立性(11)。

        就自由和自治的權(quán)利而言,有關(guān)保障人類自主決策和自由選擇的主張是最主要的共識(shí),特別是要求人工智能技術(shù)在應(yīng)用過程中避免使人類受到欺騙、脅迫或操縱(1,11,42,54,52,76),而人類也應(yīng)獲得足夠的信息、知識(shí)和行動(dòng)能力來做出自主決定(38,42,70)。除此之外,個(gè)別原則還關(guān)注到了表達(dá)的自由(26,38,62)和發(fā)展自由(62)。

        關(guān)于隱私權(quán)的保護(hù)是最受關(guān)注的議題之一,超過半數(shù)原則文件涉及該議題?,F(xiàn)有原則體現(xiàn)了隱私權(quán)內(nèi)容從私生活自治向個(gè)人信息自決的擴(kuò)展,要求在包括收集、存儲(chǔ)、處理、使用等各環(huán)節(jié)的信息生命周期內(nèi),個(gè)人都對(duì)其信息擁有主要的控制權(quán)。隱私議題也是人工智能治理原則立法落地的熱點(diǎn)和焦點(diǎn)。

        三、人工智能治理的正義原則:效益與分配

        上述討論關(guān)注“什么是有價(jià)值的”,而正義原則所面對(duì)的問題則是“如何正確地對(duì)待這些價(jià)值”。

        通常,從普遍的道德直覺出發(fā),維護(hù)和促進(jìn)有價(jià)值的事物本身就具有正當(dāng)性。效益因此被看作是正當(dāng)性的重要面向,大量原則圍繞著“有益”“非傷害”和“收益損失衡量”展開論述。

        這些原則主張發(fā)展和應(yīng)用人工智能所帶來的收益應(yīng)當(dāng)大于損失,并在合理范圍內(nèi)使收益最大化,并將風(fēng)險(xiǎn)和損失維持在“社會(huì)可接受的范圍內(nèi)”(23)或使之最小化。這種功利主義的考量也牽涉到風(fēng)險(xiǎn)管理與創(chuàng)新之間的張力,有原則認(rèn)為我們同時(shí)也要考慮不使用人工智能技術(shù)所產(chǎn)生的潛在損失和風(fēng)險(xiǎn)(83),主張合理的風(fēng)險(xiǎn)能夠促進(jìn)技術(shù)發(fā)展(65),在適當(dāng)?shù)那闆r下,應(yīng)該避免過度的風(fēng)險(xiǎn)管控對(duì)技術(shù)創(chuàng)新和效益增長的阻礙(83)。

        盡管效益之于正義是不可回避的議題,但在更多的情況下,有關(guān)正義的討論側(cè)重于“有價(jià)值的東西如何被正確分配?”。對(duì)分配問題的考量在任何社會(huì)都不可回避,特別是當(dāng)難以避免的利益沖突發(fā)生時(shí),如何在社會(huì)范圍內(nèi)分配收益和損失,成為正義問題的核心關(guān)切??傮w而言,人工智能治理原則體現(xiàn)了兩種分配觀念。

        其一是效益優(yōu)先的分配觀。這種觀念往往建立在功利主義的基礎(chǔ)上。盡管在一些批評(píng)者看來,功利主義是只考慮了總體福利如何最大化,而不關(guān)心這些福利如何在社會(huì)中進(jìn)行分配。但實(shí)際上,功利主義至少在兩個(gè)層面處理了有關(guān)“分配”的問題。首先,總體福利原則內(nèi)含個(gè)體利益和總體利益、少數(shù)人利益和多數(shù)人利益之間的衡量與分配。其次,在個(gè)體之間如何分配利益的問題上,由于功利主義主張的正當(dāng)性不完全取決于個(gè)人的福利水平而是最終取決于整體的福利水平,它要求我們在自我利益和他人利益之間進(jìn)行衡量和累加。正如謝夫勒所指出的,功利主義允許(甚至要求)一個(gè)行動(dòng)者為了追求行為的非個(gè)人價(jià)值,而犧牲個(gè)人規(guī)劃與承諾的道德重要性。?而近年來活躍于公共領(lǐng)域的“有效利他主義”(Effective altruism)也是功利主義的一個(gè)變體。?

        功利主義也并不必然期待一個(gè)多數(shù)人利益壓倒少數(shù)人利益的社會(huì)現(xiàn)實(shí),而是將希望寄托于一個(gè)理想化的情境,在那里個(gè)體和整體間共享一致的利益,當(dāng)總體利益最大化時(shí),個(gè)體的利益也得到了最大化。一些原則表達(dá)了類似的理想期望,它們既希望讓盡可能多的人收益,又期待每一個(gè)人都是受益者,通過創(chuàng)設(shè)這樣的理想情境來消解功利主義視域下局部和整體之間的張力。另外一些原則直接回避了這一問題,僅主張?jiān)谡w上衡量收益與成本、損失與風(fēng)險(xiǎn),以求最大化人工智能帶來的益處或最小化風(fēng)險(xiǎn)與傷害(41,60,77)。也有原則直面了利益衡量的困境,承認(rèn)人工智能的部署會(huì)給某些群體帶來風(fēng)險(xiǎn)或負(fù)面影響,但能夠?yàn)槠渌后w創(chuàng)造收益(64),并以此要求分析和確定各方在技術(shù)中獲得的收益,確保大多數(shù)人或者盡可能多的人從中受益。至于在局部產(chǎn)生的損失和風(fēng)險(xiǎn),則可以通過為個(gè)人、組織、政治實(shí)體和整個(gè)社會(huì)創(chuàng)造的利益來抵消(5),從而保證人工智能對(duì)世界產(chǎn)生“凈積極影響”。

        其二是公平優(yōu)先的分配觀。這種分配觀在根本上挑戰(zhàn)了功利主義,將對(duì)差異和平等的安排置于正義問題的核心。功利主義或者一般目的論的基本假設(shè)是將“正當(dāng)”的概念依附于“善”,并以后者定義前者,從而將正當(dāng)問題轉(zhuǎn)變?yōu)槿绾未_定某種善并將其最大化。以羅爾斯和諾齊克為代表的當(dāng)代學(xué)者在不同的理論路徑上主張將“正當(dāng)”獨(dú)立于“善”,進(jìn)而將合理的分配形式和待分配的內(nèi)容分離開來。羅爾斯在康德式的“先驗(yàn)主體”的論證中,拒斥了具有經(jīng)驗(yàn)內(nèi)容的“善”的絕對(duì)優(yōu)先性。他認(rèn)為某種“善”作為目的被選擇之前,必然已經(jīng)存在一個(gè)具備選擇能力的自我,自我優(yōu)先于目的,而目的則由自我加以確認(rèn)。作為被選擇內(nèi)容的“善”才具有從屬性,“正當(dāng)”與“善”的關(guān)系乃是評(píng)判標(biāo)準(zhǔn)與所要評(píng)價(jià)事物之間的關(guān)系。諾齊克則沿襲了洛克的自然權(quán)利理論,認(rèn)為奠基于人類尊嚴(yán)的自然權(quán)利及人們的合法所得具有一種先驗(yàn)的正當(dāng)性,不可以為了實(shí)現(xiàn)某種“善”而受到侵犯?。

        確立一種獨(dú)立并優(yōu)先于任何具體“善”的正義原則,使得圍繞“善”的不同取向而產(chǎn)生的社會(huì)差異不可避免。如何對(duì)待差異,以及在何種意義上主張平等,就構(gòu)成了公平問題的兩個(gè)主要方面。

        平等最簡單而極端的形式是“平均主義”,要求每個(gè)人都受到同樣的對(duì)待,特別是在分配結(jié)果上的平等。正如有原則主張廣泛而平等地分配人工智能技術(shù)所帶來的收益(14),或發(fā)揮技術(shù)潛力來克服當(dāng)前社會(huì)的不平等(77,88)。這些帶有技術(shù)烏托邦色彩的平均主義主張通常被認(rèn)為過于嚴(yán)格而難以實(shí)現(xiàn)。批評(píng)者一方面認(rèn)為分配的平等并不必然帶來滿足的平等,另一方面也認(rèn)為平均分配消除了社會(huì)經(jīng)濟(jì)領(lǐng)域的有效激勵(lì),再分配的成本也催生了浪費(fèi)性低效?,因此有必要在平等和效率之間做出平衡。即便是主張消除階級(jí)差異的共產(chǎn)主義思想,也并不支持“平均主義”的觀點(diǎn)。馬克思在《哥達(dá)綱領(lǐng)批判》中闡述了拒絕“平均主義”的原因,他認(rèn)為“平均主義”對(duì)平等的絕對(duì)主張會(huì)忽視其它道德觀點(diǎn),最終會(huì)導(dǎo)致實(shí)質(zhì)的不平等,更關(guān)鍵的問題在于如何消除社會(huì)中的沖突和支配關(guān)系,促進(jìn)人的自由發(fā)展。在這個(gè)意義上消除階級(jí)差異的目的在于解放而非平等。?這種解放的觀念也體現(xiàn)在現(xiàn)有原則中,如“人工智能的發(fā)展必須有助于消除群體和個(gè)人之間基于權(quán)力、財(cái)富或知識(shí)差異的支配關(guān)系”(11)。

        與“平均主義”不同,亞里士多德主張一種合乎比例的安排。他承認(rèn)人與人之不可消弭的差異,進(jìn)而認(rèn)為平等就是根據(jù)這種差異按比例分配與之相稱的事物,從而認(rèn)可了合理的差異。但由于沒有對(duì)如何安排差異做出任何實(shí)質(zhì)性的規(guī)定,這通常被認(rèn)為是一種形式上的規(guī)范。

        古典自由主義者對(duì)此做出的回應(yīng)涉及到“機(jī)會(huì)平等”和“基本權(quán)利和自由的平等”兩個(gè)維度。他們主張人具有“自我擁有”(self-ownership)的自然權(quán)利,人們能夠平等地運(yùn)用自己的天賦獲得收益。因此只要保障人們享有平等的自由和權(quán)利,在一切機(jī)會(huì)向所有人開放的情況下,個(gè)人發(fā)展所致的差異便應(yīng)當(dāng)被接受并被視為“道德上的應(yīng)得”。許多原則也體現(xiàn)了這種觀念,比如,將人工智能作為一種社會(huì)資源,使包括代碼、訓(xùn)練數(shù)據(jù)和其他相關(guān)信息在內(nèi)的資源向所有人開放(68),就契合了自由主義所主張“機(jī)會(huì)平等”原則。

        由于正義長期以來被認(rèn)為是隨意性的對(duì)立面,對(duì)自然和社會(huì)的“偶然因素”或者個(gè)體層面的“運(yùn)氣”的忽視,使古典自由主義的主張受到了挑戰(zhàn)。正如羅爾斯指出“天賦自由制度最不公正之處在于,從一種道德的觀點(diǎn)看,這一理論允許分配份額如此隨意地受到這些因素的不合宜的影響?!?古典自由主義的修正者試圖通過補(bǔ)償那些偶然所致的社會(huì)差異來實(shí)現(xiàn)“起點(diǎn)的平等”。在現(xiàn)有原則中這種觀點(diǎn)體現(xiàn)在兩個(gè)方面,一是通過人工智能技術(shù)填補(bǔ)人類的起點(diǎn)差異,比如通過技術(shù)賦能弱勢群體,創(chuàng)造一個(gè)更公平的競爭環(huán)境(16);二是在人工智能技術(shù)紅利的獲取上的“起點(diǎn)平等”,比如通過轉(zhuǎn)移支付或社會(huì)援助等方式使經(jīng)濟(jì)弱勢群體也能夠享有獲得技術(shù)設(shè)備的機(jī)會(huì)(76)。但這種修正依然無法應(yīng)對(duì)人們自然天賦的偶然差異,這也意味著“應(yīng)得的正義”中始終包含著某種隨意因素。

        以德沃金為代表的運(yùn)氣均等主義者試圖區(qū)別對(duì)待不同的“運(yùn)氣”,并劃定不平等后果的責(zé)任范圍。?羅爾斯并不試圖區(qū)分不同的運(yùn)氣,而是將天賦和好運(yùn)視為“共同資產(chǎn)”,在保障基本自由平等和機(jī)會(huì)平等的基礎(chǔ)上,遵從“差別原則”,使社會(huì)制度的安排能夠充分利用這些資產(chǎn)來促進(jìn)公共利益,并使最不利者在這種整體利益的增長中獲益。?對(duì)“最不利者的利益”的關(guān)注廣泛出現(xiàn)于現(xiàn)有治理原則中,這些“最不利者”被同樣抽象地描述為“應(yīng)該特別考慮保護(hù)的人”“弱勢群體”“代表性不足的人口”,或者被包含在“所有人”“每個(gè)人”之中,而如何具體定位人工智能技術(shù)部署之下的“最不利者”卻鮮見于原則論述中。相對(duì)具體的討論則聚焦于人工智能可能帶來的社會(huì)勞動(dòng)力結(jié)構(gòu)轉(zhuǎn)型,關(guān)注那些因缺乏數(shù)字素養(yǎng)而面臨失業(yè)的人群,主張他們應(yīng)該受到社會(huì)的特別關(guān)照并受惠于人工智能技術(shù)。最核心的主張是開展教育培訓(xùn),使人適應(yīng)新的技術(shù)-社會(huì)環(huán)境并重新發(fā)現(xiàn)自我價(jià)值。

        上述討論更多著眼于何為正義或如何實(shí)現(xiàn)正義,但正義問題還要求我們考慮不正義發(fā)生后如何應(yīng)對(duì)的問題,這就指向了正義的糾錯(cuò)維度。有8份原則文件涉及了糾錯(cuò)的議題,其中多數(shù)原則在較為抽象的層面呼吁救濟(jì)或糾錯(cuò),而具體指向則主要包括經(jīng)濟(jì)補(bǔ)償(15)、司法救濟(jì)(42)等方面。

        結(jié)語

        原則主義試圖回避爭議,通過清單式的整合為倫理實(shí)踐和社會(huì)行動(dòng)提供基本指南。但借助通約和列舉形成的倫理框架,在概念的明晰性和原則間的協(xié)調(diào)性上存在問題。而隨著治理主體日益多元化,激增的人工智能治理原則文本間也日益難以協(xié)調(diào)。本研究在眾多版本的原則主義“清單”之上,通過尋找整合框架而不是尋求最大公約數(shù)的方式來促進(jìn)原則文本間的對(duì)話。如果將清單中的原則視為對(duì)特定倫理問題的回答,那么尋找整合框架就是澄清這些問題和回應(yīng)方式的思想基礎(chǔ)。

        通過梳理88 份人工智能原則文本,我們發(fā)現(xiàn)這些原則回應(yīng)著三個(gè)彼此關(guān)聯(lián)的倫理問題:價(jià)值立場(珍視誰的價(jià)值)——價(jià)值目標(biāo)(珍視何種價(jià)值)——正義原則(如何正確地對(duì)待這些價(jià)值)。三個(gè)核心議題在不同的理論脈絡(luò)和現(xiàn)實(shí)情境中又派生出更具體的問題,構(gòu)成了一個(gè)豐富而系統(tǒng)的問題域。問題的澄清使涵蓋在某些關(guān)鍵概念中的豐富意涵和不同回應(yīng)之間的張力得以顯現(xiàn)。例如絕大多數(shù)的規(guī)范性文件都贊同人工智能的有益、非傷害、公平分配原則,但字面上的共識(shí)并不意味著倫理考量起點(diǎn)的一致性,更不代表技術(shù)部署和規(guī)制實(shí)踐措施的統(tǒng)一性。厘清原則文本的理論脈絡(luò)差異和觀點(diǎn)張力,能讓我們更清楚地意識(shí)到為什么激增的文本并未有效回應(yīng)不斷涌現(xiàn)的技術(shù)后果,遑論形成人工智能規(guī)制合力。

        我國在人工智能治理方面采取了“軟硬結(jié)合”的方式,成效顯著。2017 年國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》正式將人工智能上升為國家戰(zhàn)略,并提出在2025 年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。從法律法規(guī)角度,我國先后施行《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》,深圳、上海等地率先就人工智能產(chǎn)業(yè)立法,共同構(gòu)筑起國家安全、數(shù)據(jù)治理和產(chǎn)業(yè)部署的法律框架。2021 年底多部門聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,在宏觀規(guī)制的基礎(chǔ)上開始聚焦人工智能的具體應(yīng)用場景,其中算法備案等舉措切實(shí)地回應(yīng)了既有倫理原則中關(guān)于透明性、可解釋性的主張。

        “硬法”落地雖有助于構(gòu)筑剛性的社會(huì)規(guī)范框架,但也容易導(dǎo)致產(chǎn)業(yè)發(fā)展的合規(guī)成本高企,因此更具敏捷性的“軟法”在這一階段引起更多的關(guān)注。在倫理規(guī)范體系建設(shè)角度,國務(wù)院和科技部是主要的推動(dòng)者,科研院所、產(chǎn)業(yè)聯(lián)盟與之配合共同回應(yīng)人工智能的價(jià)值立場、價(jià)值目標(biāo)和正義原則??傮w而言,我國人工智能倫理治理秉持人類中心主義,在安全可靠的前提下強(qiáng)調(diào)技術(shù)對(duì)經(jīng)濟(jì)、社會(huì)、生態(tài)可持續(xù)發(fā)展方面的使能作用。增進(jìn)人類福祉、尊重生命權(quán)利等基本原則同時(shí)重視集體福祉和個(gè)體福祉的提升,對(duì)人類命運(yùn)共同體的強(qiáng)調(diào)進(jìn)一步體現(xiàn)了國際主義的宏闊視野。堅(jiān)持公平公正成為國內(nèi)人工智能應(yīng)用的基本原則,強(qiáng)調(diào)技術(shù)對(duì)最大多數(shù)人的公正分配,合理控制風(fēng)險(xiǎn)、保持公開透明則體現(xiàn)了使用機(jī)會(huì)均等和保障技術(shù)弱勢群體的分配觀。在本文分析的88 份原則性文件中,中國的倫理治理模式側(cè)重平衡,既未如美國一般多強(qiáng)調(diào)行業(yè)自律,也不似歐盟密集立法,而在放任主義和寒蟬效應(yīng)的極端之間尋求中國式治理模式。在本文述及的國內(nèi)倫理原則文本中,起草者主要為科技部、國家和地方的產(chǎn)業(yè)聯(lián)盟,顯現(xiàn)多主體參與的“元治理”嘗試。

        元治理被認(rèn)為是對(duì)治理的治理,即對(duì)不同治理主體進(jìn)行協(xié)調(diào),理性選擇并有機(jī)組合不同治理形式?,在彌補(bǔ)單一治理不足的同時(shí),減少碎片化和重疊性。?隨著人工智能治理所面對(duì)的現(xiàn)實(shí)情境日益復(fù)雜,參與到治理實(shí)踐中的主體日益多元,尋求整合框架就是一種“元治理”的嘗試。

        本文所搜集的原則文本中來自公共部門及其智庫機(jī)構(gòu)的文本僅占不到四成,企業(yè)與其它社會(huì)組織正在積極參與相關(guān)話語的建構(gòu),各國政府也積極通過引導(dǎo)行業(yè)自律和向社會(huì)購買服務(wù)等形式將多元主體納入治理網(wǎng)絡(luò)。中國政府就在《新一代人工智能治理原則》中將“開放協(xié)作”作為指導(dǎo)性原則之一,要求“推動(dòng)國際組織、政府部門、科研機(jī)構(gòu)、教育機(jī)構(gòu)、企業(yè)、社會(huì)組織、公眾在人工智能發(fā)展與治理中的協(xié)調(diào)互動(dòng)”。

        良好的對(duì)話框架是元治理得以開展的基礎(chǔ),當(dāng)治理網(wǎng)絡(luò)中的行動(dòng)主體之間發(fā)生分歧和沖突時(shí),促進(jìn)彼此間的對(duì)話和協(xié)商能夠減少治理失靈的程度,形成更靈活的治理組合。而元治理往往涉及到在價(jià)值和規(guī)范層面形成治理秩序,用以推進(jìn)和評(píng)估治理實(shí)踐。?面對(duì)不同的治理方案和倫理主張,積極建構(gòu)對(duì)話框架,促進(jìn)多治理元主體的協(xié)商與協(xié)同,毫無疑問地成為了元治理的應(yīng)有之義。而本研究的目標(biāo)也正是為這一框架的建構(gòu)提供學(xué)理層面的參考,并在經(jīng)驗(yàn)層面引導(dǎo)對(duì)話,以澄清并組織既有治理觀念的倫理基礎(chǔ)。

        此外,在具體的現(xiàn)實(shí)情境中,如何將抽象的倫理主張轉(zhuǎn)變?yōu)榫唧w的治理實(shí)踐,在多元的價(jià)值取向之間進(jìn)行選擇和行動(dòng)也是元治理的重要議題。推動(dòng)人工智能的治理實(shí)踐,需要在靜態(tài)的對(duì)話框架之上進(jìn)一步構(gòu)建動(dòng)態(tài)的程序規(guī)則,以應(yīng)對(duì)復(fù)雜現(xiàn)實(shí)情境中的道德選擇和行動(dòng)需求。部分學(xué)者批評(píng)現(xiàn)有人工智能治理原則是“道德粉飾”,旨在掩蓋和回避真正的現(xiàn)實(shí)問題為相關(guān)行動(dòng)者提供道德“避風(fēng)港”。其實(shí),盡管原則主義方法不能很好的解決理論和觀念的爭議,但它引入的“反思平衡”程序體現(xiàn)了對(duì)實(shí)踐價(jià)值的重視,而這也是經(jīng)典的倫理理論的薄弱環(huán)節(jié)。

        對(duì)人工智能原則核心議題的梳理,就是在承認(rèn)多元主體參與治理的合理性基礎(chǔ)上,探尋他們的治理目標(biāo)、行動(dòng)場域和對(duì)話機(jī)制,讓人工智能領(lǐng)域的元治理成為可能??傮w而言,全球范圍內(nèi)數(shù)量繁多的人工智能治理原則文件,雖規(guī)制主體、規(guī)制重點(diǎn)和規(guī)制路徑不同,但它們都在價(jià)值立場、價(jià)值目標(biāo)、正義原則這三個(gè)維度進(jìn)行了澄清和細(xì)化,理清其間的理論脈絡(luò)和爭議焦點(diǎn),為抽象原則的落地實(shí)施提供更了為翔實(shí)的學(xué)理積淀和行動(dòng)共識(shí)。

        附表 研究涉及的人工智能治理原則文本

        注釋:

        ①劉憲權(quán):《人工智能時(shí)代機(jī)器人行為道德倫理與刑法規(guī)制》,《比較法研究》2018 年第4 期。

        ②彼得·保羅·維貝克:《將技術(shù)道德化》,閆宏秀、楊慶峰譯,上海交通大學(xué)出版社2016 年版,第62 頁。

        ③Bovens M,“Analysing and assessing accountability:A conceptual framework”,European Law Journal,2007,13(4),pp.447~468.

        ④拉·梅特里:《人是機(jī)器》,顧壽觀譯,商務(wù)印書館1999 年版,第65 頁。

        ⑤⑧Fletcher G,The philosophy of well-being:An introduction,Routledge,2016,p.5,p.95.

        ⑥Kagan S,“The limits of well-being”,Social Philosophy and Policy,1992,9(2),pp.169~189.

        ⑦Adler M J,“The dignity of man and the 21st century.”A Speech Delivered to Members of The Commonwealth Club,1952.

        ⑨?Nozick R,Anarchy,state,and utopia,Basic Books,1974,p.1,p.47.

        ⑩伊曼努爾·康德:《道德形而上學(xué)原理》,苗力田譯,上海人民出版社1986 年版,第80 頁。

        ?Scheffler S,The rejection of consequentialism,Oxford University Press,1994,p.61.

        ?MacAskill W,“Effective altruism:introduction”,Essays in Philosophy,2017,18(1),pp.1~5.

        ?Okun Arthur M,Equality and Efficiency:The Big Tradeoff,Washington,The Brookings Institution,p.117.

        ?Marx Karl,Critique of the Gotha Program;reprinted in Marx-Engels-Werke(MEW)vol.19,Berlin 1978;and in Marx-Engels-Gesamtausgabe(MEGA-B),Berlin 1975,vol.I 25.

        ??約翰·羅爾斯:《正義論》,何懷宏、何包鋼、廖申白譯,中國社會(huì)科學(xué)出版社2009 年版,第58~69 頁。

        ?高景柱:《德沃金與運(yùn)氣均等主義理論》,《西南大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2021 年第2 期。

        ?于水、查榮林、帖明:《元治理視域下政府治道邏輯與治理能力提升》,《江蘇社會(huì)科學(xué)》 2014 年第4 期。

        ?Gjaltema J,Biesbroek R,Termeer K,“From government to governance… to meta-governance:a systematic literature review”,Public Management Review,2020,22(12),pp.1760~1780.

        ?Kooiman J,Jentoft S,“Meta-governance:values,norms and principles,and the making of hard choices”,Public administration,2009,87(4),pp.818~836.

        猜你喜歡
        福祉倫理原則
        為兩岸同胞謀福祉
        《心之死》的趣味與倫理焦慮
        數(shù)字十年·民生福祉
        江蘇年鑒(2022年0期)2022-02-14 02:29:52
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        堅(jiān)守原則,逐浪前行
        建優(yōu)美生態(tài) 謀百姓福祉
        紅土地(2016年11期)2017-01-15 13:46:21
        創(chuàng)造健康紅利 增強(qiáng)人民福祉
        無罪推定原則的理解與完善
        醫(yī)改莫忘構(gòu)建倫理新機(jī)制
        婚姻家庭法的倫理性及其立法延展
        国产超碰人人做人人爽av大片 | 中文字幕人妻日韩精品| 中文字幕人妻伦伦| 欧洲熟妇色xxxx欧美老妇多毛网站| 综合色天天久久| 日本一区二区日韩在线| 洲色熟女图激情另类图区 | 亚洲欧洲日产国码高潮αv| 国产精品乱子伦一区二区三区| 视频一区精品中文字幕| 国产亚洲综合一区二区三区 | 最新亚洲人成网站在线| 国产成人激情视频在线观看| 中文字幕女优av在线| 日本丰满熟妇videossex8k| 欧美中文在线观看| 一本色道久久88综合亚洲精品| 国产在线观看自拍av| 99久久久无码国产精品6| 国产精品高潮无码毛片| 一级a免费高清免在线| 久久人人爽人人爽人人片av高请| 亚洲精品92内射| 东京热加勒比在线观看| 国产爽快片一区二区三区| 国产激情一区二区三区| 中文字幕亚洲乱码熟女在线萌芽| a√无码在线观看| 一区二区中文字幕在线观看污污| 中文字幕日韩精品一区二区三区| yeyecao亚洲性夜夜综合久久| 日韩精品极品视频在线免费| 国产精品久久久三级18| 国产美女自慰在线观看| 亚洲AV无码国产精品久久l| 91久久精品一区二区三区大全| 成年性生交大片免费看| 久热香蕉视频| 国产在线精彩自拍视频| 免费av一区二区三区| 亚洲国产精品sss在线观看av|