摘要:原則主義是當(dāng)前全球人工智能倫理研究和實(shí)踐推進(jìn)的主導(dǎo)性理論。原則主義是結(jié)合了道義論、后果論與美德倫理學(xué)等哲學(xué)理論的“價(jià)值規(guī)范組合”,回到某個(gè)單一經(jīng)典倫理立場(chǎng),既無法解決理論自洽問題,還會(huì)出現(xiàn)“極端化”或者僵化適用的問題。為應(yīng)對(duì)這些挑戰(zhàn),可對(duì)其作適應(yīng)性改造:運(yùn)用演化心理學(xué)的基礎(chǔ)道德理論來重構(gòu)公共道德理論,提升理論深刻性;采用行為機(jī)器學(xué)路徑方向的技術(shù)社會(huì)系統(tǒng)理論,對(duì)“反思平衡機(jī)制”進(jìn)行改造,解決因價(jià)值規(guī)范面對(duì)技術(shù)變革能力不足的僵化問題。基于原則主義與法學(xué)在方法與思路上具有高度相似性,法學(xué)與應(yīng)用倫理學(xué)可無縫融合,通過倫理原則的“法化”來提升人工智能倫理制度可操作性。
關(guān)鍵詞:人工智能倫理;原則主義;社會(huì)系統(tǒng)理論;人工智能法
中圖分類號(hào):D90;B82" " 文獻(xiàn)標(biāo)志碼:A" " 文章編號(hào):1001-862X(2024)05-0139-009
本刊網(wǎng)址·在線雜志:www.jhlt.net.cn
*基金項(xiàng)目:國(guó)家社會(huì)科學(xué)基金重點(diǎn)項(xiàng)目“支持全面創(chuàng)新的基礎(chǔ)法律制度研究”(22AFX003)
作者簡(jiǎn)介:李學(xué)堯(1977—),浙江瑞安人,上海交通大學(xué)凱原法學(xué)院教授、博士生導(dǎo)師,法律與認(rèn)知智能實(shí)驗(yàn)室主任,主要研究方向:法學(xué)理論、法律與科技創(chuàng)新。
近年來,人們關(guān)于人工智能倫理的討論重點(diǎn)已經(jīng)從尋求共識(shí)、凝練倫理原則轉(zhuǎn)向了相關(guān)原則規(guī)范的實(shí)踐化、技術(shù)化[1];在這個(gè)過程中,相關(guān)學(xué)術(shù)研討主要聚焦在對(duì)科技倫理中原則主義思路的反思、辯護(hù)和超越。(1)當(dāng)前,如何使得人工智能倫理原則“可確定、可預(yù)期和可操作”,不僅是一個(gè)實(shí)務(wù)性的應(yīng)用需求,還涉及科技創(chuàng)新工作中政府職責(zé)再厘定、營(yíng)商環(huán)境優(yōu)化以及新質(zhì)生產(chǎn)力促進(jìn)發(fā)展中的價(jià)值平衡等緊迫性課題。因此,有必要對(duì)其作超越應(yīng)用倫理學(xué)、生物醫(yī)學(xué)倫理學(xué)的跨學(xué)科對(duì)話和討論(2),以便更好地為相關(guān)立法和政策制定提供科學(xué)化的參考。
一、科技倫理學(xué)中的原則主義
研討人工智能原則的實(shí)踐化,無法回避生物醫(yī)藥倫理或者科技倫理的主流理論:原則主義理論。原則主義理論由湯姆·L·博尚普(Tom L. Beauchamp)和詹姆斯·F·柴德雷斯(James F. Childress)于1979年在《生物醫(yī)學(xué)倫理學(xué)原則》一書中提出。他們?cè)噲D通過對(duì)自主、行善(仁慈)、不傷害和公正這四個(gè)原則的提煉,建立一個(gè)超越文化和個(gè)人差異、普遍適用于生物醫(yī)學(xué)環(huán)境的共同道德框架。
原則主義的生物醫(yī)學(xué)倫理觀目前已經(jīng)被廣泛應(yīng)用于臨床倫理決策和相關(guān)的政策制定。世界各國(guó)醫(yī)療和相關(guān)領(lǐng)域的專業(yè)人員經(jīng)常使用這四個(gè)原則作為清單,以應(yīng)對(duì)如知情同意、臨終關(guān)懷和醫(yī)療資源分配等倫理困境問題。
博尚普和柴德雷斯所提出的倫理決策方法之所以被稱為“原則主義(Principlism)”,是他們的批評(píng)者克勞澤(K. Danner Clouser)和格特(Bernard Gert)在1990年發(fā)表的一篇批判論文中的稱呼,最初具有貶義內(nèi)涵,后來逐漸被接受為對(duì)一個(gè)學(xué)術(shù)流派的中立性指稱。克勞澤和格特以及其他學(xué)者對(duì)原則主義的批判可以概括為以下幾點(diǎn)。
一是,缺乏統(tǒng)一的道德理論基礎(chǔ)??藙跐珊透裉卣J(rèn)為,博尚普和柴德雷斯提出的基于四原則的倫理決策方法,無非就是盡可能通過清單方式,例舉一些相互存在沖突、邏輯關(guān)系難以界定的倫理原則。他們稱呼原則主義理論為沒有哲學(xué)深度的 “縫合怪”。[2]
二是,缺乏可操作性。批判者們認(rèn)為抽象的倫理原則難以直接轉(zhuǎn)化為具體的操作指南,原則主義的四項(xiàng)核心原則也無法作為行為指南來為實(shí)踐提供操作性指引,特別是復(fù)雜案例中,對(duì)于優(yōu)先考慮哪個(gè)原則提供的指導(dǎo)能力有限。原則主義設(shè)定的從“道德理論”到“原則”再到“規(guī)則”,最后落腳于“特殊的判斷和行動(dòng)”的道德推理方式會(huì)落入相對(duì)主義的陷阱之中。[3]
三是,成為事后合理化工具的嫌疑。與相對(duì)主義相關(guān)的是,各個(gè)原則背后都有自己獨(dú)立的理論邏輯(合法性來源),因此這些倫理原則混雜在一起來為倫理困境決策者提供指導(dǎo),最后的結(jié)果是:不管倫理困境中的人們?nèi)绾巫龀鰶Q策,他們都可以依據(jù)原則主義倫理原則使自己處于正確的地位。[3]
四是忽視情景和文化差異。原則主義不僅忽略具體應(yīng)用場(chǎng)景的特殊性,不能作為行為指引[3],而且,還無法反應(yīng)不同文化背景下對(duì)四項(xiàng)核心原則的差異性理解。與此相關(guān)的一系列批判觀點(diǎn)還包括原則主義是一種西方文化中心主義,甚至美國(guó)中心主義的理論。[4]
在克勞澤和格特等人的持續(xù)批判下,原則主義的理論也不斷演化,甚而在“原則主義”的批判性概念框架下逐漸體系化、哲理化。主要的修正性理論裝置有三。
一是,公共道德論(common morality)。原則主義的創(chuàng)始人博尚普對(duì)“公共道德”這一類似于“公共善”(common good)的概念進(jìn)行證立。他試圖超越義務(wù)論、結(jié)果論和美德倫理,將原則主義的四個(gè)原則表述為人類社會(huì)中普遍接受的道德規(guī)范。他認(rèn)為,公共道德是人類社會(huì)在長(zhǎng)期的道德演變過程中逐漸形成了某些廣泛認(rèn)可的道德原則;原則主義中的四項(xiàng)核心原則是公共道德的具體表達(dá),不僅是生物醫(yī)學(xué)倫理,也是人類其他領(lǐng)域道德決策的指導(dǎo)原則。[5]
二是,文化可適用性(cultural adaptability)和情景敏感性(contextual sensitivity)。一則,反對(duì)相對(duì)主義,強(qiáng)調(diào)倫理原則具有跨文化的適應(yīng)性,因而主張?jiān)卺t(yī)學(xué)倫理中應(yīng)堅(jiān)持某些普遍性的倫理原則。[6]基于公共道德論,這些原則是全球性的,超越宗教、文化和倫理學(xué)理論背景,體現(xiàn)在各種文化和法律體系中。[5]二則,可以進(jìn)一步增強(qiáng)倫理原則的靈活性,強(qiáng)調(diào)每個(gè)原則的應(yīng)用可能因不同文化背景而不同。[7]三則,承認(rèn)倫理決策過程中不同情境的多樣性。通過引入對(duì)具體情境的敏感性,原則主義變得更加靈活,允許對(duì)原則進(jìn)行動(dòng)態(tài)調(diào)整。[5]
三是,反思平衡機(jī)制(reflective equilibrium)。羅爾斯在《正義論》中的反思平衡機(jī)制理論主要思路是通過在道德直覺和道德原則之間的反復(fù)調(diào)整,尋找平衡點(diǎn)。原則主義將其改造成具體判斷、倫理原則和相互調(diào)整的三要素機(jī)制,來解決具體情境和倫理原則過于抽象化的問題。[5]
四是,實(shí)用性(practicality)面向和共識(shí)性決策(consensus-based decision-making)方法。為了應(yīng)對(duì)原則主義缺乏處理實(shí)際倫理爭(zhēng)議的指導(dǎo)力的批判,原則主義的回應(yīng)思路是與具體的倫理案例相結(jié)合,強(qiáng)調(diào)在處理醫(yī)療倫理、法律倫理、公共政策等領(lǐng)域的問題時(shí),原則必須通過具體的情境分析來加以適用。通過具體案例的分析,原則主義被應(yīng)用于更廣泛的實(shí)際問題中,具有了更強(qiáng)的操作性。[5]與此相關(guān)的是共識(shí)性決策方法,其旨在通過群體討論來形成對(duì)倫理問題的集體共識(shí),特別是在處理醫(yī)療倫理委員會(huì)或公共政策倫理問題時(shí),群體成員通過對(duì)倫理原則的共同反思達(dá)成一致。這一機(jī)制幫助原則主義從個(gè)體層面擴(kuò)展到了群體層面的倫理判斷。[8]
二、原則主義在人工智能倫理研究和政策制定中的主導(dǎo)地位
隨著人工智能倫理討論的興起,近年來,原則主義理論延續(xù)了生物醫(yī)學(xué)倫理對(duì)人工智能倫理的深刻影響,主導(dǎo)了人工智能倫理的理論研究和政策制定。人們的普遍思路是:借鑒生物醫(yī)學(xué)倫理的四項(xiàng)核心原則的方法論體系,將人工智能倫理的實(shí)質(zhì)性內(nèi)容概括為一系列原則,比如“增進(jìn)(人類)福祉、反偏私和公平、準(zhǔn)確性、透明度和參與性、可解釋性、保護(hù)隱私、可追責(zé)”的七原則說[9],或者“可信、安全和負(fù)責(zé)任人工智能”的三原則說[10],或者在生物醫(yī)學(xué)倫理四原則基礎(chǔ)上加上“可解釋性”的五原則說[11]等模式,試圖通過此種路徑建立一套指導(dǎo)人工智能發(fā)展和應(yīng)用的道德框架。具體表現(xiàn)如下。
一是,四項(xiàng)核心倫理原則與現(xiàn)有人工智能倫理原則的對(duì)稱性關(guān)系。很多同時(shí)研究生物醫(yī)學(xué)倫理和人工智能倫理的學(xué)者認(rèn)為,原則主義的四大倫理原則——尊重自主、行善、不傷害和正義——能夠跨越不同領(lǐng)域,適用于多種倫理情境,包括人工智能技術(shù)的開發(fā)、使用和監(jiān)管。由于人工智能的應(yīng)用范圍極其廣泛,從醫(yī)療、金融到公共服務(wù)等多個(gè)領(lǐng)域,公共道德性質(zhì)的四項(xiàng)核心原則能夠幫助這些領(lǐng)域的研究者和政策制定者采用一致的倫理框架。比如,在人工智能的應(yīng)用中,特別是在與個(gè)人數(shù)據(jù)處理相關(guān)的領(lǐng)域,尊重用戶的隱私權(quán)和選擇權(quán)成為關(guān)鍵問題。人工智能的自動(dòng)化決策可能侵犯?jìng)€(gè)人自主權(quán),原則主義的自主原則為這些問題提供了倫理框架,強(qiáng)調(diào)透明性和告知同意的重要性。又如,仁慈和不傷害原則能夠指導(dǎo)人工智能設(shè)計(jì)時(shí)必須確保技術(shù)造福人類并避免造成傷害,特別是在涉及醫(yī)療和公共安全的人工智能應(yīng)用中。此外,正義原則還能保障人工智能技術(shù)的公平使用,特別是在數(shù)據(jù)偏見、算法歧視和公平性問題上。該原則確保在設(shè)計(jì)和實(shí)施人工智能系統(tǒng)時(shí),考慮到社會(huì)各階層的公平受益,不讓技術(shù)發(fā)展加劇社會(huì)不平等。[12]
二是,各類倫理原則和準(zhǔn)則框架基本上依賴原則主義的理論框架。世界各國(guó)政府或者國(guó)際組織的各種人工智能倫理指南都有一個(gè)共同的目標(biāo):支持和改善人工智能的道德發(fā)展、設(shè)計(jì)和部署。這些表述的另一共同點(diǎn)是,它們都假設(shè)人工智能倫理提供了一個(gè)普遍的基礎(chǔ)——包括理論、原則、價(jià)值觀等——設(shè)計(jì)者可以將其應(yīng)用于個(gè)案,從而提高人工智能發(fā)展的倫理可持續(xù)性。
歐盟發(fā)布的人工智能倫理指南、美國(guó)政府發(fā)布的人工智能戰(zhàn)略文件中都反映了原則主義的影響。歐盟委員會(huì)指定的人工智能高級(jí)專家組在起草頒布?xì)W盟《人工智能法》時(shí),就較為明確地指明了它與原則主義理論的關(guān)系。[13]而美國(guó)發(fā)布的人工智能戰(zhàn)略文件中將“可信人工智能”解釋為公平、非歧視、透明、安全和有保障的人工智能,也被學(xué)術(shù)界視為是其重點(diǎn)在于確保人工智能發(fā)展遵循四項(xiàng)核心倫理原則。
三是,作為倫理決策方法在實(shí)務(wù)中的廣泛應(yīng)用:以自動(dòng)駕駛和人工智能醫(yī)療為例。自動(dòng)駕駛汽車技術(shù)的開發(fā)涉及安全性和自主權(quán)的沖突。原則主義為這種情境下的道德決策提供的指導(dǎo)是:既要保護(hù)乘客和行人的安全(不傷害原則),又要尊重使用者的自主權(quán)和自由(尊重自主原則)。這種靈活的框架允許多種因素的權(quán)衡,使得人工智能倫理問題的復(fù)雜性得以應(yīng)對(duì)。[14]基于行善原則,要求自動(dòng)駕駛系統(tǒng)的開發(fā)應(yīng)優(yōu)先考慮如何提升安全性和可靠性,最大限度地減少交通事故,尤其是通過改進(jìn)傳感器和決策算法。自動(dòng)駕駛公司在部署技術(shù)時(shí)應(yīng)關(guān)注社會(huì)福祉,例如通過共享交通數(shù)據(jù)來減少擁堵并提高交通效率。[15]正義原則還涉及如何處理人工智能系統(tǒng)中的算法偏見。正義原則要求開發(fā)者在設(shè)計(jì)自動(dòng)駕駛技術(shù)時(shí),確保算法的公平性,并避免基于種族、性別或其他社會(huì)因素的歧視。[16]
原則主義在人工智能醫(yī)療倫理研究中的應(yīng)用尤為明顯。人工智能在醫(yī)療領(lǐng)域的應(yīng)用涉及深刻的倫理問題,例如如何確保人工智能診斷工具符合醫(yī)療倫理標(biāo)準(zhǔn)。原則主義通過四項(xiàng)核心原則提供了一個(gè)全方位的框架,確保人工智能技術(shù)不僅對(duì)患者有利(行善),還不會(huì)帶來意外的傷害(不傷害),同時(shí)保障患者的隱私和知情同意(尊重自主)以及公平分配醫(yī)療資源(正義)。在人工智能診斷技術(shù)中,原則主義被用來評(píng)估技術(shù)應(yīng)用對(duì)患者的影響,指導(dǎo)人工智能醫(yī)療工具的設(shè)計(jì)和使用。特別是行善與不傷害的原則幫助研究者評(píng)估人工智能系統(tǒng)可能帶來的風(fēng)險(xiǎn),并確保這些系統(tǒng)真正有助于提升醫(yī)療服務(wù)質(zhì)量。[17]
在實(shí)際應(yīng)用中,人工智能技術(shù)的倫理挑戰(zhàn)往往涉及不同原則之間的沖突。例如,在開發(fā)具有自主性的人工智能時(shí),如何在確保自主權(quán)與保護(hù)社會(huì)安全和不傷害之間進(jìn)行平衡,是一個(gè)典型的倫理難題。原則主義的框架允許在不同情境中權(quán)衡和調(diào)和這些原則,這使得它成為制定人工智能倫理決策的重要工具。[18]
三、原則主義在人工智能倫理應(yīng)用中的困境
近年來,隨著原則主義的人工智能倫理觀在實(shí)踐中的不斷推進(jìn),特別是在歐盟的正式法律文本中,《可信人工智能倫理指南》(2019)和明確前述文件法律效力的《人工智能法》對(duì)原則主義思路的確認(rèn),在學(xué)理上延續(xù)了生物醫(yī)學(xué)倫理關(guān)于原則主義的相關(guān)批判,并根據(jù)人工智能倫理的理論場(chǎng)景作了一些加強(qiáng)型的批判論證。主要觀點(diǎn)可以概括為原則間沖突的權(quán)衡困難、抽象性導(dǎo)致的操作性不足、對(duì)技術(shù)復(fù)雜性的忽視、責(zé)任與權(quán)力分配的模糊性以及缺乏對(duì)全球性文化差異的考量??梢?,盡管原則主義為人工智能倫理提供了一個(gè)重要的分析框架,但它在應(yīng)對(duì)人工智能技術(shù)的復(fù)雜性和全球化挑戰(zhàn)方面仍然存在局限性。
一是,可操作性問題。醫(yī)學(xué)和人工智能發(fā)展之間存在重大差異,人工智能倫理的應(yīng)用場(chǎng)景更加多樣、倫理沖突的困境更加復(fù)雜,原則主義的思路很難轉(zhuǎn)化為技術(shù)路線。[17]人工智能倫理原則如“尊重自主”或“行善”雖然提供了高層次的指導(dǎo),但如何具體實(shí)施這些原則尚缺乏操作細(xì)節(jié)。例如,在數(shù)據(jù)隱私保護(hù)中,人工智能系統(tǒng)需要處理大量用戶數(shù)據(jù),但“尊重自主”該如何具體落實(shí)為技術(shù)措施,如數(shù)據(jù)處理協(xié)議或算法透明度,往往模糊不清。
在人工智能倫理領(lǐng)域,原則主義還常常面臨不同倫理原則之間的沖突,尤其是在尊重自主、行善、不傷害和正義之間的平衡上,原則間的沖突可能導(dǎo)致倫理原則無法有效指導(dǎo)實(shí)際決策。例如,開發(fā)人工智能的企業(yè)往往要在尊重隱私(自主權(quán))和提供更好的個(gè)性化服務(wù)(行善)之間做出權(quán)衡,而原則主義缺少詳細(xì)的權(quán)衡標(biāo)準(zhǔn),尤其是在復(fù)雜的技術(shù)應(yīng)用場(chǎng)景中。又如,自動(dòng)駕駛汽車的決策場(chǎng)景中,尊重用戶自主權(quán)和確保行人或乘客的安全(不傷害)之間可能存在矛盾。在實(shí)際應(yīng)用中,如何權(quán)衡這些原則缺乏明確的指導(dǎo)。[15]
二是,“倫理漂白(ethical whitewashing)”問題。主要的觀點(diǎn)就是認(rèn)為企業(yè)或者國(guó)家通過宣稱遵守高尚的倫理原則來掩蓋其實(shí)際行為中的倫理問題。其中,最大的批判對(duì)象是《可信人工智能倫理指南》(2019),批判觀點(diǎn)集中在兩個(gè)方面。一方面因?yàn)閭惱碓瓌t內(nèi)容的空洞性和模糊性,使得相關(guān)企業(yè)的實(shí)際行為無法被約束,所謂的“尊重人類尊嚴(yán)”或“促進(jìn)社會(huì)福利”可能在不同情境下有不同的解釋,容易被企業(yè)用于粉飾其有爭(zhēng)議的行為,用于正當(dāng)化不道德行為。[10]例如,強(qiáng)調(diào)“創(chuàng)新”或“效率”原則,來掩飾對(duì)隱私或公平的侵犯;批評(píng)者通過分析具體案例,如某些科技公司在人工智能應(yīng)用中存在的偏見和歧視問題,來說明原則主義如何被用于掩蓋實(shí)際的倫理缺陷。[19]另一方面通過公開宣稱遵守倫理原則,企業(yè)可能試圖轉(zhuǎn)移公眾對(duì)其不道德行為的關(guān)注,或者推遲更嚴(yán)格的法律監(jiān)管。這被視為一種策略,以維持現(xiàn)有的商業(yè)模式,而不做出實(shí)質(zhì)性的改變。[20]
三是,忽視了人工智能系統(tǒng)所依賴技術(shù)的復(fù)雜性。批判者認(rèn)為,原則主義在處理高度復(fù)雜的人工智能技術(shù)問題時(shí),容易忽視技術(shù)本身的復(fù)雜性。例如,人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)往往來自于人類行為數(shù)據(jù),這些數(shù)據(jù)本身可能存在偏見,導(dǎo)致人工智能系統(tǒng)產(chǎn)生不公正的決策。原則主義中關(guān)于“正義”的抽象指導(dǎo)難以應(yīng)對(duì)如何具體消除算法偏見這一技術(shù)問題。此外,人工智能系統(tǒng)的“黑箱”特性,即決策過程的復(fù)雜性和不透明性,給倫理監(jiān)督帶來了巨大的挑戰(zhàn),而原則主義在這些問題上的指導(dǎo)顯得無力。[21]
四是,缺乏關(guān)于技術(shù)權(quán)力與責(zé)任關(guān)系的討論。原則主義框架內(nèi)對(duì)“責(zé)任”的討論通常圍繞個(gè)人或個(gè)體行為者進(jìn)行,較少涉及技術(shù)權(quán)力結(jié)構(gòu)的問題。隨著人工智能技術(shù)的廣泛應(yīng)用,人工智能開發(fā)者、使用者和管理者之間的責(zé)任劃分變得越來越復(fù)雜。例如,自動(dòng)駕駛汽車發(fā)生事故時(shí),誰應(yīng)對(duì)事故負(fù)責(zé)?是開發(fā)算法的程序員,使用車輛的個(gè)人,還是提供平臺(tái)的公司?原則主義缺乏對(duì)這些多方權(quán)力(利)關(guān)系的深入討論,使得它在處理技術(shù)應(yīng)用中權(quán)責(zé)分配的復(fù)雜問題時(shí)顯得不足。此外,人工智能技術(shù)的迅猛發(fā)展使得這些權(quán)力關(guān)系變得更加模糊和動(dòng)態(tài),傳統(tǒng)的倫理框架難以適應(yīng)。
與此相關(guān)的批判還集中于以下兩個(gè)方面。一方面是個(gè)人原子主義的問題。原則主義往往關(guān)注個(gè)體行為,而忽略了更廣泛的社會(huì)和結(jié)構(gòu)性問題,如權(quán)力失衡、系統(tǒng)性歧視和不平等。另一方面是原則主義理論框架缺乏多元化利益相關(guān)者參與機(jī)制的制度設(shè)計(jì)。僅由技術(shù)專家或企業(yè)高層制定的倫理原則,可能無法反映社會(huì)的多元價(jià)值和需求。缺乏受影響群體的參與,使得這些原則可能偏頗或不全面。
五是,全球性倫理挑戰(zhàn)與文化差異討論的不足。雖然原則主義辯護(hù)者認(rèn)為其倫理原則具有普遍適用性,但批判者認(rèn)為在全球不同文化和社會(huì)背景下,人工智能倫理問題的討論往往呈現(xiàn)出不同的價(jià)值取向,具有強(qiáng)烈的西方中心主義的色彩,原則主義沒有深入探討文化差異,在全球范圍的適用性上受到挑戰(zhàn)。例如,隱私權(quán)在西方文化中受到高度重視,而在一些亞洲國(guó)家,集體福祉可能被優(yōu)先考慮。如何在全球化的人工智能技術(shù)應(yīng)用中處理這些文化差異,是原則主義框架難以應(yīng)對(duì)的問題。[22]
四、超越之道:演化心理學(xué)與社會(huì)技術(shù)系統(tǒng)理論的改造思路
在上述批判性的批評(píng)觀點(diǎn)中,也隱含了批判者的解決思路。一是在實(shí)務(wù)化程度方面,應(yīng)采取更具體和可操作的措施。這包括制定明確的法規(guī)、建立獨(dú)立的監(jiān)督機(jī)構(gòu),以及促進(jìn)公眾和多元利益相關(guān)者的參與。二是應(yīng)重視強(qiáng)調(diào)社會(huì)正義和權(quán)力關(guān)系,倫理討論應(yīng)更關(guān)注社會(huì)正義和權(quán)力結(jié)構(gòu),質(zhì)疑誰在制定原則,誰受益,誰受損。這有助于揭示隱藏的利益沖突和不公平。三是倡導(dǎo)透明度和問責(zé)制,防止“倫理漂白”,確保企業(yè)的倫理承諾可以被外部審查和評(píng)估,并對(duì)違規(guī)行為追究責(zé)任。四是促進(jìn)利益相關(guān)方參與,采用風(fēng)險(xiǎn)評(píng)估以及為政策制定提供價(jià)值基礎(chǔ)等方式。原則主義具有開放性的理論屬性,需要我們對(duì)其插入類似于公共道德論、反思平衡機(jī)制的理論裝置。
原則主義本質(zhì)上是一種結(jié)合了道義論、后果論與美德倫理學(xué)等哲學(xué)理論的“價(jià)值規(guī)范組合”,回到某個(gè)單一經(jīng)典倫理立場(chǎng)(如道義論、后果論或美德倫理學(xué)),無法解決理論自洽問題,在可操作性方面會(huì)造成“極端化”或者僵化的現(xiàn)象,還無法具備原則主義周全性、共識(shí)性和靈活性的優(yōu)勢(shì)。為應(yīng)對(duì)這些批判和挑戰(zhàn),可對(duì)原則主義進(jìn)行適應(yīng)性改造。一方面,運(yùn)用演化心理學(xué)改造“公共道德論”,提升理論自洽性、深刻性和動(dòng)態(tài)化。另一方面,重點(diǎn)采用行為機(jī)器學(xué)意義上的社會(huì)技術(shù)系統(tǒng),將道德改革思路導(dǎo)入反思平衡機(jī)制中,解決因價(jià)值規(guī)范面對(duì)技術(shù)變革能力不足的僵化問題。
(一)增強(qiáng)融貫性:演化心理學(xué)視角下的“公共道德論”
公共道德論是一個(gè)將多樣的倫理學(xué)理論糅合在一起的理論概念,包含了美德倫理學(xué)、康德的義務(wù)論、效益主義、社會(huì)契約論和自然法等多個(gè)哲學(xué)傳統(tǒng)。
公共道德論可以追溯到亞里士多德的美德倫理學(xué),雖然它并不直接從美德倫理學(xué)發(fā)展而來,但強(qiáng)調(diào)共同倫理觀念符合美德倫理學(xué)中的“理性中道”思想。公共道德論吸收了康德義務(wù)論的部分要素,尤其是在“尊重自主”原則上。在公共道德論中,尊重個(gè)體的自主權(quán)是核心的倫理原則之一,這與康德強(qiáng)調(diào)人作為道德主體的尊嚴(yán)相一致。[23]行善和不傷害原則體現(xiàn)了效益主義的思想。行善原則要求行動(dòng)應(yīng)有助于他人的福祉,而不傷害原則則要求避免給他人帶來傷害,這些都可以與效益主義的倫理考量聯(lián)系起來,盡管公共道德論并沒有全面采納效益主義的全部主張。[24]
公共道德論的另一重要淵源可以追溯到自然法傳統(tǒng),尤其是托馬斯·阿奎那等人提出的自然法理論。自然法倫理學(xué)主張,有一些道德原則是基于人類理性的普遍性和自然秩序的必然性。這為公共道德論提供了理論支持,因?yàn)樗瑯又鲝埬承﹤惱順?biāo)準(zhǔn)是跨文化、跨歷史的普遍共識(shí)。[5]
由于原則主義的公共道德理論試圖調(diào)和各種哲學(xué)理論的對(duì)立性關(guān)系,因此,除非我們?cè)噲D在理論建構(gòu)上另起爐灶,否則,我們不可能退回到上述某個(gè)具體理論框架,比如回到純粹的道義論,或者純粹的義務(wù)論,或者純粹的美德倫理學(xué)進(jìn)行展開。因?yàn)?,它事?shí)上違背了原則主義“周全性”,在某些場(chǎng)景失去可適用性。但是,不可回避的是,它又因?yàn)榘_萬象而使得內(nèi)部關(guān)系很難調(diào)和,確實(shí)會(huì)容易陷入相對(duì)主義的倫理決策陷阱。那么,該如何有效解決這一問題呢?筆者的思路是將演化心理學(xué)中與公共道德類似的道德基礎(chǔ)理論(moral foundation theory)請(qǐng)進(jìn)來,對(duì)公共道德理論進(jìn)行改造,增強(qiáng)其理論統(tǒng)一性的同時(shí),夯實(shí)其應(yīng)對(duì)具體情景和社會(huì)變遷而變革的合法性規(guī)范基礎(chǔ)。
公共道德理論和道德心理學(xué)具有相似性:二者都探索了跨文化的普遍道德原則或基礎(chǔ),都承認(rèn)理性在道德推理中的重要作用,都試圖通過不同的方式來解釋和指導(dǎo)道德行為,都承認(rèn)情境在道德判斷中的重要性。因此,將兩者進(jìn)行融合,能夠具備明顯的優(yōu)勢(shì)。
一是,夯實(shí)了統(tǒng)一性規(guī)范基礎(chǔ)。道德心理學(xué),特別是喬納森·海特(Jonathan Haidt)的“道德基礎(chǔ)理論”,探討了人類如何通過進(jìn)化和社會(huì)化形成道德判斷。海特提出,人類具有一些基本的道德“基礎(chǔ)”,例如關(guān)懷、公平、忠誠(chéng)、權(quán)威和純潔,這些基礎(chǔ)是跨文化的普遍道德觀念的心理根基。盡管不同文化可能在具體表達(dá)上有所差異,這些道德基礎(chǔ)在全球范圍內(nèi)廣泛存在。與此同時(shí),這種理論也深入探討了跨文化視角下道德差異的演化機(jī)制。[25]
二是,對(duì)理性和經(jīng)驗(yàn)關(guān)系更加科學(xué)的動(dòng)態(tài)化闡述。在理性的概念之下,能夠?qū)π袨橹黧w的經(jīng)驗(yàn)進(jìn)行分類分級(jí),從而達(dá)到責(zé)任追究的科學(xué)化和可解釋性。原則主義認(rèn)為,公共道德規(guī)范是通過理性和經(jīng)驗(yàn)形成的,人們可以通過理性推理和社會(huì)實(shí)踐來理解并接受這些規(guī)范。雖然公共道德強(qiáng)調(diào)了規(guī)則的普遍性,但也允許在具體情境中靈活應(yīng)用這些規(guī)范,依靠個(gè)體的理性判斷來權(quán)衡。道德心理學(xué),特別是在勞倫斯·科爾伯格(Lawrence Kohlberg)發(fā)展出來的道德發(fā)展理論中,探討了人類道德推理的理性進(jìn)程??茽柌裾J(rèn)為,個(gè)體通過不同的發(fā)展階段,逐漸能夠理解和應(yīng)用更為復(fù)雜的道德原則,特別是在更高的道德發(fā)展階段,個(gè)體開始關(guān)注普遍的倫理原則,而非簡(jiǎn)單的規(guī)則遵循。這種思路能夠在邏輯上緩解原則主義的“相對(duì)主義”批判。[26]
三是,為具體道德決策提供可量化、可檢驗(yàn)的科學(xué)化技術(shù)工具。道德心理學(xué)對(duì)于道德行為心理機(jī)制的廣泛研究,可以為醫(yī)療倫理之外的所有人工智能應(yīng)用領(lǐng)域的復(fù)雜道德決策提供科學(xué)有效、可量化檢驗(yàn)的行為指導(dǎo)。公共道德理論的主要功能目標(biāo)是為復(fù)雜、沖突的技術(shù)道德決策提供有效的行為指導(dǎo),而在過去的四五十年中,道德心理學(xué)在研究道德決策的心理機(jī)制中積累了豐富的理論和實(shí)證基礎(chǔ)。比如,雙系統(tǒng)理論(dual-process theory)表明,道德決策結(jié)合了情感驅(qū)動(dòng)與理性分析的作用。如果將演化心理學(xué)導(dǎo)入公共道德理論,將大大提升公共道德理論可操作性、可技術(shù)化的程度,并且最終能夠通過人工智能技術(shù)以及生物醫(yī)學(xué)技術(shù)本身來對(duì)其進(jìn)行道德增強(qiáng)的應(yīng)用。[27]
(二)消除相對(duì)主義:從反思平衡機(jī)制到社會(huì)技術(shù)系統(tǒng)理論
在人工智能倫理制度構(gòu)建過程中,社會(huì)技術(shù)系統(tǒng)理論(social-technical systems theory,STS)是一種社會(huì)學(xué)家的理論方案,它源自對(duì)技術(shù)與社會(huì)的交互作用的研究,最早由社會(huì)學(xué)家Hughes 和 Bijker 等人提出。他們認(rèn)為技術(shù)系統(tǒng)不僅僅是技術(shù)問題,技術(shù)的發(fā)展和應(yīng)用與社會(huì)結(jié)構(gòu)、文化、經(jīng)濟(jì)、政治等多種因素緊密相關(guān)。社會(huì)技術(shù)系統(tǒng)理論特別關(guān)注技術(shù)系統(tǒng)在復(fù)雜社會(huì)背景下如何塑造人類行為、重構(gòu)權(quán)力關(guān)系以及對(duì)社會(huì)的影響。在人工智能倫理中,社會(huì)技術(shù)系統(tǒng)理論強(qiáng)調(diào),人工智能技術(shù)不僅是一種工具,它嵌入并影響了整個(gè)社會(huì)技術(shù)系統(tǒng)的運(yùn)作。社會(huì)技術(shù)系統(tǒng)理論的主要思路是,通過技術(shù)設(shè)計(jì)和政策干預(yù)來解決這些倫理問題。例如,在人工智能的倫理問題中,社會(huì)技術(shù)系統(tǒng)理論會(huì)考慮人工智能對(duì)隱私、權(quán)力分配、就業(yè)等方面的影響,認(rèn)為要解決這些問題需要多方的參與和制度設(shè)計(jì)。[28]
社會(huì)技術(shù)系統(tǒng)理論可以通過其系統(tǒng)性和多維度的社會(huì)分析視角,為反思平衡機(jī)制提供改進(jìn)的思路,使其更適應(yīng)技術(shù)驅(qū)動(dòng)社會(huì)中復(fù)雜倫理問題的處理。在此過程中,社會(huì)技術(shù)系統(tǒng)理論對(duì)社會(huì)、技術(shù)、政策、文化等多元因素的考量,可以擴(kuò)展反思平衡機(jī)制的分析范圍,特別是在處理人工智能和其他復(fù)雜技術(shù)系統(tǒng)時(shí)。具體改造的思路和優(yōu)勢(shì)表現(xiàn)在通過引入社會(huì)技術(shù)系統(tǒng)理論,使反思平衡機(jī)制更適應(yīng)技術(shù)復(fù)雜性和社會(huì)系統(tǒng)性的倫理問題,反思平衡機(jī)制通過擴(kuò)展倫理考量要素范圍、多方參與的共同反思機(jī)制、技術(shù)運(yùn)用預(yù)防性反思機(jī)制等,運(yùn)用長(zhǎng)期社會(huì)影響分析視角、跨文化視角來調(diào)整道德直覺和原則。
一是,擴(kuò)展反思平衡機(jī)制的范圍:用技術(shù)嵌入的方式來建構(gòu)道德反思機(jī)制。傳統(tǒng)反思平衡機(jī)制專注于個(gè)體或小規(guī)模群體的道德直覺與道德原則之間的協(xié)調(diào)。然而,面對(duì)復(fù)雜的技術(shù)社會(huì),如人工智能、自動(dòng)化系統(tǒng)等,其可能無法有效應(yīng)對(duì)技術(shù)所帶來的廣泛系統(tǒng)性影響。通過引入社會(huì)技術(shù)系統(tǒng)理論,可以擴(kuò)展反思平衡的范圍,將技術(shù)對(duì)社會(huì)的宏觀影響納入道德反思之中。通過社會(huì)技術(shù)系統(tǒng)的改進(jìn),反思平衡機(jī)制不再僅僅是通過個(gè)體或群體的道德直覺來調(diào)整倫理判斷,而是通過分析技術(shù)如何影響整個(gè)社會(huì)(例如,技術(shù)對(duì)就業(yè)、隱私、權(quán)力分布等的系統(tǒng)性影響),來重新調(diào)整這些直覺和原則。技術(shù)不再是外在變量,而是與社會(huì)相互嵌入的因素,需要一并納入倫理判斷。[27]
二是,從個(gè)體化決策到系統(tǒng)性決策:實(shí)現(xiàn)多方利益相關(guān)者的平衡。傳統(tǒng)反思平衡機(jī)制更適用于個(gè)體或小團(tuán)體的決策,在處理個(gè)人或醫(yī)生與患者的倫理決策時(shí)發(fā)揮作用。然而,社會(huì)技術(shù)系統(tǒng)理論強(qiáng)調(diào)技術(shù)問題的多方利益相關(guān)者的復(fù)雜性,如在人工智能領(lǐng)域,涉及技術(shù)開發(fā)者、使用者、政策制定者、被影響的社會(huì)群體等多個(gè)利益相關(guān)方。通過引入社會(huì)技術(shù)系統(tǒng)理論,反思平衡機(jī)制可以從單一主體的反思擴(kuò)展到多方利益相關(guān)者的反思過程。每一方都可以在這個(gè)平衡機(jī)制中表達(dá)其利益、關(guān)切和道德直覺,并通過不同技術(shù)影響的考量進(jìn)行權(quán)衡。此方式特別適用于需要跨多個(gè)社會(huì)層面(例如,政策制定、技術(shù)設(shè)計(jì)、社會(huì)影響)協(xié)調(diào)的復(fù)雜技術(shù)倫理決策。[29]
三是,引入社會(huì)動(dòng)態(tài):反思技術(shù)對(duì)社會(huì)結(jié)構(gòu)的長(zhǎng)期影響。反思平衡機(jī)制通常是基于短期倫理決策,強(qiáng)調(diào)在當(dāng)前情境中的道德權(quán)衡。然而,技術(shù)的發(fā)展往往伴隨著長(zhǎng)期的社會(huì)結(jié)構(gòu)變化,社會(huì)技術(shù)系統(tǒng)理論則能夠評(píng)估技術(shù)對(duì)社會(huì)結(jié)構(gòu)、權(quán)力關(guān)系、文化規(guī)范等方面的深遠(yuǎn)影響。通過引入社會(huì)技術(shù)系統(tǒng)理論,反思平衡機(jī)制可以納入對(duì)技術(shù)的長(zhǎng)期影響分析,考慮技術(shù)在未來如何重構(gòu)社會(huì),改變權(quán)力關(guān)系和文化規(guī)范。例如,人工智能在長(zhǎng)期內(nèi)如何影響就業(yè)市場(chǎng)、政治決策或人類自主性等。這使得反思平衡不僅局限于當(dāng)前情境的直覺與原則的調(diào)整,還擴(kuò)展到對(duì)未來社會(huì)技術(shù)動(dòng)態(tài)的預(yù)見和考量。[8]
四是,增強(qiáng)跨文化的道德反思:社會(huì)技術(shù)系統(tǒng)與文化背景的融合。傳統(tǒng)反思平衡機(jī)制多基于普遍性的道德原則,如尊重自主、行善、不傷害和正義,而往往沒有充分考慮技術(shù)在不同文化背景中的不同影響。社會(huì)技術(shù)系統(tǒng)理論強(qiáng)調(diào)技術(shù)的應(yīng)用在不同文化、經(jīng)濟(jì)、政治環(huán)境下會(huì)產(chǎn)生不同的倫理問題。通過社會(huì)技術(shù)系統(tǒng)理論的視角,反思平衡機(jī)制可以在不同文化和社會(huì)背景中進(jìn)行更加細(xì)致的平衡調(diào)整。例如,在不同文化中,技術(shù)的影響可能涉及不同的道德價(jià)值(如隱私、權(quán)威、群體合作等),反思平衡機(jī)制通過結(jié)合這些背景,能夠更好地調(diào)整和應(yīng)用道德原則,以適應(yīng)全球不同背景的倫理決策。[27]
五是,結(jié)合技術(shù)設(shè)計(jì)的倫理思維:預(yù)防性反思機(jī)制。反思平衡機(jī)制多用于事后反思,即當(dāng)倫理沖突發(fā)生時(shí)進(jìn)行調(diào)整。而社會(huì)技術(shù)系統(tǒng)理論可在技術(shù)設(shè)計(jì)的早期進(jìn)行預(yù)防性反思,通過提前預(yù)測(cè)技術(shù)的社會(huì)影響,減少潛在的倫理沖突。結(jié)合社會(huì)技術(shù)系統(tǒng)理論,反思平衡機(jī)制可以在技術(shù)設(shè)計(jì)和實(shí)施階段引入倫理預(yù)見(ethical foresight),在技術(shù)開發(fā)的早期階段通過反思平衡調(diào)整技術(shù)設(shè)計(jì),以避免技術(shù)對(duì)社會(huì)帶來負(fù)面影響。這可以通過增加技術(shù)倫理評(píng)估工具或倫理委員會(huì)在技術(shù)設(shè)計(jì)階段來實(shí)現(xiàn)。[28]
當(dāng)然,社會(huì)技術(shù)系統(tǒng)理論仍是一個(gè)不斷發(fā)展的理論體系,內(nèi)部也存在諸多類似于技術(shù)決定論和社會(huì)結(jié)構(gòu)論、技術(shù)專家主導(dǎo)和用戶廣泛參與、靜態(tài)系統(tǒng)和動(dòng)態(tài)系統(tǒng)、人類中心與技術(shù)中心等二元化的紛爭(zhēng)。這既反映了技術(shù)與社會(huì)互動(dòng)中的復(fù)雜性和多樣性,也說明如果把握不好,其還會(huì)增加原則主義的相對(duì)化程度。筆者的思路是,要回到機(jī)器行為學(xué)、機(jī)器心理學(xué)和復(fù)雜適用系統(tǒng)理論,通過理論簡(jiǎn)化回到“可計(jì)算化”的技術(shù)本身,來處理技術(shù)的自主性、社會(huì)影響以及人類與技術(shù)協(xié)作的相關(guān)問題。(3)
結(jié)語:法律理論應(yīng)用的可能性
演化心理學(xué)和技術(shù)社會(huì)系統(tǒng)理論本質(zhì)上是一種“抽象性理論”,如何將理論轉(zhuǎn)化為行為指南,從而解決人工智能倫理制度的可操作性問題呢?這是基于“法化”過程中的人工智能倫理的實(shí)操性需求所引發(fā)的思考。從思考“如何開展人工智能倫理的立法工作”[30]、“如何開展人工智能倫理的審查工作”[31],到剖析原則主義的理論論辯,最后,需要綜合借鑒各種理論對(duì)原則主義理論框架進(jìn)行理論改造,以通過理論自洽性、可演化性來提升原則主義的可操作性。這一改造的最終目的,是為了能夠在有關(guān)人工智能倫理法的專門立法或者章節(jié)性立法(比如《人工智能法》中的一個(gè)部分)的文本中展開周全性、科學(xué)性、有效面向守法和司法實(shí)踐的條款擬制,以及科學(xué)設(shè)計(jì)一個(gè)能夠注重價(jià)值權(quán)衡過程的倫理審查制度。
在這里,可以通過對(duì)應(yīng)用倫理學(xué)中的原則主義(四項(xiàng)核心原則)與法學(xué)中的比例原則的比較,來展開解釋上述研究思路的可行性(運(yùn)用法學(xué)的思考路徑和方法來討論科技倫理)。這兩個(gè)產(chǎn)生于20世紀(jì)70年代風(fēng)險(xiǎn)社會(huì)之后的決策指引方法——一個(gè)主要面向生物醫(yī)學(xué)倫理難題的決策者、一個(gè)主要面向司法決策或者執(zhí)法決策難題的決策者,具有高度的相似性。(4)因?yàn)檫@種相似性,可以發(fā)現(xiàn),在人工智能倫理的研究和實(shí)務(wù)操作中,完全可以將應(yīng)用倫理學(xué)與法學(xué)進(jìn)行無縫融合的交叉研究的可能性。
更重要的是,不管原則主義如何演化,它都沒有改變一個(gè)特征,即它屬于“自上而下”的規(guī)范性方法,它的方法論本質(zhì)有點(diǎn)類似于法學(xué)中的“比例原則”:從基于道義論為主的基本權(quán)利出發(fā),在實(shí)務(wù)操作中為了適應(yīng)風(fēng)險(xiǎn)社會(huì)紛繁復(fù)雜的場(chǎng)景,導(dǎo)入了諸多功利主義的方法和規(guī)范,比如必要性原則、成本收益(適當(dāng))原則、均衡性原則,等等。但是對(duì)于何時(shí)適用哪個(gè)子原則、子規(guī)則,完全依賴于具體司法判例中的情景進(jìn)行判斷。也正因如此,比例原則的研究必須借助于各種各樣邏輯上難以被體系化的具體司法案例的匯編。這與原則主義注重倫理審查和決策的案例性指導(dǎo)有著異曲同工之處。而事實(shí)上,在法學(xué)內(nèi)部,在法律適用或者法律實(shí)踐中占據(jù)主流的分析實(shí)證主義法學(xué)就試圖運(yùn)用比例原則等裝置來緩和“過于自由裁量”的法律原則和“可能導(dǎo)致僵化”的法律規(guī)則之間的矛盾。[32]
注釋:
(1)最近幾年,國(guó)內(nèi)不斷發(fā)表實(shí)質(zhì)性介入原則主義理論討論的論文。參見白惠仁:《科技倫理中的原則主義》,載于《道德與文明》2023年第6期;陳化:《原則主義的理論進(jìn)路、倫理爭(zhēng)論及其啟示》,載于《醫(yī)學(xué)和哲學(xué)》2023年第6期,等等。
(2)法學(xué)界的類似研究可參見Ramak Molavi Vasse’ I,The Ethical Guidelines for Turstworthy AI- A Procrastination of Effective Law Enforcement,Journal of Computer Law Review,vol.5,2019,pp.128-136; 張兆翔、張吉豫、譚鐵牛:《人工智能倫理問題的現(xiàn)狀分析與對(duì)策》,《中國(guó)科學(xué)院院刊》2021年第11期。在張吉豫等人文章中,他們所指稱的“對(duì)立理論”,在某種意義上就是原則主義。
(3)最新研究可參見Thilo Hagendorff,Machine Psychology: Investigating Emergent Capabilities and Behavior in Large Language Models Using Psychological Methods,https://arxiv.org/abs/2303.13988,最后訪問時(shí)間2024年10月1日。
(4)在比例原則的法學(xué)研究中,關(guān)于類似于原則主義四項(xiàng)核心原則內(nèi)部關(guān)系秩序建構(gòu)以增進(jìn)可操作性的討論,可以參見蔣紅珍:《比例原則位階秩序的司法適用》,《法學(xué)研究》2020年第4期。
參考文獻(xiàn):
[1]李學(xué)堯.人工智能倫理的法律性質(zhì)[J].中外法學(xué),2024(4):884-898.
[2]范瑞平,等.倫理原則主義:不同的觀點(diǎn)[J].中國(guó)醫(yī)學(xué)倫理學(xué),2019(6):591-601.
[3]Clouser, K.D., Gert, B. A Critique of Principlism[J].The Journal of Medicine and Philosophy,1990(2):219-236.
[4]Callahan, D. Principlism and Communitarianism[J].Journal of Medical Ethics,2003(5):287-291.
[5]James Childress.倫理原則主義:丘卓斯的回答[J]. 謝文野,孫思涵,白劼,譯.范瑞平,校.中國(guó)醫(yī)學(xué)倫理學(xué),2019(4):421-428.
[6]Macklin, R., Against Relativism: Cultural Diversity and the Search for Ethical Universals in Medicine [M]. Oxford University Press,1999:1-28.
[7]Gordon,D. R. Tenacious Assumptions in Western Medicine[M]. In Understanding and Applying Medical Anthropology , McGraw-Hill,2011:52.
[8] Davis R. B., The Principlism Debate: A Critical Overview [J]. The Journal of Medicine and Philosophy,1995(1):85-105.
[9]Floridi, L., Cowls, J. A Unified Framework of Five Principles for AI in Society [EB/OL].(2019).doi:10.1162/99608f92.8cd550d1.
[10]孫偉平,李揚(yáng).論人工智能發(fā)展的倫理原則[J].哲學(xué)分析,2022(1):3-14,196.
[11]Floridi, L. Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical[J].Philosophy & Technology,2019,32(2):185-193.
[12]Jobin, A., Ienca, M., Vayena, E. The Global Landscape of AI Ethics Guidelines[J]. Nature Machine Intelligence,2019(9):389-399.
[13]European Commission Ethics Guidelines for Trustworthy AI[EB/OL].(2019).https://ec.europa.eu/digital-strategy/news-redirect/62405.
[14]Gurney, J. K.Crashing into the Unknown: An Examination of Crash-optimization Algorithms Through the two Lanes of Ethics and Law[J].Albany Law Review,2016(1):183-267.
[15]Goodall, N.J. Machine Ethics and Automated Vehicles. In Road Vehicle Automation[M]. Springer,Cham,2014:93-102.
[16]Binns, R. Fairness in Machine Learning: Lessons from Political Philosophy[C].Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency,2018:149-159.
[17]汪琛.醫(yī)療人工智能的原則主義審思及治理探析[J].中國(guó)醫(yī)學(xué)倫理學(xué),2024(9):1052-1060.
[18]Lin, P. Why Ethics Matters for Autonomous Cars. In Maurer, M., Gerdes, J. C., Lenz B., Winner,H. (Eds.),Autonomes Fahren [M].Springer Vieweg,2015:69.
[19]Mittelstadt, B. Principles Alone Cannot Guarantee Ethical AI[J].Nature Machine Intelligence,2019(11):501-507.
[20]Wagner,B. Ethics as an Escape from Regulation: From “Ethics-Washing” to Ethics-Shopping? In: Being Profiled: Cogitas Ergo Sun [M]. Amsterdam University Press,2018:84-89.
[21]O’ Neil,C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy[M].Crown Publishing Group,2016:13.
[22]Dignum,V. Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way[M].Springer,2019:4.
[23]Davis R. B., The Principlism Debate: A Critical Overview [J]. The Journal of Medicine and Philosophy,1995(1):85-105.
[24]Clouser, K. D., Gert, B. A Critique of Principlism [J]. The Journal of Medicine and Philosophy,1990(2):219-236.
[25]Haidt ,J. The Righteous Mind: Why Good People are Divided by Politics and Religion[M].Pantheon,2012:1.
[26]Kohlberg, Lawrence; Hersh, Richard H. Moral development: A review of the theory[J]. Theory into Practice. 1977 (2): 53-59.
[27]Greene, J.D. Moral Tribes: Emotion,Reason,and the Gap Between Us and Them[M].Penguin Press,2013:289.
[28]Floridi, L., Strait, A. Ethical Foresight Analysis: What it is and Why it is Needed?[J]. Minds & Machines, 2020(30):77-97.
[29]Johnson, D. G.,amp; Powers, T. M. Computer Systems and Responsibility: A Normative look at Technological Complexity[J].Ethics and Information Technology,2005(2):99-107.
[30]楊建軍. 可信人工智能發(fā)展與法律制度的構(gòu)建[J].社會(huì)科學(xué)文摘, 2024(9):112-114.
[31]宋華琳.法治視野下的人工智能倫理規(guī)范建構(gòu).數(shù)字法治,2023(6):1-9.
[32]陳景輝.原則、自由裁量與依法裁判[J].法學(xué)研究,2006(5):121-137.
(責(zé)任編輯 吳 楠)