□ 文 陳 鵬 秦登峰
近年來隨著大數(shù)據(jù)技術(shù)的快速發(fā)展,我們正在進(jìn)入“算法時(shí)代”。政府的行政活動(dòng)甚至法律的執(zhí)行也越來越依賴于算法。在行政活動(dòng)中部署自動(dòng)化決策的算法不僅使行政活動(dòng)更有效率,而且更加準(zhǔn)確和公平。從社會(huì)福利事業(yè)、刑事司法到醫(yī)療系統(tǒng)完善、國家安全等等,利用算法來實(shí)現(xiàn)自動(dòng)化行政決策的領(lǐng)域不斷擴(kuò)展。算法決策過程的不透明和難以捉摸的制度往往不像法律制度中的其他公共行為者那樣受到同樣的問責(zé)或監(jiān)督機(jī)制的制約,這就提出了它們是否符合行政法基本原則的問題,是否影響法治價(jià)值觀,以及這些系統(tǒng)的實(shí)施和監(jiān)督在實(shí)踐中可能帶來的法律和實(shí)際問題。
算法自動(dòng)化系統(tǒng)在政府行政活動(dòng)中有著豐富的應(yīng)用,在這些不同的決策環(huán)境中,決策自動(dòng)化程度可能會(huì)隨著決策范圍的不同而變化,從所謂的“決策輔助”到“決策判斷”。算法自動(dòng)化決策不可避免地涉及到不同的計(jì)算機(jī)編程技術(shù)以及它們的技術(shù)組合。其中運(yùn)作機(jī)理可以分為兩個(gè)發(fā)展階段。第一個(gè)階段被稱為人工智能(AI)階段,這是一個(gè)遵循一系列預(yù)處理操作的過程,其實(shí)質(zhì)是程序化規(guī)則的過程,用以反映人類在特定條件下以及特定領(lǐng)域中的反應(yīng)。第二個(gè)階段是指利用機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等技術(shù)從收集或構(gòu)建的數(shù)據(jù)中“學(xué)習(xí)”,以對(duì)新情況作出推論的階段,這些推論可能是分類或預(yù)測(cè)。
行政機(jī)關(guān)借助此類算法開展行政活動(dòng),一方面技術(shù)優(yōu)勢(shì)可減輕工作負(fù)擔(dān)和提高行政效率,另一方面技術(shù)為行政活動(dòng)流程的再造提供了可能。政府部門負(fù)責(zé)就一系列直接影響個(gè)人和企業(yè)利益的問題作出決策。這些通常包括有關(guān)社會(huì)福利權(quán)利、稅務(wù)責(zé)任、企業(yè)經(jīng)營(yíng)許可證以及環(huán)境和規(guī)劃法規(guī)的決定。在這些領(lǐng)域,政府決策的主題和法律決策有很大的不同,但它們的共同點(diǎn)是它們都涉及政府將法律適用于一組特定的事實(shí)行為。算法和機(jī)器學(xué)習(xí)工具也越來越多地被用于在社會(huì)安全和執(zhí)法方面進(jìn)行行政自動(dòng)化決策。算法和機(jī)器學(xué)習(xí)工具通常用于幫助分析員和決策者理解他們可獲得的大量監(jiān)控?cái)?shù)據(jù)。
在考慮算法自動(dòng)化影響行政法治的方式時(shí),在實(shí)踐中實(shí)現(xiàn)這一目標(biāo),通常需要尋找一個(gè)更具體的標(biāo)準(zhǔn)清單。
算法自動(dòng)化對(duì)基本公法原則和價(jià)值觀構(gòu)成的核心挑戰(zhàn)。在考慮算法自動(dòng)化影響行政法治的方式時(shí),在實(shí)踐中實(shí)現(xiàn)這一目標(biāo),通常需要尋找一個(gè)更具體的標(biāo)準(zhǔn)清單。法治要求政府行為透明、負(fù)責(zé)任,法律面前人人平等。本節(jié)詳述政府決策的自動(dòng)化如何影響行政法治的具體內(nèi)容。
自動(dòng)化給透明度和問責(zé)制帶來了重大挑戰(zhàn)。美國學(xué)者Burrell總結(jié)出算法機(jī)器學(xué)習(xí)的三種“不透明形式”的弊端。首先,當(dāng)算法被視為商業(yè)秘密或國家秘密時(shí),故意保密可能會(huì)妨礙透明度要求的實(shí)現(xiàn)。例如在我國國家企業(yè)信用信息公示系統(tǒng)中,芝麻信用系統(tǒng)的操作細(xì)節(jié)并不清楚。雖然眾所周知,它依賴于行為分析來計(jì)算信用評(píng)分,但個(gè)人無法知道他們的社交網(wǎng)絡(luò)聯(lián)系人使用了什么信息,也無法知道這些信息對(duì)他們分?jǐn)?shù)的確切影響。同樣擁有COMPAS等司法輔助工具的Northpointe公司也沒有公開披露其開發(fā)方法司法判決中使用的算法工具的具體內(nèi)容,因?yàn)樵摴菊J(rèn)為其算法是商業(yè)秘密。筆者認(rèn)為在決策涉及個(gè)人自由等高風(fēng)險(xiǎn)的情況下,開源軟件代碼應(yīng)該得到提倡。其次,技術(shù)鴻溝可能會(huì)對(duì)專家系統(tǒng)和機(jī)器學(xué)習(xí)的透明度和問責(zé)機(jī)制構(gòu)成進(jìn)一步的挑戰(zhàn),因?yàn)榧词古读怂惴ú僮鞯募?xì)節(jié)信息,也并不意味著大多數(shù)公眾將能夠從這些細(xì)節(jié)信息中提取有用的知識(shí)。此外,因?yàn)槿四X的推理與機(jī)器推理的機(jī)制不同,即使經(jīng)過適當(dāng)?shù)挠?xùn)練,政府部門也不能充分解釋數(shù)據(jù)和算法之間的相互作用。這表明隨著機(jī)器學(xué)習(xí)系統(tǒng)變得越來越復(fù)雜,對(duì)維護(hù)與保障法治實(shí)現(xiàn)至關(guān)重要的行政公開原則可能無法實(shí)現(xiàn)。
算法自動(dòng)化決策對(duì)政府行政正義能否實(shí)現(xiàn)的挑戰(zhàn)尤為突出。一般來說,政府機(jī)構(gòu)的行政決策受到行政法的約束。許多行政法原則是建立在以下假設(shè)之上的:決策是由人做出的,而不是由自動(dòng)化系統(tǒng),行政決策者被要求提供程序公平或正當(dāng)程序的證據(jù),以救濟(jì)因他們的決定而受到該決策不利影響的人,決策者通常也有義務(wù)為他們的決定提供理由說明陳述。因此,利用機(jī)器學(xué)習(xí)做出行政決定產(chǎn)生了行政正義實(shí)現(xiàn)與否的法律問題。第一,算法機(jī)器無法滿足行政法的正當(dāng)程序要求,程序正義法律原則適用不足使得算法自動(dòng)化對(duì)這些行政正義的基本理念提出了挑戰(zhàn)。第二,“行政決策”通常會(huì)涉及人類在通過公開行為表達(dá)結(jié)果之前得出結(jié)論的心理過程,這些系統(tǒng)依賴算法來處理應(yīng)用程序和做出決策。對(duì)于行政決定的法律概念不能是靜態(tài)的,技術(shù)已經(jīng)改變了決定實(shí)際上是如何作出的,并且決定的各個(gè)方面或全部可以獨(dú)立于人類的心理輸入而發(fā)生。第三,利用算法實(shí)現(xiàn)行政正義的最大障礙之一是行政活動(dòng)的規(guī)模和復(fù)雜性,以及運(yùn)作行政決策所需的時(shí)間和資源。算法自動(dòng)化過程通過提高行政決策的速度和降低成本,有可能打破或減少這些障礙。然而就目前的情況而言,任何這種自動(dòng)化不僅必須符合行政法原則,而且必須符合更基本的公法原則。如果自動(dòng)化決策繼續(xù)被視為與正義和公平的基本理念不符,它將受到挑戰(zhàn)和抵制,從而削弱它本來承諾的效率收益。第四,算法自動(dòng)化行政減少法律適用中的任意性、消除偏見和消除腐敗,但同樣可能具備常識(shí)性不易察覺的潛在歧視,進(jìn)而會(huì)損害行政參與主體的平等權(quán)利。
諸多實(shí)例證實(shí)借助算法來執(zhí)法是可行的。法律推理具有邏輯性,邏輯操作又可以由計(jì)算機(jī)自動(dòng)完成,那么把法律程序編寫程編碼程序的做法能提高執(zhí)法效率。如果采用這種做法,在斷案時(shí)只需輸入具體案件的相關(guān)事實(shí)。執(zhí)行相關(guān)法律規(guī)定,就可以得出“正確”的判決結(jié)果。隨著算法時(shí)代的發(fā)展,“法律規(guī)則”與“算法標(biāo)準(zhǔn)”的沖突不斷升級(jí)。從廣義上講,所有法律都分屬這兩個(gè)不同的陣營(yíng),或者法律體系的兩個(gè)極端。標(biāo)準(zhǔn)的主觀性意味著人們?cè)趫?zhí)行時(shí)需要仔細(xì)權(quán)衡,而規(guī)則是非此即彼的強(qiáng)制要求,幾乎沒有通融的可能性。與人不同,預(yù)先編程的系統(tǒng)不能無視它們被編程的規(guī)則。對(duì)于必須在現(xiàn)實(shí)生活中解決的情境問題,計(jì)算機(jī)的處理能力正在不斷提升。由于人們?cè)跀M定法律條文時(shí)往往會(huì)受到大腦中那些算法與軟件的影響,因此,隨著這類法律越來越多,人們?cè)谔幚矸上嚓P(guān)問題時(shí),對(duì)規(guī)則的依賴性也越來越大。不過,最根本的問題在于,盡管規(guī)則與標(biāo)準(zhǔn)是法律推理的彼此對(duì)立的兩個(gè)極端,但它們同時(shí)也是兩個(gè)抽象的概念。大多數(shù)規(guī)則都具有一定程度的“標(biāo)準(zhǔn)性”,而很多標(biāo)準(zhǔn)又具有這樣或那樣的“規(guī)則性”。盡管標(biāo)準(zhǔn)或許具有過多的主觀性,但為了實(shí)現(xiàn)更廣泛的社會(huì)目標(biāo),規(guī)則也會(huì)由于缺少靈活性而存在不盡如人意的地方。
算法缺乏透明度是算法影響現(xiàn)有行政法治的核心原因。
算法行政的關(guān)鍵主體是人。以人為本的設(shè)計(jì)是一種設(shè)計(jì)和管理框架,它通過將人的主體角色納入問題解決過程的各個(gè)階段來開發(fā)問題的解決方案。在政府環(huán)境下開發(fā)和部署算法時(shí),以人為中心的設(shè)計(jì)應(yīng)牢記三個(gè)關(guān)鍵治理領(lǐng)域:?jiǎn)蝹€(gè)層面的數(shù)據(jù)和算法、基于數(shù)據(jù)聚合開發(fā)的數(shù)據(jù)和算法以及協(xié)調(diào)不同利益相關(guān)者的影響。
算法行政的最終目的是更好地為人服務(wù)。一旦一個(gè)算法對(duì)人類生活產(chǎn)生重大影響,它有責(zé)任與那些將實(shí)施該算法的人進(jìn)行協(xié)調(diào),以確保那些了解倫理含義的人真正掌握并解決算法過程中存在的局限性。所有實(shí)際實(shí)現(xiàn)的算法都有一定的失敗率,重要的是那些對(duì)算法做出決策的人要知道這些算法是如何失敗的。以人為本的理念倡導(dǎo)將機(jī)器學(xué)習(xí)概念化為統(tǒng)計(jì)學(xué)的一個(gè)擴(kuò)展。大多數(shù)人至少知道一些有關(guān)如何解釋統(tǒng)計(jì)數(shù)據(jù)的信息,并理解他們給出的答案的局限性。因此,統(tǒng)計(jì)方法是我們利用現(xiàn)有數(shù)據(jù)得出可能結(jié)論的工具,這些結(jié)論受到所問問題的有用性和用于得出給定統(tǒng)計(jì)數(shù)據(jù)的限制。同樣的,當(dāng)我們將算法視為幫助我們根據(jù)先前數(shù)據(jù)做出決策的工具,告知我們的決策,而不是把它們的預(yù)測(cè)放在一個(gè)基座上并確保邏輯循環(huán)中的人總是從一個(gè)他或她意識(shí)到結(jié)論可能會(huì)受到質(zhì)疑的位置來運(yùn)作。
算法缺乏透明度是算法影響現(xiàn)有行政法治的核心原因。由于算法強(qiáng)調(diào)按部就班的程序,因此,法律編碼化應(yīng)該可以保證具體判決的跟蹤、審核、驗(yàn)證工作更加簡(jiǎn)單明了。從理論上講,算法可以詳細(xì)地描述應(yīng)用于每個(gè)小的決定之中的那些具體規(guī)則。但實(shí)際上,很多自動(dòng)化系統(tǒng)都是不透明的,這個(gè)特點(diǎn)意味著它們可以規(guī)避審查。對(duì)于算法問責(zé)體系的構(gòu)建,算法評(píng)估制度具有核心支柱功能。算法評(píng)估覆蓋算法運(yùn)行生命周期,使得問責(zé)點(diǎn)設(shè)置遍布平臺(tái)運(yùn)行事前、事中、事后,不同算法評(píng)估結(jié)果則可以對(duì)接不同算法的監(jiān)管強(qiáng)度。此類影響評(píng)估已經(jīng)在環(huán)境保護(hù)和隱私等廣泛的科學(xué)和政策領(lǐng)域得到實(shí)施。影響評(píng)估是一種工具,用于分析一項(xiàng)計(jì)劃的可能順序,以便就如何部署該計(jì)劃以及在何種條件下部署該計(jì)劃提供建議。影響評(píng)估的關(guān)鍵要點(diǎn)人工智能的部署是為了確保在整個(gè)部署過程中,從設(shè)計(jì)、實(shí)施、使用到調(diào)整監(jiān)控,考慮到利益相關(guān)者。影響評(píng)估不僅僅側(cè)重于使用的影響,而是側(cè)重于所有利益相關(guān)者的影響以及他們所處的社會(huì)。此外,不斷發(fā)展的技術(shù)加上不斷變化的社會(huì)、文化和政治背景,需要不斷考慮在政府環(huán)境中使用算法開展行政活動(dòng)。因此,必須允許利益相關(guān)者積極參與開發(fā)最新的治理方法。有了這些影響評(píng)估信息,所有利益相關(guān)者都可以考慮使用給定模型的適當(dāng)性。這樣的信息可以被不同的利益相關(guān)者用來考慮和質(zhì)疑在特定情況下模型或模型的各個(gè)方面的使用。
系統(tǒng)的設(shè)計(jì)僅考慮模型設(shè)計(jì)和決策是不夠的,必須考慮到最終用戶,包括考慮如何確保個(gè)人使用預(yù)測(cè),而不是盲目地跟隨預(yù)測(cè)。在這些情況下,設(shè)計(jì)師必須確保審計(jì)和人為審查的水平,不僅是利用人類決策者的預(yù)測(cè)。無數(shù)計(jì)算機(jī)編碼的背后都存在類似的問題。錯(cuò)誤的編碼導(dǎo)致法律條文被嚴(yán)重扭曲,其效果也發(fā)生了改變。應(yīng)在法律體系的整體框架下,審查和修改這些錯(cuò)誤。在通過一項(xiàng)新的政策法規(guī)之前,應(yīng)該聽取對(duì)此感興趣的人與政策制定者的意見,為他們留出時(shí)間,然后吸取這些意見,對(duì)新政策做出明確解釋,并對(duì)各種意見做出回應(yīng)。在經(jīng)過這些必要的程序之后,新政策才能獲準(zhǔn)通過。而上述問題的癥結(jié)在于其繞開了人們參與其中并提出專業(yè)意見的程序。因此,程序員們被賦予了過多的決策權(quán),而且不會(huì)受到任何審查。人類參與的決策是關(guān)鍵考慮因素,特別是因?yàn)樗鼈兣c政府行動(dòng)和預(yù)測(cè)算法的使用有關(guān)。如上所述,算法的盲目使用讓許多人擔(dān)心這些使用對(duì)個(gè)人和社會(huì)的影響。歐洲的數(shù)據(jù)保護(hù)已經(jīng)發(fā)布了這方面的指南。重要的是確保以下方面:人工評(píng)審員必須參與檢查系統(tǒng)的設(shè)計(jì),并且不應(yīng)“常規(guī)地”將自動(dòng)推薦應(yīng)用于個(gè)人;評(píng)審員的參與必須是積極的,而不僅僅是一種象征性的姿態(tài)。他們應(yīng)該對(duì)決策有實(shí)際的“惡意”影響,包括反對(duì)建議的“權(quán)威和能力”;評(píng)審員必須“權(quán)衡”和“解釋”建議,考慮所有可用的輸入數(shù)據(jù),并考慮其他額外因素。透明和堅(jiān)持審查、監(jiān)督和審計(jì)使用的各個(gè)方面是至關(guān)重要的。
透明和堅(jiān)持審查、監(jiān)督和審計(jì)使用的各個(gè)方面是至關(guān)重要的。
設(shè)計(jì)和部署人員應(yīng)當(dāng)承擔(dān)相應(yīng)的責(zé)任。當(dāng)算法機(jī)器學(xué)習(xí)總是在學(xué)習(xí),以至于今天的輸出看起來與明天的結(jié)果不一樣時(shí),誰來負(fù)責(zé)技術(shù)?設(shè)計(jì)和產(chǎn)品本身都使制造商承擔(dān)潛在的責(zé)任。然而與產(chǎn)品責(zé)任類似,那些創(chuàng)建和部署技術(shù)的人應(yīng)該預(yù)期到使用和更改,并且應(yīng)該對(duì)合理的預(yù)期使用和更改負(fù)責(zé)。在這些情況下,如果存在下列情形:未實(shí)施法規(guī)要求的保障措施或者合理的安全措施;違約行為發(fā)生后,未對(duì)損害進(jìn)行補(bǔ)救或者減輕損害的;當(dāng)實(shí)體未能根據(jù)國家的數(shù)據(jù)泄露通知法規(guī)及時(shí)通知受影響的個(gè)人時(shí),該實(shí)體可能要承擔(dān)責(zé)任。當(dāng)然,這些責(zé)任標(biāo)準(zhǔn)需要根據(jù)算法責(zé)任具體情況進(jìn)行調(diào)整。責(zé)任可以在下列情況下實(shí)施:該實(shí)體未能披露用于決策、推動(dòng)行為或以其他方式減少個(gè)人潛在選擇的算法的使用情況;部署算法的實(shí)體未能實(shí)施保障措施或合理的審計(jì)能力;實(shí)體未能補(bǔ)救或減輕在目標(biāo)受眾中部署算法時(shí)出現(xiàn)的負(fù)面影響;部署算法的實(shí)體未能通知用戶或受部署算法影響的用戶對(duì)目標(biāo)受眾造成負(fù)面影響。對(duì)現(xiàn)有法規(guī)進(jìn)行計(jì)算機(jī)編碼的過程還有可能導(dǎo)致其他問題。把這些政策法規(guī)轉(zhuǎn)變?yōu)樗惴ǖ碾y度高,實(shí)施者在問題考慮與解決方法兩個(gè)層面都簡(jiǎn)單易行的政策。如此發(fā)展下去,那些復(fù)雜的法規(guī)都將被過度簡(jiǎn)化,以提升法律事務(wù)自動(dòng)化的效果。因此,僅僅通過技術(shù)來治理是不夠的。
本文概述了政府在不同領(lǐng)域使用算法自動(dòng)化決策的初步分類。政府部門因決策自動(dòng)化而產(chǎn)生的大量問題和法律問題,包括其與法治等基本法律價(jià)值觀的潛在不相容性,以及在國家安全和執(zhí)法方面產(chǎn)生的具體問題。一方面,政府決策越來越自動(dòng)化,另一方面,公法的基本價(jià)值觀之間的緊張關(guān)系可能在未來升級(jí)。因此這兩者之間的復(fù)雜交叉點(diǎn)迫切需要調(diào)查分析,并在決策者,政府和公眾之間尋求共識(shí)。至關(guān)重要的是,還要對(duì)這些算法發(fā)展進(jìn)行監(jiān)管,使受政府算法自動(dòng)化決策影響的個(gè)人有機(jī)會(huì)獲得法律補(bǔ)救,促進(jìn)決策符合基本的法律價(jià)值觀和規(guī)范。