2007年,時任馬里蘭大學(xué)法學(xué)教授的希特倫提出了“技術(shù)性正當(dāng)程序”的概念,強(qiáng)調(diào)通過優(yōu)化計算機(jī)程序設(shè)計提高自動化決策系統(tǒng)的透明性和可問責(zé)性。此前,德國著名行政法學(xué)家毛雷爾教授在1999年就已經(jīng)提出,必須從法治國家的角度認(rèn)識和規(guī)范“專門的技術(shù)程序”。申言之,再復(fù)雜、高深的技術(shù)程序也不允許從法治國家的規(guī)范中逃逸,否則就會形成法治國家的“蟲洞”,最終造成法治國只剩下一個“合法性的空殼”。
排除偏見,確保算法的公開、透明和程序一致性。排除算法歧視的技術(shù),需要借助于算法的公開、透明,同時確保程序的一致性。
第二,說明理由,提高算法的可解釋性。算法的解釋方法因算法模型的不同而有較大差異。影響算法可解釋性的關(guān)鍵因素,除了算法的透明度(白箱模型或黑箱模型),還有算法結(jié)構(gòu)的復(fù)雜度。在具體的解釋方法上,需要根據(jù)具體情況靈活運(yùn)用或者綜合運(yùn)用預(yù)建模的解釋和建模后的解釋、全局解釋與局部解釋等方法。同時,提供審計跟蹤記錄以保證算法的可解釋性。
第三,聽取意見,包括允許質(zhì)疑、事后聽證、專業(yè)審計以及及時糾錯。其一,對自動化決策應(yīng)當(dāng)允許提出質(zhì)疑和挑戰(zhàn)。其二,自動化決策的適用場景只能采取事后聽證。這也意味著:自動化決策不能完全免除聽證,但聽證的形式可以變通。其三,在專業(yè)審計人員的協(xié)助下審查算法并及時糾錯。
技術(shù)的發(fā)展帶來治理模式的轉(zhuǎn)變,自動化行政方式下的行政處罰制度發(fā)展也出現(xiàn)了一定的變化性與不確定性。為了在這樣的變化中保護(hù)相對人的基本權(quán)利,需要構(gòu)建一定的程序底線,不管技術(shù)如何變化,相對人可以通過程序的保護(hù)來獲得應(yīng)有的公正。在自動化行政時代,正當(dāng)程序原則還將繼續(xù)發(fā)揮重要作用。
第一,提高透明度與可解釋性。自動化行政處罰中如果在程序、證據(jù)等方式中,使用了包含人工智能算法等在內(nèi)的新技術(shù),當(dāng)這種新技術(shù)對相對人權(quán)益產(chǎn)生重大影響時,應(yīng)當(dāng)對這種技術(shù)影響處罰決定的方式做出解釋,或者說,應(yīng)當(dāng)至少保有解釋的能力。第二,確保技術(shù)運(yùn)用中的形式公平。在行政處罰這樣的負(fù)擔(dān)行為中應(yīng)當(dāng)建立起一系列程序公平的具體要求,從而使得新技術(shù)平等地適用于每一個體以及程序的設(shè)計不會特別地不利于特定的人。第三,評估與認(rèn)證。可以通過專業(yè)機(jī)構(gòu)與專業(yè)人士對技術(shù)手段予以測試,交流和發(fā)布可能存在的風(fēng)險,滿足正當(dāng)程序的需求,同時提高公眾的可接受度。
另外,在現(xiàn)階段的行政處罰中,自動化系統(tǒng)出現(xiàn)錯誤所導(dǎo)致的責(zé)任形式還難以以“人的行為”作為類比,而更多地接近于“物的瑕疵”。自動化行政處罰的賠償責(zé)任中采用無過錯責(zé)任原則更為恰當(dāng)。不過也應(yīng)當(dāng)注意到,自動化系統(tǒng)錯誤所導(dǎo)致的行政賠償責(zé)任與一般的物之責(zé)任還是存在明顯不同的。比如按照我國現(xiàn)行法,公共設(shè)施致害的“物的瑕疵”責(zé)任不納入國家賠償?shù)姆秶?,是按照民事程序處理的。這對于行政處罰錯誤的責(zé)任和救濟(jì)來說是明顯不合適的。隨著技術(shù)的不斷發(fā)展,這兩種責(zé)任之間的不同還將愈發(fā)明顯。因此,從長遠(yuǎn)來看,將自動化系統(tǒng)錯誤導(dǎo)致的責(zé)任予以單獨(dú)類型化,確定專門的責(zé)任構(gòu)成要件,是一種更為可取的路徑。
第一,基于行政信息公開原則增強(qiáng)算法自動化決策透明度。現(xiàn)有算法自動化參與的行政活動中,我國法律作出了一定調(diào)整,但仍在某些領(lǐng)域需要行政信息公開規(guī)則的回歸。首先,應(yīng)增強(qiáng)算法自動化決策的可見性,作為行政信息公開的基本要求。其次,算法作出決策的基本規(guī)則和因素權(quán)重,應(yīng)該對公眾與社會公開。具體包括行政信息公開原則在算法數(shù)據(jù)收集環(huán)節(jié)的貫徹、行政信息公開原則與保護(hù)算法商業(yè)秘密的衡平以及行政信息公開與算法決策輸出的說明等三個方面。
第二,基于公眾參與原則進(jìn)行算法影響評估。行政正當(dāng)程序中的公眾參與原則具有重要的實體權(quán)利保障功能,應(yīng)從加強(qiáng)公眾參與與恢復(fù)相對人陳述和申辯權(quán)利兩個方面,發(fā)展算法治理時代的行政正當(dāng)程序。具體包括以算法影響評估保證公眾參與算法系統(tǒng)訂購與使用、將通知與申辯環(huán)節(jié)作為算法決策生效必經(jīng)程序等兩個方面。
第三,基于說明理由規(guī)則創(chuàng)設(shè)算法解釋權(quán)。由于數(shù)據(jù)來源的不透明、“算法黑箱”等因素,算法自動化決策的結(jié)果是如何得出的卻難以為個體所知曉。算法治理時代應(yīng)在適用算法自動化決策時堅持并修正行政行為說明理由的制度。具體包括發(fā)展算法解釋權(quán)說明具體行政行為的理由、行政行為算法解釋的內(nèi)容和標(biāo)準(zhǔn)以及解釋語言清晰平實以書面形式作出等三個方面。
第一,從廣義的角度來看,行政程序也是救濟(jì)路徑之一,如告知、聽證等。對于處罰數(shù)額不大、情節(jié)認(rèn)定較容易的違法情形,自動化執(zhí)法完全可以引入,同時為了保障相對人的程序性權(quán)利,減少或避免后續(xù)出現(xiàn)的救濟(jì)等問題,應(yīng)要求當(dāng)事人知情、確認(rèn)并認(rèn)可,而不能單純依賴自動化執(zhí)法機(jī)器,不然很容易使相對人陷于“無知之幕”的恐慌之中。告知環(huán)節(jié)本身也應(yīng)依行政程序法的要求,行政機(jī)關(guān)應(yīng)采取短信、網(wǎng)絡(luò)等電子化方式輔之以書面告知等形式。此外,還有一點(diǎn)需要強(qiáng)調(diào),即依賴自動化行政所作出的決定,在技術(shù)手段上需要確保行政相對人,即指令施加對象的可識別性。在多數(shù)情況下,自動化行政更適宜于可采用簡易程序的場合,實際上也就排除了聽證會的適用問題。如果自動化行政在獲取信息的后續(xù)過程中,出現(xiàn)了諸如隱私權(quán)的侵?jǐn)_等問題,也就依然需要程序上的保障,尤其是正當(dāng)程序的保障。技術(shù)性正當(dāng)程序要求告知、聽證等必要的程序適用,尤其當(dāng)自動化行政決定涉及公民的人身權(quán)、自由權(quán)時;同時還須在技術(shù)上采用無歧視的數(shù)據(jù)挖掘技術(shù),避免個人被歧視;此外,還要求行政機(jī)關(guān)作出一定的理由說明。
第二,在特定的情形之下,作為傳統(tǒng)的救濟(jì)方式——申訴,仍存在適用的必要性。然而,基于自動化行政的特征,我們需要對現(xiàn)有的申訴、信訪制度進(jìn)行一定程度上的改革以適應(yīng)信息時代。例如,設(shè)立機(jī)器智能委員會等專業(yè)委員會來辨別判定一些涉及自動化行政的專業(yè)性問題。再如,歐洲議會法律事務(wù)委員會主張建立歐洲機(jī)器人和人工智能機(jī)構(gòu);還有些學(xué)者主張建立跨國的、獨(dú)立的、多利益相關(guān)的人工智能和數(shù)據(jù)委員會。他們認(rèn)為,人工智能不僅僅是一個公用事業(yè),一旦成熟就需要被監(jiān)管,它更是重塑生活、互動和環(huán)境的強(qiáng)大力量,是人類棲息地向信息圈深刻轉(zhuǎn)變的一個部分。人工智能專業(yè)委員會不應(yīng)僅僅是行政機(jī)關(guān)的智囊團(tuán),也應(yīng)當(dāng)為行政機(jī)關(guān)和普通公民之間搭建橋梁,對于自動化行政決策發(fā)揮說明、闡釋作用。在處置申訴、信訪過程中可以借鑒這種專業(yè)委員會的設(shè)置目標(biāo),即加入專業(yè)性的考量因素,借助第三方委托、協(xié)助等方式,更好地提升申訴、信訪處置的水平以及行政機(jī)關(guān)處理自動化行政所涉問題的能力。如健康碼實施至今,各地都有設(shè)立復(fù)核制度,通過網(wǎng)絡(luò)化的復(fù)核實則也是信息化時代的一種申訴方式。下一步,司法實踐領(lǐng)域可借鑒英國法的經(jīng)驗,設(shè)立數(shù)據(jù)保護(hù)專員為數(shù)據(jù)控制者提供數(shù)據(jù)方面的建議,處理申訴。
第三,針對瑕疵指令所導(dǎo)致的不同后果,行政程序、行政活動抑或事實行為更易在復(fù)議和訴訟環(huán)節(jié)發(fā)揮作用??傮w上,更多情況下,數(shù)據(jù)來源的瑕疵在自動化行政決定中更容易構(gòu)成復(fù)議和訴訟中的證據(jù)來源。算法瑕疵在理論上是有可能構(gòu)成復(fù)議、訴訟的直接審查對象的,也就是說,伴隨著法院審查算法能力的加強(qiáng),未來也應(yīng)具備審查算法的能力。系統(tǒng)瑕疵,則更多被歸入事實行為,即使因此產(chǎn)生了對相對人權(quán)利義務(wù)的影響,也有復(fù)議、訴訟的可能性。在現(xiàn)有的法律體系下,審查對象實際上依然只是依據(jù)自動化行政所作出的相應(yīng)的決定,而非自動化行政本身。在復(fù)議和訴訟環(huán)節(jié),涉及自動化行政的案件需考量幾點(diǎn):首先,從系統(tǒng)的設(shè)定、算法的設(shè)計等方面來看,自動化行政在當(dāng)下更多地發(fā)揮了“輔助”和“助手”的功能,即便在直接作出決定的情形中也是如此。因此,在絕大多數(shù)情形下,相應(yīng)責(zé)任也應(yīng)歸由行政機(jī)關(guān)及其工作人員承擔(dān),除非有相反證據(jù)可以排除其責(zé)任。其次,舉證責(zé)任的分配或者相關(guān)問題的解釋,都應(yīng)本著有利于行政相對人的角度來進(jìn)行。隨著自動化行政的發(fā)展,更需要加強(qiáng)對事前、事中的控制,司法機(jī)關(guān)作為最后的救濟(jì)主體,在未來會面臨著更多算法審查的挑戰(zhàn)。
〔文獻(xiàn)來源〕
余凌云:《交警非現(xiàn)場執(zhí)法的規(guī)范構(gòu)建》,載《法學(xué)研究》2021年第3期。
謝明睿、余凌云:《技術(shù)賦能交警非現(xiàn)場執(zhí)法對行政程序的挑戰(zhàn)及完善》,載《法學(xué)雜志》2021年第3期。
劉東亮:《技術(shù)性正當(dāng)程序:人工智能時代程序法和算法的雙重變奏》,載《比較法研究》2020第5期。
胡敏潔:《自動化行政的法律控制》,載《行政法學(xué)研究》2019年第2期。
胡敏潔:《論自動化行政中的瑕疵指令及其救濟(jì)》,載《北京行政學(xué)院學(xué)報》2021年第4期。
張凌寒:《算法自動化決策與行政正當(dāng)程序制度的沖突與調(diào)和》,載《東方法學(xué)》2020年第6期。
馬顏昕:《自動化行政的分級與法律控制變革》,載《行政法學(xué)研究》2019年第1期。
馬顏昕:《自動化行政方式下的行政處罰:挑戰(zhàn)與回應(yīng)》,載《政治與法律》2020年第4期。