文/趙宏
公共決策的算法化對國家治理有明顯賦能。但算法與公共決策的結(jié)合具有復雜的多效性,其可以促進行政決策、監(jiān)管和執(zhí)法能力的升級,同時又不可避免地引發(fā)過度侵蝕個人權利的問題。如果我們不加防備地允許算法進入所有的決策領域,僅靠事中的算法解釋或者事后的追責機制,根本無法避免個人被算法霸權所奴役和壓制。
在算法加持下,國家權力的作用范圍不再受物理世界中空間和時間的限制,其可以借由信息的互聯(lián)互通,在極短時間內(nèi)覆蓋社會生活中的每個人,并涵蓋其生活的每個位置和時刻。這也更易引發(fā)群體性、規(guī)?;?,而非傳統(tǒng)單體性、單向度的權利侵犯。傳統(tǒng)法治用以約束公權力的主要方式在于權限控制、程序控制和后果控制,即事前、事中和事后的法律控制。但引入算法決策后,因固有認識認為算法只是改變了工具,因此對其準入往往不做任何防備,也未設置任何門檻,這就使很多攸關個人權利的事項未經(jīng)事先評估和民主決議就輕易交由算法決斷。被傳統(tǒng)法治奉為圭臬的正當法律程序原則同樣因為算法的適用而被架空。徒留空殼的還有事后救濟和追責權利。由于透明度不足以及缺乏明確的責任人,在算法出現(xiàn)偏誤、歧視等不公結(jié)果時,當事人的救濟權利同樣無法得到充分保障。
《個人信息保護法》對算法決策的規(guī)定僅有第24條、第55條和第73條三條。第24條作為自動化決策的核心規(guī)范,共有三款,其中可直接適用于公共機構的有兩款。這兩款規(guī)定為公共機構適用算法決策設定了“予以說明”以及“保證決策的透明度和結(jié)果公平、公正”的義務,同樣賦予個人要求說明和拒絕僅通過自動化決策的方式作出決定的權利。但要知道上述規(guī)定在多大程度上構成對公共機構適用算法決策的拘束,這種拘束又存在何種欠缺,仍需對條文進行細致分析。
(一)免受自動化決策:權利抑或禁令的爭論 從條文構造看,《個人信息保護法》第24條是對歐盟《通用數(shù)據(jù)保護條例》(以下簡稱“GDPR”)第22條的借鑒。但GDPR對自動化決策的立場,到底應理解為是對自動化決策的一般禁令還是對個人免受自動化決策的賦權,一直存有爭議。這也構成了評析《個人信息保護法》第24條規(guī)定的背景。
(二)《個人信息保護法》第24條的規(guī)定與問題 從《個人信息保護法》第24條的規(guī)定來看,我國在處理自動化決策的問題上選擇了相對持中的權利立場,即并未普遍性禁止自動化決策在私人領域和公共領域的適用,但賦予個人“要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”的權利,同時附加“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結(jié)果公平、公正”的要求。從條文規(guī)定來看,這種“免受自動化決策約束權”在行權時又須滿足以下要件:其一,決定必須是僅通過自動化決策的方式作出;其二,必須是對個人權益有重大影響的決定;其三,個人必須就自動化決策對其權益有重大影響負擔舉證責任。相對嚴苛的行權限制使賦權模式對算法決策的約束效果受限。除此之外,《個人信息保護法》的這一條文尚有不少含混之處。
因為采取的是賦權模式,我國公共決策適用算法技術在源頭處并未受到實質(zhì)性限制。公共決策仍舊可以暢行無阻地適用算法,其可能遭遇的障礙只有信息主體事后的免受自動化決策約束權。但免受自動化決策約束權本質(zhì)上只是事后階段的控制,并無法覆蓋事前的風險預警和事中的有效阻擊。而且此項權利在行權時不僅面臨規(guī)范要件上的約束,還會受到數(shù)據(jù)主體可能怠于行權或者力量薄弱的現(xiàn)實因素的掣肘。由此來看,《個人信息保護法》雖對算法決策有了一定的規(guī)范基礎,但這些規(guī)范不僅質(zhì)效單薄,而且其中還隱含著未對公共決策適用算法設置實質(zhì)界限的重大缺漏。造成這一缺漏的原因主要有二:一是常規(guī)算法規(guī)制路徑的影響;二是《個人信息保護法》“一體化調(diào)整”模式的問題。算法規(guī)制的一般徑路主要有算法公開、個人數(shù)據(jù)賦權與反算法歧視。但上述規(guī)制路徑是否可解決算法技術適用于公共決策的問題卻值得懷疑。其關鍵就在于,算法公開、反算法歧視甚至個人的數(shù)據(jù)賦權,都是內(nèi)嵌在針對算法的正當程序中的。這種內(nèi)嵌于正當程序中的算法規(guī)制本質(zhì)上仍舊是針對算法的程序性控制。無論是作為表象的程序控制還是內(nèi)嵌其中的實體賦權,所缺失的都是在源頭處對算法進入公共決策的嚴格把控。而且,《個人信息保護法》第24條主要以算法技術適用于私人生活和商業(yè)領域為基礎構建,并未考慮算法技術適用于私人領域與公共領域的區(qū)別。就信息處理而言,私人機構處理個人信息由“告知同意”這一核心原則來調(diào)控,其目標是通過賦予個人對自身數(shù)據(jù)的控制權,來避免他人對其數(shù)據(jù)人格的貶損和抑制。但因考慮到將告知同意適用于公職履行會影響乃至破壞國家的執(zhí)法能力,《個人信息保護法》已將國家機關“為履行法定職責或法定義務所必需”的行為從同意原則的適用中豁免,即使是告知義務也被縮減為“有限度的告知”。這同樣說明,以其為思路衍生出的對當事人的全周期數(shù)據(jù)賦權,尤其是允許其事先知情和拒絕的做法,并無法有效規(guī)制公共機構的算法決策。
為避免個人尊嚴的保護被完全淹沒在追求技術福利的目標之下,對公共決策適用算法設置界限無疑是必需的。
傳統(tǒng)法治用以確定公共機構尤其是行政機關權力邊界的首要原則是法律保留。法律保留決定著行政機關采取某種措施介入社會的容許性,其邏輯是將國家的基礎決定都交由最具民主正當性的議會,由此使立法在保障基本權利、控制行政權上發(fā)揮核心作用。
1. GDPR中隱含的加重法律保留
GDPR第22條第2款規(guī)定的免受自動化決策約束權的例外之一是,決策是由數(shù)據(jù)控制者所應遵守的歐盟或成員國法律授權的,該法律提供了保護數(shù)據(jù)主體權利、自由和合法權益的適當措施。GDPR規(guī)定,公共機構要完全訴諸算法進行決策就必須要有“法律授權依據(jù)”,且其目的是出于“公共利益、風險防控或者確保控制者提供服務的安全性和可靠性等”,適用前提是其“已制定了恰當措施保證數(shù)據(jù)主體的權利、自由與正當利益”。如果我們將算法適用于私人機構和公共機構作區(qū)別對待,認為對公共機構應為禁令模式,唯有符合法律規(guī)定的豁免情形時才會被允許,那么GDPR的上述規(guī)定就完全可被理解為算法決策的法律保留。
2. 原則與例外的關系模式
將法律保留作為算法適用于公共決策的界限意味著,立法對此的立場是原則禁止和例外允許,規(guī)范模式也相應表現(xiàn)為“原則與例外”的關系模式。除GDPR外,此類關系模式的典型還有德國《聯(lián)邦行政程序法》中有關“全自動化行政”的規(guī)定。要求有具體的規(guī)范授權也意味著,立法者有義務在行政效能與權利保護之間進行權衡,并在個別法中單獨明確何種事項在何種程度上可委托給算法。這種并非進行統(tǒng)一規(guī)定,而是交由立法者個別處理的模式,同樣是為因應算法技術的動態(tài)發(fā)展和人類對人工智能的認識更新。
3. 法律保留中被放寬的“法律”
法律保留中的“法律”應為立法機關制定的法律,由此才能貫徹立法約束行政的原則意涵。但值得注意的是,無論是GDPR中的“決策是由數(shù)據(jù)控制者所應遵守的歐盟或成員國的法律授權”,還是德國《聯(lián)邦行政程序法》中的全自動化行政行為必須要有規(guī)范依據(jù),都對作為允許性保留前提的法律作了放寬處理。這種放寬處理的立場同樣體現(xiàn)在我國《個人信息保護法》中。該法第13條在列舉個人信息處理的合法性根據(jù)時,將第七項“法律、行政法規(guī)規(guī)定的其他情形”作為兜底。這也意味著,對個人信息的處理除該條明確列舉的情形以外,都必須要有“法律、行政法規(guī)”的明確授權。在法律之外,同樣允許行政法規(guī)進行授權,可說是對法律保留中的法律作了擴張?zhí)幚怼?/p>
4. 加重的法律保留作為適用類型
鑒于公權機關將決策權拱手讓與算法可能導致的法治被架空、權利受克減,以及個人主體性被蠶食的巨大風險,對于公共決策完全的算法化不僅要有法律的授權依據(jù),對于授權所追求的目的、滿足的前提和使用的方式,法律也應予以詳盡規(guī)定,即加重的法律保留應該成為具體立法的首要選擇。
法律規(guī)范在例外授權時應考慮哪些因素,既可參考傳統(tǒng)的法律保留原則,也應納入算法決策的特點。這些考慮因素不僅攸關法律是否應作出授權決定,亦會決定授權法嚴苛還是寬松的規(guī)范強度。
1. 基本權利的保障
即使行政將決策工具替換為算法,但只要決定觸及個人基本權利,就仍舊要接受法律保留的約束。但何種基本權利要有嚴格的法律授權,何種基本權利可交由法律之下的其他規(guī)范處理,各國規(guī)定不一。若論嚴格意義上的法律保留,我國的立場仍較為保守,主要涉及的只是基本權利中的自由權和財產(chǎn)權。這也意味著包括生命權、人身自由在內(nèi)的自由權應受到更高程度的保護,立法者在將攸關這些基本權利的公共決策交由算法時也會受到更嚴格的約束,而在不能確保上述權利獲得充分保障時,完全的算法決策更應被明確禁止。
2. 風險可控性與分級保護
亦有國家是從算法決策可能引發(fā)的風險以及風險的可控性出發(fā),結(jié)合具體場景適用分級保護和監(jiān)管的模式。2019年加拿大頒布的《自動化決策指令》就是這種分級保護機制的典型。加拿大的分級保護提供了一種根據(jù)技術引發(fā)的風險大小和強度以及是否可逆等因素,考慮是否能夠授權的思路。
3. 價值判斷和自由裁量作為決策禁區(qū)
在應用清單的考量中有一項是設置算法應用于公共決策的禁區(qū),這種考量又落實于美國2016年的“盧米斯案”(State v. Loomis)判決和德國《聯(lián)邦行政程序法》中,因此同樣可成為法律授權的禁止性規(guī)定。
盧米斯案提煉出了算法適用于刑事司法這類特殊公共決策的首要實體邊界:若某項公共決策涉及利益沖突和價值判斷,就不能全部交由算法處理。這一認識目前已被廣泛接受,價值判斷也因此成為公共決策算法化的實體禁區(qū)。其原因在于,價值判斷是一項依賴生活經(jīng)驗和決策預警的工作,由于社會環(huán)境無法全面數(shù)字化和符碼化,算法往往無法領會和處理解決價值沖突所需要的人類情感和體悟,算法也并不具有人類因文明傳承和生活經(jīng)驗所產(chǎn)生的對他人的同理和同情。除價值判斷外,公權機關是否享有裁量權成為權衡算法可否用于行政任務的另一參考。對于高度不確定的、需要更多依賴人類裁量才能完成的任務,不能交由算法處理,這一點同樣為德國《聯(lián)邦行政程序法》所明確規(guī)定。盡管從技術理性角度,自動化決策似乎可減少裁量的隨意性,提高其一致性和客觀性,避免人工因倉促或粗心所犯下的典型錯誤,但它卻無法以數(shù)學模型收集所有與裁量相關的信息,因此在個案處理能力上是有限的。尤其在法律適用階段,決定的得出很多情況下都倚賴語義確定與解釋以及價值權衡,機器顯然無法勝任此項工作,其在沖突目標的選擇和權益的分配上也會面臨巨大困難。
4. 算法類型和所涉數(shù)據(jù)作為其他考量
除算法所影響的權利類型、影響程度以及風險等級外,算法類型、所涉數(shù)據(jù)等也都可成為法規(guī)范能否允許公共決策適用算法的考慮因素。
如果我們將法律保留中的“法律支配”進一步引申為“人民支配”,那么在現(xiàn)行法尚未對公權機關可否適用算法作出某項決策予以規(guī)定前,事先吸納公眾參與并作出具有實質(zhì)影響力的算法評估,同樣是有助于劃定決策邊界的預防性手段,也是法律保留的程序性保障。
我國《個人信息保護法》以GDPR為藍本,在第55條規(guī)定了類似的個人信息影響評估,需要評估的事項就包含“利用個人信息進行自動化決策”。再依據(jù)第56條,此類影響評估又包含:“個人信息的處理目的、處理方式等是否合法、正當、必要;對個人權益的影響及安全風險;所采取的保護措施是否合法、有效并與風險程度相適應?!睂φ彰绹端惴▎栘煼ò浮芬约皻W盟GDPR,我們?nèi)詴l(fā)現(xiàn),盡管《個人信息保護法》規(guī)定了對自動化決策的影響評估,但這種粗放的算法評估還存在明顯缺漏。首先,《個人信息保護法》第55條僅列明個人信息處理者有義務在事前進行個人信息保護影響評估,并對處理情況進行記錄,但這種個人數(shù)據(jù)影響評估能否在源頭處阻卻公權機關適用某項自動化決策,從規(guī)范中卻未可知。其次,相較于美國《算法問責法案》以及加拿大《自動化決策指令》中相對明確的算法評估技術框架和指標體系,我國雖規(guī)定了個人信息影響評估,但評估內(nèi)容卻未具體化。最后,算法評估不僅是預防性手段,同樣也是問責制的構成之一。應在算法設計者、部署者和運行者自我評估的基礎上,納入外部問責和審計力量,但這一要求在《個人信息保護法》中同樣缺失。
無論是賦予個人體系性的數(shù)據(jù)權利,還是科以數(shù)據(jù)處理者算法公開、算法解釋和算法評估的義務,抑或是探求公權機關適用算法決策的實體界限,其最終的目標都是確保人的主體性和自治性,使其不致因新興技術的適用而被蠶食,也不致使法治約束公權的目的因人工智能時代的到來而落空。