[摘 要] 算法行政存在邊界。權(quán)力制約與損益均衡是比例原則規(guī)約算法行政的法理基礎。以政府對數(shù)字接觸追蹤技術的應用為分析對象,發(fā)現(xiàn)存在違背比例原則的算法行政實踐樣態(tài),表現(xiàn)為目的與手段的不當聯(lián)結(jié)、對公民造成非最小損害以及公共利益與個體損益的比例性失衡。為此,需要從適當性、必要性和均衡性三個維度對算法行政進行比例原則規(guī)約,明確算法行政的目的及其邊界,堅持最小必要原則,實現(xiàn)目的與手段均衡,以確保算法行政在法治的軌道上運行。
[關鍵詞] 算法行政;比例原則;權(quán)力制約;損益均衡
[DOI編號] 10.14180/j.cnki.1004-0544.2023.03.012
[中圖分類號] D922.11" " " " " " " " "[文獻標識碼] A" " " " "[文章編號] 1004-0544(2023)03-0123-12
基金項目:國家社會科學基金項目“人工智能嵌入政府治理的倫理風險及其防范研究”(20BZZ089)。
作者簡介:譚九生(1973—),男,法學博士,湘潭大學公共管理學院教授、博士生導師;胡健雄(1996—),男,湘潭大學公共管理學院博士研究生。
算法行政(Algorithmic Governmentality)是以算法為核心的智能技術與公共行政深度融合的產(chǎn)物。算法嵌入政府治理,能夠優(yōu)化管理方式、改善公共決策、提高行政效率。近年來,基于數(shù)字接觸追蹤技術的算法行政在世界各國的疫情防控中發(fā)揮了重要作用,智能技術賦能政府應急管理的成效顯著。然而,在具體實踐中,也出現(xiàn)了目的與手段的不當聯(lián)結(jié)、對公民造成非最小損害等算法行政不當現(xiàn)象。這些現(xiàn)象不由得引發(fā)我們思考:算法行政的邊界何在?如何對算法行政進行有效規(guī)約?在我國全面建設數(shù)字法治政府的時代背景下,以行政法學領域中的“比例原則”為分析框架,準確厘定算法行政權(quán)力的邊界,建構(gòu)合乎比例原則的算法行政,以保障公民的合法權(quán)益,對推進政府治理現(xiàn)代化、提升數(shù)字治理效能具有極為重要的理論價值與實踐意義。
一、算法行政何以需要規(guī)約?
“算法行政”最早由魯夫羅伊(Rouvroy)提出,意指建立于大數(shù)據(jù)自動收集、匯總和分析基礎之上的某種規(guī)范性或政治理性,以建模、預測先發(fā)制人地影響公民行為 [1](pX)。與傳統(tǒng)國家治理形式不同,算法行政不再將政治和經(jīng)濟作為其運作手段,或者至少不再作為其特權(quán)行動手段,而是通過大數(shù)據(jù)、算法等數(shù)字技術進行自動化操作[2](p5),機器學習算法被運用于一系列政府活動中,如行政決策、公共服務提供和公共政策制定[3](p2)。憑借算法的高效性、精確性和預測性等技術優(yōu)勢,算法行政正推動政府治理從繁文縟節(jié)走向高效行政、從粗放式管理走向精細化治理、從社會管控走向敏捷性治理。在人工智能技術的持續(xù)賦能下,算法行政已成為一種可能的公共行政新范式,涉及公共行政管理體制、業(yè)務流程、行政文化與算法化、智能化的有機融合[4](p86)。
算法行政何以需要規(guī)約?一方面,算法行政的核心是權(quán)力的運用,而任何權(quán)力都有被濫用的可能。由于算法行政本質(zhì)上是一種人機互動過程,因而其權(quán)力運行機制主要表現(xiàn)為算法權(quán)力與行政權(quán)力的互動耦合。在算法行政過程中,算法技術的互聯(lián)性、智能性和不透明性能夠顯著增強行政權(quán)力的廣度、強度和隱蔽程度,與此同時,行政權(quán)力的強制性與權(quán)威性使算法權(quán)力具備了公權(quán)力屬性。兩者的有機融合所生成的是一種新型行政權(quán)力,即算法行政權(quán)力?;跈?quán)力的擴張性以及人性之惡等因素,若是缺少相應的規(guī)約機制,算法行政權(quán)力容易被濫用,進而對公民造成具有較強無形性、不確定性和隱蔽性的新型侵權(quán)后果[5](p40)。例如,美國印第安納州、洛杉磯縣和阿勒格尼縣的地方政府部門采用的自動化算法系統(tǒng),不僅沒有改善貧困家庭的生活處境,還使得窮人陷入“數(shù)字濟貧院”的鎖定、管制甚至是懲罰中[6](p148-170),嚴重損害了這一群體的平等權(quán)和人格尊嚴權(quán),而受害者對這種侵權(quán)行為卻毫無察覺。另一方面,為了保護公民權(quán)利,需要對算法行政進行規(guī)約。公民權(quán)利的誕生是人類邁入文明社會的標志。聯(lián)合國于1966年12月通過的《公民權(quán)利和政治權(quán)利國際公約》和《經(jīng)濟、社會及文化權(quán)利國際公約》是當代最低人權(quán)標準的權(quán)威表述,這兩份公約對公民的生命權(quán)、人身自由與安全和平等權(quán)和政治權(quán)利等20余項基本權(quán)利的內(nèi)容和形式作了具體規(guī)定 [7](p105-474),是對第二代人權(quán)體系的進一步完善。進入智能時代,有學者主張以“數(shù)字人權(quán)”為代表的第四代人權(quán),包括公民(用戶)在數(shù)字化生活中的隱私權(quán)、數(shù)據(jù)權(quán)、表達權(quán)、人格尊嚴權(quán)等基本權(quán)利[8]。不論是第二代人權(quán)抑或是第四代人權(quán),都有可能被算法行政主體所侵犯。例如,有學者實證考察了加拿大各省份城市的執(zhí)法部門對預測性警務技術和算法監(jiān)控技術的運用,研究結(jié)論表明,這些技術事實上會危及公民的隱私權(quán)、平等權(quán)、享有正當程序和救濟的權(quán)利以及言論自由和結(jié)社自由[9](p173-174)。有鑒于此,應立足于公民基本權(quán)利保護對算法行政進行規(guī)約。
學界從多重視角提出了算法行政的規(guī)約路徑。一方面,基于倫理視角,有學者從實證法(positive law)分析中提煉了三個價值原則,即正當程序(關注決策過程)、問責(注重責任分配)和比例性(強調(diào)實質(zhì)公平),作為算法行政實現(xiàn)善治的規(guī)范指引[10](p67-83);與此同時,還應構(gòu)筑數(shù)字社會的“道德基礎設施”[11](p73-74),著力培育公務人員的行政同理心(administrative empathy),使算法行政具備人文關懷與人性溫度[12](p1341-1378)。另一方面,強調(diào)制度層面的法治化調(diào)試,如在法律的框架內(nèi)限定算法行政的適用范圍和裁量空間[13](p9-10),引入技術性算法披露機制、構(gòu)建算法測試機制和算法責任體系[14](p104),以及采取賦權(quán)規(guī)制路徑,賦予行政相對人免受算法自動決策權(quán)利和算法解釋權(quán)利[15](p34)。另有論者主張“場景化、全過程”的規(guī)約思路,對算法行政進行治理前的審查評估、治理中的權(quán)力規(guī)約以及治理后的法律問責[16](p31)。
然而,國內(nèi)外學者對比例原則規(guī)約算法行政的法理基礎和實現(xiàn)路徑研究較少,限制了比例原則的實踐價值。其一,與基于一般法治原理的權(quán)力規(guī)制路徑相比,比例原則對權(quán)力的規(guī)約更為細化。比例原則由適當性、必要性和均衡性原則構(gòu)成,它們各有側(cè)重,聯(lián)系緊密,能夠從不同面向?qū)λ惴ㄐ姓倪吔缬枰岳?,為探究算法行政的限度問題提供了具有層次感的分析框架。其二,比例原則視域下,算法行政規(guī)約力求實現(xiàn)目的與手段的均衡,確保其在合理的適用范圍內(nèi)既能夠?qū)崿F(xiàn)公共利益,也能夠保障公民的合法權(quán)益,最終建構(gòu)“權(quán)力—權(quán)利”的良好互動平衡關系??梢姡惴ㄐ姓谋壤瓌t規(guī)約,不僅是建設數(shù)字法治政府的基本要求,也是算法行政走向善治的應有之義。鑒于此,本文首先闡明比例原則規(guī)約算法行政的法理基礎;隨之以各國政府應用數(shù)字接觸追蹤技術為例,對算法行政的合比例性進行審視;最后基于比例原則的“適當—必要—均衡”三個維度,提出算法行政的制約平衡路徑。
二、權(quán)力制約與損益均衡:比例原則規(guī)約算法行政的法理基礎
比例原則具有憲法和行政法兩個層次上的含義。憲法意義上的比例原則所指涉的對象包括立法、司法和行政機關等國家公權(quán)力行使者,行政法意義上的比例原則僅適用于政府機構(gòu),其主要功能是約束行政權(quán)力、保障公民權(quán)利。本文主要在行政法層面上使用“比例原則”這一概念。比例原則的三個子原則即適當性原則、必要性原則與狹義比例原則能夠從不同層次對算法行政進行規(guī)約,這背后蘊含著權(quán)力制約和損益均衡的法理基礎。
(一)權(quán)力制約:算法行政權(quán)力的適當與必要性限制
作為現(xiàn)代法治的核心要素,權(quán)力制約構(gòu)成了比例原則規(guī)約算法行政的法理基礎。自現(xiàn)代國家誕生以來,如何限制政府權(quán)力、保障公民權(quán)利,是先哲們孜孜不倦探討的問題。隨著人類步入智能時代,權(quán)力制約這一法理命題顯得愈發(fā)重要,因為智能算法技術不僅形成了一種新的權(quán)力形態(tài)——算法權(quán)力[17](p64-67),且當其嵌入政府治理時,還會對行政權(quán)力的表現(xiàn)形式和運行機制產(chǎn)生深刻影響,推動行政權(quán)力走向擴張。以比例原則對算法行政進行規(guī)約,實質(zhì)上遵循的是“權(quán)力運行須有邊界”的法治邏輯。適當性原則與必要性原則為算法行政權(quán)力制約提供了參考依據(jù)。
從適當性限制來看,算法行政權(quán)力運行需與合法且正當?shù)哪康拇嬖趯嵸|(zhì)性關聯(lián)。憑借數(shù)據(jù)挖掘、大數(shù)據(jù)分析和機器學習等智能技術,算法行政從根本上改變了政府與公民的關系,重塑了既有的“權(quán)力—權(quán)利”格局。在數(shù)據(jù)即權(quán)力的智能時代,公民的行為、偏好甚至情感都可以化約為數(shù)據(jù),這些數(shù)據(jù)一旦被政府所收集和掌握,即有可能引致被監(jiān)控和被操縱的風險;同時,由于算法的“黑箱”特性,公民難以知曉政府的具體行政過程,無法有效地監(jiān)督政府權(quán)力,導致公民處于弱勢地位。因此,需要以適當性原則對算法行政權(quán)力進行限制。適當性原則意指國家措施必須有助于行為目的之達成[18](p54),行政手段與目的之間應具有實質(zhì)關聯(lián)性[19](p100)。適當性原則要求算法行政權(quán)力主體在制度規(guī)定的邊界范圍內(nèi)開展行政活動,不得采取與實現(xiàn)正當合法目的無關的措施和手段,不能以實現(xiàn)某一特定目的為旨歸。例如,作為算法行政的典型代表,健康碼只能用于疫情防控,服務于公共健康目的;將健康碼運用于其他常規(guī)性社會治理活動,是適當性原則所不允許的。質(zhì)言之,智能技術并非萬能,算法行政權(quán)力應當存在邊界。
從必要性限制來看,算法行政的權(quán)力行使需以公民的最小損害為限度。波斯特立足信息社會,認為“今天的‘傳播環(huán)路’以及它們產(chǎn)生的數(shù)據(jù)庫,構(gòu)成了一座‘超級全景監(jiān)獄’,一套沒有圍墻、窗子、塔樓和獄卒的監(jiān)督系統(tǒng)”[20](p132)。算法對傳統(tǒng)行政權(quán)力的賦能會顯著增強“超級全景監(jiān)獄”的效力,若是缺少必要性原則限制,其權(quán)力的觸角會隨著算法向社會系統(tǒng)和個體生活的全方位滲透而不斷延伸[21](p130),對公民的基本權(quán)利(如隱私權(quán)、平等權(quán)和自由權(quán))構(gòu)成威脅。必要性原則要求行政主體擬將采取的行政手段是可供選擇的所有手段中損害最小的。如果某一算法行政實踐被認為是實現(xiàn)公共利益所不可缺少的,但卻給公民造成不可避免的損害,那么,必要性原則要求算法行政權(quán)力主體采取最低限度的行政干預措施,在兼顧公共利益的同時,盡可能減少對公民權(quán)益的損害。據(jù)此,必要性原則為算法行政的權(quán)力行使設定了基本底線,即不論是在常規(guī)治理中,還是在例外狀態(tài)下,算法行政都要以最小損害當事人的權(quán)益為限度。
(二)損益均衡:算法行政目的與手段的比例性平衡
法律是由價值和原則構(gòu)成的復雜框架,涉及不同利益沖突之間的調(diào)和與均衡。法哲學家E.博登海默認為,法律應力求實現(xiàn)正義,致力于創(chuàng)造秩序。然而,正義所包含的三個核心價值即安全、自由和平等之間存在著難以調(diào)和的內(nèi)在張力?!坝捎谶@三個價值深深地根植于人的本性之中,所以在它們之間實現(xiàn)合理的平衡就是一個法律制度真正成功的標志。”[22](p310)社會法學派代表羅斯科·龐德指出,法律的作用在于滿足和調(diào)和重疊且經(jīng)常沖突的要求,“或直接予以保障,或通過界定和協(xié)調(diào)各種個人利益加以保障,以便實現(xiàn)最大多數(shù)的利益或我們文明中最重要的利益,同時使整個利益清單中的其他利益的犧牲降低到最低限度”[23](p39)??梢姡瑑r值平衡與損益均衡之法理是良好法律制度的應有之義。
對算法行政進行均衡性原則規(guī)約是均衡衡平之法理的集中體現(xiàn)。在適用位階順序上,均衡性原則處于比例原則審查流程的末端。在滿足適當性與必要性原則的前提下,均衡性原則要求行政目的與手段合乎比例,前者主要指行政行為增進的社會公共利益,后者強調(diào)的是行政手段對公民個體造成的損害。將這兩者置于天平的兩端,若是行政手段對公民合法權(quán)益的減損過重,使得天平向“手段”一端過度傾斜,那么,即便行政主體所采取的是使公民權(quán)益損害最小的手段,其仍將無法通過均衡性原則審查。換個角度看,如果某個最小損害性手段致力于實現(xiàn)的公共利益足夠沉重,足以與公民個體損益的負效應相抵消,使得天平大體保持平衡,則損害與收益成比例,符合均衡性原則。根據(jù)均衡性原則,算法行政主體在促進社會整體福利的同時,應對技術治理手段所造成的公民權(quán)益損害予以充分重視,謹慎權(quán)衡目的與手段的比例關系,確保公民個人基本權(quán)益不被過度侵害。以健康碼為例,雖然其對疫情防控、復工復產(chǎn)發(fā)揮了重要作用,但也引致了部分公民群體的權(quán)益受損。在疫情防控常態(tài)化情境下,掃碼通驗、亮碼通行已成為進出公共場所的必要流程;而那些沒有智能手機或不會使用智能手機的相當一部分老年人群體,由于無法出示健康碼,被排除在公共生活空間范圍之外,難以享受休閑娛樂和醫(yī)療救助等基本公共服務,自由出行權(quán)和生命健康權(quán)受到威脅,淪為“余數(shù)生命”。均衡性原則要求政府重視“內(nèi)嵌在健康碼內(nèi)核上的余數(shù)裂縫”[24](p122),根據(jù)疫情風險等級、地域和具體場所等因素確定是否需要“亮碼”[25](p106),如有必要,還應為老年人群體設立綠色通道,從而有效減少公民權(quán)益損失,實現(xiàn)算法行政目的與手段的比例性均衡。
三、算法行政的合比例性審視——以政府應用數(shù)字接觸追蹤技術為例
數(shù)字接觸追蹤技術是世界各國政府抗擊疫情的重要技術手段,它通過收集個人信息數(shù)據(jù)進行算法運算,在得出較為準確的結(jié)論后,用于疫情防控的行政工作,契合算法行政的要義[26](p93)。數(shù)字接觸追蹤技術在疫情防控中發(fā)揮著“技術賦能”的作用,但也存在邊界擴張、權(quán)力濫用的風險。由于該技術會不可避免地限制部分群體的基本權(quán)利,因此,其應用的目的與手段之間是否合乎比例,直接決定了算法行政的正當性能否得以證成。我們立足于各國政府對數(shù)字接觸追蹤技術的實踐應用,以比例原則的三個子原則為分析框架,對案例中呈現(xiàn)的算法行政實踐進行合比例性審視,力圖發(fā)現(xiàn)問題背后的誘因,為后文的比例原則規(guī)約探尋方向。
(一)適當性審視:算法行政目的與手段是否存在不當聯(lián)結(jié)
適當性原則旨在從事實層面出發(fā),審查行政目的與手段之間是否存在因果聯(lián)系。如果行政主體采取的手段能夠有效地實現(xiàn)正當?shù)男姓康?,或至少可以推動行政目的之達成,則表明目的與手段之間存在因果聯(lián)系,符合適當性原則要求。倘若行政手段與其旨在實現(xiàn)的法定(正當)目的無實質(zhì)性關聯(lián),或服務于其他特定目的,則與適當性原則相悖。不難發(fā)現(xiàn),適當性原則主要從“目的取向”上對行政權(quán)力予以規(guī)范,防止權(quán)力主體采取的行政手段偏離法定目的[27](p76)。
健康碼是我國數(shù)字接觸追蹤技術應用的典型范例,其法定目的在于阻遏疫情蔓延、保障公眾生命健康。通過將健康碼嵌入政府既有的社會“流動”治理體系,可以實現(xiàn)對社會個體健康狀態(tài)的即時認證。據(jù)此,政府不僅能對高風險人員進行有效管控,還可以促進社會多元主體的互動聯(lián)結(jié),從而維持疫情防控與復工復產(chǎn)的平衡[28](p116)。實踐經(jīng)驗表明,健康碼在中國的疫情防控中發(fā)揮了重要作用[29](p2)。因此,基于健康碼的算法行政手段與目的存在實質(zhì)性關聯(lián),符合適當性原則要求。
相較而言,印度政府對數(shù)字接觸追蹤技術的運用難以通過適當性審查。疫情暴發(fā)之后,印度國家信息中心推出了一款基于藍牙定位技術的應用程序(Aarogya Setu),致力于追蹤病毒感染和傳播鏈條。該程序的隱私條款對其應用目的進行了明確規(guī)定,即“使用收集到的接觸數(shù)據(jù)以識別可能感染新冠病毒的人,并采取適當措施抗擊疫情”[30](p617)。然而,在具體實踐中,該應用程序收集的公民個人數(shù)據(jù)信息被傳輸至印度各地方政府打造的新冠“作戰(zhàn)室”(COVID “war rooms”),“作戰(zhàn)室”中的工作人員運用先進智能技術對這些數(shù)據(jù)進行映射比對和可視化分析,進而實現(xiàn)對公民的遠程追蹤監(jiān)控,生動再現(xiàn)了福柯意義上的“全景監(jiān)獄”[31](p751)。同時,Aarogya Setu還嵌入了印度已有的政府治理體系,被廣泛運用于福利供給、行政執(zhí)法以及公民出行管控等常規(guī)社會治理領域。例如,民眾在登機前必須出示Aarogya Setu,在確認無感染風險的情況下方能通關。但該應用程序卻對住在同一屋檐下的人的評估生成了不同的風險等級,嚴重阻礙了健康公民的正常出行[32](p384)。不難發(fā)現(xiàn),印度政府基于Aarogya Setu的算法行政已經(jīng)產(chǎn)生了功能蠕變(function creep),即將應用程序收集的信息用于實現(xiàn)與原始目的不同的其他目的[33](p1),目的與手段構(gòu)成了不當聯(lián)結(jié)。
算法行政目的與手段的不當聯(lián)結(jié)是算法決策的明確性、基層治理主體的簡約化治理動機與技術崇拜觀念綜合作用的結(jié)果。一方面,從技術的角度來看,算法是“為了解決一個特定問題或者實現(xiàn)某一明確結(jié)果而采取的一系列步驟”[34](p3),它由“如果……那么”(“IF……THEN”)的規(guī)則結(jié)構(gòu)構(gòu)成。只要條件(IF)得以確立,并有足量的數(shù)據(jù)輸入,就能通過算法運算邏輯計算得出明確的結(jié)果(THEN),并對人類行為產(chǎn)生直接影響[35](p5-6)。另一方面,從基層治理的角度來看,治理主體具有簡約治理動機,即以低成本、最簡單、在短期內(nèi)效果最明顯的方式對地方事務進行治理的動機[36](p64)。假設算法行政的智能技術開發(fā)與數(shù)據(jù)庫構(gòu)建皆已完成,則其被運用于其他治理領域或?qū)崿F(xiàn)其他治理目標的邊際成本相對較低,加之算法決策結(jié)果具有簡單明確的特點,使得算法行政能夠有效滿足基層治理的簡約化治理動機。一旦算法行政的治理效能得以不斷顯現(xiàn),則基層治理主體易于對智能算法技術產(chǎn)生盲目崇拜,他們認為智能技術是萬能的,適用于解決所有社會公共問題,以至于忽視算法行政的適用邊界,進而無限度地擴張其應用范圍,為算法行政目的與手段的不當聯(lián)結(jié)提供可能。
(二)必要性審視:算法行政對公民造成的損害是否最小
“必要性原則要求在所有相同有效實現(xiàn)目標的手段中必須選取最溫和、對權(quán)利損害最小的手段?!盵37](p118)“警察不以大炮打麻雀”“殺雞焉用牛刀”等法諺是必要性原則的生動詮釋。一般而言,為實現(xiàn)某一行政目標,可供行政主體選擇的治理手段往往是多樣的。不同的治理手段會對公民產(chǎn)生不同程度的影響。根據(jù)必要性原則,在所有可能的治理手段中,政府必須采取對公民權(quán)利損害最小的手段。換言之,倘若政府所采取的治理手段可以被其他手段替代,且對公民造成的權(quán)利損害更小,則政府行為無法通過必要性審查。
對于疫情防控而言,我國政府對健康碼的應用是必要的。與群體免疫[38](p40)、“封城”和傳統(tǒng)的人工流調(diào)方式相比,數(shù)字接觸追蹤技術對公民造成的損害相對較小。然而,在數(shù)字接觸追蹤技術的實踐應用中,仍存在一些與必要性原則相違背的算法行政行為,對公民造成了非最小損害。我國一些地方政府在運用健康碼的過程中,對公民的敏感信息進行了過度收集,對防疫目的之達成無實質(zhì)影響。同時,地方政府對公民個人信息的處理不當也時有發(fā)生,如B市健康寶明星個人信息泄露事件,由于政府對公民隱私信息監(jiān)管不力,不法分子借機鉆健康寶的“他人代查”規(guī)則漏洞,非法獲取明星的身份證號、照片和聯(lián)系方式等私密信息,并在網(wǎng)絡上明碼標價打包出售,嚴重損害了明星的個人信息權(quán)益。此外,健康碼應用中的“層層加碼”政策也為公民帶來非必要負擔[39]。對于那些從外省返鄉(xiāng)的務工人員來說,經(jīng)歷這樣一系列“層層核驗”步驟,其所消耗的時間、金錢和精力成本是巨大且非必要的,甚至還出現(xiàn)了回家后被“封”在家里嚴禁外出的情況。不僅如此,“層層加碼”還會導致個人信息重復收集和多層級處理,引發(fā)不必要的個人信息安全風險[40](p119)。
算法行政為何會對公民造成非最小損害,甚至侵犯公民的基本權(quán)利?原因有二:一是算法技術的復雜性和“黑箱”特性使得算法行政權(quán)力產(chǎn)生擴張,進一步縮限了公民的個人權(quán)利。算法“黑箱”的存在使得普通百姓難以理解算法行政的運行規(guī)則和目標追求[41](p15),這容易導致算法行政主體以“公共利益”之名,行“侵犯權(quán)利”之實。由于不了解算法行政復雜的運作機理,當面對算法行政主體提出的信息收集要求時,公民個體既難以判斷這些信息是否必要,也無法對此做出相應的反抗和拒絕,因為這關系到其能否正常使用應用程序,進而享受社會公共服務。在強大的“算法利維坦”面前,人們逐漸成為算法的附庸,算法權(quán)力凌駕于公民權(quán)利之上[42](p96)。二是行政權(quán)力主體的唯政績論觀念使然。算法行政難以改變行政人員積弊已久的唯政績論觀念。在此觀念的影響下,行政人員將行政目標的實現(xiàn)視為首要任務,人為提高算法行政對公民的義務要求,相對忽視這種行為的社會成本及其對公民所造成的非必要負擔。一旦權(quán)力主體為了達成政績目標而置公民的利益需求于不顧,算法行政對公民造成非最小損害自然也就難以避免了。
(三)均衡性審視:公共利益與個體損益是否合乎比例
均衡性原則又稱狹義比例原則,主要考察行政手段與目的是否相稱,比例是否均衡。作為一個較為抽象的公法概念,均衡性原則并未提供確切的比較權(quán)衡法則,它以“愈……,則愈……”的比較性命題為核心[43](p126),總體考量某個政府行為所增進的公共利益與公民的個體損益之間的比例關系。從應然層面來看,行政手段對公民權(quán)利的侵害程度愈大,則其實現(xiàn)的公共利益應當愈大,否則無法通過均衡性審查。在運用比例原則分析個案的過程中,雖然無法精確地賦予目的與手段合理的權(quán)重,但通過邊際效應(marginal effects)比較或與其他假想的合乎比例的備選方案(hypothetical proportional alternative)進行比較,就能較為可靠地確定手段對個體造成的損益是否過度或不合乎比例[44](350-357)。
在新冠疫情暴發(fā)初期,韓國政府對數(shù)字接觸追蹤技術的應用符合均衡性原則。在利益天平的公共利益一端,運用數(shù)字接觸追蹤技術最明顯的益處在于遏制病毒傳播,避免“封城”帶來的社會經(jīng)濟損失以及實現(xiàn)對公民生命健康的保護;個體損益一端包括公民隱私侵犯、權(quán)力濫用/功能蠕變,以及以刻板印象(stereotype)、污名化(stigmatisation)和歧視為具體表現(xiàn)形式的社會分選(social sorting)[45](p390-393)。將利益天平的兩端進行權(quán)衡比較,會發(fā)現(xiàn)公共利益的重要性與個體損益的嚴重程度合乎比例。原因在于,雖然公民的隱私權(quán)和人格尊嚴權(quán)等基本權(quán)利可能被算法行政主體所侵犯,但通過運用數(shù)字接觸追蹤技術,韓國得以避免遭受“預估50萬人口因感染新冠病毒而死亡”的沉重損失,以及規(guī)避三個月“封城”帶來的巨大社會經(jīng)濟代價[45](p400)。在緊急狀態(tài)下,各國為了實現(xiàn)至關重要的社會整體利益,可以在一定程度上限制本國公民的基本權(quán)利,這符合均衡性原則要求。
但是,在數(shù)字接觸追蹤技術的常態(tài)化應用中,也存在算法行政目的與手段比例性失衡的實踐樣態(tài),如我國Z市發(fā)生的“紅碼事件”①。為提高公共利益與個體損益比較的操作性,我們試圖采用阿哈龍·巴拉克(Aharon Barak)提出的邊際效應比較方法,對兩者的比例關系進行闡述②。所謂邊際效應比較,指的是對目的與憲法權(quán)利在法律頒布前后的狀態(tài)變化的比較,即重點考察與法律頒布前的狀態(tài)相比,法律頒布后目的(公共利益)的實現(xiàn)(增大)程度與手段對公民憲法權(quán)利(個體權(quán)益)的減損程度是否合乎比例[44](p351)。在“紅碼事件”中,一方面,從目的來看,與賦碼前的社會現(xiàn)狀相比,在對儲戶賦予紅碼后,算法行政實現(xiàn)的公共利益(如社會秩序穩(wěn)定)并沒有增大多少。并且,倘若將該手段所引發(fā)的一系列社會負效應考慮在內(nèi),如加大疫情防控社會成本、降低健康碼作為疫情防控工具的嚴肅性、損害政府公信力以及破壞營商環(huán)境,則會對算法行政實現(xiàn)的公共利益形成抵消效應,降低公共利益的重要性。另一方面,從手段來看,儲戶被賦予紅碼后,與賦碼前的生活狀況相比,其個體損益涉及憲法規(guī)定的基本權(quán)利,表現(xiàn)為公民人身自由權(quán)受限、財產(chǎn)權(quán)的自由行使無法得到保證。因此,政府采取的“隨意賦碼”手段對公民造成了實質(zhì)性的個體損益,是“嚴重侵害公民人格權(quán)和關聯(lián)的財產(chǎn)權(quán)益的行為”[46]。將算法行政目的所實現(xiàn)的公共利益與算法行政手段所造成的個體損益進行一番邊際效應比較,不難發(fā)現(xiàn),兩者存在明顯的比例失衡——個體損益程度遠大于公共利益增進程度。
技術應用場域轉(zhuǎn)換與行政主體的法治意識闕如等因素的交織疊加,共同導致算法行政目的與手段的比例失衡。不同治理場域下,同一算法技術所能實現(xiàn)的公共利益的重要性存在很大差別。在重大自然災害和突發(fā)傳染病等緊急狀態(tài)中,公民人身安全、公眾健康和社會秩序是首要的公共利益,所占權(quán)重最大。因此,為了實現(xiàn)這些公共利益,在別無選擇的情況下,算法行政可以在一定程度上克減公民的基本權(quán)利。由于公共利益特別重要,因而其與算法行政手段造成的個體損益能夠?qū)崿F(xiàn)比例均衡。然而,當算法行政的應用場域發(fā)生轉(zhuǎn)換,如由緊急狀態(tài)進入社會常態(tài),則算法行政旨在實現(xiàn)的公共利益及其權(quán)重也會發(fā)生變化,一般而言不如緊急狀態(tài)下的公共利益那般重要。此時,如果公民權(quán)利減損依然不可避免,則會導致公共利益與個體損益的比例失衡。此外,行政權(quán)力主體的法治意識淡薄,未能意識到憲法規(guī)定的公民基本權(quán)利是任何算法行政手段都不能逾越的底線,即便是在緊急狀態(tài)下,對公民基本權(quán)利的克減也應當建立在法治基礎上,不得超出法律規(guī)定的范圍,肆意侵犯公民最基本的憲法權(quán)利[47](p39)。故而,公民權(quán)利保護在算法行政主體的價值排序中退居次要位置,表現(xiàn)為行政人員相對忽視技術手段對公民造成的個體損益,由此引發(fā)算法行政目的與手段的比例失衡。
四、比例原則規(guī)約算法行政的路徑
以比例原則的三個子原則為邏輯起點,可以從適當性、必要性和均衡性這三個維度對算法行政進行規(guī)約,以馴服算法權(quán)力。
(一)適當性規(guī)約:明確算法行政的目的及其邊界
加強事前論證,明確算法行政目的與手段之間的因果關系。比例原則不僅僅是一種工具性的法律分析方法,它本質(zhì)上是對證成的要求(requirement of justification),即政府主體應當為他們的所有行為提供實質(zhì)性的正當理由,這種正當理由涵蓋理性(reasonableness)與合理性(rationality)兩方面的考量[48](p466-467)。根據(jù)羅爾斯的觀點,“理性”意指人的正義感,即愿意遵守公平合作條款的原則和標準,具有很強的道德意蘊;而“合理性”指的是人的善觀念的能力,涉及工具理性層面的目的與手段關系[49](p44-46)。沿著這一邏輯進路,一方面,應在算法行政開展之前,對算法行政目的的合法性與正當性展開論證,考察其是否符合法律規(guī)定且合乎倫理道德規(guī)范。尤其要警惕行政主體在簡約治理動機的驅(qū)動下,借助智能高效的算法技術實現(xiàn)某一特定目的,如完成政績目標。此類目的雖然并不違反法律規(guī)定,但卻與“以人民為中心”的價值理念相違背。并且,在哈耶克看來,倘若政府行為是為了實現(xiàn)某一特定目的,則整個社會易于淪為不自由的社會,嚴重限制人們的自由[50](p41)。另一方面,政府主體應仔細考察算法行政手段是否有助于行政目的之達成。行政手段適當與否不能以實施結(jié)果來判斷[43](p123)。因此,行政人員應充分做好事前論證,依事物本質(zhì)對擬采取的技術手段進行理性分析,若認為其能夠推動行政目的的實現(xiàn),則符合適當性原則;若分析結(jié)論表明技術手段與行政目的無實質(zhì)性聯(lián)系,則應果斷放棄采取算法行政的方式,避免陷入數(shù)據(jù)至上、技術萬能的窠臼。
明確算法行政的適用范圍,厘定算法權(quán)力的邊界。任何權(quán)力都具有天然擴張的傾向,算法權(quán)力概莫能外。為遏制算法權(quán)力的無限擴張,使算法行政的手段與目的關系符合適當性要求,應從具體的應用場景入手,對算法權(quán)力的運行邊界予以框定。具體而言,算法行政主要適用于復雜性和不確定性程度低、偏差小、可分析性高的行政任務,如以政務服務“秒批秒辦”為代表的行政許可、行政給付等應用場景[51](p60);當政府面臨復雜性和不確定性程度高、偏差大、可分析性低的行政任務時[52](p7),如應對社會結(jié)構(gòu)因素復雜且存在價值利益沖突的棘手問題(wicked problems),則應當由人類主導,算法行政權(quán)力不宜介入。在后一種應用場景中,行政主體若一意孤行地開展算法行政,則可能導致其不僅無助于實現(xiàn)預期目標,甚至還會產(chǎn)生適得其反的效果,進一步加劇問題的復雜性和利益相關者的價值觀沖突。如我國S市推出的“文明碼”治理①,不僅引發(fā)了“什么是文明”以及“誰有權(quán)界定文明”等問題的爭議,且從內(nèi)容來看,雖然創(chuàng)制者聲稱其目的是推動社會文明進步,但其內(nèi)容設置及在實踐中的運作,更多地體現(xiàn)為對公民行為的管理和控制,本應被作為目的對待的人類淪為了被管理和控制的手段[36](p63)。為避免類似情況的發(fā)生,應通過硬性制度約束,對算法行政權(quán)力的運行邊界進行限定,使其在合適的應用范圍內(nèi),以適當?shù)氖侄魏头绞街π姓康闹_成。
(二)必要性規(guī)約:堅持算法行政的最小必要原則
規(guī)范權(quán)力行使,限定算法行政的數(shù)據(jù)來源及其處理方式。算法行政為公民建立個人行為模型或畫像,必須以自身無意義的個體數(shù)據(jù)為“食”(feed on infra-individual data)[1](pX)。要想抵御算法權(quán)力對社會公共生活的過分滲透,防止其對公民造成不必要的損害,應從數(shù)據(jù)來源及其處理層面對算法行政的邊界予以厘定。在這一方面,歐盟《通用數(shù)據(jù)保護條例》(GDPR)第5條第1款明確規(guī)定了“數(shù)據(jù)最小化原則”,要求個人數(shù)據(jù)應適當、相關,并以實現(xiàn)數(shù)據(jù)處理目的之必要為限度。我國《個人信息保護法》第6條同樣明確指出,“收集個人信息,應當限于實現(xiàn)處理目的的最小范圍,不得過度收集個人信息”,處理個人信息應“采取對個人權(quán)益影響最小的方式”。因此,當算法行政“基于公共利益目的必須限制個人信息權(quán)益時,應以損害最小、程度最輕、次數(shù)最少的方式進行,盡量縮小采集個人信息的主體范圍和內(nèi)容范圍,盡量降低信息泄露風險”[53](p26)。一方面,限定算法行政中的行政主體可收集的個人信息范圍,嚴禁其收集與實現(xiàn)行政目的無直接關聯(lián)的信息,從而降低公民信息權(quán)益損害的風險;另一方面,在算法行政過程中,行政主體對公民個人信息的處理應盡量采取“去標識化”或“匿名化”等損害最小的處理方式,對個人敏感信息的存儲和傳輸應采取加密措施,以保護公民的隱私安全。
以權(quán)利制約權(quán)力,強化公民的個人信息刪除權(quán)利,完善被遺忘權(quán)相關立法。數(shù)字革命為人們帶來了刪除權(quán)和被遺忘權(quán)等新型權(quán)利,可作為制衡算法行政權(quán)力的有效手段。刪除權(quán)是指當數(shù)據(jù)處理系非法或原初目的已實現(xiàn)或無法實現(xiàn)時,數(shù)據(jù)主體有權(quán)要求數(shù)據(jù)控制者及時刪除其個人信息[54](p98)。與之相應的被遺忘權(quán),指的是當個人信息隨著時間流逝變得不準確、不充分、不相關或者超越信息處理目的時,個人要求信息處理者對此予以刪除的權(quán)利[55](p19)。美國和歐盟對這兩種權(quán)利皆有明文法律規(guī)定。我國《個人信息法》第47條對刪除權(quán)的適用情形作了規(guī)定,但尚未對被遺忘權(quán)進行明確界定。刪除權(quán)和被遺忘權(quán)屬于公民主動控制其個人信息的權(quán)利,能夠?qū)λ惴?quán)力產(chǎn)生一定的制衡作用,直面國家權(quán)力運行的限度問題[56](p235)。基于這兩種權(quán)利,公民可以要求算法行政主體在實現(xiàn)預期行政目的之后,對其個人相關信息進行刪除,或剔除令人難堪且具有一定誤導性的負面?zhèn)€人信息,以防止這些信息被挪作他用,避免后續(xù)對公民的信息權(quán)益和人格尊嚴造成非必要的次生損害。因此,應進一步厘清信息刪除權(quán)利行使過程中各相對人的權(quán)利義務關系,就時間跨度、技術流程和執(zhí)行方式等具體問題作相應的制度安排,為刪除權(quán)的落地實施提供制度保障,并盡快完善相關立法,對遺忘權(quán)的法律地位及其實踐運用細節(jié)予以明確規(guī)定。
(三)均衡性規(guī)約:實現(xiàn)算法行政目的與手段均衡
算法行政本質(zhì)上是一種行政行為,其治理“回路”(governance loop)由四個階段構(gòu)成:信息收集、信息處理、信息利用以及從行為結(jié)果反饋中學習[57](p3)。這四個階段基本涵蓋行政權(quán)力“產(chǎn)生—運行—結(jié)束”全生命周期的關鍵環(huán)節(jié)[58](p69),每一環(huán)節(jié)都會對算法行政目的與手段的均衡關系產(chǎn)生實質(zhì)性影響。鑒于此,我們認為,可以從事前、事中和事后三個階段入手,建立健全損益評估機制、人為阻斷機制和救濟補償機制,以全面提升算法行政的全生命周期均衡性規(guī)約質(zhì)效,最終實現(xiàn)算法行政目的與手段的均衡。
建立算法行政的事前損益評估機制。一方面,行政主體要結(jié)合算法技術專家的意見,對算法行政手段可能產(chǎn)生的公民權(quán)益減損進行評估,考察目的實現(xiàn)的重要程度與公民不可避免的權(quán)益減損程度是否相稱。尤其是當算法行政的應用場景發(fā)生轉(zhuǎn)換時,如從給付行政(自動化政務服務)到干預行政(預測性警務),應重新評估公共利益內(nèi)容與公民個體損益,分析兩者之間的比例關系是否均衡。另一方面,行政主體要讓公眾參與算法影響評估過程,為公眾提供與其權(quán)益相關的算法行為準則[59](p29),充分了解他們的意見和擔憂,站在利益相關者的立場,對目的與手段的比例關系展開評估,將損益評估結(jié)果作為算法行政實施與否的判斷依據(jù)。
構(gòu)建“人在回路上”的事中阻斷機制?!叭嗽诨芈飞稀保℉uman-on-the-Loop)指的是機器人在人類的監(jiān)督下選擇目標對象并采取行動,與此同時,人類保留對機器人自主行動的否決權(quán)[60](p7)。算法行政中的“人在回路上”是政府公共性的集中體現(xiàn),要求行政主體加強對算法技術作用于公共生活的監(jiān)管,一旦發(fā)現(xiàn)其對公民造成的個體損益超出了適當?shù)谋壤秶缟婕肮窕緳?quán)利的侵害,則應及時觸發(fā)阻斷機制,人為終止算法程序的運行,從而最大限度地降低公民權(quán)益損害。在此過程中,作為干預和阻斷算法運行的主體,行政人員應摒棄技術至上和唯政績論的價值理念,堅持“以人民為中心”的行政價值觀[61](p34-36),將人民的基本利益之保障視為算法行政的核心任務。
健全算法行政的事后救濟補償機制。算法行政的損益評估和阻斷機制固然能夠有效降低公民權(quán)益損害的可能性,但由于算法技術的“黑箱”特性及其具備的深度學習能力,行政主體無法完全準確預測潛在的風險且難以及時阻斷算法行政運行。因此,一旦公民個體損益與公共利益失衡成為事實,則只能通過事后救濟補償?shù)姆绞綄@種失衡關系進行調(diào)試。為此,應明確救濟補償標準,建立與公民權(quán)益損害內(nèi)容相對應的補償清單,將物質(zhì)、精神和榮譽等多種補償方式囊括在內(nèi),并從制度上對公民個人權(quán)利救濟的具體情形、方式、程度等進行明確規(guī)定[62](p71),使算法行政的目的與手段盡可能實現(xiàn)均衡。
五、結(jié)語
算法行政是公共行政適應智能時代發(fā)展要求的一種新范式。隨著智能算法賦能政府治理的技術優(yōu)勢不斷顯現(xiàn),行政主體開始嘗試在更多的治理領域開展算法行政。結(jié)果是,算法行政的邊界變得日漸模糊,其權(quán)力運行呈現(xiàn)出積極擴張之勢。我們以政府對數(shù)字接觸追蹤技術的應用為分析對象,發(fā)現(xiàn)算法行政行為存在違背比例原則的實踐樣態(tài),表現(xiàn)為目的與手段的不當聯(lián)結(jié)、對公民造成非最小損害以及公共利益與個體損益的比例性失衡,個中原因則從算法技術的客觀特性和行政人員的主觀意識這兩個方面加以分析。為此,以比例原則的三個子原則為分析框架,可以從適當性、必要性和均衡性三個維度對算法行政進行規(guī)約,即明確算法行政的目的及其適用邊界,在此基礎上,堅持最小必要原則,實現(xiàn)目的與手段的均衡,以此推動算法行政走向善治。
參考文獻:
[1]Rouvroy A,Berns T.Algorithmic Governmentality and Prospects of Emancipation[J].Réseaux, 2013 (1).
[2]Rodrigues N. Algorithmic Governmentality, Smart Cities and Spatial Justice [EB/OL].(2016-07-08)[2022-07-05].https://www.researchgate.net/publication/305044003_Algorithmic_Governmentality_Smart_Cities _and_Spatial_Justice.
[3]Grimmelikhuijsen S, Meijer A. Legitimacy of Algorithmic Decision-making: Six Threats and the Need for a Calibrated Institutional Response[J]. Perspectives on Public Management and Governance, 2022(3).
[4]王張華,顏佳華.人工智能時代算法行政的公共性審視——基于“人機關系”的視野[J].探索,2021(4).
[5]張建文,時誠.個人信息的新型侵權(quán)形態(tài)及其救濟[J].法學雜志,2021 (4).
[6][美]弗吉尼亞·尤班克斯.自動不平等:高科技如何鎖定、管制和懲罰窮人[M].李明倩,譯.北京:商務印書館,2021.
[7][奧]曼弗雷德·諾瓦克.民權(quán)公約評注:聯(lián)合國《公民權(quán)利和政治權(quán)利國際公約》(上)[M].畢小青,孫世彥,等譯.北京:生活·讀書·新知三聯(lián)書店,2003.
[8]張文顯. 數(shù)字人權(quán)引領第四代人權(quán)[EB/OL].(2020-03-18)[2022-08-05].https://law.xtu.edu.cn/info/1123/6883.htm.
[9]Robertson K, Khoo C, Song Y.To Surveil and Predict: A Human Rights Analysis of Algorithmic Policing in Canada[R].Citizen Lab and International Human Rights Program, 2020.
[10]Widlak A,Eck M V,Peeters R.Towards Principles of Good Digital Administration: Fairness, Accountability and Proportionality in Automated Decision-making[M]//Schuilenburg M,Peeters R.The Algorithmic Society: Technology, Power, and Knowledge. New York: Routledge, 2021.
[11]馬長山.數(shù)智治理的法治悖論[J].東方法學,2022(4).
[12]Ranchordas S.Empathy in the Digital Administrative State[J]. Duke Law Journal, 2022(13).
[13]王貴.算法行政的興起、挑戰(zhàn)及法治化調(diào)適[J].電子政務,2021(7).
[14]王懷勇,鄧若翰.算法行政:現(xiàn)實挑戰(zhàn)與法律應對[J].行政法學研究,2022(4).
[15]張恩典.人工智能算法決策對行政法治的挑戰(zhàn)及制度因應[J].行政法學研究,2020(4).
[16]任蓉.算法嵌入政府治理的風險及其防控[J].電子政務,2021(7).
[17]張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019(4).
[18]許玉鎮(zhèn).比例原則的法理研究[M].北京:中國社會科學出版社,2009.
[19]劉權(quán).適當性原則的適用困境與出路[J].政治與法律,2016(7).
[20][美]馬克·波斯特.信息方式——后結(jié)構(gòu)主義與社會語境[M].范靜嘩,譯.北京:商務印書館,2014.
[21]黃靜茹,莫少群.算法監(jiān)控的邏輯理路、倫理風險及治理路徑[J].南京社會科學,2022(6).
[22][美]E.博登海默.法理學——法哲學及其方法[M].鄧正來,姬敬武,譯.北京:華夏出版社,1987.
[23]Pound R.A Survey of Social Interests[J].Harvard Law Review, 1943, 57(1).
[24]吳冠軍.健康碼、數(shù)字人與余數(shù)生命——技術政治學與生命政治學的反思[J].探索與爭鳴,2020(9).
[25]張恩典.數(shù)字接觸追蹤技術的實踐類型、社會風險及法律規(guī)制[J].法學論壇,2022(3).
[26]陳禹衡,陳洪兵.反思與完善:算法行政背景下健康碼的適用風險探析[J].電子政務,2020(8).
[27]黃學賢.行政法中的比例原則研究[J].法律科學,2001(1).
[28]張權(quán),黃璜.技術賦能與復雜性化約——基于“健康碼”的分析[J].政治學研究,2022(2).
[29]Shi L, Shi C, et al. Accelerating the Development of Smart City Initiatives amidst the COVID-19 Pandemic: The Case of Health Code in China[J].Journal of Asian Public Policy, 2022(2).
[30]Matthan R. The Privacy Implications of Using Data Technologies in a Pandemic[J]. Journal of the Indian Institute of Science, 2020(4).
[31]Mukherjee F.Technological Interventions during the COVID-19 Pandemic in India[M]//Silva C N. Local Government and the COVID-19 Pandemic: A Global Perspective. Switzerland: Springer Cham, 2022.
[32]Datta A, Aditi A, et al. Apps, Maps and War Rooms: On the Modes of Existence of “COVtech” in India[J]. Urban Geography, 2021(3).
[33]Madianou M. A Second-order Disaster?Digital Technologies during the COVID-19 Pandemic[J].Social Media+ Society, 2020(3).
[34]Diakopoulos N. Algorithmic Accountability: Journalistic Investigation of Computational Power Structures[J]. Digital Journalism, 2015(3).
[35]Neyland D, M?llers N.Algorithmic IF…… THEN Rules and the Conditions and Consequences of Power[J].Information,Communication amp; Society,2016(1).
[36]郭春鎮(zhèn).對“數(shù)據(jù)治理”的治理——從“文明碼”治理現(xiàn)象談起[J].法律科學(西北政法大學學報),2021(1).
[37]蔣紅珍.比例原則適用的范式轉(zhuǎn)型[J].中國社會科學,2021(4).
[38]張炯.資本積累的“抽離”機制[J].現(xiàn)代哲學,2021(3).
[39]馬知遙.那些層層加碼的防疫政策,該洗刷洗刷了[N]. 新華每日電訊,2021-02-01(05).
[40]寧園.健康碼運用中的個人信息保護規(guī)制[J].法學評論,2020 (6).
[41]譚九生,范曉韻.“算法權(quán)力”的異議與證成[J].北京行政學院學報,2021(6).
[42]張愛軍.“算法利維坦”的風險及其規(guī)制[J].探索與爭鳴,2021(1).
[43]城仲模.行政法之一般法律原則(一)[M].臺北:三民書局,1999.
[44]Barak A.Proportionality:Constitutional Rights and their Limitations[M].Cambridge: Cambridge University Press, 2012.
[45]Ryan M.In Defence of Digital Contact-tracing: Human Rights, South Korea and Covid-19[J]. International Journal of Pervasive Computing and Communications, 2020(4).
[46]方正梁. 防疫健康碼豈能被濫用?[N].人民郵電,2022-06-24(01).
[47]劉琳璘.緊急狀態(tài)的憲法檢視與實施[J].河南財經(jīng)政法大學學報,2021(3).
[48]Cohen-Eliya M, Porat I.Proportionality and the Culture of Justification[J]. The American Journal of Comparative Law, 2011(2).
[49][美]約翰·羅爾斯.政治自由主義(增訂版)[M].萬俊人,譯.南京:譯林出版社,2011.
[50][英]弗里德利?!ゑT·哈耶克.法律、立法與自由[M].鄧正來,張守東,等譯.北京:中國大百科全書出版社,2000.
[51]劉星.行政裁量中的技術控制——基于政務服務應用場景的實踐觀察[J].公共行政評論,2022 (1).
[52]Bullock J B.Artificial Intelligence, Discretion, and Bureaucracy[J].The American Review of Public Administration, 2019(7).
[53]高志宏.個人信息保護的公共利益考量——以應對突發(fā)公共衛(wèi)生事件為視角[J].東方法學,2022(3).
[54]葉名怡.個人信息的侵權(quán)法保護[J].法學研究,2018 (4).
[55]陸青.數(shù)字時代的身份構(gòu)建及其法律保障:以個人信息保護為中心的思考[J].法學研究,2021(5).
[56]杜承銘.數(shù)字社會個人信息被遺忘權(quán)的憲法權(quán)利屬性、邊界與國家義務[J].廣東社會科學,2022(1).
[57]Danaher J,Hogan M J, et al.Algorithmic Governance: Developing a Research Agenda through the Power of Collective Intelligence[J].Big Data amp; Society, 2017(2).
[58]周佑勇.中國行政基本法典的精神氣質(zhì)[J].政法論壇,2022(3).
[59]雷剛,喻少如.算法正當程序:算法決策程序?qū)φ敵绦虻臎_擊與回應[J].電子政務,2021(12).
[60]Citron D K, Pasquale F. The Scored Society: Due Process for Automated Predictions[J].Washington Law Review, 2014(1).
[61]楊建武.歷史賡續(xù)、實踐驅(qū)動與本質(zhì)創(chuàng)新:“以人民為中心”行政價值觀的生成理路[J].理論月刊,2022(6).
[62]曾雄,梁正,張輝.歐美算法治理實踐的新發(fā)展與我國算法綜合治理框架的構(gòu)建[J].電子政務,2022(7).
責任編輯" "楊" "幸