宋丁博男 張家豪
加快構建新安全格局是全面貫徹總體國家安全觀的內在要求和實踐方略。黨的二十大報告指出,要加強個人信息保護,強化數(shù)據(jù)安全保障體系建設,以新安全格局保障新發(fā)展格局,同時要求以人工智能為引擎推動戰(zhàn)略性新興產業(yè)融合集群發(fā)展。作為人工智能發(fā)展的重要體現(xiàn),人臉識別技術被廣泛應用于身份識別、金融支付、社會治理等場景。但是,人臉識別技術的引入與傳統(tǒng)社會秩序結構的融合并不能無縫或自動實現(xiàn),反而會帶來重大的技術、政治和法律挑戰(zhàn),涉及各種既定秩序規(guī)則與法律規(guī)范之間的沖突和談判。2023 年8月,《人臉識別技術應用安全管理規(guī)定(試行)(征求意見稿)》(以下簡稱《人臉識別管理規(guī)定》)的出臺使我國人臉識別技術應用的治理路徑呈現(xiàn)出安全化、場景化、動態(tài)化、精細化的新特征。據(jù)預測,我國人臉識別市場規(guī)模在2024 年將突破100 億元。因此,如何通過制度優(yōu)化規(guī)范人臉識別技術應用,健全數(shù)據(jù)安全治理體系,成為構建中國式現(xiàn)代化數(shù)據(jù)治理體系的重點議題。
作為人工智能領域的落地標桿技術,人臉識別技術應用的法律規(guī)制與人工智能領域個人信息的法治化研究相承接。第一,從理論研究角度來說,人臉信息是人臉識別技術的核心來源(Shore,2022[1]),兼具人格權和財產權屬性,實踐中易產生個人信息安全風險(郭春鎮(zhèn),2020[2];Liu,2021[3])。同時,鑒于人臉識別技術具有泄露、破解及誤差風險,應從風險規(guī)制的視角提供治理思路(Purshouse,2022[4])。第二,從實踐進路研究角度來說,基于對美國、歐盟等地人臉識別技術規(guī)制體系的比較研究(邢會強,2020[5];曾雄等,2021[6]),從立法體系(韓旭至,2021[7];黎靜儀等,2022[8])、賠償制度(羅斌和李卓雄,2021[9];石超和張蓓潔,2022[10])、行政監(jiān)管(于洋,2021[11];Kostka,2023[12])等不同面向提出人臉識別技術應用的治理方案。
總體來看,現(xiàn)有研究多集中于在個人信息保護視域下探討人臉識別技術應用的法律規(guī)制問題,且多從行政規(guī)制的方向切入。規(guī)制措施的單一性導致新安全格局下人臉識別技術應用的風險傳導與利益分配之間存在斷裂性特征,缺乏多元化的應對措施。對此,本文以算法安全理論和數(shù)字人權理論為依據(jù),全面剖析了新安全格局下人臉識別技術應用的法律風險與規(guī)制困境,并結合域外先進立法經驗,提出了統(tǒng)籌發(fā)展和安全的法律規(guī)制路徑。
新安全格局強調科技支撐,通過科技自立自強防范化解重大風險(朱正威等,2023[13])。而人臉識別技術根植于人工智能算法框架,在推動科技創(chuàng)新、助力社會治理的同時,還易引發(fā)算法安全風險與個人信息安全風險,給人臉識別技術應用治理帶來挑戰(zhàn)。
2.1.1 算法安全風險
人臉識別技術是指機器對人臉信息進行圖像采集、提取特征、比對識別,以鑒定其身份的一項人工智能技術(徐竟?jié)傻龋?019[14])。該技術在實際應用中能夠同時處理多個人臉信息(張溪瑨和王曉麗,2023[15]),采用各國研發(fā)的不同算法將人臉信息進行分類、比對、校驗,并利用人臉識別技術的通用性、并發(fā)性、非接觸性等特征,快速無感地識別大量人臉信息。而在此過程中,基于人臉識別技術特征產生的算法博弈、算法歧視及算法誤判等風險迭代增生,給算法安全造成沖擊。
第一,在宏觀的國家應用層面,算法安全屬于非傳統(tǒng)安全的范疇,其首先是被動的算法防御,國家安全不受外部算法損害是實現(xiàn)算法安全的首要條件。同時,算法博弈對現(xiàn)有國際戰(zhàn)略形勢產生影響,主動競爭成為算法安全的新形態(tài)(羅有成,2023[16])。由于算法模型具有國際通用性,其技術邏輯與要素生成具有同一性,因此一旦人臉識別技術的共享應用存在漏洞,人臉信息將批量流轉,不僅損害信息安全,還會對國家算法防御體系產生重大威脅,侵害國家根本利益。
第二,在中觀的社會應用層面,人臉識別技術的并發(fā)性特征易引發(fā)算法歧視風險。在人臉識別技術應用中,人臉信息經采集后進入隱蔽的算法黑箱并進行深度分析。而此環(huán)節(jié)往往存在著對社會群體無依據(jù)、不合理的篩選評估,產生分類、排除等“標簽化”行為,涉及算法歧視和算法偏見。而這種歧視往往是持續(xù)的、不可逆的,個人無法決定人臉識別技術的應用過程,一旦算法歧視產生將難以中止,信息主體將面臨取證難、補救難等困境。此外,企業(yè)主體在應用人臉識別技術的過程中,為制定精準的市場戰(zhàn)略,往往會通過“情感計算”等方式對人臉信息進行自動化決策(唐林垚,2022[17]),但同時也易引發(fā)自動化決策歧視,對個人區(qū)別對待,侵害算法嵌入社會時的實質公平,不利于算法安全的持續(xù)穩(wěn)定。
第三,在微觀的個人應用層面,算法的數(shù)據(jù)來源于每個個體,是算法安全的微觀形態(tài),其準確性將直接關系到算法是否安全可控,而算法系統(tǒng)自身的脆弱性往往導致對數(shù)據(jù)丟失、數(shù)據(jù)投毒等威脅難以及時響應。例如,人臉識別技術就存在著深度學習能力有限、樣本數(shù)據(jù)不足等問題,從而引發(fā)算法誤判風險。此外,基于人臉面具模型產生的3D 欺騙攻擊蔓延滋生(孫道銳,2021[18]),攻擊者通過向人臉識別技術系統(tǒng)演示假識別信息實施欺騙攻擊,而人臉識別技術反欺騙攻擊策略的不完善導致“代驗證”“過人臉”等黑灰產業(yè)鏈持續(xù)擴張,誘發(fā)犯罪行為。由此可見,算法誤判風險不僅會降低人臉識別技術的應用效率與安全指數(shù),公眾還會對人臉識別技術參與社會治理產生信任危機,不利于保障作為算法安全基本單元的個人的數(shù)據(jù)權益。
2.1.2 人臉信息風險
數(shù)字生活安寧與財產安全是數(shù)字時代個人利益的重要方面,“數(shù)字化生存”實踐與第四代人權理論催生了數(shù)字人權理論,“數(shù)字人權”概念可界定為展現(xiàn)著智慧社會中人的數(shù)字化生存樣態(tài)和發(fā)展需求的基本權利(馬長山,2019[19])?!秱€人信息保護法》第28 條將人臉信息等生物識別信息確定為敏感個人信息,具有高度的人格利益屬性,與個人隱私、個人行動自由等利益密切相關。因此,人臉識別技術應用過程中由于不當處理人臉信息所引發(fā)的信息泄露、濫用等風險,將會對個人人格利益和財產利益產生嚴重威脅。
第一,信息泄露造成隱私威脅和財產風險。一方面,對人臉信息的處理如果不符合敏感個人信息的安全處理要求,導致人臉信息泄露,容易對人格尊嚴產生侵害。人臉信息具有高度專屬性與識別性,對人臉信息進行采集分析后將建立數(shù)據(jù)庫,同其他網絡節(jié)點的個人信息關聯(lián)識別后能夠形成“個人信息長鏈”。而數(shù)據(jù)庫與信息鏈一旦泄露,面部識別特征、活動位置及可識別行為等個人私密信息將公諸于眾,嚴重侵害個人隱私。另一方面,人臉識別技術能夠對個人身份進行標識化、密碼化處理(Eltaieb,2023[20]),使得人臉識別逐漸取代了傳統(tǒng)的人工核對、指紋識別等方式,成為金融支付領域的首選模式。然而,受限于人臉識別系統(tǒng)的準確率和安全性,人臉信息若遭到泄露或篡改,人臉識別技術將為詐騙、洗錢等多種犯罪行為提供技術溫床,從而侵害公民的個人財產安全。
第二,信息濫用造成尊嚴貶損及利益失衡。該風險主要體現(xiàn)在人臉信息的深度合成和深層利用兩個方面。其一,AI 換臉等人臉合成技術如今已成為一項無門檻使用技術,實踐中人臉信息未經授權被濫用、丑化、貶損等現(xiàn)象頻發(fā),侵害公民的人格尊嚴。加之人臉信息具有唯一性和不可替代性,對肖像權的侵害具有難以挽回的特征。此外,大量的人臉信息濫用在一定程度上導致知情同意框架失靈,人臉信息處理者對處理目的、方式及時限僅作簡單告知或隱匿告知,從而遏制了個人信息自決權的實現(xiàn)。其二,在金融支付、市場交易等人臉識別技術深層利用的場域下,人臉信息不斷生成、交互和流動。在該環(huán)節(jié)中,人臉信息的處理大多由第三方技術公司開展,商業(yè)主體的逐利性本質容易導致人臉信息的非法收集與流動,以及不履行或延遲履行刪除義務等行為的產生。而在社會治理、公共服務的場域下,人臉信息的公共利益屬性凸顯,個人信息權益在維護公共利益的情形下應予以一定程度的讓渡。然而,隨著人臉識別技術應用“全場景監(jiān)控”能力的不斷提升(洪延青,2024[21]),個人權益、企業(yè)利益及公共利益三者之間的沖突也在與日俱增。
科學立法是完善技術應用治理體系的根本前提,公正司法是化解技術應用矛盾糾紛的有效手段,嚴格執(zhí)法是推動技術向上向善發(fā)展的重要保障,三者共同構成了人臉識別技術應用法律規(guī)制體系的核心要素。目前,我國針對人臉識別技術應用在立法、司法和執(zhí)法三個環(huán)節(jié)均進行了有效規(guī)制??傮w而言,在立法層面,我國正在探索構建新安全格局下規(guī)范人臉識別技術應用、保護個人信息安全的制度約束框架,總體呈現(xiàn)從被動到主動、從單一到多元、從靜態(tài)到動態(tài)的治理特點與趨勢;在司法層面,人臉識別技術侵權采取過錯推定責任原則,消解了公民取證難的現(xiàn)實困境,并通過公益訴訟的適用有效擴充了司法救濟途徑;在執(zhí)法層面,我國針對人臉識別技術應用的安全監(jiān)管總體呈現(xiàn)出領域分散監(jiān)管的樣態(tài),并通過采取行業(yè)自律等模式對行政監(jiān)管予以補充。然而實踐中,人臉識別技術應用引發(fā)的新型法律風險對現(xiàn)行制度提出了新挑戰(zhàn)。例如,人臉信息的場景化特征提高了人臉識別技術應用精細化立法的難度;人臉識別技術侵權的隱蔽性、不可挽回性等特征導致救濟成本增加,限縮了公民的數(shù)字人權;同時,分散監(jiān)管導致的治理真空使算法安全遭受沖擊。
2.2.1 人臉識別技術應用的場景規(guī)制困境
場景化立法能夠依照不同場景的特征,根據(jù)信息主體的合理預期制定具有針對性的法律規(guī)則,并已成為新興技術應用中個人信息保護的重要手段。我國目前初步構建了體系化的人臉識別技術應用規(guī)則體系,呈現(xiàn)出“集中型”的立法態(tài)勢,但針對技術應用的場景化規(guī)制依然存在缺位?!睹穹ǖ洹返?034 條將生物識別信息納入個人信息的保護范疇,奠定了人臉識別技術應用治理的基本價值取向;《數(shù)據(jù)安全法》基于總體國家安全觀視角,對人臉信息的安全管理進行了原則性規(guī)定;《個人信息保護法》將人臉信息納入敏感個人信息保護范疇,并對信息處理規(guī)則予以細化;而《人臉識別管理規(guī)定》進一步細化上位法規(guī)定,運用場景化手段明確了公共場所、經營場所、私密場所等公私場景下的技術應用規(guī)則,初步體現(xiàn)了場景化規(guī)制的內容,但并未依據(jù)技術的不同功能予以針對性規(guī)制, 同時也缺乏對該技術在不同場景中應用風險差異的具體考量,難以指導日益復雜的技術應用實踐。
首先,具體場景界定與劃分的標準較為模糊,盡管該規(guī)定將場景分為個人隱私場景、公共場景和經營場景三大類,并詳細劃定了多個類型的場所,但并未在規(guī)則層面明確界定、區(qū)分涉及個人法益與公共法益的技術應用場景,導致場景分類標準模糊。其次,合理預期是目的限制原則的重要判定依據(jù),但以信息主體為中心的合理預期方案亟待完善。信息主體在進行人臉識別時,對于人臉信息的使用目的和時限缺乏預期,無法有效保障其個人信息權益。最后,人臉識別技術場景化應用的風險防范措施缺位,導致場景化立法規(guī)制的效能未能得以充分發(fā)揮。因此,須在分類標準、信息授權及風險防范三個方面繼續(xù)深化落實場景化規(guī)制理念,提升治理能力,以應對人臉識別技術引發(fā)的多重法益風險。
2.2.2 人臉識別技術侵權的法律救濟困境
損害判定是追訴侵權責任的前提,亦是救濟的先決要件。而人臉識別技術侵權產生的實質損害難以判定,導致被侵權人面臨舉證難、維權難及程序繁瑣等困境。2021 年發(fā)布的《最高人民法院關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規(guī)定》(以下簡稱《人臉信息司法解釋》)旨在維護個人信息安全與數(shù)字經濟發(fā)展之間的平衡,其中第6 條第3 款規(guī)定,信息處理者主張其不承擔民事責任的,應當就其行為的免責情形承擔舉證責任,從而將人臉信息侵權責任類型歸為過錯推定責任,實施舉證責任倒置,一定程度上緩解了公民取證難的現(xiàn)實困境;第14 條規(guī)定了有關人臉識別技術應用的民事爭議可適用公益訴訟,有效擴充了司法救濟途徑?;诖耍度四樞畔⑺痉ń忉尅烦蔀樗痉C關處理人臉識別技術領域民事爭議的重要參考,但實踐中仍存在適用上的困境。
首先,過錯推定責任原則并未徹底消解信息處理者與信息主體間的數(shù)字鴻溝,受害人往往只有在法院綜合評判信息處理程序規(guī)范性和損害結果危害性之后,才有機會獲得相應救濟,而程序違規(guī)不能成為責任判定的獨立依據(jù)(羅斌和李卓雄,2021[9])。加之相關規(guī)則對受害人行使訴權設置了前置程序,加重了訴訟負擔與維權成本。其次,人臉識別技術侵權具有秘密性、規(guī)模性等特征,導致大部分受害人難以發(fā)現(xiàn)及取證,而我國現(xiàn)有的代表人訴訟制度類似于歐盟的加入制集團訴訟,設立了受案范圍、受案條件等多種限制,難以充分救濟受害人的權益。最后,我國的公益訴訟制度對人臉識別技術侵權的民事救濟具有一定制度優(yōu)勢,能夠較大程度地修復公益損害。例如,2023 年10 月,廣州互聯(lián)網法院發(fā)布全國首例涉“人臉識別”民事公益訴訟案件,被告人因非法處理人臉信息侵害了不特定主體的信息自決權,最終判處被告支付公益損害賠償金10 萬余元。但現(xiàn)行制度對于人臉識別技術侵權領域公益訴訟的適用條件和賠償標準規(guī)定不明,導致實踐中責任認定和法律適用產生爭議。此外,檢察機關是提起公益訴訟的適格主體,但人臉信息侵權領域的檢察公益訴訟制度尚未完全形成,難以充分發(fā)揮公訴機關的訴訟優(yōu)勢,疏解人臉信息侵權的救濟困境。
2.2.3 人臉識別技術應用的分散監(jiān)管困境
人臉識別技術應用的有效監(jiān)管不僅是落實人臉識別技術應用規(guī)制的必要條件,也是推進國家數(shù)據(jù)安全治理體系的應有之義。從監(jiān)管的運行邏輯來看,我國對于人臉識別技術應用的監(jiān)管主體、監(jiān)管內容與監(jiān)管模式均呈現(xiàn)分散態(tài)勢。
首先,盡管我國初步構建了以國家網信辦為核心,電信、公安、市場監(jiān)管等有關部門相協(xié)調的個人信息安全監(jiān)管體系,例如,市場經營、金融支付領域產生的人臉信息風險分別由市場監(jiān)督管理機構和金融監(jiān)督管理機構監(jiān)管,但現(xiàn)有規(guī)范尚未明確各監(jiān)管機構的職權范圍及邊界,導致實踐中多頭監(jiān)管、交叉監(jiān)管等問題的產生。其次,我國在適用行業(yè)自律機制的同時,還實行了契合我國法治實踐的備案管理制度:《生成式人工智能服務管理暫行辦法》第17 條對算法備案進行了原則性規(guī)定;《人臉識別管理規(guī)定》第16 條進行了補充,規(guī)定在公共場所使用人臉識別技術,或者存儲超過1 萬人人臉信息的人臉識別技術使用者,應當向所屬地市級以上網信部門備案。但是兩者均未明確備案管理制度的審核方式、審核流程及審核結果等內容。同時,我國以傳統(tǒng)的行政監(jiān)管手段為主,對行業(yè)自律、第三方評估等監(jiān)管機制的應用不足,導致監(jiān)管機構之間缺乏協(xié)作,評估體系趨于主觀化和形式化。最后,我國在人臉識別技術應用領域多采取事中和事后監(jiān)管模式,在評估、試點等事前環(huán)節(jié)存在治理真空,增加了人臉識別技術的安全風險與監(jiān)管合規(guī)成本。2023 年成立的“國家數(shù)據(jù)局”有助于加強數(shù)據(jù)安全和隱私保護,確保人臉信息的合法使用與共享,但其針對人臉識別技術領域的監(jiān)管職責亦須進一步明確。
為應對人臉識別技術應用產生的各類風險與沖突,各國紛紛加強數(shù)據(jù)治理前瞻性布局,人臉信息保護法治化成為世界信息治理的新趨勢,其中法律層面重在發(fā)揮法律評價和指引功能,政府層面以數(shù)據(jù)流轉為治理重點,行業(yè)層面則以倫理和行業(yè)自律引導人臉識別技術的發(fā)展方向。實踐中,以歐盟和美國的法律規(guī)制最為典型:歐盟的數(shù)據(jù)安全治理實踐較早,目前已形成以《通用數(shù)據(jù)保護條例》(GDPR)為核心的人臉識別技術應用治理體系,以風險預防為原則;美國是人臉識別技術及立法的先驅,側重市場調節(jié)導向,區(qū)分行業(yè)及地區(qū)對人臉識別技術應用進行規(guī)制。
在立法層面,歐盟采取集中立法的形式,呈現(xiàn)嚴格立法的態(tài)勢??偟膩碚f,歐盟以GDPR 作為人臉識別技術應用治理的基本依據(jù)。在GDPR 框架內,人臉識別技術被嚴格限制使用,除非符合明確同意、公共利益等特別規(guī)定,信息處理者不得處理人臉信息。2021 年,歐盟對《個人數(shù)據(jù)自動化處理中的個人保護公約》予以補充,發(fā)布了《人臉識別指南》,要求人臉識別技術使用前須進行合法性、正當性、必要性和安全性評估。此外,同年發(fā)布的《人工智能法案(草案)》要求對人臉識別技術應用進行場景化規(guī)制,將其應用場景區(qū)分為公共場所和非公共場所,并將公共場所中“實時”應用人臉識別技術歸類于“禁止使用的人工智能技術”部分中。2023 年12 月,歐盟就《人工智能法案》達成臨時協(xié)議,其中雖仍嚴格禁止各主體從互聯(lián)網、閉路電視錄像中無目的地抓取人臉信息,但對執(zhí)法部門在面對嚴重犯罪、現(xiàn)實威脅等情形下應用人臉識別技術進行了一定的豁免,但必須附加額外的保障性措施。
在司法層面,歐盟對于人臉識別技術侵權責任采取了單方面判定的方式,即一旦存在程序違規(guī)即負有侵權責任,至于權利人是否經過前期投訴程序、有無受到實際損害并非人臉識別技術侵權的判斷標準(Chen,2023[22])。具體而言,GDPR 規(guī)定的司法救濟途徑主要分為私人訴訟和加入型集團訴訟兩種模式,其中后者在客觀上保障了信息主體的訴權,但同時也在一定程度上導致了司法成本的增加和司法效率的降低。此外,歐盟各法院的裁判結果較為統(tǒng)一,除依據(jù)GDPR 進行行政處罰外,權利人還可根據(jù)GDPR 第17 條有關“被遺忘權”的規(guī)定,主張對人臉信息進行斷鏈或刪除,盡量減輕信息主體因人臉識別技術應用所受的損害,補足實質救濟措施。
在執(zhí)法層面,歐盟實行統(tǒng)一監(jiān)管模式,設立了數(shù)據(jù)保護監(jiān)管機構(DPA)、歐洲數(shù)據(jù)保護委員會(EDPB)等專門性機構,對人臉識別技術應用及其附帶產生的法律問題進行監(jiān)管,包括監(jiān)督法案的落地實施情況、接收投訴并實施處罰等,總體構成了獨立運行的監(jiān)管體系。同時,歐盟通過GDPR 及相關法案引入第三方評估進行監(jiān)管,通過第三方機構的獨立性確保人臉識別技術評估的有效性和專業(yè)性。此外,歐盟近年來逐步加強了人臉識別等人工智能技術的安全屏障,重視全流程監(jiān)管,嚴格限制人臉信息的跨境流動,并利用斷鏈、封鎖等安全手段防范核心數(shù)據(jù)泄露或濫用,以最大限度地保障個人信息安全。
在立法層面,州立法是美國規(guī)制人臉識別技術應用的主要方式,2008 年伊利諾伊州通過的《生物特征信息隱私法》(BIPA)就是其中的一部重要法案。該法第15 條規(guī)定,告知與同意僅在書面形式下有效,其他形式一律無效。然而實踐中,州立法的分散性特征導致美國各州對于人臉識別技術應用的規(guī)制法案存在沖突,部分州禁止其應用于公共治理(郭躍等,2021[23]),部分州則限制使用,但總體呈現(xiàn)出限制公權力應用的趨勢。在聯(lián)邦統(tǒng)一立法中,2019-2020 年期間,美國通過區(qū)分場景及應用主體,將人臉識別技術的應用場景劃定為公權主體應用和私權主體應用,并出臺了一系列有關人臉識別技術應用的法案(楊華,2023[24]):其中,《商業(yè)人臉識別隱私法案》側重隱私保護,但并未明確限制人臉識別技術的使用;《人臉識別技術授權法案》創(chuàng)設了人工審查機制,以確保人臉識別技術的準確性,防范算法歧視和誤判;《道德使用人臉識別法案》要求盡快完善人臉識別技術應用規(guī)則,在規(guī)則出臺前禁止公權力機關的使用。此外,2022 年美國國會提出的《人臉識別法案》也主張嚴格限制政府執(zhí)法部門使用人臉識別技術。由此可見,美國在逐步限制公權主體使用人臉識別技術,收束人臉識別技術應用范圍,但對私權主體的人臉識別技術應用仍缺少相應規(guī)制。
在司法層面,美國對于人臉識別技術侵權的救濟側重采用隱私權保護的方式,即在侵權責任認定中,先對處理程序是否違規(guī)予以審查,再根據(jù)有無侵犯個人隱私來判定侵權行為是否存在,最后根據(jù)實質損害結果決定具體的賠償方式,形成“分步救濟”的保護路徑(Chen,2023[22])。在具體救濟途徑中,除私人訴訟外,《美國聯(lián)邦民事訴訟規(guī)則》第23 條還規(guī)定了退出制集團訴訟,即一旦允許提起集體訴訟,所有符合條件的公民將自動成為集體訴訟的成員,除非他們主動選擇退出,以保障更多公民在人臉識別技術應用領域的救濟權利?;诖?,在司法實踐中,人臉信息處理者對所有權利人均負有賠償義務(楊華,2023[24])。此外,《道德使用人臉識別法案》對司法救濟措施還進行了有益補充,指出公民可依法向美國地方法院申請禁止令或宣告性救濟,以避免人臉識別技術對公民基本權利的持續(xù)侵害。
在執(zhí)法層面,由于美國尚未形成專門的監(jiān)管機構,各州的監(jiān)管模式和監(jiān)管理念存在差異,導致監(jiān)管體系較為混亂。盡管美國聯(lián)邦貿易委員會(FTC)是綜合性、跨行業(yè)的執(zhí)法機構,對人臉識別技術應用具有執(zhí)法權限,但實踐中,F(xiàn)TC 多傾向于通過和解等方式促進企業(yè)合規(guī),成為企業(yè)的“合規(guī)指導機構”而非“合規(guī)監(jiān)管機構”,執(zhí)法能力存在不足(Waldman,2022[25])。因此,美國公民自由協(xié)會(ACLU)、未來隱私論壇(FPF)等行業(yè)組織通過制定行業(yè)自律公約,形成了一套同行政監(jiān)管互為補充的獨特的行業(yè)自律機制(盧艷玲和楊震,2023[26]),為構建人臉識別技術應用的多元監(jiān)管體系提供內生動力,并被多個國家所借鑒。
相較于歐盟和美國,中國兼顧人臉識別技術發(fā)展與個人信息安全利益,形成了具有中國特色的數(shù)據(jù)安全治理體系,三者在人臉識別技術應用的立法、司法和執(zhí)法方面各有側重(見表1)。因此,比較考查人臉識別技術應用規(guī)制政策的特點與趨勢,是掌握各國數(shù)據(jù)安全治理進路、轉化域外數(shù)據(jù)安全治理經驗的必要途徑。
表1 歐盟、美國、中國人臉識別技術應用法律規(guī)制對照表
第一,貫徹場景導向的立法理念。立法理念是國家意志和法律精神的重要體現(xiàn),是人臉識別技術應用治理的內在邏輯。目前,各國對人臉識別技術應用普遍采取審慎態(tài)度。例如,歐盟高度重視人臉識別技術應用引發(fā)的人權風險,針對人臉識別技術多樣化的應用場景,構建了“動態(tài)同意”機制,嚴格限制人臉識別技術應用于公共場所,并規(guī)范了該技術在非公共場所的應用;美國立法者提倡新自由主義,以促進商業(yè)利益、限制公權力濫用為出發(fā)點,著眼于人臉識別技術應用主體,對民商事主體應用人臉識別技術的限制較少,重點規(guī)制公權力機關的技術應用行為,即公權力主體須公示人臉識別技術的使用情況,接受民眾監(jiān)督,避免權力濫用??傮w而言,各國立法傳統(tǒng)、體制與社會環(huán)境的差異使其法律規(guī)制的側重點有所不同,但目前已普遍認識到人臉識別技術在不同應用場景下的特殊性,并據(jù)此出臺了一系列法律法規(guī),場景化規(guī)制理念成為各國人臉識別技術應用立法的必然選擇。就我國而言,公民對于人臉識別技術應用的信賴度相對更高,具備消解數(shù)字鴻溝的現(xiàn)實基礎。對此,應當秉承審慎應用場景化規(guī)制理念的基本原則,通過保護公民的合理信賴利益,建立動態(tài)知情同意機制,并進一步探索公私場所的具體區(qū)分標準。
第二,實施傾斜保護的救濟體系。司法救濟具有事后補救性特征,是維護程序正義與實體正義的重要環(huán)節(jié)。人臉識別技術革新導致信息主體與信息處理者之間的認知能力失衡,為填平能力差距,保障信息主體利益,各國在司法救濟上總體呈現(xiàn)出降低訴訟門檻、擴大救濟范圍的趨勢。例如,在歐盟的侵權責任認定規(guī)則中,只要數(shù)據(jù)處理者程序違規(guī)即可認定其侵權,且未對受害人行使訴權設置前置程序,以減輕受害人的舉證責任;美國則采用“分步式救濟”與退出制集團訴訟制度的救濟思路,將利益關涉的沉默群體自動加入集團訴訟,并限制信息主體以明示或默示方式行使訴訟退出權,以排除個人因素對群體利益的妨害,降低弱勢受害者群體行使訴權的成本與難度。鑒于司法救濟具有一定的滯后性,我國應采取傾斜保護原則,科學配置強弱雙方的程序性權利義務,完善便利信息主體的程序性要件,擴充公益訴訟等救濟渠道,并借鑒歐盟的被遺忘權制度完善救濟措施,進一步貫徹恢復性司法的理念。
第三,建立一體適用的監(jiān)管機制。針對人臉識別技術多樣態(tài)的應用場景,各國的監(jiān)管機制各具特色,但協(xié)同一體的監(jiān)管模式是其基本方向。在監(jiān)管機構的體系化建設方面,歐盟GDPR 第51-59 條規(guī)定了數(shù)據(jù)安全監(jiān)管機構DPA、EDPB 的職責范圍,以確保GDRP 同其他法規(guī)在歐盟的適用一致性,并協(xié)調促進歐盟各成員國數(shù)據(jù)保護機構的合作;美國部分州成立了專門性的數(shù)據(jù)保護機構,如加利福尼亞隱私保護局(CPPA)等,對人臉識別技術應用進行監(jiān)管,并通過FTC 保障技術的合規(guī)應用。此外,日本個人信息保護委員會(PIPC)、新加坡個人數(shù)據(jù)保護委員會(PDPC),以及俄羅斯聯(lián)邦通信、信息技術和大眾傳媒監(jiān)督局(Roskomnadzor)等也都是涵蓋人臉信息保護職能的專門性監(jiān)管機構。在監(jiān)管措施方面,歐盟引入第三方評估機制并賦予其獨立性,同時還采取了透明度報告、數(shù)據(jù)保護影響評估、人工智能監(jiān)管沙盒等措施,積極引領全球標準化建設;美國則更為重視行業(yè)自律機制的軟法價值,通過行業(yè)自律公約填補政府監(jiān)管的不足。對此,為應對我國的分散監(jiān)管困境,有必要設立獨立的監(jiān)管機構,搭建協(xié)同監(jiān)管平臺,突出風險管控和風險預防,實施能動高效、一體適用的技術應用監(jiān)管機制。
利益平衡是公共政策的邏輯起點。數(shù)字時代,數(shù)據(jù)的累積效應、結合效應,以及技術、算法的進步使得人臉識別技術發(fā)展與個人信息安全之間存在緊張關系,而安全是發(fā)展的前提,發(fā)展是安全的保障。我國應結合場景規(guī)制理論、風險預防理論和數(shù)據(jù)治理實際,構建統(tǒng)籌發(fā)展和安全的人臉識別技術應用治理路徑。
場景化立法規(guī)制已廣泛應用于我國個人信息保護領域,其內在機理在于建立不同場景下的個人信息保護規(guī)則。而人臉識別技術在各場景中的應用規(guī)則不同,運用場景規(guī)制理論能夠契合人臉識別技術的本質特征,從而建立與場景特征相符的立法規(guī)制模式。
4.1.1 明確具體場景應用的分類標準
場景分類是場景化法律規(guī)制的先決條件,而《人臉識別管理規(guī)定》對于場景分類的標準模糊,且存在交叉重疊的現(xiàn)象,難以為人臉識別技術應用的精細化治理提供明確指引。雖然學界對于人臉識別技術應用的場景化分類標準尚存爭議,但總體上可將場景劃分為單一型和復合型兩類,以信息來源、參與主體及傳輸原則作為判定標準,以使用場景的復雜性決定具體的法律規(guī)制模式(姜野,2023[27])。在個人信息保護影響評估、技術安全性評估及信息斷鏈刪除評估等環(huán)節(jié)中,應當著重考慮場景要素對評估標準的影響。由此,個人信息保護影響評估可在不同場景下防范化解人格權益風險;技術安全性評估可規(guī)避不同場景下的安全風險;信息斷鏈刪除評估可通過斷鏈的方式使數(shù)據(jù)不可跨場景匹配,同時建立匿名化或刪除信息的監(jiān)測機制。
4.1.2 建立場景化動態(tài)知情同意模式
《個人信息保護法》第29 條規(guī)定,處理人臉信息等敏感個人信息須取得信息主體的單獨同意或書面同意。然而,若在所有場景下均對人臉識別技術應用采取單獨同意原則,將顯著降低人臉識別技術的使用效率。因此,有必要通過場景化規(guī)制的手段完善知情同意原則,建立動態(tài)知情同意模式,在保障個人信息自決權的前提下,兼顧人臉識別技術的使用效率。首先,根據(jù)不同場景選用恰當?shù)母嬷夥绞剑鐝棿疤崾?、書面簽署等,并向信息主體提供分項同意的選擇。其次,以顯著方式向信息主體告知人臉識別技術的應用場景、用途、目的及必要性,保障信息主體的合理預期與信賴利益。最后,強調知情同意的動態(tài)性,完善“告知—同意—同意撤回”的動態(tài)機制,依據(jù)不同場景設置自主撤回的條件,并保障撤回權的便捷行使。
場景化立法規(guī)制為有效解決人臉識別技術治理的實體問題提供了制度保障,而在司法層面,救濟體系的相對穩(wěn)定性使其難以動態(tài)應對因新技術應用引發(fā)的程序性問題。因此,我國有必要完善便利化的司法救濟體系,為處于弱勢的信息主體提供傾斜保護(石超和張蓓潔,2022[10]),破除信息主體參與訴訟、獲得救濟的路徑障礙。
4.2.1 厘清救濟邊界
在人臉識別技術侵權的司法救濟中,既要厘清法律適用標準的實質要件,還要明確提起訴訟的程序要件。一方面,《人臉識別管理規(guī)定》對人臉識別技術應用的目的性審查提出了更為嚴格的要求,明確指出“非必要不使用人臉識別技術”(第4 條)。盡管《人臉信息司法解釋》確立了舉證責任倒置制度,但由于合法、正當、必要原則的審查標準過于寬泛,從而變相增加了侵權行為的認定難度。對此,應當進一步明確合法、正當、必要的界限,開展實質審查,審慎分析人臉信息處理者的處理目的,以規(guī)避形式審查對人格利益產生的侵害風險。另一方面,訴權是民事主體的基本權利之一,對訴權的限制必須由法律作出明確規(guī)定。對此,司法實踐中不應設定人臉識別技術侵權訴訟的前置條件,即受害人無需先向侵權人提出請求或向監(jiān)管機構投訴,可以直接向人民法院提起訴訟,以保障民事主體訴權的實現(xiàn)(程嘯,2023[28])。
4.2.2 補足救濟措施
首先,參照《證券法》中有關“特別代表人訴訟制度”的規(guī)定,完善代表人訴訟制度在人臉識別訴訟案件中的應用,擴大救濟的覆蓋面,使受害人因相同案由自動獲得訴訟資格,降低參與訴訟的難度。其次,完善人臉識別技術侵權領域的民事公益訴訟制度,細化《人臉信息司法解釋》的內容,對受案范圍、起訴主體、起訴條件等內容作出明確規(guī)定,統(tǒng)一公益訴訟賠償標準和賠償范圍。同時,在《檢察機關提起公益訴訟改革試點方案》中細化人臉識別技術侵權的相關規(guī)定,切實發(fā)揮審判監(jiān)督機關的作用,貫徹恢復性司法理念。最后,人臉識別技術侵權具有緊迫性、持續(xù)性和不可挽回性等特征,對此,歐盟建立了數(shù)據(jù)被遺忘權制度,以提升司法救濟的實質效果。而我國可以適當簡化信息主體行使刪除權的程序,并通過第三方見證、司法監(jiān)督等方式監(jiān)督人臉信息的刪除效果(宋丁博男和張家豪,2023[29]),盡量減輕人臉識別技術應用的消極影響。
形塑切實可行的監(jiān)管機制是破除我國人臉識別技術規(guī)制困境的重點??偟膩碚f,我國目前存在監(jiān)管機構分散、監(jiān)管模式單一、監(jiān)管措施碎片的制度困境,導致執(zhí)法效能降低。對此,有必要構建協(xié)同化監(jiān)督管理機制,調動多元主體參與治理的積極性,形成人臉識別技術監(jiān)管合力。
4.3.1 優(yōu)化監(jiān)管機構配置
首先,人臉識別技術作為以算法、數(shù)據(jù)、算力為核心的新興數(shù)字技術,可由新組建的國家數(shù)據(jù)局統(tǒng)籌人臉識別技術應用監(jiān)管策略,出臺相關政策及標準,避免各地區(qū)、各領域因監(jiān)管差異產生的政策偏移,減少監(jiān)管協(xié)調成本。其次,明確監(jiān)管機構的職能范圍,運用場景化規(guī)制模式,依據(jù)場景特征選擇與之匹配的監(jiān)管主體。同時,在需要多部門、多區(qū)域聯(lián)合監(jiān)管的場景下,明確各個監(jiān)管主體的責任,避免監(jiān)管沖突,并建立相應的沖突解決機制,在監(jiān)管沖突產生后報請共同上級機關確定監(jiān)管主體。最后,細化末端監(jiān)管,在監(jiān)管體系的最末端引入第三方評估模式,監(jiān)管公權力的行使,確保監(jiān)管主體的獨立性和協(xié)同性,避免因公私主體間利益交疊導致的監(jiān)管失效。
4.3.2 完善行業(yè)自律機制
行業(yè)自律機制旨在激發(fā)市場內生動力,約束市場不良行為,并利用市場自身的調適功能對行政監(jiān)管予以補充,有利于實現(xiàn)各方利益平衡、增強行業(yè)誠信,為人臉識別技術應用的協(xié)同監(jiān)管提供內在動因。2020 年出臺的《人臉識別線下支付行業(yè)自律公約(試行)》對金融支付領域的行業(yè)自律機制進行了有益探索,然而由于行業(yè)標準難以統(tǒng)一,加之監(jiān)督救濟規(guī)則的缺失,使得該制度在其他人臉識別技術應用場景中仍處于缺位狀態(tài)。因此,行業(yè)自律機制的完善須建立在場景化規(guī)制的基礎上,基于各領域特征總結適用標準,并為其制定配套的懲戒和救濟措施,以保障行業(yè)自律機制的有效運轉。但與此同時,由于行業(yè)自律公約的軟法特征顯著,具有較高的制度彈性,一方面,應確保人臉識別技術具有恰當?shù)臏嗜腴T檻、獎懲措施和退出機制;另一方面,應審慎對待自律公約,在訂立、修改及廢止自律公約時,須充分保障各方的知情權,防止行業(yè)自律公約因產生較大的任意性而喪失其公信力。
4.3.3 應用監(jiān)管沙盒測試
監(jiān)管沙盒測試以實現(xiàn)包容審慎監(jiān)管為制度導向,是統(tǒng)籌人臉識別領域技術發(fā)展與數(shù)據(jù)安全的有效手段,能夠在相關技術大規(guī)模應用前開展監(jiān)管預評估,同時為人臉識別技術發(fā)展提供一定的“監(jiān)管豁免”和試錯成本,促進技術迭代。因此,有必要在人臉識別技術市場化應用之前,引入監(jiān)管沙盒測試,將其放置于“沙盒”這一測試真空,促進監(jiān)管彈性達到動態(tài)平衡,實現(xiàn)監(jiān)管“去中心化”。同時,還可以利用監(jiān)管沙盒的扁平化特征,提高技術透明度與可信度,打破橫向監(jiān)管壁壘,促進監(jiān)管信息流動,為安全審查提供便捷的信息獲取渠道。當然,在監(jiān)管沙盒的實際應用中亦須考量多方面因素(戚聿東和劉歡歡,2022[30])。首先,監(jiān)管沙盒測試的標準應由國家數(shù)據(jù)局、網信辦等機構統(tǒng)一制定;其次,沙盒測試應重點考查人臉識別技術是否符合“目的性、安全性、規(guī)范性”三項原則,以確保人臉識別技術符合沙盒制定的安全標準,并具有相應的形式和技術規(guī)范;再次,依據(jù)場景化特征構建“沙盒”的具體方案,使人臉識別技術在最初的評估和測試環(huán)節(jié)中即具備場景化特征;最后,實行中止測試和監(jiān)管豁免制度,在超出技術目的、損害信息安全時,應及時中止測試,并豁免合規(guī)技術開發(fā)者的一定責任(胡濱,2022[31])。
隨著人工智能技術的高速發(fā)展,人臉識別技術應用場景趨于泛化,因人臉識別技術產生的安全風險持續(xù)升級。面對人臉識別技術帶來的全球性機遇與挑戰(zhàn),我國作為人類網絡空間命運共同體的倡議者與數(shù)字經濟大國,在防范化解人臉識別技術應用風險的同時,還要促進人臉識別技術的革新與迭代。新安全格局下,我國應在保障數(shù)據(jù)安全和數(shù)字人權的基礎上,加快構建統(tǒng)籌發(fā)展和安全的人臉識別技術應用治理體系,以高水平安全推動構建中國式現(xiàn)代化數(shù)據(jù)治理體系,并為世界人臉識別技術的治理方案提供中國經驗。