□溫昱
人類正在跑步進(jìn)入算法社會(huì),然而算法是一把雙刃劍,大量實(shí)例已經(jīng)證明,算法不僅能夠給人們帶來空前的便利以及效率的大幅提高,同時(shí)也造成分配不公、歧視特定群體、行業(yè)壟斷等許多社會(huì)問題。因此,如何規(guī)制算法自然進(jìn)入了法學(xué)界研究視野。在眾多關(guān)于算法規(guī)制的研究和理論構(gòu)想之中,均不約而同提到了配置算法權(quán)利以對(duì)抗“算法暴政”、以算法權(quán)利制約算法權(quán)力[1][2]。盡管相關(guān)權(quán)利的配置與界定是規(guī)制的重要策略[3],但在筆者看來,將算法權(quán)利作為算法規(guī)制的手段,現(xiàn)階段尚有一個(gè)前提、兩項(xiàng)理論準(zhǔn)備工作沒有完成。一個(gè)前提是確定算法權(quán)利的討論半徑。廣義的算法權(quán)利包括兩類:第一,算法主體對(duì)自身算法及其算法產(chǎn)品享有的權(quán)利;第二,算法相對(duì)人享有的針對(duì)算法及其主體的權(quán)利,即狹義的算法權(quán)利,是個(gè)體的一種主觀權(quán)利。就權(quán)利規(guī)制權(quán)力而言,本文所討論的是主觀的算法權(quán)利,是算法相對(duì)人的權(quán)利,即狹義的算法權(quán)利。兩項(xiàng)理論準(zhǔn)備是:首先,算法權(quán)利的提出缺少權(quán)利理論的介入,這事關(guān)算法權(quán)利本質(zhì)的探討。權(quán)利理論缺位會(huì)造成算法權(quán)利概念分析混亂,也容易導(dǎo)致算法權(quán)利論證方向的迷茫,直接后果就是算法權(quán)利證成始終無法突破“功能性”層面。以算法權(quán)利中的算法解釋權(quán)為例,學(xué)界對(duì)其的證立局限于權(quán)利的功能性分析[4][5]。其次,算法權(quán)利與個(gè)人信息權(quán)的區(qū)別與聯(lián)系有待明確,它關(guān)系到算法權(quán)利的現(xiàn)實(shí)出路。算法權(quán)利究竟是區(qū)別于個(gè)人信息權(quán)的獨(dú)立權(quán)利,還是隸屬于個(gè)人信息權(quán)體系的分支,抑或是個(gè)人信息權(quán)在算法規(guī)制場(chǎng)景中的別稱?之所以個(gè)人信息權(quán)是探討算法權(quán)利無法回避的問題,是因?yàn)椋菏紫?,二者的?quán)利對(duì)象,即算法與數(shù)據(jù)的關(guān)系緊密,均為人工智能發(fā)展的基本要件,如Blakin所言,“脫離算法的數(shù)據(jù)是盲目的,缺乏數(shù)據(jù)的算法是空洞的”(1)Jack M Blakin. The three laws of robotics in the age of big data[J]. Ohio state law journal,2017(78):1220.;其次,現(xiàn)階段算法與數(shù)據(jù)呈現(xiàn)出權(quán)力相互依附、規(guī)制路徑相互交錯(cuò)的態(tài)勢(shì),并且算法權(quán)力是其中起支配作用的主權(quán)力[6]。實(shí)踐中以歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡(jiǎn)稱GDPR)為典型代表,算法規(guī)制路徑展開是以其置于數(shù)據(jù)治理框架中為前提條件。因此,算法權(quán)利與個(gè)人信息權(quán)關(guān)系密切,二者權(quán)利邊界的模糊在功能上會(huì)消解前者獨(dú)立存在的必要性,在評(píng)價(jià)性上會(huì)瓦解證立前者所需的價(jià)值性。
鑒于此,本文致力于針對(duì)“權(quán)利”本身進(jìn)一步討論算法權(quán)利與個(gè)人信息權(quán)的差別,聚焦于算法權(quán)利在權(quán)利理論層面的分析,進(jìn)而比較并說明算法權(quán)利與個(gè)人信息權(quán)在理論走向上的分歧,論證二者在權(quán)利內(nèi)容上的重復(fù)以及在權(quán)利功能上的重合。在此,有一個(gè)顯見的前提要特別強(qiáng)調(diào):本文不涉及對(duì)個(gè)人信息權(quán)的論證,其在論文中更多扮演著算法權(quán)利的鏡子,發(fā)揮標(biāo)靶作用。這主要?dú)w功于學(xué)界經(jīng)年來對(duì)個(gè)人信息權(quán)不懈的理論探索,也得益于個(gè)人信息權(quán)的“法律權(quán)利”地位?!睹穹ǖ洹贰叭烁駲?quán)編”確立了“個(gè)人信息受法律保護(hù)”,間接說明了個(gè)人信息權(quán)的主體與對(duì)象。《個(gè)人信息保護(hù)法》(下文簡(jiǎn)稱《個(gè)保法》)的正式頒布,進(jìn)一步明確了個(gè)人信息權(quán)作為一項(xiàng)法定權(quán)利的權(quán)利內(nèi)容。
算法權(quán)利是一系列權(quán)利的總稱,包含算法解釋權(quán)、理解權(quán)、脫離算法自動(dòng)化決策權(quán)、人工干預(yù)(接管)權(quán)、技術(shù)性正當(dāng)程序權(quán)利、關(guān)閉算法的權(quán)利等(2)關(guān)于這些權(quán)利的介紹與研究可參見:G. Diega. Against the dehumanisation of decision-making[J].JIPITEC, 2018(3):15-16;張建文,李錦華.歐盟個(gè)人數(shù)據(jù)保護(hù)法上的反自動(dòng)化決策權(quán)研究[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2019(2):23-26;任然.拒絕投喂:賦予消費(fèi)者關(guān)閉算法的權(quán)利[N].中國(guó)青年報(bào),2020-10-28(002).。因此,有學(xué)者主張算法權(quán)利與個(gè)人信息權(quán)一樣,均為內(nèi)含一定體系性的權(quán)利束[7]。權(quán)利束是將其內(nèi)涵的多樣與多元以一種能夠高度涵蓋其內(nèi)容的方式表達(dá),簡(jiǎn)化了研究步驟,將繁雜的個(gè)別權(quán)利表述轉(zhuǎn)化成統(tǒng)一的集合表達(dá)[8]。所以,算法權(quán)利束具備拉倫茨所認(rèn)為的權(quán)利性質(zhì):只是一個(gè)類型概念,不能被定義,只能被描述。類型描述的方式需要所有被考量的特征都指向中心價(jià)值[9]117,100-101。算法權(quán)利類型的主要形式就是算法權(quán)利束,上述多元多樣的權(quán)利之所以能夠被集中在同一權(quán)利束中,乃在于這些權(quán)利都趨向于促成權(quán)利束的中心價(jià)值。拉倫茨所指的權(quán)利類型的中心價(jià)值,就是權(quán)利束的束點(diǎn)。因此,學(xué)界有必要通過梳理這一系列權(quán)利及其共同指向的中心價(jià)值,以此確定算法權(quán)利的束點(diǎn)。
首先,以算法解釋權(quán)為例,其被譽(yù)為“算法治理制度的核心”,國(guó)內(nèi)學(xué)者對(duì)其已有非常系統(tǒng)、成熟的研究。張恩典指出算法解釋權(quán)的目的在于提高算法透明性,進(jìn)而制約算法權(quán)力[10];張凌寒認(rèn)為算法解釋權(quán)的配置旨在規(guī)制算法權(quán)力,其理論正當(dāng)性在于這一制度內(nèi)涵平等、正義、自由目標(biāo)[11];解正山提出賦予個(gè)人算法解釋權(quán),以此實(shí)現(xiàn)對(duì)算法權(quán)力的約束,增強(qiáng)算法的透明度與可理解性[12]??梢姡惴ń忉寵?quán)設(shè)置立意在于防御,其核心指向防范算法權(quán)力的負(fù)面影響對(duì)個(gè)人的危害,防止算法權(quán)力將我們徹底地“客體化”[13]。
其次是理解權(quán),其為算法權(quán)利方陣中方興未艾的新品種,是算法相對(duì)人有權(quán)理解對(duì)其有實(shí)質(zhì)影響的算法決策做出的過程及運(yùn)行邏輯[14]。解釋算法是為理解算法所做的準(zhǔn)備,換言之,增強(qiáng)算法的透明度是為了增強(qiáng)算法的可解釋性。所以理解權(quán)強(qiáng)調(diào)對(duì)算法的“探究、熟悉、辨認(rèn)”,以此“增強(qiáng)個(gè)人對(duì)算法的預(yù)測(cè)”[15]。因此,理解權(quán)也被認(rèn)為是對(duì)知情權(quán)邏輯上的推進(jìn)、程度上的深化。
再次,脫離算法自動(dòng)化決策權(quán)也被稱為“反自動(dòng)化決策權(quán)”。根據(jù)GDPR第22條,是“當(dāng)算法自動(dòng)化決策對(duì)數(shù)據(jù)主體造成法律或重大影響時(shí),數(shù)據(jù)主體有權(quán)不作為自動(dòng)化決策的支配對(duì)象”(3)See GDPR Article 22 (1).。算法作為一項(xiàng)數(shù)字技術(shù),最突出的技術(shù)特征就是自動(dòng)化決策。其決策過程不需要人為介入或人工干預(yù),但決策結(jié)果會(huì)對(duì)相對(duì)人產(chǎn)生重大影響。算法自動(dòng)化決策是算法權(quán)力意志的體現(xiàn),直接導(dǎo)致算法控制者與相對(duì)人之間的權(quán)力支配關(guān)系。因此,脫離算法自動(dòng)化決策權(quán)本質(zhì)是一項(xiàng)使算法相對(duì)人有能力擺脫算法權(quán)力支配關(guān)系的權(quán)利。與脫離算法自動(dòng)化決策權(quán)的防御作用類似、但激烈程度不同的是關(guān)閉算法的權(quán)利和人工干預(yù)(接管)權(quán),前者旨在讓人徹底走出算法權(quán)力編制的“信息繭房”,改變個(gè)體被算法奴役的狀態(tài);后者的目的可以理解為不同程度削弱算法權(quán)力對(duì)相對(duì)人的支配影響。相比于算法解釋權(quán)對(duì)算法權(quán)力的“消極”防守姿態(tài)、理解權(quán)對(duì)于算法權(quán)力的“不作為”,脫離算法自動(dòng)化決策權(quán)(也包括關(guān)閉算法的權(quán)利和人工干預(yù)權(quán))更加“激進(jìn)”,其目的是“在決定自身利益的關(guān)鍵事務(wù)上享有積極參與的權(quán)利”[16]。
最后,技術(shù)性正當(dāng)程序權(quán)利起源于盧米斯案中的正當(dāng)程序權(quán)利。該案當(dāng)事人盧米斯提出,該案法官利用“可替代性的犯罪者矯正管理分析系統(tǒng)”(以下簡(jiǎn)稱COMPAS)風(fēng)險(xiǎn)評(píng)估工具的自動(dòng)化決策結(jié)論對(duì)其量刑,侵犯了自己的正當(dāng)程序權(quán)利(4)See Loomis v. Wisconsin.。對(duì)該案的研究顯示,COMPAS的自動(dòng)化決策同樣存在算法歧視的問題[17]。對(duì)此,國(guó)內(nèi)學(xué)者提出了技術(shù)性正當(dāng)程序權(quán)利,以示區(qū)別該案中盧米斯所喪失的“辯駁、異議和救濟(jì)”的正當(dāng)程序權(quán)利[18]。如果說正當(dāng)程序權(quán)利意在保障權(quán)利人被算法正當(dāng)對(duì)待,那么技術(shù)性正當(dāng)程序權(quán)利就是企圖確保對(duì)權(quán)利人施加影響的算法本身也是正當(dāng)?shù)?。換言之,算法本身應(yīng)當(dāng)是技術(shù)性正當(dāng)程序的產(chǎn)物(5)“技術(shù)性正當(dāng)程序”理論參見:Danielle K. Citron. Technological due process[J].Washington university law review, 2008(6):1249-1313.。根據(jù)陳景輝的論證,算法的正當(dāng)程序性質(zhì)與算法權(quán)力存在一種道德上或者規(guī)范上的關(guān)聯(lián),即算法權(quán)力必須以符合正當(dāng)程序要求的方式行使[19]。技術(shù)性正當(dāng)程序權(quán)利內(nèi)含著正當(dāng)程序權(quán)利,要求算法既需符合程序性的正當(dāng)程序(procedural due process),也要滿足實(shí)質(zhì)性的正當(dāng)程序(substantial due process)的價(jià)值要求,如對(duì)“平等、自由、正義”的主張。所以,技術(shù)性正當(dāng)程序權(quán)利可以認(rèn)為是規(guī)范算法權(quán)力行使必須滿足正當(dāng)程序的權(quán)利。
綜上所述,算法權(quán)利束的束點(diǎn)在于對(duì)算法權(quán)力的規(guī)制,此即對(duì)算法權(quán)利的功能相似性的經(jīng)驗(yàn)描述。法學(xué)意義上的類型應(yīng)當(dāng)是“規(guī)范性的真實(shí)類型”[9]340,意義或者評(píng)價(jià)性觀點(diǎn)才是建構(gòu)法學(xué)上類型的真正因素。根據(jù)同一類型下的事物具有“同意義性”(6)See DetlefLeenen,Tyous und Rechtsfindung, Berlin, 1971, S.43.轉(zhuǎn)引自:顧祝軒.合同本體解釋論:認(rèn)知科學(xué)視野下的私法類型思維[J].法律出版社,2008: 130.,由此可以得出一個(gè)初步結(jié)論:算法權(quán)利是算法相對(duì)人享有的一系列旨在規(guī)范算法權(quán)力行使、防御算法權(quán)力濫用風(fēng)險(xiǎn)的權(quán)利類型,本質(zhì)上是一個(gè)具有開放結(jié)構(gòu)和規(guī)范彈性的權(quán)利束??梢姡惴?quán)利是通過站在算法權(quán)力對(duì)立面來找到自己的定位,賦予權(quán)利人采取必要措施以對(duì)抗算法權(quán)力侵害的道德地位和行動(dòng)理由,并且算法權(quán)利束作為一種分析算法權(quán)利的實(shí)用主義方法,不僅能夠?yàn)槠渲懈鱾€(gè)具體權(quán)利安排統(tǒng)一的意義性,同時(shí)可以為具體權(quán)利的制度設(shè)計(jì)提供開放的空間:算法權(quán)利若從理論向?qū)嵺`轉(zhuǎn)化,需借助算法權(quán)利束中各個(gè)權(quán)利的制度化實(shí)現(xiàn)。
個(gè)人信息權(quán)是大數(shù)據(jù)時(shí)代孕育的新興權(quán)利,其應(yīng)當(dāng)是一個(gè)表征權(quán)利束(叢)的統(tǒng)合概念, 代表著一系列不同類型和性質(zhì)的權(quán)利[20]?!睹穹ǖ洹返?034至1039條較為詳細(xì)地規(guī)定了個(gè)人信息保護(hù)?!秱€(gè)保法》在《民法典》基礎(chǔ)上,于“第四章”進(jìn)一步明確了個(gè)人信息權(quán)的權(quán)利內(nèi)容,從中不難看出現(xiàn)階段立法上也是把個(gè)人信息權(quán)作為一個(gè)權(quán)利束的類型概念處理的。作為類型的個(gè)人信息權(quán)有一個(gè)其中所有權(quán)利都指向的束點(diǎn)。由《民法典》將個(gè)人信息保護(hù)放在“人格權(quán)編”的設(shè)置,我們可以窺見對(duì)個(gè)人信息的保護(hù)著重在守護(hù)個(gè)人信息主體的“數(shù)字化人格”[21],落實(shí)在個(gè)人信息權(quán)理論,體現(xiàn)為個(gè)人信息權(quán)利束以自決權(quán)為核心。個(gè)人信息自決權(quán)是個(gè)人信息權(quán)利束的基礎(chǔ)權(quán)利,也為個(gè)人信息權(quán)利束奠定了價(jià)值基礎(chǔ)。所以,個(gè)人信息權(quán)的束點(diǎn),也就是其作為類型的中心價(jià)值,是人作為道德上自決主體的自由選擇、自主決定。
算法權(quán)利與同樣作為權(quán)利類型的個(gè)人信息權(quán)的最大區(qū)別是二者的核心意義不同:算法權(quán)利是為了約束算法權(quán)力正當(dāng)行使,個(gè)人信息權(quán)在于保證主體個(gè)人信息自決。有論者會(huì)指出,算法權(quán)利防范算法權(quán)力對(duì)人的客體化和異化,同個(gè)人信息權(quán)一樣,也是守衛(wèi)人的主體性地位。但需要辨明的是,算法權(quán)利的中心價(jià)值在于確保權(quán)利人的主體地位不被削弱、尊嚴(yán)和價(jià)值不流失。從對(duì)個(gè)人人格保護(hù)出發(fā),算法權(quán)利屬于消極防御,個(gè)人信息權(quán)的核心意義則是主動(dòng)干預(yù)自身數(shù)字人格的建構(gòu),保證個(gè)人對(duì)其個(gè)人信息的自決,所以,個(gè)人信息權(quán)發(fā)揮著人格保護(hù)的積極作用。同時(shí),由于權(quán)利的規(guī)范性依賴于權(quán)利評(píng)價(jià)性對(duì)其的辯護(hù):權(quán)利的規(guī)范效力基于何種理由成立[22]。算法權(quán)利與個(gè)人信息權(quán)核心意義的區(qū)別直接導(dǎo)致二者在權(quán)利理論層面的巨大差異。
算法權(quán)利為什么能夠規(guī)制算法權(quán)力?這涉及對(duì)算法權(quán)利與算法權(quán)力關(guān)系的解釋,進(jìn)而關(guān)涉權(quán)利理論層面對(duì)算法權(quán)利展開分析的問題。該問題的先決條件是對(duì)算法權(quán)利與算法權(quán)力的理解。前文初探了對(duì)算法權(quán)利的解釋,這里有必要申言算法權(quán)力。算法權(quán)力是一項(xiàng)人工智能技術(shù)平臺(tái)控制者憑借自身算法優(yōu)勢(shì)而在人工智能應(yīng)用過程中產(chǎn)生的技術(shù)權(quán)力;其強(qiáng)制力在于隨著全社會(huì)對(duì)算法應(yīng)用的依賴程度加深,算法因此完成對(duì)特定對(duì)象的控制[23]。算法權(quán)力兼具彌散性軟權(quán)力、資源權(quán)力屬性[24]。盡管這些均非法學(xué)意義上對(duì)算法權(quán)力的描述,但對(duì)于回答上述問題并非無意義。至少我們可知,算法權(quán)力不是傳統(tǒng)意義上的政治權(quán)力或者公權(quán)力,故而關(guān)于個(gè)人權(quán)利與公權(quán)力關(guān)系的經(jīng)典論述無法恰當(dāng)?shù)鼗卮鹪搯栴}。要在法學(xué)意義上探究“算法權(quán)利對(duì)算法權(quán)力的規(guī)制”,我們必須把目光轉(zhuǎn)向權(quán)利相關(guān)理論,這直接涉及算法權(quán)利在權(quán)利理論層面的分析與討論,也將揭示算法權(quán)利與個(gè)人信息權(quán)在各自理論發(fā)展上的分歧。
法學(xué)意義上對(duì)權(quán)力的分析,是將權(quán)力視為權(quán)利,如邊沁、霍菲爾德等均指出“權(quán)力是一種權(quán)利”[25][26]29。權(quán)力的本質(zhì)是一種支配能力[27],算法權(quán)力亦如此。這與霍菲爾德關(guān)于權(quán)力的概念分析是一致的。霍菲爾德認(rèn)為權(quán)力最為接近的近義詞是能力[26]53。因此,本文能夠?qū)⑺惴?quán)力與算法權(quán)利的關(guān)系置于霍菲爾德權(quán)利框架中探討,以期明確算法權(quán)利的結(jié)構(gòu)?;舴茽柕乱浴耙髾?quán)、特權(quán)、權(quán)力、豁免、義務(wù)、無權(quán)利、責(zé)任、無權(quán)力”這八個(gè)基本概念,以及概念間的相關(guān)、相反關(guān)系構(gòu)造出關(guān)于“權(quán)利”的完整概念體系。其中“權(quán)利是某人針對(duì)他人的強(qiáng)制性的請(qǐng)求,特權(quán)則是某人免受他人的權(quán)利或請(qǐng)求權(quán)約束之自由。同理,權(quán)力是對(duì)他人對(duì)特定法律關(guān)系的強(qiáng)制性‘支配’,則豁免當(dāng)然是在特定法律關(guān)系中,某人免受他人法律權(quán)力或‘支配’約束的自由”[26]92。
從權(quán)利結(jié)構(gòu)出發(fā),根據(jù)現(xiàn)階段學(xué)界對(duì)算法權(quán)利的理解,算法權(quán)利只是霍氏理論中“要求權(quán)”與“特權(quán)”的組合[28],屬于一階權(quán)利,是指向義務(wù)人“事實(shí)物理行為”(actual physical behavior)的概念[29]。以算法解釋權(quán)為例,其為權(quán)利人“向算法使用人提出異議,要求提供對(duì)具體決策的解釋,并要求更新數(shù)據(jù)或更正錯(cuò)誤的權(quán)利”[11]。算法解釋權(quán)的“特權(quán)”意味著是否行使算法解釋權(quán)是權(quán)利人的自由;其“要求權(quán)”體現(xiàn)在針對(duì)義務(wù)承擔(dān)者為特定解釋、更新或糾錯(cuò)的強(qiáng)制要求。
算法權(quán)力屬于霍氏理論中的“權(quán)力”,是一種可以改變“要求權(quán)”和“特權(quán)”,即能夠改變既有狀態(tài)(法律關(guān)系)的二階權(quán)利。擁有一項(xiàng)權(quán)力就是擁有了在一套規(guī)則內(nèi)部變更自己或他人規(guī)范狀態(tài)的能力。作為高階權(quán)利的算法權(quán)力具有改變算法權(quán)利的能力,即算法權(quán)力具有改變算法權(quán)利結(jié)構(gòu)既有狀態(tài)——“要求權(quán)”與“義務(wù)”、“特權(quán)”與“無權(quán)利”——的能力?!皺?quán)力”相關(guān)者為“責(zé)任”(liability),強(qiáng)調(diào)的是相關(guān)方對(duì)權(quán)力造成的規(guī)范狀態(tài)變化的無條件承擔(dān)。因此,責(zé)任也作“服從”(subjection)理解。算法相對(duì)人(算法權(quán)利人)就是算法權(quán)力的責(zé)任承擔(dān)者(服從者)。算法權(quán)力給算法權(quán)利關(guān)系帶來的改變,例如對(duì)算法相對(duì)人要求算法控制者履行解釋算法義務(wù)的“要求權(quán)-義務(wù)”關(guān)系予以改變、賦予算法相對(duì)人新的“無權(quán)利”(no claim)的地位,算法相對(duì)人不得不服從這種改變?!皺?quán)力”與“服從”相伴生:“權(quán)力”改變?cè)蕉?,相?yīng)需要的“服從”也越多。這就解釋了算法權(quán)力的泛濫和越界,會(huì)不斷增加算法相對(duì)人參與算法活動(dòng)的“服從”負(fù)擔(dān);同時(shí)也暴露出算法權(quán)利在權(quán)利結(jié)構(gòu)上的缺陷,算法權(quán)利缺乏使之上升為二階權(quán)利的霍菲爾德要素(7)要求(權(quán))、自由(特權(quán))、權(quán)力、豁免被稱為霍菲爾德要素。權(quán)利必然包含若干霍菲爾德要素。參見:Carl Wellman. Real rights[M]. Oxford: Oxford University Press, 1995:7.。算法權(quán)利要真正實(shí)現(xiàn)制約算法權(quán)力的目的,需要在自身權(quán)利結(jié)構(gòu)中加入“豁免”。“豁免”可使其相對(duì)方處于“無權(quán)力”狀態(tài),保護(hù)了權(quán)利人免受來自相對(duì)方“權(quán)力”對(duì)原有規(guī)范狀態(tài)的改變。與算法權(quán)利“豁免”相關(guān)的則是算法權(quán)力的“無權(quán)力”。算法權(quán)利“豁免”越多,則算法權(quán)力的“無權(quán)力”狀態(tài)隨之增長(zhǎng),由此會(huì)壓縮其“權(quán)力”存在空間。算法權(quán)利的“豁免”與算法權(quán)力的“權(quán)力”空間是此消彼長(zhǎng)的關(guān)系。所以,真正能夠起到保護(hù)算法相對(duì)人作用的是權(quán)利中的“豁免”,而這又恰恰是算法權(quán)利結(jié)構(gòu)中目前所缺乏的。
個(gè)人信息權(quán)在其理論伊始,也存在與算法權(quán)利類似的缺乏二階權(quán)利要素的結(jié)構(gòu)問題,不同的是,個(gè)人信息權(quán)基于其個(gè)人信息自決的核心意義,發(fā)揮的多是積極、主動(dòng)的權(quán)能,因此其權(quán)利結(jié)構(gòu)所缺乏的二階權(quán)利要素不是發(fā)揮權(quán)利保護(hù)功能的“豁免”,而是有能力通過自己的行為改變自己與他人或他人之間的規(guī)范關(guān)系的“權(quán)力”要素[30]。
算法權(quán)利針對(duì)算法權(quán)力對(duì)個(gè)體的侵害而設(shè)置,符合德肖維茨所說“權(quán)利來源于人類過往的不正義經(jīng)驗(yàn)”[31]。但這僅僅是對(duì)算法權(quán)利來源的一個(gè)事實(shí)性陳述,只是“我們權(quán)利實(shí)踐的一個(gè)直覺”[32],顯然無法支撐對(duì)算法權(quán)利規(guī)范性來源的分析。因此,本文將借鑒邊沁的理論探討算法權(quán)利的來源。邊沁認(rèn)為,權(quán)利的來源可以分為兩種,其中之一是源自義務(wù)的缺失,邊沁稱之為“與責(zé)任有關(guān)的權(quán)利”[33]173-176。根據(jù)哈特對(duì)此的解讀,權(quán)力意味著“義務(wù)的缺失”(8)在邊沁的術(shù)語中,責(zé)任與義務(wù)是同一個(gè)意思。,所以,“與責(zé)任有關(guān)的權(quán)利”也可以認(rèn)為是來源于權(quán)力。這種源于權(quán)力的權(quán)利是消極的、獲得服務(wù)的權(quán)利,其存在于對(duì)其的相關(guān)責(zé)任履行之中。更進(jìn)一步講,這種權(quán)利的實(shí)現(xiàn)來自于權(quán)利人預(yù)期會(huì)從相關(guān)責(zé)任的履行中獲益[33]176。有學(xué)者指出邊沁所謂“義務(wù)的缺失”是指與其權(quán)力行使相關(guān)的義務(wù)缺席,并且在權(quán)力出現(xiàn)之前,義務(wù)是普遍存在的,只是由于權(quán)力的出現(xiàn),使得義務(wù)的普遍約束力出現(xiàn)了缺口[34]。邊沁的理論可以恰當(dāng)?shù)幕卮鹚惴?quán)利起源的規(guī)范性問題。算法權(quán)力會(huì)對(duì)算法相對(duì)人產(chǎn)生侵害,是因?yàn)樗惴ɑ顒?dòng)中義務(wù)的缺席。
根據(jù)張恒山對(duì)義務(wù)的劃分,原本應(yīng)當(dāng)在場(chǎng)的算法義務(wù)包括普遍的義務(wù)與特定的義務(wù)。普遍的算法義務(wù)是算法活動(dòng)中算法控制者必須要承擔(dān)的、不得附帶任何條件的義務(wù)[35],例如尊重算法相對(duì)人人格尊嚴(yán)和自主性的義務(wù)、不損害算法相對(duì)人的合法利益、“正當(dāng)”地進(jìn)行算法活動(dòng)的義務(wù)(9)這里的“正當(dāng)”包含前文所述的“平等、正義、自由”價(jià)值。。特定的算法義務(wù)是算法控制者在特定條件下承擔(dān)的、作(或不作)特定算法行為的義務(wù),例如算法活動(dòng)中的合規(guī)義務(wù)、信義義務(wù)。算法權(quán)力破壞了算法活動(dòng)中義務(wù)原本的在場(chǎng)狀態(tài),打破了義務(wù)對(duì)算法行為的約束。如此產(chǎn)生的規(guī)范性真空狀態(tài)才是算法權(quán)力失范乃至越界、濫用的根本原因。因此,規(guī)制算法權(quán)力的根本在于回復(fù)算法活動(dòng)中義務(wù)的在場(chǎng)狀態(tài)。算法權(quán)利能夠制約算法權(quán)力,是基于權(quán)利人對(duì)算法義務(wù)履行的預(yù)期,并且算法義務(wù)的履行會(huì)對(duì)算法權(quán)力產(chǎn)生約束進(jìn)而促進(jìn)權(quán)利人的正當(dāng)利益要求得到滿足。前述如算法解釋權(quán)、反自動(dòng)化決策權(quán)等算法權(quán)利的設(shè)置,就是為了恢復(fù)算法可解釋性,尊重相對(duì)人自主性等義務(wù)在場(chǎng),以此在規(guī)范性層面對(duì)算法權(quán)力進(jìn)行制約。算法權(quán)利代表了算法活動(dòng)中的基本價(jià)值立場(chǎng),對(duì)此的維護(hù)需要落實(shí)在算法義務(wù)的履行中。算法權(quán)利具有極強(qiáng)的義務(wù)論性質(zhì),其規(guī)范性力量源自其價(jià)值主張,又先于其價(jià)值主張。因此,就算法權(quán)利產(chǎn)生、起源而言,算法義務(wù)先定,算法權(quán)利后生(10)這個(gè)判斷僅僅是針對(duì)算法權(quán)利的來源而言,不涉及算法權(quán)利的推定。。
與算法權(quán)利相比,個(gè)人信息權(quán)設(shè)置旨在為其信息利益確權(quán)?!睹穹ǖ洹?034條第2款規(guī)定:個(gè)人信息是以電子或者其他方式記錄的能夠單獨(dú)或者與其他信息結(jié)合識(shí)別特定自然人的各種信息,包括自然人的姓名、出生日期、身份證件號(hào)碼、生物識(shí)別信息、住址、電話號(hào)碼、電子郵箱、健康信息、行蹤信息等。可見,個(gè)人信息具有鮮明的人格要素,體現(xiàn)著主體的人格利益。人格利益是個(gè)人信息權(quán)的基礎(chǔ),“權(quán)利規(guī)則的核心在于權(quán)利具有保護(hù)或者促進(jìn)個(gè)人利益或者善的目的”[36]。個(gè)人信息承載的人格利益代表了個(gè)人自主、自治、自決的主體價(jià)值。個(gè)人信息權(quán)的此種價(jià)值性構(gòu)成了其權(quán)利證立的內(nèi)在理由?!皞€(gè)人對(duì)其個(gè)人信息的權(quán)利主張?jiān)谥饔^上源于對(duì)個(gè)人信息保護(hù)價(jià)值的內(nèi)在認(rèn)同”[37]。個(gè)人信息權(quán)來源于一項(xiàng)基本的價(jià)值主張,其決定了個(gè)人信息權(quán)體現(xiàn)的正當(dāng)利益,即信息主體的人格利益,同時(shí)也說明了對(duì)個(gè)人自主選擇保護(hù)的重要性。故而,《民法典》連同《個(gè)保法》一道賦予了個(gè)人信息權(quán)制度化實(shí)踐的權(quán)威保障,個(gè)人信息權(quán)的規(guī)范性來自于自身蘊(yùn)含的價(jià)值性與制度權(quán)威性的結(jié)合。
學(xué)界對(duì)算法權(quán)利研究中一個(gè)細(xì)節(jié)值得格外關(guān)注:絕大多數(shù)算法權(quán)利提倡者均將算法權(quán)利定位為“新型”權(quán)利而非“新興”[1][7][11]。循著該界定,筆者認(rèn)為,算法權(quán)利是新型權(quán)利、個(gè)人信息權(quán)是新興權(quán)利。新型還是新興,并非語言用法不同或者是權(quán)利修辭的游戲,而是進(jìn)一步闡明算法權(quán)利不同于個(gè)人信息權(quán)的權(quán)利演進(jìn)路徑。謝暉對(duì)新型權(quán)利與新興權(quán)利做了極為卓越的區(qū)分:前者是自覺的、法定的、成型(統(tǒng)一)的,后者是自發(fā)的、自然的、流變(多元)的[38]。這三組區(qū)分,對(duì)應(yīng)新型權(quán)利與新興權(quán)利三個(gè)不同維度的區(qū)別。自覺與自發(fā),揭示了二者權(quán)利屬性不同;法定與自然,暗示了二者在權(quán)利生成方式上的差異;成型與流變,表明了二者在權(quán)利發(fā)展順序上有先后之分、尤其是理論發(fā)展水平存在差異。
首先,由前文可知,算法權(quán)利是為達(dá)到一個(gè)確定目的所建構(gòu)的權(quán)利;個(gè)人信息權(quán)是圍繞一個(gè)基礎(chǔ)價(jià)值而生發(fā)出的權(quán)利??梢姡惴?quán)利屬于自覺的權(quán)利范疇,內(nèi)含著人們以算法權(quán)利約束算法權(quán)力正當(dāng)行使的確定選擇;個(gè)人信息權(quán)屬于自發(fā)的權(quán)利范疇,其本身具有人的絕對(duì)價(jià)值自發(fā)的規(guī)定性。
其次,新型權(quán)利“法定的”特點(diǎn)是指其為基于原有的法定權(quán)利而晚出或新出的權(quán)利[38],可見,新型權(quán)利是由法定權(quán)利推定而產(chǎn)生的。能夠作為權(quán)利推定來源的既有法定權(quán)利在類型上包括基本權(quán)利、剩余或空白權(quán)利,以及存在種屬關(guān)系的權(quán)利,如由抽象總括的權(quán)利推定出多種具體細(xì)化的權(quán)利、由派生權(quán)利推定出基本總括的權(quán)利[39][40]。所以,算法權(quán)利作為新型權(quán)利,其生成途徑應(yīng)當(dāng)為,在國(guó)家正式的法定程序中由既有的權(quán)利推定而來,并且根據(jù)前文,算法權(quán)利只是理論構(gòu)想的功能性假設(shè),并非規(guī)范上的概念。由于權(quán)利推定本身是價(jià)值定向的法律技術(shù)行為,故而由既有權(quán)利通過法定程序推導(dǎo)出算法權(quán)利,可以較好地彌補(bǔ)算法權(quán)利本身規(guī)范性不足的先天缺陷。相比之下,個(gè)人信息權(quán)之所以是“自然的”,乃在于作為新興權(quán)利,個(gè)人信息權(quán)的生成與其說是一個(gè)創(chuàng)造的過程,不如說是一個(gè)發(fā)現(xiàn)的過程,為絕對(duì)價(jià)值源頭自然生發(fā)出的權(quán)利束。
最后,“成型”與“流變”之分,既表明算法權(quán)利與個(gè)人信息權(quán)的理論狀態(tài)區(qū)分,也說明二者各自理論發(fā)展水平的差異?!傲髯儭笔侵感屡d權(quán)利由于自發(fā)性與自然性而導(dǎo)致權(quán)利形態(tài)的不確定,同時(shí)暗含權(quán)利所代表的價(jià)值是多元的;“成型”則意味著新型權(quán)利基于自覺與法定而形成的權(quán)利形態(tài)的確定性,也隱含了權(quán)利價(jià)值的單調(diào)。算法權(quán)利是為應(yīng)對(duì)算法權(quán)力及其風(fēng)險(xiǎn)而設(shè)置的技術(shù)性措施,是借以達(dá)到社會(huì)特定目的的實(shí)踐工具;同時(shí),無法回避的一點(diǎn)是,除法定權(quán)利之外,新型權(quán)利的“統(tǒng)一”與“成型”也反映了其理論發(fā)展的不足以及缺乏必要的權(quán)利論辯。算法權(quán)利的實(shí)踐性決定了其價(jià)值性的單一,其功能性遮蓋了其理論發(fā)展的不足。作為抵抗算法全面入侵的防御工具,算法權(quán)利的直接目的是規(guī)范算法權(quán)力行使與規(guī)制算法運(yùn)行,根本目的則在于保護(hù)權(quán)利主體(算法相對(duì)人)的利益,進(jìn)一步講就是優(yōu)先保護(hù)權(quán)利人的自主選擇和意思自治,但這也導(dǎo)致了算法權(quán)利價(jià)值指向單一。算法權(quán)利對(duì)抗算法權(quán)力的功能性直接遮蔽了對(duì)其理論形態(tài)的論辯不足,導(dǎo)致算法權(quán)利最終“成型”結(jié)果是偏頗和簡(jiǎn)陋的。反觀個(gè)人信息權(quán),其價(jià)值性不僅體現(xiàn)在對(duì)權(quán)利主體個(gè)人選擇的優(yōu)先保護(hù),也表現(xiàn)為對(duì)維護(hù)尊重人格尊嚴(yán)、強(qiáng)調(diào)人的自主性的共同善文化作出了符合時(shí)代的貢獻(xiàn),以及對(duì)促進(jìn)個(gè)人信息流通、加快數(shù)據(jù)產(chǎn)業(yè)發(fā)展具有的積極意義。從“人格權(quán)說”“財(cái)產(chǎn)權(quán)說”“隱私權(quán)說”各執(zhí)一詞的多元理論形態(tài)到“包含精神性人格利益和財(cái)產(chǎn)性人格利益的新興權(quán)利”,個(gè)人信息權(quán)嚴(yán)格地歷經(jīng)了權(quán)利演進(jìn)的充分論辯。
本文現(xiàn)在必須直面算法權(quán)利另一難題:算法權(quán)利在工具層面是否有獨(dú)立設(shè)置的必要,即:算法權(quán)利所發(fā)揮的功能是否是獨(dú)有的?其功能有無可能被個(gè)人信息權(quán)代替?如前所述,算法權(quán)利與個(gè)人信息權(quán)均為大數(shù)據(jù)、算法技術(shù)發(fā)展催生出的內(nèi)含多個(gè)權(quán)利的權(quán)利束,二者的權(quán)利內(nèi)容難免有許多重復(fù)之處。具體而言,算法權(quán)利束中的權(quán)利與個(gè)人信息權(quán)利束中的權(quán)利重疊,前者的一些權(quán)利只是后者權(quán)利的迭代、組合或者不同情景中的應(yīng)用。根據(jù)《個(gè)保法》對(duì)個(gè)人信息權(quán)內(nèi)容的規(guī)定,個(gè)人信息權(quán)利束與算法權(quán)利束進(jìn)行對(duì)比,如下表1所述。
表1 個(gè)人信息權(quán)利束與算法權(quán)利束的比較
技術(shù)性正當(dāng)程序權(quán)利是對(duì)算法權(quán)力的程序性與實(shí)質(zhì)性的雙重約束,是算法權(quán)利束中統(tǒng)轄其他權(quán)利的概念。算法權(quán)利中,算法解釋權(quán)發(fā)揮著基礎(chǔ)作用,是整個(gè)權(quán)利束的基點(diǎn),而技術(shù)性正當(dāng)程序權(quán)利具有雙重正當(dāng)性要求,是權(quán)利束的核心。算法權(quán)利束是以算法解釋權(quán)為基礎(chǔ),在技術(shù)性正當(dāng)程序權(quán)利的統(tǒng)轄之下聚合各個(gè)權(quán)利而成,因此,技術(shù)性正當(dāng)程序權(quán)利被認(rèn)為是這些權(quán)利的統(tǒng)稱。以表1為基礎(chǔ),下文將從算法權(quán)利與個(gè)人信息權(quán)之間存在的三種關(guān)聯(lián)情形出發(fā),分別探討個(gè)人信息權(quán)功能對(duì)算法權(quán)利功能的可替代性。
就字面含義,理解強(qiáng)調(diào)清晰的明白一件事及其成因、結(jié)果,知情側(cè)重客觀上知道了一件事的存在。理解在邏輯順序上必然以知情為基礎(chǔ),在程度上是對(duì)知情地進(jìn)一步深入,因此,理解權(quán)功能的必要性取決于知情權(quán)能否包容評(píng)價(jià)理解權(quán)。
算法權(quán)利是以規(guī)制算法權(quán)力、防范算法權(quán)力帶來的風(fēng)險(xiǎn)為目的而設(shè)置的防御性權(quán)利束,其中權(quán)利彼此間邏輯關(guān)聯(lián)、權(quán)能互補(bǔ)。解釋算法相關(guān)事項(xiàng)是為了更充分地理解算法運(yùn)行機(jī)理和邏輯,如此才能在必要的時(shí)點(diǎn)恰當(dāng)?shù)匦惺姑撾x算法自動(dòng)化決策權(quán)、關(guān)閉算法的權(quán)利以及人工干預(yù)(接管)權(quán),將算法權(quán)力帶來的風(fēng)險(xiǎn)控制到最小??梢?,理解權(quán)的功能,對(duì)內(nèi)體現(xiàn)在其上承解釋權(quán)、下啟其他權(quán)利的中間地位;對(duì)外則在于“理解算法運(yùn)作的機(jī)理是對(duì)可能過大的算法權(quán)力予以抵消和施以監(jiān)督的重要前提,是用戶行使技術(shù)性正當(dāng)權(quán)利的先決基礎(chǔ),是避免算法決策武斷和恣意,保證算法決策可信、正當(dāng)和理性的重要約束機(jī)制”[18]。
知情權(quán)是公民的基本權(quán)利。知情權(quán)是個(gè)人對(duì)公共事務(wù)及與自己有關(guān)或感興趣的事務(wù)接近或者了解的權(quán)利,其中包括個(gè)人信息領(lǐng)域的知情權(quán)[41]。同時(shí),知情權(quán)也是個(gè)人信息保護(hù)基本原則——“知情-同意”原則的權(quán)利化。GDPR第4條第(11)款規(guī)定,數(shù)據(jù)主體的“同意”是指數(shù)據(jù)主體依照其意愿自愿作出的任何指定的、具體的、知情的及明確的指示??梢姡贕DPR規(guī)則設(shè)置中,“知情”是與“具體”“明確”并列的數(shù)據(jù)主體作出同意的必要條件,所以,知情不是形式泛泛的知悉,而應(yīng)該是對(duì)相關(guān)內(nèi)容具體、明確知曉。實(shí)質(zhì)的知情是整個(gè)個(gè)人信息權(quán)利束的隱含條件,其他個(gè)人信息權(quán)都隱含知情作為其權(quán)利行使的必要條件,所以,實(shí)質(zhì)意義的知情是對(duì)一件事從起因到結(jié)果的完整過程的知曉。這與理解權(quán)的內(nèi)核是相同的,也就是說實(shí)質(zhì)意義上的知情權(quán)同樣能夠?qū)λ惴ㄟ\(yùn)行邏輯和決策機(jī)理提出具體、明確知曉的要求,達(dá)到監(jiān)督算法權(quán)力以保證算法程序正當(dāng)、理性的外部功能。
對(duì)內(nèi)作用而言,與理解權(quán)在算法權(quán)利束中承上啟下地位不同,知情權(quán)是整個(gè)個(gè)人信息權(quán)體系的起點(diǎn)。邏輯上同意權(quán)必然以知情為先,其相對(duì)面是義務(wù)人的告知義務(wù)。因此知情權(quán)也被稱為“知情同意權(quán)”?!秱€(gè)保法》將“知情”與“同意”拆分設(shè)置,后者被歸類為第14條中的個(gè)人信息處理的一般規(guī)則、同時(shí)被吸收入第44條自決權(quán)之內(nèi)(11)參見《個(gè)保法》第14條:基于個(gè)人同意處理個(gè)人信息的,該同意應(yīng)當(dāng)由個(gè)人在充分知情的前提下自愿、明確作出。法律、行政法規(guī)規(guī)定處理個(gè)人信息應(yīng)當(dāng)取得個(gè)人單獨(dú)同意或者書面同意的,從其規(guī)定。個(gè)人信息的處理目的、處理方式和處理的個(gè)人信息種類發(fā)生變更的,應(yīng)當(dāng)重新取得個(gè)人同意;第44條:個(gè)人對(duì)其個(gè)人信息的處理享有知情權(quán)、決定權(quán)……。盡管如此,《個(gè)保法》依然保留了“知情-同意”的基本邏輯,即同意以知情為前提,以告知為必須,可見,二者對(duì)于各自所在權(quán)利束的作用不同。理解以解釋為前提,知情以告知為必須。從知情到理解的深化,實(shí)際上是加重權(quán)利相對(duì)義務(wù)主體的負(fù)擔(dān)。解釋與告知只是程度的區(qū)別,并無本質(zhì)不同。理解權(quán)的后繼者,如脫離算法自動(dòng)化決策權(quán)、關(guān)閉算法權(quán),本質(zhì)上是自決權(quán)在不同算法情景中的體現(xiàn)。所以,從內(nèi)部邏輯而言,理解權(quán)承上啟下,與知情權(quán)相同。綜上所述,無論是外部功能還是內(nèi)部作用,知情權(quán)均可包容并替代理解權(quán)。
自決權(quán)是個(gè)人信息權(quán)利束的核心權(quán)利,是“個(gè)人得本著自主決定的價(jià)值與尊嚴(yán),自行決定何時(shí)及于何種范圍內(nèi)公開其個(gè)人的生活事實(shí)”[42]。自決權(quán)體現(xiàn)了人作為道德上自決的主體的一般行為自由,是自由發(fā)展人格的必要條件,特別是在自動(dòng)化處理的條件下,自決權(quán)的功能在于保護(hù)個(gè)人信息不被無限制的收集、濫用。所以,自決權(quán)是“要求信息技術(shù)體系具有保密性與公正性的基本權(quán)利”[43]。
脫離算法自動(dòng)化決策權(quán)、人工干預(yù)(接管)權(quán)和關(guān)閉算法權(quán),均為要求降低算法權(quán)力對(duì)自身支配和影響作用,同時(shí)提高權(quán)利主體自主決定在算法決策過程中權(quán)重的權(quán)利。脫離算法自動(dòng)化決策權(quán)的功能旨在幫助數(shù)據(jù)主體脫離可能對(duì)其造成重大影響的采用自動(dòng)化處理方式作出的決策,并且自主選擇相關(guān)事項(xiàng)的發(fā)展進(jìn)程。人工干預(yù)(接管)權(quán)是當(dāng)算法自動(dòng)化決策對(duì)數(shù)據(jù)主體造成生命或其他重大影響時(shí),數(shù)據(jù)主體可以要求人工介入以展示其觀點(diǎn)立場(chǎng),就算法決策結(jié)果提出異議[44]。關(guān)閉算法權(quán)就是在原本由算法主導(dǎo)、可能危及個(gè)人生命財(cái)產(chǎn)安全的場(chǎng)景中,徹底脫離算法自動(dòng)化決策,完全由權(quán)利人自主決定的權(quán)利。由此可見,從人工干預(yù)(接管)權(quán)、脫離算法自動(dòng)化決策權(quán)到關(guān)閉算法權(quán),反抗算法權(quán)力支配的激烈度和權(quán)利人自主決定程度均依次上升。
以脫離算法自動(dòng)化決策權(quán)與自決權(quán)的關(guān)系為例。自決權(quán)是脫離算法自動(dòng)化決策權(quán)的理論基礎(chǔ),強(qiáng)調(diào)在自動(dòng)化決策程序中依然保持對(duì)個(gè)人自主決定、自主選擇的尊重。算法黑箱、算法歧視和數(shù)據(jù)源錯(cuò)誤等系統(tǒng)性問題,可能對(duì)個(gè)人造成重大影響,此時(shí)應(yīng)賦予個(gè)人選擇是否繼續(xù)依賴算法決策的決定權(quán)利。脫離算法自動(dòng)化決策權(quán)不是個(gè)人取代算法主宰決策過程的權(quán)利,也不是排斥任何算法風(fēng)險(xiǎn)的權(quán)利。這也是《個(gè)保法》第24條規(guī)定以權(quán)利主體個(gè)人感受和主觀意愿作為行使脫離算法自動(dòng)化決策權(quán)理由的根本原因,強(qiáng)調(diào)以權(quán)利主體的自主決定及主動(dòng)要求作為脫離算法自動(dòng)化決策權(quán)的觸發(fā)機(jī)制。可見,脫離算法自動(dòng)化決策權(quán)的作用在于將是否承受算法可能帶來風(fēng)險(xiǎn)的選擇權(quán)交還到個(gè)人手中。所以,脫離算法自動(dòng)化決策權(quán)的功能在于保障自主決定,允許個(gè)人自擔(dān)風(fēng)險(xiǎn);其為對(duì)個(gè)人主體地位與個(gè)人尊嚴(yán)的保障,而非對(duì)個(gè)人理性的極端推崇。所以,《個(gè)保法》第24條實(shí)質(zhì)上是對(duì)個(gè)人自決權(quán)在算法自動(dòng)化決策場(chǎng)景中具體應(yīng)用的確權(quán)規(guī)則,事實(shí)上將脫離算法自動(dòng)化決策權(quán)納入個(gè)人信息權(quán)體系范疇之內(nèi)。
算法自動(dòng)化決策以個(gè)人信息為材料,自動(dòng)化處理個(gè)人信息的結(jié)果會(huì)對(duì)個(gè)人產(chǎn)生實(shí)質(zhì)性的、重大的影響。自決權(quán)的作用不是數(shù)據(jù)主體完全控制、支配個(gè)人數(shù)據(jù),而是個(gè)人數(shù)據(jù)被收集、處理和應(yīng)用時(shí)有權(quán)知悉、做出同意或反對(duì),在被收集、處理和應(yīng)用后有修改、撤回同意、刪除 (被遺忘)和要求收益的權(quán)利。所以,在算法自動(dòng)化決策場(chǎng)景中,自決權(quán)的功能就在于維護(hù)個(gè)人自主選擇、尊重個(gè)人自主決定。脫離算法自動(dòng)化決策權(quán)只是在特定算法場(chǎng)景中自決權(quán)的別稱和其功能的具體表現(xiàn)形式。同理可證得,自決權(quán)也是人工干預(yù)(接管)權(quán)和關(guān)閉算法權(quán)的理論基礎(chǔ),二者也只是自決權(quán)在具體的算法自動(dòng)化決策場(chǎng)景中的不同稱謂,其功能沒有脫離自決權(quán)作用的范疇。
前文已述,算法解釋權(quán)是算法權(quán)利束的基礎(chǔ)權(quán)利。算法解釋權(quán)建基于算法的可解釋性,追求自動(dòng)化決策過程的適度透明性,提升算法權(quán)力的可譴責(zé)性。對(duì)算法解釋權(quán)具體功能的分析可分為兩個(gè)路徑:以解釋對(duì)象為標(biāo)準(zhǔn),聚焦算法的具體解釋和更新解釋;以算法運(yùn)行階段為標(biāo)準(zhǔn),劃分為事前的算法解釋與事后的算法解釋。前者如張凌寒指出的,具體解釋的功能在于解釋決策相關(guān)的系統(tǒng)功能以及決策作出的理由、原因和根據(jù)的個(gè)人信息;更新解釋的功能是確保算法相對(duì)人在發(fā)現(xiàn)于己不利的決策的算法錯(cuò)誤或者數(shù)據(jù)源問題時(shí),可以要求修正算法或更新算法依賴的數(shù)據(jù)[11]。后者如張欣認(rèn)為的,事前的算法解釋旨在提升算法相對(duì)人對(duì)算法基本知識(shí)的認(rèn)識(shí)水平,為算法可能造成的風(fēng)險(xiǎn)預(yù)警;事后的算法解釋旨在增強(qiáng)算法相對(duì)人對(duì)特定算法決策的了解程度,為提出異議和申請(qǐng)救濟(jì)做好準(zhǔn)備[18]。張恩典在事前與事后之間加入了事中的算法解釋權(quán),以進(jìn)一步增強(qiáng)自動(dòng)化決策過程中算法系統(tǒng)功能對(duì)算法相對(duì)人的透明度[10]。
兩種對(duì)算法解釋權(quán)功能的闡釋途徑不同,但均突破了對(duì)“解釋”的一般理解。有學(xué)者指出,“算法解釋權(quán)的權(quán)利內(nèi)容與解釋標(biāo)準(zhǔn)存在一定的沖突,其保護(hù)的利益能夠被個(gè)人信息保護(hù)制度、消費(fèi)者權(quán)益保護(hù)制度等法律規(guī)范所涵蓋”[45]。算法解釋權(quán)的功能涵蓋事前的知情、事中的理解、事后的修正、更新以及請(qǐng)求救濟(jì),超出了單一權(quán)利能夠容納的權(quán)利功能極限。為了保證算法解釋權(quán)保有和發(fā)揮上述的功能,現(xiàn)有研究事實(shí)上是將算法解釋權(quán)建構(gòu)為一種權(quán)利框架或權(quán)利群,而非單獨(dú)的、自然的一項(xiàng)權(quán)利。盡管GDPR序言第71條指出,數(shù)據(jù)主體有權(quán)要求算法控制者就可能對(duì)數(shù)據(jù)主體造成法律或類似重大影響的自動(dòng)化決策的相關(guān)事宜作出解釋。這被認(rèn)為是算法解釋權(quán)的的權(quán)利雛形。但GDPR序言是否具備同其正文一樣能夠產(chǎn)生權(quán)利的法律效力,目前還是懸而未決的問題。有學(xué)者意識(shí)到此點(diǎn),為彌補(bǔ)引言的法律效力不足,刻意將GDPR22條第3款與序言第71條相聯(lián)系進(jìn)行體系解釋,將后者視作前者的制度基礎(chǔ);進(jìn)而又基于增加算法決策透明度的共同初衷,以目的解釋方法,將GDPR第13、14條規(guī)定的知情權(quán)以及第35條設(shè)置的數(shù)據(jù)保護(hù)影響評(píng)估制度一并納入算法解釋權(quán)架構(gòu)之中,建構(gòu)出強(qiáng)化版本的算法解釋權(quán)框架[18]。對(duì)此,亦有學(xué)者對(duì)算法解釋權(quán)的法律基礎(chǔ)和可行性提出質(zhì)疑,指出這種將多項(xiàng)權(quán)利組合為一個(gè)權(quán)利框架的組建思路,沒有對(duì)能夠抵抗自動(dòng)化決策的權(quán)利作出精準(zhǔn)、清晰的定義,導(dǎo)致這種權(quán)利設(shè)置存在缺乏實(shí)際效力的風(fēng)險(xiǎn)[46]。因此,內(nèi)核不穩(wěn)定、邊界模糊的算法解釋權(quán)框架并非追求算法可解釋性的唯一出路,相反,拆解并梳理在自動(dòng)化決策各個(gè)階段發(fā)揮算法解釋權(quán)框架不同功能的權(quán)利,更有益于提高算法決策的適當(dāng)透明度和可譴責(zé)性。
通過對(duì)算法解釋權(quán)功能的闡釋可知,無論是具體解釋還是分階段解釋,均為權(quán)利人行使知情權(quán),要求算法控制者告知自動(dòng)化決策的運(yùn)行機(jī)制與邏輯,增強(qiáng)權(quán)利人對(duì)算法決策運(yùn)作全過程以及權(quán)利救濟(jì)途徑的理解程度,以此提高權(quán)利人抵抗算法風(fēng)險(xiǎn)的能力。當(dāng)算法運(yùn)行的邏輯出現(xiàn)錯(cuò)誤或者決策所依賴的數(shù)據(jù)源本身存在錯(cuò)誤時(shí),觸發(fā)算法解釋權(quán)架構(gòu)中的修改權(quán)與刪除權(quán)以實(shí)現(xiàn)更新算法的功能,要求算法控制者校準(zhǔn)數(shù)據(jù)或者刪除錯(cuò)誤數(shù)據(jù)后重新做出決策。根據(jù)《個(gè)保法》的規(guī)定,知情權(quán)、修改權(quán)、刪除權(quán)均為個(gè)人信息權(quán)體系中的權(quán)利。算法解釋權(quán)架構(gòu)與個(gè)人信息權(quán)二者在自動(dòng)化決策的各個(gè)階段均存在權(quán)利交錯(cuò)、功能重合。又由于《個(gè)保法》第48條更是直接將對(duì)個(gè)人信息處理規(guī)則的知情權(quán)界定為要求信息控制者解釋說明的權(quán)利。因此,算法解釋權(quán)架構(gòu)的事前與事中的告知功能、事后的修正和更新功能,分屬個(gè)人信息權(quán)體系中的解釋說明權(quán)、修改權(quán)和刪除權(quán)。
個(gè)人信息權(quán)對(duì)于算法權(quán)利功能的可替代性,說明了個(gè)人信息權(quán)利束能夠在自動(dòng)化決策過程中規(guī)制算法運(yùn)行、制約算法權(quán)力。這無疑為個(gè)人信息權(quán)在算法規(guī)制場(chǎng)景下的應(yīng)用開拓了道路,也為算法權(quán)利與個(gè)人信息權(quán)在實(shí)踐層面的深度結(jié)合提供了可能。首先,算法權(quán)利能夠擴(kuò)展個(gè)人信息權(quán)體系的場(chǎng)景外延。一方面,算法對(duì)人自主性的侵害源自大量個(gè)人信息對(duì)算法決策的“滋養(yǎng)”,因此,《個(gè)保法》相關(guān)規(guī)定是以個(gè)人權(quán)利保護(hù)進(jìn)路從源頭切斷或限制算法決策的養(yǎng)分,從而控制算法決策對(duì)個(gè)體支配和影響的程度。另一方面,算法權(quán)利實(shí)際為個(gè)人信息權(quán)利束預(yù)設(shè)了若干規(guī)制算法權(quán)力的具體場(chǎng)景。算法運(yùn)行失范的原因就在于算法權(quán)力破壞了個(gè)人信息在具體場(chǎng)景參與者之間的有序流動(dòng),算法權(quán)利的提出可以被看做是回復(fù)場(chǎng)景適當(dāng)性的理論努力,所以,算法權(quán)利可以被吸納進(jìn)個(gè)人信息保護(hù)“場(chǎng)景性”之中。其次,個(gè)人信息權(quán)利束相對(duì)成熟的概念理論體系以及實(shí)踐制度的設(shè)置,能夠較為直接地實(shí)現(xiàn)算法權(quán)利理論構(gòu)想中的規(guī)制功能設(shè)計(jì)。一方面,將算法權(quán)利整合入個(gè)人信息權(quán)利束之中,有助于實(shí)現(xiàn)算法權(quán)力管控從功能性考慮到實(shí)用性設(shè)計(jì)的平滑過渡,另一方面,將算法規(guī)制納入個(gè)人信息合規(guī)監(jiān)管之中,可以避免算法監(jiān)管消耗過多制度成本,也符合“于現(xiàn)有規(guī)制框架下以審慎態(tài)度探索”[47]的務(wù)實(shí)思路。
算法權(quán)利是人工智能時(shí)代的產(chǎn)物,是身處算法包圍中的我們回應(yīng)時(shí)代的理論自覺。算法權(quán)利也是“權(quán)利泛化”的造物,是面對(duì)算法權(quán)力步步緊逼的我們權(quán)利意識(shí)勃興的“早產(chǎn)”主張。算法權(quán)利規(guī)制算法權(quán)力的實(shí)現(xiàn),需要完成從理論上的權(quán)利主張發(fā)展為實(shí)際上嵌入人們生活日常中的現(xiàn)實(shí)權(quán)利。算法權(quán)利的核心意義不同于個(gè)人信息權(quán),并且其權(quán)利結(jié)構(gòu)、權(quán)利來源以及權(quán)利演進(jìn)路徑均有別于個(gè)人信息權(quán),肯認(rèn)了算法權(quán)利理論上的可欲性。但是,通過對(duì)算法權(quán)利束的分解,可知其與個(gè)人信息權(quán)在內(nèi)容和功能上高度重合,削弱了其在法律權(quán)利意義上獨(dú)立設(shè)置的必要性。但作為個(gè)人信息權(quán)法律融入算法規(guī)制實(shí)踐的一項(xiàng)理論準(zhǔn)備,算法權(quán)利“觀念上的存在”[48]之重要性毋庸置疑。同時(shí),如前文述,算法權(quán)利是在算法規(guī)制鑲嵌在數(shù)據(jù)治理路徑中應(yīng)運(yùn)而生的,算法權(quán)利中各個(gè)具體權(quán)利制度化的最佳路徑是將之轉(zhuǎn)化并融入個(gè)人信息權(quán)利束中。數(shù)據(jù)治理尤其是個(gè)人信息保護(hù)受到空前重視是大數(shù)據(jù)科學(xué)進(jìn)步、算法技術(shù)改進(jìn)、智慧社會(huì)進(jìn)化生成的新習(xí)慣(12)關(guān)于新習(xí)慣與新(習(xí)慣)權(quán)利關(guān)系的理論,參見:謝暉.論新型權(quán)利生成的習(xí)慣基礎(chǔ)[J].法商研究,2015(1):44-53.。算法權(quán)利是個(gè)人信息保護(hù)“新習(xí)慣”背景下生成的權(quán)利理論新型主張,其理論與實(shí)踐均無法跳脫當(dāng)前習(xí)慣和立法對(duì)其的桎梏。要通過權(quán)利制約權(quán)力、切實(shí)起到監(jiān)管算法正當(dāng)運(yùn)行的作用,算法權(quán)利需要借殼個(gè)人信息權(quán)利束中的具體權(quán)利設(shè)置,實(shí)現(xiàn)其原初的規(guī)制功能設(shè)計(jì)。因此,算法權(quán)利理論工作的下一步重點(diǎn)應(yīng)該是與個(gè)人信息權(quán)利束深度結(jié)合、將其融入個(gè)人信息權(quán)體系之中,以期更有效、更經(jīng)濟(jì)地發(fā)揮規(guī)制算法的法律工具作用。
華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2022年1期