陳浩林
隨著人工智能技術(shù)的不斷發(fā)展,算法自動(dòng)化決策被賦能運(yùn)用到生活的方方面面,給法律的規(guī)制帶來(lái)了一定挑戰(zhàn)。一方面,自動(dòng)化決策系統(tǒng)雖然能與神經(jīng)元網(wǎng)絡(luò)等技術(shù)結(jié)合處理海量信息,極大地提升決策的效率,但其本身并不一定是中立的。自動(dòng)化決策可能會(huì)以技術(shù)公正的表象,掩蓋人類社會(huì)中本來(lái)就存在的問(wèn)題。(1)Cathy O’ Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Crown Publishers,2016,p.21.部分自動(dòng)化決策系統(tǒng)背后的機(jī)器學(xué)習(xí)機(jī)制依賴從社會(huì)中收集到的數(shù)據(jù),如果社會(huì)本身存在不平等對(duì)待或其他歧視的現(xiàn)象,那么相應(yīng)的自動(dòng)化決策也會(huì)表現(xiàn)出同樣的瑕疵。(2)Solon Barocas &Andrew D. Selbst,Big Data’s Disparate Impact,104 California Law Review,671,677(2016).另一方面,與大數(shù)據(jù)和人工智能技術(shù)結(jié)合的自動(dòng)化決策系統(tǒng)容易形成“黑箱效應(yīng)”,給法律的問(wèn)責(zé)增加阻礙。這類自動(dòng)化決策系統(tǒng)的決策過(guò)程往往難以從外部進(jìn)行觀察、理解,并且涉及數(shù)據(jù)海量,一旦發(fā)生算法侵害便難以確定原因。(3)Danielle Keats Citron &Frank Pasquale,The Scored Society:Due Process for Automated Predictions,89 Washington Law Review,1,13-15(2014).面對(duì)這樣的情形,有學(xué)者精準(zhǔn)地指出,對(duì)于自動(dòng)化決策,傳統(tǒng)私法上的合同效力制度、違約救濟(jì)制度和侵權(quán)損害賠償制度等法律資源已經(jīng)不敷規(guī)制。(4)參見(jiàn)張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第3期。這意味著,我們已經(jīng)進(jìn)入了一個(gè)由自動(dòng)化決策操控,但因缺乏透明度而無(wú)法進(jìn)行有效監(jiān)管的“黑箱社會(huì)”。(5)Frank Pasquale,The Black Box Society:The Secret Algorithmic That Control Money and Information,Harvard University Press,2015,p.1-4.
在這樣的背景下,賦予數(shù)據(jù)主體算法解釋的權(quán)利是增強(qiáng)自動(dòng)化決策透明度、保證數(shù)據(jù)主體權(quán)益的重要手段。美國(guó)在金融信貸領(lǐng)域頒布了《公平信用報(bào)告法》(Fair Credit Reporting Act)、《平等信貸機(jī)會(huì)法》(The Equal Credit Opportunity Act)等法案作為算法解釋的法律依據(jù)。前者賦予消費(fèi)者有條件地訪問(wèn)自身征信報(bào)告和信用分?jǐn)?shù)的權(quán)利,后者則課以貸款人向消費(fèi)者解釋負(fù)面信用評(píng)分的義務(wù)。(6)參見(jiàn)許可:《馴服算法:算法治理的歷史展開(kāi)與當(dāng)代體系》,載《華東政法大學(xué)學(xué)報(bào)》2022年第1期。歐盟的《通用數(shù)據(jù)保護(hù)條例》通過(guò)第13條、第14條、第15條和第22條保障了數(shù)據(jù)主體對(duì)自動(dòng)化決策系統(tǒng)的知情透明,確立了數(shù)據(jù)主體對(duì)抗自動(dòng)化決策的行權(quán)機(jī)制。我國(guó)《個(gè)人信息保護(hù)法》第24條規(guī)定了個(gè)人拒絕自動(dòng)化決策和請(qǐng)求解釋說(shuō)明的權(quán)利,國(guó)家網(wǎng)信辦頒布的《算法推薦管理規(guī)定》第17條也規(guī)定了算法推薦服務(wù)提供者的解釋說(shuō)明義務(wù)??梢哉f(shuō),算法解釋在我國(guó)法律體系中具備規(guī)范基礎(chǔ)。
但算法解釋的權(quán)利該如何與我國(guó)私法體系相融合,在我國(guó)的理論研究中尚未形成統(tǒng)一的觀點(diǎn)。具體而言,分歧主要存在于以下幾個(gè)方面:首先,算法解釋的權(quán)利能否被構(gòu)建為獨(dú)立的“算法請(qǐng)求權(quán)”,換言之,“算法解釋權(quán)”是否存在?這一問(wèn)題充滿爭(zhēng)議。其次,算法解釋的構(gòu)成要件該如何認(rèn)定,尤其是如何理解《個(gè)人信息保護(hù)法》第24條第3款中“自動(dòng)化決策”“決定”和“重大影響”等概念,目前我國(guó)的研究也并不充分。最后,算法解釋?xiě)?yīng)該體現(xiàn)哪些內(nèi)容,要如何把握解釋的限度,這一問(wèn)題也仍不明確。本文將在對(duì)歐盟《通用數(shù)據(jù)保護(hù)條例》進(jìn)行比較研究的基礎(chǔ)上,從我國(guó)民法解釋論的層面嘗試對(duì)以上問(wèn)題進(jìn)行探討。
算法解釋是否是一項(xiàng)獨(dú)立的權(quán)利,進(jìn)而被稱作“算法解釋權(quán)”,這一問(wèn)題在國(guó)內(nèi)外的研究中均存在爭(zhēng)議。我國(guó)有學(xué)者明確肯定算法解釋是一項(xiàng)獨(dú)立的權(quán)利,認(rèn)為“算法解釋權(quán)”是數(shù)據(jù)主體在自動(dòng)化決策作出后向數(shù)據(jù)控制者請(qǐng)求解釋說(shuō)明的權(quán)利;(7)參見(jiàn)張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2018年第3期;解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,載《現(xiàn)代法學(xué)》2020年第1期。也有學(xué)者旗幟鮮明地反對(duì)“算法解釋權(quán)”的存在。(8)參見(jiàn)賈章范:《論算法解釋權(quán)不是一項(xiàng)法律權(quán)利》,載《電子知識(shí)產(chǎn)權(quán)》2020年第12期。實(shí)際上,對(duì)“算法解釋權(quán)(the right to explanation)”概念的爭(zhēng)論可以回溯至對(duì)歐盟《通用數(shù)據(jù)保護(hù)條例》的研究中。梳理歐盟《通用數(shù)據(jù)保護(hù)條例》的立法過(guò)程、學(xué)說(shuō)觀點(diǎn),可以發(fā)現(xiàn):算法解釋并不是一項(xiàng)單獨(dú)的權(quán)利,而是由一系列規(guī)范組成的義務(wù)體系。
“算法解釋權(quán)”這一概念最早由英國(guó)學(xué)者古德曼(Goodman)和弗萊斯曼(Flaxman)在其2016年的會(huì)議論文中提出。他們指出:《通用數(shù)據(jù)保護(hù)條例》在序言第71條明確要求數(shù)據(jù)控制者應(yīng)采取適當(dāng)?shù)拇胧┓乐棺詣?dòng)化決策的歧視性影響,并且正文第13條和第14條賦予數(shù)據(jù)主體獲得“與算法邏輯相關(guān)的有意義信息”的權(quán)利,這些規(guī)定與正文第22條第3款“數(shù)據(jù)控制者應(yīng)采取適當(dāng)措施保障數(shù)據(jù)主體的權(quán)利、自由和正當(dāng)利益”的表述相結(jié)合,可以認(rèn)為《通用數(shù)據(jù)保護(hù)條例》確立了算法解釋權(quán)。(9)Bryce Goodman &Seth Flaxman,European Union Regulations on Algorithmic Decision-Making and A “Right to Explanation”,38 AI Magazine,50,53-55(2017).一些學(xué)者也在其文章中直接引用該觀點(diǎn),認(rèn)為“歐盟《通用數(shù)據(jù)保護(hù)條例》有效地創(chuàng)建了算法解釋權(quán),用戶可以借此要求對(duì)關(guān)于其自身的算法決定進(jìn)行解釋?!?10)Francesca Rossi,Artificial Intelligence:Potential Benefits and Ethical Considerations,EPRS:European Parliamentary Research Service. Belgium.原文鏈接:https://policycommons.net/artifacts/1340375/artificial-intelligence/1950888/,2023年5月30日訪問(wèn);Hildebrandt,Mireill,The New Imbroglio-Living with Machine Algorithms,The Art of Ethics in the Information Society,Amsterdam University Press,2016,p. 55-60.上述學(xué)者所稱的“算法解釋權(quán)”,主要指針對(duì)具體自動(dòng)化決策的事后解釋請(qǐng)求權(quán)。該論斷一經(jīng)提出,便受到歐盟學(xué)者瓦赫特(Wachter)和愛(ài)德華茲(Edwards)的質(zhì)疑,其主要觀點(diǎn)可總結(jié)如下。
從文義解釋的角度觀察,《通用數(shù)據(jù)保護(hù)條例》正文中并未規(guī)定算法解釋權(quán)。(11)Sandra Wachter,Brent Mittelstadt &Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation?,7 International Data Privacy Law,76,82(2017).首先,《通用數(shù)據(jù)保護(hù)條例》第22條第3款并沒(méi)有提及算法解釋權(quán)。其表述僅為“數(shù)據(jù)控制者應(yīng)采取適當(dāng)措施”,從中無(wú)法推導(dǎo)出算法解釋權(quán)的含義。其次,《通用數(shù)據(jù)保護(hù)條例》第13條和第14條亦未提及算法解釋權(quán)。該兩條規(guī)定的是數(shù)據(jù)控制者在自動(dòng)化決策作出前的告知義務(wù),從中無(wú)法推導(dǎo)出一項(xiàng)事后的算法解釋權(quán)。并且,《通用數(shù)據(jù)保護(hù)條例》第13條第2款f項(xiàng)和第14條第2款g項(xiàng)明確規(guī)定適用于第22條第1款和第4款的自動(dòng)化決策情形,并沒(méi)有與第22條第3款的“適當(dāng)措施”產(chǎn)生關(guān)聯(lián)。最后,從《通用數(shù)據(jù)保護(hù)條例》第15條規(guī)定的訪問(wèn)權(quán)中也無(wú)法推導(dǎo)出算法解釋權(quán)?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第15條第1款h項(xiàng)規(guī)定,當(dāng)存在第22條第1款和第4款規(guī)定的自動(dòng)化決策時(shí),信息主體有權(quán)了解“所涉邏輯相關(guān)的重要信息”和“設(shè)想的結(jié)果”。對(duì)于該條,古德曼和弗萊斯曼在文章中沒(méi)有作過(guò)多分析,但確有學(xué)者指出其“相較于第22條更可能賦予數(shù)據(jù)主體算法解釋權(quán)”。(12)Lilian Edwards &Michael Veale,Slave to the Algorithm?Why a ‘Right to an Explanation’ Is Probably Not the Remedy You Are Looking for?,16 Duke Law &Technology Review,18,68-72(2018).而學(xué)者瓦赫特指出,在體系上《通用數(shù)據(jù)保護(hù)條例》第13條—第15條可被視為一個(gè)整體,并且第15條第1款第(h)項(xiàng)與第13條第2款第(f)項(xiàng)和第14條第2款第(g)項(xiàng)的文義表述相似,可以認(rèn)為第15條第1款第(h)項(xiàng)亦是對(duì)自動(dòng)化決策系統(tǒng)的事前一般性解釋。他還分析了《通用數(shù)據(jù)保護(hù)條例》的德語(yǔ)文本,從其語(yǔ)法措辭上進(jìn)一步佐證第15條第1款第(h)項(xiàng)的事前解釋性質(zhì)。(13)Sandra Wachter,Brent Mittelstadt &Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation?,7 International Data Privacy Law,76,83-84(2017).歐盟第29條數(shù)據(jù)保護(hù)小組在對(duì)該條的解釋中也指出,第15條第1款第(h)項(xiàng)與第13條和第14條規(guī)范目的一致,對(duì)其應(yīng)作相同的解釋。(14)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe Purposes of Regulation 2016/679 [R],p.25-26..
從體系解釋的角度觀察,《通用數(shù)據(jù)保護(hù)條例》中確立了算法解釋權(quán)的觀點(diǎn)也值得懷疑。古德曼和弗萊斯曼認(rèn)為算法解釋權(quán)的核心規(guī)范基礎(chǔ)在于《通用數(shù)據(jù)保護(hù)條例》第22條第3款與序言第71條的結(jié)合。誠(chéng)然,《通用數(shù)據(jù)保護(hù)條例》全文中確實(shí)只有序言第71條中提及算法解釋權(quán),該條規(guī)定數(shù)據(jù)主體在自動(dòng)化決策作出后具有“要求作出解釋”和“提出質(zhì)疑”的權(quán)利。但從歐盟的立法實(shí)踐傳統(tǒng)來(lái)看,其頒布法律的序言部分往往并不具有實(shí)際效力。歐盟學(xué)者克利馬(Klimas)指出,當(dāng)一部歐盟法律的序言和正文條款都明確對(duì)同一事項(xiàng)作出規(guī)定,但文義表述并不一致時(shí),序言條款往往是沒(méi)有效力的。(15)Tadas Klimas &Jurate Vaiciukaite,The Law of Recitals in European Community Legislation,15 ILSA Journal of International &Comparative Law,61,83-85(2008).意大利學(xué)者巴拉塔(Baratta)也認(rèn)為,歐盟法律的序言可以輔助解釋正文條款的規(guī)范目的和立法背景,但原則上不具有效力。(16)Roberto Baratta,Complexity of EU Law in the Domestic Implementing Process,2 The Theory and Practice of Legislation,293,293-295(2014).回到《通用數(shù)據(jù)保護(hù)條例》的文本,其序言第71條和正文第22條對(duì)于數(shù)據(jù)控制者應(yīng)采取“保障措施”的表述幾乎一致,但正文第22條卻并無(wú)提及數(shù)據(jù)主體“請(qǐng)求解釋”的權(quán)利,這足以說(shuō)明算法解釋權(quán)并無(wú)實(shí)際效力。
回顧歐盟針對(duì)自動(dòng)化決策的立法過(guò)程,也可以得出算法解釋權(quán)被立法者有意忽略的結(jié)論。根據(jù)歐盟的立法程序,《通用數(shù)據(jù)保護(hù)條例》頒布前需要經(jīng)過(guò)歐盟的部長(zhǎng)理事會(huì)、歐盟議會(huì)和歐盟委員會(huì)進(jìn)行“三方會(huì)談(trilogues)”,以達(dá)成對(duì)法律文本的一致意見(jiàn)。(17)Olivier Proust,Unravelling the Mysteries of the GDPR Trilogues,原文鏈接:https://www.fieldfisher.com/en/services/privacy-security-and-information/privacy-security-and-information-law-blog/unravelling-the-mysteries-of-the-gdpr-trilogues,最后訪問(wèn)時(shí)間:2023年5月30日。在歐盟委員會(huì)于2012年提出的《通用數(shù)據(jù)保護(hù)條例》建議草案中,其序言第58條(相當(dāng)于目前序言第71條)和正文第20條(相當(dāng)于目前正文第22條)中均未提及對(duì)算法解釋的權(quán)利。(18)Proposal for a regulation of the european parliament and of the council on the protection of individuals with regard to the processing of personal data and on the free movement of such data(General Data Protection Regulation),原文鏈接:https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52012PC0011&qid=1691392945581,2023年5月30日訪問(wèn)。歐盟議會(huì)在2013年11月的報(bào)告中,曾提議對(duì)該版本的草案正文第20條第5款進(jìn)行修改,增加“獲得人工評(píng)估的權(quán)利以及對(duì)此類評(píng)估后做出的決定的解釋”作為對(duì)數(shù)據(jù)主體的保障措施。(19)Report on the proposal for a regulation of the European Parliament and of the Council on the protection of individuals with regard to the processing of personal data and on the free movement of such data(General Data Protection Regulation),原文鏈接:https://www.europarl.europa.eu/doceo/document/A-7-2013-0402_EN.html,2023年5月30日訪問(wèn)。但在歐盟委員會(huì)于2014年提出的草案版本中,其正文第20條(相當(dāng)于目前正文第22條)僅規(guī)定數(shù)據(jù)主體“有權(quán)獲得人為干預(yù)、表達(dá)自己的觀點(diǎn)和提出異議的權(quán)利”,而將數(shù)據(jù)主體“獲得對(duì)決定的解釋和對(duì)決定提出異議的權(quán)利”置于序言第58條(相當(dāng)于目前序言第71條)中。(20)European Digital Rights,Comparison of the Parliament and Council text on the General Data Protection Regulation,原文鏈接:https://edri.org/files/EP_Council_Comparison.pdf,2023年5月30日訪問(wèn)。2016年通過(guò)的《通用數(shù)據(jù)保護(hù)條例》最終文本采納了這種模式,將對(duì)算法解釋權(quán)的規(guī)定置于序言第71條中。這在一定程度上可以說(shuō)明,歐盟立法者有意不賦予算法解釋權(quán)實(shí)際法律效力。
不僅“算法解釋權(quán)”概念在法教義學(xué)層面受到質(zhì)疑,歐盟學(xué)者指出其在實(shí)踐中也沒(méi)有發(fā)揮應(yīng)有的作用。一方面,“算法解釋權(quán)”會(huì)不合理地增加數(shù)據(jù)主體的負(fù)擔(dān)。向數(shù)據(jù)控制者提交信息訪問(wèn)的申請(qǐng)往往需要花費(fèi)大量的時(shí)間,并且還需要具備專業(yè)知識(shí),這對(duì)于大多數(shù)用戶來(lái)說(shuō)并不便利。并且在歐盟,數(shù)據(jù)主體進(jìn)行集體訴訟應(yīng)該由歐洲的國(guó)家數(shù)據(jù)保護(hù)機(jī)構(gòu)(DPAs)代表,而由于這些機(jī)構(gòu)缺乏相應(yīng)的人力支持和專業(yè)知識(shí),維權(quán)也并不容易。(21)Lilian Edwards &Michael Veale,Enslaving the Algorithm:From a “Right to an Explanation” to a “Right to Better Decisions”?,16 IEEE Security &Privacy,46,49-50 (2018).另一方面,即便數(shù)據(jù)主體通過(guò)“算法解釋權(quán)”獲得了解釋,由于專業(yè)知識(shí)缺乏且涉及數(shù)據(jù)眾多,其也無(wú)法對(duì)該解釋形成有效的理解。(22)Frank Pasquale,The Black Box Society:The Secret Algorithmic That Control Money and Information,Harvard University Press,2015,p.29.對(duì)于受自動(dòng)化決策影響的數(shù)據(jù)主體而言,一旦涉及到“算法解釋權(quán)”的救濟(jì),便意味著特定的侵害已經(jīng)發(fā)生,事后的解釋實(shí)際上為時(shí)已晚。此外,由于法律上的商業(yè)秘密保護(hù),自動(dòng)化決策算法披露也存在阻礙。(23)Mike Ananny &Kate Crawford,Seeing without Knowing:Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability,20 New Media &Society,973,975-976(2018).
在上述質(zhì)疑之下,可認(rèn)為針對(duì)具體自動(dòng)化決策的事后“算法解釋權(quán)”并不存在,其僅是學(xué)者構(gòu)造出來(lái)的概念?;谧詣?dòng)化決策透明度規(guī)制的現(xiàn)實(shí)需求,歐盟學(xué)者在近年來(lái)的研究中厘清了《通用數(shù)據(jù)保護(hù)條例》中實(shí)質(zhì)起到算法解釋作用的規(guī)范體系:《通用數(shù)據(jù)保護(hù)條例》實(shí)際上通過(guò)第13-15條、第22條和序言第71條組成的告知義務(wù)體系承擔(dān)算法解釋的功能。
首先,《通用數(shù)據(jù)保護(hù)條例》第13條第2款第(f)項(xiàng)、第14條第2款(g)項(xiàng)和第15條第1款(h)項(xiàng)中“所涉邏輯的有意義信息”“對(duì)數(shù)據(jù)主體重要性和設(shè)想后果”等表述值得重視,其規(guī)定了數(shù)據(jù)控制者充分的算法解釋義務(wù)。具體而言,披露信息必須“有意義”,這對(duì)于沒(méi)有技術(shù)背景的數(shù)據(jù)主體來(lái)說(shuō)是可理解的、具有實(shí)質(zhì)指引作用和信息量充分的,并且披露的方式應(yīng)根據(jù)應(yīng)用場(chǎng)景的不同靈活調(diào)整;披露信息能體現(xiàn)“重要性和設(shè)想后果”則要求數(shù)據(jù)主體能夠根據(jù)所提供的信息,理解自動(dòng)化決策系統(tǒng)的運(yùn)作邏輯,并預(yù)測(cè)自己行為的結(jié)果。(24)Andrew D. Selbst &Julia Powles,Meaningful Information and the Right to Explanation,7 International Data Privacy Law,233,235-236(2017).這實(shí)際上消融了瓦赫特提出的一般性系統(tǒng)功能解釋和具體決策解釋、自動(dòng)化決策事前解釋和事后解釋的嚴(yán)格區(qū)分,彌補(bǔ)了事后“算法解釋權(quán)”缺位的不足。因?yàn)閺募夹g(shù)層面來(lái)看,基于可靠性的要求,使用線性回歸算法、機(jī)器學(xué)習(xí)算法的自動(dòng)化決策系統(tǒng)運(yùn)算結(jié)果是可以預(yù)測(cè)的。一旦對(duì)其輸入數(shù)據(jù),其處理結(jié)果便可預(yù)知,而不必等最終的決策作出。(25)Peter Flach,Machine Learning:The Art and Science of Algorithms that Make Sense of Data,Cambridge University Press,2012,p.11.能進(jìn)行一般性系統(tǒng)功能解釋但無(wú)法進(jìn)行具體決策解釋的例子,只有使用隨機(jī)輸出算法的自動(dòng)化決策。但該類系統(tǒng)在實(shí)踐中不具有典型性,并且對(duì)其具體決策的事后解釋也沒(méi)有意義,一般性系統(tǒng)功能的解釋便足夠。(26)Andrew D. Selbst &Julia Powles,Meaningful Information and the Right to Explanation,7 International Data Privacy Law,233,240(2017).因此,《通用數(shù)據(jù)保護(hù)條例》第13-15條能夠?qū)λ惴ㄟM(jìn)行充分解釋,并且數(shù)據(jù)主體根據(jù)第15條第1款第(h)項(xiàng)至少可獲得對(duì)自動(dòng)化決策的事中解釋。
其次,在算法解釋的內(nèi)容上,《通用數(shù)據(jù)保護(hù)條例》第13—15條的算法解釋義務(wù)能夠協(xié)調(diào)算法透明度、數(shù)據(jù)主體可理解性和商業(yè)秘密保護(hù)三者之間的緊張關(guān)系,彌補(bǔ)“算法解釋權(quán)”在實(shí)現(xiàn)上的不足。如前所述,“算法解釋權(quán)”的阻礙,主要在于數(shù)據(jù)主體無(wú)法理解披露內(nèi)容和商業(yè)秘密保護(hù)等問(wèn)題上。就前一問(wèn)題而言,《通用數(shù)據(jù)保護(hù)條例》第13—15條確立了“易讀性解釋”標(biāo)準(zhǔn),使得算法解釋既有合理的透明度,又易于數(shù)據(jù)主體理解。以程度為標(biāo)準(zhǔn),算法解釋可分為可讀性(readability)解釋、透明性(transparency)解釋和易讀性(legibility)解釋三類??勺x性指的是數(shù)據(jù)主體理解某些信息、某些數(shù)據(jù)的主觀能力。對(duì)自動(dòng)化決策系統(tǒng)進(jìn)行可讀性解釋,可以促進(jìn)數(shù)據(jù)主體對(duì)其機(jī)制的理解,但不會(huì)提高數(shù)據(jù)主體對(duì)其影響范圍、處理目的、處理結(jié)果和社會(huì)意義的知情程度。(27)Mingfeng Lin,Economic Value of Texts:Evidence from Online Debt Crowdfunding,in Empirical Studies on Online Crowdfunding,原文鏈接:https://www.federalreserve.gov/conferences/files/economic-value-of-texts-presentation.pdf,2023年5月30日訪問(wèn)。透明性解釋則包含自動(dòng)化決策的具體存在、輸入信息、處理范圍、商業(yè)目的、社會(huì)意義、具體效果等細(xì)節(jié)方面的信息,但無(wú)法提升數(shù)據(jù)主體對(duì)其理解程度。(28)Tal Zarsky,Transparent Predictions,4 University of Illinois Law Review,1503,1530-1550(2013).換言之,可讀性解釋是對(duì)自動(dòng)化決策的不透明理解,透明性解釋則是對(duì)自動(dòng)化決策的不理解透明。而易讀性解釋則意味著數(shù)據(jù)主體能夠自主理解數(shù)據(jù)和分析算法,達(dá)到對(duì)自動(dòng)化決策“既理解又透明”的程度。(29)Richard Mortier,Hamed Haddadi,Tristan Henderson,Derek McAuley &Jon Crowcroft,Human-data Interaction:The Human Face of the Data-driven Society,2 MIT Technology Review,1,6-7(2014).在算法解釋中采用易讀性原則,可以彌合可讀性解釋和透明性解釋各自的不足。《通用數(shù)據(jù)保護(hù)條例》第13條第2款(f)項(xiàng)、第14條第2款(g)項(xiàng)、第15條第1款(h)項(xiàng)中“存在自動(dòng)化決策”“所涉邏輯有意義信息”的規(guī)定屬于透明性解釋的內(nèi)容,而“對(duì)數(shù)據(jù)主體的重要性和設(shè)想結(jié)果”的規(guī)定則屬于可讀性解釋的內(nèi)容。綜合來(lái)看,《通用數(shù)據(jù)保護(hù)條例》第13—15條要求算法解釋達(dá)到“既透明又理解”的程度,明確了“易讀性解釋”標(biāo)準(zhǔn)。(30)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,257-258(2017).而在商業(yè)秘密保護(hù)方面,《通用數(shù)據(jù)保護(hù)條例》序言第63條確實(shí)規(guī)定數(shù)據(jù)保護(hù)的權(quán)利不應(yīng)對(duì)商業(yè)秘密產(chǎn)生不利影響,但這并不妨礙數(shù)據(jù)控制者履行算法解釋義務(wù)。因?yàn)椤锻ㄓ脭?shù)據(jù)保護(hù)條例》序言第63條也強(qiáng)調(diào),數(shù)據(jù)控制者不得因上述限制拒絕向數(shù)據(jù)主體提供信息,歐盟《商業(yè)秘密指令》序言第35條亦規(guī)定,商業(yè)秘密原則不應(yīng)影響數(shù)據(jù)保護(hù)權(quán)利。(31)Paul B. de Laat,Algorithmic Decision-making Employing Profiling:Will Trade Secrecy Protection Render the Right to Explanation Toothless?,24 Ethics and Information Technology,16,17(2022).這表明,歐盟法律中算法解釋和商業(yè)秘密保護(hù)二者也可以平衡。
最后,《通用數(shù)據(jù)保護(hù)條例》序言在法解釋中的價(jià)值指引作用也不應(yīng)忽視,其強(qiáng)化了算法解釋義務(wù)體系的構(gòu)建。雖然《通用數(shù)據(jù)保護(hù)條例》序言第71條所規(guī)定的算法解釋的權(quán)利并無(wú)法律效力,但其與正文第13—15條、第22條在內(nèi)容上并不存在沖突。從法教義學(xué)的角度,無(wú)法反駁序言第71條在闡釋正文第22條第3款的“保護(hù)措施”和第13—15條的算法解釋義務(wù)時(shí)能起到補(bǔ)充的作用。(32)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,255(2017).《通用數(shù)據(jù)保護(hù)條例》第22條第3款所規(guī)定“保護(hù)措施”的內(nèi)涵,并不能從該條的文義中得到明晰。序言第71條指出,“保護(hù)措施”具體包括“獲得人為干預(yù)、表達(dá)其觀點(diǎn)、獲得對(duì)自動(dòng)化決策解釋的權(quán)利和提出質(zhì)疑的權(quán)利”。在第22條無(wú)法推導(dǎo)出獨(dú)立“算法解釋權(quán)”的情況下,“獲得對(duì)自動(dòng)化決策解釋的權(quán)利”僅能指向第13—15條所規(guī)定的算法解釋義務(wù)。由此,《通用數(shù)據(jù)保護(hù)條例》第13—15條、第22條和序言第71條構(gòu)成了完整的算法解釋義務(wù)體系。
從上述分析可知,歐盟《通用數(shù)據(jù)保護(hù)條例》中并不存在“算法解釋權(quán)”,僅有算法解釋義務(wù)體系。我國(guó)《個(gè)人信息保護(hù)法》第24條第3款的表述與《通用數(shù)據(jù)保護(hù)條例》第22條第1款相近,但增加了“個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明”的賦權(quán)性表述。這是否意味著我國(guó)《個(gè)人信息保護(hù)法》彌補(bǔ)了《通用數(shù)據(jù)保護(hù)條例》的缺憾,肯定了“算法解釋權(quán)”的獨(dú)立地位?從法教義學(xué)的角度對(duì)此分析,獨(dú)立“算法請(qǐng)求權(quán)”在我國(guó)民法體系中亦難以證立,算法解釋的性質(zhì)應(yīng)為信息處理者的告知義務(wù)。
若“算法解釋權(quán)”應(yīng)被肯定,其在我國(guó)民法中應(yīng)被置于何種體系地位,目前并未有較多研究。一種較有說(shuō)服力的觀點(diǎn)認(rèn)為,算法解釋是依附于人格權(quán)保護(hù)體系、為實(shí)現(xiàn)人格利益保護(hù)而服務(wù)的非獨(dú)立請(qǐng)求權(quán)。其理由在于:第一,個(gè)人信息權(quán)益是隸屬于人格權(quán)保護(hù)體系的法益,因此算法解釋也應(yīng)置于人格權(quán)保護(hù)的范疇進(jìn)行性質(zhì)界定;第二,人格權(quán)“事前防御—事后救濟(jì)”的請(qǐng)求權(quán)保護(hù)體系能夠涵蓋自動(dòng)化決策全過(guò)程中可能出現(xiàn)的侵害,為信息主體提供有效救濟(jì)。(33)參見(jiàn)胡巧莉、劉征峰:《算法在民法中的體系定位去類型區(qū)分》,載《財(cái)經(jīng)法學(xué)》2022年第4期。該種觀點(diǎn)構(gòu)思精巧,對(duì)算法解釋在民法中的體系地位進(jìn)行了有益的探討。但在個(gè)人信息保護(hù)的特殊語(yǔ)境下,以權(quán)利的維度構(gòu)建算法解釋權(quán)未免局限。
從民法教義學(xué)的角度分析,人格權(quán)請(qǐng)求權(quán)無(wú)法涵蓋“算法解釋權(quán)”的制度功能?!八惴ń忉寵?quán)”所保護(hù)的對(duì)象為個(gè)人信息權(quán)益,且歐盟對(duì)自動(dòng)化決策的規(guī)制始于對(duì)個(gè)人尊嚴(yán)的關(guān)懷,(34)Mariam Hawath,Regulating Automated Decision-Making:An Analysis of Control over Processing and Additional Safeguards in Article 22 of the GDPR,7 EDPL,161,163-164(2021).不可否認(rèn)算法解釋權(quán)與人格權(quán)編在體系上有著緊密關(guān)聯(lián)。但這并不意味著須采人格權(quán)請(qǐng)求權(quán)理論構(gòu)建算法解釋權(quán)。一方面,自動(dòng)化決策不僅可能侵害信息主體的人格權(quán)益,還有可能侵害其財(cái)產(chǎn)權(quán)益。電子商務(wù)領(lǐng)域頻頻出現(xiàn)的“大數(shù)據(jù)殺熟”現(xiàn)象即為自動(dòng)化決策侵害財(cái)產(chǎn)權(quán)益的例證,(35)參見(jiàn)廖建凱:《“大數(shù)據(jù)殺熟”法律規(guī)制的困境與出路——從消費(fèi)者的權(quán)利保護(hù)到經(jīng)營(yíng)者算法權(quán)利治理》,載《西南政法大學(xué)學(xué)報(bào)》2020年第1期。僅憑人格權(quán)請(qǐng)求權(quán)無(wú)法周延保護(hù)信息主體的權(quán)益。另一方面,作為“算法解釋權(quán)”保護(hù)對(duì)象的個(gè)人信息權(quán)益并未被我國(guó)《民法典》確立為具體的人格權(quán),其僅為一項(xiàng)受法律保護(hù)的人格利益,我國(guó)民法并不總是借助人格權(quán)請(qǐng)求權(quán)對(duì)其進(jìn)行保護(hù)。(36)參見(jiàn)李永軍:《論民法典中人格權(quán)的實(shí)證概念》,載《比較法研究》2022年第1期。人格權(quán)請(qǐng)求權(quán)基于具體人格權(quán)的效力而產(chǎn)生,是對(duì)作為絕對(duì)權(quán)的人格權(quán)進(jìn)行保護(hù)的特有方法。(37)參見(jiàn)王利明:《論人格權(quán)請(qǐng)求權(quán)與侵權(quán)損害賠償請(qǐng)求權(quán)的分離》,載《中國(guó)法學(xué)》2019年第1期。在《民法典》沒(méi)有明確“個(gè)人信息權(quán)”概念的情況下,我國(guó)《個(gè)人信息保護(hù)法》系通過(guò)確立一系列“個(gè)人信息處理規(guī)則”行為規(guī)范的方式,實(shí)現(xiàn)對(duì)個(gè)人信息權(quán)益的反射保護(hù)。(38)參見(jiàn)龍衛(wèi)球:《論個(gè)人信息主體基礎(chǔ)法益的設(shè)定與實(shí)現(xiàn)——基于“個(gè)人信息處理規(guī)則”反射利益的視角》,載《比較法研究》2023年第2期。其目的在于將“個(gè)人信息處理規(guī)則”作為人格或財(cái)產(chǎn)的前置保護(hù)機(jī)制,以此防范數(shù)據(jù)處理帶來(lái)的抽象人格侵害或財(cái)產(chǎn)侵害的危險(xiǎn)。(39)參見(jiàn)楊芳:《個(gè)人信息自決權(quán)理論及其檢討——兼論個(gè)人信息保護(hù)法之保護(hù)客體》,載《比較法研究》2015年第6期。具體到自動(dòng)化決策的場(chǎng)景,個(gè)人信息權(quán)益本就內(nèi)涵模糊、外延寬泛,自動(dòng)化決策作出前后往往難以界定是否侵害某一具體人格權(quán)的圓滿狀態(tài),遑論人格權(quán)請(qǐng)求權(quán)的行使?;谝陨峡剂?,結(jié)合《個(gè)人信息保護(hù)法》第24條第3款處于“個(gè)人信息處理規(guī)則”一章的體系位置,將該條性質(zhì)認(rèn)定為信息處理者的行為規(guī)范更為妥適。
從實(shí)踐的角度分析,以權(quán)利的維度構(gòu)建“算法解釋權(quán)”,也難謂信息主體有效的私法救濟(jì)手段。一方面,“算法解釋權(quán)”無(wú)法匹配我國(guó)的人格權(quán)司法救濟(jì)途徑,信息主體難以借助公權(quán)力實(shí)現(xiàn)算法解釋的目的。我國(guó)人格權(quán)的司法救濟(jì)途徑主要有民事責(zé)任和人格權(quán)禁令兩類。人格權(quán)受到侵害時(shí),所對(duì)應(yīng)的民事責(zé)任主要為停止侵害、排除妨礙、消除危險(xiǎn)、消除影響、恢復(fù)名譽(yù)和賠禮道歉等,其均是對(duì)絕對(duì)權(quán)的保護(hù)方法。(40)參見(jiàn)張新寶:《民法分則侵權(quán)責(zé)任編立法研究》,載《中國(guó)法學(xué)》2017年第3期。而如前所述,個(gè)人信息權(quán)益并非具體的人格權(quán),自動(dòng)化決策作出前后難謂侵害某一具體人格權(quán)的圓滿狀態(tài),遑論以民事責(zé)任的方式強(qiáng)制信息處理者進(jìn)行算法解釋。也正因?yàn)閭€(gè)人信息權(quán)益并非具體的人格權(quán),個(gè)人信息權(quán)益保護(hù)是否能適用人格權(quán)禁令程序亦存在爭(zhēng)議。(41)參見(jiàn)程嘯:《論我國(guó)民法典中的人格權(quán)禁令制度》,載《比較法研究》2021年第3期。實(shí)際上,即便肯定個(gè)人信息保護(hù)禁令的適用,其也體現(xiàn)為拒絕權(quán)、異議更正權(quán)、刪除權(quán)和遺忘權(quán)禁令等,(42)參見(jiàn)楊鋼:《個(gè)人信息權(quán)禁令的理論證成與構(gòu)造》,載《法律適用》2023年第3期。從我國(guó)《民法典》第997條的文義來(lái)看,難以推導(dǎo)出“算法解釋禁令”的存在。
另一方面,信息主體行使“算法解釋權(quán)”的請(qǐng)求,可能會(huì)面臨信息處理者的商業(yè)秘密保護(hù)抗辯,進(jìn)而使算法解釋的目的落空。近年來(lái),在我國(guó)為數(shù)不多的算法解釋糾紛案件中,法院往往傾向于商業(yè)秘密保護(hù)的立場(chǎng)。譬如,在全國(guó)首例“搜索服務(wù)”違約案中,原告以“我搜索的是國(guó)美冰箱,為什么出來(lái)的不全是國(guó)美牌冰箱”為由起訴淘寶公司,認(rèn)為其構(gòu)成違約并要求其解釋算法,但被告以商業(yè)秘密保護(hù)為由抗辯,最終法院駁回原告的訴訟請(qǐng)求;(43)參見(jiàn)浙江省杭州互聯(lián)網(wǎng)法院(2020)浙0192民初2295號(hào)民事判決書(shū)。在凌某某訴北京某播視界科技有限公司隱私權(quán)、個(gè)人信息權(quán)益網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案當(dāng)中,北京互聯(lián)網(wǎng)法院認(rèn)為,算法確實(shí)屬于商業(yè)秘密的范疇,告知和公開(kāi)算法不屬于對(duì)原告?zhèn)€人信息的必要保護(hù)措施。(44)參見(jiàn)北京市北京互聯(lián)網(wǎng)法院(2019)京0491民初6694號(hào)民事判決書(shū)。目前,算法已經(jīng)被我國(guó)司法實(shí)踐明確為商業(yè)秘密保護(hù)的范疇。2020年8月頒布的《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問(wèn)題的規(guī)定》在其第1條中明確將算法歸屬于技術(shù)信息,使其受知識(shí)產(chǎn)權(quán)法的保護(hù)。在“全國(guó)首例算法商業(yè)秘密保護(hù)案”智搜公司訴光速蝸牛侵犯商業(yè)秘密糾紛案中,深圳中院也明確指出,算法能夠?yàn)樵婀編?lái)商業(yè)收益和競(jìng)爭(zhēng)優(yōu)勢(shì),符合商業(yè)秘密的法定要件。(45)參見(jiàn)《廣東高院發(fā)布數(shù)字經(jīng)濟(jì)知識(shí)產(chǎn)權(quán)保護(hù)典型案例裁判要旨》,載《廣東省高級(jí)人民法院》微信公眾號(hào),2023年4月25日。雖然以上司法解釋條款和案例僅在反不正當(dāng)競(jìng)爭(zhēng)法領(lǐng)域起指引作用,但其在一定程度上也能夠起到強(qiáng)化信息處理者商業(yè)秘密抗辯的作用。
以權(quán)利構(gòu)建的路徑難以在我國(guó)民法中創(chuàng)設(shè)一項(xiàng)“算法解釋權(quán)”。如前所述,從《個(gè)人信息保護(hù)法》第24條第3款的體系位置來(lái)看,將其性質(zhì)認(rèn)定為信息處理者的行為規(guī)范更為合理。為了行文方便,此處將其稱為“行為規(guī)范說(shuō)”,這一解釋立場(chǎng)在比較法上存在依據(jù),也能夠自洽于我國(guó)民法理論。
1.“行為規(guī)范說(shuō)”在比較法上的正當(dāng)性
從比較法來(lái)看,采權(quán)利構(gòu)建路徑的“算法解釋權(quán)”初衷是為了對(duì)抗公共領(lǐng)域的自動(dòng)化決策,其僅在公法的語(yǔ)境下成立?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第22條的前身是歐盟《數(shù)據(jù)保護(hù)指令》第15條規(guī)定,該條在很大程度上受1978年法國(guó)《信息技術(shù)、數(shù)據(jù)文件和公民自由法》第2條的影響,后者旨在禁止司法和行政領(lǐng)域的自動(dòng)化決策。(46)Loi n° 78-17 du 6 janvier 1978 relative à l'informatique,aux fichiers et aux libertés.目前,法國(guó)《數(shù)據(jù)保護(hù)法》第30條第70—9款仍然保留了公民對(duì)司法、行政領(lǐng)域自動(dòng)化決策的算法解釋權(quán)。(47)LOI n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles (1).我國(guó)亦有學(xué)者認(rèn)為,對(duì)《個(gè)人信息保護(hù)法》第24條第3款的解釋?xiě)?yīng)考慮公私場(chǎng)景的不同,僅在公法領(lǐng)域應(yīng)賦予信息主體“算法解釋權(quán)”。(48)參見(jiàn)林洹民:《〈個(gè)人信息保護(hù)法〉中的算法解釋權(quán):兼顧公私場(chǎng)景的區(qū)分規(guī)范策略》,載《法治研究》2022年第5期。
在私法語(yǔ)境下,將我國(guó)《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,能夠在《通用數(shù)據(jù)保護(hù)條例》中找到依據(jù)。在歐盟的研究中,學(xué)者們對(duì)《通用數(shù)據(jù)保護(hù)條例》第22條的性質(zhì)存在較大爭(zhēng)議。“權(quán)利說(shuō)”認(rèn)為,《通用數(shù)據(jù)保護(hù)條例》第22條是數(shù)據(jù)主體可選擇行使的主觀權(quán)利,僅涉及第22條第2項(xiàng)規(guī)定的三種情形時(shí),數(shù)據(jù)主體的拒絕權(quán)方受限制。(49)Luca Tosoni,The Right to Object to Automated Individual Decisions:Resolving the Ambiguity of Article 22(1)of the General Data Protection Regulation,11 International Data Privacy Law,145,145-162(2021).“禁令說(shuō)”則認(rèn)為,《通用數(shù)據(jù)保護(hù)條例》第22條為數(shù)據(jù)控制者的行為規(guī)范,其系針對(duì)自動(dòng)化決策的一般性禁止,僅涉及第22條第2項(xiàng)的三種情形時(shí),數(shù)據(jù)控制者可例外使用自動(dòng)化決策。(50)Florent Thouvenin,Alfred Früh &Simon Hensele,Article 22 GDPR on Automated Individual Decision-Making:Prohibition or Data Subject Right?,8 EDPL,183,188-192(2022).在歐盟理論界,“禁令說(shuō)”為多數(shù)說(shuō)。并且,梳理歐盟《通用數(shù)據(jù)保護(hù)條例》的官方解釋和裁判觀點(diǎn),“禁令說(shuō)”也更加受到歐盟司法實(shí)踐的肯定。歐盟第29條數(shù)據(jù)保護(hù)小組基于《通用數(shù)據(jù)保護(hù)條例》序言第71條、正文第12—22條的法教義學(xué)解釋,認(rèn)為第22條本質(zhì)上是對(duì)自動(dòng)化決策的一般性禁止,指出“禁令說(shuō)”更符合《通用數(shù)據(jù)保護(hù)條例》強(qiáng)化數(shù)據(jù)主體數(shù)據(jù)控制權(quán)的基本立場(chǎng)。(51)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe purposes of Regulation 2016/679 [R],p.23-24.歐盟及其成員國(guó)近年來(lái)一系列裁判案例亦肯定“禁令說(shuō)”的立場(chǎng)。2020年2月荷蘭海牙地區(qū)法院在其判決中指出:“《通用數(shù)據(jù)保護(hù)條例》第22條普遍禁止完全自動(dòng)化的個(gè)人決策”,肯定將該條視為禁令的觀點(diǎn)。(52)ECLI:NL:RBDHA:2020:865.在2023年1月的OQ訴德國(guó)黑森州案中,歐洲法院也明確將第22條的性質(zhì)認(rèn)定為禁令。(53)OQ v Land Hesse (Case C-634/21)(2022/C 37/19).該案被稱為歐盟關(guān)于自動(dòng)化決策的首個(gè)里程碑判例,有望結(jié)束第22條的性質(zhì)之爭(zhēng)。
2.“行為規(guī)范說(shuō)”在我國(guó)民法上的正當(dāng)性
首先,將《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,能夠填補(bǔ)信息處理者事前算法解釋義務(wù)闕如的法律漏洞。從本文第二部分對(duì)《通用數(shù)據(jù)保護(hù)條例》算法解釋義務(wù)體系的梳理可知,第13條、第14條所規(guī)定的算法事前解釋義務(wù)是“告知—同意”原則的重要方面。若無(wú)該算法事前解釋義務(wù),數(shù)據(jù)主體將不知道自動(dòng)化決策的存在,亦無(wú)從行使第22條賦予的自動(dòng)化決策拒絕權(quán)。從我國(guó)對(duì)個(gè)人信息處理告知的具體規(guī)定來(lái)看,其并不能涵蓋算法解釋的內(nèi)容。我國(guó)《民法典》第1035條第1款第3項(xiàng)規(guī)定,處理個(gè)人信息應(yīng)“明示處理信息的目的、方式和范圍”;我國(guó)《個(gè)人信息保護(hù)法》第17條第1款第3項(xiàng)亦規(guī)定,個(gè)人信息處理者應(yīng)告知“個(gè)人信息的處理目的、處理方式”。而該“處理方式”一般指?jìng)€(gè)人信息的收集、儲(chǔ)存、使用、加工、傳輸、提供、公開(kāi)和刪除等方面,并不包含自動(dòng)化決策的使用。(54)參見(jiàn)江必新、李占國(guó)主編:《中華人民共和國(guó)個(gè)人信息保護(hù)法條文解讀與法律適用》,中國(guó)法制出版社2021年版,第61-65頁(yè)。自動(dòng)化決策屬于個(gè)人信息“處理”的一環(huán),基于“告知—同意”原則的要求,其本應(yīng)屬于信息處理者告知義務(wù)的內(nèi)容。(55)參見(jiàn)萬(wàn)方:《算法告知義務(wù)在知情權(quán)體系中的適用》,載《政法論壇》2021年第6期。這無(wú)疑屬于德國(guó)法學(xué)家拉倫茨所言的“隱藏型漏洞”——法律雖有規(guī)定但并未對(duì)案件的特別情況予以考慮。(56)參見(jiàn)〔德〕卡爾·拉倫茨:《法學(xué)方法論》,黃家鎮(zhèn)譯,商務(wù)印書(shū)館2020年版,第473-474頁(yè)。該漏洞即便在因締約需求而使用自動(dòng)化決策的情況下,也難以通過(guò)先合同義務(wù)進(jìn)行彌補(bǔ)。我國(guó)《民法典》合同編并沒(méi)有課以締約人一般性的先合同告知義務(wù),僅第500條針對(duì)“與訂立合同有關(guān)的重要事實(shí)”作出特別規(guī)定。要判斷先合同告知義務(wù)的有無(wú),須借助法律具體規(guī)定、交易習(xí)慣和利益衡量等進(jìn)行判斷。(57)參見(jiàn)韓世遠(yuǎn):《合同法總論》(第四版),法律出版社2018年版,第175-176頁(yè)。算法解釋是否能夠納入先合同告知義務(wù)的范疇,顯然并不明確。在此情況下,唯有將《個(gè)人信息保護(hù)法》第24條第3款作為第17條告知義務(wù)的特別規(guī)定,課以信息處理者事前的算法告知義務(wù),方能填補(bǔ)該法律漏洞。
其次,將《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,可以在體系上構(gòu)建出“事前—事后”維度的算法解釋規(guī)則體系,并在一定程度上消解信息處理者的商業(yè)秘密保護(hù)抗辯。在事前算法解釋存在的情況下,若賦予信息主體事后算法解釋的權(quán)利,便可形成針對(duì)自動(dòng)化決策的“全周期聯(lián)動(dòng)行權(quán)機(jī)制”,提升對(duì)信息主體權(quán)益的保護(hù)程度。(58)參見(jiàn)趙宏:《公共決策適用算法技術(shù)的規(guī)范分析與實(shí)體邊界》,載《比較法研究》2023年第2期?!靶袨橐?guī)范說(shuō)”恰好能夠結(jié)合民法上的“絕對(duì)義務(wù)”理論,在我國(guó)《個(gè)人信息保護(hù)法》上構(gòu)建出“事前—事后”維度的算法解釋規(guī)則體系。有學(xué)者指出,從民事權(quán)利基礎(chǔ)理論的角度觀察,《個(gè)人信息保護(hù)法》“個(gè)人信息處理規(guī)則”一章的絕大多數(shù)規(guī)定屬于“絕對(duì)義務(wù)規(guī)范”。其本質(zhì)上是一種為了保護(hù)尚未定型的新興法益,而以行為規(guī)制為中心的立法技術(shù)。(59)參見(jiàn)李春暉:《絕對(duì)權(quán)、絕對(duì)義務(wù)及其相對(duì)化——民事權(quán)利與法益保護(hù)的單一框架》,載《中外法學(xué)》2023年第3期?!秱€(gè)人信息保護(hù)法》第24條第3款即可視為信息處理者承擔(dān)事前算法解釋的絕對(duì)義務(wù)。絕對(duì)義務(wù)被違反后、損害發(fā)生前,有被侵權(quán)之虞的權(quán)利人便享有絕對(duì)義務(wù)請(qǐng)求權(quán)進(jìn)行救濟(jì)。其與絕對(duì)權(quán)請(qǐng)求權(quán)類似,但以行為具有違法性為判斷標(biāo)準(zhǔn)。(60)參見(jiàn)楊明:《知識(shí)產(chǎn)權(quán)請(qǐng)求權(quán)研究——兼以反不正當(dāng)競(jìng)爭(zhēng)為考察對(duì)象》,北京大學(xué)出版社2005年版,第153頁(yè)。我國(guó)《個(gè)人信息保護(hù)法》第44條(知情權(quán)和決定權(quán))、第48條(釋明權(quán))和第50條(個(gè)人行使權(quán)利的保障機(jī)制)可視為算法解釋的絕對(duì)義務(wù)請(qǐng)求權(quán)。當(dāng)信息處理者違反事前算法解釋的絕對(duì)義務(wù)時(shí),信息主體便可依據(jù)以上條款請(qǐng)求信息處理者進(jìn)行事后算法解釋,請(qǐng)求被拒絕的情況下則可向人民法院提起訴訟,由此形成“事前—事后”的算法解釋規(guī)則體系。如此一來(lái),算法解釋與商業(yè)秘密保護(hù)之間的關(guān)系,便不是“算法解釋權(quán)—商業(yè)秘密保護(hù)”兩項(xiàng)權(quán)益衡平擇一的問(wèn)題,而是“算法解釋程度—商業(yè)秘密保護(hù)”的程度把控問(wèn)題,在一定程度上也消解了商業(yè)秘密保護(hù)對(duì)算法解釋的行權(quán)阻礙。
再次,“行為規(guī)范說(shuō)”更有利于自動(dòng)化決策侵權(quán)案件中信息主體權(quán)利的保護(hù)。由于個(gè)人信息權(quán)益內(nèi)涵模糊、人工智能算法自帶“黑箱效應(yīng)”、算法侵權(quán)具有隱蔽性等原因,自動(dòng)化決策侵權(quán)案件發(fā)生時(shí),往往難以界定何種具體的民事權(quán)利受到侵害,也難以認(rèn)定信息處理者的主觀過(guò)錯(cuò),侵權(quán)救濟(jì)難以落實(shí)。(61)參見(jiàn)李文超、武一帆:《算法侵害行為的事前規(guī)制與侵權(quán)救濟(jì)研究》,載《法律適用》2023年第3期。若將《個(gè)人信息保護(hù)法》第24條第3款解釋為信息處理者的行為規(guī)范,該問(wèn)題能夠得到解決。在“行為規(guī)范說(shuō)”下,《個(gè)人信息保護(hù)法》第24條第3款實(shí)際上是“以保護(hù)他人為目的的法律”,違反該條即具備了違法性要件,進(jìn)而輔助判斷侵權(quán)責(zé)任的構(gòu)成。一方面,違法性要件可作為信息處理者過(guò)錯(cuò)的認(rèn)定標(biāo)準(zhǔn)之一。我國(guó)侵權(quán)法中,違法性應(yīng)否作為侵權(quán)責(zé)任的獨(dú)立構(gòu)成要件始終存在爭(zhēng)議。但隨著過(guò)失認(rèn)定應(yīng)采客觀化標(biāo)準(zhǔn)為我國(guó)理論和實(shí)務(wù)界普遍接受,以及受德國(guó)民法中過(guò)錯(cuò)與違法性應(yīng)否區(qū)分之爭(zhēng)議的影響,“過(guò)錯(cuò)吸收違法性”已經(jīng)成為有力學(xué)說(shuō)。(62)參見(jiàn)王利明:《我國(guó)〈侵權(quán)責(zé)任法〉采納了違法性要件嗎?》,載《中外法學(xué)》2012年第1期。信息處理者違反事前算法解釋的義務(wù),便可認(rèn)為存在侵權(quán)法意義上的過(guò)錯(cuò),解決了自動(dòng)化決策侵權(quán)案件中過(guò)錯(cuò)認(rèn)定模糊的問(wèn)題。另一方面,在我國(guó)《個(gè)人信息保護(hù)法》以行為規(guī)范為核心的立法模式下,違法性要件能夠輔助界定信息處理者的行為是否侵入個(gè)人信息權(quán)益的侵權(quán)責(zé)任保護(hù)范圍,在個(gè)人信息權(quán)益侵害要件認(rèn)定上也具有工具性價(jià)值。(63)參見(jiàn)蔡立東、展海晴:《論個(gè)人信息權(quán)益保護(hù)范圍的厘定——以行為違法判斷為核心》,載《吉林大學(xué)社會(huì)科學(xué)學(xué)報(bào)》2023年第2期。
最后,將《個(gè)人信息保護(hù)法》第24條第3款視為行為規(guī)范,還可以防止信息處理者通過(guò)格式條款排除其算法解釋義務(wù)的情形。我國(guó)司法實(shí)踐中即出現(xiàn)過(guò)類似的案件。在陳某訴杭州“阿里媽媽”網(wǎng)絡(luò)服務(wù)合同糾紛案中,杭州“阿里媽媽”公司就通過(guò)《阿里媽媽推廣者規(guī)范》約定:“阿里媽媽過(guò)濾系統(tǒng)涉及阿里媽媽核心商業(yè)秘密,阿里媽媽無(wú)需向推廣者披露具體異常數(shù)據(jù)。”(64)參見(jiàn)浙江省杭州鐵路運(yùn)輸法院(2017)浙8601民初3306號(hào)民事判決書(shū)。將《個(gè)人信息保護(hù)法》第24條第3款解釋為行為規(guī)范,意味著其屬于我國(guó)《民法典》第153條第1款中的“法律、行政法規(guī)的強(qiáng)制性規(guī)定”。信息處理者通過(guò)格式條款排除自身算法說(shuō)明義務(wù)時(shí),該條款會(huì)因“違反法律、行政法規(guī)的強(qiáng)制性規(guī)定”而無(wú)效。
此外,“行為規(guī)范說(shuō)”的立場(chǎng),還可以在我國(guó)《算法推薦管理規(guī)定》的立法過(guò)程得到印證。2021年8月頒布的《算法推薦管理規(guī)定》(征求意見(jiàn)稿)曾于第15條第3款規(guī)定,“用戶……有權(quán)要求算法推薦服務(wù)提供者予以說(shuō)明……”,對(duì)算法解釋采賦權(quán)立法模式。但在2022年12月頒布的正式版本中,其第17條第3款將上述條款修改為“算法推薦服務(wù)提供者……應(yīng)當(dāng)依法予以說(shuō)明……”,將算法解釋修正為信息處理者的義務(wù)。這說(shuō)明,該規(guī)定的起草者也認(rèn)為,在私法語(yǔ)境中應(yīng)通過(guò)行為規(guī)范的方式課以信息處理者算法解釋的義務(wù)。
明確了《個(gè)人信息保護(hù)法》第24條第3款的行為規(guī)范性質(zhì)后,尚須明確其構(gòu)成要件和算法解釋的程度,方能在我國(guó)民法中真正落實(shí)。
無(wú)論是歐盟的《通用數(shù)據(jù)保護(hù)條例》,還是我國(guó)的《個(gè)人信息保護(hù)法》,算法解釋均須基于一定的前提觸發(fā)?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第22條第1款規(guī)定,當(dāng)決定是“僅基于自動(dòng)化決策”作出且對(duì)個(gè)人產(chǎn)生“法律效力或其他類似重大影響”時(shí),數(shù)據(jù)主體方能拒絕。我國(guó)《個(gè)人信息保護(hù)法》第24條第3款的表述類似。但該兩項(xiàng)要件該如何認(rèn)定,研究中一直存在爭(zhēng)議。
1.“自動(dòng)化決策”的界定
“自動(dòng)化決策”這一法律表述,已非客觀技術(shù)上的記敘性要件,而是須加入價(jià)值評(píng)判的規(guī)范性要件。明確其內(nèi)涵和外延,需要從以下三個(gè)方面進(jìn)行界定。
首先,需要厘清自動(dòng)化決策與數(shù)據(jù)畫(huà)像(profiling)之間的關(guān)系。根據(jù)《通用數(shù)據(jù)保護(hù)條例》第4條第4款的規(guī)定,所謂數(shù)據(jù)畫(huà)像是為了評(píng)價(jià)與自然人相關(guān)的特定層面,尤其是自然人的業(yè)務(wù)能力、經(jīng)濟(jì)狀況、個(gè)人喜好、健康、愛(ài)好、可行度、方位等使用的自動(dòng)化個(gè)人信息處理?!锻ㄓ脭?shù)據(jù)保護(hù)條例》第22條第1款“自動(dòng)化決策,包括數(shù)據(jù)畫(huà)像”的立法表述,使得自動(dòng)化決策與數(shù)據(jù)畫(huà)像之間的關(guān)系存在爭(zhēng)議。對(duì)此存在兩種不同的文義解釋:第一種觀點(diǎn)認(rèn)為,自動(dòng)化決策與數(shù)據(jù)畫(huà)像為并列關(guān)系,二者均為自動(dòng)化決策拒絕權(quán)的規(guī)制對(duì)象;第二種觀點(diǎn)認(rèn)為,數(shù)據(jù)畫(huà)像應(yīng)構(gòu)成自動(dòng)化決策的基礎(chǔ),即只有基于數(shù)據(jù)畫(huà)像作出的自動(dòng)化決策,數(shù)據(jù)主體方能拒絕。單純的自動(dòng)化決策或單純的數(shù)據(jù)畫(huà)像,數(shù)據(jù)主體都無(wú)權(quán)拒絕。(65)Brent Mittelstadt,Chris Russell &Sandra Wachter,Explaining Explanations in AI,原文鏈接:https://dl.acm.org/doi/abs/10.1145/3287560.3287574,2023年5月30日訪問(wèn)。前者的適用范圍顯然較后者要大,而后者對(duì)自動(dòng)化決策的界定范圍與歐盟《數(shù)據(jù)保護(hù)指令》第15條保持一致。有學(xué)者認(rèn)為,《通用數(shù)據(jù)保護(hù)條例》的規(guī)制重點(diǎn)在于數(shù)據(jù)畫(huà)像,并且出于延續(xù)《數(shù)據(jù)保護(hù)指令》解釋一致性的考量,對(duì)此應(yīng)采第二種解釋。(66)Isak Mendoza &Lee A. Bygrave,The Right Not to Be Subject to Automated Decisions Based on Profiling,Springer International Publishing,2017,p.67.但歐盟第29條數(shù)據(jù)保護(hù)小組的官方解釋支持第一種解釋,(67)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe purposes of Regulation 2016/679 [R],p.20-21.歐盟多數(shù)學(xué)者也贊同這一立場(chǎng)。(68)Lee A. Bygrave,Minding the Machine v2.0:The EU General Data Protection Regulation and Automated Decision Making,Oxford University Press,2019,p.5.反觀我國(guó)《個(gè)人信息保護(hù)法》第73條第2款對(duì)自動(dòng)化決策的界定,其并沒(méi)有單獨(dú)確立數(shù)據(jù)畫(huà)像的概念,而是將其作為自動(dòng)化決策的一部分。并且,我國(guó)《個(gè)人信息保護(hù)法》第24條第1款和第2款也強(qiáng)調(diào)“利用個(gè)人信息進(jìn)行自動(dòng)化決策”、“針對(duì)個(gè)人特征”,似乎也是將數(shù)據(jù)畫(huà)像作為自動(dòng)化決策的基礎(chǔ)。但在實(shí)際應(yīng)用中,數(shù)據(jù)畫(huà)像可通過(guò)完全自動(dòng)化或非完全自動(dòng)化處理方式得出,自動(dòng)化決策也并非均涉及數(shù)據(jù)畫(huà)像,二者呈現(xiàn)為“交集”的關(guān)系。譬如在算法信用評(píng)分的場(chǎng)景下,信用畫(huà)像形成后的自動(dòng)推送信息、自動(dòng)識(shí)別紅黑名單、自動(dòng)提示獎(jiǎng)懲依據(jù)、自動(dòng)實(shí)施限制處理、自動(dòng)反饋處理結(jié)果等自動(dòng)化決策便不具有數(shù)據(jù)畫(huà)像特質(zhì),但其決定作出時(shí)確有算法解釋的必要。(69)參見(jiàn)張欣:《免受自動(dòng)化決策約束權(quán)的制度邏輯與本土構(gòu)建》,載《華東政法大學(xué)學(xué)報(bào)》2021年第5期。因此,宜將我國(guó)《個(gè)人信息保護(hù)法》中的“自動(dòng)化決策”進(jìn)行擴(kuò)張解釋,使其與數(shù)據(jù)畫(huà)像呈現(xiàn)并列關(guān)系。
其次,需要厘清自動(dòng)化決策中人類的干預(yù)程度。歐盟《通用數(shù)據(jù)保護(hù)條例》第22條第1款明確要求具體的決定必須是“僅基于自動(dòng)化處理而形成的”,我國(guó)《個(gè)人信息保護(hù)法》第24條第3款的表述與此類似。這是否意味著,我國(guó)《個(gè)人信息保護(hù)法》第24條第3款規(guī)定僅能適用于純粹自動(dòng)化決策的情形?歐盟第29條數(shù)據(jù)保護(hù)小組采嚴(yán)格的文義解釋立場(chǎng),認(rèn)為只要自動(dòng)化決策的過(guò)程中存在人工干預(yù),便不受《通用數(shù)據(jù)保護(hù)條例》第22條的規(guī)制。(70)Article 29 Data Protect Working Party,Guidelines on Automated individual decision-making and Profiling forthe purposes of Regulation 2016/679 [R],p.25-26.但這樣的觀點(diǎn)嚴(yán)重限制了該條的效力范圍,因?yàn)樽裱@樣的邏輯,只需要在自動(dòng)化決策流程中設(shè)置一個(gè)形式上的人工按鈕,便可輕松規(guī)避第22條的適用。(71)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,251-252(2017).實(shí)際上,在算法賦能運(yùn)用中,純粹的全自動(dòng)化決策系統(tǒng)只是少數(shù),多數(shù)決策是由“人工+輔助算法”的方式作出的。在部分情況下,輔助算法也可能達(dá)到完全自動(dòng)化決策系統(tǒng)的效果。一般而言,輔助型算法包括決策支持型算法、分流型算法和自動(dòng)總結(jié)型算法等類型。(72)Reuben Binns &Michael Veale,Is That Your Final Decision?Multi-stage Profiling,Selective Effects,and Article 22 of the GDPR,11 International Data Privacy Law,319,321-323(2021).決策支持型算法起到向人類決策者提供信息、輔助決策的作用。從表面上看,其輸出結(jié)果對(duì)人類決策者并無(wú)約束力,僅僅是一種可供自由選擇的建議。但當(dāng)人類決策者對(duì)某類結(jié)果形成思維定式,進(jìn)而失去對(duì)算法建議的批判意識(shí)時(shí),其實(shí)際上已經(jīng)化身為自動(dòng)化決策的一環(huán)。一項(xiàng)針對(duì)美國(guó)COMPAS系統(tǒng)的實(shí)證研究即指出,一些法官在面對(duì)黑人被告時(shí)往往全盤(pán)接受COMPAS系統(tǒng)的評(píng)分,而在面對(duì)白人被告時(shí)則傾向于使用自己的判斷。(73)Bo Cowgill,The Impact of Algorithms on Judicial Discretion:Evidence from Regression Discontinuities,原文鏈接:https://www.semanticscholar.org/paper/The-Impact-of-Algorithms-on-Judicial-Discretion-%3A-Cowgill/cdd4484708af448831eeb3d76a7c2d1e5b0a4ff2,2023年5月30日訪問(wèn)。對(duì)于這部分主體來(lái)說(shuō),經(jīng)由人類決策者作出的決定已經(jīng)與“僅基于自動(dòng)化處理而形成的”無(wú)異。分流型算法則會(huì)按照某種標(biāo)準(zhǔn)將被決策對(duì)象進(jìn)行分組,再將不同的分組轉(zhuǎn)交給人類或人工智能系統(tǒng)進(jìn)行處理。這一過(guò)程雖有人類參與,但自動(dòng)化決策已經(jīng)在無(wú)形中削減了人類的決策權(quán),對(duì)最后的結(jié)果產(chǎn)生了實(shí)質(zhì)的影響。譬如微博、微信等媒體平臺(tái)會(huì)依靠關(guān)鍵詞識(shí)別技術(shù)遴選需要進(jìn)行人工審核的內(nèi)容,這就導(dǎo)致部分并無(wú)違規(guī)的內(nèi)容因關(guān)鍵詞重合而接受審核,被刪除的風(fēng)險(xiǎn)增加。自動(dòng)總結(jié)型算法則會(huì)整理合并多數(shù)人的評(píng)價(jià)或決策,經(jīng)過(guò)某種加權(quán)計(jì)算后生成整體的分?jǐn)?shù)或評(píng)估,譬如Uber、滴滴的司機(jī)打分系統(tǒng)及淘寶、京東等電商上的店鋪評(píng)分系統(tǒng)。這些最終的分?jǐn)?shù)或評(píng)估往往會(huì)用于限制、暫停、刪除平臺(tái)上的用戶,或?qū)灰桩a(chǎn)生負(fù)面影響。當(dāng)其數(shù)據(jù)抓取有誤或加權(quán)計(jì)算錯(cuò)誤時(shí),亦會(huì)造成類似完全自動(dòng)化決策的侵害。因此,我國(guó)《個(gè)人信息保護(hù)法》第24條第3款中的“自動(dòng)化決策”,不僅包括純粹的自動(dòng)化決策系統(tǒng),還須包含支持型算法、分流型算法和自動(dòng)總結(jié)型算法等輔助型自動(dòng)化決策系統(tǒng)。
最后,還需要明晰“決定”的具體內(nèi)涵。因?yàn)樵趯?shí)踐中,一個(gè)自動(dòng)化決策的作出很可能是系統(tǒng)內(nèi)部一系列中間決定累積的結(jié)果。曾有歐盟學(xué)者指出,“決定”包含了如計(jì)劃、建議、提議、選項(xiàng)映射等情況,(74)Lee A.Bygrave,Automated Profiling:Minding the machine:Article 15 of the EC Data Protection Directive and Automated Profiling,17 Computer Law &Security Review,17,17-24(2001).但即便如此,對(duì)“決定”的判斷依舊模糊。一般而言,自動(dòng)化決策系統(tǒng)中具有重要意義的決定可能發(fā)生在兩個(gè)階段,第一是數(shù)據(jù)主體個(gè)人畫(huà)像生成的時(shí)刻,第二是終局性結(jié)果產(chǎn)生的時(shí)刻。(75)Reuben Binns &Michael Veale,Is That Your Final Decision?Multi-stage Profiling,Selective Effects,and Article 22 of the GDPR,11 International Data Privacy Law,319,324-325(2021).譬如,銀行在制定客戶服務(wù)政策時(shí),往往會(huì)根據(jù)房貸、車(chē)貸、違約記錄等情況對(duì)客戶進(jìn)行信用評(píng)分,進(jìn)而依據(jù)分?jǐn)?shù)的不同賦予客戶不同的信貸權(quán)利。(76)參見(jiàn)張博文、楊斯堯:《算法型評(píng)分工具:優(yōu)勢(shì)、風(fēng)險(xiǎn)與法律規(guī)制》,載《西南金融》2022年第9期。在這一過(guò)程中,雖然信用評(píng)分形成時(shí)終局性的決定還未作出,但該分?jǐn)?shù)實(shí)際上已經(jīng)決定了最終的結(jié)果。因此,即便某一決定僅處于中間環(huán)節(jié),若其已經(jīng)對(duì)最后的結(jié)果產(chǎn)生了決定性的影響,也應(yīng)該認(rèn)為構(gòu)成《個(gè)人信息保護(hù)法》第24條第3款中的“決定”。
2.“對(duì)個(gè)人權(quán)益有重大影響”的界定
《個(gè)人信息保護(hù)法》第24條第3款的另一適用前提是自動(dòng)化決策“對(duì)個(gè)人權(quán)益有重大影響”,此為典型的不確定性概念,需要借助其他法律規(guī)范或價(jià)值判斷進(jìn)行補(bǔ)充。有兩個(gè)問(wèn)題亟待回應(yīng),一是如何理解“重大影響”的內(nèi)容,二是該要件應(yīng)采主觀標(biāo)準(zhǔn)還是客觀標(biāo)準(zhǔn)進(jìn)行判斷。
同樣的問(wèn)題亦存在于歐盟《通用數(shù)據(jù)保護(hù)條例》第22條第1款的解釋中。《通用數(shù)據(jù)保護(hù)條例》序言第71條以列舉的方式,規(guī)定“法律效力或其他類似重大影響”應(yīng)存在于數(shù)據(jù)主體的工作表現(xiàn)、經(jīng)濟(jì)狀況、健康、個(gè)人偏好或興趣、信用度、地點(diǎn)或活動(dòng)等領(lǐng)域,但并沒(méi)有對(duì)闡明該不確定性概念提供更多指引。學(xué)者拜格雷夫(Bygrave)曾指出,產(chǎn)生“法律效力”的影響,系指自動(dòng)化決策影響了數(shù)據(jù)主體的法律地位,其包含對(duì)數(shù)據(jù)主體私法權(quán)利和公法權(quán)利的任何不利;而“重大影響”則不僅指客觀物質(zhì)上的損害,也包含數(shù)據(jù)主體的主觀感受。(77)Lee A.Bygrave,Minding the Machine:Art 15 of the EC Data Protection Directive and Automated Profiling,原文鏈接:http://classic.austlii.edu.au/au/journals/PrivLawPRpr/2000/40.html,2023年5月30日訪問(wèn)。也有學(xué)者認(rèn)為,對(duì)于“重大影響”應(yīng)采寬泛的客觀判斷,通過(guò)自動(dòng)化決策對(duì)數(shù)據(jù)主體的任何損害性影響和普遍操縱都應(yīng)包含在內(nèi)。(78)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,252-254(2017).還有學(xué)者采主觀標(biāo)準(zhǔn),認(rèn)為“重大影響”包括對(duì)個(gè)人的認(rèn)知自由權(quán)、精神隱私權(quán)、精神完整權(quán)和心理連續(xù)性權(quán)利的影響。(79)Marcello Ienca &Roberto Andorno,Towards New Human Rights in the Age of Neuroscience and Neurotechnology,13 Life Sciences,Society and Policy,5,8-9(2017).而歐盟第29條數(shù)據(jù)保護(hù)小組則采列舉的方式對(duì)“重大影響”進(jìn)行界定,其指出,諸如嚴(yán)重影響個(gè)人行為或選擇、對(duì)數(shù)據(jù)主體產(chǎn)生長(zhǎng)期或永久影響、導(dǎo)致個(gè)人歧視、影響信貸資格、影響醫(yī)療機(jī)會(huì)、剝奪就業(yè)和教育機(jī)會(huì)等情況可認(rèn)為是“重大影響”??梢哉f(shuō),該問(wèn)題在域外的研究中還并未達(dá)成一致觀點(diǎn)。
反觀我國(guó)《個(gè)人信息保護(hù)法》第24條第3款中的“重大影響”,其還是可以結(jié)合算法侵害的典型場(chǎng)景進(jìn)行類型化判斷。算法侵害的類型,主要有聲譽(yù)侵害、歧視、行為影響、算法操控等。(80)參見(jiàn)王瑩:《算法侵害類型化研究與法律應(yīng)對(duì)——以〈個(gè)人信息保護(hù)法〉為基點(diǎn)的算法規(guī)制擴(kuò)展構(gòu)想》,載《法制與社會(huì)發(fā)展》2021年第6期。而置于私法語(yǔ)境下考察,其“私法效力或其他類似重大影響”主要體現(xiàn)為以下類型:(1)影響數(shù)據(jù)主體的意思表示自由。在高速交易、在線定價(jià)和智能合約等算法合約的場(chǎng)景中,算法會(huì)深入到合同磋商的過(guò)程,參與制定合同的具體條款。(81)Lauren Henry Scholz,Algorithmic Contracts,20 Stanford Technology Law Review,128,134-135(2017).此時(shí),自動(dòng)化決策便可能影響到數(shù)據(jù)主體意思表示的自由。(2)影響數(shù)據(jù)主體的締約資格。當(dāng)互聯(lián)網(wǎng)或金融平臺(tái)借助自動(dòng)化決策監(jiān)管,限制或取消數(shù)據(jù)主體的交易資格時(shí),如淘寶封禁買(mǎi)家賬號(hào),便會(huì)對(duì)數(shù)據(jù)主體的私法權(quán)益產(chǎn)生影響。(3)侵害數(shù)據(jù)主體的財(cái)產(chǎn)權(quán)益。典型的如互聯(lián)網(wǎng)平臺(tái)封禁游戲賬號(hào)、直播賬號(hào)等情形,游戲賬號(hào)、直播賬號(hào)中所蘊(yùn)涵的財(cái)產(chǎn)權(quán)益也會(huì)直接受到影響。(4)侵害數(shù)據(jù)主體的人格權(quán)益。金融信貸公司借助智能算法進(jìn)行征信評(píng)分時(shí),有可能對(duì)數(shù)據(jù)主體的信用評(píng)價(jià)產(chǎn)生負(fù)面影響,進(jìn)而構(gòu)成對(duì)其具體人格權(quán)的侵害。(82)參見(jiàn)王苑:《信用大數(shù)據(jù)背景下信用的私法保護(hù)》,載《中國(guó)法律評(píng)論》2023年第1期。(5)造成數(shù)據(jù)主體的純粹經(jīng)濟(jì)損失。譬如,電商平臺(tái)的流量推薦機(jī)制、店鋪評(píng)分機(jī)制有可能會(huì)給具體店家的交易帶來(lái)負(fù)面影響,此時(shí)難謂侵害數(shù)據(jù)主體的具體民事權(quán)利,但卻有可能造成純粹經(jīng)濟(jì)損失。此外,我國(guó)《信息安全技術(shù)個(gè)人信息安全影響評(píng)估指南》(GB/T 39335—2020)第5.5.1條還列舉了限制個(gè)人自主決定權(quán)、引發(fā)差別待遇、名譽(yù)受損或精神壓力、個(gè)人財(cái)產(chǎn)受損等算法對(duì)個(gè)人權(quán)益造成損害的類型,可供補(bǔ)充解釋參考。
在判斷標(biāo)準(zhǔn)上,我國(guó)《個(gè)人信息保護(hù)法》第24條第3款中的“重大影響”應(yīng)采主客觀相結(jié)合的綜合標(biāo)準(zhǔn)。《個(gè)人信息保護(hù)法(草案)》一審稿曾采主觀標(biāo)準(zhǔn),其規(guī)定,“個(gè)人認(rèn)為自動(dòng)化決策對(duì)其權(quán)益造成重大影響的,有權(quán)要求個(gè)人信息處理者予以說(shuō)明”。而在二審稿中,該條被修改為“通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定”的表述,采客觀陳述的立場(chǎng)。這一表述最終被保留到正式的法律文本中。但即便我國(guó)的立法體現(xiàn)為從主觀標(biāo)準(zhǔn)到客觀標(biāo)準(zhǔn)的轉(zhuǎn)變,鑒于自動(dòng)化決策運(yùn)用場(chǎng)景的復(fù)雜,且數(shù)據(jù)主體的主觀感受亦不容忽略,采主客觀相結(jié)合的判斷標(biāo)準(zhǔn)更為妥適。(83)參見(jiàn)王苑:《完全自動(dòng)化決策拒絕權(quán)之正當(dāng)性及其實(shí)現(xiàn)路徑——以〈個(gè)人信息保護(hù)法〉第24條第3款為中心》,載《法學(xué)家》2022年第5期。
算法解釋通常會(huì)面臨可理解性和商業(yè)秘密保護(hù)的阻礙,因此,如何把握算法解釋的程度,是落實(shí)算法解釋權(quán)的核心問(wèn)題之一。比較法上,歐盟《通用數(shù)據(jù)保護(hù)條例》第13-14條、第15條僅規(guī)定數(shù)據(jù)控制者應(yīng)向數(shù)據(jù)主體披露“自動(dòng)化決策的存在”“所涉邏輯的重要信息”“該處理對(duì)數(shù)據(jù)主體的重要性和設(shè)想的后果”,但以上立法表述在適用上依然模糊。法國(guó)《數(shù)字共和國(guó)法》第4條規(guī)定,使用自動(dòng)化決策的公權(quán)力機(jī)關(guān)必須向數(shù)據(jù)主體揭示系統(tǒng)的“主要特征”,(84)LOI n°2016-1321 du 7 octobre 2016 pour une République numérique (1).而2017年3月頒布的《公眾與行政部門(mén)關(guān)系守則》第R311-3-1-2條則對(duì)“主要特征”進(jìn)一步明確,指出其主要指算法處理對(duì)決策的貢獻(xiàn)程度和方式、處理的數(shù)據(jù)和來(lái)源、適用于數(shù)據(jù)主體的處理參數(shù)和權(quán)重、處理所執(zhí)行的操作等方面。(85)Code des relations entre le public et l'administration.法國(guó)《數(shù)字共和國(guó)法》和《公眾與行政部門(mén)關(guān)系守則》的上述規(guī)定可為算法解釋的內(nèi)容提供更為清晰的指引。
學(xué)說(shuō)上,較有影響力的是歐盟學(xué)者瓦赫特的理論,其區(qū)分“事前—事后”的維度分別界定算法解釋的內(nèi)容。根據(jù)他的觀點(diǎn),事前解釋系指對(duì)系統(tǒng)功能的一般性解釋,即對(duì)自動(dòng)化決策系統(tǒng)的邏輯、重要性預(yù)期后果和一般功能,例如系統(tǒng)的需求規(guī)范、決策樹(shù)、預(yù)定義模型、標(biāo)準(zhǔn)和分類結(jié)構(gòu)進(jìn)行闡釋;事后解釋系指對(duì)具體決策的解釋,即對(duì)具體自動(dòng)化決策的基本原理、原因和個(gè)別情況,如特征權(quán)重、機(jī)器定義的特定案例決策規(guī)則、參考或配置文件組的信息進(jìn)行解釋。(86)Sandra Wachter,Brent Mittelstadt &Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation?,7 International Data Privacy Law,76,81-82(2017).該理論為算法解釋的維度和內(nèi)容作出了清晰的界定,在一定程度上奠定了歐盟對(duì)算法解釋研究的基礎(chǔ)。但其也受到歐盟學(xué)者塞爾伯斯(Selbst)等的有力質(zhì)疑,后者指出這一分類模式無(wú)法在《通用數(shù)據(jù)保護(hù)條例》中成立。(87)Andrew D. Selbst &Julia Powles,Meaningful Information and the Right to Explanation,7 International Data Privacy Law,233,235-236(2017).后來(lái)瓦赫特還富有創(chuàng)見(jiàn)地提出了“反事實(shí)解釋”方法,指出其能夠在不打開(kāi)算法黑箱的前提下向數(shù)據(jù)主體傳達(dá)算法的基本信息,幫助其理解、質(zhì)疑和改變自動(dòng)化決策。(88)Sandra Wachter,Brent Mittelstadt &Chris Russell,Counterfactual Explanations without Opening the Black Box:Automated Decisions and the GDPR,31 Harvard Journal of Law &Technology,1,1-50(2018).但這一解釋模式的普適性和具體適用效果還有待驗(yàn)證。
在將《個(gè)人信息保護(hù)法》第24條第3款認(rèn)定為行為規(guī)范的情況下,較為合理的解釋方法是歐盟學(xué)者馬爾基里(Malgieri)所提出的“易讀性(Legibility)解釋”。該理論同樣基于《通用數(shù)據(jù)保護(hù)條例》第13—15條的算法解釋義務(wù)展開(kāi)。如本文第二部分所述,馬爾基里明確區(qū)分了算法解釋中可讀性解釋、透明性解釋和易讀性解釋的不同,指出:“可讀性解釋是對(duì)自動(dòng)化決策的不透明理解,透明性解釋是對(duì)自動(dòng)化決策的不理解透明”,而易讀性解釋則是前二者的結(jié)合,其旨在使算法解釋“既理解又透明”。(89)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,257-258(2017).具體而言,易讀性解釋需要在算法設(shè)計(jì)和實(shí)施的過(guò)程中實(shí)現(xiàn)。在算法設(shè)計(jì)的過(guò)程中,需要重視算法數(shù)據(jù)來(lái)源、系統(tǒng)功能、特征權(quán)重和預(yù)設(shè)結(jié)果等方面的公開(kāi)透明,并以可理解的方式呈現(xiàn);在算法實(shí)施的過(guò)程中,則需要向數(shù)據(jù)主體就算法的目的、人為干預(yù)的程度、商業(yè)用途、對(duì)過(guò)去用戶的統(tǒng)計(jì)影響、算法決策重做的條件等方面進(jìn)行易于理解的闡釋。(90)Gianclaudio Malgieri &Giovanni Comandé,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation,7 International Data Privacy Law,243,258-261(2017).
以“易讀性解釋”作為算法事前解釋的標(biāo)準(zhǔn),能夠較好契合我國(guó)目前的算法治理現(xiàn)狀。我國(guó)的實(shí)踐中,出現(xiàn)過(guò)僅注重可讀性解釋的情況,也出現(xiàn)過(guò)僅注重透明性解釋的情況,二者的效果均不夠理想。前者如美團(tuán)APP曾于“Meituan”公眾號(hào)公布的算法圖示。其通過(guò)邏輯圖、簡(jiǎn)明事例、配送模擬圖等方式直觀地解釋了外賣(mài)配送“訂單分配”和“騎手評(píng)分”的算法,(91)參見(jiàn)《讓更多聲音參與改變,美團(tuán)外賣(mài)“訂單分配”算法公開(kāi)》,載微信公眾號(hào)“美團(tuán)Meituan”,2021年11月5日;《讓更多聲音參與改變,美團(tuán)改進(jìn)騎手服務(wù)評(píng)價(jià)規(guī)則》,載微信公眾號(hào)“美團(tuán)Meituan”,2022年3月3日。卻未涉及對(duì)算法所使用的信息、決策模型等透明性方面的描述。后者如國(guó)家互聯(lián)網(wǎng)信息辦公室官網(wǎng)曾于2022年8月公布的算法備案。其披露了天貓、淘寶等24款知名APP的個(gè)性化推薦算法的基本原理和運(yùn)行機(jī)制,(92)參見(jiàn) 《國(guó)家互聯(lián)網(wǎng)辦公室關(guān)于發(fā)布互聯(lián)網(wǎng)信息服務(wù)算法備案信息的公告》,原文鏈接:http://www.cac.gov.cn/2022-08/12/c_1661927474338504.htm#,2023年5月30日訪問(wèn)。但尚未達(dá)到使公眾易于理解的程度。而從我國(guó)針對(duì)自動(dòng)化決策的立法趨勢(shì)來(lái)看,“易讀性解釋”的標(biāo)準(zhǔn)正在被確立。一方面,我國(guó)近來(lái)頒布的規(guī)章條例開(kāi)始重視算法模型在設(shè)計(jì)上的可解釋性,確保其在建立之初便是“既理解又透明”。譬如,《算法推薦管理規(guī)定》第12條規(guī)定,“鼓勵(lì)算法推薦服務(wù)提供者……優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性”;《征信業(yè)務(wù)管理辦法》第29條第1款規(guī)定,“征信機(jī)構(gòu)提供畫(huà)像、評(píng)分、評(píng)級(jí)等信用評(píng)價(jià)類產(chǎn)品和服務(wù)的,應(yīng)當(dāng)建立評(píng)價(jià)標(biāo)準(zhǔn)”,第2款規(guī)定,“征信機(jī)構(gòu)……應(yīng)當(dāng)履行必要的內(nèi)部測(cè)試和評(píng)估驗(yàn)證程序,使評(píng)價(jià)規(guī)則可解釋、信息來(lái)源可追溯”。以上規(guī)定實(shí)際上強(qiáng)調(diào)自動(dòng)化決策系統(tǒng)在算法數(shù)據(jù)來(lái)源、系統(tǒng)功能、特征權(quán)重和預(yù)設(shè)結(jié)果等方面的“易讀性解釋”設(shè)計(jì)。另一方面,在算法的具體實(shí)施上,我國(guó)也開(kāi)始明確算法告知須達(dá)到“易讀性解釋”標(biāo)準(zhǔn)。2023年5月23日發(fā)布的《信息安全技術(shù)個(gè)人信息處理中告知和同意的實(shí)施指南》(GB/T 42574—2023)第7.3條即規(guī)定,信息處理者在告知時(shí)須考慮友好展示、媒體適配等要素,要通過(guò)友好、生動(dòng)、形象的方式告知信息的處理規(guī)則和對(duì)個(gè)人權(quán)益的影響;第8.3.3條亦強(qiáng)調(diào),“告知內(nèi)容的展示需以個(gè)人視角的用戶體驗(yàn)和權(quán)益保障為出發(fā)點(diǎn),以清晰易懂、內(nèi)容簡(jiǎn)潔、主次分明為目標(biāo)設(shè)計(jì)展示方案”。《指南》的以上規(guī)定同樣旨在使算法告知變得“既理解又透明”。
肯定“易讀性解釋”為算法事前解釋的標(biāo)準(zhǔn),亦不會(huì)與算法事后解釋以及商業(yè)秘密保護(hù)相沖突。當(dāng)信息處理者不履行《個(gè)人信息保護(hù)法》第24條第3款的算法事前解釋義務(wù),導(dǎo)致信息主體須通過(guò)《個(gè)人信息保護(hù)法》第44條、第48條和第50條行使算法事后解釋的權(quán)利時(shí),該事后解釋可基于上述“易讀性解釋”的二次解釋落實(shí)。二次解釋本質(zhì)上是結(jié)合具體場(chǎng)景和用戶合理訴求對(duì)“易讀性解釋”展開(kāi)的個(gè)性化解讀,其并不會(huì)使信息處理者承擔(dān)過(guò)重的解釋義務(wù)。(93)參見(jiàn)蘇宇:《優(yōu)化算法可解釋性及透明義務(wù)之詮釋與展開(kāi)》,載《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào))2022年第1期。并且,“易讀性解釋”屬于在法律允許的告知范圍內(nèi)展開(kāi)的解釋,也不涉及算法核心技術(shù)的披露,因此無(wú)論是事前解釋還是事后解釋均不存在與商業(yè)秘密保護(hù)相沖突的情形。(94)參見(jiàn)劉琳:《算法解釋權(quán)與商業(yè)秘密保護(hù)的沖突化解》,載《行政法學(xué)研究》2023年第2期。
“算法解釋權(quán)”是一個(gè)舶來(lái)自歐盟理論研究中的概念,其并不能在《通用數(shù)據(jù)保護(hù)條例》中得到驗(yàn)證。實(shí)際上,《通用數(shù)據(jù)保護(hù)條例》中所存在的是由第13—15條、第22條和序言第71條組合而成的算法解釋義務(wù)體系。在我國(guó)民法研究中,不應(yīng)照搬“算法解釋權(quán)”的概念,從而徑直以權(quán)利構(gòu)建的思維討論算法解釋的體系定位。正如比較法學(xué)家茨威格所言:“在外國(guó)形成并且經(jīng)過(guò)考驗(yàn)的解決辦法——不管怎樣,沒(méi)有經(jīng)過(guò)修改——是不能夠在我們的法律上轉(zhuǎn)抄的?!?95)〔德〕茨威格特、克茨:《比較法總論》,潘典漢、米健、高鴻鈞、賀衛(wèi)方譯,中國(guó)法制出版社2017年版,第30頁(yè)。經(jīng)受住考驗(yàn)的域外經(jīng)驗(yàn)尚不得直接轉(zhuǎn)抄,遑論充滿爭(zhēng)議且僅存于域外學(xué)術(shù)研究中的“算法解釋權(quán)”概念。
探究算法解釋的民法體系定位,應(yīng)結(jié)合《個(gè)人信息保護(hù)法》對(duì)個(gè)人信息權(quán)益的特殊保護(hù)方法,從行為規(guī)范的角度進(jìn)行考量。《個(gè)人信息保護(hù)法》第24條第3款本質(zhì)上為信息處理者的事前算法解釋義務(wù),結(jié)合民法中的“絕對(duì)義務(wù)”理論,其能聯(lián)動(dòng)《個(gè)人信息保護(hù)法》第44條、第48條和第50條形成覆蓋“事前—事后”維度的算法解釋規(guī)則體系。如此既能填補(bǔ)我國(guó)《個(gè)人信息保護(hù)法》中算法事前告知義務(wù)闕如的法律漏洞,也能明晰自動(dòng)化決策侵害案件中侵權(quán)責(zé)任的構(gòu)成。
在未來(lái)的研究中,更應(yīng)結(jié)合《個(gè)人信息保護(hù)法》第55條的個(gè)人信息保護(hù)影響評(píng)估制度,探討公私二元監(jiān)管下算法解釋的實(shí)現(xiàn),如此方能充分實(shí)現(xiàn)算法使用的透明化、規(guī)范化,將“算法黑箱”關(guān)進(jìn)“制度的籠子里”。