摘 要:告知同意系個(gè)人信息保護(hù)的基本要求和核心規(guī)范。告知中的“明示”要求和充分性要求均蘊(yùn)含著說(shuō)明義務(wù)。在應(yīng)用算法的自動(dòng)化決策場(chǎng)合,個(gè)人信息處理者也應(yīng)承擔(dān)相應(yīng)的“算法說(shuō)明義務(wù)”。算法說(shuō)明義務(wù)在理論上具有正當(dāng)性,不僅共享著個(gè)人信息處理者的說(shuō)明義務(wù)的正當(dāng)理論,還具有若干額外的補(bǔ)強(qiáng)理由,但同時(shí)也面臨一些抵觸性的理由;這些理由相互作用,決定了算法說(shuō)明義務(wù)的限度。算法說(shuō)明義務(wù)的目的在于保障個(gè)人知情,該義務(wù)指向關(guān)于算法技術(shù)及其應(yīng)用方面的有用信息,但無(wú)需涵蓋算法的技術(shù)細(xì)節(jié)和復(fù)雜的數(shù)學(xué)解釋。為彌補(bǔ)算法說(shuō)明義務(wù)的不足,可輔之以算法問(wèn)責(zé)制,對(duì)算法進(jìn)行協(xié)同治理。
關(guān)鍵詞:個(gè)人信息處理;算法決策;告知同意;說(shuō)明義務(wù);算法說(shuō)明義務(wù)
中圖分類號(hào):DF52 文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-2397(2021)04-0089-13
DOI:10.3969/j.issn.1001-2397.2021.04.08
一、問(wèn)題的提出
告知同意系個(gè)人信息保護(hù)的基本要求,并作為核心規(guī)范被納入《中華人民共和國(guó)民法典》(以下簡(jiǎn)稱《民法典》)之中。其中,“告知”又處于前置地位,是個(gè)人信息保護(hù)的首要規(guī)范要求。網(wǎng)絡(luò)服務(wù)商、數(shù)據(jù)企業(yè)等個(gè)人信息處理者①必須滿足“公開(kāi)處理信息的規(guī)則”和“明示處理信息的目的、方式和范圍”這兩項(xiàng)前提條件,這是《民法典》第1035條明文施加的告知義務(wù),《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》)第7條也對(duì)此進(jìn)行了重申。這兩項(xiàng)條件看似明確,實(shí)則由于法律規(guī)范的高度抽象性,存在許多有待解釋的問(wèn)題。比如,立法者有意區(qū)分使用“公開(kāi)”和“明示”,“公開(kāi)”的內(nèi)涵相對(duì)清晰,“明示”具有什么特殊內(nèi)涵和規(guī)范要求卻值得探討?!懊魇尽钡囊?guī)范要求中是否存在說(shuō)明義務(wù)?說(shuō)明的程度是否又意味著充分說(shuō)明?又如,處理信息的方式屬于“明示”的內(nèi)容,其中是否包括自動(dòng)化決策的算法?為聚焦討論對(duì)象,本文將以應(yīng)用算法的自動(dòng)化決策(后文將之簡(jiǎn)稱為“算法決策”)為視角,分析和明確個(gè)人信息處理者的算法說(shuō)明義務(wù)及其限度。
隨著大數(shù)據(jù)和人工智能技術(shù)的發(fā)展,算法決策正在興起?;趥€(gè)人信息處理,繪制自然人的人格畫(huà)像,進(jìn)行個(gè)人性格、行為偏好、身份特質(zhì)等個(gè)人特征分析,將之用于定向廣告、精準(zhǔn)營(yíng)銷、保險(xiǎn)評(píng)估、貸款管理等不同領(lǐng)域,正在逐漸普遍。數(shù)字化的個(gè)人信用評(píng)分系統(tǒng)也在不斷發(fā)展??梢哉f(shuō),一個(gè)“空前規(guī)模的‘評(píng)分社會(huì)或者說(shuō)等級(jí)化的‘排序社會(huì)”正在形成季衛(wèi)東:《數(shù)據(jù)、隱私以及人工智能時(shí)代的憲法創(chuàng)新》,載《南大法學(xué)》2020年第1期,第3頁(yè)。。
在上述背景下,算法決策場(chǎng)合中個(gè)人信息處理者的說(shuō)明義務(wù)成為一個(gè)非常值得研究的時(shí)代命題。個(gè)人信息保護(hù)問(wèn)題在廣泛應(yīng)用算法決策的大數(shù)據(jù)技術(shù)背景下也更為突出,學(xué)者也已提出算法解釋權(quán)的概念并對(duì)之展開(kāi)了探討解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,載《現(xiàn)代法學(xué)》2020年第1期,第179-193頁(yè);張欣:《算法解釋權(quán)與算法治理路徑研究》,載《中外法學(xué)》2019年第6期,第1425-1445頁(yè);張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)》2018年第3期,第65-74頁(yè),等。。就我國(guó)現(xiàn)有法律而言,立法者未采納“個(gè)人信息權(quán)”一詞,相應(yīng)地,個(gè)人是否享有“算法解釋權(quán)”這種“權(quán)利”也會(huì)產(chǎn)生爭(zhēng)議。然而,如下文將詳細(xì)展開(kāi),盡管我國(guó)個(gè)人信息保護(hù)規(guī)范在整體上未使用權(quán)利化表達(dá),卻確立了相應(yīng)的義務(wù)性規(guī)則,其中蘊(yùn)含著“算法說(shuō)明義務(wù)”。為跳出權(quán)利和權(quán)益之爭(zhēng),在學(xué)術(shù)研究上也可切換視角,從義務(wù)角度展開(kāi)研究,使用“算法說(shuō)明義務(wù)”的概念。如果說(shuō)個(gè)人是否享有“算法解釋權(quán)”存在爭(zhēng)議,個(gè)人信息處理者的算法說(shuō)明義務(wù)在我國(guó)法下卻實(shí)實(shí)在在地存在。本文將首先從規(guī)范分析上論證算法說(shuō)明義務(wù),認(rèn)為該項(xiàng)義務(wù)扎根于個(gè)人信息處理者的首要義務(wù)和基本義務(wù)即告知義務(wù),孕育并脫胎于后者。其次,在規(guī)范證成之后,本文將從理論上為算法說(shuō)明義務(wù)作正當(dāng)性證成。最后,本文將探討和明確算法說(shuō)明義務(wù)的范圍及其限度。
二、算法說(shuō)明義務(wù)的規(guī)范推演路徑
(一)從個(gè)人信息處理者的告知義務(wù)到說(shuō)明義務(wù)
我國(guó)個(gè)人信息保護(hù)方面的立法未采納“個(gè)人信息權(quán)”的權(quán)利化表達(dá),但明確規(guī)定了信息處理者的相應(yīng)義務(wù)。個(gè)人信息處理者的首要義務(wù)是告知義務(wù)。并且,比起可以存在“法律、行政法規(guī)另有規(guī)定的除外”的同意要求《民法典》第1035條第1款第1項(xiàng)。,告知義務(wù)不僅是個(gè)人信息處理者必須滿足的前提條件,還具有普適性,是通常情況下個(gè)人信息處理者必須滿足的義務(wù)。
依據(jù)《民法典》第1035條第1款第2、3項(xiàng)確立的基本規(guī)則,個(gè)人信息處理者必須滿足“公開(kāi)處理信息的規(guī)則”和“明示處理信息的目的、方式和范圍”的前提要件。其實(shí),這種告知義務(wù)中包含著說(shuō)明義務(wù)。該條款的第2、3項(xiàng)分別以“公開(kāi)”和“明示”開(kāi)頭,也體現(xiàn)了立法者對(duì)告知義務(wù)的程度要求存在區(qū)別。處理信息的規(guī)則只要公開(kāi)即可。即使規(guī)則中信息混雜、用語(yǔ)晦澀、令人費(fèi)解,前述公開(kāi)要求已經(jīng)得到滿足。然而,對(duì)于“處理信息的目的、方式和范圍”這些重要事項(xiàng),僅僅包含在規(guī)則之中予以公開(kāi)尚且不夠,其告知需要達(dá)到“明示”的程度要求。
個(gè)人信息處理者的說(shuō)明義務(wù)正是蘊(yùn)含在法律上的“明示”要求之中。在文義上,“明示”中的“明”的一種主要含義是明白、清楚,而“示”字也含有表明之意新華辭書(shū)社:《新華字典》,商務(wù)印書(shū)館1971年版,第301、393頁(yè)。。由此,“明示”的含義應(yīng)該是明白、清楚地表明某些信息內(nèi)容,使別人知道?!懊靼?、清楚地表明”蘊(yùn)含著說(shuō)明之意。其實(shí),“明”字在日常使用中也有說(shuō)明之意。使對(duì)方明白、清楚,應(yīng)該通過(guò)解釋說(shuō)明的手段來(lái)實(shí)現(xiàn)。因此,從文義上可以解釋得出,《民法典》第1035條中的“明示”一詞意味著該條確立了個(gè)人信息處理者的說(shuō)明義務(wù)。
此外,告知的充分性要求也蘊(yùn)含著說(shuō)明義務(wù)。告知義務(wù)不是一種形式要求,而是一種實(shí)質(zhì)要求,其中包含著充分性要求。如此方能實(shí)現(xiàn)告知義務(wù)的宗旨,促進(jìn)用戶的知情同意。我國(guó)立法機(jī)構(gòu)部分工作人員編寫(xiě)的民法典釋義書(shū)藉在解讀《民法典》第1035條時(shí),也認(rèn)為“只有讓信息主體充分知悉和了解個(gè)人信息的規(guī)則、目的、方式和范圍,了解個(gè)人信息被處理的后果和可能影響,才可以保護(hù)信息主體的意思判斷是自主、真實(shí)和合理的”,并在闡述時(shí)將該條中的“明示”一詞替換為“用通俗易懂、簡(jiǎn)潔明了的語(yǔ)言說(shuō)明”黃薇主編:《中華人民共和國(guó)民法典人格權(quán)編解讀》,中國(guó)法制出版社2020年版,第218頁(yè)。。其中不僅提出了告知的“充分性”要求,也明確地提出了說(shuō)明要求。其實(shí),這兩點(diǎn)是相通的,充分告知也意味著信息處理者應(yīng)當(dāng)將相關(guān)內(nèi)容說(shuō)明清楚。
為避免“告而不知”,使知情同意淪為空話,在“告知”的規(guī)范要求中應(yīng)當(dāng)內(nèi)含著說(shuō)明的成分。說(shuō)明義務(wù)的存在,有助于縮小從“告知”到“知情”之間的間距。誠(chéng)然,告知義務(wù)、說(shuō)明義務(wù)的判斷包含著充分性、合理性等不確定概念。何為合理的方式、合理的充分程度在實(shí)踐中難免發(fā)生分歧。對(duì)此,判斷的基準(zhǔn)應(yīng)當(dāng)是通常理性人標(biāo)準(zhǔn),在網(wǎng)絡(luò)空間即為普通網(wǎng)絡(luò)用戶標(biāo)準(zhǔn)呂炳斌:《個(gè)人信息保護(hù)的“同意”困境及其出路》,載《法商研究》2021年第2期,第95頁(yè)。。網(wǎng)絡(luò)服務(wù)商、數(shù)據(jù)企業(yè)在收集個(gè)人信息時(shí),應(yīng)當(dāng)將其目的、方式和范圍明確地向用戶告知說(shuō)明,以通常用戶能夠理解為準(zhǔn)。
(二)從個(gè)人信息處理者的說(shuō)明義務(wù)到算法說(shuō)明義務(wù)
在基于個(gè)人信息處理的算法決策場(chǎng)合,個(gè)人信息實(shí)際上是通過(guò)算法的方式予以處理和分析的,信息處理者也應(yīng)當(dāng)有相應(yīng)的說(shuō)明義務(wù)。本文將之稱為“算法說(shuō)明義務(wù)”,而不是迎合學(xué)理上的“算法解釋權(quán)”,從而使用“算法解釋義務(wù)”一詞。這主要是為了保持本文術(shù)語(yǔ)使用的一致性和連貫性。說(shuō)明的基本含義是“解說(shuō)明白”,和解釋的涵義幾乎相同。因此,本文所謂算法說(shuō)明義務(wù)亦可謂算法解釋義務(wù),與學(xué)者所謂“算法解釋權(quán)”相對(duì)應(yīng)。算法說(shuō)明義務(wù)的存在意在保護(hù)個(gè)人權(quán)益。個(gè)人需要獲得關(guān)于算法決策的解釋說(shuō)明,意味著決策對(duì)個(gè)人將會(huì)產(chǎn)生或者已經(jīng)產(chǎn)生實(shí)質(zhì)性影響。對(duì)個(gè)人有實(shí)質(zhì)性影響的決策一般也是基于個(gè)人信息的處理,在信用評(píng)分、刑事量刑等典型情形皆是如此。因此,算法說(shuō)明義務(wù)可謂一般意義上的個(gè)人信息處理者說(shuō)明義務(wù)在算法決策場(chǎng)合的推演。
至于算法說(shuō)明義務(wù)的定義,此處只能先籠統(tǒng)地將之概括為關(guān)于利用個(gè)人信息進(jìn)行自動(dòng)化決策的算法進(jìn)行說(shuō)明的義務(wù),具體內(nèi)涵尚待下文探討算法說(shuō)明義務(wù)的范圍和限度之后再行明確。
(三)算法說(shuō)明義務(wù)在《個(gè)人信息保護(hù)法》實(shí)施后的雙重規(guī)范依據(jù)
在《民法典》中,個(gè)人信息處理者的說(shuō)明義務(wù)源于其明確規(guī)定的告知義務(wù),算法說(shuō)明義務(wù)的淵源也正是告知義務(wù)?!秱€(gè)人信息保護(hù)法》進(jìn)一步確立了算法決策相關(guān)的說(shuō)明義務(wù)?!秱€(gè)人信息保護(hù)法》第24條第1款前半句規(guī)定“個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正”,第3款規(guī)定“通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定?!薄秱€(gè)人信息保護(hù)法》第24條。此條第1款規(guī)定的透明度原則其實(shí)也蘊(yùn)含著算法說(shuō)明義務(wù),第3款確立了一種應(yīng)要求的說(shuō)明義務(wù)、事后的說(shuō)明義務(wù)。對(duì)此條款,本文有兩點(diǎn)評(píng)價(jià):第一,該條是否賦予了個(gè)人以“算法解釋權(quán)”仍然可能存在爭(zhēng)議。該條在體系上位于“個(gè)人信息處理規(guī)則”一章,而不是位于集中規(guī)定個(gè)人權(quán)利的“個(gè)人在個(gè)人信息處理活動(dòng)中的權(quán)利”一章。在如此體系安排之下,個(gè)人是否享有“算法解釋權(quán)”難免產(chǎn)生分歧。但毋庸置疑的是,個(gè)人信息處理者需要履行算法說(shuō)明義務(wù)。正是因?yàn)闄?quán)利和權(quán)益都對(duì)應(yīng)著義務(wù),并且權(quán)利和權(quán)益都要通過(guò)對(duì)方履行義務(wù)來(lái)實(shí)現(xiàn),研究義務(wù)對(duì)法律的實(shí)施而言更為重要。第二,即使承認(rèn)該條款規(guī)定了所謂“算法解釋權(quán)”,這也是一種非常有限的“解釋權(quán)”,一方面在時(shí)間上僅針對(duì)作出決定后的解釋說(shuō)明,另一方面又有著“重大影響”的條件限制,適用范圍極為有限。而本文提出和論證的“算法說(shuō)明義務(wù)”的范圍將可囊括事前說(shuō)明和事后說(shuō)明,且不拘泥于“重大影響”的條件限制,其范圍廣于《個(gè)人信息保護(hù)法》第24條的規(guī)定。因此,在《個(gè)人信息保護(hù)法》出臺(tái)后,更有必要提倡使用“算法說(shuō)明義務(wù)”這一含義較廣的術(shù)語(yǔ),如果提倡使用“算法解釋權(quán)”的術(shù)語(yǔ),則可能僅僅指向前述第24條規(guī)定的有限版本。
本文認(rèn)為,在我國(guó)《個(gè)人信息保護(hù)法》出臺(tái)并實(shí)施后,算法說(shuō)明義務(wù)將有兩處規(guī)范依據(jù):其一是《民法典》確立、《個(gè)人信息保護(hù)法》予以強(qiáng)化的個(gè)人信息處理者的告知義務(wù);其二是《個(gè)人信息保護(hù)法》引入的自動(dòng)化決策的透明度原則和特定條件下的事后說(shuō)明義務(wù)。這種雙重規(guī)范依據(jù)與歐盟法律極為類似。歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)也沒(méi)有專門(mén)規(guī)定“算法解釋權(quán)”。歐洲學(xué)者就“算法解釋權(quán)”是否存在曾展開(kāi)激烈爭(zhēng)論See Sandra Wachter, Brent Mittelstadt, Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, 7(4) International Data Privacy Law 76-99 (2017); Gianclaudio Malgieri, Giovanni Comande,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, 7(4) International Data Privacy Law 243-265 (2017).。歐盟官方咨議機(jī)構(gòu)發(fā)布的相關(guān)適用指南認(rèn)可了“算法解釋權(quán)”,其主要是依據(jù)GDPR中有關(guān)個(gè)人知情權(quán)以及個(gè)人針對(duì)自動(dòng)化決策的保障措施的規(guī)定進(jìn)行解釋See Article 29 Data Protection Working Party,Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP251rev.01, 6 February 2018, p.27, p.31.,也類似地存在雙重法律依據(jù)。
從適用范圍上看,從告知義務(wù)中推導(dǎo)得出的算法說(shuō)明義務(wù)可適用于算法決策的全過(guò)程,即可包括事前的說(shuō)明義務(wù),也可包括事后的說(shuō)明義務(wù);而從個(gè)人針對(duì)自動(dòng)化決策的保障措施條款中解釋得出的算法說(shuō)明義務(wù),僅為一種事后的說(shuō)明義務(wù)。兩者的范圍大小有別,前者大于后者,并可包含后者。盡管后者將更為明確,但算法說(shuō)明義務(wù)的法律淵源和法律依據(jù)并不限于后者,還可源于更廣泛意義上的告知義務(wù)。并且,基于《個(gè)人信息保護(hù)法》第24條規(guī)定的針對(duì)自動(dòng)化決策的事后說(shuō)明義務(wù)存在較高門(mén)檻要求,該條包含的算法說(shuō)明義務(wù)的適用范圍非常有限。更為廣泛意義上的算法說(shuō)明義務(wù)還是需要從個(gè)人信息處理者的告知義務(wù)和說(shuō)明義務(wù)去推導(dǎo),這可能也是歐洲專家在GDPR專門(mén)規(guī)定個(gè)人針對(duì)自動(dòng)化決策的保障措施條款的前提下,仍然需要從知情權(quán)條款去推導(dǎo)算法解釋權(quán)的原因所在。概言之,在我國(guó),算法說(shuō)明義務(wù)不應(yīng)當(dāng)限于決策生成之后的解釋說(shuō)明,而應(yīng)當(dāng)囊括事前和事后的不同階段,兩者可以分別存在不同的規(guī)范依據(jù)。
三、算法說(shuō)明義務(wù)的正當(dāng)性證成
(一)個(gè)人信息處理者說(shuō)明義務(wù)的正當(dāng)性
1.說(shuō)明義務(wù)的正當(dāng)性論證框架:動(dòng)態(tài)體系論的視角
無(wú)論是一般意義上的個(gè)人信息處理者說(shuō)明義務(wù),還是特定意義上的算法說(shuō)明義務(wù),都不是一項(xiàng)可以具備明確構(gòu)成要件的義務(wù)。此時(shí),在理論上可以求援于動(dòng)態(tài)體系論,通過(guò)對(duì)若干關(guān)鍵要素的動(dòng)態(tài)權(quán)衡、綜合考量來(lái)論證和確立這種說(shuō)明義務(wù)。動(dòng)態(tài)體系論有別于秉持“全有全無(wú)”原則的構(gòu)成要件論,也不是賦予裁判者無(wú)限的自由裁量權(quán),而是一種由不同要素組成的模型王利明:《民法典人格權(quán)編中動(dòng)態(tài)系統(tǒng)論的采納與運(yùn)用》,載《法學(xué)家》2020年第4期,第2、7頁(yè)。。各該要素具有不同的強(qiáng)度,互相協(xié)作,從而提供一種法律上的判斷和論證方法。動(dòng)態(tài)體系論實(shí)際上是一種處于嚴(yán)格的構(gòu)成要件論和寬泛的自由裁量論之間的中間道路,可避免過(guò)于嚴(yán)格和過(guò)于自由,尋得一種折中又不失理性的選擇。當(dāng)然,相比直接適用的構(gòu)成要件而言,動(dòng)態(tài)體系的運(yùn)用需要更多的說(shuō)理論證。在方法論上,動(dòng)態(tài)體系論的應(yīng)用過(guò)程,也正是一種理性的說(shuō)理論證過(guò)程。
德國(guó)學(xué)者構(gòu)建的用于論證說(shuō)明義務(wù)的動(dòng)態(tài)體系的要素包括信息需求、信息可能性和職責(zé)范圍三個(gè)要素,我國(guó)有學(xué)者將之修正為信息重要性、披露可能性、期待合理性和信賴緊密度四個(gè)要素尚連杰:《締約過(guò)程中說(shuō)明義務(wù)的動(dòng)態(tài)體系論》,載《法學(xué)研究》2016年第3期,第103頁(yè)。。從本質(zhì)上看,三要素說(shuō)和四要素說(shuō)具有一致性。因?yàn)椋^信息需求,實(shí)為站在信息需求方立場(chǎng),依信息重要程度判斷該信息需求應(yīng)否得到法律上的承認(rèn),將此要素修正為“信息重要性”可謂更為直觀。信息可能性和披露可能性主要是表述上的差異。所謂職責(zé)范圍,也與潛在信息接收方的信賴相關(guān)。依四要素說(shuō),“義務(wù)人的‘職責(zé)是確立合理信賴的進(jìn)一步的出發(fā)點(diǎn)和標(biāo)準(zhǔn)”尚連杰:《締約過(guò)程中說(shuō)明義務(wù)的動(dòng)態(tài)體系論》,載《法學(xué)研究》2016年第3期,第108頁(yè)。。我國(guó)學(xué)者將“職責(zé)范圍”要素分解為期待合理性和信賴緊密度主要是針對(duì)締約過(guò)程中的說(shuō)明義務(wù),于此而言,締約過(guò)程中存在一方的合理期待和雙方的信賴關(guān)系,期待合理性和信賴緊密度兩個(gè)要素可謂“職責(zé)范圍”要素在締約領(lǐng)域的進(jìn)一步細(xì)化。在論證個(gè)人信息處理者的說(shuō)明義務(wù)以及進(jìn)一步的算法說(shuō)明義務(wù)時(shí),此項(xiàng)義務(wù)的產(chǎn)生未必基于契約,雙方未必存在信賴,因此,信賴緊密度該項(xiàng)要素不大適合。從而,筆者仍以德國(guó)學(xué)者提出的三要素說(shuō)為論證基準(zhǔn)。同時(shí),為便于理解,合理汲取我國(guó)學(xué)者對(duì)前兩個(gè)要素的修正表述,將需要討論的要素表述為信息需求(信息重要性)、信息可能性(披露可能性)和職責(zé)范圍。
2.個(gè)人信息處理者說(shuō)明義務(wù)的正當(dāng)性證成
在個(gè)人信息處理場(chǎng)合,被處理的個(gè)人信息可能影響人格尊嚴(yán)和自由發(fā)展,對(duì)個(gè)人而言具有重要性,在算法決策場(chǎng)合更是如此。自然人需要知道個(gè)人信息被處理的方式、目的和范圍,存在信息需求。個(gè)人信息處理者也存在披露可能性,且基于法律上的職責(zé)要求有義務(wù)去維護(hù)自然人的人格利益。初步來(lái)看,上述三個(gè)要素皆應(yīng)滿足。其實(shí),動(dòng)態(tài)體系論有別于構(gòu)成要件論,各要素并非皆需滿足,而是一種互相協(xié)作的關(guān)系,“如其中之一的強(qiáng)度特別高,其亦得代替其他要素?!盵德]卡爾·拉倫茨:《法學(xué)方法論》,陳愛(ài)娥譯,商務(wù)印書(shū)館 2003年版,第351頁(yè)。即使是依據(jù)前述四要素說(shuō),信息重要性、披露可能性、期待合理性這三個(gè)要素在個(gè)人信息處理場(chǎng)合均較為強(qiáng)烈。唯信賴緊密度這個(gè)要素較弱,但不影響說(shuō)明義務(wù)的存在。因此,依據(jù)動(dòng)態(tài)體系論下說(shuō)明義務(wù)的論證框架,無(wú)論是三要素說(shuō),還是四要素說(shuō),個(gè)人信息處理者的說(shuō)明義務(wù)都可以得到證成。
當(dāng)然,上述動(dòng)態(tài)體系論下的要素不僅可以證成說(shuō)明義務(wù),也相應(yīng)地限定了說(shuō)明義務(wù)的范圍,尤其是前兩個(gè)要素。其一,說(shuō)明的信息內(nèi)容應(yīng)當(dāng)具有重要性,若是不重要的信息,個(gè)人信息處理者只需要滿足一般的告知義務(wù),無(wú)需進(jìn)一步地滿足說(shuō)明要求。其二,可予說(shuō)明的信息內(nèi)容還應(yīng)當(dāng)具有披露可能性,在算法場(chǎng)合,尤為如此。隨著人工智能和機(jī)器學(xué)習(xí)的發(fā)展,算法的專業(yè)性和復(fù)雜性在不斷增加,有些具體的技術(shù)細(xì)節(jié)可能不具有披露可能性。這對(duì)于后文構(gòu)建算法說(shuō)明義務(wù)的限度和范圍具有重要意義。
進(jìn)一步而言,動(dòng)態(tài)體系論的要素并非憑空運(yùn)作,而是構(gòu)建在基本價(jià)值的基礎(chǔ)之上,不同要素之間權(quán)重的確定也取決于規(guī)則蘊(yùn)含的基本價(jià)值[奧] 海爾穆特·庫(kù)齊奧:《動(dòng)態(tài)系統(tǒng)論導(dǎo)論》,張玉東譯,載《甘肅政法學(xué)院學(xué)報(bào)》2013年第4期,第43頁(yè)。。個(gè)人信息保護(hù)的基本價(jià)值取向于尊重人格尊嚴(yán)及自由發(fā)展。這具有比較法和法哲學(xué)上的足夠底蘊(yùn)。在康德的哲學(xué)思想中,人具有獨(dú)立價(jià)值,應(yīng)作為目的,而不能成為其他人實(shí)現(xiàn)其利益的手段。這種倫理學(xué)上的人格主義是德國(guó)《民法典》的精神基礎(chǔ)[德]卡爾·拉倫茨:《德國(guó)民法通論(上冊(cè))》,王曉曄等譯,法律出版社2013年版,第34頁(yè)。。我國(guó)《民法典》更為強(qiáng)調(diào)人格權(quán)的保護(hù),專設(shè)人格權(quán)編,更是體現(xiàn)了倫理學(xué)上的人格主義思想。說(shuō)明義務(wù)是告知義務(wù)的升級(jí)版和強(qiáng)化版,這一升級(jí)強(qiáng)化的價(jià)值基礎(chǔ)正是為了更好地維護(hù)人格尊嚴(yán)及自由發(fā)展。說(shuō)明義務(wù)的存在有利于維護(hù)自然人的決定自由劉勇:《締約信息提供義務(wù)論》,江蘇人民出版社2019年版,第18-21頁(yè)。,可更好地保護(hù)個(gè)人信息。除此之外,告知義務(wù)還旨在解決信息提供者和處理者之間的信息不對(duì)稱問(wèn)題。為了實(shí)現(xiàn)這兩個(gè)目的,告知義務(wù)絕不能流于形式,有賴于告知者對(duì)重點(diǎn)事項(xiàng)的解釋說(shuō)明,否則個(gè)人信息保護(hù)的價(jià)值取向和規(guī)范意旨就會(huì)落空。
說(shuō)明義務(wù)不僅在規(guī)范和價(jià)值層面可以得到證成,也反映著實(shí)踐需求。在大數(shù)據(jù)時(shí)代,有別于數(shù)據(jù)財(cái)產(chǎn)權(quán)益的保護(hù),個(gè)人信息的保護(hù)并不存在自發(fā)和內(nèi)在的技術(shù)驅(qū)動(dòng)機(jī)制陳璞:《論網(wǎng)絡(luò)法權(quán)構(gòu)建中的主體性原則》,載《中國(guó)法學(xué)》2018年第3期,第87頁(yè)。。反而,技術(shù)發(fā)展具有內(nèi)在的動(dòng)力去過(guò)度使用個(gè)人信息。個(gè)人信息處理者的說(shuō)明義務(wù)是針對(duì)個(gè)人信息保護(hù)的技術(shù)驅(qū)動(dòng)機(jī)制缺乏的一種彌補(bǔ)措施。說(shuō)明義務(wù)的存在,有助于避免個(gè)人信息的盲目和過(guò)度使用。在這方面,法律干預(yù)、義務(wù)設(shè)定是對(duì)技術(shù)發(fā)展中可能出現(xiàn)的失衡狀態(tài)的一種糾正措施。
(二)算法說(shuō)明義務(wù)的補(bǔ)強(qiáng)理由
算法說(shuō)明義務(wù)的理論證成,除了共享前述個(gè)人信息處理者說(shuō)明義務(wù)的正當(dāng)理論之外,還具有額外的補(bǔ)強(qiáng)理由,具體如下:
第一,算法決策具有權(quán)力內(nèi)涵,算法說(shuō)明義務(wù)旨在保障算法的可責(zé)性和透明度,是落實(shí)權(quán)力問(wèn)責(zé)機(jī)制的需要。在大數(shù)據(jù)時(shí)代,算法是數(shù)據(jù)技術(shù)中的“基礎(chǔ)語(yǔ)言”,有著舉足輕重的作用。算法決策也有效率上的優(yōu)勢(shì),可提高人類社會(huì)的運(yùn)轉(zhuǎn)效率,促進(jìn)社會(huì)福利。算法決策也可排除人為的情感干擾,更為理性,更具邏輯性?;谶@些優(yōu)勢(shì),算法決策有著廣泛的應(yīng)用空間,將日益普遍。在實(shí)際應(yīng)用中,算法決策不僅僅是一種技術(shù)工具,它還產(chǎn)生了權(quán)力內(nèi)涵,可對(duì)個(gè)人產(chǎn)生實(shí)質(zhì)性的影響。即使運(yùn)用算法的是私主體,騰訊、阿里、百度等網(wǎng)絡(luò)平臺(tái)已經(jīng)日益嵌入人們生活,其商業(yè)屬性和公共屬性已經(jīng)難解難分丁曉東:《論算法的法律規(guī)制》,載《中國(guó)社會(huì)科學(xué)》2020年第12期,第151頁(yè)。。這些平臺(tái)已成為公共生活空間,其算法將對(duì)不特定多數(shù)人的生活產(chǎn)生影響。依萊斯格的網(wǎng)絡(luò)法理論,互聯(lián)網(wǎng)和網(wǎng)絡(luò)空間在本質(zhì)上受到代碼的規(guī)制,人們?cè)诖a的規(guī)制下生活[美]勞倫斯·萊斯格: 《代碼 2. 0: 網(wǎng)絡(luò)空間中的法律》(修訂版),李旭、沈偉偉譯,清華大學(xué)出版社2018年版,第91-92頁(yè)。。在大數(shù)據(jù)時(shí)代,算法具有了同樣的規(guī)制內(nèi)涵,產(chǎn)生了規(guī)制人們生活之力。有學(xué)者更是直接認(rèn)為,算法權(quán)力是“一種準(zhǔn)國(guó)家權(quán)力的權(quán)力”陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》,載《比較法研究》2020年第2期,第129頁(yè)。。從而,對(duì)算法的規(guī)制也應(yīng)按照規(guī)制公權(quán)力的思路展開(kāi)。在當(dāng)代社會(huì),權(quán)力的行使普遍奉行透明和信息公開(kāi)原則。由此角度,算法說(shuō)明義務(wù)的存在,并不僅僅是對(duì)技術(shù)性事項(xiàng)的解釋說(shuō)明,也是對(duì)權(quán)力行使的邏輯及理由的必要說(shuō)明。如無(wú)算法說(shuō)明義務(wù),算法決策中就會(huì)布滿黑箱,決策權(quán)力將不受限制。此外,算法說(shuō)明義務(wù)不僅體現(xiàn)著維護(hù)權(quán)力問(wèn)責(zé)機(jī)制的實(shí)質(zhì)正義,也體現(xiàn)著維護(hù)當(dāng)事人問(wèn)責(zé)和救濟(jì)權(quán)利的程序正義。在算法得以解釋和說(shuō)明的基礎(chǔ)上,當(dāng)事人才能提出反駁或要求重新審查。算法的解釋說(shuō)明是這些相應(yīng)程序的基礎(chǔ),可從實(shí)質(zhì)和程序兩方面保障和落實(shí)權(quán)力問(wèn)責(zé)機(jī)制。
第二,算法說(shuō)明義務(wù)的存在是解決算法信任危機(jī)的需要。傳統(tǒng)上,決策的方式包括個(gè)人決策、集體決策等。集體決策是一種緩解個(gè)人決策壓力的制度,也是一種逃避決策者個(gè)人責(zé)任的制度。與以犧牲效率為代價(jià)的集體決策相比,算法決策不僅可以提高效率,還可以轉(zhuǎn)嫁決策風(fēng)險(xiǎn)、規(guī)避錯(cuò)誤決策責(zé)任。通過(guò)集體決策在當(dāng)代社會(huì)的盛行可以預(yù)見(jiàn),算法決策在未來(lái)科技社會(huì)也將得到普遍實(shí)施。然而,算法決策和其他類型的決策一樣,都會(huì)面臨信任危機(jī)。集體決策的基本邏輯是精英決策,一般是由某團(tuán)體內(nèi)部的精英分子和權(quán)威人士組成小型決策機(jī)構(gòu)。受決策影響者對(duì)決策結(jié)果的信服建立在對(duì)決策者的信賴基礎(chǔ)之上。而算法決策由機(jī)器執(zhí)行,人類對(duì)之的信任危機(jī)將更為突出。在訴諸權(quán)威之外,解決信任危機(jī)的主要方法是解釋說(shuō)明。由此,對(duì)算法的解釋說(shuō)明也是算法信任危機(jī)的解決方案中不可或缺的重要組成部分。
第三,算法說(shuō)明義務(wù)還具有制度激勵(lì)功能,可促進(jìn)更為透明、更為可靠的算法的研發(fā)和誕生。若無(wú)此義務(wù),算法就會(huì)朝著黑暗的方向前行,“算法黑箱”不僅可能會(huì)因此合法化,而且還會(huì)得到持續(xù)的制度支撐和發(fā)展動(dòng)力。恰當(dāng)?shù)姆梢?guī)范和義務(wù)配置有助于促進(jìn)技術(shù)的良性發(fā)展。若要使“科技向善”,不僅需要科技產(chǎn)業(yè)界將之作為一種理念和口號(hào),也需要作為行為規(guī)范的法律規(guī)則尤其是義務(wù)規(guī)則的指引。
總之,算法說(shuō)明義務(wù)具有十足的正當(dāng)性理由,足以證成。然而,在另一方面,它也面臨著一些障礙。算法說(shuō)明義務(wù)正是在正反兩方面的理由碰撞之中生存,這些理由的相互碰撞也決定了該項(xiàng)義務(wù)的范圍和限度。
四、算法說(shuō)明義務(wù)的范圍和限度
(一)算法說(shuō)明義務(wù)面臨的障礙
1.算法說(shuō)明的技術(shù)障礙和成本問(wèn)題
算法說(shuō)明義務(wù)存在的直接目的是使受算法決策影響者理解算法。然而,受眾理解算法,存在不少障礙,這一方面受制于算法本身的專業(yè)性和復(fù)雜性,另一方面也受制于受眾在技術(shù)方面的理解能力。AlphaGo戰(zhàn)勝柯潔即是人工智能算法無(wú)法解釋的典型例證。如果程序員可以理解AlphaGo的算法,程序員也將成為杰出的棋手,甚至可以預(yù)測(cè)和破解其算法,從而戰(zhàn)勝它。計(jì)算機(jī)算法往往由復(fù)雜的代碼構(gòu)成,絕非“1+1=2”那么簡(jiǎn)單。誠(chéng)如學(xué)者所言,在外行眼里,“代碼即亂碼,算法像魔法。”沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,載《環(huán)球法律評(píng)論》2019年第6期,第29頁(yè)。應(yīng)用于商業(yè)決策和社會(huì)決策的算法更是如此,其往往是大型的算法設(shè)計(jì),其中包含的參數(shù)和變量極多,且可能經(jīng)歷了數(shù)任程序員的修改與更新,其中還可能存在一些不能輕易修改、程序員自己都未必理解的“祖?zhèn)鞔a”,算法的解釋說(shuō)明在技術(shù)上的確存在種種障礙蘇宇:《算法規(guī)制的譜系》,載《中國(guó)法學(xué)》2020年第3期,第168頁(yè)。。在機(jī)器深度學(xué)習(xí)的背景下,人工智能的神經(jīng)網(wǎng)絡(luò)層數(shù)和決策參數(shù)在不斷增加和變化,算法也在不斷的更新發(fā)展之中,算法的動(dòng)態(tài)化、智能化更是加劇了算法解釋說(shuō)明的難度。可以說(shuō),對(duì)于人工智能算法而言,任何解釋說(shuō)明都難以達(dá)到充分性的要求。
由上可知,在算法說(shuō)明義務(wù)的程度和范圍的構(gòu)造中,需要充分考慮算法設(shè)計(jì)者或應(yīng)用者的解釋成本問(wèn)題,并將之與公眾的潛在收益進(jìn)行大致的衡量。從技術(shù)上而言,算法的解釋說(shuō)明的確存在“易讀性”、可解釋性或可說(shuō)明性的問(wèn)題?;诩夹g(shù)障礙和說(shuō)明成本的考量,一個(gè)初步的結(jié)論是算法設(shè)計(jì)者或應(yīng)用者只需要解釋說(shuō)明到邏輯思路層面,而不是解釋說(shuō)明具體的運(yùn)算方法,更不必提供復(fù)雜的數(shù)學(xué)解釋。
2.商業(yè)秘密的限制問(wèn)題
作為一種技術(shù)方案,知識(shí)產(chǎn)權(quán)保護(hù)對(duì)算法的研發(fā)具有重要的激勵(lì)作用。然而,算法在現(xiàn)行知識(shí)產(chǎn)權(quán)法律框架下很難獲得專利權(quán)、著作權(quán)的保護(hù),從而需要尋求商業(yè)秘密保護(hù)。第一,在專利權(quán)保護(hù)方面,智力活動(dòng)的規(guī)則和方法不屬于專利保護(hù)的的客體,這是公認(rèn)原理。我國(guó)《專利法》第25條也是如此規(guī)定,而算法正是一種智力活動(dòng)的規(guī)則和方法,其本身并不能獲得專利。但是,包含算法的技術(shù)方案是一種技術(shù)領(lǐng)域的發(fā)明,應(yīng)當(dāng)可以獲得專利。在大數(shù)據(jù)和人工智能發(fā)展背景下,國(guó)家知識(shí)產(chǎn)權(quán)局于2019年12月31日專門(mén)修改了《專利審查指南》,明確了抽象的算法本身不能獲得專利,但包含算法的技術(shù)方案在滿足新穎性、創(chuàng)造性、實(shí)用性等可專利性條件下可以獲得專利《國(guó)家知識(shí)產(chǎn)權(quán)局關(guān)于修改〈專利審查指南〉的決定》,國(guó)家知識(shí)產(chǎn)權(quán)局公告第343號(hào),2019年12月31日。。據(jù)此,算法可以通過(guò)納入整體技術(shù)方案的形式間接地獲利專利保護(hù),但將算法作為整體技術(shù)方案的一部分的保護(hù)方式有一定的局限性,他人的侵權(quán)也限于對(duì)整體技術(shù)方案或等同方案的侵權(quán)。他人對(duì)其中算法的使用完全可以提出抗辯,認(rèn)為其使用的是不受法律保護(hù)的部分。此外,從商業(yè)競(jìng)爭(zhēng)的角度而言,公開(kāi)算法、申請(qǐng)專利也非良策。因此,即使是通過(guò)專利制度來(lái)間接保護(hù)算法也具有很大的缺陷。第二,在著作權(quán)(版權(quán))保護(hù)方面,算法可以分解為一系列的數(shù)字化的代碼和命令,猶如其他語(yǔ)法字符串,這些代碼和命令可以獲得版權(quán)保護(hù)。但著作權(quán)法僅僅保護(hù)算法的表達(dá)層面,即代碼和命令的符號(hào)組合,而不是算法本身。綜上,專利保護(hù)和版權(quán)保護(hù)在算法保護(hù)上都存在不足,并非算法保護(hù)的首選之策。從而,商業(yè)秘密成了算法及其源代碼的默認(rèn)保護(hù)方式See Sonia K. Katyal,Private Accountability in the Age of Artificial Intelligence, 66 UCLA Law Review 54, 125 (2019).。美國(guó)一起典型判例即認(rèn)為用于裁判量刑的算法屬于商業(yè)秘密,無(wú)需披露State v. Loomis, 881 N.W.2d 749 (Wis. 2016).。在我國(guó),已有案例涉及算法系統(tǒng)的商業(yè)秘密保護(hù)和算法披露之間的沖突問(wèn)題。在某案中,阿里媽媽公司基于算法系統(tǒng),認(rèn)定原告在推廣中涉嫌違規(guī),給予處罰,但以算法保密為由拒絕披露具體的處罰依據(jù)。法院從格式合同的規(guī)制著眼,認(rèn)為單方免責(zé)的規(guī)定顯失公平參見(jiàn)“陳魚(yú)與杭州阿里媽媽軟件服務(wù)有限公司網(wǎng)絡(luò)服務(wù)合同案”,杭州鐵路運(yùn)輸法院(2017)浙8601民初3306號(hào)民事判決書(shū)。。其實(shí),從算法的商業(yè)秘密保護(hù)角度看,阿里媽媽公司拒絕披露具體的處罰依據(jù),也有一定的道理。畢竟,其中算法可能的確享有商業(yè)秘密保護(hù)。除了技術(shù)層面的算法之外,算法運(yùn)用的數(shù)據(jù)也可能構(gòu)成商業(yè)秘密?;谏虡I(yè)秘密的特性,算法及其數(shù)據(jù)的商業(yè)秘密保護(hù)將對(duì)算法披露和說(shuō)明構(gòu)成實(shí)質(zhì)性的限制。
以商業(yè)秘密保護(hù)之由,拒絕算法的披露和說(shuō)明,無(wú)疑會(huì)產(chǎn)生一定的負(fù)面效應(yīng)。商業(yè)秘密保護(hù)缺乏明確的邊界,也不像權(quán)利化的著作權(quán)、專利權(quán)那樣存在法定的限制和例外,從而缺乏明確的權(quán)利保護(hù)的平衡機(jī)制,需要在個(gè)案中進(jìn)行利益衡量,這就導(dǎo)致了算法商業(yè)秘密保護(hù)的復(fù)雜性。更為重要的是,商業(yè)秘密缺乏也不可能具有公示制度,故而號(hào)稱受到商業(yè)秘密保護(hù)的算法到底能否構(gòu)成商業(yè)秘密,旁人無(wú)從得知。正如學(xué)者指出,如果不先公開(kāi)和檢查源代碼,他人就不可能知道一種算法是否可以作為商業(yè)秘密See Charles Short,Guilt by Machine: The Problem of Source Code Discovery in Florida DUI Prosecutions,61 Florida Law Review 177, 190 (2009).。因此,即使決策程序使用的軟件代碼和算法來(lái)自公有領(lǐng)域,算法所有人或使用人仍可能聲稱其屬于商業(yè)秘密,以此名義,不予披露,拒絕解釋。算法的商業(yè)秘密保護(hù)實(shí)際上是認(rèn)可“算法黑箱”,并在一定程度上將之合理化,與權(quán)力行使的透明原則相悖。
如何解決算法的解釋說(shuō)明和商業(yè)秘密保護(hù)之間的沖突,是一個(gè)較為棘手的問(wèn)題。第一種思路是個(gè)人信息保護(hù)優(yōu)先于商業(yè)秘密保護(hù)。歐洲有學(xué)者認(rèn)為,與保護(hù)商業(yè)秘密相比,GDPR更傾向于強(qiáng)化對(duì)個(gè)人數(shù)據(jù)權(quán)利的保護(hù),因此,建立在個(gè)人數(shù)據(jù)權(quán)利基礎(chǔ)上的算法解釋權(quán)相較于商業(yè)秘密具有優(yōu)先地位See Gianclaudio Malgieri, Giovanni Comande,Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, 7(4) International Data Privacy Law 243, 262-264 (2017).。在中國(guó)法的語(yǔ)境之下,個(gè)人信息和商業(yè)秘密屬于等階的權(quán)益,盡管不少學(xué)者主張對(duì)這兩項(xiàng)客體予以權(quán)利化的保護(hù),但立法上并沒(méi)有明確地采取權(quán)利化的表述。因此,權(quán)利化的個(gè)人數(shù)據(jù)利益高于非權(quán)利化的商業(yè)秘密利益,這在歐盟法的語(yǔ)境下可能成立,但在中國(guó)法的語(yǔ)境下并不當(dāng)然成立。另一種思路仍然是尋求比商業(yè)秘密位階更高的利益。在這方面,公共利益的概念無(wú)疑可以出場(chǎng)。我國(guó)有學(xué)者即認(rèn)為,公共利益的存在可以在特定情形下否定算法的商業(yè)秘密保護(hù)陳景輝:《算法的法律性質(zhì):言論、商業(yè)秘密還是正當(dāng)程序?》,載《比較法研究》2020年第2期,第127頁(yè)。。的確,公共利益可以構(gòu)成對(duì)民事權(quán)益的限制,但其適用空間也極為有限。只有當(dāng)算法披露涉及公共利益時(shí),才能動(dòng)用這個(gè)理由。顯然,并不是所有的算法決策都涉及公共利益;反而,大多數(shù)基于個(gè)人信息處理的算法決策可能只涉及個(gè)人利益,而不是公共利益。
綜上所述,我們很難找出一個(gè)普適性的理由,來(lái)使算法說(shuō)明義務(wù)凌駕于算法的商業(yè)秘密保護(hù)之上,后者的確將構(gòu)成對(duì)前者的限制。據(jù)此,可以說(shuō)明的主要是系統(tǒng)功能以及算法的一般邏輯和主要參數(shù),而不包括詳細(xì)的參數(shù)和權(quán)重,后者往往落入商業(yè)秘密的保護(hù)范疇。需強(qiáng)調(diào)的是,商業(yè)秘密保護(hù)對(duì)算法解釋說(shuō)明可以起到限制作用,但不是絕對(duì)的拒絕。在兩項(xiàng)沖突的利益面前,探討某項(xiàng)旨在保護(hù)其中一種利益的措施之程度是否合理時(shí),可借鑒比例原則的思想。比例原則的本質(zhì)在于“禁止過(guò)度”,在民事領(lǐng)域也有著廣泛的應(yīng)用空間鄭曉劍:《比例原則在民法上的適用及展開(kāi)》,載《中國(guó)法學(xué)》2016年第2期,第143-165頁(yè)。?;诒壤瓌t的思想,為了保護(hù)個(gè)人權(quán)益,要求算法的解釋說(shuō)明,可符合適當(dāng)性的要求;只要將對(duì)算法商業(yè)秘密保護(hù)的影響控制在最小范圍之內(nèi),也可符合必要性的要求。但狹義比例原則也要求以最緩和的手段來(lái)實(shí)現(xiàn)算法說(shuō)明的目的。由此,算法說(shuō)明義務(wù)需要以最為緩和的方法進(jìn)行,減少和避免對(duì)商業(yè)秘密的侵害。
3.決策系統(tǒng)的人為干擾和濫用問(wèn)題
面對(duì)技術(shù)日漸深入人類生活各個(gè)領(lǐng)域,有人會(huì)對(duì)技術(shù)進(jìn)行博弈,這是可以預(yù)見(jiàn)的。這種博弈可能導(dǎo)致對(duì)算法決策系統(tǒng)的干擾和濫用。在現(xiàn)實(shí)中,針對(duì)主流的信用評(píng)分系統(tǒng),黑市中的“刷分”產(chǎn)業(yè)鏈已然形成謝宛霏、徐楚霖:《芝麻信用刷分背后暗藏套現(xiàn)產(chǎn)業(yè)鏈》,載《中國(guó)青年報(bào)》2017年8月4日第06版。。
在防止算法的博弈和作弊方面,算法保密具有獨(dú)特的內(nèi)在價(jià)值。匿名和保密可促進(jìn)公平,這似乎是不證自明的公理。學(xué)術(shù)期刊普遍推行的同行專家匿名評(píng)審即是一個(gè)典型的例證。同理,將算法保密,可避免算法博弈、數(shù)據(jù)作弊等人為干擾,有利于所有人都在公平的狀態(tài)下獲得分析和評(píng)價(jià)。這對(duì)正在形成的算法社會(huì)的秩序構(gòu)建具有不可忽視的社會(huì)價(jià)值。正因?yàn)槿绱耍承Q策的過(guò)程和依據(jù)必須保持晦澀不明,以免他人博弈See Joshua A. Kroll, Joanna Huey, Solon Barocas et al.,Accountable Algorithms, 165 University of Pennsylvania Law Review 633, 639 (2017).。若信用評(píng)分系統(tǒng)的算法完全公開(kāi)和透明,刷分和博弈現(xiàn)象將更加猖獗。
4.產(chǎn)業(yè)競(jìng)爭(zhēng)和技術(shù)發(fā)展需要算法保持復(fù)雜和晦澀
就產(chǎn)業(yè)競(jìng)爭(zhēng)而言,算法越是復(fù)雜和晦澀,就越是難以被反向工程所破解,其競(jìng)爭(zhēng)優(yōu)勢(shì)也會(huì)越明顯。從競(jìng)爭(zhēng)的角度看,算法開(kāi)發(fā)者具有內(nèi)在動(dòng)力去保持算法的復(fù)雜性和晦澀性,這會(huì)致使算法難以得到充分的解釋。
就技術(shù)發(fā)展而言,算法只有超越人類智慧,才能給人類帶來(lái)更多益處。如果要求算法決策的方法必須為人類所理解,這不僅可能與事實(shí)不符,也可能會(huì)阻礙算法技術(shù)的創(chuàng)新發(fā)展。由此角度而言,算法是不能被人類所充分說(shuō)明的。若法律對(duì)算法開(kāi)發(fā)者或使用者施加充分公開(kāi)和完全透明的說(shuō)明義務(wù),可能會(huì)阻礙科技的創(chuàng)新發(fā)展,不利于社會(huì)的進(jìn)步。
總之,從算法披露和說(shuō)明的可能性和成本問(wèn)題、保護(hù)商業(yè)秘密的需要、防止決策系統(tǒng)受到人為干擾和濫用的需要以及產(chǎn)業(yè)競(jìng)爭(zhēng)與技術(shù)發(fā)展的需要等不同角度,都可以發(fā)現(xiàn)算法說(shuō)明義務(wù)面臨著各種阻力。這種抵制性理由與算法說(shuō)明義務(wù)的正當(dāng)性理由相互作用,只能導(dǎo)向有限的算法說(shuō)明義務(wù)。
(二)算法說(shuō)明義務(wù)的說(shuō)明范圍及其限度
算法說(shuō)明義務(wù)的說(shuō)明范圍及其限度其實(shí)是一個(gè)問(wèn)題,可歸結(jié)為:信息處理者需要就哪些事項(xiàng)進(jìn)行說(shuō)明?回答這一問(wèn)題時(shí),自然也會(huì)明確信息處理者不需要就哪些事項(xiàng)進(jìn)行說(shuō)明。
在比較法上,算法說(shuō)明義務(wù)的范圍和限度也是個(gè)棘手的問(wèn)題,在個(gè)人數(shù)據(jù)保護(hù)領(lǐng)域較為領(lǐng)先的歐盟也缺乏明確的答案。歐洲學(xué)者近年來(lái)展開(kāi)的“算法解釋權(quán)”之爭(zhēng),其中不僅涉及該項(xiàng)權(quán)利是否存在,也涉及該項(xiàng)權(quán)利的范圍和限度問(wèn)題。如前提及,歐盟官方咨議機(jī)構(gòu)發(fā)布的相關(guān)適用指南認(rèn)可了“算法解釋權(quán)”,但對(duì)于自然人如何行使這些權(quán)利,該指南卻語(yǔ)焉不詳。在比較法經(jīng)驗(yàn)不足的情況下,我們還是需要根據(jù)算法說(shuō)明義務(wù)的基本原理去明確和限定其范圍。
首先需要分析和明確的問(wèn)題是,算法說(shuō)明的對(duì)象是限于一般意義上的系統(tǒng)功能,還是可以包括對(duì)特定決定的算法決策過(guò)程所作的解釋說(shuō)明?與之相關(guān),可進(jìn)一步澄清和明確算法說(shuō)明義務(wù)是事前的說(shuō)明義務(wù)抑或是事后的說(shuō)明義務(wù)。事前解釋側(cè)重于解釋系統(tǒng)功能,而無(wú)法就一個(gè)特定決定的理由依據(jù)進(jìn)行說(shuō)明。事后解釋的內(nèi)容則可囊括系統(tǒng)功能和特定決定的理由依據(jù)See Sandra Wachter, Brent Mittelstadt, Luciano Floridi,Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, 7(4) International Data Privacy Law 76, 78 (2017).。比如,就采用算法決策的信用評(píng)分系統(tǒng)而言,個(gè)人信息處理者在事前能解釋和說(shuō)明的是系統(tǒng)的一般邏輯、使用的數(shù)據(jù)類型、算法決策的目的以及預(yù)期用途;事后解釋則可進(jìn)一步說(shuō)明一個(gè)特定的評(píng)分是如何形成的,這就需要結(jié)合信息主體的個(gè)體情況對(duì)其數(shù)據(jù)和權(quán)重進(jìn)行說(shuō)明??梢?jiàn),事后解釋是一種更傾向于個(gè)體主義的解釋,也將會(huì)透露出更多的有助于理解算法決策的信息,具有一定優(yōu)勢(shì),應(yīng)予肯定。從個(gè)人信息保護(hù)立場(chǎng)出發(fā),透明度原則應(yīng)當(dāng)貫穿于個(gè)人信息的使用、分析等不同階段,以使個(gè)人獲得算法決策的準(zhǔn)確性、有效性和不歧視的保障Tal Z. Zarsky,Transparent Predictions,2013 University of Illinois Law Review 1503,1548 (2013).。
我國(guó)《個(gè)人信息保護(hù)法》第24條關(guān)于個(gè)人針對(duì)自動(dòng)化決策的保障措施條款中規(guī)定的算法說(shuō)明義務(wù)針對(duì)的是已經(jīng)作出決定的自動(dòng)化決策,是一種事后說(shuō)明。盡管事后說(shuō)明對(duì)于保護(hù)個(gè)人信息權(quán)益而言非常重要,但同樣不能忽視事前說(shuō)明的重要性。我國(guó)法律對(duì)“個(gè)人信息的處理”進(jìn)行了極為廣義的界定,不限于狹義上的加工處理,還包括收集、提供、公開(kāi)等,并且法律沒(méi)有進(jìn)行窮盡列舉。相應(yīng)地,個(gè)人信息處理的告知義務(wù)和說(shuō)明義務(wù)也可貫穿于個(gè)人信息“處理”的全過(guò)程。因此,我國(guó)法下的個(gè)人信息處理者的說(shuō)明義務(wù)不限于事后說(shuō)明,也包括加工處理、使用中的說(shuō)明,還可以是事前對(duì)系統(tǒng)功能等事項(xiàng)的說(shuō)明。相應(yīng)地,算法說(shuō)明義務(wù)既包括事后說(shuō)明,也包括事前說(shuō)明,既涉及面向特定對(duì)象、就特定決策進(jìn)行的解釋說(shuō)明,也涉及就一般意義上的系統(tǒng)功能等事項(xiàng)的說(shuō)明。只有這種覆蓋個(gè)人信息處理全階段的說(shuō)明義務(wù),才能充分保障個(gè)人在算法決策中的權(quán)益。
其次,從技術(shù)角度而言,算法的解釋說(shuō)明到底應(yīng)該解釋到什么程度?復(fù)雜的數(shù)學(xué)解釋往往超出了普通人的理解能力,既不必要,也不可行。歐盟的態(tài)度也是如此,信息處理者只需提供關(guān)于算法邏輯的有用信息。至于何為有用信息,這一判斷具有事實(shí)依賴性,法律上難以形成明確的標(biāo)準(zhǔn)。歐盟指南在附件中也只是提供了一份“良好做法建議”,建議個(gè)人信息處理者以明白易懂的方式向自然人提供諸如以下信息:在生成用戶畫(huà)像和分析決策過(guò)程中已經(jīng)或?qū)⒁褂玫臄?shù)據(jù)類別;這些數(shù)據(jù)類型具有相關(guān)性的原因;自動(dòng)化決策中使用的用戶畫(huà)像是如何生成的,包括自動(dòng)化決策中使用的統(tǒng)計(jì)信息;為何此畫(huà)像與自動(dòng)化決策相關(guān)以及如何將其用于針對(duì)某個(gè)自然人的決策Article 29 Data Protection Working Party,Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, WP251rev.01, 6 February 2018, p.31.。筆者認(rèn)為,在算法解釋說(shuō)明的技術(shù)層面,重點(diǎn)不應(yīng)該放在算法的具體技術(shù)細(xì)節(jié),而應(yīng)該是整體方案、技術(shù)本質(zhì)、基本邏輯、主要參數(shù)、大致權(quán)重和潛在風(fēng)險(xiǎn)等關(guān)鍵信息。但是,只是籠統(tǒng)地披露整體方案和技術(shù)本質(zhì)尚無(wú)濟(jì)于事,不能滿足算法說(shuō)明義務(wù)的程度要求。比如,我國(guó)最為著名的信用評(píng)分系統(tǒng)——芝麻信用——公開(kāi)披露的算法是“運(yùn)用云計(jì)算及機(jī)器學(xué)習(xí)等技術(shù),通過(guò)邏輯回歸、決策樹(shù)、隨機(jī)森林等模型算法,對(duì)各維度數(shù)據(jù)進(jìn)行綜合處理和評(píng)估”參見(jiàn)芝麻信用網(wǎng)站關(guān)于“芝麻分”的介紹,https://www.zmxy.com.cn/#/detail/1-2,2021年7月20日訪問(wèn)。,這就顯得不足。什么是邏輯回歸、決策樹(shù)和隨機(jī)森林?這些術(shù)語(yǔ)根本不便普通人理解和知情,“綜合處理和評(píng)估”更是模糊且籠統(tǒng)的表述。個(gè)人信息處理者的披露說(shuō)明應(yīng)不限于此,算法技術(shù)的基本邏輯和主要參數(shù)應(yīng)可披露,技術(shù)的潛在風(fēng)險(xiǎn)也可加以說(shuō)明,這并不會(huì)對(duì)信息處理者帶來(lái)過(guò)多的成本,也不會(huì)影響其對(duì)算法的商業(yè)秘密保護(hù)。畢竟,商業(yè)秘密保護(hù)的是秘密點(diǎn),這些模型算法的基本邏輯和主要參數(shù)很難落入商業(yè)秘密保護(hù)范疇。只是披露基本邏輯和主要參數(shù),而不披露具體的參數(shù)和權(quán)重,也很難被用戶用于博弈,造成濫用,也不會(huì)影響產(chǎn)業(yè)競(jìng)爭(zhēng)和技術(shù)發(fā)展。其實(shí),個(gè)人通過(guò)廣泛檢索,還是可以弄清邏輯回歸、決策樹(shù)和隨機(jī)森林等模型算法的基本邏輯的,但會(huì)面臨較高的查找和學(xué)習(xí)成本。既然信息處理者可以以較低成本披露這些算法的基本邏輯,就應(yīng)當(dāng)基于告知義務(wù)的基本宗旨,予以披露,以便促進(jìn)個(gè)人知情。此外,技術(shù)層面的算法披露的一個(gè)障礙是一般的自然人未必能夠理解,這就要求在風(fēng)險(xiǎn)和敏感度較高的決策領(lǐng)域,使用人類可以解釋和理解的技術(shù)方案和決策方法,從而規(guī)避不可控制的風(fēng)險(xiǎn)。
最后是算法說(shuō)明的范圍限于算法本身,還是包括算法的應(yīng)用?其實(shí),技術(shù)本身是無(wú)害的,對(duì)個(gè)人權(quán)益造成侵害的往往是算法應(yīng)用,而不是算法本身。因此,算法說(shuō)明的重點(diǎn)之一應(yīng)當(dāng)是算法的具體應(yīng)用方式。比如,算法決策的結(jié)果是用于信用評(píng)分、工作評(píng)估、定向廣告還是其他用途?在應(yīng)用過(guò)程中,是否存在人工干預(yù)?如果存在,人工干預(yù)的程度如何?決策結(jié)果是否可以受到重新審查?其條件和程序如何?當(dāng)然,從算法應(yīng)用著手進(jìn)行解釋,仍然難以回避對(duì)算法技術(shù)方案的解釋,兩者應(yīng)當(dāng)相輔相成。同樣以國(guó)內(nèi)最為著名的芝麻信用評(píng)分為例,其在算法應(yīng)用方面僅僅說(shuō)明了“較高的芝麻分可以幫助用戶獲得更高效、更優(yōu)質(zhì)的服務(wù)”參見(jiàn)芝麻信用網(wǎng)站關(guān)于“芝麻分”的介紹,https://www.zmxy.com.cn/#/detail/1-2,2021年7月20日訪問(wèn)。,這也顯得不夠。這些評(píng)分到底作何用途,會(huì)對(duì)個(gè)人產(chǎn)生什么影響,應(yīng)當(dāng)予以較為清晰的說(shuō)明。
(三)算法說(shuō)明義務(wù)“有限版”的有益補(bǔ)充
個(gè)人信息保護(hù)原則上奉行私法自治。當(dāng)私法自治存在不足時(shí),則需動(dòng)用公私法協(xié)同規(guī)制的方案。在算法決策場(chǎng)合,這也是由算法本身的特征決定的。算法風(fēng)險(xiǎn)高度分散、形態(tài)多樣,充滿著很多不確定性,需要構(gòu)建從不同的風(fēng)險(xiǎn)鏈條節(jié)點(diǎn)介入、由不同主體參與的規(guī)制譜系蘇宇:《算法規(guī)制的譜系》,載《中國(guó)法學(xué)》2020年第3期,第177-184頁(yè)。。
算法說(shuō)明可以打開(kāi)“算法黑箱”,最大程度地促使關(guān)于算法的基本邏輯、主要參數(shù)、大致權(quán)重、具體用途及潛在風(fēng)險(xiǎn)等關(guān)鍵信息和有用信息的披露,以最大程度地保障個(gè)人知情。為此目的,這些信息應(yīng)當(dāng)以通常理性人可以理解的方式進(jìn)行說(shuō)明。另一方面,具體的技術(shù)細(xì)節(jié)和復(fù)雜的數(shù)學(xué)解釋往往超出了普通大眾的理解能力,通常也超出了保障個(gè)人知情同意的需要。有關(guān)具體參數(shù)和權(quán)重的技術(shù)細(xì)節(jié)還可能構(gòu)成商業(yè)秘密保護(hù)的秘密點(diǎn),因此,一些“算法黑箱”可能無(wú)法被徹底打破。前文也已論及,要求算法的徹底公開(kāi)和完全披露也不盡合理。故而,出于商業(yè)秘密保護(hù)等限制因素,算法說(shuō)明義務(wù)難免存在不足。如果算法決策可能存在的歧視和偏見(jiàn)恰好是由算法中的秘密點(diǎn)造成的,出于保護(hù)商業(yè)秘密的考慮而放棄對(duì)算法的監(jiān)督,并不合理。此時(shí),以第三方審計(jì)和監(jiān)督的方式進(jìn)行的算法問(wèn)責(zé)制成為一個(gè)替補(bǔ)的合理選擇,這既可以避免算法中的秘密點(diǎn)的公開(kāi),也可以促使算法受到專業(yè)人士的監(jiān)督和控制,化解算法中的秘密點(diǎn)的潛在風(fēng)險(xiǎn)和危機(jī)。當(dāng)然,算法問(wèn)責(zé)制也存在外部監(jiān)督成本較高、有效性也未必得到保障等問(wèn)題。也正是因?yàn)槿绱?,本文提倡的首要算法治理措施是算法說(shuō)明義務(wù)。一般而言,算法的基本邏輯、主要參數(shù)、大致權(quán)重、具體用途及潛在風(fēng)險(xiǎn)等關(guān)鍵信息的披露可以確保個(gè)人的知情同意,也可以基本保障算法的透明度原則。當(dāng)算法說(shuō)明義務(wù)無(wú)法充分實(shí)現(xiàn)算法治理的目標(biāo)、無(wú)法確定受決策的個(gè)人是否得到公平合理的對(duì)待時(shí),才需要第三方審計(jì)和監(jiān)督的介入。
在比較法上,歐盟傾向于以個(gè)人數(shù)據(jù)權(quán)利為基礎(chǔ)開(kāi)展算法治理,美國(guó)則傾向于通過(guò)算法審計(jì)和問(wèn)責(zé)機(jī)制促進(jìn)算法治理張欣:《算法解釋權(quán)與算法治理路徑研究》,載《中外法學(xué)》2019年第6期,第1425頁(yè)。。兩種模式各具優(yōu)劣。中國(guó)可以汲取不同模式的優(yōu)勢(shì),打造出算法治理的升級(jí)版和優(yōu)化版。在方法論上,算法解釋權(quán)或算法說(shuō)明義務(wù)主要采取個(gè)體主義方法論,而算法問(wèn)責(zé)制主要采取整體主義方法論。在算法說(shuō)明義務(wù)之外,輔之以算法問(wèn)責(zé)制,實(shí)際上是選擇個(gè)體主義和整體主義兼具的算法治理之道。包括算法治理在內(nèi)的社會(huì)治理均要從整體和個(gè)體兩方面入手,方能不偏不倚,實(shí)現(xiàn)綜合治理、協(xié)同治理。
五、結(jié)論
在應(yīng)用算法的個(gè)人信息自動(dòng)化決策場(chǎng)合,個(gè)人信息處理者(同時(shí)也是算法決策者)需要承擔(dān)相應(yīng)的說(shuō)明義務(wù),本文將之稱為算法說(shuō)明義務(wù)。這在規(guī)范上和理論上均可得到解釋和證成,但同時(shí)也面臨著障礙。因此,算法說(shuō)明義務(wù)有一定限度。算法說(shuō)明義務(wù)的目的在于提供算法的有用信息,主要包括技術(shù)和應(yīng)用兩大方面。在技術(shù)上,可以說(shuō)明的是系統(tǒng)功能、技術(shù)本質(zhì)、整體方案、基本邏輯、主要參數(shù)及大致權(quán)重、使用的數(shù)據(jù)類別和范圍、數(shù)據(jù)的相關(guān)性、自動(dòng)化決策的用戶畫(huà)像如何生成等有用信息??刹挥枵f(shuō)明的是算法的技術(shù)細(xì)節(jié)、具體運(yùn)算方式、詳細(xì)的參數(shù)和權(quán)重;動(dòng)態(tài)化、智能化的人工智能神經(jīng)網(wǎng)絡(luò)層數(shù)和決策參數(shù)更是無(wú)需說(shuō)明,在事實(shí)上也無(wú)法說(shuō)明。在算法應(yīng)用上,應(yīng)當(dāng)說(shuō)明的是算法的用途和目的、算法決策可能存在的不足和風(fēng)險(xiǎn)、是否存在人工干預(yù)、對(duì)決策結(jié)果進(jìn)行重新審查的條件和程序等信息。算法說(shuō)明義務(wù)既包括事前說(shuō)明,也包括面向特定對(duì)象、就特定決策進(jìn)行的事后說(shuō)明。該義務(wù)主要圍繞算法這種個(gè)人信息的處理方式而展開(kāi),同時(shí)涉及個(gè)人信息處理的目的和范圍,與一般意義上的信息處理者的說(shuō)明義務(wù)在本質(zhì)上具有一致性,可謂一脈相承。
本文從義務(wù)角度研究個(gè)人信息保護(hù)規(guī)范不僅具有學(xué)術(shù)上的轉(zhuǎn)向作用,也具有重要的實(shí)踐意義。我國(guó)學(xué)界對(duì)個(gè)人信息是權(quán)利還是權(quán)益存在理論爭(zhēng)議。其實(shí),無(wú)論是權(quán)利,還是權(quán)益,都存在對(duì)應(yīng)的義務(wù),違反義務(wù)才會(huì)產(chǎn)生法律責(zé)任。明確義務(wù)的內(nèi)涵和范圍,對(duì)法律的實(shí)施至關(guān)重要。因此,在理論上繼續(xù)探討個(gè)人信息權(quán)利(權(quán)益)的性質(zhì)和地位之余,加強(qiáng)個(gè)人信息的保護(hù)義務(wù)研究,可深化對(duì)個(gè)人信息保護(hù)規(guī)范的理解,促進(jìn)法律規(guī)則的實(shí)施。
本文責(zé)任編輯:林士平