亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        算法透明的法律實現(xiàn)與限定
        ——基于商業(yè)秘密保護(hù)的視角

        2024-01-12 04:20:14楊瑩瑩
        電子知識產(chǎn)權(quán) 2023年11期
        關(guān)鍵詞:商業(yè)秘密公共利益利益

        文 / 楊瑩瑩

        一、問題的提出

        伴隨大數(shù)據(jù)和人工智能技術(shù)的發(fā)展,以大數(shù)據(jù)為基礎(chǔ)的算法跨越網(wǎng)絡(luò)和物理空間、跨越公共和私人領(lǐng)域,給社會治理和個人生活帶來深刻而復(fù)雜的影響。算法在廣泛運(yùn)用于諸多場景的同時,其兩面性也逐漸凸顯:在積極層面,算法因其理性、客觀性、精準(zhǔn)性優(yōu)勢為商業(yè)領(lǐng)域和公共領(lǐng)域帶來了效率。在消極層面,算法因其不透明性、價值非中立性特征使得個人自治價值不斷被消解、社會原有秩序價值逐漸偏移和異化。在算法自動化決策背景下,普通個人處于無從知曉、無力掌握的失控局面,自由和尊嚴(yán)無法得到保障。如基于個體偏好預(yù)測并迎合的個性化推送使得個體不知不覺中被困于“信息繭房”,單一偏狹的信息攝入阻礙了個體自由的實現(xiàn);基于效益最大化導(dǎo)向的算法目標(biāo)設(shè)定與康德所言的“人是目的,不是手段”相背離,使得人性尊嚴(yán)的價值內(nèi)核也逐漸偏離。此外,算法決策以更為隱蔽的方式給社會秩序價值帶來了負(fù)面效應(yīng)。其中,以“算法歧視”問題尤為突出。反壟斷語境下,算法歧視(如價格歧視)可能造成排除、限制競爭的損害后果,擾亂市場競爭秩序,攫取更多的消費(fèi)者剩余;平等權(quán)語境下,算法歧視屢屢在就業(yè)1. See Allan G.King&Marko J.Mrkonich, Big Data and the Risk of Employment Discrimination, Oklahoma Law Review,Vol.68:555, pp.555-584(2016).、金融信貸2. See Danielle Keats Citron&Frank Pasquale, The Scored Society:Due Process for Automated Predictions, Washington Law Review, Vol.89:1, pp.1-33 (2014).等領(lǐng)域中恣意表達(dá)性別、身份偏好,在ChatGPT 等生成式人工智能領(lǐng)域中甚至可能會被進(jìn)一步延續(xù)或放大3. David Mhlanga, Open AI in Education, the Responsible and Ethical Use of ChatGPT Towards Lifelong Learning,at https://ssrn.com/abstract=4354422(Last visited on May 21, 2023).。面對深深嵌入生活各個方面的算法自動化決策,社會公眾在失去控制權(quán)、選擇權(quán)的狀態(tài)下,對于技術(shù)失范威脅社會公平正義的憂慮也集中指向了算法自動化決策的“不透明”和“缺乏監(jiān)督”。

        既有的算法規(guī)制理論體系包含了算法的風(fēng)險、工具和目標(biāo)三大部分。4. 周翔:《算法可解釋性:一個技術(shù)概念的規(guī)范研究價值》,載《比較法研究》2023年第3 期,第188 頁。如前所述,算法自動化決策可能帶來的一系列風(fēng)險備受關(guān)注,對風(fēng)險進(jìn)行防范成為算法規(guī)制理論建構(gòu)的共識。對此,不少國家和地區(qū)從算法規(guī)制目標(biāo)層面提出了算法透明的要求。在國際層面,以美國和歐盟為代表的國家和地區(qū)紛紛探尋算法治理之道,并作出了有益嘗試。5. 例如,2018年5月,歐盟《通用數(shù)據(jù)保護(hù)條例》正式生效,第5 條引入了關(guān)于個人數(shù)據(jù)處理應(yīng)遵循合法、公正和透明性等一般原則,第12 條至第22 條賦予了數(shù)據(jù)主體新型權(quán)利、更為嚴(yán)格地規(guī)定了數(shù)據(jù)控制者和處理者的責(zé)任,并針對算法自動決策設(shè)置了相關(guān)條款。又如,2021年5月,美國《算法公正與在線平臺透明度法案》從用戶、監(jiān)管部門和公眾三個維度提出算法透明的要求;2022年2月,美國民主黨參議員提出《2022年算法責(zé)任法案》,該法案提出了酌情報告或披露算法等信息的一系列要求,是美國關(guān)于算法治理專門立法的一次重要探索。在國內(nèi)層面,我國2021年11月施行的《中華人民共和國個人信息保護(hù)法》(以下簡稱《個人信息保護(hù)法》)回應(yīng)社會關(guān)切,就個人信息處理公開、透明作出了原則性規(guī)定。2022年3月施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦管理規(guī)定》)鼓勵優(yōu)化算法規(guī)則的透明度和可解釋性。上述法律法規(guī)的出臺表明了我國規(guī)制算法、堅持算法透明的立法態(tài)度。盡管算法“應(yīng)當(dāng)透明”的問題已在立法中得到體現(xiàn),但連接“風(fēng)險”和“目標(biāo)”的算法透明“工具”,如算法披露和公開、個體賦權(quán)等,與商業(yè)秘密保護(hù)之間的沖突十分引人注目。倘若算法或其部分信息受到商業(yè)秘密的保護(hù),這將使得實現(xiàn)算法透明與保護(hù)商業(yè)秘密二者之間的取舍成為難題。我國現(xiàn)有關(guān)于算法透明的規(guī)范缺乏系統(tǒng)性構(gòu)造,與商業(yè)秘密保護(hù)制度的銜接缺乏協(xié)調(diào)性,這在一定程度上阻礙了算法透明目標(biāo)的有效實現(xiàn)。算法透明與商業(yè)秘密保護(hù)之間的協(xié)調(diào),實質(zhì)上是考量如何在鼓勵投資、鼓勵創(chuàng)新的背景下,以尊重知識產(chǎn)權(quán)、保護(hù)私權(quán)為前提,引導(dǎo)算法自動化決策透明,同時對行權(quán)進(jìn)行一定限制的利益平衡問題。為了適應(yīng)對數(shù)字經(jīng)濟(jì)常態(tài)化監(jiān)管的要求,需要對算法透明工具的整體框架及其限度作出正面回應(yīng),就商業(yè)秘密保護(hù)限制制度進(jìn)行完善,在現(xiàn)行法基礎(chǔ)之上助力算法透明的實現(xiàn)與商業(yè)秘密的保護(hù),促進(jìn)算法生態(tài)規(guī)范發(fā)展。

        二、現(xiàn)行法視野下算法透明的展開

        算法時代,社會逐漸形成了“資源由算法支配,而算法技術(shù)的運(yùn)用實際上賦予了算法主體權(quán)力屬性”的結(jié)構(gòu)形態(tài),導(dǎo)致普通個人在算法社會中處于最弱的一角,6. 參見張愛軍:《算法政治“三角”關(guān)系的構(gòu)建:穩(wěn)定性邏輯與可能性建構(gòu)——以抖音算法為例》,載《天津行政學(xué)院學(xué)報》2023年第2 期,第45-46 頁。在傳統(tǒng)治理框架下難以尋求救濟(jì)。而算法透明是法律回應(yīng)算法妨害的各種路徑中最直接、有效和恰當(dāng)?shù)姆绞健?. 汪慶華:《算法透明的多重維度和算法問責(zé)》,載《比較法研究》2020年第6 期,第165 頁。算法透明不僅具有輔助算法問責(zé)和改進(jìn)算法設(shè)計的工具價值,更具有增進(jìn)算法社會交往、理性與信任,監(jiān)督算法權(quán)力的內(nèi)生價值,8. 參見安晉城:《算法透明層次論》,載《法學(xué)研究》2023年第2 期,第53-57 頁。逐漸成為各國和地區(qū)算法規(guī)制的重要目標(biāo)。為達(dá)至算法透明這一目標(biāo),需要一個能使受算法決策影響的個人和社會公眾充分了解、理解算法信息的途徑,即應(yīng)披露算法信息。然而,在實務(wù)中算法往往被當(dāng)作商業(yè)秘密進(jìn)行保護(hù),這也致使涉及代碼、公式、參數(shù)權(quán)重層面的算法披露均難以繞開商業(yè)秘密的保護(hù)區(qū)。9. 參見林洹民:《個人對抗商業(yè)自動決策算法的私權(quán)設(shè)計》,《清華法學(xué)》2020年第4 期,第130-132 頁。如何妥善處理算法透明與商業(yè)秘密保護(hù)之間的緊張關(guān)系成為當(dāng)下不容忽視的問題。

        (一)算法透明目標(biāo)的現(xiàn)實需求

        近年來,從歐盟《通用數(shù)據(jù)保護(hù)條例》《算法問責(zé)及透明度監(jiān)管框架》、美國聯(lián)邦政府層面的《過濾泡沫透明度法案》《算法公正與在線平臺透明度法案》《2022年算法責(zé)任法案》、英國《算法透明度標(biāo)準(zhǔn)》等,到我國《個人信息保護(hù)法》《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》《算法推薦管理規(guī)定》等法律文件中,“算法透明”成為了各國和地區(qū)規(guī)制算法的重要目標(biāo),這既反映了國際算法治理立法趨勢,也體現(xiàn)了算法透明化的現(xiàn)實需求。

        1.算法透明是“算法生態(tài)”規(guī)范發(fā)展的重要前提

        將算法透明作為算法治理的目標(biāo),其直接原因是算法的復(fù)雜性和不可知性為掩蓋算法妨害提供了天然保護(hù)屏障,而算法透明旨在為審查或檢驗是否存在算法妨害提供助力。當(dāng)算法設(shè)計者或使用者刻意為算法披上“不可知”的外衣,因果關(guān)系的隱藏或復(fù)雜化隔絕了社會公眾的感知,極易導(dǎo)致算法相對人合法權(quán)益受損以及作為法治基石的問責(zé)機(jī)制失靈。10. 參見衣俊霖:《數(shù)字孿生時代的法律與問責(zé)——通過技術(shù)標(biāo)準(zhǔn)透視算法黑箱》,載《東方法學(xué)》2021年第4 期,第82 頁。正如阿里爾·扎拉奇和莫里斯·斯圖克所言,普通個人在面臨算法自動化決策時就好比“楚門的世界”中一樣,處于被人為操控并精心設(shè)計好的舞臺中卻不自知,而最大的受益者是親手打造并編制這個虛擬世界的制作人。11. 參見【英】阿里爾·扎拉奇、【美】莫里斯·E·斯圖克:《算法的陷阱:超級平臺、算法壟斷與場景欺騙》,余瀟譯,中信出版集團(tuán) 2018年版,第40 頁。提高算法透明度能夠讓社會公眾或算法監(jiān)管機(jī)構(gòu)了解算法是如何工作的,是否存在算法妨害風(fēng)險,進(jìn)而保護(hù)算法相對人的合法權(quán)益和社會公共利益。例如,當(dāng)算法的不當(dāng)利用帶來了對消費(fèi)者、市場競爭秩序的潛在損害,算法透明有助于識別算法歧視、算法共謀,為執(zhí)法機(jī)關(guān)在反壟斷案件中獲得證據(jù)。因此,為規(guī)范算法權(quán)力的正當(dāng)行使,算法透明成為重要前提。

        2.算法透明是“信任生態(tài)”系統(tǒng)構(gòu)筑的核心樞紐

        信任是社會交往和理性發(fā)展中不可或缺的基石,算法透明度的缺乏會削弱個體對算法技術(shù)、數(shù)字市場的信任。算法透明與算法信任是正向關(guān)系,尤其對于社會個體而言,實現(xiàn)算法透明是維系算法信任的核心樞紐。以大數(shù)據(jù)為基礎(chǔ)的算法自動化決策并非一個全然與價值無涉的中立過程,而是蘊(yùn)含著特定的價值判斷。數(shù)據(jù)、算法設(shè)計和結(jié)果均有可能對算法自動決策結(jié)果產(chǎn)生錯誤或歪曲的影響。12. SeeSolon Barocas & Andrew D Selbst, 'Big Data's Disparate Impact, California Law Review, Vol.104:671, p.680(2016);James Grimmelmann & Daniel Westreich, Incomprehensible Discrimination, California Law Review Online, Vol.7:164, pp.164-177(2017).“算法歧視”“算法合謀”“信息繭房”等問題層出不窮,在引發(fā)人們對算法黑箱問題擔(dān)憂的同時,也逐漸使人們產(chǎn)生了“算法厭惡”(algorithm aversion),這會導(dǎo)致人們在信任受損后主觀上更加抗拒算法自動化決策,最終不利于算法經(jīng)濟(jì)的長期發(fā)展。因此,提升算法透明度使受算法影響的個人有機(jī)會知曉個人數(shù)據(jù)自動處理的邏輯,有助于提升其對算法自動決策的掌控感,彌合算法主體與普通個體之間的“數(shù)字鴻溝”,進(jìn)而維系算法信任、間接預(yù)防算法設(shè)計目標(biāo)偏離。

        3.算法透明是既有路徑的有益補(bǔ)充

        面對算法妨害,不論是個人還是社會整體,在現(xiàn)有法律框架下均難以尋求救濟(jì)。

        從受算法影響的個體來看,既有民商法制度框架下的合同效力制度不能對實體不公平本身提供救濟(jì);違約請求權(quán)無力回應(yīng)自動化決策相對人知曉具體算法決策理由的訴求,即便是不利的自動化決策,在受到侵權(quán)責(zé)任的過錯、因果關(guān)系等構(gòu)成要件的多重限制的情況下,也難以滿足侵權(quán)責(zé)任之構(gòu)成要件;13. 張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第3 期,第 66-68 頁。在消費(fèi)者權(quán)益保護(hù)制度下,我國《消費(fèi)者權(quán)益保護(hù)法》并未明確將“算法歧視”納入規(guī)制范圍,消費(fèi)者可依據(jù)的僅有該法第8 條“知情權(quán)”、第9 條“自由選擇權(quán)”以及第10 條“公平交易權(quán)”。然而,基于算法的法律定位仍為企業(yè)的工具而非商品,消費(fèi)者知情權(quán)無法提供真正的算法解釋。14. 張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第3 期,第 66-68 頁。此外,由于算法社會算法主體與消費(fèi)者信息占有不對稱,加之頭部互聯(lián)網(wǎng)企業(yè)對消費(fèi)者的鎖定效應(yīng),消費(fèi)者的自由選擇權(quán)在客觀上表現(xiàn)為一種轉(zhuǎn)向困難下的主觀不能。

        從受算法影響的社會整體來看,盡管我國《反壟斷法》第9 條明確規(guī)定經(jīng)營者不得利用數(shù)據(jù)和算法、技術(shù)、資本優(yōu)勢以及平臺規(guī)則等從事本法禁止的壟斷行為,但適用反壟斷法規(guī)制個性化定價算法的濫用需要證明具有市場支配地位的經(jīng)營者利用數(shù)據(jù)和算法向不同消費(fèi)者收取了歧視性的價格,同時該行為對于市場還存在反競爭的損害效果。15. 參見周圍:《人工智能時代個性化定價算法的反壟斷法規(guī)制》,載《武漢大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2021年第1期,第118 頁。而個性化定價在競爭損害上又具有復(fù)雜性和模糊性,無論是執(zhí)法部門,抑或是受到歧視性對待的最終消費(fèi)者,在實際案件中都將承擔(dān)較高的舉證難度。

        簡言之,由于算法決策負(fù)面效應(yīng)的核心根源離不開“算法黑箱”問題,而現(xiàn)有法律框架在應(yīng)對算法妨害時具有局限性。因此,面對算法黑箱滋生出的算法權(quán)力,亟需算法透明緩解信息不對稱、規(guī)范算法應(yīng)用實施,促進(jìn)個人自治、社會公平正義價值的實現(xiàn)。

        (二)算法透明工具的核心構(gòu)造

        如何設(shè)計算法透明工具以化解算法自動化決策風(fēng)險、實現(xiàn)算法透明的目標(biāo),是既有算法規(guī)制理論中爭議最大也是最困難的部分。對此,學(xué)界已有部分研究成果,并就算法透明工具作了初步梳理。16. 如有學(xué)者提出算法透明是算法事前規(guī)制的代表,指的是“要求算法主體(設(shè)計者或使用者)打開算法黑箱,將與算法運(yùn)作原理、算法決策過程有關(guān)的信息或公之于眾,或報送主管部門?!眳⒁娎畎玻骸端惴ㄍ该髋c商業(yè)秘密的沖突及協(xié)調(diào)》,載《電子知識產(chǎn)權(quán)》2021年第4 期,第26 頁;有學(xué)者進(jìn)一步概括了算法透明包含的內(nèi)容,“算法透明具體包含著從告知義務(wù)、向主管部門報備參數(shù)、向社會公開參數(shù)、存檔數(shù)據(jù)和公開源代碼等不同形式,算法解釋權(quán)也可以看成是算法透明原則的具體化體現(xiàn)。”參見汪慶華:《算法透明的多重維度和算法問責(zé)》,載《比較法研究》2020年第6 期,第166 頁。既有關(guān)于算法透明工具的研究雖各有側(cè)重,但總體而言可以歸納為以下兩類:一是限權(quán)型工具,主要從算法權(quán)力范圍、正當(dāng)程序、問責(zé)機(jī)制等方面進(jìn)行制度設(shè)計,以制約算法權(quán)力、防止算法權(quán)力異化。例如,限制算法的應(yīng)用條件與范圍、建立算法標(biāo)準(zhǔn)化、實行算法參數(shù)備案、進(jìn)行算法影響評估、開展算法合規(guī)審計等。二是賦權(quán)型工具,即從私法的角度賦予用戶一定的民事權(quán)利以實現(xiàn)與算法主體之間的平衡,主要包括賦予數(shù)據(jù)主體算法解釋權(quán)(也有學(xué)者從義務(wù)角度出發(fā),指出我國現(xiàn)行法實際規(guī)定了相關(guān)主體的算法解釋義務(wù)17. 參見呂炳斌:《論個人信息處理者的算法說明義務(wù)》,載《現(xiàn)代法學(xué)》2021年第4 期,第90-92 頁。)、知情權(quán)以及理解權(quán)等。在實現(xiàn)算法透明的工具設(shè)計中,不論是限權(quán)型工具還是賦權(quán)型工具,都將可能涉及一定算法信息的公開披露。尤其是其中被視為算法治理制度核心的“算法解釋權(quán)”,18. 參見張欣:《算法解釋權(quán)與算法治理路徑研究》,載《中外法學(xué)》2019年第6 期,第1426 頁。與商業(yè)秘密之間的矛盾最為尖銳。以下將主要圍繞算法解釋權(quán)的基本構(gòu)造展開。

        學(xué)界有關(guān)算法解釋權(quán)的研究幾乎都以歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)為基礎(chǔ)樣本,其中第22 條以及背景序言第71 條更是被多數(shù)學(xué)者視為“算法解釋權(quán)”的經(jīng)典條款。在某種程度上,GDPR 首次為個人引入了解釋權(quán),以便在面對算法自動化決策時獲得“對相關(guān)邏輯的有意義的解釋”。19. See Riccardo Guidotti, et al., A Survey of Methods for Explaining Black Box Models, ACM Computing Surveys (CSUR),Vol. 51:1, p.2(2018).雖然GDPR 并未明確提出“算法解釋權(quán)”概念,但有學(xué)者結(jié)合第22 條和序言第71 條,將算法解釋權(quán)總結(jié)為“當(dāng)自動化決策的具體決定對相對人有法律上或者經(jīng)濟(jì)上的顯著影響時,相對人向算法使用人提出異議,要求提供具體決策解釋,并要求更新數(shù)據(jù)或更正錯誤的權(quán)利?!?0. 張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第3 期,第68 頁。與之相似的是,我國《個人信息保護(hù)法》第24 條同樣采用了賦予數(shù)據(jù)主體權(quán)利對抗算法自動化決策的立法范式。針對個人信息處理者利用個人信息進(jìn)行自動化決策的情形,《個人信息保護(hù)法》第24 條強(qiáng)調(diào)決策的透明度和結(jié)果公平、公正,并且規(guī)定了“對個人權(quán)益有重大影響”下的解釋說明義務(wù)。實際上,這也是對《民法典》第1035 條要求個人信息處理者必須滿足“公開處理信息的規(guī)則”和“明示處理信息的目的、方式和范圍”這兩項前提條件的重申。此外,《算法推薦管理規(guī)定》針對信息服務(wù)提供者推薦算法的使用場景,為算法推薦服務(wù)提供者設(shè)置了算法解釋義務(wù),該規(guī)定第15 條第3 款設(shè)置了用戶的算法解釋請求權(quán)及其他相關(guān)請求權(quán),其中的“說明”可以被理解為算法解釋。21. 蘇宇:《優(yōu)化算法可解釋性及透明度義務(wù)之詮釋與展開》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2022年第1 期,第140 頁。在算法推薦場景下,此處為算法推薦服務(wù)提供者設(shè)置解釋義務(wù)還包含了對“運(yùn)行機(jī)制”的解釋,已然超越了一般告知義務(wù),即僅就“處理目的、方式和范圍”進(jìn)行告知的要求,體現(xiàn)了在算法應(yīng)用場景下更高的解釋義務(wù)要求??傮w而言,鑒于我國個人信息處理者和算法使用者往往與平臺企業(yè)高度重合的實際情形,我國將算法透明目標(biāo)內(nèi)嵌于平臺治理框架之中,通過在平臺應(yīng)用場景中為個人信息處理者、算法使用者設(shè)置解釋說明的義務(wù)以保護(hù)用戶知情權(quán)、實現(xiàn)算法自動化決策的透明化,形成了圍繞個人信息保護(hù)對算法自動化決策進(jìn)行規(guī)制的法律框架。

        結(jié)合現(xiàn)行法和既有研究,算法解釋權(quán)主要有以下幾方面特征:其一,就算法解釋權(quán)的性質(zhì)來看,應(yīng)當(dāng)屬于請求權(quán)的范疇。22. 解正山:《算法決策規(guī)制——以“算法解釋權(quán)”為中心》,載《現(xiàn)代法學(xué)》2020年第1 期,第180-181 頁。實質(zhì)上,算法解釋權(quán)可以理解為一種工具性權(quán)利,同時也具有目的性權(quán)利的特征。前者是指該權(quán)利更多情況下是算法相對人保障自身權(quán)益的一種手段,算法相對人通過算法解釋權(quán)獲取信息是為了采取進(jìn)一步的法律行動,如當(dāng)人格尊嚴(yán)、人身財產(chǎn)安全等利益受到侵害時,以及時對算法主體提起訴訟等;后者是指算法相對人知情權(quán)的行使僅僅是為了可主動明晰個人信息如何被處理、使用,是個人隱私權(quán)的自然延伸,即數(shù)據(jù)主體對數(shù)據(jù)處分、控制的權(quán)利。23. 參見王聰:《“共同善”維度下的算法規(guī)制》,載《法學(xué)》2019年第12 期,第76 頁。其二,就算法解釋的具體內(nèi)容來看,學(xué)界探討的算法解釋內(nèi)容包括決策系統(tǒng)的邏輯、意義、設(shè)想后果和一般功能以及具體決策的基本原理、理由和個體情況;或者包括決策過程中所使用的數(shù)據(jù)、代碼、決策目標(biāo)、結(jié)果、合規(guī)情況、利益沖突情況、數(shù)據(jù)使用方法等信息。24. 胡小偉:《人工智能時代算法風(fēng)險的法律規(guī)制論綱》,載《湖北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2021年第2 期,第124 頁。其三,就算法解釋的標(biāo)準(zhǔn)來看,大體分為形式性標(biāo)準(zhǔn)和實質(zhì)性標(biāo)準(zhǔn)。對于形式性標(biāo)準(zhǔn),學(xué)界大體無爭議,即應(yīng)當(dāng)以“易見、易懂、易讀”的方式提供;對于實質(zhì)性標(biāo)準(zhǔn),學(xué)界尚未達(dá)成共識。有觀點認(rèn)為,應(yīng)以相關(guān)性和相對人的可理解性作為算法解釋的標(biāo)準(zhǔn)。25. 張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第3 期,第72 頁。其四,從算法解釋的啟動時機(jī)和前提來看,多數(shù)觀點認(rèn)為算法解釋權(quán)應(yīng)在事后啟動,前提應(yīng)當(dāng)限定在對用戶個人有重大影響的情況。

        算法解釋權(quán)是個人數(shù)據(jù)保護(hù)理論下的自然延伸,是算法經(jīng)濟(jì)下信息不對稱的典型“糾正”手段,為個人防御算法侵害提供了權(quán)利武器,對于從源頭端防治算法錯誤、算法歧視、算法標(biāo)簽等算法侵害無疑具有重要意義。

        (三)算法透明實現(xiàn)的法律阻礙

        為達(dá)至算法透明這一目的,需要一個能讓受算法決策影響者和社會公眾充分了解、理解算法信息的途徑,即披露算法信息。然而,由于涉及代碼、公式、參數(shù)權(quán)重層面的算法披露均難以繞開商業(yè)秘密的保護(hù)區(qū),26. 參見林洹民:《個人對抗商業(yè)自動決策算法的私權(quán)設(shè)計》,載《清華法學(xué)》2020年第4 期,第130-132 頁。故而,商業(yè)秘密保護(hù)制度也成為了具體場景下阻斷算法透明化的法律障礙。

        在實踐層面,算法主體往往選擇將算法及其源代碼等作為商業(yè)秘密進(jìn)行保護(hù),27. See Sonia K. Katyal, Private Accountability in the Age of Artificial Intelligence, UCLA Law Review, Vol.66:54, p.125 (2019).以維系其在市場中的競爭優(yōu)勢。從對算法保護(hù)的現(xiàn)實需求來看,由于專利須以公開技術(shù)方案換取保護(hù),故而“商業(yè)秘密是專利權(quán)常用的替代制度”。28. 參見【美】理查德·A·波斯納:《法律的經(jīng)濟(jì)分析》,蔣兆康譯,法律出版社2012年版,第54 頁。從市場競爭的角度來看,算法的經(jīng)濟(jì)價值取決于其保密性,算法開發(fā)者也具有內(nèi)在動力去保持算法的復(fù)雜性和晦澀性,從而避免公開帶來利益受損的風(fēng)險。商業(yè)秘密制度作為技術(shù)保護(hù)的重要私法制度,將算法作為商業(yè)秘密進(jìn)行保護(hù)有利于防止其他競爭者的搭便車行為。29. 參見孫建麗:《試論算法的法律保護(hù)模式》,載《電子知識產(chǎn)權(quán)》2019年第6 期,第43 頁。

        在法理層面,從勞動價值理論來看,算法是算法主體的私有財產(chǎn),算法研發(fā)、運(yùn)用過程所匯聚的大量人財物力投入需要相應(yīng)的權(quán)利(益)保護(hù)。提升算法透明度的同時需要對合法的私有財產(chǎn)予以充分尊重。若法律強(qiáng)制對算法開發(fā)者或使用者施加充分公開和完全透明的解釋義務(wù),這不僅與勞動價值理論相悖,也可能會阻礙算法技術(shù)的研發(fā),抑制算法應(yīng)用的創(chuàng)新和發(fā)展。從商業(yè)秘密的構(gòu)成要件來看,商業(yè)秘密是一種無形的信息財產(chǎn),具有秘密性、價值性和保密性三個要素。而商業(yè)秘密的“秘密性”在權(quán)利存續(xù)期間應(yīng)當(dāng)是一種持續(xù)狀態(tài),并由權(quán)利人的“保密性”措施來維系,30. 參見吳漢東:《試論“實質(zhì)性相似+接觸”的侵權(quán)認(rèn)定規(guī)則》,載《法學(xué)》2015年第8 期,第69 頁。若完全的算法透明必然會破壞商業(yè)秘密的“秘密性”從而損害權(quán)利人的合法利益。因此,基于商業(yè)秘密的特性,算法及其所涉數(shù)據(jù)等信息的商業(yè)秘密保護(hù)將對算法披露和說明構(gòu)成實質(zhì)性的限制。

        在立法層面,我國也已明確將算法作為信息技術(shù)納入商業(yè)秘密保護(hù)的范疇,31. 參見《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》第一條。并強(qiáng)調(diào)保護(hù)算法知識產(chǎn)權(quán)的重要性。2021年,國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部等機(jī)關(guān)聯(lián)合發(fā)布的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》中也明確指出,“引導(dǎo)算法應(yīng)用公平公正、透明可釋”同時“保護(hù)算法知識產(chǎn)權(quán)”,反映了算法透明與知識產(chǎn)權(quán)保護(hù)的重要地位,即算法透明應(yīng)以尊重算法知識產(chǎn)權(quán)保護(hù)為前提。

        在司法層面,法院在案件審判過程中也傾向于因商業(yè)秘密保護(hù)而拒絕公開算法的請求。例如,在日本“Tabelog 算法濫用案”32. 《日本大眾點評敗訴!因點評系統(tǒng)算法不公平》,https://jp.hjenglish.com/new/p1377640/,最后訪問日期:2023年6月23日。中,餐飲店“韓流村”認(rèn)為Tabelog 平臺(與我國的“大眾點評網(wǎng)”平臺功能類似)下調(diào)連鎖店評分的算法機(jī)制變更屬于優(yōu)勢地位的濫用,要求Tabelog平臺公開點數(shù)計算的算法,但法院以算法為商業(yè)秘密為由駁回了公開算法的請求。在“Viacom 訴YouTube 案”33. Mark MacCarthy,Standards of fairness for disparate impact assessment of big data algorithms, Cumb. L. Rev, Vol.48:67(2017).中,盡管審查計算機(jī)源代碼是判斷YouTube 搜索功能算法是否存在提升排名等不正當(dāng)行為的唯一解決方案,但是法院仍以保護(hù)商業(yè)秘密為由拒絕了原告強(qiáng)制披露被告計算機(jī)源代碼的請求。在事關(guān)個人自由的刑事司法背景下,算法的商業(yè)秘密保護(hù)障礙尤為顯著。在“美國威斯康星州訴Loomis 案”34. See State of Wisconsinv. Eric L.Loomis, 881 N.W.2d749 (2016).中,Loomis 質(zhì)疑由COMPAS(犯罪累犯風(fēng)險預(yù)測模型)所計算刑期的合法合理性,認(rèn)為該模型含有強(qiáng)烈的種族偏見,并請求公開解釋算法,但法官將COMPAS 算法視為商業(yè)秘密,駁回了對算法進(jìn)行解釋的請求??v觀我國現(xiàn)階段涉及算法披露訴求的案例,我國法院也將算法認(rèn)定為商業(yè)秘密進(jìn)行保護(hù)。例如,在“億桐公司與百度公司服務(wù)合同糾紛案”35. 參見北京市第一中級人民法院(2023)京01 民終2697 號民事判決書。與“陳魚與阿里媽媽公司服務(wù)合同糾紛案”36. 參見杭州鐵路運(yùn)輸法院(2017) 浙 8601 民初 3306 號民事判決書。中,法院均以保護(hù)算法商業(yè)秘密為由拒絕披露具體算法的請求。以上類似情形,不勝枚舉。

        綜上所言,算法透明成為規(guī)制算法的重要目標(biāo)具有其客觀現(xiàn)實需求,但算法透明,特別是其核心工具——算法解釋權(quán),與商業(yè)秘密保護(hù)形成強(qiáng)烈對抗。如何解決沖突雙方均主張各自權(quán)利的對峙局面成為當(dāng)下不容忽視的重要命題。

        三、“調(diào)和論”視角下算法透明與商業(yè)秘密的利益平衡

        西方傳統(tǒng)思想認(rèn)為,所有善可以相互包容并且共存,但英國哲學(xué)家以賽亞·柏林提出,“善”與“善”之間不可相容、不可公度。37. 參見梁上上:《異質(zhì)利益衡量的公度性難題及其求解——以法律適用為場域展開》,載《政法論壇》2014年第4 期,第3 頁。算法透明與商業(yè)秘密保護(hù)之間即存在難以避免的沖突,具體體現(xiàn)為法律利益之間的沖突,其解決之道在于衡量二者之間的沖突利益并尋求利益的平衡。依照傳統(tǒng)思路,充分的利益解構(gòu)是利益衡量的必要前提,而利益衡量則是利益解構(gòu)后的必然延續(xù)。利益位階法下,衡量是否能夠阻卻商業(yè)秘密保護(hù)實現(xiàn)算法透明化,實際上就是尋找算法透明背后是否具有更高位階的利益予以優(yōu)先保護(hù)。本文基于橫向解構(gòu)與縱向衡量后認(rèn)為,算法透明與算法商業(yè)秘密保護(hù)之間并不存在普適性的理由使前者凌駕于后者之上。因此,算法透明的實現(xiàn)需要轉(zhuǎn)向“調(diào)和”視角,即彼此讓渡一定非核心利益以達(dá)至整體利益最大化。

        (一)利益的橫向解構(gòu)與縱向衡量

        按照不同的分類標(biāo)準(zhǔn),利益可以呈現(xiàn)為多元多層次的樣態(tài),既存在同質(zhì)利益之間的衡量,也存在異質(zhì)利益之間的衡量。大體而言,可以將利益衡量分為橫向和縱向兩個維度。橫向維度基于事實進(jìn)路展開,需要對所涉利益結(jié)構(gòu)進(jìn)行充分的解構(gòu)分析;縱向維度基于規(guī)范進(jìn)路展開,需要對所涉利益進(jìn)行價值判斷、衡量利益重要性差異。

        1.沖突利益的橫向解構(gòu)

        從橫向衡量的維度來看,將算法透明與算法商業(yè)秘密所涉利益按照主體進(jìn)行橫向劃分,可以分為個人利益以及公共利益。其中,個人利益又分為算法主體個人利益和算法相對人個人利益。

        算法主體個人利益與算法相對人個人利益之間的沖突,集中表現(xiàn)為商業(yè)秘密保護(hù)與算法解釋權(quán)的沖突。圖1 所示為算法主體個人利益與算法相對人個人利益的沖突關(guān)系,總體呈現(xiàn)為一個平面的利益結(jié)構(gòu)圖。在這個基礎(chǔ)的利益格局中,二者之間的利益沖突落在了以算法的完全公開以及算法的完全保密為兩端極點的橫軸之間,體現(xiàn)了不同個體之間在利益上此增彼減的關(guān)系。算法相對人主張算法透明,即通過算法解釋權(quán)獲得算法相關(guān)信息以維護(hù)自身合法權(quán)益;而反對披露算法相關(guān)信息的算法主體則基于商業(yè)秘密保護(hù)的目的希望算法“不透明”。商業(yè)秘密在這層沖突關(guān)系中成為了算法主體的“利益放大器”,而利益“放大”導(dǎo)致的沖突后果極易導(dǎo)致算法相對人個人利益的“縮水”。

        圖1 算法主體個人利益與算法相對人個人利益的沖突關(guān)系

        算法主體個人利益與公共利益之間同樣會發(fā)生利益沖突。邁入數(shù)字時代,算法已然成為對社會生活產(chǎn)生整體性影響的關(guān)鍵資源。過度的商業(yè)秘密法律保護(hù)將間接對社會公眾獲取重要信息造成一定阻礙,影響社會監(jiān)督算法決策的合法性,難免招致公共安全風(fēng)險,損害公共利益。圖2 所示為算法主體個人利益與算法相對人個人、社會公共利益的沖突關(guān)系。在圖1的基礎(chǔ)上加上了公共利益之后,可以看到,算法透明背后蘊(yùn)含著民主、自由等深層價值,從總體上看,這與算法主體利益——保護(hù)商業(yè)秘密以維持競爭優(yōu)勢,構(gòu)成一個二維平面的利益結(jié)構(gòu)圖。而在算法公開還是不公開的博弈中,公共利益衡量成為了改變基礎(chǔ)利益關(guān)系的重要砝碼,當(dāng)公共利益向公開的方向傾斜時,成為影響算法公開的最主要的因素。

        圖2 算法主體個人利益與算法相對人個人、社會公共利益的沖突關(guān)系

        2.沖突利益的縱向衡量

        根據(jù)通常的思維慣性,當(dāng)利益之間發(fā)生沖突時會將所涉利益性質(zhì)進(jìn)行對比,分析是否存在某種利益應(yīng)當(dāng)被優(yōu)先考慮,即確定利益位階。在權(quán)利的體系中,權(quán)利位階的存在基本上是一個不爭的事實。但是,從權(quán)利位階視角出發(fā),在此區(qū)域內(nèi)算法主體與算法相對人、社會公眾之間沖突關(guān)系的衡量難以直接得出普適性結(jié)論。

        從表面上看,較之于知識產(chǎn)權(quán)保護(hù),保護(hù)個人的隱私與數(shù)據(jù)權(quán)益似乎更為重要,因為它們關(guān)乎個人的自主及尊嚴(yán)。38. 解正山:《算法決策規(guī)制——以“算法解釋權(quán)”為中心》,載《現(xiàn)代法學(xué)》2020年第1 期,第191 頁。但更進(jìn)一步來看,當(dāng)算法上存在商業(yè)秘密時,基于一般道德理由或法律理由的算法解釋權(quán)能否構(gòu)成對商業(yè)秘密的一種強(qiáng)制衡,還有賴于在具體場景中的論證。受算法所影響的法益可能包括關(guān)乎人的尊嚴(yán)和自由等較高位階的人格利益,但這并不意味著在所有具體場景下可以在商業(yè)秘密這一財產(chǎn)利益面前占據(jù)絕對優(yōu)勢,因為對算法的保護(hù)和自由利用也可以促進(jìn)這些利益的保護(hù)。因此,當(dāng)兩種權(quán)利(益)形成實質(zhì)對峙時,算法解釋權(quán)并非當(dāng)然能夠形成制約商業(yè)秘密的優(yōu)勢理由。

        公共利益也同樣難以成為公開算法商業(yè)秘密的絕對理由。有學(xué)者認(rèn)為,在特定情形下公共利益的分量可以否定算法的商業(yè)秘密保護(hù),39. 陳景輝:《算法的法律性質(zhì): 言論、商業(yè)秘密還是正當(dāng)程序?》,載《比較法研究》2020年第2 期,第127 頁。商業(yè)秘密應(yīng)讓位于代表公共利益的算法解釋規(guī)則。40. See David S. Levine, Secrecy and Unaccountability: Trade Secrets in Our Public Infrastructure, Florida Law Review,Vol.59:135, pp.135-163(2022).誠然,公共利益作為法治社會的基本理念,是整個社會和諧發(fā)展的根本價值,可以構(gòu)成對民事權(quán)益的限制。但是,緣于公共利益本身的復(fù)雜性和高度抽象性,在對民事權(quán)益進(jìn)行限制的時候應(yīng)當(dāng)謹(jǐn)慎適用。另外,公共利益具有普遍性和形式多樣性,算法商業(yè)秘密可能出現(xiàn)公開還是不公開其背后都涉及公共利益的情形。可以發(fā)現(xiàn),雖然算法所涉及的利益主體既包括個人也包括社會公眾,但同時,算法主體的個人利益同樣也會與公共利益之間形成緊密關(guān)聯(lián)。由于算法廣泛內(nèi)嵌到社會的各個領(lǐng)域,算法商業(yè)秘密保護(hù)背后也蘊(yùn)含著相應(yīng)的深層制度價值——鼓勵企業(yè)技術(shù)研發(fā)和創(chuàng)新、提升社會整體創(chuàng)新能力、維護(hù)公平競爭的商業(yè)秩序、促進(jìn)數(shù)字市場經(jīng)濟(jì)的健康發(fā)展、構(gòu)建更高水平的對外開放格局等。如果算法規(guī)制負(fù)擔(dān)過重,將可能導(dǎo)致商業(yè)秘密權(quán)利人創(chuàng)新熱情的積極性嚴(yán)重減退,同時造成數(shù)字產(chǎn)業(yè)發(fā)展上的不利局面。因此,算法透明與算法商業(yè)秘密保護(hù)的對局轉(zhuǎn)化為了不同公共利益之間的衡量。在這種情況下,僅僅依靠公共利益優(yōu)先原則顯然無法解決問題。

        (二)“調(diào)和論”的引入與展開

        利益之所以“衡量”,并非因不同利益之間存在位階權(quán)重差異而需要對其“排序”,這種“排序”不是“衡量”,是確定利益的優(yōu)先性,屬于“沖突論”的解決思路?!昂饬俊敝蛟谟谛枰跓o法比較權(quán)重位階的情形下,考慮如何采取“衡平”的方式使利益得到恰當(dāng)保障。41. 蔡琳:《論“利益”的解析與“衡量”的展開》,載《法制與社會發(fā)展》2015 第1 期,第146 頁。這種衡平觀就是“調(diào)和論”的體現(xiàn)。換言之,作為調(diào)和論解決方案的“衡量”,并非是權(quán)衡利益的相互排除,而是以“利益保障的最大化”為目標(biāo)。42. 蔡琳:《論“利益”的解析與“衡量”的展開》,載《法制與社會發(fā)展》2015 第1 期,第147 頁。“調(diào)和”有利于將價值沖突引向一種相互協(xié)作、助益下達(dá)成的實質(zhì)正義。

        以“調(diào)和”方式平衡算法透明與算法商業(yè)秘密之間的利益具有必要性。若僅通過利益位階的縱向衡量去解決利益沖突,其效用是有限的。因為利益位階的判斷本質(zhì)上是價值判斷,往往難以具備完整的客觀可能性。如上所述,算法透明與算法商業(yè)秘密保護(hù)之間的利益結(jié)構(gòu)實際上并不是單純的平面利益格局,而是存在多重對立關(guān)系的復(fù)合式立體格局。從這一立體結(jié)構(gòu)關(guān)系來看(如圖3 所示),算法透明與商業(yè)秘密保護(hù)均承載著社會公共利益。因此,二者之間的利益“衡量”并不再是可見的物質(zhì)利益之間的比較,而是原則、價值、或是“理想利益”之間的“衡量”,43. 蔡琳:《論“利益”的解析與“衡量”的展開》,載《法制與社會發(fā)展》2015 第1 期,第148 頁。即實質(zhì)上是兩種不同制度內(nèi)生性利益之間的衡量,并外化為具有沖突關(guān)系的兩個層級的對立利益:第一個層次,算法決策正義和法的安定性。公開算法,有利于提高對算法的監(jiān)督,有益于保障算法決策正義。但是算法公開必然涉及法的安定性利益,如果過度公開,就會挫傷算法主體的創(chuàng)新積極性、損害公平競爭的市場經(jīng)濟(jì)秩序。第二個層次,在促進(jìn)算法決策正義這一根本目標(biāo)下,“公開”和“不公開”之間仍然需要進(jìn)行考量。公開算法是為了個人能夠維護(hù)個人權(quán)益、避免遭受算法歧視;不公開算法則是為了避免公開而引起個人隱私泄露、算法算計。故而,需要分別在兩個雙層對立關(guān)系中找到有利于實現(xiàn)算法透明與算法商業(yè)秘密保護(hù)利益平衡與總體最大化的“中間值”,將利益衡量視為指引性的價值原則,轉(zhuǎn)向更加合理的“調(diào)和”思路。

        圖3 算法透明涉及的利益關(guān)系

        以“調(diào)和”方式平衡算法透明與算法商業(yè)秘密之間的利益具有合理性。算法系統(tǒng)運(yùn)作具有技術(shù)封閉性,其技術(shù)細(xì)節(jié)封裝于黑箱之中又具有天然的秘密性。算法透明固然要以保護(hù)商業(yè)秘密這一私權(quán)為前提,但若是以商業(yè)秘密保護(hù)之由全然拒絕算法解釋,無疑會造成規(guī)則隔音進(jìn)而產(chǎn)生一定的負(fù)面效應(yīng),導(dǎo)致事后問責(zé)無從談起。首先,商業(yè)秘密保護(hù)缺乏明確的邊界,也不像權(quán)利化的著作權(quán)、專利權(quán)那樣存在法定的限制和例外,從而缺乏明確的權(quán)利保護(hù)的平衡機(jī)制,需要在個案中進(jìn)行利益衡量。其次,商業(yè)秘密缺乏也不可能具有公示制度,故而號稱受到商業(yè)秘密保護(hù)的算法到底能否構(gòu)成商業(yè)秘密,旁人無從得知。再次,算法的商業(yè)秘密保護(hù)實際上為算法主體提供了強(qiáng)力抗辯理由,可能會對企業(yè)形成過度保護(hù),以致縱容懷有不良動機(jī)的使用者利用算法侵害社會公眾和其他競爭者的合法權(quán)益。44. 參見孫建麗:《試論算法的法律保護(hù)模式》,載《電子知識產(chǎn)權(quán)》2019年第6 期,第39-47 頁。因此,需要在“調(diào)和論”的指導(dǎo)下,使“二者在某一程度上必須各自讓步”。45. 【德】卡爾·拉倫茨:《法學(xué)方法論》,陳愛娥譯,商務(wù)印書館2003年版,第279 頁。

        以“調(diào)和”的方式平衡算法透明與算法商業(yè)秘密之間的利益具有可行性。雖然算法主體與算法相對人、社會公眾實現(xiàn)利益的方式存在矛盾甚至對立,但這種“對立”也并非絕對的不可調(diào)和。算法透明與商業(yè)秘密保護(hù)在數(shù)字經(jīng)濟(jì)背景下具有共同的根本目標(biāo),即二者的內(nèi)核均在于促進(jìn)算法經(jīng)濟(jì)的高質(zhì)量發(fā)展,這為達(dá)成利益的衡平具有相當(dāng)?shù)目尚行?,是達(dá)至平衡狀態(tài)的內(nèi)在根基。市場經(jīng)濟(jì)的繁榮離不開經(jīng)營者的創(chuàng)新和發(fā)展;反之,經(jīng)營者利益的保障也離不開透明、公平、公正的市場經(jīng)濟(jì)環(huán)境。因此,在“調(diào)和論”視角下,算法透明與算法商業(yè)秘密之間的利益協(xié)調(diào)應(yīng)以實現(xiàn)算法透明與算法經(jīng)濟(jì)高質(zhì)量發(fā)展為根本目標(biāo),讓渡非核心利益作為他方實現(xiàn)其核心利益的條件和基礎(chǔ)。一方面,為保障有效的算法監(jiān)管和問責(zé),應(yīng)在盡可能減少對算法主體商業(yè)秘密利益損害的基礎(chǔ)上實現(xiàn)算法透明;另一方面,為維護(hù)市場競爭秩序以及提供創(chuàng)新激勵,應(yīng)在盡可能減少對算法相對人和社會公共利益負(fù)面影響的基礎(chǔ)上保護(hù)算法商業(yè)秘密。

        四、邁向利益平衡的算法透明化路徑構(gòu)思:適當(dāng)?shù)耐该?/h2>

        算法透明最終能否合理落地,能否與商業(yè)秘密保護(hù)之間保持動態(tài)平衡,與算法解釋的范圍和程度具有直接關(guān)聯(lián)。算法解釋所涉算法技術(shù)內(nèi)容各異,“一刀切”式過度“透明”或“保密”極易導(dǎo)致算法透明與商業(yè)秘密保護(hù)之間動態(tài)博弈的結(jié)果失衡,難以實現(xiàn)算法正義。為平衡算法透明與商業(yè)秘密保護(hù),需要從方法論角度對算法解釋框架進(jìn)行重構(gòu)。算法解釋可以遵循分類分級的整體布局以及比例原則下的個案認(rèn)定,構(gòu)筑算法解釋的差序規(guī)制格局,進(jìn)而實現(xiàn)總體的解釋效率和個案的解釋正義。與此同時,進(jìn)一步建立健全多元算法監(jiān)督機(jī)制,實現(xiàn)適當(dāng)?shù)耐该鳌?/p>

        (一)算法解釋的體系化構(gòu)建

        算法分類分級旨在對不同性質(zhì)的算法決策可能引發(fā)的風(fēng)險進(jìn)行程度區(qū)分,并設(shè)置與之相適應(yīng)的算法解釋義務(wù)。分類分級所具有的多層次結(jié)構(gòu)區(qū)隔了不同性質(zhì)和不同風(fēng)險程度的算法決策,有利于合理劃分解釋范圍和精準(zhǔn)匹配監(jiān)管資源,是平衡“透明”與“保密”的有力工具。然而,分類分級僅能就算法決策的共性作出初步指引,具有一定的靜態(tài)性和模糊性。算法正義最終需要在個案中實現(xiàn),在個案認(rèn)定中遵循比例原則具有動態(tài)性和靈活性,從而可以避免算法主體的解釋義務(wù)超出合理范圍,保障算法解釋權(quán)有效實現(xiàn)的同時防止對商業(yè)秘密造成侵害。

        1.整體解釋框架:算法解釋分類分級

        分級分類監(jiān)管、精準(zhǔn)精細(xì)施策的立法思路已經(jīng)在國內(nèi)外立法中廣泛呈現(xiàn)。例如,歐盟GDPR 較早提出基于算法應(yīng)用風(fēng)險的治理路徑,同時還對算法決策類型進(jìn)行了劃分,即分為完全基于自動化和非完全自動化類型。隨后,歐盟在《人工智能法案》中基于不同等級的風(fēng)險提出了分級分類治理框架。46. 《人工智能法案》以對健康、安全和權(quán)益的影響程度為劃分標(biāo)準(zhǔn),將人工智能系統(tǒng)評估后劃分為最小風(fēng)險、有限風(fēng)險、高風(fēng)險和不可接受風(fēng)險四個等級,并對各等級施以差異化監(jiān)管。就我國立法而言,2021年9月發(fā)布的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》首次提出了“算法分級分類安全管理”的概念。隨后,我國《算法推薦管理規(guī)定》也明確指出建立算法分級分類安全管理制度,第2 條第2 款將算法推薦技術(shù)從橫向分為五大類,47. 《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第2 條第2 款規(guī)定,“前款所稱應(yīng)用算法推薦技術(shù),是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調(diào)度決策類等算法技術(shù)向用戶提供信息?!钡?4條、27條區(qū)分出了“具有輿論屬性或者社會動員能力”的算法推薦服務(wù)提供者。此外,該規(guī)定還結(jié)合算法推薦技術(shù)處理的數(shù)據(jù)重要程度、用戶規(guī)模和對用戶行為的干預(yù)程度等進(jìn)行了制度設(shè)計。綜觀上述規(guī)范,算法分類分級監(jiān)管思路在確保算法經(jīng)濟(jì)效率、精準(zhǔn)匹配監(jiān)管資源以及引導(dǎo)算法透明上具有重要意義。但在強(qiáng)化算法透明背景下存在以下不足:一是分類分級標(biāo)準(zhǔn)過于單一、范圍過窄,如《算法推薦管理規(guī)定》僅在“算法推薦”的應(yīng)用場景之下對算法推薦服務(wù)提供者加以分類分級,而非針對具體的算法應(yīng)用,由此可能導(dǎo)致難以實現(xiàn)算法監(jiān)管的根本目標(biāo)。二是缺乏制度銜接,該規(guī)定所列舉的“具有輿論屬性或者社會動員能力”的算法推薦服務(wù)提供者,僅就事前安全評估、備案等程序上與其他算法推薦服務(wù)提供者的義務(wù)有所區(qū)分。換言之,在事后的算法解釋義務(wù)上,所有的算法推薦服務(wù)提供者并實質(zhì)無差別。不加區(qū)分的規(guī)范設(shè)計將不利于與商業(yè)秘密保護(hù)制度相銜接。

        本文認(rèn)為算法解釋框架的構(gòu)筑可以延續(xù)算法分類分級的規(guī)制思路,并在此基礎(chǔ)上進(jìn)行細(xì)化設(shè)計。一方面,可依據(jù)算法的性質(zhì)進(jìn)行橫向分類,如圖4“橫軸”所示,算法由最左端的輔助性工具逐漸發(fā)展為完全獨立的決策者。另一方面,可以風(fēng)險層級為基準(zhǔn)進(jìn)行縱向分級。如圖4“縱軸”所示,算法決策的風(fēng)險層級由最下端的“極低風(fēng)險”不斷往最上端的“極高風(fēng)險”升高。在判斷某一特定場景下的算法應(yīng)用是否可能帶來高外部風(fēng)險時,可結(jié)合算法應(yīng)用的行業(yè)、預(yù)期風(fēng)險系數(shù)及其對公共安全、公民基本權(quán)利和消費(fèi)者利益的影響程度進(jìn)行考量。48. 林洹民:《自動決策算法的風(fēng)險識別與區(qū)分規(guī)制》,載《比較法研究》2022年第2 期,第199 頁。例如,超級平臺較之中小平臺具有更大的用戶規(guī)模、經(jīng)濟(jì)體量、業(yè)務(wù)種類,更強(qiáng)的限制能力,算法決策的不當(dāng)利用更容易對公民基本權(quán)利和消費(fèi)者權(quán)益造成更大規(guī)模侵害,因而應(yīng)視為算法應(yīng)用存在高風(fēng)險。質(zhì)言之,橫軸代表“分類”,縱軸代表“分級”,橫縱交錯的兩個維度共同將算法解釋框架劃分為四個象限。

        圖4 算法解釋框架

        算法解釋背后實質(zhì)上是不同場景下的價值衡量。是故,需要在“調(diào)和論”視角下處理透明價值與商業(yè)秘密之間的沖突。在算法決策的潛在外部風(fēng)險遠(yuǎn)小于其帶來的收益時(象限Ⅲ和象限IV),算法解釋權(quán)需要作出更多讓步,選擇替代性方案;而當(dāng)處于個人權(quán)益受到重大影響和社會公共利益受到威脅的高風(fēng)險領(lǐng)域(象限Ⅰ和象限II)時,算法解釋權(quán)則不應(yīng)過多讓步。

        象限Ⅲ中,算法可能引致的外部風(fēng)險層級低且在決策中具有較強(qiáng)的輔助性工具價值。在這一區(qū)域中算法決策并不直接涉及個人權(quán)益,或可能僅在一定程度上影響算法相對人的個人選擇。在此情形下,若強(qiáng)制要求對算法進(jìn)行解釋反而會導(dǎo)致算法主體承擔(dān)過重義務(wù),甚至侵害商業(yè)秘密。因此,算法透明的實現(xiàn)可在既有法律體系內(nèi)進(jìn)行,無須法律或規(guī)范針對算法解釋作出專門規(guī)定。

        象限IV 中,算法可能引致的外部風(fēng)險層級低但在決策中獨立性強(qiáng)。在這一區(qū)域中,具有高自主性的算法決策蘊(yùn)含著復(fù)雜的社會互動,“硬法”的局限性和政府監(jiān)督的有限性無法快速根本預(yù)防并解決現(xiàn)有及未來算法黑箱帶來的科技倫理問題。因而這一區(qū)域的算法透明,一方面,應(yīng)主要依托“軟法”約束,輔以“硬法”加以強(qiáng)化。通過公開披露技術(shù)標(biāo)準(zhǔn)這一“軟法”透視算法黑箱,提升算法透明度,以緩解用戶與算法生產(chǎn)者、使用者之間的信息不對稱。另一方面,應(yīng)充分利用社會監(jiān)督,使之與監(jiān)管部門形成合力,提高執(zhí)法效率。例如鼓勵用戶社群參與算法治理,通過技術(shù)社群的力量識別算法的潛在危害和倫理等問題。

        象限II 中,算法可能引致的外部風(fēng)險層級高但在決策中具有較強(qiáng)的輔助性工具價值。在這一層級中算法自動化決策獨立性較弱,外部風(fēng)險的成因既可能因算法作為侵權(quán)工具,也可能基于算法自身。對于前者而言,算法多數(shù)情形下是作為平臺的工具,平臺對算法的運(yùn)行具有充分的控制能力,對算法自動化決策的結(jié)果也有充分的預(yù)測能力,因而宜采取“結(jié)果導(dǎo)向”“事后追責(zé)”的傳統(tǒng)監(jiān)管思路,以避免立法者和司法者過多介入算法運(yùn)行的內(nèi)部結(jié)構(gòu),對商業(yè)秘密造成侵害。49. 張凌寒:《風(fēng)險防范下算法的監(jiān)管路徑研究》,載《交大法學(xué)》2018年第5 期,第53 頁。對于后者而言,因算法自身導(dǎo)致“對個人權(quán)益有重大影響”的算法自動化決策需以“算法解釋權(quán)”為主要抓手。在該區(qū)域內(nèi),算法解釋權(quán)的基本設(shè)置以我國現(xiàn)行法的規(guī)定配置足矣,即當(dāng)個人權(quán)益受到重大影響時,僅由個人在事后提起解釋。但以《個人信息保護(hù)法》為法律基礎(chǔ)的算法解釋權(quán)設(shè)置過于籠統(tǒng),尚需出臺相關(guān)規(guī)范予以細(xì)化。算法解釋權(quán)的細(xì)化應(yīng)當(dāng)以算法解釋權(quán)的核心目標(biāo)為起點,以利益平衡理論為導(dǎo)向,明晰算法解釋權(quán)的權(quán)利半徑。就此而言,有以下關(guān)鍵問題尚待明晰,一是“對個人權(quán)益有重大影響”這一要件的標(biāo)準(zhǔn)為何?首先,需要明確的是,對個人權(quán)益是否有重大影響的判斷標(biāo)準(zhǔn)應(yīng)該從嚴(yán)。若行權(quán)門檻過低,必然會造成資源的大量浪費(fèi)、降低經(jīng)濟(jì)效率。其次,解釋的效用必須與產(chǎn)生解釋的成本相平衡,在衡量解釋價值時,應(yīng)當(dāng)圍繞算法解釋權(quán)的核心指向,不宜過于寬泛。二是算法解釋的方式、內(nèi)容為何?按照學(xué)界主流觀點以及GDPR 第12 條第1 款要求,算法主體應(yīng)以“簡潔、透明、易懂和易獲取的形式”向數(shù)據(jù)主體提供必要解釋。就解釋內(nèi)容而言,盡管對技術(shù)的解釋是十分重要的,但這不足以實現(xiàn)法律規(guī)制的目標(biāo),因為實踐中多數(shù)情況下的解釋目的不是為了解釋技術(shù)本身,而是為了確保有一種途徑可以評估算法決策的基礎(chǔ)是根據(jù)反歧視或正當(dāng)程序等規(guī)范進(jìn)行的。50. See Andrew Selbst & Solon Barocas,The Intuitive Appeal of Explainable Machines, Fordham Law Review ,Vol.87:1085,p.1105(2018).因此,總體而言,算法主體可以通過反事實解釋的方法予以答復(fù),51. See Sandra Wachter,Brent Mittelstadt & Chris Russell,Counterfactual Explanations without Opening the Black Box:Automated Decisions and the GDPR, Harvard Journal of Law&Technology, Vol. 31:841, pp.841-861 (2018).內(nèi)容原則上應(yīng)限定為與個人權(quán)益緊密相關(guān)的算法主體信息和算法的影響等外部信息而不側(cè)重于向用戶詳細(xì)講解系統(tǒng)的運(yùn)作細(xì)節(jié)或整體邏輯。主要包括算法決策所需數(shù)據(jù)及其類別、權(quán)重、相關(guān)性解釋,以及個人“畫像”如何建立、它與決策過程相關(guān)性的說明以及是如何被用于涉及個人的算法決策等能夠使算法相對人充分理解的信息。52. 解正山:《算法決策規(guī)制——以“算法解釋權(quán)”為中心》,載《現(xiàn)代法學(xué)》2020年第1 期,第187-188 頁。

        象限Ⅰ中,算法風(fēng)險高且獨立性強(qiáng),旨在實現(xiàn)算法透明內(nèi)生價值的制度設(shè)計更應(yīng)堅持人的主體性,同時賦予更強(qiáng)的約束力。僅憑借現(xiàn)行單一的算法解釋權(quán)或政府監(jiān)管均難以應(yīng)對。尤其是當(dāng)市場上的算法與競爭相結(jié)合,以及實施默示算法共謀等新型壟斷行為時,著眼于自動化決策相對方事后救濟(jì)的算法解釋權(quán)構(gòu)造幾乎難以發(fā)揮效用,53. 參見劉輝:《雙向驅(qū)動型算法解釋工具:以默示算法共謀為場景的探索》,載《現(xiàn)代法學(xué)》2022年第6 期,第59 頁。傳統(tǒng)反壟斷監(jiān)管對此也顯得力有所不逮。因此,需要就現(xiàn)行法下的算法解釋權(quán)進(jìn)行擴(kuò)充改造,但并非僅就算法解釋范圍的簡單擴(kuò)充,因為這種盲目擴(kuò)大解釋權(quán)邊界的方式只會使算法透明與商業(yè)秘密保護(hù)之間的矛盾更加尖銳,卻依舊無法得到有效的算法解釋。對算法解釋權(quán)的重構(gòu)應(yīng)以多元主體為主導(dǎo),將解釋與審查相結(jié)合。具言之,一是,仍然與現(xiàn)行算法解釋權(quán)相同,當(dāng)算法決策相對人認(rèn)為個人權(quán)益受到重大不利影響之時,可依法啟動算法解釋工具。此外,當(dāng)受算法決策侵害的是大規(guī)模群體時,也可考慮參考?xì)W盟GDPR 第80 條第1 款、第2 款規(guī)定,由第三方機(jī)構(gòu)代替?zhèn)€人行使救濟(jì)權(quán)利。二是,將啟動主體由單一主體擴(kuò)充為多元主體,即除了算法決策相對人之外,還包含公權(quán)力機(jī)關(guān)。作為算法規(guī)制主體的算法監(jiān)管部門以及司法機(jī)關(guān),在日常算法監(jiān)管執(zhí)法或者算法司法活動中發(fā)現(xiàn)不利的算法決策,可主動啟動算法解釋工具。三是,根據(jù)不同主體調(diào)整算法解釋要求。面向算法決策相對人,算法解釋與象限II 中要求基本一致,即解釋的側(cè)重點在于算法決策形成的邏輯以及對算法相對人可能產(chǎn)生的不利影響等局部信息;面向?qū)I(yè)人員,解釋算法的內(nèi)容需要深入到模型設(shè)計、訓(xùn)練方式以及運(yùn)行邏輯的具體細(xì)節(jié),以便其對算法決策可能帶來的風(fēng)險有更科學(xué)的預(yù)期和判斷。面向政策制定者,解釋的側(cè)重點應(yīng)當(dāng)更加全面,使其能夠從全局進(jìn)行把握,充分了解數(shù)據(jù)選取、算法設(shè)計運(yùn)行的邏輯和影響。

        總體而言,算法解釋的內(nèi)容應(yīng)當(dāng)隨著算法決策風(fēng)險的加強(qiáng)而不斷趨于嚴(yán)格。隨著算法在決策過程中的主導(dǎo)性不斷加強(qiáng),算法主體的解釋義務(wù)應(yīng)當(dāng)逐步加強(qiáng),與之相應(yīng)的算法解釋目標(biāo)不斷趨嚴(yán),算法透明度也應(yīng)逐步提升。

        2.個案認(rèn)定原則:堅持比例原則

        確定在何種程度上針對算法所作出的解釋具有法律意義,是關(guān)系算法透明與商業(yè)秘密保護(hù)之間利益平衡的重要砝碼。算法透明的程度需在個案中根據(jù)比例原則進(jìn)行判斷??梢哉f,比例原則是“調(diào)和論”下的具體體現(xiàn),其要義在于所采取之手段與所欲達(dá)成之目的之間應(yīng)有適切的關(guān)系,54. 【德】卡爾·拉倫茨:《法學(xué)方法論》,陳愛娥譯,商務(wù)印書館 2003年版,第282 頁。即禁止過度的透明或過度的保密。立足比例原則,狹義比例原則要求算法解釋權(quán)以最緩和的手段來實現(xiàn)算法解釋的目的,以減少和避免對商業(yè)秘密的侵害。55. 呂炳斌:《論個人信息處理者的算法說明義務(wù)》,載《現(xiàn)代法學(xué)》2021年第 4 期,第97 頁。通過算法解釋權(quán)提高算法透明度以保護(hù)個人權(quán)益和社會公共利益,應(yīng)當(dāng)符合適當(dāng)性的要求,即算法解釋的程度應(yīng)當(dāng)與算法所可能產(chǎn)生的外部風(fēng)險正相關(guān)。同時,還需要將算法解釋對算法商業(yè)秘密保護(hù)造成的負(fù)面影響范圍控制在最小,應(yīng)當(dāng)符合必要性的要求,即算法解釋的方式方法應(yīng)當(dāng)盡可能保護(hù)算法商業(yè)秘密。

        (二)建立健全多元算法監(jiān)督機(jī)制

        鑒于算法應(yīng)用廣泛、形態(tài)多樣,單一算法解釋難以實現(xiàn)算法透明。因此,在對算法解釋進(jìn)行體系化構(gòu)建的同時,還需要輔以更多元的算法自動化決策規(guī)制手段實現(xiàn)算法透明化,將算法解釋和算法監(jiān)管相結(jié)合,在不同利益主體、不同制度價值之間尋求平衡。

        一是優(yōu)化經(jīng)由設(shè)計的透明柔性規(guī)范。我國《算法推薦管理規(guī)定》第12 條提出要求優(yōu)化可解釋性,并列舉了優(yōu)化的對象。但該規(guī)定過于籠統(tǒng),導(dǎo)致對“可解釋性”的重視不足。從概念上來看,“解釋”在詞典中的含義為,賦予概念或者以可理解的術(shù)語解釋和呈現(xiàn)某些概念。在數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)中,可解釋性則可被定義為以可理解的術(shù)語向人類解釋或提供說明的能力。56. Finale Doshi-Velez & Been Kim, Towards a Rigorous Science of Interpretable Machine Learning, at https://doi.org/10.48550/arXiv.1702.08608, last visited on June 24, 2023.故本質(zhì)上而言,“可解釋性”是連接人類和(機(jī)器)決策者之間的“接口”(interface)。57. Riccardo Guidotti, et al., A Survey of Methods for Explaining Black Box Models, ACM Computer Surveys, Vol.51:5, p5(2018).算法可解釋性攸關(guān)模型透明度,對于評估模型決策行為、驗證決策結(jié)果可靠性和安全性具有重要意義。58. 紀(jì)守領(lǐng)、李進(jìn)峰等:《機(jī)器學(xué)習(xí)模型可解釋性方法、應(yīng)用與安全研究綜述》,載《計算機(jī)研究與發(fā)展》2019年第10期,第 2088 頁。就目前的算法解釋技術(shù)來看,模型預(yù)測的可靠性與自動化決策過程、結(jié)果的全面留痕之間存在反向關(guān)系,即越是具有可解釋性的算法模型,則該算法模型的性能則越差。因此,優(yōu)化算法可解釋性的柔性規(guī)范應(yīng)當(dāng)區(qū)分不同場景、不同功能,對于具有高風(fēng)險、需要重點監(jiān)管的場景(如司法、醫(yī)療、金融等領(lǐng)域),即使?fàn)奚糠帜P托阅芤残枰渲酶咚惴山忉屝缘囊?guī)范義務(wù)。

        二是配置協(xié)同治理的中性規(guī)范。實踐中,盡管在算法設(shè)計階段可以預(yù)先優(yōu)化算法可解釋性,例如采用決策樹等自解釋模型,達(dá)成技術(shù)上的“可解釋性”,或者鼓勵企業(yè)采用可解釋性較強(qiáng)的深度學(xué)習(xí)算法模型以提升算法透明度。但是,在巨大規(guī)模參數(shù)和大型多模態(tài)模型面前,算法可解釋性幾乎難以實現(xiàn)。例如,OpenAI 推出的預(yù)訓(xùn)練模型(Generative Pretrained Transformer,GPT)在經(jīng)歷技術(shù)的飛速迭代后,GPT-4 的參數(shù)量預(yù)測將達(dá)100 萬億。59. ICO, Explaining Decisions Made with AI, at https://ico.org.uk/media/for-organisations/guide-to-data-protection/key-dpthemes/guidance-on-ai-and-data-protection-2-0.pdf, last visited on June 13, 2023.因此,對于此類具有超大規(guī)模的深度學(xué)習(xí)模型,不宜設(shè)置算法解釋工具,而應(yīng)轉(zhuǎn)向多元主體協(xié)同治理、多元方式并進(jìn)監(jiān)管的模式。例如,“為專業(yè)性非營利組織和用戶社群參與治理創(chuàng)造制度環(huán)境,探索符合我國發(fā)展特點的協(xié)同治理范式,促進(jìn)社會監(jiān)督與政府監(jiān)管的協(xié)同聯(lián)動。”60. 張欣:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,載《現(xiàn)代法學(xué)》2023年第3 期,第118 頁。如此一來,可以在一定程度上避免陷入“解釋不足”和“解釋過度”的兩難困境,促使算法受到專業(yè)人士和社會公眾的監(jiān)督和控制。

        三是強(qiáng)化算法登記備案與定期審核的剛性規(guī)范。首先,需要在高風(fēng)險領(lǐng)域進(jìn)行嚴(yán)格的市場準(zhǔn)入監(jiān)管,要求就算法模型、算法訓(xùn)練數(shù)據(jù)集等算法詳細(xì)屬性信息進(jìn)行備案說明。其次,監(jiān)管部門應(yīng)定期和不定期對算法自動化決策的應(yīng)用情況進(jìn)行審核,重點關(guān)注是否具有利用算法進(jìn)行排除、限制市場競爭的行為。通過公權(quán)介入的形式強(qiáng)化對私權(quán)的保護(hù),維護(hù)市場競爭秩序,以彌補(bǔ)算法解釋這一私權(quán)救濟(jì)機(jī)制的不足。最后,還需要求算法主體就算法進(jìn)行自我檢查,并就實施情況的檢查的報告進(jìn)行公開聲明,進(jìn)而在法律范圍內(nèi)受到監(jiān)督。算法主體在服務(wù)過程中所使用的算法應(yīng)當(dāng)符合其聲明公開的標(biāo)準(zhǔn)的技術(shù)要求,如果違反其公開聲明的標(biāo)準(zhǔn)就要承擔(dān)相應(yīng)的法律責(zé)任。

        五、邁向利益平衡的算法透明化路徑構(gòu)思:合理的保密

        從商業(yè)秘密保護(hù)制度的本質(zhì)來看,其“以保密守權(quán)益”的特征必然與算法透明之間產(chǎn)生價值沖突?!氨C苄浴辈⒉皇巧虡I(yè)秘密權(quán)利人的避風(fēng)港,過度的商業(yè)秘密保護(hù)將會對他人權(quán)利和社會公共利益產(chǎn)生不利影響。因此,需要對商業(yè)秘密保護(hù)的限制制度進(jìn)行完善。

        (一)明確商業(yè)秘密內(nèi)容的“合法性”

        作為商業(yè)秘密進(jìn)行保護(hù)的算法內(nèi)容應(yīng)當(dāng)具有合法性。我國對商業(yè)秘密保護(hù)的規(guī)定集中體現(xiàn)在《反不正當(dāng)競爭法》之中,其中關(guān)于商業(yè)秘密的三大構(gòu)成要件“秘密性、保密性和價值性”中并未包括“合法性”。從廣義范圍來看,算法既有可能包括“合法”的算法信息,也有可能包括“非法”的算法信息(例如侵害基本權(quán)利、違反反壟斷法等信息),而能夠受到法律保護(hù)的顯然只有前者。因為,從法理角度而言,若利用商業(yè)秘密的非公開性和保密性的特點將違法、違規(guī)、違反公序良俗的信息混同為商業(yè)秘密加以保護(hù),以阻礙消費(fèi)者、公共監(jiān)督群體監(jiān)督,這顯然違背了立法目的。因此,“合法性”要件對于商業(yè)秘密的認(rèn)定與依法保護(hù)不可或缺。從國際性立法文件TRIPs 協(xié)議來看,其明確指出受保護(hù)的秘密信息應(yīng)為“合法控制的信息”。這里“合法控制”應(yīng)當(dāng)作廣義理解,即不僅指的是對秘密信息“控制行為”合法性的要求,而且也強(qiáng)調(diào)“秘密信息”本身的合法性。德國的《商業(yè)秘密保護(hù)法》更是明確要求秘密信息所有人應(yīng)當(dāng)對該信息具有“合法的保密利益”。另外,我國《反不正當(dāng)競爭法》第2 條第1 款有關(guān)“遵守自愿、平等、公平、誠信的原則,遵守法律和商業(yè)道德”的原則性條款,實質(zhì)上也是對商業(yè)秘密所保護(hù)的內(nèi)容提出了合法、合乎商業(yè)道德的要求,可以由此推導(dǎo)出“合法性”是商業(yè)秘密的當(dāng)然構(gòu)成要件。

        相較于專利的審查和對外公開要求而言,商業(yè)秘密的“秘密性”和“保密性”決定了其權(quán)屬狀態(tài)具有不確定性的特征。對于商業(yè)秘密信息本身是否合法、是否真實存在,外界無從得知。為避免司法實踐中出現(xiàn)因合法性審查程序不統(tǒng)一而導(dǎo)致審判結(jié)果迥異的情形,應(yīng)當(dāng)明確將“合法性”作為獲得商業(yè)秘密保護(hù)的構(gòu)成要件。對于來源不合法以及內(nèi)容不合法的算法信息,如被用來竊取用戶數(shù)據(jù)、進(jìn)行縱向和橫向壟斷、損害他人合法利益等,不應(yīng)也不能作為商業(yè)秘密受到法律保護(hù)。

        (二)完善公共利益抗辯制度

        在商業(yè)秘密保護(hù)的法律規(guī)范中應(yīng)當(dāng)明確規(guī)定公共利益抗辯規(guī)則。為公共利益需要對算法進(jìn)行一定程度和范圍的披露,是平衡社會公共利益與算法商業(yè)秘密權(quán)利人私益的有效措施。

        在比較法上,一些國家在相關(guān)制度的構(gòu)建中也囊括了公共利益抗辯制度的規(guī)定。如日本《不正當(dāng)競爭防止法》中規(guī)定“違反公序良俗的信息不予保護(hù)”,美國2016年《保護(hù)商業(yè)秘密法案》第7 條和歐盟2016年《商業(yè)秘密保護(hù)指令》第5 條都有商業(yè)秘密披露的公共利益(揭發(fā)違法行為)例外。在國內(nèi)法上,盡管我國的商業(yè)秘密保護(hù)制度設(shè)計了諸多平衡規(guī)則,如獨立研發(fā)抗辯、反向工程抗辯等等,但我國法律規(guī)定中尚未建立商業(yè)秘密領(lǐng)域的公共利益抗辯制度。雖然公共利益對商業(yè)秘密的限制條款在《環(huán)境保護(hù)法》第24條61. 《環(huán)境保護(hù)法》第24 條規(guī)定,縣級以上人民政府環(huán)保部門,有權(quán)現(xiàn)場檢查排放污染物的企事業(yè)單位,要求被檢查的對象提供有關(guān)排放污染物的數(shù)量、成分、濃度等必要的技術(shù)資料,相關(guān)單位不得以商業(yè)秘密保護(hù)為由拒絕披露。、《政府信息公開條例》第15條62. 《政府信息公開條例》第15 條規(guī)定,對于涉及商業(yè)秘密、個人隱私的政府信息,有關(guān)政府部門不得公開。但若不公開會造成社會公共利益重大損害或第三人同意公開的,應(yīng)當(dāng)予以公開。中有據(jù)可循,但由于適用的范圍僅限于環(huán)境保護(hù)和政府信息公開領(lǐng)域,對商業(yè)秘密的披露范圍有限。在此情形下,實踐中法院常引用的仍是《民法典》中的誠信原則等條款。而這種向一般條款逃逸的方式缺乏明確的制度界限,也極易導(dǎo)致法官自由裁判權(quán)過大,不利于制度之間的銜接。

        近年來,我國已經(jīng)注意到并考慮將公共利益作為商業(yè)秘密保護(hù)限制的事由。2020年最高院頒布的《最高人民法院關(guān)于審理侵犯商業(yè)秘密糾紛民事案件應(yīng)用法律若干問題的解釋(征求意見稿)》第19 條提出了建立商業(yè)秘密領(lǐng)域的“公共利益抗辯”制度:“被訴侵權(quán)人為維護(hù)公共利益、制止犯罪行為,向行政主管部門、司法機(jī)關(guān)等披露相關(guān)商業(yè)秘密,權(quán)利人主張其承擔(dān)侵權(quán)責(zé)任的,人民法院一般不予支持。”但是,在正式通過的《商業(yè)秘密司法解釋》中將其刪除。2020年國家市場監(jiān)督管理總局《商業(yè)秘密保護(hù)規(guī)定(征求意見稿)》第19 條列入了侵犯商業(yè)秘密行為的例外,其中第四款規(guī)定“商業(yè)秘密權(quán)利人或持有人的員工、前員工或合作方基于環(huán)境保護(hù)、公共衛(wèi)生、公共安全、揭露違法犯罪行為等公共利益或國家利益需要,而必須披露商業(yè)秘密的。”可以作為商業(yè)秘密保護(hù)的例外。此外,我國也在地方性法規(guī)和規(guī)范性法律文件中,就公共利益對商業(yè)秘密的限制進(jìn)行了原則性的規(guī)定。如《廣東省技術(shù)秘密保護(hù)條例》《浙江省技術(shù)秘密保護(hù)辦法》《深圳經(jīng)濟(jì)特區(qū)企業(yè)技術(shù)秘密保護(hù)條例》等。63. 《廣東省技術(shù)秘密保護(hù)條例》第3 條第三款規(guī)定:“有損社會公共利益、違背社會道德的技術(shù)秘密,不受本條例保護(hù)。”《浙江省技術(shù)秘密保護(hù)辦法》第4 條規(guī)定:“違反法律、法規(guī),損害國家利益、社會公共利益,違背公共道德的技術(shù)秘密,不受本辦法保護(hù)?!薄渡钲诮?jīng)濟(jì)特區(qū)企業(yè)技術(shù)秘密保護(hù)條例》第9 條規(guī)定:“違反法律、法規(guī),損害國家利益、社會公共利益,違背公共道德的技術(shù)秘密,不在本條例的保護(hù)范圍?!边@也意味著算法商業(yè)秘密持有者并不能利用法律對商業(yè)秘密的保護(hù),拒絕所有情形下的算法透明。

        從以上我國現(xiàn)有立法來看,各規(guī)定過于分散,在各自立法目的指導(dǎo)下,對商業(yè)秘密保護(hù)限制的具體規(guī)范與標(biāo)準(zhǔn)不一,限制的范圍缺乏系統(tǒng)性考量,沒有形成體系化的指引。這也導(dǎo)致現(xiàn)有規(guī)則在司法實踐中適用難度較大,難以發(fā)揮其應(yīng)有效用。為此,應(yīng)當(dāng)從立法層面完善我國商業(yè)秘密保護(hù)規(guī)范構(gòu)造中的公共利益抗辯規(guī)則,以實現(xiàn)算法透明與商業(yè)秘密保護(hù)之間的利益平衡。

        第一,在立法模式上,采用列舉概括并用模式。商業(yè)秘密保護(hù)的范圍隨著社會經(jīng)濟(jì)的發(fā)展呈不斷動態(tài)擴(kuò)張的趨勢,單純列舉式的方法必將難以適應(yīng)新業(yè)態(tài)的發(fā)展。此外,公共利益是一個具有高度抽象性的概念,無法完全列舉。同時,又需要詳盡列舉降低公共利益的抽象性,增強(qiáng)法律規(guī)定的明確性和可操作性。

        第二,在公共利益的核心指向上,應(yīng)確定適用的具體范圍。盡管“公共利益”作為“以價值判斷為核心的不確定的法律概念”64. 余軍: 《“公共利益”的論證方法探析》,載《當(dāng)代法學(xué)》2012年第 4 期,第 19 頁。,其內(nèi)涵的界定一直存在諸多爭議,但從域外相關(guān)立法和司法實踐的經(jīng)驗中依然可以找到值得借鑒的方向。在美國,根據(jù)《保護(hù)商業(yè)秘密法》《統(tǒng)一商業(yè)秘密法》以及相關(guān)聯(lián)邦立法規(guī)定,公共利益抗辯事由主要涉及公共健康、公共安全、披露犯罪或侵權(quán)行為、言論和出版自由,與此同時,美國法院通過判例還確定了涉及國家安全、公共設(shè)施、維護(hù)商業(yè)道德和自由競爭秩序以及基本權(quán)利的公共利益抗辯情形。65. 參見黃武雙:《英美商業(yè)秘密保護(hù)中的公共利益抗辯規(guī)則及對我國的啟示》,載《知識產(chǎn)權(quán)》2009年第3 期,第85-88 頁。在歐盟,《商業(yè)秘密保護(hù)指令》中所及為保護(hù)公共利益而進(jìn)行披露的,主要涉及不當(dāng)行為、不道德行為或者非法行為。相較之下,歐盟所設(shè)立的公共利益抗辯規(guī)則適用范圍比美國更廣。之所以有此差別,主要還是因為各國和地區(qū)的國情、政策不同,對商業(yè)秘密保護(hù)的力度不同。鑒于我國目前處于強(qiáng)化商業(yè)秘密保護(hù)的政策立場,我國現(xiàn)階段的公共利益抗辯規(guī)則設(shè)計應(yīng)將適用范圍限縮在核心性公共利益上,并且實踐中對公共利益內(nèi)涵與外延的解釋也應(yīng)當(dāng)非常謹(jǐn)慎。具言之,相關(guān)人可基于以下情形提起公共利益抗辯:國家安全;公眾健康與安全;環(huán)境保護(hù);揭露、制止已經(jīng)發(fā)生、正在發(fā)生或即將發(fā)生的犯罪行為;基于保護(hù)其他公共利益的需要。

        第三,在商業(yè)秘密披露的方式和對象上,應(yīng)當(dāng)做出更偏向于商業(yè)秘密權(quán)利人的傾斜式設(shè)計,選擇最低限度干預(yù)商業(yè)秘密保護(hù)的披露手段,以免貿(mào)然公開秘密信息對權(quán)利人造成無法挽回的損失。當(dāng)算法商業(yè)秘密保護(hù)需要對公共利益作出讓步時,只是算法持有者的經(jīng)營自主權(quán)在行使時受到一定克減,而非意味著對商業(yè)秘密這一私權(quán)利價值的全然否定。因此,立法上需要選擇一種對商業(yè)秘密權(quán)利人私權(quán)利損害最小的披露方式。對比來看,《商業(yè)秘密保護(hù)規(guī)定(征求意見稿)》在有關(guān)商業(yè)秘密披露方式和對象的限制上總體與《美國保護(hù)商業(yè)秘密法》相似,其中“須以保密方式提交包含商業(yè)秘密的文件或法律文書”“向有關(guān)國家行政機(jī)關(guān)、司法機(jī)關(guān)及其工作人員”等程序性條款內(nèi)容,為公共利益抗辯規(guī)則提供了具體化操作流程的補(bǔ)充,能夠避免條款在適用過程中流于形式。在此意義上,即使是出于保護(hù)公共利益的需要,算法持有者的員工或合作方等對算法更為了解的相關(guān)人對算法的披露方式也需要以秘密的形式,向國家機(jī)關(guān)披露。

        六、結(jié)語

        數(shù)字經(jīng)濟(jì)是當(dāng)今世界經(jīng)濟(jì)發(fā)展的重要引擎,而數(shù)字經(jīng)濟(jì)發(fā)展的核心離不開數(shù)字技術(shù)的發(fā)展,作為數(shù)字技術(shù)三要素(數(shù)據(jù)、算力和算法)之一的算法在助力數(shù)字產(chǎn)業(yè)發(fā)展的同時,算法黑箱化也帶來了法律問責(zé)難題。算法透明作為化解算法風(fēng)險的重要一環(huán),有助于規(guī)訓(xùn)算法權(quán)力,維護(hù)個人利益和社會公共利益。但實踐中,算法透明與商業(yè)秘密保護(hù)之間存在著緊張關(guān)系。解決之道在于取得算法透明與商業(yè)秘密保護(hù)之間的微妙平衡,即在“調(diào)和論”下尋求適當(dāng)?shù)乃惴ㄍ该骱秃侠淼纳虡I(yè)秘密保護(hù)。對算法解釋框架進(jìn)行系統(tǒng)性重構(gòu),可以遵循分類分級的整體布局以及比例原則下的個案認(rèn)定,構(gòu)筑算法解釋的差序規(guī)制格局,進(jìn)而實現(xiàn)總體的解釋效率和個案的解釋正義。此外,進(jìn)一步建立健全算法監(jiān)督機(jī)制,實現(xiàn)適當(dāng)?shù)耐该?。與此同時,對商業(yè)秘密保護(hù)的限制制度進(jìn)行完善,明確商業(yè)秘密內(nèi)容的“合法性”要件,完善公共利益抗辯制度。

        猜你喜歡
        商業(yè)秘密公共利益利益
        泄露商業(yè)秘密 依法支付賠償
        談?wù)剛€人信息保護(hù)和公共利益維護(hù)的合理界限
        論確認(rèn)之訴的確認(rèn)利益
        美國《保護(hù)商業(yè)秘密法》的立法評價
        論專利行政執(zhí)法對公共利益的保護(hù)
        環(huán)保從來就是利益博弈
        能源(2016年3期)2016-12-01 05:11:17
        絕不能讓“利益綁架科學(xué)”
        侵犯商業(yè)秘密罪中“重大損失”的內(nèi)外審查方法
        美國對涉華商業(yè)秘密的“337調(diào)查”及國內(nèi)行業(yè)的應(yīng)對做法
        利益鏈與新壟斷
        国产精品一区av在线| 亚洲伊人久久大香线蕉综合图片| 国产精品入口蜜桃人妻| 少妇高潮免费在线观看| 亚洲成在人线视av| 真人无码作爱免费视频禁hnn| 人妻丰满熟妇AV无码片| av天堂在线免费播放| 亚洲av高清一区二区三| 一本色综合久久| 国产一级三级三级在线视| 亚洲av综合色区久久精品| 中文有码亚洲制服av片| 人妻丝袜无码国产一区| 日本久久久久| 在线不卡av一区二区| 亚洲精品天天影视综合网| 久久精品人成免费| 狠狠亚洲婷婷综合久久久| 一本色道久在线综合色| 亚洲综合激情五月丁香六月| 国产亚洲欧美在线| 日韩人妻av不卡一区二区三区| 在线视频色系中文字幕| 三年片大全在线观看免费观看大全 | 欧美做受又硬又粗又大视频| 曰本极品少妇videossexhd| 一区在线播放| 国产自拍精品在线免费观看| 久久国产亚洲高清观看| 精品国产福利在线观看网址2022| 玩弄丝袜美腿超短裙校花| 人妻无码第一区二区三区| 亚洲成色www久久网站夜月| а的天堂网最新版在线| 国产自拍精品在线免费观看| 欧美人与动牲交a精品| 国产 中文 制服丝袜 另类| 少妇太爽高潮在线播放| 亚洲人成精品久久久久| 伊人久久网国产伊人|