萬文婷 彭飛榮
摘 要:算法透明作為對算法規(guī)制的重要方式,在國內(nèi)外皆得到立法上的確認(rèn),但在司法實踐中卻因沒有明確標(biāo)準(zhǔn)而面臨隱私權(quán)、個人信息權(quán)以及商業(yè)秘密的抗辯和技術(shù)上的挑戰(zhàn),進(jìn)而難以得到有效具體落實,因此有必要借助標(biāo)準(zhǔn)化手段落實和完善算法透明。本文通過將法律上的實體權(quán)利與標(biāo)準(zhǔn)相結(jié)合進(jìn)而保障算法透明落實,解決了本土化的算法備案制度所面臨的困境從而為算法透明提供有效落實方式,明確了算法解釋的適用場景,以算法解釋填補(bǔ)算法透明難以滿足的空白。
關(guān)鍵詞:算法透明,標(biāo)準(zhǔn),算法備案,算法解釋
DOI編碼:10.3969/j.issn.1674-5698.2024.04.008
0 引 言
在數(shù)字經(jīng)濟(jì)時代背景下,算法早已深入應(yīng)用到各個場景領(lǐng)域,極大提升了數(shù)據(jù)處理的效率。早在域外的公共領(lǐng)域,美國就已經(jīng)應(yīng)用compas算法軟件進(jìn)行刑事司法分析,應(yīng)用算法作為評估公民福利的救濟(jì)機(jī)制;在國內(nèi)的商事領(lǐng)域,各大網(wǎng)絡(luò)平臺利用算法預(yù)測客戶行為,進(jìn)行精準(zhǔn)商業(yè)推送。算法應(yīng)用的案例屢見不鮮,但其在提升工作效能和方便使用者的同時也引發(fā)了一系列問題,例如:“大數(shù)據(jù)殺熟”“算法歧視”“算法繭房”等等,這些都逐漸成為人們關(guān)注的焦點。從法律角度來看,無論是歐洲的《通用數(shù)據(jù)保護(hù)條例》(GDPR)還是美國提出的《算法責(zé)任法案》,它們都在討論如何規(guī)范算法的使用,并強(qiáng)調(diào)了“算法透明”這個關(guān)鍵性的監(jiān)管準(zhǔn)則[1]。在我國,《電子商務(wù)法》和《個人信息保護(hù)法》也涉及算法透明問題。算法透明作為針對算法不公的重要規(guī)制手段,雖在法律法規(guī)的頂層設(shè)計上作為指導(dǎo)性原則有著立法依據(jù),但在司法實踐上卻面臨如何落實適用的困境。
此外,算法透明監(jiān)管在現(xiàn)實中往往面臨商業(yè)秘密的抗辯理由,域外如:美國康普斯案以算法涉及商業(yè)秘密而駁回被告訴請。在我國司法實踐中“智搜公司控訴光速蝸牛公司等侵犯商業(yè)秘密糾紛案”標(biāo)志著算法商業(yè)秘密法律保護(hù)已經(jīng)形成并開始實施,早有學(xué)者注意到算法透明與商業(yè)秘密之間的沖突關(guān)系,但是卻鮮有提出在實踐中的具體可操作性的機(jī)制建構(gòu)[2,3]。
因此,算法透明面對透明對象的適用范圍、透明程度以及披露方式,在司法中仍面臨諸多困阻?!八惴ㄍ该鞫取弊鳛槿斯ぶ悄茴I(lǐng)域的專業(yè)術(shù)語,本文認(rèn)為“度”既可解釋為有量化單位的程度,也可理解為廣義上的標(biāo)準(zhǔn)。相較于依賴政府強(qiáng)行實施的硬法,標(biāo)準(zhǔn)的應(yīng)用更傾向于采用柔性的方式來實現(xiàn)其目標(biāo),是一種軟法。這包括各種形式的標(biāo)準(zhǔn),如:國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)、地方標(biāo)準(zhǔn)或企業(yè)標(biāo)準(zhǔn),它們各自在適用范圍、有效性和彼此間的關(guān)系方面有所差異。標(biāo)準(zhǔn)可看作是法律規(guī)定和科技應(yīng)用的結(jié)合,也是規(guī)制與自治之間的銜接點和緩沖區(qū),同時它在建立并優(yōu)化算法規(guī)制機(jī)制上具有相當(dāng)大的優(yōu)勢[4,5]。
因此,在認(rèn)識標(biāo)準(zhǔn)作為法律延伸的“軟法”基礎(chǔ)之上,有必要將其有效利用為一種重要規(guī)制機(jī)制,對算法透明進(jìn)行深化,實現(xiàn)可操作化。
1 算法透明與標(biāo)準(zhǔn)化
1.1 算法透明與標(biāo)準(zhǔn)化概述
我國《電子商務(wù)法》第三十三條明確規(guī)定了電子商業(yè)網(wǎng)站運(yùn)營商應(yīng)于網(wǎng)絡(luò)主頁面明顯位置持續(xù)公布平臺服務(wù)協(xié)議及貿(mào)易準(zhǔn)則的信息或這些信息的鏈接標(biāo)識,并且確保商家與顧客能方便閱讀并獲取它們,從而提高電商平臺交易規(guī)則的透明度[6]?!秱€人信息保護(hù)法》第二十四條的第一款也指出,當(dāng)使用用戶數(shù)據(jù)做自動化決策時,必須保障決策過程中的可見性和結(jié)果的公允,同時第三款還說明如果這種基于大數(shù)據(jù)分析的結(jié)果會對個人的利益產(chǎn)生重要的影響的話,那么他們就有權(quán)力去要求公司予以說明,這進(jìn)一步強(qiáng)調(diào)了個人信息處理者自動化決策技術(shù)應(yīng)用的算法透明度[7,8]。以此為基礎(chǔ),《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》中提出了要推進(jìn)算法透明的發(fā)展,約束企業(yè)的算法使用行為,在遵守平等正義基本理念的同時也要維護(hù)好公民的合法權(quán)益,從而促使算法透明的發(fā)展更加健康穩(wěn)定有序[9,10]。
《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦規(guī)定》)提到,提供算法推薦服務(wù)時應(yīng)遵循公平公正、公開透明等原則,鼓勵算法推薦服務(wù)提供者優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,以避免用戶受到不良影響,并預(yù)防爭議糾紛。此規(guī)定可視為我國首次正式確立了算法透明原則,相較于歐盟以“數(shù)據(jù)賦權(quán)”為核心的算法規(guī)制體系下將算法透明釋為“披露義務(wù)”,美國“行為規(guī)范”模式下將其理解為算法問責(zé)的前提,本文認(rèn)為,我國所確立的算法透明原則更適合作為算法應(yīng)用的合法性基礎(chǔ)和數(shù)據(jù)主體的救濟(jì)途徑。
而我國的司法實踐也恰恰印證了這一觀點?!霸S興泉訴杭州阿里媽媽軟件服務(wù)公司關(guān)于互聯(lián)網(wǎng)服務(wù)的爭議案”中,法庭指出:對于大數(shù)據(jù)分析的結(jié)果是如何得出的,也就是其算法邏輯的問題,這是一個不容忽視的待證事實,同時這也是一個合法性的證明過程。我們不能僅僅依賴于大數(shù)據(jù)的專業(yè)分析報告來進(jìn)行司法評估。由于大數(shù)據(jù)分析涉及很強(qiáng)的專業(yè)技術(shù)性,若不對其邏輯推理的過程進(jìn)行司法審核,就可能導(dǎo)致用技術(shù)分析替代司法決策的情況發(fā)生,這將會威脅司法的威信。然而,對邏輯演算過程進(jìn)行司法審查,也不能完全依靠法律判決去取代技術(shù)判定,因為這樣可能會影響司法公正。
1.2 算法透明實現(xiàn)的挑戰(zhàn)
1.2.1 法律挑戰(zhàn)
算法透明旨在理解算法系統(tǒng)背后運(yùn)作的一般過程,以及算法系統(tǒng)產(chǎn)生個體結(jié)果的途徑?;谶@一目的,加之算法應(yīng)用本就有復(fù)雜性、更新快、常變化、分領(lǐng)域的特性,所以算法透明面臨著對誰透明需要不同程度透明度的現(xiàn)實情況。
算法透明的價值即用公開披露信息來平衡權(quán)利,克服信息不相稱的缺點,彌補(bǔ)地位不對等的缺陷。透明度的救濟(jì)方式即賦予算法相對人相關(guān)信息,但不是完整信息,因為透明度可能會暴露隱私和披露個人信息。在使用個人數(shù)據(jù)進(jìn)行操作機(jī)器學(xué)習(xí)算法訓(xùn)練步驟時,“魚缸型”透明可能會帶來侵犯隱私權(quán)與個人信息權(quán)的問題[11]。
另一方面,算法于企業(yè)而言,在其研發(fā)制作的過程中往往會付出大量的人力物力,并且算法本身就具有經(jīng)濟(jì)價值。算法是企業(yè)競爭優(yōu)勢的來源,任何披露都有可能會違背公司的利益,鑒于算法應(yīng)用的合法性前提受算法決策影響的數(shù)據(jù)主體有權(quán)了解其運(yùn)作方式,要求披露[12]。當(dāng)前的主流形勢便是將算法作為商業(yè)秘密加以保護(hù),算法透明度的提高必然會對企業(yè)的市場優(yōu)勢造成威脅,更有甚者會造成算法商業(yè)秘密濫用的趨勢。
1.2.2 技術(shù)挑戰(zhàn)
算法透明需要挑戰(zhàn)所有可能的偏見。通常情況下,在自動決策的背后有機(jī)器學(xué)習(xí)算法,在處理數(shù)據(jù)時傾向于非??焖俚膶W(xué)習(xí)。在這種情況下,保證透明度是一項非常復(fù)雜的任務(wù)。
在解釋基于算法的自主決策時,技術(shù)障礙的數(shù)量取決于算法的復(fù)雜度。從技術(shù)的角度來看,系統(tǒng)化的方法往往存在局限性,比如:隨著人工智能系統(tǒng)越來越復(fù)雜,指令可能不受程序員的監(jiān)督,因此通過查看系統(tǒng)的內(nèi)部運(yùn)行規(guī)則并不一定會理解和控制它,這必須與個人的認(rèn)知程度以及社會因素相結(jié)合起來考慮。在處理可解釋的算法時有可能實現(xiàn)依賴于源代碼分析的“白盒”方法,這使得用戶可以直接查看和理解它。但是當(dāng)算法涉及到商業(yè)秘密,或者在更為復(fù)雜的情況下,便已經(jīng)形成“算法黑箱”,此時基于人工智能算法的“白盒”方法是不可行的[13,14]。
然而“算法黑箱”的化解不能夠依賴于對代碼的分析,因此確保透明度是非常具有挑戰(zhàn)性的,要解釋復(fù)雜的算法系統(tǒng)也可能具有高度的自主性。
1.3 以標(biāo)準(zhǔn)化手段實現(xiàn)算法透明的正當(dāng)性
正如前文所述,算法透明的落實仍舊面對諸多障礙與困境,本文認(rèn)為在法律的頂層設(shè)計下,可以借助標(biāo)準(zhǔn)手段,形成法律與標(biāo)準(zhǔn)相結(jié)合的模式,以標(biāo)準(zhǔn)化落實算法透明。
首先,標(biāo)準(zhǔn)的建構(gòu)與算法系統(tǒng)之間的溝通本身就具有一定優(yōu)越性。標(biāo)準(zhǔn)滿足算法規(guī)制的環(huán)境要求,同時能夠隨著算法科技的發(fā)展而實時調(diào)整,具有靈活性。算法治理具有極強(qiáng)的技術(shù)性,適合技術(shù)標(biāo)準(zhǔn)發(fā)揮作用。然而,要在快速的變化過程中找到穩(wěn)定性與適應(yīng)性的平衡點,這是算法規(guī)制所面臨的一個復(fù)雜挑戰(zhàn)。相較法律規(guī)范而言,標(biāo)準(zhǔn)制定的過程更為便捷高效,而且各種類型的標(biāo)準(zhǔn)可互相轉(zhuǎn)換,這有助于適應(yīng)算法科技的多變性。此外,《算法推薦規(guī)定》已經(jīng)明確提出了關(guān)于算法標(biāo)識與算法備案等相關(guān)標(biāo)準(zhǔn)化建設(shè)的規(guī)則,開辟了一種新的實施路徑,也為其通過標(biāo)準(zhǔn)化方式推動算法透明提供了合法性依據(jù)[15]。
孤立地討論透明度無疑是有限的,倘若更清晰地將最佳實踐和標(biāo)準(zhǔn)結(jié)合起來,這樣就不需要特別依賴合作監(jiān)管方法。對于算法問責(zé)制來說,透明度頂層設(shè)計的原則可以說是必要的,但還不夠全面,目前學(xué)界已經(jīng)呼吁推動算法透明標(biāo)準(zhǔn)體系建設(shè),進(jìn)而落實算法透明。以標(biāo)準(zhǔn)化落實算法透明是未來發(fā)展的必然趨勢。
2 國外算法透明標(biāo)準(zhǔn)建構(gòu)現(xiàn)狀
2.1 英國《算法透明度標(biāo)準(zhǔn)》解讀
2.1.1 算法透明的形式標(biāo)準(zhǔn)
2021年11月,英國內(nèi)閣辦公廳中央數(shù)字與數(shù)據(jù)辦公室(簡稱CDDO)發(fā)布了名為《算法透明度標(biāo)準(zhǔn)》的新法規(guī),旨在提高政府機(jī)構(gòu)在利用算法技術(shù)協(xié)助制定策略時的公開性和透明度。該標(biāo)準(zhǔn)在形式上做出了細(xì)致規(guī)范,內(nèi)容包括:算法透明度數(shù)據(jù)標(biāo)準(zhǔn);算法透明度模板和指南。其中算法透明度數(shù)據(jù)標(biāo)準(zhǔn)以清單形式列明算法使用者應(yīng)當(dāng)填寫的內(nèi)容和格式。算法透明度模板是算法透明應(yīng)當(dāng)公開內(nèi)容的實例。指南是完成算法透明工作的流程指引。作為全球較早發(fā)布的算法透明度標(biāo)準(zhǔn),《算法透明度標(biāo)準(zhǔn)》為公共部門保障算法透明度提供了具體指引。
2.1.2“以目的信息和技術(shù)信息為主要內(nèi)容”的算法透明的實質(zhì)標(biāo)準(zhǔn)
首先,在算法透明適用范圍方面,GDPR在某種程度上建立了一定程度的算法透明度。但仍然面臨適用性有限的質(zhì)疑,因為它只適用于“完全基于自動處理的決定”。這可能意味著,即使存在最低限度的人為干預(yù),數(shù)據(jù)主體的“解釋權(quán)”,以及GDPR第22(3)條的保障措施,都可能不適用。
然而,尚不清楚這種“解釋”是否應(yīng)該為專門針對算法系統(tǒng)的功能,還是應(yīng)該理解為影響決策的特定算法特征。此外,這些解釋涉及不同的領(lǐng)域。根據(jù)GDPR第13(2)(f)條和第14(2)(g)條,數(shù)據(jù)控制者有義務(wù)在自動決策活動開始之前主動通知數(shù)據(jù)主體。同時,第15(1)(h)條通過授予隨時訪問自動處理活動詳細(xì)信息的權(quán)利,引入了事后解釋。這些問題表明,算法透明度要求的簡單存在并不能確保其按照實際情況順利實施。
這是由于技術(shù)問題,以及其他可能影響對算法決策背后原因的有效理解的法律障礙。然而,《算法透明度標(biāo)準(zhǔn)》對適用范圍做出了創(chuàng)新性擴(kuò)大,適用的算法第一類是與公眾直接互動的算法,即完全自動化算法,例如:聊天機(jī)器人;第二類是在技術(shù)規(guī)格、潛在公共影響和決策影響3個層面均滿足一定要求的算法。其次,《算法透明度標(biāo)準(zhǔn)》明確了具體的披露信息并且給出示例。計算機(jī)軟件作為著作權(quán)客體在判定侵權(quán)做實質(zhì)性對比時,面對商業(yè)秘密的保護(hù),不會披露源代碼,僅以目的性代碼作為對比,同樣算法透明不要求披露核心數(shù)據(jù),但是理應(yīng)做出相關(guān)算法公開。
《算法透明度標(biāo)準(zhǔn)》還在不斷更新,2023年,C D D O與C D E I聯(lián)合發(fā)布了《算法透明度記錄標(biāo)準(zhǔn)》,該標(biāo)準(zhǔn)是記錄和共享公共部門如何使用算法工具的標(biāo)準(zhǔn)化形式。其內(nèi)容涵蓋了算法使用方式、算法工具負(fù)責(zé)主體、說明算法決策機(jī)制并對可能產(chǎn)生的風(fēng)險及其潛在的影響進(jìn)行分析等等。這一新規(guī)被視為國家數(shù)據(jù)發(fā)展策略的重要組成部分之一,有助于制定算法透明度的跨政府標(biāo)準(zhǔn)[16]。
2.2 歐盟與美國落實算法透明的情況
雖然歐盟《商業(yè)秘密保護(hù)指令》(以下簡稱《指令》)明確算法可以作為商業(yè)秘密進(jìn)行保護(hù),并且規(guī)定了披露義務(wù),但是當(dāng)GDPR明確規(guī)定的算法透明面對商業(yè)秘密抗辯時,《指令》并沒有提供公共機(jī)構(gòu)做出披露算法商業(yè)秘密決定所應(yīng)遵循的任何標(biāo)準(zhǔn)。換言之,當(dāng)算法透明面對商業(yè)秘密挑戰(zhàn)時,不僅算法透明度的決定權(quán)在《指令》范圍之外,同時算法透明標(biāo)準(zhǔn)也沒有明確。歐洲議會研究服務(wù)機(jī)構(gòu)發(fā)布了一份名為《算法問責(zé)及透明度監(jiān)管框架》的報告,這份報告深入探討了算法應(yīng)用對社會、科技以及監(jiān)管方面的挑戰(zhàn),提出了構(gòu)建一種算法影響力的評價制度,以實現(xiàn)風(fēng)險防范并在未來更好地管理算法的使用[17]。
2022年11月16日,歐盟委員會宣布《數(shù)字服務(wù)法案》生效。該法案采取算法問責(zé)和透明度審計等措施,要求在線平臺應(yīng)當(dāng)公開推薦活動所依據(jù)的算法參數(shù),提高算法透明度。此外,為落實《數(shù)字服務(wù)法案》,歐盟委員會新成立了歐洲算法透明度中心(ECAT),ECAT為歐盟委員會在《算法服務(wù)法案》規(guī)定的超大在線平臺(vlop)和超大在線搜索引擎(vlose)系統(tǒng)的獨家監(jiān)督和執(zhí)行職責(zé)方面有義務(wù)提供科學(xué)和技術(shù)的相關(guān)專業(yè)知識,并針對算法風(fēng)險評估提供新的透明度評估方法和最佳實踐路徑。
再觀美國,其以算法透明為問責(zé)制的前提,《算法問責(zé)法案》的規(guī)制對象幾乎覆蓋了美國所有的互聯(lián)網(wǎng)企業(yè)。在算法透明原則性規(guī)定的基礎(chǔ)上,進(jìn)一步構(gòu)建了算法影響性評估制度,明確對算法繼續(xù)審查和問責(zé)。根據(jù)規(guī)定,算法自動化決策透明化的程度應(yīng)結(jié)合算法的具體運(yùn)用場景、處理個人信息的內(nèi)容等進(jìn)行相應(yīng)的風(fēng)險評級,并根據(jù)風(fēng)險等級來考慮透明度的具體形式。算法影響評估制度也可以看作是海倫·尼森鮑姆提出的場景公正(風(fēng)險)理論(contextual integrity)的具體落實[18]。
美國鼓勵行業(yè)自治,以使企業(yè)能夠自主監(jiān)控并闡釋他們的算法行為。依據(jù)算法問責(zé)法案,美國的算法責(zé)任制度主要依靠外部的專家團(tuán)體、組織及大眾來監(jiān)管與追責(zé)算法的行為。據(jù)此,F(xiàn)acebook于2018年創(chuàng)建了一個獨立的審查委員會,該委員會的憲章詳細(xì)說明了它的權(quán)限范圍。
3 完善以標(biāo)準(zhǔn)實現(xiàn)算法透明的路徑建議
3.1 以法律上的實質(zhì)權(quán)利與標(biāo)準(zhǔn)相結(jié)合實現(xiàn)算法透明
在《網(wǎng)絡(luò)安全法》《個人信息保護(hù)法》以及《數(shù)據(jù)安全法》中,我們都可以看到法律借鑒了標(biāo)準(zhǔn)化的策略。當(dāng)現(xiàn)代社會面臨新興技術(shù)挑戰(zhàn),而立法決策又缺乏有效的參考時,這種創(chuàng)新的治理解決方案:通過法律和標(biāo)準(zhǔn)共同作用便可以提供相應(yīng)的解決路徑。2020年,我國五部門聯(lián)合發(fā)布了《國家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》,指出要將算法模塊納入標(biāo)準(zhǔn)化規(guī)范,強(qiáng)調(diào)了標(biāo)準(zhǔn)在人工智能發(fā)展中的支撐和引領(lǐng)作用[19]。同時,國際標(biāo)準(zhǔn)化組織如:ISO、ITU、IEEE等也已經(jīng)開始在人工智能交互、圖像處理、大數(shù)據(jù)等領(lǐng)域制定相關(guān)標(biāo)準(zhǔn)。
盡管國內(nèi)學(xué)者積極倡導(dǎo)行業(yè)自我約束,期望通過設(shè)定相關(guān)準(zhǔn)則如“算法透明公約”來推動行業(yè)內(nèi)各方遵守相應(yīng)的規(guī)則并實施算法透明化,但目前我們國家尚無關(guān)于算法標(biāo)準(zhǔn)的公開與聲明機(jī)制,網(wǎng)絡(luò)公司很少透露他們的算法標(biāo)準(zhǔn)。所以,以標(biāo)準(zhǔn)作為手段實現(xiàn)算法透明便不能回避標(biāo)準(zhǔn)的現(xiàn)實效力問題[5]。
首先,相較于英國《算法透明度標(biāo)準(zhǔn)》中標(biāo)準(zhǔn)既非質(zhì)量標(biāo)準(zhǔn),亦非強(qiáng)制標(biāo)準(zhǔn),也不符合數(shù)據(jù)標(biāo)準(zhǔn)的要求的質(zhì)疑,我國《標(biāo)準(zhǔn)化法》第27條的標(biāo)準(zhǔn)自我聲明公開制度便能回應(yīng)這一質(zhì)疑。其次,相較于法律所依賴的國家強(qiáng)制力,標(biāo)準(zhǔn)的運(yùn)用更為靈活且易于執(zhí)行。因此,我們可以把標(biāo)準(zhǔn)看作是詮釋法律法規(guī)的方式之一,比如:像微軟、亞馬遜和阿里這樣的國際企業(yè),它們并沒有直接依據(jù)GDPR來構(gòu)建自己的云基礎(chǔ)架構(gòu),而是實施了I S O針對GDPR所制定的ISO/ IEC 27701等標(biāo)準(zhǔn)。因此,我們需要將這兩者相互聯(lián)系并整合在一起,頂層設(shè)計法律保障,以標(biāo)準(zhǔn)為落實方式,使得算法透明實現(xiàn)具有可操作性。
3.2 完善本土化算法備案制度解決法律困境
2022年3月1日,《算法推薦規(guī)定》正式生效,提出了“算法備案”的新方案。與英國的《算法透明度標(biāo)準(zhǔn)》相比,算法備案制度也是一項有中國特色的算法透明度治理的新舉措。
《算法推薦規(guī)定》對算法備案制度的義務(wù)主體、應(yīng)備案的算法技術(shù)、算法備案的內(nèi)容、算法備案的公示、算法動態(tài)備案都進(jìn)行了明確的規(guī)定,同時,該規(guī)定還創(chuàng)新性地規(guī)定了違規(guī)備案的行政法責(zé)任。
當(dāng)前階段,我國正處在《算法推薦規(guī)定》實行的第一步,尚未形成一致性的執(zhí)行規(guī)范。因此,算法公開信息的詳細(xì)與否完全由算法推薦服務(wù)提供者來決定?;谒惴ㄍ扑]服務(wù)者履行算法備案公示義務(wù)的標(biāo)準(zhǔn)和監(jiān)管尺度,有必要在后續(xù)發(fā)展中進(jìn)一步完善。
針對算法備案的義務(wù)主體,未來應(yīng)當(dāng)進(jìn)一步擴(kuò)大,可以借鑒美國對私營產(chǎn)業(yè)領(lǐng)域和公共政府領(lǐng)域算法的區(qū)別規(guī)制。相較于英國在《算法透明度標(biāo)準(zhǔn)》中針對的對象是公權(quán)力主體,我國算法備案的主體則是商事主體?!端惴ㄍ该鞫葮?biāo)準(zhǔn)》針對主體范圍擴(kuò)大是必然趨勢,算法備案制度也亦然。未來對政府使用算法同樣實施算法備案制度,以加強(qiáng)算法的透明性和公眾接受度。
3.3 以場景化算法解釋克服技術(shù)障礙
在克服算法黑箱的技術(shù)障礙的方法中,我們可以借鑒域外的解決方案,適用于GDPR要求的局部解釋。通過對可能的輸入進(jìn)行抽樣,計算出一個更簡單的局部模型,并用于確定輸入和輸出之間的相關(guān)性,以及推導(dǎo)出原始決策過程的主要因素。其主要思想是,即使一個算法非常復(fù)雜,總體上難以解釋,也有可能提供可靠和可理解的局部解釋。
此外,“黑箱”方法下的另一種解決辦法涉及反事實的解釋。此方法評估特定因素的變化如何影響輸出。例如:它可以用來評估一項決定的公平性,其依據(jù)是某一特定投入中的因素對該決定產(chǎn)生的影響。以這種方式提供解釋是可能的,而不需完全披露內(nèi)部邏輯算法。從這個意義上說,暴露敏感數(shù)據(jù)和侵犯權(quán)利的風(fēng)險會小一些。密碼學(xué)工具可能允許證明算法決策過程的屬性,而不會泄露決策策略的細(xì)節(jié)。這可能是挑戰(zhàn)自動生成結(jié)果可靠性的算法使用者的權(quán)利與算法所有者的利益之間的公平妥協(xié),這樣一來,算法所有者就不必披露源代碼。
此外,算法解釋程度的不同也可以作為化解法律困境的一種方法,有限性解釋、強(qiáng)制性披露和鼓勵自愿披露將有助于確保商業(yè)秘密所有者和公眾的利益得到很好的平衡,并且只有在必要和相稱的情況下才對商業(yè)秘密的保護(hù)進(jìn)行限制。
4 結(jié) 語
算法在數(shù)字經(jīng)濟(jì)時代下被大肆應(yīng)用,在某種程度上貌似跳脫了傳統(tǒng)法律的可控范圍,尤其在實踐中算法已經(jīng)可作為商業(yè)秘密被保護(hù),為其可能產(chǎn)生的風(fēng)險提供了逃避法律問責(zé)的理由。算法透明作為規(guī)制算法濫用、化解算法風(fēng)險的重要手段,也不得不面對商業(yè)秘密的抗辯,從而面對限制與保護(hù)的僵局,難以得到進(jìn)一步落實來規(guī)訓(xùn)算法權(quán)力,維護(hù)個人利益和社會公共利益。
解決之道不僅在于調(diào)和算法透明與商業(yè)秘密保護(hù)之間的微妙平衡,更應(yīng)有可供落實操作的規(guī)則方式。為此,可以在借鑒國外經(jīng)驗基礎(chǔ)上,借助標(biāo)準(zhǔn)手段,在形式上應(yīng)用算法透明公開的標(biāo)準(zhǔn)模板,披露“以目的信息和技術(shù)信息為主要內(nèi)容”的信息以保障公眾知情權(quán),引入算法影響評估機(jī)制,分析算法風(fēng)險,以此作為公眾使用前提。對于我國本土化的算法備案制度還可以在操作落實上進(jìn)一步細(xì)化,統(tǒng)一執(zhí)行標(biāo)準(zhǔn)并且擴(kuò)大備案主體范圍。此外,對算法解釋框架進(jìn)行系統(tǒng)性重構(gòu),可以遵循分類分級的整體布局個案分析下場景化適用不同解釋手段,進(jìn)而實現(xiàn)總體的解釋效率和個案的解釋正義。
標(biāo)準(zhǔn)化路徑巧妙地在算法透明落實與商業(yè)秘密保護(hù)之間找到了平衡,在今后算法透明落實操作的規(guī)則設(shè)計中也可借助標(biāo)準(zhǔn)手段展開。
參考文獻(xiàn)
[1]梁志文. 論算法排他權(quán):破除算法偏見的路徑選擇[J]. 政治與法律, 2020(08):94-106.
[2]深圳市中級人民法院民事判決書(2021)粵03民初 3843號民事判決書[Z].
[3]彭飛榮. 論算法作為商業(yè)秘密的侵權(quán)認(rèn)定[J]. 浙江社會科學(xué), 2023(06):47-56+157.
[4]柳經(jīng)緯. 標(biāo)準(zhǔn)的類型劃分及其私法效力[J]. 現(xiàn)代法學(xué),2020,42(02):157-170.
[5]衣俊霖. 數(shù)字孿生時代的法律與問責(zé)——通過技術(shù)標(biāo)準(zhǔn)透視算法黑箱[J]. 東方法學(xué), 2021(04):77-92.
[6]夏慶鋒. 網(wǎng)絡(luò)合同中偽契約條款的排除[J]. 經(jīng)貿(mào)法律評論, 2020(02):102-119.
[7]張凌寒. 算法自動化決策中的女性勞動者權(quán)益保障[J].婦女研究論叢, 2022(01):52-61.
[8]丁曉東. 基于信任的自動化決策:算法解釋權(quán)的原理反思與制度重構(gòu)[J]. 中國法學(xué), 2022(01):99-118.
[9]靳雨露. 算法披露的域外經(jīng)驗與啟示[J]. 情報雜志, 2022,41(07):91-99.
[10]田野. 平臺用工算法規(guī)制的勞動法進(jìn)路[J]. 當(dāng)代法學(xué),2022,36(05):133-144.
[11]李安. 算法透明與商業(yè)秘密的沖突及協(xié)調(diào)[J]. 電子知識產(chǎn)權(quán), 2021(04):26-39.
[12]李曉輝. 算法商業(yè)秘密與算法正義[J]. 比較法研究, 2021(03):105-121.
[13]蘇宇. 算法解釋制度的體系化構(gòu)建[J]. 東方法學(xué), 2024(01):81-95.
[14]宋偉,劉子荷. 論算法黑箱的規(guī)制——基于算法解釋視角[J]. 南海法學(xué), 2023,7(04):114-124.
[15]張韜略. 軟件源代碼強(qiáng)制披露制度建構(gòu)的中國方案[J].東方法學(xué), 2023(03):176-187.
[16]張欣. 算法影響評估制度的構(gòu)建機(jī)理與中國方案[J]. 法商研究, 2021,38(02):102-115.
[17]崔文波,張濤,馬海群,等. 歐盟數(shù)據(jù)與算法安全治理:特征與啟示[J]. 信息資源管理學(xué)報, 2023,13(02):30-41.
[18]Helen Nissenbaum. Privacy as contextual integrity[J].Washington Law Review, 2004,79(1): 119-158.
[19]彭飛榮. 論算法創(chuàng)作中涉數(shù)據(jù)的著作權(quán)侵權(quán)風(fēng)險及其化解[J]. 法律適用, 2023(04):46-55.