□ 文 陳 鵬
隨著大數(shù)據(jù)與人工智能的運用,自動化決策既可以大幅提高決策效率,為消費者或用戶提供更精準的服務,同時也帶來很多現(xiàn)實的挑戰(zhàn)。自動化決策可能侵犯個人的隱私。在Facebook組織用戶的新聞推送的算法測試中,數(shù)據(jù)科學家亞當?卡拉默發(fā)現(xiàn)不同的微調(diào)會影響用戶的行為和情緒,進而根據(jù)帶有情感訊息的個人信息的自動化決策侵犯個人的隱私。自動化決策可能侵犯個人信息權(quán)益?;ヂ?lián)網(wǎng)平臺通過大數(shù)據(jù)收集消費者的個人信息,進而通過自動化決策推測出消費者的消費偏好,如果該過程未充分得到個人信息主體的授權(quán),則可能涉嫌侵害個人信息權(quán)益。算法的不透明性使得機器決策漸漸剝奪了人類的決策的自主性,與此同時,建立在個人數(shù)據(jù)收集基礎(chǔ)上的自動化決策威脅著個體的尊嚴與自由,也更容易固化算法帶來的歧視與偏見。算法不透明被廣泛承認但又定義不同。近年來有學者認為算法的自動化決策應當具備可解釋性。數(shù)據(jù)主體有權(quán)了解自動化決策的邏輯和原因,但現(xiàn)在及未來處理公民個人數(shù)據(jù)的服務型算法通常依賴機器學習?;跊Q策樹的機器學習方法理論上可以決定學習路徑,但存在著嚴重的約束,使得任何說明都非常困難。因此,本文通過分析研判國內(nèi)外法律的相關(guān)內(nèi)容,對自動化決策的數(shù)據(jù)保護問題進行探究。
在分析自動化決策的規(guī)制之前應當先對自動化決策的類型進行界定。算法是邏輯、數(shù)學運算的序列。它們可以通過向計算機系統(tǒng)提供分析輸入數(shù)據(jù)的指令,使決策過程自動化處理數(shù)據(jù)。這些指令、算法被認為能夠識別大型數(shù)據(jù)集中有意義的關(guān)系和可能的模式,從而使過去完全由人類完成的決策達到機械化。對比我國《民法典》《個人信息保護法》和GDPR關(guān)于自動化決策的定義,自動化決策的前因是識別分析,決策很難不通過分析作出,但是也有一部分預測不直接來源于識別分析。因此,筆者認為自動化決策除了識別分析基礎(chǔ)上還應囊括其他類型。另外,在實踐中除了由個人直接提供以及針對個人監(jiān)測后得到的數(shù)據(jù)之外,自動化決策還常常以衍生或者推導出的數(shù)據(jù)為基礎(chǔ)。因此,自動化決策的過程既應包括人類的決策,也應該包含機器的自動判斷。
1.2.1 對自動化決策活動的透明度和公平合理進行規(guī)范,是對算法歧視等問題的積極回應。人們嘗試過使用開放源代碼這樣的方式對抗“黑箱”,但效果并不盡如人意,而且開源在很多領(lǐng)域并不現(xiàn)實。同樣,即使是要求算法具有可解釋性也不具有實際意義,目前神經(jīng)網(wǎng)絡(luò)根本沒有辦法被解釋。實踐中,算法的透明度具體的衡量標準和細則可以避免在具體實施過程中流于形式。自動化決策的透明度和結(jié)果公平合理應當避免出現(xiàn)個人舉證不能的情況下無法行使算法解釋權(quán)。既要保證過程和程序的透明,也要保證結(jié)果的透明。把識別的過程和結(jié)果以及識別分析作相應的區(qū)分,以避免過于主觀地作出判斷和結(jié)論。
1.2.2 不僅要對完全自動化決策施加嚴格限制還要對非完全的自動化決策做出規(guī)范。個人有不受完全基于自動化決策的權(quán)利。該權(quán)利的行使取決于個人的自由意志和選擇。實踐表明,一項自動化決策系統(tǒng)已經(jīng)被明確限定為輔助決策功能,個人行為中出于對機器邏輯的信任,或由于個人決策者缺乏時間、精力等原因,該系統(tǒng)實際上仍然傾向于完全自動化運行。即在系統(tǒng)運行時存在實質(zhì)性人為控制,但若個人決策者存在明顯偏見,也可能使得系統(tǒng)內(nèi)嵌間接的、無意的甚至不易察覺的歧視。另外,個人信息處理者在評估自動化決策時,應當考慮個人的意見并有義務對個人觀點作出回應。實踐中,個人信息處理者有可能通過不回應個人的意見,而使個人的權(quán)利無效。但當個人有權(quán)對決策提出異議并同時可以行使表達觀點的權(quán)利時,那么對于此種情況下的自動化決策結(jié)果的責任承擔又將出現(xiàn)不能明確的問題。
透明度一直是有關(guān)自動化決策問責的焦點。
基于算法推理的決策可能是有偏見的、歧視性的和錯誤的所以要對算法進行規(guī)范。這一工具性的基本原理將監(jiān)管描述為糾正具體問題的工具。程序員和及其企業(yè)做了一系列的決定,從使用什么數(shù)據(jù)集來訓練算法,到如何定義算法的目標輸出,再到算法產(chǎn)生誤報和誤報的可能性,算法既不中立,也不完美。例如,美國各地的法官在審前和量刑決定中都依賴于廣泛使用的累犯風險算法,要求算法預測再次被捕,并在一個人被捕而不是被定罪時確認其準確性,扭曲了算法的輸出,對其適用的個人造成重大后果。另一個被廣泛討論的算法偏差問題的例子是有偏差數(shù)據(jù)集的使用,當一個算法在有偏差的數(shù)據(jù)上訓練時,它的輸出也會有偏差。調(diào)節(jié)算法的工具性理論可以來糾正這些問題。
一些要求規(guī)范自動化決策的觀點側(cè)重于證明理由的需要,即證明無論是要求對決策作出解釋,還是對決策系統(tǒng)進行監(jiān)督,自動化決策均具有社會合法性。算法根據(jù)數(shù)據(jù)進行關(guān)聯(lián)和預測,受輸入的限制,又相對不受社會背景的限制規(guī)范。例如,一個算法可能會發(fā)現(xiàn)一個人衣服的價格和償還貸款的可能性之間存在著很強的相關(guān)性。然而,在通常情況下,我們可能會不希望銀行根據(jù)自己衣服的價格做出貸款決策。這也可能導致如性別、性取向、經(jīng)濟地位、種族或其他特征的不同影響。算法可以制定并遵循規(guī)則,它不一定具備修改或打破規(guī)則的能力。因此,規(guī)范自動化決策要求對所使用的數(shù)據(jù)、模型和啟發(fā)式進行透明化。這是為了確保決策不是基于非法或其他規(guī)范上不可接受的因素和推理做出的,并使個人能夠爭辯為什么適用于他們的系統(tǒng)推理可能是錯誤或不公平的。
它將個體視為可替代的。第一,使用機器做出的決定侵犯了作為人這個整體的尊嚴。第二,創(chuàng)建個人檔案,存儲一個沒有輸入的版本,然后根據(jù)這個“數(shù)據(jù)”做出決定,如果個人缺乏訪問、更正甚至刪除這些檔案中數(shù)據(jù)的能力,他們的尊嚴和自主權(quán)受到損害。第三,算法分析及其結(jié)果是限制用戶個人自主性的方式。這三點對實現(xiàn)個人數(shù)據(jù)保護權(quán)利是一樣的,即訪問、更正、解釋、甚至刪除和爭議的權(quán)利。這三點基本原理顯然是相互聯(lián)系的。要求使用算法的程序員或企業(yè)披露決策啟發(fā)法,可以發(fā)現(xiàn)偏見和歧視。允許個人訪問和糾正數(shù)字檔案中的錯誤,也可以達到減少系統(tǒng)出錯的工具性目的。
規(guī)制自動化決策最大困難在于不同的理論有時會推動不同的模型規(guī)則。聚焦工具性原因?qū)е戮唧w糾正問題的監(jiān)管方法。關(guān)注尊嚴的原因會導致個人賦權(quán)的爭論。合理的理由可能導致對任何一種治理形式的爭論,或者兩者都有爭論。大多數(shù)拒絕個別或公開透明形式做法,是因為把重點放在了糾正偏見和錯誤,不太重視顯要或正當?shù)睦碛?,這是錯誤的。即使是只關(guān)心糾正錯誤和消除偏見,透明度和問責制也發(fā)揮著重要作用。
為了理解如何最好地利用透明度,我們不僅要知道透明度可以做什么,還要知道監(jiān)管的目標,即我們希望看到什么樣的體系。越來越多的研究人員利用法律規(guī)定透明度的要求使“黑箱”系統(tǒng)變得可解釋或以其他方式透明。例如歐盟GDPR以及美國公平信用報告法(FCRA)要求使用算法可解釋性技術(shù),或者可能在功能上禁止使用不可解釋的算法。但是僅僅關(guān)注技術(shù)修復卻忽視了一個日益增長的共識,即算法的可解釋性也意味著人類系統(tǒng)的可解釋性。算法深嵌社會系統(tǒng),自動化決策反映了程序員在一開始就做出設(shè)計選擇的價值觀、算法產(chǎn)生的背景和方法使用的技術(shù)。
認識算法的模型、用戶和系統(tǒng)非常重要。我們不僅需要深入了解代碼或數(shù)據(jù)集,還需要深入了解構(gòu)建和實現(xiàn)算法的人類決策者的過程和輸出。算法不僅是抽象工具,而應該在復雜的人類系統(tǒng)中研究算法嵌入式。技術(shù)系統(tǒng)是嵌入在更大的人類系統(tǒng)中的子系統(tǒng)和組織。將受監(jiān)管系統(tǒng)的定義擴展到包括用戶和組織,會使算法決策更容易監(jiān)管。重點不應該放在機器學習算法的運行模式上,而是算法開發(fā)的早期階段。因此,問責制和透明度的一個目標是算法本身,而另一個目標是圍繞它的人類決策者或組織和企業(yè)。為了實現(xiàn)算法問責的目標,使兩者都透明是必要的。即使是在這種框架下,哪些系統(tǒng)需要變得可見和負責是關(guān)鍵。
從公開披露到內(nèi)部監(jiān)督,幾乎所有領(lǐng)域關(guān)于算法問責充斥著對各種形式和程度的透明度的呼吁。事實上,盡管透明度幾乎被拋到了算法問責上,也很少考慮針對不同監(jiān)管目標的不同透明度之間的相互作用。透明度有許多不同的類型,當基于多種原因、針對多種系統(tǒng),就會出現(xiàn)復雜的差距和重疊??紤]到這一點,這些問題只能從整體的角度來看,采取以下方式考慮自動化決策責任的透明度:既要有個體化的透明,也有系統(tǒng)化的透明。第一種透明目標是算法和人類對其構(gòu)造的決定。第二種側(cè)重于使治理體系本身透明和負責。第一個目標是讓人們看到算法決策背后的原理和偏見。第二個目標是監(jiān)督并負責。GDPR在治理自動化決策中廣泛使用協(xié)同治理。這導致了透明度對于算法問責是必要的,因為它對于有效的協(xié)同治理是必要的。要使協(xié)同治理發(fā)揮作用,就必須有外部的投入和監(jiān)督。因此,筆者認為透明度的目標應當有三點:首先是技術(shù)。第二是圍繞人類系統(tǒng)的技術(shù)。第三是治理機制,旨在影響和改變技術(shù)和系統(tǒng)。當我們討論算法透明性時,我們不僅需要評估為什么我們需要透明性,還需要評估我們的目標是什么系統(tǒng)。
個體化的透明度包括受自動化決策影響的個體的信息流,如果問責制度作為一個整體缺乏透明度的機制,那么GDPR所要求的解釋權(quán)可能必須做到雙重甚至三重工作。解釋必須同時向受決策影響的個人證明系統(tǒng)的合理性,作為對系統(tǒng)的更廣泛監(jiān)督,甚至作為一種對算法決策的個人治理負責的形式。個體化透明度不太可能有效地完成這三件事。相比之下,系統(tǒng)透明度最終服務于多個目的地,提供對算法和系統(tǒng)的可見性和監(jiān)督系統(tǒng),有助于解決有關(guān)算法的工具性問題。這些透明度都是為了觀察受治理的對象、組織或過程。用算法糾正社會問題的決策,不僅要觀察被治理的系統(tǒng),而且要關(guān)注那些負責實施甚至提出解決方案的企業(yè)和法律。在一個合作治理體系中,協(xié)同治理效果最好,例如,對企業(yè)如何界定歧視的含義的決定進行監(jiān)督。一方面,這是一種系統(tǒng)性的問責形式,旨在通過工具手段減少算法及其周圍系統(tǒng)的歧視性。另一方面,第三方透明度也起到了審查企業(yè)自由裁量權(quán)和確保企業(yè)決策不會偏離公眾太遠的作用。同樣,外部審計或監(jiān)督可以用來糾正算法本身的問題,也可以作為觀察和檢查的手段。在這些擬議的治理制度中,對透明度所服務多重目的的洞察才具有實際意義。如果不承認透明度的真正局限性,那么關(guān)于透明度的任何討論都是不完整的。確定透明度的一些實質(zhì)性法律可能是什么樣的:監(jiān)管機構(gòu)既有信息強制能力,又有針對某些做法的實質(zhì)性執(zhí)法能力,例如征收巨額罰款的能力。個人既有權(quán)同意服從某一制度,也有權(quán)選擇退出該制度。它可能會被給予糾正權(quán)、抗辯權(quán)等,有不受基于特定類別敏感數(shù)據(jù)的決定的實質(zhì)性權(quán)利,或者被賦予一項不因特定的不可改變或受到其他保護的特征而受到歧視實質(zhì)性權(quán)利。因此,孤立地討論透明度的做法是有限的。但也可能是暫時有限,也許未來這些行業(yè)將形成更清晰的標準,這樣我們就不必過于依賴協(xié)作監(jiān)管方法。但在此之前,透明度是監(jiān)管方法的一個重要組成部分。
在新一代法律和技術(shù)爭端中,存在著更深層次、更具結(jié)構(gòu)性的關(guān)系。人工智能的真正潛力不在于我們向彼此透露的信息,而在于它們提出的有關(guān)技術(shù)、個人權(quán)利和數(shù)據(jù)相互作用的問題。自動化決策在商業(yè)和公共事業(yè)領(lǐng)域的嵌入式應用蘊含著巨大潛力的同時也對數(shù)據(jù)的治理模式進行著沖擊。本文借助算法透明度這一基礎(chǔ)概念,深入剖析了其蘊含的規(guī)范價值,創(chuàng)建合理的算法透明度并建立算法信任,根據(jù)透明度在自動化決策規(guī)制構(gòu)建的重要性和必要性,提出了透明度分類的衡量標準,為自動化決策的數(shù)據(jù)保護和法律規(guī)制闡釋了合理透明度類型的機理。