宗雪萍 戴麗斯
(江西理工大學法學院,江西 贛州 341000)
隨著人工智能與大數(shù)據(jù)的迅速發(fā)展,算法已經(jīng)滲透到社會經(jīng)濟、生活及治理的運作,深刻地影響著社會組織形式和人類行為模式。以大數(shù)據(jù)分析形成的算法不是完全客觀、中立的技術,其對信息的掌握、誘導與決策的隱蔽性,容易引發(fā)各種法律及事實風險。有必要將算法技術納入預防治理范圍,以應對算法對傳統(tǒng)規(guī)制體系提出的挑戰(zhàn)。
人工智能時代下,算法處理數(shù)據(jù)的類型與方式不斷迭代革新,依靠機器深度學習、數(shù)據(jù)分析等新型技術串聯(lián)起一張完整的技術網(wǎng)絡。人類生活中接觸的短視頻推送、手機導航、自動駕駛技術,都需要這張網(wǎng)絡予以輔助。甚至在金融、司法、行政等領域,算法接手人類給予的權利,指導人類行為決策和決定信息真實性。在此背景下,算法技術逐漸脫離了工具化的范疇,能夠利用數(shù)據(jù)學習并進行深度自我發(fā)展,從而形成自動化決策。[1]可以說,算法(Algorithm)是為解決一個特定問題或者達成一個明確的結(jié)果,而對數(shù)據(jù)進行分析、計算和求解的操作程序。其運行的前提是數(shù)據(jù)信息,算法實質(zhì)上是建立在數(shù)據(jù)填充的基礎上,通過一系列計算步驟得出運算結(jié)果。運算結(jié)果與邏輯設計、基礎數(shù)據(jù)、推理假設等環(huán)節(jié)直接相關。[2]通過對算法基本運行原理的了解,進一步探究其潛在技術風險的成因。
一是智能算法的深度學習能力。傳統(tǒng)算法是由人為編寫算法的整個過程,其外在表現(xiàn)模式為“輸入+邏輯=輸出”,在清晰的程序邏輯下,要求執(zhí)行相應的輸入便會產(chǎn)生期望輸出,使得行為與結(jié)果具有預期可控制性。而智能算法的深度學習能力表現(xiàn)為,設定的結(jié)構(gòu)化邏輯規(guī)則在與事實結(jié)合的使用過程中不斷推導出新的邏輯規(guī)則。既有以及新的邏輯規(guī)則成為下一次運算的基礎,在重復過程中不斷更新、強化,實現(xiàn)解決復雜難題的目的。[3]
二是算法自動化決策的失控性。盡管算法設計來源于人類的編寫,但關于算法接近深度學習這一目標及程度深淺的呈現(xiàn),卻是常人無法參與的未知地帶,自然也造成其推理過程與決策原因?qū)τ谌祟愄幱凇昂谙洹敝小.斔惴ù嫒祟悰Q策卻不被其所了解,而后果由使用主體被迫承受,便會造成法律公平性的失衡?,F(xiàn)今數(shù)據(jù)驅(qū)動下的算法以智能應用形式嵌入社會生活之中,逐漸成為人類的權利代理者,實現(xiàn)對社會規(guī)則的干預、塑造與引導。若算法解釋不能像法律一樣受到質(zhì)詢與監(jiān)管,由技術黑箱所導致的失控性將會不斷擴大。[4]
算法技術的應用會在社會諸多領域引發(fā)各種風險,當不同風險疊加一起時,便呈現(xiàn)出較高的復合性。以利用互聯(lián)網(wǎng)智能算法來實現(xiàn)系統(tǒng)駕駛的自動駕駛汽車為例,常見的風險有道路交通事故風險、網(wǎng)絡安全風險、數(shù)據(jù)信息安全風險等。實際場景中,黑客為了獲取、轉(zhuǎn)賣隱私信息,會采取侵入并破壞網(wǎng)絡系統(tǒng)的手段,造成網(wǎng)絡安全風險與數(shù)據(jù)信息安全發(fā)生了重疊。面對算法高復合性風險的特點,我國行政規(guī)制體系顯得有些不敷應對。傳統(tǒng)行政組織結(jié)構(gòu)表現(xiàn)為以部門為分割的外在形態(tài),要求根據(jù)行政事務種類劃分為不同的部門,旨在以明確的分工來促進行政管轄的專業(yè)化。在中國情境下,政策執(zhí)行在縱向與橫向的動態(tài)關系,構(gòu)成了我國治理體系的條塊特征。[5]“條”關系中的行政部門以具體職能為導向,表現(xiàn)為機械的縱向結(jié)構(gòu)與單一化的服務內(nèi)容,在跨領域的治理難題上存在不足。因此,算法引發(fā)的多領域風險打破了行政職能前后分割的線性關系,混淆了部門責任歸屬范疇。按照過去各司其職的理念,不同部門缺乏溝通及業(yè)務互助,將難以規(guī)避算法風險。
掌握算法的企業(yè)或組織利用在數(shù)據(jù)處理和深度學習算法上的技術優(yōu)勢,把控社會資源及信息的配置,來引導公眾意識和決策,便會形成一種新型的權力屬性——算法權力。與國家強制性權力不同,算法權力是一種內(nèi)在化、廣泛化的權力關系,表現(xiàn)為公眾及組織的引導與操控。當這種非政府力量在運用中發(fā)生偏離,加重實質(zhì)與形式的不平等,便會形成算法權力異化的現(xiàn)象。[6]典型的即是算法偏見,主要指算法在數(shù)據(jù)收集與使用的過程中,因包含人類的隱含價值觀念而使得輸出表現(xiàn)有失公平的現(xiàn)象。算法偏見來源于三個方面:一是數(shù)據(jù)樣本的偏見。人類社會制度、習俗、思想等差異,造成人工智能的原始數(shù)據(jù)樣本帶有歧視色彩;二是研發(fā)技術偏見。研發(fā)人員容易將價值判斷、研發(fā)理念滲透到設計過程,使程序算法吸納個人偏見;三是后天學習形成偏見,作為學習型技術的算法易因后續(xù)吸納的數(shù)據(jù)存在偏見,而導致學習結(jié)果偏離軌道。[7]
在實踐中,算法技術對人的影響體現(xiàn)為利用人們形成的技術習慣依賴,算法技術可以揭示、誘引甚至操控公眾的意志選擇,對人們價值觀造成“聯(lián)系-依賴-作用”的線性影響路徑。這種依賴于大規(guī)模的集成數(shù)據(jù)形成的算法,靠傳感器、系統(tǒng)分析和智能終端匯總社會個體和群體的生活狀況、個性特征,將分散的價值觀集合成公意,從而強制執(zhí)行。[8]如資本與技術的結(jié)合,會將資本自身觀念與部分現(xiàn)實選擇性呈現(xiàn),引導公眾及社會組織的價值選擇,加劇社會固有偏見與歧視風氣。一旦缺乏必要的監(jiān)管,算法規(guī)則便會隱匿傳統(tǒng)規(guī)范與道德的約束,催生出制度羞辱,消弭人的尊嚴與價值??梢哉f,面對大數(shù)據(jù)時代的信息洪流,算法容易被利用來加深人們信息技術控制、處理信息的依賴。
“黑箱”是未知的存在,指人類既不能從外部打開,也不能觀察其內(nèi)在結(jié)構(gòu)的系統(tǒng)。而“技術黑箱”具有可認知性,指一部分人可以認識到內(nèi)在技術知識,但仍有部分人不能認識到。[9]放在人工智能情境中討論,具體表現(xiàn)在以下兩方面:一方面,人工智能的軟硬件、控制器等零件研發(fā)過程較為分散,通常由不同公司的少數(shù)研發(fā)人員負責。即使研發(fā)人員能認識到自己設計的零件知識,卻難以理解整個算法的運行原理。另一方面,普通人通常會根據(jù)說明書或協(xié)議,實現(xiàn)簡單的操作功能。出于專業(yè)知識的匱乏,很少有人去深究算法技術邏輯,因而無法認知到算法風險。從風險的自治與管制的理論角度出發(fā),個體應當在對某個事物有足夠的認識,能夠進行風險評估與避免處理,才被認為具有自擔風險的可能。作為囿于信息不對稱性的劣勢一方,無法知悉自身信息數(shù)據(jù)被抓取、處理的細節(jié),也就很難對黑箱行為造成的損害結(jié)果進行取證。再者,掌握算法邏輯的開發(fā)者出于對自身利益的考慮,通常會利用商業(yè)秘密保護的規(guī)定來規(guī)避責任,為算法規(guī)則的隱秘性提供看似合法的依據(jù),造成司法認定責任主體的困難,使得現(xiàn)實主體的責任承擔難以落至實處。在以上雙層因素制約下,缺乏有法可據(jù)的主體為算法的“黑箱行為”買單。
美國未來學家雷·庫茲韋爾(RayKurzweil)預測2045年將是人類科技“奇點”1奇點一詞來源于數(shù)學的Y=1/X函數(shù)曲線上X=0的點。雷·庫茲韋爾創(chuàng)作的《奇點臨近》(The Singularity Is Near)提出,我們現(xiàn)在14年相當于過去一百年的技術進步,未來7年就相當于現(xiàn)在的14年,總有一天,人類一秒鐘的技術進步將超過之前上萬年所做的一切,這就是摩爾定律??萍紩S著發(fā)展呈現(xiàn)指數(shù)型增長,最終到達某個極限。而人工智能使得人類生活發(fā)生巨大改變的臨界點就稱為奇點,并預測2045年將是人類科技奇點的到來時間。的到來時間,而算法技術的發(fā)展即是關鍵推動因素。[10]然而,國外算法技術的運用并非一帆順風,諸如微軟聊天機器人Tay事件;AI預測犯罪引發(fā)歧視風波;機器人誤傷少年等不良影響使得各國著力探索算法技術規(guī)制路徑。
基于大數(shù)據(jù)形成算法,算法又構(gòu)成人工智能核心要素的理念,在對數(shù)據(jù)的治理上,歐盟生效的《通用數(shù)據(jù)保護條例》(以下簡稱《條例》)要求,應在算法設計起始的代碼中加入數(shù)據(jù)保護步驟,即是“經(jīng)安排的數(shù)據(jù)防護”。[11]該條例不僅規(guī)定了基本個人信息的保護,還將保護范圍擴大至基因數(shù)據(jù)、社交興趣等生物識別性數(shù)據(jù),同時將數(shù)據(jù)權利創(chuàng)設細分為訪問權、修改權、限制處理權、反對權等類別。針對算法解釋,《條例》開發(fā)了監(jiān)督與自律一體的數(shù)據(jù)保護官(DPO)的模式,DPO必須由具備計算機專業(yè)知識,能夠熟悉且能閱讀算法的人擔任,旨在增強算法與數(shù)據(jù)的透明性、可解釋性。而美國則從解釋權模式來規(guī)制算法風險,《算法責任法案》(Algorithmic Accountability Act)即要求有關企業(yè)自行審查算法歧視,就決策過程中可能對消費者產(chǎn)生不準確、不公正的影響,作出高風險自動化決策系統(tǒng)影響評估報告,以促進算法的可解釋性。[12]同時,各國政府還牽頭成立行政審查機構(gòu),運用國家權利進行監(jiān)管、審核及處罰等執(zhí)法工作。美國聯(lián)邦貿(mào)易委員會、歐盟數(shù)據(jù)保護委員會、日本個人數(shù)據(jù)保護委員會自成立,便處理了近年來跨國互聯(lián)網(wǎng)公司有關數(shù)據(jù)、算法的侵權案件。
在算法復合性風險特征下,社會治理對象與訴求呈現(xiàn)多樣化與復雜化的形態(tài),單一化職能部門已很難作出具體應用下的規(guī)制任務。庫伊曼提出的治理與共治概念,為傳統(tǒng)行政組織結(jié)構(gòu)革新提供借鑒思路。2庫伊曼(J·Kooiman)和范·弗利埃特(M·VanVliet)認為“治理并非通過外部力量強制創(chuàng)造出結(jié)構(gòu)或秩序,其發(fā)揮作用需要進行統(tǒng)治及相互發(fā)生影響的多種行為者的互動……沒有任何一個部門能夠擁有解決多樣、動態(tài)、復雜問題的全部信息,也沒有一個個體行動者能有全部知識與能力去發(fā)揮工具的有效性……共治作為治理方式之一,是處理復雜多變的社會治理問題下,最為合適的轉(zhuǎn)變方式”。[13]本文基于智能時代的規(guī)制體系,提出多元化協(xié)同共治理念并從以下三個方面展開:
一是治理主體的多元化。從行政內(nèi)部出發(fā),必須明確階段不同但具有聯(lián)系的職能的詳細性、可問責性,以避免部門間相互推諉責任。對于傳統(tǒng)職能可以覆蓋的領域仍然遵循舊規(guī),若存在傳統(tǒng)職能無法包含或者涉及之外的項目,可根據(jù)規(guī)制目標指向的不同部門通過規(guī)章制度來協(xié)同、配合。如何兼顧不同的風險目標,需要考慮算法涵蓋的不同領域的實踐,從而進一步詳細規(guī)劃。從行政外部來看,行政機構(gòu)可以通過增加參與治理主體范圍來尋求外援,將授權機構(gòu)、公共管理組織等納入體系,同時注重律師、技術專家等人才在團隊中的占比。
二是組織關系的協(xié)調(diào)動態(tài)性。探尋規(guī)避算法多樣化風險的真值條件,首先要實現(xiàn)治理組織的地位平等,避免“一言堂”等集權化管理的弊端,注重決策過程中體制外的社會組織的參與性。其次要產(chǎn)生協(xié)同動機與激勵機制,算法技術帶來巨大經(jīng)濟效益的背后,也成為國家間暗自較量的科技實力象征。而企業(yè)出于提高經(jīng)濟效益的目的,必然會擴大算法技術的應用領域。最后是行動上的協(xié)同共步,規(guī)制算法風險整體結(jié)構(gòu)下的子系統(tǒng)之間的關系并非一成不變,也會根據(jù)實踐進程的變化或突發(fā)情況而改變目標手段,以期提高工作效率。[14]
三是制定共治的運行準則。為預防機構(gòu)渙散或個人主義決策,法律需要完善算法規(guī)制的組織規(guī)范與行政程序要求,以明確機構(gòu)的性質(zhì)與職責。尤其是成立目的、利益導向各異的社會組織,要詳細列明有關其責任范圍與權利界限等條文。舉例而言,與公益性慈善組織不同,有關自動駕駛交通事故人身或財產(chǎn)類保險公司,主要通過將保費資本資產(chǎn)投資來獲得收入,用以支付保單確定的保賠金額,雖然具備風險控制與分攤的性質(zhì),但本質(zhì)上是以投資高額回報對應較低保費的商業(yè)營利組織。對此,政府應作出強制性規(guī)范或鼓勵性社會號召,以使各組織將風險放在同類目標這一互助的基礎上運作,才能實現(xiàn)多方共同完善算法領域風險的缺陷。
(1)算法內(nèi)容規(guī)制
算法數(shù)據(jù)及算法決策包含的偏見,本質(zhì)上都是執(zhí)行算法內(nèi)容的結(jié)果。相比于大數(shù)據(jù)的不確定性,法律規(guī)范中明確的價值理念更能提供衡量標準。因而,可以關注將法律語言引入算法程序邏輯的路徑,實現(xiàn)以算法技術規(guī)制算法。[15]要做到法律語言程序化,應從多個維度推進。首先推進研發(fā)人員與法學家的共同合作,設計出合乎法律公正與技術可能的算法規(guī)則。畢竟,對于計算機研發(fā)人員來說,開發(fā)反歧視算法并非難事,關鍵在于如何理解法律對非法歧視的定義,這就需要法學家參與算法開發(fā)過程,提出專業(yè)性法律意見。其次政府應規(guī)定法律禁止性技術以推動科技創(chuàng)新。以嵌入技術為例,經(jīng)過預定算法下單詞嵌入技術的處理,在特定計算環(huán)境的顯示結(jié)果中容易使歧視明顯擴大,導致新的歧視觀點與社會不公平現(xiàn)象。[17]政府可羅列算法技術禁止的具體情形,以國家強制力反向推動算法技術的進步。最后,設立白名單企業(yè)評估算法高風險系統(tǒng)機制。畢竟,客觀、統(tǒng)一的傳統(tǒng)技術規(guī)制在算法領域面臨諸多障礙,行政人員也存在知識不足的缺陷,而企業(yè)對自身研發(fā)算法的認知程度更高,更能把控算法技術造成的不良影響,這是規(guī)避算法風險的曲線救濟途徑。
(2)算法結(jié)果審查
為完善企業(yè)自我監(jiān)管的不足,應依法成立專門的算法審查機構(gòu)。該審查機構(gòu)的主要任務是對應用領域中的算法進行審計,確保風險系數(shù)達到安全標準可控范圍內(nèi)。若審計面臨無法獲得代碼的情形,可運用有關學者提出的四種算法審計的模型,分別是非侵入性用戶審查( Noninvasive User Audit)3非侵入性用戶審查:例如,如果用戶同意回答關于他們在網(wǎng)上做了什么的問題,或者(更徹底地)同意分享他們所有的搜索查詢和結(jié)果,那么從概念上推斷出一個平臺的算法操作的一些有用的東西是可能的。、抓取式審查( Scraping Audit)4抓取式審查:研究人員可能會向平臺發(fā)出重復的查詢并觀察結(jié)果,這些查詢可能和網(wǎng)頁請求一樣簡單。、傀儡替代審查( Sock Pup-pet Audit)5傀儡替代審:本質(zhì)上是一項經(jīng)典的審計研究,使用計算機程序冒充用戶,通過創(chuàng)建虛假的用戶賬戶或編程構(gòu)建流量。和聯(lián)合審查( Collaborative Audit) 。6聯(lián)合審查:用雇傭用戶代替計算機程序進行測試。[17]此外,算法審查機構(gòu)還應輔之以兩項工作:一是建立數(shù)據(jù)分類管控中心,將算法囊括的數(shù)據(jù)進行分級篩選、脫敏的精確保護。其中,涵蓋宗教、民族、犯罪情況等具有可識別性的數(shù)據(jù)視為個人敏感信息,由國家公權力給予強制性的特別保護,此類數(shù)據(jù)在國家部門人口普查、追蹤犯罪等職務工作時才可被訪問;不具有可識別性的信息則視為一般性數(shù)據(jù),可以進行跨平臺共享,提供給企業(yè)、普通用戶訪問、抓取,實現(xiàn)數(shù)據(jù)的分享與利用。二是實行算法登記備案以及定期審核制度。在算法商業(yè)化領域,有“美團”外賣服務平臺為擴大利益而操縱算法以實現(xiàn)市場壟斷目的,被市監(jiān)管局處以行政罰款的案例。若企業(yè)基于商業(yè)秘密不向社會公布算法或算法邏輯,則要求義務人向知悉的監(jiān)管機構(gòu)或自律組織備案,以促使企業(yè)更加謹慎地開發(fā)、完善算法系統(tǒng)。同時也有利于審查機構(gòu)評估與理解算法技術、加強監(jiān)管職能。
基于對算法問責主體缺失的認知,應建立以保障基本權力為中心,涉及算法相關主體責任分攤的救濟機制。這要求行政規(guī)制確立公平公正的思想基礎,以保障公民生命、財產(chǎn)安全等基本權利為目標,確保受到算法危害的社會群眾有反饋、救濟、質(zhì)詢的渠道。具體而言,應要求算法開發(fā)、運營方完善應急處理方案,尤其是針對危害性算法應用實體的終止使用與回收,或是消滅侵害公民正當權益的算法程序等系列流程,使得公眾能夠有空間有對象地尋求救濟??紤]到算法風險對財產(chǎn)、甚至生命的威脅,政府可以鼓勵保險公司開發(fā)新型算法保險種類與理賠方案。同時,通過使用規(guī)模、涉及主體等因素確定相關問責主體,根據(jù)風險共攤的原則,以算法保險的強制性將保額合理分配于各主體,從而保證被侵權者的受償權。此外,行政部門應明確算法問責的安全標準,如算法應用范圍及限制條件等,對于不達標的企業(yè)可在國家信用系統(tǒng)予以公示,并要求企業(yè)定期公布算法安全報告直至達到合格標準。如果存在企業(yè)違反算法規(guī)定的情況,確保所制定適用的處罰規(guī)則得到適當和有效的實施。行政處罰應當注重有效、相稱、具有勸阻性,即特別考慮到小型供應商和初創(chuàng)企業(yè)的利益及其經(jīng)濟可行性。
關于算法黑箱的規(guī)避,還應注重規(guī)制過程中的算法透明措施。對于算法應當披露的信息分為兩類:一是程序代碼、參數(shù)等專業(yè)信息;二是外在表現(xiàn)、結(jié)果告知等非專業(yè)信息。專業(yè)信息只需錄入算法審查機構(gòu)以便進行備案、掌握,這類信息不具有公布的現(xiàn)實意義,既存在商業(yè)秘密、知識產(chǎn)權被竊取的風險,又不具備被公眾所知悉的可解釋性。非專業(yè)信息彌補了外部解釋有效性弱的問題,因為其解釋目的并非分析算法原理,而是將合理算法預設與結(jié)果對公眾予以告知,以使受決策影響者在了解規(guī)則后行動,規(guī)避不利后果。同時,為促進算法邏輯可解釋性,將倫理道德滲透于邏輯規(guī)則是規(guī)避黑箱行為的有效途徑。為此,政府應明確算法工程技術人員標準,要求技術人員定期參與技術倫理課程與考試,將科技倫理、思想建設等技術素質(zhì)作為考核因素,把倫理要求滲入產(chǎn)品開發(fā)到運作的全流程。同時鼓勵開發(fā)倫理工具,從技術上尋求為顧客提供透明性、公平性、可解釋性算法倫理服務的途徑。