袁康
內(nèi)容摘要:符合可理解、可靠和可控等內(nèi)在要求的可信算法是防范算法風(fēng)險(xiǎn)和構(gòu)建算法信任的基礎(chǔ),算法的可信控制應(yīng)該成為算法治理的核心。通過(guò)法律的可信控制,即按照法律嵌入和法律調(diào)節(jié)的規(guī)制邏輯,通過(guò)貫穿于算法的技術(shù)層、應(yīng)用層和治理層的系統(tǒng)化制度安排,確保算法以可信任狀態(tài)得以設(shè)計(jì)、部署、應(yīng)用和執(zhí)行,是實(shí)現(xiàn)算法可信的有效方式。系統(tǒng)地構(gòu)建算法可信控制的制度體系,需要從算法本體的維度,通過(guò)完善透明度規(guī)則、推動(dòng)算法倫理法律化和探索算法驗(yàn)證評(píng)估制度等措施確保算法自身的可信度,并從算法關(guān)系的維度,通過(guò)明確算法權(quán)利、強(qiáng)化算法問(wèn)責(zé)和拓展監(jiān)管體系等制度,約束算法相關(guān)主體的行為。
關(guān)鍵詞:可信算法 算法治理 算法本體 算法關(guān)系 制度理性 技術(shù)理性
中圖分類號(hào):DF4? 文獻(xiàn)標(biāo)識(shí)碼:A? 文章編號(hào):1674-4039-(2021)03-0005-21
大數(shù)據(jù)、區(qū)塊鏈、人工智能等新興技術(shù)的加速應(yīng)用,正在深刻改變著人類社會(huì)的運(yùn)行模式。自動(dòng)駕駛、醫(yī)療機(jī)器人、智能投顧、社交網(wǎng)絡(luò)等事物的出現(xiàn),使得人們?cè)谌粘I?、?jīng)濟(jì)交易、信息獲取、社會(huì)參與等領(lǐng)域的活動(dòng)以更加便捷和智能的方式展開(kāi)。算法作為這些技術(shù)的核心要素,在推進(jìn)行為決策機(jī)制變革和信任機(jī)制重塑的同時(shí),也因公眾在對(duì)自動(dòng)駕駛事故、大數(shù)據(jù)殺熟、信息繭房、算法暴政等一系列議題的反思和批判過(guò)程中面臨拷問(wèn):當(dāng)我們把一切都交給算法時(shí),它們究竟是否值得信任?隨著算法社會(huì)的來(lái)臨,人類正將決策權(quán)逐漸讓渡給算法接管, 〔1 〕算法對(duì)于個(gè)體乃至整個(gè)社會(huì)的影響日漸重大且深遠(yuǎn),只有處于可信狀態(tài)的算法才能夠消除人類的顧慮并保證算法時(shí)代的安全與秩序??尚潘惴ㄊ蔷S系算法信任的基礎(chǔ),實(shí)現(xiàn)算法的可信控制則是算法治理的核心任務(wù)。如何實(shí)現(xiàn)算法的可信控制,既是技術(shù)社群試圖從技術(shù)理性的角度解決的現(xiàn)實(shí)任務(wù), 〔2 〕也是法律人需要從制度理性的角度回應(yīng)的時(shí)代命題。〔3 〕筆者以可信算法概念及其內(nèi)在要求為起點(diǎn),結(jié)合算法的法律規(guī)制的基本邏輯與一般原理,試圖從算法自身的本體維度和算法相關(guān)主體的關(guān)系維度提出算法可信控制的體系化制度方案。
一、算法信任與可信算法的概念展開(kāi)
從技術(shù)角度看,算法是為實(shí)現(xiàn)某個(gè)任務(wù)而構(gòu)造的簡(jiǎn)單指令集, 〔4 〕其本質(zhì)是以有限、確定且有效的設(shè)定將輸入轉(zhuǎn)化為輸出從而解決問(wèn)題的數(shù)學(xué)過(guò)程?!? 〕算法以數(shù)據(jù)為基礎(chǔ),以算力為支撐,借助在具體場(chǎng)景下的部署和應(yīng)用實(shí)現(xiàn)自動(dòng)化、智能化的決策。按照理想主義的技術(shù)預(yù)設(shè),由于算法規(guī)則的確定性和客觀性,算法決策通常被認(rèn)為是理性、中立、高效和值得信賴的。〔6 〕然而,算法所呈現(xiàn)出的現(xiàn)實(shí)圖景似乎偏離了這種理想預(yù)設(shè),“算法信仰”在層出不窮的算法歧視和算法暴政面前難免淪為一廂情愿式的迷戀。在算法社會(huì)到來(lái)的前夜,我們需要再三確認(rèn):到底什么樣的算法才足以讓我們將決策權(quán)放心托付。
(一)算法信任與算法可信度迷思
一般而言,自然人由于認(rèn)知障礙、主觀傾向、身心狀態(tài)和外部干擾等原因,并不總能保證其決策的理性與正確。而算法依托確定的輸入輸出過(guò)程,能夠?qū)崿F(xiàn)相較于自然人更為客觀、理性和有效的決策。同時(shí),借助計(jì)算機(jī)程序運(yùn)行和實(shí)現(xiàn)的算法能夠更為嚴(yán)格地執(zhí)行既定規(guī)則和邏輯,更為海量且快速地處理決策請(qǐng)求,從而實(shí)現(xiàn)決策的一致性、即時(shí)性和普遍性。看似機(jī)械冰冷的算法,能在很大程度上彌補(bǔ)和消解自然人決策中的非理性、主觀性和局限性,節(jié)約決策成本并優(yōu)化決策效率,成為維持社會(huì)運(yùn)行乃至推動(dòng)人類進(jìn)步的革命性力量?;诖?,算法被人們依賴甚至信仰,借助算法解決問(wèn)題成為超越人類認(rèn)知局限和執(zhí)行能力的更優(yōu)選擇,由此形成了所謂的“算法信任”?!? 〕例如,區(qū)塊鏈技術(shù)因其“去中心化”而更具公信力,正是因?yàn)榉植际酱鎯?chǔ)、共識(shí)機(jī)制、Paxos算法、非對(duì)稱加密等核心算法實(shí)現(xiàn)了不可篡改等技術(shù)特征,由此創(chuàng)造的“算法信用”對(duì)“主體信用”的補(bǔ)充或替代有效地解決了信息不對(duì)稱下的信任問(wèn)題。〔8 〕然而,技術(shù)特征并非信任的根本來(lái)源,人們對(duì)于算法的信任傾向以及算法自身的可信度是構(gòu)建“算法信任”缺一不可的兩個(gè)方面。〔9 〕易言之,人們選擇相信算法并不意味著算法自身就值得被信任。
即便我們有理由相信算法能夠按照預(yù)設(shè)的過(guò)程得以客觀地執(zhí)行,但由于其設(shè)計(jì)、部署和應(yīng)用難以避免地會(huì)受到人類行為的影響,加上技術(shù)不完備的客觀規(guī)律,算法自身的可信度會(huì)大打折扣, 〔10 〕從而形成一種“迷思”,即對(duì)算法可信度的懷疑。具體而言,這種“迷思”主要源于以下幾方面原因:1.算法缺陷并不總能避免。算法源于人類預(yù)設(shè)的邏輯模型,并通過(guò)代碼來(lái)表達(dá)和執(zhí)行。一方面,算法自身在功能實(shí)現(xiàn)上本身就有局限,算法輸出結(jié)果也并不能確保完全準(zhǔn)確,決策錯(cuò)誤的可能性始終存在。另一方面,算法在設(shè)計(jì)和應(yīng)用過(guò)程中可能因算法模型或者饋送數(shù)據(jù)的缺陷而發(fā)生偏差。若是用于訓(xùn)練算法的數(shù)據(jù)質(zhì)量較差,無(wú)論算法模型多么完美,最后的數(shù)據(jù)輸出也會(huì)存在“垃圾進(jìn)、垃圾出”的現(xiàn)象,從而造成算法不能實(shí)現(xiàn)其預(yù)期效果。特斯拉自動(dòng)駕駛事故的屢次發(fā)生,正是AutoPilot自動(dòng)駕駛系統(tǒng)無(wú)法識(shí)別靜態(tài)障礙物的算法缺陷導(dǎo)致?!?1 〕而波音737MAX空難也正因?yàn)镸CAS系統(tǒng)在有缺陷的算法控制下以高于人工控制的權(quán)限壓低機(jī)頭導(dǎo)致飛機(jī)墜毀。這些案例都是算法缺陷導(dǎo)致算法可信度存疑的例證。2.算法偏見(jiàn)確實(shí)有意或無(wú)意地存在。算法模型不可避免地會(huì)受到設(shè)計(jì)者主觀傾向和利益導(dǎo)向的影響,設(shè)計(jì)者的價(jià)值觀和偏見(jiàn)會(huì)嵌入算法,從而造成算法輸出結(jié)果或者決策延續(xù)設(shè)計(jì)者的偏見(jiàn)。〔12 〕例如,我們常見(jiàn)的大數(shù)據(jù)“殺熟”或者歧視性定價(jià),正是反映了這種故意的偏見(jiàn)。而即便設(shè)計(jì)者本身并非有意為之,在算法通過(guò)數(shù)據(jù)輸入進(jìn)行訓(xùn)練時(shí)也可能受到帶有偏見(jiàn)的數(shù)據(jù)影響,并通過(guò)機(jī)器學(xué)習(xí)加劇這種偏見(jiàn)。例如,微軟的聊天機(jī)器人Tay上線一天就學(xué)會(huì)了臟話和種族歧視,這是其設(shè)計(jì)者始料未及的。3.算法黑箱可能導(dǎo)致人與技術(shù)的疏離。算法自身封裝在程序之中,且代碼化的表達(dá)通常難以被非專業(yè)人士理解。此外算法設(shè)計(jì)與應(yīng)用者通常將其作為核心商業(yè)機(jī)密予以嚴(yán)密保護(hù),使得用戶通常難以直觀了解算法。在此情況下形成了輸入端和輸出端之間的無(wú)法被觀察的“隱層”,甚至?xí)霈F(xiàn)輸入和輸出都難以被感知的情況,即所謂“算法黑箱”?!?3 〕算法黑箱的存在,導(dǎo)致人們?cè)诿鎸?duì)算法的自動(dòng)化決策時(shí)難以把握其理由或原因,或者無(wú)法確認(rèn)該決策是否真是按部署者解釋的那樣作出的,因而給設(shè)計(jì)者和應(yīng)用者操縱算法并損害個(gè)人權(quán)益甚至公共利益提供了可能性?!?4 〕面對(duì)并不透明的算法,用戶難以完全排除欺詐或歧視的存在,信息不對(duì)稱導(dǎo)致信任往往難以真正建立。4.算法權(quán)力可能造成人與技術(shù)的對(duì)抗。當(dāng)算法深度嵌入社會(huì)運(yùn)行的各個(gè)環(huán)節(jié)和部門,人們對(duì)算法的過(guò)度依賴以及算法的過(guò)度擴(kuò)張,會(huì)導(dǎo)致算法自主或者在個(gè)別主體的利用下控制、引導(dǎo)或干預(yù)個(gè)人、企業(yè)乃至國(guó)家機(jī)關(guān)的決策,形成所謂的“算法權(quán)力”?!?5 〕隨著算法廣泛部署,這種權(quán)力將通過(guò)算法的執(zhí)行形成對(duì)人類社會(huì)的規(guī)訓(xùn)。通過(guò)算法實(shí)施的網(wǎng)絡(luò)監(jiān)視、信息繭房等成為了“算法規(guī)訓(xùn)”的現(xiàn)實(shí)映射, 〔16 〕而“劍橋分析”事件和“盧米斯案” 〔17 〕則反映出當(dāng)算法開(kāi)始介入政治或公共行政領(lǐng)域時(shí)所造成的巨大威脅。如果再科幻點(diǎn),神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)發(fā)展到一定階段的強(qiáng)人工智能有可能脫離人類的控制,甚至謀求對(duì)人類的統(tǒng)治。隨著算法權(quán)力的擴(kuò)張,人類與技術(shù)之間的從屬格局和權(quán)威地位正在發(fā)生微妙的變化, 〔18 〕算法權(quán)力對(duì)人類的規(guī)訓(xùn)與控制勢(shì)必會(huì)引發(fā)人類的對(duì)抗,而不信任正是這種對(duì)抗的起點(diǎn)。
算法信任是算法社會(huì)的基礎(chǔ),而信任必須建立在算法可信度之上。即便用戶可能會(huì)因?yàn)橹饔^上的盲目性而選擇信任算法,但算法自身可信度的不足會(huì)客觀上消解這種信任。因此,算法可信度才是確立和維系算法信任的根本。從前文分析看,由于算法可信度迷思的存在,當(dāng)我們面對(duì)“算法是否值得信任”的問(wèn)題時(shí)并不總是能夠得到肯定的答案。然而,不論我們目前在多大程度上不信任算法,都不得不承認(rèn)算法在當(dāng)下與未來(lái)必將發(fā)揮著重要作用。任何因噎廢食地抗拒算法社會(huì)的到來(lái),都是不理智且不現(xiàn)實(shí)的。盡管算法并不總是值得被信任,但也不宜全盤否定算法的積極功能,無(wú)視那些具備可信度的算法為經(jīng)濟(jì)社會(huì)更加高效地運(yùn)行提供的支撐?;谶@個(gè)前提,我們可以得出一個(gè)初步結(jié)論:我們不能也不應(yīng)拒絕算法,但是我們可以規(guī)訓(xùn)算法;我們需要算法,但我們真正需要的是可以信任的算法,即可信算法。
(二)可信算法及其內(nèi)在要求
筆者所稱的“可信算法”并非嚴(yán)格意義上的技術(shù)術(shù)語(yǔ),而是側(cè)重于算法“可信任”狀態(tài)或特征的價(jià)值判斷。由于話語(yǔ)體系的差異,有必要對(duì)相關(guān)概念進(jìn)行區(qū)分以避免混淆或誤解。在技術(shù)語(yǔ)境,“可信”源自作為一種信息安全技術(shù)的“可信計(jì)算”,即通過(guò)認(rèn)證密鑰、安全輸入輸出、內(nèi)存屏蔽、封裝存儲(chǔ)、遠(yuǎn)程證明等核心技術(shù)規(guī)范實(shí)現(xiàn)身份驗(yàn)證和可靠運(yùn)行,從而構(gòu)建完整可信的系統(tǒng)。在這層意義上的可信算法,主要是指身份驗(yàn)證、安全保護(hù)等為內(nèi)容和目標(biāo)的特定算法類型,如動(dòng)態(tài)加密算法、可信評(píng)價(jià)算法等。但在治理語(yǔ)境中,“可信算法”意在將那些對(duì)個(gè)體權(quán)益或社會(huì)福利存在現(xiàn)實(shí)或潛在威脅的算法予以排除,并將其限定為具備合法性和正當(dāng)性且具有相當(dāng)可信度的算法。此種定義并不關(guān)注算法的具體內(nèi)容或目標(biāo),而是強(qiáng)調(diào)評(píng)估特定算法自身是否值得信任以及影響是否正面,與可信區(qū)塊鏈、可信人工智能等概念異曲同工。隨著技術(shù)專家對(duì)算法倫理的日益關(guān)注,對(duì)于“可信算法”概念的混亂認(rèn)識(shí)也在趨于共識(shí)?!?9 〕筆者所指的可信算法也正是基于治理語(yǔ)境下的定義展開(kāi)。
“信任”如何建立,或者說(shuō)“可信”如何實(shí)現(xiàn),是一個(gè)相對(duì)復(fù)雜的系統(tǒng)工程。算法自身的不完備以及在部署應(yīng)用中導(dǎo)致的人與技術(shù)之間的疏離和對(duì)抗,往往會(huì)將算法推離人們的信任圈。正如哲學(xué)家Onora ONeill所言,信任不是通過(guò)索取而得到,而是通過(guò)展示可信度來(lái)獲取?!?0 〕對(duì)于算法而言,設(shè)計(jì)者或者部署應(yīng)用者不能單方面要求人們的信任,其宣示或承諾也并不足以得到人們的信任,而是要通過(guò)向用戶和公眾充分展示其可信度來(lái)實(shí)現(xiàn)。按照David Spiegelharter的觀點(diǎn),對(duì)算法的信任來(lái)源兩個(gè)方面,即關(guān)于算法(about the algorithm)的可信度和通過(guò)算法(by the algorithm)的可信度,前者是指開(kāi)發(fā)者充分闡釋算法的功能、邏輯以及評(píng)估驗(yàn)證的情況,使用戶和公眾對(duì)其充分了解,后者是指算法在實(shí)際應(yīng)用中的準(zhǔn)確、有效、可靠的水平,使用戶和公眾相信其有能力且負(fù)責(zé)任地解決問(wèn)題?!?1 〕如果將算法自身的技術(shù)能力與對(duì)算法的治理狀態(tài)結(jié)合來(lái)看,對(duì)算法的信任主要來(lái)源兩個(gè)方面。一是增強(qiáng)算法技術(shù)本身的可靠性、穩(wěn)定性等績(jī)效表現(xiàn),使得公眾對(duì)其運(yùn)行形成穩(wěn)定預(yù)期和信賴;二是通過(guò)法律、行業(yè)規(guī)范、技術(shù)倫理等制度創(chuàng)建可信的治理環(huán)境,使得公眾增加對(duì)算法技術(shù)的掌控感和影響力?!?2 〕概言之,可信算法既需要本體層面源于技術(shù)的可信度,又需要關(guān)系層面源于治理的可信度,由此方能獲得用戶和公眾的信任。
面對(duì)技術(shù)的不斷進(jìn)化和對(duì)人類生活的深度嵌入,“可信”成為了技術(shù)社群和政策部門的關(guān)注焦點(diǎn)。歐盟委員會(huì)設(shè)立的人工智能高級(jí)別專家組在2019年4月發(fā)布了《可信人工智能的倫理指南》 〔23 〕,提出可信人工智能需要在整個(gè)生命周期滿足三個(gè)條件:1.合法性,即可信人工智能應(yīng)當(dāng)依法合規(guī);2.道德性,即可信人工智能應(yīng)當(dāng)符合道德原則和價(jià)值觀;3.魯棒性(robust),即可信人工智能應(yīng)當(dāng)避免造成無(wú)意的損害或負(fù)面影響,并且指出人工智能應(yīng)該滿足七個(gè)關(guān)鍵要素以達(dá)到可信賴的要求,即人的能動(dòng)性和監(jiān)督;技術(shù)魯棒性和安全性;隱私和數(shù)據(jù)管理;透明度;多樣性、非歧視和公平性;社會(huì)和環(huán)境福利;問(wèn)責(zé)機(jī)制。美國(guó)計(jì)算機(jī)學(xué)會(huì)的公共政策委員會(huì)發(fā)布了《關(guān)于算法透明和問(wèn)責(zé)的聲明》并提出了七項(xiàng)原則, 〔24 〕強(qiáng)調(diào)通過(guò)確保算法的透明度和可問(wèn)責(zé)性以避免算法的偏見(jiàn)和錯(cuò)誤。FATML 〔25 〕也在《可問(wèn)責(zé)算法原則》中指出了自動(dòng)決策算法在產(chǎn)業(yè)界和政府的廣泛應(yīng)用,影響了從定價(jià)到用工甚至刑罰的各個(gè)方面,因此算法需要符合負(fù)責(zé)任、可解釋、精確性、可審計(jì)性、公平性等原則的要求。以上這些政策倡議或行業(yè)指南,都是在嘗試從技術(shù)或治理的層面探索對(duì)算法的規(guī)制,以實(shí)現(xiàn)算法的可信。
結(jié)合算法信任的形成機(jī)理和多利益相關(guān)方的主張,筆者認(rèn)為,可信算法需要具備以下幾方面的特點(diǎn)和要求:1.可理解性。算法要獲得信任,必須以能夠被理解為前提??衫斫庥袃蓚€(gè)層面的內(nèi)涵:一方面是算法必須保持其透明度,使算法的基本邏輯、模型原理、決策流程等可為用戶或公眾所知悉,這有助于增進(jìn)用戶對(duì)算法決策的信任。〔26 〕即便算法可能被企業(yè)主張構(gòu)成商業(yè)秘密,公開(kāi)算法邏輯而非代碼并不至于損害其商業(yè)利益,相反會(huì)因用戶的信任而獲得更多機(jī)會(huì)。另一方面,由于算法高度的技術(shù)復(fù)雜性,簡(jiǎn)單機(jī)械的透明度要求可能會(huì)陷入“魚(yú)缸”式的透明,為避免這種無(wú)效的透明度就要求算法必須可被解釋。即便普通用戶不一定有能力完全解釋而樂(lè)意信任,但必須要向有需求且有能力了解其推理過(guò)程的主體(利益相關(guān)方)提供易于訪問(wèn)、可解釋、可評(píng)估的理解路徑。〔27 〕2.可靠性。算法要獲得和維持信任,必須以可靠為基礎(chǔ)??煽渴侵杆惴ú粫?huì)偏離倫理和法律的要求,能夠準(zhǔn)確、公平、安全地作出算法決策。人們將決策權(quán)讓渡給算法,是期待算法能夠更加理性和精確地解決問(wèn)題,這就要求算法能夠克服人類的非理性、偏見(jiàn)和局限,以盡可能少的偏差和更符合倫理與法律要求的方式作出準(zhǔn)確決策。此外,要維持信任,算法需要確保魯棒性,以避免因外部干擾而危害安全或造成其他負(fù)面損害。3.可控性??煽厮惴ǐ@得和維持信任的保障。當(dāng)算法脫離控制,就很難指望人們盲目的信任。所謂可控是指人們可以有效規(guī)制算法或者自主決定算法是否繼續(xù)執(zhí)行。有效的監(jiān)管是控制算法的一種形式,按照相應(yīng)的治理框架和制度規(guī)則對(duì)算法進(jìn)行約束和規(guī)訓(xùn),能夠確保算法與人類之間的主從關(guān)系并有效控制算法風(fēng)險(xiǎn),使得算法不至于在與人的合作和對(duì)抗中失去控制。而自主決定算法是否繼續(xù)執(zhí)行,是人們擺脫算法暴政以實(shí)現(xiàn)自主性的最后一條退路。不論是脫離算法自動(dòng)化決策權(quán)抑或是中斷算法的執(zhí)行,都是人們?cè)谒惴ㄊЭ鼗蚣磳⑹Э睾蟮倪x擇方案。
隨著人類進(jìn)入算法社會(huì),算法的部署和應(yīng)用將成為人類經(jīng)濟(jì)社會(huì)生活的常態(tài)。在此背景下,既要最大限度地發(fā)揮算法技術(shù)的積極價(jià)值,又要保證算法符合人類社會(huì)的“共同善”, 〔28 〕這就需要我們以算法信任為基礎(chǔ),通過(guò)有效的算法可信控制,從技術(shù)層、應(yīng)用層到治理層確保算法“可信化”。通過(guò)算法的可信控制,可以確保算法的可信度,從而有效維系算法信任,防止不可信算法的濫用導(dǎo)致用戶損失乃至算法信任的崩潰。因此,在很大程度上,算法的可信控制應(yīng)當(dāng)成為算法治理的核心任務(wù)。
二、法律如何規(guī)制算法:可信控制的法律進(jìn)路
算法的可信控制旨在通過(guò)相應(yīng)的手段或方式對(duì)算法設(shè)計(jì)、部署和應(yīng)用的全流程進(jìn)行規(guī)范與調(diào)整,以保證算法的可理解性、可靠性和可控性。對(duì)于技術(shù)專家而言,算法的可信控制可以通過(guò)技術(shù)手段實(shí)現(xiàn)。例如,南加州大學(xué)研究人員研發(fā)的DeepTrust工具可以對(duì)AI算法生成的數(shù)據(jù)和預(yù)測(cè)的信息進(jìn)行驗(yàn)證;日益成熟的“歧視感知數(shù)據(jù)挖掘”也能夠識(shí)別偏離公平倫理的算法,通過(guò)技術(shù)進(jìn)路“以算法控制算法”從而實(shí)現(xiàn)算法可信正在成為可能?!?9 〕對(duì)于法律專家而言,應(yīng)對(duì)算法風(fēng)險(xiǎn)并實(shí)現(xiàn)算法與人類社會(huì)相容的制度需求激起了法律人“規(guī)訓(xùn)算法”的雄心,算法規(guī)制或者算法治理日益成為法律人關(guān)注的焦點(diǎn)議題。〔30 〕通過(guò)法律進(jìn)路的可信控制,即以法律制度規(guī)范算法的技術(shù)流程并調(diào)整相關(guān)主體的行為以實(shí)現(xiàn)算法可信,正是“以法律控制算法”的題中應(yīng)有之義。然而,法律能以何種方式規(guī)制算法,從而通過(guò)制度理性約束技術(shù)理性,是按照法律進(jìn)路實(shí)現(xiàn)算法可信控制的基礎(chǔ)性命題。
(一)技術(shù)與法律之間:算法的技術(shù)實(shí)質(zhì)與法律實(shí)質(zhì)
作為解決特定問(wèn)題或者達(dá)成明確結(jié)果而采取的一系列步驟, 〔31 〕算法的技術(shù)實(shí)質(zhì)是解決問(wèn)題的邏輯流程。在算法的設(shè)計(jì)、部署和應(yīng)用過(guò)程中,代碼是算法的表達(dá),程序是算法的載體。算法通過(guò)能為計(jì)算機(jī)所理解的代碼所設(shè)定,在程序的運(yùn)行中得以執(zhí)行,從而完成從輸入到輸出的過(guò)程。從這層意義上看,算法至多只是一種在程序運(yùn)行中所遵守并執(zhí)行的抽象技術(shù)方案。例如,根據(jù)既定算法,空氣凈化器的傳感器偵測(cè)到空氣中的污染物(輸入)后即啟動(dòng)大風(fēng)力凈化功能(輸出)。隨著算法技術(shù)的迭代與升級(jí),算法得以通過(guò)更加自動(dòng)和智能的方式應(yīng)用在更廣泛的領(lǐng)域,也開(kāi)始形成在不同意義上的技術(shù)實(shí)質(zhì)?!?2 〕例如,今日頭條通過(guò)用戶標(biāo)簽算法、文本分類算法等實(shí)現(xiàn)向用戶精準(zhǔn)推送其感興趣的新聞內(nèi)容,由此算法就從簡(jiǎn)單的“技術(shù)方案”成為了應(yīng)用者實(shí)現(xiàn)預(yù)期目標(biāo)的“工具”。為滿足開(kāi)發(fā)者的需求,有些設(shè)計(jì)好的算法得以在一些開(kāi)源社區(qū)中進(jìn)行分享,開(kāi)源算法可以根據(jù)開(kāi)發(fā)需要獨(dú)立地嵌入至不同的程序之中,使得算法開(kāi)始具有獨(dú)立的“產(chǎn)品”屬性。而隨著神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的發(fā)展,算法在數(shù)據(jù)和算力的加持下進(jìn)入了一個(gè)新的階段,即能夠脫離開(kāi)發(fā)者的初始設(shè)定而不斷自我優(yōu)化和拓展,從而幾乎成為具備獨(dú)立意識(shí)的主體,AutoML甚至能自動(dòng)地完成創(chuàng)建、執(zhí)行和調(diào)優(yōu)的全過(guò)程。基于此,我們可以看到,隨著技術(shù)的迭代升級(jí),算法正在從底層技術(shù)方案發(fā)展為獨(dú)立的產(chǎn)品,甚至正在從被動(dòng)的工具發(fā)展為具備主動(dòng)性的主體,其技術(shù)實(shí)質(zhì)正在不斷地豐富和擴(kuò)張。
作為技術(shù)存在的算法進(jìn)入法律場(chǎng)域,必然面臨著對(duì)其法律實(shí)質(zhì)的判斷,即算法在法律的維度中究竟是什么,這決定了法律可以何種方式介入和規(guī)制算法。算法技術(shù)實(shí)質(zhì)的拓展,也使得其法律實(shí)質(zhì)呈現(xiàn)出不同的樣態(tài)。法律作為調(diào)整社會(huì)關(guān)系的規(guī)范,關(guān)注的是現(xiàn)實(shí)存在的、具有明確的主體客體和具體權(quán)利義務(wù)的社會(huì)關(guān)系。如果僅從技術(shù)方案層面看,作為抽象決策邏輯的算法難以在法律上被評(píng)價(jià),即便算法的執(zhí)行確實(shí)可能產(chǎn)生相應(yīng)的法律后果。正如法律可以控制基于某種思想而作出的行為,但無(wú)法控制思想本身。因此,這個(gè)層面上的算法規(guī)制只能將重點(diǎn)放在設(shè)計(jì)、部署和應(yīng)用算法的相關(guān)主體上。
但隨著算法技術(shù)實(shí)質(zhì)的拓展以及算法對(duì)社會(huì)秩序的沖擊,將算法本身作為法律規(guī)制的對(duì)象不僅成為理論上的共識(shí),而且取得了相應(yīng)的實(shí)踐進(jìn)展。目前有司法觀點(diǎn)認(rèn)為,算法屬于“言論”或者“商業(yè)秘密”, 〔33 〕盡管如此認(rèn)定算法的法律實(shí)質(zhì)在邏輯上自洽,但并未充分反映算法技術(shù)的迭代以及由此帶來(lái)的算法功能的擴(kuò)張,并且在某種程度上會(huì)因“言論”和“商業(yè)秘密”在法律上的特殊地位而導(dǎo)致可以正當(dāng)?shù)貙?duì)抗法律的介入,從而使得算法規(guī)制面臨諸多不確定性。為突破這一局限,有學(xué)者認(rèn)為,算法應(yīng)當(dāng)被視作一種“正當(dāng)程序”。〔34 〕算法中輸入到輸出的過(guò)程涉及相關(guān)主體的權(quán)益乃至社會(huì)整體利益,該過(guò)程如何實(shí)現(xiàn)以及以何種方式實(shí)現(xiàn),往往取決于這個(gè)過(guò)程是否正當(dāng),譬如是否存在算法權(quán)力的濫用。因此,承載算法的程序應(yīng)當(dāng)確保其設(shè)計(jì)和運(yùn)行符合正當(dāng)程序的法律要求。易言之,算法實(shí)現(xiàn)的過(guò)程應(yīng)當(dāng)納入法律關(guān)注并調(diào)整的范圍之內(nèi)。與此同時(shí),算法通過(guò)其輸入到輸出的過(guò)程,會(huì)按照算法邏輯形成供用戶參考甚至必須接受的決策,從而調(diào)整和約束用戶的行為。因此,在某種程度上也可以將算法理解為一種“規(guī)范”。
但是,算法的法律本質(zhì)僅僅只是正當(dāng)程序或規(guī)范嗎?當(dāng)算法作為一種工具或產(chǎn)品,就成為了法律關(guān)系中的客體。類似于機(jī)動(dòng)車致人損害的場(chǎng)景,機(jī)動(dòng)車的控制者(司機(jī))以及機(jī)動(dòng)車的所有者(車主)對(duì)侵權(quán)損害須承擔(dān)連帶責(zé)任。又類似于產(chǎn)品責(zé)任的場(chǎng)景,缺陷產(chǎn)品的銷售者和生產(chǎn)者須對(duì)消費(fèi)者承擔(dān)連帶責(zé)任。拋開(kāi)其內(nèi)部追償關(guān)系不論,基于對(duì)特定客體的控制、所有、銷售和生產(chǎn)等關(guān)聯(lián),都會(huì)形成特定的法律關(guān)系并獲得相應(yīng)的法律評(píng)價(jià)。因此,即便算法是法律關(guān)系中的客體,設(shè)計(jì)、部署和應(yīng)用相應(yīng)算法的主體也會(huì)因算法執(zhí)行所帶來(lái)的后果受到法律的肯定或否定的評(píng)價(jià)。算法本身就是算法關(guān)系中的重要一環(huán),從而也當(dāng)然是算法法律關(guān)系中的重要一環(huán)。而一旦算法具備了主體意識(shí)和能力,就需要承擔(dān)其執(zhí)行所帶來(lái)的法律后果,而這并不是完全不可行的。易言之,算法在法律上并非僅有程序法意義上的表達(dá),而且在實(shí)體法上也應(yīng)有其一席之地。由是觀之,除了明確算法的正當(dāng)程序本質(zhì)之外,還可以確認(rèn)算法作為算法關(guān)系的一環(huán),無(wú)論其是作為主體抑或是客體。鑒于算法的法律實(shí)質(zhì),我們得以穿透技術(shù)的迷霧,找到對(duì)其進(jìn)行法律規(guī)制的路標(biāo)。
(二)算法規(guī)制的基本邏輯:法律嵌入與法律調(diào)節(jié)
算法技術(shù)實(shí)質(zhì)的拓展及其法律實(shí)質(zhì)的厘清,為法律規(guī)制算法提供了更加明確的指向和更加多元的路徑。盡管對(duì)于算法的法律規(guī)制面臨諸多質(zhì)疑觀點(diǎn),例如法律人不了解算法技術(shù),那么法律就難以有效地規(guī)制算法。又如,算法是技術(shù)世界的抽象規(guī)則甚至就是“法律”, 〔35 〕那么人類社會(huì)的法律能否或者足以規(guī)制技術(shù)世界的算法也值得懷疑。但是,當(dāng)我們拋開(kāi)過(guò)度浪漫主義的科幻假設(shè),回歸至將算法作為人類社會(huì)進(jìn)步中的具體事物,就不難發(fā)現(xiàn)算法的設(shè)計(jì)、部署與執(zhí)行,既脫離不了人為因素(如算法設(shè)計(jì)者的偏見(jiàn)),也不可避免地影響社會(huì)關(guān)系(如算法缺陷導(dǎo)致的產(chǎn)品責(zé)任)甚至重塑社會(huì)關(guān)系(如人工智能新型主體),從而對(duì)人類社會(huì)造成積極或消極的后果。〔36 〕這導(dǎo)致了算法必定而且必須要落入法律規(guī)制的射程之內(nèi)。因此,算法并不是技術(shù)世界的獨(dú)立存在,而是深刻影響人類社會(huì)的新興變量。算法的法律規(guī)制既是維護(hù)人類社會(huì)秩序之必需,也是保障算法按照符合人類利益的方式發(fā)揮作用之必要。
至于法律如何規(guī)制算法,則需要將算法的技術(shù)本質(zhì)與法律本質(zhì)相橋接。不同層級(jí)與不同場(chǎng)景的算法在法律上的地位和評(píng)價(jià)存在著差異,對(duì)其實(shí)施法律規(guī)制的立場(chǎng)和路徑也會(huì)有所區(qū)別?!?7 〕例如,僅作為技術(shù)方案的算法需要將其作為正當(dāng)程序予以規(guī)制,作為工具或產(chǎn)品的算法則可以作為法律關(guān)系中的客體予以規(guī)制,而在未來(lái)有可能取得法律主體資格的算法則會(huì)直接成為一種法律擬制的主體受到法律調(diào)整。但從現(xiàn)實(shí)來(lái)看,算法往往并不像理論家想象的那樣涇渭分明地展現(xiàn)其本質(zhì),而是以更加務(wù)實(shí)地解決問(wèn)題的方式發(fā)揮著實(shí)際功能。而法律規(guī)制算法的目標(biāo),不外乎有效地約束算法并調(diào)整算法所關(guān)涉的社會(huì)關(guān)系,以實(shí)現(xiàn)公平和秩序等法價(jià)值。因此,算法的法律規(guī)制,一方面是從本體的角度將算法作為法律的調(diào)整對(duì)象,通過(guò)算法的法律嵌入確保算法不偏離法律的要求;另一方面則是從關(guān)系的角度調(diào)整算法關(guān)系,通過(guò)規(guī)范相關(guān)主體的權(quán)利、義務(wù)與責(zé)任實(shí)現(xiàn)算法關(guān)系的有效治理。
法律嵌入算法,是指將法律的原則和規(guī)則嵌入算法的模型和邏輯,使算法在執(zhí)行過(guò)程中符合法律的要求。由于算法是自動(dòng)化決策所依據(jù)的基本規(guī)則,作為表達(dá)算法的代碼實(shí)際上定義了技術(shù)世界的規(guī)則,并通過(guò)算法的執(zhí)行對(duì)人的行為和人類社會(huì)產(chǎn)生影響,由此形成了“代碼即法律”的論斷?!?8 〕然而,代碼或者算法在執(zhí)行的過(guò)程中出現(xiàn)背離公平或正當(dāng)程序的現(xiàn)象,乃是算法遵從了設(shè)計(jì)者的技術(shù)理性而偏離了法律的制度理性。正如亞里士多德認(rèn)為法治的第二重含義是“大家所服從的法律本身應(yīng)該是制定得良好的法律”, 〔39 〕我們所需要的算法也應(yīng)當(dāng)是自身設(shè)計(jì)良好的算法。從這層邏輯上看,算法的法律規(guī)制就是要把法律的精神和規(guī)范嵌入算法,實(shí)現(xiàn)算法邏輯與法律規(guī)則的統(tǒng)一,從而完成“法律即代碼”的規(guī)訓(xùn)過(guò)程。〔40 〕具體而言,可以將法律規(guī)則抽象成可供代碼執(zhí)行的關(guān)系,并按照法律所認(rèn)可的行為模式設(shè)置關(guān)聯(lián)規(guī)則,從而確保算法執(zhí)行的效果能得到法律的肯定評(píng)價(jià),即按照符合法律要求的邏輯設(shè)計(jì)算法,由此實(shí)現(xiàn)法律對(duì)算法的規(guī)制。
法律調(diào)節(jié)算法關(guān)系,是指法律不再將算法作為直接的調(diào)整對(duì)象,而是圍繞算法所創(chuàng)設(shè)或影響的社會(huì)關(guān)系作為關(guān)注的重點(diǎn),通過(guò)調(diào)整算法相關(guān)主體的行為與責(zé)任、權(quán)利與義務(wù)而對(duì)算法實(shí)現(xiàn)間接控制。算法從設(shè)計(jì)到應(yīng)用再到執(zhí)行的整個(gè)流程涉及眾多的主體,例如,算法設(shè)計(jì)者、算法應(yīng)用者、用戶、監(jiān)管者以及公眾等,這些主體基于算法這一連接點(diǎn)建立的社會(huì)關(guān)系可以被稱作算法關(guān)系。算法的失控會(huì)造成算法關(guān)系的失衡,如算法黑箱、算法歧視等都會(huì)造成相關(guān)主體利益受損。如果說(shuō)算法的高度專業(yè)、復(fù)雜和抽象導(dǎo)致了其難以受到法律的有效控制,那么投射在人類社會(huì)中的算法關(guān)系相對(duì)而言則更容易受到法律的規(guī)范。因此,當(dāng)法律以明確且合理的權(quán)利義務(wù)框架、清晰的行為模式與法律后果對(duì)相關(guān)主體之間的關(guān)系進(jìn)行有效規(guī)范,則其控制效果必然會(huì)及于算法本體。例如,算法設(shè)計(jì)者會(huì)更加審慎地設(shè)計(jì)算法,用戶和公眾則會(huì)通過(guò)法律賦予的權(quán)利對(duì)抗和約束算法。
(三)通過(guò)法律的可信控制
立足于防范算法風(fēng)險(xiǎn)的法律規(guī)制涉及的范圍比較廣,算法社會(huì)下的法律規(guī)制需求也非常迫切。算法共謀帶來(lái)的壟斷 〔41 〕、算法歧視導(dǎo)致的侵權(quán) 〔42 〕、算法濫用帶來(lái)的損害 〔43 〕等,都是算法失控所帶來(lái)的負(fù)面后果。相比具體的算法風(fēng)險(xiǎn)的“結(jié)果主義”視角去探討對(duì)算法的治理,算法的可信控制立足于從“預(yù)防主義”的角度實(shí)現(xiàn)算法的可信性,即確保算法得以可信任的方式設(shè)計(jì)和應(yīng)用,從而在源頭上避免算法風(fēng)險(xiǎn)的發(fā)生。前文已述及,算法信任一方面來(lái)源于算法自身的技術(shù)可信度,另一方面來(lái)源于可信的算法治理環(huán)境。這既反映了公眾對(duì)可信算法的主觀期待,也反映了制度對(duì)可信算法的客觀約束。盡管可信算法可以而且必須通過(guò)技術(shù)進(jìn)路得以實(shí)現(xiàn),但通過(guò)法律的可信控制也是實(shí)現(xiàn)算法可信的可行進(jìn)路和必要保證。當(dāng)然,通過(guò)法律的可信控制,需要遵循算法信任生成和維持的內(nèi)在邏輯,有針對(duì)性地構(gòu)建合理且有效的制度方案。
算法“可信”是一種狀態(tài),即算法基于其可理解性、可靠性和可控性而能夠獲得人們的信任。從技術(shù)中立的角度看,算法作為客觀技術(shù)產(chǎn)物其本身并不存在價(jià)值取向或信任問(wèn)題,但算法設(shè)計(jì)和應(yīng)用中難以避免地會(huì)受到相關(guān)主體的主觀因素影響,惡意或過(guò)失可能導(dǎo)致算法的缺陷甚至失控,從而造成算法不可信。易言之,算法可信與否的根源在于算法自身是如何被設(shè)計(jì)和應(yīng)用的。法律雖然并不能做到直接確認(rèn)或宣示算法的可信,但法律可以通過(guò)規(guī)范和調(diào)整算法的設(shè)計(jì)、部署和應(yīng)用的行為以及算法關(guān)系,形成針對(duì)算法相關(guān)主體的利益制衡機(jī)制和行為約束框架,從而實(shí)現(xiàn)算法的可信控制。
具體而言,通過(guò)法律的可信控制主要包括以下原則性內(nèi)容:首先是技術(shù)規(guī)范控制,即以法律制度的形式明確算法在設(shè)計(jì)、部署和應(yīng)用的整個(gè)生命周期中所應(yīng)遵守的技術(shù)規(guī)范,以算法行為的合規(guī)性實(shí)現(xiàn)算法可信。例如,將算法的技術(shù)要求和倫理規(guī)范上升為具有強(qiáng)制性和普遍約束力的法律規(guī)范,確保算法在透明度、公平性、魯棒性等方面符合法律預(yù)設(shè)的剛性標(biāo)準(zhǔn)。其次是權(quán)責(zé)協(xié)調(diào)控制,即在法律制度中合理分配算法相關(guān)主體的權(quán)利、義務(wù)與責(zé)任,通過(guò)“賦權(quán)”支撐用戶和公眾對(duì)算法的監(jiān)督,通過(guò)問(wèn)責(zé)強(qiáng)化對(duì)算法控制者的約束,以算法相關(guān)主體間的利益制衡實(shí)現(xiàn)算法可信。例如,通過(guò)構(gòu)建合理程度的透明度規(guī)則,規(guī)定用戶獲得算法解釋的權(quán)利、設(shè)計(jì)者和應(yīng)用者的解釋義務(wù)以及因未能合理解釋而承擔(dān)的法律責(zé)任,共同實(shí)現(xiàn)對(duì)于算法透明度的有效控制。再次是合作治理控制,即構(gòu)建涵蓋政府、行業(yè)組織、第三方機(jī)構(gòu)在內(nèi)的多利益相關(guān)方協(xié)同參與的治理框架,通過(guò)賦予相關(guān)方對(duì)算法進(jìn)行監(jiān)督的權(quán)力與職責(zé),提高其參與算法治理的責(zé)任感和積極性并加強(qiáng)對(duì)算法的有效監(jiān)督,從而實(shí)現(xiàn)算法的可信控制。
概言之,通過(guò)法律的可信控制是依托貫穿于算法的技術(shù)層、應(yīng)用層和治理層的系統(tǒng)化制度安排,對(duì)算法本體和算法關(guān)系進(jìn)行有效調(diào)整和規(guī)范,從而確保算法以可信任狀態(tài)得以設(shè)計(jì)、部署、應(yīng)用和執(zhí)行的過(guò)程。作為算法治理必要環(huán)節(jié)的可信控制,以實(shí)現(xiàn)算法的可信狀態(tài)為旨向,是有效防范算法風(fēng)險(xiǎn)的前提,也是算法規(guī)制的核心內(nèi)容。通過(guò)法律的可信控制,也應(yīng)當(dāng)遵循算法規(guī)制的基本邏輯,即在算法本體方面強(qiáng)化法律嵌入,在算法關(guān)系方面完善法律調(diào)節(jié),充分發(fā)揮法律在實(shí)現(xiàn)算法可信中的積極作用。
三、本體維度下的算法可信控制
算法自身的可信度是算法信任最根本的來(lái)源,也是算法可信控制最直接的場(chǎng)域。算法是否可信,以及多大程度上可信,往往取決于算法本體的質(zhì)量。因此,從本體維度進(jìn)行算法的可信控制,即以算法本體作為直接的規(guī)制對(duì)象,通過(guò)制度約束確保算法按照可信的標(biāo)準(zhǔn)和規(guī)范進(jìn)行設(shè)計(jì)和應(yīng)用,是實(shí)現(xiàn)算法可信的基礎(chǔ)性環(huán)節(jié)。由于算法本體的技術(shù)屬性,這一維度下算法的可信控制可以遵循法律嵌入的邏輯,將可信算法的具體要求轉(zhuǎn)化為具有法律約束力的技術(shù)規(guī)范,從而完成算法的可信控制。
(一)完善透明度規(guī)則
“陽(yáng)光是最好的殺蟲(chóng)劑,燈光是最好的警察?!辈继m代斯大法官這一著名論斷在透明度的擁躉中廣為流傳。這一論斷不僅可以用來(lái)倡導(dǎo)證券市場(chǎng)上的信息披露,在算法的可信控制中同樣適用。一方面,與行政公開(kāi)能夠增強(qiáng)政府公信力類似,算法的透明可以使用戶了解算法的邏輯,從而獲得用戶的信任。〔44 〕另一方面,透明能夠?qū)λ惴刂普咝纬捎行Ъs束,使其不能(至少不會(huì)明目張膽地)設(shè)計(jì)和部署不可信的算法。因此,建立針對(duì)算法的透明度規(guī)則,可以在主觀和客觀兩個(gè)方面實(shí)現(xiàn)算法可信的效果。
算法的透明度規(guī)則,核心在于要求算法控制者披露源代碼或者披露算法從輸入到輸出的基本邏輯?!?5 〕事實(shí)上,在眾多關(guān)于算法治理的倡議方案中,以透明度要求打破“算法黑箱”被認(rèn)為是有效規(guī)制算法的首要方案,也是實(shí)現(xiàn)算法可信控制的第一把鑰匙。例如,《一般數(shù)據(jù)保護(hù)條例》第13條第2款(f)項(xiàng)要求數(shù)據(jù)控制者在利用自動(dòng)化決策機(jī)制時(shí)要向數(shù)據(jù)主體提供數(shù)據(jù)畫(huà)像過(guò)程中運(yùn)用的邏輯。英國(guó)議會(huì)下屬的人工智能特別委員會(huì)發(fā)布報(bào)告《人工智能在英國(guó):準(zhǔn)備、志向與能力?》也建議在安全攸關(guān)的特定場(chǎng)景中要求使用更加技術(shù)透明的人工智能系統(tǒng),以實(shí)現(xiàn)更可信賴的目標(biāo)。〔46 〕
然而,透明度要求的落實(shí)面臨著兩個(gè)方面的挑戰(zhàn)。一個(gè)挑戰(zhàn)是與算法控制者私權(quán)的平衡。對(duì)于算法控制者而言,算法往往承載著其核心競(jìng)爭(zhēng)力,也通常被主張為商業(yè)秘密而被獲得保護(hù)。因此,在對(duì)算法課以透明度要求時(shí)也不得不考慮私權(quán)與公益的平衡問(wèn)題。另一個(gè)挑戰(zhàn)則是算法的透明并不意味著被理解,即算法的高度復(fù)雜性和專業(yè)性可能會(huì)導(dǎo)致算法的公開(kāi)淪為形式,即便是算法完全公開(kāi),用戶或公眾甚至有些專業(yè)人士都可能被淹沒(méi)在復(fù)雜的代碼或冗雜的信息之中,從而無(wú)法真正理解算法是否存在不可信的因素?!?7 〕面對(duì)這兩大挑戰(zhàn),我們需要甄別基于信息的和基于解釋的透明度, 〔48 〕務(wù)實(shí)地認(rèn)識(shí)透明度要求的并非公開(kāi)晦澀難懂的算法代碼,并落腳至“可理解”的立場(chǎng)來(lái)建構(gòu)算法的透明度規(guī)則。例如,F(xiàn)AT/ML選擇了折衷的透明度規(guī)則方案并建議所有算法需要發(fā)布一項(xiàng)社會(huì)影響聲明,并在聲明中詳細(xì)說(shuō)明算法的責(zé)任主體、向利益相關(guān)者提供通俗的解釋、提示錯(cuò)誤和不確定性的來(lái)源、提供第三方進(jìn)行檢查和批評(píng)的途徑、闡釋針對(duì)不同受眾的公平考慮?!?9 〕這種社會(huì)影響聲明不再執(zhí)著于算法的完全公開(kāi),而是試圖讓算法以能夠更好地被理解的方式實(shí)現(xiàn)透明。
鑒于此,在實(shí)現(xiàn)算法可信控制的過(guò)程中,透明度規(guī)則需要立足于使算法更易被理解的方式來(lái)構(gòu)建。具體而言,算法控制者首先需要為公眾獲取代碼或內(nèi)在邏輯提供便利的渠道,使對(duì)該算法感興趣的利益相關(guān)方能夠方便地獲取相關(guān)信息。其次,算法代碼或算法邏輯的公開(kāi)需要以容易被大眾所理解的通俗表達(dá)方式予以解釋,且這些解釋必須是直接、簡(jiǎn)明且有效的。概言之,算法的透明度規(guī)則應(yīng)當(dāng)在適當(dāng)尊重控制者利益的基礎(chǔ)上,按照更加可理解的方式合理設(shè)定,使用戶和公眾能夠擺脫機(jī)械的“魚(yú)缸式”透明,并真正直接且有針對(duì)性地理解算法,將其作為算法在設(shè)計(jì)和應(yīng)用時(shí)需要滿足的合規(guī)要求,從而增進(jìn)算法的可信度。
(二)推動(dòng)算法倫理的法律化
由于算法在設(shè)計(jì)環(huán)節(jié)不可避免地受到人的影響,即便如何強(qiáng)調(diào)“技術(shù)中立”都無(wú)法否認(rèn)算法本身具備著“經(jīng)由設(shè)計(jì)的價(jià)值觀”, 〔50 〕算法的歧視與偏見(jiàn)以及其他對(duì)人類社會(huì)的挑戰(zhàn),往往也都是源自設(shè)計(jì)算法時(shí)的故意、疏忽以及對(duì)于倫理道德的漠視。因此,算法倫理被提出并作為約束算法按照符合人類道德觀念和共同善的要求設(shè)計(jì)和應(yīng)用的道德基準(zhǔn)?!?1 〕例如,歐盟委員會(huì)提出人工智能系統(tǒng)應(yīng)當(dāng)符合尊重人類自主,防止損害公平可解釋 〔52 〕等道德原則。算法的倫理要求反映社會(huì)對(duì)于算法的擔(dān)憂與期待。從可信算法和算法信任的具體要求來(lái)看,符合倫理要求的算法由于其本身的“善”而能夠給予用戶和公眾更為正向的價(jià)值預(yù)期,且算法決策的倫理正當(dāng)性有助于實(shí)現(xiàn)算法的可靠和可控,從而使得其作為設(shè)計(jì)良好的算法更易獲取信任。易言之,可信算法必然是符合倫理要求的。
然而,算法的倫理要求僅限于道德上的倡議,由此而來(lái)的軟性約束并不足以產(chǎn)生有效的控制力。盡管一旦算法違反倫理要求可能會(huì)導(dǎo)致輿論譴責(zé)或用戶流失的后果,但主要依靠聲譽(yù)機(jī)制的道德約束往往并不具備執(zhí)行的剛性。因此,在算法的可信控制中,倫理要求雖然是衡量算法可信度的重要標(biāo)準(zhǔn),但由于其道德約束的實(shí)質(zhì)而導(dǎo)致可信控制效果不盡如人意。要解決道德約束的不足,需要借助具有強(qiáng)制約束力的法律來(lái)落實(shí)算法的倫理要求,實(shí)現(xiàn)倫理要求的法律化,即將算法倫理的具體要求嵌入法律制度,完成倫理規(guī)范的法律表達(dá),從而將道德原則轉(zhuǎn)化為法律義務(wù),以實(shí)現(xiàn)更為有效的可信控制。盡管當(dāng)前有些倫理要求已經(jīng)嵌入法律制度,例如《一般數(shù)據(jù)保護(hù)條例》第13條至第15條要求數(shù)據(jù)控制者向數(shù)據(jù)主體提供自動(dòng)化決策的邏輯并解釋其影響,但現(xiàn)行有效法律需要更為充分和全面地將道德原則轉(zhuǎn)化為法定義務(wù)?!?3 〕
算法倫理的法律化主要可以在兩個(gè)層面得以實(shí)現(xiàn):一方面是算法設(shè)計(jì)者負(fù)有按照倫理要求設(shè)計(jì)算法的法定義務(wù);另一方面是算法的設(shè)計(jì)須遵守與倫理要求一致的法律規(guī)則。就前者而言,法律應(yīng)當(dāng)對(duì)算法設(shè)計(jì)者課以相應(yīng)的信義義務(wù),以約束其基于對(duì)倫理要求的充分注意來(lái)完成算法的設(shè)計(jì)過(guò)程,從而避免因設(shè)計(jì)中的故意或過(guò)失導(dǎo)致算法偏離倫理要求而落入不可信狀態(tài)。就后者來(lái)看,法律應(yīng)當(dāng)設(shè)定明確且強(qiáng)制的技術(shù)規(guī)范,將倫理要求嵌入算法決策邏輯,以實(shí)現(xiàn)算法本身對(duì)于倫理要求的遵守。具體而言,可以通過(guò)強(qiáng)制性規(guī)范要求所有的算法均需將法律化的倫理要求作為設(shè)定條件寫(xiě)入主節(jié)點(diǎn),偏離倫理要求的算法執(zhí)行過(guò)程會(huì)因不滿足觸發(fā)條件而不能啟動(dòng)代理節(jié)點(diǎn),從而以倫理要求作為衡量標(biāo)準(zhǔn)阻斷不可信算法的執(zhí)行,進(jìn)而完成算法的可信控制。
(三)探索算法驗(yàn)證評(píng)估制度
相比于用戶和公眾的主觀心態(tài),算法是否確實(shí)可信往往取決于算法自身的客觀狀態(tài),即是否可理解、可靠和可控。囿于自身專業(yè)能力和認(rèn)知水平,一般用戶并不能自主地完成可信算法的驗(yàn)證,但具有相應(yīng)技術(shù)實(shí)力的利益相關(guān)方,譬如技術(shù)社群或政府部門,有能力對(duì)算法客觀上的可信度進(jìn)行驗(yàn)證和評(píng)估。然而,由于算法被作為商業(yè)秘密予以保護(hù)的通行實(shí)踐,以及強(qiáng)制性算法驗(yàn)證評(píng)估制度尚付闕如,即便是在一定程度上需要保持透明,但算法仍然處于不受系統(tǒng)性驗(yàn)證評(píng)估的野蠻生長(zhǎng)狀態(tài)。這種局面顯示了可信算法的實(shí)現(xiàn)只能依賴算法控制者的虛無(wú)承諾和用戶的自我安慰,缺乏具有技術(shù)公信力和地位獨(dú)立性的機(jī)構(gòu)對(duì)算法是否可信進(jìn)行確認(rèn)。對(duì)算法進(jìn)行驗(yàn)證評(píng)估以確認(rèn)其可信度,是實(shí)現(xiàn)算法可信控制的重要抓手。建立針對(duì)算法可信度的驗(yàn)證評(píng)估制度,對(duì)于可信算法的甄別和應(yīng)用殊為必要。
可信算法在技術(shù)上具備識(shí)別的可能性。從現(xiàn)有工程標(biāo)準(zhǔn)來(lái)看,IEEE的《推薦的軟件可靠性最佳工程實(shí)踐》(IEEE 1633-2008)以及國(guó)家標(biāo)準(zhǔn)化委員會(huì)發(fā)布的《系統(tǒng)與軟件的可靠性》(GB/T 29832-2013)等都可以對(duì)算法的可靠性進(jìn)行驗(yàn)證。盡管隨著算法的迭代以及深度學(xué)習(xí)算法的出現(xiàn),導(dǎo)致現(xiàn)有工程標(biāo)準(zhǔn)不能完全應(yīng)對(duì),但是相關(guān)標(biāo)準(zhǔn)和規(guī)范正在推進(jìn)之中,相應(yīng)的測(cè)試模型和評(píng)估模型也會(huì)落地。國(guó)務(wù)院在發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中提出:“建立人工智能算法與平臺(tái)安全性測(cè)試模型及評(píng)估模型,研發(fā)人工智能算法與平臺(tái)安全性測(cè)評(píng)工具集?!?〔54 〕ISO/IEC(國(guó)際標(biāo)準(zhǔn)化組織/國(guó)際電工委員會(huì))JTC1(第一聯(lián)合技術(shù)委員會(huì))成立的人工智能分委員會(huì)專門成立了“可信賴”工作組(WG3),開(kāi)展人工智能可信度、魯棒性評(píng)估、算法倫理等標(biāo)準(zhǔn)研制工作?!?5 〕通過(guò)評(píng)估算法功能實(shí)現(xiàn)的正確性、代碼實(shí)現(xiàn)的正確性、目標(biāo)函數(shù)的影響、訓(xùn)練數(shù)據(jù)集的影響、對(duì)抗性樣本的影響、軟硬件平臺(tái)依賴的影響、環(huán)境數(shù)據(jù)的影響等可靠性指標(biāo),并驗(yàn)證算法退出或脫離機(jī)制是否具備和有效等可控性指標(biāo),可以得出算法是否可信的客觀判斷。概言之,按照相應(yīng)的標(biāo)準(zhǔn)對(duì)算法的可理解性、可靠性和可控性進(jìn)行驗(yàn)證并不存在技術(shù)上的障礙。
算法的驗(yàn)證評(píng)估制度的核心意旨在于針對(duì)算法設(shè)定一項(xiàng)接受審查的義務(wù),即在算法投入應(yīng)用前須經(jīng)過(guò)有關(guān)機(jī)構(gòu)按照可信度的相應(yīng)標(biāo)準(zhǔn)進(jìn)行驗(yàn)證和評(píng)估,以實(shí)現(xiàn)算法的可信控制。通過(guò)對(duì)算法的驗(yàn)證評(píng)估可以從源頭上對(duì)算法進(jìn)行篩查和監(jiān)督,也能夠?yàn)橛脩艉凸娛褂盟惴ㄌ峁┛尚膨?yàn)證的支撐和輔助。從具體實(shí)現(xiàn)路徑上看,算法的驗(yàn)證評(píng)估制度需要解決以下幾個(gè)問(wèn)題:第一是誰(shuí)來(lái)驗(yàn)證,是政府部門還是第三方專業(yè)機(jī)構(gòu)?第二是驗(yàn)證評(píng)估機(jī)構(gòu)是否有足夠的能力查驗(yàn)算法的可信度?第三是驗(yàn)證評(píng)估結(jié)論是否構(gòu)成算法可信的保證?第四是算法驗(yàn)證評(píng)估的程序啟動(dòng)是強(qiáng)制性還是依申請(qǐng)?
筆者認(rèn)為,驗(yàn)證評(píng)估算法可信度的機(jī)構(gòu)需要兼具技術(shù)能力與公信力,以保證其能夠客觀且有效地識(shí)別算法中的不可信因素。不論是政府部門通過(guò)組織專家委員會(huì)或者委托第三方機(jī)構(gòu)進(jìn)行驗(yàn)證評(píng)估,還是第三方機(jī)構(gòu)按照法律授權(quán)獨(dú)立進(jìn)行驗(yàn)證評(píng)估,都能實(shí)現(xiàn)對(duì)算法的可信驗(yàn)證。由哪個(gè)主體承擔(dān)算法驗(yàn)證評(píng)估的職責(zé)取決于法律制度如何安排。但是,由于技術(shù)能力和認(rèn)知水平的局限,對(duì)于高度復(fù)雜尤其是具備深度學(xué)習(xí)能力的算法,不管是政府部門還是第三方機(jī)構(gòu)都無(wú)法保證其能夠完全精準(zhǔn)地作出可信判斷。因此,驗(yàn)證評(píng)估機(jī)構(gòu)的結(jié)論在技術(shù)上只是具備高度蓋然性的可信判斷,而不能作為具備“背書(shū)”性質(zhì)的可信保證。另外,隨著算法的大量且廣泛的應(yīng)用,強(qiáng)制性要求所有算法都接受驗(yàn)證評(píng)估顯然既不現(xiàn)實(shí)也不經(jīng)濟(jì),因此可以對(duì)算法進(jìn)行分類管理,與用戶人身財(cái)產(chǎn)安全和公共利益緊密相關(guān)的算法應(yīng)當(dāng)強(qiáng)制接受可信驗(yàn)證與評(píng)估,而一般性的算法則可自主申請(qǐng)接受可信驗(yàn)證與評(píng)估。接受可信驗(yàn)證與評(píng)估并通過(guò)的算法能夠獲得較好的聲譽(yù),從而激勵(lì)算法設(shè)計(jì)者和應(yīng)用者積極申請(qǐng),從而實(shí)現(xiàn)強(qiáng)制與激勵(lì)并重的可信控制。
四、關(guān)系維度下的算法可信控制
算法部署和執(zhí)行的過(guò)程會(huì)涉及包括算法控制者和用戶等主體在內(nèi)的眾多利益相關(guān)方,這些主體之間形成的算法關(guān)系既反映著算法對(duì)社會(huì)關(guān)系的型塑,也會(huì)在一定程度上形成對(duì)算法本體的約束。具體而言,算法相關(guān)主體的權(quán)利義務(wù)配置、責(zé)任承擔(dān)方案以及受監(jiān)管程度都會(huì)影響算法能否以可信狀態(tài)實(shí)現(xiàn)??梢哉f(shuō),算法本體的可信度奠定了算法信任的基礎(chǔ),而算法關(guān)系的有效調(diào)整可以促進(jìn)算法以可信狀態(tài)得以部署和執(zhí)行,從而成為算法信任的保障。因此,從關(guān)系維度進(jìn)行算法的可信控制,即不再以算法本體而是以算法關(guān)系作為規(guī)制對(duì)象,通過(guò)法律對(duì)算法相關(guān)主體行為的激勵(lì)、約束和規(guī)范來(lái)調(diào)節(jié)和平衡算法關(guān)系,從而間接地將可信要求落實(shí)到算法設(shè)計(jì)、部署和執(zhí)行的全過(guò)程。
(一)明確算法權(quán)利
算法權(quán)利配置是算法治理的重要內(nèi)容, 〔56 〕也可以成為算法可信控制的有力支撐。通過(guò)向算法相關(guān)主體賦權(quán),即確認(rèn)和保障相關(guān)主體的算法權(quán)利,可以改變算法關(guān)系中的力量對(duì)比和利益結(jié)構(gòu),借助權(quán)利對(duì)抗中的制約以及權(quán)利平衡中的合作實(shí)現(xiàn)算法的可信控制。當(dāng)前關(guān)于算法相關(guān)權(quán)利的研究與嘗試正在走向成熟,算法解釋權(quán)、脫離自動(dòng)決策權(quán)、算法排他權(quán)、人工接管權(quán)等權(quán)利類型不斷豐富和完善。〔57 〕一旦這些權(quán)利得到法律的認(rèn)可和保護(hù),算法相關(guān)主體在主張權(quán)利時(shí)會(huì)對(duì)算法關(guān)系中的相對(duì)方形成約束,或者在實(shí)現(xiàn)權(quán)利時(shí)對(duì)自身行為模式進(jìn)行調(diào)適,從而在算法關(guān)系的互動(dòng)中形成可信控制的實(shí)際效果。
首先,通過(guò)算法解釋權(quán)的配置為用戶確認(rèn)算法可信賦能。算法解釋權(quán)的核心在于保障算法相對(duì)人即用戶就算法的功能、邏輯、影響等關(guān)鍵信息以透明且可理解的方式獲得算法控制者解釋的權(quán)利。〔58 〕面對(duì)可能隱藏諸多不可信因素的算法黑箱,算法解釋權(quán)構(gòu)造了用戶與算法控制者之間的對(duì)抗式關(guān)系,用戶可通過(guò)主張算法解釋權(quán)發(fā)現(xiàn)和排除不可信算法,同時(shí)算法解釋權(quán)的相關(guān)立法也可以為技術(shù)開(kāi)發(fā)者探索更具透明性和高性能的技術(shù)模型提供充足的制度激勵(lì)?!?9 〕具體而言,賦予用戶獲得解釋的權(quán)利,相對(duì)應(yīng)地會(huì)產(chǎn)生算法設(shè)計(jì)者或控制者的解釋義務(wù),能夠在用戶與算法設(shè)計(jì)者或控制者的對(duì)抗中形成對(duì)后者的有效約束,在解釋過(guò)程中的算法透明化會(huì)倒逼算法設(shè)計(jì)者或控制者盡量按照可信算法的要求完成算法的設(shè)計(jì)、部署和應(yīng)用。
其次,通過(guò)脫離自動(dòng)決策權(quán)的配置為用戶拒絕不可信算法提供支持。源于《一般數(shù)據(jù)保護(hù)條例》第22條的脫離自動(dòng)決策權(quán)意味著用戶有權(quán)拒絕自動(dòng)化決策算法,即在用戶不愿意或者不信任算法的自動(dòng)化決策時(shí)有權(quán)選擇“脫離算法決策”?!?0 〕主張脫離自動(dòng)決策權(quán)在本質(zhì)上是用戶對(duì)于不可信算法或不能確認(rèn)可信度的算法“用腳投票”,以規(guī)避對(duì)其安全或其他利益帶來(lái)的潛在不利影響。脫離自動(dòng)決策權(quán)一方面保障了用戶脫離不可信算法的選擇自由;另一方面又會(huì)對(duì)算法控制者確保算法可信形成相應(yīng)的制度激勵(lì),從而推動(dòng)算法相關(guān)主體在對(duì)抗中尋求合作。前者主要是需求側(cè)的影響,脫離算法的自動(dòng)決策與獲得人工干預(yù)權(quán)或人工接管權(quán)一樣,是避免或減少不可信算法導(dǎo)致?lián)p害后果的控制方案,在此過(guò)程中不可信算法會(huì)在用戶的脫離和拒絕中需求不斷萎縮直至被淘汰。而后者主要是供給側(cè)的考量,算法控制者有足夠的動(dòng)機(jī)推動(dòng)算法的普遍應(yīng)用,為避免算法被脫離和拒絕,其只能盡可能確保算法的可信并向公眾充分解釋以獲得算法信任。
再次,通過(guò)算法排他權(quán)的配置激勵(lì)算法控制者配合算法的可信控制?,F(xiàn)行專利法律的制度與實(shí)踐將“智力活動(dòng)的規(guī)則與方法”排除在專利權(quán)客體之外,這意味著以抽象化的決策流程和邏輯為本質(zhì)的算法至少在當(dāng)前并不能作為專利得到有效保護(hù)。為了保護(hù)商業(yè)上的核心競(jìng)爭(zhēng)力,算法控制者只能選擇將其作為商業(yè)秘密進(jìn)行保護(hù)?,F(xiàn)實(shí)中的保密需求與理論上的透明度要求之間形成的內(nèi)在沖突導(dǎo)致了算法控制者往往怠于合作,透明度要求、驗(yàn)證評(píng)估以及算法解釋都無(wú)法得到其全力的配合。算法控制者的消極配合難以真正實(shí)現(xiàn)有效的可信控制,而算法排他權(quán)也許能為爭(zhēng)取算法控制者的合作提供一條可行路徑。以算法公開(kāi)或保存源代碼為對(duì)價(jià)賦予算法控制者在一定期限內(nèi)的以不得為競(jìng)爭(zhēng)者所利用為內(nèi)容的排他權(quán),可以消解算法控制者在面對(duì)透明度等要求時(shí)的顧慮,實(shí)現(xiàn)在保護(hù)其商業(yè)利益基礎(chǔ)上的算法公開(kāi),從而將算法關(guān)系從緊張的對(duì)抗調(diào)整為相容的合作,繼而在算法控制者的配合下實(shí)現(xiàn)算法的可信控制。
(二)強(qiáng)化算法問(wèn)責(zé)
相比于透明度要求和算法權(quán)利配置等通過(guò)事前預(yù)防的方式實(shí)現(xiàn)可信控制,算法問(wèn)責(zé)具有典型的事后控制色彩。從不同角度進(jìn)行理解,算法問(wèn)責(zé)包括兩方面的內(nèi)涵:其一是指算法使用者或者控制者有義務(wù)報(bào)告并證明算法系統(tǒng)設(shè)計(jì)和決策應(yīng)用的合理性,并有義務(wù)減輕算法可能帶來(lái)的任何負(fù)面影響或者潛在危害, 〔61 〕系以外部監(jiān)管的邏輯進(jìn)行算法治理;其二是指算法相關(guān)主體就其不當(dāng)行為以及算法執(zhí)行中產(chǎn)生的損害承擔(dān)相應(yīng)的法律責(zé)任, 〔62 〕即以歸責(zé)或責(zé)任分配的邏輯進(jìn)行算法治理。可問(wèn)責(zé)是可信算法的內(nèi)在要求,也是約束算法控制者的有效手段,通過(guò)問(wèn)責(zé)所形成的約束機(jī)制能夠引導(dǎo)算法控制者確保算法的可解釋、可靠和可控。
目前美國(guó)紐約市、華盛頓州都出臺(tái)了相應(yīng)的算法問(wèn)責(zé)法案,以對(duì)公共事業(yè)領(lǐng)域的算法決策設(shè)定相應(yīng)的問(wèn)責(zé)機(jī)制,即要求算法控制者報(bào)告算法合理性與避害措施的義務(wù),并成立專業(yè)機(jī)構(gòu)對(duì)算法進(jìn)行審查。美國(guó)參議院目前正在討論的《算法問(wèn)責(zé)法案》將算法問(wèn)責(zé)的適用范圍從公共事業(yè)部門拓展到大型私人公司,并要求聯(lián)邦貿(mào)易委員會(huì)制定評(píng)估“高度敏感性”算法的規(guī)則,明確對(duì)算法決策中可能存在的不當(dāng)行為進(jìn)行問(wèn)責(zé)。這個(gè)層面的算法問(wèn)責(zé)實(shí)際上是引入具備一定行政權(quán)力和專業(yè)能力的機(jī)構(gòu)。例如,紐約市的自動(dòng)化決策工作組以及華盛頓州的首席隱私官,作為相對(duì)獨(dú)立且權(quán)威的第三方加入算法關(guān)系并對(duì)算法控制者形成制約,一旦算法偏離其預(yù)設(shè)的運(yùn)行邏輯和執(zhí)行原則,就會(huì)觸發(fā)包括罰款在內(nèi)的法律責(zé)任。通過(guò)問(wèn)責(zé)機(jī)制的合理安排,算法控制者與用戶之間失衡的關(guān)系將因問(wèn)責(zé)主體的加入而得到調(diào)節(jié),占據(jù)強(qiáng)勢(shì)與主動(dòng)地位的算法控制者會(huì)更加審慎地完成算法的設(shè)計(jì)、部署和應(yīng)用,算法中的不可信因素也將得到控制。在具體的制度設(shè)計(jì)中,可以要求算法控制者將算法源代碼、運(yùn)行參量、算法邏輯等信息向法律授權(quán)的機(jī)構(gòu)備案,供問(wèn)責(zé)主體隨時(shí)進(jìn)行審計(jì)和檢查,或者在算法運(yùn)行出現(xiàn)問(wèn)題后依據(jù)備案信息進(jìn)行驗(yàn)證,若備案信息與實(shí)際情況不一致的,可以對(duì)算法控制者課以嚴(yán)厲處罰?!?3 〕
除了問(wèn)責(zé)機(jī)制的設(shè)計(jì)之外,算法責(zé)任的分配也是算法問(wèn)責(zé)的重要方面。民事、行政甚至刑事責(zé)任會(huì)對(duì)算法控制者形成一定的威懾,也會(huì)成為其作為理性經(jīng)濟(jì)人在作出行為決策時(shí)的重要考量因素。易言之,嚴(yán)格的法律責(zé)任會(huì)約束算法控制者的行為,避免因其故意或過(guò)失而出現(xiàn)的算法不可信。由于算法生命周期涉及算法設(shè)計(jì)者、算法應(yīng)用者等諸多主體,不可信算法的部署及其造成的損害所產(chǎn)生的責(zé)任如何分配目前并未形成共識(shí)。責(zé)任形式和歸責(zé)原則的不明確以及責(zé)任分配方案的模糊會(huì)減損算法責(zé)任的規(guī)制效果。事實(shí)上,在算法目前尚未真正發(fā)展到具備主體屬性的情況下,存在應(yīng)用風(fēng)險(xiǎn)的不可信算法可以納入產(chǎn)品責(zé)任的范疇。例如,自動(dòng)駕駛汽車致?lián)p可以按照產(chǎn)品責(zé)任的邏輯確立其責(zé)任形式和歸責(zé)原則?!?4 〕即算法應(yīng)用者與算法設(shè)計(jì)者應(yīng)當(dāng)按照嚴(yán)格責(zé)任原則對(duì)外承擔(dān)連帶責(zé)任,兩者之間的內(nèi)部責(zé)任分配應(yīng)當(dāng)考慮各自的過(guò)錯(cuò)程度,并結(jié)合其在造成算法不可信及其損害結(jié)果中的作用予以判斷。除了民事責(zé)任之外,要實(shí)現(xiàn)算法的可信控制還需要合理地設(shè)置相應(yīng)的行政責(zé)任和刑事責(zé)任,以規(guī)范和預(yù)防相關(guān)主體的故意或疏忽導(dǎo)致不可信算法的應(yīng)用。
(三)拓展算法監(jiān)管體系
目前,我國(guó)理論界探討算法治理的主流話語(yǔ)體系還停留于算法權(quán)利與算法倫理,算法監(jiān)管雖有提出但始終諱莫如深,其原因大抵是算法跨領(lǐng)域應(yīng)用下監(jiān)管權(quán)力的博弈以及算法技術(shù)復(fù)雜性下對(duì)監(jiān)管能力的擔(dān)憂。然而,盡管算法的驗(yàn)證評(píng)估與算法問(wèn)責(zé)在一定程度上具有監(jiān)管的色彩,具體而言,誰(shuí)來(lái)監(jiān)管以及如何監(jiān)管仍有待于進(jìn)一步明確。此外,僅僅明確算法相關(guān)主體的權(quán)利和義務(wù)卻缺乏有效的監(jiān)管執(zhí)行機(jī)制,并不足以全面地實(shí)現(xiàn)可信控制。因此,以全局視角構(gòu)建一個(gè)系統(tǒng)有效的監(jiān)管體系對(duì)于實(shí)現(xiàn)算法的可信控制可以形成有力的保障,有必要在算法可信控制中進(jìn)行合理的制度安排。
算法在經(jīng)濟(jì)社會(huì)生活各個(gè)領(lǐng)域的廣泛應(yīng)用,使得各監(jiān)管部門基于行業(yè)監(jiān)管職責(zé)都有對(duì)算法主張監(jiān)管權(quán)力的需求。例如,金融監(jiān)管部門在對(duì)智能投顧、量化交易時(shí)有必要審查算法的可信度,以確認(rèn)依托算法實(shí)施的金融行為符合審慎監(jiān)管和行為監(jiān)管的要求?!?5 〕此外,算法的整個(gè)生命周期會(huì)落入不同部門的監(jiān)管范圍。例如,算法設(shè)計(jì)部署階段屬于軟件行業(yè)而歸入工信部門監(jiān)管,算法執(zhí)行應(yīng)用中涉及網(wǎng)絡(luò)產(chǎn)品和服務(wù)的安全可信而需接受網(wǎng)信部門的監(jiān)管,算法執(zhí)行的結(jié)果可能影響行業(yè)競(jìng)爭(zhēng)格局或損害消費(fèi)者合法權(quán)益的,又會(huì)引發(fā)市場(chǎng)監(jiān)督管理部門的監(jiān)管。這種多頭監(jiān)管的格局可能帶來(lái)的監(jiān)管重疊或監(jiān)管真空,并不利于落實(shí)算法的可信控制,因此應(yīng)該將算法監(jiān)管權(quán)集中行使或者建立監(jiān)管協(xié)調(diào)機(jī)制??紤]到可信算法主要是強(qiáng)調(diào)其可靠與可控,在本質(zhì)上還是安全問(wèn)題。因此,筆者建議依托網(wǎng)絡(luò)安全法確立的國(guó)家網(wǎng)信部門統(tǒng)籌協(xié)調(diào)的網(wǎng)絡(luò)安全監(jiān)管體制實(shí)施算法的可信監(jiān)管?!?6 〕
但由于算法技術(shù)上的復(fù)雜性導(dǎo)致了監(jiān)管部門在識(shí)別算法不可信因素時(shí)存在能力局限,因此除了由監(jiān)管部門設(shè)立專家組或充實(shí)技術(shù)力量以外,可以引入多方主體按照合作治理的機(jī)制構(gòu)建適應(yīng)算法監(jiān)管需求的監(jiān)管體系?!?7 〕目前各國(guó)都在嘗試成立一些專業(yè)委員會(huì)來(lái)應(yīng)對(duì)技術(shù)革命所帶來(lái)的風(fēng)險(xiǎn)。例如,美國(guó)國(guó)家人工智能安全委員會(huì)以及紐約市自動(dòng)化決策工作組等,但由于定位為咨詢機(jī)構(gòu)而缺乏監(jiān)管授權(quán)從而難以發(fā)揮實(shí)際的監(jiān)管效能。因此,有人主張?jiān)O(shè)立國(guó)家算法安全委員會(huì), 〔68 〕或者借鑒美國(guó)食品藥品管理局的模式設(shè)立一個(gè)針對(duì)算法的專家審查機(jī)構(gòu),通過(guò)技術(shù)專家的獨(dú)立判斷對(duì)應(yīng)用前的算法進(jìn)行審查,以避免不可信算法流入市場(chǎng)。這種模式并非新設(shè)一個(gè)監(jiān)管部門,而是在具備專業(yè)獨(dú)立性的機(jī)構(gòu)與產(chǎn)業(yè)界之間形成一種合作機(jī)制。〔69 〕通過(guò)法律授權(quán)這類介于公私之間的專家型機(jī)構(gòu)參與算法的可信控制,能夠?qū)夹g(shù)不足的行政機(jī)構(gòu)形成有力支持。
此外,行業(yè)自律組織和技術(shù)社群也可以在算法的可信控制中發(fā)揮巨大作用。以行業(yè)協(xié)會(huì)、學(xué)會(huì)等為代表的社會(huì)團(tuán)體或組織通常以學(xué)術(shù)交流和行業(yè)合作為基本定位,這些組織雖無(wú)法定的監(jiān)管權(quán)力,但也能通過(guò)章程對(duì)其成員起到一定的監(jiān)督和約束作用。并且,這些行業(yè)組織相比行政機(jī)關(guān)往往更具技術(shù)優(yōu)勢(shì),且因身處技術(shù)一線而更能及時(shí)全面地了解算法技術(shù)發(fā)展動(dòng)態(tài)。通過(guò)法律明確其自律監(jiān)管地位并賦予一定的自律監(jiān)管權(quán)限,能夠充分動(dòng)員這些自律組織對(duì)其成員和整個(gè)行業(yè)進(jìn)行監(jiān)管和約束,從而發(fā)揮可信控制的功能。事實(shí)上,這類行業(yè)組織的自律監(jiān)管在金融行業(yè)、律師行業(yè)并不鮮見(jiàn),將其移植到算法治理領(lǐng)域并無(wú)不可。而技術(shù)社群盡管松散,但在針對(duì)算法的技術(shù)交流中也可能發(fā)現(xiàn)算法中的不可信因素,不少“極客”以及“白帽黑客”往往也可以發(fā)現(xiàn)算法中存在的安全隱患或者歧視偏見(jiàn),這些群體能夠通過(guò)揭露或舉報(bào)形成社會(huì)監(jiān)管力量, 〔70 〕從而在個(gè)體層面實(shí)現(xiàn)事實(shí)上的算法監(jiān)督,但這種社會(huì)監(jiān)管同樣也需要法律予以確認(rèn)和保障。
結(jié)? 語(yǔ)
隨著算法社會(huì)的到來(lái),人類諸多決策和行為開(kāi)始逐漸讓渡給算法。然而,算法并不總是可以被信任的,算法在設(shè)計(jì)、部署和應(yīng)用中的失控所導(dǎo)致的算法偏見(jiàn)、算法暴政、算法缺陷等問(wèn)題,可能會(huì)對(duì)人類所追求的公平、自由、安全等核心價(jià)值形成巨大沖擊。誠(chéng)然算法被寄予了人類對(duì)未來(lái)的期待,但我們真正需要的是可解釋、可靠和可控的“可信算法”。如果算法不能得到有效規(guī)制,“科技向善”只是一廂情愿的臆想,不可信算法也可能會(huì)成為算法社會(huì)的“弗蘭肯斯坦”。僅僅依賴算法控制者的技術(shù)倫理和道德自覺(jué)并不能真正確保算法可信,還需要借助法律制度對(duì)算法本體和算法關(guān)系的調(diào)整實(shí)現(xiàn)算法的可信控制。只有當(dāng)算法被法律所規(guī)訓(xùn),以可信算法的狀態(tài)投入應(yīng)用時(shí),人們面對(duì)算法的恐懼與焦慮也許才能真正消解。
Abstract: Trusted algorithms that meet the inherent requirements of comprehensibility, reliability, and controllability are the basis for preventing algorithm risks and building algorithm trust. Control on the trustworthiness of algorithms should be the core of algorithm governance. In accordance with the control logic of legal embedding and legal adjustment, through the systematic institutional arrangement that runs through the algorithm's technical layer, application layer and governance layer, it is ensured that the algorithm can be designed, deployed, applied and executed in a trustworthy state, which is the effective approach to trusted control of the algorithm. From the dimension of the algorithm ontology, ensuring the credibility of the algorithm itself through transparency rules, algorithmic ethics legalization and algorithm verification and evaluation system, and from the dimension of the algorithm relationship, through the algorithm rights, algorithm accountability and regulatory framework and other systems to restrict the behavior of algorithm-related subjects, we can constitute a specific path to the legal control on the trustworthiness of algorithms, which is also a necessary institutional preparation before the arrival of the algorithm society.
Key words: trusted algorithms; algorithm governance; algorithm ontology; algorithm relationship; institutional rationality; technology rationality