□王文玉
隨著大數(shù)據(jù)、云計(jì)算、深度學(xué)習(xí)等技術(shù)的迅速發(fā)展,算法決策已經(jīng)被廣泛應(yīng)用于行政執(zhí)法、商業(yè)競(jìng)爭(zhēng)、司法審判、社會(huì)征信等領(lǐng)域,以大數(shù)據(jù)、算法決策為核心的算法信息社會(huì)正在到來(lái)。其中,政府運(yùn)用算法這一新興的決策方式展開治理,為改良傳統(tǒng)政府治理模式,全面優(yōu)化政府的治理流程、治理精度、治理成效等提供了前所未有的機(jī)遇。但在具體實(shí)踐中,政府運(yùn)用或依靠算法展開治理往往既需要面對(duì)數(shù)據(jù)污染、算法黑箱等技術(shù)上的難題,還需要面對(duì)算法歧視、算法權(quán)力濫用、算法責(zé)任分配不明等倫理、法治上的挑戰(zhàn)。通過(guò)梳理和總結(jié),筆者發(fā)現(xiàn),現(xiàn)有研究多從當(dāng)前算法在政府治理的應(yīng)用實(shí)踐中總結(jié)和分析諸如算法歧視[1]、算法黑箱[2]、算法權(quán)力異化[3]等某一具體問(wèn)題,而較少?gòu)目尚刨嚨慕嵌认到y(tǒng)審視我們?yōu)槭裁葱枰獙⑺惴ㄇ度胝卫硪约拔覀冃枰裁礃拥乃惴ㄕ归_治理的問(wèn)題。這就導(dǎo)致現(xiàn)有研究所提出的應(yīng)對(duì)算法嵌入政府治理風(fēng)險(xiǎn)的方案往往缺乏全面性、系統(tǒng)性以及可預(yù)見(jiàn)性。是否值得信賴,是我們享受科技帶來(lái)的便利的前提和基礎(chǔ),因而本文將從可信賴的角度,對(duì)算法嵌入政府治理的意義及限度展開全面梳理和反思,并系統(tǒng)性地提出應(yīng)對(duì)相關(guān)風(fēng)險(xiǎn)的規(guī)制方案,以期為化解政府應(yīng)用算法展開治理的風(fēng)險(xiǎn)、全面提升政府治理能力提供完善的制度環(huán)境保障。
在人文社會(huì)科學(xué)領(lǐng)域,算法往往被定義為對(duì)相關(guān)技術(shù)的運(yùn)用過(guò)程,也即側(cè)重于認(rèn)為算法是一種決策產(chǎn)出方式或者建構(gòu)社會(huì)秩序的模型。如布倫·米特斯塔特等學(xué)者就指出,“公共話語(yǔ)主要關(guān)注的是一類特定的決策算法,例如在特定情況下采取的最佳行動(dòng),對(duì)數(shù)據(jù)的最佳解釋,等等。這種算法往往起到增強(qiáng)或取代人類的分析和決策作用”[4]。因此,本文所指的算法是一種決策產(chǎn)出的過(guò)程,其通過(guò)輸出決策結(jié)論的方式實(shí)現(xiàn)對(duì)社會(huì)秩序的建構(gòu)。將算法嵌入政府治理的進(jìn)程,就是要發(fā)揮算法在幫助或替代政府做出決策過(guò)程中的優(yōu)勢(shì),從而全面提升政府治理能力。算法嵌入政府治理對(duì)于發(fā)揮算法決策優(yōu)勢(shì)、提升政府治理能力有著良好的前景。
其一,算法決策具有中立性,可以有效避免傳統(tǒng)政府治理模式下行政裁量的偏向性問(wèn)題。決策者是否能夠基于當(dāng)前事實(shí)展開客觀中立的決策,是保障決策公平性、正當(dāng)性和可預(yù)測(cè)性的前提。實(shí)踐中,即便能夠排除個(gè)人私利以及人情關(guān)系等顯性因素的影響,個(gè)人決策還是難免會(huì)受到?jīng)Q策者原有的生活經(jīng)驗(yàn)、政治傾向、知識(shí)水平、個(gè)人情緒等隱性因素的侵蝕而做出具有偏見(jiàn)性的治理選擇。尤其是當(dāng)面對(duì)不確定的治理決策時(shí),個(gè)人直覺(jué)往往會(huì)起到?jīng)Q定性作用,在“信念固著”[5]和“錨定效應(yīng)”[6]影響下,決策者個(gè)體很容易受到虛假或無(wú)效信息的影響而做出不公正的裁量。
基于個(gè)人決策難以避免個(gè)體偏見(jiàn)的事實(shí),“許多人實(shí)際上都希望讓機(jī)器人來(lái)決策,而且最好是那種不是由人來(lái)設(shè)計(jì)運(yùn)行程序的機(jī)器人決策者。只要由人來(lái)?yè)?dān)任決策者,總會(huì)面臨人類大腦存在的各種局限”[7]。與傳統(tǒng)代碼編程不同的是,當(dāng)下算法是一種建立在神經(jīng)網(wǎng)絡(luò)上的最大似然應(yīng)用程序,其主要運(yùn)轉(zhuǎn)方式是對(duì)給定的數(shù)據(jù)集展開要素抽取、建構(gòu)對(duì)應(yīng)的相關(guān)關(guān)系,并通過(guò)反復(fù)學(xué)習(xí)和不斷自我完善,從而自主產(chǎn)生決策事項(xiàng)的最優(yōu)解決方案[8]。數(shù)據(jù)信息的客觀性、要素抽取標(biāo)準(zhǔn)的一致性、算法建模的統(tǒng)一性以及決策方式的標(biāo)準(zhǔn)化保障了算法決策的中立性、客觀性,從而可以有效避免人類決策的偏見(jiàn)性。如面對(duì)盧米斯對(duì)再犯風(fēng)險(xiǎn)評(píng)估系統(tǒng)COMPAS的評(píng)估方式是否符合程序正義的質(zhì)疑時(shí),威斯康星州最高法院法官就認(rèn)為,“COMPAS系統(tǒng)的運(yùn)行邏輯是參照獨(dú)立子項(xiàng)以及復(fù)雜化的算法而生成1~10級(jí)風(fēng)險(xiǎn)評(píng)估和量刑標(biāo)準(zhǔn)展開的,其內(nèi)在具有中立性和客觀性,因而并不能推定出其決策違背程序正義”[9]。
其二,算法決策具有高效性,可以減輕政府治理負(fù)擔(dān),提升政府治理效率。治理成本始終是政府治理進(jìn)程中需要著重考量的問(wèn)題,由于需要付出高昂的人力、物力、財(cái)力等成本,如何以最小的投入獲得最大的治理成效是優(yōu)化政府治理的核心問(wèn)題之一。這一問(wèn)題在行政執(zhí)法領(lǐng)域尤為突出,如選擇性執(zhí)法就是行政機(jī)關(guān)為了節(jié)約長(zhǎng)期、全面執(zhí)法的高昂成本而集中有限人力資源解決某些突出問(wèn)題的方式之一。但選擇性執(zhí)法違背了法律普遍性和平等適用性的基本要求,同時(shí)它還是滋生執(zhí)法人員腐敗、不作為、亂作為的溫床,長(zhǎng)此以往,會(huì)對(duì)政府執(zhí)法公信力造成不可逆轉(zhuǎn)的傷害[10]。
算法則憑借其自動(dòng)化、全天候運(yùn)轉(zhuǎn)的特質(zhì),能夠通盤考量全局、科學(xué)調(diào)整資源配置以減少高昂的政府治理成本。一方面,機(jī)構(gòu)和人員的投入是當(dāng)前政府治理最繁重的開支之一,而運(yùn)用算法展開治理則能夠有效減少治理人員數(shù)量和時(shí)間的投入,從而從源頭上降低治理成本。如深圳市將算法應(yīng)用于人才引進(jìn)落戶、企業(yè)投資備案等行政審批工作而推出的“秒批”服務(wù)系統(tǒng),可在無(wú)人干預(yù)下展開材料的比對(duì)、核驗(yàn),從而瞬時(shí)完成審批并自動(dòng)將結(jié)果反饋給申請(qǐng)人[11]。這一系統(tǒng)在全面提升行政審批工作高效性和精準(zhǔn)性的同時(shí),還能夠有效精簡(jiǎn)審批人員和機(jī)構(gòu)的設(shè)置。又如,英國(guó)政府將算法應(yīng)用于政府購(gòu)買家庭護(hù)理服務(wù)的管理中,從而降低了重復(fù)評(píng)估、信息收集等費(fèi)用,在減少人員投入的同時(shí)有效提升了政府購(gòu)買家庭護(hù)理服務(wù)的水平和效率[12]。另一方面,算法可以通過(guò)優(yōu)化資源配置的方式,化解“低質(zhì)低效”“供需錯(cuò)配”等政府治理困境。憑借信息收集、存儲(chǔ)以及算力優(yōu)勢(shì),算法能動(dòng)態(tài)監(jiān)測(cè)治理對(duì)象的需求,將處于閑置、分散、碎片化的公共資源進(jìn)行合理的重組和分配,以最大限度發(fā)掘相關(guān)資源的內(nèi)在潛力,從而減少治理成本投入,顯著提升治理成效。如杭州市的“城市數(shù)據(jù)大腦”系統(tǒng)能夠自動(dòng)監(jiān)測(cè)交通實(shí)時(shí)信息,從而自主展開交通違法行為查處、信號(hào)燈時(shí)長(zhǎng)調(diào)試等決策,在原有道路交通資源不變的情況下,有效緩解了城市擁堵的問(wèn)題[13]。
其三,算法決策具有針對(duì)性、精準(zhǔn)性,可以做到因人施策、因地制宜、精準(zhǔn)治理。社會(huì)轉(zhuǎn)型的加劇以及發(fā)展的高速化、動(dòng)態(tài)化對(duì)當(dāng)前政府治理提出了較高的機(jī)動(dòng)性、精準(zhǔn)性要求。囿于信息收集、處理能力,傳統(tǒng)政府治理往往只能以提出一些原則性方案的方式展開相對(duì)粗獷、簡(jiǎn)約的治理,而算法則能憑借其存儲(chǔ)和算力優(yōu)勢(shì),實(shí)現(xiàn)對(duì)數(shù)據(jù)的實(shí)時(shí)收集,并在短時(shí)間內(nèi)完成數(shù)據(jù)分析和決策生成工作,從而及時(shí)滿足社會(huì)動(dòng)態(tài)運(yùn)轉(zhuǎn)過(guò)程中的精細(xì)化、時(shí)段化、區(qū)域化、個(gè)體化等的治理需求。
算法精準(zhǔn)治理的核心是精準(zhǔn)識(shí)別和精準(zhǔn)施策。一方面,對(duì)治理對(duì)象的精準(zhǔn)識(shí)別和分類是展開精準(zhǔn)治理的前提。由于傳統(tǒng)人工識(shí)別和分類的方式受到分類標(biāo)準(zhǔn)不統(tǒng)一、分類信息完整度要求過(guò)高、分類主觀化、分類成本高昂等因素的制約,政府不得不時(shí)常在宏觀層面上展開模糊治理,最終可能進(jìn)一步加深發(fā)展不平衡、不充分的困境。如囿于貧困戶認(rèn)定標(biāo)準(zhǔn)的不一致、貧困戶信息的不完善以及人為認(rèn)定存在偏私等因素,傳統(tǒng)人工統(tǒng)計(jì)分類的貧困識(shí)別方式不但需要耗費(fèi)大量的人力和時(shí)間,還會(huì)出現(xiàn)識(shí)別不準(zhǔn)確、識(shí)別遺漏等問(wèn)題,而研究人員開發(fā)的“隨機(jī)森林算法”就能夠較好地處理具有非平衡性、不完整性、多元線性的人口數(shù)據(jù),從而較為精準(zhǔn)地識(shí)別出貧困人口。在具體的應(yīng)用中,羅麗提出的一種“隨機(jī)森林算法識(shí)別模型”能夠從繁雜的貧困數(shù)據(jù)中精準(zhǔn)識(shí)別出貧困人口,其準(zhǔn)確率高達(dá)95.02%[14]。另一方面 ,精準(zhǔn)治理還意味著需要以治理對(duì)象的需求為靶向,依照需求和反饋而精準(zhǔn)施策。由于個(gè)體、區(qū)域、行業(yè)等差異,治理對(duì)象的需求具有彌散性、差異性、多元性等特征,傳統(tǒng)政府治理往往只能參照大多數(shù)治理對(duì)象的需求展開模糊治理,而算法則能夠高效收集多元、復(fù)雜、連續(xù)的個(gè)體需求信息,并細(xì)致描繪出數(shù)據(jù)集中顆粒個(gè)體的數(shù)據(jù)紋理特征,從而通過(guò)這些紋理特征對(duì)多元個(gè)體實(shí)施個(gè)體化、細(xì)致化的單粒度治理[15]。如有學(xué)者建構(gòu)的“政府精準(zhǔn)購(gòu)買公共服務(wù)的大數(shù)據(jù)應(yīng)用模型”,就可以通過(guò)檢測(cè)數(shù)據(jù)的動(dòng)態(tài)交換以及流動(dòng)過(guò)程,精準(zhǔn)獲得公共服務(wù)對(duì)象的實(shí)時(shí)服務(wù)需求以及服務(wù)質(zhì)量反饋信息,從而幫政府完善新一輪購(gòu)買計(jì)劃[16]。
其四,算法還具有預(yù)測(cè)性,能夠?qū)o定的已知數(shù)據(jù)樣本進(jìn)行深度學(xué)習(xí)并精準(zhǔn)畫像,從而獲得樣本數(shù)據(jù)中的相關(guān)關(guān)系函數(shù),并將這一函數(shù)應(yīng)用于預(yù)測(cè)諸如某地的犯罪、社會(huì)糾紛等治理風(fēng)險(xiǎn)發(fā)生的概率;同時(shí),算法還能夠依照所預(yù)測(cè)的信息,提前做出治理決策以預(yù)防或者減少相關(guān)治理風(fēng)險(xiǎn)的發(fā)生,達(dá)到先發(fā)制人的效果。當(dāng)前,科技進(jìn)步帶來(lái)的現(xiàn)代化風(fēng)險(xiǎn)日益增多,而且這些風(fēng)險(xiǎn)開始逐漸脫離人類直接感知的能力,呈現(xiàn)出越來(lái)越不確定的趨勢(shì)。烏爾里希·貝克指出,現(xiàn)代化風(fēng)險(xiǎn)的不確定性既可能體現(xiàn)為其出現(xiàn)的地理區(qū)域的普遍而不確定,也可能表現(xiàn)為其加害路徑的飄忽不定和不可捉摸[17]。面對(duì)不確定的風(fēng)險(xiǎn),危機(jī)的預(yù)防是危機(jī)管理的關(guān)鍵,其能夠最大限度地減少甚至避免危機(jī)帶來(lái)的損害[18]?;趯?duì)全量數(shù)據(jù)收集和分析能力的優(yōu)勢(shì),算法能夠較為全面地對(duì)當(dāng)前情勢(shì)展開理性、周全的評(píng)估,并做出具有前瞻性的規(guī)避或防范治理風(fēng)險(xiǎn)的決策,從而有助于克服傳統(tǒng)政府部門應(yīng)對(duì)治理風(fēng)險(xiǎn)時(shí)被動(dòng)、滯后且低效的困境。
如美國(guó)PredPol公司開發(fā)的犯罪預(yù)測(cè)軟件,可以根據(jù)某一地區(qū)歷史中的犯罪數(shù)據(jù)記錄,預(yù)測(cè)出將來(lái)某一犯罪可能發(fā)生的時(shí)間、地點(diǎn),從而幫助警局提前在這一地區(qū)部署更多的警力以預(yù)防犯罪。這一軟件在亞特蘭大、洛杉磯、雷丁等地應(yīng)用后,當(dāng)?shù)氐姆缸锫识汲霈F(xiàn)了明顯下降的趨勢(shì)[19]。又如輿情的預(yù)測(cè)與治理一直是政府治理工作的難點(diǎn)。盡早預(yù)測(cè)輿情走向,并提前采取應(yīng)對(duì)措施是治理輿情的重要方式。對(duì)此,秦濤等就提出了一種“網(wǎng)絡(luò)輿情的無(wú)監(jiān)督演化趨勢(shì)評(píng)估方法”,經(jīng)驗(yàn)證和分析,其能夠在缺乏標(biāo)注數(shù)據(jù)集的情形下,自動(dòng)實(shí)現(xiàn)對(duì)輿情演化態(tài)勢(shì)的預(yù)測(cè),從而為有效化解輿情風(fēng)險(xiǎn)提供決策支撐[20]。
隨著算法參與政府治理的廣度和深度不斷提升,一系列實(shí)踐經(jīng)驗(yàn)表明,算法并沒(méi)有理論預(yù)設(shè)的那么客觀和公正,其還面臨著諸多異化的風(fēng)險(xiǎn),因而我們并不能對(duì)算法無(wú)條件信任,尤其是當(dāng)前尚未形成技術(shù)鎖定效應(yīng)之前,我們更有必要全面發(fā)掘算法參與政府治理的內(nèi)在限度,從而幫助我們有針對(duì)性地提出風(fēng)險(xiǎn)預(yù)防方案,最大限度地發(fā)揮算法決策的優(yōu)勢(shì)。
其一,算法的運(yùn)轉(zhuǎn)需要大數(shù)據(jù)支撐,而政府獲取的大數(shù)據(jù)的完整性和優(yōu)質(zhì)性往往難以得到有效保障,這就使得算法決策的科學(xué)性、周全性和準(zhǔn)確性面臨挑戰(zhàn)。算法決策的優(yōu)勢(shì)之一就在于其是通過(guò)對(duì)全量數(shù)據(jù)的挖掘和學(xué)習(xí)而建構(gòu)的治理模型,因而數(shù)據(jù)的數(shù)量和質(zhì)量關(guān)系到算法治理優(yōu)勢(shì)能否實(shí)現(xiàn)。然而對(duì)應(yīng)用于政府治理的算法而言,可供其學(xué)習(xí)的數(shù)據(jù)集的全面性和優(yōu)質(zhì)性面臨一定程度的考驗(yàn)。一方面,受制于數(shù)據(jù)獲取方式以及條塊管理體制,政府往往難以獲得全量數(shù)據(jù)。對(duì)于數(shù)據(jù)獲取難易度而言,民眾的日常生活、行為習(xí)慣等是大數(shù)據(jù)的主要來(lái)源,而現(xiàn)實(shí)中,這些數(shù)據(jù)大多掌控在少數(shù)互聯(lián)網(wǎng)企業(yè)手中,由于數(shù)據(jù)資源的稀缺性,政府很難輕易從互聯(lián)網(wǎng)企業(yè)手中獲得這些數(shù)據(jù)。對(duì)于條塊管理體制而言,不同部門、地域之間的數(shù)據(jù)收集系統(tǒng)的研發(fā)、數(shù)據(jù)收集的標(biāo)準(zhǔn)、數(shù)據(jù)統(tǒng)計(jì)的方式等都存在較大差異,因而不同政府部門之間的數(shù)據(jù)統(tǒng)計(jì)和對(duì)接存在一定難度。此外,還存在一些政府部門出于自身利益考量而不愿公開數(shù)據(jù)、一些涉密數(shù)據(jù)無(wú)法公開以及一些政府部門怠于公開數(shù)據(jù)的情形[21]。這些因素導(dǎo)致政府難以獲得完整、全面的數(shù)據(jù)用于建構(gòu)智能社會(huì)治理系統(tǒng),進(jìn)而算法決策的正當(dāng)性和合理性會(huì)遭受質(zhì)疑。另一方面,數(shù)據(jù)質(zhì)量問(wèn)題也困擾著算法的精準(zhǔn)性和高效性。除去數(shù)據(jù)污染、數(shù)據(jù)失真、數(shù)據(jù)冗雜、數(shù)據(jù)價(jià)值密度不足等一些大數(shù)據(jù)共性困境之外,大數(shù)據(jù)樣本的不平衡問(wèn)題也是困擾算法決策科學(xué)性的重要方面。由于數(shù)量上的差異,小樣本數(shù)據(jù)往往會(huì)被當(dāng)做“噪聲”淹沒(méi)于大樣本數(shù)據(jù)之中,這就可能引發(fā)算法忽視少數(shù)族群利益,做出偏誤或不公正決策。
其二,可信賴的算法決策應(yīng)當(dāng)是透明的、可被理解的,因而算法黑箱問(wèn)題是困擾算法嵌入政府治理可信賴性的又一重要因素。詹娜·布瑞爾指出,算法黑箱的形成原因主要可以歸為以下三類:一是出于保護(hù)國(guó)家或商業(yè)秘密的目的而引發(fā)的“刻意的不透明”;二是因技術(shù)壁壘而出現(xiàn)的“專業(yè)技能上的不透明”;三是因算法本身的復(fù)雜性、自主學(xué)習(xí)性而造成的“運(yùn)行方式的不透明”[22]。首先,由于算法本身往往蘊(yùn)含極大的商業(yè)價(jià)值或關(guān)系一國(guó)的重大利益,因而為了防范數(shù)據(jù)和算法被惡意盜取、復(fù)制和篡改,無(wú)論是商業(yè)機(jī)構(gòu)還是國(guó)家機(jī)關(guān)往往都傾向于對(duì)應(yīng)用于政府治理的算法尤其是關(guān)鍵、核心算法予以保密。如2018年美國(guó)紐約就以出臺(tái)“自動(dòng)化決策特別工作組法”的方式,賦權(quán)監(jiān)管部門以推動(dòng)算法的透明化。但在商業(yè)利益的驅(qū)動(dòng)下,諸多科技公司都表達(dá)了對(duì)這一方案的強(qiáng)烈不滿,并迫使相關(guān)機(jī)構(gòu)取消了法案中有關(guān)披露算法的全部?jī)?nèi)容[23]。其次,“專業(yè)技能上的不透明”指的是由于算法技術(shù)的復(fù)雜性和專業(yè)性,非相關(guān)專業(yè)人員對(duì)算法有天然的認(rèn)知鴻溝,即便相關(guān)代碼和運(yùn)行邏輯被公開,普通人也很難理解其決策方式。最后,“運(yùn)行方式的不透明”則是指由于擁有自主學(xué)習(xí)、自主革新、自主適應(yīng)的能力,算法決策往往是一個(gè)動(dòng)態(tài)變化的過(guò)程,這就使得獨(dú)立運(yùn)行的算法甚至早已超出算法設(shè)計(jì)者的認(rèn)知能力,即便是專業(yè)人員也很難對(duì)算法的運(yùn)行邏輯做出清晰的解釋。算法的這一特性使得“開發(fā)這些應(yīng)用的工程師即使對(duì)于那些表面上看起來(lái)相對(duì)簡(jiǎn)單(諸如推薦廣告或歌曲)的應(yīng)用程序,也無(wú)法完全解釋運(yùn)行這些服務(wù)的計(jì)算機(jī)編程行為”[24]。與之相比,用于政府治理的算法的決策環(huán)境和決策方式要更加復(fù)雜,這無(wú)疑會(huì)進(jìn)一步加劇理解算法運(yùn)行方式的難度。
其一,用于政府治理的算法看似中立客觀,但“算法技術(shù)并不是憑空而來(lái)的,而是建立在現(xiàn)有分類手段、思想和類別之上的”[25],因而人類主觀價(jià)值偏見(jiàn)難免會(huì)映射到算法決策之中,造成算法決策存在偏見(jiàn)、歧視的風(fēng)險(xiǎn)。例如,有研究表明,美國(guó)執(zhí)法部門所運(yùn)用的面部識(shí)別工具就存在歧視非洲裔人種的情形,預(yù)測(cè)犯罪的警務(wù)軟件則對(duì)少數(shù)族裔存在歧視[26]。一般而言,以下三點(diǎn)是造成用于政府治理的算法歧視的主要原因:首先,作為人類社會(huì)鏡像的大數(shù)據(jù)往往會(huì)內(nèi)含人類自身的偏見(jiàn),因而依靠大數(shù)據(jù)“喂養(yǎng)”的人工智能決策系統(tǒng)便難免會(huì)從中“習(xí)得”人類原有的價(jià)值偏見(jiàn)。數(shù)據(jù)是現(xiàn)實(shí)世界的映射,現(xiàn)實(shí)世界中的歧視問(wèn)題往往會(huì)根植于數(shù)據(jù)的基因之中。在“偏見(jiàn)進(jìn),則偏見(jiàn)出(Bias In,Bias Out)”[27]定律的影響下,人工智能算法做出治理決策時(shí)便會(huì)如實(shí)歸納和遵循這些數(shù)據(jù)集中的偏見(jiàn)。其次,當(dāng)前主流的機(jī)器學(xué)習(xí)模型仍然是監(jiān)督式機(jī)器學(xué)習(xí),其不但需要專家通過(guò)打標(biāo)簽的方式選擇數(shù)據(jù)特征,還需要算法設(shè)計(jì)人員依照委托人員的構(gòu)想設(shè)計(jì)初始的算法決策模型。而無(wú)論是數(shù)據(jù)標(biāo)注人員、算法設(shè)計(jì)人員還是委托設(shè)計(jì)人員都有可能為了維護(hù)自身利益或基于其內(nèi)在偏見(jiàn)而將歧視因子植入用于政府治理的算法模型之中。最后,為了保障治理成效,降低治理風(fēng)險(xiǎn),算法會(huì)針對(duì)個(gè)體的數(shù)據(jù)身份特征展開精準(zhǔn)治理。當(dāng)決策的代價(jià)和回報(bào)被精準(zhǔn)計(jì)算之后,社會(huì)弱勢(shì)群體獲得諸如貸款額度、政策偏向、發(fā)展機(jī)遇的概率也將隨之降低。個(gè)體不公正的“結(jié)構(gòu)性鎖定效應(yīng)”可能會(huì)進(jìn)一步加劇貧富分化的馬太效應(yīng),而被囚困于“算法監(jiān)獄”之中的數(shù)字弱勢(shì)群體將陷入被反復(fù)歧視的系統(tǒng)性困境之中。
其二,算法嵌入政府治理還可能造成民眾被算法馴服,無(wú)法理性地監(jiān)督治理方案、反思治理成效、參與制定治理方略。民眾既是政府治理的對(duì)象,也是政府治理的重要參與者和監(jiān)督者,而在算法參與治理決策的模式下,則可能出現(xiàn)民眾被算法引導(dǎo)和操控,進(jìn)而參與社會(huì)治理的空間和判斷力被逐步侵蝕的風(fēng)險(xiǎn)。嵌入日常政府治理的算法一般會(huì)通過(guò)以下步驟塑造或整合民眾的判斷或選擇:首先,通過(guò)跟蹤、收集線上線下數(shù)據(jù)痕跡,刻畫不同用戶的主觀偏好并進(jìn)行群組分類;其次,運(yùn)用個(gè)性化推薦算法,針對(duì)不同類型用戶的偏好展開信息推送,從而營(yíng)造“信息繭房”,進(jìn)一步固化群體的先入之見(jiàn);最后,偏見(jiàn)的固化會(huì)使得被情緒所裹挾的群體日益封閉,在群體極化效應(yīng)下,民眾可能不再關(guān)注決策內(nèi)容的正確與否,而更注重自身感受的表達(dá)和自我價(jià)值的實(shí)現(xiàn)。此時(shí),操控者通過(guò)推送經(jīng)過(guò)其精心選擇的、負(fù)載其意圖的內(nèi)容,便可以輕易實(shí)現(xiàn)對(duì)偏向性群體的操控目的[28]。如在2016年美國(guó)大選中,特朗普競(jìng)選團(tuán)隊(duì)就通過(guò)定向推送“暗貼”——通過(guò)臉書向特定的非裔美國(guó)人推送“希拉里稱黑人為掠食者”的視頻的方式,引發(fā)特定群體對(duì)希拉里的排斥情緒,從而在一定程度上助力特朗普成功獲選[29]。
其三,政府在治理的進(jìn)程中難免需要面對(duì)價(jià)值選擇問(wèn)題,而人工智能算法對(duì)于治理進(jìn)程中的價(jià)值選擇難題往往無(wú)能為力。首先,價(jià)值爭(zhēng)論存在于政府治理的諸多方面,且始終沒(méi)有一個(gè)統(tǒng)一的價(jià)值排序 ,這就需要決策者依照治理決策做出時(shí)的社會(huì)環(huán)境而展開具體的價(jià)值判斷。由于價(jià)值判斷需要參照的社會(huì)環(huán)境(諸如糾紛當(dāng)事人的心理活動(dòng)、民眾的道德文化觀念等)難以采取數(shù)據(jù)化形式充分表征,交由算法展開價(jià)值衡量就可能引發(fā)決策片面、偏激等風(fēng)險(xiǎn)。其次,無(wú)論是預(yù)設(shè)價(jià)值規(guī)則的理論進(jìn)路還是復(fù)制、學(xué)習(xí)人類價(jià)值決斷的實(shí)踐進(jìn)路,當(dāng)前主流算法都遵循了道德機(jī)器設(shè)計(jì)的計(jì)算主義這一基本方法[30]。這也就意味著人工智能的價(jià)值判斷是以計(jì)算方式展開的,其通過(guò)量化不同價(jià)值比重的方式模擬人類的倫理抉擇[31]。治理領(lǐng)域價(jià)值沖突的道德計(jì)算主義往往從增進(jìn)整體福利的普惠角度,選擇投入更小、產(chǎn)出更多的治理方式。但在政府治理領(lǐng)域,高效性雖是重要的價(jià)值,卻不是唯一甚至不是最重要的價(jià)值,當(dāng)出現(xiàn)價(jià)值沖突時(shí),高效有時(shí)需要讓位于公平、正義等價(jià)值理念。最后,價(jià)值自決和價(jià)值選擇是人類個(gè)體保持獨(dú)立性、體現(xiàn)人類存在意義的重要方面,算法替代個(gè)體或群體做出價(jià)值選擇,幫助其選擇算法自認(rèn)為更好的生活方式,無(wú)疑會(huì)危及個(gè)體的獨(dú)立地位,造成人類主體性的喪失。
其一,算法自動(dòng)化以及不透明決策的特性會(huì)造成相對(duì)人不但無(wú)法參與決策過(guò)程,而且也無(wú)法獲得決策結(jié)論的合理解釋,因而政府運(yùn)用算法展開治理面臨著程序正義的拷問(wèn)。雖然算法決策具有中立性優(yōu)勢(shì),但有學(xué)者通過(guò)對(duì)比研究發(fā)現(xiàn),在判定決策是否符合程序正義方面,決策過(guò)程對(duì)于當(dāng)事人的開放程度以及決策理由的充分程度所占的比重要大于決策者的中立性[32]。在政府治理過(guò)程中,被治理對(duì)象能否深度參與決策過(guò)程,能否獲得便捷的溝通機(jī)會(huì),在遇到不合理對(duì)待時(shí)能否及時(shí)、有效進(jìn)行申訴以及能否獲得合理的決策解釋和救濟(jì)是程序正義應(yīng)當(dāng)重點(diǎn)關(guān)注的。而技術(shù)鴻溝、算法黑箱以及算法自動(dòng)化決策的特質(zhì),都決定了我們無(wú)法通過(guò)行使陳述、申辯、聽證等程序性權(quán)利深度參與決策過(guò)程,獲得決策理由,最終民眾的基本程序性權(quán)利可能會(huì)淪為無(wú)用的擺設(shè)。對(duì)此,伊恩·克爾、杰西卡·厄爾充滿擔(dān)憂地指出:“具有預(yù)測(cè)性的算法會(huì)在我們不知情的情況下做出對(duì)我們產(chǎn)生重要影響的決策,這是和無(wú)罪推定以及正當(dāng)程序價(jià)值觀對(duì)立的。算法先發(fā)制人的策略,既損害了我們獲得聽證的權(quán)利和質(zhì)疑那些試圖對(duì)你不利的人的能力,也削減了我們得到律師的幫助、獲得公開的決策理由以及在某些情況下對(duì)決策提出上訴或?qū)で笏痉▽彶榈臋?quán)利”[33]。
其二,算法在政府治理領(lǐng)域的大規(guī)模應(yīng)用會(huì)帶來(lái)公權(quán)力被商業(yè)技術(shù)公司俘獲的風(fēng)險(xiǎn)。由于算法技術(shù)壁壘的存在,缺乏技術(shù)手段和人才的政府部門,不得不將許多關(guān)涉公共利益決策的算法外包給相關(guān)技術(shù)公司開發(fā)。這樣,技術(shù)公司不但實(shí)質(zhì)上獲得了政府掌握的相關(guān)基礎(chǔ)數(shù)據(jù),而且還掌控了算法的設(shè)計(jì)、改良和操作權(quán)。如在對(duì)倫敦、紐約等城市的智能管理建設(shè)經(jīng)驗(yàn)分析之后,羅伯·基欽指出:“一些體量巨大的軟件服務(wù)和硬件公司正在積極謀求為新興以及老牌城市提供數(shù)字技術(shù)和數(shù)據(jù)方案,其目的在于通過(guò)提升城市對(duì)特定技術(shù)平臺(tái)和供應(yīng)商的依賴性,從而形成壟斷地位。最終政府將逐漸被邊緣化,智能城市治理被企業(yè)利益俘獲和公然塑造,私人利益將成為城市管理的實(shí)質(zhì)目的。”[34]當(dāng)公權(quán)力被商業(yè)利益俘獲后,相關(guān)算法決策的出發(fā)點(diǎn)將不再是以公共利益為主導(dǎo),相應(yīng)的算法決策結(jié)論也就失去了正當(dāng)性和可靠性,進(jìn)而可能引發(fā)公眾對(duì)政府治理的信任危機(jī)。
其三,算法決策繞開了原有的法律規(guī)則體系,造成技術(shù)賦權(quán)與約束的非對(duì)稱性,隨之而來(lái)的行政權(quán)力擴(kuò)張會(huì)引發(fā)公民個(gè)體權(quán)利空間被壓縮的風(fēng)險(xiǎn)。算法通過(guò)對(duì)海量數(shù)據(jù)的深度學(xué)習(xí),建立數(shù)據(jù)模型,并不斷自我進(jìn)化,以實(shí)現(xiàn)自動(dòng)決策。在這一過(guò)程中,數(shù)據(jù)和算法邏輯取代了原有的法律規(guī)則,進(jìn)而依法決策過(guò)程被算法自動(dòng)決策過(guò)程取代。當(dāng)顯性的法律規(guī)制被架空,原有權(quán)力制約機(jī)制也將面臨空轉(zhuǎn)的局面。在權(quán)力擴(kuò)張以及簡(jiǎn)約治理法則的驅(qū)動(dòng)下,脫離了法律規(guī)約的治理主體往往會(huì)憑借數(shù)據(jù)壟斷、技術(shù)霸權(quán)優(yōu)勢(shì),將原有的限制權(quán)力、保障權(quán)利的格局替換為“權(quán)力–支配”格局。因而,算法嵌入政府治理在為權(quán)力擴(kuò)張和治理簡(jiǎn)化帶來(lái)諸多誘惑的同時(shí),也無(wú)形中減損著治理對(duì)象的自由。公民的個(gè)人權(quán)利諸如個(gè)人信息權(quán)、平等權(quán)以及教育、就業(yè)、獲得社會(huì)保障等權(quán)利均有可能遭到“新型機(jī)器官僚主義”的長(zhǎng)期、連續(xù)、普遍擠壓和損害。“數(shù)字技術(shù)在推動(dòng)社會(huì)進(jìn)步的同時(shí),也讓我們付出了犧牲自由、平等、隱私等權(quán)利空間的代價(jià)。隨著信息的成倍增長(zhǎng)和廣泛共享,有關(guān)個(gè)人健康、位置和在線活動(dòng)的信息都會(huì)被收集和分析,這不得不引起我們對(duì)隱私、歧視和失控的擔(dān)憂”[35]。如蘇州借鑒健康碼治理經(jīng)驗(yàn)推出的極具爭(zhēng)議性的“文明碼”,就存在政府部門通過(guò)數(shù)字治理技術(shù)過(guò)度擴(kuò)張權(quán)力的延伸界限,收集個(gè)人信息或隱私,不合理介入個(gè)人私域的風(fēng)險(xiǎn)[36]。
其四,政府運(yùn)用算法展開治理還面臨諸多責(zé)任分配上的難題。由于相關(guān)法律規(guī)定的概括性、缺乏可操作性以及不一致性,我國(guó)行政追責(zé)制度一直面臨著責(zé)任認(rèn)定標(biāo)準(zhǔn)模糊、責(zé)任形式繁雜、擔(dān)責(zé)主體難以確定等困境[37]。在傳統(tǒng)行政追責(zé)制模糊不清的背景下,如何建立與算法決策這一人機(jī)混合治理模式相配套的追責(zé)制度顯然更加棘手。例如,在追責(zé)啟動(dòng)的標(biāo)準(zhǔn)問(wèn)題上,由于算法決策的隱蔽性以及相關(guān)法律法規(guī)的缺失,傳統(tǒng)行政決策違法或者不當(dāng)標(biāo)準(zhǔn)在算法決策領(lǐng)域?qū)㈦y以適用;對(duì)于擔(dān)責(zé)主體的認(rèn)定上,“人工智能是否能夠作為獨(dú)立的法律主體”就存在很大爭(zhēng)議,因而傳統(tǒng)的“誰(shuí)決策,誰(shuí)負(fù)責(zé)”的基本追責(zé)原則可能失效。同時(shí),如若需要人工智能擔(dān)責(zé),其應(yīng)當(dāng)以何種方式、在什么范圍內(nèi)承擔(dān)相應(yīng)的責(zé)任?而若人工智能無(wú)法擔(dān)責(zé),那么是由人工智能算法的設(shè)計(jì)者擔(dān)責(zé)還是由政府有關(guān)部門抑或商業(yè)保險(xiǎn)機(jī)構(gòu)承擔(dān)相應(yīng)的責(zé)任?諸如此類的難題都是亟須我們進(jìn)一步探索和明確的難題。
學(xué)者對(duì)于規(guī)制算法參與政府治理風(fēng)險(xiǎn)的路徑已經(jīng)開展了諸多有益探索。一些學(xué)者從宏觀路徑設(shè)計(jì)的角度提出了應(yīng)對(duì)算法決策風(fēng)險(xiǎn)的基本思路,如張欣從時(shí)間維度提出我們應(yīng)當(dāng)制定算法規(guī)制的長(zhǎng)期、中期和短期方案,以穩(wěn)步推進(jìn)的方式逐步實(shí)現(xiàn)智慧化治理目標(biāo)[38]。丁曉東提出以場(chǎng)景化的方式對(duì)算法展開規(guī)制的路徑,認(rèn)為應(yīng)當(dāng)依照不同的場(chǎng)景類型制定不同的規(guī)制方案,從而推動(dòng)算法可信賴目標(biāo)的實(shí)現(xiàn)[39]。還有學(xué)者則從具體制度建構(gòu)的角度出發(fā),提出針對(duì)算法嵌入政府治理某一方面風(fēng)險(xiǎn)的規(guī)制方案。如張凌寒從行政正當(dāng)程序的角度出發(fā),認(rèn)為堅(jiān)持和發(fā)展正當(dāng)程序制度是解決運(yùn)用算法展開治理中信息不對(duì)稱困境的主要方式[40]。孫慶春、賈煥銀則更強(qiáng)調(diào)算法的透明性和可問(wèn)責(zé)性,認(rèn)為建構(gòu)以算法公開、算法解釋以及算法責(zé)任為框架的算法治理風(fēng)險(xiǎn)防范體系是治理算法的核心和關(guān)鍵[41]。通過(guò)對(duì)現(xiàn)有研究的反思和借鑒,本文認(rèn)為,對(duì)于算法嵌入政府治理風(fēng)險(xiǎn)的法律規(guī)制方案,應(yīng)當(dāng)從宏觀的原則指引和微觀的制度建構(gòu)兩個(gè)方面著手,建立完善的法律規(guī)制體系,這樣既能保障相關(guān)制度建構(gòu)的包容性、全面性,又能提升具體制度建構(gòu)的針對(duì)性和可行性。
其一,政府運(yùn)用算法展開治理風(fēng)險(xiǎn)的評(píng)價(jià)和規(guī)制應(yīng)當(dāng)遵循浮動(dòng)的比例原則。比例原則是行政法的基本原則之一,指的是政府治理的手段和目的之間應(yīng)當(dāng)保持適當(dāng)?shù)谋壤?,“不可用大炮打蚊子”便是?duì)這一原則的形象描述。由于算法技術(shù)爆發(fā)期所帶來(lái)的成本與收益不斷發(fā)展變化以及算法參與政府治理領(lǐng)域的不斷擴(kuò)展,單一的或固定的比例已經(jīng)無(wú)法滿足應(yīng)對(duì)算法決策風(fēng)險(xiǎn)的需求。對(duì)此,我們可以借鑒巴薩伊針對(duì)確定算法責(zé)任而提出的“浮動(dòng)的比例原則”[42],并將其擴(kuò)展應(yīng)用于對(duì)算法參與政府治理的法律規(guī)制之中,從而根據(jù)算法決策的自動(dòng)化程度、參與治理領(lǐng)域的不同特點(diǎn)以及算法決策技術(shù)發(fā)展的不同階段等設(shè)定不同強(qiáng)度的、可以適時(shí)變動(dòng)和調(diào)整的彈性規(guī)制方案。例如,針對(duì)算法責(zé)任的分配問(wèn)題,可以依照決策自動(dòng)化程度而適用不同的責(zé)任分配方案。又如對(duì)于算法可以替代政府展開治理領(lǐng)域的劃定,可以依照行政自由裁量權(quán)的高低展開劃分。隨著技術(shù)的發(fā)展和完善,算法參與的治理領(lǐng)域以及參與程度也是可以不斷浮動(dòng)變化的??傊?,這一原則的適用既強(qiáng)調(diào)了對(duì)算法決策風(fēng)險(xiǎn)的治理需要根據(jù)具體情況提出具有針對(duì)性、可行性的具體方案,又能為技術(shù)發(fā)展提供充足的空間和積極的引導(dǎo),對(duì)于完善算法嵌入政府治理的法律規(guī)制方案具有積極意義。
其二,算法嵌入政府治理的規(guī)制應(yīng)當(dāng)采取主體自覺(jué)和法律制度建構(gòu)相結(jié)合的原則。主體自覺(jué)是我們理性看待技術(shù)發(fā)展,保持人對(duì)技術(shù)的控制而不是被技術(shù)所馴服的前提和基礎(chǔ)。美國(guó)《為人工智能的未來(lái)做好準(zhǔn)備》第1條就指出:我們應(yīng)當(dāng)鼓勵(lì)公共機(jī)構(gòu)以及私人強(qiáng)化自我審視,從而明確自己是否有能力以及應(yīng)當(dāng)通過(guò)何種方式,有擔(dān)當(dāng)?shù)乩煤桶l(fā)展人工智能以及機(jī)器學(xué)習(xí)[43]。因此,對(duì)于算法的使用者而言,政府部門應(yīng)當(dāng)對(duì)算法參與治理的進(jìn)程展開全方位監(jiān)管,努力防范權(quán)力轉(zhuǎn)移和異化。對(duì)于算法的開發(fā)者而言,其應(yīng)當(dāng)克服私利和偏見(jiàn)對(duì)算法設(shè)計(jì)過(guò)程的影響,還應(yīng)當(dāng)努力完善算法決策邏輯,保障算法決策的公平性和公正性。對(duì)于民眾而言,其不但需要主動(dòng)了解算法決策的機(jī)理與風(fēng)險(xiǎn),還應(yīng)當(dāng)在遭遇不公算法決策時(shí),勇于并善于拿起法律的武器維護(hù)自身的公平待遇和合法權(quán)益。在提升主體自覺(jué)性的同時(shí) ,對(duì)相關(guān)法律制度建構(gòu)也是必不可少的。在數(shù)字技術(shù)飛速發(fā)展、政府治理權(quán)責(zé)格局被重塑的背景下,現(xiàn)有法律法規(guī)的覆蓋性、前瞻性、針對(duì)性不足,立法層級(jí)不高等造成算法參與治理的限度、程序、救濟(jì)方式等模糊不清的問(wèn)題日益凸顯。實(shí)踐中,無(wú)論是對(duì)民眾數(shù)據(jù)權(quán)、隱私權(quán)等權(quán)益的保護(hù),算法供應(yīng)商權(quán)力的限制,政府權(quán)力轉(zhuǎn)移風(fēng)險(xiǎn)的防范,還是對(duì)算法黑箱、算法歧視等算法固有風(fēng)險(xiǎn)的規(guī)制,都亟待相關(guān)立法的進(jìn)一步完善和明確。當(dāng)然,完善相關(guān)法律制度的目的并不是要限制用于政府治理的算法技術(shù)的發(fā)展,其主要目的在于規(guī)范算法參與政府治理的邊界范圍,明確算法參與政府治理的發(fā)展目標(biāo),從而避免因技術(shù)野蠻生長(zhǎng)而造成算法決策應(yīng)用誤入歧途。
其三,對(duì)于算法嵌入政府治理風(fēng)險(xiǎn)的規(guī)制應(yīng)當(dāng)遵循內(nèi)部過(guò)程控制和外部結(jié)果控制相結(jié)合的原則。信息技術(shù)的發(fā)展使得虛擬空間逐步成為與自然物理空間并行的空間,傳統(tǒng)的對(duì)物理空間的規(guī)制方案往往無(wú)法內(nèi)嵌于對(duì)虛擬空間的治理之中,因而我們應(yīng)當(dāng)轉(zhuǎn)變?cè)幸?guī)制思路,將視角從單一的物理空間延伸至物理和虛擬的雙重空間,將規(guī)制路徑從單一的對(duì)算法的外部結(jié)果控制擴(kuò)展為對(duì)算法的內(nèi)部運(yùn)行過(guò)程控制和外部結(jié)果控制相結(jié)合的雙重路徑?!爱?dāng)代對(duì)于技術(shù)的控制,更多的需要以代碼而不是法律的方式展開,或者可以說(shuō),法律本身也將更多的以代碼的形式表達(dá)”[44]。這就要求我們充分重視通過(guò)代碼而不單單是法律規(guī)則的方式對(duì)算法參與治理的風(fēng)險(xiǎn)展開規(guī)制。將法律規(guī)則轉(zhuǎn)譯為代碼,以代碼規(guī)制代碼以及轉(zhuǎn)變?cè)兴季S方式,樹立代碼即法律的觀念,能夠幫助我們建構(gòu)適應(yīng)雙重空間、人機(jī)協(xié)作的信息社會(huì),以內(nèi)嵌和過(guò)程控制的方式化解算法參與政府治理的決策風(fēng)險(xiǎn),推動(dòng)政府治理健康發(fā)展[45]。
在確立算法決策風(fēng)險(xiǎn)法律規(guī)制原則之后,我們應(yīng)當(dāng)以這些原則為指引,針對(duì)算法嵌入政府治理所面臨的技術(shù)、倫理、法治風(fēng)險(xiǎn)提出具有針對(duì)性的法律規(guī)制方案,從而為最大限度發(fā)揮算法決策優(yōu)勢(shì)、提升算法決策的可信賴性做出努力。
1.應(yīng)當(dāng)建立算法決策應(yīng)用領(lǐng)域的清單制度
算法決策并不是適用于政府治理所有領(lǐng)域的,在當(dāng)前算法應(yīng)用的初級(jí)探索階段,劃定算法決策的適用領(lǐng)域是我們應(yīng)用和推動(dòng)算法參與政府治理決策的核心和關(guān)鍵。算法決策的自動(dòng)化程度以及政府在某一治理領(lǐng)域內(nèi)自由裁量的限度是分別根據(jù)算法本身特性和政府治理領(lǐng)域的特征而劃定算法治理適用領(lǐng)域的兩個(gè)重要標(biāo)準(zhǔn)。一方面,機(jī)器學(xué)習(xí)算法存在無(wú)監(jiān)督學(xué)習(xí)以及有監(jiān)督學(xué)習(xí)兩種模式。無(wú)監(jiān)督學(xué)習(xí)算法的設(shè)計(jì)和運(yùn)營(yíng)者是無(wú)法預(yù)設(shè)和控制算法的學(xué)習(xí)方向以及決策結(jié)果的,而脫離了人為干預(yù),人類便無(wú)法保障算法的決策是以契合法律法規(guī)以及倫理規(guī)范的方式做出的[46]。有鑒于此,歐盟《一般數(shù)據(jù)保護(hù)條例》第22條規(guī)定,如果某一決策對(duì)個(gè)人產(chǎn)生法律效力或與之類似的重大影響時(shí),數(shù)據(jù)主體擁有免于受到完全自動(dòng)化決策約束的權(quán)利。因而對(duì)于政府治理而言,算法決策的自動(dòng)化程度越高,就意味著其參與政府治理的合規(guī)性和合倫理性越弱。另一方面,在政府治理裁量權(quán)限的維度上,對(duì)自由裁量權(quán)的限制越大,便意味著算法參與決策的程度就應(yīng)當(dāng)越低。這是因?yàn)樵趯?shí)踐中,如若裁量可能會(huì)造成更嚴(yán)重的后果,那么相應(yīng)自由裁量的權(quán)限就會(huì)被控制得更嚴(yán)格,尤其在國(guó)家安全、限制公民權(quán)利、刑事執(zhí)法等涉及國(guó)計(jì)民生的重要領(lǐng)域的行政決策問(wèn)題上,政府的行為往往會(huì)受到法律規(guī)則、法定程序和法治理念的嚴(yán)格控制,目的是加強(qiáng)決策的可預(yù)測(cè)性和對(duì)任意行使權(quán)力的限制,盡量降低裁量出錯(cuò)的概率。此時(shí),由算法展開決策所帶來(lái)的附加值,諸如效率的提升、控制個(gè)人因素對(duì)結(jié)論的影響等,便十分有限;而算法本身缺乏透明性,溝通–說(shuō)理能力不足,以相關(guān)關(guān)系替代因果關(guān)系可能導(dǎo)致錯(cuò)誤的任意性風(fēng)險(xiǎn)等方面的缺陷則可能被進(jìn)一步放大。因此,當(dāng)政府在決策中享有廣泛的自由裁量權(quán)時(shí),他們應(yīng)該利用機(jī)器學(xué)習(xí)的好處;而當(dāng)政府自由裁量權(quán)受到高度限制時(shí),他們應(yīng)該避免使用機(jī)器決策工具[47]。
但是,完全的自動(dòng)化決策以及算法全面涉足政府治理領(lǐng)域是當(dāng)前人工智能技術(shù)發(fā)展的大勢(shì)所趨,無(wú)論是限制自動(dòng)化決策參與政府治理,還是嚴(yán)控低自由裁量領(lǐng)域運(yùn)用算法決策,都可能和技術(shù)發(fā)展趨勢(shì)相抵觸,因而我們還需要建立相應(yīng)的豁免機(jī)制,以契合算法決策的治理應(yīng)用實(shí)踐。對(duì)此,我們有必要探索建立以自動(dòng)化決策維度和裁量權(quán)限維度為基礎(chǔ),以豁免機(jī)制為補(bǔ)充的算法決策應(yīng)用領(lǐng)域清單制度。這一清單既要包含可以應(yīng)用算法決策的正面領(lǐng)域清單,也要包含禁止或限制算法決策應(yīng)用的負(fù)面領(lǐng)域清單。具體清單的制定可以考慮采取向社會(huì)公開征集意見(jiàn)、舉辦聽證會(huì)、專家論證會(huì)等方式,并建立適當(dāng)?shù)那鍐巫儎?dòng)制度,從而有效保障清單的合理性和可行性。實(shí)踐中,中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院發(fā)布的《人工智能深度學(xué)習(xí)算法評(píng)估規(guī)范》,以實(shí)際應(yīng)用場(chǎng)景為基礎(chǔ),建立算法可靠性評(píng)估指標(biāo)體系,其對(duì)建構(gòu)算法應(yīng)用領(lǐng)域的清單具有積極的指導(dǎo)意義。今后我們應(yīng)當(dāng)在此基礎(chǔ)上進(jìn)一步精細(xì)化算法決策應(yīng)用領(lǐng)域的評(píng)估體系和應(yīng)用清單,從而為用于政府治理的算法發(fā)展劃定適當(dāng)?shù)慕缦?,指明努力的方向?/p>
2.完善算法解釋制度,提升算法的可解釋性
算法決策的透明化是破解算法黑箱、防范算法歧視以及算法被商業(yè)公司俘獲等風(fēng)險(xiǎn),保障算法決策公正性的重要方式。由于算法代碼的專業(yè)性、與商業(yè)秘密的強(qiáng)相關(guān)性以及算法的安全性需求,通過(guò)開放源代碼的方式并不能解決算法透明性不足的困境。實(shí)際上,公眾所關(guān)心的也不是算法代碼是否公開的問(wèn)題,而是用于政府治理的算法決策目標(biāo)以及實(shí)現(xiàn)這些目標(biāo)的建構(gòu)邏輯能否被公眾理解和接受的問(wèn)題?!肮矊?shí)體所應(yīng)著重關(guān)注的是用于社會(huì)治理的算法的設(shè)計(jì)、采購(gòu)和實(shí)施流程是否以深思熟慮和透明的方式進(jìn)行。公共實(shí)體在采購(gòu)算法的合同中并不一定需要供應(yīng)商披露精確的算法代碼,而是應(yīng)當(dāng)要求供應(yīng)商交付算法模型的生成記錄和運(yùn)行邏輯,從而用來(lái)解釋關(guān)鍵的政策和幫助展開驗(yàn)證工作?!盵48]因此,算法解釋制度的建構(gòu)才是推動(dòng)算法透明目標(biāo)實(shí)現(xiàn)的可行路徑。
鑒于用于政府治理的算法往往是通過(guò)對(duì)外采買的方式獲取的這一現(xiàn)狀,政府應(yīng)當(dāng)利用其買方優(yōu)勢(shì),要求算法供應(yīng)商提供包括用于算法學(xué)習(xí)的數(shù)據(jù)集、對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注以及排除或加權(quán)某些數(shù)據(jù)的依據(jù)和標(biāo)準(zhǔn)、建構(gòu)算法時(shí)做出的主要政策選擇、算法的缺陷以及相關(guān)防范措施、對(duì)算法的驗(yàn)證和審核結(jié)果等在內(nèi)的算法建構(gòu)和測(cè)試記錄。這些記錄應(yīng)當(dāng)由算法供應(yīng)商或者政府予以公布,以主動(dòng)接受民眾和第三方機(jī)構(gòu)的監(jiān)督和質(zhì)詢。在政府運(yùn)用算法治理的實(shí)踐中,相關(guān)部門還應(yīng)當(dāng)負(fù)有主動(dòng)告知相對(duì)人“決策由算法做出”的義務(wù),以便相對(duì)人行使其獲得算法解釋以及拒絕自動(dòng)化決策的權(quán)利。當(dāng)利益相關(guān)者提出合理質(zhì)詢時(shí),算法供應(yīng)機(jī)構(gòu)還有責(zé)任以通俗易懂的方式提供治理決策的解釋。實(shí)踐中,華盛頓州于2019年擬推出的有關(guān)算法問(wèn)責(zé)法案,就提出公共事業(yè)部門決定采用算法決策系統(tǒng)之前,應(yīng)當(dāng)提前將系統(tǒng)的創(chuàng)建方案和數(shù)據(jù)報(bào)告提交給州隱私部門,并向公眾公開,征求公眾意見(jiàn),從而幫助公眾理解以及監(jiān)督算法決策[49]。此外,我們還應(yīng)當(dāng)重視對(duì)相關(guān)算法解釋技術(shù)的應(yīng)用。如有學(xué)者通過(guò)引入“概念激活向量測(cè)試(TCAV)”的方式,可以較為直觀地顯示用戶定義的概念對(duì)分類結(jié)果的重要性程度,從而以對(duì)人類友好的方式解釋神經(jīng)網(wǎng)絡(luò)的內(nèi)部狀態(tài)[50]。
3.壓實(shí)與算法決策相關(guān)的溝通、監(jiān)管制度
首先,我們應(yīng)當(dāng)探索設(shè)立獨(dú)立的人工智能監(jiān)管、協(xié)調(diào)、問(wèn)責(zé)機(jī)構(gòu)。由于現(xiàn)有監(jiān)管和協(xié)調(diào)體制的分散化、非專業(yè)化等原因,對(duì)算法發(fā)展的引導(dǎo)、支持、監(jiān)管等工作處于一種被動(dòng)、松散、無(wú)序的狀態(tài)。在信息社會(huì)到來(lái)的背景下,人工智能的發(fā)展和應(yīng)用呈現(xiàn)爆發(fā)性趨勢(shì),因而提早籌劃建立統(tǒng)一的人工智能技術(shù)發(fā)展協(xié)調(diào)、監(jiān)管機(jī)構(gòu)便十分必要。在機(jī)構(gòu)設(shè)置上,可以采取設(shè)立獨(dú)立的監(jiān)管機(jī)構(gòu)并配備專業(yè)技術(shù)人才的方式以統(tǒng)一協(xié)調(diào)、引導(dǎo)和監(jiān)管人工智能技術(shù)的發(fā)展。在機(jī)構(gòu)職能上,除了對(duì)用于政府治理的算法行使監(jiān)管職責(zé)之外,這一監(jiān)管機(jī)構(gòu)還應(yīng)當(dāng)擔(dān)負(fù)起制定相關(guān)規(guī)范標(biāo)準(zhǔn)、協(xié)調(diào)建立統(tǒng)一的數(shù)據(jù)開放平臺(tái)等協(xié)調(diào)溝通職能。如對(duì)于數(shù)據(jù)平臺(tái)的建設(shè),由統(tǒng)一的監(jiān)管機(jī)構(gòu)建立政府信息收集和公開平臺(tái)便能夠克服當(dāng)前政府?dāng)?shù)據(jù)條塊分割的困境,同時(shí)還可由其審查數(shù)據(jù)的類型,決定數(shù)據(jù)是應(yīng)當(dāng)完全開放還是需要通過(guò)申請(qǐng)——許可的方式開放,從而既維護(hù)了數(shù)據(jù)的安全性,還能夠保障用于政府治理的算法所學(xué)習(xí)的數(shù)據(jù)的完整性。
其次,建立和完善算法驗(yàn)證評(píng)估許可制度以及針對(duì)投入使用的算法的審計(jì)制度。相關(guān)監(jiān)管制度的完善是保障監(jiān)管機(jī)構(gòu)有效運(yùn)轉(zhuǎn)、防范算法決策風(fēng)險(xiǎn)的另一重要方面。一方面,我們應(yīng)當(dāng)完善算法投入應(yīng)用前的驗(yàn)證評(píng)估許可制度建設(shè),根據(jù)算法不同應(yīng)用領(lǐng)域的重要性以及算法決策自動(dòng)化程度,分別展開強(qiáng)制性的、抽樣性的或依申請(qǐng)的驗(yàn)證評(píng)估。對(duì)于那些涉及國(guó)家重要事項(xiàng)、限縮公民權(quán)利等的算法應(yīng)當(dāng)在投入使用前,由專業(yè)機(jī)構(gòu)對(duì)其展開全面的驗(yàn)證評(píng)估,只有符合評(píng)估標(biāo)準(zhǔn)的算法才能投入到治理實(shí)踐中。另一方面,對(duì)于已經(jīng)運(yùn)行的算法,可以根據(jù)算法參與治理事項(xiàng)的重要程度,由獨(dú)立的監(jiān)督機(jī)構(gòu)采取定期年檢、抽樣審計(jì)或者依申請(qǐng)審計(jì)等方式,重點(diǎn)對(duì)算法的運(yùn)轉(zhuǎn)邏輯及決策結(jié)論是否存在歧視、漏洞、偏誤等展開事中和事后檢測(cè)。此外,如若算法決策相對(duì)人或利益相關(guān)者對(duì)算法決策提出異議,算法監(jiān)管機(jī)構(gòu)還有義務(wù)對(duì)相關(guān)算法展開審查,并將審查結(jié)論及時(shí)告知異議提出者。
最后,對(duì)于算法的監(jiān)管和協(xié)調(diào)工作,要善于運(yùn)用現(xiàn)有技術(shù)手段,從而以代碼規(guī)制代碼,以技術(shù)治理技術(shù)。例如,對(duì)于統(tǒng)一數(shù)據(jù)平臺(tái)的建設(shè),就可以充分發(fā)揮區(qū)塊鏈在整合信息以及保障數(shù)據(jù)全流程可追溯、公開透明、自動(dòng)留痕、不可篡改等方面的優(yōu)勢(shì),消解不同地區(qū)和政府部門之間的數(shù)據(jù)鴻溝、數(shù)據(jù)孤島,實(shí)現(xiàn)用于算法學(xué)習(xí)的數(shù)據(jù)的真實(shí)性、完整性和可信性[51]。又如,對(duì)于算法審計(jì)而言,日益成熟的“歧視感知數(shù)據(jù)挖掘”技術(shù),能夠幫助我們自動(dòng)識(shí)別算法是否存在歧視等偏離公正倫理的情形[52]。此外,通過(guò)預(yù)先埋入審計(jì)線索的方式,也可以全面記錄用于政府治理的算法決策過(guò)程,為審計(jì)人員審計(jì)工作的開展提供便利。
4.積極引導(dǎo)并努力保障算法決策符合基本倫理要求
面對(duì)算法嵌入政府治理存在算法歧視、算法霸權(quán)等倫理風(fēng)險(xiǎn),通過(guò)立法和技術(shù)規(guī)制的方式提升算法決策的倫理正當(dāng)性尤為必要。一方面,在人工智能時(shí)代,“代碼創(chuàng)作者開始越來(lái)越多地扮演立法者的角色”[53],因而我們應(yīng)當(dāng)通過(guò)立法的方式,劃定算法設(shè)計(jì)、開發(fā)者所應(yīng)當(dāng)遵循的倫理道德底線。立法是平衡效率與公平的重要方式,通過(guò)立法加權(quán)數(shù)字弱勢(shì)群體,為算法設(shè)計(jì)、開發(fā)者劃定倫理道德底線,可以有效避免小樣本數(shù)據(jù)被淹沒(méi)、弱勢(shì)群體被算法決策系統(tǒng)性歧視、算法決策忽視公共利益而被商業(yè)公司俘獲等諸多算法決策風(fēng)險(xiǎn),從而保障算法決策符合基本倫理要求。
另一方面,我們還可以通過(guò)代碼嵌入的方式將法律規(guī)定的基本倫理、正義理念植入算法模型之中。實(shí)現(xiàn)這一目標(biāo)可以通過(guò)以下兩種路徑展開。一種路徑是依照政府治理的特點(diǎn),參照現(xiàn)有法律基本規(guī)定,事先制定用于治理的算法所應(yīng)當(dāng)遵循的基本價(jià)值準(zhǔn)則,然后通過(guò)法律代碼化的方式,將這些倫理要求編入算法決策的主要節(jié)點(diǎn)之中。當(dāng)算法的決策過(guò)程偏離這些倫理要求時(shí),便會(huì)因不符合相應(yīng)的觸發(fā)條件而無(wú)法啟動(dòng)代理節(jié)點(diǎn),從而阻斷違背基本倫理準(zhǔn)則的算法決策生成[54]。另一種路徑就是運(yùn)用算法自身的學(xué)習(xí)能力,讓其自主學(xué)習(xí)治理先例中不同情境下各要素在價(jià)值衡量中所占的比重,并將當(dāng)前治理事項(xiàng)與先例比對(duì),對(duì)于二者交叉或重復(fù)的區(qū)間則采取與先例相同的價(jià)值選擇傾向,從而保障算法決策符合政府治理的基本價(jià)值判斷。匹茲堡大學(xué)的托馬斯·薩蒂依照這一進(jìn)路開發(fā)了等級(jí)層次和網(wǎng)絡(luò)層次分析算法,其將定量分析和定性分析相結(jié)合,能夠有效緩解算法決策的倫理選擇困境[55]。
5.建立合理的算法決策責(zé)任分配機(jī)制
在當(dāng)前技術(shù)發(fā)展背景下,將用于政府治理的算法決策責(zé)任分配給機(jī)器的做法不符合現(xiàn)實(shí)需求,因而算法決策違法或不當(dāng)?shù)闹饕?zé)任應(yīng)當(dāng)在政府和第三方供應(yīng)商之間分配。無(wú)論是由政府這一算法決策的目標(biāo)設(shè)定者和最大受益者擔(dān)責(zé),還是由作為算法具體設(shè)計(jì)者的第三方供應(yīng)商擔(dān)責(zé),都有一定道理,因而對(duì)于擔(dān)責(zé)問(wèn)題的分配也存在諸多爭(zhēng)論。此時(shí),我們認(rèn)為可以從因治理決策違法或者不當(dāng)而遭到損害的治理相對(duì)人的角度來(lái)對(duì)這一問(wèn)題展開思考。首先,民眾將治理決策權(quán)交由政府掌管,是出于對(duì)政府決策能力和擔(dān)責(zé)能力的認(rèn)可和信任,政府也以自身的公信力為算法決策做出相應(yīng)的背書,因而從政治合法性的角度講,由政府擔(dān)責(zé)更為合理。其次,若由第三方供應(yīng)商承擔(dān)責(zé)任,那么不但會(huì)增加算法決策相對(duì)人的維權(quán)成本,而且由于算法決策的專業(yè)性,對(duì)算法了解不足的相對(duì)人還要承擔(dān)更大的維權(quán)失敗風(fēng)險(xiǎn)。最后,還有學(xué)者提出了一些反對(duì)政府擔(dān)責(zé)的觀點(diǎn),其認(rèn)為“政府機(jī)構(gòu)很少或根本沒(méi)有實(shí)際參與系統(tǒng)的設(shè)計(jì)、實(shí)施或測(cè)試。因而,國(guó)家只是一個(gè)容納違法行為的空殼,而不是實(shí)施違法行為的主要行為者。對(duì)政府機(jī)構(gòu)追責(zé)可能會(huì)削弱軟件供應(yīng)商投入更多成本以減少算法治理?yè)p害的動(dòng)機(jī)”[56]。但筆者認(rèn)為對(duì)于政府機(jī)構(gòu)的追責(zé)恰恰是倒逼政府主動(dòng)參與或監(jiān)督系統(tǒng)設(shè)計(jì)、實(shí)施和測(cè)試的有益嘗試,這對(duì)于提升算法決策的科學(xué)性和公正性具有積極意義;同時(shí),由于政府屬于算法的購(gòu)買方,其還可以通過(guò)事后追償或者更換供應(yīng)商的方式激勵(lì)算法供應(yīng)商提升算法決策的可靠性。
隨著算法決策技術(shù)的日益成熟,將算法嵌入政府治理對(duì)于提升政府治理成效、降低政府治理成本具有根本性的變革意義,但這并不意味著我們應(yīng)當(dāng)無(wú)條件地對(duì)嵌入政府治理的算法予以信任。無(wú)論是理論預(yù)設(shè)還是實(shí)踐經(jīng)驗(yàn)都表明,算法決策會(huì)帶來(lái)諸多新的風(fēng)險(xiǎn)和挑戰(zhàn)。因而,面對(duì)算法決策,我們既不可盲目樂(lè)觀,也不可過(guò)度悲觀,我們應(yīng)當(dāng)做的是在參與政府治理的算法技術(shù)尚未完全定型的情況下,及時(shí)提出有效的法律規(guī)制方案,盡可能地保障算法決策在可信賴的軌道上行穩(wěn)致遠(yuǎn)。當(dāng)然,本文所提出的法律規(guī)制方案還存在諸多局限性,如:獨(dú)立的算法監(jiān)管機(jī)構(gòu)與現(xiàn)有監(jiān)管機(jī)構(gòu)之間的關(guān)系問(wèn)題,如何判定算法決策是否違法或缺乏正當(dāng)性問(wèn)題,如何具體保障數(shù)字弱勢(shì)群體的權(quán)利問(wèn)題,等等。因而對(duì)于算法嵌入政府治理法律規(guī)制方案的討論并不是一勞永逸的,我們應(yīng)當(dāng)依照實(shí)踐經(jīng)驗(yàn)不斷完善相關(guān)法律規(guī)制方案,從而努力推動(dòng)政府治理現(xiàn)代化轉(zhuǎn)型目標(biāo)的實(shí)現(xiàn)。
華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2021年4期