鄭智航
(山東大學(xué)法學(xué)院,山東 青島 266237)
自動(dòng)化決策是利用計(jì)算機(jī)技術(shù)和算法程序?qū)Υ罅繑?shù)據(jù)進(jìn)行收集整理,并在此基礎(chǔ)上通過(guò)深度學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)技術(shù)來(lái)對(duì)相關(guān)數(shù)據(jù)進(jìn)行研究和處理,自動(dòng)生成決策的活動(dòng)。這種技術(shù)被日益廣泛地應(yīng)用到醫(yī)療診斷、警務(wù)管理、司法裁判、金融投資、就業(yè)招聘、無(wú)人駕駛、新聞推送、社會(huì)福利等公共和商業(yè)領(lǐng)域。它能夠?qū)⒋笠?guī)模數(shù)據(jù)中隱藏的信息和知識(shí)挖掘出來(lái),從而極大地提高決策的效率和準(zhǔn)確性。然而,自動(dòng)化決策受制于以“大數(shù)據(jù),小定律”技術(shù)范式為核心的概率統(tǒng)計(jì)邏輯和追求效率而非追求絕對(duì)精確、強(qiáng)調(diào)相關(guān)性而非因果性的效率主導(dǎo)邏輯影響,往往會(huì)出現(xiàn)人的主體性喪失和決策結(jié)果不公正等問(wèn)題。[1]P35-50在這種現(xiàn)實(shí)背景下,人們是否具有免受自動(dòng)化決策的正當(dāng)性,在多大程度上能夠免受自動(dòng)化決策以及如何通過(guò)法律手段來(lái)保護(hù)人們免受自動(dòng)化決策愈來(lái)愈成為學(xué)術(shù)界和實(shí)務(wù)界關(guān)注的問(wèn)題。就既有的研究來(lái)看,學(xué)者們往往將個(gè)人享受免受自動(dòng)化決策權(quán)作為一個(gè)研究的前提,并在此基礎(chǔ)上從禁止進(jìn)路和權(quán)利進(jìn)路來(lái)構(gòu)建個(gè)人免受自動(dòng)化決策的法律保護(hù)制度。禁令進(jìn)路將數(shù)據(jù)主體的權(quán)利放在首位,帶有強(qiáng)烈的道德目的論的色彩,而權(quán)利進(jìn)路更為強(qiáng)調(diào)數(shù)據(jù)行業(yè)的發(fā)展,具有較強(qiáng)的功利主義色彩。因此,本文試圖超越這兩條進(jìn)路,從平衡論角度出發(fā),在充分考慮數(shù)據(jù)主體個(gè)人利益和公共利益之間平衡的基礎(chǔ)上,構(gòu)建一套個(gè)人免受自動(dòng)化決策的法律制度保護(hù)體系。
決策本來(lái)屬于人類(lèi)的一種專(zhuān)屬活動(dòng),它是人類(lèi)運(yùn)用人腦具有的認(rèn)識(shí)能力和邏輯思維能力,對(duì)一定的信息和經(jīng)驗(yàn)進(jìn)行占有和分析,并在此基礎(chǔ)上將人們的思維過(guò)程和意志行動(dòng)過(guò)程進(jìn)行結(jié)合的產(chǎn)物。從本質(zhì)上講,這種決策是建立在人與人之間相互信任基礎(chǔ)上的,它強(qiáng)調(diào)的是人與人之間的一種共情心和同理心。也正是這種共情心與同理心的存在,決策主體的決策才能夠被決策對(duì)象接受和采納。然而,隨著自動(dòng)化技術(shù)的發(fā)展和運(yùn)用,人類(lèi)的許多決策并不再由人自身作出,而是由機(jī)器完全自行作出或者由機(jī)器輔助作出。這種自動(dòng)化決策在豐富人與人之間連接線索、交流場(chǎng)景與手段的同時(shí),可能會(huì)削弱人對(duì)自我的控制和保護(hù)能力,并極有可能淪為凱瑟琳·海勒所說(shuō)的作為物質(zhì)-信息混合物的后人類(lèi)主體。[2]因此,個(gè)人免受自動(dòng)化決策的呼聲愈來(lái)愈強(qiáng)烈。例如,歐盟委員會(huì)頒布了《數(shù)據(jù)保護(hù)指令》。該指令第15條第1款規(guī)定,“如果一項(xiàng)決定是完全基于數(shù)據(jù)的自動(dòng)化處理作出且目的是評(píng)估與其相關(guān)的某些個(gè)人方面,例如工作表現(xiàn)、信用、可靠性、行為等,成員國(guó)應(yīng)當(dāng)賦予數(shù)據(jù)主體免受對(duì)其產(chǎn)生法律效力或者重大影響的完全自動(dòng)化決策約束的權(quán)利”。從理論上講,個(gè)人免受自動(dòng)化決策具有法理上的正當(dāng)性。
人的尊嚴(yán)是一個(gè)具有獨(dú)立的倫理規(guī)范的先在性概念和根本性的倫理準(zhǔn)則。其它的社會(huì)規(guī)范和法律規(guī)范都是在落實(shí)這一倫理總綱的基本要求。[3]“人性尊嚴(yán)毋寧為法治的核心價(jià)值,蓋不論是著重程序公平的形式法治理論,或者追求實(shí)質(zhì)正義的實(shí)質(zhì)法治理論,最終都可統(tǒng)攝在人性尊嚴(yán)的價(jià)值概念底下,致力于建構(gòu)一個(gè)完善的現(xiàn)代法治國(guó)家,使人人都過(guò)著有尊嚴(yán)的美好人生?!盵4]因此,是否尊重人的尊嚴(yán)構(gòu)成了評(píng)價(jià)某項(xiàng)行為是否具有正當(dāng)性的首要標(biāo)準(zhǔn)。從內(nèi)涵上講,尊嚴(yán)盡管是一個(gè)模糊性較高的概念,其含義難以被精確界定,但是,人類(lèi)所具有的共情心和同理心,使人們對(duì)尊嚴(yán)這一概念形成了一些最基本的共識(shí)。第一,尊嚴(yán)的主體只能是現(xiàn)實(shí)生活中的自然人。尊嚴(yán)首先體現(xiàn)的是有生命的個(gè)體對(duì)于現(xiàn)實(shí)生活的一種認(rèn)識(shí)和感受,而只有自然人才是生活在特定的時(shí)間和空間內(nèi)的有生命的個(gè)體,是生活的主體,是“從事實(shí)際活動(dòng)的人”。[5]人在具體的現(xiàn)實(shí)生活中相互交往,通過(guò)肉體和精神感知到對(duì)方態(tài)度,并將這種感知上升為一種具有反思和評(píng)價(jià)性的情感。尊嚴(yán)感就是這些情感中的一種,它源自于人所獨(dú)有的情感感知能力。第二,人具有不受支配的主體性。人與動(dòng)物的一個(gè)重要區(qū)別在于人具有反思和評(píng)價(jià)生活的本能,它獨(dú)立表達(dá)了人們對(duì)于善的生活的追求。這種獨(dú)立追求強(qiáng)調(diào)人擁有不受他人干涉的自我選擇的能力。[6]自啟蒙哲學(xué)以來(lái),人們就從目的而非手段來(lái)定義人的本質(zhì)問(wèn)題,并從不受支配的自治性角度來(lái)定義人的尊嚴(yán)問(wèn)題,強(qiáng)調(diào)人應(yīng)當(dāng)按照客觀的道德實(shí)踐法則來(lái)行動(dòng),并排除外在的干預(yù)和支配,除非這種干預(yù)和支配得到了人的同意,并以實(shí)現(xiàn)社會(huì)增益為目的。第三,每個(gè)人都具有受到尊重和重視的地位。沃爾德倫認(rèn)為,尊嚴(yán)的古典意義含有因等級(jí)或職位而享有榮譽(yù)和特權(quán)以及受人尊重的意思。在平等主義思潮的影響下,尊嚴(yán)與等級(jí)之間的聯(lián)系雖然有所松動(dòng),但是兩者并不可能徹底分離。高等級(jí)別的觀念并不是簡(jiǎn)單地被否棄,而是被進(jìn)一步地普遍化,即我們每個(gè)人都應(yīng)被視為授予了某一貴族或皇室的頭銜,我們每個(gè)人都應(yīng)被視為高級(jí)物種,因?yàn)槿祟?lèi)就是天底下高等級(jí)別的物種,負(fù)有特殊的使命。人類(lèi)應(yīng)當(dāng)通過(guò)實(shí)現(xiàn)級(jí)別平等來(lái)將以前只有貴族才擁有的尊嚴(yán)賦予每一個(gè)人。[7]這種受到尊重和重視的地位在法律上往往體現(xiàn)為人人具有平等人格并享有平等的權(quán)利。在自動(dòng)化決策中,機(jī)器不斷憑借大數(shù)據(jù)和高效率接管和擠壓人的決策權(quán)力。在這個(gè)過(guò)程中,自動(dòng)化技術(shù)所具有的優(yōu)勢(shì)將自身的目的性嵌入到具體決策,原先作為機(jī)器控制者的人被當(dāng)作一個(gè)元素納入進(jìn)機(jī)器運(yùn)作中。這迫使人們?nèi)シ幕蜻m應(yīng)技術(shù)自身的目的性。[8]這種自動(dòng)化決策在實(shí)質(zhì)上正在改變傳統(tǒng)的人是主體、機(jī)器是客體的人機(jī)關(guān)系模式,從而給人的尊嚴(yán)形成了挑戰(zhàn)。
首先,自動(dòng)化決策受制于算法邏輯的影響,忽視了現(xiàn)實(shí)人通過(guò)肉體和精神而獲得的感受。自動(dòng)化決策是在算法的驅(qū)動(dòng)下,通過(guò)深度學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)技術(shù)來(lái)處理關(guān)鍵數(shù)據(jù)的活動(dòng)。因此,算法在自動(dòng)化決策中具有重要意義。從算法的運(yùn)行邏輯來(lái)看,它是利用以量子力學(xué)為基礎(chǔ)的“大數(shù)據(jù),小定律”技術(shù)范式來(lái)作出決策的,即在概率統(tǒng)計(jì)的數(shù)理基礎(chǔ)上,通過(guò)智能化的機(jī)器依據(jù)特定場(chǎng)景、語(yǔ)境和實(shí)用需要,從海量的“大數(shù)據(jù)”中,隨機(jī)提取特定的“小定律”,從而對(duì)行為形成一種反饋機(jī)制。[9]在這個(gè)過(guò)程中,現(xiàn)實(shí)人在某一特定時(shí)間和空間中的具體感受極可能被排除在外,因?yàn)檫@些感受并不一定被納入到通過(guò)圖譜畫(huà)像方式建立的用戶(hù)形象中。有學(xué)者甚至提出自動(dòng)化決策本身就是一個(gè)使個(gè)人去個(gè)性化的過(guò)程。它從數(shù)學(xué)角度進(jìn)行計(jì)算,并將人置于一套自治的演算系統(tǒng)中進(jìn)行符號(hào)推演,而無(wú)須過(guò)多地考慮人的情感因素和尊嚴(yán)。
其次,自動(dòng)化決策容易忽視人不受支配的主體地位。主體性是現(xiàn)代性的根本基石,它強(qiáng)調(diào)人是一切活動(dòng)的出發(fā)點(diǎn)和歸宿,一切活動(dòng)都應(yīng)當(dāng)服從人是目的而非手段這一道德實(shí)踐法則。這一法則主要包括以下三個(gè)基本命題:第一,作為個(gè)體的人才是社會(huì)、政治和經(jīng)濟(jì)生活中唯一積極主動(dòng)的參與者;第二,個(gè)人在自由狀態(tài)下作出的決策是以自我利益的實(shí)現(xiàn)為出發(fā)點(diǎn)的;第三,個(gè)人是自我利益的最好判斷者,沒(méi)有人能夠像利益者本人那樣了解他自己的利益。[11]P6然而,自動(dòng)化決策往往是從整體主義和工具主義出將人當(dāng)作一個(gè)符號(hào)來(lái)進(jìn)行計(jì)算,從而侵犯到人的尊嚴(yán)。自動(dòng)化決策特別是完全型自動(dòng)化決策本來(lái)就不是由人來(lái)作出的,決策者將決策的權(quán)力交由機(jī)器來(lái)決策。盡管這些機(jī)器是由工程師設(shè)計(jì)出來(lái)的,但是,對(duì)于“人+自動(dòng)化技術(shù)”這個(gè)系統(tǒng)而言,工程師的設(shè)計(jì)道德會(huì)慢慢地轉(zhuǎn)化成為“人+技術(shù)”這個(gè)系統(tǒng)本身的道德,而人真正能夠支配的會(huì)越來(lái)越少。[8]換言之,這種自動(dòng)化決策極有可能是基于機(jī)器自身的目的而非人的目的作出來(lái)的,人成為了機(jī)器支配的對(duì)象。另一方面,自動(dòng)化決策容易使人喪失自由意志。自動(dòng)化決策需要遵循“數(shù)據(jù)喂養(yǎng)”的邏輯。在這個(gè)過(guò)程中,自動(dòng)化決策能夠利用相關(guān)的認(rèn)知來(lái)控制人的行為。例如,在臉書(shū)推行的“情感蔓延”項(xiàng)目中,它對(duì)50萬(wàn)名用戶(hù)進(jìn)行了精準(zhǔn)的新聞投放。在投放過(guò)程中,它通過(guò)積極或消極的語(yǔ)言來(lái)影響這50萬(wàn)名用戶(hù)的情感和態(tài)度,并讓這些用戶(hù)產(chǎn)生臉書(shū)所期望的情感和態(tài)度,去轉(zhuǎn)發(fā)積極或者消極的消息。[12]這種做法嚴(yán)重侵犯了人的尊嚴(yán),將人作為實(shí)現(xiàn)某種目的的工具。
最后,自動(dòng)化決策因人工智能算法具有極強(qiáng)的分類(lèi)篩選能力和超乎想象的預(yù)測(cè)能力而容易出現(xiàn)歧視,從而侵犯人的尊嚴(yán)。在自動(dòng)化決策中,機(jī)器主要通過(guò)選擇與各種行為具有密切關(guān)聯(lián)性的數(shù)據(jù)的顯著特征來(lái)工作,這種工作機(jī)制極有可能不恰當(dāng)?shù)貙⒛愁?lèi)個(gè)體或群體標(biāo)記為具有某種風(fēng)險(xiǎn)或傾向,進(jìn)而對(duì)這類(lèi)個(gè)人或群體產(chǎn)生歧視。這種偏見(jiàn)和歧視往往從一開(kāi)始就隱藏在人工智能系統(tǒng)中,并因人工智能具有自我學(xué)習(xí)特性而有可能日趨嚴(yán)重。[13]在實(shí)踐中,自動(dòng)化決策主要通過(guò)偏見(jiàn)代理和特征選擇等隱蔽機(jī)制來(lái)產(chǎn)生歧視。[14]例如在美國(guó)推行的一款預(yù)測(cè)警務(wù)決策系統(tǒng)中,算法因?yàn)檫^(guò)于強(qiáng)調(diào)郵政編碼這一因素,從而在不同種族居住地與犯罪地區(qū)之間建立了一種關(guān)聯(lián)性。該系統(tǒng)經(jīng)過(guò)收集過(guò)去犯罪人的個(gè)人信息、郵政編碼等,發(fā)現(xiàn)犯罪人來(lái)自于低收入的非洲裔美國(guó)人社區(qū)。因此,它將該社區(qū)的非洲裔美國(guó)人都標(biāo)識(shí)為預(yù)測(cè)犯罪的具體目標(biāo)。[15]P2218,2223又例如,在Google 算法歧視案中,算法決策受制于“偏見(jiàn)進(jìn),則偏見(jiàn)出”的運(yùn)作模式的影響,往往在非洲裔美國(guó)人相關(guān)名稱(chēng)與犯罪相關(guān)信息之間建立關(guān)聯(lián),形成對(duì)非洲裔美國(guó)人的歧視。[16]P17,18這種“垃圾進(jìn),垃圾出”的算法決策模式非常容易對(duì)人形成刻板印象和對(duì)人進(jìn)行“污名化”,從而對(duì)人的尊嚴(yán)構(gòu)成侵害。
隨著現(xiàn)代法治思想和法治思維在社會(huì)公共生活中作用的凸顯,正當(dāng)程序的基本理念深入人心,它已經(jīng)成為檢驗(yàn)權(quán)力運(yùn)行的一項(xiàng)重要指標(biāo)。只要存在權(quán)力濫用的可能,正當(dāng)程序就應(yīng)當(dāng)成為權(quán)力行使的一種約束。陳景輝認(rèn)為,權(quán)力在事實(shí)上經(jīng)常會(huì)不恰當(dāng)?shù)貙?dǎo)致其他人受到損害,因此,符合正當(dāng)程序的基本要求就成為對(duì)這種權(quán)力以及賦予它的社會(huì)制度本身具有正當(dāng)性的一種道德證成。[17]當(dāng)然,從正當(dāng)程序理念的起源來(lái)看,它主要是為了約束國(guó)家公權(quán)力,而且權(quán)力的行使者主要是國(guó)家和政府。隨著社會(huì)的發(fā)展,這種國(guó)家-個(gè)人的二元模式逐步被打破。特別是隨著科學(xué)技術(shù)的發(fā)展和專(zhuān)業(yè)社會(huì)的來(lái)臨,技術(shù)因知識(shí)壟斷而愈來(lái)愈多地生成一種有別于基于國(guó)家暴力而產(chǎn)生的權(quán)力。在自動(dòng)化決策中,算法權(quán)力就是這種支配形態(tài)。自動(dòng)化決策賴(lài)于存在的算法在本質(zhì)上就是一種“邏輯+控制”的形式,是一組抽象的指令(邏輯)和操作的可能性(控制)。Goffey認(rèn)為算法會(huì)做一些事情,而它們的語(yǔ)法體現(xiàn)了一種命令結(jié)構(gòu),從而使這一切成為可能。算法不僅被賦予了對(duì)軟件“做事情”的權(quán)力,而且還能讓人類(lèi)參與者做出相應(yīng)的反應(yīng)。[18]P743-752它通過(guò)“分類(lèi)”“篩選”“優(yōu)先”“過(guò)濾”等機(jī)制塑造人們的感知,主導(dǎo)了建構(gòu)受眾感知的權(quán)力,從而形成了一種隱性的強(qiáng)制力量,即算法權(quán)力。[19]這種算法權(quán)力也存在高度濫用的可能性,因此,自動(dòng)化決策理應(yīng)接受正當(dāng)程序理念的校驗(yàn)。
然而,在實(shí)踐中,自動(dòng)化決策往往容易忽視正當(dāng)程序理念,甚至自動(dòng)化決策本身就對(duì)正當(dāng)程序形成了一定的沖擊。首先,自動(dòng)化決策因受制于平臺(tái)和算法設(shè)計(jì)者的效率和利益考量而具有前見(jiàn)或偏見(jiàn),違反正當(dāng)程序中的中立性原則。人們?cè)谠O(shè)計(jì)自動(dòng)化決策時(shí),就將設(shè)計(jì)者的價(jià)值追求和預(yù)期用途有意無(wú)意地凍結(jié)在代碼中,并將這些價(jià)值和用途架構(gòu)化。[20]P323-343這些價(jià)值和用途可能隨著數(shù)據(jù)的積累和算法的迭代而被強(qiáng)化和擴(kuò)大,成為自動(dòng)化決策程序的前見(jiàn)或偏見(jiàn)。換言之,自動(dòng)化決策程序從一開(kāi)始就不是中立的,而是預(yù)示了某種特定的結(jié)果就是最好或最有效的選擇。其次,自動(dòng)化決策的不透明性遮蔽了正當(dāng)程序中的公開(kāi)性原則。公開(kāi)透明是正當(dāng)程序的一項(xiàng)基本要求,這一原則需要相關(guān)的決策信息向外公開(kāi),決策的最終結(jié)果也應(yīng)當(dāng)讓外界知曉。然而,自動(dòng)化決策帶有強(qiáng)調(diào)的“黑箱”色彩,高度的專(zhuān)業(yè)化和技術(shù)化讓人們既無(wú)法看到也無(wú)法理解這種決策過(guò)程。在實(shí)踐中,這種決策過(guò)程往往會(huì)關(guān)涉國(guó)家和商業(yè)的秘密,決策主體以關(guān)涉國(guó)家和商業(yè)秘密為由,防止危害國(guó)家利益或出現(xiàn)“搭便車(chē)”現(xiàn)象和“羊群效應(yīng)”。最后,自動(dòng)化決策因技術(shù)壟斷和嵌入模式而架空了參與性原則。參與性原則是人的主體性和享有尊嚴(yán)的體現(xiàn),體現(xiàn)的是人們?cè)谏鐣?huì)生活中對(duì)自己意愿的表達(dá)、溝通與交流。從參與的效果來(lái)看,參與主體信息愈對(duì)稱(chēng)、地位愈平等、認(rèn)知能力愈相當(dāng),參與的效果就愈好。按照哈貝馬斯的理解,平等參與到交往實(shí)踐是一系列程序運(yùn)轉(zhuǎn)的前提,當(dāng)平等的參與性原則實(shí)現(xiàn)不了的時(shí)候,這個(gè)人也就沒(méi)有什么主體性可言。[21]P150在自動(dòng)化決策中,決策因不透明性、專(zhuān)業(yè)性、即時(shí)性和封閉性等因素,將被決策者完全對(duì)象化,而且隨著算法的學(xué)習(xí)能力不斷增強(qiáng),自動(dòng)化決策逐步成為一個(gè)自我封閉的自主系統(tǒng),并通過(guò)“法律代碼化”和“代碼即法律 ”路徑嵌入到具體的決策流程,從而壓縮或無(wú)視被決策者的參與,溝通與交流在這套體系中也被省略。[22]例如,在威斯康辛州訴盧米斯案中,法官就從自動(dòng)化決策背后的算法屬于商業(yè)秘密角度出發(fā),認(rèn)為COMPAS程序應(yīng)由開(kāi)發(fā)商來(lái)監(jiān)督,社會(huì)公眾不應(yīng)當(dāng)參與進(jìn)去。這種看法在實(shí)質(zhì)上侵犯了被告的正當(dāng)程序權(quán)利。[23]
隨著自動(dòng)化決策被廣泛運(yùn)用于諸多場(chǎng)景,人們?cè)诟惺茏詣?dòng)化決策帶來(lái)便利的同時(shí),也愈來(lái)愈強(qiáng)調(diào)自動(dòng)化決策應(yīng)當(dāng)維護(hù)人的尊嚴(yán)和遵守正當(dāng)程序原則。在這兩種基本理念的加持下,許多國(guó)際公約和國(guó)家法律愈來(lái)愈加強(qiáng)對(duì)于人們免受自動(dòng)化決策的保護(hù)。例如,1995年《歐盟個(gè)人數(shù)據(jù)保護(hù)指令》第15條第1款規(guī)定:“數(shù)據(jù)主體享有免受基于用戶(hù)側(cè)寫(xiě)的完全自動(dòng)化決策的權(quán)利。”歐盟數(shù)據(jù)保護(hù)部門(mén)發(fā)布的《為實(shí)現(xiàn)監(jiān)管目的的個(gè)人自動(dòng)化決策指南》,要求利用輔助系統(tǒng)的自然人必須“有權(quán)利和有能力質(zhì)疑自動(dòng)化決策且經(jīng)常表達(dá)對(duì)自動(dòng)化決策的異議。”《通用數(shù)據(jù)保護(hù)條例》也對(duì)人們免受自動(dòng)化決策進(jìn)行了規(guī)定。在實(shí)踐中,各國(guó)也形成了大量有關(guān)個(gè)人免受自動(dòng)化決策的判例。歸結(jié)起來(lái),這些保護(hù)措施可以分為禁令進(jìn)路和權(quán)利進(jìn)路兩種基本路徑。
所謂禁令進(jìn)路,是指法律認(rèn)為自動(dòng)化決策侵犯人的尊嚴(yán)和違反正當(dāng)程序原則,而對(duì)自動(dòng)化決策采取一種謹(jǐn)慎約束的態(tài)度,應(yīng)當(dāng)禁止對(duì)數(shù)據(jù)主體實(shí)施完全自動(dòng)化決策,除非采用這種決策具有完全合法合理的理由。[24]這種進(jìn)路以禁止使用自動(dòng)化決策為原則,以有限使用為例外。例如,1998年《比利時(shí)數(shù)據(jù)保護(hù)法》就規(guī)定當(dāng)數(shù)據(jù)權(quán)人的權(quán)利因自動(dòng)化決策而受到損害,并沒(méi)有行使反對(duì)自動(dòng)化決策的權(quán)利時(shí),政府可以禁止這種自動(dòng)化決策。2009年《德國(guó)聯(lián)邦數(shù)據(jù)保護(hù)法》也采取了這種禁令保護(hù)模式。該法律規(guī)定禁止運(yùn)用完全自動(dòng)化決策來(lái)作出對(duì)數(shù)據(jù)主體的利益具有法律后果或?qū)嵸|(zhì)性損害的決定。歐盟第29條數(shù)據(jù)保護(hù)工作組(WP29)也主張采取禁令保護(hù)模式,強(qiáng)調(diào)《通用數(shù)據(jù)保護(hù)條例》第22條的規(guī)定是一種禁止性規(guī)范,禁止基于個(gè)人數(shù)據(jù)進(jìn)行產(chǎn)生法律上或近似重大影響的完全的自動(dòng)化決策。2016年,歐洲議會(huì)和理事會(huì)發(fā)布的《刑事事項(xiàng)數(shù)據(jù)保護(hù)指令》要求成員國(guó)禁止完全基于自動(dòng)化處理的決策來(lái)處理涉及犯罪或執(zhí)行刑事處罰等方面的問(wèn)題。
具體來(lái)講,這種禁令保護(hù)進(jìn)路主要有以下特點(diǎn):第一,這種進(jìn)路保護(hù)的重點(diǎn)范圍是個(gè)人數(shù)據(jù)處理事項(xiàng)。對(duì)個(gè)人數(shù)據(jù)進(jìn)行分析、決策指向特定個(gè)人是禁止自動(dòng)化決策的兩項(xiàng)基本條件。因此,禁令進(jìn)路主要還是從個(gè)人數(shù)據(jù)角度出發(fā)進(jìn)行的一種制度構(gòu)建,其強(qiáng)調(diào)的是禁止不經(jīng)過(guò)有效的人工介入就將個(gè)人數(shù)據(jù)用于作出對(duì)數(shù)據(jù)主體產(chǎn)生實(shí)質(zhì)性影響的自動(dòng)化決策。第二,這種進(jìn)路保護(hù)的核心利益是數(shù)據(jù)主體一方的利益。在這種進(jìn)路看來(lái),保護(hù)數(shù)據(jù)主體的利益是自動(dòng)化決策作出的前提,只要數(shù)據(jù)主體向數(shù)據(jù)控制者提出反對(duì)意見(jiàn),并且有證據(jù)證明在此爭(zhēng)議上數(shù)據(jù)主體的合法利益髙于數(shù)據(jù)控制者,那么這種自動(dòng)化決策就應(yīng)當(dāng)被禁止。[25]P134第三,這種進(jìn)路體現(xiàn)的是一種事前規(guī)制的基本理念。所謂事前規(guī)制,是指在通過(guò)管控好自動(dòng)化決策程序設(shè)計(jì)的前端,對(duì)自動(dòng)化決策程序的啟動(dòng)設(shè)置嚴(yán)格的條件,以防止自動(dòng)化決策構(gòu)成對(duì)人的權(quán)利的侵犯?!兜聡?guó)聯(lián)邦數(shù)據(jù)保護(hù)法》規(guī)定,如果自動(dòng)化決策過(guò)程會(huì)給數(shù)據(jù)主體權(quán)利和自由帶來(lái)風(fēng)險(xiǎn),數(shù)據(jù)保護(hù)官應(yīng)當(dāng)在自動(dòng)化決策之前對(duì)決策收集的個(gè)人資料的類(lèi)型、個(gè)人資料處理的目的、是否獲得數(shù)據(jù)主體同意等問(wèn)題進(jìn)行事先檢查。
在實(shí)踐中,這種禁令進(jìn)路也規(guī)定了一些可以適用自動(dòng)化決策的例外情形。例如,歐盟《通用數(shù)據(jù)保護(hù)條例》規(guī)定以下情況可以適用完全自動(dòng)化決策:(1)對(duì)于數(shù)據(jù)主體與數(shù)據(jù)控制者之間訂立或履行合同來(lái)說(shuō),適用完全自動(dòng)化決策是必要的;(2)由控制者所遵循的聯(lián)盟或成員國(guó)法律授權(quán)可以適用這種決策方式;(3)數(shù)據(jù)主體明確同意接受這種完全自動(dòng)化決策。《德國(guó)聯(lián)邦數(shù)據(jù)保護(hù)法》也有類(lèi)似例外情形的規(guī)定:(1)在數(shù)據(jù)主體的要求已得到滿(mǎn)足的情況下,運(yùn)用自動(dòng)化決策來(lái)訂立和履行合同是應(yīng)當(dāng)被允許的;(2)在采取適當(dāng)措施保護(hù)數(shù)據(jù)主體的合法權(quán)益,告知數(shù)據(jù)主體將采取自動(dòng)化決策,并對(duì)相關(guān)內(nèi)容進(jìn)行解釋的前提下,運(yùn)用自動(dòng)化決策是可以的。
所謂權(quán)利進(jìn)路,是指通過(guò)賦予數(shù)據(jù)主體免受自動(dòng)化決策權(quán)的方式來(lái)保護(hù)數(shù)據(jù)主體的合法權(quán)益。在這種進(jìn)路看來(lái),全部禁止完全自動(dòng)化決策及用戶(hù)畫(huà)像的存在和展開(kāi)是不現(xiàn)實(shí)的,因此,應(yīng)當(dāng)將是否接受這種自動(dòng)化決策的約束交由數(shù)據(jù)主體來(lái)決定。近年來(lái),學(xué)者們愈來(lái)愈主張從權(quán)利進(jìn)路出發(fā)來(lái)構(gòu)建個(gè)人免受自動(dòng)化決策的法律保護(hù)體系。他們認(rèn)為,歐盟《通用數(shù)據(jù)保護(hù)條例》除了第22條第1款規(guī)定了免受自動(dòng)化決策的權(quán)利這一特定權(quán)利,而且還規(guī)定了反對(duì)處理個(gè)人數(shù)據(jù)的權(quán)利、數(shù)據(jù)刪除權(quán)、數(shù)據(jù)更正權(quán)、算法解釋權(quán)等。這些權(quán)利能夠有效地保護(hù)個(gè)人免受自動(dòng)化決策。[28]為了保障這項(xiàng)權(quán)利的實(shí)現(xiàn),除了要求參與自動(dòng)化決策的數(shù)據(jù)控制者承擔(dān)披露義務(wù)以外,還賦予了數(shù)據(jù)主體進(jìn)行主動(dòng)干預(yù)的權(quán)利。與此同時(shí),法律也賦予數(shù)據(jù)主體一定的訴訟救濟(jì)權(quán)利,當(dāng)數(shù)據(jù)主體認(rèn)為自動(dòng)化決策侵犯其合法權(quán)益時(shí),有權(quán)利到法院去提出訴訟,請(qǐng)求司法救濟(jì)。
具體來(lái)講,這種權(quán)利保護(hù)進(jìn)路主要有以下特點(diǎn):第一,這種進(jìn)路給予數(shù)據(jù)控制者進(jìn)行自動(dòng)化決策較大的空間。數(shù)據(jù)主體在沒(méi)有行使免于自動(dòng)化決策權(quán)利或選擇退出自動(dòng)化決策之前,數(shù)據(jù)控制者只要不違反國(guó)家強(qiáng)行性規(guī)范就可以采取自動(dòng)化決策方式對(duì)個(gè)人數(shù)據(jù)進(jìn)行決策。第二,這種進(jìn)路強(qiáng)調(diào)數(shù)據(jù)主體始終具有獲得人工干預(yù)的權(quán)利。在自動(dòng)化決策中,數(shù)據(jù)主體可以請(qǐng)求人工干預(yù)使自動(dòng)化決策變?yōu)榉亲詣?dòng)化決策。[27]P54例如,數(shù)據(jù)主體認(rèn)為某一自動(dòng)化決策方式存在疑問(wèn),可以要求對(duì)這種自動(dòng)化決策的結(jié)果進(jìn)行人工評(píng)估。第二,這種進(jìn)路強(qiáng)調(diào)事后規(guī)制的基本理念。如果說(shuō)免受自動(dòng)化決策保護(hù)的禁令進(jìn)路是一種防患于未然的進(jìn)路的話,權(quán)利進(jìn)路則具有較強(qiáng)的事后補(bǔ)救性。Huq認(rèn)為,免受自動(dòng)化決策約束權(quán)事前賦予了數(shù)據(jù)主體針對(duì)自動(dòng)化決策一般意義上的反對(duì)權(quán),并在自動(dòng)化決策發(fā)生后享有一定的知情權(quán)、表達(dá)權(quán)、提出異議的權(quán)利和人為干預(yù)權(quán)。這些權(quán)利能夠構(gòu)筑一套私法層面的算法風(fēng)險(xiǎn)防范機(jī)制,并讓數(shù)據(jù)主體獲得一種程序性的救濟(jì)。它能夠有效克服事前和事中的預(yù)警機(jī)制存在問(wèn)題和不足。[28]P611, 614-615
從上文的分析我們不難發(fā)現(xiàn),這兩種進(jìn)路都意識(shí)到了自動(dòng)化決策特別是完全自動(dòng)化決策極其容易對(duì)數(shù)據(jù)主體的權(quán)利構(gòu)成侵害,法律應(yīng)當(dāng)介入到自動(dòng)化決策領(lǐng)域,對(duì)其進(jìn)行規(guī)制。但是,它們?cè)谝?guī)制目標(biāo)、規(guī)制方式和規(guī)制限度等方面都存在一定的分歧。禁止進(jìn)路傾向于從數(shù)據(jù)主體角度出發(fā),以個(gè)人利益最大化為原則,采取一種事前規(guī)制的基本路徑來(lái)對(duì)自動(dòng)化決策進(jìn)行規(guī)制。權(quán)利進(jìn)路則傾向于從數(shù)字生產(chǎn)或數(shù)據(jù)社會(huì)效益角度出發(fā),以個(gè)人同意和選擇為基礎(chǔ),強(qiáng)調(diào)建立一套事后規(guī)制和事后救濟(jì)體系。這兩種進(jìn)路都能對(duì)保護(hù)個(gè)人免受自動(dòng)化決策起到一定的作用,但也存在一定的問(wèn)題。
就禁令進(jìn)路而言,它強(qiáng)調(diào)從源頭上對(duì)自動(dòng)化決策進(jìn)行規(guī)制,強(qiáng)調(diào)對(duì)自動(dòng)化決策進(jìn)行事前的數(shù)據(jù)保護(hù)影響評(píng)估。倘若數(shù)據(jù)保護(hù)影響評(píng)估結(jié)果顯示數(shù)據(jù)控制者是在沒(méi)有采取措施降低風(fēng)險(xiǎn)的情況下處理相關(guān)數(shù)據(jù)并將導(dǎo)致高風(fēng)險(xiǎn),人們就應(yīng)當(dāng)中止或禁止這種自動(dòng)化決策。[29]這種進(jìn)路雖然盡最大可能地保護(hù)數(shù)據(jù)主體的權(quán)利和尊嚴(yán),但既忽視了自動(dòng)化決策已經(jīng)在現(xiàn)實(shí)生活場(chǎng)境中廣泛運(yùn)用的客觀現(xiàn)實(shí),又忽視了數(shù)據(jù)權(quán)利具有公共產(chǎn)品屬性的一面,阻礙了數(shù)據(jù)開(kāi)發(fā)和利用,從而不利于算法技術(shù)的創(chuàng)新發(fā)展、合理應(yīng)用以及數(shù)據(jù)行業(yè)的良性發(fā)展。數(shù)據(jù)的開(kāi)放與共享是數(shù)字生產(chǎn)的前提。對(duì)數(shù)據(jù)的價(jià)值挖掘愈深,數(shù)據(jù)的社會(huì)價(jià)值就愈大。因此,數(shù)據(jù)被譽(yù)為“21世紀(jì)的石油和鉆石礦”。免受自動(dòng)化決策的禁令模式增加了數(shù)字生產(chǎn)的成本,壓縮了數(shù)字生產(chǎn)的空間。另一方面,數(shù)據(jù)保護(hù)影響評(píng)估具有較強(qiáng)的量化色彩,無(wú)法將人類(lèi)因共同的文化教育和生活經(jīng)驗(yàn)積累而對(duì)他人產(chǎn)生同理心、同情心和情感共鳴等質(zhì)性因素納入到評(píng)估體系,從而無(wú)法在自動(dòng)化決策過(guò)程中體現(xiàn)寄希望于道德與情感紐帶生成法律規(guī)范無(wú)法精準(zhǔn)規(guī)定的決策智慧。[30]
就權(quán)利進(jìn)路而言,它在一定程度上將是否接受自動(dòng)化決策結(jié)果的選擇權(quán)交給了數(shù)據(jù)主體。因此,這種進(jìn)路在整體上對(duì)自動(dòng)化決策這一新興技術(shù)秉持一種積極肯定的態(tài)度,認(rèn)為自動(dòng)化決策能夠提高決策效率和準(zhǔn)確性。法律雖然應(yīng)當(dāng)保護(hù)個(gè)人免受自動(dòng)化決策,但不應(yīng)當(dāng)阻礙算法技術(shù)的發(fā)展和創(chuàng)新。這種進(jìn)路的確有助于激發(fā)數(shù)據(jù)控制者進(jìn)行數(shù)據(jù)開(kāi)發(fā)和利用,推進(jìn)算法技術(shù)的發(fā)展,但還是存在一定的問(wèn)題。首先,它預(yù)示了數(shù)據(jù)主體與數(shù)據(jù)控制者擁有同樣的認(rèn)知能力。其實(shí),自動(dòng)化決策依據(jù)的數(shù)據(jù)是一個(gè)復(fù)雜的數(shù)據(jù)集,除了需要決策對(duì)象直接數(shù)據(jù)以外,還需要其他數(shù)據(jù)。數(shù)據(jù)主體所能把握的是自己的數(shù)據(jù),無(wú)法把握其他數(shù)據(jù),即使數(shù)據(jù)主體把握了自己的數(shù)據(jù),也沒(méi)有能力去證明這些數(shù)據(jù)與自動(dòng)化決策之間的內(nèi)在關(guān)聯(lián),這也就增加了數(shù)據(jù)主體提出異議和進(jìn)行人工干預(yù)的難度。其次,自動(dòng)化決策可以繞開(kāi)數(shù)據(jù)主體而作出對(duì)數(shù)據(jù)主體有影響力的決策。隨著算法學(xué)習(xí)能力的不斷提升,它分析和處理海量無(wú)結(jié)構(gòu)數(shù)據(jù)的能力愈來(lái)愈強(qiáng)。它可以不經(jīng)由個(gè)人身份的已識(shí)別或可識(shí)別狀態(tài)來(lái)對(duì)個(gè)人作出決策。[31]在此過(guò)程中,數(shù)據(jù)主體可能在毫無(wú)知情的情況下就被算法作出了決策,這直接影響反對(duì)處理個(gè)人數(shù)據(jù)的權(quán)利、數(shù)據(jù)刪除權(quán)、數(shù)據(jù)更正權(quán)、算法解釋權(quán)等權(quán)利的行使。最后,這種進(jìn)路忽視了以賦權(quán)與救濟(jì)為核心的傳統(tǒng)法律制度體系在面對(duì)智能社會(huì)時(shí)出現(xiàn)的功能危機(jī)。隨著大數(shù)據(jù)、人工智能的發(fā)展,人們的社會(huì)關(guān)系愈來(lái)愈被架構(gòu)化和建?;?。[32]這種架構(gòu)化和建?;瘜?duì)自由意志、自由市場(chǎng)、契約自由、民主參與等理念構(gòu)成巨大挑戰(zhàn),而這些理念正是以賦權(quán)與救濟(jì)為核心的權(quán)利進(jìn)路建立的基礎(chǔ)。
免受自動(dòng)化決策保護(hù)的禁令進(jìn)路和權(quán)利進(jìn)路之間產(chǎn)生分歧的重要原因在于各自的出發(fā)點(diǎn)不同。禁令進(jìn)路是將數(shù)據(jù)主體的權(quán)利放在首位,而權(quán)利進(jìn)路則更為強(qiáng)調(diào)數(shù)據(jù)行業(yè)的發(fā)展。禁令進(jìn)路帶有強(qiáng)烈的道德目的論的色彩,它強(qiáng)調(diào)數(shù)據(jù)主體的權(quán)利應(yīng)當(dāng)優(yōu)先于社會(huì)公共的“善”,作為一種體現(xiàn)社會(huì)公共的“善”的數(shù)據(jù)行業(yè)只有在充分尊重?cái)?shù)據(jù)主體權(quán)利的前提下才能發(fā)展,這極有可能阻礙數(shù)據(jù)行業(yè)的發(fā)展。權(quán)利進(jìn)路則具有較強(qiáng)的功利主義色彩,它承認(rèn)自動(dòng)化決策以及以此為基礎(chǔ)的數(shù)據(jù)行業(yè)發(fā)展的重要意義,并往往從后果主義出發(fā),注重自動(dòng)化決策行為的績(jī)效正當(dāng)性,這又極有可能犧牲數(shù)據(jù)主體的合法權(quán)益。因此,我們應(yīng)當(dāng)從數(shù)據(jù)行業(yè)發(fā)展和數(shù)據(jù)主體權(quán)利之間的平衡角度出發(fā),構(gòu)建個(gè)人免受自動(dòng)化決策的法律制度體系。平衡論能夠?yàn)閭€(gè)人免受自動(dòng)化決策的法律保護(hù)提供一種理念支撐。
平衡論原本是行政法學(xué)上的一個(gè)基本理論,它強(qiáng)調(diào)通過(guò)對(duì)行政法內(nèi)的公共利益和行政相對(duì)方利益進(jìn)行最大化和公平的分配,實(shí)現(xiàn)具有確定內(nèi)涵的行政權(quán)與相對(duì)方權(quán)利的結(jié)構(gòu)性均衡。這種平衡論既是一種表示行政法狀態(tài)的范疇,也是一種表示處理行政主體與相對(duì)方之間的關(guān)系的方法論范疇。[33]它有助于推動(dòng)傳統(tǒng)行政法學(xué)實(shí)現(xiàn)從分裂到統(tǒng)一、從對(duì)立到合作、從單中心到多元、從單一行為模式到復(fù)合行為模式、從權(quán)利對(duì)等到法律地位平等的范式轉(zhuǎn)換。[34]P76-77我們可以把這種平衡論的理念引入到個(gè)人免受自動(dòng)化決策的法律保護(hù)領(lǐng)域中來(lái),其理由主要有以下幾個(gè)方面:
第一, 運(yùn)用自動(dòng)化決策的主體部分是行政機(jī)關(guān)。隨著信息技術(shù)與自動(dòng)化決策技術(shù)的發(fā)展,政府機(jī)關(guān)在具體行政過(guò)程中愈來(lái)愈多地運(yùn)用自動(dòng)化決策來(lái)提升行政行為的效率和精準(zhǔn)性。2019年1月發(fā)布的《國(guó)務(wù)院辦公廳關(guān)于全面推行行政執(zhí)法公示制度執(zhí)法全過(guò)程記錄制度重大執(zhí)法決定法制審核制度的指導(dǎo)意見(jiàn)》第17條提出:“一是要推動(dòng)行政執(zhí)法裁量的決策輔助系統(tǒng),規(guī)范行政自由裁量權(quán),確保執(zhí)法尺度統(tǒng)一;二是要開(kāi)發(fā)風(fēng)險(xiǎn)預(yù)測(cè)系統(tǒng),提前預(yù)警、檢測(cè)、研判,及時(shí)履行政府職能、提高行政精準(zhǔn)性?!痹谶@種場(chǎng)境中,自動(dòng)化決策是行政機(jī)關(guān)行政執(zhí)法的一種工具,自然受制于行政權(quán)力的支配。這種工具在提高行政行為效力的同時(shí),也助長(zhǎng)了政府權(quán)力的擴(kuò)張。行政相對(duì)方在整個(gè)行政決策過(guò)程中因“技術(shù)鴻溝”更加處于弱勢(shì)地位。在自動(dòng)化決策中,如何平衡行政機(jī)關(guān)和行政相對(duì)方的利益要比人工決策場(chǎng)境中顯得更為必要。以控權(quán)為實(shí)現(xiàn)手段的平衡論能夠在一定程度克服自動(dòng)化決策中行政機(jī)關(guān)與行政相對(duì)人之間的平衡,從而確保個(gè)人免受自動(dòng)化決策這一目標(biāo)在動(dòng)態(tài)中實(shí)現(xiàn)。[35]
第二, 數(shù)據(jù)控制者在自動(dòng)化決策中基于壟斷專(zhuān)業(yè)知識(shí)和信息不對(duì)稱(chēng)而產(chǎn)生一種具有強(qiáng)烈支配性的算法權(quán)力。近代以來(lái),理論界和實(shí)務(wù)界往往是從行使主體和是否具有強(qiáng)制性出發(fā)來(lái)區(qū)分權(quán)力和權(quán)利的,認(rèn)為權(quán)力是“權(quán)力主體依賴(lài)某種權(quán)力資源使權(quán)力對(duì)象服從權(quán)力主體意志的活動(dòng)”[36]P81;而權(quán)利則是權(quán)利主體請(qǐng)求對(duì)方為一定行為或不為一定行為的資格和主張以及背后的利益。然而,建立在技術(shù)發(fā)展基礎(chǔ)上的算法因?yàn)楦叨入[蔽性、高專(zhuān)業(yè)性和模糊性往往能夠形成一種隱性權(quán)力,對(duì)公眾和社會(huì)組織進(jìn)行操縱和支配。這種算法權(quán)力逐步模糊了權(quán)力與權(quán)利界限,而且對(duì)數(shù)據(jù)主體的影響有時(shí)并不亞于行政權(quán)力對(duì)人的影響。
第三, 作為方法論的平衡論可以為數(shù)據(jù)控制者與數(shù)據(jù)主體的利益平衡提供方法論基礎(chǔ)。在自動(dòng)化決策中,控制者與數(shù)據(jù)主體的利益平衡點(diǎn)因時(shí)間和空間因素的變化而變化,因此,這種平衡具有強(qiáng)烈的動(dòng)態(tài)平衡的特點(diǎn)。作為方法論的平衡論能夠在權(quán)力與權(quán)利之間、公共機(jī)構(gòu)與個(gè)人之間、智能環(huán)境與個(gè)體之間、微觀權(quán)力與具體權(quán)能之間進(jìn)行一種動(dòng)態(tài)平衡,從而實(shí)現(xiàn)算法決策與個(gè)體權(quán)利的有效均衡。
第四,平衡論既強(qiáng)調(diào)硬法又強(qiáng)調(diào)軟法,符合科技行業(yè)法律治理和技術(shù)治理二元共治的基本要求。平衡論認(rèn)為“軟法”更為強(qiáng)調(diào)民主、協(xié)調(diào)、激勵(lì)、合作和平衡等價(jià)值,有力推動(dòng)公域之治與法治目標(biāo)的全面實(shí)現(xiàn)。[37]科技行業(yè)的專(zhuān)業(yè)化增加了國(guó)家硬法規(guī)制的難度。大量技術(shù)治理手段應(yīng)孕而生,這些手段強(qiáng)調(diào)協(xié)調(diào)、激勵(lì)、合作、指導(dǎo)原則、行為導(dǎo)向、指導(dǎo)示范等內(nèi)容,具有較強(qiáng)的軟法色彩。這些軟法的存在能夠彌補(bǔ)硬法在科技行業(yè)靈活性不夠、應(yīng)對(duì)性不足、平衡性不強(qiáng)等問(wèn)題,從而推動(dòng)數(shù)據(jù)行業(yè)發(fā)展和數(shù)據(jù)主體權(quán)利之間的協(xié)調(diào)發(fā)展。
這種平衡論的引入可以改變我們對(duì)于個(gè)人免受自動(dòng)化決策的權(quán)利效力的認(rèn)識(shí)。在禁令進(jìn)路和權(quán)利進(jìn)路看來(lái)中,個(gè)人免受自動(dòng)化決策的權(quán)利是一個(gè)核心范疇,相關(guān)的法律制度都應(yīng)當(dāng)圍繞這項(xiàng)權(quán)利來(lái)構(gòu)建。雖然它們?cè)谶@項(xiàng)權(quán)利實(shí)現(xiàn)路徑的選擇上有所不同,但是都強(qiáng)調(diào)這種權(quán)利的對(duì)抗性,并主張這項(xiàng)權(quán)利在效力上具有絕對(duì)性,即數(shù)據(jù)主體的同意,是數(shù)據(jù)使用并在此基礎(chǔ)上進(jìn)行自動(dòng)化決策的一個(gè)前提條件。這容易對(duì)個(gè)人免受自動(dòng)化決策的權(quán)利進(jìn)行一種絕對(duì)的排他性保護(hù),而不利于數(shù)據(jù)行業(yè)和社會(huì)公共利益的發(fā)展和進(jìn)步。從平衡論角度來(lái)看,個(gè)人受免自動(dòng)化決策的權(quán)利強(qiáng)調(diào)在顧及數(shù)據(jù)主體權(quán)利前提下,有效平衡個(gè)人、社會(huì)和國(guó)家之間的利益。因此,個(gè)人免受自動(dòng)化決策的權(quán)利的效力應(yīng)當(dāng)是一種相對(duì)效力。它需要承認(rèn)數(shù)據(jù)具有公共性的一面,并需要容忍數(shù)據(jù)控制者在“合理范圍”內(nèi)的后續(xù)利用。[38]該權(quán)利保護(hù)的重點(diǎn)在于如何實(shí)現(xiàn)數(shù)據(jù)所有者、數(shù)據(jù)使用者和國(guó)家之間的權(quán)利義務(wù)的有效配置,并在具體實(shí)踐中對(duì)此消彼長(zhǎng)的權(quán)益訴求作出實(shí)質(zhì)平衡。獲得人類(lèi)干預(yù)的權(quán)利、表達(dá)異議或質(zhì)疑的權(quán)利、算法解釋的權(quán)利、個(gè)人數(shù)據(jù)的權(quán)利、數(shù)據(jù)刪除權(quán)、數(shù)據(jù)更正權(quán)、算法解釋權(quán)等諸多子權(quán)利均應(yīng)對(duì)此作出積極調(diào)適。[39]
作為一種方法論而存在的平衡論,有助于進(jìn)一步強(qiáng)調(diào)個(gè)人免受自動(dòng)化決策的權(quán)利的動(dòng)態(tài)屬性。既有個(gè)人免受自動(dòng)化決策的權(quán)利的保護(hù)進(jìn)路主要是圍繞該權(quán)利所涉及的財(cái)產(chǎn)權(quán)和隱私權(quán)來(lái)構(gòu)建制度的。這種理路具有較強(qiáng)的信息控制論色彩,強(qiáng)調(diào)權(quán)利人應(yīng)當(dāng)是數(shù)據(jù)信息的控制者,它們主張從靜態(tài)角度來(lái)看待個(gè)人免受自動(dòng)化決策的權(quán)利。然而,“個(gè)人數(shù)據(jù)從來(lái)就不是完全由個(gè)人有效控制的,對(duì)有些數(shù)據(jù),個(gè)人可能是最初控制者,以后由于數(shù)據(jù)處理行為而喪失控制;對(duì)有些數(shù)據(jù),個(gè)人則可能從來(lái)就不曾有過(guò)控制”,[40]P38它們往往處于流動(dòng)過(guò)程中,個(gè)人免受自動(dòng)化決策的權(quán)利也是一種動(dòng)態(tài)性的權(quán)利。從平衡論的角度出來(lái),我們應(yīng)當(dāng)將個(gè)人免受自動(dòng)化決策的權(quán)利放在算法決策大規(guī)模進(jìn)入公共領(lǐng)域這一現(xiàn)實(shí)背景下來(lái)構(gòu)建相關(guān)制度,從而確保在保護(hù)與應(yīng)用、安全與流動(dòng)之間尋找到合適的平衡點(diǎn)。在此過(guò)程中,個(gè)人免受自動(dòng)化決策的權(quán)利是哈貝馬斯所說(shuō)的一種具有溝通和關(guān)系意義的權(quán)利。哈貝馬斯認(rèn)為:“權(quán)利畢竟不是一支槍?zhuān)膊皇且慌_(tái)獨(dú)角戲。它是一種關(guān)系、一種慣例而在那兩者的根本方面,它是關(guān)聯(lián)性的一種表達(dá)。權(quán)利是一些公共的主張,既包含針對(duì)他人的資格要求,也包括對(duì)他人所負(fù)有的種種義務(wù)。從表面上看,它們至少是一種形式的社會(huì)合作——毫無(wú)疑問(wèn),不是自發(fā)的合作,而是高度組織化的社會(huì)合作,但歸根結(jié)底,仍然是合作?!盵41]P110-111它像一個(gè)交流平臺(tái)和背景,能夠把自動(dòng)化決策過(guò)程中的各方利益聚焦起來(lái),并在此基礎(chǔ)上達(dá)成一種反思性的動(dòng)態(tài)平衡。除此之外,平衡論對(duì)軟法的強(qiáng)調(diào)有助于構(gòu)建一套個(gè)人免受自動(dòng)化決策權(quán)利保護(hù)的多元體系。個(gè)人免受自動(dòng)化決策權(quán)利所針對(duì)的對(duì)象除了政府權(quán)力之外,還有算法權(quán)力。這些權(quán)力在技術(shù)的加持下,變得愈來(lái)愈架構(gòu)化、隱蔽化和碎片化。傳統(tǒng)的以他律機(jī)制為核心的硬法既難以應(yīng)對(duì)國(guó)家權(quán)力和算法權(quán)力對(duì)個(gè)人免受自動(dòng)化決策權(quán)利造成的侵犯,又難以讓個(gè)人基于數(shù)據(jù)主體身份而分享數(shù)據(jù)行業(yè)發(fā)展帶來(lái)的社會(huì)效益。因此,平衡論除了強(qiáng)調(diào)進(jìn)一步加強(qiáng)硬法建設(shè)以外,還強(qiáng)調(diào)需要加強(qiáng)公共部門(mén)算法問(wèn)責(zé)機(jī)制、自動(dòng)化決策倫理審查機(jī)制、資源分配優(yōu)先級(jí)機(jī)制等建設(shè)。這些機(jī)制往往具有一定的籠統(tǒng)性、原則性、模糊性和制度彈性,在適用過(guò)程中有較大的回旋余地與調(diào)整空間。這些機(jī)制規(guī)范可以彌補(bǔ)硬法在保護(hù)個(gè)人免受自動(dòng)化決策權(quán)利方面的不足,并連同硬法制度體系一起,形成一套多元化的融貫于事前、事中和事后的全過(guò)程保護(hù)機(jī)制。
平衡論的基本理念既改變著我們對(duì)于個(gè)人免受自動(dòng)化決策權(quán)利本身的認(rèn)識(shí),又為我們處理數(shù)據(jù)主體權(quán)利和數(shù)據(jù)產(chǎn)業(yè)發(fā)展之間的關(guān)系提供了方法論基礎(chǔ)。我們應(yīng)當(dāng)從平衡論理念出發(fā),在充分考慮數(shù)據(jù)主體個(gè)人利益和公共利益之間平衡的基礎(chǔ)上,構(gòu)建一套個(gè)人免受自動(dòng)化決策的法律制度體系。這需要我們對(duì)自動(dòng)化決策的具體場(chǎng)景和各個(gè)場(chǎng)景涉及的權(quán)利重要性進(jìn)行區(qū)別,建立一套分級(jí)保護(hù)機(jī)制;需要對(duì)個(gè)人免受自動(dòng)化決策的過(guò)程進(jìn)行區(qū)分,建立一套全過(guò)程平衡保護(hù)機(jī)制;需要對(duì)個(gè)人免受自動(dòng)化決策的法律制度體系進(jìn)行劃分,建立一套硬法與軟法協(xié)同保護(hù)機(jī)制。因此,平衡論的基本理念滲透到有關(guān)個(gè)人免受自動(dòng)化決策的全過(guò)程。
自動(dòng)化決策已經(jīng)廣泛運(yùn)用于社會(huì)生活的諸多場(chǎng)境,并在給人們生活帶來(lái)便利、高效的同時(shí),也存在某些場(chǎng)合侵犯人的尊嚴(yán)和權(quán)利、違背正當(dāng)程序原則的風(fēng)險(xiǎn)。因此,我們既不能對(duì)自動(dòng)化決策的運(yùn)用采取完全禁止的態(tài)度,也不能采取放任不管的態(tài)度,而應(yīng)當(dāng)在數(shù)據(jù)主體與數(shù)據(jù)控制者之間采取一種平衡的態(tài)度。這種平衡的態(tài)度,要求法律應(yīng)當(dāng)從自動(dòng)化決策過(guò)程中涉及的具體權(quán)利和社會(huì)利益的重要程度出發(fā),結(jié)合具體的場(chǎng)境,采取一種相對(duì)實(shí)用主義的方法來(lái)提出制度解決方案。某項(xiàng)權(quán)利對(duì)數(shù)據(jù)主體愈重要,也就意味著與個(gè)人尊嚴(yán)關(guān)聯(lián)度就愈高,法律就愈應(yīng)當(dāng)防止自動(dòng)化決策對(duì)數(shù)據(jù)主體的侵害。反之,某些自動(dòng)化決策可能會(huì)實(shí)現(xiàn)更大的社會(huì)利益,在符合比例原則的前提下,可以適當(dāng)限制個(gè)人免受自動(dòng)化決策的權(quán)利。因此,免受自動(dòng)化決策的分級(jí)保護(hù),理應(yīng)是平衡論的應(yīng)有之義。近年來(lái),實(shí)務(wù)界也在試探著建立一套免受自動(dòng)化決策的分級(jí)保護(hù)機(jī)制。2019年加拿大頒布了《自動(dòng)化決策指令》,從個(gè)人或集體的權(quán)利,個(gè)人或集體的健康和舒適,個(gè)人、實(shí)體或集體的經(jīng)濟(jì)利益、生態(tài)系統(tǒng)的可持續(xù)性四個(gè)維度將自動(dòng)化決策分為四個(gè)等級(jí):一級(jí)自動(dòng)化決策通常會(huì)對(duì)上面因素產(chǎn)生可逆且暫時(shí)的影響;二級(jí)自動(dòng)化決策對(duì)上面因素產(chǎn)生可以可逆的短期影響;三級(jí)自動(dòng)化決策對(duì)上面因素產(chǎn)生難以逆轉(zhuǎn)的持續(xù)性影響;四級(jí)自動(dòng)化決策對(duì)上面因素產(chǎn)生不可逆的永久性影響。[42]盡管《自動(dòng)化決策指令》整體上具有較強(qiáng)的原則性和指導(dǎo)性,但這種思路和想法值得我們進(jìn)一步深化。筆者認(rèn)為,我們可以從以下層面來(lái)對(duì)免受自動(dòng)化決策進(jìn)行分級(jí)保護(hù)。
第一, 對(duì)生命權(quán)、自由權(quán)等重大基本權(quán)利作出處分的事項(xiàng)、對(duì)社會(huì)發(fā)展和生態(tài)系統(tǒng)可持續(xù)發(fā)展產(chǎn)生重大影響的事項(xiàng),不應(yīng)該采用自動(dòng)化決策。生命權(quán)、自由權(quán)等基本人權(quán)的處分和限制只應(yīng)該由人來(lái)作出,因?yàn)檫@種決策需要決策者具有高度的共情心和同理心,并且充分體現(xiàn)一種同理心正義。[30]自動(dòng)化決策的主體不是人,而且決策依據(jù)的機(jī)器倫理難以轉(zhuǎn)換成人類(lèi)倫理,這直接影響被決策者對(duì)于自動(dòng)化決策結(jié)果的接受程度。就對(duì)社會(huì)發(fā)展和生態(tài)系統(tǒng)可持續(xù)發(fā)展產(chǎn)生重大影響的事項(xiàng)而言,這些決策活動(dòng)不單是一種科學(xué)性的活動(dòng),也是一種民主性的活動(dòng),因此,這些事項(xiàng)的決策應(yīng)當(dāng)強(qiáng)調(diào)決策的開(kāi)放性、參與性和論證性。自動(dòng)化決策因數(shù)據(jù)前見(jiàn)、反復(fù)迭代和“算法黑箱”等問(wèn)題,既有可能在科學(xué)性上存在問(wèn)題,也可能將社會(huì)公眾拒之門(mén)外。一旦人們將對(duì)社會(huì)發(fā)展和生態(tài)系統(tǒng)可持續(xù)發(fā)展產(chǎn)生重大影響的事項(xiàng)交由自動(dòng)化決策,就極有可能給社會(huì)帶來(lái)永久性不可逆的影響。例如,政府在審批修建核電站的申請(qǐng)時(shí),不能將這種決策權(quán)交給自動(dòng)化決策系統(tǒng)來(lái)完成,因?yàn)楹穗娬镜男藿?,涉及面廣、社會(huì)影響大。政府在決策時(shí)除了要進(jìn)行項(xiàng)目可行性分析外,還要進(jìn)行環(huán)境影響評(píng)估、社會(huì)穩(wěn)定風(fēng)險(xiǎn)評(píng)估等。這些評(píng)估除了是一個(gè)科學(xué)認(rèn)知的問(wèn)題外,還是一個(gè)風(fēng)險(xiǎn)感知的問(wèn)題。風(fēng)險(xiǎn)感知活動(dòng)既是一種需要運(yùn)用科學(xué)理性的活動(dòng),也是一種需要運(yùn)用社會(huì)理性的活動(dòng)。這兩種理性保持著互相交織、互相依賴(lài)的狀況,從而使人們?nèi)娴匕盐帐挛锏谋举|(zhì)。[43]P30倘若把這種決策活動(dòng)交由自動(dòng)化決策系統(tǒng)來(lái)完成,就忽視了社會(huì)理性在決策中的作用。
第二, 對(duì)數(shù)據(jù)主體積極性權(quán)利會(huì)產(chǎn)生一般性影響,需要經(jīng)過(guò)當(dāng)事人同意才能運(yùn)用自動(dòng)化決策。同意原則是數(shù)據(jù)法領(lǐng)域中的一個(gè)核心范疇,它強(qiáng)調(diào)數(shù)據(jù)控制者在自動(dòng)化決策過(guò)程中既要履行信息透明和公開(kāi)的消極義務(wù),又強(qiáng)調(diào)履行接受數(shù)據(jù)主體進(jìn)行查詢(xún)、質(zhì)詢(xún)等積極義務(wù)。[44]同意原則一方面能夠在數(shù)據(jù)控制者和數(shù)據(jù)主體之間進(jìn)行一定的平衡,以防止算法權(quán)力濫用;另一方面也具有一定的自甘風(fēng)險(xiǎn)色彩,從而對(duì)數(shù)據(jù)控制的侵權(quán)行為實(shí)現(xiàn)有限豁免,有助于推進(jìn)自動(dòng)化決策技術(shù)的發(fā)展。例如,中國(guó)在2021年審議通過(guò)的《個(gè)人信息保護(hù)法》就明確規(guī)定了同意原則是利用個(gè)人數(shù)據(jù)和信息進(jìn)行自動(dòng)化決策的一個(gè)條件。在實(shí)踐中,我們可以從29 條工作組發(fā)布的《有關(guān) GDPR 自動(dòng)化個(gè)人決策和識(shí)別分析的準(zhǔn)則》關(guān)于“法律影響”和“近似重大影響”的解釋來(lái)反向定義一般性影響。在該準(zhǔn)則中,“法律影響”和“近似重大影響”往往意味著某些決策活動(dòng)直接會(huì)給數(shù)據(jù)主體帶來(lái)不利后果。例如,被剝奪某種法律權(quán)益、拒絕進(jìn)入邊境,或者對(duì)個(gè)人境況、行為存在歧視或排斥的潛在可能性。這些“法律影響”和“近似重大影響”往往是對(duì)個(gè)人消極性權(quán)利造成的影響。而涉及數(shù)據(jù)主體積極性權(quán)利的自動(dòng)化決策,需要經(jīng)過(guò)當(dāng)事人同意才能運(yùn)用。
第三, 對(duì)集體性利益或社會(huì)利益帶來(lái)可逆的短期影響時(shí),需要履行說(shuō)明義務(wù)后,才能運(yùn)用自動(dòng)化決策。在實(shí)踐中,某些自動(dòng)化決策并不是針對(duì)某個(gè)特定的個(gè)體,而是針對(duì)集體或社會(huì)作出的。這種集體性利益或社會(huì)利益難以由某個(gè)個(gè)體來(lái)代表,同意愿則在這種情況下無(wú)法奏效。因此,法律應(yīng)當(dāng)要求數(shù)據(jù)控制者履行說(shuō)明義務(wù),就自動(dòng)化決策的依據(jù)、自動(dòng)化決策帶來(lái)的可能后果以及彌補(bǔ)這種不利后果的后續(xù)措施等內(nèi)容進(jìn)行必要的解釋和說(shuō)明。
第四,對(duì)不涉及到價(jià)值判斷的事實(shí)性問(wèn)題的識(shí)別和證據(jù)固定等事宜,在技術(shù)條件允許的情況下,可以不經(jīng)當(dāng)事人同意或說(shuō)明,就可應(yīng)用自動(dòng)化決策。就某一項(xiàng)特定的人類(lèi)活動(dòng)而言,我們可以區(qū)分為觀測(cè)、分析和行動(dòng)三個(gè)部分。從信息處理角度來(lái)看,觀測(cè)強(qiáng)調(diào)信息的獲??;分析強(qiáng)調(diào)對(duì)獲取的信息依據(jù)一定的知識(shí)進(jìn)行分析;行動(dòng)強(qiáng)調(diào)經(jīng)過(guò)分析的信息通過(guò)行動(dòng)機(jī)制轉(zhuǎn)換成現(xiàn)實(shí)的結(jié)果。[45]P1769在這個(gè)人類(lèi)活動(dòng)鏈條中,觀測(cè)愈中立、客觀,后面的分析和行動(dòng)的效果就愈好。就事實(shí)性問(wèn)題而言,它在人類(lèi)活動(dòng)鏈條中處理觀測(cè)部分,自動(dòng)化決策往往具有更高的精準(zhǔn)性和高效性。例如,交通抓拍中對(duì)違章車(chē)輛進(jìn)行識(shí)別和證據(jù)固定、火車(chē)站和飛機(jī)場(chǎng)等重要領(lǐng)域進(jìn)行人臉識(shí)別、醫(yī)療過(guò)程中智慧手術(shù)等。這些問(wèn)題往往涉及的是事實(shí)性問(wèn)題的認(rèn)識(shí)和證據(jù)固定問(wèn)題,而較少涉及價(jià)值判斷。允許對(duì)這些事項(xiàng)進(jìn)行自動(dòng)化決策能夠提升工作效率。
自動(dòng)化決策是一種“大數(shù)據(jù)加持機(jī)器學(xué)習(xí)模型,在范圍不確定的環(huán)境中進(jìn)行規(guī)律挖掘或模式識(shí)別,替代自然人實(shí)現(xiàn)溫故而知新的基礎(chǔ)性預(yù)測(cè)工作與規(guī)范性鑒別工作”。[46]它既涉及到數(shù)據(jù)收集、數(shù)據(jù)存儲(chǔ)、數(shù)據(jù)檢索、數(shù)據(jù)修改、數(shù)據(jù)降噪、數(shù)據(jù)共享等數(shù)據(jù)處理過(guò)程,又涉及到算法開(kāi)發(fā)、算法運(yùn)行、算法結(jié)果檢驗(yàn)等環(huán)節(jié)。[47]P216-239每個(gè)環(huán)節(jié)所解決的問(wèn)題會(huì)有不同,所涉及的權(quán)利和利益也有不同。在不同的環(huán)節(jié)或節(jié)點(diǎn)上,法律所要保護(hù)的側(cè)重點(diǎn)和方式也會(huì)有所不同。因此,免受自動(dòng)化決策的法律保護(hù)本身就是一種全過(guò)程的動(dòng)態(tài)性保護(hù)。具體來(lái)講,免受自動(dòng)化決策的全過(guò)程平衡保護(hù)可以分為前端、中端和后端三個(gè)層面。
就前端而言,它主要涉及自動(dòng)化決策系統(tǒng)的開(kāi)發(fā)和設(shè)計(jì)問(wèn)題。隨著人工智能技術(shù)的發(fā)展,自動(dòng)化決策主要包括基于機(jī)器學(xué)習(xí)的算法自動(dòng)化決策和基于神經(jīng)網(wǎng)絡(luò)的超級(jí)自動(dòng)化決策兩種基本類(lèi)型。它們能夠通過(guò)智能算法和數(shù)據(jù)訓(xùn)練,并借助反復(fù)迭代和遞歸技術(shù)完成期待的價(jià)值選擇。[48]因此,自動(dòng)化決策系統(tǒng)的前端治理具有重要意義,它能夠?qū)⒂行﹩?wèn)題在自動(dòng)化決策系統(tǒng)的開(kāi)發(fā)和設(shè)計(jì)階段就進(jìn)行處理。在實(shí)踐中,自動(dòng)化決策系統(tǒng)的評(píng)估就是一種前端保護(hù)機(jī)制。評(píng)估的內(nèi)容主要包括:(1)對(duì)自動(dòng)化決策系統(tǒng)進(jìn)行詳細(xì)描述;(2)系統(tǒng)的相對(duì)成本和收益;(3)是否存在侵犯?jìng)€(gè)人隱私和信息安全的風(fēng)險(xiǎn);(4)應(yīng)對(duì)最小化風(fēng)險(xiǎn)的主要步驟。[49]在前端治理過(guò)程中,如何在保護(hù)數(shù)據(jù)主體基本權(quán)利的前提下,最大限度地釋放數(shù)據(jù)行業(yè)的活力是一個(gè)核心問(wèn)題。為了實(shí)現(xiàn)這一目標(biāo),自動(dòng)化決策系統(tǒng)評(píng)估機(jī)制引入了成本-收益方法,并提出最小化風(fēng)險(xiǎn)的概念。這也就意味著自動(dòng)化決策系統(tǒng)的開(kāi)發(fā)和設(shè)計(jì)遵循的是一種功利主義原則,并通過(guò)一定的彌補(bǔ)措施來(lái)克服功利主義原則存在的問(wèn)題。
就中端而言,它主要涉及自動(dòng)化決策系統(tǒng)的具體運(yùn)用問(wèn)題。從前端上講,法律已經(jīng)盡最大可能地為自動(dòng)化決策技術(shù)的發(fā)展保留了空間,盡管在自動(dòng)化決策運(yùn)用過(guò)程中還會(huì)涉及到自動(dòng)化決策技術(shù)的發(fā)展問(wèn)題。為了防止自動(dòng)化決策和算法權(quán)力的濫用,實(shí)現(xiàn)數(shù)據(jù)控制者與數(shù)據(jù)主體的利益平衡,法律應(yīng)當(dāng)將是否愿意接受自動(dòng)化決策的選擇權(quán)交由數(shù)據(jù)主體自己來(lái)決定,在此過(guò)程中,決策者應(yīng)當(dāng)對(duì)自動(dòng)化決策進(jìn)行解釋。但是,解釋自動(dòng)化決策的過(guò)程也是一個(gè)溝通和平衡的過(guò)程,它并不是為了實(shí)現(xiàn)“沒(méi)有意義的透明”,或者建立個(gè)體對(duì)于算法的絕對(duì)性控制,而是形成一種溝通和信任關(guān)系。如果個(gè)體要求解釋自動(dòng)化決策的請(qǐng)求權(quán)和決策者解釋權(quán)行使恰當(dāng),解釋權(quán)就可以充當(dāng)溝通與信任的橋梁,既可以消除個(gè)體的疑慮,又可以成為信息主體傾聽(tīng)消費(fèi)者、改進(jìn)服務(wù)的渠道。反之,自動(dòng)化決策的解釋可能成為進(jìn)一步破壞信任關(guān)系的壁壘。[50]因此,在具體的制度構(gòu)建中,法律應(yīng)當(dāng)更多地從程序上來(lái)設(shè)置自化動(dòng)決策解釋權(quán)。其理由主要有以下兩方面;一方面,自動(dòng)化決策是一種高度專(zhuān)業(yè)化的活動(dòng),絕大多數(shù)非專(zhuān)業(yè)人士并不具備相關(guān)的理解能力。通過(guò)賦予個(gè)體要求過(guò)多實(shí)體性?xún)?nèi)容的權(quán)利,極有可能產(chǎn)生更多的誤解;另一方面,強(qiáng)調(diào)從程序上設(shè)置自動(dòng)化決策解釋權(quán),實(shí)質(zhì)是將相關(guān)的義務(wù)苛以決策者一方,從而對(duì)決策者形成一種“作蠻自縛”效應(yīng)。
就后端而言,它主要涉及自動(dòng)化決策發(fā)生侵害數(shù)據(jù)主體權(quán)利問(wèn)題。在制度構(gòu)建上,這里主要存在兩種情形:第一種是行政機(jī)關(guān)運(yùn)用自動(dòng)化決策。在這種情形下,自動(dòng)化決策是作為行政權(quán)力行使的一種工具而存在的,行政機(jī)關(guān)應(yīng)當(dāng)就自動(dòng)化決策發(fā)生的侵害行為承擔(dān)責(zé)任。在實(shí)踐中,自動(dòng)化行政決策是否享有一定自由裁量的空間問(wèn)題是一個(gè)值得關(guān)注的問(wèn)題。就目前來(lái)看,自動(dòng)化行政技術(shù)水平仍然主要處于靜態(tài)反饋階段,難以處理需要裁量的不完全信息,因此,還不具有自由裁量能力。[51]第二種是民事領(lǐng)域運(yùn)用自動(dòng)化決策。在這種情形下,我們需要考慮自動(dòng)化決策中侵權(quán)相關(guān)關(guān)系、責(zé)任主體、責(zé)任方式、主觀過(guò)錯(cuò)等因素。倘若自動(dòng)化決策設(shè)計(jì)者和使用者因過(guò)錯(cuò)造成算法缺陷,對(duì)他人造成損害的,設(shè)計(jì)者、使用者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。算法自動(dòng)決策投入使用后發(fā)現(xiàn)存在缺陷的,設(shè)計(jì)者、使用者應(yīng)當(dāng)及時(shí)采取補(bǔ)救措施。未及時(shí)采取補(bǔ)救措施或補(bǔ)救措施不力造成損害的,應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。明知算法存在缺陷仍然設(shè)計(jì)、使用,造成他人財(cái)產(chǎn)、精神健康嚴(yán)重?fù)p害的,被侵權(quán)人有權(quán)請(qǐng)求相應(yīng)的懲罰性賠償。[52]在這兩種情形下,法院都應(yīng)當(dāng)意識(shí)到自動(dòng)化決策的高度復(fù)雜性,它可能會(huì)涉及一些高度不確定性的未知事項(xiàng)。法院應(yīng)當(dāng)在法律與科技之間進(jìn)行有效平衡,即在維護(hù)數(shù)據(jù)主體權(quán)利的同時(shí),也應(yīng)當(dāng)對(duì)科技問(wèn)題保持適度的司法節(jié)制,不要過(guò)多地對(duì)自動(dòng)化決策的技術(shù)問(wèn)題及其相關(guān)的技術(shù)標(biāo)準(zhǔn)問(wèn)題進(jìn)行實(shí)質(zhì)性判斷。
自動(dòng)化決策技術(shù)正處于起步發(fā)展階段,法律的功能并不是要遏制這一技術(shù)的發(fā)展,而是要科學(xué)有效地引導(dǎo)該技術(shù)的發(fā)展。然而,在實(shí)踐中,各方的權(quán)利邊界還難以劃分清楚,各種新的法律糾紛形態(tài)還在不斷出現(xiàn),這給傳統(tǒng)的以強(qiáng)制力為保障的硬法機(jī)制帶來(lái)了挑戰(zhàn)。軟法保護(hù)機(jī)制能夠以原則性、靈活性和較強(qiáng)的制度彈性彌補(bǔ)硬法機(jī)制在平衡個(gè)人權(quán)利和技術(shù)發(fā)展之間的不足。具體來(lái)講,這種軟法機(jī)制主要包括:(1)自動(dòng)化決策的技術(shù)標(biāo)準(zhǔn)。技術(shù)標(biāo)準(zhǔn)制定過(guò)程既是一個(gè)科學(xué)化的過(guò)程,也是一個(gè)多方主體之間利益的博弈和平衡過(guò)程。而且,在不同場(chǎng)境中參與博弈和平衡的主體及其代表的利益是不同的。因此,應(yīng)當(dāng)根據(jù)不同場(chǎng)境來(lái)分散制定自動(dòng)化決策的具體技術(shù)標(biāo)準(zhǔn)。[53](2)自動(dòng)化決策風(fēng)險(xiǎn)評(píng)估機(jī)制。風(fēng)險(xiǎn)評(píng)估機(jī)制是對(duì)自動(dòng)化決策可能帶來(lái)的影響或損失的可能程度進(jìn)行量化評(píng)估,它主要包括風(fēng)險(xiǎn)量化和風(fēng)險(xiǎn)交流兩個(gè)階段。風(fēng)險(xiǎn)交流在本質(zhì)上是一種溝通活動(dòng),能夠在各方主體之間進(jìn)行平衡,對(duì)于自動(dòng)化決策系統(tǒng)的開(kāi)發(fā)和設(shè)計(jì)具有重要作用。(3)自動(dòng)化決策的倫理規(guī)范??萍紓惱硪?guī)范除了具有促進(jìn)全社會(huì)去了解和監(jiān)督科技創(chuàng)新、發(fā)展與應(yīng)用,從而引導(dǎo)科技向善的功能外,還通過(guò)提煉科技領(lǐng)域具有共識(shí)性的倫理準(zhǔn)則的方式去指引科技創(chuàng)新、發(fā)展與應(yīng)用中的行為向善的功能。[54]自動(dòng)化決策作為一種具有強(qiáng)烈支配性的新興技術(shù),更應(yīng)當(dāng)以實(shí)現(xiàn)用戶(hù)的數(shù)字福祉為出發(fā)點(diǎn)來(lái)構(gòu)建倫理規(guī)范。這些倫理規(guī)范能夠在社會(huì)提出的倫理原則或指導(dǎo)方針與算法設(shè)計(jì)者或開(kāi)發(fā)者提出的目標(biāo)技術(shù)之間進(jìn)行一種反思性的平衡,并滲透到自動(dòng)化決策的各個(gè)環(huán)節(jié)。[55]P2314在具體的操作過(guò)程中,我們應(yīng)當(dāng)通過(guò)法律規(guī)范形式,對(duì)科技倫理委員會(huì)、科技倫理審查、科技倫理評(píng)估等基本治理工具進(jìn)行明確,提升科技倫理治理正式化水平。[54]
綜上,隨著人工智能、信息技術(shù)和計(jì)算科學(xué)的發(fā)展,自動(dòng)化決策在社會(huì)中運(yùn)用的范圍愈來(lái)愈廣泛。人們?cè)谙硎芩惴ê妥詣?dòng)化決策帶來(lái)便利的同時(shí),也逐步被它們嵌入化,相關(guān)數(shù)據(jù)不斷被納入算法決策系統(tǒng),并通過(guò)機(jī)器的自主學(xué)習(xí)不斷升級(jí)延展,因此,現(xiàn)代社會(huì)賴(lài)于支撐的主體性原則受到了嚴(yán)峻挑戰(zhàn)。傳統(tǒng)權(quán)利觀念中的對(duì)抗防御邏輯日益轉(zhuǎn)向?yàn)闇贤ê献鬟壿?,?quán)利的目的不再是要實(shí)現(xiàn)一種要么全贏,要么全輸?shù)摹傲愫筒┺摹钡慕Y(jié)果,而是要實(shí)現(xiàn)一種共贏結(jié)果,這也就意味著智能時(shí)代需要建立一種反思與平衡機(jī)制。如何在個(gè)人權(quán)利與科技發(fā)展之間建立一種動(dòng)態(tài)平衡關(guān)系,構(gòu)成了思考個(gè)人免受自動(dòng)化決策這一問(wèn)題的前提。我們必須將數(shù)據(jù)主體的權(quán)利放入數(shù)字科技發(fā)展的歷史洪流中來(lái)考慮,因?yàn)槿祟?lèi)生存生產(chǎn)生活各領(lǐng)域都無(wú)一不被數(shù)字化,并不斷被算法決策“算計(jì)化”。這種“算計(jì)化”因機(jī)器的深度學(xué)習(xí)而具有強(qiáng)烈的迭代性,這需要將平衡論引入數(shù)據(jù)法學(xué)領(lǐng)域,從平衡論的角度出發(fā),構(gòu)建個(gè)人免受自動(dòng)化決策的法律保護(hù)制度,實(shí)現(xiàn)從靜態(tài)保護(hù)向動(dòng)態(tài)保護(hù)、從一體保護(hù)向分級(jí)保護(hù)、從硬法保護(hù)向軟法保護(hù)、從救濟(jì)保護(hù)向全過(guò)程保護(hù)的轉(zhuǎn)型。惟有這樣,法律才能促進(jìn)數(shù)據(jù)行業(yè)發(fā)展和數(shù)據(jù)主體權(quán)利之間的協(xié)同平衡發(fā)展。