亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自動(dòng)化行政中的算法決策拒絕權(quán)

        2024-06-20 10:09:51苗運(yùn)衛(wèi)

        摘 要:《中華人民共和國個(gè)人信息保護(hù)法》第二十四條第三款將對個(gè)人信息的利益保護(hù)轉(zhuǎn)變?yōu)閷λ惴Q策的行為規(guī)制,并賦予個(gè)人拒絕算法決策的權(quán)利?;谠摲ǖ墓▽傩约捌湓谛姓I(lǐng)域的適用性,相對人享有在自動(dòng)化行政中的算法決策拒絕權(quán)。面對算法決策方式對行政法治的技術(shù)挑戰(zhàn),拒絕權(quán)能夠豐富相對人在自動(dòng)化行政中的權(quán)利體系,發(fā)揮對抗算法決策異化的功能。算法決策拒絕權(quán)具有保障相對人參與自動(dòng)化行政過程,并在設(shè)置與改造的程序裝置中予以實(shí)現(xiàn)的程序?qū)傩?,以及在?quán)利地位上能夠請求利益實(shí)現(xiàn)與法律保護(hù),在權(quán)利內(nèi)涵上能夠主動(dòng)選擇的積極屬性。相對人算法決策拒絕權(quán)的實(shí)現(xiàn),需要結(jié)合該權(quán)利的程序?qū)傩院头e極屬性,構(gòu)造在自動(dòng)化行政不同環(huán)節(jié)的具有即時(shí)性特征的行使規(guī)則,包括算法決策方式選擇規(guī)則、算法決策過程脫離規(guī)則和算法決策結(jié)果抵抗規(guī)則。

        關(guān)鍵詞:自動(dòng)化行政;算法決策;算法決策拒絕權(quán);個(gè)人信息保護(hù)

        中圖分類號:D922.1文獻(xiàn)標(biāo)志碼:A文章編號:1009-055X(2024)02-0088-11

        doi:10.19366/j.cnki.1009-055X.2024.02.009

        進(jìn)入信息化時(shí)代以來,以移動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能、云計(jì)算等為驅(qū)動(dòng)的數(shù)字技術(shù)變革,深刻地影響著優(yōu)化管理和服務(wù)的公共行政改革進(jìn)程,體現(xiàn)在行政活動(dòng)開展方式的變化之上,即促成了自動(dòng)化行政方式的誕生[1]。在發(fā)展階段和具體類型上,自動(dòng)化行政包括通過算法進(jìn)行決策的完全自動(dòng)化行政[2],此時(shí),技術(shù)應(yīng)用從行政程序環(huán)節(jié)擴(kuò)展到實(shí)體決定層面,形成算法獨(dú)立分析與決斷的行政方式。算法決策給行政系統(tǒng)帶來高效的技術(shù)優(yōu)勢,也引發(fā)行政相對人對算法存在黑箱與歧視等弊病的擔(dān)憂。為相對人配置算法決策拒絕權(quán)的賦權(quán)路徑,成為應(yīng)對自動(dòng)化行政中算法決策弊端的可行方案之一?!吨腥A人民共和國個(gè)人信息保護(hù)法》(以下簡稱《個(gè)人信息保護(hù)法》)第二十四條第三款規(guī)定了個(gè)人面對算法決策時(shí)的拒絕權(quán)。但從個(gè)人信息保護(hù)領(lǐng)域到自動(dòng)化行政領(lǐng)域,相對人的算法決策拒絕權(quán)需要進(jìn)行規(guī)范證成和功能分析,并放置在行政場景下研究拒絕權(quán)的權(quán)利屬性與行使規(guī)則,以期使之成為規(guī)范算法決策方式和保障相對人合法權(quán)益的有效舉措。

        一、算法決策拒絕權(quán)的規(guī)范依據(jù)

        算法決策的概念在與自然人決策的對比中產(chǎn)生,其是指利用算法技術(shù)進(jìn)行自動(dòng)分析而得出決策結(jié)果的決策方式。通過對《個(gè)人信息保護(hù)法》公法屬性的規(guī)范解讀,并關(guān)注其中從個(gè)人信息利益保護(hù)到算法決策行為規(guī)制的思路轉(zhuǎn)變,結(jié)合自動(dòng)化行政中算法決策方式的運(yùn)行特征,可以將《個(gè)人信息保護(hù)法》作為行政領(lǐng)域中算法決策拒絕權(quán)的規(guī)范依據(jù),使之完成從新型權(quán)利到法定權(quán)利的證成。

        (一)個(gè)人信息保護(hù)中的算法決策拒絕權(quán)

        相較于依賴有限經(jīng)驗(yàn)與理性進(jìn)行利益權(quán)衡的自然人決策,算法決策在決策主體方面表現(xiàn)為由技術(shù)主導(dǎo)而非人工決定,在決策基礎(chǔ)方面則建立在數(shù)字時(shí)代和網(wǎng)絡(luò)環(huán)境中的相關(guān)個(gè)人信息之上。算法決策以高效算法為技術(shù)依托,以高速運(yùn)轉(zhuǎn)為技術(shù)樣態(tài),能夠應(yīng)對數(shù)據(jù)海量化和用戶個(gè)性化的信息社會的決策需求,因此逐漸被用于社會生活的各個(gè)領(lǐng)域,也成為行政決策的重要方式。

        算法決策不僅擁有橫跨公私法領(lǐng)域的技術(shù)優(yōu)勢,也不斷塑造著數(shù)字化與算法化的個(gè)人生存環(huán)境,繼而產(chǎn)生一系列的法律風(fēng)險(xiǎn):一是在利益誘導(dǎo)下,算法決策的應(yīng)用主體缺乏全面考慮而單方?jīng)Q定將應(yīng)用范圍無序擴(kuò)張,甚至未經(jīng)個(gè)人同意而處理敏感個(gè)人信息;二是存在于算法決策中的技術(shù)黑箱不具備透明性和可解釋性,致使個(gè)人在決策過程面臨知情難的問題;三是算法的設(shè)計(jì)偏見和技術(shù)缺陷,經(jīng)過算法決策過程將放大為侵害個(gè)人權(quán)益的歧視或錯(cuò)誤決策結(jié)果。

        隨著我國數(shù)字經(jīng)濟(jì)的快速崛起,體現(xiàn)保護(hù)個(gè)人信息之時(shí)代需求和民眾訴求的《個(gè)人信息保護(hù)法》于2021年8月20日正式出臺,成為我國個(gè)人信息保護(hù)領(lǐng)域具有綜合性與專門性特征的法律基石。《個(gè)人信息保護(hù)法》第二十四條采取算法透明化要求和個(gè)體賦權(quán)的方式對算法決策進(jìn)行規(guī)范,成為該法的一大亮點(diǎn)[3]。其中,該法第二十四條第三款賦予個(gè)人在其權(quán)益受到重大影響時(shí)對算法決策的請求說明權(quán)和拒絕權(quán)。該條款并未拘束于對個(gè)人信息的利益保護(hù),而是轉(zhuǎn)變?yōu)閷λ惴Q策的行為規(guī)制,即只要采用的算法決策方式對個(gè)人權(quán)益產(chǎn)生重大影響,個(gè)人就有權(quán)予以拒絕。

        歐盟《通用數(shù)據(jù)保護(hù)條例》也對算法決策方式進(jìn)行了規(guī)范,其中第二十二條第一款規(guī)定,數(shù)據(jù)主體有權(quán)拒絕完全依靠自動(dòng)化處理方式對其作出的具有法律影響或其他嚴(yán)重影響的決策。為解釋該條款,第29條數(shù)據(jù)保護(hù)工作組(WP29)制定的《為實(shí)施第2016/679號條例的自動(dòng)化決策和分析指南》中明確,拒絕權(quán)并非僅在數(shù)據(jù)主體積極援引時(shí)才能適用,而是對完全自動(dòng)化決策的普遍禁止。因此,歐盟采取“嚴(yán)格禁令”方式對待算法決策,形成了以“禁止為常態(tài),應(yīng)用為例外”的基本態(tài)度。相較而言,結(jié)合我國算法決策的應(yīng)用實(shí)踐和《個(gè)人信息保護(hù)法》的規(guī)范文本,我國對于算法決策的規(guī)制不應(yīng)解釋為“嚴(yán)格禁令”方式,而傾向于一種“主動(dòng)權(quán)利”方式,即當(dāng)滿足算法透明和公正要求時(shí),個(gè)人信息處理者可以采取算法決策方式,而算法決策拒絕權(quán)由個(gè)體主動(dòng)行使,以此來平衡算法決策的應(yīng)用和個(gè)人權(quán)益的保護(hù)。

        (二)自動(dòng)化行政中的算法決策拒絕權(quán)

        屬于領(lǐng)域立法的《個(gè)人信息保護(hù)法》采取兼容公法保護(hù)和私法保護(hù)進(jìn)路的統(tǒng)一立法保護(hù)模式[4],這使得該法成為公私法交融、超越單一部門法的個(gè)人信息保護(hù)立法?!秱€(gè)人信息保護(hù)法》對國家機(jī)關(guān)處理個(gè)人信息的規(guī)定能夠體現(xiàn)該法的公法屬性。具體而言,該法要求國家尊重個(gè)人信息主體,通過規(guī)范國家機(jī)關(guān)對個(gè)人信息的處理行為,使之符合法律規(guī)定的權(quán)限與程序,以防范侵害個(gè)人信息權(quán)益的公權(quán)行為[5]。據(jù)此,《個(gè)人信息保護(hù)法》中規(guī)制算法決策的內(nèi)容理應(yīng)適用于行政領(lǐng)域,其賦予個(gè)人對算法決策的拒絕權(quán)也具有公法上的權(quán)利形態(tài)。由此出發(fā),自動(dòng)化行政中相對人享有的算法決策拒絕權(quán)能夠以《個(gè)人信息保護(hù)法》為規(guī)范依據(jù)。

        討論自動(dòng)化行政中相對人的算法決策拒絕權(quán),一個(gè)必要前提是認(rèn)識自動(dòng)化行政的算法決策方式。在行政領(lǐng)域分析算法決策的運(yùn)行特征,需要建立在完全自動(dòng)化行政的發(fā)展階段和類型基礎(chǔ)之上。自動(dòng)化行政作為開展行政活動(dòng)的新型方式,其產(chǎn)生與發(fā)展和數(shù)字技術(shù)引入公共行政的歷史進(jìn)程緊密相關(guān),根據(jù)技術(shù)變革與應(yīng)用程度的差異可以劃分為部分自動(dòng)化行政和完全自動(dòng)化行政[2]。在完全自動(dòng)化行政中,技術(shù)系統(tǒng)不再局限于發(fā)揮程序性或輔助性的功能,而是涉足行政活動(dòng)的實(shí)體決定層面,取代人成為決策的主導(dǎo)者,從而使行政活動(dòng)的實(shí)體決策過程呈現(xiàn)自動(dòng)化特征。通過算法決策方式開展行政活動(dòng),需要以個(gè)人信息作為資源要素和以算法技術(shù)作為行為要素:一方面,通過對由個(gè)人信息構(gòu)成的數(shù)據(jù)化基礎(chǔ)的分析,行政機(jī)關(guān)實(shí)現(xiàn)治理對象的可計(jì)算性和行政活動(dòng)的可預(yù)測性要求;另一方面,隨著人工智能算法的產(chǎn)生與應(yīng)用,算法決策所依賴的算法并非人工編寫而是系統(tǒng)生成,決策結(jié)果也是由人工智能算法根據(jù)輸入數(shù)據(jù)而自主作出,真正在功能上形成脫離人的參與或控制的自動(dòng)化決策[6]57。

        因此,在自動(dòng)化行政中,行政主體依賴個(gè)人信息與算法技術(shù)開展行政活動(dòng),自動(dòng)化行政行為與個(gè)人信息處理行為高度契合,但屬于權(quán)力的擴(kuò)張本質(zhì)讓個(gè)人信息面臨來自行政機(jī)關(guān)處理行為的安全威脅,作為個(gè)人信息處理者的行政主體“本身也需要被納入監(jiān)管”[7]。此外,算法決策方式的引入,不僅會削弱正當(dāng)程序制度防范與矯正傳統(tǒng)決策失當(dāng)?shù)墓δ埽€將引發(fā)技術(shù)權(quán)力異化侵犯個(gè)人權(quán)益的新風(fēng)險(xiǎn)。此時(shí),面臨減損威脅的不僅是個(gè)人信息權(quán)益,還包括個(gè)人信息載體之外的其他人身權(quán)益與財(cái)產(chǎn)權(quán)益?!秱€(gè)人信息保護(hù)法》第二十四條第三款將對個(gè)人信息的利益保護(hù)轉(zhuǎn)變?yōu)閷λ惴Q策的行為規(guī)制,并將規(guī)制算法決策的目的由保護(hù)個(gè)人信息權(quán)益擴(kuò)展到個(gè)人權(quán)益,符合在自動(dòng)化行政中應(yīng)用算法決策時(shí)保護(hù)相對人合法權(quán)益的需求。

        當(dāng)然,拒絕權(quán)并不等于拒絕數(shù)字化[8],賦予相對人算法決策拒絕權(quán)也絕非以“退回到一個(gè)前數(shù)字時(shí)代的方式”[9]來抵制數(shù)字政府建設(shè)的發(fā)展趨勢。算法決策拒絕權(quán)與數(shù)字政府建設(shè)的平衡策略在于:第一,《個(gè)人信息保護(hù)法》以“主動(dòng)權(quán)利”而非“嚴(yán)格禁令”方式規(guī)制算法決策,即自動(dòng)化行政中的算法決策并非為立法所完全禁止,而是相對人能夠主動(dòng)拒絕的權(quán)利對象。因此,賦予相對人以算法決策拒絕權(quán),具有行政系統(tǒng)引入數(shù)字技術(shù)應(yīng)當(dāng)契合相對人利益訴求的意蘊(yùn),符合數(shù)字政府建設(shè)應(yīng)當(dāng)“堅(jiān)持以人民為中心”的基本原則【參見《國務(wù)院關(guān)于加強(qiáng)數(shù)字政府建設(shè)的指導(dǎo)意見》(國發(fā)〔2022〕14號)。】。第二,算法決策是脫離人的控制與參與的決策方式,這意味著算法決策拒絕權(quán)并非針對所有的自動(dòng)化行政活動(dòng),其權(quán)利行使場景被限定為完全自動(dòng)化行政。第三,鑒于自動(dòng)化行政所承載的公共利益需要,相對人算法決策拒絕權(quán)的享有與行使應(yīng)當(dāng)具有一定的條件限制,需要在特定情形下認(rèn)同行政機(jī)關(guān)對算法決策的選擇與安排,包括在已具備技術(shù)普及條件與社會認(rèn)同基礎(chǔ)時(shí)僅提供自動(dòng)化行政方式,如通過電子技術(shù)監(jiān)控設(shè)備進(jìn)行的非現(xiàn)場執(zhí)法,以及在特殊場景中適用自動(dòng)化行政方式,如突發(fā)公共衛(wèi)生事件中“健康碼”的應(yīng)用等。

        二、自動(dòng)化行政中算法決策拒絕權(quán)的功能

        自動(dòng)化行政方式的興起,關(guān)鍵在于其具有效率與公正價(jià)值。然而,自動(dòng)化行政在將技術(shù)優(yōu)勢引入行政系統(tǒng)的同時(shí),算法決策也給行政法治帶來了實(shí)體公正和程序正當(dāng)方面的技術(shù)挑戰(zhàn)。對此,賦權(quán)是應(yīng)對算法風(fēng)險(xiǎn)的有效方式,算法決策拒絕權(quán)的功能在與其他權(quán)利的對比中得到彰顯。

        (一)算法決策對行政法治的技術(shù)挑戰(zhàn)

        人類決策不全是理性的過程,常因夾雜情感因素而在認(rèn)知和處理上出現(xiàn)偏見。算法“技術(shù)中立”的研發(fā)初衷,使其能夠排除行政過程中人為偏見而促進(jìn)行政結(jié)果的公正[10]。但技術(shù)中立的命題僅能起到在法律場景下呼吁關(guān)注技術(shù)專業(yè)性的作用,其本身并不具有價(jià)值中立的內(nèi)涵[11]。在行政活動(dòng)中發(fā)揮決策功能的算法從設(shè)計(jì)到應(yīng)用都存在價(jià)值判斷,因此需要揭開技術(shù)中立的偽命題,關(guān)注其帶來的挑戰(zhàn)人的平等、固化社會不公和減損人的價(jià)值等歧視性后果[12]。

        自動(dòng)化行政中存在不同的算法歧視類型。其一,在“輸入垃圾,輸出垃圾(garbage in, garbage out)”的計(jì)算機(jī)程序運(yùn)行規(guī)則中,當(dāng)算法決策所依賴的數(shù)據(jù)存在偏見性內(nèi)容或不相關(guān)因素,經(jīng)由算法分析得出的結(jié)果也將呈現(xiàn)歧視性內(nèi)容。實(shí)際上,這是算法技術(shù)對社會現(xiàn)實(shí)中歧視的復(fù)現(xiàn)[13],即自動(dòng)化系統(tǒng)僅是發(fā)揮著對歧視的傳輸功能。其二,人工智能算法的自主性是經(jīng)過海量數(shù)據(jù)訓(xùn)練后的結(jié)果,因此,當(dāng)算法將社會歧視內(nèi)化為自身的偏見規(guī)則,即便輸入正常數(shù)據(jù)也可能得到歧視性結(jié)果。此時(shí),算法對數(shù)據(jù)進(jìn)行關(guān)聯(lián)、歸納與推導(dǎo),形成帶有歧視的決策結(jié)果。算法本身就是歧視的來源。其三,算法作為人為技術(shù)產(chǎn)物,在設(shè)計(jì)之初便不可避免地包含設(shè)計(jì)主體的主觀認(rèn)知和價(jià)值理念。當(dāng)前自動(dòng)化行政的技術(shù)架構(gòu)主要通過合作行政方式完成,其中,技術(shù)設(shè)計(jì)內(nèi)容由行政委托或行政協(xié)議確定的技術(shù)公司完成。這意味著自動(dòng)化行政中的算法決策模型,在產(chǎn)生伊始就可能被注入來自技術(shù)公司的脫離行政機(jī)關(guān)控制的偏見內(nèi)容,進(jìn)而引發(fā)對相對人的歧視性結(jié)果。

        除了算法歧視對行政公正的挑戰(zhàn),算法決策更為嚴(yán)重的技術(shù)問題在于算法黑箱與正當(dāng)程序之間的沖突。從傳統(tǒng)官僚制行政邁進(jìn)現(xiàn)代民主制行政的進(jìn)程中,行政機(jī)關(guān)和相對人之間形成了一種互動(dòng)的行政法律關(guān)系,互動(dòng)性體現(xiàn)為對行政過程開放性和相對人參與性的正當(dāng)程序要求[14]。算法中夾雜的偏見性內(nèi)容理應(yīng)放置在開放與反思的正當(dāng)程序中進(jìn)行即時(shí)修正。然而,自動(dòng)化行政通過技術(shù)邏輯營造封閉式的行政系統(tǒng),排斥相對人參與行政活動(dòng)。由于算法專業(yè)性的技術(shù)因素、算法秘密保護(hù)的設(shè)計(jì)因素或算法理解能力的應(yīng)用因素,算法主導(dǎo)的行政決策環(huán)節(jié)處于缺乏透明與開放的技術(shù)“黑箱”之中,這與行政法治的正當(dāng)程序原則相悖。

        相對人知悉行政活動(dòng)開展的依據(jù)和程序是其參與行政的必要前提,行政機(jī)關(guān)需要通過履行行政公開和行政告知義務(wù)來滿足相對人的知情需求。但算法決策的算法技術(shù)原理和算法運(yùn)行過程并不對相對人實(shí)質(zhì)性公開,決策環(huán)節(jié)前后關(guān)聯(lián)的秘密信息收集和行政結(jié)果通知,由于依賴技術(shù)程序進(jìn)行,同樣可能致使相對人陷入知情困境。一旦獲悉行政活動(dòng)的相關(guān)信息,相對人就可以通過行政程序裝置表達(dá)意見,與行政機(jī)關(guān)溝通互動(dòng),以表示其主體地位和確保所交涉內(nèi)容的合理性。但在自動(dòng)化行政的封閉技術(shù)程序中,相對人的陳述意見難以轉(zhuǎn)化為技術(shù)語言并影響決策結(jié)果[15]。算法決策方式對數(shù)據(jù)資源的依賴性,讓行政機(jī)關(guān)選擇忽視相對人的意見表達(dá)及其對行政行為的補(bǔ)充與糾錯(cuò)功能。而行政機(jī)關(guān)對算法決策中技術(shù)要素應(yīng)盡的說明理由義務(wù),則表現(xiàn)出因行政機(jī)關(guān)缺乏算法技術(shù)知識而說理不能或說理不清,以及以技術(shù)標(biāo)準(zhǔn)或合格證明進(jìn)行機(jī)械答復(fù)而難以令人信服的局限[16]。

        (二)算法決策拒絕權(quán)功能的對比分析

        面對算法決策方式給行政法治帶來的技術(shù)挑戰(zhàn),通過為相對人配置新型算法權(quán)利以對抗算法決策異化風(fēng)險(xiǎn)的賦權(quán)進(jìn)路,較之行政系統(tǒng)內(nèi)部對算法決策進(jìn)行行政自治,被視為更加長效的矯正方案[17]。規(guī)制算法決策的賦權(quán)進(jìn)路需要從尊重相對人的主體地位出發(fā),傳統(tǒng)官僚制行政將相對人完全視作管理對象,忽視其作為行政法律關(guān)系一方的平等主體地位。邁向現(xiàn)代化行政的改造方案,內(nèi)容包含配置并保障相對人程序性權(quán)利,確保相對人在行政活動(dòng)中的參與性,以此平衡行政機(jī)關(guān)的行政優(yōu)先權(quán)。而在數(shù)字化時(shí)代,算法技術(shù)不斷對人進(jìn)行分類、分析與評估,通過這一存在偏見與缺乏透明的過程將人馴化為可計(jì)算、可預(yù)測、可控制的客體,從而使相對人的主體地位面臨新的技術(shù)難題[12]。反映到行政領(lǐng)域中,算法主導(dǎo)的決策模式,改變了傳統(tǒng)行政權(quán)力與相對人權(quán)利的平衡格局,造成相對人運(yùn)用傳統(tǒng)行政權(quán)力應(yīng)對算法決策的不足。因此,為避免人的主體性與平等性被算法技術(shù)侵蝕,在相對人所享有的傳統(tǒng)行政權(quán)力基礎(chǔ)上,確認(rèn)其有關(guān)數(shù)據(jù)與算法的新型技術(shù)權(quán)利,成為對抗算法權(quán)力附加的行政權(quán)力的基本要求。

        從個(gè)人信息保護(hù)領(lǐng)域到自動(dòng)化行政領(lǐng)域,將規(guī)制算法決策的賦權(quán)進(jìn)路展開,可以將相對人應(yīng)對算法決策方式的權(quán)利體系予以類型化,包括針對個(gè)人信息處理行為的各項(xiàng)新型權(quán)利、針對算法決策的要求說明權(quán)以及本文所論證的算法決策拒絕權(quán)。這些權(quán)利皆在規(guī)制算法決策方式中發(fā)揮重要作用,但相較于前兩類權(quán)利而言,相對人享有的算法決策拒絕權(quán)具有獨(dú)特功能。

        《個(gè)人信息保護(hù)法》第四章規(guī)定了個(gè)人在個(gè)人信息處理活動(dòng)中享有的一系列權(quán)利,其中與相對人的算法決策拒絕權(quán)密切相關(guān),甚至被認(rèn)為存在功能混同可能性的權(quán)利,包括對個(gè)人信息處理的限制權(quán)、更正權(quán)和刪除權(quán)。上述各項(xiàng)權(quán)利建立在個(gè)人對其個(gè)人信息的自決與控制基礎(chǔ)之上,但應(yīng)用到自動(dòng)化行政中以應(yīng)對算法決策方式時(shí),出現(xiàn)了適應(yīng)性和功能性問題。首先,《個(gè)人信息保護(hù)法》第四十四條規(guī)定了個(gè)人信息權(quán)利行使的“法律、行政法規(guī)另有規(guī)定的除外”的例外條款【 《個(gè)人信息保護(hù)法》第四十四條:個(gè)人對其個(gè)人信息的處理享有知情權(quán)、決定權(quán),有權(quán)限制或者拒絕他人對其個(gè)人信息進(jìn)行處理;法律、行政法規(guī)另有規(guī)定的除外?!浚姓I(lǐng)域的個(gè)人信息收集,往往由于履行行政職責(zé)的必要,被規(guī)定為無須相對人的授權(quán)同意,甚至在某些場景中,提供個(gè)人信息被視作相對人的義務(wù)[18]。因此,由于適用例外條款,相對人無法行使針對行政機(jī)關(guān)個(gè)人信息處理行為的限制權(quán)。其次,在發(fā)現(xiàn)行政機(jī)關(guān)掌握的個(gè)人信息不準(zhǔn)確或不完整時(shí),相對人可以行使更正權(quán),這既未突破行政機(jī)關(guān)實(shí)現(xiàn)行政目的的基本職責(zé),也有助于相對人得到公正的行政結(jié)果。但更正權(quán)的權(quán)利對象僅是決策環(huán)節(jié)之前的個(gè)人信息,雖然此舉可以對基于個(gè)人信息的算法歧視予以糾偏,但無法針對性地糾正更具危害性的算法決策中的錯(cuò)誤算法邏輯[19]。最后,當(dāng)認(rèn)為行政機(jī)關(guān)處理無關(guān)個(gè)人信息時(shí),相對人行使刪除權(quán)具有正當(dāng)性,但若想通過刪除個(gè)人信息達(dá)到拒絕算法決策方式的目的[20],則面臨可刪除的個(gè)人信息范圍有限的弊端,也無法改變其像更正權(quán)一樣并未直接針對算法決策方式的功能不足。

        《個(gè)人信息保護(hù)法》第二十四條第三款規(guī)定了個(gè)人要求個(gè)人信息處理者對算法決策予以說明的權(quán)利,通過類比自動(dòng)化行政中算法決策拒絕權(quán)的證成方式,相對人亦享有對算法決策的要求說明權(quán)。面對算法決策中存在的技術(shù)黑箱及其在行政活動(dòng)中的衍生風(fēng)險(xiǎn),算法的公開透明和可解釋性成為打開算法黑箱、促進(jìn)程序正義和追究相應(yīng)主體責(zé)任的必然要求[21]。賦予相對人對算法決策的要求說明權(quán),有利于其主動(dòng)參與自動(dòng)化行政活動(dòng),縮小自動(dòng)化行政過程中的信息不對稱差距。但相對人行使要求說明權(quán)的效果因算法技術(shù)的解釋性難題而飽受質(zhì)疑[22],具體表現(xiàn)在:一是解釋后的算法內(nèi)容可能并未脫離專業(yè)技術(shù)范疇,仍在技術(shù)黑箱的范圍內(nèi)兜轉(zhuǎn),無法為相對人所實(shí)質(zhì)理解;二是人工智能算法的運(yùn)行是一種“概率統(tǒng)計(jì)”邏輯[23],即便通過在自然語言下對算法功能進(jìn)行解釋,其所揭示的僅是導(dǎo)入數(shù)據(jù)和決策結(jié)果之間的相關(guān)關(guān)系,難以滿足揭示技術(shù)行為和決策結(jié)果之間因果關(guān)系的說理性要求;三是由于相對人對算法技術(shù)應(yīng)用于行政活動(dòng)的天然不信任,無論對算法決策進(jìn)行何種解釋以及達(dá)到怎樣效果,都難以在影響個(gè)人權(quán)益時(shí)拭去相對人的主觀質(zhì)疑。

        自動(dòng)化行政中算法決策拒絕權(quán)的功能特征在與上述權(quán)利的對比中得以彰顯。相較于針對個(gè)人信息處理行為的限制權(quán)、更正權(quán)和刪除權(quán),算法決策拒絕權(quán)的權(quán)利對象直接為算法決策方式,這意味著該權(quán)利的行使場景并不局限于自動(dòng)化行政的信息收集環(huán)節(jié),而是基于保護(hù)個(gè)人權(quán)益的目的關(guān)注整個(gè)算法決策過程。相較于針對算法決策的要求說明權(quán),由于要求對算法決策予以說明并非拒絕算法決策的必要前提,相對人可以直接行使算法決策拒絕權(quán),規(guī)避算法解釋的技術(shù)可行性和設(shè)置必要性爭議,從而將其意志控制范圍擴(kuò)展到影響算法決策方式能否應(yīng)用,進(jìn)而對算法決策方式和結(jié)果起到?jīng)Q定性作用。當(dāng)然,針對個(gè)人信息處理行為的各項(xiàng)新型權(quán)利以及對算法決策的要求說明權(quán)都有其特定的權(quán)利功能和行使場景,將算法決策拒絕權(quán)與二者進(jìn)行比較的目的,并非否定二者的作用,而是意在描述算法決策拒絕權(quán)的功能,從而豐富相對人在自動(dòng)化行政中應(yīng)對算法決策方式的權(quán)利體系。

        三、自動(dòng)化行政中算法決策拒絕權(quán)的屬性

        在面對算法決策的異化風(fēng)險(xiǎn)時(shí),通過個(gè)人信息權(quán)益保護(hù)到算法決策行為規(guī)制的模式轉(zhuǎn)變,并采取“行為規(guī)制權(quán)利化”[24]的技術(shù)路徑,在個(gè)人信息權(quán)益擴(kuò)大到個(gè)人權(quán)益的保護(hù)基礎(chǔ)上,《個(gè)人信息保護(hù)法》賦予個(gè)人以算法決策拒絕權(quán),并與要求說明權(quán)等組成個(gè)人應(yīng)對算法決策的權(quán)利體系。在個(gè)人信息保護(hù)領(lǐng)域,這些權(quán)利確保個(gè)人能夠參與到個(gè)人信息處理活動(dòng)中[25]。而當(dāng)算法拒絕權(quán)被引入行政領(lǐng)域時(shí),其既表現(xiàn)出相對人能夠參與自動(dòng)化行政活動(dòng)的程序?qū)傩裕脖憩F(xiàn)出相對人能夠主動(dòng)選擇決策方式的積極屬性。

        (一)算法決策拒絕權(quán)的程序?qū)傩?/p>

        為了確保相對人請求的實(shí)質(zhì)化和實(shí)效性,需要通過行政法律規(guī)范構(gòu)建規(guī)范行政主體活動(dòng)的客觀行政秩序,其中就包括具有約束功能的行政程序。在傳統(tǒng)行政法治中,相對人的參與性與互動(dòng)性要求,通過包含行政公開、陳述意見、說明理由等具體內(nèi)容的法定程序裝置實(shí)現(xiàn)。而從動(dòng)態(tài)意義上來看,法律程序是當(dāng)事人特定程序權(quán)利義務(wù)的實(shí)現(xiàn)過程,因而從中產(chǎn)生相對人的知情權(quán)、陳述權(quán)、申辯權(quán)和聽證權(quán)等程序性權(quán)利[26]。

        隨著數(shù)字技術(shù)對行政系統(tǒng)的改造,約束行政行為和保障相對人權(quán)益的傳統(tǒng)行政程序出現(xiàn)適用性障礙,給相對人通過程序裝置行使程序性權(quán)利造成困境[27]。為了平衡技術(shù)要素導(dǎo)致的行政權(quán)力和相對人權(quán)利的失衡狀態(tài),自動(dòng)化行政中的技術(shù)程序愈發(fā)受到關(guān)注,被視作克服傳統(tǒng)行政程序?qū)λ惴Q策規(guī)制不足的突破口。其中,圍繞技術(shù)程序的規(guī)制路徑為:通過對算法技術(shù)程序的功能優(yōu)化,提高自動(dòng)化行政的公開性與透明性,使之達(dá)到技術(shù)程序正當(dāng)化標(biāo)準(zhǔn)[28]。在技術(shù)程序正當(dāng)化的基礎(chǔ)上,將行政規(guī)范中的法定程序要求內(nèi)化為對算法決策的技術(shù)規(guī)范要求,并通過行政規(guī)范的認(rèn)定使技術(shù)規(guī)范得以法律化,運(yùn)用法律規(guī)則來增強(qiáng)技術(shù)規(guī)范的合法性與強(qiáng)制力[29]。

        行政決策的自動(dòng)化,源于提升行政效率和服務(wù)的算法應(yīng)用價(jià)值,以及在人工智能環(huán)境下的算法技術(shù)變革,而自動(dòng)化行政方式擴(kuò)展到某一具體行政場景的動(dòng)機(jī),更多的是出于行政機(jī)關(guān)在大數(shù)據(jù)環(huán)境下履行行政職責(zé)的需要。但算法的技術(shù)優(yōu)勢不僅要體現(xiàn)在行政機(jī)關(guān)完成行政任務(wù)的單方需求中,還要適應(yīng)相對人在行政活動(dòng)中的身份地位與利益訴求,能夠發(fā)揮減輕相對人負(fù)擔(dān)的便民效果。然而,當(dāng)算法決策方式的應(yīng)用未考慮相對人的客觀能力與主觀意愿時(shí),將會給相對人帶來現(xiàn)實(shí)處境和主觀心理方面的負(fù)面效果。因此,相對人享有拒絕算法決策的程序性權(quán)利,并能夠通過自動(dòng)化行政中拒絕算法決策的程序規(guī)則加以實(shí)現(xiàn)。

        規(guī)制算法決策的目的從保護(hù)個(gè)人信息權(quán)益到個(gè)人權(quán)益的延伸,為相對人通過行使算法決策拒絕權(quán)來維護(hù)自身合法權(quán)益奠定了基礎(chǔ)。算法決策拒絕權(quán)作為相對人參與自動(dòng)化行政的程序性權(quán)利,通過程序性裝置發(fā)揮著對抗得到算法權(quán)力增強(qiáng)的行政權(quán)力,以實(shí)現(xiàn)在維護(hù)與救濟(jì)相對人實(shí)體性利益方面的工具性價(jià)值。算法決策作為行政決策的方式轉(zhuǎn)變,當(dāng)通過其作出的行政行為在客觀上仍可歸屬于具體的行政主體[1],或被確認(rèn)為行政機(jī)關(guān)“自己的”行政行為時(shí)[30]438,并未超出行政法治的控權(quán)范圍,但可能產(chǎn)生不同的行為結(jié)果。為避免算法決策中隱含的算法弊端對相對人實(shí)體權(quán)益造成不公正影響,相對人通過行使算法決策拒絕權(quán),為自動(dòng)化行政中的個(gè)人權(quán)益尋求程序性保護(hù)。

        算法決策拒絕權(quán)的配置與行使,體現(xiàn)了相對人在面對算法決策方式時(shí)的主體地位。即便該權(quán)利本身并未給相對人增添人身性或財(cái)產(chǎn)性的實(shí)體性利益,但僅認(rèn)可算法決策拒絕權(quán)能夠保障實(shí)體權(quán)益的工具價(jià)值,未能揭示其程序?qū)傩缘谋倔w價(jià)值,這將在自動(dòng)化行政中形成對該權(quán)利主張、行使和保障的輕視氛圍。在程序正義理論中,行政程序具有獨(dú)立于實(shí)體結(jié)果的公正、平等、參與等程序價(jià)值。同樣,程序性權(quán)利行使過程中體現(xiàn)的交往理性,使其擺脫對相對人實(shí)體利益的依附性而具有獨(dú)立地位[31]120,這其中蘊(yùn)含著維護(hù)程序利益和表達(dá)自由意志的獨(dú)立功能。就自動(dòng)化行政中的算法決策拒絕權(quán)而言,該權(quán)利表達(dá)了相對人拒絕算法決策的程序主張,能夠發(fā)揮從相對人立場批判算法決策的功能,促使行政機(jī)關(guān)反思對算法決策的選擇及其效果,從而尊重與保障相對人的程序利益。

        (二)算法決策拒絕權(quán)的積極屬性

        相對人依據(jù)《個(gè)人信息保護(hù)法》而享有的算法決策拒絕權(quán),在公法領(lǐng)域的自動(dòng)化行政中同樣適用。這意味行政機(jī)關(guān)在適用算法決策方式時(shí),需要通過創(chuàng)制或改造的客觀程序規(guī)則,將算法決策拒絕權(quán)納入相對人的程序性權(quán)利體系。由于行政法律關(guān)系中行政主體的優(yōu)先權(quán)和強(qiáng)制力,相對人被迫放棄建立在實(shí)體性權(quán)益之上的自衛(wèi)權(quán),通過程序性權(quán)利的防御功能對抗來自行政權(quán)力的侵害[32]15。算法決策拒絕權(quán)體現(xiàn)的相對人消極地位,對應(yīng)著行政機(jī)關(guān)應(yīng)當(dāng)履行尊重該權(quán)利的消極義務(wù),即禁止于相對人算法決策拒絕權(quán)之上強(qiáng)加未經(jīng)法律規(guī)范認(rèn)可的否定性或限制性的命令與強(qiáng)制[33]92。

        現(xiàn)代行政廣泛地建立在個(gè)人利益基礎(chǔ)之上,相對人擁有區(qū)別于反射性利益的要求行政機(jī)關(guān)履行義務(wù)的法律請求權(quán)[34]154。因此,算法決策拒絕權(quán)不僅包括不受行政機(jī)關(guān)妨害的消極地位,而且呈現(xiàn)出在受到妨害時(shí)請求利益實(shí)現(xiàn)和法律保護(hù)的積極屬性。在自動(dòng)化行政中,對算法決策拒絕權(quán)的妨害具體表現(xiàn)為:一方面,嵌入自動(dòng)化行政中的算法決策方式,使得行政任務(wù)在相對人不知情的情況下瞬時(shí)完成,行政機(jī)關(guān)對于公開義務(wù)與告知義務(wù)的履行懈怠,阻礙著相對人算法決策拒絕權(quán)的行使;另一方面,出于方便行政任務(wù)的單方需求,行政機(jī)關(guān)在行政過程或技術(shù)程序中對相對人拒絕方式進(jìn)行限定與變相強(qiáng)制,干預(yù)相對人行使算法決策拒絕權(quán)的自愿心理,從而使相對人被動(dòng)地放棄權(quán)利。

        作為程序性權(quán)利的算法決策拒絕權(quán),蘊(yùn)含著相對人獨(dú)立的程序性利益,與之對應(yīng)的是行政機(jī)關(guān)提供拒絕方式和設(shè)置相應(yīng)程序的義務(wù)。相對人能夠主動(dòng)要求行政機(jī)關(guān)履行程序義務(wù)和遵循程序規(guī)范,通過拒絕算法決策的程序性調(diào)整,有效制約得到算法技術(shù)增強(qiáng)的行政權(quán)力的恣意運(yùn)行。此外,根據(jù)《中華人民共和國行政復(fù)議法》和《中華人民共和國行政訴訟法》的規(guī)定,違反法定程序是行政行為的違法情形之一。因此,通過程序裝置實(shí)施的程序性權(quán)利在法律規(guī)范上被賦予了救濟(jì)可能性。當(dāng)行政權(quán)限和程序中制度性的自我統(tǒng)制裝置被破壞時(shí),相對人拒絕算法決策的程序性利益無法得到滿足抑或受到侵害,對于算法決策拒絕權(quán)的保護(hù)將成為相對人通過行政復(fù)議與行政訴訟進(jìn)行權(quán)利救濟(jì)的契機(jī)[32]15。

        配置算法決策拒絕權(quán)的預(yù)設(shè)前提是行政主體單方?jīng)Q定采用算法決策方式,預(yù)設(shè)過程是相對人通過拒絕與否的方式表達(dá)對算法決策的應(yīng)用態(tài)度,預(yù)設(shè)結(jié)果是通過否認(rèn)算法決策的應(yīng)用以引入人工決策方式。然而,這一套算法決策拒絕權(quán)的預(yù)設(shè)邏輯存在問題。一方面,相對人出于算法弊端或選擇意志而行使算法決策拒絕權(quán),建立在行政主體應(yīng)用算法決策方式的基礎(chǔ)之上,因而該權(quán)利并未在行政機(jī)關(guān)選用算法決策方式時(shí)發(fā)揮功能。這意味著在自動(dòng)化行政的瞬時(shí)性特征下,算法決策拒絕權(quán)演變成只針對算法決策結(jié)果的拒絕權(quán)。另一方面,即便相對人能夠在自動(dòng)化行政過程中積極行使算法決策拒絕權(quán),但“拒絕”體現(xiàn)出消極與被動(dòng)的行為內(nèi)涵,其并不等同于默示同意或主動(dòng)選擇。相反,只有在直接與正面的意思表達(dá)而非被動(dòng)拒絕中才能體現(xiàn)相對人的同意與選擇[35]。換言之,相對人的拒絕行為并不能顯示其選擇算法決策方式的自由意志,也并不必然包含對人工決策方式的主動(dòng)訴求。因此,分析相對人算法決策拒絕權(quán)的屬性,不僅需要強(qiáng)調(diào)權(quán)利行使中的積極屬性,也需要拓展權(quán)利內(nèi)涵中的積極屬性,在自動(dòng)化行政興起、算法決策方式和人工決策方式并存的背景下,使相對人能夠通過算法決策拒絕權(quán),達(dá)到對行政決策方式積極選擇的效果。

        自動(dòng)化行政中的算法決策拒絕權(quán)肇始于個(gè)人信息保護(hù)領(lǐng)域,個(gè)人信息處理必須經(jīng)個(gè)人充分知情并取得其同意的“知情同意原則”,被視作該領(lǐng)域的“帝王條款”[36]58。這一原則產(chǎn)生于醫(yī)學(xué)領(lǐng)域,是指患者在充分知情和理解醫(yī)護(hù)人員披露相關(guān)醫(yī)療信息的基礎(chǔ)上,作出是否接受治療的決定。正如從醫(yī)學(xué)領(lǐng)域推廣適用到個(gè)人信息保護(hù)領(lǐng)域,自動(dòng)化行政領(lǐng)域中的算法決策方式也需要符合知情同意原則,并通過制定算法決策的知情同意規(guī)則,來滿足相對人的知情同意需求[37]。在數(shù)據(jù)與算法驅(qū)動(dòng)的自動(dòng)化行政中,行政行為與個(gè)人信息行為處理高度契合,相對人享有的算法決策拒絕權(quán),也應(yīng)以“知情同意”為前提。在對算法決策方式充分知情的基礎(chǔ)上,算法決策拒絕權(quán)的拒絕對象能夠從算法決策結(jié)果延伸到算法決策程序,因而權(quán)利行使場景從算法決策后的結(jié)果輸出環(huán)節(jié),擴(kuò)展到包含信息輸入環(huán)節(jié)、算法分析環(huán)節(jié)和結(jié)果輸出環(huán)節(jié)的自動(dòng)化行政全流程。在自動(dòng)化行政的算法決策中貫徹知情同意原則,意在將適用算法決策的正當(dāng)性建立在相對人的同意基礎(chǔ)之上[38],通過清晰和明確的同意,算法決策拒絕權(quán)的內(nèi)涵從對算法決策方式的被動(dòng)拒絕轉(zhuǎn)變?yōu)榉e極選擇,真正發(fā)揮其作為一項(xiàng)權(quán)利而非相對人義務(wù)的功能,從而減輕行政機(jī)關(guān)施加給相對人對算法決策方式的風(fēng)險(xiǎn)控制負(fù)擔(dān),形成對相對人權(quán)益的強(qiáng)保護(hù)[39]。

        四、自動(dòng)化行政中算法決策拒絕權(quán)的行使規(guī)則

        從《個(gè)人信息保護(hù)法》規(guī)制算法決策的規(guī)范分析,以及其在行政領(lǐng)域中的適用性出發(fā),可以實(shí)現(xiàn)自動(dòng)化行政中算法決策拒絕權(quán)從新型權(quán)利到法定權(quán)利的證成。但對算法決策拒絕權(quán)內(nèi)容的探討,并未超越其作為相對人應(yīng)然權(quán)利的理想化狀態(tài),也未能實(shí)現(xiàn)從權(quán)利享有到權(quán)利行使的過渡。因此,將算法決策拒絕權(quán)轉(zhuǎn)變?yōu)橄鄬θ说膶?shí)然權(quán)利,需要結(jié)合算法決策拒絕權(quán)能夠保障相對人參與,并在設(shè)置與改造的程序裝置中予以實(shí)現(xiàn)的程序?qū)傩?,以及在?quán)利地位上能夠請求利益實(shí)現(xiàn)與法律保護(hù),并在權(quán)利內(nèi)涵上能夠主動(dòng)選擇的積極屬性,構(gòu)建在自動(dòng)化行政不同環(huán)節(jié)的具有即時(shí)性特征的權(quán)利行使規(guī)則。

        (一)算法決策方式的選擇規(guī)則

        信息輸入環(huán)節(jié)是從技術(shù)程序視角下拆分自動(dòng)化行政后得出的首個(gè)環(huán)節(jié),此時(shí)行政系統(tǒng)通過技術(shù)設(shè)備進(jìn)行信息收集或通過政府平臺進(jìn)行信息共享,完成算法決策前的信息準(zhǔn)備。若信息輸入環(huán)節(jié)是在相對人不知情的情況下進(jìn)行的,相對人就無法獲知自動(dòng)化行政開展的必要事項(xiàng)內(nèi)容,無法監(jiān)督和判斷對其個(gè)人信息的處理是否符合必要性限度。作為算法決策前的環(huán)節(jié),秘密進(jìn)行的信息輸入過程將導(dǎo)致相對人算法決策拒絕權(quán)的落空,無法發(fā)揮該權(quán)利的防御性價(jià)值,難以通過權(quán)利行使來影響行政主體的決策方式。因此,從自動(dòng)化行政的信息輸入到算法分析,需要人為在環(huán)節(jié)過渡之間架設(shè)程序公開與告知環(huán)節(jié),以滿足相對人對行政活動(dòng)所獲取信息和行政主體所采取方式的知情和同意需求。

        根據(jù)《個(gè)人信息保護(hù)法》第二十四條第二款的規(guī)定【《個(gè)人信息保護(hù)法》第二十四條第二款:通過自動(dòng)化決策方式向個(gè)人進(jìn)行信息推送、商業(yè)營銷,應(yīng)當(dāng)同時(shí)提供不針對其個(gè)人特征的選項(xiàng),或者向個(gè)人提供便捷的拒絕方式?!浚瑐€(gè)人信息處理者在應(yīng)用算法決策時(shí),需要履行“同時(shí)提供不針對其個(gè)人特征的選項(xiàng)”或“向個(gè)人提供便捷的拒絕方式”的義務(wù),前者已有將規(guī)制算法決策的反對性內(nèi)涵轉(zhuǎn)變?yōu)檫x擇性功能的趨勢,即個(gè)人有權(quán)在個(gè)人信息處理者提供的針對其個(gè)人特征和不針對其個(gè)人特征的選項(xiàng)中進(jìn)行選擇。沿此思路出發(fā),在行政領(lǐng)域中,具體行政行為建立在相對人利益之上,因此難以區(qū)分針對個(gè)人特征或不針對個(gè)人特征的選項(xiàng),但相對人的算法決策拒絕權(quán)可以延伸為對算法決策方式和人工決策方式的選擇權(quán)利,即由行政機(jī)關(guān)在決策方式上提供算法決策和人工決策的選項(xiàng),由相對人根據(jù)其主觀意愿和客觀能力進(jìn)行選擇。此時(shí),相對人能夠擺脫行政主體單方?jīng)Q定算法決策應(yīng)用時(shí)的被動(dòng)地位,既可以出于效率等技術(shù)優(yōu)勢考慮而適用算法決策方式,也可以從信息安全等角度出發(fā)而選擇人工決策方式[40]。

        對于決策方式的公開或告知,應(yīng)當(dāng)成為自動(dòng)化行政中后續(xù)程序進(jìn)行的必要條件,行政機(jī)關(guān)需要以獲得相對人對決策方式的選擇或?qū)λ惴Q策的同意,作為其行政行為的正當(dāng)性基礎(chǔ)。為保障相對人知情的充分性和實(shí)質(zhì)化,需要將行政公開、說明理由和聽取意見的法定程序要求內(nèi)化為算法透明與算法解釋的技術(shù)規(guī)范要求,通過技術(shù)程序正當(dāng)化來增強(qiáng)相對人選擇決策方式的認(rèn)知水平。在對決策方式充分知情的前提下,相對人行使算法決策拒絕權(quán)來選擇行政決策方式,應(yīng)當(dāng)在預(yù)設(shè)的時(shí)間范圍內(nèi)進(jìn)行,一旦超出這一時(shí)間范圍,權(quán)利將喪失原有意義[41]。超過行使期限的算法決策拒絕權(quán)所產(chǎn)生的變化,表現(xiàn)為從相對人選擇決策方式的主動(dòng)性,轉(zhuǎn)變?yōu)閷π姓C(jī)關(guān)所適用決策方式的服從性,并最終達(dá)到在知情基礎(chǔ)上默示同意的效果。

        (二)算法決策過程的脫離規(guī)則

        當(dāng)自動(dòng)化行政的程序從信息輸入環(huán)節(jié)順利過渡到算法分析環(huán)節(jié),意味著相對人已通過明示或默示方式行使了算法決策拒絕權(quán),發(fā)揮其選擇權(quán)能而適用算法決策方式。但所要構(gòu)建的算法決策拒絕權(quán)行使規(guī)則,應(yīng)使該權(quán)利的行使具有動(dòng)態(tài)化與即時(shí)性,能夠在自動(dòng)化行政全流程中發(fā)揮長效作用機(jī)制。因此,相對人可以在算法分析過程中主張要求脫離算法決策方式。但相較于信息輸入環(huán)節(jié),算法分析環(huán)節(jié)中算法決策拒絕權(quán)的行使,不再僅是建立在相對人的主觀意愿之上,還需要自動(dòng)化行政中出現(xiàn)客觀違法事由。此時(shí),算法決策方式尚未得出于相對人而言具有終局性效果的結(jié)論,并未產(chǎn)生有關(guān)其實(shí)體利益的決定性影響。因此,相對人拒絕算法決策的主要依據(jù)為算法分析過程中可能存在的程序性違法事由,表現(xiàn)為對相對人知情、陳述、申辯和聽證等程序性權(quán)利的損害。

        在自動(dòng)化行政的信息輸入環(huán)節(jié),相對人行使算法決策拒絕權(quán)建立在對決策方式的充分知情基礎(chǔ)上,然而一旦行政機(jī)關(guān)所披露內(nèi)容出現(xiàn)片面與錯(cuò)誤,將在適用算法決策方式進(jìn)行算法分析的過程中引發(fā)連鎖反應(yīng)。在算法分析環(huán)節(jié),相對人可以向行政機(jī)關(guān)積極表達(dá)意見,并有權(quán)要求就算法決策方式作出進(jìn)一步公開和說理,從而在該環(huán)節(jié)中架設(shè)行政機(jī)關(guān)與相對人之間的信息溝通機(jī)制[42]。這既是作為對信息輸入環(huán)節(jié)中相對人認(rèn)知算法決策方式的內(nèi)容補(bǔ)充,也是作為在算法分析過程中相對人脫離算法決策方式的前置條件與必要步驟,從而在通過一系列程序性權(quán)利的積極主張和有效行使后,使相對人能夠在自動(dòng)化行政中表達(dá)利益訴求,消弭算法決策可能對相對人權(quán)益產(chǎn)生的負(fù)面效應(yīng)。

        當(dāng)選擇算法決策時(shí)的程序性利益未能在算法分析環(huán)節(jié)得到彌補(bǔ),或是適用算法決策過程中程序性權(quán)利受到侵害,相對人可以行使算法決策拒絕權(quán),主張對算法決策方式的脫離。脫離意味著在程序權(quán)益受損或算法風(fēng)險(xiǎn)存在的情況下,相對人要求行政機(jī)關(guān)停止算法決策方式。而考慮到行政活動(dòng)仍需繼續(xù)進(jìn)行,脫離算法決策方式的進(jìn)階效果是將決策方式變更為人工決策,通過申請人工介入形成對算法決策的替代或修正。即便在保障公正、效率與準(zhǔn)確等功能方面人工干預(yù)并不一定能發(fā)揮更好的效果[43],但將完全自動(dòng)化行政轉(zhuǎn)變?yōu)椴糠肿詣?dòng)化行政,既能夠讓技術(shù)要素繼續(xù)發(fā)揮輔助性功能,也可以增強(qiáng)相對人對行政活動(dòng)的信任。

        (三)算法決策結(jié)果的抵抗規(guī)則

        通過瞬時(shí)完成輸入信息到輸出結(jié)果的時(shí)間性能力,以及減少與相對人物理接觸的空間性能力,算法決策方式彰顯效率優(yōu)勢。因此,最終呈現(xiàn)在相對人面前的多為算法決策后的結(jié)果。當(dāng)在信息輸入和算法分析環(huán)節(jié),相對人未能有效行使算法決策拒絕權(quán)脫離算法操控,對于算法決策結(jié)果的抵抗可以作為行政過程中消除算法決策風(fēng)險(xiǎn)的又一重保障措施。

        在傳統(tǒng)行政法理論中,相對人享有對無效行政行為的抵抗權(quán)[44]。當(dāng)行政行為出現(xiàn)重大且明顯瑕疵時(shí),該行政行為自始至終不發(fā)生法律效力,即喪失其自作出就推定合法有效的公定力,成為無效行政行為[45]。一旦行政行為無公定力,相對人不必先行服從,因此可以進(jìn)行抵抗。這是在相對人通過行政復(fù)議或行政訴訟救濟(jì)自身權(quán)益前設(shè)置的一種權(quán)益保障方式,但出于維護(hù)行政主體權(quán)威性和行政行為功能性的考慮,相對人能夠抵抗的范圍僅針對行政主體的無效行政行為。

        若以無效行政行為理論為算法決策拒絕權(quán)的理論基礎(chǔ),將限制相對人抵抗算法決策的范圍。在個(gè)人信息保護(hù)領(lǐng)域中,信息自決權(quán)理論是個(gè)人抵抗算法決策的理論依據(jù)。信息自決權(quán)理論強(qiáng)調(diào)信息主體對其信息的積極控制,信息主體具有決定其信息處理時(shí)間、地點(diǎn)與方式的能力,從而能夠防御國家對其信息的不當(dāng)干預(yù)與操縱[46]。因此,借助信息自決權(quán)理論,相對人能夠抵抗通過處理信息實(shí)現(xiàn)的自動(dòng)化行政行為。但追溯信息自決權(quán)的起源,德國1983年“人口普查案”的憲法判決主張,在自動(dòng)化處理面前并不存在不重要的個(gè)人信息,此時(shí)個(gè)人對所有信息都享有支配權(quán)[47]。這將導(dǎo)致信息自決權(quán)在自動(dòng)化處理中的絕對化傾向。因此,以信息自決權(quán)理論作為自動(dòng)化行政中相對人抵抗算法決策結(jié)果的理論依據(jù),又將極大地泛化抵抗范圍。

        在自動(dòng)化行政中,算法決策蘊(yùn)含的算法權(quán)力是傳統(tǒng)權(quán)力與技術(shù)權(quán)力的結(jié)合,算法的自主性令算法決策中甚至存在行政主體都難以控制的外來影響和技術(shù)因素[17]。經(jīng)由算法決策方式呈現(xiàn)的行政行為,即便是一般性違法,也并非行政主體應(yīng)用算法進(jìn)行決策的初衷。然而,通過算法決策作出的合法行政行為,又是自動(dòng)化行政領(lǐng)域中技術(shù)優(yōu)勢的體現(xiàn)。因此,區(qū)別于傳統(tǒng)行政中對無效行政行為的抵抗,在自動(dòng)化行政中,相對人行使算法決策拒絕權(quán)而對算法決策結(jié)果予以抵抗的范圍,包括由算法決策方式作出的所有違法行政行為。此舉既可以形成相對人在面對違法行政行為時(shí)的初步防御機(jī)制,來獲得及時(shí)和正確的行政決策結(jié)果,又能夠喚起行政主體對算法決策錯(cuò)誤結(jié)果的自我糾正程序,以調(diào)適高效率追求下的公正性問題。

        為使相對人對算法決策結(jié)果的抵抗得到行政主體的有效答復(fù),避免演化出采取激進(jìn)方式進(jìn)行抵抗的負(fù)面影響[48],在自動(dòng)化行政的結(jié)果輸出環(huán)節(jié)應(yīng)當(dāng)設(shè)置回應(yīng)算法決策拒絕權(quán)的行政程序。相對人在拒絕算法決策結(jié)果的同時(shí),可以要求行政機(jī)關(guān)暫停自動(dòng)化行政行為并對此予以說明。雖然相對人可對算法決策形成的所有違法行政行為予以抵抗,但是抵抗的效果將根據(jù)行政行為的違法程度而有所區(qū)分。當(dāng)算法決策過程僅具有輕微的程序違法,如忽視相對人的公開請求,并未影響實(shí)體結(jié)果的正確性,出于程序經(jīng)濟(jì)的考慮,可以在事后對算法決策過程中的瑕疵內(nèi)容予以補(bǔ)正[49]94。而一旦算法決策中出現(xiàn)重大且明顯的程序違法,如將歧視性內(nèi)容引入算法決策中,此時(shí)行政機(jī)關(guān)應(yīng)當(dāng)以人工決策方式替代算法決策方式,重啟行政程序并重新作出行政行為。

        五、結(jié) 語

        伴隨數(shù)字技術(shù)的自身發(fā)展及其被引入行政領(lǐng)域,行政決策迎來從自然人決策到算法決策的模式轉(zhuǎn)變。在充分發(fā)揮算法決策帶來的技術(shù)優(yōu)勢之余,還需要警惕與治理其對行政法治的技術(shù)挑戰(zhàn)。以算法決策拒絕權(quán)為代表的賦權(quán)路徑能夠豐富相對人在數(shù)字時(shí)代的權(quán)利體系,對抗與平衡得到算法權(quán)力增強(qiáng)的行政權(quán)力。通過構(gòu)建與完善算法決策拒絕權(quán)在自動(dòng)化行政過程中的行使規(guī)則,相對人能夠在信息輸入環(huán)節(jié)選擇算法決策方式,在算法分析環(huán)節(jié)脫離算法決策過程,在結(jié)果輸出環(huán)節(jié)抵抗算法決策結(jié)果,充分發(fā)揮算法決策拒絕權(quán)的防范算法技術(shù)風(fēng)險(xiǎn)與保障自身合法權(quán)益的功能。

        將算法決策拒絕權(quán)應(yīng)用到自動(dòng)化行政并作為相對人的公法權(quán)利,符合《個(gè)人信息保護(hù)法》在行政領(lǐng)域的適用性及其規(guī)范算法決策的功能性。但將拒絕算法決策放置在行政程序中并予以權(quán)利化的改造,在當(dāng)前至少還面臨著如下難題:第一,無論是在個(gè)人信息保護(hù)領(lǐng)域還是自動(dòng)化行政領(lǐng)域,算法決策拒絕權(quán)僅是得到規(guī)范證成,但具體的行使規(guī)則仍有待立法回應(yīng)。第二,在自動(dòng)化行政中,算法決策拒絕權(quán)作為相對人享有的程序性權(quán)利,僅具有權(quán)利化的名義而并不具備完整的權(quán)利形態(tài),實(shí)質(zhì)上屬于在行政程序中被賦予的權(quán)能,而尚未達(dá)到權(quán)利地位,尤其表現(xiàn)為缺失作為獨(dú)立訴求而請求法律保護(hù)的功能。第三,當(dāng)個(gè)人權(quán)利和公共利益之間出現(xiàn)緊張關(guān)系時(shí),就會產(chǎn)生限制權(quán)利的討論。近年來,算法決策方式的巨大推動(dòng)力為突發(fā)事件中的技術(shù)治理需求,此時(shí)相對人行使算法決策拒絕權(quán)將不利于有效預(yù)防、及時(shí)控制和消除風(fēng)險(xiǎn)與危害,并與相對人在應(yīng)急狀態(tài)下所需承擔(dān)的配合義務(wù)和風(fēng)險(xiǎn)責(zé)任相悖。因此,當(dāng)出現(xiàn)突發(fā)公共事件時(shí),常態(tài)下的算法決策拒絕權(quán)將被限制。當(dāng)然,對相對人算法決策拒絕權(quán)的限制不僅要求具有正當(dāng)化目的,還需要合法化依據(jù)與合理化手段。這些算法決策拒絕權(quán)所面臨的難題,或需要獲得法治實(shí)踐的回應(yīng),或有待進(jìn)一步展開研究。

        參考文獻(xiàn):

        [1] 展鵬賀.數(shù)字化行政方式的權(quán)力正當(dāng)性檢視[J].中國法學(xué),2021(3):114-138.

        [2] 馬顏昕.自動(dòng)化行政的分級與法律控制變革[J].行政法學(xué)研究,2019(1):80-92.

        [3] 程嘯.十大亮點(diǎn)彰顯個(gè)人信息全面保護(hù)[J].法治與社會,2021(11):48-50.

        [4] 程關(guān)松.個(gè)人信息保護(hù)的中國權(quán)利話語[J].法學(xué)家,2019(5):17-30,191-192.

        [5] 王錫鋅.個(gè)人信息國家保護(hù)義務(wù)及展開[J].中國法學(xué),2021(1):145-166.

        [6] 卡洛,弗魯姆金,克爾.人工智能與法律的對話[M].陳吉棟,董慧敏,杭穎穎,譯.上海:上海人民出版社,2018.

        [7] 蔣紅珍.《個(gè)人信息保護(hù)法》中的行政監(jiān)管[J].中國法律評論,2021(5):48-58.

        [8] 韓旭至.認(rèn)真對待數(shù)字社會的個(gè)人拒絕權(quán)[J].華東政法大學(xué)學(xué)報(bào),2023(1):22-34.

        [9] 藍(lán)江.智能算法下人的數(shù)字異化與生存變革[J].人民論壇,2021(Z1):20-22.

        [10] 張恩典.人工智能算法決策對行政法治的挑戰(zhàn)及制度因應(yīng)[J].行政法學(xué)研究,2020(4):34-45.

        [11] 鄭玉雙.破解技術(shù)中立難題——法律與科技之關(guān)系的法理學(xué)再思[J].華東政法大學(xué)學(xué)報(bào),2018 (1):85-97.

        [12] 洪丹娜.算法歧視的憲法價(jià)值調(diào)適:基于人的尊嚴(yán)[J].政治與法律,2020(8):27-37.

        [13] 曹博.算法歧視的類型界分與規(guī)制范式重構(gòu)[J].現(xiàn)代法學(xué),2021(4):115-126.

        [14] 程關(guān)松.論民主制行政法治范式[J].武漢大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2009(1):22-27.

        [15] CITRON D K, PASQUALE F. The scored society: due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1-33.

        [16] 謝明睿,余凌云.技術(shù)賦能交警非現(xiàn)場執(zhí)法對行政程序的挑戰(zhàn)及完善[J].法學(xué)雜志,2021(3): 48-58.

        [17] 蔡星月.算法決策權(quán)的異化及其矯正[J].政法論壇,2021(5):25-37.

        [18] 陳曉勤.公共行政領(lǐng)域中的個(gè)人信息保護(hù)[J].法學(xué)雜志,2013(10):134-140.

        [19] 唐林垚.《個(gè)人信息保護(hù)法》語境下“免受算法支配權(quán)”的實(shí)現(xiàn)路徑與內(nèi)涵辨析[J].湖北社會科學(xué),2021(3):134-142.

        [20] 唐林垚.“脫離算法自動(dòng)化決策權(quán)”的虛幻承諾[J].東方法學(xué),2020(6):18-33.

        [21] STOHL C, STOHL M, LEONARDI P M. Digital age managing opacity: Information visibility and the paradox of transparency in the digital age[J]. International Journal of Communication, 2016(10):123-134.

        [22] 辛巧巧.算法解釋權(quán)質(zhì)疑[J].求是學(xué)刊,2021(3): 100-109.

        [23] 鄭智航.人工智能算法的倫理危機(jī)與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2021(1):14-26.

        [24] 呂炳斌.個(gè)人信息權(quán)作為民事權(quán)利之證成:以知識產(chǎn)權(quán)為參照[J].中國法學(xué),2019(4):44-65.

        [25] 丁曉東.基于信任的自動(dòng)化決策:算法解釋權(quán)的原理反思與制度重構(gòu)[J].中國法學(xué),2022(1):99-118.

        [26] 王錫鋅.行政過程中相對人程序性權(quán)利研究[J].中國法學(xué),2001(4):75-90.

        [27] 劉東亮.技術(shù)性正當(dāng)程序:人工智能時(shí)代程序法和算法的雙重變奏[J].比較法研究,2020(5):64-79.

        [28] CITRON D K. Technological due process[J]. Washington University Law Review, 2007, 85(6): 1249-1313.

        [29] 程關(guān)松,苗運(yùn)衛(wèi).相對人參與算法行政的困境與出路[J].東南法學(xué),2021(2):43-57.

        [30] 毛雷爾.行政法學(xué)總論[M].高家偉,譯.北京:法律出版社,2000.

        [31] 哈貝馬斯.交往行為理論[M].曹衛(wèi)東,譯.上海:上海人民出版社,2004.

        [32] 孫祥生.程序性基本權(quán)利法律保障研究[M].北京:法律出版社,2018.

        [33] 耶利內(nèi)克.主觀公法權(quán)利體系[M].曾韜,譯.北京:中國政法大學(xué)出版,2012.

        [34] 小早川光郎.行政訴訟的構(gòu)造分析[M].王天華,譯.北京:中國政法大學(xué)出版社,2014.

        [35] KOSTA E. Construing the meaning of Opt-Out-An analysis of the European, UK and German Data Protection Legislation[J].European Data Protection Law Review, 2015(1): 16-31.

        [36] 齊愛民. 信息法原論[M]. 武漢: 武漢大學(xué)出版社,2010.

        [37] 楊立新,趙鑫.利用個(gè)人信息自動(dòng)化決策的知情同意規(guī)則及保障——以個(gè)性化廣告為視角解讀《個(gè)人信息保護(hù)法》第24條規(guī)定[J].法律適用,2021(10):22-37.

        [38] SU J. Google book search and Opt-Out procedures[J]. Journal of the Copyright Society of the USA, 2008, 56(4): 947-965.

        [39] 馮愷.個(gè)人信息“選擇退出”機(jī)制的檢視和反思[J].環(huán)球法律評論,2020(4):148-165.

        [40] 宋華琳.電子政務(wù)背景下行政許可程序的革新[J].當(dāng)代法學(xué),2020(1):79-88.

        [41] 熊賴虎.時(shí)間觀與法律[J].中外法學(xué),2011(4):681-694.

        [42] 張凌寒.算法自動(dòng)化決策與行政正當(dāng)程序制度的沖突與調(diào)和[J].東方法學(xué),2020(6):4-17.

        [43] 張欣.免受自動(dòng)化決策約束權(quán)的制度邏輯與本土構(gòu)建[J].華東政法大學(xué)學(xué)報(bào),2021(5):27-40.

        [44] 王錫鋅.行政行為無效理論與相對人抵抗權(quán)問題探討[J].法學(xué),2001(10):16-20.

        [45] 南博方.行政法[M].楊建順,譯.北京:商務(wù)印書館,2020.

        [46] 趙宏.信息自決權(quán)在我國的保護(hù)現(xiàn)狀及其立法趨勢前瞻[J].中國法律評論,2017(1):147-161.

        [47] 楊芳.個(gè)人信息自決權(quán)理論及其檢討——兼論個(gè)人信息保護(hù)法之保護(hù)客體[J].比較法研究,2015(6):22-33.

        [48] 張旭勇.權(quán)利保護(hù)的法治限度——無效行政行為理論與制度的反思[J].法學(xué),2010(9):111-121.

        [49] 沃爾夫,巴霍夫,施托貝爾.行政法:第2卷[M].高家偉,譯.北京:商務(wù)印書館,2002.

        On the Right to Refusing Algorithmic Decision-making in Automated Administration

        MIAO Yunwei

        (School of Law, Southeast University, Nanjing 211189, Jiangsu, China)

        Abstract:Article 24 (3) of Personal Information Protection Law in China transforms the protection of personal information interests into the behavioral regulation of algorithmic decision-making, and gives individuals the right to refusing algorithmic decision-making. Based on the public law attribute of the law and its applicability in the administrative field, the counterpart enjoys the right to refuse algorithmic decision-making in the automated administrative mode. In terms of the technical challenges posed by algorithmic decision-making methods to the rule of administrative law, the right to refuse algorithmic decision-making can enrich the counterparts rights system in automated administration and plays a role in combating algorithmic decision-making alienation. The right to refuse algorithmic decision-making has the procedural attribute of ensuring relative participation in automated administrative processes and implementing them in the set up and modified procedural devices, as well as the positive attributes of being able to request benefits and legal protection in terms of rights status and actively choose the content of rights. To realize the counterparts right to refuse algorithmic decision-making, it is necessary to combine the procedural attribute with positive attribute of the right to construct the exercise rules with immediate characteristics in different links of automated administration, including the selection rules of algorithmic decision-making methods, the separation rules of algorithmic decision-making processes and the resistance rules of algorithmic decision-making results.

        Key words: automated administration; algorithmic decision-making; right to refuse algorithmic decision-making; personal information protection

        成人片在线看无码不卡| 99精品国产丝袜在线拍国语| 国产精品亚洲一区二区三区在线 | 国产精品日本一区二区三区| 中文字幕乱码在线人妻| 国产精品久久久国产盗摄| 精品丝袜人妻久久久久久| 欧美日韩一二三区高在线| 亚洲乱码中文字幕三四区| 美女mm131爽爽爽| 欧美老妇与zozoz0交| 日韩美女高潮流白浆视频在线观看| 在线小黄片视频免费播放| 亚洲熟妇无码久久精品| 性一交一乱一伦a片| 欧美性爱一区二区三区无a| 亚洲熟妇av一区二区三区hd| 国产精品亚洲色婷婷99久久精品| 99久久国产露脸精品竹菊传媒 | 99久久免费精品色老| 无码国产精品色午夜| 国产精品一品二区三区| 一边摸一边抽搐一进一出口述 | 国产女女精品视频久热视频| 欧美日韩国产在线成人网| 国产精品高清视亚洲一区二区| 好大好湿好硬顶到了好爽视频 | 国产亚洲精品精品综合伦理| 久久99精品久久水蜜桃| 日本欧美小视频| 亚洲精品一区二区三区蜜臀| 国产一区二区三区毛片| 大肉大捧一进一出视频出来呀| 国产中文字幕乱码在线| 日本一区二区三区精品免费| 人人人妻人人澡人人爽欧美一区| 日韩中文字幕欧美亚洲第一区| 亚洲天堂av另类在线播放 | 精品久久久久久无码人妻蜜桃| 三上悠亚免费一区二区在线| 丰满人妻无套内射视频|