亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能的行政監(jiān)管困境及其紓解

        2024-01-01 00:00:00袁周

        摘 要:生成式人工智能的開(kāi)放性、復(fù)雜性和高速迭代性給行政監(jiān)管帶來(lái)對(duì)象難以確認(rèn)、主體能力不足以及過(guò)程較為封閉的治理難題。人工智能監(jiān)管的現(xiàn)行法律應(yīng)對(duì)其負(fù)起責(zé)任,認(rèn)真對(duì)待監(jiān)管對(duì)象轉(zhuǎn)移、組合式監(jiān)管乏力以及監(jiān)管程序缺漏的問(wèn)題。對(duì)此,應(yīng)引入整體性治理理論,將監(jiān)管對(duì)象整合為生成式人工智能的大模型產(chǎn)品,將監(jiān)管資源整合至網(wǎng)信部門(mén),由其主要負(fù)責(zé)生成式人工智能的監(jiān)管,并通過(guò)構(gòu)建整體性的程序機(jī)制,實(shí)現(xiàn)監(jiān)管程序的民主化與規(guī)范化。

        關(guān)鍵詞:生成式人工智能;ChatGPT;行政監(jiān)管;監(jiān)管組織;行政程序

        中圖分類號(hào):D082 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.13411/j.cnki.sxsx.2024.03.006

        Administrative Supervision Dilemma of Generative

        Artificial Intelligence and Its Solutions

        YUAN Zhou

        (School of Law, Southeast University, Nanjing 211102, China)

        Abstract:The openness, complexity and high-speed iteration of generative artificial intelligence bring administrative supervision with difficult to confirm objects, insufficient subject capacity and relatively closed process. The current law on AI regulation should take responsibility and seriously treat the transfer of regulatory objects, the lack of combined supervision and the lack of regulatory procedures. In this regard, we should introduce the holistic governance theory, integrate the supervision objects into large model products of generative artificial intelligence, integrate the regulatory resources into the cyberspace administration which will be mainly responsible for the supervision of generative artificial intelligence, and realize the democratization and standardization of the supervision procedure through the construction of an holistic procedure mechanism.

        Key words:generative artificial intelligence; ChatGPT; administrative supervision; regulatory organization; administrative procedure

        2023年7月13日公布的《生成式人工智能服務(wù)管理暫行辦法》,使我國(guó)成為首個(gè)出臺(tái)生成式人工智能監(jiān)管法律的國(guó)家。而人工智能發(fā)展至今,已歷經(jīng)手動(dòng)編碼知識(shí)(Handcrafted knowledge)的第一次AI浪潮和統(tǒng)計(jì)學(xué)習(xí)的第二次浪潮,悄然站立于第三次浪潮來(lái)臨的前夜[1]。在此關(guān)鍵節(jié)點(diǎn),站在人工智能科技前沿的專家卻集體呼吁暫停對(duì)人工智能的訓(xùn)練,警惕人工智能對(duì)人類即將產(chǎn)生的威脅[2]。因?yàn)樗麄冋J(rèn)為,人工智能發(fā)展的奇點(diǎn)已經(jīng)來(lái)臨,人工智能技術(shù)的發(fā)展將帶來(lái)許多的不確定性[3]??赡艿娘L(fēng)險(xiǎn)既包括隱私保護(hù)、數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)保護(hù)、科技倫理等現(xiàn)實(shí)問(wèn)題,也包括相應(yīng)法律應(yīng)對(duì)不力產(chǎn)生的風(fēng)險(xiǎn)[4]。而在諸多風(fēng)險(xiǎn)中,行政監(jiān)管的風(fēng)險(xiǎn)雖常被提及,卻無(wú)系統(tǒng)論述。已有研究成果往往將行政監(jiān)管的不足認(rèn)作風(fēng)險(xiǎn)產(chǎn)生的原因,卻沒(méi)有從行政監(jiān)管的立場(chǎng)出發(fā),分析生成式人工智能對(duì)行政監(jiān)管的實(shí)踐與規(guī)范帶來(lái)的挑戰(zhàn)?;诖?,筆者立足于行政監(jiān)管的視角,檢視生成式人工智能給行政監(jiān)管帶來(lái)的挑戰(zhàn),關(guān)注現(xiàn)行監(jiān)管法律的不足,以期通過(guò)適當(dāng)?shù)睦碚摽蚣芴岢鼋鉀Q問(wèn)題的對(duì)策。

        一、生成式人工智能的行政監(jiān)管困境

        行政監(jiān)管是指行政機(jī)關(guān)依據(jù)一定的規(guī)則對(duì)某種公共事務(wù)進(jìn)行監(jiān)督管理,以使其不危害公共利益[5]343。生成式人工智能的行政監(jiān)管,也即行政機(jī)關(guān)對(duì)生成式人工智能這一技術(shù)進(jìn)行控制和調(diào)節(jié),以使之更好地服務(wù)于公共利益[6]。在行政監(jiān)管的視角下,可以從監(jiān)管對(duì)象、監(jiān)管主體以及后者對(duì)前者的監(jiān)管過(guò)程三個(gè)要素,分析生成式人工智能行政監(jiān)管的現(xiàn)狀及其存在的問(wèn)題。

        (一)監(jiān)管對(duì)象難以確認(rèn)

        傳統(tǒng)監(jiān)管語(yǔ)境中,行政監(jiān)管的對(duì)象一般指行政監(jiān)管行為的相對(duì)人,所以生成式人工智能技術(shù)本身并不是監(jiān)管對(duì)象,其開(kāi)發(fā)者、管理者、使用者才是監(jiān)管的對(duì)象。而與之前的人工智能相比,生成式人工智能更具開(kāi)放性,該特征直接導(dǎo)致了監(jiān)管對(duì)象的難以確認(rèn)。

        生成式人工智能的開(kāi)放性體現(xiàn)在運(yùn)營(yíng)模式的巨大改變。傳統(tǒng)的人工智能應(yīng)用,技術(shù)(算法與數(shù)據(jù))、服務(wù)、內(nèi)容生成等方面的提供者是能夠被輕易區(qū)分的。如人臉識(shí)別技術(shù),技術(shù)的開(kāi)發(fā)者為應(yīng)用企業(yè)提供人臉識(shí)別算法,企業(yè)錄入用戶數(shù)據(jù),為用戶提供服務(wù)。這一過(guò)程也基本不涉及內(nèi)容的生產(chǎn)。而ChatGPT等生成式人工智能模糊了技術(shù)支持者、服務(wù)提供者和內(nèi)容生產(chǎn)者之間的差別,允許三者之間身份的切換。以知名鏈?zhǔn)焦P記軟件Obsidian為例,其以插件的形式給用戶嵌入ChatGPT功能的選擇。數(shù)據(jù)的輸入和輸出經(jīng)過(guò)API端口實(shí)現(xiàn),內(nèi)容的生成既可以選擇調(diào)用Obsidian自己的算法和數(shù)據(jù),也可以不經(jīng)過(guò)Obsidian的算法與數(shù)據(jù)庫(kù)。那么,在Obsidian中應(yīng)用ChatGPT,應(yīng)當(dāng)如何定位Obsidian軟件的技術(shù)支持者、服務(wù)提供者(或者是插件的技術(shù)支持者、服務(wù)提供者)?其生成的內(nèi)容又應(yīng)當(dāng)如何定性?再者,ChatGPT本身即會(huì)保存用戶的對(duì)話數(shù)據(jù)以改進(jìn)自身的性能,此時(shí),用戶作為ChatGPT使用者的同時(shí),也無(wú)意間成為了ChatGPT的“技術(shù)支持者”。假設(shè)用戶輸入具有不符合訓(xùn)練數(shù)據(jù)要求的內(nèi)容,并利用ChatGPT生產(chǎn)出具有社會(huì)危害性的內(nèi)容,且將之付諸實(shí)踐,ChatGPT原本的技術(shù)支持者及服務(wù)提供者是否對(duì)此負(fù)有責(zé)任?由此可見(jiàn),生成式人工智能的開(kāi)放性使得監(jiān)管對(duì)象的確認(rèn)成為一個(gè)需要重新思考的問(wèn)題。

        (二)監(jiān)管主體能力不足

        ChatGPT等生成式人工智能的強(qiáng)大實(shí)力,來(lái)源于不同以往的海量數(shù)據(jù)歸集和不斷改進(jìn)的算法能力。據(jù)OpenAI透露,ChatGPT-3有1750億個(gè)參數(shù)[7]。雖然OpenAI不再公開(kāi)升級(jí)版本ChatGPT-4的數(shù)據(jù)規(guī)模,但根據(jù)技術(shù)人員的推測(cè),ChatGPT-4有1.76萬(wàn)億個(gè)參數(shù)[8]。龐大的數(shù)據(jù)集不僅可能存在自身質(zhì)量良莠不齊的問(wèn)題,還可能在訓(xùn)練階段就產(chǎn)生國(guó)家數(shù)據(jù)、政府?dāng)?shù)據(jù)、個(gè)人數(shù)據(jù)等方面的安全問(wèn)題[9]。算法方面,算法黑箱仍然是一個(gè)懸而未決的問(wèn)題。ChatGPT等人工智能的算法,本質(zhì)上是一種通過(guò)獎(jiǎng)勵(lì)模型訓(xùn)練出來(lái)的概率選擇程序。工程師們將海量數(shù)據(jù)喂養(yǎng)給算法系統(tǒng),并對(duì)算法系統(tǒng)的回答進(jìn)行或肯定或否定的賦值?!皳Q句話說(shuō),算法會(huì)重復(fù)穿梭于數(shù)據(jù)集,逐步修改或平均其預(yù)測(cè)結(jié)果,以優(yōu)化指定的標(biāo)準(zhǔn)。”[10]因此,算法的輸入與輸出之間,并非一種基于因果規(guī)則的邏輯推導(dǎo)關(guān)系,而只是一種基于概率選擇的關(guān)系。而當(dāng)算法通過(guò)海量數(shù)據(jù)的喂養(yǎng),使自己輸出的內(nèi)容越來(lái)越準(zhǔn)確時(shí),我們也逐漸不能分辨算法究竟是在關(guān)注輸入與輸出內(nèi)容的哪些精準(zhǔn)特征了。而當(dāng)因果規(guī)則與傳統(tǒng)統(tǒng)計(jì)模型都不能發(fā)揮作用時(shí),算法對(duì)于外部觀察者而言,就變成了一個(gè)黑箱[10]。在以大模型為基礎(chǔ)的生成式人工智能應(yīng)用中,解釋算法輸出與輸入之間關(guān)系的任務(wù)將更加復(fù)雜,算法黑箱的問(wèn)題將更加突出。

        生成式人工智能的復(fù)雜性暴露出監(jiān)管主體監(jiān)管能力不足的問(wèn)題,其具體表現(xiàn)為兩個(gè)方面:第一,技術(shù)實(shí)力不能滿足監(jiān)管需要。ChatGPT等生成式人工智能的技術(shù)復(fù)雜性是帶來(lái)諸多監(jiān)管挑戰(zhàn)的核心原因。所以,監(jiān)管主體應(yīng)當(dāng)具有與之相應(yīng)的技術(shù)實(shí)力,才能實(shí)現(xiàn)技術(shù)水平上的勢(shì)均力敵,識(shí)破監(jiān)管中可能存在的技術(shù)風(fēng)險(xiǎn)。不過(guò),監(jiān)管部門(mén)當(dāng)前并不能實(shí)現(xiàn)技術(shù)實(shí)力的自給,遑論具備與前沿科技公司相當(dāng)?shù)募夹g(shù)水平。我國(guó)當(dāng)前政府的技術(shù)能力建設(shè)仍依賴于市場(chǎng)上大大小小的軟件公司,而這種做法不僅具有較高的成本和較低的效率,技術(shù)水平也難以保證[11]。生成式人工智能的復(fù)雜性不過(guò)是再度凸顯了這一窘境,并加劇了解決這一問(wèn)題的緊迫性。第二,監(jiān)管效率有限,不能及時(shí)應(yīng)對(duì)監(jiān)管問(wèn)題。在人工智能技術(shù)的早期階段,我國(guó)對(duì)人工智能產(chǎn)業(yè)的監(jiān)管主要采取回應(yīng)型治理模式,因此對(duì)效率的要求尚不突出。而在目前的集中型治理模式下,監(jiān)管機(jī)關(guān)要織起一張嚴(yán)密的防控網(wǎng),積極落實(shí)監(jiān)督和保障制度[12]。這樣高強(qiáng)度的監(jiān)管模式給監(jiān)管部門(mén)帶來(lái)了更大的壓力,也對(duì)其監(jiān)管效率提出了更高的要求。

        (三)監(jiān)管過(guò)程缺乏參與

        生成式人工智能等新技術(shù)具有高速迭代的特性,不斷沖擊與挑戰(zhàn)著監(jiān)管秩序[13]。面對(duì)這些新技術(shù),政府需要盡快探索出合適的監(jiān)管規(guī)則,而這需要社會(huì)多元主體的參與。然而一方面,我國(guó)還未構(gòu)建起具有包容力的參與機(jī)制,使各方力量齊心協(xié)力地應(yīng)對(duì)快速變化的技術(shù);另一方面,現(xiàn)有的生成式人工智能監(jiān)管方式也缺乏參與渠道。當(dāng)前,對(duì)生成式人工智能主要采取算法備案等方式監(jiān)管,其存在著“缺失陳述申辯、聽(tīng)證、說(shuō)明理由等核心程序”,“程序運(yùn)行公開(kāi)度及備案管理當(dāng)事人程序參與度都明顯不夠”的問(wèn)題,并最終表現(xiàn)為“監(jiān)管機(jī)關(guān)自我決定的監(jiān)管權(quán)力封閉運(yùn)行過(guò)程”[14]。

        封閉的監(jiān)管過(guò)程不能建立暢通的信息傳遞渠道,也不能構(gòu)建起合作型的監(jiān)管機(jī)制。監(jiān)管權(quán)力封閉的運(yùn)作意味著監(jiān)管機(jī)關(guān)與其他主體的溝通程序被省略了,這限制了監(jiān)管機(jī)關(guān)獲取信息的渠道,讓監(jiān)管機(jī)關(guān)失去了與被監(jiān)管對(duì)象和更多社會(huì)相關(guān)主體的交流機(jī)會(huì)。再者,封閉的權(quán)力運(yùn)作還假定監(jiān)管機(jī)關(guān)是“全知全能”的,監(jiān)管任務(wù)只需要監(jiān)管機(jī)關(guān)自己履行職責(zé)即可完成。然而,現(xiàn)代社會(huì)下行政任務(wù)的愈加復(fù)雜以及其中牽涉利益的多元化,使“公共權(quán)力的運(yùn)用擺脫了傳統(tǒng)自上而下單向性過(guò)程而具備了自上而下的和自下而上的雙向運(yùn)用軌道”,并“以此確立了行政主體與行政相對(duì)人之間一種新穎的關(guān)系”[15]。這種關(guān)系的持續(xù)性與雙向性適應(yīng)了現(xiàn)代行政任務(wù)的復(fù)雜性,承認(rèn)了國(guó)家以外的力量的補(bǔ)充能夠讓行政機(jī)關(guān)更好地完成公共任務(wù)[16]。封閉的監(jiān)管過(guò)程讓“全知全能”的監(jiān)管機(jī)關(guān)壟斷了行政權(quán)力,阻礙了適應(yīng)現(xiàn)代行政任務(wù)的合作機(jī)制的建立。

        二、推本溯源:困境成因的行政法律分析

        生成式人工智能技術(shù)的開(kāi)放性、復(fù)雜性和高速迭代性給現(xiàn)有的監(jiān)管機(jī)制帶來(lái)了一定的挑戰(zhàn),我國(guó)行政機(jī)關(guān)尚未對(duì)此作出有效應(yīng)對(duì)。2023年出臺(tái)并實(shí)施的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》)被認(rèn)為是全球首部AIGC(生成式人工智能)領(lǐng)域的監(jiān)管法規(guī),但其仍然依循原有的監(jiān)管慣性,將監(jiān)管對(duì)象設(shè)定為“生成式人工智能服務(wù)提供者”。誠(chéng)然,我國(guó)的人工智能監(jiān)管機(jī)制一直將“服務(wù)提供者”作為監(jiān)管的核心抓手,并已逐步建立起“技術(shù)支持者—服務(wù)提供者—內(nèi)容生產(chǎn)者”的監(jiān)管鏈條。而監(jiān)管對(duì)象的內(nèi)部界限卻被實(shí)現(xiàn)技術(shù)躍遷的生成式人工智能所消解,將人工智能拆解為各部分進(jìn)行分別監(jiān)管的思路將難以適用于生成式人工智能的監(jiān)管[17]。不僅如此,現(xiàn)行法律也未能助力解決監(jiān)管主體能力不足與監(jiān)管過(guò)程缺乏參與的問(wèn)題,重新審視生成式人工智能相關(guān)的法律規(guī)定變得尤為迫切。

        (一)人工智能監(jiān)管對(duì)象之流變

        “智能時(shí)代的法律創(chuàng)新還必須緊密結(jié)合技術(shù)邏輯展開(kāi),切忌脫離技術(shù)特征談風(fēng)險(xiǎn)防控?!?sup>[13]事實(shí)上,我國(guó)法律對(duì)人工智能監(jiān)管對(duì)象的規(guī)定也表現(xiàn)出明顯的技術(shù)邏輯。具體來(lái)說(shuō),將人工智能視為多種技術(shù)的復(fù)合體,并對(duì)各種技術(shù)分別予以規(guī)制,是我國(guó)當(dāng)前治理人工智能的基本思路。

        技術(shù)邏輯的視角下,人工智能主要由兩部分組成:算法和數(shù)據(jù)[18]。由此,法律也基本從算法和數(shù)據(jù)兩個(gè)方面展開(kāi)對(duì)人工智能的監(jiān)管?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法管理規(guī)定》)是我國(guó)首部專門(mén)治理算法的規(guī)范,其確立了算法監(jiān)管的基本機(jī)制——算法備案。《算法管理規(guī)定》將保障算法安全、符合法律與倫理、真實(shí)準(zhǔn)確等責(zé)任課以算法服務(wù)提供者,以具體的“人”作為監(jiān)管對(duì)象。之后制定并實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱《深度合成管理規(guī)定》)實(shí)際上是對(duì)《算法管理規(guī)定》作出的補(bǔ)充。因?yàn)槠浔O(jiān)管對(duì)象——深度合成技術(shù)——本質(zhì)上也是一種算法。

        從立法數(shù)量上,法律規(guī)范對(duì)作為生產(chǎn)要素的“數(shù)據(jù)”的監(jiān)管更為嚴(yán)密。從《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》等法律層級(jí)的規(guī)范,到《網(wǎng)絡(luò)安全審查辦法》《數(shù)據(jù)出境安全評(píng)估辦法》等部門(mén)規(guī)章,都圍繞數(shù)據(jù)設(shè)置了具體的監(jiān)管對(duì)象,即數(shù)據(jù)處理者。換言之,數(shù)據(jù)處理者對(duì)數(shù)據(jù)負(fù)有各項(xiàng)義務(wù),而監(jiān)管者的任務(wù)也即監(jiān)督管理數(shù)據(jù)處理者履行義務(wù),這一過(guò)程的核心仍然是“人”。

        當(dāng)然,法律作為調(diào)整社會(huì)關(guān)系的調(diào)節(jié)器,處理的本就是人與人的關(guān)系。若以關(guān)系鏈的形式表示法律對(duì)數(shù)據(jù)以及算法的監(jiān)管,將呈現(xiàn)如下鏈條:法律—服務(wù)提供者—算法;法律—數(shù)據(jù)處理者—數(shù)據(jù)。但生成式人工智能及作為其基礎(chǔ)的大模型改變了現(xiàn)有的鏈條。大模型將算法與海量的數(shù)據(jù)深度融合,即將成為新時(shí)代的基礎(chǔ)設(shè)施。一方面,大模型的泛用性極強(qiáng),能夠廣泛應(yīng)用于各類應(yīng)用與系統(tǒng),并不需要過(guò)于豐富的品類。另一方面,巨大的開(kāi)發(fā)成本使得大模型只能是少數(shù)行業(yè)巨頭的“昂貴的嘗試”[19],而足夠的財(cái)力和技術(shù)實(shí)力也能保障大模型的穩(wěn)定性與前沿性,為社會(huì)供給足夠的服務(wù)。于是,法律監(jiān)管的關(guān)系鏈更迭為“法律—義務(wù)人—大模型(生成式人工智能)”。

        其中,義務(wù)人是指對(duì)大模型負(fù)有管理義務(wù)的行政相對(duì)人。而之所以使用義務(wù)人這一模糊的指代,是因?yàn)樯墒饺斯ぶ悄苣:吮O(jiān)管對(duì)象之間的區(qū)分,而現(xiàn)有法律尚不能做出恰當(dāng)?shù)奶幚怼S袑W(xué)者認(rèn)為,《暫行辦法(征求意見(jiàn)稿)》將基礎(chǔ)模型的訓(xùn)練數(shù)據(jù)列為專門(mén)的調(diào)整對(duì)象,意味著我國(guó)已經(jīng)著手對(duì)基礎(chǔ)模型展開(kāi)監(jiān)管[17]。不過(guò),征求意見(jiàn)稿第7條第2款的內(nèi)容,“用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù),應(yīng)滿足以下要求”,也被修改為《暫行辦法》第7條第1款“生成式人工智能服務(wù)提供者(以下稱提供者)應(yīng)當(dāng)依法開(kāi)展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),遵守以下規(guī)定”。語(yǔ)法的變化或可表明,我國(guó)當(dāng)前人工智能的監(jiān)管抓手仍然是具體的服務(wù)提供者,其目光并沒(méi)有移轉(zhuǎn)到生成式人工智能及其大模型。

        (二)組合式監(jiān)管無(wú)法賦能生成式人工智能監(jiān)管

        技術(shù)實(shí)力與監(jiān)管效率的不足,在一定程度上與現(xiàn)行監(jiān)管法律的規(guī)定密切相關(guān)。因?yàn)閺目傮w上看,是立法的部門(mén)化導(dǎo)致了生成式人工智能的監(jiān)管部門(mén)化,而各個(gè)部門(mén)的組合式監(jiān)管共同構(gòu)成了生成式人工智能的監(jiān)管網(wǎng)絡(luò)。部門(mén)間的各項(xiàng)資源尚沒(méi)有形成良好的整合,必然導(dǎo)致該種形式的監(jiān)管在一定程度上存在監(jiān)管能力不足的問(wèn)題。

        第一,《暫行辦法》等法律規(guī)范指向了一個(gè)模糊的主管部門(mén)。《暫行辦法》第16條第2款規(guī)定,“國(guó)家有關(guān)主管部門(mén)……制定相應(yīng)的分類分級(jí)監(jiān)管規(guī)則或者指引?!币约暗?8條規(guī)定,“使用者發(fā)現(xiàn)生成式人工智能服務(wù)不符合法律、行政法規(guī)和本辦法規(guī)定的,有權(quán)向有關(guān)主管部門(mén)投訴、舉報(bào)?!薄坝嘘P(guān)部門(mén)”的模糊表述,雖然為生成式人工智能監(jiān)管職責(zé)的調(diào)整預(yù)留了空間,但也給法律的執(zhí)行帶來(lái)難題。詳言之,通過(guò)算法備案機(jī)制進(jìn)行監(jiān)管的責(zé)任由《暫行辦法》第17條明確為國(guó)家網(wǎng)信部門(mén),但第19條又規(guī)定,“有關(guān)主管部門(mén)依據(jù)職責(zé)對(duì)生成式人工智能服務(wù)開(kāi)展監(jiān)督檢查”,可見(jiàn),監(jiān)督檢查的職責(zé)似乎是各部門(mén)都具有的?!熬琵堉嗡钡母窬植粌H給監(jiān)管對(duì)象帶來(lái)不便,也使真正負(fù)責(zé)的監(jiān)管主體難以確認(rèn)。

        第二,《暫行辦法》等法律規(guī)范沒(méi)有理清組合式監(jiān)管中各主體的權(quán)責(zé)。例如,最新的專門(mén)立法《暫行辦法》第16條第1款規(guī)定,“網(wǎng)信、發(fā)展改革、教育等部門(mén),依據(jù)各自職責(zé)依法加強(qiáng)對(duì)生成式人工智能服務(wù)的管理?!痹摋l款顯然是一項(xiàng)宣示性條款,其并沒(méi)有為各部門(mén)設(shè)定或明確權(quán)責(zé)。而《暫行辦法》第20條、第21條等條款,雖然表面上增加了新的行政監(jiān)管事項(xiàng)并規(guī)定了具體的罰則,但究其本質(zhì),仍然只是對(duì)其他法律規(guī)范的轉(zhuǎn)述。可見(jiàn),生成式人工智能的各監(jiān)管部門(mén)仍需要通過(guò)理解、解釋一般性立法,來(lái)執(zhí)行本部門(mén)的監(jiān)管職責(zé),這將不可避免地造成權(quán)責(zé)劃分上的模糊。

        第三,在技術(shù)層面,《暫行辦法》等法律規(guī)范也并未規(guī)定監(jiān)管機(jī)關(guān)之間的技術(shù)支持機(jī)制,且將技術(shù)的解釋權(quán)保留給了被監(jiān)管者?!稌盒修k法》第19條第1款規(guī)定,“提供者應(yīng)當(dāng)依法予以配合,按要求對(duì)訓(xùn)練數(shù)據(jù)來(lái)源、規(guī)模、類型、標(biāo)注規(guī)則、算法機(jī)制機(jī)理等予以說(shuō)明,并提供必要的技術(shù)數(shù)據(jù)等支持和協(xié)助?!奔僭O(shè)教育部門(mén)就某個(gè)應(yīng)用于教學(xué)的生成式人工智能進(jìn)行監(jiān)督檢查,由于其自身不具備技術(shù)實(shí)力,且現(xiàn)行法律規(guī)范并未通過(guò)人才引入等機(jī)制賦予該教育部門(mén)技術(shù)實(shí)力,那么本次檢查的技術(shù)解釋權(quán)將全部歸屬于被監(jiān)管的部門(mén)。監(jiān)督檢查的公正性和有效性由此存疑,而在生成式人工智能的生成內(nèi)容高度依賴大模型中的數(shù)據(jù)與算法時(shí),“技術(shù)無(wú)涉”的內(nèi)容監(jiān)管部門(mén)是否應(yīng)放棄技術(shù)層面的必要監(jiān)管也值得進(jìn)一步討論。

        總之,組合式的監(jiān)管在法律上存在監(jiān)管主體及其權(quán)責(zé)不清、缺失統(tǒng)籌部門(mén)與協(xié)調(diào)機(jī)制等問(wèn)題,并造成監(jiān)管資源的低效利用??梢哉f(shuō),當(dāng)前的組合式監(jiān)管不僅無(wú)法賦能監(jiān)管機(jī)關(guān),甚至可能減損了監(jiān)管機(jī)關(guān)的監(jiān)管能力,阻礙了有效有為監(jiān)管者的實(shí)現(xiàn)。

        (三)監(jiān)管過(guò)程缺少程序性規(guī)范

        行政監(jiān)管貫穿于事前、事中和事后的全過(guò)程[20],能夠?qū)ι墒饺斯ぶ悄苓M(jìn)行全方位的監(jiān)督管理。而我國(guó)法律規(guī)范缺少對(duì)監(jiān)管過(guò)程的程序性控制,這不僅造成了監(jiān)管過(guò)程的封閉性,更是體現(xiàn)出我國(guó)行政監(jiān)管民主參與水平的不足。

        事中事后監(jiān)管是我國(guó)生成式人工智能的監(jiān)管的主要階段,而其可以依據(jù)的程序性規(guī)范存在一定缺失。一方面,現(xiàn)有的程序規(guī)定過(guò)于簡(jiǎn)單,算法備案等程序規(guī)定不能給相對(duì)人以合適的指引?!端惴ü芾硪?guī)定》第25條規(guī)定,“國(guó)家和省、自治區(qū)、直轄市網(wǎng)信部門(mén)收到備案人提交的備案材料后,材料齊全的,應(yīng)當(dāng)在三十個(gè)工作日內(nèi)予以備案,發(fā)放備案編號(hào)并進(jìn)行公示;材料不齊全的,不予備案,并應(yīng)當(dāng)在三十個(gè)工作日內(nèi)通知備案人并說(shuō)明理由?!痹摋l主要有兩個(gè)程序性要素,一是備案的期限,二是備案的條件。其中,材料是否齊全是唯一的備案條件,而是否齊全的判斷標(biāo)準(zhǔn)理應(yīng)有一份材料清單,但《算法管理規(guī)定》并沒(méi)有給出。一般而言,行政許可、行政備案等需要行政相對(duì)人事先準(zhǔn)備材料的行政行為,都應(yīng)當(dāng)提前公示所需的材料目錄?!缎姓S可法》第30條第1款規(guī)定,“行政機(jī)關(guān)應(yīng)當(dāng)將法律、法規(guī)、規(guī)章規(guī)定的有關(guān)行政許可的事項(xiàng)、依據(jù)、條件、數(shù)量、程序、期限以及需要提交的全部材料的目錄和申請(qǐng)書(shū)示范文本等在辦公場(chǎng)所公示。”另一方面,部分監(jiān)管行為缺少程序規(guī)定,如數(shù)據(jù)安全評(píng)估。目前,僅有《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)安全評(píng)估規(guī)定》對(duì)部分算法進(jìn)行安全評(píng)估的范圍、內(nèi)容、程序作出規(guī)定,《數(shù)據(jù)安全法》規(guī)定的重要數(shù)據(jù)的處理者的數(shù)據(jù)安全評(píng)估義務(wù),尚無(wú)一般性的規(guī)定。這些具體程序性規(guī)范的缺失無(wú)疑會(huì)造成具體監(jiān)管過(guò)程的不透明與恣意。

        更為重要的是,現(xiàn)有規(guī)范仍然保持著高權(quán)行政的風(fēng)格,不能為被監(jiān)管主體與其他社會(huì)主體提供暢通的民主參與渠道。監(jiān)管生成式人工智能的相關(guān)法律規(guī)范以事中事后監(jiān)管為主,順應(yīng)了生成式人工智能的技術(shù)發(fā)展邏輯,但其并未改變行政機(jī)關(guān)高高在上、遠(yuǎn)離技術(shù)的監(jiān)管常態(tài)。被監(jiān)管主體“盡管具備更強(qiáng)的風(fēng)險(xiǎn)預(yù)見(jiàn)和防范能力,但是喪失主體性而處于被控制者地位,無(wú)法有效利用技術(shù)優(yōu)勢(shì)和地位優(yōu)勢(shì)協(xié)助開(kāi)展監(jiān)管”[21]。同樣,其他社會(huì)主體的智慧也無(wú)法賦能監(jiān)管。為解決這一問(wèn)題,《數(shù)據(jù)安全法》《暫行辦法》等全國(guó)性規(guī)范以及《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》等地方性規(guī)范做出了一定的嘗試。如《暫行辦法》第5條第2款規(guī)定,“支持行業(yè)組織、企業(yè)、教育和科研機(jī)構(gòu)、公共文化機(jī)構(gòu)、有關(guān)專業(yè)機(jī)構(gòu)等在生成式人工智能技術(shù)創(chuàng)新風(fēng)險(xiǎn)防范等方面開(kāi)展協(xié)作?!钡摋l款避重就輕,僅強(qiáng)調(diào)社會(huì)自治的協(xié)作而未將監(jiān)管機(jī)關(guān)納入?yún)f(xié)作網(wǎng)絡(luò),不能觸及問(wèn)題的核心。此外,目的相仿的其他條款多為宣示性條款,并不具備強(qiáng)制的法律效力。

        總的來(lái)說(shuō),生成式人工智能的行政監(jiān)管過(guò)程尚未實(shí)現(xiàn)規(guī)范化,多元主體更是無(wú)法通過(guò)程序性機(jī)制參與監(jiān)管過(guò)程。高權(quán)行政的慣性使得執(zhí)法保持了傳統(tǒng)的思路,而程序性規(guī)范的不完善則是直接造成監(jiān)管封閉性的原因。

        三、紓解之道:生成式人工智能的整體性治理

        綜上可知,現(xiàn)行法律的不足造成了生成式人工智能的行政監(jiān)管困境,而其本質(zhì)原因在于,傳統(tǒng)行政法理論還未能適應(yīng)現(xiàn)代行政監(jiān)管的轉(zhuǎn)型。傳統(tǒng)行政法律理論以行政行為為核心,主要關(guān)注的是行政行為的合法性問(wèn)題。但是,“某種程度意義上,現(xiàn)代政府所面臨的核心問(wèn)題,不是它們做什么,而是如何做;與之相適應(yīng)的行政法則應(yīng)置于整個(gè)政治體制下來(lái)審視,而不僅僅局限于對(duì)行政活動(dòng)在法律框架下應(yīng)當(dāng)做什么而不應(yīng)當(dāng)做什么的純粹合法與否的關(guān)注?!?sup>[15]因此,必須從其他的理論視角出發(fā),將關(guān)注從個(gè)別行為移轉(zhuǎn)到整體治理目標(biāo)的實(shí)現(xiàn)上來(lái)。

        (一)以整體性治理理論塑造AI監(jiān)管制度

        對(duì)生成式人工智能的有效監(jiān)管離不開(kāi)監(jiān)管體制的改革,而整體性治理理論正是我國(guó)行政體制改革的重要指導(dǎo)理論,我國(guó)近幾次的行政體制改革均體現(xiàn)著整體性治理的思路。2023年3月20日第十四屆全國(guó)人民代表大會(huì)第一次會(huì)議通過(guò)的《國(guó)務(wù)院機(jī)構(gòu)改革方案》,以習(xí)近平新時(shí)代中國(guó)特色社會(huì)主義思想為指導(dǎo),“加強(qiáng)科學(xué)技術(shù)、金融監(jiān)管、數(shù)據(jù)管理、鄉(xiāng)村振興、知識(shí)產(chǎn)權(quán)、老齡工作等重點(diǎn)領(lǐng)域的機(jī)構(gòu)職責(zé)優(yōu)化和調(diào)整,轉(zhuǎn)變政府職能”,是在大部制基礎(chǔ)上對(duì)各部門(mén)職能的進(jìn)一步優(yōu)化[22],也遵循著整體性治理的邏輯思維。

        整體性治理理論發(fā)端于英國(guó),著眼于政府內(nèi)部機(jī)構(gòu)和部門(mén)的整體性運(yùn)作,其核心主旨是整合政府的內(nèi)部機(jī)構(gòu)和部門(mén)以整合政府的各項(xiàng)功能,從而實(shí)現(xiàn)更好的治理。整體性治理的理論內(nèi)涵較為豐富,它的主要思想包括逆部門(mén)化和碎片化、大部式治理、重新政府化、恢復(fù)或重新加強(qiáng)中央過(guò)程等內(nèi)容[23]。將整體性治理理論應(yīng)用于生成式人工智能監(jiān)管體制的改革并不意味著接受整體性治理理論的全部思想,尤其是該理論發(fā)源于英國(guó),具有明顯的國(guó)家特色。例如,“重新政府化”的整體性治理思路并不適用我國(guó),因?yàn)槲覈?guó)傳統(tǒng)治理場(chǎng)域過(guò)度政府化的問(wèn)題尚未解決,遑論重新政府化[24]。事實(shí)上,整體性治理理論在我國(guó)的應(yīng)用實(shí)踐也保持了中國(guó)特色社會(huì)主義制度的特色,是在中國(guó)經(jīng)驗(yàn)的基礎(chǔ)上對(duì)西方整體性治理理論的創(chuàng)新和超越[25]。

        以整體性治理理論形塑生成式人工智能的監(jiān)管制度具有四點(diǎn)優(yōu)勢(shì)。(1)整體性治理理論可以統(tǒng)籌創(chuàng)新與風(fēng)險(xiǎn)監(jiān)管。對(duì)生成式人工智能這一新技術(shù)展開(kāi)監(jiān)管必然需要考量創(chuàng)新與風(fēng)險(xiǎn)這一對(duì)范疇,而理想的監(jiān)管方案也一定是二者的平衡。達(dá)成此平衡需要全局的考量,也即從一種整體的視角觀察。(2)整體性治理理論可以擴(kuò)大傳統(tǒng)行政法理論關(guān)注對(duì)象的范圍。生成式人工智能行政監(jiān)管的問(wèn)題不是對(duì)監(jiān)管行為是否合法的判斷,而是如何在控制風(fēng)險(xiǎn)的前提下促進(jìn)生成式人工智能發(fā)展的問(wèn)題。傳統(tǒng)理論重點(diǎn)關(guān)注具有外部效力的行政行為,并以行為錨定監(jiān)管主體與監(jiān)管對(duì)象,而這樣的思路把監(jiān)管全程過(guò)分簡(jiǎn)單地化約為了最后表示在外的行為。整體性治理理論則能重新建立對(duì)監(jiān)管全過(guò)程的重視,并將更好的監(jiān)管作為監(jiān)管主體的目標(biāo)。(3)整體性治理理論可以精準(zhǔn)應(yīng)對(duì)監(jiān)管主體能力不足的問(wèn)題?!罢稀币恢笔钦w性治理理論的關(guān)鍵詞,其強(qiáng)調(diào)的是通過(guò)合并政府組織和部門(mén)功能,以形成一個(gè)更能有效解決問(wèn)題的政府。(4)整體性治理理論能夠優(yōu)化治理的過(guò)程。整體性治理強(qiáng)調(diào)的自上而下的建構(gòu),當(dāng)然也包括程序機(jī)制的統(tǒng)一,并且其強(qiáng)調(diào)的程序機(jī)制并不排斥非政府主體的參與,具有包容性。

        由上可見(jiàn),將整體性治理理論運(yùn)用于生成式人工智能的監(jiān)管,既具有諸多方面的理論優(yōu)勢(shì),也符合我國(guó)行政體制改革的一貫思路。而整體性治理在生成式人工智能行政監(jiān)管中的具體展開(kāi),可以從以下三個(gè)方面入手。

        (二)產(chǎn)品監(jiān)管:AI監(jiān)管對(duì)象的整體化思路

        數(shù)據(jù)處理者和服務(wù)提供者是原本監(jiān)管體制的核心,而生成式人工智能的出現(xiàn)增加了識(shí)別二者責(zé)任的難度。在生成式人工智能的應(yīng)用系統(tǒng)中,似乎只有生成式人工智能技術(shù)是明確的中心,其技術(shù)支持者、服務(wù)提供者、直接亦或間接的使用者,也只是相對(duì)確定但可以不斷變化的。但如果再考慮到生成式人工智能昂貴的開(kāi)發(fā)成本、龐大的數(shù)據(jù)集和在此基礎(chǔ)上不斷演化的算法,每個(gè)生成式人工智能技術(shù)項(xiàng)目都可以說(shuō)是獨(dú)一無(wú)二的。雖然在理論上,某個(gè)生成式人工智能可以被復(fù)制為無(wú)數(shù)份,不過(guò),人工智能的主要開(kāi)發(fā)者必然會(huì)對(duì)其進(jìn)行保密,以保持其模型的競(jìng)爭(zhēng)優(yōu)勢(shì)和獨(dú)一無(wú)二性[26]。所以,生成式人工智能可以被暫時(shí)認(rèn)作一份獨(dú)一無(wú)二的“產(chǎn)品”。

        在相對(duì)確定的產(chǎn)品與相對(duì)不確定的產(chǎn)品開(kāi)發(fā)者、使用者之間,產(chǎn)品應(yīng)當(dāng)走入監(jiān)管視野的中心。而在整體治理的思路下,將產(chǎn)品作為線索,將產(chǎn)品背后的人統(tǒng)一納入監(jiān)管,是解決監(jiān)管對(duì)象確認(rèn)問(wèn)題的可行方法。產(chǎn)品監(jiān)管具體可以通過(guò)三個(gè)具體措施實(shí)現(xiàn)。

        第一,完善備案信息,為產(chǎn)品監(jiān)管提供抓手。目前的算法備案機(jī)制為監(jiān)管機(jī)構(gòu)提供了信息,緩解了監(jiān)管主體的信息匱乏,有利于監(jiān)管機(jī)構(gòu)科學(xué)地開(kāi)展監(jiān)管活動(dòng),提升監(jiān)管效能[27]。生成式人工智能備案應(yīng)當(dāng)進(jìn)一步升級(jí),實(shí)現(xiàn)算法、數(shù)據(jù)、場(chǎng)景、主體等更多維度信息的備案,最終構(gòu)建起大模型備案機(jī)制。詳言之,不僅算法要進(jìn)行備案,大模型的數(shù)據(jù)集、應(yīng)用場(chǎng)景以及授權(quán)使用大模型的其他開(kāi)發(fā)主體等內(nèi)容,也應(yīng)當(dāng)進(jìn)行備案。同時(shí),這種備案并非一次性的,而是盡可能保持持續(xù)的更新,實(shí)現(xiàn)與監(jiān)管機(jī)關(guān)的實(shí)時(shí)共享。

        第二,明確管理義務(wù),提升產(chǎn)品的安全性。首先,凡是運(yùn)行和維護(hù)生成式人工智能產(chǎn)品的主體,即具有對(duì)其的管理義務(wù)。生成式人工智能模型的初級(jí)開(kāi)發(fā)者,當(dāng)然具有管理義務(wù),除非其將該人工智能模型轉(zhuǎn)讓給他者。生成式人工智能模型的次級(jí)開(kāi)發(fā)者,也對(duì)其具有部分的管理義務(wù)。所謂次級(jí)開(kāi)發(fā)者,指的是將生成式人工智能產(chǎn)品嵌入自己開(kāi)發(fā)的應(yīng)用中,二次開(kāi)發(fā)利用生成個(gè)性化產(chǎn)品的開(kāi)發(fā)者,也即上文提及的“授權(quán)使用大模型的其他開(kāi)發(fā)主體”。次級(jí)開(kāi)發(fā)者對(duì)個(gè)性化的部分負(fù)有管理義務(wù),如次級(jí)開(kāi)發(fā)者輸入的用以個(gè)性化的數(shù)據(jù)。其次,管理義務(wù)根據(jù)不同的層次內(nèi)容不同。初級(jí)開(kāi)發(fā)者要注重生成式人工智能產(chǎn)品的合倫理性,避免其在根本上存在的潛在的違法傾向;次級(jí)開(kāi)發(fā)者則要注重個(gè)性化數(shù)據(jù)的應(yīng)用場(chǎng)景,可以引入數(shù)據(jù)的分級(jí)分類制度來(lái)保障數(shù)據(jù)的安全[17]。

        第三,賦予使用者監(jiān)督權(quán),確保產(chǎn)品的靈敏性。應(yīng)先明確的是,使用者故意不當(dāng)使用生成式人工智能產(chǎn)品所產(chǎn)生的不良后果,不應(yīng)由開(kāi)發(fā)者承擔(dān)責(zé)任,但開(kāi)發(fā)者應(yīng)當(dāng)對(duì)用戶輸入的數(shù)據(jù)進(jìn)行篩選,避免其影響產(chǎn)品本身。而使用者在使用過(guò)程中,發(fā)現(xiàn)產(chǎn)品可能出現(xiàn)的歧視、誤導(dǎo)、虛假信息,應(yīng)享有監(jiān)督權(quán)。生成式人工智能是一個(gè)通過(guò)不斷交互進(jìn)行升級(jí)的產(chǎn)品,因而不應(yīng)忽視用戶本身對(duì)于產(chǎn)品的貢獻(xiàn),應(yīng)當(dāng)重視使用者的感受和問(wèn)題反映。并且基于生成式人工智能的技術(shù)能力,個(gè)人用戶的舉報(bào)投訴應(yīng)至少得到格式化的反饋,而對(duì)于頻繁出現(xiàn)的問(wèn)題則應(yīng)當(dāng)進(jìn)行更正式的說(shuō)明,甚至在必要時(shí)制定并公開(kāi)“偏見(jiàn)影響聲明”等可能影響使用者權(quán)益的文件[28]。

        由此,行政監(jiān)管能夠以大模型備案機(jī)制為基礎(chǔ),鎖定背后不同層級(jí)開(kāi)發(fā)者的責(zé)任義務(wù)。而眾多使用者對(duì)產(chǎn)品進(jìn)行的監(jiān)督,則是整體化的產(chǎn)品監(jiān)管的重要力量。

        (三)資源整合:主要監(jiān)管機(jī)關(guān)的確認(rèn)

        對(duì)監(jiān)管主體和職能的整合是整體性治理所重點(diǎn)關(guān)注的,也是當(dāng)前生成式人工智能行政監(jiān)管所需要的。而哪一機(jī)關(guān)應(yīng)當(dāng)作為生成式人工智能監(jiān)管的主要機(jī)關(guān),亦或是否需要新設(shè)一個(gè)專門(mén)機(jī)關(guān)監(jiān)管人工智能的問(wèn)題,則是有待明確的。是否需要設(shè)立一個(gè)專門(mén)的人工智能監(jiān)管機(jī)關(guān)?對(duì)此,歐盟的答案是肯定的。已由歐盟理事會(huì)批準(zhǔn)公布的《人工智能法案》計(jì)劃設(shè)置獨(dú)立的“歐洲人工智能辦公室”(The European Artificial Intelligence Office),其主要職責(zé)即監(jiān)管歐盟范圍內(nèi)的人工智能模型。[29]。歐洲人工智能辦公室的設(shè)立,很大程度上是為了實(shí)現(xiàn)歐盟這一國(guó)家聯(lián)盟內(nèi)人工智能監(jiān)管的統(tǒng)一性,而我國(guó)的國(guó)家互聯(lián)網(wǎng)信息辦公室(以下簡(jiǎn)稱網(wǎng)信辦)已然可以擔(dān)當(dāng)此角色。在現(xiàn)有的規(guī)范和實(shí)踐中,網(wǎng)信部門(mén)作為《算法管理規(guī)定》《暫行辦法》規(guī)定的重要監(jiān)管主體,也應(yīng)當(dāng)被進(jìn)一步確認(rèn)為我國(guó)人工智能監(jiān)管的主要機(jī)關(guān)。

        首先,將網(wǎng)信部門(mén)規(guī)定為統(tǒng)籌人工智能監(jiān)管的機(jī)關(guān)。建議在之后的《生成式人工智能管理辦法》中增加如下條款:“各級(jí)網(wǎng)信部門(mén)是人工智能產(chǎn)品的主管部門(mén),負(fù)責(zé)統(tǒng)籌、協(xié)調(diào)、實(shí)施本行政區(qū)域內(nèi)人工智能產(chǎn)品監(jiān)管工作?!比绱瞬拍芟鞴懿块T(mén)的模糊性,明確網(wǎng)信部門(mén)作為主要監(jiān)管機(jī)關(guān)的地位。需要注意的是,網(wǎng)信部門(mén)是生成式人工智能的主管部門(mén)而不是唯一部門(mén),其他部門(mén)行使的生成式人工智能監(jiān)管權(quán)力可以由網(wǎng)信部門(mén)進(jìn)行統(tǒng)籌協(xié)調(diào)。具體來(lái)說(shuō),因?yàn)樯墒饺斯ぶ悄艿母驹谟谒惴ㄅc數(shù)據(jù),所以網(wǎng)信部門(mén)主要行使生成式人工智能算法與數(shù)據(jù)的安全監(jiān)管權(quán)力,而監(jiān)管事項(xiàng)涉及其他部門(mén)的主要職能時(shí),則由其他部門(mén)進(jìn)行監(jiān)管,由網(wǎng)信部門(mén)進(jìn)行統(tǒng)籌。例如,《科技倫理審查辦法(試行)》規(guī)定,人工智能的研究活動(dòng)需要經(jīng)過(guò)科技倫理審查,該監(jiān)管事項(xiàng)就由科技部主要負(fù)責(zé),而這樣的分工也符合“功能適當(dāng)性”[30]的考量。

        其次,集中生成式人工智能的監(jiān)管權(quán)力。作為主要的人工智能監(jiān)管行政機(jī)關(guān),網(wǎng)信部門(mén)需要配置以更廣泛的權(quán)力。雖然主要職能的不同使得網(wǎng)信部門(mén)與工業(yè)和信息化部門(mén)、科技主管部門(mén)、市場(chǎng)監(jiān)管部門(mén)等仍有一定的分工,但這并不妨礙將監(jiān)管權(quán)力進(jìn)一步集中到網(wǎng)信部門(mén)。第一,落實(shí)網(wǎng)信部門(mén)的事中事后監(jiān)管權(quán)。僅憑算法備案機(jī)制以及其升級(jí)版本的大模型備案機(jī)制,網(wǎng)信部門(mén)尚不能實(shí)現(xiàn)對(duì)生成式人工智能監(jiān)管的實(shí)效,其還需要“與其他事中事后監(jiān)管機(jī)制的聯(lián)動(dòng)與強(qiáng)化后續(xù)監(jiān)管執(zhí)法工具的威懾力來(lái)實(shí)現(xiàn)對(duì)相對(duì)人的過(guò)程控制”[31]。故而,網(wǎng)信部門(mén)應(yīng)當(dāng)可以通過(guò)“雙隨機(jī)、一公開(kāi)”對(duì)備案內(nèi)容進(jìn)行檢查執(zhí)法。第二,保持網(wǎng)信部門(mén)的政策制定主導(dǎo)權(quán)。在《算法管理規(guī)定》《暫行辦法》等生成式人工智能治理的政策規(guī)范中,網(wǎng)信部門(mén)往往是聯(lián)合印發(fā)的各部門(mén)中的牽頭人,而今后關(guān)于生成式人工智能治理的其他政策規(guī)范,也應(yīng)當(dāng)由網(wǎng)信部門(mén)主導(dǎo)。因?yàn)榫W(wǎng)信部門(mén)不僅具有豐富的立法經(jīng)驗(yàn),更是方便直接將執(zhí)法經(jīng)驗(yàn)向立法轉(zhuǎn)化,是詳盡規(guī)則制定的最適合機(jī)關(guān)[32]。其他相關(guān)部門(mén)應(yīng)當(dāng)配合好網(wǎng)信部門(mén),并向其反饋不同部門(mén)視角下的觀點(diǎn),以避免部門(mén)利益立法的傾向[33]。第三,尊重網(wǎng)信部門(mén)的統(tǒng)籌權(quán)。網(wǎng)信部門(mén)應(yīng)當(dāng)用好統(tǒng)籌權(quán),協(xié)調(diào)各部門(mén)展開(kāi)生成式人工智能的整體性治理,特別是統(tǒng)籌調(diào)動(dòng)政府技術(shù)部門(mén),發(fā)揮好技術(shù)部門(mén)的技術(shù)支持作用。統(tǒng)籌權(quán)可以通過(guò)我國(guó)整體性治理理論所強(qiáng)調(diào)的黨政融合加以實(shí)現(xiàn)[34],而各部門(mén)也應(yīng)當(dāng)尊重網(wǎng)信部門(mén)的統(tǒng)籌指令。

        最后,還應(yīng)當(dāng)考慮適時(shí)提高網(wǎng)信部門(mén)的行政級(jí)別。在國(guó)家層面,網(wǎng)信辦仍然只是國(guó)務(wù)院的辦事機(jī)構(gòu),不具有獨(dú)立的行政管理職能。而在人工智能、算法、數(shù)據(jù)等基礎(chǔ)之上的網(wǎng)絡(luò)社會(huì)中,網(wǎng)信辦的執(zhí)法權(quán)力與責(zé)任只會(huì)越來(lái)越大。那么,當(dāng)前的行政級(jí)別勢(shì)必不能匹配網(wǎng)信辦未來(lái)的地位和作用。再者,人工智能監(jiān)管具有一定的國(guó)際化趨勢(shì)[35],網(wǎng)信辦也需要合適的身份與國(guó)外監(jiān)管機(jī)關(guān)進(jìn)行交流合作。

        (四)過(guò)程優(yōu)化:監(jiān)管程序的整體性構(gòu)建

        整體性治理不僅強(qiáng)調(diào)行政機(jī)關(guān)組織內(nèi)部的治理資源整合,還重視將社會(huì)力量納入治理網(wǎng)絡(luò),而這正是破除傳統(tǒng)高權(quán)行政慣性的指南?!罢瓶卮罅抠Y源和專業(yè)知識(shí),但是并不足以滿足公眾的所有需求,將社會(huì)不同部門(mén)的資源和專業(yè)知識(shí)整合到一起,共同面對(duì)公共議題,才是解決公共問(wèn)題的最佳辦法?!?sup>[36]因此,行政機(jī)關(guān)需要從高權(quán)行政轉(zhuǎn)變?yōu)槠跫s行政,從單向、封閉的監(jiān)管體系升級(jí)為互動(dòng)、合作的監(jiān)管體系。從程序機(jī)制構(gòu)建生成式人工智能整體性治理的合作機(jī)制,是現(xiàn)有條件下最具可行性的方案。

        首先,增設(shè)生成式人工智能行政監(jiān)管的定期咨詢程序。歐盟計(jì)劃建立“咨詢論壇”(Advisory forum)為人工智能治理提供技術(shù)經(jīng)驗(yàn)和建議,且規(guī)定咨詢論壇每年至少舉行兩次會(huì)議。[29]我國(guó)網(wǎng)信部門(mén)也可以定期組織咨詢會(huì),與生成式人工智能利益相關(guān)的企業(yè)、社會(huì)組織、學(xué)術(shù)代表、人民代表進(jìn)行交流溝通。與會(huì)代表應(yīng)通過(guò)遴選的方式產(chǎn)生,使之從整體上兼顧各方利益,尤其是中小規(guī)模的人工智能技術(shù)開(kāi)發(fā)者,而為了咨詢程序的按時(shí)有序,代表也可以實(shí)行任期制。其次,完善程序規(guī)則的細(xì)節(jié)。在現(xiàn)有規(guī)范的基礎(chǔ)上,還需完善以下方面。(1)制定、公開(kāi)大模型備案所需的材料清單。(2)規(guī)定材料不齊全、不符合規(guī)定情形下的補(bǔ)正程序。(3)繼續(xù)完善較為專業(yè)和獨(dú)立的材料的準(zhǔn)備程序,如安全評(píng)估報(bào)告。我國(guó)已制定《工業(yè)和信息化領(lǐng)域數(shù)據(jù)安全管理辦法(試行)》《工業(yè)和信息化領(lǐng)域數(shù)據(jù)安全風(fēng)險(xiǎn)評(píng)估實(shí)施細(xì)則(試行)》,對(duì)工業(yè)和信息化領(lǐng)域的數(shù)據(jù)安全評(píng)估報(bào)告進(jìn)行了細(xì)致規(guī)定,但數(shù)據(jù)評(píng)估報(bào)告是所有人工智能項(xiàng)目均需要的必備材料,更應(yīng)構(gòu)建起一個(gè)整體統(tǒng)一的程序機(jī)制。(4)制定網(wǎng)信部門(mén)“雙隨機(jī)、一公開(kāi)”監(jiān)管機(jī)制的程序規(guī)定,包括雙隨機(jī)抽查工作細(xì)則、抽查事項(xiàng)清單,以及由各級(jí)網(wǎng)信部門(mén)制定的“檢查對(duì)象清單”“執(zhí)法檢查人員清單”等。最后,在監(jiān)管過(guò)程中為當(dāng)事人提供救濟(jì)渠道。雖然監(jiān)管過(guò)程中的大部分行政行為均屬于事實(shí)行為,不設(shè)定、改變、減損或增加當(dāng)事人的權(quán)利義務(wù),但這并不意味著當(dāng)事人完全不享有獲得救濟(jì)的權(quán)利。行政監(jiān)管中的所有事實(shí)行為均有行政強(qiáng)制力作為后盾,若當(dāng)事人未完成行政事實(shí)行為的要求,其權(quán)利義務(wù)當(dāng)然會(huì)受到影響[37]。大模型備案從性質(zhì)上也屬于行政事實(shí)行為,但若備案不予通過(guò),當(dāng)事人開(kāi)發(fā)、使用人工智能的權(quán)益當(dāng)然會(huì)受到影響,因而應(yīng)當(dāng)予以當(dāng)事人陳述申辯、尋求救濟(jì)的渠道。例如,當(dāng)事人在不認(rèn)可不予備案的理由時(shí),應(yīng)當(dāng)有權(quán)請(qǐng)求備案機(jī)關(guān)重新審查。

        結(jié)語(yǔ)

        法律發(fā)展的歷史即社會(huì)生活的變遷史,而人工智能技術(shù)已經(jīng)融入我們的社會(huì)生活之中[38]。生成式人工智能等技術(shù)的發(fā)展速度也一直存在“加速度”,這使得科技促成的社會(huì)變化越來(lái)越劇烈。問(wèn)題是,變化有益于社會(huì)生活中的普通人嗎[39],又如何平衡技術(shù)發(fā)展的速度與安全性?法律與政策絕不能把科技發(fā)展的高速路變?yōu)橥谅贰⒛嗦?,但也必須設(shè)置一些減速帶,保障科技進(jìn)步的安全性。行政監(jiān)管正是生成式人工智能發(fā)展道路上最有效的減速帶,不過(guò)其自身仍存在優(yōu)化的空間。整體性治理理論恰是合適的指導(dǎo)理論,其提供了生成式人工智能監(jiān)管的全局規(guī)劃,促使行政監(jiān)管的過(guò)程民主化、規(guī)范化,加強(qiáng)了行政監(jiān)管主體的監(jiān)管能力,并鎖定了生成式人工智能模型為監(jiān)管對(duì)象。在社會(huì)發(fā)展的整體視角下,妥當(dāng)?shù)男姓O(jiān)管制度不僅能夠防止科技風(fēng)險(xiǎn)的發(fā)生,還能在客觀上保障科技發(fā)展立足于公共利益,并最終促進(jìn)科技發(fā)展行穩(wěn)致遠(yuǎn)。

        參考文獻(xiàn):

        [1]楊春生. 大模型不等于第三次AI浪潮[J]. 智能系統(tǒng)學(xué)報(bào), 2023, 18(3): 409.

        [2]Elon Musk among Experts Urging a Halt to AI Training[EB/OL]. (2023-03-29)[2023-09-02].BBC News,https://www.bbc.com/news/technology-65110030.

        [3]STREITFELD D. Silicon Valley Confronts the Idea That the ‘Singularity’ Is Here[EB/OL].(2023-06-11)[2023-09-02].The New York Times, https://www.nytimes.com/2023/06/11/technology/silicon-valley-confronts-the-idea-that-the-singularity-is-here.html.

        [4]劉艷紅. 人工智能的可解釋性與AI的法律責(zé)任問(wèn)題研究[J]. 法制與社會(huì)發(fā)展, 2022(1): 78–91.

        [5]江國(guó)華. 法治政府要論——行為法治[M]. 武漢:武漢大學(xué)出版社, 2021.

        [6]劉軒, 陳海彬. 人工智能監(jiān)管:理論、模式與趨勢(shì)[J]. 情報(bào)理論與實(shí)踐, 2023(6): 17-23+37.

        [7]GPT-4 is Bigger and Better than ChatGPT—but OpenAI Won’t Say Why[EB/OL].(2023-03-14)[2023-09-03].MIT Technology Review, https://www.technologyreview.com/2023/03/14/1069823/gpt-4-is-bigger-and-better-chatgpt-openai/.

        [8]MAXIMILIAN SCHREINER. GPT-4 architecture, datasets, costs and more leaked[EB/OL].(2023-07-11)[2023-09-03].THE DECODER, https://the-decoder.com/gpt-4-architecture-datasets-costs-and-more-leaked/.

        [9]劉艷紅. 生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J]. 東方法學(xué), 2023(4): 29–43.

        [10]COGLIANESE C, LEHR D. Regulating by Robot: Administrative Decision Making in the Machine-Learning Era[J]. Georgetown Law Journal, 2017.

        [11]北京大學(xué)課題組, 黃璜. 平臺(tái)驅(qū)動(dòng)的數(shù)字政府:能力、轉(zhuǎn)型與現(xiàn)代化[J]. 電子政務(wù), 2020(7): 2–30.

        [12]畢文軒. 生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J]. 比較法研究, 2023(3): 155–172.

        [13]周佑勇. 論智能時(shí)代的技術(shù)邏輯與法律變革[J]. 東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版), 2019(5): 67-75;147;2.

        [14]徐曉明. 外部行政備案管理:機(jī)制屬性、缺陷反思與法律規(guī)制[J]. 中國(guó)行政管理, 2020(11): 17–24.

        [15]徐健. 行政任務(wù)的多元化與行政法的結(jié)構(gòu)性變革[J]. 現(xiàn)代法學(xué), 2009(3): 22–33.

        [16]劉紹宇. 超大互聯(lián)網(wǎng)平臺(tái)中個(gè)人信息保護(hù)獨(dú)立監(jiān)督機(jī)構(gòu)的元規(guī)制論[J]. 重慶理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)), 2023(5): 127–140.

        [17]張凌寒. 生成式人工智能的法律定位與分層治理[J]. 現(xiàn)代法學(xué), 2023(4): 126–141.

        [18]程樂(lè). 生成式人工智能的法律規(guī)制——以ChatGPT為視角[J]. 政法論叢, 2023(4): 69–80.

        [19]葉曉丹. 大模型競(jìng)速迎來(lái)“iPhone時(shí)刻” :高昂算力成本怎么破?尋找優(yōu)質(zhì)“算料”或成博弈焦點(diǎn)[EB/OL].(2023-06-07)[2023-10-07].每日經(jīng)濟(jì)新聞, https://www.nbd.com.cn/articles/2023-06-07/2860951.html.

        [20]鄧輝. 我國(guó)個(gè)人信息保護(hù)行政監(jiān)管的立法選擇[J]. 交大法學(xué), 2020(2): 140–152.

        [21]周佑勇. 契約行政理念下的企業(yè)合規(guī)協(xié)議制度構(gòu)建——以工程建設(shè)領(lǐng)域?yàn)橐暯荹J]. 法學(xué)論壇, 2021(3): 49–61.

        [22]李軍鵬. 新一輪黨和國(guó)家機(jī)構(gòu)改革的突出亮點(diǎn)與重大意義[J]. 國(guó)家治理, 2023(7): 2–8.

        [23]竺乾威. 從新公共管理到整體性治理[J]. 中國(guó)行政管理, 2008(10): 52–58.

        [24]朱國(guó)偉, 周妍池, 劉銀喜. 敏捷治理推動(dòng)數(shù)字政府建設(shè):發(fā)展趨勢(shì)與實(shí)現(xiàn)路徑[J]. 電子政務(wù), 2024(2): 1–11.

        [25]楊解君. 政府治理體系的構(gòu)建:特色、過(guò)程與角色[J]. 現(xiàn)代法學(xué), 2020(1): 15–30.

        [26]XIANG C. OpenAI’s GPT-4 Is Closed Source and Shrouded in Secrecy[EB/OL].(2023-03-16)[2023-11-08].Vice, https://www.vice.com/en/article/ak3w5a/openais-gpt-4-is-closed-source-and-shrouded-in-secrecy.

        [27]張吉豫. 論算法備案制度[J]. 東方法學(xué), 2023(2): 86–98.

        [28]Algorithmic Bias Detection and Mitigation: Best Practices and Policies to Reduce Consumer Harms[EB/OL].(2023-06-07)[2023-11-08].Brookings, https://www.brookings.edu/articles/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/.

        [29]The Act Texts | EU Artificial Intelligence Act[EB/OL].[2024-07-30].https://artificialintelligenceact.eu/the-act/.

        [30]張翔. 我國(guó)國(guó)家權(quán)力配置原則的功能主義解釋[J]. 中外法學(xué), 2018(2): 281–303.

        [31]王青斌, 王由海. 作為規(guī)制工具的行政備案:規(guī)制機(jī)理與效果優(yōu)化[J]. 浙江學(xué)刊, 2022(5): 42–53.

        [32]劉啟川. 行政機(jī)關(guān)制定法律規(guī)范的法治邏輯——以公安機(jī)關(guān)交通管理部門(mén)為例[J]. 東南學(xué)術(shù), 2021(6): 102–109.

        [33]周佑勇. 大變局下中國(guó)式民主的制度優(yōu)勢(shì)與憲法保障[J]. 中國(guó)法學(xué), 2023(1): 46–64.

        [34]袁周,劉苗佳. 公共數(shù)據(jù)整體性治理的組織法進(jìn)路——基于國(guó)家數(shù)據(jù)局的展開(kāi)[J]. 中國(guó)科技論壇, 2024(6): 111–120.

        [35]The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023[EB/OL].(2023-01-02)[2023-11-10].GOV.UK, https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023.

        [36]王瑞雪. 治理語(yǔ)境下的多元行政法[J]. 行政法學(xué)研究, 2014(4): 131–138.

        [37]楊霞. 行政備案的性質(zhì)定位與規(guī)范進(jìn)路[J]. 浙江學(xué)刊, 2022(6): 77–85.

        [38]劉艷紅. 從學(xué)科交叉到交叉學(xué)科:法學(xué)教育的新文科發(fā)展之路[J]. 中國(guó)高教研究, 2022(10): 8–13.

        [39]王祿生. ChatGPT類技術(shù):法律人工智能的改進(jìn)者還是顛覆者?[J]. 政法論壇, 2023(4): 49–62.

        [責(zé)任編輯:葉慧娟]

        国产成人午夜无码电影在线观看| 精品在线亚洲一区二区三区| 久久中文字幕亚洲综合| 久人人爽人人爽人人片av| 亚洲精品国偷自产在线99正片| 亚洲一区二区在线视频播放| 国产一区二区三区成人av| 国产日产精品_国产精品毛片| 日韩人妻无码一区二区三区| 久久免费视亚洲无码视频| 国产精品第一区亚洲精品| 久久午夜福利电影| 少妇特黄a一区二区三区| 国产精品无码久久久久久久久作品| 日本少妇又色又紧又爽又刺激 | 亚洲女同一区二区| 无套内谢孕妇毛片免费看看| 久草视频在线这里只有精品| a√无码在线观看| 偷拍韩国美女洗澡一区二区三区| 97日日碰人人模人人澡| 无码中文字幕加勒比一本二本 | 五月婷婷丁香视频在线观看| 又色又爽又黄的视频软件app| 丰满爆乳一区二区三区| 无码av专区丝袜专区| 国产一区二区三区免费精品视频| 国产成人av一区二区三区| 国产亚洲欧美在线| 亚洲国产av午夜福利精品一区| 91精品国产91综合久久蜜臀| 又粗又黄又猛又爽大片免费| 色老头在线一区二区三区| 国内精品久久久久国产盗摄| 不卡免费在线亚洲av| 亚洲色成人网站www永久| 国产精品亚洲一区二区无码国产| 久久亚洲精品成人av观看| 优优人体大尺大尺无毒不卡| 爽爽午夜影视窝窝看片| 久久精品国产亚洲av热明星|