亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        國家安全視閾下生成式人工智能的法治應(yīng)對
        ——以ChatGPT 為視角

        2024-01-18 18:07:21孔祥承
        法治研究 2023年5期
        關(guān)鍵詞:規(guī)制人工智能算法

        孔祥承

        一、問題緣起:生成式人工智能的勃興

        在人類發(fā)展史上,第一次工業(yè)革命將水蒸氣變成動力,實現(xiàn)了生產(chǎn)的機械化。第二次工業(yè)革命通過電力實現(xiàn)了大規(guī)模的生產(chǎn)。第三次工業(yè)革命使電子與信息技術(shù)得到普及,實現(xiàn)了生產(chǎn)自動化。①參見商周刊編輯:《聚焦“第四次工業(yè)革命”》,載《商周刊》2016 年第3-4 期。當(dāng)下,人類社會正在經(jīng)歷第四次工業(yè)革命,此次革命的典型代表便是人工智能。②參見孫繼榮:《責(zé)任時代:變革與創(chuàng)新》,中國經(jīng)濟出版社2018 年版,第615 頁。1956 年,美國達特茅斯學(xué)院“如何用機器模擬人的智能”研討會首次提出“人工智能”這一稱謂,標志著人工智能學(xué)科的誕生。③參見國家網(wǎng)信辦:《人工智能的歷史、現(xiàn)狀和未來》,http://www.cac.gov.cn/2019-02/16/c_1124122584.htm,2023 年4 月27 日訪問。當(dāng)時,對人工智能的基本設(shè)想是一種描述智能,并據(jù)此制造仿真機器。雖然后續(xù)各界對于人工智能概念的定義不盡相同,如有的學(xué)者將人工智能定義為由人類所制造的智能(機器的智能)。④參見鐘義信:《人工智能:概念·方法·機遇》,載《科學(xué)通報》2017 年第22 期。但是,無論采取何種定義方式,算法、算力與數(shù)據(jù)始終是人工智能的核心要素,在它們不斷迭代的基礎(chǔ)上,人工智能展現(xiàn)出與人類相近的直覺、靈感與想象,對各類問題能夠作出更為精準的回答。⑤參見崔鐵軍、李莎莎:《人工系統(tǒng)中數(shù)據(jù)—因素—算力—算法作用及相互關(guān)系研究》,載《智能系統(tǒng)學(xué)報》2022 年第4 期。

        近年來,人工智能技術(shù)快速發(fā)展,深度學(xué)習(xí)技術(shù)被引入人工智能領(lǐng)域,生成式對抗網(wǎng)絡(luò)(GAN)應(yīng)運而生。在此背景下,生成式人工智能開始出現(xiàn)。與傳統(tǒng)人工智能按照預(yù)設(shè)算法運行不同,生成式人工智能可以利用海量數(shù)據(jù)進行分析,通過機器學(xué)習(xí)自主地生成具備一定價值的內(nèi)容。目前,為公眾所熟知的ChatGPT 便是一種典型的生成式人工智能,它可以對文本等內(nèi)容進行分析,并據(jù)此生成學(xué)術(shù)論文、文學(xué)作品、新聞稿件等材料,極大地提升了工作效率。OpenAI 公司的ChatGPT 一經(jīng)問世便吸引了全球目光,并迅速成為人工智能領(lǐng)域的新寵。與此同時,各大科技公司也紛紛跟進,積極研發(fā)能夠與ChatGPT 競爭的產(chǎn)品,例如百度公司的文心一言、谷歌公司的Bard 等產(chǎn)品??梢灶A(yù)見,這類生成式人工智能在未來必將成為新的產(chǎn)業(yè)熱點。隨著ChatGPT 等生成式人工智能的蓬勃發(fā)展,這類技術(shù)所伴生的問題也逐漸浮出水面,數(shù)據(jù)泄露、算法歧視、虛假信息、思想陷阱等問題開始顯現(xiàn)。⑥參見於興中、鄭戈、丁曉東:《生成式人工智能與法律的六大議題:以ChatGPT 為例》,載《中國法律評論》2023 年第2 期。由于當(dāng)下人工智能的規(guī)制主要針對的是傳統(tǒng)人工智能,此時制度秩序與技術(shù)發(fā)展之間產(chǎn)生了脫節(jié),人們在使用ChatGPT 等生成式人工智能時隨時面臨技術(shù)“反噬”的風(fēng)險。

        當(dāng)前,多數(shù)國家已經(jīng)意識到ChatGPT 等生成式人工智能背后潛藏的風(fēng)險,嘗試對其進行規(guī)制。從現(xiàn)有規(guī)制路徑來看,大多以隱私安全或知識產(chǎn)權(quán)為視角,從算法規(guī)制與數(shù)據(jù)監(jiān)管兩方面入手對人工智能進行監(jiān)管。⑦參見本報記者:《涉嫌侵犯隱私,意大利禁用ChatGPT》,載《南國早報》2023 年4 月3 日,第10 版。但是,與傳統(tǒng)人工智能不同,ChatGPT 等生成式人工智能的風(fēng)險并非僅限于算法或數(shù)據(jù)本身,還涉及到用于訓(xùn)練的基礎(chǔ)數(shù)據(jù)以及生成的內(nèi)容等多個方面。而且,多數(shù)生成式人工智能并非針對特定的環(huán)境或使用條件而設(shè)計,它們的開放性和低門檻性使其得以被大規(guī)模使用,其所蘊含的風(fēng)險呈幾何式擴張,有時甚至直接關(guān)涉國家安全。這類基于個人安全或產(chǎn)業(yè)安全而形成的“算法+數(shù)據(jù)”雙重規(guī)制路徑或許與生成式人工智能的監(jiān)管需求不相匹配。

        與此同時,我國對于ChatGPT 等生成式人工智能的規(guī)制也進行了有益嘗試。國家網(wǎng)信辦在2023 年4月發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《征求意見稿》),開始探索建立生成式人工智能的監(jiān)管體系。需要注意的是,從《征求意見稿》文本來看,這種規(guī)制仍未擺脫基于個人安全或產(chǎn)業(yè)安全而形成的“算法+數(shù)據(jù)”雙重規(guī)制的基本框架。實際上,ChatGPT 等生成式人工智能的出現(xiàn)已經(jīng)引發(fā)了新一輪的技術(shù)革新,未來將會改寫全球產(chǎn)業(yè)格局,重構(gòu)各國科技競爭版圖。早在2016 年,美國國家科技委員會(NSTC)便牽頭起草并發(fā)布了《為人工智能的未來做好準備》《國家人工智能研究與發(fā)展戰(zhàn)略計劃》等重要報告,將人工智能的發(fā)展上升到國家競爭層面。⑧參見荊林波、楊征宇:《聊天機器人(ChatGPT)的溯源及展望》,載《財經(jīng)智庫》2023 年第1 期。筆者認為,國家安全是個人安全與產(chǎn)業(yè)安全的前提,在討論生成式人工智能的規(guī)制路徑時,應(yīng)當(dāng)跳出個人安全或產(chǎn)業(yè)安全的固有思維,重點從國家安全的角度平衡發(fā)展和治理問題。按照《征求意見稿》的定義,生成式人工智能含義較廣,遍及文本、圖片、音頻、視頻、代碼等諸多領(lǐng)域,涉及到ChatGPT、Stable Diffusion、Synthesia、MusicLM 等相關(guān)產(chǎn)品。相較于其他生成式人工智能大多應(yīng)用于專業(yè)領(lǐng)域,ChatGPT 以其適用的廣泛性與低門檻性而備受矚目。有鑒于此,筆者嘗試以ChatGPT 為視角拋磚引玉,從歷史、技術(shù)、風(fēng)險等多個向度,厘清生成式人工智能的基本特征,并對其可能帶來的國家安全風(fēng)險進行系統(tǒng)全面剖析,重點從國家安全的角度探索生成式人工智能的法治應(yīng)對策略,以期為后續(xù)政策制定提供有益參考。

        二、ChatGPT 等生成式人工智能的形成及其特征

        (一)ChatGPT 等生成式人工智能的歷史沿革

        ChatGPT 的發(fā)展并非是一蹴而就的,而是經(jīng)歷了數(shù)個階段的發(fā)展歷程。自然語言處理是人工智能領(lǐng)域的一個重要組成部分,包括語音識別、網(wǎng)絡(luò)搜索、自動問答和機器翻譯等多個應(yīng)用場景。無論是何種場景,考慮到語言本身充滿歧義,且依賴于語境與交談人的背景,如何理解和使用自然語言成為當(dāng)時人工智能發(fā)展面臨的一項重要挑戰(zhàn)。在最初的幾十年間,自然語言處理的相關(guān)研究主要集中在符號化與規(guī)則化等方面,即給定語法和其他語言規(guī)則,要求機器將這些規(guī)則運用到用戶輸入的語句上,達到機器能夠“讀懂”語言的效果。從成效來看,這些方法在效果上并不盡如人意。一方面,規(guī)則和語法的輸入難以解決語言中的情感傾向、背景知識等問題。另一方面,傳統(tǒng)的自然語言處理模型采用一種記住已閱讀上文的同時,理解正在閱讀的下文的方式來進行語言讀取,亦即要求機器通過每一個單詞的讀取和反饋來提取總結(jié)整個句子的含義。這種方式使得在處理較長句子時無法獲取單詞或短語之間的語義關(guān)系,難以捕獲長句的重點。盡管OpenAI 公司在2016 年便提出制造“通用”機器人的構(gòu)想,但實際上并未取得實質(zhì)性的進展。⑨參見網(wǎng)易科技:《OpenAI 宣稱將制造“通用”機器人》,https://www.163.com/tech/article/BQ2HQGHC00097U81.html,2023 年3 月21 日訪問。2017 年谷歌公司推出了Transformer 訓(xùn)練模型才使得該構(gòu)想成為可能。不同于以往的自然語言處理模型,Transformer 引入了自我注意機制(self-Attention)使得機器在閱讀過程中能夠進行并行化運算,擺脫了以往“斷章取義”的尷尬境況。

        在Transformer 模型基礎(chǔ)上,2018 年OpenAI 公司推出了GPT-1。該產(chǎn)品主要在算法設(shè)計思路上有所創(chuàng)新。在GPT-1 之前,傳統(tǒng)的自然語言處理模型通常采取有監(jiān)督學(xué)習(xí)的方式,但是這種學(xué)習(xí)模式存在兩個缺點。其一,需要大量高質(zhì)量的標注數(shù)據(jù),而實際上這類優(yōu)質(zhì)的標注數(shù)據(jù)往往難以獲取,且耗費成本較大。其二,任務(wù)方向偏重專業(yè)化,難以推廣至其他相關(guān)領(lǐng)域。GPT-1 則采取了一種類似半監(jiān)督學(xué)習(xí)的方式,利用多層神經(jīng)網(wǎng)絡(luò)技術(shù),通過在大規(guī)模無標注數(shù)據(jù)上進行預(yù)訓(xùn)練,形成生成式自然語言處理模型,然后再根據(jù)特定任務(wù)對其進行微調(diào)。⑩參見林懿倫、戴星原、李力、王曉、王飛躍:《人工智能研究的新前線:生成式對抗網(wǎng)絡(luò)》,載《自動化學(xué)報》2018 年第5 期。在這種模式下,僅需要技術(shù)人員的微調(diào)而非對數(shù)據(jù)進行逐個標注,就能實現(xiàn)語言訓(xùn)練的效果,極大提升了學(xué)習(xí)效率。不過,此時的GPT-1 尚不成熟,其處理能力與有微調(diào)的有監(jiān)督學(xué)習(xí)相比并未取得明顯優(yōu)勢。

        2019 年,OpenAI 公司推出了GPT-2,目標在于訓(xùn)練一個適用任務(wù)范圍更為廣泛的模型。GPT-2 并沒有對GPT-1 的進行更多“革命性”的結(jié)構(gòu)創(chuàng)新,只是使用了更多的參數(shù)和更大的數(shù)據(jù)集。?參見鄧莎莎、李鎮(zhèn)宇、潘煜:《ChatGPT 和AI 生成內(nèi)容:科學(xué)研究應(yīng)該采用還是抵制》,載《上海管理科學(xué)》2023 年第2 期。GPT-2 更多強調(diào)通過無監(jiān)督學(xué)習(xí)的預(yù)訓(xùn)練模型,完成有監(jiān)督的任務(wù)。換言之,研發(fā)者認為所有的有監(jiān)督學(xué)習(xí)都是無監(jiān)督語言模型的一個子集,當(dāng)一個語言模型的容量足夠大時,它就足以覆蓋所有的有監(jiān)督任務(wù)。在海量數(shù)據(jù)集的加持下,GPT-2 確實比GPT-1 表現(xiàn)的更為出色,甚至可以生成虛假新聞、釣魚郵件或用于在線角色扮演。?參見荊林波、楊征宇:《聊天機器人(ChatGPT)的溯源及展望》,載《財經(jīng)智庫》2023 年第1 期。2020 年,OpenAI 公司又推出了GPT-3,其以搶眼的表現(xiàn)成功吸引了人工智能產(chǎn)業(yè)界的關(guān)注。GPT-3 與GPT-2 的架構(gòu)基本一致,但是在參數(shù)、文本長度方面都有了顯著提升,其中參數(shù)高達1750 億。同時,在機器自主學(xué)習(xí)的基礎(chǔ)上,加入人工因素來監(jiān)督機器學(xué)習(xí)。即在機器給出結(jié)果后,由訓(xùn)練人員對結(jié)果做出評價并展開優(yōu)化,使之更貼合對話內(nèi)容。在數(shù)據(jù)、算法雙重加持下,GPT-3 在各種測試中表現(xiàn)優(yōu)異,已經(jīng)可以完成絕大部分自然語言處理任務(wù)。?Brown,et al.Language models are few-shot learners,Advances in neural information processing systems,2020,33。2021 年,OpenAI 公司又推出了GPT-3.5 作為GPT-3 的升級版本,其在模型大小、語言理解和生成能力等方面都有了較大提升,2022 年OpenAI 公司基于該模型發(fā)布了ChatGPT。不過需要注意的是,GPT-3.5 與GPT-3 并無代際差距,更多是為了未來更為先進的GPT-X進行預(yù)熱。2023 年,OpenAI 公司又繼續(xù)推出了GPT-4。雖然OpenAI 公司未再透露詳盡的技術(shù)細節(jié),只是簡單描述GPT-4 模型與GPT 系列模型一致,使用公開可用的數(shù)據(jù)(例如互聯(lián)網(wǎng)數(shù)據(jù))以及已獲得許可的數(shù)據(jù)進行訓(xùn)練。但是,OpenAI 公司也提到了幾個關(guān)鍵的改進,如智能程度大幅躍遷可以接受圖片輸入,看圖能力更強;輸入文本更長,可以處理文字長度顯著增加;等等。?參見OpenAI 公司:https://openai.com/product/gpt-4,2023 年3 月23 日訪問。可以想見,雖然GPT-4 不會擺脫既有GPT 系列模型框架,但是未來一定會在理解力、可靠性方面有著更為杰出的表現(xiàn)。

        (二)ChatGPT 等生成式人工智能的基本特征

        第一,訓(xùn)練數(shù)據(jù)日趨龐大。數(shù)據(jù)是所有人工智能生發(fā)的基本“養(yǎng)料”,只有大量地投喂基礎(chǔ)數(shù)據(jù),才能有效訓(xùn)練人工智能并及時予以監(jiān)督,以期不斷增進其生成能力。一般而言,數(shù)據(jù)量的多寡與生成內(nèi)容的精準性成正比。前文述及,根據(jù)OpenAI 公司公布的數(shù)據(jù),GPT-3 使用了1750 億的參數(shù)量,只有依靠這種愈發(fā)龐大的基礎(chǔ)數(shù)據(jù)才能使生成式人工智能“見多識廣”,更好地提升自身精準度。

        第二,訓(xùn)練模式發(fā)生變革。傳統(tǒng)的自然語言處理模型需要對數(shù)據(jù)進行大規(guī)模、高質(zhì)量的標注,才能使機器了解詞語的大概含義。而這種訓(xùn)練成本過高,且生成內(nèi)容效果不佳。而ChatGPT 引入了RLHF(從人類反饋中強化學(xué)習(xí)),該方法通過在大數(shù)據(jù)預(yù)訓(xùn)練下加強人類反饋,通過微調(diào)使得結(jié)果更具效率和針對性,使得ChatGPT 生成內(nèi)容的范圍、有效性和準確度都有了大幅提升。?參見蔣華林:《人工智能聊天機器人對科研成果與人才評價的影響研究——基于ChatGPT、Microsoft Bing 視角分析》,載《重慶大學(xué)學(xué)報(社會科學(xué)版)》2023 年第2 期。詳言之,一方面,在初始情況下,它不需要任何人工標注的數(shù)據(jù),而是通過對海量數(shù)據(jù)進行預(yù)測語言規(guī)則和模式來進行自我學(xué)習(xí)。另一方面,在自我學(xué)習(xí)的過程中,訓(xùn)練人員會對ChatGPT 生成的回答進行評估和反饋,針對具體回答進行微調(diào),以幫助模型進行強化學(xué)習(xí)和不斷優(yōu)化。通過這種方式,ChatGPT 能夠逐步學(xué)習(xí)到人類習(xí)慣的語言表達方式,從而生成更加符合人類期望的回答。當(dāng)然,“投喂”數(shù)據(jù)的質(zhì)量基本依靠研發(fā)者和相關(guān)技術(shù)人員把關(guān)。換言之,ChatGPT“三觀”嚴重依賴研發(fā)者的形塑。而這種模式也帶來了一些隱藏風(fēng)險,只要任何一個環(huán)節(jié)發(fā)生問題,都會使得生成內(nèi)容出現(xiàn)不可控性。

        通過對ChatGPT 的歷史回溯以及其基本特征的梳理不難發(fā)現(xiàn),這類技術(shù)本質(zhì)上是以海量數(shù)據(jù)為基礎(chǔ),依賴相關(guān)算法得出運算結(jié)果,在基礎(chǔ)模型方面并不具備較多的創(chuàng)新性。但是,基于這種組合出現(xiàn)的產(chǎn)品卻降低了部分技術(shù)的使用門檻,一些技術(shù)不再是專業(yè)人員的禁臠,而為一般公眾所掌握。?參見張凌寒:《深度合成治理的邏輯更新與體系迭代——ChatGPT 等生成型人工智能治理的中國路徑》,載《法律科學(xué)》2023年第3 期。ChatGPT 等生成式人工智能將在公共管理、教育、司法、醫(yī)療、工業(yè)生產(chǎn)等眾多領(lǐng)域大有作為。就ChatGPT 的具體適用來看,其在私領(lǐng)域,可以輔助公眾進行文本寫作,在法律方面則可以為弱勢群體提供法律幫助,實現(xiàn)普惠司法。在公領(lǐng)域,其可以為公眾提供一般政府服務(wù),具體到在法律層面,則可以促進司法機關(guān)智慧司法建設(shè),輔助法官從事司法審判工作。同時,這種適用的廣泛性以及使用主體的非特定性,加之其可能帶來的不良影響,加深了公眾對ChatGPT 等生成式人工智能的使用憂慮,其內(nèi)生的國家安全風(fēng)險較為突出。

        三、ChatGPT 等生成式人工智能的國家安全風(fēng)險挑戰(zhàn)

        (一)ChatGPT 等生成式人工智能的國家安全風(fēng)險識別

        1.強人機交互加大政治安全風(fēng)險

        強人機交互性是ChatGPT 等生成式人工智能的顯著特征,意指用戶使用ChatGPT 等生成式人工智能的過程,同時也是人工智能自身不斷學(xué)習(xí)的過程。在ChatGPT 等生成式人工智能與用戶對話的過程中,會按照用戶的習(xí)慣來改進生成內(nèi)容的質(zhì)量,以便能夠更好地滿足用戶的使用習(xí)慣。換言之,ChatGPT 等生成式人工智能會根據(jù)用戶提出的要求來修正自己的運算結(jié)果,這在某種程度上使得每一名用戶都成為潛在的人工智能學(xué)習(xí)訓(xùn)練人員。在使用ChatGPT 的過程中,如果用戶故意向ChatGPT“投喂”虛假、有害的信息,那么之后其他用戶在使用ChatGPT 獲取相關(guān)內(nèi)容時,也會受到之前虛假、有害信息的影響。例如,如果有足夠數(shù)量的用戶在短時間內(nèi)向ChatGPT 輸入“魯智深去西天取經(jīng)”的虛假信息,那么ChatGPT 便會自行修正之前的正確答案,為之后的用戶生成“去西天取經(jīng)的人是魯智深”這類虛假內(nèi)容。

        設(shè)若將類似的場景遷移至政治領(lǐng)域,那么后果將不堪設(shè)想。可以預(yù)見,在未來國家之間的競爭中,如果將ChatGPT 等生成式人工智能作為輿論工具,通過數(shù)據(jù)投毒的方式,生成包含“惡意”的內(nèi)容,那么其帶來的危害將難以估量。實際上,這一預(yù)想正在逐漸轉(zhuǎn)化為現(xiàn)實。國內(nèi)部分用戶將涉政治類信息輸入ChatGPT 后,發(fā)現(xiàn)其生成的內(nèi)容以美國價值觀為導(dǎo)向,極力維護美國自身利益。如在如何看待朝鮮戰(zhàn)爭的問題上,ChatGPT 生成的內(nèi)容便是褒揚美軍的行為,而對志愿軍持否定意見。?參見網(wǎng)易新聞:《國內(nèi)不能用ChatGPT 是因為它危害國家安全???還真是?。 ?,https://www.163.com/dy/article/HT586OJV05434Z5U.html,2023 年3 月21 日訪問。從這一點來看,如果不對其進行嚴格監(jiān)管,必將導(dǎo)致大量有毒信息出現(xiàn),控制輿論導(dǎo)向,甚至影響公共決策。

        2.人工智能對抗引發(fā)軍事安全憂慮

        如前所述,世界范圍內(nèi)的第四次工業(yè)革命發(fā)生在人工智能領(lǐng)域,與視覺識別、無人駕駛相比,可以多場景運用的生成式人工智能有著更加明朗的應(yīng)用前景。未來各國無疑會將生成式人工智能作為軍事、經(jīng)濟、教育等重要應(yīng)用領(lǐng)域的關(guān)鍵,生成式人工智能的研發(fā)與應(yīng)用程度必將成為衡量國家綜合實力的關(guān)鍵指標。一方面,發(fā)達國家希望捍衛(wèi)自身的技術(shù)優(yōu)勢,另一方面發(fā)展中國家則期望通過加緊開發(fā)生成式人工智能來實現(xiàn)彎道超車。這種國家之間的競爭態(tài)勢將進一步改變?nèi)蚋鱾€國家的強弱格局,觸發(fā)人工智能領(lǐng)域的軍事競爭。從經(jīng)濟理性角度來看,各國為占據(jù)競爭優(yōu)勢,可能會忽視其可能帶來的法律政策、科技倫理等問題,徑行將ChatGPT 等生成式人工智能用于情報戰(zhàn)與信息戰(zhàn)。而且,傳統(tǒng)人工智能本身就蘊含侵犯公民隱私等風(fēng)險,在“生存性焦慮”被放大為“生存性威脅”的當(dāng)下,這些固有風(fēng)險將呈指數(shù)級增長。?參見張紀騰:《新局與危局:人工智能的國家安全問題思辨》,載《信息安全與通信保密》2021 年第5 期。甚至在未來,生成式人工智能或?qū)⒈磺度氲綗o人機、自動制導(dǎo)或者其他戰(zhàn)略決策性武器之中,被創(chuàng)造成全新的“智能應(yīng)答型武器”,進一步改變戰(zhàn)爭樣態(tài),加劇地區(qū)安全風(fēng)險。?The National Security Commission on Artificial Intelligence,AI's Final Report,https://digital.library.unt.edu/ark:/67531/metadc1851188/.

        3.依靠海量數(shù)據(jù)訓(xùn)練增加數(shù)據(jù)安全風(fēng)險

        數(shù)據(jù)安全風(fēng)險同樣也是ChatGPT 等生成式人工智能技術(shù)不得不面對的問題。數(shù)據(jù)安全不僅與每一位公民切身利益相關(guān),影響公民的幸福感與獲得感,更與國家安全息息相關(guān)。前文述及,ChatGPT 等生成式人工智能的學(xué)習(xí)需要依靠海量數(shù)據(jù)支撐,以此才能實現(xiàn)自身的不斷優(yōu)化。尤其是,ChatGPT 等生成式人工智能具備強人機交互性,用戶的使用過程同時也是人工智能對數(shù)據(jù)的收集過程。傳統(tǒng)人工智能在用戶使用之前,雖然同樣需要使用大量數(shù)據(jù),但是由于其多為“量身定做”,所以通常明確要求用戶需放棄一部分自身數(shù)據(jù)權(quán)利,在用戶同意放棄的基礎(chǔ)上,收集其聊天記錄、賬戶信息、上網(wǎng)記錄等信息,再通過數(shù)據(jù)聚合分析技術(shù)生成用戶畫像。但是,ChatGPT 等生成式人工智能更多的是在無形中收集有關(guān)數(shù)據(jù),因為用戶的使用過程本身就是向其提供數(shù)據(jù)的過程。在數(shù)據(jù)采集范圍方面,與傳統(tǒng)人工智能必須獲得許可采集數(shù)據(jù)不同,生成式人工智能大都采取“原則+例外”的方式進行采集。即默認用戶同意在使用過程中采集相關(guān)數(shù)據(jù),如果存在異議,需要單獨向有關(guān)機構(gòu)申明。如根據(jù)OpenAI 公司的隱私政策,用戶在使用ChatGPT時,會被采集有關(guān)用戶訪問、使用或互動的信息,ChatGPT 會使用每個客戶的一小部分數(shù)據(jù)樣本來提高模型性能,用戶若不希望數(shù)據(jù)用于提高性能,需要單獨通過郵件向OpenAI 公司發(fā)送申請。?參見陳兵、林思宇:《如何看待ChatGPT 爆火背后潛在的法律風(fēng)險》,https://www.yicai.com/news/101681506.html,2023 年3 月23日訪問。在這種情形下,數(shù)據(jù)安全泄漏的風(fēng)險急劇增加。例如,向ChatGPT 詢問一道高考題目的解法,就有可能向其暴露了國籍、年齡等信息;要求ChatGPT 寫一篇論文的摘要,就可能暴露所學(xué)專業(yè)、工作單位等信息。而且,這些都是無須許可,在用戶尚未覺察之際已經(jīng)完成數(shù)據(jù)采集。隨著未來ChatGPT 等生成式人工智能用戶數(shù)量的暴增,其采集和存儲的用戶數(shù)據(jù)將變得非常龐大,國家安全風(fēng)險劇增。具體而言,一方面,數(shù)據(jù)跨境流動監(jiān)管失序。如在使用ChatGPT 等生成式人工智能過程中,可以規(guī)避所在國數(shù)據(jù)監(jiān)管機制,實現(xiàn)無限制的數(shù)據(jù)自由跨境移動。另一方面,泄漏國家重要數(shù)據(jù)。重要國家安全領(lǐng)域的相關(guān)人員使用ChatGPT 等生成式人工智能,可能將直接泄漏國家安全信息。

        4.高度語料依賴性帶來文化安全危機

        人工智能大多依賴基礎(chǔ)數(shù)據(jù)進行訓(xùn)練,所以本身存在數(shù)據(jù)偏見的問題。所謂數(shù)據(jù)偏見,意指生成式人工智能所使用的基礎(chǔ)數(shù)據(jù)不客觀、不完整的問題,這將嚴重影響數(shù)據(jù)分析質(zhì)量。?William S.Isaac,Hope,Hype,and Fear: The Promise and Potential Pitfalls of Artificial Intelligence in Criminal Justice,Ohio State Journal of Criminal Law,vol.15,No.2,2018,p553。如果將人工智能的運算過程看作“烹飪”,那么向人工智能提供的基礎(chǔ)數(shù)據(jù)就是“食材”,掌握客觀的基礎(chǔ)數(shù)據(jù)后才能烹飪出“色香味俱全”的結(jié)果。?參見王立、楊令一:《大數(shù)據(jù)背景下預(yù)測性警務(wù)的實踐樣態(tài)與風(fēng)險規(guī)制》,載《警學(xué)研究》2022 年第5 期。但是,如果基礎(chǔ)數(shù)據(jù)本身就存在偏見,那么系統(tǒng)運行的結(jié)果也必然是歧視性的。如在基礎(chǔ)數(shù)據(jù)提供上,將某些種族、某些膚色或者有過某些經(jīng)歷、較低學(xué)歷者等打上犯罪高發(fā)人群的標簽,那么即使算法中立,最終的運算結(jié)果也是充滿偏見的?!皩⒇毨А⒓彝顩r、種族或民族、社會經(jīng)濟地位等維度輸入進去……從這個角度說,犯罪人預(yù)測是顯失公平正義的,他們被預(yù)測是危險的‘犯罪人’并據(jù)此受到懲罰,不是因為他們做過什么,而是因為他們是誰、他們的家庭怎么樣以及他們的口袋里有多少錢?!?Sonja Starr,The Odds of Justice:Actuarial Risk Prediction and the Criminal Justice System,CHANCE,2016,29(1),p49-51.以偏見數(shù)據(jù)為基礎(chǔ)得到的結(jié)果,必然生成存在偏見的內(nèi)容。

        事實上,生成式人工智能在數(shù)據(jù)偏見上存在的問題較之以往可能更為突出。雖然傳統(tǒng)人工智能的發(fā)展也依賴于對數(shù)據(jù)的占有,但是生成式人工智能所占有的數(shù)據(jù)較之以往呈現(xiàn)出幾何級增長。?數(shù)據(jù)來源于騰訊《AIGC 發(fā)展報告 2023》。如果基礎(chǔ)數(shù)據(jù)存在問題,那么即使依據(jù)適當(dāng)?shù)乃惴ㄒ部赡軙捎泻蛘哂衅姷膬?nèi)容,尤其是這種算法偏見產(chǎn)生的負面影響會隨著技術(shù)的廣泛運用而不斷擴大。譬如,ChatGPT 給予的答復(fù)中存在性別歧視和種族歧視的問題,可能會誤導(dǎo)使用者將具有歧視性的回答視為“正確答案”而作出錯誤的決斷,進而對社會認知和倫理產(chǎn)生負面影響,甚至沖擊國家主流價值與文化。?同前注?。特別是在對基礎(chǔ)數(shù)據(jù)篩選的過程中,由于中西文化的根源及演進路徑不同,研發(fā)者可能會對體現(xiàn)西方立場的觀點和數(shù)據(jù)持肯定態(tài)度,而忽視來自其他不同立場的數(shù)據(jù),這種源自于研發(fā)者的數(shù)據(jù)偏見會在生成式人工智能的加持下進一步擴張。尤其是,當(dāng)這種歧視性觀點延伸至意識形態(tài)領(lǐng)域,那么這些蘊含西方意識形態(tài)的內(nèi)容將通過隱性的方式傳播,使得我國原本的意識形態(tài)防范機制失效,對國家安全所帶來的危害后果將是難以估量的。?參見鐘祥銘、方興東、顧燁燁:《ChatGPT 的治理挑戰(zhàn)與對策研究——智能傳播的“科林格里奇困境”與突破路徑》,載《傳媒觀察》2023 年第3 期。

        (二)現(xiàn)有規(guī)制模式應(yīng)對國家安全風(fēng)險不足

        1.域外規(guī)制經(jīng)驗

        《歐盟人工智能法案》(Artificial Intelligence Act)設(shè)計了一種基于風(fēng)險的分級規(guī)制模式,將人工智能分為禁止、高風(fēng)險、中風(fēng)險、低風(fēng)險等類型,分別采取不同的數(shù)據(jù)與算法的規(guī)制方式。?參見曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對我國的啟示——以〈人工智能法案〉為分析對象》,載《電子政務(wù)》2022 年第9 期。在算法方面,該法案強化了透明度要求和問責(zé)機制,要求人工智能的研發(fā)者和使用者必須提供具備透明性與可解釋性的算法,一旦出現(xiàn)問題,相關(guān)人員應(yīng)當(dāng)承擔(dān)責(zé)任。在數(shù)據(jù)方面,該法案則再次重申了數(shù)據(jù)的隱私保護理念,對數(shù)據(jù)獲取、數(shù)據(jù)控制、數(shù)據(jù)安全和數(shù)據(jù)刪除等問題都做了較為細致的要求。

        與之相應(yīng),近年來美國對人工智能的監(jiān)管也采取較為積極的態(tài)勢。從旨在保護個人數(shù)據(jù)和限制監(jiān)控的《人工智能權(quán)利法案》(AI Bill of Rights)到《平臺問責(zé)制和透明度法案》(Platform Accountability and Transparency Act),再到美國商務(wù)部下屬國家電信與信息管理局(NTIA)《人工智能問責(zé)政策征求意見》(AI Accountability Policy Request for Comment),不難發(fā)現(xiàn)美國與歐盟似乎在此問題的認識正在逐步趨同。?同前注?。特別是美歐貿(mào)易和技術(shù)委員會(TTC)成立以來,這種監(jiān)管政策同標的情形日益明顯。

        不過,前述模式在治理生成式人工智能方面的問題也較為突出。以《歐盟人工智能法案》為例,該法案過于倚重企業(yè)自治,強調(diào)對個人安全與行業(yè)安全的保障,缺乏從國家層面開展的外部監(jiān)管。?同前注?。再如,該法案采取“數(shù)據(jù)+算法”雙重規(guī)制模式,忽視對兩者交叉領(lǐng)域的監(jiān)管以及對生成內(nèi)容的監(jiān)管。

        2.我國生成式人工智能規(guī)制現(xiàn)狀

        早在2017 年,國務(wù)院便發(fā)布《新一代人工智能發(fā)展規(guī)劃》,明確了我國人工智能發(fā)展的基本框架。其后,為了應(yīng)對人工智能帶來的治理難題,我國在2022 年出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦規(guī)定》)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《深度合成規(guī)定》)等規(guī)定,通過對算法推薦以及深度合成技術(shù)的治理,嘗試對類生成式人工智能進行規(guī)制。就現(xiàn)有規(guī)制路徑而言,大都未能超脫以往算法規(guī)制的范疇。

        2023 年《征求意見稿》對生成式人工智能服務(wù)提供者延續(xù)了此前《算法推薦規(guī)定》《深度合成規(guī)定》對算法推薦服務(wù)提供者以及深度合成服務(wù)提供者相類似的監(jiān)管態(tài)度。與《歐盟人工智能法案》確立的分級管理不同,《征求意見稿》更多強調(diào)不區(qū)分具體應(yīng)用場景,采取統(tǒng)一規(guī)制模式。雖然從文本來看,《征求意見稿》開始關(guān)切生成式人工智能的生成內(nèi)容問題,但是仍未脫離“數(shù)據(jù)+算法”雙重規(guī)制模式,其重點依然聚焦于個人安全與行業(yè)安全的保障。然而,對于ChatGPT 等生成式人工智能而言,單純“數(shù)據(jù)+算法”的雙重規(guī)制模式忽視了數(shù)據(jù)與算法相互交融的階段。而且,單純從個人安全或行業(yè)安全角度進行規(guī)范未免較為狹窄。尤其是,在這種理念影響下,對于人工智能的監(jiān)管由國家網(wǎng)信部門牽頭,缺乏系統(tǒng)性與體系性,應(yīng)當(dāng)從總體國家安全觀出發(fā)開展頂層設(shè)計,營造一個良好的人工智能發(fā)展環(huán)境。當(dāng)然,安全與發(fā)展應(yīng)當(dāng)相協(xié)調(diào),未來應(yīng)當(dāng)確立的是一種多元包容的生成式人工智能規(guī)制模式,既要滿足自身經(jīng)濟發(fā)展需要,又要兼顧國家安全保障要求。?參見李曉楠、宋陽:《國家安全視域下數(shù)據(jù)出境審查規(guī)則研究》,載《情報雜志》2021 年第10 期。

        四、ChatGPT 等生成式人工智能規(guī)制的法治化進路

        (一)強調(diào)國家安全戰(zhàn)略,謀劃產(chǎn)權(quán)布局

        我國高度重視人工智能發(fā)展,早在2017 年便明確提出“到2030 年,人工智能理論、技術(shù)與應(yīng)用總體達到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心”的發(fā)展目標,這充分表明了我國希望通過發(fā)展本國人工智能科技來提升國家綜合實力,實現(xiàn)中華民族偉大復(fù)興的美好愿景。?參見徐璐、朱炳元:《人工智能的馬克思主義分析和解讀》,載《廣西社會科學(xué)》2022 年第11 期。但從整個行業(yè)來看,目前我國人工智能發(fā)展主要集中在應(yīng)用場域,在底層架構(gòu)上并未有太多創(chuàng)新點出現(xiàn)。尤其是在生成式人工智能領(lǐng)域,國內(nèi)百度、騰訊、科大訊飛等科技公司都跟風(fēng)研發(fā)對標ChatGPT 的人工智能產(chǎn)品。但是無論是現(xiàn)在生成式人工智能最常用的各種訓(xùn)練算法,還是 Transformer 等重要模型,不少都是出自于國外的研發(fā)團隊(尤其是大企業(yè)團隊),對比之下,我國在這些核心技術(shù)領(lǐng)域的貢獻則較少。?參見陳永偉:《超越ChatGPT:生成式AI 的機遇、風(fēng)險與挑戰(zhàn)》,載《山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023 年第3 期。雖然所有的這些算法和架構(gòu)都已作了開源化,可以供全世界研發(fā)者使用,但如果國際形勢發(fā)生變化,不難想象如今中國半導(dǎo)體行業(yè)所遭遇的“卡脖子”困境會再次出現(xiàn)。?參見武延軍:《開源軟件供應(yīng)鏈重大基礎(chǔ)設(shè)施建設(shè)勢在必行》,載《中國科學(xué)報》2021 年5 月6 日,第3 版。而且,自微軟注資OpenAI 后,最新的技術(shù)已經(jīng)不再進行開源共享,這就為我們敲響了警鐘。從整體國家安全戰(zhàn)略來看,如果我國在生成式人工智能領(lǐng)域缺乏核心技術(shù)資源,將難以應(yīng)對國際競爭。如果防范國外技術(shù)壟斷是對未來風(fēng)險的未雨綢繆,那么當(dāng)下更加緊迫的問題是,避免陷入路徑依賴,力爭在生成式人工智能領(lǐng)域?qū)崿F(xiàn)彎道超車。?參見黃蕊、徐倩、趙意:《“人工智能+”模式下我國傳統(tǒng)產(chǎn)業(yè)的效率鎖定與解鎖——基于路徑依賴理論視域》,載《經(jīng)濟問題》2020 年第2 期。為此,可以從以下兩個維度予以完善:

        第一,構(gòu)建生成式人工智能研發(fā)許可制度,限定研發(fā)機構(gòu)資格。應(yīng)當(dāng)避免在科技領(lǐng)域的各自為戰(zhàn),擺脫注重短期激勵驅(qū)動的追趕模式,充分發(fā)揮我們的制度優(yōu)勢,集中力量辦大事,許可部分有能力、可信賴的企業(yè)開展生成式人工智能的研發(fā)。同時,這種限制也可以確保監(jiān)管質(zhì)量,避免出現(xiàn)蜂擁而上、監(jiān)管失序的情形。

        第二,建立正向激勵機制,聚焦人工智能領(lǐng)域知識產(chǎn)權(quán)保護。對于人工智能發(fā)展而言,最急迫、最為有效的便是知識產(chǎn)權(quán)保護,因為保護知識產(chǎn)權(quán)就意味著保護創(chuàng)新。?參見中共中國科學(xué)院黨組:《保護知識產(chǎn)權(quán)就是保護創(chuàng)新》,載《求是》2021 年第3 期。只有在完善的知識產(chǎn)權(quán)體系的保護下,才能更好地促進生成式人工智能領(lǐng)域的科技研發(fā)。但在人工智能技術(shù)蓬勃發(fā)展的態(tài)勢下,我國仍存在知識產(chǎn)權(quán)整體質(zhì)量不佳等問題。?參見易繼明:《新時代中國特色知識產(chǎn)權(quán)發(fā)展之路》,載《政法論叢》2022 年第1 期。為此,應(yīng)著力做到以下幾點:

        首先,要加強知識產(chǎn)權(quán)保護工作頂層設(shè)計。加強關(guān)鍵領(lǐng)域自主知識產(chǎn)權(quán)創(chuàng)造和儲備,將生成式人工智能領(lǐng)域的產(chǎn)權(quán)保護作為國家重點工程予以高度重視。其次,要完善現(xiàn)行法律規(guī)范體系。完備的知識產(chǎn)權(quán)法律法規(guī)體系、高效的執(zhí)法司法體系,是強化知識產(chǎn)權(quán)保護的重要保障。要在嚴格執(zhí)行《民法典》相關(guān)規(guī)定的同時,加快完善相關(guān)法律法規(guī),通過相關(guān)專門性法律的修訂將生成式人工智能的相關(guān)產(chǎn)權(quán)保護問題納入到保護當(dāng)中,構(gòu)建完善的知識產(chǎn)權(quán)保護體系。?同上注。最后,維護知識產(chǎn)權(quán)領(lǐng)域國家安全。要加強事關(guān)國家安全的關(guān)鍵核心技術(shù)的自主研發(fā)和保護,依法管理涉及國家安全的知識產(chǎn)權(quán)對外轉(zhuǎn)讓行為。要完善知識產(chǎn)權(quán)反壟斷、公平競爭相關(guān)法律法規(guī)和政策措施,形成正當(dāng)有力的制約手段。?參見習(xí)近平:《全面加強知識產(chǎn)權(quán)保護工作 激發(fā)創(chuàng)新活力推動構(gòu)建新發(fā)展格局》,載《求是》2021 年第3 期。

        (二)強調(diào)國家利益優(yōu)先,打破人工智能算法黑箱

        在生成式人工智能的應(yīng)用場域中,強人機交互特征使得生成式人工智能無時無刻不面臨著被信息投毒的風(fēng)險,也進一步使國家時刻處于虛假信息傳播的風(fēng)險當(dāng)中。隨著人工智能的普及,生成式人工智能的用戶將呈現(xiàn)出爆炸性的增長趨勢。一種可行的規(guī)制路徑便是延續(xù)既有方式,打破目前存在的算法黑箱,對研發(fā)者的算法進行監(jiān)管。自人工智能產(chǎn)生以來,算法黑箱便是一個不斷被提及的問題,而這次ChatGPT 等生成式人工智能更是將人們對這一問題的疑慮提到了一個新的高度。

        所謂的算法黑箱是指在人工智能技術(shù)開發(fā)與應(yīng)用過程中,用戶只能獲知運算結(jié)果,只有設(shè)計者本人才能知曉運算過程,雙方存在信息鴻溝。?參見[美]弗蘭克·帕斯奎爾:《黑箱社會:控制金錢和信息的數(shù)據(jù)法則》,趙亞見譯,中信出版社2015 年版,第6頁。換言之,由于算法黑箱的存在,用戶只能被動接受結(jié)果,但卻不知道結(jié)果是怎么產(chǎn)生的,這樣就使得用戶不易發(fā)現(xiàn)問題并對結(jié)果進行質(zhì)疑和修正。由于算法具備極強的專業(yè)性,一般公眾難以對算法的正當(dāng)性進行檢視。在某種意義上,算法應(yīng)用的深入推廣無疑使得人類已經(jīng)處于一個被“ 算法吞噬的世界”,不得不面臨算法黑箱帶來的算法歧視、算法偏見等問題。?B.Bodo et al.Tackling the Algorithmic Control Crisisthe Technical,Legal,and Ethical Challenges of Research into Algorithmic Agents,Yale Journal of Law and Technology,vol.19,no.1,2017,p136-138。研發(fā)者結(jié)合自身的經(jīng)歷、主觀感知,在編寫算法的過程中會不可避免地融入自己的價值判斷或者偏好,這就使得算法偏見、算法歧視難以避免。?參見李訓(xùn)虎:《刑事司法人工智能的包容性規(guī)制》,載《中國社會科學(xué)》2021 年第2 期。

        在商業(yè)領(lǐng)域,研發(fā)者總是以商業(yè)秘密等理由拒絕公開算法,但是這些理由在國家安全面前都是不成立的。在國家利益面前,必須允許公權(quán)力為代表的國家機關(guān)對研發(fā)者的算法進行規(guī)制。?參見張凌寒:《算法規(guī)制的迭代與革新》,載《法學(xué)論壇》2019 年第2期。雖然《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《算法推薦規(guī)定》以及《征求意見稿》都提到了算法規(guī)制,但是現(xiàn)有規(guī)范存在法律體系不統(tǒng)一、監(jiān)管行政力量過于單薄的問題。筆者認為,為了從國家安全角度實現(xiàn)有效的算法規(guī)制,應(yīng)當(dāng)做到以下幾點:

        其一,應(yīng)當(dāng)建立統(tǒng)一的人工智能算法規(guī)制法律體系。目前的法律雖然對算法問題有所提及,但是各個條文分散在不同法律當(dāng)中,難免存在相互齟齬之處,無法形成制度合力。未來,應(yīng)當(dāng)制定專門的人工智能算法規(guī)制法律規(guī)范,對不同領(lǐng)域內(nèi)人工智能的算法進行分級分類評估,然后按照成文法予以規(guī)范,要求行政部門按照法律對可能危害國家安全的算法予以監(jiān)管評估,并有權(quán)要求平臺修正。?參見丁曉東:《論算法的法律規(guī)制》,載《中國社會科學(xué)》2020 年第12 期。其二,應(yīng)當(dāng)建立人工智能專責(zé)機關(guān)。現(xiàn)有生成式人工智能的監(jiān)管主體是網(wǎng)信部門,但是僅僅依靠網(wǎng)信部門力量難免會力有不逮。應(yīng)當(dāng)確立“一主多輔”的架構(gòu),吸納公安機關(guān)、市場監(jiān)督管理機關(guān)、國家安全機關(guān)等部門參與到算法規(guī)制當(dāng)中。將網(wǎng)信部門作為算法規(guī)制的牽頭部門,啟動進行各個領(lǐng)域內(nèi)人工智能的算法規(guī)制。而各個行政監(jiān)管機關(guān)也應(yīng)當(dāng)主動履行算法監(jiān)管與規(guī)制的責(zé)任,在算法的設(shè)計、使用、反饋等關(guān)鍵環(huán)節(jié),都要深度參與,對算法中可能影響國家安全的部分提前予以修正或刪除,防范虛假政治信息的傳播風(fēng)險。此外,監(jiān)管部門也應(yīng)當(dāng)充分利用行政手段或刑事手段,對拒不配合或不主動配合公開算法且可能危害公共安全的機構(gòu)和個人予以嚴厲處罰,以最大程度地確保研發(fā)者在可能危害國家安全的情況下主動公開算法,接受政府監(jiān)督。更為重要的是,未來待時機成熟,應(yīng)當(dāng)建立專門人工智能監(jiān)管機構(gòu)專事人工智能算法監(jiān)管。其三,明確算法審查標準。對于算法的公開程度應(yīng)當(dāng)采取相對審慎的態(tài)度。以《征求意見稿》第17 條提供“必要信息”為例,當(dāng)前公眾對生成式人工智能算法的憂懼大多源于無法探知機器學(xué)習(xí)的深層邏輯。無論研發(fā)者主動公開還是強制公開,其作用都非常有限,一味強調(diào)透明度要求,可能導(dǎo)致對知識產(chǎn)權(quán)保護的失衡。在此情況下,應(yīng)當(dāng)以算法一致性作為標準。即算法備案后,研發(fā)者應(yīng)當(dāng)保障備案算法與后續(xù)算法存在一致性,如有變化,應(yīng)當(dāng)及時告知有關(guān)部門。?參見劉東亮:《技術(shù)性正當(dāng)程序:人工智能時代程序法和算法的雙重變奏》,載《比較法研究》2020 年第5 期。

        (三)強調(diào)國家監(jiān)管義務(wù),強化數(shù)據(jù)監(jiān)管責(zé)任

        首先,應(yīng)當(dāng)明確設(shè)置獨立、專門的數(shù)據(jù)監(jiān)管機構(gòu),以使其能夠有效實施數(shù)據(jù)監(jiān)管行為。目前我國《數(shù)據(jù)安全法》與《網(wǎng)絡(luò)安全法》均規(guī)定,國家網(wǎng)信部門對數(shù)據(jù)安全工作進行統(tǒng)籌協(xié)調(diào)。但是在實務(wù)中,許多數(shù)據(jù)來自金融、公共衛(wèi)生領(lǐng)域,需要具有較高的專業(yè)知識才能進行識別和管控,由于網(wǎng)信部門工作人員缺乏這些專業(yè)知識,所以監(jiān)管效果不佳?,F(xiàn)階段,可以考慮依托國家數(shù)據(jù)局進行統(tǒng)一監(jiān)管。待未來條件許可,由前文提及的專門人工智能監(jiān)管機構(gòu)同時負責(zé)數(shù)據(jù)與算法的監(jiān)管工作,避免出現(xiàn)相互掣肘的情形。

        其次,建立完善的數(shù)據(jù)安全審查標準。在啟動方式上,可以采用有權(quán)機關(guān)依職權(quán)主動啟動審查與生成式人工智能研發(fā)者依申請被動啟動審查兩種方式,這樣能夠使啟動方式更加靈活,便于管理。另外,數(shù)據(jù)安全審查的啟動標準應(yīng)當(dāng)與數(shù)據(jù)安全審查標準相區(qū)分,啟動標準應(yīng)當(dāng)較審查標準更加寬松,采取“寬進嚴出”的方式。這樣在審查的啟動上,可以盡可能地將數(shù)據(jù)流轉(zhuǎn)、采集行為納入審查范圍,只要認為“有可能”侵犯國家安全便可以啟動審查程序。但在具體審查程序中,必須嚴格按照法律提前設(shè)定的標準如敏感信息種類、規(guī)模等進行審查,不得籠統(tǒng)地使用“有可能損害”的標準規(guī)制數(shù)據(jù)流通,減損數(shù)據(jù)自身價值。

        最后,應(yīng)當(dāng)進一步重視完善數(shù)據(jù)監(jiān)管行政處罰體系。在設(shè)計數(shù)據(jù)監(jiān)管行政處罰體系時,應(yīng)當(dāng)嚴格遵循比例原則,明確行政處罰本身不是目的,減少使用刑罰工具,引導(dǎo)生成式人工智能研發(fā)者在數(shù)據(jù)處理中進行合規(guī)改造,更好地投入經(jīng)濟生產(chǎn)才是最終目的。為了規(guī)范生成式人工智能研發(fā)者的數(shù)據(jù)處理行為,可以對主動申請數(shù)據(jù)審查的生成式人工智能研發(fā)者與被動接受審查的研發(fā)者予以不同對待,比如主動申請數(shù)據(jù)審查,如果被查出問題便可以通過事后的合規(guī)整改來避免行政處罰結(jié)果,另外也可以在項目建設(shè)、招投標等方面對主動接受數(shù)據(jù)合規(guī)審查的研發(fā)者予以適當(dāng)?shù)恼邇A斜,以此來引導(dǎo)研發(fā)者主動參與其中。

        (四)強調(diào)賦予公民權(quán)利,加強基礎(chǔ)數(shù)據(jù)監(jiān)管

        由于生成式人工智能對海量數(shù)據(jù)的控制,在數(shù)據(jù)方面還會產(chǎn)生基礎(chǔ)數(shù)據(jù)存在偏見的問題。如果說數(shù)據(jù)泄露、重要數(shù)據(jù)跨境流動等屬于動態(tài)的風(fēng)險,那么基礎(chǔ)數(shù)據(jù)訓(xùn)練就是數(shù)據(jù)的靜態(tài)風(fēng)險。如前所述,生成式人工智能的發(fā)展與傳統(tǒng)人工智能一樣依靠大規(guī)模的數(shù)據(jù)進行訓(xùn)練,而且所需要的數(shù)據(jù)要遠遠超過傳統(tǒng)人工智能所需的數(shù)據(jù)規(guī)模,這也就導(dǎo)致了如果基礎(chǔ)數(shù)據(jù)出現(xiàn)問題,那么人工智能的輸出結(jié)果也會有問題。對于基礎(chǔ)數(shù)據(jù)的監(jiān)管不宜采用之前的路徑交給行政部門履行國家義務(wù),而應(yīng)當(dāng)結(jié)合公民私權(quán)利進行運作。其一,雖然基礎(chǔ)數(shù)據(jù)大多屬于公共領(lǐng)域,公權(quán)力機關(guān)能夠核實,但是逐一核實成本過于高昂,而公民因熟悉各自信息,方便行權(quán)。其二,基礎(chǔ)數(shù)據(jù)產(chǎn)生問題會導(dǎo)致輸出的結(jié)果產(chǎn)生爭議,該爭議在用戶使用的過程中最容易被發(fā)現(xiàn),如果將規(guī)范的義務(wù)交給公權(quán)力機關(guān)可能產(chǎn)生監(jiān)管不及時的問題。生成式人工智能需要算法和基礎(chǔ)數(shù)據(jù)相結(jié)合才能生成結(jié)果,對于用戶而言,也許對算法這樣“高深”的專業(yè)領(lǐng)域并不了解,無法提出意見,但對基礎(chǔ)數(shù)據(jù)這種常識水平的內(nèi)容完全有能力進行討論與修正。

        當(dāng)然,強調(diào)賦予公民權(quán)利也并非是毫無限制的,過度賦權(quán)有可能會阻礙生成式人工智能的發(fā)展。所以必須尋找公民權(quán)利與人工智能發(fā)展的一個平衡點。筆者認為應(yīng)當(dāng)將“以人民為中心”的理念貫徹到生成式人工智能發(fā)展的過程當(dāng)中。具體而言,便是著重保障個人用戶的知悉權(quán)與更正權(quán)。生成式人工智能的用戶作為服務(wù)消費者,理應(yīng)有知悉結(jié)果產(chǎn)生過程的權(quán)利。就像購買食品,消費者當(dāng)然有權(quán)利知悉購買食品的配料成分表,這樣才能使用戶有信心使用自己所購買的產(chǎn)品或者服務(wù)。如果公民對于生成結(jié)果存有異議,就有權(quán)利對人工智能生成的結(jié)果發(fā)起挑戰(zhàn),如果基礎(chǔ)數(shù)據(jù)確實有問題,就應(yīng)當(dāng)由用戶對有問題的基礎(chǔ)數(shù)據(jù)進行更正??梢哉f知悉權(quán)與更正權(quán)二者是相互聯(lián)系相互依存的。對于生成式人工智能來說,知悉過程是用戶行使其權(quán)利的基礎(chǔ),也是信息主體充分行使信息權(quán)的前提條件,是信息主體尋求法律救濟的基礎(chǔ)性權(quán)利。?參見程雷:《大數(shù)據(jù)偵查的法律控制》,載《中國社會科學(xué)》2018 年第11 期。而更正權(quán)產(chǎn)生于知悉權(quán)之上,是由用戶個體來確保數(shù)據(jù)質(zhì)量的重要機制,知悉過程后對有問題的基礎(chǔ)數(shù)據(jù)予以更正,為此方可保障生成內(nèi)容的質(zhì)量。

        猜你喜歡
        規(guī)制人工智能算法
        主動退市規(guī)制的德國經(jīng)驗與啟示
        基于MapReduce的改進Eclat算法
        Travellng thg World Full—time for Rree
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        進位加法的兩種算法
        人工智能與就業(yè)
        保護與規(guī)制:關(guān)于文學(xué)的刑法
        刑法論叢(2018年4期)2018-05-21 00:44:30
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        論《反不正當(dāng)競爭法》的規(guī)制范疇
        法治研究(2016年4期)2016-12-01 03:41:40
        下一幕,人工智能!
        久久爱91精品国产一区| 国产欧美一区二区精品仙草咪| 人人妻人人澡人人爽人人精品av| 国产色无码精品视频国产| 欧美色精品91av| 精品一区二区三区长筒靴| 国产人妻熟女呻吟在线观看| 国产三级久久久精品麻豆三级| 久久精品片| 熟女人妻一区二区在线观看| 国产一区亚洲二区三区极品| 亚洲精品国产美女久久久| 四虎成人免费| 国产一区二区三区乱码在线| 久久精品中文少妇内射| 久久夜色精品国产欧美乱| 欧美 亚洲 国产 日韩 综AⅤ| 国产在线视频一区二区三区| 美女网站免费观看视频| 久久免费的精品国产v∧| 老熟女一区二区免费| 91九色熟女潮喷露脸合集| 未满十八勿入av网免费| 男人天堂网在线视频| 蜜桃av区一区二区三| 久久免费看黄a级毛片| 东京热加勒比无码少妇| 日本一区二区三区激情视频| 亚洲av永久一区二区三区| 久久精品女人天堂av免费观看| 这里有精品可以观看| 日韩av免费在线不卡一区| 精品人妻少妇av中文字幕| 日产国产精品亚洲系列| 国产一精品一aⅴ一免费| 日本免费一区二区在线看片| 日日噜噜夜夜狠狠va视频| 亚洲 国产 哟| 能看不卡视频网站在线| 国产丝袜美女一区二区三区| 日韩在线精品国产成人|