亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能生成物的溢出風(fēng)險及監(jiān)管規(guī)則研究

        2025-03-14 00:00:00張軍榮
        行政法學(xué)研究 2025年2期

        摘 要: 人工智能的快速發(fā)展及人工智能生成物的爆發(fā)式增長引發(fā)了數(shù)據(jù)風(fēng)險及監(jiān)管難題。為明確AIGC 的溢出風(fēng)險并確立相應(yīng)的監(jiān)管規(guī)則, 通過梳理AIGC 在各典型應(yīng)用場景的發(fā)展現(xiàn)狀,厘清了AIGC 存在的數(shù)據(jù)污染風(fēng)險、信息泄露風(fēng)險、數(shù)據(jù)歧視風(fēng)險和通用性倫理風(fēng)險。通過對比國內(nèi)外AIGC 監(jiān)管的制度內(nèi)容, 發(fā)現(xiàn)當(dāng)前監(jiān)管模式存在人力監(jiān)管能力不足、“ 產(chǎn)品” 質(zhì)量標(biāo)準(zhǔn)缺失、數(shù)據(jù)歧視監(jiān)管規(guī)則缺失、分級管理規(guī)則模糊四個方面的缺陷。相應(yīng)地, 提出了建立以技術(shù)監(jiān)管規(guī)則、質(zhì)量標(biāo)準(zhǔn)規(guī)則、無歧視規(guī)則、分類分級規(guī)則等為基本內(nèi)容的AIGC 監(jiān)管體系。

        關(guān)鍵詞: 人工智能生成物; 風(fēng)險溢出; 技術(shù)監(jiān)管; 質(zhì)量標(biāo)準(zhǔn); 無歧視規(guī)則

        目 次

        一、問題的提出

        二、人工智能生成物的應(yīng)用場景及溢出風(fēng)險

        三、人工智能生成物監(jiān)管規(guī)則的現(xiàn)狀及困境

        四、人工智能生成物監(jiān)管規(guī)則的構(gòu)建

        五、結(jié)語

        一、問題的提出

        以ChatGPT、Sora 為代表的生成式人工智能模型發(fā)生了由“判別式” 轉(zhuǎn)為“生成式” 的變革,人工智能被賦予了“強(qiáng)擬人化” 特點(diǎn), 人工智能生成物(以下簡稱AIGC) 成為人們獲取知識和信息產(chǎn)品的新渠道。AIGC 的應(yīng)用范圍包含自動化技術(shù)、智慧圖書館、醫(yī)學(xué)智庫、智慧數(shù)字出版、計(jì)算機(jī)軟件及其應(yīng)用、教育實(shí)踐等學(xué)科領(lǐng)域。學(xué)者們從AIGC 的知識產(chǎn)權(quán)屬性、主體界定、權(quán)利歸屬、法律保護(hù)、應(yīng)用場景與倫理規(guī)制等方面進(jìn)行了廣泛而深入的研究??傮w上, 學(xué)者們對AIGC的客體屬性及權(quán)利歸屬討論較多: 大多數(shù)學(xué)者認(rèn)為AIGC 在一定條件下具備最低限度的獨(dú)創(chuàng)性, ①且與人類作品具有一致性與同質(zhì)性, ①可以參照著作權(quán)進(jìn)行保護(hù), 其權(quán)利主體根據(jù)不同情形可劃歸人工智能服務(wù)提供者、使用者或開發(fā)者, 并可以根據(jù)職務(wù)作品、委托作品和合作作品等作品類型確定其著作權(quán)歸屬。②國際上, 英國較早提出了對AIGC 的版權(quán)保護(hù), 而大陸法系國家大多數(shù)都拒絕將AIGC 作為非人類作品進(jìn)行保護(hù)。③同時, Samuelson 等學(xué)者對AIGC 能否擁有版權(quán)持中立態(tài)度,認(rèn)為可以等待通過司法判例的方式明確AIGC 的保護(hù)規(guī)則, 而不論AIGC 是否能作為作品, 源作品以及數(shù)據(jù)集都有受保護(hù)的必要。

        世界各國對于AIGC 的監(jiān)管框架建立尚處于初步探索階段。若直接套用著作權(quán)的權(quán)利行使方式, 無法有效應(yīng)對AIGC 使用中存在的虛假信息、歧視言論、信息泄露以及倫理沖擊等方面的問題。目前AIGC 的規(guī)范化運(yùn)作發(fā)展主要依靠政策指引和市場驅(qū)動, 并未形成系統(tǒng)性、整體性的監(jiān)管以及治理框架, 需要進(jìn)行相應(yīng)整合與規(guī)制, 以“軟法” 助力“硬法” 治理人工智能。⑤因此, 除了“不侵權(quán)” 的基本規(guī)則外, 還應(yīng)當(dāng)構(gòu)建AIGC 特有的監(jiān)管規(guī)則。⑥有學(xué)者提出, 應(yīng)當(dāng)根據(jù)AI 的使用場景給使用人分配不同程度的義務(wù)。⑦但對于如何設(shè)置這些義務(wù)并沒有具體展開, AIGC 監(jiān)管規(guī)則有待學(xué)者們進(jìn)一步研究。

        本文從AIGC 在各類特殊場景中的廣泛應(yīng)用出發(fā), 厘清了AIGC 所帶來的數(shù)據(jù)污染風(fēng)險、信息泄露風(fēng)險、數(shù)據(jù)歧視風(fēng)險、通用性倫理風(fēng)險等主要風(fēng)險。通過對國內(nèi)外現(xiàn)有法律法規(guī)制度框架的分析, 指出了AIGC 監(jiān)管中存在的四個困境: 人力監(jiān)管能力不足、“產(chǎn)品” 質(zhì)量標(biāo)準(zhǔn)缺失、數(shù)據(jù)歧視監(jiān)管缺位、分級管理規(guī)則模糊等。最后, 溯源AIGC 風(fēng)險根基, 進(jìn)而提出建立以技術(shù)監(jiān)管規(guī)則、質(zhì)量標(biāo)準(zhǔn)規(guī)則、無歧視規(guī)則和數(shù)據(jù)分類分級規(guī)則為主體的監(jiān)管規(guī)則體系, 為國家和各行業(yè)領(lǐng)域建立人工智能生成物的監(jiān)管制度和行業(yè)標(biāo)準(zhǔn)提供了參考。

        二、人工智能生成物的應(yīng)用場景及溢出風(fēng)險

        (一) 人工智能生成物的應(yīng)用場景

        生成式人工智能模型不僅在文學(xué)創(chuàng)作、編輯出版、網(wǎng)絡(luò)交互、計(jì)算機(jī)模擬等傳統(tǒng)領(lǐng)域行業(yè)表現(xiàn)更為出色, 在擁有多模態(tài)與跨模態(tài)大模型后還可以跨越生命科學(xué)、環(huán)境科學(xué)、化學(xué)、醫(yī)學(xué)、法學(xué)、教育學(xué)等挑戰(zhàn)性的領(lǐng)域, 逐漸成為一種全新的信息資源獲取方式與內(nèi)容創(chuàng)作工具, 幫助或代替用戶完成指定的特殊工作任務(wù)。

        在文學(xué)創(chuàng)作與編輯出版領(lǐng)域, 生成式人工智能助力了信息采集、選題組稿、內(nèi)容寫作、整理設(shè)計(jì)、校樣檢查、審查出版與信息反饋以及文字的潤色與改寫, ②也激發(fā)了文生視頻的創(chuàng)作; 在科研與教育領(lǐng)域, 為教育數(shù)字化轉(zhuǎn)型提供了最新的工具與平臺, 助力了科研方法的轉(zhuǎn)化, 簡化了獲取資料和研究成果轉(zhuǎn)化的過程, 也增加了學(xué)術(shù)造假以及欺騙舞弊的風(fēng)險, 影響著現(xiàn)有科研評價機(jī)制; ③在醫(yī)學(xué)領(lǐng)域, 可以從電子病歷中提取信息、生成病例報(bào)告, 并通過生成代碼來分析數(shù)據(jù)集,幫助研究人員推進(jìn)新藥物的發(fā)現(xiàn)與合成; ④在法學(xué)與法律實(shí)務(wù)領(lǐng)域, 通過快速案例解析與法條檢索, 生成法律建議以及解決方案、自動化提供法律咨詢、幫助用戶擬訂合同、進(jìn)行文本審查、代寫法律文書、模擬法律場景、預(yù)測案件發(fā)展; 在稅務(wù)領(lǐng)域, 接替?zhèn)鹘y(tǒng)人工服務(wù)與繁雜程序, 提供個性化、規(guī)范化、數(shù)據(jù)化服務(wù), 完善辦稅服務(wù), 輔助稅務(wù)運(yùn)行與管理; 在輿情控制領(lǐng)域, 通過分析網(wǎng)絡(luò)輿情傳播特征, 以用戶的輸出、輸入信息以及各種選擇間接測試出用戶的外在情感態(tài)度與內(nèi)在真實(shí)反映, 提前進(jìn)行預(yù)測分析控制網(wǎng)絡(luò)輿情。⑤

        (二) 人工智能生成物的溢出風(fēng)險

        AIGC 的產(chǎn)出經(jīng)歷了數(shù)據(jù)搜集和投喂、模型訓(xùn)練和模擬、內(nèi)容生成和調(diào)整等階段。由于投喂數(shù)據(jù)的質(zhì)量差異、人工智能模型算法的能力缺陷、使用者的人為操控等因素, AIGC 應(yīng)用于各種場景的同時, 其迅速發(fā)展也滋生了諸多風(fēng)險與問題。AIGC 所帶來的主要風(fēng)險有: 數(shù)據(jù)污染風(fēng)險、信息泄露風(fēng)險、數(shù)據(jù)歧視風(fēng)險與通用性倫理風(fēng)險等。

        1. 數(shù)據(jù)污染風(fēng)險

        人工智能存在生成虛擬信息和錯誤信息的風(fēng)險, 造成數(shù)據(jù)污染。生成式人工智能模型的本質(zhì)是通過海量數(shù)據(jù)庫進(jìn)行預(yù)訓(xùn)練, 對關(guān)鍵詞相關(guān)文本進(jìn)行捕捉、關(guān)聯(lián)、學(xué)習(xí), 根據(jù)任務(wù)進(jìn)行更為準(zhǔn)確的文本生成與內(nèi)容表達(dá)等工作。生成式人工智能本身具有學(xué)習(xí)、統(tǒng)計(jì)、解決問題的功能, 當(dāng)出現(xiàn)尚未經(jīng)過預(yù)訓(xùn)練的關(guān)鍵詞、任務(wù)、概念時, 生成式人工智能會強(qiáng)行捏造信息以完成任務(wù), 并在后續(xù)過程中不斷對捏造信息進(jìn)行補(bǔ)充, 致使生成式人工智能在錯誤方向不斷延展。模型所生成的內(nèi)容從語言表達(dá)與表層數(shù)據(jù)來看可能是合理的, 但對其進(jìn)行數(shù)據(jù)溯源, 可以發(fā)現(xiàn)里層存在大量錯誤數(shù)據(jù)與虛假信息, 目前已出現(xiàn)ChatGPT 輸出虛假信息的諸多實(shí)例。⑥由于缺乏對AIGC 質(zhì)量進(jìn)行評判的科學(xué)標(biāo)準(zhǔn), 無法有效識別其是否屬于人工智能產(chǎn)物, 也無法準(zhǔn)確識別內(nèi)容真?zhèn)危?更難以有效評判質(zhì)量高低, 制約了生成式知識內(nèi)容的社會化傳播與利用。⑦

        AIGC 通過后續(xù)使用擴(kuò)大數(shù)據(jù)污染。當(dāng)使用者將AIGC 應(yīng)用于商業(yè)活動、學(xué)術(shù)科研、新聞報(bào)道、輿情調(diào)控等活動中時, 會導(dǎo)致數(shù)據(jù)污染的進(jìn)一步擴(kuò)散。①在自媒體與電子商務(wù)等活動中, 經(jīng)營者為了引流與收益, 捏造各類虛假數(shù)據(jù)與錯誤信息, 當(dāng)此類數(shù)據(jù)生成的AIGC 被投入公共領(lǐng)域,極大可能會引起用戶對商品與服務(wù)的誤解與混淆。AIGC 被運(yùn)用于科研與教育領(lǐng)域時, 低成本的AIGC 轉(zhuǎn)化為學(xué)術(shù)論文, 大量低質(zhì)量內(nèi)容以及虛假信息、錯誤信息將隱含于后續(xù)使用行為中, 影響學(xué)術(shù)論文以及相關(guān)內(nèi)容的真實(shí)性和可靠性。新聞報(bào)道與編輯領(lǐng)域, 由于審核機(jī)制的缺位和審核資源的限制, 虛構(gòu)內(nèi)容與錯誤信息會散發(fā)于公共領(lǐng)域, 造成負(fù)面影響的擴(kuò)散。生成式人工智能在介入網(wǎng)絡(luò)輿情領(lǐng)域時, 會在信息交互中通過信息轉(zhuǎn)化的方式重構(gòu)輿情, 引起受眾間的認(rèn)知對立與價值沖突, 造成網(wǎng)絡(luò)輿情安全風(fēng)險多樣態(tài)。②國際上也會有越來越多的主體將AIGC 進(jìn)行武器化以獲取政治利益, 引發(fā)輿論震蕩, 使虛假信息泛濫成災(zāi), 社會信任將會被嚴(yán)重破壞。

        AIGC 被操控和不法使用會加劇數(shù)據(jù)污染, 引發(fā)數(shù)據(jù)安全事故。包含惡意信息事故與虛假信息事故。④網(wǎng)絡(luò)交互的私密性與自主性使諸多不法網(wǎng)絡(luò)侵權(quán)行為更為隱蔽, 用戶利用不法手段惡意損害第三方權(quán)益, 通過異化生成式人工智能尋找目標(biāo), 在網(wǎng)上實(shí)施色情騷擾、敲詐勒索、暴力犯罪等行為, 甚至通過對AIGC 信息的掌控, 利用網(wǎng)絡(luò)實(shí)施政治操控等破壞網(wǎng)絡(luò)信息安全以及國家安全的行為。而虛假信息事故具有隱秘性與隨機(jī)性的特點(diǎn), AIGC 的生產(chǎn)者或使用者受到某種利益驅(qū)動, 通過各種手段對生成內(nèi)容進(jìn)行變造與偽造, 對重要事實(shí)進(jìn)行隱瞞、夸大、改編等操作, 利用網(wǎng)絡(luò)傳播快的特點(diǎn)散布變造或者偽造的不實(shí)信息, 導(dǎo)致網(wǎng)絡(luò)數(shù)據(jù)信息污染, 引發(fā)信息事故。

        AIGC 可能產(chǎn)生誤導(dǎo)性信息的問題已被證實(shí)。AI 作為傳播源頭與中介, 在三個層面可能會成為惡意傳播的助推器。首先, 由于AIGC 生成的訓(xùn)練語料與事實(shí)的偏倚和模型算法的不完善使得本身無意中成為虛假傳播的源頭; 其次, AIGC 技術(shù)可能會被人為操縱, 通過散布虛假信息或刻意傳播等方式達(dá)到特定目的; 最后, 誤導(dǎo)性知識如果被沒有鑒別其真假能力的用戶接收, 并被無意傳播甚至形成錯誤認(rèn)知, 則會產(chǎn)生更嚴(yán)重的影響。

        2. 信息泄露風(fēng)險

        數(shù)據(jù)訓(xùn)練中, 大模型收集、承載了海量個人敏感信息。生成式人工智能模型的訓(xùn)練數(shù)據(jù)大量來源于文獻(xiàn)資源庫、服務(wù)場景以及用戶人機(jī)對話中主動發(fā)布的數(shù)據(jù), 其中包含大量個人敏感信息。生成式人工智能模型經(jīng)過能力訓(xùn)練, 將海量源數(shù)據(jù)進(jìn)行整合與解析, 并在用戶頻繁使用中收集大量新輸入的使用者信息。模型通過個人信息進(jìn)一步推測使用者意圖與決策, 一旦被惡意使用, 會帶來用戶身份信息盜用、商業(yè)秘密信息泄露等更嚴(yán)峻的安全問題。⑥用戶在虛擬世界中生成的各種數(shù)字形象、數(shù)字內(nèi)容也會給不法分子提供更多可乘之機(jī), 從而加劇信息安全風(fēng)險。

        數(shù)據(jù)生成和利用中, 生成物隱含、復(fù)現(xiàn)了個人敏感信息。信息泄露風(fēng)險常發(fā)生在各領(lǐng)域AIGC生成以及被利用、傳播的過程中。經(jīng)過大型語言模型訓(xùn)練, 當(dāng)生成式人工智能收到指令時, 會將關(guān)鍵詞“嵌入” 與轉(zhuǎn)換, 在源數(shù)據(jù)庫中對海量信息進(jìn)行提取與分析, 完成任務(wù)并生成AIGC。同時, 個人敏感信息也可能會被包含于AIGC 生成信息與源信息中, 并在后續(xù)AIGC 的利用中不斷再現(xiàn), 例如個人身份信息、醫(yī)療信息、財(cái)務(wù)信息等。特別在醫(yī)療領(lǐng)域, 會對患者個人信息進(jìn)行收集和存儲, 而AIGC 在醫(yī)療服務(wù)使用過程中可能會泄露患者及相關(guān)親屬隱私信息。②政府機(jī)構(gòu)、市場主體、教育部門等在使用生成式人工智能時, 不可避免地要與之分享關(guān)聯(lián)信息, 通過人工智能算法的解析與轉(zhuǎn)換再現(xiàn), 可能會引發(fā)商業(yè)秘密甚至國家秘密泄露的風(fēng)險。

        3. 數(shù)據(jù)歧視風(fēng)險

        人工智能訓(xùn)練的數(shù)據(jù)存在缺陷導(dǎo)致歧視。主要由數(shù)據(jù)偏見、偏差數(shù)據(jù)集以及隱性偏見所導(dǎo)致。第一, 數(shù)據(jù)偏見會引發(fā)歧視。在生成式人工智能對相應(yīng)數(shù)據(jù)庫數(shù)據(jù)進(jìn)行處理與分析時, 不可避免地會將原本數(shù)據(jù)樣本中的各項(xiàng)信息更為清晰地?cái)?shù)值化。為了更為直觀地展現(xiàn)結(jié)果, 樣本數(shù)據(jù)本身所包含的差距與偏見將會進(jìn)一步放大。正如美國企業(yè)高管職位招聘中對黑人與白人存在種族偏見一樣, 生成式人工智能對數(shù)據(jù)內(nèi)容的細(xì)化與分析, 其結(jié)果更加凸顯高管崗位任職的種族差距, 招致更為嚴(yán)重的種族偏見。③第二, 偏差數(shù)據(jù)集會導(dǎo)致歧視。在訓(xùn)練生成式人工智能的過程中, 往往會選擇一定的數(shù)據(jù)庫與數(shù)據(jù)樣本。在選擇數(shù)據(jù)樣本或者數(shù)據(jù)庫的過程中, 選擇人的主觀偏見也會導(dǎo)致輸入數(shù)據(jù)具有一定的不平衡與偏見。即使用偏差數(shù)據(jù)集時, 也會影響生成內(nèi)容的準(zhǔn)確性, 出現(xiàn)相應(yīng)的差距與偏差, 造成系統(tǒng)性歧視的產(chǎn)生與蔓延。第三, 隱性偏見加劇歧視。隱性偏見, 是指人做出決策時潛意識的偏向與傾向, 并不會對數(shù)據(jù)集產(chǎn)生明顯影響, 但模型會學(xué)習(xí)信息中存在的隱性關(guān)聯(lián)、固定印象, 產(chǎn)生具有歧視內(nèi)容的AIGC。如體現(xiàn)性別偏見的性別與職業(yè)對應(yīng)聯(lián)系, 會引發(fā)經(jīng)濟(jì)信息孤立與泡沫化, 導(dǎo)致不公平的決策。

        人工智能的算法操控造成數(shù)據(jù)歧視。由于生成式人工智能的語料庫缺乏代表性、數(shù)據(jù)來源不均衡, 其所依賴的用戶群、數(shù)據(jù)、文本等可能體現(xiàn)特定的政治傾向。加之機(jī)器學(xué)習(xí)可能習(xí)得人類偏見, 這種算法偏見可能會導(dǎo)致內(nèi)容生產(chǎn)環(huán)節(jié)出現(xiàn)種族、性別、地域、語言、職業(yè)等偏見, 使生成式人工智能的立場更加傾向于社會中擁有話語權(quán)、影響力和傳播力的人群。⑤生成式人工智能在科學(xué)技術(shù)發(fā)展的過程中逐漸提升性能, GPT-4 大語言模型的算法使其具備“強(qiáng)擬人化” 特征, 將各類交流方式融入生成式人工智能, 其行為更為符合人類認(rèn)知規(guī)律, 實(shí)現(xiàn)大型語言模型的“擬人性” 智慧。①而相對于網(wǎng)絡(luò)文字的輸入, 大型多模態(tài)模型在算法公平治理層面更可能引發(fā)算法歧視: 一方面, 圖像與視頻內(nèi)容, 更加明顯地表露了性別、地域、種族、職業(yè)等特征, 加劇引發(fā)算法偏見風(fēng)險。谷歌AI (Gemini) 與GPT-4 就根據(jù)任務(wù)生成了大量基于性別、種族等帶有歧視性的AIGC。另一方面, 跨模態(tài)模型所產(chǎn)生的算法歧視相對文本內(nèi)容而言更為隱蔽, GPT-4 對圖像的識別與分析更具“強(qiáng)擬人化”, AIGC 無法僅通過表層算法進(jìn)行解構(gòu)與解釋。如何平衡倫理價值與技術(shù)價值, 改進(jìn)AIGC 技術(shù)及算法治理將成為一項(xiàng)復(fù)雜且艱巨的挑戰(zhàn)。

        4. 通用性倫理風(fēng)險

        4. 通用性倫理風(fēng)險AIGC 限制人類主觀思考與決策能力, 使人產(chǎn)生蛻化。生成式人工智能根據(jù)指令能夠在較短的時間內(nèi), 通過對既有語料的搜集、篩選、調(diào)取和整合, 沿循人類的自然語言表達(dá)模式, 輔助乃至代替人們完成文章寫作、社會評論、創(chuàng)意編輯等本應(yīng)建立在獨(dú)立思考之上的觀點(diǎn)生成和輸出任務(wù)。生成式人工智能可能替代人們進(jìn)行獨(dú)立思考, 人們的思考將由包含接收信息、回溯經(jīng)驗(yàn)、訴諸理論、提出假設(shè)、情況調(diào)研、檢驗(yàn)假設(shè)、推導(dǎo)結(jié)論等步驟的獨(dú)立型形式進(jìn)一步走向包含鍵入指令、復(fù)制粘貼等步驟的依賴型形式, 由此誘發(fā)獨(dú)立思考能力的蛻化。

        濫用AIGC 導(dǎo)致虛假宣傳與輿論操控, 誘發(fā)社會信任危機(jī)。AIGC 本身所具有自動生成的屬性注定了其易受輿論信息控制, 各領(lǐng)域團(tuán)體可以通過社交媒體、網(wǎng)絡(luò)水軍等方式進(jìn)行輿論操縱。③諸多GPT-4 模型的實(shí)用案例中, 也出現(xiàn)了生成相應(yīng)虛假內(nèi)容以及歧視性內(nèi)容的情形, 大量AIGC 被有組織地惡意利用。為了在各類經(jīng)濟(jì)事件、政治事件中謀取利益, 團(tuán)體投放AIGC 合成的虛假信息, 違背社會倫理, 造成了社會輿論失序的風(fēng)險。

        AIGC 的過度使用擴(kuò)大認(rèn)知鴻溝。由于數(shù)據(jù)集的價值觀偏向, 嚴(yán)重影響到AIGC 的質(zhì)量, 加深現(xiàn)有各種歧視、偏見與成見, 帶來新的倫理挑戰(zhàn)。生成式人工智能也會在無意間或有意地固化“信息繭房”, 轉(zhuǎn)化為掌權(quán)者控制思想的工具, 帶來社會階層的意識沖突。一系列社會實(shí)例表明,人工智能會對人的金錢觀、審美觀、擇偶觀等價值觀產(chǎn)生一定的負(fù)面影響。④一方面, 相關(guān)實(shí)例顯示, Gemini 以及GPT-4 所輸出的內(nèi)容都包含性別歧視與種族歧視等信息, ⑤生成式AI 受到人類的主觀影響, 可能對用戶獲取內(nèi)容進(jìn)行干預(yù), 輸出不正當(dāng)價值產(chǎn)物。另一方面, 當(dāng)生成式人工智能獲取用戶的要求與任務(wù)時, 其大概率為了輸出同用戶偏好相契合的內(nèi)容, 采用表示贊同的態(tài)度進(jìn)行內(nèi)容生成, 而當(dāng)關(guān)鍵內(nèi)容為負(fù)面信息或體現(xiàn)不良價值觀時, 輸出內(nèi)容將加深社會公眾的主觀偏見, 產(chǎn)生不良價值觀蔓延的風(fēng)險。

        三、人工智能生成物監(jiān)管規(guī)則的現(xiàn)狀及困境

        (一) 國外人工智能生成物監(jiān)管規(guī)則的現(xiàn)狀

        為應(yīng)對AIGC 所帶來的影響, 歐盟領(lǐng)先建立了較為嚴(yán)格的人工智能治理體系。美國則采取較為溫和的措施, 形成了行業(yè)自律的人工智能管理體系。同時, 英國以及加拿大的監(jiān)管措施與經(jīng)驗(yàn)也值得注意。

        歐盟建立了由《通用數(shù)據(jù)保護(hù)條例》《可信賴人工智能倫理準(zhǔn)則》《數(shù)據(jù)治理法案》《人工智能法案》等制度構(gòu)成的人工智能治理體系。其中, 《通用數(shù)據(jù)保護(hù)條例》主要解決數(shù)據(jù)搜集中的權(quán)利保護(hù)問題, 旨在約束互聯(lián)網(wǎng)和大數(shù)據(jù)公司對個人和敏感數(shù)據(jù)的處理, 保障數(shù)據(jù)主體的合法權(quán)益。《數(shù)據(jù)治理法案》以數(shù)據(jù)利用和共享為重點(diǎn)目標(biāo)。旨在加速數(shù)據(jù)資源的流動和使用, 以達(dá)到更高的公共政策目的?!度斯ぶ悄芊ò浮氛J(rèn)識到了人工智能可能存在的風(fēng)險。采取風(fēng)險分級管理思路, 將人工智能風(fēng)險分為4 個級別: 不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險、最小或無風(fēng)險。根據(jù)人工智能可能產(chǎn)生的風(fēng)險級別為提供者和用戶設(shè)定義務(wù)。另外, 《人工智能法案》中的有關(guān)人工智能主體、限制、監(jiān)管、抽檢與反饋等方面都給國際各國建立AIGC 監(jiān)管與治理體系提供了思路。

        美國形成了以《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》《為人工智能的未來做好準(zhǔn)備》《2020 年國家人工智能倡議法案》《人工智能風(fēng)險管理框架》等制度構(gòu)成的人工智能治理體系。其中, 《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》與《為人工智能的未來做好準(zhǔn)備》作為國家框架性文件, 旨在促進(jìn)人工智能快速發(fā)展, 并未對其進(jìn)行嚴(yán)格限制與約束?!?020 年國家人工智能倡議法案》旨在確保美國在AI 研發(fā)領(lǐng)域的領(lǐng)導(dǎo)地位, 推進(jìn)在全領(lǐng)域共同開發(fā)先進(jìn)AI 系統(tǒng), 整合AI 監(jiān)管與治理部門。《人工智能風(fēng)險管理框架》(AI RMF) 1. 0 版, 旨在指導(dǎo)機(jī)構(gòu)組織在開發(fā)和部署人工智能系統(tǒng)時降低安全風(fēng)險, 補(bǔ)正前兩部國家框架性文件, 對人工智能監(jiān)管進(jìn)行了原則性規(guī)定, 為設(shè)計(jì)、開發(fā)、部署、應(yīng)用AI 系統(tǒng)的組織提供了指引。

        英國發(fā)布的《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》白皮書, 建立了以安全性與穩(wěn)健性、適當(dāng)透明度與可解釋性、公平性、問責(zé)制與管理、可爭議性與補(bǔ)救性五項(xiàng)原則為基礎(chǔ)的監(jiān)管治理體系, 授權(quán)了監(jiān)管機(jī)構(gòu)可于合理范圍內(nèi)提出監(jiān)管辦法, 以監(jiān)管AI 在各領(lǐng)域的適用與服務(wù)。加拿大發(fā)布《人工智能與數(shù)據(jù)法案》, 旨在規(guī)范國際及省級之間的人工智能系統(tǒng)交易, 降低人工智能安全風(fēng)險與數(shù)據(jù)風(fēng)險, 授權(quán)制定AI 系統(tǒng)相關(guān)政策, 為保護(hù)隱私數(shù)據(jù)與商業(yè)秘密數(shù)據(jù), 設(shè)計(jì)、開發(fā)、使用或提供先進(jìn)、可信的人工智能系統(tǒng)。

        (二) 我國人工智能生成物監(jiān)管規(guī)則的現(xiàn)狀

        我國現(xiàn)行的監(jiān)管規(guī)則主要涵蓋了數(shù)據(jù)治理、數(shù)據(jù)監(jiān)管、數(shù)據(jù)權(quán)益和保護(hù)等相關(guān)內(nèi)容, 這些內(nèi)容為人工智能的運(yùn)行提供了一些行為導(dǎo)向, 但并未形成完整的監(jiān)管規(guī)則和監(jiān)管體系框架。相關(guān)規(guī)則的淵源主要表現(xiàn)為部門規(guī)章、地方性法規(guī)、國家與行業(yè)標(biāo)準(zhǔn)。其中, 三部監(jiān)管特定技術(shù)服務(wù)的部門規(guī)章《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》為完善當(dāng)前生成式人工智能的規(guī)制體系提供了一定思路?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》要求對生成AIGC 的算法模型進(jìn)行定期審核、評估、驗(yàn)證, 同時要求服務(wù)提供者向網(wǎng)信部門進(jìn)行備案, 禁止設(shè)置違反法律法規(guī)或倫理道德的算法模型?!痘ヂ?lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》是AIGC 領(lǐng)域較為核心的監(jiān)管制度, 確立了“深度合成技術(shù)” 的管理規(guī)范和監(jiān)督措施?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》作為全球范圍內(nèi)首部直接針對生成式人工智能進(jìn)行規(guī)制的國家層面法律文件, 代表我國在立法層面對AIGC 高度重視, 構(gòu)建了技術(shù)治理與服務(wù)規(guī)范的基本規(guī)則, 初步探索建立多領(lǐng)域AIGC 的統(tǒng)一監(jiān)管模式。另外, 《關(guān)于構(gòu)建數(shù)據(jù)基礎(chǔ)制度更好發(fā)揮數(shù)據(jù)要素作用的意見》(以下簡稱“數(shù)據(jù)二十條” ) 提出了數(shù)據(jù)監(jiān)管的基本任務(wù); 《新一代人工智能倫理規(guī)范》則從行業(yè)自律和專家建議層面確立了發(fā)展負(fù)責(zé)任的人工智能的基本原則;《數(shù)據(jù)安全技術(shù)數(shù)據(jù)分類分級規(guī)則》給出了數(shù)據(jù)分類分級的通用規(guī)則, 指導(dǎo)并規(guī)范數(shù)據(jù)分類分級的方法與標(biāo)準(zhǔn), 以保障數(shù)據(jù)的安全性和真實(shí)性。

        (三) 現(xiàn)行人工智能生成物監(jiān)管規(guī)則的困境

        統(tǒng)觀國內(nèi)外人工智能相關(guān)的制度體系發(fā)現(xiàn), 各國人工智能監(jiān)管體現(xiàn)出以下特點(diǎn): 一是由多部法律法規(guī)進(jìn)行規(guī)范, 相應(yīng)的監(jiān)管職能也分散于各個部門, 缺乏統(tǒng)一規(guī)則與機(jī)構(gòu), 且延續(xù)了既往官僚體制中人力監(jiān)管的傳統(tǒng)。二是關(guān)于AIGC 的監(jiān)管理念和規(guī)則都處于初創(chuàng)期、內(nèi)容多體現(xiàn)為基本原則, 缺乏具體的行為指引和監(jiān)管規(guī)則。三是偏向于事后規(guī)制, 現(xiàn)行法律法規(guī)對AIGC 事后侵權(quán)以及追責(zé)進(jìn)行了規(guī)定, 但事前的審查、預(yù)防與監(jiān)管尚處于模糊地帶。具體而言, 現(xiàn)行的監(jiān)管模式和規(guī)則又體現(xiàn)出以下缺陷。

        1. 人力監(jiān)管能力不足

        人力監(jiān)管機(jī)構(gòu)職能分散、尚未統(tǒng)一。以我國為例, 在《生成式人工智能服務(wù)管理暫行辦法》以及多部法律法規(guī)中提及, 網(wǎng)信、發(fā)展改革、教育、科技、工業(yè)和信息化、公安、廣播電視、新聞出版等部門, 根據(jù)自身職能對生成式人工智能進(jìn)行監(jiān)管與治理。其中, 國家網(wǎng)信部門統(tǒng)籌全國算法以及人工智能服務(wù)治理與監(jiān)管等工作, 而國務(wù)院電信、公安、市場監(jiān)管等有關(guān)部門則依據(jù)其各自職能監(jiān)督管理地方工作, 地方下屬部門亦是如此。表面上各部門進(jìn)行協(xié)同監(jiān)管, 實(shí)質(zhì)上也形成了對各領(lǐng)域監(jiān)管職能的分割, 在應(yīng)對全國范圍各層面的人工智能監(jiān)管與治理時, 分立運(yùn)行的監(jiān)管格局可能因知識水平參差不齊、監(jiān)管方式形態(tài)各異形成監(jiān)管競次、監(jiān)管真空等問題。①

        “成本” 與“收益” 不對等, 致使人力監(jiān)管乏力。國家對于AIGC 的監(jiān)管方式仍是以人力為主, 縱然計(jì)算機(jī)提升了網(wǎng)絡(luò)監(jiān)管巡查速率, 但仍無法彌補(bǔ)人力監(jiān)管的不足。面對井噴式增長的AIGC, 監(jiān)管范圍愈大, 監(jiān)管所需付出的資源愈多, 但由于AIGC 增長速率過快、監(jiān)管規(guī)則缺失,任何以現(xiàn)場檢查或人力篩查為核心的監(jiān)管模式都可能會導(dǎo)致過度監(jiān)管或監(jiān)管不足; 同時, AI 技術(shù)快速革新, 監(jiān)管部門專業(yè)人才缺失, 監(jiān)管速率跟不上技術(shù)發(fā)展與迭代的速度, 導(dǎo)致人工監(jiān)管收效甚微。解決人力監(jiān)管乏力的問題, 需引入技術(shù)監(jiān)管規(guī)則。通過引入人工智能分類治理“工具箱” ②等技術(shù)和措施, 降低監(jiān)管成本, 提升監(jiān)管效率。

        2. “產(chǎn)品” 質(zhì)量標(biāo)準(zhǔn)缺失

        AIGC 作為一種特殊“產(chǎn)品”, 尚未建立對其進(jìn)行質(zhì)量檢測的準(zhǔn)則?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》對訓(xùn)練數(shù)據(jù)提出了真實(shí)、準(zhǔn)確、客觀、多樣等要求, 但相關(guān)法律法規(guī)中并未對AIGC的“產(chǎn)品” 質(zhì)量進(jìn)行明確規(guī)定, 并且相關(guān)行業(yè)和企業(yè)規(guī)范文件中對其規(guī)定也較為模糊, 并不具備強(qiáng)制性。正是由于缺乏AIGC 質(zhì)量規(guī)范的外部準(zhǔn)則和自律措施, 導(dǎo)致監(jiān)管部門缺乏有力抓手, 影響監(jiān)管工作的效率, 也導(dǎo)致了大量低質(zhì)量的AIGC 泛濫。

        質(zhì)量標(biāo)準(zhǔn)具有控制生產(chǎn)、篩選剔除、規(guī)范指引等重要功能。對于公共信息和公共服務(wù)領(lǐng)域而言, AIGC 的生產(chǎn)和使用不僅影響用戶體驗(yàn)和用戶價值, 還關(guān)涉到社會公共利益, 明確質(zhì)量標(biāo)準(zhǔn)更為迫切。因此, 需構(gòu)建質(zhì)量標(biāo)準(zhǔn)規(guī)則, 明確開發(fā)者、服務(wù)提供者與使用者的義務(wù), 控制AIGC 的生產(chǎn)過程規(guī)范和產(chǎn)品質(zhì)量標(biāo)準(zhǔn), 保證生成內(nèi)容真實(shí), 保障監(jiān)管有序, 從而避免信息泄露和數(shù)據(jù)污染等風(fēng)險。

        3. 數(shù)據(jù)歧視監(jiān)管缺位

        數(shù)據(jù)歧視的監(jiān)管仍停留于原則層面?!吨腥A人民共和國民法典》中的平等原則與公序良俗原則為解決涉AIGC 民事糾紛確立了制度基礎(chǔ), 但無法有效預(yù)防和治理AIGC 引發(fā)的數(shù)據(jù)歧視風(fēng)險?!皵?shù)據(jù)二十條” 及《新一代人工智能倫理規(guī)范》中都提及了反偏見和歧視的原則性內(nèi)容和監(jiān)管要求, 并規(guī)定了生成式人工智能服務(wù)提供者對源數(shù)據(jù)的安全保障的義務(wù)。但由于缺乏法律法規(guī)與規(guī)章的具體規(guī)范, 導(dǎo)致反歧視原則無法有效落實(shí)。

        數(shù)據(jù)歧視源頭治理規(guī)則缺失。反歧視規(guī)則主要對象是由于人工智能算法或者個體主觀意志所導(dǎo)致的AIGC 中產(chǎn)生的數(shù)據(jù)歧視。對于數(shù)據(jù)庫所顯示的正當(dāng)差別, 不能將其定義為數(shù)據(jù)歧視, 而是數(shù)據(jù)總體所存在的一種自然差異, 是社會運(yùn)轉(zhuǎn)與循環(huán)所形成的合理的社會現(xiàn)象。當(dāng)生成式人工智能模型在壓縮訓(xùn)練數(shù)據(jù)時, 或分析問題的信息受限、過時、有矛盾時, 會出現(xiàn)邏輯謬誤、虛構(gòu)事實(shí)、數(shù)據(jù)偏見, 生成看似合理實(shí)則與提供的源內(nèi)容不符或沒有意義的內(nèi)容, 導(dǎo)致模型出現(xiàn)幻覺問題。①另外, 在訓(xùn)練數(shù)據(jù)偏差, 模型無法訪問實(shí)時或最新的信息, 或者模型在訓(xùn)練中的固有局限性等因素的影響下, 也會導(dǎo)致AIGC 的歧視風(fēng)險。由于缺乏對人工智能數(shù)據(jù)來源的清洗和糾偏規(guī)則, 給AIGC 歧視埋下了隱患源頭, 加之缺乏對算法透明的披露規(guī)則和算法審核的監(jiān)督規(guī)則, 放任了AIGC 歧視的產(chǎn)生。因此, 數(shù)據(jù)歧視監(jiān)管規(guī)則的建立, 不僅需對AIGC 的使用進(jìn)行監(jiān)管, 也需對其來源與形成過程進(jìn)行評估和監(jiān)測, 并在AIGC 生產(chǎn)、使用的各階段進(jìn)行治理, 防止與控制數(shù)據(jù)歧視的不利影響。

        4. 分級管理規(guī)則模糊

        對AIGC 的分級管理, 旨在對不同影響程度的生成物進(jìn)行合理監(jiān)管。根據(jù)“比例原則”, 明確不同等級生成物的監(jiān)管力度, 幫助國家監(jiān)管部門減輕監(jiān)管壓力, 更為迅速地進(jìn)行檢查與管理。分級管理規(guī)則的建立不僅是對AIGC 監(jiān)管機(jī)制的完善, 也可以為各行業(yè)領(lǐng)域使用AIGC 提供指引, 強(qiáng)化社會公眾正確使用AIGC 的觀念, 為避免輿論操控、保障信息安全奠定制度基礎(chǔ), 同時也有助于提升AIGC 的產(chǎn)品質(zhì)量, 降低通用性倫理風(fēng)險。

        《生成式人工智能服務(wù)管理暫行辦法》確立了生成式人工智能服務(wù)的一般標(biāo)準(zhǔn), 但并未針對不同風(fēng)險級別的AIGC 形成監(jiān)管規(guī)范。高風(fēng)險人工智能與低風(fēng)險人工智能并未得到區(qū)分, 本應(yīng)受到更為嚴(yán)格監(jiān)管的高風(fēng)險人工智能, 在享受高利益回報(bào)的同時只需遵循一般審查標(biāo)準(zhǔn), 而低風(fēng)險人工智能卻承擔(dān)了更多的審查義務(wù), 這一監(jiān)管標(biāo)準(zhǔn)與社會價值、國家發(fā)展取向不盡一致?!稊?shù)據(jù)安全技術(shù)數(shù)據(jù)分類分級規(guī)則》以《中華人民共和國數(shù)據(jù)安全法》(以下簡稱《數(shù)據(jù)安全法》) 《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國個人信息保護(hù)法》為基礎(chǔ), 給出了數(shù)據(jù)分類分級的通用規(guī)則輔助數(shù)據(jù)和信息監(jiān)管, 但其與AIGC 分類分級監(jiān)管尚存一定隔閡, 仍需對AIGC 分類分級標(biāo)準(zhǔn)進(jìn)行明晰與關(guān)聯(lián)。

        四、人工智能生成物監(jiān)管規(guī)則的構(gòu)建

        生成式人工智能所呈現(xiàn)的超凡的技術(shù)力量以及對社會可能帶來的全局性的沖擊與影響, 使其進(jìn)一步成為數(shù)字時代關(guān)鍵基礎(chǔ)設(shè)施, 應(yīng)該成為一種新的“公器”, 或者也應(yīng)該接受特殊的約束和監(jiān)管。①首先, 引入整體性監(jiān)管的理念, 制定面向AIGC 的原則性監(jiān)管方法。其次, 建立人工智能統(tǒng)一監(jiān)管機(jī)構(gòu), 提升監(jiān)管效能和監(jiān)管韌性。以網(wǎng)信為主, 發(fā)展改革、教育、科技、工業(yè)和信息化、公安、廣播電視、新聞出版等部門為輔, 建立統(tǒng)一監(jiān)管機(jī)構(gòu), 整合監(jiān)管權(quán)力, 對AIGC 全過程實(shí)施監(jiān)管。最后, 為確保監(jiān)管效能與生成式人工智能的技術(shù)革新和應(yīng)用風(fēng)險相匹配, 應(yīng)當(dāng)建立以內(nèi)外協(xié)同、資源共享、統(tǒng)一規(guī)則為基礎(chǔ)的全面監(jiān)管風(fēng)險識別與評估體系, 同時連接外部各領(lǐng)域平臺與用戶反饋投訴機(jī)制, 全面評估、監(jiān)控AIGC 監(jiān)管框架運(yùn)行。②具體而言, 又包含以下具體規(guī)則內(nèi)容。

        (一) 技術(shù)監(jiān)管規(guī)則

        為克服人工監(jiān)管的高成本、低效率等缺陷, 應(yīng)引入技術(shù)監(jiān)管、推動敏捷治理, 將AIGC 來源與后續(xù)使用行為納入監(jiān)管體系, 形成以生成記錄保存規(guī)則、實(shí)名制規(guī)則、強(qiáng)制標(biāo)記規(guī)則、周期性數(shù)據(jù)更新規(guī)則為內(nèi)容的監(jiān)管規(guī)則, 從而為AIGC 的風(fēng)險追溯、風(fēng)險排查和治理奠定基礎(chǔ)。

        生成記錄保存規(guī)則。生成式人工智能在輔助內(nèi)容生產(chǎn)的過程中, 需要開發(fā)者與服務(wù)提供者采取版權(quán)保護(hù)措施與建立內(nèi)容檢測系統(tǒng), 確保生產(chǎn)的內(nèi)容不會侵犯他人在先權(quán)利, 同時對生成內(nèi)容進(jìn)行階段性記錄保存。對生成、存儲、管理、訪問、使用、銷毀等全生命周期的各個環(huán)節(jié)進(jìn)行數(shù)據(jù)保存并確立調(diào)用規(guī)則。通過生成記錄保存規(guī)則的引入強(qiáng)化權(quán)利保障、促進(jìn)數(shù)據(jù)流通, 以保障后續(xù)成果侵權(quán)情景下進(jìn)行追責(zé)的證據(jù)完整性, 或者事故風(fēng)險情景下補(bǔ)救治理的溯源可能性。

        實(shí)名制規(guī)則。為提升技術(shù)使用的透明度, 促使使用者能夠合法、合規(guī)地運(yùn)用生成物, 明晰模型開發(fā)者和使用者權(quán)利義務(wù), 防范和打擊利用生成物從事不法活動或損害個人及公共利益的行為,應(yīng)當(dāng)引入實(shí)名制規(guī)則。通過一體化身份認(rèn)證機(jī)制, 如身份證、手機(jī)號碼和人臉識別等信息的聯(lián)動驗(yàn)證, 對用戶身份進(jìn)行驗(yàn)證與授權(quán), 以確保AIGC 服務(wù)僅對被授權(quán)用戶開放。同時對違法和濫用行為采取警示、限制功能、暫?;蛘呓K止向其提供服務(wù)等措施, 對使用行為進(jìn)行有效制約, 維護(hù)公共利益。

        強(qiáng)制標(biāo)記規(guī)則。標(biāo)記制度可在一定程度上對人類智慧創(chuàng)作產(chǎn)物與AIGC 進(jìn)行界分, 達(dá)到提示與明確告知網(wǎng)絡(luò)用戶與其他使用者的效果。對于可能導(dǎo)致公眾混淆或誤認(rèn)的生成內(nèi)容, 要求人工智能服務(wù)提供者和使用者對其生成或編輯的信息內(nèi)容采取技術(shù)措施添加標(biāo)識, 通過文字、聲音、圖形等可識別的方式呈現(xiàn), 并確保能夠被用戶明顯感知。同時開展數(shù)據(jù)標(biāo)記質(zhì)量評估, 抽樣核驗(yàn)標(biāo)記內(nèi)容的準(zhǔn)確性, 確保標(biāo)記的可信度。來源強(qiáng)制標(biāo)記機(jī)制還可預(yù)防侵權(quán)發(fā)生, 對輸出的AIGC進(jìn)行數(shù)字管理, 采取數(shù)字水印、區(qū)塊鏈等技術(shù)明確AIGC 來源, 防止不法分子使用AIGC 實(shí)施欺詐、假冒的行為。

        周期性數(shù)據(jù)更新規(guī)則。應(yīng)強(qiáng)化AIGC 服務(wù)提供平臺數(shù)據(jù)管理義務(wù), 利用人機(jī)協(xié)同監(jiān)管機(jī)制,通過用戶的訪問與投訴, 對負(fù)面數(shù)據(jù)、來源數(shù)據(jù)庫進(jìn)行及時更新、處理, 并對更新流程與時限進(jìn)行透明化處理, 將虛假信息與數(shù)據(jù)問題進(jìn)行更正與聲明。同時, 各平臺與有關(guān)機(jī)構(gòu)也應(yīng)對AIGC進(jìn)行定期評估和更新, 以確保遵守法律與行業(yè)標(biāo)準(zhǔn), 并適應(yīng)不斷變化的技術(shù)、倫理和社會需求。

        (二) 質(zhì)量標(biāo)準(zhǔn)規(guī)則

        通過明確人工智能開發(fā)者與AIGC 服務(wù)提供者、使用者的義務(wù), 構(gòu)建AIGC 生產(chǎn)過程控制和生成產(chǎn)品的質(zhì)量標(biāo)準(zhǔn)規(guī)則, 避免可能造成數(shù)據(jù)污染和信息泄露風(fēng)險的生成內(nèi)容流入公共領(lǐng)域, 避免危及公共安全和公共利益的內(nèi)容生成和使用。

        明確開發(fā)者義務(wù), 設(shè)定過程控制標(biāo)準(zhǔn)。一方面, 明確開發(fā)者的數(shù)據(jù)來源保證義務(wù)。確保投入訓(xùn)練模型的數(shù)據(jù)不構(gòu)成侵權(quán), 同時應(yīng)當(dāng)在訓(xùn)練過程中強(qiáng)化AI 識別侵權(quán)信息的功能, 預(yù)防侵權(quán), 保障產(chǎn)品安全、合法。另一方面, 為了保障用戶以及接收者的合法權(quán)利, 穩(wěn)定社會信任機(jī)制, 強(qiáng)制要求開發(fā)設(shè)計(jì)者、服務(wù)提供者提高人工智能系統(tǒng)的開發(fā)、部署和操作等方面透明度, ①保證其生成式人工智能符合合理的透明標(biāo)準(zhǔn), ②包括AIGC 生成過程透明、訓(xùn)練數(shù)據(jù)庫透明、算法透明和人工智能系統(tǒng)決策透明。同時控制生成階段AIGC 的質(zhì)量標(biāo)準(zhǔn), 要求服務(wù)提供者對生成內(nèi)容進(jìn)行篩選與清洗, 輸出符合質(zhì)量標(biāo)準(zhǔn)的AIGC。

        構(gòu)建公共領(lǐng)域內(nèi)以確保真實(shí)為核心的AIGC 質(zhì)量標(biāo)準(zhǔn)規(guī)則。通過制定法律與行業(yè)標(biāo)準(zhǔn), 保障生成內(nèi)容的真實(shí)、準(zhǔn)確, 保證AIGC 的最低質(zhì)量底線, 防止人工智能生成虛假信息誤導(dǎo)公眾, 造成人工智能數(shù)據(jù)訓(xùn)練的連鎖反應(yīng), 導(dǎo)致虛假信息的迅速傳播以及社會秩序紊亂。為確保AIGC 最低質(zhì)量標(biāo)準(zhǔn), 在生成式人工智能模型語料不足、算法缺陷的情況下, 需要明確網(wǎng)絡(luò)服務(wù)商的提示義務(wù), 在生成記錄保存規(guī)則的基礎(chǔ)上, 對AIGC 來源進(jìn)行標(biāo)注、對生成結(jié)果的缺陷進(jìn)行提示, 給使用者提供可靠的數(shù)據(jù)來源, 并由使用者對流入公共領(lǐng)域的生成物質(zhì)量進(jìn)行把關(guān)。最后, 由地方信息通訊和無線電管理機(jī)構(gòu)對流入公共領(lǐng)域的生成物進(jìn)行質(zhì)量監(jiān)管執(zhí)法。

        (三) 無歧視規(guī)則

        數(shù)據(jù)歧視發(fā)生的根源在于數(shù)據(jù)本身的偏見以及算法的偏差, 有必要從源頭入手, 從數(shù)據(jù)來源、機(jī)器學(xué)習(xí)和模型算法等層面進(jìn)一步明確AIGC 反歧視的實(shí)施和監(jiān)管標(biāo)準(zhǔn)。為進(jìn)一步落實(shí)“數(shù)據(jù)二十條” 及《新一代人工智能倫理規(guī)范》的要求, 應(yīng)當(dāng)通過建立數(shù)據(jù)清洗和數(shù)據(jù)審計(jì)規(guī)則, 推動算法透明, 加強(qiáng)算法審核, 從而實(shí)現(xiàn)對數(shù)據(jù)歧視的源頭治理。

        建立數(shù)據(jù)清洗和數(shù)據(jù)審計(jì)規(guī)則。一方面, 對內(nèi)需要對輸入、輸出算法的數(shù)據(jù)進(jìn)行清洗。將具有歧視性的數(shù)據(jù)包含于數(shù)據(jù)清洗的范圍內(nèi), 通過計(jì)算機(jī)對輸入以及輸出的數(shù)據(jù)內(nèi)容進(jìn)行審查與檢驗(yàn), 將明顯帶有數(shù)據(jù)歧視風(fēng)險的內(nèi)容進(jìn)行排除。另一方面, 對外應(yīng)當(dāng)建立數(shù)據(jù)審計(jì)制度, 對輸入人工智能大模型的訓(xùn)練數(shù)據(jù)進(jìn)行事前的審查、評估與監(jiān)管。首先需要設(shè)立獨(dú)立的第三方數(shù)據(jù)審計(jì)專門機(jī)構(gòu), 引入專業(yè)審計(jì)人才, 給予機(jī)構(gòu)獨(dú)立的審計(jì)權(quán), 對數(shù)據(jù)原料與內(nèi)容進(jìn)行安全審查、影響評估、審計(jì)監(jiān)督與風(fēng)險評估。在橫向上對不同領(lǐng)域生成的數(shù)據(jù)內(nèi)容進(jìn)行分類審計(jì), 在縱向上加強(qiáng)各環(huán)節(jié)的分步審計(jì), 明確審計(jì)周期, 定期排除歧視性數(shù)據(jù)。

        推動算法透明, 加強(qiáng)算法審核。為了解決算法操控導(dǎo)致的數(shù)據(jù)歧視風(fēng)險, 需要加強(qiáng)對以大型多模態(tài)模型為主的各類算法模型的監(jiān)管、規(guī)范, 進(jìn)一步推進(jìn)算法透明規(guī)范, 進(jìn)行內(nèi)外循環(huán)的算法監(jiān)管與審查。對內(nèi)推進(jìn)算法透明制度, 從算法的偏見性、有效性、技術(shù)性等方面進(jìn)行評估, 制定統(tǒng)一算法透明標(biāo)準(zhǔn), ①要求生成式人工智能服務(wù)提供者履行算法透明的義務(wù), 避免算法黑箱所產(chǎn)生的歧視風(fēng)險。同時, 在外實(shí)行算法審核, 由專門機(jī)構(gòu)對人工智能大模型算法進(jìn)行全過程審核。此外, 國家、各大網(wǎng)絡(luò)平臺以及廣大的用戶群體應(yīng)共同參與監(jiān)管、投訴與反饋, 并開展算法影響評估, 以完善算法審核機(jī)制。

        (四) 分類分級規(guī)則

        建立分類分級規(guī)則, 對利用不同類型和重要程度的數(shù)據(jù)所形成的AIGC 進(jìn)行分級分類。構(gòu)建對不同風(fēng)險程度AIGC 的梯次監(jiān)管, 設(shè)定服務(wù)主體對不可接受風(fēng)險和重大風(fēng)險的申報(bào)與備案義務(wù),并進(jìn)行安全評估, 保障數(shù)據(jù)安全。

        將AIGC 分四類進(jìn)行監(jiān)管。以《數(shù)據(jù)安全法》《數(shù)據(jù)安全技術(shù)數(shù)據(jù)分類分級規(guī)則》為基礎(chǔ),借鑒歐盟《人工智能法案》, 將AIGC 風(fēng)險分為不可接受的風(fēng)險、重大風(fēng)險、一般風(fēng)險和輕微風(fēng)險四種類型。②不可接受的風(fēng)險, 以違反人權(quán)與社會、國家基本價值或者涉及不當(dāng)數(shù)據(jù)評估與分析為要件, 這類AIGC 會導(dǎo)致國家、社會、個人承受無法接受的風(fēng)險, 故應(yīng)禁止將其投放市場、投入服務(wù)或者使用; 重大風(fēng)險類型的AIGC 應(yīng)當(dāng)作為重點(diǎn)監(jiān)管對象, 包含社會各類基礎(chǔ)設(shè)施領(lǐng)域進(jìn)行服務(wù)與使用的AI 產(chǎn)物, 主要涉及重要數(shù)據(jù)與核心數(shù)據(jù), 應(yīng)當(dāng)規(guī)定完整全流程的風(fēng)險監(jiān)管措施, 預(yù)防并控制其所產(chǎn)生的負(fù)面影響; 一般風(fēng)險與輕微風(fēng)險類型的AIGC, 主要涉及一般數(shù)據(jù), 使用者能意識到與對應(yīng)AI 進(jìn)行交互時具有一定清晰認(rèn)知并做出決定, 其在監(jiān)管框架下相對自由, 監(jiān)管限制與審查可相對寬容。當(dāng)前市場上常見的聊天機(jī)器人、文字和圖片識別及生成軟件以及AI 伴侶等的AIGC 大多屬于第三種風(fēng)險類型。

        依據(jù)分類分級規(guī)則, 申報(bào)監(jiān)管部門安全評估。應(yīng)當(dāng)根據(jù)AIGC 分類分級的結(jié)果, 將各類AIGC及其服務(wù)提供者、使用者劃分到相應(yīng)監(jiān)管模塊。對利用重要數(shù)據(jù)與核心數(shù)據(jù)生成的AIGC, 由服務(wù)提供商向地方通信管理局和無線電管理機(jī)構(gòu)申報(bào)數(shù)據(jù)安全風(fēng)險評估, 并在審查通過后, 進(jìn)行備案登記。而主要利用一般數(shù)據(jù)生成的一般風(fēng)險與輕微風(fēng)險類AIGC, 在生成記錄保存規(guī)則、實(shí)名制規(guī)則、標(biāo)記規(guī)則等技術(shù)規(guī)則基礎(chǔ)上自由流動, 并受到通信管理局和無線電管理機(jī)構(gòu)等機(jī)關(guān)的監(jiān)管。通過分類分級保障AIGC “來” 與“去” 的安全性、合法性。

        五、結(jié) 語

        本文通過對AIGC 來源與應(yīng)用領(lǐng)域的分析, 提出了AIGC 監(jiān)管中存在的數(shù)據(jù)污染、信息泄露風(fēng)險、數(shù)據(jù)歧視以及通用性倫理風(fēng)險等風(fēng)險; 明確了現(xiàn)有監(jiān)管模式中存在的人力監(jiān)管能力不足、“產(chǎn)品” 質(zhì)量標(biāo)準(zhǔn)缺失、數(shù)據(jù)歧視監(jiān)管規(guī)則缺失, 以及分級管理規(guī)則模糊等問題; 構(gòu)建了以技術(shù)監(jiān)管規(guī)則、質(zhì)量標(biāo)準(zhǔn)規(guī)則、無歧視規(guī)則以及生成物分類分級規(guī)則為主體的監(jiān)管規(guī)則體系, 一定程度上為建立AIGC 監(jiān)管體系提供了理論上的框架與制度方案。但面對人工智能的迅速發(fā)展和巨大挑戰(zhàn),需要更為具體的應(yīng)對措施以防范其帶來的各種風(fēng)險。未來還需從監(jiān)管程序、監(jiān)管基礎(chǔ)設(shè)施、監(jiān)管規(guī)制與監(jiān)管機(jī)構(gòu)運(yùn)行等要素出發(fā), 探索國家AIGC 監(jiān)管體系發(fā)展之路, 為保障國家人工智能產(chǎn)業(yè)蓬勃發(fā)展、社會秩序穩(wěn)定、數(shù)據(jù)信息安全添磚加瓦。

        (責(zé)任編輯: 王青斌)

        基金項(xiàng)目: 2020 年國家自然科學(xué)基金青年項(xiàng)目“產(chǎn)權(quán)結(jié)構(gòu)對高校專利轉(zhuǎn)化績效的影響研究” (項(xiàng)目批準(zhǔn)號: 72004238); 2023 年中央高校重點(diǎn)項(xiàng)目“基于知識產(chǎn)權(quán)制度發(fā)展的職務(wù)成果用語體系研究” (項(xiàng)目批準(zhǔn)號: CSZ23014)。

        中国孕妇变态孕交xxxx| 99在线无码精品秘 人口| 一区二区三区在线观看高清视频| 久久久天堂国产精品女人| 免费视频成人片在线观看| 亚洲国产区男人本色| 超级碰碰人妻中文字幕| 国产精品久久婷婷免费观看| 中文字幕人妻在线中字| 久久国产精久久精产国| 久久久99精品视频| 精品久久人妻av中文字幕| 18禁黄污吃奶免费看网站| 韩国三级中文字幕hd久久精品| 国产精品无码mv在线观看| 草逼视频污的网站免费| 久久精品国产亚洲av影院| 人人妻人人澡人人爽精品欧美| 中文字幕人成乱码中文乱码 | 日本中文字幕不卡在线一区二区| 日本高清中文字幕二区在线| 国产剧情一区二区三区在线| a级毛片免费完整视频| 国产在线精品一区二区在线看| 日本加勒比一区二区在线观看| 亚洲综合色区一区二区三区| 国产熟人av一二三区| 亚洲成a人片在线观看导航| 大香蕉视频在线青青草| 亚洲人成精品久久久久| 18禁美女裸体网站无遮挡| 扒下语文老师的丝袜美腿| 国产主播一区二区三区蜜桃| 久久精品麻豆日日躁夜夜躁| 无夜精品久久久久久| 亚洲国产精品成人一区二区在线| 奇米影视7777久久精品| 欧美成人形色生活片| 亚洲一区二区不卡日韩| 欧美拍拍视频免费大全| 亚洲国产精品久久久久秋霞影院|