亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        全生命周期視角下的生成式人工智能治理框架研究

        2024-02-25 00:00:00黃煒張玉瀅劉勇張瑞
        圖書與情報 2024年6期
        關鍵詞:生成式人工智能全生命周期

        摘" "要:為推動生成式人工智能的健康發(fā)展,防范其潛在風險,文章構建了一個基于全生命周期的生成式人工智能治理框架,旨在通過對技術要素與主體要素的治理協(xié)同,實現(xiàn)技術進步與社會價值的和諧統(tǒng)一。首先,通過文獻分析將生成式人工智能的風險分為技術安全風險、社會倫理與法律風險、信息傳播風險三類,并理清這些風險在全生命周期各階段的具體表現(xiàn);其次,從數(shù)據(jù)資源、算力資源、算法模型三個方面分析治理的技術要素,并從政府、企業(yè)、社會三個層面分析治理的主體要素;再次,基于各階段的風險表現(xiàn)以及技術與主體要素的分析,構建全生命周期視角下的生成式人工智能治理框架;最后,依托治理框架對生成式人工智能在虛假信息傳播案例和國家監(jiān)管方面的典型案例進行深入討論,展示了該框架的實際可行性和有效性,以期為生成式人工智能的綜合治理提供理論指導和實踐參考。

        關鍵詞:全生命周期;生成式人工智能;技術治理;主體治理;治理框架

        中圖分類號:D922.17" "文獻標識碼:A" "DOI:10.11968/tsyqb.1003-6938.2024074

        Research on the Generative Artificial Intelligence Governance Framework from the Perspective of the Full Life Cycle

        Abstract In order to promote the healthy development of generative artificial intelligence and prevent its potential risks, this paper constructs a generative artificial intelligence governance framework based on the full life cycle, aiming to achieve the harmonious unity of technological progress and social value through the governance coordination of technical elements and subject elements. First, through literature analysis, the paper divides the risks of generative artificial intelligence into three categories: technical security risks, social ethics and legal risks, and information dissemination risks, and clarifies the specific manifestations of these risks at various stages of the full life cycle; secondly, the technical elements of governance are analyzed from three aspects: data resources, computing resources, and algorithm models, and the subject elements of governance are analyzed from three levels: government, enterprise, and society; thirdly, based on the risk manifestations at each stage and the analysis of technical and subject elements, a generative artificial intelligence governance framework is constructed from the perspective of the full life cycle; finally, based on the governance framework, the paper conducts an in-depth discussion of typical cases of generative artificial intelligence in 1 information dissemination cases and national supervision, demonstrating the practical feasibility and effectiveness of the framework, in order to provide theoretical guidance and practical reference for the comprehensive governance of generative artificial intelligence.

        Key words full life cycle; generative artificial intelligence; technology governance; subject governance; governance framework

        在當今技術革新的浪潮中,以ChatGPT為代表的生成式人工智能(Generative Artificial Intelligence,GAI)技術迅猛發(fā)展,其應用范圍已逐步滲透至多個領域,顯著提高了社會生產(chǎn)效率和生活便利性[1]。然而,其造福人類社會的同時,也暴露出一系列潛在風險[2],如數(shù)據(jù)安全風險、算法歧視、虛假信息傳播等。這些風險不僅威脅個人隱私和信息安全,也對社會穩(wěn)定、經(jīng)濟發(fā)展和意識形態(tài)安全構成挑戰(zhàn)。針對這些問題,我國高度重視生成式人工智能的治理工作,在構建適應生成式人工智能特點的治理體系方面積極探索,先后出臺了《生成式人工智能服務管理暫行辦法》和《生成式人工智能服務安全基本要求》等重要文件,對生成式人工智能的算法設計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化等方面提出了明確要求[3-4]。

        在學界,國內(nèi)外也對生成式人工智能的風險與治理展開了深入研究,并提出了多種治理策略。然而,現(xiàn)有研究多聚焦于單一風險或特定領域,對生成式人工智能全生命周期風險的系統(tǒng)分析和治理框架的研究尚顯不足。因此,本文旨在從全生命周期視角出發(fā),對生成式人工智能的風險進行全面梳理,理清各階段的風險特征,分析治理的技術與主體要素,構建了一個以技術要素為基礎、多主體要素參與的協(xié)同治理框架。結合生成式人工智能的虛假信息傳播和國家治理監(jiān)管案例,將理論框架應用于模型訓練、服務發(fā)布、內(nèi)容生成和內(nèi)容傳播四個階段,以期為生成式人工智能的健康發(fā)展提供理論指導和實踐參考。

        1" "生成式人工智能的風險分類

        生成式人工智能作為一項新興技術,為社會帶來巨大進步的同時也伴隨著諸多潛在風險。國內(nèi)外相關學者對其風險進行了廣泛研究與討論。張峰等探討了人工智能應用伴生的社會倫理風險,認為ChatGPT等應用的迅速發(fā)展引發(fā)了違背社會秩序的倫理問題[5]。在生成作品的原創(chuàng)性和著作權的歸屬問題上,李月泉和劉娟認為生成式人工智能不應被視為獨立的權利主體,只有包含人類獨創(chuàng)性的生成內(nèi)容才能被認定為作品[6]。此外,王延川和趙靖指出生成式人工智能可能加劇意識形態(tài)撕裂、操縱與解構的風險,對國家意識形態(tài)安全構成威脅[7]。因此,本文基于對各類生成式人工智能風險的研判,歸納整理相關文獻,總結出生成式人工智能風險分類(見表1)。

        1.1" " 技術安全風險

        技術安全風險主要涉及到生成式人工智能在數(shù)據(jù)訓練、算法模型等技術端所引發(fā)的風險。根據(jù)相關文獻,技術安全風險源自三個方面。一是大模型在數(shù)據(jù)收集和處理過程中形成的數(shù)據(jù)安全風險,在這些過程中,可能因數(shù)據(jù)分布不均衡、主觀偏見或技術漏洞而引發(fā)安全隱患,如數(shù)據(jù)泄露、數(shù)據(jù)失真等;二是算法層面的不透明、難理解等特點導致的生成式算法風險,由于算法缺乏可解釋性,生成式人工智能可能帶有意識形態(tài)偏向,導致其生成的內(nèi)容呈現(xiàn)出重復性和偏好性特征,加固了原有算法推薦的邊界,使得信息環(huán)境更加封閉;三是不法分子通過技術手段非法惡意攻擊或竊取敏感信息、創(chuàng)建惡意軟件及不良APP的開發(fā)和傳播等一系列技術濫用風險。

        1.2" " 社會倫理與法律風險

        生成式人工智能在推動社會進步、經(jīng)濟發(fā)展的同時,不可避免地出現(xiàn)了價值觀念偏頗、社會結構失衡等社會倫理與法律風險,該類風險主要源自三個層面:一是生成內(nèi)容在價值觀念、思想意識及政治傾向輸出時伴隨的意識形態(tài)風險。生成式人工智能的內(nèi)容生成依賴操控者對算法技術的應用,一旦操控者為不法分子或國外敵對勢力,其可能生成特定思想和價值導向的內(nèi)容,引發(fā)更大的群體極化風險,使受眾對主流意識形態(tài)產(chǎn)生偏見,影響國家意識形態(tài)安全。二是生成式人工智能技術在賦能社會經(jīng)濟發(fā)展時所帶來的經(jīng)濟風險。一方面技術進步導致部分傳統(tǒng)崗位被機器取代,引發(fā)就業(yè)結構調(diào)整和大量失業(yè),不同行業(yè)和職位間的收入差距逐漸拉大;另一方面模型訓練等過程中的高能耗問題以及由此可能產(chǎn)生的環(huán)境負面影響也亟待引起關注。三是以知識產(chǎn)權、隱私權侵犯風險及訓練數(shù)據(jù)、生成內(nèi)容的合法性為表現(xiàn)的法律風險。生成式人工智能對海量數(shù)據(jù)的依賴,不僅會涉及到未經(jīng)授權收集、使用、披露或處理個人信息的行為,還會涉及到訓練數(shù)據(jù)集的合法性問題,其來源是否正規(guī)、是否包含敏感信息,以及是否存在侵犯他人隱私權或其他權利的風險。

        1.3" " 信息傳播風險

        信息傳播風險通常發(fā)生在數(shù)據(jù)收集的初始階段和內(nèi)容傳播的末端,主要體現(xiàn)在兩方面:一是以信息繭房、過濾氣泡、數(shù)字鴻溝為代表的信息壁壘問題。個體在面對海量信息時,往往傾向于接受與自己相似的觀點,而生成式人工智能的精準算法推送進一步減少了個體接觸多元信息的機會。算法根據(jù)用戶的喜好、搜索行為等信息,為其篩選可能感興趣的內(nèi)容,同時屏蔽其他觀點,使用戶陷入由算法“定制”的信息環(huán)境。這種現(xiàn)象造成了社會群體在信息獲取、使用以及信息通信技術(ICT)受益程度上的顯著差異。二是虛假信息、不良信息傳播及信息泛濫導致的傳播風險。一方面,生成式人工智能可能在個人、群體或社會中傳播錯誤的、誤導性的信息;另一方面,其高效生成內(nèi)容的能力可能導致信息過載,使得公眾難以辨別真?zhèn)危黾有畔⒑Y選的難度。

        本文將生成式人工智能的風險分為三類,但這些風險通常并非單獨出現(xiàn),而是貫穿于全生命周期的各個環(huán)節(jié),且可能在不同階段交織、演變。這些復雜的風險關系要求從全生命周期的視角進行系統(tǒng)的分析。為此,本文結合阿里巴巴人工智能治理研究中心對生成式人工智能的風險分析與劃分結果[31],構建了生成式人工智能的全生命周期風險架構圖(見圖1),呈現(xiàn)了生成式人工智能在各階段的風險表現(xiàn),能夠全面揭示風險在各階段的分布特點,為后續(xù)的風險治理提供清晰的結構框架。

        2" "生成式人工智能的治理要素分析

        生成式人工智能的治理需要圍繞技術要素與主體要素兩大核心展開,形成雙重優(yōu)化與協(xié)同推進的綜合治理框架。首先,技術治理以海量數(shù)據(jù)、龐大算力和智能算法三大核心要素為切入點,以確保生成式人工智能的基礎穩(wěn)固與安全發(fā)展。在嚴格遵循國內(nèi)外現(xiàn)行生成式人工智能治理政策法規(guī)的基礎上,本文依據(jù)《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)、《生成式人工智能服務安全基本要求》、歐盟《人工智能法案》等頂層治理的要求,進一步拓展主體要素的協(xié)同治理,整合政府、企業(yè)和社會的多元力量,共同構筑一個全面而嚴謹?shù)闹卫眢w系。

        2.1" " 技術要素

        針對各類生成式人工智能風險,本文依托吳沈括提出的生成式人工智能發(fā)展三大核心要素:海量數(shù)據(jù)、龐大算力、智能算法[32],以技術為基石構建生成式人工智能技術治理體系,致力于推動關鍵技術的廣泛應用。

        2.1.1" "數(shù)據(jù)資源

        訓練數(shù)據(jù)集是生成式人工智能的基礎,亦是一種聚合型權益客體,可以成為規(guī)制生成式人工智能的重要切入點。然而,現(xiàn)有規(guī)制框架卻呈現(xiàn)出風險防范形式化的現(xiàn)象,對于數(shù)據(jù)偏倚、數(shù)據(jù)泄露、數(shù)據(jù)失真等問題依然難以有效解決,可以從實施數(shù)據(jù)質(zhì)量評估與清洗、利用加密與匿名化技術來治理以上風險。首先考慮數(shù)據(jù)質(zhì)量評估與清洗,一方面要建立定期的數(shù)據(jù)質(zhì)量評估流程,使用自動化工具和手動檢查相結合的方法來檢測數(shù)據(jù)的準確性、完整性和一致性;另一方面是在評估過程中,對發(fā)現(xiàn)的問題數(shù)據(jù)進行清洗,包括去除重復記錄、糾正錯誤信息、填補缺失值和過濾無關數(shù)據(jù)等。其次是實施加密與匿名化技術。加密是對存儲和傳輸?shù)臄?shù)據(jù)實施加密,確保數(shù)據(jù)在靜止和移動狀態(tài)下均受到保護。匿名化則是對個人數(shù)據(jù)進行匿名化處理,移除或轉換直接標識符(如姓名、地址、電話號碼等),以及任何可以用來直接識別個人的信息。此外,使用數(shù)據(jù)脫敏技術對敏感信息進行掩蓋或變形,確保即使在數(shù)據(jù)被訪問時,也不會泄露個人身份或敏感信息。

        2.1.2" "算力資源

        算力,即計算機的計算能力,通常用于表征計算機或其他計算設備的基本性能指標。在技術治理體系內(nèi)通常扮演著重要角色。然而,通過算力優(yōu)化以提高數(shù)據(jù)處理效率的同時,諸如成本、能源消耗、算力資源安全性等風險與挑戰(zhàn)亦不容忽視。鑒于此,從三個方面實施治理策略。首先是實施算力資源管理系統(tǒng),使用自動化調(diào)度算法來優(yōu)化資源分配,根據(jù)任務優(yōu)先級和需求動態(tài)調(diào)整資源,同時采用云服務和分布式計算來提高資源利用率。其次是建立和維護安全的基礎設施,涵蓋物理安全、網(wǎng)絡安全和數(shù)據(jù)保護等方面,定期進行安全審計和風險評估,建立災難恢復計劃和備份系統(tǒng)。最后是采用節(jié)能技術和綠色能源解決方案,通過優(yōu)化數(shù)據(jù)中心的設計與運營,提高能源利用效率并推行碳足跡管理及減排策略。

        2.1.3" "算法模型

        針對生成式算法相關風險,如算法黑箱、算法歧視等,可以從算法模型的三個方面進行有效規(guī)避。一是增強算法透明度和可解釋性。通過優(yōu)先選擇或開發(fā)易于解釋的模型,如決策樹、線性模型等,或者在復雜模型(如深度學習模型)中嵌入解釋性組件,還可以為每個算法模型創(chuàng)建詳細的文檔,包括模型的目的、設計原理、使用的數(shù)據(jù)、預期的使用場景和限制等。二是進行公平性審計,技術人員定期進行算法公平性審計,檢查算法輸出是否存在不公平的偏見或歧視。三是采用技術手段(如對抗性訓練、模型正則化)來提高模型的魯棒性,進而實現(xiàn)模型加固的目的。

        2.2" " 主體要素

        在當前生成式人工智能風險快速演進的背景下,傳統(tǒng)的單一主體治理模式已顯不足,亟需構建多方主體協(xié)同參與的治理體系。本文從政府、企業(yè)和社會三個維度構建了一個有機協(xié)同治理體系(見圖2)。在該體系中,政府擔任引領和主導的角色,企業(yè)和社會則承擔起關鍵的支撐職能。政府負責監(jiān)督企業(yè)依法合規(guī)運作,并通過制定相關政策,促進社會對生成式人工智能技術的理解與接納;企業(yè)和社會力量應全方位、多渠道地參與到政府生成式人工智能相關法律法規(guī)的制定過程中,積極提出建議和策略。

        2.2.1" "政府層面

        政府作為國家公共行政權力的象征和執(zhí)行主體,是實現(xiàn)生成式人工智能有效治理的關鍵力量。

        第一,政府需要重視生成式人工智能的監(jiān)管,設立監(jiān)管機構,通過機構來有效治理生成式人工智能風險,同時增強監(jiān)管力度并鼓勵創(chuàng)新。傳統(tǒng)的政府監(jiān)管模式對于層出不窮的生成式人工智能風險有著分散性、滯后性等弊病,影響行業(yè)發(fā)展。政府層面的監(jiān)管應該從監(jiān)督模型訓練、服務審查與監(jiān)管、加強對傳播平臺的監(jiān)管三個視角出發(fā)。首先,在監(jiān)督模型訓練方面,監(jiān)管機構需重點關注數(shù)據(jù)使用的合法性和模型輸出的合規(guī)性。機構必須制定嚴格的訓練數(shù)據(jù)篩選標準,以此來確保數(shù)據(jù)來源合法、無偏見,并定期對模型進行審計,保證其輸出結果不違反法律法規(guī)和社會倫理觀念。其次,機構必須保障生成式人工智能服務的安全性與可靠性。針對新發(fā)布的服務,機構應進行內(nèi)容審查,確保其恪守主流價值觀;對已發(fā)布的服務,機構要實施持續(xù)監(jiān)控策略,及時發(fā)現(xiàn)并處理潛在風險。最后,機構還要加強對傳播平臺的監(jiān)管,明確其應該擔負的責任,建立高效的舉報與處理機制,對違規(guī)內(nèi)容進行快速響應,并且推動跨部門協(xié)作形成監(jiān)管合力,對違規(guī)平臺進行處罰,凈化網(wǎng)絡環(huán)境。

        第二,政府通過制定法律法規(guī)來有效規(guī)制生成式人工智能風險。2017年,人工智能首次被納入我國政府工作報告,報告提出要加快人工智能等技術的研發(fā)和轉化,并培育壯大新興產(chǎn)業(yè)。同年7月,國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,為人工智能的長遠發(fā)展奠定政策基礎。隨后2019年,國務院相繼發(fā)布《新一代人工智能治理原則》和《新一代人工智能倫理規(guī)范》。2021年,國家互聯(lián)網(wǎng)信息辦公室聯(lián)合公安部等四部門聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》。2022年,深圳與上海兩地提出要建立人工智能倫理(專家)委員會,并采用風險分類分級機制對人工智能進行管理[33]。通過對歷次治理法規(guī)的整理研究,本文發(fā)現(xiàn)以往對于生成式人工智能治理的法律法規(guī)多借鑒于傳統(tǒng)治理方式進行立法,但生成式人工智能具有瞬息萬變的特點,因此傳統(tǒng)的立法手段對于生成式人工智能治理缺乏一定的針對性。我國的立法治理可以從生成式人工智能的全生命周期出發(fā),依據(jù)各階段已經(jīng)發(fā)生和潛在的風險,從模型合法性、服務合法性、內(nèi)容合法性、傳播合法性、責任歸屬權五個維度構建全面的立法管理體系,爭取早日形成一種持續(xù)有效的治理策略。

        第三,政府應制定生成式人工智能戰(zhàn)略規(guī)劃并進行戰(zhàn)略引領,嚴格依照《辦法》相關要求,支持行業(yè)組織、企業(yè)、公共文化機構等在生成式人工智能技術創(chuàng)新、數(shù)據(jù)資源建設、轉化應用、風險防范等方面開展協(xié)作,確保生成式人工智能新技術的成長之路始終與國家的最高利益保持同步。政府應制定技術創(chuàng)新與產(chǎn)業(yè)升級戰(zhàn)略,通過明確技術發(fā)展方向與產(chǎn)業(yè)升級目標,及時提供資金政策激勵研發(fā)創(chuàng)新;搭建產(chǎn)學研平臺加速成果轉化,促進產(chǎn)業(yè)鏈協(xié)同,有效推動生成式人工智能技術與產(chǎn)業(yè)深度融合;強化人才培養(yǎng)與引進,建立監(jiān)測評估機制,構建與完善產(chǎn)業(yè)生態(tài)系統(tǒng),實現(xiàn)經(jīng)濟結構的優(yōu)化和技術的全面進步。

        2.2.2" "企業(yè)層面

        在生成式人工智能治理的關鍵領域,企業(yè)的發(fā)展與治理實踐緊密相連。作為技術創(chuàng)新的驅(qū)動者,企業(yè)不僅在促進技術進步方面發(fā)揮著基礎性作用,還是推動行業(yè)實現(xiàn)健康、可持續(xù)發(fā)展的關鍵力量。因此,本文將從樹立“科技向善”的企業(yè)文化、建立健全的安全評估與反饋機制、構建生成式人工智能行業(yè)標準、技術治理常態(tài)化四個方面進行具體分析。

        首先,樹立“科技向善”的企業(yè)文化理念至關重要。企業(yè)文化是其核心競爭力的根基,也是戰(zhàn)略支撐和企業(yè)的精神源泉。健全的企業(yè)文化不僅能夠塑造正確的價值觀,更能激發(fā)員工的創(chuàng)新精神,促進企業(yè)技術和管理的持續(xù)革新,從而鞏固并提升企業(yè)的市場競爭力。基于此,可從“四項基本原則”來建立“科技向善”的企業(yè)文化,并依此高效管理生成式人工智能的相關風險。一是公正性與多樣性原則。在初始訓練過程中,涉及大量數(shù)據(jù)資源的收集與整合,其中不乏混雜著質(zhì)量參差不齊的數(shù)據(jù)。因此,企業(yè)必須嚴格審核數(shù)據(jù)集的來源與質(zhì)量,應用去偏見技術,降低算法可能帶來的歧視風險。二是透明性與可解釋性原則。企業(yè)應當發(fā)布算法透明度報告,詳細闡釋算法的工作機制和決策邏輯,便于用戶更好地理解并監(jiān)督算法的運作。三是責任與合規(guī)性原則。依照監(jiān)管部門要求,企業(yè)在服務發(fā)布后需要動態(tài)監(jiān)測其合規(guī)性,自動化糾正任何偏離合規(guī)標準的行為。四是安全和隱私保護原則,建立內(nèi)容過濾機制防止不良信息傳播,同時應用差分隱私等技術保護用戶隱私。

        其次,企業(yè)應當建立健全的安全評估與反饋投訴機制來確保技術安全、增強用戶信任、實現(xiàn)合規(guī)經(jīng)營以及塑造行業(yè)規(guī)范。一是設立倫理與偏見審查委員會,對模型訓練中可能引入的偏見和歧視性內(nèi)容進行審查和糾正。二是在服務正式發(fā)布前進行全面安全評估,包括但不限于代碼審查、漏洞掃描、滲透測試等,確保系統(tǒng)無重大安全隱患。三是建立自動與人工相結合的內(nèi)容審核系統(tǒng),實時批量審核生成內(nèi)容,防止輸出違法、有害或誤導性信息。四是建立便捷的用戶反饋渠道,鼓勵用戶對生成內(nèi)容及服務質(zhì)量進行反饋,及時收集并處理用戶投訴和建議。

        最后,從構建行業(yè)標準和技術治理常態(tài)化兩個方面完善企業(yè)層面的治理措施。在行業(yè)標準構建方面,一是需要制定統(tǒng)一的API接口準則,方便開發(fā)者接入和使用,提升服務的易用性和兼容性;二是需要設定算法效率和準確性的基本標準,確保算法能夠在多樣化應用場景中穩(wěn)定運行,提供高效、精準的服務,滿足用戶需求。在技術治理常態(tài)化方面,一是實行數(shù)據(jù)合規(guī)性審查,確保訓練數(shù)據(jù)來源合法,同時對敏感信息進行脫敏處理,避免個人隱私泄露;二是進行技術安全與合規(guī)測試,對代碼進行安全審計,排除惡意代碼或漏洞,同時嚴格監(jiān)控模型訓練過程,確保其符合行業(yè)標準和法律法規(guī),有效提升透明度與合法性。

        2.2.3" "社會層面

        在生成式人工智能的主體治理體系中,除了政府與企業(yè)發(fā)揮關鍵治理作用外,社會也同樣是核心治理主體,以下從四個方面探討社會層面的治理路徑。

        一是設立公眾教育與參與機制。新興技術的使用不應局限于少數(shù)群體,更需要全民參與,確保技術成果的共享性和普惠性。為增強公眾的法律素養(yǎng),社會應組織法律知識專題講座與研討會,聚焦生成式人工智能相關法律法規(guī)(如數(shù)據(jù)保護法、版權法等),幫助公眾理解相關法律條文,并依法維權。與此同時,為確保技術開發(fā)符合高標準和高質(zhì)量要求,社會必須培養(yǎng)專業(yè)模型訓練師,開展系統(tǒng)性的價值觀教育與專業(yè)技能培訓,從根本上保障技術的可信性。

        二是專注于文化與價值觀的塑造。技術發(fā)展的最終目的是提升人類福祉、推動社會和諧發(fā)展。生成式人工智能技術廣泛應用的同時產(chǎn)生大量內(nèi)容,其中夾雜的價值觀偏差、輿論導向等問題嚴重威脅著主流文化的健康發(fā)展。社會力量應積極研究并制定正確的人工智能文化與價值觀導向原則,在初始訓練階段即注入正確的文化和價值觀語料,確保其在內(nèi)容生成中恪守社會主流價值觀,避免出現(xiàn)偏見或歧視。同時,應定期對生成內(nèi)容進行有效監(jiān)控與評估,保證其符合社會期望和倫理規(guī)范,并及時調(diào)整相關算法和訓練策略,以維護技術發(fā)展的社會價值底線。

        三是強化市場與社會責任。這一舉措將通過四方面實現(xiàn):完善生成式人工智能產(chǎn)品交易市場、明確用戶行為規(guī)范、建立生成式人工智能行業(yè)協(xié)會以及設定生成式人工智能系統(tǒng)認證標準。第一,加強生成式人工智能產(chǎn)品交易市場的建設,確立一個公平、公正、透明的市場競爭環(huán)境,為高質(zhì)量產(chǎn)品和服務的出現(xiàn)奠定基礎;第二,社會組織向公眾普及應用生成式人工智能的行為規(guī)范,促使用戶更加負責任地使用技術;第三,推動成立專門的生成式人工智能行業(yè)協(xié)會或聯(lián)盟,制定行業(yè)自律規(guī)范,鼓勵企業(yè)之間進行交流與合作,共同提高行業(yè)標準;第四,制定并實施生成式人工智能系統(tǒng)認證標準,構建認證體系,對達標的產(chǎn)品和服務進行認證并發(fā)放證書,為消費者提供可靠的決策參考。

        四是促進社會組織協(xié)同增效,調(diào)動各界力量共同應對生成式人工智能風險,營造和諧穩(wěn)定的社會環(huán)境。細梳社會組織參與生成式人工智能風險治理的職能(見圖3)可以發(fā)現(xiàn),高校等研究團隊發(fā)揮其學術影響力,積極研究相關風險并提出防范策略,舉辦學術交流活動,助力社會各界更好地理解和應對生成式人工智能帶來的機遇與挑戰(zhàn);慈善基金會和互聯(lián)網(wǎng)發(fā)展基金會等機構聯(lián)合成立生成式人工智能社會基金會,提供資源和資金支持。大學生志愿者和社會服務團隊也應積極投身相關工作,依托基層力量開展風險預防和監(jiān)控,提升社會的自我保護能力。

        3" "生成式人工智能的治理框架構建

        在探討生成式人工智能的全生命周期管理時,阿里巴巴人工智能治理研究中心將其細分為:模型訓練、服務發(fā)布、內(nèi)容生成以及內(nèi)容傳播四個階段。本文基于這一全生命周期視角,結合前文所述生成式人工智能在整個生命周期中的風險表現(xiàn),依托技術與主體雙重治理要素,構建了一個以技術為基礎、政府引領、企業(yè)與社會共同參與的生成式人工智能協(xié)同治理框架(見圖4)。其中,G、S、F分別代表政府、社會、企業(yè)三方,G1、S1、F1分別表示三方的一級治理職能,G11、S11、F11分別表示三方的二級治理職能(具體各階段風險與治理職能見表2)。

        強大的數(shù)據(jù)、算力、算法是研發(fā)生成式人工智能的核心技術,貫穿于生成式人工智能研發(fā)和運用的整個生命流程,對應誘發(fā)風險的技術邏輯為“來源于數(shù)據(jù)”“加劇于算法”“溢出于模型”[34]。鑒于此,治理主體應當以技術為核心基礎,致力于數(shù)據(jù)與算力、算法的全鏈條、全覆蓋治理,確保底層技術創(chuàng)新研發(fā)中融入可信賴的價值觀,并保障倫理要求在生成式人工智能全生命周期中得到內(nèi)化。首先,在數(shù)據(jù)層面,著重強調(diào)實施數(shù)據(jù)質(zhì)量評估與清洗的重要性,并采用加密與匿名化技術以保障數(shù)據(jù)安全。針對語料庫數(shù)據(jù)管理,確立具體的管理指標和操作規(guī)則以控制訓練數(shù)據(jù)的質(zhì)量;引入數(shù)據(jù)加密、密鑰管理和訪問控制等核心技術,以有效降低數(shù)據(jù)泄露、篡改和破壞的風險。其次,在算力層面,致力于建立算力資源管理系統(tǒng)、增強算力基礎設施的安全性、推動綠色能源在算力資源中的應用,以確保資源的穩(wěn)定可靠,提升資源管理效率,促進可持續(xù)發(fā)展。最后,在算法層面,主要是增強算法透明度和可解釋性,并進行公平性審計。相關方通過詳細記錄算法編輯痕跡(包括算法變量、決策基本規(guī)則和因素權重、算法運行邏輯等)以提升算法透明度與可解釋性;創(chuàng)建專用于審計算法公平性的數(shù)據(jù)集及評估指標,客觀公平地對算法進行評價;采用對抗訓練、數(shù)據(jù)增強和模型正則化等技術,增強模型抵御干擾和攻擊的能力。

        3.1" " 模型訓練階段

        模型訓練階段是確立模型性能與安全性的關鍵時期。然而,在訓練數(shù)據(jù)的收集、處理、分析以及算法的設計、執(zhí)行過程中,諸多因素可能導致數(shù)據(jù)偏倚、失真等問題;算法的不透明性與難解釋性亦引發(fā)了算法黑箱及算法反噬等現(xiàn)象;此外,訓練過程需要大量算力資源支持,由此產(chǎn)生了高能耗問題。針對該階段在數(shù)據(jù)安全、生成式算法、經(jīng)濟和法律方面的風險表現(xiàn),依據(jù)本文治理框架,主要治理路徑如下。

        首先,政府應發(fā)揮其立法主體作用,制定針對于該階段具體場景、特定風險的法規(guī),如模型合法性、訓練數(shù)據(jù)安全規(guī)范等專門規(guī)定。鑒于該階段涉及大量訓練數(shù)據(jù),政府可以實行“數(shù)據(jù)審查與清洗報告”制度,要求企業(yè)在開始訓練前向監(jiān)管部門提交詳細報告。此報告必須公開且接受獨立審查,內(nèi)容包括數(shù)據(jù)來源、清洗措施與偏見識別策略等,列明所有潛在的偏見風險(如性別、種族差異等),并提出緩解措施。

        其次,企業(yè)應當主動遵循政府引導,參照《辦法》要求來開展預訓練、優(yōu)化訓練等數(shù)據(jù)處理活動。為增強算法透明度,企業(yè)可以引入可解釋性增強模塊,如LIME或SHAP等可解釋性工具,實時生成模型訓練過程中的決策路徑報告,確保每個訓練步驟及決策過程均可清晰追溯與審查。此外,企業(yè)應當開發(fā)實時資源監(jiān)測工具,記錄和分析該階段的能源消耗與碳排放情況。如在云計算服務中,企業(yè)可以通過提供訓練所需的具體硬件消耗報告來優(yōu)化云計算資源調(diào)配,從而最大限度減少能源浪費和碳排放。

        最后,企業(yè)應基于社會反饋實時校準模型訓練過程。通過引入社會反饋模塊,不同社會群體可以通過專業(yè)平臺參與訓練階段的審查和反饋,企業(yè)據(jù)此動態(tài)調(diào)整訓練數(shù)據(jù)權重。如當模型輸出在某些文化或社會群體中存在偏見時,反饋模塊立即觸發(fā),企業(yè)回溯訓練數(shù)據(jù),找到潛在問題的來源,剔除或加權修正這些數(shù)據(jù),以保證模型的公平性與準確性。

        3.2" " 服務發(fā)布階段

        在服務發(fā)布階段,服務提供者需要選擇安全有效的模型作為基礎,以構建完整的算法服務體系。盡管此階段不涉及模型訓練或應用數(shù)據(jù),但它決定了模型的核驗機制、使用方式及調(diào)用工具集的選擇。因此,該階段可能會出現(xiàn)未經(jīng)充分核驗即部署模型、錯誤或不當調(diào)用工具集等問題,由此引發(fā)生成式人工智能自動化攻擊、惡意軟件創(chuàng)建、信息竊取等負面現(xiàn)象。

        首先,政府應強制要求服務提供商完成安全評估和合規(guī)性認證,對于未達標服務,有權禁止其發(fā)布或施加限制。同時,應基于模型特征(如開放性、易濫用性)實施動態(tài)監(jiān)管策略。生成式人工智能服務發(fā)布時必須附上“反濫用聲明”,并在后續(xù)出現(xiàn)惡意濫用行為時,依據(jù)《中華人民共和國網(wǎng)絡安全法》及《中華人民共和國數(shù)據(jù)安全法》追責與處罰。

        其次,企業(yè)需強化自律和技術保障,確保API接口標準化,并建立自動化安全漏洞掃描系統(tǒng)以進行綜合安全評估。通過應用最新技術自動識別并修復模型中的潛在漏洞、濫用及不當行為(如深度偽造),減少人為錯誤。此外,企業(yè)應在服務發(fā)布后部署實時監(jiān)控系統(tǒng),以監(jiān)測異常用戶行為(如惡意輸入或誘導生成內(nèi)容),并采取自動化響應措施(如凍結賬戶、警告用戶、刪除內(nèi)容等)防范風險。如當用戶輸入惡意指令或誘導性提示(如生成暴力、仇恨言論等)時,平臺自動彈出警告或限制使用相關功能。

        最后,政府戰(zhàn)略規(guī)劃應引領市場與社會組織強化責任擔當,完善生成式人工智能產(chǎn)品交易市場的建設,確保該市場不僅需要滿足常規(guī)商業(yè)需求,更需要注重服務的安全與合規(guī)性。為此,可引入第三方認證機構進行服務預發(fā)布審核,實施多層次審核流程,建立定期復審機制,確保服務持續(xù)符合最新的安全與合規(guī)要求。

        3.3" " 內(nèi)容生成階段

        在內(nèi)容生成階段,生成內(nèi)容是用戶與模型交互的產(chǎn)物。用戶的使用意圖及其是否主觀輸入惡意信息或誘導行為,在很大程度上決定了模型輸出內(nèi)容的安全性。因此,在具體實踐中,內(nèi)容生成階段的風險主要源自兩方面:一是用戶的惡意輸入和誘導,二是訓練數(shù)據(jù)與算法模型本身存在的錯誤價值導向。

        首先,針對來源于用戶惡意輸入和誘導造成的風險,一方面,按照《辦法》要求,明確網(wǎng)絡信息內(nèi)容生產(chǎn)者要依法承擔相應的法律責任,以此法律框架約束用戶不當行為;另一方面,企業(yè)可構建基于深度學習的輸入檢測模型,實時識別用戶輸入中的惡意意圖,并提供引導性反饋,提示用戶重新審視輸入內(nèi)容,避免生成有害內(nèi)容。此外,企業(yè)應建立動態(tài)內(nèi)容生成倫理決策引擎,在內(nèi)容生成過程中動態(tài)接入國家法規(guī)更新、社會道德標準、行業(yè)倫理規(guī)范等信息源,保證生成內(nèi)容符合最新社會倫理要求。企業(yè)還可以實施審查與標簽化機制,對每條生成內(nèi)容進行實時安全評分,根據(jù)評分結果標注“風險標簽”,采取相應措施。如在內(nèi)容生成之前,系統(tǒng)從倫理性、合法性、社會影響等多維度對內(nèi)容進行評分,若評分低于安全閾值,則自動標記為高風險等級并啟動人工審查流程,確保內(nèi)容符合發(fā)布標準。

        其次,針對由于訓練數(shù)據(jù)和算法模型本身錯誤價值觀念引起的風險,治理工作要重點關注工具采用的算法模型、訓練數(shù)據(jù)的來源。為從源頭遏制風險,回溯至初始訓練階段,企業(yè)與社會組織應積極培育專業(yè)模型訓練師,開展系統(tǒng)性的價值觀教育與技能培訓,確保其能在訓練階段及時剔除不符合主流價值觀的訓練素材,保證生成恪守社會主流價值觀的內(nèi)容,避免出現(xiàn)偏見或歧視。

        3.4" " 內(nèi)容傳播階段

        內(nèi)容傳播階段是信息擴散的關鍵環(huán)節(jié)。在此階段,生成內(nèi)容通過算法推薦和信息流動迅速傳播,尤其在社交媒體等平臺上,算法對內(nèi)容的篩選和推送可能導致過濾氣泡現(xiàn)象,限制用戶接觸多元信息。同時,由于用戶獲取信息能力存在差異,數(shù)字鴻溝問題日益加劇,部分群體可能無法有效辨別生成內(nèi)容的可信度,從而加劇信息不平等。此外,虛假信息和深度偽造內(nèi)容在社交平臺上傳播速度極快,可能誤導社會輿論,甚至引發(fā)政治、經(jīng)濟等領域的危機。

        首先,針對以意識形態(tài)撕裂為代表的意識形態(tài)風險,政府應發(fā)揮頂層設計的指導作用,從維護國家意識形態(tài)安全出發(fā),明確界定意識形態(tài)風險的邊界與管理原則,確保各方參與者有章可循。同時,企業(yè)和社會應開展廣泛的意識形態(tài)教育活動,利用學校、社區(qū)、媒體等多渠道普及正確的價值觀與社會倫理觀念。

        其次,針對知識產(chǎn)權侵犯、生成式人工智能責任歸屬等法律風險,政府應規(guī)定生成內(nèi)容具備可追溯性,要求企業(yè)為每條生成內(nèi)容創(chuàng)建“數(shù)字指紋”,記錄內(nèi)容從輸入到生成再到修改的全過程。企業(yè)則可以利用區(qū)塊鏈等去中心化技術構建分布式內(nèi)容溯源系統(tǒng),確保用戶能夠追蹤生成內(nèi)容的歷史記錄和修改軌跡,明確責任歸屬。此外,社會組織應當與企業(yè)建立智能合約機制,對違規(guī)行為自動觸發(fā)追責流程,強化責任落實和技術保障。

        最后,針對以虛假信息和不良信息傳播等為代表的信息傳播風險,政府可以推動企業(yè)與社會建立多層級輿情反饋和引導機制。當生成內(nèi)容引發(fā)公眾熱議時,平臺通過實時輿情分析系統(tǒng)匯總用戶的點贊、評論等正負面反饋,及時識別爭議內(nèi)容并調(diào)整傳播策略,避免進一步擴散誤導性信息。同時,根據(jù)《深度合成管理規(guī)定》《生成式人工智能服務內(nèi)容標識方法》的規(guī)定履行內(nèi)容標識義務,具體措施包括在生成內(nèi)容的顯著位置加注“生成內(nèi)容”或“人工智能生成”等字樣,以確保信息透明化,保障用戶知情權和選擇權;或采用隱形標識技術,通過時空域水印或變換域水印的方式實現(xiàn)標識信息[35]。在未公開顯示的情況下,隱形標識應當提供給監(jiān)管部門或相關方,以便在內(nèi)容審核和監(jiān)管過程中進行有效追蹤。

        4" "案例討論

        本章應用全生命周期視角下的生成式人工智能治理框架對兩個典型案例進行討論。案例一探討生成式人工智能如何被用于制造和傳播虛假信息,分析技術要素在風險治理中的作用;案例二則重點探討意大利對ChatGPT的監(jiān)管案例,從政府、企業(yè)和社會主體要素出發(fā),討論國家在生成式人工智能監(jiān)管中的挑戰(zhàn)與解決方案。兩者均從全生命周期的不同階段揭示了生成式人工智能的治理難點,提供了實踐中應對風險和實施有效監(jiān)管的經(jīng)驗及啟示。

        4.1" " 案例一:生成式人工智能的虛假信息傳播案例

        2023年4月,甘肅省平?jīng)鍪泄簿殖晒善埔黄鹄蒙墒饺斯ぶ悄軅鞑ヌ摷傩侣劦陌讣?。嫌疑人洪某弟利用ChatGPT等工具批量生成虛假新聞內(nèi)容,以牟取非法流量返利,其中發(fā)布關于“甘肅火車事故致9人死亡”的虛假報道,點擊量達到1.5萬次,嚴重擾亂了公眾認知和社會秩序[36]。

        (1)技術要素:海量數(shù)據(jù)、龐大算力與算法模型

        海量數(shù)據(jù)在虛假信息的生成中扮演了關鍵角色。洪某弟借助“易撰”工具搜集社會熱點新聞作為訓練數(shù)據(jù),再結合ChatGPT生成具有高社會關注度的虛假新聞。由于數(shù)據(jù)未經(jīng)驗證,且缺乏真實性和質(zhì)量評估,虛假信息迅速傳播并吸引公眾注意。這種缺乏有效篩查的數(shù)據(jù)處理方式不僅放大了虛假信息的影響,還揭示了現(xiàn)有治理框架在防范數(shù)據(jù)失真方面存在的不足,凸顯了數(shù)據(jù)質(zhì)量控制在防止虛假信息擴散中的重要性。因此,有必要建立嚴格的數(shù)據(jù)質(zhì)量控制體系,包括評估和清洗不實數(shù)據(jù),同時采取措施保護數(shù)據(jù)隱私,如應用加密和匿名化等技術。

        在龐大算力的支持下,生成式人工智能顯著提升了內(nèi)容生產(chǎn)的效率和規(guī)模,使洪某弟能在短時間內(nèi)生成大規(guī)模虛假新聞并發(fā)布,加速了虛假信息的蔓延。因此,相關方必須優(yōu)化算力資源的分配,提升基礎設施的安全性與穩(wěn)定性,確保技術在推動效率的同時能夠保障信息安全。

        隨著算法模型不斷迭代,生成內(nèi)容在邏輯性與語言流暢度上已達到較高水準,極大增加了辨別信息真?zhèn)蔚碾y度。洪某弟利用該特點生成的虛假新聞不易從形式上辨別真假,具有極強的誤導性,容易使公眾放松警惕。為減少此類誤導性輸出,算法應定期進行公平性審計和對抗性訓練,同時提高穩(wěn)健性。

        (2)服務發(fā)布階段:合規(guī)性審查與透明化管理不足

        本案例中,生成式人工智能工具被濫用于制作虛假新聞,暴露了服務發(fā)布階段合規(guī)性審查與透明化管理的不足。首先,該工具發(fā)布前未對模型功能的合法性及濫用風險進行全面評估,使洪某弟能夠利用其生成誤導性信息。其次,平臺未能為用戶行為制定明確規(guī)范,使得洪某弟這種濫用行為未受到有效約束。因此,服務發(fā)布階段需要強化內(nèi)容合法性審查,并建立明確的透明化管理機制。

        (3)內(nèi)容生成階段:真實性審核與價值引導的失衡

        虛假新聞的生成過程反映了內(nèi)容生成階段對真實性審核與價值引導的失衡。案例中生成式人工智能工具未配備有效的內(nèi)容審核機制,因此當洪某弟生成表面上看似真實、但實際上帶有誤導性的虛假新聞時,相關方未能從其源頭及時遏制。同時,工具也未對生成內(nèi)容的價值導向進行評估,洪某弟為吸引流量編造的事故新聞帶有恐嚇性質(zhì),煽動公眾情緒,易激起社會恐慌,從而加劇其對社會的負面影響。因此,內(nèi)容生成階段需要注重真實性的自動化審核,同時通過價值評估確保內(nèi)容的社會正向引導。

        (4)內(nèi)容傳播階段:動態(tài)監(jiān)管與用戶反饋機制不足

        “甘肅火車事故致9人死亡”新聞短時間內(nèi)點擊量達到1.5萬次,表明內(nèi)容傳播階段中動態(tài)監(jiān)管和反饋機制嚴重失靈。一方面,平臺未能對內(nèi)容實時監(jiān)控,無法及時發(fā)現(xiàn)并封禁虛假信息,反映出現(xiàn)有治理對生成式人工智能內(nèi)容的動態(tài)監(jiān)控能力不足;另一方面,發(fā)布平臺的審核機制未能對生成內(nèi)容進行透明化標識,導致公眾難辨真?zhèn)?。同時,平臺缺乏完善的用戶反饋機制,部分用戶已判斷出新聞的虛假性,但可能由于平臺限制而無法及時反饋,或者用戶已及時反饋但平臺響應速度緩慢,進而助長虛假新聞的傳播。為此,該階段需要引入動態(tài)監(jiān)管機制,完善用戶反饋的閉環(huán)管理,阻止虛假內(nèi)容的大范圍傳播。

        4.2" " 案例二:生成式人工智能的國家監(jiān)管案例

        2023年3月,因涉及隱私保護和《通用數(shù)據(jù)保護條例》(GDPR)合規(guī)問題,意大利數(shù)據(jù)保護機構對ChatGPT開展調(diào)查,并要求OpenAI必須在20天內(nèi)提交針對違規(guī)行為的整改措施。該事件成為全球首例生成式人工智能監(jiān)管干預案例,引發(fā)了其他歐洲國家數(shù)據(jù)保護機構的廣泛關注與討論。最終,OpenAI承諾整改后恢復服務,改進數(shù)據(jù)收集和隱私保護機制,并加強透明度和合法性[37]。

        (1)主體要素:政府、企業(yè)、社會的角色與責任

        意大利政府作為公共權力承載體,在生成式人工智能治理中發(fā)揮重要的引領作用。在發(fā)現(xiàn)ChatGPT涉嫌違反數(shù)據(jù)收集相關法規(guī)時,意大利數(shù)據(jù)保護局迅速采取臨時限制、全面禁用、違規(guī)調(diào)查、限期整改、解禁等系列措施,積極督促OpenAI確保其在數(shù)據(jù)隱私方面的合規(guī)性。該舉措不僅體現(xiàn)了政府對人工智能技術的規(guī)范能力與執(zhí)行力度,也向全球傳遞出明確信號:生成式人工智能的發(fā)展必須遵循透明、公正和合法的路徑,確保公眾隱私和數(shù)據(jù)安全。

        在政府的監(jiān)管下,OpenAI迅速響應,在3月31日全面禁用ChatGPT后立即啟動內(nèi)部審查,并于4月6日與意大利數(shù)據(jù)保護機構舉行高層會議,提交整改承諾。最終,4月28日,OpenAI向意大利數(shù)據(jù)保護局提交了詳細的改進計劃,涵蓋增強數(shù)據(jù)透明度、強化用戶權利保護以及提供便捷的數(shù)據(jù)權利行使機制。這些行動不僅展示了企業(yè)在生成式人工智能治理中的關鍵支撐作用,也通過建立健全的安全評估與反饋機制確保了技術應用的安全性和可靠性,還樹立了“科技向善”的企業(yè)文化形象、提升了用戶信任。

        此外,該案件還引發(fā)了社會對生成式人工智能隱私保護的高度關注。社會輿論和媒體監(jiān)督發(fā)揮了積極作用,促使政府和企業(yè)更加重視技術的社會影響。如德國BfDI、法國CNIL、西班牙AEPD等歐洲多國數(shù)據(jù)保護機構都明確表達了對生成式人工智能的關注和立場,表示可能進行跟進或采取措施。這種由政府引領、企業(yè)和社會共同參與的模式,為生成式人工智能技術的健康發(fā)展奠定了堅實基礎,也為其他國家和地區(qū)提供了可借鑒的治理經(jīng)驗。

        (2)模型訓練階段:強化數(shù)據(jù)保護與隱私合規(guī)性

        在模型訓練階段,意大利政府要求OpenAI嚴格遵守數(shù)據(jù)保護規(guī)范,確保不會在訓練過程中濫用個人數(shù)據(jù)。具體而言,OpenAI必須保證所使用的數(shù)據(jù)經(jīng)過用戶明確授權,且所有數(shù)據(jù)處理和存儲活動完全符合GDPR的相關要求。此外,政府還要求OpenAI建立健全的數(shù)據(jù)治理機制,嚴格限制數(shù)據(jù)的使用范圍,避免因數(shù)據(jù)濫用而引發(fā)潛在風險。依托本文治理框架,政府通過要求企業(yè)強化模型訓練階段的數(shù)據(jù)合規(guī)管理,有效保障了用戶隱私權及數(shù)據(jù)安全。

        (3)服務發(fā)布階段:落實隱私政策與合規(guī)性審查

        在服務發(fā)布階段,意大利政府實施了嚴格的合規(guī)性審查,審查結果顯示OpenAI在服務初期未能完全滿足GDPR的規(guī)定,由此引發(fā)了監(jiān)管干預。對此,意大利政府明確要求OpenAI提高隱私政策的透明度,詳細闡明數(shù)據(jù)處理方式,并且加強建設法律合規(guī)機制,確保數(shù)據(jù)使用過程的合法性及安全性。該舉措也再次說明,生成式人工智能服務在發(fā)布時必須嚴格遵守隱私保護政策,且需要通過全面的合規(guī)性審查,為技術規(guī)范化發(fā)展提供有力保障。

        5" "結語

        當前,生成式人工智能的深度偽造技術為用戶提供了信息獲取的新視角,但其真實性與合法性給監(jiān)管帶來了極大的挑戰(zhàn)。因此,加強生成式人工智能治理愈發(fā)重要,其治理模式也需要不斷調(diào)整和優(yōu)化,以適應新的技術發(fā)展趨勢和社會需求,更好地服務于人類社會,推動社會進步和經(jīng)濟發(fā)展。

        本文從全生命周期視角出發(fā),分析了生成式人工智能的潛在風險,針對各階段的特點及風險表現(xiàn),構建了一個以技術為基礎、政府為引導力量、企業(yè)與社會共同參與的協(xié)同治理框架。該框架涵蓋了數(shù)據(jù)資源、算力資源、算法模型等技術治理要素,以及政府、企業(yè)、社會等主體治理要素。依據(jù)理論框架深入討論生成式人工智能的虛假信息傳播案例和國家監(jiān)管案例,展示該框架的可行性和必要性,旨在為生成式人工智能的健康發(fā)展提供理論支撐和實踐參考。

        參考文獻:

        [1]" 蒲清平,向往.生成式人工智能——ChatGPT的變革影響、風險挑戰(zhàn)及應對策略[J].重慶大學學報(社會科學版),2023,29(3):102-114.

        [2]" 王芳,朱學坤,劉清民,等.生成式人工智能研究進展[J].圖書與情報,2024(4):45-64.

        [3]" 國家網(wǎng)信辦,國家發(fā)展改革委,教育部,科技部,工信部,公安部,廣電總局.生成式人工智能服務管理暫行辦法[EB/OL].[2024-08-26].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.

        [4]" 全國網(wǎng)絡安全標準化技術委員會.生成式人工智能服務安全基本要求[EB/OL].[2024-09-26].https://www.tc260.org.cn/upload/2024-03-01/1709282398070082466.pdf.

        [5]" 張峰,江為強,邱勤,等.人工智能安全風險分析及應對策略[J].中國信息安全,2023(5):44-47.

        [6]" 李月泉,劉娟.生成式人工智能的著作權問題及其保護對策[J].傳播與版權,2024(12):107-110.

        [7]" 王延川,趙靖.生成式人工智能誘發(fā)意識形態(tài)風險的邏輯機理及其應對策略[J].河南師范大學學報(哲學社會科學版),2023,50(4):1-7.

        [8]" 盧安文.生成式人工智能:風險、監(jiān)管與治理模式探究[J/OL].重慶郵電大學學報(社會科學版),1-15[2024-09-29].http://kns.cnki.net/kcms/detail/50.1180.C.20240628.0838.004.html.

        [9]" 馬治國,張楠.通用人工智能的數(shù)據(jù)風險及法治應對路徑[J].北京工業(yè)大學學報(社會科學版),2024,24(5):131-142.

        [10]" 曹賢平.人工智能文生視頻大模型Sora對科技倫理的沖擊及應對[J].新疆師范大學學報(哲學社會科學版),2025,46(1):142-148.

        [11]" 向繼友,吳學琴.ChatGPT類生成式人工智能的意識形態(tài)風險及其防控策略[J].江漢論壇,2023(12):53-59.

        [12]" 方興東,鐘祥銘.谷登堡時刻:Sora背后信息傳播的范式轉變與變革邏輯[J].現(xiàn)代出版,2024(3):1-15.

        [13]" GUPTA M,AKIRI C,ARYAL K,et al.From ChatGPT to ThreatGPT:Impact of Generative AI in Cybersecurity and Privacy[J].IEEE Access,2023,11:80218-80245.

        [14]" CHUGH H.Cybersecurity in the Age of Generative AI:Usable Security amp; Statistical Analysis of ThreatGPT[J].International Journal for Research in Applied Science and Engineering Technology,2024,12(1):1-9.

        [15]" 李穎.生成式人工智能ChatGPT的數(shù)字經(jīng)濟風險及應對路徑[J].江淮論壇,2023(2):74-80.

        [16]" 胡楓,張超.生成式人工智能的理論審視、風險揭示及治理路徑——以ChatGPT為視角[J/OL].南京郵電大學學報(社會科學版),1-11[2024-09-26].https://doi.org/10.14132/j.cnki.nysk.20240625.001.

        [17]" 嚴馳.生成式人工智能大模型全球治理的理論證成與初步構想[J].中國科技論壇,2024(5):140-148.

        [18]" 徐昕.數(shù)字技術資本主義應用的意識形態(tài)批判[J].中國地質(zhì)大學學報(社會科學版),2024,24(3):10-19.

        [19]" 尤凱,王雪,李新紅.生成式人工智能對學術期刊的影響與建議:以ChatGPT為例[J].出版廣角,2024(6):77-80.

        [20]" 劉瑋.ChatGPT類生成式人工智能嵌入數(shù)字政府建設:可供、限制與優(yōu)化——基于技術可供性視角[J].情報理論與實踐,2023,46(10):69-76.

        [21]" 周毅,郭朗睿.公共數(shù)據(jù)開放中隱性數(shù)據(jù)安全風險治理機制的構建及其實現(xiàn)[J].情報理論與實踐,2024,47(12):63-71.

        [22]" 徐偉,韋紅梅.生成式人工智能訓練數(shù)據(jù)風險治理:歐盟經(jīng)驗及其啟示[J/OL].現(xiàn)代情報,1-15[2024-10-06].http://kns.cnki.net/kcms/detail/22.1182.G3.20241121.1509.002.html.

        [23]" 滕海波.對以ChatGPT為代表的生成式人工智能規(guī)制的思考[J].互聯(lián)網(wǎng)天地,2023(6):38-44.

        [24]" 李川.生成式人工智能場域下個人信息規(guī)范保護的模式與路徑[J].江西社會科學,2024,44(8):68-80.

        [25]" 朱蘭蘭,高玉婷,霍婕.AIGC視域下科學數(shù)據(jù)開放共享風險及對策——基于WSR理論分析框架[J].檔案管理,2024(4):18-21.

        [26]" 李沖,李霞.人工智能風險的試探性治理:概念框架與案例解析[J].中國軟科學,2024(4):91-101.

        [27]" 張海,段薈,王東波.信息資源管理領域生成式人工智能:研究現(xiàn)狀、研究主題及研究展望[J].情報雜志,2024,43(10):150-156.

        [28]" 姚建軍,崔宇航.從解構到建構:ChatGPT意識形態(tài)性的生成機理及應對策略[J].中共天津市委黨校學報,2023,25(6):53-62.

        [29]" BRUNO A,MAZZEO P L,CHETOUANI A,et al.Insights into Classifying and Mitigating LLMs' Hallucinations[J].arXiv preprint arXiv,2023:2311.08117.

        [30]" 郭海玲,衛(wèi)金金,劉仲山.生成式人工智能虛假信息協(xié)同共治研究[J].情報雜志,2024,43(9):121-129,165.

        [31]" 阿里巴巴人工智能治理與可持續(xù)發(fā)展研究中心.生成式人工智能治理與實踐白皮書[EB/OL].[2024-10-08].https://s.alibaba.com/cn/aaigWhitePaperDetails.

        [32]" 吳沈括.專家解讀|構建面向AI時代的數(shù)據(jù)治理新生態(tài)[EB/OL].[2024-10-06].https://www.cac.gov.cn/2023-08/29/c_1694965943882536.htm.

        [33]" 東方財富網(wǎng).生成式AI發(fā)展與監(jiān)管白皮書⑤:發(fā)展治理“雙輪驅(qū)動” “世界之問”下的中國方案[EB/OL].[2024-10-26].https://finance.eastmoney.com/a/202307262792469765.html.

        [34]" 王干一.ChatGPT等生成式人工智能誘發(fā)意識形態(tài)風險的機制、邏輯與治理[J].成都行政學院學報,2024(3):94-105.

        [35]" 李濤.文生視頻類人工智能在圖書領域的應用場景及有效治理[J].圖書與情報,2024(4):101-110.

        [36]" 澎湃新聞.甘肅首例AI虛假信息案,男子用ChatGPT編假新聞牟利[EB/OL].[2024-10-04].https://www.thepaper.cn/newsDetail_forward_22999940.

        [37]" 安全內(nèi)參.AIGC研發(fā)及應用數(shù)據(jù)隱私合規(guī)義務識別:以意大利監(jiān)管ChatGPT為切入點[EB/OL].[2024-10-04].https://www.secrss.com/articles/54726.

        作者簡介:黃煒(1979-),男,湖北工業(yè)大學經(jīng)濟與管理學院教授,博士生導師,武漢晴川學院商學院特聘教授,湖北數(shù)字工業(yè)經(jīng)濟發(fā)展研究中心研究員,研究方向:網(wǎng)絡信息智能處理;張玉瀅(2002-),女,湖北工業(yè)大學經(jīng)濟與管理學院碩士研究生,研究方向:人工智能;劉勇(2005-),男,湖北工業(yè)大學經(jīng)濟與管理學院本科生,研究方向:科技政策;張瑞(1992-),女,湖北工業(yè)大學經(jīng)濟與管理學院講師,研究方向:知識流動。

        猜你喜歡
        生成式人工智能全生命周期
        生成式人工智能的教育啟示:讓每個人成為他自己
        挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會議綜述
        生成式人工智能時代的政治傳播走向
        黨政研究(2023年3期)2023-05-29 01:10:39
        生成式人工智能重塑教育及教師應對之道
        人機共生時代國際傳播的理念升維與自主敘事體系構建
        對外傳播(2023年4期)2023-05-21 20:52:16
        生成式人工智能的教育應用與展望
        全生命周期視角下基礎設施類PPP項目利益相關者分析
        天然氣管道建設項目全生命周期風險管理研究
        綠色建材全生命周期的研究與落實方法
        科技視界(2016年18期)2016-11-03 23:54:06
        范式轉換視角下建筑工程全生命周期的工程造價管理研究
        免费av网址一区二区| 色综合中文综合网| 免费的毛片视频| 18禁黄无遮挡免费网站| 日本人妻97中文字幕| 人妻精品久久久久中文字幕69| 妓院一钑片免看黄大片| 久久99精品久久久66| 久久亚洲国产高清av一级| 久久久99精品成人片| 日韩人妻无码免费视频一区二区三区 | 人妻一区二区三区在线看| 国模吧无码一区二区三区| 俺来也俺去啦久久综合网| 国内精品91久久久久| 国产精品又湿又黄九九九久久嫩草 | 午夜一区欧美二区高清三区| 国产av一区二区三区区别| 日本免费精品一区二区三区视频| 日本精品久久久久中文字幕| 亚洲色欲色欲www在线播放| 99久久这里只精品国产免费| 日韩人妖干女同二区三区| 日日躁夜夜躁狠狠躁| 国产午夜影视大全免费观看| 日本一区二区三区啪啪| 在线天堂av一区二区| 男女后进式猛烈xx00动态图片| 亚洲日韩专区在线视频| 亚洲人妻av在线播放| 精品亚洲成av人在线观看| 国产人妻久久精品二区三区| 精品国产91久久久久久久a| 中文字幕人妻互换av| 爆乳熟妇一区二区三区霸乳| 四虎精品免费永久在线| 91久久国产精品综合| 亚洲熟妇无码av在线播放 | 最近中文av字幕在线中文| 国产高跟丝袜在线诱惑| 水野优香中文字幕av网站|