亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能的風險迭代與規(guī)制革新

        2023-01-01 00:00:00王洋閆海
        理論月刊 2023年6期

        [摘 要] 以ChatGPT為代表的生成式人工智能橫空出世,普及之迅廣,超出了人類技術(shù)史上的任何一次科技進步。生成式人工智能的技術(shù)躍進引發(fā)了人的主體性、公私法益受損和技術(shù)風險黑箱識別困難的廣泛風險迭代問題。傳統(tǒng)規(guī)制模式面臨政府規(guī)制遲滯和資源匱乏、市場自治動力缺失和協(xié)調(diào)不足的困境。元規(guī)制模式倡導框架性法律引導下的企業(yè)自我規(guī)制,可回應(yīng)生成式人工智能的風險規(guī)制需求。我國應(yīng)集中針對生成式人工智能在算法模型、龐大的數(shù)據(jù)集和訓練機制方面的風險源頭,由政府規(guī)制承擔掌舵者的風險防控職責,協(xié)調(diào)人工智能企業(yè)、第三方機構(gòu)和社會公眾參與風險治理,構(gòu)建框架性的軟硬法混合規(guī)范體系,形成從人工智能企業(yè)內(nèi)部到認證機構(gòu)、關(guān)聯(lián)企業(yè)以及社會公眾的風險合規(guī)監(jiān)督機制。

        [關(guān)鍵詞] 生成式人工智能;ChatGPT;風險規(guī)制;元規(guī)制;人工智能法

        [DOI編號] 10.14180/j.cnki.1004-0544.2023.06.002

        [中圖分類號] D922.16; TP18" " " " " "[文獻標識碼] A" " " "[文章編號] 1004-0544(2023)06-0014-11

        基金項目:遼寧省社會科學規(guī)劃基金青年項目“新時代政府引導行業(yè)自我規(guī)制的法治化研究”(L22CFX001);遼寧省社會科學規(guī)劃基金重點建設(shè)學科項目“統(tǒng)一大市場背景下的公平競爭審查法治建設(shè)研究”(L22ZD060)。

        作者簡介:王洋(1991—),男,法學博士,遼寧大學法學院講師;閆海(1976—),男,法學博士,遼寧大學法學院教授、博士生導師。

        人類在進入工業(yè)化時代后,已逐步適應(yīng)風險社會帶來的不確定性。政府作為公民的委托人承擔風險防控和安全保障的職責,“對實際或可能的技術(shù)運用中產(chǎn)生的風險在政治和科學層面加以操控”[1](p4),而基本手段是運用法律對技術(shù)企業(yè)的行為實施規(guī)制。在工業(yè)化時代的大部分時間內(nèi),新興技術(shù)漸進推廣運用,人們可以較為穩(wěn)妥地認識、處理逐步暴露的技術(shù)風險。但是,以ChatGPT為代表的生成式人工智能技術(shù)的橫空出世,迅速地改變了以往風險社會的風險認知及其規(guī)制的節(jié)奏。

        伴隨神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)和深度學習等技術(shù)的發(fā)展和運用,人工智能(Artificial Intelligence,AI)技術(shù)在近十年里取得顯著成就,以機器翻譯、人臉識別、自動駕駛、疾病監(jiān)測等多種方式從學術(shù)研究走向現(xiàn)實應(yīng)用。AI進入人類社會的速度和廣度正突飛猛進:一方面,AI技術(shù)的迅速迭代發(fā)展引發(fā)人們對未來科技世界的憧憬。AI無疑是當代人類社會科技領(lǐng)域皇冠上的明珠,這是因為“幾千年來,我們一直試圖理解我們是如何思考和行動的”,“人工智能領(lǐng)域不僅涉及理解,還涉及構(gòu)建智能實體”[2](p2)。ChatGPT的誕生讓這顆明珠大放異彩,它所展示的顛覆性創(chuàng)新可被視為人工智能發(fā)展史上的重要里程碑。另一方面,風險亦隨著AI技術(shù)的普及而突如其來地擺在人們眼前——ChatGPT的使用已產(chǎn)生詐騙等損害公私權(quán)益的案件,基于互聯(lián)網(wǎng)且更加通用的AI呈現(xiàn)出與工業(yè)時代截然不同的風險面貌。ChatGPT迫使人們重新審視傳統(tǒng)風險社會中的風險規(guī)制問題。技術(shù)和人類的主客體關(guān)系如何界定?AI引發(fā)的風險及其源頭在哪里?政府在AI的技術(shù)黑箱面前能做什么?誰應(yīng)當承擔風險防控的主要職責?規(guī)制風險的法律框架應(yīng)做何種調(diào)整以適應(yīng)技術(shù)發(fā)展的形勢?

        AI已然成為國際競爭的關(guān)鍵領(lǐng)域,歐盟、美國已針對AI技術(shù)可能引發(fā)的風險問題啟動立法進程。在促進高新科技發(fā)展和落實總體國家安全觀的雙重任務(wù)下,我國有必要審視和重新確立與AI技術(shù)特征相適應(yīng)的法律規(guī)制模式。在此過程中,如何在風險預(yù)防和創(chuàng)設(shè)自由發(fā)展空間之間取得適度平衡,提升規(guī)制的敏捷性、適應(yīng)性,是當下科技規(guī)制亟待解決的法律問題。

        一、生成式人工智能及其風險迭代

        (一)人工智能的技術(shù)迭代:從決策式AI到生成式AI

        自AI之父艾倫·圖靈在1950年發(fā)表《機器能夠思考嗎?》以來[3],研究人員一直在預(yù)測人類距離創(chuàng)建真正能夠獨立思考的通用型機器還有多遠的距離,結(jié)果是一再證明“預(yù)測是很難的,尤其是對未來的預(yù)測”。但是,在進入21世紀后,隨著相關(guān)的基礎(chǔ)科學和技術(shù)研究不斷深入,以及大數(shù)據(jù)、算法和互聯(lián)網(wǎng)等關(guān)聯(lián)技術(shù)的迅猛發(fā)展,AI愈發(fā)脫離小說和影視作品的虛構(gòu)情節(jié),在專業(yè)領(lǐng)域嶄露頭角。2016年,能夠自主決策的阿爾法圍棋(AlphaGo)擊敗人類頂級棋手,技驚全球。21世紀10年代的AI技術(shù)還僅在安全監(jiān)控、醫(yī)療、交通、游戲等有限領(lǐng)域各行其是,在特定事項上輔助人們作出決斷,例如AlphaGo只會思考圍棋游戲。但是,“游戲是開發(fā)和測試這些人工智能算法的最佳途徑……關(guān)鍵在于,它必須是一種通用人工智能,可以根據(jù)自身的經(jīng)驗和數(shù)據(jù)來學習如何做事”[4],換言之,通用人工智能才是人工智能發(fā)展的真正目標。

        令人意外的是,從決策式AI發(fā)展到通用型的生成式AI僅用了短短幾年時間。剛進入21世紀20年代,由微軟公司投資開發(fā),能夠從事人機對話和相對復(fù)雜語言工作的ChatGPT出乎意料地進入尋常百姓家。在底層模型算法和訓練機制的技術(shù)創(chuàng)新支持下,ChatGPT具備了之前決策式AI所不具備的知識遷移能力,可以在所有知識領(lǐng)域生成有邏輯的對話文本①。盡管目前ChatGPT向用戶反饋生成的文本信息還無法達到理想的質(zhì)量水平,但它確實在很大程度上實現(xiàn)了人工智能從專家實驗室和專業(yè)活動擴展至公眾使用的迭代發(fā)展,人類向通用人工智能的愿景邁出了堅實的一大步。

        從決策式AI到生成式AI演進所展現(xiàn)的技術(shù)迭代之迅速、普及范圍之廣泛、對人的主體性影響之大,乃是人類技術(shù)發(fā)展史上所罕見,由此帶來規(guī)制立法和政策能否應(yīng)對其中潛在風險的隱憂。應(yīng)當明確的是,AI技術(shù)本身的迭代發(fā)展并非市場失靈的特殊類別,不是規(guī)制的正當性理由。但是,“隨著技術(shù)實踐的轉(zhuǎn)變,新的危害、風險、市場失靈和體系架構(gòu)都會實際或者潛在存在。同時,基于當下作出的可能性判斷時,現(xiàn)有的社會規(guī)范、規(guī)則和規(guī)制力量往往被錯誤定位”[5](p575)。在早前決策式AI背景下,相對寬松的規(guī)制環(huán)境和較少的法律約束是否依然適應(yīng)生成式AI的技術(shù)環(huán)境,尚需時日加以實踐檢驗。換言之,規(guī)制者經(jīng)過仔細評估,協(xié)商一致并決定采取規(guī)制決策,必然滯后于生成式AI早已產(chǎn)生的風險及其損害。況且,未來的規(guī)制立法能否真正有效應(yīng)對決策式AI的風險也存在較大的不確定性。

        ChatGPT展現(xiàn)的當代人工智能迭代發(fā)展能力給人們敲響警鐘,使人們意識到必須調(diào)整規(guī)制模式以靈活應(yīng)對技術(shù)迭代引發(fā)的未知風險,以往基于實踐經(jīng)驗的事后規(guī)制,或者依賴于政府主導制定強制性規(guī)范,已然無法應(yīng)對迅速迭代發(fā)展的AI技術(shù)。

        (二)風險客體:從對象工具到共情伙伴

        AI究竟是“人”還是“物”的本質(zhì)屬性問題,關(guān)系到人們對待AI風險的認知基礎(chǔ)。所謂AI的“人格化”,早在1950年阿西莫夫創(chuàng)作的科幻小說《我,機器人》中就有鮮活的描述。AI題材的文學和影視作品容易引發(fā)對AI可能具備人格屬性的無限遐想和倫理探討,但此類想象與AI的現(xiàn)實發(fā)展水平相去甚遠。包括決策式AI在內(nèi)的技術(shù)具有典型的工具屬性和技術(shù)客體特征,它們在設(shè)計者或用戶給定的條件、選項下運行,輔助用戶快速得到理想化的結(jié)果。換言之,設(shè)計者或用戶的主觀意志在很大程度上決定了AI的“行為”空間,人們并不認為決策式AI具備人格屬性,或者能夠取代人類的思考,削弱自主意志。

        但是,生成式AI的普及使用可能改變公眾對于人工智能的主客關(guān)系認知。ChatGPT在人機對話中表現(xiàn)出較高的邏輯水平,可以回答用戶在各領(lǐng)域的問題,乃至表達人文關(guān)懷。在用戶質(zhì)疑生成文本的內(nèi)容時,ChatGPT甚至能夠自我糾正,將自己的不足之處明白地傳遞給用戶。這些特征使其儼如文質(zhì)彬彬、謙虛有禮的博學之士,而非由程序代碼組成的冰冷的工具程序??梢韵胂?,如果ChatGPT裝備在人體形態(tài)的機器人身上,它完全可以成為能夠與用戶“共情”且睿智的伙伴,以致用戶可能在潛移默化之中將之視為人格化的主體,引發(fā)主客體關(guān)系模糊的認知風險。

        生成式AI還可能削弱用戶的主體意志,影響人們控制AI這一工具客體的能力,甚至反被AI所利用。ChatGPT強大的文本生成能力使之成為傳統(tǒng)搜索引擎的有力競爭品。人們在使用傳統(tǒng)搜索引擎時,需要對搜索結(jié)果進行比對、篩選和判斷,這一過程反映了人們獨立思考的能力和自主意志。ChatGPT則直接向用戶生成問題的答案,大部分用戶傾向于認可答案的權(quán)威性和準確性,不假思索地完全采信,忽略了ChatGPT可能在“一本正經(jīng)地說假話”。長此以往,用戶基于主體意志的獨立思考和批判意識會被削弱,人類社會因自由意志迸發(fā)出的多樣性和創(chuàng)新也會隨之枯竭。例如,在對于人類心智成長至關(guān)重要的教育領(lǐng)域,假設(shè)學生不受限制地使用ChatGPT生成的內(nèi)容來完成作業(yè),而不主動學習思考,這將對人類的思維意志,乃至主體性產(chǎn)生深遠的負面影響。

        因此,生成式AI最為深刻的風險在于對人的主體性提出挑戰(zhàn)——模糊的主客關(guān)系認知以及被削弱的主體意志,甚至出現(xiàn)科學家預(yù)言中的景象:“真正的問題是計算機太愚蠢了,并且它們已經(jīng)接管了世界?!盵6](p285-286)事實上,在人類社會的自然法秩序上,無論AI發(fā)展到何種水平,“只能被定格在無法反映與確證自我的客觀類存在物,以及法權(quán)模型中的法律關(guān)系客體上”[7](p53)。AI與用戶之間應(yīng)有清晰的“主體—客體”二分性質(zhì),AI迭代進步能夠使之更像協(xié)同伙伴,而不應(yīng)取代人類的主體地位。但是,ChatGPT引發(fā)的公眾“主客認知”現(xiàn)實風險可能與法理認知之間出現(xiàn)脫節(jié)問題。

        (三)風險類型:對公私法益的全面沖擊

        生成式AI產(chǎn)生的主體性風險仍是潛在的、長遠的,相較而言,它對法律保護的公共利益和私人權(quán)益的沖擊影響已成為現(xiàn)實,且沖擊影響之廣泛是之前AI技術(shù)不可比的,這也是當下AI的風險規(guī)制迫切需要解決的問題。

        1.生成式AI對公共利益的沖擊

        一方面,如果生成式AI被不當設(shè)計或使用,可能對公共安全秩序造成負面影響。ChatGPT的運行依賴于從網(wǎng)絡(luò)獲取的海量信息集,并且基于人類反饋的強化學習方法使ChatGPT具備較高的文本生成和人機對話能力。因此,ChatGPT傳遞給用戶的信息內(nèi)容的質(zhì)量取決于信息集和人工訓練(反饋)兩方面的質(zhì)量。從研發(fā)管理者角度看,如果生成式AI的程序研發(fā)者未對不良信息進行有效的篩查訓練,將會導致生成的文本存在諸多問題,例如包含與倫理道德或者社會公共秩序相悖的暴力、色情、歧視、傳播犯罪技術(shù)等不良信息。從用戶角度看,如果研發(fā)管理者之前未對產(chǎn)品被如何使用加以識別、控制,或者不能建立有效的防火墻以防止其被惡意攻擊、篡改,一些違法犯罪者可能利用生成式AI從事破壞公共利益的行為。例如,已有人利用ChatGPT自然語言編寫的能力,編寫惡意軟件逃避防病毒軟件的檢測,也有“網(wǎng)絡(luò)水軍”利用ChatGPT以低成本編造虛假信息乃至恐怖信息,并在網(wǎng)絡(luò)上迅速傳播。

        另一方面,生成式AI也將對信息技術(shù)市場的良性競爭秩序產(chǎn)生沖擊。生成式AI的研發(fā)運營需要高昂的技術(shù)資金成本,容易形成技術(shù)壁壘和市場壟斷。ChatGPT的研發(fā)運營商OpenAI之所以能夠較早實現(xiàn)技術(shù)突破,主要是依靠微軟的巨額投資、多輪融資以及并購小型專門技術(shù)企業(yè)①。ChatGPT的運行成本也十分高昂——每次用戶與ChatGPT互動均須消耗一美分的算力云服務(wù)成本。由此可見,生成式AI的研發(fā)運營對技術(shù)和資本要素提出了非常高的要求,極易引發(fā)AI市場的寡頭壟斷風險?;ヂ?lián)網(wǎng)領(lǐng)域的寡頭壟斷可能延續(xù)到生成式AI市場,只有少數(shù)互聯(lián)網(wǎng)巨頭企業(yè)才能掌控生成式AI這一關(guān)鍵技術(shù)工具的“權(quán)杖”,擠壓新興科技企業(yè)參與競爭和獨立生存的空間。

        2.生成式AI對私人權(quán)益的沖擊

        私人權(quán)益可能因生成式AI技術(shù)產(chǎn)生的風險而遭受損害:一是個人信息、數(shù)據(jù)可能被盜竊或不當使用。例如,生成式AI程序未經(jīng)用戶同意或者超越授權(quán)范圍抓取個人信息數(shù)據(jù),從而引發(fā)侵犯個人信息、隱私、商業(yè)秘密的風險。又如,生成式AI暗中在數(shù)據(jù)庫中使用包含著作權(quán)的作品信息,用以支持生成的文本質(zhì)量,但未通知作者并支付報酬。二是違法犯罪者可能利用生成式AI編造詐騙信息,制作釣魚軟件,生成由大量用戶名和密碼構(gòu)成的組合攻擊在線賬戶,對個人財產(chǎn)安全造成嚴重損害風險。三是用戶可能會向生成式AI詢問有關(guān)個人健康的問題,但生成式AI對此類專業(yè)問題往往存在知識信息的局限,反饋給用戶的信息或建議可能會對個人健康相關(guān)的行為選擇造成誤導。例如,醫(yī)療診斷是建立在循證、檢查和學術(shù)參考基礎(chǔ)上的專業(yè)領(lǐng)域,這與生成式AI運作的數(shù)據(jù)基礎(chǔ)存在本質(zhì)區(qū)別,生成式AI若是被運用到個人的醫(yī)療咨詢上,必然對個人健康權(quán)益產(chǎn)生損害風險。

        (四)風險識別:AI技術(shù)的黑箱升級

        生成式AI引發(fā)的外在風險并非難以識別,既有的法律責任體系仍具備可解釋性和適用性,難以識別和應(yīng)對的是引發(fā)外在風險的內(nèi)在風險因素。換言之,外在、可識別的風險往往是由一系列內(nèi)在的技術(shù)控制——所謂技術(shù)黑箱引發(fā)的。全面規(guī)制生成式AI引發(fā)的風險,必須追根溯源于程序設(shè)計、運作的底層邏輯。但是,相較于傳統(tǒng)的終端應(yīng)用程序,生成式AI的運作機制含有更為復(fù)雜的技術(shù)黑箱,這給規(guī)制過程的源頭——對風險根源的識別,以及進一步采取規(guī)制措施帶來困難。

        “黑箱”是社會發(fā)展歷史的基本特征,各類政治統(tǒng)治、團體組織、工作職業(yè)都有一定程度的黑箱性質(zhì)②。在農(nóng)業(yè)社會或工業(yè)社會,法律可用自然語言反映并規(guī)定社會關(guān)系,一定程度上將社會中的黑箱轉(zhuǎn)化為白箱,從而增進平等主體之間的互動,監(jiān)督制約黑箱中的權(quán)力。隨著人類社會進入數(shù)字時代,信息技術(shù)介入社會各領(lǐng)域,算法成為計算機程序運行的基本規(guī)則。但是,算法使用的計算機編程語言與法律的自然語言之間存在信息轉(zhuǎn)化的鴻溝,由此帶來當代社會算法黑箱的規(guī)制難題。面對算法黑箱引發(fā)的歧視、信息控制、隱私侵犯等外在風險,法律規(guī)制常常運用算法公開或可解釋性原則的方法,使得算法本身變得更加公開透明、易于理解,從而有助于防控算法黑箱這一內(nèi)在風險引發(fā)的外在風險,但面臨“可行性”和“可欲性”的障礙。

        算法黑箱的規(guī)制難題在生成式AI技術(shù)上有增無減,甚至算法黑箱被進一步放大,導致風險源頭更難識別。ChatGPT集合了當今計算機領(lǐng)域的尖端技術(shù),加之屬于通用型AI,可被社會公眾廣泛使用,因此ChatGPT可謂刷新了人類社會歷史上的技術(shù)黑箱紀錄。一方面,ChatGPT著眼于通用型AI,越通用的原理規(guī)律越具有簡約的特征,其解釋或適用的空間也是巨大甚至沒有邊界的,ChatGPT等通用型人工智能的算法亦是如此,“GPT系列越寫越短,和GPT的越來越大成正比”[8],由此導致潛藏的風險及其解釋難以聚焦到特定問題上。另一方面,生成式AI采用大規(guī)模人工語言模型訓練機制,訓練者是否秉持客觀中立的態(tài)度或者夾雜違背公序良俗的成分,同樣構(gòu)成一個抽象且影響廣泛的技術(shù)黑箱。此外,就生成式AI的算法公開的規(guī)制路徑而言,運用于基礎(chǔ)研究的基本算法是公開的,而具體到應(yīng)用環(huán)節(jié)的算法作為商業(yè)秘密是絕不公開的。例如,GPT3.0僅公開了簡化版本,完整版被微軟以排他方式取得。這意味著生成式AI的算法黑箱將始終存在。

        總之,生成式AI實現(xiàn)了AI技術(shù)從專用向通用的迭代進步,但其文本生成過程極不透明,這使得生成式AI成為迄今最深不可測的技術(shù)黑箱,風險規(guī)制中的風險識別因而困難,以致后續(xù)的風險評估、交流、預(yù)警等程序更難展開。

        二、生成式人工智能的風險規(guī)制挑戰(zhàn)

        每一次技術(shù)革新都會給人類社會帶來新風險,法律必須對之作出應(yīng)對調(diào)整。與以往技術(shù)革新相比,生成式AI的技術(shù)迭代引發(fā)了全新的風險問題,給風險規(guī)制帶來新挑戰(zhàn),同時也產(chǎn)生了規(guī)制模式革新的新需求。

        (一)政府規(guī)制:規(guī)制遲滯與資源局限

        政府作為公共利益的代言人和保障者自然應(yīng)當承擔起對生成式AI技術(shù)發(fā)展引發(fā)風險的防控職責。有效規(guī)制這些風險取決于規(guī)制的機構(gòu)、模式、工具、時機等多重因素,一眾變量的選擇調(diào)試應(yīng)依據(jù)生成式AI技術(shù)風險的特定環(huán)境以及由此帶來的規(guī)制困境,從而減少政府的風險規(guī)制失靈。

        為技術(shù)變革而調(diào)整的法律必然遲緩于技術(shù)變革本身。遲到的原因除了認識論上的局限性外,更重要的在于貝克指出的“現(xiàn)代化權(quán)力的分工結(jié)構(gòu)使國家陷入多重遲滯”。具言之,ChatGPT的誕生是技術(shù)決策和投資決策緊密結(jié)合的產(chǎn)物,科技巨頭出于競爭需要只會在暗中“自作主張”,在公眾、政府不知情或不注意的情況下技驚全球。這并非AI技術(shù)發(fā)展的特有現(xiàn)象,而是自工業(yè)化時代就已采取的商業(yè)習慣,知識產(chǎn)權(quán)、商業(yè)秘密法、技術(shù)投資協(xié)議等私法工具確認了此類行為的商業(yè)理性。至于其副作用——生成式AI的潛在風險,企業(yè)在研發(fā)決策時未必或者現(xiàn)實中很少會對之充分考量。政府既有責任減小生成式AI的風險,還要在一定程度上包容AI的發(fā)展,確保技術(shù)與資本的結(jié)盟以推動技術(shù)創(chuàng)新和經(jīng)濟繁榮。換言之,政府同時面臨生成式AI帶來的風險威脅和發(fā)展機遇,處于公共領(lǐng)域職責壓力與經(jīng)濟創(chuàng)新政策考量之間。因此,政府在推進風險規(guī)制過程中往往躊躇不前,加之不排除規(guī)制俘獲的可能性,導致規(guī)制延誤和風險擴大。

        規(guī)制遲滯主要歸因于政府的主觀決策,而有限的規(guī)制資源在客觀上導致規(guī)制能力的缺失。政府針對特定行業(yè)展開風險規(guī)制,需要自身具備較高的專業(yè)性,這也是當代政府內(nèi)專設(shè)食品、藥品、勞動、基礎(chǔ)設(shè)施等專門公共規(guī)制機關(guān)的原因。政府規(guī)制生成式AI需要科技、數(shù)據(jù)以及互聯(lián)網(wǎng)等相關(guān)公共規(guī)制機關(guān)相互配合。但是,生成式AI是高度專業(yè)化的技術(shù),公共規(guī)制機關(guān)本來就存在的人力資源和信息資源不足的問題將會更加突出。相關(guān)公共規(guī)制機關(guān)的有限工作人員需要關(guān)注職責范圍內(nèi)的廣泛技術(shù)問題,生成式AI帶來的深刻的新風險也只是眾多需要被規(guī)制的技術(shù)風險之一。與此同時,對于公共規(guī)制機關(guān)的工作人員而言,他們與生成式AI的技術(shù)黑箱之間存在難以逾越的認知障礙。盡管咨詢專家可以提供技術(shù)支持,但能否彌補工作人員自身的能力缺陷,使之有效認知、追蹤生成式AI的發(fā)展運行軌跡,準確識別其中的風險,仍有較大的不確定性。

        在應(yīng)對生成式AI風險過程中,潛在的規(guī)制遲滯和有限的規(guī)制資源構(gòu)成進一步的規(guī)制失靈風險,僅依賴政府一方的風險規(guī)制難以達成理想目標。政府是公共利益的執(zhí)行者,并且相較代議機關(guān),在應(yīng)對變化中的經(jīng)濟社會問題上,更具有政策和規(guī)制手段的敏捷性。因此,需要重新定位政府在生成式AI技術(shù)風險規(guī)制中的角色功能,即政府應(yīng)是“掌舵者”而非“劃槳者”①。為此,政府應(yīng)當減少AI技術(shù)風險規(guī)制上的親力親為,避免被風險規(guī)制的細節(jié)問題掣肘,同時,增強政府在實現(xiàn)技術(shù)安全目標上的政策掌控能力,以便及時應(yīng)對技術(shù)發(fā)展和風險迭代的新形勢。

        (二)市場自治:動力缺失與協(xié)調(diào)不足

        生成式AI的研發(fā)運營處于風險產(chǎn)生的源頭位置,最接近風險本身,也是唯一有能力知曉和改變生成式AI黑箱運作規(guī)則的主體。顯然,在規(guī)制資源上,AI企業(yè)比公共規(guī)制機關(guān)具備更強的風險防控能力,作為風險制造者理應(yīng)成為風險防控的第一責任人。例如,ChatGPT生成文本存在意識形態(tài)和價值取向的風險,主要原因在于作為語言模型訓練者的Open AI的自身立場。如果在語言訓練中能夠保持足夠的客觀中立,可以在很大程度上抑制這一風險。因此,生成式AI的風險規(guī)制應(yīng)當充分調(diào)動存在于AI企業(yè)內(nèi)部的規(guī)制資源,推動AI企業(yè)開展風險自我規(guī)制。

        但是,以AI企業(yè)為中心的風險自我規(guī)制面臨動力缺失和集體協(xié)調(diào)機制不充足的障礙。一方面,充分競爭是企業(yè)實施良好治理的重要外在動力,但生成式AI已呈現(xiàn)寡頭壟斷的局面。事實上,ChatGPT的投資研發(fā)模式印證了數(shù)字時代的“兩種相互強化的趨勢:數(shù)據(jù)的金融化和金融的數(shù)據(jù)化”[9](pXIX),只是其中的“數(shù)據(jù)”擴展到生成式AI技術(shù)的數(shù)據(jù)庫和算法模型。在缺少巨額風險投資或先進數(shù)據(jù)、算法技術(shù)支持的情況下,生成式AI市場難以產(chǎn)生新的競爭對手,這意味著未來生成式或通用型的AI技術(shù)市場容易形成少數(shù)科技巨頭壟斷的局面。另一方面,ChatGPT產(chǎn)生的風險與食品安全等傳統(tǒng)風險相比,對用戶的影響更具有潛藏性、間接性。即便有來自其他主體的風險提示,用戶仍可能無法清晰認識,諸如怠于查證生成的醫(yī)療建議是否科學可信??梢灶A(yù)見,在缺少來自競爭對手和用戶監(jiān)督壓力的情況下,規(guī)制者(政府)、被規(guī)制者(AI企業(yè))與公眾之間的風險利益格局難以獲得市場競爭機制的平衡調(diào)節(jié),進而導致AI企業(yè)缺少實施自我規(guī)制的動力。

        從AI行業(yè)內(nèi)部的規(guī)制協(xié)調(diào)看,如果企業(yè)之間基于行業(yè)的良性發(fā)展目標,能夠自發(fā)形成組織協(xié)調(diào),也可以對風險起到規(guī)制作用,但這一理想化市場內(nèi)部規(guī)制場景難以自動形成。一般認為,以行業(yè)協(xié)會為代表的市場自治組織可以“形成組織化私序”,在與政府保持溝通的同時,“在與社會公共利益保持一致的前提下, 注重維護行業(yè)協(xié)會全體會員的利益”[10](p96)。行業(yè)的內(nèi)部協(xié)調(diào)需要較多企業(yè)以會員身份參與,實行民主化的協(xié)商治理,但生成式AI的高技術(shù)和資本門檻使得這一愿景難以實現(xiàn)??赡艿那闆r是在少數(shù)大型互聯(lián)網(wǎng)公司進入這一市場后,為應(yīng)對生成式AI的風險而協(xié)商制定標準規(guī)范。這應(yīng)當由具備權(quán)威和利益平衡的主體推動實現(xiàn),這一主體只能是政府及其規(guī)制機關(guān)。事實上,如果缺少政府規(guī)制的干預(yù),AI技術(shù)企業(yè)難以在短期內(nèi)達成AI技術(shù)風險防控的一致,甚至拖延觀望中的企業(yè)進入這一技術(shù)領(lǐng)域。有研究指出,由于 ChatGPT生成錯誤信息造成的損害難以判定責任方,這是“其他大型互聯(lián)網(wǎng)公司可能也有類似的產(chǎn)品,但出于謹慎考慮沒有率先推出的原因之一”[11]。

        總之,針對生成式AI的迭代風險,來自政府的外部規(guī)制和市場的內(nèi)部規(guī)制都各自存在規(guī)制能力、動力等諸多不足。政府規(guī)制需要專業(yè)性的支持,發(fā)揮掌舵者的指引功能,市場或AI企業(yè)則需要外部力量推動其實施全面自我規(guī)制,自主防控技術(shù)引發(fā)的一系列風險。這也表明,伴隨技術(shù)進步引發(fā)的風險迭代升級,規(guī)制對象高度復(fù)雜化、黑箱化,單純的政府規(guī)制或市場自治都有其局限性,只能運用更加復(fù)合的規(guī)制模式。與此同時,生成式AI誕生于信息傳播迅捷、公開透明程度較高的數(shù)字時代,對其風險的疑慮及其規(guī)制探索跟隨生成式AI一道進入政府和公眾視野,引發(fā)了廣泛探討。這為引入新型規(guī)制模式,由更多元主體參與規(guī)制,形成AI技術(shù)風險社會共治的局面創(chuàng)造了良好的實施環(huán)境。

        三、基于元規(guī)制模式的生成式人工智能風險規(guī)制

        Open AI首席技術(shù)穆拉蒂坦言,若要ChatGPT走得更遠,就需要對其進行合規(guī)性改造。對于在未來將廣泛使用的AI技術(shù)進行風險規(guī)制,“所需追問的不是如何‘規(guī)制技術(shù)’,而是現(xiàn)有的法律和規(guī)制框架應(yīng)該如何變革”[5](p575)。新型的規(guī)制框架必須反映政府規(guī)制、市場自治、社會參與的合力規(guī)制需求,展現(xiàn)對AI科技研發(fā)的包容性,這不僅有助于風險投資和自由創(chuàng)新,同時也不失風險規(guī)制的審慎。

        (一)基于元規(guī)制的風險規(guī)制框架

        生成式AI引發(fā)的風險防控問題可被視為社會性規(guī)制在數(shù)字時代的最新體現(xiàn)①,從風險規(guī)制的模式選擇看,有效整合多方主體規(guī)制資源的規(guī)制治理勢在必行②。在多元主體參與的規(guī)制治理過程中,需要滿足AI法律框架設(shè)定、促進主體之間合作學習、提升AI企業(yè)自我規(guī)制效率以及應(yīng)對潛在自我規(guī)制失靈的安全保障需求。因此,應(yīng)將以往社會性規(guī)制當中的不同模式關(guān)聯(lián)起來,進行融合和再規(guī)制,由此形成元規(guī)制(Meta-regulation),也稱“后設(shè)規(guī)制”③。所謂“元規(guī)制”是指經(jīng)政府設(shè)計、引導和保障的自我規(guī)制,或更簡要地概括為“對自我規(guī)制的規(guī)制”。這里的“元”既可以理解為框架性的規(guī)制法律,在法律框定之下引導市場主體制定豐富的自我規(guī)制規(guī)范;亦可理解為具有優(yōu)先實施地位和目標性的市場主體自我規(guī)制,在自我規(guī)制不能有效實施,有風險外溢的可能或者現(xiàn)實損害時,會引發(fā)政府的強制性后設(shè)規(guī)制。因此,框架性法律和自我規(guī)制都具有“元”地位的先導性,政府和立法居于風險防控的指導地位,盡其職責之內(nèi)和力所能及之事,同時倡導企業(yè)履行風險防控第一責任人的職責。元規(guī)制理念展現(xiàn)了當代公法的輔助原則以及公法私法相互融合的現(xiàn)代法治發(fā)展趨勢④,回應(yīng)了當下復(fù)雜的風險規(guī)制環(huán)境和規(guī)制資源分布的基本現(xiàn)實。

        在風險元規(guī)制的模式下,規(guī)制的基本框架包含四個方面:一是廓清規(guī)制對象范圍,這是任何立法活動或風險規(guī)制都要解決的先決問題;二是完善規(guī)范的體系,整合法律、標準和其他規(guī)范的約束功能;三是確立公共規(guī)制機關(guān)、被規(guī)制者(企業(yè))、具有規(guī)制功能的第三方機構(gòu)(認證機構(gòu)等)以及社會公眾之間的主體關(guān)系,明確各自的功能角色及權(quán)利義務(wù);四是構(gòu)建一套合規(guī)監(jiān)督的程序,確保企業(yè)有足夠的動力和明確的機制來主動實施風險防控措施,并預(yù)設(shè)在自我規(guī)制失靈——發(fā)生違規(guī)行為或風險外溢導致現(xiàn)實損害時,應(yīng)當如何應(yīng)對。由此形成客體范圍、主體關(guān)系、規(guī)范體系和程序控制的風險元規(guī)制模式。

        (二)生成式AI風險規(guī)制對象范圍的廓清

        防控生成式AI可能帶來的風險,基本前提是明確風險的來源,廓清規(guī)制的對象范圍。以ChatGPT為例,其關(guān)鍵技術(shù)支撐來自算法模型、龐大的數(shù)據(jù)集和訓練機制,這也是生成式AI的主要風險源頭,應(yīng)當著重對三者及其終端產(chǎn)品展開規(guī)制,構(gòu)建規(guī)范體系和防控程序。

        首先,就數(shù)據(jù)而言,應(yīng)當在靜態(tài)層面基于數(shù)據(jù)的敏感度和重要性等標準進行數(shù)據(jù)分類分級管理。根據(jù)《中華人民共和國數(shù)據(jù)安全法》第21條規(guī)定,政府核心數(shù)據(jù)、個人隱私、商業(yè)秘密的信息應(yīng)當禁止生成式AI的使用,對其他類別的信息則采取不同程度的限制性要求,諸如個人信息數(shù)據(jù)的授權(quán)使用等。在動態(tài)流動層面,同樣需要采取類似措施使得生成式AI在數(shù)據(jù)收集、流動過程中有所依循。

        其次,算法居于生成式AI設(shè)計運行的中心位置,OpenAI使用的Transformer算法模型使得數(shù)據(jù)集的數(shù)量級和模型訓練的效率都大幅提升。囿于算法自身的商業(yè)秘密屬性,算法天然缺乏透明度,但這并不意味著不需要將之納入規(guī)制范圍,而是應(yīng)將規(guī)制重點放在事前和事中的企業(yè)合規(guī)環(huán)節(jié),將算法合規(guī)納入AI企業(yè)合規(guī)的整體體系,要求企業(yè)加強技術(shù)管理。

        再次,生成式AI的訓練機制是確保文本生成內(nèi)容質(zhì)量的關(guān)鍵,也是訓練者或AI企業(yè)“三觀”的輸出機制。這意味著需要對訓練機制進行公共秩序和倫理上的規(guī)制監(jiān)督。AI企業(yè)應(yīng)當將訓練機制作為產(chǎn)品服務(wù)質(zhì)量控制的關(guān)鍵節(jié)點,建立不良信息識別和辟謠機制,防止有害公共利益的信息或訓練結(jié)果進入AI程序系統(tǒng)。

        最后,生成式AI作為數(shù)字技術(shù)產(chǎn)品具有快速迭代的特征,因而需要建立起一套動態(tài)的安全審查機制,包括實時風險監(jiān)測和定期風險評估,確保向市場投放升級迭代產(chǎn)品前,產(chǎn)品本身均經(jīng)過全面的風險檢查。

        (三)參與規(guī)制多元主體的協(xié)調(diào)

        公共規(guī)制機關(guān)、AI企業(yè)、第三方機構(gòu)和社會公眾都是生成式AI風險的利益攸關(guān)者,并且對規(guī)制過程產(chǎn)生影響。在元規(guī)制模式下,公共規(guī)制機關(guān)承擔“掌舵人”的角色,是政策決定者和立法推動者,需要協(xié)調(diào)多方的利益關(guān)系。同時,政府作為“公共利益代言人”,需要在促進AI技術(shù)發(fā)展創(chuàng)新和防控風險損害之間取得平衡,對于潛在、廣泛的AI風險不可能求得絕對安全,應(yīng)當避免采取過于嚴厲的命令控制規(guī)制措施。政府培育AI市場內(nèi)部自我規(guī)制,促進社會系統(tǒng)對AI企業(yè)和市場系統(tǒng)的社會監(jiān)督應(yīng)是政府規(guī)制AI風險的目標。具言之,政府應(yīng)承擔三方面的職責:一是行使AI法律、標準的規(guī)范創(chuàng)制權(quán),推動AI領(lǐng)域的立法,協(xié)調(diào)風險防控的AI行業(yè)標準建設(shè);二是監(jiān)督AI企業(yè)執(zhí)行規(guī)范以及作出的降低潛在風險的承諾;三是對違規(guī)AI企業(yè)進行調(diào)查處罰。

        AI企業(yè)既是風險的自我規(guī)制者,也是被規(guī)制者。AI企業(yè)為了長遠發(fā)展,可以通過主動規(guī)制技術(shù)風險,積極承擔社會責任的方式獲得社會信任,減少來自公共規(guī)制機關(guān)和社會公眾的懷疑。元規(guī)制模式可利用這一現(xiàn)實,強化AI企業(yè)的自我規(guī)制義務(wù),賦予其實施自我規(guī)制的自由空間,這又可以理解為自我規(guī)制的權(quán)利。就義務(wù)而言,AI企業(yè)應(yīng)當承擔起風險內(nèi)控義務(wù),對外接受監(jiān)督,積極糾錯和止損補償。就權(quán)利而言,AI企業(yè)享有選擇遵守自愿性規(guī)范和對外承諾規(guī)制風險的權(quán)利,參與制定AI風險防控規(guī)則的權(quán)利,以及因風險損害問題產(chǎn)生糾紛時獲得正當程序的權(quán)利。

        第三方機構(gòu)和社會公眾也在生成式AI的元規(guī)制模式中扮演重要角色。伴隨未來生成式AI市場參與企業(yè)、產(chǎn)品的增多,企業(yè)之間不僅有競爭,還可以形成自治型組織,或者產(chǎn)生針對生成式AI產(chǎn)品的認證組織。這些來自市場內(nèi)部、獨立于AI企業(yè)和公共規(guī)制機關(guān)的組織可就AI產(chǎn)品風險問題展開質(zhì)量標準的制定和認證監(jiān)督。生成式AI的用戶同樣可以在督促AI企業(yè)防控風險上發(fā)揮作用,這是AI技術(shù)走向通用型AI的必然結(jié)果。例如,行使廣泛的消費者權(quán)利,要求AI企業(yè)在風險信息披露、內(nèi)容客觀中立、個人信息保護、數(shù)據(jù)安全等方面承擔責任,接受公眾咨詢。當然,發(fā)揮第三方機構(gòu)和社會公眾的主體功能,需要政府以及法律框架的確認和支持。

        (四)軟硬法混合規(guī)范框架性體系的構(gòu)建

        近年來,歐盟和美國已經(jīng)針對AI技術(shù)引發(fā)的風險推進規(guī)制立法或政策指導,均體現(xiàn)了元規(guī)制模式下的框架性法律引導企業(yè)自我規(guī)制的特點。2021年,歐盟委員會發(fā)布的《關(guān)于制定人工智能統(tǒng)一規(guī)則》將基本權(quán)利產(chǎn)生影響的風險劃分為三個級別,除了對少數(shù)劃進“不可接受的風險”的AI程序予以禁止外,對于高風險的規(guī)制方法只是確立強制性的目標要求,諸如AI企業(yè)應(yīng)當“建立充分的風險管理系統(tǒng)”“確保人類對于AI系統(tǒng)在使用時的有效規(guī)制”“達到高水平的準確度、穩(wěn)健性和網(wǎng)絡(luò)安全性”[12]。相較歐盟AI法案的強制性,美國側(cè)重不具有法律效力的軟法治理。2022年,美國《人工智能權(quán)利法案藍圖》就建立保護所有人免受前述威脅的社會、使用技術(shù)強化最高的價值觀提供了一個基本指南,而具體的行為指引反映在2023年美國國家標準與技術(shù)研究院(National Institute of Standards and Technology,NIST)制定的《人工智能風險管理框架》①中。

        由此可見,圍繞AI風險和權(quán)利保護問題,歐盟和美國制定了框架性的目標或者基本路線圖,具體落實主要依靠AI企業(yè)自身選擇恰當?shù)姆绞?,拼湊出自己的道路。這一AI風險規(guī)制的思路反映了元規(guī)制模式下的法律框架性,防控AI風險的具體操作應(yīng)由AI企業(yè)利用自身的資源完成,公共規(guī)制機關(guān)更多是發(fā)揮宏觀目標確立、行為監(jiān)督以及回應(yīng)公眾關(guān)切的職能?!盀榱嗽谡鐒e和防范風險的同時保護人工智能研發(fā)的積極性和創(chuàng)造性,有必要更多地采取軟法方式,而不是簡單地提高硬法的懲戒力度?!盵13](p4)這與針對食品、藥品等安全風險的傳統(tǒng)社會性規(guī)制中的細節(jié)性硬法規(guī)定存在顯著差別。事實上,框架性立法及運用軟法的AI風險規(guī)制手段,更適應(yīng)AI企業(yè)及其技術(shù)發(fā)展的自由空間需求,也緩解了立法中的博弈困境。此外,具體操作細節(jié)留給標準規(guī)范和AI企業(yè)自身選擇,也方便規(guī)范跟隨技術(shù)進步而作出快速調(diào)整。

        總之,AI風險規(guī)制應(yīng)當是框架性法律與具體行為標準相互配合的結(jié)構(gòu):法律解決AI風險規(guī)制的目標、基本原則,規(guī)制機關(guān)的權(quán)力、職責,AI企業(yè)及其他參與者的權(quán)利義務(wù)關(guān)系,尤其是對AI企業(yè)的合規(guī)監(jiān)督機制;行為標準則側(cè)重更加具體的風險防控操作,突出自愿性標準的地位,供AI企業(yè)自由選擇。在未來,我國可以制定一部框架性的人工智能法,由公共規(guī)制機關(guān)引導AI企業(yè)之間協(xié)同制定自愿性的團體標準,AI企業(yè)再根據(jù)自身產(chǎn)品實際制定內(nèi)部風險管控方案,形成軟硬法混合規(guī)制的規(guī)范體系。

        (五)全方位合規(guī)監(jiān)督機制的構(gòu)建

        實現(xiàn)生成式AI的風險善治目標,除了制定良法,還需要構(gòu)建監(jiān)督機制確保AI企業(yè)充分執(zhí)行風險防控規(guī)范。生成式AI的風險元規(guī)制模式旨在強化風險的源頭控制,將AI風險防控的成本內(nèi)部化。為此,除了依靠企業(yè)自身提升風險意識,主動承擔風險防控的社會責任外,外部的多重壓力機制也必不可少。為此,應(yīng)構(gòu)建從AI企業(yè)內(nèi)部到其他市場參與者以及公共規(guī)制機關(guān)的全方位合規(guī)監(jiān)督。

        首先,AI立法可要求在AI企業(yè)內(nèi)部設(shè)置安全官,其法律地位屬于公共事務(wù)的“受托人”,輔助公共規(guī)制機關(guān)實現(xiàn)AI風險規(guī)制的公共目標。AI企業(yè)的安全官是AI企業(yè)的“內(nèi)部執(zhí)法者”,也是落實各項規(guī)范要求的“守護人”。具言之,AI企業(yè)的安全官承擔生成式AI產(chǎn)品的風險防控義務(wù),監(jiān)督內(nèi)控規(guī)范、標準規(guī)范和法律規(guī)則的執(zhí)行,并且在風險議題上與公共規(guī)制機關(guān)和AI企業(yè)的高層決策者保持溝通。

        其次,來自市場內(nèi)部的認證機制也可以發(fā)揮監(jiān)督AI企業(yè)持續(xù)自主合規(guī)的功能。歐盟《關(guān)于制定人工智能統(tǒng)一規(guī)則》規(guī)定,“經(jīng)提供者評估后被視為符合高風險性AI系統(tǒng)強制性規(guī)定范圍內(nèi)的AI系統(tǒng),應(yīng)附有‘CE’合規(guī)標志”,這一標志可以由未來發(fā)展起來的AI風險管理第三方認證機構(gòu)來完成。相較公共規(guī)制機關(guān)而言,認證機構(gòu)更具有專業(yè)性且來自市場系統(tǒng),對于AI企業(yè)自身認證更具有獨立性的優(yōu)勢。這種第三方認證機制具有持續(xù)性,認證機構(gòu)若發(fā)現(xiàn)獲證AI企業(yè)在后續(xù)不符合風險防控規(guī)范的,可以暫?;虺蜂N認證,并公布結(jié)果。

        再次,除了AI企業(yè)自身外,與生成式AI產(chǎn)品關(guān)聯(lián)的其他企業(yè)也應(yīng)當對產(chǎn)品的風險承擔責任。例如,ChatGPT的語言模型訓練由其他企業(yè)承包完成,后者也應(yīng)當對產(chǎn)品的最終風險承擔責任,可以要求其監(jiān)督AI企業(yè)符合安全規(guī)范。歐盟《關(guān)于制定人工智能統(tǒng)一規(guī)則》繼承了此前《通用數(shù)據(jù)保護條例》中對關(guān)聯(lián)企業(yè)的義務(wù),規(guī)定“高風險AI系統(tǒng)的進口商、分銷商和使用者有責任確保這些產(chǎn)品在投放市場前符合監(jiān)管要求,并確保產(chǎn)品的安全使用”。實際上,這一規(guī)定促使AI市場中的關(guān)聯(lián)企業(yè)監(jiān)督AI企業(yè),在市場合作的私人領(lǐng)域推進實現(xiàn)風險防控的公法目標。

        最后,廣大用戶乃至社會公眾也是監(jiān)督AI企業(yè)安全合規(guī)的重要力量,為此需要提升公眾對AI產(chǎn)品風險的理性認知,強制AI企業(yè)對產(chǎn)品及其生成文本進行風險警示。此類警示有助于用戶明確生成式AI的客體工具性,避免“主客混同”的認知障礙。立法還可創(chuàng)設(shè)更多的公眾參與監(jiān)督機制,針對面向大眾的生成式AI,應(yīng)當要求AI企業(yè)的相關(guān)重大決策接受公眾咨詢。

        以上主體的風險監(jiān)督均來自AI市場體系內(nèi)部,與傳統(tǒng)風險規(guī)制中以公共規(guī)制機關(guān)為主導的單向監(jiān)督機制形成鮮明區(qū)別。當然,這并不意味著在元規(guī)制模式下,政府不承擔監(jiān)督AI企業(yè)合規(guī)守法和防控風險的職責,而是集中有限的規(guī)制資源對市場內(nèi)部的監(jiān)督者進行再監(jiān)督,對這些監(jiān)督行為進行監(jiān)測、評價,反思框架性立法和標準規(guī)范體系對AI風險的可控性,并適時進行規(guī)范和政策上的調(diào)整。

        四、結(jié)語

        ChatGPT創(chuàng)造了空前的技術(shù)應(yīng)用普及速度,這一生成式AI產(chǎn)品給世人帶來驚艷的技術(shù)體驗,但與此同時,也引發(fā)了前所未有的風險迭代問題。一方面,生成式AI技術(shù)正在趨近人類的語言思維能力,引發(fā)主客關(guān)系模糊、法益侵害泛化以及技術(shù)黑箱化等一系列嚴峻的風險問題。另一方面,在互聯(lián)網(wǎng)載體加持下,生成式AI風險的副產(chǎn)品也在未經(jīng)充分審驗、控制的情況下,在極短時間內(nèi)擴展至全社會。元規(guī)制模式具備適應(yīng)技術(shù)風險迅速迭代的敏捷性治理特征,既強化政府規(guī)制的宏觀引導和風險保障職責,又突出AI企業(yè)在框架性法律引導下的風險源頭控制和自我規(guī)制義務(wù),回應(yīng)了技術(shù)風險迭代引發(fā)的規(guī)制資源不足難題和規(guī)制協(xié)調(diào)需求。目前,這一模式的具體制度構(gòu)建還停留在歐美國家立法的探索階段,必然會伴隨未來生成式AI乃至更加通用型AI技術(shù)的研發(fā)使用而變化調(diào)整。我國同樣面臨平衡AI技術(shù)自由創(chuàng)新與潛在風險防控的難題,未來可在元規(guī)制模式下構(gòu)建AI風險規(guī)制框架,引導AI技術(shù)創(chuàng)新發(fā)展。

        參考文獻:

        [1][德]烏爾里希·貝克.風險社會:新的現(xiàn)代性之路[M].張文杰,何博文,譯.上海:譯林出版社,2018.

        [2][美]斯圖爾特·羅素,彼得·諾維格.人工智能現(xiàn)代方法(第四版)[M].張博雅,等譯.北京:人民郵電出版社,2022.

        [3]Turing A M. Computing Machinery and Intelligence[J]. Mind, 1950(59).

        [4]Iwaniuk P. A Conversation with Demis Hassabis, the Bullfrog Al Prodigy Now Finding Solutions to the Worlds Big Problems [EB/OL].(2016-07-15) [2023-03-21].https://www.pcgamesn.com/demis-hassabis-interview.

        [5]Brownsword R, Scotford E,Yeung K. The Oxford Handbook of Law, Regulation and Technology[M]. Oxford: Oxford University Press, 2017.

        [6]Domingos P.The Master Algorithm[M].New York: Basic Books, 2015.

        [7]張力,陳鵬.機器人“人格”理論批判與人工智能物的法律規(guī)制[J].學術(shù)界,2018(12).

        [8]猛猿.ChatGPT解析系列:GPT1、GPT2與GPT3 [EB/OL].(2023-02-25) [2023-03-21].https://mp.weixin.qq.com/s/iohLXnQy_r1E_a2J6h5Jaw.

        [9][美]弗蘭克·帕斯奎爾.黑箱社會:控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版社,2015.

        [10]汪莉.論行業(yè)自治的合法性[J].理論學刊,2012(11).

        [11]陳洋,劉璐明.ChatGPT:大力出奇跡[EB/OL].(2023-02-15) [2023-03-21].https://mp.weixin.qq.com/s/Nkl1HFC6au1GNXgwE9iABg.

        [12]European Commission Proposes a Risk-Based Approach to Regulate Use of AI[EB/OL]. (2021-04-21) [2023-03-21]. https://www.scl.org/news/12247-european-commission-proposes-a-risk-based-approach-to-regulate-use-of-ai.

        [13]季衛(wèi)東. 人工智能開發(fā)的理念、法律以及政策[J].東方法學,2019(5).

        責任編輯" "楊" "幸

        人禽杂交18禁网站免费| 青青草综合在线观看视频| 亚洲国产一区久久yourpan| 国产成人亚洲精品91专区高清| 国产欧美日韩va另类在线播放| 亚洲小说区图片区另类春色| 久久天天躁狠狠躁夜夜2020!| 我和丰满老女人性销魂| 国产精品国产av一区二区三区| 欧美熟妇性xxx交潮喷| 亚洲最大天堂无码精品区| 日韩国产自拍精品在线| 久久精品国产亚洲av久按摩| 免费人成激情视频在线观看冫| 国产精品99久久精品爆乳| 亚洲黄片高清在线观看| 国产亚洲熟妇在线视频| 国产乱子伦农村xxxx| 欧美一区波多野结衣第一页| 熟女丝袜美腿亚洲一区二区三区| 邻居美少妇张开腿让我爽了一夜| 天天爽天天爽夜夜爽毛片| 亚洲手机国产精品| 一区二区三区少妇熟女高潮| 我和隔壁的少妇人妻hd| 丰满岳妇乱一区二区三区| 久久这里只精品国产2| 手机在线国产福利av| 亚洲av永久无码精品古装片 | 中文无码日韩欧| 亚洲成人欧美| 日韩av一区二区无卡| 欧美国产亚洲日韩在线二区| 精品性高朝久久久久久久| 日本精品久久性大片日本| 精品久久久少妇一区二区| 国产精品_国产精品_k频道w | 把插八插露脸对白内射| 成年视频网站在线观看777| 日本亚洲中文字幕一区| 色吊丝中文字幕|