亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        GPT4發(fā)展中的若干問題及其規(guī)制方案

        2023-03-04 15:32:50
        信息安全研究 2023年6期
        關(guān)鍵詞:模型

        嚴 馳

        (武漢理工大學法學與人文社會學院 武漢 430070)

        自1956年約翰·麥卡錫首次提出人工智能(AI)概念以來,AI技術(shù)已經(jīng)取得了令人矚目的發(fā)展.近年來以ChatGPT為代表的大模型項目在AI領(lǐng)域炙手可熱,GPT4作為ChatGPT的升級版,在圖像輸入、文字處理、推理能力等方面有了全方位地提升,展現(xiàn)出顛覆性的技術(shù)能力.同時,GPT4的出現(xiàn)也引發(fā)了數(shù)據(jù)安全、知識產(chǎn)權(quán)、核心算法方面的若干問題,有必要對其進行全面檢視與系統(tǒng)思考,確保科技創(chuàng)新工作平穩(wěn)有序開展.

        1 GPT4:顛覆性的技術(shù)創(chuàng)新

        1.1 研究回顧

        近年來,AI技術(shù)所引發(fā)的技術(shù)風險和社會風險日益凸顯,引發(fā)了學術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注.如吳漢東[1]認為AI技術(shù)已經(jīng)全面介入人類生活并在全球范圍內(nèi)建立起獨特的生態(tài)格局,應(yīng)重視AI引發(fā)的負面影響,形成規(guī)范的社會治理體系;譚毓安[2]指出以深度學習為代表的AI技術(shù)在和人類社會生活的融合過程中面臨著多種新型安全攻擊,今后應(yīng)探索更多具備可解釋性的攻擊防御方法;彭長根[3]從技術(shù)、標準和法律的維度提出了加強AI安全治理技術(shù)體系研究、構(gòu)建AI技術(shù)標準與應(yīng)用規(guī)范、健全AI領(lǐng)域法規(guī)及制度體系等治理對策.

        如今圍繞生成式AI大模型的研究已頗為豐富,主要是以GPT4的ChatGPT為分析對象,關(guān)于GPT4的特定研究較少.如鄭世林等人[4]研究了新一代生成式AI技術(shù)對經(jīng)濟和社會的影響,指出ChatGPT雖然加速了傳統(tǒng)社會體系的重塑,但與此同時也帶來了科技與學術(shù)倫理、價值滲透、信息泄露等問題;叢立先等人[5]以ChatGPT為對象分析了聊天機器人數(shù)據(jù)挖掘、內(nèi)容生成以及內(nèi)容完成后的版權(quán)風險,提出了涵蓋技術(shù)標準、司法保護、行政監(jiān)管和平臺治理的綜合體系構(gòu)建方案;鄧建鵬等人[6]將目前ChatGPT模型引發(fā)的問題概括為生成內(nèi)容知識產(chǎn)權(quán)歸屬爭議、數(shù)據(jù)相關(guān)法律風險和挑戰(zhàn)學校及學術(shù)倫理規(guī)范3個方面并提出了相應(yīng)的規(guī)制對策,為生成式AI大模型的法律風險應(yīng)對提供了參考.2023年3月,OpenAI公司正式發(fā)布新一代生成式AI大模型GPT4.2023年4月,OpenAI創(chuàng)始人山姆·阿爾特曼在接受采訪時表示將專注于GPT4的技能提升,短期內(nèi)并無開發(fā)GPT-5的計劃.換言之,GPT-4將是未來較長一段時間內(nèi)生成式AI大模型的領(lǐng)軍者.在此背景下,有必要以GPT4為研究對象,更新對生成式AI大模型技術(shù)的認識,分析GPT4的潛在風險并提出相應(yīng)的規(guī)制方案.

        1.2 技術(shù)基礎(chǔ)

        如今AI正在經(jīng)歷從感知智能到認知智能的范式轉(zhuǎn)變,一系列AI大模型的興起不斷刷新著大眾對AI技術(shù)的認知邊界.大模型的背后是自然語言處理(NLP)、機器學習(ML)、計算機視覺(CV)、圖形學習(GL)等技術(shù)數(shù)十年的研究和發(fā)展.本文關(guān)注的GPT4是NLP領(lǐng)域最具代表性的生成式AI大模型之一.NLP領(lǐng)域的大型語言模型分為GPT和BERT 2種主流技術(shù)路線.OpenAI公司的初代模型GPT1誕生于2018年6月.GPT1發(fā)布之初并未引起足夠的重視,直至2022年11月ChatGPT推出后才引發(fā)社會廣泛關(guān)注.GPT的特點是“自回歸”,通過“預訓練+提示”的方式,在語言生成上更具優(yōu)勢.2018年10月,谷歌開發(fā)的BERT模型問世.BERT的特點是“雙向”,通過“預訓練+微調(diào)”的方式,激發(fā)了大量關(guān)于BERT模型的改進與應(yīng)用研究.GPT和BERT的共性是均采用了大規(guī)模的預訓練.預訓練技術(shù)最早出現(xiàn)于CV領(lǐng)域的遷移學習中,如今正被廣泛應(yīng)用于增強其他領(lǐng)域的模型性能.以BERT,ChatGPT為代表的生成式AI大模型憑借著高效的Transformer模型架構(gòu)以及參數(shù)量、數(shù)據(jù)量的指數(shù)級增長,已經(jīng)可以完成NLP領(lǐng)域的絕大部分任務(wù),同時在CV,GL等領(lǐng)域也表現(xiàn)出巨大的發(fā)展?jié)摿?

        在基于GPT3.5調(diào)整而來的ChatGPT中,研究人員通過加入基于人類反饋的強化學習(RLHF)、提示優(yōu)化、思想鏈等技術(shù),大大提升了模型的語言理解和分析能力.GPT4擁有強大的神經(jīng)網(wǎng)絡(luò)預測功能,在ChatGPT的基礎(chǔ)上實現(xiàn)了從單模態(tài)向多模態(tài)的轉(zhuǎn)變,將生成式AI大模型的安全性、創(chuàng)造性、邏輯性等提升到一個新高度.人類從真實世界中接收到的信息往往呈現(xiàn)出多模態(tài)的來源,由單模態(tài)向多模態(tài)的轉(zhuǎn)變有利于引入更多元的數(shù)據(jù)信息,增強模型的通用性和泛化能力[7].因此,GPT4展現(xiàn)出的信息收集處理能力比ChatGPT更勝一籌,進一步提高了人機交互的效率和體驗.GPT4的顛覆性不僅體現(xiàn)在技術(shù)層面,還體現(xiàn)在對人類社會的影響.GPT4在SAT,GRE等考試中擁有超越絕大多數(shù)人的表現(xiàn),其強大的文本和圖像理解能力、突出的模型表達能力甚至有望取代部分基礎(chǔ)性勞動崗位如電話接線員、數(shù)據(jù)庫錄入員等.

        目前GPT4在文本生成、互動交流等方面成熟度較高,但技術(shù)上尚存在一些缺陷.如對文本形式外的輸入輸出處理能力不足、容易產(chǎn)生不準確或不相關(guān)的回答等.GPT4在感知和判斷方面已經(jīng)逐漸接近甚至超越了人類,但還無法向人類一樣進行邏輯推理、決策分析,且GPT4更依賴于通過訓練數(shù)據(jù)集進行模仿回答,不擅長信息來源驗證和文本的真實性核查.雖然GPT4可以輸出令人印象深刻的內(nèi)容,但理解模型的生成邏輯仍然是一個挑戰(zhàn).尤其是在GPT4的輸出內(nèi)容未能達到預期目的時,可解釋性的缺乏使得控制輸出內(nèi)容十分困難.目前,GPT4等生成式AI大模型的開發(fā)主要集中于預訓練階段,相應(yīng)的技術(shù)也較為成熟.與從零開始訓練模型不同,之后應(yīng)進一步探索如何為下游任務(wù)進行模型的微調(diào)和優(yōu)化,在原有的基礎(chǔ)能力和對新任務(wù)的適應(yīng)性能之間進行權(quán)衡.

        2 風險探賾:GPT4發(fā)展中的重點問題分析

        GPT4的前作ChatGPT自2022年底發(fā)布以來,短短2個月內(nèi)注冊用戶就超過1億,引發(fā)了世界范圍內(nèi)的廣泛關(guān)注[8],如今世界科技巨頭正在熱火朝天地開展AI領(lǐng)域的軍備競賽.人們應(yīng)清醒地認識到AI技術(shù)是一把“雙刃劍”,在披荊斬棘的同時也存在自傷的風險.本文重點探討了GPT4在數(shù)據(jù)安全、知識產(chǎn)權(quán)、算法規(guī)制等重點方面存在的風險和問題,希望在充分發(fā)揮GPT4強大功能的同時引導AI技術(shù)向更有利于促進社會進步的方向發(fā)展.

        2.1 數(shù)據(jù)安全

        數(shù)據(jù)是AI技術(shù)發(fā)展的基礎(chǔ),生成式AI大模型的構(gòu)建和優(yōu)化需要大量的數(shù)據(jù)支持,掌握更多數(shù)據(jù)的一方將在未來的AI競爭居于優(yōu)勢地位.盡管OpenAI公司未公布GPT4模型的參數(shù)量及預訓練的數(shù)據(jù)來源,但從GPT4全方位的能力提升來看,GPT4的參數(shù)量不會少于GPT3的1750億.GPT4的數(shù)據(jù)大多來源于可公開使用的互聯(lián)網(wǎng)數(shù)據(jù)或第三方許可提供的數(shù)據(jù),GPT4的訓練數(shù)據(jù)庫中掌握了全面且細致的個人數(shù)據(jù),如社交互動數(shù)據(jù)、消費交易數(shù)據(jù)、身份信息類數(shù)據(jù)以及其他更為私密和具化的數(shù)據(jù)[9].其中部分數(shù)據(jù)來源于使用過程中用戶主動提供的數(shù)據(jù),如在社交軟件賬號申請時,一些用戶會主動提供個人信息.還有部分數(shù)據(jù)來源于用戶的被動“讓渡”.大量社交軟件在用戶協(xié)議或隱私政策中強制性要求用戶在使用軟件時授權(quán)運營方進行個人信息的收集和處理[10],GPT4亦存在類似的要求.OpenAI官網(wǎng)隱私政策第10條規(guī)定,如果用戶不提供使用服務(wù)所需的個人信息,則將無法使用相關(guān)功能.

        2.1.1 設(shè)定數(shù)據(jù)存儲期限

        隨著數(shù)據(jù)規(guī)模的擴大,對數(shù)據(jù)承載和保護能力的要求也在不斷提高,數(shù)據(jù)泄露的風險逐漸顯現(xiàn),可能會侵犯到用戶的隱私權(quán)和個人信息權(quán)益或企業(yè)的商業(yè)秘密等.近日,OpenAI創(chuàng)始人山姆·阿爾特曼在推特上承認,由于系統(tǒng)的漏洞,部分用戶能夠看到不屬于自己的對話歷史記錄.OpenAI官網(wǎng)隱私政策第3條指出,在業(yè)務(wù)轉(zhuǎn)讓、法律要求等特定情況下會向包括關(guān)聯(lián)公司、供應(yīng)商和服務(wù)提供商等在內(nèi)的第三方提供用戶的個人信息.但是,上述情況明顯不屬于該個人信息披露范圍,不由讓人懷疑用戶使用GPT4時個人信息的安全性.目前部分對數(shù)據(jù)安全重視程度較高的企業(yè)和國家已經(jīng)開始限制GPT4的使用,如摩根大通禁止員工在工作場合使用GPT4,以保護公司機密和客戶信息的安全.意大利則已經(jīng)宣布禁止ChatGPT在意大利境內(nèi)的使用,并將對OpenAI公司開始立案調(diào)查.目前針對GPT4背后海量數(shù)據(jù)的管理和保護成本頗高,可以通過設(shè)定信息存儲期限構(gòu)建更安全的數(shù)據(jù)環(huán)境.從技術(shù)的可行性角度來說,設(shè)定數(shù)據(jù)存儲期限是較為容易實現(xiàn)的.現(xiàn)實中這種功能框架早已存在,如電腦經(jīng)過設(shè)置會每隔一段時間自動清理過期或重復文件.從可欲性角度來說,設(shè)定數(shù)據(jù)存儲期限可以顯示GPT4對數(shù)據(jù)安全和隱私保護的重視,提升用戶信任度.

        2.1.2 探尋中國發(fā)展方案

        從長遠角度考慮,美國、歐盟、日本已經(jīng)相繼把數(shù)據(jù)安全提升到國家戰(zhàn)略高度.在數(shù)據(jù)的資源屬性越發(fā)凸顯的時代背景下,數(shù)據(jù)安全將關(guān)系到國家經(jīng)濟和政治安全[11].GPT4的開發(fā)者OpenAI是一家位于美國的AI公司,且模型訓練時的主要語言為英語,更容易偏向西方意識形態(tài).此前美國等西方國家長期利用技術(shù)上的優(yōu)勢對我國進行科技霸凌,在推廣本國技術(shù)產(chǎn)品的同時阻撓我國相關(guān)產(chǎn)業(yè)的發(fā)展[12].申言之,新一輪AI領(lǐng)域技術(shù)競爭中暗含著全球話語主導權(quán)和意識形態(tài)領(lǐng)導權(quán)的爭奪,AI技術(shù)背后是國家在數(shù)據(jù)、算法、算力等“硬實力”的博弈,也是戰(zhàn)略、思想、文化等“軟實力”的對抗.目前國內(nèi)的AI研究在理論層面已經(jīng)有了高水平的產(chǎn)出,實際落地層面的產(chǎn)品如百度開發(fā)的“文心一言”等雖然在技術(shù)層面與GPT4相比還存在一定的距離,但在數(shù)據(jù)安全上嚴格遵循了國內(nèi)相關(guān)法律法規(guī),強化了對用戶數(shù)據(jù)和隱私的保護,開創(chuàng)了具有中國特色的發(fā)展模式.數(shù)據(jù)安全是技術(shù)發(fā)展的前提,如何在保障數(shù)據(jù)安全的同時提升技術(shù)水平將是我國AI產(chǎn)業(yè)未來發(fā)展中亟待解決的議題.

        2.2 知識產(chǎn)權(quán)

        2.2.1 版權(quán)侵權(quán)訴訟頻發(fā)

        GPT4所體現(xiàn)出的創(chuàng)造力和創(chuàng)新性對傳統(tǒng)知識產(chǎn)權(quán)法律制度形成了極大的挑戰(zhàn),特別是在版權(quán)方面.GPT4輸出的文本屬于人工智能生成內(nèi)容(AIGC)的范疇,其生成過程中大量學習、模仿了人類先前創(chuàng)作的文字作品,其中很有可能涉及受版權(quán)保護的作品.實踐中相關(guān)案例已有發(fā)生,在2023年1月的Andersen v. Stability案中,3位藝術(shù)家提起了對知名AI繪畫工具開發(fā)公司Stable AI,Midjourney和DevianArt平臺的版權(quán)侵權(quán)集體訴訟.盡管GPT4的復述形式并非原封不動地照搬照抄,但也是對已有知識的重組,若將其應(yīng)用于商業(yè)用途,可能會構(gòu)成對原作者版權(quán)的侵犯.2023年3月,美國新聞集團因其新聞內(nèi)容被無償用于ChatGPT等模型的訓練中,而擬對OpenAI等技術(shù)制造商提起了版權(quán)侵權(quán)訴訟,這并非OpenAI首次被卷入版權(quán)侵權(quán)風波,早在2022年11月,開源程序員兼律師馬修·巴特里克就曾對Github及其母公司微軟和合作伙伴OpenAI提起集體訴訟,指控其開發(fā)的AI編程工具Copilot大規(guī)模侵犯版權(quán).

        2.2.2 挑戰(zhàn)作者主體地位

        隨著GPT4的發(fā)展、應(yīng)用與普及,關(guān)于“GPT4是否具備版權(quán)法中作者資格”的討論甚囂塵上,還有學者提出對AI產(chǎn)生自我意識乃至取代人類的擔憂[13].在私權(quán)體系中,權(quán)利主體和客體的法律地位相互對應(yīng)且永遠無法轉(zhuǎn)換.受“客體的非主體性”的制約,盡管GPT4通過不斷學習已經(jīng)逐漸具備“主體”的雛形,但“人”才能成為知識產(chǎn)權(quán)主體的基本規(guī)則不會改變[14].有學者指出,隨著數(shù)據(jù)訓練的加強,GPT4在簡單的三段論、歸納推理、演繹推理等方面可以部分替代人類,但是在理解法律并完成負責任的判斷上,尤其是在面對特定的情境判斷時還力有不逮[15].管見以為,在本體論上堅持人類中心主義是有必要的.AI作為一種需要人類參與引導與訓練的技術(shù),是人類智慧物化的體現(xiàn).盡管GPT4具有一定的信息編排和自主創(chuàng)作能力,但其不應(yīng)該也不可能具備法律主體資格.國內(nèi)外多家學術(shù)期刊出于學術(shù)倫理的考慮,已經(jīng)開始禁止或限制使用GPT4等大型語言模型撰寫學術(shù)論文的行為.如2023年1月,“Science”的主編霍爾頓·索普就發(fā)文明確禁止將大型語言模型列為文章作者[16].不管今后GPT4發(fā)展到多么強大和智能的程度,其技術(shù)屬性始終不會改變.人類群星閃耀時命運依然攥在人類手中.

        2.2.3 引發(fā)作品認定爭議

        GPT4的“智能”來源于RLHF訓練,技術(shù)人員在收集反饋數(shù)據(jù)的基礎(chǔ)上通過人工標注、強化學習進一步增強了GPT4模型的理解能力和交互表現(xiàn).由于在預訓練過程中大量學習了人類的語言結(jié)構(gòu)、創(chuàng)作模式和表達技巧,GPT4不僅可以快速制造出語言流暢的語句,而且在內(nèi)容上幾乎與人類創(chuàng)作的文本難以區(qū)分.當GPT4的創(chuàng)作內(nèi)容具備商業(yè)價值時就會引申出一個問題,即在GPT4不具備作者資格的前提下,是否應(yīng)將GPT4生成物視為版權(quán)法意義上的“作品”?對此,有學者認為應(yīng)建立一種獨創(chuàng)性判斷的客觀標準,將AI創(chuàng)作物視為作品[17].也有學者認為缺乏人的創(chuàng)造性思維體現(xiàn)的AI創(chuàng)作物不能構(gòu)成作品[18].在“菲林訴百度案”中,法院亦認為未體現(xiàn)人類獨創(chuàng)性表達的AI生成內(nèi)容即使具有獨創(chuàng)性也不應(yīng)視為版權(quán)法意義上的“作品”.雖然GPT4生成物的作品屬性在現(xiàn)有的版權(quán)制度中還存在較大的爭議,但其作為“物”的價值屬性無疑已經(jīng)得到了認可,未來是否將其納入版權(quán)保護還有很大的可探討空間.GPT4提供了爭議十足的新話題場域,但還不構(gòu)成對現(xiàn)行版權(quán)規(guī)范的挑戰(zhàn)和重塑.今后須保持對GPT4在知識產(chǎn)權(quán)領(lǐng)域潛在風險的關(guān)注,防患于未然.

        2.3 核心算法

        2.3.1 算法歧視風險暗涌

        GPT4的“智能”來源于程序員為達到特定目的而編寫的代碼和算法[19],其本身不具有道德和倫理的觀念.依托于標準化程序和公式運行的算法被賦予客觀、中立的表象,但絕對的算法中立是不存在的.GPT4訓練中接收到的信息魚龍混雜,缺乏篩選和過濾機制,在種族、宗教、性別等敏感話題上存在算法歧視的風險,可能會引發(fā)人格權(quán)、名譽權(quán)等方面的輿論爭議和法律糾紛.現(xiàn)階段,GPT4的預訓練數(shù)據(jù)投入和算法設(shè)計工作主要依靠OpenAI公司技術(shù)人員的把關(guān).因此,在GPT4的算法中不可避免地會帶有一定的意識形態(tài)偏向,不夠客觀和中立[20].如在內(nèi)容生產(chǎn)程序開發(fā)、資源調(diào)配和結(jié)果呈現(xiàn)的“流水線”中夾帶主觀偏好等[21].但是,GPT4算法的保密性讓隱藏于其算法中的歧視和偏見難以被發(fā)現(xiàn)和糾正.

        2.3.2 算法透明的可行性

        從商業(yè)應(yīng)用角度而言,GPT4的前幾代產(chǎn)品都存在一定的缺陷或?qū)嶒炐再|(zhì),GPT4是OpenAI自2019年轉(zhuǎn)變?yōu)闋I利性AI公司后推出的首款成熟產(chǎn)品.目前GPT4沒有免費版本,OpenAI也并未公開GPT4的底層算法、具體架構(gòu)、訓練方式等技術(shù)細節(jié),這讓其招致了大量批評之聲.對此,有學者認為應(yīng)推出提升算法透明度的硬性規(guī)定,通過公開源代碼來實現(xiàn)更好的算法規(guī)制[22].也有學者指出算法透明在可行性和必要性上都存在瑕疵[23].管見以為,算法透明并非應(yīng)對GPT4中算法歧視問題的良策.公開GPT4的底層算法雖然可以防止算法“黑箱”的濫用,更好地監(jiān)督算法,但可能會導致算計、算法抄襲、知識產(chǎn)權(quán)侵權(quán)等問題.禁止在算法中加入對特定種族、信仰、性別群體的惡意歧視是理所應(yīng)當?shù)?但是否應(yīng)在算法中實現(xiàn)身份中立,完全消除身份因素運用的問題仍值得商榷.過于中立、客觀的規(guī)則實際上并不合理,可能反而會加重歧視和不平等的現(xiàn)象,因為無論算法如何修正,都會產(chǎn)生有利于一部分群體而不利于另一部分群體的結(jié)果.很多身份因素引發(fā)的所謂“歧視”,只是為了克服信息不對稱而進行的一種理性篩選[24].隨著社會的發(fā)展,原本不合理的統(tǒng)計數(shù)據(jù)會得到修正,算法歧視也會逐漸消弭[25].如果反算法歧視只是為了維持固有的社會觀念,那也就放棄了利用算法來矯正不合理的社會價值觀的可能.

        2.3.3 邁向通用人工智能

        根據(jù)埃米爾·波雷爾提出的“無限猴子定理”,如果讓一只猴子在打字機上持續(xù)敲擊鍵盤敲擊無限長的時間,它就能在某一時間打出任何特定的文本.GPT4也可以被視為這樣一只“猴子”.GPT4的模型是基于統(tǒng)計學建立的,早期GPT4的能力曲線會隨著數(shù)據(jù)量的增長而持續(xù)上升.但是任何模型都有其能力邊界,不可能實現(xiàn)無限拓展.在數(shù)據(jù)積累到一定規(guī)模后必然會遇到發(fā)展瓶頸.從促進AI技術(shù)發(fā)展的角度考慮,OpenAI公司應(yīng)持續(xù)優(yōu)化算法,把GPT4的未來發(fā)展目標定為真正的通用人工智能(AGI).技術(shù)樂觀者認為GPT4是通往AGI的“康莊大道”,如微軟在對GPT4早期版本進行系統(tǒng)調(diào)查后,認為GPT4在功能的廣度和深度上已經(jīng)大大超過了從前包括ChatGPT在內(nèi)的所有AI大模型,可以將其視為早期版本的AGI[26].也有學者指出,目前NLP領(lǐng)域仍存在一些無法逾越的鴻溝,GPT4的表現(xiàn)機械性有余但靈活性不足,討論AGI或許還為時尚早[27].圖靈測試是AI智能程度判斷的重要標準,阿蘭·圖靈認為如果機器能夠在模仿游戲中表現(xiàn)得和人類無法區(qū)分,就應(yīng)被認為具備人類智能[28].但是根據(jù)約翰·賽爾提出的“中文屋”論證,即使GPT4通過了圖靈測試也不必然代表其已經(jīng)擁有人類級別的智能[29].GPT4雖然比AlphaGO這樣的專用AI更為全面,但還不具備在無監(jiān)督條件下自行根據(jù)人物和語境切換工作知識域的能力,無法像人類一樣勝任各種任務(wù)[30].為了讓GPT4更接近于人類思維,通過代碼和算法上的改變讓GPT4具備元學習的能力,以已有的經(jīng)驗來指導新任務(wù)的學習[31],或許能讓雷蒙德·庫茲韋爾提出的“奇點”時刻早日到來.如今關(guān)于元學習的研究方興未艾,參考類腦AI的研究思路,借鑒腦科學研究中人腦的神經(jīng)回路和運行機制[32],也有助于打破傳統(tǒng)馮·諾依曼架構(gòu)體系的局限性,引導GPT4走向真正的AGI.

        3 引申討論:GPT4未來規(guī)制何以可能

        社會制度的相對穩(wěn)定性與技術(shù)發(fā)展的超前性之間一直存在著無法調(diào)和的矛盾.AI技術(shù)的飛速發(fā)展使社會陷入了“科林格里奇困境”,即在技術(shù)發(fā)展的早期尚無法預見其社會后果.當技術(shù)控制的需求變得強烈時它已經(jīng)融合為社會結(jié)構(gòu)的一部分,對其控制將極為困難.GPT4的“潘多拉魔盒”已經(jīng)打開,人們需要客觀地認識到開弓沒有回頭箭,避免“寸板不許下海”的錯誤重演[33].《禮記·中庸》有云:“凡事豫則立,不豫則廢”,在GPT4的伴生風險變得復雜和不可控之前,有必要未雨綢繆進行事前規(guī)制.做到防微杜漸、謹慎發(fā)展,引導科技向善.

        3.1 總體規(guī)制思路

        在諸如GPT4之類生成式AI大模型的規(guī)制方案上,國內(nèi)外多領(lǐng)域的專家學者都進行了深入的研究,并提出了獨特的觀點和見解.有學者指出,現(xiàn)階段的AI監(jiān)管重點仍應(yīng)放在傳統(tǒng)AI模型上,但為更好地適應(yīng)生成式AI大模型帶來的具體風險,有必要充分發(fā)揮技術(shù)中立型法律的作用,不斷更新技術(shù)監(jiān)管規(guī)則[34].也有學者建議靈活組合“先發(fā)展,再治理”和“邊發(fā)展,邊管理”2種節(jié)奏,秉承審慎包容的管理思維與邏輯,逐步建立針對性的多元治理體系[35].還有學者認為,討論GPT4的監(jiān)管方案時需要審慎考量監(jiān)管手段,實時評估技術(shù)創(chuàng)新與強監(jiān)管間的關(guān)系,探索通過監(jiān)管沙盒的技術(shù)試點方式,在鼓勵發(fā)展的同時將可能產(chǎn)生的負面效應(yīng)控制在一定范圍內(nèi)[36].淺見以為,AI技術(shù)的發(fā)展給現(xiàn)有法律制度帶來的挑戰(zhàn)并未超出數(shù)據(jù)安全、知識產(chǎn)權(quán)、算法規(guī)制等常見風險問題的范疇.考慮到GPT4的數(shù)據(jù)規(guī)模、運算效率、模型精度等仍在不斷進步和完善,且GPT4目前并未面向我國開放,設(shè)計具體詳盡的規(guī)制方案為時尚早.GPT4本質(zhì)上是一種為人服務(wù)的輔助性工具,在規(guī)制時應(yīng)以AI技術(shù)的發(fā)展現(xiàn)狀為根本,貫徹“以人為本”的核心理念,讓其更好地為人服務(wù).在當前的發(fā)展階段,先切實做好頂層設(shè)計性質(zhì)的總體性法律規(guī)制方案,把技術(shù)裝進制度的“籠子”里才是更符合實際需求的規(guī)制思路.

        3.2 推進AI專項立法

        從立法角度來說,世界范圍內(nèi)已就AI領(lǐng)域的專門立法形成共識,2017年至今已有近70個國家出臺了AI領(lǐng)域的專門法規(guī),如歐盟的《人工智能法案》、美國的《國家人工智能倡議法案》等[37].2017年7月國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中提出了AI領(lǐng)域立法“三步走”的戰(zhàn)略目標:2020年,部分領(lǐng)域的AI倫理規(guī)范和政策法規(guī)初步建立;2025年,初步建立AI法律法規(guī)、倫理規(guī)范和政策體系;2030年,形成較為成熟的新一代AI理論與技術(shù)體系.目前我國AI專項立法規(guī)制體系尚付闕如,2022年9月我國首部AI產(chǎn)業(yè)專項立法《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》才姍姍來遲.法律規(guī)范數(shù)量少、層級低,缺乏頂層設(shè)計和統(tǒng)籌規(guī)劃的問題較為突出,應(yīng)正視我國在AI監(jiān)管上與歐美發(fā)展水平存在的現(xiàn)實差距,盡快把GPT4的應(yīng)用發(fā)展納入法制化軌道.數(shù)字時代新技術(shù)與舊傳統(tǒng)碰撞下形成的中國問題具有其特殊性,很難簡單地通過對西方國家已有方案的“移植”或“比附”來解決.今后應(yīng)拓寬立法視野、完善立法內(nèi)容,尋求數(shù)字時代的自主創(chuàng)新.淺見以為,法律是需要順時而變的.考慮到GPT4實踐中產(chǎn)生的隱私泄露、版權(quán)侵權(quán)、算法歧視等風險問題,應(yīng)通過AI專項立法的頂層設(shè)計為GPT4的應(yīng)用場景和產(chǎn)出內(nèi)容劃定紅線、標明底線.同時,借助媒體、企業(yè)等渠道做好全方位的GPT4使用指引,讓社會公眾認清GPT4的技術(shù)本質(zhì),理性、客觀、審慎地使用GPT4,堅持守住底線、不越紅線,通過法律賦能社會治理.

        3.3 擴展算法治理規(guī)范

        在GPT4的規(guī)制上不能一味地盲目追求創(chuàng)新,應(yīng)考慮擴展我國已有的算法治理規(guī)范.2023年4月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《管理辦法》).《管理辦法》第16條指出,生成式AI服務(wù)提供者應(yīng)根據(jù)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《管理規(guī)定》)對生成的圖片、視頻等內(nèi)容進行標識.2023年1月10日起施行的《管理規(guī)定》第23條中以開放式的規(guī)定將“深度合成”技術(shù)定義為利用生成合成類算法制作網(wǎng)絡(luò)信息的技術(shù).《管理規(guī)定》在效力位階上屬于部門規(guī)章,其上位法有《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等法律、行政法規(guī),監(jiān)管機構(gòu)包括中央和地方網(wǎng)信部門、電信主管部門和公安部門,自上而下織起了一張系統(tǒng)完備的法律監(jiān)管網(wǎng)絡(luò).盡管以預訓練為基礎(chǔ)的生成式AI大模型和《管理規(guī)定》的適用對象DeepFake并非完全匹配[38],但是淺見以為,從技術(shù)屬性出發(fā)對GPT4作出探究和定義難有定論.在探討法律角度對GPT4的規(guī)制方案時應(yīng)具有一定的前瞻性和預見性,把目光更多集中于GPT4的宏觀經(jīng)濟價值,即它對于公眾、經(jīng)濟、社會的影響[39].當下處于AIGC頂端的GPT4正在推動制造業(yè)、金融科技、投資營銷等諸多領(lǐng)域的轉(zhuǎn)型升級[40],盡快將其納入法治軌道是推動我國經(jīng)濟社會高質(zhì)量發(fā)展的應(yīng)有之義.從技術(shù)特點和原理上看,生成式AI與深度合成技術(shù)高度重合.未來應(yīng)進一步厘清《管理辦法》和《管理規(guī)定》的銜接與適用方式,通過對《管理規(guī)定》中深度合成技術(shù)概念上的細微調(diào)整,將生成式AI納入深度合成技術(shù)的范疇[41].

        4 結(jié)束語

        如今GPT4正在無孔不入地滲透到人們?nèi)粘I畹母鱾€層面,AI時代已經(jīng)悄然來臨.AI時代的到來是科技發(fā)展到一定歷史階段的必然結(jié)果,可以預想今后接近乃至超越GPT4的模型會接連不斷地涌現(xiàn).黨的二十大報告指出,要推動新興產(chǎn)業(yè)融合發(fā)展,構(gòu)建信息技術(shù)、AI等新一批增長引擎.我國AI產(chǎn)業(yè)正駛在發(fā)展的快車道上,AI已成為制造強國和網(wǎng)絡(luò)強國建設(shè)的新動力引擎.人們在享受AI技術(shù)帶來的便利時也應(yīng)警惕其背后的風險與挑戰(zhàn).以GPT4應(yīng)用時數(shù)據(jù)、產(chǎn)權(quán)、算法等方面的內(nèi)生風險為切入點,探討GPT4發(fā)展中存在的問題具有其理論意義與實踐價值.GPT4未來發(fā)展充滿不確定性,今后應(yīng)進一步結(jié)合市場發(fā)展情況和我國國情,從技術(shù)和制度層面強化對GPT4風險治理的研究[42].在我國已有實踐成果的基礎(chǔ)上尋求自主創(chuàng)新,積極探索趨利避害的可行路徑,協(xié)調(diào)好長遠與當下的關(guān)系,構(gòu)建更符合技術(shù)發(fā)展的制度環(huán)境.

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機模型
        提煉模型 突破難點
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        久久久精品2019免费观看| 午夜久久久久久禁播电影| 日韩精品成人区中文字幕| 夜夜躁日日躁狠狠久久av| 日本精品啪啪一区二区| 成人av天堂一区二区| 91精品国产乱码久久久| 成在线人免费视频播放| av高清视频在线麻豆免费观看| 成人免费毛片立即播放| 亚洲av中文字字幕乱码软件| 阴唇两边有点白是怎么回事| 四虎永久在线精品免费一区二区| 在线看无码的免费网站| 骚小妹影院| 激情久久无码天堂| 中文字幕国产精品专区| 国产人妖视频一区二区| 日韩少妇人妻中文字幕| 亚洲av网一区二区三区| 久久亚洲精品成人无码| 亚洲中文字幕无码不卡电影| 免费超爽大片黄| 99久久久无码国产精品免费砚床| 狠狠躁夜夜躁AV网站中文字幕| 国产精品无码久久久久下载| 久久精品国产亚洲AV古装片| 亚洲在中文字幕乱码熟女| 精品国产一区二区三区性色| 亚洲精品国偷拍自产在线| 天天做天天摸天天爽天天爱 | 男女猛烈无遮挡免费视频| 亚洲精品无码不卡在线播放he| 亚洲人成网址在线播放| 精品免费久久久久久久| 四虎影视免费永久在线观看| 免费大片黄在线观看| 亚洲三级黄色| av免费网站在线免费观看| 国产麻豆剧传媒精品国产av| 国产av自拍视频在线观看|