亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)及其法律規(guī)制

        2024-01-01 00:00:00劉輝雷崎山
        關(guān)鍵詞:生成式人工智能智能算法法律規(guī)制

        摘要:生成式人工智能在引領(lǐng)技術(shù)變革的同時(shí)也引發(fā)了諸多法律風(fēng)險(xiǎn)。根據(jù)生成式人工智能的運(yùn)行機(jī)理,可以發(fā)現(xiàn)其中存在四大類數(shù)據(jù)安全風(fēng)險(xiǎn),其主要原因在于算法高度信任對法益保護(hù)的沖擊、技術(shù)演變中科技倫理規(guī)范的缺失以及用戶數(shù)據(jù)主體權(quán)利保障不足等。針對生成式人工智能在數(shù)據(jù)輸入階段的數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn),研發(fā)企業(yè)內(nèi)部應(yīng)制定具有可操作性的數(shù)據(jù)合規(guī)計(jì)劃,并在合規(guī)計(jì)劃中制定詳細(xì)具體的風(fēng)險(xiǎn)規(guī)制措施,強(qiáng)化企業(yè)合規(guī)經(jīng)營;與此同時(shí),通過多種措施積極響應(yīng)用戶對于數(shù)據(jù)主體權(quán)利的請求,確保模型訓(xùn)練數(shù)據(jù)來源合法合規(guī)。針對生成式人工智能在模型處理階段的算法黑箱與算法偏見風(fēng)險(xiǎn),應(yīng)加大監(jiān)管力度,重點(diǎn)關(guān)注算法的安全性與公平性,積極推進(jìn)并完善相關(guān)立法,細(xì)化算法備案和算法解釋義務(wù),提高算法技術(shù)透明度,落實(shí)算法主體責(zé)任。針對生成式人工智能在內(nèi)容輸出階段的數(shù)據(jù)濫用風(fēng)險(xiǎn),應(yīng)優(yōu)化監(jiān)管機(jī)制,實(shí)現(xiàn)全鏈條合法性監(jiān)管,完善科研倫理規(guī)范并予以實(shí)質(zhì)審查,引領(lǐng)技術(shù)向善,實(shí)現(xiàn)科技向善治理。針對生成式人工智能在數(shù)據(jù)存儲階段的數(shù)據(jù)泄漏風(fēng)險(xiǎn),應(yīng)通過技術(shù)與管理制度相結(jié)合的方式進(jìn)行全方位規(guī)制,嚴(yán)格控制數(shù)據(jù)共享范圍并貫徹?cái)?shù)據(jù)分級分類保護(hù),及時(shí)有效地防范數(shù)據(jù)泄露風(fēng)險(xiǎn)。

        關(guān)鍵詞:智能算法;生成式人工智能;數(shù)據(jù)風(fēng)險(xiǎn);法律規(guī)制

        中圖分類號:D902;D912.1;D912.29

        文獻(xiàn)標(biāo)識碼:A

        文章編號:1673-8268(2024)04-0040-12

        生成式人工智能的廣泛應(yīng)用,需要豐富的數(shù)據(jù)資源支撐其算法運(yùn)算。但這也對數(shù)據(jù)的收集和處理過程提出了更高要求,該過程中所存在的數(shù)據(jù)泄露、算法濫用等風(fēng)險(xiǎn)也將引發(fā)一系列數(shù)據(jù)安全隱患。我國對人工智能的法律規(guī)制始于2017年。為了構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢,加快科技強(qiáng)國建設(shè),2017年7月,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出了人工智能三步走的戰(zhàn)略發(fā)展目標(biāo)。2019年,《新一代人工智能治理原則》《新一代人工智能倫理規(guī)范》相繼出臺,提出“發(fā)展負(fù)責(zé)任的人工智能”。2022年,我國各地開始逐漸重視人工智能產(chǎn)業(yè)的發(fā)展;當(dāng)年9月,深圳正式發(fā)布我國首部人工智能產(chǎn)業(yè)專項(xiàng)立法《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》。2023年,ChatGPT的面世和大語言模型的涌現(xiàn)給人工智能治理帶來了更大的挑戰(zhàn)。

        對于生成式人工智能引發(fā)的數(shù)據(jù)風(fēng)險(xiǎn),我國目前主要通過《中華人民共和國網(wǎng)絡(luò)安全法》為行文簡潔,下文涉及我國法律文本名稱時(shí),均將“中華人民共和國”省略?!稊?shù)據(jù)安全法》《個(gè)人信息保護(hù)法》并結(jié)合《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦規(guī)定》)、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《深度合成管理規(guī)定》)、《科技倫理審查辦法(試行)》(征求意見稿)、《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)對其實(shí)施規(guī)制。從近幾年出臺的《算法推薦規(guī)定》《深度合成管理規(guī)定》等規(guī)范名稱不難看出,我國對于AI傾向于區(qū)分不同技術(shù)方向進(jìn)行規(guī)制,監(jiān)管范圍有限,相關(guān)管理規(guī)范的出臺往往是為了應(yīng)時(shí)解決某一熱點(diǎn)問題,立法上呈現(xiàn)出分散化趨勢。與生成式人工智能行業(yè)直接相關(guān)的《暫行辦法》多為倡導(dǎo)性、原則性的規(guī)定,有關(guān)數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制的具體應(yīng)用場景細(xì)則還有待完善?;诖?,本文擬從生成式人工智能運(yùn)作邏輯的不同階段中潛在的數(shù)據(jù)風(fēng)險(xiǎn)出發(fā),剖析當(dāng)前數(shù)據(jù)風(fēng)險(xiǎn)加劇的深層次原因,通過比較域外經(jīng)驗(yàn),以我國現(xiàn)有的數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制法律框架的規(guī)定為基礎(chǔ),結(jié)合我國生成式人工智能行業(yè)發(fā)展與最新立法實(shí)踐,就生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)提出有針對性的建議,以期更好地推動生成式人工智能產(chǎn)業(yè)安全有序地發(fā)展。

        一、生成式人工智能誘發(fā)的數(shù)據(jù)風(fēng)險(xiǎn)

        隨著大語言模型應(yīng)用帶來的智能涌現(xiàn)和生成式人工智能內(nèi)容輸出質(zhì)量的提升,AI技術(shù)所帶來的潛在風(fēng)險(xiǎn)也更加深不可測。ChatGPT-4發(fā)布后不久,意大利數(shù)據(jù)保護(hù)局就以“違法收集數(shù)據(jù)”為由, 將其暫時(shí)禁止使用[1],加拿大聯(lián)邦隱私監(jiān)管局也因OpenAI涉嫌“未經(jīng)同意處理個(gè)人信息”而展開調(diào)查[2]。生成式人工智能的運(yùn)作核心主要是通過算法對訓(xùn)練數(shù)據(jù)集進(jìn)行加工和生成輸出,在機(jī)器學(xué)習(xí)運(yùn)行過程中需經(jīng)過“數(shù)據(jù)輸入、模型處理、內(nèi)容輸出與數(shù)據(jù)存儲”四個(gè)階段,涉及數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)、算法風(fēng)險(xiǎn)、數(shù)據(jù)濫用風(fēng)險(xiǎn)與數(shù)據(jù)泄露風(fēng)險(xiǎn)等不同類型的法律風(fēng)險(xiǎn)。需要注意的是,算法風(fēng)險(xiǎn)不僅存在于模型處理階段,各個(gè)階段算法技術(shù)的嵌入都會放大其引發(fā)的數(shù)據(jù)安全風(fēng)險(xiǎn),即在生成式人工智能應(yīng)用過程中,數(shù)據(jù)風(fēng)險(xiǎn)與算法風(fēng)險(xiǎn)相互作用、相互生成。為了更好促進(jìn)生成式人工智能產(chǎn)業(yè)安全有序地發(fā)展,有必要以其應(yīng)用的技術(shù)邏輯為基礎(chǔ),對其應(yīng)用過程中可能誘發(fā)的數(shù)據(jù)風(fēng)險(xiǎn)進(jìn)行分析。

        (一)數(shù)據(jù)輸入:數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)

        人工智能大語言模型的應(yīng)用需要大量數(shù)據(jù)的支持,其在“學(xué)習(xí)”大量文本語料的構(gòu)建過程中存在各種各樣的數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)。在以自動識別算法、網(wǎng)絡(luò)爬蟲等技術(shù)方式通過互聯(lián)網(wǎng)等公開渠道獲取數(shù)據(jù)時(shí),其對于個(gè)人數(shù)據(jù)的收集邊界是模糊的。例如,ChatGPT在訓(xùn)練的過程中爬取了某點(diǎn)評網(wǎng)站上關(guān)于某餐飲店的評價(jià),但由于某用戶在點(diǎn)評時(shí)透露了自身的個(gè)人信息,該部分個(gè)人信息進(jìn)入到模型語料庫,進(jìn)而涉嫌侵犯他人個(gè)人信息權(quán)益。進(jìn)一步而言,ChatGPT要生成精確度更高的答案,就需要學(xué)習(xí)歸納更多的數(shù)據(jù)。盡管很多與用戶有關(guān)的個(gè)人數(shù)據(jù)和當(dāng)事人想獲得的答案之間沒有直接的關(guān)系,但是,ChatGPT還是會在應(yīng)用過程中收集這類數(shù)據(jù),并利用知識蒸餾的方法開展深度學(xué)習(xí)[3]。根據(jù)我國《個(gè)人信息保護(hù)法》的規(guī)定,個(gè)人信息處理者取得個(gè)人同意后才可以處理個(gè)人信息,若ChatGPT獲取、利用的數(shù)據(jù)集中包含公民個(gè)人信息,則必須取得用戶同意后才能對其進(jìn)行處理,但在現(xiàn)實(shí)應(yīng)用過程中,逐一征求用戶同意基本不可能實(shí)現(xiàn)[4]。除此之外,ChatGPT對于個(gè)人數(shù)據(jù)還可能存在過度分析利用的法律風(fēng)險(xiǎn),因?yàn)镃hatGPT收集個(gè)人數(shù)據(jù)的邊界模糊,所以其往往通過算法技術(shù)對數(shù)據(jù)進(jìn)行深度分析,以此來提升答案的準(zhǔn)確性[5]。那么,如何審核個(gè)人信息來源的合法性和個(gè)人的授權(quán)情況、最大限度減少侵犯他人個(gè)人信息權(quán)益的合規(guī)風(fēng)險(xiǎn)就亟待解決。

        除個(gè)人信息收集場景之外,在獲取文本語料時(shí),還可能會因?yàn)槲凑鞯脵?quán)利人許可復(fù)制、改編或者傳播而涉嫌侵犯他人知識產(chǎn)權(quán)。2023年12月27日,作為全世界最有影響力的新聞機(jī)構(gòu)之一的《紐約時(shí)報(bào)》正式起訴OpenAI和微軟,指控被告未經(jīng)許可使用《紐約時(shí)報(bào)》的數(shù)百萬篇文章訓(xùn)練ChatGPT,嚴(yán)重侵害了《紐約時(shí)報(bào)》的版權(quán)[6]。除此之外,在大模型的靜態(tài)與動態(tài)訓(xùn)練的過程中,可能會出現(xiàn)使用來源不明或者非法的數(shù)據(jù)信息的情況;如果前述信息中包含商業(yè)秘密,那么依據(jù)競爭法的相關(guān)規(guī)定,將構(gòu)成對他人商業(yè)秘密的侵害,未經(jīng)授權(quán)通過自動識別算法、利用網(wǎng)絡(luò)工具爬取數(shù)據(jù)的行為還可能構(gòu)成不正當(dāng)競爭。

        (二)模型處理:算法風(fēng)險(xiǎn)

        對于生成式人工智能而言,數(shù)據(jù)是生成式人工智能技術(shù)應(yīng)用的基礎(chǔ),算法是通過技術(shù)手段重構(gòu)數(shù)據(jù)并使其產(chǎn)生價(jià)值的方式。能否恰當(dāng)?shù)厥褂盟惴夹g(shù)分析處理數(shù)據(jù),是考量此類高度智能化的大語言模型在實(shí)際應(yīng)用中是否安全的重要因素之一。大模型的算法內(nèi)部機(jī)制和決策過程不可解釋或者難以理解,導(dǎo)致算法的輸出結(jié)果存在無法解釋的“黑洞”,即產(chǎn)生“算法黑箱”風(fēng)險(xiǎn)[7]。此外,算法開發(fā)者往往傾向于隱藏算法決策的規(guī)則,故而其對于被決策主體缺乏透明性,可能會導(dǎo)致用戶難以理解模型的決策過程和預(yù)測結(jié)果,進(jìn)而無法評估模型的可靠性和穩(wěn)定性。目前,世界上許多國家都試圖通過法律或其他措施推動企業(yè)進(jìn)行算法公開,即算法服務(wù)提供商有責(zé)任披露算法并解釋算法決策的底層邏輯,以應(yīng)對“算法黑箱”的消極影響[8]。

        生成式人工智能模型內(nèi)部機(jī)制的不透明性,給模型處理過程中誘發(fā)的算法歧視、算法偏見風(fēng)險(xiǎn)治理帶來了挑戰(zhàn)。既有研究表明,生成式人工智能會從訓(xùn)練數(shù)據(jù)中復(fù)制有害的社會偏見和刻板印象[9]。在數(shù)據(jù)輸入階段,算法對人類語言的理解就無法保證做到完全準(zhǔn)確。如果其本身的算法規(guī)則對某些特定的個(gè)體或群體存在偏見,加之?dāng)?shù)據(jù)集本身就存在固有偏見時(shí),那么大語言模型算法在應(yīng)用、決策或預(yù)測時(shí)衍生出的結(jié)果一定存在某種偏見。普林斯頓大學(xué)的一項(xiàng)研究表明:由于受到訓(xùn)練數(shù)據(jù)集和語言模型中社會偏見的影響,ChatGPT的生成內(nèi)容顯示出對某些特定種族有很強(qiáng)的敵意,而在使用過程中,假使ChatGPT被賦予某種負(fù)面的人格特質(zhì),其回答也將含有歧視性偏見、錯(cuò)誤的刻板印象等有害內(nèi)容[10]。此外,眾多AI偽造合成的數(shù)據(jù)可能會被保留甚至流入互聯(lián)網(wǎng),這些帶有偏見的合成數(shù)據(jù)有可能再次被用于機(jī)器學(xué)習(xí),在機(jī)器不斷進(jìn)行自我學(xué)習(xí)的進(jìn)程中,這種偏見將會被持續(xù)加深強(qiáng)化,導(dǎo)致偏見、歧視的惡性迭代循環(huán)[11]。

        (三)內(nèi)容輸出:數(shù)據(jù)濫用風(fēng)險(xiǎn)

        關(guān)于生成式人工智能模型的數(shù)據(jù)濫用風(fēng)險(xiǎn),當(dāng)前主要存在兩個(gè)日益嚴(yán)重的問題:一是算法濫用導(dǎo)致AI生成的虛假信息泛濫,二是AI詐騙等網(wǎng)絡(luò)犯罪活動猖獗。ChatGPT類生成式人工智能模型的主要目標(biāo)是模擬人類語言,而不是提供一個(gè)準(zhǔn)確的回答。因此,為了獲得用戶的認(rèn)可,它往往傾向于優(yōu)先考慮編造虛假信息來提供一個(gè)清楚的回應(yīng)而不是精確的答案。也就是說,生成式人工智能在輸出內(nèi)容時(shí),可能會一本正經(jīng)地胡說八道,并制造出一些虛假信息。舉例來說,盡管生成式人工智能應(yīng)用的算法訓(xùn)練數(shù)據(jù)集中沒有谷歌公司的營業(yè)數(shù)據(jù),但被問到谷歌公司當(dāng)年的營業(yè)收入時(shí),它可能會給出一個(gè)隨機(jī)的數(shù)字進(jìn)行回答(例如213億美元)[12]。生成式人工智能擁有超乎想象的數(shù)據(jù)加工、生成和傳播能力,因而極有可能會被不法分子利用,成為強(qiáng)化黑客攻擊和威脅網(wǎng)絡(luò)安全的工具[13]。近年來,關(guān)于AI詐騙的報(bào)道屢見不鮮,AI技術(shù)不僅能偽造他人面孔,還能模仿和合成他人聲音。生成式人工智能的進(jìn)一步發(fā)展更是讓不法分子擁有了更大的作惡能力,其憑借深度合成技術(shù)可以降低成本、提高效率來偽造圖片視頻,生成虛假信息,以此實(shí)施侮辱、誹謗、詐騙等網(wǎng)絡(luò)犯罪行為,給網(wǎng)絡(luò)安全和社會秩序造成嚴(yán)重危害。

        (四)數(shù)據(jù)存儲:數(shù)據(jù)泄露風(fēng)險(xiǎn)

        基于大語言模型強(qiáng)大的系統(tǒng)學(xué)習(xí)能力以及交互方式上相對的自由,這些數(shù)據(jù)的安全性往往無法有效保障,在交互過程中存在較大的數(shù)據(jù)泄露風(fēng)險(xiǎn)。其通常表現(xiàn)為以下三種類型:一是涉及用戶生物識別信息、健康信息等個(gè)人數(shù)據(jù)泄露而引發(fā)的隱私權(quán)侵害問題;二是企業(yè)內(nèi)部在使用生成式人工智能產(chǎn)品過程中,操作不當(dāng)或者模型固有缺陷導(dǎo)致商業(yè)機(jī)密泄露而引發(fā)的不正當(dāng)競爭問題;三是因泄露國家秘密引發(fā)的威脅國家安全問題[14]94。雖然生成式人工智能服務(wù)提供者往往會通過聲明或在用戶協(xié)議中設(shè)置相應(yīng)條款的方式來保證采取匿名、加密等方式對數(shù)據(jù)進(jìn)行安全防護(hù),但是,大量的公開報(bào)道表明,數(shù)據(jù)泄露風(fēng)險(xiǎn)并非空穴來風(fēng)。比如,OpenAI官方在2023年3月24日發(fā)布聲明稱,有1.2%的ChatGPT Plus的用戶數(shù)據(jù)存在數(shù)據(jù)泄露風(fēng)險(xiǎn),其中包含姓名、聊天記錄片段、電子郵箱和付款地址等信息[15]。再比如,據(jù)韓國媒體報(bào)道,三星內(nèi)部已先后發(fā)生三起誤用、濫用ChatGPT案例,其研發(fā)人員在嘗試使用ChatGPT對源代碼進(jìn)行修補(bǔ)的過程中, 反而被ChatGPT掌握了新程序的源代碼以及其他企業(yè)機(jī)密數(shù)據(jù)[16]。為了避免上述情況的發(fā)生,目前已經(jīng)有眾多企業(yè)明確禁止員工使用生成式人工智能模型,包括德意志銀行、摩根大通、高盛、花旗等公司。不難看出,由于生成式人工智能模型具有感知敏感信息的能力,不管訓(xùn)練數(shù)據(jù)集是否包含隱私信息,即使使用者不存在疏忽也有可能因算法技術(shù)漏洞而發(fā)生數(shù)據(jù)泄露。雖然保障數(shù)據(jù)安全的加密技術(shù)正在不斷完善,但是,面對未來生成式人工智能技術(shù)的大規(guī)模應(yīng)用趨勢,依然會有不容忽視的數(shù)據(jù)安全風(fēng)險(xiǎn)[17]21。

        二、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)生成的原因

        (一)算法高度信任對法益保護(hù)的沖擊

        算法作為技術(shù)進(jìn)步和現(xiàn)實(shí)需要雙重驅(qū)動下的產(chǎn)物,因低成本、高效率的優(yōu)勢被廣泛應(yīng)用于各大行業(yè),人們逐漸習(xí)慣于甚至依賴于通過算法程序認(rèn)知世界。生成式人工智能的橫空出世,強(qiáng)化了人們心中對算法的強(qiáng)大信息處理能力、精準(zhǔn)推薦能力的認(rèn)知,加之經(jīng)濟(jì)性和易獲取性,當(dāng)下社會中生成式人工智能的應(yīng)用開始流行,在一定程度上也可被看作對搜索算法的依賴。算法信任不僅包含人們信任算法生成內(nèi)容是準(zhǔn)確、可靠的主觀意識,還包含了人們信任算法決策不會對自身產(chǎn)生不良影響的合理預(yù)期[18]。但事實(shí)上,生成式人工智能利用算法在學(xué)習(xí)和模擬人類思維運(yùn)行時(shí),既然可以模擬人類的優(yōu)點(diǎn),也無法避免模擬人類的缺點(diǎn)。而且,算法并不總是值得被信任,開發(fā)者完全可以在算法中加入自己的偏見,即算法本身的可信度存疑。盡管生成式人工智能技術(shù)本身是中立的,但由于價(jià)值缺失或者設(shè)計(jì)缺陷等原因,算法風(fēng)險(xiǎn)極易對法益保護(hù)產(chǎn)生沖擊。在算法高度信任的背景下,即使生成式人工智能應(yīng)用頁面標(biāo)注了風(fēng)險(xiǎn)提示,用戶也可能不以為意甚至忽視其提示,疏于調(diào)查求證其給出的醫(yī)療建議是否具有科學(xué)性便直接應(yīng)用[19]。此外,生成式人工智能開發(fā)者的本質(zhì)仍是營利法人,對于算法的開發(fā)、升級不可避免具有逐利性。因此,即使算法應(yīng)用初期合法合規(guī),但其算法設(shè)計(jì)將或多或少受到市場經(jīng)濟(jì)利益的影響而忽略法律價(jià)值和權(quán)利保障的目標(biāo),從而引起侵害社會公眾法益、影響市場競爭等社會公共秩序的風(fēng)險(xiǎn)。

        (二)技術(shù)演變中科技倫理規(guī)范的缺失

        在技術(shù)演變過程中,科技創(chuàng)新要遵循科技道德的價(jià)值觀念和行為準(zhǔn)則,才能有力保障科技產(chǎn)業(yè)的安全有序發(fā)展。當(dāng)前,生成式人工智能技術(shù)正日趨成熟,其適用范圍逐漸向本屬于人類具有獨(dú)創(chuàng)性價(jià)值的領(lǐng)域深入。然而,在這些領(lǐng)域內(nèi),還沒有形成完整的生成式人工智能技術(shù)使用理念和行為準(zhǔn)則,很容易在生成式人工智能技術(shù)應(yīng)用過程中產(chǎn)生一些與科技倫理道德相違背的、不安全、不可控的風(fēng)險(xiǎn)[17]19??萍紓惱淼赖嘛L(fēng)險(xiǎn)的出現(xiàn),一方面是基于生成式AI技術(shù)本身的缺陷,例如訓(xùn)練數(shù)據(jù)集本身就不具有代表性,容易產(chǎn)生偏見、刻板印象等歧視;另一方面,也可能是基于用戶對生成式AI模型的濫用,例如用戶利用生成式AI模型偽造論文、制造謠言等破壞社會秩序。

        技術(shù)本身并無價(jià)值向度,但人會賦予其價(jià)值向度[20]。近期歐洲議會通過的《人工智能法案》的談判授權(quán)草案,明確聲明嚴(yán)格禁止“對人類安全造成不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)”[21]。從兼顧生成式人工智能技術(shù)的可持續(xù)健康發(fā)展、維護(hù)公民權(quán)益和社會利益的角度出發(fā),應(yīng)在遵守技術(shù)向善原則的基礎(chǔ)上,通過立法規(guī)定要求技術(shù)研發(fā)與使用行為遵守公序良俗和社會公德。2023年7月13日,國家互聯(lián)網(wǎng)信息辦公室(以下簡稱“國家網(wǎng)信辦”)公布《暫行辦法》,明確規(guī)定有關(guān)生成式人工智能的內(nèi)容要合法合規(guī)、禁止算法歧視、不得生成虛假信息、不得侵犯他人合法權(quán)益等相關(guān)內(nèi)容,這對于應(yīng)對生成式人工智能可能帶來的倫理道德風(fēng)險(xiǎn)具有重要的引導(dǎo)性作用。但相關(guān)科技倫理規(guī)范仍不夠明確化、具體化和制度化,如何應(yīng)對生成式人工智能可能帶來的倫理道德風(fēng)險(xiǎn),仍將成為較長時(shí)間內(nèi)人類與AI相處過程中的重要議題。

        (三)用戶數(shù)據(jù)主體權(quán)利保障不足

        生成式人工智能系統(tǒng)在開發(fā)、部署以及應(yīng)用過程中所有需要使用個(gè)人數(shù)據(jù)的環(huán)節(jié),均要考慮對主體數(shù)據(jù)權(quán)利的保護(hù)。但實(shí)際上,數(shù)據(jù)主體的知情權(quán)、更正權(quán)、刪除權(quán)等數(shù)據(jù)權(quán)利的實(shí)現(xiàn)并不樂觀。例如,近期一款由用戶上傳照片后依據(jù)AI能力再度“生成”同一人照片的AIGC類應(yīng)用“妙鴨相機(jī)”獲得廣泛關(guān)注,其近似“霸王條款”的用戶協(xié)議也飽受爭議。據(jù)媒體報(bào)道,妙鴨相機(jī)初版用戶協(xié)議的“授權(quán)許可”條款用一句話概括就是:用戶授權(quán)妙鴨相機(jī),無償且永久地使用該信息[22]。不難看出,在人工智能時(shí)代,企業(yè)對數(shù)據(jù)要素的爭奪愈發(fā)激烈,用戶很容易陷入被動的位置,其數(shù)據(jù)隱私安全面臨的挑戰(zhàn)日益嚴(yán)峻。

        生成式人工智能訓(xùn)練數(shù)據(jù)集的建設(shè)與改進(jìn)可以被劃分為主動和被動兩種類型。在被動組建過程中,系統(tǒng)將自動保存人機(jī)交互過程中用戶輸入的信息并將其納入訓(xùn)練數(shù)據(jù)庫[23]。這種高度自動化的數(shù)據(jù)收集過程中,不能及時(shí)與數(shù)據(jù)主體進(jìn)行交流,容易導(dǎo)致對知情同意原則的適用陷入困境。實(shí)際上,對數(shù)據(jù)享有實(shí)際控制權(quán)的一方并不會止步于初步掌握數(shù)據(jù)原始主體披露的數(shù)據(jù),而往往會通過多種智能分析技術(shù)不斷對其進(jìn)行挖掘與再識別,找出零散數(shù)據(jù)間的特殊關(guān)聯(lián),進(jìn)而可能打破對數(shù)據(jù)的匿名化、侵犯用戶隱私[24]??梢姡墒饺斯ぶ悄苓@個(gè)超大型語言模型由于在應(yīng)用過程中存在過度收集行為和其數(shù)據(jù)挖掘原則尚不明確,故在維護(hù)用戶數(shù)據(jù)安全、落實(shí)用戶數(shù)據(jù)主體權(quán)利方面應(yīng)滿足更高的要求。

        三、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制的域外經(jīng)驗(yàn)

        任何技術(shù)都是一把“雙刃劍”,生成式人工智能實(shí)現(xiàn)了從感知理解世界到生成創(chuàng)造世界的躍遷,同時(shí)也帶來了算法黑箱、數(shù)據(jù)隱私、網(wǎng)絡(luò)安全、技術(shù)倫理等方面的挑戰(zhàn)。聚焦生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)問題,各國都開始意識到對其進(jìn)行監(jiān)管的必要性,并加大審查與監(jiān)管力度,力求在控制生成式人工智能風(fēng)險(xiǎn)的同時(shí)助力生成式人工智能產(chǎn)業(yè)健康發(fā)展。

        (一)強(qiáng)監(jiān)管或弱監(jiān)管的抉擇

        1.歐盟:先監(jiān)管后發(fā)展

        從歐盟成員國范圍來看,意大利個(gè)人數(shù)據(jù)保護(hù)局最早對生成式人工智能ChatGPT采取監(jiān)管措施,以涉嫌違反隱私法規(guī)為由,禁止了ChatGPT在本國的使用,直到OpenAI遵守其關(guān)于用戶隱私保護(hù)的規(guī)定[25]。目前歐盟已在整個(gè)歐盟層面開始醞釀具體監(jiān)管措施,對于生成式人工智能的發(fā)展更側(cè)重立法和監(jiān)管路徑,這與歐盟一貫先控制其可能帶來的安全風(fēng)險(xiǎn)、再鼓勵(lì)產(chǎn)業(yè)發(fā)展的嚴(yán)謹(jǐn)態(tài)度相符合。

        2.美國:兼顧發(fā)展與數(shù)據(jù)保護(hù)

        與歐盟先規(guī)范后發(fā)展的監(jiān)管立場不同,美國在人工智能問題的治理方面主要采取相對開放的管理戰(zhàn)略,以此來維持自己在這一領(lǐng)域中的國際領(lǐng)先地位,其更注重在不過多干預(yù)的情況下鼓勵(lì)人工智能技術(shù)的發(fā)展。2020年5月,《生成人工智能網(wǎng)絡(luò)安全法案》(Generating Artificial Intelligence Networking Security (GAINS) Act)明確提出,美國聯(lián)邦貿(mào)易委員會和商務(wù)部應(yīng)掌握人工智能技術(shù)的落地應(yīng)用給美國帶來的優(yōu)勢和負(fù)面影響;2020年8月的《數(shù)據(jù)問責(zé)和透明度法案》(Data Accountability and Transparency Act of 2020)就企業(yè)相關(guān)服務(wù)的隱私收集問題進(jìn)行密切關(guān)注;2020年11月,《人工智能監(jiān)管原則草案》(Guidance for Regulation of Artificial Intelligence Applications)則要求聯(lián)邦機(jī)構(gòu)在制定人工智能方法時(shí),應(yīng)考慮公眾對人工智能的信任與參與、風(fēng)險(xiǎn)評估與管理、公平與非歧視、披露與透明度、安全與保障等因素。

        (二)重視用戶數(shù)據(jù)主體權(quán)利保障

        在人工智能數(shù)據(jù)治理中,歐盟更注重對個(gè)人數(shù)據(jù)和個(gè)人權(quán)利的保護(hù)[26]。2018年5月,歐盟最嚴(yán)數(shù)據(jù)保護(hù)立法《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)正式施行,在世界范圍內(nèi)引發(fā)關(guān)注。當(dāng)ChatGPT在處理個(gè)人隱私數(shù)據(jù)時(shí),同樣需要遵守該條例的規(guī)定,以確保數(shù)據(jù)處理的安全和透明,否則將會被處以2 000萬歐元或高達(dá)年收入4%的罰款。美國人工智能數(shù)據(jù)風(fēng)險(xiǎn)治理對用戶數(shù)據(jù)權(quán)利保障同樣給予了高度重視。2022年10月,美國白宮發(fā)布的《人工智能權(quán)利法案藍(lán)圖》(Blueprint for an AI Bill of Right)提出了負(fù)責(zé)任地使用人工智能路線圖。該文件對人工智能數(shù)據(jù)安全、算法歧視、數(shù)據(jù)隱私等方面給予指導(dǎo),特別關(guān)注對于公民權(quán)利保障和人權(quán)侵犯的意外后果。2023年5月,美國國會研究處發(fā)布報(bào)告《生成式人工智能和數(shù)據(jù)隱私:初探》,對生成式人工智能如何使用數(shù)據(jù)、可能引發(fā)的數(shù)據(jù)隱私風(fēng)險(xiǎn)等問題進(jìn)行了分析,并提出了相應(yīng)對策,主要包括以下內(nèi)容:第一,建立通知和披露機(jī)制,可以要求開發(fā)者在收集或使用個(gè)人數(shù)據(jù)之前獲得數(shù)據(jù)主體的同意,同時(shí)告知數(shù)據(jù)主體他們的數(shù)據(jù)將用于何種目的;第二,退出機(jī)制,對于尚未公開的數(shù)據(jù),生成式人工智能的開發(fā)者可以向用戶提供退出數(shù)據(jù)收集的選項(xiàng);第三,刪除和最小收集要求,即用戶有權(quán)從當(dāng)前數(shù)據(jù)集中刪除自己的數(shù)據(jù),或以最短的期限保留其個(gè)人數(shù)據(jù)[27]。

        (三)加強(qiáng)分級分類監(jiān)管與科技倫理審查

        隨著人工智能技術(shù)的發(fā)展,歐盟委員會在2021年提出了《人工智能法案》的立法提案,并于2024年3月被歐洲議會表決通過;2024年5月21日,部長理事會也正式批準(zhǔn)了該法案。這是世界范圍內(nèi)第一部針對人工智能進(jìn)行規(guī)制的法律,主要特點(diǎn)是依循風(fēng)險(xiǎn)分類分級的思路對人工智能系統(tǒng)進(jìn)行監(jiān)管治理。該法案將風(fēng)險(xiǎn)劃分為不可接受的風(fēng)險(xiǎn)(unacceptable risk)、高風(fēng)險(xiǎn)(high risk)、有限風(fēng)險(xiǎn)(limited risk)和最小風(fēng)險(xiǎn)(minimal risk),針對不同等級的風(fēng)險(xiǎn),法案將實(shí)施不同程度的控制措施。該法案自提出至今,歷經(jīng)多次更改,目前最新版針對高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者的義務(wù)作了特別規(guī)定,包括應(yīng)當(dāng)完成合格性評估程序、履行注冊義務(wù)以及負(fù)有設(shè)立質(zhì)量管理體系的義務(wù)等內(nèi)容[28]。

        2019年,歐盟在人工智能算法、科技倫理監(jiān)管方面有所發(fā)展,發(fā)布了《算法問責(zé)及透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency),提出了一個(gè)應(yīng)用廣泛、內(nèi)容全面的監(jiān)管框架來治理迅速發(fā)展的算法應(yīng)用。此外,通過《可信賴人工智能倫理準(zhǔn)則》(Ethical Guidelines for Trustworthy AI)提出的尊重人自主性(respect for human autonomy)、預(yù)防傷害(prevention of harm)、公平性(fairness)和可解釋性(interpretability)四項(xiàng)倫理準(zhǔn)則以及人的能動性和監(jiān)督(human agency and oversight)、技術(shù)魯棒性和安全性(technical robustness and safety)、隱私和數(shù)據(jù)管理(privacy and data government)、透明性(transparency)、多樣性、非歧視性和公平性(diversity, non-discrimination and fairness)、社會和環(huán)境福祉(social and environmental well-being)和問責(zé)(accountability)實(shí)現(xiàn)可信賴AI的七個(gè)關(guān)鍵要素[29]。

        歐盟和美國各有側(cè)重的人工智能數(shù)據(jù)風(fēng)險(xiǎn)治理路徑探索,為我國生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的法律治理提供了有益的借鑒??梢钥闯?,對技術(shù)手段實(shí)施合理規(guī)制是十分必要的,只要監(jiān)管方案與控制手段設(shè)計(jì)得當(dāng),便能在促進(jìn)發(fā)展的同時(shí)防范風(fēng)險(xiǎn)。我國需根據(jù)生成式人工智能的發(fā)展現(xiàn)狀,以及可能產(chǎn)生的一系列具體問題,探尋具有中國特色的法律規(guī)制路徑,在鼓勵(lì)技術(shù)革新的同時(shí)維護(hù)數(shù)據(jù)安全。

        四、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制的路徑

        生成式人工智能是數(shù)字經(jīng)濟(jì)發(fā)展的重要底層技術(shù),《暫行辦法》的出臺,表明我國在平衡AI技術(shù)創(chuàng)新與安全發(fā)展方面開始進(jìn)行有益探索。面對呈爆炸級趨勢增長的生成式人工智能應(yīng)用,應(yīng)把握監(jiān)管重點(diǎn)、守正創(chuàng)新,對數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)、算法風(fēng)險(xiǎn)、數(shù)據(jù)濫用風(fēng)險(xiǎn)和數(shù)據(jù)泄露風(fēng)險(xiǎn)進(jìn)行有針對性的法律規(guī)制,監(jiān)管和引導(dǎo)生成式AI技術(shù)應(yīng)用健康向善發(fā)展。

        (一)數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)規(guī)制

        在對海量數(shù)據(jù)進(jìn)行算法訓(xùn)練、模型應(yīng)用前,生成式人工智能服務(wù)開發(fā)者首先要進(jìn)行數(shù)據(jù)收集處理活動。研發(fā)企業(yè)應(yīng)遵循《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》規(guī)定的數(shù)據(jù)收集的一般原則,合規(guī)經(jīng)營并確保數(shù)據(jù)來源合法合規(guī),同時(shí)通過多種渠道和措施保障數(shù)據(jù)主體權(quán)利實(shí)現(xiàn),有效防控?cái)?shù)據(jù)源合規(guī)風(fēng)險(xiǎn)。

        1.強(qiáng)化企業(yè)合規(guī)經(jīng)營,確保數(shù)據(jù)來源合法

        生成式人工智能訓(xùn)練數(shù)據(jù)的來源方式主要可以分為三種:一是通過網(wǎng)絡(luò)爬蟲、自動識別算法等自動化工具自行收集數(shù)據(jù),二是間接向數(shù)據(jù)提供方收集數(shù)據(jù),三是直接面向數(shù)據(jù)主體收集數(shù)據(jù)。針對第一種情況,研發(fā)企業(yè)應(yīng)注意自動獲取數(shù)據(jù)時(shí)的合規(guī)風(fēng)險(xiǎn)。根據(jù)我國《刑法》的相關(guān)規(guī)定,利用爬蟲等計(jì)算機(jī)技術(shù)程序,非法入侵計(jì)算機(jī)系統(tǒng)從而獲得數(shù)據(jù)的,可能構(gòu)成侵犯商業(yè)秘密罪或者非法侵入計(jì)算機(jī)信息系統(tǒng)罪。可以看出,我國法律已經(jīng)明令禁止非法獲取數(shù)據(jù)的行為。因此,研發(fā)企業(yè)有必要事先制定相應(yīng)的數(shù)據(jù)合規(guī)計(jì)劃,了解如何合法合規(guī)地獲取數(shù)據(jù)和數(shù)據(jù)獲取過程中可能遇到的刑事風(fēng)險(xiǎn),并制定詳細(xì)具體的風(fēng)險(xiǎn)規(guī)制措施。企業(yè)若采用“爬蟲”“自動識別算法”等自動化工具收集數(shù)據(jù),則應(yīng)當(dāng)自行評估其“爬取”“識別”數(shù)據(jù)的行為對目標(biāo)網(wǎng)絡(luò)系統(tǒng)可能造成的不利影響,不得影響目標(biāo)網(wǎng)絡(luò)系統(tǒng)功能的正常使用[30]。研發(fā)企業(yè)向數(shù)據(jù)提供方獲取開源數(shù)據(jù)集來間接收集數(shù)據(jù)用以模型訓(xùn)練時(shí),應(yīng)積極審查數(shù)據(jù)提供方是否具備提供數(shù)據(jù)的法律依據(jù)及合法性來源,涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán),并要求數(shù)據(jù)提供方配合定期開展合規(guī)審計(jì),確保數(shù)據(jù)來源的合法合規(guī)[31]。

        2.強(qiáng)化用戶數(shù)據(jù)主體權(quán)利保障

        直接面向數(shù)據(jù)主體收集數(shù)據(jù)時(shí),特別是涉及有關(guān)個(gè)人信息的數(shù)據(jù)收集過程中,研發(fā)企業(yè)需要將《個(gè)人信息保護(hù)法》規(guī)定的知情同意、最小必要和適當(dāng)?shù)然驹瓌t的踐行情況作為個(gè)人信息處理審查的重要標(biāo)準(zhǔn)。首先,應(yīng)根據(jù)現(xiàn)實(shí)具體的服務(wù)場景針對性地采集個(gè)人數(shù)據(jù),并明確告知用戶收集、使用個(gè)人信息的具體范圍與目的以及數(shù)據(jù)可能存在的泄露風(fēng)險(xiǎn),確保獲取的個(gè)人數(shù)據(jù)已經(jīng)取得用戶真實(shí)同意。特別是在人機(jī)交互過程中,在收集記錄用戶的輸入和輸出內(nèi)容時(shí)應(yīng)以顯著標(biāo)識進(jìn)行說明,并充分給予使用者拒絕提供的權(quán)利。企業(yè)內(nèi)部應(yīng)設(shè)立專門的審查機(jī)構(gòu),對數(shù)據(jù)采集內(nèi)容進(jìn)行合規(guī)審查,非法數(shù)據(jù)、未經(jīng)用戶明確同意或者許可的數(shù)據(jù)均不能納入算法的訓(xùn)練數(shù)據(jù)集。其次,開發(fā)者應(yīng)該在保證正常提供生成式人工智能產(chǎn)品服務(wù)時(shí)所必須的最小范圍內(nèi)采集個(gè)人數(shù)據(jù),不應(yīng)過度延伸。最后,根據(jù)《暫行辦法》第9條規(guī)定,生成式人工智能服務(wù)提供者提供的服務(wù)中如果存在與用戶個(gè)人信息相關(guān)聯(lián)的,提供者應(yīng)當(dāng)按照法律規(guī)定積極履行個(gè)人信息保護(hù)義務(wù),并通過與用戶簽訂使用協(xié)議或者服務(wù)協(xié)議的方式,在協(xié)議條款中對雙方的權(quán)利義務(wù)作出明確規(guī)定。生成式人工智能服務(wù)開發(fā)者應(yīng)確保能夠及時(shí)處理用戶的查閱、復(fù)制、更正、補(bǔ)充、刪除其個(gè)人信息等請求,保障其對個(gè)人數(shù)據(jù)的刪除權(quán)、更正權(quán)、拒絕權(quán)及自主決定權(quán)的正常行使。

        (二)算法風(fēng)險(xiǎn)規(guī)制

        生成式人工智能的運(yùn)作機(jī)制離不開算法,而算法的實(shí)施又會產(chǎn)生算法黑箱、算法偏見或算法歧視等問題。鑒于生成式人工智能的算法風(fēng)險(xiǎn)以及域外治理現(xiàn)狀,法律應(yīng)及時(shí)介入,積極推進(jìn)算法監(jiān)管,重點(diǎn)關(guān)注算法的安全性和公平性。

        1.加強(qiáng)算法備案,推進(jìn)算法透明度治理

        近年來,我國積極探索人工智能領(lǐng)域算法監(jiān)管。2021年,國家網(wǎng)信辦公布的《算法推薦規(guī)定》主要用于規(guī)范算法推薦服務(wù)提供者使用生成合成類等算法推薦技術(shù)來提供服務(wù)的行為。2022年,國家網(wǎng)信辦又發(fā)布《深度合成管理規(guī)定》,對深度合成技術(shù)提出一系列要求。2023年,為應(yīng)對ChatGPT的面世和大模型領(lǐng)域的密集動態(tài),除正式出臺《暫行辦法》外,《人工智能法(草案)》也被列入國務(wù)院2023年度立法工作計(jì)劃中。其中,根據(jù)《暫行辦法》第4條規(guī)定,生成式人工智能服務(wù)提供者和算法使用者在選取訓(xùn)練數(shù)據(jù)、建立與優(yōu)化大語言模型的過程中,應(yīng)該避免對不同種族、不同性別、不同國家、不同職業(yè)、不同年齡、不同信仰等方面進(jìn)行歧視?!稌盒修k法》第17條規(guī)定,向公眾提供容易引發(fā)社會輿論或者具備一定社會動員功能的生成式人工智能服務(wù)前,要嚴(yán)格依照法律規(guī)定進(jìn)行事前安全評估,并依照《算法推薦規(guī)定》履行算法備案、變更或者注銷手續(xù)。因此,作為一個(gè)負(fù)責(zé)任的生成式人工智能應(yīng)用開發(fā)者應(yīng)積極履行算法備案與安全評估義務(wù),并應(yīng)根據(jù)監(jiān)管機(jī)構(gòu)要求提供必要信息。在算法設(shè)計(jì)與實(shí)際應(yīng)用過程中,算法開發(fā)者應(yīng)當(dāng)一直堅(jiān)持“以人為本”的技術(shù)向善發(fā)展觀念,始終遵循各行業(yè)的倫理規(guī)范以及算法設(shè)計(jì)倫理準(zhǔn)則進(jìn)行研發(fā)設(shè)計(jì),并適時(shí)地對算法運(yùn)行規(guī)則進(jìn)行調(diào)整和更新,以最大限度地避免算法本身所帶來的先天歧視[32]。截至2023年9月1日,國家網(wǎng)信辦已經(jīng)公布了兩批深度合成服務(wù)算法備案清單,共計(jì)151項(xiàng),包括阿里、百度、科大訊飛等大模型算法,保障了公眾知情權(quán)和技術(shù)透明度。

        2.賦予算法解釋義務(wù),落實(shí)算法主體責(zé)任

        算法運(yùn)算透明并不意味著算法的完全公開,僅規(guī)定算法備案制度還難以實(shí)現(xiàn)對科技創(chuàng)新的保護(hù)與監(jiān)管之間的平衡。因此,在后續(xù)立法或?qū)嵺`中應(yīng)細(xì)化公開義務(wù),具體規(guī)定應(yīng)當(dāng)進(jìn)行算法披露的程度和限度,避免侵犯商業(yè)秘密,并賦予算法設(shè)計(jì)者合理的解釋義務(wù)以減少不必要的糾紛。在算法解釋義務(wù)的具體構(gòu)建中,可以考慮引入雙向驅(qū)動型算法解釋工具,即當(dāng)相對人認(rèn)為生成內(nèi)容侵犯個(gè)人利益或者公共利益時(shí),有權(quán)請求算法開發(fā)者和使用者向監(jiān)管部門承擔(dān)解釋說明任務(wù),監(jiān)管部門或者司法機(jī)關(guān)在相關(guān)執(zhí)法司法活動等特定場景中,有權(quán)要求算法開發(fā)者和使用者就產(chǎn)生爭議的算法決策進(jìn)行解釋[33]。除此之外,為消除算法黑箱與算法偏見帶來的規(guī)則盲區(qū),還應(yīng)該通過明確責(zé)任主體、歸責(zé)原則、責(zé)任分配及法律后果等方式,完善算法問責(zé)機(jī)制,落實(shí)算法主體責(zé)任[34]。

        (三)數(shù)據(jù)濫用風(fēng)險(xiǎn)規(guī)制

        生成式人工智能的發(fā)展為多領(lǐng)域帶來了創(chuàng)新機(jī)遇,但也帶來了虛假信息傳播、AI詐騙猖獗等威脅社會穩(wěn)定的數(shù)據(jù)濫用風(fēng)險(xiǎn)。針對可能存在的數(shù)據(jù)濫用風(fēng)險(xiǎn),應(yīng)當(dāng)強(qiáng)化科研倫理的法治化,實(shí)現(xiàn)科技向善治理,同時(shí)建立多元監(jiān)管機(jī)制,實(shí)現(xiàn)全鏈條合法性監(jiān)管。

        1.加強(qiáng)科技倫理審查,實(shí)現(xiàn)科技向善治理

        科技倫理是指進(jìn)行科學(xué)研究、技術(shù)創(chuàng)新等科技活動時(shí),必須要遵循的行為準(zhǔn)則和價(jià)值理念,包括科研行為必須要遵守的學(xué)術(shù)規(guī)范以及現(xiàn)實(shí)社會基本道德對科研成果進(jìn)行規(guī)范的邊界[35]。在生成式人工智能產(chǎn)業(yè)大力發(fā)展的進(jìn)程中,必須時(shí)刻謹(jǐn)記“以人為本倫理先行”和“科技為人服務(wù)”的理念,不能盲目地為了追求利潤最大化而忽視研發(fā)底線。當(dāng)前,我國雖出臺了《關(guān)于加強(qiáng)科技倫理治理的意見》《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《新一代人工智能倫理規(guī)范》等頂層設(shè)計(jì)和制度方案,但仍難以適應(yīng)人工智能領(lǐng)域科技創(chuàng)新發(fā)展的現(xiàn)實(shí)需要,在具體規(guī)則和實(shí)施落地等方面還需不斷推進(jìn)。具體而言,可以嘗試通過對生成式人工智能從開發(fā)到現(xiàn)實(shí)使用的不同階段、應(yīng)用的不同領(lǐng)域或者同一領(lǐng)域的不同場景特征與構(gòu)成要素,分別制定更具有行業(yè)針對性的科技倫理審查標(biāo)準(zhǔn),從而指導(dǎo)研發(fā)企業(yè)依法依規(guī)開展科技創(chuàng)新活動[36]。與此同時(shí),還可以考慮建立獨(dú)立的人工智能倫理審查機(jī)構(gòu)(如科技倫理委員會),并組織制定生成式AI的倫理指南、自律公約等行業(yè)規(guī)范來提高行業(yè)準(zhǔn)入門檻,在生成式AI進(jìn)入市場前進(jìn)行道德審查。

        2.建立多元監(jiān)管機(jī)制,實(shí)現(xiàn)全鏈條合法性監(jiān)管

        我國對于生成式人工智能應(yīng)用風(fēng)險(xiǎn)的監(jiān)管治理,主要采用目標(biāo)與問題導(dǎo)向相結(jié)合的風(fēng)險(xiǎn)治理框架,既不同于歐盟相對嚴(yán)苛的風(fēng)險(xiǎn)監(jiān)管模式,也不同于美國幾乎沒有限制的寬松風(fēng)險(xiǎn)監(jiān)管模式。為有效規(guī)制數(shù)據(jù)濫用風(fēng)險(xiǎn),完善生成式人工智能的法治保障,應(yīng)根據(jù)《暫行辦法》規(guī)定的“包容審慎”監(jiān)管原則《生成式人工智能服務(wù)管理暫行辦法》第3條規(guī)定:“國家堅(jiān)持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵(lì)生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實(shí)行包容審慎和分類分級監(jiān)管?!?,優(yōu)化和升級人工智能安全監(jiān)管模式,建立多元長效監(jiān)管機(jī)制,實(shí)現(xiàn)對生成內(nèi)容的全鏈條合法性監(jiān)管。

        一方面,可以考慮建立覆蓋研發(fā)運(yùn)行全程的獨(dú)立監(jiān)管機(jī)構(gòu),制定統(tǒng)一的生成式人工智能責(zé)任框架,合理平衡數(shù)據(jù)安全與科技創(chuàng)新的保護(hù)邊界。監(jiān)管者在既有數(shù)據(jù)安全監(jiān)管基礎(chǔ)上,可以考慮引入影響評估、監(jiān)管沙盒等制度,同時(shí)要求服務(wù)提供者如實(shí)依法報(bào)送算法、技術(shù)等必要信息。值得注意的是,在促進(jìn)算法開源的過程中,應(yīng)當(dāng)特別注意對初創(chuàng)公司和個(gè)人創(chuàng)業(yè)者的保護(hù)。此外,監(jiān)管者應(yīng)當(dāng)將監(jiān)管審查重點(diǎn)聚焦于商業(yè)化應(yīng)用層面,積極進(jìn)行生成式人工智能應(yīng)用安全評估與檢查,將其可能出現(xiàn)的偏差與錯(cuò)誤及時(shí)通知服務(wù)提供者,并督促其進(jìn)行檢測和排除,防止生成式人工智能被用于非法或不道德的目的[37]。

        另一方面,研發(fā)企業(yè)自身應(yīng)通過多種機(jī)制和技術(shù)手段加強(qiáng)對數(shù)據(jù)濫用風(fēng)險(xiǎn)的監(jiān)管。從OpenAI等企業(yè)受到監(jiān)管和關(guān)注不難發(fā)現(xiàn),一家可持續(xù)發(fā)展的AI企業(yè)必須具備良好的風(fēng)險(xiǎn)治理水平、持續(xù)的合規(guī)風(fēng)險(xiǎn)治理更新和改善能力。當(dāng)生成式人工智能產(chǎn)品投入市場運(yùn)營時(shí),服務(wù)提供者應(yīng)當(dāng)同時(shí)對產(chǎn)品中是否存在違法違規(guī)內(nèi)容進(jìn)行實(shí)時(shí)監(jiān)督和處置。根據(jù)《暫行辦法》有關(guān)規(guī)定參見《生成式人工智能服務(wù)管理暫行辦法》第7條、第14條。,生成式人工智能服務(wù)研發(fā)人員在選取訓(xùn)練數(shù)據(jù)集、涉及算法、建立與優(yōu)化大語言模型的過程中, 應(yīng)采取必要措施防止其生成違法內(nèi)容;服務(wù)提供者一旦發(fā)現(xiàn)侵權(quán)或者生成內(nèi)容違法時(shí),應(yīng)立即采取更正、屏蔽、刪除等措施, 并在后續(xù)對生成式人工智能模型進(jìn)行內(nèi)容過濾或模型優(yōu)化訓(xùn)練。研發(fā)者可以在算法技術(shù)中嵌入虛假信息監(jiān)測技術(shù),及時(shí)更新、優(yōu)化算法,在內(nèi)容輸出前進(jìn)行事先審查,提高輸出內(nèi)容的準(zhǔn)確度和可信度。此外,還可以在產(chǎn)品使用頁面增加質(zhì)疑通道,當(dāng)用戶發(fā)現(xiàn)使用過程中生成了虛假信息或者違法信息時(shí),可以及時(shí)反饋給服務(wù)提供者或開發(fā)者,系統(tǒng)也應(yīng)對該內(nèi)容進(jìn)行自動標(biāo)注以便提示其他用戶[14]98。

        (四)數(shù)據(jù)泄露風(fēng)險(xiǎn)規(guī)制

        數(shù)據(jù)泄露風(fēng)險(xiǎn)規(guī)制是生成式人工智能發(fā)展過程中不可回避的重點(diǎn)和難點(diǎn)之一,因?yàn)橐坏┌l(fā)生數(shù)據(jù)泄露事件,不僅會影響企業(yè)聲譽(yù)從而引發(fā)信任危機(jī),還可能需要承擔(dān)嚴(yán)重的刑事責(zé)任。我國《數(shù)據(jù)安全法》第45條規(guī)定,數(shù)據(jù)處理者在數(shù)據(jù)處理活動中引發(fā)大規(guī)模數(shù)據(jù)泄露事件,將被處以高昂罰款,并責(zé)令停業(yè)整頓甚至吊銷營業(yè)執(zhí)照。在當(dāng)前我國堅(jiān)持發(fā)展和安全并重、對生成式人工智能服務(wù)實(shí)行包容審慎和分類分級監(jiān)管的形勢下,研發(fā)生成式人工智能大模型的企業(yè)應(yīng)更加關(guān)注數(shù)據(jù)泄露的防范措施。治理數(shù)據(jù)泄露風(fēng)險(xiǎn),只有從技術(shù)和管理制度兩方面入手,雙管齊下方能達(dá)到事半功倍的效果。

        1.嚴(yán)格控制數(shù)據(jù)共享范圍,引導(dǎo)和促進(jìn)新技術(shù)應(yīng)用

        從技術(shù)角度來看,研發(fā)者應(yīng)當(dāng)對數(shù)據(jù)共享渠道和共享對象進(jìn)行嚴(yán)格管理,只能在獲得用戶同意的范圍內(nèi)進(jìn)行數(shù)據(jù)共享,遵守《暫行辦法》第11條的規(guī)定,即“提供者不得非法向他人提供使用者的輸入信息和使用記錄”。當(dāng)無法避免數(shù)據(jù)要素在市場上流通時(shí),應(yīng)當(dāng)對其進(jìn)行嚴(yán)格的脫敏處理,即通過一系列技術(shù)處理方式,對掌握的用戶個(gè)人數(shù)據(jù)中具有可識別性的內(nèi)容予以模糊化處理,最終使其無法定位到某一特定用戶,通過匿名化可保證用戶個(gè)人數(shù)據(jù)權(quán)益,降低數(shù)據(jù)泄露可能造成的危害后果[38]。同時(shí),企業(yè)應(yīng)當(dāng)根據(jù)木馬病毒、虛假WAP(無線應(yīng)用協(xié)議)等網(wǎng)絡(luò)攻擊技術(shù)的特點(diǎn),不斷優(yōu)化更新算法技術(shù),可以采取動態(tài)秘鑰、IP地址限制等方法確保對敏感、涉密數(shù)據(jù)的安全存儲,防止訓(xùn)練數(shù)據(jù)泄露,還要加速生成式人工智能領(lǐng)域的技術(shù)升級和更新,推廣新技術(shù)的應(yīng)用。2023年,開源AI解決方案公司ClearML宣布推出ClearGPT,聲稱該產(chǎn)品的顯著特點(diǎn)是為企業(yè)定制大型語言模型,通過在組織網(wǎng)絡(luò)內(nèi)提供安全環(huán)境來提供解決方案,確保完全控制并消除數(shù)據(jù)泄露的可能性,這是未來AIGC領(lǐng)域避免數(shù)據(jù)泄露風(fēng)險(xiǎn)的一個(gè)理想發(fā)展方向[39]。再比如,對隱私計(jì)算技術(shù),可以通過多方共享軟件開發(fā)工具包(software derelopment kit,SDK)的方式,實(shí)現(xiàn)多方數(shù)據(jù)控制者在不暴露數(shù)據(jù)本身的情況下進(jìn)行相互之間的數(shù)據(jù)傳輸、建模、互聯(lián),同時(shí)保證AIGC在正常提供服務(wù)的同時(shí)不會造成數(shù)據(jù)泄露[17]26。

        2.貫徹?cái)?shù)據(jù)分級分類保護(hù),落實(shí)數(shù)據(jù)安全保障義務(wù)

        在管理制度層面,服務(wù)提供企業(yè)應(yīng)當(dāng)貫徹落實(shí)數(shù)據(jù)分級分類保護(hù)原則,加強(qiáng)數(shù)據(jù)泄露風(fēng)險(xiǎn)監(jiān)測,將數(shù)據(jù)安全保障義務(wù)逐級落實(shí)到具體負(fù)責(zé)人,以實(shí)現(xiàn)全面的安全防護(hù)和風(fēng)險(xiǎn)管理。其一,AIGC開發(fā)商和運(yùn)營商應(yīng)當(dāng)根據(jù)數(shù)據(jù)的類型和安全級別,對數(shù)據(jù)泄露可能帶來的影響進(jìn)行安全風(fēng)險(xiǎn)評估,將存儲的不同種類數(shù)據(jù)按照評估結(jié)果進(jìn)行分級分類管理,避免重要數(shù)據(jù)防護(hù)不足、非重要數(shù)據(jù)過度防護(hù),尤其要著重加強(qiáng)對醫(yī)療健康、生物識別、未成年人信息等敏感個(gè)人數(shù)據(jù)的保護(hù)。其二,可以利用操作分析、異常行為監(jiān)測等多重手段加強(qiáng)數(shù)據(jù)泄露風(fēng)險(xiǎn)監(jiān)測,建立監(jiān)測預(yù)警機(jī)制和數(shù)據(jù)泄露應(yīng)急處置機(jī)制。當(dāng)檢測到數(shù)據(jù)泄露風(fēng)險(xiǎn)時(shí),立即啟動應(yīng)急處理預(yù)案,及時(shí)消除相關(guān)風(fēng)險(xiǎn)。若無法及時(shí)消滅數(shù)據(jù)安全漏洞,那么數(shù)據(jù)泄露事故發(fā)生后,根據(jù)《數(shù)據(jù)安全法》第29條規(guī)定,應(yīng)立即啟動處置措施,及時(shí)告知用戶并向有關(guān)主管部門報(bào)告。其三,將數(shù)據(jù)安全保障義務(wù)逐級落實(shí)到具體負(fù)責(zé)人,要求研發(fā)企業(yè)建立一整套專門負(fù)責(zé)數(shù)據(jù)安全與隱私合規(guī)的管理體系,在內(nèi)部組織架構(gòu)中設(shè)置專門機(jī)構(gòu)和專門負(fù)責(zé)人員(包括首席數(shù)據(jù)官),并定期組織培訓(xùn)。與此同時(shí),還應(yīng)當(dāng)建立一套完備的數(shù)據(jù)訪問機(jī)制,避免數(shù)據(jù)被外來人員無權(quán)訪問或被內(nèi)部人員越權(quán)訪問,并可以利用技術(shù)手段對訪問記錄進(jìn)行詳細(xì)追蹤,進(jìn)而在發(fā)生數(shù)據(jù)泄露時(shí)盡快識別出數(shù)據(jù)責(zé)任主體。

        五、結(jié)語

        隨著ChatGPT等新一代大語言模型的崛起,生成式人工智能所實(shí)現(xiàn)的功能已遠(yuǎn)遠(yuǎn)超乎人們的想象。技術(shù)在迭代更新的同時(shí)也引發(fā)了一系列數(shù)據(jù)安全問題,如何在鼓勵(lì)技術(shù)創(chuàng)新的同時(shí)防范其可能帶來的負(fù)面影響,我國正在摸索自己的治理途徑。《暫行辦法》的出臺較好地回應(yīng)了生成式人工智能帶來的挑戰(zhàn),但未來仍需不斷堅(jiān)持鼓勵(lì)創(chuàng)新與嚴(yán)守底線相結(jié)合的監(jiān)管原則,并不斷完善立法,以便及時(shí)適應(yīng)科技進(jìn)步和產(chǎn)業(yè)演進(jìn)的需求,強(qiáng)化科研倫理觀念,建立“以人為本”的技術(shù)體系,加強(qiáng)算法規(guī)制與隱私保護(hù),調(diào)整和細(xì)化企業(yè)數(shù)據(jù)安全合規(guī)管理體系,完善用戶數(shù)據(jù)主體權(quán)利保障機(jī)制,為未來智能生態(tài)系統(tǒng)提供有力的法律保障。

        參考文獻(xiàn):

        [1]江琴,左曉棟.人工智能倫理審查與監(jiān)管初探[J].中國信息安全,2023(5):36-40.

        [2]加拿大聯(lián)邦及多個(gè)省份隱私監(jiān)管機(jī)構(gòu)對ChatGPT展開調(diào)查[EB/OL].(2023-05-26)[2023-06-15].http://www.chinanews.com.cn/gj/2023/05-26/10014350.shtml.

        [3]黃震華,楊順志,林威,等.知識蒸餾研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2022(3):624-653.

        [4]畢文軒.生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):155-172.

        [5]劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023(4):29-43.

        [6]拒絕被AI盜走知識產(chǎn)權(quán),《紐約時(shí)報(bào)》欲起訴OpenAI[EB/OL].(2023-08-18)[2023-08-19].https://www.thepaper.cn/newsDetail_forward_24279003.

        [7]鄭曉華.算法時(shí)代網(wǎng)絡(luò)意識形態(tài)風(fēng)險(xiǎn)防范與實(shí)踐邏輯[J].重慶郵電大學(xué)學(xué)報(bào)(社會科學(xué)版),2023(1):163-170.

        [8]趙宏.公共決策適用算法技術(shù)的規(guī)范分析與實(shí)體邊界[J].比較法研究,2023(2):1-16.

        [9]LAURA W,JONATHAN U,MARIBETH R,et al.Taxonomy of risks posed by language models[EB/OL].(2022-06-20)[2023-06-23].https://dl.acm.org/doi/fullHtml/10.1145/3531146.3533088.

        [10]DESHPANDE A,MURAHARI V,KALYAN A,et al.Toxicity in ChatGPT:Analyzing persona-assigned language models[EB/OL].(2023-04-11)[2023-06-24].https://arxiv.org/abs/2304.05335.

        [11]游俊哲.ChatGPT類生成式人工智能在科研場景中的應(yīng)用風(fēng)險(xiǎn)與控制措施[J].情報(bào)理論與實(shí)踐,2023(6):24-32.

        [12]Wikipedia.Hallucination “artificial intelligence”[EB/OL].(2023-09-06)[2023-09-07].https://en.wikipedia.org/wiki/Hallucination_.

        [13]周亭,蒲成.生成式人工智能的國際傳播能力及潛在治理風(fēng)險(xiǎn)[J].對外傳播,2023(4):14-18.

        [14]鄧建鵬,朱懌成.ChatGPT模型的法律風(fēng)險(xiǎn)及應(yīng)對之策[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2023(5).

        [15]OpenAI.March 20 ChatGPT outage:Here’s what happened[EB/OL].(2023-03-24)[2023-06-24].https://openai.com/blog/march-20-chatgpt-outage.

        [16]趙竹青.系好“安全帶”,生成式人工智能才會更好發(fā)展[EB/OL].(2023-04-13)[2023-06-24].http://finance.people.com.cn/n1/2023/0413/c1004-32663675.html.

        [17]陳兵.生成式人工智能可信發(fā)展的法治基礎(chǔ)[J].上海政法學(xué)院學(xué)報(bào)(法治論叢),2023(4).

        [18]譚佐財(cái).ChatGPT的法律風(fēng)險(xiǎn)與治理路徑[J].湖南科技大學(xué)學(xué)報(bào)(社會科學(xué)版),2023(3):117-125.

        [19]王洋,閆海.生成式人工智能的風(fēng)險(xiǎn)迭代與規(guī)制革新——以ChatGPT為例[J].理論月刊,2023(6):14-24.

        [20]熊光清.生成式人工智能治理的法治維度[EB/OL].(2023-07-16)[2023-08-12].https://baijiahao.baidu.com/s?id=1771507002728495875amp;wfr=spideramp;for=pc.

        [21]陳奕凱.“ChatGPT之父”呼吁監(jiān)管ChatGPT[EB/OL].(2023-05-17)[2023-06-12].https://www.bjnews.com.cn/detail/168432347614319.html.

        [22]羅亦丹.妙鴨相機(jī)火爆背后:隱私條款惹爭議,能否“挑戰(zhàn)”照相業(yè)?[EB/OL].(2023-07-23)[2023-07-24].https://www.bjnews.com.cn/detail/1690084299168871.html.

        [23]鈄曉東.風(fēng)險(xiǎn)與控制:論生成式人工智能應(yīng)用的個(gè)人信息保護(hù)[J].政法論叢,2023(4):59-68.

        [24]蔣潔.AI圖景下大數(shù)據(jù)挖掘的風(fēng)險(xiǎn)評估與應(yīng)對策略[J].現(xiàn)代情報(bào),2018(5):147-151.

        [25]董瀟,郭靜荷,史曉宇.人工智能及算法治理的新進(jìn)展——基于ChatGPT在意大利的監(jiān)管案例評析[EB/OL].(2023-06-29)[2023-06-30].https://www.junhe.com/legal-updates/2203.

        [26]商建剛.生成式人工智能風(fēng)險(xiǎn)治理元規(guī)則研究[J].東方法學(xué),2023(3):4-17.

        [27]KRISTEN E.Generative artificial intelligence and data privacy:A primer[EB/OL].(2023-05-23)[2023-06-16].https://crsreports.congress.gov/product/pdf/R/R47569.

        [28]寧宣鳳,吳涵.路未央,花已遍芳——?dú)W盟《人工智能法案》主要監(jiān)管及激勵(lì)措施評述[EB/OL].(2023-08-03)[2023-08-16].https://www.kwm.com/cn/zh/insights/latest-thinking/eu-ai-act-main-supervision-and-incentive-measures.html.

        [29]張霄軍,邵璐.構(gòu)建可信賴機(jī)器翻譯系統(tǒng)的基本原則——一種基于工程倫理的觀點(diǎn)[J].外國語文,2021(1):1-8.

        [30]孟潔,周子川,杜暢.人工智能大語言模型開發(fā)與應(yīng)用的數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)及其應(yīng)對——兼論《生成式人工智能服務(wù)管理辦法(征求意見稿)》合規(guī)要點(diǎn)[EB/OL].(2023-04-12)[2023-06-18].http://www.glo.com.cn/Content/2023/04-13/1511401407.html.

        [31]陳際紅,吳佳蔚,陳煜烺.《生成式人工智能服務(wù)管理暫行辦法》發(fā)布,解析AIGC的數(shù)據(jù)合規(guī)挑戰(zhàn)與應(yīng)對之道[EB/OL].(2023-07-13)[2023-07-18].https://www.zhonglun.com/Content/2023/07-13/1404150284.html.

        [32]石穎.算法歧視的發(fā)生邏輯與法律規(guī)制[J].理論探索,2022(3):122-128.

        [33]劉輝.雙向驅(qū)動型算法解釋工具:以默示算法共謀為場景的探索[J].現(xiàn)代法學(xué),2022(6):58-71.

        [34]程雪軍.金融科技平臺算法黑箱的法律規(guī)制研究[C]//2023年世界人工智能大會法治論壇論文集.上海:上海市法學(xué)會,2023:203-217.

        [35]樊春良.科技倫理治理的理論與實(shí)踐[J].科學(xué)與社會,2021(4):33-50.

        [36]陳兵.促進(jìn)生成式人工智能規(guī)范發(fā)展的法治考量及實(shí)踐架構(gòu)——兼評《生成式人工智能服務(wù)管理暫行辦法》相關(guān)條款[J].中國應(yīng)用法學(xué),2023(4):108-125.

        [37]袁曾.生成式人工智能的責(zé)任能力研究[J].東方法學(xué),2023(3):18-33.

        [38]宋才發(fā).個(gè)人信息保護(hù)的法律規(guī)制與法治路徑[J].重慶郵電大學(xué)學(xué)報(bào)(社會科學(xué)版),2022(5):48-56.

        [39]ClearML推出ClearGPT,一個(gè)挑戰(zhàn)ChatGPT的生成式AI平臺[EB/OL].(2023-05-20)[2023-06-18].https://www.qidianai.net/news/563.html.

        Data risk of generative artificial intelligence and its legal regulation

        Abstract:

        The emergence of ChatGPT has stirred up a new round of development in generative artificial intelligence, leading to technological change while also triggering many legal risks. According to the operation mechanism of generative AI, four major types of data security risks can be found, mainly due to the impact of high trust in algorithms on the protection of legal interests, the lack of scientific and technological ethical norms in the evolution of the technology, and insufficient protection of users’ data subject rights. For the data source compliance risk of generative AI in the data input stage, Ramp;D enterprises should formulate an operable data compliance plan, and formulate detailed and specific risk control measures in the compliance plan to strengthen the compliance operation of the enterprise, and at the same time, actively respond to the user’s request for the rights of the data subject through a variety of measures, so as to ensure that the source of the model training data is legal and compliant. Regarding the risk of algorithmic black box and algorithmic bias in the model processing stage of generative AI, we should increase supervision, focus on the safety and fairness of algorithms, actively promote and improve relevant legislation, refine algorithmic filing and algorithmic interpretation obligations, improve algorithmic technology transparency, and implement algorithmic subject responsibility. In response to the data abuse risks in the content output stage of generative artificial intelligence, we should optimize the regulatory mechanism to achieve full-chain legitimacy supervision, improve scientific research ethics norms and conduct substantive review, lead technology to goodness, and achieve good governance of science and technology. In response to the data leakage risks in the data storage stage of generative artificial intelligence, we should adopt a comprehensive regulation approach combining technology and management systems to strictly control the scope of data sharing and implement data classification and protection, and timely and effectively prevent data leakage risks.

        Keywords:

        intelligent algorithm; generative artificial intelligence; data risk; legal regulation

        猜你喜歡
        生成式人工智能智能算法法律規(guī)制
        挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會議綜述
        生成式人工智能重塑教育及教師應(yīng)對之道
        人機(jī)共生時(shí)代國際傳播的理念升維與自主敘事體系構(gòu)建
        對外傳播(2023年4期)2023-05-21 20:52:16
        生成式人工智能的教育應(yīng)用與展望
        神經(jīng)網(wǎng)絡(luò)智能算法在發(fā)電機(jī)主絕緣狀態(tài)評估領(lǐng)域的應(yīng)用
        基于超像素的圖像智能算法在礦物顆粒分割中的應(yīng)用
        從雞群算法看群體智能算法的發(fā)展趨勢
        改進(jìn)的多目標(biāo)快速群搜索算法的應(yīng)用
        商業(yè)預(yù)付卡經(jīng)營行為的法律規(guī)制
        我國網(wǎng)絡(luò)經(jīng)濟(jì)中不正當(dāng)競爭行為的法律規(guī)制
        国产裸体舞一区二区三区| 99热婷婷一区二区三区| 国产亚洲av成人噜噜噜他| 亚洲国产成人久久三区| 久久日本三级韩国三级| 就国产av一区二区三区天堂| 国产精品高清免费在线| 蜜桃视频一区二区在线观看| 国产精品亚韩精品无码a在线| 本道无码一区二区久久激情| 日韩激情av不卡在线| 国产成人无码一区二区三区| 老外和中国女人毛片免费视频| 久久久久亚洲女同一区二区| 国产噜噜亚洲av一二三区| 桃红色精品国产亚洲av| 中文字幕一二三四五六七区| 亚洲色中文字幕无码av| 欧美老妇人与禽交| 中文熟女av一区二区| 精品国产亚洲级一区二区| 国产揄拍国产精品| 亚洲国产一区在线二区三区| 激情视频在线播放一区二区三区| 亚洲色一区二区三区四区| 无码国产午夜福利片在线观看| 久久亚洲午夜牛牛影视| 韩国一区二区三区黄色录像| 免费无码av一区二区| 亚洲成人电影在线观看精品国产| 国内精品熟女一区二区| 欧美xxxxx高潮喷水| 久久老子午夜精品无码怎么打| 国产剧情无码中文字幕在线观看不卡视频 | 台湾佬中文偷拍亚洲综合| 中文字幕乱码熟女人妻在线 | 日产精品高潮一区二区三区5月 | 亚洲综合天堂av网站在线观看| 人妻少妇看a偷人无码精品| 综合图区亚洲另类偷窥| 人妻少妇满足中文字幕|