摘要:生成式人工智能在引領(lǐng)技術(shù)變革的同時(shí)也引發(fā)了諸多法律風(fēng)險(xiǎn)。根據(jù)生成式人工智能的運(yùn)行機(jī)理,可以發(fā)現(xiàn)其中存在四大類(lèi)數(shù)據(jù)安全風(fēng)險(xiǎn),其主要原因在于算法高度信任對(duì)法益保護(hù)的沖擊、技術(shù)演變中科技倫理規(guī)范的缺失以及用戶(hù)數(shù)據(jù)主體權(quán)利保障不足等。針對(duì)生成式人工智能在數(shù)據(jù)輸入階段的數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn),研發(fā)企業(yè)內(nèi)部應(yīng)制定具有可操作性的數(shù)據(jù)合規(guī)計(jì)劃,并在合規(guī)計(jì)劃中制定詳細(xì)具體的風(fēng)險(xiǎn)規(guī)制措施,強(qiáng)化企業(yè)合規(guī)經(jīng)營(yíng);與此同時(shí),通過(guò)多種措施積極響應(yīng)用戶(hù)對(duì)于數(shù)據(jù)主體權(quán)利的請(qǐng)求,確保模型訓(xùn)練數(shù)據(jù)來(lái)源合法合規(guī)。針對(duì)生成式人工智能在模型處理階段的算法黑箱與算法偏見(jiàn)風(fēng)險(xiǎn),應(yīng)加大監(jiān)管力度,重點(diǎn)關(guān)注算法的安全性與公平性,積極推進(jìn)并完善相關(guān)立法,細(xì)化算法備案和算法解釋義務(wù),提高算法技術(shù)透明度,落實(shí)算法主體責(zé)任。針對(duì)生成式人工智能在內(nèi)容輸出階段的數(shù)據(jù)濫用風(fēng)險(xiǎn),應(yīng)優(yōu)化監(jiān)管機(jī)制,實(shí)現(xiàn)全鏈條合法性監(jiān)管,完善科研倫理規(guī)范并予以實(shí)質(zhì)審查,引領(lǐng)技術(shù)向善,實(shí)現(xiàn)科技向善治理。針對(duì)生成式人工智能在數(shù)據(jù)存儲(chǔ)階段的數(shù)據(jù)泄漏風(fēng)險(xiǎn),應(yīng)通過(guò)技術(shù)與管理制度相結(jié)合的方式進(jìn)行全方位規(guī)制,嚴(yán)格控制數(shù)據(jù)共享范圍并貫徹?cái)?shù)據(jù)分級(jí)分類(lèi)保護(hù),及時(shí)有效地防范數(shù)據(jù)泄露風(fēng)險(xiǎn)。
關(guān)鍵詞:智能算法;生成式人工智能;數(shù)據(jù)風(fēng)險(xiǎn);法律規(guī)制
中圖分類(lèi)號(hào):D902;D912.1;D912.29
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1673-8268(2024)04-0040-12
生成式人工智能的廣泛應(yīng)用,需要豐富的數(shù)據(jù)資源支撐其算法運(yùn)算。但這也對(duì)數(shù)據(jù)的收集和處理過(guò)程提出了更高要求,該過(guò)程中所存在的數(shù)據(jù)泄露、算法濫用等風(fēng)險(xiǎn)也將引發(fā)一系列數(shù)據(jù)安全隱患。我國(guó)對(duì)人工智能的法律規(guī)制始于2017年。為了構(gòu)筑我國(guó)人工智能發(fā)展的先發(fā)優(yōu)勢(shì),加快科技強(qiáng)國(guó)建設(shè),2017年7月,國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出了人工智能三步走的戰(zhàn)略發(fā)展目標(biāo)。2019年,《新一代人工智能治理原則》《新一代人工智能倫理規(guī)范》相繼出臺(tái),提出“發(fā)展負(fù)責(zé)任的人工智能”。2022年,我國(guó)各地開(kāi)始逐漸重視人工智能產(chǎn)業(yè)的發(fā)展;當(dāng)年9月,深圳正式發(fā)布我國(guó)首部人工智能產(chǎn)業(yè)專(zhuān)項(xiàng)立法《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》。2023年,ChatGPT的面世和大語(yǔ)言模型的涌現(xiàn)給人工智能治理帶來(lái)了更大的挑戰(zhàn)。
對(duì)于生成式人工智能引發(fā)的數(shù)據(jù)風(fēng)險(xiǎn),我國(guó)目前主要通過(guò)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》為行文簡(jiǎn)潔,下文涉及我國(guó)法律文本名稱(chēng)時(shí),均將“中華人民共和國(guó)”省略。《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》并結(jié)合《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱(chēng)《算法推薦規(guī)定》)、《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱(chēng)《深度合成管理規(guī)定》)、《科技倫理審查辦法(試行)》(征求意見(jiàn)稿)、《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱(chēng)《暫行辦法》)對(duì)其實(shí)施規(guī)制。從近幾年出臺(tái)的《算法推薦規(guī)定》《深度合成管理規(guī)定》等規(guī)范名稱(chēng)不難看出,我國(guó)對(duì)于A(yíng)I傾向于區(qū)分不同技術(shù)方向進(jìn)行規(guī)制,監(jiān)管范圍有限,相關(guān)管理規(guī)范的出臺(tái)往往是為了應(yīng)時(shí)解決某一熱點(diǎn)問(wèn)題,立法上呈現(xiàn)出分散化趨勢(shì)。與生成式人工智能行業(yè)直接相關(guān)的《暫行辦法》多為倡導(dǎo)性、原則性的規(guī)定,有關(guān)數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制的具體應(yīng)用場(chǎng)景細(xì)則還有待完善?;诖?,本文擬從生成式人工智能運(yùn)作邏輯的不同階段中潛在的數(shù)據(jù)風(fēng)險(xiǎn)出發(fā),剖析當(dāng)前數(shù)據(jù)風(fēng)險(xiǎn)加劇的深層次原因,通過(guò)比較域外經(jīng)驗(yàn),以我國(guó)現(xiàn)有的數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制法律框架的規(guī)定為基礎(chǔ),結(jié)合我國(guó)生成式人工智能行業(yè)發(fā)展與最新立法實(shí)踐,就生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)提出有針對(duì)性的建議,以期更好地推動(dòng)生成式人工智能產(chǎn)業(yè)安全有序地發(fā)展。
一、生成式人工智能誘發(fā)的數(shù)據(jù)風(fēng)險(xiǎn)
隨著大語(yǔ)言模型應(yīng)用帶來(lái)的智能涌現(xiàn)和生成式人工智能內(nèi)容輸出質(zhì)量的提升,AI技術(shù)所帶來(lái)的潛在風(fēng)險(xiǎn)也更加深不可測(cè)。ChatGPT-4發(fā)布后不久,意大利數(shù)據(jù)保護(hù)局就以“違法收集數(shù)據(jù)”為由, 將其暫時(shí)禁止使用[1],加拿大聯(lián)邦隱私監(jiān)管局也因OpenAI涉嫌“未經(jīng)同意處理個(gè)人信息”而展開(kāi)調(diào)查[2]。生成式人工智能的運(yùn)作核心主要是通過(guò)算法對(duì)訓(xùn)練數(shù)據(jù)集進(jìn)行加工和生成輸出,在機(jī)器學(xué)習(xí)運(yùn)行過(guò)程中需經(jīng)過(guò)“數(shù)據(jù)輸入、模型處理、內(nèi)容輸出與數(shù)據(jù)存儲(chǔ)”四個(gè)階段,涉及數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)、算法風(fēng)險(xiǎn)、數(shù)據(jù)濫用風(fēng)險(xiǎn)與數(shù)據(jù)泄露風(fēng)險(xiǎn)等不同類(lèi)型的法律風(fēng)險(xiǎn)。需要注意的是,算法風(fēng)險(xiǎn)不僅存在于模型處理階段,各個(gè)階段算法技術(shù)的嵌入都會(huì)放大其引發(fā)的數(shù)據(jù)安全風(fēng)險(xiǎn),即在生成式人工智能應(yīng)用過(guò)程中,數(shù)據(jù)風(fēng)險(xiǎn)與算法風(fēng)險(xiǎn)相互作用、相互生成。為了更好促進(jìn)生成式人工智能產(chǎn)業(yè)安全有序地發(fā)展,有必要以其應(yīng)用的技術(shù)邏輯為基礎(chǔ),對(duì)其應(yīng)用過(guò)程中可能誘發(fā)的數(shù)據(jù)風(fēng)險(xiǎn)進(jìn)行分析。
(一)數(shù)據(jù)輸入:數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)
人工智能大語(yǔ)言模型的應(yīng)用需要大量數(shù)據(jù)的支持,其在“學(xué)習(xí)”大量文本語(yǔ)料的構(gòu)建過(guò)程中存在各種各樣的數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)。在以自動(dòng)識(shí)別算法、網(wǎng)絡(luò)爬蟲(chóng)等技術(shù)方式通過(guò)互聯(lián)網(wǎng)等公開(kāi)渠道獲取數(shù)據(jù)時(shí),其對(duì)于個(gè)人數(shù)據(jù)的收集邊界是模糊的。例如,ChatGPT在訓(xùn)練的過(guò)程中爬取了某點(diǎn)評(píng)網(wǎng)站上關(guān)于某餐飲店的評(píng)價(jià),但由于某用戶(hù)在點(diǎn)評(píng)時(shí)透露了自身的個(gè)人信息,該部分個(gè)人信息進(jìn)入到模型語(yǔ)料庫(kù),進(jìn)而涉嫌侵犯他人個(gè)人信息權(quán)益。進(jìn)一步而言,ChatGPT要生成精確度更高的答案,就需要學(xué)習(xí)歸納更多的數(shù)據(jù)。盡管很多與用戶(hù)有關(guān)的個(gè)人數(shù)據(jù)和當(dāng)事人想獲得的答案之間沒(méi)有直接的關(guān)系,但是,ChatGPT還是會(huì)在應(yīng)用過(guò)程中收集這類(lèi)數(shù)據(jù),并利用知識(shí)蒸餾的方法開(kāi)展深度學(xué)習(xí)[3]。根據(jù)我國(guó)《個(gè)人信息保護(hù)法》的規(guī)定,個(gè)人信息處理者取得個(gè)人同意后才可以處理個(gè)人信息,若ChatGPT獲取、利用的數(shù)據(jù)集中包含公民個(gè)人信息,則必須取得用戶(hù)同意后才能對(duì)其進(jìn)行處理,但在現(xiàn)實(shí)應(yīng)用過(guò)程中,逐一征求用戶(hù)同意基本不可能實(shí)現(xiàn)[4]。除此之外,ChatGPT對(duì)于個(gè)人數(shù)據(jù)還可能存在過(guò)度分析利用的法律風(fēng)險(xiǎn),因?yàn)镃hatGPT收集個(gè)人數(shù)據(jù)的邊界模糊,所以其往往通過(guò)算法技術(shù)對(duì)數(shù)據(jù)進(jìn)行深度分析,以此來(lái)提升答案的準(zhǔn)確性[5]。那么,如何審核個(gè)人信息來(lái)源的合法性和個(gè)人的授權(quán)情況、最大限度減少侵犯他人個(gè)人信息權(quán)益的合規(guī)風(fēng)險(xiǎn)就亟待解決。
除個(gè)人信息收集場(chǎng)景之外,在獲取文本語(yǔ)料時(shí),還可能會(huì)因?yàn)槲凑鞯脵?quán)利人許可復(fù)制、改編或者傳播而涉嫌侵犯他人知識(shí)產(chǎn)權(quán)。2023年12月27日,作為全世界最有影響力的新聞機(jī)構(gòu)之一的《紐約時(shí)報(bào)》正式起訴OpenAI和微軟,指控被告未經(jīng)許可使用《紐約時(shí)報(bào)》的數(shù)百萬(wàn)篇文章訓(xùn)練ChatGPT,嚴(yán)重侵害了《紐約時(shí)報(bào)》的版權(quán)[6]。除此之外,在大模型的靜態(tài)與動(dòng)態(tài)訓(xùn)練的過(guò)程中,可能會(huì)出現(xiàn)使用來(lái)源不明或者非法的數(shù)據(jù)信息的情況;如果前述信息中包含商業(yè)秘密,那么依據(jù)競(jìng)爭(zhēng)法的相關(guān)規(guī)定,將構(gòu)成對(duì)他人商業(yè)秘密的侵害,未經(jīng)授權(quán)通過(guò)自動(dòng)識(shí)別算法、利用網(wǎng)絡(luò)工具爬取數(shù)據(jù)的行為還可能構(gòu)成不正當(dāng)競(jìng)爭(zhēng)。
(二)模型處理:算法風(fēng)險(xiǎn)
對(duì)于生成式人工智能而言,數(shù)據(jù)是生成式人工智能技術(shù)應(yīng)用的基礎(chǔ),算法是通過(guò)技術(shù)手段重構(gòu)數(shù)據(jù)并使其產(chǎn)生價(jià)值的方式。能否恰當(dāng)?shù)厥褂盟惴夹g(shù)分析處理數(shù)據(jù),是考量此類(lèi)高度智能化的大語(yǔ)言模型在實(shí)際應(yīng)用中是否安全的重要因素之一。大模型的算法內(nèi)部機(jī)制和決策過(guò)程不可解釋或者難以理解,導(dǎo)致算法的輸出結(jié)果存在無(wú)法解釋的“黑洞”,即產(chǎn)生“算法黑箱”風(fēng)險(xiǎn)[7]。此外,算法開(kāi)發(fā)者往往傾向于隱藏算法決策的規(guī)則,故而其對(duì)于被決策主體缺乏透明性,可能會(huì)導(dǎo)致用戶(hù)難以理解模型的決策過(guò)程和預(yù)測(cè)結(jié)果,進(jìn)而無(wú)法評(píng)估模型的可靠性和穩(wěn)定性。目前,世界上許多國(guó)家都試圖通過(guò)法律或其他措施推動(dòng)企業(yè)進(jìn)行算法公開(kāi),即算法服務(wù)提供商有責(zé)任披露算法并解釋算法決策的底層邏輯,以應(yīng)對(duì)“算法黑箱”的消極影響[8]。
生成式人工智能模型內(nèi)部機(jī)制的不透明性,給模型處理過(guò)程中誘發(fā)的算法歧視、算法偏見(jiàn)風(fēng)險(xiǎn)治理帶來(lái)了挑戰(zhàn)。既有研究表明,生成式人工智能會(huì)從訓(xùn)練數(shù)據(jù)中復(fù)制有害的社會(huì)偏見(jiàn)和刻板印象[9]。在數(shù)據(jù)輸入階段,算法對(duì)人類(lèi)語(yǔ)言的理解就無(wú)法保證做到完全準(zhǔn)確。如果其本身的算法規(guī)則對(duì)某些特定的個(gè)體或群體存在偏見(jiàn),加之?dāng)?shù)據(jù)集本身就存在固有偏見(jiàn)時(shí),那么大語(yǔ)言模型算法在應(yīng)用、決策或預(yù)測(cè)時(shí)衍生出的結(jié)果一定存在某種偏見(jiàn)。普林斯頓大學(xué)的一項(xiàng)研究表明:由于受到訓(xùn)練數(shù)據(jù)集和語(yǔ)言模型中社會(huì)偏見(jiàn)的影響,ChatGPT的生成內(nèi)容顯示出對(duì)某些特定種族有很強(qiáng)的敵意,而在使用過(guò)程中,假使ChatGPT被賦予某種負(fù)面的人格特質(zhì),其回答也將含有歧視性偏見(jiàn)、錯(cuò)誤的刻板印象等有害內(nèi)容[10]。此外,眾多AI偽造合成的數(shù)據(jù)可能會(huì)被保留甚至流入互聯(lián)網(wǎng),這些帶有偏見(jiàn)的合成數(shù)據(jù)有可能再次被用于機(jī)器學(xué)習(xí),在機(jī)器不斷進(jìn)行自我學(xué)習(xí)的進(jìn)程中,這種偏見(jiàn)將會(huì)被持續(xù)加深強(qiáng)化,導(dǎo)致偏見(jiàn)、歧視的惡性迭代循環(huán)[11]。
(三)內(nèi)容輸出:數(shù)據(jù)濫用風(fēng)險(xiǎn)
關(guān)于生成式人工智能模型的數(shù)據(jù)濫用風(fēng)險(xiǎn),當(dāng)前主要存在兩個(gè)日益嚴(yán)重的問(wèn)題:一是算法濫用導(dǎo)致AI生成的虛假信息泛濫,二是AI詐騙等網(wǎng)絡(luò)犯罪活動(dòng)猖獗。ChatGPT類(lèi)生成式人工智能模型的主要目標(biāo)是模擬人類(lèi)語(yǔ)言,而不是提供一個(gè)準(zhǔn)確的回答。因此,為了獲得用戶(hù)的認(rèn)可,它往往傾向于優(yōu)先考慮編造虛假信息來(lái)提供一個(gè)清楚的回應(yīng)而不是精確的答案。也就是說(shuō),生成式人工智能在輸出內(nèi)容時(shí),可能會(huì)一本正經(jīng)地胡說(shuō)八道,并制造出一些虛假信息。舉例來(lái)說(shuō),盡管生成式人工智能應(yīng)用的算法訓(xùn)練數(shù)據(jù)集中沒(méi)有谷歌公司的營(yíng)業(yè)數(shù)據(jù),但被問(wèn)到谷歌公司當(dāng)年的營(yíng)業(yè)收入時(shí),它可能會(huì)給出一個(gè)隨機(jī)的數(shù)字進(jìn)行回答(例如213億美元)[12]。生成式人工智能擁有超乎想象的數(shù)據(jù)加工、生成和傳播能力,因而極有可能會(huì)被不法分子利用,成為強(qiáng)化黑客攻擊和威脅網(wǎng)絡(luò)安全的工具[13]。近年來(lái),關(guān)于A(yíng)I詐騙的報(bào)道屢見(jiàn)不鮮,AI技術(shù)不僅能偽造他人面孔,還能模仿和合成他人聲音。生成式人工智能的進(jìn)一步發(fā)展更是讓不法分子擁有了更大的作惡能力,其憑借深度合成技術(shù)可以降低成本、提高效率來(lái)偽造圖片視頻,生成虛假信息,以此實(shí)施侮辱、誹謗、詐騙等網(wǎng)絡(luò)犯罪行為,給網(wǎng)絡(luò)安全和社會(huì)秩序造成嚴(yán)重危害。
(四)數(shù)據(jù)存儲(chǔ):數(shù)據(jù)泄露風(fēng)險(xiǎn)
基于大語(yǔ)言模型強(qiáng)大的系統(tǒng)學(xué)習(xí)能力以及交互方式上相對(duì)的自由,這些數(shù)據(jù)的安全性往往無(wú)法有效保障,在交互過(guò)程中存在較大的數(shù)據(jù)泄露風(fēng)險(xiǎn)。其通常表現(xiàn)為以下三種類(lèi)型:一是涉及用戶(hù)生物識(shí)別信息、健康信息等個(gè)人數(shù)據(jù)泄露而引發(fā)的隱私權(quán)侵害問(wèn)題;二是企業(yè)內(nèi)部在使用生成式人工智能產(chǎn)品過(guò)程中,操作不當(dāng)或者模型固有缺陷導(dǎo)致商業(yè)機(jī)密泄露而引發(fā)的不正當(dāng)競(jìng)爭(zhēng)問(wèn)題;三是因泄露國(guó)家秘密引發(fā)的威脅國(guó)家安全問(wèn)題[14]94。雖然生成式人工智能服務(wù)提供者往往會(huì)通過(guò)聲明或在用戶(hù)協(xié)議中設(shè)置相應(yīng)條款的方式來(lái)保證采取匿名、加密等方式對(duì)數(shù)據(jù)進(jìn)行安全防護(hù),但是,大量的公開(kāi)報(bào)道表明,數(shù)據(jù)泄露風(fēng)險(xiǎn)并非空穴來(lái)風(fēng)。比如,OpenAI官方在2023年3月24日發(fā)布聲明稱(chēng),有1.2%的ChatGPT Plus的用戶(hù)數(shù)據(jù)存在數(shù)據(jù)泄露風(fēng)險(xiǎn),其中包含姓名、聊天記錄片段、電子郵箱和付款地址等信息[15]。再比如,據(jù)韓國(guó)媒體報(bào)道,三星內(nèi)部已先后發(fā)生三起誤用、濫用ChatGPT案例,其研發(fā)人員在嘗試使用ChatGPT對(duì)源代碼進(jìn)行修補(bǔ)的過(guò)程中, 反而被ChatGPT掌握了新程序的源代碼以及其他企業(yè)機(jī)密數(shù)據(jù)[16]。為了避免上述情況的發(fā)生,目前已經(jīng)有眾多企業(yè)明確禁止員工使用生成式人工智能模型,包括德意志銀行、摩根大通、高盛、花旗等公司。不難看出,由于生成式人工智能模型具有感知敏感信息的能力,不管訓(xùn)練數(shù)據(jù)集是否包含隱私信息,即使使用者不存在疏忽也有可能因算法技術(shù)漏洞而發(fā)生數(shù)據(jù)泄露。雖然保障數(shù)據(jù)安全的加密技術(shù)正在不斷完善,但是,面對(duì)未來(lái)生成式人工智能技術(shù)的大規(guī)模應(yīng)用趨勢(shì),依然會(huì)有不容忽視的數(shù)據(jù)安全風(fēng)險(xiǎn)[17]21。
二、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)生成的原因
(一)算法高度信任對(duì)法益保護(hù)的沖擊
算法作為技術(shù)進(jìn)步和現(xiàn)實(shí)需要雙重驅(qū)動(dòng)下的產(chǎn)物,因低成本、高效率的優(yōu)勢(shì)被廣泛應(yīng)用于各大行業(yè),人們逐漸習(xí)慣于甚至依賴(lài)于通過(guò)算法程序認(rèn)知世界。生成式人工智能的橫空出世,強(qiáng)化了人們心中對(duì)算法的強(qiáng)大信息處理能力、精準(zhǔn)推薦能力的認(rèn)知,加之經(jīng)濟(jì)性和易獲取性,當(dāng)下社會(huì)中生成式人工智能的應(yīng)用開(kāi)始流行,在一定程度上也可被看作對(duì)搜索算法的依賴(lài)。算法信任不僅包含人們信任算法生成內(nèi)容是準(zhǔn)確、可靠的主觀(guān)意識(shí),還包含了人們信任算法決策不會(huì)對(duì)自身產(chǎn)生不良影響的合理預(yù)期[18]。但事實(shí)上,生成式人工智能利用算法在學(xué)習(xí)和模擬人類(lèi)思維運(yùn)行時(shí),既然可以模擬人類(lèi)的優(yōu)點(diǎn),也無(wú)法避免模擬人類(lèi)的缺點(diǎn)。而且,算法并不總是值得被信任,開(kāi)發(fā)者完全可以在算法中加入自己的偏見(jiàn),即算法本身的可信度存疑。盡管生成式人工智能技術(shù)本身是中立的,但由于價(jià)值缺失或者設(shè)計(jì)缺陷等原因,算法風(fēng)險(xiǎn)極易對(duì)法益保護(hù)產(chǎn)生沖擊。在算法高度信任的背景下,即使生成式人工智能應(yīng)用頁(yè)面標(biāo)注了風(fēng)險(xiǎn)提示,用戶(hù)也可能不以為意甚至忽視其提示,疏于調(diào)查求證其給出的醫(yī)療建議是否具有科學(xué)性便直接應(yīng)用[19]。此外,生成式人工智能開(kāi)發(fā)者的本質(zhì)仍是營(yíng)利法人,對(duì)于算法的開(kāi)發(fā)、升級(jí)不可避免具有逐利性。因此,即使算法應(yīng)用初期合法合規(guī),但其算法設(shè)計(jì)將或多或少受到市場(chǎng)經(jīng)濟(jì)利益的影響而忽略法律價(jià)值和權(quán)利保障的目標(biāo),從而引起侵害社會(huì)公眾法益、影響市場(chǎng)競(jìng)爭(zhēng)等社會(huì)公共秩序的風(fēng)險(xiǎn)。
(二)技術(shù)演變中科技倫理規(guī)范的缺失
在技術(shù)演變過(guò)程中,科技創(chuàng)新要遵循科技道德的價(jià)值觀(guān)念和行為準(zhǔn)則,才能有力保障科技產(chǎn)業(yè)的安全有序發(fā)展。當(dāng)前,生成式人工智能技術(shù)正日趨成熟,其適用范圍逐漸向本屬于人類(lèi)具有獨(dú)創(chuàng)性?xún)r(jià)值的領(lǐng)域深入。然而,在這些領(lǐng)域內(nèi),還沒(méi)有形成完整的生成式人工智能技術(shù)使用理念和行為準(zhǔn)則,很容易在生成式人工智能技術(shù)應(yīng)用過(guò)程中產(chǎn)生一些與科技倫理道德相違背的、不安全、不可控的風(fēng)險(xiǎn)[17]19。科技倫理道德風(fēng)險(xiǎn)的出現(xiàn),一方面是基于生成式AI技術(shù)本身的缺陷,例如訓(xùn)練數(shù)據(jù)集本身就不具有代表性,容易產(chǎn)生偏見(jiàn)、刻板印象等歧視;另一方面,也可能是基于用戶(hù)對(duì)生成式AI模型的濫用,例如用戶(hù)利用生成式AI模型偽造論文、制造謠言等破壞社會(huì)秩序。
技術(shù)本身并無(wú)價(jià)值向度,但人會(huì)賦予其價(jià)值向度[20]。近期歐洲議會(huì)通過(guò)的《人工智能法案》的談判授權(quán)草案,明確聲明嚴(yán)格禁止“對(duì)人類(lèi)安全造成不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)”[21]。從兼顧生成式人工智能技術(shù)的可持續(xù)健康發(fā)展、維護(hù)公民權(quán)益和社會(huì)利益的角度出發(fā),應(yīng)在遵守技術(shù)向善原則的基礎(chǔ)上,通過(guò)立法規(guī)定要求技術(shù)研發(fā)與使用行為遵守公序良俗和社會(huì)公德。2023年7月13日,國(guó)家互聯(lián)網(wǎng)信息辦公室(以下簡(jiǎn)稱(chēng)“國(guó)家網(wǎng)信辦”)公布《暫行辦法》,明確規(guī)定有關(guān)生成式人工智能的內(nèi)容要合法合規(guī)、禁止算法歧視、不得生成虛假信息、不得侵犯他人合法權(quán)益等相關(guān)內(nèi)容,這對(duì)于應(yīng)對(duì)生成式人工智能可能帶來(lái)的倫理道德風(fēng)險(xiǎn)具有重要的引導(dǎo)性作用。但相關(guān)科技倫理規(guī)范仍不夠明確化、具體化和制度化,如何應(yīng)對(duì)生成式人工智能可能帶來(lái)的倫理道德風(fēng)險(xiǎn),仍將成為較長(zhǎng)時(shí)間內(nèi)人類(lèi)與AI相處過(guò)程中的重要議題。
(三)用戶(hù)數(shù)據(jù)主體權(quán)利保障不足
生成式人工智能系統(tǒng)在開(kāi)發(fā)、部署以及應(yīng)用過(guò)程中所有需要使用個(gè)人數(shù)據(jù)的環(huán)節(jié),均要考慮對(duì)主體數(shù)據(jù)權(quán)利的保護(hù)。但實(shí)際上,數(shù)據(jù)主體的知情權(quán)、更正權(quán)、刪除權(quán)等數(shù)據(jù)權(quán)利的實(shí)現(xiàn)并不樂(lè)觀(guān)。例如,近期一款由用戶(hù)上傳照片后依據(jù)AI能力再度“生成”同一人照片的AIGC類(lèi)應(yīng)用“妙鴨相機(jī)”獲得廣泛關(guān)注,其近似“霸王條款”的用戶(hù)協(xié)議也飽受爭(zhēng)議。據(jù)媒體報(bào)道,妙鴨相機(jī)初版用戶(hù)協(xié)議的“授權(quán)許可”條款用一句話(huà)概括就是:用戶(hù)授權(quán)妙鴨相機(jī),無(wú)償且永久地使用該信息[22]。不難看出,在人工智能時(shí)代,企業(yè)對(duì)數(shù)據(jù)要素的爭(zhēng)奪愈發(fā)激烈,用戶(hù)很容易陷入被動(dòng)的位置,其數(shù)據(jù)隱私安全面臨的挑戰(zhàn)日益嚴(yán)峻。
生成式人工智能訓(xùn)練數(shù)據(jù)集的建設(shè)與改進(jìn)可以被劃分為主動(dòng)和被動(dòng)兩種類(lèi)型。在被動(dòng)組建過(guò)程中,系統(tǒng)將自動(dòng)保存人機(jī)交互過(guò)程中用戶(hù)輸入的信息并將其納入訓(xùn)練數(shù)據(jù)庫(kù)[23]。這種高度自動(dòng)化的數(shù)據(jù)收集過(guò)程中,不能及時(shí)與數(shù)據(jù)主體進(jìn)行交流,容易導(dǎo)致對(duì)知情同意原則的適用陷入困境。實(shí)際上,對(duì)數(shù)據(jù)享有實(shí)際控制權(quán)的一方并不會(huì)止步于初步掌握數(shù)據(jù)原始主體披露的數(shù)據(jù),而往往會(huì)通過(guò)多種智能分析技術(shù)不斷對(duì)其進(jìn)行挖掘與再識(shí)別,找出零散數(shù)據(jù)間的特殊關(guān)聯(lián),進(jìn)而可能打破對(duì)數(shù)據(jù)的匿名化、侵犯用戶(hù)隱私[24]??梢?jiàn),生成式人工智能這個(gè)超大型語(yǔ)言模型由于在應(yīng)用過(guò)程中存在過(guò)度收集行為和其數(shù)據(jù)挖掘原則尚不明確,故在維護(hù)用戶(hù)數(shù)據(jù)安全、落實(shí)用戶(hù)數(shù)據(jù)主體權(quán)利方面應(yīng)滿(mǎn)足更高的要求。
三、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制的域外經(jīng)驗(yàn)
任何技術(shù)都是一把“雙刃劍”,生成式人工智能實(shí)現(xiàn)了從感知理解世界到生成創(chuàng)造世界的躍遷,同時(shí)也帶來(lái)了算法黑箱、數(shù)據(jù)隱私、網(wǎng)絡(luò)安全、技術(shù)倫理等方面的挑戰(zhàn)。聚焦生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)問(wèn)題,各國(guó)都開(kāi)始意識(shí)到對(duì)其進(jìn)行監(jiān)管的必要性,并加大審查與監(jiān)管力度,力求在控制生成式人工智能風(fēng)險(xiǎn)的同時(shí)助力生成式人工智能產(chǎn)業(yè)健康發(fā)展。
(一)強(qiáng)監(jiān)管或弱監(jiān)管的抉擇
1.歐盟:先監(jiān)管后發(fā)展
從歐盟成員國(guó)范圍來(lái)看,意大利個(gè)人數(shù)據(jù)保護(hù)局最早對(duì)生成式人工智能ChatGPT采取監(jiān)管措施,以涉嫌違反隱私法規(guī)為由,禁止了ChatGPT在本國(guó)的使用,直到OpenAI遵守其關(guān)于用戶(hù)隱私保護(hù)的規(guī)定[25]。目前歐盟已在整個(gè)歐盟層面開(kāi)始醞釀具體監(jiān)管措施,對(duì)于生成式人工智能的發(fā)展更側(cè)重立法和監(jiān)管路徑,這與歐盟一貫先控制其可能帶來(lái)的安全風(fēng)險(xiǎn)、再鼓勵(lì)產(chǎn)業(yè)發(fā)展的嚴(yán)謹(jǐn)態(tài)度相符合。
2.美國(guó):兼顧發(fā)展與數(shù)據(jù)保護(hù)
與歐盟先規(guī)范后發(fā)展的監(jiān)管立場(chǎng)不同,美國(guó)在人工智能問(wèn)題的治理方面主要采取相對(duì)開(kāi)放的管理戰(zhàn)略,以此來(lái)維持自己在這一領(lǐng)域中的國(guó)際領(lǐng)先地位,其更注重在不過(guò)多干預(yù)的情況下鼓勵(lì)人工智能技術(shù)的發(fā)展。2020年5月,《生成人工智能網(wǎng)絡(luò)安全法案》(Generating Artificial Intelligence Networking Security (GAINS) Act)明確提出,美國(guó)聯(lián)邦貿(mào)易委員會(huì)和商務(wù)部應(yīng)掌握人工智能技術(shù)的落地應(yīng)用給美國(guó)帶來(lái)的優(yōu)勢(shì)和負(fù)面影響;2020年8月的《數(shù)據(jù)問(wèn)責(zé)和透明度法案》(Data Accountability and Transparency Act of 2020)就企業(yè)相關(guān)服務(wù)的隱私收集問(wèn)題進(jìn)行密切關(guān)注;2020年11月,《人工智能監(jiān)管原則草案》(Guidance for Regulation of Artificial Intelligence Applications)則要求聯(lián)邦機(jī)構(gòu)在制定人工智能方法時(shí),應(yīng)考慮公眾對(duì)人工智能的信任與參與、風(fēng)險(xiǎn)評(píng)估與管理、公平與非歧視、披露與透明度、安全與保障等因素。
(二)重視用戶(hù)數(shù)據(jù)主體權(quán)利保障
在人工智能數(shù)據(jù)治理中,歐盟更注重對(duì)個(gè)人數(shù)據(jù)和個(gè)人權(quán)利的保護(hù)[26]。2018年5月,歐盟最嚴(yán)數(shù)據(jù)保護(hù)立法《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)正式施行,在世界范圍內(nèi)引發(fā)關(guān)注。當(dāng)ChatGPT在處理個(gè)人隱私數(shù)據(jù)時(shí),同樣需要遵守該條例的規(guī)定,以確保數(shù)據(jù)處理的安全和透明,否則將會(huì)被處以2 000萬(wàn)歐元或高達(dá)年收入4%的罰款。美國(guó)人工智能數(shù)據(jù)風(fēng)險(xiǎn)治理對(duì)用戶(hù)數(shù)據(jù)權(quán)利保障同樣給予了高度重視。2022年10月,美國(guó)白宮發(fā)布的《人工智能權(quán)利法案藍(lán)圖》(Blueprint for an AI Bill of Right)提出了負(fù)責(zé)任地使用人工智能路線(xiàn)圖。該文件對(duì)人工智能數(shù)據(jù)安全、算法歧視、數(shù)據(jù)隱私等方面給予指導(dǎo),特別關(guān)注對(duì)于公民權(quán)利保障和人權(quán)侵犯的意外后果。2023年5月,美國(guó)國(guó)會(huì)研究處發(fā)布報(bào)告《生成式人工智能和數(shù)據(jù)隱私:初探》,對(duì)生成式人工智能如何使用數(shù)據(jù)、可能引發(fā)的數(shù)據(jù)隱私風(fēng)險(xiǎn)等問(wèn)題進(jìn)行了分析,并提出了相應(yīng)對(duì)策,主要包括以下內(nèi)容:第一,建立通知和披露機(jī)制,可以要求開(kāi)發(fā)者在收集或使用個(gè)人數(shù)據(jù)之前獲得數(shù)據(jù)主體的同意,同時(shí)告知數(shù)據(jù)主體他們的數(shù)據(jù)將用于何種目的;第二,退出機(jī)制,對(duì)于尚未公開(kāi)的數(shù)據(jù),生成式人工智能的開(kāi)發(fā)者可以向用戶(hù)提供退出數(shù)據(jù)收集的選項(xiàng);第三,刪除和最小收集要求,即用戶(hù)有權(quán)從當(dāng)前數(shù)據(jù)集中刪除自己的數(shù)據(jù),或以最短的期限保留其個(gè)人數(shù)據(jù)[27]。
(三)加強(qiáng)分級(jí)分類(lèi)監(jiān)管與科技倫理審查
隨著人工智能技術(shù)的發(fā)展,歐盟委員會(huì)在2021年提出了《人工智能法案》的立法提案,并于2024年3月被歐洲議會(huì)表決通過(guò);2024年5月21日,部長(zhǎng)理事會(huì)也正式批準(zhǔn)了該法案。這是世界范圍內(nèi)第一部針對(duì)人工智能進(jìn)行規(guī)制的法律,主要特點(diǎn)是依循風(fēng)險(xiǎn)分類(lèi)分級(jí)的思路對(duì)人工智能系統(tǒng)進(jìn)行監(jiān)管治理。該法案將風(fēng)險(xiǎn)劃分為不可接受的風(fēng)險(xiǎn)(unacceptable risk)、高風(fēng)險(xiǎn)(high risk)、有限風(fēng)險(xiǎn)(limited risk)和最小風(fēng)險(xiǎn)(minimal risk),針對(duì)不同等級(jí)的風(fēng)險(xiǎn),法案將實(shí)施不同程度的控制措施。該法案自提出至今,歷經(jīng)多次更改,目前最新版針對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者的義務(wù)作了特別規(guī)定,包括應(yīng)當(dāng)完成合格性評(píng)估程序、履行注冊(cè)義務(wù)以及負(fù)有設(shè)立質(zhì)量管理體系的義務(wù)等內(nèi)容[28]。
2019年,歐盟在人工智能算法、科技倫理監(jiān)管方面有所發(fā)展,發(fā)布了《算法問(wèn)責(zé)及透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency),提出了一個(gè)應(yīng)用廣泛、內(nèi)容全面的監(jiān)管框架來(lái)治理迅速發(fā)展的算法應(yīng)用。此外,通過(guò)《可信賴(lài)人工智能倫理準(zhǔn)則》(Ethical Guidelines for Trustworthy AI)提出的尊重人自主性(respect for human autonomy)、預(yù)防傷害(prevention of harm)、公平性(fairness)和可解釋性(interpretability)四項(xiàng)倫理準(zhǔn)則以及人的能動(dòng)性和監(jiān)督(human agency and oversight)、技術(shù)魯棒性和安全性(technical robustness and safety)、隱私和數(shù)據(jù)管理(privacy and data government)、透明性(transparency)、多樣性、非歧視性和公平性(diversity, non-discrimination and fairness)、社會(huì)和環(huán)境福祉(social and environmental well-being)和問(wèn)責(zé)(accountability)實(shí)現(xiàn)可信賴(lài)AI的七個(gè)關(guān)鍵要素[29]。
歐盟和美國(guó)各有側(cè)重的人工智能數(shù)據(jù)風(fēng)險(xiǎn)治理路徑探索,為我國(guó)生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)的法律治理提供了有益的借鑒??梢钥闯?,對(duì)技術(shù)手段實(shí)施合理規(guī)制是十分必要的,只要監(jiān)管方案與控制手段設(shè)計(jì)得當(dāng),便能在促進(jìn)發(fā)展的同時(shí)防范風(fēng)險(xiǎn)。我國(guó)需根據(jù)生成式人工智能的發(fā)展現(xiàn)狀,以及可能產(chǎn)生的一系列具體問(wèn)題,探尋具有中國(guó)特色的法律規(guī)制路徑,在鼓勵(lì)技術(shù)革新的同時(shí)維護(hù)數(shù)據(jù)安全。
四、生成式人工智能數(shù)據(jù)風(fēng)險(xiǎn)規(guī)制的路徑
生成式人工智能是數(shù)字經(jīng)濟(jì)發(fā)展的重要底層技術(shù),《暫行辦法》的出臺(tái),表明我國(guó)在平衡AI技術(shù)創(chuàng)新與安全發(fā)展方面開(kāi)始進(jìn)行有益探索。面對(duì)呈爆炸級(jí)趨勢(shì)增長(zhǎng)的生成式人工智能應(yīng)用,應(yīng)把握監(jiān)管重點(diǎn)、守正創(chuàng)新,對(duì)數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)、算法風(fēng)險(xiǎn)、數(shù)據(jù)濫用風(fēng)險(xiǎn)和數(shù)據(jù)泄露風(fēng)險(xiǎn)進(jìn)行有針對(duì)性的法律規(guī)制,監(jiān)管和引導(dǎo)生成式AI技術(shù)應(yīng)用健康向善發(fā)展。
(一)數(shù)據(jù)源合規(guī)風(fēng)險(xiǎn)規(guī)制
在對(duì)海量數(shù)據(jù)進(jìn)行算法訓(xùn)練、模型應(yīng)用前,生成式人工智能服務(wù)開(kāi)發(fā)者首先要進(jìn)行數(shù)據(jù)收集處理活動(dòng)。研發(fā)企業(yè)應(yīng)遵循《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》規(guī)定的數(shù)據(jù)收集的一般原則,合規(guī)經(jīng)營(yíng)并確保數(shù)據(jù)來(lái)源合法合規(guī),同時(shí)通過(guò)多種渠道和措施保障數(shù)據(jù)主體權(quán)利實(shí)現(xiàn),有效防控?cái)?shù)據(jù)源合規(guī)風(fēng)險(xiǎn)。
1.強(qiáng)化企業(yè)合規(guī)經(jīng)營(yíng),確保數(shù)據(jù)來(lái)源合法
生成式人工智能訓(xùn)練數(shù)據(jù)的來(lái)源方式主要可以分為三種:一是通過(guò)網(wǎng)絡(luò)爬蟲(chóng)、自動(dòng)識(shí)別算法等自動(dòng)化工具自行收集數(shù)據(jù),二是間接向數(shù)據(jù)提供方收集數(shù)據(jù),三是直接面向數(shù)據(jù)主體收集數(shù)據(jù)。針對(duì)第一種情況,研發(fā)企業(yè)應(yīng)注意自動(dòng)獲取數(shù)據(jù)時(shí)的合規(guī)風(fēng)險(xiǎn)。根據(jù)我國(guó)《刑法》的相關(guān)規(guī)定,利用爬蟲(chóng)等計(jì)算機(jī)技術(shù)程序,非法入侵計(jì)算機(jī)系統(tǒng)從而獲得數(shù)據(jù)的,可能構(gòu)成侵犯商業(yè)秘密罪或者非法侵入計(jì)算機(jī)信息系統(tǒng)罪??梢钥闯觯覈?guó)法律已經(jīng)明令禁止非法獲取數(shù)據(jù)的行為。因此,研發(fā)企業(yè)有必要事先制定相應(yīng)的數(shù)據(jù)合規(guī)計(jì)劃,了解如何合法合規(guī)地獲取數(shù)據(jù)和數(shù)據(jù)獲取過(guò)程中可能遇到的刑事風(fēng)險(xiǎn),并制定詳細(xì)具體的風(fēng)險(xiǎn)規(guī)制措施。企業(yè)若采用“爬蟲(chóng)”“自動(dòng)識(shí)別算法”等自動(dòng)化工具收集數(shù)據(jù),則應(yīng)當(dāng)自行評(píng)估其“爬取”“識(shí)別”數(shù)據(jù)的行為對(duì)目標(biāo)網(wǎng)絡(luò)系統(tǒng)可能造成的不利影響,不得影響目標(biāo)網(wǎng)絡(luò)系統(tǒng)功能的正常使用[30]。研發(fā)企業(yè)向數(shù)據(jù)提供方獲取開(kāi)源數(shù)據(jù)集來(lái)間接收集數(shù)據(jù)用以模型訓(xùn)練時(shí),應(yīng)積極審查數(shù)據(jù)提供方是否具備提供數(shù)據(jù)的法律依據(jù)及合法性來(lái)源,涉及知識(shí)產(chǎn)權(quán)的,不得侵害他人依法享有的知識(shí)產(chǎn)權(quán),并要求數(shù)據(jù)提供方配合定期開(kāi)展合規(guī)審計(jì),確保數(shù)據(jù)來(lái)源的合法合規(guī)[31]。
2.強(qiáng)化用戶(hù)數(shù)據(jù)主體權(quán)利保障
直接面向數(shù)據(jù)主體收集數(shù)據(jù)時(shí),特別是涉及有關(guān)個(gè)人信息的數(shù)據(jù)收集過(guò)程中,研發(fā)企業(yè)需要將《個(gè)人信息保護(hù)法》規(guī)定的知情同意、最小必要和適當(dāng)?shù)然驹瓌t的踐行情況作為個(gè)人信息處理審查的重要標(biāo)準(zhǔn)。首先,應(yīng)根據(jù)現(xiàn)實(shí)具體的服務(wù)場(chǎng)景針對(duì)性地采集個(gè)人數(shù)據(jù),并明確告知用戶(hù)收集、使用個(gè)人信息的具體范圍與目的以及數(shù)據(jù)可能存在的泄露風(fēng)險(xiǎn),確保獲取的個(gè)人數(shù)據(jù)已經(jīng)取得用戶(hù)真實(shí)同意。特別是在人機(jī)交互過(guò)程中,在收集記錄用戶(hù)的輸入和輸出內(nèi)容時(shí)應(yīng)以顯著標(biāo)識(shí)進(jìn)行說(shuō)明,并充分給予使用者拒絕提供的權(quán)利。企業(yè)內(nèi)部應(yīng)設(shè)立專(zhuān)門(mén)的審查機(jī)構(gòu),對(duì)數(shù)據(jù)采集內(nèi)容進(jìn)行合規(guī)審查,非法數(shù)據(jù)、未經(jīng)用戶(hù)明確同意或者許可的數(shù)據(jù)均不能納入算法的訓(xùn)練數(shù)據(jù)集。其次,開(kāi)發(fā)者應(yīng)該在保證正常提供生成式人工智能產(chǎn)品服務(wù)時(shí)所必須的最小范圍內(nèi)采集個(gè)人數(shù)據(jù),不應(yīng)過(guò)度延伸。最后,根據(jù)《暫行辦法》第9條規(guī)定,生成式人工智能服務(wù)提供者提供的服務(wù)中如果存在與用戶(hù)個(gè)人信息相關(guān)聯(lián)的,提供者應(yīng)當(dāng)按照法律規(guī)定積極履行個(gè)人信息保護(hù)義務(wù),并通過(guò)與用戶(hù)簽訂使用協(xié)議或者服務(wù)協(xié)議的方式,在協(xié)議條款中對(duì)雙方的權(quán)利義務(wù)作出明確規(guī)定。生成式人工智能服務(wù)開(kāi)發(fā)者應(yīng)確保能夠及時(shí)處理用戶(hù)的查閱、復(fù)制、更正、補(bǔ)充、刪除其個(gè)人信息等請(qǐng)求,保障其對(duì)個(gè)人數(shù)據(jù)的刪除權(quán)、更正權(quán)、拒絕權(quán)及自主決定權(quán)的正常行使。
(二)算法風(fēng)險(xiǎn)規(guī)制
生成式人工智能的運(yùn)作機(jī)制離不開(kāi)算法,而算法的實(shí)施又會(huì)產(chǎn)生算法黑箱、算法偏見(jiàn)或算法歧視等問(wèn)題。鑒于生成式人工智能的算法風(fēng)險(xiǎn)以及域外治理現(xiàn)狀,法律應(yīng)及時(shí)介入,積極推進(jìn)算法監(jiān)管,重點(diǎn)關(guān)注算法的安全性和公平性。
1.加強(qiáng)算法備案,推進(jìn)算法透明度治理
近年來(lái),我國(guó)積極探索人工智能領(lǐng)域算法監(jiān)管。2021年,國(guó)家網(wǎng)信辦公布的《算法推薦規(guī)定》主要用于規(guī)范算法推薦服務(wù)提供者使用生成合成類(lèi)等算法推薦技術(shù)來(lái)提供服務(wù)的行為。2022年,國(guó)家網(wǎng)信辦又發(fā)布《深度合成管理規(guī)定》,對(duì)深度合成技術(shù)提出一系列要求。2023年,為應(yīng)對(duì)ChatGPT的面世和大模型領(lǐng)域的密集動(dòng)態(tài),除正式出臺(tái)《暫行辦法》外,《人工智能法(草案)》也被列入國(guó)務(wù)院2023年度立法工作計(jì)劃中。其中,根據(jù)《暫行辦法》第4條規(guī)定,生成式人工智能服務(wù)提供者和算法使用者在選取訓(xùn)練數(shù)據(jù)、建立與優(yōu)化大語(yǔ)言模型的過(guò)程中,應(yīng)該避免對(duì)不同種族、不同性別、不同國(guó)家、不同職業(yè)、不同年齡、不同信仰等方面進(jìn)行歧視。《暫行辦法》第17條規(guī)定,向公眾提供容易引發(fā)社會(huì)輿論或者具備一定社會(huì)動(dòng)員功能的生成式人工智能服務(wù)前,要嚴(yán)格依照法律規(guī)定進(jìn)行事前安全評(píng)估,并依照《算法推薦規(guī)定》履行算法備案、變更或者注銷(xiāo)手續(xù)。因此,作為一個(gè)負(fù)責(zé)任的生成式人工智能應(yīng)用開(kāi)發(fā)者應(yīng)積極履行算法備案與安全評(píng)估義務(wù),并應(yīng)根據(jù)監(jiān)管機(jī)構(gòu)要求提供必要信息。在算法設(shè)計(jì)與實(shí)際應(yīng)用過(guò)程中,算法開(kāi)發(fā)者應(yīng)當(dāng)一直堅(jiān)持“以人為本”的技術(shù)向善發(fā)展觀(guān)念,始終遵循各行業(yè)的倫理規(guī)范以及算法設(shè)計(jì)倫理準(zhǔn)則進(jìn)行研發(fā)設(shè)計(jì),并適時(shí)地對(duì)算法運(yùn)行規(guī)則進(jìn)行調(diào)整和更新,以最大限度地避免算法本身所帶來(lái)的先天歧視[32]。截至2023年9月1日,國(guó)家網(wǎng)信辦已經(jīng)公布了兩批深度合成服務(wù)算法備案清單,共計(jì)151項(xiàng),包括阿里、百度、科大訊飛等大模型算法,保障了公眾知情權(quán)和技術(shù)透明度。
2.賦予算法解釋義務(wù),落實(shí)算法主體責(zé)任
算法運(yùn)算透明并不意味著算法的完全公開(kāi),僅規(guī)定算法備案制度還難以實(shí)現(xiàn)對(duì)科技創(chuàng)新的保護(hù)與監(jiān)管之間的平衡。因此,在后續(xù)立法或?qū)嵺`中應(yīng)細(xì)化公開(kāi)義務(wù),具體規(guī)定應(yīng)當(dāng)進(jìn)行算法披露的程度和限度,避免侵犯商業(yè)秘密,并賦予算法設(shè)計(jì)者合理的解釋義務(wù)以減少不必要的糾紛。在算法解釋義務(wù)的具體構(gòu)建中,可以考慮引入雙向驅(qū)動(dòng)型算法解釋工具,即當(dāng)相對(duì)人認(rèn)為生成內(nèi)容侵犯?jìng)€(gè)人利益或者公共利益時(shí),有權(quán)請(qǐng)求算法開(kāi)發(fā)者和使用者向監(jiān)管部門(mén)承擔(dān)解釋說(shuō)明任務(wù),監(jiān)管部門(mén)或者司法機(jī)關(guān)在相關(guān)執(zhí)法司法活動(dòng)等特定場(chǎng)景中,有權(quán)要求算法開(kāi)發(fā)者和使用者就產(chǎn)生爭(zhēng)議的算法決策進(jìn)行解釋?zhuān)?3]。除此之外,為消除算法黑箱與算法偏見(jiàn)帶來(lái)的規(guī)則盲區(qū),還應(yīng)該通過(guò)明確責(zé)任主體、歸責(zé)原則、責(zé)任分配及法律后果等方式,完善算法問(wèn)責(zé)機(jī)制,落實(shí)算法主體責(zé)任[34]。
(三)數(shù)據(jù)濫用風(fēng)險(xiǎn)規(guī)制
生成式人工智能的發(fā)展為多領(lǐng)域帶來(lái)了創(chuàng)新機(jī)遇,但也帶來(lái)了虛假信息傳播、AI詐騙猖獗等威脅社會(huì)穩(wěn)定的數(shù)據(jù)濫用風(fēng)險(xiǎn)。針對(duì)可能存在的數(shù)據(jù)濫用風(fēng)險(xiǎn),應(yīng)當(dāng)強(qiáng)化科研倫理的法治化,實(shí)現(xiàn)科技向善治理,同時(shí)建立多元監(jiān)管機(jī)制,實(shí)現(xiàn)全鏈條合法性監(jiān)管。
1.加強(qiáng)科技倫理審查,實(shí)現(xiàn)科技向善治理
科技倫理是指進(jìn)行科學(xué)研究、技術(shù)創(chuàng)新等科技活動(dòng)時(shí),必須要遵循的行為準(zhǔn)則和價(jià)值理念,包括科研行為必須要遵守的學(xué)術(shù)規(guī)范以及現(xiàn)實(shí)社會(huì)基本道德對(duì)科研成果進(jìn)行規(guī)范的邊界[35]。在生成式人工智能產(chǎn)業(yè)大力發(fā)展的進(jìn)程中,必須時(shí)刻謹(jǐn)記“以人為本倫理先行”和“科技為人服務(wù)”的理念,不能盲目地為了追求利潤(rùn)最大化而忽視研發(fā)底線(xiàn)。當(dāng)前,我國(guó)雖出臺(tái)了《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《新一代人工智能倫理規(guī)范》等頂層設(shè)計(jì)和制度方案,但仍難以適應(yīng)人工智能領(lǐng)域科技創(chuàng)新發(fā)展的現(xiàn)實(shí)需要,在具體規(guī)則和實(shí)施落地等方面還需不斷推進(jìn)。具體而言,可以嘗試通過(guò)對(duì)生成式人工智能從開(kāi)發(fā)到現(xiàn)實(shí)使用的不同階段、應(yīng)用的不同領(lǐng)域或者同一領(lǐng)域的不同場(chǎng)景特征與構(gòu)成要素,分別制定更具有行業(yè)針對(duì)性的科技倫理審查標(biāo)準(zhǔn),從而指導(dǎo)研發(fā)企業(yè)依法依規(guī)開(kāi)展科技創(chuàng)新活動(dòng)[36]。與此同時(shí),還可以考慮建立獨(dú)立的人工智能倫理審查機(jī)構(gòu)(如科技倫理委員會(huì)),并組織制定生成式AI的倫理指南、自律公約等行業(yè)規(guī)范來(lái)提高行業(yè)準(zhǔn)入門(mén)檻,在生成式AI進(jìn)入市場(chǎng)前進(jìn)行道德審查。
2.建立多元監(jiān)管機(jī)制,實(shí)現(xiàn)全鏈條合法性監(jiān)管
我國(guó)對(duì)于生成式人工智能應(yīng)用風(fēng)險(xiǎn)的監(jiān)管治理,主要采用目標(biāo)與問(wèn)題導(dǎo)向相結(jié)合的風(fēng)險(xiǎn)治理框架,既不同于歐盟相對(duì)嚴(yán)苛的風(fēng)險(xiǎn)監(jiān)管模式,也不同于美國(guó)幾乎沒(méi)有限制的寬松風(fēng)險(xiǎn)監(jiān)管模式。為有效規(guī)制數(shù)據(jù)濫用風(fēng)險(xiǎn),完善生成式人工智能的法治保障,應(yīng)根據(jù)《暫行辦法》規(guī)定的“包容審慎”監(jiān)管原則《生成式人工智能服務(wù)管理暫行辦法》第3條規(guī)定:“國(guó)家堅(jiān)持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵(lì)生成式人工智能創(chuàng)新發(fā)展,對(duì)生成式人工智能服務(wù)實(shí)行包容審慎和分類(lèi)分級(jí)監(jiān)管。”,優(yōu)化和升級(jí)人工智能安全監(jiān)管模式,建立多元長(zhǎng)效監(jiān)管機(jī)制,實(shí)現(xiàn)對(duì)生成內(nèi)容的全鏈條合法性監(jiān)管。
一方面,可以考慮建立覆蓋研發(fā)運(yùn)行全程的獨(dú)立監(jiān)管機(jī)構(gòu),制定統(tǒng)一的生成式人工智能責(zé)任框架,合理平衡數(shù)據(jù)安全與科技創(chuàng)新的保護(hù)邊界。監(jiān)管者在既有數(shù)據(jù)安全監(jiān)管基礎(chǔ)上,可以考慮引入影響評(píng)估、監(jiān)管沙盒等制度,同時(shí)要求服務(wù)提供者如實(shí)依法報(bào)送算法、技術(shù)等必要信息。值得注意的是,在促進(jìn)算法開(kāi)源的過(guò)程中,應(yīng)當(dāng)特別注意對(duì)初創(chuàng)公司和個(gè)人創(chuàng)業(yè)者的保護(hù)。此外,監(jiān)管者應(yīng)當(dāng)將監(jiān)管審查重點(diǎn)聚焦于商業(yè)化應(yīng)用層面,積極進(jìn)行生成式人工智能應(yīng)用安全評(píng)估與檢查,將其可能出現(xiàn)的偏差與錯(cuò)誤及時(shí)通知服務(wù)提供者,并督促其進(jìn)行檢測(cè)和排除,防止生成式人工智能被用于非法或不道德的目的[37]。
另一方面,研發(fā)企業(yè)自身應(yīng)通過(guò)多種機(jī)制和技術(shù)手段加強(qiáng)對(duì)數(shù)據(jù)濫用風(fēng)險(xiǎn)的監(jiān)管。從OpenAI等企業(yè)受到監(jiān)管和關(guān)注不難發(fā)現(xiàn),一家可持續(xù)發(fā)展的AI企業(yè)必須具備良好的風(fēng)險(xiǎn)治理水平、持續(xù)的合規(guī)風(fēng)險(xiǎn)治理更新和改善能力。當(dāng)生成式人工智能產(chǎn)品投入市場(chǎng)運(yùn)營(yíng)時(shí),服務(wù)提供者應(yīng)當(dāng)同時(shí)對(duì)產(chǎn)品中是否存在違法違規(guī)內(nèi)容進(jìn)行實(shí)時(shí)監(jiān)督和處置。根據(jù)《暫行辦法》有關(guān)規(guī)定參見(jiàn)《生成式人工智能服務(wù)管理暫行辦法》第7條、第14條。,生成式人工智能服務(wù)研發(fā)人員在選取訓(xùn)練數(shù)據(jù)集、涉及算法、建立與優(yōu)化大語(yǔ)言模型的過(guò)程中, 應(yīng)采取必要措施防止其生成違法內(nèi)容;服務(wù)提供者一旦發(fā)現(xiàn)侵權(quán)或者生成內(nèi)容違法時(shí),應(yīng)立即采取更正、屏蔽、刪除等措施, 并在后續(xù)對(duì)生成式人工智能模型進(jìn)行內(nèi)容過(guò)濾或模型優(yōu)化訓(xùn)練。研發(fā)者可以在算法技術(shù)中嵌入虛假信息監(jiān)測(cè)技術(shù),及時(shí)更新、優(yōu)化算法,在內(nèi)容輸出前進(jìn)行事先審查,提高輸出內(nèi)容的準(zhǔn)確度和可信度。此外,還可以在產(chǎn)品使用頁(yè)面增加質(zhì)疑通道,當(dāng)用戶(hù)發(fā)現(xiàn)使用過(guò)程中生成了虛假信息或者違法信息時(shí),可以及時(shí)反饋給服務(wù)提供者或開(kāi)發(fā)者,系統(tǒng)也應(yīng)對(duì)該內(nèi)容進(jìn)行自動(dòng)標(biāo)注以便提示其他用戶(hù)[14]98。
(四)數(shù)據(jù)泄露風(fēng)險(xiǎn)規(guī)制
數(shù)據(jù)泄露風(fēng)險(xiǎn)規(guī)制是生成式人工智能發(fā)展過(guò)程中不可回避的重點(diǎn)和難點(diǎn)之一,因?yàn)橐坏┌l(fā)生數(shù)據(jù)泄露事件,不僅會(huì)影響企業(yè)聲譽(yù)從而引發(fā)信任危機(jī),還可能需要承擔(dān)嚴(yán)重的刑事責(zé)任。我國(guó)《數(shù)據(jù)安全法》第45條規(guī)定,數(shù)據(jù)處理者在數(shù)據(jù)處理活動(dòng)中引發(fā)大規(guī)模數(shù)據(jù)泄露事件,將被處以高昂罰款,并責(zé)令停業(yè)整頓甚至吊銷(xiāo)營(yíng)業(yè)執(zhí)照。在當(dāng)前我國(guó)堅(jiān)持發(fā)展和安全并重、對(duì)生成式人工智能服務(wù)實(shí)行包容審慎和分類(lèi)分級(jí)監(jiān)管的形勢(shì)下,研發(fā)生成式人工智能大模型的企業(yè)應(yīng)更加關(guān)注數(shù)據(jù)泄露的防范措施。治理數(shù)據(jù)泄露風(fēng)險(xiǎn),只有從技術(shù)和管理制度兩方面入手,雙管齊下方能達(dá)到事半功倍的效果。
1.嚴(yán)格控制數(shù)據(jù)共享范圍,引導(dǎo)和促進(jìn)新技術(shù)應(yīng)用
從技術(shù)角度來(lái)看,研發(fā)者應(yīng)當(dāng)對(duì)數(shù)據(jù)共享渠道和共享對(duì)象進(jìn)行嚴(yán)格管理,只能在獲得用戶(hù)同意的范圍內(nèi)進(jìn)行數(shù)據(jù)共享,遵守《暫行辦法》第11條的規(guī)定,即“提供者不得非法向他人提供使用者的輸入信息和使用記錄”。當(dāng)無(wú)法避免數(shù)據(jù)要素在市場(chǎng)上流通時(shí),應(yīng)當(dāng)對(duì)其進(jìn)行嚴(yán)格的脫敏處理,即通過(guò)一系列技術(shù)處理方式,對(duì)掌握的用戶(hù)個(gè)人數(shù)據(jù)中具有可識(shí)別性的內(nèi)容予以模糊化處理,最終使其無(wú)法定位到某一特定用戶(hù),通過(guò)匿名化可保證用戶(hù)個(gè)人數(shù)據(jù)權(quán)益,降低數(shù)據(jù)泄露可能造成的危害后果[38]。同時(shí),企業(yè)應(yīng)當(dāng)根據(jù)木馬病毒、虛假WAP(無(wú)線(xiàn)應(yīng)用協(xié)議)等網(wǎng)絡(luò)攻擊技術(shù)的特點(diǎn),不斷優(yōu)化更新算法技術(shù),可以采取動(dòng)態(tài)秘鑰、IP地址限制等方法確保對(duì)敏感、涉密數(shù)據(jù)的安全存儲(chǔ),防止訓(xùn)練數(shù)據(jù)泄露,還要加速生成式人工智能領(lǐng)域的技術(shù)升級(jí)和更新,推廣新技術(shù)的應(yīng)用。2023年,開(kāi)源AI解決方案公司ClearML宣布推出ClearGPT,聲稱(chēng)該產(chǎn)品的顯著特點(diǎn)是為企業(yè)定制大型語(yǔ)言模型,通過(guò)在組織網(wǎng)絡(luò)內(nèi)提供安全環(huán)境來(lái)提供解決方案,確保完全控制并消除數(shù)據(jù)泄露的可能性,這是未來(lái)AIGC領(lǐng)域避免數(shù)據(jù)泄露風(fēng)險(xiǎn)的一個(gè)理想發(fā)展方向[39]。再比如,對(duì)隱私計(jì)算技術(shù),可以通過(guò)多方共享軟件開(kāi)發(fā)工具包(software derelopment kit,SDK)的方式,實(shí)現(xiàn)多方數(shù)據(jù)控制者在不暴露數(shù)據(jù)本身的情況下進(jìn)行相互之間的數(shù)據(jù)傳輸、建模、互聯(lián),同時(shí)保證AIGC在正常提供服務(wù)的同時(shí)不會(huì)造成數(shù)據(jù)泄露[17]26。
2.貫徹?cái)?shù)據(jù)分級(jí)分類(lèi)保護(hù),落實(shí)數(shù)據(jù)安全保障義務(wù)
在管理制度層面,服務(wù)提供企業(yè)應(yīng)當(dāng)貫徹落實(shí)數(shù)據(jù)分級(jí)分類(lèi)保護(hù)原則,加強(qiáng)數(shù)據(jù)泄露風(fēng)險(xiǎn)監(jiān)測(cè),將數(shù)據(jù)安全保障義務(wù)逐級(jí)落實(shí)到具體負(fù)責(zé)人,以實(shí)現(xiàn)全面的安全防護(hù)和風(fēng)險(xiǎn)管理。其一,AIGC開(kāi)發(fā)商和運(yùn)營(yíng)商應(yīng)當(dāng)根據(jù)數(shù)據(jù)的類(lèi)型和安全級(jí)別,對(duì)數(shù)據(jù)泄露可能帶來(lái)的影響進(jìn)行安全風(fēng)險(xiǎn)評(píng)估,將存儲(chǔ)的不同種類(lèi)數(shù)據(jù)按照評(píng)估結(jié)果進(jìn)行分級(jí)分類(lèi)管理,避免重要數(shù)據(jù)防護(hù)不足、非重要數(shù)據(jù)過(guò)度防護(hù),尤其要著重加強(qiáng)對(duì)醫(yī)療健康、生物識(shí)別、未成年人信息等敏感個(gè)人數(shù)據(jù)的保護(hù)。其二,可以利用操作分析、異常行為監(jiān)測(cè)等多重手段加強(qiáng)數(shù)據(jù)泄露風(fēng)險(xiǎn)監(jiān)測(cè),建立監(jiān)測(cè)預(yù)警機(jī)制和數(shù)據(jù)泄露應(yīng)急處置機(jī)制。當(dāng)檢測(cè)到數(shù)據(jù)泄露風(fēng)險(xiǎn)時(shí),立即啟動(dòng)應(yīng)急處理預(yù)案,及時(shí)消除相關(guān)風(fēng)險(xiǎn)。若無(wú)法及時(shí)消滅數(shù)據(jù)安全漏洞,那么數(shù)據(jù)泄露事故發(fā)生后,根據(jù)《數(shù)據(jù)安全法》第29條規(guī)定,應(yīng)立即啟動(dòng)處置措施,及時(shí)告知用戶(hù)并向有關(guān)主管部門(mén)報(bào)告。其三,將數(shù)據(jù)安全保障義務(wù)逐級(jí)落實(shí)到具體負(fù)責(zé)人,要求研發(fā)企業(yè)建立一整套專(zhuān)門(mén)負(fù)責(zé)數(shù)據(jù)安全與隱私合規(guī)的管理體系,在內(nèi)部組織架構(gòu)中設(shè)置專(zhuān)門(mén)機(jī)構(gòu)和專(zhuān)門(mén)負(fù)責(zé)人員(包括首席數(shù)據(jù)官),并定期組織培訓(xùn)。與此同時(shí),還應(yīng)當(dāng)建立一套完備的數(shù)據(jù)訪(fǎng)問(wèn)機(jī)制,避免數(shù)據(jù)被外來(lái)人員無(wú)權(quán)訪(fǎng)問(wèn)或被內(nèi)部人員越權(quán)訪(fǎng)問(wèn),并可以利用技術(shù)手段對(duì)訪(fǎng)問(wèn)記錄進(jìn)行詳細(xì)追蹤,進(jìn)而在發(fā)生數(shù)據(jù)泄露時(shí)盡快識(shí)別出數(shù)據(jù)責(zé)任主體。
五、結(jié)語(yǔ)
隨著ChatGPT等新一代大語(yǔ)言模型的崛起,生成式人工智能所實(shí)現(xiàn)的功能已遠(yuǎn)遠(yuǎn)超乎人們的想象。技術(shù)在迭代更新的同時(shí)也引發(fā)了一系列數(shù)據(jù)安全問(wèn)題,如何在鼓勵(lì)技術(shù)創(chuàng)新的同時(shí)防范其可能帶來(lái)的負(fù)面影響,我國(guó)正在摸索自己的治理途徑?!稌盒修k法》的出臺(tái)較好地回應(yīng)了生成式人工智能帶來(lái)的挑戰(zhàn),但未來(lái)仍需不斷堅(jiān)持鼓勵(lì)創(chuàng)新與嚴(yán)守底線(xiàn)相結(jié)合的監(jiān)管原則,并不斷完善立法,以便及時(shí)適應(yīng)科技進(jìn)步和產(chǎn)業(yè)演進(jìn)的需求,強(qiáng)化科研倫理觀(guān)念,建立“以人為本”的技術(shù)體系,加強(qiáng)算法規(guī)制與隱私保護(hù),調(diào)整和細(xì)化企業(yè)數(shù)據(jù)安全合規(guī)管理體系,完善用戶(hù)數(shù)據(jù)主體權(quán)利保障機(jī)制,為未來(lái)智能生態(tài)系統(tǒng)提供有力的法律保障。
參考文獻(xiàn):
[1]江琴,左曉棟.人工智能倫理審查與監(jiān)管初探[J].中國(guó)信息安全,2023(5):36-40.
[2]加拿大聯(lián)邦及多個(gè)省份隱私監(jiān)管機(jī)構(gòu)對(duì)ChatGPT展開(kāi)調(diào)查[EB/OL].(2023-05-26)[2023-06-15].http://www.chinanews.com.cn/gj/2023/05-26/10014350.shtml.
[3]黃震華,楊順志,林威,等.知識(shí)蒸餾研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2022(3):624-653.
[4]畢文軒.生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):155-172.
[5]劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023(4):29-43.
[6]拒絕被AI盜走知識(shí)產(chǎn)權(quán),《紐約時(shí)報(bào)》欲起訴OpenAI[EB/OL].(2023-08-18)[2023-08-19].https://www.thepaper.cn/newsDetail_forward_24279003.
[7]鄭曉華.算法時(shí)代網(wǎng)絡(luò)意識(shí)形態(tài)風(fēng)險(xiǎn)防范與實(shí)踐邏輯[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(1):163-170.
[8]趙宏.公共決策適用算法技術(shù)的規(guī)范分析與實(shí)體邊界[J].比較法研究,2023(2):1-16.
[9]LAURA W,JONATHAN U,MARIBETH R,et al.Taxonomy of risks posed by language models[EB/OL].(2022-06-20)[2023-06-23].https://dl.acm.org/doi/fullHtml/10.1145/3531146.3533088.
[10]DESHPANDE A,MURAHARI V,KALYAN A,et al.Toxicity in ChatGPT:Analyzing persona-assigned language models[EB/OL].(2023-04-11)[2023-06-24].https://arxiv.org/abs/2304.05335.
[11]游俊哲.ChatGPT類(lèi)生成式人工智能在科研場(chǎng)景中的應(yīng)用風(fēng)險(xiǎn)與控制措施[J].情報(bào)理論與實(shí)踐,2023(6):24-32.
[12]Wikipedia.Hallucination “artificial intelligence”[EB/OL].(2023-09-06)[2023-09-07].https://en.wikipedia.org/wiki/Hallucination_.
[13]周亭,蒲成.生成式人工智能的國(guó)際傳播能力及潛在治理風(fēng)險(xiǎn)[J].對(duì)外傳播,2023(4):14-18.
[14]鄧建鵬,朱懌成.ChatGPT模型的法律風(fēng)險(xiǎn)及應(yīng)對(duì)之策[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023(5).
[15]OpenAI.March 20 ChatGPT outage:Here’s what happened[EB/OL].(2023-03-24)[2023-06-24].https://openai.com/blog/march-20-chatgpt-outage.
[16]趙竹青.系好“安全帶”,生成式人工智能才會(huì)更好發(fā)展[EB/OL].(2023-04-13)[2023-06-24].http://finance.people.com.cn/n1/2023/0413/c1004-32663675.html.
[17]陳兵.生成式人工智能可信發(fā)展的法治基礎(chǔ)[J].上海政法學(xué)院學(xué)報(bào)(法治論叢),2023(4).
[18]譚佐財(cái).ChatGPT的法律風(fēng)險(xiǎn)與治理路徑[J].湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(3):117-125.
[19]王洋,閆海.生成式人工智能的風(fēng)險(xiǎn)迭代與規(guī)制革新——以ChatGPT為例[J].理論月刊,2023(6):14-24.
[20]熊光清.生成式人工智能治理的法治維度[EB/OL].(2023-07-16)[2023-08-12].https://baijiahao.baidu.com/s?id=1771507002728495875amp;wfr=spideramp;for=pc.
[21]陳奕凱.“ChatGPT之父”呼吁監(jiān)管ChatGPT[EB/OL].(2023-05-17)[2023-06-12].https://www.bjnews.com.cn/detail/168432347614319.html.
[22]羅亦丹.妙鴨相機(jī)火爆背后:隱私條款惹爭(zhēng)議,能否“挑戰(zhàn)”照相業(yè)?[EB/OL].(2023-07-23)[2023-07-24].https://www.bjnews.com.cn/detail/1690084299168871.html.
[23]鈄曉東.風(fēng)險(xiǎn)與控制:論生成式人工智能應(yīng)用的個(gè)人信息保護(hù)[J].政法論叢,2023(4):59-68.
[24]蔣潔.AI圖景下大數(shù)據(jù)挖掘的風(fēng)險(xiǎn)評(píng)估與應(yīng)對(duì)策略[J].現(xiàn)代情報(bào),2018(5):147-151.
[25]董瀟,郭靜荷,史曉宇.人工智能及算法治理的新進(jìn)展——基于ChatGPT在意大利的監(jiān)管案例評(píng)析[EB/OL].(2023-06-29)[2023-06-30].https://www.junhe.com/legal-updates/2203.
[26]商建剛.生成式人工智能風(fēng)險(xiǎn)治理元規(guī)則研究[J].東方法學(xué),2023(3):4-17.
[27]KRISTEN E.Generative artificial intelligence and data privacy:A primer[EB/OL].(2023-05-23)[2023-06-16].https://crsreports.congress.gov/product/pdf/R/R47569.
[28]寧宣鳳,吳涵.路未央,花已遍芳——?dú)W盟《人工智能法案》主要監(jiān)管及激勵(lì)措施評(píng)述[EB/OL].(2023-08-03)[2023-08-16].https://www.kwm.com/cn/zh/insights/latest-thinking/eu-ai-act-main-supervision-and-incentive-measures.html.
[29]張霄軍,邵璐.構(gòu)建可信賴(lài)機(jī)器翻譯系統(tǒng)的基本原則——一種基于工程倫理的觀(guān)點(diǎn)[J].外國(guó)語(yǔ)文,2021(1):1-8.
[30]孟潔,周子川,杜暢.人工智能大語(yǔ)言模型開(kāi)發(fā)與應(yīng)用的數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)及其應(yīng)對(duì)——兼論《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》合規(guī)要點(diǎn)[EB/OL].(2023-04-12)[2023-06-18].http://www.glo.com.cn/Content/2023/04-13/1511401407.html.
[31]陳際紅,吳佳蔚,陳煜烺.《生成式人工智能服務(wù)管理暫行辦法》發(fā)布,解析AIGC的數(shù)據(jù)合規(guī)挑戰(zhàn)與應(yīng)對(duì)之道[EB/OL].(2023-07-13)[2023-07-18].https://www.zhonglun.com/Content/2023/07-13/1404150284.html.
[32]石穎.算法歧視的發(fā)生邏輯與法律規(guī)制[J].理論探索,2022(3):122-128.
[33]劉輝.雙向驅(qū)動(dòng)型算法解釋工具:以默示算法共謀為場(chǎng)景的探索[J].現(xiàn)代法學(xué),2022(6):58-71.
[34]程雪軍.金融科技平臺(tái)算法黑箱的法律規(guī)制研究[C]//2023年世界人工智能大會(huì)法治論壇論文集.上海:上海市法學(xué)會(huì),2023:203-217.
[35]樊春良.科技倫理治理的理論與實(shí)踐[J].科學(xué)與社會(huì),2021(4):33-50.
[36]陳兵.促進(jìn)生成式人工智能規(guī)范發(fā)展的法治考量及實(shí)踐架構(gòu)——兼評(píng)《生成式人工智能服務(wù)管理暫行辦法》相關(guān)條款[J].中國(guó)應(yīng)用法學(xué),2023(4):108-125.
[37]袁曾.生成式人工智能的責(zé)任能力研究[J].東方法學(xué),2023(3):18-33.
[38]宋才發(fā).個(gè)人信息保護(hù)的法律規(guī)制與法治路徑[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(5):48-56.
[39]ClearML推出ClearGPT,一個(gè)挑戰(zhàn)ChatGPT的生成式AI平臺(tái)[EB/OL].(2023-05-20)[2023-06-18].https://www.qidianai.net/news/563.html.
Data risk of generative artificial intelligence and its legal regulation
Abstract:
The emergence of ChatGPT has stirred up a new round of development in generative artificial intelligence, leading to technological change while also triggering many legal risks. According to the operation mechanism of generative AI, four major types of data security risks can be found, mainly due to the impact of high trust in algorithms on the protection of legal interests, the lack of scientific and technological ethical norms in the evolution of the technology, and insufficient protection of users’ data subject rights. For the data source compliance risk of generative AI in the data input stage, Ramp;D enterprises should formulate an operable data compliance plan, and formulate detailed and specific risk control measures in the compliance plan to strengthen the compliance operation of the enterprise, and at the same time, actively respond to the user’s request for the rights of the data subject through a variety of measures, so as to ensure that the source of the model training data is legal and compliant. Regarding the risk of algorithmic black box and algorithmic bias in the model processing stage of generative AI, we should increase supervision, focus on the safety and fairness of algorithms, actively promote and improve relevant legislation, refine algorithmic filing and algorithmic interpretation obligations, improve algorithmic technology transparency, and implement algorithmic subject responsibility. In response to the data abuse risks in the content output stage of generative artificial intelligence, we should optimize the regulatory mechanism to achieve full-chain legitimacy supervision, improve scientific research ethics norms and conduct substantive review, lead technology to goodness, and achieve good governance of science and technology. In response to the data leakage risks in the data storage stage of generative artificial intelligence, we should adopt a comprehensive regulation approach combining technology and management systems to strictly control the scope of data sharing and implement data classification and protection, and timely and effectively prevent data leakage risks.
Keywords:
intelligent algorithm; generative artificial intelligence; data risk; legal regulation
重慶郵電大學(xué)學(xué)報(bào)·社會(huì)科學(xué)版2024年4期