近年來(lái),大語(yǔ)言模型與應(yīng)用程序的迅猛發(fā)展,推動(dòng)了生成式人工智能的顯著進(jìn)步。不同于以往的判別式人工智能通過(guò)標(biāo)簽化已有數(shù)據(jù)進(jìn)行輔助決策,生成式人工智能通過(guò)學(xué)習(xí)數(shù)據(jù)的聯(lián)合概率分布,整合分析后生成新內(nèi)容,其通過(guò)模仿人腦處理數(shù)據(jù),不僅提升了創(chuàng)作速度,還能捕捉人類遺漏的新意,被視為人工智能的新層次,具有開啟信息內(nèi)容生產(chǎn)和傳播新時(shí)代的潛力。[1目前,生成式人工智能已在藝術(shù)、醫(yī)療和人機(jī)交互等領(lǐng)域展現(xiàn)出廣泛應(yīng)用前景。盡管當(dāng)前主要將其應(yīng)用于文本、圖像、聲音和視頻的生成上,但隨著數(shù)據(jù)增長(zhǎng)、算法和算力提升,生成式人工智能有望成為邁向通用人工智能的重要路徑,推動(dòng)技術(shù)應(yīng)用邁向更高水平。
目前,強(qiáng)化人工智能治理已成為國(guó)際共識(shí),隨著人工智能對(duì)算法歧視、數(shù)據(jù)風(fēng)險(xiǎn)、知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)的加劇乃至現(xiàn)實(shí)化,為確保這項(xiàng)技術(shù)的安全性和可靠性,各國(guó)對(duì)人工智能的監(jiān)管力度逐漸加大。我國(guó)人工智能的治理框架初步建立并有序推進(jìn),《中華人民共和國(guó)個(gè)人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》以及《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》)等法律法規(guī)構(gòu)成了我國(guó)人工智能發(fā)展的法律規(guī)制體系,為包容審慎的人工智能治理模式提供了依據(jù)。然而,生成式人工智能的發(fā)展可能超出各國(guó)監(jiān)管預(yù)期,其所具備的顛覆性技術(shù)能力帶來(lái)的社會(huì)變量,可能遠(yuǎn)超現(xiàn)行控制機(jī)制與規(guī)范框架的調(diào)整范圍。[2]特別是在既有的版權(quán)法框架下,模型訓(xùn)練與內(nèi)容生成中的版權(quán)風(fēng)險(xiǎn)突出、爭(zhēng)議頻發(fā)。是據(jù)法闡釋版權(quán)法并激活其中的數(shù)智元素,還是重構(gòu)版權(quán)法的規(guī)制邏輯以適應(yīng)新的技術(shù)環(huán)境和創(chuàng)新需求?對(duì)此,本文以版權(quán)法為規(guī)制視角,討論生成式人工智能數(shù)據(jù)濫用的制度因應(yīng)與路徑優(yōu)化。
一、數(shù)據(jù)濫用的版權(quán)問(wèn)題
從國(guó)內(nèi)外司法實(shí)踐來(lái)看,AIGC服務(wù)提供者的版權(quán)侵權(quán)主要聚焦于兩類情形:一是模型訓(xùn)練階段的版權(quán)侵權(quán),二是內(nèi)容生成階段的版權(quán)侵權(quán)。對(duì)于前者的判斷在于大模型每次輸出的內(nèi)容是否均構(gòu)成演繹權(quán)侵權(quán),對(duì)于后者的判斷則是在“模型記憶”①情形下,大模型是否直接輸出與被訓(xùn)練作品相同或相似的內(nèi)容。
1.模型訓(xùn)練階段的版權(quán)問(wèn)題
模型訓(xùn)練階段的版權(quán)問(wèn)題主要在于大模型每次輸出的內(nèi)容是否均構(gòu)成演繹權(quán)侵權(quán)。2023年1月,安德森等三位藝術(shù)家起訴 StableDiffusion、Midjourney、DreamUp等AIGC平臺(tái)。加州法院駁回了原告侵權(quán)的指控,其裁判的依據(jù)在于AIGC輸出的內(nèi)容與在先作品不存在表達(dá)層面的實(shí)質(zhì)性相似,AIGC服務(wù)提供者的研發(fā)不屬于直接侵權(quán),因而也不構(gòu)成間接侵權(quán)。無(wú)獨(dú)有偶,華蓋創(chuàng)意(GettyImages)亦就類似事由起訴StableDiffusion的開發(fā)者StabilityAI,控告其未經(jīng)許可竊取平臺(tái)上的數(shù)百萬(wàn)張照片。由于AI生成圖像版權(quán)歸屬上的爭(zhēng)議,[3]華蓋創(chuàng)意等公司已禁止在其平臺(tái)上使用AI生成圖像素材。相對(duì)于美國(guó)在司法裁決中對(duì)數(shù)據(jù)訓(xùn)練行為的認(rèn)定,歐盟的立場(chǎng)則傾向于保護(hù)著作權(quán)人,如果使用的數(shù)據(jù)未經(jīng)文字、照片、影視、短視頻等著作權(quán)人的授權(quán)和許可,則涉嫌對(duì)著作權(quán)的侵犯。2024年3月,類似的行為迫使法國(guó)競(jìng)爭(zhēng)管理局對(duì)谷歌處以2.5億歐元罰款。
生成式人工智能的可用性和有效性依賴于訓(xùn)練數(shù)據(jù)的質(zhì)量和數(shù)量,其在賦能知識(shí)生產(chǎn)的同時(shí)也不斷沖擊知識(shí)生產(chǎn)相關(guān)各方的利益關(guān)系,甚至推動(dòng)了版權(quán)規(guī)范的重構(gòu)。如日本政府認(rèn)為對(duì)版權(quán)的擔(dān)憂,將阻礙人工智能技術(shù)方面的進(jìn)步。對(duì)此,日本在其2018年修改的版權(quán)法中明確,“通過(guò)電子計(jì)算機(jī)進(jìn)行信息分析并提供結(jié)果”的輕微利用作品的行為屬于“柔性合理使用”,這回應(yīng)了人工智能等新技術(shù)產(chǎn)業(yè)擴(kuò)大合理使用條款開放性的需求,[4即允許人工智能在未經(jīng)版權(quán)所有者許可的情況下,使用文本和圖像等受版權(quán)保護(hù)的作品。我國(guó)仍以“不得不合理地侵害著作權(quán)人的合法權(quán)益”限定合理使用條款的適用邊界,這要求司法者須關(guān)注個(gè)人基于非商業(yè)自的且未進(jìn)行傳播的私人復(fù)制行為所產(chǎn)生的累積效應(yīng)。若眾多使用者的個(gè)體行為的集合,實(shí)際上可能產(chǎn)生廣泛的傳播效果,進(jìn)而對(duì)著作權(quán)人的作品市場(chǎng)形成替代,同樣會(huì)侵害其合法權(quán)益。
2.內(nèi)容生成階段的版權(quán)問(wèn)題
憑借著巨大的參數(shù)規(guī)模,生成式人工智能適用于語(yǔ)言翻譯、內(nèi)容生成和語(yǔ)言建模等多種場(chǎng)景?,F(xiàn)實(shí)中,借助大語(yǔ)言模型生成的文本很難與人類編寫的文本區(qū)分開來(lái)。強(qiáng)大的自然語(yǔ)言處理能力使大語(yǔ)言模型具有超越輔助性科研工具而成為自主性科研助手的可能,“科研范式將從效率比較低的‘作坊模式’轉(zhuǎn)向‘平臺(tái)模式’”,大語(yǔ)言模型已經(jīng)發(fā)展到幫助研究人員分析和撰寫學(xué)術(shù)論文、生成代碼,并在內(nèi)容的邏輯上復(fù)刻人類專家撰寫學(xué)術(shù)論文時(shí)的表達(dá)習(xí)慣。[5]
用戶利用AIGC服務(wù)生成版權(quán)侵權(quán)內(nèi)容的方式一般有兩種情形。一種是由于“模型記憶”的技術(shù)漏洞生成與原作品實(shí)質(zhì)性相似的內(nèi)容,在這種場(chǎng)合,服務(wù)提供者的角色更類似主動(dòng)的內(nèi)容提供者,而非傳統(tǒng)的技術(shù)服務(wù)者。此類問(wèn)題通常被視為技術(shù)發(fā)展尚未成熟階段所衍生的過(guò)程性問(wèn)題,在現(xiàn)有的版權(quán)法框架下,這類問(wèn)題適用于“接觸 .+ 實(shí)質(zhì)性相似”的侵權(quán)判定規(guī)則,[并由服務(wù)提供者對(duì)AI所生成和提供的內(nèi)容承擔(dān)法律責(zé)任。[7]另一種是用戶向AIGC平臺(tái)輸入具有侵權(quán)誘導(dǎo)屬性的提示詞,如特定作家、畫家或作品的名稱,以及“仿照”“參照”“改編”等可能誘導(dǎo)侵權(quán)的詞匯,導(dǎo)致生成內(nèi)容侵犯原作品的復(fù)制權(quán)、改編權(quán)等。司法實(shí)踐中,因通過(guò)AI文生圖服務(wù)生成相同或相似圖片,Tab平臺(tái)被上海新創(chuàng)華公司控告侵犯了其在國(guó)內(nèi)奧特曼美術(shù)作品方面的復(fù)制權(quán)、改編權(quán)及信息網(wǎng)絡(luò)傳播權(quán)。法院最終判定,Tab平臺(tái)作為AI服務(wù)提供者,雖非模型訓(xùn)練者,無(wú)須刪除訓(xùn)練數(shù)據(jù),但需采取關(guān)鍵詞過(guò)濾等措施防止侵權(quán)內(nèi)容再生。若用戶僅利用AIGC服務(wù)生成供個(gè)人使用的內(nèi)容,該行為則未必構(gòu)成版權(quán)侵權(quán)。在“湯森路透訴Ross人工智能版權(quán)侵權(quán)案”的裁定中,美國(guó)特拉華州地方法院強(qiáng)調(diào)對(duì)于未向公眾公開的作品利用,即便是全文復(fù)制也可能構(gòu)成合理使用。實(shí)踐中,AIGC生成內(nèi)容的版權(quán)規(guī)制只有當(dāng)用戶通過(guò)第三方平臺(tái)公開傳播時(shí)才可能被觸發(fā)。若內(nèi)容局限于封閉的用戶交互界面,一般不涉及后續(xù)的版權(quán)維權(quán)與責(zé)任承擔(dān)。
然而,僅憑純粹的指令輸入與語(yǔ)言交互就形成的創(chuàng)作畢竟不需要耗費(fèi)使用者多少精力。[8因此,使用大語(yǔ)言模型創(chuàng)作的行為大多被認(rèn)為是一種“高科技剽竊”。[9]如使用AI算法繪圖工具M(jìn)idjourney完成《太空歌劇院》并獲獎(jiǎng)的行為,引發(fā)不少指責(zé)與抵制。此外,一些學(xué)術(shù)期刊出臺(tái)相關(guān)政策限制大語(yǔ)言模型的運(yùn)用,如不少國(guó)內(nèi)外知名學(xué)術(shù)刊物拒絕接收由人工智能輔助完成的論文,以防止其在學(xué)術(shù)研究上的濫用。顯然,不同于其他領(lǐng)域?qū)θ斯ぶ悄艿陌萆踔潦恰皳肀А保茖W(xué)創(chuàng)新領(lǐng)域更多持謹(jǐn)慎保守的態(tài)度,在人工智能通用化發(fā)展的必然趨勢(shì)下,保留人的創(chuàng)造性勞動(dòng)仍是科學(xué)研究的底線。
二、版權(quán)數(shù)據(jù)保護(hù)的現(xiàn)有制度路徑
數(shù)據(jù)是智能算法成長(zhǎng)的原材料,如何平衡技術(shù)創(chuàng)新與版權(quán)數(shù)據(jù)保護(hù),既促進(jìn)人工智能技術(shù)的健康發(fā)展,又有效遏制版權(quán)數(shù)據(jù)的濫用問(wèn)題,成為當(dāng)下各國(guó)在AI產(chǎn)業(yè)中的規(guī)制重點(diǎn)。
1.以風(fēng)險(xiǎn)為導(dǎo)向的數(shù)據(jù)監(jiān)管模式
人工智能技術(shù)與各個(gè)產(chǎn)業(yè)融合漸深,覆蓋多種應(yīng)用場(chǎng)景,針對(duì)算法歧視、數(shù)據(jù)隱私等問(wèn)題,部分國(guó)家或地區(qū)均采用分類或分級(jí)的模式部署人工智能的監(jiān)管,其中,基于風(fēng)險(xiǎn)導(dǎo)向的監(jiān)管思路更是域內(nèi)外立法與實(shí)踐的主流。[1歐盟的《人工智能法案》是首部全面規(guī)制人工智能的立法框架,該法案與《通用數(shù)據(jù)保護(hù)條例》在權(quán)利保障的思路上基本一致,確立了基于風(fēng)險(xiǎn)的人工智能治理框架,即通過(guò)對(duì)人工智能風(fēng)險(xiǎn)等級(jí)的劃分配以差異化的監(jiān)管等級(jí),[11力求對(duì)相關(guān)系統(tǒng)或可能引發(fā)的風(fēng)險(xiǎn)進(jìn)行事先防范。該法案以是否具有系統(tǒng)性風(fēng)險(xiǎn)作為劃分標(biāo)準(zhǔn),對(duì)通用人工智能實(shí)行分級(jí)監(jiān)管。除了被視為藝術(shù)作品的“深度合成的圖片、聲音和視頻”,法案認(rèn)為生成式人工智能等大模型具有系統(tǒng)性風(fēng)險(xiǎn),需比照高風(fēng)險(xiǎn)系統(tǒng)予以監(jiān)管。[12]為了增強(qiáng)生成式人工智能的可解釋性與透明性,該法案要求人工智能企業(yè)披露訓(xùn)練數(shù)據(jù),旨在使AI的決策過(guò)程更加透明化且可追蹤。
基于風(fēng)險(xiǎn)的分級(jí)分類監(jiān)管是一種預(yù)防性的事前治理,這里的風(fēng)險(xiǎn)是具體場(chǎng)景中技術(shù)應(yīng)用的潛在風(fēng)險(xiǎn)。然而,人工智能技術(shù)發(fā)展與迭代的頻繁帶來(lái)社會(huì)關(guān)系的不確定性以及風(fēng)險(xiǎn)種類、程度的不可預(yù)見性,[13]難以通過(guò)類型化的方式全面評(píng)估系統(tǒng)的風(fēng)險(xiǎn)。隨著人工智能通用性的顯著提升,其逐漸成為一種集數(shù)據(jù)、算法、信息內(nèi)容于一體的大模型,并能夠在微調(diào)后應(yīng)用于廣泛的任務(wù)中,基于“風(fēng)險(xiǎn)主義”的分級(jí)分類監(jiān)管難以涵蓋并準(zhǔn)確界定生成式人工智能在所有場(chǎng)景中的一切風(fēng)險(xiǎn)。數(shù)字經(jīng)濟(jì)的本質(zhì)是創(chuàng)新經(jīng)濟(jì),基于風(fēng)險(xiǎn)導(dǎo)向的數(shù)據(jù)監(jiān)管必將伴隨著較高的治理成本和技術(shù)挑戰(zhàn)。當(dāng)前,國(guó)內(nèi)人工智能產(chǎn)業(yè)正致力于算力、數(shù)據(jù)與算法的優(yōu)化與趕超,若此時(shí)設(shè)定過(guò)高的規(guī)制義務(wù),無(wú)疑會(huì)抑制產(chǎn)業(yè)的健康發(fā)展,采取更為靈活且成本可控的規(guī)制路徑顯得尤為重要,以風(fēng)險(xiǎn)預(yù)防為導(dǎo)向的分級(jí)分類監(jiān)管或許并非人工智能治理的最佳答案。
2.基于服務(wù)提供者主體的責(zé)任配置
當(dāng)前,人工智能的治理活動(dòng)依托于算法主體責(zé)任漸次展開。以主體問(wèn)責(zé)服務(wù)提供者的前提是預(yù)設(shè)人工智能的工具屬性,并在此基礎(chǔ)上要求服務(wù)提供者主動(dòng)履行義務(wù)。作為監(jiān)管的重點(diǎn),服務(wù)提供者承擔(dān)主體責(zé)任并履行一系列網(wǎng)絡(luò)、數(shù)據(jù)、算法的安全運(yùn)行義務(wù),而對(duì)技術(shù)開發(fā)層的研發(fā)者、技術(shù)服務(wù)層的使用者則多為倫理要求,少有硬性規(guī)制。根據(jù)《中華人民共和國(guó)民法典》第一千一百九十五條關(guān)于網(wǎng)絡(luò)服務(wù)提供者責(zé)任的規(guī)定,當(dāng)用戶通過(guò)網(wǎng)絡(luò)服務(wù)實(shí)施侵權(quán)行為時(shí),若在權(quán)利人發(fā)出合格通知后,網(wǎng)絡(luò)服務(wù)提供者未能及時(shí)采取必要措施,則應(yīng)對(duì)損害的擴(kuò)大部分與網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任?!稌盒修k法》亦要求,服務(wù)提供者不僅要“依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng)”,還要承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任與個(gè)人信息處理者責(zé)任,而使用者僅扮演監(jiān)督者的角色,向主管部門投訴、舉報(bào)不合規(guī)的智能服務(wù)。
的確,將服務(wù)提供者視為責(zé)任承擔(dān)者具有積極意義。在生成式人工智能興起以前,人工智能服務(wù)提供者對(duì)生成內(nèi)容的基礎(chǔ)素材和生成過(guò)程具有較強(qiáng)的控制力和決定力。據(jù)此,理論與實(shí)務(wù)界均認(rèn)為,服務(wù)提供者對(duì)用戶生成內(nèi)容的潛在侵權(quán)風(fēng)險(xiǎn)應(yīng)負(fù)有合理的預(yù)見與防控義務(wù)。當(dāng)使用者通過(guò)服務(wù)生成與他人作品高度相似的作品時(shí),AI服務(wù)提供者的過(guò)錯(cuò)可基于特定情境直接認(rèn)定。[14然而,生成式人工智能兼具工具屬性與基礎(chǔ)設(shè)施屬性,大語(yǔ)言模型的設(shè)計(jì)與運(yùn)行涉及多種主體,責(zé)任配置不宜堅(jiān)持以服務(wù)提供者為中心。一方面,大語(yǔ)言模型的風(fēng)險(xiǎn)不僅來(lái)自提供者,亦可能源于內(nèi)容輸出端的使用者。生成式人工智能產(chǎn)品是動(dòng)態(tài)的,不是靜態(tài)的,它們的輸出內(nèi)容會(huì)隨著新的數(shù)據(jù)、新的用途和新的集成而改變。[15使用者與模型的人機(jī)交互可以反哺模型,即使用者在與機(jī)器互動(dòng)過(guò)程中輸入的數(shù)據(jù)也可能成為人工智能的訓(xùn)練樣本。[1現(xiàn)實(shí)中,生成式人工智能在通用性方面的提升為使用者在事實(shí)上對(duì)生成內(nèi)容進(jìn)行干預(yù)提供了可能。同時(shí),隨著大語(yǔ)言模型越來(lái)越多地被集成到各種應(yīng)用程序中,大語(yǔ)言模型已經(jīng)具備通過(guò)自然語(yǔ)言提示靈活調(diào)節(jié)輸出內(nèi)容的功能。這使它們?nèi)菀资艿接嗅槍?duì)性的對(duì)抗性提示的影響,如使用者可以通過(guò)提示詞注入,越過(guò)服務(wù)提供者設(shè)置的內(nèi)容安全審核過(guò)濾系統(tǒng),生成違法內(nèi)容。另一方面,生成式人工智能的運(yùn)作機(jī)制也決定了侵權(quán)內(nèi)容的生成并非直接由服務(wù)使用者向平臺(tái)發(fā)布,而是通過(guò)輸入特定的提示詞指令系統(tǒng)生成。這一過(guò)程中,侵權(quán)責(zé)任的主體變得多元化且復(fù)雜,包括但不限于算法設(shè)計(jì)者、服務(wù)提供者以及使用者。這種侵權(quán)模式的轉(zhuǎn)變,源于生成式人工智能的高度自主性和互動(dòng)性,它使得侵權(quán)行為的識(shí)別與歸責(zé)變得更為復(fù)雜。上述問(wèn)題都將深刻影響著技術(shù)運(yùn)行過(guò)程中所涉及的責(zé)任分配,僅將服務(wù)提供者作為責(zé)任主體,難以全面規(guī)制AIGC服務(wù)中的版權(quán)數(shù)據(jù)濫用行為。目前,為推動(dòng)可信賴的人工智能發(fā)展,構(gòu)建人工智能保障生態(tài)系統(tǒng),美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布了《人工智能風(fēng)險(xiǎn)管理框架》1.0版,該框架提出的監(jiān)管模式覆蓋了人工智能在設(shè)計(jì)、開發(fā)、部署以及使用各階段,旨在增強(qiáng)人工智能可信度。
三、版權(quán)數(shù)據(jù)保護(hù)的路徑選擇
面對(duì)生成式人工智能對(duì)版權(quán)保護(hù)規(guī)范的沖擊,無(wú)論是基于風(fēng)險(xiǎn)導(dǎo)向的數(shù)據(jù)監(jiān)管模式,還是基于服務(wù)提供者主體的責(zé)任配置,都難以完成協(xié)調(diào)技術(shù)創(chuàng)新與版權(quán)秩序平衡的任務(wù)。對(duì)此,應(yīng)全方位構(gòu)建生成式人工智能背景下版權(quán)數(shù)據(jù)保護(hù)的框架與路徑,為保護(hù)版權(quán)數(shù)據(jù)提供有力的制度支撐和實(shí)踐指導(dǎo)。
1.為何保護(hù):保護(hù)版權(quán)數(shù)據(jù)就是保護(hù)人的創(chuàng)造力
生成式人工智能在創(chuàng)造性方面的潛力,讓人驚呼正在“語(yǔ)言上構(gòu)建出一種新的主體性”。[17]在此背景下,“機(jī)器換人”的問(wèn)題就不再是簡(jiǎn)單的失業(yè)問(wèn)題,而是智能技術(shù)在各行各業(yè)對(duì)人類的排擠。目前,生成式人工智能正逐步演變?yōu)橐环N全能型的內(nèi)容生產(chǎn)工具,其潛力似乎預(yù)示著創(chuàng)作生態(tài)的重大變革。過(guò)往,創(chuàng)作依賴于手工模式和專業(yè)經(jīng)驗(yàn)。如今,創(chuàng)作形態(tài)正從大腦構(gòu)思與手工操作的傳統(tǒng)模式,轉(zhuǎn)變?yōu)槿祟悩?gòu)思與篩選、機(jī)器高效生成的新模式。生成式人工智能的興起使得人類創(chuàng)作的概念逐漸受到AI生成的挑戰(zhàn)。此前,創(chuàng)作被視為人類獨(dú)有的智力活動(dòng),其核心在于獨(dú)創(chuàng)性的智力表達(dá)。然而,生成式人工智能憑借其強(qiáng)大的涌現(xiàn)能力,基于龐大的數(shù)據(jù)資源和先進(jìn)的深度學(xué)習(xí)算法,能夠以遠(yuǎn)超人類的效率持續(xù)產(chǎn)出高質(zhì)量的多模態(tài)內(nèi)容,如文章、圖片、音樂(lè)和影視動(dòng)畫等,從而徹底改變了創(chuàng)作的格局和邏輯。
在知識(shí)生產(chǎn)的過(guò)程中,AI讓信息獲取的方式不斷便捷,但人類的自主思考和決策能力也被無(wú)形中削弱。[18]知識(shí)的生產(chǎn),應(yīng)當(dāng)是一種自由的、創(chuàng)造性的活動(dòng),而非被動(dòng)的、機(jī)械的運(yùn)動(dòng)。而人類對(duì)機(jī)器的深度依賴本質(zhì)上是對(duì)人類個(gè)性的抹殺而非實(shí)現(xiàn)人的自由且全面的發(fā)展。人在追求從生產(chǎn)勞動(dòng)中解放的同時(shí),卻因?yàn)槌聊缬谌斯ぶ悄艿谋憷?、?duì)功利主義的推崇而喪失創(chuàng)造力,沉醉于被技術(shù)支配的人機(jī)關(guān)系中,欣然鼓吹技術(shù)的美好,淡化了潛在的風(fēng)險(xiǎn)。在生產(chǎn)方式不斷異化的過(guò)程中,人的全面性被嚴(yán)重限制。在這一進(jìn)程中,人對(duì)物的依賴超越了人對(duì)人的依賴,人類開始隸屬于技術(shù),并受到技術(shù)的支配,甚至在某些情況下被機(jī)器所替代。[19]最終,這塑造出了一個(gè)由技術(shù)統(tǒng)治和支配的異化世界,人的創(chuàng)造力和審美觀必然受到挑戰(zhàn)和顛覆。對(duì)此,保護(hù)版權(quán)數(shù)據(jù),不僅是對(duì)創(chuàng)作者勞動(dòng)成果的尊重,更是維護(hù)人類創(chuàng)造力和文化多樣性的關(guān)鍵。
在人工智能治理中,我國(guó)倡導(dǎo)的以人為本的價(jià)值準(zhǔn)則兼具理論性與實(shí)踐性。以人為本的技術(shù)治理面向追求的是人的自由、全面發(fā)展。工業(yè)革命以來(lái)的歷史證明,工具主義往往服務(wù)于資本邏輯,而機(jī)器則是服務(wù)于資本增值的利器。以人為本的價(jià)值取向,意味著人工智能的發(fā)展應(yīng)具有人文關(guān)懷和社會(huì)責(zé)任的倫理面向。誠(chéng)然,人工智能不能替代人類認(rèn)知世界,但其可以成為人類的認(rèn)知伙伴。在哈貝馬斯的描述中,交往專屬于人與人之間的活動(dòng),[20當(dāng)前的人機(jī)交互亦不是人機(jī)交往。但“當(dāng)機(jī)器變得足夠復(fù)雜的時(shí)候,它們既不是人類的仆人,也不是人類的主人,而是人類的伙伴”。[21因此,我們必須正視人機(jī)交互發(fā)展為人機(jī)交往的可能,并提前將這種交往的理性作為文化標(biāo)準(zhǔn)植入機(jī)器,用機(jī)器鼓勵(lì)創(chuàng)新而非減少創(chuàng)新。因此,保護(hù)版權(quán)數(shù)據(jù)應(yīng)著重從以下幾個(gè)方面入手:一是明確生成式人工智能模型訓(xùn)練階段與內(nèi)容生成階段版權(quán)數(shù)據(jù)的歸屬;二是加強(qiáng)版權(quán)信息的披露和透明度建設(shè),通過(guò)技術(shù)手段實(shí)現(xiàn)版權(quán)信息的可追溯性和可驗(yàn)證性;三是厘清主體責(zé)任制度,進(jìn)而確保侵權(quán)者受到應(yīng)有的法律制裁。
2.誰(shuí)來(lái)保護(hù):從控制秩序到共治秩序
社會(huì)系統(tǒng)具有復(fù)雜性、動(dòng)態(tài)性和多樣性。協(xié)同治理理論在尊重多樣性的基礎(chǔ)上,尋求實(shí)現(xiàn)各個(gè)子系統(tǒng)之間目標(biāo)和實(shí)現(xiàn)目標(biāo)手段的協(xié)同,構(gòu)建都能接受的共同規(guī)則,而遵守這種規(guī)則的結(jié)果是實(shí)現(xiàn)各方的共贏。[22數(shù)據(jù)治理不僅需要黨和政府的領(lǐng)導(dǎo)和推動(dòng)實(shí)施,而且需要社會(huì)的協(xié)同。協(xié)同共治來(lái)源于對(duì)共同體理論的認(rèn)識(shí),是通過(guò)推動(dòng)個(gè)體化、差異化與分散化的治理主體重新共同化,形成統(tǒng)一的治理行為模式與治理價(jià)值面向。[23]它以溝通協(xié)商為主要治理形式,以共同制度創(chuàng)新為基礎(chǔ),強(qiáng)調(diào)多元治理主體間各自治理效能的充分發(fā)揮,以超越簡(jiǎn)單合作治理的協(xié)同效力,應(yīng)對(duì)治理難題,促進(jìn)治理向善治的轉(zhuǎn)變。[24協(xié)同共治實(shí)踐路徑是建設(shè)人人有責(zé)、人人盡責(zé)、人人享有的社會(huì)治理共同體,形成共建、共治、共享的社會(huì)治理新格局。
傳統(tǒng)的技術(shù)規(guī)制本質(zhì)上是一種控制秩序,雖有統(tǒng)一治理手段的優(yōu)點(diǎn),但難以調(diào)動(dòng)社會(huì)力量的積極參與。如人工智能的數(shù)據(jù)訓(xùn)練中,企業(yè)為了規(guī)避責(zé)任風(fēng)險(xiǎn),對(duì)包括作品在內(nèi)的數(shù)據(jù)使用情況缺乏妥當(dāng)?shù)挠涗浥c歸檔。同時(shí),出于規(guī)避不必要的市場(chǎng)競(jìng)爭(zhēng),企業(yè)公開訓(xùn)練數(shù)據(jù)中版權(quán)信息的意愿并不強(qiáng)烈。因此,即便礙于政策要求,通常也只會(huì)籠統(tǒng)介紹訓(xùn)練數(shù)據(jù)的規(guī)格?!叭斯ぶ悄芫哂屑夹g(shù)內(nèi)核的隱秘性、技術(shù)形式的擬人性、應(yīng)用場(chǎng)景的跨域性、利益主體的交織性、技術(shù)風(fēng)險(xiǎn)的多維性、社會(huì)影響的復(fù)雜性等屬性”,[25]生成式人工智能更是一個(gè)復(fù)雜性整體,數(shù)智賦能知識(shí)創(chuàng)造與版權(quán)人權(quán)利保障的摩擦愈發(fā)頻發(fā)。因此,對(duì)于版權(quán)數(shù)據(jù)的保護(hù),既要指向物質(zhì)社會(huì),也要面向虛擬空間;既是對(duì)人的規(guī)制,也是對(duì)技術(shù)的規(guī)訓(xùn)。
在此背景下,版權(quán)數(shù)據(jù)的治理需要充分考慮用戶、公眾、版權(quán)人等社會(huì)各方的利益訴求。通過(guò)引入多方利益相關(guān)者,與黨和政府構(gòu)成治理的共同體。協(xié)同共治旨在將傳統(tǒng)的控制秩序轉(zhuǎn)變?yōu)楣仓沃刃颍ㄟ^(guò)對(duì)社會(huì)議題以及各方面價(jià)值觀的引導(dǎo)或協(xié)調(diào),“由政府單一主體逐步過(guò)渡到一個(gè)由政府、非政府組織、社會(huì)團(tuán)體以及公眾個(gè)體等構(gòu)成的行動(dòng)者系統(tǒng)”。[26]多元主體協(xié)同共治是社會(huì)治理走向現(xiàn)代化的重要標(biāo)志。人工智能治理應(yīng)善于發(fā)動(dòng)和依靠群眾,架構(gòu)“政府負(fù)責(zé)、社會(huì)協(xié)同、公眾參與”的治理體系,克服傳統(tǒng)技術(shù)治理中政府主體大包大攬、社會(huì)主體消極參與的單一化治理模式,逐步形成企業(yè)自律、政府監(jiān)管、社會(huì)協(xié)同、公眾參與、法治保障的社會(huì)共治新格局,以共治促善治,以善治圖長(zhǎng)治。
針對(duì)人工智能應(yīng)用中版權(quán)數(shù)據(jù)的協(xié)同共治,首先需要明確的是不同主體間的協(xié)同合作,從而實(shí)現(xiàn)治理手段上的協(xié)同。這種協(xié)同共治模式旨在構(gòu)建一個(gè)全面的治理體系,其中既有嚴(yán)格的法律規(guī)范為技術(shù)風(fēng)險(xiǎn)提供兜底保障,又結(jié)合了階段性目標(biāo)的設(shè)立,通過(guò)反復(fù)試錯(cuò)和及時(shí)反饋,實(shí)現(xiàn)人工智能治理的敏捷性與韌性。保護(hù)版權(quán)數(shù)據(jù)涉及算法、數(shù)據(jù)治理等多個(gè)復(fù)雜維度,是一項(xiàng)系統(tǒng)工程,需要多主體參與、多手段結(jié)合。針對(duì)版權(quán)數(shù)據(jù)的協(xié)同共治,應(yīng)以政府、司法機(jī)關(guān)、社會(huì)組織及公眾的共同參與為先導(dǎo)。政府應(yīng)發(fā)揮主導(dǎo)作用,負(fù)責(zé)制定和執(zhí)行相關(guān)法律法規(guī)和政策,為人工智能的服務(wù)提供者、研發(fā)者提供明確的指導(dǎo)和支持。政府應(yīng)推動(dòng)建立跨部門的協(xié)調(diào)機(jī)制,確保版權(quán)數(shù)據(jù)在人工智能應(yīng)用中的合法合規(guī)使用,同時(shí)加大對(duì)違法行為的打擊力度,形成有效的震懾。提供者作為人工智能技術(shù)的核心主體,應(yīng)積極履行社會(huì)責(zé)任,遵守法律法規(guī),確保產(chǎn)品和服務(wù)的安全可靠。同時(shí),提供者應(yīng)對(duì)數(shù)據(jù)的收集、使用、處理等環(huán)節(jié)進(jìn)行規(guī)范,避免侵犯他人的版權(quán),并在技術(shù)條件具備的基礎(chǔ)上,提升算法的透明度和可解釋性,減少因算法黑箱引發(fā)的版權(quán)爭(zhēng)議。使用者作為人工智能產(chǎn)品的最終受眾,應(yīng)增強(qiáng)自我保護(hù)意識(shí),合理使用人工智能產(chǎn)品和服務(wù)。他們應(yīng)了解并尊重版權(quán),避免使用盜版或未經(jīng)授權(quán)的數(shù)據(jù)。此外,社會(huì)組織和公眾也應(yīng)積極參與人工智能應(yīng)用中版權(quán)數(shù)據(jù)的協(xié)同共治。社會(huì)組織可以發(fā)揮橋梁和紐帶作用,促進(jìn)政府、企業(yè)、公眾之間的溝通與合作,推動(dòng)形成共識(shí)。公眾則應(yīng)提升自己在人工智能治理中的角色意識(shí),積極承擔(dān)治理責(zé)任,通過(guò)監(jiān)督、舉報(bào)等方式參與版權(quán)數(shù)據(jù)的保護(hù)。
3.如何保護(hù):從風(fēng)險(xiǎn)預(yù)防到塑造可信人工智能
類型在具體化思考、法律發(fā)現(xiàn)及體系形成中發(fā)揮著重要方法論功能,[27在監(jiān)管責(zé)任的分配上,抽象的技術(shù)風(fēng)險(xiǎn)落實(shí)終究要通過(guò)類型化的提煉來(lái)為治理實(shí)踐提供精細(xì)化、具體化的指導(dǎo)。技術(shù)風(fēng)險(xiǎn)的規(guī)制思路符合現(xiàn)代社會(huì)風(fēng)險(xiǎn)預(yù)防的旨趣,但預(yù)防技術(shù)風(fēng)險(xiǎn)并不是技術(shù)創(chuàng)新的全部?jī)?nèi)容。誠(chéng)然,分級(jí)分類監(jiān)管方式的確立旨在避免治理上的“一刀切”,但在智媒時(shí)代下,人工智能治理的重心宜從技術(shù)風(fēng)險(xiǎn)轉(zhuǎn)向技術(shù)應(yīng)用本身,即在算法、場(chǎng)景、主體、數(shù)據(jù)多個(gè)類型的場(chǎng)景安排上,對(duì)不同類型的技術(shù)應(yīng)用予以分級(jí)分類監(jiān)管,即應(yīng)用場(chǎng)景的分類、具體應(yīng)用行為的分級(jí)。大模型是直覺(jué)機(jī)制的運(yùn)用者,生成式人工智能基于概率預(yù)測(cè)的生成創(chuàng)造與基于經(jīng)驗(yàn)一神經(jīng)的互動(dòng)機(jī)制具有相似之處,這種類似于人類經(jīng)驗(yàn)直覺(jué)的思維方式是意識(shí)認(rèn)知方式的一種。[28]盡管意識(shí)層面的直覺(jué)難以解釋,但就像對(duì)人類意識(shí)活動(dòng)的規(guī)訓(xùn),我們?nèi)匀豢梢酝ㄟ^(guò)對(duì)其外化的客觀行為的規(guī)制來(lái)實(shí)現(xiàn)。對(duì)于版權(quán)數(shù)據(jù)保護(hù),宜將對(duì)版權(quán)的尊重確立為數(shù)據(jù)治理的核心目的和基本原則,將知識(shí)創(chuàng)新的理念深植于人工智能賦能應(yīng)用的每一個(gè)環(huán)節(jié),引領(lǐng)人工智能的發(fā)展與人類知識(shí)創(chuàng)新的良性互動(dòng)。
如何塑造人工智能的可信性?其一,實(shí)現(xiàn)技術(shù)運(yùn)行的可知,技術(shù)監(jiān)管的可見。有鑒于算法的專業(yè)性、復(fù)雜性與不公開性,一直以來(lái),透明與可解釋都是人工智能治理的核心議題。在AI系統(tǒng)的設(shè)計(jì)和功能足夠透明的前提下,用戶能夠理解其工作原理和潛在的限制,政策方得以刺破“黑箱面紗”,推動(dòng)外部監(jiān)管。外部的監(jiān)管問(wèn)責(zé)能夠倒逼人工智能開發(fā)、應(yīng)用、運(yùn)營(yíng)和管理走向數(shù)據(jù)與算法的合規(guī),提升人工智能系統(tǒng)的可控、可信程度,實(shí)現(xiàn)數(shù)字正義。圍繞算法透明,歐盟的《人工智能法案》提出了諸多要求:類似于高風(fēng)險(xiǎn)AI,通用人工智能同樣面臨披露信息的透明度監(jiān)管要求,為了增加通用型人工智能模型預(yù)訓(xùn)練和訓(xùn)練所使用數(shù)據(jù)的透明度,模型的開發(fā)不僅要受到版權(quán)法的約束,提供者還需要公開用于訓(xùn)練的內(nèi)容摘要。而隨著人工智能通用水平的不斷提升,提供者與使用者間的關(guān)系鏈愈發(fā)緊密,尤其是針對(duì)具體運(yùn)行問(wèn)題,除了提供者的技術(shù)背書,使用者的相關(guān)解釋亦不可或缺。正因如此,除了既定的責(zé)任配置,OECD已將透明度和可解釋性作為人工智能使用者的義務(wù)。[29]
其二,通過(guò)綜合技術(shù)性的法律問(wèn)責(zé)增進(jìn)人類對(duì)技術(shù)的信任。在我國(guó)的司法實(shí)踐中,直接侵權(quán)與間接侵權(quán)的二分法被作為版權(quán)領(lǐng)域歸責(zé)的主要路徑。然而,傳統(tǒng)的二分法在AIGC等新興業(yè)態(tài)的適用中存在明顯的局限性。其中,間接侵權(quán)的認(rèn)定需要證明行為主體主觀上存在幫助或引誘他人實(shí)施侵權(quán)行為的意圖。然而,在AIGC技術(shù)的實(shí)際應(yīng)用中,侵權(quán)行為的發(fā)生呈現(xiàn)出更高的間接性和自動(dòng)化程度,侵權(quán)行為的觸發(fā)往往并非基于行為主體的直接指令或明確意圖,而是通過(guò)復(fù)雜的算法模型和數(shù)據(jù)處理流程間接實(shí)現(xiàn)。因此,遵循傳統(tǒng)的主觀意圖標(biāo)準(zhǔn)難以準(zhǔn)確界定行為主體的責(zé)任邊界。鑒于此,有必要探索新的歸責(zé)路徑,以適應(yīng)AIGC技術(shù)發(fā)展的新形勢(shì),確保知識(shí)產(chǎn)權(quán)司法裁判的公正性和有效性。注意義務(wù)發(fā)揮著彌合歸責(zé)困境的作用,其理論實(shí)質(zhì)上實(shí)現(xiàn)了對(duì)行為主體過(guò)錯(cuò)認(rèn)定標(biāo)準(zhǔn)的客觀化轉(zhuǎn)型。即在判定侵權(quán)責(zé)任時(shí),更多地考察其行為是否符合社會(huì)普遍認(rèn)可的行為準(zhǔn)則。通過(guò)審視AI模型開發(fā)者或服務(wù)提供者的行為是否符合合理預(yù)防侵權(quán)的標(biāo)準(zhǔn),來(lái)判斷其是否存在過(guò)錯(cuò)。確立明確的注意義務(wù)標(biāo)準(zhǔn),對(duì)于界定法律邊界、保障技術(shù)健康發(fā)展以及推動(dòng)行業(yè)自律機(jī)制建立具有重要意義,是應(yīng)對(duì)新興技術(shù)挑戰(zhàn)、促進(jìn)科技創(chuàng)新與社會(huì)和諧共生的現(xiàn)實(shí)需要。[30]具體而言,當(dāng)AI服務(wù)提供者在明知存在潛在侵權(quán)風(fēng)險(xiǎn)的情況下,未能采取有效預(yù)防措施,如忽視AI服務(wù)使用者對(duì)模型的誤用、未對(duì)生成內(nèi)容進(jìn)行必要的過(guò)濾等,即便難以直接證明其存在引誘或幫助他人侵權(quán)的明確意圖,也應(yīng)認(rèn)定其違反了注意義務(wù)。這一認(rèn)定方式實(shí)質(zhì)上拓寬了責(zé)任認(rèn)定的范疇,將那些雖無(wú)直接侵權(quán)意圖,卻因疏于職責(zé)而間接促成侵權(quán)的行為主體納入責(zé)任體系,從而彌補(bǔ)了傳統(tǒng)侵權(quán)判定方法在應(yīng)對(duì)新型技術(shù)侵權(quán)問(wèn)題上的不足。適用上述歸責(zé)路徑,既能在保障技術(shù)創(chuàng)新的同時(shí)有效防范法律風(fēng)險(xiǎn),又能促進(jìn)產(chǎn)業(yè)的持續(xù)健康發(fā)展。因此,建議立法者明確生成式人工智能在算法設(shè)計(jì)、數(shù)據(jù)選擇、開發(fā)部署及運(yùn)行維護(hù)等各階段所應(yīng)承擔(dān)的法律責(zé)任,確保注意義務(wù)的內(nèi)容既符合法律要求,又便于產(chǎn)業(yè)實(shí)踐。
其三,主體責(zé)任的有序配置。盡管根據(jù)《公民權(quán)利和政治權(quán)利國(guó)際公約》,基于實(shí)現(xiàn)社會(huì)公益對(duì)個(gè)人權(quán)利的限制或克減也是被允許的,[31但公民的基本權(quán)益始終是人工智能開發(fā)和應(yīng)用的目標(biāo)而不是手段。因此,在人工智能技術(shù)的開發(fā)和應(yīng)用過(guò)程中,需要保護(hù)人工智能使用者的平等權(quán)、知情權(quán)、隱私權(quán)、拒絕權(quán)等權(quán)利,[32通過(guò)加強(qiáng)數(shù)據(jù)保護(hù)、明確責(zé)任主體、建立投訴和救濟(jì)機(jī)制等方式,確保個(gè)人在使用人工智能產(chǎn)品和服務(wù)時(shí)的合法權(quán)益不受侵害,保障數(shù)字弱勢(shì)群體享受技術(shù)紅利的可及與公平。充分尊重個(gè)人權(quán)益是人工智能治理的首要任務(wù)。由于數(shù)字時(shí)代的個(gè)人權(quán)益保護(hù)面臨著新技術(shù)帶來(lái)的復(fù)雜挑戰(zhàn),從被動(dòng)回應(yīng)到主動(dòng)預(yù)防符合公眾對(duì)技術(shù)治理的期待,但回應(yīng)民眾的期許不等于對(duì)每一種妨礙社會(huì)秩序平穩(wěn)實(shí)現(xiàn)的行為或隱藏的風(fēng)險(xiǎn)都進(jìn)行制裁,過(guò)于嚴(yán)苛的安全保障反而導(dǎo)致技術(shù)的閑置,妨礙社會(huì)的正常運(yùn)轉(zhuǎn)。如一度飽受爭(zhēng)議的《歐盟數(shù)字化單一市場(chǎng)版權(quán)指令》雖于2018年通過(guò),但利益各方圍繞該責(zé)任認(rèn)定的分歧導(dǎo)致于2016年9月提出的該指令提案多次被擱置。其中,指令第17條要求服務(wù)提供者對(duì)其用戶上傳的侵權(quán)內(nèi)容承擔(dān)責(zé)任的規(guī)定體現(xiàn)了對(duì)“避風(fēng)港原則”免責(zé)條款的突破,意味著服務(wù)提供者的注意義務(wù)范圍的擴(kuò)大,將對(duì)平臺(tái)經(jīng)營(yíng)者造成較大影響,[33帶來(lái)運(yùn)營(yíng)成本加大的壓力。雖然為了確定提供商是否滿足條款中“盡力而為”的要求,第17條也列出了有關(guān)合規(guī)成本的考量,但該指令對(duì)原先《歐盟電子商務(wù)指令》“通知一刪除”規(guī)則的取消,依然增加了商業(yè)監(jiān)管的不確定性。
人工智能治理要兼顧安全與發(fā)展,相關(guān)制度的構(gòu)造要堅(jiān)持預(yù)先性與謙抑性的統(tǒng)一。主體責(zé)任的有序配置是發(fā)展可信人工智能的前提,是培育可信人工智能生態(tài)的關(guān)鍵,結(jié)合人工智能邁向通用化的發(fā)展趨勢(shì),主體責(zé)任的劃分不宜局限于傳統(tǒng)平臺(tái)治理、算法治理中的提供者模式,需要考慮當(dāng)前的技術(shù)特點(diǎn),以未來(lái)通用人工智能的發(fā)展方向?yàn)樽ナ郑塾谘邪l(fā)行為、提供行為與使用行為的引導(dǎo)與約束,根據(jù)人工智能技術(shù)產(chǎn)業(yè)鏈上各參與主體的控制能力,綜合考量AIGC服務(wù)的性質(zhì)、技術(shù)特點(diǎn)等因素,為研發(fā)者、提供者、使用者分配相應(yīng)的責(zé)任義務(wù)。在責(zé)任的分配上,相對(duì)于提供者、研發(fā)者,使用者屬于弱勢(shì)一方,但若因此強(qiáng)調(diào)對(duì)服務(wù)提供者的問(wèn)責(zé),存在矯枉過(guò)正之嫌。智慧社會(huì)環(huán)境下的經(jīng)濟(jì)模式離不開技術(shù)的開放和利用,因此,既要明確基礎(chǔ)模型和衍生利用者之間的責(zé)任分配,也要對(duì)研發(fā)者、提供者、使用者等注意義務(wù)進(jìn)行合理分配。提供者有明顯過(guò)錯(cuò)并懈怠保護(hù)權(quán)利人權(quán)益的理應(yīng)承擔(dān)侵權(quán)責(zé)任,但對(duì)于使用者有過(guò)錯(cuò)的,應(yīng)給予研發(fā)者和提供者一定的責(zé)任豁免。此外,我們還應(yīng)當(dāng)從社會(huì)發(fā)展層面為提供者、研發(fā)者提供保障,回應(yīng)國(guó)內(nèi)人工智能企業(yè)的發(fā)展需求。如通過(guò)提供稅收激勵(lì)、資金支持和人才培養(yǎng)等措施,鼓勵(lì)研發(fā)者和提供者加大人工智能技術(shù)創(chuàng)新投入,推動(dòng)產(chǎn)業(yè)發(fā)展。
結(jié)語(yǔ)
技術(shù)的快速發(fā)展無(wú)疑為人們的生活帶來(lái)了前所未有的便利和可能性,但與此同時(shí),也帶來(lái)了一系列新的挑戰(zhàn)和問(wèn)題。我們需要建立一個(gè)全面的技術(shù)開發(fā)與監(jiān)管體系,既要鼓勵(lì)和支持技術(shù)的創(chuàng)新與發(fā)展,又要確保這些技術(shù)符合社會(huì)的倫理、道德和法律標(biāo)準(zhǔn)。在推動(dòng)技術(shù)發(fā)展的過(guò)程中,我們既要關(guān)注技術(shù)的先進(jìn)性和適用性,更要關(guān)注其對(duì)社會(huì)、環(huán)境和個(gè)人的潛在影響,確保技術(shù)的發(fā)展在安全可控的范圍內(nèi)進(jìn)行,并最大限度地減少其可能帶來(lái)的法律問(wèn)題。
參考文獻(xiàn):
[1]丁磊.生成式人工智能:AIGC的邏輯與應(yīng)用[M].北京:中信出版集團(tuán),2023:6.
[2]袁曾.生成式人工智能治理的法律回應(yīng)[J].上海大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024,41(1):28-39.
[3]劉通,陳夢(mèng)曦,AIGC新紀(jì)元:洞察ChatGPT與智能產(chǎn)業(yè)革命[M].北京:中國(guó)經(jīng)濟(jì)出版社,2023:209.
[4]鄭重.日本著作權(quán)法柔性合理使用條款及其啟示[J].知識(shí)產(chǎn)權(quán),2022(1):112-130.
[5]游俊哲.ChatGPT類生成式人工智能在科研場(chǎng)景中的應(yīng)用風(fēng)險(xiǎn)與控制措施[J].情報(bào)理論與實(shí)踐,2023,46(6):24-32
[6]胡凌,生成式人工智能知識(shí)產(chǎn)權(quán)侵權(quán)的司法考量[J].數(shù)字法治,2023(5):20-25.
[7]吳何奇.類型化區(qū)分網(wǎng)絡(luò)服務(wù)提供者侵犯著作權(quán)刑事責(zé)任[N].檢察日?qǐng)?bào),2023-04-18(3).
[8]Erik Olsson.We have to recognise ChatGPT-not ban it,saysCambridge pro-VC[EB/0L].[2023-07-20].https://ww.varsity.co.uk/news/24892.
[9]Noam Chomsky on ChatGPT:It's \"Basically High-TechPlagiarism\"and\"aWayofAvoidingLearning\"[EB/OL].[2023-07-20].https://www.openculture.com/2023/02/noam-chomsky-on-chatgpt.html.
[10]陳兵,董思琰.分類分級(jí)治理算法的基本內(nèi)涵及實(shí)踐進(jìn)路[J].西安財(cái)經(jīng)大學(xué)學(xué)報(bào),2023,36(6):70-79.
[11]曾雄,梁正,張輝.歐盟人工智能的規(guī)制路徑及其對(duì)我國(guó)的啟示——以《人工智能法案》為分析對(duì)象[J].電子政務(wù),2022(9):63-72.
[12]孫晉,帕孜麗婭·玉蘇甫.ChatGPT對(duì)數(shù)據(jù)合規(guī)的風(fēng)險(xiǎn)疊加及法律因應(yīng)[J].法治現(xiàn)代化研究,2023,7(6):53-70.
[13]張凌寒.中國(guó)需要一部怎樣的《人工智能法》?—中國(guó)人工智能立法的基本邏輯與制度架構(gòu)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(3):3-17.
[14]何懷文.中國(guó)著作權(quán)法:判例綜述與規(guī)范解釋[M].北京:北京大學(xué)出版社,2016:636,649.
[15]Lilian Edwards.Regulating AI in Europe:Four problemsandfour solutionss[EB/0L].[2023-03-25].https://www.adalovelaceinstitute.org/wp-content/uploads/2022/03/Expert-opinion-Lilian-Edwards-Regulating-AI-in-Europe.pdf.
[16]謝波,李晨煒.ChatGPT網(wǎng)絡(luò)安全風(fēng)險(xiǎn)的形成機(jī)制及其應(yīng)對(duì)路徑[J].國(guó)家安全論壇,2023,2(5):17-31,101-102.
[17] 陶鋒,劉星辰.從人機(jī)對(duì)話到人機(jī)交往——人工智能大語(yǔ)言模型的哲學(xué)反思[J].社會(huì)科學(xué)戰(zhàn)線,2024(5):188-199,282,294.
[18]潘恩榮,孫宗嶺.人工智能“以人為本”倫理準(zhǔn)則反思一一種馬克思主義哲學(xué)的分析思路[J].云南社會(huì)科學(xué),2022(6):30-39.
[19]馬克思.資本論:第一卷[M].中共中央馬克思恩格斯列寧斯大林著作編譯局,譯.北京:人民出版社,2004:424.
[20]尤爾根·哈貝馬斯.作為“意識(shí)形態(tài)”的技術(shù)與科學(xué)[M].李黎,郭官義,譯.上海:學(xué)林出版社,1999:49.
[21]約翰·馬爾科夫.與機(jī)器人共舞[M].郭雪,譯.杭州:浙江人民出版社,2015:208.
[22]李漢卿.協(xié)同治理理論探析[J].理論月刊,2014(1):138-142.
[23]王春光.社會(huì)治理“共同體化”的日常生活實(shí)踐機(jī)制和路徑[J].社會(huì)科學(xué)研究,2021(4):1-10.
[24]趙曉峰,馬銳.協(xié)同共治:農(nóng)村社會(huì)治理共同體建設(shè)中企業(yè)行為研究[J].陜西師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,52(2):127-137.
[25]龐禎敬,薛瀾,梁正.人工智能治理:認(rèn)知邏輯與范式超越[J].科學(xué)學(xué)與科學(xué)技術(shù)管理,2022(9):3-18.
[26]余衛(wèi)東,柳明.社會(huì)治理共同體構(gòu)建的倫理之維[J].江漢論壇,2022,43(7):67-72.
[27]杜宇.類型思維與刑法方法[M].北京:北京大學(xué)出版社,2021:4.
[28]EpsteinS,PaciniR,Denes-RajV,etal.Individualdifferencesinintuitive-experientialandanalytical-rationalthinkingstyles[J].JournalofPersonalityandSocial Psychology,1996(2):390-405.
[29]張永忠.論人工智能透明度原則的法治化實(shí)現(xiàn)[J].政法論叢,2024(2):124-137.
[30]林北征.論生成式人工智能服務(wù)提供者的注意義務(wù)[J].法律適用,2024(10):148-163.
[31]吳何奇.醫(yī)療大數(shù)據(jù)的價(jià)值、風(fēng)險(xiǎn)與法律規(guī)制一一基于新型冠狀病毒肺炎疫情治理的思考[J].科技導(dǎo)報(bào),2020,38(23):31-38.
[32]楊建軍,張凌寒,周輝,等,人工智能法:必要性與可行性[J].北京航空航天大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024,37(3):162-174.
[33]曾俊.論《歐盟版權(quán)改革指令》第17條對(duì)中國(guó)在線內(nèi)容分享平臺(tái)責(zé)任的啟示[J].德國(guó)研究,2020,35(3):125-141,163-164.
Approaches to Copyright Data Protection from the Perspective of Generative AI
WUHe-qi2(1.SchoolofCriminalJustice,ShanghaiUniversityofPoliticalScienceandLaw,Shanghai2O1701,China; 2.China ExecutiveLeadership Academy, Shanghai 201204, China)
Abstract:Therapid development of large language models and applications has propelled significant advances in generative artificial intelligence,showcasing extensiveapplicationprospects.However,ithasalso transformed therisk ofAI misusing data into arealistic concer.From the perspective of domestic and international judicial practice,the copyright isse ofdata misuse mainly focuses on the stages of model training and content generation.In response,a risk-orienteddataregulatorymodelcould preventpotentialrisksof technologicalapplications throughclassification andgrading,butfaceschallenges inassessmentdiffcultyandgovernancecosts.Theresponsibilityallocationbasedon service providers emphasizes their fulfllmentof securityobligations,yetthe technical characteristicsof generativeAI complicate the delineationofresponsibilities.Therefore,itisnecessry toestablish acomprehensive copyrightdata protection framework to balance technological innovationand copyright order.It should shift fromacontrolorder to a co-governance order,enablingcollaborative governance among governments,enterprises,society,and the public. Simultaneously,trustworthyAIshouldbeshaped byenhancing technological transparency,transformingthepathof attribution ofresponsibility and alocating the responsibilityof the main subject in an orderly manner.
Keywords:generativeartificialintellgence;dataabuserisk;datasupervisionmode;trustworthyartificialintelligence
(責(zé)任編輯:張君)