關(guān)鍵詞:強(qiáng)人工智能;生成式人工智能;人工智能生成物;版權(quán)風(fēng)險(xiǎn);技術(shù)治理;合理使用
中圖分類號(hào):D923.4 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.3969/j.issn.1003-8256.2024.06.005
美國(guó)人工智能實(shí)驗(yàn)室Open AI于2022年11月上線了一款新型生成式預(yù)訓(xùn)練變換模型(Chat GenerativePretrained Transformer),即ChatGPT,這一模型屬于自然語言處理(Natural Language Processing,NLP)領(lǐng)域的模型之一。此模型一經(jīng)問世便引發(fā)了各界的廣泛關(guān)注,短短5天時(shí)間便突破了百萬用戶,發(fā)布2個(gè)月以后月活用戶便已過億,用戶增長(zhǎng)速度打破了抖音用戶創(chuàng)下的增量記錄①。內(nèi)容生成式語言模型將在未來顯著改變?nèi)祟惖纳罘绞?,在不同的領(lǐng)域激發(fā)創(chuàng)造活力,甚至可能獲得突破性發(fā)展,引領(lǐng)數(shù)字時(shí)代的“科技革命”[1]。各大科技巨頭也對(duì)GPT模型發(fā)表了自己的評(píng)價(jià),例如,微軟總裁比爾·蓋茨(Bill Gates)對(duì)ChatGPT模型在未來可能產(chǎn)生的影響做出了高度贊譽(yù)與評(píng)價(jià):“ChatGPT 的影響不亞于互聯(lián)網(wǎng)和個(gè)人電腦的誕生!”②?!吨袊?guó)科學(xué)報(bào)》刊載的文章也將ChatGPT 的產(chǎn)生評(píng)價(jià)為“繼AlphaGo 之后,人工智能的又一重要突破,標(biāo)志著以大模型為核心的智能計(jì)算范式的確立”③。
然而,技術(shù)的發(fā)展往往伴隨著法律風(fēng)險(xiǎn)的產(chǎn)生。生成式人工智能的發(fā)展固然會(huì)為人類社會(huì)帶來巨大變革,但是對(duì)基于ChatGPT 模式的技術(shù)原理進(jìn)行分析,可以發(fā)現(xiàn)人工智能技術(shù)對(duì)于版權(quán)制度的沖擊隨著生成式人工智能的問世上了一個(gè)臺(tái)階。雖然ChatG?PT 問世時(shí)間不長(zhǎng),但是學(xué)界已經(jīng)產(chǎn)出大量研究成果:有學(xué)者認(rèn)為要對(duì)生成式人工智能構(gòu)建專項(xiàng)法律規(guī)制體系[2];有學(xué)者主張對(duì)原有版權(quán)制度進(jìn)行再解釋以適應(yīng)“強(qiáng)人工智能”時(shí)代的技術(shù)發(fā)展[3];有學(xué)者從版權(quán)歸屬界定要素出發(fā),對(duì)版權(quán)主體、客體等進(jìn)行微觀調(diào)適,以期通過對(duì)現(xiàn)有法律的最小更迭來應(yīng)對(duì)生成式人工智能對(duì)版權(quán)制度的沖擊[4-5]。但是現(xiàn)有的研究或?qū)Π鏅?quán)制度進(jìn)行重構(gòu)或?qū)ΜF(xiàn)有制度進(jìn)行微調(diào),都是在版權(quán)領(lǐng)域內(nèi)部進(jìn)行一定的遷移,從而應(yīng)對(duì)生成式人工智能所帶來的制度沖擊。應(yīng)當(dāng)看到,引進(jìn)技術(shù)以規(guī)制算法模式是未來在“強(qiáng)人工智能時(shí)代”可以廣泛借鑒的先進(jìn)經(jīng)驗(yàn),把技術(shù)方案引進(jìn)法律規(guī)制框架能夠有效緩解生成式人工智能發(fā)展所帶來的負(fù)面影響。本文從生成式人工智能的技術(shù)原理出發(fā),結(jié)合現(xiàn)有版權(quán)法律結(jié)構(gòu)中關(guān)于合理使用制度、合理使用界定標(biāo)準(zhǔn)等要素,對(duì)類GPT 模型“輸入”端的文本抓取數(shù)據(jù)庫(kù)侵權(quán)風(fēng)險(xiǎn)進(jìn)行分析,并對(duì)最終“輸出”端的生成物“獨(dú)創(chuàng)性”以及“可版權(quán)性”進(jìn)行論證,同時(shí)對(duì)數(shù)字版權(quán)管理技術(shù)以及數(shù)字水印等技術(shù)管理手段引進(jìn)生成式人工智能版權(quán)規(guī)制框架的可行性進(jìn)行討論。
1 祛魅ChatGPT:發(fā)展態(tài)勢(shì)及技術(shù)原理分析
ChatGPT 的“爆火”引發(fā)了社會(huì)層面對(duì)語言訓(xùn)練模型與生成式人工智能服務(wù)的熱議,國(guó)家互聯(lián)網(wǎng)信息辦公室緊急起草《生成式人工智能管理辦法(草案)》,并于2023年4月面向社會(huì)征求意見,且于短短數(shù)月內(nèi)出臺(tái)了暫行辦法。由此可以看出政府也開始重視不斷迭代更新的人工智能模型,并從頂層設(shè)計(jì)維度防患于未然,以防止開啟“強(qiáng)人工智能”時(shí)代的“潘多拉魔盒”?;谄淅碚摷軜?gòu)與技術(shù)原理,GPT 模型被廣泛應(yīng)用于各個(gè)領(lǐng)域,諸如金融測(cè)算、代碼編寫、文章續(xù)寫等。不同于“弱人工智能”時(shí)代算法系統(tǒng)的簡(jiǎn)單分析與重述,GPT模型所輸出的結(jié)果具有高質(zhì)量性:經(jīng)過Open AI實(shí)驗(yàn)室的測(cè)試,ChatGPT模型能夠順利通過美國(guó)的部分司法考試以及法學(xué)院期末考試,甚至還通過了谷歌18萬美元崗位年薪的軟件工程師入職測(cè)試。迭代更新以后的GPT-4在各類考試中不僅僅只追求“通過”,更是取得了排名的突破:在律師職業(yè)資格考試中取得了前10%的優(yōu)異成績(jī)④。其所具備的多場(chǎng)景、多業(yè)態(tài)的應(yīng)用前景與落地可能性決定了GPT 模型勢(shì)必將在未來引發(fā)一場(chǎng)新的“語言訓(xùn)練模型變革”。
美國(guó)人工智能實(shí)驗(yàn)室Open AI團(tuán)隊(duì)研發(fā)組曾對(duì)GPT模型的實(shí)現(xiàn)路徑進(jìn)行了技術(shù)上的解釋:我們引入了一個(gè)框架,通過生成性的預(yù)訓(xùn)練和辨別性的微調(diào),用一個(gè)單一的任務(wù)診斷模型實(shí)現(xiàn)強(qiáng)大的自然語言理解;通過對(duì)具有長(zhǎng)篇連續(xù)文本的多樣化語料庫(kù)進(jìn)行預(yù)訓(xùn)練,我們的模型獲得了重要的世界知識(shí)和處理長(zhǎng)距離依賴關(guān)系的能力,然后成功地轉(zhuǎn)移到解決諸如問題回答、語義相似性評(píng)估、尾隨確定和文本分類等鑒別性任務(wù)上⑤。質(zhì)言之,GPT模型通過對(duì)現(xiàn)有的文本數(shù)據(jù)庫(kù)進(jìn)行無監(jiān)督的自主分析與學(xué)習(xí),通過對(duì)文本語義之間的關(guān)系、上下文的聯(lián)系以及口語化表達(dá)等內(nèi)容進(jìn)行分析,再以Transformer模型(以避免在訓(xùn)練過程中NLP 模型應(yīng)具有海量且高質(zhì)的標(biāo)注數(shù)據(jù)與泛化能力不足等一系列缺陷)構(gòu)建具備邏輯性的類似于人類自然語言表達(dá)的算法模型,以此算法模型來分析提問者的問題,從而生成數(shù)字序列,最后通過特定的算法將數(shù)據(jù)序列轉(zhuǎn)化成文本針對(duì)提問進(jìn)行“回答”。
ChatGPT 模型的底層技術(shù)邏輯是深度合成技術(shù)(deep synthetic),此技術(shù)興起已久,近年來數(shù)據(jù)資源的指數(shù)型增長(zhǎng)使得人工智能生成物(AI Generated Con?tent,AIGC)與語言訓(xùn)練模型飛速發(fā)展。ChatGPT模型根據(jù)用戶所輸入的提問,模擬人類的聊天行為,通過其深度學(xué)習(xí)技術(shù)與海量語料庫(kù)按照相關(guān)性進(jìn)行文本抓取,生成一份“全新”的答案,并用人類可理解的自然語言進(jìn)行輸出,進(jìn)而與提問者進(jìn)行“對(duì)話”,其已經(jīng)具備“強(qiáng)人工智能”的顯著特征。
從ChatGPT模型的運(yùn)行原理來看,其訓(xùn)練途徑主要是大型語料庫(kù)與深度學(xué)習(xí)算法,通過自然語言處理模型與集成性搜索引擎構(gòu)建一個(gè)“輸出型”智能系統(tǒng),其使用深度學(xué)習(xí)算法對(duì)大型語料庫(kù)中存儲(chǔ)的海量數(shù)據(jù)進(jìn)行“無監(jiān)督的自主學(xué)習(xí)”,最終使其擁有語言理解和文本生成的能力,能夠完成用戶指令的任務(wù)。質(zhì)言之,ChatGPT模型的基本原理是采用了預(yù)訓(xùn)練(pre-training)和微調(diào)(finetuning)相結(jié)合的方法,通過大規(guī)模的語言數(shù)據(jù)集對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,從而使其能夠模仿人類的語言思維、語言表達(dá)方式。依托于生成式人工智能(GAI)以及大型語言處理模型(LLM),ChatGPT 模型不僅可以深度學(xué)習(xí)各類知識(shí),將復(fù)雜的人機(jī)互動(dòng)加以“智能化”,同時(shí)還可以模擬各種場(chǎng)景,幫助人類處理各類語言和文字工作。在數(shù)據(jù)庫(kù)構(gòu)建的過程中,Open AI公司并未公示其來源以及授權(quán),在現(xiàn)有的GPT模型語料庫(kù)中,包含了大量維基百科、論文數(shù)據(jù)庫(kù)等必然受版權(quán)法保護(hù)的內(nèi)容。如何在GPT模型發(fā)展的同時(shí)保護(hù)現(xiàn)有版權(quán)者的利益也屬于“強(qiáng)人工智能”時(shí)代需要關(guān)注的問題。
2 ChatGPT 模型引發(fā)的版權(quán)法律風(fēng)險(xiǎn)分析
從人類技術(shù)發(fā)展史來看,任何技術(shù)的創(chuàng)新都會(huì)有風(fēng)險(xiǎn)與之伴生[6],ChatGPT模型也不例外。ChatGPT作為一種大型語言模型(LLM),有著固有的顯著特點(diǎn),這些特點(diǎn)也與下文分析的GPT模型所面臨的版權(quán)風(fēng)險(xiǎn)息息相關(guān)。
大型語言模型一般都屬于代碼層面的基石性模型(foundational model),可以廣泛地應(yīng)用于搜索引擎等下游產(chǎn)業(yè),具有強(qiáng)大的市場(chǎng)支配力;同時(shí)也有可能應(yīng)用于公共領(lǐng)域,助力我國(guó)數(shù)字政府規(guī)劃建設(shè)[7]。但是這種廣泛應(yīng)用有可能帶來一系列問題,必須通過相關(guān)的法規(guī)予以約束,同時(shí)要有相關(guān)政策與行業(yè)標(biāo)準(zhǔn)加以引導(dǎo)。此外,GPT模型具有生成性,其本質(zhì)是人工智能生成作品產(chǎn)業(yè)的重要組成部分。這類具有“生成性”的人工智能不同于“弱人工智能”時(shí)代對(duì)大數(shù)據(jù)進(jìn)行分析預(yù)測(cè)的“分析性”人工智能,其通過學(xué)習(xí)后“創(chuàng)造”的不具有重復(fù)性的全新作品有可能對(duì)現(xiàn)有版權(quán)體系造成沖擊。
2.1 ChatGPT 在數(shù)據(jù)獲取階段面臨版權(quán)侵權(quán)風(fēng)險(xiǎn)
承前所述,GPT 模型可以理解為一種大型語言模型,當(dāng)前數(shù)據(jù)時(shí)代產(chǎn)生的數(shù)據(jù)爆發(fā)效應(yīng)為GPT 模型提供了大量的訓(xùn)練學(xué)習(xí)數(shù)據(jù)。據(jù)Open AI公司宣稱,GPT模型的訓(xùn)練數(shù)據(jù)庫(kù)早已超過千億級(jí)別,不過在驚嘆AI模型發(fā)展迅速的同時(shí)也應(yīng)當(dāng)看到巨量數(shù)據(jù)的背后所隱藏的版權(quán)侵權(quán)風(fēng)險(xiǎn)⑥。目前,Open AI公司并未就巨量數(shù)據(jù)集的來源進(jìn)行公示,相關(guān)數(shù)據(jù)庫(kù)的使用是否獲得授權(quán)還存在疑問。
ChatGPT通過對(duì)互聯(lián)網(wǎng)現(xiàn)有數(shù)據(jù)與知識(shí)進(jìn)行學(xué)習(xí),再通過一系列算法模型對(duì)現(xiàn)有內(nèi)容進(jìn)行解構(gòu)重塑,最終輸出全新的觀點(diǎn)并用人類可理解的方式表達(dá)。這一內(nèi)容生成模式的底層邏輯便是數(shù)據(jù)庫(kù)的文本挖掘,OpenAI公司所使用的訓(xùn)練數(shù)據(jù)庫(kù)包括維基百科、各大期刊數(shù)據(jù)庫(kù)等,其中蘊(yùn)含的巨量數(shù)據(jù)勢(shì)必包含受現(xiàn)行版權(quán)法所保護(hù)的內(nèi)容,如果使用這些數(shù)據(jù)進(jìn)行模型訓(xùn)練時(shí)未通知版權(quán)所有人,那么一定會(huì)造成版權(quán)領(lǐng)域侵權(quán)頻發(fā)的現(xiàn)象,沖擊現(xiàn)有的版權(quán)保護(hù)體系。以對(duì)數(shù)據(jù)庫(kù)文本的復(fù)制使用為例,這一行為會(huì)造成版權(quán)侵權(quán)、二次創(chuàng)作許可等問題?;蛟SOpen AI公司會(huì)以合理使用來對(duì)抗版權(quán)所有人的侵權(quán)主張,認(rèn)為ChatGPT的運(yùn)行并非以盈利為目的,所以應(yīng)當(dāng)落入合理使用范圍以規(guī)避法律制裁,這也是歐盟于2019年頒布《數(shù)字化單一市場(chǎng)版權(quán)指令》后的全新司法實(shí)踐標(biāo)準(zhǔn)[8]。但是我國(guó)現(xiàn)行版權(quán)法體系對(duì)合理使用采取封閉模式規(guī)制,在2020年修訂《著作權(quán)法》時(shí)仍舊沿用“三步檢驗(yàn)法”對(duì)合理使用的適用情形進(jìn)行界定,并從法律文本維度劃定十三種合理使用的范圍,文本挖掘并不屬于法定合理使用情形中的任何一種[9],且在我國(guó)的司法實(shí)踐中并未將營(yíng)利性使用認(rèn)定為侵權(quán)要件[10]。故而GPT模型的“文本挖掘+轉(zhuǎn)化輸出”的內(nèi)容生成模式并不能落入我國(guó)版權(quán)視域下合理使用的范疇[11]。
在實(shí)踐中,文本挖掘侵權(quán)早有處罰先例。丹麥最高法院就DDF公司與Infopaq公司的糾紛向歐洲法院請(qǐng)示處理方案的核心問題便是文本抓取的合理性問題。歐洲法院就此糾紛明確了文本抓取行為的版權(quán)侵權(quán)性質(zhì)。美國(guó)集體訴訟案Andersen et al v.Stability AI Ltd案中也提到了AI抓取文本的侵權(quán)問題:以Andersen為首的美籍藝術(shù)家們表示DeviantArt 在未經(jīng)藝術(shù)家個(gè)人或者集體管理組織許可的情況下將受版權(quán)保護(hù)的超過50億張網(wǎng)絡(luò)圖片作為“原料”用于AI模型的深度學(xué)習(xí),這一行為是影響惡劣的版權(quán)侵權(quán)行為。藝術(shù)家們就此提出了包括涉嫌直接和替代侵犯版權(quán)、違反《數(shù)字千年版權(quán)法》、違反《加州反不正當(dāng)競(jìng)爭(zhēng)法》在內(nèi)的七項(xiàng)侵權(quán)與違法指控⑦。
2.2 ChatGPT 在內(nèi)容生成階段面臨權(quán)屬爭(zhēng)議
我國(guó)知識(shí)產(chǎn)權(quán)法學(xué)界對(duì)于人工智能生成作品的權(quán)屬爭(zhēng)議從未停止。對(duì)于是否應(yīng)當(dāng)將其納入版權(quán)保護(hù)領(lǐng)域存在較大的爭(zhēng)議,大多數(shù)學(xué)者認(rèn)為人工智能算法系統(tǒng)僅僅是服務(wù)于人類創(chuàng)造的工具[12],人工智能生成物的本質(zhì)還是人類創(chuàng)造的產(chǎn)物[13],其生成內(nèi)容在版權(quán)法視域下近似于算法編寫者或者模型訓(xùn)練者的智力成果創(chuàng)造行為[14],只要符合作品的構(gòu)成要件即可獲得版權(quán)法的保護(hù)[15]。也有少數(shù)學(xué)者認(rèn)為人工智能生成物僅僅是算法程序獨(dú)立創(chuàng)造的結(jié)果[16],其產(chǎn)生過程并沒有人類的主觀參與,不符合國(guó)際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)(AIPPI)關(guān)于人工智能生成物“可版權(quán)性”的認(rèn)定標(biāo)準(zhǔn),故而不應(yīng)當(dāng)將其納入版權(quán)保護(hù)領(lǐng)域。還有學(xué)者認(rèn)為雖然人工智能生成物與人類創(chuàng)作作品有相似之處,但是不能因此便判定人工智能生成物享有與人類智力成果等同的地位,應(yīng)當(dāng)溯源人工智能生成物的生產(chǎn)過程,以此來判斷其是否落入我國(guó)版權(quán)法的規(guī)制范圍,是否能稱之為“作品”[17]。對(duì)ChatGPT模型來說,其在內(nèi)容生成階段的爭(zhēng)議主要集中于生成物的“獨(dú)創(chuàng)性”以及“可版權(quán)性”兩大維度。
2.2.1 GPT模型生成回答的“獨(dú)創(chuàng)性”分析
以往的人工智能大多為“應(yīng)用算法、規(guī)則和模板的結(jié)果,不能體現(xiàn)創(chuàng)作者獨(dú)特的個(gè)性”。但隨著ChatGPT的問世,許多學(xué)者認(rèn)為人工智能逐漸步入“強(qiáng)人工智能”時(shí)代,具備了一定的自主創(chuàng)作以及信息重構(gòu)能力,其輸出的文字具備了高度的“類人性”,擺脫了單純信息索引以及單句問答的局限性,故而“使得程序算法和獨(dú)立思考的界限進(jìn)一步模糊”。但是仍有學(xué)者堅(jiān)持不應(yīng)將ChatGPT生成作品當(dāng)作傳統(tǒng)的智力成果加以保護(hù),因?yàn)镃hatGPT作為一種大型語言模型,在本質(zhì)上仍屬于“智能搜索引擎+智能文本分析器+洗稿器”的結(jié)合,內(nèi)容生成不具有版權(quán)法語境下的“獨(dú)創(chuàng)性”[18]。不過也有學(xué)者對(duì)這種分類方式持否定意見[17]。
著作權(quán)法所保護(hù)的文字作品,并不局限于提出了新觀點(diǎn)的文字內(nèi)容,也關(guān)注其文字組合、遣詞造句是否為獨(dú)創(chuàng)[19]。換言之,只要這些文字源于本人,且能表達(dá)一定的思想情感和傳遞較為完整的信息,無論質(zhì)量如何都可以作為作品受到著作權(quán)法的保護(hù)。從這個(gè)角度來看,ChatGPT模型所生成的答案無疑是符合“獨(dú)創(chuàng)性”標(biāo)準(zhǔn)的,故而具有成為作品的可能性。但是AI生成物的“可版權(quán)性”在根本上要解決的是AI所輸出的內(nèi)容是否具有賦予其法律保護(hù)的必要性,而非單純判斷其產(chǎn)物是否符合“獨(dú)創(chuàng)性”標(biāo)準(zhǔn)。
2.2.2 GPT模型生成回答是否具備版權(quán)保護(hù)的必要性
有學(xué)者認(rèn)為人工智能生成物應(yīng)當(dāng)賦予著作權(quán)予以保護(hù)[14];也有學(xué)者認(rèn)為鄰接權(quán)保護(hù)是一個(gè)不錯(cuò)的規(guī)制路徑[20]。結(jié)合我國(guó)《著作權(quán)法》的設(shè)立目的⑧,版權(quán)保護(hù)是為了給予創(chuàng)作者一定的激勵(lì)以促進(jìn)文化市場(chǎng)的繁榮與社會(huì)文化的發(fā)展。從實(shí)用主義的邏輯來分析,如果對(duì)AI主體的激勵(lì)無法促進(jìn)作品的產(chǎn)生與文化的發(fā)展,那么也沒有必要對(duì)人工智能主體賦予著作權(quán)或者鄰接權(quán)。有研究者認(rèn)為不賦予人工智能生成物以版權(quán)保護(hù)將導(dǎo)致人工智能生成物的無償使用,在利益的驅(qū)使下將擠占人類作品的生存空間,極大地打擊人類作者的創(chuàng)作積極性,進(jìn)而導(dǎo)致我國(guó)版權(quán)市場(chǎng)的凋零[21]。從這個(gè)邏輯倒推的話,對(duì)人工智能生成物進(jìn)行版權(quán)保護(hù)在“強(qiáng)人工智能”時(shí)代具有極其重大的現(xiàn)實(shí)意義。
學(xué)術(shù)觀點(diǎn)的爭(zhēng)鳴離不開現(xiàn)有法律文本體系。雖然英國(guó)的《著作權(quán)法》規(guī)定了計(jì)算機(jī)生成內(nèi)容可以作為作品獲得版權(quán)保護(hù),且國(guó)際上許多國(guó)家與地區(qū)均采用此類保護(hù)方式。但是我國(guó)并無此類法律規(guī)定。此外,我國(guó)《著作權(quán)法》第2條第1款明確規(guī)定:“中國(guó)公民、法人或者非法人組織的作品,不論是否發(fā)表,依照本法享有著作權(quán)”。從法律主體的維度來看,人工智能并不能作為版權(quán)所有主體納入現(xiàn)有版權(quán)法律保護(hù)體系。雖然有學(xué)者主張應(yīng)當(dāng)對(duì)人工智能采用一種類似于“法人作品”法律擬制的保護(hù)模式,但是也有學(xué)者對(duì)此觀點(diǎn)提出批駁,認(rèn)為這種主張是顛倒版權(quán)法邏輯的:因?yàn)榉ㄈ俗髌窋M制與作品的認(rèn)定并無關(guān)系,只有先將人工智能生成物認(rèn)定為作品才能通過法律擬制將法人視作版權(quán)所有人[17]。不過前述內(nèi)容也論證了人工智能生成物被賦予作品地位的可行性,故而此種觀點(diǎn)也值得業(yè)界人士深入探索,或許是將人工智能生成物納入現(xiàn)行版權(quán)法領(lǐng)域的一個(gè)有效進(jìn)路。
人工智能生成物的“可版權(quán)性”爭(zhēng)論在實(shí)務(wù)領(lǐng)域也有所體現(xiàn)。2016年的“獼猴自拍案”在一、二審中均采用“作者中心主義”,認(rèn)定只有人類才能被賦予作者的地位。“《通向天堂之近路》繪畫登記案”中的判決法院也采用了類似的認(rèn)定標(biāo)準(zhǔn)⑨。2022年10月,美國(guó)版權(quán)局收回了由AI程序Midjourney生成的漫畫《黎明里的扎里婭》(Zarya of the Dawn)的版權(quán)登記,并要求版權(quán)申請(qǐng)者提供“人類實(shí)質(zhì)性參與”的證據(jù)⑩,因?yàn)锳IPPI于2019年頒布了《人工智能生成物的版權(quán)問題決議》,其中對(duì)人工智能生成物的可版權(quán)性做出了認(rèn)定標(biāo)準(zhǔn):人類干預(yù)+符合版權(quán)法視域下對(duì)“作品”的認(rèn)定條件。從這一角度出發(fā),或許又為人工智能生成物納入現(xiàn)有版權(quán)法規(guī)制范圍提供了一種進(jìn)路:有一定的人類干預(yù)。我國(guó)于同年裁判的“騰訊公司訴被告盈某科技侵害著作權(quán)及不正當(dāng)競(jìng)爭(zhēng)糾紛一案”中認(rèn)定了人工智能生成物的可版權(quán)性,不過這一判決在理論界并未獲得廣泛支持?。且中國(guó)不同于英美法系國(guó)家以判例作為法源,所以前述判決在我國(guó)并沒有普遍的適用空間。因此,不管在我國(guó)的理論界還是實(shí)務(wù)界,關(guān)于人工智能生成物的性質(zhì)及知識(shí)產(chǎn)權(quán)歸屬仍待解決。
此外,Open AI公司就ChatGPT 生成回答的商業(yè)化利用制定了《使用協(xié)議》:使用者向GPT 模型輸入的文本與接收的GPT 模型輸出的文本應(yīng)當(dāng)稱為“內(nèi)容”,用戶就所有的輸入內(nèi)容享有所有權(quán)利,并對(duì)內(nèi)容負(fù)責(zé),保證其不能違反法律條文規(guī)定以及本協(xié)議的相關(guān)規(guī)定。根據(jù)《使用協(xié)議》的相關(guān)規(guī)定,用戶享有“內(nèi)容”的所有權(quán)利,但是GPT模型的用戶量基數(shù)巨大,所以在實(shí)踐過程中可能會(huì)導(dǎo)致版權(quán)權(quán)屬糾紛等問題。
3 “野蠻生長(zhǎng)”的ChatGPT 模型的法制因應(yīng)
目前學(xué)界對(duì)于ChatGPT模型的發(fā)展與應(yīng)用持謹(jǐn)慎態(tài)度,而現(xiàn)實(shí)社會(huì)也面臨ChatGPT被濫用的諸多風(fēng)險(xiǎn),因此相關(guān)領(lǐng)域的法制因應(yīng)刻不容緩。有學(xué)者主張應(yīng)當(dāng)對(duì)GPT模型進(jìn)行單獨(dú)立法或制定具有針對(duì)性的政策措施。本文認(rèn)為目前的GPT 模型仍處于“野蠻生長(zhǎng)”階段,并非是一種成熟的技術(shù)方案,其仍存在算力消耗巨大、輸出內(nèi)容的準(zhǔn)確性無法保證以及單一模態(tài)化等問題。監(jiān)管機(jī)構(gòu)與立法部門不應(yīng)當(dāng)把現(xiàn)階段的版權(quán)治理與網(wǎng)絡(luò)空間安全治理的重心任務(wù)放在一種不完善的技術(shù)方案上,否則便有可能陷入“一項(xiàng)技術(shù)對(duì)應(yīng)一條法律制度”[6]的結(jié)構(gòu)性立法弊端之中。目前仍應(yīng)當(dāng)探究現(xiàn)有法律制度來規(guī)制GPT模型的多元風(fēng)險(xiǎn)。
承前所述,ChatGPT模型的版權(quán)風(fēng)險(xiǎn)主要集中于文本抓取的版權(quán)侵權(quán)風(fēng)險(xiǎn)以及生成回答的版權(quán)保護(hù)問題。應(yīng)對(duì)數(shù)據(jù)挖掘的侵權(quán)風(fēng)險(xiǎn)可以嘗試采用技術(shù)手段,通過對(duì)上傳網(wǎng)絡(luò)空間的原始數(shù)據(jù)進(jìn)行標(biāo)記等手段來辨別數(shù)據(jù)是否受版權(quán)保護(hù)、使用哪些數(shù)據(jù)會(huì)面臨侵權(quán)之虞;對(duì)于生成回答的版權(quán)保護(hù)問題或可參考國(guó)內(nèi)學(xué)者關(guān)于人工智能生成物的保護(hù)路徑。
3.1 GPT 模型文本挖取的DRM規(guī)制進(jìn)路
GPT模型的訓(xùn)練數(shù)據(jù)主要來源于互聯(lián)網(wǎng),在萬物互聯(lián)的時(shí)代,其挖取并應(yīng)用于模型訓(xùn)練的數(shù)據(jù)極有可能是受版權(quán)保護(hù)且未經(jīng)許可的內(nèi)容。但是數(shù)據(jù)量過大的現(xiàn)實(shí)問題使得確定數(shù)據(jù)版權(quán)狀態(tài)成為一個(gè)難題,在這種情況下,數(shù)字版權(quán)管理(Digital Rights Management,DRM)或可發(fā)揮積極作用。DRM分為水印與密碼兩種保護(hù)進(jìn)路[22]:水印技術(shù)主要是指通過技術(shù)手段將普通人無法感知、只能由某種特定技術(shù)設(shè)備認(rèn)證的帶有創(chuàng)作者個(gè)人信息的內(nèi)容嵌入文本載體[23]。密碼保護(hù)技術(shù)主要是以加密手段保護(hù)數(shù)據(jù)在傳輸過程中無法被不法分子竊取,以密鑰等作為唯一認(rèn)證方式的數(shù)字版權(quán)管理方式。
從DRM的技術(shù)架構(gòu)可以看出,這是一種極其契合大數(shù)據(jù)時(shí)代海量數(shù)據(jù)版權(quán)保護(hù)的技術(shù)模式。具體而言,可以在將享有版權(quán)保護(hù)的數(shù)據(jù)內(nèi)容上傳至互聯(lián)網(wǎng)時(shí)便在原始腳本上標(biāo)記水印、robots協(xié)議或者添加密鑰,GPT模型應(yīng)當(dāng)內(nèi)置特定的數(shù)字識(shí)別技術(shù),以此來確保其抓取的文本不會(huì)存在版權(quán)侵權(quán)爭(zhēng)議。除了隱性的數(shù)字水印以及顯性的數(shù)字密碼,還可以對(duì)侵權(quán)風(fēng)險(xiǎn)較大的數(shù)據(jù)文本通過“貼標(biāo)簽”等明示形式加以警示[24],保障GPT模型訓(xùn)練過程中使用數(shù)據(jù)來源的合法性。
3.2 GPT 模型生成物“可版權(quán)性”及其權(quán)屬規(guī)制進(jìn)路
這一領(lǐng)域的爭(zhēng)議主要集中在GPT生成的回答是否符合作品的構(gòu)成要件以及生成回答的版權(quán)所有爭(zhēng)議。本文更傾向于多數(shù)觀點(diǎn),將人工智能生成作品納入現(xiàn)有版權(quán)保護(hù)體系,以發(fā)揮版權(quán)法激勵(lì)創(chuàng)造、繁榮文化的目的,但是具體的實(shí)施進(jìn)路還需要進(jìn)一步討論。通過前文的分析,基本可以認(rèn)定在“強(qiáng)人工智能時(shí)代”AI模型的生成物符合我國(guó)版權(quán)法領(lǐng)域中對(duì)作品認(rèn)定的要件。從這一維度來看,我國(guó)或許可以借鑒英國(guó)法律以及與AIP?PI相關(guān)規(guī)定,在設(shè)置限定條件的前提下將計(jì)算機(jī)生成物的“可版權(quán)性”擴(kuò)張至人工智能生成物,對(duì)其進(jìn)行版權(quán)保護(hù)。但是在面對(duì)新事物時(shí)不宜過早變更傳統(tǒng)規(guī)則,否則將對(duì)法律體系造成沖擊,不利于法律的穩(wěn)定。在這種情況下可以采用現(xiàn)有法律保護(hù)機(jī)制(如鄰接權(quán))[20]加以保護(hù),待到時(shí)機(jī)成熟再進(jìn)行法律的修訂,如此方可保證法律體系在穩(wěn)定的前提下實(shí)現(xiàn)迭代更新。
解決了“可版權(quán)性”的問題以后,還面臨GPT 生成內(nèi)容的權(quán)屬爭(zhēng)議,有學(xué)者通過闡釋法人擬制的法律文本邏輯來論證GPT回答內(nèi)容不宜通過法律擬制的方式加以保護(hù)。且ChatGPT 作為一種AI模型,不屬于私法視域下的法律關(guān)系主體,故而不能對(duì)其通過版權(quán)法領(lǐng)域的“委托作品”或者“職務(wù)作品”等方式加以保護(hù),因?yàn)閮烧叩那疤崾呛贤P(guān)系的存在。此外GPT作為AI模型并不像自然人一樣有可處自由刑以及罰金的可能性,故而不具備刑法上的可罰性[25]。還有學(xué)者認(rèn)為,從私法領(lǐng)域看,GPT模型主要發(fā)揮“工具”價(jià)值,只能通過既有數(shù)據(jù)庫(kù)進(jìn)行抓取、分析與輸出,并無自主能力決定自己的回答結(jié)果[26],且無自主意識(shí),運(yùn)行構(gòu)造均受算法設(shè)計(jì)師的控制與支配[27]。所以從民法、刑法、法律文本等維度來看,均不宜直接認(rèn)定GPT 模型獨(dú)立享有版權(quán)。我們應(yīng)當(dāng)探索一種全新的合理的版權(quán)權(quán)屬分配路徑。
從邏輯本質(zhì)來看,人工智能生成物涉及三方主體:人工智能算法設(shè)計(jì)者、人工智能享有者、內(nèi)容輸入者[28]。三方主體的交叉造就了人工智能生成物版權(quán)權(quán)屬的歸屬難題,算法設(shè)計(jì)者可以從職務(wù)作品維度分享一定的收益,但是算法在被設(shè)計(jì)出以后便開始獨(dú)立運(yùn)行,其輸出內(nèi)容并不受算法設(shè)計(jì)者的控制,算法設(shè)計(jì)者也無法預(yù)見其生成內(nèi)容,故而不宜認(rèn)定為其設(shè)計(jì)的機(jī)械延伸[29]。人工智能的所有權(quán)人與內(nèi)容輸入者也面臨權(quán)屬的沖突。本文認(rèn)為,在這種情況下應(yīng)該回歸私法領(lǐng)域“意思自治”的原則,由人工智能所有權(quán)人與人工智能使用者在內(nèi)容輸出之前或者之后自行協(xié)商,如Open AI公司的《使用協(xié)議》,如此便可杜絕內(nèi)容生成以后面臨的版權(quán)爭(zhēng)議。但是實(shí)務(wù)中也會(huì)出現(xiàn)沒有明確約定的情況,這時(shí)應(yīng)當(dāng)重視內(nèi)容輸入者的版權(quán)[30],因?yàn)槿斯ぶ悄芩惴ㄉ晌锏闹苯又笓]者是用戶,所有權(quán)人并不參與到內(nèi)容的產(chǎn)生過程中;此外所有權(quán)人已經(jīng)通過用戶的付費(fèi)使用等方式獲得了一定的收益。例如,近期Open AI 公司與使用者訂立ChatGPT 付費(fèi)使用合同,產(chǎn)生債權(quán)僅涉及系統(tǒng)本身的租金或使用費(fèi),不包括使用者利用系統(tǒng)再次創(chuàng)作的利益。這種付費(fèi)行為本身就是對(duì)所有權(quán)人的一種認(rèn)可與激勵(lì),再將人工智能生成物的版權(quán)賦予所有權(quán)人有違法律公平性。
本文認(rèn)為,GPT模型的廣泛應(yīng)用是千載難逢的統(tǒng)一人工智能生成物可版權(quán)性與版權(quán)歸屬爭(zhēng)論的契機(jī)。涉足人工智能生成物的互聯(lián)網(wǎng)企業(yè)應(yīng)當(dāng)主動(dòng)制定行業(yè)規(guī)范,提高行業(yè)自律。最高法也可以抓住機(jī)會(huì)出臺(tái)相關(guān)指導(dǎo)案例,從官方層面形成統(tǒng)一的裁判觀點(diǎn),并對(duì)實(shí)務(wù)操作給予既定的裁判指引。
4 結(jié)語
任何新技術(shù)的產(chǎn)生與發(fā)展都有可能帶來全新的法律風(fēng)險(xiǎn)與道德倫理風(fēng)險(xiǎn)。ChatGPT開啟了人工智能新紀(jì)元,從此人類社會(huì)將逐步進(jìn)入“強(qiáng)人工智能”時(shí)代,未來AI技術(shù)的發(fā)展勢(shì)必影響社會(huì)發(fā)展的方方面面。在此情況下,多元法律風(fēng)險(xiǎn)接踵而來,如何在保證技術(shù)促進(jìn)人類文明進(jìn)步的前提下,對(duì)其加以適當(dāng)限制以保障社會(huì)秩序的協(xié)調(diào)統(tǒng)一,是法學(xué)領(lǐng)域應(yīng)當(dāng)關(guān)注的問題。法律應(yīng)當(dāng)參與到技術(shù)改革的過程中,在版權(quán)領(lǐng)域,應(yīng)當(dāng)及時(shí)更新法律適用要件以適應(yīng)“強(qiáng)人工智能”的技術(shù)背景,要正確評(píng)估AIGC的“可版權(quán)性”,并從“輸入”端與“輸出”端兩個(gè)維度對(duì)文本挖掘以及生成物權(quán)屬做出相應(yīng)的調(diào)適。同時(shí)要重視“技術(shù)規(guī)制算法”理念在生成式人工智能領(lǐng)域的運(yùn)用,在法律不能完全規(guī)制其風(fēng)險(xiǎn)時(shí)采用先進(jìn)的技術(shù)手段對(duì)生成式人工智能的風(fēng)險(xiǎn)點(diǎn)進(jìn)行監(jiān)控調(diào)整。生成式人工智能的發(fā)展已勢(shì)不可擋,傳統(tǒng)版權(quán)法的封閉式合理使用是否契合時(shí)代發(fā)展有待商榷,傳統(tǒng)的賦權(quán)界定標(biāo)準(zhǔn)也應(yīng)當(dāng)進(jìn)行重塑。如何實(shí)現(xiàn)AIGC“輸入”端海量數(shù)據(jù)原料的合法化、如何對(duì)“輸出”端生成物進(jìn)行合理賦權(quán)并設(shè)定公平的利益分配范式是未來應(yīng)對(duì)生成式人工智能對(duì)于版權(quán)領(lǐng)域沖擊應(yīng)當(dāng)討論的重要議題。