摘 要:ChatGPT的出現(xiàn)顛覆了人類對以往傳統(tǒng)人工智能的認知,其特別之處在于能夠?qū)Υ罅繑z取的數(shù)據(jù)“改頭換面”,具有類似“洗稿”的能力,還能聯(lián)系上下文與人類順利進行對話等。我們無法阻止科技的發(fā)展帶來的新事物的熱潮,法律滯后性特點使其規(guī)定無法全面應(yīng)對新式AI潛在的各種風險,導(dǎo)致ChatGPT這類生成式人工智能處于既不違法也不合法的尷尬“灰色”境地。AI無償攝入原作者數(shù)據(jù)用作商業(yè)行為卻不付出相應(yīng)代價不僅會對原作者帶來替代性威脅,還會引發(fā)大規(guī)模失業(yè)現(xiàn)象,因此,通過擴大適用“法定許可”方式,不僅能夠提高授權(quán)效率,還能夠維護原著作權(quán)人一定的經(jīng)濟利益,再通過擴大網(wǎng)絡(luò)服務(wù)提供者的權(quán)利職能和責任擔當,加之擴大政府監(jiān)管權(quán)力,能夠完善具體措施的可行性。
關(guān)鍵詞:ChatGPT;洗稿;法定許可;網(wǎng)絡(luò)服務(wù)提供者
一、ChatGPT的技術(shù)變化
ChatGPT作為一種大型預(yù)訓(xùn)練語言模型,是一種基于深度學(xué)習(xí)的自然語言處理模型,它可以通過模擬人類對話的方式,為用戶提供定制化的信息服務(wù)。所謂ChatGPT,全稱是Chat Generative Pre-trained Transformer,即生成式預(yù)訓(xùn)練變換模型。在其使用的Transformer模型架構(gòu)中包括了注意力機制,用于分析情感分析任務(wù),這能夠讓模型更加關(guān)注輸入序列中的重要信息,更好地捕獲到上下文的相關(guān)信息,防止丟失重要的信息,有效提高文本情感分析的準確率、提高模型的表現(xiàn)[1],使ChatGPT的表現(xiàn)更加“接近”人類。
截至2023年3月來看,GPT運用的技術(shù)并不稀奇,其他類型的人工智能其實早已開始使用:如AlphaGo,它和ChatGPT的相似之處是它們都運用了神經(jīng)網(wǎng)絡(luò)技術(shù)來處理并預(yù)測結(jié)果。ChatGPT是基于上述提到的Transformer模型來生成類人文本,AlphaGo運用的則是卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的組合來分析并預(yù)測最佳的破解方式,它們也都運用了深度學(xué)習(xí)技術(shù)來處理和理解大量的數(shù)據(jù)等。
既然如此,為何如今的ChatGPT掀起如此波瀾?首先,其使用了深度學(xué)習(xí)處理自然語言的大型語言模型來破譯人類的自然語言,增加了人類與機器溝通的效率。從前人與機器之間溝通需要編碼來讓機器理解其中的含義,當有了語言模型,機器無需編碼而是通過自身翻譯且執(zhí)行的方法來理解人類。其次,其模型參數(shù)急劇增加。GPT-3的參數(shù)量就已經(jīng)高達1750億[2],這能讓它在不進行微調(diào)的情況下,僅利用小樣本甚至零成本就能在下游任務(wù)中超越其他模型。最后,對于文字性的答案,很難像AlphaGo那樣以贏為好,以輸為不好的明確規(guī)范,即非好極壞的游戲規(guī)則來界定,而一定需要人類的反饋才能達到較好的效果。因此,為了使ChatGPT的回答能更“像”人類,OpenAI在最初訓(xùn)練它時就加入了人工反饋的強化學(xué)習(xí)(Reinforcement Learning with Artificial Feedback,簡稱RLHF):它通過雇用幾十名員工,來對內(nèi)容進行標記,在人工反饋的強化學(xué)習(xí)和修正中,形成符合人類回答的最終結(jié)果。其實,這也能夠改善預(yù)訓(xùn)練語言模型的缺陷:不可控性以及偏見性。然而,ChatGPT在人工反饋的強化學(xué)習(xí)的運用僅在一方面,還有許多技術(shù)過程是未通過人類標注而成的,由于該模型是在大量數(shù)據(jù)收集后的模型上訓(xùn)練出來的,沒有人能夠保證收集的大量數(shù)據(jù)中是否會存在不當內(nèi)容,因此,其就像一個黑盒子,與完全由人工規(guī)則來控制的專家系統(tǒng)不同,無人知曉所生成的內(nèi)容是否會有種族歧視等。
ChatGPT屬于表達型機器學(xué)習(xí)(Expressive Machine Learning)模型,它產(chǎn)出的內(nèi)容會威脅到原著作權(quán)人。機器學(xué)習(xí)分為非表達型機器學(xué)習(xí)與表達型機器學(xué)習(xí),非表達型機器學(xué)習(xí)的生成物不是在著作權(quán)法意義上的作品,在此不做討論,表達型機器學(xué)習(xí)指的是使用一種靈活的模型來對數(shù)據(jù)進行建模和預(yù)測的機器學(xué)習(xí)方法。與傳統(tǒng)的機器學(xué)習(xí)方法相比,表達型機器學(xué)習(xí)方法通??梢愿玫靥幚矸蔷€性、高維和結(jié)構(gòu)化數(shù)據(jù),并具有更高的預(yù)測精度。但是,表達型機器學(xué)習(xí)模型通常需要更多的數(shù)據(jù)和計算資源來訓(xùn)練和優(yōu)化,且模型的解釋性較差,難以理解模型的預(yù)測過程和結(jié)果。因此,其需要海量的他人作品進行訓(xùn)練,并且訓(xùn)練結(jié)果有一定的不可預(yù)測性,這種允許表達型人工智能毫無限制地大量消費作者版權(quán)數(shù)據(jù)的行為,可能會導(dǎo)致作者群體地位的邊緣化[3]。由于ChatGPT收集并使用的底層數(shù)據(jù)都是免費獲取的他人作品,因而在不被授權(quán)的情形下,這種隨意使用并且運用在商業(yè)范疇的行為應(yīng)當構(gòu)成對于原作者知識產(chǎn)權(quán)的侵犯。
二、ChatGPT數(shù)據(jù)收集行為的版權(quán)問題
(一)ChatGPT所收集的數(shù)據(jù)并非全部獲得授權(quán)
作為一個AI模型,ChatGPT所產(chǎn)生的文本是通過收集大量的文本數(shù)據(jù)訓(xùn)練得來的。大量數(shù)據(jù)集能夠使訓(xùn)練效果達到最優(yōu)性,更加接近人類的說話方式。盡管它現(xiàn)在還無法完全模擬人類的情感和心理狀態(tài),也不具備人類腦力和思維能力,但它會盡力通過自然、流暢的對話和語言表達方式來與人交流,也可以運用語言技巧來回答問題,以及模仿人類的言談舉止。
然而,這些投喂給ChatGPT的數(shù)據(jù)并不一定是都經(jīng)過授權(quán)的。其存在著多個分支,截至2023年3月,較流行的分支主要有兩種,二者的主要區(qū)別在于數(shù)據(jù)來源有些許不同:第一個分支的數(shù)據(jù)截至2021年9月的官網(wǎng)原版ChatGPT,其數(shù)據(jù)來源是人工灌輸?shù)墓潭〝?shù)據(jù),因此它的數(shù)據(jù)不僅對于用戶來說具有時效性,還具有人工自行選擇攝取數(shù)據(jù)的特點。第二個屬于更“新”的新一代分支,是ChatGPT與搜索引擎Bing相結(jié)合的New Bing,其不僅包含之前人工灌輸?shù)墓潭〝?shù)據(jù),還能夠獲得Bing搜索引擎的最新互聯(lián)網(wǎng)信息數(shù)據(jù)支持,具有實時性的特點,因此,這可以說是有了一種“主動學(xué)習(xí)”的能力。首先,對于人工自然選擇的固定數(shù)據(jù)而言,它的訓(xùn)練數(shù)據(jù)集包含TB級別的海量互聯(lián)網(wǎng)文本數(shù)據(jù):代碼、詩歌、法律文件、自然對話等都是這些數(shù)據(jù)的一部分,由于OpenAI并未對外公示所使用的數(shù)據(jù)來源,因此相關(guān)訓(xùn)練數(shù)據(jù)庫是否均獲得授權(quán)還存在疑問[4]。其次,雖然搜索引擎本身“抓取”網(wǎng)頁的行為有其合理性,但這并不代表與搜索引擎結(jié)合后的ChatGPT使用搜索引擎數(shù)據(jù)進行訓(xùn)練的行為同樣合理,兩者之間有著本質(zhì)的區(qū)別。搜索引擎的服務(wù)機制是為了提供原始數(shù)據(jù)鏈接,且抓取數(shù)據(jù)行為都被原網(wǎng)站所允許(不允許的會通過反爬蟲協(xié)議予以制止,在未強行爬取情況下不會對原權(quán)利人的權(quán)利造成損害),而ChatGPT是通過自身生成內(nèi)容的形式來提供服務(wù)并且獲得商業(yè)利益的,對于創(chuàng)作結(jié)果未落入公共領(lǐng)域的原作者來說并不知情自己的作品被其使用,也談不上“同意”。當問到ChatGPT它所得到的文本數(shù)據(jù)是否獲得授權(quán)時,其回答也是模棱兩可,其指出底層數(shù)據(jù)的部分出處網(wǎng)站,并提到“這些數(shù)據(jù)的使用是被給予公開授權(quán)的,因為它們在互聯(lián)網(wǎng)上是公開可用的。”但事實上,這兩者并無實質(zhì)因果關(guān)系,在網(wǎng)絡(luò)公開的文本并不代表就可以隨意使用。正如前文所說,搜索引擎抓取數(shù)據(jù)與AI抓取數(shù)據(jù)有著本質(zhì)的不同,即便是出于作者的本意公開自己的作品,也不能代表授予網(wǎng)絡(luò)其他用戶使用權(quán),擅自使用必然侵犯其權(quán)利,因此,像ChatGPT這樣獲取他人作品用以自己的商業(yè)行為并因此攫取大量利益的行為似乎并不合理。
(二)ChatGPT數(shù)據(jù)收集行為未必違反現(xiàn)有版權(quán)法規(guī)定
ChatGPT主要在“輸入”與“輸出”兩個階段可能會涉及到版權(quán)的相關(guān)問題。在“輸入”階段,AI公司實際復(fù)制了該作品,并當作訓(xùn)練數(shù)據(jù)投喂給ChatGPT,該過程由于滿足該侵權(quán)條件,可能侵犯到原作者的復(fù)制權(quán)。所謂復(fù)制權(quán),是指以印刷、錄音、錄像、翻版、數(shù)字化等方式將作品制成一份或者多份的權(quán)利[5]。像ChatGPT這樣的大規(guī)模預(yù)訓(xùn)練模型,需要對互聯(lián)網(wǎng)大量未被授權(quán)便獲取到的文本數(shù)據(jù)進行信息挖掘和內(nèi)容理解,通過“復(fù)制”并輸入的方式“投喂”給它進行訓(xùn)練,由于大量的數(shù)據(jù)未被授權(quán),且訓(xùn)練時不對外公開,過度借鑒原作者不知情且未授權(quán)的數(shù)據(jù),可能會導(dǎo)致侵權(quán)的后果。然而,盡管該行為能夠滿足“接觸+實質(zhì)性相似”要件,但由于該行為屬于在人工智能深度學(xué)習(xí)的“輸入”階段,并非“輸出”階段,并未對某一具體作者造成不合理的利益損失,也未對某一原作產(chǎn)生替代性知識信息而造成直接競爭關(guān)系,因此,其獲取數(shù)據(jù)的“輸入”行為是否真的侵犯原作者的復(fù)制權(quán)、是否違反現(xiàn)行版權(quán)法的其他規(guī)定,這尚未有定論。
那么,在“輸出”階段,ChatGPT的生成物又是否會構(gòu)成侵犯他人的版權(quán)呢?思想與表達二分法與“接觸+實質(zhì)性相似”是判定是否侵犯版權(quán)的重要標準。思想與表達二分法被用來區(qū)分版權(quán)保護客體的界限,使版權(quán)的權(quán)利范圍具有一定的可預(yù)期性,在僅保護表達而不保護思想的版權(quán)法中,ChatGPT對大規(guī)模數(shù)據(jù)“洗稿”而非對某一作品進行“洗稿”的行為很難認定是對原作者的侵權(quán),因為該“洗稿”行為所包含的數(shù)據(jù)量之大以及通過改變原作品的表達規(guī)避掉了版權(quán)法對表達的保護,從而使得人工智能洗稿行為的違法性更加模糊[6]。除了思想表達二分法,還有對“接觸+實質(zhì)性相似”的判斷。其中,判定是否“接觸”的事實行為較易掌握:原作者的作品創(chuàng)作在先。而“實質(zhì)性相似”由于沒有一個確定的公式及標準,因此難以判斷。在美國法院的認定方法中,較多使用的一種方法叫做“抽象-過濾-對比測試法”,其包含了抽象、過濾以及對比三個步驟,首先將作品中思想的部分抽離,其次將兩部作品中相同并且不受版權(quán)法保護即屬于公共領(lǐng)域的部分過濾掉,最終對比兩部作品留下的表達部分,結(jié)合獨創(chuàng)性標準來判斷是否構(gòu)成“實質(zhì)性相似”。結(jié)合ChatGPT,其生成文本中包含了海量他人作品,可以說是成功“洗稿”后的結(jié)果,即便按照三步法抽離后進行對比,也難以真正地將海量作品拼接的結(jié)果認定為侵權(quán)。
(三)ChatGPT數(shù)據(jù)收集行為的合理性存疑
既然基于版權(quán)法現(xiàn)有的規(guī)定,無法將ChatGPT的行為明確規(guī)定為違法,那么本文接下來將結(jié)合法律的應(yīng)然性并且通過對該行為的定性來論證其行為是否應(yīng)當合法,以及在不合法的情況下法律是否應(yīng)將其行為規(guī)定為“合理使用”。
ChatGPT如今肆意收集他人數(shù)據(jù)的行為理應(yīng)不合法:首先論述法律的應(yīng)然性。在社會的初始階段,人們基于“應(yīng)當如何”的認識便產(chǎn)生了法律,因此,“AI公司使用了他人的辛勤勞作的作品并獲得了利益就應(yīng)當付出相應(yīng)的代價”——這種觀念有其合理性與“公意”性,并能體現(xiàn)平等與正義價值。立法原則的倫理根基是理性,理性精神在合理性、“公意”性等方面有所體現(xiàn)。所謂合理性,是指法律應(yīng)當有健全的判斷力,要明智且理智,具體到AI與原作者的關(guān)系,如今的人工智能利用原作者作品而無需付出任何代價的行為就違反了合理性,違反了立法原則的理性精神。同樣地,大量藝術(shù)家對AI公司提起集體訴訟,美國版權(quán)商也集體反對訓(xùn)練類似ChatGPT這類AI的不收費行為[7],而版權(quán)法中卻沒有相關(guān)的規(guī)定能夠滿足版權(quán)商的需求,這就說明了如今的版權(quán)法已經(jīng)難以滿足集體的公共利益即“公意”性,無法合理調(diào)整主體之間的法律關(guān)系,也就無法實現(xiàn)平等原則的權(quán)利義務(wù)一致性的特點,其獲得了大量的利益卻不付出應(yīng)有之代價的行為違反了法律價值中的平等原則,更是破壞了法律價值中的正義標準。其次論證ChatGPT“免費”收集他人數(shù)據(jù)并用作“商業(yè)”行為的不合法性。所謂“著作權(quán)侵權(quán)行為”,是指未經(jīng)著作權(quán)人的同意,又無法律上的根據(jù),擅自對著作權(quán)人的作品進行使用以及其他非法手段行使著作權(quán)的行為[8]。一是ChatGPT行為的性質(zhì)應(yīng)當構(gòu)成“著作權(quán)侵權(quán)行為”。如果AI使用了未經(jīng)授權(quán)的作品,結(jié)合上述著作權(quán)侵權(quán)的概念,不管搜索引擎中的數(shù)據(jù)原本是不是正版,其“使用”的這個行為本身就都會是違法行為。二是對其輸入的大量網(wǎng)絡(luò)作品的本身進行定性。由于在互聯(lián)網(wǎng)中隨處可見大量盜版“作品”,人工智能無法得知其攝入的作品是否為正版,因此可能獲取到大量本身即未授權(quán)且沒有法律根據(jù)的文本,對該違法“作品”進行再次轉(zhuǎn)化。該轉(zhuǎn)化結(jié)果的其中一種可能性是將此行為規(guī)定為合理使用的情形之一,攝入盜版轉(zhuǎn)化后的結(jié)果能夠變成所謂的“正版”,人工智能公司或者使用者能夠獲得版權(quán);另一種可能性是人工智能公司與使用者都無法獲得版權(quán),即變成所謂的“公共作品”。但無論是哪一種可能,對于著作權(quán)人與整個社會而言都會帶來不利影響。這種種矛盾的結(jié)果在如今的版權(quán)法還沒有被清晰地界定下來,需要立法者嚴加考量再做決策。
因此,ChatGPT肆意收集數(shù)據(jù)的行為也不應(yīng)被納入到“合理使用”的范疇之中。一是無論是現(xiàn)行《中華人民共和國著作權(quán)法實施條例》第21條,還是現(xiàn)行《著作權(quán)法》第24條,均明確規(guī)定合理使用“不得不合理地損害著作權(quán)人的合法利益”。由此可見,人工智能編創(chuàng)行為適用著作權(quán)合理使用制度的情況,將限定在“不得不合理地損害著作權(quán)人的合法利益”的范圍內(nèi)。然而,ChatGPT的“洗稿”輸出行為既高效又低成本地對大量原作者的作品進行“改頭換面”后產(chǎn)生替代性知識產(chǎn)品的行為所造成的損害遠大于普通知識產(chǎn)品競爭帶來的競爭損害,對原始素材的知識產(chǎn)品市場帶來巨大沖擊[9]。因此,該行為已經(jīng)對著作權(quán)人的合法利益造成不合理的損害,無法將該行為規(guī)定為“合理使用”行為之一。二是根據(jù)帕累托標準即效益的提高對各方必須都有益,以損害某一方利益來改善他方利益的方式是無效益的。合理使用只有對作者和使用者都有利時才是“合理”,反之會因缺乏“經(jīng)濟合理性”而無效益[9]。然而,在ChatGPT的模式下,除了對于資本家和少量工作者而言有效益,對于作者以及絕大多數(shù)的普遍公眾而言并非有益。假設(shè)人們都是“理性人”,每個決策者作為不同的社會角色都會有自己“理性”的考量:對于資本家而言,由于ChatGPT能夠提升一定的工作量,少數(shù)人就可同時完成原本屬于多個人的工作,那么資本家或許會為了節(jié)省成本而辭退其他人;對于少量被錄用的工作者而言,也會選擇使用AI作為輔助工具,因為這不僅省時省力,還能同時完成多份工作獲得更多報酬。由此看來,最終的結(jié)果可能就會是:資本家少支出了人工成本;使用AI輔助完成工作的人獲得了多倍工資。對于他們雙方而言,或許得到了利益,獲得了“正向”的結(jié)果,但對于整體社會而言,或許也會帶來負面的結(jié)果:失業(yè)人口會增多。因此,對于使用者來說,只有資本家和擁有工作機會的人能夠從中獲利,大多數(shù)因人工智能而失業(yè)的人并不會獲取利益;對于原著作權(quán)人來說,正如上文所述,既沒有獲得相應(yīng)的報酬,還會產(chǎn)生替代作用的競爭效果。因此,若將其吸收大量數(shù)據(jù)學(xué)習(xí)轉(zhuǎn)化新“作品”的行為納入到合理使用,必定會造成絕大多數(shù)創(chuàng)作者不愿再繼續(xù)產(chǎn)出優(yōu)質(zhì)作品,而去依靠人工智能的生成物來實現(xiàn)自己的利益追求的結(jié)果。結(jié)合到上述帕累托標準,這種損害原作者和社會利益來改善資本家和少數(shù)工作者利益的方法必定是非效益的,因為這并未產(chǎn)生對各方都有益的結(jié)果。并且,著作權(quán)的目的是“激勵”作者能夠繼續(xù)產(chǎn)出優(yōu)質(zhì)的作品,而不是“打擊”作者的信心,而ChatGPT創(chuàng)造的底層數(shù)據(jù)庫都是使用的前人所創(chuàng)造出的作品,其本身的創(chuàng)作也僅僅只是基于過去的作品不斷重復(fù)迭代變換形式而已,長此以往,也很難會有創(chuàng)新型的思想與表達。綜上所述,ChatGPT收集他人數(shù)據(jù)的行為不應(yīng)當被規(guī)定為“合理使用”。
(四)禁止/放縱ChatGPT收集數(shù)據(jù)的不利影響
只能在收集的數(shù)據(jù)中無限循環(huán)的機器是無法創(chuàng)造出真正的新東西的,ChatGPT的“偽”創(chuàng)作行為實質(zhì)是“洗稿”行為。因為當前它所使用的各種模型與技術(shù)并沒有打破目前數(shù)據(jù)庫中的數(shù)據(jù),也沒有創(chuàng)造出全新思想的能力。當然,隨著數(shù)據(jù)量大到一定程度,ChatGPT越來越接近人腦的智慧時,或許能夠從量變引起質(zhì)變的方式來達到人類思維的高度,又或者產(chǎn)生了新技術(shù)革命,人類走向新征程時,不僅會達到人腦思維相當?shù)某潭?,甚至可能超越人類。但就目前而言,ChatGPT必須基于一定的規(guī)則才能得以訓(xùn)練,其中人工反饋的強化學(xué)習(xí)也必須由人類來告訴它什么是好,什么是壞,它的回答也無法超出限定范圍的答案。
雖然ChatGPT目前是“偽”創(chuàng)作行為,但隨著其發(fā)展的勢不可擋以及使用人數(shù)的急劇增加,一味地禁止或隨意地放縱ChatGPT收集數(shù)據(jù)都會阻礙社會的發(fā)展。反公地悲劇理論是基于公地悲劇理論而提出的指排他權(quán)數(shù)量的增加和分散化會抑制智力資源利用的效率,致使后續(xù)研發(fā)或者下游創(chuàng)新受到阻礙[10],盡管它輸入他人數(shù)據(jù)并通過“洗稿”的方式產(chǎn)出大量對原作者產(chǎn)生可替代作品的行為并非完全合理,但ChatGPT繼續(xù)收集數(shù)據(jù)生成相應(yīng)的作品是科技發(fā)展的必然,一味地禁止必定會阻礙社會整體的發(fā)展,造成反公地悲劇。想使人工智能得到進步,海量數(shù)據(jù)的輸入是其進行學(xué)習(xí)創(chuàng)作輸出產(chǎn)物的前提,如今ChatGPT等AI已經(jīng)在人類生活中占領(lǐng)一席之地,能夠通過它來寫論文、做法律文書等等一系列內(nèi)容,可以預(yù)見的是,將來它就像人類的一支“筆”,作為一個強大的工具,沒有人會拒絕使用它來提升自己的工作效率,因此,ChatGPT等各類生成式AI的行為無法被禁止。同樣地,要求AI公司必須得到每一位作者的授權(quán)許可也同樣會造成反公地悲劇。如今是一個用戶生成內(nèi)容(User Generated Content)時代,互聯(lián)網(wǎng)上創(chuàng)作出的作品紛繁復(fù)雜,面對如此龐大的數(shù)據(jù)量,依次尋找到作者并得到許可的代價無疑是巨大的,這不符合經(jīng)濟領(lǐng)域中的成本效益原則,若逐一進行授權(quán)使用,勢必會造成市場失靈。然而,隨意地放縱該行為由于會對原作者產(chǎn)生替代作用同樣會對社會造成不利影響。如今ChatGPT的產(chǎn)出速度就已經(jīng)是人類所遠遠無法匹及的,由于機器力太過強大,人們在作品產(chǎn)出速度與工作量方面根本無法與之相比擬,其出書的數(shù)量以及速度足以將人類獨自產(chǎn)出的作品淹沒并進行競爭,作為養(yǎng)料的人類也沒有得到相應(yīng)合理的報酬,這將極大地打擊作者的創(chuàng)作激情,長此以往必定會對人類生活也產(chǎn)生巨大威脅。
三、加強版權(quán)法對ChatGPT收集數(shù)據(jù)行為的規(guī)制
(一)擴展適用法定許可制度
所謂法定許可,是指不經(jīng)過著作權(quán)人的同意,只要對著作權(quán)人給予合理的報酬,即可使用其作品。在今天這樣一個用戶生成內(nèi)容的網(wǎng)絡(luò)時代,人們所產(chǎn)出的作品過于龐雜,作品的數(shù)量之大,逐一許可的成本過于高昂,導(dǎo)致人工智能公司逐一獲得著作權(quán)人的授權(quán)許可是難以實現(xiàn)的。法律當然需要順應(yīng)社會的現(xiàn)實需要而不斷發(fā)展,但同時法律也要保持自身的穩(wěn)定性,不能朝令夕改[11],合理解釋之后適用新技術(shù)帶來的新的行為方式或許是一種比較好的選擇。因此,通過擴大適用法定許可這種無須逐一許可的行為,既能節(jié)省成本,又能提升授權(quán)效率,作者能得到相應(yīng)的激勵,從而產(chǎn)出更加優(yōu)秀的作品,人工智能也能獲得足夠多的數(shù)據(jù)進行訓(xùn)練,提升算法能力。對于各方來說,無疑是公正且效率的,也或許是最為合理的一種方式,因此也能夠符合帕累托標準。
(二)增強網(wǎng)絡(luò)服務(wù)提供者的權(quán)利職能和責任擔當
現(xiàn)在的著作權(quán)授權(quán)模式已悄然從集體管理組織到網(wǎng)絡(luò)服務(wù)提供者的管理而改變。由于集體管理組織難以實時檢測到網(wǎng)絡(luò)中存在的侵權(quán)現(xiàn)象,導(dǎo)致運行效率不高,著作權(quán)人和使用者在實踐中更多通過直接締約這種在域外發(fā)達國家看來更為低效的方式來完成海量授權(quán)。但在數(shù)字技術(shù)的幫助下,授權(quán)許可原本在權(quán)利信息傳遞和合同履行監(jiān)督等方面產(chǎn)生的交易成本被有效控制。因此著作權(quán)人與網(wǎng)絡(luò)服務(wù)提供者之間的直接許可,已成為頗具“中國特色”的數(shù)字化作品交易機制[12],這其實也是公眾的選擇。
現(xiàn)行法律中對于網(wǎng)絡(luò)服務(wù)提供者給予了各種義務(wù)的同時,其實也提供給它們相應(yīng)的權(quán)利。如在《中華人民共和國民法典》第1195條規(guī)定了“通知-必要措施”規(guī)則;《中華人民共和國網(wǎng)絡(luò)安全法》第47條規(guī)定了網(wǎng)絡(luò)服務(wù)提供者應(yīng)當承擔信息的監(jiān)管義務(wù);《中華人民共和國電子商務(wù)法》第38條明確了電子商務(wù)平臺經(jīng)營者負有對平臺內(nèi)經(jīng)營者的資質(zhì)資格進行審核的義務(wù),以及在平臺內(nèi)經(jīng)營者侵害消費者合法權(quán)益時,負有采取必要措施的義務(wù)等[13]。這些規(guī)則在某一程度上給予了網(wǎng)絡(luò)服務(wù)提供者進行社會監(jiān)管與救濟的權(quán)利,鑒于此,由網(wǎng)絡(luò)服務(wù)提供者來監(jiān)管人工智能隨意獲取數(shù)據(jù),侵犯他人著作權(quán)的行為,可謂是高效方便,也是更易被接受的方式之一。
具體操作方面,網(wǎng)絡(luò)服務(wù)提供者應(yīng)當做到:首先,每一位作者在上傳作品時,要設(shè)置一個點擊按鈕選擇是否為原創(chuàng),若是非原創(chuàng)作品,應(yīng)當指明來源的按鈕,寫出轉(zhuǎn)載出處,并將轉(zhuǎn)載出處設(shè)置相應(yīng)的鏈接,可供網(wǎng)絡(luò)服務(wù)提供者高效尋找到原作品;若為原創(chuàng)作品,網(wǎng)絡(luò)服務(wù)提供者應(yīng)當進行記錄。其次,在作品被征用為人工智能的底層數(shù)據(jù)之一時,應(yīng)當先告知該網(wǎng)絡(luò)服務(wù)提供者,網(wǎng)絡(luò)服務(wù)提供者應(yīng)當找到并通知相應(yīng)的作者并給予相應(yīng)的費用,通知的標題應(yīng)當是通過《您的作品可能成為AI的底層數(shù)據(jù),請您確認報酬》。再次,對于以往已經(jīng)發(fā)表的作品,人工智能公司應(yīng)當及時通知網(wǎng)絡(luò)服務(wù)提供者采用的數(shù)據(jù)作為數(shù)據(jù)庫的來源,在精確到具體的作者用戶后,通知用戶及時與網(wǎng)絡(luò)服務(wù)提供者的客服取得聯(lián)系,并得到相應(yīng)的報酬,畢竟,隨著現(xiàn)在互聯(lián)網(wǎng)技術(shù)的提高,想要精確到作者其實并不難。最后,對于生成物的展示,人工智能公司必須將該生成物所引用的相應(yīng)的作品列出。
對于以上的授權(quán),沒有其他機關(guān)進行監(jiān)管,是很容易形成壟斷行為的,因此,法律必須要予以規(guī)制,政府也要實行監(jiān)管制度。一是由于在如今,用戶注冊時或與平臺簽訂的服務(wù)協(xié)議時,網(wǎng)絡(luò)服務(wù)提供者提供的格式條款存在著很多名義上以平等自由為基礎(chǔ),實則充斥著大量約束用戶行為與免除網(wǎng)絡(luò)服務(wù)提供者責任的內(nèi)容,因此對于格式條款的訂立以及實施,政府應(yīng)當起到監(jiān)督作用并制定一系列條款規(guī)則,強行要求網(wǎng)絡(luò)服務(wù)提供平臺予以采納。二是對于人工智能給予每一位作者的報酬,應(yīng)當由政府規(guī)定好具體數(shù)目,每個平臺都應(yīng)當采取一致的規(guī)則,否則將會產(chǎn)生市場亂象。三是對于網(wǎng)絡(luò)背景下的著作權(quán)侵權(quán)行為,應(yīng)當有具體侵權(quán)責任的規(guī)定,否則,若沒有相應(yīng)侵權(quán)成本的責任規(guī)定,難以產(chǎn)生有力的效果,只有在侵權(quán)成本夠高,授權(quán)成本夠低的情況下,移動互聯(lián)網(wǎng)環(huán)境下的規(guī)范著作權(quán)市場才能真正形成,新興商業(yè)模式方可發(fā)展。
四、結(jié)語
新興的ChatGPT技術(shù),在給人類帶來便利的同時,也產(chǎn)生了許多法律漏洞,因此,其各種行為需要進行界定來規(guī)制。本文詳述了ChatGPT這樣的新型AI特點,以及它們需要大量收集底層數(shù)據(jù)才能更加精確地產(chǎn)出相應(yīng)的結(jié)果,特別是在與搜索引擎Bing結(jié)合后,底層數(shù)據(jù)數(shù)量之龐大使人難以預(yù)料,若一味地禁止這種行為,必定會對于社會產(chǎn)生不利的影響,造成反公地悲劇,相反,一味地放縱這種免費收集數(shù)據(jù)轉(zhuǎn)而進行商業(yè)運作的行為,不僅會對作者產(chǎn)生不利影響,對整個社會也必定會產(chǎn)生不利的后果。由于我國著作權(quán)法對新技術(shù)未作出相應(yīng)的規(guī)定,導(dǎo)致該行為是否違反法律存在疑問,但將人工智能無償收取他人作品而用作商業(yè)的行為引入到合理使用也缺乏合理性條件,因此應(yīng)當通過法律解釋學(xué)來擴大采取法定許可制度,給予作者相應(yīng)的利益,完善其存在的合理性。由于現(xiàn)在是每個人都可以在互聯(lián)網(wǎng)平臺上生成內(nèi)容的時代,網(wǎng)絡(luò)服務(wù)提供者已然在網(wǎng)絡(luò)環(huán)境中產(chǎn)生不可替代的作用,因此,網(wǎng)絡(luò)服務(wù)提供者應(yīng)當擔任起人工智能公司與著作權(quán)人之間橋梁作用的重任,但在授予它權(quán)利的同時也必須通過政府來規(guī)制這一擴大的權(quán)利,否則會產(chǎn)生權(quán)利濫用的效果。
美國學(xué)者邁克斯·泰格馬克曾說過:“如果我們在交給強大的智能機器基本倫理標準之前,在某些標準上達成了共識,那一切就會變得更好。”[14]在2023年4月11日,國家互聯(lián)網(wǎng)信息辦公室關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見的通知[15],其中也涉及到對生成式人工智能的知識產(chǎn)權(quán)監(jiān)管問題,可以看出我國也一直在努力跟上科技的洪流,渴望達成相應(yīng)共識。總之,新一代人工智能已產(chǎn)生,人類要采取積極的措施面對,一定要在人工智能“之上”,而不能在其“之下”。
參考文獻:
[1] 王婷,楊文忠.文本情感分析方法研究綜述[J].計算機工程與應(yīng)用,2021,57(12):11-24.
[2] 王海寧.自然語言處理技術(shù)發(fā)展[J].中興通訊技術(shù),2022,28(2):59-64.
[3] 盧炳宏.表達型人工智能版權(quán)合理使用制度研究[J].現(xiàn)代出版,2019(4):60-63.
[4 ] 李昀鍇. ChatGPT內(nèi)容商業(yè)使用的法律風險及應(yīng)對 [EB/OL].[2023-02-14].https://ahlx.pkulaw.com/lawfirmarticles/ddb7d880bf7
eb96630a1222c17163b0bbdfb.html.
[5] 吳漢東.知識產(chǎn)權(quán)法[M].北京:法律出版社,2022:203
[6] 張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J/OL].法律科學(xué)(西北政法大學(xué)學(xué)報),2023(3):38-51.
[7] 新智元. OpenAI因版權(quán)被多方狀告,作家集體起訴,抗議ChatGPT訓(xùn)練侵權(quán) [EB/OL].[2023-07-10].https://baijiahao.baidu.com/s?id=1771016178720767281&wfr=spider&for=pc.
[8] 吳漢東.知識產(chǎn)權(quán)法[M].北京:法律出版社,2022:275.
[9] EDWARD L.Technological Fair Use[J].Cal. L. Rev,2010(83):22,61
[10] 劉強.人工智能對知識產(chǎn)權(quán)制度的理論挑戰(zhàn)及回應(yīng)[J].法學(xué)論壇,2019,34(6):95-106.
[11] 王遷.如何研究新技術(shù)對法律制度提出的問題?——以研究人工智能對知識產(chǎn)權(quán)制度的影響為例[J].東方法學(xué),2019(5):20-27.
[12] 熊琦.移動互聯(lián)網(wǎng)時代的著作權(quán)問題[J].法治研究,2020(1):57-64.
[13] 鐘曉雯.算法推薦網(wǎng)絡(luò)服務(wù)提供者的權(quán)力異化及法律規(guī)制[J].中國海商法研究,2022,33(4):63-72.
[14] [美]邁克斯·泰格馬克.生命3.0——人工智能時代人類的進化與重生[M].汪婕舒,譯.杭州:浙江教育出版社,2018:444.
[15] 中國網(wǎng)信網(wǎng).國家互聯(lián)網(wǎng)信息辦公室關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見的通知 [EB/OL].[2023-04-11].http://www.cac.gov.cn/2023-04/11/c_16828542754
75410.htm.
作者簡介:謝欣瑜(2000- ),女,山東科技大學(xué)文法學(xué)院碩士研究生,研究方向為知識產(chǎn)權(quán)法。