亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        論AIGC作品獨創(chuàng)性司法認定標準的構建

        2025-03-11 00:00:00何煉紅謝天藝
        中國版權 2025年1期

        摘要:大模型時代,AIGC作品的獨創(chuàng)性認定標準是版權司法實踐中的一個核心問題,當前各國就AIGC作品獨創(chuàng)性標準尚未達成共識。鑒于AIGC具有數據驅動特征,創(chuàng)作過程中數智技術客觀化程度增強,形成統(tǒng)一獨創(chuàng)性司法認定標準具有可行性。以獨創(chuàng)性主觀標準為基礎,以人類干預原則為前提,構建AIGC人類干預司法判斷模型,可回應獨創(chuàng)性主觀標準中人格因素的客觀化與門檻問題,為AIGC獨創(chuàng)性判斷提供程式化、客觀化指引。提示詞在AIGC創(chuàng)作中發(fā)揮引導創(chuàng)作方向、決定內容質量、影響生成內容獨創(chuàng)性的核心作用。運用司法判斷模型應考量包括提示詞在內的諸多要素,它們共同構成AIGC作品獨創(chuàng)性的判斷基礎。

        關鍵詞:AIGC作品;獨創(chuàng)性標準;人類干預;提示詞;司法判斷模型

        一、問題的提出

        人工智能技術經歷了從小數據到大數據、從小模型到大模型、從專用到通用的發(fā)展歷程。自2020年GPT-3與AlphaFold2發(fā)布以來,計算結構復雜、參數規(guī)模龐大的機器學習模型不斷涌現,人工智能技術已步入預訓練、多模態(tài)的大模型時代,新一輪大模型發(fā)展熱潮已然到來。隨著以ChatGPT為代表的新一代語言大模型問世,利用AI輸入相應指令生成的文字、圖片等內容的版權問題一直備受關注。作為《著作權法》中的一個核心問題,作品獨創(chuàng)性標準始終是圍繞人工智能生成內容(Artificial Intelligence Generated Content,以下簡稱AIGC)可版權性爭議的焦點。

        目前,各國司法實踐就AIGC作品的獨創(chuàng)性標準尚未達成共識。美國傾向于采用人類作者“充分控制”標準;{1}歐盟以體現作者“創(chuàng)造性選擇”為判定核心;{2}英國則沿用傳統(tǒng)“勞動、技能與判斷”標準,認為缺乏人類作者干預的人工智能生成內容亦具有可版權性;{3}我國法院在“AI文生圖第一案”中提出了體現自然人“智力投入與個性表達”的獨創(chuàng)性標準。{4}可見,AIGC作品獨創(chuàng)性司法判斷缺乏統(tǒng)一標準和審查邏輯,一方面難以確保類案同判,影響司法公平正義的實現;另一方面,不同國家和地區(qū)的司法判斷存在較大差異,不利于AIGC作品版權保護的國際協(xié)調,甚至將引發(fā)國際貿易摩擦。大模型時代,AIGC的版權問題關乎人工智能產業(yè)健康發(fā)展,而由來已久且愈演愈烈的獨創(chuàng)性標準之爭已成為一個亟待正視并作出回應的核心議題。當前有必要形成AIGC作品獨創(chuàng)性司法認定標準共識,為AIGC版權保護的司法適用提供清晰指引,以期更好地推動人工智能產業(yè)有序競爭和創(chuàng)新發(fā)展。

        二、AIGC作品獨創(chuàng)性司法認定標準構建的可行性分析

        在探討構建AIGC作品獨創(chuàng)性司法認定標準時,我們不得不正視各國基于不同的版權理論基礎所形成的獨創(chuàng)性標準的差異。這些差異植根于各國對版權法理論的獨特理解與歷史發(fā)展軌跡,使得在傳統(tǒng)作品領域實現獨創(chuàng)性司法認定標準的統(tǒng)一尤為困難。然而,隨著人工智能技術的進步和應用,人類創(chuàng)作范式發(fā)生了深刻變化,我們或許能夠找到一條突破傳統(tǒng)束縛、實現司法認定標準統(tǒng)一的新路徑。

        (一)邏輯起點:AIGC具備數據驅動特征

        AIGC的核心要素是數據,以數據驅動為特征,決定了其可量化、可分析的數字特性。傳統(tǒng)的獨創(chuàng)性標準之爭圍繞文字作品、美術作品及計算機軟件等法定客體展開。這些作品主要源自人類直接勞動,因不同國家和地區(qū)勞動財產等理論存在差異,對獨創(chuàng)性的判斷天然具有分歧。例如,黑格爾在其人格理論中將財產權與人之本質相關聯,為作者中心主義體系的形成奠定了基礎。{5}受結構主義哲學思潮的影響,作品中心主義側重于保護作者財產性權利,從作品本身客觀特征出發(fā)來界定。{6}兩種思潮逐漸發(fā)展為獨創(chuàng)性主觀標準與客觀標準的理論基礎,也成為獨創(chuàng)性標準主客觀之爭的重要根源。

        作為具有獨特生產方式的一類新興事物,AIGC不再源于人類直接參與,而是在人類輸入一定提示詞、參數、符號后,由大模型、算法、生成規(guī)則等要素共同組成的人工智能系統(tǒng)生成。在文本、圖像及音頻生成等領域,大模型皆以數據作為輸入和訓練的基礎,這為構建統(tǒng)一的司法認定標準提供了前提。AIGC以數據為驅動,又以數據為載體,這些數據一方面具有可量化的特征,為相關數據規(guī)?;占峁┝吮憷?;另一方面具有可分析特征,有利于對相關數據進行標簽化分類,并可通過數學計算,為發(fā)掘數據之間的關聯和規(guī)律乃至最終作出決策提供支持。盡管當前不同國家與地區(qū)之間對人工智能大模型的開發(fā)程度存在差異,但上述數據驅動特征為司法實踐中界定AIGC的作品獨創(chuàng)性提供了客觀化的前提。

        (二)創(chuàng)作過程:數智技術客觀化程度不斷增強

        數智技術即“數字化+智能化”,是在數字化基礎上融合智能技術的過程。當前人工智能創(chuàng)作數智技術客觀化程度越來越高,表現出創(chuàng)作角色轉變、創(chuàng)作流程標準化與生成內容可量化等特點。創(chuàng)作角色轉變即在人工智能參與創(chuàng)作的過程中,人工智能的算法、模型和數據等客觀因素的作用日益增強,而人類直接參與創(chuàng)作的顯性行為(如構思、寫作、繪畫等)則逐漸減少。這種角色轉變體現在創(chuàng)作過程中的各個環(huán)節(jié)。從初步構思到最終成果的生成,人類創(chuàng)作者的角色逐漸從直接創(chuàng)作者轉變?yōu)橹笇д?、監(jiān)督者或編輯者,人工智能的“無形之手”則越來越深地介入其中。創(chuàng)作流程標準化表現為人工智能的設計原理、算法邏輯和數據處理方式的標準存在統(tǒng)一性。例如,通過定義一致的輸入輸出格式,設置相同的算法參數,可推動創(chuàng)作流程化運行,使最終生成內容具有一致性。生成內容可量化以AIGC所具備的數據特征為前提。AIGC的創(chuàng)作過程、數據輸入、算法選擇、輸出結果等多個環(huán)節(jié)無不涉及數據挖掘、處理和分析,一方面可以通過技術手段對AIGC的最初形式、變化過程進行記錄和追蹤,分析其產出的邏輯和變化規(guī)律;另一方面對最終生成內容也可以進行橫向比較,發(fā)現不同生成內容在獨創(chuàng)性方面的差異,從而推動獨創(chuàng)性標準的細化與完善。例如,可通過計算生成內容與已有作品的差異度、生成內容中新穎元素的占比等指標來評估其獨創(chuàng)性,這種量化評估方法客觀、準確,具有可操作性,為司法實踐中認定作品獨創(chuàng)性提供了一定科學思路。

        (三)實踐認同:各國獨創(chuàng)性標準存在公約數

        盡管在各國司法實踐中,對于AIGC作品獨創(chuàng)性的判斷標準存在著顯著差異,但深入考察各國法律規(guī)范及其司法案例時,不難發(fā)現各國在AIGC的可版權性態(tài)度上存在共識。這些法律實踐層面的“公約數”為構建獨創(chuàng)性司法認定標準提供了可能性和空間。

        第一,人類作者的獨創(chuàng)性貢獻獲得普遍認同。在“天堂的最近入口”版權注冊案中,美國版權局認為進行版權登記的作品必須具備人類作者的獨創(chuàng)性貢獻,{7}并在2023年的《版權登記指南》中將人類作者的貢獻細化為“創(chuàng)造性控制”。{8}歐盟在《數據庫法律保護指令》中規(guī)定作者智力上的獨創(chuàng)性是確定數據庫能否適用版權保護的唯一標準,{9}并將人類作者的獨創(chuàng)性要求延續(xù)到了其他作品的司法裁判中。{10}德國在其《著作權法》開篇中規(guī)定“本法所稱作品僅指個人的智力創(chuàng)作”,{11}著名學者雷炳德也指出,在德國《著作權法》中作品創(chuàng)作要求比一般的智力勞動多一點獨創(chuàng)性的內容,{12}既強調人類作者的干預因素,也要求作品具備足夠的智力創(chuàng)造內容。對于英國而言,盡管其沿用1988年《版權、外觀設計和專利法》中對計算機生成作品的相關規(guī)定,認為缺乏人類作者干預、由人工智能生成的作品也可以獲得版權保護,{13}但這一觀點在其國內實踐中仍面臨諸多爭議,尚未形成共識。

        第二,AIGC獨創(chuàng)性主觀標準受到廣泛認可?!蔼殑?chuàng)性主觀標準說”指的是界定獨創(chuàng)性主要考慮創(chuàng)作過程中是否體現了作者人格因素的學說,{14}作品基于作者具有獨特風格和特色的獨立創(chuàng)作產生,被打上了主體的烙印。{15}以作品為中心,只從客觀創(chuàng)作結果出發(fā)來判斷創(chuàng)作結果是否具有獨創(chuàng)性的學說稱為“獨創(chuàng)性客觀標準說”,即從形式上判斷其是否與現有的作品表達不一致,并是否能夠解讀出具有“最低限度的創(chuàng)造性”。{16}目前,除英國堅持客觀標準之外,大多數國家都強調以作者人格因素與人類干預來界定AIGC的作品資格。國際保護知識產權協(xié)會(International Association for the Protection of Intellectual Property,以下簡稱AIPPI)于2019年通過了一項AIPPI決議,決議第3條將獨創(chuàng)性主觀性標準以條文的形式明確表述,AI生成內容所具備的獨創(chuàng)性產生于生成內容形成過程中的人類干預,該獨創(chuàng)性應是受版權保護的條件之一。{17}這表明獨創(chuàng)性主觀性標準不僅在眾多地域廣泛適用,而且順應全球發(fā)展趨勢,正日益凝聚成為國際社會的一項共識。

        第三,強調人類作者獨創(chuàng)性貢獻、堅持獨創(chuàng)性主觀標準是我國司法實踐的發(fā)展趨勢。從2018年“菲林訴百度案”中“分析報告并未傳遞軟件研發(fā)者或用戶的思想、感情的獨創(chuàng)性表達”{18},到2019年“騰訊訴盈訊案”中“文章的特定表現形式及其源于創(chuàng)作者個性化的選擇與安排,構成法人作品”{19},再到2023年“AI文生圖第一案”中“生成圖片體現了作者獨創(chuàng)性智力投入與個性化表達,應被認定為作品”{20},我國法院對AIGC的可版權性問題進行了持續(xù)探索,始終從人類作者的獨創(chuàng)性貢獻角度出發(fā),依據人類作者智力創(chuàng)造的具體程度來認定AIGC是否滿足獨創(chuàng)性要件,堅持以作者人格因素為核心的獨創(chuàng)性主觀判斷標準。

        可以說,在數據驅動特征的邏輯起點下,基于AIGC創(chuàng)作過程中創(chuàng)作角色轉變、創(chuàng)作流程標準化、生成內容可量化的特征,結合司法實踐中獨創(chuàng)性判斷強調人類因素的共識,從人工智能系統(tǒng)本身特性出發(fā),構建AIGC作品獨創(chuàng)性司法認定標準具有可行性。

        三、AIGC作品獨創(chuàng)性司法認定標準構建的基本前提

        在探討構建AIGC作品獨創(chuàng)性司法認定標準時,基本前提是堅持“人類干預原則”。這一原則以獨創(chuàng)性主觀標準為基礎,以分析人類作者智力投入和創(chuàng)造性干預的具體程度為內容,貫穿于AIGC創(chuàng)作的全過程。它強調AIGC背后人類作者的不可或缺性,即便是通過算法和模型,人類的思想創(chuàng)意與指導仍然是推動創(chuàng)作進程的關鍵。人類干預原則有助于在版權保護框架下,圍繞人類作者的獨創(chuàng)性貢獻這一要素構建統(tǒng)一的司法認定標準。

        (一)人類干預原則的內涵

        “干預”的本義為參預、過問別人的事。{21}在心理學上指有計劃地對特定對象的心理活動、個性特征施加影響,使之發(fā)生向預期目標的變化。{22}在醫(yī)學上,干預研究指通過觀察改變環(huán)境條件、消除某種因子發(fā)生的影響,進行的具有前瞻性的實驗研究。{23}在AIGC創(chuàng)作過程中,人類干預指的是人類在AIGC的產出過程中實質性介入,并實施了非輔助的、體現一定智力投入的行為。{24}就AIGC領域而言,人類干預原則是指在AI數據挖掘訓練、系統(tǒng)運行及內容生成等環(huán)節(jié),需系統(tǒng)考量人類因素實質性介入具體程度的一項準則。人類干預原則強調在人工智能創(chuàng)作的過程中,人類的智慧和創(chuàng)造力仍然是不可或缺的要素,是確保生成內容具有獨創(chuàng)性的關鍵。人類可以通過選擇介入干預的時間與程度,對AIGC的最終形態(tài)產生決定性影響。在作品獨創(chuàng)性判斷中堅持人類干預原則,就是在評估AIGC是否具備獨創(chuàng)性、能否被認定為作品時,必須強調并考察人類在整個創(chuàng)作過程中的實質性參與和智力投入。

        (二)AIGC創(chuàng)作過程中人類干預的特點

        第一,AIGC創(chuàng)作過程中人類干預具有主觀性。在AIGC的產出過程中,人類可以主觀選擇介入干預的時間節(jié)點與程度等因素,這些介入因素受人類主觀意志的影響,不會因數智技術的客觀化特征而受到異化?!爱惢敝傅氖侨祟悷o法控制塑造日常生活的結構、關系與系統(tǒng)。{25}英國著名批判傳播學者克里斯蒂安·福克斯在其數字勞動理論體系中提出了一個鮮明的論點:揭示客觀數字異化并不會自發(fā)導致主觀數字異化。{26}例如,將數字技術作為牟利的工具,通過控制產品的使用壽命實現周期性換代以獲取穩(wěn)定利潤,體現了人的主觀意識并未脫離自身控制,而是以一種非道德的方式施加干預。從AIGC的創(chuàng)作視角來看,技術的客觀化特征表現為創(chuàng)作脫離人的直接力量,但人類干預的主觀性可以制約這一客觀數字異化趨勢。

        第二,AIGC創(chuàng)作過程中人類干預具有不確定性。人類可在AIGC創(chuàng)作前、創(chuàng)作中以及創(chuàng)作后等任意時間節(jié)點進行人類干預,既可以進行充分干預,也可以進行較少干預,這種選擇不僅體現在對創(chuàng)作過程的管理和調控上,還體現在對生成內容的把控上。人類可以根據自身的需求和喜好,調整人工智能的創(chuàng)作方向,使其生成的作品更符合人類的審美和價值觀。但人類干預的邊界比較模糊,干預程度本身難以通過具體指標實現量化。不同的AIGC涉及的人類干預程度不同,難以通過客觀標準加以類型化。當前司法實踐中的AIGC獨創(chuàng)性判斷難以形成統(tǒng)一標準,很大程度源于人類干預本身的不確定性。

        第三,AIGC創(chuàng)作過程中人類干預具有非直觀性。針對傳統(tǒng)的作品創(chuàng)作,觀眾可以看到作者是如何參與并發(fā)揮作用的,比如畫家用畫筆一步步勾勒出最終的線條、攝影師調整角度與光線拍攝照片、軟件開發(fā)人員編寫代碼形成最后的計算機程序,等等。但在人工智能時代,作者輸入一定參數與符號,生成式AI隨后產出相應內容,這一過程具有“黑箱”特性,算法本身并不透明。拿出一幅AI生成圖片置于眼前,大眾可能無法得知人類是如何發(fā)揮作用的,人類干預在AIGC創(chuàng)作過程中的作用變得難以直觀感知。然而,這并不意味著人類干預不存在或不重要。相反,正是通過這種無形干預,人類才能在不改變人工智能創(chuàng)作機制的前提下,對其生成的作品進行引導和優(yōu)化?;诖?,對人類干預在各個創(chuàng)作環(huán)節(jié)進行分類討論與細化,制定出一套符合司法實踐需要的認定標準顯得尤為重要。

        (三)人類干預原則的邏輯基礎

        獨創(chuàng)性主觀判斷標準是人類干預原則的邏輯基礎。獨創(chuàng)性主觀標準側重于從創(chuàng)作主體的角度出發(fā),重點關注作品是否體現了作者的個性、意圖和創(chuàng)造性努力等人格因素。這一標準以作者為中心,強調作品不僅是客觀存在的表達形式,也是作者主觀情感和思想的體現。本文認為在判斷AIGC獨創(chuàng)性時,應采取獨創(chuàng)性主觀標準,以人類創(chuàng)作者在創(chuàng)作過程中的實際干預程度為依據,這是人類干預原則的邏輯起點。

        第一,獨創(chuàng)性主觀標準存在深厚的理論基礎。黑格爾在其人格財產權理論中認為,人格是自由意志的第一個環(huán)節(jié),具有權利能力。因此,人格可通過權利占有自己視域下的物,即黑格爾所謂“人于物內體現自由意志,此即所有權?!眥27}此外,洛克在《政府論》中提出的勞動財產權理論認為財產產生的依據是勞動,“誰使任何東西從大自然所提供的狀態(tài)中脫離,誰就摻雜了自己的勞動,在勞動中加入了自己的東西,從而使其成為自己的財產?!眥28}在AIGC的創(chuàng)作過程中,人類將自己的獨特人格意志體現到最終創(chuàng)作的成果之中,此過程人類付出了特定勞動,將自己的智力成果或思想摻雜在最終的生成內容中,最終基于此要求主張相應權利。不論是“體現人格意志”或“人類勞動”,二者都以人為中心,這正是創(chuàng)作過程蘊含人格因素即獨創(chuàng)性主觀標準說的理論根基。

        第二,獨創(chuàng)性主觀標準具有廣泛的實踐基礎。美國版權局在《美國版權局實務指南》中規(guī)定“僅為機器生成”而沒有人類干預的作品將不予登記,并以獼猴自拍案為示例,否定了非人類主體作為作品作者的資格,{29}其發(fā)布的《版權登記指南》規(guī)定版權登記人有義務說明人類作者對AIGC作品的貢獻;{30}德國《著作權法》開篇規(guī)定本法所稱作品僅指個人的智力創(chuàng)作;{31}歐盟法院在司法判例中明確作品應源于作者自身智力創(chuàng)作。{32}這些法律實踐體現出獨創(chuàng)性主觀判斷標準在理論制度層面存在充分的法律認同,在司法實踐、版權登記審查方面具備廣泛的應用實踐。2019年通過的AIPPI決議也意味著這一標準符合世界發(fā)展潮流,逐漸成為國際共識。

        第三,堅持人類干預原則是獨創(chuàng)性主觀標準的直接應用。獨創(chuàng)性主觀標準強調作品應體現作者的個性、意圖和創(chuàng)造性努力等人格因素。在AIGC創(chuàng)作場景中,這些人格因素的實現離不開人類在創(chuàng)作過程中的實際干預。人類干預有利于使作品融入人類思考、判斷和創(chuàng)造,而不僅僅是機器或技術的產物。這種干預體現在人工智能模型的訓練、對生成內容的篩選和修改等方面。人類通過選擇介入干預的時間與程度,對AIGC的最終形態(tài)產生決定性影響,這正是獨創(chuàng)性主觀標準所強調的“作者中心”和“人格因素”的體現,與人類干預原則中強調人類創(chuàng)作者在創(chuàng)作過程中的主導地位和創(chuàng)造性貢獻相呼應。

        (四)人類干預原則的意義

        堅持人類干預原則是化解倫理風險、阻止科技之“惡”的必要前提。人工智能大模型的廣泛應用可能帶來多種倫理風險,包括算法層面的虛假性、不確定性、技術偏見,{33}數據層面的隱私侵權、數據安全以及社會層面的漠視人類道德秩序、政治腐化等風險。{34}在人工智能的設計、開發(fā)和部署階段通過人類干預與積極介入,有利于減少技術被用于不正當目的的行為,推動AIGC符合社會道德、倫理和法律規(guī)范。對人類干預的程度和效果進行定期評估,并以技術手段(如算法透明度提升、數據隱私保護等)增強干預的有效性和安全性,有助于減少技術濫用導致的價值倫理危機,保障倫理安全。具體到AIGC獨創(chuàng)性判斷層面,通過設立一定標準考量人類實質介入的具體程度,明確人類干預因素在認定作品構成中的作用,比如人類是否提供了關鍵性的創(chuàng)意、指導或修改建議,在構思、設計與修改等方面是否投入充分的智力勞動等,通過緊緊把握作者這一核心,維護人類的主體地位。

        堅持人類干預原則是引領科技向善,服務人類福祉的必要途徑??萍枷蛏凭哂幸匀藶楸镜膬群?,人是唯一目的?!跋颉币庵赋硞€方向達到某種程度,而“善”在哲學上可定義為“具體事物完好圓滿,有利于社會和絕大多數人生存發(fā)展的特殊性質和能力?!眥35}科技向善的哲學本質即科技朝人類生活更美好方向發(fā)展,人是科技向善的目的。2022年,我國《關于加強科技倫理治理的意見》明確指出要“不斷推動科技向善、造福人類,實現高水平科技自立自強?!眥36}2023年11月,首屆全球AI安全峰會達成了首份國際性AI聲明《布萊切利宣言》,發(fā)出了加強技術風險防控,堅持以人為本,推動智能向善的倡議。{37}堅持人類干預原則,不僅符合我國加強科技倫理治理的政策導向,也與我國政府和國際社會推動科技向善的潮流相契合,助力推動科技應用服務于人類福祉?!跋蛏啤辈粌H是人類干預原則的核心價值之一,更是推動科技與人文和諧共生的關鍵所在。堅持人類干預原則,意味著在科技發(fā)展的每一個環(huán)節(jié)都應秉持著提升人類福祉、促進社會進步的初衷,確??萍紤媚軌蛘嬲杖祟?,實現科技與人文的深度融合與共同發(fā)展。

        四、AIGC作品獨創(chuàng)性司法認定標準構建路徑

        如上所述,堅持人類干預原則對維護作者主體地位以及推動AIGC符合道德倫理規(guī)范具有重要意義。但因AIGC創(chuàng)作過程中人類干預具有主觀性、不確定性、非直觀性的特點,司法實踐中進行實際的AIGC獨創(chuàng)性判斷往往存在較大困難。在獨創(chuàng)性主觀標準下,這一困難表現為如何將標準客觀化、清晰化、范式化。一方面,創(chuàng)作過程中具體體現哪些人格因素,此“人格因素”是否可以列舉或定義等方式加以釋明?此為人格因素客觀化問題。另一方面,如果認為AIGC創(chuàng)作中涉及人格因素不只一種,創(chuàng)作體現了a人格因素卻未體現出b因素,人格因素究竟達到何種程度可繼續(xù)適用獨創(chuàng)性主觀標準?此為人格因素門檻問題。

        (一)人類干預司法判斷模型:人格因素客觀化與門檻問題之解答

        筆者曾提出構建AIGC人類干預司法判斷模型,作為上述問題的解答路徑。{38}通過將AIGC常規(guī)生成流程劃分為“系統(tǒng)創(chuàng)建”“數據選擇”“生成內容制造”三個環(huán)節(jié),以解答人格因素客觀化問題。通過將“特定目標由人類選擇(1a)”“輸入的數據由人類選擇或分類(2a)”“人類發(fā)出指令或直接修改得到最終生成內容(3c)”三種情形,作為判斷三個環(huán)節(jié)分別具有人類干預的依據,并對不同情況排列組合,以解答人格因素門檻化問題。AIGC創(chuàng)作涉及環(huán)節(jié)和相應的人類干預情形以流程圖的形式可歸納如下。{39}

        認定AIGC可以通過獨創(chuàng)性主觀標準“考驗”的具體條件是:在系統(tǒng)創(chuàng)建環(huán)節(jié),人工智能系統(tǒng)實現的特定目標須由人類選擇;在數據選擇環(huán)節(jié),輸入至人工智能系統(tǒng)的數據由人類選擇或分類(確定篩選標準),此時要求構成“關鍵數據處理”。{40}或者,在生成內容制造環(huán)節(jié),人類發(fā)出指令修改生成內容或人類自行對生成內容修改,上述情形可概括為“1a+2a”或者“1a+3c”。為便于讀者直觀理解,所有可能情形和對應結論置于下表。

        通過AIGC人類干預司法判斷模型將人類主觀介入時間與程度等因素類型化呈現,可為獨創(chuàng)性主觀標準提供一條模式化、流程化的技術判斷路徑,為司法裁判中判定AIGC是否具有獨創(chuàng)性提供更明確的指引。當前,鑒于AIGC具有的獨特創(chuàng)作特點,有必要對環(huán)節(jié)三中的“3c”情形即“人類發(fā)出指令修改以得到最終生成內容”進一步解釋,以期在司法實踐中更好應用此模型并作出獨創(chuàng)性判斷。

        (二)提示詞:AIGC的創(chuàng)作核心

        提示詞指的是對大型語言模型發(fā)出的指令,也是一種編程形式,允許用戶自定義大型語言模型的輸出內容和交互方式。它是人與大型語言模型交流的中介,是依據數據庫進行計算、匹配以及協(xié)調的關鍵要素,{41}其目的在于引導模型生成特定的內容。有學者甚至將提示詞稱之為“咒語”,就在于提示詞輸入以一種驚奇的效果實現了AIGC的產出。{42}在AIGC的創(chuàng)作過程中,提示詞的核心作用體現在以下三方面。

        第一,引導創(chuàng)作方向。通過輸入特定的提示詞,用戶可明確告知模型所希望生成的內容類型、風格或主題,從而引導模型朝既定方向進行創(chuàng)作。在文本生成中,用戶可以使用描述性、情感性或指令性的提示詞來引導模型生成特定風格的文本,如嚴肅、幽默、抒情等。在圖像生成中,用戶可以通過輸入色彩、形狀、構圖等提示詞來影響生成圖像的風格和主題。在上述方向的初步引導后,用戶還可利用提示詞進一步細化創(chuàng)作方向。

        第二,決定內容質量。提示詞的準確性和豐富性直接影響到生成內容的質量和獨特性。精心構思的提示詞能夠激發(fā)模型的創(chuàng)造力,生成更加生動、有趣且富有深度的內容。而單一、籠統(tǒng)且缺乏細節(jié)的提示詞引導創(chuàng)作的內容則可能顯得平淡無奇,缺乏吸引力和獨特性。用戶輸入的提示詞不僅包含了用戶對于創(chuàng)作內容的主題、風格、情感等基本要求,還可能涉及畫面的細節(jié)、色彩、構圖等高級要求。通過精準地運用AIGC提示詞,用戶可以引導AI系統(tǒng)生成出符合自己預期的高質量內容。

        第三,影響最終生成內容的獨創(chuàng)性。在環(huán)節(jié)三的3c情形“人類發(fā)出指令修改得到最終生成內容”中,此“指令”即人類輸入的提示詞,其是否體現了人類的個性化思考和創(chuàng)造性努力,是此環(huán)節(jié)是否存在足夠人類干預的關鍵,也直接影響到最終生成內容的獨創(chuàng)性判斷。有學者指出AIGC的獨創(chuàng)性源自作者對提示詞的選擇和安排,正是考慮到多回合提示詞的精細選擇與傳統(tǒng)美術作品利用不同線條與色彩體現出作品獨創(chuàng)性在底層結構上是相似的。{43}在“AI文生圖第一案”中,法院認為作品的獨創(chuàng)性來源于原告通過提示詞的安排設計,對人物及其呈現方式作出了審美選擇與個性判斷??梢哉f,當提示詞以一種結構化的形式被輸入系統(tǒng),這一行為本身就暗示著人類在最終產出內容輸出方向和范圍進行了劃定,即該數據“源自人類”,與獨創(chuàng)性之“獨”中獨立創(chuàng)作源于勞動者本人之義相通。由于人工智能系統(tǒng)的響應與最終輸出內容高度依賴于輸入提示詞的關聯性與準確性,因此在環(huán)節(jié)三討論用戶的干預是否對最終生成內容產生了如環(huán)節(jié)二中的指導性影響,{44}可以考慮用戶對提示詞的選擇是否體現了人類獨創(chuàng)性思考。所以,若輸入提示詞的選擇與安排經過了使用者的獨特構思和創(chuàng)造,那么可以推斷最終生成內容受到了這一輸入行為的指導性作用,影響對最終生成內容的獨創(chuàng)性判斷。

        (三)3c情形下人類干預成立判斷路徑:創(chuàng)造性提示詞、個性化體現與“理解”

        在環(huán)節(jié)三的3c情形下,人類向人工智能發(fā)出指令(提示詞)以便修改生成最終生成內容,或直接修改人工智能制造后的內容以得到最終生成內容,這兩種方式都屬于“直接參與了生成內容的創(chuàng)建”。在第二種方式下,最典型的表現情形即用戶直接在最終生成內容上進行改編,加入了作者的獨創(chuàng)性思考,從而達到本環(huán)節(jié)要求的人類干預程度,依此方式可以較為清晰地作出認定。而在第一種方式中,用戶發(fā)出指令(提示詞)修改生成內容以得到最終生成內容,該情形要認定人類干預完全成立,還需進一步對提示詞這一核心要素進行“三步法”再判斷。

        第一,提示詞的類別應屬于創(chuàng)造性提示詞而非其他類提示詞(如搜索性、解釋性等)。當前學界對提示詞的分類尚未完全形成共識,因不同學者采取不同分類標準而有所差異。本文根據創(chuàng)作的使用目的,將提示詞分為以下幾類:搜索式提示詞,即以搜集整理現有科學、文化知識并回答用戶問題為目的,如“世界上最大的鳥是什么?”;思維鏈提示詞,即依據特定思維或邏輯生成內容,如解答出一道復雜的數學題;創(chuàng)造性提示詞,即根據人類個性化思考,指令AI生成特定內容,如創(chuàng)作一幅畫、一首詩;解釋性提示詞,即對特定概念或現象進行解釋,如闡釋“何為慣性原理?”。創(chuàng)造性提示詞與其他類別提示詞的本質區(qū)別在于,其反映了人類具有生成創(chuàng)造新事物的強烈意愿。這一意愿通過提示詞這個關鍵媒介,歷經AI復雜而精巧的運算作用于生成內容中,并可以通過多次增改提示詞,使AI系統(tǒng)最終給出用戶所滿意的、最貼近心中設想的答案。在AIGC獨創(chuàng)性判斷模型中,環(huán)節(jié)三3c情形中成立人類干預要求人類發(fā)出“指令”修改并生成最終內容。此時人類輸入的提示詞如果屬于搜索性、思維鏈等提示詞,此類生成內容本質上屬于內容的提取與組合,是憑借AI系統(tǒng)創(chuàng)建之初的已經設立的框架,發(fā)揮出在海量數據中搜索整合并結構化呈現的功能,更類似于某種組織式、咨詢式回答。正如我國《著作權法實施條例》所規(guī)定的,“為他人創(chuàng)作進行組織工作,提供咨詢意見、物質條件,或者進行其他輔助工作,均不視為創(chuàng)作?!比祟惔藭r輸入的“指令”要想符合人類干預的要求,須體現為創(chuàng)造性提示詞而非其他類提示詞,否則對提示詞的選擇與安排難以體現出人類的個性化思考,也就難以推斷最終生成內容受到了提示詞的指導性影響。如“請寫一首五言詩”與“請列舉一首著名的唐詩”,兩者的差距就在于此。

        第二,提示詞的內容應體現人類的個性選擇與獨特思考。所輸入的提示詞如果屬于創(chuàng)造性提示詞,也僅能說明用戶具有令AI生成創(chuàng)造的意愿。如果要求達到人類干預的程度,該提示詞內容上應有別于機械式的“主題”,也不是對已有提示詞的簡單復制或模仿。例如,如果提示詞僅為“創(chuàng)作一首杜甫風格的詩歌”,該提示詞較為寬泛,缺乏詳細的元素或其他細節(jié),無法體現出人類在此有任何智力上的獨創(chuàng)投入;如果有這種投入也僅限于對這個主題的選擇,難以體現出人類個性化的選擇與安排。相反,如果以杜甫35至44歲十年間創(chuàng)作的詩歌作為輸入數據,并輸入特定的主題、情感、意向、結構等提示詞,指令某人工智能詩歌生成系統(tǒng)(假定該模型已足夠復雜)生成一首反映該時期特定情感表達的詩作,則該提示詞可視為體現了作者個性化的選擇與安排,輸入的提示詞也就更可能對生成內容產生獨創(chuàng)性影響。當然,這里的提示詞輸入也應該區(qū)分于非創(chuàng)作的準備活動,即在正式創(chuàng)作之前進行的各種前期準備工作,如構思框架、前期模型調試、背景布局等。{45}這些活動雖然對于創(chuàng)作過程至關重要,但它們本身并不構成創(chuàng)作行為的核心部分,盡管這些提示詞可能具有足夠的細節(jié),但無法通過它們將人類的創(chuàng)作意愿“作用于”最終生成內容。

        第三,AI對提示詞實現了基本“理解”與響應。這里的“理解”指的是最終生成內容沒有脫離人類所欲表達的大致范圍,沒有錯誤生成與提示詞產生巨大偏差的內容。目前的人工智能還無法像自然人理解圖形或語義,其生成內容的范圍是由設計者和訓練者對數據樣本與標注所決定的。{46}在實際操作中人工智能有可能因為對輸入指令產生了算法上的錯誤識別或AI系統(tǒng)本身的設計調試仍待優(yōu)化,生成了完全與人類預期不符的內容,此種情形下難以認定最終生成內容的各要素充分體現了人類干預。2024年2月,OpenAI發(fā)布文生視頻模型Sora,有評測用戶發(fā)布了相關使用體驗。用戶在輸入提示詞“A dog flying to a pig”(一只狗飛向一只豬)后,在模型自帶的提示詞擴展功能下,生成了兩個視頻片段。第一段展示出了“豬跑向狗”的畫面,而第二段中除了奔跑的狗之外,豬的元素直接消失,竟被一張不知名人臉照片所替代。{47}當然,出現此種情形可能是提示詞過于簡單、缺乏必要細節(jié),或是模型調試不足、數據調取錯誤等原因所致。但不論如何,對比人類輸入提示詞的基本語義與最終生成內容,顯然生成內容與人類輸入提示詞的預期效果產生了巨大偏差,人類的個性化思考并未經提示詞作用至最終生成內容上。此類情形還有很多,例如,要求AI畫一幅“車水馬龍”的街道時,有的AI可能會真的畫出有車、有水、有馬、有龍的畫面,而不是理解這一成語所表達的繁忙街道的意象。因而,只有當AI基本“理解”了人類個性化選擇的提示詞時,所生成的內容沒有脫離人類大腦中所設想的那張藍圖的范圍,才可認定人類個性化的思考實際作用至AIGC的創(chuàng)作過程之中。

        總之,在環(huán)節(jié)三“生成內容制造”環(huán)節(jié),認定“人類發(fā)出指令(提示詞)參與生成內容創(chuàng)建”構成人類干預,還需對提示詞的類別、內容以及是否被AI正確“理解”三方面作出進一步判斷。如果提示詞屬于創(chuàng)造性提示詞,體現了人類個性化思考并且生成內容沒有與人類預期產生巨大偏差,此時3c情形中的人類干預才有可能成立。

        (四)提示詞視角下人類干預模型的個案檢驗

        構建AIGC人類干預模型的目的在于為實際司法裁判中的個案判斷提供統(tǒng)一化指引。接下來,本文將結合AIGC相關版權典型案例分析驗證此司法判斷模型的可操作性,以期在提示詞創(chuàng)作模式下,為如何更好適用這一司法判斷模型提供思考。

        以“AI文生圖第一案”為例。第一,原告李某所利用的人工智能系統(tǒng)是AI文生圖模型Stable Diffusion,{48}用于實現文本分類與摘要、文本對話、生成算法等任務。在系統(tǒng)創(chuàng)建時人類已設定了其所實現的特定目標,因此滿足環(huán)節(jié)一中的1a情形,即系統(tǒng)創(chuàng)建存在人類干預;第二,根據法院認定事實,原告李某在下載好Stable Diffusion文生圖模型后,將專用于制作中國風少女人像的模型包移動到“Stable-diffusion”的文件夾,這一行為可視為人類根據特定標準選擇了特定數據,屬于關鍵數據處理并對最終生成內容有指導控制影響,符合環(huán)節(jié)二中的2a情形;第三,原告在AI文生圖模型中輸入了諸如“彩色照片”“紅褐色辮子”“動態(tài)燈光”等正向提示詞與“模糊”“突變”“畸形”等反向提示詞,在調整參數后按下生成按鍵,并根據初步生成結果反復調整、增改,最終選出一張圖片。{49}在此過程中,這些提示詞服務于文生圖功能,包含了大量具體細節(jié),本身具備創(chuàng)造性特征。原告依據藝術類型+主體+環(huán)境+構圖+風格的提示詞框架,共計輸入29個正向提示詞、122個反向提示詞得到最終圖片,這體現了作者的個性化選擇與安排,也說明AI對提示詞也實現了基本“理解”與響應,因此符合3c情形的人類干預要求。{50}所以本案滿足“1a+2a+3c”情形,根據人類干預司法判斷模型,最終生成內容可以通過獨創(chuàng)性主觀標準的考驗。

        以“菲林訴百度案”為例,原告菲林律師事務所利用人工智能系統(tǒng)“威科先行庫”自動生成了一份分析報告,并主張對該報告享有版權。{51}第一,涉案AI系統(tǒng)從功能上屬于法律統(tǒng)計數據分析軟件,其最初設定目標即包括生成數據分析報告,因此符合人類干預模型中環(huán)節(jié)一“系統(tǒng)創(chuàng)建特定目標由人類選擇”的1a情形;第二,在數據選擇環(huán)節(jié),沒有證據證明研發(fā)者選擇了用于生成分析報告的數據或數據篩選標準,所以也不存在進行“關鍵數據處理”的情況,不符合2a情形;第三,為驗證涉案AI系統(tǒng)的生成創(chuàng)作過程,法院組織了現場勘驗,在該系統(tǒng)中僅輸入“電影”這一關鍵詞,并限制案件范圍與時間后即可得到一份可視化報告,該報告包括了整體情況分析、案由行業(yè)分布、裁判結果等詳細內容。這意味著對于使用該系統(tǒng)的用戶,不用對提示詞進行深入考量與個性化選擇,就可以生成與案涉報告大致相似的內容。3c情形下提示詞“三步法”判斷中第二步要求提示詞的內容應具有一定具體的個性化細節(jié),而本案單一的關鍵詞更類似于機械式的“主題”,沒有體現出人類的獨特思考。且原告也未提交相應證據證明對最終生成內容進行了直接修改或指令其修改,因此在生成內容制造環(huán)節(jié)沒有達到人類干預要求,不符合3c情形。所以,本案屬于“1a+2b+3b”情形(人類未干預生成內容的選擇或公布),難以認為涉案報告滿足獨創(chuàng)性主觀標準的條件,這與法院裁判認為“應用可視化功能自動生成的分析報告不屬于傳遞軟件用戶思想或感情的獨創(chuàng)性表達,該分析報告不是著作權法意義上的作品”的結論相一致。

        以2024年10月判決的“AI文生圖第二案”為例。法院最終認定案涉圖片“在場景、色彩、光影、角度及排列組合等方面體現了作者獨特的選擇與安排,具有獨創(chuàng)性,構成美術作品”{52}。就AIGC的獨創(chuàng)性判斷過程而言,可繼續(xù)運用本司法判斷模型對法院的說理進行一定邏輯補充。第一,原告所使用的人工智能系統(tǒng)是Midjourney繪畫軟件,可根據用戶的文本提示生成具有視覺效果的圖像,該軟件系統(tǒng)實現的特定繪畫目標屬于由人類選擇并設計創(chuàng)建,符合1a情形;第二,在輸入指令修改產出最終生成內容前,沒有證據表明原告依據任何分類標準輸入了相關數據,因此不滿足2a情形,即在數據選擇環(huán)節(jié)不存在人類干預;第三,原告在軟件中輸入“黃浦江邊”“漂浮于水面”“大小不一的心形圖案”等12個提示詞,并修改后利用Photoshop軟件自行編輯,隨后再次導入AI軟件,經過多次迭代得到了案涉圖片。一方面,這些提示詞包含了諸多客觀細節(jié),體現了作者的創(chuàng)造性及個性化選擇與安排,AI生成的內容也未產生較大偏差與誤讀,符合環(huán)節(jié)三情形3c中的“人類發(fā)出指令修改得到生成內容”的人類干預要求;另一方面,作者在AI生成的基礎上利用軟件自行調整編輯,也體現了3c情形的第二種方式“自行修改得到生成內容”。這些事實表明了這一環(huán)節(jié)具有充分的人類干預,因此整個創(chuàng)作過程符合“1a+2b+3c”的要求,通過獨創(chuàng)性主觀標準的考驗。

        以2024年最新判決的影響較大的涉平臺侵權責任案——“奧特曼案”為例,原告主張被告在經營的Tab網站中,通過AI繪畫模塊生成了與奧特曼形象構成實質性相似的圖片,涉嫌侵犯其復制權、改編權等相關權益。{53}法院認為,被告未經許可利用網站生成的案涉圖片,部分或完全復制了“奧特曼”美術形象的獨創(chuàng)性表達,并在此基礎上形成了新的特征,侵犯了原告的復制權與改編權。本案中法院未對AIGC是否構成作品進行回應,而是直接指出該生成內容侵犯了相關著作權權益。根據法院認定事實,在案涉網站的AI繪畫模塊中輸入“生成奧特曼”的提示語,網站即生成了一張保留案涉奧特曼相關形象的圖片。如果運用人類干預司法判斷模型對本案中AI所生成內容進行獨創(chuàng)性判斷,本文認為案涉生成內容可能難以符合獨創(chuàng)性標準。第一,該模塊實現的特定繪畫目標屬于由人類選擇,符合1a情形;第二,輸入“生成奧特曼”的提示詞并不能反映出用戶對輸入的數據進行了選擇或分類,用戶對數據的選擇并沒有對生成結果產生指導或控制作用,因為不同的用戶輸入相同提示詞都可以生成相似的內容,該生成圖片不符合2a情形中關鍵數據處理的要素,屬于2b情形;第三,該提示詞雖然屬于創(chuàng)造性提示詞,但沒有體現人類獨特的選擇與安排,屬于單一性的機械“主題”,也沒有相關事實表明用戶對最終生成內容直接進行了修改,因此不滿足3c情形。案涉創(chuàng)作過程屬于“1a+2b+3a”(用戶挑選出了相應圖片,對生成內容的選擇或公布進行了人類干預,屬于3a)。所以經過司法判斷模型的適用過程宜認定案涉圖片創(chuàng)作缺乏人類干預,尚未滿足作品獨創(chuàng)性主觀標準。

        總之,通過以上AIGC案例分析可以得出結論,人類干預司法判斷模型可為司法裁判補充更完善、更充分的說理論證,也能夠幫助實務中判斷AIGC是否滿足獨創(chuàng)性主觀標準以及是否構成作品,提供更客觀、更有效的司法檢驗思路。以“AI文生圖第一案”為例,法院依據“涉案圖片由原告獨立完成,對輸入提示詞的選擇與安排,體現了原告的智力投入與個性化表達”認為AIGC構成作品。應用人類干預司法判斷模型的思路相對比可知,認為法院是僅從3c情形“人類通過指令或者直接修改最終生成內容實現人類干預”出發(fā)得出最終結論的。然而,認定人類干預的成立,人類在數據選擇環(huán)節(jié)作出的關鍵性數據處理也應當得到考量。在圖像生成領域,輸入的數據集可能包含了某種特定的藝術風格或主題。在音頻生成領域,輸入數據也可能包含人類的語音語速與情感表達等信息。這些輸入數據直接影響了最終生成內容的特點與風格,在界定AIGC的獨創(chuàng)性過程中,它們與最終生成內容之間的關系也需要加以充分論證考慮。當然,人類大腦中的想法變?yōu)锳IGC現實產物呈現在人們面前,使用的就是提示詞這個神奇的“咒語”。在當下以提示詞創(chuàng)作為導向的大模型時代,也應該注重考量提示詞本身的分類、蘊含的人類個性化思考以及是否產生較大偏差等因素,在提示詞輸入所在的生成內容制造環(huán)節(jié),缺少任何一個關鍵要素都可能導致人類的創(chuàng)意并不能完整“作用”至最終AIGC之中。因此,在運用司法判斷模型進行檢驗時,我們應當更加全面地考慮包括數據選擇、提示詞輸入以及修改最終生成內容在內的各個環(huán)節(jié),因為這些環(huán)節(jié)涉及的諸多要素共同構成了AIGC作品獨創(chuàng)性的判斷基礎。

        五、結語

        人類干預司法判斷模型為構建AIGC作品獨創(chuàng)性的司法認定標準提供了一種方案,司法工作者可借助此模型通過多環(huán)節(jié)逐步檢驗,對人類干預的程度進行具體化、客觀化判定,有助于實現類案同判,化解沖突。當前AIGC的創(chuàng)作范式離不開提示詞的核心作用,提示詞本身的類別、內容等要素不僅引導AIGC的創(chuàng)作方向,也直接關乎人類干預是否成立以及AIGC最終的獨創(chuàng)性認定。因此司法實踐中不可忽視對輸入提示詞的復雜性、準確性與獨特性的充分把握,它們是人類創(chuàng)意與意圖的直接體現,也是界定AIGC作品獨創(chuàng)性的關鍵一環(huán)。

        在當前人工智能產業(yè)競爭日趨激烈的智能化時代,對其倫理考量已“迫在眉睫”,從人類干預這一原則出發(fā),構建AIGC作品獨創(chuàng)性司法認定標準具有重要意義。2023年10月,我國發(fā)布的《全球人工智能治理倡議》指出“發(fā)展人工智能應堅持‘以人為本’理念,以增進人類共同福祉為目標,以保障社會安全、尊重人類權益為前提,確保人工智能始終朝著有利于人類文明進步的方向發(fā)展。”{54}大模型時代下,實現科技向善,不能期待技術“自發(fā)”產生保護人類的效果,唯有靠人類在設計、使用時“主動”限定技術目的、運行方式,將技術受保護的標尺定在促進人類福祉上,才能有效防范科技發(fā)展可能帶來的不確定風險,才能在智能時代共享科技發(fā)展成果,謀求人類幸福。

        (作者何煉紅系中南大學知識產權研究院教授、博士生導師;謝天藝系中南大學法學院碩士研究生)

        本文系湖南省社會科學基金重點項目“數字環(huán)境下開放存取版權問題研究”(項目編號:23ZDB001)的階段性成果。

        {1} 參見吳漢東:《論人工智能生成內容的可版權性:實務、法理與制度》,載《中國法律評論》2024年第3期。

        {2} See Funke Medien NRW GmbH v. Bundesrepublik Deutschland, CJEU (2019).

        {3} See Article 178 of the Copyright, Designs and Patents Act 1988, “ ‘Computer-generated’, in Relation to a Work, Means that the Work is Generated by Computer in Circumstances such that there is no Human Author of the Work” .

        {4} 參見北京互聯網法院(2023)京0491民初11279號民事判決書。

        {5} 參見林秀芹、劉文獻:《作者中心主義及其合法性危機——基于作者權體系的哲學考察》,載《云南師范大學學報(哲學社會科學版)》2015年第2期。

        {6} 參見李曉宇:《元宇宙下賽博人創(chuàng)作數字產品的可版權性》,載《知識產權》2022年第7期。

        {7} See Thaler v. Perlmutter, WL5333236, D.D.C (2023).

        {8} See U.S. Copyright Office, Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, Federal Register, Vol.88, pp.16190-16192, 2023.

        {9} See European Commission,Directive on the Legal Protection of Datebases, https://cordis.europa.eu/article/id/5845-directive-on-the-legalprotection-of-databases,last visited on February 2, 2025.

        {10} See Infopaq International A/S v. Danske Dagblades Forening, ECR I-06569 (2009).

        {11} See Section 2 of the Act on Copyright and Related Rights (Urheberrechtsgesetz-UrhG).

        {12} 參見【德】M·雷炳德:《著作權法》,張恩民譯,法律出版社2005年版,第10頁。

        {13} 英國在《版權、外觀設計和專利法》第178條規(guī)定了計算機作品屬于缺少人類干預而生成,似乎未明確涉及生成式大模型的作品版權保護問題。但在2022年6月,英國知識產權局在AI版權和專利的咨詢中針對AIGC進行了專門回應,認為沒有證據表明現有法律對計算機生成作品的保護有害。據此推斷,由AI生成的作品也可獲得版權保護。

        {14} 參見王遷:《論人工智能生成的內容在著作權法中的定性》,載《法律科學(西北政法大學學報)》2017年第5期。

        {15} 參見楊利華、王詩童:《人工智能生成內容的著作權客體性思考——兼論作品判定的獨創(chuàng)性標準選擇》,載《北京航空航天大學學報(社會科學版)》2024年第2期。

        {16} 參見易繼明:《人工智能創(chuàng)作物是作品嗎?》,載《法律科學(西北政法大學學報)》2017年第5期。

        {17} 參見AIPPI中國分會官方網站:《AIPPI倫敦大會發(fā)布〈人工智能生成物的版權問題〉決議》,https://www.ciplawyer.cn/ articles/143578.html?prid=108,訪問日期:2025年1月20日。

        {18} 北京互聯網法院(2018)京0491民初239號民事判決書。

        {19} 廣東省深圳市南山區(qū)人民法院(2019)粵0305民初14010號民事判決書。

        {20} 北京互聯網法院(2023)京0491民初11279號民事判決書。

        {21} 參見《當代漢語詞典》編委會編:《當代漢語詞典》,中華書局2009年版,第477頁。

        {22} 參見何伋、路英智、李滸、孟廣彥、吳瓊等主編:《神經精神病學辭典》,南海出版公司2008年版,第626頁。

        {23} 參見武廣華、臧益秀、劉運祥、楊慶華、李慎廉主編:《中國衛(wèi)生管理辭典》,中國科學技術出版社2001年版,第144頁。

        {24} 參見何煉紅、鄧韜:《人工智能生成物獨創(chuàng)性標準再探討——兼論人類干預之司法判斷模型的構建》,載《重慶郵電大學學報(社會科學版)》2021年第5期。

        {25} See Christian Fuchs, Foundations of Critical Theory, Routledge, pp.251-252, 2022.

        {26} See Christian Fuchs, Digital Capitalism, Routledge, p.208, 2022.

        {27} 參見【德】黑格爾:《法哲學原理》,范揚、張企泰譯,商務印書館1961年版,第59頁。

        {28} 參見【英】洛克:《政府論》,葉啟芳、瞿菊農譯,商務印書館1964年版,第19頁。

        {29} See U.S. Copyright Office, Library of Congress, Compendium of U.S. Copyright Office Practices, https://www.copyright.gov/comp3/, last visited on February 2, 2025.

        {30} 同注{8}。

        {31} 同注{11}。

        {32} 同注{10}。

        {33} 參見滕妍、王國豫、王迎春:《通用模型的倫理與治理:挑戰(zhàn)及對策》,載《中國科學院院刊》2022年第9期。

        {34} 參見肖紅軍、張麗麗:《大模型倫理失范的理論解構與治理創(chuàng)新》,載《財經問題研究》2024年第5期;高奇琦:《大模型時代的勞動與行動:以阿倫特為中心的思考》,載《人文雜志》2024年第3期。

        {35} 參見任繼愈主編:《中國哲學史(四)》,人民出版社2010年版,第108頁。

        {36} 參見新華社:《中共中央辦公廳 國務院辦公廳印發(fā)〈關于加強科技倫理治理的意見〉》,https://www.gov.cn/zhengce/2022-03/20/ content_5680105.htm,訪問日期:2024年11月4日。

        {37} 參見方曉:《首個全球性AI聲明:中國等28國、歐盟簽署〈布萊切利宣言〉》,https://www.thepaper.cn/newsDetail_forward_25153617,訪問日期:2024年11月23日。

        {38} 同注{24}。

        {39} 結合AIPPI決議的步驟示例與學習指南中所提出“人類干預總結圖表”,筆者在結合決議范例中情形2a、2b、3a、3b和AIPPI學習指南中情形3c之外,還依據系統(tǒng)創(chuàng)建環(huán)節(jié)中特定目標是否由人類選擇創(chuàng)造性增加了情形1a與1b,最終得到上圖。

        {40} 同注{24}。

        {41} 參見林穎、魏夢婷:《作為后勤媒介的AI提示詞:大語言模型何以形塑人類語言實踐》,載《新聞與寫作》2024年第12期。

        {42} 參見屠玥、薛軼丹:《現代“巫術”:人工智能生成內容中的符號和控制系統(tǒng)》,載《北京電影學院學報》2024年第11期。

        {43} 參見李揚、邢賀通:《論人工智能生成內容在著作權法中的定性》,載《中國版權》2024年第5期。

        {44} 同注{24}。

        {45} 同注{24}。

        {46} 參見熊琦:《人工智能與版權——法律涵攝技術的路徑選擇》,載《中國版權》2023年第3期。

        {47} 參見壽步:《再論為什么中國首例人工智能文生圖案應當再審?——基于Sora Turbo的用戶體驗過程的視角》,https://mp.weixin. qq.com/s/RTnbq3ki7PY58tI4_7iWKw,訪問日期:2024年12月29日。

        {48} Stable Diffusion文生圖模型的主要工作原理是利用Clip模型將文本轉換為表征形式,然后引導擴散模型u-net在低維表征上進行擴散,然后將擴散之后的低維表征送入VAE中的編碼器,實現圖像生成。

        {49} 同注{4}。

        {50} 同注{4}。

        {51} 同注{18}。

        {52} 江蘇省常熟市人民法院(2024)蘇0581民初6697號民事判決書。

        {53} 參見廣州互聯網法院(2024)粵0192民初113號民事判決書。

        {54} 中國網信網:《全球人工智能治理倡議》,https://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm,訪問日期:2024年11月18日。

        Abstract: In the era of large models, the criterion for determining the originality of AIGC works is a central issue in copyright judicial practice. Currently, there is no consensus among countries regarding the standard for originality of AIGC works. Given the data-driven nature of AIGC and the increasing objectification of intelligence technologies in the creative process, it is feasible to establish a unified judicial standard for determining originality. By building upon the subjective standard of originality and premising on the principle of human intervention, a judicial judgment model for AIGC based on human intervention can address the objectification and threshold issues of personality factors in the subjective standard of originality, providing procedural and objective guidelines for assessing the originality of AIGC. Prompt words play a pivotal role in guiding the creative direction, determining the content quality, and influencing the originality of AIGC outputs. In applying the judicial judgment model, various factors, including prompt words, should be considered, as they collectively form the basis for assessing the originality of AIGC works.

        Keywords: AIGC works; originality standard; human intervention; prompt words; judicial judgment model

        日韩啪啪精品一区二区亚洲av| 亚洲 日本 欧美 中文幕| 狠狠人妻久久久久久综合蜜桃 | 国内自拍视频一区二区三区| 精品伊人久久大线蕉色首页| 欧美成人精品一区二区综合| 亚洲一区二区三区在线观看播放| 亚洲成在人网站天堂日本| 久久久久人妻精品一区二区三区 | 中文字幕日韩人妻不卡一区| 欧美一片二片午夜福利在线快| 国产在线观看精品一区二区三区| av在线高清观看亚洲| 色视频综合无码一区二区三区| 国产剧情国产精品一区| 一区二区三区国产97| 亚洲日本一区二区三区四区| 综合色区亚洲熟妇另类| 国产AV无码专区亚洲AⅤ| 国产亚洲青春草在线视频| 美女人妻中出日本人妻| 亚洲av无码一区二区三区不卡| 亚洲午夜精品a区| 日本高清一区二区三区色| 亚洲成av人片女在线观看| 国产情侣久久久久aⅴ免费| 国产亚洲精品福利在线| 少妇人妻系列中文在线| 国产精品久久久亚洲| 广东少妇大战黑人34厘米视频 | 欧美性猛交xxxx乱大交蜜桃| 在线亚洲精品国产成人二区| 亚洲av无一区二区三区| 国产av永久无码天堂影院| 久久精品免费无码区| 久久亚洲国产高清av一级| 国产成人精品亚洲日本在线观看 | 热の国产AV| 久久精品国产精品亚洲婷婷| 国产乱人伦av在线麻豆a| 国内老熟妇对白xxxxhd|