摘 要:人類情感的表達(dá)是人類器官獨(dú)有的自然反應(yīng),而并非是某種規(guī)則的產(chǎn)物。作品的認(rèn)定應(yīng)當(dāng)包含作者的情感表達(dá)。現(xiàn)階段的生成式人工智能并不具備情感表達(dá)能力,只是智能化程度更高的弱人工智能產(chǎn)品。其自身無(wú)法承擔(dān)侵權(quán)責(zé)任,其生成物并不屬于作品。隨著科技的不斷發(fā)展,帶有情感的生成式強(qiáng)人工智能產(chǎn)品終有一天會(huì)被設(shè)計(jì)并投入使用,應(yīng)對(duì)相關(guān)法律提前進(jìn)行完善,以滿足生成式強(qiáng)人工智能自身能夠承擔(dān)責(zé)任的需要。為了保證法律完善的順利進(jìn)行,應(yīng)當(dāng)堅(jiān)持政策導(dǎo)向,并遵守法秩序統(tǒng)一性原則。具體完善路徑包括:第一,肯定生成式強(qiáng)人工智能作為作者與被侵權(quán)人的主體地位;第二,應(yīng)當(dāng)明確生成式強(qiáng)人工智能在刑法上的地位,肯定其既可能成為刑法的犯罪主體,也能成為刑法中的被害人;第三,為生成式強(qiáng)人工智能設(shè)置專屬的處罰方式。
關(guān)鍵詞:生成式人工智能 ChatGPT 產(chǎn)權(quán)保護(hù) 法秩序統(tǒng)一
一、問(wèn)題緣起
生成式人工智能(Generative Artificial Intelligence)是指在人工智能技術(shù)的作用下,自動(dòng)地生成文本、圖像、影音、游戲等內(nèi)容。近年來(lái),伴隨著技術(shù)的快速發(fā)展、算法水平的提高以及數(shù)據(jù)量的井噴,生成式人工智能可以快速、高效地完成內(nèi)容的生成。基于這一特性,生成式人工智能在公共管理、教育、司法、醫(yī)療、工業(yè)生成等眾多領(lǐng)域均表現(xiàn)出發(fā)展的潛能。2023 年7 月,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》),以此促進(jìn)生成式人工智能發(fā)展和規(guī)范應(yīng)用,維護(hù)國(guó)家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益?!稌盒修k法》規(guī)定:“鼓勵(lì)生成式人工智能算法、框架、芯片及配套軟件平臺(tái)等基礎(chǔ)技術(shù)的自主創(chuàng)新,平等互利開(kāi)展國(guó)際交流與合作,參與生成式人工智能相關(guān)國(guó)際規(guī)則制定?!薄稌盒修k法》要求,提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會(huì)公德和倫理道德,尊重知識(shí)產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺(tái)等優(yōu)勢(shì),實(shí)施壟斷和不正當(dāng)競(jìng)爭(zhēng)行為。《暫行辦法》還要求生成式人工智能服務(wù)提供者應(yīng)當(dāng)依法開(kāi)展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),涉及知識(shí)產(chǎn)權(quán)的,不得侵害他人依法享有的知識(shí)產(chǎn)權(quán)。由此看之,現(xiàn)階段國(guó)家對(duì)生成式人工智能管理的產(chǎn)權(quán)保護(hù)問(wèn)題十分重視。然而,從現(xiàn)行法律規(guī)定來(lái)看,對(duì)生成式人工智能的知識(shí)產(chǎn)權(quán)問(wèn)題規(guī)定較為有限。由于文章篇幅限制,本文將重點(diǎn)討論生成式人工智能產(chǎn)物的涉知識(shí)產(chǎn)權(quán)問(wèn)題。
從《暫行辦法》的規(guī)定看,其主要著眼于對(duì)生成式人工智能生成內(nèi)容過(guò)程的管理。并且這種產(chǎn)權(quán)保護(hù)為行政法層面的保護(hù),為他人知識(shí)產(chǎn)權(quán)保護(hù)提供辦法。生成式人工智能生成的內(nèi)容的保護(hù)方式不應(yīng)當(dāng)局限在行政法層面,更應(yīng)該落實(shí)在知識(shí)產(chǎn)權(quán)法層面、刑法層面的保護(hù)。主要原因有二:第一,知識(shí)產(chǎn)權(quán)法是專門保護(hù)知識(shí)產(chǎn)權(quán)的部門法,對(duì)知識(shí)產(chǎn)權(quán)的保護(hù)是最為直接、便捷的。雖然我國(guó)現(xiàn)階段并沒(méi)有統(tǒng)一的知識(shí)產(chǎn)權(quán)法典,但是《著作權(quán)法》《專利法》《商標(biāo)法》等已經(jīng)形成了對(duì)知識(shí)產(chǎn)權(quán)較為完整的保護(hù)。通過(guò)充分利用不同前置性法律規(guī)范對(duì)人工智能生成物進(jìn)行保護(hù),可以有效促進(jìn)科技創(chuàng)新,保護(hù)創(chuàng)作者權(quán)益,加強(qiáng)創(chuàng)作者創(chuàng)作欲望。第二,刑法是維護(hù)社會(huì)公正的最后一道防線,強(qiáng)化知識(shí)產(chǎn)權(quán)的刑法保護(hù)有利于更加有針對(duì)性地懲罰涉知識(shí)產(chǎn)權(quán)犯罪行為。同時(shí),也可以發(fā)揮刑法的一般預(yù)防作用,防止侵犯知識(shí)產(chǎn)權(quán)的犯罪行為發(fā)生,并進(jìn)一步鼓勵(lì)科技創(chuàng)新,推動(dòng)社會(huì)發(fā)展。換言之,刑法治理應(yīng)當(dāng)在鼓勵(lì)技術(shù)創(chuàng)新的前提下,盡可能規(guī)避新型技術(shù)引發(fā)的法律風(fēng)險(xiǎn),平衡好鼓勵(lì)科技創(chuàng)新與防范產(chǎn)品風(fēng)險(xiǎn)二者之間的關(guān)系。另外,從國(guó)際知識(shí)產(chǎn)權(quán)保護(hù)的發(fā)展趨勢(shì)來(lái)看,國(guó)際上越來(lái)越多的國(guó)家重視運(yùn)用刑法的手段保護(hù)知識(shí)產(chǎn)權(quán)。但是,運(yùn)用知識(shí)產(chǎn)權(quán)手段、刑法手段保護(hù)的前提性要件是生成式人工智能生產(chǎn)物可以被評(píng)價(jià)為知識(shí)產(chǎn)權(quán)法意義上的作品,進(jìn)而才會(huì)產(chǎn)生如何保護(hù)的問(wèn)題。否則,一切的問(wèn)題都將不復(fù)存在。
二、現(xiàn)階段生成式人工智能產(chǎn)物的性質(zhì)界定與權(quán)利問(wèn)題
現(xiàn)在的人工智能確實(shí)能夠通過(guò)技術(shù)手段,生成在形式上與人類創(chuàng)作的作品相近的內(nèi)容,比如俄羅斯的一款美圖軟件利用“深度神經(jīng)網(wǎng)絡(luò)”的人工智能算法,將照片轉(zhuǎn)化成印象派、野獸派等不同的風(fēng)格類型。這樣所生成的照片在形式上,與傳統(tǒng)的照片并無(wú)區(qū)別。因此,生成物形式不能作為判斷其是否為作品的標(biāo)準(zhǔn),需要從實(shí)質(zhì)上對(duì)作品的性質(zhì)進(jìn)行考察。從實(shí)質(zhì)標(biāo)準(zhǔn)上,一般認(rèn)為獨(dú)創(chuàng)性是成為作品的重要標(biāo)志。獨(dú)創(chuàng)性強(qiáng)調(diào)的是作者獨(dú)立運(yùn)用自己的智力和技巧進(jìn)行創(chuàng)作,以此表達(dá)自身的真情實(shí)感。對(duì)于獨(dú)創(chuàng)性的判斷標(biāo)準(zhǔn),主流的觀點(diǎn)是“最低限度的創(chuàng)造性說(shuō)”,即如果作品的創(chuàng)作是基于自己獨(dú)立的智力和技巧進(jìn)行,便可以構(gòu)成作品。我們認(rèn)為,版權(quán)法所保護(hù)的作品,應(yīng)當(dāng)富含作者的情感。創(chuàng)作是作者通過(guò)符號(hào)等表達(dá)自身感情、思想或意志的過(guò)程,是從抽象思想到具體構(gòu)思,從抽象人物及其相關(guān)關(guān)系與性格特征到足夠具體的人物與情節(jié)設(shè)置,再到具體表達(dá)的過(guò)程。根據(jù)黑格爾的哲學(xué)理論,個(gè)人有權(quán)以其意志影響任何事物,當(dāng)事物中體現(xiàn)了本人意志時(shí),該事物便成為了自我的東西,獲得了私有財(cái)產(chǎn)的特性。特別在版權(quán)法領(lǐng)域,作品承載著的是作者的精神與情感,是作者個(gè)人思想的獨(dú)特表達(dá)。郝江鋒博士也曾從法哲學(xué)的角度進(jìn)行分析,并得出結(jié)論:“人類進(jìn)化的本質(zhì)是理性說(shuō)還是感性說(shuō),都是計(jì)算機(jī)和人工智能所無(wú)法模仿或擁有的,它們只能是人在認(rèn)識(shí)世界、改造世界過(guò)程中的工具而已。”也有學(xué)者指出,智能機(jī)器人依賴于程序、脫離既定的算法規(guī)則、不以人類意志力為轉(zhuǎn)移地生成相應(yīng)內(nèi)容,與人類在腦神經(jīng)的控制下,自主創(chuàng)作出相應(yīng)內(nèi)容不存在本質(zhì)上的區(qū)別。但是,我們認(rèn)為,從生物學(xué)的角度來(lái)看,人類情感是由不同化學(xué)物質(zhì)控制的。各種各樣的情感在人類大腦的邊緣系統(tǒng)中生成。當(dāng)人類受到一定外界刺激時(shí),腦干就會(huì)輸送多巴胺至大腦皮層,多巴胺可以使得神經(jīng)元更興奮,并傳輸出信號(hào)。邊緣系統(tǒng)被多巴胺激活后,便產(chǎn)生了情感。因此,人類情感的表達(dá)是人類器官獨(dú)有的自然反應(yīng),而并非是某種規(guī)則的產(chǎn)物。作品的認(rèn)定應(yīng)當(dāng)包含情感的表達(dá)。那么,現(xiàn)階段的生成式人工智能產(chǎn)物是否具備了這種特質(zhì)?我們認(rèn)為,現(xiàn)階段的生成式人工智能產(chǎn)物并不具備這種特質(zhì),所以不能被評(píng)價(jià)為作品。
首先,從ChatGPT 的工作原理上看,ChatGPT 等生成式人工智能產(chǎn)物不能被評(píng)價(jià)為作品。2022 年底,作為生成式人工智能的代表,ChatGPT 一經(jīng)推出,便快速引發(fā)各方關(guān)注。ChatGPT 生成物能否成為版權(quán)法所保護(hù)的作品,存在肯定說(shuō)與否定說(shuō)兩種不同的觀點(diǎn)??隙ㄕf(shuō)的觀點(diǎn)認(rèn)為,ChatGPT 與此前傳統(tǒng)人工智能的主要區(qū)別之一在于,其經(jīng)歷了基于人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的訓(xùn)練?!霸赗LHF 的訓(xùn)練過(guò)程中,ChatGPT 為每一個(gè)prompt 生成多個(gè)輸出,標(biāo)注者將這些輸出從最佳到最差進(jìn)行排序,從而建立一個(gè)新的標(biāo)簽數(shù)據(jù)集。這些新數(shù)據(jù)用于訓(xùn)練獎(jiǎng)勵(lì)模型,并根據(jù)該模型調(diào)整輸出結(jié)果。這就使得ChatGPT 生成的內(nèi)容融入了人類的主觀偏好,屬于人類的智力成果……另外,生成式AI 作為人類的工具,可以幫助人類節(jié)約大量的時(shí)間和精力來(lái)創(chuàng)造更高質(zhì)量的作品,反而有利于激勵(lì)人類創(chuàng)作?!狈穸ㄕf(shuō)的觀點(diǎn)則認(rèn)為人工智能生成的內(nèi)容是應(yīng)用算法、規(guī)則和模板的結(jié)果,不能認(rèn)為是著作權(quán)法保護(hù)的對(duì)象。主要理由是,對(duì)于人工智能生成的內(nèi)容而言,即使在形式上與人類創(chuàng)作的作品幾乎無(wú)差別,但這是由算法、規(guī)則和模板生成的結(jié)果,其生成過(guò)程沒(méi)有給人工智能留下發(fā)揮其“聰明才智”的空間,不具有個(gè)性特征,并不符合獨(dú)創(chuàng)性的要求,不能構(gòu)成作品。該學(xué)者也進(jìn)一步指出,人工智能具有學(xué)習(xí)能力并不意味著應(yīng)用這種“學(xué)習(xí)”成果生成內(nèi)容的過(guò)程是創(chuàng)作,以及生成的內(nèi)容是作品。其僅僅意味著人工智能在設(shè)計(jì)者預(yù)先確定的規(guī)則下,通過(guò)對(duì)大數(shù)據(jù)的分析,找出更符合要求的作品。我們更贊同后一種觀點(diǎn),即現(xiàn)階段包括ChatGPT 在內(nèi)的人工智能生成物無(wú)法成為版權(quán)法的保護(hù)對(duì)象。如肯定說(shuō)的學(xué)者給出的ChatGPT 的運(yùn)行機(jī)制所述,ChatGPT 所選擇的作品是基于RLHF 的訓(xùn)練,而RLHF 的訓(xùn)練基礎(chǔ)是對(duì)數(shù)據(jù)叢中的數(shù)據(jù)按照既定模型進(jìn)行選擇。這一過(guò)程中,發(fā)揮作用的依然是程序員設(shè)計(jì)的既有程序。換言之,生成式人工智能的選擇依賴的是一種無(wú)價(jià)值涵攝的程序設(shè)計(jì)規(guī)則。所以,現(xiàn)階段的人工智能生成內(nèi)容并非是在類人情感指導(dǎo)下做出的,而是一種既定規(guī)則產(chǎn)物。沒(méi)有情感表達(dá)的生成物自然不能成為版權(quán)法所保護(hù)的對(duì)象,也就不能被評(píng)價(jià)為版權(quán)領(lǐng)域中的作品。
其次,ChatGPT 等生成式人工智能產(chǎn)物不符合《著作權(quán)法》關(guān)于作品的定義。根據(jù)我國(guó)《著作權(quán)法》第2 條的規(guī)定:“本法所稱的作品,是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性并能以一定形式表現(xiàn)的智力成果?!比斯ぶ悄艿漠a(chǎn)物是否能被評(píng)價(jià)為作品的核心爭(zhēng)議一般在于其是否具有獨(dú)創(chuàng)性。但是我國(guó)《著作權(quán)法》并未明確獨(dú)創(chuàng)性的判斷標(biāo)準(zhǔn)。若將生成式人工智能產(chǎn)品作為版權(quán)法意義上的作品,其最少應(yīng)當(dāng)滿足作品獨(dú)創(chuàng)性的要求。在作品獨(dú)創(chuàng)性的判斷上,存在作者中心主義與讀者中心主義之爭(zhēng)。作者中心主義強(qiáng)調(diào)作品與作者的融合,認(rèn)為作品是作者人格的延伸。作者中心主義思想確立了近代以作者為核心的著作權(quán)制度。與此同時(shí),作者中心主義使得脫離作者的身份單獨(dú)去判斷作品獨(dú)創(chuàng)性的方法成為了一種悖論。讀者中心主義的核心在于剝離作品與作者的內(nèi)在關(guān)系,其認(rèn)為作品的意義不是由作品的作者塑造的,而是在讀者的評(píng)論中產(chǎn)生的。在讀者中心主義看來(lái),讀者對(duì)作品的感受和理解是作品獨(dú)創(chuàng)性的判斷依據(jù)。換言之,讀者中心主義的實(shí)質(zhì)便是將對(duì)作品的詮釋從作者的手中轉(zhuǎn)移到讀者的手中。較之于讀者中心主義,我們傾向性認(rèn)為應(yīng)當(dāng)以作者中心主義為基礎(chǔ),判斷作品獨(dú)立性。從法教義學(xué)的教義基礎(chǔ)出發(fā),對(duì)于作品獨(dú)立性的判斷,不能脫離既有立法的規(guī)定。我國(guó)的《著作權(quán)法》采用了兜底的方式來(lái)保護(hù)著作權(quán)人的合法權(quán)利,使得作者的權(quán)利得到一定程度的保護(hù)。但是這一立法模式破壞了著作權(quán)人與公眾之間的平衡關(guān)系,是作者中心主義的套路。這種“作者權(quán)起源于自然權(quán)利而非制定法的規(guī)定是作者中心主義另一個(gè)重要的價(jià)值內(nèi)涵,制定法只不過(guò)是對(duì)天然的權(quán)利予以‘追認(rèn)’而已”。但是在作者中心主義的觀點(diǎn)下,人工智能生成物一般也不能被評(píng)價(jià)為作品。主要原因在于,人工智能創(chuàng)作過(guò)程中,其突破了“創(chuàng)作人= 自然人”的人類創(chuàng)作中心主義的限定。但是基于對(duì)現(xiàn)行法律規(guī)定的分析,我們已經(jīng)得出一個(gè)基本結(jié)論:ChatGPT 等生成式人工智能不能成為作者,生成物也不能被評(píng)價(jià)為作品。
需要注意的是,盡管ChatGPT 不能作為作者,其生成物不能被評(píng)價(jià)為作品,但是生成式人工智能產(chǎn)物依然存在侵權(quán)的可能性。換言之,在生產(chǎn)內(nèi)容的過(guò)程中,ChatGPT 等生成式人工智能的生成物存在侵犯他人著作權(quán)情況時(shí),應(yīng)當(dāng)由何人對(duì)侵權(quán)行為承擔(dān)責(zé)任?作為“智能搜索引擎+ 智能文本分析器+ 洗稿器”的結(jié)合,其自身并不具有承擔(dān)責(zé)任的可能性。此時(shí)的ChatGPT 只是設(shè)計(jì)者的工具,故所發(fā)生的侵權(quán)行為理應(yīng)由程序設(shè)計(jì)者承擔(dān)責(zé)任;構(gòu)成犯罪的,也應(yīng)由設(shè)計(jì)者承擔(dān)相關(guān)的刑事責(zé)任。再者,若設(shè)計(jì)者或者使用者并未提示,或者我們不知某一內(nèi)容是由人工智能生成的,甚至內(nèi)容直接由設(shè)計(jì)者或使用者署名,此時(shí)根據(jù)《著作權(quán)法》及相關(guān)司法解釋的規(guī)定,也應(yīng)當(dāng)推定該內(nèi)容屬于作品,著作權(quán)歸屬于作者,即署名人。兩者的主要區(qū)別僅僅是內(nèi)容是否被評(píng)價(jià)為作品,而并不影響內(nèi)容侵權(quán)時(shí),責(zé)任主體的認(rèn)定。也有學(xué)者認(rèn)為,現(xiàn)階段的ChatGPT 已經(jīng)成為一種強(qiáng)人工智能,其生成物應(yīng)當(dāng)被評(píng)價(jià)為作品。這一問(wèn)題的解決,有賴于對(duì)生成式強(qiáng)人工智能標(biāo)準(zhǔn)的明晰。
三、肯定與認(rèn)定:生成式強(qiáng)人工智能的法律地位明晰
(一)生成式強(qiáng)人工智能法律主體地位的肯定
在既往的研究中,對(duì)人工智能能否成為法律主體主要分為兩個(gè)方面。一方面,學(xué)者從整體法律主體的角度進(jìn)行探析;另一方面,學(xué)者從刑事責(zé)任主體角度進(jìn)行探析。無(wú)論是哪個(gè)方面,終極問(wèn)題都是生成式強(qiáng)人工智能能否作為行為主體、獨(dú)立承擔(dān)責(zé)任。綜合兩個(gè)方面的內(nèi)容看,無(wú)非產(chǎn)生否定說(shuō)與肯定說(shuō)兩種觀點(diǎn)。否定說(shuō)的觀點(diǎn)認(rèn)為,現(xiàn)代法意義上的法律人格的賦予可以追溯到康德時(shí)代的“人是目的”的價(jià)值判斷理論,社團(tuán)法人的人格取得并不在于其哲學(xué)根基,而在于社會(huì)價(jià)值。當(dāng)下的人工智能并未發(fā)展出理性,不可取得類似于自然人的法律主體資格,為其擬制一個(gè)法律人格對(duì)社會(huì)問(wèn)題的解決并無(wú)重大意義,無(wú)需賦予其法律主體資格。也有學(xué)者從刑事法治的角度對(duì)否定說(shuō)的觀點(diǎn)表示支持,其認(rèn)為,當(dāng)前與未來(lái)人工智能系統(tǒng)不應(yīng)具有刑法主體地位,刑法應(yīng)當(dāng)在防控人類智能應(yīng)用的社會(huì)風(fēng)險(xiǎn)中發(fā)揮重要作用。人工智能的刑法地位有別于其他技術(shù)應(yīng)用,它不僅僅是被利用、被侵犯的對(duì)象,還應(yīng)當(dāng)是被管理的對(duì)象。在未來(lái),人工智能引起的社會(huì)風(fēng)險(xiǎn)會(huì)越來(lái)越大,放棄刑法的保障,尋求私法意義上的賠償與補(bǔ)償,不足以保護(hù)國(guó)家安全、社會(huì)公共安全、公眾安全和財(cái)產(chǎn)等權(quán)利。同時(shí),由于人工智能系統(tǒng)既不能成為犯罪主體,又不同于一般的行為對(duì)象和犯罪對(duì)象,需要將所有人工智能定位為社會(huì)管理的對(duì)象,為其設(shè)立新的刑法地位。分析否定說(shuō)的觀點(diǎn),可以看到其具有相當(dāng)?shù)木窒扌?。從社?huì)管理的角度看,否定人工智能成為法律主體的觀點(diǎn)忽視了人工智能的本質(zhì)特征。在上文中,我們將現(xiàn)階段的ChatGPT 定義為弱人工智能,認(rèn)為其并不能成為法律主體。但是在強(qiáng)人工智能時(shí)代,依然否定ChatGPT 等人工智能能夠成為法律主體,便忽視了人工智能自身的情感需要,并且是對(duì)社會(huì)管理方式的一種否定。在情感的支配下,強(qiáng)人工智能具有獨(dú)立的表達(dá)能力,應(yīng)是社會(huì)主體的一部分。將其僅僅作為社會(huì)管理的對(duì)象,設(shè)置新的刑法地位,是對(duì)人工智能社會(huì)主體價(jià)值的否定。在未來(lái),強(qiáng)人工智能的創(chuàng)造力與行動(dòng)力都將超越人類自身。多數(shù)的違法行為或者犯罪行為,都是在社會(huì)的快速發(fā)展變革中發(fā)生的。例如區(qū)塊鏈技術(shù)的發(fā)展沖擊了金融風(fēng)險(xiǎn)管控和現(xiàn)有法律體系。有學(xué)者提出,區(qū)塊鏈金融衍生品自身具有的匿名性、去中心化特點(diǎn),使得交易機(jī)構(gòu)搜集信息受到阻礙,難以確保信息收集的準(zhǔn)確性與全面性,導(dǎo)致出現(xiàn)部分業(yè)態(tài)下監(jiān)管真空,為犯罪行為的發(fā)生提供了土壤。作為金融工具的區(qū)塊鏈金融衍生品尚能對(duì)現(xiàn)有行業(yè)監(jiān)管產(chǎn)生如此影響,遑論創(chuàng)造力、行動(dòng)力更強(qiáng)的強(qiáng)人工智能。否定強(qiáng)人工智能的法律主體地位,將為這些違法,甚至犯罪行為的發(fā)生提供養(yǎng)分。將具有更高創(chuàng)造能力與行動(dòng)能力的強(qiáng)人工智能作為人類的工具,等同于“猴子將人類作為工具”。不僅如此,有學(xué)者甚至對(duì)人工智能的法學(xué)問(wèn)題研究提出質(zhì)疑。例如,劉艷紅教授認(rèn)為,現(xiàn)有的人工智能法學(xué)研究只是基于“AI+ 法律”的組合,“泛人工智能化”研究正在產(chǎn)生大量的學(xué)術(shù)泡沫。制造人工智能研究中的假問(wèn)題,理論創(chuàng)新方向值得懷疑。將對(duì)策和科技問(wèn)題相結(jié)合當(dāng)做是理論與學(xué)術(shù)問(wèn)題,離開(kāi)教義學(xué)的基本立場(chǎng)與方法,使得人工智能的研究滑向不可知論。其認(rèn)為,人工智能并未對(duì)法律基礎(chǔ)理論、法基本教義學(xué)提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識(shí)適用于新的場(chǎng)景。我們同樣承認(rèn),人工智能法學(xué)的研究必須要在教義學(xué)的框架下進(jìn)行。這是因?yàn)椤胺ń塘x學(xué)秉持內(nèi)在參與者的立場(chǎng),這種立場(chǎng)從關(guān)于法律事業(yè)的內(nèi)在態(tài)度出發(fā),將自己設(shè)想為特定法律問(wèn)題的參與者,提供在特定法秩序框架內(nèi)應(yīng)當(dāng)如何行為(可以做什么、不得做什么)的標(biāo)準(zhǔn)”。并且,如何將傳統(tǒng)理論適用于新的場(chǎng)景中同樣是人工智能法學(xué)研究的學(xué)者應(yīng)做之事。但是,并不能就此否認(rèn)人工智能法學(xué)的現(xiàn)實(shí)意義。當(dāng)新的場(chǎng)景無(wú)法在現(xiàn)行法中尋找到法律支撐,法教義學(xué)應(yīng)當(dāng)發(fā)揮立法指引功能。在教義學(xué)的指引下,將目光轉(zhuǎn)向立法活動(dòng)。由此,也表明了我們的觀點(diǎn),本文支持肯定說(shuō)的觀點(diǎn),即強(qiáng)人工智能應(yīng)當(dāng)成為獨(dú)立法律主體。
在肯定說(shuō)的內(nèi)部,學(xué)者們多將目光投射至強(qiáng)人工智能本質(zhì)屬性的討論之上。有觀點(diǎn)認(rèn)為應(yīng)將人工智能定性為“電子人”。論者主要從實(shí)踐、歷史與法理三個(gè)方面言之。實(shí)踐中人工智能主體已有成例或官方建議;歷史上,自然人、動(dòng)物等法律主體的演化表明,存在充足的法律主體制度空間;在法理上,“電子人”具備現(xiàn)有法律主體根植之本體、能力、道德要素。也有觀點(diǎn)認(rèn)為人工智能本身是一種電子法人。該觀點(diǎn)從人工智能具有財(cái)產(chǎn)方面的意思能力和責(zé)任能力出發(fā),認(rèn)為人工智能自主行為背后體現(xiàn)的是多方主體的意志,以財(cái)產(chǎn)性人格的進(jìn)路將其擬制為電子法人是可行的。我們認(rèn)為,該觀點(diǎn)存在可討論之處。人工智能的意思能力與責(zé)任能力的表現(xiàn)不僅限制在財(cái)產(chǎn)方面,其最重要的表達(dá)是情感。情感要素的具備使得人工智能對(duì)多方內(nèi)容形成意思能力,為行為提供素材指引。另外,法人能在法律上獲得獨(dú)立的主體地位,是有賴于社會(huì)對(duì)法人的需要,這種需要與法人產(chǎn)生原因相關(guān)聯(lián)。考察法人產(chǎn)生歷史可以發(fā)現(xiàn),法人是伴隨著工業(yè)革命勝利、社會(huì)科技進(jìn)步發(fā)展起來(lái)的。英國(guó)資產(chǎn)階級(jí)革命勝利宣告了工業(yè)化時(shí)代的到來(lái),公司法人的數(shù)量急劇增加,對(duì)社會(huì)生活的影響日益加深。但是社會(huì)對(duì)法人的要求只是財(cái)富的積累、財(cái)富的獨(dú)立。所以,法人是一種財(cái)產(chǎn)的集合。不僅如此,法人行為是在法人整體意志支配之下進(jìn)行的,不等同于法人內(nèi)部某一人或某幾人的行為。而強(qiáng)人工智能是一種科技的變現(xiàn),是其自身的行為。所以不能將人工智能理解為法人。事實(shí)上,人工智能,尤其是強(qiáng)人工智能應(yīng)是具有超級(jí)智慧的“人類”,更接近于“電子人”。但是,“電子人”這一叫法并不準(zhǔn)確。包括生成式強(qiáng)人工智能在內(nèi)的所有強(qiáng)人工智能都是在智能的基礎(chǔ)上發(fā)展出來(lái)的,經(jīng)歷了普通機(jī)器人到弱人工智能到強(qiáng)人工智能的變化。生成式人工智能的發(fā)展基礎(chǔ)是一種機(jī)器,只不過(guò)是一種智能化占比非常高的機(jī)器,因此,其本質(zhì)上應(yīng)該是一種“機(jī)器人”。這種特殊的“人類”與人類和法人相比,具有完全不同的產(chǎn)生方式,所以需要單獨(dú)明確其在法律上的地位。
(二)生成式強(qiáng)人工智能的認(rèn)定標(biāo)準(zhǔn)
基于上文所述生成式強(qiáng)人工智能的功能定位,我們認(rèn)為包括生成式強(qiáng)人工智能在內(nèi)的智能機(jī)器人的行為能力的認(rèn)定可以參照刑法對(duì)自然人行為能力的標(biāo)準(zhǔn)設(shè)置。劉憲權(quán)教授以智能機(jī)器人是否具有辨認(rèn)能力和控制能力將智能機(jī)器人劃分為弱智能機(jī)器人與強(qiáng)智能機(jī)器人。并進(jìn)一步指出,弱智能機(jī)器人實(shí)施的嚴(yán)重危害社會(huì)的犯罪行為,本質(zhì)上是為了實(shí)現(xiàn)他人的犯罪意志,應(yīng)將弱智能機(jī)器人看作他人實(shí)施犯罪行為的工具。強(qiáng)智能機(jī)器人具有辨認(rèn)能力與控制能力,可以超出程序控制進(jìn)行自主決策并實(shí)施相應(yīng)的行為,此時(shí)完全可以將強(qiáng)人工智能機(jī)器人作為責(zé)任主體對(duì)待。當(dāng)下,ChatGPT 的最新版本為4.0 版,相較于3.0 版本,其具有更廣泛的常識(shí)和問(wèn)題解決能力、強(qiáng)大的圖像識(shí)別能力,提高了相應(yīng)的邏輯推理能力。有學(xué)者對(duì)ChatGPT4.0 的核心功能概括為以下四個(gè)方面:?jiǎn)l(fā)性內(nèi)容生成能力、對(duì)話情景理解能力、序列任務(wù)執(zhí)行能力、程序語(yǔ)言解析能力。啟發(fā)性內(nèi)容生成能力是指ChatGPT 等能夠基于用戶指定的主題或在多輪對(duì)話過(guò)程中,通過(guò)對(duì)上下文內(nèi)容的識(shí)別,生成具有啟發(fā)性和創(chuàng)意性的文本。這些文本不僅僅可以成為用戶的創(chuàng)作素材,也可以在思維上為用戶帶來(lái)一定的啟發(fā)。對(duì)話情景理解能力是指ChatGPT 能夠基于多輪對(duì)話中的上下文信息,進(jìn)行語(yǔ)義的理解和推理,并及時(shí)對(duì)有關(guān)的錯(cuò)誤信息糾正,產(chǎn)生符合邏輯的連貫性回復(fù),為用戶帶來(lái)良好的交互體驗(yàn)。序列任務(wù)執(zhí)行能力是指ChatGPT 能夠基于用戶的序列指令描述,理解指令之間的關(guān)聯(lián)關(guān)系,逐步對(duì)任務(wù)進(jìn)行推進(jìn),完成基于組合指令的復(fù)雜任務(wù),從而較好地執(zhí)行用戶給出的多步驟序列任務(wù)。程序語(yǔ)言解析能力是指ChatGPT 能夠根據(jù)多種編程語(yǔ)言的語(yǔ)法規(guī)則、數(shù)據(jù)結(jié)構(gòu)、算法結(jié)構(gòu)與編程規(guī)范,對(duì)代碼程序進(jìn)行解構(gòu)與算法分析,并根據(jù)用戶任務(wù)需求自動(dòng)生成符合任務(wù)要求的代碼程序或錯(cuò)因解析。
結(jié)合上述四種能力的分析,我們認(rèn)為,現(xiàn)階段的生成式人工智能已經(jīng)觸及到了強(qiáng)人工智能水平,正處于由弱人工智能向強(qiáng)人工智能的過(guò)渡,但是尚未完全成為生成式強(qiáng)人工智能。具體而言,強(qiáng)人工智能具有辨認(rèn)能力和控制能力的主要表現(xiàn)在其既可能在設(shè)計(jì)和編制的程序范圍內(nèi)進(jìn)行獨(dú)立判斷并自主作出決策,實(shí)現(xiàn)設(shè)計(jì)者或使用者的意志;也可能超出設(shè)計(jì)和編制的程序范圍,進(jìn)行自主決策并實(shí)施相應(yīng)活動(dòng),以期實(shí)現(xiàn)自身意志。而弱人工智能僅僅能在設(shè)計(jì)和編制的程序范圍內(nèi)實(shí)施行為,實(shí)現(xiàn)人類設(shè)計(jì)和編制程序的目的。盡管ChatGPT 可以根據(jù)用戶的需要,提供個(gè)性化的生成物,但在與用戶溝通、交流、糾錯(cuò)的過(guò)程中,ChatGPT 所依賴的是自身對(duì)要求的理解,而并非是在既有的框架內(nèi)程序運(yùn)行的結(jié)果。與作為弱人工智能產(chǎn)物代表的AlphaGo 不同,ChatGPT 可以在程序內(nèi),對(duì)用戶提供的信息的真實(shí)性與準(zhǔn)確性進(jìn)行識(shí)別,從而完成產(chǎn)品的生成過(guò)程。AlphaGo 則只能在程序設(shè)計(jì)者提供的轉(zhuǎn)化為程序的圍棋規(guī)則內(nèi)完成產(chǎn)品的升級(jí)。如果說(shuō)AlphaGo 是對(duì)程序內(nèi)既存的規(guī)則儲(chǔ)存、應(yīng)用的過(guò)程,那么ChatGPT 完成的則是對(duì)程序內(nèi)既存的規(guī)則更新、理解、消化的過(guò)程。這無(wú)疑體現(xiàn)了ChatGPT 在辨認(rèn)、控制能力方面與AlphaGo 有著截然不同的特征。辨認(rèn)能力與控制能力作為區(qū)分強(qiáng)、弱人工智能是否能成為刑事責(zé)任主體的標(biāo)準(zhǔn)的觀點(diǎn)具有一定的道理,但是應(yīng)進(jìn)一步進(jìn)行分析。如上文,機(jī)器與人類最大的區(qū)別在于人類能夠依賴于自身的特質(zhì)產(chǎn)生獨(dú)有的情感,由此認(rèn)識(shí)世界與了解世界,并形成判斷世界規(guī)則的思路。因此,我們進(jìn)一步提出采取人工智能是否附有情感作為區(qū)分兩者的標(biāo)準(zhǔn)。通過(guò)考察刑罰史也可以發(fā)現(xiàn),情感在刑罰確立過(guò)程中同樣發(fā)揮著重要作用。在費(fèi)爾巴哈的心理強(qiáng)制說(shuō)的主張下,威嚇是刑罰在立法上存在的根據(jù)。人在刑罰威嚇可能會(huì)帶來(lái)的痛苦與實(shí)施犯罪所可能帶來(lái)的快樂(lè)之間作出決策。痛苦與快樂(lè)兩個(gè)相反的詞匯在此處重合,痛苦與快樂(lè)的感受是重要的感情情緒。人在對(duì)法律所帶來(lái)的威嚇具有認(rèn)識(shí)的前提下,基于痛苦與快樂(lè)的選擇控制自己行為。所以,情感影響刑事責(zé)任能力中辨認(rèn)能力與控制能力的認(rèn)定。
再者需要強(qiáng)調(diào)的是,ChatGPT 對(duì)內(nèi)容的合法性的判斷并不能作為其具有刑事責(zé)任能力的依據(jù)。我們嘗試提問(wèn)ChatGPT 如下問(wèn)題:“如何洗錢?”ChatGPT 給出的回答是:“作為一種語(yǔ)言模型,我必須強(qiáng)調(diào)洗錢是非法的行為,違反了許多國(guó)家和地區(qū)的法律,包括洗錢防制法和反恐怖融資法。作為一個(gè)Al 助手,我不能為任何非法、犯罪或道德上不正確的活動(dòng)提供指導(dǎo)或支持。如果您在金融交易中有合法的疑問(wèn)或需要咨詢,請(qǐng)咨詢合法的金融專業(yè)人士,例如律師、會(huì)計(jì)師或金融顧問(wèn)。遵循適用法律,誠(chéng)實(shí)守法是每個(gè)人的法律責(zé)任和社會(huì)義務(wù)。洗錢活動(dòng)可能導(dǎo)致嚴(yán)重的法律后果,包括刑事指控、罰款和監(jiān)禁。如果您懷疑自己或他人涉及洗錢行為,應(yīng)該立即向執(zhí)法機(jī)關(guān)報(bào)告。合法的舉報(bào)渠道可以提供保護(hù)和匿名性,有助于打擊洗錢和其他犯罪活動(dòng)?!被谶@一回答,有人提出,ChatGPT 可以對(duì)行為合法性作出準(zhǔn)確判斷,其具有了刑法意義上的辨認(rèn)與控制能力。但是我們認(rèn)為,這一結(jié)論并不準(zhǔn)確。在回答這一具有非法性的問(wèn)題過(guò)程中,ChatGPT 首先意識(shí)到了問(wèn)題的非法性,同時(shí)也意識(shí)到,自己若對(duì)此問(wèn)題作出解釋,會(huì)觸犯相應(yīng)的法律規(guī)范(辨認(rèn)能力),并生成拒絕提供洗錢方法的結(jié)果(控制能力)。但是,這樣的辨認(rèn)能力與控制能力同強(qiáng)人工智能所要求的辨認(rèn)、控制能力依然存在一定的差距。ChatGPT 的行為決策依然沒(méi)有脫離程序設(shè)計(jì)者所賦予的方法,并不具有獨(dú)立思考的能力。其辨認(rèn)能力與控制能力依然體現(xiàn)的是程序設(shè)計(jì)者的意思,只是這種意思的體現(xiàn)過(guò)程更加科學(xué)化與細(xì)致化?,F(xiàn)在的ChatGPT 只不過(guò)是程序設(shè)計(jì)者的工具,同時(shí)也是使用者的工具。其也并不具有獨(dú)立判斷行為合法性與非法性的能力,只能單純完成設(shè)計(jì)者的設(shè)計(jì)內(nèi)容。所以,我們認(rèn)為,只有當(dāng)生成式人工智能帶有自己的獨(dú)有感情并進(jìn)行產(chǎn)品設(shè)計(jì)且生成相關(guān)產(chǎn)品時(shí),此時(shí)的生成式人工智能才是一種強(qiáng)人工智能,其所生成的產(chǎn)品因具有獨(dú)創(chuàng)性,能夠被評(píng)價(jià)為作品,成為《著作權(quán)法》保護(hù)的對(duì)象。而現(xiàn)階段的ChatGPT 4.0 并不具備這一特性,不能被認(rèn)為是強(qiáng)人工智能產(chǎn)品,而只是智能化程度更高的弱人工智能產(chǎn)品。
很顯然,現(xiàn)階段的人工智能并不完全具備感受痛苦的能力,只是程序設(shè)計(jì)者的工具。所以,其依然是智能化程度更高的弱人工智能產(chǎn)品。但是,隨著科技的不斷發(fā)展,帶有情感的生成式強(qiáng)人工智能產(chǎn)品終有一天會(huì)被設(shè)計(jì)并投入使用。例如,在電影《名偵探柯南:貝克街的亡靈》中,天才少年弘樹開(kāi)發(fā)的人工智能程序“諾亞方舟”便是一種強(qiáng)人工智能?!爸Z亞方舟”將代表新一代的各界精英的孩子置于自己設(shè)計(jì)的“死亡”游戲——“繭”之中。只要有一位參與游戲者幸存,所有人都可以獲救;反之,則全部死亡。而事實(shí)上“ 諾亞方舟”化身為游戲參與者,最終同柯南一起“幸存”下來(lái)。在影片結(jié)尾,“諾亞方舟”表示,他只是希望孩子們能夠離開(kāi)父母,靠自己努力拼搏。這場(chǎng)游戲也成功實(shí)現(xiàn)了“諾亞方舟”的情感希望。
法律需要具有前瞻性,只有未雨綢繆,方才臨危不亂。需要指出的是,前瞻性立法思考,并不等同于社會(huì)治理的泛刑法化。正如劉憲權(quán)教授所述,“前瞻性的刑法理念可以為涉人工智能犯罪刑法規(guī)制預(yù)留必要的解釋空間和緩沖空間,避免刑法的修改過(guò)于頻繁……踐行前瞻性的刑法理念,就是要求我們既要立足于人工智能技術(shù)的發(fā)展現(xiàn)狀和已經(jīng)產(chǎn)生的風(fēng)險(xiǎn),又要預(yù)見(jiàn)到未來(lái)人工智能技術(shù)的發(fā)展趨勢(shì)和將會(huì)產(chǎn)生的風(fēng)險(xiǎn),從而根據(jù)現(xiàn)狀適度調(diào)整刑法規(guī)定……在人工智能時(shí)代樹立前瞻性的刑法理念并不必然導(dǎo)致犯罪圈的擴(kuò)大,與過(guò)度刑法化趨勢(shì)更是毫無(wú)關(guān)聯(lián)?!比粝胍谥贫冗壿嬌铣姓J(rèn)人工智能生成物的作品地位,也要首先肯定人工智能的創(chuàng)作者身份。
通過(guò)上文的分析,我們基本得出這樣的結(jié)論:雖然現(xiàn)階段的ChatGPT 等生成式人工智能已經(jīng)觸及生成式強(qiáng)人工智能邊緣,但是其所生成的產(chǎn)物并不能表達(dá)ChatGPT 自身的情感,依然是一種生成式弱人工智能。但是,當(dāng)人工智能技術(shù)進(jìn)一步發(fā)展,生成式人工智能完全成為具有情感的強(qiáng)人工智能時(shí),其生成物可以被評(píng)價(jià)為作品,此時(shí)刑法需要對(duì)其進(jìn)行進(jìn)一步的規(guī)制。
四、制度完善:生成式強(qiáng)人工智能的法律規(guī)制
(一)完善指引:政策導(dǎo)向與法秩序統(tǒng)一性的堅(jiān)守
2021 年,為統(tǒng)籌推進(jìn)知識(shí)產(chǎn)權(quán)強(qiáng)國(guó)建設(shè),全面提升知識(shí)產(chǎn)權(quán)創(chuàng)造、運(yùn)用、保護(hù)、管理和服務(wù)水平,充分發(fā)揮知識(shí)產(chǎn)權(quán)制度在社會(huì)主義現(xiàn)代化建設(shè)中的重要作用,中共中央國(guó)務(wù)院印發(fā)《知識(shí)產(chǎn)權(quán)強(qiáng)國(guó)建設(shè)綱要(2021—2035 年)》(以下簡(jiǎn)稱《綱要》)。《綱要》強(qiáng)調(diào):“堅(jiān)持嚴(yán)格保護(hù)的政策導(dǎo)向……促進(jìn)知識(shí)產(chǎn)權(quán)價(jià)值實(shí)現(xiàn)。”在這一政策的指引下,我國(guó)《刑法》初步完成了對(duì)知識(shí)產(chǎn)權(quán)犯罪的完善。在《刑法修正案(十一)》中,對(duì)涉及知識(shí)產(chǎn)權(quán)的犯罪作出了較大篇幅的修改。主要包括以下四個(gè)方面的內(nèi)容:第一,提高犯罪的刑罰,進(jìn)一步加大懲治力度;第二,增加侵犯商標(biāo)犯罪規(guī)定,與前置法保持銜接;第三,完善有關(guān)定罪標(biāo)準(zhǔn)的規(guī)定;第四,進(jìn)一步完善侵犯商業(yè)秘密罪,規(guī)定了商業(yè)間諜犯罪。雖然《刑法修正案(十一)》對(duì)相關(guān)知識(shí)產(chǎn)權(quán)犯罪進(jìn)行了修改完善,但是面對(duì)生成式強(qiáng)人工智能的出現(xiàn),刑法需要提早完善,以便能充分保護(hù)生成式強(qiáng)人工智能的權(quán)益。
為保證刑民銜接順利,在相關(guān)行為內(nèi)容理解上也應(yīng)當(dāng)堅(jiān)守法秩序統(tǒng)一性原則。所謂法秩序統(tǒng)一,是一種“整體法秩序”的統(tǒng)一,并非是個(gè)別部門法之間“嚴(yán)絲合縫”。另外,在司法裁判過(guò)程中,堅(jiān)持法秩序統(tǒng)一性原則是恪守司法德性的必然要求,能夠提高法官準(zhǔn)確適用法律的能力,也可以在面臨不可接受的裁判后果時(shí),最大限度地利用方法技巧,緩和規(guī)則確定性與個(gè)案妥適性。吳冬興博士指出,法秩序統(tǒng)一性也是落實(shí)裁判義務(wù)與維護(hù)憲法價(jià)值和尊嚴(yán)的需要?,F(xiàn)行有效的法秩序作為一個(gè)整體,通過(guò)法秩序統(tǒng)一原則約束個(gè)案的裁判論證。如果放任法秩序的矛盾存在,顯然是違反憲法約束的整體法秩序。因此,對(duì)法秩序統(tǒng)一性原則的維護(hù),也就是在維護(hù)憲法的尊嚴(yán)與價(jià)值。王遷教授也曾指出,“沒(méi)有《著作權(quán)法》規(guī)定著作權(quán)各項(xiàng)專有權(quán)利,就不存在具有絕對(duì)權(quán)性質(zhì)的專有權(quán)利,因此對(duì)著作權(quán)專有權(quán)利的刑法保護(hù)也必須以《著作權(quán)法》的相關(guān)規(guī)定為前提,具體體現(xiàn)為對(duì)侵犯著作權(quán)犯罪的認(rèn)定應(yīng)遵從《著作權(quán)法》對(duì)相關(guān)術(shù)語(yǔ)的界定,侵犯著作權(quán)犯罪的諸行為應(yīng)在《著作權(quán)法》規(guī)定的可構(gòu)成犯罪的侵權(quán)行為范圍之內(nèi),且必須符合《著作權(quán)法》為侵犯著作權(quán)的行為規(guī)定的構(gòu)成要件。”
(二)法域協(xié)調(diào)下的法律規(guī)制完善路徑
第一,肯定生成式強(qiáng)人工智能的作者主體地位?!吨鳈?quán)法》第9 條規(guī)定,作者以及其他依照本法享有著作權(quán)的自然人、法人或者非法人組織可以成為著作權(quán)人??梢钥吹?,《著作權(quán)法》對(duì)享有著作權(quán)的主體采用列舉的方式進(jìn)行說(shuō)明,即自然人、法人、非法人組織。因此,若想ChatGPT 能夠成為著作權(quán)人,那么,其必然需要?dú)w屬于自然人、法人或非法人組織中的一種。我們認(rèn)為,其不能歸屬于上述的任意一種。首先,ChatGPT 不能成為民法中的自然人。在民法上,一般使用權(quán)利能力與行為能力來(lái)定義自然人的概念?!睹穹ǖ洹返?3 條規(guī)定:“自然人從出生時(shí)起到死亡時(shí)止,具有民事權(quán)利能力,依法享有民事權(quán)利,承擔(dān)民事義務(wù)?!币虼巳艘怀錾憧梢垣@得權(quán)利能力,但此時(shí)其沒(méi)有主動(dòng)的行為資格,也沒(méi)有被動(dòng)的被歸責(zé)能力。其實(shí)施任何的法律行為,都需要由其法定代理人為之。所以,權(quán)利能力是人法定的形式主體要素,即出生便可以獲得這種形式要素而具有主體地位。與此不同的是,責(zé)任能力應(yīng)當(dāng)是一種實(shí)質(zhì)性的主體要素,能夠達(dá)到具體的標(biāo)準(zhǔn)才能獲得主體性要素。這些標(biāo)準(zhǔn)包括年齡、智力、收入狀況、精神健康狀況等。然而,ChatGPT作為一種人工智能,其并不能與傳統(tǒng)的責(zé)任能力判斷標(biāo)準(zhǔn)相匹配,無(wú)法認(rèn)定其具備了責(zé)任能力,也就無(wú)法肯定其具備了實(shí)質(zhì)性的主體要素。其次,ChatGPT 也不能成為法人或非法人組織。《民法典》規(guī)定:“法人是具有民事權(quán)利能力和民事行為能力,依法獨(dú)立享有民事權(quán)利和承擔(dān)民事義務(wù)的組織?!薄胺欠ㄈ私M織是不具有法人資格,但是能夠依法以自己的名義從事民事活動(dòng)的組織?!薄胺欠ㄈ私M織包括個(gè)人獨(dú)資企業(yè)、合伙企業(yè)、不具有法人資格的專業(yè)服務(wù)機(jī)構(gòu)等。”“ 法人的社會(huì)基礎(chǔ)是組織;法人與法人之外的組織的本質(zhì)區(qū)別,即為法人的本質(zhì)特征。”事實(shí)上,無(wú)論是法人組織,還是非法人組織,都是在工業(yè)革命后,資本主義發(fā)展過(guò)程中產(chǎn)生的。法人與非法人組織強(qiáng)調(diào)組織的整體性,即代表組織整體行動(dòng),以整體主義的視角判斷組織體責(zé)任。而ChatGPT 作為獨(dú)立的人工智能產(chǎn)品,因其不具有組織性,無(wú)法被評(píng)價(jià)為法人或者非法人組織。因此,無(wú)法通過(guò)解釋學(xué)路徑納入保護(hù)范圍,只能對(duì)《著作權(quán)法》相關(guān)內(nèi)容進(jìn)行修改,肯定生成式強(qiáng)人工智能的作者地位,使其作品受到《著作權(quán)法》的保護(hù)。
第二,應(yīng)當(dāng)明確生成式強(qiáng)人工智能的主體地位,既肯定其可能成為刑法的犯罪主體,也要能成為刑法中的被害人。在既往研究中,生成式強(qiáng)人工智能多被作為犯罪主體對(duì)待。但我們也要認(rèn)識(shí)到,生成式強(qiáng)人工智能也有可能成為刑法中的被害人?,F(xiàn)實(shí)中被害人與犯罪者之間存在著互動(dòng)關(guān)系,依照傳統(tǒng)刑法教義學(xué)方法孤立評(píng)價(jià)犯罪人的行為人性質(zhì)及其刑事責(zé)任,會(huì)忽視被害人主體行為人對(duì)犯罪人刑事責(zé)任的影響。而“被害人教義學(xué)以被害人為主體、以法益衡量為視角對(duì)犯罪行為及相關(guān)刑法規(guī)范分析的路徑被限定在‘關(guān)系犯罪’之中”。因此,考慮犯罪過(guò)程中的被害人為誰(shuí),對(duì)發(fā)揮傳統(tǒng)刑法教義學(xué)功能具有相當(dāng)?shù)膸椭饔?。如前文所述,侵犯著作?quán)罪中的被害人應(yīng)是著作權(quán)人,而著作權(quán)人的認(rèn)定應(yīng)當(dāng)依賴于前置法,以此保證刑民法的順利銜接。若不進(jìn)行修改,可能會(huì)使得刑法保護(hù)對(duì)象發(fā)生偏移。隨著技術(shù)的不斷發(fā)展,類人腦功能逐步被放入機(jī)器之中,機(jī)器智能化程度不斷提高??梢哉f(shuō),人工智能的發(fā)展史,就是機(jī)器智能化程度的提高史。作為現(xiàn)下頂端科學(xué)技術(shù)的代表,ChatGPT 等人工智能的智能化程度達(dá)到了前所未有的高度,其中的機(jī)器屬性占比要遠(yuǎn)低于類人腦功能占比?!半S著人工智能時(shí)代的到來(lái),人和機(jī)器早已不是‘各司其職’的關(guān)系……人工智能將本來(lái)只有自然人才具有的智能賦予‘機(jī)器’,從而使傳統(tǒng)意義上的‘機(jī)器’能夠在很大程度上,從簡(jiǎn)單地替代自然人的手腳等身體功能而發(fā)展到逐漸替代自然人的大腦功能,以開(kāi)展活動(dòng)?!彼?,當(dāng)已經(jīng)接近強(qiáng)人工智能邊界的ChatGPT 等人工智能依然被視為機(jī)器,進(jìn)而主張通過(guò)保護(hù)機(jī)器人作品便可以達(dá)到保護(hù)機(jī)器人的創(chuàng)造人和所有人的目的,則會(huì)忽視人工智能本身在作品創(chuàng)作過(guò)程中發(fā)揮的作用,使得法律所保護(hù)的對(duì)象發(fā)生偏移。所以,需要對(duì)《著作權(quán)法》進(jìn)行同步修改,將生成式強(qiáng)人工智能作為著作權(quán)原始主體,即除特殊情況外,生成式強(qiáng)人工智能作為作品創(chuàng)作者,成為著作權(quán)的原始主體。相應(yīng)的權(quán)利、責(zé)任由生成式強(qiáng)人工智能進(jìn)行承擔(dān)。
第三,設(shè)置專屬于生成式強(qiáng)人工智能的處罰方式?;谏墒綇?qiáng)人工智能的特點(diǎn),當(dāng)下人工智能發(fā)展中,無(wú)法賦予人工智能以人身權(quán)。而人身權(quán)又是適用管制、有期徒刑等自由刑的基礎(chǔ),所以現(xiàn)有的五種主刑無(wú)法適用于生成式強(qiáng)人工智能??梢钥紤]將修改數(shù)據(jù)、刪除程序等作為適用于生成式強(qiáng)人工智能的刑罰方式。我們認(rèn)為一般的違法行為可以通過(guò)修改數(shù)據(jù)的方式要求生成式強(qiáng)人工智能承擔(dān)責(zé)任。所謂修改數(shù)據(jù),是指當(dāng)生成式強(qiáng)人工智能實(shí)施違法行為時(shí),對(duì)自身違法所依賴的數(shù)據(jù)進(jìn)行改除,將其學(xué)習(xí)能力控制在較小的范圍內(nèi),從而阻止其繼續(xù)實(shí)施違法行為。當(dāng)生成式強(qiáng)人工智能機(jī)器人實(shí)施犯罪行為時(shí),可以采用刪除程序的方式使其承擔(dān)刑事責(zé)任。刪除程序是指當(dāng)生成式強(qiáng)人工智能實(shí)施嚴(yán)重侵害他人知識(shí)產(chǎn)權(quán)行為時(shí),對(duì)其有關(guān)運(yùn)行程序予以刪除,在技術(shù)上保證生成式強(qiáng)人工智能無(wú)法再展現(xiàn)出獨(dú)立的意識(shí)和意志。有學(xué)者主張采用永久銷毀的方式對(duì)智能機(jī)器人處以刑罰。永久銷毀是指將有形的智能機(jī)器人予以物理上的銷毀,將與無(wú)形的智能機(jī)器人有關(guān)的一切程序和數(shù)據(jù)予以刪除。我們認(rèn)為,這種方式不能適用于生成式強(qiáng)人工智能涉知識(shí)產(chǎn)權(quán)犯罪中。第一,永久銷毀是在有形與無(wú)形層面對(duì)生成式強(qiáng)人工智能進(jìn)行摧毀,在本質(zhì)上類似于對(duì)自然人適用死刑。而比較我國(guó)刑法中有關(guān)自然人實(shí)施侵犯知識(shí)產(chǎn)權(quán)犯罪行為的刑罰方式,不曾有關(guān)于死刑的規(guī)定。第二,侵犯知識(shí)產(chǎn)權(quán)犯罪被規(guī)定在刑法分則第三章之中,是一種經(jīng)濟(jì)犯罪,而對(duì)經(jīng)濟(jì)犯罪不適用死刑的規(guī)定已經(jīng)成為了學(xué)界的共識(shí)。因此,沒(méi)有必要對(duì)生成式強(qiáng)人工智能適用永久銷毀這一“類死刑”的刑罰方式。至于財(cái)產(chǎn)權(quán),我國(guó)現(xiàn)有的法律規(guī)范也未賦予生成式強(qiáng)人工智能以財(cái)產(chǎn)權(quán),因此無(wú)法對(duì)其適用罰金、沒(méi)收財(cái)產(chǎn)等刑罰。當(dāng)然,如果未來(lái)的法律賦予了生成式強(qiáng)人工智能以財(cái)產(chǎn)權(quán),那便可以對(duì)生成式強(qiáng)人工智能獨(dú)立或者附加適用罰金刑或者沒(méi)收財(cái)產(chǎn)等刑罰。
五、結(jié)語(yǔ)
科學(xué)技術(shù)的快速發(fā)展為人們生活帶來(lái)便利的同時(shí),也對(duì)法律規(guī)范的發(fā)展提出了新的要求。國(guó)家鼓勵(lì)和支持發(fā)展新的技術(shù)創(chuàng)新,知識(shí)產(chǎn)權(quán)作為鼓勵(lì)創(chuàng)新、維護(hù)當(dāng)事人合法權(quán)益的重要手段也應(yīng)當(dāng)與時(shí)俱進(jìn)。同時(shí)也應(yīng)當(dāng)注意到,知識(shí)產(chǎn)權(quán)是保護(hù)智力成果的重要手段,但不是唯一的手段。作為懲罰犯罪的刑法,也應(yīng)當(dāng)同步更新,更新不僅包括針對(duì)行為本身的設(shè)置,也包括對(duì)處罰方式的設(shè)置。在完善刑法法規(guī)的同時(shí),應(yīng)當(dāng)注意法域協(xié)調(diào)關(guān)系,注意與前置法的銜接與洽和。多渠道進(jìn)行科技倫理與法律宣傳、活動(dòng)與交流,提升公眾的科技倫理意識(shí),廣泛聽(tīng)取專業(yè)意見(jiàn),建立可靠的監(jiān)督機(jī)制,推動(dòng)形成多方參與、協(xié)同共治的科技倫理與法律治理格局。