張婷婷
青島科技大學(xué),山東 青島 266061
人工智能的飛速發(fā)展,給人們的生活帶來了極大的便利,在這一領(lǐng)域最重要的進(jìn)步之一是聊天機(jī)器人ChatGPT(Chat Generative Pre-trained Transformer,簡稱“ChatGPT”)的興起,它是由美國OpenAI 公司開發(fā)的一個大型語言模型,不僅能對用戶輸入的問題進(jìn)行快速精準(zhǔn)回答,還能生成編程代碼、電子郵件、論文、小說等各類文本,其上線不到一周的時間便突破了100 萬用戶的大關(guān),成為繼戰(zhàn)勝世界圍棋冠軍的AlphaGo 后又一個具有劃時代意義的AI 產(chǎn)品。
1.生成內(nèi)容的著作權(quán)問題
人工智能本身并沒有創(chuàng)造能力,而是通過大量資料的學(xué)習(xí)拼湊內(nèi)容。用戶通過ChatGPT 平臺生成的文章或者圖片的版權(quán)到底屬于誰,目前這個歸屬定位是模糊的。筆者在閱讀了OpenAI 公司官網(wǎng)的“使用條款”后發(fā)現(xiàn),該條款明確說明只要用戶在遵守法律規(guī)定、使用條款限制,并且對輸入內(nèi)容具備所有權(quán)的情況下,OpenAI 就會將其在輸出內(nèi)容中的所有權(quán)利、所有權(quán)和利益轉(zhuǎn)讓給用戶??梢姡琌penAI 公司是將ChatGPT 平臺所形成的內(nèi)容的所有權(quán)讓渡給了用戶。2022 年12 月21 日,英矽智能創(chuàng)始人兼CEO Alex Zhavoronkov博士撰寫的探討雷帕霉素抗衰老應(yīng)用的論文,發(fā)表于《Oncoscience》(腫瘤科學(xué))期刊上,值得注意的是,ChatGPT 以共同作者的身份出現(xiàn)在了這篇論文上,這無疑是對ChatGPT 享有著作權(quán)的肯定。有關(guān)ChatGPT 是否享有著作權(quán)的問題也成為大家爭議的焦點。
在我國,關(guān)于著作權(quán)的所有規(guī)定中,并沒有將AI 機(jī)器人列入其中,但使用ChatGPT 最終形成的文本確實是由其生成的,并沒有用戶自我創(chuàng)造的過程,因此,如何界定著作權(quán)的問題亟待通過法律途徑解決。
2.生成內(nèi)容侵犯他人知識產(chǎn)權(quán)的問題
ChatGPT 的回答來源于海量的信息庫,其生成的文本或者圖片很有可能是他人發(fā)表的經(jīng)知識產(chǎn)權(quán)所保護(hù)的作品,如果直接被搜索到該文本或圖片的用戶拿來使用,這必然會侵犯他人合法的知識產(chǎn)權(quán)。根據(jù)《中華人民共和國著作權(quán)法》(以下簡稱《著作權(quán)法》)第二十四條,在合理使用他人作品而不構(gòu)成侵權(quán)的十三種情形中,如果僅出于研究目的進(jìn)行研發(fā)、訓(xùn)練,則可以適用該合理使用情形,而基于商用目的或者為研發(fā)者帶來了直接的商業(yè)效益,則無法適用該合理使用情形。因此,ChatGPT 對海量信息挖掘處理在我國法律中并不屬于“合理使用”的范疇,并且很可能引發(fā)知識產(chǎn)權(quán)糾紛。但也有很多人主張ChatGPT的數(shù)據(jù)挖掘?qū)儆趯Y源的合理利用,不涉及侵權(quán)問題。日本是最早對數(shù)據(jù)挖掘作出例外規(guī)定的國家。根據(jù)《日本著作權(quán)法》規(guī)定,允許為了計算機(jī)信息分析的目的(即從眾多作品或者其他大量信息中篩選出構(gòu)成該信息的語言、聲音、影像或者其他要素,并進(jìn)行比較、分類或者其他統(tǒng)計分析)在必要限度內(nèi)將作品存儲在媒介上或者進(jìn)行改編。根據(jù)該例外情形,企業(yè)為了商業(yè)目的復(fù)制他人作品并用于計算機(jī)信息分析可能構(gòu)成合理使用的情形,而ChatGPT 對文本數(shù)據(jù)的商業(yè)使用恰好符合這一情形。[1]
作為一種語言模型,ChatGPT 需要訪問大量數(shù)據(jù)才能有效運(yùn)行。這些數(shù)據(jù)不僅包括用戶進(jìn)行的輸入,還包括關(guān)于他們的行為、偏好和其他個人細(xì)節(jié)的信息。而這些數(shù)據(jù)一旦泄露,不僅是對個人隱私的侵犯,還可能被有心之人非法利用,對社會乃至國家造成巨大損失。近日,有用戶分享了在聊天機(jī)器人ChatGPT 上看到了不屬于自己的聊天記錄。ChatGPT 的企業(yè)負(fù)責(zé)人表示,ChatGPT 近日被發(fā)現(xiàn)存在漏洞,用戶可以看到其他用戶與ChatGPT 對話的標(biāo)題。2023 年3 月25 日,OpenAI 公司發(fā)文證實,部分ChatGPT Plus 服務(wù)訂閱用戶可能泄露了部分個人隱私和支付信息。無獨有偶,某星公司引入聊天機(jī)器人ChatGPT 不到20 天,便發(fā)生3 起涉及ChatGPT 誤用與濫用案例,包括兩起“設(shè)備信息泄露”和一起“會議內(nèi)容泄露”,其中,半導(dǎo)體設(shè)備測量資料、產(chǎn)品良率等內(nèi)容或已被存入ChatGPT 學(xué)習(xí)資料庫中。如果這些個人信息或者商業(yè)秘密泄露,可能會對個人或企業(yè)的信譽(yù)造成不良影響。
事實證明,ChatGPT 的確存在泄密的風(fēng)險,在合理利用與侵犯隱私之間存在一個度的問題,而如何把握這個度,則需要法律對此進(jìn)行規(guī)制。由于ChatGPT 是一個自然語言處理模型,它本身并不具備泄密的能力。但是,如果ChatGPT 被用于處理敏感信息,而且有人惡意利用ChatGPT 來泄露這些信息,那么應(yīng)該有相應(yīng)的法律規(guī)制來懲罰這種行為。此外,還應(yīng)該有明確的隱私保護(hù)政策和技術(shù)措施來防止ChatGPT 被濫用或攻擊,以保護(hù)用戶的隱私和數(shù)據(jù)安全。
ChatGPT 在運(yùn)行時首先會對用戶輸入的信息進(jìn)行預(yù)處理,包括對單詞進(jìn)行分詞、對詞性進(jìn)行標(biāo)注等,然后ChatGPT 會利用上下文信息和先前的對話歷史,對用戶輸入的意圖進(jìn)行理解。最終ChatGPT 會從生成的回復(fù)中選擇最佳的一個,并將其返回給用戶。在這個過程中,ChatGPT 會考慮回復(fù)的相關(guān)性,語法正確性、連貫性等因素。用戶最終得到的回復(fù),經(jīng)過了ChatGPT 自主識別收集信息并處理的過程,雖然與普通搜索引擎相比,用戶得到的回復(fù)會更加迅速,但回答是否可靠有待考證。
我們在使用普通搜索引擎時,可以看到信息的來源。但是ChatGPT 生成的文本回答則看不到,我們不知道資料來自哪里,也就無法對其真實性進(jìn)行考證。ChatGPT 的訓(xùn)練需要大量的語料庫,而這些資料都是滯后的,特別是在詢問與時政相關(guān)的問題時,它無法給出有效真實的回答,其所提供的虛假信息很容易誘導(dǎo)他人。并且,用戶在使用時可以通過不斷輸入指令來對ChatGPT 進(jìn)行“調(diào)教”,使其回答符合自己想要的形式,這樣就容易導(dǎo)致一些不法分子惡意“訓(xùn)練”人工智能,使其提供詐騙信息、釣魚網(wǎng)站等內(nèi)容,損害公民人身財產(chǎn)安全。[2]
1.明確生成內(nèi)容的著作權(quán)歸屬
目前,對于ChatGPT 生成內(nèi)容的著作權(quán)歸屬問題,有學(xué)者主張生成內(nèi)容是歸用戶所有,由用戶享有對生成內(nèi)容的著作權(quán),也有學(xué)者認(rèn)為Chat GPT 通過海量信息檢索整合而生成的內(nèi)容理應(yīng)歸ChatGPT 所有。
根據(jù)我國法律規(guī)定,文學(xué)、藝術(shù)和科學(xué)作品的作者享有對作品的著作權(quán),而作品是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨創(chuàng)性并能以一定形式表現(xiàn)的智力成果,所以,只要ChatGPT 所生成的內(nèi)容是具有獨創(chuàng)性的智力成果,便符合我國《著作權(quán)法》對著作權(quán)歸屬的規(guī)定。雖然最終從ChatGPT得到的作品是ChatGPT 通過算法生成的內(nèi)容,但實際上是用戶經(jīng)過自己的思考,通過不斷輸入自己的想法引導(dǎo)ChatGPT 而得到的,從這個層面來講,ChatGPT 所生成的內(nèi)容實際上是用戶的智力成果的體現(xiàn)。但是,如果簡單把ChatGPT 生成的內(nèi)容直接歸屬于用戶所有,還會引發(fā)一個重要的問題是,當(dāng)不同的用戶在輸入類似的問題時,可能得到的是相同的作品,那這種情況下,法律又該怎么界定著作權(quán)的歸屬?筆者認(rèn)為ChatGPT生成的內(nèi)容不應(yīng)當(dāng)被視為作品受到著作權(quán)法的保護(hù)。我國《著作權(quán)法》第二條規(guī)定,中國公民、法人或者非法人組織的作品,不論是否發(fā)表,依照本法享有著作權(quán)。該條表明只有公民、法人或者非法人組織才享有著作權(quán),因此,ChatGPT 作為一個AI 機(jī)器人,并不享有著作權(quán),并且其生成的內(nèi)容是基于強(qiáng)大的語料庫的訓(xùn)練,是在用戶的指令下完成的,它并不具備獨立思考的能力,因此其創(chuàng)作內(nèi)容也不具有獨創(chuàng)性,不應(yīng)當(dāng)被視為作品保護(hù)。在不同用戶得到相同的生成文本時,這些用戶應(yīng)當(dāng)都有對其利用的權(quán)利,在此應(yīng)當(dāng)認(rèn)定為ChatGPT 生成的內(nèi)容是一種信息共享,而不是作品專屬。[3]
2.將數(shù)據(jù)挖掘納入合理使用范疇
在ChatGPT 應(yīng)用的過程中,必然會有數(shù)據(jù)挖掘的過程。所謂的數(shù)據(jù)挖掘就是對已有的數(shù)據(jù)庫進(jìn)行搜索,在數(shù)據(jù)庫中會存在他人依法受到知識產(chǎn)權(quán)保護(hù)的文學(xué)、美術(shù)、攝影作品等,當(dāng)ChatGPT在對這些作品收集整理時,毫無疑問會侵犯到他人的合法權(quán)利。但是,如果僅僅因為數(shù)據(jù)挖掘會對知識產(chǎn)權(quán)造成一定沖擊,就全盤否定數(shù)據(jù)挖掘存在的合理性是非常不理性的。通過數(shù)據(jù)挖掘,ChatGPT 可以在短時間內(nèi)對海量數(shù)據(jù)庫進(jìn)行檢索并快速響應(yīng),它的檢索速度和能力是人類所不能比肩的,數(shù)據(jù)挖掘可以為我們在繁瑣的工作中節(jié)省大量的人力和物力。因此,將數(shù)據(jù)挖掘納入到合理使用的范疇是非常有必要的。在制度設(shè)計中可以從以下兩個方面入手:
第一,設(shè)立該制度的目的是鼓勵科研創(chuàng)新,在使用目的上不應(yīng)局限于非商業(yè)目的,因為在實際應(yīng)用中,很難區(qū)分是否屬于商業(yè)目的,并且基于商業(yè)研發(fā)需求也符合科研創(chuàng)新的目的;第二,表現(xiàn)形式是通過合法途徑獲取。作品使用人通過向著作權(quán)人支付一定的對價從而獲得對作品的使用權(quán)是著作權(quán)保護(hù)的基本方式,數(shù)據(jù)挖掘只有在通過合法途徑獲得的情況下才可以被認(rèn)定為合理使用,如果是通過非法途徑獲得的,則需要對著作權(quán)人承擔(dān)侵權(quán)責(zé)任。[4]
我國法律對隱私權(quán)采取的觀點是一種“秘密說”,即隱私權(quán)針對的是未公開的信息,但是對于ChatGPT 等人工智能在無形之中收集的用戶信息并沒有明確的規(guī)定。隨著科技的不斷發(fā)展,人工智能也日新月異,傳統(tǒng)的隱私權(quán)的界定范圍已經(jīng)不能滿足現(xiàn)代人維護(hù)自己合法權(quán)利的要求,因此,需要立法對隱私權(quán)的保護(hù)進(jìn)行一定的完善。
第一,對隱私權(quán)的范圍進(jìn)行擴(kuò)張,法律應(yīng)當(dāng)跟隨時代潮流,適時改進(jìn)一些滯后的規(guī)定,在傳統(tǒng)的隱私權(quán)范圍不能解決現(xiàn)代科技所帶來的問題時,就需要進(jìn)行一定的擴(kuò)張,將ChatGPT 等人工智能在應(yīng)用時所可能涉及的問題納入隱私權(quán)的范圍。
第二,對用戶的權(quán)利進(jìn)行明確。用戶對自己所輸入的信息享有處分權(quán),ChatGPT 在處理收集的信息時,應(yīng)當(dāng)?shù)玫接脩舻耐?,用戶?yīng)當(dāng)享有拒絕公開自己所輸入的信息的權(quán)利,如果未經(jīng)同意,ChatGPT 將個人信息公開,則構(gòu)成對隱私權(quán)的侵犯。
第三,對行業(yè)加強(qiáng)監(jiān)管。ChatGPT 等人工智能系統(tǒng)還屬于新興事物,需要較強(qiáng)的專業(yè)知識,因此,有必要通過專門的監(jiān)管機(jī)構(gòu)對其監(jiān)督,督促監(jiān)管范圍內(nèi)的企業(yè)按照法律規(guī)定和行業(yè)規(guī)范生產(chǎn)經(jīng)營,在違反相關(guān)規(guī)范時進(jìn)行追責(zé)。
為了防止不法分子趁虛而入,利用ChatGPT進(jìn)行網(wǎng)絡(luò)犯罪活動,企業(yè)應(yīng)當(dāng)根據(jù)相關(guān)法律對于隱私權(quán)保護(hù)的規(guī)定,制定嚴(yán)格的行業(yè)規(guī)范,同時,法律也要進(jìn)一步強(qiáng)化企業(yè)的責(zé)任。由于ChatGPT是開發(fā)者通過算法模型的訓(xùn)練與控制運(yùn)行的,對于開發(fā)者而言,第一,需要從源頭上對數(shù)據(jù)的來源可靠性進(jìn)行篩查,過濾掉違法犯罪的信息;第二,在向用戶提供信息時,應(yīng)當(dāng)明確告知信息的來源,以便用戶查明真?zhèn)?;第三,在用戶接收到可能存在詐騙、傳銷等違法犯罪信息時,平臺應(yīng)當(dāng)攔截并給予用戶一定的提示,防止用戶在使用過程中上當(dāng)受騙。
現(xiàn)階段ChatGPT 雖然已經(jīng)更新到4.0 版本,但依然還是處于弱人工智能向強(qiáng)人工智能的進(jìn)化過程,并不具備獨立思考的自主意識,這就極易被不法分子進(jìn)行訓(xùn)練,利用其無自主意識的弊端實施犯罪,為防止此類事件的發(fā)生,筆者認(rèn)為可以通過事前和事后兩種方式進(jìn)行干預(yù)。事前是指人工智能行業(yè)在算法訓(xùn)練時應(yīng)加強(qiáng)對于ChatGPT等的系統(tǒng)倫理道德類的訓(xùn)練,使其能夠精準(zhǔn)判斷信息;對國家而言,則要嚴(yán)格行業(yè)準(zhǔn)入制度,在ChatGPT 等類似系統(tǒng)上線前,應(yīng)進(jìn)行嚴(yán)格審查,可以與國家反詐系統(tǒng)相對接,避免犯罪發(fā)生。事后則是需要明確相關(guān)責(zé)任人,對研發(fā)公司、開發(fā)人員、網(wǎng)絡(luò)提供商、用戶等責(zé)任進(jìn)行明確,確保在發(fā)生侵權(quán)糾紛時有法可依。
人工智能的發(fā)展日新月異,特別是ChatGPT的興起引發(fā)大家的廣泛關(guān)注,但我們在享受Chat-GPT 帶給我們便利的同時,也面臨著對于知識產(chǎn)權(quán)問題、隱私問題、虛假信息以及網(wǎng)絡(luò)犯罪等方面的安全風(fēng)險。為防止ChatGPT 相關(guān)的網(wǎng)絡(luò)亂象的發(fā)生,應(yīng)當(dāng)從法律層面進(jìn)行一定的規(guī)制,包括完善著作權(quán)和隱私權(quán)保護(hù)立法,強(qiáng)化行業(yè)責(zé)任,加強(qiáng)數(shù)據(jù)監(jiān)管等措施。