史繼紅
ChatGPT(Chat Generative Pre- trained Transformer),是美國(guó)人工智能研究實(shí)驗(yàn)室OpenAI推出的人工智能技術(shù)驅(qū)動(dòng)的語(yǔ)言處理工具,它通過(guò)連接大量的語(yǔ)料庫(kù)來(lái)訓(xùn)練模型,因此擁有遠(yuǎn)超人類(lèi)的語(yǔ)言理解和文本生成能力,它不單能流暢地與人聊天,還能完成撰文寫(xiě)詩(shī)、繪畫(huà)視頻、製訂方案、翻譯編碼等任務(wù)。
2023年一月,ChatGPT的月活用戶(hù)已突破1億,成為史上增長(zhǎng)最快的消費(fèi)者應(yīng)用。2023年2月2日,微軟官方公告表示,旗下所有產(chǎn)品將全線整合ChatGPT,除此前宣佈的搜索引擎必應(yīng)、Office外,微軟還將在雲(yún)計(jì)算平臺(tái)Azure中整合ChatGPT,Azure的OpenAI服務(wù)將允許開(kāi)發(fā)者訪問(wèn)AI模型。
但與此同時(shí),IT業(yè)的領(lǐng)軍者擔(dān)心,ChatGPT已經(jīng)被黑客們用於策劃網(wǎng)絡(luò)攻擊時(shí)使用。另有調(diào)查顯示,截止2023年1月,美國(guó)89%的大學(xué)生都是用ChatGPT做作業(yè),巴黎政治大學(xué)宣佈,該校已向所有學(xué)生和教師發(fā)送電子郵件,要求禁止使用ChatGPT等一切基於AI的工具,旨在防止學(xué)術(shù)欺詐和剽竊,多家學(xué)術(shù)期刊發(fā)表聲明,完全禁止或嚴(yán)格限制使用ChatGPT等人工智能機(jī)器人撰寫(xiě)學(xué)術(shù)論文。因?yàn)樗麄冋J(rèn)為:使用ChatGPT完成作業(yè)和寫(xiě)論文是不道德和不健康的學(xué)習(xí)方式,常用ChatGPT的學(xué)生們逐漸失去自主思考的能力。所以,這類(lèi)人工智能技術(shù)可能為商業(yè)和民生帶來(lái)顛覆性的機(jī)遇,但同時(shí)也伴隨著巨大的風(fēng)險(xiǎn)。
在ChatGPT及其他AI智能應(yīng)用產(chǎn)品火爆全球,資本紛紛嗅機(jī)而動(dòng)之際,我們今天卻是來(lái)潑一瓢冷水的。在經(jīng)濟(jì)不景氣,裁員很?chē)?yán)重的今天,絕大部分普通人不會(huì)因ChatGPT的火爆興奮,而是非常擔(dān)憂(yōu),我們法律人也不例外。方案文本創(chuàng)作等這類(lèi)的工作被智能取代了,還能有我們坐在電腦前的人什麼事兒呢?我們就來(lái)談?wù)劮娠L(fēng)險(xiǎn),盤(pán)點(diǎn)一下還真不少,完全有可能拖一下ChatGPT或類(lèi)似AI應(yīng)用的「後腿」。
侵害他人著作權(quán)
討論這個(gè)問(wèn)題之前,我們先要弄清楚,如果ChatGPT創(chuàng)作的具有個(gè)性化的作品有著作權(quán)的話(huà),誰(shuí)是作者?這和誰(shuí)是著作權(quán)人是兩個(gè)概念。作者是指文學(xué)、藝術(shù)和科學(xué)作品的創(chuàng)作人,根據(jù)《著作權(quán)法》的規(guī)定,作者按照以下標(biāo)準(zhǔn)進(jìn)行認(rèn)定:創(chuàng)作作品的公民(自然人)是作者,這是作者最基本的認(rèn)定原則。就算是職務(wù)創(chuàng)作或者其他繼受原因使非自然人拿到了著作權(quán),但按以往的樸素理解,最先創(chuàng)作的一定是一個(gè)或若幹個(gè)自然人。所以,不少法律專(zhuān)家認(rèn)為ChatGPT生成的文本等內(nèi)容是基於大量數(shù)據(jù)的統(tǒng)計(jì)和應(yīng)用生成的,首先,它不是人,不是著作權(quán)法意義上的創(chuàng)作者,不具有自己的思想和創(chuàng)新,很難構(gòu)成著作權(quán)法保護(hù)的作品,皮之不存,毛將附焉。ChatGPT作品是智能機(jī)器模仿人類(lèi)創(chuàng)作的成果,其創(chuàng)作過(guò)程和創(chuàng)作結(jié)果與人類(lèi)創(chuàng)作類(lèi)似,但是AI並非理性人,它沒(méi)有創(chuàng)作動(dòng)機(jī),也無(wú)自己的創(chuàng)意表達(dá),其創(chuàng)作並非表達(dá)思想,而是在虛擬空間從大量輸入作品中發(fā)現(xiàn)規(guī)律,生成模板,利用算法組合素材的機(jī)械過(guò)程,所以,ChatGPT不是作者,其生成的內(nèi)容不能受著作權(quán)法的規(guī)制。
雖然司法界存在不同的聲音,比如深圳南山法院在審理騰訊訴盈訊案中,認(rèn)可了騰訊利用智能寫(xiě)作Dreamwriter創(chuàng)作的,被發(fā)佈在互聯(lián)網(wǎng)上的文章著作權(quán)人為騰訊,但在菲林律所訴百度公司案中,北京互聯(lián)網(wǎng)法院不認(rèn)可菲林對(duì)其利用智能可視化軟件自動(dòng)生成的報(bào)告享有著作權(quán)。但主流仍?xún)A向於認(rèn)定人工智能生成物無(wú)法獲得版權(quán)保護(hù)。如2019年,國(guó)際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)(AIPPI)發(fā)佈《人工智能生成物的版權(quán)問(wèn)題決議》,認(rèn)為人工智能生成物在其生成過(guò)程中有人類(lèi)幹預(yù),且該生成物符合受保護(hù)作品應(yīng)滿(mǎn)足的其他條件情況下,能夠獲得保護(hù),對(duì)於生成過(guò)程無(wú)人類(lèi)幹預(yù)的人工智能生成物無(wú)法獲得版權(quán)保護(hù)。
《暨南學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》發(fā)佈關(guān)於使用人工智能寫(xiě)作工具的說(shuō)明提到,暫不接受任何大型語(yǔ)言模型工具(例如:ChatGPT)單獨(dú)或聯(lián)合署名的文章。在論文創(chuàng)作中使用過(guò)相關(guān)工具,需單獨(dú)提出,並在文章中詳細(xì)解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對(duì)文章直接退稿或撤稿處理。
非但如此,ChatGPT生成的文本等,其來(lái)源主要靠海量的他人作品數(shù)據(jù)挖掘技術(shù),其內(nèi)容為人使用,還可能侵犯別人的著作權(quán),因?yàn)檫@類(lèi)人工智能可能未經(jīng)過(guò)權(quán)利主體授權(quán),「借鑒」了一些受著作權(quán)保護(hù)的文本、視頻、代碼等,直接獲取複制到自己的數(shù)據(jù)庫(kù)中,並在此基礎(chǔ)上進(jìn)行模仿、修改、拼湊。對(duì)於這部分內(nèi)容,若不能構(gòu)成中國(guó)著作權(quán)法所規(guī)定的「合理使用」的情形,則可能引發(fā)侵權(quán)糾紛。不過(guò)另人擔(dān)憂(yōu)的是,筆者認(rèn)為,隨著ChatGPT等人工智能技術(shù)的發(fā)展,系統(tǒng)和算法會(huì)自動(dòng)優(yōu)化分析和處理,使其生成的文本和內(nèi)容繞開(kāi)跟原有作品相同或相似的表達(dá),從而規(guī)避侵害著作權(quán)的風(fēng)險(xiǎn),但源生根本,如果人類(lèi)創(chuàng)作者認(rèn)為絞盡腦汁的創(chuàng)作還不如一個(gè)人工智能,創(chuàng)作動(dòng)力會(huì)大大減弱,缺少人的創(chuàng)作,ChatGPT的發(fā)展是不是會(huì)遇到瓶頸呢?另外,ChatGPT在建立語(yǔ)料庫(kù)、生成文本時(shí),如果使用了非公開(kāi)的開(kāi)源代碼,或使用開(kāi)源代碼商用未辦理許可的,也可能會(huì)導(dǎo)致侵權(quán)。
信息合規(guī)化問(wèn)題及泄露風(fēng)險(xiǎn)
ChatGPT對(duì)挖掘的信息、數(shù)據(jù)來(lái)源無(wú)法進(jìn)行事實(shí)核查,可能存在個(gè)人數(shù)據(jù)與商業(yè)秘密泄露和提供虛假信息的隱患。
ChatGPT生成文本依托海量數(shù)據(jù)庫(kù)信息挖掘加工,包括大量的互聯(lián)網(wǎng)用戶(hù)自行輸入的信息,這就引發(fā)了一些問(wèn)題,當(dāng)用戶(hù)輸入個(gè)人數(shù)據(jù)或商業(yè)秘密等信息時(shí),ChatGPT將其納入自身的語(yǔ)料庫(kù)而產(chǎn)生泄露個(gè)人隱私及商業(yè)秘密的風(fēng)險(xiǎn)。雖然ChatGPT承諾刪除所有個(gè)人身份信息,但未說(shuō)明篩查、刪除或屏蔽方式,未精細(xì)匿名化處理可識(shí)別的自然人的相關(guān)信息,也不能完全判斷商業(yè)信息是公開(kāi)信息還是非公開(kāi)信息,這類(lèi)信息仍然具有泄露風(fēng)險(xiǎn)。
另外,如果C h a t G P T挖掘的數(shù)據(jù)信息是不準(zhǔn)確的,甚至有不法分子惡意訓(xùn)練人工智能,使其提供詐騙信息、釣魚(yú)網(wǎng)站等內(nèi)容,需要一定的專(zhuān)業(yè)知識(shí)才能辨別真?zhèn)畏丛p,這類(lèi)辨別與反詐等安全監(jiān)管系統(tǒng)有漏洞的,很可能有損害公民、企業(yè)人身、財(cái)產(chǎn)安全。這需要ChatGPT或其他AI系統(tǒng)加強(qiáng)監(jiān)管安全方面的處理,對(duì)生成疑似違法信息時(shí)進(jìn)行攔截或提示用戶(hù)存在安全風(fēng)險(xiǎn)。
山寨ChatGPT亂相迭生
不少商家也瞅準(zhǔn)大「商機(jī)」,亂搶「一杯羹」。有媒體就提醒,中國(guó)迅速出現(xiàn)了一批名字中包含「ChatGPT」的微信公眾號(hào)、小程序產(chǎn)品,這些產(chǎn)品的服務(wù)方式大多先讓你免費(fèi)試用,次數(shù)用盡,就開(kāi)始按使用條數(shù)或者時(shí)間收取費(fèi)用,而且往往「一經(jīng)購(gòu)買(mǎi),概不退換」。
這種山寨ChatGPT費(fèi)用一點(diǎn)不便宜,OpenAI為每個(gè)注冊(cè)賬號(hào)提供18美元額度,可以供用戶(hù)與ChatGPT進(jìn)行大約3600次對(duì)話(huà);而在一些山寨公司的服務(wù)中,免費(fèi)對(duì)話(huà)僅4次,當(dāng)免費(fèi)的對(duì)話(huà)次數(shù)額度用盡後,系統(tǒng)就提示需充值額度後才可繼續(xù)使用,充值額度分為9.99元20次、199.99元3000次等,最高檔為999.99元無(wú)限次對(duì)話(huà)額度,有效期一年需要支付。而該些服務(wù)賬號(hào)中,有點(diǎn)良心的,是讓用戶(hù)通過(guò)直聯(lián)OpenAI的接口所獲得服務(wù),沒(méi)良心的,壓根貨不對(duì)板,使用的是其他開(kāi)發(fā)的仿制對(duì)話(huà)模型,往往存在回復(fù)延遲較長(zhǎng)、內(nèi)容出現(xiàn)低級(jí)錯(cuò)誤等問(wèn)題,屬於完全的山寨,購(gòu)買(mǎi)這類(lèi)產(chǎn)品的用戶(hù)就是上當(dāng)受騙。
社會(huì)與國(guó)家安全問(wèn)題
前面已述不法分子可以訓(xùn)練ChatGPT進(jìn)行詐騙犯罪活動(dòng),同樣也可以在使用者失去自行查閱不同搜索結(jié)果並自行判斷的機(jī)會(huì)時(shí),可以通過(guò)訓(xùn)練ChatGPT實(shí)現(xiàn)信息與答案的相對(duì)壟斷,ChatGPT便容易成為輿情的操縱工具?,F(xiàn)網(wǎng)絡(luò)犯罪分子已經(jīng)在嘗試使用ChatGPT創(chuàng)建惡意軟件,雖然黑客攻擊通常需要高水平的編程知識(shí),但ChatGPT提供了廉價(jià)幫助。
中國(guó)2022年出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中明確要求,人工智能的算法應(yīng)當(dāng)堅(jiān)持社會(huì)主義主流價(jià)值觀,不能利用算法危害國(guó)家安全和社會(huì)公共利益、擾亂經(jīng)濟(jì)秩序和社會(huì)秩序、侵犯他人合法權(quán)益。今年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中明確,任何組織和個(gè)人不得利用深度合成服務(wù)制作、複制、發(fā)佈、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務(wù)從事危害國(guó)家安全和利益、損害國(guó)家形象、侵害社會(huì)公共利益、擾亂經(jīng)濟(jì)和社會(huì)秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動(dòng)。
為了國(guó)家與社會(huì)安全,為了合法財(cái)產(chǎn)安全,對(duì)人工智能監(jiān)管,需要深入人工智能系統(tǒng)整個(gè)生命周期的每個(gè)具體環(huán)節(jié),貫穿在模型的建立、語(yǔ)料庫(kù)的標(biāo)注、模型訓(xùn)練、投放市場(chǎng)後的迭代優(yōu)化中。此外,還包括語(yǔ)料庫(kù)的篩選標(biāo)準(zhǔn)、參與人工監(jiān)察的人員培訓(xùn)規(guī)程的制定,還需要加強(qiáng)對(duì)人工智能的倫理規(guī)制,積極引導(dǎo)對(duì)價(jià)值觀、道德觀負(fù)責(zé)任的人工智能研發(fā)與應(yīng)用活動(dòng),促進(jìn)人工智能健康發(fā)展。