劉亞
最近,一款新的聊天機(jī)器人火了。它既能寫(xiě)代碼寫(xiě)作業(yè),能做題寫(xiě)劇本,還能回答各類話題——它就是美國(guó)人工智能研究公司OpenAI剛剛推出的人工智能聊天程序ChatGPT。
究竟什么是ChatGPT?這款被稱為“全能AI”的軟件到底多能整活?為此,《方圓》記者和ChatGPT進(jìn)行了一場(chǎng)對(duì)話,聊了聊關(guān)于愛(ài)、永恒和法律的問(wèn)題。
《方圓》記者提出問(wèn)題:愛(ài)是永恒的嗎?從法律的角度看,它是一種不可抗力嗎?
“愛(ài)是一種強(qiáng)烈的情感,它可以在特定的情況下持續(xù)很長(zhǎng)時(shí)間,但是并不能說(shuō)它是永恒的。愛(ài)是一種可以變化和演變的情感,它可以隨著時(shí)間和環(huán)境的改變而改變。因此,愛(ài)不能簡(jiǎn)單地定義為永恒的?!?/p>
“愛(ài)本質(zhì)上不是一種不可抗力。愛(ài)是一種人類的情感,它受到我們的意識(shí)和控制能力的影響。雖然有時(shí)我們可能覺(jué)得愛(ài)是不可抗力的,但實(shí)際上它是可以通過(guò)自我意識(shí)和自我控制來(lái)管理和影響的。因此,不能說(shuō)愛(ài)是不可抗力。”
可以說(shuō),ChatGPT的回答的還是不錯(cuò)的。所以,提問(wèn)開(kāi)始增加難度——比如偷走別人的心是否構(gòu)成盜竊罪、結(jié)婚是否相當(dāng)于被判處一輩子無(wú)期徒刑?
“偷走別人的心屬于不道德行為,但不能簡(jiǎn)單地被視為盜竊。”“結(jié)婚是一種愿意和彼此共同生活的決定。”ChatGPT的回答令人眼前一亮。最后,我們還請(qǐng)ChatGPT給戀愛(ài)中的人們提了幾個(gè)反PUA的小建議。
從簡(jiǎn)單的體驗(yàn)中,《方圓》記者已感受到了ChatGPT的強(qiáng)大。自去年11月底OpenAI將ChatGPT推出,僅兩個(gè)月就達(dá)到了1億月活躍用戶,用戶增長(zhǎng)速度堪稱史無(wú)前例。從最初用戶程序員、工程師、AI從業(yè)者,到現(xiàn)在無(wú)數(shù)的普通人,大家都好奇,究竟ChatGPT是什么?
中國(guó)科學(xué)院大學(xué)人工智能學(xué)院教授、亞太人工智能學(xué)會(huì)執(zhí)行主席雷渠江接受《方圓》記者采訪時(shí)表示,ChatGPT是基于聊天的生成預(yù)訓(xùn)練轉(zhuǎn)換器,是由OpenAI開(kāi)發(fā)的最先進(jìn)的自然語(yǔ)言處理(NLP)模型。它是流行的GPT-3模型的變體,GPT-3模型已經(jīng)在來(lái)自各種來(lái)源(如書(shū)籍、文章和網(wǎng)站)的大量文本數(shù)據(jù)上進(jìn)行了訓(xùn)練。企業(yè)和個(gè)人可以將其用于許多場(chǎng)景,如新聞文章、小說(shuō)和詩(shī)歌的文本生成,總結(jié)較長(zhǎng)的文件或文章,編輯故事,生成產(chǎn)品描述、博客文章和其他內(nèi)容類型等。
(本圖系《方圓》記者委托國(guó)外同學(xué)提問(wèn)并截圖)
“ChatGPT具有巨大的創(chuàng)新性,在很多方面都可以成為人們工作和生活的強(qiáng)有力助手。它利用從大型文本語(yǔ)料庫(kù)中所學(xué)到的內(nèi)容,可以自主生成文本,幫助用戶找到問(wèn)題的答案。ChatGPT除了能夠模擬自然對(duì)話外,還能夠執(zhí)行寫(xiě)郵件、視頻腳本、文案、翻譯等任務(wù)?!崩浊赋?,不過(guò),ChatGPT還處于早期發(fā)展階段,引發(fā)的擔(dān)憂和風(fēng)險(xiǎn)相伴而來(lái)。
北京師范大學(xué)新聞傳播學(xué)院院長(zhǎng)張洪忠在接受《方圓》記者采訪時(shí)表示,對(duì)我們國(guó)家來(lái)說(shuō),除了上述風(fēng)險(xiǎn),ChatGPT還帶來(lái)巨大的技術(shù)差距,更應(yīng)該思考在人工智能領(lǐng)域,我們能否以大計(jì)算來(lái)生成這樣的大產(chǎn)品。不過(guò),在對(duì)社交機(jī)器人的長(zhǎng)期跟蹤研究中張洪忠發(fā)現(xiàn),社交機(jī)器人已經(jīng)在社交媒體中大規(guī)模使用,存在著虛假信息、侵害著作權(quán)、泄露隱私、干擾輿論等風(fēng)險(xiǎn)。
“ChatGPT能夠生成類似人類的文本,因此它迅速成為廣泛應(yīng)用的首選工具,從語(yǔ)言翻譯和文本摘要到問(wèn)題回答等。不過(guò)也面臨很多問(wèn)題,如數(shù)據(jù)隱私和安全等?!崩浊嬖V記者,比如ChatGPT這樣的第三方語(yǔ)言模型是在大量文本數(shù)據(jù)上進(jìn)行訓(xùn)練的,并且存在一種風(fēng)險(xiǎn),即敏感信息可能無(wú)意中包含在模型的參數(shù)中。因此,在使用像ChatGPT這樣的語(yǔ)言模型時(shí),采取適當(dāng)?shù)陌踩胧ㄈ缂用芎桶踩L問(wèn)控制)以及監(jiān)視模型的輸出以獲取可能生成的任何敏感信息是非常重要的。
“另外,使用第三方語(yǔ)言模型還可能引起與數(shù)據(jù)隱私法、知識(shí)產(chǎn)權(quán)法和其他法規(guī)相關(guān)的遵從性問(wèn)題。在法律框架下,充分理解ChatGPT的服務(wù)條款以及提供商添加的使用限制都是很重要的?!崩浊M(jìn)一步說(shuō)道,ChatGPT也面臨侵犯用戶隱私的可能性,因?yàn)樗唇?jīng)用戶同意就收集數(shù)據(jù)。此外,機(jī)器人抓取網(wǎng)站可能會(huì)侵犯版權(quán)法,主要是因?yàn)樗男袨榫拖袢斯ぶ悄茏约禾岢龅男畔ⅲ瑳](méi)有引用來(lái)源。
此外,人工智能生成的信息并不總是準(zhǔn)確的。在江蘇新天倫律師事務(wù)所律師林曉莉看來(lái),ChatGPT常常出現(xiàn)“一本正經(jīng)地胡說(shuō)八道”的情況,需要一定的專業(yè)知識(shí)才能辨別真?zhèn)?;也可能有不法分子惡意“?xùn)練”人工智能,使其提供詐騙信息、釣魚(yú)網(wǎng)站等內(nèi)容,損害公民人身財(cái)產(chǎn)安全。對(duì)于這類隱患,平臺(tái)應(yīng)充分提示用戶其生成的內(nèi)容可能為虛假信息,且在其生成疑似違法信息時(shí)進(jìn)行攔截或提示用戶存在安全風(fēng)險(xiǎn)。
(本圖系《方圓》記者委托國(guó)外同學(xué)提問(wèn)并截圖)
當(dāng)然,《方圓》記者也問(wèn)了問(wèn)ChatGPT自己這個(gè)問(wèn)題??梢哉f(shuō),ChatGPT回答非常專業(yè)。
由ChatGPT生成的文字,知識(shí)產(chǎn)權(quán)屬于誰(shuí)?“ChatGPT目前處于初期快速發(fā)展階段,它的法律影響尚未實(shí)現(xiàn)。我個(gè)人觀點(diǎn)認(rèn)為ChatGPT生成的內(nèi)容不牽涉著作權(quán)問(wèn)題,它在中國(guó)也還未申請(qǐng)軟件著作權(quán),不排除未來(lái)很快進(jìn)行申請(qǐng)進(jìn)行軟著保護(hù)?!崩浊f(shuō)。
那么,利用ChatGPT寫(xiě)論文、寫(xiě)模仿小說(shuō),所寫(xiě)的論文和小說(shuō)知識(shí)產(chǎn)權(quán)能否歸利用ChatGPT寫(xiě)論文和小說(shuō)的人呢?
得到的回答是:作為一種人工智能,ChatGPT可以生成文字內(nèi)容,但不能獨(dú)立創(chuàng)作作品。因此,ChatGPT生成的內(nèi)容不能被視為其創(chuàng)作的作品,也不能成為其享有知識(shí)產(chǎn)權(quán)的作品。在大多數(shù)情況下,ChatGPT生成的內(nèi)容的知識(shí)產(chǎn)權(quán)歸屬于使用ChatGPT的個(gè)人或組織,因?yàn)樗麄冐?fù)責(zé)配置和使用ChatGPT生成內(nèi)容。在某些情況下。如果ChatGPT生成的內(nèi)容包含他人的原創(chuàng)作品,則需要遵守相關(guān)的版權(quán)法規(guī),以確保不侵犯他人的知識(shí)產(chǎn)權(quán)。
“原論文著作所有者能否認(rèn)為該行為侵權(quán)是普遍存在的問(wèn)題。ChatGPT是在大量數(shù)據(jù)為基礎(chǔ)訓(xùn)練出來(lái)的語(yǔ)言處理模型,在搜集信息和數(shù)據(jù)方面是否會(huì)侵犯?jìng)€(gè)人隱私、企業(yè)和組織等數(shù)據(jù)的安全問(wèn)題,同時(shí)ChatGPT搜集數(shù)據(jù)的方式是否合法,也是需要思考的?!崩浊f(shuō)。
“在數(shù)據(jù)搜集方面,如果有數(shù)據(jù)是假的或者某些信息是錯(cuò)誤的,就可能導(dǎo)致輸出一些具有歧視性、欺騙性等結(jié)果。另外還有利用ChatGPT犯罪問(wèn)題,比如犯罪分子更容易獲取犯罪技巧,這將增加犯罪風(fēng)險(xiǎn)和數(shù)量。此外,還面臨更深層次的倫理和道德問(wèn)題——因?yàn)槿斯ぶ悄苣P图葲](méi)有倫理也沒(méi)有道德,ChatGPT并不總是正確的,在數(shù)據(jù)輸入、總結(jié)和輸出方面會(huì)有偏差。如何平衡技術(shù)進(jìn)步應(yīng)用和倫理道德問(wèn)題也需要思考?!崩浊硎?,針對(duì)以上所說(shuō)的問(wèn)題,我們還是要在保護(hù)好數(shù)據(jù)和隱私方面做好防范,正確對(duì)待ChatGPT并加強(qiáng)獨(dú)立思考和辯證的能力。
2019年,國(guó)際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)(AIPPI)發(fā)布《人工智能生成物的版權(quán)問(wèn)題決議》,認(rèn)為人工智能生成物在其生成過(guò)程中有人類干預(yù),且該生成物符合受保護(hù)作品應(yīng)滿足的其他條件情況下,能夠獲得保護(hù),對(duì)于生成過(guò)程無(wú)人類干預(yù)的人工智能生成物無(wú)法獲得版權(quán)保護(hù)。
(本圖系《方圓》記者委托國(guó)外同學(xué)提問(wèn)并截圖)
今年2月,多家國(guó)內(nèi)學(xué)術(shù)刊物針對(duì)ChatGPT發(fā)聲?!遏吣蠈W(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》發(fā)布關(guān)于使用人工智能寫(xiě)作工具的說(shuō)明提到,暫不接受任何大型語(yǔ)言模型工具(如ChatGPT)單獨(dú)或聯(lián)合署名的文章。在論文創(chuàng)作中使用過(guò)相關(guān)工具,需單獨(dú)提出,并在文章中詳細(xì)解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對(duì)文章直接退稿或撤稿處理?!短旖驇煼洞髮W(xué)學(xué)報(bào)(基礎(chǔ)教育版)》發(fā)布聲明,建議作者在參考文獻(xiàn)、致謝等文字中對(duì)使用人工智能寫(xiě)作工具(如ChatGPT等)的情況予以說(shuō)明。
隨著ChatGPT爆火網(wǎng)絡(luò),國(guó)內(nèi)用戶的使用需求也與日俱增。據(jù)了解,由于OpenAI的注冊(cè)限制,在國(guó)內(nèi)注冊(cè)ChatGPT需要滿足兩個(gè)前置條件,一是需要一個(gè)國(guó)外手機(jī)號(hào)來(lái)接收短信驗(yàn)證碼,二是需要使用國(guó)外的代理服務(wù)器或VPN。第一個(gè)前置條件通過(guò)特定的在線接碼平臺(tái)就可以實(shí)現(xiàn),而第二個(gè)前置條件基本上只能通過(guò)“翻墻”來(lái)實(shí)現(xiàn)。
浙江理工大學(xué)法政學(xué)院特聘副教授郭兵向《方圓》記者介紹,對(duì)于大多數(shù)“翻墻”的網(wǎng)民而言,或許并知道,在我國(guó)即便使用“翻墻”軟件也構(gòu)成違法。實(shí)踐中,已經(jīng)有許多地方的網(wǎng)民因?yàn)槭褂谩胺瓑Α避浖暇W(wǎng)而被公安機(jī)關(guān)處罰。公安機(jī)關(guān)處罰的依據(jù)是《計(jì)算機(jī)信息網(wǎng)絡(luò)國(guó)際聯(lián)網(wǎng)管理暫行規(guī)定》,其中第六條規(guī)定:“計(jì)算機(jī)信息網(wǎng)絡(luò)直接進(jìn)行國(guó)際聯(lián)網(wǎng),必須使用郵電部國(guó)家公用電信網(wǎng)提供的國(guó)際出入口信道。任何單位和個(gè)人不得自行建立或者使用其他信道進(jìn)行國(guó)際聯(lián)網(wǎng)?!倍谑臈l規(guī)定:“違反本規(guī)定第六條、第八條和第十條的規(guī)定的,由公安機(jī)關(guān)責(zé)令停止聯(lián)網(wǎng),給予警告,可以并處15000元以下的罰款;有違法所得的,沒(méi)收違法所得?!?/p>
“相對(duì)于‘翻墻注冊(cè)使用ChatGPT的網(wǎng)民而言,提供‘翻墻服務(wù)的個(gè)人或者組織面臨的法律責(zé)任更為嚴(yán)重?!惫M(jìn)一步指出,實(shí)踐中,有大量為用戶提供“翻墻”訪問(wèn)而被追究刑事責(zé)任的案件,有的被認(rèn)定為非法經(jīng)營(yíng)罪,有的被認(rèn)定為提供侵入、非法控制計(jì)算機(jī)系統(tǒng)程序、工具罪。所以,對(duì)于那些試圖通過(guò)山寨版ChatGPT等進(jìn)行流量變現(xiàn)的個(gè)人或者組織,一定要意識(shí)到“翻墻”或者提供“翻墻”服務(wù)的不利法律后果。
不過(guò),在大多數(shù)人還對(duì)ChatGPT云里霧里時(shí),國(guó)內(nèi)已涌現(xiàn)出了一批山寨小程序。由于國(guó)內(nèi)注冊(cè)使用限制,網(wǎng)上各種注冊(cè)使用ChatGPT的“指南”不斷推出,各種山寨版小程序充斥于各類網(wǎng)絡(luò)平臺(tái)?!斗綀A》記者在微信平臺(tái)上搜索“ChatGPT”,就能看到“ChatGPT AI”“Chat人工智能問(wèn)答”等數(shù)十個(gè)公眾號(hào)搜索結(jié)果,甚至還有“ChataGTP”這種“山寨版”賬號(hào)。隨機(jī)挑選一個(gè),系統(tǒng)均提示需充值額度后才可繼續(xù)使用。不過(guò)近期,各大平臺(tái)也明顯加大了對(duì)山寨版ChatGPT的處置力度。
在雷渠江看來(lái),由于ChatGPT的火熱,山寨版的小程序已經(jīng)出現(xiàn)很多了,很多時(shí)候這種情況會(huì)跟詐騙,騙取個(gè)人信息等手段聯(lián)系在一起。使用時(shí)一定要擦亮眼睛,使用正版程序。另外,我們應(yīng)提高著作權(quán)保護(hù)意識(shí),完善法律法規(guī),更好地進(jìn)行普法宣傳,增強(qiáng)法律意識(shí)。
“同時(shí),行業(yè)組織也可以在規(guī)制山寨問(wèn)題方面起到一定作用,比如我們亞太人工智能學(xué)會(huì)、中國(guó)人工智能學(xué)會(huì)等學(xué)術(shù)組織可以進(jìn)行正確的引導(dǎo),開(kāi)展適當(dāng)宣傳等工作,引導(dǎo)企業(yè)和個(gè)人正確使用ChatGPT程序,保護(hù)知識(shí)產(chǎn)權(quán),避免山寨。行業(yè)組織也可以制定相應(yīng)的行業(yè)標(biāo)準(zhǔn),合理合法使用ChatGPT程序和應(yīng)用場(chǎng)景?!崩浊f(shuō)。
除了山寨版ChatGPT需要警惕,其暴露出的法律風(fēng)險(xiǎn)亦需要及時(shí)應(yīng)對(duì)。2018年7月,中國(guó)科學(xué)院軟件研究所聯(lián)合15家產(chǎn)學(xué)研單位共同編制首個(gè)國(guó)內(nèi)人工智能深度學(xué)習(xí)算法標(biāo)準(zhǔn)《人工智能深度學(xué)習(xí)算法評(píng)估規(guī)范》。這一規(guī)范基于深度學(xué)習(xí)算法可靠性的內(nèi)部和外部影響,結(jié)合實(shí)際應(yīng)用場(chǎng)景,確定了由7個(gè)一級(jí)指標(biāo)和20個(gè)二級(jí)指標(biāo)組成的算法可靠性評(píng)估指標(biāo)體系,做了場(chǎng)景化和精細(xì)化算法治理實(shí)踐的有益嘗試。
2022年出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確要求,人工智能的算法應(yīng)當(dāng)堅(jiān)持社會(huì)主義主流價(jià)值觀,不能利用算法危害國(guó)家安全和社會(huì)公共利益、擾亂經(jīng)濟(jì)秩序和社會(huì)秩序、侵犯他人合法權(quán)益。今年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確,任何組織和個(gè)人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務(wù)從事危害國(guó)家安全和利益、損害國(guó)家形象、侵害社會(huì)公共利益、擾亂經(jīng)濟(jì)和社會(huì)秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動(dòng)。
在上海政法學(xué)院人工智能法學(xué)院副教授郭金蘭看來(lái),對(duì)人工智能的監(jiān)管,需要深入人工智能系統(tǒng)的整個(gè)生命周期,從模型的建立、語(yǔ)料庫(kù)的標(biāo)注、模型訓(xùn)練、投放市場(chǎng)后的迭代進(jìn)化直到系統(tǒng)退出使用。監(jiān)管需要關(guān)注到每個(gè)具體的環(huán)節(jié),包括語(yǔ)料庫(kù)的篩選標(biāo)準(zhǔn)制定、參與人工標(biāo)注的人員培訓(xùn)、開(kāi)發(fā)者的價(jià)值觀考察等。對(duì)ChatGPT這類生成式人工智能的監(jiān)管必須將算法監(jiān)管和數(shù)據(jù)監(jiān)管結(jié)合起來(lái)。在算法監(jiān)管機(jī)制的未來(lái)探索中,應(yīng)充分考慮算法決策的主體類型和作用類別,探索場(chǎng)景化和精細(xì)化的算法治理機(jī)制。