陳思敏
(海南大學(xué) 法學(xué)院,海南 ???570228)
2022年,美國開放人工智能研究中心(以下簡稱Open AI公司)推出了一款新產(chǎn)品——ChatGPT。這款智能聊天機(jī)器人相較于以往的產(chǎn)品,擁有更強(qiáng)的算力,具備深度學(xué)習(xí)的能力,能夠在沒有人為因素介入的情況下不斷進(jìn)行優(yōu)化,從而更準(zhǔn)確地回答用戶所提出的問題,受到廣大用戶的喜愛。ChatGPT在推出后的兩周內(nèi),用戶數(shù)量便超過百萬。根據(jù)瑞銀集團(tuán)報(bào)告顯示,在2023年1月ChatGPT達(dá)到了1億用戶,在兩個(gè)月內(nèi)完成了TikTok大約九個(gè)月才完成的用戶增長。
隨著ChatGPT的爆火,人們逐漸開始關(guān)注其背后存在的法律風(fēng)險(xiǎn)。由于ChatGPT生成的內(nèi)容可能侵犯他人隱私權(quán)、名譽(yù)權(quán)和著作權(quán)等權(quán)利,導(dǎo)致個(gè)人信息泄露、名譽(yù)受損、著作人身權(quán)和財(cái)產(chǎn)權(quán)受到損害。然而,由于現(xiàn)行法律并未就人工智能侵權(quán)作專門性規(guī)定,ChatGPT侵權(quán)責(zé)任問題難以適用傳統(tǒng)侵權(quán)責(zé)任制度予以解決,給侵權(quán)責(zé)任制度帶來了侵權(quán)責(zé)任主體難以確定、歸責(zé)原則存在爭議、因果關(guān)系難以認(rèn)定等一系列挑戰(zhàn)?;诜傻姆€(wěn)定性和謙抑性要求,本文欲在現(xiàn)行法律的框架下積極應(yīng)對(duì)ChatGPT給侵權(quán)責(zé)任制度帶來的挑戰(zhàn),明確侵權(quán)責(zé)任主體,區(qū)別適用歸責(zé)原則,并就因果關(guān)系的查明提出可行性解決方案。
人工智能的核心是算法,而數(shù)據(jù)則是基礎(chǔ)要素[1]。在ChatGPT的預(yù)先訓(xùn)練階段,Open AI公司向ChatGPT的數(shù)據(jù)系統(tǒng)投入大量文本,其中大部分?jǐn)?shù)據(jù)來自互聯(lián)網(wǎng),這為泄露個(gè)人信息、侵犯隱私權(quán)埋下隱患。隨著互聯(lián)網(wǎng)迅猛發(fā)展,現(xiàn)代社會(huì)進(jìn)入了大數(shù)據(jù)時(shí)代,為了更好地享受大數(shù)據(jù)時(shí)代帶來的便利,網(wǎng)絡(luò)用戶部分或者全部在互聯(lián)網(wǎng)上提供各類個(gè)人信息。例如,購物APP上搜索的商品信息、外賣軟件上填寫的收獲地址和聯(lián)系電話、微博發(fā)布的個(gè)人動(dòng)態(tài)以及瀏覽器記錄的檢索歷史等,都可能泄露個(gè)人的喜好、家庭住址、聯(lián)系方式、生活近況等個(gè)人信息。由于互聯(lián)網(wǎng)具有十分便捷的數(shù)據(jù)分享、復(fù)制和轉(zhuǎn)存的特點(diǎn),即使最初的數(shù)據(jù)占有者已經(jīng)刪除了相關(guān)信息,這些信息仍可能存在于浩瀚的虛擬網(wǎng)絡(luò)空間中[2]。此外,在ChatGPT的應(yīng)用過程中,其數(shù)據(jù)系統(tǒng)會(huì)時(shí)刻收集用戶的個(gè)人信息,為ChatGPT進(jìn)行深度學(xué)習(xí)和即時(shí)學(xué)習(xí)提供“數(shù)據(jù)養(yǎng)料”??傊?,ChatGPT智能系統(tǒng)儲(chǔ)存著海量個(gè)人信息,假若ChatGPT被人惡意使用,極易泄露個(gè)人信息,致使隱私權(quán)遭受損害。
ChatGPT生成內(nèi)容存在侵犯名譽(yù)權(quán)的風(fēng)險(xiǎn)。名譽(yù)是對(duì)民事主體的品德、聲望、才能、信用等的社會(huì)評(píng)價(jià)。名譽(yù)直接關(guān)涉民事主體的社會(huì)地位和人格尊嚴(yán),損害一個(gè)人的名譽(yù)實(shí)際上就是毀壞了其在社會(huì)關(guān)系網(wǎng)絡(luò)中的原有地位[3]。根據(jù)美國??怂剐侣劸W(wǎng)報(bào)道,華盛頓大學(xué)的法學(xué)教授喬納森·特利因ChatGPT生成的“對(duì)某人進(jìn)行過性騷擾的法律學(xué)者”名單,被莫名其妙地列為騷擾者。更令人難以置信的是,ChatGPT甚至給出錯(cuò)誤的信息來源,稱《華盛頓郵報(bào)》在其2018年發(fā)表的一篇報(bào)道中指出,特利被指控在一次去阿拉斯加的旅行中對(duì)法律系學(xué)生動(dòng)手動(dòng)腳??墒牵乩麖奈春蛯W(xué)生一起去過阿拉斯加,《華盛頓郵報(bào)》也從未發(fā)表過這篇文章。ChatGPT將特利教授認(rèn)定為性騷擾者的虛假事實(shí),若不及時(shí)加以制止而任由錯(cuò)誤事實(shí)繼續(xù)傳播,將會(huì)降低公眾對(duì)特利教授的社會(huì)評(píng)價(jià),侵犯其人格尊嚴(yán),構(gòu)成對(duì)其名譽(yù)權(quán)的侵害。
相較于無人駕駛汽車、智能醫(yī)療機(jī)器人等人工智能產(chǎn)品可能對(duì)人類的生命、身體與健康造成的危害,生成式人工智能對(duì)著作權(quán)的潛在損害尚未引起足夠關(guān)注。人工智能是以數(shù)據(jù)和信息分析為基礎(chǔ)的技術(shù),而享有版權(quán)的作品則是具有獨(dú)創(chuàng)性的信息表達(dá)或組織方式,因此人工智能在運(yùn)行過程中存在一定的版權(quán)侵權(quán)風(fēng)險(xiǎn)[4]。ChatGPT是以大量的文字語料為基礎(chǔ)訓(xùn)練其語言模型,經(jīng)過深度學(xué)習(xí),對(duì)原始文本進(jìn)行摘取、分析、梳理和整合,從而生成新的文本,在這一過程中ChatGPT對(duì)原始作品著作權(quán)的侵權(quán)風(fēng)險(xiǎn)是客觀存在的。
以復(fù)制權(quán)為例。一方面,受到著作權(quán)保護(hù)但未經(jīng)著作權(quán)人同意的文本作品存入ChatGPT的數(shù)據(jù)系統(tǒng)就屬于對(duì)作品的復(fù)制;另一方面,ChatGPT基于數(shù)據(jù)系統(tǒng)中的文本作品而生成新的文本內(nèi)容,屬于對(duì)已有文本的復(fù)制行為。一旦輸入的數(shù)據(jù)納入版權(quán)保護(hù)范疇,人工智能深度學(xué)習(xí)就不可避免地與著作權(quán)人的經(jīng)濟(jì)權(quán)利(其中包括復(fù)制權(quán))產(chǎn)生沖突[5]。如果ChatGPT數(shù)據(jù)系統(tǒng)的原始文本資料未經(jīng)著作權(quán)人同意,那么所生成的內(nèi)容可能侵犯原始文本的復(fù)制權(quán)。
當(dāng)人工智能致人損害時(shí),受害者應(yīng)當(dāng)向哪一方主體尋求損害賠償,這是學(xué)界正在激烈討論的話題。有學(xué)者提議,賦予人工智能民事主體資格,由人工智能作為侵權(quán)責(zé)任主體對(duì)其造成的損害獨(dú)立承擔(dān)侵權(quán)責(zé)任,并建立相應(yīng)基金賬戶,當(dāng)人工智能給他人造成損害時(shí),優(yōu)先以賬戶資金進(jìn)行賠付[6]。然而,人工智能無法以自己名義從事民事活動(dòng),其不具有獨(dú)立自主意識(shí),不享有獨(dú)立財(cái)產(chǎn),無法獨(dú)立對(duì)外承擔(dān)民事責(zé)任,不滿足民事主體的各個(gè)構(gòu)成要件;并且基金賬戶的設(shè)立基金也是來源于人類,實(shí)際承擔(dān)侵權(quán)責(zé)任的主體仍為人類自身。由人工智能承擔(dān)侵權(quán)責(zé)任并無實(shí)質(zhì)意義,該方案不具備可行性。
在法律不承認(rèn)人工智能民事主體資格的前提下,應(yīng)當(dāng)從與ChatGPT有關(guān)聯(lián)關(guān)系的主體中確定ChatGPT侵權(quán)的責(zé)任主體。ChatGPT從開始設(shè)計(jì)到投入使用的過程中涉及多方主體,包括數(shù)據(jù)提供者、算法設(shè)計(jì)者、生產(chǎn)者、使用者以及網(wǎng)絡(luò)入侵者等,相關(guān)主體的多元化給侵權(quán)責(zé)任主體的認(rèn)定帶來一定的挑戰(zhàn)。以ChatGPT侵犯隱私權(quán)為例,受害者為了保證自身損害得到彌補(bǔ),可能要求ChatGPT的數(shù)據(jù)提供者、算法設(shè)計(jì)者、生產(chǎn)者,甚至網(wǎng)絡(luò)入侵者共同對(duì)損害事實(shí)承擔(dān)民事責(zé)任。但是,數(shù)據(jù)提供者可能會(huì)以數(shù)據(jù)的提供與隱私信息的泄露并無直接關(guān)系為由拒絕承擔(dān)責(zé)任;算法設(shè)計(jì)者可能主張生成內(nèi)容是ChatGPT自主學(xué)習(xí)的結(jié)果,是ChatGPT設(shè)計(jì)當(dāng)時(shí)的技術(shù)水平所無法察覺的,以此作為抗辯事由拒絕承擔(dān)責(zé)任;生產(chǎn)者可能會(huì)根據(jù)一般侵權(quán)責(zé)任條款,主張自身不存在主觀過錯(cuò)而拒絕承擔(dān)責(zé)任。由此可見,在法律層面未對(duì)人工智能的責(zé)任主體作出明確規(guī)定的情形下,相關(guān)主體均能以不同抗辯事由拒絕承擔(dān)責(zé)任,從而造成責(zé)任主體無法明確,進(jìn)而導(dǎo)致?lián)p害得不到救濟(jì),受害者的合法權(quán)益得不到保障,這違背了公平正義的價(jià)值追求。
歸責(zé)原則被認(rèn)為是民事責(zé)任理論的核心,是確定行為人承擔(dān)民事責(zé)任的依據(jù)[7]。根據(jù)《中華人民共和國民法典》的規(guī)定,歸責(zé)原則體系由過錯(cuò)責(zé)任原則、無過錯(cuò)責(zé)任原則和公平責(zé)任原則構(gòu)建而成。其中,過錯(cuò)原則是侵權(quán)責(zé)任法歸責(zé)原則體系中的主體,無過錯(cuò)責(zé)任原則是過錯(cuò)責(zé)任原則的補(bǔ)充[8]。在法律沒有明確規(guī)定適用無過錯(cuò)責(zé)任原則的情況下,應(yīng)當(dāng)適用過錯(cuò)責(zé)任原則,故按照現(xiàn)行法律的規(guī)定,ChatGPT侵權(quán)責(zé)任應(yīng)適用過錯(cuò)責(zé)任原則予以認(rèn)定。
然而,過錯(cuò)責(zé)任的判定一般以侵權(quán)人在主觀上“應(yīng)知”或“明知”的注意義務(wù)為準(zhǔn)。ChatGPT生成內(nèi)容的產(chǎn)生是基于算法的運(yùn)行而作出的指令性操作,并非人類直接操縱與控制的結(jié)果,故不存在主觀上的“應(yīng)知”或者“明知”[9]。若將過錯(cuò)責(zé)任原則適用于ChatGPT的使用者,則存在無法解釋之處:ChatGPT的生成結(jié)果是使用者無法預(yù)見和控制的,使用者無法對(duì)ChatGPT的運(yùn)行進(jìn)行干預(yù),使用者不負(fù)有主觀上的注意義務(wù),要求使用者承擔(dān)過錯(cuò)責(zé)任存在不合理性。此外,有學(xué)者從權(quán)利救濟(jì)、風(fēng)險(xiǎn)預(yù)防與分散、交易成本、事實(shí)查明等角度考察人工智能侵權(quán)責(zé)任適用無過錯(cuò)責(zé)任原則的正當(dāng)性[8];也有學(xué)者反對(duì)適用無過錯(cuò)責(zé)任原則,因?yàn)闊o過錯(cuò)責(zé)任原則的適用會(huì)增加人工智能生產(chǎn)者的成本,不利于人工智能技術(shù)的發(fā)展和創(chuàng)新。
侵害行為和損害結(jié)果之間存在因果關(guān)系是認(rèn)定侵權(quán)責(zé)任的關(guān)鍵要素,但智能化算法的決策過程和推演邏輯因“算法黑箱”的存在而無從得知[10]?!八惴ê谙洹笔侵杆惴ㄏ到y(tǒng)猶如一個(gè)“黑箱”,其運(yùn)行過程處于不透明狀態(tài)。由于人工智能ChatGPT設(shè)計(jì)程序的復(fù)雜性和“算法黑箱”的不透明性,侵害他人權(quán)利的生成內(nèi)容是ChatGPT算法設(shè)計(jì)者、生產(chǎn)者造成的技術(shù)漏洞,還是使用者的不當(dāng)使用,或者是ChatGPT自主學(xué)習(xí)的結(jié)果,往往難以查明。此外,在ChatGPT侵權(quán)責(zé)任認(rèn)定過程中,存在兩大難題:一方面,現(xiàn)有的科學(xué)水平難以證明ChatGPT可能存在的缺陷和致人損害之間的因果關(guān)系,有時(shí)僅能證明缺陷與損害之間可能存在某種程度的聯(lián)系;另一方面,受害者遭受損害與ChatGPT可能存在的缺陷之間的因果關(guān)系并不是簡單的一因一果的關(guān)系,往往是多因多果或多因一果,故不能直接得出ChatGPT生成內(nèi)容所造成的損害是ChatGPT存在缺陷所致的結(jié)論。因果關(guān)系的證明本身在民法中就是比較復(fù)雜的問題,而擁有復(fù)雜程序系統(tǒng)和綜合技術(shù)手段的人工智能讓ChatGPT致人損害的因果關(guān)系的證明變得更加復(fù)雜。
盡管人工智能不同于傳統(tǒng)意義上的產(chǎn)品,但仍具有一定的產(chǎn)品屬性。人工智能是由人類制造的物品,是為了滿足人類需要而生產(chǎn)出來的,目的是為參與流通即銷售,因此人工智能符合《中華人民共和國產(chǎn)品質(zhì)量法》第二條規(guī)定的產(chǎn)品要件“經(jīng)過加工、制作”“用于銷售”,仍然屬于產(chǎn)品的范疇[11]。此外,聯(lián)合國教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)于2016年發(fā)布的報(bào)告認(rèn)為:智能機(jī)器(人)是制造者生產(chǎn)的科技產(chǎn)品,能夠通過民法中的產(chǎn)品責(zé)任規(guī)則予以調(diào)整[12]。因此,ChatGPT侵權(quán)責(zé)任規(guī)則應(yīng)當(dāng)在產(chǎn)品責(zé)任制度的基礎(chǔ)上進(jìn)行構(gòu)建與完善,并適當(dāng)擴(kuò)展侵權(quán)責(zé)任主體的范圍,區(qū)別適用歸責(zé)原則。要求ChatGPT生產(chǎn)者采取可行性技術(shù)方案,盡可能降低“算法黑箱”帶來的不利影響,為厘清因果關(guān)系提供有效的查明途徑。
ChatGPT致人損害的責(zé)任主體不應(yīng)局限于生產(chǎn)者Open AI公司,還應(yīng)包括ChatGPT的數(shù)據(jù)提供者、算法設(shè)計(jì)者、使用者,以及攻擊ChatGPT智能系統(tǒng)的網(wǎng)絡(luò)入侵者。在認(rèn)定ChatGPT侵權(quán)責(zé)任的主體時(shí),應(yīng)當(dāng)具體問題具體分析,根據(jù)不同侵權(quán)原因?qū)⒇?zé)任歸于相應(yīng)主體。
第一,若ChatGPT侵權(quán)的原因在于數(shù)據(jù)提供者未遵守相關(guān)數(shù)據(jù)保護(hù)規(guī)定致使數(shù)據(jù)存在缺陷的,應(yīng)當(dāng)由數(shù)據(jù)提供者作為侵權(quán)責(zé)任主體,對(duì)數(shù)據(jù)缺陷引起的損害承擔(dān)賠償責(zé)任。數(shù)據(jù)是人工智能必不可少的要素之一,人工智能的決策很大程度上依賴于算法所學(xué)習(xí)的數(shù)據(jù)。若將數(shù)據(jù)缺陷導(dǎo)致的侵權(quán)歸責(zé)于設(shè)計(jì)者或生產(chǎn)者,實(shí)有不妥,故本文建議將數(shù)據(jù)提供者納入ChatGPT侵權(quán)責(zé)任主體的范圍之內(nèi),以保持各主體利益的平衡。
第二,若ChatGPT致害的原因在于ChatGPT智能系統(tǒng)的算法程序存在缺陷,從而導(dǎo)致生成內(nèi)容侵害他人合法權(quán)益的,應(yīng)由ChatGPT的算法設(shè)計(jì)者承擔(dān)侵權(quán)責(zé)任。相對(duì)于傳統(tǒng)的產(chǎn)品而言,人工智能產(chǎn)品的生產(chǎn)者大多與算法設(shè)計(jì)者脫離,其運(yùn)行過程中是由算法設(shè)計(jì)者進(jìn)行支配和控制的,理應(yīng)由其承擔(dān)一定的法律責(zé)任,并承擔(dān)相對(duì)應(yīng)的法律義務(wù)[13]。
第三,若ChatGPT致害事件是ChatGPT的使用者故意錯(cuò)誤使用所導(dǎo)致的,則由使用者承擔(dān)侵權(quán)責(zé)任。使用者因故意不按照操作步驟使用ChatGPT,且ChatGPT對(duì)錯(cuò)誤行為作了應(yīng)有的警示,但使用者未及時(shí)停止錯(cuò)誤行為,最終導(dǎo)致?lián)p害結(jié)果的發(fā)生,根據(jù)責(zé)任自負(fù)原則,由使用者承擔(dān)侵權(quán)責(zé)任。
第四,網(wǎng)絡(luò)入侵者也是導(dǎo)致ChatGPT致人損害的可能責(zé)任主體之一。入侵者對(duì)ChatGPT的系統(tǒng)進(jìn)行攻擊,導(dǎo)致算法出現(xiàn)錯(cuò)誤,在系統(tǒng)發(fā)生紊亂的情形下,ChatGPT無法按照既定算法程序繼續(xù)正常運(yùn)作,最后導(dǎo)致ChatGPT生成內(nèi)容出現(xiàn)嚴(yán)重錯(cuò)誤,損害他人形象。由于ChatGPT生成內(nèi)容的錯(cuò)誤生成主要原因在于入侵者的攻擊行為,故ChatGPT侵權(quán)責(zé)任的承擔(dān)主體是網(wǎng)絡(luò)入侵者。
第五,由生產(chǎn)者Open AI公司作為兜底性的侵權(quán)責(zé)任主體。Open AI公司從ChatGPT的推廣與應(yīng)用中獲得經(jīng)濟(jì)收益,根據(jù)“受益者負(fù)擔(dān)”原則,由生產(chǎn)者Open AI公司對(duì)其他可能的侵權(quán)情形承擔(dān)責(zé)任,以確保受害人的損害得到填補(bǔ)。當(dāng)然,Open AI公司并非對(duì)所有不能由其他責(zé)任主體承擔(dān)責(zé)任的情形負(fù)責(zé),其能夠以免責(zé)事由進(jìn)行抗辯,例如機(jī)器自主學(xué)習(xí)、事故不可解釋性、發(fā)展風(fēng)險(xiǎn)抗辯等免責(zé)事由。
從現(xiàn)有法律出發(fā),根據(jù)人工智能侵權(quán)原因?qū)?yīng)不同責(zé)任主體,結(jié)合每個(gè)責(zé)任主體的特殊性確定歸責(zé)原則,可以減少對(duì)技術(shù)發(fā)展的干涉,同時(shí)保護(hù)受害人權(quán)益[14]。
首先,當(dāng)責(zé)任主體為數(shù)據(jù)提供者和算法設(shè)計(jì)者時(shí),應(yīng)當(dāng)適用過錯(cuò)責(zé)任原則,以主體是否存在主觀過錯(cuò)為判斷標(biāo)準(zhǔn),對(duì)侵權(quán)責(zé)任予以認(rèn)定。具備機(jī)器學(xué)習(xí)功能的人工智能在應(yīng)用中會(huì)不斷地提高自身能力,設(shè)計(jì)者本人也無法知曉其能力能夠達(dá)到何種水平[15]。ChatGPT能夠通過機(jī)器學(xué)習(xí)功能實(shí)現(xiàn)自身智能系統(tǒng)的更新迭代,從而生成設(shè)計(jì)者在設(shè)計(jì)之初未能預(yù)料到的內(nèi)容。若該生成內(nèi)容給他人造成了名譽(yù)權(quán)、著作權(quán)等權(quán)利的損害,依照過錯(cuò)責(zé)任歸責(zé)原則,ChatGPT的算法設(shè)計(jì)者并不存在主觀過錯(cuò),無須對(duì)損害后果承擔(dān)侵權(quán)責(zé)任。
其次,當(dāng)責(zé)任主體為使用者和網(wǎng)絡(luò)入侵者時(shí),同樣適用侵權(quán)責(zé)任的一般規(guī)定,以過錯(cuò)責(zé)任原則對(duì)各自的過錯(cuò)行為所導(dǎo)致的損害后果承擔(dān)責(zé)任。使用者的錯(cuò)誤使用、網(wǎng)絡(luò)入侵者的惡意攻擊行為,均對(duì)損害的發(fā)生持希望或者放任的態(tài)度,主觀上存在可非難性,故要求使用者和入侵者因其過錯(cuò)行為承擔(dān)責(zé)任存在合理性。
最后,作為兜底性責(zé)任主體的生產(chǎn)者Open AI公司,應(yīng)當(dāng)適用無過錯(cuò)責(zé)任原則。根據(jù)產(chǎn)品責(zé)任的規(guī)定,對(duì)生產(chǎn)者的歸責(zé)原則采用無過錯(cuò)責(zé)任原則。所謂生產(chǎn)者產(chǎn)品責(zé)任適用無過錯(cuò)責(zé)任原則,是指只要生產(chǎn)者生產(chǎn)的產(chǎn)品因存在缺陷造成損害,那么無論生產(chǎn)者是否有過錯(cuò),都要承擔(dān)產(chǎn)品責(zé)任??偨Y(jié)而言,當(dāng)ChatGPT侵權(quán)的原因不能歸責(zé)于算法設(shè)計(jì)者、使用者時(shí),則追溯至ChatGPT的產(chǎn)品屬性,要求其生產(chǎn)者Open AI公司根據(jù)現(xiàn)行法律規(guī)定中產(chǎn)品責(zé)任的規(guī)則,承擔(dān)相關(guān)侵權(quán)責(zé)任。需要強(qiáng)調(diào)的是,無過錯(cuò)責(zé)任不是絕對(duì)責(zé)任,并不意味著生產(chǎn)者不能抗辯,生產(chǎn)者仍然可以依據(jù)合法抗辯事由來減輕或免除責(zé)任。
查明事實(shí)是責(zé)任認(rèn)定的前提,而在ChatGPT侵權(quán)責(zé)任中,證明侵權(quán)行為與損害后果存在因果關(guān)系更具挑戰(zhàn)性,因?yàn)椤八惴ê谙洹钡拇嬖谠黾恿苏J(rèn)定的難度。
首先,針對(duì)算法黑箱導(dǎo)致的因果關(guān)系難以查明的難題,應(yīng)當(dāng)建立強(qiáng)制留痕和定期報(bào)告制度。通過強(qiáng)制留痕將智能機(jī)器(人)的行為軌跡固定下來,再通過強(qiáng)制定期報(bào)告降低識(shí)別智能機(jī)器(人)行為軌跡的成本[8],進(jìn)而提高ChatGPT內(nèi)容生成過程的透明度?;诖耍?dāng)發(fā)生侵權(quán)事件時(shí),對(duì)相關(guān)記錄進(jìn)行查詢,可以為厘清侵權(quán)行為與損害后果之間的因果關(guān)系提供方便快捷的檢索途徑。
其次,針對(duì)多因多果或多因一果等因果關(guān)系類型的判定難題。有學(xué)者主張“只要受害人能夠證明其所受損害系智能機(jī)器人行為在事實(shí)上的結(jié)果,法律上的因果關(guān)系即告成立,而不必證明該行為是其損失發(fā)生的唯一原因或直接原因”[16]。故ChatGPT侵權(quán)責(zé)任因果關(guān)系類型的判定并非歸責(zé)所必須,較為模糊的因果關(guān)系仍具有可識(shí)別性,能夠明確侵權(quán)責(zé)任主體以分配侵權(quán)責(zé)任。
ChatGPT的普及和應(yīng)用引起了人們對(duì)其可能帶來的泄露個(gè)人隱私、侵犯隱私權(quán)、名譽(yù)權(quán)和著作權(quán)等侵權(quán)風(fēng)險(xiǎn)的關(guān)注。然而,在ChatGPT適用現(xiàn)行侵權(quán)責(zé)任規(guī)則過程中,出現(xiàn)了“侵權(quán)責(zé)任主體難以確定”“侵權(quán)責(zé)任歸責(zé)原則存在爭議”“侵權(quán)責(zé)任因果關(guān)系難以認(rèn)定”等難題。傳統(tǒng)侵權(quán)責(zé)任認(rèn)定規(guī)則對(duì)ChatGPT的調(diào)整存在不足,故而有必要在產(chǎn)品侵權(quán)責(zé)任制度的基礎(chǔ)上進(jìn)行變通與重構(gòu)。首先,根據(jù)不同的侵權(quán)原因?qū)⑶謾?quán)責(zé)任歸責(zé)于不同的主體。譬如ChatGPT致害的原因在于ChatGPT算法程序存在缺陷,則由算法設(shè)計(jì)者承擔(dān)相應(yīng)侵權(quán)責(zé)任;若ChatGPT致害的原因在于使用者的故意錯(cuò)誤使用,則將侵權(quán)責(zé)任歸于使用者承擔(dān)。其次,區(qū)別適用歸責(zé)原則。當(dāng)責(zé)任主體為ChatGPT的數(shù)據(jù)提供者、算法設(shè)計(jì)者、使用者和網(wǎng)絡(luò)入侵者,適用過錯(cuò)責(zé)任原則。當(dāng)責(zé)任主體為生產(chǎn)者Open AI公司時(shí),則適用無過錯(cuò)責(zé)任原則。最后,厘清因果關(guān)系。通過強(qiáng)制留痕、強(qiáng)制定期報(bào)告提高ChatGPT內(nèi)容生成過程的透明度,以便發(fā)生侵權(quán)糾紛時(shí)能夠查詢相關(guān)記錄??傊?,對(duì)于ChatGPT應(yīng)用中的潛在法律風(fēng)險(xiǎn),應(yīng)當(dāng)秉持奧卡姆剃刀定律,即“如無必要,勿增實(shí)體”,不可陷入“技術(shù)決定論”[17]而執(zhí)著于對(duì)法律制度的大修大改,靈活適用現(xiàn)行法律規(guī)則解決ChatGPT的侵權(quán)責(zé)任問題。