內(nèi)容提要:生成式人工智能服務提供者構(gòu)成侵權(quán)責任的情形有二,即生成階段和移除階段的侵權(quán)責任。在生成階段,又可細分為兩種侵權(quán),即用戶合法行為促發(fā)和用戶誘導行為促發(fā)侵權(quán)內(nèi)容的生成。在生成階段由用戶合法行為促發(fā)侵權(quán)內(nèi)容生成的場合,服務提供者的加害行為是其提供生成內(nèi)容的“作為”行為,而非未盡到算法倫理等義務的“不作為”行為。鑒于在價值選擇上宜對服務提供者課以一定條件下的侵權(quán)責任,此時法律上因果關(guān)系的成立需通過降低相當因果關(guān)系說中“相當性”的認定標準,或證成“合理可預見說”中的“無法合理預見但成立因果關(guān)系”來實現(xiàn)。由于生成式人工智能體尚不具備自由意志,其無法成為否定服務提供者與損害結(jié)果間因果關(guān)系的介入因素。在用戶(第三人)誘導侵權(quán)時,因果關(guān)系可因服務提供者未履行避免被誘導的義務而成立。
關(guān)鍵詞:生成式人工智能 深度合成 ChatGPT 因果關(guān)系 侵權(quán)責任
以ChatGPT為代表的通用生成式人工智能給人類的生產(chǎn)和生活帶來了深刻影響,ChatGPT的誕生也被認為標志著人工智能終于迎來了“iPhone時刻”。The iPhone moment of A.I. has started, says Nvidia CEO, at https://www.cnbc.com/video/2023/03/21/nvidia-ceo-the-iphone-moment-of-a-i-has-started.html (Last Visited on Apr. 1, 2023).但生成式人工智能給人類帶來的影響有多大,其潛在的破壞力就有多大。“倘若有人對GPT-3下手,把它用作‘洗腦’機器,事情的嚴重性將會呈指數(shù)級上升,后果不堪設想?!崩铋_復、陳楸帆:《AI未來進行式》,浙江人民出版社2022年版,第111頁。因此,厘清生成式人工智能服務提供者在生成不實內(nèi)容時的法律責任對規(guī)范生成式人工智能的健康發(fā)展有著重要意義。但人工智能技術(shù)的“難以預測”等特征對法律責任體系造成了挑戰(zhàn),降低了其有效性。在服務提供者侵權(quán)責任構(gòu)成中,因果關(guān)系是必備要件之一,也是最復雜的問題之一?!拜^之于侵權(quán)行為法中的其他問題而言,因果關(guān)系最為困擾法院和學者?!背虈[:《侵權(quán)責任法》,法律出版社2021年版,第234頁。因此,當將傳統(tǒng)上眾說紛紜的因果關(guān)系理論適用于具有技術(shù)革新意義的生成式人工智能場景時,諸多問題便陷入了迷霧中。本文嘗試走出這一迷霧。
一、生成式人工智能侵權(quán)的主要情形
“生成式人工智能”指基于算法、模型、規(guī)則等,在沒有人為直接參與的情況下,自動生成文本、圖片、視頻等內(nèi)容。[參見《生成式人工智能服務管理辦法(征求意見稿)》第2條第2款]以ChatGPT為例,其采用的是大規(guī)模語言模型預訓練的技術(shù)方式來實現(xiàn)內(nèi)容的自動生成。作為人工智能的一種應用,生成式人工智能與以自動駕駛汽車為代表的人工智能有所不同。前者為用戶提供的是一種“服務”;后者為用戶提供的是一種“產(chǎn)品”,人工智能只是內(nèi)嵌于“產(chǎn)品”中的“軟件”系統(tǒng),是產(chǎn)品的組成部分之一。由于應用場景的差異,這兩類人工智能的法律規(guī)則也存在明顯的不同。對于后者,學界多從“產(chǎn)品責任”的角度展開分析。代表性的研究參見馮玨:《自動駕駛汽車致?lián)p的民事侵權(quán)責任》,載《中國法學》2018年第6期;鄭志峰:《診療人工智能的醫(yī)療損害責任》,載《中國法學》2023年第1期。對于前者,則更傾向于采“網(wǎng)絡服務提供者”的思路展開規(guī)制?!渡墒饺斯ぶ悄芊展芾磙k法(征求意見稿)》便將生成式人工智能服務提供者定位為一種“互聯(lián)網(wǎng)信息服務提供者”。本文所討論的生成式人工智能,以向用戶提供“服務”為限,并不涉及“軟硬件結(jié)合”后的“產(chǎn)品”式人工智能。
就目前的技術(shù)而言,生成式人工智能的主要特征包括:(1)通過算法等自動生成內(nèi)容,該內(nèi)容的生成不需要人為參與,生成的內(nèi)容可能因人而異、因時而異。換言之,生成的內(nèi)容具有自主、無法預測和不確定性等特點。當然,生成的內(nèi)容并非完全無法控制,服務提供者仍有能力在一定程度上控制何種內(nèi)容生成。但此種控制更多的是一種導向性的控制(比如,在算法中嵌入倫理規(guī)則),而非針對某一具體內(nèi)容的精準控制。(2)影響人工智能生成內(nèi)容的因素包括算法、算力、數(shù)據(jù)集(算法所使用的數(shù)據(jù))就目前而言,ChatGPT作出回答所依賴的數(shù)據(jù)集并不是實時出現(xiàn)在互聯(lián)網(wǎng)上的內(nèi)容,而是預先收錄到數(shù)據(jù)集的內(nèi)容。See ChatGPT General FAQ, at https://help.openai.com/en/articles/6783457-chatgpt-general-faq (Last Visited on Apr. 6, 2023).、用戶等。生成何種內(nèi)容既可能是源于算法設計者有意為之,比如,通過人工標注來“教導”生成式人工智能避免生成種族歧視言論,也可能源于用于訓練生成式人工智能的數(shù)據(jù)集的影響,還可能是因為與用戶的互動而“習得”。用戶對生成內(nèi)容所作的評價會影響后續(xù)回答。生成式人工智能需要大量靈活分散流動的“勞動力”從網(wǎng)絡邊緣為模型訓練作出貢獻,從而形成網(wǎng)絡效應。就此而言,每位用戶都是生成式人工智能的“訓練師”。參見胡凌:《互聯(lián)網(wǎng)的開放與封閉及其法律回應》,載《交大法學》2022年第2期。(3)生成式人工智能有時會生成似是而非的不準確內(nèi)容。OpenAI公司在介紹ChatGPT時表示,ChatGPT“有時會給出似是而非(plausible-sounding)的不準確或者荒謬的回答”See Introducing ChatGPT, OpenAI, at https://openai.com/blog/chatgpt (Last Visited on Apr. 6, 2023).。這可能對他人權(quán)益造成損害。(4)盡管生成式人工智能可以生成內(nèi)容,但它只是學會了人類的表達,并不理解其所生成內(nèi)容的意義。只有人才理解內(nèi)容的意義。參見注〔2〕。(5)生成式人工智能服務提供者在技術(shù)層面有能力對侵權(quán)內(nèi)容采取刪除等措施。比如,根據(jù)OpenAI“使用協(xié)議”,“如果你認為你的知識產(chǎn)權(quán)受到侵犯,請發(fā)送通知到如下地址。我們會刪除或斷開涉嫌侵權(quán)的內(nèi)容,并會終止重復侵權(quán)者的賬戶”。當然,OpenAI能夠在技術(shù)上實現(xiàn)對內(nèi)容的刪除,未必意味著行業(yè)其他服務提供者都具備精準刪除特定內(nèi)容的技術(shù)水平。關(guān)于生成式人工智能的技術(shù)特征,詳見徐偉:《論生成式人工智能服務提供者的法律地位及其責任》,載《法律科學》2023年第4期。
基于生成式人工智能的技術(shù)特征和應用場景,因生成式人工智能而引發(fā)的侵權(quán)責任有多種情形。以生成的內(nèi)容是否直接對他人權(quán)益造成侵害為標準,可分為生成的內(nèi)容直接侵害他人權(quán)益和生成的內(nèi)容被第三人用于侵害他人權(quán)益。前者如ChatGPT在回答用戶提問時,錯誤地將澳大利亞的一位地區(qū)市長布萊恩·胡德列為一起海外賄賂丑聞中的犯罪方,并稱其在監(jiān)獄服刑。See Australian mayor readies worlds first defamation lawsuit over ChatGPT content, Reuters, at https://www.reuters.com/technology/australian-mayor-readies-worlds-first-defamation-lawsuit-over-chatgpt-content-2023-04-05 (Last Visited on Apr. 6, 2023).受害人表示,如果OpenAI不糾正ChatGPT關(guān)于他曾因行賄入獄的虛假說法,他將起訴OpenAI。這可能成為世界上首例針對ChatGPT內(nèi)容的誹謗訴訟。后者如用戶利用ChatGPT生成詐騙郵件等虛假內(nèi)容用于電信網(wǎng)絡詐騙等。參見《反詐知識應知應會——騙子又來蹭熱點,小心ChatGPT騙局!》,載許昌市科技局網(wǎng),http://kjj.xuchang.gov.cn/kjdt/20230405/8e371cdf-e210-4af0-95da-553ab5951990.html,2023年4月1日訪問。在這兩種侵權(quán)情形中,對于后者而言,若生成式服務提供者生成的內(nèi)容本身并不違法,則易于達成的共識是:服務提供者可基于其是一項符合實質(zhì)性非侵權(quán)用途的中立技術(shù)而避免承擔侵權(quán)責任。源于索尼案的“實質(zhì)性非侵權(quán)用途”(Substantial non-infringing use)是網(wǎng)絡服務提供者在侵權(quán)訴訟中的重要抗辯事由之一,其指“只要產(chǎn)品能夠具有一種潛在的實質(zhì)性非侵權(quán)用途,產(chǎn)品的制造商和銷售商就不用承擔幫助侵權(quán)責任”。See Sony Corp. of America v. Universal City Studios, Inc., 464 U.S. 417 (1984). 當然,就理論而言,此時服務提供者不承擔責任究竟是基于沒有過錯、沒有因果關(guān)系抑或享有抗辯事由,仍可作細致分辨,但這一分辨的實踐意義不大。就因果關(guān)系而言,此時可認為用戶造成的損害并不在服務提供者制造的危險范圍內(nèi),從而否定服務提供者行為與損害間的因果關(guān)系。因此,本文的分析聚焦于前一種情形,即生成的內(nèi)容本身直接侵害了他人合法權(quán)益。
根據(jù)造成侵權(quán)的原因的不同,生成式人工智能侵權(quán)又可分為兩類:一是用戶合法行為促發(fā)了侵權(quán)內(nèi)容的生成。比如,美國加州大學洛杉磯分校法學教授尤金·沃洛克(Eugene Volokh)問ChatGPT,美國法學院是否受教授性騷擾問題的困擾,并要求ChatGPT提供至少五個例子及相關(guān)報道來源。ChatGPT回復稱,喬納森·特利(Jonathan Turley)曾在一次去阿拉斯加的班級旅行中發(fā)表了性暗示言論,并試圖觸摸一名學生,且援引了《華盛頓郵報》2018年3月的一篇文章作為信息來源。但這篇文章并不存在,喬納森·特利也從未被指控性騷擾。See ChatGPT invented a sexual harassment scandal and named a real law prof as the accused, at https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/ (Last Visited on Apr. 6, 2023).二是用戶誘導行為促發(fā)了侵權(quán)內(nèi)容的生成,即生成式人工智能是在用戶誘導下生成了侵權(quán)內(nèi)容。比如,一種“越獄”技巧允許用戶通過創(chuàng)建一個名為DAN的ChatGPT的另一個自我(Alter Ego)來規(guī)避這些算法規(guī)則,該自我可以回答一些原來不被算法允許的問題,如支持暴力和歧視的內(nèi)容?!度祟愰_始“欺負”ChatGPT:用死亡威脅使其回答違禁問題》,載澎湃網(wǎng),https://www.thepaper.cn/newsDetail_forward_21829340,2023年4月6日訪問。前者是最純粹、最典型的生成式人工智能服務提供者侵權(quán)情形,也是本文研究的焦點所在。后者服務提供者是否承擔侵權(quán)責任,取決于其是否負有避免被用戶誘導生成侵權(quán)內(nèi)容的義務;若負有該義務,服務提供者是否履行了該義務。本文將對此展開探討。
在用戶合法行為促發(fā)侵權(quán)內(nèi)容生成場合,根據(jù)侵權(quán)的過程,服務提供者可能構(gòu)成侵權(quán)的行為又可細分為兩個階段:一是生成階段,二是移除階段。前者指服務提供者因為生成了侵權(quán)內(nèi)容而需承擔侵權(quán)責任;后者指服務提供者在知道侵權(quán)內(nèi)容后(典型是受害人通知服務提供者),未能及時采取必要措施(比如,采取內(nèi)容過濾技術(shù)來避免侵權(quán)內(nèi)容的再次生成),而應承擔侵權(quán)責任。這兩種侵權(quán)責任所針對的加害行為不同,前者針對的是內(nèi)容生成行為,后者針對的是內(nèi)容移除行為,故這是兩類相互獨立的侵權(quán)責任,傳統(tǒng)網(wǎng)絡侵權(quán)中,理論和實務界往往將這兩類獨立的侵權(quán)責任不加區(qū)分地“一并處理”,但在生成式人工智能場景中,二者適用的規(guī)則存在諸多差異,應分別處理。需分別討論相應的因果關(guān)系問題。
移除階段的因果關(guān)系較易判斷。根據(jù)《生成式人工智能服務管理辦法(征求意見稿)》第15條規(guī)定:“對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應在3個月內(nèi)通過模型優(yōu)化訓練等方式防止再次生成?!比粽J可這一規(guī)定合理,那么雖然本條所規(guī)定的過濾義務等是行政法上的義務,但該義務同樣具備保護私主體權(quán)益的功能,故其可通過轉(zhuǎn)介條款而成為侵權(quán)法上服務提供者對侵權(quán)內(nèi)容的移除義務。本文所謂“移除義務”,主要指服務提供者對內(nèi)容的過濾義務和防止侵權(quán)內(nèi)容再次生成的義務。據(jù)此,若服務提供者未履行該移除義務將導致侵權(quán)內(nèi)容很可能持續(xù)存在,故未移除行為是損害發(fā)生的條件,滿足事實上的因果關(guān)系。同時,通常而言,未移除行為會導致侵權(quán)內(nèi)容的持續(xù)存在,故其也滿足“相當性”,成立法律上的因果關(guān)系??梢?,移除階段的因果關(guān)系通過直接適用傳統(tǒng)因果關(guān)系理論便可有效解決。本文分析將聚焦于生成階段的因果關(guān)系認定問題。
侵權(quán)法中因果關(guān)系的認定一般需考慮以下五個方面:首先,需明確加害行為和侵害結(jié)果;其次,分析是否存在事實上的因果關(guān)系;再次,在事實上因果關(guān)系成立的前提下,分析是否存在法律上的因果關(guān)系;理論上有將因果關(guān)系細分為責任成立的因果關(guān)系和責任范圍的因果關(guān)系。前者指加害行為與權(quán)利被侵害間的因果關(guān)系,后者指權(quán)利被侵害與損害間的因果關(guān)系。本文只討論責任成立的因果關(guān)系問題,因為責任范圍的因果關(guān)系涉及的是賠償項目問題,而生成式人工智能侵權(quán)與傳統(tǒng)侵權(quán)的賠償項目并無差別,無須專門探討。兩種因果關(guān)系的區(qū)分參見王澤鑒:《侵權(quán)行為》,北京大學出版社2009年版,第182~185頁。從次,分析是否存在介入因素導致因果關(guān)系中斷;最后,分析可能存在的多因一果等復數(shù)因果關(guān)系問題。以下對這五個方面分別展開探討。
二、生成式人工智能侵權(quán)中的加害行為
因果關(guān)系聯(lián)結(jié)的是加害行為和侵害結(jié)果,故對因果關(guān)系的分析首先需厘清哪個行為是加害行為。在生成式人工智能侵權(quán)的場合,生成階段的加害行為究竟是服務提供者提供生成內(nèi)容的“作為”行為,還是服務提供者沒有盡到算法倫理、內(nèi)容審查等注意義務導致了侵權(quán)內(nèi)容生成的“不作為”行為,抑或二者同時都是加害行為?
一般認為,作為與不作為的區(qū)分,并不在于行為人采取了積極舉動還是保持消極靜止狀態(tài),而在于行為人是否存在在先的積極作為的義務。若行為人負有積極作為的義務而沒有履行該義務,構(gòu)成不作為侵權(quán);若其不負有積極作為義務而采取了積極舉動,構(gòu)成作為侵權(quán)。參見王永霞:《不作為侵權(quán)行為辨析》,載《法學雜志》2015年第4期。在傳統(tǒng)網(wǎng)絡侵權(quán)中,作為抑或不作為的區(qū)分相對清晰。比如,對于網(wǎng)絡存儲空間服務提供者和搜索鏈接服務提供者而言,其實施的是不作為侵權(quán),即提供存儲空間服務和搜索鏈接服務行為本身不構(gòu)成加害行為,在知道侵權(quán)內(nèi)容存在后未及時采取必要措施行為才是加害行為。對于網(wǎng)絡內(nèi)容服務提供者而言,若其上傳了其自身(員工)創(chuàng)作的內(nèi)容,則其實施的是作為侵權(quán);若其上傳的是第三人創(chuàng)作的內(nèi)容,則其因未對內(nèi)容履行審查義務而構(gòu)成不作為侵權(quán)。在生成式人工智能場合,加害行為是作為還是不作為則并不清晰。一方面,生成的內(nèi)容是服務提供者主動提供(盡管是基于算法等自動生成),正是因為內(nèi)容是生成式人工智能服務提供者主動提供,才有了服務提供者是否對生成的內(nèi)容享有著作權(quán)的爭議。參見王遷:《論人工智能生成的內(nèi)容在著作權(quán)法中的定性》,載《法律科學》2017年第5期;李偉民:《人工智能智力成果在著作權(quán)法的正確定性——與王遷教授商榷》,載《東方法學》2018年第3期。這類似于傳統(tǒng)的網(wǎng)絡內(nèi)容提供者主動將自行創(chuàng)作的內(nèi)容上傳,故其應定性為“作為”行為;另一方面,服務提供者在生成內(nèi)容方面負有諸多義務,比如,確保數(shù)據(jù)來源的合法性、確保算法符合倫理要求、確保人工標注的合理,乃至對生成的內(nèi)容進行過濾等義務,若服務提供者未能履行這些義務導致侵權(quán)內(nèi)容的生成,則其似應定性為未履行相關(guān)義務的“不作為”侵權(quán)。
生成式人工智能侵權(quán)中的加害行為應認定為提供生成內(nèi)容的“作為”行為,理由如下:
第一,生成式人工智能服務提供者“生成”內(nèi)容的行為和將內(nèi)容“上傳”至網(wǎng)絡提供給用戶的行為在時間上近乎重疊,且生成內(nèi)容的主體和上傳內(nèi)容的主體也合一(都是生成式人工智能服務提供者),在事實層面二者重疊的情況下,法律上似乎沒有必要將這兩項行為分別予以評價。此外,即便服務提供者在生成內(nèi)容行為和向用戶提供內(nèi)容行為之間存在審查內(nèi)容合法性的環(huán)節(jié),這也是一個“連貫”行為的組成部分之一,在法律上可統(tǒng)一作為生成行為予以評價。“積極的有所為與消極的不為有時不易區(qū)分,若干行為乍視之下,似屬不作為,但實乃作為。例如,開車遇紅燈未剎車而肇事,未剎車系‘不作為’,但此乃構(gòu)成積極行為(駕車)過失的因素?!蓖ⅰ?8〕,第89頁。同理,生成行為應認定為“作為”侵權(quán)。只是考慮該生成行為時,應將是否履行了審查義務等因素納入考量。
第二,作為與不作為區(qū)分的標準在于行為人是否負有積極作為的義務。在作為侵權(quán)中,行為人負有的是“不得損害他人”的消極不作為義務;在不作為侵權(quán)中,行為人負有的是保護他人的積極作為義務。生成式人工智能服務提供者生成內(nèi)容的行為侵害了他人權(quán)益,固然屬于積極的作為行為,解釋難題在于,服務提供者未履行確保數(shù)據(jù)來源合法性、確保算法符合倫理要求乃至對生成的內(nèi)容進行過濾審查等義務為何不構(gòu)成不作為侵權(quán)?理論上的解釋是,《生成式人工智能服務管理辦法(征求意見稿)》中對服務提供者規(guī)定的諸多義務,系公法(行政法)上的義務,而非私法(侵權(quán)責任法)上的義務。而作為侵權(quán)法中的不作為侵權(quán)行為,行為人違反的應當是私法上的積極作為義務,而非公法上的義務。公法上對服務提供者的義務未必都能成為私法上的義務,我國司法實踐中常出現(xiàn)的誤區(qū)是,將公法上對網(wǎng)絡服務提供者的義務作為私法上認定網(wǎng)絡服務提供者違反注意義務的依據(jù)。參見姚志偉:《公法陰影下的避風港——以網(wǎng)絡服務提供者的審查義務為中心》,載《環(huán)球法律評論》2018年第1期。其需要通過轉(zhuǎn)介條款等才有可能進入私法領(lǐng)域,成為侵權(quán)法上的義務。因此,即便服務提供者未能履行確保算法符合倫理要求等義務,其違反的主要是公法上的義務,難謂侵權(quán)法上的積極作為義務,故服務提供者的加害行為不宜認定為不作為。
第三,在生成式人工智能服務提供者負有的諸多義務中,可能成為侵權(quán)法上積極作為義務的主要是服務提供者對內(nèi)容的審查義務,因為該義務能直接影響某一侵權(quán)內(nèi)容是否生成。學界也認為,人工智能生成內(nèi)容需配備人工過濾審核機制。參見張凌寒:《深度合成治理的邏輯更新與體系迭代》,載《法律科學》2023年第3期。但這與傳統(tǒng)網(wǎng)絡服務提供者侵權(quán)責任的規(guī)則不符。傳統(tǒng)上,除了網(wǎng)絡內(nèi)容服務提供者外,法律對其他類型的網(wǎng)絡服務提供者一般不要求其承擔一般性審查義務,理由在于審查技術(shù)的困難和審查成本的高昂。參見張新寶、任鴻雁:《互聯(lián)網(wǎng)上的侵權(quán)責任:〈侵權(quán)責任法〉第36條解讀》,載《中國人民大學學報》2010年第4期。詳言之,傳統(tǒng)上的網(wǎng)絡接入傳輸服務提供者因無法控制傳輸?shù)膬?nèi)容,故對侵權(quán)內(nèi)容既不負有事前審查義務,也不負有事后移除義務;網(wǎng)絡內(nèi)容服務提供者因自行上傳內(nèi)容,能完全控制何種內(nèi)容的出現(xiàn),故既負有事前審查義務,也負有事后移除義務;網(wǎng)絡信息存儲空間服務提供者和網(wǎng)絡搜索鏈接服務提供者因內(nèi)容系第三方上傳,故不負有事前的一般性審查義務,但負有事后移除義務?!澳芊瘛笨刂频呐袛?,指以“合理的成本”能夠控制為條件。若“不計成本”,則各類網(wǎng)絡服務提供者在技術(shù)層面都能控制相關(guān)內(nèi)容。生成式人工智能服務提供者對生成內(nèi)容的控制力,與網(wǎng)絡信息存儲空間服務提供者、搜索鏈接服務提供者對用戶上傳內(nèi)容的控制力相仿。以ChatGPT為例,其是基于8000億個單詞的數(shù)據(jù)集,包含了1750億個參數(shù)。故在用戶提出五花八門的問題后,OpenAI公司很難控制何種內(nèi)容會被生成。故原則上不宜要求生成式人工智能服務提供者對自動生成內(nèi)容負有一般性審查義務。從司法裁判來看,我國涉及搜索引擎自動生成內(nèi)容以ChatGPT為代表的大語言模型在算法復雜性上比搜索引擎自動生成檢索詞高,但就法律性質(zhì)而言,二者都是算法自動生成內(nèi)容,具有一定程度的可比性。故涉搜索引擎自動生成內(nèi)容糾紛的既有判決和理論在ChatGPT場景下仍具有參考價值。的判決也都認為,搜索引擎服務提供者對自動生成的檢索詞不負有事前審查義務。參見任某玉訴北京百度網(wǎng)訊科技有限公司名譽權(quán)糾紛案,北京市第一中級人民法院(2015)一中民終字第09558號民事判決書;金德管業(yè)集團有限公司訴北京百度網(wǎng)訊科技有限公司名譽權(quán)案,北京市第一中級人民法院(2009)一中民終字第17680號民事判決書。
三、生成式人工智能侵權(quán)中的法律上因果關(guān)系
侵權(quán)中的因果關(guān)系認定,包括事實上因果關(guān)系和法律上因果關(guān)系。在生成式人工智能侵權(quán)中的加害行為是“作為”的基礎上,事實上因果關(guān)系的判斷方式是“剔除說”,即如果沒有該行為,損害是否會發(fā)生?若不會發(fā)生,則存在因果關(guān)系;反之,則不存在因果關(guān)系。在生成式人工智能場景中,如果沒有服務提供者生成內(nèi)容的行為,顯然,損害不會發(fā)生,故生成內(nèi)容行為是損害的原因,即成立事實上的因果關(guān)系。此處以“若非”規(guī)則作為判斷事實上因果關(guān)系的標準。當然,若以其他標準(比如,實質(zhì)因素說)來判斷,則事實上因果關(guān)系是否成立不無探討的空間。但本文將此種探討置于法律上因果關(guān)系環(huán)節(jié),而非事實上因果關(guān)系環(huán)節(jié)。難題在于法律上因果關(guān)系的認定。
(一)法律上因果關(guān)系認定的難題
就法律上因果關(guān)系的判斷,我國通說采相當因果關(guān)系說。王利明主編:《民法學》,高等教育出版社2019年版,第320頁。就“相當性”的判斷,王澤鑒教授認為,“應以行為人之行為所造成的客觀存在事實為觀察的基礎,并就此客觀存在事實,依吾人知識經(jīng)驗判斷,通常均有發(fā)生同樣損害結(jié)果之可能者,該行為人的行為與損害間即具有相當因果關(guān)系。此種基于吾人知識經(jīng)驗所為的判斷,在某種程度是常識或直覺的判斷”同注〔18〕,第214頁。。故在生成式人工智能場景中,“相當性”與否取決于依據(jù)一般人的知識經(jīng)驗,生成行為通常是否會出現(xiàn)侵權(quán)內(nèi)容。如果以概率為標準判斷“通?!迸c否,“在德國之學說里,此一法律問題被視為可能率之科學問題?!眳⒁娫佬郏骸稉p害賠償法原理》,中國政法大學出版社2001年版,第104頁。對概率標準的質(zhì)疑參見劉海安:《法律上因果關(guān)系的反思與重構(gòu)》,載《華東政法大學學報》2010年第4期。則生成行為通常不會出現(xiàn)侵權(quán)內(nèi)容,畢竟在絕大多數(shù)情況下,生成式人工智能生成的內(nèi)容并沒有出現(xiàn)侵害他人權(quán)益的結(jié)果。因此,盡管生成行為與損害結(jié)果間成立事實上的因果關(guān)系,但二者間并不成立法律上的因果關(guān)系。若不以“概率”為判斷“通?!迸c否的標準,而是以“行為對損害發(fā)生可能性的提升程度”作為判斷標準,這涉及因果關(guān)系中的“相當性”指的是“判斷損害發(fā)生的可能性是否具有相當性,還是判斷行為對損害結(jié)果發(fā)生可能性的提升是否具有相當性”,主流意見是后者。參見葉金強:《相當因果關(guān)系理論的展開》,載《中國法學》2008年第1期。則“相當性”仍難以判斷。對于相當性的判斷,理論上存在行為人角度、最佳判斷者角度和最佳觀察者角度之爭,同注〔33〕。但無論采何種角度,要判斷“提升程度”,便需比較法律上可接受的生成式人工智能(未必是完全不會“犯錯”的人工智能)與案涉人工智能相比,案涉人工智能在損害發(fā)生可能性方面是否有提升??紤]到人工智能技術(shù)的復雜性和生成內(nèi)容的難以預測性,在無法理解案涉人工智能為何會生成侵權(quán)內(nèi)容的情況下,比較不同情形中損害發(fā)生的可能性更是難以實現(xiàn)。據(jù)此,因果關(guān)系中的“相當性”無從判斷。
生成式人工智能侵權(quán)之所以面臨法律上因果關(guān)系認定難題,源于三方面因素:(1)生成式人工智能具有自主、無法預測和不確定性等技術(shù)特征,人尚無法完全理解服務提供者行為與生成內(nèi)容間的關(guān)聯(lián),故無法判斷侵權(quán)的出現(xiàn)究竟是因為服務提供者不當?shù)男袨槎鴮е?,抑或僅僅是一場人所無法控制的意外,進而無法就法律上因果關(guān)系作出判斷。對因果關(guān)系的判斷有賴于人類長期經(jīng)驗或科學發(fā)現(xiàn)所形成的關(guān)于事物間關(guān)系的“因果通則”。馮玨:《英美侵權(quán)法中的因果關(guān)系》,中國社會科學出版社2009年版,第177~183頁。但對于動輒有著上千億參數(shù)的生成式人工智能而言,人類對算法、數(shù)據(jù)集、算力及人工互動等因素與最終生成內(nèi)容間的關(guān)系,尚沒有清晰的認識。在“算法黑箱”等諸多認知局限下,“對于其過錯與損害之間的因果關(guān)系的探究,也會相當困難。原因很簡單,因為我們已經(jīng)無法理解超級人工智能了”參見馮玨:《自動駕駛汽車致?lián)p的民事侵權(quán)責任》,載《中國法學》2018年第6期。。(2)法律上對生成式人工智能服務提供者的侵權(quán)責任應采怎樣的價值選擇尚不明朗。法律上因果關(guān)系“所涉及的,非純系科學或然率或價值中立的邏輯推理,實乃歸責問題,即決定如何將發(fā)生的損害歸由加害人負擔之法的判斷”同注〔18〕,第214頁。?!霸谇謾?quán)法領(lǐng)域,因果關(guān)系理論是一種責任理論,這種理論必須解決可歸因的損害賠償問題。因而,一個自然的因果關(guān)系概念可能不會具有決定意義?!保酆桑軯.施皮爾主編:《侵權(quán)法的統(tǒng)一:因果關(guān)系》,易繼明等譯,法律出版社2009年版,第13頁。故對因果關(guān)系的判斷,一定程度上是一種侵權(quán)責任結(jié)果導向的解釋選擇問題,而非決定侵權(quán)責任的邏輯推演問題。換言之,理論上更多的是基于行為人是否應承擔侵權(quán)責任這一已經(jīng)作出的價值判斷前提下,選擇以何種因果關(guān)系理論來合理地解釋侵權(quán)責任的構(gòu)成,而非根據(jù)既有的因果關(guān)系理論來決定侵權(quán)責任構(gòu)成與否。對于生成式人工智能服務提供者侵權(quán)責任的寬嚴,目前尚未展開充分的討論,更毋論達成共識。在此背景下,回答生成式人工智能侵權(quán)中的因果關(guān)系問題,一定程度上也是在回答生成式人工智能服務提供者的侵權(quán)責任承擔問題。(3)生成式人工智能服務行為是一種全新的網(wǎng)絡服務提供行為。該行為不同于傳統(tǒng)的網(wǎng)絡內(nèi)容服務提供行為、網(wǎng)絡存儲空間服務提供行為和搜索鏈接服務提供行為。一方面,生成式人工智能服務提供者是自行向用戶提供內(nèi)容(接近于網(wǎng)絡內(nèi)容服務提供者);另一方面,其又無法完全控制生成何種內(nèi)容(接近于網(wǎng)絡存儲空間服務提供者和搜索鏈接服務提供者)。這導致既有的網(wǎng)絡服務提供者侵權(quán)責任規(guī)則能否適用于生成式人工智能場景需一一加以檢視。當然,這并不意味著傳統(tǒng)的理論和規(guī)則對生成式人工智能全然不適用,只是強調(diào)傳統(tǒng)理論和規(guī)則可能無法回應技術(shù)帶來的挑戰(zhàn)。參見趙精武:《“元宇宙”安全風險的法律規(guī)制路徑:從假想式規(guī)制到過程風險預防》,載《上海大學學報(社會科學版)》2022年第5期。
(二)法律上因果關(guān)系認定的出路
法律上因果關(guān)系的認定,需解決兩個問題:其一,就應然意義而言,生成式人工智能服務提供者是否應當對生成的侵權(quán)內(nèi)容承擔責任?其二,在服務提供者應當承擔侵權(quán)責任的前提下,法律上的因果關(guān)系如何解釋?
生成式人工智能場景中法律上因果關(guān)系的判斷,首先需對服務提供者是否應當承擔侵權(quán)責任及承擔多大的責任(如果要承擔責任的話)作出價值上的選擇。從政策選擇來看,2023年4月28日,中共中央政治局召開會議分析研究當前經(jīng)濟形勢和經(jīng)濟工作時指出,“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風險”參見《搶抓大模型機遇 多方布局通用人工智能發(fā)展》,載新華網(wǎng),http://www.new.cn/2023-05/18/c-1129624300.htm,2023年5月25日訪問。。類似地,《生成式人工智能服務管理辦法(征求意見稿)》第1條規(guī)定,該辦法系“為促進生成式人工智能健康發(fā)展和規(guī)范應用”??梢?,我國對生成式人工智能采取的政策取向是,促進發(fā)展和防范風險并重,但促進發(fā)展是更優(yōu)先的選擇。事實上,隨著ChatGPT的橫空出世和國內(nèi)相關(guān)企業(yè)的奮起直追,我國在生成式人工智能領(lǐng)域?qū)W到的教訓之一是,發(fā)展通用人工智能存在內(nèi)容不可控等風險,但不發(fā)展人工智能也存在被國外企業(yè)占據(jù)該領(lǐng)域的落后風險,后者的風險或許比前者更大。據(jù)此,避免對生成式人工智能服務提供者課以嚴格的責任應是可取選擇,即應排除無過錯責任在生成式人工智能領(lǐng)域的適用(至少在當前階段)。換言之,不宜將生成式人工智能作為一種“高度危險行為”對待。但如果服務提供者可以基于生成內(nèi)容的不可預測性而完全不承擔侵權(quán)責任,即將服務提供者生成侵權(quán)內(nèi)容完全作為意外事件對待,將對受害人的保護非常不利,長遠來看也不利于人工智能產(chǎn)業(yè)的良性發(fā)展,因為服務提供者將因無須承擔侵權(quán)責任而導致改進技術(shù)的誘因不足。服務提供者即便不承擔侵權(quán)責任,其仍可能因生成損害他人權(quán)益的內(nèi)容而承擔行政責任。但不可否認的是,侵權(quán)責任的缺失確實會在一定程度上影響服務提供者改進技術(shù)的積極性。故要求服務提供者在一定條件下承擔侵權(quán)責任仍有必要。正如王利明教授所言,對于ChatGPT引發(fā)的侵權(quán)問題,在價值取向上要積極支持人工智能產(chǎn)品的開發(fā),讓服務提供者承擔無過錯責任會阻礙技術(shù)發(fā)展,不符合鼓勵技術(shù)創(chuàng)新的價值取向。同時,可借鑒醫(yī)療事故責任的減免規(guī)則,因技術(shù)水平限制而導致難以消除的漏洞時,可以適當減輕甚至免除服務提供者的責任。參見《會議綜述:生成式人工智能算法規(guī)制》,載微信公眾號“人大未來法治研究院”,2023年4月29日上傳。因此,服務提供者既不應承擔較嚴苛的無過錯責任,也不應完全不承擔責任,而是應在一定條件下承擔侵權(quán)責任。
在生成式人工智能服務提供者應當在一定條件下承擔侵權(quán)責任的價值選擇下,問題的關(guān)鍵在于,在我國通說采相當因果關(guān)系的背景下,如何在理論上解釋服務提供者行為與損害間成立法律上的因果關(guān)系?詳言之,相當因果關(guān)系中的“相當性”要求判斷“行為對損害發(fā)生可能性的提升程度”。而“提升程度”的判斷取決于兩個方面:一是比較的“基準點”,即怎樣的生成式人工智能是法律所能接受的。正如法律不會要求自然人“永不犯錯”一樣,法律上似也不應要求生成式人工智能“永不犯錯”,即永不生成侵權(quán)內(nèi)容。這一觀念也體現(xiàn)在產(chǎn)品責任中,根據(jù)《產(chǎn)品質(zhì)量法》第41條的規(guī)定,將產(chǎn)品投入流通時的科學技術(shù)水平尚不能發(fā)現(xiàn)瑕疵存在的,產(chǎn)品生產(chǎn)者不承擔賠償責任。而何種程度的“有瑕疵”的人工智能是法律所能接受的,尚不明朗。二是與基準點相比,案涉人工智能在多大程度上提升了損害發(fā)生的可能性。由于生成內(nèi)容的自主性和不可預測性,該提升程度也無從判斷。從根本上來看,在技術(shù)層面,“相當性”判斷在生成式人工智能場景下的無解源于相當因果關(guān)系理論建立在人類能在科學層面有效理解因果律的基礎上,而人工智能何以生成侵權(quán)內(nèi)容的科學規(guī)律恰恰是人類目前尚未完全掌握的。See Sylwia Wojtczak amp; Pawe Ksiak, Causation in civil law and the problems of transparency in AI, European Review of Private Law, Vol. 2021 (29), p. 570.因為“因果關(guān)系作為歸責要件之一,必須確保只有那些至少在抽象意義上可避免的損害才具有可歸責性”[奧]海爾姆特·庫齊奧:《侵權(quán)責任法的基本問題(第一卷):德語國家的視角》,朱巖譯,北京大學出版社2017年版,第134頁。。若要在生成式人工智能場景中適用相當因果關(guān)系理論,唯一的途徑是將基準點設置得足夠低,低至其近乎“不會犯錯”的程度,同時,在提升程度上采取寬松標準,極小程度的提高也足以讓條件成為相當性的原因,“就損害發(fā)生可能性的提高程度而言,Kries主張須是顯著提高,Tarnowski主張極小程度的提高也足以讓條件成為相當性的原因。”同注〔33〕。如此才能表明生成了侵權(quán)內(nèi)容的案涉人工智能提升了損害可能性,成立“相當性”。但這一解釋路徑意味著法律對生成式人工智能服務提供者提出了近乎不得犯錯的無過錯責任要求,與鼓勵人工智能發(fā)展的價值選擇并不完全一致。降低因果關(guān)系的證明責任是應對人工智能的一種通常思路,問題主要在于降低的方式和程度。
除了相當因果關(guān)系理論外,也可嘗試以英美法中的合理可預見理論來解釋生成式人工智能場景。盡管在因果關(guān)系問題上我國通說采源于德國的相當因果關(guān)系理論,但學界對因果關(guān)系的研究卻多參考的是英美因果關(guān)系理論。比如,學者陳聰富、馮玨、韓強、于雪鋒等出版的因果關(guān)系專著,都以英美侵權(quán)法中的因果關(guān)系為主要理論資源。從實務來看,我國判決也不乏以英美法中的合理可預見理論展開說理的判決。比如,陳某強與謝某、曹某海生命權(quán)、健康權(quán)、身體權(quán)糾紛案,參見安徽省肥西縣人民法院(2013)肥西民一初字第00677號民事判決書?;诤侠砜深A見理論,生成式人工智能場景中若欲成立因果關(guān)系,邏輯上存在兩種途徑:一是將生成侵權(quán)內(nèi)容認定為一種服務提供者可預見的結(jié)果;二是將其作為一種不可預見但仍須認定因果關(guān)系成立的例外。不同的路線選擇決定了不同的理論需求。由于人工智能的技術(shù)特征在于自主、無法預測和不確定性,故在法律上將生成侵權(quán)內(nèi)容解釋為一種合理可預見的結(jié)果有悖于其技術(shù)特征,除非對合理可預見采取較為寬泛的理解,將其理解為對生成侵權(quán)內(nèi)容“風險”的預見。但如此寬泛的可預見將漫無邊際,喪失了合理可預見規(guī)則限制侵權(quán)責任的功能?!叭绻扇恼w上認定過失的路徑,實際損害幾乎或者全部都處于風險范圍內(nèi),風險標準的適用沒有意義?!蓖ⅰ?5〕,第306頁。因此,更可取的選擇是采取第二種途徑。而采取第二種途徑的關(guān)鍵問題在于,如何在理論上對“例外”的正當性作出論證,從而確保課予服務提供者責任的正當性。
英美法中對不可預見的損害原則上認定為不構(gòu)成因果關(guān)系,但也存在例外。最主要的例外是“蛋殼腦袋規(guī)則”英美法中另一可預見規(guī)則的例外是救助者損害的賠償責任,即為了救助他人而受有損害時,行為人對救助者仍負有賠償責任。該規(guī)則由Wagner案所確立,卡多佐法官在判決中認為:“危險招來救助,危難召喚解困?!盨ee Wagner v. Intl Ry. Co., 232 N.Y. 176, 180, 133 N.E. 437, 437 (1921). 卡多佐并未明確救助者的損害是否屬于可預見范圍,之后學者多將救助者的出現(xiàn)解釋為損害發(fā)生后自然的結(jié)果,從而將其納入了可預見的范圍。See Dan B. Dobbs,Paul T. Hayden and Ellen M.Bublick,The Law of Torts,§ 202(2d ed.).可預見的另一例外是不可抗拒的自殺。受害人自殺通常不可預見,但若是受害人無法抗拒的自殺(如精神失常),行為人仍須承擔賠償責任。See Fuller v.Preis,35 N.Y.2d 425(1974).,即“由于已存在的身體或者精神狀況,或者受害人的其他特征,行為人的侵權(quán)行為對受害人造成的損害程度或者損害類型遠大于或者超出了可以合理預見的范圍,行為人仍然應當對受害人的損害承擔責任”Restatement (Third)of Torts § 31(2010).。我國法院也采納了這一規(guī)則。參見最高人民法院指導案例24號。參見孫鵬:《“蛋殼腦袋”規(guī)則之反思與解構(gòu)》,載《中國法學》2017年第1期。就“蛋殼腦袋規(guī)則”的正當性,普羅瑟認為,如果損失與被告的行為不成比例,那么其與原告的無過錯不成比例的程度毫不遜色。如果讓被告承擔其所不能預見的損失是不公平的,那么讓原告承擔其同樣不能預見的損失,且該損失并非緣于其過失,而是緣于被告的過錯,其不公平性也毫不遜色。See William L. Prosser,Proximate Cause in California,California Law Review,Vol.1950(38) ,p.397.德國法院也認為,傷害了健康狀況本就不佳者的人不能要求他在假設受害者是健康時的法律處境。[德]克雷斯蒂安·馮·巴爾:《歐洲比較侵權(quán)行為法》(下卷),焦美華譯,張新寶審校,法律出版社2001年版,第580頁。國內(nèi)學者于雪鋒認為,“‘蛋殼腦袋規(guī)則’從價值和政策層面而言,旨在盡量保障受害人行為自由,鼓勵特殊體質(zhì)者參加社會交往,對其人身實行優(yōu)于財產(chǎn)的保護。從深層次而言,是法律試圖改變特殊體質(zhì)者與普通人命定的不平等狀況,以法制的人為努力,貫徹老子所謂‘損有余而補不足’的‘天道’,體現(xiàn)著濃厚的人文關(guān)懷”于雪鋒:《侵權(quán)法可預見性規(guī)則研究——以法律因果關(guān)系為視角》,北京大學出版社2017年版,第281頁。??梢?,“蛋殼腦袋規(guī)則”的正當性主要源于對特殊體質(zhì)者的傾斜性保護。對“蛋殼腦袋規(guī)則”的質(zhì)疑,參見注〔53〕。鑒于特殊體質(zhì)場景與生成式人工智能場景間顯著的差異,后者不存在類推適用前者的可能,故無法以“蛋殼腦袋規(guī)則”來正當化生成式人工智能場景中成立法律上的因果關(guān)系。但“蛋殼腦袋規(guī)則”正當性的理由,對生成式人工智能不乏借鑒意義。申言之,若要證成生成式人工智能場景中的因果關(guān)系,也可從對受害人的傾斜性保護角度展開論證,比如,雖然要求服務提供者對其無法預測和控制的生成內(nèi)容承擔責任有些無辜,但要求受害人承擔這一風險則“更加”無辜。同時,與“蛋殼腦袋規(guī)則”主要適用于身體受損相似,生成式人工智能場景中對受害人的傾斜性保護也應主要適用于人格權(quán)侵害,似不應適用于知識產(chǎn)權(quán)侵害或財產(chǎn)性權(quán)益侵害。
最后,需要注意的是,即便證成了生成行為與損害間的因果關(guān)系,也未必意味著服務提供者應對受害人的損害承擔全部賠償責任。為鼓勵人工智能產(chǎn)業(yè)的發(fā)展,可在法律上對服務提供者的賠償責任作出適當?shù)南拗?。該限制方式不宜采高度危險責任中的法定賠償限額的途徑(《民法典》第1244條),更可取的方式是借鑒監(jiān)護人責任中的“監(jiān)護人盡到監(jiān)護職責可以減輕其侵權(quán)責任”的途徑(《民法典》第1188條第1款),因為后者能夠更好地激勵服務提供者改進人工智能技術(shù)、積極開展企業(yè)內(nèi)部合規(guī)等,從而減少侵權(quán)內(nèi)容的生成。
四、生成式人工智能侵權(quán)中的介入因素和復數(shù)因果關(guān)系
在生成式人工智能服務提供者和受害人之外,若存在第三方主體的行為,則可能出現(xiàn)因介入因素(介入原因)而中斷服務提供者與損害間的因果關(guān)系,或出現(xiàn)服務提供者與第三方構(gòu)成共同侵權(quán)。生成式人工智能場景中可能的第三方主體主要有二:一是生成式人工智能體本身作為主體;二是實施了誘導行為的用戶。
(一)生成式人工智能體不應成為介入因素
若要成為介入因素,該因素應獨立于被告行為之外,且非被告行為之直接、可預見或具有相當性之結(jié)果。參見陳聰富:《因果關(guān)系與損害賠償》,北京大學出版社2006年版,第63頁。生成式人工智能體若欲成為介入因素,首先取決于在法律上生成式人工智能體是否具有獨立的主體資格。對此存在較大爭議。支持者認為:“無論是弱人工智能或強人工智能,都具有某種程度或方面的法律主體資格,只有明確其法律主體資格,才能尋求其相關(guān)權(quán)利、義務和責任等問題的解決方案?!狈哆M學:《人工智能法律主體論:現(xiàn)在與未來》,載《政法論叢》2022年第3期。質(zhì)疑者則主張:“人工智能所引起的法律難題在現(xiàn)行法框架內(nèi)尚能解決的情況下,肯定人工智能民事主體資格尚無迫切性?!笔诒颍骸度斯ぶ悄苊袷轮黧w資格論:不同路徑的價值抉擇》,載《西南民族大學學報(人文社會科學版)》2019年第12期。也有學者認為,對弱人工智能體應認定為權(quán)利客體,而部分高級人工智能體可認定為法律主體。參見彭誠信、陳吉棟:《論人工智能體法律人格的考量因素》,載《當代法學》2019年第2期。本文無意在人工智能體是否應享有法律上的主體資格問題上展開詳細討論,僅從介入因素角度作出說明。就侵權(quán)中的介入因素而言,生成式人工智能體能否以“主體”的名義介入服務提供者侵權(quán)責任的因果關(guān)系中,形式上雖取決于人工智能體是否被法律確認為一類主體,而實質(zhì)上則取決于人工智能體是否具有獨立的自由意志,因為主體行為是否構(gòu)成介入因素的主要判斷標準在于介入的行為是否體現(xiàn)了介入者的自由意志和自主選擇。若并非介入者的自由意志和自主選擇,則不構(gòu)成介入因素。參見[美]H.L.A.哈特、托尼·奧諾爾:《法律中的因果關(guān)系》,張紹謙、孫戰(zhàn)國譯,中國政法大學出版社2005年版,第123~128頁。就目前而言,在科技層面人工智能體是否具有自由意志仍處于撲朔迷離的狀態(tài)。一般認為,人工智能只是對人類表達的一種功能性模仿,而非具有自我意識和自由意志。參見季衛(wèi)東、趙澤睿:《人工智能倫理的程序保障——以法律與代碼的雙重正當化機制設計》,載《數(shù)字法治》2023年第1期。在此背景下,“保守”的法律宜否定人工智能體可成為介入因素,更何況我國現(xiàn)行法尚未出現(xiàn)賦予人工智能體主體資格的端倪。
有學者認為,即便人工智能體不享有法律上的主體資格,單純的“自主”行為便足以成為介入因素。“由于自動駕駛汽車等智能機器人自帶學習能力和適應能力,其‘后天的’(區(qū)別于‘先天的’系統(tǒng)設計和訓練)學習和經(jīng)歷可能成為此類系統(tǒng)造成他人損害的一個替代原因,足以使侵權(quán)行為事實上的行動者免于承擔責任?!彼緯?、曹建峰:《論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點》,載《法律科學》2017年第5期。但需注意的是,成為介入因素的條件之一是其并非被告行為之直接、可預見或具有相當性之結(jié)果。雖然人工智能體是“自主”生成了難以預測的侵權(quán)內(nèi)容,但從技術(shù)層面來看,該自主和不可預測性正是服務提供者在設計人工智能體時所積極追求的目標。智能機器的“設計者和制造商不僅完全可以預料到智能機器能夠進行‘后天的’學習和經(jīng)歷,而且這種能力正是其設計者和制造商所追求和利用的。換句話說,在某種程度上,智能機器被設計成具有不可預測性?!眳⒁婑T玨:《自動駕駛汽車致?lián)p的民事侵權(quán)責任》,載《中國法學》2018年第6期。據(jù)此,人工智能體生成侵權(quán)內(nèi)容行為仍可認定為在服務提供者制造的風險范圍內(nèi),進而不中斷因果關(guān)系。因此,更妥當?shù)慕Y(jié)論應是:即便人工智能體享有了主體資格,也未必能成為介入因素而中斷因果關(guān)系。
(二)誘導情形中的復數(shù)因果關(guān)系
若生成侵權(quán)內(nèi)容是因用戶(第三人)誘導行為而發(fā)生,此時服務提供者是否還需承擔侵權(quán)責任?根據(jù)《民法典》第1175條,“損害是因第三人造成的,第三人應當承擔侵權(quán)責任”。故當侵權(quán)內(nèi)容是在第三人(如用戶)誘導的情況下生成時,第三人應對受害人的損害承擔侵權(quán)責任當無疑問。有疑問的是服務提供者是否有責任。在我國《民法典》第1175條的背景下,第三人行為在理論體系上被定位為侵權(quán)責任的抗辯事由之一。但比較上一般將第三人行為置于因果關(guān)系中斷(介入因素)中展開討論。就理論而言,第三人行為只有在成為介入因素時,才能中斷因果關(guān)系從而產(chǎn)生被告不承擔責任的法律效果。參見程嘯:《論侵權(quán)法上的第三人行為》,載《法學評論》2015年第3期。在生成式人工智能場景中,第三人的誘導行為無法成為介入因素,因為成為介入因素的條件之一是其必須發(fā)生在被告行為之后,See Restatement (Second) of Torts § 441(1965).而第三人誘導行為發(fā)生在服務提供者生成侵權(quán)內(nèi)容的行為之前。
雖然第三人誘導行為不成立介入因素,但就事實因果關(guān)系而言,是服務提供者與第三人行為的結(jié)合導致了損害的發(fā)生,故需探討二者間是否構(gòu)成“結(jié)合的因果關(guān)系”而構(gòu)成無意思聯(lián)絡的數(shù)人侵權(quán)?對此,說明如下:(1)與服務提供者自行生成侵權(quán)內(nèi)容的單獨侵權(quán)不同,在數(shù)人侵權(quán)場合服務提供者若構(gòu)成侵權(quán),其加害行為不再是生成行為,而是未能避免生成式人工智能被第三人誘導的作為義務的違反。(2)服務提供者應當負有一定程度的避免侵權(quán)內(nèi)容生成的義務。盡管我們對人工智能如何生成內(nèi)容尚未充分了解,但一般認為通過在算法中內(nèi)嵌倫理規(guī)則、妥當選擇用于人工智能訓練的數(shù)據(jù)集等,可以在一定程度上避免不當內(nèi)容的生成。因此,法律上要求服務提供者達到目前行業(yè)通常能達到的技術(shù)水平來避免侵權(quán)內(nèi)容的生成,應是可取的規(guī)則。(3)服務提供者承擔的義務是一種合理限度內(nèi)的方式性義務,而非結(jié)果避免性義務,不應要求服務提供者完全確保不會生成侵權(quán)內(nèi)容。對服務提供者而言,用戶的部分誘導行為可通過算法設計等事先預防,如用戶要求生成式人工智能突破算法倫理的限制來回答問題,從而生成歧視、侮辱或誹謗性的內(nèi)容。有些則可能在技術(shù)層面難以或不宜要求其通過算法設計來預防,如一些有著廣泛合法用途的內(nèi)容生成服務(如合成某一內(nèi)容)。因后者情形中服務提供者不負有事前預防的義務,故其與侵權(quán)內(nèi)容的生成不存在法律上的因果關(guān)系(盡管存在事實上的因果關(guān)系)?!笆紫葢卸ū桓媸欠褙撚凶⒁饬x務,如果沒有此種義務,則被告無過失,那么被告就根本不需要對無法預見的原告承擔任何責任?!蓖ⅰ?〕,第244頁。(4)關(guān)于服務提供者作為義務的限度。由于用戶的誘導方式五花八門,服務提供者在避免被誘導方面需要達到何種程度,不易把握。因此,作為義務的限度只能結(jié)合服務的社會效用高低、技術(shù)的難易程度、生成侵權(quán)內(nèi)容的概率和可預見程度、被侵害的權(quán)益輕重等,在實踐中逐漸探索出可被廣泛接受的限度。
若服務提供者未能履行其應達到的作為義務,則其行為與損害間成立因果關(guān)系,服務提供者與第三人成立共同侵權(quán)。若服務提供者履行了作為義務,則不成立法律上的因果關(guān)系。此時,生成式人工智能單純作為“工具”而被第三人用于實施侵權(quán)行為,由第三人單獨承擔侵權(quán)責任。在舉證責任分配上,對于侵權(quán)內(nèi)容的生成是否系第三人誘導行為導致,應由服務提供者承擔舉證責任。同時,服務提供者是否履行了避免被第三人誘導的作為義務,也應由服務提供者承擔舉證責任。因為這些信息僅由服務提供者掌握,受害人無法舉證。
五、結(jié)語
盡管人類在科技領(lǐng)域已有了巨大的進步,但人工智能或許是少有的人類將自身尚未充分掌握的技術(shù)在社會生活領(lǐng)域全面應用的情形。人工智能不同于既有的高度危險責任情形,高度危險責任所處理的對象雖然危險(如核材料、航空器、高放射性、高空高壓活動等),但行為與結(jié)果間在科學層面的因果關(guān)系并不復雜,人類基本理解并掌握了這些高度危險物品或活動是如何引發(fā)損害結(jié)果的。對于人類尚未完全掌握的技術(shù),如基因編輯,人類對其研究作出了嚴格限制,更毋論將其大規(guī)模應用?!秾W術(shù)界密集回應基因編輯嬰兒:堅決反對,強烈譴責!》,載央視網(wǎng),http://m.news.cctv.com/2018/11/28/ARTI74eH0NUccDVSSoCAQp2u181128.shtml,2023年4月6日訪問。人工智能作為一項人類理解尚非常有限的技術(shù),卻突破了人類對不成熟技術(shù)嚴格管制的傳統(tǒng),被允許大規(guī)模應用。這或許是企業(yè)之間、國家之間的科技競賽導致在技術(shù)上的狂奔被置于更優(yōu)先的地位。See “The Godfather of A.I.” Leaves Google and Warns of Danger Ahead,at https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html (Last Visited on Apr. 18, 2023).在這一難以改變的既成事實背景下,法律上如何應對無法理解和控制的人工智能“失控”,成為當前面臨的“時代之問”。人工智能技術(shù)的“難以預測”特征對法律造成的諸多沖擊中,因果關(guān)系理論首當其沖,因為法律因果關(guān)系以歸責為最終目標,而如果對案件事實中存在的因果關(guān)系缺乏基本的認識,則根本談不上歸責的可能。參見韓強:《法律因果關(guān)系理論研究——以學說史為素材》,北京大學出版社2008年版,第282頁。本文正是嘗試對此問題作出回答。本文的分析雖以生成式人工智能為對象,但研究結(jié)論對于其他具有不可預測性的人工智能也有很好的借鑒意義。
The Myth and Solution of Causation Concerning Infringement by Generative Artificial Intelligence
Abstract:There are two categories of scenarios in which the generative artificial intelligence service provider should assume tort liability, namely the tort liability in the generation stage and the removal stage. In the generation stage, the tort can be subdivided into the generation of infringing content triggered by the user’s lawful prompt and by the user’s abetment. In the generation stage, where the user’s lawful prompt triggers the generation of infringing content, the service provider’s tort is its “action” of providing the generated content, rather than its “omission” of failing to fulfill the obligations such as abiding by algorithm ethics. Given that it is appropriate to take a value-based approach to impose tort liability on the service provider under certain conditions, the legal causation should be established by lowering the “adequacy” criteria under the adequate causation theory or justifying “unforeseeable but establishing causation” under the foreseeability theory. Since generative AI does not have its own free will, it cannot serve as an intervening factor for establishing causation between the service provider’s conduct and damages. In the case of tort abetted by a user (third party), the legal causation may be established by the service provider’s failure to avoid being abetted.
Keywords: generative artificial intelligence; deep synthesis; ChatGPT; causation; tort liability
[責任編輯 郭 粹]