亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能侵權(quán)責(zé)任認(rèn)定路徑探析

        2025-07-16 00:00:00楊蒙
        河南科技 2025年12期
        關(guān)鍵詞:人工智能用戶(hù)產(chǎn)品

        中圖分類(lèi)號(hào):D923;D922.17 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1003-5168(2025)12-0119-07

        DOI:10.19968/j.cnki.hnkj.1003-5168.2025.12.023

        Analysison the Path ofDetermining TortLiability of Generative Artificial Intelligence

        YANG Meng (Nanjing University of Science and Technology,Nanjing 21oo18, China)

        Abstract: [Purposes] Aiming at the infringement problems that may be caused by the use of existing generativeartificial inteligence technology,especiallythepotential threat to civil rights,thisstudyaims to build a reasonable framework for the determination of tort liability,explore the tort liability mechanism applicable to generative artificial intelligence system,and focus on analyzing the causation analysis and fault liabilitystandards,so as to provide scientific basis for relevant legislative practice and ensure a balance between technological development and rights protection.[Methods] Based on the existing cases, this paper analyzes the typical structure of generative artificial intelligence infringement,and examines the imputationprinciple of generative artificial intelligence infringement according to product liability and general fault liability.Through the analysis of legal dogmatics,it is concluded that artificial intelligence infringement is more in line with the connotation of fault liability.[Findings] ① The technical core of generative artificial intelligence is embodied in dynamic interactive services,relying on continuous data updates and algorithm iteration,and lacks the homogenization and risk dispersion characteristics of traditional products. ② The content generated by artificial intelligence is a virtual risk,which is incompatible with the \"physical defect\" element in the \"Product Quality Law\". ③ The legislative practice clearly defines generative artificial intelligence as \"service\"and denies the path of product liability. [Conclusions] The liability attribution mechanism should be constructed with fault liability as the core: When the user is not at fault,the principle of presumption of liability should be applied,and the provider should bearthe burden of prooffor technical compliance;When the user is atfault,the provider shall fulfill strict risk prevention andcontrol obligations and be held jointly andseverally liable with theuser.To address the \"algorithmic black box\" problem,the \"high probability\" causation standard is adopted to reduce the burden of proof for the plaintiff,while alowing the provider to be exempted from liability through technical counter-evidence.

        Keywords: tort liability; generative artificial intelligence; product liability; fault liability

        0 引言

        自2018年OpenAI公司推出了風(fēng)靡一時(shí)的ChatGPT語(yǔ)言模型以來(lái),人工智能以席卷之勢(shì)在社會(huì)各個(gè)領(lǐng)域快速布局。人工智能是一種基于機(jī)器學(xué)習(xí)模型的技術(shù)范式,旨在通過(guò)學(xué)習(xí)和模擬現(xiàn)實(shí)世界的數(shù)據(jù)分布,自主生成符合特定語(yǔ)義或統(tǒng)計(jì)規(guī)律的新穎內(nèi)容。其核心在于利用深度神經(jīng)網(wǎng)絡(luò)捕捉輸人數(shù)據(jù)的潛在概率分布,并通過(guò)參數(shù)化建模實(shí)現(xiàn)對(duì)數(shù)據(jù)生成過(guò)程的逆向推理。當(dāng)前,人工智能技術(shù)尚未發(fā)展到自主創(chuàng)造階段,而是仍處于以“大數(shù)據(jù) + 大模型”為特征的生成式人工智能階段。這一全新技術(shù)的變革勢(shì)必會(huì)引發(fā)法律領(lǐng)域的一系列機(jī)遇和挑戰(zhàn),首當(dāng)其沖的問(wèn)題是如何在法律中回應(yīng)生成式人工智能潛在的侵權(quán)糾紛。

        1人工智能侵權(quán)風(fēng)險(xiǎn)探討

        1.1生成式人工智能對(duì)現(xiàn)行侵權(quán)認(rèn)定規(guī)則的挑戰(zhàn)

        以一般侵權(quán)為例,在認(rèn)定侵權(quán)責(zé)任時(shí)要考慮侵權(quán)行為、損害結(jié)果、因果關(guān)系與過(guò)錯(cuò)。在生成式人工智能的語(yǔ)境下,侵權(quán)行為和損害結(jié)果仍具有一般性,其客觀可感性與其他侵權(quán)并無(wú)區(qū)別,故在本部分不再贅述。對(duì)于因果關(guān)系和過(guò)錯(cuò)要件的認(rèn)定,結(jié)合生成式人工智能的特征,存在如下的困境。

        1.1.1“算法黑箱\"導(dǎo)致因果關(guān)系難證。從技術(shù)原理來(lái)看,生成式人工智能以大量數(shù)據(jù)為學(xué)習(xí)材料,通過(guò)機(jī)器的學(xué)習(xí)功能抽象其中的語(yǔ)言規(guī)律。用戶(hù)按照生成式人工智能學(xué)習(xí)的語(yǔ)言模式提出問(wèn)題后,系統(tǒng)可以在數(shù)據(jù)庫(kù)尋找到相應(yīng)的信息,通過(guò)語(yǔ)言規(guī)律的加工后形成針對(duì)性的回答。人工智能系統(tǒng)本身不具有主觀意圖,但當(dāng)訓(xùn)練數(shù)據(jù)集存在污染、偏差或采集方式違反法律規(guī)范時(shí),將導(dǎo)致生成內(nèi)容產(chǎn)生算法偏見(jiàn)或事實(shí)性錯(cuò)誤。

        更為復(fù)雜的一點(diǎn)在于,人與機(jī)器處理、分析問(wèn)題的思維是不同的,機(jī)器在前述學(xué)習(xí)數(shù)據(jù)的過(guò)程中所發(fā)現(xiàn)的規(guī)律和邏輯,可能是人們所不能理解的,因此對(duì)其進(jìn)行是與非、此或彼的判斷是不具有相應(yīng)技術(shù)知識(shí)背景的用戶(hù)或法官難以掌握的。在數(shù)據(jù)輸入與決策輸出之間,存在由多層非線(xiàn)性映射過(guò)程構(gòu)成的可解釋性缺失區(qū)域,即“算法黑箱”。并且,當(dāng)系統(tǒng)通過(guò)交互式應(yīng)用持續(xù)獲取指數(shù)級(jí)增長(zhǎng)的用戶(hù)反饋數(shù)據(jù)時(shí),其參數(shù)空間動(dòng)態(tài)性將導(dǎo)致模型表征持續(xù)演化,進(jìn)而形成透明度障礙與認(rèn)知鴻溝的雙重困境。在這種情況下,即使出現(xiàn)了生成式人工智能致人損害的客觀事實(shí),想要追溯其內(nèi)容產(chǎn)生的原因也是難以實(shí)現(xiàn)的。

        1.1.2計(jì)算機(jī)思維難以分析過(guò)錯(cuò)成因。生成式人工智能現(xiàn)階段運(yùn)用最為廣泛的是交互對(duì)話(huà)式產(chǎn)品。以ChatGPT為例,其根據(jù)用戶(hù)上傳的文字或圖片,以給定的用戶(hù)需求為參數(shù),經(jīng)過(guò)大數(shù)據(jù)的提取與比對(duì)分析給出回答或其他結(jié)果。系統(tǒng)輸出的結(jié)果是由用戶(hù)輸人的信息和系統(tǒng)的算法模型共同決定的,而用戶(hù)給定的信息亦會(huì)錄入數(shù)據(jù)庫(kù),此舉并不是為了面對(duì)相似問(wèn)題時(shí)直接給出既有的回答,而是以便機(jī)器進(jìn)行學(xué)習(xí)。不同于搜索引擎和數(shù)據(jù)庫(kù),生成式人工智能很難針對(duì)同一問(wèn)題給出完全相同的答案,其最大的特殊性在于動(dòng)態(tài)的數(shù)據(jù)學(xué)習(xí),即根據(jù)一定的規(guī)律,在與用戶(hù)的交互過(guò)程中基于庫(kù)中數(shù)據(jù)“生成\"答案,且該答案很可能并沒(méi)有直接的對(duì)照文本,甚至突破了發(fā)明者和使用者的合理想象。換言之,如何使用人工智能產(chǎn)品,會(huì)面對(duì)何種問(wèn)題及產(chǎn)生何種結(jié)果,均具有不可預(yù)期性,即使提供者已經(jīng)采取了充分必要的風(fēng)險(xiǎn)防范措施并滿(mǎn)足了行業(yè)監(jiān)管部門(mén)要求的標(biāo)準(zhǔn),人工智能致害的風(fēng)險(xiǎn)仍是無(wú)法避免的,這也是人工智能與一般產(chǎn)品的最大區(qū)別。而損害結(jié)果的不可預(yù)期性最直接的影響就是在侵權(quán)責(zé)任中難以確定提供者和使用者的過(guò)錯(cuò)。

        1.2生成式人工智能侵權(quán)類(lèi)型分析

        本研究針對(duì)人工智能侵權(quán)責(zé)任問(wèn)題展開(kāi)分析,具體涉及當(dāng)人工智能生成的信息存在虛假、錯(cuò)誤或編造情形,或具有危害性及誤導(dǎo)性特征時(shí),人工智能服務(wù)提供者需依法對(duì)受影響的用戶(hù)或第三人承擔(dān)相應(yīng)的侵權(quán)損害賠償責(zé)任。其中,生成式人工智能致人損害的情形有以下兩種類(lèi)型。

        1.2.1提供者直接侵權(quán)。第一種侵權(quán)類(lèi)型是指人工智能用戶(hù)在使用生成式人工智能系統(tǒng)的過(guò)程中,由人工智能的提供者,即服務(wù)商在提供服務(wù)時(shí)對(duì)該特定用戶(hù)或第三人造成的損害。在此類(lèi)情形下,當(dāng)用戶(hù)基于正當(dāng)目的使用生成式人工智能系統(tǒng)時(shí),若系統(tǒng)的某些運(yùn)算邏輯導(dǎo)致用戶(hù)或第三方損害,用戶(hù)不構(gòu)成過(guò)錯(cuò)。

        對(duì)于用戶(hù)自身的損害通常表現(xiàn)為對(duì)其個(gè)人信息的非法獲取。該問(wèn)題的根源可追溯至生成式人工智能訓(xùn)練機(jī)制對(duì)大規(guī)模數(shù)據(jù)資源的依賴(lài)性。研發(fā)者在構(gòu)建算法模型時(shí),常為規(guī)避授權(quán)成本而違法獲取個(gè)人信息,或使用未加密且來(lái)源存疑的敏感數(shù)據(jù)作為訓(xùn)練素材,這種數(shù)據(jù)合規(guī)性審查的缺失直接催生了隱私侵權(quán)的新形態(tài)。實(shí)證研究表明,攻擊者可通過(guò)逆向工程從語(yǔ)言模型中提取訓(xùn)練數(shù)據(jù),以ChatGPT為代表的通用大模型尤為典型。當(dāng)其訓(xùn)練集包含隱私敏感數(shù)據(jù)時(shí),惡意破解模型參數(shù)即可能引發(fā)系統(tǒng)性數(shù)據(jù)泄漏風(fēng)險(xiǎn)[2]

        對(duì)于第三人的侵權(quán)損害,最常見(jiàn)的類(lèi)型是以ChatGPT所代表的大語(yǔ)言模型產(chǎn)生的“幻覺(jué)\"(hallu-cinations),即生成式人工智能通過(guò)前期數(shù)據(jù)訓(xùn)練而產(chǎn)生的固有邏輯計(jì)算思維。在該思維的作用下,人工智能將許多現(xiàn)實(shí)中未曾發(fā)生過(guò)的內(nèi)容進(jìn)行“合乎邏輯”的捏造整合,從而形成包含侵害他人名譽(yù)權(quán)和隱私權(quán)的不實(shí)內(nèi)容。

        1.2.2用戶(hù)利用人工智能系統(tǒng)向第三人侵權(quán)。第二種侵權(quán)類(lèi)型則是用戶(hù)利用人工智能系統(tǒng)制作侵權(quán)信息,并傳播該信息致使第三人權(quán)利受損,或者用戶(hù)在向第三人提供服務(wù)的過(guò)程中,第三人因系統(tǒng)存在缺陷而遭受損害。不同于第一種類(lèi)型,此類(lèi)型中用戶(hù)在使用生成式人工智能時(shí)存在過(guò)錯(cuò)。

        具體為,用戶(hù)在使用生成式人工智能系統(tǒng)的過(guò)程中,故意利用系統(tǒng)特性采取了惡意誘導(dǎo)方式,如有意增加某名詞的使用頻率、使用同義詞來(lái)提問(wèn)及利用系統(tǒng)生成惡意的、捏造的、侵犯他人權(quán)益的文字、視頻等錯(cuò)誤信息。這些行為表明用戶(hù)是具有過(guò)錯(cuò)的,其利用了生成式人工智能這一工具來(lái)實(shí)施侵權(quán)行為。按照現(xiàn)有的侵權(quán)責(zé)任法律,如果上述行為滿(mǎn)足一般侵權(quán)行為的構(gòu)成要件,用戶(hù)當(dāng)然要承擔(dān)一般侵權(quán)責(zé)任。但不同于網(wǎng)絡(luò)服務(wù)提供者,生成式人工智能在侵權(quán)信息的生成過(guò)程中所承擔(dān)的責(zé)任是遠(yuǎn)大于前者的,生成式人工智能扮演從無(wú)到有的“創(chuàng)造者”角色,極大程度上便利了侵權(quán)行為的產(chǎn)生。網(wǎng)絡(luò)服務(wù)提供者自身無(wú)法實(shí)質(zhì)影響侵權(quán)行為人的侵權(quán)意圖的外化,其貢獻(xiàn)更多是擴(kuò)大侵權(quán)內(nèi)容的傳播范圍,而不是輔助侵權(quán)行為的產(chǎn)生。在網(wǎng)絡(luò)服務(wù)提供者未盡到及時(shí)刪除義務(wù)時(shí),其仍需要承擔(dān)與用戶(hù)的連帶責(zé)任。此處應(yīng)探究的問(wèn)題是,生成式人工智能提供者是否應(yīng)該承擔(dān)相應(yīng)的責(zé)任,在何種限度范圍內(nèi)承擔(dān)何種責(zé)任,擇其作為或不作為責(zé)任的共同承擔(dān)者的理論依據(jù)又是什么。

        在用戶(hù)利用生成式人工智能向第三人提供服務(wù)時(shí),第三人因系統(tǒng)缺陷遭受損害的情形常見(jiàn)于專(zhuān)業(yè)知識(shí)服務(wù)中。生成式人工智能系統(tǒng)具有強(qiáng)大的學(xué)習(xí)能力,能夠通過(guò)個(gè)性化的需求輸出海量的知識(shí),可以極大便利專(zhuān)業(yè)性商業(yè)需求。由此產(chǎn)生的問(wèn)題是,系統(tǒng)提供者對(duì)于第三人,即其用戶(hù)的客戶(hù),是否應(yīng)當(dāng)承擔(dān)產(chǎn)品責(zé)任。

        2生成式人工智能侵權(quán)適用產(chǎn)品責(zé)任證否

        由于生成式人工智能具有算法黑箱及損害結(jié)果的不可預(yù)期性,二者都指向了受害者的舉證責(zé)任困境。而解決這一困境的思路之一是實(shí)行無(wú)過(guò)錯(cuò)責(zé)任,從而規(guī)避原告的舉證責(zé)任。與生成式人工智能致害最為接近的是產(chǎn)品致害侵權(quán),但在現(xiàn)行的法律規(guī)范體系中,關(guān)于生成式人工智能致人損害是否可以適用產(chǎn)品責(zé)任,司法實(shí)踐尚不存在統(tǒng)一定論,而能否選擇產(chǎn)品責(zé)任這一歸責(zé)路徑,需要考慮以下幾個(gè)問(wèn)題。

        2.1生成式人工智能是產(chǎn)品還是服務(wù)

        我國(guó)《中華人民共和國(guó)民法典》(以下簡(jiǎn)稱(chēng)《民法典》和《中華人民共和國(guó)產(chǎn)品質(zhì)量法》(以下簡(jiǎn)稱(chēng)《產(chǎn)品質(zhì)量法》均對(duì)產(chǎn)品責(zé)任進(jìn)行了規(guī)定,而認(rèn)定是否適用產(chǎn)品責(zé)任的前提語(yǔ)境是致人損害物是“產(chǎn)品”。美國(guó)《侵權(quán)法重述》第19條規(guī)定,服務(wù),即使是商業(yè)性提供的,也并非產(chǎn)品??梢?jiàn)產(chǎn)品責(zé)任的適用對(duì)象是排除服務(wù)的。由此,討論生成式人工智能能否適用產(chǎn)品責(zé)任,首先要界定產(chǎn)品的含義,以及

        產(chǎn)品和服務(wù)劃分的邊界

        在法學(xué)視域下解析產(chǎn)品責(zé)任制度中的“產(chǎn)品”概念,不宜停留于文義解釋層面,更應(yīng)立足于規(guī)范目的進(jìn)行體系化闡釋。該制度肇端于工業(yè)文明時(shí)代,其規(guī)范構(gòu)造與工業(yè)化大規(guī)模生產(chǎn)模式具有內(nèi)在邏輯關(guān)聯(lián)。產(chǎn)品責(zé)任制度采用嚴(yán)格責(zé)任歸責(zé)原則,其法理特征體現(xiàn)為:嚴(yán)格責(zé)任制度的確立,生產(chǎn)者或銷(xiāo)售者的主觀過(guò)錯(cuò)不作為侵權(quán)責(zé)任構(gòu)成要件。然而,該制度的嚴(yán)格性并非絕對(duì),其正當(dāng)性基礎(chǔ)植根于風(fēng)險(xiǎn)分散機(jī)制一通過(guò)規(guī)?;a(chǎn)與市場(chǎng)流通環(huán)節(jié),生產(chǎn)者可將產(chǎn)品缺陷引致的損害賠償風(fēng)險(xiǎn)內(nèi)化至產(chǎn)品成本,借助價(jià)格機(jī)制實(shí)現(xiàn)風(fēng)險(xiǎn)的社會(huì)化分?jǐn)?。此種制度設(shè)計(jì)既彰顯消費(fèi)者權(quán)益保護(hù)的立法價(jià)值取向,又通過(guò)平衡生產(chǎn)經(jīng)營(yíng)者的合理預(yù)期利益,構(gòu)建起促進(jìn)產(chǎn)業(yè)創(chuàng)新與市場(chǎng)秩序良性互動(dòng)的法治化保障機(jī)制。

        而服務(wù)則不具備大量同質(zhì)化的特點(diǎn),在數(shù)量上,服務(wù)多采取一對(duì)一模式,難以達(dá)到短時(shí)間向社會(huì)大量提供的要求;而在質(zhì)量上,服務(wù)更多是個(gè)性化的,服務(wù)提供者難以按照相同的預(yù)定復(fù)制,因此服務(wù)提供者難以像工業(yè)產(chǎn)品生產(chǎn)者那樣借助大批量提供相同服務(wù)的市場(chǎng)方式分散責(zé)任風(fēng)險(xiǎn)。此外,產(chǎn)品進(jìn)入流通環(huán)節(jié)后,其物理屬性不因使用發(fā)生改變,且完全脫離生產(chǎn)者管控,故產(chǎn)品責(zé)任的核心在于產(chǎn)品固有缺陷,而非生產(chǎn)者行為。相比之下,服務(wù)需依賴(lài)提供者與用戶(hù)的持續(xù)性交互與維護(hù),其瑕疵多源于服務(wù)方的操作過(guò)失或管理疏漏。

        就生成式人工智能而言,其性質(zhì)屬于軟件。關(guān)于其是否屬于《產(chǎn)品責(zé)任法》意義上的產(chǎn)品,在司法實(shí)踐中,我國(guó)法院對(duì)此問(wèn)題并無(wú)明確的回答。在左立志與上海文華財(cái)經(jīng)資訊股份有限公司服務(wù)合同糾紛案中,上海市浦東新區(qū)人民法院認(rèn)為原告主張被告提供的軟件服務(wù)有缺陷導(dǎo)致其財(cái)產(chǎn)損失,不論軟件服務(wù)是否納人產(chǎn)品責(zé)任范疇,均應(yīng)就其主張缺陷的存在等事實(shí)進(jìn)行舉證。這樣的說(shuō)理實(shí)際上仍回避了軟件服務(wù)的產(chǎn)品責(zé)任定性問(wèn)題。基于上述對(duì)于產(chǎn)品和服務(wù)的討論,對(duì)生成式人工智能的性質(zhì)進(jìn)行界定,判斷標(biāo)準(zhǔn)不外乎數(shù)量上是否大規(guī)模生產(chǎn)銷(xiāo)售和質(zhì)量上是否具備高度同質(zhì)化,以及提供者對(duì)其產(chǎn)品或服務(wù)的控制力。

        美國(guó)《侵權(quán)法重述》對(duì)于軟件性質(zhì)的判定可以分為兩類(lèi):大量銷(xiāo)售的軟件可被視為產(chǎn)品,通常為封裝軟件(packagedsoftware);而專(zhuān)門(mén)為客戶(hù)開(kāi)發(fā)定制的軟件則屬于服務(wù)。以ChatGPT為例考察生成式人工智能的運(yùn)行模式,發(fā)現(xiàn)其更傾向于專(zhuān)門(mén)定制服務(wù),而非封裝軟件一樣可大規(guī)模復(fù)制和銷(xiāo)售的產(chǎn)品[3]。一方面,生成式人工智能系統(tǒng)的正常運(yùn)行基于開(kāi)發(fā)者持續(xù)不斷的運(yùn)營(yíng)和服務(wù),系統(tǒng)需要及時(shí)更新和修正數(shù)據(jù),這些操作都始終處于提供者的控制之下。另一方面,從需求端來(lái)看,生成式人工智能用戶(hù)對(duì)于該系統(tǒng)的需求也不具備高度同質(zhì)化的特點(diǎn),對(duì)于不同使用目的和不同領(lǐng)域用戶(hù)需求,生成式人工智能所依賴(lài)的數(shù)據(jù)庫(kù)和運(yùn)行邏輯亦有差別。且不同于一般計(jì)算機(jī)軟件,生成式人工智能即使面對(duì)相同使用需求的用戶(hù),其輸出的內(nèi)容也會(huì)受到人機(jī)交互與算法模型變化的影響而始終處于動(dòng)態(tài)變化的過(guò)程,由此產(chǎn)生的損害風(fēng)險(xiǎn)亦有不同。系統(tǒng)的提供者難以借助龐大的用戶(hù)規(guī)模來(lái)滿(mǎn)足高度同質(zhì)化的運(yùn)營(yíng)開(kāi)發(fā)模式,也就不具備分散其責(zé)任風(fēng)險(xiǎn)的理論基礎(chǔ)。

        因此,生成式人工智能軟件應(yīng)界定為服務(wù),立法者的態(tài)度也可作為旁證。2023年7月,國(guó)家互聯(lián)網(wǎng)信息辦公室正式頒布的《生成式人工智能服務(wù)管理暫行辦法》摒棄了征求意見(jiàn)稿中對(duì)于“生成式人工智能產(chǎn)品\"和\"生成式人工智能產(chǎn)品或服務(wù)”的表述,全篇統(tǒng)一使用了“生成式人工智能服務(wù)\"這一概念,這對(duì)生成式人工智能侵權(quán)責(zé)任性質(zhì)的研究具有指導(dǎo)意義。

        2.2生成內(nèi)容缺陷適用產(chǎn)品責(zé)任的解釋論分析

        即便將生成式人工智能歸類(lèi)為產(chǎn)品,其與傳統(tǒng)有形產(chǎn)品的本質(zhì)區(qū)別仍不可忽視。前者致害的根源并非硬件缺陷等物理性瑕疵,而在于錯(cuò)誤、失實(shí)或誤導(dǎo)性信息等生成內(nèi)容的虛擬風(fēng)險(xiǎn)性。由此產(chǎn)生的爭(zhēng)議在于,外在實(shí)體不存在缺陷的情況下,產(chǎn)品的內(nèi)容存在缺陷可否適用產(chǎn)品責(zé)任。

        在類(lèi)推解釋方法論框架下審視生成式人工智能的法律屬性,需要特別關(guān)注其與印刷出版物在規(guī)范適用上的同質(zhì)性。二者均基于信息載體的核心特征,即通過(guò)知識(shí)內(nèi)容輸出滿(mǎn)足社會(huì)公眾的認(rèn)知需求,這一本質(zhì)屬性成為建構(gòu)法律責(zé)任體系的關(guān)鍵要素。美國(guó)判例法已通過(guò)司法實(shí)踐確立出版物內(nèi)容責(zé)任的規(guī)范范式:在具有里程碑意義的航空器適航性糾紛判例中,美國(guó)聯(lián)邦最高法院創(chuàng)造性運(yùn)用功能主義解釋路徑,將航空導(dǎo)航圖表的出版行為納入產(chǎn)品責(zé)任法規(guī)制范疇。該判例確立的司法審查標(biāo)準(zhǔn)強(qiáng)調(diào),當(dāng)出版物內(nèi)容構(gòu)成特定專(zhuān)業(yè)技術(shù)領(lǐng)域的實(shí)質(zhì)性操作指引時(shí),其生產(chǎn)者應(yīng)當(dāng)對(duì)內(nèi)容瑕疵承擔(dān)嚴(yán)格

        責(zé)任。

        而在另一起類(lèi)似的案件中,原告因按照被告出版的《蘑菇百科全書(shū)》中的介紹誤食了一種蘑菇而中毒,造成了嚴(yán)重的身體健康損害②。但法院駁回了原告要求被告承擔(dān)產(chǎn)品責(zé)任的訴求,在說(shuō)理部分寫(xiě)道:諸如《蘑菇百科全書(shū)》一類(lèi)的圖書(shū)是作者的一種表達(dá)思想,若對(duì)作者的思想內(nèi)容過(guò)于苛求,適用嚴(yán)格責(zé)任,將會(huì)抑制思想的表達(dá)與傳播,因此不宜將思想內(nèi)容視為產(chǎn)品。并且為了與前述的航空?qǐng)D表案做出區(qū)分,法院認(rèn)為航空?qǐng)D表因具備技術(shù)工具屬性,在特定領(lǐng)域被廣泛依賴(lài),可界定為產(chǎn)品;而《蘑菇百科全書(shū)》作為指導(dǎo)工具使用的說(shuō)明性著作,本質(zhì)是基于主觀認(rèn)知的思想表達(dá),其內(nèi)容屬于對(duì)工具應(yīng)用方法的闡釋。由此,航空?qǐng)D表的出版者可能承擔(dān)嚴(yán)格責(zé)任,而工具書(shū)的作者僅需對(duì)內(nèi)容錯(cuò)誤承擔(dān)過(guò)錯(cuò)責(zé)任。盡管上述案例焦點(diǎn)集中于出版者的責(zé)任邊界,但對(duì)作者責(zé)任的歸責(zé)邏輯已有明確指向。然而在生成式人工智能語(yǔ)境下,并不存在著類(lèi)似圖書(shū)的作者與出版者的嚴(yán)格區(qū)分,對(duì)于提供者的身份界定,更應(yīng)傾向于出版者身份,原因是作者是基于自由意志進(jìn)行創(chuàng)作的主體,其作品并不能體現(xiàn)出版者的思想。在這一維度上,生成式人工智能提供者更應(yīng)傾向于傳統(tǒng)出版物中的出版者這一主體概念。

        上述案例確定的邏輯對(duì)于生成式人工智能生成內(nèi)容缺陷是否可以適用產(chǎn)品責(zé)任具有一定的參考意義。應(yīng)對(duì)人工智能生成的內(nèi)容進(jìn)行分類(lèi),將適用嚴(yán)格責(zé)任限制在極少數(shù)的具有高度風(fēng)險(xiǎn)領(lǐng)域的純粹專(zhuān)業(yè)技術(shù)性?xún)?nèi)容,且該內(nèi)容通常為用戶(hù)基于專(zhuān)業(yè)技術(shù)需求定制性的。而對(duì)于僅供娛樂(lè)性,或僅僅是結(jié)合事實(shí)產(chǎn)生主觀性表達(dá)的內(nèi)容,不宜要求生成式人工智能提供者對(duì)系統(tǒng)產(chǎn)生的內(nèi)容準(zhǔn)確性承擔(dān)嚴(yán)格的無(wú)過(guò)錯(cuò)責(zé)任。

        3生成式人工智能侵權(quán)適用過(guò)錯(cuò)責(zé)任分析

        前述中,對(duì)于應(yīng)用于具有高度風(fēng)險(xiǎn)領(lǐng)域的純粹專(zhuān)業(yè)技術(shù)性的生成式人工智能,應(yīng)對(duì)其適用嚴(yán)格責(zé)任,故該類(lèi)情況在本部分的論述中予以排除。對(duì)于多數(shù)生成式人工智能而言,其侵權(quán)行為往往不直接涉及人身安全或?qū)嶓w財(cái)產(chǎn)損害,且潛在危害性較低。鑒于此類(lèi)風(fēng)險(xiǎn)的可控性,將其納入以過(guò)錯(cuò)責(zé)任為基準(zhǔn)的一般侵權(quán)責(zé)任體系進(jìn)行歸責(zé)分析更為適宜。從一般的侵權(quán)責(zé)任認(rèn)定的構(gòu)成要件出發(fā),損害行為和損害結(jié)果是具有客觀實(shí)在性的,生成式人工智能侵權(quán)的情形下二者并無(wú)特異,所以本部分重點(diǎn)對(duì)因果關(guān)系和過(guò)錯(cuò)要件的認(rèn)定進(jìn)行論述

        3.1因果關(guān)系認(rèn)定思路

        在認(rèn)定行為與損害結(jié)果是否存在因果關(guān)系時(shí),通常采用等值理論和相當(dāng)性理論進(jìn)行判斷。前者是對(duì)行為是否可以作為侵權(quán)結(jié)果的近因的判斷方法,僅作為量的層面上有或無(wú)的判斷,通常采用替代分析法(Butfortest),具體思路為若將主體行為移除,損害結(jié)果仍不可避免地發(fā)生,則應(yīng)當(dāng)認(rèn)定兩者之間并不存在因果關(guān)系,反之則具有因果關(guān)系。后者則是對(duì)符合前述判斷的近因條件進(jìn)行質(zhì)的層面上多或少的判斷,主要依賴(lài)于一般的社會(huì)觀念,即以普通社會(huì)觀念判斷主體行為在通常情況下是否會(huì)導(dǎo)致?lián)p害結(jié)果的發(fā)生。在人工智能視域下,對(duì)于普通社會(huì)觀念的標(biāo)準(zhǔn)不宜加以過(guò)高要求,其一是人工智能作為一項(xiàng)前沿技術(shù),社會(huì)公眾對(duì)其一般觀念的認(rèn)識(shí)尚處于初步階段,需經(jīng)歷較長(zhǎng)的接受過(guò)程,對(duì)于人工智能系統(tǒng)的行為與損害結(jié)果的因果關(guān)系強(qiáng)度難以做出準(zhǔn)確判斷;其二人工智能系統(tǒng)算法的運(yùn)行并非簡(jiǎn)單的線(xiàn)性,而是層次豐富的樹(shù)狀過(guò)程4。由于這種復(fù)雜性,其侵權(quán)因果關(guān)系的認(rèn)定較傳統(tǒng)領(lǐng)域更為困難,無(wú)法明確劃分各原因的貢獻(xiàn)邊界。這導(dǎo)致在多因一果、多因多果的復(fù)雜情形下,無(wú)法具體定位于某個(gè)或某些行為或系統(tǒng)環(huán)節(jié)導(dǎo)致了損害結(jié)果的發(fā)生,對(duì)于替代分析法的適用存在困境,會(huì)直接影響侵權(quán)責(zé)任在各原因主體間的分配。

        因此,在實(shí)踐中判斷人工智能致害的因果關(guān)系時(shí),對(duì)于因果關(guān)系的認(rèn)定標(biāo)準(zhǔn)應(yīng)采用“高度蓋然性”的要求,只需要大致釋明侵權(quán)行為的領(lǐng)域,不必達(dá)到具體的證明程度的舉證。受害人只需要提供基本程度的人工智能系統(tǒng)存在設(shè)計(jì)、運(yùn)行上的瑕疵(表現(xiàn)為進(jìn)行相同操作得到的故障再現(xiàn)),以及該瑕疵造成的實(shí)際損害,即可認(rèn)定兩者存在因果關(guān)系,其并不需要揭示算法黑箱內(nèi)部的技術(shù)方案存在瑕疵,也不必對(duì)專(zhuān)業(yè)技術(shù)知識(shí)進(jìn)行技術(shù)鑒定。而提供者方具有技術(shù)證明優(yōu)勢(shì),其可以提供專(zhuān)業(yè)技術(shù)說(shuō)明,用以證明系統(tǒng)的設(shè)計(jì)不存在瑕疵,或既存的瑕疵是受限于當(dāng)時(shí)社會(huì)技術(shù)水平的限制而無(wú)法避免或無(wú)法被自檢發(fā)現(xiàn),作為減輕或免除責(zé)任的事由。以上的做法可以平衡受害人的舉證責(zé)任及人工智能提供者的合理權(quán)益。

        3.2 過(guò)錯(cuò)認(rèn)定思路

        3.2.1用戶(hù)無(wú)過(guò)錯(cuò)情況下提供者過(guò)錯(cuò)的認(rèn)定。在過(guò)錯(cuò)責(zé)任原則體系下,原告對(duì)被告主觀過(guò)錯(cuò)的證明責(zé)任構(gòu)成侵權(quán)責(zé)任成立的核心要件。然而,生成式人工智能技術(shù)應(yīng)用場(chǎng)景中呈現(xiàn)的技術(shù)黑箱特性與算法決策機(jī)制的非透明性,使得傳統(tǒng)證明責(zé)任分配規(guī)則面臨制度性困境。若機(jī)械適用既有規(guī)范,要求信息弱勢(shì)方就技術(shù)系統(tǒng)的設(shè)計(jì)缺陷或運(yùn)營(yíng)者的注意義務(wù)違反承擔(dān)舉證責(zé)任,實(shí)質(zhì)上將形成對(duì)受害人權(quán)益救濟(jì)的制度性障礙。對(duì)于這一問(wèn)題,歐盟《人工智能責(zé)任指令》為受害者規(guī)定了人工智能提供者應(yīng)披露相關(guān)不侵權(quán)證據(jù)的救濟(jì)方式,同時(shí)規(guī)定未能披露相關(guān)證據(jù)的提供者,推定為未盡到注意義務(wù)。實(shí)質(zhì)上,這一規(guī)定與我國(guó)《民法典》侵權(quán)責(zé)任編規(guī)定的過(guò)錯(cuò)推定原則是一致的。故而,對(duì)于生成式人工智能致人損害的案件,采用過(guò)錯(cuò)推定,將舉證責(zé)任倒置,是對(duì)生成式人工智能這一新問(wèn)題更有針對(duì)性的回應(yīng)。

        在過(guò)錯(cuò)推定的歸責(zé)原則中,法院對(duì)于人工智能提供者過(guò)錯(cuò)的認(rèn)定仍然需要進(jìn)一步結(jié)合生成式人工智能的特征。過(guò)錯(cuò)包括故意和過(guò)失,對(duì)于故意的判斷,要求行為人對(duì)于損害結(jié)果的發(fā)生具有可預(yù)見(jiàn)性,并選擇積極追求或放任該損害結(jié)果的發(fā)生。在生成式人工智能的語(yǔ)境中,提供者對(duì)于其人工智能服務(wù)可能致人損害的潛在風(fēng)險(xiǎn)僅存在模糊的認(rèn)知,但對(duì)于具體的侵權(quán)類(lèi)型和侵權(quán)對(duì)象的預(yù)期,是難以在事前所充分預(yù)見(jiàn)的。并且,提供者在事前并無(wú)積極追求人工智能致害的主觀態(tài)度,討論提供者的故意是沒(méi)有現(xiàn)實(shí)意義的。人工智能的提供者并非實(shí)際侵權(quán)人,也難稱(chēng)對(duì)人工智能服務(wù)有足夠的管控力,對(duì)其過(guò)失的認(rèn)定并不需判斷主觀狀態(tài)。因此,此處所指的是客觀標(biāo)準(zhǔn)的過(guò)失認(rèn)定,即行為人未盡到合理的注意義務(wù),是謂過(guò)失。

        在對(duì)提供者設(shè)計(jì)、研發(fā)、運(yùn)營(yíng)、維護(hù)中的注意義務(wù)進(jìn)行認(rèn)定時(shí),應(yīng)采用社會(huì)相當(dāng)性理論。在面對(duì)高速發(fā)展的具有強(qiáng)技術(shù)性且存在自我學(xué)習(xí)機(jī)制的人工智能系統(tǒng)研發(fā)工作,未盡合理義務(wù)并非一味屬于傳統(tǒng)的不作為侵權(quán),提供者往往難以全面認(rèn)識(shí)到系統(tǒng)漏洞和其蘊(yùn)含的風(fēng)險(xiǎn),應(yīng)當(dāng)以社會(huì)相當(dāng)性理論為評(píng)價(jià)標(biāo)準(zhǔn),使民法成為人工智能技術(shù)健康發(fā)展的保護(hù)傘,而非阻礙其發(fā)展的絆腳石,要在平衡發(fā)展新興科技與民事處罰之間合理確定義務(wù)內(nèi)容。對(duì)于已形成行業(yè)基礎(chǔ)性的注意義務(wù),即使未被立法者加以認(rèn)可,也可以作為對(duì)過(guò)失要件的考量中的參考,如果人工智能提供者在設(shè)計(jì)、研發(fā)、運(yùn)營(yíng)、維護(hù)的過(guò)程中違反了行業(yè)的管制性規(guī)定,即可推定其對(duì)損害結(jié)果存有過(guò)失。同時(shí),法院在審理過(guò)程中發(fā)現(xiàn)提供者對(duì)于同一人工智能系統(tǒng)版本在先前既存侵權(quán)糾紛的事實(shí)下,并未就相關(guān)問(wèn)題做出技術(shù)調(diào)整、修正,也可推定其對(duì)于相近的侵權(quán)結(jié)構(gòu)存在過(guò)錯(cuò)。據(jù)此,當(dāng)人工智能提供者有充分證據(jù)予以證明其違反行業(yè)規(guī)定的行為與損害結(jié)果的發(fā)生不存在對(duì)應(yīng)的因果關(guān)系時(shí),可以推翻對(duì)其過(guò)錯(cuò)的推定。

        3.2.2用戶(hù)過(guò)錯(cuò)情況下對(duì)提供者責(zé)任認(rèn)定的影響。生成式人工智能的一大特點(diǎn)在于其吸收用戶(hù)提供的數(shù)據(jù)后,會(huì)在后端數(shù)據(jù)中加以留存,當(dāng)用戶(hù)采取不當(dāng)?shù)氖侄沃率箶?shù)據(jù)庫(kù)中存在著大量“污染\"信息時(shí),其向其他用戶(hù)輸出的內(nèi)容很可能具有潛在的侵權(quán)可能性。例如在2016年3月23日,微軟公司推出了一款名為“Tay\"的人工智能聊天機(jī)器人,該機(jī)器人可在與用戶(hù)的聊天過(guò)程中吸收用戶(hù)提供的數(shù)據(jù)并加以學(xué)習(xí),實(shí)現(xiàn)自發(fā)的數(shù)據(jù)庫(kù)拓展。然而,Tay一上線(xiàn)即遭到了大量使用者的惡意誘導(dǎo),導(dǎo)致其在對(duì)用戶(hù)的輸出內(nèi)容中出現(xiàn)大量歧視性不當(dāng)內(nèi)容,致使大量特殊群體用戶(hù)在使用該服務(wù)后受到了不同程度的歧視與侮辱,最終微軟公司在發(fā)布次日關(guān)閉了該系統(tǒng)。

        當(dāng)前,有學(xué)者主張將生成式人工智能侵權(quán)中提供者的歸責(zé)路徑參照網(wǎng)絡(luò)服務(wù)提供者的“通知規(guī)則”,即網(wǎng)絡(luò)用戶(hù)在利用網(wǎng)絡(luò)服務(wù)者提供的網(wǎng)絡(luò)平臺(tái)實(shí)施侵權(quán)行為時(shí),受到侵害的權(quán)利人有權(quán)通知網(wǎng)絡(luò)服務(wù)提供者采取刪除、屏蔽、斷開(kāi)鏈接等措施,網(wǎng)絡(luò)服務(wù)提供者在接到通知時(shí)應(yīng)當(dāng)及時(shí)將該通知轉(zhuǎn)送相關(guān)網(wǎng)絡(luò)用戶(hù),或者采取必要措施以防止損失擴(kuò)大5。只有在受害人向網(wǎng)絡(luò)服務(wù)提供者發(fā)送通知,要求其采取必要措施后,網(wǎng)絡(luò)服務(wù)提供者才有義務(wù)采取必要措施以避免損害的擴(kuò)大。此種觀點(diǎn)看到了形式上生成式人工智能和網(wǎng)絡(luò)服務(wù)平臺(tái)侵權(quán)的相似之處,即二者都是美國(guó)“避風(fēng)港原則\"中在線(xiàn)服務(wù)的創(chuàng)建者、銷(xiāo)售者和服務(wù)商,該類(lèi)主體的共通性在于其所提供的服務(wù)依據(jù)的是海量的數(shù)據(jù)和信息,無(wú)論是網(wǎng)絡(luò)服務(wù)提供者對(duì)于其平臺(tái)內(nèi)的信息,還是生成式人工智能提供者對(duì)于系統(tǒng)的數(shù)據(jù)庫(kù)內(nèi)容都無(wú)法做到一一審查,否則會(huì)花費(fèi)大量的成本,并且有礙于信息的及時(shí)流通。因此,該類(lèi)主體只需承擔(dān)被動(dòng)的審查角色,在接到受害人的通知后,未及時(shí)采取必要措施的情況下才需對(duì)損害的擴(kuò)大部分承擔(dān)侵權(quán)責(zé)任。但本研究認(rèn)為,究其侵權(quán)產(chǎn)生的實(shí)質(zhì)方面,生成式人工智能致害相較于用戶(hù)利用網(wǎng)絡(luò)平臺(tái)侵權(quán)有著其特殊性。

        從侵權(quán)對(duì)象的角度,生成式人工智能用戶(hù)對(duì)于其誘導(dǎo)行為會(huì)向第三人產(chǎn)生致害,系統(tǒng)會(huì)向其輸出何種內(nèi)容,以及會(huì)在何種范圍內(nèi)產(chǎn)生致害結(jié)果是無(wú)法具有實(shí)際上的支配力的,而這種排他性的支配力由計(jì)算機(jī)系統(tǒng)所具備。換言之,誘導(dǎo)行為者對(duì)侵權(quán)結(jié)果的產(chǎn)生僅存在模糊的主觀過(guò)錯(cuò)

        從侵權(quán)內(nèi)容的產(chǎn)生角度,網(wǎng)絡(luò)平臺(tái)的用戶(hù)是基于自己的積極創(chuàng)作將侵權(quán)意識(shí)進(jìn)行外化,從思想的產(chǎn)生到具象化的侵權(quán)內(nèi)容輸出,皆由用戶(hù)獨(dú)立自主完成,網(wǎng)絡(luò)服務(wù)提供者僅僅是為其提供了廣泛傳播的渠道。在生成式人工智能系統(tǒng)中,用戶(hù)侵權(quán)的行為主要來(lái)自其對(duì)于系統(tǒng)的“誘導(dǎo)”,而后的大部分并非由其完成。在上述案例中,用戶(hù)僅僅需要提供最基礎(chǔ)的“惡意”,系統(tǒng)會(huì)協(xié)助其完成侵權(quán)信息內(nèi)容,相較于網(wǎng)絡(luò)服務(wù)平臺(tái)在收到被侵權(quán)者前所處的僅發(fā)布第三方內(nèi)容的技術(shù)中立角色,生成式人工智能在致害過(guò)程中明顯向侵權(quán)一方傾斜。

        因此,當(dāng)前法律雖未規(guī)定生成式人工智能侵權(quán)中提供者是否需承擔(dān)侵權(quán)責(zé)任,但根據(jù)當(dāng)然解釋的思路,對(duì)于網(wǎng)絡(luò)服務(wù)提供者在用戶(hù)過(guò)錯(cuò)致人損害中,尚要求其在未采取必要措施時(shí)承擔(dān)連帶侵權(quán)責(zé)任,則人工智能提供者在侵權(quán)行為中也需在未滿(mǎn)足一定義務(wù)下,與不當(dāng)行為用戶(hù)承擔(dān)連帶責(zé)任。

        當(dāng)用戶(hù)的誘導(dǎo)行為實(shí)質(zhì)上促使系統(tǒng)向第三人生成侵權(quán)內(nèi)容時(shí),若提供者對(duì)于用戶(hù)顯性不當(dāng)行為,或?qū)τ诟叨任耆栊缘挠谜Z(yǔ)等惡意行為未盡到必要的風(fēng)險(xiǎn)防范義務(wù),如預(yù)先設(shè)置相關(guān)詞語(yǔ)屏蔽排除功能,或?qū)τ谙到y(tǒng)輸出內(nèi)容未進(jìn)行持續(xù)監(jiān)測(cè),則可視為其存在過(guò)錯(cuò)。此時(shí),可認(rèn)定人工智能提供者與該用戶(hù)為共同侵權(quán)行為人,對(duì)第三人的權(quán)益損害承擔(dān)連帶的賠償責(zé)任。

        4結(jié)語(yǔ)

        國(guó)產(chǎn)人工智能“DeepSeek\"的橫空出世,將大眾對(duì)生成式人工智能的關(guān)注推向新的高度。但新興事物的產(chǎn)生勢(shì)必會(huì)對(duì)現(xiàn)有法律制度帶來(lái)新的挑戰(zhàn)。由于生成式人工智能的技術(shù)特性,尚無(wú)法通過(guò)技術(shù)手段規(guī)避其含有的侵權(quán)內(nèi)容。如何合理分配損害風(fēng)險(xiǎn)、確定人工智能提供者的責(zé)任邊界就極為重要。

        對(duì)于生成式人工智能侵權(quán)責(zé)任認(rèn)定的核心是定性。相較于產(chǎn)品責(zé)任,過(guò)錯(cuò)責(zé)任更能體現(xiàn)生成式人工智能作為服務(wù)的本質(zhì)屬性,同時(shí)適應(yīng)其技術(shù)復(fù)雜性和動(dòng)態(tài)學(xué)習(xí)特征。在用戶(hù)無(wú)過(guò)錯(cuò)的情形下,提供者應(yīng)適用過(guò)錯(cuò)推定規(guī)則,通過(guò)舉證責(zé)任倒置平衡技術(shù)信息不對(duì)稱(chēng)問(wèn)題;而在用戶(hù)存在過(guò)錯(cuò)時(shí),提供者需承擔(dān)與網(wǎng)絡(luò)服務(wù)提供者類(lèi)似但更為嚴(yán)格的保障義務(wù),并與用戶(hù)共同承擔(dān)連帶責(zé)任,以強(qiáng)化風(fēng)險(xiǎn)防控的協(xié)同效應(yīng)。

        而面對(duì)算法黑箱導(dǎo)致的舉證困境,應(yīng)降低受害者的證明標(biāo)準(zhǔn),僅需證明系統(tǒng)瑕疵與損害結(jié)果之間的高度蓋然性關(guān)聯(lián)。提供者則可通過(guò)技術(shù)反證,如證明瑕疵源于技術(shù)局限性或已履行行業(yè)合規(guī)義務(wù),減輕或免除責(zé)任。這一機(jī)制既能保障受害者的救濟(jì)權(quán),又為技術(shù)開(kāi)發(fā)者保留了合理抗辯空間。

        未來(lái),隨著生成式人工智能應(yīng)用場(chǎng)景的拓展,其侵權(quán)責(zé)任規(guī)則仍需動(dòng)態(tài)調(diào)適。建議后續(xù)研究關(guān)注以下方向:其一,探索算法透明度與可解釋性技術(shù)的法律嵌入路徑,以緩解黑箱導(dǎo)致的歸責(zé)難題;其二,針對(duì)用戶(hù)、提供者、第三方平臺(tái)等多主體協(xié)作場(chǎng)景的責(zé)任分配機(jī)制展開(kāi)精細(xì)化分析;其三,加強(qiáng)國(guó)際比較研究,結(jié)合歐盟《人工智能法案》等域外經(jīng)驗(yàn),完善我國(guó)人工智能治理的本土化方案。唯有通過(guò)法律與技術(shù)的雙向互動(dòng),才能在激發(fā)創(chuàng)新活力的同時(shí),筑牢權(quán)益保護(hù)的制度屏障。

        注釋?zhuān)?/p>

        ① Winterv.G.P.Putnam's Sons,938F.2d1033(9th Cir. 1991). ② Saloomey v. Jeppesen Co.,707F.2d 671 (2d Cir. 1983).

        參考文獻(xiàn):

        [1]周學(xué)峰.生成式人工智能侵權(quán)責(zé)任探析[J].比較法研究,2023(4):117-131.

        [2]王利明.生成式人工智能侵權(quán)的法律應(yīng)對(duì)[J].中國(guó)應(yīng)用法學(xué),2023(5):27-38

        [3]美國(guó)法律研究院.侵權(quán)法重述第三版:產(chǎn)品責(zé)任[M].肖永平,龔樂(lè)凡,汪雪飛,譯.北京:法律出版社,2006.

        [4]衣俊霖.數(shù)字孿生時(shí)代的法律與問(wèn)責(zé):通過(guò)技術(shù)標(biāo)準(zhǔn)透視算法黑箱[J].東方法學(xué),2021(4):77-92.

        [5]程嘯.侵權(quán)責(zé)任法[M].3版.北京:法律出版社,2021.

        [6]王若冰.論生成式人工智能侵權(quán)中服務(wù)提供者過(guò)錯(cuò)的認(rèn)定:以“現(xiàn)有技術(shù)水平”為標(biāo)準(zhǔn)[J].比較法研究,2023(5):20-33.

        猜你喜歡
        人工智能用戶(hù)產(chǎn)品
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        關(guān)注用戶(hù)
        下一幕,人工智能!
        關(guān)注用戶(hù)
        關(guān)注用戶(hù)
        2015產(chǎn)品LOOKBOOK直擊
        Coco薇(2015年1期)2015-08-13 02:23:50
        如何獲取一億海外用戶(hù)
        新產(chǎn)品
        玩具(2009年10期)2009-11-04 02:33:14
        亚洲免费观看一区二区三区 | 久久国产成人亚洲精品影院老金| av中文码一区二区三区| 亚洲一区二区三区偷拍视频| 日本一区二区在线播放| 少妇人妻真实偷人精品视频| 白色橄榄树在线免费观看| 在线观看高清视频一区二区三区| 久久人妻av无码中文专区| 久久亚洲精品11p| 日韩欧美亚洲中字幕在线播放| 国产精品美女自在线观看| 色中文字幕在线观看视频| 日本公与熄乱理在线播放| 天天躁日日躁狠狠躁一区| 亚洲女同人妻在线播放| 夜夜高潮夜夜爽夜夜爱爱一区 | 黑丝美女喷水在线观看| 中文字幕乱码熟女人妻在线| 50岁退休熟女露脸高潮| 人妻av无码一区二区三区| 国产剧情av麻豆香蕉精品| 国产AV无码无遮挡毛片| 国产亚洲精品精品综合伦理| 人妻少妇偷人精品无码| 四虎影视亚洲精品| 区三区久久精品水蜜桃av| 精品国产午夜肉伦伦影院| 日韩插啊免费视频在线观看| 亚洲午夜无码视频在线播放| 青青草视频在线观看绿色| 人禽交 欧美 网站| 无码国产精品一区二区免| 97久久久一区二区少妇| 一本久道综合色婷婷五月| 久久久精品国产sm调教网站 | 日韩国产成人精品视频| 亚洲不卡av二区三区四区| 成人亚洲一区二区三区在线| 久操视频新免费伊人| 国产精品成人黄色大片|