亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自主人工智能侵權(quán)責(zé)任的模式厘定及平衡測試

        2025-03-27 00:00:00夏慶鋒

        DOI:10.16366/j.cnki.1000-2359.2025.02.09

        摘要:人工智能包括自動人工智能與自主人工智能兩大類。對于自主人工智能侵權(quán)責(zé)任的認(rèn)定較為復(fù)雜,包括嚴(yán)格責(zé)任、自己責(zé)任與雇主責(zé)任三種模式。具體而言,嚴(yán)格責(zé)任要求自主人工智能的創(chuàng)造者承擔(dān)完全責(zé)任,而不管其與人工智能的侵權(quán)行為之間是否存在因果關(guān)系;自己責(zé)任承認(rèn)自主人工智能具備獨立法律人格,需利用自有財產(chǎn)對損害承擔(dān)責(zé)任;雇主責(zé)任觀照到人類主體的獲利事實,要求創(chuàng)造者與使用者作為雇主,對自主人工智能“雇員”的侵權(quán)行為進行賠償。三種模式各具優(yōu)勢,也存在無法忽視的弊端,自主人工智能侵權(quán)責(zé)任的承擔(dān)應(yīng)當(dāng)以造成的損害后果是否可預(yù)見為指標(biāo),也包括為阻止損害發(fā)生而采取的技術(shù)預(yù)防措施。此外,還需考慮自主人工智能接受創(chuàng)造者或使用者的訓(xùn)練時間與強度,以及行業(yè)習(xí)慣和環(huán)境是否對其產(chǎn)生影響等因素,綜合認(rèn)定自主人工智能的侵權(quán)責(zé)任。

        關(guān)鍵詞:自主人工智能;嚴(yán)格責(zé)任;自己責(zé)任;雇主責(zé)任;平衡測試

        基金項目:安徽省高等學(xué)校科學(xué)研究重大項目(2023AH040005)

        作者簡介:夏慶鋒,博士,安徽大學(xué)法學(xué)院副教授,安徽網(wǎng)絡(luò)法治研究中心研究人員,主要從事網(wǎng)絡(luò)法等相關(guān)問題研究。

        中圖分類號:D923.99文獻標(biāo)識碼:A文章編號:1000-2359(2025)02-0061-08收稿日期:2024-02-05人工智能指基于統(tǒng)計和邏輯原理的計算程序與算法,通過模擬人類的認(rèn)知過程從事數(shù)據(jù)驅(qū)動任務(wù),包括獲取和處理數(shù)據(jù)、驅(qū)動物理部件、做出判斷與決策等{"劉艷紅:《人工智能法學(xué)研究的反智化批判》,《東方法學(xué)》,2019年第5期。}。根據(jù)不同的功能,可將人工智能分為自動人工智能與自主人工智能兩大類。自動人工智能遵循預(yù)先編碼的人類指令,在人類控制下履行事務(wù),而自主人工智能通過收集大量數(shù)據(jù)進行歸納學(xué)習(xí)、分析并最終決策,在無任何人類直接干預(yù)或影響的情況下,對現(xiàn)實世界產(chǎn)生的問題做出反應(yīng),具有自主性{"夏慶鋒:《區(qū)塊鏈智能合同的適用主張》,《東方法學(xué)》,2019年第3期。}。人工智能侵權(quán)責(zé)任的認(rèn)定過程存在困難,對于自動人工智能而言,可適用產(chǎn)品責(zé)任制度進行規(guī)制,但無法完全適用至自主人工智能的侵權(quán)責(zé)任中。本文提出自主人工智能侵權(quán)責(zé)任的三種模式:嚴(yán)格責(zé)任模式要求處于優(yōu)勢地位的生產(chǎn)者和設(shè)計者對損害進行分擔(dān);自己責(zé)任模式主張具有自主意識的人工智能自己承擔(dān)責(zé)任,以防止人類主體負(fù)擔(dān)過重;雇主責(zé)任模式回避自主人工智能是否具備獨立法律人格的論證困難,賦予人類主體承擔(dān)責(zé)任后的追償可能。三種模式依次更迭,后一種責(zé)任模式試圖在彌補前一種責(zé)任模式缺陷的基礎(chǔ)之上提出解決方法,但仍然存在新的問題。本文最后提出平衡測試因素的認(rèn)定方法,為解決自主人工智能侵權(quán)責(zé)任的認(rèn)定難題提供可能路徑。

        一、人工智能侵權(quán)責(zé)任存在認(rèn)定難題

        伴隨社會經(jīng)濟與計算機技術(shù)的快速發(fā)展,人工智能與各種行業(yè)的接觸變得更加廣泛且更為深入,為人類社會帶來各種便利。但是,人工智能在極大提高了工作效率的同時,存在對人類世界造成損害的潛在風(fēng)險。與傳統(tǒng)侵權(quán)行為不同,利用智能機器人、智能軟件、算法活動、物聯(lián)網(wǎng)等人工智能技術(shù)導(dǎo)致的損害后果具有新的外在形式。例如,醫(yī)療機器人檢測癌癥失敗、智能殺毒軟件無法發(fā)現(xiàn)電子病毒、法律技術(shù)算法程序未能找到適用法條、物聯(lián)網(wǎng)中由于射頻識別系統(tǒng)與全球定位系統(tǒng)等數(shù)據(jù)系統(tǒng)漏洞導(dǎo)致錯誤配置資源等{"Ryan Abbott.The Reasonable Computer: Disrupting the Paradigm of Tort Liability, George Washington Law Review, 2018(86).}。人工智能還將造成情感、尊嚴(yán)等各種非物理損害,包括不實信息的自動補全搜索建議{"Seema Ghatnekar.Injury by Algorithm, Loyola of Los Angeles Entertainment Law Review, 2013(33).}、人工智能算法主導(dǎo)的就業(yè)種族歧視{"Anupam Chander.The Racist Algorithm,Michigan Law Review, 2017(115).}、人工智能實體和物聯(lián)網(wǎng)設(shè)備對用戶個人隱私的侵犯等{"Steven I. Friedland.Drinking from the Fire Hose: How Massive Self-Surveillance from the Internet of Things Is Changing the Face of Privacy, West Virginia Law Review, 2017(119).}。當(dāng)人類社會越來越離不開人工智能時,人工智能對人類的損害風(fēng)險就越來越大。侵權(quán)責(zé)任的構(gòu)成要件包括違法行為、損害事實、過錯與因果關(guān)系,在人工智能侵權(quán)行為發(fā)生時,對人類主體的違法行為與損害事實之間的因果關(guān)系論證較為困難,尤其在自主人工智能發(fā)生侵權(quán)行為的場景下,更加難以認(rèn)定是由人工智能或其背后的何種人類主體承擔(dān)責(zé)任{"朱巖:《侵權(quán)責(zé)任法通論·總論(上冊 責(zé)任成立法)》,法律出版社,2011年,第183-185頁。}。

        (一)自動人工智能適用產(chǎn)品責(zé)任

        《中華人民共和國產(chǎn)品質(zhì)量法》第41條規(guī)定,生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任需要具備產(chǎn)品有缺陷、損害事實存在、產(chǎn)品缺陷與損害事實存在因果關(guān)系三個條件,對于自動人工智能造成的損害而言,適用產(chǎn)品責(zé)任具有合理性。人工智能實體是否存在物質(zhì)形態(tài)并不重要,但是其對于人類自身以及財產(chǎn)造成的損害后果,需要認(rèn)真討論因果關(guān)系要素。例如,對于安裝智能駕駛系統(tǒng)的車輛造成其他車輛或人員損害的,可以將智能駕駛系統(tǒng)視為產(chǎn)品,并依據(jù)產(chǎn)品責(zé)任法要求生產(chǎn)者賠償損失。此時的關(guān)注點在于生產(chǎn)者設(shè)計智能駕駛系統(tǒng)存在缺陷,人類設(shè)計與最終損害后果具有因果關(guān)系。工業(yè)和信息化部2021年發(fā)布的《關(guān)于加強智能網(wǎng)聯(lián)汽車生產(chǎn)企業(yè)及產(chǎn)品準(zhǔn)入管理的意見》(〔2021〕103號)也有對智能汽車的主體責(zé)任要求,其中第五項第(九)條明確規(guī)定,“企業(yè)應(yīng)當(dāng)加強自查,發(fā)現(xiàn)生產(chǎn)、銷售的汽車產(chǎn)品存在數(shù)據(jù)安全、網(wǎng)絡(luò)安全、在線升級安全、駕駛輔助和自動駕駛安全等嚴(yán)重問題的,應(yīng)當(dāng)依法依規(guī)立即停止相關(guān)產(chǎn)品的生產(chǎn)、銷售,采取措施進行整改”。因此,可以依據(jù)一般產(chǎn)品的侵權(quán)責(zé)任制度對自動人工智能的侵權(quán)行為進行規(guī)制,正如《中華人民共和國民法典》第1202條所示,“因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任”。

        除生產(chǎn)者外,某些情形下使用者也需承擔(dān)人工智能侵權(quán)行為的賠償責(zé)任。根據(jù)人工智能造成損害是由于產(chǎn)品本身存在缺陷還是使用者過錯導(dǎo)致,可分為物的責(zé)任與人的責(zé)任,如果是物的責(zé)任,則適用產(chǎn)品責(zé)任要求創(chuàng)造者進行賠償,如果是人的責(zé)任則由過錯方承擔(dān)責(zé)任。使用者對“錯誤使用或以生產(chǎn)者禁止的方式使用”自動人工智能產(chǎn)品造成的損害后果承擔(dān)責(zé)任,當(dāng)使用者篡改數(shù)據(jù)集或算法程序從而大幅度修改人工智能系統(tǒng),或通過拒絕更新軟件甚至入侵系統(tǒng)修改自動人工智能的基本屬性時,需對人工智能由此產(chǎn)生的侵權(quán)行為負(fù)責(zé)。例如,當(dāng)智能汽車的使用者對汽車智能駕駛系統(tǒng)進行更改以獲得更多的控制權(quán),甚至解鎖尚未發(fā)布的功能時,需要對導(dǎo)致的交通事故承擔(dān)全部責(zé)任。原因在于,使用者修改汽車系統(tǒng)造成損害后果,而非生產(chǎn)者存在制造過錯或設(shè)計者具有設(shè)計缺陷所致。

        (二)自主人工智能適用產(chǎn)品責(zé)任存在障礙

        一般產(chǎn)品由生產(chǎn)者或設(shè)計者創(chuàng)造產(chǎn)生,處于創(chuàng)造者的完全控制下,要求其承擔(dān)產(chǎn)品責(zé)任具有法理基礎(chǔ),而自主人工智能具有高度的自主性,雖然由設(shè)計者設(shè)計與生產(chǎn)者生產(chǎn),但其并非按照程序員的指令做出決策,而是根據(jù)自己收集的數(shù)據(jù)創(chuàng)建行為規(guī)則。自主人工智能突破人類大腦的局限,能夠收集更加廣泛以及更多維度的數(shù)據(jù),按照自己的規(guī)則精確計算所有的可能性,且不受預(yù)置概念、經(jīng)驗法則、傳統(tǒng)模式等因素的限制,從而做出人類主體完全沒有考慮到的決策{"夏慶鋒:《個人數(shù)據(jù)交易的私法制度構(gòu)造研究》,《中國法學(xué)》,2024年第5期。}。按照《中華人民共和國產(chǎn)品質(zhì)量法》與《中華人民共和國侵權(quán)責(zé)任法》要求,生產(chǎn)者承擔(dān)侵權(quán)責(zé)任僅限于技術(shù)缺陷情形,而自主人工智能造成損害已經(jīng)超出產(chǎn)品本身或生產(chǎn)技術(shù)上的缺陷,更多來源于系統(tǒng)自身的思維判斷,過于僵硬地套用現(xiàn)有法條無法達到較好的規(guī)范效果。

        個別情況下,產(chǎn)品責(zé)任理論可以擴展至自主人工智能侵權(quán)案件中,例如對自主人工智能產(chǎn)品的生產(chǎn)者或使用者的“在先行為”建立的因果關(guān)系進行分析。自主人工智能自我編程并向人類用戶學(xué)習(xí),如果用戶使用自主人工智能履行事務(wù)時存在錯誤行為,只是在行為發(fā)生時沒有造成損害后果,但人工智能卻將這種錯誤行為進行記錄并在后期的自主行為中表現(xiàn)出來,從而造成損害后果。雖然自主人工智能的后期行為是其獨立做出的決策,但在先使用者已經(jīng)進行直接的錯誤指定,應(yīng)對損害后果承擔(dān)責(zé)任。然而,在更多的情況下,即便法律要求人類主體承擔(dān)責(zé)任,對于自主人工智能造成的損害而言,依然難以判斷其是否基于生產(chǎn)者或使用者的錯誤影響做出決策行為。例如,生產(chǎn)者使用訓(xùn)練數(shù)據(jù)測試自主人工智能屬性,并在自主人工智能產(chǎn)品投入市場之前將其暴露于各種真實世界的場景中{"Robin C. Feldman, Ehrik Aldana, Kara Stein.Artificial Intelligence in the Health Care Space: How We Can Trust What We Cannot Know, Stanford Law and Policy Review, 2019(30).}。雖然缺乏充分性且不具有代表性的訓(xùn)練數(shù)據(jù)可能導(dǎo)致自主人工智能履行不佳,或?qū)δ承┤祟惾后w產(chǎn)生跨越種族和性別的偏見,但是,除非受害人能夠確定自主人工智能的決策或其他行為與有偏差的數(shù)據(jù)具有事實上聯(lián)系,否則很難證明該侵權(quán)行為僅來源于訓(xùn)練數(shù)據(jù),而不是受到真實世界經(jīng)驗等其他影響。

        二、自主人工智能的嚴(yán)格責(zé)任模式

        無論自動人工智能,抑或自主人工智能,其與人類侵權(quán)人在行為能力、損害程度與損害范圍上都具有顯著差別,對比受害人的風(fēng)險預(yù)期與承受能力,人工智能具有不成比例的、嚴(yán)重的傷害風(fēng)險。由于技術(shù)手段的欠缺,即使人類主體通過觀察、統(tǒng)計和分析對人工智能行為進行監(jiān)測,但由于人工智能能夠?qū)Υ髷?shù)據(jù)信息進行整合,在某種程度上會進一步放大人類智力、效率與人工智能的差距。產(chǎn)品責(zé)任制度能夠找到自動人工智能侵權(quán)行為的責(zé)任主體,但是對于自主人工智能而言,其做出決策具有黑箱屬性,將阻礙正確認(rèn)定何種損害為人工智能自主導(dǎo)致,以及何種損害為生產(chǎn)者或設(shè)計者存在的生產(chǎn)或設(shè)計缺陷導(dǎo)致。因此,可適用嚴(yán)格責(zé)任等不考慮過錯的歸責(zé)模式,對自主人工智能侵權(quán)行為進行歸責(zé)。

        (一)嚴(yán)格責(zé)任的適用

        在自主人工智能領(lǐng)域適用嚴(yán)格責(zé)任,能夠節(jié)省復(fù)雜而冗長的證明過程,將責(zé)任安排至消化成本的創(chuàng)造者。創(chuàng)造者不僅為最容易首先發(fā)現(xiàn)潛在風(fēng)險的當(dāng)事人,也能夠轉(zhuǎn)嫁和分?jǐn)倢κ芎θ诉M行賠償?shù)馁M用。對于自主人工智能而言,要求法院認(rèn)定損害結(jié)果的發(fā)生與生產(chǎn)者或設(shè)計者的生產(chǎn)設(shè)計行為具有因果聯(lián)系難以實現(xiàn),若依照《中華人民共和國侵權(quán)責(zé)任法》規(guī)定,則不應(yīng)要求創(chuàng)造者承擔(dān)責(zé)任。但是,不要求創(chuàng)造者對其生產(chǎn)出的人工智能產(chǎn)品承擔(dān)責(zé)任必然導(dǎo)致另一問題,即難以找到其他與自主人工智能存在緊密關(guān)系的責(zé)任主體。適用嚴(yán)格責(zé)任能夠解決前述問題,“進行異常危險活動的行為人應(yīng)對該活動導(dǎo)致的實體損害承擔(dān)嚴(yán)格責(zé)任”,人工智能與人類社會的交互活動“制造了一個不可預(yù)見且重大的實體損害風(fēng)險”,符合異常危險活動要求{愛倫·M.芭波里克:《侵權(quán)法重述綱要(第三版)》,許傳璽、石宏等譯,法律出版社,2016年,第343頁。}。

        承擔(dān)嚴(yán)格責(zé)任包括對兩種標(biāo)準(zhǔn)的違反:第一種為“產(chǎn)品在以預(yù)期或合理可預(yù)見的方式使用時,未能像普通消費者預(yù)期的那樣安全運行”(消費者期待標(biāo)準(zhǔn)),自主人工智能的決策具有不可預(yù)測性,受害人能夠以此作為具有異常危險性的間接證據(jù),要求人類創(chuàng)造者承擔(dān)責(zé)任;第二種為“產(chǎn)品本應(yīng)設(shè)計得更加安全、具有降低危險發(fā)生的可能性與可行的替代設(shè)計”(風(fēng)險—效用標(biāo)準(zhǔn)),但實際上并沒有達到相應(yīng)標(biāo)準(zhǔn)。設(shè)計并生產(chǎn)自主人工智能的初衷在于提高產(chǎn)品與服務(wù)的質(zhì)量,但當(dāng)產(chǎn)品不僅未達到既定目標(biāo),反而造成侵權(quán)損害時,則可證明具有異常危險性,生產(chǎn)者或設(shè)計者在制造自主人工智能產(chǎn)品時未能平衡商業(yè)利益和消費者利益{"Bookhamer v. Sunbeam Prods., Inc., 913 F. Supp. 2d 809, 818, 2012.}。從本質(zhì)上看,自主人工智能擁有對人類社會造成更大損害的能力,而環(huán)境無法對其實施及時與適當(dāng)?shù)姆烙胧?。?yán)格責(zé)任模式承認(rèn)這一事實,適用嚴(yán)格責(zé)任確保對缺乏手段保護自身免受自主人工智能產(chǎn)品侵害的個人進行救濟。

        嚴(yán)格責(zé)任的承擔(dān)有利于找到生產(chǎn)者、設(shè)計者與受害人在使用自主人工智能產(chǎn)品過程中的權(quán)利與利益的平衡點,在因果關(guān)系無法證明的情況下對受害人進行救濟。相對于自主人工智能的生產(chǎn)者與設(shè)計者而言,受害人一般處于較為弱勢的地位,設(shè)定嚴(yán)格責(zé)任有利于強化創(chuàng)造者責(zé)任,具有威懾作用。實踐中受害人往往作為自主人工智能的消費者,其雖然知道人工智能可能存在的致害風(fēng)險,但是創(chuàng)造者不應(yīng)將人工智能風(fēng)險完全轉(zhuǎn)嫁于受害人一方,“消費者的權(quán)利應(yīng)該凌駕于強勢的生產(chǎn)銷售者以自我為中心和精打細(xì)算的利益之上”{P·普拉利:《商業(yè)倫理》,洪成文等譯,中信出版社,1999年,第133頁。}。對自主人工智能侵權(quán)行為適用嚴(yán)格責(zé)任,將迫使生產(chǎn)者精確評估人工智能實體造成損害的可能風(fēng)險,降低自主人工智能設(shè)計過程中產(chǎn)生不可預(yù)測性的概率,防止人工智能實體的魯莽擴張。作為優(yōu)勢一方,創(chuàng)造者承擔(dān)自主人工智能的侵權(quán)責(zé)任后,可通過多種方式進行消化,例如利用對人工智能產(chǎn)品重新定價、購買責(zé)任保險等方式進行成本內(nèi)部化。嚴(yán)格責(zé)任實現(xiàn)的損害分擔(dān)符合公平性與經(jīng)濟性的基本原理要求,即使加害人已經(jīng)履行適當(dāng)?shù)淖⒁饬x務(wù),該種責(zé)任的適用也將為社會整體提供福利。正如斯蒂芬·佩里所言:“生產(chǎn)者承擔(dān)嚴(yán)格責(zé)任后再通過其他形式予以分散,體現(xiàn)了局部分配的正義?!眥"Dennis Patterson.A Companion to Philosophy of Law and Legal Theory, London: Blackwell Publishers, 1999, pp.74-75.}

        (二)嚴(yán)格責(zé)任阻礙人工智能創(chuàng)新

        嚴(yán)格責(zé)任要求自主人工智能的生產(chǎn)者、設(shè)計者承擔(dān)無過錯的賠償責(zé)任,原因在于這些責(zé)任主體處于防止損害的最佳位置。但是,自主人工智能與一般產(chǎn)品存在不同,一般產(chǎn)品的設(shè)計者知道或應(yīng)當(dāng)知道缺陷的存在,而人工智能實體更為復(fù)雜與不透明,尤其對于自主人工智能而言,生產(chǎn)者或設(shè)計者在完成產(chǎn)品的研發(fā)與制造后,對于人工智能的自主決策行為無法進行準(zhǔn)確的預(yù)測。因此,適用嚴(yán)格責(zé)任必然導(dǎo)致一些情形下沒有過錯甚至具有創(chuàng)新精神的生產(chǎn)者和設(shè)計者承擔(dān)過重責(zé)任,這種責(zé)任追究的方式雖然有利于對受害人進行救濟,也將導(dǎo)致阻礙創(chuàng)新的負(fù)面后果。例如,一些生產(chǎn)者為了避免承擔(dān)嚴(yán)格責(zé)任,從而退出人工智能市場,或是設(shè)計者不敢研發(fā)更為先進的人工智能產(chǎn)品。

        此外,在人工智能領(lǐng)域?qū)嵤﹪?yán)格責(zé)任制度導(dǎo)致人工智能市場產(chǎn)生“重大進入壁壘”,意味著如果一家公司知道自己要為自主人工智能實體造成的所有損害負(fù)責(zé),其將慎重考慮是否進入人工智能領(lǐng)域{"Yavar Bathaee.The Artificial Intelligence Black Box and the Failure of Intent and Causation, Harvard Journal of Law amp; Technology, 2018(31).}。新興的小型公司難以承擔(dān)開發(fā)不可預(yù)測的自主人工智能產(chǎn)品所面臨的賠償責(zé)任,最終結(jié)果將導(dǎo)致只有技術(shù)成熟、資金雄厚的大型公司才會進入自主人工智能領(lǐng)域并操控市場,進而加劇新型信息技術(shù)產(chǎn)業(yè)的壟斷局面。自主人工智能造成損害的責(zé)任風(fēng)險阻礙較小的參與者進入市場,或迫使現(xiàn)有參與者退出市場,而在新興領(lǐng)域過早的形成壟斷局面必然導(dǎo)致產(chǎn)品與技術(shù)創(chuàng)新的速度放緩。嚴(yán)格責(zé)任的承擔(dān)使得自主人工智能領(lǐng)域僅被大型科技公司主導(dǎo),造成人工智能的發(fā)展限制在符合個別公司利益,而不是更為重要的社會整體利益范疇。

        三、自主人工智能的自己責(zé)任模式

        適用嚴(yán)格責(zé)任有利于確定自主人工智能侵權(quán)責(zé)任的承擔(dān)主體,但正如前文所述,其必然阻礙人工智能的發(fā)展創(chuàng)新,也將提高該領(lǐng)域的進入壁壘,導(dǎo)致壟斷局面的形成。為了解決適用嚴(yán)格責(zé)任存在的弊端,可以設(shè)立自主人工智能的自己責(zé)任模式,要求自主人工智能以自有財產(chǎn)承擔(dān)侵權(quán)行為的賠償責(zé)任。自己責(zé)任模式是對人工智能責(zé)任承擔(dān)的創(chuàng)新探索,以自主人工智能不具有受控性與具備獨立法律人格為討論前提。

        (一)自己責(zé)任模式的前提之一:自主人工智能不具有受控性

        自主人工智能產(chǎn)品從環(huán)境中自我學(xué)習(xí)并做出決策,生產(chǎn)者、設(shè)計者和使用者幾乎不可能預(yù)測將要發(fā)生的錯誤類型、錯誤發(fā)生的頻率、一個錯誤的發(fā)生是否會在復(fù)雜的系統(tǒng)中串聯(lián)并導(dǎo)致其他類型的錯誤、可能產(chǎn)生損害后果的類型和大小等。因此,通常法律范式雖然側(cè)重于確定生產(chǎn)者和設(shè)計者在生產(chǎn)設(shè)計過程中可預(yù)見的風(fēng)險,并在這些風(fēng)險無法避免時對存在的錯誤行為進行制裁。但是,法律范式在確定自主人工智能法律責(zé)任方面幾乎沒有幫助,且難以追溯到準(zhǔn)確的責(zé)任主體。

        人工智能具備機器學(xué)習(xí)能力,使用生產(chǎn)者或設(shè)計者提供的初始代碼和數(shù)據(jù)庫做出“正確”或“最佳”決策。對于自主人工智能而言,這種機器學(xué)習(xí)能力更多地表現(xiàn)為深度學(xué)習(xí)模式。深度學(xué)習(xí)又稱為神經(jīng)網(wǎng)絡(luò),在由神經(jīng)元組成的多層結(jié)構(gòu)上運行,這些層級通過加權(quán)連接相互作用。連接的權(quán)重由自主人工智能算法確定,當(dāng)神經(jīng)網(wǎng)絡(luò)的層級越多時,越難以理解和預(yù)測分配給每個神經(jīng)元的權(quán)重,從而越難以預(yù)測自主人工智能實體本身的結(jié)果。自主人工智能通過機器學(xué)習(xí)不斷提升自身能力,并遠遠超出人類智慧水平。而且,考慮到黑箱操作的獨特性,無論是生產(chǎn)者還是具體使用者,都無法完全掌握自主人工智能決策的過程。機器學(xué)習(xí)帶來更多的不可知因素,如果自主人工智能實體是通過多個復(fù)雜的決策層自我做出決策,生產(chǎn)者或設(shè)計者將無法提前預(yù)判或控制該決策造成的損害。自主人工智能不具有受控性,無法在造成的損害后果和具體的人類行為之間進行符合法律邏輯的賠償認(rèn)定。

        (二)自己責(zé)任模式的前提之二:自主人工智能具備獨立法律人格

        人工智能是否應(yīng)當(dāng)具備獨立法律人格,目前國內(nèi)的觀點包括肯定說、否定說與折中說。肯定說從確定權(quán)利、責(zé)任的必要性著手,基于人工智能具備自由意志、行為能力等方面進行論證{"易繼明:《人工智能創(chuàng)作物是作品嗎?》,《法律科學(xué)》(西北政法大學(xué)學(xué)報),2017年第5期。};否定說從防止人類創(chuàng)造者與使用者逃避責(zé)任的角度分析,認(rèn)為人工智能天然不具備人類心智,屬于主客體二元區(qū)分體系當(dāng)中的物,無法脫逸于人類控制{"許中緣:《論智能機器人的工具性人格》,《法律評論》,2018年第5期。};折中說從支持人工智能技術(shù)進步、保障法律制度的基本結(jié)構(gòu)穩(wěn)定的層面出發(fā),考量人類行為與人工智能行為的差異性,進行“擬制法律主體”的嘗試{"朱凌珂:《賦予強人工智能法律主體地位的路徑與限度》,《廣東社會科學(xué)》,2021年第5期。}。獨立法律人格的核心要求在于直接成為權(quán)利持有者與責(zé)任承擔(dān)者,當(dāng)一個實體與相關(guān)的權(quán)利或義務(wù)之間沒有干預(yù)者時,則該實體為直接的責(zé)任對象和權(quán)利持有人。但是,當(dāng)存在一個干預(yù)者比實體本身更適合享有權(quán)利與承擔(dān)義務(wù)時,則發(fā)生法律主體的變更。對干預(yù)者的法律性質(zhì)進行分析,如果干預(yù)者是法律實體實現(xiàn)目的的一種手段,其不能作為直接承擔(dān)權(quán)利義務(wù)的主體,也不具備獨立的法律人格。只有當(dāng)干預(yù)者本身為目的而不是手段,即不受其他法律實體的實質(zhì)影響時,才具備獨立法律人格。因此,當(dāng)人工智能只是人類完成某項事務(wù)的手段時,人工智能不具備獨立法律人格。但是,當(dāng)人工智能不是實現(xiàn)某項目的的手段或不僅僅是手段時,例如自主人工智能表現(xiàn)出自我實現(xiàn)的目的,則該類人工智能具備獨立法律人格。

        2016年,歐盟法律事務(wù)委員會起草的《歐盟機器人民事法律規(guī)則》第59段f項規(guī)定:“從長遠來看,為機器人創(chuàng)設(shè)一個特別的法律地位,至少使最高端的機器人具有電子人地位,為他們可能造成的損害的責(zé)任承擔(dān)做好準(zhǔn)備。”{"劉洪華:《人工智能法律主體資格的否定及其法律規(guī)制構(gòu)想》,《北方法學(xué)》,2019年第4期。}此規(guī)定則賦予了足夠復(fù)雜的人工智能以“電子人格”,類似于民法上對企業(yè)進行法律人格的擬制。立法上對人工智能具備獨立法律人格進行探索,在實踐中還需考慮如何賦予其獨立承擔(dān)責(zé)任的賠償能力。企業(yè)法人以法人財產(chǎn)對外承擔(dān)責(zé)任,而對于自主人工智能而言,其也可以通過以下方式獲得自有財產(chǎn)并進行增強。首先,由于自主人工智能不具有受控性,其可以通過自主發(fā)展、創(chuàng)作/修改小說、繪畫作品等方式獲得財產(chǎn)性收入。其次,可要求生產(chǎn)者或設(shè)計者從生產(chǎn)、銷售自主人工智能產(chǎn)品獲利的資金中劃撥一定份額,作為賠償基金,該基金為自主人工智能所有,在侵權(quán)行為發(fā)生后對受害人進行賠償。單獨賦予自主人工智能獨立的責(zé)任財產(chǎn),與設(shè)立法人的本質(zhì)動機相同,有利于責(zé)任區(qū)隔與風(fēng)險分散。第三,生產(chǎn)者在制造人工智能產(chǎn)品并向社會推廣時,可以就自主人工智能可能產(chǎn)生的風(fēng)險投保責(zé)任保險,由保險公司以自主人工智能為所有人設(shè)立保險資產(chǎn),當(dāng)侵權(quán)行為發(fā)生時再以自主人工智能的名義承擔(dān)賠償責(zé)任。

        (三)自己責(zé)任模式難以實現(xiàn)糾正性目標(biāo)

        設(shè)定自己責(zé)任模式的主要風(fēng)險在于,機器責(zé)任的設(shè)立難以實現(xiàn)《侵權(quán)責(zé)任法》要求的糾正性正義目標(biāo)。主要原因如下:第一,授予自主人工智能獨立法律人格,需首先解決技術(shù)上的難題,即自主人工智能必須對環(huán)境的變化做出反應(yīng),進行道德判斷與法律分析,而現(xiàn)階段的自主人工智能難以產(chǎn)生此種水平的批判性思維{"Dina Moussa, Garrett Windle.From Deep Blue to Deep Learning: A Quarter Century of Progress for Artificial Minds, Georgetown Law Technology Review, 2016(1).}。第二,將責(zé)任分配給自主人工智能難以滿足受害人的情感賠償要求,雖然自主人工智能具有智慧,但其仍然缺乏感情或任何類型的情感意識能力,例如感到內(nèi)疚、后悔等{"劉洪華:《論人工智能的法律地位》,《政治與法律》,2019年第1期。}。第三,自主人工智能無法像人類一樣進行理性思維,不具有人類主體主觀上的可懲罰性,要求其自己承擔(dān)責(zé)任反而為相關(guān)人類主體規(guī)避責(zé)任提供渠道,容易導(dǎo)致生產(chǎn)者或設(shè)計者喪失充分測試人工智能產(chǎn)品質(zhì)量的責(zé)任感,放棄由開發(fā)人員承擔(dān)責(zé)任將消除其主動預(yù)防人工智能危害與糾正人工智能錯誤的積極動機。

        四、自主人工智能的雇主責(zé)任模式

        盡管自主人工智能具有“自己意識”,但是其執(zhí)行事務(wù)在于幫助創(chuàng)造者或使用者獲得利益,完全要求其承擔(dān)賠償責(zé)任并不合理{"P. S. Atiyah.Vicarious Liability in the Law of Torts, London: Butterworths, 1967, p. 18.}。因此,可考慮適用雇主責(zé)任模式,將自主人工智能與其背后獲利的人類主體視為具有雇傭關(guān)系的雇員與雇主,這也有利于避免自己責(zé)任模式的理論障礙,無需再糾結(jié)于自主人工智能是否具備獨立法律人格。自主人工智能類似于人類主體的雇員,通過對具體行為的特征進行抽象與總結(jié),可以像人類助手一樣“處理事務(wù)、匯總數(shù)據(jù)、向人類學(xué)習(xí)并提出建議”。雖然人類主體無法直接控制或指示自主人工智能采取何種行動,但是其能夠?qū)ψ灾魅斯ぶ悄艿臎Q策行為進行監(jiān)督,或提供前期數(shù)據(jù)等產(chǎn)生間接影響。雇主責(zé)任符合風(fēng)險收益理論要求,基于深口袋原理,雇主從雇員的行為中獲利,有著比雇員更強的賠償能力{"T. Baty.Vicarious Liability, Oxford: The Clarendon Press,1916,p.154.}。

        (一)自主人工智能具有雇員地位

        勞動法上的雇員指被雇傭從事腦力或體力上的勞動,并獲取一定報酬為主要生活來源的人,具有“受雇于他人、在他人工作場所工作、獲得工資報酬”等特征。自主人工智能為人類主體履行事務(wù),且無論是虛擬形態(tài)抑或?qū)嶋H產(chǎn)品,都在生產(chǎn)者或使用者的場所內(nèi)進行工作,只是不同于人類雇員獲得工資報酬,但這并不妨礙其具有雇員地位。自主人工智能與人類的差別在于人類為自然主體,而自主人工智能為人工主體,但兩者都能夠獨立決策行動,并按照規(guī)定完成指派任務(wù),人類和人工智能“都可以被視為通過傳感器感知環(huán)境,并通過效應(yīng)器對環(huán)境做出反應(yīng)”的法律主體。

        在人工智能領(lǐng)域,人類主體試圖通過人工智能的行動創(chuàng)建責(zé)任緩沖區(qū),將自身與潛在的損害風(fēng)險拉開距離。承認(rèn)自主人工智能的雇員地位有利于對人工智能造成損害后的賠償責(zé)任進行分配,可以更好地解釋和分析人工智能雇員與人類雇主之間的責(zé)任關(guān)系,防止人類主體制造賠償責(zé)任的不合理法律間隔。雇傭關(guān)系要求人類主體承擔(dān)責(zé)任,雇主比雇員處于更加優(yōu)越的位置,這也可以促使其更加仔細(xì)地選擇人工智能,并在培訓(xùn)和監(jiān)督方面投入更多的時間和精力,以降低不可預(yù)測的風(fēng)險。

        (二)自主人工智能的雇主責(zé)任分析

        人工智能雇傭關(guān)系中對自主人工智能侵權(quán)責(zé)任的承擔(dān),與人類雇傭關(guān)系中對雇員侵權(quán)責(zé)任的承擔(dān)存在相似的證明困難。自主人工智能的行為直接造成損害后果,但由于其對侵權(quán)行為不承擔(dān)責(zé)任,因此將由人類雇主作為責(zé)任方介入法律責(zé)任的論證關(guān)系中,導(dǎo)致雇主責(zé)任的追究比一般侵權(quán)行為的責(zé)任追究更為復(fù)雜。雇主責(zé)任的構(gòu)成要件包括致害人與雇主存在雇傭關(guān)系、造成損害的行為發(fā)生在雇傭過程中、損害由雇員侵權(quán)行為造成等要素,也就是說,要求雇主承擔(dān)責(zé)任,除了雇員行為符合侵權(quán)責(zé)任構(gòu)成要件外還需證明存在雇傭關(guān)系。就自主人工智能而言,要求人類主體承擔(dān)雇主責(zé)任,需要論證其對自主人工智能履行事務(wù)具有監(jiān)督與影響能力。一般而言,只要人類主體存在以下情形之一的,即可證明其為自主人工智能的雇主:第一,人類主體跟蹤自主人工智能行為,實時更新并進行總結(jié);第二,人類主體為自主人工智能的決策引入人工審批節(jié)點;第三,人類主體通過其他行為表達與自主人工智能存在某種關(guān)聯(lián),例如為自主人工智能提供參考數(shù)據(jù)等。{"夏慶鋒:《論算法合同的歸責(zé)》,《財經(jīng)法學(xué)》,2021年第6期。}論證前述情形,可以通過數(shù)據(jù)保留對自主人工智能的侵權(quán)全過程進行記錄,以還原侵害事實。例如,《德國道路交通法第八修訂案》中引入“黑匣子”的規(guī)定,要求記錄自動駕駛系統(tǒng)的各項數(shù)據(jù),試圖從技術(shù)層面解決受害人舉證困難的問題{"張韜略,蔣瑤瑤:《德國智能汽車立法及〈道路交通法〉修訂之評介》,《德國研究》,2017年第3期。}。

        尋求雇主責(zé)任而不是嚴(yán)格責(zé)任或自己責(zé)任的法律類比,在邏輯層面上更具合理性。首先,雇主責(zé)任充分考慮到自主人工智能擁有智力,以及在選擇如何執(zhí)行雇主指派任務(wù)方面存在不同程度的自主權(quán)利,為無過錯的人類主體進行追償提供可能性,有利于防止嚴(yán)格責(zé)任導(dǎo)致的過重負(fù)擔(dān);其次,現(xiàn)階段自主人工智能并不具有人類思維,賦予其獨立的法律人格以適用自己責(zé)任模式,必然導(dǎo)致侵權(quán)賠償?shù)幕靵y和各種問題的發(fā)生。雇主責(zé)任為自主人工智能提供責(zé)任框架,其行為將直接創(chuàng)造人類主體的責(zé)任負(fù)擔(dān),雇主需要就人工智能的侵權(quán)行為對外進行賠償。

        (三)適用雇主責(zé)任的可能風(fēng)險

        適用雇主責(zé)任仍然存在風(fēng)險,既有可能增加歸責(zé)模式的復(fù)雜性,也將導(dǎo)致與其他責(zé)任模式產(chǎn)生混淆。對雇員的理解包含其具有某種程度的自治,雇員有能力感知工作環(huán)境的各個方面,并根據(jù)該環(huán)境采取行動,執(zhí)行特定的任務(wù)。對于自主人工智能而言,雖然其具有一定程度上的自由意志,但是,由于目前并沒有統(tǒng)一的行業(yè)標(biāo)準(zhǔn)對自由意志進行界定,而不同自主人工智能的自由意志不盡相同,導(dǎo)致對何種程度的自由意志才是自主人工智能,以及自主人工智能在何種情形下才能具備適當(dāng)?shù)墓蛦T身份,無法進行統(tǒng)一的界定。若在某些情形下法院認(rèn)定自主人工智能造成損害并非基于雇傭關(guān)系或其他委托關(guān)系,則不能要求創(chuàng)造者承擔(dān)雇主責(zé)任,此時造成的損害后果還需要結(jié)合其他責(zé)任模式進行兜底,反而增加人工智能責(zé)任認(rèn)定的復(fù)雜性。若是進行寬宥解釋突破雇傭關(guān)系的一般規(guī)則,以達到人類主體承擔(dān)責(zé)任的目的,則必然導(dǎo)致雇主責(zé)任與嚴(yán)格責(zé)任的界限不清晰,繼而造成雖名為雇主責(zé)任,實際上仍然要求自主人工智能創(chuàng)造者承擔(dān)完全責(zé)任的情形,無益于人工智能領(lǐng)域的創(chuàng)新。

        五、平衡測試方法認(rèn)定自主人工智能的侵權(quán)責(zé)任

        自主人工智能具有交互性與自主性,基于創(chuàng)造者的創(chuàng)造行為以及自主人工智能的學(xué)習(xí)行為而產(chǎn)生的侵權(quán)結(jié)果,無法由任何單一主體完全決定,需要各相關(guān)主體按照比例承擔(dān)責(zé)任。而且,自主人工智能的自主行為與生產(chǎn)者、設(shè)計者或使用者等多方主體并無直接聯(lián)系,表現(xiàn)為包括人工智能意志在內(nèi)的混合意志,因此需要將多方主體責(zé)任與人工智能責(zé)任進行區(qū)隔{"張志堅:《論人工智能的電子法人地位》,《現(xiàn)代法學(xué)》,2019年第5期。}。本文就自主人工智能的侵權(quán)責(zé)任提出平衡測試因素的認(rèn)定方法,法院在審理糾紛時應(yīng)當(dāng)在個案的基礎(chǔ)之上分析人工智能的特殊侵權(quán)行為,考察生產(chǎn)者、設(shè)計者對自主人工智能的創(chuàng)建和初始測評的責(zé)任,以及使用者對自主人工智能的使用行為和其他影響。對自主人工智能侵權(quán)責(zé)任的認(rèn)定包括兩個步驟:第一,判斷損害后果由自動人工智能還是自主人工智能造成,根據(jù)分析結(jié)果決定生產(chǎn)者、設(shè)計者或使用者是否承擔(dān)責(zé)任;第二,確定由自主人工智能造成損害后果的,適用平衡測試因素進行責(zé)任認(rèn)定。

        (一)確定損害是否由自主人工智能決策造成

        對于人工智能侵權(quán)責(zé)任的認(rèn)定,需首先判斷損害后果是由自動人工智能或自主人工智能造成,即判斷損害的發(fā)生是否由人工智能獨立產(chǎn)生。如果人工智能未能檢測到程序命令或沒有按照生產(chǎn)說明進行操作,造成損害的可要求生產(chǎn)者在產(chǎn)品責(zé)任制度下承擔(dān)責(zé)任;如果使用者以不適當(dāng)或不合理的方式使用人工智能,使用者應(yīng)當(dāng)在過錯規(guī)則下承擔(dān)責(zé)任,例如采用黑客技術(shù)對人工智能程序進行修改等。當(dāng)確定損害由自主人工智能決策造成時,則需要進行更為詳細(xì)的分析?!叭祟愔黧w直接編程人工智能以某種方式行事”與“人類主體通過制造、培訓(xùn)數(shù)據(jù)和用戶體驗數(shù)據(jù)間接影響人工智能行事”存在區(qū)別,通過編碼決定人工智能歧視第三方,與引入帶有偏見的數(shù)據(jù)或在人工智能選擇歧視第三方時未能糾正其錯誤行為的主觀過錯程度不同。雖然前述行為都將導(dǎo)致人工智能產(chǎn)生損害后果,但是,人類主體直接影響可根據(jù)產(chǎn)品侵權(quán)理論進行認(rèn)定,而間接影響更適合采用平衡測試因素進行權(quán)衡。

        (二)平衡測試因素確定自主人工智能侵權(quán)責(zé)任

        確定自主人工智能的侵權(quán)責(zé)任需考慮以下四個因素,包括自主人工智能決策所造成的損害后果是否可預(yù)見、創(chuàng)造者與使用者為禁止可預(yù)見的損害而采取的安全技術(shù)水平和預(yù)防措施水平、自主人工智能在創(chuàng)造者和使用者“控制”下接受訓(xùn)練的時間和強度、行業(yè)習(xí)慣和環(huán)境是否影響自主人工智能產(chǎn)生風(fēng)險等。

        第一個因素不要求創(chuàng)造者和使用者剖析自主人工智能決策的黑箱流程,以確定哪些數(shù)據(jù)導(dǎo)致自主人工智能行使侵權(quán)行為,而是分析創(chuàng)造者和使用者是否能夠合理預(yù)見到由此造成的損害{"Iria Giuffrida.Liability For AI Decision-Making: Some Legal and Ethical Considerations, Fordham Law Review,2019(88).}。如果損害是可預(yù)見的,創(chuàng)造者或使用者應(yīng)當(dāng)采取必要的預(yù)防措施。

        第二個因素檢查創(chuàng)造者和使用者建立預(yù)防措施的合理性,這一因素激勵創(chuàng)造者和使用者對自主人工智能施加基本限制{"Sahara Shrestha.Nature,Nurture,or Neither?Liability for Automated and Autonomous Artificial Intelligence Torts Based on Human Design and Influences, George Mason Law Review, 2021(29).}。通過對不同創(chuàng)造者采取預(yù)防措施的一般水平進行調(diào)研,并制定標(biāo)準(zhǔn),評估特定創(chuàng)造者是否可以合理地采取更多措施來防止可預(yù)見的損害。

        第三個因素分析創(chuàng)造者與使用者對自主人工智能的相對影響,時間長短或訓(xùn)練強弱取決于自主人工智能產(chǎn)品的類型和損害情況。例如,有些自主人工智能需要幾個月的時間來形成自己的決策,并創(chuàng)造新的行為和動機,而對于其他具有先進深度學(xué)習(xí)能力的自主人工智能而言,可能只需要幾個小時就可以自主做出決定{"Bryan Casey, Mark A. Lemley.You Might be a Robot, Cornell Law Review, 2020(105).}。

        第四個因素考慮不同行業(yè)環(huán)境對自主人工智能的行事方式將產(chǎn)生何種影響。

        平衡測試因素是一種原因力的測試方法,即找到與損害后果的發(fā)生具有緊密度的原因排序,并根據(jù)這一排序確定各方當(dāng)事主體的責(zé)任大小{"何煉紅,王志雄:《人工智能醫(yī)療影響診斷侵權(quán)損害賠償法律問題》,《政治與法律》,2020年第3期。}。

        但是,如果根據(jù)以上四個因素仍然無法找到人類主體與自主人工智能侵權(quán)行為存在聯(lián)系,則不應(yīng)要求人類主體承擔(dān)責(zé)任。此時,可根據(jù)保險制度對損害后果進行賠償,或采取其他公力救濟手段,防止對人工智能創(chuàng)造者和使用者要求過嚴(yán),從而限制整個行業(yè)的發(fā)展與創(chuàng)新。

        六、結(jié)語

        產(chǎn)品責(zé)任模式可規(guī)范自動人工智能的侵權(quán)行為,要求人類生產(chǎn)者和設(shè)計者承擔(dān)責(zé)任,但無法適用至自主人工智能的侵權(quán)糾紛中。嚴(yán)格責(zé)任模式有利于對受害人進行完全賠償,但對于生產(chǎn)者等自主人工智能創(chuàng)造者而言過于嚴(yán)苛,不利于人工智能領(lǐng)域的發(fā)展創(chuàng)新。自己責(zé)任模式對人工智能的責(zé)任承擔(dān)進行有益嘗試,但其問題在于既無法在理論層面達成對自主人工智能具有獨立法律人格的一致意見,也不能在技術(shù)層面實現(xiàn)與人類主體的同等思維能力,而在此基礎(chǔ)上的自己責(zé)任模式將難以適用至實踐審判中。雇主責(zé)任模式具有合理性,要求人類主體承擔(dān)雇主責(zé)任的前提在于人類通過人工智能行為獲得利益,且具有緊密關(guān)系。但是,雇傭關(guān)系不成立時將導(dǎo)致救濟不足,以及存在與嚴(yán)格責(zé)任等其他責(zé)任模式界限不清等問題,因此,可在確定損害是由自主人工智能的獨立決策,而不是創(chuàng)造者的創(chuàng)造行為或使用者的修改行為導(dǎo)致的基礎(chǔ)上,采用平衡測試因素的認(rèn)定方法,以確定人類主體是否承擔(dān)責(zé)任,以及在多大程度上承擔(dān)責(zé)任。通過平衡測試因素以及在司法實踐中的運用,使權(quán)利義務(wù)、收益風(fēng)險的平衡得到保證,科學(xué)合理地對自主人工智能的侵權(quán)責(zé)任進行梳理歸責(zé)。平衡測試因素方法考慮創(chuàng)造者、使用者與人工智能自己意志對侵權(quán)行為產(chǎn)生的影響,明確各因素的原因力大小,防止行為過錯與責(zé)任承擔(dān)的不匹配。如果創(chuàng)造者無論采取何種安全措施都將受到法律的嚴(yán)格追究,那么當(dāng)責(zé)任成本超過實施安全措施所獲利益時,創(chuàng)造者將不再愿意建立人工智能安全環(huán)境。平衡測試鼓勵人類主體的平衡行為,促進人工智能領(lǐng)域更多安全措施與預(yù)防措施的建立與完善。

        Model Determination and Balance Test for Tort Liability of Autonomous Artificial Intelligence

        Xia Qingfeng

        (Anhui University,Hefei 230601,China)

        Abstract:Artificial intelligence can be divided into two categories: automatic AI and autonomous AI. The determination of liability for infringements by autonomous AI is relatively complex, encompassing three models: strict liability, self-liability, and employer liability. Specifically, strict liability requires the creator of autonomous AI to bear full responsibility, regardless of whether there is a causal relationship between them and the AI’s infringing behavior; self-liability recognizes that autonomous AI has an independent legal personality and must bear responsibility for damages using its own assets; and employer liability takes into account the profit-making fact of human subjects, requiring creators and users, as employers, to compensate for infringements committed by their “employee” autonomous AI. Each of these three models has its advantages, but also drawbacks that cannot be ignored. The assumption of liability for infringements by autonomous AI should be based on whether the consequential damages are foreseeable, as well as the technical preventive measures taken to prevent the occurrence of damage. In addition, consideration should also be given to factors such as the duration and intensity of training received by the autonomous AI from its creator or user, and whether industry practices and the environment have had an impact on it, in order to comprehensively determine the liability for infringements by autonomous AI.

        Key words:autonomous artificial intelligence;strict liability;self liability;employer liability;balance test[責(zé)任編校陳浩天]

        99精品视频在线观看免费| 一本色道久久亚洲加勒比| 国产成人av一区二区三区在线观看| 国产精品成人国产乱| 亚洲AV无码精品一区二区三区l| 久久国产精品av在线观看| 永久免费视频网站在线| 三叶草欧洲码在线| 91呻吟丰满娇喘国产区| 亚洲视频综合在线第一页| 中文字幕女同系列在线看一| 国产精品久久久黄色片| 色多多性虎精品无码av| 午夜精品久久久久久中宇| 高h视频在线免费观看| 福利视频偷拍一区二区| 久久日日躁夜夜躁狠狠躁| 性猛交╳xxx乱大交| 免费无码成人av在线播| 久久精品国产av大片| 经典三级免费看片天堂| 国产农村妇女精品一二区 | 18级成人毛片免费观看| 亚洲日韩精品AⅤ片无码富二代| 国产自拍精品在线免费观看| 狠狠色综合7777久夜色撩人ⅰ| 999国产精品亚洲77777| 亚洲中文字幕高清乱码毛片| 日本精品一区二区高清| 内射无码专区久久亚洲| 日韩av一区二区三区四区av| 中文字幕这里都是精品| 老女老肥熟女一区二区| 黄色视频免费在线观看| 亚洲区日韩精品中文字幕| 亚洲综合有码中文字幕| 自拍偷自拍亚洲精品第按摩| 欧美a级情欲片在线观看免费| 女女同性黄网在线观看| 久久久精品国产av麻豆樱花| 国产二级一片内射视频播放|