康燕如,王艷華
(鄭州大學(xué) 法學(xué)院,河南 鄭州 450001)
人工智能以其精確性、自主性和安全性為我們?nèi)粘I?、工作、學(xué)習(xí)帶來很大便利,現(xiàn)在人工智能已經(jīng)在很大程度上應(yīng)用于我們生活之中。凡事都有兩面性,人工智能同樣也因其應(yīng)急能力差、需要預(yù)先設(shè)定程序等特征對人們的利益造成損害。此種損害應(yīng)由誰來承擔(dān),當(dāng)事人之間的民事權(quán)利、義務(wù)、責(zé)任應(yīng)當(dāng)如何消解,是民法上亟待解決的問題。人工智能的法律性質(zhì)是我們確定侵權(quán)責(zé)任歸屬的前提,所以,本文將從人工智能的法律屬性、人工智能侵權(quán)責(zé)任的性質(zhì)以及人工智能侵權(quán)責(zé)任的承擔(dān)主體等三個方面展開論述。
人工智能按其智能程度被分為三個等級,即弱人工智能、強(qiáng)人工智能和超人工智能。弱人工智能的典型代表就是機(jī)器人手臂,具有單領(lǐng)域性,也就是只能完成特定領(lǐng)域的工作;強(qiáng)人工智能又稱通用人工智能,因其具有相當(dāng)于人類的智能;超人工智能則在綜合智能上超越人類[1](P64-72,191)。人類世界目前處于弱人工智能階段,我們討論的對象是弱人工智能。目前,關(guān)于人工智能法律屬性的定性有以下四種學(xué)說。
工具說認(rèn)為,人工智能對于人類的作用就類似于剪刀錘子等工具一般,作為工具為人類生產(chǎn)生活活動提供便利。它們是人類創(chuàng)造出來的機(jī)器,不需休息、無人類情感,與人存在本質(zhì)區(qū)別,是一種服務(wù)于人類的工具,與傳統(tǒng)工具作用相同[2](P69-77)。此學(xué)說將人工智能視為民事客體,強(qiáng)調(diào)其“物”的屬性,但是此學(xué)說忽略了人工智能的自主性,這一特性是人工智能與其他一般工具最大的不同。比如,人工智能機(jī)器人阿爾法以四比一大敗世界圍棋冠軍柯潔,無人駕駛汽車可以在無人操控的情況下完成行駛過程等。這類人工智能所體現(xiàn)的自主性和智能性是其他一般工具所不能比擬的,所以不能將二者放在同等地位來討論。
此學(xué)說強(qiáng)調(diào)其“物”的屬性,將人工智能視為法律客體。人工智能產(chǎn)品是計算機(jī)領(lǐng)域的產(chǎn)品,靠電子技術(shù)進(jìn)行操作,其行為完全是為了服務(wù)于人類,聽從于人類的指令,沒有自主意識,也沒有權(quán)利在無指示的情況下進(jìn)行操作,其地位就如同古代的奴隸一樣,所以被稱為電子奴隸。在制造過程中制造商對程序和算法的設(shè)定、技術(shù)的改進(jìn),以及在后續(xù)維護(hù)中對程序的更新及漏洞的彌補(bǔ)起到?jīng)Q定性作用,在具體投入使用的過程中,人工智能又完全為具體使用人所控制。從其產(chǎn)生及投入使用的過程來看,其物的屬性體現(xiàn)得十分明顯。
代理說認(rèn)為,人工智能在操作者指令下行為的性質(zhì)與代理人為被代理人工作時的性質(zhì)具有一致性,都是在被代理人的指令下為了被代理人的利益獨立進(jìn)行工作活動。此學(xué)說注重人工智能“人”的屬性,但是此學(xué)說存在很大的弊端。代理人是獨立的民事主體,既具有民事權(quán)利能力和民事行為能力,也具有依法享有民事權(quán)利和承擔(dān)民事責(zé)任的資格。人工智能在現(xiàn)階段不能被視為法律主體,仍屬于民事客體范疇,不存在代理的基礎(chǔ)。代理說過于強(qiáng)調(diào)其自主性和智慧性,但是卻忽略了人工智能在很大程度上需要在人類的操控下實施行為的事實,所以將其視為民事主體的條件尚不成熟。
法律擬制說認(rèn)為,人工智能雖不具備人的屬性,但可“視為人”,類似于法人[2](P69-77)。但是,法人意志是股東意志的集合,如若股東沒有形成最終意志,法人就沒有意志,沒有意志也就不會出現(xiàn)相應(yīng)行為。也就是說,如若法人出現(xiàn)侵權(quán)行為,其也是在股東的意志下作出的,此時就應(yīng)當(dāng)“刺破公司面紗”,突破有限責(zé)任,使股東承擔(dān)侵權(quán)責(zé)任。人工智能產(chǎn)品卻并非如此,雖說在絕大多數(shù)情況下其是聽從于人類意志而進(jìn)行工作,但其并非完全受控于人類意志,其有一定的自主性,如若出現(xiàn)人工智能在其自主性情形下侵害他人利益的情形,讓管理人對此行為負(fù)責(zé),不很合理。此學(xué)說忽略了人工智能產(chǎn)品的自主性。
綜合上述觀點,筆者認(rèn)為應(yīng)將人工智能品歸入民事法律客體范疇,不應(yīng)賦予其民事主體地位。盡管人工智能已經(jīng)表現(xiàn)出相當(dāng)?shù)淖灾餍院椭腔坌?,但其產(chǎn)生及發(fā)展都在人類控制之下,它的自主性極其有限。從資源分配角度考慮,人類也不容許它們處于法律主體地位。目前,人與人之間雖是自由平等關(guān)系,但同時也是資源競爭關(guān)系。如若人工智能處于民事主體地位,將與人類處于平等地位,也就具有平等的權(quán)利取競爭資源,占有資源。人工智能具有強(qiáng)大的資源收集和學(xué)習(xí)能力,在很多方面對人類來說都具有壓倒性的優(yōu)勢,如此一來,在資源競爭中人類很容易就處于弱勢地位。人類并不會選擇以自己之手為其創(chuàng)造競爭者,因此不會縱容人工智能作為民事主體在法律關(guān)系和現(xiàn)實生活中對人類造成威脅。再者,假設(shè)承認(rèn)其民事主體地位,人工智能也就擁有與一般民事主體相同的適應(yīng)其自身的民事權(quán)利、民事義務(wù)、民事責(zé)任。民事權(quán)利要求民事主體具有權(quán)利意識,是指權(quán)利主體要求他人實施某種行為或者不實施某種行為,以實現(xiàn)其利益的可能性。就現(xiàn)階段的弱人工智能來說,其沒有自我意識,也就沒有權(quán)利意識,那么由民事權(quán)利生發(fā)的一系列利益其都無法享有,無法行使民事權(quán)利。民事義務(wù)是指義務(wù)人為滿足權(quán)利人的利益而為一定行為或不得為一定行為的必要性。弱人工智能只能在人類的支配下去完成一定的行為,其對不操縱自身的人類是無法作出具體回應(yīng)的,更談不上針對權(quán)利人的要求去作出一定行為或者不作出一定行為。從民事責(zé)任的角度來說,民事責(zé)任是指民事主體違反民事義務(wù)而必須承擔(dān)的不利法律后果。以財產(chǎn)責(zé)任為主要內(nèi)容,具體為恢復(fù)原狀、消除影響、賠償損失、賠禮道歉等。弱人工智能本身并無獨立意識,也無獨立財產(chǎn),無法承擔(dān)其行為帶來的民事責(zé)任,如若將其作為責(zé)任主體,很可能導(dǎo)致權(quán)利人利益被侵害而得不到相應(yīng)賠償,對權(quán)利人來說極為不公,還有可能引發(fā)道德風(fēng)險。所以,人工智能處于民事法律客體地位較為合適。
目前,人工智能產(chǎn)品在人們生活中的應(yīng)用已經(jīng)相當(dāng)廣泛,大到超級計算機(jī),小到掃地機(jī)器人,伴隨而來的就是人工智能產(chǎn)品在工作中給人類的利益帶來的一系列損害。人工智能產(chǎn)品侵權(quán)究竟應(yīng)適用何種責(zé)任是學(xué)界一直都在討論的問題,尚無定論。目前,學(xué)界有以下幾種學(xué)說。
此種責(zé)任與法律擬制說相承接,認(rèn)為可類比法人責(zé)任承擔(dān)模式由人工智能產(chǎn)品的管理人來承擔(dān)侵權(quán)責(zé)任,但是此種說法與法律擬制說存在一樣的漏洞,忽略了人工智能的自主性。人工智能產(chǎn)品與其管理人的關(guān)聯(lián)程度不如法人與股東之間緊密。法人不管是在設(shè)立階段,還是在生產(chǎn)運(yùn)營階段,甚至破產(chǎn)階段,都完完全全處于管理者的控制之下,而人工智能并非完全處于人類的控制之下,如若人工智能是在其管理人的控制之下侵害他人利益,則管理人就應(yīng)當(dāng)為自己行為負(fù)責(zé),承擔(dān)侵權(quán)責(zé)任,但如若侵權(quán)行為是人工智能在其自主意志下作出的,沒有任何管理人意志因素存在,讓管理人承擔(dān)侵權(quán)責(zé)任未免不公。
此種責(zé)任與代理說成一體系。代理人責(zé)任是指代理人因過失違反契約或有締約上過失(如泄露締約過程所獲知的相對人營業(yè)秘密)應(yīng)歸責(zé)于本人負(fù)債務(wù)不履行或締約上過失責(zé)任[3](P430)。此說認(rèn)為在人工智能產(chǎn)品侵權(quán)場合應(yīng)由管理人對被侵權(quán)人造成的損失承擔(dān)責(zé)任。此說的弊端在于將人工智能產(chǎn)品與代理人放在同等位置,雖說人工智能產(chǎn)品具有一定的自主性和智慧性,可以在相對范圍內(nèi)自主完成工作,但是其仍屬于法律客體范疇,不具有民事權(quán)利能力和民事行為能力,但是代理人是獨立的法律主體,具有民事權(quán)利能力和民事行為能力,這點是二者最明顯的不同。也正因為人工智能產(chǎn)品處于民事客體地位,代理人責(zé)任是站不住腳的。
監(jiān)護(hù)人責(zé)任的歸責(zé)原則是無過錯責(zé)任,即只要被監(jiān)護(hù)人的行為構(gòu)成侵權(quán)行為,監(jiān)護(hù)人就應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任[4](P738)。梁鵬在其《人工智能產(chǎn)侵權(quán)的責(zé)任承擔(dān)》一文中,將人工智能產(chǎn)品的法律地位與未成年人的法律地位進(jìn)行類比來論述,認(rèn)為現(xiàn)代民商事法律上,承擔(dān)責(zé)任的主要形式是財產(chǎn),未成年人處于求學(xué)狀態(tài),一般沒有獨立的財產(chǎn),也便不能獨立承擔(dān)責(zé)任,故而,其行為應(yīng)當(dāng)受到限制[5](P11-14)。人工智能產(chǎn)品與其一樣,沒有財產(chǎn),并不具備民事責(zé)任能力。應(yīng)當(dāng)參照監(jiān)護(hù)人與被監(jiān)護(hù)人,使人工智能操作者或者控制人承擔(dān)責(zé)任。此說將人工智能產(chǎn)品的法律地位與未成年人進(jìn)行類比具有可取之處,既關(guān)注到人工智能的自主性、智慧性又兼顧到其局限性,是比較折中的說法,但是細(xì)究起來,此說只看到實際操縱人對人工智能產(chǎn)品的控制行為這個表象,忽略人工智能產(chǎn)品的研發(fā)設(shè)計者、生產(chǎn)者、銷售者對人工智能產(chǎn)生的影響。特別是產(chǎn)品研發(fā)設(shè)計者,他設(shè)計了人工智能的核心,人工智能的行為幾乎都是在其設(shè)計之下進(jìn)行的,實際操縱人只是使其人工智能產(chǎn)品重復(fù)再現(xiàn)預(yù)設(shè)好的行為,相比之下,產(chǎn)品研發(fā)設(shè)計者對人工智能產(chǎn)生的影響要更大一些。而被監(jiān)護(hù)人除了監(jiān)護(hù)人以外沒有其他可以對其行為負(fù)責(zé)的人。從這點來看,二者還是不一致的。
我國《產(chǎn)品質(zhì)量法》第 2 條規(guī)定:“本法所稱的產(chǎn)品是指經(jīng)過加工、制作、用于銷售的產(chǎn)品。建筑工程不適用本法的規(guī)定,但是建筑工程所用的建筑材料、建筑構(gòu)配件和設(shè)備,屬于前款規(guī)定的產(chǎn)品范圍的,適用本法規(guī)定?!睆拇艘?guī)定中對產(chǎn)品的定義來看,產(chǎn)品應(yīng)滿足經(jīng)過加工、制作、用于銷售這三個要件。現(xiàn)階段的弱人工智能從其產(chǎn)生、制作、銷售過程來看,滿足產(chǎn)品的要件,符合產(chǎn)品的要求。人類更多地將其視為便利生活、學(xué)習(xí)、工作的智能產(chǎn)品。《民法典》第1203條規(guī)定:“因產(chǎn)品存在缺陷造成損害的,被侵權(quán)人可以向產(chǎn)品的生產(chǎn)者請求賠償,也可以向產(chǎn)品的銷售者請求賠償?!睂θ斯ぶ悄芮謾?quán)場合適用產(chǎn)品責(zé)任是學(xué)界較為支持的主張,人工智能的產(chǎn)生過程與一般的產(chǎn)品類似,都經(jīng)過產(chǎn)品生產(chǎn)者、產(chǎn)品銷售者、產(chǎn)品使用者之間的流轉(zhuǎn)。特別之處在于,人工智能產(chǎn)品的自主性和智慧性對產(chǎn)品前期設(shè)計投入要求較高,所以,產(chǎn)品研發(fā)設(shè)計者也在其中起到至關(guān)重要的作用。再看其性質(zhì),人們對待人工智能產(chǎn)品的態(tài)度與一般產(chǎn)品無異,如若產(chǎn)品出現(xiàn)問題通常也是向產(chǎn)品銷售者或者產(chǎn)品生產(chǎn)者要求維修或者索賠。例如,對于掃地機(jī)器人,一般商家都會有售后服務(wù),當(dāng)其出現(xiàn)故障時消費(fèi)者就會聯(lián)系商家進(jìn)行修理,商家也應(yīng)提供售后服務(wù)。這與一般產(chǎn)品例如電視機(jī)、洗衣機(jī)的報修處理過程是一致的。對人工智能產(chǎn)品侵權(quán)適用產(chǎn)品責(zé)任有其合理之處。
動物飼養(yǎng)人責(zé)任采用無過錯責(zé)任歸責(zé)原則,即只要飼養(yǎng)的動物造成他人損害,動物飼養(yǎng)人或者管理人就應(yīng)當(dāng)承擔(dān)責(zé)任,但責(zé)任人如果證明損害是被侵權(quán)人故意或者重大過失造成的,其責(zé)任可以減輕或者免除[4](P736)。人工智能產(chǎn)品與動物相比,也具有一定的相似性,在日常場合,二者都受實際操作人或者主人支配,在其指揮下正常行為。在人工智能侵權(quán)場合,其行為和動物一樣,是不受控制的。人工智能產(chǎn)品突然程序紊亂出現(xiàn)故障而對他人造成損害的行為與寵物狗突然失控或者受其他人刺激而攻擊他人的行為性質(zhì)類似,都是在實際操作人或者主人的意志之外進(jìn)行的。此學(xué)說也有一定的合理性,但是人工智能與動物相類比確實忽略了人工智能的自主性和智慧性。雖然動物也具有自己的思維,但人工智能的自主性和智慧性和動物并不是同一種性質(zhì)的,在這方面,人工智能的水平要比動物高出很多。
綜上所述,筆者認(rèn)為對人工智能侵權(quán)適用產(chǎn)品責(zé)任最為適宜。由于人工智能侵權(quán)場合牽涉到的主體較多,關(guān)系比較復(fù)雜,而產(chǎn)品責(zé)任對產(chǎn)品侵權(quán)場合產(chǎn)生的侵權(quán)責(zé)任進(jìn)行了明確的責(zé)任分擔(dān),人工智能侵權(quán)適用產(chǎn)品責(zé)任具有化繁為簡的效果。
人工智能從其產(chǎn)生、流轉(zhuǎn)到最終歸屬所牽涉較多主體,包括產(chǎn)品研發(fā)設(shè)計者、產(chǎn)品生產(chǎn)者、產(chǎn)品銷售者、產(chǎn)品所有者。各主體在人工智能侵權(quán)場合所起的作用不同,其應(yīng)承擔(dān)的責(zé)任就不一樣,所以應(yīng)當(dāng)予以分別討論。
人工智能產(chǎn)品與其他一般工具最顯著的區(qū)別在于它具有自主性和智慧性,表現(xiàn)為具有較強(qiáng)的自我學(xué)習(xí)能力。人工智能產(chǎn)品擁有此能力和特性的原因在于產(chǎn)品研發(fā)設(shè)計者在設(shè)計人工智能的時候投入了較高的技術(shù)水平,類似于電腦的芯片一樣,控制了人工智能的行為,對人工智能后來的行為在很大程度上起到主導(dǎo)作用?,F(xiàn)階段,我們?nèi)蕴幱谌跞斯ぶ悄軙r代,設(shè)計者對人工智能的設(shè)計及控制都起到?jīng)Q定性作用,至于后續(xù)的產(chǎn)品生產(chǎn)者是嚴(yán)格依據(jù)設(shè)計進(jìn)行生產(chǎn),產(chǎn)品銷售者也只是對成品進(jìn)行銷售,對人工智能產(chǎn)品進(jìn)行干預(yù)的可能性較小。所以,人工智能產(chǎn)品侵權(quán)場合,如程序紊亂、失靈等狀況很可能是由于設(shè)計者設(shè)計不當(dāng)造成的。產(chǎn)品出現(xiàn)制造缺陷、設(shè)計缺陷和警示缺陷,這些本可以避免的問題,只能歸因于產(chǎn)品研發(fā)設(shè)計者本身,如果因此造成他人利益損害的,產(chǎn)品研發(fā)設(shè)計者就要承擔(dān)相應(yīng)的責(zé)任。
產(chǎn)品生產(chǎn)者在很多情況下與產(chǎn)品研發(fā)設(shè)計者為同一主體,一般的產(chǎn)品生產(chǎn)者都會有自己的專門研發(fā)部門。人工智能產(chǎn)品領(lǐng)域產(chǎn)品生產(chǎn)者與其他一般產(chǎn)品的產(chǎn)品生產(chǎn)者并無不同,都應(yīng)當(dāng)嚴(yán)格依據(jù)產(chǎn)品設(shè)計和人工智能產(chǎn)品領(lǐng)域的具體要求進(jìn)行生產(chǎn)?!睹穹ǖ洹返?202條規(guī)定,因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。如若在生產(chǎn)過程中,沒有遵守生產(chǎn)規(guī)定,以致產(chǎn)品瑕疵而造成他人損害的,應(yīng)當(dāng)承擔(dān)相應(yīng)責(zé)任。
《民法典》第1203條規(guī)定,因銷售者的過錯使產(chǎn)品存在缺陷而造成他人損害的,銷售者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。銷售者既不能指明缺陷產(chǎn)品的生產(chǎn)者也不能指明缺陷產(chǎn)品的供貨者的,銷售者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。人工智能產(chǎn)品對銷售者的要求相比于普通產(chǎn)品來說更高。人工智能產(chǎn)品與一般產(chǎn)品最大的不同在于由于人工智能產(chǎn)品的智能性,其相對于一般產(chǎn)品來說更不易操作,注意事項較多,產(chǎn)品銷售者應(yīng)當(dāng)對消費(fèi)者進(jìn)行準(zhǔn)確的告知。產(chǎn)品銷售者應(yīng)當(dāng)對人工智能產(chǎn)品的操作過程、注意事項、問題處理等過程對消費(fèi)者進(jìn)行詳細(xì)講解,不能以說明書已經(jīng)詳細(xì)說明為借口不履行此項義務(wù)。如若因其未能適當(dāng)履行此項詳細(xì)說明義務(wù),導(dǎo)致消費(fèi)者因錯誤操作人工智能產(chǎn)品而造成他人利益的損害,銷售者應(yīng)當(dāng)對此部分損害承擔(dān)侵權(quán)責(zé)任。
產(chǎn)品所有者即產(chǎn)品管理者不是產(chǎn)品責(zé)任的責(zé)任承擔(dān)主體,在實踐中,他們常常作為權(quán)益受損害的一方,向產(chǎn)品生產(chǎn)者或者產(chǎn)品銷售者主張承擔(dān)侵權(quán)責(zé)任。產(chǎn)品所有者是人工智能產(chǎn)品的直接管理者,直接控制人工智能產(chǎn)品的具體行為。產(chǎn)品所有者因人工智能侵權(quán)而承擔(dān)責(zé)任的情況與一般侵權(quán)責(zé)任承擔(dān)無異,適用過錯責(zé)任原則。如若產(chǎn)品所有者對事故的發(fā)生有過錯,應(yīng)當(dāng)依據(jù)過錯程度及原因力承擔(dān)相應(yīng)的責(zé)任。人工智能產(chǎn)品的工作的結(jié)果直接歸屬于產(chǎn)品所有者。所有者在對人工智能產(chǎn)品進(jìn)行操作時應(yīng)當(dāng)按照具體操作規(guī)則進(jìn)行,在操作時進(jìn)行較高的注意義務(wù),定期對人工智能產(chǎn)品進(jìn)行合理維護(hù),如若因為操作不當(dāng)、沒有盡到相應(yīng)的注意義務(wù)、沒有進(jìn)行必要的維護(hù)等其他影響人工智能工作狀態(tài)的行為而導(dǎo)致侵權(quán)行為的發(fā)生,產(chǎn)品所有者應(yīng)當(dāng)承擔(dān)相應(yīng)的責(zé)任。
研究人工智能侵權(quán)問題應(yīng)當(dāng)先確定人工智能的法律屬性,立足于侵權(quán)責(zé)任法的基本理論進(jìn)行分析解決。人工智能產(chǎn)品正在逐漸滲透進(jìn)我們生活的方方面面,必然會帶來更多的法律風(fēng)險,我們應(yīng)當(dāng)綜合人工智能的發(fā)展特性和發(fā)展前景及時作出合理的規(guī)制來應(yīng)對風(fēng)險,以免出現(xiàn)法律空白。與人工智能相關(guān)的立法工作應(yīng)當(dāng)予以推進(jìn),從而對人工智能進(jìn)行準(zhǔn)確的定位和侵權(quán)的認(rèn)定,保障各方主體權(quán)益。