王曉彤 康雯菁 王筱盈 楊潔倩
摘要:21世紀(jì)開始以來,隨著科學(xué)技術(shù)的不斷發(fā)展,人工智能的發(fā)展空間已經(jīng)變得更加廣闊。在航空航天、汽車制造、醫(yī)療、服務(wù)等多個領(lǐng)域都出現(xiàn)了人工智能的身影。與此同時,人工智能的廣泛應(yīng)用也不可避免地引發(fā)了一系列的問題,產(chǎn)品侵權(quán)的情形不斷出現(xiàn),對我國現(xiàn)有的法律制度提出了挑戰(zhàn)。與傳統(tǒng)的侵權(quán)責(zé)任做對比可以發(fā)現(xiàn),人工智能產(chǎn)品的侵權(quán)責(zé)任問題更為復(fù)雜,如何利用現(xiàn)有的法律制度對其進(jìn)行有效規(guī)制以及現(xiàn)有法律還存在哪些問題,本文以人工智能產(chǎn)品特殊性為出發(fā)點(diǎn),解決上述問題,尋求我國法律在人工智能領(lǐng)域的更完善的方案。
關(guān)鍵詞:人工智能產(chǎn)品;侵權(quán)責(zé)任;歸責(zé)
2022年北京冬奧會的成功舉辦向世界展示了中國風(fēng)采,同時奧運(yùn)村中的一些人工智能產(chǎn)品例如吧臺機(jī)器人、炒菜機(jī)器人等引起了媒體廣泛關(guān)注。這也意味著人工智能產(chǎn)品的運(yùn)用已經(jīng)逐漸走向普遍化,在服務(wù)、金融、醫(yī)療等領(lǐng)域當(dāng)中人工智能的身影已經(jīng)不再陌生。然而在我國,人工智能產(chǎn)品侵權(quán)的問題還沒有明確的規(guī)定,只能將人工智能產(chǎn)品與普通產(chǎn)品視為一致,用《產(chǎn)品質(zhì)量法》以及《民法典》侵權(quán)編的內(nèi)容來處理。然而人工智能產(chǎn)品與普通產(chǎn)品有著較大的區(qū)別,無論是研發(fā)過程還是產(chǎn)品的使用方面,都比一般產(chǎn)品要更加復(fù)雜,如何處理人工智能產(chǎn)品侵權(quán)責(zé)任的問題亟待解決。
一、問題提出
(一)案例導(dǎo)入
案例1:2015年,在德國大眾汽車公司一個工廠里,一位人工智能技術(shù)員在安放機(jī)器人的時候,機(jī)器人突然擊中這個技術(shù)員的胸部,緊接著又將技術(shù)員抓起重重砸在金屬板上,最終技術(shù)員救治無效死亡。之后大眾公司發(fā)布聲明:機(jī)器人并沒有發(fā)生技術(shù)上的故障。
案例2:2016年,在第十八屆中國國際高新技術(shù)成果交易會上,一臺名叫小胖的機(jī)器人在沒有任何命指令示的情況下向展臺方向走去,隨后揮動手臂砸碎了玻璃,導(dǎo)致了部分展臺損壞、一人受傷。
案例3:2018年,在美國亞利桑納州坦貝市行駛的一輛優(yōu)步自動駕駛測試車突然發(fā)生故障,致人死亡。
在上述3個案例中,誰應(yīng)該為事故負(fù)責(zé)?
(二)案例問題分析
在這三個經(jīng)典人工智能產(chǎn)品侵權(quán)案例之中,產(chǎn)品的法律地位、侵權(quán)責(zé)任的主體、案件適用的歸責(zé)原則等方面都值得深入討論與研究。
首先,要解決人工智能產(chǎn)品侵權(quán)的問題,就必須對人工智能產(chǎn)品做出一個界定。事實上,因為人工智能領(lǐng)域技術(shù)進(jìn)步非???,我們很難對其做出一個十分固化的定義。人工智能,也就是我們熟知的AI,是指研究用于模擬和擴(kuò)展人類智能的技術(shù)、理論、方法以及應(yīng)用的新興技術(shù)科學(xué)。而人工智能產(chǎn)品,是技術(shù)的外現(xiàn)、表現(xiàn)形式。因此我們可以將人工智能產(chǎn)品理解為:基于人工智能技術(shù),能夠獨(dú)立于人類思考、決策并完成相應(yīng)任務(wù)的機(jī)器。
明確什么是人工智能產(chǎn)品之后,就必須要面對它的法律地位問題,是把它當(dāng)作一般產(chǎn)品,還是因為其“智能性”而將其歸為特殊的法律關(guān)系主體?如果將其作為主體來看,在侵權(quán)責(zé)任當(dāng)中它如何獨(dú)立承擔(dān)責(zé)任?顯然這樣的觀點(diǎn)在實務(wù)當(dāng)中很難實踐。那如果將其作為普通產(chǎn)品,當(dāng)發(fā)生侵權(quán)時,哪些人應(yīng)當(dāng)成為歸責(zé)主體?是否是與《產(chǎn)品質(zhì)量法》規(guī)定中一樣,由生產(chǎn)者和銷售者來承擔(dān)呢?產(chǎn)品的研發(fā)者以及消費(fèi)者作為人工智能產(chǎn)品的受益者可以免責(zé)嗎?這些角色又該分別適用什么樣的歸責(zé)原則?
二、現(xiàn)有法律及存在的缺陷
(一)相關(guān)法律規(guī)定
目前,我國現(xiàn)行法律體系中沒有明確人工智能產(chǎn)品侵權(quán)的法律依據(jù),該問題的解決主要還是依靠于《民法典》以及《產(chǎn)品質(zhì)量法》等相關(guān)規(guī)定,具體如下:
①《民法典》第一千二百零二條;②《民法典》第一千二百零三條;③《產(chǎn)品質(zhì)量法》第四十一條。
人工智能產(chǎn)品與一般產(chǎn)品是存在較大差別的,當(dāng)前沒有專門針對人工智能產(chǎn)品的法律規(guī)定,因此在相關(guān)問題的解決的上面臨著法律困境。
(二)對現(xiàn)有法律直接適用的問題分析
根據(jù)人工智能“獨(dú)立自主性”的程度不同,它被分為弱人工智能、強(qiáng)人工智能以及超人工智能三個階段,因此我們可以根據(jù)這樣的標(biāo)準(zhǔn)將人工智能產(chǎn)品也分為對應(yīng)的三個階段:弱人工智能產(chǎn)品,即必須借助人類的幫助,通過人類的編程與設(shè)計而完成相應(yīng)任務(wù)的產(chǎn)品;強(qiáng)人工智能產(chǎn)品即可以脫離人類的指令約束,可以根據(jù)不同環(huán)境的變化作出相應(yīng)的判斷,可以自主感知并行動的產(chǎn)品。而超強(qiáng)機(jī)階段則對應(yīng)著人們最害怕的情形,即人工智能已經(jīng)可以與人類平等共存的階段。 ??因為我國的人工智能發(fā)展在弱人工智能向強(qiáng)人工智能過渡的時期,因此我們不對超強(qiáng)時期做出討論。因為強(qiáng)人工智能產(chǎn)品已經(jīng)可以脫離人類而自主工作,因此必須討論它的法律人格問題。雖然已經(jīng)有不少學(xué)者贊同其具備獨(dú)立人格,但筆者認(rèn)為在歸責(zé)問題上存在太多難度,因此不贊同人格說。《中華人民共和國產(chǎn)品質(zhì)量法》 第二條規(guī)定,“本法所稱產(chǎn)品是指經(jīng)過加工、制作,用于銷售的產(chǎn)品?!币虼?,這兩個階段的人工智能產(chǎn)品還是可以被視為經(jīng)過研發(fā)、生產(chǎn)、進(jìn)入流通領(lǐng)域的用于銷售的產(chǎn)品。人工智能產(chǎn)品侵權(quán)適用產(chǎn)品責(zé)任是合理性的。人工智能產(chǎn)品的侵權(quán)基本上是因為設(shè)計缺陷、制造缺陷、警示缺陷等原因造成的,與一般產(chǎn)品問題類似。從責(zé)任承擔(dān)方式看,我國法定的產(chǎn)品責(zé)任承擔(dān)方式包括排除妨礙、消除危險、賠償損失,以及召回的補(bǔ)救方式,而這些都可以適用于人工智能侵權(quán)場合。
但產(chǎn)品責(zé)任并不能完全解決人工智能產(chǎn)品中的侵權(quán)問題。我國的產(chǎn)品責(zé)任無過錯責(zé)任。民法典第一千二百零二條規(guī)定:“因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。” 嚴(yán)格責(zé)任確實可以督促研發(fā)者、生產(chǎn)者盡最大努力保證人工智能產(chǎn)品的效用和安全。但是,因為人工智能的發(fā)展本身就比其它一般產(chǎn)品技術(shù)要更難一些,由于技術(shù)并沒有非常成熟,人工智能產(chǎn)品可能出現(xiàn)的問題是許多研發(fā)者無法預(yù)料到的,如果適用無過錯原則很有可能打擊人工智能產(chǎn)品研發(fā)者的積極性,不利于我國人工智能技術(shù)的發(fā)展。至少從現(xiàn)階段技術(shù)發(fā)展的程度來看,對人工智能產(chǎn)品的研發(fā)者采取無過錯責(zé)任原則是不合理的。此外,還有因果關(guān)系難以證明的問題。按照“誰主張誰舉證”的證明規(guī)則,受害者如果要主張受到人工智能產(chǎn)品的侵害,就必須舉證證明產(chǎn)品缺陷與損害結(jié)果之間具有因果關(guān)系。我國目前關(guān)于人工智能產(chǎn)品的質(zhì)量標(biāo)準(zhǔn)還沒有統(tǒng)一規(guī)定可供參考。而且人工智能產(chǎn)品的問題大多是系統(tǒng)問題,這些是非專業(yè)人士難以指出的。gzslib202204012202三、人工智能產(chǎn)品的責(zé)任主體和歸責(zé)原則
根據(jù)《民法典》侵權(quán)責(zé)任編的規(guī)定,產(chǎn)品責(zé)任的主體是生產(chǎn)者和銷售者,然而考慮到人工智能產(chǎn)品的特殊性,筆者認(rèn)為責(zé)任主體還應(yīng)當(dāng)包括產(chǎn)品的研發(fā)者。從挖制危險源的理論出發(fā),研發(fā)者是危險源頭的控制者,人工智能產(chǎn)品的研發(fā)者可以通過程序來減少產(chǎn)品致人損害的可能性。我們還應(yīng)當(dāng)將人工智能產(chǎn)品的所有者與使用者納入到責(zé)任主體范圍內(nèi),因為使用者是產(chǎn)品利益的直接受益者,對人工智能產(chǎn)品擁有最直接的支配權(quán)。
因此,下文將從人工智能產(chǎn)品的研發(fā)者、生產(chǎn)者和銷售者、使用者三個方面來討論歸責(zé)原則。
(一)研發(fā)者
在我國產(chǎn)品責(zé)任的法規(guī)當(dāng)中,產(chǎn)品的研發(fā)者不是責(zé)任主體,但正如上文所述,因為人工智能的特殊性,我們需要將研發(fā)者納入到責(zé)任主體當(dāng)中,但是也正因為研發(fā)者在其他一般產(chǎn)品當(dāng)中并不負(fù)有產(chǎn)品責(zé)任,如果我們將其列為責(zé)任主體并對應(yīng)無過錯責(zé)任原則,實在太過苛刻。因此人工智能產(chǎn)品的研發(fā)者作為責(zé)任主體,其歸責(zé)原則應(yīng)以過錯責(zé)任為主的原則。可以說,人工智能技術(shù)的發(fā)展是無數(shù)研發(fā)者的功勞,同時因為技術(shù)受限,研發(fā)者很難確保產(chǎn)品在投入使用時不會出現(xiàn)任何問題。因此如果適用無過錯責(zé)任原則實在太過嚴(yán)苛,很有可能打擊研發(fā)者們的研究積極性,這顯然也是不利于我國人工智能技術(shù)發(fā)展,不利于更多人工智能產(chǎn)品改善我們生活的。
(二)生產(chǎn)者與銷售者
生產(chǎn)者是產(chǎn)品與服務(wù)的提供商,也是資本的集中者,所以必定要在責(zé)任分配中占據(jù)重要的地位。銷售者在人工智能產(chǎn)品領(lǐng)域的收益也是巨大的,因此也需要在責(zé)任分配當(dāng)中扮演重要角色。在《產(chǎn)品質(zhì)量法》當(dāng)中對生產(chǎn)者與銷售者的責(zé)任有著明確的規(guī)定,他們都需要承擔(dān)無過錯責(zé)任。筆者認(rèn)為在人工智能產(chǎn)品當(dāng)中也應(yīng)當(dāng)繼續(xù)適用無過錯責(zé)任原則。也即在人工智能產(chǎn)品侵權(quán)責(zé)任問題當(dāng)中,銷售者與生產(chǎn)者的責(zé)任與一般產(chǎn)品的侵權(quán)責(zé)任問題當(dāng)中的處理方式相同。唯一不同的一點(diǎn)是,因為人工智能非常復(fù)雜,與它高收入高回報相對應(yīng)的應(yīng)該就是生產(chǎn)者與銷售者更高的注意義務(wù)。即在生產(chǎn)與銷售人工智能產(chǎn)品過程中,必須對于產(chǎn)品的質(zhì)量以及可能存在的問題更加注意。
(三)使用者
在傳統(tǒng)產(chǎn)品責(zé)任當(dāng)中,使用者即消費(fèi)者是不需要成為責(zé)任主體的,但考慮到人工智能產(chǎn)品使用的復(fù)雜性以及現(xiàn)實案例中出現(xiàn)的問題。筆者認(rèn)為使用者也應(yīng)當(dāng)為產(chǎn)品問題負(fù)責(zé)。大多數(shù)的人工智能產(chǎn)品操作難度并不高,但是也存在部分產(chǎn)品對消費(fèi)者有一定的操作要求。如果是因為消費(fèi)者在使用當(dāng)中沒有認(rèn)真閱讀使用說明,或者因為自己的大意造成了傷害,那么消費(fèi)者就必須為自己的過錯負(fù)責(zé)。因此,在對使用者歸責(zé)時,應(yīng)當(dāng)與研發(fā)者一樣采取過錯責(zé)任原則。這樣可以在一定程度上提醒消費(fèi)者嚴(yán)謹(jǐn)對待人工智能產(chǎn)品的使用。
結(jié)束語
人工智能產(chǎn)品侵權(quán)問題涉及到的主體包括研發(fā)者、生產(chǎn)者、銷售者、使用者等,針對不同的責(zé)任主體也應(yīng)當(dāng)適用不同的歸責(zé)原則。當(dāng)然,除了優(yōu)化責(zé)任分擔(dān),還應(yīng)當(dāng)合理引入強(qiáng)制保險制度、建立登記公示與強(qiáng)制召回制度、設(shè)立安全標(biāo)準(zhǔn),以此來全面保護(hù)在人工智能產(chǎn)品侵權(quán)事件中被侵權(quán)人的利益,也能更好地保障人工智能技術(shù)的蓬勃發(fā)展。
參考文獻(xiàn):
[1]張童:“人工智能產(chǎn)品致人損害民責(zé)任研宄”,載《社會科學(xué)》2018年第5期.
[2]黃瑩:“人工智能產(chǎn)品致人損害侵權(quán)責(zé)任問題研究”,載《南京理工大學(xué)學(xué)報》.(社會科學(xué)版)2019年10月第32卷第5期.
[3]王利明:“人工智能時代對民法學(xué)的的新挑戰(zhàn)”,載《東方法學(xué)》2018年第3期.
[4]吳漢東:“人工智能時代的制度安排與法律規(guī)制”,載《法律科學(xué)》(西北政法大孥學(xué)報)2017年第5期.
[5]陳莉:“人工智能產(chǎn)品民事主體資格及侵權(quán)責(zé)任研究”,載《武漢冶金管理干部學(xué)院學(xué)報》2018年6月第28卷第2期.
[6]劉小璇、張虎:“論人工智能的侵權(quán)責(zé)任”,載《南京社會科孥》2018年第9期.
[7][意]烏戈帕加羅:《誰為機(jī)器人的行為負(fù)責(zé)?》,王黎黎、張卉林譯,上海人民出版社2018年版.
作者簡介:
王曉彤(2001-),女,漢族,江蘇連云港,江蘇大學(xué)法學(xué)院本科在讀,民商法方向。
基金項目: