李政佐
摘 要:人工智能產(chǎn)品是人基于自身的意志,制造或操作某些工具,從而在無人或者少人的狀態(tài)下達到預期效果的系統(tǒng)。現(xiàn)在,人工智能產(chǎn)品正在迅速發(fā)展,在給人們帶來生活便捷的同時也帶來了一些問題。人工智能產(chǎn)品由于具有事前操作,事中無人少人,以及危機處理能力較差的特點,因此造成了歸責時難以確定責任主體的困難。在對人工智能產(chǎn)品侵權進行歸責時應當把握一個基本原則,即人的過錯是其侵權責任必不可少的要件。
關鍵詞:人工智能產(chǎn)品;侵權行為;侵權責任
一、引言——人工智能的異軍突起
2016年3月15日,備受關注的圍棋“人機大戰(zhàn)”在韓國首爾結束,圍棋大師李世石以1:4告負①。人工智能不只是在棋牌領域“嶄露頭角”,可以想象在未來諸多領域都會看到人工智能“脫穎而出”。在諸多影視作品中就已經(jīng)出現(xiàn)大量人工智能產(chǎn)品.這些影視作品大膽暢想未來人工智能對人類生活的影響。事實上,在當前科技水平下,人類已經(jīng)研制成功人工智能汽車、人工智能飛機等等。有的甚至已經(jīng)走入人類生活,并成為不可或缺的一部分。本文認為從這些事例可以看出人工智能已經(jīng)發(fā)展到相當高的水平,甚至有可能“超越”人類的控制。因此很有必要對人工智能進行“法律定位”。
二、人工智能及其產(chǎn)品概念概述
人工智能的定義可以分為兩部分,即“人工”和“智能”。“人工”比較好理解,一般而言即人能夠制造或操作;關于什么是“智能”,爭議很大,哲學、經(jīng)濟學、計算機等學科都對它有相關定義,但是從法律角度理解即在無人或者少人的狀態(tài)下達到預期效果。其中“人工”體現(xiàn)了人的參與性與意志性,這一點是其能被法律調(diào)整的根源所在,符合法律關系構成的主體要求;“智能”體現(xiàn)了人的意志的效果性,這一點是其被法律調(diào)整的目的所在?!叭斯ぁ笔恰爸悄堋钡那疤?,“智能”是“人工”的體現(xiàn)。
綜合起來,人工智能的法律定義可以為:人基于自身的意志,制造或操作某些工具,從而在無人或者少人的狀態(tài)下達到預期效果的系統(tǒng)。以此類推,人工智能產(chǎn)品即為生產(chǎn)并投入市場的該系統(tǒng)的具體商品。
三、人工智能產(chǎn)品侵權主體的確定
人工智能產(chǎn)品侵權主體的范圍是責任認定過程中首先需要明確的一個問題。由于人工智能產(chǎn)品是在無人或者少人狀態(tài)下進行工作,尤其是侵權行為發(fā)生時人的參與性較低,因此人工智能產(chǎn)品侵權主體的確定具有一定特殊性,其與一般產(chǎn)品責任相比有共性也有特殊性。正如前文所述,即使無人少人,但也是在人的參與下進行的,這樣便可以進行法律上的“歸責”。按照人工智能產(chǎn)品的設計、生產(chǎn)與使用的邏輯順序,其責任主體可以歸為產(chǎn)品設計研發(fā)者、產(chǎn)品生產(chǎn)者、產(chǎn)品銷售者、產(chǎn)品運行的操作者和相關監(jiān)管機構等。
(一)產(chǎn)品設計研發(fā)者
設計研發(fā)環(huán)節(jié)是人工智能產(chǎn)品存在的第一個環(huán)節(jié),設計研發(fā)的質(zhì)量決定了該產(chǎn)品運行過程中的穩(wěn)定性、可靠性。設計研發(fā)者的工作成果影響產(chǎn)品設計、生產(chǎn)和使用的整個過程,這個環(huán)節(jié)的過錯將對其他各個環(huán)節(jié)都產(chǎn)生重大影響。由于人工智能產(chǎn)品也屬于商品,對產(chǎn)品設計研發(fā)者的歸責可以按照《產(chǎn)品質(zhì)量法》的規(guī)定進行。
(二)產(chǎn)品生產(chǎn)者
產(chǎn)品生產(chǎn)一直是我國法律界關注的重大問題,可以預見,人工智能產(chǎn)品也不可能“免俗”,在生產(chǎn)領域一定會產(chǎn)生和普通產(chǎn)品相同或者類似的問題。目前相關立法比如《產(chǎn)品質(zhì)量法》對于產(chǎn)品質(zhì)量引起事故的追責規(guī)定的企業(yè)質(zhì)量體系認證、產(chǎn)品質(zhì)量監(jiān)督檢查制度以及嚴格責任原則等等。對于一般產(chǎn)品生產(chǎn)領域的規(guī)范同樣適用于人工智能產(chǎn)品。同時必須指出的是,人工智能產(chǎn)品具有事前操作,事中無人少人的特點,人的主要參與在于事前。因此其質(zhì)量要求更高,對于人工智能產(chǎn)品的生產(chǎn)應當更為嚴格監(jiān)管。
(三)產(chǎn)品銷售者
產(chǎn)品銷售者的責任來源于對產(chǎn)品的保管義務與公平交易的義務。如果因為銷售者的不當管理,使產(chǎn)品質(zhì)量受損,或者銷售假冒偽劣產(chǎn)品,從而造成侵權案件發(fā)生,應當由銷售者承當責任。
(四)產(chǎn)品運行的操作者
對于產(chǎn)品運行的操作者進行歸責是比較復雜的問題,同時也是人工智能產(chǎn)品特殊性的體現(xiàn),因為任何產(chǎn)品肯定存在明確的設計研發(fā)者、生產(chǎn)者,但是對于操作者或者使用者而言,便不一定明確,甚至可能不存在,人工智能產(chǎn)品可能就是這樣。雖然具有這樣的特殊性,但是這并不能表明對操作者無法歸責,也不能因此將責任全部強加到設計研發(fā)者與生產(chǎn)者頭上。對于操作者的歸責強調(diào)必須存在過失,主要考察操作者在使用產(chǎn)品過程中是否存在違反技術規(guī)范行為,是否盡到應盡的注意義務,以及是否盡到維修保養(yǎng)產(chǎn)品的義務。對于操作者的注意義務,本文認為人工智能產(chǎn)品科技含量高,操作技術要求高,不能按照一般普通人注意義務要求,最起碼應當按照處理自己同一事務注意義務要求。
四、人工智能產(chǎn)品侵權違法行為的認定
人工智能產(chǎn)品侵權行為應當具有違法性。侵權責任理論通說認為違法行為要件包含兩個構成要件:一是客觀上存在加害行為;二是加害行為具有不法性②。人工智能產(chǎn)品侵權行為應當符合該違法行為的要求,鑒于其特殊性,本文以人工汽車為例,假想法律與科學技術允許其行駛的情況下,分以下幾種侵權情況討論。
(一)人工智能汽車與行人之間
人工智能汽車具有程序化的特點,即使科技水平再先進,其突發(fā)情況反應能力也不及人類。因此可以認為人工智能汽車在道路上受保護的程度應當高于行人,最起碼要于行人相等。結合現(xiàn)行的《道路交通安全法》主要保護行人的立法規(guī)則,要促進人工智能汽車的發(fā)展,必須進行相應修改。人工智能汽車與行人之間發(fā)生的侵權行為情況會很多。例如,人工智能汽車經(jīng)程序設定后,在無人狀態(tài)下按照預定路線、軌道進行運行,在某個路口與行人相撞,造成重大傷害結果。這種情況下,可能因為汽車一方的過錯,也可能因為行人一方的過錯,或者雙方均有過錯。完全歸責于行人一方過錯的情況不是本文探討的重點,本文只探討汽車一方存在過錯的情況。汽車一方存在過錯有如下情況。第一,汽車程序設計者設計方案存在失誤;第二,生產(chǎn)者生產(chǎn)過程中存在過失,造成產(chǎn)品不合格;第三,銷售者未盡到合理保管義務,致使原本合格產(chǎn)品出現(xiàn)質(zhì)量問題;第四,產(chǎn)品使用者在操作產(chǎn)品運行時,未按技術標準進行操作。需要指出的是,由于人工智能產(chǎn)品運行時的無人少人狀況以及危機處理的不敏感性,對運行道路要求較高,道路設施出現(xiàn)故障也可能擾亂汽車的程序,例如因為紅路燈出現(xiàn)故障,可能成為事故發(fā)生的主要原因。這時就應當有富有維修維護道路設施責任的有關機關負責。
(二)人工智能汽車與普通汽車之間
人工智能汽車與普通汽車最大的區(qū)別是,人工智能汽車運行時人較少操作,人的參與屬于事前參與;普通汽車運行時人全程操作,人的參與屬于全程參與。對于普通汽車一方的追責,是基于駕駛?cè)藛T對于汽車駕駛員的意志,汽車的運行超出駕駛員的意志,按理說不應當追究責任。比如汽車本身固有的根本無法克服的故障而導致汽車失控,除非這個故障是由于駕駛員未盡保養(yǎng)義務造成的。對于人工智能汽車的歸責則不同,因為人工智能汽車在運行過程中幾乎沒有人的參與,人的意志在運行過程中無法體現(xiàn)。此時歸責的思路應當轉(zhuǎn)變,應當向前延伸,著重考察人工智能汽車運行前操作者對于路線、時間、避險等設置是否符合操作規(guī)范。這里需要指出的是,操作者事前不可能完全預料到險情的具體時間地點等因素,我們不可能苛求他對一切了如指掌。對于人工智能汽車操作者的歸責僅限于事前是否按照技術標準合理設置,并且如果因為未盡保養(yǎng)義務而出現(xiàn)故障造成的侵權也應當屬于歸責范圍。另一個需要關注的問題是,普通汽車在與智能汽車相遇時,普通汽車應急能力強,避險的可能性大,因此其受的規(guī)范應當多一些。這樣,對于普通汽車來說較為不公平,最好的辦法是嚴格區(qū)分兩者的道路。我們的社會必定要經(jīng)歷兩種汽車共存的時代,行駛區(qū)域的劃分,一是可以減少兩種不同汽車相撞的可能;二是歸責時也可以根據(jù)行駛區(qū)域判定責任的分擔。
(三)人工智能汽車與人工智能汽車之間
兩種相同技術與操作的汽車,同樣都具有較強的程序性,緊急情況處理能力也都不強,如果都按照技術要求設置與操作,發(fā)生碰撞的可能性不是很大。二者之間發(fā)生碰撞可能是基于汽車自身的故障原因,因此歸責思路應當向前逐步延伸,一直到設計研發(fā)開始。這樣來看,人工智能汽車與人工智能汽車之間的碰撞,大多因為產(chǎn)品質(zhì)量問題,產(chǎn)品責任的可能性大很多。
五、人工智能產(chǎn)品侵權因果關系的認定
侵權法理論上的因果關系,指違法行為作為原因,損害事實作為結果,由原因引起后果的客觀聯(lián)系。人工智能產(chǎn)品侵權行為尤其特殊性,尤其是行為主體參與性較低,因此其因果關系確定有較大的困難。
對于人工智能產(chǎn)品侵權因果關系的證明,因其具有事前參與,事中無人少人的特點,故證明因果關系存在一定難度。其難度主要體現(xiàn)在以下方面。第一,行為人的行為與結果的發(fā)生在時間上存在較大間隔,期間很有可能出現(xiàn)其他情況間隔行為與結果之間的因果關系;第二,結果發(fā)生前,存在較多行為主體參與行為,因此責任主體可能較多,他們行為與結果的因果關系甄別與證明較為復雜;第三,較多因素導致較多結果,侵權損害可能只是其中一個,這樣因果關系可能更為難以辨析。綜合這些特殊情況,以下幾點著重說明。
1、多因一果。即造成損害結果的原因有很多個。在這種情況下,不能僅僅使被告席的被告對損害結果承擔所有責任。比如當產(chǎn)品設計發(fā)生失誤,生產(chǎn)環(huán)節(jié)存在漏洞,操作者違規(guī)操作,道路交通設施發(fā)生故障的問題同時出現(xiàn),共同造成損害結果時,就應當剖析損害事實的發(fā)展過程,合理劃分責任主體及其具體責任的大小。
2、多因多果。即多種因素造成多個損害結果,且這些結果都屬于侵權責任構成要件的要求。這種情況下,不能雜亂無章地混亂分析,首先應當合理去除某些結果,只分析系案件爭議的損害結果的因果關系。剖析損害事實的發(fā)展過程,同時也需要依照前文“多因一果”的討論,合理劃分責任主體及其具體責任的大小。
六、結語
人工智能產(chǎn)品侵權,尤其是人工汽車侵權,雖然還沒有發(fā)生,但是可以料想,未來一定會有發(fā)生。由于人工智能產(chǎn)品具有事前操作,事中無人少人,以及危機處理能力較差的特點,處理人工智能產(chǎn)品侵權問題具有特殊性。處理其特殊性主要抓住三點。第一,人工智能產(chǎn)品也屬于產(chǎn)品,對于普通產(chǎn)品的法律法規(guī),對于人工智能產(chǎn)品依然適用;第二,人工智能產(chǎn)品侵權主體具有特殊性,尤其是操作者的歸責,要以過錯為前提;第三,人工智能產(chǎn)品侵權案件因果關系具有復雜性,必須延長事情發(fā)生的時間,向前追溯剖析因果關系。(作者單位:陜西師范大學政治經(jīng)濟學院)
注釋:
① 《人機大戰(zhàn)下一站將是中國?谷歌CEO到訪中國圍棋學?!罚?016,谷歌中國。
② 張新寶.侵權責任法[M].北京:中國人民大學出版社,2013.
參考文獻:
[1] 張新寶.侵權責任法[M].北京:中國人民大學出版社,2013.
[2] 唐洪霞.論土壤污染侵權的責任認定[J].黑龍江省政法管理干部學院學報,2014(6):115-118.
[3] 陳曉林.無人駕駛汽車對現(xiàn)行法律的挑戰(zhàn)及應對[J].理論導刊,2016(1).
[4] 張冷夫.產(chǎn)品責任的認定研究[J].社科縱橫,2004,19(2):66-67.
[5] 劉學寬,陳李麗.淺談產(chǎn)品責任的因果關系認定[J].山東審判:山東法官培訓學院學報,2013,29(3):93-95.
[6] Alberto Broggi.Proud Car test 2013.Vislab,Retrieved.July.17.2013