李坤海 徐 來
(西南政法大學(xué)民商法學(xué)院,重慶401120)
人工智能的廣泛運用勢不可擋。國際競爭模式早已從本國能源、資源帶動型到轉(zhuǎn)向創(chuàng)新驅(qū)動型。當(dāng)前,時有關(guān)于機器人誤傷事件以及自動駕駛汽車的事故侵權(quán)案件的報道,這就引發(fā)了人工智能對人身和財產(chǎn)威脅的重大思考。法律作為社會調(diào)整的重要手段(特別是侵權(quán)責(zé)任法)就應(yīng)該發(fā)揮它重要的功能。由于人工智能是一種通用技術(shù),“可以應(yīng)用到從農(nóng)業(yè)、制造業(yè)到法律、醫(yī)療、金融服務(wù)業(yè)的各種人類活動場景之中,而它本身正處在高速發(fā)展階段,因此,制定一部總括性的‘人工智能侵權(quán)責(zé)任法’在目前這個階段時機尚不成熟”[1]。我國當(dāng)前也處于人工智能發(fā)展的初步階段,也即弱人工智能時代。人工智能的運用大多是作為一種輔助工具用以方便生活,在侵權(quán)法律適用中也有相關(guān)條款進(jìn)行救濟,人工智能侵權(quán)糾紛被廣泛使用產(chǎn)品侵權(quán)作為判決依據(jù),例如當(dāng)機器人致害時,現(xiàn)行法律實踐僅將其認(rèn)定為產(chǎn)品或者權(quán)利客體而非法律主體。我國作為成文法國家,法律的滯后性顯得尤為突出。因此,針對人工智能對侵權(quán)法的沖擊作一個較為詳細(xì)的了解,有利于為完善人工智能侵權(quán)法律提供更好的建議。
探討人工智能與我國當(dāng)前侵權(quán)體系構(gòu)成之間的關(guān)系問題,必須著眼于人工智能侵權(quán)本身具備的基本特征。人工智能從早期的簡單機械操作領(lǐng)域進(jìn)入以電動牙刷、蘋果私人助手Siri 為典型代表的生活、醫(yī)療、電子等領(lǐng)域,早已不是單純的人的行為的簡單延伸。作為智能數(shù)字化的產(chǎn)品,人工智能的“意識性”特征日益明顯;作為新興的經(jīng)濟領(lǐng)域,人工智能適用范圍的“擴大化”加劇了人工智能侵權(quán)的復(fù)雜性。從人工智能侵權(quán)自主性、不可預(yù)見性以及復(fù)雜性特點出發(fā),在宏觀視野下,理清其對侵權(quán)責(zé)任體系構(gòu)成的影響。
人工智能技術(shù)源于計算機技術(shù)的發(fā)展,計算機技術(shù)逐漸成為人類認(rèn)識自我以及探索世界的“替代品”。作為由程序支撐的計算機技術(shù),其中各種代碼本身就已經(jīng)顯示出智能組合的多樣性。加上人為的操縱,人工智能產(chǎn)品侵權(quán)效力的頻率和效果頗具自動性。自動駕駛汽車在國外得到普遍運用,最開始被認(rèn)為是減少交通擁堵、節(jié)約勞動力的新型智能典型代表。但事實并非如此,隨著智能化汽車對交通無規(guī)律的干擾以及事故的頻繁發(fā)生,智能產(chǎn)品侵權(quán)逐漸成為其發(fā)展的阻礙。首先,程序的自由組合加劇了事故的發(fā)生。自動駕駛汽車由燈光方向等不同程序組合,雖有事前的路段預(yù)測,但是行駛路段以及信號燈的復(fù)雜性使人工智能程序自動反應(yīng)的工作愈加繁復(fù),道路的瞬時變化以及程序組合的自由性依然防止不了兩者發(fā)生沖突。其次,人工智能并非完全由人控制。雖然人工智能在定義上打下了人工的烙印,但是人工智能有時具有“自己決定”的擬人成分。對于預(yù)先設(shè)定的規(guī)則,人工智能是可以打破的[2],特別隨著人工智能中“智力成分”不斷加強,擁有“自我控制”的能力則會更加突出,提前規(guī)劃的路線中途轉(zhuǎn)向、程序運轉(zhuǎn)失靈、與障礙物相撞以及難以快速反應(yīng)都是其弱點。智能產(chǎn)品程序自由組合性以及預(yù)先規(guī)則的打破無疑會使其自主性特點不斷突出?;仡櫲斯ぶ悄馨l(fā)展歷史,早期作為一種輔助零件完全由人為控制發(fā)展到今天相對獨立的操作系統(tǒng),人工依賴性不斷減弱,在面對突發(fā)事故頗具未來不確定性。“作為一種前科學(xué),人工智能的框架尚未完全。”[3]人工智能中的“智能”盡管貼近人的大腦,但于個體而言,都無法完全控制突發(fā)事件的襲擊,更何況現(xiàn)階段是作為一個擬制的“替代品”去行動。當(dāng)前正處于世界科技新一輪上升階段,科學(xué)技術(shù)的發(fā)達(dá)程度直接關(guān)系人工智能應(yīng)用的成熟程度,并且我國科技在近些年才不斷趕上世界水平,與發(fā)達(dá)國家相比依然有較大差距,智能程序的設(shè)計漏洞和不完全合理性也客觀存在。
人工智能依托的是互聯(lián)網(wǎng)技術(shù)的高度發(fā)展,而互聯(lián)網(wǎng)技術(shù)的發(fā)展又離不開計算機的共識計算系統(tǒng)以及程序編碼。單從計算機這一領(lǐng)域來看,人工智能技術(shù)需要專門人員掌握大量計算術(shù)語,對于設(shè)計者而言都難以分辨某個行動背后的邏輯,對于法律實踐的律師和法官而言更是勉為其難。對普通侵權(quán)的定義大多涉及人身和財產(chǎn)的侵害,但是對侵害的方式以及事實卻難以用抽象的概念進(jìn)行表達(dá),可見侵權(quán)本身即復(fù)雜多樣。而人工智能侵權(quán)更是打開了新的領(lǐng)域。首先表現(xiàn)為侵權(quán)領(lǐng)域增多?!吨腥A人民共和國侵權(quán)責(zé)任法》在分則具體章節(jié)中列舉了主要常見的侵權(quán)情形,采取了列舉式的立法模式。但人工智能最先應(yīng)用的領(lǐng)域是計算機領(lǐng)域,關(guān)于計算機領(lǐng)域的侵權(quán)規(guī)定主要體現(xiàn)于《中華人民共和國侵權(quán)責(zé)任法》第三十六條①第三十六條 網(wǎng)絡(luò)用戶、網(wǎng)絡(luò)服務(wù)提供者利用網(wǎng)絡(luò)侵害他人民事權(quán)益的,應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)實施侵權(quán)行為的,被侵權(quán)人有權(quán)通知網(wǎng)絡(luò)服務(wù)提供者采取刪除、屏蔽、斷開鏈接等必要措施。網(wǎng)絡(luò)服務(wù)提供者接到通知后未及時采取必要措施的,對損害的擴大部分與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任。網(wǎng)絡(luò)服務(wù)提供者知道網(wǎng)絡(luò)用戶利用其網(wǎng)絡(luò)服務(wù)侵害他人民事權(quán)益,未采取必要措施的,與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任。,是對網(wǎng)絡(luò)用戶和網(wǎng)絡(luò)提供者的侵權(quán)規(guī)定。但是對于人工智能背景下的軟件程序設(shè)計者、軟件著作權(quán)所有者的責(zé)任承擔(dān)規(guī)定并不明確。再者,人工智能大量運用于海洋作業(yè),彌補人類在海洋探索領(lǐng)域的不足。人工智能對海洋河流領(lǐng)域的侵權(quán)在將來人類活動中也會日益顯露出來,這些新的領(lǐng)域也應(yīng)有法所依。更有甚者,在人工智能大數(shù)據(jù)環(huán)境下,侵權(quán)競合可能不再是單一的侵權(quán)類型。通過網(wǎng)絡(luò)對人格侵犯的現(xiàn)象在不久的將來應(yīng)該在司法實踐中會大量遇到,侵權(quán)領(lǐng)域的擴大不僅造成現(xiàn)有侵權(quán)體系的解釋困難,更是助長了侵權(quán)責(zé)任法漏洞的擴大。不僅是領(lǐng)域問題的復(fù)雜,還有事實問題的復(fù)雜。一方面,對于事實的查明,人工智能由于具有上述第一個自動性的特征,可能有的情況難以合理分配責(zé)任承擔(dān),特別是在強智能時代或者超智能時代,自動型侵權(quán)可能更加突出。另一方面,人工智能侵權(quán)事實在舉證時可能面臨事實缺失的情形,或者受到現(xiàn)有智能技術(shù)又難以解釋的窘境。無論是領(lǐng)域還是事實層面,都體現(xiàn)了人工智能侵權(quán)的復(fù)雜性,與傳統(tǒng)的侵權(quán)領(lǐng)域相比,人工智能侵權(quán)更具有研究必要性。
有學(xué)者提出人工智能發(fā)展分為三階段:推廣普及階段、爆炸式增長階段、意識智能階段[4]。這一分類標(biāo)準(zhǔn)的主要依據(jù)是人工智能適用范圍,對于研究人工智能歷史脈絡(luò)具有較大價值。但是對于研究人工智能對侵權(quán)責(zé)任構(gòu)成體系的沖擊而言,以此為標(biāo)準(zhǔn)在前述兩階段并不明顯。筆者認(rèn)為以適用度為劃分標(biāo)準(zhǔn)不足以窺探責(zé)任構(gòu)成遭受影響程度。本文主要以侵權(quán)體系要素在弱人工智能時代和強人工智能時代突出表現(xiàn)不同,對責(zé)任構(gòu)成進(jìn)行階段性介紹。弱人工智能時代,人工智能產(chǎn)品侵權(quán)依然是人的智力的延伸,只是對于新型智能產(chǎn)品侵權(quán)在法律選擇適用上會遇到困難。同時我國侵權(quán)責(zé)任法傳統(tǒng)的歸責(zé)原則在智能環(huán)境下過錯的認(rèn)定會受到?jīng)_擊。強人工智能時代,智能化產(chǎn)品具有高度智能性,由自然人和法人構(gòu)成的法律主體體系會受到較大影響,特別是在司法實踐中,關(guān)于舉證責(zé)任的舉證分配、如何公正高效地取得證據(jù)都會對證據(jù)學(xué)產(chǎn)生新的影響。故筆者進(jìn)行階段性區(qū)分,更好地厘清不同智能時代對我國侵權(quán)責(zé)任法體系構(gòu)成的沖擊。
在人工智能發(fā)展初期階段,人工智能適用領(lǐng)域的不斷擴大導(dǎo)致司法人員在法律適用上面臨法條競合選擇或者無法直接適用法律,這無疑使對人工智能侵權(quán)歸類產(chǎn)生影響。此外,我國傳統(tǒng)的侵權(quán)責(zé)任過錯歸責(zé)原則在近些年發(fā)生了一些變化:過錯推定、公平原則的引入對于人工智能侵權(quán)問題的歸責(zé)原則也有所啟發(fā)。在此,弱人工智能時代侵權(quán)歸類和歸責(zé)原則將是人工智能侵權(quán)的突出問題。
1.人工智能產(chǎn)品侵權(quán)責(zé)任歸類陷入困境
人工智能更多地以物質(zhì)載體顯現(xiàn)出來。對于人工智能糾紛,我們不妨從分析常見的侵權(quán)類型出發(fā),進(jìn)一步厘清人工智能對侵權(quán)歸類的挑戰(zhàn)。最突出的是產(chǎn)品侵權(quán),由于直接歸類于產(chǎn)品侵權(quán),既找到了歸類解決之道,又規(guī)避了談及智能產(chǎn)品的法律人格問題。首先,對于產(chǎn)品侵權(quán),法律規(guī)定總結(jié)為:產(chǎn)品責(zé)任是一種侵權(quán)責(zé)任,無論受害人與產(chǎn)品的生產(chǎn)者或銷售者之間是否存在買賣合同關(guān)系,都可以提起產(chǎn)品責(zé)任之訴。其次,產(chǎn)品責(zé)任屬于一種特殊的侵權(quán)責(zé)任,其適用的是無過錯責(zé)任原則。以上表明,法律的傾向性更側(cè)重于保護(hù)消費者。關(guān)于該法條的深入涵義很多學(xué)者已經(jīng)進(jìn)行挖掘,筆者主要探討一下人工智能產(chǎn)品侵權(quán)的適用問題。產(chǎn)品的界定是適用該條款的基礎(chǔ),常見的食品醫(yī)療產(chǎn)品屬于該范圍,但是對于自動化軍用產(chǎn)品致人損害、高度智能化的大型船只致人損害,由于軍用產(chǎn)品和準(zhǔn)不動產(chǎn)一般不適用于產(chǎn)品責(zé)任中,因此對這些新型智能產(chǎn)品是否屬于產(chǎn)品的范圍存有疑問[5]。對于信息是否屬于產(chǎn)品,德國通說認(rèn)為存儲在數(shù)據(jù)載體(如磁盤、光盤)中的軟件屬于產(chǎn)品;但是,就那些沒有存儲在數(shù)據(jù)載體中的軟件,是否適用產(chǎn)品責(zé)任存在很大的爭議。并且,產(chǎn)品責(zé)任規(guī)定了免責(zé)事由,在新型技術(shù)發(fā)展的初期,現(xiàn)有的科技水平或產(chǎn)品未被投入市場流通容易成為人工智能產(chǎn)品生產(chǎn)者規(guī)避責(zé)任理由,加劇生產(chǎn)者和消費者之間的不公平。除了產(chǎn)品侵權(quán),還有高度危險物條款進(jìn)行侵權(quán)歸類處理。并且在實踐中,人工智能廣泛運用于人類能力有限的危險領(lǐng)域,與高度危險物損害條款設(shè)立初衷相符合。從立法初衷和人工智能應(yīng)用價值層面來看,歸入高度危險物條款也是合理的。但是高度危險物本身就是一個極其抽象的概念,該條款也主要是為了規(guī)制核設(shè)施致人損害的情形[6],將這種典型化特征適用于整個人工智能侵權(quán)不僅會造成對人工智能本身性質(zhì)的誤解而且容易以偏概全。特別在人工智能發(fā)展初期,將其歸為與核設(shè)施同等性質(zhì)的高度危險物范疇不盡合理,會造成對人工智能產(chǎn)品的社會誤解,造成行業(yè)發(fā)展積極性受挫,只方便了法律適用卻忽視了人工智能長遠(yuǎn)發(fā)展。
有觀點提出階段性類型探討歸責(zé),但是人工智能發(fā)展階段分類明顯,況且在一個階段內(nèi)也有多個動態(tài)變化形態(tài),會加重法律的負(fù)擔(dān)①賈章范在《能醫(yī)療機器人侵權(quán)歸責(zé)進(jìn)路與制度構(gòu)建》提出階段性類型化探討,適用于當(dāng)前較短時間內(nèi)智能醫(yī)療產(chǎn)品侵權(quán)責(zé)任規(guī)制,但是在整個智能時代早期無法得到完全有效適用。[7]。筆者認(rèn)為,在弱人工智能時代既然無法找到一個完全具有概括性的條款進(jìn)行侵權(quán)歸類,但是有條件選擇適用是一個不錯的方法。對于一般人工智能產(chǎn)品,適用產(chǎn)品責(zé)任一般條款;特殊化智能領(lǐng)域適用醫(yī)療責(zé)任等特殊條款;具有高度危險特征的人工智能產(chǎn)品侵權(quán)則適用高度危險物致人損害條款。特別在人工智能發(fā)展初期,顛覆整個侵權(quán)責(zé)任構(gòu)成體系似乎不盡合理,運用現(xiàn)有的責(zé)任適用條款能夠適應(yīng)當(dāng)前一般侵權(quán)事故。
2.人工智能產(chǎn)品侵權(quán)歸責(zé)原則合法不合理
歸責(zé)原則是侵權(quán)責(zé)任法進(jìn)行責(zé)任分配的理論基礎(chǔ),體現(xiàn)著民法的公平和正義價值??梢哉f,“歸責(zé)原則是始終體現(xiàn)當(dāng)代民法精神并代表當(dāng)代民法發(fā)展的一條主線”[8]。人工智能時代下對侵權(quán)責(zé)任歸責(zé)又有什么重要沖擊呢?過錯原則應(yīng)該是侵權(quán)責(zé)任體系中運用最多的原則,人工智能侵權(quán)適用過錯歸責(zé)原則,由于人工智能發(fā)展初期依然是人類活動的延伸,在表面上以生產(chǎn)者的主觀過錯進(jìn)行歸責(zé)似乎合理合法。但是在具體分析中會發(fā)現(xiàn)過錯的追究是一個艱難的過程。弱人工智能環(huán)境下,雖然智能產(chǎn)品是人類活動的延伸,但是依然擁有擺脫人為高度控制的可能性,畢竟智能化人工屬性亦是不可改變的根本特點。機器人侵權(quán)是人工智能應(yīng)用至今較為典型的例子,筆者先用過錯歸責(zé)原則進(jìn)行合理性分析。發(fā)生于公共場所的機器人侵權(quán),首先應(yīng)當(dāng)由機器的所有者承擔(dān)責(zé)任,再由有注意義務(wù)的場所提供者承擔(dān)與其過錯相對應(yīng)的補充責(zé)任??伤腥水?dāng)時并不在現(xiàn)場控制,機器人侵權(quán)的同時也沒有所有者人為的意思表示,與其無因果關(guān)系卻要承擔(dān)責(zé)任,在筆者看來也不合理。對于場所管理者來說,若盡到了注意和提醒義務(wù),也很難將補充責(zé)任強加于此。有學(xué)者提出應(yīng)該由機器生產(chǎn)者承擔(dān)責(zé)任,這就涉及產(chǎn)品的無過錯責(zé)任歸責(zé)??墒且晃蹲非螽a(chǎn)品生產(chǎn)者的無過錯侵權(quán)責(zé)任,不僅是對生產(chǎn)者經(jīng)濟的削弱,也會嚴(yán)重打擊人工智能市場的主體的積極性,不利于人工智能技術(shù)的發(fā)展和新型經(jīng)濟的蓬勃,讓“無辜者”承擔(dān)責(zé)任也許并不是法律的初衷。人工智能的侵害可能源于技術(shù)缺陷,也可能源于系統(tǒng)本身程序錯誤。由此可見,過錯歸責(zé)和無過錯歸責(zé)都會受到法理的挑戰(zhàn)。由于我國傳統(tǒng)上實行過錯侵權(quán),在特殊情況下為了照顧弱者利益,實行無過錯原則,現(xiàn)有的規(guī)則體系無法給出合理的歸責(zé)解釋。近些年來,隨著過錯推定和公平責(zé)任原則的出現(xiàn),使社會侵權(quán)問題得到法律上的緩解。但是過錯推定和公平責(zé)任只適用于法律明文規(guī)定[9],人工智能侵權(quán)的法律適用即使符合以上個別條款,卻難以在整體上進(jìn)行理論協(xié)調(diào),并且在初期階段,單獨對人工智能產(chǎn)品專章進(jìn)行侵權(quán)規(guī)定,無論是在立法成本還是可行性上都阻礙重重。
弱人工智能時代,人工智能一般被視為不具有獨立的意識。但是在未來高度發(fā)展的人工智能時代,特別是機器人領(lǐng)域,人工智能的主體資格就值得審視。況且,由于其自主性和復(fù)雜性的侵權(quán)特點,對人工智能侵權(quán)事實認(rèn)定、舉證責(zé)任的分配也將會造成較大沖擊。
1.主體資格審視
“法律人格是某一主體能否成為法律意義上‘人’的資格, 是其享有權(quán)利、履行義務(wù)的基礎(chǔ)。人格是可以擴展于自然之外的實體, 但現(xiàn)行體系下, 人工智能是否具有法律人格并不明晰, 造成現(xiàn)實的適用困境?!保?0]關(guān)于人工智能主體資格的審視,在發(fā)展階段初期作為輔助性的智能運用,并不必然構(gòu)成對侵權(quán)主體的沖擊。值得注意的是,在強人工智能時代,人工智能高度自動性和獨立性就會引發(fā)主體之爭。否認(rèn)說堅持認(rèn)為人工智能擺脫不了人工的控制,永遠(yuǎn)是作為權(quán)利的客體存在,因此該種學(xué)說條件下的責(zé)任承擔(dān)都由自然人主體進(jìn)行分配。根據(jù)前面的產(chǎn)品侵權(quán)分析,完全將責(zé)任歸責(zé)于生產(chǎn)者這一自然人貌似不符合公平原則,這在強人工智能時代會更加明顯。代理說認(rèn)為人工智能是作為人手足的延伸,是所有者的代理人。與傳統(tǒng)的代理結(jié)構(gòu)對比,代理人的形式卻不同。一個是真實存在的自然人,一個是物化代理人;在代理權(quán)限上來說民法上的代理存在代理合同,有明確的權(quán)限或者法律明文規(guī)定的代理權(quán)限,但人工智能代理由于具有不可預(yù)測性和自主性,代理權(quán)限并不如民法意義上有代理合同等方式那樣能夠得到很好控制。并且從傳統(tǒng)表見代理角度無法對人工智能對外法律作為性質(zhì)進(jìn)行界定,更不用說能夠理清人工智能產(chǎn)品的代理來源[11]。故筆者看來,該種學(xué)說也只是為了借鑒民法意義上的代理制度將結(jié)果歸屬于被代理人以方便法律適用,但是無論從形式還是分類上,都無法將這種所有者的代理歸入代理學(xué)說。電子人格學(xué)說借鑒于公司法人的擬制法律形態(tài),其實關(guān)于法律主體的發(fā)展趨勢,不可否認(rèn)是一個擴張的過程,外部形態(tài)的自然人到與法人并存,內(nèi)部形態(tài)也分化為無民事行為能力、限制行為能力、完全行為能力人,由內(nèi)及外都是一種外傾趨勢[12],加入電子人概念是否正符合這種趨勢呢? 對于電子人,其是否有獨立財產(chǎn)對外承擔(dān)責(zé)任呢?這是法人作為擬制的人最重要的財產(chǎn)獨立原則。電子人的申請人與電子人又是何種關(guān)系呢? 是合作關(guān)系,還是控制關(guān)系?電子人的監(jiān)管又該仿照自然人還是法人呢? 電子人人格還會受到哲學(xué)倫理的沖擊,人的本質(zhì)和智慧的本質(zhì)之間的區(qū)別在哲學(xué)領(lǐng)域上已經(jīng)開始爭議,電子人作為智慧的結(jié)晶是否就是人的本質(zhì)所在,可能這也是一個讓人難以接受的謬論。這些問題在當(dāng)前都無法得到很好的回答。我們應(yīng)該采取動態(tài)人格區(qū)分:在發(fā)展低級形態(tài),只是一種人為控制下工具的延伸,但在未來,適時賦予其法律人格能更好解決法律關(guān)系問題,這就需要更多的類似公司法人制度進(jìn)行規(guī)范支撐,超出了我們現(xiàn)有的經(jīng)濟和法律基礎(chǔ)。
2.責(zé)任承擔(dān)舉證窘境
由于人工智能侵權(quán)事實特殊性,在理清事實真相以及因果關(guān)系等多方面本就不是易事。人工智能關(guān)鍵技術(shù)掌握在設(shè)計者手中,核心技術(shù)作為商業(yè)秘密的一種,在當(dāng)前不公開也并不違反法律。即使依托于計算機系統(tǒng)的人工智能算法可以公開,但是依據(jù)算法完成學(xué)習(xí)、分析、決策、推理的過程是難以理解與解釋的。根據(jù)傳統(tǒng)民事訴訟法,無特殊規(guī)定外,根據(jù)“誰主張誰舉證”的規(guī)則,應(yīng)當(dāng)由被侵權(quán)人就相關(guān)事實承擔(dān)舉證責(zé)任,對于損害醫(yī)療證明,法院可以要求醫(yī)院提供相關(guān)書證,但是對于醫(yī)院一方的過錯舉證,則會陷入舉證困難。受害者一般都是普通公民,相對于人工智能生產(chǎn)商而言,舉證對方技術(shù)存在瑕疵是勉為其難。況且人工智能的自主性和不可預(yù)測性,對對方過錯的舉證就變得難上加難。由大數(shù)據(jù)計算機系統(tǒng)支持的人工智能,不斷進(jìn)行數(shù)據(jù)重整、規(guī)則重整,對于后續(xù)的紀(jì)錄顯示和保存也造成了嚴(yán)重困難,無法有效地還原當(dāng)時客觀的侵權(quán)過程,更不用說需要被害者承擔(dān)敗訴的后果,這明顯就與民事糾紛所倡導(dǎo)的公平正義原則相違背,傳統(tǒng)的舉證規(guī)則運用于人工智能會面臨事實不清的困境。
面對人工智能,不僅是舉證責(zé)任分配存在不公,具體事實的舉證也會“束手無策”。首先是關(guān)于懲罰性賠償?shù)呐e證,我國對懲罰性賠償?shù)囊?guī)定主要在欺騙消費者相關(guān)法條中,對于存在主觀故意的,消費者可以通過舉證證明以懲罰性的方式更好地維護(hù)自己的利益。對于人工智能產(chǎn)品,我們這里討論的主要是作為強智能環(huán)境下的人工智能產(chǎn)品,比如手機自動點餐服務(wù),由于任意組合的手機智能軟件以及美圖等修飾,很容易出現(xiàn)圖片和現(xiàn)實的差距。此時,商家在主觀上也無欺騙故意,大多是由于程序、數(shù)據(jù)出現(xiàn)錯誤導(dǎo)致的結(jié)果[13]。還有精神損害賠償問題,如網(wǎng)絡(luò)侵犯隱私權(quán)可能會存在這樣一種情形:隱私事實保存于電腦,因程序問題而自動公布于眾,造成受害者嚴(yán)重的精神損害,向誰追償精神損害賠償就會受到爭議,是軟件的提供者還是網(wǎng)絡(luò)的提供者,各自都會有自己的抗辯事由??梢?,舉證問題對于人工智能來說是急需解決的事情,如何在高度自主化環(huán)境下尋求一個客觀的事實對于侵權(quán)責(zé)任法的事實認(rèn)定是一種挑戰(zhàn)。
法律的可預(yù)見性要求法律制度的完善是主動的而不是被動的。我們不應(yīng)等待問題出現(xiàn), 這將對人工智能領(lǐng)域的創(chuàng)新造成阻礙。侵權(quán)責(zé)任構(gòu)成主要包括主體、侵權(quán)歸責(zé)原則、侵權(quán)行為事實、侵權(quán)結(jié)果以及因果關(guān)系。上述提及的主要是人工智能對主體、原則、事實與結(jié)果查明以及侵權(quán)適用造成較大的沖擊。人工智能主體地位對侵權(quán)責(zé)任體系的影響是具有根本性的,會造成侵權(quán)本質(zhì)的變化。并且我國對人工智能法律人格的理論與實踐也不夠,故主要對歸責(zé)原則以及行為事實與結(jié)果的查明提供建議:區(qū)別對待歸責(zé)解決人工智能生產(chǎn)運用過程中的主體多樣;黑箱子信息記錄解決舉證事實查明;商業(yè)保險與智能基金解決新科技初期損害事實頻發(fā)的風(fēng)險規(guī)避;事前登記與事后監(jiān)管解決行政適當(dāng)干預(yù)保障其穩(wěn)定發(fā)展。
由于人工智能產(chǎn)品大多是在智能環(huán)境下進(jìn)行工作,人為的直接操作越來越少也是經(jīng)濟去中心化的表現(xiàn)。但是當(dāng)前理論認(rèn)為,人工智能依然是人類行動物化載體,也并沒有突破超越人的認(rèn)知范圍,可以進(jìn)行人的歸責(zé)。人工智能區(qū)別對待原則即對各流程主體進(jìn)行責(zé)任區(qū)分,主張采用階段式方法對人工智能侵權(quán)進(jìn)行法律規(guī)制,即在設(shè)計、生產(chǎn)、運輸、銷售、使用等不同動態(tài)環(huán)節(jié)來規(guī)制責(zé)任[14]。該觀點主要看到了人工智能產(chǎn)品整個流程的進(jìn)展過程,但是單純以哪一個環(huán)節(jié)出錯而進(jìn)行責(zé)任規(guī)制,只是法律問題的表象,并且實踐中多環(huán)節(jié)過錯極其常見,依然需要對各環(huán)節(jié)事實進(jìn)行排查,加大了司法查明的難度。該觀點的階段性主體傾向筆者是同意的,但是生產(chǎn)者、銷售者、使用者之間的責(zé)任是存在差別的。我國現(xiàn)行法律規(guī)定,生產(chǎn)者和銷售者都承擔(dān)無過錯的嚴(yán)格責(zé)任,這對銷售者特別是小型銷售者其實是不公平的,無疑加劇了其經(jīng)濟負(fù)擔(dān)。雖然立法目的是保障消費者權(quán)利,但是在人工智能發(fā)展初期,應(yīng)該對智能產(chǎn)品有所特殊對待。故銷售者承擔(dān)的應(yīng)為過錯責(zé)任,因為其涉及的主要是法律的買賣合同訂立,與生產(chǎn)者侵權(quán)關(guān)系相比密切度一般,過錯責(zé)任對銷售者舉證責(zé)任也是有利的。對于生產(chǎn)者初步承擔(dān)嚴(yán)格責(zé)任是法律應(yīng)有之義,但是也不能將范圍任意擴大,依然要符合產(chǎn)品缺陷這一前提,而如何證明產(chǎn)品缺陷也是接下來需要論述的內(nèi)容。生產(chǎn)者與銷售者的區(qū)別對待對于人工智能早期發(fā)展具有重要作用。
黑箱技術(shù)①黑箱技術(shù)源于國際航空行蹤技術(shù),用于對智能情況下技術(shù)痕跡的記錄,具有還原客觀性的重要功能。走進(jìn)人們視野應(yīng)該是馬航事件,將黑箱子記錄信息應(yīng)用于人工智能不失為一種巧妙的借鑒。人工智能由于自身自主性和不可預(yù)測性太強,對事實真?zhèn)蔚牟槊鞔嬖诤芏嗳毕?。黑箱子不僅可以記錄人工智能的操作過程,而且其內(nèi)部的信息記錄可以幫助查明出錯的環(huán)節(jié),從而更好地進(jìn)行責(zé)任分配。但黑箱子的裝置應(yīng)該與人工智能同時投入使用,并且裝置的裝配責(zé)任應(yīng)該由生產(chǎn)者進(jìn)行承擔(dān)。我國在環(huán)境保護(hù)法領(lǐng)域?qū)Νh(huán)保設(shè)施的投入使用也采取與施工同步戰(zhàn)略,對事前裝置,相關(guān)法律法規(guī)應(yīng)該給予強制性規(guī)定??墒菍τ谟涗浭聦嵉奶峁┡c舉證證明責(zé)任的分配可能會存在矛盾。受害者一般為過錯責(zé)任的證明主體,但是對于人工智能關(guān)鍵信息可能由于自己技術(shù)知識的缺乏或者生產(chǎn)者出于利益考量而不予提供?;诖耍梢越梃b民事訴訟的訴訟舉證規(guī)則。由受害者提出侵權(quán)事實證明,而生產(chǎn)者應(yīng)當(dāng)提供黑箱子記錄事實,如不提供或者有采取毀壞的事實,則在法律上推定其承擔(dān)過錯責(zé)任不利后果,這也促進(jìn)了生產(chǎn)者加快黑箱子記錄的使用進(jìn)度。此外,黑箱子一般會涉及人工智能核心技術(shù)的透明度問題。對于存在商業(yè)秘密的黑箱子記錄儀,舉證事實經(jīng)過司法機關(guān)的審批,應(yīng)該秘密進(jìn)行。黑箱子信息記錄與信息隱私保護(hù)有關(guān),國外在自動駕駛中運用的記錄儀,對乘車人的身份信息以及路線計劃都進(jìn)行了隱私保護(hù),因此在查明事實的基礎(chǔ)上也應(yīng)該注重個人信息保護(hù)。關(guān)于人工智能黑箱子證據(jù)的舉證,由于我國采取的是公開審判,對于雙方在侵權(quán)案件中的舉證程序,可以在堅持公開基本原則之下采取變通的方式,如由合適的當(dāng)事人在場共同進(jìn)行質(zhì)證、單獨質(zhì)證。
對于新型智能產(chǎn)品,有關(guān)部門在初期就應(yīng)該采取嚴(yán)格的管控措施[15]。事前監(jiān)管主要指人工智能產(chǎn)品投入正式使用這一階段。我國公司采取公司登記制度,行政許可也采取許可登記的前置程序,不僅是對行政管理的便利,也是出于對市場秩序的安排。事前監(jiān)管可以采取登記制度,公司登記即對法人進(jìn)行法律上的承認(rèn),雖然近些年來對公司登記事項相關(guān)內(nèi)容有所放開,但不可否認(rèn)的是,在公司發(fā)展初期,通過相關(guān)的登記制度為公司在市場中的主體地位打下了堅實的基礎(chǔ)。人工智能在早期發(fā)展階段特別是新型人工智能大量爆發(fā)的階段,離不開法律的監(jiān)管,人工智能未來發(fā)展勢頭雖然勢不可擋,但是人工智能依然有其自身的缺陷。登記準(zhǔn)入制度首先確保為市場輸入合法的人工智能資源,行政前置的篩選雖然看似程序復(fù)雜,但是初期階段的“謹(jǐn)慎”是人工智能市場秩序和諧的重要保證。由于人工智能主體資格存在較大爭議,在現(xiàn)階段采取由所有者登記制度,登記內(nèi)容主要為人工智能技術(shù)特征以及適用范圍,若要推動人工智能發(fā)展到高智能時代,賦予其獨立人格不妨是一個較好的選擇。與公司獨立財產(chǎn)制度相區(qū)別,由于人工智能本身可能涉及知識產(chǎn)權(quán)價值,價值即本身,賦予其主體資格并不意味著責(zé)任承擔(dān)就不可落實。而最后也可以借用勞動者與用人單位條款進(jìn)行歸責(zé),不過又要分清職務(wù)行為和非職務(wù)行為。事后監(jiān)管主要指的是類似于食品藥品侵權(quán)事件的追回制度,人工智能不可避免會發(fā)生侵權(quán)糾紛,但事后追回依然可以彌補損失[16],這就要求相關(guān)主管機關(guān)對其管制或設(shè)置專門的人工智能機構(gòu)。我國在刑事、民法領(lǐng)域的懲罰制度較多采用的是事后追懲制度,一方面是出于對市場自由的保護(hù),另一方面也為了顧及違法者對市場規(guī)則的違法代價。事前與事后監(jiān)管是行政對市場的適當(dāng)干預(yù),雖然市場經(jīng)濟主張由市場配置,我國當(dāng)前行政領(lǐng)域也在大力提倡簡政放權(quán),但是在人工智能發(fā)展初期,適當(dāng)監(jiān)管具有較大的優(yōu)勢:一來保障了人工智能準(zhǔn)入制度,增加了公眾對人工智能的信任度;二來也是區(qū)分責(zé)任的重要標(biāo)準(zhǔn),符合審批制度的侵權(quán)與不符合審批制度的侵權(quán)應(yīng)該區(qū)別對待,鼓勵設(shè)計者以及所有者加強自身責(zé)任管制。
人工智能侵權(quán)問題會隨著領(lǐng)域適用范圍的不斷擴大逐漸突出。我國在倡導(dǎo)市場自我治理的同時,也逐步形成了政府適當(dāng)干預(yù)經(jīng)濟發(fā)展治理模式的共識。我國行政權(quán)力呈中央與地方多層級分布形式,為人工智能管理委員會提供了地域適應(yīng)基礎(chǔ)。在經(jīng)濟較發(fā)達(dá)的地區(qū)不妨設(shè)立人工智能管理委員會,對人工智能業(yè)務(wù)的開展進(jìn)行監(jiān)管。我國傳統(tǒng)的體制結(jié)構(gòu)傾向于將人工智能歸入單獨的政府部門或其他行政機構(gòu)進(jìn)行管理,但是人工智能侵權(quán)往往具有自主性和復(fù)雜性特點,對機構(gòu)人員的業(yè)務(wù)水平要求較高?;诖?,通過加強人工智能專門人才的建設(shè),為專門委員會奠定人才儲備基礎(chǔ)也是應(yīng)有之義。與事前登記和事后懲罰措施相比,專門委員會的設(shè)立側(cè)重于對職能部門的結(jié)構(gòu)調(diào)整,后者側(cè)重于加強監(jiān)管力度。對人工智能本身發(fā)展而言,在初期階段就引入政府治理的監(jiān)管方式顯得更為合理。行業(yè)協(xié)會等非政府治理的方式在監(jiān)管執(zhí)行力以及財政支持力度等方面都不及政府治理的效果。當(dāng)然,這并不意味著就否定行業(yè)協(xié)會等組織的參與。相反地,政府在設(shè)立人工智能專門委員會進(jìn)行監(jiān)管的同時,應(yīng)該集中各種社會力量,共同促進(jìn)人工智能的健康、可持續(xù)發(fā)展。
也有學(xué)者認(rèn)為人工智能管理委員會的建立不具有可行性。他們認(rèn)為在弱智能時代啟用專門管理委員監(jiān)管會是對政府資源的浪費。但是筆者認(rèn)為加強行政監(jiān)管不僅不會多余,更是對政府機構(gòu)設(shè)置的優(yōu)化調(diào)整。我國當(dāng)前的侵權(quán)體系雖然遭受沖擊,但是在當(dāng)前階段并沒有較大影響。筆者認(rèn)為,人工智能發(fā)展趨勢不可逆轉(zhuǎn),法律上的未雨綢繆是為人工智能發(fā)展奠定基礎(chǔ)的制度保障。不僅如此,侵權(quán)問題是民眾對人工智能發(fā)展的擔(dān)憂所在,設(shè)立行政專門管理職能部門進(jìn)行指導(dǎo)與監(jiān)管也是對民眾的利益保護(hù)。
侵權(quán)責(zé)任法的目的除了法律上的歸責(zé)外,更重要的是損害填平。因此,賠償制度的建立對人工智能的發(fā)展有利。特別對于小微企業(yè)、新型企業(yè)而言,人工智能侵權(quán)損害賠償之后可能面臨日常經(jīng)營難以維持。為了促進(jìn)人工智能帶動經(jīng)濟的發(fā)展,協(xié)調(diào)自身與侵權(quán)之間的矛盾,歐盟在《機器人民事法律規(guī)則》①《機器人民事法律規(guī)則》:2016年1月12日,歐洲議會法律事務(wù)委員會就來自歐洲社會黨/社會民主黨黨團(tuán)的M ady D elvaux 議員所提出的《關(guān)于建請歐盟委員會修改有關(guān)機器人的民法規(guī)則的報告草案》進(jìn)行了表決,會后形成決議。引入的保險以及基金制度是規(guī)避風(fēng)險的很好選擇。商業(yè)保險的引入降低了小企業(yè)以及新型企業(yè)投資的風(fēng)險,特別對于侵權(quán)后,由于司法判決需要經(jīng)過審判程序,對受害者可能救急不及時,但保險承擔(dān)者最終都保險責(zé)任[17],可以采取先行支付制度,對受害者進(jìn)行先行救濟。商業(yè)保險一般為自愿行為,筆者建議采取強制保險的方式對其進(jìn)行規(guī)制。我國當(dāng)前對人工智能產(chǎn)品的商業(yè)保險依然是依附于傳統(tǒng)的財產(chǎn)保險進(jìn)行投保與理賠,為了進(jìn)一步促進(jìn)人工智能產(chǎn)業(yè)規(guī)模的推廣及提供安全保障,保險公司不妨設(shè)立專門的針對人工智能產(chǎn)品的商業(yè)保險,不僅有利于保險公司業(yè)務(wù)的增長,也是對創(chuàng)業(yè)者的財產(chǎn)保障。除此之外,由于商業(yè)保險需要人工智能所有者具備較高自主性及配合度,在社會覆蓋率以及普及率上存有欠缺,而專門的人工智能基金專項計劃也可以建立起來。智能基金不僅依靠行業(yè)協(xié)會的共同努力,也需要政府的不斷推進(jìn)。除了采取專門歸類管理或者單類管理外,該基金會需要接受社會管制,實現(xiàn)信息的透明化監(jiān)督。人工智能大多運用于高科技領(lǐng)域,侵權(quán)損害一般影響較大。智能商業(yè)保險與智能基金是風(fēng)險規(guī)避的合適方法,同時也加強了對受害人的保護(hù)。
出于對人工智能促進(jìn)經(jīng)濟的考慮,應(yīng)該在法律保障層面為其奠定上層建筑基礎(chǔ)。同時出于對受害人的保護(hù),法律應(yīng)該使無辜者得到損害賠償。這兩者又經(jīng)常出現(xiàn)于一個侵權(quán)事故中,當(dāng)兩者發(fā)生價值取向的沖突時,正確的做法應(yīng)該是引入價值平衡理論。人工智能侵權(quán)問題依然適用責(zé)任免責(zé)事由。在當(dāng)前階段,人工智能尚不具備獨立的意識,我們尚且引入已有的現(xiàn)行法規(guī)對其進(jìn)行免責(zé)事由的規(guī)定。人工智能廣泛應(yīng)用的依然是產(chǎn)品條款,與其物質(zhì)載體屬性息息相關(guān)。人工智能作為一項新興技術(shù),引用產(chǎn)品的免責(zé)事由主要發(fā)生于未將產(chǎn)品投入流通領(lǐng)域。人工智能技術(shù)從研發(fā)到投入市場需要反復(fù)進(jìn)行性能測試,但是侵犯商業(yè)秘密行為屢見不鮮,生產(chǎn)者或者經(jīng)營者未將產(chǎn)品投入流通領(lǐng)域發(fā)生的侵權(quán)行為若進(jìn)行歸責(zé),無疑是對人工智能積極性的極大挫傷。此外,投入流通時,若引起損害的缺陷尚不存在,或者投入流通時的科學(xué)技術(shù)尚未發(fā)現(xiàn)缺陷的存在也會構(gòu)成免責(zé)事由[18]。我國人工智能發(fā)展戰(zhàn)略剛剛興起,依然處于弱人工智能時代,技術(shù)的現(xiàn)實困境不可避免。就智能汽車為例,雖然智能汽車的目標(biāo)是實現(xiàn)完全自動化,但在我國依然處于試行階段,具體而言即無自主階段以及輔助階段。隨著有條件自動駕駛、高度自動駕駛階段的深入,賦予人工智能免責(zé)事由是促進(jìn)人工智能當(dāng)前發(fā)展的應(yīng)有之義。對于受害方,除了引進(jìn)賠償保障的智能基金和商業(yè)保險外,特別在侵權(quán)舉證方面,法院在必要的時候可以行使職權(quán)進(jìn)行調(diào)查取證,以避免司法實踐中出現(xiàn)大量普通公民證據(jù)意識薄弱從而導(dǎo)致自己程序上的敗訴結(jié)果。因此,人工智能侵權(quán)責(zé)任認(rèn)定,既要考慮到人工智能生產(chǎn)者層面的免責(zé)事由又要顧及受害者在侵權(quán)事實舉證方面的弱勢地位。
作為最近熱點話題,人工智能已經(jīng)涉及各個領(lǐng)域,對法律的滲透也是多方位的。民法典的制定、公司法治理結(jié)構(gòu)都會不斷調(diào)整,人工智能對侵權(quán)責(zé)任法的構(gòu)建將會是全方位的,不僅僅是侵權(quán)責(zé)任體系的基礎(chǔ)構(gòu)建,包括侵權(quán)責(zé)任的具體認(rèn)定手段,在很長一段時間內(nèi)都離不開人工智能的作用。由于無法在短時間內(nèi)制定全球范圍統(tǒng)一的法律規(guī)則,目前主要是集中于發(fā)達(dá)國家對運用較廣的自動駕駛以及機器人的研究,參考資料也是圍繞一些指導(dǎo)性案例,關(guān)于人工智能在強人工智能時代(甚至發(fā)展為超人工智能時代),將會對侵權(quán)責(zé)任法產(chǎn)生更大的沖擊,會有更多的法律問題顯現(xiàn)出來,將來更需要進(jìn)一步的研究。