游文亭
(山西農(nóng)業(yè)大學(xué) 公共管理學(xué)院,山西 晉中 030801)
《列子·湯問》中有一段這樣記載:周穆王西游,工匠偃師獻(xiàn)上一人偶,此人偶動作千變?nèi)f化,隨心所欲,亦可歌舞合拍,眨眼挑逗。偃師將其拆散,才見其全部是用皮革、樹脂、丹砂、漆和白堊、木頭、青雘、黑炭之類的顏料湊合而成。拿掉它的心臟,嘴巴就不能說話;拿掉肝臟,眼睛就不能觀看;拿掉腎臟,雙腳就不能行走。周穆王高興地嘆道:“人的技巧竟能與天地自然有同樣的功效!”隨即下令載上這個歌舞藝人一同回國。如今,這個美好愿景已經(jīng)成為現(xiàn)實。
人工智能時代正在來臨。人工智能(AI),又稱機(jī)器智能(MI),是由電腦程序設(shè)計的仿人類和動物智力水平和行為能力的產(chǎn)品終端。如彭博公司[注]彭博公司是全球最大的財經(jīng)資訊服務(wù)提供商。(Bloomberg)研發(fā)人員Jack Clark所言,2015年是人工智能飛速發(fā)展的一年,此后人工智能將全方位進(jìn)入人類生活。2017年一項關(guān)于人工智能的調(diào)查顯示,全球1/5的公司已經(jīng)開始將人工智能應(yīng)用于公司運(yùn)營的各個方面,并且這種交互應(yīng)用仍在不斷加強(qiáng)。[1]2017年智能棋手Alpha Go以不敗戰(zhàn)績戰(zhàn)勝中日韓圍棋高手,人工智能戰(zhàn)勝人類的新聞令人驚奇,更令人咂舌的是其對人類的支配而帶來的恐懼感。霍金曾指出,短期內(nèi)對人工智能的控制取決于其制造者,長期看則取決于人類是否可以完全控制它。[注]騰訊科技網(wǎng),《霍金:人工智能不一定是好事 或?qū)е氯祟悳缤觥?,http://tech.qq.com/a/20140503/002280.htm,2014年5月3日,2018年6月11日訪問。人類要更有效地控制人工智能,除了科技,就是法律。
任何一項新技術(shù)的到來都會引發(fā)新的問題,需要法律去調(diào)整,而法律的調(diào)整滯后于科技的進(jìn)步。2017年7月8日,國務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》(以下簡稱“規(guī)劃”),將人工智能發(fā)展定位為我國戰(zhàn)略產(chǎn)業(yè),分為三步發(fā)展,第一步要加快人工智能核心技術(shù)的研發(fā)應(yīng)用,然后再逐步建立人工智能法律法規(guī)與相應(yīng)監(jiān)管以最大限度降低風(fēng)險。滯后性是法律與生俱來的缺陷,即使是最新的法律,也是在社會問題顯現(xiàn)后才會對其起到抑制作用,于是對于處于人工智能全力發(fā)展階段的我國而言,盡早探討人工智能的責(zé)任問題著實有必要。
人工智能的發(fā)展已逐漸超越現(xiàn)有法律的規(guī)制。人工智能侵權(quán)案件與日俱增,日后必將通過司法程序悄悄地進(jìn)入法律,或是直接立法強(qiáng)行進(jìn)入法律。[2](P199~200)法律必須對不可決定的事務(wù)進(jìn)行決斷,[3](P356)人工智能正是這樣不可完全預(yù)測、不可完全掌控,于是有學(xué)者稱之為法律的“死亡”。[4](P5~20)面臨這樣的困境,法律必須不斷調(diào)整以適應(yīng)新技術(shù)的革新,我們可以做的就是去探究如何調(diào)整。
然而,我國對于人工智能的法律研究相當(dāng)匱乏。西方發(fā)達(dá)國家對于此技術(shù)的研究起步早,且成果豐富。2012年起,以歐盟、美國為代表的發(fā)達(dá)國家和地區(qū)就已經(jīng)開始關(guān)注人工智能將要帶來的挑戰(zhàn)與風(fēng)險,并以專題年會討論、課題研究等方式廣泛吸收議題進(jìn)行立法研究,2015年歐盟發(fā)布《歐盟機(jī)器人民事法律草案》;2016年以來美國、英國也連續(xù)提出多份AI報告,[5](P122~128)對本國人工智能研究進(jìn)行規(guī)制。亞洲地區(qū),2017年韓國國會議員提出建立《機(jī)器人基本法案》,這是在2008年《智能機(jī)器人開發(fā)和普及促進(jìn)法》基礎(chǔ)上的又一進(jìn)步;[6](P149~160)與此同時,日本政府也就人工智能作品的著作權(quán)問題進(jìn)行了討論。[7](P42~52)中國已經(jīng)連續(xù)多年成為全球最大的工業(yè)機(jī)器人消費市場,但是對于人工智能的法律研究尚少,原因可能在于人工智能對我國現(xiàn)實生活的影響較小,帶來的法律問題尚不足以引起廣泛關(guān)注,學(xué)者們?nèi)鄙傺芯縿恿Α8](P97~102)隨著“規(guī)劃”的頒布與人工智能的廣泛應(yīng)用,大量的法律研究和單行法律及配套措施的頒布勢在必行。
人工智能侵權(quán)分為兩種。[9](P128~136)一種是人類利用對人工智能的控制而實施侵害,比如黑客攻擊保姆機(jī)器人系統(tǒng),造成危及人類的后果,這種侵權(quán)自不待言,此時人工智能僅為侵權(quán)手段,侵權(quán)主體是人,應(yīng)當(dāng)由攻擊者承擔(dān)侵權(quán)責(zé)任,完全符合傳統(tǒng)侵權(quán)法上的一般侵權(quán)責(zé)任;另一種是人工智能因自身原因造成的損害,其侵害不在人類支配范圍內(nèi),此時的侵權(quán)責(zé)任應(yīng)當(dāng)根據(jù)過錯責(zé)任進(jìn)行分擔(dān),但這又帶來了新的矛盾,人工智能可脫離人的操作,自主決定行為,但是究竟是誰的“過錯”使人工智能“犯錯”,這需要進(jìn)一步探究。對于后一種侵權(quán)問題,其責(zé)任承擔(dān)、損害賠償?shù)葐栴},正是本文研究重點之所在。
人工智能侵權(quán)打破了傳統(tǒng)侵權(quán)法律框架。傳統(tǒng)法上的侵權(quán),是民事主體對他人的人身或財產(chǎn)造成了損害,[10](P46~51)而侵權(quán)責(zé)任的承擔(dān)多數(shù)情況下源于侵權(quán)人或其他人的“過錯”行為,這種過錯可以是故意也可以是過失造成的,而人工智能卻難以確定“主觀上有過錯”。對于人工智能侵權(quán)責(zé)任承擔(dān)方式,學(xué)者們觀點不一,但他們對于一點是共通的,那就是現(xiàn)有的侵權(quán)法已不足以使人工智能侵權(quán)問題得到合理解決,人工智能法律亟待更新。
1.代理人責(zé)任
人工智能與其管理人的關(guān)系類似于代理人與被代理人之間的關(guān)系。[11](P32~41)人工智能從事某種行為,往往反映的是其管理人的意志,通過人工智能簽署的合同其權(quán)利義務(wù)均歸屬于管理人。于是人工智能的侵權(quán)可以類比于代理人侵權(quán),責(zé)任由“管理人”承擔(dān)。這種觀點將人工智能看作“人”而非“物”。
這種主張的弊端有二。首先,人工智能的自主性決定了其代理權(quán)限無法確定,代理人超出被代理權(quán)限進(jìn)行了加害行為,責(zé)任應(yīng)由代理人自行承擔(dān)。鑒于人工智能的自主性,代理權(quán)限和范圍很難確定,如果超出權(quán)限的加害行為得不到管理人追認(rèn),侵權(quán)責(zé)任應(yīng)當(dāng)由代理人,也就是人工智能承擔(dān),而這種責(zé)任對受害者而言顯然是沒有實際意義的。其次,代理關(guān)系的侵權(quán)中,如果代理得到被代理人的追認(rèn),代理人和被代理人向受害者承擔(dān)連帶責(zé)任,但此時受害人無法向人工智能追償,相當(dāng)于無免責(zé)條款下免除了人工智能的責(zé)任,將責(zé)任全部推給被代理人承擔(dān),這與其“人”的特性相違背,而是將其當(dāng)作了“物”,這又與其作為“人”的理論前提相矛盾,不符合邏輯。
2.法人責(zé)任
還有觀點認(rèn)為人工智能的地位可以類比于法人擬制,[12](P61~71)其侵權(quán)亦可借鑒“刺破法人面紗”規(guī)則由人工智能的管理人承擔(dān)侵權(quán)責(zé)任,其本質(zhì)是將人工智能當(dāng)作法律擬制的“人”。
這一觀點有如下弊端。首先,很大程度上忽略了人工智能的自主性。公司的成立、運(yùn)營、破產(chǎn)完全受人的控制,但人工智能有其自主性,很大程度上不受人的完全控制,其侵權(quán)行為完全由管理人直接承擔(dān),并不合理。其次,人工智能與管理人的法律關(guān)系不甚明了。法人與股東是投資關(guān)系,法人完全受控于股東,而人工智能并不盡然,于是他與其管理人之間的關(guān)系無法確定,直接“刺破面紗”難以說得通。
3.技術(shù)中立原則背后的雇傭關(guān)系替代責(zé)任
吳漢東先生認(rèn)為,人工智能侵權(quán)可適用知識產(chǎn)權(quán)法上的技術(shù)中立原則,[注]技術(shù)中立原則,即美國法上的“實質(zhì)性非侵權(quán)用途”原則,是指技術(shù)本身不產(chǎn)生任何責(zé)任,即使制造商和銷售商知道其產(chǎn)品可能被用于侵權(quán),也不能推定其故意幫助他人侵權(quán)并構(gòu)成“幫助侵權(quán)”。參見百度百科“技術(shù)中立原則”,https://zhidao.baidu.com/question/134224263.html,2018年5月25日訪問。如果管理人有“過錯”,則對其人工智能侵權(quán)行為承擔(dān)“替代責(zé)任”,類似于雇傭關(guān)系中的雇主為雇員的職務(wù)行為承擔(dān)責(zé)任。[13](P1~24)根據(jù)技術(shù)中立原則,如果人工智能無產(chǎn)品缺陷,但其管理人放任侵權(quán)行為的實施,未盡到善良管理人義務(wù),則不可免除管理人的侵權(quán)責(zé)任。也就是說,產(chǎn)品本身不產(chǎn)生任何責(zé)任;如果生產(chǎn)者基于侵權(quán)目的而生產(chǎn)該產(chǎn)品或管理人放任侵權(quán)行為,則產(chǎn)生雇傭關(guān)系中的“替代責(zé)任”,由管理人為人工智能的行為承擔(dān)侵權(quán)責(zé)任。比如,如果某項技術(shù)研發(fā)的目的在于侵權(quán)或從事違法行為,則不適用技術(shù)中立原則,而應(yīng)當(dāng)直接適用“替代責(zé)任”;如果系正在研發(fā)并盡到善良管理義務(wù),則生產(chǎn)者可免除侵權(quán)責(zé)任。技術(shù)中立原則傾向于人工智能的“物”之屬性,而替代責(zé)任又傾向于“人”之屬性。
這種觀點的弊端有兩點。首先,研發(fā)的“不良目的”難以證明。任何新技術(shù)都是“雙刃劍”,在人類享受人工智能帶來的便利時,往往隨著其帶來的“麻煩”,比如定期對其進(jìn)行保養(yǎng),但是,人類往往習(xí)慣了享受方便的同時忍受新技術(shù)的“負(fù)面行為”,即使是為了侵權(quán)而制造的人工智能,也必有它有利于人類的一面,于是很難說明某一項技術(shù)是純粹為了“侵權(quán)目的”而制造,尤其是生產(chǎn)者的主觀心理難以把握,給受害者舉證造成了極大困難。其次,雇傭關(guān)系的職務(wù)權(quán)限和范圍難以確定。類比于雇傭關(guān)系,雇主對雇員的替代責(zé)任以雇員在履行職務(wù)期間職務(wù)范圍內(nèi)的行為為限,超出職務(wù)范圍的侵害則不承擔(dān)責(zé)任,而人工智能的最大特點在于其自主性,于是人工智能的職務(wù)范圍難以確定,而基于此讓管理人承擔(dān)替代責(zé)任的立法設(shè)想,很難實現(xiàn)。
4.產(chǎn)品責(zé)任
眾多學(xué)者認(rèn)為,人工智能侵權(quán)應(yīng)當(dāng)適用產(chǎn)品責(zé)任。[14](P143~155)產(chǎn)品責(zé)任規(guī)定,在因產(chǎn)品本身的缺陷造成他人人身或財產(chǎn)損害的,受害人可以向產(chǎn)品的生產(chǎn)者或者銷售者請求賠償,并且不以生產(chǎn)者或銷售者具有過錯為前提,無論其是否有錯,都需向受害者承擔(dān)連帶責(zé)任。這種觀點承認(rèn)人工智能的“物”之屬性。
人工智能侵權(quán)適用產(chǎn)品責(zé)任,有以下弊端。首先,受害人舉證困難。有損害就有責(zé)任,責(zé)任或者來源于生產(chǎn)者,或者來源于銷售者,或者來源于管理者,再或者是其他相關(guān)人。對于受害者而言,無過錯責(zé)任的應(yīng)用更為合理。根據(jù)侵權(quán)法規(guī)定,受害者除了需要證明人工智能的加害行為之外,關(guān)鍵的是需要證明人工智能存在缺陷,并且這種缺陷與損害結(jié)果之間具有因果聯(lián)系。對于人工智能這種高科技終端而言,在沒有明確的人工智能技術(shù)待業(yè)標(biāo)準(zhǔn)的情況下,讓不了解技術(shù)的受害者證明產(chǎn)品缺陷的存在并不是件容易的事。其次,人工智能具有自主性。對于生產(chǎn)者或銷售者而言,反而更加容易證明其只是超出了“控制”而作出了智能性的自主決定,并非產(chǎn)品缺陷。再次,免責(zé)條款的實現(xiàn)更為容易?!懂a(chǎn)品質(zhì)量法》上的免責(zé)條款規(guī)定,在產(chǎn)品流通時的科學(xué)技術(shù)尚不能發(fā)現(xiàn)缺陷的存在,生產(chǎn)者和銷售者就可免責(zé),這對于更為了解高科技性能的生產(chǎn)者和銷售者而言,證明技術(shù)不到位比受害者證明其存在缺陷要容易許多,這種舉證責(zé)任難度的不對稱性反而違背了生產(chǎn)銷售者的嚴(yán)格責(zé)任設(shè)立的初衷,維護(hù)了他們的強(qiáng)勢地位,而使受害者的弱勢更為明顯,使人們開始重新審視法律在消費者與生產(chǎn)者利益平衡中的作用。[15](P166~173)
5.動物管理人的責(zé)任
有一種觀點認(rèn)為人工智能侵權(quán)類似于侵權(quán)責(zé)任法中規(guī)定的飼養(yǎng)動物致人損害侵權(quán)。[16](P78~89)飼養(yǎng)動物致人損害的,由動物飼養(yǎng)人承擔(dān)侵權(quán)責(zé)任,如果損害系受害者或第三人故意或重大過失引起的,則飼養(yǎng)人責(zé)任減輕或免除。人工智能與其管理人的關(guān)系類似于動物之于其主人,但兩者最大的區(qū)別在于人工智能比動物具有更強(qiáng)的自主性。如果人工智能造成了損害,應(yīng)當(dāng)由其管理人承擔(dān)責(zé)任;如果人工智能的損害行為是基于他人的“過錯”,比如受害者或第三人故意激怒,則管理人可適當(dāng)減輕或免除責(zé)任。這一觀點將人工智能偏向于“物”。
這種觀點的弊端有兩點。首先,忽略了人工智能的自主性。動物致人損害可能是基于受到害者本人或他人挑逗的“過錯”行為,但多數(shù)情況下動物致人損害可能基于動物本身的特性,比如狼狗天生極具攻擊性,可能在無“過錯”人情況下對他人造成損害,這是動物的天性決定的。而人工智能在這一方面更類似于人,如果沒有他人激怒,一般不具攻擊性,除非它被制造時就帶著“侵權(quán)目的”。于是,人工智能的損害由有過錯的激怒人承擔(dān),而這個激怒人往往就是受害者本人,也就是說這個時候人工智能對其侵權(quán)免責(zé),這顯然不合理。其次,低估了人工智能致人損害的嚴(yán)重性。與動物損害相比,最大的區(qū)別在于人工智能侵權(quán)損害的程度比動物致人損害要嚴(yán)重得多。比如,人工智能被甲激怒,它是否可以識別或控制被激怒的生氣程度而作出相應(yīng)程度的回?fù)?,如果過激將甲打傷甚至打死,造成不符合激怒程度的損害,按照動物致人損害侵權(quán)原則,受害者甲還要承擔(dān)主要責(zé)任,這對于受害者而言,顯然有失公平。
人工智能是具有自主性的機(jī)器,是既有“人”性又有“物”性的“矛盾體”,“物”性使侵權(quán)的“過錯”無法認(rèn)定,“人”性又使其不完全受控于人的意志,于是不可適用一般侵權(quán)責(zé)任,而特殊侵權(quán)規(guī)則的適用又有其弊端,可見傳統(tǒng)的侵權(quán)法已經(jīng)不足以解決人工智能的侵權(quán)問題。
人工智能的侵權(quán)問題要得到解決,必須要面對的就是其法律屬性問題。它究竟是“人”還是“物”?人工智能與傳統(tǒng)機(jī)器的區(qū)別在于其具有“人”的自主性,而與人的區(qū)別又在于其不能完全脫離人的控制而呈現(xiàn)出來的“物”性。從當(dāng)前各類侵權(quán)歸責(zé)的主張來看,代理人責(zé)任、法人責(zé)任、替代責(zé)任偏向于人工智能的“人”之屬性,或類比于自然人,或類比于法律擬制之人;產(chǎn)品責(zé)任和動物致人損害責(zé)任偏向于“物”之屬性。人工智能的法律屬性尚不明確。
人工智能的法律屬性不確定,侵權(quán)歸責(zé)亦無法明確。對于人工智能的法律屬性學(xué)者們?nèi)栽谘芯?,目前主要有三種學(xué)說:工具說、電子奴隸說、代理說。[17](P442)
1.工具說
工具說認(rèn)為,人工智能是人類創(chuàng)造出的機(jī)器,不需休息、無人類情感,與人存在本質(zhì)區(qū)別,是一種服務(wù)于人類的工具,與傳統(tǒng)工具作用相同。這種學(xué)說的弊端在于忽略了人工智能的自主性,人工智能技術(shù)目前已經(jīng)發(fā)展到可以獨立表達(dá)自己意思并作出行為的階段,如特斯拉汽車可實現(xiàn)無人駕駛,在這一點上,人工智能早已超越傳統(tǒng)的工具。
2.電子奴隸說
電子奴隸說認(rèn)為,人工智能不需要休息,是具有自主性的機(jī)器,可以執(zhí)行指令但不可主張權(quán)利;也就是說,人工智能只具備行為能力而不具備權(quán)利能力,并且它的行為后果完全歸屬于其管理人,并不具有獨立的法律地位,[18](P50~57)類似于羅馬法中的“奴隸”。
3.代理說
代理說認(rèn)為,人工智能的行為均來自于其管理人的意思表示,行為后果歸責(zé)于被代理人,相當(dāng)于管理人的代理人。這種學(xué)說無疑承認(rèn)了人工智能的法律地位,但是它只能實施法律行為,在造成侵權(quán)時無法履行賠償義務(wù),其機(jī)器屬性亦決定了它不能完全享有代理人相應(yīng)的法律權(quán)利。
4.法律擬制說
法律擬制說認(rèn)為,人工智能雖不具備人的屬性,但可“視為人”,類似于法人。但是,法人體現(xiàn)的完全是股東的意志,而人工智能卻有較強(qiáng)的自主性,可以違背人的意志,也可能脫離人的控制,不能簡單地被“視為”,其獨立性被忽略。另外,人工智能與其管理人的關(guān)系不明確,“刺破面紗”之說亦欠缺法理基礎(chǔ)。
1.人工智能不具有從事民事法律活動的能力
人工智能是否具有民事主體資格,要看其是否能夠有“法律能力”。民事權(quán)利義務(wù)是民事主體資格的直接表現(xiàn),沒有民事法律資格,就沒有民事法律地位。
人工智能沒有完整的權(quán)利、義務(wù)法律能力。無論人工智能有多接近于自然人,其不具有人的“身份”,與法人的虛擬身份也不盡相同,沒有出生不會死亡,自然也沒有民事權(quán)利能力。從法律體系看,缺乏相應(yīng)的權(quán)利義務(wù)類型以及相應(yīng)的配套法規(guī),比如虛擬身份、虛擬財產(chǎn),不能創(chuàng)立公司,也不能結(jié)婚,這不是簡單的立法可以彌補(bǔ)的,而是整個民事權(quán)利體系的重塑,[19](P56~66)因而不具有民事行為能力。有權(quán)利才有義務(wù),如果看重人工智能的執(zhí)行力而將民事義務(wù)強(qiáng)加給人工智能,卻不賦予其權(quán)利,人工智能也無法成為真正意義上的民事法律主體,不具有民事主體資格。
人工智能沒有民事責(zé)任能力。人工智能對自身原因造成的損害仍不能獨立承擔(dān)民事責(zé)任。人工智能的懲罰方式較為單一,比如限制其智能性,或者將其毀滅,這在給他人造成精神損害時表現(xiàn)得尤為明顯。有限的懲罰方式不足以對不同程度的侵權(quán)行為進(jìn)行彌補(bǔ),與人類金錢賠償更無法對等,最終人工智能的侵權(quán)責(zé)任還是要由相關(guān)自然人完全承擔(dān)或補(bǔ)充承擔(dān),而人工智能本身無法獨立承擔(dān)民事義務(wù)與責(zé)任,不具備民事責(zé)任能力。人工智能不具有獨立的權(quán)利義務(wù)能力,而民事法律資格歸根結(jié)底要看其是否可以獨立享有民事權(quán)利與承擔(dān)義務(wù),進(jìn)而獨立承擔(dān)民事責(zé)任,否則就不具有獨立的民事主體資格,人工智能應(yīng)如是。
2.不應(yīng)片面強(qiáng)調(diào)人工智能的“人”之屬性
現(xiàn)有技術(shù)下不應(yīng)過分強(qiáng)調(diào)人工智能“人”之屬性。就目前科技發(fā)展程度看,人工智能不僅具有獨立的思維,還可以“創(chuàng)造出自然界中不存在的生物催化反應(yīng)類型,并在世界上首次通過計算指導(dǎo)完成工業(yè)級菌株的構(gòu)建”,[注]參見中國生物技術(shù)服務(wù)網(wǎng),“人工智能首次設(shè)計出工業(yè)菌株最新發(fā)現(xiàn)與創(chuàng)新”,2018年5月23日. http://www.biotech.org.cn/information/155263.2018年5月25日訪問。其科研智能能力超過人類,但綜合智力水平是否可與一般自然人相比,這有待考證。盡管人工智能的自主性不可忽略,但其越智慧,對人類的威脅就會越大,人類創(chuàng)造人工智能的目的也正在于它們可以受控于人類,讓我們的生活更便利,它們是“工具”,而非“主人”,不能與人類同日而語。當(dāng)前技術(shù)條件下,人類對于人工智能的技術(shù)干預(yù)多表現(xiàn)在生產(chǎn)制造上,對于“安全”“教育”的智能作用干預(yù)性較弱,于是在造成人身或財產(chǎn)損害時,往往從產(chǎn)品責(zé)任角度去思考。就如同人工智能汽車造成的交通事故,責(zé)任往往歸咎于汽車的生產(chǎn)者和制造者,而不是像普通交通肇事案一樣歸咎于司機(jī)本身,可見,此舉還是將人工智能當(dāng)作機(jī)器。實際上,人工智能的權(quán)利取得過程是與人類權(quán)利博弈的過程。
法律規(guī)范應(yīng)當(dāng)與人工智能技術(shù)發(fā)展相適應(yīng)。法律可以努力地保持前瞻性,以防患于未然,卻不可激進(jìn),這是法律的滯后性本性所決定的。作為社會進(jìn)步的催化劑,法律應(yīng)當(dāng)與時代同步,但作為社會文明的底線,又應(yīng)當(dāng)對各項社會因素,如政治、經(jīng)濟(jì)、文化、傳統(tǒng)等發(fā)展相適應(yīng),對這些因素帶來的問題既包容又嚴(yán)格,方可起到限制與保護(hù)作用,否則無濟(jì)于事。目前我國的人工智能的智慧程度尚達(dá)不到自然人水平,且尚未完全進(jìn)入人類生活,多數(shù)人對于這一領(lǐng)域并不甚了解,對于人工智能與人類“平起平坐”的法律地位亦無法接受。[20](P119~126)試想,如果人工智能因其本身的問題侵權(quán),受害者是一位目不識丁的老人,但工智能因被輸入了更先進(jìn)的法律知識,在爭鋒相對的法庭上有理有據(jù)地辯駁,于是贏了目不識丁的人類,受害者無法得到任何賠償,豈不冤枉?這無形中增加了人類與人工智能的社會矛盾,新的社會問題又會隨之而來。
當(dāng)然,人工智能的法律地位并非一成不變,未來可能具有民事主體資格,適用監(jiān)護(hù)制度。剛被創(chuàng)造時,人工智能可以同自然人一樣成為“無民事行為能力人”,隨著“被教育”程度的提升而成為“限制民事行為能力人”,如同自然人的成長,同時適用未成年人的監(jiān)護(hù)制度,但法律要同時明確人工智能在每個階段的能力權(quán)限,即權(quán)利范圍和義務(wù)范圍,比如第三人明知是無民事行為能力人工智能而從事超越其權(quán)利義務(wù)范圍的民事行為的,未經(jīng)“監(jiān)護(hù)人”(管理人)追認(rèn)無效。人工智能是否有一天會成為完全民事行為能力人,要看技術(shù)的革新與其受教育的開化程度。人工智能倘若為“人”,是否受到倫理約束,是否可以與人類通婚,需要倫理準(zhǔn)則與法律相輔相成,也是在其他社會因素相應(yīng)發(fā)展后交叉研究的內(nèi)容。未來人工智能經(jīng)過教育可成為“人”,但現(xiàn)有技術(shù)條件下,不應(yīng)過高地評價人工智能的法律地位,人工智能的法律定位應(yīng)當(dāng)是“物”。
1.設(shè)立專門的監(jiān)管機(jī)構(gòu)
人工智能的生產(chǎn)與應(yīng)用需要專門機(jī)構(gòu)進(jìn)行監(jiān)管。我國現(xiàn)有的監(jiān)管體制是分行業(yè)監(jiān)督管理,如市場監(jiān)督管理局進(jìn)行食品監(jiān)管,證監(jiān)會進(jìn)行證券監(jiān)管,這種監(jiān)管方式更具針對性,更加專業(yè)化。但是,現(xiàn)有的監(jiān)管體制不足以對人工智能進(jìn)行有效監(jiān)管。調(diào)整有二。第一,需要科技部領(lǐng)導(dǎo)下的新機(jī)構(gòu)對人工智能進(jìn)行專門監(jiān)管,如“人工智能管理委員會”,[21](P42~52)可借鑒美國“機(jī)器人委員會”。人工智能對于技術(shù)知識的要求比較高,需要有專業(yè)技術(shù)人才及監(jiān)管部門配合才可有力監(jiān)管。從我國目前的監(jiān)管體制看來,現(xiàn)有的監(jiān)管部門無一完全適合于人工智能的監(jiān)管,于是需要建立新的監(jiān)管部門對人工智能及相關(guān)產(chǎn)品進(jìn)行專業(yè)監(jiān)管。第二,人工智能種類與功能繁多,無法保證每一類人工智能都被準(zhǔn)確劃歸到某一行業(yè)進(jìn)行監(jiān)管,而統(tǒng)一管理對于偏向于某一技術(shù)特長的專業(yè)技術(shù)人員而言又不切實際,因為他們并非對所有類型的人工智能均控制得得心應(yīng)手,于是需要將人工智能監(jiān)管部門劃分為多個片區(qū)進(jìn)行精準(zhǔn)化管理,比如分為家用型人工智能和公用類人工智能。
設(shè)立專門的人工智能監(jiān)管部門是有好處的。首先,可以更好地實現(xiàn)對人工智能的全面監(jiān)控,從研發(fā)、生產(chǎn)、應(yīng)用、安全全部環(huán)節(jié),都可進(jìn)行監(jiān)管,這種監(jiān)管方式更能有效地保證監(jiān)管責(zé)任落到實處,進(jìn)而加強(qiáng)人工智能的安全性。其次,避免監(jiān)管部門之間的相互推諉。如果將人工智能直接分類歸屬于現(xiàn)有的不同監(jiān)管部門,或是不細(xì)分而實施統(tǒng)一化管理,可能會出現(xiàn)“誰都能管誰也不管”的局面,如此一來無法達(dá)到真正的監(jiān)管效果。再次,統(tǒng)一監(jiān)督—分類管理的監(jiān)管模式,可以提高監(jiān)管效率。將人工智能進(jìn)行統(tǒng)一登記,之后按不同類別進(jìn)入市場流通并分類管理,同時應(yīng)當(dāng)制定人工智能等級標(biāo)準(zhǔn),讓不斷受到教育的人工智能參照標(biāo)準(zhǔn)不斷提高自己的智能等級和行為能力,使之可以“因材施教”,在出現(xiàn)問題時及時找到源頭,及時解決問題。
2.人工智能強(qiáng)制登記制度
每一臺人工智能都需到監(jiān)管部門強(qiáng)制登記,[22](P103~112)獲得“身份證”,確定其專屬管理人。由于人工智能不同于普通的物,每一臺人工智能在不同的環(huán)境影響下都會是唯一的,因此應(yīng)當(dāng)具有獨一無二的產(chǎn)品編號。在人工智能投入市場前,由質(zhì)檢機(jī)關(guān)檢驗和專業(yè)人員測試,經(jīng)過監(jiān)管部門認(rèn)可后確定其功能與智能程度,發(fā)放“身份證”,類似于自然人報戶口,此后方可流通入市場。在市場交易階段完成后,人工智能的專屬管理人確定,應(yīng)當(dāng)去監(jiān)管部門進(jìn)行登記取得“身份證”,確立其管理人是誰,以及它的行為能力和智慧等級,管理人正式成為其產(chǎn)品責(zé)任人。
人工智能應(yīng)當(dāng)以“時”或“日”為單位更新數(shù)據(jù),與監(jiān)管部門數(shù)據(jù)保持同步。人工智能流通到消費者環(huán)節(jié)后,會受到不同程度的教育,逐漸與其他同批人工智能產(chǎn)生差異,于是應(yīng)當(dāng)強(qiáng)制更新,以“時”或“日”為單位自動更新其“智能等級”及每日活動數(shù)據(jù),傳入監(jiān)管部門數(shù)據(jù)庫,方便監(jiān)管部門隨時監(jiān)管。這一點日本做得比較好,要求在每一個機(jī)器人出廠時必須向中央數(shù)據(jù)庫報告其服務(wù)對象和可能產(chǎn)生的危害,并且建立嚴(yán)密的機(jī)器人分級管理制度和運(yùn)行數(shù)據(jù)可追溯制度,在出現(xiàn)問題時可以查清楚是哪一環(huán)節(jié)出現(xiàn)問題,進(jìn)而確定責(zé)任人。[5](P122~128)人工智能的智能等級會隨著其受教育程度的提升而提高,于是其行為能力與權(quán)限范圍也會隨之而擴(kuò)大,此時可以根據(jù)監(jiān)管部門訂立的行業(yè)標(biāo)準(zhǔn)進(jìn)行“升級”,使人工智能的自主性隨之增強(qiáng),提升其智能等級與行為能力。有不少學(xué)者提出應(yīng)當(dāng)分級管理,[23](P12~21)將不同智能等級的人工智能分別管理,這是一種縱向管理模式;與之相比,按功能分種類的橫向監(jiān)管更具有可操作性,畢竟人工智能的等級劃分需要制定新的標(biāo)準(zhǔn),隨著技術(shù)的發(fā)展與人機(jī)互動的頻繁,人工智能的等級會越來越不明顯,而功能與種類卻會更加多樣化,更便于區(qū)分。
1.無過錯責(zé)任原則的適用
人工智能是智能機(jī)器,對于造成的損害其管理人應(yīng)當(dāng)適用無過錯責(zé)任,這是符合無過錯責(zé)任制度的本意的。無過錯責(zé)任制度的設(shè)立,就是保障機(jī)器事故給受害者造成的損害能得以賠償。這一制度源于資本主義機(jī)器大生產(chǎn)時代,[24](P656~657)機(jī)器大生產(chǎn)造成的事故,依據(jù)過錯責(zé)任無法給予受害者賠償,無過錯責(zé)任因此應(yīng)運(yùn)而生。其最早被規(guī)定于普魯士王國1838年《鐵路企業(yè)法》,1839年《礦業(yè)法》將其擴(kuò)大到礦害損害中,此后德國1884年《勞工傷害賠償法》規(guī)定了工業(yè)事故社會保險制度,自此確立了事故責(zé)任的無過錯責(zé)任制度,此后無過錯責(zé)任原則被廣泛應(yīng)用于各個方面。這一點上,機(jī)器生產(chǎn)與人工智能服務(wù)對于無過錯責(zé)任的應(yīng)用完全契合。
當(dāng)然,無過錯責(zé)任原則的適用須有法律的明確規(guī)定,這是現(xiàn)有法律應(yīng)當(dāng)調(diào)整的,不僅是民法總則關(guān)于侵權(quán)的原則性規(guī)定,還有相關(guān)法律如《侵權(quán)責(zé)任法》關(guān)于特殊侵權(quán)損害之規(guī)定。有學(xué)者提出可以對人工智能專門立法,[25](P1~7)在其中規(guī)定無過錯責(zé)任原則,這也是可以的。即使在未來人工智能成為民事主體,如前文所述,可對其適用監(jiān)護(hù)制度,無過錯責(zé)任仍適用于監(jiān)護(hù)人,這與現(xiàn)有法律并不沖突。
無過錯責(zé)任原則下存在免責(zé)事由,人工智能侵權(quán)亦不例外。任何人工智能侵權(quán)損害中,管理人是可以有免責(zé)事由的。管理人唯一免責(zé)事由就是生產(chǎn)瑕疵,此時責(zé)任推向生產(chǎn)者與銷售者;而生產(chǎn)銷售者的免責(zé)事由適用產(chǎn)品責(zé)任,即證明現(xiàn)有技術(shù)尚不足以發(fā)現(xiàn)該產(chǎn)品瑕疵,這無疑加重了生產(chǎn)者的注意義務(wù)與道德責(zé)任,而這樣做的好處是,反向加強(qiáng)了生產(chǎn)者的技術(shù)研發(fā)精準(zhǔn)度壓力以及管理人的管理注意義務(wù)。
2.強(qiáng)制保險與基金
為保障人工智能的賠償能力,不少學(xué)者提出應(yīng)當(dāng)強(qiáng)制繳納保險與賠償基金,[26](P140~148)在造成侵權(quán)時使用。這就要求生產(chǎn)者、銷售者、消費者需要從研發(fā)、生產(chǎn)到消費各個環(huán)節(jié),分別繳納相應(yīng)保險,設(shè)立保險和專項基金。人工智能可能通過其勞動獲得金錢報酬,作為基金,在侵權(quán)時作出賠償。這一保險和基金是強(qiáng)制性的,只要人工智能構(gòu)成損害需要賠償,均由保險和基金先行賠償,不足部分由責(zé)任人再進(jìn)行賠償。當(dāng)然,這需要保險公司新保險品種、相關(guān)基金會的配套設(shè)立。
1.責(zé)任承擔(dān)與技術(shù)發(fā)展
關(guān)于技術(shù)干預(yù)與責(zé)任承擔(dān)的分配比例問題。從研發(fā)到使用全過程的所有參與者,他們對于人工智能的侵權(quán)責(zé)任的承擔(dān)與其對該人工智能的影響呈正相關(guān),也就是說,對人工智能的影響越大,侵權(quán)責(zé)任應(yīng)當(dāng)越重。從研發(fā)到生產(chǎn)銷售再到使用,人類對于人工智能的干預(yù)度逐漸減弱。研發(fā)過程直接決定了其性質(zhì)功能、智能等級、服務(wù)對象、操作方式等,生產(chǎn)決定了其外觀形式與使用壽命,而消費終端的影響僅限于“教育”,而后一環(huán)節(jié)均建立在先前環(huán)節(jié)基礎(chǔ)之上。一旦人工智能出現(xiàn)侵權(quán)問題,作為使用者的管理人要提供“產(chǎn)品瑕疵”證明很困難,甚至有些管理人并非人工智能實際操作者,要舉證就更加困難。當(dāng)侵權(quán)出現(xiàn),管理人免責(zé)需要證明產(chǎn)品制造有瑕疵,生產(chǎn)銷售者免責(zé)需要證明他們生產(chǎn)時現(xiàn)有技術(shù)尚無法預(yù)見這一瑕疵帶來的問題,兩者相比,管理人的責(zé)任要輕于生產(chǎn)者。于是,生產(chǎn)者、銷售者、消費者(管理人或使用人)三者相比,對人工智能的影響逐漸減弱,責(zé)任程度逐漸減輕,這一點看來是合理的。
關(guān)于技術(shù)發(fā)展的決定性因素——工程師的道德要求。人工智能的技術(shù)發(fā)展并不單指科學(xué)技術(shù)的進(jìn)步,更在于人工智能技術(shù)工程師道德操守的進(jìn)步。[27](P41~46,P281)人工智能的自主性與人類的操控度呈負(fù)相關(guān),又與人類生活的便捷程度呈正相關(guān)。人類的這一偉大創(chuàng)造可以對人類有益,亦可給人類造成損害,未來人工智能將會與人類在長期博弈中共存,于是人工智能被創(chuàng)造的目的與其在博弈過程中的表現(xiàn)有著密切關(guān)系。這對于人工智能的創(chuàng)造者而言,有著極高的道德要求,目前世界各國對于人工智能工程師的行為操守有著共同的要求:尊重人類尊嚴(yán)、遵守人類道德、保障人類安全、保護(hù)人類隱私。如果違反這一準(zhǔn)則,后果不堪設(shè)想。制造者“兩遵兩?!钡牡赖乱髮谖磥砣祟惻c人工智能的博弈過程中占有重要作用,也是他們必須遵守的。
2.損害賠償與責(zé)任承擔(dān)
關(guān)于責(zé)任承擔(dān)主體的確定。人工智能是“物”不是“人”,其侵權(quán)責(zé)任由其管理人承擔(dān)。管理人可以是生產(chǎn)制造者,可以是使用者,還可以是登記授權(quán)的其他相關(guān)利益人。此時責(zé)任問題是產(chǎn)品責(zé)任,生產(chǎn)者、銷售者的嚴(yán)格責(zé)任。但需要分清責(zé)任事故從何而起 ,是設(shè)計人的“技術(shù)漏洞”,還是操作人的“不當(dāng)使用”,甚至可能是智能機(jī)器人超越原控制方案的“擅自所為”,此類事故的原因和事故責(zé)任的追究都是需要確定的。
人工智能的損害賠償與責(zé)任承擔(dān)主體不統(tǒng)一。有損害就會有賠償,而這種賠償?shù)氖滓?zé)任應(yīng)當(dāng)由“過錯”方承擔(dān),誰的原因?qū)е铝藫p害,誰來進(jìn)行賠償,才是最為合理的。對于自然人而言,損害賠償與侵權(quán)責(zé)任是統(tǒng)一的;但對于人工智能,侵權(quán)責(zé)任與賠償責(zé)任可能不統(tǒng)一,因為人工智能是物,無法承擔(dān)侵權(quán)責(zé)任。但與一般機(jī)器侵權(quán)的無過錯責(zé)任不同的是,人工智能可以用自己的保險、基金、勞動報酬來支付其損害賠償。管理人的責(zé)任程度與人工智能賠償數(shù)額不一定呈正相關(guān),因為可能會出現(xiàn)管理人為人工智能損害賠償?shù)牟蛔悴糠痔峁┭a(bǔ)償。于是需要調(diào)整現(xiàn)有法律,對管理人的補(bǔ)充賠償責(zé)任進(jìn)行具體規(guī)定。
3.三者的平衡點
人工智能損害賠償、責(zé)任承擔(dān)與技術(shù)發(fā)展的平衡點在于管理人與生產(chǎn)者對于人工智能侵權(quán)責(zé)任的補(bǔ)充賠償責(zé)任。如果是人工智能本身的產(chǎn)品瑕疵,可將人工智能作為產(chǎn)品,依照產(chǎn)品責(zé)任來規(guī)制;如果是人工智能管理人的失誤,則應(yīng)當(dāng)追究管理人的侵權(quán)責(zé)任。人工智能發(fā)生侵權(quán)事故時,損害賠償由人工智能自身的保險、基金及報酬賠償,不足部分由侵權(quán)責(zé)任承擔(dān)者補(bǔ)充賠償。
侵權(quán)責(zé)任的損害賠償順序依次為人工智能——管理人——生產(chǎn)者。侵權(quán)責(zé)任承擔(dān)者首先是人工智能的管理人,并且對管理人適用無過錯責(zé)任原則,但是如果管理人確實盡到了注意義務(wù)并且成功舉證侵害是由人工智能機(jī)器本身的“自主性”問題造成的,則賠償責(zé)任由生產(chǎn)者承擔(dān)。同理,生產(chǎn)者賠償前亦可根據(jù)產(chǎn)品責(zé)任主張免責(zé)事由,而技術(shù)發(fā)展的限制確實可能會免除生產(chǎn)者的賠償責(zé)任,使受害者無法得到管理人及生產(chǎn)者的任何一方的補(bǔ)充賠償。這里需要求說明的是,損害賠償?shù)墓芾砣伺c生產(chǎn)者之間并不承擔(dān)連帶責(zé)任。前文已述, 每個環(huán)節(jié)的相關(guān)利益人對于人工智能的影響程度不同,單就造成損害結(jié)果看,管理人的注意義務(wù)應(yīng)當(dāng)強(qiáng)于生產(chǎn)者的技術(shù)設(shè)定義務(wù),所以損害賠償責(zé)任應(yīng)當(dāng)先由管理人承擔(dān),當(dāng)管理人免責(zé)事由出現(xiàn)時再將責(zé)任推向生產(chǎn)者。
對于處于弱勢的受害者,賠償不足時只能通過提高人工智能的保險與基金數(shù)額進(jìn)行彌補(bǔ)。于是,在人工智能處于制造、流通、服務(wù)各個環(huán)節(jié)時,應(yīng)當(dāng)充分發(fā)揮監(jiān)管部門的作用加強(qiáng)監(jiān)管力度,保證其保險和賠償基金的數(shù)額足以承擔(dān)其日后可能產(chǎn)生的侵權(quán)后果。這就需要配套的法律規(guī)定進(jìn)行輔助,使監(jiān)管機(jī)構(gòu)在設(shè)立保險基金規(guī)則時,嚴(yán)格對每一個人工智能的能力進(jìn)行盡可能精準(zhǔn)的預(yù)測,其能力越高,造成的傷害可能越嚴(yán)重,那么它對應(yīng)的保險和基金數(shù)額就應(yīng)當(dāng)越高,以此保障它自身能夠獨立并足夠承擔(dān)損害賠償。
人工智能的法律調(diào)整落后于科學(xué)技術(shù)的更新。法律天然的滯后性和科技的迅速蓬勃決定了人工智能法律規(guī)范晚于人工智能問題的出現(xiàn),比如侵權(quán)。雖然我國人工智能的法學(xué)研究匱乏,但較于以往其他調(diào)整型法規(guī)而言,研究的起步并不算晚。
現(xiàn)有法律不足以解決人工智能侵權(quán)問題。人工智能與普通機(jī)器相比,更加自主和聰慧,這一點模仿于人類,但人工智能損害相比傳統(tǒng)法上的一般侵權(quán),主要不同點在于其具有高度自主性,卻無法認(rèn)定是否具有“主觀過錯”。
人工智能侵權(quán)出現(xiàn)后,現(xiàn)有法律調(diào)整的弊端隨之顯現(xiàn)。人工智能是具有自主性的機(jī)器,是既有“人”性又有“物”性的“矛盾體”,“物”性使侵權(quán)的“過錯”無法認(rèn)定,“人”性又使其不完全受控于人的意志,于是不可適用一般侵權(quán)責(zé)任,而特殊侵權(quán)規(guī)則的適用又各有弊端??梢姡瑐鹘y(tǒng)的侵權(quán)法已經(jīng)不足以解決人工智能的侵權(quán)問題。
要討論人工智能的侵權(quán)責(zé)任,首先要弄清楚它是“人”還是“物”。學(xué)界對于人工智能的法律屬性討論分為兩派觀點。一種觀點認(rèn)為人工智能應(yīng)當(dāng)成為民事法律主體,作為法律上的“人”,以代理說和法律擬制說為代表;另一種觀點認(rèn)為人工智能是機(jī)器,是法律上的“物”,以工具說和電子奴隸說為代表。從當(dāng)前各類侵權(quán)歸責(zé)的主張來看,代理人責(zé)任、法人責(zé)任、替代責(zé)任偏向于人工智能的“人”之屬性,或類比于自然人,或類比于法律擬制之人;產(chǎn)品責(zé)任和動物致人損害責(zé)任偏向于“物”之屬性。
人工智能應(yīng)當(dāng)是法律上的“物”。從法理上看,人工智能不具有獨立的權(quán)利義務(wù)與責(zé)任能力,而是否具有民事法律資格歸根結(jié)底要看其是否可以獨立享有民事權(quán)利與承擔(dān)義務(wù),進(jìn)而獨立承擔(dān)民事責(zé)任,否則就不具有獨立的民事主體資格,人工智能應(yīng)如是。當(dāng)前技術(shù)下也不應(yīng)當(dāng)過分強(qiáng)調(diào)人工智能的“人”之屬性,否則人類在與之博弈的過程中將失去優(yōu)勢。當(dāng)然,這并不妨礙將來科學(xué)技術(shù)和立法技術(shù)發(fā)展到更高程度時立法態(tài)度的改變。
人工智能的侵權(quán)問題應(yīng)當(dāng)受到合理的法律規(guī)制。這一點可以學(xué)習(xí)國外的先進(jìn)經(jīng)驗,設(shè)立專門的監(jiān)管部門,同時施行強(qiáng)制登記制度,對人工智能的數(shù)據(jù)和行為進(jìn)行監(jiān)控。對于侵權(quán)責(zé)任,適用管理人無過錯責(zé)任原則,以減輕管理人的舉證責(zé)任。
人工智能與其生產(chǎn)者、管理人之間的侵權(quán)責(zé)任分擔(dān),就是要在責(zé)任承擔(dān)、損害賠償和技術(shù)發(fā)展之間尋求一個平衡點。侵權(quán)責(zé)任的損害賠償順序依次為人工智能——管理人——生產(chǎn)者,這個平衡點在于管理人與生產(chǎn)者對于人工智能侵權(quán)責(zé)任的補(bǔ)充賠償責(zé)任。人工智能發(fā)生侵權(quán)事故時,損害賠償由人工智能自身的保險、基金及報酬賠償,不足部分由侵權(quán)責(zé)任承擔(dān)者補(bǔ)充賠償,而管理人和生產(chǎn)者之間不承擔(dān)連帶責(zé)任。