張志堅
摘要:人工智能的自主性、交互性和深度學習能力,決定了其既不是物,也不是人,而是介于人與物之間的客觀存在,其本質不在于工具性,而在于財產(chǎn)性。對于人工智能致害、獲益及其生成物歸屬難題,將責任、收益以及權利完全歸于任一單方主體的方式并不合理,通過保險將風險全部社會化亦有失公平??紤]到人工智能具有財產(chǎn)方面的意思能力和責任能力,但不具有人身性人格,其自主行為背后體現(xiàn)的也是多方主體的意志,以財產(chǎn)性人格的進路將其擬制為電子法人,既是可行的,也是必要的,未來的民法典應該對此有所回應。人工智能在特定領域可自為意思表示、自負行為后果,因其“擅自”行為背后是多方主體混合意志的體現(xiàn),須按相應比例在多方主體之間分攤權責,從而實現(xiàn)法人之責任有限與權責分攤的目的,且不危及人類自身安全和主體支配地位。
關鍵詞:人工智能;主體資格;財產(chǎn)性人格;電子法人
中圖分類號:DF51
文獻標志碼:A
DOI:l0.3969/j.issn.1001-2397.2019.05.06
開放科學(資源服務)標識碼(OSID):
能否賦予人工智能(ArtficialIntelligence,簡稱AI)主體資格,使其以民事主體身份參與社會經(jīng)濟生活?這是民事主體法律制度面對人工智能的飛速發(fā)展亟待回應的重要問題。一般認為,人的主體性與物的客體性的區(qū)分和對立是近現(xiàn)代民法體系構造的基礎和前提,但當科幻小說中的機器人、生化人進人我們的生活,其智能程度已經(jīng)復雜到可以在一定程度自主地和人類親密互動時,民法應將其置于什么位置一物動物還是半自由人[2]?這值得探討。
一、人工智能擬為電子法人的法理基礎
談及人工智能的起源,公認是1956年的達特茅斯會議[3]。有研究者認為,人工智能是以研究、開發(fā)用于模擬延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的科學技術[41。有的研究者認為,人工智能是人機環(huán)境系統(tǒng)交互的產(chǎn)物5。2017年12月12日,在美國通過的《人工智能未來法案》(FutureofArtificialIntelligenceActof2017),對人工智能重新進行了定義,認為人工智能系像人類一樣思考、認知規(guī)劃、學習、交流或采取行動的智能系統(tǒng),或嘗試達成認知任務的一系列技術,或能夠理性行動的智能軟件代理和類人化機器人。一般認為,自主行為和深度學習是人工智能的兩個核心特征。隨著人工智能的發(fā)展,其自主性和學習能力會越來越強,甚至有可能進化出自我意識2。雖然人工智能最終能否獲得自我意識未有定論,但法律在人工智能領域應該要有超前性,為未來社會的發(fā)展提前預留空間。反觀當前對人工智能民事法律地位的討論,要么過于保守,固守傳統(tǒng)的人、物與主體、客體相對應理論,以及人工智能的民法屬性是物、本質是工具等觀念;要么過于超前,在強人工智能③甚至是超人工智能階段進行臆想。殊不知,強人工智能階段的法律至少要在人類與人工智能的共同參與下制定,而在超人工智能階段④,人類是否繼續(xù)存在都是問題。因此,我們應該秉持一種務實的態(tài)度,將討論的范圍限定在人工智能從弱到強的過渡期內,再來探尋其法律地位的法理基礎。
具體來講,可將從弱人工智能到強人工智能的過渡期再細分為初級、中級和高級人工智能階段。初級人工智能與弱人工智能的區(qū)別在于:弱人工智能是輔助人類完成任務,而初級人工智能則能自主地完成任務,通過深度學習能自行生成新的算法,不再是簡單地輔助人類完成工作,而是可以在某一領域完全替代人類。比如無人駕駛汽車⑤,其可以替代人類充當“駕駛員”。不過,初級人工智能只是在某一特定領域能完全自主行為并遠超人類,系在單一領域超越人類的“專才”。當它在財富管理方面也超越人類時,比如將智能投顧的功能注人無人駕駛汽車,則它可以實現(xiàn)行動自如和財產(chǎn)打理。在此基礎上,它可以通過與人類交流、交互之后進行創(chuàng)作,初步具有類似人類進化的關鍵要素(直立行走和使用語言)。也就是說,當人工智能兼有駕駛、財富管理和創(chuàng)作等功能后,則進人中級階段,系在多個領域超越人類的“多才”。當人工智能在通用領域均超越人類時,則為進人高級階段的“通才”。此后,若其能獲得自我意識具有真正的情感和理解力,則為強人工智能。然而,強人工智能時代雖然滿載人類的憧憬,但其曙光并未出現(xiàn),包含道德、自由和自我意識的強人工智能設想存在根本性錯誤,這也說明我們期待的強人工智能或許是一一個偽命題!6]。有鑒于此,筆者認為當下所討論的“人工智能”應限于過渡期內的初級、中級和高級人工智能。
(一)人工智能是介于人與物之間的客觀存在
人工智能不是人。與具有生命的碳基體——民法上的自然人不同,人工智能是硅基體,其不具有人的生物質,機器人就其生成機理來說不可能產(chǎn)生生命和生命權[7],無論其進化到哪個階段,也不可能成為人。不過,人工智能具有理性能力。比如無人駕駛汽車不會“醉駕”“怒駕”,其理性更強和反應更快等優(yōu)勢將使交通事故概率大為降低。正因為無人駕駛汽車的系統(tǒng)在控制駕駛行為時比人類更理性,所以才讓它高度自主,無需人類駕駛員適時接管而完成所有駕駛行為,此為其一。其二,人工智能還具有交互性和唯一性。無人駕駛汽車作為初級人工智能,可以感知周圍環(huán)境并適時調整其駕駛行為,其交互對象主要是環(huán)境物體,與人類主體之間的交互性不強。然而,隨著人工智能的優(yōu)化升級,在進人中級階段后,則可以自如地與人類交流,通過交互而呈現(xiàn)差異,每個人工智能都會因“成長”環(huán)境的不同而作出不同的“后天”行為,具有唯一性。
人工智能也不是物。人工智能是由系統(tǒng)軟件和硬件設備構成,其功能作用的發(fā)揮主要依靠系統(tǒng)。而民法上的物一般是指有形物或自然力,但系統(tǒng)卻是無形的,在不斷地變化與升級,特別是到了高級階段,系統(tǒng)的運行將變得像人腦一樣捉摸不定。同時,人工智能是人類以自己為標準創(chuàng)造出來的,是一種兼具智慧與超強能力的存在形式,也不屬于自然力。因此,人工智能并不屬于民法上的物。因機器人具有交互性、自主性和適應性,機器人不是產(chǎn)品或物品,而應被視為動物[8]。筆者認為,處于低級階段的人工智能相當于電子奴隸,會聽人類的話,但并非完全置于人的控制下,因為行為是由它自己作出的。而到了更高的階段,人工智能的自主性增強,類似于野生動物,人類對其控制力越來越弱,但人類在總體上擁有決定性的控制權,世界仍應是人類主導下的社會結構,法律也仍應是一種以人為本的體系建構。
由上可見,人工智能既非人,亦非物,而是一種類似于動物的客觀存在。有學者認為,民法對市民社會的所有物質構成,就區(qū)分為人和物兩種表現(xiàn),在市民社會的構成中,要么是人,要么是物,舍此并無其他物質表現(xiàn)形式[9]。然而,現(xiàn)實中存在既非人,亦非物的物質表現(xiàn)形式,如體外胚胎。因為體外胚胎有可能變成人,但如果認定其為物,而物又是不可能變成人的,故其不能被認定為民法上的物。當然,由于它尚未發(fā)育成獨立的人,也就不屬于民法上的人。有學者認為,體外胚胎是生命的種子,不是物,也不是人,與人有關,與物無關,應受到比物更高的道德尊重[10]。因此,隨著科技的進步,民法上傳統(tǒng)的人、物兩分理論受到嚴峻挑戰(zhàn),不僅體外胚胎是一種非人非物的物質存在形式,而且動物亦如此。早在1990年,德國就針對動物的民法屬性問題,在其民法典中做了修訂,修改后的第90a條規(guī)定:“動物不是物。根據(jù)特別法對動物予以保護。只要沒有別的其他規(guī)定,有關物的規(guī)定適用于動物。”也就是說,動物雖然不是物,但具有“近物性”,一般情況下仍適用物之規(guī)定。
人工智能不僅行為自主,而且具有超強的學習能力和理性能力,相對于動物而言,它更具有“近人性”①,是一種比動物更高級的存在形式。不過,人工智能畢竟不是人,無體外胚胎所擁有的人身性利益,這也是人工智能所不應觸及的底線與邊界。進一步而言,人工智能是一種介于動物與體外胚胎之間的客觀存在。既然動物和體外胚胎都不是民法上的物,也就沒有理由將人工智能視為民法上的物。因此,我們不應簡單地將人工智能看成是民法上的物,進而認定其為客體③。退一步講,即便可以將人工智能視為民法上的物,也不表明它就是民事客體,人、物與主體、客體之間并不存在必然的對應關系。盡管現(xiàn)代私法的基礎建立在羅馬法人物二分的狀態(tài)下,主體性也是在物我兩分的狀況下建立的“”,然而,主客體之間這種不可逾越的鴻溝現(xiàn)在正發(fā)生動搖[12]。同時,“主體一客體”的兩分法并不等同于“人一物”的兩分法,不構成法律主體的事物并非必然落人物的窠白”[13]。反之,民法上的物也并不必然成為民事客體。隨著時代的進步,法律關于法人、胚胎和動物權利的討論,擴大了法律人格的適用范圍,因此出現(xiàn)了“沒有臉龐”的權利主體4。因此,在基因工程、納米材料以及人工智能等科學技術高度發(fā)達的今天,仍嚴格固守傳統(tǒng)民法上的人、物與主體、客體相對應的理論以及人工智能的民法屬性是物的觀念,就顯得有點不合時宜了。
(二)人工智能的本質是財產(chǎn)而非工具
關于人工智能是否為工具,肯定說認為,人工智能本質上受自身算法決定“[15],沒有自身的目的[16],仍然是一種工具,只不過它比其他工具先進而己[17];否定說則認為,智能機器人執(zhí)行復雜的認知任務,在自主決策狀態(tài)下,機器人不僅僅是工具[18],其擁有自我意識和規(guī)劃生活的能力[19],權利意識將覺醒于機器人體內[20]。筆者認為,人工智能并非完全受人類控制的工具。工業(yè)革命解放了人的體力,人工智能將解放人的腦力。人類掌握對人工智能的終極控制,比如開關鍵、切斷電源等,但對于人工智能的運行過程及結果并不完全掌控。因為人工智能具備自主學習能力,比如阿爾法狗可以自動生成算法,下一步棋該如何走,完全由其自主決定。換言之,人工智能的智慧遠超人類,正是因為人類給了人工智能充分的自主權,從而造成其運行過程及結果可能無法預測②。而人工智能的自主性越強,給人類帶來的便捷程度也就越高。
有學者認為,“為了能夠使人工智能更好地作為服務社會的工具”,應賦予人工智能“工具性人格”③,筆者認為此類觀點值得商榷。盡管人工智能最終是為人類服務的,具有工具性的一面,但基于人工智能類似于動物,我們不應簡單地將其視為工具。一方面,由于人工智能具備智力上的學習能力,因此它改變了過去使用者和工具之間形成的單向服務關系,也改變了人工智能只能作為工具的單純身份[21]。申言之,人類與人工智能之間互為對象,人類的智慧、情感等成了人工智能分析和學習的對象。另一方面,工具最大的特點在于輔助人類完成任務,然而初級階段的人工智能在任務執(zhí)行中是起主導作用,人類反而是起輔助作用。因此,如同不能把動物看成工具一樣,也不應將人工智能的本質定性為工具。
人工智能的本質是財產(chǎn)。人工智能與動物最為接近,動物也擁有自主行為具有一定的學習能力,比如模仿人類的動作。雖然動物也會被人類當作工具利用,但動物在民法中主要是被看成一種財產(chǎn),而非人類可以任意驅使的工具。財產(chǎn)不僅包括物,還包括行為(債)和權利,是物的上位概念。因此,雖然人工智能不是物,但有可能被納人財產(chǎn)范圍。在強人工智能階段之前,由于人工智能不具有自己設定目標和真正理解自己行為的能力,尚不能意識到自己的存在,故其無關人身關系,但關乎財產(chǎn)關系。因為人工智能可以被買賣、處分,是一種會說話會思考、會自主行為的財產(chǎn)。
當然,從某種意義上說,僅有自然人才是目的,被擬制為主體的法人也是實現(xiàn)目的的一種手段,即工具。筆者并不否認法人具有工具的一面,但是法人還有更重要的一面,那就是財產(chǎn)。歸根結底,法人不過是財產(chǎn)的集合體,所處理的也僅為財產(chǎn)方面的法律關系。然而,與工具不同的是,財產(chǎn)含有“近人性”的一面,比如野生動物作為一種財產(chǎn),它們至少具有生存的目的。又如,古代的奴隸也被看成是財產(chǎn),他們的目的就不僅僅是生存的欲望了。而工具則側重于“近物性”的一面。由于人工智能的自主性,與人類的交互性以及理性思考能力,表明其具有“近人性”。因此,將人工智能的本質認定為工具其實只看到了其“近物性”的一面,而忽視了其“近人性”的一面。
二、人工智能可以獲得民事主體資格
民事主體與人格密切相關?!叭恕笔侵该袷聶嗬黧w,“格”是指成為這種主體的資格,所謂人格者,民事權利主體資格之稱謂也[22]。一般認為,意思能力和責任能力是獲得民事主體資格的實質要件,而獲得法律承認則是成為民事主體的形式要件[23]。人工智能是硅基體,與碳基體的人類不同,不具有人的生物質。然而,法人作為被擬制的主體,同樣不具有人的生物質,所以人工智能是否具有生物質并不影響其能否成為民事主體。從“人可非人”到“非人可人”的發(fā)展史來看,民事主體只是社會需要的法律形式,法律對民事主體的承認是基于現(xiàn)實需要,根基在于以人的利益為中心的功利主義,生命和倫理并非成為民事主體的必然要求②。也就是說,人工智能只需具備意思能力和責任能力,即可獲得成為民事主體的資格。
由上可見,賦予人工智能獨立的財產(chǎn)是必要的,也是可行的。因為上述多方主體與人工智能致害或獲益具有相關性,通過他們出資、設立賠償基金以及人工智能自身獲取收益等多個渠道,可以保障人工智能的收入來源。
三、人工智能成為電子法人的可行性
從我國《民法總則》第2條“民法調整平等主體的自然人、法人和非法人組織之間的人身關系和財產(chǎn)關系”的規(guī)定來看,與人格相關的,無外乎人身利益和財產(chǎn)利益。因此,可以將人格分為人身性人格和財產(chǎn)性人格。所謂財產(chǎn)性人格,是指該主體的意思能力和責任能力僅限于財產(chǎn)方面,而不能及于人身。從“人可非人”到“非人可人”的發(fā)展史來看,人身性人格可被剝離,具有財產(chǎn)性人格即可獲得成為民事主體的資格。一般而言,除自然人具有人身性人格外,其他民事主體僅有財產(chǎn)性人格。也許有人認為,法人也有名稱權之類的人身性人格。但筆者認為,法人所擁有的名稱權、作品署名權等,本質上也是財產(chǎn)性人格,因為法人的名稱權可以進行轉讓,而人身性的事物一般是不能進行交易的。其實,給法人設定名稱,是為了便于識別,更主要是因為該名稱會產(chǎn)生財產(chǎn)利益,而不會有人身利益。否則,侵害法人名稱權就要承擔精神損害賠償責任,這顯然是荒謬的,而自然人的姓名則不同,其一開始便具有人身利益。另外,法人也不可能承擔人身性的義務和責任,當法人的作品侵害他人著作權時,要求法人承擔賠禮道歉等人身性的責任,沒有意義。因此,只有自然人主體才有人身性人格,法人的本質是人為擬制的為實現(xiàn)一定目的的工具,法律不應在人身方面賦予其人格。2016年5月,歐盟議會法律事務委員會提交了一項動議,建議至少考慮將最先進的自主性機器人定位為“電子人”(ElectronicPersons),賦予它們“特定的權利與義務”。筆者認為,人工智能的本質是財產(chǎn),具有財產(chǎn)性人格,但無人身性人格,其意思能力和責任能力僅限于財產(chǎn),而不能及于人身,所以應歸人法人范疇,可以成為新型法人型民事主體一電子法人,而要成為自然人型主體——電子人,是行不通的。
人工智能的本質是財產(chǎn),而財產(chǎn)特定化、擬人化或將財產(chǎn)作為民事主體,立法上早有先例,這不僅體現(xiàn)在羅馬法早就將國庫、寺院視為權利主體[22]3-9,而且大陸法系國家的慈善組織、基金會大都是由財產(chǎn)構成的一種財團法人,而我國《繼承法》中的遺產(chǎn),尤其是遺產(chǎn)的限定繼承,就存在被視為“權利義務主體”的空間@。法人并非僅是社團法人的“人的意志的集合體”,亦可以是“財產(chǎn)自身的集合體”③。既然法律可以賦予不能說話、沒有意識的國家、公司嬰兒、無民事行為能力人、自治城市和大學等以法律資格,可以設定它們的保護人或代理人,為什么法律不能賦予自然物體以法律資格[27]事實上,立法早有將船舶擬人化的實踐④,并認為船舶是準法人⑤。因此,在現(xiàn)有法人制度體系下,增設一種特別法人——電子法人,是可行的?;凇睹穹倓t》已有“特別法人”的規(guī)定,筆者認為,這也不會對現(xiàn)有民事主體制度造成沖擊和損害。因人工智能自身具有可為一定意思表示等特殊性,所以可參照“是一種經(jīng)濟上的主體,還具有一定的政治性”[28]的特別法人一農(nóng)村集體經(jīng)濟組織法人,將作為電子法人的人工智能歸為“特別法人”。當然,電子法人與財團法人、社團法人都擁有獨立的責任財產(chǎn),三者的責任能力相同,但因意思能力不同,與之對應的運行方式也就不同。
首先,社團法人財團法人對外的意思表示均由自然人代為,而人工智能可以在特定領域自為。例如,被設計成可以獨立簽訂合同和在市場上進行小額度買賣的交易型人工智能,其與他人訂立合同或進行交易的行為是自己作出并生效的,善意相對人無需征得其法定代表人的確認或追認。也就是說,基于人工智能與其他主體的利益[29],需賦予其法律人格,以使通過該系統(tǒng)訂立的合同具備強制執(zhí)行的正當性基礎[30]。然而,在該特定領域之外的意思表示,則需由其法定代表人代為。可問題是,由誰擔任其法定代表人比較合適?筆者認為應根據(jù)人工智能所處的不同階段適當調整其法定代表人。形象地說,初級、中級、高級階段的人工智能有點類似于野生、馴養(yǎng)、靈長(瀕危)動物。初級人工智能的自主性強,但交互性不強,其行為主要還是“先天的”,此時最密切的利益相關人是開發(fā)制造者,由其擔任法定代表人比較合適。隨著深度學習能力的提高,中級人工智能的交互性增強,能與人類交流并受周圍環(huán)境和人類行為的影響,其行為受“后天”影響比較大,故由直接管理它的主人(一般情況下是它的購買者)擔任法定代表人比較合適。而到了高級階段,人工智能在大多數(shù)領域都遠超人類智能,自己可以作法定代表人。但是基于安全考慮,人工智能及其核心平臺是不宜落人任何個人或私企手里的31,故高級人工智能應由國家掌控。當然,國家可以委托具體的人或組織對其進行監(jiān)管。
其次,人工智能背后的人的意志是一種混合意志,既不同于財團法人之設立人的單獨意志,也不同于社團法人之社員的共同意志。人工智能的擬制路徑是電子法人,電子法人是法人的一種。而法人是一個團體,任何一個團體必須包含兩個要素:人和財產(chǎn)[22]7。即便是財團法人,其背后也有人的意志。財團法人無成員可言,但離不開處分和管理這些財產(chǎn)的人的意思和行為[22]9。同樣,人工智能背后也是人的意志,而且至少包括開發(fā)制造者購買者以及國家三方。以無人駕駛汽車為例,數(shù)據(jù)、平臺、路況監(jiān)測等一般是由國家掌控,國家主要是從公共利益的角度,比如在安全和秩序方面注人自己的意志,而開發(fā)制造者的意志是為了獲取收益,購買者則是為了享受更好的服務。另外,人工智能可以自己生成算法,根據(jù)該算法對外作出的行為完全有可能獨立于以上多方主體的意志。因此,人工智能的背后混合了人類主體之有目的性的意志和人工智能自身無目的性的意思。雖然人工智能可獨立對外為意思表示,但其自主作出的行為實際上是受這種混合意志所間接左右的。
由此可,見,人工智能作為電子法人,與社團法人和財團法人在意思能力方面存在較大差異,具體詳見下表。
再次,人工智能作為電子法人,有其獨特的運行方式。人工智能既可能致害,也能獲取收益。且電子法人并非財團法人,其兼具營利和公益目的。因此,對內應按營利性社團法人的模式運作。開發(fā)制造者、購買者以及國家等主體應以股東名義出資,以出資為限承擔責任,并按出資比例分配收益。而且,法律應規(guī)定人工智能法定代表人的出資比例要占絕對優(yōu)勢,比如超過50%的股份,以使其更好地履行最大限度維護電子法人利益的職責,為人工智能謀求最大利益。至于其他股東的股份占比,可以協(xié)議確定。國家(比如無人駕駛汽車中的交管部門)、購買者、開發(fā)制造者應該是法定的股東,參與分紅并分擔責任,并履行監(jiān)督管理以及出資等職責。對外的運作模式比較復雜,需根據(jù)人工智能自身情況的不同而作出不同規(guī)定,但至少應明確以下兩點:一是對人工智能自己可為意思表示的領域范圍進行公示并登記;二是要實時向社會公開其責任財產(chǎn)的具體數(shù)額。由此,人工智能以電子法人身份對外發(fā)生財產(chǎn)關系時,既可能是它自己為意思表示,也可能是由它的法定代表人代為意思表示。另外,電子法人具有一定的公益性質,對外并非完全以營利為目的。
需要強調的是,由于人工智能致害或獲益至少關涉三方主體,由任何一方完全承擔或獨享均不合理,而應分攤。又由于人工智能的擅自行為是技術進步的結果,科以任何一方無限責任亦無依據(jù)。當然,責任有限并不表示受害人不能獲得充分救濟,更不表示責任人可以借此逃避責任。因為設立電子法人時,相關責任人應按其利益相關度進行相應比例的出資,出資數(shù)額應超過估算的足額賠付范圍。另外,國家還應設立賠償基金,電子法人也應以自己的名義購買保險以分散風險。所以,將人工智能擬制為電子法人,歸根結底,其實是為了實現(xiàn)法人之責任有限和權責分攤的目的。
此外,將人工智能擬制為電子法人也是出于維護人類自身安全,確保人類在人工智能領域具有控制和支配地位的理性選擇。民事主體可分為支配性主體(自然人)和工具性主體(法人、非法人組織),法人非法人組織主要是基于現(xiàn)實需要,比如為了實現(xiàn)責任有限的目的等而人為擬制的一種工具。自然人則不同,自然人作民事主體主要是建立在人類中心主義的基礎之上,是出于對人類尊嚴的保護,這就是僅需要具有生物質這一個要件就可以成為民事主體的原因所在,目的就是為了確保人對萬物的支配地位。然而,人工智能并不完全為人類所支配,亦非完全為工具,而是一種財產(chǎn)性主體,它的本質屬性是財產(chǎn),而非工具。這種財產(chǎn)性主體其實是介于支配性主體與工具性主體之間的。筆者將其擬制為電子法人,傾向于法人等工具性主體,而不建議將其擬制為限制民事行為能力人或其他自然人這種支配性主體,其實是出于維護人類安全的考慮,令其只能是為實現(xiàn)人類目的的一種工具,與之有關的所有權利、義務和責任都限定在財產(chǎn)方面,而不能給予其一丁點的人身方面的自由。否則,它從這些人身性權利義務的交互中獲得意識和覺醒,那后果就不堪設想了。因為人工智能與野生動物一樣并不完全受人類的控制,而且從事的是本該由人類主體做的事,比如駕駛汽車、創(chuàng)作作品以及管理財富等。申言之,人工智能與動物主要是提供物質性價值(比如供人類吃穿等)不同,它為人類提供的主要是一種精神性的價值,人類設計人工智能并不是為了要消費它,而是利用它的智能為人類完成一定的行為和工作,它的智能思維過程以及理性行為等才更有價值。所以,在賦予人工智能主體地位時,我們必須要慎重,不能將本來就在往人類精神方面逼近的人工智能擬制為類似于自然人的支配型主體,否則將危及人類自身。
四、人工智能成為電子法人的必要性
將人工智能擬制為電子法人,主要基于以下兩點考慮:一是人工智能的發(fā)展帶來現(xiàn)有法律制度框架難以解決的問題,比如無人駕駛汽車侵權責任的承擔、人工智能創(chuàng)作的收益歸屬、人工智能交易行為的效力等問題。二是將人工智能擬制為電子法人可以解決與人工智能利益相關的多方主體責任有限問題,實現(xiàn)多方主體對人工智能自主行為產(chǎn)生的權利、義務和責任按相應比例的合理分攤,即權責分攤。以無人駕駛汽車侵權責任承擔問題為例,學界主流觀點認為現(xiàn)行交通事故侵權責任制度難以繼續(xù)適用,不少學者認為應主要適用產(chǎn)品責任或物的責任追責。也有學者認為,為了更合理、有效地對智能機器人造成的損害分配法律責任,嚴格責任、差別化責任、強制保險和賠償基金、賦予智能機器人法律人格等都是潛在的法律方案;但立法者或者法院最終選擇何種方案,需要進行全方位地論證,以便實現(xiàn)法律的利益平衡目的[32]。筆者認為后一種觀點更為中肯,權衡之下,賦予人工智能電子法人地位是最佳方案,理由如下:
首先,將駕駛系統(tǒng)定性為產(chǎn)品并不合理。無人駕駛汽車發(fā)生交通事故是由系統(tǒng)操控,駕駛系統(tǒng)并不是民法上的物,而是一種具有“近人性”的客觀存在,既非人,亦非物。所謂產(chǎn)品,主要是無人駕駛汽車有形的設備及零部件,當這些產(chǎn)品有缺陷、瑕疵時,應適用產(chǎn)品責任追責。可是,駕駛系統(tǒng)并非產(chǎn)品,而造成交通事故主要是因駕駛系統(tǒng)的行為導致。而且,駕駛系統(tǒng)具有自主性,也只有高度的自主才能實現(xiàn)無人駕駛,由此極大降低交通事故的概率,并給人類生活帶來巨大的便利,所以這種自主性是符合國家技術標準的。若非人工智能自主行為所生損害,比如人類的過錯(比如操作失誤)、產(chǎn)品本身的缺陷或瑕疵受害者自己原因、第三人侵權(比如黑客攻擊)等,則由負有責任者承擔相應責任,傳統(tǒng)侵權理論足可解決。問題是,真正發(fā)生交通事故的主要原因并不在此,而是因駕駛系統(tǒng)自主操作而發(fā)生,是其自主性的當然表現(xiàn)。對于無人駕駛汽車自主行為所生損害,開發(fā)制造者可依“技術中立”原則而主張免責。因此,將駕駛系統(tǒng)視為產(chǎn)品一物,進而主張由開發(fā)制造者對系統(tǒng)因自主行為導致的損害承擔產(chǎn)品責任,既不合事實,也有悖法理。
其次,適用產(chǎn)品責任并不能解決責任難題。一是證明產(chǎn)品存在缺陷以及缺陷與損害之間的因果關系既困難又昂貴②,這是技術高度發(fā)達所帶來的結果,特別是當無人駕駛汽車的自主行為致?lián)p時,更不能苛求完全由生產(chǎn)者一方負責,因為無人駕駛汽車的自主行為與多方主體存在利益相關性。二是運用法理或其他輔助辦法,亦無法從根本上解決適用產(chǎn)品責任所帶來的困境③。筆者認為,適用產(chǎn)品責任追責,在法理上根本就不是一種合理的解釋路徑,而且會導致開發(fā)制造者承擔的責任過重,導致不公平,或者受害人不能獲得充分救濟等新問題。歸根結底,最為根本的原因還在于將駕駛系統(tǒng)定位為產(chǎn)品,漠視了其“近人性”的一面。
再次,不賦予人工智能民事主體資格,適用嚴格責任等其他方案亦無法解決責任難題。采用嚴格責任、差別化責任、強制保險和賠償基金等,注意到了人工智能侵權的特殊性,但均無法從根本上解決其責任問題。嚴格責任即無過錯責任,對于人工智能自主行為造成的損害,無需證明存在過錯亦可科責,這是對的。然而,由誰來承擔無過錯責任呢?由于人工智能自主行為的背后是多方主體意志的反映,難以苛求完全由任何一方主體擔責。那么,是不是由各利益相關方平均分擔就可以解決呢?筆者認為,由于各方主體與人工智能利益的關聯(lián)程度存在差別,無人駕駛汽車作為初級人工智能,與其關聯(lián)度最高的應是開發(fā)制造者,其分擔的比重應最高,這就是應該對責任進行差別化,按相應比例分擔的法理依據(jù)。另外,有學者認為,人工智能的風險不一定與產(chǎn)品缺陷有直接關系,反而與智能自主性有關,在法律技術上尋找產(chǎn)品缺陷和追蹤過錯發(fā)生之時空點都不太容易,將人工智能的風險社會化,通過強制保險或設立賠償基金制度更利于問題的解決33。從這里可以看出,國家和社會應通過設立賠償基金和強制保險的方式分擔風險,但是,國家和社會沒有義務將風險全部自擔,無人駕駛汽車致害風險社會化不能作為唯一的選擇。因為,對于無人駕駛汽車帶來的便利和好處,國家并不是最大受益人,最大的受益方是開發(fā)制造者。根據(jù)報償理論,即“誰享受利益誰承擔風險”的法理,理應由各利益相關方按其利益大小分擔責任。所以,嚴格責任等其他方案在不賦予人工智能民事主體資格的情況下,是無法.真正解決現(xiàn)有責任難題的。
最后,將人工智能擬制為電子法人是最佳選擇。通過以上分析可以發(fā)現(xiàn),現(xiàn)有法律制度框架無法解決責任難題的根源在于:一是人工智能具有自主性和交互性,其先天行為和后天行為與多方主體相關,不是任何單獨一方主體所能完全決定的,這就要求各相關主體按相應比例分擔責任;二是人工智能致害主要是其“擅自”行為所致,多方主體與其并無直接關聯(lián),而是他們混合意志間接作用的結果,這就有必要將多方主體責任與人工智能責任進行區(qū)隔,并實現(xiàn)責任有限。另一方面,無人駕駛汽車不但可能致害,也有可能帶來收益,比如用于出租或共享而獲取收益的商用無人駕駛汽車,這筆收益是否能由購買者獨享呢?如果致害了,僅追究開發(fā)制造者的產(chǎn)品責任,而產(chǎn)生收益了,卻完全由購買者獨享,此舉豈能公平公正?而且,無人駕駛汽車的投保主體是誰?被保險人是誰?遵守道路交通法規(guī)的人又應該是誰?同理,有如責任承擔難題,人工智能創(chuàng)作作品的權利歸屬難題、人工智能交易員自主交易行為的效力難題等亦是如此。所有問題歸根結底,實質就在于適格主體的缺位,只有將人工智能擬制為電子法人,將利益相關的多方主體意志糅合到一起,實現(xiàn)責任有限、權責相稱并按比例分攤,才能從根本上解決責任承擔、權利歸屬以及行為效力等難題。
五、結語
人工智能作為一種特殊的客觀存在,在財產(chǎn)方面具有意思能力和責任能力,賦予其法人人格(即財產(chǎn)性人格)在理論上并無障礙,但因其不具有人身性人格,故將其擬制為自然人型的“電子人”并不可行。另一方面,人工智能的飛速發(fā)展帶來了現(xiàn)有法律制度框架無法解決的人工智能侵權責任承擔人工智能創(chuàng)作作品權利歸屬以及人工智能自主交易行為效力等難題。產(chǎn)生這些難題的根本原因是人工智能的自主性、交互性和深度學習的結果,其“擅自”行為的背后是多方主體混合意志的體現(xiàn),所產(chǎn)生的權利、義務和責任不能完全由任何一方主體單獨享受與負擔,而應按相應比例進行權責分攤并使其責任有限,而要實現(xiàn)這一點,就有必要將人工智能擬制為法人型的民事主體,自然人沒有這種功能。由此,將人工智能擬制為“電子法人”既是可行的,也是必要的。從而對于人工智能遠超人類智能之特定領域,可由人工智能自為,其所產(chǎn)生的權利、義務和責任實際上是由吸收了多方主體意志的電子法人轉承;在其他領域,比如訴訟或將人工智能作為財產(chǎn)進行處分時,則可由電子法人的法定代表人代為??傊?,應以財產(chǎn)性人格的進路將人工智能擬制為電子法人,其根本理由在于人工智能的自主性要求其自負行為后果、自為意思表示,使交易高效便捷;更在于人工智能“擅自”行為的背后不可歸責于任一單方主體,需要多方主體分攤權責,從而平衡各方利益,實現(xiàn)公平公正,促進人工智能產(chǎn)業(yè)的發(fā)展,迎合時代需要。
時下在民法典編撰正如火如茶進行的大背景下,有學者提出,由于自動駕駛系統(tǒng)的引人,在缺陷與因果關系認定方面面臨著特殊困難,應考慮責任機制創(chuàng)新可能的方向和路徑[25]128。然而,在人工智能創(chuàng)作作品的權利歸屬、人工智能自主交易行為的效力等方面,同樣面臨特殊困難,所有因人工智能的發(fā)展而帶來的沖擊是不是都要去創(chuàng)新機制?筆者認為,這將會帶來很大的立法成本和法律之間的協(xié)調問題,也會使法律變得愈加復雜。相反,在現(xiàn)有法律框架下,在法人組織中增設一種電子法人,讓人工智能以電子法人的身份參與社會經(jīng)濟生活,也許是一種解決問題的更好思路,不失為將復雜問題簡單化的一種方法。因為人工智能作為電子法人只需進行角色替換,充當無人駕駛領域的司機、投保人或創(chuàng)作作品領域的作者等,即可落人既有的侵權責任、知識產(chǎn)權等法律框架內,不會損害當前的民事主體制度,法律只需有針對性地進行部分調整,就可將人工智能已經(jīng)或將要帶來的新問題進行妥善處理。另外,鑒于非自然人主體本質上只涉及財產(chǎn)關系的民法調整,筆者建議制定民法典時,一方面將《民法總則》第2條修改為:“民法調整平等主體的自然人之間的人身關系和財產(chǎn)關系,自然人、法人和非法人組織之間的財產(chǎn)關系?!?另一方面在《民法總則》第三章“法人”之第四節(jié)“特別法人”中增設“電子法人”內容,并在電子法人制度設計時采用分段擬制的方法,使其既能實現(xiàn)人工智能自主性和學習能力的充分發(fā)揮,又能促進交易秩序的安全穩(wěn)定與高效便捷,更能保護好電子法人、受害人以及善意相對人等民事主體的合法權益。
參考文獻:
[1]汪志剛.民法視野下的人體法益構造——以人體物性的科技利用為背景[J].法學研究,2014(2):93.
[2]蘇永欽.民事財產(chǎn)法在新世紀面臨的挑戰(zhàn)[J].人大法律評論,2001(1):193.
[3]尼克.人工智能簡史[M].北京:人民郵電出版社,2017:1.
[4]騰訊研究院,中國信通院互聯(lián)網(wǎng)法律研究中心.人工智能[M].北京:中國人民大學出版社,2017:23.
[5]劉偉.關于人工智能若干重要問題的思考[J].人民論壇·學術前沿,2016(4):7.
[6]房紹坤,林廣會.人工智能民事主體適格性之辨思[J].蘇州大學學報(哲學社會科學版),2018(5):67.
[7]趙萬一.機器人的法律主體地位辨析——兼談對機器人進行法律規(guī)制的基本要求[J].貴州民族大學學報(哲學社會科學版),2018(3):147.
[8]LucianoFloridi,J.W.Sanders.OntheMoralityofArtificialAgents[J].Minds&Machines,2004(3):349-379.
[9]楊立新.人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責任[J].求是學刊,2018(4):91.
[10]劉士國.中國胚胎訴訟第——案評析及立法建議[J].當代法學,2016(2):4-10.
[11]VisaKurki.Animals,Slaves,andCorporations:AnalyzingLegalThinghood[J].GermanLawJournal,2017,18(5):1069-1088.
[12]梁慧星.從近代民法到現(xiàn)代民法[J].中外法學,1997(2):19-30.
[13]馬丁.體外胚胎在我國民法上的應然屬性及其價值考量——基于國情和社會發(fā)展趨勢的分析[J].東方法學,2017(4):70.
[14]顏厥安.沒有臉龐的權利主體——由法理學檢討生物科技與人工生殖技術[J].月旦法學雜志,1995(2):9-17.
[15]王利明.人工智能時代對民法學的新挑戰(zhàn)[J].東方法學,2018(3):5.
[16]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017(5):131.
[17]郝鐵川.不可幻想和高估人工智能對法治的影響[N].法制日報,2018-01-03(10).
[18]ElviaAdriano,QuintanaArcelia.NaturalPersons,JuridicalPersonsandLegalPersonhood[J].MexicanLawReview,2015(8):101-118.
[19]F.PatrickHubbard.“DoAndroidsDeam?”:PersonhoodandIntelligentArtifacts[J].TempleLawReview,2011,83(2):419.
[20]HilaryPutnam.Robots:MachinesorArtificialCreatedLife?[J].TheJournalofPhilosophy,1964,61(21):668-691.
[21]陳景輝.人工智能的法律挑戰(zhàn):應該從哪里開始?[J].比較法研究,2018(5):144.
[22]江平.法人制度論[M].北京:中國政法大學出版社,1994:1.
[23]彭誠信.論民事主體[J].法制與社會發(fā)展,1997(3):17.
[24]馮潔.人工智能體法律主體地位的法理反思[J].東方法學,2019(4):43-54.
[25]馮玨.自動駕駛汽車致?lián)p的民事侵權責任[J].中國法學,2018(6):116.
[26]許明月,譚玲.論人工智能創(chuàng)作物的鄰接權保護一理論證成與制度安排[J].比較法研究,2018(6):51.
[27]江山.法律革命:從傳統(tǒng)到超現(xiàn)代——兼談環(huán)境資源法的法理問題[J].比較法研究,2000(1):31.
[28]陳魁.民法總則評注(上冊)[M].北京:法律出版社2017:701.
[29]JessicaBerg.Article:OfElephantsandEmbryos:AProposedFrameworkforLegalPersonhood[J].HastingsL.J,2007,59:387.
[30]UgoPagallo.Thelawsofrobots:crimes,contracts,andtorts[M].Springer,2013:154.
[31]馮象.我是阿爾法:論法和人工智能[M].北京:中國政法大學出版社,2018:209.
[32]司曉,曹建峰.論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點[J].法律科學(西北政法大學學報),2017(5):166.
[33]梅夏英.民事主體的抽象度問題及其對私法體系的影響[J].經(jīng)貿法律評論,2019(1):99.
On the Status of Electronic Corporation in Artificial Intelligence
ZHANG Zhi-jian
( School of Law, Jiangxi University of Finance And Economics,Nanchang 330032, China)
Abstract : The autonomy,interaction and deep learning ability of artificial intelligence determine thatit is neither a thing nor a person, but an objective existence between people and things. Its essence is nottool, but property. For the problem of attribution of harm, benefit and product caused by artificial intelligence, it is not reasonable to completely attribute responsibility, benefit and right to any one party,and it is unfair to socialize all risks through insurance. Considering that artificial intelligence has the expression ability and responsibility of property, but does not have personal personality, and its autonomous behavior reflects the will of multiple subjects, it is feasible and necessary to draft it as an electronic corporation with the approach of property personality, and the future Civil Code should respond to this. Artificial intelligence can express itself and conceited behavior consequences in a specific field,because of the“unauthorized”behavior is a reflection of various main mixed will and must share the responsibilities between the various main, according to a certain proportion to achieve the purpose of legalperson of limited liability and responsibility allocation, and can ensure the dominance of human body and does not endanger mankind itself.
①有學者認為智能機器人可以作為刑事責任主體,應針對其特點設立特殊的刑罰處罰方式。(參見:劉憲權.人工智能時代下的刑事責任演變:昨天、今天、明天[J].法學,2019(1):79;劉憲權,涉人工智能犯罪刑法規(guī)制的路徑[J].現(xiàn)代法學,2019(1):75.)
②擁有擬制人格的人工智能可以自己承擔責任,從而可以減少人工智能的制造者和使用者的財產(chǎn)和法律責任。(參見:WendellWallach,ColinAllen.MoralMachines:TeachingRobotsRightfromWrong[M].Oxford:OxfordUniversityPress,2009:198.)
③正是這種通過使財產(chǎn)獨立化而產(chǎn)生的限制責任效果,構成了設立法人的本質動機。(參見:迪特爾·梅迪庫斯.德國民法總論[M].邵建東,譯.北京:法律出版社,2000:815.)
④筆者認為無人駕駛汽車交通事故的潛在責任方,至少包括以下主體:軟件開發(fā)商、汽車制造商.零部件供應商、汽車修理廠、使用者、車輛管理方、道路基礎設施管理部門、交管部門、安全部門等,通信網(wǎng)絡運營商、IT服務提供商、-級供應商、電子地圖公司等,行業(yè)組織與機構等。
①鑒于人工智能具有自動決策的能力,法律應當賦予其法律人格,將其視為獨立的法律主體;對于人工智能引發(fā)的事故,理應由人工智能本身來承擔責任,而非消費者和制造商。(參見:JohnFrankWeaver.RobotsArePeopleToo:HowSiri,GoogleCar,and Artificial intelligence WillForceUstoChangeOurLaws[M].Praeger,AnlmprintofABC-CLIO,LLC,2014:25-27.)
②真正有價值的作品是人工智能與人類交互作用的結晶。因為人工智能具有深度學習能力,它可以通過學習人類的優(yōu)點而不斷生成新的算法,從而具有交互性,即人類的行為會影響到人工智能的“后天行為”,而這種后天行為與人類行為是交互影響、交互作用的。
①參見: Michael Nunez. Robots in Europe Could Become “Electronic Persons"[EB/OL]. (2016 -06 -21)[2019 - 05 -22 ]. https://www. gizmodo. com. au/2016/06/ robots - in - europe - could - become - electronic - persons/.
②被繼承人死后,繼承人尚未確定時的遺產(chǎn),本身就可以享受權利和承擔義務,例如遺產(chǎn)是房屋時,即使未有新的所有人,房屋仍然可以收取房租或支付房屋修繕費用。因此,遺產(chǎn)在待繼承期間的法律地位就是財產(chǎn)構成的團體。(參見:江平.法人制度論[M].北京:中國政法大學出版社,1994:9.)
③對于法人本質的探討,除“擬制說”與“實在說”外,學界還有一種中性的表述,該表述視法人為一種財產(chǎn)權歸屬載體,也有學者稱之為法人“特別財產(chǎn)說”。(參見:迪特爾·梅迪庫斯.德國民法總論[M].邵建東,譯.北京:法律出版社,2000:823.)
④在特定情況下,船長及船員的行為被法律擬制為“船舶”行為,由船舶造成的侵權債務、違約債務以及其他海事債務可由船舶本體償還,與責任人的其他財產(chǎn)無關。( 參見: Matthew P. Harrington. Rethinking in Rem: The Supreme Courts New ( and Misguided) Approach to CivilForeture[J]. Yale Law& Policy Review , 1994,12(2) :281 -354. )
⑤準法人是指船舶屬 于法律上人的范疇,但不完全構成法人的資格,具有限制性法人的特征。一方面船舶具有人的法律地位;另-方面,船舶的權利能力和行為能力要受到法定限制。只有在法律規(guī)定的范圍內和船舶所有人授權時,船舶才具有法人的權利和行為能力。(參見:饒中享.建立船舶主體法律制度探究[J].中國海商法年刊,1994,5:187.)
①參見:馮潔語.人工智能技術與責任法的變遷——以自動駕駛技術為考察[J].比較法研究,2018(2):143;鄭志峰.自動駕駛汽車的交通事故侵權責任[J].法學,2018(4):16;馮玨.自動駕駛汽車致?lián)p的民事侵權責任[J].中國法學,2018(6):109;楊立新.民事責任在人工智能發(fā)展風險管控中的作用[J].法學雜志,2019(2):25.
②由于自動駕駛汽車的學習能力與自主決策能力,使得人們事后探究自動駕駛汽車導致事故發(fā)生的決策邏輯和決策過程變得異常困難。不僅事故的受害人很難證明事故發(fā)生的確切原因,而且即使是自動駕駛系統(tǒng)的設計者或制造商,有時也很難解釋事故究竟是如何發(fā)生的。即使自動駕駛汽車上配備有記錄數(shù)據(jù)的“黑匣子”,也解決不了其邏輯決策的黑箱。(參見:馮玨.自動駕駛汽車致?lián)p的民事侵權責任[J].中國法學,2018(6):127-128.)
③無論是消費者的合理期待標準或“事物自道其緣”法理在產(chǎn)品責任中的應用,還是從監(jiān)管層面確立自動駕駛汽車的安全和性能標準,都只能在--定程度上緩和受害人難以依產(chǎn)品責任獲得充分救濟的困境,卻不能從根本上解決這一問題。(參見:馮玨.自動駕駛汽車致?lián)p的民事侵權責任[J].中國法學,2018(6):130.)
①德國學者羅爾夫·克尼佩爾則從財產(chǎn)的角度指出,法人的本質是對財產(chǎn)的法律調整,絲毫不涉及個人身體體格的調整。(參見:李永軍.民法上的人及其理性基礎[J].法學研究,2005(5):23-24.)
②理由主要在于:首先,非自然人主體對于自然人而言,本來就是一種財產(chǎn),不然人類怎么能對其進行交易和處分?其次,由于非自然人主體權利義務范圍的上限是財產(chǎn),故其與自然人之間只發(fā)生財產(chǎn)關系,不會發(fā)生人身關系。再次,將非自然人主體權利義務范圍阻斷在人身關系之外,是將自然人地位的一種抬高,更能體現(xiàn)以人為本。