陳嘉敏,朱 健
(廣東財(cái)經(jīng)大學(xué) 法學(xué)院,廣東 廣州 510320)
2010年11月7日,機(jī)器人“帕羅”在日本獲得了戶籍,這意味著“帕羅”成為了一位日本公民;2017年11月4日,機(jī)器人“澀谷未來(lái)”獲得了東京的居住權(quán),從這兩件事可以推斷出日本在一定程度上承認(rèn)了人工智能的民事主體資格。美國(guó)將谷歌的無(wú)人駕駛系統(tǒng)視為“駕駛員”,沙特更是直接賦予了機(jī)器人“索菲亞”國(guó)籍。從這些國(guó)家的舉動(dòng)可以看出,它們似乎是將人工智能作為民事上的法律主體,因?yàn)闊o(wú)論是公民身份、居住權(quán)還是“駕駛員”身份的主體都是自然人,或者說(shuō),至少是民事上的法律主體。
那么人工智能是否可以成為民事上的法律主體呢?隨著人工智能技術(shù)的愈發(fā)成熟,這一問(wèn)題在我國(guó)學(xué)術(shù)界上引起了一番熱議。有部分學(xué)者對(duì)此持贊同意見(jiàn)。如袁曾教授,他認(rèn)為“人工智能具有獨(dú)立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)責(zé)任義務(wù),人工智能應(yīng)當(dāng)具有法律人格[1]”。吳漢東教授也提出“智能機(jī)器人本質(zhì)是為機(jī)器,但亦有人的屬性,對(duì)智能機(jī)器人的尊重就是對(duì)人類自身的尊重”的觀點(diǎn)[2]。有的學(xué)者則不贊同人工智能成為民事法律主體。如許春明教授,他認(rèn)為目前的人工智能僅僅只是一種高級(jí)的算法,即使人工智能的產(chǎn)出不直接受人類控制,但是也不能說(shuō)明其存在獨(dú)立的意識(shí),即便是被授予公民身份的“索菲亞”,也同樣沒(méi)有突破自主意識(shí)這一瓶頸[3]。除此之外,李愛(ài)君教授、孫占利教授也從法律價(jià)值、權(quán)利能力、責(zé)任能力等多個(gè)角度論述了人工智能不應(yīng)被賦予法律主體資格①。
不論是持贊同意見(jiàn)還是持否定意見(jiàn),學(xué)者們都從不同的角度對(duì)此問(wèn)題進(jìn)行了一番論述。在本文,筆者亦將對(duì)人工智能是否應(yīng)當(dāng)被認(rèn)定為民事法律主體進(jìn)行分析論證,從人工智能的概念入手,通過(guò)敘述人工智能的發(fā)展階段及對(duì)其分類,探討強(qiáng)人工智能是否有成為法律主體的可能性,分析當(dāng)前認(rèn)為應(yīng)當(dāng)賦予人工智能主體地位的立足點(diǎn)及其缺陷,進(jìn)而嘗試運(yùn)用法理學(xué)和民法的相關(guān)知識(shí)論證當(dāng)前人工智能不應(yīng)當(dāng)被賦予民事法律主體資格。
人工智能集合了計(jì)算機(jī)科學(xué)、邏輯學(xué)、生物學(xué)、心理學(xué)和哲學(xué)等眾多學(xué)科,在語(yǔ)音識(shí)別、圖像處理、自然語(yǔ)言處理、自動(dòng)定理證明及智能機(jī)器人等應(yīng)用領(lǐng)域取得了顯著成果[4]。但是實(shí)際上,至今為止,各界對(duì)人工智能仍未形成統(tǒng)一的定義。美國(guó)麻省理工大學(xué)的溫斯頓教授認(rèn)為:“人工智能就是研究如何使計(jì)算機(jī)去做過(guò)去只有人才能做的智能工作[5]”。鐘義信教授則指出,人工智能就是指人類所制造的智能,也就是機(jī)器的智能[6]。McCarthy認(rèn)為,“人工智能不僅僅意味著對(duì)人類智能的復(fù)制,同時(shí)也涉及超過(guò)人的各種計(jì)算性的能力[7]”。上述定義并無(wú)優(yōu)劣之分,僅僅體現(xiàn)了學(xué)者們對(duì)人工智能不同的關(guān)注視角,而筆者認(rèn)為要對(duì)“人工智能”下定義,首先要對(duì)其進(jìn)行拆分,申言之,即何為“人工”,何為“智能”?!叭斯ぁ敝傅氖且揽咳祟惖哪X力、體力創(chuàng)造?!爸悄堋笔歉兄?、學(xué)習(xí)、理解的能力,含括智慧、智力、意識(shí)等等。因?yàn)橐庾R(shí)是人類特有的活動(dòng),此處不宜采用“意識(shí)”來(lái)解釋“智能”。由此,筆者認(rèn)為人工智能是由人類創(chuàng)造的、帶有人類智慧和智力的載體。
“人工智能”這一概念最先是在1956年美國(guó)的達(dá)特茅斯會(huì)議上被提出來(lái),在此之前,奧利弗·塞弗里奇(Oliver Selfridge)和艾倫·紐厄爾(Allen Newell)已經(jīng)在“學(xué)習(xí)機(jī)器討論會(huì)”的會(huì)議上分別提出了對(duì)于計(jì)算機(jī)模式識(shí)別與下棋的研究,這被認(rèn)為是人工智能的雛形[8]。達(dá)特茅斯會(huì)議是符號(hào)主義學(xué)派興起的標(biāo)志,同時(shí),此次會(huì)議不僅確定了人工智能未來(lái)的發(fā)展方向,還確定了人工智能最初的發(fā)展途徑以及發(fā)展目標(biāo)[9]。這一時(shí)期的人工智能還未大范圍使用,并且因?yàn)橛?jì)算量巨大且復(fù)雜,人們并不看好人工智能的發(fā)展前景。由此,人工智能進(jìn)入到了第一次低谷。到了20世紀(jì)70年代,以仿生學(xué)為基礎(chǔ)的研究學(xué)派逐漸火熱,神經(jīng)網(wǎng)絡(luò)由于BP算法的廣泛應(yīng)用獲得了高速發(fā)展[4]。但是由于技術(shù)發(fā)展的問(wèn)題,在當(dāng)時(shí)無(wú)法實(shí)現(xiàn)深度學(xué)習(xí),還未能達(dá)到進(jìn)一步發(fā)展的要求。隨后,1997年“深藍(lán)”的成功面世,又激起了人們對(duì)人工智能發(fā)展的展望。互聯(lián)網(wǎng)以及分布式計(jì)算的技術(shù)跨越了人工智能的發(fā)展障礙,使得深度學(xué)習(xí)和增強(qiáng)學(xué)習(xí)成為了可能[10]。人工智能開(kāi)始被大范圍應(yīng)用,包括圖像、語(yǔ)音、文字和數(shù)據(jù)挖掘等領(lǐng)域,如拍照翻譯功能?,F(xiàn)如今,GPU的不斷深入發(fā)展,使得人工智能事業(yè)更上了一層樓。
由上可見(jiàn),人工智能自出現(xiàn)以來(lái),大致經(jīng)歷了三起兩落,如圖1所示[11],在人工智能發(fā)展的過(guò)程中,雖然碰到了一定的挫折與打擊,但是總的而言,人工智能還是呈現(xiàn)出一種螺旋式上升的狀態(tài),目前,人工智能處于重生期之中,同時(shí)這也是一個(gè)蓬勃發(fā)展的時(shí)期,截至2018年,中國(guó)人工智能的市場(chǎng)規(guī)模已達(dá)238.2億元[12]。
圖1 人工智能的發(fā)展歷程
為了對(duì)人工智能能否被賦予民事主體資格這一問(wèn)題進(jìn)行更好的討論,當(dāng)前人工智能的發(fā)展按其“智力水平”可以劃分為三個(gè)級(jí)別,分別是:弱人工智能、強(qiáng)人工智能和超人工智能。
1.弱人工智能。弱人工智能是指最早出現(xiàn)的,功能較為單一的,并且專門(mén)用于某一特定領(lǐng)域的人工智能,例如超級(jí)計(jì)算機(jī)“深藍(lán)”、機(jī)器人“小冰”、在線廣告服務(wù)、網(wǎng)絡(luò)人工服務(wù)等等。弱人工智能不具有獨(dú)立思考的能力,沒(méi)能開(kāi)啟屬于自己的“思維”模式,屬于人工智能體系里較為低級(jí)的發(fā)明,只能擁有其預(yù)先確定的觀察數(shù)據(jù)的能力,不能提供超出其預(yù)定操作范圍的查詢。
2.強(qiáng)人工智能。強(qiáng)人工智能是指基本可以像人類一樣獨(dú)立地依靠自身完成一切需要智力完成的任務(wù)和能夠依靠自己的能力來(lái)解決各種不同領(lǐng)域的復(fù)雜問(wèn)題的人工智能。強(qiáng)人工智能屬于人工智能體系里的高級(jí)發(fā)明,能夠獨(dú)立地進(jìn)行思考,申言之,強(qiáng)人工智能是一個(gè)通過(guò)適當(dāng)編程仿真大腦進(jìn)行智能工作從而達(dá)到與人類能力等同的人工智能。
3.超人工智能。超人工智能的智力和能力已經(jīng)遠(yuǎn)超所有人類,超人工智能可以獨(dú)立完成原本只能依靠人類自身完成的所有工作,甚至可以完成人類自身能力所不能完成的工作,是一種可以取代人類的人工智能。超人工智能在人工智能發(fā)展階段屬于頂級(jí),可以超越人類的科學(xué)進(jìn)行自我發(fā)展,不受人類控制。超人工智能的出現(xiàn)可能會(huì)給人類社會(huì)帶來(lái)毀滅性的災(zāi)難,其有可能會(huì)為了達(dá)成自己的某些目的而消滅人類,給人類社會(huì)帶來(lái)諸多威脅。
由于弱人工智能僅能起到輔助作用,只能作為工具而存在,沒(méi)有作為法律主體的可能性,而超人工智能的出現(xiàn)仍然遙遙無(wú)期甚至是否會(huì)出現(xiàn)還是個(gè)未知數(shù),目前以及未來(lái)相當(dāng)長(zhǎng)一段時(shí)間內(nèi)人工智能的發(fā)展技術(shù)主要集中在強(qiáng)人工智能,因此本文僅在強(qiáng)人工智能的范圍內(nèi)進(jìn)行討論人工智能是否應(yīng)當(dāng)被賦予民事主體資格。筆者認(rèn)為人工智能應(yīng)當(dāng)被賦予民事主體資格的理論構(gòu)建基礎(chǔ)點(diǎn)有以下兩個(gè)理由:第一,民事主體資格范疇具有“類型化”特征;第二,民事主體體系具有開(kāi)放性特征。
民事主體資格是指某種實(shí)體可以成為民法主體具有的最基本的法定條件,民事主體資格是一個(gè)范疇,而范疇作為一個(gè)概念系統(tǒng),包含著各種各樣的要素,這些構(gòu)成要素的關(guān)系結(jié)構(gòu)體現(xiàn)著范疇的本質(zhì),申言之,民事主體資格的本質(zhì)在于其各個(gè)構(gòu)成要素之間的關(guān)聯(lián)。民事主體資格范疇的構(gòu)成要素包含:“某種實(shí)體”“可以成為”“民事主體”等[13]??枴だ瓊惔脑f(shuō)過(guò):“只有當(dāng)列舉——描繪其特征的——全部要素得以清晰界定者,始能稱為嚴(yán)格意義的‘概念’[14]”。申言之,即該范疇所包含的要素可以被窮盡列舉之時(shí)就可以得出一個(gè)最終的概念。接下來(lái),筆者將會(huì)對(duì)民事主體資格范疇的三大構(gòu)成要素進(jìn)行分析。首先,“某種實(shí)體”中的“實(shí)體”,它是一個(gè)類型化的概念,因?yàn)閷?shí)體是無(wú)法被窮盡列舉的,自然人、法人、其他組織無(wú)疑是實(shí)體,動(dòng)物、植物、建筑物等等也是屬于實(shí)體的范疇。其次,“可以成為”的情景亦無(wú)法窮盡列舉,比如自然人從出生即享有民事權(quán)利能力可以成為民事主體;具有完全民事權(quán)利能力的自然人可以通過(guò)自己的意思表示成為民事權(quán)利義務(wù)的主體;無(wú)民事權(quán)利能力的自然人或者限制民事權(quán)利能力的自然人可以通過(guò)法定代理人的意思表示而成為民事權(quán)利義務(wù)的主體;具有完全民事權(quán)利能力的自然人可以根據(jù)自己的過(guò)錯(cuò)(可以分類)或者法律的規(guī)定(多種規(guī)定)成為民事責(zé)任的主體等。由此可得,“可以成為”包含以上所述的“直接成為”、“通過(guò)法定代理人的意思表示成為”“根據(jù)自己的過(guò)錯(cuò)成為”“根據(jù)法律的規(guī)定成為”等等,申言之,“可以成為”亦是一個(gè)類型化的要素。最后,“民事主體”,即民事法律關(guān)系的主體,而民事法律關(guān)系的內(nèi)容包含權(quán)利義務(wù)(責(zé)任),也就是說(shuō)民事主體可以分為權(quán)利主體、義務(wù)(責(zé)任)主體。梁慧星先生認(rèn)為“權(quán)利是得享受特定利益之法律上之力”[15],權(quán)利即是得到法律承認(rèn)并受其保護(hù)的利益。權(quán)利的內(nèi)容與種類并非一成不變,同樣無(wú)法被窮盡列舉,權(quán)利是一種類型而不是一個(gè)概念,自然而然權(quán)利主體也不可能被作為一個(gè)概念看待而應(yīng)該是一種類型。義務(wù)(責(zé)任)同理可證。綜上,民事主體資格的范疇基于“某種實(shí)體”、“可以成為”、“民事主體”這三大構(gòu)成要素的類型化特征而具有了類型化的特征。
從歷史上考察,民事主體體系是一個(gè)在變化著的、具有開(kāi)放性的體系。在羅馬法時(shí)期,只有具備相應(yīng)的身份才能作為法律主體,從一些羅馬法學(xué)家的作品中,我們可以推斷出“身份”指的是權(quán)力、權(quán)利和義務(wù)三者融合的結(jié)果,與其本身所屬的單位有著莫大的關(guān)系[16],根據(jù)權(quán)力、權(quán)利和義務(wù)的結(jié)合,大致可以分為以下五種身份:奴隸、自由人、非市民、市民、家父。在當(dāng)時(shí),奴隸是交易的對(duì)象,不是民事上的法律主體,不享有法律上的權(quán)利,也即是作為客體而存在。當(dāng)時(shí)的主體資格與身份掛鉤,不同的身份是成為不同的權(quán)利義務(wù)主體的資格要件。隨著基督教的傳播和近代啟蒙運(yùn)動(dòng)的興起,受個(gè)人主義思想的影響,民事主體制度也做出了相應(yīng)的調(diào)整。1804年《法國(guó)民法典》第8條規(guī)定:“所有法國(guó)人均享有民事權(quán)利?!贝藯l款表明當(dāng)時(shí)的法國(guó)已經(jīng)承認(rèn)所有的法國(guó)人都享有民事權(quán)利,標(biāo)志著民事主體由身份走向契約的開(kāi)始,但是此時(shí)的權(quán)利主體僅限于法國(guó)人,外國(guó)人并不一定能夠享有民事權(quán)利?!叭巳松降取钡乃枷胱钤鐚?shí)現(xiàn)于1811年的《奧地利普通民法典》第16條②。由該條文,可以得出全部自然人都已經(jīng)得到法律了認(rèn)可,所有的自然人都可以成為民事主體。
隨著時(shí)代的發(fā)展,立法者基于政治、經(jīng)濟(jì)和社會(huì)的原因,賦予了“法人”等組織體民事主體資格,從此非自然人便進(jìn)入到了民事主體的體系范圍之內(nèi)。“法人”等組織體作為民事主體,可以自主地參與到各種民事法律關(guān)系當(dāng)中,同時(shí)能夠獨(dú)立地享有權(quán)利與承擔(dān)義務(wù)。由此,不難看出,民事主體制度的發(fā)展經(jīng)歷了非所有自然人都是法律上的“人”到不僅包括所有自然人還包括其他組織體的存在,簡(jiǎn)而言之,即民事主體制度的發(fā)展經(jīng)歷了“人可非人”到“非人可人”的過(guò)程[17],在這一過(guò)程,我們可以看出,民事主體的類型是由自然人——法人的擴(kuò)展,同時(shí)也可以看出民事主體的范圍由部分本國(guó)自然人——本國(guó)所有自然人——外國(guó)人逐漸延伸,從而可以得出民事主體體系并不是一個(gè)封閉的體系,而是一個(gè)變化著的、開(kāi)放的體系。
贊同者試圖從民事主體資格范疇具有“類型化”特征以及民事主體體系具有開(kāi)放性來(lái)說(shuō)明人工智能成為民事主體是具有可能性的,并且為了一勞永逸地解決人工智能生成物的權(quán)屬、人工智能侵權(quán)責(zé)任分擔(dān)、以及法律職業(yè)替代的問(wèn)題,進(jìn)而得出人工智能應(yīng)當(dāng)被賦予民事主體資格的結(jié)論。但若僅僅如此,動(dòng)物也具有成為民事主體的可能性,再加諸各種表面理由,就會(huì)導(dǎo)致任何實(shí)體都可能且應(yīng)當(dāng)成為民事主體,到那時(shí),民事主體的范圍將會(huì)被無(wú)限擴(kuò)大。同時(shí),筆者認(rèn)為現(xiàn)如今的法律僅將自然人和部分自然人的組織體作為民事主體,不應(yīng)只是基于如此簡(jiǎn)單的理由,如果將“類型化”與開(kāi)放性作為民事主體資格學(xué)理建筑的立足點(diǎn),恐怕會(huì)根基不穩(wěn)。
在對(duì)人工智能被賦予民事主體資格有何不妥這一問(wèn)題進(jìn)行討論之前,筆者認(rèn)為需要對(duì)人工智能的法律性質(zhì)進(jìn)行界定。在我國(guó),對(duì)于人工智能是否能夠成為民事主體這一看法,目前是比較保守的。2017年國(guó)務(wù)院發(fā)布了《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,國(guó)家層面表現(xiàn)出來(lái)的態(tài)度是鼓勵(lì)和支持創(chuàng)新人工智能,利用人工智能的前沿技術(shù)來(lái)促進(jìn)社會(huì)的發(fā)展,并且是將人工智能的發(fā)展放入了國(guó)家戰(zhàn)略層面當(dāng)中。2018年我國(guó)發(fā)布了《人工智能標(biāo)準(zhǔn)化白皮書(shū)2018》,里面更是直接地將人工智能定義為一種系統(tǒng)③,從這里我們可以看出在我國(guó)國(guó)家層面上,人工智能是作為客體而存在。
在學(xué)界里,學(xué)者們對(duì)于人工智能的法律性質(zhì)暫無(wú)統(tǒng)一定論,主要可以分為兩大類,分別是主體說(shuō)和客體說(shuō)??腕w說(shuō)里的工具說(shuō)認(rèn)為人工智能是人類為生產(chǎn)生活應(yīng)用而創(chuàng)設(shè)的技術(shù),人工智能本質(zhì)上不帶有目的性、不能自發(fā)地去積累知識(shí),更是缺乏人類獨(dú)有的心性和靈性,究其根本,人工智能只能作為為人類服務(wù)的工具而存在。主體說(shuō)的分支較多,可以劃分為代理說(shuō)、電子人格說(shuō)、有限人格說(shuō)等等。代理說(shuō)將人工智能作為所有人的“代理人”,作為被代理人的所有人要承受代理行為所帶來(lái)的后果。電子人格說(shuō)提議創(chuàng)造一個(gè)新的民事主體——“電子人”,并且主張精密的自主機(jī)器人可以作為“電子人”,從而成為民事主體之一。有限人格說(shuō)認(rèn)為由于人工智能已經(jīng)具有獨(dú)立的意思表示能力,可以成為民事主體,但又因?yàn)槿斯ぶ悄艹袚?dān)的法律責(zé)任的能力是有限的,因此只能賦予其有限的人格。在主體說(shuō)里的分支學(xué)說(shuō)中,無(wú)論是代理說(shuō)、電子人格說(shuō)還是有限人格說(shuō)的立足點(diǎn)都是以人工智能已經(jīng)有獨(dú)立表達(dá)自身意思的能力為基礎(chǔ)。主體說(shuō)的分支都是認(rèn)為人工智能能夠獨(dú)立進(jìn)行意思表示,就應(yīng)該成為民事主體,享有相應(yīng)的權(quán)利,承擔(dān)相應(yīng)的義務(wù)。筆者認(rèn)為這是一個(gè)悖論,這是因?yàn)槿斯ぶ悄苁腔谒惴ǘ嬖诘?,但無(wú)論算法多么精準(zhǔn),都無(wú)法逃避算法是人為操作與植入的,也即人工智能生來(lái)就是帶有制造者的烙印,無(wú)論其如何獨(dú)立也無(wú)法獨(dú)立于設(shè)計(jì)者或者算法提供者,基于這一點(diǎn),主體說(shuō)就不攻自破了。因此,筆者較為認(rèn)可客體說(shuō)中“工具說(shuō)”的觀點(diǎn),這是因?yàn)槿斯ぶ悄茉诎l(fā)明之初就已經(jīng)明確其目的是更好地服務(wù)于人類,為人類的生活帶來(lái)便利,也即人工智能作為一種服務(wù)于人類、促進(jìn)人類發(fā)展的工具才最能體現(xiàn)其存在的意義。并且,我國(guó)乃至世界各個(gè)國(guó)家建立法律制度。其本質(zhì)都是為了維護(hù)作為一個(gè)獨(dú)立法律主體的人的權(quán)利和其要承擔(dān)的義務(wù)。在“人類中心主義”之下構(gòu)建的法律制度中,只有人類才能成為法律主體,一切非人類之有機(jī)物和無(wú)機(jī)物,均為人類權(quán)利之客體,人工智能也不應(yīng)例外,即使人工智能超越“奇點(diǎn)”達(dá)到超人工智能的要求[18]。上述種種皆是從表面得出人工智能不應(yīng)被賦予民事主體資格之論,而筆者認(rèn)為,欠缺作為民事主體的基本特征和法理基礎(chǔ)是人工智能被賦予民事主體資格最大的阻礙。
近現(xiàn)代的民事主體主要包括自然人以及法人等組織體,其建構(gòu)深受康德與黑格爾的“自由意志”理論的影響。民事主體是由法律所認(rèn)可的,不是由法律所創(chuàng)造的。那自然人和法人等組織體是如何被法律認(rèn)可從而成為法律主體的呢?根據(jù)康德和黑格爾的“自由意志”理論體系,“自由意志”是自然人得到法律認(rèn)可的基礎(chǔ),只有具備了“自由意志”的自然人才能成為法律上的主體,不具備“自由意志”的自然人不能獨(dú)立地行使權(quán)利、承擔(dān)義務(wù)。因?yàn)橹挥性凇白杂梢庵尽钡闹湎?,自然人才能在理性法則的約束下謀求自己的利益,從而為自己的行為負(fù)責(zé)。進(jìn)一步說(shuō),“自由意志”是選擇能力的基礎(chǔ),而選擇能力是作為主體而具有的最重要的特征。無(wú)論是何種目標(biāo)、利益和欲望,都是以選擇能力為前提的,選擇能力塑造了主體。申言之,自然人之所以能夠成為民事主體,是因?yàn)樽匀蝗藫碛小白杂梢庵尽辈⒖梢砸罁?jù)自己的自由意志做出選擇。而法人等組織體之所以能夠成為民事主體,是因?yàn)榉ㄈ说冉M織體的主體身份究其根本還是落實(shí)到自然人身上。組織體實(shí)際上是自然人的集合,是一群人的欲望的結(jié)合體,它是通過(guò)自然人的有機(jī)結(jié)合組成決策機(jī)關(guān)來(lái)形成統(tǒng)一的意志,這與自然人個(gè)人通過(guò)說(shuō)話表達(dá)自身的意思在本質(zhì)上是一樣的。德國(guó)社會(huì)學(xué)家斐迪南·滕尼斯認(rèn)為:“它(集會(huì))之所以能作為一個(gè)選擇意志的統(tǒng)一的主體采取行動(dòng),僅僅是因?yàn)樗旧戆鳛樽匀蝗说娜?,本身確定和假定他們多數(shù)一致的肯定或否定作為選擇意志——不是這些意見(jiàn)一致者的、也不是他們所有人的選擇意志,因?yàn)檫@二者總是只能產(chǎn)生很多的選擇意志,而是在這種想象之外和之上的、統(tǒng)一的、人格的本質(zhì)的(集會(huì)的)選擇意志。當(dāng)然,通過(guò)這種行動(dòng),集會(huì)就置于與自然人同等地位,平起平坐了[19]”。說(shuō)到這里,人們不禁懷疑既然都是自然人的行為,自然人已是法律主體了,為何還要讓法人等組織體成為民事主體,這是否是多此一舉。這時(shí)候,不得不說(shuō)在人類經(jīng)濟(jì)交易與社會(huì)發(fā)展的過(guò)程中,一群人辦事總比一個(gè)人辦事要容易一些,為了降低成本、擴(kuò)大收益,“法人”這一思想產(chǎn)物便應(yīng)運(yùn)而生了。由此可得,法人等組織體能夠得到法律的認(rèn)可而成為民事主體,其根本原因是因?yàn)樽匀蝗耸墙M織體的組成要素,自然人的“自由意志”延伸至組織體的決策與行動(dòng)中,組織體有自我選擇的能力,而且組織體的權(quán)利與義務(wù)最終也是落實(shí)到自然人之上,所以法人等組織體可以成為民事主體。而某些缺乏“自由意志”的自然人,諸如智力發(fā)展存在障礙的人士,則是源于法律的惻隱之心,且在行為能力方面,法律也對(duì)其做出了相關(guān)規(guī)定,以保護(hù)自然人更好地發(fā)展。
綜上,自然人與法人等組織體在被法律認(rèn)可為民事主體時(shí)具有一致性,即自然人與法人等組織體都具有“自由意志”。雖然在實(shí)證法上,“自由意志”不足以成為建構(gòu)民事主體的唯一理由,但起碼這是基礎(chǔ)要件,在實(shí)證法上,必須結(jié)合人類經(jīng)濟(jì)交易的發(fā)展以及社會(huì)交往的需要等現(xiàn)實(shí)情況,才能夠成為得到法律認(rèn)可的充分條件。
人工智能就如同上述所說(shuō),生來(lái)即有“成見(jiàn)”,無(wú)法擺脫人類設(shè)計(jì)的算法,也即無(wú)法脫離人類的意志而存在,沒(méi)有真正的獨(dú)立意思表示能力。人工智能缺乏自由的意志,而缺乏自由意志就沒(méi)有選擇的能力,因此,人工智能是一種不自由的存在,其并不具備讓法律認(rèn)可其為法律主體的基礎(chǔ)要件。還有聲稱人工智能具有“理性”的人們,似乎是忘記了理性是建立在感性的基礎(chǔ)之上的,鑒于人類心性的復(fù)雜程度,目前仍然沒(méi)人能夠說(shuō)清人類心性與感性是如何產(chǎn)生的,沒(méi)有感性的人工智能是無(wú)法真正做到“理性”的。由此,筆者認(rèn)為沒(méi)有自由、沒(méi)有理性的人工智能,只能是作為物而存在,只能作為工具來(lái)成就人類,只能作為自由意志選擇的對(duì)象,而不是作為主體而存在。
民主、自由、平等、博愛(ài)是構(gòu)成美好生活的基本要素,而人工智能在不自由的情況之下,賦予其民事主體資格是否會(huì)打破平等原則呢?羅爾斯與康德把人的平等歸于人的道德性??档抡J(rèn)為,道德性是人之平等的根本原因。在康德看來(lái),每個(gè)人都是有道德意識(shí)的,也即每個(gè)人都能意識(shí)到自己的行為是否道德,但卻并不是每個(gè)人都會(huì)遵守道德法則。無(wú)獨(dú)有偶,羅爾斯在繼承康德倫理哲學(xué)的同時(shí),提出了道德人格能力是人類實(shí)現(xiàn)平等的基礎(chǔ),包括善觀念能力和正義感能力,同時(shí)也強(qiáng)調(diào)了這是一種能力而不是實(shí)現(xiàn)。而人工智能作為一種生來(lái)并不具備道德性的存在,后天也沒(méi)有辦法擁有道德性這一能力,假如賦予了人工智能法律主體地位,即人工智能享有了與人類同等的地位,那么在法律上、道德上都應(yīng)該被人類平等地對(duì)待。但人類創(chuàng)造人工智能的目的是更好地為人類服務(wù),人工智能本質(zhì)上與人類地位就有差別以及不平等之分,申言之,人工智能無(wú)法與人類處于平等的法律地位。再有,世間萬(wàn)物,要么有一種價(jià)格,要么有一種尊嚴(yán),能用價(jià)格衡量的必定是可以取代的,而尊嚴(yán)是無(wú)法用價(jià)格衡量的,沒(méi)有任何物能與尊嚴(yán)產(chǎn)生等價(jià)關(guān)系。世間只有人才具有尊嚴(yán),因?yàn)橹挥腥瞬拍茏袷氐赖路▌t,具有道德性。而人工智能是可以用價(jià)格去衡量的,可以被買賣,可以被等價(jià)物所替代,由此可以看出,人工智能是沒(méi)有尊嚴(yán)的,沒(méi)有尊嚴(yán)的事物是不會(huì)遵守道德法則的,申言之,不具有道德性的人工智能無(wú)法與人類產(chǎn)生平等的關(guān)系。
如果賦予人工智能法律主體資格,那法律上所強(qiáng)調(diào)的“法律面前人人平等”之原則豈不是變成了空談?面對(duì)這個(gè)問(wèn)題,有學(xué)者提出了可以賦予人工智能“機(jī)器倫理”的想法。所謂的“機(jī)器倫理”即是“在人工智能中嵌入符合倫理原則的相關(guān)程序,使其能夠?yàn)槭褂谜咛峁﹤惱韼椭蛘呤谷斯ぶ悄茏陨砻鎸?duì)一些倫理問(wèn)題時(shí)做出相應(yīng)的倫理決策,這是一種內(nèi)在于人工智能的倫理”?!皺C(jī)器倫理”主張將道德行為進(jìn)行數(shù)字化,從而使得道德行為可以作為代碼輸入到人工智能的芯片之中,進(jìn)而使得人工智能具有與人類一樣的道德性,以達(dá)到實(shí)現(xiàn)人工智能與人類平等相處的目標(biāo)。在筆者看來(lái),“機(jī)器倫理”就像理想國(guó)、烏托邦一樣的存在。首先,“機(jī)器倫理”是建立在道德可計(jì)算的基礎(chǔ)之上的,機(jī)器倫理主張人類心理可計(jì)算,依據(jù)特殊的規(guī)則對(duì)其進(jìn)行計(jì)算[20],可“道德”本就是一個(gè)模糊的概念,如何能對(duì)一個(gè)模糊的概念進(jìn)行精準(zhǔn)化計(jì)算?即使真的采用了道德行為數(shù)字化,人工智能又能夠理解道德準(zhǔn)則背后的人文意義嗎?其次,“機(jī)器倫理”把人工智能作為道德主體,而道德主體不僅需要知道做什么事情是對(duì)的,做什么事情是錯(cuò)的,還要有承擔(dān)道德義務(wù)的能力,人工智能是沒(méi)有心智的存在,任何事情對(duì)其都沒(méi)有利害對(duì)錯(cuò)之分,只有是否符合程序規(guī)定之分,人工智能無(wú)法理解道德譴責(zé),也無(wú)法承擔(dān)道德上的義務(wù)。欠缺自由意志人工智能不具有成為道德主體的能力。最后,“機(jī)器倫理”賦予了人工智能道德性,與人類達(dá)到平衡的狀態(tài),也即人工智能與人類是平等,那么人工智能對(duì)于人類做出的命令是可以拒絕的,那么一個(gè)拒絕人類合理要求的人工智能有什么存在意義呢?
綜上,筆者認(rèn)為人工智能是不應(yīng)當(dāng)擁有道德人格能力或者道德性的,人工智能缺乏道德性,則無(wú)法在法律上與其他法律主體達(dá)到平等的狀態(tài),若是強(qiáng)行把人工智能認(rèn)定為民事主體,則會(huì)打破私法領(lǐng)域里的平等原則,從而使得美好生活的愿望落空。
法律之所以會(huì)產(chǎn)生,是因?yàn)槿耸亲杂傻?,而自由人在享有自身?quán)利的同時(shí)不可避免地侵犯到他人的權(quán)利。凡權(quán)利必有邊界,每個(gè)人讓渡自己部分權(quán)利,形成社會(huì)契約,產(chǎn)生社會(huì)秩序,處于共生狀態(tài)的人們不得不遵守大家之間彼此的約定。但是在社會(huì)分工之后,人們之間的共生狀態(tài)基本不存在了,由于利益的不一致,大家都想以最少的付出換取最多的成果,自發(fā)秩序已經(jīng)無(wú)法產(chǎn)生作用了,這個(gè)時(shí)候就需要一個(gè)大家公認(rèn)的秩序(法秩序)進(jìn)行社會(huì)交往,比如民法中的平等有償、誠(chéng)實(shí)守信建立起來(lái)的交易秩序。作為欲望主體的人類是法律規(guī)范調(diào)整的對(duì)象,而法人等組織體更是自然人欲望的延伸體現(xiàn),欲望越強(qiáng)烈,便越需要法律的約束。法律上的權(quán)利是人追求自身欲望的正當(dāng)化,權(quán)利是欲望在法律上的代名詞,自由欲望的主體也就是有著各種各樣權(quán)利訴求的主體[21]。人類具有心性,是感性、理性、欲望的結(jié)合體,是世界上最神秘的存在,人類研究本身的構(gòu)造本來(lái)就存在難度,而心性更是一種無(wú)法被科學(xué)解釋的存在,是復(fù)雜的,難以肢解的。人工智能是基于人類的認(rèn)識(shí)不斷深入而發(fā)展起來(lái)的,對(duì)于人類未知的領(lǐng)域,人工智能自然而然也無(wú)法發(fā)動(dòng)自身去探索。因此,人工智能是缺乏心性的,不會(huì)產(chǎn)生欲望,更不會(huì)產(chǎn)生任何的權(quán)利訴求。人工智能因?yàn)樽陨砣鄙賹?duì)欲望的追求,因而也無(wú)法成為利益的享有者、并進(jìn)一步的成為法律主體[22]。如果人工智能沒(méi)有享有其作為法律主體應(yīng)該享有的權(quán)利,卻要求人工智能承擔(dān)具有主體地位的法律義務(wù),這樣只會(huì)造成權(quán)利義務(wù)失衡的局面。
法律創(chuàng)造出來(lái)的法秩序依靠國(guó)家暴力機(jī)器對(duì)人們進(jìn)行威懾,具有雙重功能,即懲罰和保護(hù)。懲罰意味著不利的法律后果,判斷法律行為結(jié)果主要有兩個(gè)標(biāo)準(zhǔn):一是行為給社會(huì)造成的影響;二是該結(jié)果具有法律意義[23]。人工智能作為一種沒(méi)有欲望的存在,任何事物于其都沒(méi)有利害之分,所以對(duì)于人工智能來(lái)說(shuō),對(duì)其進(jìn)行法律上的懲罰毫無(wú)必要,因?yàn)楸O(jiān)獄、看守所等暴力手段對(duì)其根本不起震懾作用,更不用提賠償損失等民事責(zé)任了,也談不上人工智能會(huì)認(rèn)識(shí)該行為對(duì)社會(huì)造成的影響。退一步講,人工智能如果發(fā)展到一定階段而擁有了“欲望”,在面對(duì)法律的苛責(zé)時(shí),人工智能又是如何承擔(dān)現(xiàn)行法律專門(mén)為人類打造的懲罰措施的呢?此時(shí),法律的懲罰功能則變得形同虛設(shè)了。如果賦予人工智能有限的人格使其成為法律主體,在其違反法律義務(wù)之時(shí),僅是讓其承擔(dān)有限的責(zé)任諸如賠償損失之類,其他法律責(zé)任則由人工智能的擁有者或者使用者所承擔(dān),即實(shí)際上真正承擔(dān)法律不利后果的并不是人工智能本身。因?yàn)橘r償損失并不會(huì)對(duì)人工智能本身造成任何實(shí)質(zhì)性的影響,錢(qián)財(cái)對(duì)人工智能而言只是一堆符號(hào)與廢紙,錢(qián)財(cái)?shù)膶?shí)際擁有者是其背后的使用者或者所有者,如此一來(lái),人工智能被認(rèn)定為民事主體這一舉措并沒(méi)有任何意義。
懲罰不是法律的最終目的,教育才是法律的終極目標(biāo)。人類對(duì)法律是可知可識(shí)可理解的,而人工智能只能做到可知可識(shí)而不能做到可理解,不能理解法律,也就必然不會(huì)對(duì)法律有著尊重的態(tài)度,更不必談敬畏。缺乏對(duì)法律的尊重與敬畏,又如何能要求人工智能去遵守法律、維護(hù)法律秩序,也即法律存在的價(jià)值會(huì)被大打折扣。
綜上,創(chuàng)制法律是為了規(guī)范人類的行為,法律是根據(jù)人類的特有屬性而創(chuàng)制的,它只能在人類中適用,強(qiáng)行在人工智能當(dāng)中運(yùn)用,只會(huì)造成“水土不服”。筆者認(rèn)為現(xiàn)行的法律并沒(méi)有賦予人工智能以主體地位的空間,否則法律就不再是法律了,而是一堆散落在墻角無(wú)用的文件。在法律不再起作用的時(shí)候,也即意味著法律的價(jià)值已然窮盡,整個(gè)人類世界的秩序也終將會(huì)被打破。
結(jié)合以上所述的幾點(diǎn)理由之外,筆者認(rèn)為發(fā)明人工智能并不是為了讓人工智能與人類等同或者說(shuō)是取代人類,發(fā)明人工智能最初以及最后的目的應(yīng)當(dāng)且只能是為了解放人類的雙手,與人類智能進(jìn)行互補(bǔ),讓人類過(guò)上美好的生活。因此,筆者認(rèn)為作為“好幫手”的人工智能是不應(yīng)當(dāng)被認(rèn)定為民事主體的,至少現(xiàn)階段是不適宜的。正如吳漢東教授所認(rèn)為:“凡是可以描述的、重要的、有固定規(guī)則和標(biāo)準(zhǔn)答案的工作崗位,都有被智能機(jī)器人取代的可能[24]”。同時(shí),根據(jù)卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University)的機(jī)器人科學(xué)家漢斯莫拉維茨(Hans Moravec)做出了大膽而有根據(jù)的預(yù)測(cè):“2040年后,機(jī)器人將成為人類思想的繼承者,甚至到2050年超過(guò)人類[25]”,從而表明了人工智能在將來(lái)?yè)碛袕V闊的發(fā)展空間,待未來(lái)人工智能擁有了與人類同樣的心性之后,并不排除人工智能能夠擁有法律上的主體地位,但就現(xiàn)階段而言,當(dāng)前在立法上賦予人工智能機(jī)以法律主體地位的立法條件并不成熟。其次,人工智能發(fā)展迅速,其未來(lái)是我們無(wú)法預(yù)料的,即使法律曾經(jīng)有過(guò)超前立法,但是從總體上來(lái)看,法律明顯是滯后的,不可能通過(guò)法律來(lái)規(guī)制將來(lái)發(fā)生的事情,從這一點(diǎn)上看,也不應(yīng)當(dāng)賦予人工智能以法律主體地位。最后,筆者還想強(qiáng)調(diào)一點(diǎn),法律作為人類主體特有的調(diào)整人與人之間關(guān)系的社會(huì)規(guī)范,它可以說(shuō)是保護(hù)人類最后的防線,如果人類為了一時(shí)的方便,而將人工智能作為法律主體納入保護(hù)的范圍,其不僅將面臨著國(guó)內(nèi)法的重新規(guī)劃,還有全球國(guó)際法的重構(gòu),我們無(wú)法預(yù)料將來(lái)人工智能會(huì)發(fā)展到哪個(gè)階段,如果現(xiàn)階段在法律上賦予人工智能主體地位,沒(méi)有在一定程度上對(duì)人工智能這一類新生事物進(jìn)行法律限制,那么人類將會(huì)失去保護(hù)自身至高無(wú)上地位的法律武器。
注釋:
①參見(jiàn)李愛(ài)君.人工智能法律行為論[J].政法論壇,2019,37(3):176-183.李愛(ài)君教授從法律價(jià)值層面和法的結(jié)構(gòu)層面對(duì)人工智能是研發(fā)者、制造者和使用者的法律行為,從而可以看出李愛(ài)軍教授是不贊同人工智能成為民事法律主體的。參見(jiàn)孫占利.智能機(jī)器人法律人格問(wèn)題論析[J].東方法學(xué),2018(3):10-17.孫占利教授認(rèn)為對(duì)于智能機(jī)器人的法律人人格問(wèn)題,仍需要遵循“最小化原則”和“程序化原則”,盡力將已經(jīng)存在的法律適用到人工智能時(shí)代,盡量在最小程度上對(duì)人工智能制訂新的法律,盡可能通過(guò)程序性的技術(shù)改造來(lái)適用已有的法律,以清楚法律障礙或者明確關(guān)系,進(jìn)而提出“工具論”仍然是當(dāng)前解釋和適用法律的方式。
②1811年的《奧地利普通民法典》第16條:“每個(gè)生物學(xué)意義上的人都享有與生俱來(lái)因?yàn)楸豢醋鞣缮系娜说臋?quán)利。奴隸制、奴役以及以奴隸制和奴役為依據(jù)的權(quán)力行使,禁止之。”
③利用數(shù)字計(jì)算機(jī)或者數(shù)字計(jì)算機(jī)控制的機(jī)器模擬、延伸和擴(kuò)展人的智能,感知環(huán)境、獲取知識(shí)并使用知識(shí)獲得最佳結(jié)果的理論、方法、技術(shù)及應(yīng)用系統(tǒng)。