唐辰明
2017年作為“人工智能年”,引發(fā)了社會(huì)各界對(duì)于人工智能的一系列展望和擔(dān)憂。無(wú)論是無(wú)人駕駛責(zé)任問(wèn)題、機(jī)器人創(chuàng)作物問(wèn)題,還是數(shù)據(jù)歧視與隱私侵權(quán)等問(wèn)題,都體現(xiàn)了人工智能體法律人格方面的爭(zhēng)議。智能機(jī)器人能不能具有法律意義上的“人格”?如果答案是肯定的,也許會(huì)藉由其強(qiáng)力的數(shù)據(jù)廣度和計(jì)算能力一舉成為“超人類”并引發(fā)一系列安全問(wèn)題、倫理問(wèn)題與道德問(wèn)題等;如果答案是否定的,那么一些高智能機(jī)器人可能會(huì)因此逃避一系列責(zé)任,亦或相反,高智能機(jī)器人可能會(huì)因?yàn)榉傻匚徊幻鞫艿交緳?quán)利方面的侵害。從宏觀角度看,人工智能技術(shù)一方面提高了人類的行為效率,在生產(chǎn)、社會(huì)管理等多個(gè)領(lǐng)域都體現(xiàn)出其強(qiáng)大的生命力和應(yīng)用潛能;另一方面,也體現(xiàn)出了新技術(shù)對(duì)人類“意識(shí)”層面上的突破,無(wú)論從傳統(tǒng)的生產(chǎn)機(jī)器人到機(jī)器人撰寫詩(shī)歌,還是從普通的算法到阿爾法狗下棋,都凸顯了人工智能技術(shù)這一無(wú)法避免和阻攔的趨勢(shì),并開始了從“行為”到“意識(shí)”的發(fā)展。傳統(tǒng)的法律規(guī)則與理論似乎已經(jīng)不足以對(duì)人工智能體人格與法律定位問(wèn)題進(jìn)行有效調(diào)整,同時(shí)社會(huì)各領(lǐng)域都對(duì)這類人格問(wèn)題提出了完善訴求,使得人工智能體的人格認(rèn)定、法律定位等問(wèn)題被提高到了十分重要的位置。①郭寧:《“互聯(lián)網(wǎng)+”時(shí)代背景下人工智能面臨的法律挑戰(zhàn)》,《特區(qū)經(jīng)濟(jì)》2018年第8期。
人工智能技術(shù)的發(fā)展,對(duì)整個(gè)社會(huì)的不同領(lǐng)域、不同群體都產(chǎn)生了諸多影響,理應(yīng)在考慮到各方面因素變化的基礎(chǔ)上,理性分析人工智能對(duì)現(xiàn)行法律制度和社會(huì)運(yùn)行體系的沖擊,并明晰其邏輯機(jī)理。這是一項(xiàng)形似邏輯清晰卻又復(fù)雜龐大的系統(tǒng)性工程,需要在哲學(xué)與倫理層面上明晰人工智能體的主體性地位,在社會(huì)層面上明確人工智能技術(shù)所訴求的實(shí)效性標(biāo)準(zhǔn),并在法理層面上確定相關(guān)法律關(guān)系的邏輯結(jié)構(gòu),而社會(huì)、哲學(xué)與倫理訴求最終應(yīng)當(dāng)通過(guò)完善正當(dāng)?shù)姆尚螒B(tài)體現(xiàn)出來(lái)。
一般來(lái)說(shuō),“人工智能”更多體現(xiàn)的是一種包含了計(jì)算機(jī)、機(jī)器人、語(yǔ)音圖像及文字識(shí)別、自然語(yǔ)言處理等的新型技術(shù),或者說(shuō)是一門新興科學(xué)。而人工智能體法律人格問(wèn)題所涉及的“人工智能”這一表述,則更多地是利用上述技術(shù)所創(chuàng)造出的類人化的智能體、社會(huì)實(shí)在,而非前述的技術(shù)與科學(xué)。有關(guān)這類“智能體”的法律定位問(wèn)題,與法律人格的研究事實(shí)上是同質(zhì)的。人工智能體的法律人格存在與否決定著其能否具有法律上的主體地位以進(jìn)行社會(huì)活動(dòng)和法律行為。
宏觀地看,上至1942年阿西莫夫機(jī)器人學(xué)三定律的提出,下到近年來(lái)人工智能在多領(lǐng)域?qū)θ祟惿鐣?huì)與機(jī)能提出的挑戰(zhàn),有關(guān)人工智能體在自然、社會(huì)和法律等方面的人格與定位爭(zhēng)論一直沒(méi)有停息。論者們從不同角度如哲學(xué)、道德、社會(huì)風(fēng)險(xiǎn)、法理等入手,對(duì)人工智能體的思維、意識(shí)、自我、社會(huì)性等多個(gè)方面進(jìn)行了探討,討論的結(jié)果卻是仁者見仁。電子人、電子代理人、擬制人、電子工具論等概念,體現(xiàn)了學(xué)界對(duì)人工智能發(fā)展現(xiàn)狀與自然本質(zhì)的不同看法。總結(jié)看來(lái),已有的代表性觀點(diǎn)可主要分為三類,即法律人格說(shuō)(主體說(shuō))、有限人格說(shuō)及客體說(shuō)。
法律人格說(shuō)、主體說(shuō)完全地或較大程度地承認(rèn)人工智能的法律主體地位,并提倡賦予人工智能以法律意義上的人格。2017年10月26日,沙特阿拉伯王國(guó)授予由美國(guó)漢森公司(Hanson Robotics)研制的智能機(jī)器人索菲亞(Sophia)以公民身份,沙特阿拉伯王國(guó)也因此成為了第一位授予智能機(jī)器人以公民身份的國(guó)家。以此為基礎(chǔ),諸多學(xué)者提出了為高智能機(jī)器人提供法律主體地位與法律人格的呼吁,如賀栩溪認(rèn)為,在對(duì)人工智能進(jìn)行科學(xué)分類后,對(duì)強(qiáng)人工智能賦予法律主體地位具有一定科學(xué)性,但需要在實(shí)際操作中施加一定限制,即“先分類,再確認(rèn)”。①賀栩溪:《人工智能的法律主體資格研究》,《電子政務(wù)》2019年第2期。朱靜潔認(rèn)為,在分析了智能機(jī)器人的認(rèn)知與行為理性后,有必要在刑事責(zé)任層面確認(rèn)其主體地位與法律人格,并應(yīng)當(dāng)將其理性程度作為標(biāo)準(zhǔn),分為無(wú)刑事責(zé)任能力、相對(duì)有刑事責(zé)任、完全刑事責(zé)任三類主體,即“先確認(rèn),再分類”。②朱靜潔:《智能機(jī)器人的刑事責(zé)任主體論》,《電子政務(wù)》2019年第1期。盡管主體說(shuō)承認(rèn)人工智能體的主體地位,但該說(shuō)要求對(duì)人工智能體的法律地位進(jìn)行分類管理和規(guī)制,無(wú)論是先分類再確認(rèn),還是先確認(rèn)再分類,都體現(xiàn)了區(qū)別處理的態(tài)度與訴求,這一理論具有相當(dāng)?shù)膯⑹拘裕驗(yàn)樽匀蝗艘灿兄耆袨槟芰εc限制行為能力等方面的分類,在發(fā)展不一、種類相異的智能體群體中,希冀對(duì)其進(jìn)行統(tǒng)一類別監(jiān)管與處理,是沒(méi)有意義、沒(méi)有可行性的?;诖?,對(duì)于人工智能體人格問(wèn)題的研究,應(yīng)當(dāng)將“類型化”納入考慮,但相關(guān)的分類標(biāo)準(zhǔn)則需要進(jìn)一步探討。
有限人格說(shuō)的分析重點(diǎn)在于承認(rèn)人工智能體一定限度的法律主體地位和人格地位,嚴(yán)格探討了人工智能體與自然人之間的理性差距與意識(shí)差異。如楊清望和張磊認(rèn)為,傳統(tǒng)法律人格不能當(dāng)然地套用到人工智能體之上。他們強(qiáng)調(diào),需要從人類主體原則出發(fā),運(yùn)用法律擬制的手段賦予人工智能體特殊的法律地位,如借鑒法人制度、運(yùn)用登記備案制度完善人工智能體的責(zé)任體制。這樣一方面有利于促進(jìn)人工智能體、人工智能相關(guān)技術(shù)為人類更好地服務(wù),另一方面有利于確保“超人類”主體不會(huì)出現(xiàn)。③楊清望、張磊:《論人工智能的擬制法律人格》,《湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第6期。張玉潔認(rèn)為,機(jī)器人也有權(quán)利,這是社會(huì)發(fā)展的結(jié)果,也是權(quán)利發(fā)展史的正常運(yùn)行方向。人工智能體具有法律擬制性、利他性和功能性(工具性),是社會(huì)活動(dòng)的產(chǎn)物。這一權(quán)利體系與自然人不同,使得人工智能體只能具有有限的法律主體地位。④張玉潔:《論人工智能時(shí)代的機(jī)器人權(quán)利及其風(fēng)險(xiǎn)規(guī)制》,《東方法學(xué)》2017年第6期。另外,還有觀點(diǎn)為人工智能賦予“電子代理人”或“電子人格”等身份,代理說(shuō)將機(jī)器人作為人工智能體,其具有目的性、有限人格性。⑤Samir Chopra,Laurence F White,”A Legal Theory for Autonomous Artificial Agents”,Michigan: Michigan University of Michigan Press,vol.37,no.8(July 2011),pp.36-43.而電子人格說(shuō)認(rèn)為,機(jī)器人就像未成年人一樣,其具有法律人格但有欠缺,如歐盟通過(guò)的《歐盟機(jī)器人民事法律草案》第59 f條款。依此規(guī)定,歐盟提出了一個(gè)新的類別,即“電子人”。
客體說(shuō)或工具說(shuō)則堅(jiān)決否認(rèn)人工智能的主體地位與法律上的人格。工具論者強(qiáng)調(diào)的是人工智能體的“人工”特性、工具性,否認(rèn)其接近人類、甚至超越人類的“智能”特性。人本主義的哲學(xué)觀在此發(fā)揮得淋漓盡致,人的自然主體和社會(huì)主體地位在客體理論和工具理論里得到了堅(jiān)決的捍衛(wèi)。方芳認(rèn)為,人工智能體暫時(shí)不適合被賦予法律人格與法律主體地位,其以自動(dòng)駕駛汽車為例,自駕汽車等人工智能不具有獨(dú)立的意思表示,沒(méi)有獨(dú)立的利益,也就不能承擔(dān)起相應(yīng)的法律責(zé)任。故人工智能體暫時(shí)僅適宜作為“產(chǎn)品”予以看待。①方芳:《自動(dòng)駕駛汽車法律地位分析》,《智能城市》2018年第9期。李楊、李曉宇采用康德“主客體統(tǒng)一認(rèn)識(shí)論”和“人是目的”的哲學(xué)觀點(diǎn),強(qiáng)調(diào)了人工智能體與人工智能技術(shù)的工具性特征,并進(jìn)一步闡述人工智能體生產(chǎn)物的歸屬,應(yīng)當(dāng)屬于雇主或者委托人,人工智能體本身不能成為真正意義上的“作者”,僅僅是被利用的工具。②李揚(yáng)、李曉宇:《康德哲學(xué)觀點(diǎn)下人工智能生成物的著作權(quán)問(wèn)題探討》,《法學(xué)雜志》2018年第9期。在責(zé)任承擔(dān)方面,Ashrafian認(rèn)為,機(jī)器人僅是權(quán)利的客體。這是目前各國(guó)立法、司法普遍接受的觀點(diǎn),致害路徑是決定該機(jī)器人的所有人(占有人)承擔(dān)責(zé)任的關(guān)鍵。③Hutan Ashrafian,”Artificial Intelligence and robot Responsibilities: Innovating BeyondRights”,Science and Engineering Ethics,vol.21,no.2(February 2015),pp.317-326.劉洪華認(rèn)為,現(xiàn)階段的人工智能體的“智能”并未超出人類理性,仍屬于人類的工具性范疇,且隱含著巨大的風(fēng)險(xiǎn),應(yīng)當(dāng)作為法律客體中的特殊物予以保護(hù)與規(guī)制。④劉洪華:《論人工智能的法律地位》,《政治與法律》2019年第1期。總體看來(lái),工具說(shuō)認(rèn)為人工智能體產(chǎn)生于人,受人掌控,或者說(shuō)人工智能體充其量?jī)H是人的延伸物。⑤陳鵬:《人工智能人格權(quán)確認(rèn)的道德風(fēng)險(xiǎn)和法律困境》,《西部法學(xué)評(píng)論》2018年第6期。
無(wú)論是法律人格說(shuō)、客體說(shuō),還是有限人格說(shuō),都提出了相當(dāng)有力的論證材料和邏輯依據(jù)。但已有的不同觀點(diǎn)和流派都有其不足之處,需要加以完善與提升。首先,大前提方面,現(xiàn)有研究對(duì)人工智能體人格賦予條件未做出充分的分析研究。其次,小前提方面,已有研究未對(duì)人工智能體的本質(zhì)內(nèi)涵與特征進(jìn)行系統(tǒng)化的梳理,如人工智能體的主體性、工具性價(jià)值,以及二者之間的聯(lián)系、比例等,并未將其與人格賦予條件作出有效對(duì)比。再次,結(jié)論方面,現(xiàn)有研究的人工智能體人格分析結(jié)果較為絕對(duì)。根據(jù)人工智能體內(nèi)部所包含主體性的強(qiáng)弱不同,其法律主體地位適格性也就不同,完全將其歸為某種法律地位范疇實(shí)有不妥。也就是說(shuō),人工智能體“類型化”的研究工作在學(xué)界尚未完全展開,而這卻恰是人工智能體人格問(wèn)題研究的關(guān)鍵點(diǎn)之一。最后,基于已有結(jié)論,未進(jìn)行相應(yīng)的配套設(shè)施構(gòu)建。
筆者認(rèn)為,對(duì)人工智能體人格問(wèn)題的進(jìn)一步研究,應(yīng)當(dāng)沿用有限主體說(shuō)、擬制主體說(shuō)的綜合化、比例化思維,另采用嚴(yán)格與科學(xué)的分類依據(jù)對(duì)現(xiàn)有的人工智能體進(jìn)行類型化分析,并在不同類別、層級(jí)上討論其有限的權(quán)利、責(zé)任與法律特征,并重視人工智能體的智能性與工具性,為中國(guó)智能產(chǎn)業(yè)、智慧化產(chǎn)業(yè)的進(jìn)一步發(fā)展與應(yīng)用提供長(zhǎng)效的法律保障體系與正當(dāng)性依據(jù)。法學(xué)研究對(duì)人工智能人格問(wèn)題的回應(yīng),至少應(yīng)解決以下問(wèn)題:其一,人格的法理基礎(chǔ)為何,亦即賦予人工智能體法律人格、法律主體地位的條件為何;其二,人工智能體的內(nèi)涵、本質(zhì)及特征為何,其是否符合人格的賦予條件、是否滿足人格賦予的法理基礎(chǔ)要求;其三,在進(jìn)行人工智能的人格判定、法律定位后,相應(yīng)的配套設(shè)施如分類管理、登記注冊(cè)等應(yīng)當(dāng)如何構(gòu)建。
法律人格的認(rèn)定決定了人工智能體在現(xiàn)代社會(huì)的法律地位,并將進(jìn)而影響到人工智能產(chǎn)業(yè)乃至宏觀社會(huì)生產(chǎn)、運(yùn)行與治理模式等的前進(jìn)方向。為分析人工智能體法律人格問(wèn)題的本質(zhì)與根源,應(yīng)當(dāng)從人格的內(nèi)涵、賦予人格地位的條件等角度出發(fā),并結(jié)合人工智能體不同于傳統(tǒng)人類創(chuàng)造物的本質(zhì)特征,尋求其理論矛盾誘因所在。
“人格”的概念最初是運(yùn)用在心理學(xué)領(lǐng)域,即包含性格、心理特征等的統(tǒng)一的、穩(wěn)定的結(jié)構(gòu)整體。法文中的“personnalité”、英文中的“personality”都指“人格”,并都來(lái)源于拉丁文“persona”,即“面具”的意思?,F(xiàn)代心理學(xué)認(rèn)為,人格的存在意義包括兩個(gè)部分,即人的社會(huì)外在表現(xiàn)即“外殼”與不為人知的“真實(shí)自我”。后者在社會(huì)心理學(xué)中,更多地體現(xiàn)的是人的心理特征和“個(gè)性”所在。①[美]伯格:《人格心理學(xué)》,陳會(huì)昌等譯,北京:中國(guó)輕工業(yè)出版社,2010年,第10頁(yè)。而后,法學(xué)領(lǐng)域逐漸豐富了人格的內(nèi)涵,處于樞紐地位的理論即為托馬斯·阿奎那的觀點(diǎn),即將人格與人的尊嚴(yán)聯(lián)系在一起,而這就具有了基本權(quán)利的屬性。②[意]托馬斯·阿奎那:《論存在者與本質(zhì)》,段德智譯,北京:商務(wù)印書館,2013年,第18頁(yè)。在法學(xué)范疇中,人格分析并非單純的對(duì)個(gè)性等心理學(xué)因素的研究,其更多的是通過(guò)“人格權(quán)”體現(xiàn)出來(lái)。
法學(xué)層面上的人格與人格權(quán)使得個(gè)體具有了權(quán)利義務(wù)主體的地位。人格權(quán)在羅馬法上體現(xiàn)出分離性、自然性和公法性。其中分離性指的是人格屬于“人身”中的“人”,與“身份”是分離的,并根據(jù)此進(jìn)行資源的分配;自然性體現(xiàn)了人格的天賦屬性。羅馬法中的公法性主要體現(xiàn)了平民和奴隸、市民和外邦人等的區(qū)別上。③[英]巴里·尼古拉斯:《羅馬法概論》,黃風(fēng)譯,北京:法律出版社,2010年,第36頁(yè)。而法國(guó)《拿破侖民法典》則較之羅馬法更加注重人格權(quán)的私法屬性,大革命后,其人格權(quán)、法律人格更多地體現(xiàn)了古典自然法思想。④[法]狄驥:《拿破侖法典以來(lái)私法的普通變遷》,徐砥平譯,北京:中國(guó)政法大學(xué)出版社,2003年,第28頁(yè)。根據(jù)法國(guó)民法典第8條的規(guī)定,可以看出人類法律史上人格平等的格局已經(jīng)開始顯現(xiàn)。⑤馬俊駒:《人與人格分離技術(shù)的形成、發(fā)展和變遷》,《現(xiàn)代法學(xué)》2006年第4期?!度藱?quán)宣言》也是如此,私法領(lǐng)域的自由、平等思想原則以及相應(yīng)的人權(quán)觀體現(xiàn)得淋漓盡致。⑥黃金榮:《人權(quán)膨脹趨勢(shì)下的人權(quán)概念重構(gòu)——一種國(guó)際人權(quán)法的視角》,《浙江社會(huì)科學(xué)》2018年第10期。除這一點(diǎn)外,羅馬法中分離性與天賦的思想和人格權(quán)特征則承繼了下來(lái)。
另外,自為、自主等主體性原則內(nèi)容在相關(guān)經(jīng)典理論中也顯現(xiàn)得十分充分,如在黑格爾的實(shí)體性理論看來(lái),人格是人所以為人的社會(huì)性體現(xiàn),而一種作為運(yùn)動(dòng)著的精神的、主體與客體合二為一的實(shí)體,即為“人”。黑格爾的觀點(diǎn)成為了德國(guó)民法典的理論基礎(chǔ),其認(rèn)為自我意識(shí)從絕對(duì)精神這個(gè)世界本體中獲得自在自為性,就是人作為主體的原因。⑦[德]黑格爾:《精神現(xiàn)象學(xué)(下)》,賀麟、王玖興譯,北京:商務(wù)印書館,1976年,第301頁(yè)。馬克思突破和發(fā)展了黑格爾的純主觀精神存在,基于唯物主義立場(chǎng)出發(fā),認(rèn)為人是既有目的性又有物質(zhì)性的實(shí)踐個(gè)體,即“人使自己的生命活動(dòng)本身變成自己意志的和自己意識(shí)的對(duì)象”⑧林鋒:《重讀馬克思:〈1844年經(jīng)濟(jì)學(xué)哲學(xué)手稿〉前沿問(wèn)題新探》,北京: 中央編譯出版社,2018年,第63頁(yè)。。也就是說(shuō),馬克思主義理論對(duì)于“人”的論述,一個(gè)最主要的特征就是從主體的角度看待人,從理性出發(fā)推導(dǎo)出人與外部世界的對(duì)立統(tǒng)一關(guān)系,以及作為“主體”的自由屬性。同時(shí),這一自由屬性是不包含工具性的。縱觀人類漫長(zhǎng)的歷史長(zhǎng)河,在剝削、統(tǒng)治甚至屠殺面前,人更多感受到的是工具性而不是主體性。⑨郭湛:《主體性哲學(xué):人的存在及其意義》,昆明:云南人民出版社,2002年,第1頁(yè)。也就是說(shuō),擁有完整人格的人應(yīng)當(dāng)視自我為目的,而非工具;一旦摻雜了部分工具性價(jià)值,人格就無(wú)法完整。如此看來(lái),“主體性”條件是討論人或人格的首要條件。
上述內(nèi)容體現(xiàn)了社會(huì)存在獲得法律人格的實(shí)質(zhì)性條件所在。第一,其需要具備主體性,即包含了個(gè)人性格特征、心理因素的自主自為性,并具有一定自然與道德屬性。第二,分離性,即人格“面具”與人身的分離,法人的法律人格擬制技術(shù)即為此類。法律將人格面具戴在法人這一非自然人主體上,形成了有限主體的法律模式。之所以能在法人概念上運(yùn)用法律擬制技術(shù),就是因?yàn)槿烁竦目煞蛛x性、法人能用自己的名義行使相應(yīng)的法律權(quán)利并承擔(dān)社會(huì)角色。第三,基本權(quán)利和民法權(quán)利的二重性。中國(guó)民法典人格權(quán)編的相應(yīng)具體人格權(quán)規(guī)定、憲法第三十八條人格權(quán)基本權(quán)利規(guī)定等,通過(guò)基本權(quán)利的客觀法屬性聯(lián)系在一起,并進(jìn)行價(jià)值的擴(kuò)散與互動(dòng)。⑩張善斌:《民法人格權(quán)和憲法人格權(quán)的獨(dú)立與互動(dòng)》,《法學(xué)評(píng)論》2016年第6期?;诖?,應(yīng)當(dāng)進(jìn)一步對(duì)人工智能體的相關(guān)特征、條件滿足程度進(jìn)行更為細(xì)致的研判,并進(jìn)行比較分析。
對(duì)于人工智能體,雖然在不同學(xué)科具有不同的定義,但各界對(duì)其概念特征形成了一項(xiàng)共識(shí),即人工智能科學(xué)研究的根本目的是模擬和延伸自然人類的智能,而其直接目的可能是提高社會(huì)運(yùn)行效率、實(shí)現(xiàn)資源更優(yōu)配置等等。將人工智能體的表述拆解,“人工”的定義并不具有較大的爭(zhēng)議,“智能體”中的“智能”則具備了多學(xué)科、多領(lǐng)域的理論與知識(shí)技藝。智能涉及了意識(shí)、思維等概念,并應(yīng)當(dāng)結(jié)合人工智能技術(shù)的發(fā)展現(xiàn)狀及其特征進(jìn)行分析,基于此可得人工智能技術(shù)與人工智能體的本質(zhì)特征。
其一,人工智能體本身具備主體性價(jià)值。主體性即某類存在作為世界的主體而具有的那部分價(jià)值,或者說(shuō)人所為人的本質(zhì)特征。①郭湛:《主體性哲學(xué):人的存在及其意義》,第1頁(yè)。根據(jù)馬克思主義經(jīng)典理論,人之為人所遵循的主體性原則包含著一些基本的內(nèi)容,如能動(dòng)性、受動(dòng)性、自主性、自為性和交互性。②李志軍、楊哲:《論五大發(fā)展理念的人民主體性價(jià)值》,《寧夏社會(huì)科學(xué)》2017年第2期。這些原則性內(nèi)容亦既判斷人格性的五個(gè)根本維度,其中,能動(dòng)性體現(xiàn)了一種創(chuàng)造能力,受動(dòng)性體現(xiàn)了創(chuàng)造與能動(dòng)過(guò)程中所需要受到的限制性條件,自主性體現(xiàn)了人的學(xué)習(xí)與自由發(fā)揮能力,自為性體現(xiàn)的是目的的實(shí)現(xiàn),而交互性則體現(xiàn)了廣泛地、擴(kuò)張地對(duì)地方性的突破。反觀人工智能體,其雖然未形成完整的人的意識(shí),但在主體性原則范疇,人工智能體仍然符合一定程度上的判斷基準(zhǔn)。其根據(jù)數(shù)據(jù)存儲(chǔ)與應(yīng)用,藉由算法形成的具有創(chuàng)造性的作品與行為,具備著一定程度上的能動(dòng)性,如人工智能體創(chuàng)造的詩(shī)歌;人工智能體的行為在具有創(chuàng)造性的同時(shí),暫無(wú)法突破設(shè)計(jì)者和所有者對(duì)其設(shè)下的目標(biāo)枷鎖,仍屬于受制約的階段,也符合受動(dòng)性的要求;機(jī)器學(xué)習(xí)(machine learning)作為人工智能體的核心,使其在學(xué)習(xí)中突破傳統(tǒng)經(jīng)驗(yàn),改善已有算法,體現(xiàn)了一定的自主性;交互性在整個(gè)人工智能領(lǐng)域體現(xiàn)得更為淋漓盡致,人工智能藉由數(shù)據(jù)網(wǎng)絡(luò)實(shí)現(xiàn)的平臺(tái)化信息處理機(jī)制,在交互與共享方面甚至已經(jīng)超過(guò)人類。也就是說(shuō),人工智能體是符合主體性原則、具有一定程度主體性價(jià)值的存在。
其二,人工智能體具有一定分離性。作為社會(huì)發(fā)展、技術(shù)變革的產(chǎn)物,智能體從本身包含的工具性中逐漸衍生出一定自主與主體性。人類在科技創(chuàng)新中的自主性、學(xué)習(xí)性訴求,促使著智能體自主性的進(jìn)一步發(fā)展,并據(jù)此滿足了法學(xué)領(lǐng)域人格與人格權(quán)的第一個(gè)條件,即主體性的存在,這不僅體現(xiàn)了人工智能體被賦予人格的正當(dāng)性、符合法律人格地位的實(shí)質(zhì)性條件之一,同時(shí)也體現(xiàn)了其歷史必然性。人工智能體從其本身的工具性中衍生出來(lái)的主體性,也滿足賦予人格的第二個(gè)條件即“分離性”,其主體性與工具性是具有明顯邊界的。這一分析結(jié)果表明,人工智能體即使獲得法律人格地位、法律主體地位,其法律定位仍然是不及一般自然人主體的。人工智能體的人格、法律地位始終是擬制的、有限的,類似于法人。因?yàn)樽匀蝗说娜烁袷加诔錾?,而人工智能的人格必須通過(guò)人為賦予,即必須采用法律擬制技術(shù)進(jìn)行。
其三,人工智能體具有權(quán)利缺陷性,即在權(quán)利方面具有瑕疵。就現(xiàn)階段人工智能體的發(fā)展階段和現(xiàn)狀看,要賦予其與自然人同等的權(quán)利,具備著極大的困難。以財(cái)產(chǎn)權(quán)為例,機(jī)器人能否享有財(cái)產(chǎn)權(quán)?財(cái)產(chǎn)權(quán)作為人身權(quán)的對(duì)稱,具備的是物質(zhì)性等特征,體現(xiàn)了主體對(duì)社會(huì)物質(zhì)生產(chǎn)資料的占有、支配與處理等能力?!吨腥A人民共和國(guó)憲法》第十三條規(guī)定,公民合法的私有財(cái)產(chǎn)不受侵犯,國(guó)家依照法律規(guī)定保護(hù)公民的私有財(cái)產(chǎn)權(quán)和繼承權(quán)。美國(guó)憲法第十四修正案中規(guī)定,任何州不得拒絕在其管轄范圍內(nèi)對(duì)任何人的財(cái)產(chǎn)、經(jīng)濟(jì)給予同等保護(hù)。③許勝:《美國(guó)憲法中財(cái)產(chǎn)權(quán)的發(fā)展及意義》,《延邊大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2003年第6期。除此之外,世界各國(guó)的憲法、憲法性文件都對(duì)公民的財(cái)產(chǎn)權(quán)做出了原則性規(guī)定,突出了財(cái)產(chǎn)權(quán)作為公民的基本權(quán)利特性,并以人本主義替代西方絕對(duì)自由主義的財(cái)產(chǎn)權(quán)觀念,奠定了現(xiàn)代社會(huì)人權(quán)中財(cái)產(chǎn)權(quán)的基調(diào)。但人工智能體的財(cái)產(chǎn)權(quán)存在與否,不能單從財(cái)產(chǎn)權(quán)的個(gè)別法律特性進(jìn)行分析,以主體限制性為例,財(cái)產(chǎn)權(quán)的主體僅限于可以享有或可以取得財(cái)產(chǎn)的人,而這一“人”的判定在憲法和法理上又需要借用財(cái)產(chǎn)權(quán)標(biāo)準(zhǔn)倒推,這便形成了邏輯循環(huán),難以得到合理的證成。這進(jìn)一步地證明了人工智能體無(wú)法天然地獲得法律主體地位和法律人格,如果在滿足社會(huì)實(shí)效的需求下,其必須通過(guò)擬制的手段獲得有限的人格地位。
根據(jù)上文所述,若要賦予人工智能體以法律人格或法律主體地位,需要具有主體性特征,并符合現(xiàn)有的權(quán)利體系條件;而人工智能的本質(zhì)特征,則包括一部分主體性、權(quán)利缺陷性、工具性等。宏觀地看,現(xiàn)階段人工智能技術(shù)、智能體的發(fā)展?fàn)顩r與特征既符合部分法律人格與主體地位的條件,但又不能完全滿足所有要件,這使得若要將人工智能體作為客體看待,將會(huì)損失一部分主體性價(jià)值;另而若賦予其完全的主體地位與法律人格,又忽略了其工具性價(jià)值,且權(quán)利(與責(zé)任)方面的瑕疵問(wèn)題無(wú)法解決,是為人工智能體人格問(wèn)題的最主要根源。
一方面,根據(jù)人工智能科學(xué)的研究目的,人類智能的延伸使得人工智能技術(shù)的創(chuàng)造性、自主性等價(jià)值屬于其創(chuàng)造的本初目的??腕w論在不區(qū)分其智能性程度和自主性程度的情況下,將其全部劃歸為物和法律客體的范疇,掩蓋了人工智能體內(nèi)部的主體性價(jià)值。另外,人工智能體包含的主體性造成了其難以理解性即“算法黑箱”,“算法黑箱”使其可認(rèn)識(shí)性的效果大大減弱。以人工智能與大數(shù)據(jù)技術(shù)引發(fā)的程序錯(cuò)誤與算法歧視為例,深度學(xué)習(xí)一方面大大提高了社會(huì)生活、社會(huì)治理等方面的效率,另一方面也造成了一定程度的風(fēng)險(xiǎn)與隱患,人工智能技術(shù)的錯(cuò)誤識(shí)別與大數(shù)據(jù)的規(guī)制外運(yùn)用效果,使得人們難以對(duì)其中的原理與過(guò)程難以捉摸。機(jī)器深度學(xué)習(xí)打破了傳統(tǒng)機(jī)器學(xué)習(xí)的“輸入-推理-預(yù)測(cè)”鏈條,由計(jì)算機(jī)自動(dòng)學(xué)習(xí)、生成結(jié)果,而在輸入的數(shù)據(jù)與輸出的結(jié)果之間,存在著無(wú)法被人類深刻理解的隱層,這一隱層的本質(zhì)又被成為“黑箱原理”,其使得行為背后的本質(zhì)難以被識(shí)別,也增加了相應(yīng)的規(guī)制困難。①吳梓源、游鐘豪:《AI侵權(quán)的理論邏輯與解決路徑——基于對(duì)“技術(shù)中立”的廓清》,《福建師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2018年第5期。歐盟《統(tǒng)一數(shù)據(jù)保護(hù)條例》(GDRR,2018)與《數(shù)據(jù)保護(hù)指令》(Directive 95/46/EC,1995年)在個(gè)人選擇權(quán)、敏感數(shù)據(jù)排除、個(gè)人數(shù)據(jù)收集的透明化與透明度方面加強(qiáng)了對(duì)自然人權(quán)利的保護(hù)。同時(shí),對(duì)自動(dòng)化不滿的情況下,自然人有權(quán)要求人工介入和提出質(zhì)疑,并有權(quán)獲得人工智能相關(guān)“解釋”。然而,Pedro Domingos卻重新強(qiáng)調(diào)了這一解釋的可理解性并表現(xiàn)出了強(qiáng)烈的擔(dān)憂。②Pedro Domingos.,”A few useful things to know about machine learning”,Commun ACM ,vol.18,no.2(February 2009),pp.78-88.這種困境使得人類難以對(duì)其進(jìn)行完全的把控,③Hod Lipson,”Evolutionary synthesis of kinematic mechanisms”,AI EDAM,vol.22,no.3(March 2008),pp.195-205.若將其作為客體或物的概念理解,則違背了物的可理解性與可控制性。
另一方面,若要將人工智能體劃歸于法律主體范疇,則其權(quán)利瑕疵與缺陷的特征將使得實(shí)踐中產(chǎn)生諸多矛盾。上文有述,人工智能的權(quán)利具有瑕疵,如財(cái)產(chǎn)權(quán)等。人工智能體尚無(wú)法取得獨(dú)立財(cái)產(chǎn),而權(quán)利的缺陷使得其在責(zé)任承擔(dān)方面也不符合法律主體與法律人格的確認(rèn)條件。以典型的責(zé)任承擔(dān)方式為例,其包括財(cái)產(chǎn)責(zé)任和行為責(zé)任,財(cái)產(chǎn)責(zé)任方面,賠償損失、支付違約金方面,人工智能體因財(cái)產(chǎn)權(quán)瑕疵難以以其獨(dú)立的財(cái)產(chǎn)賠償受害人損失和支付違約金;行為責(zé)任方面如賠禮道歉等,人工智能體因其理性與意識(shí)的瑕疵,也無(wú)法實(shí)現(xiàn)與一般人類一樣的效果。又如人身責(zé)任,在人工智能體違法行為產(chǎn)生后,傳統(tǒng)的拘留、強(qiáng)制措施等行政行為對(duì)其產(chǎn)生的影響也遠(yuǎn)遠(yuǎn)不如對(duì)人類產(chǎn)生的那般有訓(xùn)誡或教育等效果。同時(shí),人工智能體法律主體地位的認(rèn)定,將消滅其內(nèi)含的那部分工具性價(jià)值,并將人類附在智能體上的“人的目的”掩蓋了。可以看出,上述兩方面為人工智能體人格問(wèn)題的主要產(chǎn)生根源,即無(wú)論是對(duì)人工智能的法律主體還是法律客體認(rèn)定,都無(wú)法兼顧智能體內(nèi)含的主體性價(jià)值與工具性價(jià)值,并無(wú)法解決其權(quán)利缺陷。
人工智能體因其同時(shí)具有主體性價(jià)值與工具性價(jià)值形成了人格設(shè)定困境,現(xiàn)有理論難以兼顧二者。在主體規(guī)范、客體規(guī)范都無(wú)法完全適用的情況下,折中的有限人格做法將是一種有效的途徑,即先根據(jù)人工智能體的主體性、工具性之間的比例進(jìn)行類型化,再給予人工智能體以有限法律地位,并規(guī)定其相應(yīng)的管理規(guī)則、權(quán)利義務(wù)規(guī)范,最后分析不同類別的智能體法律規(guī)制體系構(gòu)建及其配套設(shè)施構(gòu)建。
人工智能體應(yīng)當(dāng)依據(jù)其主體性程度進(jìn)行分類管理。由上述的分析可知,主體性與工具性并存,是人工智能體人格問(wèn)題的主要根源所在,但是現(xiàn)階段的人工智能技術(shù)發(fā)展卻屬于多層次、主體性跨度較大的情況,既有掃地機(jī)器人等主體性較低的、完全工具性的智能體,也有深藍(lán)、阿爾法狗等主體性較強(qiáng)的智能體。故應(yīng)當(dāng)先按照主體性強(qiáng)弱對(duì)其進(jìn)行類型化處理,并對(duì)不同類別的人工智能體進(jìn)行區(qū)分處理,采取不同的法律人格問(wèn)題解決方式。
麥卡錫曾提出過(guò)強(qiáng)弱人工智能(體)的區(qū)分,其標(biāo)準(zhǔn)為推理能力強(qiáng)弱等。①R.G 霍夫曼、高培煥:《廖士中.約翰·麥卡錫談人工智能的探索》,《世界科學(xué)》1991年第9期。該標(biāo)準(zhǔn)與人工智能的主體性具有相似之處,并可運(yùn)用到人工智能體法律人格問(wèn)題的分類處理標(biāo)準(zhǔn)體系中。事實(shí)上,按照主體性程度對(duì)智能體進(jìn)行分類,是符合比例原則的,法律對(duì)社會(huì)關(guān)系的調(diào)整,應(yīng)當(dāng)滿足主體等方面的適當(dāng)性標(biāo)準(zhǔn),針對(duì)不同特點(diǎn)的主體,法律規(guī)制的重心應(yīng)當(dāng)進(jìn)行相應(yīng)的調(diào)整。實(shí)踐中,可按照主體性強(qiáng)弱程度將人工智能群體分為強(qiáng)人工智能體和弱人工智能體,并基于此進(jìn)行類型化規(guī)制與管理。其中,分類的標(biāo)準(zhǔn)“主體性程度”是一個(gè)模糊的概念,其范疇可納入自主性、創(chuàng)造性、推理能力等因素,并賦予各因素不同的權(quán)重進(jìn)行加權(quán)分析,構(gòu)建出科學(xué)的、完整的和有效的強(qiáng)弱人工智能分類標(biāo)準(zhǔn),作為人工智能人格問(wèn)題解決方案的基礎(chǔ)。
在分類完成后,可賦予強(qiáng)人工智能體以擬制法律人格,承認(rèn)其有限法律主體地位。從羅馬法就可以看出,法律人格制度自始便具有一種技術(shù)性的特點(diǎn),人格擬制技術(shù)也不例外。比如在羅馬法上,人格的判定標(biāo)準(zhǔn)為人的身份,以人的身份層次將一些自然人排除在人格范疇之外,也就是據(jù)以確定部分人類的特權(quán),②徐國(guó)棟:《羅馬私法要論——文本與分析》,北京:科學(xué)出版社,2007年,第33頁(yè)。并基于此壓迫其他人。③尹田:《論法人人格權(quán)》,《法學(xué)研究》2004年第4期。而這一法律技術(shù)的基礎(chǔ),即為上文所提到的人格的可分離性特征?,F(xiàn)有的法律人格擬制體系中,比較典型的是胎兒的人格擬制與法人的人格擬制。根據(jù)民法總則第十六條,胎兒雖未出生,但是在接受贈(zèng)與等情形下,可以被視為具有法律人格,并具有法律主體地位。又根據(jù)民法總則第五十七條,法人具有法律主體地位,有具體的權(quán)利并承擔(dān)相應(yīng)責(zé)任??梢钥闯?,人格的可分離性提供了人格擬制制度的法技術(shù)基礎(chǔ),并且,運(yùn)用人格擬制技術(shù)的情形是特定的、有限的。以胎兒為例,胎兒接受贈(zèng)與等的情形是有限的、預(yù)先設(shè)定的。人工智能體在一定情形下,根據(jù)需要,可以運(yùn)用人格擬制技術(shù),賦予其有限的法律人格和法律主體地位,但至少應(yīng)當(dāng)具備兩個(gè)基本條件。一方面,對(duì)象智能體的主體性程度較高,即接近上述類型化處理中的強(qiáng)人工智能主體性程度。因?yàn)橹黧w性的存在是人工智能體人格問(wèn)題的根源所在,主體性與工具性的比例是應(yīng)當(dāng)主要考慮的方面。另一方面,對(duì)象智能體陷入了歸責(zé)與地位判定不明等矛盾困境,即人工智能體人格賦予具有社會(huì)實(shí)效性。也就是說(shuō),較高主體性的存在與社會(huì)實(shí)效需要,是人工智能體被賦予法律擬制人格與法律主體地位所必須。同時(shí),在這種情況下應(yīng)當(dāng)將其應(yīng)享有的權(quán)利(如創(chuàng)作等)、應(yīng)承擔(dān)的責(zé)任(如定期測(cè)試、遵守阿西莫夫三定律)等進(jìn)行預(yù)先設(shè)定并使其具有法律效應(yīng),以彌補(bǔ)現(xiàn)有法律規(guī)則體系的不足。
強(qiáng)人工智能體之所以適用并僅適用于法律擬制的方式進(jìn)行人格的賦予,一方面是因?yàn)槠漭^強(qiáng)的主體性、人工智能體獨(dú)有的主體性、工具性之間的分離性滿足上文論述的人格獲取的前幾個(gè)實(shí)質(zhì)性條件,另一方面是其具有的權(quán)利瑕疵性侵蝕了其具有完全人格的可能性與正當(dāng)性,只能用法律擬制技術(shù)進(jìn)行補(bǔ)足。同時(shí),在對(duì)強(qiáng)人工智能體進(jìn)行人格擬制后,需要做到與現(xiàn)存法律體系之間的銜接與交融。實(shí)踐中,一是加快相關(guān)立法步伐,形成多層次智能體管控體系,并通過(guò)相關(guān)司法實(shí)踐對(duì)現(xiàn)實(shí)中的強(qiáng)人工智能人格法律問(wèn)題進(jìn)行明確,力求做到立法與司法的統(tǒng)一性;二是在立法、執(zhí)法及司法隊(duì)伍中加入人工智能方面的技術(shù)人才,有利于人格擬制與傳統(tǒng)法律體系的連接,如相關(guān)法律解釋的完善等方面即屬此類。三是加快建立人工智能體人格擬制技術(shù)運(yùn)用的評(píng)價(jià)體系,在其具體轉(zhuǎn)化運(yùn)行一段時(shí)間后,對(duì)其運(yùn)行效果進(jìn)行嚴(yán)密的評(píng)估分析,并據(jù)此明確相關(guān)的發(fā)展與完善方向。
不同于強(qiáng)人工智能體,弱人工智能體在尚未發(fā)展出主體性或主體性程度較低、可以忽略不計(jì)時(shí),則應(yīng)當(dāng)將其視為法律客體或一般物、特殊物等,運(yùn)用現(xiàn)行法律規(guī)則體系或稍加完善予以規(guī)制。一方面,不具備一定主體性要求的弱人工智能體沒(méi)有賦予法律擬制人格的必要,權(quán)利與義務(wù)可由所有者、使用者行使和承擔(dān),賦予智能體擬制人格不具有社會(huì)實(shí)效性。另一方面,主體性程度較低的智能體不符合人格設(shè)定的法理基礎(chǔ)與哲學(xué)基礎(chǔ)。同時(shí),不加區(qū)分地將所有人工智能體納入法律主體范疇,對(duì)現(xiàn)有法律規(guī)則體系沖擊較大,并會(huì)造成立法與執(zhí)法資源等的浪費(fèi)。當(dāng)然,將主體性較低的人工智能體視為法律客體或物才能充分發(fā)揮其工具性價(jià)值,有利于人工智能技術(shù)和智慧化學(xué)科創(chuàng)設(shè)與研究目的的實(shí)現(xiàn)。
進(jìn)一步地,根據(jù)弱人工智能體的技術(shù)含量與標(biāo)準(zhǔn),可對(duì)其進(jìn)行再分類為一般物和特殊物兩種類別。其中,技術(shù)含量較低的弱人工智能體如家居機(jī)器人等,可歸為一般物(如產(chǎn)品)的范疇,適用物權(quán)法、侵權(quán)責(zé)任法等現(xiàn)有規(guī)則體系;而對(duì)于技術(shù)含量較高、發(fā)展較完備的弱人工智能體,可適當(dāng)完善現(xiàn)有法規(guī)并將其視為特殊物進(jìn)行重點(diǎn)關(guān)注,也可在法益層面上適當(dāng)提升其價(jià)值,以保護(hù)其創(chuàng)造者、所有者和使用者的合法權(quán)益。
對(duì)于弱人工智能體,應(yīng)當(dāng)將其視為一般物或特殊物進(jìn)行已有法律規(guī)則的使用,故配套設(shè)施的創(chuàng)新構(gòu)建應(yīng)主要針對(duì)強(qiáng)人工智能體而言,進(jìn)行已有設(shè)施體系的革新。首先,強(qiáng)人工智能體的設(shè)計(jì)生產(chǎn)與使用應(yīng)當(dāng)進(jìn)行登記注冊(cè),人工智能體的登記注冊(cè)內(nèi)容,應(yīng)當(dāng)包含其類型、性能、技術(shù)基礎(chǔ)、設(shè)計(jì)者與生產(chǎn)者、使用人等信息,并應(yīng)包含權(quán)屬變更等情況。在智能機(jī)器人未進(jìn)行登記與注冊(cè)前,不應(yīng)進(jìn)行銷售或?qū)⑵渫度胧褂谩?/p>
其次,現(xiàn)階段未形成強(qiáng)人工智能體相關(guān)職能管理的社會(huì)機(jī)構(gòu),如相關(guān)的登記注冊(cè)機(jī)構(gòu)、審計(jì)機(jī)構(gòu)等。可對(duì)高智能體進(jìn)行專門管理,成立相關(guān)專門管理機(jī)構(gòu)、專門審計(jì)機(jī)構(gòu)等以實(shí)現(xiàn)對(duì)強(qiáng)人工智能體的有效監(jiān)督、專門仲裁機(jī)構(gòu)以解決相關(guān)專業(yè)性、技術(shù)性糾紛等。同時(shí),還可以構(gòu)建強(qiáng)人工智能信息共享平臺(tái),以實(shí)現(xiàn)人工智能領(lǐng)域政府管理與社會(huì)管理的科學(xué)性與效率性。
最后,若賦予了強(qiáng)人工智能體以法律擬制主體,則應(yīng)當(dāng)通過(guò)立法、司法實(shí)踐等為其分配為在社會(huì)上為一定范圍內(nèi)行為的權(quán)利。值得注意的是,這類擬制人權(quán)利是具有一定特征和限制的。其一是從屬性,人工智能體一旦作為擬制主體進(jìn)入法律規(guī)制體系,就必須與其所有者、使用者等建立聯(lián)系,所有者與使用者形成了其主體基礎(chǔ),人工智能體的權(quán)利也從屬與其人類主體,因?yàn)槿斯ぶ悄苄惺箼?quán)利的目標(biāo)與目的與其人類主體一致;其二是限制性,人工智能體難以獲得像真正自然主體那樣的全部權(quán)利,而是被限定在為達(dá)人類創(chuàng)設(shè)與使用人工智能的本初目標(biāo)體系內(nèi),而非是一種自然的、先天的和完全的權(quán)利體系。其三是利他性,因?yàn)槠渲黧w性尚未發(fā)展和獨(dú)立至與人類一般,機(jī)器人權(quán)利應(yīng)當(dāng)仍然更多地具有工具性。根據(jù)以上特征與原則,可有效設(shè)定人工智能體所擁有的各項(xiàng)有限權(quán)利。責(zé)任方面,應(yīng)明晰人工智能體可承擔(dān)的責(zé)任范圍,如明確消除影響、排除妨害、恢復(fù)原狀等在其能力范圍內(nèi)的責(zé)任承擔(dān)方式;另外,還應(yīng)明確人工智能體與其所有者、使用者之間的責(zé)任分配原則。因?yàn)槿斯ぶ悄荏w在現(xiàn)階段并不適宜享有財(cái)產(chǎn)權(quán),故在財(cái)產(chǎn)有關(guān)方面應(yīng)由其所有者、使用者或生產(chǎn)設(shè)計(jì)者承擔(dān)無(wú)限責(zé)任。
對(duì)人工智能體進(jìn)行法律定位,目的在于確認(rèn)其法律適用問(wèn)題,以解決人工智能技術(shù)引發(fā)的社會(huì)矛盾,并長(zhǎng)效地激發(fā)其主體性價(jià)值,以期真正實(shí)現(xiàn)繼工業(yè)社會(huì)、信息社會(huì)之后的“知業(yè)社會(huì)”“智慧社會(huì)”的構(gòu)建與發(fā)展。就人工智能技術(shù)發(fā)展的現(xiàn)狀看來(lái),其在意識(shí)、權(quán)利義務(wù)與責(zé)任承擔(dān)能力等各方面的缺陷使其尚不足以使智能體取得適格的法律主體地位,但絕對(duì)地將其視為客體、工具或物,則掩蓋了人工智能體在一定程度上的主體性及其功能與價(jià)值,不利于實(shí)現(xiàn)上述的社會(huì)總體目標(biāo)。賦予人工智能體法律擬制主體地位將有利于充分實(shí)現(xiàn)其主體性功能的釋放,并因人工智能體及其所有人之間在意志、財(cái)產(chǎn)上的聯(lián)系,有利于歸責(zé)等實(shí)踐問(wèn)題的解決?,F(xiàn)階段人工智能體的人格問(wèn)題可由法律擬制得到充分的解決,并有效地調(diào)整人與人工智能體之間的法律與社會(huì)關(guān)系。當(dāng)然,關(guān)于人工智能技術(shù)相關(guān)的研究并非一勞永逸,隨著人工智能領(lǐng)域相關(guān)科技的發(fā)展,未來(lái)的智能體成為“超人類主體”的可能性及相關(guān)的倫理、道德與法律問(wèn)題,仍需要各界給予充分的重視和實(shí)時(shí)的關(guān)注與研究分析,并保障技術(shù)的轉(zhuǎn)化、進(jìn)步與社會(huì)的運(yùn)行、發(fā)展之間形成穩(wěn)定的連接,使其呈現(xiàn)出互相促進(jìn)、螺旋上升的態(tài)勢(shì)。