黃紹敏
(廣西大學(xué)法學(xué)院,廣西 南寧 230004)
2016年3月,在同世界著名圍棋選手李世石的對(duì)局中,阿爾法狗(AlphaGo)以4:1取勝,成為第一個(gè)戰(zhàn)勝圍棋世界冠軍的機(jī)器人。這是繼1997年IBM深藍(lán)戰(zhàn)勝卡斯帕羅夫后,人類在人工智能領(lǐng)域取得的又一個(gè)里程碑式勝利。人工智能是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的技術(shù)科學(xué)。人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,旨在了解智能的實(shí)質(zhì),并生產(chǎn)出新的能與人類智能相似的方式作出反應(yīng)的智能機(jī)器。其研究領(lǐng)域包括智能機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理、問(wèn)題解決和演繹推理、學(xué)習(xí)和歸納過(guò)程、知識(shí)表征和專家系統(tǒng)等。目前,人工智能已經(jīng)廣泛應(yīng)用于自動(dòng)駕駛汽車、醫(yī)療輔助等領(lǐng)域,直接為普通人的日常生活而服務(wù)。然而,人工智能給人類帶來(lái)便利的同時(shí),也存在著風(fēng)險(xiǎn),如果這種潛在風(fēng)險(xiǎn)不加以管控,將會(huì)給人類帶來(lái)災(zāi)難性后果。因此,人工智能法律主體資格的法理證成以及相關(guān)法律規(guī)制,已成為當(dāng)前無(wú)法回避的課題。具體而言,明確人工智能的法律地位是進(jìn)行法律規(guī)制的前提。本文通過(guò)參考自然人與法人的賦權(quán)邏輯,對(duì)人工智能法律主體資格進(jìn)行了否定性證成,以構(gòu)建特殊物格視野下的規(guī)制路徑,以期對(duì)人工智能法律規(guī)制問(wèn)題研究有所裨益。
人工智能能否被賦予法律主體資格是學(xué)界長(zhǎng)久以來(lái)爭(zhēng)論的焦點(diǎn),并由此衍生出“肯定說(shuō)”“否定說(shuō)”“折中說(shuō)”等派別。事實(shí)上,對(duì)人工智能法律主體資格賦權(quán)的不同態(tài)度反映著“人類中心主義”在面對(duì)新生事物的疑慮與恐懼,也是對(duì)我國(guó)現(xiàn)行法律主體資格賦權(quán)邏輯的一次全面檢視。基于此,有必要先梳理學(xué)界對(duì)人工智能法律主體資格的爭(zhēng)議現(xiàn)狀,解讀不同派別學(xué)者的論證內(nèi)容,總結(jié)論爭(zhēng)焦點(diǎn)并進(jìn)行剖析。
持肯定說(shuō)的學(xué)者認(rèn)為,隨著人工智能技術(shù)的成熟,應(yīng)賦予人工智能法律主體資格以解決社會(huì)矛盾和糾紛,讓人工智能更好地服務(wù)于人類。例如,郭少飛(2018)認(rèn)為,人工智能具有自主性和主動(dòng)性特征,并非完全受主體支配,因此在法律上應(yīng)賦予其“電子人”地位[1]。楊清望、張磊(2018)則主張涉及人工智能的法律糾紛,要從人類權(quán)利優(yōu)先的立場(chǎng)出發(fā),運(yùn)用法律擬制的立法技術(shù)賦予人工智能獨(dú)立的法律人格[2]。至于賦予人工智能法律主體資格引發(fā)人們對(duì)其風(fēng)險(xiǎn)的擔(dān)憂,徐慧麗(2020)認(rèn)為只要對(duì)其進(jìn)行合理設(shè)計(jì),并完善人工智能的倫理規(guī)范,就可以避免人工智能給社會(huì)帶來(lái)的危險(xiǎn)[3]。也有學(xué)者從反面論證,拒絕承認(rèn)人工智能成為法律主體不僅會(huì)阻礙人工智能的發(fā)展,也會(huì)造成法律秩序的混亂[4]。此外,國(guó)際上已有賦予人工智能法律主體資格的先例,2017年沙特阿拉伯賦予“索菲亞”高級(jí)智能機(jī)器人本國(guó)國(guó)籍,確認(rèn)其公民地位[5]。不難發(fā)現(xiàn),持肯定說(shuō)的學(xué)者對(duì)人工智能尤其是強(qiáng)人工智能抱有極大的期望,認(rèn)為其將擁有類似自然人的意志、感情、思考等類人化特征,賦予其法律主體資格正當(dāng)其時(shí)。
持否定說(shuō)的學(xué)者認(rèn)為,人工智能不具備自由意志、道德感情等人類固有特征,人工智能只能是法律客體,不具備成為法律主體的條件。例如,劉洪華(2019)認(rèn)為當(dāng)前的人工智能并不具有理性意識(shí),不能賦予其法律主體資格,即擬制法律人格對(duì)社會(huì)問(wèn)題的解決沒(méi)有現(xiàn)實(shí)意義[6]。馮潔(2019)主張從法理論的角度來(lái)看,法律上的“人”一方面應(yīng)當(dāng)擁有享有權(quán)利和履行義務(wù)的法律資格,另一方面應(yīng)該事實(shí)上具備享有權(quán)利和履行義務(wù)的能力,若無(wú)法滿足這兩個(gè)條件,則不能享有法律主體地位[7]。皮勇(2018)認(rèn)為人工智能不具有獨(dú)立的主體性,不在現(xiàn)行法律所規(guī)制范圍內(nèi),賦予其法律主體地位極易與現(xiàn)有法律體系產(chǎn)生“排異反應(yīng)”[8]。同時(shí)有學(xué)者指出,若承認(rèn)人工智能的法律主體地位,人類將承擔(dān)不必要的風(fēng)險(xiǎn),甚至可能會(huì)威脅到人類的生存[9]。現(xiàn)有法律堅(jiān)持“人類中心主義”立法理念,陳嘉敏、朱?。?020)指出,法律調(diào)整的對(duì)象是人,并沒(méi)有為人工智能成為法律主體留有余地[10]。
持折中說(shuō)的學(xué)者既不肯定也不否定人工智能法律主體資格的地位,而是認(rèn)為其處在一種“中間狀態(tài)”,即有限人格。人工智能具有一定的自主控制能力,可賦予其一定范圍內(nèi)的法律主體資格,即有限的法律人格,但由于人工智能行為能力有限,應(yīng)適用特殊的法律規(guī)范[11]。司曉、曹建峰(2017)從利益平衡視角,提出賦予人工智能法律主體地位只是解決問(wèn)題的一種方式,實(shí)現(xiàn)法律利益的平衡才是根本目的[12]。質(zhì)言之,人工智能是處在人與物之間的一種特殊存在,根據(jù)其智能化程度的強(qiáng)弱區(qū)分是否具有法律主體資格,弱人工智能屬于一般客體,而強(qiáng)人工智能則應(yīng)該賦予其有限人格,具備法律主體資格的條件。綜上,折中說(shuō)只是對(duì)強(qiáng)、弱人工智能法律主體資格的類型化設(shè)計(jì),其本質(zhì)上依然是肯定說(shuō)。
綜上,法律主體是指可以享受法律權(quán)利、能夠承擔(dān)法律義務(wù)的一種資格,當(dāng)前立法語(yǔ)境中的法律主體主要包含自然人與法人兩種,人工智能是否具備法律主體資格也需要參考上述兩類主體的賦權(quán)邏輯。其一,人工智能是否具有自然人的理性意識(shí),持肯定說(shuō)的學(xué)者從技術(shù)理性角度論證了未來(lái)強(qiáng)人工智能會(huì)發(fā)展出理性意識(shí)從而應(yīng)該賦予其法律主體資格,而持否定說(shuō)的學(xué)者則從“人是目的”角度反駁人工智能具有理性意識(shí)的觀點(diǎn)。其二,基于理解與遵守法律規(guī)范的考量,肯定說(shuō)學(xué)者從人工智能的深度學(xué)習(xí)能力論證了未來(lái)人工智能可以理解和遵守法律規(guī)范,而否定說(shuō)從人工智能只能機(jī)械理解法律,更無(wú)法遵守法律方面,駁斥了肯定說(shuō)。其三,人工智能是否具有社會(huì)文化屬性,肯定說(shuō)觀點(diǎn)從社會(huì)文化角度論證人工智能具備社會(huì)文化屬性,否定說(shuō)則從人工智能的機(jī)械原理屬性上駁斥這種觀點(diǎn),人工智能無(wú)法具備社會(huì)文化意義上的自我意識(shí)。
如前所述,賦予人工智能法律主體資格不能理想化,而是應(yīng)當(dāng)基于現(xiàn)有法律主體資格的賦權(quán)邏輯,并通過(guò)對(duì)比人工智能自身的特點(diǎn),從而實(shí)現(xiàn)對(duì)其法律主體資格的理性證成。事實(shí)上,參考自然人與法人的賦權(quán)進(jìn)路,人工智能并不具備法律意義上的理性,賦予其擬制人格同樣無(wú)法發(fā)揮應(yīng)有的社會(huì)價(jià)值,因此,當(dāng)前并不具備承認(rèn)其法律主體資格的現(xiàn)實(shí)條件。
2.1.1 自然人主體的賦權(quán)邏輯
自然人不僅是具有生物學(xué)意義上的人,更是具有社會(huì)文化屬性的人,即人具有自然和社會(huì)雙重屬性,而社會(huì)屬性是人和動(dòng)物的本質(zhì)區(qū)別。人之所以具有法律主體的資格,在于同時(shí)具備資格條件(規(guī)范條件)和能力條件(實(shí)體條件)。資格條件是形式要件,賦予法律主體資格需要法律規(guī)范予以確認(rèn),但反過(guò)來(lái)確認(rèn)法律主體資格又需要具備一定能力條件為前提,即需要主體具備自我意識(shí)和自由意志,因此,法律主體資格的取得需要資格條件和能力條件同時(shí)具備。需要指出的是,法律中的“人”并不等同于生物學(xué)意義上的“人”,因?yàn)榉ū澈蟪休d著統(tǒng)治階級(jí)的意志。例如,奴隸制社會(huì)中的奴隸就不具有法律主體資格,他們只是奴隸主的財(cái)產(chǎn)或者工具,并且服從于主人的意志,因而不是法律意義上的“人”。
能力條件則是能否被賦予法律主體資格的關(guān)鍵,法律規(guī)范目的在于調(diào)整人的行為,而法律調(diào)整人的行為則是通過(guò)設(shè)定權(quán)利和義務(wù)來(lái)實(shí)現(xiàn),只有具備意識(shí)和意志的自然人才能享有法律權(quán)利、履行法律義務(wù)以及承擔(dān)法律后果。因此,具有法律意義的行為,既要以法律規(guī)范為依據(jù),又要以意識(shí)和意志為基礎(chǔ)。一方面,由于人具有自我意識(shí)和自由意志,能夠理解法律規(guī)范賦予的權(quán)利和義務(wù),行為人可以明白哪些行為能為、不能為及其法律后果,權(quán)利和義務(wù)是一個(gè)規(guī)范問(wèn)題,而行使權(quán)利和履行義務(wù)卻要以意識(shí)和意志為基礎(chǔ),這是成為法律主體的實(shí)質(zhì)要件。另一方面,違反法律義務(wù)會(huì)產(chǎn)生相應(yīng)的法律后果,通過(guò)法律制裁使行為人知道哪些行為是不能做的,進(jìn)而規(guī)范自己的行為,并根據(jù)法律規(guī)范作出選擇和反饋。
2.1.2 法人的賦權(quán)邏輯
法人是通過(guò)立法技術(shù)由自然人為了某種共同目的而組成的一種擬制法律主體,是立法創(chuàng)造的一個(gè)法律概念。雖然法人沒(méi)有生命特征,但揭開(kāi)法人的面紗可以發(fā)現(xiàn),其具有獨(dú)立的意志,能獨(dú)立承擔(dān)權(quán)利義務(wù),因而享有法律主體的資格。
第一,法人具有意志性。人類誕生以來(lái)就過(guò)著群居生活,因?yàn)閭€(gè)人的力量是渺小的,必須聯(lián)合起來(lái)才能共同生存,于是在一定范圍內(nèi)就形成部落,部落成員有著共同的目標(biāo),部落內(nèi)部會(huì)有明確的分工,也會(huì)有部落首領(lǐng),這大概是法人的濫觴。法人盡管是由自然人組成,但法人成立以后就具備獨(dú)立于自然人的意志,其意志體現(xiàn)在法人章程里,是自然人意志一致性的結(jié)果,且這種意志具有單一性。如果意志不一致,就如同一盤(pán)散沙,便無(wú)法實(shí)現(xiàn)法人的共同目的。因此,自法人成立之時(shí),法人的意志就與自然人的意志相分離,個(gè)人意志必須服從法人的意志,且不能隨意干預(yù)法人的運(yùn)行。
第二,法人可以承載權(quán)利義務(wù)。權(quán)利與義務(wù)是法律的靈魂,只有法律主體才能承載權(quán)利義務(wù),法人同時(shí)具備成為法律主體的資格條件和能力條件。法人的章程規(guī)定了其權(quán)利義務(wù),只不過(guò)要通過(guò)機(jī)關(guān)內(nèi)的自然人來(lái)實(shí)現(xiàn),但機(jī)關(guān)的自然人所實(shí)施行為的法律后果卻要?dú)w入法人,即法人的責(zé)任和自然人的責(zé)任相分離。例如,刑法對(duì)單位犯罪的規(guī)定,既處罰直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員,也對(duì)單位判處罰金。
第三,法人本質(zhì)是輔助人實(shí)現(xiàn)目的。法人是由具有意志的自然人組成的團(tuán)體,但不是自然人簡(jiǎn)單拼湊,而是具有一定目的性的團(tuán)體組織。社會(huì)分工的精細(xì)化決定了法律關(guān)系的復(fù)雜化,而設(shè)立法人制度目的在于簡(jiǎn)化法律關(guān)系,即利用法人,收集個(gè)人的意志并進(jìn)行輸出,實(shí)現(xiàn)交易效率與群體效益的最大化。再者,法律本身也要追求精簡(jiǎn)而非復(fù)雜,因?yàn)榉尚枰獙?xiě)在人的心中而不是文本上,如果法律關(guān)系復(fù)雜難懂,那么法律將難以推行。因此,法人本質(zhì)上是為人類利益服務(wù)的,能夠創(chuàng)造社會(huì)文化價(jià)值以實(shí)現(xiàn)人的目的,但又不能否認(rèn)其獨(dú)立的法律價(jià)值,因而賦予法人主體資格。
2.2.1 人工智能缺乏意志能力
人工智能與法人不同,法人因?yàn)榱⒎夹g(shù)將自然人的意志凝結(jié)在法人之中從而具備獨(dú)立的意志,究其根本是法人背后體現(xiàn)自然人的意志,從而可以獨(dú)立承載權(quán)利義務(wù),成為法律主體。其一,人工智能不是虛擬物而是人造物,其行為雖然具有一定自主性,但其貫徹的是人的意志,本質(zhì)上是服務(wù)人類的工具。意志是一個(gè)綜合性的概念,它涉及認(rèn)知、情感、道德等方面,更與倫理學(xué)、哲學(xué)、社會(huì)學(xué)等息息相關(guān),而人工智能運(yùn)行邏輯單一,數(shù)據(jù)的輸入與結(jié)果的輸出事實(shí)上都是代碼與算法相結(jié)合,無(wú)法與復(fù)雜無(wú)比的人腦相提并論。其二,人工智能最大的迷惑性在于大數(shù)據(jù)使其具有深度學(xué)習(xí)能力,使人們誤以為人工智能具有理性意志。其實(shí)不然,大數(shù)據(jù)來(lái)源人的收集和整理,一旦人工智能離開(kāi)大數(shù)據(jù)的支持,那么人工智能也無(wú)法進(jìn)行深度學(xué)習(xí),更談不上意志。其三,情感缺失。情感是先于理智存在的,人工智能只有智力,沒(méi)有情感,不是真正的智能[13]。人工智能的誕生就是彌補(bǔ)人類的理性,但卻忽視了情感和道德,因此只有智商沒(méi)有情商稱不上真正的意志,充其量也就是機(jī)械意志。
2.2.2 人工智能無(wú)法實(shí)現(xiàn)法律規(guī)制目的
法律規(guī)范通過(guò)設(shè)定權(quán)利義務(wù)及法律后果來(lái)維護(hù)社會(huì)秩序,首先,法律規(guī)制的目的都體現(xiàn)在權(quán)利義務(wù)之中,由于人工智能沒(méi)有規(guī)范認(rèn)識(shí)和理解能力,讓其承擔(dān)法律責(zé)任沒(méi)有任何意義。例如,讓人工智能機(jī)器人賠禮道歉或者判處刑罰,人工智能是機(jī)械體,施加懲罰也無(wú)法感知,也沒(méi)有承擔(dān)財(cái)產(chǎn)責(zé)任的能力,即使對(duì)人工智能施加懲罰,仍然無(wú)法避免再犯,反而會(huì)給自然人利用人工智能規(guī)避法律責(zé)任提供渠道。另外,法律規(guī)制的目的在于通過(guò)懲罰和預(yù)防來(lái)實(shí)現(xiàn),如果僅有權(quán)利和義務(wù)的規(guī)定,卻沒(méi)有違反義務(wù)的法律后果,那么法律也將成為一紙空文。但人工智能不會(huì)認(rèn)識(shí)到所犯錯(cuò)誤,更無(wú)法承擔(dān)法律后果,因而不能實(shí)現(xiàn)特殊預(yù)防和一般預(yù)防目的。因此,透過(guò)現(xiàn)象看本質(zhì),法律本質(zhì)上是調(diào)整人與人之間的關(guān)系,而非人與人工智能的關(guān)系。
2.2.3 人工智能不能承擔(dān)社會(huì)責(zé)任
基于法人的賦權(quán)邏輯,法人之所以可以成為法律擬制的主體,不僅在于法人具備相對(duì)獨(dú)立的意志,能夠承載權(quán)利和義務(wù),更重要的是法人在社會(huì)中可以扮演重要角色,承擔(dān)社會(huì)責(zé)任。因?yàn)榉ㄈ藢?shí)質(zhì)上是人的物理組合,由眾人聯(lián)合成為一個(gè)法人,這中間發(fā)生的是物理變化而非化學(xué)變化[14]。法人擁有獨(dú)立的財(cái)產(chǎn),在社會(huì)中維持社會(huì)的高效運(yùn)轉(zhuǎn),例如通過(guò)招聘勞工、發(fā)放薪資、職員管理、社會(huì)保障等維護(hù)社會(huì)穩(wěn)定的價(jià)值。人工智能作為人造物,具有一定的自主能力,尤其是超人工智能,但無(wú)論其多么智能,它也只能作為一種人類工具,因?yàn)槿斯ぶ悄軟](méi)有獨(dú)立的財(cái)產(chǎn),也不具備理性意識(shí)承擔(dān)社會(huì)責(zé)任,它更多的是在執(zhí)行人類設(shè)計(jì)好的程序,是人類工具的延伸,因而無(wú)法承擔(dān)社會(huì)責(zé)任,故而不能賦予法律主體資格。
在應(yīng)然層面,人工智能不具備法律意義上的理性意識(shí),也無(wú)法發(fā)揮法人應(yīng)有的社會(huì)價(jià)值。在實(shí)然層面,目前乃至很久的將來(lái),人工智能也只是人類智商與行為簡(jiǎn)單、機(jī)械的延伸,屬于工具范疇。因此,基于人工智能法律主體資格的預(yù)設(shè)破滅,當(dāng)前應(yīng)在民法客體范圍內(nèi)為其尋找歸宿,特殊物格便是值得考慮的進(jìn)路。
隨著人類支配能力的增強(qiáng),物的種類呈現(xiàn)出多樣化趨勢(shì),物格的內(nèi)涵也在不斷豐富和發(fā)展。物格是相對(duì)于人格而提出的一個(gè)概念,人格僅有人作為法律的主體能夠享有,除人之外的物只能作為法律的客體為人所支配和利用。物格是指某種物在法律中所享有的資格或者地位,我國(guó)現(xiàn)有法律中并無(wú)“物格”這一法律概念,但隨著人工智能的興起,期待物格理論的回歸以解決法律困境。根據(jù)物的性質(zhì)和特點(diǎn)賦予其物格,目的在于物的類型化保護(hù),一方面可以使立法者根據(jù)法律主體的需要確定保護(hù)程度,制定不同的法律予以規(guī)制。另一方面,對(duì)于以人工智能為代表的新興事物不能視而不見(jiàn),無(wú)論是贊成還是否定其法律主體資格,都必須做出法律層面的回應(yīng),而特殊物格則為人工智能預(yù)留了制度設(shè)計(jì)的緩沖區(qū),既不至于出現(xiàn)顛覆法律秩序的局面,又可以填補(bǔ)法律漏洞規(guī)制人工智能所帶來(lái)的風(fēng)險(xiǎn)。楊立新(2008)根據(jù)物的不同類型,把物劃分為“倫理物”“特殊物”“一般物”三種類型,“倫理物”是指具有生命倫理價(jià)值的物;“特殊物”是指具有特殊法律屬性并應(yīng)建立特殊法律規(guī)則的物;“一般物”是指除倫理物與特殊物以外的其他物[15]。
如前文所述,人工智能不具備成為法律主體的條件,又不同于民法中的普通物,因此,根據(jù)人工智能的性質(zhì)、特征以及它與人的關(guān)系將其納入特殊物格范圍比較妥當(dāng)。
第一,特殊物格本質(zhì)上仍然屬于法律客體的一種,為人所支配和利用,因?yàn)槿耸悄康亩鞘侄?,且具有理性和意志,能夠作為法律主體承載法律權(quán)利與義務(wù),將人工智能定位為特殊物格劃清了人與物的界限,既回應(yīng)了人工智能法律地位的困惑,又能實(shí)現(xiàn)對(duì)人工智能的特殊保護(hù)。
第二,賦予人工智能特殊物格地位,便于區(qū)分人工智能與其他物,因?yàn)樵谌斯ぶ悄墚a(chǎn)品上具備人的某些人格要素特征,能在社會(huì)中獨(dú)立扮演某些角色,如果只簡(jiǎn)單將人工智能定性為“一般物”,就會(huì)抹殺其獨(dú)特作用。因此,特殊物格的屬性定位明顯區(qū)別“一般物”的保護(hù)思路,使得人工智能在符合人類最低倫理道德觀的前提下,充分得到應(yīng)有的重視。
第三,明確人工智能特殊物格地位,便于劃分和明確法律責(zé)任。人作為法律主體支配人工智能,意味著最終的法律責(zé)任應(yīng)該由作為主體的設(shè)計(jì)者、制造者和使用者來(lái)承擔(dān),不至于讓人工智能成為違法甚至犯罪的工具,損害人類社會(huì)秩序和利益,使人工智能的發(fā)展始終處于安全可控的范圍內(nèi)。
綜上,特殊物格的規(guī)制思路與人工智能“類人性-工具性”的復(fù)合屬性高度契合,法律客體的定位不僅可以延續(xù)傳統(tǒng)民法的人物二分理論,又能在保證人類自身權(quán)益的基礎(chǔ)上,實(shí)現(xiàn)對(duì)人工智能的有效規(guī)制,契合了人工智能的發(fā)展需求。
如前所述,人工智能難以被賦予法律主體資格,而通過(guò)特殊物格的定位可以劃清人與物、人工智能與一般物的界限,同時(shí)利于明確法律責(zé)任。對(duì)于特殊物格視野下人工智能法律規(guī)則如何具體設(shè)計(jì),筆者以為應(yīng)從立法嵌入、人工智能利用原則、類型化區(qū)分以及責(zé)任分配四個(gè)層面予以考量。
傳統(tǒng)民法堅(jiān)持主客二分理論,即自然人為法律主體,自然人以外的物為法律客體。隨著社會(huì)文明進(jìn)步,法律中的主客體呈現(xiàn)相反的發(fā)展趨勢(shì)。一方面,作為主體的人從多層次走向單一化,法律面前人人平等觀念深入人心,法律人格的平等不再把人區(qū)分為三六九等。另一方面,人類的認(rèn)知能力和創(chuàng)新能力極大增強(qiáng),不斷涌現(xiàn)出新興事物,物的類型由單一化向多元化發(fā)展,這些具有新特征的事物需要法律作出回應(yīng)。而物格理論的提出給我們帶來(lái)啟發(fā)和借鑒,根據(jù)多元化新興事物的屬性來(lái)確定它們?cè)诜芍械牡匚缓唾Y格,進(jìn)而可以確定法律主體對(duì)不同物的支配規(guī)則和保護(hù)規(guī)則。因此,物格制度可以有效滿足多元化物的規(guī)制需要。
人工智能是被人支配的客體,在這一基本法律定位前提下從物格理論中尋找人工智能的法律定位并據(jù)此構(gòu)建相應(yīng)規(guī)則,可以實(shí)現(xiàn)法律效果和社會(huì)效果的統(tǒng)一。然而現(xiàn)行法律中并無(wú)特殊物格的規(guī)定,使得人工智能仍等同于一般物,缺乏法治化指引,立法者需要在法律中嵌入特殊的規(guī)則對(duì)其進(jìn)行規(guī)制。需要指出的是,人工智能雖然具有特殊屬性,對(duì)是否應(yīng)該賦予人工智能法律主體資格存在爭(zhēng)議,但人工智能的特殊法律屬性并非要賦予其法律主體資格才能對(duì)其規(guī)制[6]。立法者將人工智能定位為特殊物,賦予其特殊物格地位,既保證了法律秩序的統(tǒng)一和穩(wěn)定,又能實(shí)現(xiàn)對(duì)人工智能的有效規(guī)制。比如,可以在未來(lái)修訂《民法典》時(shí),在總則編設(shè)專章規(guī)定一般物、倫理物和特殊物,對(duì)物的支配和規(guī)制進(jìn)行類型化區(qū)分,為人工智能發(fā)展預(yù)留制度空間,同時(shí)在《民法典》各分編中增加更為具體的物權(quán)、侵權(quán)等方面的規(guī)則。
人工智能技術(shù)的發(fā)展可以給人類帶來(lái)巨大好處,但也存在風(fēng)險(xiǎn)隱患。霍金曾多次表示,“徹底開(kāi)發(fā)人工智能可能導(dǎo)致人類滅亡”。這并非杞人憂天,必須引起高度警覺(jué)。人工智能是人類智慧的產(chǎn)物,但生產(chǎn)什么樣的人工智能?怎樣生產(chǎn)人工智能?如何利用人工智能?都必須明確法律底線和利用原則。人工智能作為人造物,人對(duì)其應(yīng)該享有絕對(duì)的控制權(quán),絕不能出現(xiàn)凌駕于人之上的人工智能。人工智能的法律規(guī)制不僅是對(duì)其本身進(jìn)行規(guī)制,其本質(zhì)還是在規(guī)制人的行為,因?yàn)槿斯ぶ悄苁怯删哂幸庾R(shí)的人生產(chǎn)和使用的。而法律規(guī)制人工智能主要在制造和應(yīng)用兩個(gè)方面,其中在制造階段對(duì)人工智能的設(shè)計(jì)將決定其功能和作用。因此,人工智能的設(shè)計(jì)制造階段的法律規(guī)制極為重要。否則,一旦“潘多拉魔盒”打開(kāi),將會(huì)造成災(zāi)難性后果,無(wú)論應(yīng)用階段的人工智能法律規(guī)制多么精確縝密都無(wú)濟(jì)于事。技術(shù)是中立的,沒(méi)有好技術(shù)和壞技術(shù)之分,關(guān)鍵在于人如何利用技術(shù)。愛(ài)因斯坦曾指出,“科學(xué)是一種強(qiáng)有力的工具。怎樣用它,究竟是給人類帶來(lái)幸福還是帶來(lái)災(zāi)難,全取決于人自己,而不取決于工具”[16]。人是主體,主體支配客體,而不能出現(xiàn)客體支配主體的情況,必須確立人工智能以人為本的最高技術(shù)發(fā)展原則[6]。因此,人工智能的發(fā)展必須明確其利用原則,使人工智能造福人類。
人工智能經(jīng)過(guò)多年的發(fā)展,已經(jīng)形成形態(tài)和功能各異的智能機(jī)器體,因此,對(duì)其進(jìn)行分類才能達(dá)到有效法律規(guī)制。人工智能通常劃分為弱人工智能、強(qiáng)人工智能和超人工智能,但并非所有的人工智能都需要特殊規(guī)制,比如像智能掃地機(jī)器人等弱人工智能,其技術(shù)原理簡(jiǎn)單并不需要特殊法律規(guī)范,根據(jù)“奧卡姆剃刀原則”,只需按照一般物規(guī)制即可。隨著大數(shù)據(jù)、云計(jì)算等新技術(shù)的不斷發(fā)展,在不遠(yuǎn)的將來(lái),大量強(qiáng)人工智能和超人工智能將充斥在人類社會(huì)中。而具備一定自主性和行動(dòng)自由的人工智能則需要特別的法律規(guī)制。例如,一些秘書(shū)助手、情侶機(jī)器人、老人陪伴等人工智能與人類生活密切相關(guān)的,而且具備人的外形和某些人格要素,這些高端人工智能宜將列為“特殊物”范疇,屬于最高等級(jí)的法律客體。區(qū)分人工智能類型的目的在于有針對(duì)性地進(jìn)行規(guī)制,在法律保護(hù)、致人損害的法律責(zé)任等方面有所區(qū)別。
人工智能具有驚人的計(jì)算、信息存儲(chǔ)等能力,在某些方面超過(guò)人類,但由于不具備規(guī)范理解能力,這意味著人工智能不能對(duì)其行為負(fù)責(zé)。在特殊物格定位下,需要對(duì)人工智能的侵權(quán)責(zé)任進(jìn)行類型化設(shè)計(jì)。而承擔(dān)法律責(zé)任首先要明確責(zé)任主體,即人工智能的設(shè)計(jì)者、使用者以及人工智能本身的法律責(zé)任。人工智能侵權(quán)情形可以大致分為三類:一是人工智能的設(shè)計(jì)者,在交付產(chǎn)品之前就存在缺陷,侵權(quán)損害發(fā)生在使用階段,但使用者不存在過(guò)錯(cuò),這類侵權(quán)責(zé)任應(yīng)該歸屬設(shè)計(jì)者,設(shè)計(jì)者應(yīng)該對(duì)其設(shè)計(jì)的產(chǎn)品負(fù)責(zé),只有產(chǎn)品質(zhì)量責(zé)任讓設(shè)計(jì)制造者承擔(dān),才能最大程度保障人工智能產(chǎn)品的安全可靠[6];二是人工智能設(shè)計(jì)完全符合規(guī)定的質(zhì)量標(biāo)準(zhǔn),在應(yīng)用階段由于使用者操作失誤造成侵權(quán)損害,那么這一類侵權(quán)責(zé)任應(yīng)該歸屬于使用者;三是人工智能在設(shè)計(jì)和應(yīng)用上均存在問(wèn)題,那么這一類侵權(quán)責(zé)任應(yīng)該由設(shè)計(jì)者和使用者按照各自過(guò)錯(cuò)共同承擔(dān)侵權(quán)責(zé)任。在這三種侵權(quán)情形下,承擔(dān)責(zé)任的主體應(yīng)當(dāng)有所不同。
基于人工智能的產(chǎn)品屬性,產(chǎn)品質(zhì)量致人損害,應(yīng)該適用產(chǎn)品質(zhì)量法相關(guān)規(guī)定,當(dāng)然應(yīng)由產(chǎn)品制造者承擔(dān)最終責(zé)任,這是來(lái)自產(chǎn)品質(zhì)量法理論的解釋[17]。人工智能產(chǎn)品定位為特殊物格,其侵權(quán)責(zé)任應(yīng)該由設(shè)計(jì)者或者使用者承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任,而不能把責(zé)任轉(zhuǎn)嫁到人工智能本身上。至于未來(lái)可能出現(xiàn)的超人工智能,其具有極強(qiáng)的自主能力,如果造成侵權(quán)而把責(zé)任完全歸咎于設(shè)計(jì)者和使用者,勢(shì)必會(huì)阻礙人工智能的發(fā)展,但可以采取刪除數(shù)據(jù)、永久銷毀等方式使其喪失價(jià)值。
雖然人工智能具有過(guò)人的能力,但終究是人造物,只能是為人類所支配和利用的客體,不具備成為法律主體的條件。人工智能技術(shù)是一把雙刃劍,關(guān)鍵在于我們?cè)撊绾卫硇岳?。法律不?yīng)滯后于時(shí)代發(fā)展,而應(yīng)主動(dòng)緊跟時(shí)代發(fā)展前沿對(duì)可預(yù)知的未來(lái)做好法律設(shè)計(jì)。借助特殊物格理論,人工智能可以在法律中找到自己的歸宿,賦予其特殊物格地位,以促使人工智能更好地服務(wù)于人類社會(huì)。