摘 " 要: 展望未來,人工智能技術(shù)及其實(shí)踐應(yīng)用將更為廣泛而深入地參與人類社會(huì)活動(dòng),以“社會(huì)成員”的身份締結(jié)和生成各種社會(huì)關(guān)系與法律關(guān)系,其在私法上的地位問題將不可回避。良善的立法應(yīng)當(dāng)反思并順應(yīng)社會(huì)發(fā)展趨勢,但在決定是否將人工智能體納入主體制度架構(gòu)時(shí),人們需要完成其與私法主體資格事實(shí)要素的顆粒度比對(duì)。只有在此基礎(chǔ)上,人們才能進(jìn)行權(quán)利能力與行為能力的制度構(gòu)設(shè)。在權(quán)利能力制度構(gòu)設(shè)方面,不僅要解決人工智能體權(quán)利能力取得的事實(shí)要素與法定程序問題,還需關(guān)注并明確其權(quán)利能力的范圍及限制。而在行為能力制度構(gòu)設(shè)上,則需深入分析并解決人工智能體的行為能力實(shí)現(xiàn)問題,以及與其行為能力緊密相連的責(zé)任能力問題。
關(guān)鍵詞: 功能論;人工智能體;算法意志;權(quán)利能力;行為能力;責(zé)任能力
中圖分類號(hào):TP18/D920.4 " 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1004-8634(2025)02-0056-(11)
DOI:10.13852/J.CNKI.JSHNU.2025.02.006
法治作為現(xiàn)當(dāng)代國家的重要治理手段,其本身就是規(guī)則之治。良善的法律制度及其規(guī)則體系不僅要反映社會(huì)現(xiàn)實(shí),亦要順應(yīng)社會(huì)的發(fā)展與變遷,不斷地創(chuàng)造和修正其制度與規(guī)則體系,以填充社會(huì)發(fā)展帶來的立法空白與不適,這不僅是晚近以來法律從壓制型法到自治型法再到反思型法發(fā)展之要求,1 亦是現(xiàn)當(dāng)代法律及其制度體系功能實(shí)現(xiàn)之應(yīng)然。
人工智能體廣泛參與社會(huì)活動(dòng)和法律活動(dòng)不僅造成了社會(huì)關(guān)系參與者及法律關(guān)系參加者的多元擴(kuò)張,也引發(fā)了作為風(fēng)險(xiǎn)承擔(dān)者和利益享有者的法律關(guān)系主體的多元擴(kuò)張問題,2 從而生成和締造出了迥異于傳統(tǒng)法學(xué)理論體系、法律制度和法律規(guī)則體系所根植的社會(huì)背景。人與物的主從關(guān)系走向搖擺,主體及主體觀念趨于破碎化,“人是誰”日益變得虛無縹緲。3 基于此,學(xué)者們圍繞人工智能的道德倫理哲學(xué),以及法律主體、權(quán)利主體(包括民事主體、刑事主體)、法律責(zé)任等法律問題展開多維度、多視角、多方法的研究與探討。人工智能法律主體問題,成為所有道德、法律問題的實(shí)質(zhì)與關(guān)鍵。1
但是,面對(duì)人工智能迅猛發(fā)展及其智能程度不斷提高給當(dāng)下及未來社會(huì)帶來的根本性和全局性的沖擊、影響和解構(gòu),以個(gè)案為指向的司法矯正與司法救濟(jì)自然無力應(yīng)對(duì)和解決這種事關(guān)社會(huì)根本價(jià)值和風(fēng)險(xiǎn)防控的問題,充分重視和發(fā)揮私法主體制度的社會(huì)功能、司法功能和方法論功能,從立法上主動(dòng)予以出擊與回應(yīng)似乎是良善選擇。我國未來的私法亦需順應(yīng)時(shí)代潮流、與時(shí)俱進(jìn),以功能論為取向與指導(dǎo),發(fā)揮立法主動(dòng)權(quán),在尊崇和確保人的目的價(jià)值與目的性主體地位的同時(shí),基于人工智能體利益與其他主體利益之考量,2 重構(gòu)私法主體制度與主體規(guī)則,明確人工智能體的私法主體地位和工具人格,合理構(gòu)設(shè)人工智能體主體制度的財(cái)產(chǎn)與責(zé)任規(guī)則,規(guī)范其參與的民事法律關(guān)系和民事行為,以彌補(bǔ)智慧社會(huì)發(fā)展同傳統(tǒng)法律之間的裂痕,3 維護(hù)社會(huì)秩序之和諧,規(guī)范和促進(jìn)我國人工智能產(chǎn)業(yè)之發(fā)展。
一、人工智能體向私法主體資格之顆粒度對(duì)齊
私法主體資格的“適格性”問題是私法需要解決的首要問題,這是私法主體制度規(guī)范和組織社會(huì)功能的必然要求。該“適格性”需要考量某種社會(huì)實(shí)體獲得私法主體資格應(yīng)當(dāng)具備的客觀條件或者客觀基礎(chǔ),即“事實(shí)要素”。在此基礎(chǔ)上,立法賦予某種社會(huì)實(shí)體以主體資格,并使其成為私法主體,即“法律要素”。4 考察私法主體制度的演進(jìn),不同時(shí)代私法所要求和規(guī)定的事實(shí)要素不盡相同,實(shí)體性、理性和財(cái)產(chǎn)通常是近現(xiàn)代各國私法主體制度規(guī)定的主要事實(shí)要素。就此而言,在立足于人機(jī)共生的未來,并跨越主客對(duì)立的鴻溝之后,我們是否應(yīng)承認(rèn)并賦予人工智能體以私法主體資格和主體地位,這需要分析和評(píng)判其是否達(dá)到并具備上述事實(shí)要素,以通過“適格性”檢驗(yàn)。
1.人工智能之“體”向?qū)嶓w性要素之對(duì)齊
雖然“何者可以成為法律主體”最終由法律確定,但無論從存在論視域還是實(shí)在論立場看,私法主體都不僅僅是一種資格,而是法律關(guān)系的參加者、權(quán)利的享有者和義務(wù)的承擔(dān)者。5 故而,被私法賦予主體資格的對(duì)象必然是某一種社會(huì)存在,私法主體資格恰在于解決該種社會(huì)存在向私法主體的轉(zhuǎn)化問題。一定的社會(huì)存在由此成為私法賦予某一實(shí)體以主體資格的實(shí)體性基礎(chǔ)。其中,于自然人主體而言,近現(xiàn)代各國立法僅以出生之事實(shí)為依據(jù),以一切現(xiàn)世性的生物人為實(shí)體基礎(chǔ)來確定其權(quán)利能力之賦予,以此才能追求并達(dá)至法律上的人人平等和對(duì)人性尊嚴(yán)之尊重。6 換言之,近現(xiàn)代私法所預(yù)設(shè)的法律主體不僅是理性人,亦是倫理人,其完全是一種“根據(jù)人性的和社會(huì)政策的立場,此點(diǎn)具有決定性意義,即權(quán)利能力不與其他任何東西相關(guān)而僅與純粹的人的存在(blosse Menschsein)相關(guān),這一點(diǎn)是基于生命的本質(zhì)源于人自身”。7 于法人或非法人組織而言,大陸法系國家立法多以法人實(shí)體說為思想理據(jù),認(rèn)可團(tuán)體之社會(huì)活動(dòng)單元的角色及其社會(huì)實(shí)在性,進(jìn)而將具有一定組織架構(gòu)的團(tuán)體區(qū)別于其成員而賦予其主體資格。
及至人工智能,雖然其實(shí)踐應(yīng)用廣泛,且存在有實(shí)體形態(tài)和無實(shí)體形態(tài)之差異,但既然人工智能體主體資格之賦予立足于其廣泛參與人類社會(huì)生活之現(xiàn)實(shí),并力求解決其參加法律關(guān)系所享有的權(quán)利、承擔(dān)的義務(wù),乃至責(zé)任問題,故也應(yīng)以具有某種實(shí)體形態(tài)為要,故以“人工智能體”稱之。至于該人工智能的實(shí)體形態(tài)是否為類人之形體非為必要。不過,基于“恐怖谷”理論不僅僅在技術(shù)上帶來挑戰(zhàn),更將在哲學(xué)上帶來認(rèn)同感問題,8 從而對(duì)未來人機(jī)之間社交關(guān)系帶來嚴(yán)峻挑戰(zhàn)。故而,在獲得技術(shù)支持的前提下,在實(shí)體形態(tài)上對(duì)人工智能體進(jìn)行“去人類化”的工作設(shè)計(jì),以減少可能引發(fā)的對(duì)人類特性的過度聯(lián)想,是值得提倡的。
在此需要說明的是,人工智能體雖然可能是分布式認(rèn)知和群體智能之產(chǎn)物,但就存在形式而言,無論其是否具備類人的實(shí)體形態(tài),能夠賦予和獲得主體資格的人工智能體必須以單個(gè)的載體形式存在,從而應(yīng)當(dāng)是個(gè)體性的存在而非團(tuán)體性的存在。換言之,在存在形式上,人工智能體更“類于人”而非“類于團(tuán)體”。1
2.人工智能體之“算法意志”向理性要素之對(duì)齊
“理性”構(gòu)成了所有智性活動(dòng)的認(rèn)知基礎(chǔ)和實(shí)踐邏輯。2 近現(xiàn)代私法并不把現(xiàn)實(shí)世界的一切實(shí)體都確立為法律關(guān)系主體,而是在立法政策的作用下,以理性為依據(jù),選擇一定的實(shí)體賦予其民事主體地位,3 由此建構(gòu)起“私法主體是具備自由意志的實(shí)體”這樣一個(gè)主體制度上的“內(nèi)部體系”。4 以此為圭臬,人工智能體主體資格之賦予亦須向“理性”看齊,以此維持私法主體制度“內(nèi)部體系”建構(gòu)之“意義一致性”。
回望人類創(chuàng)造和發(fā)展人工智能之初衷,不過在于通過功能互補(bǔ)使人工智能更好地服務(wù)和助益人類及社會(huì)發(fā)展。就此而言,人工智能體之“算法”能否支持其“意志”獲具私法主體的理性要素,亦需從功能性出發(fā)予以分析評(píng)判。
一方面,人工智能體以完成目標(biāo)為取向的“功能意識(shí)”不僅可以使其表現(xiàn)得好像能夠理解人類及其行為表現(xiàn),而且它未來習(xí)得更深層次的判斷能力和理解能力并非不可能。意識(shí)話題一直是哲學(xué)上的難題,但探討理性問題卻總是離不開意識(shí)。其中,感知能力是意識(shí)的先決條件。5 人工智能體作為計(jì)算機(jī)編程和算法的產(chǎn)物,雖然我們無從知道其是否有感知能力,但不僅人們越來越多地傾向或者更愿意認(rèn)為人工智能體具有感知能力,6而且社交機(jī)器人等方面的研究已經(jīng)可以很好地證明,人工智能體完全可以“表現(xiàn)出”良好的感受性,可以通過多種方式識(shí)別人類情感,為人類提供更多和更良好的體驗(yàn)與感受。而一定的理解力是意識(shí)判定的重要考量。人工智能體雖然并非“知道”其在算法程序運(yùn)行下作出某種決策或者行為,也無法據(jù)此獲得和具有如同人類一般的認(rèn)識(shí)性與思維活動(dòng)屬性,但這并不影響它們與人類進(jìn)行“知己知彼”的決策與交流,也不妨礙它們將在更多領(lǐng)域與人類智能進(jìn)行交互。伴隨技術(shù)之未來發(fā)展,人工智能體習(xí)得深層次的判斷能力和理解能力并不存在不可逾越的障礙,7 獲得以完成目標(biāo)為取向的“功能意識(shí)”亦非不可能。換言之,如果一個(gè)人工智能體的結(jié)構(gòu)和機(jī)制允許其完成許多人類能夠完成的任務(wù),則它在功能上就是有意識(shí)的。8 達(dá)到人類水平的人工智能體,“還能夠進(jìn)行深思熟慮和自我反思,它可以產(chǎn)生創(chuàng)造性的想法,甚至特意評(píng)估它們”。9
另一方面,人工智能體可以借助“算法意志”進(jìn)行思考和決策,并通過深度學(xué)習(xí)獲得相當(dāng)于乃至超過人類的理性能力,實(shí)現(xiàn)行動(dòng)自動(dòng)化和決策自主化。人工智能研究雖然在技術(shù)路線上存在符號(hào)主義、聯(lián)結(jié)主義等差別,但均以算法為底層邏輯與技術(shù)支持,借助互聯(lián)網(wǎng)和數(shù)據(jù)挖掘技術(shù),依靠深度學(xué)習(xí)方法實(shí)現(xiàn)表達(dá)能力上的靈活多變與不斷嘗試,最終逼近目標(biāo)。10 由此可以說,算法是人工智能體的本質(zhì)和“大腦”,11 并借此作出決策與完成特定任務(wù)。而算法不過是“特定的計(jì)算將輸入數(shù)據(jù)轉(zhuǎn)換為所需的輸出的編碼程序”,12 其生成的意志與決策完全是計(jì)算機(jī)程序運(yùn)行的結(jié)果,可以稱為“程序化的意思”13 或“算法意志”,人工智能體的理性亦可以被稱為“算法理性”。該“算法理性”雖然與人類理性具有不同的決策機(jī)理、決策路徑及進(jìn)化方式,但極大地拓展了人類的理性能力,甚至成為一種高階形態(tài)的理性,1 可以通過深度學(xué)習(xí)歸納出能夠被計(jì)算機(jī)運(yùn)用在類似數(shù)據(jù)上的知識(shí)或規(guī)律,2 進(jìn)行類似于人類認(rèn)知的“想”和“思考”,輔助人類決策或完成特定任務(wù),而該種決策并非人類通過簡單邏輯就能直接預(yù)測其結(jié)果。3 當(dāng)下,人工智能算法的深度學(xué)習(xí)在某些領(lǐng)域的表現(xiàn)已經(jīng)達(dá)到和超過人腦水平,未來大數(shù)據(jù)技術(shù)的飛速發(fā)展不僅可以讓深度學(xué)習(xí)擁有更加豐富的數(shù)據(jù)資源來完成特定功能的“訓(xùn)練”,而且可以產(chǎn)生漣漪效應(yīng),使深度學(xué)習(xí)不斷進(jìn)行自身優(yōu)化而達(dá)到更優(yōu)結(jié)果,4 算法甚至可由機(jī)器創(chuàng)造或在機(jī)器運(yùn)行過程中自我修改而生成。5 彼時(shí),人工智能體的“算法理性”將遠(yuǎn)超人類智能之理性。
3.人工智能體之財(cái)產(chǎn)向財(cái)產(chǎn)要素之對(duì)齊
財(cái)產(chǎn)在民商法上具有基礎(chǔ)性意義。與人格、責(zé)任相連的財(cái)產(chǎn)通常是和特定的人相聯(lián)系的各種財(cái)產(chǎn)及權(quán)利的總和,一般不包括債務(wù)。6 這些財(cái)產(chǎn)既是民事主體生產(chǎn)經(jīng)營的物質(zhì)基礎(chǔ),亦是債務(wù)人承擔(dān)償債義務(wù)的基礎(chǔ),故常稱其為責(zé)任財(cái)產(chǎn)。7
眾所周知,近代之前的立法,常將人格系于財(cái)產(chǎn)、身份等外在,財(cái)產(chǎn)由此成為人格取得之根據(jù),以維護(hù)當(dāng)時(shí)之不平等社會(huì)。近代之后的各國立法摒棄系于人格之外在,僅依據(jù)出生之事實(shí)來承認(rèn)和賦予所有生物學(xué)意義上的人以自然人人格,從而維護(hù)和實(shí)現(xiàn)了人在法律地位上的平等。但“權(quán)利能力”概念工具之創(chuàng)造與運(yùn)用,在擴(kuò)張法律上人格者范圍之同時(shí),亦將財(cái)產(chǎn)拉回而成為組織體人格之事實(shí)要素,并奠定與夯實(shí)了組織體人格交易屬性和工具屬性之基礎(chǔ)。由此,財(cái)產(chǎn)成為組織體人格所必須,各國立法不僅常為該組織體人格獲得設(shè)置一定數(shù)量財(cái)產(chǎn)之強(qiáng)制,而且某些組織體人格本身即被視為一種“目的財(cái)產(chǎn)”,8 甚至這些組織體人格還可以在特定條件下被否認(rèn)。9
人工智能體具有“類人”的個(gè)體存在形式,人形機(jī)器人更是具有“類人”的身體與外形,但不僅其“硅基”構(gòu)成迥異于自然人之“碳基”,而且更不可能獲具人類的尊嚴(yán)與尊重。未來立法縱然可以承認(rèn)和賦予人工智能體以人格,但絕非基于其類人性與倫理性,而只能是某種功能考量之結(jié)果,即人工智能體之人格,應(yīng)當(dāng)猶如法人等組織體“人格之根據(jù),則在于其社會(huì)的價(jià)值也”。10 換言之,人工智能體之人格,絕不是從“人”這個(gè)字的原始意義和倫理角度出發(fā),而僅是在人格的形式化、法律意義上,說它們具有權(quán)利能力而已。11 這實(shí)際上與人工智能體作為技術(shù)的物化形態(tài)是一致的,并由此意味和昭示著人工智能體人格亦應(yīng)如同法人人格,具有為人的目的與屬性,屬于工具性人格。12 是以,未來立法在賦予人工智能體以主體資格時(shí),不僅需要貫徹和秉持人本主義與科技倫理、人機(jī)倫理等價(jià)值理念,而且需要對(duì)其人格獲具設(shè)置一定的財(cái)產(chǎn)要素,并使其人格主要限制在財(cái)產(chǎn)法領(lǐng)域,以契合其人格的功能性與工具性,維護(hù)人類的目的價(jià)值與尊嚴(yán)。
當(dāng)然,未來立法當(dāng)以財(cái)產(chǎn)來塑造和支撐人工智能體人格,應(yīng)同時(shí)考慮將其與民事責(zé)任制度相結(jié)合,以確定其權(quán)利能力取得所須具備的財(cái)產(chǎn)的必要性或相應(yīng)性。就目前而言,我國現(xiàn)行法已經(jīng)提供了法人和非法人組織兩種可資借鑒的財(cái)產(chǎn)與責(zé)任之間的協(xié)調(diào)方式,而在世界范圍內(nèi),還有更多方式可供借鑒與選擇。
總之,我們已經(jīng)站在一個(gè)美麗的、令人興奮而又充滿不確定性的新世界的入口。13 未來,伴隨著人工智能技術(shù)的幾何級(jí)發(fā)展,人機(jī)共生的智慧社會(huì)似乎已經(jīng)可以預(yù)見。私法理論有必要因應(yīng)社會(huì)發(fā)展,對(duì)人工智能體這一未來的新“社會(huì)成員”及其私法地位進(jìn)行前瞻性探討,并有必要從制度層面作出構(gòu)設(shè)性思考。
二、人工智能體的權(quán)利能力構(gòu)設(shè)
1.人工智能體權(quán)利能力取得的事實(shí)要素與法定程序
事實(shí)要素是人工智能體獲得權(quán)利能力和成為民事主體必須具備的實(shí)質(zhì)條件,包括理性、實(shí)體性、一定財(cái)產(chǎn),以及姓名或名稱、住所,并圍繞后三者展開論述。
首先,人工智能體必須具有某種物質(zhì)存在形態(tài),即一定的物質(zhì)實(shí)體性?!罢軐W(xué)是所有學(xué)科的基礎(chǔ)”,1哲學(xué)預(yù)設(shè)亦構(gòu)成了法學(xué)研究與理論分析的基石。2 傳統(tǒng)私法以意志論為哲學(xué)依歸,亦以自由意志,即理性為確認(rèn)和賦予私法主體資格的依據(jù),現(xiàn)當(dāng)代各國私法予以秉承。但是,在法權(quán)的世界中,由自由意志創(chuàng)設(shè)的法律具有外在性,即“法權(quán)概念只涉及在感性世界表現(xiàn)出來的東西。凡在感性世界中沒有因果性,而停留在內(nèi)心的東西,都應(yīng)放在另一個(gè)法庭,即道德法庭的面前”,3 這就要求作為法權(quán)主體的理性存在者必須借助某種物質(zhì)媒介進(jìn)入感性世界進(jìn)行表象活動(dòng),完成意志對(duì)該媒介的絕對(duì)支配,進(jìn)而為人格在感性世界中找到和劃定自由行動(dòng)的范圍。4 該種物質(zhì)媒介于自然人主體為其身體,即自然人在與母體分離而完成出生后獲得的物質(zhì)性的身體,并借此去感知經(jīng)驗(yàn)世界,完成意志與身體的同一,進(jìn)行表象活動(dòng),作用于自然界,5 進(jìn)而與其他主體發(fā)生法律關(guān)系而成為民事主體;于法人等主體而言,在法人實(shí)體說視域下,則為團(tuán)體形態(tài)的組織體或有機(jī)體。《中華人民共和國民法典》(以下簡稱《民法典》)中的法人制度,亦以法人實(shí)體說之組織體說為理據(jù),從而規(guī)定“法人是具有民事權(quán)利能力和民事行為能力,依法獨(dú)立享有民事權(quán)利和承擔(dān)民事義務(wù)的組織”。6 及至人工智能體,無論是從主體的自由意志必須借助某種物質(zhì)媒介進(jìn)入感性世界才能進(jìn)行活動(dòng)并實(shí)現(xiàn)其自由意志,還是從法律必須通過對(duì)主體及其外在行為進(jìn)行規(guī)范才能達(dá)至秩序維護(hù)之目標(biāo)來看,私法承認(rèn)和賦予其權(quán)利能力亦必須以其在客觀世界中具有某種物質(zhì)存在性為必要,即實(shí)體性是人工智能體權(quán)利能力取得必不可少的前提條件,這也是本文使用“人工智能體”作為表達(dá)的原因,有學(xué)者謂之“具身”,并認(rèn)為“具身與涌現(xiàn),是人形機(jī)器人所引發(fā)種種法律問題的事實(shí)基礎(chǔ)”。7 不過需要注意,雖然人形機(jī)器人具身可以進(jìn)一步激發(fā)人類承認(rèn)人形機(jī)器人主體資格的想象,8 但接近人類的外形不過是人工智能具身的實(shí)體形態(tài)之一,未來立法在考慮是否賦予人工智能體以主體資格時(shí),不應(yīng)以接近和具有人形為必要,而且應(yīng)當(dāng)盡量避免陷入人形機(jī)器人之陷阱,及其可能帶來和引發(fā)的人機(jī)倫理問題。
其次,必要的財(cái)產(chǎn)是人工智能體獲得權(quán)利能力的物質(zhì)基礎(chǔ)與責(zé)任保障。法學(xué)創(chuàng)造法律人格的概念意在將現(xiàn)實(shí)實(shí)體與法律主體分離開來,并根據(jù)一定標(biāo)準(zhǔn)挑選應(yīng)予法律人格化的社會(huì)實(shí)體,建立以之為中心的法律秩序。9 綜觀近代以來的各國立法,挑選社會(huì)實(shí)體進(jìn)入法律世界的標(biāo)準(zhǔn)因區(qū)分自然人與否而異。具體而言,自然人權(quán)利能力的賦予更多地受到人文主義的影響,基于人的價(jià)值同一性及人格平等之價(jià)值考量,從而要求割裂財(cái)產(chǎn)與其人格之關(guān)聯(lián)。而對(duì)自然人之外的法人與非法人組織等主體,其權(quán)利能力的賦予則更多是基于交易便捷和交易安全等功能性的考量,與人格之倫理性無關(guān),財(cái)產(chǎn)因此成為重要的考評(píng)標(biāo)準(zhǔn)。人工智能體雖然具有自然人的個(gè)體存在形式,部分甚至具有人之外形與“情感”表現(xiàn),但不具有自然人人格之倫理性,更不應(yīng)將其歸入自然人主體范疇,其權(quán)利能力之賦予可以考慮參照法人和非法人組織,以財(cái)產(chǎn)要素為考評(píng)標(biāo)準(zhǔn)。蓋因如前所述,“特定功能的實(shí)現(xiàn)是法律賦予某類社會(huì)存在民事主體地位的重要依據(jù)之一”,1 立法賦予人工智能體以權(quán)利能力亦是功能性考量之結(jié)果。由此,人工智能體工具人格與交易型人格之本質(zhì),需要立法為其權(quán)利能力的取得設(shè)定財(cái)產(chǎn)要素及一定數(shù)額的要求。當(dāng)然,一方面由于財(cái)產(chǎn)外在于主體,另一方面由于人工智能體在未來私法中兼具主體與客體的雙重屬性,2其主體資格必然是在法律上對(duì)其具有歸屬或者管理權(quán)能的某特定主體基于某種需求而設(shè)立的,故作為人工智能體權(quán)利能力取得所需要具備的財(cái)產(chǎn),亦應(yīng)當(dāng)由該人工智能體的所有人或管理人依照法律要求的數(shù)額予以投入。3
最后,姓名或名稱、住所亦是人工智能體權(quán)利能力取得的實(shí)體要素。姓名或名稱不僅是一個(gè)民事主體區(qū)別于其他主體的文字符號(hào)和社會(huì)交往的識(shí)記標(biāo)志,具有識(shí)別和特定化的功能,而且承載與彰顯著該民事主體意志自決等人格屬性,具有非常明顯而強(qiáng)烈的人格表征功能,4 是民事主體獲得他人關(guān)懷與尊重的人格基礎(chǔ)。在未來的人機(jī)共生社會(huì)中,我們不僅需要以姓名或名稱來區(qū)分和識(shí)別某個(gè)人工智能體“成員”與其他社會(huì)成員,而且當(dāng)它以民事主體身份與其他社會(huì)成員交往時(shí),提供姓名或名稱將成為其人格獲得尊重的基礎(chǔ)與保障。此外,人工智能體主體資格的功能性與工具性特征,也要求我們在考量便宜交易和國家監(jiān)管等方面時(shí),對(duì)其權(quán)利能力的獲得應(yīng)如同法人和非法人組織一樣實(shí)行“顯名主義”。即,人工智能體在獲得權(quán)利能力時(shí),必須具有自己的姓名或名稱,且原則上應(yīng)由其所有人或管理人在為其創(chuàng)設(shè)主體資格時(shí)自由選擇確定。當(dāng)然,立法機(jī)構(gòu)可以對(duì)人工智能體姓名或名稱的確定進(jìn)行必要的干預(yù),如要求遵守名稱唯一性原則、要素組成限定原則以及公序良俗原則等,以確保和維護(hù)姓名與名稱所承載的秩序功能。住所作為人工智能體進(jìn)行民事活動(dòng)的中心,同時(shí)也是法律確定與其相關(guān)的民事法律關(guān)系及法律事實(shí)的空間要素。因此,在人工智能體的所有人或其管理人為其創(chuàng)設(shè)主體資格和取得民事權(quán)利能力時(shí),也需要為其確定一個(gè)獨(dú)立的住所,或者可以選擇以所有人或管理人的住所作為其住所,并需對(duì)該住所進(jìn)行必要的登記。
程序要件是指立法承認(rèn)和賦予某一社會(huì)實(shí)體以權(quán)利能力所需遵循的法律程序,旨在記錄和向社會(huì)公開必要信息,同時(shí)實(shí)現(xiàn)國家的監(jiān)督管理職能。從現(xiàn)當(dāng)代各國立法實(shí)踐來看,這種程序和方式主要表現(xiàn)為登記。人工智能體權(quán)利能力取得的法律要素,除了需要審查事實(shí)要素以達(dá)到公示和國家監(jiān)管的目的外,還需要對(duì)人工智能體的安全性、透明性、可解釋性和倫理性等進(jìn)行必要的評(píng)估。更重要的是,必須設(shè)置登記的法定程序,以確保人工智能技術(shù)符合人類價(jià)值觀,5 即實(shí)現(xiàn)價(jià)值對(duì)齊,并觀照人類社會(huì)秩序與人機(jī)倫理秩序。此外,隨著世界經(jīng)濟(jì)的融合發(fā)展,更多國家傾向于通過強(qiáng)制登記來加強(qiáng)對(duì)國內(nèi)經(jīng)濟(jì)秩序的干預(yù)和管理。即便那些仍然采用任意登記制的國家,也從立法層面對(duì)登記的效力等方面進(jìn)行了某些調(diào)整,以引導(dǎo)民商事主體主動(dòng)進(jìn)行登記。《民法典》對(duì)自然人之外民事主體權(quán)利能力的取得,基本上也采取了強(qiáng)制登記的原則,并且根據(jù)不同類型的主體,制定了不同的規(guī)范。如對(duì)法人主體中的營利法人全面實(shí)行強(qiáng)制登記;6 對(duì)非營利法人,除依法不需要辦理法人登記的事業(yè)單位法人和社會(huì)團(tuán)體法人外,亦實(shí)行強(qiáng)制登記;7 對(duì)特別法人雖然交由法律、行政法規(guī)予以特別規(guī)定,但亦多采強(qiáng)制登記。8 因此,為與《民法典》之規(guī)定保持邏輯一致性,同時(shí)維護(hù)我國登記制度的統(tǒng)一性,對(duì)人工智能體權(quán)利能力的取得宜適用強(qiáng)制登記原則,并可以規(guī)定其權(quán)利能力自登記時(shí)取得。
當(dāng)然,通過登記程序完成和實(shí)現(xiàn)對(duì)人工智能體的安全性與倫理性等審查評(píng)估,可能涉及其權(quán)利能力取得時(shí)采用許可主義與準(zhǔn)則主義、形式審查與實(shí)質(zhì)審查的選擇問題。對(duì)此,可以規(guī)定將人工智能體的算法安全性、倫理性等評(píng)估作為申請(qǐng)登記的前置程序。即,申請(qǐng)人在申請(qǐng)登記之前,應(yīng)當(dāng)委托第三方對(duì)人工智能體的安全性、倫理性等進(jìn)行評(píng)估,并將評(píng)估報(bào)告作為申請(qǐng)文件一并提交給登記機(jī)關(guān)。登記機(jī)關(guān)在收到申請(qǐng)后,應(yīng)對(duì)包括評(píng)估報(bào)告在內(nèi)的申請(qǐng)文件進(jìn)行形式審查,審查通過后予以登記。人工智能體自登記之時(shí)起獲得主體資格。這樣的規(guī)定,一方面與我國民事立法在法人等團(tuán)體人格取得上實(shí)行的以準(zhǔn)則主義為主、許可主義為輔,以及以形式審查為主、實(shí)質(zhì)審查為輔的基本原則相一致,確保了立法上的邏輯自洽與體系統(tǒng)一;另一方面也能順應(yīng)數(shù)字法治的發(fā)展趨勢,解決登記機(jī)關(guān)在應(yīng)對(duì)人工智能算法規(guī)制的技術(shù)性難題以及傳統(tǒng)管控方式失效等問題上的無力感。在克制政府權(quán)力的同時(shí),通過引入第三方評(píng)估機(jī)制,實(shí)現(xiàn)對(duì)人工智能算法的評(píng)估與協(xié)同治理。
2.人工智能體的權(quán)利能力范圍及其限定
如果說自然人因其倫理本質(zhì)而被立法確認(rèn)并賦予范圍上無差別的權(quán)利能力,那么法人等主體則由于不具備人的倫理意義,其權(quán)利能力的范圍應(yīng)當(dāng)受到一定的限制。1 同樣地,人工智能體的權(quán)利能力范圍也應(yīng)當(dāng)受到限制,只不過這種限制是由人工智能體的技術(shù)屬性、法律規(guī)定以及功能目的而呈現(xiàn)出來的,與法人的限制有所不同罷了。
眾所周知,民法的調(diào)整對(duì)象具有雙重性,它同時(shí)規(guī)范和調(diào)整平等主體之間的財(cái)產(chǎn)關(guān)系和人身關(guān)系。這一特性決定了民法在內(nèi)容結(jié)構(gòu)上包括財(cái)產(chǎn)法(或稱物法)和人身法(或稱人法)兩部分。其中,財(cái)產(chǎn)法涵蓋物權(quán)法、債法等;人身法則通常分為人格權(quán)法和身份法。權(quán)利能力作為民事主體資格的標(biāo)志,同樣包括民事主體在財(cái)產(chǎn)法上的資格和人身法上的資格。換言之,全面而完整的權(quán)利能力應(yīng)當(dāng)既涵蓋在財(cái)產(chǎn)法上享有權(quán)利并承擔(dān)義務(wù)的資格,也涵蓋在人身法上享有權(quán)利并承擔(dān)義務(wù)的資格,從而能夠完整地展現(xiàn)民事主體的經(jīng)濟(jì)人屬性與倫理人屬性。
不過,由于不同主體在自然屬性和功能目的等方面的差異,各國立法均在不同程度上對(duì)民事主體的權(quán)利能力作出了某些限制。因此,不同類型的主體,乃至相同類型的主體,在權(quán)利能力范圍上都會(huì)呈現(xiàn)出某種差異??傮w來說,自然人的權(quán)利能力范圍相對(duì)更廣泛一些,這主要是由其自然人的倫理屬性所決定的,使得所有自然人均具有人身法上的主體資格,包括人格權(quán)和身份權(quán)方面的資格。而法人人格一方面與結(jié)社自由緊密相連,各國立法多允許設(shè)立人依據(jù)其自由意志來確定法人的權(quán)利能力范圍,這導(dǎo)致了不同法人的權(quán)利能力范圍各不相同且有所限制的局面。另一方面法人人格的生成本身主要是出于便捷交易的需要,并經(jīng)由權(quán)利能力這一實(shí)定法的“命令”而賦予。由此決定了法人主要應(yīng)在財(cái)產(chǎn)法領(lǐng)域進(jìn)行活動(dòng),即其人格具有和呈現(xiàn)出明顯的“經(jīng)濟(jì)人”屬性與面向。當(dāng)然,法人的經(jīng)濟(jì)人屬性并不意味著其完全不具備進(jìn)入人身法領(lǐng)域的資格,從而排斥其享有和承擔(dān)某些具有人身屬性的權(quán)利和義務(wù)。例如,我國及其他國家立法均規(guī)定和賦予了法人以某些人格權(quán),這在終結(jié)了法人能否享有人格權(quán)的理論爭議的同時(shí),也昭示了法人亦可以進(jìn)入人格法領(lǐng)域,并享有和承擔(dān)人格法上的權(quán)利與義務(wù)。只是相較于自然人,法人在這一領(lǐng)域的權(quán)利范圍明顯較窄而已。
人工智能體人格是實(shí)定法基于社會(huì)需要的功能考量,并經(jīng)由權(quán)利能力這一法律命令而生成的。因此,財(cái)產(chǎn)法領(lǐng)域自然應(yīng)當(dāng)向人工智能體敞開大門,即人工智能體應(yīng)當(dāng)具備進(jìn)入財(cái)產(chǎn)法領(lǐng)域、締結(jié)和參加財(cái)產(chǎn)法律關(guān)系、享有財(cái)產(chǎn)性權(quán)利和承擔(dān)財(cái)產(chǎn)性義務(wù)的資格,這同樣包括進(jìn)入知識(shí)產(chǎn)權(quán)領(lǐng)域并享有相應(yīng)權(quán)利、承擔(dān)相應(yīng)義務(wù)的資格。以當(dāng)下備受矚目的生成式人工智能為例,未來當(dāng)技術(shù)發(fā)展到一定程度時(shí),我們可以基于其行為模式的特殊性,2 以及相較于以人為主體的內(nèi)容創(chuàng)作模式所展現(xiàn)出的創(chuàng)新性、高效性和低成本性等優(yōu)勢與實(shí)益考量,3 承認(rèn)并賦予其相應(yīng)的權(quán)利能力,進(jìn)而認(rèn)可其作為著作權(quán)、專利權(quán)等知識(shí)產(chǎn)權(quán)的主體資格。當(dāng)然,立法在根據(jù)人工智能體的設(shè)立人意志確定和限制其權(quán)利能力范圍的同時(shí),也可以根據(jù)人工智能體的存在形式、類型、功能等差異,對(duì)不同類型、不同功能的人工智能體能夠進(jìn)入的財(cái)產(chǎn)法領(lǐng)域及其具體范圍作出明確規(guī)定。此外,基于特殊目的和人類法秩序的考量,立法還可以排除或限制人工智能體參加某些類型的財(cái)產(chǎn)法律關(guān)系和財(cái)產(chǎn)法人格。
在此,我們需要特別斟酌與審慎思考的是,是否應(yīng)承認(rèn)和賦予人工智能體以人身法人格的問題。盡管人工智能體可能具備類似于人的身體與智能,甚至能生成所謂的“自主意識(shí)”與“學(xué)習(xí)能力”,與人類和其他社會(huì)存在共存于同一時(shí)空,進(jìn)行社會(huì)交往與社會(huì)活動(dòng),并基于法律擬制而被承認(rèn)和賦予與自然人相似的法律人格,成為法律上的平等主體。然而,無論如何,人工智能體都無法獲得和具有人的倫理價(jià)值與倫理意義。否則,這將對(duì)人的倫理性乃至整個(gè)人類社會(huì)秩序帶來深刻的危機(jī)與挑戰(zhàn),甚至可能徹底顛覆人的主體性與目的價(jià)值。因此,未來立法在原則上應(yīng)當(dāng)禁止和否定向人工智能體開放人身法領(lǐng)域,以維護(hù)人的倫理地位與倫理價(jià)值,確保人類社會(huì)的一般倫理秩序與基本法秩序得以維系。正如學(xué)者所言,權(quán)利能力“作為立法者解決機(jī)器人身份定位的技術(shù)性措施,機(jī)器人地位的法律擬制只能在法律允許的范圍內(nèi)進(jìn)行必要的、有益的擬制”。1
與此同時(shí),考慮到人工智能體亦存在進(jìn)入人身法領(lǐng)域的需求,以及未來人格權(quán)類型與內(nèi)容的可能擴(kuò)張,立法可以在必要時(shí)對(duì)人工智能體得以進(jìn)入人身法領(lǐng)域的具體情形作出特別安排。這是因?yàn)?,一方面,人工智能體權(quán)利能力的賦予,實(shí)際上是從立法層面摒棄了傳統(tǒng)私法主體—客體二元對(duì)立的觀念與立場,引入了主體間性的觀念,從而在人工智能體與自然人及其他主體之間構(gòu)建了主體—主體的模式,形成了平等、共生與相互交互的關(guān)系。在這種交互關(guān)系中,人工智能體亦可能產(chǎn)生自由平等、相互尊重等社會(huì)交往和經(jīng)濟(jì)發(fā)展所必需的基本訴求,以促進(jìn)和實(shí)現(xiàn)其人格自由與人格發(fā)展。另一方面,在未來人機(jī)交互共生的社會(huì)發(fā)展中,人工智能體可能與自然人等主體建立和形成具有某種人格性和身份性內(nèi)容的法律關(guān)系,這體現(xiàn)了未來智慧社會(huì)豐富的法律價(jià)值和社會(huì)價(jià)值。而人工智能體亦可能由此產(chǎn)生出某種自我決定和自我發(fā)展的意思力成分,并與其所處時(shí)代的客觀價(jià)值共同作用,塑造和定義了人格權(quán)的權(quán)利屬性與權(quán)利本質(zhì),2 進(jìn)而這可能導(dǎo)致更多類型的人格權(quán)和更豐富的人格權(quán)內(nèi)容的生成與擴(kuò)張。將這些新的人格權(quán)賦予人工智能體,并不會(huì)對(duì)人類的倫理價(jià)值與社會(huì)秩序造成不利影響,因此應(yīng)為立法所允許。
當(dāng)然,由于人工智能體人格與法人人格同樣是法律技術(shù)的產(chǎn)物,因此,人工智能體人格亦應(yīng)如同法人人格一般,在特定條件下可以被否認(rèn)或限制。3 也就是說,在承認(rèn)和允許人工智能體進(jìn)入人身法領(lǐng)域的同時(shí),必須嚴(yán)格限制其進(jìn)入的范圍,僅限于維護(hù)其社會(huì)交往與經(jīng)濟(jì)交往所必需的姓名或名稱、名譽(yù)、榮譽(yù)等人格法領(lǐng)域。在身份法領(lǐng)域,亦應(yīng)當(dāng)將其限縮在監(jiān)護(hù)等產(chǎn)生非親屬身份的領(lǐng)域,并明確禁止人工智能體進(jìn)入可能與人類產(chǎn)生和形成親屬關(guān)系的身份法領(lǐng)域,尤其應(yīng)當(dāng)明確禁止其進(jìn)入專屬于人類的婚姻關(guān)系、收養(yǎng)關(guān)系等身份法領(lǐng)域。這既是維護(hù)人的倫理性、價(jià)值性與目的性,維護(hù)人類繁衍與人類社會(huì)的倫理秩序之所需,也是維護(hù)私法領(lǐng)域中社會(huì)關(guān)系與家庭關(guān)系分別而立的要求??v觀人類社會(huì)發(fā)展歷程,無論社會(huì)領(lǐng)域如何急劇變革,家庭結(jié)構(gòu)的超穩(wěn)定性都未被動(dòng)搖和打破。家庭亦未被社會(huì)和國家所淹沒,近現(xiàn)代家庭法由命令到協(xié)商的變革亦無法改變和消除“家庭身份”的概念。家庭始終是社會(huì)中的特殊領(lǐng)域,是私法中的人不同于社會(huì)生活的另一種存在狀態(tài)。4 因此,對(duì)于技術(shù)與工具性存在的人工智能體,立法必須使其止步于家庭領(lǐng)域與家庭關(guān)系。就此而言,人工智能體的權(quán)利能力應(yīng)當(dāng)如同法人權(quán)利能力一般,是一種有一定限制的權(quán)利能力,或者說僅具有部分權(quán)利能力。即具有財(cái)產(chǎn)法上的能力和參與法律交易的能力,5從而原則上排除其在身份法領(lǐng)域的人格生成,尤其是應(yīng)當(dāng)排除其產(chǎn)生親屬身份的法律人格。同時(shí),由于“法律對(duì)于社會(huì)關(guān)系的規(guī)整是通過權(quán)利義務(wù)配置的方式來實(shí)現(xiàn)的,作為法律關(guān)系的主體,必然意味著相應(yīng)利益的享有以及相應(yīng)義務(wù)的履行”,6在從立法上限制人工智能體得以進(jìn)入的人身法領(lǐng)域及其所能參加的人格法律關(guān)系與身份法律關(guān)系的同時(shí),必須明確和限定其能夠享有的權(quán)利類型與權(quán)利范圍,從而使人工智能體得以依法進(jìn)入的人身法領(lǐng)域、依法參加的人身法律關(guān)系和依法享有的人身權(quán)之間達(dá)到立法上的邏輯自洽與協(xié)調(diào)統(tǒng)一。
三、人工智能體的行為能力與責(zé)任能力構(gòu)設(shè)
1.人工智能體的行為能力
“法律制度要承認(rèn)表意人表示出來的意思,就必須設(shè)定表意人具有理智地形成意思的能力這一前提?!? 故而,在關(guān)于是否承認(rèn)和賦予人工智能體私法主體資格的爭論與質(zhì)疑中,最核心的議題就在于其是否具有理性。這種理性能力的有無與程度,將直接影響和決定人工智能體行為能力的有無與層次。
如前所述,人工智能體具備以完成目標(biāo)為導(dǎo)向的“功能意識(shí)”,使其能夠很好地理解人類及其行為表現(xiàn)。未來,隨著深度學(xué)習(xí)性能的不斷提升,人工智能的判斷能力、理解能力和與人類交互的能力也將進(jìn)一步增強(qiáng)。此外,人工智能體通過“算法”生成的決策機(jī)制,可能使其獲得相當(dāng)于甚至超越人類的理性能力,從而實(shí)現(xiàn)自主決策與行動(dòng)自由。因此,在面向未來人工智能技術(shù)日益成熟的智慧社會(huì)中,理性似乎并不會(huì)成為阻礙賦予人工智能體主體資格的理論障礙。人工智能體將擁有以理性為基礎(chǔ)、以功能為導(dǎo)向的行為能力,且這種行為能力與自然人的意志自覺性高度一致,即都是從確定的目標(biāo)出發(fā),清晰地認(rèn)識(shí)和理解行動(dòng)的目的與意義,并根據(jù)這種認(rèn)識(shí)來指導(dǎo)和處理事務(wù),支配自身行動(dòng)。
但是,與自然人的心智完善和理性能力獲得需要經(jīng)歷時(shí)間的積累,即隨著年齡增長而不斷成熟不同,各國立法主要借助年齡這一簡單、確定且較為穩(wěn)妥的標(biāo)準(zhǔn)來認(rèn)定自然人行為能力的有無與程度。相比之下,人工智能體的功能意識(shí)與算法決策雖然依賴于大數(shù)據(jù)的“喂養(yǎng)”與訓(xùn)練,但只要數(shù)據(jù)樣本量足夠豐富,便能在短時(shí)間內(nèi)實(shí)現(xiàn)自我學(xué)習(xí)與智能提升,從而達(dá)到法律認(rèn)可的民事主體所須具備的最低程度的判斷力。2 因此,人工智能體行為能力的開始、終止與范圍更類似于法人。未來立法可以參考法人行為能力制度,規(guī)定人工智能體在登記取得權(quán)利能力的同時(shí)即獲得行為能力,并在權(quán)利能力終止時(shí)同時(shí)消滅其行為能力。也就是說,人工智能體的行為能力與權(quán)利能力同時(shí)產(chǎn)生、同時(shí)終止,且二者在范圍上亦應(yīng)保持一致。
對(duì)于人工智能體的行為能力,我們還需要明確其行為能力如何實(shí)現(xiàn)的問題。因?yàn)椋煌谌祟愖鳛槔硇源嬖谖锖秃饬咳f物的標(biāo)準(zhǔn),人類不僅能依據(jù)其理性產(chǎn)生自由意志并進(jìn)行自主決策,還能通過自主行動(dòng)來落實(shí)和實(shí)現(xiàn)這些自由意志。盡管自然人的理性具有生成與發(fā)展的特點(diǎn),健全和完整的理性能力與生而即獲的權(quán)利能力之間存在需要通過年齡與心智成長來彌補(bǔ)的差距,但法律已經(jīng)通過監(jiān)護(hù)和法定代理等制度設(shè)計(jì),借助監(jiān)護(hù)人或法定代理人的意志與行為,來輔助欠缺行為能力的人實(shí)現(xiàn)其行為能力。相比之下,法人人格的確立是基于“法律命令”賦予的“權(quán)利能力”的結(jié)果,其人格的實(shí)現(xiàn)與對(duì)法人本質(zhì)的認(rèn)識(shí)相關(guān)。秉持實(shí)在論之組織體說的立場,法人是“由于法律使它可能形成獨(dú)立于各個(gè)成員的意思的‘總意思’,也可能通過為它設(shè)置的個(gè)人(‘機(jī)關(guān)’)而活動(dòng),它就能在社會(huì)現(xiàn)實(shí)中得到自己的有效活動(dòng)范圍”。3 由此,法人作為權(quán)利能力者,其“行為能力通常是由法人的機(jī)關(guān)或者法人機(jī)關(guān)委托的代理人來實(shí)現(xiàn)”。4
人工智能體的權(quán)利能力雖然在功能目的與制度設(shè)計(jì)上更類似于法人,但在行為能力實(shí)現(xiàn)上卻并非如同法人那樣需要借助其機(jī)關(guān)或工作人員,而是可以像自然人一樣由其自身來實(shí)現(xiàn)。這是因?yàn)槿斯ぶ悄荏w具有與自然人相似而區(qū)別于法人的存在基礎(chǔ),即它是一個(gè)個(gè)體性的實(shí)體存在,而非團(tuán)體性。這種個(gè)體性使得人工智能體能夠借助算法這一“技術(shù)理性”生成自身健全而完整的“意志”。同時(shí),其實(shí)體性則使其自由意志得以通過這一“體”獲得表征與承載、感知與經(jīng)驗(yàn)的統(tǒng)一,也為其行為能力的實(shí)現(xiàn)提供了方式與途徑。因此,人工智能體無須依賴外在的機(jī)關(guān)或其他個(gè)人,而是可以像自然人一樣,通過其“算法意志”支配其“體”,自主地作出決策與行動(dòng),從而實(shí)現(xiàn)其行為能力。當(dāng)然,從人工智能算法治理的角度來看,人工智能體的“技術(shù)理性”可能面臨算法透明度不足、1 人的編程局限、無法觸及人的心性與靈性,以及大數(shù)據(jù)失實(shí)等挑戰(zhàn)與局限。2 這些需要通過有價(jià)值的法治來規(guī)范技術(shù)理性,3 或者借助實(shí)踐理性來糾正工具理性與技術(shù)理性的偏差,實(shí)現(xiàn)對(duì)價(jià)值理性的強(qiáng)化與超越。4 然而,這些并不能否定或影響人工智能體借助算法理性生成“算法意志”和實(shí)現(xiàn)自動(dòng)決策的能力。相反,它們引導(dǎo)我們進(jìn)一步推進(jìn)可信和負(fù)責(zé)任的人工智能的發(fā)展,5 以助益于和諧、美好人機(jī)社會(huì)與人機(jī)秩序的構(gòu)建,使算法理性和技術(shù)理性更加契合價(jià)值引導(dǎo)的現(xiàn)代法治精神,6 從而有助于構(gòu)建和諧、美好的人機(jī)社會(huì)與人機(jī)秩序。
2.人工智能體的責(zé)任能力
“民事主體地位的確認(rèn),落腳點(diǎn)在民事責(zé)任的承擔(dān),構(gòu)建自由、公平、正義、安全、效率、秩序的法律制度環(huán)境,不能獨(dú)立承擔(dān)責(zé)任的存在無法成為有法律意義的民事主體。”7 因此,人工智能體是否具有責(zé)任能力成為賦予其主體資格時(shí)需要分析解決的問題。然而,由于責(zé)任能力是一個(gè)與行為能力緊密相關(guān)且頗具爭議的問題,其爭議在自然人主體方面主要聚焦于無行為能力人和限制行為能力人是否具備責(zé)任能力。盡管這一問題值得關(guān)注,但鑒于自然人的目的價(jià)值與倫理意義,它對(duì)人工智能體責(zé)任能力問題的參考價(jià)值有限,因此本文不做深入探討與展開。對(duì)于法人而言,責(zé)任能力的爭議則主要源于對(duì)法人本質(zhì)的認(rèn)識(shí)分歧。具體而言,法人否認(rèn)說在否認(rèn)法人具有權(quán)利能力與行為能力的同時(shí),也否認(rèn)法人具有責(zé)任能力;而法人實(shí)在說則主張法人同時(shí)具備權(quán)利能力、行為能力與責(zé)任能力。我國民事立法既以法人實(shí)在說之組織體說為理論基礎(chǔ),亦承認(rèn)法人具有完全的責(zé)任能力,故《民法典》第六十條和第六十二條第一款分別規(guī)定“法人以其全部財(cái)產(chǎn)獨(dú)立承擔(dān)民事責(zé)任”“法定代表人因執(zhí)行職務(wù)造成他人損害的,由法人承擔(dān)民事責(zé)任”。
當(dāng)然,《民法典》作為中華人民共和國成立以來第一個(gè)以“典”命名的法律,其時(shí)代性要求其必須順應(yīng)社會(huì)發(fā)展而進(jìn)行某些制度創(chuàng)新與規(guī)則更迭,包括在民事主體制度架構(gòu)上完成和實(shí)現(xiàn)了從二元制到三元制的轉(zhuǎn)向與擴(kuò)張,并由此帶來非法人組織的權(quán)利能力、行為能力與責(zé)任能力問題。從《民法典》第一百零二條8 和第一百零四條對(duì)非法人組織的概念及其責(zé)任的規(guī)定來看,9 可以認(rèn)為非法人組織具有與其權(quán)利能力和財(cái)產(chǎn)相應(yīng)的行為能力與責(zé)任能力。換言之,非法人組織具有不完全的行為能力與責(zé)任能力,該不完全性是非法人組織權(quán)利能力的不完全性和財(cái)產(chǎn)不獨(dú)立性的要求與結(jié)果。
未來立法在基于功能考量時(shí),可以承認(rèn)并授予人工智能體以權(quán)利能力。然而,在比較法人和非法人組織兩種制度后,借鑒非法人組織權(quán)利能力的特殊性,承認(rèn)并賦予人工智能體以相應(yīng)的行為能力與責(zé)任能力似乎更為妥當(dāng)。原因有三:其一,人工智能體與非法人組織的權(quán)利能力賦予均是基于社會(huì)功能需求而進(jìn)行的考量結(jié)果。二者在權(quán)利能力上具有工具性主體的同質(zhì)性,這為借鑒非法人組織權(quán)利能力的特殊性構(gòu)造提供了可能。其二,基于人類的倫理價(jià)值與人類社會(huì)倫理秩序的維護(hù)考量,立法上需要對(duì)人工智能體的權(quán)利能力與行為能力作出必要限制。特別是需要明確禁止其進(jìn)入某些具有人身性與人格性內(nèi)容的社會(huì)領(lǐng)域和法律關(guān)系,禁止其享有和承擔(dān)婚姻家庭關(guān)系中的身份性權(quán)利與義務(wù)等。這實(shí)際上決定了人工智能體的權(quán)利能力本身就應(yīng)具有特殊性與不完全性,并由此決定了其行為能力與責(zé)任能力的限定性。其三,從財(cái)產(chǎn)與責(zé)任的關(guān)系出發(fā),如果借鑒法人的獨(dú)立財(cái)產(chǎn)與獨(dú)立責(zé)任來構(gòu)建人工智能體主體制度,并規(guī)定其具有完全的行為能力與責(zé)任能力,那么基于交往安全的考慮,立法需要為其權(quán)利能力的取得設(shè)置一個(gè)較高且較大的財(cái)產(chǎn)要素。這不僅可能給其設(shè)立人帶來較大負(fù)擔(dān),而且將極大地影響和阻礙人工智能技術(shù)與產(chǎn)業(yè)的未來發(fā)展。因此,相比之下,借鑒非法人組織在權(quán)利能力、行為能力與責(zé)任能力上的特殊性與非完全性,在立法上確認(rèn)人工智能體享有相應(yīng)的權(quán)利能力、行為能力與責(zé)任能力,可能具有更大的實(shí)際益處。
人類社會(huì)本質(zhì)上是一個(gè)充滿非線性與不確定性、脆弱性與風(fēng)險(xiǎn)性的復(fù)雜社會(huì)。自20世紀(jì)80年代以來,人類社會(huì)更是步入了一個(gè)高度不確定和高度復(fù)雜的“全球風(fēng)險(xiǎn)社會(huì)”時(shí)代。1 人工智能技術(shù)及其應(yīng)用的發(fā)展進(jìn)一步加劇并復(fù)雜化了這種風(fēng)險(xiǎn)的不確定性。私法在面向可預(yù)見未來進(jìn)行制度重構(gòu)與規(guī)則設(shè)計(jì)時(shí),不僅要應(yīng)對(duì)和解決數(shù)字經(jīng)濟(jì)社會(huì)發(fā)展所帶來的人工智能體的法律地位問題,更要通過合理配置責(zé)任來防控和解決由數(shù)字經(jīng)濟(jì)發(fā)展,包括人工智能技術(shù)發(fā)展所引發(fā)的不確定風(fēng)險(xiǎn),從而避免對(duì)既有法律關(guān)系和社會(huì)秩序造成更大的威脅和沖擊。當(dāng)然,人工智能體作為民事主體參與民事法律關(guān)系,享有權(quán)利、承擔(dān)義務(wù)與責(zé)任的前提是擁有一定的財(cái)產(chǎn)。因此,需要解決其財(cái)產(chǎn)的來源與管理問題,并最終落實(shí)到責(zé)任的歸屬與承擔(dān)上。而關(guān)于人工智能體的人格是否與其所有人或管理人的人格完全獨(dú)立,以及是否與他們的財(cái)產(chǎn)和責(zé)任完全分離,如何在制度與規(guī)則上進(jìn)行銜接與構(gòu)設(shè),這不僅是對(duì)立法者智慧的考驗(yàn),也是學(xué)界同仁需要繼續(xù)深入思考和斟酌的問題。
The Private Law Construction of Artificial Intelligence Subject System from the Perspective of Functionalism
WANG "Chunmei
Abstract: Looking ahead to the future, artificial intelligence (AI) technology and its practical applications will engage more extensively and deeply in human social activities, forming and generating various social and legal relationships as “members of society.” AI’s status in private law will become an unavoidable issue. Sound legislation should reflect on and align with societal development. However, when deciding whether to include AI agents in the legal framework of subjects, it is necessary to conduct a granularity-based comparison between AI agents and the factual elements of private law subject qualifications. Only on this basis can the institutional construction of capacity for rights and capacity to act be appropriately addressed. In constructing the institutional framework of capacity for rights, it is essential to address not only the factual elements and legal procedures for AI agents to acquire capacity for rights, but also to clarify the scope and limitations of their capacity for rights. When constructing the system of capacity to act, an in-depth analysis is required to resolve issues concerning the exercise of the capacity to act by AI agents, as well as the closely related issue of their capacity for liability.
Keywords: Functionalism; artificial intelligence agents; algorithmic will; capacity for rights; capacity to act; capacity for liability
(責(zé)任編輯:蘇建軍)