董 芮
本文中的人工智能是實體層面上的人工智能,是指能不依賴于人的思維與決策而替代協(xié)助人執(zhí)行相應(yīng)使命的機(jī)器。我所討論的人工智能都是實體,如果提及技術(shù)或者系統(tǒng)將直接表達(dá)成人工智能技術(shù)或者人工智能系統(tǒng)。
人工智能凝聚著人類智慧成果,并通過編程實現(xiàn)。人工智能的人工是指事先經(jīng)過人的編程與設(shè)計而使得人工智能具有人期望實現(xiàn)的能替代人處理問題的功能,即人工智能不存在先天性。
人工智能擁有人類大腦中的部分功能。人工智能的智能內(nèi)涵,在于它具有部分人類大腦智慧功能。當(dāng)前,人工智能具備人腦中的識別、記憶、分析、決策、總結(jié)等基本功能。
人工智能最重要、最明顯的特點就是代替性、輔助性,即協(xié)助或替代人解決并處理一部分問題。由于人工智能是通過人類的編程設(shè)計進(jìn)而產(chǎn)生某部分人腦功能,因此人工智能不可能完全取代人類。就像其他科學(xué)技術(shù),都是由人類為讓人類生活更方便、更快捷而發(fā)明和創(chuàng)造的。
從目前來看,人工智能的總體發(fā)展程度處于弱人工智能的這個階段,按照人工智能總體智能水平的發(fā)展程度可以將其分為三個階段。
第一階段、弱人工智能:實質(zhì)上是一種服務(wù)于人的手段,它不具備獨立思考能力,它必須在人的協(xié)助下,由人進(jìn)行編程,設(shè)計和創(chuàng)作,才能完成相關(guān)工作。
第二階段、強(qiáng)人工智能:指能從各方面與人相比,這時能實現(xiàn)人腦活動標(biāo)準(zhǔn)化甚至更高水平。它在行為方面具有獨立自主性,能隨不同的環(huán)境與情境而做出不同改變,不需要人的干預(yù)而能獨立地知覺、思考與行為。但這并不等于徹底離開了人,它仍然要根據(jù)設(shè)計者進(jìn)行設(shè)計和創(chuàng)作。
第三階段、超人工智能:這意味著人工智能在各方面超過了人類的智能水平。既能獨立自主又能與人徹底分離的機(jī)器人制造。
是否賦予人工智能法律主體資格是探討人工智能規(guī)范治理問題的邏輯出發(fā)點,從而成為學(xué)界探討的重點。當(dāng)前法學(xué)界主要有三種意見,一是應(yīng)賦予法律主體資格的肯定說,二是不宜賦予法律主體資格的否定說,三是折中說。
法律擬制說認(rèn)為民事主體隨時代發(fā)展而呈現(xiàn)擴(kuò)張之勢,因此人工智能可以對標(biāo)法人,通過法律擬制的方式取得主體資格,但是意志的形成與表達(dá)仍然是自然人的行為,如同法人仍然是法人代表的行為一樣。而股東與公司間是建立在投資關(guān)系上的,公司則完全聽從股東的話,而且公司擁有獨立的資產(chǎn),能自行獨立地承擔(dān)起人的責(zé)任,在特殊情況下能戳破公司面紗地由其身后的自然人來承擔(dān)。但是人工智能并沒有自己單獨的資產(chǎn),也不可能責(zé)任自負(fù),同時人工智能又具有較強(qiáng)的自主性,它沒有完全被自然人所控制,類似于企業(yè)刺破面紗的做法在此也是不成立。
電子人格說的觀點首先在歐盟這一國際組織中被提出來,同時也公開認(rèn)可人工智能具有法律主體的地位。其目的在于給機(jī)器人創(chuàng)造出一個既區(qū)別于傳統(tǒng)法律主體又區(qū)別于既有法律客體——電子人這一新范疇。但人工智能伴隨著技術(shù)的發(fā)展而演進(jìn),其強(qiáng)大的感知與能力可以讓其輕松處理各類問題,而一旦被發(fā)動就不再受外界支配的獨立自主能力也會讓其行為表現(xiàn)得雖智能卻不可預(yù)知。這一性質(zhì)會極大地增強(qiáng)它失控的危險,而這一事件使人類負(fù)有相應(yīng)責(zé)任明顯失之于公平和正義,同時又妨礙了科學(xué)技術(shù)的發(fā)展。
代理說把人工智能看作代理人,就相當(dāng)于認(rèn)可了人工智能的民事法律地位。代理分委托代理與法定代理兩種,人工智能若為委托代理,人工智能產(chǎn)生的后果應(yīng)由被代理人承擔(dān),除非被代理人在自己有過錯時能夠要求自己承擔(dān)賠償責(zé)任。但如何證明自己主觀上存在過錯,并使自己承擔(dān)何種責(zé)任,還無法解釋。法定代理以親緣關(guān)系為基礎(chǔ),當(dāng)前人工智能和自然人不具有這種關(guān)系,因此二者之間無法實現(xiàn)法定代理。
有限人格說是目前支持度最高的理論之一,該學(xué)說主張在分清人工智能種類的同時進(jìn)一步確定對應(yīng)的主體資格問題。該學(xué)說認(rèn)為應(yīng)該具體問題具體分析,將強(qiáng)人工智能賦予主體資格(納入自然人范疇),弱人工智能仍處于客體位置。
否定說認(rèn)為人工智能雖具有一定程度上的智慧,但并沒有人之感情與理智,由人支配的人工智能暫時還不足以獲得民事主體資格。
工具說考慮到人工智能體沒有法律主體地位和法律人格,而是將其視為一種工具,以人類的利益為出發(fā)點來進(jìn)行開發(fā)和使用。工具論者尤其強(qiáng)調(diào)人工智能的工具屬性——機(jī)械性并堅決維護(hù)法律體系中人的中心地位??萍疾贿^是人改造社會的工具,人才是目的。在這一領(lǐng)域中,無論技術(shù)將達(dá)到何種程度,機(jī)器的工具屬性注定了其始終只能是人的工具,無法和人享有平等的法律地位。
電子奴隸說認(rèn)為人工智能也沒有人所特有的感情和肉體特征,它只會像電子奴隸那樣為人服務(wù)。
目前的研究囿于既有法律、技術(shù)水平和大眾心理承受能力等方面的限制,肯定說所倡導(dǎo)賦予人工智能以獨立身份的原因并不充分,特別是缺乏針對特定類型法律的分析,很難提出實質(zhì)性的有力依據(jù),故而否定說占了上風(fēng)。
所謂人工智能中的意識,只是人借助技術(shù)手段給予的結(jié)果,而沒有真正意義上的自覺與思考。所以強(qiáng)人工智能不能因高度類人化賦予法律主體資格來打破傳統(tǒng)民法中權(quán)利主體與權(quán)利客體區(qū)分的理論。
與之形成鮮明對比的是,弱、中度人工智能操作需要人來操控,不具備自主學(xué)習(xí)能力。學(xué)界對認(rèn)定其為物與權(quán)利客體之定性并無爭議。
因此,我們需要探討的問題時,強(qiáng)人工智能是否具有法律屬性,即是否應(yīng)該被視為人或事,是否具備法律人格。我認(rèn)為,強(qiáng)人工智能作為人造物和權(quán)利客體,不應(yīng)該獲得法律主體資格。
本人認(rèn)為強(qiáng)人工智能作為人造物和權(quán)利客體不應(yīng)獲得法律主體資格。具體原因如下:
在立法技術(shù)及立法效果層面上,人工智能與自然人相比沒有獨立思考的能力,對自己的行為欠缺后果意識。與人相比,其沒有獨立的財產(chǎn),無法及時有效地對利益受損方主體進(jìn)行清償。即便是通過一定方式對人工智能財產(chǎn)進(jìn)行分配來解決人工智能財產(chǎn)不能獨立承擔(dān)責(zé)任這一難題,但是說到底,人工智能財產(chǎn)背后的終極投資者仍然是人,給予人工智能財產(chǎn)以法律主體的身份,并沒有實質(zhì)性的意義。
賦予人工智能產(chǎn)品以法律主體地位并無助于人工智能創(chuàng)作物的歸屬問題。版權(quán)保護(hù)實際上并不在于作品是否具有某種用途或高度審美價值,而在于作者是否具備個性化元素。這一個性化元素是人格所蘊含的一定性格的表現(xiàn),正是這一性格成了他取得版權(quán)的必要條件,才使他的創(chuàng)作成果能夠在著作權(quán)法上稱之為作品。
人工智能所產(chǎn)生的內(nèi)容都是經(jīng)過規(guī)則、算法或反復(fù)論證演繹的產(chǎn)物,沒有與反映人類獨創(chuàng)性及任何個性化特點,不可以認(rèn)定為一部著作。說到底,知識產(chǎn)權(quán)法所保護(hù)的只是人類智力成果,人工智能不可能與人類畫上等號,從而也就不可能得到知識產(chǎn)權(quán)法所保護(hù)。版權(quán)制度從一開始就對人們賦予了版權(quán)。機(jī)器擁有知識產(chǎn)權(quán)是無意義的,機(jī)器創(chuàng)新不需要依賴外界環(huán)境的刺激,當(dāng)然不需要保護(hù)。與把人工智能當(dāng)作合作作品獨立作者相比,把它所帶來的貢獻(xiàn)算為有能力償付侵權(quán)人真實損失,因此受害人并不能真正獲得補(bǔ)償和彌補(bǔ)。與此同時,授予人工智能創(chuàng)作物主體資格自身并無實際意義。工作所產(chǎn)生的獲益以及工作可能導(dǎo)致的侵權(quán)糾紛,這些法律后果都不能為人工智能技術(shù)所承擔(dān),也不能為機(jī)器所承擔(dān),仍然只能為機(jī)器使用者或所有人享有權(quán)利或承擔(dān)義務(wù)。
盡管人工智能已展現(xiàn)出了非常優(yōu)秀的工作能力,但根據(jù)當(dāng)前人工智能領(lǐng)域的技術(shù)發(fā)展水平來看,人工智能仍然不能與人類劃等號,如強(qiáng)大的人工智能即使擁有發(fā)達(dá)的大腦,也不可能像人那樣思維而不具備情感能力。他寫的文藝作品盡管文采性很強(qiáng),但是無法表達(dá)出像人類那樣對同一事物表達(dá)出的感情,人工智能也不存在悲歡離合之類的感情,做出的行為亦沒有反映出某種獨立的意識和符合民法意思表示的要求,沒有認(rèn)識能力去理解自己行為的結(jié)果,僅是冰冷的機(jī)器。意思能力和決策機(jī)制標(biāo)準(zhǔn)是評判民事主體適格與否的實質(zhì)性標(biāo)準(zhǔn)。
另外,民事主體做出某種民事行為會從心理上產(chǎn)生某種動機(jī)予以推動,人工智能所做出的行為則不是。人進(jìn)行某種行為會產(chǎn)生心理價值評價,多數(shù)會產(chǎn)生利我傾向。而且人工智能沒有什么情感上的需求,也不需要談?wù)搶δ澄锏膬r值評估。人的行為常常帶有某種隨機(jī)因素,人們做某種行為也常以感情為基礎(chǔ),這種感情受到錯綜復(fù)雜的外在環(huán)境及豐富的內(nèi)在心理變化的影響,也許,一個極細(xì)微因素的改變,便能使人類做出迥然不同的表現(xiàn)。而且這些條件對人工智能而言都是沒有的,其行為僅受數(shù)據(jù)算法影響,不受心理波動、情感變化等因素影響。
人工智能的法律主體資格定會影響社會關(guān)系的穩(wěn)定。其一,人工智能若能成為民事主體,將催生出等同于人類法律地位的新物種,社會生產(chǎn)生活、資源分配等模式也將由此發(fā)生劇烈變化,造成人類無法預(yù)知的后果。從而使得人類在面對這個新物種時難以事先進(jìn)行風(fēng)險防范,使得社會關(guān)系穩(wěn)定和諧的狀態(tài)將面臨極大的未知風(fēng)險。
其二,給予人工智能獨立的主體資格必然導(dǎo)致其所有權(quán)人成為特權(quán)群體,導(dǎo)致該群體成為人上人。一般能夠擁有較強(qiáng)人工智能的群體都處于財富水平極高的精英階層,賦予人工智能主體資格會進(jìn)一步加劇社會中人與人之間的隔閡、傳統(tǒng)社會秩序受到?jīng)_擊,致使擁有強(qiáng)人工智能的群體與其他群體發(fā)生劇烈利益沖突。
其三是人工智能作為獨立責(zé)任主體獲得法人資格極易引發(fā)道德風(fēng)險。人工智能不具有理性認(rèn)識事物的可能性,實際控制人會在人工智能的幫助下侵害他人合法權(quán)利,其獨立責(zé)任主體會成為實際控制人避免侵權(quán)責(zé)任承擔(dān)的避風(fēng)港。
賦予人工智能主體資格可能會帶來很多好處。這將確保人工智能受到法律保護(hù)。這意味著,如果人工智能被惡意利用或受到傷害,相關(guān)的法律機(jī)構(gòu)可以干預(yù)并保護(hù)其權(quán)益。然而,賦予人工智能主體資格也可能會帶來一些問題。首先,這可能會導(dǎo)致一些道德和倫理問題。例如,如果一個人工智能被賦予了主體資格,那么它是否有權(quán)利擁有自己的意識和自由意志?其次,賦予人工智能主體資格也可能會導(dǎo)致法律上的困難。例如,如果一個人工智能造成了傷害或損失,那么責(zé)任應(yīng)該由誰承擔(dān)?
因此,賦予人工智能主體資格是一個需要慎重考慮的問題。我們需要權(quán)衡其帶來的好處和問題,并制定出相應(yīng)的法律和倫理標(biāo)準(zhǔn)來指導(dǎo)其發(fā)展和應(yīng)用。只有這樣,我們才能確保人工智能的發(fā)展符合人類的利益并得到良好的應(yīng)用。