陳 鵬
伴隨科學(xué)技術(shù)的不斷進步,我們已經(jīng)悄然進入到人工智能時代。2017年7月20日,國務(wù)院下發(fā)了《關(guān)于新一代人工智能發(fā)展規(guī)劃的通知》,通知指出,人工智能是影響面廣的顛覆性技術(shù),可能帶來改變就業(yè)結(jié)構(gòu)、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關(guān)系準則等問題,將對政府管理、經(jīng)濟安全和社會穩(wěn)定乃至全球治理產(chǎn)生深遠影響。目前,學(xué)術(shù)界對于人工智能的不斷發(fā)展和廣泛應(yīng)用所帶來的法律與倫理問題的探討開始不斷加深,形成了系列的研究成果,例如高奇琦的《人工智能:馴服賽維坦》、王利明對人工智能對民法學(xué)沖擊的論述和袁曾等學(xué)者對人工智能的法律人格問題的探討等。人工智能在具體應(yīng)用過程中產(chǎn)生的法律和倫理問題是學(xué)術(shù)界和社會公眾無法繞過的,特別是人工智能是否具備人格權(quán)、我們是否應(yīng)該賦予人工智能人格權(quán)以及賦予人工智能多大程度的人格權(quán)等爭論是當前學(xué)界熱議的人工智能話題之一。
人工智能作為人類、機器和環(huán)境交互的產(chǎn)物,其發(fā)展也正在經(jīng)歷不同的階段,發(fā)展的水平呈逐步提高的態(tài)勢。依據(jù)人工智能水平的階段性特征,可以將人工智能分為弱人工智能、強人工智能、超人工智能。從弱人工智能到強人工智能再到超人工智能,既包括技術(shù)層面的人工智能的快速發(fā)展和進步,也包括對未來的不確定性的預(yù)測。學(xué)術(shù)界對人工智能問題的探討既要著眼于眼前的科技發(fā)展,也要對未來的科技發(fā)展可能性和不確定性進行應(yīng)對。目前,人工智能的發(fā)展,正處于從弱人工智能向強人工智能轉(zhuǎn)變的時代。對于人工智能人格權(quán)的探討,主要著眼于倫理、哲學(xué)和法律維度三個層面。
人工智能簡稱AI,是英文Artificial Intelligence的縮寫,具有類似于人類的獨立思考與深度學(xué)習(xí)的能力是人工智能與其他科技最大的差異[注]袁曾:《人工智能有限法律人格審視》,載《東方法學(xué)》2017年第5期。。對于人工智能的含義,尚沒有完全準確的定義。Sergio Ferraz 和Victor Del Nero認為,人工智能是指有生命的個體習(xí)得知識或技能,并將其應(yīng)用于完成任務(wù)或在邏輯上得出結(jié)論的能力。[注]Sergio Ferraz,Victor Del Nero:《人工智能倫理與法律風(fēng)險的探析》,載《科技與法律》2018年第1期。劉偉認為,人工智能是人機環(huán)境系統(tǒng)交互的產(chǎn)物?!叭斯ぶ悄苁侨祟惏l(fā)展到一定階段而必然產(chǎn)生的一門學(xué)科,它既包括人,也包括機和環(huán)境兩部分,所以也可以說是人機環(huán)境系統(tǒng)交互方面的一種學(xué)問?!盵注]劉偉:《關(guān)于人工智能若干重要問題的思考》,載《學(xué)術(shù)前沿》2016年第4期。高奇琦認為,“人工智能本身就是一個知識跨界的產(chǎn)物,是通過借鑒神經(jīng)認知學(xué)的發(fā)展,從而模擬人類智能的一個成果?!盵注]高奇琦:《人工智能:馴服賽維坦》,上海交通大學(xué)出版社2018年版,第8—9頁。
人工智能時代的來臨,在改變?nèi)祟惿a(chǎn)和生活方式的同時,也對傳統(tǒng)的倫理認識、哲學(xué)觀念和法律適用帶來了很大的沖擊,需要對人工智能的人格權(quán)進行較為深入的探討。目前,我國對人工智能權(quán)利問題的討論還不夠深入,“大多數(shù)人還停留在對機器人的傳統(tǒng)認識中,依然把機器人僅僅看做機器,一種非生物的物體。因此,人們自然地認為機器人不應(yīng)該享有權(quán)利?!盵注]同前引[4],第21頁。
學(xué)界從倫理維度討論人工智能的人格權(quán),主要的關(guān)注點是將人工智能看做是機器還是人。如果認為機器人是機器,那就不存在任何的人格權(quán)問題,更沒有必要去討論人工智能人格權(quán)的賦予和保障問題。如果認為機器人是人,人工智能具有自我意識的話,那么就應(yīng)該賦予人工智能相應(yīng)的人格權(quán)。部分學(xué)者認為,隨著人工智能技術(shù)的發(fā)展,機器人正逐步地從機器向人轉(zhuǎn)化,人工智能自我意識不斷完善,需要人類對其人格權(quán)的承認和尊重。例如,高奇琦提出了人與人工智能的相互承認的觀點。他認為,“可以想見,當機器人的智能逐漸提高并獲得自我意識,它們不可避免地會‘為了承認而斗爭’,這樣的斗爭將對人類社會帶來巨大的威脅。而只有主動尊重和承認人工智能的主體地位,才能最終緩和人與機器之間的矛盾,正如瑪?shù)倌取ち_斯布拉特(Martine Rothblatt)所說:‘當我們做到像尊重自己一樣尊重他人(即虛擬人),并將這一美德普及至世間各處時,我們就為明日世界做了最好的準備?!盵注]同前引[4],第204—205頁。
從哲學(xué)維度討論人工智能的人格權(quán)問題,主要的關(guān)注點是將人工智能視作何種存在物以及怎樣對待這種類型的存在。主張不賦予人工智能以任何人格權(quán)的學(xué)者,往往將人工智能視為無生命的物質(zhì)存在,認為應(yīng)該用對待機器的態(tài)度對待人工智能,談不上任何的人格權(quán)的賦予和保障問題。主張賦予人工智能人格權(quán)的學(xué)者,將人工智能視為與動物、植物一樣的生命主體,主張賦予其與其它生命主體一樣的權(quán)利。美國北卡羅來納州大學(xué)哲學(xué)教授湯姆·雷根,是動物權(quán)利哲學(xué)的積極倡導(dǎo)者。他認為,“動物(主要是哺乳動物)與我們擁有一樣的行為、一樣的身體、一樣的系統(tǒng)和一樣的起源,它們應(yīng)該和我們一樣,都是生命主體(subject-of-life)。所有的生命主體在道德上都是一樣的,都是平等的。”[注]杜嚴勇:《論機器人權(quán)利》,載《哲學(xué)動態(tài)》2015年第8期。印度哲學(xué)家薩卡爾也認為,“人類需要提出一種超越自我狹隘關(guān)聯(lián)的新人道主義。換言之,人類在考慮定義時,需要把動植物以及所有的生命都考慮在里面……如果從薩卡爾與佛教的觀點出發(fā),人類就應(yīng)賦予機器人與人工智能某種權(quán)利。因為它們是與人類平等的存在,既然人類有權(quán)利,那么動物、植物和機器人也應(yīng)該有權(quán)利?!盵注]同前引[4],第21頁。高奇琦將人工智能視為一種生命體,將其稱為數(shù)據(jù)生命。他從阿甘本(Giorgio Agamben)的“赤裸生命”概念來為賦予人工智能人格權(quán)尋求哲學(xué)層面的支撐。他認為,“機器人可以在意大利思想家吉奧喬·阿甘本的‘赤裸生命’的概念中得到解釋,因為機器人本身是沒有地位和身份的,而這兩點恰恰是赤裸生命概念的核心含義?!盵注]同前引[4],第21頁。但是伴隨人工智能與人類不斷地互動,人工智能將擺脫機器的定位,逐步獲得生命的主體地位,并與人類建立起平等的社會網(wǎng)絡(luò)關(guān)系,人工智能也完成了從最初的赤裸生向?qū)嶓w生命或者數(shù)據(jù)生命的轉(zhuǎn)化,賦予人工智能以相應(yīng)的電子人格權(quán)不僅必要而且正當。
對于人工智能和機器人的人格權(quán)問題,不僅要從倫理視角和哲學(xué)維度來分析,更要落實到法律層面,來論證其可行性。伴隨人工智能技術(shù)的不斷推進和廣泛應(yīng)用,很多與人工智能相關(guān)聯(lián)的問題,特別是人工智能的人格權(quán)賦予和保障問題已成為諸多法律實務(wù)界繞不開的話題,從法律層面來研究和討論人工智能問題已然成為當務(wù)之急。例如,2016年特斯拉無人駕駛汽車出現(xiàn)兩起致人死亡事故。2016年6月30日,在美國的俄亥俄州,一輛由美國特斯拉汽車公司生產(chǎn)的S型電動汽車發(fā)生了撞車事故,該車的司機當場身亡,而事故發(fā)生時該電動汽車處于自動駕駛模式狀態(tài)。2016年9月14日,一位23歲特斯拉中國男性車主駕車在京港澳高速河北邯鄲段公路上行駛時,因前車躲避障礙物,導(dǎo)致該男子躲閃不及撞上道路清掃車發(fā)生車禍。這也是特斯拉自動駕駛在中國出現(xiàn)的首例死亡事故。在上述兩起事故的責(zé)任認定中,就存在責(zé)任主體如何認定的難題。
約翰·弗蘭克·韋弗在《機器人也是人:人工智能時代的法律》一書中認為,作為一項前所未有的科技,人工智能對于法律的挑戰(zhàn)是根本性的,因為我們現(xiàn)有的法律體系都是圍繞“人作出決定”這一假定展開的,而人工智能具有自主決策能力,進而從根本上顛覆了現(xiàn)有法律體系的根基。鑒于人工智能具有自動決策的能力,法律應(yīng)當賦予其法律人格,將其視為獨立的法律主體。同時,對于人工智能引發(fā)的事故,理當由人工智能本身來承擔(dān)責(zé)任,而非消費者和制造商。為此,我們應(yīng)當配套相應(yīng)的責(zé)任保險或儲備金制度,為人工智能設(shè)置專門的賬戶,及時救濟受害人。[注]約翰·弗蘭克·韋弗:《機器人也是人:人工智能時代的法律》,元照出版公司2018年版?!秶鴦?wù)院關(guān)于新一代人工智能發(fā)展規(guī)劃的通知》(2017年7月20日)也專門強調(diào),要開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認、隱私和產(chǎn)權(quán)保護、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等。法律層面對人工智能人格權(quán)問題的探討,與倫理視角和哲學(xué)維度的分析存在很大的不同,我們需要少一些熱情,多一些冷靜;少一些感性,多一些理智。
法律人格,是指法律認可的一種享受權(quán)利、承擔(dān)義務(wù)的資格。包括自然人主體、法律擬制主體兩種形式。對于任何自然人,法律均承認其法律人格,民法上分為無民事行為能力人、限制行為能力人與完全行為能力人,但法律人格伴隨自然人終生。對于法律擬制主體的人格,則需要經(jīng)過法律規(guī)定的程序方可取得,例如有限責(zé)任公司的設(shè)立等。[注]葉欣:《私法上自然人法律人格之解析》,載《武漢大學(xué)學(xué)報》(哲學(xué)社會科學(xué)版)2011年第6期。目前,從法律層面來討論人工智能的人格權(quán)的觀點主要集中于以下三類:無人格權(quán)、限制人格權(quán)和完全人格權(quán)。其中,以賦予人工智能以有限人格權(quán)和完全人格權(quán)為主。例如,高奇琦主張賦予人工智能以完全的電子人格權(quán)。而袁曾認為,現(xiàn)行法律體系下對于人工智能的法律人格規(guī)制缺位,造成實踐應(yīng)用缺乏法律價值指引,人工智能的法律地位與具體規(guī)制亟待明晰。人工智能具有獨立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)責(zé)任義務(wù),人工智能應(yīng)當具有法律人格。但由于人工智能承擔(dān)行為能力的后果有限,人工智能適用特殊的法律規(guī)范與侵權(quán)責(zé)任體系安排,其具有的法律人格是有限的法律人格,域外法律對此已有立法借鑒。[注]同前引[1]。孫占利認為,初期的人工智能仍屬于工具范疇,自主智能機器人的“自主意識”和“表意能力”是賦予智能機器人取得法律人格的必要條件,其“人性化”將直接影響甚至決定其法律人格化[注]孫占利:《智能機器人法律人格問題論析》,載《東方法學(xué)》2018年第3期。。
倫理維度和哲學(xué)視角對人工智能人格權(quán)的認定,雖存在認定標準和權(quán)利范圍尺度上的差異,但根本出發(fā)點是一致的,就是要突破人類中心主義的思維方式,在特定范圍內(nèi)賦予人工智能一定程度的與人類相同或相似的權(quán)利,是對萬物平等理念的踐行,具有一定的價值合理性。但賦予人工智能人格權(quán),并非能做到真正意義上對人類中心主義思維慣性的突破,并可能引發(fā)對人類發(fā)展極具顛覆性甚至毀滅性的沖擊。
首先,由人類來賦予人工智能人格權(quán),是人類中心主義思維的延續(xù)。倫理維度和哲學(xué)視角對賦予人工智能人格權(quán)的呼吁和論證,是人類對其人格權(quán)利的確認和界定,正是人類中心主義思維的延續(xù)。從倫理維度來看,人工智能具有一定思維和情感,應(yīng)該獲得與人類一樣的人格權(quán)。從哲學(xué)角度來看,人工智能與人類、動物一樣,是生命主體,應(yīng)該賦予其與人類一樣的權(quán)利。人工智能的人格權(quán),關(guān)系到人工智能擁有的權(quán)利和承擔(dān)的義務(wù),因此,對于人格權(quán)的確認和界定,需要人工智能在場,需要聽取人工智能自身的意思表達,只有這樣,才是對人類中心主義的真正突破。但現(xiàn)有倫理維度和哲學(xué)視角對人工智能人格權(quán)的界定,是人工智能不在場的情況下進行確認和界定的,實質(zhì)上依然是人類中心主義思維的延續(xù)。
其次,賦予人工智能人格權(quán),可能危及未來人類的生存狀態(tài)。從法律層面來看,賦予人工智能有限或者完全的人格權(quán),將對現(xiàn)有地球秩序和人類命運帶來顛覆性甚至是毀滅性的沖擊。倫理維度和哲學(xué)視角對人工智能人格權(quán)的討論和界定,屬于應(yīng)然層面的價值訴求,如果不在法律層面得到實踐,將不會對現(xiàn)有地球秩序和人類命運帶來任何實質(zhì)性影響。而如果人工智能人格權(quán)在法律層面得到完全落實,很多關(guān)系到現(xiàn)有地球秩序和人類命運的問題將接踵而至。
現(xiàn)有的地球秩序是由人類主導(dǎo)的,世界各國和地區(qū)的法律都是由人類制定的,人工智能的人格權(quán)的確認和范圍界定也是依據(jù)人類意志來決定的。伴隨人工智能從最初的無人格權(quán)到有限的人格權(quán),直到未來某個時期人工智能將會獲得等同于人類的完全人格權(quán),人類面臨的不確定性風(fēng)險也逐步增加。一旦人工智能獲得了完全人格權(quán),他們將會是自然人之外另一類生命體,對于現(xiàn)有人類依據(jù)人類意志制定的法律和社會規(guī)則體系,他們將不會輕易接受并將提出重新制定法律和社會規(guī)則的要求,并且那時的人工智能可能已經(jīng)進入到超人工智能時代,擁有比人類強大很多倍的力量,且在生命周期上存在無限延續(xù)的可能??梢栽O(shè)想,如果真的出現(xiàn)這種情況,人類的地位將會從地球的主導(dǎo)力量變成等同于今天自然界中的動物一樣的生物,人類中心時代可能會被人工智能中心時代所取代,到那時可能會出現(xiàn)人類的人格權(quán)由曾被我們?nèi)祟愘x予人格權(quán)的人工智能來界定和確認的現(xiàn)象,那將對現(xiàn)有地球秩序和人類命運帶來顛覆性甚至是毀滅性的打擊。
誠然,停留在倫理和哲學(xué)應(yīng)然層面的價值訴求,可以對人工智能人格權(quán)在法律層面的落實起到一定的推動作用和借鑒價值,但不會且更不能作為法律層面變革的充分條件。我們在從倫理維度和哲學(xué)視角來討論人工智能的人格權(quán)問題時,不僅要正視法律實踐層面可能出現(xiàn)的問題和困境,更不能回避法律層面賦予人工智能人格權(quán)所帶來的倫理層面的巨大的不確定性風(fēng)險。因此,今天對人工智能人格權(quán)的討論,最好不要逾越倫理維度和哲學(xué)視角,法律層面對人工智能人格權(quán)的界定和確認只能限定在特定范圍之內(nèi)。人工職能人格權(quán)確認的問題,不僅面臨倫理層面的巨大風(fēng)險,在現(xiàn)實層面也面臨很多的困境。
《國務(wù)院關(guān)于新一代人工智能發(fā)展規(guī)劃的通知》(2017年7月20日)專門指出,要加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。當前,在人工智能人格權(quán)確認方面,除了面臨一定的道德風(fēng)險外,也存在諸多的法律困境。
對人格權(quán)的理解,既可以從哲學(xué)和倫理角度做較為寬泛的解釋,也可以從法律層面來準確界定人格權(quán)的范圍。倫理視角和哲學(xué)維度探討的人格權(quán),主要是指人作為人應(yīng)該享有的權(quán)利,屬于抽象的概念范疇。例如,洛克就認為,生命權(quán)、財產(chǎn)權(quán)和自由權(quán)是人之為人應(yīng)該具備的最基本權(quán)利。除此之外,平等權(quán)也被很多哲學(xué)家和倫理學(xué)家視為人類應(yīng)享有的基本權(quán)利。與這些對人格權(quán)的抽象層面的討論不同,法律層面的人格權(quán)比較具體,需要通過相關(guān)的法律條款來對自然人和擬制人格的人格權(quán)進行規(guī)范界定。
在我國,人格權(quán)的界定采用了一般條款的形式進行了明確,但沒有用具體人格權(quán)來加以更加詳細的規(guī)定。對此,很多學(xué)者一直呼吁應(yīng)該采用一般條款加具體人格權(quán)的立法體例來對人格權(quán)進行明確。例如,李新天和孫聰聰認為,我國的人格權(quán)立法應(yīng)采用一般條款加具體人格權(quán)的立法體例,一般條款應(yīng)是概括性、補充性的規(guī)定,囊括未能被具體化的人格法益,為將來可能出現(xiàn)的新型人格法益的保護提供規(guī)范依據(jù)。[注]李新天、孫聰聰:《人格倫理價值的民法保護——以體系化視角界定人格權(quán)的內(nèi)涵》,載《法商研究》2014年第4期。我國《民法通則》對自然人和法人、個體工商戶、個人合伙等擬制人的人格權(quán)進行了一般規(guī)定,涉及到的人格權(quán)主要包括公民的生命權(quán)、健康權(quán)、肖像權(quán);公民和法人的名譽權(quán)、榮譽權(quán);法人、個體工商戶、個人合伙的名稱權(quán)等。我國《民法通則》第九十八條規(guī)定,公民享有生命健康權(quán);第九十九條規(guī)定,公民享有姓名權(quán),有權(quán)決定、使用和依照規(guī)定改變自己的姓名,禁止他人干涉、盜用、假冒。法人、個體工商戶、個人合伙享有名稱權(quán)。企業(yè)法人、個體工商戶、個人合伙有權(quán)使用、依法轉(zhuǎn)讓自己的名稱;第一百條規(guī)定,公民享有肖像權(quán),未經(jīng)本人同意,不得以營利為目的使用公民的肖像;第一百零一條規(guī)定,公民、法人享有名譽權(quán),公民的人格尊嚴受法律保護,禁止用侮辱、誹謗等方式損害公民、法人的名譽;第一百零二條規(guī)定,公民、法人享有榮譽權(quán),禁止非法剝奪公民、法人的榮譽稱號。
人格權(quán)包括生命權(quán)、健康權(quán)等權(quán)利,是主權(quán)利與從權(quán)利的結(jié)合。生命權(quán)是主權(quán)利,其他權(quán)利是從權(quán)利或附屬權(quán)利。其中,公民的人格權(quán)以生命權(quán)為前提,法人、個體工商戶、個人合伙的人格權(quán)以擬制生命權(quán)為前提,必須要到有關(guān)部門辦理注冊登記方可獲得,且有一定時間限制。例如,我國《民法通則》對企業(yè)具體成為法人,獲得擬制人格權(quán)的條件進行了規(guī)定?!睹穹ㄍ▌t》第三十六條規(guī)定,法人是具有民事權(quán)利能力和民事行為能力,依法獨立享有民事權(quán)利和承擔(dān)民事義務(wù)的組織。法人的民事權(quán)利能力和民事行為能力,從法人成立時產(chǎn)生,到法人終止時消滅。第三十七條規(guī)定,法人應(yīng)當具備下列條件:依法成立;有必要的財產(chǎn)或者經(jīng)費;有自己的名稱、組織機構(gòu)和場所;能夠獨立承擔(dān)民事責(zé)任。
從倫理和哲學(xué)層面回答人工智能的人格權(quán)問題,一般只要依據(jù)一定的倫理立場和價值判斷標準,給出是和非的答案即可,不需要過多考慮人工智能的人格權(quán)在現(xiàn)實層面的可能性、可行性問題,而這些恰恰是法律層面必須要正視和回答的問題。從現(xiàn)有我國《民法通則》對公民、法人等人格權(quán)確認的條件可以看出,如果人工智能要獲得人格權(quán),必須具備以下幾方面的條件:生命權(quán)或者擬制生命權(quán);具有獨立的意識且能夠自我表達意志的自由;能夠意識到自身行為可能帶來的后果;能夠獨立開展民事行為;具備必要的財產(chǎn)和經(jīng)費,能夠獨立承擔(dān)民事責(zé)任等。同時,我們還要考慮到人工智能一旦獲得人格權(quán)以后,可能會對現(xiàn)有法律的合法性及法律體系構(gòu)建等問題產(chǎn)生的巨大沖擊效應(yīng)。
首先,生命權(quán)是人格權(quán)的必要前提,人工智能屬于人工制造物,不具備生命權(quán)。上述賦予人工智能和機器人以人格權(quán)的主張,主要基于道德、倫理、宗教、哲學(xué)層面的思考,忽略了生命權(quán)是其他人格權(quán)的前提。人工智能不論是現(xiàn)有的弱人工智能,還是不久之后的強人工智能,抑或是未來的超級人工智能,始終改變不了其人工的屬性,這條對于人工智能來說是無法具備和補救的,也是其不能獲得人格權(quán)的根源之一。人工智能重點是智能,但前提是人工,是人類的創(chuàng)造物,而非自然生成的,不具備人格權(quán)。雖然很多學(xué)者認為,人工智能可能會在不久的將來成為數(shù)據(jù)生命體,但依然難改其人工的印記。人工智能的本質(zhì)是人類設(shè)計和制造出來的用于減輕人類的工作負擔(dān)、改善和提升人類的生活質(zhì)量的工具,不應(yīng)該賦予其任何價值理性。況且,自然界中絕大部分具有生命的動物和植物還沒有獲得類似于人格權(quán)的權(quán)利。相比于人工智能來說,自然界的動物和植物都是自然賦予的生命,就算要賦予人工智能以生命權(quán)及其相應(yīng)的人格權(quán),那么按照順序也應(yīng)該是先賦予目前尚沒有人格權(quán)的動物和植物以部分或者完全的人格權(quán)。因此,人工智能非生命體,不具有生命權(quán),更不會也不能擁有人格權(quán)。人工智能注定只能是法律的客體而不能成為法律的主體。
其次,人格權(quán)的行使要求人格主體具有獨立的意識且擁有能夠自我表達意志的自由,并能夠意識到自身行為可能帶來的后果,而人工智能雖然智能,但還是人類意志的體現(xiàn),在意志表達和行為認知上存在很大人為因素。在自由意志層面,人工智能雖是智能,高于人類制造的一般機器,但前提仍然是人工。從人工智能的設(shè)計、制造、系統(tǒng)維護、程序升級、硬件維修等各環(huán)節(jié),都離不開人類,體現(xiàn)了人類的意志和智慧。人工智能如果被賦予了人格權(quán),就意味著人工智能必須要具有獨立的意識且擁有能夠自我表達意志的自由,能夠意識到自己的行為可能會導(dǎo)致的結(jié)果,并對結(jié)果承擔(dān)相應(yīng)的責(zé)任。但在行為結(jié)果認知層面,人工智能雖可以準確預(yù)測行為可能帶來的結(jié)果,但驅(qū)動這種行為的是技術(shù)力量而非人工智能本身具備某種行為的意識,人工智能自身對于某種行為可能帶來的道德、倫理層面以及價值層面的問題沒有任何意識,它只是在執(zhí)行人類的設(shè)計指令而已,一旦硬件和軟件出現(xiàn)問題,人工智能的行為可能會導(dǎo)致與設(shè)計意圖相悖的結(jié)果。
同時,由于驅(qū)動人工智能的行為及其結(jié)果的還是設(shè)計和制造人工智能的人類,而并非人工智能自身所為,因此其行為的后果及其責(zé)任承擔(dān),應(yīng)該堅持“誰設(shè)計、誰制造、誰使用、誰承擔(dān)相應(yīng)責(zé)任”的原則來確定人工智能在實際運作過程中的責(zé)任主體和責(zé)任比例,由授意設(shè)計、制造和使用人工智能的相應(yīng)主體來承擔(dān)。
再次,人格權(quán)的獲取和行使,要求人格權(quán)主體具備獨立開展民事行為的可能和能力。如果賦予人工智能相應(yīng)的人格權(quán),必須要保障人工智能可以作為主體,進行獨立的民事行為。但在現(xiàn)實中,人工智能很難獨立參與民事行為,人工智能之間、人工智能與公民之間、人工智能與法人、個體工商戶和個人合伙等主體之間的民事行為,必須要以人類的必要參與為前提和保障,人工智能不具備開展獨立的民事行為的能力和可能?!昂贤P(guān)系中的當事人必須是公認的法律主體,并能夠表達各自的自由意志。兩個獨立的人工智能之間如果進行交易,即使交易符合法律的規(guī)定,被認為是有效的,也是不完整的,因為這種交易的權(quán)利義務(wù)關(guān)系不能與監(jiān)督這些人工智能的主體(自然人或法人)相分離。如果幾個獨立的人工職能系統(tǒng)進行交易,且不可能確定其行為的負責(zé)人,這將導(dǎo)致出現(xiàn)有效交易,但沒有行使權(quán)利或履行義務(wù)的法律主體的情況的出現(xiàn)。”[注]詹可:《人工智能法律人格問題研究》,載《信息安全研究》2018年第3期。
又次,人格權(quán)的獲取和行使,需要具備必要的財產(chǎn)或經(jīng)費保障,能夠獨立承擔(dān)民事責(zé)任,人工智能的財產(chǎn)權(quán)難以有效實現(xiàn),更難以獨立承擔(dān)民事責(zé)任。法律層面的權(quán)利與義務(wù)是對等的,人格權(quán)主體在行使權(quán)利的同時也要具備相應(yīng)的履行義務(wù)和承擔(dān)責(zé)任的能力,為此,需要具備必要的財產(chǎn)和經(jīng)費作為保障。在責(zé)任承擔(dān)層面,獨立人格決定了其可以獨自承擔(dān)責(zé)任。但在獨立承擔(dān)民事責(zé)任方面,人工智能離不開人工智能之外的人類,人工智能不具備獨立承擔(dān)民事責(zé)任的能力和財產(chǎn)保障,使其不能成為人格主體,獲得人格權(quán)。一方面,人工智能沒有相應(yīng)的財產(chǎn)權(quán)或經(jīng)費做保障。目前,部分學(xué)者主張按照人工智能在生產(chǎn)過程中創(chuàng)造價值的大小,對人工智能分配一定的收益,以此作為人工智能承擔(dān)責(zé)任的財產(chǎn)和經(jīng)費保障,但這種思路是行不通的。如果賦予了人工智能以一部分財產(chǎn),誰來保障人工智能財產(chǎn)的使用和安全,而現(xiàn)有的金融部門只認可自然人和法律擬制人格的開戶和投資申請。同時,照此邏輯推理下去,機器在生產(chǎn)過程中也創(chuàng)造了價值,那是不是也應(yīng)該分得一部分生產(chǎn)利潤。如果人工智能創(chuàng)造的價值被其自身占有,那么設(shè)計和制造人工智能的人類將會因為無利可圖而終止人工智能的研發(fā)活動;另一方面,如果人工智能的財產(chǎn)和經(jīng)費不足以承擔(dān)其責(zé)任,不足部分將由誰來補償,這也是我們在民事責(zé)任承擔(dān)過程中無法回避的問題。此外,如果人工智能可以獨立承擔(dān)民事責(zé)任,在很大程度上會引發(fā)責(zé)任轉(zhuǎn)嫁的問題,原本很多屬于人工智能之外主體的責(zé)任會轉(zhuǎn)嫁給人工智能,這樣的道德風(fēng)險是在賦予人工職能法律人格時不可回避的問題。
最后,如果賦予人工智能人格權(quán),現(xiàn)有的法律將面臨合法性危機問題,法律體系將面臨徹底重構(gòu)的危險。我國《民法通則》賦予的人格權(quán)的主體有公民、法人、個體工商戶、個人合伙,這四類主體擁有的人格權(quán)范疇雖存在一定差異,但他們都是由自然人來表達主體意志的,無論對法人、個體工商戶、個人合伙等人格主體的人格權(quán)做出如何的界定和規(guī)范,這些主體對現(xiàn)有法律的形式上的合法性不存在任何的質(zhì)疑。而如果賦予人工智能以人格權(quán),將會導(dǎo)致存在自然人以外的另一個意志主體,該意志主體會否接受按照人類意志制定的法律,存在很大的不確定性,現(xiàn)有的法律將會面臨很大的合法性危機。如果該意志主體不愿意接受現(xiàn)有法律體系,將會出現(xiàn)自然人和人工智能兩種意志主體共同主導(dǎo)法律制定的結(jié)果,現(xiàn)有的法律體系將面臨徹底重構(gòu)的巨大風(fēng)險,而這一點是我們在法律層面思考人工智能的人格權(quán)問題必須要考慮的,一旦現(xiàn)有法律的合法性危機蔓延開來,對現(xiàn)有人類的法律體系和由現(xiàn)行法律體系確立的社會秩序?qū)穷嵏残缘臎_擊。
人工智能還處在不斷發(fā)展過程中,對人工智能法律人格權(quán)的討論和爭論也必將隨著人工智能形態(tài)的不斷變化而走向深入。但不論人工智能怎樣發(fā)展,我們必須恪守人工是智能的前提,不能因人工智能的發(fā)展,對人類的權(quán)利和生存秩序產(chǎn)生顛覆性甚至毀滅性的沖擊。科幻作家艾薩克·阿西莫夫(Issac Asimov)在其短篇科幻小說《環(huán)舞》(1942年)中提出了機器人三大法則應(yīng)該成為人工智能發(fā)展及其法律適用的底線,即第一,機器人不得傷害人類,或坐視人類受到傷害而袖手旁觀;第二,除非違背第一法則,否則機器人必須服從人類的命令;第三,在不違背第一及第二法則的前提下,機器人必須盡可能地保護自己。因此,我們可以給予人工智能以倫理上的關(guān)懷和哲學(xué)上的反思,但不能在法律層面賦予人工智能以人格權(quán),因為這不僅在可行性和可能性上存在絕大困難,更是出于對人類法律秩序和人類未來的關(guān)注和保障的考慮。同時,我們也要關(guān)注人工智能對民法等法律領(lǐng)域帶來的沖擊,需要“積極回應(yīng)人工智能時代的各種挑戰(zhàn),妥當設(shè)置相關(guān)規(guī)則、制度,在有效規(guī)范人工智能技術(shù)的同時,也為新興技術(shù)的發(fā)育預(yù)留必要的制度空間”[注]王利明:《人工智能時代對民法學(xué)的挑戰(zhàn)》,載《東方法學(xué)》2018年第3期。。例如,我們可以通過設(shè)置人工智能機器強制保險制度對人工智能造成的傷害進行賠償,通過向人工智能機器的使用者征收一定的賦稅來給特定的利益受損群體進行補償,主動關(guān)懷那些因人工智能的大規(guī)模使用導(dǎo)致利益受損的群體。