摘 要 人工智能最基本和最大的特征就是可以在人類不干涉不干預(yù)的情況下,基于之前所學(xué)到的知識(shí)并通過(guò)其系統(tǒng)地消化吸收從而可以像人類一樣自動(dòng)地運(yùn)行和操作。隨著現(xiàn)代科技的發(fā)展,AI似乎已經(jīng)具備作為人最基本的判斷標(biāo)準(zhǔn),因此對(duì)AI人格權(quán)的分析是解決現(xiàn)實(shí)生活中責(zé)任劃分問(wèn)題的重要途徑。對(duì)于AI是否具有人格權(quán)這一法律問(wèn)題,盡管處在現(xiàn)行法律的真空地帶,從法律人格的角度進(jìn)行分析是解決這一問(wèn)題的切入點(diǎn)。
關(guān)鍵詞 人工智能 人格權(quán) 法律人格 民事主體資格
作者簡(jiǎn)介:襲頌頌,北京航空航天大學(xué)法學(xué)院研究生,研究方向:民法。
中圖分類號(hào):D920.4 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.19387/j.cnki.1009-0592.2018.04.214
一、研究AI是否具有人格權(quán)的必要性
人工智能概念誕生于1956年,在半個(gè)多世紀(jì)發(fā)展歷程中,其技術(shù)和應(yīng)用發(fā)展受到很多與智能算法有關(guān)的多方面影響。AI是通過(guò)一系列數(shù)據(jù)和計(jì)算機(jī)進(jìn)行控制和模擬、擴(kuò)展人類的智能,并且通過(guò)感知設(shè)定的環(huán)境和給予其應(yīng)學(xué)習(xí)的知識(shí)、理論,并將這些知識(shí)和理論正確的應(yīng)用于實(shí)踐中去,從而獲得人類追求的結(jié)果的一整套涉及多方面的應(yīng)用系統(tǒng)。人工智能從一開(kāi)始就已經(jīng)成為社會(huì)熱點(diǎn)和科技前沿發(fā)展的項(xiàng)目,AI的功能越來(lái)越強(qiáng)大,越來(lái)越多地被投入到不同的制造行業(yè)和服務(wù)行業(yè)中使用,與此同時(shí)在被投入使用期間也引發(fā)了很多責(zé)任問(wèn)題。像擁有沙特國(guó)籍的“機(jī)器人索菲亞”曾說(shuō)想要個(gè)“女兒”,這種之于人類的威脅也亟需得到科學(xué)的解釋?!皩?duì)AI貨物的崇拜”愈演愈烈,AI漸漸地滲入我們的生活,或許對(duì)于某些特定的人群來(lái)說(shuō)已經(jīng)成為必需品,像被智能機(jī)器人看護(hù)的老人、嬰兒、殘疾人等。我們不能否認(rèn)人工智能也是具有風(fēng)險(xiǎn)的,對(duì)于責(zé)任應(yīng)該由誰(shuí)承擔(dān)也引發(fā)了很大的爭(zhēng)議。因此,AI是否享有人格權(quán)關(guān)乎解決AI侵權(quán)問(wèn)題的責(zé)任劃分。
二、從法律人格的本質(zhì)來(lái)看AI是否可以成為人格權(quán)主體
(一)法律人格的本質(zhì)
人格在法律中的內(nèi)涵主要來(lái)自于羅馬法,我國(guó)學(xué)者一般將法律人格(person)譯成“人”,民法就是以人為中心,以人格的保護(hù)為主要義務(wù)的法律,法律人格是一個(gè)較為抽象的概念,法律人格的本質(zhì)概括地說(shuō)主要包括:
1.一個(gè)人有能力成為法律的主體,即具有獨(dú)立法律地位的權(quán)利主體,包括自然人和法人,雙方的權(quán)利和義務(wù)必須在兩個(gè)人或法人之間建立起法律關(guān)系。
2.成為法律主體,需要行使權(quán)利和履行義務(wù),即要求民事主體具有獨(dú)立參加民事法律關(guān)系,享受民事權(quán)利和承擔(dān)民事義務(wù)的民事權(quán)利能力這一法律資格。
3.法律人格應(yīng)該具有受法律保護(hù)的人格利益,像自然人所具有的生命健康權(quán)、身份權(quán)等都屬于不可被侵犯的人格利益。因此,在判斷一個(gè)主體是不是具有法律人格的時(shí)候應(yīng)該結(jié)合這三個(gè)因素進(jìn)行探討,法律上的“人”盡管都具有不同的社會(huì)貢獻(xiàn),但都是具有一定權(quán)利能力的,人之所以活著,是為了維護(hù)和完善他們的人格以及尊嚴(yán),在此基礎(chǔ)上為社會(huì)做出不同程度的貢獻(xiàn),并實(shí)現(xiàn)自己的人生價(jià)值。
法律人格的承認(rèn)是一種相互尊重的屬于人的權(quán)利,是對(duì)任何違法行為進(jìn)行法律控制的一種手段。從法律人格的主要目的來(lái)看,人之所以具有人格,是為了促進(jìn)一個(gè)有組織的社會(huì)對(duì)人類行為的監(jiān)管,通過(guò)對(duì)法律關(guān)系進(jìn)行規(guī)定,通過(guò)對(duì)主體行為進(jìn)行管理從而達(dá)到促進(jìn)社會(huì)和諧的目的。一般來(lái)說(shuō),任何法律責(zé)任都是因?yàn)檫`反某個(gè)人的權(quán)利而被強(qiáng)制承擔(dān)的,其最終目的都是維護(hù)社會(huì)秩序。
(二)AI并不具有法律人格
AI是否具有民事主體資格在這里意味著法律人格是否可以擴(kuò)充到AI。人格權(quán)的主體是指在人格權(quán)法律關(guān)系中享有權(quán)利和承擔(dān)義務(wù)的主體,自然人作為人格權(quán)的主體在學(xué)術(shù)界是沒(méi)有任何疑義的,這是由民事主體自身的性質(zhì)和人格權(quán)制度的目的所決定的。在我國(guó),隨著經(jīng)濟(jì)發(fā)展,人格權(quán)的主體范圍逐漸擴(kuò)大,我國(guó)民法承認(rèn)法人享有人格權(quán),法人本質(zhì)上是真實(shí)存在的能夠在實(shí)際中享有權(quán)利和履行義務(wù),可以從事民事行為活動(dòng)的一個(gè)獨(dú)立的主體。盡管人格權(quán)主體的范圍是呈逐漸擴(kuò)大的趨勢(shì),但是對(duì)于是否能夠?qū)⑷烁駲?quán)的主體擴(kuò)大到AI的問(wèn)題需要慎重對(duì)待。首先應(yīng)該清晰AI的性質(zhì),對(duì)此工具說(shuō)認(rèn)為AI在本質(zhì)上就是為人類服務(wù)的工具;代理說(shuō)認(rèn)為人工智能的行為歸根結(jié)底還是被人類所控制,其責(zé)任的承擔(dān)應(yīng)由人類負(fù)責(zé)。但是筆者認(rèn)為,人工智能并不僅僅是為人類服務(wù)并受人類控制的工具,由于科技水平不斷提高,人工智能通過(guò)自主學(xué)習(xí)也可以形成自己的思維模式和意思表示。在AI的性質(zhì)的基礎(chǔ)上,AI能否作為人格權(quán)的主體,國(guó)內(nèi)外學(xué)者們也有不同的觀點(diǎn):
有國(guó)外學(xué)者主張AI不可以作為人格權(quán)的主體,通過(guò)權(quán)利和義務(wù)的聯(lián)系,人格通常與人聯(lián)系在一起,盡管法律在所有法律體系中都承認(rèn)了法人的人格,而在某些情況下,公司是由人組成的法人,他們?cè)跊](méi)有他們的法人從事民事行為的情況下是不能做任何事情的。因此,與公司的人格相關(guān)的權(quán)利和義務(wù)主要是指他們背后的人,這與倡導(dǎo)AI機(jī)器人的人格形成了鮮明的對(duì)比。當(dāng)我們?cè)谌斯ぶ悄艿幕A(chǔ)上為AI機(jī)器人的人格進(jìn)行辯護(hù),或者是AI能夠獨(dú)立自主地做出決定時(shí),他們?nèi)匀粺o(wú)法滿足司法和學(xué)術(shù)界的解釋。他認(rèn)為,機(jī)器人作為人工智能的擁有者有5個(gè)屬性:(1)與他人交流的能力;(2)內(nèi)部知識(shí)的學(xué)習(xí)轉(zhuǎn)化;(3)外部知識(shí)或外部世界的認(rèn)識(shí)和學(xué)習(xí);(4)有一定程度的意圖;(5)某種程度的創(chuàng)造力。盡管有了這些基本技能,機(jī)器人現(xiàn)在還是被認(rèn)為是法律上的產(chǎn)品或財(cái)產(chǎn)。
從法律的角度來(lái)看,機(jī)器人被當(dāng)作工具來(lái)對(duì)待,其本質(zhì)上永遠(yuǎn)是人類對(duì)AI機(jī)器人的行為負(fù)有法律責(zé)任,并負(fù)責(zé)確保它們?cè)诜傻姆秶鷥?nèi)運(yùn)行。
對(duì)AI具有人格權(quán)持肯定態(tài)度的國(guó)外學(xué)者認(rèn)為,權(quán)利向機(jī)器人擴(kuò)展可能有助于我們對(duì)人類、機(jī)器和自然的這種相互聯(lián)系的權(quán)利和責(zé)任的重新評(píng)價(jià)。同時(shí)我國(guó)學(xué)者袁曾也贊同這一點(diǎn),他主張人工智能擁有有限的法律人格,“人工智能的法律人格有限,是指其法律人格與自然人或公司不同,并不具有承擔(dān)完全責(zé)任的能力與地位?!北M管AI可以獨(dú)立自主地做出一定的行為,但是其行為的法律后果承擔(dān)問(wèn)題則是有限的,因?yàn)槠鋬r(jià)值觀的形成與自然人不同,其根本原因是AI深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)與人腦存在一定的差距。
筆者認(rèn)為,法律人格不可以擴(kuò)充到AI,即AI不具有人格權(quán)。以目前的科技水平,AI的一切目的行為都是人類所賦予的,被賦予學(xué)習(xí)相應(yīng)的規(guī)則和方法的目的只是為了完成特定的任務(wù)。AI本質(zhì)上還是一種工具和手段,其生來(lái)就是為了服務(wù)于人類。AI的確不具有民事主體資格,根據(jù)AI的性質(zhì)其應(yīng)作為民法上的物。AI的內(nèi)在本質(zhì)是由人類設(shè)計(jì)并為人類服務(wù)的以機(jī)器為表現(xiàn)形式的計(jì)算和數(shù)據(jù)為一體的系統(tǒng)。人工智能系統(tǒng)的核心是數(shù)據(jù),數(shù)據(jù)成為現(xiàn)代人工智能系統(tǒng)的核心關(guān)鍵?;谌斯ぶ悄芟到y(tǒng)的內(nèi)在本質(zhì),AI就是人類打造的為人類服務(wù)的產(chǎn)品,如果將AI納入民事主體的范圍,賦予其有限的法律主體地位,盡管有研究的必要性并會(huì)打破現(xiàn)有民法的理論體系,在目前的法學(xué)學(xué)術(shù)界對(duì)其民事主體地位進(jìn)行認(rèn)可是不現(xiàn)實(shí)的。
三、對(duì)AI責(zé)任劃分尤為重要
人工智能最大的特征是可以在人類不干涉不干預(yù)的情況下,基于之前所學(xué)到的知識(shí)并通過(guò)自己消化吸收從而可以像人類一樣自動(dòng)地運(yùn)行和操作。在開(kāi)啟人工智能系統(tǒng)后,人工智能系統(tǒng)可以做到在人類不干涉其操作的前提下自主的完成任務(wù),而不需要人類進(jìn)行操作并給人工智能下指令。設(shè)計(jì)、制作和生產(chǎn)人工智能的開(kāi)發(fā)人員在其開(kāi)發(fā)這套產(chǎn)品的過(guò)程中也不可能準(zhǔn)確的預(yù)知到該產(chǎn)品接下來(lái)會(huì)產(chǎn)生什么樣的風(fēng)險(xiǎn),潛在的風(fēng)險(xiǎn)可以避免,但是對(duì)于不可預(yù)知的風(fēng)險(xiǎn)不管危害大小還是危害范圍都無(wú)法預(yù)料和避免。
筆者認(rèn)為,我們不可以忽視人工智能的安全問(wèn)題,盡管其在具有很高的安全系數(shù)下被投放市場(chǎng),其所造成的侵權(quán)問(wèn)題不容小覷,AI的侵權(quán)責(zé)任主要是由產(chǎn)品責(zé)任和隱私權(quán)被侵犯構(gòu)成的。
人工智能產(chǎn)品產(chǎn)生侵權(quán)的責(zé)任劃分至關(guān)重要,在人工智能系統(tǒng)運(yùn)行的過(guò)程中,由于AI運(yùn)作可能發(fā)生被編程的錯(cuò)誤操作或內(nèi)部缺陷以及其他無(wú)法被檢測(cè)到的合理的理由時(shí),導(dǎo)致機(jī)器人出現(xiàn)故障造成重大損失,如果在沒(méi)有排除故障的情況下建議應(yīng)該像汽車(chē)那樣要求使用者交納強(qiáng)制性保險(xiǎn);如果缺陷是可以被發(fā)現(xiàn)的,是由于生產(chǎn)者和銷售者的過(guò)錯(cuò)造成的損失,應(yīng)該根據(jù)他們的錯(cuò)誤行為進(jìn)行歸責(zé)。總之,人工智能自身研究、發(fā)展的特點(diǎn)在于大量個(gè)人、企業(yè)的參與使得責(zé)任承擔(dān)主體多樣,導(dǎo)致受害人在受到侵權(quán)后難以索賠。立法者應(yīng)該明確某一具體案件的侵權(quán)責(zé)任,適用過(guò)錯(cuò)責(zé)任或者嚴(yán)格責(zé)任標(biāo)準(zhǔn),其最重要的職責(zé)是在設(shè)計(jì)者、生產(chǎn)者、投資者、運(yùn)營(yíng)者、使用者之間進(jìn)行責(zé)任分配,責(zé)任分配的標(biāo)準(zhǔn)與一般侵權(quán)責(zé)任一致。在制訂政策和法律時(shí),應(yīng)當(dāng)擺脫膚淺的新聞炒作和廣告式的熱點(diǎn)宣傳,必須促進(jìn)對(duì)人工智能技術(shù)產(chǎn)品更深層地理解,聚焦這一新技術(shù)給社會(huì)產(chǎn)生重大利益的同時(shí)也帶來(lái)的艱巨挑戰(zhàn)。
四、結(jié)論
據(jù)了解,人工智能是知識(shí)的工程,是機(jī)器模仿人類利用知識(shí)完成一定行為的過(guò)程。以近幾十年的技術(shù)水平,即使有更高性能的計(jì)算平臺(tái)和更大規(guī)模的大數(shù)據(jù)助力,人類對(duì)自身智能的認(rèn)識(shí)也還處在初級(jí)階段,在人類真正理解智能機(jī)理之前,不可能制造出更強(qiáng)的人工智能。
盡管如此,在現(xiàn)有技術(shù)水平以及將來(lái)科技發(fā)展進(jìn)程中,AI都不應(yīng)該具有人格權(quán)。作為社會(huì)的一個(gè)成員,每個(gè)人都會(huì)為了生活的需求而去爭(zhēng)取權(quán)利和義務(wù),這是作為民事主體的兩個(gè)屬性,權(quán)利和義務(wù)是法律在決定某種主體是否具有法律人格時(shí)考慮的主要屬性。從法律后果上來(lái)看,賦予AI機(jī)器人法律人格也許不是一個(gè)切實(shí)可行的維護(hù)社會(huì)秩序的好方法,這樣會(huì)使人類免于承擔(dān)責(zé)任,從而形成一個(gè)惡性循環(huán)使那些不懷好意的人有更大的企圖去做傷天害理的事情,在這種情況下將會(huì)導(dǎo)致社會(huì)秩序的混亂。立法者不應(yīng)僅僅考慮AI的人格權(quán)歸屬問(wèn)題,還應(yīng)該保持對(duì)社會(huì)負(fù)責(zé)的態(tài)度,考慮由此帶來(lái)的社會(huì)后果,對(duì)人類負(fù)責(zé)。
參考文獻(xiàn):
[1]薛軍.法人人格權(quán)的基本理論問(wèn)題探討.法律科學(xué).2004(1).
[2]S. M. Solaiman: Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy,Artif Intell Law 2016(11).
[3]Kalin Hristov: Artificial Intelligence and The Copyright Dilemma, 2016.
[4]Phil Mc Nally, Sohai Inayatullay著.邵水浩譯.機(jī)器人的權(quán)利——二十一世紀(jì)的技術(shù)、文化和法律(下).世界科學(xué).1989(7).
[5]袁曾.人工智能有限法律人格審視.東方法學(xué).2017(5).
[6]楊立新、朱呈義.動(dòng)物法律人格之否定兼論動(dòng)物之法律物格.法學(xué)研究.2004 (5) .
[7]曹剛.法律的道德批判.江西人民出版社.2001.