徐清清
摘要:人工智能時代下出現(xiàn)的智能機器人,現(xiàn)有法律對其的規(guī)范調(diào)整存在空缺與不足。能產(chǎn)生獨立意識自我進行意思表示的智能機器人尚未被創(chuàng)造,故目前沒有客觀需要來確立其法律主體地位;智能機器人行為侵權(quán)時,從所有人的“雇主責(zé)任”與產(chǎn)品責(zé)任來平衡分配;應(yīng)承認智能機器人對其自主學(xué)習(xí)創(chuàng)作的作品的知識產(chǎn)權(quán)。最后,在應(yīng)對智能機器人對傳統(tǒng)法律挑戰(zhàn)時,應(yīng)堅持人類利益優(yōu)先、公共利益優(yōu)先、共生等基本原則。
關(guān)鍵詞:智能機器人;法律主體地位;侵權(quán)責(zé)任
中圖分類號:D9文獻標(biāo)識碼:A文章編號:1004-1494(2020)01-0113-05
一、引言
在科技高速發(fā)展的時代背景下,我們每時每刻都能在各個地方感受到人工智能帶來的便利,但是與此同時,我們也應(yīng)警惕人工智能帶來的危機。以智能機器人為代表,科技智能時代的發(fā)展可以使機器人脫離人類的意志自主行動,也就是說人類即使是程序員也不知道其下一步會做什么,就像一個有自我意識自我認知的人,這使得機器人倫理規(guī)范變得極其重要,例如是否應(yīng)該給智能機器人獨立的法律主體地位,智能機器人實施的侵權(quán)行為如何認定,甚至智能機器人自我創(chuàng)作的作品是否應(yīng)該得到保護等問題已經(jīng)表明智能科技的革命正在沖擊著當(dāng)下的法律規(guī)則和社會倫理,甚至顛覆人類原有的法律認知。
因此,對于奔涌而來的科技革命對傳統(tǒng)法律秩序的挑戰(zhàn),我們應(yīng)面向未來時代解決沖突,實現(xiàn)法律與時代的良好互動。本文將從智能機器人的法律主體地位、智能機器人致人損害以及智能機器人創(chuàng)作作品的知識產(chǎn)權(quán)等角度探討智能機器人對傳統(tǒng)法律的挑戰(zhàn)。
二、智能機器人的法律主體地位
人類在初期創(chuàng)造人工智能的目的是為了服務(wù)人類,但隨著人工智能隊伍的不斷壯大,智能機器人已經(jīng)完全可以脫離人類控制自我行動,智能機器人的自主行為必然會涉及行為的對錯,即涉及社會倫理性、道德性。因而我們不得不對其采取規(guī)范性措施來壓制人工智能高度發(fā)展所帶來的消極影響。智能機器人是否存在法律人格,將直接影響智能機器人應(yīng)否有獨立的法律地位以及在法律層面對智能機器人的規(guī)范方式。學(xué)術(shù)上對于智能機器人法律主體地位的問題有著激烈的討論,總體而言有客體說與主體說??腕w說否認智能機器人的主體地位,其代表觀點有“工具說”“電子代理說”等。主體說承認智能機器人的主體地位,代表觀點有“電子人格說”“擬制主體說”等。
(一)工具說
人類創(chuàng)造的智能機器人,作為工具服務(wù)人類。其最根本最本質(zhì)的目的是服務(wù)人類、工具說認為人類控制智能機器人,給予智能機器人法律主體地位毫無必要。該觀點把智能機器人當(dāng)做服務(wù)人類的工具,否認了其獨立人格。
(二)電子代理說
電子代理人是指不需要人的審查或操作,而能用于獨立地發(fā)出、回應(yīng)電子記錄,以及部分或全部的履行合同的計算機程序、電子的或其他自動化手段[1]。電子代理人與民法上的代理人存在本質(zhì)上的區(qū)別。民法上的代理人是一個獨立的法律主體,擁有獨立的人格和財產(chǎn);而電子代理人究其本質(zhì)只是合同雙方當(dāng)事人訂立合同的手段或者已設(shè)立的程序,追溯其本質(zhì),是使交易更加快捷的工具,是手段上的進步,它不能夠承擔(dān)民事責(zé)任。
(三)電子人格說
《歐盟機器人民事法律草案》給予智能機器人一定的法律地位,將它們歸類為“電子人”,并且享有一定的權(quán)利與義務(wù)。
(四)擬制主體說
智能機器人擬制主體說,與德國法學(xué)家薩維尼主張的法人擬制說具有一致性,都是通過法律將原本不符合條件的主體擬制為民事主體,從而享有權(quán)利,承擔(dān)義務(wù)。該主張認為法律是解決人與人之間的問題,無論智能機器人怎么脫離人的控制,始終與人類存在本質(zhì)差異。民事主體有且只有自然人可以成為民事主體,但可以借鑒法人擬制說,通過法律將智能機器人擬制為民事主體。
除此之外當(dāng)前還有有限人格說、權(quán)利與責(zé)任一體說、控制說等等。筆者認為要把握智能機器人的法律人格,必須先從機器人與人的關(guān)系入手。
要探尋智能機器人與人之間的關(guān)系,我們不妨先思考一下工具、機器以及機器人三者之間的關(guān)系。三者都是人造之物,都是非生命體,且為人服務(wù)。筆者認為三者的區(qū)別有:扳手、剪刀等工具在機能上不如汽車等機器,也可以說機器是一種更自動化的工具。在機器的基礎(chǔ)上有了人的影子,成為機器人。機器人繼續(xù)發(fā)展能夠自我學(xué)習(xí)產(chǎn)生獨立意志進行自主行為,成為智能機器人。工廠流水線上生產(chǎn),裝配等任務(wù)由機器人而非工人完成時,這些自動機器取代了工人,但機器終究不是人,機器人從事的行為與人的勞動存在本質(zhì)上的區(qū)別。機器人的行為雖同樣是物質(zhì)資料的生產(chǎn),但究其根本只是程序編碼設(shè)計下模仿人的身體動作。人們一方面希望機器人解放自己的雙手,無報酬地為人創(chuàng)造資本,另一方面又擔(dān)憂其發(fā)展脫離控制,最終被自己創(chuàng)造的東西淘汰。隨著人工智能的發(fā)展,智能機器人不僅可以在外表上神似人,還能有理解思考等人特有的能力,甚至能擁有情感,脫離人的控制變得獨立。我們不得不思考智能機器人與人之間的界限。劉憲權(quán)教授認為智能機器人與人的關(guān)系不應(yīng)是平等的,兩者的關(guān)系是隨著歷史發(fā)展和科技的進步而不斷變化著的,其具體表現(xiàn)取決于智能機器人自身的倫理地位[2]。吳漢東教授在智能機器人法律主體地位問題上認為法律主體須有權(quán)利能力,包括自然人和法律擬制的法人。同時指出法律擬制的法人是自然人的集合體,與擁有“人類智慧”的智能機器人依舊存在本質(zhì)的差別,否認了機器人擬制主體說。王利明教授認為,智能機器人是人類創(chuàng)造出來的,雖可能代替人類從事相關(guān)活動,但本質(zhì)是受其自身算法而決定,尚不具備人類所具有的自主思考的意識和能力,且智能機器人尚不能獨立享有權(quán)利、承擔(dān)義務(wù),故目前人工智能機器人還不能也沒必要成為法律主體[3]。筆者認為,現(xiàn)階段我們?nèi)蕴幱谌跞斯ぶ悄軙r代,目前機器人還未真正達到智能時期,并沒有獨立意識,不能真正脫離人的控制。因此,在此基礎(chǔ)上過早賦予其法律主體地位,還為之過早,在沒有客觀基礎(chǔ)的情況下制定的法律規(guī)范也必定沒有實際可操作性。
三、智能機器人致人損害的責(zé)任分配
人工智能領(lǐng)域的快速發(fā)展,認為機器人或者計算機只是人設(shè)計編程創(chuàng)造的工具的固有觀點,甚至已經(jīng)成為一種偏見。1989年,前蘇聯(lián)國際象棋冠軍尼古拉·古德科夫和機器人對弈,古德科夫連勝三局,“惱羞成怒”的機器人突然向金屬棋盤釋放強大電流將這名國際象棋大師擊斃。不可置疑,在外觀表現(xiàn)上智能機器人能夠?qū)嵤┣謾?quán)行為甚至刑法上的犯罪,但是誰來承擔(dān)侵權(quán)責(zé)任,又如何承擔(dān),法律上仍然沒有相應(yīng)的規(guī)則進行規(guī)制,只能將其當(dāng)做產(chǎn)品,以產(chǎn)品責(zé)任、侵權(quán)責(zé)任等進行規(guī)制。例如2016年聯(lián)合國科教文組織通過的關(guān)于機器人倫理的草案,將智能機器人視為科技產(chǎn)品,因技術(shù)等產(chǎn)品缺陷造成的損害,適用產(chǎn)品責(zé)任的相關(guān)制度進行調(diào)整。智能機器人造成的損害總體上可以分成四類:侵權(quán)人惡意篡改或控制系統(tǒng)導(dǎo)致?lián)p害;系統(tǒng)自身存在瑕疵導(dǎo)致?lián)p害;人為操作不當(dāng)導(dǎo)致?lián)p害;智能機器人獨立行為進行侵權(quán)。
(一)侵權(quán)人惡意篡改或控制系統(tǒng)導(dǎo)致?lián)p害
即使智能機器人有再強的自主能力,但是在被人控制下實施的損害行為,比如黑客入侵篡改編碼數(shù)據(jù),使其改變了原先設(shè)計的程序,做出的異常行為造成損害。此種情況下智能機器人扮演了侵權(quán)人行為的工具,而非主體。
(二)系統(tǒng)自身存在瑕疵導(dǎo)致?lián)p害
人工智能作為新興事物具有一定的不確定性,人在設(shè)計制造并且部署了智能機器人,因內(nèi)部本身的系統(tǒng)存在瑕疵導(dǎo)致的損害,筆者認為可以參照產(chǎn)品責(zé)任追究生產(chǎn)者、銷售者的責(zé)任。
(三)人為操作不當(dāng)導(dǎo)致?lián)p害
人為操作不當(dāng)導(dǎo)致的損害,首先應(yīng)排除智能機器人是侵權(quán)主體。筆者認為由于智能機器人的行為存在一定的不確定性,人為操作不當(dāng)導(dǎo)致的損害,不能完全免除生產(chǎn)者或銷售者的責(zé)任,應(yīng)視情況承擔(dān)相應(yīng)比例的責(zé)任。首先,生產(chǎn)者有義務(wù)在說明書上標(biāo)明智能機器人的使用方法及注意事項;其次,將人為操作的不當(dāng)性程度視為責(zé)任分配的考慮因素之一,原因在于人為活動是主觀下的實踐,具有不確定性,生產(chǎn)者在生產(chǎn)過程就應(yīng)該考慮到各種不當(dāng)操作并做好預(yù)防及應(yīng)對措施。
(四)智能機器人獨立行為進行侵權(quán)
當(dāng)未來人工智能創(chuàng)造出能夠產(chǎn)生獨立意志,脫離人的控制的智能機器人實施侵權(quán)行為時,責(zé)任由誰承擔(dān),如何分配法律責(zé)任上,既有的責(zé)任規(guī)則已經(jīng)不能夠游刃有余地分配法律責(zé)任。智能機器人是完全獨立自主行為,沒有人為干預(yù)或者控制。因此,智能機器人的侵權(quán)構(gòu)成要件只需加害行為、損害事實與因果關(guān)系,不需要過錯,這里的過錯非人為過錯,指智能機器人的過錯,人為過錯自然適用現(xiàn)有法律的歸責(zé)原則,本文不做探究。被侵權(quán)人只需證明損害存在的事實,以及損害的發(fā)生與智能機器人有因果關(guān)系即可。智能機器人雖能獨立實行侵權(quán)行為,但是不能夠承擔(dān)侵權(quán)責(zé)任,自然人、法人或者非法人組織才是侵權(quán)責(zé)任的最終承擔(dān)者[4]。
1.智能機器人所有者的雇主責(zé)任
智能機器人獨立意志下的加害行為、因果關(guān)系、損害后果都脫離所有者的意志,因此所有者在主觀上不存在過錯,不適用過錯責(zé)任原則?;谄渑c所有者特殊關(guān)系在對外承擔(dān)法律責(zé)任時擬制為雇傭關(guān)系,適用雇主責(zé)任更為合適。比如出租車公司使用自動駕駛汽車接送乘客,公司必須對自動駕駛汽車的行為負責(zé)[5]。以如今市場上最受關(guān)注的自動駕駛汽車為例。自動駕駛汽車依靠人工智能、視覺計算、雷達、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,讓電腦可以在沒有任何人類主動的操作下、自動安全地操作機動車輛①。自動駕駛分為六個級別:無自動化(L0)、駕駛支援(L1)、部分自動化(L2)、有條件自動化(L3)、高度自動化(L4)、完全自動化(L5)。L0為完全人工駕駛,L1、L2、L3駕駛員需要隨時能夠接管車輛,以應(yīng)對自動駕駛汽車不能應(yīng)對的情況[6]。目前自動駕駛汽車已經(jīng)可以達到L4的水平,完全自動駕駛,駕駛員可有可無。對于自動駕駛汽車,很多人都懷疑其安全性,但事實上,自動駕駛汽車相比人類駕駛有較少的交通事故。自動駕駛汽車具有360度視角,克服了人類的視線障礙,且其反應(yīng)能力迅速得多。同時又避免了因分心駕駛、疲勞駕駛、醉酒駕駛等人為因素造成的交通事故。盡管自動駕駛汽車在技術(shù)上證明其安全性,但事故和意外是不可能完全避免的。對于L3及以下的自動駕駛汽車發(fā)生的事故,依舊可以按照既有的責(zé)任規(guī)則分配法律責(zé)任,因為在這種情況下,人類依舊承擔(dān)著駕駛員的身份,人工智能只是起到輔助作用。但是在L4及以上的自動駕駛汽車中,即使坐在駕駛員位置上的人也已經(jīng)不再是司機的身份,更像是一個乘客,如果依舊要求其時刻準備應(yīng)對路面情況,缺乏合理性,且給予了人更大的心理壓力與責(zé)任負擔(dān),也不利于自動駕駛汽車的發(fā)展。以下所指自動駕駛汽車均為L4以上的自動駕駛汽車。在Arnold訴Reuther案中,橫穿馬路的Arnold作為受損害者,起訴駕駛自動駕駛汽車的Reuther沒有采取措施避免事故發(fā)生。法院認為人無法擁有像智能機器人一樣迅速作出反應(yīng)。自動駕駛汽車發(fā)生的交通事故,要求一個普通人在極短時間內(nèi)做出反應(yīng)過于苛責(zé)。但是雖過錯不能追究于人,但基于自動駕駛汽車與所有者之間擬制的雇傭關(guān)系,并不能因此完全免責(zé)。在我國,受雇人在履行職務(wù)期間,沒有過錯造成損害,由雇主承擔(dān)責(zé)任;受雇人有過錯,則與雇主承擔(dān)連帶賠償責(zé)任。但自動駕駛汽車等智能機器人不能承擔(dān)侵權(quán)責(zé)任,實際上是由雇主即所有者承擔(dān)的責(zé)任。“在履行職務(wù)期間”雇主責(zé)任的歸責(zé)原則中必不可少的條件,在智能機器人是否處于履行職務(wù)期間,筆者認為對于智能機器人的所有權(quán)人,“履行職務(wù)期間”是貫穿始終的。當(dāng)自動駕駛汽車等智能機器人在流通時符合標(biāo)準,不存在缺陷的情況下將事故責(zé)任歸咎于設(shè)計者或生產(chǎn)者會在責(zé)任分配上讓設(shè)計者或生產(chǎn)者負擔(dān)過多的責(zé)任。因此在自動駕駛汽車等智能機器人不存在產(chǎn)品缺陷時,對于損害的賠償,由所有者承擔(dān),應(yīng)并綜合考慮受損害者的過錯,公平分配兩者之間的法律責(zé)任。
2.智能機器人的產(chǎn)品責(zé)任
即使智能機器人能夠自我學(xué)習(xí)產(chǎn)生獨立意志,但最初設(shè)計的程序編碼等依舊會對其行為產(chǎn)生影響。生產(chǎn)者必須保證流通的智能機器人符合標(biāo)準。根據(jù)上文所說,產(chǎn)品責(zé)任只有當(dāng)自動駕駛汽車等智能機器人存在產(chǎn)品缺陷時才會產(chǎn)生,當(dāng)有缺陷的智能機器人造成他人損害時,以擬制的雇傭關(guān)系為基礎(chǔ)的使用者在賠償損失時,有權(quán)向生產(chǎn)者或者銷售者進行追償。
產(chǎn)品缺陷作為產(chǎn)品責(zé)任的核心構(gòu)成要件,但是由于智能機器人的設(shè)計程序等對絕大多數(shù)人來說是陌生的,即使由設(shè)計者、生產(chǎn)者承擔(dān)舉證責(zé)任證明產(chǎn)品不存在缺陷,普通人也很難理解其運作方式。因此,一般認為侵權(quán)行為中智能機器人存在過錯,就應(yīng)推定產(chǎn)品有缺陷,除非有相反事實證據(jù)證明。
四、智能機器人的知識產(chǎn)權(quán)認定及侵權(quán)
人類曾一度認為只有具有情感的人類能夠創(chuàng)作、欣賞文學(xué)、藝術(shù),但人工智能正不斷顛覆人們的認知。在文學(xué)藝術(shù)方面也有了智能機器人的影子,這顯然是對現(xiàn)有知識產(chǎn)權(quán)法既有規(guī)范的沖擊。微軟開發(fā)的“小冰”就是一個典型代表,“小冰”創(chuàng)作的詩集《陽光失了玻璃窗》,完全由“小冰”自主創(chuàng)作,沒有任何人為參與,那么該詩集的知識產(chǎn)權(quán)歸誰所有呢。在日本,由智能機器人創(chuàng)作的作品,不僅可以與人類作品競爭評獎,還可以在市面上進行銷售。法律設(shè)立知識產(chǎn)權(quán)的目的在于保護自然人的智力成果,激勵人們積極創(chuàng)作發(fā)明。這同樣適用智能機器人,如果不積極保護智能機器人創(chuàng)作的智力成果,同樣會打擊其創(chuàng)作的積極性。不可否定,智能機器人就是人類創(chuàng)造發(fā)明的成果,但是它創(chuàng)作的成果又該如何認定呢,是歸智能機器人所有呢還是智能機器人主人所有。筆者認為雖然在還未賦予智能機器人法律主體地位,但是在基于客觀事實以及客觀需要的情況下②,一方面應(yīng)承認其知識產(chǎn)權(quán)所有人的地位;另一方面,智能機器人能夠創(chuàng)作是因為其能基于海量信息深度學(xué)習(xí)的結(jié)果,程序員只需設(shè)立好編碼程序,大量輸入知識和信息,因此,并不能排除智能機器人復(fù)制抄襲他人作品的可能性。這里就會出現(xiàn)智能機器人侵犯他人知識產(chǎn)權(quán)的情況,具體責(zé)任應(yīng)由誰承擔(dān),也值得進一步探討。
五、應(yīng)對智能機器人的挑戰(zhàn)
現(xiàn)如今正處于弱人工智能向高人工智能時代的過渡期,人工智能的高度發(fā)展會對現(xiàn)有倫理規(guī)范與法律秩序帶來前所未有的沖擊與挑戰(zhàn),面向未來,做到法律與時代的良性互動,我們應(yīng)堅持基本以下原則。
第一,人類優(yōu)先原則。我們發(fā)展人工智能,發(fā)明智能機器人的根本目的,始終是更好地服務(wù)人類,不管智能機器人如何擁有獨立意志,甚至擁有人的感情,它始終是沒有生命,由編碼設(shè)計而成的機器。因此,在我們不斷向高人工智能發(fā)展時,應(yīng)確立正確的價值目標(biāo)導(dǎo)向。
第二,公共利益優(yōu)先原則[7]??萍荚诎l(fā)展過程中,也會帶來諸多弊端,并非所有的科學(xué)技術(shù)都會造福人類,如克隆人技術(shù)等等。同樣在人工智能發(fā)展中,我們在積極利用智能機器人的同時,應(yīng)把握基本的倫理原則、道德原則。正如恩格爾所說:“我們不要過分陶醉于我們對自然的勝利。對于每一次這樣的勝利,自然界都報復(fù)了我們。每一次勝利,在第一步都確實取得了我們預(yù)期的結(jié)果,但是在第二步和第三步卻有了完全不同的、出乎我們預(yù)料的影響,常常把第一次結(jié)果又取消了?!盵8]
第三,共生原則?!叭祟惪梢越虣C器,機器也可以教人類,這種平衡是必須的。兩者之間的關(guān)系不是對抗性的而是可以共生的”[9]就像霍金所說:“人工智能的真正風(fēng)險不是它的惡意,而是它的能力。一個超智能的人工智能在完成目標(biāo)方面非常出色,如果這些目標(biāo)與我們的目標(biāo)不一致,我們就會陷入困境”[10]正確處理人工智能與人類之間的關(guān)系,在秉持公平正義的理念下,人工智能與人類方能和諧共處,共同發(fā)展。
結(jié)語