曹紅冰,李 巖
(湖南工商大學,湖南 長沙 410205)
在2017年5月舉辦的中國烏鎮(zhèn)圍棋峰會上,世界圍棋冠軍柯潔對陣人工智能機器人“阿爾法狗”,最終“阿爾法狗”以3比0的戰(zhàn)績完勝人類第一的棋手柯潔。智能機器人“阿爾法狗”的勝出引發(fā)了人們關(guān)于人工智能的熱烈討論和持續(xù)研究。如今,人工智能技術(shù)已逐漸覆蓋人類生活的很多方面,給人們的生產(chǎn)生活方式帶來了巨大變化,但也發(fā)生了一些難以避免的傷害事故。2015年,在德國的大眾汽車工廠內(nèi),一名工作人員突遭機器人的攻擊而身亡[1]。2016年,深圳國際高新技術(shù)成果交易會上,叫“小胖”的機器人在沒有命令的情況下砸碎現(xiàn)場玻璃,致使一名觀眾被劃傷[2]。2018年,美國亞利桑那州一輛自動駕駛汽車在道路測試時將一名過路的行人撞死[3]。
“機器人傷人”事件的時有發(fā)生促使學界開始思考人工智能產(chǎn)品致人損害的民事責任承擔問題。就該問題,筆者將從兩個方面討論,即人工智能產(chǎn)品能否作為民事責任主體和傳統(tǒng)歸責原則適用于人工智能產(chǎn)品的困境,并在此基礎(chǔ)上為構(gòu)建我國人工智能產(chǎn)品民事責任制度提出初步建議。
欲探究人工智能產(chǎn)品的侵權(quán)責任問題,首先面臨的難題便是責任主體的確定,即由誰對人工智能產(chǎn)品侵權(quán)承擔責任,存在三種情形:一是由產(chǎn)品的生產(chǎn)者承擔責任;二是由產(chǎn)品的銷售者、使用者承擔責任;三是由人工智能產(chǎn)品本身承擔責任。前兩種情形與常見的侵權(quán)行為沒有區(qū)別,可依據(jù)過錯責任原則或無過錯責任原則由相關(guān)責任人承擔法律責任。第三種情形存有較大爭議,人工智能產(chǎn)品本身能否作為民事責任主體承擔民事責任是討論研究的重點。
屬于第三種情形的人工智能產(chǎn)品侵權(quán)案件與常見的侵權(quán)案件有所不同:第一,人工智能產(chǎn)品侵權(quán)可能與人無關(guān),常見的侵權(quán)行為則是由人或有意或無意的行為導致;第二,人工智能產(chǎn)品侵權(quán)案件的原因難以查清,常見的侵權(quán)案件則相反;第三,人工智能產(chǎn)品侵權(quán)的證據(jù)難以搜集,被侵權(quán)人承擔舉證責任有較大困難,常見的侵權(quán)行為則相對容易。人工智能產(chǎn)品的自主性、獨立性和高度的自我學習能力是造成這些不同之處的原因。人工智能產(chǎn)品無需使用者操控,在感知外界情況后,根據(jù)事先編寫的算法和對采集的大數(shù)據(jù)的分析,進行預測和判斷,采取最優(yōu)的應對策略[4]。因此,人工智能產(chǎn)品侵權(quán)除了應當由生產(chǎn)者、銷售者或使用者承擔責任的情形外,其他情況下與人無關(guān),一般是人工智能產(chǎn)品本身判斷失誤所致。人工智能系統(tǒng)的構(gòu)造和工作原理晦澀難懂,作出決策的全過程復雜繁瑣,其中的很多原由甚至研發(fā)人員都無法解釋,更不用提普通群眾,因而人工智能產(chǎn)品侵權(quán)的原因難以查清、證據(jù)難以收集。
由于人工智能產(chǎn)品的特殊性,引發(fā)了學界對它能否作為民事責任主體的討論,其中比較有代表性的是肯定說、否定說和有限人格說三種觀點。
持該種觀點的學者認為賦予人工智能產(chǎn)品以法律人格是大勢所趨。因為人工智能產(chǎn)品本身具有自主決策能力和獨立行為能力,已經(jīng)具備賦予民事主體地位的條件。肯定說還認為賦予人工智能產(chǎn)品以法律人格是基于實踐中的強烈需求。倘若智能機器人、無人駕駛汽車等人工智能產(chǎn)品能夠就自己的行為獨立對外承擔民事責任,那么人工智能產(chǎn)品致人損害侵權(quán)責任的承擔、創(chuàng)作作品的著作權(quán)歸屬等問題都將迎刃而解[5]①郭明龍教授提出,人工智能成為法律主體,那么人工智能自主行為的法律責任承擔問題、人工智能創(chuàng)作物的知識產(chǎn)權(quán)歸屬問題、數(shù)據(jù)應用安全、高端人工智能自主參與社會活動問題都將得到較好的解決。。
否定說是目前學界通說。該觀點認為人工智能產(chǎn)品不能成為民事責任主體,因為它與《中華人民共和國民法總則》(以下簡稱《民法總則》)規(guī)定的民事主體不同。首先,人工智能產(chǎn)品不同于自然人主體,它不是基于自然規(guī)律出生,沒有生命、情感、倫理道德和自由意志,不符合如自然人一樣的生命體特征;其次,人工智能產(chǎn)品與法人和其他組織不同,它沒有獨立的財產(chǎn),無法獨立對外承擔民事責任,即使成為責任主體也沒有任何意義;最后,人工智能產(chǎn)品一般是特定的自然人、法人或其他組織所有的財產(chǎn),本質(zhì)依然是物,是工具,自身沒有獨立地位,自然不能享有法律人格[6]。
持有限人格說的學者不像肯定說和否定說的學者那樣一刀切地完全肯定或完全否定給予人工智能產(chǎn)品民事主體地位,而是有限地承認其主體地位,認為應享有部分法律人格。袁曾博士認為,既然人工智能產(chǎn)品具有自主決策和獨立行為能力,就應認可其法律地位,但由于它沒有獨立的財產(chǎn),不具備承擔完全責任的能力,又往往為某個自然人或組織所有,不具有獨立性,因而只能享有有限法律人格[7]。這種法律人格與自然人、法人和其他組織享有的法律人格不完全相等,人工智能產(chǎn)品僅有有限的權(quán)利義務,承擔有限的法律責任。當人工智能產(chǎn)品自身實施了不可預測的危險行為致人損害,應當按照“刺破人工智能面紗”的歸責原則確定責任主體[8]。
筆者贊同有限人格說的觀點。人工智能技術(shù)的發(fā)展使傳統(tǒng)民法理論面臨挑戰(zhàn)甚至被顛覆,賦予人工智能產(chǎn)品以法律人格是大勢所趨,但人工智能產(chǎn)品承擔責任的能力實屬有限,它不僅沒有獨立的財產(chǎn)賠償被侵權(quán)人,而且對它強制召回或銷毀對被侵權(quán)人也沒有實質(zhì)意義。因此,采取折中的策略,承認人工智能產(chǎn)品享有有限法律人格是較好的解決辦法。
《中華人民共和國侵權(quán)責任法》(以下簡稱《侵權(quán)責任法》)確立的過錯責任原則以行為人是否存在主觀過錯作為承擔侵權(quán)責任的前提,以行為人主觀過錯的大小作為承擔責任輕重的依據(jù)。因此,對那些不能歸咎于人的過錯,是人工智能產(chǎn)品自主實施的行為致人損害的侵權(quán)案件無法適用過錯責任原則。這些案件有一個共同點,即人工智能產(chǎn)品實施的侵權(quán)行為與人無關(guān),過錯責任原則便喪失了適用基礎(chǔ)。
人工智能產(chǎn)品具有自主決策和獨立行為能力,不論是智能機器人還是無人駕駛汽車,都可以通過分析大數(shù)據(jù),作出最優(yōu)決策,整個過程基本不需要人的參與。因此,如果人工智能產(chǎn)品實施了致人損害行為,通常是其判斷失誤所致,與背后的生產(chǎn)者、銷售者和使用者無關(guān)。以無人駕駛汽車為例,無人駕駛汽車的安全行駛不依賴經(jīng)驗豐富的駕駛員,而是依靠人工智能系統(tǒng)、雷達、傳感器、全球定位系統(tǒng)以及視覺算法的協(xié)同配合[9]。任何一個環(huán)節(jié)出錯都會釀成一場慘重的交通事故。例如,本文開篇提到的美國亞利桑那州無人駕駛汽車撞死行人案,經(jīng)過調(diào)查,事故發(fā)生的原因是無人駕駛汽車內(nèi)的傳感器沒有發(fā)現(xiàn)橫穿馬路的行人,沒有緊急剎車。這顯然是無人駕駛汽車本身判斷失誤,與生產(chǎn)者、銷售者、使用者的主觀過錯無涉。另外,由于是否賦予人工智能產(chǎn)品法律人格還有爭議,探究它的主觀意圖是荒謬且不切實際的,因而過錯責任原則也就徹底喪失了適用的空間。
目前,人工智能產(chǎn)品只能作為客體存在,盡管與其他客體相比具有特殊性,但在專門規(guī)制人工智能的法律出臺前,適用《侵權(quán)責任法》中的產(chǎn)品責任是合理合法的。這一點在聯(lián)合國教科文組織聯(lián)合世界科學知識與技術(shù)倫理委員會發(fā)布的《關(guān)于機器人倫理的初步草案報告》(以下簡稱《報告》)中得到了印證,該《報告》指出智能產(chǎn)品可被視為一般意義上的科技產(chǎn)品,智能產(chǎn)品造成的損害可由民法上的產(chǎn)品責任予以調(diào)整[10]。
我國《侵權(quán)責任法》規(guī)定產(chǎn)品責任適用無過錯責任原則。根據(jù)無過錯責任原則的要求,在人工智能產(chǎn)品致人損害案件中,當被侵權(quán)人要求產(chǎn)品的生產(chǎn)者或銷售者承擔侵權(quán)責任時,要承擔產(chǎn)品存在缺陷、損害結(jié)果以及二者存在因果關(guān)系的證明責任。損害結(jié)果的證明一般較為容易,但人工智能產(chǎn)品具有高度專業(yè)性和復雜性,證明它存在缺陷以及缺陷和損害結(jié)果之間的因果關(guān)系則較為困難。下文筆者將從兩個方面分析產(chǎn)品責任在人工智能產(chǎn)品侵權(quán)案件中的適用困境。
1.證明人工智能產(chǎn)品存在缺陷較為困難
《中華人民共和國產(chǎn)品質(zhì)量法》(以下簡稱《產(chǎn)品質(zhì)量法》)規(guī)定的產(chǎn)品缺陷有四種情形,這也是被侵權(quán)人證明產(chǎn)品存在缺陷的四條途徑:(1)產(chǎn)品可能危及他人的人身、財產(chǎn)安全;(2)不符合本產(chǎn)品的質(zhì)量標準、行業(yè)標準;(3)不具備產(chǎn)品本應有的使用性能;(4)沒有履行承諾的產(chǎn)品標準、質(zhì)量標準。
首先,第一條途徑對被侵權(quán)人就尤為困難。人工智能產(chǎn)品技術(shù)性、專業(yè)性較強,普通民眾無法理解它的原理和構(gòu)造,甚至研發(fā)人員也不能對它的某些行為做出解釋。在人工智能產(chǎn)品致人損害的行為發(fā)生前,人們很難知道它存在缺陷;在損害發(fā)生后,被侵權(quán)人更是無法證明是人工智能系統(tǒng)自主決策失誤還是產(chǎn)品本身存在缺陷。其次,目前通過第二條途徑證明人工智能產(chǎn)品存在缺陷的條件尚不具備?,F(xiàn)在人類對人工智能的研究還不完善,人工智能行業(yè)的發(fā)展正處于弱人工智能階段,還沒有國家擬制出人工智能產(chǎn)品的質(zhì)量標準、行業(yè)標準,因此第二條途徑行不通。再次,第三條途徑只能適用于人工智能產(chǎn)品出現(xiàn)故障,無法使用的情形,對在正常使用時突然的錯誤行為致人損害的情況無法發(fā)揮作用。最后,第四條途徑的適用范圍較窄,僅能用于人工智能產(chǎn)品的生產(chǎn)者對產(chǎn)品質(zhì)量作出某種承諾的情形,即便屬于這種情況,被侵權(quán)人還需要證明該產(chǎn)品沒有達到生產(chǎn)者承諾的質(zhì)量標準,但如前文所說,普通民眾證明這一點非常困難,因此這條途徑的作用實際上極其有限。
綜上,被侵權(quán)人要證明人工智能產(chǎn)品存在缺陷非常困難,這是造成產(chǎn)品責任難以適用于人工智能產(chǎn)品致人損害案件的原因之一。
2.人工智能產(chǎn)品侵權(quán)的因果關(guān)系難以證明
普通的產(chǎn)品侵權(quán)經(jīng)過簡單調(diào)查,侵權(quán)的原因、因果關(guān)系等就會水落石出,調(diào)查人工智能產(chǎn)品侵權(quán)的原由則相當困難,甚至其中的原因永遠不能為人所知,造成這種困境的根源在于人工智能產(chǎn)品的行為難以預料和極其復雜的工作原理。隨著強人工智能理論的興起,人們越來越不可能控制人工智能產(chǎn)品的每一個行為,即便是產(chǎn)品的設(shè)計者也是如此。一方面,不是人工智能產(chǎn)品的每一步行動都依賴程序員的指令。相反,程序員只需事先編寫算法,接下來的一系列工作就交給了人工智能系統(tǒng),由它進行監(jiān)測、分析、決策[11]。另一方面,人工智能產(chǎn)品常常打破程序員預先為其確立的規(guī)則。程序員通過編寫算法確定的規(guī)則固然能在一定程度上控制人工智能產(chǎn)品的行為,但被生產(chǎn)出來后它的經(jīng)歷也豐富著數(shù)據(jù)庫,影響以后的決策,使其可能不按規(guī)則“行事”[12]。
人工智能系統(tǒng)如同“科技黑箱”,普通民眾即便不知道其中的原理和構(gòu)造,也可以通過簡單的操作讓各種智能產(chǎn)品為自己服務[13]。“科技黑箱”極大地方便了人們的生產(chǎn)生活,但當智能產(chǎn)品侵權(quán)時,它卻給被侵權(quán)人舉證帶來了巨大困難。人工智能產(chǎn)品自主實施的行為難以預測,人們對它的工作原理也一無所知,因而被侵權(quán)人無從知曉它侵權(quán)的原因,也就難以證明產(chǎn)品缺陷與損害后果之間的因果關(guān)系。
如前所述,傳統(tǒng)歸責原則難以適用于人工智能產(chǎn)品致人損害案件。未來當法院審理第一起人工智能產(chǎn)品自主實施的侵權(quán)案件時,可能會面臨這樣的困境:過錯責任原則沒有適用的基礎(chǔ),適用產(chǎn)品責任使被侵權(quán)人難以承擔舉證責任,無法獲得賠償。歐盟、美國、英國等已經(jīng)意識到傳統(tǒng)民事責任制度難以應對人工智能產(chǎn)品侵權(quán)案件,開始探索構(gòu)建適用于人工智能產(chǎn)品的民事責任制度。為了在人工智能產(chǎn)品致人損害案件中能更加合理地分配各方的民事責任,筆者嘗試提出幾點建議,希望能對構(gòu)建我國人工智能產(chǎn)品民事責任制度有所幫助。
理性是劃分民事主體與客體的基本標準,是現(xiàn)代民事法律制度中法律地位的認定依據(jù)①西南政法大學葉明教授認為,意識、勞動、感情都不是人與動物的本質(zhì)區(qū)別,惟有理性才是人與動物的本質(zhì)區(qū)別,是劃分民事主體(人)與民事客體(物)的根本標準,是確認民事法律地位的依據(jù)。這一點從現(xiàn)行法律制度中所有民事主體皆具備理性可以得到印證。葉明教授還強調(diào),此處的“理性”是指與人類相當?shù)睦硇?,應包括認知理性與行為理性兩方面。[14]。人工智能產(chǎn)品無疑具有理性,它的理性源于研發(fā)者,是人類理性的延伸。人工智能產(chǎn)品的理性主要體現(xiàn)在四個下列方面。第一,人工智能產(chǎn)品由人類制造,承載著人類社會的觀念、倫理道德、知識和法律規(guī)則。人類在模擬自身中樞神經(jīng)系統(tǒng)研發(fā)人工智能產(chǎn)品的同時,也在其中植入了自己的理念、邏輯、知識和道德規(guī)范。這就使人工智能產(chǎn)品能夠理解人類的思想和各種規(guī)則,具有和人類相似的理性。第二,人工智能產(chǎn)品具備認知能力,能夠深度學習。研發(fā)者為人工智能系統(tǒng)創(chuàng)建了包含龐大信息的數(shù)據(jù)庫,但人工智能產(chǎn)品并不滿足于此,它通過互聯(lián)網(wǎng)和積累的工作經(jīng)驗進行深度學習,不斷更新和擴充數(shù)據(jù)庫,并根據(jù)一定的邏輯將其歸納整合,形成嚴密、準確、高效的認知體系。目前,人工智能產(chǎn)品的學習能力甚至已超過部分人類,尤其在記憶、運算、資料收集方面。第三,人工智能產(chǎn)品能夠權(quán)衡利弊,作出最優(yōu)決策。從接收到運行指令開始,人工智能產(chǎn)品便以花費最小的成本完成工作任務為目標,一切行動皆圍繞該目標展開。首先人工智能系統(tǒng)在算法的指揮下制定若干實施方案,再由人工智能系統(tǒng)對這些方案綜合評價,通過對每個方案的優(yōu)缺點、成本、可能出現(xiàn)后果的評估,最后選出最佳方案。整個過程人工智能產(chǎn)品杜絕了一切不必要的干擾,比人類更高效,還能作出更好的決策。第四,人工智能產(chǎn)品可以與人類溝通交流。與動物不同,人工智能產(chǎn)品不僅理解人類社會的種種觀念、規(guī)則,模仿人類的動作行為,還能無障礙地與人類溝通交流。以蘋果公司推出的智能語音助手SIRI為例,SIRI可以熟練運用多國語言與人類對話,還能學習新的聲音和語調(diào),使對話更加生動。目前,這種人機互動的人工智能技術(shù)已非常普及,除蘋果公司外,小米公司、百度公司都相繼發(fā)布了類似的人工智能產(chǎn)品。
可以預見,在強人工智能時代,人工智能產(chǎn)品將擁有與人類相當甚至超越人類的理性,故應當將人工智能產(chǎn)品納入民事主體中。但是,畢竟人工智能產(chǎn)品的內(nèi)部構(gòu)造、思維方式與人類完全不同,且承擔責任的能力有限,因此賦予它有限的法律人格是較為妥當?shù)淖龇ā?/p>
人工智能產(chǎn)品侵權(quán)歸責原則的確立應放在兩種情況下討論:侵權(quán)原因能夠查清的情況和難以查清的情況。在第一種情況下可以區(qū)分不同情形分別適用過錯責任原則或無過錯責任原則。如果經(jīng)過調(diào)查證明產(chǎn)品缺陷是在生產(chǎn)環(huán)節(jié)造成的,由生產(chǎn)者承擔產(chǎn)品責任,適用無過錯責任原則;如果有證據(jù)證明產(chǎn)品缺陷是在銷售過程中由于銷售者的過錯造成的,則應由銷售者承擔最終責任,適用過錯責任原則。當人工智能產(chǎn)品投入流通后,使用者或操作者的不當使用或不規(guī)范操作也可能導致致人損害事故的發(fā)生。這種情況實際上與常見的一般侵權(quán)行為無異,對使用者或操作者應適用過錯責任原則。另外,黑客入侵人工智能系統(tǒng)也是人工智能產(chǎn)品致人損害的原因之一,筆者認為這種行為實質(zhì)上也屬于一般侵權(quán)行為,對黑客也應適用過錯責任原則。如果被侵權(quán)人不能找到入侵的黑客無法要求其承擔責任的,可以適用《產(chǎn)品質(zhì)量法》第四十四條的規(guī)定,要求人工智能產(chǎn)品的生產(chǎn)者或銷售者承擔責任,生產(chǎn)者、銷售者承擔責任后有權(quán)向入侵的黑客追償。此外,還有一種情形是人工智能產(chǎn)品被人改裝后出現(xiàn)故障致人損害,此時應當由誰承擔侵權(quán)責任?美國密歇根州、佛羅里達州對該情形作出了規(guī)定:無人駕駛汽車經(jīng)改造后,車輛的生產(chǎn)者無需承擔缺陷致人損害的責任,由車輛的改造者承擔責任,但有證據(jù)證明車輛在改造前就存在缺陷的除外[15]。美國的這種做法有一定合理性,我國可以借鑒。
對第二種情況,筆者認為可以參照適用未成年人侵權(quán)的替代責任。高度智能化的人工智能產(chǎn)品可以被視為未成年人,它雖然有自主決策、獨立行動的能力,但沒有獨立的財產(chǎn),不能獨立承擔責任,只能由“監(jiān)護人”代替承擔[16]。生產(chǎn)者、使用者或操作者可以被視為人工智能產(chǎn)品的“監(jiān)護人”,由他們共同對“被監(jiān)護人”的侵權(quán)行為承擔責任。因為生產(chǎn)者更了解產(chǎn)品結(jié)構(gòu)和運行原理,更有可能預測人工智能產(chǎn)品的決策和行為,理應承擔更重的侵權(quán)責任,并且生產(chǎn)者一般是財力雄厚的科技公司,由它來承擔侵權(quán)責任能更好地保障被侵權(quán)人的利益。使用者或操作者密切接觸人工智能產(chǎn)品,他們應當負有更強的注意義務,讓他們承擔責任可以督促他們在使用或操作時合理使用、規(guī)范操作,減少侵權(quán)事件的發(fā)生。
需要強調(diào)的是,雖然人工智能產(chǎn)品在以上兩種情況中都沒有承擔侵權(quán)責任,但并不意味著它能夠“安然無恙”。我國可以借鑒美國的做法,對曾有致人損害行為的人工智能產(chǎn)品強制召回或銷毀,以免再次危害人們的人身安全[17]。
在人工智能產(chǎn)品享有有限人格的前提下,可以對其制定特殊的法律規(guī)制標準,以解決由于人工智能技術(shù)快速發(fā)展帶來的一系列問題。筆者認為應在以下三個方面采取措施進行規(guī)制。
其一,建立人工智能行業(yè)信息披露制度。德國在這方面已有所嘗試,德國《道路交通法》規(guī)定生產(chǎn)者應當在高度智能化的汽車和船舶上安裝記錄運行數(shù)據(jù)的“黑匣子”,并對數(shù)據(jù)的最低保存年限作出了要求[18]。我國北京市也采取了行動,2017年12月北京市交通委員會發(fā)布了《北京市自動駕駛車輛道路測試管理實施細則(試行)》,其中明確規(guī)定進行道路測試的自動駕駛汽車應安裝數(shù)據(jù)記錄設(shè)備,能夠記錄事故發(fā)生前60秒至停車期間的數(shù)據(jù)。北京市的這一做法值得在全國推廣。除了在人工智能產(chǎn)品上安裝數(shù)據(jù)記錄設(shè)備外,生產(chǎn)者應當監(jiān)控人工智能產(chǎn)品生產(chǎn)的全過程作為證明產(chǎn)品是否存在缺陷的重要證據(jù)。此外,生產(chǎn)者可以建立網(wǎng)站進行信息披露,生產(chǎn)者在網(wǎng)站上發(fā)布產(chǎn)品的生產(chǎn)過程、質(zhì)量標準、使用說明等事項供使用者查閱,使用者、操作者如果對產(chǎn)品的使用、操作有疑問也可以通過網(wǎng)站提問。需要注意的是,在建立人工智能行業(yè)信息披露制度的同時,應制定切實可行的人工智能技術(shù)信息保護規(guī)則,為生產(chǎn)者的信息提供強有力的保護,使他們在信息披露時無后顧之憂。
其二,盡快建立人工智能行業(yè)標準體系。雖然至今尚未建立統(tǒng)一的人工智能行業(yè)標準體系,但國內(nèi)外已進行了不少有益探索。例如,美國為無人駕駛汽車制定了十五項安全標準,歐盟發(fā)布了人工智能的七項道德準則[19]。2018年我國編寫的《人工智能標準化白皮書》中對人工智能標準化的國內(nèi)外現(xiàn)狀、體系、框架作出了深入詳盡的分析,并列舉了近期急需制定的標準,也為人工智能標準化工作提出了幾點建議[20]。目前,我國正在編寫《人工智能標準化白皮書(2020版)》。筆者認為,未來我國在探索建立人工智能行業(yè)標準體系時切忌盲目照搬國外做法,應當深入調(diào)研,準確掌握我國人工智能產(chǎn)業(yè)發(fā)展態(tài)勢,根據(jù)發(fā)展現(xiàn)狀,實事求是,建立符合我國國情,適應現(xiàn)實需要的人工智能行業(yè)標準體系。
其三,對人工智能產(chǎn)品實施強制責任保險和賠償基金制度。與機動車交通事故責任強制保險相似,我國可以強制要求生產(chǎn)者在人工智能產(chǎn)品投入使用前投保責任保險,當該產(chǎn)品在使用中因無法查明的原因致人損害時,由保險公司向被侵權(quán)人賠償,但如果某個侵權(quán)行為經(jīng)查明確實是因生產(chǎn)者的過錯造成,則還由該生產(chǎn)者賠償。如此一來既能激發(fā)生產(chǎn)者研發(fā)人工智能產(chǎn)品的積極性,又能督促他們確保產(chǎn)品的安全性。人工智能產(chǎn)品賠償基金會可以由政府主導建立,基金會的資金來源主要有人工智能產(chǎn)品的生產(chǎn)者、銷售者、使用者等相關(guān)人員繳納的費用、政府財政補貼、社會愛心人士的捐款等,所有的人工智能產(chǎn)品都要在基金會備案登記以便監(jiān)管,基金會只對經(jīng)強制責任保險賠償后不足的部分賠償。在構(gòu)建強制責任保險和賠償基金制度的同時,應完善相關(guān)法律法規(guī),對惡意拖延投保、拒不投保的生產(chǎn)者以及經(jīng)兩次催繳仍不繳費、拒不繳費的相關(guān)人員可以給予罰款、情節(jié)嚴重的責令停產(chǎn)停業(yè)等處罰。筆者認為未來強制責任保險和賠償基金制度可以先在部分地區(qū)試點,逐步在全國推行,最后應成為規(guī)制人工智能產(chǎn)業(yè)的基本法律制度。
人工智能技術(shù)的快速發(fā)展向傳統(tǒng)民法理論提出挑戰(zhàn)。賦予人工智能產(chǎn)品有限的法律人格既順應了科技發(fā)展的潮流,又符合它自身的特點,是較為合理的做法。人工智能產(chǎn)品的特殊性使傳統(tǒng)歸責原則無所適從,過錯責任原則在部分人工智能產(chǎn)品侵權(quán)案件中沒有適用的基礎(chǔ),產(chǎn)品責任的適用會使被侵權(quán)人難以得到補償。為合理分配人工智能產(chǎn)品侵權(quán)案件中各方的法律責任,盡可能減少人工智能技術(shù)高速發(fā)展帶來的危害,應當考慮構(gòu)建我國的人工智能產(chǎn)品民事責任制度,讓完善的法律制度為我國人工智能產(chǎn)業(yè)的健康發(fā)展保駕護航。