亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能產(chǎn)品致人損害民事責(zé)任研究

        2018-04-30 13:09:46張童
        社會科學(xué) 2018年4期
        關(guān)鍵詞:制度構(gòu)建侵權(quán)責(zé)任人工智能

        張童

        摘 要:人工智能技術(shù)現(xiàn)已廣泛應(yīng)用到各個行業(yè)。人工智能具有顯著的擬人特征,這導(dǎo)致智能機器人、自動駕駛汽車等人工智能產(chǎn)品致人損害的民事責(zé)任認定及承擔(dān)面臨若干法律疑難,包括人工智能產(chǎn)品能否成為獨立責(zé)任主體、過錯責(zé)任原則難以適用、侵害事實與因果關(guān)系查明困難等,這些是我國傳統(tǒng)民事責(zé)任制度沒有預(yù)料與考慮的新問題。美國、德國及歐盟近年來已涉足人工智能民事責(zé)任相關(guān)探討及立法嘗試。參考這些國家的經(jīng)驗與不足,考慮到人工智能的技術(shù)屬性,雖然人工智能產(chǎn)品不宜成為獨立的責(zé)任主體,但仍需要建立專門的倫理準則、登記公示制度與召回處置機制,確立生產(chǎn)者、銷售者與使用者之間差異化的歸責(zé)原則,并側(cè)重強調(diào)生產(chǎn)者的舉證責(zé)任,以及在保護隱私權(quán)的前提下記錄并保存侵害原由與過程的電子數(shù)據(jù)。

        關(guān)鍵詞:人工智能;擬人屬性;侵權(quán)責(zé)任;制度構(gòu)建

        中圖分類號: DF51 文獻標識碼:A 文章編號:0257-5833(2018)04-0103-10

        現(xiàn)今,人工智能技術(shù)現(xiàn)已廣泛應(yīng)用到物流、交通、運輸、醫(yī)療、制造、服務(wù)等各個行業(yè),它在未來必然更加普及,也不可避免地對人類造成傷害。例如:日本早在20世紀80 年代就發(fā)生了工業(yè)機器人壓死工人的事故;美國食品藥品監(jiān)督管理局則在2007年收到了200余次投訴,指控醫(yī)療外科手術(shù)機器人導(dǎo)致病人遭受燒傷、切割傷與感染,甚至造成89例死亡事故;①可預(yù)見到,自動駕駛汽車、物流或制造作業(yè)機器人也必然會發(fā)生交通肇事或者生產(chǎn)事故,損害人類的生命健康、財產(chǎn)安全。隨著人工智能的迅速推廣,此類侵害現(xiàn)象將持續(xù)增多,引起有關(guān)民事責(zé)任認定與承擔(dān)的一系列問題。然而,人工智能系統(tǒng)是一種新興的現(xiàn)象,它具備高度的行為自主性與獨立性,能夠完成自我學(xué)習(xí)與調(diào)整,甚至脫離了人類控制,這導(dǎo)致由它實施的侵害呈現(xiàn)顯著的擬人性、復(fù)雜性、特異性,進而引起傳統(tǒng)民事責(zé)任法律制度能否適用、如何適用的擔(dān)憂和困惑。鑒于此,筆者嘗試結(jié)合人工智能的技術(shù)特性,分析傳統(tǒng)民事責(zé)任制度調(diào)整人工智能侵害現(xiàn)象的局限與困境,并探究國外做法的經(jīng)驗與不足,在此基礎(chǔ)上,提出我國人工智能民事責(zé)任制度構(gòu)建相關(guān)對策建議。

        一、傳統(tǒng)民事責(zé)任制度適用人工智能的困境

        人工智能所涉及的民事責(zé)任通常表現(xiàn)為,智能機器人、自動駕駛汽車等人工智能產(chǎn)品侵害人身或財產(chǎn)而引起的侵權(quán)責(zé)任。對此,現(xiàn)行法律制度能否予以有效規(guī)制?進一步而言,這種侵害是否存在某些特殊的特征,不宜適用傳統(tǒng)的民事責(zé)任制度?這是人工智能技術(shù)應(yīng)用無法回避的現(xiàn)實問題。以往,人們一般將人工智能與人形機器人聯(lián)系起來,初級階段的人工智能研究也的確側(cè)重于機器人對人腦的模擬效果等宏觀問題,忽視了人工智能的實際應(yīng)用。然而,在互聯(lián)網(wǎng)技術(shù)高度發(fā)達的今天,人工智能不再局限于創(chuàng)造一個擁有人腦效果的完美機器人,而是依托算法、數(shù)據(jù)處理技術(shù),由機器人自主獨立地搜集、分析、篩選與預(yù)測浩如煙海的數(shù)據(jù),并通過互聯(lián)網(wǎng)控制下的分布式傳感設(shè)置實現(xiàn)數(shù)據(jù)的實時更新,持續(xù)傳輸至“大腦”,按照算法做出進一步的優(yōu)化選擇、調(diào)整、決策或者指令,最終讓機器人實施具體行動。胡凌:《人工智能的法律想象》,《文化縱橫》2017年第2期。通過上述技術(shù),人工智能得以實際應(yīng)用于社會生產(chǎn)、經(jīng)營及生活。例如,“物聯(lián)網(wǎng)”是人工智能應(yīng)用于物流供應(yīng)鏈的生動體現(xiàn),也是當代物流行業(yè)轉(zhuǎn)型發(fā)展的共同目標。它使用智能機器人、無人車、無人船、無人倉與數(shù)據(jù)系統(tǒng),能夠自動完成運輸、搬運、揀貨、裝卸、信息處理等一系列無人化作業(yè),并且在集裝箱、快件或包裹等貨物包裝上安置統(tǒng)一標準的電子標識,通過射頻識別系統(tǒng)、全球定位系統(tǒng)等傳感工具直接掃描電子標簽、采集貨物信息并且上傳互聯(lián)網(wǎng),由數(shù)據(jù)系統(tǒng)對貨物信息完成集中、全程、實時、高效的采集、定位、跟蹤與更新,黃玉蘭:《物聯(lián)網(wǎng)射頻識別(RFID) 核心技術(shù)詳解(第2版)》,人民郵電出版社2012 年版,第3頁。并根據(jù)這些信息做出進一步分析判斷,發(fā)出指令以合理配置物流資源、優(yōu)化物流過程,從而實現(xiàn)提升效率、降低成本?;谏鲜龇治觯斯ぶ悄艿奶厥獗碚骺煽偨Y(jié)為非常復(fù)雜的“擬人屬性”,這種屬性具體表現(xiàn)為幾方面:其一,它擁有外在可見的物理形體,這是人工智能影響外界的直接載體。其二,它依托算法、代碼及信息傳感技術(shù),擁有海量數(shù)據(jù)的采集、分析、交換、更新與處理能力,幾乎不受任何的人類外部控制,表現(xiàn)出高度的自主性或獨立性。其三,它以大數(shù)據(jù)、算法、機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等技術(shù)為主導(dǎo),可獨立從外部世界發(fā)現(xiàn)并汲取新的知識,完成人工智能系統(tǒng)自身的持續(xù)學(xué)習(xí)、積累與提升,完成源源不斷的“深度學(xué)習(xí)”過程,James Hendler,Alice M. Mulvehill, Social Machine:The Coming Collision of Artificial Intelligence, Social Networking, and Humanity, APress,2016,p.101.并且實現(xiàn)自我調(diào)整以適應(yīng)環(huán)境的變化。因此,人工智能可視為以算法為主導(dǎo)的硬件處理系統(tǒng),它并非簡單替代人力勞動,已不能等同于純粹供人類操縱的工具。因此,對于人工智能侵害的民事責(zé)任,也不宜簡單適用傳統(tǒng)民事責(zé)任制度的處理原則,而應(yīng)當結(jié)合人工智能的擬人屬性,予以特殊的綜合考量。

        (一)責(zé)任主體構(gòu)成的疑惑

        究竟由誰承擔(dān)人工智能產(chǎn)品致人損害的民事責(zé)任?按照侵權(quán)責(zé)任法、產(chǎn)品質(zhì)量法的調(diào)整規(guī)則,人工智能產(chǎn)品的生產(chǎn)者、銷售者可按照《產(chǎn)品質(zhì)量法》承擔(dān)產(chǎn)品缺陷致人損害的賠償責(zé)任,使用者也可承擔(dān)使用不當導(dǎo)致的侵權(quán)責(zé)任。然而,依托高科技的人工智能產(chǎn)品具備高度自主的分析處理能力,并且擁有人類無法企及的超強認知能力,即能夠?qū)ψ晕壹寄?、行為準則產(chǎn)生特定的認識與遵守,它們跟人類大腦的差距愈加縮短,甚至具備情感之外幾乎全部的人腦功能,從這一角度考量,人工智能產(chǎn)品的行為似乎可理解為自身獨立實施。由此引起的疑問是,可否將人工智能產(chǎn)品直接確定為侵權(quán)責(zé)任主體?這直接關(guān)乎賦予它們以獨立法律人格有無必要、是否可行的問題。毋庸置疑,這對傳統(tǒng)法學(xué)理念提出了重大挑戰(zhàn)。

        依據(jù)傳統(tǒng)民法理論,法律關(guān)系主體與客體之間存在不可逾越的“鴻溝”,只有兩類形態(tài)能取得法律關(guān)系的主體資格或人格,其一是自然人,其二是作為自然人集合的法人或其他組織,無精神意志之物不應(yīng)成為主體,只能視為法律關(guān)系的客體。然而,在人工智能背景下,上述觀點正遭受不斷沖擊,實際上,呼吁賦予高度自主的人工智能產(chǎn)品以擬制人格的主張已屢見不鮮。有學(xué)者主張,民事法律關(guān)系主體所提及的“人格”是非常抽象的概念,評判可否取得人格的依據(jù)應(yīng)為賦予其“權(quán)利能力”的必要性,由此方能揭示法律關(guān)系主體及人格的內(nèi)在實質(zhì),進而劃分出法律關(guān)系主體與客體之間的清晰邊界。[日]北川善太郎:《日本民法體系》,李毅多譯,科學(xué)出版社1995年版,第56頁。以法人為例,雖然它并不擁有精神意志,但作為眾多自然人的集合,能夠基于自然人(股東及管理人員)之共同意思而實施法律行為,產(chǎn)生相應(yīng)的權(quán)利、義務(wù)及責(zé)任等法律效果,并將這些效果最終歸于自身,因此法人取得“權(quán)利能力”具備充分的理由,各國立法也幾乎均賦予了法人以擬制人格。對此,國內(nèi)也有論者指出:“人工智能具有獨立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)義務(wù),人工智能應(yīng)當具有法律人格?!痹骸度斯ぶ悄苡邢薹扇烁駥徱暋?,《東方法學(xué)》2017年第5期。按照上述觀點,法律關(guān)系主體與客體的區(qū)分依據(jù)并非局限于是否擁有生命、是否擁有獨立意志,而是應(yīng)當將重點放在衡量有無必要賦予主體資格使其享有權(quán)利能力,如法人擁有擬制人格那般,賦予人工智能產(chǎn)品以擬制人格并非不可。在現(xiàn)有技術(shù)條件下,人工智能產(chǎn)品可以自己的“大腦”(人工智能系統(tǒng))分析信息、做出判斷并發(fā)出侵害人身或財產(chǎn)的指令,當然,這一指令既可能源自人工智能系統(tǒng)為完成預(yù)設(shè)工作任務(wù)而排除妨礙的明確意圖,也可能源自人工智能系統(tǒng)存在沒有料到該指令將造成侵害的漏洞。該指令可通過“神經(jīng)網(wǎng)絡(luò)”(如液壓裝置、電子線路)操縱“器官”(例如各類機械或裝置)對人身或財產(chǎn)實施傷害。此時,可能引起法律意義的侵權(quán)關(guān)系,似乎可將責(zé)任后果直接歸于自身。然而,人工智能產(chǎn)品并非自然人的集合,而是生產(chǎn)者、使用者實現(xiàn)某一生產(chǎn)經(jīng)營目標的工具,它是基于生產(chǎn)者、使用者的意思或指令而實施行為,因而可理解為它擔(dān)當了“無辜代理人”的角色Lawrence B. Solum, “Legal Personhood for Artificial Intelligences”, 70 N.C. L. REV. 1992, p. 1231.,進而基于替代關(guān)系而將法律效果歸于背后的生產(chǎn)者或使用者,該情形實際上已不再考慮人工智能產(chǎn)品的擬人屬性??傊?,問題在于,有無必要或理由賦予人工智能產(chǎn)品以承擔(dān)侵權(quán)責(zé)任的獨立人格?如果不賦予,如何解決人工智能產(chǎn)品所擁有高度自主性之特殊現(xiàn)象及后果?針對這些法律與道德交叉、避無可避、亟待解決的前沿問題,我國學(xué)界、立法及司法領(lǐng)域尚未達成一致觀點。

        (二)過錯責(zé)任原則的適用困境

        人工智能背景下的智能機器人擁有高度自主的選擇判斷能力,甚至擺脫了外部的人為控制或影響,表現(xiàn)出突出的“智能化”屬性。這導(dǎo)致傳統(tǒng)侵權(quán)理論秉承的主觀過錯要件難以詮釋,王桂玲:《侵權(quán)責(zé)任法保護的民事權(quán)益的表達模式與完善路徑》,《政法論叢》2016年第2期。不宜適用于人工智能產(chǎn)品實際實施之侵害行為,主要原因是過錯判定一般以侵權(quán)人在主觀上“應(yīng)知”或“明知”的注意義務(wù)為準則。然而,人工智能產(chǎn)品是基于獨立自主的思考、判斷而決定做出侵害,并非源自人為的操縱與控制,但直接將“應(yīng)知”或“明知”的注意義務(wù)準則歸于人工智能產(chǎn)品自身似乎也不妥。

        在人工智能產(chǎn)品實現(xiàn)完全自動化、智能化的情況下,使用者已不再需要進行直接操控,也無需監(jiān)控周邊的環(huán)境狀況,甚至無需在緊急狀況下予以干預(yù)。一旦人工智能產(chǎn)品發(fā)生事故而損害人身或者財產(chǎn),使用者既無主觀過錯,也與人工智能系統(tǒng)自身引起的事故不存在因果關(guān)系,就此而言,“無辜”的使用者無需承擔(dān)責(zé)任。例如,在物流運輸過程中,自動駕駛汽車擁有高度發(fā)達的自動系統(tǒng)及裝置,不需要駕駛?cè)藛T或其背后的物流運輸公司進行直接操控,實現(xiàn)了乘客或貨物的無人化載運。在此情形下,一旦發(fā)生交通肇事,物流運輸公司、乘客及貨物托運人均不應(yīng)負有合理的注意義務(wù),除非他們實施了干擾、破壞或阻礙自動駕駛汽車正常運作的故意或過失行為,這明顯改變了傳統(tǒng)侵權(quán)法關(guān)于交通事故的責(zé)任原則。可見,人工智能實現(xiàn)了無人化的操作,導(dǎo)致其使用者不再負有主觀上的注意義務(wù),使得過錯歸責(zé)原則最終變得無所適從。另外,在人工智能產(chǎn)品應(yīng)否獲得獨立人格的爭議狀態(tài)下,探究人工智能產(chǎn)品是否存在主觀過錯似乎也無所適從,而且沒有任何實際意義,原因是即使人工智能產(chǎn)品可被認定為承擔(dān)過錯責(zé)任的責(zé)任承擔(dān)者,它也無法實際履行經(jīng)濟賠償或其他救濟。

        既然不宜追究使用者、人工智能產(chǎn)品的過錯責(zé)任,那么可否追溯生產(chǎn)者、銷售者等其他主體的責(zé)任?如果追究生產(chǎn)者、銷售者的責(zé)任,則似乎離不開《產(chǎn)品質(zhì)量法》傾向維護消費者利益的調(diào)整規(guī)制,尤其在排除使用者過錯責(zé)任的前提下,將不再強調(diào)主觀上的故意或過失,而是更強調(diào)侵權(quán)行為導(dǎo)致的事實及損失,劉笑岑:《關(guān)于無人駕駛汽車的法律問題訪談》,《法制日報》2016年11月26日。此時將依據(jù)《產(chǎn)品質(zhì)量法》追究生產(chǎn)者的無過錯責(zé)任,以及銷售者的有限過錯責(zé)任。然而,有觀點并不贊同《產(chǎn)品質(zhì)量法》的適用,而是基于人工智能所具備的技術(shù)特性,主張采用“技術(shù)中立”原則,即技術(shù)自身一般不產(chǎn)生責(zé)任,嚴義挺:《技術(shù)、構(gòu)罪與證明——“互聯(lián)網(wǎng)+”語境下訴訟的“+互聯(lián)網(wǎng)”性》,《上海政法學(xué)院學(xué)報(法治論叢)》2017年第3期。具體而言,針對人工智能技術(shù)自身引起的侵害,使用者除自身過失外均可豁免責(zé)任,生產(chǎn)者、銷售者也均不承擔(dān)責(zé)任,除非該技術(shù)的最初商業(yè)用途即是意圖侵權(quán)或違法。徐愛國:《英美侵權(quán)行為法》,法律出版社1999年版,第247頁。可見,與《產(chǎn)品質(zhì)量法》相比較,技術(shù)中立原則同樣不再關(guān)注生產(chǎn)者、銷售者的主觀要件,但也不再重視產(chǎn)品有無缺陷,劉志云、劉盛:《供給側(cè)改革背景下的經(jīng)濟法:挑戰(zhàn)與回應(yīng)》,《政法論叢》2017年第4期。即針對人工智能自身技術(shù)缺陷引起的侵害,生產(chǎn)者、銷售者可能仍無需承擔(dān)責(zé)任。顯然,技術(shù)中立原則不利于維護受害方利益、保障安全秩序,但也擁有一定的存在理由,人工智能系統(tǒng)本就是極度復(fù)雜的技術(shù)難題,這區(qū)別于常規(guī)意義、批量生產(chǎn)的普通產(chǎn)品,如果對生產(chǎn)者給予過于嚴格的無過錯責(zé)任,無疑會打消生產(chǎn)者尤其是技術(shù)人員的研發(fā)積極性,最終可能妨礙人工智能的推廣應(yīng)用。雖然生產(chǎn)者承擔(dān)無過錯責(zé)任更符合現(xiàn)行法律架構(gòu)與目標,但不意味著可將人工智能產(chǎn)品與無思維之“物”等同,進而僵硬套用《產(chǎn)品質(zhì)量法》有關(guān)普通產(chǎn)品的侵權(quán)責(zé)任認定,主要原因是生產(chǎn)者按《產(chǎn)品質(zhì)量法》承擔(dān)無過錯責(zé)任僅限于技術(shù)缺陷情形,但人工智能產(chǎn)品所實施侵害既可能源自技術(shù)缺陷,也可能源自系統(tǒng)本身的思維判斷而非技術(shù)缺陷,而判定真正的侵害來源是非常困難的。

        (三)引起責(zé)任的事實難以查明

        侵權(quán)行為認定是一個推理過程,事實差異直接則決定了結(jié)論的不同。John A. Barnden, Donald M. Peterson,“Artificial Intelligence, Mindreading, and Reasoning in Law”, Cardozo L. Rev, 2001,p.1381.人工智能產(chǎn)品實施侵害的原因可劃分為多類事實,既可能是生產(chǎn)與設(shè)計環(huán)節(jié)的瑕疵,也可能是銷售者的管理失誤,或是使用者的干預(yù)不當,甚至是人工智能系統(tǒng)自身的高度智能化、自主化而獨立做出的判斷與決定。這些事實分別對應(yīng)不同的因果關(guān)系,直接決定了生產(chǎn)者、銷售者、使用者之間的過錯比例、責(zé)任分擔(dān)。然而,證明哪種事實、哪種因果關(guān)系成立是非常不易的事情,主要表現(xiàn)為:

        其一,人工智能系統(tǒng)自身的缺陷難以證明。按照《產(chǎn)品質(zhì)量法》確立的原則,只要產(chǎn)品存在缺陷并導(dǎo)致?lián)p害,生產(chǎn)者將承擔(dān)無過錯責(zé)任,這似乎從法條設(shè)計角度為人工智能產(chǎn)品實施侵害的責(zé)任認定提供了出路。然而,關(guān)于人工智能系統(tǒng)是否存在缺陷的事實認定問題,在實踐中一般面臨很大難度。按照《產(chǎn)品質(zhì)量法》第46條規(guī)定,產(chǎn)品缺陷的認定標準包括兩項:(1)產(chǎn)品存在危及人身或財產(chǎn)安全的不合理危險;(2)若產(chǎn)品有保障人體健康、人身財產(chǎn)安全的國家標準或行業(yè)標準,不符合該標準就視為存在缺陷。然而,按照我國現(xiàn)行民事舉證規(guī)則的要求,受害方負有證明產(chǎn)品存在缺陷的舉證責(zé)任,生產(chǎn)者就法律規(guī)定的免責(zé)事由承擔(dān)舉證責(zé)任。在此背景下,鑒于人工智能技術(shù)的高度復(fù)雜性,受害方證明存在《產(chǎn)品質(zhì)量法》第46條所規(guī)定缺陷將異常困難,而人工智能系統(tǒng)的高度自主性將導(dǎo)致侵害事實難以合理歸咎于生產(chǎn)設(shè)計缺陷,即缺陷與侵害事實之間的因果關(guān)系舉證極其不易。另外,我國尚未制定人工智能技術(shù)相關(guān)保障人身及財產(chǎn)安全的國家標準、行業(yè)標準,使得受害方舉證也無從援引。

        其二,人工智能系統(tǒng)引起損害的原由難以解釋。人工智能系統(tǒng)一般具備高度的自主或擬人屬性,它并非依賴程序員手動編程來完成一步一步的演算和學(xué)習(xí),而是依據(jù)算法和數(shù)據(jù)中心持續(xù)采集、分析數(shù)據(jù)而達到學(xué)習(xí)目標,甚至能夠完成手動編程無法企及的復(fù)雜任務(wù),例如圖像識別、汽車或船舶自動駕駛等,因此其復(fù)雜性可見一斑。從這一角度審視,人工智能系統(tǒng)的算法可能是公開的,但是它依據(jù)算法完成學(xué)習(xí)、分析、決策、推理的過程是難以理解與解釋清楚的,甚至設(shè)計者也難以徹底搞明白,社會公眾更是無從知曉。由此導(dǎo)致的結(jié)果是,即使其算法得到了公開,法院及當事方均將面臨查明侵害原因、因果關(guān)系的技術(shù)障礙。司曉,曹建峰:《論人工智能的民事責(zé)任:以自動駕駛汽車和智能機器人為切入點》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2017年第5期。

        二、國外人工智能民事責(zé)任規(guī)制的探索

        美國、德國、歐盟均較早涉足人工智能領(lǐng)域,最先接觸了人工智能產(chǎn)品致人損害責(zé)任的憂慮和難處,也意識到施以特定法律或道德規(guī)制的必要。

        (一)美德有關(guān)自動駕駛汽車交通肇事責(zé)任的規(guī)制

        自動駕駛汽車是人工智能技術(shù)應(yīng)用的典型。美國在2016年9月發(fā)布的《聯(lián)邦自動駕駛汽車政策》、德國在2017年5月通過的《道路交通法》修正案均正式承認了自動駕駛汽車上路行駛的資格,這兩個國家也較早涉足了自動駕駛領(lǐng)域的法律或行政規(guī)制,尤其關(guān)注了自動駕駛汽車發(fā)生事故所引起的民事責(zé)任問題,可概括為如下方面:

        其一,確立了人工智能產(chǎn)品實施侵害后的責(zé)任承擔(dān)原則。美國密歇根州、佛羅里達州已通過立法確立了自動駕駛汽車的原始生產(chǎn)者、改造者之間的責(zé)任分擔(dān),一旦車輛由第三方改造為自動駕駛汽車,則原始生產(chǎn)者不再對車輛缺陷承擔(dān)責(zé)任,除非有證據(jù)證明改造前車輛已有缺陷。倫一:《美德加快健全自動駕駛制度對我國的啟示》,http://www.sohu.com/a/155637742_683365,2017-11-14。德國2017年《道路交通法》修正案確立了車輛使用者或駕駛者必須承擔(dān)責(zé)任,同時德國有學(xué)者預(yù)測未來的責(zé)任主體必然實現(xiàn)由駕駛者或使用者向生產(chǎn)者的變遷。倫一:《美德加快健全自動駕駛制度對我國的啟示》,http://www.sohu.com/a/155637742_683365,2017-11-14??梢姡绹?、德國立法僅確認了追究生產(chǎn)者、改造者及使用者的責(zé)任,基本沒有考慮自動駕駛汽車作為獨立侵權(quán)責(zé)任主體的問題,甚至可理解為持否定觀點。然而,這并非意味著無需對肇事汽車予以必要“懲戒”,例如,美國高速公路交通安全管理局出臺的文件中規(guī)定:一旦自動駕駛系統(tǒng)發(fā)生危險導(dǎo)致無法重新控制車輛,本局將強制召回車輛并處理,由此創(chuàng)立了自動駕駛汽車存在侵害風(fēng)險后的召回處置機制?!癠.S. Department of Transportation Releases Policy on Automated Vehicle Development ”,U.S. Department of Transportation https://www.transportation.gov/briefing-room/us-department-transportation-releases-policy-automated-vehicle-development,2017-10-11.

        其二,強調(diào)自動駕駛系統(tǒng)所涉安全技術(shù)規(guī)范的調(diào)整作用,依托法律或行政規(guī)制以規(guī)范自動駕駛汽車的設(shè)計與應(yīng)用。這既實現(xiàn)了侵害的規(guī)避,也可作為證明系統(tǒng)是否存在缺陷、考量侵權(quán)認定及責(zé)任程度之參考。例如,美國《聯(lián)邦自動駕駛汽車政策》在“安全評估”章節(jié)中具體提出了自動駕駛汽車設(shè)計、測試與應(yīng)用所涉及的十五項安全標準,“U.S. DOT Issues Federal Policy for Safe Testing and Deployment of Automated Vehicles”,http://www.nhtsa.gov/About+NHTSA/Press+Releases/dot-federal-policy-for-automated-vehicles-09202016,2016-12-28.密歇根州、佛羅里達州也已分別在2016年4月與9月通過了新法案,刪除了自動駕駛汽車中必須有駕駛員的要求,增加要求技術(shù)人員應(yīng)當有能力在必要情況下迅速接管與控制車輛,或者確保車輛本身務(wù)必有能力實現(xiàn)減速或停車,David Eggert,“Michigan Moves to Not Require Human in Driverless Test Cars”,http://www.usnews.com/news/business/articles/2016-09-07/michigan-may-not-require-a-human-in-self-driving-test-cars,2017-11-14.如果生產(chǎn)者、設(shè)計者違反上述要求,將承擔(dān)相應(yīng)的產(chǎn)品質(zhì)量責(zé)任。與之不同,德國《道路交通法》仍要求自動駕駛汽車上保留駕駛?cè)藛T。

        其三,除了法律規(guī)制之外,從根源上探求防范與規(guī)避侵害責(zé)任風(fēng)險的解決之策,嘗試從道德倫理角度對自動駕駛系統(tǒng)的生產(chǎn)、設(shè)計施以必要的規(guī)范或者指引,并且為侵權(quán)認定創(chuàng)設(shè)了倫理準則。這方面以施行力度最強、影響范圍最廣、規(guī)制內(nèi)容最細的德國為典型。德國聯(lián)邦交通部在2017年6月召集了交通、法律、信息、工程、哲學(xué)、神學(xué)、企業(yè)等各領(lǐng)域14名專家成立了自動駕駛系統(tǒng)倫理委員會,制定并發(fā)布了一份報告,提出了自動駕駛系統(tǒng)生產(chǎn)者在設(shè)計算法過程中應(yīng)遵守的20條倫理指導(dǎo)準則,例如,第7條要求如遇任何危險,保護人類生命始終優(yōu)于避免財產(chǎn)或動物受損;第8條則要求如果算法設(shè)計無法解決為避免多人受害而選擇傷害一人的倫理疑難,則生產(chǎn)者應(yīng)將程序設(shè)計為人工介入此類情況的處置。MaBnahmenplan der BundesregierungzumBerichtderEthik,“KommissionAutomatisiertes und VernetztesFahren (Ethik-Regelnfür Fahrcomputer)”,http://www.bmvi.de/SharedDocs/DE/Publikationen/DG/massnahmenplan-zum- bericht- der- ethikkommission- avf.pdf?__blob=publicationFile,2017-12-28.

        其四,強調(diào)自動駕駛系統(tǒng)運作全過程的數(shù)據(jù)保留,用以還原侵害事實的原由,但也高度關(guān)注個人隱私權(quán)的保護。美國眾議院在2017年9月通過的《自動駕駛法》第12條對生產(chǎn)者、銷售者提出了一系列隱私保護的技術(shù)標準,以防止輸入人工智能系統(tǒng)的隱私信息遭受惡意竊取、篡改、刪除或濫用。德國《道路交通法》則強制要求生產(chǎn)者在自動駕駛汽車上安置黑匣子,用以記錄全部行駛過程及細節(jié),記錄信息保存至少半年,這有助于查明事故原因及因果關(guān)系。

        (二)歐盟有關(guān)智能機器人責(zé)任的立法建議

        歐盟有關(guān)人工智能的民事責(zé)任立法研究與實踐最具有創(chuàng)造性。2016年,歐盟議會所轄法律事務(wù)委員會正式提出了立法建議,建議制定民事法律規(guī)范,用以調(diào)整智能機器人的生產(chǎn)、銷售及使用活動,針對智能機器人致人損害的民事責(zé)任,主要歸納為幾方面:首先,重構(gòu)適用于智能機器人的民事責(zé)任規(guī)范已勢在必行。簡言之,智能機器人已不能等同于人類驅(qū)使的工具,它們實施侵害的原因過程更是人類無法預(yù)測與控制的。因此,按照傳統(tǒng)侵權(quán)理論只追究生產(chǎn)者、銷售者或使用者的責(zé)任已不合時宜,有必要考慮讓智能機器人為其自身行為承擔(dān)部分或全部責(zé)任,因此亟需審視可否賦予智能機器人以獨立人格。為此,立法建議中第50(f)項提出,從長遠角度考慮,有必要確立智能機器人的特殊地位,至少應(yīng)當確保技術(shù)系統(tǒng)最復(fù)雜的智能機器人擁有“電子人”(Electronic Persons)的獨立地位,使其有資格擔(dān)負彌補自身所致?lián)p害的責(zé)任;也建議建立智能機器人的登記公示制度,從而與其獨立的法律地位相匹配。既然侵害行為由智能機器人獨立實施,也出自智能機器人本身的獨立推理、判斷及決定,并且不受人類的外部干預(yù),那么智能機器人作為侵權(quán)主體并非不可。Gabriel Hallevy,“The Criminal Liability of Artificial Intelligence Entities-From Science Fiction to Legal Social Control”, Journal of Akron Intell. Prop, No.4,2010,p. 171.人工智能技術(shù)進步使得智能機器人與人類之間差距僅留下喜愛、嫉妒、厭惡等“情感”的缺乏,但這不應(yīng)是智能機器人無法成為侵權(quán)主體的必然阻礙,從侵權(quán)認定角度考慮,即使是對人類實施的侵害之認定也沒有將情感因素歸入必備的主觀要件,更不必說僅供人類使用的智能機器人。George R. Cross,Cary G. Debessonet,“An Artificial Intelligence Application in the Law:CCLIPS,A Computer Program that Processes Legal Information”, Journal of HIGH TECH. L, No.1,1986, p.329.基于上述考量,歐盟立法建議的結(jié)論是倡議賦予智能機器人以獨立的電子人格,尤其是針對它負有責(zé)任彌補自身所引起的侵害,以及它自主決定的、與第三方獨立交往的情形。Susanne Beck,“The Problem of Ascribing Legal Responsibility in the Case of Robotics”, Journal of AI &Society, No.31,2016,p. 473.其次,民事責(zé)任追究應(yīng)與智能機器人的自主性程度成反比。立法建議初衷是,一旦發(fā)生侵害事實,則必然要追究責(zé)任、彌補受害方的損失,而不論哪一主體最終實際承擔(dān)責(zé)任。至于是否承擔(dān)責(zé)任、承擔(dān)多大責(zé)任,則取決于智能機器人的自主性程度,自主性愈高,那么承擔(dān)責(zé)任愈小。最后,建立強制責(zé)任保險制度,要求智能機器人的生產(chǎn)者或者最終所有者負有強制投保義務(wù),也可設(shè)立賠償責(zé)任專項基金。曹建峰:《10大建議!看歐盟如何預(yù)測AI 立法新趨勢》,《機器人產(chǎn)業(yè)》2017年第2期。“此舉將大大減少人工智能侵權(quán)事件發(fā)生時的經(jīng)濟賠償糾紛,直接促進人工智能行業(yè)的良性發(fā)展”。袁曾:《人工智能有限法律人格審視》,《東方法學(xué)》2017年第5期。

        綜上,在探索的深度與廣度上,美國、德國、歐盟呈現(xiàn)了遞進狀態(tài)。這些國家基于人工智能產(chǎn)品的技術(shù)特性,研究與實踐主要集中在人工智能產(chǎn)品(尤其是自動駕駛汽車、智能機器人)實施侵害后的責(zé)任承擔(dān)問題,它們從不同角度地將法律規(guī)制的重點放在了責(zé)任主體、歸責(zé)原則、事實查明、賠償方式及其衍生的隱私權(quán)保護問題,并且提出了若干應(yīng)對機制。比較而言,德國、美國對人工智能侵權(quán)現(xiàn)象持有相對保守的態(tài)度,限于從產(chǎn)品責(zé)任角度將侵權(quán)后果歸咎于生產(chǎn)者、銷售者或使用者;與之不同,歐盟立法建議提出將人工智能產(chǎn)品確立為獨立的責(zé)任主體,可謂對傳統(tǒng)民事責(zé)任原理的挑戰(zhàn)和創(chuàng)新。究其原因,這一差別的根源在于它們對現(xiàn)階段人工智能侵權(quán)現(xiàn)狀及后果的可控程度存有不同認識,歐盟立法建議的背景是人工智能產(chǎn)品的大規(guī)模應(yīng)用趨勢,它甚至列明了銷售及申請專利的具體數(shù)字,而且也意識到它們現(xiàn)已具備、未來必然愈加成熟的“超強大腦”及擬人屬性,因此取得獨立人格并非毫無根據(jù)。遺憾的是,歐盟立法建議僅是單純提出智能機器人應(yīng)當取得獨立人格,卻沒有說明具體如何讓它們承擔(dān)責(zé)任。德國與美國不認為目前人工智能侵權(quán)的復(fù)雜程度及后果足以根本改變現(xiàn)有侵權(quán)責(zé)任制度,按既有的產(chǎn)品質(zhì)量責(zé)任規(guī)則追究生產(chǎn)者、銷售者及使用者責(zé)任業(yè)已足夠。正如德國某一機器人協(xié)會的觀點:歐盟立法建議只是看到人工智能產(chǎn)品應(yīng)用的數(shù)量規(guī)模,但沒有提及它們實際造成的損害及后果情況,目前人工智能帶來的利益遠遠超出弊端,就此而言,立法不宜限制其發(fā)展,給予充分討論是必要的,然而,暫不需要制定詳細的法律規(guī)則以遏制人工智能發(fā)展,Gerhard Hegmann,“So will die EU jetzt Roboter per Gesetz ba¨ndigen”, Welt, N.24, https://www.welt.de/amp/wirtschaft/article156463323/So- willdie-EU-jetzt-Roboter-per-Gesetz-baendigen.html.2017-11-22.賦予它們以獨立主體地位涉及過度超前之嫌。該協(xié)會的觀點具備一定合理性,但也存在偏頗,暫不考慮人工智能產(chǎn)品應(yīng)否取得獨立人格,現(xiàn)有法律規(guī)則對于人工智能侵權(quán)責(zé)任之認定與處理早已捉襟見肘,正因此,德國、美國、歐盟上述立法趨勢均已對原先規(guī)則做了調(diào)整和更新,具體表現(xiàn)為如下類似做法:針對歸責(zé)原則而言,均結(jié)合責(zé)任主體對人工智能系統(tǒng)的掌控水平,將控制能力最強的生產(chǎn)者確立為嚴格責(zé)任,控制能力稍弱的銷售者、使用者為過錯責(zé)任;鑒于人工智能產(chǎn)品侵權(quán)過程高度復(fù)雜、侵權(quán)事實及因果關(guān)系難以查明,均通過立法強制要求采取技術(shù)手段(如安裝黑匣子)以記錄和留存數(shù)據(jù)信息,同時注意避免造成個人隱私信息的泄露和侵犯;考慮到統(tǒng)一規(guī)范管理、確立責(zé)任評價的標準,制定了人工智能產(chǎn)品生產(chǎn)及使用的一系列技術(shù)與安全規(guī)則;除了法律措施以外,也積極探索在道德規(guī)范層面引導(dǎo)人工智能系統(tǒng)的設(shè)計人員及系統(tǒng)本身確立遏制侵害的意識或目標,從根源上避免人工智能侵權(quán)的發(fā)生。此外,它們也有各具特色的侵權(quán)責(zé)任處理方式,例如歐盟立法建議提出建立強制責(zé)任保險以及賠償責(zé)任專項基金,這有助于受害方及時受償,并且使得生產(chǎn)者避免過高賠付而影響正常經(jīng)營、保持人工智能技術(shù)開發(fā)的積極性;美國則建立了存在侵害風(fēng)險的自動駕駛汽車召回制度,剝奪了肇事車輛上路行駛的資格,以避免它的人工智能系統(tǒng)再次做出侵害他人的指令。無論是參考這些國家的經(jīng)驗,還是總結(jié)其存在的不足,均有助于周延、理智、客觀地看待與解決我國人工智能所涉民事責(zé)任問題。

        三、我國人工智能產(chǎn)品民事責(zé)任制度的構(gòu)建

        隨著人工智能產(chǎn)品的廣泛普及,人類大部分活動所涉及的數(shù)據(jù)均提交到人工智能創(chuàng)造的超強大腦,由其進行儲存、分類、分析乃至判斷與決策,這一系列過程對于人類而言是非常隱蔽和難以理解的,由此導(dǎo)致人類被人工智能牽著鼻子走,此時,人類將脫離法律或道德的規(guī)制,陷入交由設(shè)計者所植入算法進行統(tǒng)治的怪圈。Michael Rundle,“Zuckerberg: Telepathy is the Future of Facebook”,Wired UK,http://www. wired.co.uk/article/facebook-zuckerberg-qa-the-future.2017-11-28. 在此背景下,人工智能產(chǎn)品造成的侵害必然使得人類摸不著頭腦、無所適從,其危害后果更是讓人無法想象。因此,無論是參考國外做法,還是考慮到上述現(xiàn)狀,針對人工智能引起的民事責(zé)任予以特殊規(guī)制已是大勢所趨。

        (一)針對人工智能產(chǎn)品的特殊規(guī)制

        對于人工智能產(chǎn)品實施侵害的責(zé)任主體,美國、德國、歐盟均將生產(chǎn)者、銷售者以及使用者納入其中,但是否將人工智能產(chǎn)品視為擁有獨立人格的責(zé)任主體?歐盟立法建議是倡導(dǎo)賦予智能機器人以擬制的法律人格。但遺憾的是,歐盟立法建議僅提出了賦予智能機器人以獨立法律地位的訴求,卻沒有具體解決賦予獨立法律地位后權(quán)利、義務(wù)與責(zé)任分配的規(guī)則設(shè)計。應(yīng)當將實施侵害的智能機器人交由受害方或其親屬處置?還是予以限制自由、召回或者銷毀?還是讓智能機器人自己承擔(dān)賠償?這幾種方案都沒有解決實際問題,因為智能機器人無法支付金錢,最終仍需其背后的生產(chǎn)者、銷售者或所有者承擔(dān)責(zé)任,限制自由、召回或銷毀也只是防止它“繼續(xù)作惡”,此外沒有其他意義,甚至可能引起過度限制或剝奪了他人財產(chǎn)權(quán)的嫌疑。因此,無論采取上述何種責(zé)任方式,最終仍是自然人或其集合(例如法人)承擔(dān)不利后果,其結(jié)果是智能機器人取得獨立人格毫無意義。此外,立法建議提出了建立強制責(zé)任保險制度、責(zé)任賠償基金,這似乎也否定了取得獨立人格的必要性,原因是保險和基金就可以圓滿完成金錢賠付,智能機器人能否自行承擔(dān)責(zé)任已無關(guān)緊要。從技術(shù)角度考慮,智能機器人是由人類設(shè)計與生產(chǎn)出來的,它們實施各類操作之目的完全取決于人類事先輸入的有限程序或指令,鐘義信:《人工智能:“熱鬧”背后的“門道”》,《科技導(dǎo)報》2016年第34期。并不具備人類的靈性、意識或精神,也離不開人類的保養(yǎng)、維護與監(jiān)控。此外,若要人工智能產(chǎn)品得以擔(dān)當獨立的主體地位、實施獨立的行為、承擔(dān)獨立的責(zé)任,離不開各類法律、政策及道德規(guī)范的體系化支持與調(diào)整,然而,在這些規(guī)范嚴重缺失的目前狀態(tài)下,不宜賦予人工智能產(chǎn)品以上述獨立地位和權(quán)能,否則將導(dǎo)致其運作偏離可允許的合理限度,難以預(yù)見可能引起的混亂后果。因此,人工智能產(chǎn)品取得獨立人格仍缺少充足的理由。

        盡管人工智能產(chǎn)品并不具備獨立責(zé)任主體的條件,但不意味著無需考慮其特性而施以專門規(guī)制,以滿足妥善處置致人損害民事責(zé)任之必需。人類并不熟悉人工智能系統(tǒng)的運作思路、原理、算法或者程序。它們對人身健康及財產(chǎn)造成損害的概率、原因、過程及后果更是難以預(yù)測,必然引起社會公眾的恐懼或抵觸。對此,有學(xué)者認為:“部分應(yīng)用基礎(chǔ)較好的機器人,我國應(yīng)當加快制定專門的安全管理規(guī)定”,張玉潔:《論人工智能時代的機器人權(quán)利及風(fēng)險規(guī)制》,《東方法學(xué)》2017年第6期。以便加強監(jiān)管,回應(yīng)社會訴求。因此,有必要對于人工智能產(chǎn)品本身確立必要的規(guī)制、監(jiān)管或處置機制,主要包括三項舉措:其一,針對人工智能這一新的現(xiàn)象,有必要從根源上探究、識別與規(guī)避人工智能產(chǎn)品致人損害的內(nèi)在原由,法律規(guī)范一般存在僵硬、滯后、瑣碎等缺陷,難以實現(xiàn)一步到位的有效規(guī)制,相比之下,更宜先確立相對彈性的倫理道德規(guī)范,待時機成熟后再上升為強制立法。在人工智能算法高深復(fù)雜、侵權(quán)過程難以查明的狀況下,對于生產(chǎn)設(shè)計者施以道德規(guī)制將有助于避免或降低算法產(chǎn)生缺陷的可能。為此,可考慮借鑒德國做法,成立專門的人工智能倫理組織,由其研究與制定人工智能系統(tǒng)生產(chǎn)設(shè)計所應(yīng)遵守的倫理指導(dǎo)準則,引導(dǎo)和規(guī)范生產(chǎn)者、設(shè)計者在意識與行為上建立以保護人類生命為核心的具體道德準則,也可作為生產(chǎn)設(shè)計者主觀過錯之評價參考。其二,可參考歐盟立法建議,針對智能機器人、自動駕駛汽車或船舶等高度自主化的人工智能產(chǎn)品施行登記公示制度,登記宜采取實質(zhì)審查而非形式審查,從而嚴格把關(guān)人工智能系統(tǒng)的技術(shù)安全性,這有助于增強社會公眾對人工智能的信任,登記公示信息也可作為評判人工智能系統(tǒng)有無缺陷、是否滿足安全標準的參考。其三,雖然人工智能產(chǎn)品本身無需承擔(dān)經(jīng)濟賠償責(zé)任,仍有必要追究實際肇事之“物”的合理責(zé)任,原因是人們往往無法弄清它究竟如何實施侵害,也難保日后它再次實施侵害,如果保留和繼續(xù)使用,則安全風(fēng)險依然存在?;诖?,可考慮參考美國做法,針對已發(fā)生侵害行為、存在安全風(fēng)險的人工智能產(chǎn)品,建立強制銷毀或召回制度。李欲曉:《物聯(lián)網(wǎng)安全相關(guān)法律問題研究》,《法學(xué)論壇》2014年第6期。

        (二)確立差別化的歸責(zé)原則

        如前所述,是否承擔(dān)責(zé)任、承擔(dān)多大責(zé)任應(yīng)與與人工智能系統(tǒng)的自主性程度成反比。生產(chǎn)者直接設(shè)計并決定了人工智能系統(tǒng)的算法設(shè)計、自主性能、智能水平,相比之下,銷售者、使用者仍停留在人工智能產(chǎn)品的交易與應(yīng)用層面,他們幾乎不了解人工智能系統(tǒng)最基本的運作原理,更何談控制。因此,生產(chǎn)者、銷售者、使用者之間的責(zé)任原則必然存在區(qū)別。

        生產(chǎn)者擔(dān)當人工智能產(chǎn)品的“啟蒙”,理應(yīng)適用嚴格責(zé)任,日本、美國及歐盟均持有此態(tài)度,這也是基于人工智能技術(shù)的內(nèi)在屬性與要求。人工智能系統(tǒng)幾乎擺脫了人類操控,因而人類在主觀上的故意或過失已無多大意義,更有必要關(guān)注侵害引起的事實與損失,這契合嚴格責(zé)任之初衷。一旦人工智能系統(tǒng)引起了事故、造成了損害,證明系統(tǒng)自身缺陷、侵害原因、因果關(guān)系將會異常困難,如仍堅持過錯責(zé)任,將無異于排除了生產(chǎn)者承擔(dān)責(zé)任的可能,導(dǎo)致受害方難以取得充分救濟、有失公平。因此,生產(chǎn)者適用嚴格責(zé)任更為適宜。然而,嚴格責(zé)任的不利后果是加大了生產(chǎn)者的責(zé)任,甚至打消其研發(fā)技術(shù)、拓展經(jīng)營的積極性。鑒于此,歐盟立法建議中提及的強制責(zé)任保險、賠償責(zé)任基金有助于轉(zhuǎn)移生產(chǎn)者的賠償負擔(dān)。我國可參考該做法,通過法律規(guī)則強制要求人工智能產(chǎn)品的生產(chǎn)者投保責(zé)任保險,或建立專項賠償責(zé)任基金,經(jīng)費來源可包含社會捐助、財政撥款、生產(chǎn)者分攤等。值得注意的是,生產(chǎn)者承擔(dān)嚴格責(zé)任的必要前提為人工智能系統(tǒng)自身存在缺陷,但如何認定缺陷是非常困難的。對此,可參考美國做法,由科技管理相關(guān)行政部門或行業(yè)協(xié)會制定統(tǒng)一的人工智能相應(yīng)安全標準,可作為判定有無缺陷的參考。例如,國家郵政局在2013年發(fā)布了《中華人民共和國郵政行業(yè)標準:智能快件箱》,詳述了智能快件箱的功能需求、硬件配置及控制系統(tǒng)等方面的標準,較好發(fā)揮了上述功用。除此之外,針對自動駕駛汽車或船舶等具備更高自主性能的人工智能產(chǎn)品,制定專項的安全技術(shù)標準尤為必要。

        銷售者、使用者與生產(chǎn)者不同,它們不介入人工智能系統(tǒng)的設(shè)計與生產(chǎn)過程,也完全不掌握算法、程序或指令,因而無必要對系統(tǒng)自身缺陷承擔(dān)責(zé)任,僅需依據(jù)各自的注意義務(wù)范圍,承擔(dān)有限的過錯責(zé)任。具體而言,銷售者的過錯責(zé)任主要表現(xiàn)為進貨檢查與驗收不當、驗明合格證明或標識不當以及保持產(chǎn)品質(zhì)量不當?shù)确矫?使用者的過錯責(zé)任則主要表現(xiàn)為對人工智能系統(tǒng)的管理、改裝、使用或其他不當行為。

        (三)事實查明與隱私保護的共生

        人工智能系統(tǒng)的算法如此復(fù)雜與不透明,使得證明其自身存在缺陷很不輕松,也嚴重阻礙了侵害原由、過程、因果關(guān)系及目的等事實的追溯。究竟是算法自身缺陷引起了侵害?還是人工智能系統(tǒng)基于算法而自主實施了侵害?這兩類事實將產(chǎn)生迥然不同的法律后果,前者導(dǎo)致生產(chǎn)者對算法缺陷承擔(dān)嚴格責(zé)任,后者則使生產(chǎn)者擺脫了責(zé)任。因此,探求復(fù)原事實真相的路徑變得尤為重要。客觀而言,這更多是一個技術(shù)問題,而非純粹的法律問題。立法機關(guān)、司法機關(guān)都無力掌握高深的算法或代碼,他們通常探究這些復(fù)雜問題的本質(zhì)特征,據(jù)此確立一般性的簡易規(guī)則加以解決?;诖?,從法律角度審視,為了更準確地查明侵害事實,可考慮由生產(chǎn)者承擔(dān)嚴格責(zé)任的前提下,由其進一步承擔(dān)證明人工智能系統(tǒng)不存在缺陷,或缺陷與損害事實之間無因果關(guān)系的義務(wù)及不利后果,這一處理原則導(dǎo)源于生產(chǎn)者作為“最接近真相”的設(shè)計與制造者身份,也是歸因于生產(chǎn)者在理解算法或代碼等方面的天然優(yōu)勢,有助于解決事實查明之現(xiàn)實困境。尤為重要的是,有必要依托法律規(guī)則的規(guī)定,強制要求生產(chǎn)者對人工智能系統(tǒng)運作完成全程化、可視化、數(shù)據(jù)化的監(jiān)控,以確保侵害事實發(fā)生原因及過程的透明最大化。因此,可參照德國《道路交通法》,要求生產(chǎn)者在自動駕駛汽車或船舶及其他人工智能產(chǎn)品上安裝黑匣子或類似的數(shù)據(jù)記錄裝置,并且設(shè)定數(shù)據(jù)保留的最低年限。

        然而,以上兩項舉措也招致了侵害事實查明、隱私權(quán)保護之間的沖突。它們在擴大算法透明度的同時,也增加了生產(chǎn)者保存與披露人工智能系統(tǒng)所載信息的壓力和風(fēng)險,并且使得黑匣子記錄了大量的個人隱私信息,如不加強安全保障措施,這些信息可能面臨被侵犯和濫用的風(fēng)險。鄭戈:《人工智能與法律的未來》,《探索與爭鳴》2017年第10期。我國可借鑒美國、德國、歐盟做法,除技術(shù)嚴密防范之外,有必要實行具體可行的法律規(guī)制,主要包括:其一,制定個人數(shù)據(jù)信息保護管理規(guī)則,既要賦予數(shù)據(jù)信息所有人或合法取得者對于電子數(shù)據(jù)的獲取、修改、刪除及其他處理權(quán)利,但也要對上述權(quán)利行使予以必要限制,例如要求至少保留一定期限,以確保事后調(diào)閱數(shù)據(jù)和舉證的完整度。其二,制定人工智能技術(shù)的隱私權(quán)保護規(guī)則,以防范隱私權(quán)受侵為目標,針對人工智能系統(tǒng)的設(shè)計、生產(chǎn)與使用提出一系列必須滿足的市場準入條件、技術(shù)安全標準及違反后果,并建立數(shù)據(jù)記錄硬件載體的定期回收、銷毀與生物降解制度,羅茍新:《我國物聯(lián)網(wǎng)產(chǎn)業(yè)的法律維度初探——基于國際視野的慎思》,《西華師范大學(xué)學(xué)報(哲學(xué)社會科學(xué))》2012年第2期。以避免隱私信息遭受竊取、修改、刪除或濫用。

        (責(zé)任編輯:徐遠澄)

        A Study on the Civil Liability for Damage Caused by

        Artificial Intelligent Products

        Zhang Tong

        Abstract:Artificial intelligent system has been applied to many fields.However,several legal issues concerning the recognition and assumption of civil tort liability for damage caused by artificial intelligent products,such as smart robots and self-driving cars,have occurred resulting from the above features. These issues include that whether artificial intelligent products could assume responsibility independently,that it is difficult to apply the principle of fault liability and find out infringement facts and causations,all of which are new problems that Chinese traditional civil liability system never anticipates or considers. In recent years,the United States,Germany and EU have made some study and legislative attempts related to civil liability arising from artificial intelligence. By analyzing experiences and shortcomings of these countries attempts,and combining with technical properties of artificial intelligence,it is found that artificial intelligent products should not be regarded as one independent liability subject,however,it is still necessary to set up the specific moral code,public registry system and recall mechanism,to establish differentiated doctrines of liability fixation between producers,sellers and users of,and to emphasize on strengthening the producers' burden of proof,as well as record and preservation of the causes and processes of infringements on the premise of privacy protection.

        Keywords:Artificial Intelligence;Humanoid Attribute;Liability in Tort;System Construction

        猜你喜歡
        制度構(gòu)建侵權(quán)責(zé)任人工智能
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        論消費者后悔權(quán)
        法制博覽(2016年12期)2016-12-28 19:10:23
        消費欺詐的構(gòu)成要件及侵權(quán)責(zé)任問題研究
        法制博覽(2016年12期)2016-12-28 13:29:59
        農(nóng)村集體經(jīng)濟組織收益分配糾紛解決的路徑選擇
        論人工智能產(chǎn)品侵權(quán)行為責(zé)任認定
        商(2016年33期)2016-11-24 23:34:02
        試論我國行政訴訟調(diào)解制度的構(gòu)建
        法制博覽(2016年11期)2016-11-14 10:34:05
        網(wǎng)約出租車交通事故責(zé)任認定
        法制博覽(2016年11期)2016-11-14 09:46:13
        論侵權(quán)責(zé)任的違法性要件
        商(2016年27期)2016-10-17 06:45:36
        手机看片福利盒子久久青| 亚洲av成人片无码网站| 国产午夜精品一区二区三区嫩草 | 日本高清视频在线一区二区三区| 午夜免费观看国产视频| 亚洲国产美女精品久久久久∴| 国产精品va在线观看无码| 久久久久久99精品| 国产午夜视频高清在线观看| 新婚少妇无套内谢国语播放| 国产成年无码v片在线| 国产一级三级三级在线视| 国产99久久久国产精品免费| 99噜噜噜在线播放| 黑人巨大av在线播放无码 | 精品中文字幕在线不卡| 免费不卡在线观看av| 国产女精品视频网站免费| 国产一区二区丁香婷婷| 国产精品一区av在线 | 国产在线无码制服丝袜无码| 音影先锋色天堂av电影妓女久久| 一区二区亚洲精品国产精| 国产在热线精品视频| 亚洲av成人一区二区三区在线观看| 永久免费的拍拍拍网站| 在线播放国产自拍av| 中国少妇内射xxxx狠干| 日韩在线看片| 亚洲一区二区三区厕所偷拍| 欧美成人家庭影院| 最新国产乱人伦偷精品免费网站| 国产成人综合日韩精品无| 激情都市亚洲一区二区| 亚洲一区二区三区四区五区六| 99热免费观看| 日韩人妻免费一区二区三区| 久久亚洲av成人无码电影| 久久乐国产精品亚洲综合| 久久久久久国产福利网站| 中文字幕中文字幕在线中二区|