錢思雯
(常熟理工學(xué)院,江蘇 常熟 215500)
案例一:2011年,英國一駕駛員根據(jù)GPS指引,超車并將車輛轉(zhuǎn)向道路錯誤的一側(cè)造成交通事故致人死亡。法院認為GPS的失誤是事故的部分原因,但駕駛員對GPS的過分依賴構(gòu)成了疏忽駕駛,被判處4年徒刑。
案例二:2016年,美國佛羅里達州一輛開啟Autopilot模式的特斯拉電動汽車對駛近的大貨車未做出任何反應(yīng),徑直撞向了大貨車尾部的拖車并導(dǎo)致駕駛員死亡,成為人工智能發(fā)展史上第一起自動駕駛致死事故。
案例三:2017年,ElsaGate (愛莎門事件)使不良兒童視頻廣泛傳播,由于You Tube算法存在漏洞 (如自動推薦算法給予基于視頻發(fā)布者的權(quán)值權(quán)重很小,給予個人觀看者權(quán)值比重大;兒童安全算法易被規(guī)避等),導(dǎo)致個別有害視頻被兒童觀看后大量類似視頻被自動推薦給兒童。
從深藍到AlphaGo,從GPS到智能車,近年來,人工智能 (Artificial Intelligence,AI)在多個領(lǐng)域取得突破進展并展現(xiàn)了極為強大的深度學(xué)習(xí)能力,甚至超越了人類一流專家水平,人工智能已成為不可阻擋的時代潮流,對各國經(jīng)濟社會發(fā)展產(chǎn)生著戰(zhàn)略性和全局性影響。 《國務(wù)院關(guān)于積極推進 “互聯(lián)網(wǎng)+”行動的指導(dǎo)意見》提出,到2018年,要在重點領(lǐng)域培育若干全球領(lǐng)先的人工智能骨干企業(yè),初步建成基礎(chǔ)堅實、創(chuàng)新活躍、開放協(xié)作、綠色安全的人工智能產(chǎn)業(yè)生態(tài),形成千億級的人工智能市場應(yīng)用規(guī)模。
人工智能的飛速發(fā)展帶來了一系列社會與法律問題:社會層面,特定行業(yè)工作崗位首當其沖,2018年1月,美國卡車司機工會要求與UPS談判禁止無人機和無人駕駛卡車配送包裹,以保障26萬名員工工作;法律領(lǐng)域,2017年12月,工信部 《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃 (2018—2020年)》提出要開展人工智能相關(guān)政策和法律法規(guī)研究,為產(chǎn)業(yè)健康發(fā)展營造良好環(huán)境。年是三年行動計劃的之年,人工智能法律領(lǐng)域的研究也已提上議事日程,人工智能的民事主體地位、人工智能作品著作權(quán)、人工智能侵權(quán)、大數(shù)據(jù)時代隱私權(quán)保護等問題皆已引起了各方關(guān)注。
面對人工智能時代對現(xiàn)行法律體系的挑戰(zhàn),本文針對以下問題進行思考:傳統(tǒng)法律如何應(yīng)對人工智能技術(shù)革新?怎樣構(gòu)建人工智能時代的責(zé)任分配體系?如何在保障安全與促進技術(shù)進步之間取得平衡?本文的第一部分對當前人工智能的發(fā)展階段進行定性,認為當前人工智能屬于弱人工智能階段,尚未脫離 “物”之屬性,仍屬法律關(guān)系的客體;第二部分從責(zé)任分配的角度分析弱人工智能時代可能承擔(dān)責(zé)任的主體,認為由制造商承擔(dān)產(chǎn)品責(zé)任是平衡技術(shù)發(fā)展與消費者權(quán)益保護的最優(yōu)選擇;第三部分討論弱人工智能技術(shù)發(fā)展對現(xiàn)行法律體系的挑戰(zhàn),認為法律應(yīng)對人工智能的合法地位采取寬容態(tài)度,并確立合理的監(jiān)管框架和責(zé)任分配體系。
技術(shù)進步使人工智能逐漸由 “物”向 “人”轉(zhuǎn)變,對應(yīng)人工智能法律人格從無到有、法律地位由法律關(guān)系的客體向主體的轉(zhuǎn)變。人工智能的不同法律定位對應(yīng)了不同的糾紛解決形式,影響最終的權(quán)利歸屬與責(zé)任承擔(dān)方式,因而明確現(xiàn)階段人工智能技術(shù)的發(fā)展階段與法律地位成為探討人工智能一切法律問題的前提。
自1956年達特茅斯會議上提出人工智能概念以來,人工智能的發(fā)展已經(jīng)歷60多年,對人工智能的討論圍繞 “思考”和 “行為”區(qū)分了四個維度,即:像人一樣思考的系統(tǒng),理性地思考的系統(tǒng),像人一樣行動的系統(tǒng),理性地行動的系統(tǒng)[1],但對其定義至今未有一致結(jié)論。從發(fā)展階段看,人工智能可分為弱人工智能 (Artificial Narrow Intelligence,ANI)、強人工智能 (Artificial General Intelligence,AGI)和超人工智能 (Artificial Super Intelligence,ASI)三個階段,弱人工智能盡管具有推理計算、自我學(xué)習(xí)能力,可以像人類一樣解決任何問題并在任何社會環(huán)境中進行互動,但并不具備意識;強人工智能則具備意識、自我、創(chuàng)新思維等與人類類似的智能[2];超人工智能更是在各方面均遠超人類大腦。
目前,弱人工智能已取得了飛速發(fā)展并充斥在人類生活的各個方面,如搜索引擎、導(dǎo)航系統(tǒng)、人臉識別系統(tǒng)、AlphaGo,等等[3]。盡管深藍、AlphaGo等人工智能在某些領(lǐng)域擊敗人類頂尖高手,但尚未具備自我、意識等類人類智能,仍未跨越與強人工智能之間巨大的技術(shù)鴻溝, 《星球大戰(zhàn)》中的C-3PO等智能程度匹配甚至超越人類智能的強人工智能仍屬虛構(gòu)。 《奇點臨近》一書預(yù)言技術(shù)發(fā)展將以指數(shù)級速度遞增,人工智能將在2045年超過人類智能[4],但奇點臨近前的當前時點仍處于弱人工智能階段。
面對人工智能的爆發(fā)式發(fā)展,霍金曾公開表示憂慮,其認為: “可以想象,人工智能會以其‘聰明’在金融市場勝出,在發(fā)明方面勝過人類研究者,在操縱民意方面將勝過人類領(lǐng)導(dǎo)人,研發(fā)出人類甚至不理解的武器。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長期影響則取決于人工智能能否受到任何控制?!笨梢钥吹?,控制權(quán)的歸屬將成為強人工智能和超人工智能時代人類與人工智能交互作用的焦點,也是人工智能從法律關(guān)系的客體向主體轉(zhuǎn)變的重要轉(zhuǎn)折點。強人工智能以后,人工智能技術(shù)超越人類控制能力,倫理性將超越技術(shù)性成為人工智能法律制度的基石,從 “機器人三定律”到 “阿西洛馬人工智能原則”,人工智能的倫理性基礎(chǔ)將確保其未來發(fā)展以人類最佳利益行事。
弱人工智能的深度學(xué)習(xí)能力導(dǎo)致其行為具有不可預(yù)測性,當制造商 (設(shè)計者)將人工智能用于實踐后就無法預(yù)見其將如何運行,更無法預(yù)測其與消費者或第三方互動學(xué)習(xí)結(jié)果[5],例如,案例三中,You Tube根據(jù)用戶點擊習(xí)慣推薦類似視頻導(dǎo)致有害視頻擴散,微軟聊天機器人Tay根據(jù)互動用戶語言習(xí)慣學(xué)習(xí)并發(fā)表種族歧視言論,等等。然而,盡管無法精準預(yù)測弱人工智能的行為結(jié)果,制造商 (設(shè)計者)仍可通過更科學(xué)合理的設(shè)置算法與強化審核過濾體系對不可預(yù)測后果加以防范。因此,盡管弱人工智能具有獨立思考與深度學(xué)習(xí)能力,甚至具備某種程度的獨立行為能力,但仍離不開人類的監(jiān)管與控制,如人類駕駛員在自動駕駛模式下仍需保持足夠警覺并在系統(tǒng)發(fā)出請求時及時恢復(fù)人工控制,又如網(wǎng)絡(luò)平臺自動推薦系統(tǒng)的控制權(quán)由平臺公司掌握并受到監(jiān)管。由此可見,弱人工智能階段,人類有能力也有義務(wù)保持對人工智能的控制以保障技術(shù)發(fā)展的安全性,對弱人工智能的法律規(guī)制更多集中于技術(shù)層面。
沙特阿拉伯于2017年賦予機器人 “索菲亞”公民身份,引發(fā)了對人工智能法律地位的思考,其究竟是隸屬于人類的 “財產(chǎn)” “自然奴隸”,還是與人類相似的 “公民”[6]?具有公民身份的機器人 “索菲亞”在當前只是特例,弱人工智能的公民地位并未得到普遍認可,人工智能的公民權(quán)問題在強人工智能時代將無法回避,而弱人工智能時代則更多關(guān)注責(zé)任分配等私法問題。
長遠來看,確定人工智能有限法律人格或特殊法律地位系大勢所趨[7],當人工智能自治性增強到具有獨立行為能力的轉(zhuǎn)折點——便產(chǎn)生了獨立承擔(dān)民事責(zé)任的必要性與可能性。2016年,歐洲議會向歐盟委員會報告第59 (f)項建議: “從長遠來看,要創(chuàng)設(shè)機器人的特殊法律地位 (a special legal status),以確保至少最復(fù)雜的自動化機器人可以被確認享有電子人 (electronic persons)的法律地位,以彌補人工智能所造成的任何損害,并適用于機器人做出自主決策或獨立與第三人交往的情形”。除技術(shù)突破外,還需輔以勞動法、稅法、保險法、公司法、信托法乃至憲法等法律的變革,才能使人工智能享有獨立財產(chǎn)并享有一定程度的私法 “人格”[8]。
目前,弱人工智能雖具有獨立思考與深度學(xué)習(xí)能力,但尚未具備自我意識與情感,也不能離開人類的最終控制。從作為輔助駕駛工具的GPS到可獨立作出判斷的自動駕駛汽車,人工智能自治性不斷增強,工具性不斷減弱,難以做出準確的法律定性。明確弱人工智能的法律定位是解決一切法律問題的關(guān)鍵,根據(jù)人工智能的特殊屬性,其可能的法律定位包括[9]:
(1)雇員:近年來,亞馬遜等公司開始探索采用無人機、無人駕駛汽車送貨,導(dǎo)致人類快遞員崗位岌岌可危,或可將弱人工智能的法律地位類比為人類雇員,其造成的損害由雇主承擔(dān)替代責(zé)任。然而,與其說無人機、無人駕駛汽車類似于人類雇員,不如說其為更先進的運輸工具更合適。再進一步,人工智能并不具備人類雇員的特性,無法在復(fù)雜的社會活動中作為一個有自我意識的主體存在,難以從主觀上斷定其是否為 “雇主利益”行事,對其自我學(xué)習(xí)、自我判斷后超出授權(quán)范圍的行為難以斷定是否屬于 “職務(wù)行為”,將其類比為 “雇員”并不合適。
(2)代理人:電子代理人 (electronic agent)在電子商務(wù)締約過程中的廣泛運用提出了人工智能法律地位的另一種可能——代理人,與人類代理人相似,電子代理人使被代理人行為得以延伸,并將行為后果歸屬于被代理人。然而,電子代理人實質(zhì)上仍是計算機程序、電子或自動化手段,根據(jù)既定程序運行,與人類代理人有本質(zhì)區(qū)別,沒有能力對代理過程中造成的損害承擔(dān)民事責(zé)任,無法超脫工具范疇 (Instrumentality Theory),并不適合將其類比為代理人[10]。
(3)未成年人:將人類對弱人工智能的監(jiān)管類比為對未成年人的監(jiān)護,監(jiān)護手段與強度隨著被監(jiān)護人理性的增長而調(diào)整[11]。但監(jiān)護權(quán)系準身份權(quán)[12],弱人工智能并不具備 “人格”與 “身份”,并且其理性程度、承擔(dān)監(jiān)護義務(wù)的主體均難以確定,無論使設(shè)計者、制造者或使用者負擔(dān)監(jiān)護義務(wù),均將造成 “監(jiān)護人”的過重負擔(dān),阻礙人工智能技術(shù)發(fā)展。
(4)動物:弱人工智能的理性水平尚處初級階段時,拋開 “人格”與 “身份”的顧慮,動物或許是更為合適的類比對象。動物飼養(yǎng)人或管理人實際控制、管理著動物,并了解動物的習(xí)性,比一般人更能注意和防范損害發(fā)生,應(yīng)當對動物采取安全措施并負合理注意義務(wù),對動物造成的損害承擔(dān)侵權(quán)責(zé)任。然而,此種類比將弱人工智能侵權(quán)責(zé)任施予實際控制者 (如使用人,往往是消費者),并不深究損害原因[13],但事實上,實際控制者并不掌握人工智能的運作原理,不能預(yù)測其行為趨勢并防止損害發(fā)生,由其承擔(dān)替代責(zé)任并不公平。
(5)危險行為:還有一種思路是將弱人工智能類比高度危險作業(yè),如民用核設(shè)施、航空器、高度危險物等,由實際控制者承擔(dān)無過錯責(zé)任。然而,人工智能的運用與火箭測試、高速駕駛油罐車等行為存在本質(zhì)區(qū)別,發(fā)展人工智能的目的是使人類生活更為便利與安全,即便在使用過程中產(chǎn)生了危險也并非其固有風(fēng)險,很難將其定性為危險行為。相反,弱人工智能在提高安全性、減少事故發(fā)生方面做出重要貢獻,例如特斯拉在安裝了Autopilot輔助駕駛系統(tǒng)后交通事故發(fā)生率降低了40%。
(6)物:弱人工智能遠未發(fā)展到 “電子人”階段,人類依舊保持著對弱人工智能的監(jiān)管與控制。不同于對未成年人的監(jiān)護及對動物的管理,人類對弱人工智能的監(jiān)督主要體現(xiàn)在兩方面:一方面,體現(xiàn)為制造過程中制造商對程序和算法的設(shè)定、技術(shù)的改進,以及在后續(xù)維護中對程序的更新及漏洞的彌補;另一方面,體現(xiàn)為應(yīng)用過程中使用人對控制權(quán)的掌握。現(xiàn)階段,人類對弱人工智能的權(quán)益并未脫離占有、使用、收益、處分的范疇,將人工智能定位為 “物”,特別是被人們生產(chǎn)、使用和消費的 “產(chǎn)品”更為合適,有利于推動人工智能商業(yè)化進程。
無論是有形的自動駕駛汽車,還是無形的算法,弱人工智能作為 “物”與人類互動不斷增多,無可避免產(chǎn)生損害與侵權(quán)風(fēng)險。不同于奇點來臨后的強人工智能,弱人工智能尚未具備獨立承擔(dān)法律責(zé)任的條件,但與傳統(tǒng) “物”之侵權(quán)不同,弱人工智能侵權(quán)特征表現(xiàn)為侵權(quán)形態(tài)的多樣性、侵權(quán)原因的復(fù)雜性以及控制手段的隱秘性,如何合理分配弱人工智能的侵權(quán)責(zé)任,從而推動技術(shù)進步并保障技術(shù)安全成為現(xiàn)行法律亟待回應(yīng)的重要問題。
導(dǎo)致人工智能侵權(quán)的原因多種多樣,包括人工智能產(chǎn)品缺陷、使用人 (監(jiān)管人、第三人等)的錯誤操作以及人工智能本身的獨立判斷等,在人工智能與人類互動導(dǎo)致?lián)p害的過程中,責(zé)任主體有以下可能[3]:
(1)制造商 (設(shè)計者、經(jīng)銷商等)。人工智能作為產(chǎn)品本身的缺陷,包括制造缺陷、設(shè)計缺陷和警示缺陷,應(yīng)由制造商 (設(shè)計者、經(jīng)銷商等)承擔(dān)責(zé)任。如案例三中,You Tube應(yīng)對存在漏洞的算法導(dǎo)致的損害結(jié)果負責(zé);實務(wù)中汽車制造商對汽車電子控制系統(tǒng)設(shè)計缺陷、定速巡航系統(tǒng)缺陷亦承擔(dān)產(chǎn)品責(zé)任。
第三天仍然是有,第四天,第五天,一個星期過去。第十天的時候,阮小棉終于把那張報紙留下來。她記下了他的地址,芙蓉里五段18號。
(2)使用人 (監(jiān)管人、第三人等)。目前的弱人工智能尚未具備獨立行為能力,使用過程離不開人類控制與監(jiān)管,即便使用者并不了解、無法預(yù)測人工智能的行為,仍需為其行為承擔(dān)責(zé)任[13]。如案例一中GPS提供的路線指引離不開駕駛員的獨立判斷;Google汽車Autopilot系輔助駕駛系統(tǒng)需要駕駛員保持對車輛的控制和快速反應(yīng);自動駕駛模式下的飛機駕駛員仍有義務(wù)對飛機保持嚴密監(jiān)控。此外,第三人通過與人工智能互動等方式對其自我學(xué)習(xí)結(jié)果產(chǎn)生影響致使損害發(fā)生,也應(yīng)當承擔(dān)責(zé)任,如聊天機器人自動學(xué)習(xí)的語言內(nèi)容與使用者的語言習(xí)慣有直接關(guān)系;黑客對系統(tǒng)漏洞的攻擊可引發(fā)隱私泄露等一系列嚴重后果。因此,弱人工智能的使用人、監(jiān)管人乃至第三人都是可能的責(zé)任主體。
(3)人工智能本身。特定情況下,弱人工智能符合邏輯的正確決定也將導(dǎo)致?lián)p害,產(chǎn)生人工智能本身承擔(dān)責(zé)任的可能。例如:兩輛完全自動駕駛汽車在高速公路上同向行駛,A車在左車道,B車在右車道,A車在B車略前方。一頭鹿突然出現(xiàn)在左車道中間,A車立刻做出決定,向右車道打方向以避免撞到那只鹿。右車道內(nèi)的B車同樣做出決定,向右側(cè)打方向以避免碰撞到A輛車,撞到了右面的一棵樹并導(dǎo)致B車內(nèi)乘客受傷。兩輛自動駕駛汽車均正確運行并做出最安全的決定,由人工智能本身承擔(dān)責(zé)任似乎最符合公平正義的理念。當前,美國國家公路運輸安全管理局 (the National Highway Transportation Safety Administration)已承認車輛自動駕駛系統(tǒng)作為車輛 “駕駛?cè)恕?,由人工智能本身承?dān)責(zé)任的情境并不遙遠。
此外,在人類與人工智能的復(fù)雜互動中,尤其是弱人工智能尚離不開使用人監(jiān)督操作的現(xiàn)階段,更多出現(xiàn)混合責(zé)任的情況,如人類駕駛員在不利的天氣條件或路況下開啟自動駕駛模式,以及未能在特定情況下重新控制車輛等,此時,事故原因的界定及責(zé)任的合理分配將更為困難。
無論是通過傳統(tǒng)侵權(quán)法體系還是產(chǎn)品質(zhì)量法體系解決弱人工智能侵權(quán)責(zé)任分配問題,事故原因的查明均系關(guān)鍵所在,但只有制造商才具備技術(shù)與數(shù)據(jù)優(yōu)勢進行調(diào)查。此外,正如霍姆斯法官所說, “最安全的方式是將風(fēng)險交給決定采取何種預(yù)防措施的人?!盵14]人工智能的制造商掌握著最全面的制造與改進技術(shù),對弱人工智能具有最強的控制權(quán)。無論從事故原因的確定還是從風(fēng)險控制方面來看,制造商都具有最優(yōu)主體地位,具體而言:
(1)調(diào)查優(yōu)勢。人工智能的運作過程類似 “黑匣子”,無論是法院還是其他專門調(diào)查機構(gòu),在事故原因調(diào)查中都需要人工智能制造商配合以獲得相關(guān)數(shù)據(jù),如案例二中,美國國家公路交通安全管理局作為調(diào)查主體要求特斯拉公司移交自動駕駛系統(tǒng)引入以來的一切設(shè)計變更與更新的詳細信息,以及接下來四個月的更新計劃。弱人工智能的運作過程類似 “黑匣子”,制造商在推動 “黑匣子”轉(zhuǎn)變?yōu)?“玻璃匣子”的進程中發(fā)揮核心作用。目前,各國已開始推動人工智能的透明化進程,歐盟要求配置大量對公眾產(chǎn)生影響的算法的公司,必須在2018年前對所創(chuàng)建模型的內(nèi)部邏輯做出 “解釋”,美國國防高級研究計劃署也制定了 “可解釋的人工智能新計劃”力圖對人工智能深度學(xué)習(xí)進行解釋[15]。
(2)控制優(yōu)勢。由于制造商掌握著弱人工智能的核心技術(shù)并在制造、設(shè)計、警示方面具有主動權(quán),較于其他主體,制造商對人工智能產(chǎn)品更為了解,更有利于控制事故、改進技術(shù),具有最低的預(yù)防成本,根據(jù)漢德公式,由制造商作為人工智能侵權(quán)的第一責(zé)任人具有合理性。制造商對弱人工智能行為缺乏預(yù)見能力并不能成為其拒絕承擔(dān)產(chǎn)品責(zé)任的 “擋箭牌”,現(xiàn)代侵權(quán)法的多樣性風(fēng)險路徑擴張了風(fēng)險預(yù)見能力與預(yù)見范圍[5],制造商 “合理預(yù)見”范圍也進一步擴大,必須預(yù)見人工智能產(chǎn)品可能的一切用途,而不局限于其宣稱的功能。而隨著弱人工智能技術(shù)發(fā)展,越來越多弱人工智能將獨立運作,責(zé)任承擔(dān)將進一步由混合責(zé)任向制造商責(zé)任傾斜。
制造商的第一責(zé)任人地位也引發(fā)了一系列擔(dān)憂:一方面,面對不可預(yù)見的產(chǎn)品責(zé)任,制造商將失去開發(fā)新產(chǎn)品的動力從而阻礙技術(shù)進步[16]。嚴格的產(chǎn)品責(zé)任使中小企業(yè)很容易因幾起訴訟而破產(chǎn),大企業(yè)則成為侵權(quán)訴訟的 “深口袋 (Deep Pocket)”背負沉重枷鎖;另一方面,制造商采取各種手段轉(zhuǎn)移責(zé)任使產(chǎn)品責(zé)任名存實亡,從而對人工智能市場發(fā)展產(chǎn)生負面影響。如將具備看護功能的人工智能保姆作為 “玩具”銷售,消費者難以證明對其看護功能的 “合理期待”,出現(xiàn)問題后難以歸咎于產(chǎn)品責(zé)任[3];或與消費者簽訂格式條款要求消費者保持注意義務(wù)并承擔(dān)最終風(fēng)險,如Tesla要求自動駕駛模式下駕駛員的手經(jīng)常保持在方向盤上并保證控制權(quán),將責(zé)任轉(zhuǎn)移到使用人。
(1)責(zé)任限制。①免責(zé)事由。根據(jù) 《產(chǎn)品質(zhì)量法》規(guī)定的免責(zé)事由,未將產(chǎn)品投入流通、產(chǎn)品投入流通時引起損害的缺陷尚不存在、科技發(fā)展水平限制可作為免責(zé)事由進行抗辯,但后兩種抗辯事由應(yīng)采取更嚴格的標準,要充分考慮到制造商對人工智能自動學(xué)習(xí)、自我發(fā)展能力的預(yù)測與控制能力。②責(zé)任限額。科技進步與風(fēng)險伴生,以航空法的發(fā)展為例,20世紀初飛機的發(fā)明對當時人類社會的沖擊并不亞于人工智能時代的到來,為保障航空公司免于大規(guī)模侵權(quán)訴訟,1929年簽訂的 《華沙條約》對國際航空運輸中的承運人責(zé)任、損害賠償標準等做出了規(guī)定,促進了技術(shù)創(chuàng)新與航空產(chǎn)業(yè)發(fā)展[18]。面對弱人工智能造成的不可預(yù)知的侵害,可參考航空法責(zé)任限額方式對制造商責(zé)任進行限制。③合理替代設(shè)計。制造商并不因人工智能帶來凈效益而免責(zé),但為緩和制造商責(zé)任并防止訴訟泛濫,在缺陷的認定上可采合理替代設(shè)計標準,即制造商若能證明不存在其他合理替代設(shè)計以避免損害可減免責(zé)任[9]。在完全自動駕駛車輛基于獨立判斷仍不免發(fā)生事故的情況下,制造商并無合理替代設(shè)計方案避免事故,即便人類駕駛員也無法做出更好的選擇,根據(jù)風(fēng)險-效用理論并不能認定自動駕駛車輛存在缺陷,因而制造商在上述情況下可免于承擔(dān)責(zé)任。
(2)稅收與基金。通過向制造商收稅并設(shè)立賠償基金以緩和制造商責(zé)任、減少訴訟帶來的沖擊,此種方式在醫(yī)療、汽車制造領(lǐng)域均有先例。以醫(yī)療領(lǐng)域為例,新疫苗的研發(fā)與應(yīng)用往往伴隨大量訴訟,為促進疫苗的研發(fā)并維護受害人權(quán)益,1986年,美國前總統(tǒng)里根簽署 《全國兒童疫苗損害法案》 (NCVIA)并為受害者設(shè)立賠償基金,并成立了國家預(yù)防接種傷害救濟項目 (NVICP),每劑疫苗向制造商征收0.75美元的稅收,消費者可直接向該項目提出索賠。消費者并不承擔(dān)對因果關(guān)系和實際損失的舉證責(zé)任,只有消費者拒絕賠償或被該項目拒絕賠償?shù)那闆r下才可對制造商提起訴訟,此舉既鼓勵了家長給兒童接種疫苗,同時也促進了制造商繼續(xù)研發(fā)疫苗[18]。在人工智能領(lǐng)域,也可參考此種方式向制造商征收合理的稅收并成立賠償基金,為人工智能侵權(quán)受害人提供賠償,避免制造商陷入訴訟旋渦。
(3)保險。通過保險分散人工智能帶來的風(fēng)險是一個多贏選擇,人工智能安全性越高,保費就越低,就越能促進制造商進一步改進技術(shù)、提高產(chǎn)品安全性[16]。目前,在自動駕駛領(lǐng)域,交通事故責(zé)任保險或賠償保函已成為強制性要求。對人工智能投保也具有較強可行性,目前許多保險公司已開始采用 “基于使用”計劃,通過車輛設(shè)備收集駕駛信息,了解駕駛習(xí)慣及駕駛行為,據(jù)此精確調(diào)整保費。類似的,在其他人工智能領(lǐng)域,保險公司也可根據(jù)歷史數(shù)據(jù)確定風(fēng)險并調(diào)整保費[19]。
弱人工智能時代,法律調(diào)整的首要任務(wù)是在防范人工智能帶來的風(fēng)險與鼓勵科技創(chuàng)新之間尋求平衡,由于制造商在事故原因調(diào)查、風(fēng)險控制、技術(shù)革新方面都具有顯著優(yōu)勢,并可通過責(zé)任限額、稅收、基金及保險等手段分散風(fēng)險,故以產(chǎn)品責(zé)任為核心的責(zé)任分配體系具有合理性與可行性。圍繞制造商責(zé)任,基于弱人工智能特點,制造商還需承擔(dān)如下義務(wù):
(1)舉證義務(wù)。產(chǎn)品責(zé)任系無過錯責(zé)任,原則上,受害人承擔(dān)對產(chǎn)品缺陷、損害以及因果關(guān)系的證明責(zé)任;生產(chǎn)者則對法律規(guī)定的免責(zé)事由承擔(dān)舉證責(zé)任。而在特殊情況下,如生產(chǎn)者掌握核心技術(shù),受害人無法通過其他途徑檢測產(chǎn)品缺陷,則可由法官裁量采用舉證責(zé)任倒置。弱人工智能的產(chǎn)品責(zé)任確定即屬于此種特殊情況,人工智能的復(fù)雜性與不透明性使消費者難以查明事故原因并證明產(chǎn)品缺陷,為避免消費者負擔(dān)過重的舉證責(zé)任,舉證責(zé)任倒置是更合理的選擇。此外,以不存在 “合理替代設(shè)計”作為證明標準,避免訴訟泛濫[20]。
(2)培訓(xùn)與訓(xùn)練義務(wù)。弱人工智能的特殊性在于其不斷的自我學(xué)習(xí)與自我改進能力,為確保制造商對其行為的 “合理預(yù)測”,在人工智能產(chǎn)品進入市場前,必須保證具備足夠的 “前市場測試”使操作系統(tǒng)具有足夠的學(xué)習(xí)量[19]。以醫(yī)療機器人 “達芬奇”為例,其投入市場后已引發(fā)多起產(chǎn)品責(zé)任訴訟,法院普遍認為制造商應(yīng)對消費者進行培訓(xùn)指導(dǎo),個別法院甚至認為制造商還應(yīng)當負有對機器人的 “訓(xùn)練義務(wù)”[9]。
(3)警示義務(wù)?,F(xiàn)階段弱人工智能尚離不開使用者監(jiān)督,但消費者對人工智能的想象與信賴很容易產(chǎn)生對其安全性與便利性的 “合理期待”,導(dǎo)致對人工智能的過度依賴與注意力分散,因此,除事先對消費者進行培訓(xùn)外,制造商還應(yīng)承擔(dān)及時的風(fēng)險警示義務(wù)[9]。案例二即人類駕駛員對有條件自動駕駛模式產(chǎn)生過度依賴所導(dǎo)致的,事發(fā)時駕駛員正在觀看電影,人類駕駛員無視車輛發(fā)出的視覺警告及語音警告導(dǎo)致了事故發(fā)生。針對此種情況,除及時有效的警示外,制造商還應(yīng)采取容錯設(shè)計以避免人類在與人工智能互動過程中發(fā)生錯誤。案例二事件發(fā)生后,特斯拉升級了Autopilot系統(tǒng),若司機對系統(tǒng)警告沒有反應(yīng),將暫時阻止車主使用該系統(tǒng)。通用汽車也計劃在半自動駕駛汽車中安裝包含能夠探測出駕駛員是否困倦或未注意路況功能的軟件,并采用聲音和視覺方式引起駕駛員注意,若警告無效,制造商將通過車輛的對講系統(tǒng)與人類駕駛員對話溝通。如果人類駕駛員仍未有反應(yīng),車輛就會在路邊???,進一步確保人工智能安全性[19]。
(4)維護義務(wù)。不同于普通產(chǎn)品制造商提供的售后服務(wù),弱人工智能產(chǎn)品投入市場后,不斷與人類互動并自我學(xué)習(xí)成長,時刻面臨新情況、新問題,弱人工智能產(chǎn)品制造商負有更重的跟蹤維護義務(wù),需要隨時注意更新程序、修補漏洞并防范黑客攻擊,必要的時候甚至需要主動召回產(chǎn)品[9]。目前,一些制造商已經(jīng)在自動駕駛汽車采用無線升級技術(shù)OTA (Over The Air),以確保對自動駕駛汽車的維護與更新。
(5)披露義務(wù)。人工智能是當前發(fā)展最前沿的技術(shù)之一,消費者很難通過檢索代碼等方式發(fā)現(xiàn)程序、算法錯誤等產(chǎn)品缺陷[21]。制造商出于商業(yè)秘密保護等目的可能不愿意透露產(chǎn)品信息,但舉證責(zé)任倒置的要求及合理替代標準的確立都迫使制造商負擔(dān)一定程度的信息披露義務(wù)[20]。此外,結(jié)合產(chǎn)品責(zé)任保險,制造商還可通過披露保費的方式使消費者了解人工智能產(chǎn)品的潛在風(fēng)險,從而做出正確的消費決定[19]。
技術(shù)的發(fā)展對法律制度有著直接影響,甚至推動全新法律制度的創(chuàng)造[22],反過來,法律對科技發(fā)展的回應(yīng)方式又影響了技術(shù)革新的進程。人工智能時代對法律帶來的挑戰(zhàn)遠甚于以往任何時期的技術(shù)變革,在人工智能產(chǎn)業(yè)發(fā)展三年行動計劃的開局之年,我們必須思考:現(xiàn)有的法律體系應(yīng)以何種姿態(tài)應(yīng)對人工智能的飛速發(fā)展?如何在促進技術(shù)革新與維護各方權(quán)益之間取得平衡?
人工智能的最大特點在于其自我學(xué)習(xí)、自我決定的能力,而現(xiàn)行法律則是建立在 “所有的決定都是由人類做出”這一假設(shè)的前提下,長遠來看,兩者必然產(chǎn)生沖突,在憲法、刑法、民法等各個領(lǐng)域引起重大變革。在當前的弱人工智能時代,沖突尚未加劇,但摩擦早已顯現(xiàn),弱人工智能在合法地位、監(jiān)管手段、責(zé)任承擔(dān)等方面與目前法律體系不相適應(yīng),亟待法律及時做出調(diào)整與回應(yīng)。
(1)合法地位的挑戰(zhàn)。人工智能的進步正在以無與倫比的勢頭挑戰(zhàn)現(xiàn)有法律體系,以自動駕駛汽車為例,現(xiàn)有的法律制度、政策、保險體系等,并不是為自動駕駛時代的交通量身定制的,勢必面臨排斥反應(yīng)[23]。2017年7月,百度CEO李彥宏 “乘坐”無人駕駛汽車在北京五環(huán)上行駛的事件引發(fā)了對無人駕駛合法性的爭議,倒逼現(xiàn)行交通法律法規(guī)的破冰。12月,北京市交通委聯(lián)合北京市公安交管局、北京市經(jīng)濟信息委制定發(fā)布了 《北京市關(guān)于加快推進自動駕駛車輛道路測試有關(guān)工作的指導(dǎo)意見 (試行)》和 《北京市自動駕駛車輛道路測試管理實施細則 (試行)》,規(guī)范并推動了自動駕駛汽車的實際道路測試。自動駕駛領(lǐng)域的合法性挑戰(zhàn)在國際上早已呈現(xiàn),2016年 《國際道路交通公約 (日內(nèi)瓦)》修正案承認了符合條件的自動駕駛合法身份,德國、西班牙、新加坡和美國部分州也肯定了自動駕駛汽車的合法性,相反,印度則于2017年7月宣布禁止自動駕駛汽車上路。
(2)監(jiān)管體系的挑戰(zhàn)。面對人工智能帶來的不確定性與潛在風(fēng)險,放任自流并非明智選擇,如何構(gòu)建適度有效的監(jiān)管體系,引導(dǎo)人工智能在正確的軌道上發(fā)展成為各國立法的重要課題。早在2016年,歐盟議會法律事務(wù)委員會發(fā)布 《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》 (Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)及 《歐盟機器人民事法律規(guī)則》 (European Civil Law Rules in Robotics),并于2017年通過一份決議 (Resolution),提出了具體的立法建議,加強對人工智能的監(jiān)管成為該項決議的重要內(nèi)容,具體包括設(shè)立專門機構(gòu)、確立倫理準則、針對特定用途人工智能出臺特定規(guī)則等。目前,無人駕駛汽車及無人機領(lǐng)域的監(jiān)管盲區(qū)已經(jīng)呈現(xiàn)[24],在及時填補特定領(lǐng)域法律空白的同時,學(xué)習(xí)歐盟確定針對人工智能確定整體監(jiān)管框架與倫理準則成為當務(wù)之急。
(3)責(zé)任體系的挑戰(zhàn)。隨著人工智能的廣泛運用,越來越多人工智能侵害案件對現(xiàn)行責(zé)任體系提出挑戰(zhàn),強人工智能甚至能成為侵權(quán)責(zé)任、違約責(zé)任乃至刑事責(zé)任的主體。弱人工智能在逐漸脫離使用者監(jiān)督、控制的過程中,責(zé)任分配方式也從使用者過錯侵權(quán)轉(zhuǎn)移至生產(chǎn)者的產(chǎn)品責(zé)任。而現(xiàn)階段弱人工智能仍需要人類操作與監(jiān)管,存在大量混合責(zé)任的情況,責(zé)任的確定與轉(zhuǎn)移難以 “一刀切”,目前各國立法對此的回應(yīng)較為保守,中美兩國則仍在現(xiàn)行法律體系內(nèi)確定自動駕駛責(zé)任,人類駕駛員仍居于責(zé)任主體地位。德國2017年修訂的 《道路交通法》則更進一步,試圖在制造商與駕駛員之間明確責(zé)任轉(zhuǎn)移的標準,但此舉的合理性與可行性遭到質(zhì)疑。但長遠來看,面對弱人工智能的發(fā)展,對現(xiàn)行法律體系的變革與責(zé)任的重新分配勢在必行。
法律必須是穩(wěn)定的,但又不能一成不變[25]。人工智能的迅速發(fā)展將徹底改變?nèi)祟惿钌踔粮脑焓澜?,對現(xiàn)行法律體系的挑戰(zhàn)也是前所未有。法律應(yīng)及時做出回應(yīng),在激進與保守、穩(wěn)定性與適應(yīng)性之間尋求平衡點:一方面,對人工智能合法地位采取寬容態(tài)度,以鼓勵技術(shù)發(fā)展;另一方面,確立科學(xué)合理的監(jiān)管框架和責(zé)任分配體系,以維護安全穩(wěn)定。此外,應(yīng)對技術(shù)革新,弱人工智能時代的法律體系更要處理好以下三方面關(guān)系:
(1)推動創(chuàng)新與保障安全。科技的進步從來是一把 “雙刃劍”,法律應(yīng)在技術(shù)進步與安全穩(wěn)定之間起到平衡作用。人工智能引領(lǐng)人類通往未知世界,被稱為 “第四次工業(yè)革命”,在構(gòu)建人工智能法律體系與監(jiān)管手段時,必須具備充分的前瞻性,既要防止刻板傳統(tǒng)的監(jiān)管阻礙創(chuàng)新,又要防止法律盲區(qū)引發(fā)系統(tǒng)性風(fēng)險[9],應(yīng)致力于 “建立以安全為核心的法律價值目標、以倫理為先導(dǎo)的社會規(guī)范調(diào)控體系和以技術(shù)、法律為主導(dǎo)的風(fēng)險控制機制[26]?!?/p>
(2)信息披露與知識產(chǎn)權(quán)保護。在人工智能監(jiān)管框架內(nèi),從事故原因調(diào)查到產(chǎn)品標準確立,均離不開制造商對人工智能技術(shù)的合理披露,這與商業(yè)秘密的保護存在沖突。然而,人工智能自我學(xué)習(xí)能力的提高與發(fā)展將帶來制造商無法控制的風(fēng)險,適當?shù)臋?quán)利讓渡不可或缺,對人工智能 “黑匣子”運作過程的解讀與一定程度的信息披露是保障人工智能安全性的必經(jīng)之路。
(3)制造商責(zé)任與消費者權(quán)益。特別是現(xiàn)階段,一方面,弱人工智能尚離不開使用者監(jiān)督,制造商采取種種手段將最終責(zé)任轉(zhuǎn)嫁到消費者身上;另一方面,消費者對人工智能的合理期待又無法避免其產(chǎn)生合理依賴,在允許自動駕駛汽車的人類駕駛員手離方向盤、上網(wǎng)、瀏覽郵件的同時,又要求其保持隨時掌握車輛控制權(quán)實屬強人所難。弱人工智能發(fā)展的最終方向是脫離使用者監(jiān)督,不斷增強自治性與獨立性,因而應(yīng)當構(gòu)建以產(chǎn)品責(zé)任為核心的責(zé)任分配體系,強化制造商責(zé)任,并輔以保險、基金、稅收等手段分散制造商風(fēng)險,從而平衡制造商與消費者權(quán)益并推動技術(shù)進步。
人工智能的發(fā)展無論在倫理性層面還是制度性層面都引發(fā)了廣泛爭議,從長遠看,必然給人類社會帶來翻天覆地的變化,政治、經(jīng)濟、法律等各個領(lǐng)域都將發(fā)生深刻的變革;而從短期看,目前技術(shù)發(fā)展水平仍處于弱人工智能階段,我們既不必杞人憂天地對人工智能產(chǎn)生 “終結(jié)者”的恐慌,又不可故步自封無視技術(shù)的進步,法律則應(yīng)順應(yīng)時代發(fā)展,在對人工智能合理定位后做出恰當?shù)幕貞?yīng),為人工智能發(fā)展營造良好環(huán)境。