亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人形機器人事故責(zé)任制度的困境及應(yīng)對

        2024-07-14 00:00:00沈偉偉
        東方法學(xué) 2024年3期
        關(guān)鍵詞:人形人機使用者

        內(nèi)容摘要:隨著人形機器人的日益普及,其引發(fā)的事故也不斷挑戰(zhàn)傳統(tǒng)事故責(zé)任制度。由于開發(fā)主體多元、機器學(xué)習(xí)算法、人機混控等因素的影響,人形機器人事故的事故成因、行為判定、責(zé)任分配、救濟措施均變得相當(dāng)復(fù)雜,這給傳統(tǒng)事故責(zé)任制度帶來巨大挑戰(zhàn)。通過人形機器人技術(shù)分析和事故法律責(zé)任制度分析可知, 傳統(tǒng)事故責(zé)任制度僅能處理小部分過錯清晰的事故類型,對于大部分人形機器人事故,傳統(tǒng)事故責(zé)任制度將很難繼續(xù)適用。為了應(yīng)對這些挑戰(zhàn),我國應(yīng)當(dāng)構(gòu)建針對人形機器人的特殊責(zé)任制度,將人形機器人制造商作為最小成本規(guī)避者,同時根據(jù)工廠、醫(yī)療、家居、物流等不同場景,引入技術(shù)避風(fēng)港等豁免機制,以期在法律規(guī)制和科技發(fā)展之間尋求新平衡。

        關(guān)鍵詞:人形機器人人機混控人工智能機器學(xué)習(xí)算法事故責(zé)任制度豁免機制

        中圖分類號:DF522 文獻標(biāo)識碼:A 文章編號:1674-4039-(2024)03-0088-100

        現(xiàn)如今,人形機器人不再只是出現(xiàn)在科幻小說中,而已逐漸融入日常生活,從工廠勞動、家務(wù)助手、醫(yī)療看護,它們的身影出現(xiàn)得越來越頻繁,而且在可預(yù)見的將來,這一趨勢不可阻擋。過去幾年機器人技術(shù)的迭代發(fā)展,大幅提升了人形機器人的性能,包括其行動精度、預(yù)測能力以及對應(yīng)功能,使它們能在更廣泛的場景中承擔(dān)更復(fù)雜的任務(wù)。一方面,人形機器人不再局限于簡單重復(fù)的流水線工廠作業(yè),而是越來越多地出現(xiàn)在民用服務(wù)行業(yè),例如酒店接待、餐館服務(wù)員,甚至成為家庭的一分子,承擔(dān)起家務(wù)助理和居家看護的角色。另一方面,隨著執(zhí)行任務(wù)范圍的拓展,人形機器人的操作風(fēng)險也在逐漸增加,比如運輸機器人和診療機器人都存在傷人風(fēng)險。盡管人形機器人的技術(shù)不斷進步,但就像它們試圖模仿的人類一樣,完全避免事故只是理想狀態(tài),現(xiàn)實世界中事故不可避免。承認(rèn)人形機器人事故在現(xiàn)代生活中的擴張趨勢,也意味著承認(rèn)人形機器人會越來越頻繁地?fù)p害財物、傷害他人,甚至造成災(zāi)難。

        因此,從法律角度出發(fā),事故責(zé)任法律問題便浮出水面。當(dāng)事故是由人形機器人(而非自然人)引起時,傳統(tǒng)事故責(zé)任制度在歸責(zé)和救濟兩個層面,均遭遇前所未有的挑戰(zhàn)。通常,傳統(tǒng)事故責(zé)任制度是用來應(yīng)對自然人導(dǎo)致的事故。然而,當(dāng)事故是在人機混控狀態(tài)下觸發(fā),不但可能涉及自然人過錯,也可能涉及算法失靈,此時,如何確定責(zé)任歸屬和責(zé)任救濟? 更具挑戰(zhàn)性的是,在人形機器人場景中,出問題的算法有可能,甚至大概率是機器學(xué)習(xí)算法,這些算法能夠?qū)W習(xí)新信息并根據(jù)習(xí)得的新信息在不受人類干預(yù)的情形下自動調(diào)整行為,這種自主性必然會沖擊傳統(tǒng)的事故責(zé)任制度,后者預(yù)設(shè)的前提是人類完全支配其所使用的工具(包括機器)。其中,不僅涉及技術(shù)層面的挑戰(zhàn),還涉及對現(xiàn)有事故法律制度各環(huán)節(jié)的重新思考和可能變革。

        本文將描述和分析這一系列挑戰(zhàn),并提出可行的制度建構(gòu),用以應(yīng)對人形機器人大規(guī)模應(yīng)用的挑戰(zhàn)。首先,將焦點放在技術(shù)現(xiàn)狀分析,將討論人形機器人和人工智能技術(shù)的發(fā)展,以及隨之出現(xiàn)的全新的人形機器人事故問題。其次,聚焦人形機器人事故對傳統(tǒng)事故責(zé)任制度的挑戰(zhàn)。再次,針對人形機器人事故展開類型化討論,目的是區(qū)分哪些類型的事故可以由傳統(tǒng)事故責(zé)任制度處理,哪些類型的事故需要重新建構(gòu)事故責(zé)任制度。最后,討論應(yīng)當(dāng)如何重新建構(gòu)特殊事故責(zé)任制度,以應(yīng)對人形機器人這一技術(shù)變革。

        一、人形機器人的概念和技術(shù)特征

        2023年10月,我國工業(yè)和信息化部頒布《人形機器人創(chuàng)新發(fā)展指導(dǎo)意見》,確立了“2025年人形機器人創(chuàng)新體系初步建成;2027年人形機器人技術(shù)創(chuàng)新能力顯著提升”的宏大目標(biāo)。而在業(yè)界,近年我國人形機器人的研發(fā)也得到市場熱捧。在國策和資本雙重驅(qū)動下,人形機器人成為近期學(xué)界熱點,尤其備受矚目的是機器人科技創(chuàng)新和法律規(guī)制之間的緊張關(guān)系?!?(〕為了從學(xué)理角度探討這一熱點,本部分首先將闡釋人形機器人技術(shù),一是為了澄清本文的討論對象,二是為后續(xù)法理討論作實證鋪墊。

        (一)人形機器人的定義

        1920年,恰佩克發(fā)表一部三幕科幻劇《羅素姆萬能機器人》,劇中機器人就叫“羅博特”(Robot),捷克語原意是“勞役、苦工”,這就是舶來詞匯“機器人”的源頭。過去百年間,這個詞走出劇本,在現(xiàn)實中不斷發(fā)展和演化。但至少到目前為止,機器人尚未通過圖靈測試,未能出現(xiàn)像科幻小說中描述的那樣“覺醒”,依舊承擔(dān)其原初被賦予的服務(wù)人類“勞役、苦工”功能。

        人形機器人屬于機器人中的一個類別。它并不是一個法學(xué)界創(chuàng)設(shè)的概念,而是一個業(yè)界實踐的產(chǎn)物。因此,本文所討論的人形機器人,主要從實踐應(yīng)用功能上來界定,將其理解為“利用機器學(xué)習(xí)算法具備人工智能,能夠模仿人類外觀和行為的機器設(shè)備”。

        (二)人形機器人的技術(shù)特征

        本文認(rèn)為,人形機器人具備如下三個技術(shù)特征。這些技術(shù)特征不僅將影響具體的事故風(fēng)險,也成為事故法律責(zé)任制度需要考量的因素。

        首先是模擬人形。這是人形機器人區(qū)別于其他類型機器人的主要硬件特征。人形機器人通常配備全部或部分模擬人類的五官、四肢等機械構(gòu)造。并且,大多數(shù)人形機器人的身高都設(shè)定在1.7米區(qū)間, 接近人類平均身高。以近期國內(nèi)外幾個人形機器人研發(fā)產(chǎn)品為例, 英國Engineered(Arts公司的Ameca能深度模仿人的表情和聲音。配備液壓動力系統(tǒng)的波斯頓動力公司的Atlas,能夠在極端環(huán)境中表現(xiàn)出超出人類的迅速反應(yīng)和復(fù)雜動作。Figure(AI公司的Figure(01可通過其視覺體驗,來規(guī)劃未來行動,還能反思記憶素材,甚至可以口頭解釋推理過程。中國科學(xué)院自動化研究所的Q4可以模擬人類肌肉控制系統(tǒng),并能夠?qū)崿F(xiàn)與人類的交互。

        其次是人工智能。如果說“模擬人形”是在物理構(gòu)造上接近人類,那么“人工智能”則是在智識上接近人類。假如不具備人工智能這一特點,機器也僅僅是機器而已,就算是人形機器,也還稱不上“機器人”。恰恰是由于其在智識上模擬了人類,我們才會給它貼上“機器人”標(biāo)簽?!?(〕當(dāng)然,沒有天生的人工智能,其背后是大語言模型、機器學(xué)習(xí)技術(shù)、數(shù)據(jù)收集分析、信號數(shù)據(jù)傳輸?shù)葟?fù)雜的人工智能技術(shù)。〔3\"〕這是人形機器人能夠模仿人類行為的關(guān)鍵。正是基于這些技術(shù)應(yīng)用與組合,部分人形機器人甚至擁有超越人類的感覺和智識。比如,醫(yī)學(xué)圖像識別機器人,在人眼完全無法實現(xiàn)的高像素、高精度的電子網(wǎng)格上,將傳感器收集的照片與病理數(shù)據(jù)庫中的照片相匹配,識別精度甚至超越經(jīng)驗豐富的臨床醫(yī)師?!?\"〕與之類似,在過去十年間,我們已經(jīng)見證不少棋類機器人擊敗人類頂尖棋手。從計算機科學(xué)角度,人工智能得以實現(xiàn)的先決技術(shù)條件,是機器學(xué)習(xí)算法。為何如此?回答這個問題,必須從機器學(xué)習(xí)算法的對應(yīng)物———不具備機器學(xué)習(xí)功能的算法(且稱其為“普通算法”)的局限性談起。

        普通算法仍是當(dāng)今計算機程序中的重要組成部分。程序員可以利用普通算法對機器人操作進行人工編程,使其具備明確且邏輯清晰的運算模式。較之機器學(xué)習(xí)算法,普通算法有其優(yōu)勢。它精確明晰,更具可解釋性和可預(yù)測性,也因此在規(guī)制層面更加可控;當(dāng)出現(xiàn)算法失靈時,也更容易排除故障。但普通算法的短板也很突出。由于普通算法是在程序員編定的特定環(huán)境中運行,欠缺自主性,一旦出現(xiàn)外部環(huán)境變化,普通算法就容易陷入僵局,須由程序員干預(yù)并作出調(diào)整。

        以人形機器人導(dǎo)航系統(tǒng)為例。普通算法將會輸出人形機器人從A至B的最優(yōu)路線,并適時啟動、加速、減速、停止等。這類基于普通算法的導(dǎo)航,只適用于一些高度可控的環(huán)境。因為唯有如此,程序員才可以預(yù)測機器人可能遭遇的、數(shù)量有限的場景,設(shè)計出與預(yù)設(shè)場景一一對應(yīng)的“如果—則—否則”(if-then-else)代碼規(guī)則,并據(jù)此執(zhí)行相應(yīng)導(dǎo)航控制。〔5\"〕換言之,在一個動力輸出供應(yīng)穩(wěn)定、障礙物隔絕、天氣穩(wěn)定的運行環(huán)境下(比如有軌道路、封閉車間等),不確定性被嚴(yán)格限制,普通算法才能實現(xiàn)導(dǎo)航。 可是,如若變換一個場景———城市道路晚高峰,那么普通算法就將陷入困境。 滿負(fù)荷車流倒是其次,大量行人、自行車、電動車,讓一個穿越十字路口由A至B的簡單路線變得極不可控。在此場景下,機器人所遭遇的不確定性將大為提升,因而普通算法無法以窮盡可能性的方式來先行設(shè)計。用計算機科學(xué)的行業(yè)術(shù)語來說,這便是普通算法的“知識獲取瓶頸”,〔6\"〕這也是機器人在普通算法時代應(yīng)用場景有限的原因之一。

        而機器學(xué)習(xí)算法的到來,給人形機器人技術(shù)注入新活力。有了機器學(xué)習(xí)算法,人形機器人不再需要預(yù)先窮盡所有可能性,進而執(zhí)行程序員針對每一種可能性預(yù)設(shè)的對應(yīng)行為指引。一個高質(zhì)量的機器學(xué)習(xí)算法,可以直接為人形機器人設(shè)定既定目標(biāo),機器學(xué)習(xí)算法自主學(xué)習(xí)、自我改進,并利用訓(xùn)練數(shù)據(jù)分析推導(dǎo),自行找出完成既定目標(biāo)的最優(yōu)方案?!?\"〕這與墨守既定代碼規(guī)則的普通算法有著本質(zhì)區(qū)別。一言以蔽之,機器學(xué)習(xí)算法既是程序自身,也是不斷自我改造的程序員。每一次新的機器學(xué)習(xí)算法運行,都會作為下一次運行的墊腳石,通過不斷積累運行數(shù)據(jù)提升優(yōu)化。而這種機器學(xué)習(xí)將帶來人形機器人行為上的不確定性。正如瑞恩·卡洛(Ryan\"Calo)所言,機器學(xué)習(xí)算法重要特征之一,就是能產(chǎn)生一些創(chuàng)新性的、難以預(yù)料的輸出,他稱其為“涌現(xiàn)”?!?8〕正是借助“涌現(xiàn)”,機器學(xué)習(xí)算法能夠幫助人形機器人應(yīng)付普通算法所無力應(yīng)對的動態(tài)場景。當(dāng)然,“涌現(xiàn)”也不是沒有門檻,沒有代價。從技術(shù)角度出發(fā),對于機器學(xué)習(xí)(尤其是無監(jiān)督狀態(tài)下的深度學(xué)習(xí)和強化學(xué)習(xí))而言,人形機器人行為的預(yù)測和解釋都將變困難,甚至不可實現(xiàn),〔9\"〕后文將詳細(xì)分析其制度后果。

        最后是人機混控。人工智能技術(shù)嵌入機器學(xué)習(xí)算法,賦予人形機器人一定程度的自主性。然而,這種自主性是相對的,而非絕對的。無論是人形機器人,還是其他類型的機器人,只要未能突破圖靈測試,就不具備絕對自主性。換言之,人形機器人的行為,仍舊離不開人類指令。無論是啟動、操作,甚至《黑客帝國》中人類祭出的終極控制手段“斷電”,人類還享有一定控制權(quán)。在實際運行中,使用者控制大致可分三步驟:第一步驟,使用者通過一系列簡單直觀的肢體動作或口頭生成指令;第二步驟,機器人接收使用者指令;第三步驟,機器人依據(jù)使用者指令完成行為操作。而人形機器人的相對自主性,有利于其在第三步驟發(fā)揮應(yīng)變能力,而不是簡單機械地服從使用者指令。因此,在人形機器人運行過程中,由于人類控制和機器學(xué)習(xí)算法的相對自主性,人機混控成為人形機器人的一項核心技術(shù)特征。

        (三)人形機器人引發(fā)的事故責(zé)任制度新問題

        模擬人形、人工智能和人機混控,這三個人形機器人的技術(shù)特征,將在數(shù)量和性質(zhì)兩個維度引發(fā)事故責(zé)任制度的新問題。

        首先,人形機器人的硬件技術(shù)特征模擬人形,使其更有利于被應(yīng)用到人類服務(wù)場景。恰恰是由于模擬人形特征,使得人形機器人比之其他機器人有著更廣泛的應(yīng)用空間。原因如下三點。第一,地球已被人類改造成適合人類日常生活的樣態(tài),而人形機器人模擬人形的硬件特征,將使其更便于在人類日常生活場景下得到應(yīng)用。比如人形機器人通常被設(shè)計成雙足行走(而非輪式移動或履帶式移動),這種移動方式使得人形機器人在適應(yīng)不同人類日常環(huán)境時具備更大靈活性。第二,人類文明創(chuàng)造出的大部分工具也是適配人形。因此,人形機器人可以更為直接地利用類似手持器械、桌椅、手術(shù)臺、病床、門鎖等現(xiàn)有工具為人類服務(wù)。第三,比之傳統(tǒng)機器設(shè)備,人形機器人的模擬人形特征使其更容易在情感上被人類接受,并能夠通過面部表情、手勢、語言與人類進行交互,從而更好地理解和響應(yīng)人類的需求和指令?!?0#〕

        在當(dāng)前人形機器人應(yīng)用比較普遍的機械工廠中,就已出現(xiàn)大量人形機器人糾紛?!?1#〕隨著人形機器人應(yīng)用的擴大和人機交互頻度的提高,可以預(yù)見,由此帶來的人形機器人法律糾紛將超越工業(yè)應(yīng)用場景,擴展到諸如餐廳、病房、臥室等日常生活領(lǐng)域,并涉及隱私、人格利益、精神損害等法律問題,成為事故法律制度需要回應(yīng)的新問題。

        其次,人形機器人的“人工智能”,帶來了事故責(zé)任制度上的不確定性。一方面,有別于傳統(tǒng)機器,人形機器人的“人工智能”技術(shù)在硬件上具備感知模塊、決策模塊、運行控制模塊,各模塊都需要相應(yīng)的軟件技術(shù)支持,甚至可能通過第三方聚合App控制,因此,人形機器人通常存在多元開發(fā)主體,以及各方交互過程中的不確定性。另一方面,機器學(xué)習(xí)算法的“涌現(xiàn)”能力,也使其具備一定自主性,同樣給人形機器人的行為帶來不確定性。從法律角度出發(fā),這兩類不確定性包括潛在責(zé)任主體的不確定性、機器學(xué)習(xí)模型自身演化的不確定性、輸出結(jié)果的不確定性、人形機器人功能的不確定性等。換言之,傳統(tǒng)事故責(zé)任制度習(xí)慣于在確定性中尋求最佳責(zé)任分配方案,但面對人形機器人,恐怕不得不在不確定性中尋求最佳責(zé)任分配方案,而不確定性的技術(shù)源頭,就是具備一定自主性的機器學(xué)習(xí)算法,及其背后的多元開發(fā)主體。這給事故責(zé)任糾紛的數(shù)量、責(zé)任主體認(rèn)定和行為定性都帶來新挑戰(zhàn)。

        最后,“人機混控”給傳統(tǒng)事故責(zé)任制度中的責(zé)任認(rèn)定和分配提出新挑戰(zhàn)。以往在傳統(tǒng)機械事故中,不存在自主性算法介入行為的情況,一旦出現(xiàn)行為損害與法律責(zé)任,傳統(tǒng)法律責(zé)任只需考慮人類過錯或產(chǎn)品瑕疵。然而,人機混控從根本上挑戰(zhàn)了傳統(tǒng)法律責(zé)任判斷標(biāo)準(zhǔn)。在人機混控場景下,〔12#〕如何證明是算法造成了損害?損害是由于算法失靈,還是人為過錯,抑或天災(zāi)?因果關(guān)系鏈條如何確立?算法侵權(quán)責(zé)任認(rèn)定本已困難重重,人工智能技術(shù)相關(guān)算法的介入,不單是加劇了這一困難,而是徹底顛覆了原有事故責(zé)任制度的推理前提和邏輯。機器學(xué)習(xí)算法的優(yōu)勢恰恰在于人類無法控制機器學(xué)習(xí)的結(jié)果,人機混控可以發(fā)揮各自優(yōu)勢提升協(xié)作效率和任務(wù)完成精度;但是,二者也引發(fā)控制過程和輸出結(jié)果的不可測,甚至可能超出人類(無論是程序員還是使用者)控制。新問題浮出水面:這么一個既接受人類控制,也接受機器學(xué)習(xí)算法控制的設(shè)備,其行為引發(fā)事故后,法律責(zé)任如何認(rèn)定和分配?

        二、人形機器人挑戰(zhàn)傳統(tǒng)事故法律制度

        網(wǎng)絡(luò)法誕生之初曾出現(xiàn)一個著名的“馬法之辯”。以弗蘭克·伊斯特布魯克(Frank#Easterbrook)為代表的一派法學(xué)家, 質(zhì)疑網(wǎng)絡(luò)法存在的必要性。他認(rèn)為法學(xué)界之所以不需要專門治理馬的馬法(the#law#of#the#horse),是因為馬匹交易有合同法、馬造成損害有侵權(quán)法……一般性法律足以應(yīng)對與馬有關(guān)的法律問題?!?3#〕那么,既然我們不需要一部專門治理馬的馬法,為什么需要一部專門治理網(wǎng)絡(luò)的網(wǎng)絡(luò)法呢?〔14#〕

        將“馬法之辯”嫁接到當(dāng)前討論,我們不禁要問:傳統(tǒng)機器也是機械工具,人形機器人也是機械工具,那么,為什么需要一套專門治理人形機器人的事故責(zé)任制度呢? 這一追問,將啟發(fā)我們思考如下三個問題。第一,從法律角度,對比傳統(tǒng)機器,人形機器人事故有何特殊之處?〔15#〕第二,現(xiàn)有的事故法律制度,是否足以應(yīng)對涉及人形機器人的不同類型事故? 第三,如果無法應(yīng)對,如何在法律制度層面進行補足?這三問將作為下文論證主線。本部分將首先處理第一問:從法律角度,對比傳統(tǒng)機器,人形機器人事故有何特殊之處?

        相較于傳統(tǒng)機器,人形機器人事故有四個特點。第一,人形機器人的“過錯”判斷標(biāo)準(zhǔn)與傳統(tǒng)機器存在根本差異。傳統(tǒng)機器發(fā)生事故,使用者在事故一剎那作出操控選擇,往往是在緊急情勢下應(yīng)激而為,哪怕存有主觀過錯,通常也屬于過失而非故意。〔16#〕而現(xiàn)有事故責(zé)任制度、緊急避險制度的設(shè)計,也是針對這類主觀過失。然而,人形機器人與傳統(tǒng)機器不同,由于其行為不僅依賴使用者的直接控制,還包括機器學(xué)習(xí)算法的自主行動,而人機混控的技術(shù)特征,也使得過錯的認(rèn)定變得復(fù)雜。此外,模擬人形的硬件特征,也增加了人機交互的模式和頻度,如果人形機器人沒能準(zhǔn)確理解使用者的指令,將引發(fā)過錯判斷標(biāo)準(zhǔn)的困難??傊?,由于人形機器人模擬人形、人工智能、人機混控三個技術(shù)特征,模糊了人形機器人事故的過錯主體,使其混合使用者過錯和算法失靈,在根本上挑戰(zhàn)了傳統(tǒng)機械事故的過錯判斷標(biāo)準(zhǔn)。

        舉例而言,假設(shè)一款人形機器人在家務(wù)勞動時,意外撞壞家中貴重物品或傷害家中幼童。此時,傳統(tǒng)機械事故可能歸咎于使用者操作過失, 或在可以證明產(chǎn)品瑕疵的某些特殊情況下追究產(chǎn)品責(zé)任。然而,對于人形機器人而言,使用者的設(shè)置和指令、與人形機器人的交互細(xì)節(jié)、機器學(xué)習(xí)算法的決策、實時收集和分析環(huán)境信息的能力等因素,都會影響人形機器人的具體行為決策,并最終影響責(zé)任認(rèn)定。在這樣的情況下,簡單地將過錯歸咎于使用者一方的行為過錯,顯然不能適應(yīng)人形機器人技術(shù)特征和應(yīng)用現(xiàn)狀。

        第二, 人形機器人應(yīng)用中算法失靈導(dǎo)致事故的算法責(zé)任, 在傳統(tǒng)事故責(zé)任法律制度中處理得太過簡單,不足以應(yīng)對人形機器人算法的實際應(yīng)用場景。人類使用算法,難免遭遇事故。文字工作者難免遭遇如下尷尬:Word碼了一堆字,一時忘記保存,系統(tǒng)突然崩潰,被迫重啟前功盡棄,無奈只能絞盡腦汁回憶殘篇,或是望屏興嘆悔恨交加。即便Word自動保存功能設(shè)計得再糟糕,也未必有人真起訴開發(fā)Word的微軟公司。從法理角度,我們觸碰到了侵權(quán)責(zé)任的邊界?!?7)〕此時,侵權(quán)責(zé)任通常只作為合同責(zé)任的補充,后者已在軟件用戶協(xié)議中被預(yù)先處置。換言之,對于算法失靈導(dǎo)致的法律糾紛,侵權(quán)責(zé)任通常只作為合同責(zé)任的補充,而糾紛解決主要訴諸軟件用戶協(xié)議。在實務(wù)中,除非涉及第三方損害或人身傷害,否則,主張算法侵權(quán)通常難獲法院支持。〔18,〕

        然而,如第一部分所闡述的,人形機器人將帶來更多人與機器人共存和交互的場景,而其對于人類服務(wù)的大規(guī)模替代,也將提升人身傷害、第三方損害的可能性,算法失靈一旦造成人身傷害或第三方損害,法院就有更大動因支持侵權(quán)責(zé)任?!?9)〕這種處理方式雖然與傳統(tǒng)產(chǎn)品責(zé)任類似,但卻有其特殊之處:它涉及的是機器學(xué)習(xí)算法主動介入人形機器人行為而引發(fā)的侵權(quán)事實,而非像傳統(tǒng)產(chǎn)品責(zé)任案件那樣,由于產(chǎn)品瑕疵而被動觸發(fā)。

        第三,機器學(xué)習(xí)算法的引入,增加了人形機器人算法失靈的認(rèn)定和排除故障(Debug)的難度。首先是算法失靈的認(rèn)定。隨著部分控制權(quán)由機器學(xué)習(xí)算法接管,人形機器人的行為變得更為不確定和不可測。在一些情況下,無論是人類使用者,還是開發(fā)算法的程序員,都難以完全理解算法背后的每一項自動化決策。這并非人形機器人所獨有,而是廣泛存在于機器學(xué)習(xí)算法之中的共同挑戰(zhàn)。以知名機器學(xué)習(xí)算法AlphaGo為例,它在2017年接連擊敗了人類頂尖棋手。然而,即使是創(chuàng)造AlphaGo的工程師們也無法針對其每一步棋的奧妙給出解釋———試想,假如可以解釋,那么這些工程師早已稱霸棋壇。AlphaGo的運行被限制在一塊布滿19條橫線和19條縱線、共361個交點的棋盤之上,哪怕是這樣一個簡明清晰、高度可控的環(huán)境里,AlphaGo工程師們依然無力解釋。那么,在更復(fù)雜且充滿不確定性的人形機器人服務(wù)場景中,解釋機器學(xué)習(xí)算法,認(rèn)定算法失靈,無疑難上加難。〔20,〕其次,機器學(xué)習(xí)算法還增加了排除故障難度。例如,搭載機器學(xué)習(xí)算法的波音737MAX客機,是2018年印尼獅航空難的承運機型。隨后,波音工程師們努力排除故障,尚未準(zhǔn)確找到確切的算法失靈問題,也因此沒能避免半年后埃航同一機型因同樣算法失靈問題再遭空難。人形機器人與現(xiàn)代客機相似的一點是,使用者的干預(yù)、環(huán)境因素改變、車外第三方行為,都有可能影響機器學(xué)習(xí)算法的自動化決策,一旦出現(xiàn)算法失靈,如何準(zhǔn)確定位和排除故障,進而減少事故糾紛,這是另一個新挑戰(zhàn)。

        第四, 人形機器人算法失靈導(dǎo)致的損害,難以通過傳統(tǒng)事故責(zé)任制度進行有效救濟。由于機器學(xué)習(xí)算法能夠主動執(zhí)行人類要求其承擔(dān)的任務(wù),這意味著它有可能主動發(fā)起致害行為。傳統(tǒng)事故救濟制度主要分兩方面:財產(chǎn)賠償和行為糾正。通過尋求人形機器人的開發(fā)者或使用者的法律責(zé)任,我們或許還能從財產(chǎn)賠償?shù)慕嵌日业浇鉀Q途徑。然而,當(dāng)我們試圖糾正致害行為本身時,傳統(tǒng)事故責(zé)任制度便顯得捉襟見肘。這是因為,傳統(tǒng)法律救濟很難控制人形機器人的具體行為,尤其是當(dāng)這些行為不斷受到復(fù)雜且動態(tài)的機器學(xué)習(xí)算法所驅(qū)動時。

        對于傳統(tǒng)機械事故,法律救濟只需著眼于糾正使用者行為,“教做人”———比如,通過禁止相關(guān)責(zé)任人繼續(xù)從事特定行業(yè)的方式。傳統(tǒng)救濟措施無需考慮算法的行為糾正。但在人形機器人的人機混控場景下,法律救濟則不得不兩者兼顧:既要“教做人”,也要“教做算法”。法律可以通過拘留、監(jiān)禁、罰款、禁止從業(yè)等傳統(tǒng)手段來糾正機器生產(chǎn)者或使用者行為;然而,對于已部分脫離了生產(chǎn)者和使用者控制的機器學(xué)習(xí)算法,我們能采取哪些措施來糾正其行為呢? 是硬件斷電,軟件卸載,還是代碼重置?〔21#〕這便成為新難題,而這一難題的復(fù)雜性在于,我們不僅需要考慮到機器學(xué)習(xí)算法的快速發(fā)展,還需要預(yù)見到未來可能出現(xiàn)的各類場景和風(fēng)險,以制定出具有前瞻性的解決方案。

        三、人形機器人事故的類型化分析

        傳統(tǒng)事故責(zé)任認(rèn)定,是基于過錯責(zé)任展開的。以道路交通事故為例?!?2#〕道路交通安全法第76條確立如下歸責(zé)制度:車輛之間的交通事故,實行過錯責(zé)任,雙方都有過錯,則按比例擔(dān)責(zé);車與非機動車或行人的交通事故,實行過錯推定原則和無過錯原則?!?3#〕

        然而,如前所述,人工智能和人機混控的事實,使得人形機器人事故的過錯認(rèn)定更為復(fù)雜。這里既可能存在使用者的自然人過錯,〔24#〕還可能存在算法失靈。自然人過錯,屬于傳統(tǒng)事故法責(zé)任認(rèn)定的構(gòu)成要件。而算法失靈并不僅屬于算法客觀瑕疵,還包含算法自主行為,因此,我們需要通過算法自動化決策所帶來的結(jié)果,比照自然人過錯,倒推擬制算法在“主觀方面”存在的過錯,使其在規(guī)范邏輯上能與傳統(tǒng)事故責(zé)任認(rèn)定的構(gòu)成要件盡可能契合。事實上,算法失靈和自然人過錯的認(rèn)定邏輯本質(zhì)上是共通的:都是以客觀行為作為依據(jù),來推定行為主體的主觀過錯。那么,根據(jù)人形機器人的過錯主體(自然人或算法),我們便可以把人形機器人事故拆分成如下兩類。

        (一)第一類:自然人過錯

        根據(jù)傳統(tǒng)侵權(quán)法的界分,自然人過錯無非兩種情況:自然人故意和自然人過失。

        首先是自然人故意,它又可以細(xì)分為兩類情況。第一類是利用人形機器人故意殺人、傷人、損害財物等,這并不屬于事故法的處理范疇。第二類是故意最低成本損害(Deliberate#Least-cost#Harm),亦即,自然人為避免更大損失而故意選擇承受較小損失。在該情形下,我們假設(shè)自然人有足夠時間做出反應(yīng),兩害相權(quán)取其輕。這類情形類似于電車難題,〔258〕傳統(tǒng)事故責(zé)任制度借助緊急避險等機制來應(yīng)對。但無論上述兩種情況中的哪一種,人形機器人都沒有帶來任何新問題。其次是自然人過失。表面上,人形機器人的自然人過失和傳統(tǒng)機械事故一樣,無非是疏忽大意或過于自信。不可否認(rèn),人腦也是一個黑箱,因此侵權(quán)法建立一般理性人標(biāo)準(zhǔn)作為參照?!?6#〕當(dāng)然,如果人形機器人的復(fù)雜性提升了自然人的注意義務(wù),那么自然人過失認(rèn)定的標(biāo)準(zhǔn)也就越寬泛。而且,人形機器人分擔(dān)的任務(wù)越多,并不必然意味著自然人過失越少。例如,偏向于依賴自動駕駛功能的司機,也更傾向于在加強過程中打盹、閱讀、打電話,而不是專注監(jiān)控自動駕駛。也正因此,在實踐中,人形機器人也承擔(dān)更多警示義務(wù),以避免用戶誤操作和注意力轉(zhuǎn)移。但即便如此,這也只是在邊際上影響人形機器人事故責(zé)任分配,不會在實質(zhì)上帶來影響。因此,人形機器人事故中的自然人過失,依然能被納入傳統(tǒng)事故法律制度中進行考察。

        (二)第二類:算法失靈

        在人機混控的人形機器人事故中,如果出現(xiàn)算法失靈,也存在如下三類情形。

        第一類情形,是人形機器人的普通算法瑕疵。普通算法瑕疵在傳統(tǒng)機器人也存在,比如警示未作出回饋、電子操控系統(tǒng)未響應(yīng)、用戶隱私泄露、網(wǎng)絡(luò)安全問題等。人形機器人的普通算法瑕疵可以比照人形機器人的硬件瑕疵:當(dāng)人形機器人硬件設(shè)計存在缺陷、不能達到同行業(yè)技術(shù)水準(zhǔn),法律上可以適用產(chǎn)品責(zé)任。〔27#〕

        第二類情形,是人形機器人的機器學(xué)習(xí)算法瑕疵,它可能出現(xiàn)在數(shù)據(jù)采集過程中(如采集圖像精度不夠、對象識別錯誤),也可能出現(xiàn)在數(shù)據(jù)分析運算中,最終都可能引發(fā)自動化決策失誤,進而引發(fā)事故。此外,人形機器人還存在機器學(xué)習(xí)算法所引發(fā)的系統(tǒng)性致害問題。比如,機器學(xué)習(xí)算法所帶來的系統(tǒng)性歧視問題,對高收入使用者和低收入使用者、男性使用者和女性使用者采取差別化安全標(biāo)準(zhǔn)?!?8#〕這都屬于機器學(xué)習(xí)算法瑕疵這類算法失靈的范疇。這在傳統(tǒng)事故法律制度中很難找到應(yīng)對之策。

        第三類情形,是人形機器人的機器學(xué)習(xí)算法“故意”引發(fā)事故?!?9#〕這種算法過錯的目的,是實現(xiàn)故意最低成本損害,只不過算法所展現(xiàn)的“故意”比自然人故意更具形式理性。這是因為在技術(shù)上,算法與自然人不同之處在于,算法在處理信息的速度方面異常迅捷,在事故一剎那,哪怕只有幾毫秒,它也可以在理性推算后采取自動化決策。〔30#〕看似偶然的事故,其決策卻是算法理性化選擇,〔31#〕其形式邏輯比自然人更理性。盡管機器學(xué)習(xí)算法的理性化選擇通常是基于相關(guān)性考量(而非基于因果關(guān)系考量),〔32#〕但無論如何,在緊急情形下控制人形機器人時,算法所作的自動化決策接近人類故意,它屬于緊急情形下的“故意”自動化決策,并非程序員介入或者普通算法程式設(shè)定的“故意”自動化決策?!?3#〕

        現(xiàn)實中更可能發(fā)生另一類接近于電車難題的問題是:為了避免使用者的損害,算法“故意”傷害第三方?!?4#〕在事故即將發(fā)生那一刻,人形機器人面臨抉擇:保護使用者,還是第三方(他人或其他財物)?以商業(yè)逐利為目標(biāo)的自動駕駛生產(chǎn)商在算法設(shè)計時,自然更傾向于保護使用者。一方面,從商業(yè)模式上看,使用者是直接客戶,而第三方則不然;〔35#〕另一方面,從信息成本上看,傳感器難以對外部情形做出確切判斷(第三方數(shù)量、抗撞擊程度和躲閃靈敏度等),而對使用者反應(yīng)則會有相對明確的預(yù)期。在這種情況下,人形機器人算法在無法避免傷害的情況下,“故意”傷害第三方的情形就更可能發(fā)生。那么,由此受到人身或財產(chǎn)損害的第三方,何以對“故意”造成事故的機器學(xué)習(xí)算法問責(zé)? 這也是傳統(tǒng)事故責(zé)任制度的盲區(qū)。

        四、人形機器人事故的責(zé)任制度構(gòu)建

        上述人形機器人事故分類始終貫穿著自然人與算法、普通算法與機器學(xué)習(xí)算法兩組對照。類型化不是目的,而是手段,最終是為了幫助我們厘清人形機器人事故法律問題的層次,進而確定哪些類型是可以納入傳統(tǒng)事故責(zé)任制度,哪些類型必須探索新的事故責(zé)任制度。

        通過上述人形機器人事故的類型化分析,我們可以明確傳統(tǒng)事故責(zé)任制度在人形機器人事故中的可行性和局限性。傳統(tǒng)事故責(zé)任制度僅僅適用于自然人過錯和人形機器人普通算法瑕疵這兩類場景,而且存在一個前提:人機過錯可以明確區(qū)分。

        在無法明確判定人機過錯混同、機器學(xué)習(xí)算法瑕疵,甚至機器學(xué)習(xí)算法“故意”引發(fā)事故這幾類情形下,傳統(tǒng)事故責(zé)任制度則會陷入盲區(qū)。如何處理人形機器人帶來的這些新問題,這是人形機器人事故責(zé)任制度構(gòu)建的重點。下文將針對人機過錯混同、機器學(xué)習(xí)算法瑕疵、機器學(xué)習(xí)算法“故意”引發(fā)事故等問題,探討相應(yīng)的事故責(zé)任制度構(gòu)建。

        (一)利用“一般理性人”技術(shù)標(biāo)準(zhǔn)規(guī)制算法失靈

        既然人形機器人的應(yīng)用不可避免會引發(fā)事故,那么其事故責(zé)任制度的目標(biāo)也應(yīng)當(dāng)更務(wù)實:從完全避免事故(Prevention),轉(zhuǎn)向減少事故(Mitigation)?!?6#〕這一理念可以追溯至交通事故法的源頭,代表人物便是拉爾夫·納德(Ralph#Nader),其觀點匯聚在《任何速度都不安全》(Unsafe#at#Any#Speed)一書中,并最終固化到美國交通事故責(zé)任制度之中。〔37#〕在該書的影響下,美國主流裁決原則是:車輛制造商無需設(shè)計出完美車輛,但有義務(wù)“在設(shè)計和制造產(chǎn)品時,采取合理注意義務(wù),最小化其用戶可能遭受的人身傷害;并且,在發(fā)生碰撞事故之時,不能將其用戶置于不合理的人身傷害風(fēng)險中”?!?8#〕“合理注意義務(wù)”“不合理的人身傷害風(fēng)險”,這些措辭,實際上就是將合理性標(biāo)準(zhǔn)納入產(chǎn)品設(shè)計、研發(fā)和制造環(huán)節(jié)中。這種披著安全標(biāo)準(zhǔn)外衣的事前規(guī)制,對于可能主動觸發(fā)致害行為的產(chǎn)品而言,不僅有用,而且必要。為了應(yīng)對人形機器人事故,我們需要根據(jù)具體技術(shù)實踐,綜合考量技術(shù)應(yīng)用成本,采取合理的事前規(guī)制手段來控制算法失靈現(xiàn)象,進而減少人形機器人事故的發(fā)生。

        值得注意的是,技術(shù)標(biāo)準(zhǔn)本身就蘊含著侵權(quán)法領(lǐng)域的過錯責(zé)任標(biāo)準(zhǔn)。 為了判定使用者過失———使用者是否盡到合理注意義務(wù),事故責(zé)任制度會假定“一般理性人”標(biāo)準(zhǔn),這是人類行為所需滿足的最低條件。同樣,類似標(biāo)準(zhǔn)可以適用于人形機器人算法,一旦算法的行為高于一般理性人標(biāo)準(zhǔn),亦即:如果將算法操控替換為一般理性人操控,也無法避免事故發(fā)生,這便等同于盡到合理注意義務(wù)。在這種情況下,即便發(fā)生事故,也不被認(rèn)定為算法失靈。而這類算法失靈認(rèn)定標(biāo)準(zhǔn)可以通過技術(shù)避風(fēng)港機制———一旦滿足技術(shù)要求即可成為責(zé)任抗辯事由———逐步轉(zhuǎn)化為行業(yè)技術(shù)標(biāo)準(zhǔn),固化到人形機器人的設(shè)計、研發(fā)、制造等環(huán)節(jié)?!?9#〕與前述美國交通事故責(zé)任制度的“合理注意義務(wù)”“不合理的人身傷害風(fēng)險”一樣,人形機器人的算法應(yīng)當(dāng)從行為效果反推,根據(jù)不同行業(yè)的風(fēng)險承受程度,比照自然人注意義務(wù)確定算法注意義務(wù)。一旦人形機器人算法無法滿足監(jiān)管機構(gòu)提出的算法注意義務(wù)標(biāo)準(zhǔn),則須承擔(dān)相應(yīng)責(zé)任風(fēng)險。隨著這類“一般理性人”技術(shù)標(biāo)準(zhǔn)的推廣,此消彼長,游離在標(biāo)準(zhǔn)之外的人形機器人算法失靈及其引發(fā)的事故問題就將被限縮,責(zé)任確定性也將隨之增強。

        (二)人機混控法律事實認(rèn)定機制的建立

        操控由人類獨控到人機混控的決定性轉(zhuǎn)變, 以及機器學(xué)習(xí)算法在法律事實認(rèn)定上的不確定性,挑戰(zhàn)了以過錯為中心的傳統(tǒng)事故責(zé)任制度?!?0#〕例如,使用者誤操作過失和算法瑕疵之間,在現(xiàn)實中就很難分清?!?1#〕類似情形普遍存在于人機混控的控制權(quán)事實認(rèn)定層面,是人形機器人規(guī)制無法回避的問題。

        為了應(yīng)對人機混控和機器學(xué)習(xí)算法失靈這兩個法律事實方面的難點,我們必須在事故責(zé)任制度建構(gòu)層面,解決當(dāng)前問題比較集中的取證困難。第一是針對人機混控。人機混控意味著人形機器人既非完全算法自主,也非完全依賴使用者。如何分清事故發(fā)生之時,人機混控的主導(dǎo)權(quán)究竟是使用者還是算法?即便是表面上由使用者控制,那么算法是不是有效如實執(zhí)行了使用者命令?這些對法律裁判來說都是事實認(rèn)定難點。例如,在國內(nèi)外自動駕駛事故糾紛中,爭議焦點往往在于引發(fā)事故的直接指令到底由使用者作出還是由算法作出。

        因此,監(jiān)管機關(guān)應(yīng)當(dāng)在事前、事中、事后三個階段分別采取措施,厘清“是否存在機器學(xué)習(xí)算法瑕疵、機器學(xué)習(xí)算法是否‘故意’引發(fā)事故”這些法律事實。在事前,監(jiān)管機關(guān)應(yīng)當(dāng)要求制造商應(yīng)對其機器學(xué)習(xí)算法功能、算法自動化決策流程等信息定期進行備案?!?2#〕在事中,人形機器人產(chǎn)品運行,應(yīng)當(dāng)由相應(yīng)的安全監(jiān)測平臺,用以監(jiān)測人形機器人算法運行信息,尤其需要激勵人形機器人制造商在保證個人信息和數(shù)據(jù)安全的前提下,妥善留存運行數(shù)據(jù)和日志,用以應(yīng)對潛在的人形機器人事故取證。換言之,和成熟應(yīng)用的民航飛機和民用列車一樣,人形機器人也需要黑匣子,也需要一套事件數(shù)據(jù)記錄(Event#Data#Recorder)系統(tǒng),在觸發(fā)相應(yīng)條件后,詳細(xì)記錄包括速度、位置、時間、安全系統(tǒng)狀態(tài)、算法操控動作、人類使用者操控動作等數(shù)據(jù)。在事后,監(jiān)管機構(gòu)應(yīng)當(dāng)啟動針對機器學(xué)習(xí)算法的第三方算法檢測和算法審計。〔43#〕此舉不僅旨在追本溯源,揭示機器學(xué)習(xí)算法是否存在設(shè)計或執(zhí)行缺陷,而且還要評估這些缺陷是否導(dǎo)致事故的發(fā)生。

        (三)事故法層面的最小成本規(guī)避者

        “最小成本規(guī)避者”這一理念,最早由法經(jīng)濟學(xué)家蓋多·卡拉布雷西(Guido#Calabresi)在《事故的成本》中提出,它奠定了一種全新的事故歸責(zé)理論視角?!?4#〕該理論核心觀點是:為了最大限度地減少社會總成本,事故責(zé)任應(yīng)劃歸于那些能夠以最低成本規(guī)避事故風(fēng)險的主體。這代表了一個從社會總體福利出發(fā),考察事故責(zé)任制度的新思路。從法經(jīng)濟學(xué)的視角分析,“最小成本規(guī)避者”理論尤其適用于法律事實認(rèn)定成本過高的情景。在這種背景下, 追求最低的社會總成本成為一種切實可行的最優(yōu)選擇。在涉及機器學(xué)習(xí)算法的人形機器人事故中,“事實認(rèn)定成本過高”至少在目前技術(shù)和制度條件下,還相當(dāng)普遍。由于人形機器人涉及的技術(shù)復(fù)雜性以及可能涉及的多個責(zé)任方,要確定事故責(zé)任方不僅困難重重,而且代價高昂。采用“最小成本規(guī)避者”模式,關(guān)鍵在于找出人形機器人應(yīng)用生態(tài)鏈條中,哪些參與方能以最合理的成本有效預(yù)防這類事故的發(fā)生, 并在事故發(fā)生后能更有效地確定和分配相關(guān)責(zé)任。由于開發(fā)主體多元、人機混控、機器學(xué)習(xí)算法導(dǎo)致歸責(zé)成本過高,“最小成本規(guī)避者”事故責(zé)任制度設(shè)計有利于降低事故糾紛解決中的歸責(zé)成本問題。

        可是,到底誰才是人形機器人事故的最小成本規(guī)避者呢? 在人形機器人事故中,相關(guān)主體無非是使用者、所有權(quán)人、制造商(包括背后的算法開發(fā)者)。下文將逐一分析。

        首先,使用者并不是最小成本規(guī)避者。人機混控意味著使用者無法對人形機器人的全部行為持續(xù)保持完整控制權(quán)。即便是在運行過程中使用者握有部分控制權(quán),但比之制造商,使用者在信息和技術(shù)上都處于劣勢。使用者在事故發(fā)生前,對于人形機器人的控制僅限于激活、注銷,或者設(shè)置部分自動操控功能。發(fā)生事故后,如果把事故責(zé)任集中到使用者身上,那么使用者很難證明算法失靈,也很難將算法失靈與損害結(jié)果的因果關(guān)系鏈條搭建起來。更加棘手的是,事故發(fā)生時人形機器人的數(shù)據(jù)對于制造商來說可能被視為商業(yè)機密或不利證據(jù),因而他們通常不會愿意主動披露?!?5#〕這也加劇了算法失靈認(rèn)定難度。

        與使用者類似,人形機器人所有權(quán)人也不是最小成本規(guī)避者。一旦把風(fēng)險全部轉(zhuǎn)嫁給所有權(quán)人,要求其在購買人形機器人時同意承擔(dān)使用中的所有風(fēng)險, 這將極大抑制其購買這類高風(fēng)險產(chǎn)品的意愿,尤其在當(dāng)下傳統(tǒng)輔助設(shè)備和人形機器人處在同一市場競爭之時,一旦由所有權(quán)人承擔(dān)責(zé)任,那么他們將會更傾向于選擇風(fēng)險更低的傳統(tǒng)設(shè)備。同時,和使用者一樣,所有權(quán)人本身對算法設(shè)計、組裝和品控管理沒有控制權(quán)。因此,即便將全部責(zé)任推給所有權(quán)人,所有權(quán)人也不具備統(tǒng)籌降低事故總成本的能力,反而會阻礙技術(shù)的普及與發(fā)展。

        排除前兩者,本文認(rèn)為最小成本規(guī)避者應(yīng)當(dāng)是制造商。第一,針對人機混控和算法過錯的判定,制造商相較于其他主體,其信息獲取成本最低,更有利于解決事故糾紛中信息不足的問題。第二,制造商控制著人形機器人的技術(shù)設(shè)計和改造,更有能力控制可能存在的事故風(fēng)險,事故責(zé)任將激勵制造商降低事故風(fēng)險,規(guī)避事故成本?!?6#〕尤其是在前述行為救濟層面,制造商比公權(quán)力機關(guān)更有能力實施行為救濟,利用對軟硬件的控制能力,來引導(dǎo)人形機器人行為,提供補償性救濟,甚至借助人形機器人更容易滿足人類精神上的報應(yīng)心理而實現(xiàn)將報應(yīng)正義內(nèi)藏于設(shè)計之中。即便制造商未必能控制某部分機器學(xué)習(xí)算法的風(fēng)險,但至少制造商還有一個兜底選項:舍棄該部分機器學(xué)習(xí)算法,以保證產(chǎn)品安全?!?7#〕第三,在人形機器人開發(fā)主體多元的現(xiàn)狀下,制造商相較于個體化的使用者和所有權(quán)人,更容易通過集體化的人形機器人定價機制、保險公司索賠機制等,來將事故成本分?jǐn)偟狡渌黧w中,比如采購質(zhì)量更好的零配件,通過提升銷售價格,將成本轉(zhuǎn)移給所有權(quán)人;再比如,購買保險將責(zé)任風(fēng)險轉(zhuǎn)移給保險公司和投保人?!?8#〕因此,針對人形機器人事故,事故責(zé)任制度應(yīng)當(dāng)將制造商定為最小成本規(guī)避者,再通過其內(nèi)部責(zé)任轉(zhuǎn)移或給定特定免責(zé)事由,來細(xì)化責(zé)任制度?!?9)〕

        但是,制造商成為最小成本規(guī)避者,并不意味著嚴(yán)格責(zé)任。零事故的人形機器人并不存在。嚴(yán)格責(zé)任看似簡單明確,卻會打擊制造商開發(fā)和應(yīng)用機器學(xué)習(xí)算法的積極性,長此以往將損害整個產(chǎn)業(yè),與國家確定的產(chǎn)業(yè)發(fā)展政策相沖突。因此,監(jiān)管機構(gòu)應(yīng)當(dāng)在確定人形機器人制造商為最小成本規(guī)避者的同時,根據(jù)不同行業(yè)(諸如工廠、醫(yī)療、家居、物流等)的風(fēng)險承受程度,輔之以責(zé)任技術(shù)避風(fēng)港和相關(guān)責(zé)任豁免機制,以實現(xiàn)更具規(guī)制彈性的事故責(zé)任體系。只要過錯責(zé)任足夠激勵制造商研發(fā)人形機器人算法,并能在減少使用者過錯的同時不增加額外算法過錯風(fēng)險,那么,它就能帶來全社會的凈安全收益。

        結(jié)語

        不少機器人警示論者呼吁,作為人類勞動的輔助(而非替代),人類應(yīng)當(dāng)規(guī)訓(xùn)機器人技術(shù),而不是被它們捕獲或被它們改造?!?0)〕可這或許只能涵蓋其中一部分現(xiàn)實情境。就像德國思想家盧曼所言,當(dāng)技術(shù)“不能再被認(rèn)為是對體力勞動的輔助,我們必須重新界定人與機器的關(guān)系”?!?1)〕對于人形機器人事故責(zé)任的討論,可以看作成機器人規(guī)制的重要案例,其模擬人形、人工智能、人機混控的特性,也能幫助我們進一步思考人與機器的關(guān)系。畢竟,像圍棋一樣,我們可以預(yù)見到在許多領(lǐng)域,機器早晚有一天會趕超人類———因為人形機器人技術(shù)會隨著軟硬件技術(shù)的研發(fā)不斷提升,然而,除非出現(xiàn)《高達》中的基因改造人,否則人類智力和體力水平很難整體提升?!?2)〕例如,待到人形機器人駕駛技術(shù)成熟和普及之時,或許未來的事故法就將禁止人類司機駕駛車輛上路(就像現(xiàn)在禁止某些自動駕駛車輛上路一樣),因為比之人形機器人,人類司機將帶來更大的道路風(fēng)險和歸責(zé)困境?!?3)〕

        對于以“人形機器人創(chuàng)新發(fā)展”為目標(biāo)的我國而言,人形機器人事故將隨著其普及越來越頻發(fā)。如果不積極回應(yīng)人形機器人技術(shù)的發(fā)展,我們就會付出代價,甚至喪失科技發(fā)展機遇。毫不夸張地說,我國人形機器人產(chǎn)業(yè)能否彎道超車,復(fù)刻20世紀(jì)80年代日本汽車產(chǎn)業(yè)的崛起,除了科技研發(fā)之外,最重要的制度保障就是合理適度的事故責(zé)任制度。圍繞人形機器人的技術(shù)特征,本文分析了人形機器人事故責(zé)任的類型,由此推導(dǎo)出可以納入傳統(tǒng)事故責(zé)任制度的類型和需要重新建構(gòu)事故責(zé)任制度的類型,并對后者提出了相關(guān)的制度建構(gòu)框架性思路。畢竟,我們能否從容應(yīng)對人形機器人的未來,并對其他可能出現(xiàn)的顛覆性技術(shù)變革早作準(zhǔn)備,取決于我們現(xiàn)在的選擇。

        本文系國家社科基金一般項目“突發(fā)公共衛(wèi)生事件的個人信息保護機制研究”(項目批準(zhǔn)號:21BFX196)的階段性研究成果。

        猜你喜歡
        人形人機使用者
        世界上走路最快的人形機器人
        軍事文摘(2023年16期)2023-09-04 07:10:40
        “法定許可”情況下使用者是否需要付費
        人機“翻譯員”
        從內(nèi)到外,看懂無人機
        南都周刊(2021年3期)2021-04-22 16:43:49
        會變形的人形機器人
        新型拼插休閑椅,讓人與人的距離更近
        好日子(2018年5期)2018-05-30 16:24:04
        “人機大戰(zhàn)”人類智慧遭遇強敵
        海外星云(2016年7期)2016-12-01 04:17:50
        抓拍神器
        未來深空探測中的人機聯(lián)合探測
        太空探索(2016年5期)2016-07-12 15:17:58
        第16集 人形手機
        中文字幕免费在线观看动作大片| 国产精品久久久亚洲第一牛牛| 亚洲国产日韩av一区二区 | 亚洲色成人网站www永久| 国产精品99久久久久久宅男| 久久久亚洲精品蜜桃臀| 精品日韩在线观看视频| 亚洲国产av无码精品无广告| 国产精品无圣光一区二区| 国产精品久久码一区二区| 在线视频亚洲一区二区三区| 变态另类人妖一区二区三区| 无码少妇精品一区二区免费动态 | 99re国产电影精品| 亚洲av综合av国一区二区三区 | 日产无人区一线二线三线乱码蘑菇| 欧美精品在线一区| 中国女人内谢69xxxx免费视频| 亚洲国产综合人成综合网站| 国产西西裸体一级黄色大片| 日本av天堂一区二区三区| 色婷婷五月综合久久| 日韩欧美一区二区三区中文精品| 亚洲成片在线看一区二区| 伊人加勒比在线观看视频| 精品久久久久久无码人妻热| 毛片毛片免费看| 美女被搞在线观看一区二区三区| 夜夜爽夜夜叫夜夜高潮| 久久综合久久鬼色| 久久久久久久久国内精品影视| 蜜桃夜夜爽天天爽三区麻豆av| 久久久中文久久久无码| 國产一二三内射在线看片| 亚洲视频一区二区久久久| 国产av精品一区二区三区久久| 中文日韩亚洲欧美制服| 无码在线观看123| 日本av一区二区在线| 国产综合久久久久久鬼色| 国产乱视频|