亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能致?lián)p的責(zé)任主體認(rèn)定與責(zé)任分擔(dān)

        2025-04-16 00:00:00鄭海蓉
        關(guān)鍵詞:侵權(quán)責(zé)任人工智能

        [摘 要]目前,學(xué)界對(duì)于人工智能致人損害的責(zé)任承擔(dān)主體的看法尚不統(tǒng)一,但就其本質(zhì)而言,人工智能的“自主性”乃技術(shù)性的數(shù)據(jù)和算法的驅(qū)動(dòng),人工智能只能是人類的工具,不能成為法律主體。而且,人工智能發(fā)生致人損害行為時(shí),并不能辨別其行動(dòng)之于法律責(zé)任上的意義,不具備責(zé)任能力,故應(yīng)由人類為其致?lián)p行為承擔(dān)侵權(quán)責(zé)任。參考谷歌旗下的深度思維公司對(duì)通用人工智能的五層分級(jí)標(biāo)準(zhǔn)以及其以人類與通用人工智能活動(dòng)的交互程度為定義的自主性分級(jí)標(biāo)準(zhǔn),人類承擔(dān)侵權(quán)責(zé)任的范圍也應(yīng)有所區(qū)別。當(dāng)人工智能的自主性程度處于第一級(jí)與第二級(jí)水平時(shí),由人類承擔(dān)全部的侵權(quán)責(zé)任;當(dāng)人工智能的自主性程度處于第三級(jí)及以上時(shí),人類作為責(zé)任主體,可主張責(zé)任的減輕。責(zé)任主體可減輕的責(zé)任可通過保險(xiǎn)制度對(duì)受害人進(jìn)行全面救濟(jì),以在緩解責(zé)任主體的責(zé)任負(fù)擔(dān)的同時(shí),有效促進(jìn)人工智能技術(shù)的發(fā)展。

        [關(guān)鍵詞]人工智能;責(zé)任主體;侵權(quán)責(zé)任;責(zé)任能力;保險(xiǎn)

        [中圖分類號(hào)]D923 [文獻(xiàn)標(biāo)識(shí)碼]A [文章編號(hào)]1671-8372(2025)01-0070-09

        The liability subject identification and allocation of liability for damages caused by

        artificial intelligence

        ZHENG Hai-rong

        (School of Law,Xiamen University,Xiamen 361005,China)

        Abstract:At present,the academic community’s views on the liability subject for the damage caused by artificial intelligence(AI)are not consistent. In terms of its essence,the“autonomy”of AI is driven by technical data and algorithms;and only a tool for human beings,it cannot become a legal subject. Moreover,when artificial intelligence causes damage to people,it cannot distinguish the meaning of its actions in terms of legal liability,and does not have the ability to take the responsibility. Therefore,it should be human beings who bear tort liability for its damage. With reference to Google DeepMind’s five-tier classification standard for general AI and its autonomy rating criteria defined by the degree of human interaction with general AI actives,the scope of human liability for infringement should also be different. When the degree of autonomy of AI is at the first level and the second level,human beings bear all the tort liability. When the degree of autonomy of AI is at the third level and above,human beings,as the subject of liability,can claim the reduction of liability. The relievable liability of the liability subject can provide comprehensive remedy to the victim through the insurance system,so as to alleviate the liability burden of the liability subject and effectively promote the development of AI technology.

        Key words:artificial intelligence(AI);liability subject;tort liability;liability capacity;insurance

        一、引言

        隨著人工智能技術(shù)的日新月異,人工智能致人損害的責(zé)任主體認(rèn)定與責(zé)任承擔(dān)成為學(xué)界探討與反思的議題。其一,是緣于人工智能的自主性特征不斷增強(qiáng),加劇了人工智能致人損害的風(fēng)險(xiǎn)。例如,生成式人工智能技術(shù)基于Transformer[1]架構(gòu),通過經(jīng)驗(yàn)學(xué)習(xí)和技術(shù)性模仿,從生成到創(chuàng)造層面對(duì)人類的“超模擬”[2],就是人工智能強(qiáng)大的自主性特征之表現(xiàn)。因?yàn)檫@樣的生成式技術(shù)很可能產(chǎn)生諸如偏見、虛假信息、過度依賴、隱私安全、網(wǎng)絡(luò)安全、技術(shù)擴(kuò)散等風(fēng)險(xiǎn)[3]。實(shí)踐中,已有許多人工智能侵權(quán)案件被訴至法院①,人工智能致人損害風(fēng)險(xiǎn)已然成為現(xiàn)實(shí),亟待法律加以規(guī)范。其二,是因?yàn)槿斯ぶ悄芗夹g(shù)的發(fā)展必然伴隨著法律規(guī)范、安全監(jiān)管等保障措施的建立。侵權(quán)責(zé)任規(guī)范作為人工智能致人損害的事后救濟(jì)手段,不僅能維護(hù)受害人的權(quán)益,促使人工智能技術(shù)朝著更為安全、可信賴的方向發(fā)展,還是實(shí)現(xiàn)我國(guó)在《全球人工智能治理倡議》[4]中提倡的“打造可審核、可監(jiān)督、可追溯、可信賴的人工智能技術(shù)”及“明確人工智能相關(guān)主體的責(zé)任和權(quán)力邊界,充分尊重并保障各群體合法權(quán)益”之目標(biāo)的重要保障。早在2017年國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》之戰(zhàn)略目標(biāo)中,我國(guó)就明確指出,到2025年要“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”,并最終“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”。該規(guī)劃明確提出,在法律法規(guī)方面應(yīng)“開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”。

        目前,我國(guó)尚未有人工智能的基礎(chǔ)性法律,為妥當(dāng)分配人工智能致人損害帶來的風(fēng)險(xiǎn)和責(zé)任,亟需明確人工智能致人損害的責(zé)任主體與責(zé)任邊界[5]。首先,應(yīng)探明人工智能的法律地位,厘定其是否享有法律主體資格。因?yàn)槿斯ぶ悄苁欠窬哂蟹芍黧w資格將直接影響到人工智能致人損害是由人工智能自身還是由其他主體來承擔(dān)責(zé)任的問題[6]。然而,既有研究主要從權(quán)利義務(wù)、自主意識(shí)、現(xiàn)實(shí)考量、與法人制度的對(duì)比等角度考量人工智能是否為法律主體[7-10],較少據(jù)此引申出關(guān)于人工智能是否具備責(zé)任能力的探討。而這正是責(zé)任主體認(rèn)定的關(guān)鍵因素。原因在于,權(quán)利義務(wù)、自由意志等要素僅為主體是否有資格參與民事活動(dòng)的判斷標(biāo)準(zhǔn),欲使法律主體獨(dú)立承擔(dān)侵權(quán)責(zé)任,還應(yīng)確保其具備責(zé)任能力。其次,應(yīng)基于人工智能的分級(jí),區(qū)分主體的歸責(zé)原則與責(zé)任承擔(dān)方式。隨著科學(xué)技術(shù)的迅猛發(fā)展,人工智能在性能、通用性、自主性等方面的差異及變化越來越大,極易導(dǎo)致法律調(diào)整的對(duì)象存在極大的不確定性,尤其是對(duì)于其中的風(fēng)險(xiǎn)種類和程度難以有效預(yù)見[11],若僅適用單一的歸責(zé)原則或責(zé)任分擔(dān)規(guī)則,可能無法有效應(yīng)對(duì)未來不確定性極強(qiáng)的人工智能致人損害的后果,而法律也必將面臨包容性、適應(yīng)性不足的困境,甚至出現(xiàn)頻繁修改法律的局面。因此,應(yīng)以人工智能的分級(jí)為依據(jù),區(qū)分主體的歸責(zé)原則與責(zé)任承擔(dān)方式,積極應(yīng)對(duì)未來不確定性程度極高的人工智能發(fā)展的需求。為此,本文將通過前提厘定,探討人工智能的法律地位,探究人工智能的自主性特征的本質(zhì),并以人工智能是否具備責(zé)任能力的探討為基礎(chǔ),對(duì)人工智能致人損害的責(zé)任認(rèn)定進(jìn)行分級(jí),構(gòu)造人工智能致人損害的責(zé)任主體認(rèn)定與責(zé)任分擔(dān)體系,以助力實(shí)現(xiàn)人工智能技術(shù)的發(fā)展與私法權(quán)益的保障之雙重目標(biāo)。

        二、前提厘定:人工智能不享有法律主體資格

        伴隨人工智能自主性程度的不斷提高,學(xué)界對(duì)于能否賦予人工智能法律主體資格尚未有一致的看法。有學(xué)者主張,應(yīng)當(dāng)賦予人工智能法律主體資格,使其對(duì)自己致人損害的風(fēng)險(xiǎn)獨(dú)立承擔(dān)法律后果[12]。但是,也有學(xué)者指出,人工智能并未有自由意志,其出現(xiàn)之初就被賦予了全然工具性的意義,只能服務(wù)于人類的某些特定目的[13],不能以法律主體身份獨(dú)立承擔(dān)責(zé)任。為此,意欲探究人工智能致人損害的責(zé)任主體,唯有厘定人工智能的法律地位,方能厘清人工智能的自主性特征之本質(zhì),從而為人工智能致人損害的責(zé)任認(rèn)定與承擔(dān)厘定必要的前提。

        (一)自主性辨別:人工智能法律主體資格之爭(zhēng)

        “傳統(tǒng)民法上的權(quán)利能力制度主要發(fā)揮著抽象的主體資格賦予功能,”[14]而對(duì)于法律主體資格的探討,實(shí)際上就是對(duì)權(quán)利能力的探討。一般而言,權(quán)利能力指的是“成為權(quán)利和義務(wù)載體的能力”[15],亦即基于權(quán)利能力制度,可以向一個(gè)人分配權(quán)利和義務(wù)[16]。根據(jù)學(xué)界的普遍觀點(diǎn),只要有能力認(rèn)知法律秩序并在法律秩序范圍內(nèi)自由決定其行動(dòng)的人,就能成為法律主體[17]。那么,人工智能是否有資格享有權(quán)利并承擔(dān)義務(wù)?是否有能力認(rèn)知法律秩序并在法律秩序范圍內(nèi)自由決定其行動(dòng)?對(duì)此,法學(xué)界尚未達(dá)成一致的觀點(diǎn)。否定說認(rèn)為人工智能不能成為法律主體,肯定說認(rèn)為人工智能具備法律主體資格,折中說則主張應(yīng)根據(jù)不同情況賦予人工智能法律主體地位。

        具體而言,肯定說觀點(diǎn)從人工智能具備人的意識(shí)、能自主進(jìn)行人類活動(dòng)的角度,主張應(yīng)當(dāng)賦予人工智能法律主體資格。該觀點(diǎn)認(rèn)為,人工智能借助神經(jīng)網(wǎng)絡(luò)進(jìn)行深度學(xué)習(xí),可以獨(dú)立收集和分析信息,自主解決既定的問題,具有一定程度的自由意識(shí)和自由意志,故在人工智能造成他人損害時(shí),可以由設(shè)計(jì)、生產(chǎn)、設(shè)備提供者和使用者共同購(gòu)買的保險(xiǎn)或建立的基金來承擔(dān)賠償責(zé)任[18]。由此,也有學(xué)者主張賦予人工智能國(guó)際法律人格身份,并認(rèn)為制定信息和通信系統(tǒng)的國(guó)際法律監(jiān)管規(guī)范的關(guān)鍵之一是承認(rèn)人工智能國(guó)際法律人格身份[19]。另外,歐洲議會(huì)向民法規(guī)則委員會(huì)也提出給予具有自主性的機(jī)器人電子人格身份的建議,旨在使之能夠?yàn)槠渥陨砜赡茉斐傻娜魏螕p害負(fù)責(zé)[20]。

        否定說主要從人工智能的技術(shù)性本質(zhì)出發(fā),論證人工智能不具備人的“意志”或“意識(shí)”。依否定說的觀點(diǎn),人工智能的自主性程度取決于機(jī)器被設(shè)計(jì)出的可以與其環(huán)境進(jìn)行交互的復(fù)雜程度,該“自主性”只具有純技術(shù)的本質(zhì)[20],并不能使人工智能具備人的意識(shí)、目的、意志、理性等根本要素[21],而且人工智能既無法理解相應(yīng)法律的行止要求而被法律所調(diào)整,也不能理解財(cái)產(chǎn)之于自身的意義,只能通過被賦予法律人格才能達(dá)到責(zé)任限定效果,并不符合正義的基本要求[21]。因此,否定說認(rèn)為,宜否定人工智能擁有獨(dú)立于人的“意識(shí)”,將其定位為法律客體而非法律主體,使其成為服務(wù)人類發(fā)展的“工具”,這樣才有助于最大限度地提高人工智能的社會(huì)效益[22]。

        折中說認(rèn)為,應(yīng)根據(jù)人工智能的全部活動(dòng)和狀態(tài),以場(chǎng)域?yàn)閱挝贿M(jìn)行拆分,以此來確定人工智能是否具備法律主體資格。理由是,在智能化場(chǎng)域下,人工智能能夠以自身智能完成一定的人類行為而享有法律主體資格,理應(yīng)受法律約束。但在非智能化場(chǎng)域下,人工智能因不具有智能能力,故其僅為物,不能成為侵權(quán)主體[23]。

        這三種觀點(diǎn)均有一定的合理之處,但由于法律主體是法律及其構(gòu)建的法治秩序中的一個(gè)基本范疇,是承載法的人格人,具備目的性和自律性[24]。因此,人工智能是否具備法律主體的這些屬性,是否具備人的自主意識(shí),還須透過現(xiàn)象看本質(zhì),而某一事物的本質(zhì)特征則往往通過對(duì)其定義的方式加以體現(xiàn)。

        (二)實(shí)質(zhì)探究:人工智能自主性的數(shù)據(jù)與算法本質(zhì)

        當(dāng)前,有關(guān)人工智能的定義尚未統(tǒng)一,但大多數(shù)學(xué)者傾向于人工智能是“創(chuàng)建一個(gè)智能運(yùn)行的計(jì)算機(jī)程序”或“創(chuàng)建一個(gè)可以模仿人類行為的計(jì)算機(jī)程序”[25]。也就是說,人工智能是制造智能機(jī)器的科學(xué)和工程,是計(jì)算機(jī)系統(tǒng)對(duì)人類智能過程的模擬,包括學(xué)習(xí)、推理、計(jì)劃制定、自我糾正、問題解決、知識(shí)表達(dá)、感知、運(yùn)動(dòng)、操縱和創(chuàng)造[26]。人工智能不同于傳統(tǒng)的計(jì)算機(jī)算法,它能夠在過往數(shù)據(jù)上進(jìn)行數(shù)據(jù)擬合[27],這一特點(diǎn)使其能夠借鑒歷史的執(zhí)行動(dòng)作,在相似的條件下采取合理的行動(dòng)。這也意味著人工智能具備一定的自主性。基于人工智能的自主性特征,有些情況下人類只是有限地參與人工智能的決策,例如汽車的輔助駕駛模式(要求駕駛員參與駕駛過程);有些情況下,人類可能根本不參與人工智能的決策,例如高頻交易算法(無需人類參與其活動(dòng)),等等。除了自主性特征以外,人工智能內(nèi)部算法的復(fù)雜性、自適應(yīng)性和推理過程的隨機(jī)性,也使得人工智能在決策過程中具備了復(fù)雜性和不可預(yù)測(cè)性特征[28]。

        人工智能基于自主性特征而作出的不可預(yù)測(cè)的行動(dòng),與人類依自由意志與自主意識(shí)而作出的行為,在一定程度上有共通之處。自主意識(shí)內(nèi)含人的意識(shí)、目的、意志、理性等要素。雖然人工智能能夠模擬人類智能作出看似自主性的行動(dòng),但其并未具有獨(dú)立的自主意識(shí),甚至不具備自我意識(shí)。沒有自我意識(shí),即不可能存在自主意識(shí)。自我意識(shí)(self-awareness or self-consciousness)的本質(zhì)是“我意識(shí)到自己的存在”“我與世界上的任何事物都不同”以及“如果我死了,那么我的自我和我周圍的世界將永遠(yuǎn)消失”[29]而唯有理解自我的存在需要,才使人類擁有內(nèi)省和反思的智能能力[29]。因此,自我意識(shí)是對(duì)主觀自我存在的意識(shí),而主觀自我(subjective-self)則是一種內(nèi)在的心理現(xiàn)象。就特定人而言,具備主觀自我,即為其意識(shí)到這世上只有一個(gè)自我,并且主觀自我及自我意識(shí)無法被復(fù)制[30]。在人工智能領(lǐng)域,即使是最為顯著的大語(yǔ)言模型,也僅是通過角色扮演(role play)的形式來模仿人類行為,以滿足人類的不同需求[31]。而大語(yǔ)言模型的不同角色扮演,則意味著其存在多個(gè)可被復(fù)制的“自我”,這就表明該“自我”只能是外在的客觀表現(xiàn)。因?yàn)樗痪邆渲饔^自我的唯一性與不可復(fù)制性特征。也就是說,雖然人工智能可以通過編程來模仿人類的多種意識(shí),但唯有自我意識(shí)無法被編程 [30]。

        據(jù)此,人工智能雖然能夠在過往的數(shù)據(jù)上進(jìn)行數(shù)據(jù)擬合,并可借鑒歷史的執(zhí)行動(dòng)作發(fā)展自己的行為,且具備一定的自主性與不可預(yù)測(cè)性,但其自主性特征在本質(zhì)上只是一種源于算法程序的機(jī)械意志,而非心理認(rèn)知意義上的自由意志[24]。這就意味著人工智能無法理解其自身行為的真正含義。例如,能通過分析人類圍棋比賽記錄,并從中學(xué)習(xí)策略和棋路的AlphaGo[32]。盡管AlphaGo在圍棋領(lǐng)域所向披靡,但因不能理解圍棋及對(duì)弈過程所代表的意義,也就無法以主觀自我的意識(shí)獨(dú)立思考,所以它只能是為了求勝而制作出的超級(jí)運(yùn)算工具[21]。即使未來可能出現(xiàn)的人工智能超過人類的通用人工智能,但因同樣依賴于數(shù)據(jù)和算法的驅(qū)動(dòng),所以無論其自主性程度多高,也只能是人類的工具[30]。

        綜上可知,私法主體資格的權(quán)利能力,不僅蘊(yùn)含可以被實(shí)證法確認(rèn)或否定的技術(shù)屬性,也內(nèi)含著以自然法為基礎(chǔ)的人性尊嚴(yán)的倫理價(jià)值[33]。而人工智能則不具備自我意識(shí)與主觀自我,無法意識(shí)到自己是唯一的存在,既難以理解權(quán)利義務(wù)規(guī)范的內(nèi)在邏輯及其對(duì)法律秩序的規(guī)范意義,也未能在法律秩序范圍內(nèi)以自由意志獨(dú)立作出行為。在此意義上,人工智能不具備人格尊嚴(yán)的內(nèi)涵,缺乏目的性與自律性,不能成為權(quán)利和義務(wù)的載體。因此,不應(yīng)該賦予人工智能權(quán)利能力。

        值得一提的是,有觀點(diǎn)類比未有人的“意識(shí)”卻也能被擬制為法律主體的法人制度,進(jìn)而主張將人工智能擬制為法律主體[34]。這一觀點(diǎn)也值得商榷。原因在于,法人的本質(zhì)是國(guó)家與市場(chǎng)協(xié)作的結(jié)果,自然人仍是法人組織的現(xiàn)實(shí)存在[35],具備獨(dú)立意志、目的性和自律性。因此,賦予法人法律主體地位并不違背權(quán)利能力體系的內(nèi)在邏輯,而人工智能作為人類活動(dòng)的工具,始終以人類需求為目的,只能處于法律客體地位。

        三、基礎(chǔ)奠定:人工智能欠缺責(zé)任能力

        人工智能不具備權(quán)利能力,不但從根本上否定了人工智能的法律主體地位,也直接否定了其成為責(zé)任主體的可能。不過,正如動(dòng)物雖不享有法律主體資格但其確實(shí)能致人損害的事實(shí),人工智能侵權(quán)在現(xiàn)實(shí)中也時(shí)有發(fā)生,尤其是在未來,通用人工智能以人類無法預(yù)測(cè)的方式致人損害的可能性將持續(xù)存在,屆時(shí)將面臨人工智能致人損害的責(zé)任承擔(dān)主體之現(xiàn)實(shí)問題。況且,即便是人工智能具備權(quán)利能力,享有法律主體資格,也應(yīng)從責(zé)任能力層面對(duì)其能否獨(dú)立承擔(dān)侵權(quán)責(zé)任加以探究。原因在于侵權(quán)責(zé)任的承擔(dān)須以具備責(zé)任能力為前提。為此,除了在權(quán)利能力層面探究人工智能是否具備享有權(quán)利和負(fù)擔(dān)義務(wù)的資格之外,有必要對(duì)人工智能是否具備責(zé)任能力加以探討,以此奠定人工智能致人損害的責(zé)任認(rèn)定與劃分的邏輯根基與規(guī)范基礎(chǔ)。

        (一)人工智能不具備識(shí)別能力

        在比較法上,關(guān)于自然人責(zé)任能力的判斷有不同的標(biāo)準(zhǔn)。譬如,日本及我國(guó)臺(tái)灣地區(qū)以識(shí)別能力作為責(zé)任能力的判斷標(biāo)準(zhǔn),荷蘭法采年齡標(biāo)準(zhǔn),德國(guó)法采“年齡+識(shí)別能力”標(biāo)準(zhǔn)[36]。受1922年制定的《蘇俄民法典》的影響,我國(guó)對(duì)于責(zé)任能力的判斷采廣義行為能力標(biāo)準(zhǔn),即“行為人是否具有責(zé)任能力,取決于其有無相應(yīng)的行為能力:有行為能力即有責(zé)任能力,無行為能力即無責(zé)任能力,限制行為能力人也有責(zé)任能力”[36]。在我國(guó),民事行為能力的劃分以年齡和識(shí)別能力為標(biāo)準(zhǔn),分為無民事行為能力人、限制民事行為能力人和完全民事行為能力人。因無民事行為能力人、限制民事行為能力人未達(dá)到一定的年齡或缺乏相應(yīng)的識(shí)別能力,故其無法對(duì)造成他人損害的事實(shí)獨(dú)立承擔(dān)侵權(quán)責(zé)任。也就是說,非完全民事行為能力人無責(zé)任能力。實(shí)際上,無論是以年齡還是識(shí)別能力作為責(zé)任能力有無的判斷標(biāo)準(zhǔn),目的均在于確定行為人是否具備“過錯(cuò)能力”,即在邏輯上應(yīng)先肯定加害人有責(zé)任能力,才能認(rèn)定其有無故意或過失[37]。因?yàn)?,只有具備?zé)任能力的行為人,才有主觀可歸責(zé)性之可能,也才能對(duì)損害后果負(fù)擔(dān)侵權(quán)責(zé)任。

        基于此,人工智能是否具備責(zé)任能力,能否形成主觀過錯(cuò),是判斷其能否獨(dú)立承擔(dān)侵權(quán)責(zé)任的決定性因素。就年齡來說,因人工智能不存在自然人的生理特性,故年齡因素在此不作為考量因素。就識(shí)別能力而言,通說認(rèn)為識(shí)別能力是足以辨別自己的行為在法律上應(yīng)負(fù)某種責(zé)任之能力[38]。如前述,盡管人工智能具備自主性特征,能以看似自主的方式作出一定的行動(dòng),但該自主性本質(zhì)上是一種源于算法程序的機(jī)械意志,人工智能實(shí)際上并不具備辨別自己的行為在法律上應(yīng)負(fù)某種責(zé)任的能力。例如,無人自動(dòng)駕駛汽車在面對(duì)交警實(shí)施交通管制時(shí),無法識(shí)別和理解這一管制的內(nèi)涵,與交警的管制背道而馳,進(jìn)而在綠燈亮起時(shí)以正常速度行駛,最終導(dǎo)致交通事故[39]。這表明,無人自動(dòng)駕駛汽車缺乏辨別違背交通管制可能產(chǎn)生的后果及應(yīng)承擔(dān)某種法律責(zé)任的能力。又如,在1981年,一家日本摩托車工廠的日本員工被人工智能機(jī)器人殺死,原因?yàn)樵摍C(jī)器人錯(cuò)誤地將該員工識(shí)別為危險(xiǎn)因素,并計(jì)算出消除這種危險(xiǎn)的最有效方法是將其推到相鄰的操作機(jī)器上,最終導(dǎo)致該員工當(dāng)場(chǎng)死亡,而人工智能機(jī)器則繼續(xù)工作[40]。無獨(dú)有偶,韓國(guó)一家農(nóng)產(chǎn)品中心的工作人員被機(jī)器人誤以為是一箱甜椒而被機(jī)械臂放置于傳輸帶上,該員工最終遭受擠碎而死亡[41]。在未來,即使人工智能的智能水平可能與人類相當(dāng),甚至超過人類,但其在本質(zhì)上也僅為技術(shù)層面的數(shù)據(jù)和算法運(yùn)算邏輯,故不能真正辨別自身的行動(dòng)之于人類社會(huì)、法律規(guī)范及法律秩序的意義。也就是說,人工智能本身無法被法律所調(diào)整,法律的強(qiáng)制、指引、教育、評(píng)價(jià)及預(yù)防功能對(duì)人工智能無法起作用。在這意義上,人工智能顯然不具備責(zé)任能力。

        (二)傳統(tǒng)侵權(quán)責(zé)任主體認(rèn)定之于人工智能侵權(quán)的參考

        既然人工智能作為人類活動(dòng)的延伸,乃人類實(shí)現(xiàn)自身目的的工具性手段,不具備法律主體資格與責(zé)任能力,無法形成主觀過錯(cuò)及獨(dú)立承擔(dān)法律后果,那么在人工智能造成他人損害時(shí),就應(yīng)一律由人類來承擔(dān)侵權(quán)責(zé)任。在我國(guó)司法實(shí)務(wù)中,法院也通常著眼于現(xiàn)行法規(guī)范,將人工智能作為法律客體進(jìn)行調(diào)整。例如,上海某公司在利用人工智能侵害他人肖像權(quán)、姓名權(quán)、一般人格權(quán)一案中①,法院認(rèn)為,該公司作為網(wǎng)絡(luò)內(nèi)容服務(wù)提供者,應(yīng)對(duì)用戶自行創(chuàng)設(shè)“AI陪伴者”而造成他人人格權(quán)損害的行為承擔(dān)侵權(quán)責(zé)任。又如,北京某律師事務(wù)所訴北京某科技公司關(guān)于人工智能生成內(nèi)容侵害他人著作權(quán)案件②,法院認(rèn)為人工智能生成的內(nèi)容不構(gòu)成作品,軟件研發(fā)者(所有者)和使用者均不能以作者身份進(jìn)行署名,否則即構(gòu)成侵權(quán)。

        由此可見,當(dāng)前人類對(duì)人工智能活動(dòng)的參與程度較大,有能力控制人工智能的行動(dòng),適用現(xiàn)行法規(guī)可以有效解決當(dāng)前部分人工智能致人損害的問題。然而,不可否認(rèn)的是,隨著科學(xué)技術(shù)的不斷發(fā)展,人工智能的自主性與不可預(yù)測(cè)性特征將愈發(fā)顯著,人類干預(yù)人工智能活動(dòng)的作用力也將隨之降低,例如,人類目前對(duì)ChatGPT的輸出內(nèi)容已不能完全控制。

        為此,有必要找尋人工智能致人損害的責(zé)任主體認(rèn)定與責(zé)任承擔(dān)方法,以此為具體的責(zé)任規(guī)則適用提供一般性的指引。類比我國(guó)為他人行為負(fù)責(zé)的責(zé)任及飼養(yǎng)動(dòng)物損害責(zé)任的相關(guān)法律法規(guī),可為人工智能致?lián)p的責(zé)任主體認(rèn)定與責(zé)任承擔(dān)提供一般性的指引。為他人行為負(fù)責(zé)的責(zé)任意指責(zé)任人自己沒有直接實(shí)施侵權(quán)行為,但要對(duì)他人致?lián)p的后果承擔(dān)侵權(quán)責(zé)任[42]。如用人單位對(duì)工作人員因執(zhí)行工作任務(wù)而造成他人損害的后果負(fù)責(zé),監(jiān)護(hù)人對(duì)無民事行為能力人、限制民事行為能力人致人損害的后果負(fù)責(zé),等等。責(zé)任人之所以要對(duì)他人的行為后果負(fù)責(zé),原因在于責(zé)任主體未能對(duì)行為人履行正確的選任、監(jiān)督、管教或控制義務(wù),未能阻止行為人實(shí)施侵權(quán)行為,由此導(dǎo)致了損害結(jié)果的發(fā)生[43]。與之類似的是飼養(yǎng)動(dòng)物損害責(zé)任。飼養(yǎng)動(dòng)物損害責(zé)任指的是動(dòng)物飼養(yǎng)人、管理人或動(dòng)物園應(yīng)對(duì)動(dòng)物致人損害的后果負(fù)責(zé)。動(dòng)物的固有風(fēng)險(xiǎn)具有不可預(yù)測(cè)性,而動(dòng)物飼養(yǎng)人、管理人或動(dòng)物園作為這一風(fēng)險(xiǎn)的控制主體,顯然負(fù)有監(jiān)管、管理等義務(wù)來避免動(dòng)物致人損害的后果發(fā)生。

        相應(yīng)地,人工智能作為人類活動(dòng)的一種輔助工具,具備一定的自主性與不可預(yù)測(cè)性特征,可能產(chǎn)生損害后果,人類對(duì)此應(yīng)負(fù)有相應(yīng)義務(wù)來預(yù)防人工智能致人損害的結(jié)果發(fā)生,否則就應(yīng)當(dāng)對(duì)損害后果負(fù)責(zé)③。當(dāng)人類違反相應(yīng)義務(wù)而承擔(dān)責(zé)任時(shí),應(yīng)當(dāng)在多大程度上為人工智能致人損害的后果承擔(dān)責(zé)任,需要以人類參與人工智能活動(dòng)的程度作為考量因素。原因在于,當(dāng)人類參與人工智能活動(dòng)的程度較大時(shí),適用人格權(quán)侵權(quán)、著作權(quán)侵權(quán)、產(chǎn)品責(zé)任、網(wǎng)絡(luò)侵權(quán)責(zé)任等現(xiàn)行法規(guī)就能有效解決人工智能致?lián)p的問題。因?yàn)榇祟惱萌斯ぶ悄軐?shí)施的侵權(quán)行為與人類實(shí)施的其他致人損害的行為在性質(zhì)上并無二致,其所不同的是侵權(quán)工具或手段發(fā)生了變化而已。當(dāng)人類參與人工智能活動(dòng)的程度較小,甚至不直接參與人工智能的活動(dòng)時(shí),人工智能的自主性特征更強(qiáng),適用現(xiàn)行法規(guī)可能無法正確認(rèn)定責(zé)任主體與劃分責(zé)任,因此可參照飼養(yǎng)動(dòng)物責(zé)任的規(guī)定,對(duì)人工智能致?lián)p的責(zé)任作出認(rèn)定與劃分。

        四、人工智能侵權(quán)責(zé)任主體認(rèn)定與責(zé)任分擔(dān)的方法與路徑

        人類應(yīng)在多大程度上對(duì)人工智能致人損害的后果負(fù)責(zé),取決于人類參與人工智能活動(dòng)的程度。而人類與人工智能的交互程度之判斷,則依賴于人工智能的等級(jí)劃分與自主性水平差異。

        (一)基于性能、通用性與自主性的人工智能分級(jí)

        谷歌旗下的深度思維公司(Google DeepMind)于2023年11月4日發(fā)布了通用人工智能的分級(jí)標(biāo)準(zhǔn),主要是從性能及通用性角度對(duì)通用人工智能進(jìn)行分級(jí)[44]。其中,性能指的是人工智能系統(tǒng)能力的深度,即其在特定任務(wù)上的表現(xiàn)效果。而通用性則指的是人工智能系統(tǒng)能力的廣度,即人工智能系統(tǒng)覆蓋的任務(wù)范圍。從性能來看,分為一到五級(jí)的水平,包括第一級(jí)“涌現(xiàn)”(emerging)、第二級(jí)“勝任”(competent)、第三級(jí)“專家”(expert)、第四級(jí)“大師”(virtuoso)和第五級(jí)“超人類”(superhuman)。從通用性來看,有狹義與通用的區(qū)分,狹義指的是人工智能只能處理特定的任務(wù),而通用則指的是人工智能能夠處理廣泛的任務(wù)。于是,結(jié)合第一級(jí)至第五級(jí)的性能邊界與通用范疇,通用人工智能可分為五個(gè)層級(jí)。在“涌現(xiàn)”級(jí)別中,人工智能的性能相當(dāng)或一定程度上高于一般人類的水平。在該級(jí)別中,通用人工智能已出現(xiàn),如OpenAI發(fā)布的ChatGPT,其在文本分類、理解、翻譯等多個(gè)任務(wù)中,均表現(xiàn)出不凡的性能。而在其余的第二級(jí)至第五級(jí)中,受通用性的影響,通用人工智能均未出現(xiàn)。不過,達(dá)到該性能水平的狹義人工智能均已出現(xiàn),且將各個(gè)級(jí)別的性能定義為:在“勝任”級(jí)別中,人工智能的性能水平超過領(lǐng)域內(nèi)50%的人員,如蘋果公司(Apple Inc)的Siri、谷歌助理,等等;在“專家”級(jí)別中,人工智能的性能水平超過領(lǐng)域內(nèi)90%的人員,如生成式圖像模型Imagen;在“大師”級(jí)別中,人工智能的性能水平超過領(lǐng)域內(nèi)99%的人員,如國(guó)際商業(yè)機(jī)器公司(IBM)的超級(jí)計(jì)算機(jī)“深藍(lán)”(Deep Blue)以及AlphaGo;在第五級(jí)別“超人類”中,人工智能的性能水平超過領(lǐng)域內(nèi)100%的人員,如AlphaFold、AlphaZero及StockFish。以AlphaFold為例,其在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)任務(wù)上,以極大優(yōu)勢(shì)打敗了所有的結(jié)構(gòu)生物學(xué)家。

        不同級(jí)別的人工智能隱含著不同的風(fēng)險(xiǎn),決定著人類與人工智能的交互程度差異,同時(shí)也反映了人工智能的自主性水平。針對(duì)人工智能的自主性水平差異,谷歌旗下的深度思維公司也進(jìn)行了五級(jí)劃分[44]。第一級(jí)的人工智能作為工具,完全由人類來控制,包括前述“涌現(xiàn)”及“勝任”級(jí)別中的狹義人工智能。在第二級(jí)別中,人工智能作為人類活動(dòng)的顧問,只在人類啟用時(shí)才能發(fā)揮實(shí)質(zhì)性的作用,包括“勝任”和“專家”級(jí)別中的狹義人工智能,以及“涌現(xiàn)”級(jí)別中的通用人工智能。在第三級(jí)別中,人工智能作為合作者,與人類平等協(xié)作,包括“涌現(xiàn)”和“勝任”級(jí)別中的通用人工智能,以及“專家”級(jí)別的狹義人工智能。在第四級(jí)別中,人工智能作為專家,能夠主導(dǎo)與人類的交互,但人類仍然會(huì)進(jìn)行任務(wù)監(jiān)督,包括“大師”級(jí)別的狹義人工智能和“專家”級(jí)別中的通用人工智能。在第五級(jí)別中,人工智能作為代理,是完全獨(dú)立自主的運(yùn)行載體,該過程無任何人類活動(dòng)參與,包括“大師”與超人類級(jí)別的通用人工智能。

        盡管上述的分級(jí)是從性能、通用性及自主性角度對(duì)通用人工智能進(jìn)行的劃分,但這三個(gè)標(biāo)準(zhǔn)實(shí)則也是狹義人工智能邁向通用人工智能的決定性要素。因?yàn)橥ㄓ萌斯ぶ悄艿姆旨?jí),反映了人工智能從低級(jí)別到高級(jí)別的性能、通用性及自主性上的變化情況,體現(xiàn)了人工智能的“智能”深度及其與人類的“交互”程度,所以能夠?yàn)樨?zé)任主體應(yīng)在多大程度上為人工智能致?lián)p的法律后果負(fù)責(zé)提供合理的判斷標(biāo)準(zhǔn)。因而可以說人工智能的智能深度及其與人類的交互程度,是判斷人類這一責(zé)任主體之于損害后果的過錯(cuò)程度與原因力大小的關(guān)鍵因素。

        (二)人工智能分級(jí)下侵權(quán)責(zé)任主體的認(rèn)定與責(zé)任分擔(dān)方法

        依據(jù)性能及通用性的分級(jí)取決于人工智能作出行動(dòng)的能力,自主性分級(jí)則取決于人工智能作出的行動(dòng)是否以及在多大程度上有人類的參與,二者在一定程度上共同決定著人工智能造成他人損害的風(fēng)險(xiǎn)程度以及人類需要承擔(dān)侵權(quán)責(zé)任的可能性及負(fù)擔(dān)的比例。

        具體而言,當(dāng)人工智能的自主性水平處于第一級(jí)時(shí),人工智能作為人類達(dá)成目的的工具,完全受人類控制,無論是意外事件、偶然事件還是故意的行為,人工智能濫用的風(fēng)險(xiǎn)更多來源于人類的行為[44]。因此,若人工智能造成了他人損害的后果,毫無疑問應(yīng)當(dāng)由人類承擔(dān)侵權(quán)責(zé)任。

        當(dāng)人工智能的自主性水平處于第二級(jí)時(shí),人工智能成為人類活動(dòng)的顧問,需要人類啟用才能發(fā)揮實(shí)質(zhì)性作用。因此,處于這一級(jí)別的人工智能造成他人損害時(shí),仍應(yīng)由人類自行承擔(dān)侵權(quán)責(zé)任。但具體由誰承擔(dān),則須依據(jù)具體侵權(quán)類型加以判斷,或是服務(wù)提供者、開發(fā)者,或是使用者等。例如,使用者使用GPT-4進(jìn)行短文寫作,如果寫作內(nèi)容侵害了他人的著作權(quán),就應(yīng)由該使用者承擔(dān)全部的侵權(quán)責(zé)任。

        在人工智能的自主性水平處于第三級(jí)時(shí),人工智能與人類處于平等協(xié)作的狀態(tài)。這一級(jí)別的人工智能自主性較強(qiáng),在其造成他人損害時(shí),應(yīng)具體考量人類在其中的作用力,以此合理分擔(dān)責(zé)任。因?yàn)樵诂F(xiàn)實(shí)中的某些情形中,人工智能可能并未發(fā)生任何系統(tǒng)故障或出現(xiàn)其他錯(cuò)誤,但造成了他人權(quán)益損害的法律事實(shí)。例如,自動(dòng)駕駛汽車本身并未有任何故障,但因無法識(shí)別交通管制的含義而導(dǎo)致交通事故。在此情境下,作為協(xié)作方的人類應(yīng)對(duì)此承擔(dān)全部責(zé)任,但責(zé)任人可以基于人工智能的自主性較強(qiáng)且自身未有任何可責(zé)難性,主張減輕責(zé)任。

        自主性水平處于第四級(jí)的人工智能雖然能主導(dǎo)任務(wù)的執(zhí)行,但在其造成他人損害時(shí),因缺乏主體資格且未有識(shí)別能力,所以仍由提供任務(wù)監(jiān)督的人類承擔(dān)侵權(quán)責(zé)任。不過基于人工智能具備較大的自主性,責(zé)任主體同樣可以主張減輕責(zé)任。

        在人工智能作為人類的代理時(shí),就達(dá)到了最高的自主性水平,但基于人工智能的本質(zhì)是數(shù)據(jù)和算法的驅(qū)動(dòng),人工智能的自主性縱使達(dá)到了最高水平,也不能獨(dú)立承擔(dān)責(zé)任,仍應(yīng)依據(jù)具體情況由可能的責(zé)任主體承擔(dān)。例如人工智能的服務(wù)提供者、開發(fā)者、部署者、使用人、第三人等。與此同時(shí),基于這種級(jí)別的人工智能自主性水平最高,已經(jīng)無限接近于甚至超過人類的智能水平,故而在其未有任何系統(tǒng)故障而自主地實(shí)施侵害他人權(quán)益的行為時(shí),其服務(wù)提供者、開發(fā)者、部署者、使用人、第三人等責(zé)任人可以據(jù)此主張減輕責(zé)任。

        (三)人工智能侵權(quán)責(zé)任主體可減輕責(zé)任的轉(zhuǎn)移路徑

        前已述及,因人工智能的本質(zhì)乃技術(shù)層面數(shù)據(jù)和算法的驅(qū)動(dòng),故而無法成為侵權(quán)責(zé)任的主體,不享有法律主體資格,不具備責(zé)任能力。不過,因不同級(jí)別的人工智能在性能、通用性及自主性上有所區(qū)別,據(jù)此產(chǎn)生的風(fēng)險(xiǎn)也應(yīng)有差別。依據(jù)人類對(duì)人工智能活動(dòng)的參與程度劃分責(zé)任主體的責(zé)任,實(shí)際上是對(duì)人類之于侵權(quán)損害后果的過錯(cuò)力與原因力的探討。而人的主觀過錯(cuò)和原因力因素則涉及其責(zé)任認(rèn)定時(shí)的歸責(zé)原則。

        具體來說,當(dāng)人工智能的自主性水平處于第一級(jí)、第二級(jí),即人工智能成為人類的工具或需要人類的參與才能發(fā)揮實(shí)質(zhì)性作用時(shí),無論人工智能在執(zhí)行任務(wù)時(shí)是否發(fā)生故障或遭受了電子病毒攻擊,均應(yīng)由人類對(duì)其致人損害的后果承擔(dān)侵權(quán)責(zé)任。例如,在利用人工智能進(jìn)行輔助治療的過程中,人工智能系統(tǒng)與醫(yī)生等相關(guān)操作者具有強(qiáng)烈的互動(dòng)關(guān)系,操作者須對(duì)診斷的結(jié)果保持時(shí)刻的注意義務(wù),以免出現(xiàn)誤診或者誤檢現(xiàn)象,否則就應(yīng)承擔(dān)違反注意義務(wù)的過錯(cuò)責(zé)任。在此情形下,操作者承擔(dān)的侵權(quán)責(zé)任應(yīng)適用過錯(cuò)歸責(zé)原則。

        在人工智能的自主性水平處于第三級(jí)、第四級(jí)、第五級(jí)時(shí),人類對(duì)其控制力度逐漸降低,參與其活動(dòng)的程度也逐漸減少,但因人工智能不具備責(zé)任能力,無過錯(cuò)可言,類似于飼養(yǎng)的動(dòng)物不能承擔(dān)損害責(zé)任,所以人類也須對(duì)人工智能造成他人損害的后果承擔(dān)侵權(quán)責(zé)任。只不過,應(yīng)根據(jù)具體情況來確定侵權(quán)責(zé)任的承擔(dān)主體,所適用的歸責(zé)原則也應(yīng)有所區(qū)分。當(dāng)人工智能本身存在缺陷、出現(xiàn)故障等情形時(shí),服務(wù)提供者、開發(fā)者、部署者、使用人或第三人對(duì)此可能存在過錯(cuò),例如使用者使用環(huán)境不當(dāng)、開發(fā)者設(shè)計(jì)錯(cuò)誤等。此時(shí)應(yīng)適用過錯(cuò)歸責(zé)原則,由可能的責(zé)任主體承擔(dān)過錯(cuò)責(zé)任。當(dāng)人工智能本身不存在缺陷或未有使用不當(dāng)情形時(shí),可能的責(zé)任主體承擔(dān)無過錯(cuò)責(zé)任,應(yīng)適用無過錯(cuò)歸責(zé)原則。

        由此可見,當(dāng)人工智能不具備責(zé)任能力而造成他人損害時(shí),由人類承擔(dān)侵權(quán)責(zé)任。不過,具有較高自主性的人工智能對(duì)損害的發(fā)生具有較大的原因力。據(jù)此,可能的責(zé)任主體在承擔(dān)侵權(quán)責(zé)任之時(shí),可主張減輕責(zé)任。然而,當(dāng)責(zé)任主體主張責(zé)任減輕時(shí),意味著受害人的損害得不到全面救濟(jì),有違侵權(quán)法旨在全面保護(hù)受害人的立法目的。那么該減輕的部分應(yīng)由誰承擔(dān)呢?

        有學(xué)者建議人工智能的相關(guān)主體如使用者、設(shè)計(jì)者、生產(chǎn)者或設(shè)備供應(yīng)商可共同出資,為人工智能購(gòu)買保險(xiǎn),當(dāng)人工智能造成他人損害時(shí),以保險(xiǎn)金來填補(bǔ)受害者的損失[45]。筆者認(rèn)為,在人工智能侵權(quán)領(lǐng)域,以保險(xiǎn)路徑來分散受害者無法獲得全面救濟(jì)的風(fēng)險(xiǎn),具有較大的借鑒意義。具體來說,人工智能價(jià)值鏈上的相關(guān)主體可以單獨(dú)或共同出資購(gòu)買人工智能致人損害的責(zé)任險(xiǎn)(或人工智能強(qiáng)制責(zé)任保險(xiǎn)),在人工智能造成他人損害而須由人類承擔(dān)侵權(quán)責(zé)任時(shí),購(gòu)買了此種保險(xiǎn)的責(zé)任人可以援引保險(xiǎn)責(zé)任,以保險(xiǎn)金支付自身須承擔(dān)的部分,不過保險(xiǎn)人享有對(duì)責(zé)任人的追償權(quán)。在某一責(zé)任人未購(gòu)買人工智能責(zé)任保險(xiǎn)而其他相關(guān)主體已購(gòu)買的情形下,例如依具體情況認(rèn)定由使用人承擔(dān)侵權(quán)責(zé)任,但使用人未出資購(gòu)買責(zé)任保險(xiǎn),而其他相關(guān)人員購(gòu)買了該人工智能的責(zé)任險(xiǎn)。此時(shí),如果受害人因責(zé)任人具備責(zé)任減輕事由而無法得到全額賠償,可直接援引人工智能項(xiàng)下的保險(xiǎn)責(zé)任,要求保險(xiǎn)人對(duì)其支付剩余的保險(xiǎn)金。只不過,若因該責(zé)任人未出資購(gòu)買責(zé)任保險(xiǎn),那么保險(xiǎn)人支付保險(xiǎn)金后可以向責(zé)任人主張追償。一言以蔽之,人工智能責(zé)任險(xiǎn)不僅可以為責(zé)任人對(duì)他人負(fù)擔(dān)的侵權(quán)責(zé)任承擔(dān)支付義務(wù),還可對(duì)受害人得不到救濟(jì)的部分予以填補(bǔ)。此外,設(shè)立人工智能侵權(quán)責(zé)任保險(xiǎn),不但可以分散相關(guān)主體如開發(fā)者、服務(wù)提供者等的風(fēng)險(xiǎn),減少其動(dòng)輒得咎的顧忌,還有利于促進(jìn)人工智能業(yè)的蓬勃發(fā)展。

        或許有觀點(diǎn)認(rèn)為,可以通過設(shè)立人工智能侵權(quán)責(zé)任保險(xiǎn)的方式,將保險(xiǎn)金作為人工智能的財(cái)產(chǎn),以解決雖賦予人工智能法律主體地位但人工智能自身卻無任何財(cái)產(chǎn)可供賠償?shù)睦Ь?。筆者認(rèn)為,賦予人工智能法律主體地位,會(huì)破壞法律主體體系的內(nèi)在邏輯。因此,與其通過保險(xiǎn)方式使人工智能具備賠償能力,不如直接否定其法律主體地位,將人工智能致人損害的后果直接由相關(guān)責(zé)任人來承擔(dān)。此外,還可結(jié)合人工智能的自主性程度,適當(dāng)減輕責(zé)任主體的責(zé)任,并通過保險(xiǎn)制度分散相關(guān)主體的風(fēng)險(xiǎn),以達(dá)到給予受害人充分的損害賠償之目的。

        綜上,人工智能不享有法律主體資格,不具備責(zé)任能力,無法成為責(zé)任主體。但依據(jù)人工智能自主性水平的差異,人類作為侵權(quán)責(zé)任主體所適用的歸責(zé)原則應(yīng)有所差別,主張責(zé)任的減輕同樣也應(yīng)有所不同。而通過保險(xiǎn)金賠償?shù)姆绞?,既可有效緩解?zé)任主體的責(zé)任負(fù)擔(dān),亦可對(duì)受害者實(shí)現(xiàn)全面救濟(jì),可謂兩全。

        五、結(jié)語(yǔ)

        我國(guó)法學(xué)界關(guān)于是否應(yīng)當(dāng)賦予人工智能法律主體資格存在爭(zhēng)議,在人工智能造成他人損害的責(zé)任承擔(dān)主體上亦莫衷一是。盡管人工智能具備一定的自主性和不可預(yù)測(cè)性特征,但其本質(zhì)為技術(shù)層面的數(shù)據(jù)和算法的驅(qū)動(dòng),并不具有獨(dú)立于人類的意識(shí)、目的或意志,即不具備人的“自主意識(shí)”。盡管人工智能可以通過編程來模仿人類的多種意識(shí),但能夠意識(shí)到自我存在的“自我意識(shí)”卻無法被編程,因而人工智能不具備自我意識(shí)。相應(yīng)地,人工智能僅為執(zhí)行人的需求的“角色扮演”,缺乏主觀自我的唯一性與不可復(fù)制性特征,故其不具備能夠意識(shí)到這世上只存在一個(gè)自我的“主觀自我”。因此,人工智能不具備權(quán)利能力,不應(yīng)成為法律主體。同時(shí),由于人工智能本質(zhì)上是一種源于算法程序的機(jī)械意志,不具備辨別自己的行為在法律上應(yīng)負(fù)某種責(zé)任的能力,因而人工智能欠缺責(zé)任能力,不能成為責(zé)任主體。依此,人工智能致人損害的法律后果只能由人類來承擔(dān)。

        至于人類作為責(zé)任主體應(yīng)在多大程度上承擔(dān)責(zé)任,可以依據(jù)谷歌旗下的深度思維公司對(duì)通用人工智能按照性能、通用性為標(biāo)準(zhǔn)所作的五級(jí)劃分,以及基于人類參與人工智能活動(dòng)的程度所確定的人工智能的自主性差異,劃分責(zé)任主體的責(zé)任承擔(dān)范圍。在人類與人工智能的交互性較強(qiáng)而人工智能的自主性程度較低時(shí),即人工智能的自主性水平處于第一級(jí)、第二級(jí)別時(shí),責(zé)任人應(yīng)承擔(dān)人工智能致?lián)p的全部責(zé)任。當(dāng)人類與人工智能的交互性較弱而人工智能的自主性程度較高時(shí),即人工智能的自主性水平處于第三級(jí)、第四級(jí)、第五級(jí)別時(shí),由于人工智能不具備責(zé)任能力,故仍由相關(guān)責(zé)任人承擔(dān)侵權(quán)責(zé)任,只是該責(zé)任人可以主張責(zé)任的減輕,原因在于具備較高自主性水平的人工智能本身對(duì)損害的發(fā)生具有較大的原因力。不過,責(zé)任主體可以減輕責(zé)任意味著受害人的損害得不到全面救濟(jì)。為此,可以通過保險(xiǎn)路徑,由相關(guān)主體出資購(gòu)買人工智能責(zé)任保險(xiǎn),以保險(xiǎn)金來規(guī)避受害人可能無法全面受償?shù)娘L(fēng)險(xiǎn)。

        當(dāng)前,我國(guó)正加緊人工智能立法的進(jìn)程,人工智能侵權(quán)的責(zé)任認(rèn)定與責(zé)任承擔(dān)必然成為其中的重要關(guān)涉。依人工智能在性能、通用性、自主性方面的差異而對(duì)責(zé)任主體的責(zé)任認(rèn)定與責(zé)任承擔(dān)的不同劃分,不僅能有效應(yīng)對(duì)不同的侵權(quán)風(fēng)險(xiǎn),也有助于人工智能法律規(guī)范適應(yīng)未來不確定性極高的人工智能技術(shù)的發(fā)展,使人工智能始終朝著可信賴的目標(biāo)前進(jìn)。當(dāng)然,本研究?jī)H對(duì)人工智能的責(zé)任主體認(rèn)定及責(zé)任分擔(dān)進(jìn)行初步的、概括意義上的探討,有關(guān)具體的人工智能(如生成式人工智能)致人損害的責(zé)任主體(如服務(wù)提供者)之責(zé)任認(rèn)定與責(zé)任承擔(dān),亦值得進(jìn)一步探究。

        [參考文獻(xiàn)]

        VASWANI A,SHAZEER N,PARMAR N,et al. Attention is all you need[C]. Proceedings of the 31st International Conference on Neural Information Processing Systems,Long Beach,CA,USA,2017:6000-6010.

        龍柯宇.生成式人工智能應(yīng)用失范的法律規(guī)制研究:以ChatGPT和社交機(jī)器人為視角[J].東方法學(xué),2023(4):44-55.

        OPENAI. Gpt-4 technical report[EB/OL].[2024-07-07]. https://cdn.openai.com/papers/gpt-4.pdf.

        中國(guó)網(wǎng)信網(wǎng).全球人工智能治理倡議[EB/OL]. [2024-07-07]. https://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm.

        朱體正.人工智能時(shí)代的法律因應(yīng)[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(2):97-102.

        馮潔.人工智能體法律主體地位的法理反思[J].東方法學(xué),2019(4):43-54.

        張玉潔.論人工智能時(shí)代的機(jī)器人權(quán)利及其風(fēng)險(xiǎn)規(guī)制[J].東方法學(xué),2017(6):56-66.

        劉洪華.論人工智能的法律地位[J].政治與法律,2019(1):11-21.

        劉小璇,張虎.論人工智能的侵權(quán)責(zé)任[J].南京社會(huì)科學(xué),2018(9):105-110.

        張志堅(jiān).論人工智能的電子法人地位[J].現(xiàn)代法學(xué),2019(5):75-88.

        張凌寒.中國(guó)需要一部怎樣的《人工智能法》:中國(guó)人工智能立法的基本邏輯與制度架構(gòu)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024(3):3-17.

        ZIEMIANIN K. Civil legal personality of artificial intelligence. Future or utopia? [J]. Internet Policy Review,2021(2):1-22.

        干建華.人工智能之法律地位批判[J].江海學(xué)刊,2023(2):184-190.

        鄭曉劍.權(quán)利能力相對(duì)性理論之質(zhì)疑[J].法學(xué)家,2019(6):60-73.

        梅迪庫(kù)斯.德國(guó)民法總論[M].邵建東,譯.北京:法律出版社,2013:781.

        LEENEN D. BGB Allgemeiner Teil:Rechtsgesch?ftslehre[M]. Berlin,München,Boston:De Gruyter,2015:15.

        BRüNINGHAUS B. Die Stellung des Tieres im Bürgerlichen Gesetzbuch [M]. Duncker amp; Humblot,Berlin,1993:127.

        駱正言.從自由意志談人工智能的法律主體資格[J].湖南社會(huì)科學(xué),2020(2):43-50.

        TALIMONCHIK V P. The prospects for the recognition of the international legal personality of artificial intelligence [J]. Laws,2021(4):1-11.

        EUROPEAN PARLIAMENT. Civil Law Rules on Robotics [EB/OL]. [2024-07-07]. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52017IP0051.

        馮玨.自動(dòng)駕駛汽車致?lián)p的民事侵權(quán)責(zé)任[J].中國(guó)法學(xué),2018(6):109-132.

        陳俊秀,李立豐.“機(jī)器意識(shí)”何以可能:人工智能時(shí)代“機(jī)器不能被騙”立場(chǎng)之堅(jiān)守[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020(6):108-114.

        彭中禮,劉世杰. 從“特殊性”到“去特殊性”:人工智能法律規(guī)制路徑審視[J].濟(jì)南大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(4):29-42.

        劉練軍. 人工智能法律主體論的法理反思[J].現(xiàn)代法學(xué),2021(4):73-88.

        MITCHELL F. The use of artificial intelligence in digital forensics:an introduction [J]. Digital Evidence and Electronic Signature Law Review,2010,7:35-41.

        HARKUT D G,KASAT K,HARKUT V D. Introductory Chapter:Artificial Intelligence Challenges and Applications [M/OL]. IntechOpen. 2019:1[2024-08-12] http://dx.doi.org/10.5772/intechopen.84624.

        ?ERKA P,GRIGIEN? J,SIRBIKYT? G. Liability for damages caused by artificial intelligence[J]. Computer Law amp; Security Review,2015(3):376-389.

        RAJPUROHIT D S,SEAL R. Legal definition of artificial intelligence [J]. Supremo Amicus,2019,10:87-95.

        WANG J C. Regarding constituents of subjective-self [J]. Philosophy Study,2019(4):171-180.

        WANG J C. Self-awareness,a singularity of AI [J]. Philosophy Study,2023(2):68-77.

        SHANAHAN M,MCDONELL K,REYNOLDS L. Role-play with large language models [J]. Nature,2023(7987):493-498.

        SILVER D,HUANG A,MADDISON C J,et al. Mastering the game of Go with deep neural networks and tree search [J]. Nature,2016(7587):484-489.

        鄭曉劍.“權(quán)利能力法律賦予說”之反思[J].法商研究,2024(1):59-70.

        DAVIES C R. An evolutionary step in intellectual property rights - Artificial intelligence and intellectual property [J]. Computer Law amp; Security Review,2011(6):601-619.

        黎四奇.對(duì)人工智能非法律主體地位的解析[J].政法論叢,2023(5):117-127.

        鄭曉劍.侵權(quán)責(zé)任能力判斷標(biāo)準(zhǔn)之辨析[J].現(xiàn)代法學(xué),2015(6):59-74.

        王澤鑒.侵權(quán)行為[M].北京:北京大學(xué)出版社,2016:313.

        鄭玉波.民法債編總論[M].北京:中國(guó)政法大學(xué)出版社,2003:136.

        BASHAYREH M,SIBAI F N,TABBARA A,Artificial intelligence and legal liability:towards an international approach of proportional liability based on risk sharing [J]. Information amp; Communications Technology Law,2021(2):169-192.

        HALLEVY G. The criminal liability of artificial intelligence entities:from science fiction to legal social control [J]. Akron Intellectual Property Journal,2010(2):171-201.

        光明網(wǎng).把人當(dāng)做甜椒,韓國(guó)發(fā)生機(jī)器人殺人事件![EB/OL].[2024-07-07].https://m.gmw.cn/2023-11/11/content_1303567570.htm.

        竇海陽(yáng).侵權(quán)責(zé)任與隱私權(quán):責(zé)任人和行為人分離情形下的考量[J]. 法學(xué)研究,2024(2):115-134.

        王利明.侵權(quán)責(zé)任法[M].北京:中國(guó)人民大學(xué)出版社,2021:12.

        MORRIS M R,SOHL-DICKSTEIN J,F(xiàn)IEDEL N,et al. Position:Levels of AGI for Operationalizing Progress on the Path to AGI[C]. Proceedings of the 41st International Conference on Machine Learning,Vienna,Austria,2024.

        VLADECK D C. Machines without principals:liability rules and artificial intelligence [J].Washington Law Review,2014(1):117-150.

        [責(zé)任編輯 祁麗華]

        猜你喜歡
        侵權(quán)責(zé)任人工智能
        我校新增“人工智能”本科專業(yè)
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        云計(jì)算LaaS模式中著作權(quán)侵權(quán)責(zé)任探析
        第三人干擾婚姻關(guān)系之法律認(rèn)定
        消費(fèi)欺詐的構(gòu)成要件及侵權(quán)責(zé)任問題研究
        法制博覽(2016年12期)2016-12-28 13:29:59
        論人工智能產(chǎn)品侵權(quán)行為責(zé)任認(rèn)定
        商(2016年33期)2016-11-24 23:34:02
        網(wǎng)約出租車交通事故責(zé)任認(rèn)定
        法制博覽(2016年11期)2016-11-14 09:46:13
        論侵權(quán)責(zé)任的違法性要件
        商(2016年27期)2016-10-17 06:45:36
        国产精品18久久久久网站 | 婷婷五月综合丁香在线| 午夜福利视频合集1000| 国产高清无码在线| 亚洲国产日韩av一区二区| 美女性色av一区二区三区| 亚洲国产精品婷婷久久| 野花香社区在线视频观看播放| 大地资源在线观看官网第三页| 熟妇高潮一区二区三区| 国产欧美日产久久| 精品免费看国产一区二区白浆| 免费观看一区二区三区视频| 国内嫩模自拍诱惑免费视频| 麻豆亚洲av熟女国产一区二| 人人色在线视频播放| 免费人成网ww555kkk在线| 日产无人区一线二线三线新版| 天天躁日日操狠狠操欧美老妇| 欧美片欧美日韩国产综合片| av是男人的天堂免费| 风韵犹存丰满熟妇大屁股啪啪| 国产熟妇与子伦hd| 午夜福利电影| 亚洲欧洲美洲无码精品va| 在线高清亚洲精品二区| 9久久婷婷国产综合精品性色| 国产又大又硬又粗| 国产精品人成在线观看免费| 国产精品久久久久免费观看| 欧美两根一起进3p做受视频| 久久狠狠第一麻豆婷婷天天| 亚洲αv在线精品糸列| 色综合久久精品中文字幕| 青青草成人在线免费视频| 宅男666在线永久免费观看| 欧美巨大xxxx做受中文字幕| 精品国产福利久久久| 国产精品成人黄色大片| 久久精品亚洲成在人线av乱码| 国内精品久久久久影院薰衣草|