亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        我國人工智能侵權(quán)責(zé)任承擔(dān)的內(nèi)在機(jī)理、現(xiàn)實(shí)困境及對策

        2021-12-29 08:10:29徐海東
        關(guān)鍵詞:人工智能人類法律

        周 鑫,徐海東

        (1.銅仁學(xué)院銅仁市文化科技產(chǎn)業(yè)創(chuàng)新研究中心與重慶大學(xué)法學(xué)院聯(lián)合博士后站,貴州銅仁 554300;2.黔南民族師范學(xué)院歷史與民族學(xué)院,貴州都勻 558000;3.廊坊師范學(xué)院社會發(fā)展學(xué)院,河北廊坊 065000)

        在人工智能侵權(quán)案件歸責(zé)判斷中,智能機(jī)器人是具有獨(dú)立性的主體,可以“自主決定”一定的行為??傮w上看,智能機(jī)器人具有以下特點(diǎn)。(1)專業(yè)性。如果說法人是商業(yè)社會發(fā)展到一定階段的必然產(chǎn)物,那么人工智能則是科技發(fā)展?jié)M足人類生產(chǎn)、生活需求的必然結(jié)果。人工智能的創(chuàng)意、程序設(shè)計或開發(fā)工作雖然可能由某個人或某一團(tuán)隊具體操作完成,但是要想形成規(guī)模和產(chǎn)業(yè),必須依靠大型集團(tuán)或政府機(jī)構(gòu)。因?yàn)槿斯ぶ悄茏鳛橐豁椥碌目萍汲晒?,只有具備充足的人才儲備、雄厚的資金基礎(chǔ)和強(qiáng)大的經(jīng)濟(jì)規(guī)模的實(shí)體才能涉足這一領(lǐng)域。(2)不透明性。由于智能機(jī)器人的設(shè)計程序、內(nèi)在運(yùn)轉(zhuǎn)系統(tǒng)及工作機(jī)理是設(shè)計者、開發(fā)公司的專利,普通人無法知曉,更無法獲知智能機(jī)器人是如何“思考”和如何做出決定的。(3)不可預(yù)測性。智能機(jī)器人在設(shè)計者創(chuàng)設(shè)的程序運(yùn)行的基礎(chǔ)上,對接收到的大量數(shù)據(jù)進(jìn)行分析、計算和編程,生成新的程序指令,形成“自主的決定”。這一過程可能是智能系統(tǒng)設(shè)計者最初期待的結(jié)果,或許將超出設(shè)計者的掌控,因此智能機(jī)器人雖然是人類設(shè)計制造的產(chǎn)物,但是將來其行為及引發(fā)的后果很可能超越人類設(shè)想的范圍。(4)難防控性?;谥悄軝C(jī)器人的不透明性及其行為的不可預(yù)見性,智能機(jī)器人在獲取了與預(yù)定規(guī)則不一致的信息后,一旦依據(jù)自己的計算和“思考”而出現(xiàn)異常反應(yīng),就可能“完全自主”地做出有損他人權(quán)益的決策。人類對此情形難以預(yù)防,而只能在嗣后予以補(bǔ)救。因而,囿于智能機(jī)器人的上述特性及其設(shè)計的高端性和結(jié)構(gòu)的復(fù)雜性,由被害人來證明人工智能存在過錯與否顯然不公平。在這種情況下,侵權(quán)案件裁決更宜適用無過錯責(zé)任的歸責(zé)原則。

        一、人工智能侵權(quán)責(zé)任認(rèn)定與損害賠償

        (一)無過錯責(zé)任原則的適用

        人工智能介入司法程序的載體是智能機(jī)器。就智能機(jī)器造成的損害而言,其管理人應(yīng)當(dāng)適用無過錯責(zé)任,這是符合無過錯責(zé)任制度的本意的。無過錯責(zé)任制度源于資本主義機(jī)器大生產(chǎn)時代[1]650,設(shè)立該制度的目的之一就是保障機(jī)器事故中的受害者能得到賠償。機(jī)器大生產(chǎn)造成的事故,依據(jù)過錯責(zé)任無法給予受害者賠償,無過錯責(zé)任應(yīng)運(yùn)而生。無過錯責(zé)任最早出現(xiàn)在普魯士王國1838 年的《鐵路企業(yè)法》中,1839年《礦業(yè)法》將其擴(kuò)大到礦害賠償領(lǐng)域。德國1884 年的《勞工傷害賠償法》規(guī)定了工業(yè)事故社會保險制度,確立了事故責(zé)任的無過錯責(zé)任制度。此后,無過錯責(zé)任原則被廣泛應(yīng)用于社會各個方面。就這一點(diǎn)而言,機(jī)器生產(chǎn)與人工智能服務(wù)在無過錯責(zé)任應(yīng)用方面完全契合。

        當(dāng)然,無過錯責(zé)任原則的適用需要有明確的法律規(guī)定,不僅需要有《民法典》關(guān)于侵權(quán)的原則性規(guī)定,還需要有相關(guān)法律如《產(chǎn)品質(zhì)量法》關(guān)于特殊侵權(quán)損害的規(guī)定。有學(xué)者提出可以對人工智能專門立法[2],在相關(guān)條文中規(guī)定無過錯責(zé)任原則,即使未來人工智能成為民事主體,依據(jù)對其適用的監(jiān)護(hù)制度,無過錯責(zé)任也適用于監(jiān)護(hù)人,這與現(xiàn)有法律并不沖突。

        既然依據(jù)無過錯責(zé)任原則免責(zé)事由是成立的,那么人工智能侵權(quán)也不例外。在任何人工智能侵權(quán)損害中,管理人是可以有免責(zé)事由的。管理人唯一的免責(zé)事由就是生產(chǎn)瑕疵,此時責(zé)任推向生產(chǎn)者與銷售者。而生產(chǎn)者和銷售者的免責(zé)事由適用產(chǎn)品責(zé)任,即證明現(xiàn)有技術(shù)尚不足以發(fā)現(xiàn)該產(chǎn)品瑕疵。這樣做雖然加重了生產(chǎn)者的注意義務(wù)與道德責(zé)任,但好處是反向加強(qiáng)了生產(chǎn)者的技術(shù)研發(fā)精準(zhǔn)度壓力和管理人的管理注意義務(wù)。

        (二)強(qiáng)制保險與基金

        為保障人工智能的賠償能力,不少學(xué)者提出應(yīng)當(dāng)強(qiáng)制繳納保險與賠償基金[3],在人工智能造成侵權(quán)時用于賠付給受害方。這就要求在研發(fā)、生產(chǎn)和消費(fèi)的各個環(huán)節(jié),生產(chǎn)者、銷售者和消費(fèi)者需要分別繳納相應(yīng)費(fèi)用,用來購買保險或設(shè)立專項基金。人工智能可以通過“勞動”獲得報酬,以此作為基金來源,在侵權(quán)時向受害方做出賠償。保險或基金是強(qiáng)制性的,只要人工智能構(gòu)成損害需要賠償,均由保險公司或基金先行賠償,不足部分由責(zé)任人進(jìn)行賠償。當(dāng)然,這需要保險公司提供新險種、相關(guān)基金會提供配套服務(wù)。

        二、平衡損害賠償、責(zé)任承擔(dān)與技術(shù)發(fā)展

        (一)責(zé)任承擔(dān)與技術(shù)發(fā)展

        責(zé)任承擔(dān)涉及技術(shù)干預(yù)與責(zé)任承擔(dān)的分配比例問題。在從研發(fā)到使用的過程中,所有參與者承擔(dān)的人工智能的侵權(quán)責(zé)任與他們對該人工智能的影響成正相關(guān)。也就是說,對人工智能的影響越大,承擔(dān)的侵權(quán)責(zé)任應(yīng)當(dāng)越重。從研發(fā)、生產(chǎn)到銷售再到使用,人類對人工智能的干預(yù)度逐漸減弱。研發(fā)過程直接決定了人工智能的性質(zhì)功能、智能等級、服務(wù)對象、操作方式;生產(chǎn)決定了人工智能的外觀形式與使用壽命;消費(fèi)終端的影響僅限于對人工智能的“教育”:后一環(huán)節(jié)均建立在先前環(huán)節(jié)的基礎(chǔ)上。如果人工智能出現(xiàn)侵權(quán)問題,作為使用者的管理人要提供“產(chǎn)品瑕疵”證明就很困難,甚至有些管理人并非人工智能的實(shí)際操作者,要舉證“產(chǎn)品瑕疵”就更加困難。當(dāng)人工智能侵權(quán)出現(xiàn)時,管理人免責(zé)需要證明產(chǎn)品制造有瑕疵,生產(chǎn)銷售者免責(zé)需要證明他們生產(chǎn)時現(xiàn)有技術(shù)尚無法預(yù)見這一瑕疵帶來的問題。相比之下,管理人的責(zé)任要輕于生產(chǎn)者。生產(chǎn)者、銷售者、消費(fèi)者(管理人或使用人)對人工智能的影響逐漸減弱,承擔(dān)的侵權(quán)責(zé)任依次遞減,這是合理的。

        與技術(shù)發(fā)展密切相關(guān)的因素是工程師的道德操守。人工智能的技術(shù)發(fā)展并不單指科學(xué)技術(shù)的進(jìn)步,更在于人工智能技術(shù)工程師道德操守的提高[4]。人工智能的自主性與人類的操控度成負(fù)相關(guān),又與人類生活的便捷程度成正相關(guān)。人類某項偉大創(chuàng)造可以對人類有益,也可能給人類造成損害,未來人工智能將會與人類在長期博弈中共存。于是,人工智能被創(chuàng)造的目的與它在博弈過程中的表現(xiàn)有著密切關(guān)系,這對人工智能的制造者提出了極高的道德要求。目前世界各國對人工智能工程師的行為操守有共同的要求,即尊重人類尊嚴(yán)、遵守人類道德、保障人類安全、保護(hù)人類隱私。如果違反以上準(zhǔn)則,后果不堪設(shè)想。“保障人類安全、保護(hù)人類隱私”的道德操守在未來人類與人工智能的博弈過程中舉足輕重,制造者必須嚴(yán)格遵守。

        (二)損害賠償與責(zé)任承擔(dān)

        人工智能是物不是人,其侵權(quán)責(zé)任應(yīng)該由管理人承擔(dān)。管理人可以是生產(chǎn)制造者,可以是使用者,還可以是登記授權(quán)的其他相關(guān)利益人。此時責(zé)任問題是產(chǎn)品責(zé)任,也是生產(chǎn)者、銷售者的責(zé)任,但是需要分清責(zé)任事故因何而起。事故的產(chǎn)生是設(shè)計人的技術(shù)漏洞,還是操作人的不當(dāng)使用,或者是智能機(jī)器人超越原控制方案的擅自所為,是此類事故責(zé)任追究需要明確的。

        有損害就會有賠償,而賠償?shù)氖滓?zé)任應(yīng)當(dāng)由過錯方承擔(dān),即誰導(dǎo)致了損害,就由誰來進(jìn)行賠償,這才是合理的。對于自然人而言,賠償責(zé)任與侵權(quán)責(zé)任是統(tǒng)一的,但對于人工智能而言,賠償責(zé)任與侵權(quán)責(zé)任可能不統(tǒng)一,因?yàn)槿斯ぶ悄苁俏?,無法承擔(dān)侵權(quán)責(zé)任。然而,與一般機(jī)器侵權(quán)的無過錯責(zé)任不同的是,人工智能可以用相關(guān)保險賠付金、基金或勞動報酬來支付損害賠償。管理人的責(zé)任程度與人工智能賠償數(shù)額不一定成正相關(guān),因?yàn)榭赡軙霈F(xiàn)管理人為人工智能損害賠償?shù)牟蛔悴糠痔峁┭a(bǔ)償?shù)那闆r。因此,現(xiàn)有法律有關(guān)條款內(nèi)容需要調(diào)整,對管理人的補(bǔ)充賠償責(zé)任進(jìn)行具體規(guī)定。

        (三)損害賠償、責(zé)任承擔(dān)與技術(shù)發(fā)展的平衡點(diǎn)

        人工智能損害賠償、責(zé)任承擔(dān)與技術(shù)發(fā)展的平衡點(diǎn)在于管理人與生產(chǎn)者對人工智能侵權(quán)責(zé)任的補(bǔ)充賠償責(zé)任。如果是人工智能產(chǎn)品本身的瑕疵,可以依照產(chǎn)品責(zé)任來規(guī)制;如果是人工智能管理人的失誤,則應(yīng)當(dāng)追究管理人的侵權(quán)責(zé)任。人工智能發(fā)生侵權(quán)事故時,損害賠償由人工智能自身的保險賠付金、基金和報酬賠償,不足部分由侵權(quán)責(zé)任承擔(dān)者補(bǔ)充賠償。如果管理人確實(shí)盡到了注意義務(wù)并且成功舉證侵害是由人工智能機(jī)器本身的“自主性”問題造成的,賠償責(zé)任就應(yīng)該由生產(chǎn)者承擔(dān)。同理,生產(chǎn)者賠償前也可以根據(jù)產(chǎn)品責(zé)任主張免責(zé)事由,而技術(shù)發(fā)展的限制確實(shí)可能會免除生產(chǎn)者的賠償責(zé)任,使受害者無法得到管理人及生產(chǎn)者的任何一方的補(bǔ)充賠償。需要說明的是,損害賠償?shù)墓芾砣伺c生產(chǎn)者之間并不承擔(dān)連帶責(zé)任。前文已述,每個環(huán)節(jié)的相關(guān)利益人對于人工智能的影響程度不同。單就造成損害結(jié)果看,管理人的注意義務(wù)應(yīng)當(dāng)強(qiáng)于生產(chǎn)者的技術(shù)設(shè)定義務(wù),所以損害賠償責(zé)任應(yīng)當(dāng)先由管理人承擔(dān),當(dāng)管理人免責(zé)事由出現(xiàn)時再將責(zé)任推向生產(chǎn)者。處于弱勢的受害者在無法獲得足額賠償時,只能按法律規(guī)定通過提高人工智能的保險金或基金數(shù)額進(jìn)行彌補(bǔ)。于是,在人工智能的制造、流通、服務(wù)的各環(huán)節(jié),監(jiān)管部門應(yīng)當(dāng)充分發(fā)揮監(jiān)管作用,加強(qiáng)監(jiān)管力度,保證人工智能保險金和基金數(shù)額足以承擔(dān)其日后可能產(chǎn)生的侵權(quán)后果。這就需要配套的法律規(guī)定提供保障,促使監(jiān)管機(jī)構(gòu)在設(shè)立保險和基金規(guī)則時嚴(yán)格對人工智能進(jìn)行盡可能精準(zhǔn)的預(yù)測。人工智能自主程度越高,造成的傷害可能越嚴(yán)重,那么與它對應(yīng)的保險金和基金數(shù)額就應(yīng)當(dāng)越高,以此來保障它能夠獨(dú)立承擔(dān)損害賠償責(zé)任。

        三、人工智能侵權(quán)責(zé)任認(rèn)定的瓶頸與建議

        一般來說,有關(guān)人工智能的法律調(diào)整往往落后于科學(xué)技術(shù)的更新,法律的滯后性和科技的快速發(fā)展決定了有關(guān)人工智能的法律規(guī)范的制定晚于人工智能問題的出現(xiàn)。因而,需要針對當(dāng)前人工智能侵權(quán)責(zé)任認(rèn)定問題采取相應(yīng)的措施。

        (一)現(xiàn)有法律不足以解決人工智能侵權(quán)問題

        與普通機(jī)器相比,人工智能更加自主和聰慧,這一點(diǎn)源于對人類的模仿。人工智能侵權(quán)與一般侵權(quán)相比,主要不同點(diǎn)在于人工智能具有高度自主性卻無法認(rèn)定其是否具有“主觀過錯”。人工智能侵權(quán)出現(xiàn)后,現(xiàn)有法律的弊端隨之顯現(xiàn)。人工智能是具有自主性的機(jī)器,是既有人性又有物性的“矛盾體”。其“物”性使侵權(quán)的過錯無法認(rèn)定,其“人”性又使得人工智能不完全受控于人的意志。于是,人工智能侵權(quán)不可適用一般侵權(quán)責(zé)任相關(guān)法規(guī),而特殊侵權(quán)規(guī)則的適用又存在弊端??梢姡瑐鹘y(tǒng)的侵權(quán)法已經(jīng)不足以解決人工智能的侵權(quán)問題。

        (二)人工智能侵權(quán)責(zé)任認(rèn)定的基點(diǎn)

        要討論人工智能的侵權(quán)責(zé)任,首先要弄清楚它是人還是物,這是人工智能侵權(quán)責(zé)任認(rèn)定的基點(diǎn)。學(xué)界對人工智能的法律屬性的討論分為兩派。一派主張代理說和法律擬制說,認(rèn)為人工智能應(yīng)當(dāng)成為民事法律主體,可以看作法律上的“人”;另一派主張工具說和電子奴隸說,認(rèn)為人工智能是機(jī)器,是法律上的“物”。從當(dāng)前各類侵權(quán)歸責(zé)的主張來看,代理人責(zé)任、法人責(zé)任、替代責(zé)任等主張都是偏向于人工智能的“人”的屬性,或者將人工智能類比于自然人,或者將人工智能類比于法律擬制之人。而產(chǎn)品責(zé)任和動物致人損害責(zé)任等主張,偏向于人工智能的“物”的屬性,認(rèn)為人工智能應(yīng)當(dāng)是法律上的“物”。從法理上看,人工智能不具有獨(dú)立的權(quán)利義務(wù)與責(zé)任能力,而是否具有民事法律資格歸根結(jié)底要看其是否可以獨(dú)立享有民事權(quán)利并承擔(dān)義務(wù)。只有獨(dú)立享有民事權(quán)利并承擔(dān)民事義務(wù),才能獨(dú)立承擔(dān)民事責(zé)任,否則就不具有獨(dú)立的民事主體資格。在當(dāng)前技術(shù)下,不應(yīng)當(dāng)過分強(qiáng)調(diào)人工智能的“人”之屬性,否則人類與其博弈時將失去優(yōu)勢。當(dāng)然,這并不妨礙將來科學(xué)技術(shù)和立法技術(shù)發(fā)展到更高程度時立法態(tài)度的改變。

        (三)人工智能侵權(quán)問題應(yīng)當(dāng)受到合理規(guī)制

        在處理人工智能侵權(quán)問題方面,我們可以學(xué)習(xí)、借鑒國外的司法經(jīng)驗(yàn),設(shè)立專門的監(jiān)管部門,同時施行強(qiáng)制登記制度,對人工智能的數(shù)據(jù)和行為進(jìn)行監(jiān)控。對于侵權(quán)責(zé)任,適用管理人無過錯責(zé)任原則,以減輕管理人的舉證責(zé)任。人工智能與其生產(chǎn)者、管理人之間的侵權(quán)責(zé)任分擔(dān),要在責(zé)任承擔(dān)、損害賠償和技術(shù)發(fā)展之間尋求一個平衡點(diǎn)。這個平衡點(diǎn)的關(guān)鍵在于管理人與生產(chǎn)者對人工智能侵權(quán)責(zé)任的補(bǔ)充賠償責(zé)任,其賠償責(zé)任順序依次為“人工智能—管理人—生產(chǎn)者”。人工智能發(fā)生侵權(quán)事故時,損害賠償由人工智能自身的保險賠付金、基金或報酬承擔(dān),不足部分由侵權(quán)責(zé)任承擔(dān)者補(bǔ)充賠償,而管理人和生產(chǎn)者之間不承擔(dān)連帶責(zé)任。

        猜你喜歡
        人工智能人類法律
        人類能否一覺到未來?
        法律解釋與自然法
        法律方法(2021年3期)2021-03-16 05:57:02
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        1100億個人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        讓人死亡的法律
        山東青年(2016年1期)2016-02-28 14:25:30
        “互助獻(xiàn)血”質(zhì)疑聲背后的法律困惑
        成人大片在线观看视频| 国产精品无需播放器| 无码国产精品一区二区AV| 亚洲色图偷拍自拍亚洲色图| 日韩在线观看入口一二三四| 久久www免费人成—看片| 国产亚洲欧美成人久久片| 国产区高清在线一区二区三区| 亚洲av老熟女一区二区三区 | 狂猛欧美激情性xxxx大豆行情| 国产精品自在线拍国产手机版| 国产成人拍精品免费视频| 亚洲综合网中文字幕在线| 中国国产不卡视频在线观看| 成人三级a视频在线观看| 国模无码视频专区一区| 午夜宅男成人影院香蕉狠狠爱| 伊人久久精品无码av一区| 成人综合网亚洲伊人| 免费在线观看一区二区| 日本一区二区三区丰满熟女| 奇米影视7777久久精品| 区二区欧美性插b在线视频网站| 大白屁股流白浆一区二区三区| 偷拍一区二区三区四区视频| 97无码免费人妻超级碰碰夜夜| 欧美日韩国产专区| 中文字幕日韩一区二区不卡| 丝袜美腿亚洲一区二区| 国产成人一区二区三区在线观看| 欧美中出在线| 在线国产激情视频观看| 日本久久高清一区二区三区毛片| 真实国产乱视频国语| 国产亚洲精品综合一区二区| 97在线视频人妻无码| 久久久久亚洲av无码观看| 青青青草国产熟女大香蕉| 国产一区二区三区在线观看完整版| 亚洲а∨天堂久久精品2021| 欧美精品日韩一区二区三区|