王怡鑫
(710061 西北政法大學(xué)民商法學(xué)院 陜西 西安)
從2016年人工智能爆炸元年,到2017年國務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,再到深圳地鐵十四號(hào)線“自動(dòng)化無人駕駛”地鐵計(jì)劃于2022年開通試運(yùn)營的消息發(fā)布??梢钥闯鋈斯ぶ悄茉诮鼛啄暄杆侔l(fā)展,而無人駕駛汽車因系統(tǒng)故障撞死行人等侵權(quán)事件也讓人們看到了人工智能的弊端。
在規(guī)制人工智能侵權(quán)問題時(shí),人工智能侵權(quán)問題與傳統(tǒng)侵權(quán)責(zé)任體系的沖突也凸顯出來,迫使人類思考關(guān)于人工智能侵權(quán)的法律問題:在人工智能侵權(quán)事件中該如何認(rèn)定責(zé)任主體、如何分配責(zé)任等。本文將重點(diǎn)分析人工智能的法律地位進(jìn)而確定人工智能侵權(quán)行為的責(zé)任構(gòu)成要件等諸多法律問題。
從人類歷史來看,第一次工業(yè)革命,珍妮機(jī)、蒸汽機(jī)的發(fā)明創(chuàng)造解放了人力。第二次工業(yè)革命,電力技術(shù)的發(fā)明,進(jìn)一步促進(jìn)了生產(chǎn)力的發(fā)展。而第三次工業(yè)革命,也就是計(jì)算機(jī)及信息技術(shù)革命,手機(jī)等發(fā)明創(chuàng)造進(jìn)一步提高了人類的工作效率。現(xiàn)在也就是以人工智能、清潔能源、機(jī)器人技術(shù)等為主的第四次工業(yè)革命。就目前人工智能的發(fā)展來看,也就是人工智能在物流、娛樂、服務(wù)等行業(yè)的應(yīng)用現(xiàn)狀,可以看出人類研發(fā)并生產(chǎn)人工智能,意在解放和發(fā)展社會(huì)生產(chǎn)力。用計(jì)算機(jī)來模擬人的某些思維過程和智能行為來讓人工智能來替人類完成工作。
人工智能侵權(quán)責(zé)任理論分析的起點(diǎn)在于確定人工智能是否具有法律上的主體資格。侵權(quán)責(zé)任的構(gòu)成要件均是以法律主體作為約束對象,侵權(quán)責(zé)任主體民法上的“人”,侵權(quán)責(zé)任中過錯(cuò)的確定要求人的主觀意思,侵權(quán)責(zé)任中要求的違法性條件針對的是行為是否具有違法性,而法律規(guī)范的也是“人”的行為,同樣,因果關(guān)系規(guī)范的也是“人”的行為和侵權(quán)后果之間的因果關(guān)系。而人工智能研究、模擬人的智能裝入機(jī)器系統(tǒng)中,其目前的研究層次早已超越了最初的只能依靠原有固定的已設(shè)計(jì)好的程序編碼進(jìn)行完整遵循的階段,人工智能已經(jīng)進(jìn)入到了能夠模擬人的理性思維進(jìn)行自主判斷決策的階段。但就目前的發(fā)展以及對未來的預(yù)測,人工智能即使可以自主決策,但決策的產(chǎn)生仍然依靠程序,而無法產(chǎn)生意識(shí)進(jìn)行意思表示。這是判斷人工智能的法律地位的關(guān)鍵。
人工智能法律地位的確定癥結(jié)在于將其確定為民法上的“物”還是“人”,如果是“物”,則需要適用客體物的有關(guān)法律,如果定位成人,則需要適用人的有關(guān)規(guī)定。關(guān)于人工智能法律地位的確定,理論界對此爭議頗大。
筆者認(rèn)為人工智能不應(yīng)被賦予民事法律主體資格。判斷人工智能是否應(yīng)被賦予民法上的主體資格,應(yīng)該考慮一下兩方面因素:第一,是否符合民事主體的特點(diǎn),這是人工智能能否被賦予主體資格的硬性條件;第二,賦予人工智能民事主體資格的成本,這是從法律的價(jià)值角度進(jìn)行考量。根據(jù)我國現(xiàn)行法律的規(guī)定,自然人的民事權(quán)利能力始于出生,終于死亡;法人和非法人組織的民事權(quán)利能力始于設(shè)立,終于注銷登記。法律規(guī)范的是人的行為,行為需要意志的支配,作為主體的自然人具有并且到一定時(shí)間會(huì)具有認(rèn)識(shí)和辨認(rèn)事物并控制自己行為的能力,這種意志是獨(dú)立的,可能會(huì)受到他人的影響,但不是受他人的支配或控制;法人有專門的“中樞機(jī)構(gòu)”和財(cái)產(chǎn)來獨(dú)立的進(jìn)行民事法律活動(dòng)和獨(dú)立的承擔(dān)責(zé)任,但人工智能并不具備以上的條件,其內(nèi)置的程序都是人為的提前預(yù)設(shè),即使其可以以程序?yàn)榛A(chǔ)“獨(dú)立”地進(jìn)行推演從而支配自己的行為,但這種“獨(dú)立”也是在預(yù)設(shè)的路徑中的必然情況;另外,在承擔(dān)責(zé)任方面,人工智能并不具有獨(dú)立的財(cái)產(chǎn)。從法律價(jià)值角度考慮,人類創(chuàng)造了人工智能,即使賦予它一定的財(cái)產(chǎn),人工智能可以承擔(dān)財(cái)產(chǎn)賠償,但涉及到身體侵害或者刑事犯罪,并不符合法的公平和正義,人工智能可以不斷被創(chuàng)造,但被害人的生命只有一次,人工智能容易淪為犯罪或者侵權(quán)工具。因此,不管從實(shí)質(zhì)條件還是法的價(jià)值方面,人工智能被賦予民事主體資格都不合理、不合法。
因此,就目前的發(fā)展來看,人工智能無法被賦予民事主體資格,其侵權(quán)責(zé)任的承擔(dān)者仍應(yīng)當(dāng)是相關(guān)人,下面本文將對責(zé)任主體承擔(dān)責(zé)任的條件進(jìn)行進(jìn)一步論證。
基于人工智能被定性為“物”的屬性,那么在產(chǎn)品流通領(lǐng)域,人工智能侵權(quán)就可以被納入到產(chǎn)品責(zé)任當(dāng)中,按照產(chǎn)品責(zé)任構(gòu)成要件進(jìn)行衡量,找出產(chǎn)品背后應(yīng)該承擔(dān)責(zé)任的生產(chǎn)者、使用者、管理者等,以確定侵權(quán)責(zé)任的承擔(dān)。
我國《侵權(quán)責(zé)任法》規(guī)定,產(chǎn)品缺陷損害的生產(chǎn)者責(zé)任,銷售者有過錯(cuò)的同樣承擔(dān)責(zé)任。但問題在于,人工智能產(chǎn)品因其高技術(shù)特點(diǎn)和繁復(fù)的設(shè)計(jì)、操作情況,和普通的產(chǎn)品并不相同,從設(shè)計(jì)研發(fā)到投產(chǎn)到最后的使用,期間涉及到研發(fā)設(shè)計(jì)人員、生產(chǎn)者、銷售者、使用者,在每一環(huán)節(jié)都存在侵權(quán)引發(fā)糾紛的可能,每個(gè)階段的人承擔(dān)的責(zé)任因其身份而有所不同,真正區(qū)分是哪一環(huán)節(jié)的負(fù)責(zé)人來承擔(dān)責(zé)任并不容易,也就是說,人工智能侵權(quán)責(zé)任的承擔(dān)相對于普通產(chǎn)品的產(chǎn)品質(zhì)量責(zé)任有所不同,首先應(yīng)找出因果關(guān)系進(jìn)而找出責(zé)任主體,不同的責(zé)任主體運(yùn)用不同的歸責(zé)原則進(jìn)而確定每個(gè)責(zé)任主體應(yīng)該承擔(dān)的責(zé)任。