張渝敏 李雨晴 段可欣
湖南科技大學(xué),湖南 湘潭 411100
小到家庭中普遍使用的電飯煲,大到無人駕駛汽車、VR技術(shù),人工智能已與人們的生活息息相關(guān)。人工智能為人們的日常生活帶來便利的同時,也對法律制度提出了新挑戰(zhàn)。
無人駕駛汽車作為典型智能汽車,其主要依靠車內(nèi)的用計算機來控制的智能機器來實現(xiàn)無人駕駛。但是,現(xiàn)行《道路交通安全法》、《道路交通安全法實施條例》明文規(guī)定,只有具備駕駛資格和能力的自然人才能夠成為法定的駕駛主體。那就出現(xiàn)一個問題:怎么認(rèn)定自動駕駛系統(tǒng)呢?它不符合法定的主體適格條件,難以適用過錯侵權(quán)責(zé)任。如果這起交通事故是由于系統(tǒng)識別存在問題,首先認(rèn)定主體是車輛使用者,它作為行為主導(dǎo)者以及受益者理應(yīng)負(fù)民法上的責(zé)任,主觀方面它缺乏故意心理,令他負(fù)責(zé)難免無法說通。首先是車輛研發(fā)者,其次是制造、銷售者,他們是否承擔(dān)相應(yīng)的責(zé)任呢?無人駕駛車輛是否可以獨立作為責(zé)任主體?人工智能系統(tǒng)本身所具有的模糊定性,導(dǎo)致此類交通事故往往易認(rèn)定為混合責(zé)任[1],法律上難以定性和分配責(zé)任。
醫(yī)院開展手術(shù)引入醫(yī)療機器人后,器械產(chǎn)品故障導(dǎo)致病人死亡的真實病例已不是個例,此時手術(shù)事故責(zé)任的判定則遇到了法律方面的問題。如果完全是人工智能的原因?qū)е碌牟∏檎`判等情況,該如何承擔(dān)責(zé)任?若共同承擔(dān),又該如何劃分責(zé)任?醫(yī)療機器人沒有人的主觀能動性,是否能真正成為事故責(zé)任的承擔(dān)者?
人工智能技術(shù)的開發(fā)和利用對傳統(tǒng)經(jīng)濟的生產(chǎn)組織結(jié)構(gòu)和日常交易模式產(chǎn)生了顛覆性的影響。消費者通過大數(shù)據(jù)和人工智能技術(shù)下的各類平臺和應(yīng)用展開消費行為,滿足自身需求,而各種人工智能技術(shù)支撐的消費平臺需要收集消費者的各種信息完善數(shù)據(jù)分析。如何在收集用戶信息與保護用戶隱私中取得平衡是智能時代的新問題。隨著科技進一步發(fā)展,人們的生活更為便利,與此同時人們的隱私權(quán)卻遭遇泄露,亟需制定專門的法律去防范人工智能技術(shù)支持下的消費風(fēng)險。
2016年8月,聯(lián)合國世界科學(xué)知識與科技倫理委員發(fā)布了《關(guān)于機器人倫理的初步草案報告》,得出共識:作為智能產(chǎn)品的機器人不僅需要尊重人類社會的倫理規(guī)范,而且需要將特定倫理規(guī)范寫入機器程序中。智能產(chǎn)品的實質(zhì)其實就是科技產(chǎn)品,造成損害后仍以產(chǎn)品責(zé)任調(diào)整其相關(guān)法律問題。2017年12月,美國國會提出兩黨議案——《人工智能未來法案》,主張成立聯(lián)邦人工智能發(fā)展與應(yīng)用咨詢委員會對人工智能相關(guān)事項和問題進行前瞻性研究。[2]2019年4月8日歐盟委員會發(fā)布了一份關(guān)于指導(dǎo)人工智能技術(shù)倫理規(guī)約的草案,預(yù)計試點到2020年。這份草案涉及人類能動性和監(jiān)督,智能性能的穩(wěn)健性和安全性,用戶隱私和數(shù)據(jù)監(jiān)管和問責(zé)制,透明性、多元化、非歧視和公平及社會環(huán)境福祉等多個方面。
可以看出,目前國內(nèi)及國際范圍內(nèi)對人工智能的法律規(guī)制尚處建設(shè)階段,大多數(shù)法規(guī)政策目前抽象雛形化,具體的法規(guī)較少。美國在自動駕駛領(lǐng)域的立法主要集中在責(zé)任界定方面。歐盟所提出所謂“機器人憲章”:人工智能研究需遵守諸如人類利益、正義、基本權(quán)利、包容性、可責(zé)性、安全性等倫理準(zhǔn)則。這都是群眾強烈呼吁將“道德代碼”嵌入人工智能程序的成果。
此外,學(xué)術(shù)界也有觀點認(rèn)為,現(xiàn)行人工智能發(fā)展程度尚不需要另立法規(guī)加以規(guī)制。根據(jù)人工智能發(fā)展水平之說,當(dāng)前現(xiàn)有的人類人工智能處在弱人工智能向強人工智能的過渡期間,尚不能制造出真正地推理和解決問題的智能機器,目前單項功能性智能機器只不過看起來像是智能的,但是并不真正擁有智能,也不會有自主意識,僅用現(xiàn)行侵權(quán)制度加以規(guī)制足以應(yīng)對。
從損害的結(jié)果出發(fā),人工智能產(chǎn)品致人損害的情形大致可以分為三種:一是由于人工智能產(chǎn)品使用者操作失誤造成的損害;二是由于人工智能產(chǎn)品制造者的人為失誤造成的損害;三是由于人工智能自我判斷失誤造成損害[3]。
人工智能產(chǎn)品使用者操作失誤造成的損害,應(yīng)當(dāng)由操作者承擔(dān)責(zé)任。損害由使用者操作失誤造成的過錯完全在操作者本人,應(yīng)由其獨立承擔(dān)侵權(quán)責(zé)任。
人工智能產(chǎn)品制造者由于制造失誤造成的損害,應(yīng)當(dāng)由其承擔(dān)獨立責(zé)任,由于法律上暫時無法完全涵蓋新一代人工智能所造成的損害,此情況可以采用相類似的情況下的未成年人替代責(zé)任的理論來解釋[4]。人工智能產(chǎn)品從其本身性質(zhì)來看就是屬于產(chǎn)品的一種,根據(jù)我國的產(chǎn)品質(zhì)量法,經(jīng)由原告證明產(chǎn)品存在缺陷后產(chǎn)品制造者承擔(dān)最終責(zé)任。但原告不一定對此領(lǐng)域有相關(guān)了解,所以要求原告證明人工智能產(chǎn)品的缺陷相當(dāng)困難。對此,假如適用未成年人的替代責(zé)任理論解釋,將會是一條更為合理有效的解釋方式。根據(jù)未成年人替代責(zé)任理論,人工智能產(chǎn)品作為一種特殊的法律主體是本應(yīng)承擔(dān)責(zé)任的,但是由于沒有承擔(dān)責(zé)任的能力,同時受害人需要得到公平的賠償,其責(zé)任就不得不轉(zhuǎn)移到制造者承擔(dān),正如未成年人替代責(zé)任中,有責(zé)任能力的監(jiān)護人因未能履行監(jiān)護職責(zé)而承擔(dān)對沒有責(zé)任能力的未成年人的替代責(zé)任。
除上述情況之外,因不明的緣由所造成的侵害,應(yīng)當(dāng)由制造者和使用者共同承擔(dān)責(zé)任,其責(zé)任承擔(dān)也可以采用未成年人的替代責(zé)任進行解釋。此種損害的造成,并非是由使用者的操作失誤或制造者的制造缺陷造成的,多數(shù)情況下是人工智能產(chǎn)品自我判斷失誤造成的。高速發(fā)展的人工智能產(chǎn)品,能夠在變幻莫測的經(jīng)歷中自主學(xué)習(xí)新的信息,從而主動地利用新的數(shù)據(jù)作出決策,其自我行動造成的損害,就如同一個未成年人一般,隨著年齡的見長逐漸具備了獨自行為的能力,依照誰作為誰負(fù)責(zé)的原則,該高智能人工智能機器應(yīng)當(dāng)承擔(dān)獨立的侵權(quán)責(zé)任,但說到底人工智能仍然是沒有生命的產(chǎn)品,一個冰冷的機器是沒有承擔(dān)責(zé)任的能力的。此時,人工智能產(chǎn)品使用者和制造者相對來說是最合適的擔(dān)責(zé)主體,作為與該產(chǎn)品關(guān)聯(lián)最密切的主體,二者無論從法律還是倫理上都理應(yīng)承擔(dān)責(zé)任。
能夠構(gòu)成人工智能侵權(quán)責(zé)任的侵權(quán)案件主要包括兩種,一種是產(chǎn)品責(zé)任,另一種是機器能夠做出自主決策后的侵權(quán)行為,鑒于目前處于弱智能時代,尚不能深入了解后一種的構(gòu)成情形,本文不予討論。在人工智能的產(chǎn)品責(zé)任中,由于制造商故意或過失造成人工智能算法缺陷后,必須要對受害者人身、財產(chǎn)或精神造成實際傷害,并且受害人能夠證明之間的因果關(guān)系時才真正構(gòu)成人工智能的侵權(quán)責(zé)任。在判斷人工智能如何承擔(dān)侵權(quán)責(zé)任時,現(xiàn)行產(chǎn)品責(zé)任原則要求機器侵權(quán)責(zé)任能夠被明確歸于制造商、所有人或使用者等具有預(yù)見能力并且可以避免該侵害結(jié)果主體的,這些主體應(yīng)負(fù)嚴(yán)格責(zé)任。在確定該機器屬于《產(chǎn)品質(zhì)量法》中所定義的“經(jīng)過加工、制作,用于銷售”而非自用目的的產(chǎn)品后,應(yīng)確認(rèn)該產(chǎn)品是否存有缺陷。在設(shè)計、制造、指示和產(chǎn)品發(fā)展上出現(xiàn)人為的操作失誤,導(dǎo)致缺陷的出現(xiàn),這份缺陷危及了人身和財產(chǎn),除此之外,我們假如認(rèn)定人工智能單單是個產(chǎn)品,那么可依據(jù)替代責(zé)任的規(guī)則,來追究智能機器人的侵權(quán)責(zé)任。若機器人沒有技術(shù)上的問題,那么歸責(zé)就鎖定在機器人的所有人或使用人,或不盡善良管理人身上,或放任機器人的侵權(quán)行為的有意者,而不能直接免除責(zé)任了。
目前,我國的人工智能產(chǎn)業(yè)尚處于雛形時期,在人工智能蓬勃發(fā)展的浪潮中,我們必須深入研究人工智能可能遭遇的法律困境和問題,建立健全促進人工智能健康發(fā)展的法律法規(guī),讓人工智能的“頭雁”效應(yīng)不失偏。