劉思雨
摘 要:隨著人工智能技術(shù)在我國的飛速發(fā)展,對人們的日常生產(chǎn)生活產(chǎn)生越來越重要的影響。而人工智能新技術(shù)的應(yīng)用,也產(chǎn)生了些新鮮的話題,帶來些新的挑戰(zhàn)和法律問題。機器人是人還是機器,它到底是一種什么樣的身份?發(fā)展人工智能,存不存在安全隱患?人工智能侵權(quán)后法律責(zé)任如何劃分?如何看待這些問題,如何解答這些課題,本文將給予一些看法和觀點。
關(guān)鍵詞:機器人;人工智能;法律責(zé)任;新課題
近年來,隨著計算機技術(shù)的不斷發(fā)展和人們對高水平生活的追求,人工智能快速發(fā)展。AI人像模式拍照、虛擬個人助理、在線客服、智能家居設(shè)備、人工智能個性化喜好推薦等已經(jīng)在多個方面為我們的生活提供了便利。隨著人口老齡化問題不斷加劇,還出現(xiàn)了一些智能陪伴機器人,協(xié)助老人養(yǎng)老,執(zhí)行協(xié)助行走,衛(wèi)生清理,聊天等任務(wù)。人工智能的應(yīng)用給人們生產(chǎn)生活帶來極大便利,但同時,人工智能也產(chǎn)生一些安全問題。對人工智能進行風(fēng)險防控和法律應(yīng)對,已成為當(dāng)務(wù)之急。
一、人工智能機器人法律主體問題辨析
探討法律問題的前提首先是,機器人到底是人還是機器?在人工智能2.0時代,機器已經(jīng)可以“深度學(xué)習(xí)”,可以變得社會性,可以參與一些社會活動和工作,那么這就產(chǎn)生了人工智能能否具有公民權(quán)的問題。當(dāng)前,很多機器人被應(yīng)用于完成危險任務(wù),被要求以犧牲保護人類的生命財產(chǎn)安全。如果機器人被賦予人格,那這無疑是侵犯了機器人權(quán)利。在美國一部短劇中,曾描述過一藍(lán)領(lǐng)機器人從事危險、無聊而絕望的工作場景,有人將這一場景與曾經(jīng)人剝削人的歷史相聯(lián)系,認(rèn)為這也是剝奪機器人權(quán)利的一種行為。馬克思理論認(rèn)為價值是凝結(jié)在商品中的無差別人類勞動,而機器人勞動所產(chǎn)生的價值歸屬權(quán)目前無法判斷屬于其自身還是它的擁有者。例如目前已出現(xiàn)能作曲的人工智能,那么它所創(chuàng)作的作品著作權(quán)是屬于擁有者,還是人工智能自身?如果人工智能自身享有著作權(quán),那么它所獲得的這部分利益如何處理?
但大多數(shù)觀點認(rèn)為,人工智能不具備法律人格,它不應(yīng)成為人工智能作品的權(quán)利主體。人工智能創(chuàng)作的作品,所生成的內(nèi)容或創(chuàng)造物,是具有著作權(quán)法意義上的作品,它是由人工智能創(chuàng)造者或所有者所主導(dǎo)產(chǎn)生的,因此,人工智能作品的著作權(quán)應(yīng)該賦予人工智能的創(chuàng)作者或所有者。將人工智能作品的著作權(quán)歸屬于人工智能創(chuàng)造者或所有者,這對激勵他們創(chuàng)新和改進人工智能,促進人工智能作品流通,推動人工智能產(chǎn)業(yè)快速發(fā)展,都具有積極的促進作用。
二、人工智能安全風(fēng)險問題辨析
在確認(rèn)主體問題之后,我們再來看人工智能存在的安全風(fēng)險,有可能對公民造成的傷害。這就產(chǎn)生一系列對于人工智能侵權(quán)及責(zé)任的思考。2016年11月,在深圳舉辦的中國際高新技術(shù)成果交易會上,一名叫小胖的機器人發(fā)生失控,破壞了展廳玻璃,造成人員受傷。歷史數(shù)據(jù)表明,機器大失控時,可能會導(dǎo)致被侵權(quán)人死亡。1979年一美國人曾被重型機械臂擊中頭部身亡;1981年,一工程師曾在修復(fù)機械臂時被活活卡死在房屋柱子上。隨著人工智能在社會各個領(lǐng)域大規(guī)模應(yīng)用,人工智能也會產(chǎn)生一系列安全風(fēng)險。
人工智能發(fā)展是一把雙刃劍,它在給人類帶來好處的同時,也帶來諸多隱患和風(fēng)險。一是人類安全風(fēng)險。人工智能技術(shù)在軍事和戰(zhàn)爭中使用,會有智能性自主武器生產(chǎn),這些武器如果被不當(dāng)使用,人類失去對智能系統(tǒng)的控制,就會給人類帶來毀滅性災(zāi)難。二是社會安全風(fēng)險。一方面是社會性失業(yè)風(fēng)險,人工智能的生產(chǎn)效率遠(yuǎn)高于人類,人類許多工作就會被人工智能取代,引發(fā)大量人員失業(yè),給社會帶來不穩(wěn)定因素;另方面是社會倫理安全風(fēng)險,人類與機器的根本區(qū)別是意志和情感,隨著人工智能技術(shù)的發(fā)展,人工智能也可能會擁有情感,這就使人際關(guān)系更加復(fù)雜化和多樣化,對人類社會的倫理安全產(chǎn)生風(fēng)險。三是個人安全風(fēng)險。一方面是人身損害風(fēng)險,人工智能在應(yīng)用過程中,有可能會發(fā)生人身威脅和財產(chǎn)侵害的安全事故,成為人工智能不可忽視的安全風(fēng)險;另方面是數(shù)據(jù)信息泄漏和隱私權(quán)安全風(fēng)險,人工智能催生了大數(shù)據(jù)時代,產(chǎn)生了海量數(shù)據(jù)資源,這些數(shù)據(jù)一旦泄漏,就會對個人隱私安全造成極大威脅。
三、人工智能法律責(zé)任問題辨析
人工智能侵犯他人權(quán)利后,產(chǎn)生安全風(fēng)險后,應(yīng)由誰來承擔(dān)責(zé)任?是人工智能開發(fā)設(shè)計者,還是參與生產(chǎn)的生產(chǎn)者,亦或是其擁有者?目前爭論最大的就是正蓬勃發(fā)展的人工智能無人駕駛。對此德國在2017年提出一部草案,其中規(guī)定司機可在自動駕駛系統(tǒng)啟動后轉(zhuǎn)移注意力,但需要保持足夠警覺,以便在系統(tǒng)發(fā)出請求時恢復(fù)人工控制。如果自動駕駛模式正在運行過程中發(fā)生事故,責(zé)任在于汽車制造商,但如果自動駕駛系統(tǒng)已發(fā)出人工控制信號,責(zé)任便轉(zhuǎn)移至汽車駕駛者。這是對人工智能發(fā)生事故較合理的規(guī)定,對于其他人工智能機器人所造成的侵權(quán)事件,也應(yīng)當(dāng)制定可執(zhí)行的標(biāo)準(zhǔn)進行衡量,判定責(zé)任。
對于人工智能,我們既要順應(yīng)時代科技潮流,又要對可能產(chǎn)生的風(fēng)險采取規(guī)避措施。首先,樹立風(fēng)險社會的法律理念和安全觀念。世界上沒有絕對安全,對于人工智能安全風(fēng)險,要建立起科學(xué)的風(fēng)險意識,辯證看待人工智能安全問題,消除不安和恐慌情緒。其次,開展人工智能安全評估和管理。因人工智能存在一定安全風(fēng)險,要確定風(fēng)險管制原則和管理體系,對有可能發(fā)生的風(fēng)險進行評估,對安全風(fēng)險進行最大程度的防控。再者,明確人工智能致?lián)p的責(zé)任分擔(dān)機制。如果人工智能在應(yīng)用過程中發(fā)生損害事故,就要明確事故發(fā)生的原因,確定事故的責(zé)任方,看事故責(zé)任是屬于開發(fā)者、所有者、還是銷售者或使用者,建立起人工智能產(chǎn)品的保險制度。最后,建立人工智能法律法規(guī)制度。要及時制定有關(guān)人工智能的法律法規(guī),促進人工智能立法,增強人工智能安全風(fēng)險管控能力,建立多元互動的安全風(fēng)險規(guī)制體系。
參考文獻:
[1]馬中英.關(guān)于人工智能潛在風(fēng)險引發(fā)的法理思考[J].山西省政法管理干部學(xué)院學(xué)報,2018(4):100-102
[2]黃博,劉麗榮.人工智能的法律人格[J].法制博覽,2018(32):78-80
[3]汪婧.發(fā)展人工智能須把好法律關(guān)[J].人民論壇,2018(29):100-101