司源
摘要:人工智能從1956年的達(dá)茅斯會議提出,到現(xiàn)在已有61年的歷史。經(jīng)過了60多年的演變,人工智能的發(fā)展進(jìn)入了新階段并逐漸成為國際競爭的新焦點(diǎn)、經(jīng)濟(jì)發(fā)展的新引擎。人工智能為社會建設(shè)帶來新機(jī)遇,將深刻地改變?nèi)祟惿鐣?、改變世界。但人工智能發(fā)展的不確定性也會帶來諸多挑戰(zhàn)。所以在大力發(fā)展的同時,必須高度重視可能帶來的風(fēng)險。
關(guān)鍵詞:人工智能;機(jī)遇;挑戰(zhàn);立法
1.前言
人工智能(Artificial Intelligence),英文縮寫為AI。它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。對于大多數(shù)人而言,他們簡單地認(rèn)為的人工智能就是機(jī)器人,其實(shí)機(jī)器人只是人工智能的一部分。近幾年有關(guān)人工智能的新聞層出不窮,人們在為人工智能的強(qiáng)大能力感到驚嘆。2017年4月27日,英國著名科學(xué)家史蒂芬.霍金就通過視頻發(fā)表演講,再一次提及了他對人工智能的擔(dān)憂。盡管我對人類一貫持有樂觀的態(tài)度,其他人也認(rèn)為,人類可以在相當(dāng)長時間里控制技術(shù)的發(fā)展,這樣我們就能看到人工智能解決世界上大部分問題的潛力。
人工智能時代已從幕后走向臺前。從阿爾法狗大戰(zhàn)李在石、微軟公司在推特社交平臺上發(fā)布了名為Tay的人工智能聊天機(jī)器人到IBM研發(fā)出世界上第一位人工智能律師Ross。人工智能已走向大眾生活,改變了傳統(tǒng)認(rèn)知。但在實(shí)踐中,人工智能所引發(fā)的問題也是層出不窮。如何對人工智能的發(fā)展作出妥善地法律制度安排,在技術(shù)的發(fā)展過程中,對人工智能的法律地位、法律責(zé)任、權(quán)利義務(wù)如何安排,以引導(dǎo)實(shí)踐的發(fā)展,是當(dāng)代法學(xué)家應(yīng)該思考的問題。雖然現(xiàn)在人工智能還處于前期階段,我們對這些可能出現(xiàn)的問題還未有系統(tǒng)性的認(rèn)識,但可做一些前瞻性的研究,以避免出現(xiàn)問題而束手無措。本文就人工智能對當(dāng)代法律制度的沖擊分析如下。
2.人工智能對民事法律關(guān)系的挑戰(zhàn)
2.1人工智能的民事法律地位的界定
人工智能的發(fā)展,首先引發(fā)一個最重要的法律問題。即機(jī)器人究竟是人還是機(jī)器,在法律上是否具有主體地位,能否獨(dú)立享受權(quán)利和承擔(dān)義務(wù)。對于人工智能的性質(zhì),學(xué)界一直爭論不休。比較普遍的說法有工具說、電子奴隸說、代理說等等。而現(xiàn)行體系下,人工智能是否具有法律人格地位并不清晰,是造成了現(xiàn)如今適用困境的主要原因。雖然現(xiàn)在機(jī)器人在法律的獨(dú)立主體地位并沒有獲得普遍認(rèn)可,但按照目前的趨勢發(fā)展,擴(kuò)大機(jī)器人在法律上的權(quán)利和義務(wù),在智能技術(shù)快速發(fā)展的今天,并不是沒有可能。到那個時候,我們傳統(tǒng)的民法體系就會被動搖。
2.2人工智能致人損害的侵權(quán)問題
人工智能是通過計算機(jī)的程序設(shè)定來進(jìn)行工作,與人類協(xié)作,所以出現(xiàn)失誤在所難免。在實(shí)踐中,就已經(jīng)出現(xiàn)過機(jī)器人致人損害事件。在深圳舉辦的第十八屆中國國際高新技術(shù)成果交易會上,有一臺機(jī)器人突然發(fā)生故障,在沒有指令的前提下打砸展臺玻璃,導(dǎo)致部分展臺破壞,同時有路人受傷。根據(jù)美國職業(yè)安全健康管理局的統(tǒng)計數(shù)據(jù),因?yàn)闄C(jī)器人產(chǎn)業(yè)目前還沒有具體的安全標(biāo)準(zhǔn),在過去30年間發(fā)生了大約30起與機(jī)器人相關(guān)的死亡事件。那么,對于機(jī)器人造成的人員傷亡,他們應(yīng)該承擔(dān)怎樣的責(zé)任呢。按照當(dāng)前的法律來看,機(jī)器人屬于電子產(chǎn)品,誰制造誰生產(chǎn)誰負(fù)責(zé),似乎沒有爭議。但現(xiàn)實(shí)是,未來機(jī)器人與人類一樣,他們有“自我意識”,可以用腦子進(jìn)行思考抉擇,哪些事情應(yīng)該做哪些事情應(yīng)該盡力避免。那么,機(jī)器人的行為就可能會超出了人類所能控制的范圍。如果一味讓生產(chǎn)者為機(jī)器人的行為買單,似乎有點(diǎn)不符合情理。
2.3人工智能侵犯知識產(chǎn)權(quán)的問題
現(xiàn)在的制造者往往會在機(jī)器人的程序輸入大量他人的作品或著作,以達(dá)到幫助機(jī)器人完成自我使命以及產(chǎn)生自我意識。在一些地方計算機(jī)幫助人進(jìn)行原來只屬于人類的工作,智能機(jī)器人可能把大量的信息復(fù)制并儲存下來,而按照一些國家的規(guī)定,存儲信息本身就構(gòu)成對他人著作權(quán)的侵害。
2.4人工智能與隱私權(quán)的保護(hù)
隱私權(quán)是指自然人享有的私人生活安寧與私人信息秘密依法受到保護(hù),不被他人非法侵?jǐn)_、知悉、收集、利用和公開的一種人格權(quán)。個人信息屬于當(dāng)事人隱秘的不愿被他們知曉的信息,包括家庭住址、信用和財產(chǎn)狀況、健康狀況等等。但在互聯(lián)網(wǎng)四通八達(dá)的大數(shù)據(jù)時代,這些零散和廣泛的數(shù)據(jù)都可能被收集起來,容易被他人操控并作為違法行為的工具。個人信息泄露并非只發(fā)生在我國。在互聯(lián)網(wǎng)的發(fā)展過程中,我們需要以傳統(tǒng)法律為基礎(chǔ),針對互聯(lián)網(wǎng)的特點(diǎn)制定出一些專門規(guī)則來引導(dǎo)其健康有序發(fā)展。例如早在1986年美國就頒布了《電子通訊隱私法案》。大數(shù)據(jù)的到來也同時強(qiáng)化了人工智能開發(fā)者的責(zé)任。即在收集和使用數(shù)據(jù)的過程中,還要遵守相應(yīng)的安全保障原則,采取適當(dāng)有效的方法避免數(shù)據(jù)的泄露,防止未經(jīng)授權(quán)隨意披露使用篡改。隨著人工智能技術(shù)的不斷深入發(fā)展,更是不斷強(qiáng)化立法保護(hù)的過程。
2.5人工智能生成作品的著作權(quán)問題
在現(xiàn)實(shí)生活中,人工智能創(chuàng)作的文學(xué)作品早已經(jīng)投入實(shí)踐。微軟機(jī)器人“小冰”還會唱歌,還會寫歌詞和財經(jīng)評論。但是這些作品背后的著作權(quán),到底歸誰所有?該行為是否能構(gòu)成知識產(chǎn)權(quán)法上的"智力成果"和"獨(dú)創(chuàng)性"的要求。關(guān)于人工智能的生成作品。知識產(chǎn)權(quán)法需要解決的問題是,機(jī)器人是否能稱成為著作權(quán)的主體?有專家說,雖然機(jī)器人的著作創(chuàng)造是在開發(fā)者輸入的模版?zhèn)€固定格式上進(jìn)行的,但仍可以視為著作權(quán)法意義上的作品。也就是說,如果作品是由機(jī)器人獨(dú)立創(chuàng)作的,那么就可以視為著作權(quán)法上的主體。但在現(xiàn)實(shí)中,因?yàn)闄C(jī)器人表達(dá)自我意識的有限性,他并不能像人類一樣去行使權(quán)利和履行義務(wù)。所以,可參照職務(wù)作品或雇傭作品的規(guī)定,由機(jī)器人得開發(fā)者或創(chuàng)造者享有或使用。那么,具體該如何操作,就需要法律出面規(guī)制,法律應(yīng)從何種角度來保護(hù)機(jī)器人創(chuàng)作的作品,由自身享有還是由機(jī)器開發(fā)者或創(chuàng)作者所有。
3.人工智能對刑事法律關(guān)系的挑戰(zhàn)
3.1無人駕駛與交通肇事犯罪
李彥宏在位置講解,而主駕位置雖然坐了司機(jī),但雙手已經(jīng)離開方向盤。通過這個新聞,我們雖不能對百度自動駕駛的發(fā)展全盤否認(rèn),但從整個世界的大環(huán)境看,發(fā)展自動駕駛是大勢所趨。那么,這里面便會涉及到無人駕駛與交通肇事犯罪之間的聯(lián)系。首先,在無人駕駛中,法律上具有主體地位的“人”并沒有參與其中,使得刑事責(zé)任主體無處可尋,即沒有犯罪主體也就沒有對象可處罰。再是,刑法上的構(gòu)成犯罪須符合主客觀相統(tǒng)一原則。而對于無人駕駛的主觀意圖我們無法查證,也就無法定罪。一般情況下,要分清人為操作不當(dāng)還是人工智能的缺陷病沒有那么容易,舉證上尤為困難。然而,并非無人駕駛只要發(fā)生交通事故,用戶受到損害都要?dú)w責(zé)于人工智能。如果一律的追究技術(shù)開發(fā)者的責(zé)任,在有些情況下可能有違公理。當(dāng)然,有些學(xué)者認(rèn)為,在刑法對待無人駕駛的法律地位上,應(yīng)與公司的法律地位無異。即按照“刺破人工智能面紗”的規(guī)則原則來確定責(zé)任主體,由人工智能的實(shí)際控制人或責(zé)任人承擔(dān)責(zé)任是合理的。但將來人工智能在一定程度上可能會擁有自我意識,而實(shí)際的設(shè)計者或制造者都沒有辦法完全控制或人工智能已超出原有程序行事,還一味讓他們承擔(dān)刑事責(zé)任,這樣合理嗎?
3.2人工智能與醫(yī)療事故犯罪
去年8月,老牌人工智能產(chǎn)品IBM Watson分析了數(shù)千個基因突變,最終確診一位60歲的日本女性,患有一種非常罕見的白血病,并提供了適當(dāng)?shù)闹委煼桨?,而幾個月前她曾被醫(yī)院誤診。Watson的整個診斷過程不到10分鐘,如果換做人類醫(yī)生,這個診斷需要耗時數(shù)周才能做到。這些科研人員表示,該技術(shù)未來也可以用于診斷其他疾病。對于過失犯罪的責(zé)任主體可能就不單純是傳統(tǒng)意義上的醫(yī)務(wù)人員,還擴(kuò)大智能技術(shù)或智能機(jī)器人。在醫(yī)療領(lǐng)域,隨著技術(shù)的進(jìn)一步發(fā)展,他們的適用范圍會越來越廣泛,可替代性越來越強(qiáng)。而他們的特殊身份能否被法律所認(rèn)可,他們從事醫(yī)療服務(wù)是否應(yīng)該取得相應(yīng)的執(zhí)照,以及出現(xiàn)醫(yī)療事故的責(zé)任承擔(dān),都是法律應(yīng)該考慮的問題。
4.人工智能對司法實(shí)踐的影響
司法實(shí)踐中通常法官按照自己的理解解讀法條,律師總是按照對當(dāng)事人有利的方式解讀法律。因此,人工智能運(yùn)用于司法實(shí)踐活動中,一定程度上能夠促進(jìn)司法公正。首先,它的記憶和檢索的功能非常強(qiáng)大,能夠?yàn)樗痉▽徟刑峁┫鄬y(tǒng)一的推理和評價標(biāo)準(zhǔn),從而輔助法官做出具有一貫性的判決。其次,人工智能運(yùn)用于司法實(shí)踐活動中,能夠提高司法審判的工作效率。在司法人員的職業(yè)生涯中,難免要完成大量重復(fù)的機(jī)械工作,此時人工智能可以代替司法人員解決這些工作,從而極大地縮短其工作時間和壓力。當(dāng)然,隨著人工智能法律技術(shù)的強(qiáng)大,司法人員是否面臨被全面取代的危機(jī)也是值得思考的一個問題。
最后,對于人工智能的快速發(fā)展,我們還忽略了一個特殊群體,即未成年人。人工智能的發(fā)展衍生出很多電子產(chǎn)品并快遞融入我們的生活。比如手機(jī)(軟件開發(fā)商推出了很多APP)、iPad、電腦中就充斥著各種智能技術(shù)帶來的內(nèi)容沖擊。而生活在電子時代的小朋友們,對于這些其實(shí)并不陌生。之后,亞馬遜個人助手通過算法進(jìn)行識別,竟然認(rèn)為小孩子想聽色情內(nèi)容并開始播放。無獨(dú)有偶,一名小女孩在和Econ內(nèi)置的人工智能助手Alexa聊天時,訂下了價值170美元的玩具,等家長發(fā)現(xiàn)并取消訂單,已經(jīng)為時已晚。從這些事例我們可以看到,由于人工智能技術(shù)的發(fā)展并不完全成熟,未成年在過早接觸到這項(xiàng)技術(shù)會帶來很多問題,對他們的成長也可能會帶來負(fù)面影響。而對于人工智能的開發(fā)者或創(chuàng)造者,他們應(yīng)該預(yù)料到未成年人接觸到這項(xiàng)產(chǎn)品的可能性,并應(yīng)該采取相應(yīng)的保護(hù)措施。在法律方面,也應(yīng)該考慮到人工智能廣泛運(yùn)用后對未成年可能造成的影響而加強(qiáng)立法保護(hù)。
總之,當(dāng)前人工智能對法律的挑戰(zhàn)主要集中在一下幾個方面:缺乏法律價值引導(dǎo)、法律主體地位和法律人格不明、缺乏具體規(guī)則標(biāo)準(zhǔn)、責(zé)任劃分等問題。而對于人工智能的立法問題,縱觀全球,都屬于世界新課題。在立法方面,國外已作出一定的嘗試,我們可以在參考域外經(jīng)驗(yàn)上,根據(jù)本國具體的發(fā)展情況作出適當(dāng)調(diào)整。在人工智能法律和倫理研究方面,以UN和IEEE最為突出。2016年8月,UN下屬COMEST(科學(xué)知識和科技倫理世界委員會)發(fā)布《機(jī)器人倫理初步報告草案》,認(rèn)為機(jī)器人不僅需要尊重人類社會的倫理規(guī)范,而且需要將特定倫理準(zhǔn)則編寫進(jìn)機(jī)器人中。[1]2016年5月,法律事務(wù)委員會發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》(Draft Report with Recommendation to the Commission on Civil Law Rules on Robotics,簡稱《報告草案》);同年10月,發(fā)布研究成果《歐盟機(jī)器人民事法律規(guī)則》(European Civil Law Rules in Robotics).在國內(nèi),雖然近幾年政府一直在大力推動人工智能的發(fā)展,鼓勵搶占科技的制高點(diǎn),但重心仍停留在研發(fā)階段。而對于人工智能可能帶來的社會和經(jīng)濟(jì)轉(zhuǎn)型,在監(jiān)管和法律方面還缺乏系統(tǒng)認(rèn)識和積極部署。換言之,政府還未意識到應(yīng)該以何種方式參與到這場科技革命中。試想,如果沒有相應(yīng)的法律法規(guī)與現(xiàn)行的人工智能發(fā)展想適應(yīng),勢必會影響人工智能的進(jìn)一步發(fā)展。在人工智能出現(xiàn)這樣或那樣的弊端,并與社會發(fā)展相悖時,而沒有法律法規(guī)的引導(dǎo)和合理的規(guī)避,就會給社會發(fā)展帶來負(fù)面效應(yīng)。
5.結(jié)語
我們?nèi)缃裆钤诟呖萍紩r代,享受著人工智能為我們描繪出的美好愿景。但科技的發(fā)展是一把雙刃劍,人工智能在我們生活帶來便捷的同時,也同樣會顛覆很多傳統(tǒng)的行業(yè)。按照哲學(xué)的觀點(diǎn),對于人工智能的發(fā)展我們應(yīng)該從辯證法的角度來分析。出現(xiàn)了問題,不能一味的否定。用吳漢東教授的話來講,我們相信,人類既然有智慧創(chuàng)造出人工智能,也就有能力和職責(zé)來控制人工智能。因此,最好是期待是人類的聰明才智,而非低估它。最好是承認(rèn)風(fēng)險的存在,而非否認(rèn)它。我們應(yīng)當(dāng)思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰(zhàn)面前,增強(qiáng)風(fēng)險認(rèn)為你是能力,提高制度風(fēng)險意識,通過法律和其他社會規(guī)范來規(guī)避風(fēng)險,引導(dǎo)和規(guī)范人工智能技術(shù)健康發(fā)展,這即是法學(xué)家、法律家的任務(wù)。
參考文獻(xiàn)
[1] 劉憲權(quán).涉人工智能犯罪中的歸因與歸責(zé)標(biāo)準(zhǔn)探析[J/OL].東方法學(xué):1-13[2020-04-29].https://doi.org/10.19404/j.cnki.dffx.20200429.005.
[2] 劉夢杰.人工智能的發(fā)展進(jìn)程及現(xiàn)狀[J].科技創(chuàng)新與應(yīng)用,2020(12):55-56+59.
[3] 陳勁.高度智能化的市場還有戲劇性嗎?[J/OL].人民論壇·學(xué)術(shù)前沿:1-9[2020-04-29].https://doi.org/10.16619/j.cnki.rmltxsqy.2020.30.006.