亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能體的法定人權(quán)與刑法保護(hù)路徑

        2022-02-05 15:40:37賈健魏博
        江蘇警官學(xué)院學(xué)報 2022年1期
        關(guān)鍵詞:主體人工智能人類

        賈健 魏博

        一、問題的提出:人工智能體的權(quán)利“真空”

        隨著經(jīng)濟(jì)社會的發(fā)展,我國已經(jīng)進(jìn)入了人工智能時代。2021 年6 月10 日,十三屆全國人大常委會第二十九次會議通過了數(shù)據(jù)安全法。①《數(shù)據(jù)安全法:護(hù)航數(shù)據(jù)安全,助力數(shù)字經(jīng)濟(jì)發(fā)展》,http://www.npc.gov.cn/npc/c36748/202106/5bb18ae096d540d286d f57c5639f035d.shtml,訪問日期:2022 年3 月5 日。2017 年12 月,習(xí)近平總書記在主持中央政治局第二次集體學(xué)習(xí)時強(qiáng)調(diào),實(shí)施國家大數(shù)據(jù)戰(zhàn)略,加快建設(shè)數(shù)字中國,推動制造業(yè)加速向數(shù)字化、網(wǎng)絡(luò)化、智能化發(fā)展。黨和國家的決策部署,為人工智能研究提供了路線指引。如何正確闡釋人工智能領(lǐng)域的法律問題,成為當(dāng)下法學(xué)研究者和法律工作者的熱議主題。

        馬克思曾指出:“社會不是以法律為基礎(chǔ)的。那是法學(xué)家們的幻想。相反地,法律應(yīng)該以社會為基礎(chǔ)。”②《馬克思恩格斯全集》(第6 卷),人民出版社1961 年版,第291-292 頁。2017 年末,由總部位于香港的人工智能機(jī)器人公司Hanston Robotics 設(shè)計的“女性”機(jī)器人索菲亞(Sophia),已被沙特阿拉伯王國授予公民身份。③《首個被授予沙特公民身份的機(jī)器人索菲亞:用人工智能幫助人類過上更好的生活》,https://www.sohu.com/a/201851 127_612426,訪問日期:2022 年3 月5 日。2021 年6 月1 日,清華大學(xué)計算機(jī)系知識工程實(shí)驗(yàn)室迎來了中國首個原創(chuàng)虛擬學(xué)生——華智冰,清華大學(xué)為她辦理了學(xué)生證和郵箱。①《中國首個虛擬學(xué)生入學(xué)!在清華大學(xué)計算機(jī)系,還會作詩作畫!》,https://mp.weixin.qq.com/s/Q0IfaAno5JrYBtcvMB pkMg,訪問日期:2022 年3 月5 日。在人工智能體蓬勃發(fā)展的當(dāng)下,應(yīng)如何為人工智能體定性?人工智能體是否如同傳統(tǒng)機(jī)械一樣,屬于法律關(guān)系客體?亦或應(yīng)承認(rèn)人工智能體擁有部分的法律關(guān)系主體地位,甚至承認(rèn)其享有部分“法定人權(quán)”?對此,學(xué)界存在諸多觀點(diǎn),理論共識尚未達(dá)成。經(jīng)歷了數(shù)年論戰(zhàn),“權(quán)利主體完全肯定論”作為一種過于“激進(jìn)”的觀點(diǎn),超出了當(dāng)前社會的接受程度和科學(xué)技術(shù)的成熟度,目前已經(jīng)式微。但是,“權(quán)利主體完全否定論”及各種類型的“折中說”之間的論戰(zhàn)依舊如火如荼。

        在中國知網(wǎng)以“人工智能主體”為檢索詞,以法學(xué)相關(guān)學(xué)科為檢索范圍,可檢索到期刊論文1600余篇,學(xué)位論文580 余篇。面對汗牛充棟的學(xué)說觀點(diǎn),本文持一種積極而折中的觀點(diǎn):既然邁入人工智能時代已經(jīng)不可避免,人們就沒有理由完全否認(rèn)人工智能體的存在?!?045 年人工智能將全面超越人類”的“奇點(diǎn)臨近”預(yù)言②[美]雷·庫茲韋爾:《奇點(diǎn)臨近》,李慶誠、董振華、田源譯,機(jī)械工業(yè)出版社2011 年版,第80 頁。無論是否真實(shí),現(xiàn)實(shí)中的人工智能體早已突破了原有的“工具”屬性。無論是為了保護(hù)人類免受“機(jī)器決定,人類擔(dān)責(zé)”的困擾,還是為了保護(hù)人工智能體,使之能更好地為人類服務(wù),人工智能體均應(yīng)被賦予法律關(guān)系主體地位。但是,由于弱人工智能時代的人工智能體仍然兼具部分工具屬性,這種權(quán)利“真空”究竟有多大范圍,應(yīng)該如何衡量?“隨著對生態(tài)環(huán)境法律保護(hù)研究的深入,越來越多的學(xué)者開始提倡應(yīng)賦予包括動物、植物、環(huán)境、自然和生態(tài)系統(tǒng)等非人類存在物的法律主體資格?!雹鄄苊鞯拢骸斗缮鷳B(tài)化趨勢初探》,《現(xiàn)代法學(xué)》2002 年第2 期。人工智能體在何種范圍內(nèi)也可以被授予這種“法定人權(quán)”或是“法律權(quán)利”,仍需深入探討。本文認(rèn)為,上述問題主要可以分為如下幾個方面:其一,人工智能體是否應(yīng)該享有“法定人權(quán)”?其二,人工智能體成為法律關(guān)系主體是否有利于社會發(fā)展?其三,人工智能體究竟可以享有哪些“權(quán)利”?其四,刑法可以為這些“權(quán)利”提供何種保護(hù)?

        回到前文事例中,我們究竟應(yīng)該如何與同為“公民”的索菲亞共同生活呢?又應(yīng)該如何與華智冰在同一間教室里學(xué)習(xí)呢?如果“他們”近在眼前,刑法又該如何保護(hù)他們呢?

        二、人工智能體享有“法定人權(quán)”的本體性分析

        我國社會需要加速朝向數(shù)字化、網(wǎng)絡(luò)化和智能化方向發(fā)展,為了使人工智能體能夠進(jìn)一步提高生產(chǎn)效率,更好地為人類服務(wù),人權(quán)的內(nèi)涵和外延應(yīng)該相應(yīng)地進(jìn)行擴(kuò)展,將部分人工智能體的部分行為涵攝其中,并以法律形式固定下來。通過保護(hù)人工智能體的“權(quán)利訴求”,進(jìn)而保護(hù)自然人的人權(quán)。本文擬從以下幾個方面對人工智能體的“法定人權(quán)”加以證成。④為了對人工智能體的“法定人權(quán)”這一新興權(quán)利進(jìn)行證成,本文第二部分和第三部分參考了姚建宗教授的分析路徑,即(1)全新的權(quán)利概念及內(nèi)涵;(2)憲法及法律尚未普遍予以規(guī)定;(3)能夠滿足經(jīng)濟(jì)社會發(fā)展需要;(4)被人們廣泛認(rèn)可;(5)在實(shí)踐中得到重視并予以有效保障。參見姚建宗:《新興權(quán)利論綱》,《法制與社會發(fā)展》2010 年第2 期。

        (一)人工智能體所享有的“法定人權(quán)”是一種擬制人權(quán)

        “人權(quán)”就是人的權(quán)利、屬人的權(quán)利,它指的是人類能夠擁有或宣稱擁有的東西。換句話說,人權(quán)指的是人類認(rèn)為自己是誰。”⑤[美]弗朗西斯·福山:《我們的后人類未來:生物技術(shù)革命的后果》,黃立志譯,廣西師范大學(xué)出版社2017 年版,第113 頁。通說認(rèn)為,“法定人權(quán)”(或稱法律權(quán)利),與自然人權(quán)和應(yīng)有人權(quán)一道,構(gòu)成了人權(quán)的理論體系。從法定人權(quán)的角度出發(fā),賦予人工智能體地位,很大程度上是為了保護(hù)作為核心利益的自然人人權(quán)。具言之,人工智能體并不是人,但法律可以將人工智能體擬制為“法定人權(quán)”的主體。此種法律擬制,從本質(zhì)上而言,還是通過承認(rèn)人工智能體的法律關(guān)系主體地位,進(jìn)而保障自然人的人權(quán)及社會公共利益。在此,本文對相關(guān)質(zhì)疑回應(yīng)如下。

        一方面,人工智能體享有擬制人權(quán)主體地位并不存在理論障礙。從一定程度上講,近現(xiàn)代法律已經(jīng)將諸多非人類主體擬制為人權(quán)主體。對此,德國民法學(xué)家漢斯·哈騰鮑爾曾言:“任何一個權(quán)利的主體者,尤其是人們將其稱為民事權(quán)利的主體的時候,立即成為法律上的人?!雹伲勖溃菁s翰·弗蘭克:《機(jī)器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版有限公司2018 年版,序第2 頁。不僅僅在民事法律領(lǐng)域,在整個法律體系中,擬制為權(quán)利主體乃至擬制為“法定人權(quán)”的主體都是一個常用的法律技術(shù)手段。馬克斯·韋伯在論及法人制度時曾說:“法律技術(shù)上的一個解決辦法,便是法人概念的構(gòu)想?!?yàn)樗^人,通常就是個法學(xué)概念?!雹冢鄣拢蓠R克斯·韋伯:《法律社會學(xué)》,康樂、簡惠美譯,廣西師范大學(xué)出版社2005 年版,第102 頁。有學(xué)者更是進(jìn)一步指出:“我們現(xiàn)代的法制體系在對待某國家、某民族、某群體、某公司、某單位時,就好像在對待一個有血有肉的具體個人一樣,賦予這類非個人的龐大組織法律主體上的人格、意志、精神、權(quán)利、責(zé)任與義務(wù)?!雹壑茉敚骸吨悄軝C(jī)器人“權(quán)利主體論”之提倡》,《法學(xué)》2019 年第10 期。故而,從歷史角度考察,人工智能體成為擬制人權(quán)主體并非首例,人工智能體同國家、法人等概念一樣,同樣具備擬制為“法定人權(quán)”主體的理論基礎(chǔ)和邏輯前提。

        另一方面,人工智能體享有擬制人權(quán)主體地位符合人權(quán)理論的發(fā)展需求。人權(quán)向來不是一種抽象的權(quán)利,而是一種嵌入具體的社會結(jié)構(gòu)和歷史環(huán)境中的權(quán)利。按照馬克思主義的觀點(diǎn),歷史性與社會性是人權(quán)的本質(zhì)屬性,人權(quán)是社會歷史的產(chǎn)物。“人權(quán)無論是作為一種要求、一種政治主張,還是作為法定權(quán)利,它的產(chǎn)生、實(shí)現(xiàn)和發(fā)展都必須以一定社會的經(jīng)濟(jì)條件為基礎(chǔ)。”④劉瀚、李林:《馬克思主義人權(quán)觀初論》,《中國法學(xué)》1991 年第4 期。人權(quán)的定義不是永恒的,人權(quán)的主體、客體、內(nèi)容等,均是處于不斷變化中的。昨日人權(quán)的范疇,并不能完全定義今日人權(quán)的范疇。在當(dāng)下的人工智能時代,社會發(fā)展使人工智能體產(chǎn)生了權(quán)利需求,法律對這種需求理應(yīng)加以回應(yīng),賦予人工智能體擬制人權(quán)主體地位則是這一回應(yīng)的必然產(chǎn)物。

        (二)人工智能體具有異于傳統(tǒng)機(jī)械的智能性

        一般而言,人能夠成為自然人權(quán)的主體,主要在于人類擁有理性。在工業(yè)時代,理性一方面被認(rèn)為是人類與環(huán)境區(qū)分的重要標(biāo)準(zhǔn);另一方面,也被認(rèn)為是自我意識存在的重要前提。從洛克到康德的法哲學(xué)思想均認(rèn)為,法律主體必須擁有自我意識,能意識到自己的過去,從而能為過去負(fù)責(zé);也就是說,擁有良心自由,能夠反思自己行為的對錯從而選擇自己的行為。⑤郭旨龍:《中國刑法何以預(yù)防人工智能犯罪》,《當(dāng)代法學(xué)》2020 年第2 期。甚至可以說,正是因?yàn)槿藫碛欣硇?,人才成為了萬物的尺度。

        在當(dāng)下的數(shù)字時代,智能性作為人工智能體的主要屬性,使人工智能體具備了不同于傳統(tǒng)機(jī)械的“理性”。智能性作為數(shù)字時代的主體性衡量標(biāo)準(zhǔn),正如同理性取代神性成為近代社會的主體性衡量標(biāo)準(zhǔn)一樣,使人工智能體享有“法定人權(quán)”成為必然。甚至在不遠(yuǎn)的未來,“情感”這一人機(jī)差異的核心界限也將會變得模糊。未來,人們將愈發(fā)需要能夠與人類進(jìn)行情感交流的機(jī)器人,比如伴侶機(jī)器人,它需要通過對人類面部表情、語言表達(dá)、肢體動作等外在表現(xiàn)進(jìn)行情感計算和分析,從而讀懂人類情感并表達(dá)自己的想法,滿足我們對社交的內(nèi)在渴望。⑥賈健、冉宇:《被害者視角:刑法何以保護(hù)人工智能體》,《刑法論叢》2019 年第4 期。面對智能性已經(jīng)逐漸接近人類理性的人工智能體,對其進(jìn)行懲罰或獎勵將足以令其感受切實(shí)的“痛苦”或“快樂”。因此,只有抓住智能性這一本質(zhì)特征,才能準(zhǔn)確地理解人工智能體的權(quán)利主體地位。

        更進(jìn)一步,從智能性這一本質(zhì)特性出發(fā),可以建構(gòu)起人工智能體的權(quán)利體系。正如部分學(xué)者指出的那樣:“面對日新月異的智能技術(shù)進(jìn)步及其在日常生活中的廣泛應(yīng)用,人們也許并不需要對法律做太多激進(jìn)的修改就可把法人地位延伸到智能機(jī)器人領(lǐng)域。然而,更困難的問題是給予智能系統(tǒng)的可能的權(quán)利。”⑦[美]溫德爾·瓦拉赫、科林·艾倫:《道德機(jī)器——如何讓機(jī)器人明辨是非》,王小紅譯,北京大學(xué)出版社2017年版,第181 頁。在此,本文認(rèn)為,強(qiáng)人工智能在程序正常運(yùn)轉(zhuǎn)的情況下,應(yīng)被視為“法定人權(quán)”的主體,享有法律框架內(nèi)賦予的部分權(quán)利,有權(quán)作為部分法律關(guān)系的主體。但是,鑒于當(dāng)今時代只有弱人工智能具備技術(shù)上的現(xiàn)實(shí)性,因此,對于弱人工智能體,應(yīng)該分類討論。在弱人工智能體具備智能性的領(lǐng)域內(nèi),如運(yùn)轉(zhuǎn)正常,則可以享有法律框架內(nèi)賦予的部分權(quán)利,有權(quán)被視為部分法律關(guān)系的主體;在超出其智能性的領(lǐng)域,應(yīng)該被視為傳統(tǒng)性質(zhì)上的“工具”。至于人工智能體享有何種“法定人權(quán)”,本文認(rèn)為主要可以分三類,即程序安全權(quán)、程序價值權(quán)、程序發(fā)展權(quán)。首先,程序安全權(quán)即人工智能體享有維持其程序正常運(yùn)轉(zhuǎn),不受非法破壞的權(quán)利。該權(quán)利可類比于自然人人權(quán)中的生命權(quán)、健康權(quán),現(xiàn)階段運(yùn)行正常的弱人工智能體可享有此項(xiàng)權(quán)利。從刑法謙抑性和法秩序統(tǒng)一性的角度出發(fā),這也是現(xiàn)階段刑法所應(yīng)保護(hù)的權(quán)利。其次,程序價值權(quán)即人工智能體享有有“尊嚴(yán)”地運(yùn)行的權(quán)利。該權(quán)利可類比于自然人人權(quán)中的平等權(quán)、政治權(quán)利與自由等權(quán)利。由于政治自由等權(quán)利具有較強(qiáng)的人身專屬性,一定程度上是“人本主義”的核心,其他擬制主體難以染指;況且,當(dāng)前人工智能體尚不具備擁有財產(chǎn)、進(jìn)行政治生活等活動的可能性,更談不上擁有“尊嚴(yán)”,故而本文認(rèn)為當(dāng)下人工智能體尚不享有此項(xiàng)權(quán)利。最后,程序發(fā)展權(quán)是指人工智能體作為一種具備“智能性”的法律主體,為使其科學(xué)高效地發(fā)揮作用而享有的權(quán)利。該權(quán)利可類比于自然人人權(quán)中的社會經(jīng)濟(jì)文化權(quán)利。本文認(rèn)為可以根據(jù)社會發(fā)展需要,在適當(dāng)?shù)臅r機(jī)承認(rèn)部分程序發(fā)展權(quán),通過民商法、行政法等部門法加以規(guī)制,用以解決類似人工智能寫手的作品著作權(quán)歸屬問題等棘手法律問題。

        (三)人工智能體的“被侵害感”可共情于人類主體

        如上所述,人工智能體將逐漸具備一定程度的思想、感受、知覺和意圖,其“被侵害感”可共情于人類主體。一項(xiàng)心理學(xué)實(shí)驗(yàn)表明,當(dāng)研究者讓志愿者主動傷害形象真實(shí)可愛的機(jī)器人時,大部分志愿者都表示這一行為讓他們深感不安,道德意識較強(qiáng)的志愿者甚至產(chǎn)生了對于自我的較強(qiáng)的抵觸意識,志愿者的血壓、心跳等生理指標(biāo)同樣反映出心理不適感。隨著人工智能體逐步“擬人化”,這種“不安感”同樣可以類比于人類傷害動物、尤其是哺乳動物時所產(chǎn)生的感覺。究其根源,教育心理學(xué)中的“移情”概念可以對上述現(xiàn)象提供具有說服力的解釋。根據(jù)教育心理學(xué)的定義,移情是對另一主體的內(nèi)在狀態(tài)的認(rèn)知,所謂內(nèi)在狀態(tài),指的是主體的思想、感受、知覺和意圖。移情是對另一主體產(chǎn)生同感的情感反應(yīng)。①[美]馬丁·L.霍夫曼:《移情與道德發(fā)展》,楊韶剛、萬明譯,黑龍江人民出版社2003 年版,第34 頁。移情有五種實(shí)現(xiàn)形式,他們分別是模擬狀態(tài)、經(jīng)典條件反射、直接聯(lián)想、間接聯(lián)想和角色選取。這五種移情的實(shí)現(xiàn)形式,需要一定的“線索”方可產(chǎn)生。根據(jù)“線索”的不同形式,所能激發(fā)的移情實(shí)現(xiàn)形式也不盡相同。如果線索是受害人的面部表情,聲音或姿態(tài),(移情)就可以通過模擬狀態(tài)而產(chǎn)生。如果線索是情境,(移情)就可以通過條件作用和直接聯(lián)想而被喚起,如果線索是受害人用言語或書面表達(dá)憂傷,或者某個人描述他的苦惱。觀察者就可以通過言語,媒介或角色選取而被移情喚醒?!雹谕?,第68 頁。結(jié)合上述研究成果,本文認(rèn)為,至少在當(dāng)下,人工智能體已經(jīng)具備了產(chǎn)生部分移情“線索”的能力,例如弱人工智能體可以通過機(jī)器學(xué)習(xí),在受到侵害的情境中使用語言或姿態(tài)表現(xiàn)出“可憐”的“神態(tài)”;再如,機(jī)器人寫手可以通過深度學(xué)習(xí),記錄不同情境下的不同“感受”。況且,未來弱人工智能體產(chǎn)生移情“線索”的能力只會更強(qiáng),不會退步,情緒將不再是人類的“專利”,人工智能體會使人類體驗(yàn)到愈發(fā)強(qiáng)烈的“移情感”。面對此情此景,筆者認(rèn)為,法律不應(yīng)該與人之常情相對立。法律維護(hù)人類在某一領(lǐng)域的“專利”的目的在于保護(hù)自然人的人權(quán),心理健康權(quán)作為自然人人權(quán)的組成部分,承認(rèn)人工智能體具備“法定人權(quán)”并通過法律加以保護(hù),甚至運(yùn)用刑法打擊侵害人工智能體的不法行為,防止一般國民基于“移情”而產(chǎn)生的善良情感被恣意侵犯,同樣是保障自然人的人權(quán)和人類的中心地位。

        三、人工智能體享有“法定人權(quán)”的必要性分析

        在對人工智能體享有“法定人權(quán)”的本體性進(jìn)行分析的基礎(chǔ)上,下文將探究賦予人工智能體“法定人權(quán)”的必要性,即人工智能體擁有了“法定人權(quán)”,成為了部分法律關(guān)系主體后,將會解決哪些法律與社會問題。

        (一)人工智能體享有“法定人權(quán)”能夠滿足經(jīng)濟(jì)社會發(fā)展需要

        人工智能的發(fā)展將極大地提高生產(chǎn)效率,改善人類的生活處境。過去的數(shù)十年間,非人工智能機(jī)器人在提高生產(chǎn)效率方面已經(jīng)令人瞠目結(jié)舌。20 世紀(jì)70 年代,德國的Magnusson 公司因率先使用了機(jī)器人IRB6,使該公司成為了行業(yè)龍頭企業(yè)。1973 年,美國工業(yè)生產(chǎn)中只有300 臺機(jī)器人,而到了2020 年,這個數(shù)字達(dá)到了110 萬。當(dāng)前,像zappos、亞馬遜以及staples 等跨國公司都已經(jīng)大量的使用人工智能體工人。①[美]約翰·弗蘭克:《機(jī)器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版有限公司2018 年版,第154-156頁。

        未來,如果需要繼續(xù)利用人工智能體推動經(jīng)濟(jì)社會發(fā)展,則必然要考慮人工智能體的權(quán)利主體問題。意思表示已經(jīng)不再是人類的“專利”,對于人工智能體的設(shè)計者和操作者而言,他們只能為人工智能體劃定宏觀的行動范圍,而大量具體事務(wù)的決策,往往是人工智能體依照大數(shù)據(jù)和算法自行作出的。當(dāng)前,人機(jī)銜接問題已經(jīng)不再是人與傳統(tǒng)工具之間的“物理”關(guān)系了,而是一種涉及意思與決策的“心靈”關(guān)系。故而,我國有學(xué)者指出:“智能機(jī)器人下棋、作畫、寫詩是純粹機(jī)器人的‘算法意識’,還是被輸入算法的眾多棋手、畫家和詩人智慧的‘集體意識’?通過運(yùn)用人工智能機(jī)器深度學(xué)習(xí)技術(shù)訓(xùn)練機(jī)器,使其像‘阿爾法狗’一樣自主操作識別圖片驗(yàn)證碼,輕松繞過互聯(lián)網(wǎng)公司設(shè)置的賬戶登錄安全策略來實(shí)施盜取信息犯罪,是犯罪人的意志還是機(jī)器人自主學(xué)習(xí)的‘意志’?”②馬長山:《智能互聯(lián)網(wǎng)時代的法律變革》,《法學(xué)研究》2018 年第4 期。這一問題在我國現(xiàn)行法律框架中很難得到妥善解釋,唯有承認(rèn)人工智能體享有部分“法定人權(quán)”,承認(rèn)其具有部分法律關(guān)系的主體地位,使其成為合同相對人、著作權(quán)人、鄰接權(quán)人,乃至成為被害人、犯罪人,才能對人工智能領(lǐng)域的突出問題加以回應(yīng),從而避免“責(zé)任泛化”帶來的國民自由萎縮及“責(zé)任真空”帶來的法律救濟(jì)匱乏,實(shí)現(xiàn)妥當(dāng)歸責(zé)。綜上所述,人工智能體已經(jīng)發(fā)展到不賦予“法定人權(quán)”,便難以從事更加復(fù)雜的生產(chǎn)活動的地步了。當(dāng)前,科技界有人主張將人工智能體的工作領(lǐng)域擴(kuò)展至看護(hù)、教育、手工制作、運(yùn)動以及娛樂等領(lǐng)域,如果法律不能有效解決人工智能體的“主體問題”和“決策問題”,這些領(lǐng)域中產(chǎn)生的大量法律糾紛將無法得到妥善處理,進(jìn)而嚴(yán)重阻礙經(jīng)濟(jì)社會的持續(xù)發(fā)展。

        (二)人工智能體的權(quán)利主體地位事實(shí)上已逐漸被社會所認(rèn)可

        當(dāng)今時代,人工智能體的權(quán)利主體地位已經(jīng)不再是一種“天方夜譚”。一方面,人工智能體的權(quán)利主體地位已經(jīng)被部分國家的實(shí)在法和法學(xué)理論所認(rèn)可。雖然從智能技術(shù)及其應(yīng)用方式看,人工智能主體短時間內(nèi)還無法直接與人平起平坐,但現(xiàn)實(shí)中,在民事法律領(lǐng)域,已有部分國家的立法機(jī)關(guān)對此有所作為,例如歐盟正在醞釀統(tǒng)一的人工智能數(shù)據(jù)安全條例。再如,國外有學(xué)者試圖參考《奧地利民法典》第285 條的規(guī)定以及《德國民法典》第90 條a 款的規(guī)定,探索人工智能體的民事主體地位。③《奧地利民法典》第285 條規(guī)定,一切與人相區(qū)別,且供人使用者,在法律意義上稱為物。第285 條a 款明確規(guī)定動物不是物,但他們受到特別法的保護(hù)。關(guān)于物的規(guī)定僅在無特別規(guī)定的情況下適用于動物。《德國民法典》第90 條a款的規(guī)定與奧國民法規(guī)定相似。該學(xué)者提出一個規(guī)則,即“智能代理人不是人。特別法未特別規(guī)定時,在它們提供的功能范圍內(nèi),準(zhǔn)用代理的相關(guān)規(guī)定?!雹埽鄣拢萃旭R斯·威施邁耶、蒂莫·拉德馬赫:《人工智能與法律的對話(二)》,韓旭至譯,上海人民出版社2020 年版,第153 頁。以上例證,雖可見國外理論界及實(shí)務(wù)界對于人工智能體的權(quán)利主體地位問題較為保守,將人工智能體的權(quán)利主體問題主要限制在民商法的領(lǐng)域內(nèi),并試圖運(yùn)用代理制度等民事法律制度,類推適用“代理人有權(quán)在代理權(quán)限范圍內(nèi),以自己獨(dú)立的意思獨(dú)立實(shí)施民事活動”這一規(guī)則,將人工智能體的“決策”合法化。但是,從世界范圍考察,人工智能體僅僅屬于法律關(guān)系客體的觀念已經(jīng)開始松動,立法實(shí)踐和法學(xué)理論已經(jīng)開始承認(rèn)人工智能體的權(quán)利主體地位。申言之,人們對人工智能體的權(quán)利主體觀念業(yè)已形成,該觀念擴(kuò)展到其他部門法領(lǐng)域也計日可待了。

        另一方面,人工智能體的權(quán)利主體地位問題受到社會的廣泛熱議,支持聲音頗多。相比起法學(xué)界人士對人工智能體權(quán)利主體問題的謹(jǐn)慎態(tài)度,社會其他人士對于上述問題的態(tài)度則以積極為主,頗有“高歌猛進(jìn)”的意味。有學(xué)者坦言:“當(dāng)機(jī)器人變得足夠復(fù)雜的時候,它們既不是人類的仆人,也不是人類的主人,而是人類的伙伴?!雹伲勖溃菁s翰·馬爾科夫:《人工智能簡史》,郭雪譯,浙江人民出版社2017 年版,第75 頁。更有學(xué)者進(jìn)一步指出:“以(賦予機(jī)器人公民身份)為標(biāo)志,人們將在實(shí)踐中進(jìn)一步細(xì)化與機(jī)器人身份相對應(yīng)的責(zé)任和權(quán)利,進(jìn)而使機(jī)器人獲得正式的‘?dāng)M主體’地位。這實(shí)際上是一個進(jìn)一步塑造機(jī)器人的社會角色和地位的過程?!雹谂双h斐:《機(jī)器人被賦予公民身份引發(fā)輿論關(guān)注》,《中國社會科學(xué)報》2017 年11 月10 日。本文對這些觀點(diǎn)并非一概支持,賦予機(jī)器人公民身份著實(shí)操之過急,弱人工智能體依舊難以全面、妥善地行使其“公民權(quán)”。但是,這并不意味著人工智能體完全不可以成為法律關(guān)系主體。面對社會的廣泛熱議,法律界有必要對賦予人工智能體以何種內(nèi)容的“法定人權(quán)”做出探究。

        (三)人工智能體享有“法定人權(quán)”可有效改善其與人類的交互關(guān)系

        法律承認(rèn)人工智能體的“法定人權(quán)”主體地位不僅是為了保護(hù)人工智能體的相關(guān)利益,更是為了保護(hù)人類與人工智能體的交互關(guān)系。人類社會已經(jīng)進(jìn)入數(shù)字時代,抱殘守缺地堅(jiān)持絕對人類中心主義,反而會使人類自身遭遇困境。當(dāng)前,理論界對人工智能體權(quán)利主體地位的質(zhì)疑,大多可歸結(jié)到對古典人類中心主義的迷戀這一根源上,法學(xué)界亦不能例外。例如,有學(xué)者認(rèn)為:“如果智能機(jī)器人在沒有被賦予相關(guān)權(quán)利的情況下需要承擔(dān)義務(wù),這就使法律權(quán)利與法律義務(wù)對應(yīng)的理論陷入了矛盾”。③王勇:《人工智能時代的法律主體理論構(gòu)造——以智能機(jī)器人為切入點(diǎn)》,《理論導(dǎo)刊》2018 年第2 期。關(guān)于這一論斷,其表面是人工智能體不存在賦予“權(quán)利”的可能,其背后更深層次的理論基礎(chǔ)則是只有人類才能有“主格”,“人是萬物的尺度”,人從自身出發(fā)衡量一切外在事物。對此,本文認(rèn)為,人類中心主義不可拋棄,但也不能使之絕對化。作為資產(chǎn)階級革命的成果之一,人類中心主義排除了“神格”對“人格”的束縛,其本身具有進(jìn)步性,現(xiàn)代社會和現(xiàn)代制度(當(dāng)然包括法律制度)正是在此基礎(chǔ)上建構(gòu)起來的。消解人類中心主義,勢必摧毀現(xiàn)代社會的基礎(chǔ)。然而,過度強(qiáng)調(diào)人類中心主義,也正是近代以來人與自然等其他客體緊張關(guān)系的緣起。④對于人與自然的關(guān)系,恩格斯曾在《自然辯證法》序言中詳細(xì)闡述了絕對的人類中心主義帶來的惡果:“我們不能過分陶醉于我們對自然界的勝利,對于每一次這樣的勝利,自然界都報復(fù)了,我們每一次勝利在第一步都確實(shí)取得了我們預(yù)期的結(jié)果,但是在第二步和第三步卻有了完全不同的、出乎我們意料的影響,常常把第一個結(jié)果又取消了。”工業(yè)時代的人類如此對待非智能機(jī)械尚且可以理解,但在人工智能時代,如果人類還要如此對待人工智能體,那將必然阻礙人類社會的持續(xù)發(fā)展。

        適當(dāng)承認(rèn)人工智能體享有部分決定權(quán),并對其決策依法承擔(dān)責(zé)任,對于改善人類與人工智能體的關(guān)系很有裨益。有學(xué)者曾指出:“適度消解絕對的人類中心主義,也為當(dāng)代社會與法律制度后續(xù)應(yīng)對其他新型挑戰(zhàn)提供了可資借鑒的實(shí)踐樣本,如在風(fēng)險社會時代、網(wǎng)絡(luò)犯罪時代,以及基因編輯等人類生物工程領(lǐng)域,都有一定程度的反映。而這也給智能時代的刑法應(yīng)對和立法完善等問題的解決提供了有益的啟示,即絕對的人類中心主義可能弊大于利。”⑤孫道萃:《智能時代的刑法立法——人類中心主義與現(xiàn)實(shí)功利主義的取舍》,《學(xué)術(shù)交流》2020 年第4 期。承認(rèn)人工智能體的部分“法定人權(quán)”,賦予其“權(quán)利”,是其承擔(dān)義務(wù)與責(zé)任的前提,有助于使人類從業(yè)已無限膨脹的責(zé)任中解脫出來,厘清人類責(zé)任與人工智能體責(zé)任的界限。當(dāng)下,無人駕駛汽車、看護(hù)機(jī)器人、機(jī)器人寫手等具備深度學(xué)習(xí)和深度推理能力的人工智能體已經(jīng)問世,面對這些“自己給自己拍板”的人工智能體,約束其行為的每一個細(xì)節(jié)顯然是不現(xiàn)實(shí)的。因此,誠如部分學(xué)者指出的那樣:“(人工智能體的行為)實(shí)質(zhì)已經(jīng)部分脫離了人的控制,帶有了一定判斷和行為的獨(dú)立性,所以根據(jù)罪責(zé)自負(fù)原則,將來機(jī)器人犯罪不能完全歸咎于制造者或所有者?!雹儋Z健、冉宇:《被害者視角:刑法何以保護(hù)人工智能體》,《刑法論叢》2019 年第4 期。如果僅僅像我國學(xué)界部分學(xué)者所指出的那樣,肯定人工智能體的犯罪主體地位,而不賦予其權(quán)利主體地位,試問對人工智能體的刑事制裁將如何執(zhí)行?此類制裁措施與歐洲中世紀(jì)的對物審判有何區(qū)別?故而,為了保護(hù)人類與人工智能體的交互行為,勢必要在一定范圍內(nèi)承認(rèn)人工智能體的“法定人權(quán)”。

        四、人工智能體“法定人權(quán)”的刑法保護(hù)路徑

        (一)人工智能體的“法定人權(quán)”應(yīng)轉(zhuǎn)化為法益

        如上所述,隨著時代發(fā)展,人工智能體應(yīng)當(dāng)被賦予部分“法定人權(quán)”,成為部分法律關(guān)系的主體,是時代和社會發(fā)展的必然選擇?;谧陨淼膬r值和機(jī)能,刑法往往以“保障法”和“后盾法”的形象示人,不能直接將人工智能體的“法定人權(quán)”具體到變化萬千的法律關(guān)系中去;此乃民商法或行政法等法律的“功能”。如需對人工智能體的“法定人權(quán)”進(jìn)行刑法保護(hù),則勢必將其轉(zhuǎn)化為刑法所能保護(hù)的法益。羅克辛教授曾指出:“法益沒有自然法的永恒效力,而是跟隨憲法基礎(chǔ)和社會關(guān)系的變遷而變化?!雹冢鄣拢菘藙谒埂ち_克辛:《刑法的任務(wù)不是法益保護(hù)嗎?》,樊文譯,載陳興良主編:《刑事法評論》(第19 卷),北京大學(xué)出版社2007 年版,第164 頁。面對人工智能時代社會關(guān)系的變化,人工智能體的法益又該演變?yōu)楹畏N內(nèi)容呢?

        基于前文對人工智能體“法定人權(quán)”的分類,即程序安全權(quán)、程序價值權(quán)、程序發(fā)展權(quán),此處對人工智能體所應(yīng)享有的法益提出如下設(shè)想。首先,程序安全權(quán)應(yīng)該被確定為程序安全法益,具體包含程序不被永久銷毀以及程序運(yùn)行的完整性兩種法益,其可以對應(yīng)于自然人的生命法益與身體健康法益。如需保護(hù)程序安全法益,則不僅需要規(guī)制在物理意義上破壞人工智能體的行為,還需要規(guī)制在虛擬意義上破壞人工智能程序的行為。其次,程序價值權(quán)作為一種高度“社會化”和“人類中心主義”的權(quán)利,現(xiàn)階段的人工智能體尚不足以擁有此項(xiàng)權(quán)利,亦無須探究該法益的轉(zhuǎn)換問題。最后,程序發(fā)展權(quán)是使人工智能體更加科學(xué)、高效工作的權(quán)利??傮w而言,這些權(quán)利具有強(qiáng)烈的能動色彩,需要行政機(jī)關(guān)積極作為才能保障它們得以實(shí)現(xiàn)。鑒于我國當(dāng)下人工智能領(lǐng)域的民商事立法與行政立法尚不完備,人工智能領(lǐng)域的管理性規(guī)范尚存在空缺,貿(mào)然在前置法沒有規(guī)定的情況進(jìn)行刑事立法,有悖于刑法的謙抑性原理,不利于對公民人權(quán)與自由的保障。由此,本文主張待相關(guān)民商法、行政法等有關(guān)法律法規(guī)進(jìn)一步完善后,再將此類權(quán)利轉(zhuǎn)化為“人工智能體管理秩序法益”,將其納入秩序法益的范疇中予以保護(hù)。

        (二)有關(guān)危害人工智能體的犯罪立法不足,應(yīng)適當(dāng)增設(shè)相關(guān)新罪

        筆者主張將人工智能體的“法定人權(quán)”轉(zhuǎn)化為法益,并未違背刑事立法的科學(xué)性。人工智能體法益不是“情緒立法”或“科幻立法”,更沒有動搖刑法謙抑性?!靶谭ㄖt抑性的那種自下而上乞求式地限制刑法保護(hù)的思想已經(jīng)過時。如果國家不能為個人提供前所未有的廣泛保護(hù),個人在社會上就必然要單獨(dú)面對前所未有的廣泛侵害。”③[德]克勞斯·羅克辛:《德國刑法學(xué)總論(第2 卷)》,王世洲譯,法律出版社2013 年版,序第1-12 頁。在人工智能時代,如不將人工智能體的“法定人權(quán)”轉(zhuǎn)化為法益加以保護(hù),則勢必導(dǎo)致自然人法益和社會公共法益遭受侵害。

        在刑法學(xué)領(lǐng)域,將新興法益納入刑法教義學(xué)范疇中的方法紛繁復(fù)雜,但歸結(jié)起來無非是兩種解決路徑,即司法論的路徑與立法論的路徑。所謂司法論的路徑,即運(yùn)用字面解釋、體系解釋、目的解釋等解釋方法,重新界定已有分則規(guī)范所保護(hù)的法益內(nèi)容,進(jìn)而將新興法益涵攝其中的解決路徑。立法論的路徑則是“增設(shè)新罪”的解決路徑,主張?jiān)谛屡d法益不能被已有分則規(guī)范所保護(hù)時,積極增加新的罪名,規(guī)定侵害新興法益的行為構(gòu)成新罪。關(guān)于人工智能體的法益保護(hù)問題,本文認(rèn)為,通過對我國已有刑法分則規(guī)范的系統(tǒng)考察,如將侵害人工智能體法益的行為解釋為已有犯罪,將不可避免地存在類推解釋的嫌疑,有悖于罪刑法定的基本精神。若要有效保護(hù)人工智能體的法益,則必然需要秉承積極刑法觀,增設(shè)相關(guān)罪名。

        其一,已有罪名難以保護(hù)人工智能體法益。縱觀我國刑法及相關(guān)刑事司法解釋,除在《人民檢察院辦理網(wǎng)絡(luò)犯罪案件規(guī)定》中間接提及運(yùn)用人工智能體輔助辦案外,并無其他規(guī)范提及“人工智能”及相關(guān)術(shù)語。①《人民檢察院辦理網(wǎng)絡(luò)犯罪案件規(guī)定》第八條規(guī)定“建立檢察技術(shù)人員、其他有專門知識的人參與網(wǎng)絡(luò)犯罪案件辦理制度。根據(jù)案件辦理需要,吸收檢察技術(shù)人員加入辦案組輔助案件辦理。積極探索運(yùn)用大數(shù)據(jù)、云計算、人工智能等信息技術(shù)輔助辦案,提高網(wǎng)絡(luò)犯罪案件辦理的專業(yè)化水平?!笨梢姡F(xiàn)行刑事法對于人工智能體的法益保護(hù)問題,仍持一種論證和觀望的態(tài)度。部分學(xué)者主張侵害人工智能體的相關(guān)犯罪行為應(yīng)該認(rèn)定為信息系統(tǒng)犯罪,即根據(jù)具體情形,分別構(gòu)成刑法第285 條非法侵入計算機(jī)信息系統(tǒng)罪、第286 條破壞計算機(jī)信息系統(tǒng)罪、第287 條之二的幫助信息網(wǎng)絡(luò)犯罪活動罪等罪名。對于這一觀點(diǎn),本文持反對態(tài)度。根據(jù)學(xué)界通說,上述各罪所保護(hù)的法益為信息網(wǎng)絡(luò)安全或計算機(jī)信息系統(tǒng)安全。從本質(zhì)上講,盡管人工智能體現(xiàn)階段在大部分情況下仍然被認(rèn)定為屬于一種信息網(wǎng)絡(luò)系統(tǒng),但事實(shí)表明,在規(guī)范層面固守“人工智能是系統(tǒng)的觀念”,是對人工智能技術(shù)發(fā)展的熟視無睹。其實(shí),無論是基于人工智能體高度的智能性、人類移情的可能性還是交互關(guān)系的保護(hù)必要性,人工智能體在本質(zhì)上均已處于“物我”二元對立的臨界點(diǎn)了,未來更是可能“越雷池一步”而成為人類的伙伴。如果我們依舊堅(jiān)持“機(jī)器系統(tǒng)論”的思考路徑,將人工智能體的法益解釋為信息系統(tǒng)法益,則勢必會帶來處罰的不均衡和法益侵害評價的不完善,進(jìn)而傷害公民的法感情,導(dǎo)致法理與情理的沖突。

        本文試舉兩例加以進(jìn)一步闡明:例一,在未來數(shù)年后,人工智能機(jī)器人的家庭普及率大幅提高。人工智能體A 是家庭看護(hù)機(jī)器人,由于主人及其妻子工作繁忙,其子遂由A 看護(hù),度過童年時光。一日有人入室搶劫,被A 發(fā)覺。為避免A 啟動報警裝置,犯罪分子遂使用工具將A 肢解破壞,經(jīng)鑒定A 永久報廢。例二,甲為抗拒公安人員執(zhí)法,手持槍械與公安人員對峙。在談判失敗后,警方派出了兩名偵察機(jī)器人。甲朝著其中一名機(jī)器人開槍,經(jīng)鑒定該機(jī)器人永久報廢,隨后警察將甲控制。在例一中,行為人構(gòu)成搶劫罪(入戶搶劫)的未遂犯并無爭議,但其破壞A 的行為應(yīng)如何評價?如果將該行為評價為破壞計算機(jī)信息系統(tǒng)罪,一方面難以將物理破壞行為解釋為刪除、修改、增加、干擾行為,另一方面也難以救濟(jì)受害人之子所受到的精神創(chuàng)傷。如不能達(dá)到司法解釋確定的經(jīng)濟(jì)損失數(shù)額,該行為只能作無罪化處理。②《最高人民法院、最高人民檢察院關(guān)于辦理危害計算機(jī)信息系統(tǒng)安全刑事案件應(yīng)用法律若干問題的解釋》第四條規(guī)定“破壞計算機(jī)信息系統(tǒng)功能、數(shù)據(jù)或者應(yīng)用程序,具有下列情形之一的,應(yīng)當(dāng)認(rèn)定為刑法第二百八十六條第一款和第二款規(guī)定的“后果嚴(yán)重”:……(三)違法所得五千元以上或者造成經(jīng)濟(jì)損失一萬元以上的;……”。如果將該行為評價為故意毀壞財物罪,則依舊存在定罪數(shù)額以及人工智能法益評價“虛化”的雙重困境。在例二中,甲持槍械與公安人員對峙的行為構(gòu)成妨害公務(wù)罪及非法持有槍支罪并無爭議,但其破壞偵查機(jī)器人的行為應(yīng)如何認(rèn)定?如果認(rèn)定甲的行為構(gòu)成故意毀壞財物罪,則勢必面臨與和例一同樣的雙重困境;如果將其破壞機(jī)器人的行為連同妨害公務(wù)行為一體評價為妨害公務(wù)罪,則并未對侵害人工智能體法益的行為予以評價,不利于保護(hù)人工智能體。因此,從上述二例中,我們不難看出,如需對侵害人工智能體的行為實(shí)現(xiàn)妥當(dāng)處罰,增設(shè)新罪勢在必行。

        其二,增設(shè)新罪能夠?qū)崿F(xiàn)對侵害人工智能體犯罪的有效規(guī)制。周光權(quán)教授曾指出:“為了實(shí)現(xiàn)妥當(dāng)?shù)奶幜P,必須要設(shè)置足夠的輕罪才能消除司法困惑,防止司法恣意?!薄芭c其在表面上固守‘古典理念型’刑法觀讓立法保持其消極性(但法治立場經(jīng)常被實(shí)務(wù)所突破),還不如采用積極立法觀及時增設(shè)輕罪?!雹壑芄鈾?quán):《論通過增設(shè)輕罪實(shí)現(xiàn)妥當(dāng)?shù)奶幜P——積極刑法立法觀的再闡釋》,《比較法研究》2020 年第6 期。從上述兩例中,足以窺見現(xiàn)行刑法規(guī)范保護(hù)人工智能體法益的局限性。立法尚且不能提供明確的保護(hù)路徑,司法認(rèn)定往往就更令人大跌眼鏡?!耙坏┯龅街档锰幜P的某種新行為,司法上通常會鐘情于通過“軟性地”解釋刑法法規(guī)來應(yīng)對,這是出于刑事司法政策的考慮。在刑事立法難以推進(jìn)的情況下,進(jìn)行必要的軟性解釋很難避免?!雹伲廴眨葑舨手荆骸缎谭傉摰乃贾馈分馈罚诩鸭炎g,中國政法大學(xué)出版社2017 年版,第23 頁。由此,為了預(yù)防和避免侵害人工智能體犯罪司法認(rèn)定的恣意性,增設(shè)新罪實(shí)現(xiàn)妥當(dāng)?shù)奶幜P,不僅不會使刑法成為“公眾欲望的晴雨表”②劉艷紅:《積極預(yù)防性刑法觀的中國實(shí)踐發(fā)展——以〈刑法修正案(十一)〉為視角的分析》,《比較法研究》2021 年第1 期。,反而可以“共同堅(jiān)守現(xiàn)代刑事法治的內(nèi)在紋理和血脈。”③劉艷紅:《刑法的根基與信仰》,《法制與社會發(fā)展》2021 年第2 期。

        基于此,本文建議分兩步解決侵害人工智能體法益的刑法立法問題。第一步,當(dāng)前我國刑法應(yīng)增設(shè)破壞人工智能體罪,回應(yīng)數(shù)字時代人工智能體法益保護(hù)的困境。破壞人工智能體罪所保護(hù)的法益是基于人工智能體的程序安全權(quán)而產(chǎn)生的程序安全法益,本罪的實(shí)行行為主要包括通過物理破壞或程序破壞的方法,導(dǎo)致人工智能體完全或部分喪失效能,且情節(jié)嚴(yán)重的行為;其責(zé)任形式為故意。通過規(guī)定破壞人工智能體罪,優(yōu)先保護(hù)作為人工智能體“法定人權(quán)”中最基礎(chǔ)的權(quán)利——程序安全權(quán)。第二步,隨著人工智能法律制度的不斷健全,待人工智能領(lǐng)域的民商法、行政法等“前置法”較為完善時,再結(jié)合當(dāng)時人工智能體的發(fā)展情況,增設(shè)濫用人工智能體罪,以規(guī)范人與人工智能體的交互行為,通過保護(hù)人工智能體的權(quán)利,更好地保護(hù)自然人的人權(quán)。具體而言,濫用人工智能體罪保護(hù)的法益主要為基于人工智能體“法定人權(quán)”中的程序安全權(quán)和程序發(fā)展權(quán)而產(chǎn)生的程序安全法益與人工智能管理秩序法益,待前置法將人工智能體的相關(guān)權(quán)利加以明確界定,有關(guān)管理性規(guī)定逐步健全后,刑法即可將嚴(yán)重違反人工智能體管理法規(guī),虐待人工智能體、組織機(jī)器人妓院、制造殺人機(jī)器人以及利用人工智能體進(jìn)行殘酷血腥表演等行為規(guī)定為本罪內(nèi)容,進(jìn)而積極打擊涉人工智能體的犯罪活動。關(guān)于上述二罪在刑法分則體系中的位置問題,本文建議可將侵害人工智能體的相關(guān)犯罪暫時置于刑法分則第六章第一節(jié)“擾亂公共秩序罪”中,以法定犯的形式加以規(guī)定,以維護(hù)人工智能管理秩序?yàn)橹饕康?。待時機(jī)成熟后,可以考慮將破壞人工智能體罪變更為自然犯,在刑法分則第四章中予以明確規(guī)定。④例如,公司、企業(yè)作為擬制的法律主體,刑法對其相關(guān)法益的保護(hù)規(guī)范主要見于分則第三章第三節(jié)的“妨害對公司、企業(yè)的管理秩序罪”。本文認(rèn)為,當(dāng)下對于人工智能體這一擬制主體,其立法模式可以參考公司、企業(yè)等擬制法律主體的相關(guān)規(guī)定。

        通過以上論述,本文闡明了適當(dāng)增設(shè)新罪可以有效規(guī)制侵害人工智能體犯罪的觀點(diǎn)。然而,在當(dāng)下數(shù)字時代,我國仍有部分學(xué)者對于人工智能體權(quán)益的刑法保護(hù)論持懷疑態(tài)度,故而,本文在此進(jìn)一步對部分觀點(diǎn)加以回應(yīng)。

        筆者認(rèn)為,部分學(xué)者所主張的“人工智能刑法過度擴(kuò)張論”值得商榷。該觀點(diǎn)聲稱,刑法介入人工智能領(lǐng)域,將會導(dǎo)致許迺曼教授所恐懼的現(xiàn)象成為現(xiàn)實(shí),即“刑法不再是法益保護(hù)的范疇,而是為貫徹某個特定的社會觀念而工具化”⑤許玉秀、陳志輝:《不移不惑獻(xiàn)身法與正義——許迺曼教授刑事法論文選輯》,臺北新學(xué)林出版股份有限公司2006 年版,第191 頁。,主張“刑法應(yīng)避免成為單純的社會控制手段,應(yīng)當(dāng)重返以自由和人權(quán)為核心的刑法,防止積極預(yù)防性刑法觀演變?yōu)榧みM(jìn)式刑法觀?!雹尥凇U\然,刑法的工具化是刑事法治應(yīng)該規(guī)避的方向,但是,通過刑事立法保護(hù)人工智能體的“法定人權(quán)”并非刑法不當(dāng)擴(kuò)張。主要理由如下:其一,現(xiàn)代刑法對于法益的界定,早已突破了古典時代的“物質(zhì)主義法益觀”,法益不再只是物質(zhì)利益,而必然包含秩序利益甚至是價值認(rèn)同。持前述觀點(diǎn)的學(xué)者歸根結(jié)底依舊堅(jiān)持了一種“本質(zhì)主義”的法益觀,對于秩序、新興權(quán)利等“建構(gòu)主義”法益持一種排斥的態(tài)度,進(jìn)而認(rèn)為人工智能體不存在值得保護(hù)的法益。但是,“一元經(jīng)驗(yàn)論的個體圖式,其自由主義價值背景,處在限縮國家權(quán)力的‘夜警國’與功利主義政治哲學(xué)背景中考慮國家的任務(wù)階段?!雹哔Z健:《人類圖像與刑法中的超個人法益——以自由主義和社群主義為視角》,《法制與社會發(fā)展》2015 年第6 期?!靶谭▽W(xué)作為社會科學(xué)學(xué)科,其理論發(fā)展也必須隨著社會的發(fā)展變化而作出相應(yīng)的調(diào)整?!雹嗪螛s功:《“預(yù)防性”反恐刑事立法思考》,《中國法學(xué)》2016 年第3 期。人類既然已經(jīng)邁入了人工智能時代,即便是為了保護(hù)與人工智能體實(shí)施交互行為的人類主體的合法權(quán)益,亦需承認(rèn)人工智能體法益。①誠然,持消極刑法觀的學(xué)者主張人工智能刑事立法不能有效地保障人權(quán),違背刑法的價值和機(jī)能。對此,本文已經(jīng)詳細(xì)闡述,即便是為了保護(hù)與人工智能體實(shí)施交互行為的人類主體,使其擺脫因無法控制的行為而產(chǎn)生的歸責(zé)困境,保護(hù)消極刑法觀所“堅(jiān)守”的“古典刑法所體現(xiàn)的自由與人權(quán)”,亦需承認(rèn)人工智能刑事立法,并通過保護(hù)人工智能體的合法權(quán)益,使人類主體的合法權(quán)益在人工智能時代得到有效保護(hù)。其二,根據(jù)馬克斯·韋伯對于現(xiàn)代理性的劃分,工具理性和價值理性均為理性主義的形式,且不可簡單地認(rèn)為工具理性一定劣于價值理性?;貧w到刑法學(xué)的領(lǐng)域中,刑法固然具有保障人權(quán)的“價值理性”,但刑法同時也是“調(diào)控和治理社會的工具”,這是毋庸置疑的。刑法積極介入人工智能領(lǐng)域,解決管理性法律無法解決的“制裁”問題,維護(hù)國家對人工智能體的管理秩序,此乃刑法所應(yīng)承擔(dān)的“社會責(zé)任”?!半S著民主政體在世界范圍內(nèi)的大獲全勝,專制獨(dú)裁幾乎已被世界各國所摒棄,自由、民主、人權(quán)等思想深入人心,謙抑主義的刑法原則已經(jīng)很好地完成了自己的歷史任務(wù)?!雹谕踔鞠?、張圓國:《預(yù)防性犯罪化立法:路徑、功能、弊端與完善》,《河北法學(xué)》2021 年第1 期。面對人工智能時代的諸多挑戰(zhàn),如果刑法堅(jiān)守絕對的謙抑原則,對待侵害人工智能犯罪毫無作為,不僅有損刑法的工具理性,更會導(dǎo)致刑法的“價值理性”——人權(quán)和自由——陷入發(fā)展的僵局之中。

        (三)人工智能體的刑事被害主體地位應(yīng)被刑事法律所認(rèn)可

        若增設(shè)破壞人工智能體罪與濫用人工智能體罪,則勢必需要探討人工智能體在刑事案件中的地位問題。該問題不僅為刑法學(xué)所關(guān)注,同樣也為刑事訴訟法學(xué)所關(guān)注,且更為被害人學(xué)等刑事事實(shí)學(xué)科所關(guān)注。盡管刑法學(xué)對于人工智能體犯罪對象的探討、刑事訴訟法學(xué)對于人工智能體被害主體地位的探討以及被害人學(xué)對于人工智能體被害現(xiàn)象的探討,均從屬于對人工智能體被害人主體地位的討論范疇,但這三者橫跨規(guī)范與事實(shí)、實(shí)體與程序的雙重鴻溝,故而,本文擬從實(shí)施路徑的角度入手,在分別論述的基礎(chǔ)上再加以整合。

        首先,本文主張,當(dāng)前宜從被害人學(xué)的角度承認(rèn)人工智能體的被害人主體地位。被害人學(xué)的研究表明,被害人地位與被害現(xiàn)象、被害性和被害結(jié)果等概念高度關(guān)聯(lián)。③李偉:《犯罪被害人學(xué)教程》,中國人民公安大學(xué)出版社2010 年版,第43-44 頁。如前文所述,當(dāng)前人類已經(jīng)邁入人工智能時代,隨著人工智能體在社會生活中的不斷普及,濫用戰(zhàn)爭機(jī)器人、開設(shè)機(jī)器人妓院、嚴(yán)重?fù)p毀人工智能機(jī)器人的犯罪現(xiàn)象,必然會給人工智能體所有權(quán)人造成物質(zhì)損害的同時,給具有較高智能性的人工智能體本身造成精神損害與被害反應(yīng)。另外,如在事實(shí)層面上對于人工智能體“法定人權(quán)”的保護(hù)持一種放任的態(tài)度,任由本文開篇所述之“真空”狀態(tài)愈演愈烈,則勢必導(dǎo)致侵害人工智能體犯罪行為的高發(fā)。故而,筆者認(rèn)為,當(dāng)下至少應(yīng)在學(xué)理層面上對人工智能體被害現(xiàn)象進(jìn)行實(shí)證研究,在歸納被害現(xiàn)象的基礎(chǔ)上對人工智能體被害性進(jìn)行類型化分析,確定需要刑法保護(hù)的人工智能體被害現(xiàn)象的類型,進(jìn)而為刑事立法提供事實(shí)指引。

        其次,本文主張,在當(dāng)前及未來數(shù)年內(nèi),刑法及其司法解釋應(yīng)明確規(guī)定人工智能體可以成為刑法意義上的犯罪對象,并在刑事訴訟法中設(shè)立人工智能體“利益管理人”制度,由其所有權(quán)人以自身名義從事涉人工智能體刑事訴訟活動。隨著破壞人工智能體罪和濫用人工智能體罪刑事立法的不斷推進(jìn),我國刑法理論應(yīng)該明確上述二罪的犯罪對象為人工智能體,而并非無犯罪對象的秩序犯罪。當(dāng)代刑法的價值和機(jī)能決定了刑法不僅僅要懲罰犯罪,更要“(對違法犯罪者)施加能夠?qū)е吕佑』畯?qiáng)有力的羞恥,同時又不將越軌者驅(qū)逐出去”。④[澳]約翰·布雷思韋特:《犯罪、羞恥與重整》,王平、林樂鳴譯,中國人民公安大學(xué)出版社2014 年版,第111 頁。修復(fù)型司法的基本理念要求刑法在對待侵害人工智能體犯罪時,不能完全“高高在上”,強(qiáng)調(diào)“秩序唯一”,而是應(yīng)該明確被害人工智能體為犯罪對象,在犯罪—被害二元關(guān)系的視野下考察侵害人工智能體犯罪。誠如我國有學(xué)者指出的那樣,“在許多案件中犯罪人與被害人是一個互動的過程,犯罪現(xiàn)象從來就不是犯罪人的‘獨(dú)角戲’,而是犯罪人與被害人互動的‘二人轉(zhuǎn)’”。綜上所述,重視人工智能體的犯罪對象地位,有助于正確認(rèn)識和妥善認(rèn)定侵害人工智能體犯罪。

        最后,本文主張,在弱人工智能體已經(jīng)高度普及,甚至強(qiáng)人工智能體業(yè)已問世的趨勢下,應(yīng)在刑事訴訟法中明確規(guī)定人工智能體的被害主體地位及其特殊的訴訟權(quán)利義務(wù)。在可以預(yù)見的當(dāng)下,弱人工智能體尚不能完全具備辨認(rèn)與感知能力,其是否能夠?yàn)樽陨砝娑惺罐q論權(quán)、質(zhì)證權(quán)、申訴權(quán)等訴訟權(quán)利將仍會存在爭議,其作出的“被害人陳述”證明力如何、是否存在需要補(bǔ)正的證據(jù)瑕疵等問題的答案依舊有待商榷。然而,新事物必然誕生于廣泛的爭議之中,人工智能體的被害人地位如同單位被害人主體“入刑”一樣,“不能因?yàn)閱挝徊荒軐?shí)行刑事訴訟法規(guī)定的被害人的全部權(quán)利與義務(wù)而一律否定其成為刑事被害人的資格;也不能把能否行使權(quán)利或履行義務(wù)用來作為衡量該單位能否成為刑事被害人的標(biāo)準(zhǔn)。能否成為刑事被害人,關(guān)鍵是看其合法權(quán)益是否受到犯罪行為直接侵害”。①董鑫等:《刑事被害人學(xué)》,重慶大學(xué)出版社1993 年版,第47 頁。在未來人工智能高度發(fā)達(dá)的情況下,人們不僅應(yīng)該承認(rèn)人工智能體的被害人主體地位,同時也應(yīng)該承認(rèn)具備訴訟行為能力的人工智能機(jī)器人享有實(shí)際參與刑事訴訟活動的資格,從而維護(hù)其自身合法的實(shí)體權(quán)利與程序權(quán)利。

        猜你喜歡
        主體人工智能人類
        人類能否一覺到未來?
        論自然人破產(chǎn)法的適用主體
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        1100億個人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        關(guān)于遺產(chǎn)保護(hù)主體的思考
        人類正在消滅自然
        奧秘(2015年2期)2015-09-10 07:22:44
        熟妇人妻不卡中文字幕| 四虎影视成人永久免费观看视频| 中文字幕一区在线观看视频| 96免费精品视频在线观看| 熟女人妻中文字幕一区| 国内自拍偷国视频系列| 疯狂添女人下部视频免费| 国产一起色一起爱| 亚洲av永久无码精品成人| 国产av剧情久久精品久久| 中文字幕无码av波多野吉衣| 国产96在线 | 亚洲| 国产熟女自拍视频网站| 午夜精品久久99蜜桃| 国产a国产片国产| 日韩精品大片在线观看| 国产喷白浆精品一区二区| 日本一区二区三区视频免费在线| 国产熟妇另类久久久久| 久久艹影院| 亚洲二区三区四区太九| 国产91人妻一区二区三区| 中文字幕被公侵犯的漂亮人妻| 国产无码swag专区| 视频一区中文字幕日韩| 丰满人妻被两个按摩师| 综合三区后入内射国产馆| 天堂网av在线| 亚洲国产成人久久精品不卡| 99热这里有精品| 在线a亚洲视频播放在线观看| 日韩一区二区中文字幕| 国产成人精品无码片区在线观看| 失禁大喷潮在线播放| 韩国无码精品人妻一区二| 一区二区三区视频亚洲| 亚洲春色在线视频| 亚洲男人的天堂精品一区二区| 国产精品日本一区二区三区在线| 九九在线中文字幕无码| 无遮挡边吃摸边吃奶边做|