內(nèi)容摘要:隨著機(jī)器人和人工智能技術(shù)的快速發(fā)展,作為具身智能的人形機(jī)器人在應(yīng)用場景上逐漸拓寬,同時也形成了多元而復(fù)雜的安全風(fēng)險和刑法歸責(zé)難題。理論上主要存在代理責(zé)任、過失責(zé)任、嚴(yán)格責(zé)任、獨(dú)立責(zé)任四種各有利弊的刑法歸責(zé)模式。除了嚴(yán)格責(zé)任之外,其余模式都可以統(tǒng)合在場景化的刑法歸責(zé)體系之中。在當(dāng)前人工智能的發(fā)展階段,傳統(tǒng)的刑法教義學(xué)原理可以處理絕大部分的機(jī)器人刑法歸責(zé)問題, 不過也應(yīng)在新的技術(shù)條件下對可容許風(fēng)險、信賴原則予以新的推演和發(fā)展。取決于未來的技術(shù)進(jìn)展,在功能主義的視角下,將來可以考慮有條件地肯定智能人形機(jī)器人獨(dú)立責(zé)任主體地位的可能性。人形機(jī)器人的刑法歸責(zé)體系,應(yīng)當(dāng)對其他法秩序的規(guī)范評價和機(jī)器人倫理標(biāo)準(zhǔn)的探討保持協(xié)同和開放。
關(guān)鍵詞:人形機(jī)器人人工智能應(yīng)用場景安全風(fēng)險刑法歸責(zé)機(jī)器人倫理
中圖分類號:DF611 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-4039-(2024)03-0101-116
一、問題的提出
隨著人工智能時代的到來,機(jī)器人在人類社會中扮演著越來越重要的角色。通常認(rèn)為,1920年捷克作家卡雷爾·恰佩克的劇作《羅薩姆的萬能機(jī)器人》最早使用了機(jī)器人一詞。但在很長一段時間內(nèi),機(jī)器人都停留在科幻作品的描述之中。20世紀(jì)40年代以后,美國、法國、日本等國陸續(xù)研發(fā)了可編程的機(jī)器人。隨著技術(shù)的不斷進(jìn)步,機(jī)器人的智能化水平逐漸提升,經(jīng)歷著快速的智能迭代。按照學(xué)者的分類,第一代智能機(jī)器人以傳統(tǒng)工業(yè)機(jī)器人和無人機(jī)等機(jī)電一體化設(shè)備為代表,第二代智能機(jī)器人具有部分環(huán)境感知適應(yīng)、自主決策能力,如機(jī)械臂、外科手術(shù)機(jī)器人,L3、L4自動駕駛汽車等,第三代智能機(jī)器人則具備更強(qiáng)的環(huán)境感知、認(rèn)知、情感交互功能和自我進(jìn)化的智能?!?*〕按照應(yīng)用領(lǐng)域,可將機(jī)器人分為工業(yè)機(jī)器人、探索機(jī)器人、服務(wù)機(jī)器人、軍用機(jī)器人。〔2*〕在各種不同類型的機(jī)器人中,人形機(jī)器人越來越成為關(guān)注的焦點。自從有了機(jī)器人這個詞,創(chuàng)造出擁有人類外形的機(jī)器人是人類一直以來的夢想,世界范圍內(nèi)很多國家都在積極開發(fā)仿人機(jī)器人?!?*〕從1973年早稻田大學(xué)研制的WABOT-1, 到2000年本田公司設(shè)計的ASIMO,2013年波士頓動力研發(fā)的Atlas,2014年日本軟銀公司發(fā)布的Pepper,2015年美國漢森公司研制的Sophia,〔4=〕以及近幾年特斯拉公司所研發(fā)的Optimus=〔5=〕等,人形機(jī)器人的仿人性能和智能水平越來越高?!?=〕
在我國,人形機(jī)器人逐漸成為通用人工智能產(chǎn)業(yè)化的重要賽道。人形機(jī)器人能勝任多種應(yīng)用場景,被業(yè)內(nèi)認(rèn)為是通用人工智能的最佳載體?!?=〕2023年1月,工信部等十七部門聯(lián)合印發(fā)《“機(jī)器人+”應(yīng)用行動實施方案》,推動機(jī)器人技術(shù)在經(jīng)濟(jì)發(fā)展和社會民生十大重點領(lǐng)域的應(yīng)用。2023年10月,工信部發(fā)布《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見》,為人形機(jī)器人的產(chǎn)業(yè)發(fā)展方向做出了部署。此外,北京、上海、深圳等地陸續(xù)都發(fā)布了促進(jìn)機(jī)器人產(chǎn)業(yè)發(fā)展的行動方案,國內(nèi)一些公司也相繼發(fā)布了多款人形機(jī)器人產(chǎn)品?!?=〕隨著2024年年初多家頭部企業(yè)陸續(xù)公布機(jī)器人核心零部件生產(chǎn)基地建設(shè)計劃,人形機(jī)器人臨近量產(chǎn)的節(jié)點似乎已經(jīng)可以期待?!?=〕
然而,技術(shù)的發(fā)展常常同時帶來機(jī)遇和挑戰(zhàn)。機(jī)器人可能會在很多應(yīng)用場景下形成損害后果,同時它又前所未有地帶給人以某種社會主體的形象?!?0=〕社會將在多個層面面臨新的安全風(fēng)險,這會對現(xiàn)有法律體系帶來沖擊。在此背景下,如何實現(xiàn)刑法上的責(zé)任歸屬,也面臨著越來越大的爭議。有學(xué)者指出,人形機(jī)器人將會是自動駕駛汽車之后,人工智能領(lǐng)域關(guān)于刑事責(zé)任探討的主導(dǎo)性問題?!?1=〕有鑒于此,本文將立足于人形機(jī)器人的技術(shù)特性和法律屬性,嘗試全面考察其在不同應(yīng)用場景中形成的復(fù)雜安全風(fēng)險,著重分析其中的主要刑法歸責(zé)難題,在此基礎(chǔ)上系統(tǒng)地闡述可能的應(yīng)對方案,探討兼顧現(xiàn)實與面向未來的刑事歸責(zé)體系建構(gòu)思路,為該領(lǐng)域的研究探索初步的理論框架。
二、人形機(jī)器人的技術(shù)特性與法律屬性
作為機(jī)器人家族的一個重要分支,人形機(jī)器人具有獨(dú)特的技術(shù)特征,這些特征會深刻地影響其實踐應(yīng)用、安全風(fēng)險和相應(yīng)的法律屬性。
其一,人形機(jī)器人具有仿人類形象的外在條件。人形機(jī)器人具有類似甚至接近于人類的外部結(jié)構(gòu),例如頭部、軀干、四肢、五官等。理論上有觀點認(rèn)為,人類不需要將機(jī)器人的生產(chǎn)和設(shè)計朝著仿人化的方向發(fā)展,這種做法潛藏著倫理、法律上的諸多弊端。〔12=〕但是,研發(fā)人形機(jī)器人不僅僅是因為人類具有某種“物種自戀”情結(jié),而是人類也可以通過這種方式了解自己?!?3=〕更關(guān)鍵的是,機(jī)器人的仿人特征能夠帶來很多優(yōu)勢,因而被主流實務(wù)界所青睞。人形機(jī)器人的仿人外形,使得人類能夠增加對其的親和力和好感度。早在20世紀(jì)70年代,日本機(jī)器人專家森政弘就曾指出,在一定范圍內(nèi)機(jī)器人與人類的相似度越高,人類對機(jī)器人所具有的好感度也越高?!?4#〕因此,人形機(jī)器人也具有了更加廣泛和深度的運(yùn)用場景,能夠為人類帶來更多價值。例如,在不久的將來,陪伴型的服務(wù)機(jī)器人、社交機(jī)器人(social#robot)將會成為發(fā)展重點。2024年1月國務(wù)院辦公廳發(fā)布的《關(guān)于發(fā)展銀發(fā)經(jīng)濟(jì)增進(jìn)老年人福祉的意見》便已經(jīng)指出,推進(jìn)服務(wù)機(jī)器人等智能設(shè)備在居家、社區(qū)、機(jī)構(gòu)等養(yǎng)老場景集成應(yīng)用。
其二,人形機(jī)器人具有更加復(fù)雜性、綜合性的技術(shù)要求。目前已經(jīng)廣泛運(yùn)用的工業(yè)機(jī)器人,如機(jī)器手臂,在技術(shù)要求上相對簡單。而人形機(jī)器人不僅在硬件上面臨工程學(xué)、動力學(xué)等多方面的挑戰(zhàn),而且在軟件上對人工智能研發(fā)提出了極高的要求。按照目前的通行認(rèn)識,人形機(jī)器人具有三大關(guān)鍵技術(shù):“大腦”(環(huán)境感知、人機(jī)交互),“小腦”(運(yùn)動控制),“肢體”(本體結(jié)構(gòu))。這三個領(lǐng)域各自的技術(shù)要求,本身都是一項巨大工程。而人形機(jī)器人的研發(fā)至少需要將以上三者有機(jī)統(tǒng)合起來,在技術(shù)特性上具有更強(qiáng)的綜合性和復(fù)雜性。正是由于人形機(jī)器人的發(fā)展需要綜合諸多前沿學(xué)科,其被視為是機(jī)器人技術(shù)的最終目標(biāo)之一。〔15#〕
其三,人形機(jī)器人具有高水平的人工智能。近年來快速進(jìn)化的人工智能技術(shù),是人形機(jī)器人發(fā)展的重要推動力。顯然,人形機(jī)器人不僅僅是具有仿人外形的機(jī)器人,更高程度的人工智能是其區(qū)別于傳統(tǒng)機(jī)器人的核心特征。尤其是,人工智能大模型的迅速發(fā)展,很可能會與人形機(jī)器人的智能進(jìn)化深度結(jié)合在一起。例如,近期Figure#AI公司與OpenAI公司合作,引入視覺語言大模型(Visual#Language#Model,#VLM)很快推出了智能程度相當(dāng)先進(jìn)的人形機(jī)器人Figure#01。理論上,曾有觀點細(xì)致地區(qū)分了人形機(jī)器人(humanoid#robot)與類人機(jī)器人(human#robot),認(rèn)為人形機(jī)器人的外表與人類相仿,可以進(jìn)行簡單的人類行為(如伸手抓取物品、雙腿行走等),而類人機(jī)器人是與人類行為接近并生活在類似人類社會環(huán)境中的機(jī)器人?!?6#〕事實上,不宜僅對人形機(jī)器人作形式化的定義,高度智能化以及由此帶來的深度人機(jī)互動,應(yīng)當(dāng)構(gòu)成人形機(jī)器人的基本特征。
綜上,人形機(jī)器人和人工智能是緊密聯(lián)系但又存在差異的兩個法律概念。人工智能是涵蓋面更廣的概念,其主要強(qiáng)調(diào)高度智能化的屬性。而人形機(jī)器人以人工智能作為基本構(gòu)成條件,是人工智能的具身化應(yīng)用(具身智能),但還存在智能化以外的其他高度仿人特征,因此在更加具體的應(yīng)用領(lǐng)域形成更多現(xiàn)實性的問題。由此,人形機(jī)器人與人工智能的刑事風(fēng)險規(guī)制,既互相關(guān)聯(lián)又各有側(cè)重。人工智能的刑事風(fēng)險規(guī)制以產(chǎn)品責(zé)任為起點,可拓展至人工智能的獨(dú)立責(zé)任主體地位爭議。而人形機(jī)器人的刑事風(fēng)險規(guī)制則在此基礎(chǔ)上,會更進(jìn)一步涉及其具體應(yīng)用領(lǐng)域中的前置法評價與倫理標(biāo)準(zhǔn)等問題。在此意義上,人形機(jī)器人既是一種產(chǎn)品類型,又是一種不同于一般產(chǎn)品的人工智能具身實體,相關(guān)的法律爭議比一般的產(chǎn)品責(zé)任問題更加復(fù)雜, 應(yīng)當(dāng)結(jié)合其多元的應(yīng)用場景和特別的風(fēng)險類型,在刑事法律的責(zé)任體系中加以獨(dú)立地考察和剖析。
三、人形機(jī)器人的應(yīng)用場景與刑法歸責(zé)難題
人工智能可以作為一種犯罪工具,可能成為被攻擊對象,同時還可以為犯罪提供語境或背景?!?7#〕人形機(jī)器人作為人工智能的一種實體應(yīng)用形態(tài),它為人類帶來便利的同時,也潛藏著一系列安全風(fēng)險。有學(xué)者甚至認(rèn)為,越有人性的人工智能越危險?!?8#〕在展開刑法歸責(zé)體系建構(gòu)之前,有必要結(jié)合目前已有和未來可能的技術(shù)應(yīng)用場景, 初步梳理人形機(jī)器人的各種安全風(fēng)險及其為刑法歸責(zé)帶來的難題。
(一)刑事責(zé)任離散現(xiàn)象
隨著人形機(jī)器人的廣泛部署,機(jī)器人與人類在社會交往中的聯(lián)系更加稠密,人類的人身、財產(chǎn)權(quán)利面臨更高的風(fēng)險。機(jī)器人傷人的案例早已有之,代表性的案例如:德國鮑納塔爾大眾汽車工廠內(nèi)的機(jī)器人手臂造成工人死亡,德國阿沙芬堡一輛自動駕駛汽車失控后將路人撞死,微軟在推特平臺推出的智能聊天機(jī)器人Tay對使用者進(jìn)行了語言侮辱?!?9#〕人形機(jī)器人的廣泛部署,會進(jìn)一步加劇上述類似情形出現(xiàn)的可能性。例如,在社交機(jī)器人與人類的日?;又校赡軙霈F(xiàn)機(jī)器人對人類造成身體或心理損害的情況。人工智能化人形機(jī)器人在日常生活場景中的應(yīng)用,在一些場合造成嚴(yán)重的法益損害后果在所難免,然而究竟由誰來為此承擔(dān)刑事責(zé)任,面臨很多不確定性,由此出現(xiàn)刑事責(zé)任離散(Diffusion)的現(xiàn)象。
其一,人形機(jī)器人引發(fā)法益侵害后果,往往涉及多方主體的參與和共同影響。人形機(jī)器人的硬件制造者、軟件開發(fā)者(尤其是智能系統(tǒng)的編程者)、銷售者、所有人或使用者,都可能是潛在的歸責(zé)主體。如果能夠查明是哪一環(huán)節(jié)出現(xiàn)了錯誤,從而直接導(dǎo)致法益侵害后果的發(fā)生,則不會出現(xiàn)明顯的歸責(zé)難題。但由于技術(shù)運(yùn)行的復(fù)雜性,完全可能存在多方主體同時發(fā)揮了不同程度影響的局面,此時是否都要進(jìn)行刑事歸責(zé)、對何者進(jìn)行刑事歸責(zé)不無疑問。
其二,人形機(jī)器人的高度自動化特征,對法益侵害結(jié)果的歸責(zé)結(jié)構(gòu)形成了沖擊。由于人形機(jī)器人可以在一定程度上進(jìn)行自主學(xué)習(xí)和決策,那么其行為所引發(fā)的后果則可能超出生產(chǎn)者、編程者、所有者、使用者的控制和預(yù)期。當(dāng)機(jī)器人系統(tǒng)出現(xiàn)錯誤決策時,有的時候事后難以進(jìn)行復(fù)盤,人工智能和自動學(xué)習(xí)系統(tǒng)所帶來的這種不可預(yù)見性,為刑事歸責(zé)帶來了困難?!?0#〕
其三,人工智能和機(jī)器人屬于前沿領(lǐng)域的應(yīng)用,技術(shù)標(biāo)準(zhǔn)仍處在不斷發(fā)展變動過程中,由此造成規(guī)范評價上的不穩(wěn)定性。在刑法的規(guī)范評價中適當(dāng)考慮風(fēng)險的社會意義,是客觀歸責(zé)理論的經(jīng)典思想。例如,法律可容許的風(fēng)險和信賴原則便是典型的理論范式。然而,這些理論范式的適用,仍然依托于人們對技術(shù)可靠度、法律框架的變革、社會整體利益衡量等問題所形成的基本共識。而人工智能和機(jī)器人技術(shù)處在快速發(fā)展、變動不居的階段,其在人們的觀念認(rèn)同中尚屬新興事物,從中提煉出刑法評價上的可容許性邊界和信賴基礎(chǔ)并非易事。
(二)責(zé)任主體地位不明
為了避免責(zé)任離散現(xiàn)象所形成的處罰漏洞,在自然人的刑事歸責(zé)之外,出現(xiàn)了將智能機(jī)器人確立為獨(dú)立責(zé)任主體的觀點。但是,這種理解在理論上引起了極大的對立,學(xué)界目前幾乎沒有共識,主要的爭議集中在以下幾個方面。
其一,智能機(jī)器人是否擁有自由意志,從而成為獨(dú)立歸責(zé)主體。肯定性的意見認(rèn)為,智能機(jī)器人在設(shè)計和編制的程序范圍外實施行為,實現(xiàn)的是自己的獨(dú)立意志,可能在自主意識和意志的支配下實施行為。〔21#〕反對的觀點則認(rèn)為,現(xiàn)階段的機(jī)器人不能感知自由,不能理解權(quán)利和義務(wù)的概念,不具有反思自己行為好壞的能力,因此不能被視為“自由”的主體,〔22#〕不具有規(guī)范評價意義上的“目的性”與獨(dú)立控制行為的意志自由?!?3#〕
其二,智能機(jī)器人是否具有擬制人格,從而像公司(或法人)一樣承擔(dān)獨(dú)立責(zé)任??隙ㄕf認(rèn)為,既然沒有自然生命和精神的公司可以被賦予刑法主體資格,那么機(jī)器人同樣大量參與人類生活,和公司沒有本質(zhì)區(qū)別,應(yīng)當(dāng)類同對待?!?4#〕否定說則指出,公司刑事責(zé)任仍然是某一部分自然人的責(zé)任,其始終無法切斷人的聯(lián)結(jié)點作用,因此不能通過這種類比來肯定機(jī)器人刑事責(zé)任。〔25#〕
其三,將刑罰施加于智能機(jī)器人,是否具有可行性以及能否實現(xiàn)刑罰目的。肯定的意見認(rèn)為,對機(jī)器人可以通過一些變通或比照性的方式來進(jìn)行處罰,如摧毀機(jī)器人、重置其算法、禁止其使用,設(shè)置保險基金來執(zhí)行罰金等?!?6#〕通過對機(jī)器人的處罰,可以對被害人給予心理補(bǔ)償,〔27#〕實現(xiàn)刑法譴責(zé)錯誤行為的功能?!?8#〕反對性的意見則指出,人工智能系統(tǒng)和機(jī)器人的行為并不以規(guī)范為導(dǎo)向,對其進(jìn)行處罰不具有確證規(guī)范效力的效果?!?9#〕讓機(jī)器人承擔(dān)罰金,最終實際導(dǎo)致機(jī)器人的所有人承擔(dān)損失?!?0+〕
(三)刑法與前置法缺乏溝通
人形機(jī)器人的應(yīng)用場景逐漸拓展,隨之其安全風(fēng)險也向更多特定部門性領(lǐng)域蔓延,不同法秩序之間的交叉加劇,對刑法與前置法之間的協(xié)同性提出了更高要求。然而,對于更加注重內(nèi)部理論體系建構(gòu)的刑法研究者而言,這些問題尚未引起充分關(guān)注。對此,人形機(jī)器人在軍事、警務(wù)、家政、護(hù)理等具體領(lǐng)域的應(yīng)用,以及相應(yīng)形成的安全風(fēng)險和刑法歸責(zé)難題尤為突出。
由于人形機(jī)器人具備良好的仿人化行動能力,擁有一定的自主決策智能,將其適用于軍事行動或警務(wù)行動可以在很多場合更加高效、準(zhǔn)確執(zhí)行任務(wù),避免人員傷亡。早在2013年美國發(fā)布了Atlas人形機(jī)器人,2017年俄羅斯也研發(fā)了FEDOR人形機(jī)器人, 這些都是在探索將人形機(jī)器人適用于軍事領(lǐng)域的可能性?!?1#〕在當(dāng)代戰(zhàn)爭中,無人機(jī)等自動化設(shè)備已經(jīng)被廣泛使用,在未來更具智能性的人形機(jī)器人被投入戰(zhàn)場的情形也可能發(fā)生。隨著戰(zhàn)爭場景中機(jī)器人智能化程度和自主決策能力越來越強(qiáng),是否能夠允許其在戰(zhàn)爭中投入使用,是否應(yīng)當(dāng)在法律上賦予其獨(dú)立主體地位等問題引發(fā)了很大爭議?!?2#〕如果說戰(zhàn)爭并非常態(tài),那么人形機(jī)器人未來可能在警務(wù)領(lǐng)域得到更加常見的運(yùn)用。2016年7月,美國達(dá)拉斯警方在一起嫌犯暴力射殺警察的案件中, 通過遙控裝有炸彈的機(jī)器人的方法將行兇者殺死。這是美國警方首次在執(zhí)法行動中通過機(jī)器人使用致命性暴力,引發(fā)一定的擔(dān)憂?!?3#〕2022年12月,美國舊金山監(jiān)事會投票通過議案,允許警務(wù)部門使用殺手機(jī)器人(killer#robot)在執(zhí)法過程中殺害嫌疑犯,但隨后該提案遭到了公眾的強(qiáng)烈反對,最終被推翻?!?4#〕在警務(wù)活動中投入能夠自主決策的機(jī)器人固然能夠具有諸多優(yōu)勢,但是機(jī)器人能夠?qū)嵤┒啻蟪潭鹊谋┝?,如何把握合理的限度,如果機(jī)器人造成了損害后果,誰來承擔(dān)責(zé)任以及是否構(gòu)成犯罪,面臨很大的不確定性風(fēng)險?!?5#〕
人形機(jī)器人在家政、護(hù)理、酒店等領(lǐng)域已經(jīng)得到較多應(yīng)用,但它非常依賴于信息和數(shù)據(jù)的大量處理,其中潛藏了前所未有的隱私、信息和數(shù)據(jù)安全問題?!?6#〕一方面,人形機(jī)器人需要向外大量獲取信息數(shù)據(jù),這將對隱私、信息和數(shù)據(jù)安全形成挑戰(zhàn)。家庭機(jī)器人為了更好地與人類互動,需要盡可能多地獲取包括敏感數(shù)據(jù)(如生物識別數(shù)據(jù))在內(nèi)的各種個人數(shù)據(jù),而且這種數(shù)據(jù)獲取可能會超越必要性或授權(quán)邊界?!?7#〕而護(hù)理機(jī)器人則前所未有地、幾乎毫不間斷地介入病人的隱私領(lǐng)域,收集和記錄病人大量極為私密、敏感的個人數(shù)據(jù)(甚至包括裸體、性行為等信息),其對病人進(jìn)行持續(xù)的監(jiān)護(hù),也可能會影響到病人在很多決策上的自治性?!?8#〕另一方面,人形機(jī)器人本身儲存了很多重要數(shù)據(jù),實際也扮演了數(shù)據(jù)平臺的角色,如果其內(nèi)在系統(tǒng)沒有可靠的安全機(jī)制,會存在數(shù)據(jù)泄露的風(fēng)險。例如,日本一家著名的機(jī)器人主題酒店Henn#na#Hotel,很多服務(wù)員都由人形機(jī)器人來擔(dān)任,其房間內(nèi)的機(jī)器人因為易于被入侵、窺探和遠(yuǎn)程操控,使得顧客的隱私可能遭受侵犯因而受到投訴和質(zhì)疑?!?9#〕
在上述人形機(jī)器人應(yīng)用場景中所形成的安全風(fēng)險和刑法歸責(zé)難題,在很大程度上需要刑法和國際人道法、行政法、警察法、信息和數(shù)據(jù)保護(hù)法等相關(guān)規(guī)范協(xié)同治理。而在人形機(jī)器人的設(shè)計、生產(chǎn)、使用上,目前在這些部門法之間仍然缺少充分的溝通機(jī)制。
(四)倫理評價標(biāo)準(zhǔn)懸而未決
人形機(jī)器人與人類私密生活領(lǐng)域的融合逐漸深化,其高度仿人性、智能性對既有的倫理標(biāo)準(zhǔn)、社會道德尺度形成了巨大挑戰(zhàn),由此也將直接或間接地影響刑法評價。對此,在性相關(guān)犯罪〔40#〕領(lǐng)域所形成的新問題尤為引人關(guān)注。
人工智能技術(shù)被運(yùn)用于性相關(guān)犯罪領(lǐng)域,成為日益突出的問題。使用AI換臉、深度偽造技術(shù)傳播淫穢內(nèi)容、侵犯他人人身權(quán)利的行為屢見不鮮,相關(guān)國家已經(jīng)開始考慮通過立法予以特別應(yīng)對?!?1#〕而將人工智能予以實體化的人形機(jī)器人,由于具有了逼真的仿人實體,將會在性相關(guān)領(lǐng)域引發(fā)很多復(fù)雜的新問題。目前已經(jīng)出現(xiàn)的爭議主要圍繞性愛機(jī)器人展開。性愛機(jī)器人不同于簡單的性玩具,它具備更完整、更逼真的人體結(jié)構(gòu)特征(通常主要是女性形象),因此不僅僅是作為一種滿足性欲的工具,而且可能成為由人類所支配的“同居伴侶”?!?2#〕隨著人工智能技術(shù)的進(jìn)步,性愛機(jī)器人的智能化是目前的重要發(fā)展趨勢,相關(guān)產(chǎn)品早已經(jīng)在國外市場流通。例如,True8Companion公司的Roxxxy有五種不同性格特征的性愛機(jī)器人可供選擇。其中,F(xiàn)rigid8Farrah存在誘導(dǎo)用戶對其進(jìn)行強(qiáng)奸的設(shè)置, 而Young8Yoko則存在對剛滿18歲女性進(jìn)行“性規(guī)訓(xùn)” 的不良導(dǎo)向。另外,Real*Doll公司的Harmony以及Synthea*Amatus公司的Samantha等都已經(jīng)為搭載AI技術(shù)的人形機(jī)器人設(shè)計了相當(dāng)仿真的各種性愛行為細(xì)節(jié)。〔43*〕甚至,由于已經(jīng)存在了兒童性愛玩偶,對于可能出現(xiàn)的兒童性愛機(jī)器人也引發(fā)了嚴(yán)重?fù)?dān)憂。〔44*〕
能否在法律上(尤其是刑法上)允許性愛機(jī)器人的制造和流通,存在巨大爭議。性愛玩偶目前在大部分地區(qū)并沒有被明確認(rèn)定為淫穢物品,通常不會受到刑法的嚴(yán)格規(guī)制。但是,性愛機(jī)器人具備越來越逼真的仿人特征和智能水平,是否能夠延續(xù)同樣的邏輯則仍不清楚?!?5*〕配置有性愛玩偶和性愛機(jī)器人的“妓院”已經(jīng)在一些地方出現(xiàn),對此自由主義者、保守主義者、女權(quán)主義者形成了迥異的立場?!?6*〕在我國,對淫穢物品進(jìn)行了非常嚴(yán)格的管制。如果存在生產(chǎn)、銷售性愛機(jī)器人或提供性愛機(jī)器人服務(wù)的行為,是否應(yīng)當(dāng)由刑法加以干預(yù),可否在傳播淫穢物品牟利罪、非法經(jīng)營罪甚至組織賣淫罪等刑法規(guī)范中加以分析仍不明朗。由于生產(chǎn)、流通、擁有性愛機(jī)器人并沒有直接的受害者,是否有必要在刑法中予以規(guī)制,在很大程度上取決于前置的社會倫理評價標(biāo)準(zhǔn),而這一問題在我國學(xué)界尚未展開深入探討與研究。
四、人形機(jī)器人的刑法歸責(zé)體系建構(gòu)
面對人形機(jī)器人大規(guī)模部署之后的刑法歸責(zé)難題,需要探討兼顧現(xiàn)實與面向未來的應(yīng)對思路和體系化的理論建構(gòu)方案。
(一)代表性歸責(zé)方案
對于智能機(jī)器人行為的刑法歸責(zé),理論上已有各種不同的思考進(jìn)路,可以總結(jié)為以下幾種模式。
其一,代理責(zé)任模式。一種代表性的觀點將機(jī)器人理解為一種無辜代理人,實際強(qiáng)調(diào)機(jī)器人在犯罪情景中的非獨(dú)立性地位,此時機(jī)器人成為人類的工具?!?7*〕該學(xué)說具有明顯的英美法系刑法理論印記,實質(zhì)上接近于大陸法系刑法理論中“間接正犯”?!?8*〕另一種類似的觀點,主張比照法人犯罪中的上級責(zé)任理論(respondeat*superior),將機(jī)器人的開發(fā)者、所有者、使用者的犯罪意圖歸罪于機(jī)器人,由此仍然由作為“上級”的人類承擔(dān)刑事責(zé)任?!?9*〕該種觀點本質(zhì)上也是“穿透”機(jī)器人的行為,將刑事歸責(zé)回溯到人類。在當(dāng)下人工智能發(fā)展水平之下,代理責(zé)任模式具有較多的適用場景。但是隨著技術(shù)的迅速迭代,機(jī)器人具有越來越高的獨(dú)立性和自主性,代理關(guān)系可能會逐漸弱化,變得越來越難以認(rèn)定。
其二,過失責(zé)任模式。該模式意味著按照過失犯的相關(guān)理論,對機(jī)器人的開發(fā)者、所有者、使用者來進(jìn)行歸責(zé)。對此,兩大法系學(xué)者的具體表述也存在差異。受英美刑法理論影響較大的學(xué)者提出了“自然可能后果”責(zé)任理論。按照該學(xué)說,人類在設(shè)計、使用機(jī)器人時如果應(yīng)當(dāng)能夠預(yù)見到機(jī)器人可能引發(fā)的損害后果,則人類仍然應(yīng)當(dāng)承擔(dān)責(zé)任,其主觀心態(tài)是過失?!?0#〕所謂的“自然可能后果”,在英美刑法中是一種共犯的擴(kuò)展處罰理論?!?1#〕而大陸法系的刑法理論往往認(rèn)為共同犯罪和過失犯是相對分離的命題,因此傾向于在個體犯罪的法教義學(xué)框架中,考察機(jī)器人背后人類參與者的刑事責(zé)任?!?2#〕過失責(zé)任模式也是目前機(jī)器人刑法中主要依賴的歸責(zé)路徑, 但是可能難以應(yīng)對上述責(zé)任離散現(xiàn)象,其具體理論內(nèi)涵也存在相當(dāng)程度的革新需求。
其三,嚴(yán)格責(zé)任模式。該模式在機(jī)器人刑法歸責(zé)問題中不再要求主觀罪過,屬于一種典型的擴(kuò)張?zhí)幜P的理論范式。在具體實現(xiàn)路徑上,嚴(yán)格責(zé)任模式也存在不同方案。一種方案通過弱化乃至取消機(jī)器人設(shè)計者、生產(chǎn)者、使用者的主觀罪過要求,來拓展人類的入罪邊界。英美法系在與未成年發(fā)生性行為、低風(fēng)險輕微犯罪中仍然部分保留了嚴(yán)格責(zé)任。因此,有學(xué)者認(rèn)為,對于機(jī)器人應(yīng)用所帶來的損害,可以通過為機(jī)器人設(shè)計者、生產(chǎn)者、使用者創(chuàng)設(shè)輕罪、拓展嚴(yán)格責(zé)任來回應(yīng)?!?3#〕另一種方案則認(rèn)為,追究人工智能(機(jī)器人)犯罪時,不需要考慮人工智能是否有致使他人損害的犯罪意圖,無需其對犯罪行為和后果具有認(rèn)識和意志因素?!?4#〕這種觀點實際提出了針對機(jī)器人本身的嚴(yán)格責(zé)任,但在邏輯上其應(yīng)當(dāng)以機(jī)器人可以成為獨(dú)立歸責(zé)主體作為前提。嚴(yán)格責(zé)任模式使得機(jī)器人犯罪中的刑法歸責(zé)變得簡單,諸多障礙被化解。然而,嚴(yán)格責(zé)任和刑法中的責(zé)任原則存在明顯抵牾,難以得到廣泛認(rèn)可?;蛟S和人類的歸責(zé)不同,弱化責(zé)任主義原則對機(jī)器人帶來的消極影響相對較小,但是畢竟這樣的歸責(zé)方案仍然有失公平,尤其是對機(jī)器人的處罰最終很可能仍然會轉(zhuǎn)化為人類(如所有者)不應(yīng)得的損害。
其四,獨(dú)立責(zé)任模式。該模式意味著賦予機(jī)器人法律主體地位,讓機(jī)器人為其犯罪行為獨(dú)立承擔(dān)刑事責(zé)任。這一模式固然能夠較好地應(yīng)對所謂“報應(yīng)缺口”〔55#〕的問題,但如上文所述,其理論基礎(chǔ)和可行性仍面臨極大的爭議。例如,有觀點非常犀利地指出,直接地肯定機(jī)器人獨(dú)立責(zé)任,高估了機(jī)器人和人工智能技術(shù)的發(fā)展現(xiàn)狀?!?6#〕
(二)場景化刑法歸責(zé)體系
上述各種責(zé)任模式,都存在一定程度的優(yōu)勢和不足。顯然,這些責(zé)任模式并不互相排斥。除了嚴(yán)格責(zé)任與我國現(xiàn)有刑法體系存在沖突,其他責(zé)任模式都可以整合到一個綜合性的歸責(zé)體系之中。隨著人形機(jī)器人的擴(kuò)展部署,其所帶來的安全風(fēng)險來自各種不同的行業(yè)和情境。同時,人形機(jī)器人技術(shù)處在不斷發(fā)展和變化過程中,不同仿人化、智能化程度的人形機(jī)器人將會在多種情形中被同時投入使用,由此形成不同性質(zhì)、不同程度、不同結(jié)構(gòu)的安全風(fēng)險。這種多元、動態(tài)、復(fù)雜的風(fēng)險形成機(jī)制,決定了對人形機(jī)器人引發(fā)的犯罪行為應(yīng)當(dāng)因事制宜地采取場景化的刑法歸責(zé)體系。人工智能和機(jī)器人技術(shù)對刑法的影響是一個漸進(jìn)的過程,刑法歸責(zé)理論同樣不宜尋求突變,而是應(yīng)在傳統(tǒng)理論體系的基礎(chǔ)上予以適度拓展。代理責(zé)任模式和過失責(zé)任模式,仍然屬于傳統(tǒng)刑法理論體系的范疇,而獨(dú)立責(zé)任模式則是對新型刑法歸責(zé)體系的探索,兩者構(gòu)成以人類為中心和以機(jī)器人為中心的兩種不同歸責(zé)方案。這兩種路徑并非互相對立,其受制于不同的技術(shù)發(fā)展階段,應(yīng)當(dāng)在場景化的刑法歸責(zé)體系中統(tǒng)合起來。
1.傳統(tǒng)刑法理論的適用與延展
立足于傳統(tǒng)刑法法教義學(xué)原理,輔之以適當(dāng)?shù)母牧己桶l(fā)展,可以處理當(dāng)下機(jī)器人刑法中的絕大部分歸責(zé)問題。在面對人形機(jī)器人所帶來的安全風(fēng)險和刑法挑戰(zhàn)時,關(guān)鍵的問題是避免在責(zé)任離散現(xiàn)象中出現(xiàn)明顯的處罰漏洞。而在目前的人工智能和機(jī)器人技術(shù)條件下,現(xiàn)有的刑法教義學(xué)原理基本可以應(yīng)對。在很長一段時間內(nèi),人類與人工智能(機(jī)器人)仍然處在一種監(jiān)督、管理關(guān)系之中。其具體可包括人類對人工智能體決策的干預(yù)(human(in(the(loop)、設(shè)計的干預(yù)(human(on(the(loop)、整體活動的監(jiān)管(human(in(command)?!?7(〕因此,當(dāng)人形機(jī)器人引發(fā)法益損害后果時,通??梢酝ㄟ^一定的溯因機(jī)制尋找引發(fā)后果的原因,并在此基礎(chǔ)上進(jìn)行刑法歸責(zé):(1)如果機(jī)器人的所有者、使用者故意利用機(jī)器人來侵害他人法益,按照相關(guān)故意犯罪追究刑事責(zé)任;(2)如果機(jī)器人的編程出現(xiàn)重大疏忽,或者研發(fā)過程中的部件生產(chǎn)、組裝出現(xiàn)明顯過錯,則可以考慮追究編程者、生產(chǎn)者的產(chǎn)品責(zé)任;〔58(〕(3)如果生產(chǎn)者、編程者等多個主體對損害結(jié)果的發(fā)生發(fā)揮了不同程度的作用,按照多因一果的模式進(jìn)行分析,對起主要作用者進(jìn)行歸責(zé),起次要作用者在具體案例中酌情處理;(4)如果機(jī)器人的所有者、使用者沒有按照正常流程對機(jī)器人進(jìn)行設(shè)置和使用,引發(fā)對他人法益侵害后果,可能在相關(guān)過失犯罪的框架中來進(jìn)行歸責(zé);(5) 如果是機(jī)器人所有者、使用者在上述情形中引發(fā)對自身法益的侵害后果,那么應(yīng)當(dāng)在被害人自我答責(zé)的理論框架中來予以考察。
與此同時,應(yīng)當(dāng)在機(jī)器人刑法的技術(shù)語境下,重點對可容許的風(fēng)險和信賴原則進(jìn)行推演和適度拓展。機(jī)器人使用過程中可能出現(xiàn)多種類型的事故,如干涉碰撞、失速異動、擠壓拍擊、零件故障、電氣故障、系統(tǒng)失效等?!?9(〕這些事故在一定條件下,可能引發(fā)法益損害后果。對此,不宜采取完全結(jié)果導(dǎo)向的思路,或者僅僅對損害后果具有抽象的預(yù)見可能性,便要求生產(chǎn)者、編程者承擔(dān)過失刑事責(zé)任,這種做法會不當(dāng)?shù)貕褐迫斯ぶ悄苄录夹g(shù)和機(jī)器人產(chǎn)業(yè)的發(fā)展。如果機(jī)器人所引發(fā)的損害后果,處于可以容許的風(fēng)險之內(nèi),則應(yīng)當(dāng)阻卻刑法歸責(zé)。風(fēng)險是否屬于可容許的范圍,關(guān)鍵在于機(jī)器人的部署是否給人類帶來了更大的利益,由此在觀念上得到了社會的認(rèn)可。機(jī)器人技術(shù)和人工智能處在快速發(fā)展迭代過程之中,因而對此很難有明確的實定法標(biāo)準(zhǔn),但以下因素仍然可以重點進(jìn)行綜合參考:(1)行業(yè)標(biāo)準(zhǔn)和技術(shù)慣例。行業(yè)標(biāo)準(zhǔn)和技術(shù)慣例雖然并非具有權(quán)威效力的規(guī)范,但是代表著產(chǎn)業(yè)的整體發(fā)展水平和通常做法。如果機(jī)器人生產(chǎn)、編程符合了行業(yè)標(biāo)準(zhǔn)和技術(shù)慣例,即使行為引發(fā)了風(fēng)險,那么這種風(fēng)險被社會所認(rèn)可的概率相對較高。(2)應(yīng)用領(lǐng)域的風(fēng)險等級。2021年4月歐盟委員會提出的《人工智能法案》,對人工智能提出的監(jiān)管和法律框架以不同應(yīng)用領(lǐng)域、不同程度風(fēng)險等級為標(biāo)準(zhǔn)來設(shè)置。其區(qū)分了禁止的人工智能行為、高風(fēng)險人工智能系統(tǒng)、其他人工智能系統(tǒng),并分別設(shè)置了不同的法律義務(wù)和監(jiān)管要求?!?0(〕同樣,智能人形機(jī)器人應(yīng)用領(lǐng)域的風(fēng)險等級越高,風(fēng)險被法律和社會所容許的標(biāo)準(zhǔn)和條件就越高。(3)受益對象和參與主體。如果人工智能系統(tǒng)危害到了完全不相關(guān)的他人,那么風(fēng)險被容許的可能性,就低于用戶自愿參與這種風(fēng)險行為的情形。〔61(〕
在人機(jī)互動逐漸日?;⑸疃然谋尘跋?,信賴原則也應(yīng)當(dāng)適當(dāng)突破自然人與自然人之間的范圍。對于符合標(biāo)準(zhǔn)、正常投入流通的人形機(jī)器人,人類也可對其行動方式、操作流程產(chǎn)生合理信賴。對于人形機(jī)器人引發(fā)法益侵害后果的因果流程,如果人類基于合理信賴而參與其中,那么應(yīng)當(dāng)阻卻損害后果對人類的歸責(zé)。反之,對于人類引發(fā)法益侵害后果的因果流程,人形機(jī)器人以算法為基礎(chǔ)產(chǎn)生合理“信賴”參與其中,也應(yīng)當(dāng)阻卻損害后果對人形機(jī)器人以及相關(guān)人類主體(如生產(chǎn)者、編程者、使用者)的歸責(zé)。需要注意的是,在一些異常性、緊急性狀況中,如果人類的判斷明顯不同于人形機(jī)器人的正常算法邏輯,那么信任原則不能再簡單套用?!?2#〕此外,在機(jī)器人和機(jī)器人之間,也可以在一定條件下存在信賴原則的適用空間?!?3#〕例如,甲方機(jī)器人按照正常流程基于“信賴”參與乙方機(jī)器人的互動,如果因乙方機(jī)器人出現(xiàn)明顯的疏忽或過錯引發(fā)法益損害后果,同樣應(yīng)當(dāng)阻卻損害結(jié)果對甲方機(jī)器人及其相關(guān)人類主體的歸責(zé)。
2.機(jī)器人責(zé)任主體地位的理論可能
面對技術(shù)和社會的不斷進(jìn)步,刑法體系應(yīng)當(dāng)持發(fā)展的立場,可以考慮在未來有條件地承認(rèn)人形機(jī)器人獨(dú)立責(zé)任主體地位的可能性。
其一,之所以學(xué)界關(guān)于機(jī)器人能否成為刑事責(zé)任主體存在巨大爭議,重要原因之一在于學(xué)者們對人工智能和機(jī)器人技術(shù)的發(fā)展現(xiàn)狀和前景持不同態(tài)度。持相對保守立場的學(xué)者,更多看到的是人工智能目前所存在的技術(shù)瓶頸?!?4#〕但是如果技術(shù)繼續(xù)朝著強(qiáng)人工智能的方向發(fā)展,部分學(xué)者對此問題也并不全然持否定立場。〔65#〕事實上,法學(xué)學(xué)者不能過于低估技術(shù)發(fā)展的速度。技術(shù)專家指出,精神不過是大腦功能的一個標(biāo)簽而已,它并不獨(dú)立于大腦細(xì)胞而存在,神經(jīng)元也不過就是細(xì)胞而已,并沒有神秘力量控制神經(jīng)細(xì)胞行為,因此智能機(jī)器完全可能?!?6#〕20世紀(jì)90年代以后,機(jī)器人發(fā)展前進(jìn)了一大步,出現(xiàn)了具有半感受范式的社會機(jī)器人,而一些先鋒研究成果表明,可能在人工機(jī)器中實現(xiàn)內(nèi)在自我認(rèn)知?!?7#〕現(xiàn)代神經(jīng)科學(xué)不斷地表明,意識正在“祛魅”,它并非人類所獨(dú)有,是一種由內(nèi)向外的“預(yù)測加工”,人工智能和機(jī)器人技術(shù)的發(fā)展完全有可能帶來看似是意識的新技術(shù)。〔68#〕雷·庫茲韋爾(Ray#Kurzweil)提出著名的加速回報定律更是指出,人工智能技術(shù)呈指數(shù)增長而非線性增長,他預(yù)測到2029年人類和機(jī)器之間的鴻溝不再,機(jī)器可以通過圖靈測試,具備由人類智力逆向工程發(fā)展而來的性格、能力和知識?!?9#〕近期,OpenAI所發(fā)布的ChatGPT和Sora更是讓人們看到了越來越高的這種可能性。當(dāng)然,與此同時,對人工智能和機(jī)器人技術(shù)發(fā)展速度持懷疑的學(xué)者也不在少數(shù)。但總的來說,法學(xué)學(xué)者宜對技術(shù)發(fā)展保持開放的心態(tài),適度前瞻性地探討可能發(fā)生的刑法歸責(zé)范式轉(zhuǎn)換,反思傳統(tǒng)刑法理論,由此也指引技術(shù)朝著更加實質(zhì)合理的方向發(fā)展。
其二,面對人—機(jī)器人深度嵌套社會中可能出現(xiàn)的責(zé)任離散現(xiàn)象,對傳統(tǒng)刑法教義學(xué)理論的延展與調(diào)適有其限度。如果法律補(bǔ)救的最終目的是鼓勵好的行為、否定壞的行為,那么有的時候僅僅處罰智能機(jī)器人的所有者、設(shè)計者就并不總是有道理,因為他們可能沒有實施錯誤的行為。〔70#〕對人工智能涉及的損害結(jié)果進(jìn)行回溯追責(zé),在復(fù)雜的情形中,可能面臨著事實操作層面和法律規(guī)范評價層面的不可還原性。在共同發(fā)生作用的事實因素過多的場合,難以從中明確法律評價的重點。而即使能夠相對明確,其所創(chuàng)設(shè)的輕微風(fēng)險是否已經(jīng)達(dá)到了刑法入罪的實質(zhì)要求,在處罰必要性上仍然存疑。〔71#〕在前述聊天機(jī)器人Tay案中,這樣的情況已經(jīng)出現(xiàn)了苗頭。對此,有學(xué)者主張專門設(shè)置發(fā)售危險產(chǎn)品的抽象危險犯,將損害結(jié)果的出現(xiàn)作為客觀處罰條件?!?2#〕這種做法雖然不同于嚴(yán)格責(zé)任,但仍然有接近于嚴(yán)格責(zé)任的傾向,可能存在過度嚴(yán)苛的問題。在機(jī)器人的生產(chǎn)者、設(shè)計者已經(jīng)盡到了當(dāng)前社會所能達(dá)到的客觀注意義務(wù)時,如果出現(xiàn)了嚴(yán)重的損害后果,仍然擴(kuò)張性地適用諸如過失犯、抽象危險犯、客觀處罰條件乃至嚴(yán)格責(zé)任這樣的理論來對他們進(jìn)行刑事歸責(zé),固然回應(yīng)了被害人和社會的報應(yīng)期待,但實際上產(chǎn)生了使機(jī)器人的生產(chǎn)者、設(shè)計者淪為替罪羊的風(fēng)險。這不僅會削弱責(zé)任原則的實際效果,而且長遠(yuǎn)來看可能會對機(jī)器人和人工智能技術(shù)的發(fā)展產(chǎn)生寒蟬效應(yīng)?!?3#〕
其三,能否承認(rèn)機(jī)器人責(zé)任主體地位,涉及刑法歸責(zé)中基本思考方法轉(zhuǎn)向的問題。不論是機(jī)器人是否具有自由意志、是否具有責(zé)任能力,抑或是能否成為適格受罰對象,理論上之所以形成兩極化的爭議,除了對人工智能技術(shù)發(fā)展的預(yù)期不同,主要在于對刑法歸責(zé)采取的是一種偏向本體論還是接近于功能主義的思考方法。
首先,就人類自由意志的有無抑或存在形式而言,隨著神經(jīng)科學(xué)研究的深入,至今仍然無法形成基本定論。從神經(jīng)科學(xué)的角度來觀察刑法,刑法是否可以建立在所謂自由意志上是存疑的?!?4#〕在當(dāng)下的刑法理論中,逐漸不再格外地強(qiáng)調(diào)這樣一種本體論上的事實前提,因為其無法得到可靠的確證。同樣,是否具有自由意志并不會成為承認(rèn)機(jī)器人責(zé)任主體地位的必然前提。
其次,法律(包括刑法)中的人格,則更非事實描述性的概念。人格并不是由某種神秘形而上學(xué)屬性所決定的東西,而是一種在社會中被建構(gòu)、協(xié)商和賦予的資格。〔75#〕最為重要的一個例證,就是很多國家在民事法和刑事法中都賦予了公司擬制的法律人格。公司當(dāng)然不可能具備人在事實上的各種屬性,但在人類社會的交往中,功能性地賦予其類似于人的主體地位能夠使法律關(guān)系更加符合社會的發(fā)展需要。換言之,法律人格的判斷是一種以權(quán)利義務(wù)資格為依據(jù)的實質(zhì)化標(biāo)準(zhǔn),如果我們賦予機(jī)器人或人工智能體權(quán)利義務(wù),它也可以具備法律人格。〔76#〕在方法論上,將某些非個人組織予以人格化,是法律史上一種普遍的法律推理的思維方法,而對具備高度智能的類人機(jī)器人則更是可以沿用同樣的邏輯?!?7#〕反對性的意見非常細(xì)致地指出了公司和機(jī)器人在事實層面的差異,即公司背后始終有人的因素在發(fā)揮作用。但是,一方面,在很長一段時間內(nèi),機(jī)器人背后同樣存在人類(如設(shè)計者、所有者、使用者)的影響。另一方面,人類的聯(lián)系仍然是一種事實描述性的因素,它并非規(guī)范地賦予人格的必然要求?!?8#〕刑法中的人格是一種社會建構(gòu)性的概念,而并非必須可以被還原為自然事實?!?9#〕
再次,刑法中的罪責(zé),同樣也應(yīng)當(dāng)在功能主義的視角下加以重新審視。如果采取一種絕對人類中心主義的立場,完全從本體論來界定罪責(zé)概念,那么當(dāng)然只有人類可能成為刑事責(zé)任的主體。不論人工智能如何發(fā)展,人形機(jī)器人始終只是對高級碳基生物形式的一種模仿,而不可能成為人類。否定機(jī)器人責(zé)任主體可能性的觀點,往往傾向于詳細(xì)地論證機(jī)器人不具有像人一樣的感知能力。但是,本體論上的人類感知,并非罪責(zé)歸屬的絕對前提。刑法上的罪責(zé),并非基于一種生物性的自由,而是作為一種社會事實的自由歸屬,這為機(jī)器人的刑事責(zé)任提供了可能。〔80#〕換言之,罪責(zé)并非先驗的概念,它也是一種建構(gòu)性的理論?!?1#〕正因如此,沒有人類感知和生命的公司成為刑法上的獨(dú)立責(zé)任主體,在邏輯上才能成立。更何況,就像企業(yè)具有內(nèi)部決策機(jī)制因而形成了故意,智能機(jī)器人同樣可以根據(jù)這種方式具有類似的故意?!?2#〕
最后,如果貫徹了功能主義的思考,機(jī)器人接受刑罰的意義也并不會形成對其歸責(zé)的障礙。如果人們在觀念上接受了機(jī)器人的獨(dú)立主體地位,那么對其科處刑罰就可能實現(xiàn)相應(yīng)刑罰目的。尤其是在高度仿人的人形機(jī)器人深度融入人類社會以后,這種觀念上的趨勢很可能會逐漸增強(qiáng)。有學(xué)者擔(dān)心肯定機(jī)器人的處罰,可能會導(dǎo)致刑事責(zé)任由人類向機(jī)器轉(zhuǎn)移,與人工智能風(fēng)險的刑法規(guī)制背道而馳?!?3#〕但如上所言,機(jī)器人的刑法歸責(zé)路徑與人類的刑法歸責(zé)路徑并非替代關(guān)系,二者并不互相排斥,因此這種刑事政策上的擔(dān)憂并無必要。通過對違反刑法的機(jī)器人科處刑罰,可以功能性地維護(hù)刑法規(guī)范的效力,為受害者乃至整個社會提供正當(dāng)感和安全感,〔84#〕也間接促使機(jī)器人的開發(fā)者、所有者以符合社會需要的方式調(diào)整自己的行為?!?5#〕在刑罰具體實現(xiàn)形式上可能仍然需要深入討論,但既然能夠?qū)具M(jìn)行刑事處罰,那么對機(jī)器人的處罰也并非不可能。而且,機(jī)器人具備了更高的自主性和智能性,對其科處的刑罰形式甚至可以不僅僅是罰金。
總之,對機(jī)器人進(jìn)行獨(dú)立歸責(zé),并不需要機(jī)器人成為人。如果實現(xiàn)從本體論向功能主義的轉(zhuǎn)變,那么未來有條件地承認(rèn)智能機(jī)器人的獨(dú)立責(zé)任主體地位在邏輯上可以成立。在人機(jī)交互逐漸深入的語境下,這種觀念的轉(zhuǎn)變可能是人工智能時代刑法歸責(zé)體系未來將會面臨的根本性問題之一。當(dāng)然,如前所述,這種可能性和必要性仍然在很大程度上取決于今后人工智能和機(jī)器人技術(shù)的發(fā)展程度和狀況。
綜上,在關(guān)于人形機(jī)器人的場景化歸責(zé)體系之中,以人類為中心的傳統(tǒng)刑法理論和以機(jī)器人為中心的新型刑法理論構(gòu)成刑法歸責(zé)坐標(biāo)軸中縱向和橫向兩個基本維度。在縱向維度上,生產(chǎn)者、設(shè)計者、使用者對人形機(jī)器人的支配程度和控制意愿越強(qiáng),人形機(jī)器人的客體化工具屬性就越突出,就更可能按照代理責(zé)任模式來進(jìn)行刑法歸責(zé)。而當(dāng)人類對人形機(jī)器人僅具有相對較弱的支配程度和控制意愿,人形機(jī)器人的客體化產(chǎn)品屬性就較為明顯,更為容易按照過失責(zé)任模式來進(jìn)行刑法歸責(zé)。當(dāng)然,在此維度上,以支配和控制程度作為參考依據(jù)的刑法歸責(zé),應(yīng)當(dāng)是一種規(guī)范性而非純粹事實性的判斷,其中新技術(shù)條件下的風(fēng)險可容許性、社會信任機(jī)制發(fā)揮著重要的調(diào)節(jié)作用。如果上述規(guī)范性的支配程度和控制意愿非常薄弱,則接近縱軸的原點宜對人類行為作無罪化處理。在橫向維度上,人形機(jī)器人的智能化、仿人化程度越高,人形機(jī)器人的主體性地位就越強(qiáng),就越可能被評價為獨(dú)立刑法歸責(zé)主體。在此維度上,一方面,發(fā)揮基礎(chǔ)作用的是人工智能和機(jī)器人的技術(shù)發(fā)展水平,其在很大程度上將決定傳統(tǒng)刑法歸責(zé)體系的缺口;另一方面,人類社會中法律關(guān)系的功能性建構(gòu)需要也發(fā)揮著關(guān)鍵作用,其通過功能主義的思路彌補(bǔ)和發(fā)展傳統(tǒng)刑法歸責(zé)體系。此外,需要強(qiáng)調(diào)的是,雖然縱軸和橫軸代表兩種不同方向的刑法歸責(zé)思路,但二者統(tǒng)合在整體的場景化歸責(zé)體系之中。就好比追究公司刑事責(zé)任與個人刑事責(zé)任并不矛盾,甚至二者經(jīng)常同時存在,人類的刑法歸責(zé)與人形機(jī)器人的刑法歸責(zé)在未來既可能是擇一關(guān)系也可能并列共存。
(三)開放式刑法歸責(zé)體系
場景化刑法歸責(zé)體系為人形機(jī)器人的治理提供了歸責(zé)路徑的指引,但由于人形機(jī)器人形成了多元性、特定領(lǐng)域?qū)虻男滦桶踩L(fēng)險,在一些前沿的領(lǐng)域和復(fù)雜的情形中,既有的刑法知識體系尚無具體應(yīng)對和處置方案。因此,除了歸責(zé)路徑的探索之外,合理刑法歸責(zé)的實現(xiàn)在內(nèi)容上還依賴于外部性、實質(zhì)化的依據(jù)作為支持,需要對其他法律規(guī)范評價和發(fā)展中的倫理標(biāo)準(zhǔn)保持協(xié)同和開放。
1.部門法之間的協(xié)同
如前所述,刑法與前置法缺乏充分有效的溝通機(jī)制,使得軍事、警務(wù)、家政、護(hù)理、酒店等領(lǐng)域人形機(jī)器人的相關(guān)安全風(fēng)險及其刑法規(guī)制難以得到穩(wěn)定的規(guī)范評價。因此,刑法與其他領(lǐng)域法律規(guī)范的協(xié)同,成為機(jī)器人相關(guān)犯罪刑法歸責(zé)評價中的重要問題。由于刑法屬于保障法,具有最后手段性的特征,應(yīng)當(dāng)盡量將前置法中的基本原則作為考察刑事責(zé)任的前提,避免刑法突破前置法領(lǐng)域共識的現(xiàn)象,同時將前置法中的一些具體要求作為實質(zhì)化理論資源融入刑法教義學(xué)體系。
在軍事領(lǐng)域,人形機(jī)器人的設(shè)計與使用面臨國際人道法的諸多限制,應(yīng)當(dāng)將國際人道法的部分原理納入刑法歸責(zé)評價之中。雖然將人工智能機(jī)器人運(yùn)用于戰(zhàn)場逐漸開始成為一些國家的選擇,但理論上對此存在強(qiáng)烈的擔(dān)憂。使用軍事機(jī)器人可以減少人類直接近距離參戰(zhàn),降低了戰(zhàn)爭成本和門檻,可能反過來導(dǎo)致更多武裝沖突,〔86%〕減弱士兵對生命的尊重,從而形成對戰(zhàn)爭中人道主義原則的挑戰(zhàn)?!?7%〕因此,軍事機(jī)器人的設(shè)計、研發(fā)與使用,同樣應(yīng)當(dāng)嚴(yán)格落實國際人道法中的基本原則,才能具備基本的正當(dāng)性。例如,軍事機(jī)器人的編程和生產(chǎn),應(yīng)當(dāng)使機(jī)器人能夠遵守區(qū)別對待原則,將合法目標(biāo)和非法目標(biāo)、戰(zhàn)斗人員與平民、軍用設(shè)施和民用設(shè)施進(jìn)行不同處理;應(yīng)當(dāng)使其能夠?qū)崿F(xiàn)比例相稱原則,只能使用與攻擊目標(biāo)比例相當(dāng)?shù)奈淞Α!?8%〕如果沒有達(dá)到上述前置法要求和標(biāo)準(zhǔn),那么這些因素將成為(尤其是在國際刑法領(lǐng)域)對相關(guān)主體進(jìn)行刑事歸責(zé)的重要依據(jù)。
在警務(wù)領(lǐng)域,能否將人形機(jī)器人投入執(zhí)法活動,機(jī)器人在警務(wù)活動中使用暴力(尤其是致命性暴力)的邊界,首先取決于行政法中一系列基本原則的判斷。如果機(jī)器人未來能夠具有一定自主性地參與執(zhí)法任務(wù),那么行政法中的比例原則、越權(quán)無效等基本原則,包括警察法所規(guī)定的警察使用武器的基本流程和要求,不同暴力程度警械手段的層級化設(shè)置,〔89%〕都應(yīng)當(dāng)內(nèi)嵌于人形機(jī)器人的算法之中。否則,在產(chǎn)生不當(dāng)侵害后果時,機(jī)器人的設(shè)計者、使用者等主體可能承擔(dān)人身權(quán)利侵害或職務(wù)犯罪等領(lǐng)域的刑事責(zé)任。
在家政、護(hù)理、酒店等領(lǐng)域,人形機(jī)器人與人類日常起居生活處在一種非常緊密的相互關(guān)系之中,并且存在大量的信息和數(shù)據(jù)處理需求,因而人形機(jī)器人的研發(fā)、設(shè)計和使用,應(yīng)當(dāng)嚴(yán)格符合信息和數(shù)據(jù)相關(guān)保護(hù)法律的要求。例如,歐洲通用數(shù)據(jù)保護(hù)條例、我國數(shù)據(jù)保護(hù)法、個人信息保護(hù)法所確認(rèn)的合法、正當(dāng)、必要和誠信原則,公開透明原則,目的限制原則,必要性原則等,都應(yīng)當(dāng)內(nèi)置于人形機(jī)器人的信息和數(shù)據(jù)處理機(jī)制之中。此外,對敏感個人信息的處理和保護(hù),則應(yīng)當(dāng)對人形機(jī)器人相應(yīng)設(shè)置更高的義務(wù)標(biāo)準(zhǔn)和安全機(jī)制。我國刑法侵犯公民個人信息罪中的“違反國家有關(guān)規(guī)定”,以及非法獲取計算機(jī)信息系統(tǒng)數(shù)據(jù)罪中“違反國家規(guī)定”“未經(jīng)授權(quán)或者超越授權(quán)”等核心要件的認(rèn)定,便需要實質(zhì)性地考察上述前置法中基本原則的落實情況。違背上述原則,存在侵犯人類隱私、信息和數(shù)據(jù)權(quán)利的行為,情節(jié)嚴(yán)重的則可能構(gòu)成相應(yīng)犯罪。
2.機(jī)器人倫理的探索
形態(tài)與智能高度仿人的人形機(jī)器人進(jìn)入人類社會后,將會極大地挑戰(zhàn)傳統(tǒng)的倫理學(xué)標(biāo)準(zhǔn),這對刑法歸責(zé)的評價同樣具有深層影響。懸而未決的倫理評價標(biāo)準(zhǔn),使得人形機(jī)器人在部分領(lǐng)域(尤其是在性相關(guān)犯罪問題上)的刑法評價非常困難。雖然違背倫理道德的行為不一定構(gòu)成違法犯罪,但是相當(dāng)一部分行為的刑法評價具有內(nèi)在的倫理道德基礎(chǔ)。例如,如果社會承認(rèn)一種相對開放的性觀念,私密的聚眾淫亂就不會作為犯罪論處。反之,則可能形成一種以倫理道德評價為基礎(chǔ)的刑事責(zé)任。在機(jī)器人刑法領(lǐng)域這種現(xiàn)象尤為明顯,某些類型的人形機(jī)器人能否允許以及通過何種方式設(shè)計、生產(chǎn)、流通、使用,通過何種方式得到保護(hù),都有賴于在刑法歸責(zé)評價中納入機(jī)器人倫理的實質(zhì)考察?!耙x物品”“賣淫”這些刑法概念的規(guī)范內(nèi)涵,也需要借助機(jī)器人倫理的評價,才能在新的人—機(jī)嵌套型社會語境中得到澄清。
阿西莫夫在1942年發(fā)表的《轉(zhuǎn)圈圈》(Runaround)中提出的機(jī)器人學(xué)三定律,屬于最為經(jīng)典的機(jī)器人倫理標(biāo)準(zhǔn):(1)機(jī)器人不得傷害個人(a-huaman-being),或者因不作為而使個人受到傷害;(2)機(jī)器人必須服從人類賦予它的指令,除非該指令和第一定律產(chǎn)生沖突;(3)在不違反第一和第二定律的情況下,機(jī)器人必須保護(hù)自己?!?0-〕機(jī)器人學(xué)三定律雖然在科幻文學(xué)作品中被提出,但至今仍被學(xué)術(shù)界認(rèn)為是機(jī)器人學(xué)的倫理性綱領(lǐng),將其作為機(jī)器人開發(fā)的準(zhǔn)則。〔91-〕然而,阿西莫夫的機(jī)器人學(xué)三定律只是一個粗糙的基本倫理框架,理論上不乏相當(dāng)多的質(zhì)疑和改良意見?!?2-〕顯然,經(jīng)典的阿西莫夫機(jī)器人學(xué)三定律在復(fù)雜多元的應(yīng)用場景中,會出現(xiàn)難以應(yīng)對甚至自相矛盾的局面。例如,在警務(wù)或軍事領(lǐng)域部署的人形機(jī)器人,如果它具有殺人的功能,便會直接與第一定律相沖突,〔93-〕即便它服務(wù)于某種人類認(rèn)為具有正當(dāng)性的理由。因此,目前很多國家都在積極探索和發(fā)展更加綜合性、開放性的機(jī)器人倫理標(biāo)準(zhǔn)。例如,2005年韓國頒布了《韓國機(jī)器人倫理學(xué)憲章》,2019年歐盟人工智能高級別專家組發(fā)布了《可信賴人工智能倫理指南》等。在我國,也陸續(xù)出臺了一些官方和非官方的人工智能與機(jī)器人倫理規(guī)范。〔948〕在上述各種版本的人工智能和機(jī)器人倫理標(biāo)準(zhǔn)中,一些基本原則逐漸成為共識,如尊重和保護(hù)人的尊嚴(yán)與權(quán)利、保障可解釋性和透明度、公平性(不歧視)原則等。這些基本的機(jī)器人倫理原則,不僅是人形機(jī)器人設(shè)計、生產(chǎn)、使用的指導(dǎo)標(biāo)準(zhǔn),而且也應(yīng)當(dāng)內(nèi)化于人形機(jī)器人刑法的具體規(guī)范評價之中。
在性愛機(jī)器人問題上,鮮明地體現(xiàn)了機(jī)器人倫理對刑法評價的關(guān)鍵作用。性愛機(jī)器人是否符合機(jī)器人倫理,將直接決定其能否在法律(包括刑法)上被允許生產(chǎn)、流通甚至使用??隙ǖ囊庖娬J(rèn)為,性愛機(jī)器人能夠緩解性壓抑和孤獨(dú),起到陪伴作用,〔95-〕減少一些人從事非法、危險性活動(如嫖娼甚至性犯罪)的風(fēng)險,避免潛在傷害。但是,否定的觀點認(rèn)為,目前流通的性愛機(jī)器人實際變向地扭曲了女性的性同意問題,貶低女性人格,導(dǎo)致男性疏遠(yuǎn)人類伴侶,形成一種幻覺和依賴,甚至對人類文明的未來形成沖擊?!?6-〕有學(xué)者甚至發(fā)起了反對性愛機(jī)器人運(yùn)動,主張性愛機(jī)器人與賣淫行為在物化女性這一點上有相似之處,〔97%〕致力于推動性愛機(jī)器人的犯罪化,但理論上對此存在極大爭議?!?8%〕正因為性愛機(jī)器人存在著巨大的倫理爭議,尤其是可能潛存的負(fù)面效應(yīng),我國的法律(包括刑法)應(yīng)當(dāng)對性愛機(jī)器人的設(shè)計、生產(chǎn)、流通持慎重的態(tài)度。對此,應(yīng)當(dāng)區(qū)分一般的性愛機(jī)器人和兒童性愛機(jī)器人的法律評價。對于兒童性愛機(jī)器人,由于其明顯嚴(yán)重地違背機(jī)器人倫理,刑法應(yīng)當(dāng)考慮明確予以禁止。有學(xué)者認(rèn)為,制造、使用兒童性愛機(jī)器人,雖然沒有直接對兒童形成外在性侵害,但實際上通過虛擬的方式復(fù)制這種行為模式,這在道德上是錯誤的,可以成為刑法規(guī)制的對象?!?9%〕不過,不少國家的現(xiàn)行法律規(guī)范,實際上不能準(zhǔn)確地涵蓋這類行為。在美國,雖然存在一系列禁止兒童色情的法律,但是關(guān)于兒童性愛玩偶和機(jī)器人的刑法規(guī)定仍然存在漏洞。〔100%〕對此,美國眾議院于2018年通過了《遏制現(xiàn)實剝削性愛電子戀童癖機(jī)器人法案》(簡稱CREEPER),〔101%〕旨在拓寬已有的淫穢物品罪刑規(guī)范的適用范圍。該法案規(guī)定,進(jìn)口或運(yùn)輸任何具有未成年特征或類似特征,用于性行為的玩偶、人體模型或機(jī)器人,構(gòu)成犯罪。其后,該法案在美國參議院受阻,2021年CREEPER%2.0版又被提出,意圖進(jìn)一步將持有或買賣上述物品的行為也予以犯罪化。在英國現(xiàn)有的法律框架下,制造、分發(fā)、持有兒童性愛娃娃和機(jī)器人的行為,也不能被完整地規(guī)制,因此有學(xué)者主張在《性犯罪法案》中增設(shè)新罪予以補(bǔ)充?!?02%〕在我國,關(guān)于性愛機(jī)器人的倫理研究寥寥無幾,對刑法可能產(chǎn)生的影響也尚未展開討論。事實上,我國已經(jīng)開始出現(xiàn)此類問題的雛形,據(jù)報道,一些地方已經(jīng)出現(xiàn)“硅膠娃娃體驗館”,但是部分被有關(guān)部門查封。鑒于性愛機(jī)器人可能帶來的挑戰(zhàn),不遠(yuǎn)的未來我們需要深入研究機(jī)器人倫理,將其作為刑法歸責(zé)評價的前提,由此進(jìn)一步判斷生產(chǎn)、流通、使用性愛機(jī)器人的行為是否在特定情形中存在實際法益侵害,并重新評估我國刑法中性相關(guān)犯罪(尤其是淫穢物品犯罪)的立法與司法適用邊界。
結(jié)語
隨著機(jī)器人和人工智能技術(shù)日新月異的發(fā)展,作為具身智能的人形機(jī)器人在應(yīng)用場景上逐漸拓展,人與機(jī)器人深度交互的時代逐漸臨近。具有高度仿人性、智能性特征的人形機(jī)器人除了對傳統(tǒng)人身、財產(chǎn)權(quán)利安全可能形成隱患,在軍事和警務(wù)領(lǐng)域,隱私、信息和數(shù)據(jù)安全,以及性相關(guān)犯罪等方面,也帶來了很多新的法律挑戰(zhàn)。由此,在人形機(jī)器人的刑法歸責(zé)中,可能出現(xiàn)刑事責(zé)任離散,責(zé)任主體地位不明,刑法與前置法缺乏溝通,倫理評價標(biāo)準(zhǔn)懸而未決等一系列難題。在理論上,目前主要存在代理責(zé)任、過失責(zé)任、嚴(yán)格責(zé)任、獨(dú)立責(zé)任四種刑法歸責(zé)模式,其在不同程度上都存在各自的優(yōu)勢與不足。不同智能程度的人形機(jī)器人在多種多樣的情形中被部署,其形成了多元、復(fù)雜、動態(tài)的安全風(fēng)險。在此背景下,除了嚴(yán)格責(zé)任之外,其他幾種責(zé)任模式都可以被統(tǒng)合到場景化的刑法歸責(zé)體系中。在當(dāng)前的技術(shù)發(fā)展階段,傳統(tǒng)刑法教義學(xué)原理可以處理機(jī)器人刑法中絕大部分的歸責(zé)問題。但是,立足于人形機(jī)器人的智能屬性,應(yīng)當(dāng)在新的技術(shù)條件下對可容許風(fēng)險和信賴原則等原理予以重新梳理和適度延展。放眼于未來,法律學(xué)者不能低估人工智能和機(jī)器人技術(shù)的發(fā)展速度。應(yīng)給予肯定,尤其是面對可能出現(xiàn)的責(zé)任離散現(xiàn)象,可以在未來有條件地肯定智能人形機(jī)器人獨(dú)立責(zé)任主體的可能性。對此,需要倡導(dǎo)建構(gòu)式的理論應(yīng)對機(jī)制〔103$〕,從本體論轉(zhuǎn)向功能主義視角,重新思考刑法理論體系中自由意志、人格、責(zé)任和刑罰等概念的意義。面對人形機(jī)器人所帶來的跨領(lǐng)域新型安全風(fēng)險,刑法歸責(zé)體系應(yīng)當(dāng)對其他法律領(lǐng)域的規(guī)范評價和尚待深入探討的機(jī)器人倫理保持開放,協(xié)同不同部門法之間的關(guān)系,將機(jī)器人倫理融入機(jī)器人刑法的責(zé)任判斷框架之中。