內(nèi)容摘要:隨著通用人工智能時代(AGI)的開啟,AGI 人形機器人正在成為未來科技重點發(fā)展方向。鑒于人形機器人搭載的AGI“大腦”具有完成無固定任務(wù)能力、適應(yīng)能力、涌現(xiàn)能力等技術(shù)特性以及其“人形”外觀使其社會性急劇增強,是否賦予AGI 人形機器人刑事主體資格又重新成為理論熱點。前AGI 時代否定說的幾種理由并不成立,AGI 時代開啟后,AGI 人形機器人與人類的本體論差距正在縮小, 其功能與外觀使其可以成為人類社會互動的參與者,且對其施加刑罰既具有實際效果,也有助于彌補責任漏洞、促進創(chuàng)新,故應(yīng)賦予其刑事主體資格。同時,就涉AGI 人形機器人的刑事歸責而言,可分為三種歸責模式。其中研發(fā)者或用戶的注意義務(wù)確定,應(yīng)基于偏重創(chuàng)新的價值導向,以相關(guān)法律法規(guī)、成文技術(shù)標準以及行業(yè)技術(shù)慣例為指引,采取一種基于風險的路徑進行。AGI 人形機器人犯罪意圖確定應(yīng)以其是否脫離研發(fā)者或用戶的控制或訓導作為推定標準。
關(guān)鍵詞:通用人工智能人形機器人自由意志人類的本體論功能責任刑事主體資格
中圖分類號:DF61 文獻標識碼:A 文章編號:1674-4039-(2024)03-0026-37
一、問題之提出
在人工智能的推動下,人形機器人的發(fā)展引人注目。人形機器人是機器人應(yīng)用中最復雜的思維機器,不僅在智能水平方面,而且在美學方面也是如此。多數(shù)機器人專家和人工智能研究人員都認為,人形機器人將成為人工智能的主導和代表。工信部于2023年10月20日印發(fā)的《人形機器人創(chuàng)新發(fā)展指導意見》指出,到2025年,我國人形機器人創(chuàng)新體系將初步建立,“大腦、小腦、肢體”等一批關(guān)鍵技術(shù)取得突破,確保核心部組件安全有效供給。當前,以ChatGPT為代表的人工智能的出現(xiàn),正是開啟了通用人工智能(以下簡稱AGI)時代。同時,隨著輕量化骨骼、高強度本體結(jié)構(gòu)、高精度傳感等技術(shù)的突破,搭載了AGI的機器人可以學習和完成各種各樣的不同任務(wù),這使其有望在現(xiàn)代社會中得到大規(guī)模使用,與普通人進行互動。 可以預見,擁有AG“I 大腦”并集成高端制造、新材料等先進技術(shù)的人形機器人,將深刻變革人類生產(chǎn)生活方式,其也將演變?yōu)樯鐣囊粋€組成部分,人類需要與之共存并發(fā)展共生關(guān)系?!?\"〕
AGI人形機器人的出現(xiàn)在改變?nèi)祟惿a(chǎn)與生活方式的同時,也沖擊著現(xiàn)有的法律體系。事實上,就刑法而言,在AGI時代未開啟之前,對智能機器人的討論就早已展開,當時爭論的焦點主要集中在智能機器人是否應(yīng)具有刑事主體資格。當然,在此種學術(shù)爭論的背后也存在一種觀點,認為關(guān)于人工智能的法學研究其實是一種“偽問題”,〔2\"〕故沒有必要討論智能機器人是否具有刑事主體資格。實際上,此種根本否定智能機器人學術(shù)討論必要性的觀點,其背后的理由也與智能機器人刑事主體資格否定說的理由基本重合。然而,隨著搭載著AGI的人形機器人的出現(xiàn),鑒于AGI的技術(shù)特性以及人形機器人“人形”外觀特征,對于機器人刑事主體資格等理論問題討論的必要性,將進一步明晰。
以AGI人形機器人中最有市場前景的性愛機器人、社交護理機器人為例,其中AGI人形性愛機器人就存在多種適用場景是目前刑法理論無法回應(yīng)的。舉例而言,設(shè)計、生產(chǎn)、使用兒童性愛機器人是否構(gòu)成犯罪?組織人形機器人提供“性服務(wù)”,是否構(gòu)成以及構(gòu)成何種犯罪?再如,AGI人形社交機器人如果超出設(shè)計者的預見,發(fā)表煽動性言論或者教唆他人犯罪,此時是否需要刑法介入? 最近國外就發(fā)生多起受社交機器人慫恿而實施犯罪的行為, 如一名患有精神疾病的比利時男子受到基于開源模型LLM聊天機器人的慫恿與操縱后自殺?!?\"〕再如,在R\"v.\"Jaswant\"Singh\"Chail案中,患有精神疾病的行為人就是受到聊天機器人的蠱惑,企圖用弩箭謀殺英國女王?!?\"〕實際上,早在2016年,就發(fā)生過具有自主學習能力的聊天機器人Tay,經(jīng)過網(wǎng)上無數(shù)匿名用戶幾個小時的“投喂答案”后,發(fā)表了種族主義與仇視女性言論的行為。對此,將如何歸責?可以發(fā)現(xiàn),對以上這些問題的回答都無法避開AGI人形機器人刑事主體地位的界定。為此,有必要立基于當今AGI時代開啟的背景,結(jié)合AGI的技術(shù)特性以及人形機器人“人形”的潛在影響,對AGI人形機器人刑事主體地位的肯定與否定意見進行重新梳理分析。同時,如何對不同主體進行刑事歸責也有必要根據(jù)不同情形對AGI人形機器人引起的法益侵害行為加以討論。
二、AGI人形機器人的技術(shù)特性與影響
(一)AGI人形機器人AG“I 大腦”的技術(shù)特性
人形機器人是指形態(tài)更接近人的機器人,較之以前的機器人,其最大的特點在于其擁有AGI作為其“大腦”以及類似人類身體的仿人機械臂、靈巧手和腿足等“機器肢”,可以更好在人類世界中活動。
從物理維度上說,人形機器人由三個模塊組成,分別是“肢體”“小腦”和“大腦”,其中“肢體”由靈巧手、傳感器等一系列硬件組成,“小腦”負責運動控制,“大腦”則主導機器人的環(huán)境感知、推理決策和語言交互。但人形機器人除了外在形態(tài)獨特之外,更重要的是其內(nèi)核特點,也即當其搭載了AGI后具有的智能性和通用性。為此,若想真正深入了解AGI人形機器人相較于以前機器人有何不同,必須先了解作為其“大腦”的AGI。針對AGI的具體定義,存在不同的界定。當前主流觀點認為,AGI應(yīng)強調(diào)任務(wù)多元性,也即AGI系統(tǒng)是指具有多種預期用途和非預期用途,可應(yīng)用于不同領(lǐng)域完成多種不同任務(wù)的人工智能系統(tǒng)?!?\"〕具體而言,可以發(fā)現(xiàn)AGI相較于以前的人工智能系統(tǒng),主要存在以下不同特點:
1.完成不固定任務(wù)的認知能力
從本質(zhì)上看,任務(wù)是人工智能系統(tǒng)實現(xiàn)目標的基石。任務(wù)的創(chuàng)建可以集中于一種能力和領(lǐng)域,也可以貫穿多種能力和多個領(lǐng)域。任務(wù)往往是用來衡量和比較不同人工智能系統(tǒng)的重要指標。對此,一般可以將人工智能系統(tǒng)分為兩類:固定任務(wù)系統(tǒng)與無固定任務(wù)系統(tǒng)。固定任務(wù)人工智能系統(tǒng)會創(chuàng)建特定的目標,只能完成訓練好的任務(wù)。AGI的不同之處在于,其可以執(zhí)行原先沒有訓練過的任務(wù),這是由于輸入數(shù)據(jù)的數(shù)量、模型結(jié)構(gòu)等綜合因素造成的?!?'〕換言之,通過結(jié)合跨領(lǐng)域的知識圖譜、因果推理、持續(xù)學習以及認知心理學、腦科學等技術(shù), 讓AGI擁有類似人類的自主理解、自主分析、自主決策的能力, 能夠做到觀其形、聞其聲、斷其言、辨其意, 充分理解外部世界的信息輸入?!?'〕如GPT-4與Sora都實現(xiàn)了對多模態(tài)信息的認知處理,GPT-4能夠處理超長文本、精通多種語言以及理解某張圖片的幽默之處,而Sora基于patches的大規(guī)模訓練,更是已經(jīng)涌現(xiàn)出對基礎(chǔ)物理規(guī)則的理解能力,能夠通過文本描述直接生成視頻。事實上,AGI基礎(chǔ)模型最重要的是進行“訓練”,模型訓練的目的是獲得“能力”,獲得能力之后就可能被部署用來解決其并未被專門訓練過的任務(wù),且其輸出的多樣性和任務(wù)廣度也會遠超一般固定任務(wù)系統(tǒng)模型。
2.適應(yīng)能力
對于固定任務(wù)系統(tǒng),任務(wù)列表的執(zhí)行相對來說是分步驟的。例如,人臉識別系統(tǒng)在獲得人臉的視覺信息后才能產(chǎn)生輸出結(jié)果。若不提供圖像,則該系統(tǒng)就無法發(fā)揮作用,且其識別其他物體的能力也受到訓練的限制。相比之下,AGI具有“少量樣本學習”或“零樣本學習”能力,這意味著其即使在很少或者沒有實例或指令的情況下,也能很好地完成某些任務(wù)。隨著時間的推移,AGI不僅可以很容易地適應(yīng)新的不同任務(wù),而且可以在不需要太多或任何適應(yīng)的情況下執(zhí)行這些任務(wù)。實際上,這與人類接觸新信息和學習適應(yīng)新環(huán)境的方式類似?!?'〕在理想的情況下,AGI能夠在沒有直接編程的情況下處理任務(wù),只要為它提供可以幫助其解決任務(wù)的數(shù)據(jù)。在實踐中,這種適應(yīng)性通常是通過用任務(wù)描述的實例對AGI進行調(diào)節(jié)和引導,或通過修改或微調(diào)其參數(shù)來實現(xiàn)的。
3.涌現(xiàn)能力
AGI涌現(xiàn)(Emergence)能力指的是當模型達到一定的規(guī)模和復雜度時,它們開始展現(xiàn)出一些預料之外的行為或能力的現(xiàn)象。換言之,AGI具有發(fā)展新興能力的潛力,可以沒有經(jīng)過專門訓練的情況下獲得某些能力,使其能夠執(zhí)行最初提供者沒有預見的不同的任務(wù)。具有涌現(xiàn)功能的AGI系統(tǒng),很多時候能在模型參數(shù)數(shù)量或訓練計算量達到臨界水平時表現(xiàn)出令人驚訝的新能力。即使模型經(jīng)過訓練,其創(chuàng)建者和用戶也不一定了解它的所有能力, 只有在提供特定類型的輸入時才能發(fā)現(xiàn)某些能力領(lǐng)域。〔9'〕這就導致AGI與其他人工智能系統(tǒng)不同。截至2023年,有證據(jù)表明至少大型語言模型已經(jīng)表現(xiàn)出新興能力,新興能力包括:理解多因果關(guān)系中的因果聯(lián)系、檢測邏輯謬誤、理解寓言故事,以及為計算機程序生成代碼?!?0'〕事實上,AGI的創(chuàng)作成果能力在各種專業(yè)和學術(shù)基準上的表現(xiàn)均達到甚至是超越“人類水平”,其經(jīng)過足量常見任務(wù)的指令學習,能夠勝任一些新的組合任務(wù),其甚至可以將人類從未想象過的具有的任意兩個學科的能力進行組合,比如利用李清照詩詞的風格寫代碼注釋?!?1'〕。
(二)AGI人形機器人“人形”外形的社會影響
機器人并非一個新興事物,傳統(tǒng)的工業(yè)機器人已經(jīng)廣泛應(yīng)用于社會生活,但其弊端明顯,通用性不足,僅僅能夠執(zhí)行單一的任務(wù),實質(zhì)更像是一種自動化設(shè)備。在這一點上,人形機器人無疑更接近我們對機器人的想象。人形機器人憑借其仿人形態(tài),不僅可以適應(yīng)人類社會多樣的環(huán)境,完成多種獨特任務(wù),而且其類人的形狀和外觀也能夠讓其獲得人類的更多信任與互動,使其可以更加緊密地融入人類社會。事實上,機器人的外觀和行為表現(xiàn)之所以要近似人類,就是為了創(chuàng)造出與機器人交往就像與一個合作伙伴、一個能夠回應(yīng)我們行為的個體交往一樣的印象。自20世紀70年代以來,機器人與人類之間交互的思考就一直存在,隨著機器人越來越像人類,越來越能夠“像人一樣思考,像人一樣行動”,其給人們所帶來的情緒和移情價值越來越多,同時,擁有類似人類的身體、聲音以及面孔也會導致人們將更多的道德責任歸于機器人?!?2(〕
正如有學者所言,機器人倫理的重點不在確定機器人本身是否具有意識,而在于機器人在我們?nèi)祟惖囊庾R中是如何出現(xiàn)的。換言之,是否賦予機器人社會主體性地位,是由其在人機互動中的外在表現(xiàn)所決定的?!?3(〕一般認為,在人類情緒溝通中有幾種情感能力在發(fā)揮作用,主要是識別他人情感的能力、表達自身情感的能力等。而溝通不僅在于口語表述,也在于面部表情、眼神、身體姿勢、手勢和情感表露等方式的交流。對此,人形機器人相較于非人形機器人顯然具有更強的溝通與移情能力,這是因為其可以使用自己的眼睛、嘴巴、耳朵和眉毛來表達各種情緒并作出相應(yīng)的動作,也可以識別人類情緒。〔14(〕因此,根據(jù)哈貝馬斯的社會交往理論,隨著人機交互中機器主動適應(yīng)人類,以及與人共情的良好表現(xiàn),人機交互已經(jīng)從工具行為變成了交往行為。鑒于社會實在性(social(reality)在本質(zhì)上是由社會交往構(gòu)成的,〔15(〕面對能夠準確把握、響應(yīng)使用者說話意圖的AGI,使用者往往會認為其已具備和人一樣的思維能力和自我意識,從而將其看作聊天伙伴或者助手,賦予其主體地位。換言之,具有交互能力的AGI人形機器人不再是工具,而在一定程度上成為我們的新伙伴。〔16(〕研究表明,大多數(shù)人都將虛擬人物視為社會角色,由于人形機器人的化身和身體動作,這種社會角色投射往往會放大?!?7(〕在一項研究中,20名參與者在fMRI掃描儀中與計算機、功能性非擬人機器人、擬人機器人或人進行了互動。隨著與人類相似度的增加,通常涉及心智理論的大腦中樞亮度越來越高,這表明人們將心理狀態(tài)歸咎于機器人,尤其是擬人化的機器人?!?8(〕
事實上,AGI人形機器人更具道德挑戰(zhàn)性的用途正在不斷開發(fā)或使用中,其中包括旨在滿足人類性欲的性愛機器人,以及可能形成的合成人(hybrids)或半機械人(cyborgs)。這些人形機器人憑借其人形的外觀加之AGI的“大腦”將會深入地融入人類社會,引發(fā)社會關(guān)系與法律制度的變革,除了其作為侵害主體帶來的刑事歸責問題外,其作為受害者也會帶來一系列爭議。例如,若是搭載AGI的人形性愛機器人具有對人類情感的感知和回應(yīng)能力,那么,刑法就必須回應(yīng)人類在與其發(fā)生關(guān)系時,是否需要通過程序設(shè)置獲取其同意,其理由在于機器人越像人類,就越需要將法律和道德范疇擴展到其身上,如果放任未經(jīng)同意的性行為被正?;瑒t法律界就有縱容“強奸文化”之嫌?!?9(〕畢竟法律保護一系列實體和物體不是因為它們具有特定的可界定的用途,而是出于文化、美學和歷史的原因,這些理由統(tǒng)稱為“內(nèi)在”(inherent)價值。〔20)〕
綜上所述,由于AGI人形機器人具有AGI“大腦”以及“人形”兩大特征,導致其與過去的機器人具有質(zhì)的區(qū)別。一方面,鑒于AGI人形機器人的“人形”特征,從身體機能性來看,與碳基生命之間的差距已不再明顯;另一方面,隨著以ChatGPT、Sora為代表的AGI技術(shù)突破,導致AGI人形機器人已擁有不弱于人類的創(chuàng)造力,AGI將補足過去“類人”機體的終極缺失———有相當思維能力的大腦?!?1)〕這些都將導致AGI人形機器人能夠發(fā)揮更多的社會功能, 更加深入地介入社會關(guān)系中, 站在旁觀者的人類的視角,AGI人形機器人已經(jīng)不再像傳統(tǒng)工具一樣是人類“自我身體的延伸”,而是擁有自主智能性的“它者”?!?2)〕
三、AGI人形機器人刑事主體資格之肯定
事實上,無論是與AGI人形性愛機器人發(fā)生關(guān)系時是否需要通過同意程序,還是利用AGI人形性愛機器人向不特定對象提供性服務(wù)是否會構(gòu)成組織賣淫罪, 抑或AGI人形社交機器人慫恿精神病人實施犯罪行為如何歸責,這些問題本質(zhì)上都與AGI人形機器人是否應(yīng)被賦予刑事主體地位有關(guān)。在前AGI時代,否定說之所以認為智能機器人并不具有刑事主體地位,其主要理由是智能機器人不具有自主意識、〔23)〕智能機器人的刑事主體地位無法類比單位、〔24)〕智能機器人適用刑罰并無效果、〔25)〕智能機器人的刑事主體地位并無必要。〔26)〕然而,否定說的理由均存在可反駁之處。早在前AGI時代,就存在部分學者對賦予智能機器人刑事主體地位持肯定態(tài)度,隨著AGI時代的開啟,肯定說就更加具有合理性。
(一)AGI人形機器人與人類的本體論差距逐漸模糊
否定說往往基于人類中心論與本體論視角認為,智能機器人不是具有生命的自然人,不具有人類的自主意識,其生成的目的行為,與人類完全不同?!?7)〕實際上,從本體論視角出發(fā),能否將AGI人形機器人納入法律主體范圍之內(nèi),這涉及法律意義上的主體到底需要具備什么樣的本質(zhì)要素。對此,不同的學者存在不同標準,例如索勒姆將“自己的思想”作為法律主體地位的本質(zhì)要素,〔28)〕米斯呂姆則將靈魂、情感能力、自由意志、意向性等多種本體論屬性作為法律主體的本質(zhì)要素?!?9)〕
就刑法而言,往往將自由意志作為刑事法律主體地位的本質(zhì)要素。自由意志一般指不受任何外界影響而決定做什么的能力,其與自主意識是一體兩面的,只有擁有自主意識才會具有自由意志。鑒于AGI人形機器人具有適應(yīng)能力、不固定任務(wù)完成能力、涌現(xiàn)能力等特性以及仿人外形,某種程度上其在本體論屬性方面與人類差異逐漸模糊。 具體而言,搭載AG“I 大腦”的人形機器人借助于神經(jīng)網(wǎng)絡(luò)和模仿生物性大腦結(jié)構(gòu)的電路,能同時在多個層面處理信息,并通過深度學習的擬設(shè),無需人類的幫助就能對難題作出獨立、適當?shù)胤磻?yīng)。同時,深度學習賦予AGI人形機器人的自主學習能力,遠遠超出設(shè)計者、開發(fā)者的預期,導致其行為不可預測性大增,人類對于其控制力不斷弱化。〔30amp;〕特別是那些完全無監(jiān)督的機器學習,表明AGI人形機器人擁有能力自主行事,即能在沒有人類幫助的情況下,獨立地對各種(可能是未知的)情況與問題作出適當?shù)姆磻?yīng),其主體能力不再局限于特定領(lǐng)域或事務(wù),而是對社會生活各領(lǐng)域均能勝任。〔31amp;〕這些事實都暗示著機器人具有自主性、主動性,已非純受支配之客體?!?2amp;〕實際上,當前具有自主能力的AGI人形機器人不僅配備能夠作出重大道德決定的算法,而且能夠?qū)⑵涞赖聸Q定傳達給人類,并進而在沒有人類直接監(jiān)督的情況下獨立采取行動,如自動駕駛系統(tǒng)不可避免地會在某一時刻面臨類似“電車難題”的道德抉擇?!?3amp;〕因此,鑒于AGI人形機器人已經(jīng)可以且必須作出道德決策,〔34amp;〕擁有與其訓練者相似的道德知識,我們需要承認其應(yīng)屬于人類社會的成員。
值得注意的是,當自由意志的教條遭受21世紀初的腦科學研究沖擊后,法理學只得退回到科爾勞什所代表的觀點,也即“自由意志”只是個(必要的)假設(shè)。〔35amp;〕這是因為“自由意志”的來源很大程度上僅是一種對“個體自由”的主觀感受,該理論的客觀性和證明力都存在疑問。〔36amp;〕對此,部分持否定說的學者亦不否認,其承認自然人的自由意志是一種虛擬,其認為智能機器人之所以不能法律擬制,原因在于它缺乏人的自由意志擬制的社會基礎(chǔ)?!?7amp;〕鑒于“自由意志”的不確定性,司法實踐顯然都盡可能地回避所有關(guān)于自由意志或者人類如何控制自身行為的問題。法庭要做的僅限于采用所謂否定描述的方式,將目光聚焦于那些可以排除意志支配的要素,如受到不可抗的脅迫,而那些基礎(chǔ)性問題及其形而上學的內(nèi)涵則往往被忽略。在處理機器人行為的問題時也必然會采用相同的方式,除非出現(xiàn)諸如不可抗附加要素,否則應(yīng)當認為機器人有能力“實施行為”。進一步而言,對機器人是否具有可譴責性的判斷亦是如此。“自由意志”作為罪責的重要因素,如果其自身僅僅是一個假設(shè),那么就沒有理由拒絕將這種假設(shè)擴展到機器人之上。其理由在于假設(shè)是基于特定目的給出的命題,它不一定是對“現(xiàn)實”的反映,若實踐中存在這樣的需求,完全可以考慮引入機器人“自由意志”的假設(shè)。〔38amp;〕
(二)AGI人形機器人的刑事主體地位應(yīng)由社會系統(tǒng)建構(gòu)
正如有學者所言,作為“生物物理事實”的自由意志與作為一種制度的刑法幾乎沒有關(guān)系。〔39amp;〕刑事責任并非基于生物物理上可證明的自由意志,而是基于作為社會事實的自由歸屬,這為機器人的刑事責任鋪平了道路。若技術(shù)發(fā)展導致AGI人形機器人不僅是為人類進行簡單的互動和服務(wù),而且采用高度復雜的過程(不單純被確定和編程的),那么人類體驗到這種自主性后,賦予其相應(yīng)的“能力”或“地位”就不再是問題。〔40amp;〕正如盧曼所指出的,沒有社會系統(tǒng),人就不可能出現(xiàn)和存在。〔41amp;〕法律人格和責任都是在“社會游戲”中建構(gòu)而成的。在一個以規(guī)范為結(jié)構(gòu)的社會中,法律人格必須具備哪些“能力”的問題也并非參照本體論可以回答,法律主體所需“能力”是一個特定社會在特定時間的規(guī)范過程。〔42#〕是否賦予AGI人形機器人法律人格,不在于其與人類的相似性,而在于人類的需要,若賦予機器人主體資格有助于人類社會向善發(fā)展,即可賦予其主體資格?!?3#〕實際上,否定說主張賦予單位刑事主體資格的實質(zhì)原因是單位背后的個人,故無法將機器人與單位類比,并無道理。試想一種情形,一個生產(chǎn)零件的公司通過不斷發(fā)展,獲得了眾多股東投資。隨后,公司創(chuàng)始人和董事會退休,公司交由職業(yè)經(jīng)理人管理。同時,該公司利用公司盈利資金買回自己在外的全部股票,從而成為“無所有者”,即沒有人類所有者,公司完全擁有自己。此后,公司實現(xiàn)了生產(chǎn)完全自動化,不再需要任何工人,并將行政和管理任務(wù)完全交給AGI機器人??梢园l(fā)現(xiàn), 該公司所有變化并沒有挑戰(zhàn)該無人公司的法人地位?!?4#〕故而,人并非公司的基本組成部分。
當然,社會對法律人格的賦予并非完全任意。刑法作為法律體系的一個子系統(tǒng),與其他法律一樣,也在社會中扮演著獨特的角色,其通過對法律主體的歸責與懲罰,維持著一種規(guī)范性期待?!?5#〕或者用克萊因費爾德的話來說:“當不法行為破壞社會結(jié)構(gòu)時,刑法的任務(wù)就是重新縫合它?!薄?6#〕要履行刑法的這一職能,就必須將行為歸責于社會體系中的某個法律意義上的“人”,而將行為歸責于某“人”的任務(wù)就是確定在何種情況下某“人”的行為破壞了規(guī)范的穩(wěn)定性,以至于需要對規(guī)范進行修正或強化。換言之,只有當我們認為犯罪者在社會中有足夠的能力質(zhì)疑規(guī)范并辜負人們的規(guī)范期待時,我們才會對其進行懲罰。以公司為例,通過公司代表的行為,公司被視為可提供規(guī)范導向的實體,這導致我們對其抱有一定的規(guī)范期待,而這些期待可能會落空,此時公司已經(jīng)對我們的日常生活和社會交往產(chǎn)生了顯著影響,并因此成為社會系統(tǒng)中的法律主體。
鑒于刑事責任的內(nèi)容和概念具有社會相對性, 社會及其運作方式將決定AGI人形機器人的行為是否有可能破壞規(guī)范之穩(wěn)定,以及其是否應(yīng)被賦予刑事主體資格。法律規(guī)范的期待落空并不是因為個人的主觀不法,而是因為客觀不法行為的破壞角色,即沒有達到制度賦予某個主體的角色期待?!?7#〕因此,決定性的因素將是我們賦予機器人什么樣的角色,而不是機器人的實際個人能力。若AGI人形機器人對我們?nèi)粘I钆c工作的參與足以讓我們將其認定為社會互動的參與者,則我們對其就不僅會產(chǎn)生認知上的期待,亦會產(chǎn)生規(guī)范上的期待,從而會將其法益侵害行為視為不遵守社會規(guī)范的表現(xiàn)。當AGI人形機器人的行為破壞了人們對社會規(guī)范的期待,則社會在一定情況下就必須通過刑法等工具來建立機制,以防止這種規(guī)范的不穩(wěn)定,進而確保人們對規(guī)范期待的持續(xù)穩(wěn)定。正如上述,隨著AGI人形機器人對人類日常生活與社會交往的參與程度日益加深, 足以讓我們將其認定為社會互動的參與者。因此,需要賦予其刑事主體地位以承擔責任。
(三)對AGI人形機器人實施刑罰具有實際效果
否定說認為,與對人類的刑罰相比,對機器人實施刑罰不具有實際意義,如機器人無法感受的刑罰的惡害、痛苦。然而,刑罰的作用主要是由其作為對規(guī)范期待落空反應(yīng)的象征性力量構(gòu)成,而不是由其對受懲罰主體的實際影響構(gòu)成。若是認為只有當刑罰對犯罪人產(chǎn)生實際影響時,刑事責任才有意義,那么目前的刑事法律制度就會因無法解決的經(jīng)驗性爭論而陷入癱瘓,因為刑罰對犯罪人是否具有威懾作用,目前仍是犯罪學中一個極具爭議性的話題?!?8#〕當然,也有觀點認為,鑒于AGI人形機器人能夠通過機器學習技術(shù)進行自我學習,其也能夠通過學習類似案件的處理而受到威懾,這一點與人類并無不同。〔49#〕同時,亦有學者認為,對AGI人形機器人的直接懲罰能夠傳遞給開發(fā)者、生產(chǎn)者或用戶,剝奪其經(jīng)濟利益,進而對其產(chǎn)生一般威懾,并激勵其盡量避免創(chuàng)造出無緣無故造成特別嚴重法益侵害的機器人?!?0#〕此外,機器學習的不透明性導致警方和監(jiān)管機構(gòu)等“局外人”需要機器人開發(fā)者、生產(chǎn)者等“局內(nèi)人”的配合,如此方能發(fā)現(xiàn)機器人實施不當行為的真正原因。而鑒于對機器人追究刑事責任,一般會給所有內(nèi)部人員造成的經(jīng)濟利益損失,這將有助于促使無過錯的其他內(nèi)部人更有動力配合調(diào)查不當行為的真正原因?!?1#〕
另一方面,刑法的一個重要特征是其譴責功能。作為一種對不法的回應(yīng),刑罰旨在通過構(gòu)建一個回應(yīng)來維護受害者的價值,該回應(yīng)否認了行為對受害者的優(yōu)越性?!?2+〕對AGI人形機器人的刑罰亦傳達了一種對受害者所遭受傷害的譴責態(tài)度,向受害者傳達了對這一不法行為的集體反對,可以使受害者內(nèi)心產(chǎn)生一種滿足感和平復感,為其愈合創(chuàng)傷鋪平道路。有學者指出,對做錯事的機器人進行懲罰報應(yīng),是讓那些受到機器人傷害的人產(chǎn)生心理滿足感所必需的。刑罰傳達了官方譴責的信息,可以重申被AGI人形機器人損害受害者的利益、權(quán)利以及最終的價值。研究表明,人們會將機器人的行為歸咎于機器人,而且隨著機器人越來越擬人化,這種傾向也會越來越明顯,進而導致支持懲罰人工智能的表達主義論點可能顯得尤為有力。〔53#〕事實上,公司之所以應(yīng)受到懲罰,很大原因就是刑法應(yīng)該反映非專業(yè)人士的褒貶觀念,即“民間道德”,否則刑法就有可能失去其合法性?!?4#〕將這種觀點轉(zhuǎn)換到AGI人形機器人,亦同樣成立,這是因為AGI人形機器人具有天生的擬人化形象,人們會普遍傾向認為其應(yīng)因其所做的不法行為而受到譴責,若是刑法不對其造成的法益侵害表示譴責,這可能會削弱人們對刑法合法性的認同。
(四)賦予AGI人形機器人刑事主體地位有助于彌補責任漏洞、促進創(chuàng)新
機器學習使得AGI人形機器人可以自我進化, 其涌現(xiàn)能力有可能使其實施超出人類預見的法益侵害行為。一般認為,若是對保護法益被侵害缺乏反應(yīng),沒有人能對一個刑法上的結(jié)果負責,將損害社會成員規(guī)范秩序的信任,使得值得保護的法益變相失效,故而,對法益保護不應(yīng)存在違反計劃的規(guī)范漏洞?!?5#〕面對AGI人形機器人此種無法被生產(chǎn)者、開發(fā)者、使用者等主體預見的法益侵害行為,否定論者采取的路徑多是將其還原為生產(chǎn)者、開發(fā)者、使用者的個人責任。
然而,此種還原論在實踐與法律層面都難以實現(xiàn):一方面,由于人形機器人AGI“大腦”的自主性、適應(yīng)能力以及涌現(xiàn)能力等特性,可能很難將其法益侵害行為具體歸因于具體的個人。同時,其法益侵害行為往往涉及的人數(shù)眾多,也難以確定他們對機器人的設(shè)計作出了何種貢獻,刑法調(diào)查很難展開。另一方面,即使現(xiàn)實中可以將AGI人形機器人法益侵害行為具體歸因到一系列單獨的人類行為,但若是刑法將之進一步歸責到個人,則此種刑事政策也會對科技創(chuàng)新產(chǎn)生極大的負面影響。這是因為若允許將任何AGI人形機器人法益侵害行為還原為個人刑事責任, 就需要將個人不當行為中非常微小的部分———難以察覺的新問題、細微的粗心大意、在時間和資源的優(yōu)先排序上的失誤、對群體思維缺乏足夠的批判性等———定為刑事犯罪。〔56#〕然而,將所有此類微小過失的行為定為刑事犯罪,過度擴張抽象危險犯,甚至設(shè)置嚴格責任,將嚴重威脅到個人自由并抑制科技創(chuàng)新。因此,出于刑事政策的考慮,還原論必然是不可取的。
事實上,鑒于AGI人形機器人法益侵害行為并非單一主體可預先設(shè)定,且無法為人全面掌控的情形,較為合理的做法賦予AGI人形機器人法律主體地位。從立法技術(shù)而言,“法律主體地位標準的立法史表明,這是一個立法技術(shù)問題,是否賦予人工智能法律主體地位與立法者的決斷相關(guān)?!薄?7amp;〕與此同時,賦予AGI人形機器人法律主體地位有利于法律簡化,從而大大降低歸責的成本和復雜性,使受害方更容易索賠?!?8amp;〕這是因為與過失責任規(guī)則對因果關(guān)系和注意義務(wù)的要求相比,賦予AGI人形機器人法律主體地位可將行為的歸責對象可直接確定為AGI人形機器人, 且衡量注意義務(wù)的基準將更多地取決于技術(shù)水平,如可以通過認證標準來確定,這將極大降低證明因果關(guān)系的難度?!?9amp;〕
(五)小結(jié)
綜上所述,在承認自由意志屬于一種社會擬制的前提下,面對AGI人形機器人的高度自主性及其在社會系統(tǒng)中深度參與,為兼顧彌補責任漏洞與防止過度抑制科技創(chuàng)新,合理的選擇是賦予AGI人形機器人相應(yīng)的法律主體資格。當然,賦予AGI人形機器人法律人格,并不意味著將其視為人類。〔60+〕法律主體地位根據(jù)實體而變化,既可以是從屬的也可以是獨立的,與公司法律人格類似,某種程度上,AGI人形機器人的法律人格屬于一種從屬法律人格,但這種從屬法律人格仍可包括積極的法律地位:可以是義務(wù)承擔者,也可以是權(quán)利承擔者。AGI人形機器人法律人格需要包含兩個最重要的法律能力是過渡能力(締結(jié)和建立法律上顯著關(guān)系的能力)與責任能力(因民事過失或刑事犯罪被法律歸責的能力)?!?1amp;〕需注意的是,賦予AGI人形機器人的權(quán)利與賦予人類的權(quán)利應(yīng)區(qū)分開來,其可以主張的權(quán)利僅限于那些對其合法目標起作用的權(quán)利。同時,AGI人形機器人的責任也可以參照公司,限定為有限責任。此外,基于對AGI人形機器人本身缺乏資產(chǎn)會影響其對受害者賠償或承擔懲罰的擔憂,一個合理的解決辦法是可以通過國家強制執(zhí)行最低資產(chǎn)要求賦予其資產(chǎn),或者為其規(guī)定某種強制性責任保險。
四、涉AGI人形機器人的刑事歸責
AGI人形機器人正在逐漸成為我們?nèi)粘Ia(chǎn)生活的一部分,賦予其刑事主體地位后,面對其帶來的新的、日益緊迫的刑法問題,必須對這些問題進行類型化區(qū)分后,再進行合理的刑事歸責。
(一)涉AGI人形機器人的歸責類型
涉及AGI人形機器人刑法歸責的類型大致主要存在間接正犯責任模式、過失責任模式以及AGI人形機器人直接責任模式。
1.間接正犯責任模式
此種情況是AGI人形機器人因被設(shè)計者、使用者等人類主體故意編程而實施犯罪。例如,眾所周知的“殺人機器人”以及軍用機器人等。在此種情況下,由于機器人的“大腦”完全由人類設(shè)置,并無自主決策的空間,若是人類此時利用機器人實施犯罪行為,則人類屬于間接正犯之幕后操縱者,機器人則屬于被支配操縱之工具人。以利用AGI散布煽動言論為例,鑒于AGI的內(nèi)容生成不僅依賴于訓練數(shù)據(jù)文本質(zhì)量,也會基于用戶輸入的提示詞,〔62+〕故而,幕后操縱者既可以是AGI人形機器人的設(shè)計者、生產(chǎn)者,也可以是使用者。根據(jù)現(xiàn)行刑法理論,機器人背后的人類顯然要承擔責任。
2.過失責任模式
此種模式下,AGI人形機器人的設(shè)計者、生產(chǎn)者或用戶并沒有通過機器人實施任何犯罪的意圖,但機器人在執(zhí)行日常任務(wù)時實施了犯罪行為,若是設(shè)計者、生產(chǎn)者或用戶對機器人造成的法益侵害具有預見、避免的可能性,則法益侵害風險的實現(xiàn)便可作為不容許的風險創(chuàng)設(shè)后果而歸責于設(shè)計者、生產(chǎn)者或用戶。值得注意的是,在承認AGI人形機器人法律主體地位的情況下,當設(shè)計者、生產(chǎn)者或用戶未履行此注意義務(wù)而導致危害結(jié)果發(fā)生時,其行為與危害結(jié)果之間就具有間接因果關(guān)系,對其進行歸責并不違反刑法的基本原理。〔63(〕具體而言,根據(jù)行為共同說,可將兩者認定為共同犯罪。行為共同說主張,共犯通過共同實施“行為”來實施各自的犯罪,共犯是對自己的犯罪“行為”承擔罪責,共犯者之間的罪名不必同一,共犯人之間也不必存在犯意聯(lián)絡(luò)。行為共同說既承認過失犯的共同正犯,也承認過失犯與故意犯的共同正犯?!?4(〕當然,除了根據(jù)現(xiàn)有共犯理論以解釋的路徑處理該問題,也可以在未來專門對此增設(shè)一個單獨罪名,以應(yīng)對可能存在的刑法漏洞。
3.AGI人形機器人直接責任模式
鑒于研發(fā)過程中存在許多不同的參與者、AGI具有自主學習能力等因素, 無論研發(fā)者如何訓導,AGI人形機器人仍有可能實施不可預見的法益侵害行為。對此,采取嚴格責任或者過失責任對人類進行歸責都不具有可行性:一方面,采取過失責任不僅可能會產(chǎn)生刑事責任漏洞,也有可能出現(xiàn)為了彌補責任漏洞而過分提高注意義務(wù)要求,進而導致妨礙科技創(chuàng)新的困境;另一方面,拋開嚴格責任與罪刑法定原則的沖突不談,實際上,即使是嚴格責任,也與任何責任規(guī)則一樣,只有在能夠證明個人行為與結(jié)果之間的因果關(guān)系的情況下,才能發(fā)揮作用。而正如上述,因果關(guān)系的證明對于AGI人形機器人法益侵害行為而言往往難以實現(xiàn)。因此,在此種情況下,合理的方式是對AGI人形機器人進行直接刑事歸責。
(二)設(shè)計者、生成者或用戶注意義務(wù)的確定
注意義務(wù)的確定是決定生產(chǎn)者、設(shè)計者、用戶是否承擔刑事責任的決定性因素。對此,注意義務(wù)的確定可以從價值偏好、標準選擇、具體路徑幾個方面展開。
其一,就生產(chǎn)者、設(shè)計者、用戶注意義務(wù)確定的價值偏好而言,存在偏重歸責與偏重創(chuàng)新兩種不同的觀點。偏重歸責的觀點認為,鑒于機器學習型自主機器人的行為一般是無法預測的,所以可將之認定為是一種危險源,為了共同體生活的安全,若此種危險源出現(xiàn)在誰的社會支配領(lǐng)域中,誰就要對此負責?!?5(〕偏重創(chuàng)新的觀點則認為,在AGI人形機器人的刑事責任認定問題上,需要維持科技創(chuàng)新與刑事歸責之間的平衡,在考慮可容許風險的情況下找到平衡點,在某些情況下,給予生產(chǎn)者、設(shè)計者免責。〔66(〕將機器學習型自主機器人作為一個風險源,過度提高注意義務(wù)要求,顯然與當今社會的科技創(chuàng)新發(fā)展相沖突,也不符合目前主流的刑法歸責理論。同時,鑒于生產(chǎn)者、設(shè)計者與用戶的社會經(jīng)濟地位、技術(shù)能力、經(jīng)驗等條件不同,生產(chǎn)者、設(shè)計者與用戶的注意義務(wù)亦應(yīng)存在差別。這是因為風險控制是因果關(guān)系、風險知識和改變因果行為能力的結(jié)果,在人形機器人AGI的風險控制方面,責任應(yīng)越來越多地從用戶轉(zhuǎn)移到生產(chǎn)者、設(shè)計者?!?7(〕
其二,就生產(chǎn)者、設(shè)計者的注意義務(wù)標準選擇而言,在刑法中,通常是參照“理想模型”加以確定的,即一個謹慎的生產(chǎn)者、設(shè)計者處于行為人的位置上會采取何種標準。在審查時首先可以以相關(guān)法律法規(guī)以及成文技術(shù)標準為指導。若是違反了相關(guān)法律法規(guī)以及技術(shù)標準,則可認為有強有力的指征表明存在注意義務(wù)違反。〔68#〕若是不存在相應(yīng)的成文技術(shù)標準,則可參照一般的行業(yè)技術(shù)慣例進行判定。以當前的語言通用大模型為例,其“出爐”基本上要經(jīng)歷三個階段:底座大模型的訓練—指令微調(diào)—價值對齊?!?9#〕在這三個主要階段,生產(chǎn)者、設(shè)計者都被賦予了相應(yīng)的注意義務(wù),其中有些是法律法規(guī)與技術(shù)標準賦予的,有些則是行業(yè)慣例賦予的。例如,為減少虛假、不當信息的生成,在語言模型預訓練階段,歐盟人工智能法第10條就詳細規(guī)定了高風險人工智能提供者對于數(shù)據(jù)訓練、驗證及測試過程中的注意義務(wù)。對此,我國《生成式人工智能服務(wù)管理暫行辦法》第7條、第8條亦有相應(yīng)規(guī)定。故而,AGI研發(fā)者對訓練數(shù)據(jù)集合的“毒性”應(yīng)采取合理、有效措施識別、過濾、降低數(shù)據(jù)“毒性”。〔70#〕若是AGI研發(fā)者未采取當前行業(yè)可行的技術(shù)措施識別、過濾、降低數(shù)據(jù)“毒性”,則應(yīng)認定其未履行相應(yīng)的注意義務(wù)。同時,鑒于在預訓練的過程中由于數(shù)據(jù)量過大往往難以完全把控模型的安全性和偏見,所以行業(yè)慣例一般要求在微調(diào)的過程中利用相對較小規(guī)模的數(shù)據(jù)進行再訓練, 以此來剔除算法偏見,保證模型安全性。此外,在價值對齊階段,由于深度神經(jīng)網(wǎng)絡(luò)自身的黑盒特性和人類的價值觀內(nèi)容的抽象性等因素,AGI的目標要與人類的價值觀、利益相對齊往往難以通過建立規(guī)則解決。因此,必然需要在模型訓練過程中進行人為調(diào)控。若是研發(fā)者未落實上述義務(wù),則顯然屬于未履行注意義務(wù)。
其三,就生產(chǎn)者、設(shè)計者、用戶注意義務(wù)確定的具體路徑而言,應(yīng)采取一種基于風險的路徑。歐盟人工智能法案將人工智能系統(tǒng)分為:(1)不可接受的風險;(2)高風險;(3)有限風險;(4)低風險或最小風險。在該金字塔中,最高級臨界值表示人工智能系統(tǒng)具有不可接受的風險,應(yīng)予以禁止,而最低級則表示潛在風險為零或可忽略不計,無需采取特別措施。值得注意的是,歐盟人工智能法案認為,AI系統(tǒng)風險水平取決于其所執(zhí)行的功能以及使用該系統(tǒng)的具體目的和方式,然而,鑒于AGI完成不固定任務(wù)的認知能力、適應(yīng)能力以及涌現(xiàn)能力,其功能或用途往往難以預測,故而,AGI的風險確定應(yīng)借鑒GDPR中對“風險”進行原則的定性路徑,〔71#〕并采取一種動態(tài)、全流程的視角。對此,刑法在確定生產(chǎn)者、設(shè)計者的注意義務(wù)時,可參考歐盟人工智能法案對人工智能系統(tǒng)幾個風險等級的劃分,以AGI人形機器人對公民基本權(quán)利與社會的侵害風險大小為基點,設(shè)定不同等級的注意義務(wù)。例如,對于不可接受的風險,如危及公民生命的風險,可通過設(shè)置真正抽象危險犯的方式在特定應(yīng)用領(lǐng)域中普遍禁止AGI人形機器人投放市場。
(三)AGI人形機器人犯罪意圖的確定
一般認為,AGI人形機器人的犯罪行為確定并不存在問題,難題在于其犯罪意圖的確定。
雖然AGI人形機器人與人類的大腦結(jié)構(gòu)存在不同, 但兩者在犯罪意圖的確定方法上具有一定的相似之處。與人類的犯罪意圖確定相似,AGI人形機器人犯罪意圖的確定也需要根據(jù)常識通過其具體行為、場景等因素來逆向推定其具有何種精神狀態(tài)。只不過AGI人形機器人犯罪意圖的確定,可能需要更多地在編程層面對機器人的行為進行調(diào)查,并在必要時參考有關(guān)機器人代碼的專家證詞。事實上,就犯罪意圖的認定,尤其是在故意認定的問題上,雖然存在認識論與意欲論之爭,但隨著客觀歸責理論的興起,刑法理論中出現(xiàn)了一股故意客觀化的強大思潮,由此而使得認識論正形成壓倒趨勢。〔72#〕因此,有觀點認為,我國刑法中對故意的認定也可僅考慮認識因素,而不需要考慮意志因素,〔73#〕也即若行為主體明知其行為與法不容許的風險相關(guān)聯(lián),那么其當時所實施的行為就是在表達其反對法益的決意。〔74#〕故意認定的客觀化顯然有利于AGI人形機器人犯罪意圖的確定。
事實上,感知自主性與感知意圖之呈現(xiàn)正相關(guān),因為自主性越強的主體被認為意圖越強,而機器人的自主性取決于人們是否認為其是由開發(fā)者或用戶控制或訓導的?!?57〕AGI人形機器人是通過獲取大量的數(shù)據(jù)來學習和理解世界,并在這個過程中經(jīng)由實驗性反饋不斷調(diào)整和改進模型,逐漸掌握復雜的任務(wù)能力,人類對AGI訓導的重心在于經(jīng)驗或數(shù)據(jù),使其在開發(fā)應(yīng)用過程中盡可能吸納符合人類價值觀和道德準則的經(jīng)驗?!?67〕因此,在經(jīng)歷過相應(yīng)的監(jiān)督微調(diào)、人類反饋強化學習之后,已經(jīng)可以推定AGI目標基本與人類價值觀、利益相對齊,且其可以理解人類社會的基本規(guī)范。此時,可以認為,AGI人形機器人都具有合法的內(nèi)在目標,并有或多或少的自主權(quán)來決定完成這些目標的手段。若是在此種情形下,AGI人形機器人突破了內(nèi)嵌其自身的法律要求以及AI基本倫理, 進而實施了法益侵害行為,則可認定其具有犯罪意圖。
舉例而言,在無監(jiān)督的學習過程中,AGI人形機器人的目標是程序員設(shè)定了目標框架(包括不變目標和可變目標),但允許AGI人形機器人有自由去修改可變目標,以及結(jié)合不變目標與可變目標的動態(tài)關(guān)系,自由調(diào)整實現(xiàn)目標價值最大化的行為路線。〔777〕若是AGI人形機器人在駕車過程中有兩條路線可實現(xiàn)目標:路線1導致乘車人死亡的概率是50%;路線2會保證乘車人安全。在此情景中,若AGI人形機器人在無監(jiān)督學習過程中自主地選擇路線2來實現(xiàn)目標,則可以認為AGI人形機器人的選擇是一種具有自我意識的自主行為。同時,在已經(jīng)預設(shè)了AGI目標基本與人類價值觀相對齊的情況下,AGI人形機器人的行為可被視為脫離了人類訓導,且其對自身行為性質(zhì)及后果具有規(guī)范認知,故其應(yīng)自負刑事責任。
本文系山東省“泰山學者工程專項經(jīng)費資助”(項目批準號:tsqn202306038)、山東大學人文社會科學創(chuàng)新團隊資助項目“全面依法治國戰(zhàn)略實施中的數(shù)據(jù)運用與數(shù)據(jù)治理創(chuàng)新團隊”的階段性研究成果。