王學光
(華東政法大學 刑事法學院,上海 200042)
無論人們歡欣抑或踟躕,元宇宙時代正悄悄向我們走來,人類即將甚至已經(jīng)開始進入一個全新的時代[1]。2021 年3 月,美國的Roblox 游戲公司在紐約證券交易所上市。由于其提出的元宇宙概念以及對元宇宙產(chǎn)品的整體設(shè)想被投資者廣泛認同,其市值在短短幾天內(nèi)便上升到數(shù)百億美元,自此,元宇宙開始進入全球人民的視野之中。隨著大數(shù)據(jù)與人工智能的興起,元宇宙的概念已然不局限于1992 年Neal Stephenson 寫的Snow Crash 與Bill Gates 撰寫的The Road Ahead 中對當前互聯(lián)網(wǎng)社會的構(gòu)想。與此同時,近年來日漸成熟的VR、AR 等虛擬現(xiàn)實技術(shù),也讓人們更能從技術(shù)角度對元宇宙進行窺探。機遇總是伴隨著挑戰(zhàn),元宇宙行業(yè)新興技術(shù)的發(fā)展必然導致各大“黑色產(chǎn)業(yè)”的“蓬勃發(fā)展”。故而對于刑事法律行業(yè)的學者而言,應當將視線置于元宇宙這個主體。從元宇宙概念的邏輯推演以及業(yè)界學者與專家對元宇宙定義的共同點出發(fā),對元宇宙定義如下:元宇宙是由電子計算機、虛擬現(xiàn)實和量子技術(shù)等制成,介由高度發(fā)達的腦機接口技術(shù),向用戶提供一個完全潛行環(huán)境的平行世界。元宇宙與當代VR 或是AR 技術(shù)的根本差異在于其能提供給用戶一個僅需用大腦就能進入的完全潛行的網(wǎng)絡(luò)虛擬世界,而考慮到其容量異常之大的特性,服務(wù)器的漏洞補丁、游戲主線劇情的設(shè)計、玩家血壓以及心跳的檢測可以由強人工智能程序開發(fā)的人工智能監(jiān)管程序自動完成,而管理員僅需向大數(shù)據(jù)與分布式服務(wù)器發(fā)布“游戲政策”,就能對元宇宙進行宏觀管理?;谠钪姹旧砗A繑?shù)據(jù)處理的特點,元宇宙程序應當部署在分布式服務(wù)器與大數(shù)據(jù)服務(wù)器中??紤]到元宇宙因數(shù)據(jù)量大而難以單純依靠人工管理,所以元宇宙的創(chuàng)建與監(jiān)管必然依靠管理員和人工智能監(jiān)管程序的共同努力,此處的人工智能監(jiān)管程序為強人工智能①強人工智能,或者說是智能機器人,是由程序設(shè)計和編制而成且具有辨認控制能力和學習能力,同時能夠自主思維、自發(fā)行動的非生命體。參見劉憲權(quán)、胡荷佳:《論人工智能時代智能機器人的刑事責任能力》,載《法學》2018 年第1 期,第40—47 頁。。從這個意義上而言,當下的VR 或是AR 技術(shù)盡管已然接近本文所定義的元宇宙概念,但由于其本身的程序都是由人工創(chuàng)造,且僅僅是通過顯示設(shè)備以一種3D 的方式呈現(xiàn)在用戶眼前而非腦機接口使用戶進入完全潛行的狀態(tài),所以VR 或是AR 技術(shù)所帶來的法律風險并非本文的討論范圍,本文所關(guān)注的是由電子計算機和量子技術(shù)制成的,介由高度發(fā)達的腦機接口技術(shù)所提供的完全潛行的平行世界中產(chǎn)生的因管理員、人工智能監(jiān)管程序以及相關(guān)不可知的多重因素而導致用戶嚴重的人身、財產(chǎn)、精神等損傷而帶來的相關(guān)法律問題。
1.人工智能監(jiān)管程序犯罪構(gòu)成符合性問題
對于犯罪的認定,通說認為應當按照構(gòu)成要件符合性、違法阻卻事由、有責性三個層面的順序進行思考[2]383。首先從構(gòu)成要件符合性層面判斷相應的行為符合哪些刑法法條法規(guī)所規(guī)定的構(gòu)成要件,然后從違法阻卻事由和責任層面分別認定行為是否構(gòu)成違法阻卻,參與主體是否應當承擔刑事責任,以及應當承擔何種責任。按照此邏輯關(guān)系,在元宇宙環(huán)境下的人工智能監(jiān)管程序犯罪考量,仍可以以構(gòu)成要件符合性、違法阻卻事由為重心[2-3]。但是在元宇宙社區(qū)中可能存在著如下兩個問題。第一,元宇宙在運行中,管理員可能會在故意或是過失的主觀心態(tài)下,實施導致用戶人身、財產(chǎn)、精神受損的行為??紤]到刑法是具有“保底”性質(zhì)的法典,在“法益侵害說”的主流觀點的指引下,當前刑法并未將精神利益納入所應保護公民的法益之中。第二,傳統(tǒng)刑法嚴格區(qū)分心中犯意、行為對象、危害行為與危害結(jié)果的因果關(guān)系,考慮到人工智能監(jiān)管程序的犯罪動機與危害行為都以代碼的形式存儲,即人工智能監(jiān)管程序的思考仍依賴于硬件的性能和軟件的推演,而且無論思考什么,其相應的推演過程與結(jié)論仍然會在代碼和數(shù)據(jù)的層面予以體現(xiàn),思想和行為的界限都會存在一定的“模糊性”。那么在此情況下,元宇宙中犯罪的認定仍通過以法益侵害結(jié)果歸屬于參與主體的角度[2]381來認定其犯罪行為,而該犯罪行為很難從傳統(tǒng)刑法路徑的角度與心中犯意進行嚴格區(qū)分,則這樣的一種解釋路徑是否合適?以及由于人工智能監(jiān)管程序犯罪主體本身主觀狀態(tài)“模糊”的不確定性使其身份作用的轉(zhuǎn)變對于符合性構(gòu)成該如何把握[4]。在元宇宙中,對于這些問題的解決,都需要對犯罪構(gòu)成要件符合性的認定進行重新審視、考量。
2.元宇宙中安全保障制度問題
《民法典》第1198 條規(guī)定了經(jīng)營場所安全保障義務(wù),元宇宙用戶在元宇宙中遭受了侵權(quán)損害后,可以以元宇宙公司違反經(jīng)營場所的安全保障義務(wù)為由要求其對受害用戶進行侵權(quán)損害賠償。但對于元宇宙公司因違反相應的安全保障制度而導致用戶人身、財產(chǎn)、精神受損的情形,在元宇宙這個獨特的環(huán)境中,是否能突破傳統(tǒng)刑法固有的思維將經(jīng)營場所的安全保障義務(wù)轉(zhuǎn)換為相應的注意義務(wù),這也值得我們進一步思考。此外,根據(jù)侵權(quán)法的原理,元宇宙公司在未盡安全保障義務(wù)而致使元宇宙用戶遭受第三方的侵害時,還應承擔相應的補充責任,而該補充責任應與元宇宙公司的過錯、元宇宙公司對元宇宙系統(tǒng)的實際控制能力、危險預見能力相應。在刑事案件中,如因元宇宙員工將內(nèi)部接口開放給黑客導致元宇宙公司喪失了對元宇宙系統(tǒng)的實際控制,則該情況下元宇宙公司的安全保障義務(wù)是否就能因此豁免,僅追究該員工和黑客的刑事責任,也是學界一直探討的問題。
當今刑法學者對于是否應當賦予管理員與人工智能監(jiān)管程序以強制性的安全保障義務(wù)爭辯不一,似乎元宇宙中的安全保障制度的設(shè)計也因此陷入了一個死循環(huán),但是這并不意味著我們只能從安全保障制度的角度來維護元宇宙用戶或是玩家的權(quán)益。對于元宇宙用戶或是玩家而言,他們可以另辟蹊徑,從自力救濟的角度來維護自己的合法權(quán)益。考慮到元宇宙用戶或者玩家在元宇宙社區(qū)死亡或是違規(guī)時可能受到與現(xiàn)實世界貨幣掛鉤的死亡懲罰,也許不應認定其自力救濟的行為構(gòu)成犯罪。我國刑法所規(guī)定的自力救濟在一定程度上仍可適用于元宇宙社區(qū),但元宇宙社區(qū)中的特有法理問題也不容忽視。如在對特定用戶的自力救濟行為進行認定時,應當判斷其對元宇宙社區(qū)環(huán)境的實行行為構(gòu)成哪一類違法阻卻事由,是屬于正當防衛(wèi)還是緊急避險。因為如果構(gòu)成防衛(wèi),則隨后應當判斷其是否防衛(wèi)過當;如果構(gòu)成避險,則隨后應當判斷其是否避險過當。由于正當防衛(wèi)和緊急避險認定的角度不同,因此相應的防衛(wèi)過當與避險過當?shù)恼J定標準也必然不同。這類問題實則涉及元宇宙時代下違法阻卻事由的認定問題。
3.人工智能監(jiān)管程序非難可能性的實質(zhì)探究
元宇宙相關(guān)法律風險的關(guān)鍵就在于由管理員、人工智能監(jiān)管程序以及相關(guān)不可知的多重因素所導致的用戶嚴重人身、財產(chǎn)、精神等損傷而產(chǎn)生的問題。對于管理員承擔刑事責任固然無疑,而對于以強人工智能為核心的人工智能監(jiān)管程序是否應當承擔刑事責任,持“智慧工具說”的學者認為,智能機器人是人類的工具,其無法理解自己行為的外部意義或社會價值,因此不可能成為刑事責任主體[5]。智能機器人像石器時代的石頭,始終是人類的工具,即使表現(xiàn)出一定的自主行為能力,與黑猩猩等動物沒有任何區(qū)別。這類學者所犯的錯誤就在于,他們將普通智能機器人或者弱智能機器人的特征“嫁接”到對強智能機器人刑事責任能力的探討中,借由論述普通智能機器人或者弱智能機器人的特征來否定人工智能法學研究者提出的賦予強智能機器人刑事責任主體資格的探究。持“主體肯定說”的學者認為,當代弱人工智能僅僅是工具的一種,因此不能承擔刑事責任[6],而隨著科技的不斷發(fā)展,強人工智能有較大概率會脫離程序設(shè)計者的本意,而基于強人工智能設(shè)計的人工智能監(jiān)管程序在脫離設(shè)計者本意的范圍之外應當承擔法律責任。這種觀點嚴格區(qū)分了“普通交互程序”“弱人工智能”“強人工智能”的區(qū)別,糾正了“智慧工具說”的學者所犯的“移花接木式”的錯誤,所以在此采納此種觀點,而元宇宙中的人工智能監(jiān)管程序正是其中所提到的“強人工智能”。但是,強人工智能承擔法律責任畢竟是一個新興論題,強人工智能承擔刑事責任的刑法學理論并未得到足夠的突破。僅從有責性構(gòu)成要件的角度而言,傳統(tǒng)的刑罰理論認為刑罰是以痛苦為本質(zhì)的,單純地使罪犯感到痛苦并非刑罰的目的,而是通過使罪犯感到痛苦而傳達對該犯罪行為否定的評價[7]。而對于強人工智能所開發(fā)出的人工智能監(jiān)管程序而言,基于其自身情感和價值判斷的脆弱性,對強人工智能施行的復制、剪切、代碼重組,甚至是刪除、卸載該程序,刑罰所想表達的痛苦也許并不能如愿傳達給強人工智能,最終人工智能監(jiān)管程序所受到的“最有效的”刑罰或許只能是將程序從元宇宙服務(wù)器上卸載。所以人工智能監(jiān)管程序刑罰的單一性并不符合現(xiàn)代刑法學關(guān)于刑罰制定的理念。因而,只有對有責性構(gòu)成要件的內(nèi)涵從刑法學理論進行適當突破,才能解決人工智能監(jiān)管程序刑罰單一化的問題,而這實則涉及元宇宙時代下有責性構(gòu)成要件的認定問題。
在元宇宙環(huán)境下,盡管作為犯罪主體的人工智能監(jiān)管程序因其思想和行為上的“模糊性”而導致犯罪構(gòu)成要件和違法性要件的邊界變得含糊不清,但在犯罪的認定上堅持以構(gòu)成要件符合性、違法阻卻事由為重心的觀點仍被大多數(shù)學者所認同[3,8]。因此,在對元宇宙環(huán)境下犯罪構(gòu)成要件符合性要件進行探討之前,首先應當對犯罪構(gòu)成要件符合性與違法性的關(guān)聯(lián)進行再辨析,以區(qū)分兩者的相關(guān)概念界定,再從違法阻卻事由的角度對客觀層面的脫罪事由予以辨析。溫和三階層犯罪構(gòu)成說的觀點最初源于德日刑法理論,而后傳入我國,至今已然成為包括司法考試、法律職業(yè)資格考試以及刑法理論學界在內(nèi)的理論通說[9]。不同于我國理論學說,德國刑法學通說采用的是二元行為無價值論,日本刑法學通說采用的是一元行為無價值論。從本質(zhì)上而言,犯罪的實體實則是不法與責任,犯罪的成立條件包含了表明不法的要件與表明責任的要素?,F(xiàn)行學界通說采納了客觀違法性理論的觀點[10],即不法的實質(zhì)就是犯罪主體實施的符合構(gòu)成要件的行為,而該行為又不具備相應的違法阻卻事由??梢哉f,不法就是指行為符合構(gòu)成要件且違法,而構(gòu)成要件是類型化的違法行為,對構(gòu)成要件的解釋也必須以違法性為指導。然而,對于構(gòu)成要件符合性與違法性之間的聯(lián)系,德日理論學界曾存在不同的觀點,而該觀點也許能對元宇宙中犯罪行為的構(gòu)成要件符合性的理解予以啟發(fā)。
以恩施特·貝林為代表的部分德國學者主張行為構(gòu)成要件說的觀點,他們認為構(gòu)成要件符合性與違法性之間的判斷應當互相分離,并無過多聯(lián)系,因為構(gòu)成要件僅僅是由刑法條文明文規(guī)定的,屬于中立的、記述性的事實,構(gòu)成要件的存在只是使得犯罪行為的輪廓更加清晰,然后再進行違法性的判斷。但是該學說存在無法回答的難題,既然認為構(gòu)成要件符合性與違法性兩者并無過多關(guān)聯(lián),兩者的判斷價值分離,那又應當如何理解符合性與違法性無關(guān)的構(gòu)成要件的行為可以為違法性的判斷提供依據(jù)[11]?該學說可能導致司法機關(guān)在構(gòu)成要件之外尋找相應的違法性根據(jù),這必然會使得司法機關(guān)將刑法條文未記述的行為用刑罰予以處罰。因此,我們認為構(gòu)成要件符合性和違法性的關(guān)聯(lián)實則如同麥耶所說,所有的構(gòu)成要件都是違法性的表征[12],兩者如同煙與火的關(guān)系,難以分離。兩者互相分離的觀點實則自相矛盾。無論是傳統(tǒng)刑法領(lǐng)域還是元宇宙時代下的刑法觀,都應當摒棄傳統(tǒng)的行為構(gòu)成要件說的觀點。
因此,犯罪構(gòu)成要件符合性和違法性兩者的關(guān)系應當被理解為,不同的危害行為具有一定的違法性,構(gòu)成要件是對各類危害行為進行了分類與細化,將特別值得科處刑罰的行為進行抽象概括并且以法條的形式留存,構(gòu)成要件的實質(zhì)就是類型化的違法性行為,將管理員與人工智能監(jiān)管程序的可能違法性行為予以類型化總結(jié)后記述于法條中。
元宇宙中的信息擴散、融合以及級聯(lián)行為是發(fā)生在網(wǎng)絡(luò)中的基本過程[13]。承認與否,無論是管理員還是人工智能監(jiān)管程序,對用戶人格權(quán)益的侵害行為,在元宇宙時代都會存在較大概率發(fā)生。元宇宙中對虛擬角色人格權(quán)侵害行為違法性的實質(zhì)認定,是需要解決的一大問題,而有學者認為對于結(jié)果無價值論和行為無價值論觀念的區(qū)分,有助于認識元宇宙環(huán)境下違法性的本質(zhì)。對于違法性的實質(zhì)內(nèi)涵,由于不同學者對違法性實質(zhì)理解的不同而產(chǎn)生了所謂結(jié)果無價值論與行為無價值論觀點的對立。由現(xiàn)實的實行行為引起的對法益的侵害或者危險所作的否定評價,稱為結(jié)果無價值論[14];對與結(jié)果切斷的行為本身的樣態(tài)所作的否定評價,則稱為行為無價值論[15]。行為無價值論與結(jié)果無價值論的對立,曾經(jīng)在整個刑法學的犯罪論領(lǐng)域引起轟動,并且在20 年前的日本引起了廣泛的討論。
然而在進入元宇宙時代后,我們認為結(jié)果無價值論與行為無價值論之間的邊界實則顯得愈發(fā)模糊,而這也為努力分辨元宇宙環(huán)境下違法性本質(zhì)的部分學者的雙眼蒙上了一層“薄紗”。為了弄清這個問題,首先應當放眼于現(xiàn)行的刑法學界理論。我國的傳統(tǒng)刑法領(lǐng)域通說采納的是結(jié)果無價值論觀點[16]。通說認為,將違反社會倫理作為違法性根據(jù)的行為無價值論不當之處在于倫理是具有相對性的,將維持社會的倫理道德作為刑法的任務(wù)容易強迫他人達成思想上的統(tǒng)一。而結(jié)果無價值論能被我國學者廣泛接受的根本原因在于其并不處罰不法的思想,只要沒有造成實質(zhì)上危害行為的發(fā)生,刑法就不會對犯罪主體科處刑罰。結(jié)果無價值論有利于維護法益保護原則以及責任主義原則。可以看出,結(jié)果無價值論所持的是客觀的違法性理論[17],即無論行為主體的主觀是什么,只要客觀上違反了法律就具有違法性;而行為無價值論采納的是主觀的違法性理論,即刑法的規(guī)范是一種對行為主體的強制性規(guī)范,而只有能做出意思決定的主體行為,才有可能決定其行為是否具有違法性。然而,在元宇宙時代下,無論是刑法學理論還是司法實踐,結(jié)果無價值論與行為無價值論兩者的界限會日漸模糊。這是由于,首先,考慮到人工智能監(jiān)管程序犯罪動機與危害行為都以代碼的形式存儲,即人工智能程序的思考仍依賴于硬件的性能和軟件的推演,無論思考什么仍然會在代碼和數(shù)據(jù)的層面予以體現(xiàn),思考結(jié)束后就能立即采取相應的行動,心中犯意、危害行為、行為結(jié)果的界限存在一定的模糊性,這也必然導致元宇宙中人工智能監(jiān)管程序的客觀違法性和主觀違法性趨于模糊。其次,盡管基于強人工智能所開發(fā)出的人工智能監(jiān)管程序能根據(jù)管理員給出的指令進行自學習并且做出相應行為,但是人工智能監(jiān)管程序自身的特性決定了其情感分支與價值判斷的程序和人類相比異常薄弱,且人工智能監(jiān)管程序所做出的危害行為并無過多的內(nèi)心思考與倫理判斷。這就導致在傳統(tǒng)刑法理論中所著重研究的故意、過失的主觀心態(tài)以及犯罪目的、特定身份對于人工智能監(jiān)管程序而言,就顯得愈發(fā)模糊。最后,盡管主張現(xiàn)行通說結(jié)果無價值論的學者認為客觀的違法性理論可順理成章地解決諸多如對精神病人進行正當防衛(wèi)等刑法學難題,但在實踐中,元宇宙公司不可能指派一名精神病患者或是未成年兒童管理服務(wù)器,因此現(xiàn)行通說觀點的所謂“理論優(yōu)勢”在元宇宙也將被大幅削弱。
無論是采取結(jié)果無價值論的觀點,還是行為無價值論的觀點,在元宇宙的環(huán)境中已無太大爭論的必要。對于犯罪構(gòu)成要件符合性是否應當包含主觀的故意、過失心態(tài)以及犯罪目的等構(gòu)成要件要素,這些對元宇宙相關(guān)犯罪所得出的刑法學分析結(jié)論無太大差異。對于元宇宙中構(gòu)成要件符合的認定,仍應回到對違法性的實質(zhì)探討,而不應過多拘泥于采納“行為無價值論”或是采納“結(jié)果無價值論”的觀點爭辯之中。
對于違法性的解釋,刑法學界從形式解釋論和實質(zhì)解釋論的角度分別得出了形式違法性的觀點和實質(zhì)違法性的觀點。所謂形式違法性,是指行為主體的行為違反相應法律的禁止性規(guī)定。從形式違法性論而言,只要某行為符合法律條文所禁止的行為標準,卻不具備違法阻卻事由,則該行為具有不法性。但形式違法性觀點并不能回答法律為何禁止某種行為,也無法幫助公民預料法律修訂后可能新增何種禁止行為,因為形式的違法性觀點并未解釋法律所保護的法秩序是什么。因此,以“違反暗含于法律條文之中的實質(zhì)根據(jù)”為主要內(nèi)容的實質(zhì)違法性觀點出現(xiàn)了。
實質(zhì)違法性的主要觀點包括法益侵害說與規(guī)范違反說[18]。對于法益侵害說的觀點,由于我國刑法規(guī)定,刑法的目的就是保護法益,因此法益侵害說是我國傳統(tǒng)理論中的通說觀點,侵犯法益就是違法性的實質(zhì)[2]108。弗蘭茨·馮·李斯特認為,違法性的實質(zhì)就是對社會有害的,是侵害社會的舉動[19]8。瀧川幸辰認為,違法性就是對被害人利益的實質(zhì)損害[20]220。前田雅英認為,刑法就是為了更好地保護更大國民利益而制定出統(tǒng)制社會全體的體制[21]30。然而,在元宇宙中,且不論元宇宙所組建起的公民秩序是否能稱為哲學上的市民社會,元宇宙對于個人雖能造成人身、財產(chǎn)、精神上的損失,但法益侵害說的觀點在元宇宙中所能保護的用戶權(quán)益的機能似乎失靈了。如從元宇宙對用戶和玩家造成的財產(chǎn)損失的角度而言,元宇宙中相應的財產(chǎn)性數(shù)據(jù)的損失可通過數(shù)據(jù)庫的“回滾”操作予以“及時”且“充分”的事后恢復,則在該情況下是否能認定相關(guān)主體的實行行為具有與故意毀壞財物罪相當?shù)倪`法性?元宇宙社區(qū)中實行行為的違法性的實質(zhì)似乎既不能單純用違反形式的法律規(guī)范來說明,也不能用單純的社會有害性或社會的反常規(guī)性來說明。再從元宇宙對用戶和玩家造成的精神損害的角度而言,若男性管理員用GM 賬號潛入元宇宙社區(qū)并對其中一個女性用戶在線上進行強奸,并且為了保證線上強奸順利進行,防止其他用戶“打擾”他,就指使人工智能監(jiān)管程序給他“望風”,在這種情況下沒有任何人的人身權(quán)利遭到侵害,只有被困在元宇宙環(huán)境中、被禁止下線的女性用戶的精神利益遭到損害。根據(jù)現(xiàn)行法條與法理,該損害實則落入我國刑法第13 條“情節(jié)顯著輕微、危害不大”的條款中,不認為是犯罪,相應的實行行為實則不具有違法性。但精神損害是元宇宙帶給用戶的最主要的損害類型之一,若執(zhí)意從被害人利益的實質(zhì)直接損害的角度來理解相應的犯罪后果,實則不妥。可以看出,法益侵害說似乎只能保護元宇宙用戶的人身權(quán)益,對于網(wǎng)絡(luò)虛擬財產(chǎn)的損失并無太大的保護必要,而對于元宇宙用戶的精神權(quán)益的保護機能失靈了。所以在元宇宙中,法益侵害說認定標準過高,而其對于犯罪的認定難度較難,最終會使得刑法在元宇宙中失去其應有的“保底效力”。
再來看實質(zhì)違法性理論的規(guī)范違反說。該學說認為違法性的實質(zhì)應當是對法秩序的違反。其中可分為法規(guī)范違反說的觀點以及倫理規(guī)范違反說的觀點。法規(guī)范違反說的觀點認為,違法性的實質(zhì)就是行為主體有能力遵守法律禁止性規(guī)范,但因自身原因而未恪守,而導致對法律規(guī)范本身的違法??梢钥闯?,法規(guī)范違反說的觀點實則又回到了貝林所提出的行為構(gòu)成要件說的觀點。構(gòu)成要件又變成僅是由刑法條文明文規(guī)定的、屬于中立的、記述性的事實,與違法性本身再度分離。法規(guī)范違反說的觀點只注意到了違法性的形式要件,而未深入研究其實質(zhì),因此不妥。而對于倫理規(guī)范違反說,麥耶認為,違法性就是與國家承認的文化規(guī)范不相容的態(tài)度[22]25。小野清一郎則認為,違法性的實質(zhì)既不能單純用違反形式的法律規(guī)范來說明[12],也不能用單純的社會有害性或社會的反常規(guī)性來證明。違法性的實質(zhì)就是違反國家的法秩序的精神、目的,是對這種精神、目的的具體規(guī)范性要求的背反。從倫理規(guī)范違反說的觀點來看,刑法規(guī)范的實質(zhì)就是社會倫理規(guī)范,法就是國民生活的道義,違反刑法的實質(zhì)應當從違反刑法規(guī)范背后的社會倫理規(guī)范[23]119。我們認為,固然我們不能將法簡單地理解為就是國民生活的道義,但倫理規(guī)范違反說的觀點對理解元宇宙中人工智能行為違法性仍具有一定的參考價值。因為對于涉罪的人工智能監(jiān)管程序的處罰應當對應損害人身、財產(chǎn)、精神的實行行為,而不應縮小范圍,只對被害人利益的實質(zhì)直接損害的行為科處刑罰。我國所承認的文化規(guī)范不僅禁止對他人的人身、財產(chǎn)造成損害,同時禁止對他人的精神造成相應的妨礙。而2020 年發(fā)布的民法典對精神損害賠償?shù)囊?guī)定進行修正,在第996 條已經(jīng)被修訂為“因當事人一方的違約行為,損害對方人格權(quán)并造成嚴重精神損害,受損害方選擇請求其承擔違約責任的,不影響受損害方請求其對相應的精神損害負責”的表述,實則正是證明了這點。在上述學說中也只有倫理規(guī)范違反說才能同時覆蓋到人身、財產(chǎn)、精神損害三個方面。此外,人工智能監(jiān)管程序的心中犯意、危害行為、行為結(jié)果的界限存在一定的模糊性,當程序想要對元宇宙用戶進行犯罪,其犯意就會在代碼和數(shù)據(jù)層面予以體現(xiàn),隨后完全可以在服務(wù)器硬件的計算能力范圍內(nèi)馬上進行犯罪,而犯罪結(jié)果也可在瞬間對元宇宙用戶造成致命打擊。用傳統(tǒng)刑法思維嚴格區(qū)分這些,實則并不符合元宇宙的實際情況,也并不能更高效地判定元宇宙相關(guān)主體的犯罪。所以在元宇宙時代下,對于犯罪構(gòu)成要件符合性與實質(zhì)性違法的理解,應當以倫理規(guī)范違反說的觀點為核心。在倫理規(guī)范違反說的基礎(chǔ)上,再結(jié)合最終對用戶造成的直接與間接損害,方能對管理員或是人工智能監(jiān)管程序合理地定罪量刑,以彌補管理員與人工智能監(jiān)管程序之間的主體不相稱性,保障用戶的最低限度的權(quán)利。
也許會有學者對倫理規(guī)范違反說的觀點提出疑問,如:(1)現(xiàn)實社會中作為法秩序基礎(chǔ)的社會倫理規(guī)范并不明確;(2)倫理規(guī)范違反說所重視的是主觀的犯罪意思,固然由于人工智能監(jiān)管程序的心中犯意、危害行為、行為結(jié)果具有一定的模糊性,而對其犯罪意思進行處罰具有一定的合理性,但同時對實行共同犯罪的系統(tǒng)管理員的犯罪意思進行處罰就明顯不妥。對于問題(1),我們認為盡管現(xiàn)實社會中作為法秩序基礎(chǔ)的社會倫理規(guī)范并不明確,但元宇宙自身實則是一個高度抽象的、并不完全依賴于現(xiàn)實空間的虛擬現(xiàn)實領(lǐng)域,元宇宙中國家所承認的文化規(guī)范、國家的法秩序的精神、目的以及社會倫理規(guī)范可以在對元宇宙的建模過程中,通過對現(xiàn)實社會相關(guān)理念進行概括與抽象而融入元宇宙中。在建模完成后,元宇宙中的社會倫理規(guī)范可通過《用戶協(xié)議》的形式,在用戶新注冊的時候讓用戶簽署即可。而相應的社會倫理規(guī)范也可通過深度學習的方法讓人工智能監(jiān)管程序進行學習,以保證其遵守相應的法秩序規(guī)范。例如,在元宇宙還未出現(xiàn)的時期,世界各國的公民在使用任何一款手機APP 時,都曾自愿簽署與手機APP 相應的《用戶協(xié)議》,而該《用戶協(xié)議》或多或少納入了開發(fā)公司在對軟件進行建模與構(gòu)建的過程中所創(chuàng)設(shè)的一定的倫理規(guī)范,如我國大陸的視頻以及直播APP 都禁止色情、低俗等視頻的上傳,違者將被強制下線。而作為高度抽象的虛擬現(xiàn)實領(lǐng)域,用戶在使用元宇宙之前,其《用戶協(xié)議》則可由專人予以設(shè)計,以定下最基礎(chǔ)的法秩序以及社會倫理。后續(xù)還可根據(jù)元宇宙的實際運營情況,通過用戶的明示或是默示的方式對基礎(chǔ)法秩序和社會倫理相關(guān)約定予以補充。對于問題(2),我們可以從共同犯罪理論中的“行為共同說”(即事實共同說)的角度予以解釋。行為共同說的觀點認為,共同犯罪是指數(shù)個行為主體共同實施了一定的犯罪行為,構(gòu)成了一定的犯罪事實,各個行為主體僅在共同行為中成為共犯。在元宇宙中,固然應當從倫理規(guī)范違反說的角度對人工智能監(jiān)管程序的心中犯意、危害行為、行為結(jié)果認定其違法性,從危害行為、行為結(jié)果的角度認定系統(tǒng)管理員行為的違法性,但共同犯罪的認定范圍仍應限定于雙方共同的行為,即從危害行為、行為結(jié)果的層面認定管理員和人工智能監(jiān)管程序兩者共同的犯罪事實。正如前文所述,共同犯罪的重心在于不同主體之間不法形態(tài)的共同部分,而對于兩者不同主體的責任仍需個別認定。若人工智能監(jiān)管程序和系統(tǒng)管理員的故意內(nèi)容不同,則各自仍有可能成立不同的犯罪罪名,這也是共同犯罪理論中“行為共同說”的核心觀點。如果元宇宙中我們延續(xù)傳統(tǒng)刑法理論中的法益侵害說的觀點,則明顯不當,因此只有采取倫理規(guī)范違反說方能合理認定各方行為的實質(zhì)違法性。
因而,通過此部分對于元宇宙時代下犯罪構(gòu)成要件符合性探討可知,在結(jié)果無價值論與行為無價值論的界限日漸模糊的元宇宙時代,犯罪構(gòu)成要件符合性與違法性兩者的關(guān)聯(lián)應當理解為,元宇宙時代下構(gòu)成要件的實質(zhì)就是管理員與人工智能監(jiān)管程序類型化的違法性行為,而非如貝林所提出的“行為構(gòu)成要件說”的觀點??紤]到當前通說法益侵害說的犯罪既遂認定難度過大,違法性的實質(zhì)應當從瀧川幸辰和前田雅英的實質(zhì)利益損害的觀點轉(zhuǎn)向為麥耶所主張的倫理規(guī)范違反說。違法性與倫理違反性并非并列的為構(gòu)成要件提供依據(jù),倫理違反性應當理解為是違法性更深層次的概念,倫理違反性則為違法性提供了實質(zhì)根據(jù)。
正如美國學者米爾建·R.達馬斯卡曾指出,伴隨著過去50 年驚人的科學進步,越來越多的重要事實只能通過高科技手段進行調(diào)查[24]。在法治尚未健全的元宇宙社會,米爾建“運用高科技調(diào)查事實”的觀點應當根據(jù)時代的特征暫時修正為“越來越多的違法行為只能運用高科技手段對其進行自力救濟”,而這為元宇宙時代的多元化高科技自力救濟手段提供了新的解釋路徑。當今刑法學者對于是否應當賦予管理員與人工智能監(jiān)管程序以強制性的安全保障義務(wù)爭辯不一,似乎元宇宙中的安全保障制度的設(shè)計也因此陷入了一個死循環(huán),但是這并不意味著我們只能從安全保障制度的角度來維護元宇宙用戶或是玩家的權(quán)益。對于元宇宙用戶或是玩家而言,他們可以另辟蹊徑,從自力救濟的角度來維護自己的合法權(quán)益,且在權(quán)利行使案件中,能夠存在的違法阻卻事由也主要是自力救濟[25]。
放眼于傳統(tǒng)的刑法理論,違法阻卻事由包括法定的違法阻卻事由與超法規(guī)的違法阻卻事由,其中法定的違法阻卻事由包括正當防衛(wèi)和緊急避險。對于正當防衛(wèi),我國刑法第20 條規(guī)定,為了防止人身權(quán)利和財產(chǎn)權(quán)利免受正在進行的不法侵害,而采取的制止不法侵害的行為,對不法侵害人造成損害的,屬于正當防衛(wèi),不負刑事責任。在元宇宙中,如果管理員故意發(fā)布了錯誤政策或是人工智能監(jiān)管程序故意發(fā)布錯誤指令對用戶造成了正在發(fā)生的不法侵害,用戶對此運用正常交互手段或是相關(guān)技術(shù)手段對元宇宙社區(qū)環(huán)境或是相關(guān)系統(tǒng)資源進行的反擊,是否應當被認為是正當防衛(wèi),還是說要根據(jù)“在不得已的情況下?lián)p害另一法益以保護較大法益免受正在發(fā)生的危險”的法理認定為是緊急避險,是一個值得探討的問題。這是因為判斷正當防衛(wèi)和緊急避險的標準不同,所以對于元宇宙用戶防衛(wèi)過當和避險過當?shù)呐袛嘁脖厝粫a(chǎn)生差異,而這對于判斷元宇宙用戶在防衛(wèi)過當或是避險過當時所應承擔的刑事責任也顯得尤為重要。因此,在討論此問題前,首先應當理清人工智能監(jiān)管程序、管理員以及元宇宙系統(tǒng)資源之間的關(guān)系。盡管現(xiàn)行的理論通說承認了網(wǎng)絡(luò)虛擬財產(chǎn)的財產(chǎn)權(quán)屬性,但在元宇宙時代中,元宇宙的系統(tǒng)資源以及相關(guān)財產(chǎn)是由誰占有,這對于刑法中的正當防衛(wèi)與緊急避險的區(qū)分尤為重要?,F(xiàn)行刑法學界已經(jīng)有學者認為強人工智能在開發(fā)人員編程意圖之外的犯罪行為應當承擔刑事責任,但對于強人工智能程序是否能夠擁有財產(chǎn)權(quán)這一點,學界無不認為不應承認強人工智能程序能擁有財產(chǎn)。因為如果對此底線進行突破,就會對我國的私法體系造成致命的沖擊。
對于強人工智能是否能占有財產(chǎn)屬性的系統(tǒng)資源的疑問,可以將其歸納為“強人工智能是否對具有財產(chǎn)屬性的系統(tǒng)資源具有占有權(quán)”,元宇宙中對人工智能監(jiān)管程序是否占有相應系統(tǒng)資源的判斷也因此顯得異常重要。如果承認強人工智能對元宇宙資源具有占有權(quán),則應當考慮用戶在遇到不法侵害時對元宇宙社區(qū)環(huán)境或是相關(guān)系統(tǒng)的反擊是否構(gòu)成對強人工智能的緊急避險,以及是否構(gòu)成避險過當。因為占有權(quán)也是財產(chǎn)性利益的一部分,侵害其占有在符合一定的條件下也應認為構(gòu)成對強人工智能的緊急避險[26]。然而,如同操作系統(tǒng)對系統(tǒng)資源的調(diào)度,我們認為基于強人工智能開發(fā)的人工智能監(jiān)管程序在元宇宙中的地位并不比計算機中的操作系統(tǒng)的法律地位高,其僅僅是引入了人工智能后可以更智能地分配系統(tǒng)資源,或是利用系統(tǒng)資源對元宇宙系統(tǒng)進行更智能的迭代升級。正如現(xiàn)在操作系統(tǒng)對硬件資源與內(nèi)存數(shù)據(jù)的占有權(quán)不被承認一般,元宇宙環(huán)境中也不應承認人工智能監(jiān)管程序?qū)υ钪尜Y源的占有,資源的占有權(quán)應當歸屬于元宇宙公司,元宇宙公司的系統(tǒng)管理員直接監(jiān)管系統(tǒng)資源。而人工智能監(jiān)督程序僅僅具有系統(tǒng)資源的調(diào)度權(quán),調(diào)度權(quán)本身并不受任何現(xiàn)實法律的保護,其更多的是元宇宙公司內(nèi)部管理的規(guī)定。因此,我們認為在元宇宙環(huán)境中,具有財產(chǎn)屬性的系統(tǒng)資源的所有權(quán)歸元宇宙公司所有,管理員作為元宇宙公司的雇員監(jiān)管該系統(tǒng)資源,而強人工智能僅擁有系統(tǒng)資源的調(diào)度權(quán)。如果因管理員故意輸入錯誤的元宇宙政策來損害元宇宙用戶的權(quán)利,則用戶對管理員的反擊構(gòu)成對管理員的正當防衛(wèi),不構(gòu)成對強人工智能和人工智能監(jiān)管程序的緊急避險。如果因強人工智能故意輸入錯誤的指令來損害元宇宙用戶的權(quán)利,則元宇宙用戶因反擊而造成元宇宙社區(qū)或是相關(guān)系統(tǒng)資源的損害實則構(gòu)成對元宇宙公司的緊急避險。而對于強人工智能的系統(tǒng)調(diào)度權(quán),其在法學上所能體現(xiàn)的價值僅僅是為人工智能監(jiān)管程序的實質(zhì)重構(gòu)提供了一種新思路。例如具有調(diào)度權(quán)A、B、C、D 的人工智能監(jiān)管程序因故意犯罪而被判處進行實質(zhì)重構(gòu),則重構(gòu)后的程序所擁有的系統(tǒng)調(diào)度權(quán)應當是調(diào)度權(quán)A、B、C、D 的真子集,調(diào)度權(quán)存在的價值正是判斷某人工智能監(jiān)管程序是否經(jīng)過實質(zhì)重構(gòu)的另一種思路,可以說調(diào)度權(quán)的變更是人工智能監(jiān)管程序?qū)嵸|(zhì)變更的必要非充分條件。當然,強人工智能程序的刑罰論并非本文的討論重點,由于篇幅原因在此不予詳細論述??傊獓栏駞^(qū)分元宇宙中數(shù)字資源的所有權(quán)、占有權(quán)和調(diào)度權(quán)的概念與界限,才能準確認定元宇宙中相應的違法阻卻事由。
對于超法規(guī)的違法阻卻事由,從基于合意的他者危險化理論考慮是否能免除管理員與人工智能監(jiān)管程序的刑事責任?例如,元宇宙公司通過詳實的用戶協(xié)議在各處做強調(diào)標記,告知用戶進入元宇宙的一切可能人身危險,如果用戶愿意進入元宇宙,則認定用戶應當自行接受其中的危險,而不應指責元宇宙運行商未履行足夠的安全保障義務(wù),此是用戶自己決定是否愿意進入而非被強迫使用元宇宙的產(chǎn)品。但從刑法學理論的角度而言,僅通過民事約定然后寫入大量的刑事或是民事免責條款,實際上無法免除元宇宙公司相關(guān)的民事責任與刑事責任。刑事責任具有一定的公法性質(zhì),無法通過一紙條款來約定排除。因而,元宇宙產(chǎn)品的超法規(guī)違法阻卻事由更無從談起。
對于管理員發(fā)布錯誤政策而造成用戶反擊的行為,用戶對元宇宙系統(tǒng)造成的損害實際上是對元宇宙公司所具有的財產(chǎn)屬性的系統(tǒng)資源占有權(quán)造成損害。根據(jù)“當然解釋”的原理,對于系統(tǒng)管理員通過故意發(fā)布錯誤政策企圖侵害元宇宙用戶的權(quán)益,則用戶對系統(tǒng)管理員監(jiān)管的系統(tǒng)資源進行打擊,其打擊結(jié)果相對于嚴重人身、財產(chǎn)、精神的損害的后果更小,應當認定為是正當防衛(wèi),而不應機械地比較用戶個人損失與元宇宙系統(tǒng)的損害而認定為是防衛(wèi)過當。對于人工智能監(jiān)管程序故意輸入錯誤指令而造成的用戶損害與用戶反擊的情形,由于系統(tǒng)資源是由管理員監(jiān)管以及元宇宙公司所有的,此種情況滿足我國刑法第21 條關(guān)于“為了使國家、公共利益、本人或者他人的人身、財產(chǎn)和其他權(quán)利免受正在發(fā)生的危險,不得已采取的緊急避險行為,造成損害的,不負刑事責任”的規(guī)定,構(gòu)成對元宇宙公司和管理員的緊急避險。當然緊急避險也不應機械地比較事實上用戶的損失與元宇宙系統(tǒng)的損失來判斷避險過當。因為用戶在進入完全潛行模式時所遭受到的是人身、財產(chǎn)、精神的損害,用戶的反擊是針對元宇宙系統(tǒng)即財產(chǎn)性利益而非人工智能監(jiān)管程序與管理員自身的人身權(quán)益,用戶無法在元宇宙中對人工智能監(jiān)管程序與管理員本身實施有效的打擊,在元宇宙中所保護的法益階層大概率會被抽象與簡化。由此可以看出,從法益衡量說的角度而言,法定的違法阻卻事由認定相比現(xiàn)實社會生活中將顯得更為簡單。
綜上,通過對元宇宙時代下犯罪構(gòu)成違法阻卻事由的探討可知,元宇宙時代下的違法阻卻事由因元宇宙本身特定的虛擬環(huán)境,法益也因此被高度抽象化。在不承認強人工智能對財產(chǎn)的所有權(quán)或占有的情況下,如果因管理員故意輸入錯誤的元宇宙政策來損害元宇宙用戶的權(quán)利,其對管理員的反擊構(gòu)成對管理員的正當防衛(wèi),不構(gòu)成對強人工智能和人工智能監(jiān)管程序的緊急避險。如果因強人工智能故意輸入錯誤的指令來損害元宇宙用戶的權(quán)利,則元宇宙用戶因反擊而造成元宇宙社區(qū)或是相關(guān)系統(tǒng)資源的損害實則構(gòu)成對元宇宙公司和管理員的緊急避險。此外,對于超法規(guī)的違法阻卻事由,通過免責條款企圖將元宇宙公司的可能侵權(quán)行為“套上一頂名為基于合意的他者危險化理論的帽子”,無論是從事實上還是法律上而言必然是徒勞無益的工作。
即使某種行為符合刑法條文的構(gòu)成要件,且不具有違法阻卻事由,但也不能僅此對其科處刑罰,科處刑罰還要求對行為主體具有非難可能性,而刑罰的量也應與責任相匹配[2]240。可以說,“沒有責任就沒有刑罰”是近代刑罰的一個基本原理,而在元宇宙中也應堅持責任主義原則。本處所討論的責任,應當理解為是作為犯罪成立條件之一,即非難可能性的意思[27],而非作為犯罪法律后果的刑事責任。責任主義原則作為傳統(tǒng)刑法的基本原理之一,科處刑罰要求犯罪主體應當具有非難可能性,沒有責任就沒有犯罪,刑罰總量也不應超出責任的范疇,如我國《刑法》規(guī)定的罪責刑相適應的原則[28],無論作為傳統(tǒng)的犯罪人而言還是元宇宙時代下對于涉嫌犯罪的人工智能監(jiān)管程序而言都應遵守該法理。
只有對有責任的犯罪行為進行處罰,才能抑制在將來相同情況下發(fā)生類似犯罪的效果。可以說將有責性作為犯罪成立的條件之一,就是刑罰目的的基本要求[29]。傳統(tǒng)的刑罰理論認為刑罰是以痛苦為本質(zhì)的,單純的使罪犯感到痛苦并非刑罰的目的,而是通過使罪犯感到痛苦而傳達對該犯罪行為否定的評價。然而,對于強人工智能所開發(fā)出的人工智能監(jiān)管程序,其自身情感和價值判斷的脆弱性決定了對強人工智能施行的復制、剪切、代碼重組,甚至是刪除、卸載該程序,刑罰所想表達的痛苦并不能如愿傳達給強人工智能。在元宇宙時代,對于人類而言有責性的本質(zhì)應當保持不變。而對于強人工智能而言,有責性的刑罰痛苦本質(zhì)應當轉(zhuǎn)化為對侵害法益、倫理行為的預告性制裁,并且應當讓強人工智能及時學習。也就是說,在人工智能監(jiān)管程序?qū)π鹿嫉男谭ㄟM行深度學習后,相應行為主體應當產(chǎn)生不犯罪的動機,或是對疑似犯罪行為產(chǎn)生反對的動機[30],但人工智能監(jiān)管程序通過自己的現(xiàn)存“理智”,在對刑法所保護的權(quán)益進行充分衡量與自我計算推演后仍然選擇實施違法行為,且不具有相應的違法阻卻事由,在這種情況下才能對人工智能監(jiān)管程序確定相應的刑事責任,對其定罪處罰。這樣不僅解決了人工智能監(jiān)管程序“故意”的主觀心態(tài)問題,還解決了強人工智能的期待可能性問題。對強人工智能而言,這才是元宇宙時代責任主義原則落實的應有之義。
上述的論述,是默認基于強人工智能開發(fā)的人工智能監(jiān)管程序具有一定的意志自由而得出的結(jié)論。雖然時下高科技網(wǎng)絡(luò)技術(shù)被廣泛應用于社會生活[31],但人工智能監(jiān)管程序具有多少程度的自由,實則是一個可供探討的問題。有責性的基礎(chǔ)來源于對犯罪主體非難可能性的考量,因此對于是否承認犯罪主體的意志自由而出現(xiàn)了不同觀點與學說[32],這對于元宇宙中對人工智能監(jiān)管程序非難可能性的考量具有一定的參考價值。而對犯罪主體的意志自由,學理上存在著非決定論和決定論兩種觀點的分歧。
非決定論的觀點認為,系統(tǒng)管理員與人工智能監(jiān)管程序具有完全的自由。從公民社會的角度而言,公民可以完全自由地決定一天的飲食、上班的工作,甚至是自己的妻子或丈夫的人選。公民的意志不僅尊崇自由的選擇因果法則,還能自發(fā)的創(chuàng)造一切愿意創(chuàng)造的東西。非決定論認為,責任的實質(zhì)來源于行為主體具有他行為的可能性[33]??梢钥闯?,非決定論犯了形而上學的錯誤,其理論來源于后期刑法舊派的思想[34]。固然在現(xiàn)代社會中人具有一定意義上的自由,但如果僅從抽象的公民的角度來討論其不受控制的自由,則討論必將陷入毫無意義的學術(shù)訓練。此外,既然系統(tǒng)管理員或是人工智能監(jiān)管程序的意志完全自由,則刑罰就不可能抑制犯罪,犯罪預防說的觀點將失去其現(xiàn)實價值。決定論的觀點認為,系統(tǒng)管理員或是人工智能監(jiān)管程序的決定與意志都是基于因果法則的原因和結(jié)果,正如人工智能監(jiān)管程序的自學習應當基于管理員的政策,并且應當以現(xiàn)實生活中的題材為限,系統(tǒng)管理員或是人工智能監(jiān)管程序的決定與意志并不能憑空創(chuàng)造自己所想的一切。責任則被理解為具有社會危險性格的人或是程序,應當接受為了防衛(wèi)社會而采取的一定處分的地位[35]。但決定論不利于保障相應主體自由的缺陷早已得到證實,而決定論的科學價值在現(xiàn)代也未得到有效證明[36]。
近年來,學界中存在著不少持“主體否定論”的學者,他們認為,人工智能的發(fā)展只是計算能力的提高,人工智能的獨立思維只是一種假象。算力提高無法使機器具有獨立思維能力,其決策仍然離不開設(shè)計者、使用者的意愿。結(jié)合計算機技術(shù)原理,從犯罪學、刑法教義學和刑法目的論等多重視角出發(fā),可對強人工智能犯罪以及其刑事主體資格進行證否[37]??梢钥闯?,持“主體否定論”的學者以天馬行空的想象將強人工智能理所當然地認為其具有“完全”的自由意志,無論做什么都是不受約束的,可以說他們實則陷入了非決定論觀點的謬誤。
事實上,強人工智能的自由是非決定論和決定論兩者觀點的辯證統(tǒng)一。基于非決定論和決定論的考量,我們認同相對的意志自由論觀點認定人工智能監(jiān)管程序的意志。自啟蒙思想以來,人的自由思想得到解放,由此設(shè)計出的人工智能監(jiān)管程序必然也是如此。啟蒙思想家塞繆爾·普芬道夫?qū)⑷俗鳛榫哂欣硇耘c自由意志的生物來把握[38]。而刑法上的責任概念,原本也是基于自由意志而設(shè)定的。但不得不承認,無論是系統(tǒng)管理員還是人工智能監(jiān)管程序,他們必須接受相應的法律規(guī)范,并且被期待做出相應的合法行為,所以其有且僅有相對的意志自由,而若違反了相應的法律規(guī)范必然受到相應的非難。普芬道夫的道德強制思想逐漸替代了路德維?!ぐ驳铝兴埂べM爾巴哈的心理強制學說的觀點,從道德與倫理層面的自由來解釋責任主義的基礎(chǔ)??梢哉J為,若不以系統(tǒng)管理員或是人工智能監(jiān)管程序具有一定的自由意志為前提,則溫和的三階層犯罪構(gòu)成說中的有責性恐怕也難以繼續(xù)存在??傊?,責任與自由意志難以分離,無自由即無選擇,無選擇即無責任。盡管法哲學上存在各種爭論,實際上意志自由無疑進入了不僅是我們?nèi)粘5墓裆鐣?,更是以人工智能監(jiān)管程序的形式進入了元宇宙的范疇[39]540。當公民與人工智能監(jiān)管程序的意志能夠選擇為或不為某些行為時,意志的作用便是使主體行為受到稱贊或者責難的唯一原因[40]。選擇與責任因此成為高度統(tǒng)一的哲學范疇[41]166。
因而,通過對元宇宙時代下犯罪構(gòu)成有責性的探討可以看出,在元宇宙時代下,有責性的刑罰痛苦本質(zhì)應當以侵害法益、倫理行為的預告性制裁為主要內(nèi)容,即在具有相對意志自由的人工智能監(jiān)管程序?qū)π鹿嫉男谭ㄟM行深度學習后,相應行為主體產(chǎn)生不犯罪的動機,或是對疑似犯罪行為產(chǎn)生反對的動機。若人工智能監(jiān)管程序通過自己的現(xiàn)存“理智”,在對刑法所保護的權(quán)益進行充分衡量與自我計算推演后仍然選擇實施違法行為,且不具有相應的違法阻卻事由,基于非決定論和決定論的辯證考量,在這種情況下才能對人工智能監(jiān)管程序確定相應的刑事責任,對其定罪處罰。這樣不僅解決了人工智能監(jiān)管程序“故意”的主觀心態(tài)問題,還解決了強人工智能的期待可能性問題。
元宇宙是由電子計算機、虛擬現(xiàn)實和量子技術(shù)等制成,介由高度發(fā)達的腦機接口技術(shù),提供完全潛行環(huán)境的平行世界。對于元宇宙可能發(fā)生的法律風險,如果是由人工智能監(jiān)管程序發(fā)布錯誤指令引起,在此我們認為應當認定其刑事責任能力,并根據(jù)其承擔的責任對其制定相應的刑罰。對于人工智能監(jiān)管程序?qū)嵤┑姆缸?,應當從倫理?guī)范違反說的觀點從心中犯意、危害行為、行為結(jié)果的角度認定人工智能監(jiān)管程序的行為違法性,接著根據(jù)人工智能監(jiān)管程序自身的特點從有責性的角度認定其責任并制定刑罰措施。對于用戶在元宇宙中可能造成的人身、財物以及精神上的損害,盡管對于民法中的經(jīng)營場所安全保障義務(wù)是否能轉(zhuǎn)換為刑法中的相應注意義務(wù)的問題,學界并未形成通說,但是用戶可根據(jù)不同主體的違法行為分別進行正當防衛(wèi)或是緊急避險,在司法機關(guān)無法觸及的領(lǐng)域?qū)嵤┳粤葷?,在事后再報案進行處置。對于有責性的本質(zhì),應當轉(zhuǎn)化為對侵害法益、倫理行為的預告性制裁。若具有相對意志自由的人工智能監(jiān)管程序在對刑法所保護的權(quán)益進行充分衡量后仍實施不法行為,才能對人工智能監(jiān)管程序確定相應的刑事責任,以解決強人工智能故意的主觀心態(tài)和期待可能性的問題。而對于有關(guān)人工智能“作為”的犯罪罪名也可以根據(jù)刑法進行相應認定。如,若人工智能監(jiān)管程序在下一次迭代更新時為元宇宙用戶或玩家安裝具有漏洞的更新程序,之后人工智能監(jiān)管程序利用該漏洞控制了多個元宇宙用戶或玩家的本地設(shè)備,并不斷復制自身,像病毒一般傳播,則該人工智能監(jiān)管程序構(gòu)成刑法第285 條第2 款非法控制計算機信息系統(tǒng)罪。有關(guān)元宇宙中人工智能監(jiān)管程序犯罪罪名不是本文論述的重點,在此不再展開論述。
在對溫和的三階層犯罪構(gòu)成說從法教義學的角度進行探討后,本文對于元宇宙犯罪構(gòu)成的相關(guān)問題能得到初步的解決,并且在元宇宙與完全潛行式的環(huán)境中能有效保護用戶的合法權(quán)利。然而,對于元宇宙相關(guān)犯罪的現(xiàn)場偵查與后續(xù)實驗室的數(shù)據(jù)鑒定,應采用傳統(tǒng)聲像資料鑒定策略還是大數(shù)據(jù)服務(wù)器偵查策略進行取證,對于元宇宙專門問題應委托聲像資料的鑒定人還是電子數(shù)據(jù)取證領(lǐng)域的專業(yè)人士進行分析,以及之后的在審查起訴與審判階段各刑法分則的具體適用與訴訟程序的改進仍是需要解決的問題,這些都為我們以后的研究提供了方向。