摘要: 生成式人工智能的有限自主性源于以大數(shù)據(jù)為基礎(chǔ)的算法決策的不可解釋性,意味著其可以獨立造成法益侵害。既有理論深陷人工智能體有無責(zé)任能力的主觀歸責(zé)問題,卻忽視了生成式人工智能犯罪首先面臨的是危害結(jié)果之客觀歸屬問題。生成式人工智能不是強(qiáng)人工智能,其所造成的法益侵害無法歸屬于智能體本身,應(yīng)當(dāng)根據(jù)《生成式人工智能服務(wù)暫行管理辦法》等技術(shù)規(guī)范,在生產(chǎn)者與使用者之間分配生成式人工智能所致法益侵害的風(fēng)險,以填補(bǔ)刑法處罰漏洞。風(fēng)險分配的依據(jù)是技術(shù)規(guī)范在科技發(fā)展與人類安全之間的價值判斷立場,其規(guī)定了生產(chǎn)者與使用者對不可解釋性算法決策可能存在“最差的情形”的注意義務(wù)。風(fēng)險分配的方式是在準(zhǔn)備、運算與生成這三個階段,結(jié)合當(dāng)前人工智能犯罪的不同類型,在生產(chǎn)者與使用者之間進(jìn)行不對稱的風(fēng)險分配。為避免過度限制科技發(fā)展,應(yīng)根據(jù)下位規(guī)則限制危害結(jié)果的客觀歸屬,一是根據(jù)溯責(zé)禁止原則限制對生產(chǎn)者的結(jié)果歸屬,二是根據(jù)有限的自我答責(zé)原則限制對使用者的結(jié)果歸屬。
關(guān)鍵詞: 生成式人工智能; 不可解釋性; 客觀歸屬; 風(fēng)險分配
中圖分類號: D924.3 文獻(xiàn)標(biāo)識碼: A 文章編號: 1671-7023(2024)05-0053-10
ChatGPT4.0的橫空出世,為我國數(shù)字法學(xué)研究注入了一劑“強(qiáng)心針”,數(shù)字法學(xué)作為獨立于現(xiàn)代法學(xué)之一級學(xué)科的理想圖景似乎也愈發(fā)清晰[1]。其實,在ChatGPT等生成式人工智能尚未問世之前,法學(xué)界就已經(jīng)對“什么是強(qiáng)人工智能”以及“強(qiáng)人工智能應(yīng)否承擔(dān)刑事責(zé)任”等問題進(jìn)行了諸多探討,這些探討充分展現(xiàn)了法律人的想象力,即在真正可以擺脫人類控制的強(qiáng)人工智能誕生之前,就前瞻式地預(yù)測了“技術(shù)奇點”必將到來[2],并就相關(guān)法律規(guī)制問題進(jìn)行了理性的謀篇布局。然而,誠如劉艷紅所言:“如果說‘我們即將迎來人工智能時代’、自主思考的強(qiáng)人工智能就在‘明天’,那么我們離這個‘明天’究竟有多近?連科學(xué)家都不知道這個‘奇點’何時來臨,法學(xué)家又具有何種特異功能參透AI的未來禪機(jī)?” [3]毋寧說,從來沒有什么“未來已來”,已經(jīng)到來的就是正在發(fā)生的,法律人不應(yīng)回避新問題,但是只要強(qiáng)人工智能還未取代人類,社會仍需要人類的法律維持秩序,法律人就仍應(yīng)在傳統(tǒng)公私法劃分的基礎(chǔ)上,運用部門法解決數(shù)字社會提出的新問題[4]。對于部門法而言,了解人工智能與算法是什么很重要,在法學(xué)范式中運用這些跨學(xué)科的智識更加重要,ChatGPT的誕生意味著更要堅持法律人的主體性,而不是改變法學(xué)的思考范式[5],即把注意力放在“奇點”到來之前的現(xiàn)實問題上,至于對未來的想象,最好還是留給科學(xué)家與科幻小說家。就刑法學(xué)而言,生成式人工智能在以大數(shù)據(jù)為基礎(chǔ)的算法決策中確實存在一定程度上的不可解釋性,在這種“人工不完全支配智能”的情形下,人工智能體本身就可以創(chuàng)設(shè)并實現(xiàn)法所不容許的風(fēng)險,那么最終的危害結(jié)果是否應(yīng)當(dāng)以及如何歸屬于人工智能體本身或者其生產(chǎn)者、使用者,這就是法教義學(xué)亟待回應(yīng)的問題。申言之,在刑法領(lǐng)域,生成式人工智能首先要解決危害結(jié)果的客觀歸屬問題,而不是人工智能有無認(rèn)識能力與意志能力的主觀歸責(zé)問題,后一問題在“奇點”來臨之前就不是一個真問題,在“奇點”來臨之后強(qiáng)人工智能體也不需要人類“幫忙”解決這個問題。
一、從工具屬性到有限自主性:法律視角下的生成式人工智能
生成式人工智能的刑事責(zé)任是一個跨學(xué)科問題,在法學(xué)視角下,生成式人工智能在科技層面處在哪個發(fā)展階段以及該階段呈現(xiàn)出何種不同以往的特點,是法律人進(jìn)行規(guī)范思考的事實前提。在此基礎(chǔ)上,科技層面的智識只有能夠“轉(zhuǎn)譯”為法律層面的規(guī)范表達(dá),才能真正稱得上是關(guān)于人工智能的法律思考。事實方面,生成式人工智能處于強(qiáng)人工智能與弱人工智能的中間階段;規(guī)范方面,生成式人工智能具有算法上的不可解釋性。
(一)生成式人工智能:在工具屬性與有限自主性之間
根據(jù)學(xué)術(shù)界的代表性觀點,人工智能強(qiáng)調(diào)的是要讓計算機(jī)像人類一樣理性思考,像人類一樣理性行動[6]。人工智能中的“智能”,是以人類的認(rèn)知能力、推理能力為模板的理性思維能力,是借助傳感器在不同環(huán)境中的理性行動能力;人工智能中的“人工”,是指人類能夠基于大數(shù)據(jù)的供給與算法的設(shè)計對智能產(chǎn)品進(jìn)行理性的控制,即“代碼的規(guī)制”[7]。與之相關(guān),人工智能一般被劃分為限制領(lǐng)域人工智能與通用人工智能,前者“主要為了復(fù)現(xiàn)人類智能的某一功能或某一方面”,后者“可以復(fù)制與自然人相似的人類智能水平” [8]。這與當(dāng)前法學(xué)界“弱人工智能與強(qiáng)人工智能”的劃分內(nèi)在一致[9],但“弱”與“強(qiáng)”的表達(dá)更不容易導(dǎo)致“人工智能主要根據(jù)適用領(lǐng)域劃分”的誤解。從法律視角來看,弱人工智能與強(qiáng)人工智能的對比更能讓人們以關(guān)系型的視角看待“人工”與“智能”的關(guān)系:“弱”在事實層面是指人工智能產(chǎn)品處于人類的絕對控制之中,在規(guī)范層面是指使用人工智能產(chǎn)品的行為依舊是人的行為;“強(qiáng)”在事實層面是指人工智能擺脫了人類的控制,在規(guī)范層面是指人工智能產(chǎn)品可以獨立于生產(chǎn)者與使用者,創(chuàng)設(shè)并實現(xiàn)法所不容許的風(fēng)險。一言以蔽之,弱人工智能是指“人工”對“智能”的絕對控制,人工智能只有工具屬性;強(qiáng)人工智能是指“智能”擺脫“人工”的控制,人工智能擺脫了工具屬性,具有自主性。
那么生成式人工智能到底是弱人工智能還是強(qiáng)人工智能呢?或者說生成式人工智能產(chǎn)品是“人工控制智能”還是“智能擺脫人工”呢?答案是:生成式人工智能處于弱人工智能與強(qiáng)人工智能的中間階段,即“人工對智能的不完全控制”,一方面,生成式人工智能依然無法擺脫人類的控制,基于人類提供的大數(shù)據(jù)與設(shè)計的算法,其依舊可以得出人類大致設(shè)想的答案,實現(xiàn)人類大致期待的功用;另一方面,生成式人工智能產(chǎn)品的確能在大數(shù)據(jù)基礎(chǔ)上作出不具可解釋性的算法決策,得出人類無法解釋的答案。這種有限自主性也將是人工智能產(chǎn)品在“奇點”來臨之前的常態(tài),那么,有限自主性在法律層面有何意涵呢?
(二)有限自主性的法律意涵:生成式人工智能具有一定程度的不可解釋性
關(guān)于人工智能的法律研究,劉艷紅指出:“探討人工智能的法律責(zé)任問題,應(yīng)該基于人工智能行為的可解釋性的全新路徑來推進(jìn),而不是糾纏于當(dāng)下學(xué)界關(guān)于人工智能主體地位與法律責(zé)任的各種主體論與責(zé)任理論。人工智能的可解釋性,亦即解釋人工智能如何在大數(shù)據(jù)的基礎(chǔ)上進(jìn)行算法決策……法律責(zé)任的本質(zhì)是答責(zé),不具有可解釋性的人工智能不能自我答責(zé),因此其無法承擔(dān)法律責(zé)任; 法律責(zé)任的目的是預(yù)防,不具有可解釋性的人工智能無法實現(xiàn)法律責(zé)任的預(yù)防目的?!盵10]至少在“奇點”到來之前,所有的法律問題依然是以人為中心的,之所以要強(qiáng)調(diào)人工智能的可解釋性,是為了將大數(shù)據(jù)基礎(chǔ)上的算法決策歸屬到人的行為,無論是人工智能產(chǎn)品生產(chǎn)者的行為還是使用者的行為[11]。法律作為一種行為規(guī)范,只有能夠區(qū)分正確或者錯誤運用大數(shù)據(jù)與算法的行為,才有可能實現(xiàn)指引功能。
那么這是否意味著,要在人工智能的法律評價中“切割掉”與不可解釋性有關(guān)的所有問題?當(dāng)然不是?,F(xiàn)代刑法的預(yù)防轉(zhuǎn)向,不就體現(xiàn)了人們對未知問題作出判斷的欲望與可能性了嗎?直到當(dāng)下,人們都很難判斷特殊預(yù)防與一般預(yù)防的目的能否實現(xiàn),但這并不妨礙現(xiàn)代刑法對犯罪預(yù)防的堅持[12]。同樣,人工智能的不可解釋性意味著大數(shù)據(jù)基礎(chǔ)上的算法決策可能導(dǎo)出未知的結(jié)果,不代表人類就應(yīng)當(dāng)對其保持緘默。技術(shù)規(guī)范作為平衡科技發(fā)展與人類安全的具體體現(xiàn),本就反映了立法者在刑事政策層面的考量,完全可以就不具可解釋性的算法決策在生產(chǎn)者與使用者之間進(jìn)行風(fēng)險分配,畢竟在刑法規(guī)范無法提供明確答案的情形中,刑事政策原則就是最好的風(fēng)向標(biāo)[13]。
不過在此之前,對于生成式人工智能的法律問題,首先要區(qū)分好科學(xué)家與法學(xué)家的不同觀察視角:對于科學(xué)家而言,其使命是從科學(xué)角度理解與解決算法黑箱、算法歧視等技術(shù)難題;對于法學(xué)家而言,其使命是在接受科學(xué)技術(shù)尚有未解難題的前提下,從規(guī)范角度合理評價不可解釋的人工智能產(chǎn)品所導(dǎo)致的危害后果[14]。人工智能的不可解釋性是無法否認(rèn)的事實,但這種不可解釋性依然能夠通過既有的法律規(guī)范與理論學(xué)說予以應(yīng)對。特別是,生成式人工智能只是具有一定程度的不可解釋性,其雖然可以在大數(shù)據(jù)基礎(chǔ)上通過算法決策得出人類未曾設(shè)想的答案,但是人類依舊能夠在準(zhǔn)備、運算與生成等階段對人工智能產(chǎn)品實現(xiàn)較強(qiáng)的控制力。因而就刑法而言,重點在于:這樣一個具備有限自主性但尚未完全擺脫工具屬性的智能體,能否創(chuàng)設(shè)并實現(xiàn)法所不容許的風(fēng)險?當(dāng)生成式人工智能尚未真正成為“類人”的強(qiáng)人工智能時,是否應(yīng)當(dāng)以及如何將前述風(fēng)險導(dǎo)致的危害結(jié)果歸屬于人工智能產(chǎn)品的生產(chǎn)者或者使用者?
二、人工智能的有限自主性與刑法處罰漏洞的產(chǎn)生
有學(xué)者指出:“由于人工智能技術(shù)的復(fù)雜性、裁量的獨立性和行為自控性等特點,使得現(xiàn)實中會出現(xiàn)人工智能因過失導(dǎo)致的法益侵害,存在無法歸責(zé)的空白地帶?!盵15]也就是說,由于人工智能體的自主性,其所造成的法益侵害無法完全歸屬于人工智能體的生產(chǎn)者與使用者,且人工智能體本身也不是法律意義上的自然人或者單位。這樣一來,處罰漏洞就產(chǎn)生了:有法益侵害,但缺少進(jìn)行結(jié)果歸屬判斷的行為主體。對于這一問題,至少須回應(yīng)以下三個遞進(jìn)的問題:其一,生成式人工智能造成的法益侵害是在結(jié)果客觀歸屬的層次討論的;其二,生成式人工智能造成的法益侵害為何不可被歸屬于智能產(chǎn)品本身;其三,生成式人工智能造成的法益侵害如何被歸屬于生產(chǎn)者或者使用者。
(一)生成式人工智能可以獨立創(chuàng)設(shè)并實現(xiàn)法所不容許的風(fēng)險
或許是事實思考先于規(guī)范思考,法學(xué)界對人工智能體特別是機(jī)器人的刑事責(zé)任問題,總有一種拿機(jī)器與人進(jìn)行類比的思維慣性,而人之所以為人,正在于自由意志設(shè)想下的認(rèn)識能力與意志能力,因而最具熱度的學(xué)術(shù)議題往往是機(jī)器人的法律地位或者主觀歸責(zé)問題[16]。但是,就刑法視角而言,行為只有先符合構(gòu)成要件并且具有違法性,才有必要進(jìn)入有責(zé)性的判斷。無論如何,人工智能犯罪成立與否,總是要先確定“法益侵害的結(jié)果必須可以視為行為人為行為支配后的‘作品’”,即危害結(jié)果的客觀歸屬問題。結(jié)果的客觀歸屬,主要是判斷人工智能是否創(chuàng)設(shè)并實現(xiàn)了法所不容許的風(fēng)險客觀歸屬(Objektive Zurechnung),常被稱為客觀歸責(zé),考慮到行為是否創(chuàng)設(shè)并實現(xiàn)法不容許的風(fēng)險主要是在構(gòu)成要件階層進(jìn)行判斷,而通常所說的“歸責(zé)”主要是在有責(zé)性階層進(jìn)行判斷,近來諸多學(xué)者與刑法教科書譯本都采取了“客觀歸屬”的用法,以明確該理論的重點所在。對不同用法的說明可參見:蔡桂生. 構(gòu)成要件論[M]. 北京: 中國人民大學(xué)出版社, 2015:145.。
對生成式人工智能的客觀歸屬的判斷有何不同呢?在生成式人工智能誕生之前,人工智能依然不具備自主思維與行動的能力[17],人工智能產(chǎn)品作為一種工具,其造成的法益侵害可以完全歸屬于生產(chǎn)者或使用者。以自動駕駛技術(shù)為例,自動駕駛的實現(xiàn)依賴于生產(chǎn)者提供的大數(shù)據(jù)與預(yù)先植入的算法,在此基礎(chǔ)上通過環(huán)境對傳感器的不同刺激實現(xiàn)駕駛的“自動性”,如果自動駕駛的車輛誤判了路況并導(dǎo)致他人傷亡,生產(chǎn)者依然要承擔(dān)刑事責(zé)任[18],因為事故的發(fā)生并不是因為自動駕駛車輛在大數(shù)據(jù)基礎(chǔ)上進(jìn)行了不具可解釋性的算法決策,而是生產(chǎn)者提供的大數(shù)據(jù)基礎(chǔ)無法充分涵蓋自動駕駛車輛可能遇到的情形,而這正是生產(chǎn)者需要承擔(dān)的注意義務(wù)。在生成式人工智能誕生之后,人工智能具備了一定的自主思維與行動能力,其所造成的法益侵害,原因并非生產(chǎn)者預(yù)先植入的大數(shù)據(jù)基礎(chǔ)不夠,也不是預(yù)先設(shè)計的算法決策出現(xiàn)錯誤,而是人工智能經(jīng)過自主學(xué)習(xí)后進(jìn)行了預(yù)設(shè)算法之外的獨立算法決策,且這一決策并不具有可解釋性。以知識產(chǎn)權(quán)犯罪為例,ChatGPT完全可能在生成式人工智能的編程控制范圍之外,在數(shù)據(jù)挖掘、內(nèi)容生成與使用等不同階段侵害知識產(chǎn)權(quán),這些行為無法通過預(yù)先編寫的程序進(jìn)行解釋,因而能否將法益侵害結(jié)果歸屬于人工智能的生產(chǎn)者或使用者就成了疑難問題[19]。
所以不得不承認(rèn)的是,生成式人工智能具有獨立創(chuàng)設(shè)并實現(xiàn)法所不容許風(fēng)險的能力。一般認(rèn)為,雖然動物、大自然也可以造成法益侵害,但是刑法只關(guān)注人的行為,因為與人類無關(guān)的行為也無法通過法律實現(xiàn)預(yù)防,更沒必要通過刑法予以制裁。不過,人工智能犯罪問題更加復(fù)雜,因為一方面人工智能的確是“人工”的產(chǎn)物,另一方面當(dāng)前人工智能所造成的法益侵害往往是生產(chǎn)者、使用者與人工智能產(chǎn)品共同實現(xiàn)的。在生成式人工智能誕生后,既不可能完全“切割掉”其與生產(chǎn)者、使用者的聯(lián)系,也不可能將其視為受人類絕對控制與支配的機(jī)器。因此,法律層面的重點,是判斷生產(chǎn)者與使用者分擔(dān)新技術(shù)發(fā)展所必須承擔(dān)的風(fēng)險,即不具可解釋性的人工智能所造成的法益侵害應(yīng)在何種程度上歸屬于生產(chǎn)者或使用者。應(yīng)當(dāng)反對的做法是,對行為、責(zé)任等傳統(tǒng)法學(xué)術(shù)語進(jìn)行不同以往的理解并獨立創(chuàng)設(shè)一部“機(jī)器人刑法”。
(二)拒絕“機(jī)器人刑法”:將危害結(jié)果歸屬于人工智能體本身并無意義
所謂“機(jī)器人刑法”,就是賦予機(jī)器人或者“電子人”真正的法律地位,其享有權(quán)利,也要承擔(dān)相應(yīng)的責(zé)任[20]。為了填補(bǔ)人工智能犯罪的處罰漏洞,德國學(xué)者拉塞·夸爾克(Lasse Quarck)認(rèn)為:“無論是出于法律政策還是從刑罰目的理論層面考慮,電子人地位的采用都是有意義和必要的。對實現(xiàn)一般預(yù)防目的而言,僅確定可罰性是不夠的,還必須向社會大眾明確說明已實施的不法行為之可罰性,通過盡可能適當(dāng)?shù)牧啃?,對罪?zé)非難進(jìn)行量化,具體包括進(jìn)行公益勞動、對機(jī)器人的身體進(jìn)行干預(yù)、執(zhí)行算法所違反規(guī)范的內(nèi)容而進(jìn)行重新編程、關(guān)閉機(jī)器人。人工智能的可罰性由此成為可能?!盵21]毫無疑問,這樣的設(shè)想無疑只有通過新的立法才能實現(xiàn)。
相對于上述立法論思路,有學(xué)者從哲學(xué)層面重新解釋“什么是人”,并認(rèn)為應(yīng)當(dāng)擺脫“人類中心主義”的桎梏,承認(rèn)“人工道德”(artificial morality)的存在[22],并且認(rèn)為“人工道德智能體”本就可以承擔(dān)責(zé)任[23]。如果承認(rèn)人工道德,那么就可以對行為、責(zé)任與歸責(zé)等傳統(tǒng)刑法關(guān)鍵詞進(jìn)行“機(jī)器人視域”下的重新詮釋。例如,德國學(xué)者希爾根多夫(Eric Hilgendorf)就認(rèn)為,在擺脫“人類獨一無二”的思想后,這些關(guān)鍵詞完全可以從機(jī)器人的視角進(jìn)行解釋。其一,人類遵守規(guī)則的行為模式與機(jī)器人依照指令的行為模式并無本質(zhì)不同;其二,既然擬制的法人可以承擔(dān)責(zé)任,那么機(jī)器人也可以承擔(dān)責(zé)任;其三,只要機(jī)器人能在對與錯之間進(jìn)行抉擇,意志自由的問題完全可以被懸置[24]??偟膩碚f,以機(jī)器人視角對刑法進(jìn)行不同以往的全新解釋,也可以填補(bǔ)機(jī)器人犯罪的處罰漏洞。
筆者認(rèn)為,不論是采取立法論思路還是解釋論思路,都將面臨如下無法解決的難題:一方面,從立法與解釋這一對范疇來看,就立法路徑而言,如果人類都無法理解機(jī)器人某些具有自主性的行為,又怎么能夠創(chuàng)設(shè)出一部預(yù)防機(jī)器人犯罪的法律?就解釋路徑而言,既然要賦予機(jī)器人獨立于人類的“人工道德”,那么對與錯的標(biāo)準(zhǔn)為什么還要由人工的算法來決定?另一方面,從報應(yīng)與預(yù)防這一對范疇來看,如果懲罰機(jī)器人是為了實現(xiàn)對不法的報復(fù),滿足人類的正義需求,那么依據(jù)什么認(rèn)為人類真正想譴責(zé)的是機(jī)器人而不是機(jī)器背后的生產(chǎn)者或使用者?如果懲罰機(jī)器人是為了實現(xiàn)犯罪預(yù)防,對于不具可解釋性的機(jī)器人行為如何可能?總之,只要“技術(shù)奇點”還未到來,只要機(jī)器人還沒發(fā)展到真正的強(qiáng)人工智能,法律就依然是人的法律。
(三)如何將生成式人工智能所造成的法益侵害歸屬于生產(chǎn)者或使用者
既然生成式人工智能可以獨立創(chuàng)設(shè)并實現(xiàn)法所不容許的風(fēng)險,且由人工智能產(chǎn)品本身承擔(dān)刑事責(zé)任并無意義,那么為了設(shè)計出填補(bǔ)處罰漏洞的理想路徑,就依然要關(guān)注人工智能產(chǎn)品的生產(chǎn)者與使用者。既然人工智能仍處在不斷快速發(fā)展的階段,且人工智能犯罪的刑法規(guī)制主要也是前瞻式的預(yù)防而非回顧式的報應(yīng),那么理想規(guī)制路徑的設(shè)計就應(yīng)當(dāng)是一個風(fēng)險分配問題,即在科技發(fā)展與人類安全之間進(jìn)行價值權(quán)衡。與此同時,既然生成式人工智能的刑法規(guī)制首先是一個結(jié)果的客觀歸屬問題,而風(fēng)險分配與客觀歸屬具有緊密的聯(lián)系[25],那么客觀歸屬的基本思想及其下位規(guī)則就可以將刑事政策層面的風(fēng)險分配轉(zhuǎn)化為教義學(xué)層面的具體準(zhǔn)則,進(jìn)而合理地將生成式人工智能產(chǎn)品所創(chuàng)設(shè)并實現(xiàn)的風(fēng)險歸屬于生產(chǎn)者或使用者。
三、通過風(fēng)險分配填補(bǔ)生成式人工智能的刑法處罰漏洞
風(fēng)險預(yù)防的前提是風(fēng)險管轄(Risikozustndigkeit),即“風(fēng)險屬于誰的管轄范圍,誰便需要對風(fēng)險及由此產(chǎn)生的結(jié)果負(fù)責(zé)” [26]。德國學(xué)者金德霍伊澤爾(Urs KindHuser)將其界定為:“如果某人單獨或者和他人共同地創(chuàng)設(shè)了一種條件,這種條件使得發(fā)生符合構(gòu)成要件的結(jié)果的可能性(相比于原來的情況)在客觀上得到提高,那么,這個人就要為這個風(fēng)險以及由該風(fēng)險產(chǎn)生的結(jié)果負(fù)責(zé)?!盵27]風(fēng)險管轄創(chuàng)設(shè)了行為人的注意義務(wù),但“風(fēng)險由誰管轄”并不能由風(fēng)險概念本身解答,而只能求諸刑法之外的技術(shù)規(guī)范。
(一)風(fēng)險分配的前提:人工智能創(chuàng)設(shè)并實現(xiàn)的是法所不容許的風(fēng)險
英國學(xué)者布朗斯沃德(Roger Brownsword)認(rèn)為,當(dāng)前世界正處于通過技術(shù)解決方案實現(xiàn)風(fēng)險預(yù)防的法律3.0時代[28]。在這個時代,法律人的主要任務(wù)是根據(jù)相關(guān)領(lǐng)域的專家意見,對科技發(fā)展帶來的新風(fēng)險進(jìn)行法律層面的規(guī)范評價??萍籍a(chǎn)品總是會產(chǎn)生人類在某個時間節(jié)點無法完全預(yù)測的風(fēng)險,但是,無法完全預(yù)測的風(fēng)險不等于不被容許的風(fēng)險,只有不被容許的風(fēng)險才能被歸屬于不法行為。之所以在人工智能犯罪中提出法所不容許的風(fēng)險,是為了強(qiáng)調(diào)平衡科技發(fā)展與人類安全的重要性[29],即使人們對前沿科技領(lǐng)域并無充足的風(fēng)險認(rèn)知,也不能違背經(jīng)濟(jì)社會的發(fā)展規(guī)律而一概禁止科技創(chuàng)新。例如,若讓生產(chǎn)者承擔(dān)生成式人工智能在不具可解釋性算法決策下造成的所有法益侵害,無異于對企業(yè)創(chuàng)新宣告“死刑”,但如果有原則、規(guī)則明確限定了科技發(fā)展不得觸碰的界限,企業(yè)就可以在法無禁止的領(lǐng)域安心發(fā)展。
對于容許性風(fēng)險的判斷標(biāo)準(zhǔn)問題,希爾根多夫認(rèn)為,提出容許性風(fēng)險這一概念,是為了“避免將在可帶來積極結(jié)果的新技術(shù)的適用過程中產(chǎn)生的、被社會倫理所接受的風(fēng)險在刑法上被評價為不法”[30]。既然不可能將新技術(shù)拒之門外,就應(yīng)當(dāng)基于既有的科學(xué)認(rèn)知,對人工智能的法律風(fēng)險進(jìn)行某些前瞻式的判斷,從蒸汽機(jī)到汽車飛機(jī),再到當(dāng)前的核技術(shù),人類一直都在科技風(fēng)險與人類安全之間進(jìn)行立場抉擇,事實證明,雖然人類抉擇往往會承受不小的代價,但技術(shù)發(fā)展往往就是在不斷試錯中實現(xiàn)的。如波普爾(Karl Popper)所言:“我們不知道,我們只能猜測。”[31]從法律角度而言,只有設(shè)置某些原則、規(guī)則,才能避免人們在風(fēng)險面前不知所措,而這些原則、規(guī)則就在刑法外的技術(shù)規(guī)范之中。
(二)技術(shù)規(guī)范作為容許性風(fēng)險的判斷標(biāo)準(zhǔn)
基于法律不可避免的抽象性,若要使刑法規(guī)范實現(xiàn)指引功能,就必須對其進(jìn)行一定程度的具體化。德國學(xué)者穆爾曼(Uwe Murmann)認(rèn)為,行為規(guī)范的具體化可以通過前置于刑法的交往規(guī)范(Verkehrsnorm)實現(xiàn),特別是技術(shù)領(lǐng)域明確的安全標(biāo)準(zhǔn),對這些具體規(guī)則的違反也就是對刑法上行為規(guī)范的違反[32]254-255。我國也有學(xué)者認(rèn)為,應(yīng)當(dāng)根據(jù)技術(shù)規(guī)范,從容許性風(fēng)險的角度判斷人工智能犯罪中生產(chǎn)者、設(shè)計者與使用者的責(zé)任[33]。若容許性風(fēng)險的判斷要依賴技術(shù)規(guī)范,那么技術(shù)規(guī)范來源于何處以及如何對技術(shù)規(guī)范進(jìn)行體系化的加工就是亟待回應(yīng)的兩個問題。
其一,對于生成式人工智能技術(shù)規(guī)范的來源問題,《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》)進(jìn)行了較為全面的整合。一方面,《辦法》本就規(guī)定了當(dāng)下較為重要的技術(shù)規(guī)范,例如第四條第(二)項“在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視”,第七條第(一)項“使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型”,就分別從人工智能算法的大數(shù)據(jù)準(zhǔn)備與大數(shù)據(jù)運算等方面進(jìn)行了規(guī)定。另一方面,《辦法》第一條還指明了其他法律中可被運用的技術(shù)規(guī)范,例如《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護(hù)法》《中華人民共和國科學(xué)技術(shù)進(jìn)步法》等法律、行政法規(guī)。此外,《辦法》也提出了規(guī)制生成式人工智能犯罪所應(yīng)遵循的刑事政策立場,即第三條規(guī)定的“國家堅持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管”。不過,這些技術(shù)規(guī)范依然需要進(jìn)行一定的體系化加工,才能被更好地用于生成式人工智能犯罪的客觀歸屬判斷。
其二,技術(shù)規(guī)范的體系化應(yīng)以刑法中危害結(jié)果的客觀歸屬判斷為中心。我國有學(xué)者認(rèn)為:“未來人工智能刑法規(guī)制中‘技術(shù)規(guī)范’拓展至全方位動態(tài)技術(shù)監(jiān)管體系,需要進(jìn)一步固定與設(shè)計技術(shù)法律規(guī)范的概念標(biāo)準(zhǔn),需要進(jìn)一步完善和加強(qiáng)技術(shù)法律規(guī)范的具體制度,在搭建起數(shù)據(jù)安全動態(tài)監(jiān)管框架的基礎(chǔ)之上,需要考慮進(jìn)行框架內(nèi)具體的技術(shù)規(guī)范制度設(shè)計與填充。”[34]從對人工智能的全過程動態(tài)監(jiān)控思想來看,這當(dāng)然是較為妥當(dāng)?shù)脑O(shè)計,但很難就生成式人工智能在具體案件中的結(jié)果歸屬提供可靠的判斷標(biāo)準(zhǔn)。
筆者認(rèn)為,《辦法》在刑事政策與刑法規(guī)范這兩個層面都進(jìn)行了較為明確的規(guī)定:一方面,《辦法》第三條規(guī)定了“國家堅持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展”,這說明在風(fēng)險分配問題上,立法者采取了略微偏重科技發(fā)展并兼顧人類安全的刑事政策立場,因而即使生成式人工智能不具可解釋性而導(dǎo)致了法益侵害結(jié)果,也可以將其歸屬于生產(chǎn)者或使用者,只是要施加一定的限制;另一方面,《辦法》還對“準(zhǔn)備、運算與生成”人工智能的三個主要的運行階段進(jìn)行了規(guī)定[35],如準(zhǔn)備階段的數(shù)據(jù)來源、模型的合法性要求(第七條),運算階段的數(shù)據(jù)標(biāo)注、數(shù)據(jù)抽檢以及數(shù)據(jù)真實性、準(zhǔn)確性、客觀性、多樣性的要求(第七條、第八條),以及生成階段的簽約使用協(xié)議(第九條)、明確適用對象、場景(第十條)、個人信息保護(hù)(第十一條)、深度合成標(biāo)識(第十二條)等要求。對于判斷生產(chǎn)者或使用者應(yīng)否承擔(dān)生成式人工智能所創(chuàng)設(shè)并實現(xiàn)的風(fēng)險而言,過程式的、體系化的技術(shù)規(guī)范足以提供明確的指引,接下來的問題就是,如何將技術(shù)規(guī)范運用到客觀歸屬的具體判斷之中。
(三)技術(shù)規(guī)范違反與風(fēng)險分配
若人工智能產(chǎn)品的生產(chǎn)者或使用者違反技術(shù)規(guī)范,即可被視為創(chuàng)設(shè)了法所不容許的風(fēng)險,但就結(jié)果的客觀歸屬而言,還需要確認(rèn)不被容許的風(fēng)險得以實現(xiàn),才能最終將法益侵害結(jié)果歸屬于生產(chǎn)者或使用者。這主要涉及客觀歸屬的義務(wù)違反性關(guān)聯(lián)問題。義務(wù)違反性關(guān)聯(lián)是指,法益侵害必須是違反注意義務(wù)的行為所造成的,若行為人遵守注意義務(wù)也無法避免法益侵害結(jié)果的發(fā)生,就不具有注意義務(wù)與法益侵害結(jié)果之間的關(guān)聯(lián)性,風(fēng)險就不能被評價為是由行為人實現(xiàn)的。在人工智能時代,對義務(wù)違反性關(guān)聯(lián)可能存在不同的理解。例如,瑞士學(xué)者比揚·法塔赫-穆加達(dá)姆(Bijan Fateh-Moghadam)就認(rèn)為:“由于人工智能系統(tǒng)的決策根據(jù)在科學(xué)上的可解釋性存在局限,這也導(dǎo)致了義務(wù)違反性關(guān)聯(lián)方面的證明問題……因此人們一方面討論在制造者與運營者的責(zé)任方面突破罪責(zé)責(zé)任,即引入嚴(yán)格責(zé)任(strict liability);另一方面的討論則涉及將人的責(zé)任能力擴(kuò)張到機(jī)器人以及軟件代理(software-agenten),以此實現(xiàn)將責(zé)任從人轉(zhuǎn)移到技術(shù)上的效果?!盵36]
筆者認(rèn)為,立法者對生成式人工智能不具可解釋性的法益侵害風(fēng)險,本就通過技術(shù)規(guī)范在生產(chǎn)者與使用者之間進(jìn)行了分配,因而義務(wù)違反性關(guān)聯(lián)的判斷不應(yīng)采取一般人標(biāo)準(zhǔn),而應(yīng)使用專家標(biāo)準(zhǔn)。例如,人機(jī)共駕模式下,使用者雖然履行了安全操作義務(wù),但機(jī)器通過生成式的算法作出了生產(chǎn)者無法預(yù)見的算法決策并導(dǎo)致法益侵害結(jié)果,就不具有傳統(tǒng)意義上的義務(wù)違反性關(guān)聯(lián);但如果生產(chǎn)者使用的是生成式人工智能技術(shù),本就要承擔(dān)更大的注意義務(wù)。這是因為,《辦法》第十條對生成式人工智能技術(shù)在適用領(lǐng)域上進(jìn)行了類型化要求的指示,即“提供者應(yīng)當(dāng)明確并公開其服務(wù)的適用人群、場合、用途,指導(dǎo)使用者科學(xué)理性認(rèn)識和依法使用生成式人工智能技術(shù)”。申言之,生產(chǎn)者、使用者知道其所生產(chǎn)、使用的是生成式人工智能產(chǎn)品,就應(yīng)當(dāng)做好未知風(fēng)險可能帶來更糟糕的后果的預(yù)判,因而應(yīng)當(dāng)承擔(dān)更高的注意義務(wù)。
不過,技術(shù)規(guī)范作為前置法,雖然為智能產(chǎn)品的生產(chǎn)者與使用者創(chuàng)設(shè)了注意義務(wù),但在交通肇事、侵犯著作權(quán)以及侵犯公民個人信息等領(lǐng)域中,注意義務(wù)的規(guī)定又較為抽象、概括,這就可能導(dǎo)致一種法治風(fēng)險,即技術(shù)規(guī)范創(chuàng)設(shè)了過高的注意義務(wù)。然而,應(yīng)當(dāng)明確的是,義務(wù)違反性關(guān)聯(lián)是一個不法層面的判斷,而不法層面設(shè)置的客觀標(biāo)準(zhǔn),完全可以根據(jù)刑事政策的需求上下調(diào)整,只要能確保對危害結(jié)果的客觀歸屬不會嚴(yán)重影響科技發(fā)展的積極性,就可以在刑事政策的價值判斷中向保護(hù)人類安全這一端傾斜。特別是,生產(chǎn)者、使用者本就能夠認(rèn)識到生成式人工智能產(chǎn)品的抽象危險,只是無法精準(zhǔn)預(yù)測到其所可能導(dǎo)致的具體危險。一個使用生成式人工智能產(chǎn)品進(jìn)行寫作的人,難道不知道該產(chǎn)品具有更高的知識產(chǎn)權(quán)侵權(quán)風(fēng)險?一個將生成式人工智能技術(shù)植入自動駕駛系統(tǒng)的人,難道不清楚該自動駕駛車輛更有可能不受控制?只是在刑法尚未修改之前,在罪刑條款依舊要求具體危險或者實際侵害時,不能違反法律將結(jié)果犯、具體危險犯認(rèn)定為抽象危險犯。毋寧說,真正成問題的是,技術(shù)規(guī)范作為標(biāo)準(zhǔn)是否會對人工智能產(chǎn)品的使用者施加過高的負(fù)擔(dān),這就要求我們對生產(chǎn)者與使用者進(jìn)行不對稱的風(fēng)險分配。
(四)生產(chǎn)者與使用者之間不對稱的風(fēng)險分配
根據(jù)《辦法》第三條,應(yīng)當(dāng)對生成式人工智能服務(wù)實行包容審慎政策和分類分級的監(jiān)管。因此,在生產(chǎn)者與使用者之間分配風(fēng)險的最佳方案,應(yīng)當(dāng)是在準(zhǔn)備、運算與生成這三個階段就不同的犯罪類型進(jìn)行設(shè)計。
其一,準(zhǔn)備階段。該階段主要涉及人工智能產(chǎn)品的生產(chǎn)者。就結(jié)果的客觀歸屬而言,準(zhǔn)備階段要應(yīng)對的難題是:區(qū)分大數(shù)據(jù)基礎(chǔ)不充足的算法決策與大數(shù)據(jù)基礎(chǔ)充足但是不具可解釋性的算法決策。對于前者,有學(xué)者認(rèn)為:“在自動駕駛汽車自主控制狀態(tài)下發(fā)生交通事故的,其生產(chǎn)者、使用者和其他人員難以按照我國現(xiàn)有刑法的罪名定罪處罰……應(yīng)當(dāng)建立以生產(chǎn)者全程負(fù)責(zé)為中心的新刑事責(zé)任體系。”[37]筆者認(rèn)為,這種思路在準(zhǔn)備階段對生產(chǎn)者賦予了過低的義務(wù),卻又在運算階段為生產(chǎn)者賦予了過高的義務(wù)。一方面,準(zhǔn)備階段生產(chǎn)者不僅在算法上要符合安全標(biāo)準(zhǔn),還要盡可能確保充分的大數(shù)據(jù)基礎(chǔ),僅僅只是算法符合安全標(biāo)準(zhǔn),還不足以合法化生產(chǎn)者的行為;另一方面,如果大數(shù)據(jù)足夠充分且算法符合安全標(biāo)準(zhǔn),那么運算階段出現(xiàn)的法益侵害結(jié)果就應(yīng)當(dāng)有限地被歸屬于生產(chǎn)者,否則生產(chǎn)者就要承擔(dān)漫無邊際的風(fēng)險。只有生產(chǎn)者明知自己使用的是生成式人工智能,才能基于科技發(fā)展與人類安全的價值判斷,適當(dāng)提高其注意義務(wù)。
因此,大數(shù)據(jù)充足而不具有可解釋性的算法決策才是生成式人工智能在準(zhǔn)備階段真正要解決的問題,即生產(chǎn)者對大數(shù)據(jù)是否進(jìn)行了充分合法的挖掘,對算法是否進(jìn)行了合規(guī)的設(shè)計。在這個階段,應(yīng)當(dāng)在區(qū)分犯罪類型的基礎(chǔ)上,采取不同的風(fēng)險分配模式。一種模式是限制數(shù)據(jù)挖掘。就侵犯知識產(chǎn)權(quán)、侵害公民個人信息、侵入計算機(jī)信息系統(tǒng)等常見犯罪而言,不是要讓人工智能盡最大可能地挖掘大數(shù)據(jù),而是要盡量克制對不必要信息的收集。例如,公民個人信息應(yīng)當(dāng)以收集必要的信息為限,不能過度收集。運用ChatGPT等生成式人工智能完成文字工作,以挖掘不違反知識產(chǎn)權(quán)的內(nèi)容為限[38]。另外一種模式是追求充分?jǐn)?shù)據(jù)挖掘,自動駕駛即為典例。這是因為,生成式人工智能的算法需要依賴道路、天氣以及其他車輛的狀況等大數(shù)據(jù)基礎(chǔ)才能進(jìn)行正確運算。至少,生成式人工智能要比傳統(tǒng)的弱人工智能進(jìn)行更為充分的數(shù)據(jù)挖掘,才有資格進(jìn)入算法運算與產(chǎn)品生成階段。總的來說,無論哪種模式,都要求準(zhǔn)備階段的算法盡可能符合安全標(biāo)準(zhǔn),即要求生產(chǎn)者對生成式人工智能可能導(dǎo)致的法益侵害抱有一種桑斯坦(Cass R. Sunstein)所說的對“最差的情形”的預(yù)估[39]。
其二,運算與生成階段。運算與生成階段生產(chǎn)者與使用者均有參與,因而可以一并探討。這兩個階段需要解決兩個問題:一是算法黑箱、算法歧視的規(guī)范評價問題,二是以此為基礎(chǔ)的生產(chǎn)者與使用者的風(fēng)險分配問題。算法黑箱、算法歧視既是一個技術(shù)問題,也是一個法律問題,法律人的主要任務(wù)是根據(jù)科學(xué)家確立的科學(xué)認(rèn)知基礎(chǔ)進(jìn)行規(guī)范評價。有學(xué)者認(rèn)為:“無論是事前規(guī)制還是事后問責(zé)都需要以法律系統(tǒng)與算法系統(tǒng)的良性互動為前提……應(yīng)當(dāng)通過算法標(biāo)準(zhǔn)自我聲明機(jī)制推動軟法的‘硬化’,規(guī)范算法貼標(biāo),逐漸消滅‘無標(biāo)生產(chǎn)’,構(gòu)建軟法硬法混合算法規(guī)制模式?!盵40]這一思路,其實就是要讓科學(xué)家盡可能為算法區(qū)分出不同的標(biāo)簽,法律人就可以根據(jù)這些標(biāo)簽判斷《辦法》第四條第(五)項、第七條第(四)項等規(guī)定要求的算法透明度。然而,對于具有有限自主性的生成式人工智能而言,算法黑箱、算法歧視會以更加多樣、復(fù)雜的形式呈現(xiàn),因而期待科學(xué)家能夠為算法運算過程提供一套完整的標(biāo)簽是不現(xiàn)實的,在算法黑箱、算法歧視無法避免的基礎(chǔ)上,法律人還是要對其進(jìn)行風(fēng)險分配上的規(guī)范評價,這就涉及生產(chǎn)者與使用者之間的風(fēng)險分配問題。
就風(fēng)險分配而言,一是風(fēng)險的外部分配,即生產(chǎn)者與使用者對生成式人工智能產(chǎn)品都要有一定程度的“最差的情形”的預(yù)估;二是風(fēng)險的內(nèi)部分配,即生產(chǎn)者相對于使用者總是要承擔(dān)更高的注意義務(wù)。
就風(fēng)險的外部分配而言,要對算法的先天缺陷與后天缺陷發(fā)展出不同的技術(shù)規(guī)范,并賦予生產(chǎn)者、使用者相應(yīng)的注意義務(wù)。所謂算法的先天缺陷,是指算法本就存在算力不足、算法無解等問題[41],對于這種情形,生產(chǎn)者要進(jìn)行最大限度的人工調(diào)校,在未進(jìn)行充分調(diào)校和審查的情況下,不得隨意將人工智能產(chǎn)品投入市場。所謂算法的后天缺陷,是指生成式人工智能產(chǎn)品投入使用后,通過自主學(xué)習(xí)產(chǎn)生的算法黑箱、算法歧視。對于這種情形,要對生產(chǎn)者的責(zé)任進(jìn)行適當(dāng)?shù)臄U(kuò)張,即生產(chǎn)者對生成式人工智能可能會自主生成某些不具可解釋性的、可能導(dǎo)致更嚴(yán)重法益侵害的算法決策,要有一種“最壞的預(yù)計”。不過,如果生產(chǎn)者充分承擔(dān)了事前告知義務(wù)、事中監(jiān)控義務(wù)與事后召回義務(wù),則可以認(rèn)為義務(wù)違反性關(guān)聯(lián)并不具備,進(jìn)而否定結(jié)果的客觀歸屬。
就風(fēng)險的內(nèi)部分配而言,生產(chǎn)者與使用者所承擔(dān)的注意義務(wù)是不對稱的。一方面,對于人-機(jī)協(xié)同操作的智能產(chǎn)品,技術(shù)規(guī)范對生產(chǎn)者賦予了更高的注意義務(wù)。例如自動駕駛遇到算法故障并造成法益侵害時,應(yīng)當(dāng)由生產(chǎn)者而非使用者承擔(dān)責(zé)任[42]。這是因為,若故障較為簡單,生產(chǎn)者就應(yīng)當(dāng)預(yù)先設(shè)計應(yīng)對此類故障的算法;若故障較為復(fù)雜,則更不能苛求使用者進(jìn)行技術(shù)層面的調(diào)校。另一方面,對于完全自主的智能產(chǎn)品,應(yīng)當(dāng)由生產(chǎn)者主要承擔(dān)注意義務(wù)。例如涉及知識產(chǎn)權(quán)的內(nèi)容生成問題,ChatGPT“作為一種內(nèi)容生成技術(shù),它的行為射程和效用狀態(tài)體現(xiàn)的仍然是背后設(shè)計者和使用者的主觀意志與價值選擇”,在不涉及人工操作、調(diào)校時,知識產(chǎn)權(quán)方面的法益侵害當(dāng)然應(yīng)當(dāng)被歸屬于生產(chǎn)者,而不是使用者。
總的來說,外部的風(fēng)險分配是將生成式人工智能所造成的不具可解釋性的法益侵害有限歸屬于生產(chǎn)者或者使用者;內(nèi)部的風(fēng)險分配則是在此基礎(chǔ)上對人機(jī)協(xié)作與機(jī)器自主進(jìn)行區(qū)分,人-機(jī)協(xié)作中生產(chǎn)者承擔(dān)相對較高的注意義務(wù),機(jī)器自主中生產(chǎn)者承擔(dān)主要的注意義務(wù)。
四、科技發(fā)展與法益保護(hù)的平衡:人工智能危害結(jié)果客觀歸屬的限制
之所以要通過風(fēng)險分配來填補(bǔ)生成式人工智能的刑法處罰漏洞,是因為生產(chǎn)者與使用者知道其生產(chǎn)或使用的是具有一定程度不可解釋性的智能產(chǎn)品,因而應(yīng)當(dāng)承擔(dān)更高的注意義務(wù)。不過,從《辦法》第三條“包容審慎”的政策來看,為尋求科技發(fā)展與人類安全之間的平衡,還是要對生成式人工智能所致法益侵害的客觀歸屬進(jìn)行一定程度的限制,引入溯責(zé)禁止與自我答責(zé)等客觀歸屬理論的下位規(guī)則是較為可行的路徑。
(一)將危害結(jié)果歸屬于生產(chǎn)者的限制:溯責(zé)禁止
溯責(zé)禁止(Regressverbotsfall)是指:“一個自由答責(zé)地實施行為的行為人接續(xù)了一個事前舉止,而該事前舉止在首次行為者看來并非犯罪計劃的組成部分。該事前舉止可以說被犯罪化地‘濫用了’,最多只能對首次行為人進(jìn)行過失非難?!盵32]258我國學(xué)者將其總結(jié)為三種類型:一是狹義的溯責(zé)禁止,即前行為人的過失行為引起后行為人的故意且完全答責(zé)的行為時,前行為人原則上不可罰;二是廣義的溯責(zé)禁止,即前行為人的過失行為對后行為人自我答責(zé)的過失行為產(chǎn)生一定作用時,前行為人原則上不可罰;三是最廣義的溯責(zé)禁止,即前行為人的故意或者過失行為對后行為人自我答責(zé)的行為產(chǎn)生一定作用時,前行為人都無須承擔(dān)責(zé)任[43]。
不同于傳統(tǒng)犯罪的客觀歸屬,生成式人工智能犯罪的難題是智能產(chǎn)品在大數(shù)據(jù)基礎(chǔ)的算法決策上具有一定程度的不可解釋性,對此類智能產(chǎn)品的生產(chǎn)者、使用者負(fù)有更高的注意義務(wù),理由其實并不在于生產(chǎn)者、使用者能夠認(rèn)識到生產(chǎn)、使用行為可能導(dǎo)致某個較為具體的危害結(jié)果,而在于生產(chǎn)、使用生成式人工智能產(chǎn)品本身就存在一種抽象危險。因而,如果將生產(chǎn)者的生產(chǎn)行為視為前行為,其主觀構(gòu)成要件方面至多也是一種“危懼感”過失,即“對于預(yù)見可能性的判斷來說,并不要求具體的預(yù)見可能性,只要達(dá)到一般人所具有的危懼感的程度就足矣” [44]。因此,在生成式人工智能犯罪中,生產(chǎn)者的前行為至多只是過失引發(fā)了使用者的行為。當(dāng)然,若生產(chǎn)者故意設(shè)計某種“殺人機(jī)器”,其要么對使用者構(gòu)成直接正犯,要么利用使用者作為工具構(gòu)成間接正犯[45]。所以,基于使用者相對于生產(chǎn)者的不利地位,只有使用者存在重大過失或者故意時,才應(yīng)當(dāng)考慮狹義溯責(zé)禁止的適用。
具體而言,其一,就人機(jī)協(xié)同人工智能產(chǎn)品而言,例如ChatGPT需要使用者不斷輸入新指令、半自動車輛需要駕駛者履行必要操作等情形,若使用者存在重大過失,可以考慮對生產(chǎn)者的溯責(zé)禁止;其二,就全自動智能產(chǎn)品而言,除非使用者故意破壞智能產(chǎn)品的大數(shù)據(jù)、算法以及某些硬件,才可考慮對生產(chǎn)者的溯責(zé)禁止;其三,對于極端天氣、他人違反交通運輸管理法規(guī)肇事等生產(chǎn)者無法預(yù)見的情形,應(yīng)結(jié)合情形的特殊程度以及生產(chǎn)者對產(chǎn)品有無預(yù)先植入符合安全標(biāo)準(zhǔn)的監(jiān)控風(fēng)險與應(yīng)對風(fēng)險的算法來進(jìn)行綜合考量??傊葚?zé)禁止是一種客觀歸屬的實質(zhì)判斷,其依然要根據(jù)技術(shù)規(guī)范在科技發(fā)展與人類安全之間的價值權(quán)衡來進(jìn)行綜合考量。
(二)將危害結(jié)果歸屬于使用者的限制:有限自我答責(zé)
除根據(jù)溯責(zé)禁止規(guī)則限制將危害結(jié)果歸屬于生產(chǎn)者外,還要對自我答責(zé)原則進(jìn)行限定,以限制將危害結(jié)果歸屬于使用者。自我答責(zé),與上文提到的風(fēng)險管轄具有內(nèi)在邏輯關(guān)聯(lián)。刑法中,危害行為導(dǎo)致的法益侵害結(jié)果只能歸屬于創(chuàng)設(shè)并實現(xiàn)風(fēng)險的人。雖然行為人的行為對被害人會產(chǎn)生法益侵害風(fēng)險,但如果被害人自愿接受了風(fēng)險,就阻止了行為人對風(fēng)險的管轄。在人工智能領(lǐng)域,智能產(chǎn)品可能危害的不僅僅是生產(chǎn)者與使用者之外的第三人,還有可能是使用者本人。與此同時,生產(chǎn)者為規(guī)避自己的法律責(zé)任,一般都會以使用說明、免責(zé)聲明等方式將風(fēng)險轉(zhuǎn)嫁給使用者,在可以預(yù)見的未來,若生成式人工智能因不具可解釋性的算法決策導(dǎo)致使用者受到侵害,如何在刑法層面評價此類免責(zé)條款的效力,會在實踐與理論中引發(fā)不小的爭議[46]。筆者認(rèn)為,既要認(rèn)可自我答責(zé)理論對生產(chǎn)者責(zé)任的限制,也要限制使用者自我答責(zé)的范圍,即使用者對生產(chǎn)者只是有限的自我答責(zé)。
一方面,對于生成式人工智能產(chǎn)品的不可解釋性特點,生產(chǎn)者與使用者在生產(chǎn)之前或者使用之前都是了解的,不能因為出現(xiàn)大數(shù)據(jù)基礎(chǔ)上不可解釋的算法決策,就將其導(dǎo)致的后果一律歸屬于生產(chǎn)者。例如,在運用生成式人工智能的全自動駕駛技術(shù)時,使用者依然要遵守道路交通安全方面的法律法規(guī),在既有規(guī)范未做修訂之前,使用者并無理由基于對全自動駕駛技術(shù)的信賴就在駕駛座位上睡覺、休閑、娛樂,如果此時出現(xiàn)了無法解釋的算力不足、算法偏差且使用者可以及時調(diào)校、操作以避免風(fēng)險實現(xiàn)的情形,那么使用者受到的傷害就不能歸屬于生產(chǎn)者。毋寧說,在自動駕駛真正取得公眾對其安全性的信任,且在技術(shù)上完全達(dá)到類人的水準(zhǔn)時[47],才能允許使用者在駕駛座位上作出“不同以往的舉動”。畢竟,使用者對生成式人工智能可能出現(xiàn)的“最差的情形”也具有一定的注意義務(wù)。另一方面,即使將生成式人工智能不具可解釋性的法益侵害結(jié)果歸屬于使用者,絕大多數(shù)情形危害結(jié)果的發(fā)生并不能通過使用者對智能產(chǎn)品的操作、調(diào)校予以避免。其一,有關(guān)生成式人工智能產(chǎn)品的使用說明書、免責(zé)格式條款甚至更為具體的免責(zé)協(xié)議,都不能將生成式人工智能的法益侵害風(fēng)險全部轉(zhuǎn)嫁給使用者。一部分原因在于生產(chǎn)者相對于使用者更了解產(chǎn)品的缺陷與風(fēng)險,另外一部分原因在于生成式人工智能的不可解釋性,將未知的風(fēng)險通過民法層面的協(xié)議轉(zhuǎn)嫁給使用者并不可取,即使是被害人自陷風(fēng)險、被害人同意也要求使用者認(rèn)識到較為具體的危險,而不是某個未知的抽象危險。其二,對于生成式人工智能產(chǎn)品創(chuàng)設(shè)的不被容許的風(fēng)險,若使用者只有具備超出社會一般人的能力才能完成人工調(diào)校,那么危害結(jié)果的實現(xiàn)仍應(yīng)當(dāng)歸屬于生產(chǎn)者。這是因為,雖然法益侵害不具可解釋性,但在科技發(fā)展與人類安全的價值權(quán)衡中,立法者通過技術(shù)規(guī)范為生產(chǎn)者規(guī)定了更高的安全監(jiān)督義務(wù),即使生產(chǎn)者最終因為責(zé)任排除事由不構(gòu)成犯罪,也應(yīng)承擔(dān)相應(yīng)的民事責(zé)任[48]。
五、結(jié) 語
生成式人工智能不是純粹的工具,而是具備有限自主性的智能體,應(yīng)當(dāng)避免陷入“機(jī)器人是否具有與人類相似的自由意志與道德判斷”的事實思維,拘泥于人工智能有無認(rèn)識能力與意志能力的主觀歸責(zé)問題。應(yīng)當(dāng)注重規(guī)范思維,即如何在法律層面評價“生成式人工智能在大數(shù)據(jù)算法基礎(chǔ)上作出的不具可解釋性的算法決策”這一事實。真正的問題在于:生成式人工智能可以獨立創(chuàng)設(shè)并實現(xiàn)法所不容許的風(fēng)險,卻又無法由智能體本身承擔(dān)責(zé)任。為填補(bǔ)這一處罰漏洞,應(yīng)當(dāng)將注意力集中于客觀歸屬問題,即能否以及如何將人工智能產(chǎn)品所造成的法益侵害歸屬于生產(chǎn)者或使用者?!渡墒饺斯ぶ悄芊?wù)暫行管理辦法》等技術(shù)規(guī)范,體現(xiàn)了立法者在科技發(fā)展與人類安全之間的價值立場抉擇,因而應(yīng)當(dāng)以技術(shù)規(guī)范為依據(jù),在生產(chǎn)者與使用者之間分配風(fēng)險。一方面,只要生產(chǎn)者與使用者知道其所生產(chǎn)、使用的是生成式人工智能,就應(yīng)當(dāng)要求他們對人工智能產(chǎn)品在不可解釋性算法決策下可能造成的法益侵害有著“最壞的預(yù)計”,這也是將風(fēng)險歸屬于生產(chǎn)者、使用者的依據(jù)。另一方面,在準(zhǔn)備、運算與生成這三個階段,應(yīng)結(jié)合犯罪類型將風(fēng)險不對稱地分配給生產(chǎn)者與使用者。在準(zhǔn)備階段,由生產(chǎn)者承擔(dān)注意義務(wù);在運算與生成階段,由生產(chǎn)者承擔(dān)相對較高的注意義務(wù)。此外,既然生成式人工智能具有一定程度的不可解釋性,應(yīng)當(dāng)根據(jù)客觀歸屬理論的下位規(guī)則限制危害結(jié)果的客觀歸屬。對于生產(chǎn)者,可以根據(jù)溯責(zé)禁止原則限制結(jié)果歸屬;對于使用者,可以根據(jù)有限的自我答責(zé)原則限制結(jié)果歸屬。
參考文獻(xiàn):
[1]馬長山.數(shù)字法學(xué)的理論表達(dá)[J].中國法學(xué), 2022(3): 119-144.
[2]Max T. Life 3.0: being human in the age of artificial intelligence[M]. New York: Knopf Publishing Group, 2017:4.
[3]劉艷紅.人工智能法學(xué)研究的反智化批判[J].東方法學(xué), 2019(5): 119-126.
[4]陳景輝.數(shù)字法學(xué)與部門法劃分:一個舊題新問?[J].法制與社會發(fā)展, 2023(3):81-98.
[5]雷磊.ChatGPT對法律人主體性的挑戰(zhàn)[J].法學(xué), 2023(9): 3-15.
[6]Stuart R, Peter N. Artificial intelligence: a modern approach[M]. London: Person, 2022:19-23.
[7]Lessig L. CODE: version2.0[M]. New York: Basic Books, 2006: 81.
[8]Barfield W, Pagallo U. Advanced introduction to law and artificial intelligence[M]. Cheltenham, UK: Edward Elgar Publishing Limited, 2020:5-6.
[9]彭文華.人工智能的刑法規(guī)制[J].現(xiàn)代法學(xué), 2019(5):135-151.
[10]劉艷紅.人工智能的可解釋性與AI的法律責(zé)任問題研究[J].法制與社會發(fā)展,2022(1):78-91.
[11]Selbst A D, Powles J. Meaningful information and the right to explanation[J]. International data privacy law, 2017,7(4):233-242.
[12]Ashworth A, Zedner L. Preventive justice[M]. Oxford: Oxford University Press, 2014:1-26.
[13][德]克勞斯·羅克辛.刑事政策與刑法體系[M].蔡桂生,譯.北京:中國人民大學(xué)出版社, 2011:15-22.
[14]季衛(wèi)東.人工智能時代的法律議論[J].法學(xué)研究, 2019(6):32-49.
[15]儲陳城.人工智能時代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論[J].東方法學(xué),2018(3):27-37.
[16]江溯.人工智能作為刑事責(zé)任主體: 基于刑法哲學(xué)的證立[J].法制與社會發(fā)展,2021(3):111-127.
[17]Abbott R. The reasonable robot: artificial intelligence and the law[M]. Cambridge: Cambridge University Press, 2020:25-26.
[18][德]弗蘭克·彼得·舒斯特.自動駕駛下生產(chǎn)商的刑事責(zé)任[J].李倩,譯.蘇州大學(xué)學(xué)報(法學(xué)版),2021(3):41-50.
[19]劉憲權(quán).ChatGPT等生成式人工智能的刑事責(zé)任問題研究[J].現(xiàn)代法學(xué),2023(4):110-125.
[20]劉憲權(quán).人工智能時代機(jī)器人行為道德倫理與刑法規(guī)制[J].比較法研究,2018(4):40-54.
[21][德]拉塞·夸爾克.人工智能機(jī)器人的刑事可罰性[J],王德政,譯.中州學(xué)刊,2020(10):48-52.
[22]Mamak K. Robotics, AI and criminal law[M]. London: Routledge, 2024:26-41.
[23]Dodig Crnkovic G, ürüklü B. Robots: ethical by design[J]. Ethics and information technology, 2012, 14(1):61-71.
[24][德]埃里克·希爾根多夫.數(shù)字化、人工智能和刑法[M].江溯,劉暢, 譯.北京:北京大學(xué)出版社, 2023:133-147.
[25]勞東燕.風(fēng)險分配與刑法歸責(zé):因果關(guān)系理論的反思[J].政法論壇,2010(6):95-107.
[26]勞東燕.被允許的危險理論與過失犯的歸責(zé)[C]∥梁根林,(德)埃里克·希爾根多夫.違法性論:共識與分歧——中德刑法學(xué)者的對話(三).北京:北京大學(xué)出版社,2020:127.
[27][德]烏爾斯·金德霍伊澤爾.刑法總論教科書[M].蔡桂生,譯.北京:北京大學(xué)出版社,2015:101.
[28]Brownsword R. Law 3.0: rules, regulation, and technology[M]. Abingdon Oxon: Routledge, 2021:31-36.
[29][德]布萊恩·瓦利留斯.被允許的風(fēng)險[C].徐凌波,譯∥梁根林,(德)埃里克·希爾根多夫.違法性論:共識與分歧——中德刑法學(xué)者的對話(三).北京:北京大學(xué)出版社,2020:132.
[30][德]埃里克·希爾根多夫.現(xiàn)代技術(shù)與被允許的風(fēng)險——以自動駕駛為例[C].徐凌波,譯∥梁根林,(德)埃里克·希爾根多夫.違法性論:共識與分歧——中德刑法學(xué)者的對話(三).北京:北京大學(xué)出版社,2020:114.
[31]Popper K. The logic of scientific discovery[M]. London: Unwin Hyman,1990:278.
[32][德]烏韋·穆爾曼.德國刑法基礎(chǔ)課[M].周子實,譯.北京:北京大學(xué)出版社,2023.
[33]李本燦.自然人刑事責(zé)任、公司刑事責(zé)任與機(jī)器人刑事責(zé)任[J].當(dāng)代法學(xué),2020(3):99-109.
[34]李曉明.論人工智能刑法規(guī)制中的技術(shù)規(guī)范[J].東方法學(xué),2021(2):54-68.
[35]劉艷紅.生成式人工智能的三大安全風(fēng)險及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023(4):29-43.
[36][瑞士]比揚·法塔赫-穆加達(dá)姆.刑法中的創(chuàng)新責(zé)任:在嚴(yán)格責(zé)任、過失與容許風(fēng)險之間[J].唐志威,譯.蘇州大學(xué)學(xué)報(法學(xué)版),2022(3):48-61.
[37]皮勇.論自動駕駛汽車生產(chǎn)者的刑事責(zé)任[J].比較法研究,2022(1):55-70.
[38]叢立先,李泳霖.聊天機(jī)器人生成內(nèi)容的版權(quán)風(fēng)險及其治理——以ChatGPT的應(yīng)用場景為視角[J].中國出版,2023(5):16-21.
[39]Sunstein C R. Worst-case scenarios[M]. Cambridge, MA: Harvard University Press, 2007:1-16.
[40]衣俊霖.數(shù)字孿生時代的法律與問責(zé)——通過技術(shù)標(biāo)準(zhǔn)透視算法黑箱[J].東方法學(xué),2021(4):77-92.
[41]喻國明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從 ChatGPT 到全面智能化時代的未來[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(5):81-90.
[42]鄭志峰.論自動駕駛汽車被動接管規(guī)則[J].華東政法大學(xué)學(xué)報,2023(3):59-71.
[43]何慶仁.溯責(zé)禁止理論的源流與發(fā)展[J].環(huán)球法律評論,2012(2):34-46.
[44]陳興良.過失犯的規(guī)范構(gòu)造:以朱平書等危險物品肇事案為線索[J].比較法研究,2020(5):22-34.
[45]高銘暄,王紅.互聯(lián)網(wǎng)+人工智能全新時代的刑事風(fēng)險與犯罪類型化分析[J].暨南學(xué)報(哲學(xué)社會科學(xué)版),2018(9):1-16.
[46]孫國祥.民法免責(zé)事由與刑法出罪事由的互動關(guān)系研究[J].現(xiàn)代法學(xué),2020(4):156-170.
[47]曹建峰.論自動駕駛汽車的算法安全規(guī)制[J].華東政法大學(xué)學(xué)報,2023(2):22-33.
[48]馮玨.自動駕駛汽車致?lián)p的民事侵權(quán)責(zé)任[J].中國法學(xué),2018(6):109-132.
Generative AI and the Objective Imputation
of “Unexplainable” Infringement of Legal Interests
Abstract: The limited autonomy of generative AI stems from the unexplainability of algorithmic decisions based on big data, it means that it can independently do harm to legal interests. The existing theories are deeply involved in the subjective imputation problem of whether AI agents have the ability to be responsible, but neglect the objective imputation problem of the harm result faced by generative AI crime. Generative AI is not a strong AI, and the harm of legal interest independently created and realized by it cannot be attributed to the agent itself, and the risk of harm of legal interest caused by generative artificial intelligence should be distributed between producers and users according to technical specifications such as Measures for the Management of Generative Artificial Intelligence Services, so as to fill the loopholes in criminal law. Risk allocation is based on the value judgment position of technical specifications between scientific and technological development and human safety, which imposes a duty of care on producers and users for the possible “worst case” of unexplainable algorithmic decisions. The way of risk allocation is to carry out asymmetric risk allocation between producers and users in the three stages of preparation, operation and generation, combined with the different types of current AI crimes. In order to avoid excessive restriction on the development of science and technology, the objective imputation of harm results should be restricted according to the lower rules of objective imputation theory: one is to restrict the imputation of harm results to producers according to the principle of Regressverbot, and the other is to restrict the imputation of harm results to users according to the principle of limited self-accountability.
Key words: generative AI; unexplainability; objective imputation; risk allocation