熊 波
(華東政法大學(xué) 刑事法學(xué)院,上海 200042)
人工智能立法是我國新時代法治建設(shè)的重大現(xiàn)實課題[1],法定犯時代,人工智能犯罪屬于典型的行政犯。刑法作為后盾法,因此,相應(yīng)地,這一影響應(yīng)當(dāng)具體體現(xiàn)在刑法和行政法的相互溝通、銜接的維度之上,而并非刑法閉塞體系內(nèi)的立法方法探討。當(dāng)前,我國人工智能刑法立法研究因側(cè)重于人工智能主體性地位研究,并未體現(xiàn)法學(xué)研究的務(wù)實性和現(xiàn)實性關(guān)切,而被諸多學(xué)者認(rèn)為是在創(chuàng)造“學(xué)術(shù)泡沫”。國內(nèi)外的理論與實踐多數(shù)不承認(rèn)人工智能的主體地位[2],縱使是人工智能刑事主體地位得到部分學(xué)者的承認(rèn),國內(nèi)外的頂層政策設(shè)計也明確表示反對[3]398-450。因此,人工智能刑事法治建設(shè)應(yīng)當(dāng)立足我國本土性的實踐真問題,并非所有的問題均屬于人工智能刑法面臨的真正挑戰(zhàn)。人工智能刑法立法應(yīng)當(dāng)做好與行政性法規(guī)范的銜接工作,這便要求塑造行政前置性立法的思維和規(guī)則。
當(dāng)前,行政前置性立法規(guī)則探討存在缺失,學(xué)界較為忽視人工智能刑法的行政前置性立法的概念、特質(zhì)和價值等本體問題。
行政前置性立法的概念問題,主要是從刑法規(guī)范層面進(jìn)行研討,因為“行政法與刑法銜接的問題主要體現(xiàn)在法律條文的規(guī)定上”[4]。由于人工智能技術(shù)屬于互聯(lián)網(wǎng)技術(shù)運用的高階部分,在人工智能刑法立法并未形成的現(xiàn)實情況下,人工智能刑法立法的行政前置性方法的概念理解,可以結(jié)合現(xiàn)行刑法規(guī)制的信息網(wǎng)絡(luò)犯罪和計算機(jī)信息系統(tǒng)犯罪進(jìn)行。
以計算機(jī)信息系統(tǒng)犯罪為例,計算機(jī)信息系統(tǒng)作為人工智能基礎(chǔ)設(shè)施的主要表現(xiàn)形式之一,亦是新型人工智能犯罪重點關(guān)注的領(lǐng)域。《中華人民共和國刑法》(以下簡稱《刑法》)第285至286條的非法侵入計算機(jī)信息系統(tǒng)罪,非法獲取計算機(jī)信息系統(tǒng)數(shù)據(jù),非法控制計算機(jī)信息系統(tǒng)罪,提供侵入、非法控制計算機(jī)信息系統(tǒng)程序、工具罪,破壞計算機(jī)信息系統(tǒng)罪等罪名,在罪狀表達(dá)時采取了“違反國家規(guī)定”的立法技術(shù)?!缎谭ā返?6條對“違反國家規(guī)定”的含義進(jìn)行了解釋:“本法所稱違反國家規(guī)定,是指違反全國人民代表大會及其常務(wù)委員會制定的法律和決定,國務(wù)院制定的行政法規(guī)、規(guī)定的行政措施、發(fā)布的決定和命令?!倍捎谌珖舜蠹捌涑N瘯贫ǖ姆芍忻鞔_包含了行政性規(guī)范要求的程序和義務(wù),因此,計算機(jī)信息系統(tǒng)犯罪中的“違反國家規(guī)定”便屬于一種行政不法前置性立法。諸如此類的還有刑法規(guī)范中的“違反國家規(guī)定”“違反國家有關(guān)規(guī)定”“違反……法規(guī)”“違反……管理規(guī)定”,其屬于一種靜態(tài)層面的行為評價,違反行政法律規(guī)范就構(gòu)成了“行政不法”[5]。
但不同于行政不法前置性立法,刑法規(guī)范中還存在著部分行政程序前置性立法,其本身屬于對行政程序的動態(tài)規(guī)范運行的認(rèn)定和評價[6]。罪刑法定原則要求我們應(yīng)當(dāng)將刑法規(guī)范作為一切刑法活動的“帝王條款”。既然,刑法規(guī)范明文將行政程序作為罪名規(guī)范表述的一部分,這就表明刑法單獨對其進(jìn)行強(qiáng)調(diào),需要重點關(guān)注。而在運用“行政不法前置性”立法方法設(shè)置的空白罪狀中,則不存在行政程序的約束,其只要行政規(guī)范的靜態(tài)層面的符合即可,而并不需要行政機(jī)關(guān)開啟行政程序進(jìn)行先行判斷。
以包含“行政程序前置性”立法的拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪為例,縱使是網(wǎng)絡(luò)服務(wù)提供者在不履行法律、行政法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù)的情況下,造成了違法信息大量傳播、用戶信息泄露、刑事案件證據(jù)滅失等嚴(yán)重情形,但只要網(wǎng)絡(luò)服務(wù)提供者在相關(guān)行政監(jiān)管部門責(zé)令采取改正措施時積極配合改正的,便不構(gòu)成犯罪。其與前述“行政不法前置性”的立法方法不同的是,行政程序前置性立法為行為人設(shè)置了行政程序的積極配合義務(wù),以行政程序的先行處理來實現(xiàn)犯罪圈的限縮目的。
值得強(qiáng)調(diào)的是,行政程序前置性立法中的“行政程序”并不包括行政訴訟程序。按照行政法學(xué)界的通說觀點,“所謂行政程序,是指行政主體作出行政行為的過程中所遵循的步驟、順序、方法、方式以及時限的總和”[7]315。由此可知,行政程序的“行政性”特點在于程序性事項作出的主體是“行政機(jī)關(guān)”,而依據(jù)《中華人民共和國行政訴訟法》第1條的立法目的,行政訴訟程序是一種司法程序,該種程序的主體性特點在于程序性事項作出的主體是“人民法院”。
綜上所述,人工智能刑法立法的行政前置性是刑法應(yīng)對人工智能時代技術(shù)發(fā)展所應(yīng)當(dāng)運用的主要立法方法。其中,“行政性”是指人工智能行為等構(gòu)成要件在靜態(tài)刑法規(guī)范層面中的不法行政評價和動態(tài)行政程序執(zhí)行中的過程性、經(jīng)歷性行政評價,而“前置性”是指前者前置于人工智能犯罪行為的刑事責(zé)任評價。
如前所述,除了人工智能領(lǐng)域外,前置性立法方法在計算機(jī)信息系統(tǒng)犯罪和信息網(wǎng)絡(luò)犯罪領(lǐng)域中也有所體現(xiàn)。那么,人工智能刑法立法的行政前置性特質(zhì)在哪?其能否被其他犯罪的行政前置不法規(guī)范所涵蓋?
從《刑法》第285至286條的計算機(jī)信息系統(tǒng)犯罪的罪狀設(shè)置來看,“違反國家規(guī)定”是對網(wǎng)絡(luò)技術(shù)危害行為對封閉計算機(jī)信息系統(tǒng)空間的控制性、攻擊性和破壞性的前置行政規(guī)范評價;而從《刑法》第253條之一、286條之一的信息網(wǎng)絡(luò)犯罪的罪狀設(shè)置來看,“行政性法律、法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù)”“違反國家有關(guān)規(guī)定”是對信息網(wǎng)絡(luò)技術(shù)危害行為本身的傳播性、無物理邊界性和傳播瞬時性的前置行政規(guī)范評價[8]。雖然《刑法》第287條是利用網(wǎng)絡(luò)技術(shù)實施的傳統(tǒng)犯罪,但是其并非純粹強(qiáng)調(diào)前兩者網(wǎng)絡(luò)技術(shù)性犯罪的特質(zhì),而是指向利用互聯(lián)網(wǎng)實施的傳統(tǒng)犯罪[9],在這種情況下,前置行政不法規(guī)范的涵蓋范圍就局限于上述信息網(wǎng)絡(luò)犯罪的技術(shù)特殊性。
但是,就人工智能技術(shù)利用的特性來看,人工智能產(chǎn)業(yè)的高速發(fā)展并不僅僅局限于上述兩類網(wǎng)絡(luò)犯罪的特性。考察人工智能技術(shù)的危害特質(zhì),我們可以從“人工智能”的基本概念入手。國家標(biāo)準(zhǔn)化管理委員會和中國電子技術(shù)標(biāo)準(zhǔn)化研究院共同編制的《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》對人工智能的概念進(jìn)行了精準(zhǔn)的界定:“人工智能是利用數(shù)字計算機(jī)控制模擬、延伸和擴(kuò)張人的智能,感知環(huán)境、獲取知識并使用知識獲得最佳結(jié)果的理論、方法、技術(shù)及應(yīng)用系統(tǒng)?!盵10]5因此,人工智能最大的特性便在于:人工智能技術(shù)延伸、擴(kuò)展、模擬的對象是人類。雖然在刑法規(guī)定的計算機(jī)信息系統(tǒng)犯罪和信息網(wǎng)絡(luò)犯罪中,同樣存在這種情況。但是“網(wǎng)絡(luò)犯罪是在網(wǎng)絡(luò)空間實施的犯罪,這是網(wǎng)絡(luò)犯罪的基本特征”[11]。這就表明人工智能與上述兩類網(wǎng)絡(luò)犯罪的最大差異在于算法技術(shù)延伸、擴(kuò)展、模擬的對象不僅是人類的思想,還有人類行為的時空上的移動,而這在純粹的網(wǎng)絡(luò)空間中是無法實現(xiàn)的。因此,人工智能產(chǎn)品才能具有感知環(huán)境、與人交互、與人互補(bǔ)、連續(xù)擴(kuò)展的特性,這是人工智能深度學(xué)習(xí)的必然效應(yīng)[12]。諸如,2018年3月在美國發(fā)生的Uber無人駕駛測試車撞死行人事故以及2015年7月德國大眾汽車廠發(fā)生機(jī)器人殺人案,均屬于人工智能技術(shù)自由擴(kuò)展人類思維和現(xiàn)實活動所導(dǎo)致的技術(shù)危害。
由此可見,人工智能技術(shù)危害的實踐特質(zhì)是在人工智能的深度學(xué)習(xí)性和對人類活動時空的延伸性的技術(shù)差異中衍生而來的。在上述特質(zhì)下,人工智能產(chǎn)品可以無限擴(kuò)展人類的思維和活動空間?;诖?計算機(jī)信息系統(tǒng)犯罪的“違反國家規(guī)定”和信息網(wǎng)絡(luò)犯罪的“行政性法律、法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù)”“違反國家有關(guān)規(guī)定”等前置行政規(guī)范評價并不能涵蓋人工智能的技術(shù)危害。因而,計算機(jī)信息系統(tǒng)刑法和信息網(wǎng)絡(luò)刑法的行政前置性立法方法并不能完全契合人工智能刑法的行政前置性立法。諸如,《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》中的人工智能標(biāo)準(zhǔn)的明細(xì)表,詳細(xì)統(tǒng)計了我國已發(fā)布、在研以及擬研制的人工智能相關(guān)標(biāo)準(zhǔn)共計200項,其中已發(fā)布的就有80項,占據(jù)40%[10]61-70。而這些便是出于人工智能技術(shù)危害的特質(zhì)性而單獨制定的一種行政標(biāo)準(zhǔn)規(guī)范。
因此,在前述所言的信息網(wǎng)絡(luò)犯罪和計算機(jī)信息系統(tǒng)犯罪的行政前置性立法的現(xiàn)狀下,人工智能刑法的行政前置性立法方法并非是毫無根據(jù)或者脫離刑法體系的立法方法。但信息網(wǎng)絡(luò)犯罪和計算機(jī)信息系統(tǒng)犯罪的行政前置性立法,由于信息網(wǎng)絡(luò)犯罪、計算機(jī)犯罪與人工智能犯罪存在技術(shù)特質(zhì)的差異性,因而,人工智能刑法的行政前置性立法并不能直接照搬信息網(wǎng)絡(luò)犯罪和計算機(jī)信息系統(tǒng)犯罪的立法模式。立法者應(yīng)當(dāng)將人工智能技術(shù)危害的實踐特質(zhì)明確表述在行政前置性立法方法當(dāng)中,以突顯人工智能刑法立法的獨立性。這種獨立性體現(xiàn)在兩個方面。
其一,人工智能刑法的行政前置性立法注重全面性?!叭嫘浴敝溉斯ぶ悄苄谭⒎ǖ娜婊姓爸眯粤⒎?。在信息網(wǎng)絡(luò)和計算機(jī)刑法立法中,雖然行政前置性立法方法也為立法者運用,但是立法者考慮到當(dāng)前我國網(wǎng)絡(luò)技術(shù)和計算機(jī)技術(shù)的相對成熟性,司法者并不需要援引行政性法規(guī)范當(dāng)中的術(shù)語定義、技術(shù)標(biāo)準(zhǔn)等,就可以直接依據(jù)危害結(jié)果進(jìn)行入罪。因而,立法者并未全面地采取行政前置性立法方法,而僅是在前述部分罪名之中采取了行政前置性立法。
但是,正如前述,人工智能技術(shù)特質(zhì)在于人工智能的深度學(xué)習(xí)性和對人類活動時空的延伸性,其是不斷變化的。因而,司法者僅憑非人工智能技術(shù)專業(yè)性的刑法規(guī)范認(rèn)定每個變化過程中人工智能技術(shù)危害,完全是“天方夜譚”。而行政程序和行政不法規(guī)范因不同的行政管理領(lǐng)域,就可以直接關(guān)涉到人工智能技術(shù)的專業(yè)性規(guī)范。此時,人工智能刑法行政前置性立法注重全面性,就可以使司法者在具體運用刑法過程中,避免人工智能技術(shù)壁壘導(dǎo)致刑法適用的罪刑失衡。但是,在信息網(wǎng)絡(luò)和計算機(jī)信息系統(tǒng)的刑法立法中,行政前置性的全面立法完全沒有必要,其反而會導(dǎo)致信息網(wǎng)絡(luò)和計算機(jī)刑法立法的繁雜、冗余,不利于立法的簡潔性。
其二,人工智能刑法行政前置性立法注重雙重性?!半p重性”指“行政不法+行政程序”的雙重規(guī)則。在人工智能技術(shù)研發(fā)和產(chǎn)品運用的前期階段,人工智能技術(shù)相對于信息網(wǎng)絡(luò)或者計算機(jī)信息系統(tǒng)的技術(shù)研發(fā)和產(chǎn)品制造而言,不太成熟。并且,人工智能技術(shù)危害具有深度學(xué)習(xí)性和對人類活動時空的延伸性,因而,如果刑事立法者不借助行政程序防控不太成熟的人工智能技術(shù)前期階段潛在的風(fēng)險,一旦人工智能技術(shù)的抽象危險轉(zhuǎn)為現(xiàn)實危害,那么其就具有全球性、不可估量性與蔓延性。所以,在國內(nèi)外人工智能技術(shù)相關(guān)的法律法規(guī)之中,行政程序?qū)τ诖_保人工智能技術(shù)的研發(fā)以及人工智能產(chǎn)品的測試、生產(chǎn)、銷售和使用的安全性,發(fā)揮著舉足輕重的作用[3]398-450。諸如,人工智能技術(shù)研發(fā)的行政許可或者審批程序、人工智能產(chǎn)品測試的行政監(jiān)管程序。
立法者考慮到當(dāng)前我國網(wǎng)絡(luò)技術(shù)和計算機(jī)技術(shù)的相對成熟性,在現(xiàn)行刑法立法過程中,計算機(jī)刑法沒有采用行政程序前置性立法,信息網(wǎng)絡(luò)刑法中也僅有《刑法》第286條之一的拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪采取了行政程序前置性立法。并且該種行政程序并非是出于網(wǎng)絡(luò)技術(shù)的特性考量,僅是為了行政機(jī)關(guān)責(zé)令網(wǎng)絡(luò)平臺及時履行管理義務(wù)而設(shè)置。因此,出于防范潛在且抽象的人工智能技術(shù)危害,人工智能刑法行政前置性立法在援引術(shù)語定義、技術(shù)標(biāo)準(zhǔn)等行政不法規(guī)范之外,還需要尤其注重行政程序性立法。相較于信息網(wǎng)絡(luò)和計算機(jī)信息系統(tǒng)的現(xiàn)存的行政前置性立法,人工智能刑法行政前置性立法需要注重“行政不法+行政程序”的雙重規(guī)則。
綜上所述,人工智能技術(shù)危害的實踐特質(zhì)是在人工智能的深度學(xué)習(xí)性和算法對人類活動時空的延伸性的技術(shù)差異中衍生而來的?;谶@一實踐特質(zhì),行政前置性立法特質(zhì)體現(xiàn)在,相較于信息網(wǎng)絡(luò)和計算機(jī)刑法而言,人工智能刑法的行政前置性立法更需要注重全面性和雙重性規(guī)則。
毋庸置疑,人工智能刑法的行政前置性立法旨在強(qiáng)化刑法與行政法對人工智能法益侵害行為規(guī)制的互動銜接關(guān)系。那么人工智能刑法立法行政前置性規(guī)則的構(gòu)建,是否有其必要?這需要細(xì)致剖析人工智能刑法行政前置性的立法意義。
1.行政前置性立法有助于發(fā)揮行政不法和程序的先行評價機(jī)制,防止單獨的刑罰處罰阻礙人工智能的技術(shù)創(chuàng)新
刑法在人工智能技術(shù)產(chǎn)業(yè)推動社會轉(zhuǎn)型的過程中,發(fā)揮的作用應(yīng)始終保障并服務(wù)于人工智能技術(shù)競爭和社會發(fā)展。尤其是當(dāng)前人工智能作為一種新型技術(shù)發(fā)展,在我國乃至國際上仍屬于智能產(chǎn)業(yè)初期的發(fā)展階段,塑造行政前置性立法規(guī)則,強(qiáng)調(diào)行政不法和程序的先行評價機(jī)制,有助于推動人工智能的技術(shù)創(chuàng)新。其一,行政前置的先行機(jī)制有助于契合刑法的第二次保障機(jī)制,防止刑法獨立擴(kuò)充人工智能犯罪的行為概念和類型。其二,行政前置的先行機(jī)制為不被允許的人工智能刑事風(fēng)險的認(rèn)定,提供了具體評價標(biāo)準(zhǔn)[13]。只有在行政前置的先行評價機(jī)制明確回應(yīng)了技術(shù)發(fā)展的最合理的形式和類型之后,我們才能確定超過合理技術(shù)的具體樣態(tài)和行政標(biāo)準(zhǔn)的人工智能危害行為是否屬于值得刑法評價的犯罪行為。
2.行政前置性立法契合人工智能危害行為的抽象性和分散性,有利于保障人工智能刑事歸責(zé)的專業(yè)性
人工智能作為互聯(lián)網(wǎng)技術(shù)產(chǎn)業(yè)的新生事物,其危害行為由于存在場域的虛擬性,而具有不同于傳統(tǒng)犯罪行為的不可直觀性、純粹技術(shù)性的抽象屬性。在行政前置性法規(guī)范的立法規(guī)則下,刑事司法者不應(yīng)當(dāng)承擔(dān)諸如“人工智能”“信息網(wǎng)絡(luò)”等純粹的專業(yè)技術(shù)性概念解釋的任務(wù),而只需對“情節(jié)嚴(yán)重”等定罪量刑的具體標(biāo)準(zhǔn)進(jìn)行界定。而由于前置不法規(guī)范的本質(zhì)屬性在于抽象行政行為,其代表的是行政性規(guī)范文件對不特定人或事項的約束力。再加上,行政法規(guī)范的目的在于實現(xiàn)廣泛性、復(fù)雜性公共事務(wù)的管理[14]。因此,前置行政不法規(guī)范包括的行為概念和類型可以是具體的、多樣的。如此一來,在人工智能刑法中加入行政前置性立法方法,刑事司法者無疑可以將定罪量刑以外的純粹專業(yè)技術(shù)性概念的解釋性工作,交于前置行政法規(guī)范予以解決,其僅專注于人工智能犯罪中的專業(yè)化和精確化的定罪量刑工作即可。
3.行政前置性立法能夠防止人工智能刑法的重復(fù)性立法,有利于立法者重點聚焦人工智能的特質(zhì)性對刑法立法的挑戰(zhàn)
當(dāng)下,人工智能刑法學(xué)研究乃至法學(xué)研究并未如同人工智能社會轉(zhuǎn)型一樣,實現(xiàn)質(zhì)的突破,因而被部分學(xué)者認(rèn)為人工智能法學(xué)研究只是在徒增“學(xué)術(shù)泡沫”[15]。人工智能法學(xué)研究中的“學(xué)術(shù)泡沫”除了過于關(guān)注人工智能的主體性地位之外,還存在將本不屬于人工智能技術(shù)特質(zhì)的行為類型作為立法建議的依據(jù),導(dǎo)致人工智能刑法立法的效率低下、重復(fù)性現(xiàn)象大量出現(xiàn)[16]。而此類現(xiàn)象出現(xiàn)的根本原因在于:缺乏前置行政不法規(guī)范對人工智能刑法立法的約束性思維。但筆者認(rèn)為上述觀點評價的人工智能犯罪現(xiàn)象,如同《刑法》第287條一樣,屬于利用人工智能技術(shù)實施的傳統(tǒng)犯罪,是一種傳統(tǒng)犯罪網(wǎng)絡(luò)異化的表現(xiàn),并未突顯人工智能刑法立法的行政前置性法規(guī)范所涵蓋的行為特質(zhì),上述立法方案屬于一種重復(fù)性、情緒性或者間斷性立法的表現(xiàn)。因此,充分利用好行政前置性立法,梳理并排除人工智能與信息網(wǎng)絡(luò)犯罪和計算機(jī)信息系統(tǒng)犯罪的同質(zhì)性在立法中的影響,有利于立法者重點聚焦并回應(yīng)人工智能的特質(zhì)性對刑法立法的挑戰(zhàn),防止人工智能刑法的重復(fù)性立法。
4.行政前置性立法相較于單一化的刑法立法方法,有利于實現(xiàn)人工智能技術(shù)的不同危害行為的等級評價
在人工智能技術(shù)的深度學(xué)習(xí)性和對人類活動時空的延伸性的特質(zhì)下,人工智能犯罪所致的危害行為的程度應(yīng)當(dāng)是不同的。諸如,人工智能醫(yī)療器械在銷售階段的風(fēng)險,一般存在三種類型:第一,人工智能醫(yī)療器械在銷售時,被不法分子植入干擾算法系統(tǒng)深度學(xué)習(xí)的病毒。第二,被植入上述病毒的人工智能醫(yī)療器械,銷售者未經(jīng)過行政登記或者故障排除就直接售賣給醫(yī)院。第三,被植入上述病毒的人工智能醫(yī)療器械,在未經(jīng)銷售者的行政登記或者故障排除后,被醫(yī)院直接運用于手術(shù)治療中,造成多人重傷、死亡。
上述情形中,如果是第一種或者第二種類型,在未發(fā)生任何醫(yī)療事故時,刑法考慮到不法分子屬于初犯、偶犯,可以直接交由公安機(jī)關(guān)進(jìn)行一般的行政處罰;銷售者也可以僅予以一般的行政處罰。但是,在第一、第二種類型下,如果不法分子為慣犯,且植入病毒的危害性較大,同樣銷售者并非僅銷售一臺醫(yī)療器械;或者是在第三種類型下進(jìn)行銷售的。那么,可以肯定的是,單獨的行政處罰并不足以發(fā)揮法律體系對嚴(yán)重危害行為的完全評價機(jī)能。此時,對于銷售者而言,吊銷營業(yè)執(zhí)照的行政處罰和單位犯罪的刑罰處罰則可以并科。因為,在第一、第二種類型下,不法分子的植入行為和銷售者的未經(jīng)過行政登記或者故障排除的行為,僅處于人工智能醫(yī)療器械系統(tǒng)的靜態(tài)的深度學(xué)習(xí)過程,而并不牽涉第三類行為的“醫(yī)生治療行為的時空延伸性”風(fēng)險。
由此可見,人工智能風(fēng)險是否需要單獨由行政處罰進(jìn)行規(guī)制,是由深度學(xué)習(xí)性和時空延伸性特質(zhì)所致的不同危害行為所決定的。人工智能刑法在缺乏行政前置性立法時,單一化的刑法立法很有可能突破刑法的謙抑性原則,對人工智能的技術(shù)危害“大包大攬”。因而,行政前置性立法能夠滿足現(xiàn)實中不同程度的人工智能危害行為的分級評價需求。
既然“行政前置性”對于人工智能刑法立法而言,發(fā)揮著舉足輕重的作用。那么,如何具體設(shè)計人工智能刑法立法的行政前置性規(guī)則,便是本部分需要重點解答的問題。其中,人工智能刑法的“行政不法前置化”立法是首要方法。
行為是犯罪概念的基礎(chǔ)事實或基本要素,不僅如此,其在階層論和構(gòu)成要件論的犯罪認(rèn)定方法中,也是各要素評價的主要對象[17]。同樣,這在行政法規(guī)范中亦是如此[7]336。因此,筆者擬首先從人工智能危害行為的行政前置化規(guī)則構(gòu)建著手進(jìn)行探討。而人工智能危害行為的類型化可以依據(jù)人工智能的技術(shù)、產(chǎn)品的發(fā)展特點,劃分為人工智能技術(shù)的研發(fā)階段,人工智能產(chǎn)品的生產(chǎn)、銷售、測試和使用階段。
第一,人工智能犯罪屬于典型的行政犯,在法定犯時代,自然犯中的利用人工智能手段殺人、放火、搶劫、盜竊、詐騙等行為類型,就不屬于行政不法前置性立法規(guī)則所需要考慮的行為范圍。因為,此類犯罪行為僅是犯罪手段或者工具的更新,其在行為要件的本質(zhì)屬性和法益類型評價上,與傳統(tǒng)犯罪并不存在任何差異。
第二,縱使是在人工智能行政犯的類型中,也并非是所有的人工智能犯罪行為類型,均是行政不法前置性立法規(guī)則涵蓋的范圍。因為,在現(xiàn)行刑法的其他罪名涵蓋的行為類型中,利用人工智能犯罪的行為并未突破原有罪名的構(gòu)成要件涵攝的范圍和保護(hù)法益的具體類型[18]。諸如,汽車制造商、車載操作軟件提供商如果提供瑕疵的人工智能傳感器,導(dǎo)致交通事故的,其本身就屬于《刑法》第146條生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品的行為,刑法無需單獨設(shè)置人工智能交通肇事罪。
第三,在排除上述兩種情形后,能夠?qū)π姓环ㄇ爸眯粤⒎ㄒ?guī)則產(chǎn)生影響的行為類型是較為有限的。按照行為類型的突破點不同,筆者將其分為兩類:(1)對行為構(gòu)成要件的本質(zhì)屬性的突破。具體類型有自動駕駛汽車的危險駕駛行為,非法侵入、破壞人工智能系統(tǒng)的行為。(2)對法益類型評價的突破。具體類型有造成人工智能產(chǎn)品安全事故的行為、不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品的銷售行為。第一種是對行為要件的本質(zhì)屬性的突破,表明刑法無需再脫離原有的行政不法前置性立法規(guī)則單獨設(shè)置一個新罪名。其僅需要在相關(guān)罪名的構(gòu)成要件中,添加相應(yīng)的人工智能危害行為要件即可。第二種是對法益類型評價的突破,表明原有的前置行政不法規(guī)范本身保護(hù)的法益類型,已經(jīng)無法評價人工智能危害行為所侵犯的法益,刑法需要單獨設(shè)置一個新罪名,以體現(xiàn)刑法對新類型人工智能法益的單獨保護(hù)。
綜上,結(jié)合刑法立法原理,真正能夠?qū)π谭óa(chǎn)生挑戰(zhàn)的人工智能危害行為類型僅有四類:銷售不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品的行為,使用階段造成人工智能產(chǎn)品安全事故的行為,自動駕駛汽車的危險駕駛行為,非法侵入、破壞人工智能系統(tǒng)的行為。
在確立真正能夠?qū)π谭⒎óa(chǎn)生挑戰(zhàn)的人工智能危害行為類型之后,我們就需要具體構(gòu)建人工智能刑法的行政不法前置性立法規(guī)則。
1.立法者需要對銷售不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品行為設(shè)置抽象危險犯
人工智能產(chǎn)品的技術(shù)危害與傳統(tǒng)犯罪領(lǐng)域中的產(chǎn)品安全危害不同,雖然,本質(zhì)上兩者均涉及日常生活和工作用品,且服務(wù)于經(jīng)濟(jì)、校園、生活等各行各業(yè);但是,人工智能的深度學(xué)習(xí)性和對人類活動時空的延伸性,決定了智慧經(jīng)濟(jì)、智慧校園、智慧生活、智慧醫(yī)療等人工智能產(chǎn)品的運用,能夠較傳統(tǒng)產(chǎn)品的領(lǐng)域更為迅速、更為普惠。而且,人工智能產(chǎn)品并不需要人類的持續(xù)性操控和隨時性監(jiān)管,其自身能夠通過外在環(huán)境的數(shù)據(jù)傳輸和感應(yīng),實現(xiàn)人類時空脫離的自主操作。因此,在人工智能產(chǎn)品及其相關(guān)測試平臺的銷售和使用階段,基礎(chǔ)設(shè)施系統(tǒng)的安全性、算法數(shù)據(jù)的正義性和全面性就顯得格外重要。
但是,現(xiàn)行刑法在規(guī)制產(chǎn)品銷售導(dǎo)致的嚴(yán)重法益侵害時,是基于傳統(tǒng)產(chǎn)品、商品能夠在人類的持續(xù)性操控和隨時性監(jiān)管下的使用情況而設(shè)置的,其對法益的狀態(tài)評價更側(cè)重于銷售階段產(chǎn)品的現(xiàn)實危害和銷售金額。人工智能產(chǎn)品不同于人類操控指令支配下的技術(shù)服務(wù)和輸出的傳統(tǒng)產(chǎn)品,銷售不符合行政標(biāo)準(zhǔn)的傳統(tǒng)產(chǎn)品并不存在嚴(yán)重危及公共安全的潛在隱患,單個瑕疵傳統(tǒng)產(chǎn)品的法益侵害僅具有個體性、固定性,且法益侵害風(fēng)險較易被發(fā)現(xiàn)和排除。但人工智能產(chǎn)品使用的危害特性恰好完全與之相反。
基于此,人工智能產(chǎn)品并不能簡單依附于《刑法》第140、145、146條的行政前置不法規(guī)范的評價,前文所述的《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》中的200項不同的人工智能相關(guān)標(biāo)準(zhǔn),就已經(jīng)表明了兩者不可等同視之。在后續(xù)的人工智能刑法立法中,立法者應(yīng)當(dāng)明確依據(jù)人工智能相關(guān)產(chǎn)品(包括測試平臺)的國家標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn),對擱置許久的人工智能相關(guān)產(chǎn)品,在最后出售前未經(jīng)內(nèi)部環(huán)節(jié)的評測、檢驗,就隨意出售給使用者的行為,設(shè)置抽象危險犯。
2.立法者需要對人工智能產(chǎn)品使用階段的制造安全事故、危險駕駛、非法侵入、破壞系統(tǒng)等三類危害行為增設(shè)涵蓋行政不法規(guī)范的新罪名或條款
人工智能行業(yè)發(fā)展的主要動力來源于“深度學(xué)習(xí)算法”“海量計算資源”“大數(shù)據(jù)資源”。“深度學(xué)習(xí)算法”是對系統(tǒng)功能本身的要求,“海量計算資源”“大數(shù)據(jù)資源”是對外在數(shù)據(jù)的質(zhì)量和數(shù)量的要求[19]??梢?在人工智能產(chǎn)品的使用階段,可以預(yù)想的是,行政先行評價機(jī)制中,產(chǎn)品的使用者除了要履行確保人工智能基礎(chǔ)設(shè)施平臺安全的行政義務(wù)之外,還需要履行排除輸入的數(shù)據(jù)的數(shù)量和質(zhì)量安全隱患的行政義務(wù)。
其一,刑法立法通過“人工智能產(chǎn)品使用安全的行政性法規(guī)范”評價人工智能產(chǎn)品安全事故的行為。人工智能產(chǎn)品在使用過程中,通常是用于公共服務(wù)行業(yè)。諸如,公共服務(wù)機(jī)器人、酒店服務(wù)機(jī)器人、銀行服務(wù)機(jī)器人、場館服務(wù)機(jī)器人、餐飲服務(wù)機(jī)器人在公共場所的使用。人工智能機(jī)器人作為自動化技術(shù)的重大成就,機(jī)器人和人類社會的生產(chǎn)、生活密不可分。有數(shù)據(jù)統(tǒng)計顯示:2016年全球機(jī)器人數(shù)量接近30萬,2019年增至41.4萬。當(dāng)前全球機(jī)器人數(shù)量年均增長率約為15%,中國是推動機(jī)器人市場繁榮發(fā)展的最大“發(fā)動機(jī)”[20]。智能機(jī)器人完全展現(xiàn)了人工智能的特質(zhì)性,其既可以按照人類預(yù)先編程好的算法結(jié)構(gòu)運行,又可根據(jù)深度學(xué)習(xí)系統(tǒng)感知環(huán)境變化進(jìn)行自主操作。而由于商業(yè)機(jī)密的保護(hù)需要,人工智能算法系統(tǒng)的數(shù)據(jù)輸入到模型輸出的學(xué)習(xí)過程均存在著不透明性[21]。因此,在這一“算法黑箱”下,一旦行為人不熟悉算法運行結(jié)構(gòu),疏忽大意或者過于自信地違反了人工智能基礎(chǔ)設(shè)施平臺安全和輸入的數(shù)據(jù)的數(shù)量和質(zhì)量安全的國家有關(guān)規(guī)定,導(dǎo)致了重大傷亡事故或者其他嚴(yán)重后果的情形,刑法應(yīng)當(dāng)設(shè)置人工智能活動事故罪對其予以評價。而在現(xiàn)行刑法規(guī)定的事故類犯罪的罪名之中,《刑法》第134至139條之一均是屬于對特定生產(chǎn)、工作行業(yè)事故的規(guī)制,因而,上述罪名規(guī)定的前置行政不法規(guī)范均無法獨立涵蓋“違反人工智能產(chǎn)品使用安全的法律、法規(guī)”的行為。因此,立法者有必要比照事故類犯罪的立法模式,單獨設(shè)置“人工智能安全事故罪”。
其二,刑法立法通過“自動駕駛的相關(guān)國家規(guī)定”防范自動駕駛汽車的危險駕駛行為風(fēng)險。自動駕駛汽車可以說是人工智能產(chǎn)品使用階段中最受歡迎的智能工具,2018年4月3日,工業(yè)和信息化部、公安部、交通運輸部聯(lián)合印發(fā)了《智能網(wǎng)聯(lián)汽車道路測試管理規(guī)范(試行)》,其中,第9條規(guī)定了測試主體需要確保智能網(wǎng)聯(lián)機(jī)動車的安全技術(shù)和自動駕駛等功能檢驗合格的行政義務(wù)要求。除此之外,根據(jù)美國高速公路安全管理局推出的《自動駕駛汽車的分級標(biāo)準(zhǔn)》(NHTSA),該標(biāo)準(zhǔn)按照智能化、自動化的程度將智能網(wǎng)聯(lián)汽車分為4個等級,其中L1-L3屬于駕駛支援和部分、有條件的自動化駕駛[3]78-79。這就表明,在不同程度和等級的自動化技術(shù)情況下,危險駕駛的認(rèn)定方式也有所不同。我國《刑法》第133條之一危險駕駛罪的規(guī)定,采取的是四類封閉式的行為方式列舉:“追逐競駛、醉酒駕駛、超載超速行駛以及運輸危險化學(xué)品駕駛”,但其均無法包括人類駕駛員或者測試主體未確保智能傳感、攝像、雷達(dá)感知等設(shè)備的安全性能或者未履行半自動化駕駛的監(jiān)控職責(zé)等危險駕駛行為。按照《中華人民共和國網(wǎng)絡(luò)安全法》(以下簡稱《網(wǎng)絡(luò)安全法》)第31條的規(guī)定,交通屬于國家在網(wǎng)絡(luò)安全等級保護(hù)制度的基礎(chǔ)上,重要保護(hù)的網(wǎng)絡(luò)基礎(chǔ)設(shè)施安全的行業(yè)和領(lǐng)域,保護(hù)的具體范圍和具體辦法由國務(wù)院制定。因此,《刑法》第133條之一的危險駕駛罪有必要將智能網(wǎng)聯(lián)汽車的危險駕駛行為納入該條之中,增設(shè)第5項“(五)違反自動駕駛的國家規(guī)定,危及公共安全的”智能網(wǎng)聯(lián)汽車危險駕駛罪。
其三,刑法立法通過“人工智能系統(tǒng)管理安全的行政性法規(guī)范”規(guī)制侵入、破壞或干擾行為。在人工智能算法編程的不透明性、不公開性的情況下,除編制基礎(chǔ)設(shè)施及其運行數(shù)據(jù)的研發(fā)者以及輸入的功能算法數(shù)據(jù)的使用者,能夠熟知相應(yīng)階段的算法數(shù)據(jù)外,不熟悉算法運行結(jié)構(gòu)的行為人,侵入甚至破壞人工智能算法系統(tǒng),或者破壞人工智能基礎(chǔ)設(shè)施系統(tǒng)存儲、處理、傳輸?shù)乃惴〝?shù)據(jù)的,將極易誘發(fā)智能數(shù)據(jù)運行亂碼的潛在危險。以阿里云ET城市大腦為例,“2017年底,ET城市大腦被列為首批四大新一代國家人工智能開放創(chuàng)新平臺之一,被認(rèn)為是人工智能的‘登月計劃’,將成為接下來10年機(jī)器智能最重要的研究平臺”[22]。阿里云基礎(chǔ)設(shè)施平臺通過匯集企業(yè)數(shù)據(jù)、公安數(shù)據(jù)、政府?dāng)?shù)據(jù)、運營商等多方的城市數(shù)據(jù),借助ET大腦的深度算法學(xué)習(xí),全局、實時地發(fā)現(xiàn)城市的問題并給出相應(yīng)的優(yōu)化處理方案,同時聯(lián)動城市內(nèi)各項資源調(diào)度,以整體提升城市運行效率。由于ET城市大腦服務(wù)著多個城市群,并能及時提供問題的優(yōu)化方案,一旦行為人侵入甚至干擾、破壞此類企業(yè)的人工智能系統(tǒng)及其運行的數(shù)據(jù)的,將極有可能致使城市之間的資源調(diào)動和問題化解系統(tǒng)出現(xiàn)崩潰。雖然,按照《刑法》第285條、第286條的非法侵入計算機(jī)信息系統(tǒng)罪和破壞計算機(jī)信息系統(tǒng)罪的相關(guān)規(guī)定,對于干擾國家事務(wù)、國防建設(shè)、尖端科學(xué)技術(shù)領(lǐng)域的人工智能系統(tǒng),以及人工智能系統(tǒng)功能數(shù)據(jù)本身的行為,刑法的相關(guān)規(guī)定足以應(yīng)對上述危害,但是卻存在如下問題:第一,雖然人工智能系統(tǒng)過于專業(yè)化和技術(shù)化,但是其仍需要專業(yè)的人工智能技術(shù)和產(chǎn)品的研發(fā)公司予以維護(hù)和操作。而此類人工智能系統(tǒng)也如同《刑法》第285條特定的計算機(jī)信息系統(tǒng)一樣,承擔(dān)著輔助公共服務(wù)的決策功能。上述的阿里云ET城市大腦和部分城市采用的企業(yè)安防系統(tǒng)便屬于此類情況。而囿于第285條對計算機(jī)信息系統(tǒng)的封閉式列舉,導(dǎo)致該條的“違反國家規(guī)定”的前置行政不法規(guī)范,無法將侵入阿里云ET大腦等人工智能系統(tǒng)的危害行為納入該條立法之中。第二,在算法數(shù)據(jù)本身不存在任何質(zhì)量和數(shù)量瑕疵的情況下,行為人也有可能干擾人工智能系統(tǒng)中存儲、運行、處理的數(shù)據(jù),致使系統(tǒng)產(chǎn)生運行偏差,而該偏差并非屬于人工智能系統(tǒng)無法正常運行的情形。此時,《刑法》第286條第1、2款的“違反國家規(guī)定”的行為類型就無法將其予以涵蓋。依據(jù)《網(wǎng)絡(luò)安全法》第33條的規(guī)定,對于人工智能系統(tǒng)的基礎(chǔ)設(shè)施建設(shè),相關(guān)主體應(yīng)當(dāng)確保其具有支持業(yè)務(wù)穩(wěn)定、持續(xù)運行的性能。這就表明一般行為人還應(yīng)當(dāng)承擔(dān)不干擾智能系統(tǒng)的業(yè)務(wù)穩(wěn)定性能的行政義務(wù),而并不應(yīng)當(dāng)僅局限于人工智能系統(tǒng)的正常運行。
基于此,筆者認(rèn)為,刑法立法應(yīng)當(dāng)將《刑法》第285條中的“違反國家規(guī)定”的涵蓋范圍擴(kuò)充至人工智能系統(tǒng);在《刑法》第286條第1、2款的“違反國家規(guī)定”的涵蓋范圍中,加入干擾人工智能系統(tǒng)功能的數(shù)據(jù),致使系統(tǒng)偏離指令運行,以及干擾存儲、處理或者傳輸?shù)乃惴〝?shù)據(jù),致使人工智能無法正常運行或者偏離指令運行等行為。
綜上所述,行政不法前置性立法具體體現(xiàn)在人工智能產(chǎn)品的銷售和使用階段。具體而言:(1)立法者需要對銷售不符合行政標(biāo)準(zhǔn)的人工智能產(chǎn)品行為設(shè)置抽象危險犯;(2)立法者需要對人工智能產(chǎn)品使用階段的制造安全事故、危險駕駛、非法侵入、破壞系統(tǒng)的危害行為增設(shè)涵蓋行政不法規(guī)范的新罪名或相關(guān)條款。
根據(jù)現(xiàn)行刑法中已有的前置行政程序規(guī)范,人工智能刑事風(fēng)險規(guī)制的前置行政程序的具體表現(xiàn)形式包括行政責(zé)令、下達(dá)改正通知、行政機(jī)構(gòu)提出相關(guān)要求、行政處罰、行政許可等程序類型。根據(jù)人工智能犯罪行為在不同階段的法益侵害特性,行政程序前置性立法方法具體體現(xiàn)的階段有人工智能技術(shù)的研發(fā)階段,人工智能產(chǎn)品的測試、生產(chǎn)、銷售和使用階段。
1.立法者需要設(shè)置行政許可等程序來確保人工智能技術(shù)的研發(fā)以及人工智能產(chǎn)品的測試階段的安全性或符合人類的道德倫理性
基于人工智能技術(shù)創(chuàng)新的要求,行政程序前置化方法主要是考慮人工智能刑法義務(wù)承擔(dān)的緩沖性,其能夠體現(xiàn)人工智能網(wǎng)絡(luò)技術(shù)行政監(jiān)管失靈后的刑法最后手段原則。最后手段原則表明,人工智能的技術(shù)創(chuàng)新需要在行政程序的監(jiān)管下進(jìn)行。換言之,人工智能技術(shù)的研發(fā)必須以制造、生產(chǎn)符合人類的道德倫理和技術(shù)安全的產(chǎn)品為最終目標(biāo),而人工智能的產(chǎn)品測試能夠檢測出人工智能技術(shù)的研發(fā)是否符合上述目標(biāo)。為了體現(xiàn)行政程序在人工智能技術(shù)研發(fā)和人工智能的產(chǎn)品測試階段的監(jiān)管作用,確保人工智能創(chuàng)新能夠按照國家政策方針和產(chǎn)業(yè)戰(zhàn)略、規(guī)劃的既定目標(biāo)進(jìn)行,我們有必要將行政程序融入技術(shù)研發(fā)和產(chǎn)品測試的階段之中。
在行政法學(xué)界,行政程序本質(zhì)上是一種具體行政行為。行政行為具有公務(wù)性,是出于全體國民的公共利益而進(jìn)行的行為[23]?;诩夹g(shù)創(chuàng)新的最終目標(biāo)要求和刑法介入的最后性原則,無論如何,我們可達(dá)成的共識是,在人工智能技術(shù)研發(fā)、產(chǎn)品測試環(huán)節(jié)之前,相關(guān)行政部門必須先對深度學(xué)習(xí)的人工智能系統(tǒng)提出相應(yīng)的限制要求[24],以使其符合人類的基本倫理或道德。
其一,通過行政許可、登記程序來確保人工智能技術(shù)研發(fā)階段符合人類的道德倫理性和技術(shù)安全性。首先,通過行政許可程序確保技術(shù)研發(fā)的倫理性和安全性。行政機(jī)關(guān)需要先對人工智能技術(shù)研發(fā)的主要方向和使用目的進(jìn)行審查,以確保人工智能技術(shù)合規(guī)。如果人工智能技術(shù)并未通過行政機(jī)關(guān)委托的獨立第三方專業(yè)機(jī)構(gòu)的技術(shù)評估,那么據(jù)此研發(fā)出來的人工智能技術(shù)的可靠性便無從確保。而通過行政許可、登記程序,可以確保后續(xù)制造、生產(chǎn)階段依據(jù)的人工智能產(chǎn)品的技術(shù)來源,以明確人工智能產(chǎn)品使用階段法益侵害結(jié)果的責(zé)任承擔(dān)。其次,行政監(jiān)管部門通過人工智能研發(fā)技術(shù)的分類管理,便于為后續(xù)開展不同程度的刑事歸責(zé)提供相應(yīng)依據(jù)。由于人工智能產(chǎn)業(yè)涉及面廣、自動化技術(shù)運用的程序不一,而自動化程度和涉及的產(chǎn)業(yè)面與人工智能技術(shù)的法益侵害性程度形成正比。因此,《網(wǎng)絡(luò)安全法》第21、31條以及工業(yè)和信息化部等10部門在2019年7月26日聯(lián)合發(fā)布的《加強(qiáng)工業(yè)互聯(lián)網(wǎng)安全工作的指導(dǎo)意見》均提出:要對互聯(lián)網(wǎng)技術(shù)實施分類施策,分級管理,根據(jù)行業(yè)重要性、企業(yè)規(guī)模、安全風(fēng)險程度等因素予以不同程度的規(guī)范保障。當(dāng)前,人工智能技術(shù)研發(fā)階段的刑法規(guī)制仍呈現(xiàn)空白,而未經(jīng)行政審批、許可或者技術(shù)登記,就直接進(jìn)行技術(shù)研發(fā)而違背人類倫理等類似缺陷,在“基因編輯嬰兒”事件中就已經(jīng)表現(xiàn)得淋漓盡致。可預(yù)料到的是,人工智能研發(fā)技術(shù)的濫用危害在智能時代將會更加突出。因此,筆者認(rèn)為刑法有必要對未經(jīng)行政審批、許可而開展人工智能技術(shù)的研發(fā)行為進(jìn)行規(guī)制。
其二,通過行政責(zé)令、登記程序來確保人工智能產(chǎn)品的測試階段的技術(shù)安全。當(dāng)前,人工智能技術(shù)的產(chǎn)業(yè)發(fā)展還處于萌芽期,在未來一段時間內(nèi),人工智能產(chǎn)品的測試將愈發(fā)普遍。為了體現(xiàn)人工智能產(chǎn)品測試的環(huán)境真實性和相關(guān)產(chǎn)品基礎(chǔ)設(shè)施面臨突發(fā)危險的靈敏度,測試場域一般是在現(xiàn)實生活當(dāng)中,而并非虛擬的空間環(huán)境。但是,現(xiàn)實場域中人工智能產(chǎn)品測試并不同于普遍推廣或者日常生活使用的人工智能產(chǎn)品的成熟性能,在現(xiàn)實場域的測試環(huán)境中,算法的深度學(xué)習(xí)隨時可能面臨不可預(yù)料的突發(fā)情況。而行政監(jiān)管部門對人工智能產(chǎn)品測試環(huán)節(jié)提出的具體要求,可以降低此類風(fēng)險。以智能網(wǎng)聯(lián)汽車的測試為例,上海市、北京市、重慶市、深圳等地的《智能網(wǎng)聯(lián)汽車道路測試管理辦法(試行)》均要求測試主體應(yīng)當(dāng)在公安交通管理部門指定的區(qū)域、時段進(jìn)行測試。因此,對于相關(guān)測試主體不提交測試的范圍和路線直接測試,脫離行政部門監(jiān)管的,或者雖然提交了測試的范圍和路線,并經(jīng)行政主管部門許可,但違反行政許可、登記所指定的測試區(qū)域和時段要求,造成嚴(yán)重法益侵害后果的行為,刑法應(yīng)當(dāng)單獨進(jìn)行規(guī)制。
2.立法者需要設(shè)置行政許可等程序來確保人工智能產(chǎn)品的生產(chǎn)、銷售和使用階段的安全性,以防范人工智能刑事風(fēng)險
通過了行政管理部門對人工智能研發(fā)技術(shù)和測試產(chǎn)品安全性檢驗的,并不意味著人工智能產(chǎn)品的生產(chǎn)、交易流通環(huán)節(jié)就可以脫離行政部門的監(jiān)管。人工智能產(chǎn)品的深度學(xué)習(xí)性不同于傳統(tǒng)互聯(lián)網(wǎng)產(chǎn)品單純的指令操控性,人工智能技術(shù)的研發(fā)、人工智能產(chǎn)品的測試階段的行政監(jiān)管程序,只是對人工智能基礎(chǔ)設(shè)施平臺和算法系統(tǒng)功能的安全性監(jiān)督,并不代表人工智能產(chǎn)品的生產(chǎn)、銷售、使用階段的數(shù)據(jù)模塊的改造和人類輸入指令數(shù)據(jù)質(zhì)量的安全性。人工智能系統(tǒng)一旦獨立運作,其自身便會依據(jù)產(chǎn)品所處的客觀環(huán)境對算法數(shù)據(jù)進(jìn)行編制。因此,每個環(huán)節(jié)的注冊登記,可以確保行政監(jiān)管部門能夠通過聯(lián)網(wǎng)系統(tǒng)隨時知悉人工智能產(chǎn)品的生產(chǎn)、銷售和使用階段的基礎(chǔ)數(shù)據(jù)的算法運作狀態(tài)[25]。
在生產(chǎn)、銷售和使用階段,如果生產(chǎn)者、銷售者、使用者,在生產(chǎn)、銷售、購買人工智能機(jī)器人之后、交易使用之前,未及時登記造冊,網(wǎng)上填寫企業(yè)和個人電話、身份證號、住址等相關(guān)信息,導(dǎo)致網(wǎng)絡(luò)監(jiān)管部門在人工智能系統(tǒng)癱瘓時,無法及時聯(lián)系相關(guān)責(zé)任主體,無法責(zé)令具體個人和企業(yè)消除隱患而造成嚴(yán)重后果的行為,刑法應(yīng)當(dāng)發(fā)揮后盾法的作用。
此外,由于人工智能系統(tǒng)運作的技術(shù)專業(yè)性和抽象性,刑法規(guī)范中的行政責(zé)令還可以使一般使用者和銷售者更好地排除人工智能系統(tǒng)的算法偏失。以“微軟的人工智能聊天機(jī)器人Tay事件”為例,假設(shè)機(jī)器人Tay與有偏激言論的人互動后,被引導(dǎo)出仇視女性和種族歧視之類的偏激算法數(shù)據(jù)之時,相關(guān)行政監(jiān)管部門通過智能聯(lián)網(wǎng)系統(tǒng)及時發(fā)現(xiàn),并發(fā)出責(zé)令微軟企業(yè)關(guān)閉使用賬號并下架機(jī)器人的程序,便可防止事態(tài)的進(jìn)一步惡化。
“系統(tǒng)地看,人工智能犯罪產(chǎn)生侵害結(jié)果是一個行為流程鏈條”[26],人工智能產(chǎn)品的銷售階段是人工智能產(chǎn)品流向各行各業(yè)的最后環(huán)節(jié)。因此,在人工智能產(chǎn)業(yè)發(fā)展初期,人工智能產(chǎn)品的銷售行為應(yīng)當(dāng)實施行政許可。違反人工智能產(chǎn)品管理法律、法規(guī)的非法銷售的行為,應(yīng)當(dāng)屬于非法經(jīng)營的行為。而按照《刑法》第225條非法經(jīng)營罪的規(guī)定,人工智能產(chǎn)品不同于鹽業(yè)、煙草業(yè)等行業(yè)的特許產(chǎn)品;也不同于需要進(jìn)出口的產(chǎn)品;更不同于需要國家有關(guān)主管部門批準(zhǔn)的非法經(jīng)營的證券、期貨、保險、資金支付結(jié)算業(yè)務(wù)。但為防止人工智能產(chǎn)品隨意銷售的普遍而導(dǎo)致產(chǎn)品質(zhì)量低劣、脫離行政部門監(jiān)管的現(xiàn)象發(fā)生,筆者認(rèn)為,《刑法》第225條應(yīng)當(dāng)單獨增設(shè)第4項“(四)未經(jīng)許可經(jīng)營的人工智能相關(guān)產(chǎn)品的”條款,以規(guī)制不經(jīng)行政許可,擾亂市場秩序,隨意銷售人工智能產(chǎn)品的行為。
綜上所述,人工智能刑法的行政程序前置性立法具體體現(xiàn)在人工智能技術(shù)的研發(fā)階段,人工智能產(chǎn)品的測試、生產(chǎn)、銷售和使用階段。行政程序前置性立法發(fā)揮著行政行為公共服務(wù)監(jiān)管的本質(zhì)機(jī)能,行政許可、登記、責(zé)令等程序能夠確保人工智能技術(shù)研發(fā)和產(chǎn)品測試、生產(chǎn)、銷售和使用等各階段,符合人類的道德倫理性和技術(shù)安全性。行政程序前置性立法要求刑法應(yīng)當(dāng)單獨設(shè)置相關(guān)罪名,將行政許可、登記、責(zé)令等程序作為人工智能技術(shù)發(fā)展初期的刑法規(guī)制緩沖手段和風(fēng)險預(yù)防手段。
結(jié)合人工智能刑法的“前置行政不法+前置行政程序”這兩類立法規(guī)則,我們發(fā)現(xiàn),在立法者具體設(shè)計人工智能刑法的行政前置性立法規(guī)則時,前置行政不法和前置行政程序的刑法立法始終貫穿人工智能技術(shù)的研發(fā)階段,以及人工智能產(chǎn)品的測試、生產(chǎn)、銷售和使用的各個階段。這也契合前文所述的全面性和雙重性的立法規(guī)則特性。其中,將人工智能技術(shù)危害的實踐特性明確涵蓋于“違反相關(guān)人工智能的法律、法規(guī)”之中,是行政不法前置性立法的典型表現(xiàn);運用行政許可、登記、責(zé)令等程序,實現(xiàn)潛在性和不特定性人工智能技術(shù)危害的風(fēng)險預(yù)防和緩沖,是行政程序前置性立法的典型表現(xiàn)。
人工智能刑事法治建設(shè)應(yīng)當(dāng)立足我國本土實踐的真問題。人工智能犯罪作為典型的行政犯,人工智能刑法立法規(guī)則的探究,應(yīng)當(dāng)體現(xiàn)法學(xué)研究的務(wù)實性和現(xiàn)實性關(guān)切,契合法定犯時代人工智能刑法的行政前置性立法特質(zhì)。在“定性+定量”的刑法規(guī)范設(shè)置和分散性、多樣性的行政法規(guī)范下,我國人工智能刑法的行政前置性立法具有鮮明的中國特色。因此,在我國人工智能技術(shù)產(chǎn)業(yè)發(fā)展的初期,行政前置性立法勢必有利于我國人工智能刑法引領(lǐng)世界潮流,助力人工智能技術(shù)的國際競爭。人工智能刑法立法在法定犯時代永遠(yuǎn)與行政法保持著密切的溝通和銜接關(guān)系,結(jié)合現(xiàn)行刑法的立法現(xiàn)狀,行政前置性立法包括“前置行政不法+前置行政程序”立法規(guī)則。而在人工智能的深度學(xué)習(xí)性和對人類活動時空的延伸性這一實踐特質(zhì)的引導(dǎo)下,行政前置性方法便獨立于傳統(tǒng)犯罪、計算機(jī)信息系統(tǒng)犯罪和信息網(wǎng)絡(luò)犯罪領(lǐng)域。在具體設(shè)計人工智能刑法行政前置性立法規(guī)則時,立法者應(yīng)當(dāng)在人工智能技術(shù)的研發(fā)階段,以及人工智能產(chǎn)品的測試、生產(chǎn)、銷售和使用階段注重全面性和雙重性的規(guī)則特性。