韓子菲
南京審計大學(xué)法學(xué)院,江蘇 南京 211815
人工智能技術(shù)的使用在生活生產(chǎn)過程中給人們帶來了便利,但其技術(shù)本身就有可能給人類的生活生產(chǎn)帶來風(fēng)險,這種風(fēng)險不僅包括技術(shù)不成熟帶來的風(fēng)險,也包括了新型技術(shù)的過于強(qiáng)大給人類社會現(xiàn)有社會秩序及倫理道德帶來的沖擊,以至于違反現(xiàn)有的刑事規(guī)范。
一方面,人工智能技術(shù)雖然蓬勃興起,但是在某些領(lǐng)域還是不成熟的,對于技術(shù)本身,其編程、算法等技術(shù)均存在“瓶頸”問題。從開發(fā)角度來說,開發(fā)工具還是零碎的、工具性的,成熟度很低。從硬件角度說,還沒有普遍使用的專用的人工神經(jīng)硬件,計算理論也有待革新,運(yùn)算的精確性存疑。例如自動駕駛,對于一些特殊情況,如在緊急避險時的判斷、光線昏暗時對前方路段情況的識別、自動駕駛系統(tǒng)故障后的處理,智能機(jī)器人沒有完全具備完善的辨認(rèn)能力和人的思維模式,無法準(zhǔn)確做出判斷,很有可能造成交通事故罪和危險駕駛罪的產(chǎn)生。
另一方面,如果人工智能技術(shù)過于強(qiáng)大,能像人類大腦一樣思考、分析和判斷,甚至同人類一樣有喜怒哀樂的情感之時,人工智能完全有了如同人類一般的行為能力,致使人工智能完全有可能犯與人類一樣的錯誤。控制論之父維納在他的名著《人有人的用處》中曾在談到自動化技術(shù)和智能機(jī)器之后,得出了一個危言聳聽的結(jié)論:“這些機(jī)器的趨勢是要在所有層面上取代人類,而非只是用機(jī)器能源和力量取代人類的能源和力量。很顯然,這種新的取代將對我們的生活產(chǎn)生深遠(yuǎn)影響。”今后,人類與智能機(jī)器的關(guān)系,將可能不是純粹的利用關(guān)系,因為人工智能已經(jīng)不再是機(jī)器或軟件,也不是對人的取代,成為人類的主人,而是一種共生性的伙伴關(guān)系。那個時候,原來有人類掌控及活動的世界將會隨之改變,原有的社會秩序及倫理道德也會受到?jīng)_擊,由此帶來的風(fēng)險和責(zé)任如何界定及承擔(dān)就可能會是一個非常復(fù)雜的問題。
人工智能實現(xiàn)了強(qiáng)大的功能支持,如果不加以規(guī)范而被非法利用,有可能會引發(fā)大量的危害社會穩(wěn)定的不良行為,其犯罪活動的危害深度也不斷加深。現(xiàn)有人工智能在數(shù)據(jù)采集、人臉識別及其他領(lǐng)域都有廣泛的應(yīng)用,這些技術(shù)一旦被非法應(yīng)用,人工智能就會成為犯罪的工具或者幫兇。
比如個人隱私泄露的問題,人工智能技術(shù)的實現(xiàn)依靠于編程和算法的支持,也就意味著需要大量數(shù)據(jù)的收集,人工智能可能會作為一種有效工具,引發(fā)大數(shù)據(jù)被誤用以及濫用,不法分子可能利用收集的便利對大數(shù)據(jù)進(jìn)行濫用。這種信息的泄露不只停留于收集層面,當(dāng)人工智能依靠強(qiáng)大的分析系統(tǒng),對這些海量的數(shù)據(jù)進(jìn)行分析歸納后,這些經(jīng)過處理的數(shù)據(jù)被泄露后的危害進(jìn)一步加大,嚴(yán)重情況下會引發(fā)組織、企業(yè)內(nèi)部發(fā)展的不穩(wěn)定性,甚至?xí)?yán)重威脅我國的信息安全。
其實,除了典型的涉及侵犯個人信息、隱私、系統(tǒng)數(shù)據(jù)等相關(guān)犯罪案件之外,作為犯罪手段的人工智能應(yīng)用也可能出現(xiàn)在任何一個刑法規(guī)制的罪名之中,這是由人工智能在刑事犯罪中的技術(shù)特點所決定的。一是犯罪成本降低。犯罪分子只需要利用現(xiàn)有技術(shù)將程序注入人工智能,人工智能就可以依據(jù)設(shè)定好的程序進(jìn)行活動,與普通刑事案件比較無需更多犯罪預(yù)備投入,就可以達(dá)到犯罪目的。二是隱蔽性。犯罪分子唯一留下的犯罪痕跡將是制造、購買或是編制程序,與其他犯罪行為比較而言,沒有更多的活動痕跡或信息,對犯罪嫌疑人的追蹤比較困難。三是應(yīng)用的廣泛性。由于人工智能應(yīng)用領(lǐng)域的廣泛性,人工智能可能會出現(xiàn)在各類犯罪行為之中,既會出現(xiàn)侵犯財產(chǎn)權(quán)的犯罪中,也會出現(xiàn)在侵犯人身權(quán)的犯罪中,既會出現(xiàn)在侵犯金融秩序的犯罪中,也會出現(xiàn)在侵犯社會秩序的犯罪中,無處不在,皆有可能。
因此,人工智能技術(shù)雖然給人類帶來諸多便利,但面臨的被濫用的風(fēng)險卻是巨大的。特斯拉的創(chuàng)始人埃隆馬斯克(ElonMusk)一直認(rèn)為,人工智能將是人類面臨的最大風(fēng)險。而對于法律風(fēng)險解決而言,《刑法》所規(guī)制的風(fēng)險是社會規(guī)范的最大法律風(fēng)險。
從刑事犯罪構(gòu)成的角度看,承擔(dān)刑事責(zé)任必須具有刑事責(zé)任能力,在這一點上,自然人或法人的刑事責(zé)任能力是不存在爭議的,現(xiàn)有的《刑法》都對自然人的刑事責(zé)任年齡和條件非常明確,單位犯罪中單位的刑事責(zé)任能力也有規(guī)定。最大的爭議是人工智能本身是否具備刑事責(zé)任能力的問題。
目前人工智能的研究始終處于淺層階段,為了杜絕人工智能反抗人類的可能性,科研人員進(jìn)行研發(fā)的關(guān)鍵就是不允許機(jī)器擁有自主意識的產(chǎn)生與延續(xù)。因此,首先就普通人工智能而言,筆者認(rèn)為人工智能依賴于科技的注入,大數(shù)據(jù)、算法等支持,這就意味著機(jī)器無法具有與人同等或類似的創(chuàng)造性、自我保護(hù)意識、情感和自發(fā)行為,所以從犯罪構(gòu)成要素看,是不能構(gòu)成適格的刑事責(zé)任主體的。其次,依照目前人工智能的發(fā)展情況,其不具備情感因素。由于機(jī)器沒有人的意志與感情因素,對人工智能的產(chǎn)物進(jìn)行刑罰上的處置不會使其產(chǎn)生愧疚感,所以追究人工智能的刑事責(zé)任無法避免下一次犯罪的發(fā)生,真正利用人工智能的罪犯沒有受到處罰,也達(dá)不到教育與警誡民眾的意義。既然追究人工智能的刑事責(zé)任是毫無意義的,那么間接說明了其不具備刑事責(zé)任能力?;谝陨蟽牲c我們可以得出結(jié)論:普通人工智能沒有刑事責(zé)任能力,無法成為犯罪主體,追究其刑事責(zé)任也是沒有意義的。
但是隨著科技的發(fā)展,人類必定會迎來更高水平的強(qiáng)人工智能時代,創(chuàng)造出高度擬人態(tài)的智能機(jī)器人。此時的人工智能具備深度學(xué)習(xí)能力、自主意識,能夠辨認(rèn)和控制自己的行為能力,這同時也存在著巨大的風(fēng)險。因此,當(dāng)人工智能通過自主學(xué)習(xí),超出設(shè)計和編制的程序,可以在自主意志的支配下進(jìn)行活動時,便不再屬于工具的范疇。強(qiáng)人工智能具備自主意識、能夠辨認(rèn)和控制自己行為能力,這種意志自主性不同于動物,是與人類高度相似的,從刑法犯罪構(gòu)成來講,將會具備客觀方面的故意或過失,符合刑法犯罪主體的要求,具備刑事責(zé)任能力,能夠成為刑事責(zé)任主體。
強(qiáng)人工智能符合其和自然人、單位實施共同犯罪時的客觀事實和主體要件,同時滿足刑事責(zé)任分擔(dān)。此時的人工智能不再是設(shè)計者或使用者行為的延伸,很可能在自主意識的支配下,超越原先程序設(shè)計和編制范圍實施危害社會的行為。行為所產(chǎn)生的后果和刑事責(zé)任也不應(yīng)該向研發(fā)人員或使用人員追究,而應(yīng)由智能機(jī)器人獨(dú)立承擔(dān)。[1]
分析完人工智能的刑事責(zé)任能力問題之后,并不意味著已經(jīng)解決了犯罪主體問題,實際上,因為涉及人工智能的開發(fā)、銷售、應(yīng)用的過程和人工智能本身的行為能力問題,對于不同的人工智能及人工智能在犯罪過程中所起的作用和地位,將有可能會有不同的主體來承擔(dān)責(zé)任。因此刑事責(zé)任主體也相應(yīng)涉及到了自然人或單位和人工智能本身兩方面作為相關(guān)人工智能犯罪的主體。
1.關(guān)于自然人或單位在相關(guān)人工智能犯罪中的主體分析
如前所述,相關(guān)普通人工智能的刑事責(zé)任應(yīng)該從根源上追究利用人工智能進(jìn)行犯罪和使用人工智能不當(dāng)導(dǎo)致過失犯罪的主體。當(dāng)人工智能的行為在人類設(shè)計和編制的程序范圍內(nèi)進(jìn)行,人工智能只是犯罪的一種工具,與其他刀、槍這樣一般的犯罪工具無異。所以人工智能的行為只能看作是制造者或使用者行為的外延,其實施的犯罪行為是設(shè)計者和使用者意志的體現(xiàn),行為所產(chǎn)生的后果也應(yīng)全部歸責(zé)于研發(fā)者或使用者。
從研發(fā)者的角度分析,如果研發(fā)的相關(guān)人員違反了相應(yīng)的法律規(guī)范,涉及人工智能并施行對社會造成嚴(yán)重危害的行為,應(yīng)追究其刑事責(zé)任,如生產(chǎn)銷售偽劣產(chǎn)品罪、生產(chǎn)銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪等。
從銷售者的角度分析,在銷售人工智能的環(huán)節(jié),銷售者應(yīng)該對其進(jìn)行質(zhì)量分析、危險性測試,在最大程度上減小因人工智能本身導(dǎo)致的意外事故,如果銷售者的責(zé)任缺失則同樣有可能導(dǎo)致犯罪。
從使用者的角度分析,把人工智能當(dāng)成犯罪工具,利用人工智能進(jìn)行犯罪的,應(yīng)分情況追究研發(fā)者和使用者利用弱智能機(jī)器人故意犯罪的刑事責(zé)任。
第一,若人工智能本身存在缺陷,使用者沒有犯罪故意與過失,則追究制造者的責(zé)任;使用者明知這種缺陷的存在仍然故意利用弱智能機(jī)器人實施犯罪行為,可能構(gòu)成間接正犯,構(gòu)成故意傷害罪、交通肇事罪等多種故意犯罪。
第二,若人工智能在其設(shè)計范圍內(nèi)運(yùn)行,研發(fā)者僅具有讓智能機(jī)器人實施合法行為的目的,由于使用者的不當(dāng)使用,使得弱智能機(jī)器人造成對社會或個人的嚴(yán)重?fù)p害,則應(yīng)根據(jù)使用者是否存在造成損害的主觀故意,追究使用者的故意或過失的刑事責(zé)任,[2]例如過失致人重傷罪、重大責(zé)任事故、詐騙罪、盜竊罪等。
2.人工智能本身作為犯罪主體分析
如前所述,一旦人工智能強(qiáng)大到有人類一樣的大腦思考思維和決策能力,且非設(shè)計者及使用者所能控制,人工智能也就可能具備了相應(yīng)的刑事責(zé)任能力。此時的人工智能,如果實施設(shè)計者和使用者意志以外的行為,觸犯了刑法的規(guī)定,則也會構(gòu)成犯罪,成為犯罪主體。但是問題在于如何承擔(dān)刑事責(zé)任,現(xiàn)有刑事處罰種類是解決不了這個問題的,更應(yīng)當(dāng)考慮的是是否需清除所有人工智能的數(shù)據(jù),報廢處理。
對于監(jiān)督管理部門來說,要提高研究與制造人工智能的門檻,加強(qiáng)對人工智能產(chǎn)業(yè)鏈和對后續(xù)使用的監(jiān)督。人工智能在挖掘分析大數(shù)據(jù)時,不能忽視對公民個人信息的保護(hù)。由于人工智能可以對大數(shù)據(jù)技術(shù)進(jìn)行系統(tǒng)化掌握以及科學(xué)化運(yùn)用,一旦過度分析會侵犯公民的隱私空間,使公民生活透明化。所以在開發(fā)以及使用人工智能產(chǎn)品的過程中必須嚴(yán)格保障數(shù)據(jù)信息所具有的安全性,從而避免數(shù)據(jù)被誤用或是濫用。[3]數(shù)據(jù)信息的保護(hù)從小的方面說是涉及個人隱私,從大的方面說則可能涉及國家安全,今年某出行平臺公司在美國境外上市中發(fā)現(xiàn)涉及違規(guī)收集個人信息的問題,導(dǎo)致網(wǎng)信辦調(diào)查與處理,與其相關(guān)的20多個APP下架,便是一個明證??梢灶A(yù)見的是,今后我國在數(shù)據(jù)信息安全審查方面將會越來越嚴(yán)格。
對于偵查部門,要提高辦案人員辦案能力,了解更多的專業(yè)知識和犯罪嫌疑人可能的作案手段,與時俱進(jìn),學(xué)習(xí)與人工智能相關(guān)的知識,各部門加強(qiáng)配合有利于偵破相關(guān)流竄詐騙罪等多地犯罪。
相較過去傳統(tǒng)的犯罪活動,濫用人工智能的破壞性更大,所以要在最大程度上確定人工智能使用者以及開發(fā)者的義務(wù)、權(quán)利,才可以嚴(yán)格控制使用過程以及研發(fā)過程,有助于降低我國人工智能技術(shù)的安全危害。但是僅僅依靠我國現(xiàn)行的刑法體系難以徹底解決這種新型犯罪,針對人工智能犯罪頒布專門的單行刑法很有必要,完善相關(guān)的法律法規(guī)和司法解釋并在其中細(xì)分犯罪類型和處罰方法。
首先,應(yīng)先完善現(xiàn)有的刑法體系,將與人工智能相關(guān)的新型犯罪納入到刑法體系。明確對開發(fā)者、銷售者、使用者和管理者等不同主體的義務(wù)。在研發(fā)人工智能產(chǎn)品的過程中,有必要在研發(fā)生產(chǎn)的所有步驟、環(huán)節(jié)方面融入人類社會的價值體系以及法律規(guī)范,從而保障人工智能產(chǎn)品對社會規(guī)范進(jìn)行嚴(yán)格遵守。其次,在使用人工智能產(chǎn)品的過程中必須嚴(yán)格保障數(shù)據(jù)信息的安全性,從而避免數(shù)據(jù)被誤用或是濫用,應(yīng)擴(kuò)大侵犯個人隱私罪的范圍,將個人隱私以及其他對公民生活具有重要影響的信息也納入刑法有關(guān)公民的個人信息的保護(hù)范圍,監(jiān)督好制造、使用人工智能過程中是否合法,對未經(jīng)允許擅自挖掘、利用用戶個人信息造成嚴(yán)重后果的行為進(jìn)行處罰。[4]
對于強(qiáng)人工智能而言,要加強(qiáng)對其的監(jiān)管。對其超出設(shè)計和編制的程序、在自主意志下進(jìn)行的犯罪,必須予以刑事處罰。但是對于人工智能的刑事處罰又區(qū)別于對自然人的刑事處罰,由于人工智能歸根到底依舊是人類社會活動的產(chǎn)物,始終不是一個真正的“人”,類似于有期徒刑等處罰并不會給民眾帶來警示與共情作用。所以,教育意義不是處罰強(qiáng)人工智能的目的,徹底消除其可能帶來的危害才是最終目的,對于此可以銷毀其內(nèi)置程序與數(shù)據(jù),消除其對人類社會造成危害的可能性。
現(xiàn)階段人工智能機(jī)器人的刑事主體定位尚不具有現(xiàn)實可能性,有關(guān)于人工智能的犯罪主要追究利用人工智能進(jìn)行犯罪和使用人工智能不當(dāng)導(dǎo)致過失犯罪的主體,加強(qiáng)監(jiān)督體系,完善刑法對人工智能犯罪的條款。但不可避免的是,人工智能在未來可能會成為刑事主體,這需要法律進(jìn)一步的完善。