亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        論人工智能刑事風(fēng)險的體系定位與立法屬性

        2020-06-12 11:31:18熊波
        關(guān)鍵詞:刑事責(zé)任人工智能

        摘要:人工智能刑事風(fēng)險并非屬于一種“超個人風(fēng)險”類型。對人工智能刑事風(fēng)險認知的主觀幻化現(xiàn)象進行逐一詰問,能夠得知:超個人風(fēng)險分為事實層面的現(xiàn)象風(fēng)險和規(guī)范層面的法律風(fēng)險,智能產(chǎn)品在設(shè)計和編制程序范圍外,其所實施的嚴重社會危害性行為僅是一種純粹事實的現(xiàn)象風(fēng)險。人工智能產(chǎn)品刑事責(zé)任評價的路徑阻卻在于智能技術(shù)本身缺乏生活情感的經(jīng)驗總結(jié)、智能產(chǎn)品適用刑罰規(guī)范不具備現(xiàn)實意義、深度學(xué)習(xí)是憑借人類思維模式的基礎(chǔ)輸出進行的。人工智能刑事風(fēng)險的立法歸責(zé)應(yīng)確立限制從屬性,亦即,限制可允許性與超越性的人工智能風(fēng)險之存在,明確人工智能刑事風(fēng)險從屬于自然人主體。繼而,可為人工智能時代刑法立法的科學(xué)化探索奠定理論基礎(chǔ)。

        關(guān)鍵詞:人工智能;“超個人風(fēng)險”;智能產(chǎn)品;刑事責(zé)任

        “AI”作為一種概括性科技術(shù)語,是由算法系統(tǒng)組成的認知、感應(yīng)技術(shù)。如今尖端從業(yè)者傾向于通過智能產(chǎn)品在算法系統(tǒng)中的深度學(xué)習(xí),從多層次的集合數(shù)據(jù)中提取人類的結(jié)構(gòu)特征[1]。由此智能產(chǎn)品自主決策思維模式下的危害行為,開始突顯于現(xiàn)實社會的各類境況之中,典型情形主要存在于“自動駕駛汽車、服務(wù)機器人”領(lǐng)域。至此,學(xué)界開始對人工智能刑事風(fēng)險的責(zé)任承擔(dān)進行反思,進而提出諸多議題。但目前就人工智能刑事風(fēng)險的性質(zhì)研究來看,多偏向于一家之言如下文將要論述的智能產(chǎn)品“獨立刑事責(zé)任論”“權(quán)利主體類型正當性”這兩種典型觀點。,其引導(dǎo)社會輿論和學(xué)界探究,呈現(xiàn)出刑事責(zé)任認定結(jié)構(gòu)的嬗遞之特質(zhì),從而動搖刑事歸責(zé)系統(tǒng)的理論根基。理性對待人工智能時代下刑事風(fēng)險的結(jié)構(gòu)性轉(zhuǎn)變,是否需要動輒更改現(xiàn)有的刑事責(zé)任基礎(chǔ),應(yīng)當立足客觀現(xiàn)實的事實基礎(chǔ)進行充分的科學(xué)論證。盲目地將主觀臆造的智能風(fēng)險引入現(xiàn)實社會之中,無疑大規(guī)模誘發(fā)、擴散國民無端的恐慌與焦慮。本文擬立足對人工智能刑事風(fēng)險“超個人化”現(xiàn)象之詰問,從多維視角論述人工智能產(chǎn)品個體化刑事責(zé)任評價的路徑阻卻,并推斷人工智能刑事風(fēng)險具有人類危害行為的依附性(擬制性)和決定性,以便立足既有的刑事責(zé)任理論,理性對待智能科技風(fēng)險。

        一、現(xiàn)象詰問:人工智能刑事風(fēng)險是否呈現(xiàn)“超個人化”

        隨著智能時代的新技術(shù)和新工具的不斷涌現(xiàn),數(shù)字革命歷經(jīng)從“優(yōu)化組合”到“模塊分析”的演進,最后蛻變?yōu)椤白灾鳑Q策”的階段化學(xué)習(xí)。在智能科技漸趨成熟之際,人工智能產(chǎn)品創(chuàng)設(shè)了一個模仿或復(fù)制個體“人”的思維過程[2]。在自主學(xué)習(xí)過程中,人工智能產(chǎn)品可能會獨立脫離技術(shù)初始研發(fā)者、使用者和管理者輸出的基礎(chǔ)思維,繼而操作一系列嚴重危害社會的行為。對于智能產(chǎn)品的現(xiàn)實行為危害,是否有必要單獨依據(jù)運行基礎(chǔ)系統(tǒng)的算法模式,將其理解為一種“超個人風(fēng)險”類型?“就一元論的先驗個體圖式而言,在這一理論支配下的超個體法益樣態(tài),雖然擺脫了經(jīng)驗式個人的束縛,但又走向了另一極端,即否定了社會及身處其中的個人之真實性”[3]。因而,承認超個人法益的學(xué)者亦然妥協(xié)地表明:“超個人”實質(zhì)內(nèi)涵的理解雖然掙脫了經(jīng)驗式個人的桎梏,但與此同時,其也忽視了人之所以為“社會人”表達的真實性。機器學(xué)習(xí)具備一定基礎(chǔ)的思維訓(xùn)練,但在視覺、聽覺、語言方面的系統(tǒng)處理過程中,智能產(chǎn)品可能在設(shè)計者的編程和程序外產(chǎn)生獨立的行為自由。

        由此導(dǎo)致的現(xiàn)實問題之一:是否意味著通過后續(xù)的深度學(xué)習(xí),“智能機器人完全可能具有與人一樣的辨認能力和控制能力,也完全可能通過深度學(xué)習(xí),在設(shè)計和編制的程序范圍外實施嚴重危害社會的行為”[4],繼而認為其是一種人工智能產(chǎn)品的超個人風(fēng)險類型,據(jù)以賦予它獨立承擔(dān)刑事責(zé)任的能力,將超個人風(fēng)險評價為刑事法約束的風(fēng)險類型?刑事責(zé)任能力作為非難可能的一種人格狀態(tài),其要求對于超個人風(fēng)險的罪責(zé)評價,應(yīng)當是構(gòu)建于行為要素的理解力和刑罰的承受力基礎(chǔ)之上的。因此,如何評價人類基礎(chǔ)思維灌輸后的智能產(chǎn)品深度學(xué)習(xí)的超個人風(fēng)險,則成為化解編程和系統(tǒng)外的獨立危害行為的關(guān)鍵性問題。犯罪事實作為刑罰苛責(zé)的基本前提,應(yīng)當明確法律事實和客觀事實的評價差異[5],將超個人風(fēng)險劃分為事實層面的現(xiàn)象風(fēng)險和規(guī)范層面的法律風(fēng)險。智能產(chǎn)品在設(shè)計和編制程序范圍外實施的嚴重社會危害性行為,則是一種純粹事實的現(xiàn)象風(fēng)險。主要原因在于:智能產(chǎn)品缺乏對危害行為的理解力和刑罰的承受力,在危害行為發(fā)生之際,智能產(chǎn)品并無能力提前預(yù)知行為風(fēng)險的存在,進而控制和支配危害行為的進程。

        此外,刑罰的承受力無法在人工智能產(chǎn)品本身得以疏通,銷毀機器、刪除數(shù)據(jù)、更改系統(tǒng)等針對性刑罰設(shè)置無異于多此一舉。刑罰苛責(zé)對于機器人而言,僅是一種外在數(shù)據(jù)信號的映射,一種同外界環(huán)境變化的現(xiàn)象感應(yīng)。鑒于此,超個人風(fēng)險規(guī)范層面的法律風(fēng)險類型,無法在智能產(chǎn)品本身中探尋。

        然而,現(xiàn)實問題之二:機器人系統(tǒng)操作的一種純粹辨認能力的根源何在?算法作為人工智能系統(tǒng)運行的基本路徑,智能產(chǎn)品一旦牽涉“意識”,強人工智能的定義和評估標準就會變得異常復(fù)雜。“擁有意識的機器會不會甘愿為人類服務(wù)?機器會不會因為某種共同訴求而聯(lián)合起來站在人類的對立面?一旦擁有意識的強人工智能得以實現(xiàn),這些問題將直接成為人類面臨的現(xiàn)實挑戰(zhàn)”[6]。而法律層面的挑戰(zhàn)莫過于機器人本身的行為危害。機器人“意識”來源于外界環(huán)境變化的接收,算法技術(shù)自主調(diào)配數(shù)據(jù)的決策分析過程,則是操作系列行為模式的塑形。算法技術(shù)在操控智能產(chǎn)品危害行為過程中發(fā)揮著舉足輕重的作用,“其包括的設(shè)計、目的、成功標準、數(shù)據(jù)使用等都是設(shè)計者、開發(fā)者的主觀選擇,它們可能將自己的偏見嵌入算法系統(tǒng)。此外,數(shù)據(jù)的有效性、準確性,也會影響整個算法決策和預(yù)測的準確性”[7]244。換言之,機器人系統(tǒng)操作的一種純粹辨認能力的根源在于人類行為本身。對于智能產(chǎn)品危害行為的自主操作,僅是超個人風(fēng)險事實層面的現(xiàn)象風(fēng)險類型。

        在智能化時代,客觀行為造就的風(fēng)險類型樣態(tài)多元且構(gòu)造復(fù)雜。因而,現(xiàn)實問題之三:如何區(qū)分理解人類智能產(chǎn)品的濫用行為?防止將無責(zé)任非難基礎(chǔ)的智能風(fēng)險劃歸為行為人。毋庸置疑,人工智能刑事風(fēng)險的不明確性或者不確定性,致使“預(yù)防原則”仍應(yīng)當是風(fēng)險化解的主要思路。但是,風(fēng)險刑法的罪名設(shè)置必然要經(jīng)受兩個基本問題的考驗:一是人工智能刑事風(fēng)險在傳統(tǒng)刑事法體系中如何定位?二是刑法化解人工智能刑事風(fēng)險的依據(jù)是否合理?隨著自動化取代了更多的勞動形式,創(chuàng)造性的表達似乎成為現(xiàn)實必然。機器無論如何發(fā)展,都是人類技術(shù)規(guī)劃的意識反映[8]。因而,適度承認科技社會發(fā)展中現(xiàn)實存在且能夠承受的“允許性危險”,可在助益生產(chǎn)力進步的同時,保障國民對刑法體系的基本認同感,實現(xiàn)刑事立法的科學(xué)化探索。

        二、體系定位:人工智能機器刑事責(zé)任評價的路徑阻卻

        人工智能刑事風(fēng)險的精準定性問題,決定著刑事責(zé)任評價主體的范圍。出于實踐經(jīng)驗的價值遵循,智能產(chǎn)品能否擁有獨立的刑事責(zé)任能力,繼而被認定為刑事責(zé)任主體新類型,主要在于對法律事實的辨認能力、控制能力。現(xiàn)階段部分學(xué)者大力支持的智能產(chǎn)品“獨立刑事責(zé)任論”以及“權(quán)利主體類型正當性”的觀點

        觀點詳情可參見:劉憲權(quán)、胡荷佳《論人工智能時代智能機器人的刑事責(zé)任能力》(《法學(xué)》2018年第1期,第40-47頁);Radutniy O E.Criminal Liability of the Artificial Intelligence(Problems of Legality,2017(1):132-141)。,完全脫離法律的首要泉源,違背人工智能技術(shù)刑事規(guī)制的必要目的與手段的正當性等要求。

        (一)智能技術(shù)本身缺乏生活情感的經(jīng)驗總結(jié)

        智能技術(shù)的日臻完善與人類情感的價值流變,使得智能機器程序產(chǎn)生“冷精神”或稱“系統(tǒng)精神”意識。人類理性與機器意識,主要的區(qū)別在于危害行為的方式選擇。前者是出于樸素生活情感的經(jīng)驗表達;后者是自主決策意志的模塊反映。刑事責(zé)任作為一種行為否定性評價的法律后果承擔(dān),應(yīng)當關(guān)注“以存在論和價值論作為人性分析框架”的適用范圍[9]。強行扭曲刑罰的社會基礎(chǔ),將人工智能產(chǎn)品視為一種非生命體的自由意志表達者,進而認為機器在刑事責(zé)任承擔(dān)方面,其唯一差異僅在于生理構(gòu)造[10],完全是一種“超個人化”風(fēng)險的觀點。一方面,個體能夠清晰地識別風(fēng)險,判斷風(fēng)險對自身利益的影響以及攫取自身利益最大化的保全方式。另一方面,為了自身利益的集中化采取各種手段逃避風(fēng)險,推卸責(zé)任,從而無法達成有效的集體行動。將智能產(chǎn)品行為視為超個體風(fēng)險的法益侵害,雖是“保障內(nèi)在自由(絕對命令) 外化的不可或缺的體制”[3],但這一概念的塑造,完全將刑法危害行為的控制能力視為一種脫離經(jīng)驗和價值判斷的程序精神,因而,其僅具有形式意義,而不具有實質(zhì)的意志指向性。

        1.人工智能的自主決策僅是一種純粹事實行為,并不具備責(zé)任非難可能性

        刑事責(zé)任的可行性基礎(chǔ)在于責(zé)任主義,即只有能夠非難時才可科處刑罰。因而,非難可能性作為刑事責(zé)任評價的基本前提,要求刑罰否定結(jié)果的正當性和合比例性。正當性在于刑事責(zé)任的承擔(dān)是智能產(chǎn)品對事實行為的經(jīng)驗選擇,是在全面熟知行為舉動的發(fā)生之后,對宏觀、微觀雙層環(huán)境的整體變化之作用力,其具備的情感經(jīng)歷是對刑罰“質(zhì)之變化”的決定要素。而合比例性反映在生活閱歷之上,對責(zé)任非難可能性的認識程度,最終影響刑罰苛責(zé)的“量之變化”。對于人工智能產(chǎn)品執(zhí)行過程的高度復(fù)雜性任務(wù),機器人不斷增長的執(zhí)行能力和自主權(quán)的能力,是建立于數(shù)據(jù)處理系統(tǒng)基礎(chǔ)之上的。

        質(zhì)言之,對于瞬時間的行為危害的產(chǎn)生,機器人也僅是意識到該行為是在接受數(shù)據(jù)信息后的系統(tǒng)操作,而對于系統(tǒng)操作的潛意識理解是缺乏的。由于智能產(chǎn)品缺乏對情感生活要素的理解和體驗,因而,危害行為的責(zé)任非難可能性因環(huán)境人格之缺陷而無從談及。知識來源于感覺經(jīng)驗,在認識上人的心智受感覺影響,感覺因物質(zhì)事物而起[11]。法律立足機器責(zé)任視角,對人工智能產(chǎn)品的危害行為評價,僅能將其評價為一種自主決策系統(tǒng)反映的純粹事實行為,而無法強制納為刑事責(zé)任的非難可能性。

        2.人工智能的危害行為僅是系統(tǒng)語言的模式選擇,并未受到主觀心態(tài)支配

        智能機器人能否單獨承擔(dān)刑事責(zé)任,除實施客觀的危害行為之外,還包括受到主觀心態(tài)的支配[12]。毋庸置疑,人工智能的系統(tǒng)操作完全依賴于算法系統(tǒng)的模式選擇,換言之,技術(shù)設(shè)計和編制程序內(nèi)外行為的發(fā)生,都依賴于算法系統(tǒng)運作的好壞。因而,在此方面,智能危害行為的意志支配完全取決于算法系統(tǒng)的機械性、自主性運作。語言系統(tǒng)作為智能產(chǎn)品的程序精神表達,語言代碼的編排很大程度上受制于客觀環(huán)境和地域文化的影響。語言作為生活情感的表達方式,與生存環(huán)境的變化密切相關(guān)

        同一個國家的不同區(qū)域,語言也會因環(huán)境氣候和人文習(xí)俗的差異而存在特質(zhì)性,致使人們對不同地區(qū)的話語形式難以及時理解和吸收,如地區(qū)方言的形成。。智能產(chǎn)品無法用系統(tǒng)語言表示“我為何要實施犯罪行為”,理想超前,但基礎(chǔ)設(shè)施尚在襁褓中的人工智能將面臨一大問題:算法邏輯自身的問題[13]。數(shù)學(xué)方法的發(fā)展還不夠,加之硬件計算能力的不足,算法語言的錯誤無法避免。比如,機器翻譯的語法錯誤就是典型問題??茖W(xué)家夜以繼日地總結(jié)人類語法規(guī)則,設(shè)計計算機語言模型,機器卻始終無法把翻譯準確率提升到令人滿意的程度。因為語法本身就是一個用語習(xí)慣和地域環(huán)境自然而然形成的[14],必然是系統(tǒng)語言在主觀罪過因素上無法逾越的罪責(zé)鴻溝。

        3.人工智能危害行為的自由意志僅是一種程序精神,并不涵蓋實質(zhì)的辨認能力

        回歸刑事責(zé)任的道義基礎(chǔ),人工智能產(chǎn)品需承擔(dān)獨立的刑事責(zé)任,必須論證其具備齊全辨認能力和控制能力。辨認能力作為控制能力的前提條件,作為超越技術(shù)控制和意志自由的“強人工智能”,是否能夠?qū)C腦中代碼程序的信息集合和數(shù)據(jù)決策,作為刑事責(zé)任能力的辨認要素,仍有待商榷。有學(xué)者認為,“強人工智能產(chǎn)品的認識水平,在很大程度上會被局限于特定領(lǐng)域,而缺乏對社會生活的整體認識”[15]。但是,決意實施善惡行為之前的意識判斷本身就是一種生活經(jīng)驗的高度融合,強人工智能產(chǎn)品也依托于現(xiàn)實環(huán)境生存,但這一依托僅限于外在形體,內(nèi)在機腦算法系統(tǒng)的深度學(xué)習(xí)行為,本質(zhì)上仍是一種程序精神使然,與刑事責(zé)任的辨認能力之本質(zhì)屬性具有天壤之別。

        (二)智能產(chǎn)品適用刑罰規(guī)范不具備現(xiàn)實意義

        即使部分學(xué)者承認智能產(chǎn)品能夠依據(jù)算法程序,脫離人類思維模式的基本控制,單獨在自主意志支配下,實施人類設(shè)計和編制的程序范圍外的犯罪行為,但這亦需要經(jīng)受刑罰歸責(zé)的必要性和可行性之考究[4]。

        1.智能產(chǎn)品缺乏刑罰的識別能力和承受能力

        由于人類科學(xué)需求的多元性和適用環(huán)境的復(fù)雜性,目前關(guān)于強人工智能意識、思維發(fā)展的討論,是建立在人類科技總是以加速度形式躍進的基礎(chǔ)之上[16]??萍伎偰艹饺祟惿斫Y(jié)構(gòu)的發(fā)展速度,但是科技產(chǎn)品對事物的認識能力和對痛苦的承受能力,是否能確保與人類同等的精確,是需要在客觀環(huán)境的歷練中感同身受的。刑罰學(xué)理論中關(guān)于刑罰功能的分析,如懲罰的功能、改造的功能。究其源頭,都是基于社會學(xué)的功能理論。因為,任何行動系統(tǒng)都需要在適應(yīng)外界環(huán)境的前提條件下,確定一定的行為目標,并在該目標指引下開展行動,將行為系統(tǒng)的各個部分基于功能最大化的要求,進行優(yōu)化組合[17]。鑒于此,智能產(chǎn)品對刑罰的識別能力,應(yīng)當體現(xiàn)在外界環(huán)境的適用功能建立的基礎(chǔ)上。如果缺乏外界生活環(huán)境的階段化長久感知,如何辨別好壞,避免觸及刑罰,便成為機器人負刑事責(zé)任的一大阻礙。

        在社會活動的實踐操作方面,具備資格能力的社會成員都是社會關(guān)系的物化。承受能力作為一種對刑罰適用最高強度的感知,要求建立在社會活動的現(xiàn)實操作基礎(chǔ)上去感受刑罰的強度。因智能產(chǎn)品的操作熟練所造成的嚴重危害行為,僅是基于數(shù)據(jù)自主決策分析的瞬息性、高效性,而并非出于對事物強度認識的整體把握。智能產(chǎn)品對量刑基準規(guī)范與價值的實質(zhì)理解,無法在人工智能先占性發(fā)展戰(zhàn)略的要求下獲得。因為,“對一個人類的觀察者而言,對機器人的物理損壞或者損害可能看起來像是肉體懲罰甚或死刑;但是,它對機器人并不具有類似的影響,至少它不具有(身體健康地)活下去的意愿”[18]340。所以銷毀機器、刪除數(shù)據(jù)以及更改配置等刑種配置及其程度差異,對強人工智能產(chǎn)品的自主意識而言,簡直是天方夜譚。

        2.刑罰適用于智能產(chǎn)品無法獲取規(guī)范公允力

        發(fā)揮刑罰適用的正當性基礎(chǔ)過程,是一個刑法司法文明的精神體現(xiàn)。“無論是刑罰的一般預(yù)防還是特殊預(yù)防,都要求必須在不破壞‘社會情感的程度上才能實行”[19]。社會情感滲透于刑事司法程序,是對刑罰文明的公正性、妥當性的一種樸素性色彩的要求。在社會基本認同的情感中,我們即使承認未來科技能夠運用模擬仿生手段,使機器神經(jīng)網(wǎng)絡(luò)的運作模式與人腦極為相似,甚至超越人腦的思考空間,但也并不代表公眾對“智能產(chǎn)品如同人類主體一樣,具備刑罰的獨立承受能力”

        觀點可參見:劉憲權(quán)《人工智能時代刑事責(zé)任與刑罰體系的重構(gòu)》(《政治與法律》2018年第3期,第89-99頁)。等類似觀點的普遍認同。

        誠如,在人工智能技術(shù)產(chǎn)業(yè)發(fā)展的前景預(yù)測中,智能科技學(xué)者談及“神經(jīng)網(wǎng)絡(luò)類似人類大腦,由一個個神經(jīng)元組成,每個神經(jīng)元和多個其他神經(jīng)元連接,形成網(wǎng)狀”[20]。但是,“類似、仿生”人腦始終無法做到與人類思考模式、生理神經(jīng)相等同。“刑罰在一定條件下被用作凝聚群體,強化共同價值、共同信念的儀式”[21],對刑罰適用的功能最初認識(如報應(yīng)刑理念)是出于強調(diào)對道德倫理秩序維護的自然法所體現(xiàn)的一種樸素情感。對智能機器施加刑罰,承認機器的刑事責(zé)任主體地位,無法在特殊群體中獲取認同感,亦無法在社會人群中調(diào)動或增強守法意識。

        3.刑罰適用歸根結(jié)底是對自然人的現(xiàn)實懲罰

        對智能產(chǎn)品適用新類型刑罰僅是一種抽象概念的意向性表達,即意在借助刑法立法的新思維,說明罪責(zé)自負原則中的“超個人風(fēng)險”的現(xiàn)象類型,應(yīng)當歸為擁有深度學(xué)習(xí)、自主決策的強人工智能。但從本質(zhì)而言,智能產(chǎn)品的刑事責(zé)任適用歸根結(jié)底是對自然人的現(xiàn)實懲罰。雖然發(fā)現(xiàn)智能產(chǎn)品脫離人類的支配控制,進而實施了危害行為,理所應(yīng)當將責(zé)任歸于機器,表面上看,合乎情理,但實質(zhì)上在刑罰法理基礎(chǔ)上無法疏通。由于一個機器人沒有財產(chǎn)(至少,它不可能知道它擁有財產(chǎn)),任何判處罰金將不得不由其法定的所有人或者為可能的責(zé)任而創(chuàng)設(shè)的特定基金來支付[18]347??v使智能機器人具備獨立意識,但其對人類仍然存在強烈的人身依附性。對其新設(shè)“刪除數(shù)據(jù)、修改程序、永久銷毀”等刑罰種類[22],在實際效果上更類似于對人類“犯罪工具”或財產(chǎn)的沒收、銷毀,而這本質(zhì)上是對人類自身的懲罰。

        (三)深度學(xué)習(xí)憑借人類思維模式的基礎(chǔ)輸出

        國家研發(fā)、使用戰(zhàn)略層面,將人工智能定位為“研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)”[7]23。未來人工智能產(chǎn)品的尖端研發(fā),至始至終都無法脫離人類思維模式的基礎(chǔ)輸出進行。機腦的塑成本身是一個人腦的高度仿生建模過程,強調(diào)“理解、建模和模擬人類大腦的關(guān)鍵是對大腦新皮質(zhì)實施逆向工程,而大腦新皮質(zhì)是我們進行循環(huán)分層思考的部位”[23]。因此,深度學(xué)習(xí)的物質(zhì)載體包括人腦的意志性規(guī)劃。

        1.思維本源:研發(fā)者的編程設(shè)計

        首先,在技術(shù)發(fā)展層面,我們不知道強于人類的智慧形式將是怎樣的一種存在。目前,強人工智能具體發(fā)展的形態(tài)、規(guī)模以及思考模式都無法實現(xiàn)精準預(yù)測?,F(xiàn)在談?wù)搹娙斯ぶ悄芎腿祟惾后w的關(guān)系,僅能將智能產(chǎn)品視為一種工具與手段,強人工智能產(chǎn)品必須依照人類的基礎(chǔ)思維模式去運作。在智能技術(shù)的風(fēng)險預(yù)測和防控范圍內(nèi),出現(xiàn)的現(xiàn)實危害結(jié)果應(yīng)當歸為人類的一種責(zé)任疏忽。然而,就現(xiàn)在的科技水平預(yù)測強人工智能產(chǎn)品完全獨立的操作模式,根本不存在可以清晰界定的討論對象。其次,在法律規(guī)制層面,人類出于社會集中化利益的考量,對智能時代的物質(zhì)把握,節(jié)制在可掌控的程度之上。尤其是在潛在的科技研發(fā)道路上,人類群體的科技利用應(yīng)當考慮在法律約束范圍內(nèi)。即使是在高度自動化后工業(yè)時代,人類也需要將操作指令輸入信息系統(tǒng),并輔之基本的監(jiān)督和維護。因而,在技術(shù)層面尚未確定強人工智能的發(fā)展規(guī)劃和基本定義等一系列前提下,強人工智能后續(xù)深度學(xué)習(xí)的運作模式或行為操控,仍取決于研發(fā)者的編程設(shè)計水平。

        2.后續(xù)學(xué)習(xí):使用者的思維輸出

        支持智能產(chǎn)品“權(quán)利主體論”的一派學(xué)者認為,機器人自從被創(chuàng)制后,就具有一種獨立學(xué)習(xí)的行為能力。因而,在某種程度上其會導(dǎo)致權(quán)利主體、權(quán)利形態(tài)和權(quán)利適用方式相繼發(fā)生變更[24]。但是,其忽視了人類思維模式的基礎(chǔ)輸出,并非僅在智能產(chǎn)品技術(shù)研發(fā)和生產(chǎn)階段才能實現(xiàn)。智能產(chǎn)品的后期深度學(xué)習(xí),仍然受制于使用者、管理者的思維掌控。雖然機器挑戰(zhàn)、培養(yǎng)所謂的“超級任務(wù)”意識,但是出于人類行為目的的自洽,挑戰(zhàn)和培育仍是按照遠程操作的使用者給出的既有指令,有步驟依次完成的。而對于完成過程中出現(xiàn)的意外事件,僅是學(xué)者過度解讀深度學(xué)習(xí)功能,認為使用者基礎(chǔ)思維模式外的危害行為,已然脫離了除機器本身以外的任何思想支配。但殊不知,智能產(chǎn)品深度學(xué)習(xí)的自主決策行為或意識,完全是按照使用者、管理者的行為目的實施的,受行為人基礎(chǔ)思維模式控制。

        三、性質(zhì)證立:人工智能刑事風(fēng)險歸責(zé)的依附性與限制性

        既然人工智能刑事風(fēng)險不具備將刑事責(zé)任苛責(zé)智能機器獨立個體的機能,那么著眼于未來的全智能化時代,必須找尋制度構(gòu)建的科學(xué)依據(jù)并確立人工智能刑事風(fēng)險的立法性質(zhì)。

        (一)附屬性:附屬于自然人

        當前,智能科技的普及化運用必然會成為新時代的顯著標志,科技風(fēng)險作為典型的內(nèi)生性風(fēng)險,“為應(yīng)對現(xiàn)代社會的內(nèi)生性風(fēng)險,出于控制風(fēng)險、一般預(yù)防的目的,刑事立法逐漸出現(xiàn)了法益保護早期化現(xiàn)象”[25]。在前置刑法預(yù)防的現(xiàn)象下,筆者認為,類型化審慎評析人工智能的刑事風(fēng)險,便可察覺其存在著“行為、主觀”這二類科技風(fēng)險附屬于人類。

        1.行為附屬

        出于對犯罪行為特質(zhì)性的多元視角考察,刑法上的行為概念通常包含著因果行為論、目的行為論、社會行為論和人格行為論四種學(xué)說。因果行為論表明犯罪行為是一種有意行為,是在意識支配下表現(xiàn)于外的肢體動靜[26]62;目的行為論在因果關(guān)系論的基礎(chǔ)上發(fā)展而來,其認為應(yīng)當將行為理解為“有計劃地使因果發(fā)生的要素,在行為的‘目的性中發(fā)現(xiàn)了一個十分重要的連接點”的客觀表現(xiàn)[27];而社會行為論揭示行為的外在舉動,認為“刑法是一種社會統(tǒng)制(同統(tǒng)治)手段,故具備社會意義的人的身體動靜才是刑法上的行為”[26]63。人格行為論者更為直截了當?shù)刂该?,行為是“行為者人格主體的現(xiàn)實化”,身體動靜之所以加以刑事歸責(zé),是考究人格與環(huán)境的相互作用下人格責(zé)任的最終結(jié)果

        詳細內(nèi)容可參見:[德]漢斯·韋爾策爾《目的行為論導(dǎo)論——刑法理論的新圖景》(陳璇譯,中國人民大學(xué)出版社,2015年版第1頁);[日]大塚仁《刑法概說(總論)》(馮軍譯,中國人民大學(xué)出版社,2009年版第106頁)。。

        由此可知,社會行為論、因果行為論、目的行為論,以及人格行為論分別將“意識支配、目的規(guī)劃、人格環(huán)境”作為行為的原因力,均是自然人主觀意志狀態(tài)的現(xiàn)實化結(jié)果。進而應(yīng)當將智能產(chǎn)品的媒介主體認定為一種行為工具,或是間接正犯的行為支配對象。如此,自然而然刑事歸責(zé)理論才能得以順暢。智能機器的超脫編程和設(shè)計程序范圍內(nèi)的自主違法行為,可以被解釋為一種不法而無責(zé)的無刑事責(zé)任能力的行為。

        2.主觀附屬

        之所以將責(zé)任非難可能性與刑事責(zé)任的承擔(dān)關(guān)聯(lián)起來,旨在表明行為主體的不法譴責(zé),是建立在行為主體能夠認識到其行為的內(nèi)容、社會意義與危害結(jié)果的基礎(chǔ)之上。由于生活情感和社會體驗的匱乏,再加之行為進程的推進受自然人支配,智能產(chǎn)品的違法性認識亦應(yīng)當附屬于自然人。正如前文論述,智能產(chǎn)品的技術(shù)研發(fā)和深度學(xué)習(xí)階段,是憑借人類思維模式的基礎(chǔ)輸出進行的。然而,在智能產(chǎn)品實施危害行為之際,客觀行為主體是如何認識到或者可能認識到行為的法規(guī)范違反呢?厘清智能產(chǎn)品刑事主觀風(fēng)險的主體歸屬性,應(yīng)當明確主觀答責(zé)的故意和過失要素。

        其一,主觀故意的人類附屬性表現(xiàn)在隱密于智能產(chǎn)品背后的自然人可以全盤掌握并促使明知行為樣態(tài)和結(jié)果類型的發(fā)生。智能產(chǎn)品無法將希望和放任的主觀意志表達出來,因為在本源上便不具備積極追求或者放任結(jié)果發(fā)生,結(jié)果也并非實施行為直接、間接追求的結(jié)局。而自然人可以通過借助智能產(chǎn)品的工具行為或者直接行為,達到主觀故意的危害結(jié)果實現(xiàn)。但是,在正常范圍內(nèi)的研發(fā)和使用,出于智能產(chǎn)業(yè)發(fā)展的戰(zhàn)略需要,即使明知深度學(xué)習(xí)期間可能發(fā)生的突發(fā)系統(tǒng)錯亂和數(shù)據(jù)調(diào)取失范的行為,亦應(yīng)當被視為一種可允許性科技風(fēng)險。

        其二,主觀過失的人類附屬性主要表現(xiàn)在,作為設(shè)計者和使用者,本身基于科技使用的目的而創(chuàng)設(shè)一系列智能產(chǎn)品,應(yīng)當提前預(yù)知到會由于缺乏必要的全面檢測和技術(shù)規(guī)范,而導(dǎo)致后續(xù)的脫軌行為。對于預(yù)見義務(wù)的履行,智能產(chǎn)品無法分辨出預(yù)見事物的本質(zhì),或者在研發(fā)階段缺乏表明系統(tǒng)制作過程中的數(shù)據(jù)錯亂和漏洞存在的客觀可能性。主要原因在于:一是基于信息環(huán)境的流動性和共享性,智能機器對于收集信息本身的性質(zhì)無法及時甄別和提前預(yù)知;二是囿于生存環(huán)境的復(fù)雜性,智能機器無法依據(jù)深度學(xué)習(xí)獲取危險環(huán)境的觀察判斷力。

        在實證科學(xué)看來,環(huán)境風(fēng)險性質(zhì)的預(yù)判力是一種實證性規(guī)范 [28]。過失犯設(shè)置的目的在于苛求行為人嚴格按照自身的知能水平和規(guī)范能力履行結(jié)果回避義務(wù)。因為每個人的認知能力存在著顯著的差異,如果忽略人類思維模式基礎(chǔ)輸出以及后續(xù)的監(jiān)督過失行為,為千遍一律的智能機器單獨設(shè)置一套新的刑罰體系,以應(yīng)對智能刑事風(fēng)險,即使在客觀上懲處了機器人,但實際上,當前智能產(chǎn)品并不擁有自我反省的能力。

        (二)決定性:受自然人控制

        不同于上述人工智能的行為風(fēng)險與主觀風(fēng)險附屬于自然人,其旨在表明雖然客觀形式上,強人工智能的編制和設(shè)計程序范圍外的危害行為和自主決策思維,在深度學(xué)習(xí)過程中,是智能產(chǎn)品單獨實施和擁有的,但實際上其可擬制為人類行為的一部分[29]。而本部分論述人類對智能產(chǎn)品的控制,主要表現(xiàn)在部分強人工智能危害行為的發(fā)生,完全符合人工智能刑事風(fēng)險的人類自我罪責(zé)范圍;技術(shù)的研發(fā)和危害結(jié)果的衍生過程,完全受自然人的意志決定。其實施的行為本就應(yīng)當視為人類實施的客觀行為,而并非是一種擬制的自然人行為。

        1.技術(shù)的研發(fā)進程受自然人控制

        立足國家政策層面,諸如人工智能此類新興科技趨勢的推動,完全得益于政府科技創(chuàng)新的前瞻性引領(lǐng)與控制。從《新一代人工智能發(fā)展規(guī)劃》到《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃》,人工智能的先占性、先機性戰(zhàn)略的奠基,為科學(xué)前瞻預(yù)防和約束風(fēng)險擴張鋪墊了良好的發(fā)展態(tài)勢。政府在風(fēng)險規(guī)制決策的環(huán)節(jié),始終無法掙脫“平衡防控風(fēng)險以保障安全和允許創(chuàng)新而發(fā)展科技這兩種對立要求”之漩渦[30],因而零散化、碎片化的危害行為之刑事可罰性,無從苛責(zé)技術(shù)人員和研發(fā)人員。

        但是,從人工智能全篇布局的整體規(guī)劃中,我們不可全盤否決自然人在持續(xù)支配著技術(shù)研發(fā)成果和智能產(chǎn)品操作系統(tǒng)的進程。因而,在前述故意和過失主觀罪過層面,將自然人在研發(fā)過程中因故意或者疏忽心態(tài)導(dǎo)致系統(tǒng)漏洞的行為,評價為行為人的自身實施的危害行為,完全是出于智能機器作為行為載體的一種表現(xiàn)形態(tài)。因此,研發(fā)制造的法益侵害本身的創(chuàng)設(shè),也可以被評價為一種人類犯罪的表現(xiàn)形式

        具體參見:山口厚《刑法總論》(付立慶譯,中國人民大學(xué)出版社,2018年版第45頁);松宮孝明《刑法總論講義》(錢葉六譯,中國人民大學(xué)出版社,2013年版第45頁)。。美國科幻作家阿西莫夫曾提出“機器人三原則”,即“機器人不得危害人類、必須服從人類的命令、在不違反第一條和第二條的情況下必須保護自己”[31],亦可側(cè)面表明技術(shù)的研發(fā)行為實質(zhì)上是一種命令的創(chuàng)造行為。

        2.危害結(jié)果的衍生過程受到支配

        在研發(fā)階段終結(jié)后,面臨的則是弱人工智能指令輸出過程和強人工智能的自我決策過程。通常而言,弱人工智能使用者的指令輸入行為,作為一種典型的支配型犯罪,其作用力的全程支配為危害結(jié)果的罪責(zé)實現(xiàn)提供了刑事可罰性的路徑,亦在責(zé)任非難可能性和刑事違法性的雙向結(jié)合層面,為刑罰適用提供現(xiàn)有體系基礎(chǔ)[22]。但是,強人工智能深度學(xué)習(xí)情況下的行為超越,僅是如前文所述,被擬制為一種人類附屬性行為嗎?其實不然,深度學(xué)習(xí)階段的危害結(jié)果的衍生過程,同樣能直接評價為一種自然人犯罪行為。譬如,智能產(chǎn)品的使用者將受害者的日常行程的路線等詳細信息,植入強人工智能機腦之中,意圖通過大數(shù)據(jù)信息的智能整合來實現(xiàn)殺人的目的。

        其實,強人工智能的不利情況排除,促使行為人殺人計劃順利進行,便是危害結(jié)果衍生過程的行為人支配結(jié)果。因而,前期的強人工智能對犯罪環(huán)境和危害結(jié)果的發(fā)展進程的數(shù)據(jù)分析,應(yīng)當視為故意殺人罪的一種預(yù)備行為,而并非前述的借用強人工智能之手來侵犯法益。眾所周知,任何立法都不是制定者的主觀臆想的表露,尤其是在智能技術(shù)時代,刑事立法更應(yīng)由現(xiàn)有的社會條件所決定,使之與實踐發(fā)展相適應(yīng)。從人類擬制行為到直接行為的實施,都足以表明,智能產(chǎn)品的特定危害行為的刑事可罰性機理,在于人類對結(jié)果衍生過程的支配力。而正是支配過程的助益,使得罪責(zé)自負的主體評價范圍僅限于自然人,而并未涵蓋智能產(chǎn)品。

        3.人類不可能允許技術(shù)超越倫理

        刑法的目的和任務(wù)在于保護法益,法益作為人類所持有的各種合法利益,人類對于智能產(chǎn)品的所有權(quán),可以被視為刑法法益的一種類型。智能產(chǎn)品盡管被作為社會機器人用來與人互動,但就其根本而言,它們也不外乎是各種不同技術(shù)原件——諸如機箱、磁板和傳感器的組合。在現(xiàn)有的立法體系以及刑罰歸責(zé)路徑阻卻下,將機器人作為刑事責(zé)任主體,有違人類對基本倫理的現(xiàn)有認知。立足對合成智能的價值審度,我們應(yīng)當呼喚更加透明、可理解和可追責(zé)的智能系統(tǒng),強調(diào)算法決策與算法權(quán)力的公正性,努力調(diào)和或化解智能化技術(shù)的合理性以及人的主體性存在價值的沖突等訴求。

        基于社會秩序的維護和基本生活的滿足來源于物質(zhì)發(fā)展,機器人作為基本生活和物質(zhì)發(fā)展文明的一部分,難以同自然人主體并存,共同體會基本道德和倫理對自我行為的約束力。況且,人類將刑法作為制度、權(quán)利保障的最后手段,因此, “不切實際的、未實現(xiàn)的未來概念,比如機器人殺手?我們根本無法確切知道殺手將要怎么做。但是大多數(shù)情況下我們都在試圖預(yù)測不存在的超系統(tǒng),在可預(yù)見的未來預(yù)測可能不允許存在的東西,但這不是法律通常的發(fā)展方式”[32]。機器人單個行為主體的認定,首先會在基本倫理范疇受到強大阻礙,何況作為后盾法的刑法保護。人類行使權(quán)利能夠享受正義的喜悅,而脫離正義觀念或者將正義價值附屬于自然人,去認識機器人權(quán)利主體地位,完全背離倫理的認知和常識。

        (三)超越性:可允許性風(fēng)險

        面對智能產(chǎn)品危害行為屬性的漸變和形態(tài)的多樣,持有智能產(chǎn)品刑事責(zé)任主體論的學(xué)者認為,將智能風(fēng)險全部歸為自然人,有違刑法的人性化處斷和理性刑事司法之境遇。為此,在此基礎(chǔ)上,將機器評價為刑事責(zé)任主體,可以部分滌除智能科技的固有缺陷。但是,不容置疑的是,并非所有的科技風(fēng)險都是刑法的評價對象。目前存在的智能科技風(fēng)險擴張化趨勢有其特定的背景支撐,一方面在國家層面上,源于科技專家和政府部門對智能產(chǎn)品未來發(fā)展方向的模糊化和不確信性,激增國民整體的不安全感,其誘發(fā)刑法前置化預(yù)防理念再次顯現(xiàn),以便為超前性刑事立法提供制度保障;另一方面在國民層面上,基于民眾對科技產(chǎn)業(yè)的滿懷期待和過度認知,徒增科技風(fēng)險的潛在心理威脅。人工智能風(fēng)險的不明確性,致使犯罪被害的感受愈發(fā)強烈,刑法偏好在某種程度上影響刑事立法方向[33]。因此,立足科技固有的嘗試性發(fā)展路線,化解科技專家對智能風(fēng)險評估與公眾智能風(fēng)險認知之間存在巨大差異的關(guān)鍵性問題,在于倡導(dǎo)可允許性的智能風(fēng)險規(guī)則[34]。本質(zhì)上,在借助本文主張的智能產(chǎn)品行為的附屬性理念和人類絕對控制性理念之后,機器編制和設(shè)計程序外的自主行為,仍超脫人類思維意志范圍,那么該種風(fēng)險便是法律上可允許性風(fēng)險。其法理根基就在于,部分人工智能的客觀風(fēng)險是人類社會無法預(yù)知、無法規(guī)避以及無法規(guī)制的科技附屬品。

        1.無法預(yù)知

        行為人能夠在某種程度上主觀預(yù)見到人工智能刑事風(fēng)險的存在,則表明其應(yīng)當承擔(dān)防止預(yù)見風(fēng)險實現(xiàn)的義務(wù)。如果違反危險排除義務(wù)性的強制規(guī)定,濫用或放任可預(yù)知的人工智能風(fēng)險,致使其肆意侵蝕國民法益,行為人則應(yīng)當為其可預(yù)見的主觀罪責(zé)風(fēng)險負相應(yīng)的刑事責(zé)任。然而,判定無法預(yù)知的智能風(fēng)險的輻射范圍,不應(yīng)當按照國民的基本認知水平予以界定,而應(yīng)當依據(jù)相當性原理進行判斷。具言之,以禁止性危險作為客觀歸責(zé)的前提條件,對于預(yù)見的因果關(guān)系判斷,應(yīng)當以社會經(jīng)驗法則的具體標準進行界定,并結(jié)合行為構(gòu)成要件模式加以區(qū)分判斷[35]。

        “無法預(yù)知”強調(diào)雖然智能產(chǎn)品危害行為附屬于或者直接受行為人支配,但是在舉動前行為人無法預(yù)知風(fēng)險結(jié)果的發(fā)生,抑或是在行為時無法預(yù)測結(jié)果的產(chǎn)生與發(fā)展(包括結(jié)果的有無、具體形態(tài)及其發(fā)展方向),則不可輕易將客觀科技風(fēng)險強加于自然人。此外,行為、結(jié)果的發(fā)展過程會因相應(yīng)犯罪構(gòu)成要件內(nèi)容的特殊性,而影響相當性原則的判斷。譬如,身份犯的具體職責(zé)性要求、結(jié)果犯和行為犯的既遂標準。因而,筆者認為,采取相當性理念必須摒棄固有的一般人的思維模式。對于研發(fā)者、使用者和管理者附屬或支配的危害結(jié)果的預(yù)知能力,相當性理念應(yīng)當結(jié)合構(gòu)成要件的特殊性,采取不同的標準進行解讀。詳言之,研發(fā)者能夠按照現(xiàn)有的技術(shù)性操作去設(shè)計智能產(chǎn)品,使用者能夠按照出廠的嚴格程序和方法使用和保養(yǎng)智能產(chǎn)品,管理者能夠及時承擔(dān)排除缺陷的智能產(chǎn)品義務(wù)。否則,在上述范圍外的危害行為或者結(jié)果產(chǎn)生,都應(yīng)當歸為無法預(yù)知的可允許性智能風(fēng)險。

        [14]蔡曙山,薛小迪.人工智能與人類智能:從認知科學(xué)五個層級的理論看人機大戰(zhàn)[J].北京大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2016,53(4):145-154.

        [15]劉憲權(quán).人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué),2018(1):134-142.

        [16]李彥宏.智能革命:迎接人工智能時代的社會、經(jīng)濟與文化變革[M].北京:中信出版集團,2017:122.

        [17]翟中東.刑罰問題的社會學(xué)思考:方法及運用[M].北京:法律出版社,2010:122.

        [18]薩賓娜·格萊斯,艾米麗·西爾弗曼,托馬斯·魏根特.若機器人致害,誰將擔(dān)責(zé)?[M]//陳世偉,譯.陳興良.刑事法評論(第40卷).北京:北京大學(xué)出版社,2018.

        [19]馬榮春.刑法公眾認同研究[M].北京:中國政法大學(xué)出版社,2015:123.

        [20]SCHERER M U.Regulating artificial intelligence systems: Risks,challenges,competencies,and strategies[J].Harvard Journal of Law & Technology,2016,29:353-400.

        [21]DURKHEIM E.The Rules of Sociological Method[M].New York:Free Press,1938:23.

        [22]劉憲權(quán).人工智能時代刑事責(zé)任與刑罰體系的重構(gòu)[J].政治與法律,2018(3):89-99.

        [23]雷·庫茲韋爾.人工智能的未來:揭示人類思維的奧妙[M].盛楊燕,譯.杭州:浙江人民出版社,2016:6.

        [24]孫道萃.人工智能對傳統(tǒng)刑法的挑戰(zhàn)[N].檢察日報,2017-10-22(03).

        [25]簡愛.一個標簽理論的現(xiàn)實化進路:刑法謙抑性的司法適用[J].法制與社會發(fā)展,2017, 23 (3):22-35.

        [26]張明楷.外國刑法綱要[M].北京:清華大學(xué)出版社,2016.

        [27]約翰內(nèi)斯·韋塞爾斯.德國刑法總論[M].李昌珂,譯.北京:法律出版社,2016:47.

        [28]杜里奧·帕多瓦尼.意大利刑法學(xué)原理[M].陳忠林,譯.北京:中國人民大學(xué)出版社,2009: 229.

        [29]SEMMLER S,ROSE Z.Artificial intelligence: Application today and implications tomorrow[J].Duke Law & Technology Review, 2018,16:85-99.

        [30]張青波.自我規(guī)制的規(guī)制:應(yīng)對科技風(fēng)險的法理與法制[J].華東政法大學(xué)學(xué)報,2018, 21 (1):98-111.

        [31]ASIMOV I.I, Robot[M].New York: Spectra,2008:5.

        [32]SCHULLER A L.At the crossroads of control: The intersection of artificial intelligence in autonomous weapon systems with international humanitarian law[J].Harvard National Security Journal,2017,8:379-425.

        [33]白建軍.中國民眾刑法偏好研究[J].中國社會科學(xué),2017(1):143-163,207-208.

        [34]艾志強,沈元軍.科技風(fēng)險與公眾認知的關(guān)系研究[J].中國人民大學(xué)學(xué)報,2012, 26 (4):107-114.

        [35]陳興良.本體刑法學(xué)[M].3版.北京:中國人民大學(xué)出版社,2017:236.

        [36]黃榮堅.基礎(chǔ)刑法學(xué)[M].3版.北京:中國人民大學(xué)出版社,2009:75.

        [37]王政勛.刑法解釋的語言論研究[M].北京:商務(wù)印書館,2016:77.

        [38]陳偉,熊波.利用信息網(wǎng)絡(luò)犯罪行為二元形態(tài)的教義解讀[J].上海財經(jīng)大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018,20(2):125-138,152.

        猜你喜歡
        刑事責(zé)任人工智能
        我校新增“人工智能”本科專業(yè)
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        論疑似精神病人的刑事責(zé)任能力
        淺談國家承擔(dān)國際刑事責(zé)任
        網(wǎng)絡(luò)傳銷案中傳銷管理人員的刑事責(zé)任認定
        人間(2016年30期)2016-12-03 20:32:02
        破產(chǎn)管理人的法律責(zé)任
        論被害人過錯行為對行為人刑事責(zé)任的影響
        環(huán)境污染侵害的刑事責(zé)任研究
        av网站韩日在线观看免费| 人人做人人妻人人精| 国产激情在观看| 一区二区三区精品婷婷| 日本熟女中文字幕在线| 小鲜肉自慰网站| 国内免费AV网站在线观看| 日韩极品视频在线观看| 久久精品国产亚洲av高清三区| 人禽交 欧美 网站| 色狠狠色狠狠综合一区| 区一区一日本高清视频在线观看| 麻豆人妻性色av专区0000| 亚洲精品久久区二区三区蜜桃臀| 亚洲成aⅴ人在线观看| 亚洲人av毛片一区二区| 少妇连续高潮爽到抽搐| 欧美日韩精品一区二区三区高清视频 | 蜜桃视频一区二区三区在线观看| 视频一区精品自拍| 久久亚洲综合亚洲综合| 欧美男生射精高潮视频网站| 中文字幕一区二区三区精彩视频| 亚洲成aⅴ人片在线观看天堂无码| 国产av剧情精品麻豆| 国产强被迫伦姧在线观看无码| 国产成人无码区免费网站| 国产麻豆剧传媒精品国产av蜜桃| 国产变态av一区二区三区调教| 樱桃视频影视在线观看免费| 国产综合精品久久亚洲| 国产精品麻豆一区二区三区 | 青青草激情视频在线播放 | 曰本女人与公拘交酡免费视频| 特级毛片全部免费播放a一级| 国产一区二区av免费观看| 亚瑟国产精品久久| 久久九九青青国产精品| 青草草视频在线观看华人免费| 免费看又色又爽又黄的国产软件 | 国产二区中文字幕在线观看|