亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        論人工智能技術(shù)的刑法歸責(zé)路徑

        2022-05-29 07:58:07曾粵興高正旭
        治理研究 2022年3期
        關(guān)鍵詞:法律體系人工智能

        曾粵興 高正旭

        摘要:對(duì)人工智能進(jìn)行法律治理的難點(diǎn),在于人工智能技術(shù)具有相對(duì)獨(dú)立于自然人的智能屬性。鑒于現(xiàn)有的人工智能技術(shù)未能脫離智能工具的范疇,法律規(guī)制的重點(diǎn)不是人工智能技術(shù)本身,而是人工智能背后相關(guān)法律主體的行為。刑法需要把握算法這一人工智能技術(shù)的實(shí)質(zhì)與核心,并以算法安全為紐帶構(gòu)建對(duì)人工智能相關(guān)法律主體的刑事歸責(zé)路徑。在具體方案的設(shè)計(jì)上,需要厘清刑法在人工智能治理活動(dòng)中的功能與定位,避免出現(xiàn)過(guò)度糾結(jié)于技術(shù)邏輯的證明,或?qū)⑿谭üδ芘c前置法之功能相混淆的誤區(qū)。

        關(guān)鍵詞:人工智能;科技風(fēng)險(xiǎn);算法安全;法律體系;刑事歸責(zé)

        中圖分類(lèi)號(hào):D914文獻(xiàn)標(biāo)志碼:A文章編號(hào):1007-9092(2022)03-0113-011

        2017年國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱(chēng)《發(fā)展規(guī)劃》)指出了我國(guó)存在“適應(yīng)人工智能發(fā)展的基礎(chǔ)設(shè)施、政策法規(guī)、標(biāo)準(zhǔn)體系亟待完善”的現(xiàn)狀,自此人工智能相關(guān)的法律問(wèn)題迅速成為我國(guó)法學(xué)領(lǐng)域研究的熱點(diǎn)。刑法應(yīng)當(dāng)如何對(duì)人工智能進(jìn)行歸責(zé),是近年來(lái)理論界的熱門(mén)話(huà)題。目前的共識(shí)是,對(duì)于人工智能技術(shù)的發(fā)展,刑法的主要任務(wù)是防御人工智能技術(shù)給社會(huì)帶來(lái)的不確定風(fēng)險(xiǎn),同時(shí)也需要認(rèn)識(shí)到智能技術(shù)是當(dāng)今世界新的技術(shù)高地,我國(guó)必須全力爭(zhēng)取在智能技術(shù)上的國(guó)際領(lǐng)先地位,所以在針對(duì)人工智能設(shè)計(jì)相應(yīng)法律規(guī)則時(shí),需要給技術(shù)進(jìn)步留下合理空間。從刑法的角度看,人工智能所涉刑法問(wèn)題,實(shí)際上屬于刑法與科技、刑法與前置法共治的領(lǐng)域。所謂共治,是指不同的群體在平等基礎(chǔ)上的合作。雖然在某一領(lǐng)域中實(shí)現(xiàn)了價(jià)值與目標(biāo)上的統(tǒng)一,但是不同治理手段在實(shí)現(xiàn)治理的途徑、方式、作用等方面存在區(qū)別。就人工智能法律治理而言,前置法與刑法之間存在著法律體系中層次的不同,只有當(dāng)前置法無(wú)法有效規(guī)制相關(guān)行為時(shí),刑法才進(jìn)行介入。而法律與科技則屬于不同的領(lǐng)域,科技作為當(dāng)今社會(huì)重要的生產(chǎn)要素,有其自身發(fā)展進(jìn)步的規(guī)律與知識(shí)體系,而法律在為科技進(jìn)步創(chuàng)造良好的社會(huì)環(huán)境的同時(shí),也需要限制科學(xué)技術(shù)手段可能給社會(huì)帶來(lái)的副作用。

        在目前法律框架下,刑法所需要做到的是針對(duì)人工智能所產(chǎn)生的刑法問(wèn)題尋找合適的切入點(diǎn)實(shí)現(xiàn)對(duì)人工智能相關(guān)主體的刑事責(zé)任判斷,從而使刑法有效參與到人工智能的治理活動(dòng)中。我國(guó)具體負(fù)責(zé)推進(jìn)規(guī)劃實(shí)施人工智能發(fā)展戰(zhàn)略的科技部下屬?lài)?guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì),于2021年9月25日發(fā)布了《新一代人工智能倫理規(guī)范》(以下簡(jiǎn)稱(chēng)《倫理規(guī)范》),本文將結(jié)合該規(guī)范的相關(guān)內(nèi)容,對(duì)人工智能的刑法歸責(zé)路徑進(jìn)行探討。

        一、人工智能的法律歸責(zé)困境

        人工智能技術(shù)不同于其他科學(xué)技術(shù)的關(guān)鍵點(diǎn),在于目前有深度學(xué)習(xí)功能的人工智能系統(tǒng)已經(jīng)可以通過(guò)與環(huán)境的交互和不斷地試錯(cuò)而具有自主學(xué)習(xí)的能力,相對(duì)于早期的弱人工智能而言,已經(jīng)進(jìn)入強(qiáng)人工智能階段,使其一定程度上獨(dú)立于相關(guān)的自然人。曾毅、劉成林、譚鐵牛:《類(lèi)腦智能研究的回顧與展望》,《計(jì)算機(jī)學(xué)報(bào)》,2016年第1期。這也成為了刑法對(duì)人工智能進(jìn)行歸責(zé)的難點(diǎn)。

        (一) 人工智能的工具屬性

        人工智能區(qū)別于其他科學(xué)技術(shù)的智能能力,指可以執(zhí)行通常與人類(lèi)智慧有關(guān)的智能行為,如推理、識(shí)別、感知、思考、規(guī)劃、學(xué)習(xí)等等。關(guān)于人工智能技術(shù),存在著兩種不同的發(fā)展理念:第一種是,屬于智能工具,用以減輕人類(lèi)勞動(dòng)的弱人工智能;第二種是,屬于社會(huì)進(jìn)步的主體,達(dá)到或超越人類(lèi)智慧水平,具有心智和意識(shí),依據(jù)獨(dú)立意圖開(kāi)展行動(dòng)的強(qiáng)人工智能。從技術(shù)層面看,目前人工智能所取得的進(jìn)展和成功基本上都是基于弱人工智能技術(shù),但在軍事、家庭生活(如性伴侶、棋手)等個(gè)別領(lǐng)域,已進(jìn)入強(qiáng)人工智能階段,預(yù)計(jì)在不遠(yuǎn)的將來(lái),會(huì)進(jìn)入超強(qiáng)智能階段,為此,有人擔(dān)憂(yōu)人工智能的進(jìn)一步發(fā)展,有可能終結(jié)人類(lèi)文明。實(shí)證研究顯示,大多數(shù)社會(huì)公眾并不希望人工智能完全獨(dú)立于人類(lèi)。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,F(xiàn)rontiers in Robotics and AI, vol. 8 (November 2021), p.5.當(dāng)然,據(jù)此我們還無(wú)法否定未來(lái)出現(xiàn)超強(qiáng)人工智能的可能性。人工智能技術(shù)的進(jìn)一步發(fā)展,可能會(huì)使人工智能這一純粹的技術(shù)性問(wèn)題最終超越科學(xué)的領(lǐng)域,對(duì)人類(lèi)社會(huì)的倫理、道德、法律等方面產(chǎn)生深遠(yuǎn)的影響。其中既可能存在技術(shù)進(jìn)步所帶來(lái)的福利,也可能產(chǎn)生傳統(tǒng)社會(huì)難以預(yù)見(jiàn)到的風(fēng)險(xiǎn),“面對(duì)人工智能技術(shù)發(fā)展可能帶來(lái)的負(fù)面影響,我們刑法學(xué)者不應(yīng)該無(wú)動(dòng)于衷,刑事立法和刑事司法更不應(yīng)該面臨危險(xiǎn)而束手無(wú)策”。劉憲權(quán):《人工智能時(shí)代的“內(nèi)憂(yōu)”“外患”及刑事責(zé)任》,《東方法學(xué)》,2018年第1期。

        據(jù)此,刑法理論對(duì)人工智能的獨(dú)立刑事責(zé)任地位進(jìn)行了廣泛探討。如認(rèn)為對(duì)人工智能刑事責(zé)任主體地位的研究符合時(shí)代發(fā)展需求,如果一定要等到強(qiáng)人工智能全面到來(lái)的時(shí)代再研究相關(guān)法律問(wèn)題,會(huì)使得法律及相應(yīng)的規(guī)章制度落后于科技進(jìn)步,只有進(jìn)行前瞻式的研究才能消除人們對(duì)人工智能犯罪的恐懼。彭文華:《人工智能的刑法規(guī)制》,《現(xiàn)代法學(xué)》,2019年第5期。也有的認(rèn)為,承認(rèn)人工智能的刑事責(zé)任主體地位并非沒(méi)有意義,因?yàn)槿斯ぶ悄艿摹爸悄堋眮?lái)自于對(duì)海量數(shù)據(jù)的學(xué)習(xí),對(duì)人工智能施以刑罰,可以使人工智能通過(guò)對(duì)相關(guān)法律信息和判例的收集獲取正確的法律觀念,實(shí)現(xiàn)一般預(yù)防的作用。程龍:《自動(dòng)駕駛車(chē)輛交通肇事的刑法規(guī)制》,《學(xué)術(shù)交流》,2018年第4期。

        類(lèi)似的研究具有一定的前瞻性,但針對(duì)的也都是今后可能出現(xiàn)的超強(qiáng)人工智能,對(duì)于現(xiàn)有的弱人工智能技術(shù)而言,其智能的實(shí)質(zhì)是依照生產(chǎn)時(shí)所用的算法規(guī)則,對(duì)外界事物或指令所作出的反應(yīng)。松尾豐、鹽野誠(chéng):《大智能時(shí)代:智能科技如何改變?nèi)祟?lèi)的經(jīng)濟(jì)、社會(huì)與生活》,陸貝旎譯,機(jī)械工業(yè)出版社2016年版,第6頁(yè)?,F(xiàn)有的弱人工智能技術(shù)不具備獨(dú)立于自然人的自由意志,并且具有可支配性,所以弱人工智能沒(méi)有脫離智能工具的范疇,理論上尚無(wú)討論其獨(dú)立刑事責(zé)任主體的空間,因?yàn)椤胺勺鳛樽钪匾纳鐣?huì)規(guī)范,最終要來(lái)源于社會(huì)存在的合理要求,而不應(yīng)該來(lái)自空洞的想象力”。龍衛(wèi)球:《人工智能立法規(guī)范對(duì)象與規(guī)范策略》,《政法論叢》,2020年第3期。而且部分應(yīng)用領(lǐng)域中基本不可能發(fā)展出強(qiáng)人工智能,如在醫(yī)療領(lǐng)域中,無(wú)論技術(shù)如何進(jìn)步,或許都不能否認(rèn)自然人醫(yī)師在醫(yī)療過(guò)程中的主導(dǎo)地位,完全自主的醫(yī)療人工智能并不符合人工智能有益、可控的發(fā)展目標(biāo),也不能符合社會(huì)的需要。退一步講,即使出現(xiàn)了醫(yī)療領(lǐng)域的強(qiáng)人工智能,在患者使用完全脫離醫(yī)師主導(dǎo)的醫(yī)療人工智能進(jìn)行治療的情況下,因?yàn)槿狈Α搬t(yī)師—患者—醫(yī)療機(jī)構(gòu)”之間的醫(yī)患關(guān)系基本結(jié)構(gòu),這種治療已變成患者本人運(yùn)用智能設(shè)備的“自診”的行為,難以通過(guò)現(xiàn)行的醫(yī)事法律規(guī)范和醫(yī)事犯罪的相關(guān)規(guī)定進(jìn)行處理。皮勇:《論醫(yī)療人工智能的刑法問(wèn)題》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào)),2021年第1期。

        同時(shí),即使贊同人工智能的犯罪主體地位,也需要注意到人工智能的智能程度劃分是需要技術(shù)方面的工作,并不是法律上的簡(jiǎn)單判斷。因?yàn)槿斯ぶ悄苤黧w雖然具備相對(duì)獨(dú)立于自然人的“智能”,但是不可能做到完全等同于自然人的思考與判斷,對(duì)于其“智能”的基本組成要素、判斷規(guī)則以及具體標(biāo)準(zhǔn)等,都屬于需要技術(shù)領(lǐng)域回答的重要問(wèn)題。王燕玲:《人工智能時(shí)代的刑法問(wèn)題與應(yīng)對(duì)思路》,《政治與法律》,2019年第1期。在相應(yīng)技術(shù)標(biāo)準(zhǔn)尚不明確的情況下,在刑法領(lǐng)域中并不具備對(duì)人工智能的刑事責(zé)任主體地位進(jìn)行有效探討的條件。

        從國(guó)家對(duì)人工智能技術(shù)發(fā)展的具體要求來(lái)看,《倫理規(guī)范》第3條第4款的規(guī)定延續(xù)了《發(fā)展規(guī)劃》中“確保人工智能安全、可靠、可控發(fā)展”的要求,明確指出人工智能開(kāi)發(fā)需要堅(jiān)持可控可信的原則,不能剝奪人類(lèi)的“充分自主決策權(quán)”,人類(lèi)有權(quán)隨時(shí)退出與人工智能的交互,有權(quán)隨時(shí)終止人工智能的運(yùn)行,從而確保人工智能始終處于人類(lèi)控制之下。所以即使人工智能技術(shù)對(duì)國(guó)家發(fā)展具有戰(zhàn)略意義,完全脫離自然人管控范圍的超強(qiáng)人工智能也不是我國(guó)人工智能技術(shù)的發(fā)展方向。

        當(dāng)代刑法肩負(fù)積極有效貫徹安全政策、保證國(guó)家總體安全的特殊使命。需要為社會(huì)提供積極能動(dòng)但又不失審慎適度的刑法保障安全之邏輯與方案。高銘暄、孫道萃:《總體國(guó)家安全觀下的中國(guó)刑法之路》,《東南大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版),2021年第2期。所以在進(jìn)行前瞻性思考之外,我們更需將目光聚焦在當(dāng)下,在認(rèn)識(shí)到其工具屬性本質(zhì)的基礎(chǔ)上,對(duì)現(xiàn)有人工智能技術(shù)給法律制度、法學(xué)理論所產(chǎn)生的影響進(jìn)行分析,提出合理的解決方案,這也有利于增強(qiáng)社會(huì)公眾對(duì)人工智能技術(shù)的信任,從而保障人工智能技術(shù)的進(jìn)一步健康發(fā)展。畢竟法律是行為規(guī)范,科技本身不會(huì)成為法律規(guī)范的對(duì)象,需要規(guī)范的是科技活動(dòng)及其產(chǎn)生的社會(huì)問(wèn)題。龍衛(wèi)球:《人工智能立法規(guī)范對(duì)象與規(guī)范策略》,《政法論叢》,2020年第3期。

        (二)算法黑箱問(wèn)題

        算法作為人工智能技術(shù)的核心,其本質(zhì)是計(jì)算機(jī)按照一系列指令去執(zhí)行、處理收集到的數(shù)據(jù)。算法可以根據(jù)收集到的數(shù)據(jù)對(duì)原有的算法模型和假設(shè)進(jìn)行持續(xù)檢驗(yàn),并作出實(shí)時(shí)調(diào)整,從而構(gòu)成了人工智能相對(duì)獨(dú)立于自然人個(gè)體的智能化基礎(chǔ)。金東寒主編:《秩序的重構(gòu):人工智能與人類(lèi)社會(huì)》,上海大學(xué)出版社2017年版,第105頁(yè)。對(duì)社會(huì)公眾而言,算法這一相對(duì)獨(dú)立的決策過(guò)程具有不可知的技術(shù)邏輯,即算法黑箱。在智能時(shí)代中這種不可知的技術(shù)邏輯正在深刻影響著我們的生活,在我們已知或未知的領(lǐng)域替我們做著決定,引導(dǎo)我們的行為,故算法黑箱被視為人工智能技術(shù)風(fēng)險(xiǎn)的根源。在刑法理論上,算法黑箱問(wèn)題則是對(duì)人工智能所造成的損害進(jìn)行歸因判斷的一大障礙。

        刑法中的歸因判斷,是指通過(guò)行為人的行為與損害結(jié)果之間的因果關(guān)系,確定結(jié)果是否可以歸屬于一定的行為?;谒惴ǖ莫?dú)立運(yùn)行邏輯,在歸因上需要判斷算法的獨(dú)立運(yùn)行是否會(huì)割裂損害結(jié)果與相關(guān)主體行為之間的因果關(guān)系。因?yàn)槿绻J(rèn)為算法的運(yùn)行邏輯對(duì)人工智能設(shè)計(jì)者或使用者而言是不可知、不可控的過(guò)程,則難以認(rèn)為算法所導(dǎo)致的損害可以歸屬于相關(guān)的法律主體。

        辨析算法運(yùn)行中的邏輯,涉及算法的解釋問(wèn)題。對(duì)于算法是否能夠被解釋?zhuān)杏^點(diǎn)指出現(xiàn)實(shí)中許多大型算法應(yīng)用往往存在多種算法疊加使用的現(xiàn)象,使得專(zhuān)業(yè)人員也難以對(duì)其解釋?zhuān)壹幢憧梢越忉專(zhuān)忉尩慕Y(jié)論也難以被一般公眾所理解。蘇宇:《算法規(guī)制的譜系》,《中國(guó)法學(xué)》,2020年第3期。相反的觀點(diǎn)則認(rèn)為,算法的設(shè)計(jì)是一個(gè)具有目的性的過(guò)程,即使存在有將算法進(jìn)行拆分或組合使用的復(fù)雜算法,設(shè)計(jì)算法所欲追求的目的也是可以探求和解釋的,所以算法黑箱是相對(duì)的,對(duì)算法黑箱的懷疑和恐懼,實(shí)質(zhì)是社會(huì)公眾對(duì)算法決策中因果關(guān)系認(rèn)知的斷裂。金夢(mèng):《立法倫理與算法正義:算法主體行為的法律規(guī)制》,《政法論壇》,2021年第1期。

        雖然對(duì)算法黑箱的認(rèn)識(shí)具有一定分歧,但從以下角度來(lái)看,算法黑箱的存在并不能否認(rèn)弱人工智能所具有的工具屬性,也就不能割裂人工智能損害結(jié)果和相關(guān)主體行為之間的因果關(guān)系。

        首先,算法在設(shè)計(jì)上需要人為地設(shè)定價(jià)值目標(biāo)。在算法設(shè)計(jì)時(shí)所設(shè)定的價(jià)值目標(biāo)相當(dāng)于設(shè)計(jì)者給算法所下達(dá)的指令,之后算法的所有運(yùn)作雖看似是一個(gè)脫離人為控制的狀態(tài),但實(shí)質(zhì)上都是依據(jù)所收集的數(shù)據(jù)和環(huán)境信息,不斷朝向最初設(shè)置的目標(biāo)運(yùn)作并優(yōu)化的過(guò)程。金夢(mèng):《立法倫理與算法正義:算法主體行為的法律規(guī)制》,《政法論壇》,2021年第1期。部分算法風(fēng)險(xiǎn),即源于最初的價(jià)值設(shè)定偏差。算法在自我運(yùn)行時(shí)應(yīng)該收集什么類(lèi)型的數(shù)據(jù),也需要人為設(shè)定。因此,算法在運(yùn)行中所做的任何決定都需要由人類(lèi)授權(quán),人類(lèi)可以對(duì)他們?cè)陂_(kāi)發(fā)和使用人工智能和算法時(shí)所做的決定負(fù)責(zé)。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2055.又如在人工智能的倫理問(wèn)題方面,人工智能難以通過(guò)自我學(xué)習(xí)來(lái)認(rèn)識(shí)廣大的社會(huì)系統(tǒng),進(jìn)而形成合理的倫理觀念,但設(shè)計(jì)者完全可以賦予算法一定的價(jià)值判斷規(guī)則,使算法的決策盡可能符合社會(huì)倫理。故弱人工智能應(yīng)用的算法在合規(guī)律地運(yùn)行時(shí),可以視為設(shè)計(jì)者價(jià)值訴求的體現(xiàn),對(duì)此也可以要求算法的設(shè)計(jì)者通過(guò)分析各種風(fēng)險(xiǎn)會(huì)以何種方式進(jìn)入系統(tǒng),對(duì)相關(guān)風(fēng)險(xiǎn)進(jìn)行積極規(guī)避。沈向洋、施博德:《計(jì)算未來(lái):人工智能及其社會(huì)角色》,北京大學(xué)出版社2018年版,第26頁(yè)。其次,在算法運(yùn)行的過(guò)程中可以實(shí)現(xiàn)人為的干預(yù)。目前主流人工智能技術(shù)以具有工具屬性的弱人工智能為發(fā)展方向,《發(fā)展規(guī)劃》和《倫理規(guī)范》也并不贊同開(kāi)發(fā)獨(dú)立于自然人的超強(qiáng)人工智能,發(fā)展人工智能技術(shù)的目的在于使其更好地服務(wù)于人類(lèi),實(shí)現(xiàn)人工智能與人類(lèi)的協(xié)調(diào)工作,所以人機(jī)交互是人工智能發(fā)展所需突破的重要技術(shù)領(lǐng)域,使人工智能系統(tǒng)更好地接受、理解人所給予的指令。如自動(dòng)駕駛汽車(chē),其駕駛行為雖是自動(dòng)的,但何時(shí)出發(fā)、目的地的設(shè)定、中途是否需要更換目的地或停車(chē),都要依照人的指令決定。且對(duì)于自動(dòng)駕駛汽車(chē)而言,不僅使用者在使用時(shí)可以對(duì)其下達(dá)指令,如果沒(méi)有相關(guān)的保護(hù)措施,自動(dòng)駕駛汽車(chē)可能會(huì)被黑客通過(guò)網(wǎng)絡(luò)侵入其自動(dòng)駕駛系統(tǒng)而劫持。Kyounggon Kim, Jun Seok Kim, Seonghoon Jeong, Jo-Hee Park and Huy Kang Kim, “Cybersecurity for Autonomous Vehicles: Review of Attacks and Defense”,Computers & Security, vol. 103 (April 2021), p.21.研究也發(fā)現(xiàn),如果用戶(hù)對(duì)算法進(jìn)行輕微的控制,部分算法錯(cuò)誤是可以被克服的。Gabriel Lima, Meeyoung Cha, Chihyung Jeon and Kyungsin Park, “The Conflict Between People’s Urge to Punish AI and Legal Systems”,F(xiàn)rontiers in Robotics and AI, vol. 8 (November 2021), p.2.故在具體應(yīng)用的過(guò)程中,人工智能也處于相關(guān)法律主體的支配之下。

        智能技術(shù)雖然在一定領(lǐng)域內(nèi)可以實(shí)現(xiàn)自主運(yùn)行,但是不具有自由意志和可以由人所支配兩大特征,決定了目前的智能技術(shù)及產(chǎn)品仍屬于一種為人所支配的工具。劉憲權(quán):《智能機(jī)器人工具屬性之法哲學(xué)思考》,《中國(guó)刑事法雜志》,2020年第5期。在目前的技術(shù)條件下,通常程序員和用戶(hù)都知道他們想如何處理人工智能,更準(zhǔn)確地說(shuō),他們知道自己希望人工智能為他們做什么。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2059.所以一定程度上算法黑箱的存在,并不足以使我們積極承認(rèn)人工智能的獨(dú)立主體地位,更不能割裂算法相關(guān)主體與損害結(jié)果之間的因果關(guān)系?!秱惱硪?guī)范》第12條對(duì)實(shí)現(xiàn)人工智能算法“可驗(yàn)證、可審核、可監(jiān)督、可追溯、可預(yù)測(cè)、可信賴(lài)”的要求,也破除了今后算法黑箱可能對(duì)刑法歸責(zé)產(chǎn)生的障礙。如果在偶然情況下出現(xiàn)了算法完全失控的情形,則在刑法上應(yīng)依據(jù)意外事件處理,而不是積極追究相關(guān)主體的刑事責(zé)任。魏東:《人工智能犯罪的可歸責(zé)主體探究》,《理論探索》,2019年第5期。而關(guān)于算法是否完全失控屬于技術(shù)領(lǐng)域需要判斷的問(wèn)題,必須由相關(guān)技術(shù)機(jī)構(gòu)進(jìn)行鑒定從而得出結(jié)論。

        二、以算法為切入點(diǎn)的歸責(zé)路徑

        上文的分析指出了刑法對(duì)人工智能相關(guān)主體進(jìn)行歸責(zé)不存在根本性障礙的問(wèn)題,接下來(lái)需要討論的是刑法需要對(duì)什么樣的主體進(jìn)行歸責(zé)和應(yīng)當(dāng)以什么樣的切入點(diǎn)對(duì)相關(guān)主體進(jìn)行歸責(zé)。

        (一)歸責(zé)的對(duì)象

        在關(guān)于人工智能刑事主體地位的討論中,理論上很多觀點(diǎn)認(rèn)為我國(guó)刑法中的單位刑事主體資格是刑法擬制的結(jié)果,所以對(duì)人工智能刑事責(zé)任主體地位進(jìn)行擬制也不存在障礙。但是單位實(shí)質(zhì)上是自然人權(quán)利與義務(wù)的集合體,對(duì)單位刑事責(zé)任的探討,也是通過(guò)單位中具體自然人的意志和行為來(lái)進(jìn)行的。黎宏:《刑法學(xué)總論》,法律出版社2016年版,第111頁(yè)。同樣,對(duì)單位施以刑罰,實(shí)際上剝奪的是單位中具體自然人的權(quán)利,從而起到刑罰預(yù)防犯罪的效果。所以,刑法對(duì)單位主體的擬制,并不能用來(lái)支持人工智能的獨(dú)立刑事主體地位。基于目前人工智能所具有的工具屬性,人工智能所造成的損害,歸根結(jié)底是相關(guān)主體行為所造成的損害,刑罰要實(shí)現(xiàn)對(duì)犯罪的預(yù)防,就需透過(guò)人工智能這一技術(shù)工具,尋找其背后的可歸責(zé)主體。

        在現(xiàn)代技術(shù)使用和發(fā)展的過(guò)程中,往往存在一個(gè)漫長(zhǎng)的因果鏈,在人工智能技術(shù)中這一點(diǎn)尤其突出。人工智能所運(yùn)用的復(fù)雜軟件系統(tǒng)往往有著許多開(kāi)發(fā)人員在不同階段參與軟件各個(gè)部分的研發(fā),即使在人工智能基于算法自我學(xué)習(xí)的情況下,也有一個(gè)數(shù)據(jù)的生產(chǎn)、選擇和處理的過(guò)程,這一過(guò)程同樣也需要有多主體多階段地參與。無(wú)論是提供數(shù)據(jù)的人、收集和處理數(shù)據(jù)的人、出售數(shù)據(jù)的人、分析數(shù)據(jù)的人等,都有可能影響人工智能自我學(xué)習(xí)的過(guò)程。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2057.同時(shí),每一個(gè)參與其中的主體,都只對(duì)自己所參與的具體階段具有認(rèn)識(shí),而無(wú)法預(yù)測(cè)也無(wú)法控制在上一階段或下一階段中其他主體對(duì)人工智能運(yùn)作過(guò)程所施加的影響。該因果鏈條還可以繼續(xù)延伸至算法的應(yīng)用階段,在算法被使用者所支配時(shí),也完全可以產(chǎn)生相應(yīng)的損害結(jié)果。并且在此因果鏈條中,人工智能所造成的損害有可能是由多個(gè)階段因果關(guān)系所疊加造成,也完全可能是由當(dāng)中的某一階段所獨(dú)立造成,故理論上將人工智能責(zé)任判斷的特點(diǎn)概括為一種“多主體的責(zé)任”(the Problem of Many Hands)。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2057.如何在因果鏈條中準(zhǔn)確定位出原因行為,對(duì)于人工智能相關(guān)主體的責(zé)任判定具有關(guān)鍵性意義。

        《倫理規(guī)范》第2條規(guī)定了該規(guī)范的適用主體包括“從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等”,并在第2條第1款至第4款中明確了相關(guān)主體的定義。該規(guī)定為人工智能相關(guān)主體劃定了具體的范圍,并且符合人工智能“多主體責(zé)任”的特點(diǎn),對(duì)“管理、研發(fā)、供應(yīng)、使用”中的主體行為進(jìn)行規(guī)制,可以覆蓋人工智能從設(shè)計(jì)研發(fā)到最終投入使用的每一個(gè)環(huán)節(jié)。就刑法而言,需要重視《倫理規(guī)范》對(duì)人工智能相關(guān)主體范圍的界定,因?yàn)檫^(guò)去刑法理論界對(duì)人工智能產(chǎn)品責(zé)任的討論,往往只集中于生產(chǎn)者和使用者這二者之間的責(zé)任劃分上。陳禹衡:《算法優(yōu)化語(yǔ)境下自動(dòng)駕駛汽車(chē)交通肇事的困境紓解》,《蘇州大學(xué)學(xué)報(bào)》(法學(xué)版),2021年第3期。這種責(zé)任劃分與2017年的《發(fā)展規(guī)劃》中對(duì)人工智能“實(shí)行設(shè)計(jì)問(wèn)責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)”進(jìn)而將監(jiān)管重點(diǎn)放在設(shè)計(jì)和應(yīng)用兩個(gè)方面的要求相符合,能夠有效處理大部分人工智能產(chǎn)品致?lián)p的案件。但《倫理規(guī)范》中對(duì)相關(guān)主體范圍的界定帶給刑法理論的啟示是:有時(shí)人工智能損害的原因并不來(lái)源于生產(chǎn)者或者使用者,在人工智能管理或者研發(fā)環(huán)節(jié)出現(xiàn)的問(wèn)題,也完全有可能導(dǎo)致?lián)p害結(jié)果的發(fā)生,進(jìn)而產(chǎn)生刑事歸責(zé)的問(wèn)題。如既然要求建立相應(yīng)的人工智能監(jiān)管機(jī)制,依法負(fù)有對(duì)人工智能相關(guān)活動(dòng)監(jiān)管義務(wù)的國(guó)家機(jī)關(guān)工作人員,就有可能因工作失職構(gòu)成玩忽職守或?yàn)E用職權(quán)罪,這是監(jiān)督過(guò)失原理能夠得出的結(jié)論。又如人工智能產(chǎn)品的生產(chǎn)活動(dòng)依照《倫理規(guī)范》第2條的定義屬于人工智能的供應(yīng)環(huán)節(jié),而在人工智能技術(shù)的開(kāi)發(fā)過(guò)程中,人工智能的生產(chǎn)者和研發(fā)者有可能并不是同一主體。如在生產(chǎn)過(guò)程中疊加使用已公開(kāi)的算法技術(shù)的情形下,生產(chǎn)者并不能支配上游算法研發(fā)的過(guò)程,而上游算法研發(fā)過(guò)程中出現(xiàn)的偏差,往往就是導(dǎo)致人工智能出現(xiàn)缺陷問(wèn)題的根源。人工智能“管理、研發(fā)、供應(yīng)、使用”的主體都能夠在不同階段實(shí)現(xiàn)對(duì)人工智能的控制或干預(yù),也就需要為此負(fù)擔(dān)相應(yīng)的義務(wù),這是業(yè)務(wù)過(guò)失原理能夠產(chǎn)生的結(jié)論。

        風(fēng)險(xiǎn)社會(huì)中安全是刑法所需要堅(jiān)持的基本價(jià)值取向之一,并且在特定的情況下刑法的安全價(jià)值優(yōu)先于其他價(jià)值,即有時(shí)只有在實(shí)現(xiàn)安全價(jià)值的前提下,刑法才能追求其他的價(jià)值。魏漢濤:《人類(lèi)基因編輯行為的刑法規(guī)制》,《法商研究》,2021年第5期。所以,如果僅僅從生產(chǎn)者和使用者的角度進(jìn)行討論,會(huì)忽視了同樣處于“多主體責(zé)任”因果鏈條中的人工智能管理者和研發(fā)者,難以符合當(dāng)代刑法防御科技風(fēng)險(xiǎn)的需求。當(dāng)然,人工智能所造成的損害也可能存在無(wú)法對(duì)相關(guān)主體歸責(zé)的情況。比如在研發(fā)、供應(yīng)、管理、使用環(huán)節(jié)都符合規(guī)范要求的情況下,人工智能所應(yīng)用的算法也可能產(chǎn)生算法歧視、算法偏見(jiàn)的現(xiàn)象。其原因可能是算法自主學(xué)習(xí)了網(wǎng)絡(luò)上普遍存在的歧視性、偏見(jiàn)性知識(shí),這種現(xiàn)象是算法對(duì)于社會(huì)客觀存在的反映,可以說(shuō)整個(gè)社會(huì)群體都對(duì)此負(fù)有責(zé)任。Mark Coeckelbergh, “Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability”,Science and Engineering Ethics, vol. 26, no. 4 (August 2020), p.2064.對(duì)于此類(lèi)現(xiàn)象,刑法需要保持應(yīng)有的謙抑,即使為了防御風(fēng)險(xiǎn)也不能僅依照結(jié)果進(jìn)行追責(zé),否則容易擴(kuò)大打擊面,使刑事責(zé)任蛻變?yōu)橐环N單純的結(jié)果責(zé)任,從而迫使人工智能從業(yè)人員戰(zhàn)戰(zhàn)兢兢,畏首畏尾,不適當(dāng)?shù)匾种扑惴ㄟM(jìn)步和人工智能的正常發(fā)展。

        (二)算法的紐帶作用

        確定需要追責(zé)的主體范圍后,我們可以進(jìn)一步考察確認(rèn)相關(guān)主體刑事責(zé)任的具體路徑。

        以自動(dòng)駕駛汽車(chē)為例,自動(dòng)駕駛汽車(chē)責(zé)任判斷的難點(diǎn)在于確認(rèn)當(dāng)自動(dòng)駕駛造成損害時(shí)自動(dòng)汽車(chē)究竟處于哪一主體的控制之下。《倫理規(guī)范》第15條規(guī)定了人工智能生產(chǎn)者具有“加強(qiáng)質(zhì)量管控,不得經(jīng)營(yíng)、銷(xiāo)售或提供不符合質(zhì)量標(biāo)準(zhǔn)的產(chǎn)品與服務(wù)”的義務(wù);第22條規(guī)定了人工智能的使用者具有“主動(dòng)掌握人工智能產(chǎn)品與服務(wù)的運(yùn)營(yíng)、維護(hù)、應(yīng)急處置等各使用環(huán)節(jié)所需技能,確保人工智能產(chǎn)品與服務(wù)安全使用和高效利用”的義務(wù)。從這兩條規(guī)定來(lái)看,在產(chǎn)品缺陷導(dǎo)致自動(dòng)汽車(chē)肇事時(shí),可以對(duì)相關(guān)生產(chǎn)商以生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪定罪處罰。從邏輯上說(shuō),如果生產(chǎn)者明知自動(dòng)駕駛系統(tǒng)存在嚴(yán)重的算法缺陷,可能導(dǎo)致使用過(guò)程中出現(xiàn)肇事結(jié)果而予以隱瞞,最終導(dǎo)致使用者肇事結(jié)果的發(fā)生,其主觀上具有放任的故意,從而競(jìng)合以危險(xiǎn)方法危害公共安全罪,應(yīng)當(dāng)以較重的罪名從重處罰。但筆者認(rèn)為,鑒于人工智能尚處于需要進(jìn)一步發(fā)展的狀態(tài),嚴(yán)苛的責(zé)任固然可能存在一般預(yù)防的功能,但也可能壓抑設(shè)計(jì)者、生產(chǎn)者的探索熱情,因此,筆者主張即使上述邏輯推演能夠成立,也應(yīng)當(dāng)立足于司法的謙抑而作出有利于被告的認(rèn)定。質(zhì)言之,僅僅以法定刑相對(duì)于較輕的生產(chǎn)、銷(xiāo)售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪問(wèn)責(zé),即可在一般預(yù)防與特殊預(yù)防之間找到平衡點(diǎn)。而在自動(dòng)汽車(chē)不存在產(chǎn)品問(wèn)題時(shí),根據(jù)《倫理規(guī)范》第3條的規(guī)定,人工智能使用者“有權(quán)隨時(shí)終止人工智能系統(tǒng)的運(yùn)行,確保人工智能始終處于人類(lèi)控制之下”的規(guī)定,似乎可以推導(dǎo)出使用者有預(yù)見(jiàn)肇事結(jié)果的義務(wù)和能力的,從而進(jìn)一步演繹出使用者對(duì)事故存在過(guò)失的結(jié)論,最終要求使用者對(duì)交通肇事結(jié)果承擔(dān)罪責(zé)。對(duì)使用者而言,一般不會(huì)出現(xiàn)明知車(chē)輛自動(dòng)駕駛系統(tǒng)存在算法缺陷有肇事可能仍然敢于駕馭的情況,因此很難得出使用者對(duì)肇事結(jié)果存在故意的結(jié)論。

        之所以發(fā)展自動(dòng)駕駛技術(shù),是為了提高道路交通的便利程度。對(duì)于使用者而言,自動(dòng)駕駛技術(shù)可以最大程度地將使用者從駕駛員的身份中解放出來(lái),減輕駕駛行為對(duì)其產(chǎn)生的負(fù)擔(dān)。在此情況下,如果還需要使用者承擔(dān)駕駛普通汽車(chē)一般的注意義務(wù),否則可能因此承擔(dān)刑事責(zé)任的話(huà),會(huì)使自動(dòng)駕駛汽車(chē)對(duì)消費(fèi)者的吸引力大打折扣。依照自動(dòng)駕駛技術(shù)最大程度減輕駕駛員負(fù)擔(dān)的目的,理論上認(rèn)為自動(dòng)駕駛汽車(chē)的使用者,在智能系統(tǒng)完全接管汽車(chē)運(yùn)行的過(guò)程中,即使出現(xiàn)事故也可以依照信賴(lài)原則得以免責(zé),只有在自動(dòng)駕駛系統(tǒng)對(duì)使用者發(fā)出提示時(shí),使用者才有義務(wù)介入以保障駕駛安全。付玉明:《自動(dòng)駕駛汽車(chē)事故的刑事歸責(zé)與教義展開(kāi)》,《法學(xué)》,2020年第9期。

        從自動(dòng)駕駛技術(shù)的現(xiàn)實(shí)應(yīng)用情況看,達(dá)到L4等級(jí)的高度自動(dòng)化駕駛汽車(chē)已在我國(guó)部分城市進(jìn)行試運(yùn)營(yíng)。趙禹程、張永偉、俞喬:《無(wú)人駕駛汽車(chē)發(fā)展史、技術(shù)現(xiàn)狀與創(chuàng)新管理模式研究》,《新疆師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版),2021年第4期。L4等級(jí)是自動(dòng)駕駛技術(shù)的飛躍,因?yàn)閷?duì)于L4與L5級(jí)別的自動(dòng)駕駛汽車(chē)而言已經(jīng)沒(méi)有了“駕駛員”這一概念,由此則出現(xiàn)了不能追究使用者責(zé)任的問(wèn)題。松尾剛行:《關(guān)于自動(dòng)駕駛汽車(chē)與刑事責(zé)任的考察》,《法治現(xiàn)代化研究》,2019年第1期。所以有觀點(diǎn)認(rèn)為人工智能算法的智能程度越高,使用者對(duì)人工智能的控制責(zé)任就越弱,生產(chǎn)者則有責(zé)任和義務(wù)來(lái)設(shè)計(jì)出好的算法,讓算法發(fā)揮積極的正面作用,人工智能真正的因果追責(zé)趨向應(yīng)該是算法背后的生產(chǎn)者。陳禹衡:《算法優(yōu)化語(yǔ)境下自動(dòng)駕駛汽車(chē)交通肇事的困境紓解》,《蘇州大學(xué)學(xué)報(bào)》(法學(xué)版),2021年第3期。

        從宏觀層面來(lái)看,對(duì)人工智能的研發(fā)者和生產(chǎn)者賦予較為嚴(yán)格的義務(wù)是有必要的。無(wú)論是在傳統(tǒng)的農(nóng)業(yè)社會(huì)或工業(yè)社會(huì)中,社會(huì)在整體結(jié)構(gòu)上都呈現(xiàn)出等級(jí)化、中心化的特征,經(jīng)濟(jì)活動(dòng)、社會(huì)管理均圍繞公權(quán)力主體運(yùn)作。而在大數(shù)據(jù)與人工智能的時(shí)代,無(wú)論是經(jīng)濟(jì)活動(dòng)的宏觀決策、個(gè)人日常消費(fèi)很大程度上都依賴(lài)于算法的運(yùn)作,智慧政府、智慧司法的建設(shè),也會(huì)在一定程度上將原專(zhuān)屬于國(guó)家公權(quán)力的決策讓渡予算法決策,加劇了社會(huì)的扁平化和去中心化。齊延平:《論人工智能時(shí)代法律場(chǎng)景的變遷》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào)),2018年第4期。但隨著智能技術(shù)的進(jìn)步,手握海量數(shù)據(jù)和智能技術(shù)的主體,不僅容易在經(jīng)濟(jì)活動(dòng)中取得優(yōu)勢(shì)地位,基于大量數(shù)據(jù)和相關(guān)算法技術(shù),此類(lèi)主體甚至可以對(duì)經(jīng)濟(jì)運(yùn)行和社會(huì)發(fā)展的趨勢(shì)進(jìn)行預(yù)判,從而在廣泛的領(lǐng)域內(nèi)對(duì)社會(huì)產(chǎn)生影響。隨著持有海量數(shù)據(jù)和智能技術(shù)的公司、平臺(tái)影響力的逐步擴(kuò)大,原本經(jīng)由大數(shù)據(jù)時(shí)代被“去中心化”的人類(lèi)社會(huì),會(huì)因?yàn)橐蕾?lài)于相關(guān)公司、平臺(tái)的運(yùn)作而實(shí)現(xiàn)網(wǎng)絡(luò)時(shí)代的“再中心化”??萍脊杨^對(duì)社會(huì)關(guān)系和社會(huì)規(guī)則進(jìn)行重塑時(shí),普通公眾是完全被動(dòng)的,由此產(chǎn)生的技術(shù)精英與普通公眾之間兩極分化,容易造成新的社會(huì)問(wèn)題,產(chǎn)生對(duì)國(guó)家安全、社會(huì)安全、金融安全的威脅。所以在智能時(shí)代,法律制度的設(shè)計(jì)上需要迎回“義務(wù)本位”。齊延平:《論人工智能時(shí)代法律場(chǎng)景的變遷》,《法律科學(xué)》(西北政法大學(xué)學(xué)報(bào)),2018年第4期。對(duì)掌握智能技術(shù)的研發(fā)者和生產(chǎn)者賦予相關(guān)義務(wù)以規(guī)范其行為,是法律抗制科技風(fēng)險(xiǎn)的關(guān)鍵。但也需要注意,如果將高度智能化產(chǎn)品所造成的損害一律歸責(zé)于生產(chǎn)者與研發(fā)者,那么對(duì)生產(chǎn)者和研發(fā)者而言,這些責(zé)任就成了一種結(jié)果責(zé)任,這對(duì)生產(chǎn)者和研發(fā)者而言是難以接受的。當(dāng)然,人工智能本質(zhì)上是由生產(chǎn)商或研發(fā)機(jī)構(gòu)根據(jù)算法形成的一種“產(chǎn)品”,金東寒主編:《秩序的重構(gòu):人工智能與人類(lèi)社會(huì)》,上海大學(xué)出版社2017年版,第87頁(yè)。所以在民事層面上可以依照產(chǎn)品責(zé)任的無(wú)過(guò)錯(cuò)歸責(zé)原則對(duì)相關(guān)損害進(jìn)行處理。刑事責(zé)任的認(rèn)定則依據(jù)《刑法》第16條的規(guī)定必須以行為人主觀上具有故意或者過(guò)失為前提。而且毫無(wú)疑問(wèn)的是,如果在刑法上對(duì)算法采用嚴(yán)格責(zé)任,會(huì)直接扼殺人工智能技術(shù)的進(jìn)步。劉憲權(quán):《涉人工智能犯罪中的歸因與歸責(zé)標(biāo)準(zhǔn)探析》,《東方法學(xué)》,2020年第3期。另外,依據(jù)《倫理規(guī)范》的相關(guān)要求,即使出現(xiàn)了高度自動(dòng)化的智能產(chǎn)品,也不能免除生產(chǎn)者、研發(fā)者以外其他相關(guān)主體對(duì)人工智能技術(shù)所應(yīng)承擔(dān)的義務(wù),但是法律設(shè)計(jì)上不能把保障人工智能安全運(yùn)行的義務(wù)過(guò)度強(qiáng)加于研發(fā)者與生產(chǎn)者。面對(duì)這樣的情況,就需要在法律上尋找能更好平衡技術(shù)發(fā)展中不同價(jià)值之間矛盾的方案。

        在傳統(tǒng)歸責(zé)路徑存在障礙的情況下,刑法需要尋找新的切入點(diǎn)對(duì)人工智能技術(shù)進(jìn)行規(guī)制。對(duì)此,可以嘗試以算法為切入點(diǎn)探討相關(guān)主體的刑事責(zé)任。算法是人工智能技術(shù)的實(shí)質(zhì)與核心,對(duì)算法的掌控即是對(duì)人工智能風(fēng)險(xiǎn)的掌控,所以算法可謂是在法律體系下對(duì)人工智能技術(shù)風(fēng)險(xiǎn)進(jìn)行規(guī)制的一把鑰匙,可以在法律領(lǐng)域中實(shí)現(xiàn)“人工智能規(guī)制→算法規(guī)制→算法相關(guān)法律主體規(guī)制”的轉(zhuǎn)變。理論上已有學(xué)者提出以作為公共安全的“算法安全”為人工智能犯罪所保護(hù)法益的觀點(diǎn)。魏東:《人工智能算法安全犯罪觀及其規(guī)范刑法學(xué)展開(kāi)》,《政法論叢》,2020年第3期。通過(guò)這種視角,可以揭示人工智能技術(shù)風(fēng)險(xiǎn)作為一種新型的社會(huì)風(fēng)險(xiǎn),在廣泛的領(lǐng)域內(nèi)對(duì)公共安全產(chǎn)生威脅的本質(zhì),使其有效區(qū)別于其他類(lèi)型的犯罪。反之,在現(xiàn)有刑法框架下,無(wú)論將人工智能犯罪認(rèn)定為生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品等破壞市場(chǎng)經(jīng)濟(jì)秩序的行為,還是認(rèn)定為破壞計(jì)算機(jī)系統(tǒng)等擾亂公共秩序的行為,都難以反映人工智能犯罪危害公共安全的實(shí)質(zhì)特征,對(duì)此也許需要設(shè)立新的罪名以保護(hù)算法的安全法益。基于本文的立場(chǎng),該罪名應(yīng)當(dāng)配置較輕的法定刑。同時(shí),在智能時(shí)代“義務(wù)本位”的法律設(shè)計(jì)中,通過(guò)圍繞算法安全設(shè)置相關(guān)義務(wù),可以將責(zé)任合理分配至《倫理規(guī)范》中所定義的相關(guān)主體,即所有相關(guān)主體的義務(wù)都是以維護(hù)“算法”這一人工智能實(shí)質(zhì)內(nèi)涵的安全為核心,在避免某一主體義務(wù)過(guò)重的情況下,使刑法的規(guī)制覆蓋人工智能從開(kāi)發(fā)到應(yīng)用的整個(gè)過(guò)程,最大程度防御各個(gè)環(huán)節(jié)可能產(chǎn)生的公共安全風(fēng)險(xiǎn)。

        三、算法刑事歸責(zé)路徑的具體問(wèn)題分析

        如前所述,人工智能法律問(wèn)題是刑法與科技、刑法與前置法所共治的領(lǐng)域。在最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展的共同價(jià)值前提下,人工智能領(lǐng)域的治理手段是多元化的,包括有倫理原則、政策導(dǎo)向、法律規(guī)制、技術(shù)治理手段等不同方面。劉露、楊曉雷、高文:《面向技術(shù)發(fā)展的人工智能彈性治理框架研究》,《科學(xué)與社會(huì)》,2021年第2期。在這種共治關(guān)系中,不同治理方式之間是一種相互溝通與合作的關(guān)系。上文提出的以算法安全為刑法參與相關(guān)治理活動(dòng)的具體進(jìn)路,需要在共治關(guān)系中明晰刑法發(fā)揮作用的功能與范圍,避免與其他不同的治理方式產(chǎn)生混淆。

        (一) 刑法邏輯與技術(shù)邏輯的區(qū)分

        面對(duì)科技風(fēng)險(xiǎn),法學(xué)領(lǐng)域中真正的論點(diǎn)不是要不要采取預(yù)防原則的問(wèn)題,而是預(yù)防程度的強(qiáng)和弱的問(wèn)題。陳景輝:《捍衛(wèi)預(yù)防原則:科技風(fēng)險(xiǎn)的法律姿態(tài)》,《華東政法大學(xué)學(xué)報(bào)》,2018年第1期??萍紝?duì)社會(huì)產(chǎn)生的不確定風(fēng)險(xiǎn)是一種客觀的存在,刑法通過(guò)算法安全這一紐帶,所要規(guī)制的是與算法相關(guān)的法律主體的行為,而在此過(guò)程中,刑法需要面對(duì)技術(shù)邏輯給刑法判斷所帶來(lái)的挑戰(zhàn)。

        上文指出了算法黑箱不能成為刑法歸責(zé)的障礙,因?yàn)樗惴ㄈ蕴幱谙嚓P(guān)主體所能支配的范圍。但是僅僅論述至此,還不能說(shuō)刑法因果關(guān)系的判斷已跨過(guò)了算法這一技術(shù)邏輯的障礙。因果關(guān)系是危害行為與危害結(jié)果之間的引起與被引起的關(guān)系,但在刑法視野下,并不是所有對(duì)危害結(jié)果產(chǎn)生作出貢獻(xiàn)的行為都是刑法規(guī)制的對(duì)象。刑法需要對(duì)條件因果關(guān)系加以限制,確定具體的一個(gè)或數(shù)個(gè)行為進(jìn)行歸責(zé)。對(duì)于人工智能造成的損害而言,關(guān)鍵在于確認(rèn)具體的損害結(jié)果究竟需要?dú)w因于研發(fā)、供應(yīng)、管理、使用的哪一個(gè)或哪幾個(gè)環(huán)節(jié)。

        在刑法因果關(guān)系的判斷上,受日本刑法理論的影響,相當(dāng)因果關(guān)系理論在我國(guó)成為了有力學(xué)說(shuō),該理論認(rèn)為“通過(guò)一般性地觀察某種事態(tài),當(dāng)一般人在經(jīng)驗(yàn)上認(rèn)為存在某種先行事實(shí)就會(huì)發(fā)生某種后行事實(shí)是通常的,就肯定刑法上因果關(guān)系”。高橋則夫:《刑法總論》,李世陽(yáng)譯,中國(guó)政法大學(xué)出版社2020年版,第107頁(yè)。但在以算法為紐帶評(píng)價(jià)人工智能犯罪歸因問(wèn)題時(shí),算法中科技邏輯所形成的壁壘直接切斷了以“一般人經(jīng)驗(yàn)”作為判斷基準(zhǔn)的可能性。而另一種思路,是通過(guò)客觀歸責(zé)理論,即“行為制造了法律所不允許的危險(xiǎn)→該行為使該危險(xiǎn)實(shí)現(xiàn)在作為構(gòu)成要件要素的結(jié)果之中”的判斷步驟來(lái)認(rèn)定因果關(guān)系。周光權(quán):《刑法總論》,中國(guó)人民大學(xué)出版社2021年版,第129頁(yè)。客觀歸責(zé)的優(yōu)點(diǎn)在于通過(guò)“法不允許的危險(xiǎn)”這一概念,使結(jié)果歸屬與規(guī)范的要求得以結(jié)合起來(lái),這對(duì)于人工智能歸因判斷是重要的。因?yàn)樵谝粤x務(wù)為本位的法律設(shè)計(jì)中,與人工智能相關(guān)的犯罪是典型的法定犯,各主體負(fù)有不同規(guī)范賦予的維護(hù)算法安全的義務(wù),主體行為是否違反了規(guī)范賦予的義務(wù),是否因此創(chuàng)設(shè)了“法律不允許的危險(xiǎn)”,是對(duì)其刑事責(zé)任進(jìn)行追究的起點(diǎn)。如前所述,對(duì)于人工智能的法律設(shè)計(jì),需要為人工智能技術(shù)的進(jìn)一步發(fā)展留有合理的空間,而人對(duì)技術(shù)的認(rèn)識(shí)是具有局限性的,所以法律需要對(duì)超出認(rèn)識(shí)范圍的風(fēng)險(xiǎn)保有一定的寬容心態(tài)。當(dāng)主體的行為沒(méi)有違反相關(guān)規(guī)范的規(guī)定時(shí),即使產(chǎn)生了一定風(fēng)險(xiǎn)也不宜進(jìn)行歸責(zé),承認(rèn)“被允許的風(fēng)險(xiǎn)”存在,能夠更好地實(shí)現(xiàn)人工智能技術(shù)的社會(huì)效益。付玉明:《自動(dòng)駕駛汽車(chē)事故的刑事歸責(zé)與教義展開(kāi)》,《法學(xué)》,2020年第9期。

        通過(guò)客觀歸責(zé)的方式判斷人工智能相關(guān)主體的責(zé)任也存在理解上的難點(diǎn),因?yàn)檫M(jìn)行客觀歸責(zé)所需闡明的“法所不允許的危險(xiǎn)”和“危險(xiǎn)實(shí)現(xiàn)”這兩個(gè)關(guān)鍵問(wèn)題并不是經(jīng)驗(yàn)所能確定的,需要以規(guī)范的判斷為前提,而這種規(guī)范判斷應(yīng)如何進(jìn)行?應(yīng)依照什么樣的標(biāo)準(zhǔn)進(jìn)行?“客觀歸責(zé)”這個(gè)概念本身并沒(méi)有告訴我們。托馬斯·魏根特:《客觀歸責(zé):不只是口號(hào)?》,王靜譯,梁根林、埃里克·希爾根多夫編:《刑法體系與客觀歸責(zé):中德刑法學(xué)者的對(duì)話(huà)(二)》,北京大學(xué)出版社2015年版,第97頁(yè)。因?yàn)槿斯ぶ悄芟嚓P(guān)犯罪是法定犯,所以對(duì)“法不允許的危險(xiǎn)”需要參照前置法律規(guī)范進(jìn)行規(guī)范判斷,前置法定性、刑法及其司法定量的主張?zhí)貏e具有現(xiàn)實(shí)意義,田宏杰:《知識(shí)轉(zhuǎn)型與教義堅(jiān)守:行政刑法幾個(gè)基本問(wèn)題研究》,《政法論壇》,2018年第6期。在此不再贅述。對(duì)于應(yīng)當(dāng)依照什么標(biāo)準(zhǔn)進(jìn)行判斷,即如何確定風(fēng)險(xiǎn)與結(jié)果之間的因果關(guān)系,就涉及在人工智能法律治理中的技術(shù)邏輯與法律邏輯的區(qū)分。

        法律在面對(duì)這種技術(shù)邏輯所帶來(lái)的障礙時(shí),需要正視法律自身的局限性,將技術(shù)判斷交給相關(guān)技術(shù)部門(mén)解決。這樣的做法并不會(huì)影響法律自身功能的發(fā)揮,因?yàn)榉傻倪\(yùn)作從來(lái)都離不開(kāi)其他部門(mén)的輔助。典型的如醫(yī)療事故鑒定,相關(guān)醫(yī)療行為與損害結(jié)果之間的因果關(guān)系即為純粹的技術(shù)邏輯,需要依賴(lài)于專(zhuān)業(yè)鑒定部門(mén)的結(jié)論來(lái)確定責(zé)任。在這些法律與技術(shù)共治的領(lǐng)域,法律的工作是搭建好防御風(fēng)險(xiǎn)、保障相關(guān)主體權(quán)利的合理法律框架,而不是糾結(jié)于因果關(guān)系中所包含的技術(shù)邏輯如何得到證明。算法安全是刑法對(duì)人工智能技術(shù)進(jìn)行規(guī)制的切入點(diǎn),目的在于要求人工智能相關(guān)行為主體依照自身所承擔(dān)的義務(wù),實(shí)現(xiàn)人工智能“安全、可靠、可控”的發(fā)展。理論上有觀點(diǎn)雖然認(rèn)識(shí)到了人工智能與其所造成結(jié)果之間的因果關(guān)系是一種純粹的技術(shù)邏輯,但是認(rèn)為“這種純粹技術(shù)結(jié)構(gòu)的方法論致使算法及其計(jì)算結(jié)果徹底隔離于社會(huì)規(guī)范,進(jìn)而使之跳脫于侵權(quán)法律責(zé)任判定的維度之外,這種挑戰(zhàn)對(duì)于法律理論中的因果關(guān)系判定是一種根基性的撼動(dòng)”。李文靜、欒群:《人工智能時(shí)代算法的法律規(guī)制:現(xiàn)實(shí)、理論與進(jìn)路》,《福建師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版),2020年第4期。筆者認(rèn)為,這種結(jié)論未能正視共治領(lǐng)域中的技術(shù)邏輯與法律邏輯的關(guān)系,夸大了技術(shù)邏輯的作用。如前所述,對(duì)技術(shù)邏輯因果關(guān)系的判斷并不是法律需要完成的工作。實(shí)體法在司法領(lǐng)域中是以證據(jù)為基礎(chǔ)對(duì)案件事實(shí)進(jìn)行認(rèn)定從而得出結(jié)論的,證據(jù)的基本屬性包括了客觀性,所以算法因果關(guān)系等問(wèn)題的證明,不能從法律的角度基于對(duì)技術(shù)邏輯模棱兩可的認(rèn)識(shí)進(jìn)行推測(cè),對(duì)于專(zhuān)業(yè)的技術(shù)問(wèn)題,法律需要尊重技術(shù)領(lǐng)域得出的結(jié)論。當(dāng)相關(guān)證據(jù)不充分,如科技領(lǐng)域只給出了“有可能”的結(jié)論時(shí),在司法領(lǐng)域中重要的“存疑有利于被告”原則便可以發(fā)揮作用,以此實(shí)現(xiàn)刑法的人權(quán)保障的功能。

        當(dāng)然,法律需要為技術(shù)部門(mén)對(duì)算法因果關(guān)系的判斷提供依據(jù)。對(duì)此,實(shí)踐中《發(fā)展規(guī)劃》和《倫理規(guī)范》已為在立法領(lǐng)域進(jìn)一步完善相關(guān)法律規(guī)范提供了宏觀指導(dǎo),要求算法“逐步實(shí)現(xiàn)可驗(yàn)證、可審核、可監(jiān)督、可追溯、可預(yù)測(cè)、可信賴(lài)”。在理論層面,學(xué)者們也為解決算法因果關(guān)系判斷提出了不同的解決方案,如要求算法設(shè)計(jì)者設(shè)置完整的算法設(shè)計(jì)日志、張凌寒:《算法規(guī)制的迭代與革新》,《法學(xué)論壇》,2019年第2期。建立算法登記制度、蘇宇:《算法規(guī)制的譜系》,《中國(guó)法學(xué)》,2020年第3期。統(tǒng)一算法的設(shè)計(jì)生產(chǎn)標(biāo)準(zhǔn)和給人工智能安裝類(lèi)似飛機(jī)黑盒子一樣的監(jiān)控裝置。金東寒主編:《秩序的重構(gòu):人工智能與人類(lèi)社會(huì)》,上海大學(xué)出版社2017年版,第264頁(yè)。

        (二)刑法與前置法的功能區(qū)分

        在人工智能治理領(lǐng)域中,除了對(duì)法律邏輯與技術(shù)邏輯進(jìn)行區(qū)分以外,還需要避免出現(xiàn)刑法與前置法功能的混淆。

        在社會(huì)風(fēng)險(xiǎn)激增的背景下,擴(kuò)張刑法制裁范圍以對(duì)社會(huì)風(fēng)險(xiǎn)進(jìn)行預(yù)防是世界范圍內(nèi)普遍存在的現(xiàn)象,具有其必要性與必然性。從我國(guó)刑事立法的實(shí)踐看,“功能性特征極其明顯,立法者的反應(yīng)更為迅捷,通過(guò)刑法控制社會(huì)的欲望更為強(qiáng)烈,觸角也伸得更長(zhǎng)”的積極刑法立法觀已經(jīng)在我國(guó)得以確立。周光權(quán):《論通過(guò)增設(shè)輕罪實(shí)現(xiàn)妥當(dāng)?shù)奶幜P:積極刑法立法觀的再闡釋》,《比較法研究》,2020年第6期。但對(duì)預(yù)防功能的重視并不會(huì)改變刑法在國(guó)家法律體系中的后置法地位,因?yàn)樾谭ɡ硇詤⑴c犯罪治理,不能僅僅是寄希望于高壓威懾,而是需要把刑法作為社會(huì)治理中的一種具體手段,同其他社會(huì)資源共同有效控制犯罪、防御社會(huì)風(fēng)險(xiǎn)。高銘暄、孫道萃:《預(yù)防性刑法觀及其教義學(xué)思考》,《中國(guó)法學(xué)》,2018年第1期。代表積極預(yù)防主義的微罪立法、危險(xiǎn)犯的立法也只是個(gè)別特例。在我國(guó)違法與犯罪的二元制裁體系中,刑事犯罪與一般違法行為之間應(yīng)具有社會(huì)危害性“量”上的區(qū)別,刑法所規(guī)制的只是已超出前置法律規(guī)制范圍的具有“嚴(yán)重社會(huì)危害性”的犯罪行為。防御人工智能技術(shù)所產(chǎn)生的風(fēng)險(xiǎn),對(duì)法律的要求是多方面的。如高度依賴(lài)于網(wǎng)絡(luò)的人工智能,需要完備的網(wǎng)絡(luò)安全法律規(guī)范提供保障;人工智能技術(shù)對(duì)大數(shù)據(jù)的需求,需要一套能夠兼顧技術(shù)發(fā)展需求和相關(guān)主體信息權(quán)利保障的法律規(guī)范;人工智能自主性的提升對(duì)社會(huì)倫理的影響,也需要相關(guān)規(guī)范加以應(yīng)對(duì)。這些都是過(guò)去法律考慮不充分或者沒(méi)有考慮到的問(wèn)題,在今后立法活動(dòng)中需要進(jìn)一步完善。龍衛(wèi)球:《人工智能立法規(guī)范對(duì)象與規(guī)范策略》,《政法論叢》,2020年第3期。而且刑法與前置法對(duì)于維護(hù)算法安全所發(fā)揮的功能并不相同,基于刑法在法律體系中的后置法地位,對(duì)維護(hù)算法安全的義務(wù),需要從前置法到刑法進(jìn)行層層保障。所以相關(guān)義務(wù)如保障算法安全所需的網(wǎng)絡(luò)安全、倫理規(guī)范、數(shù)據(jù)保護(hù)規(guī)則等,首先需要由前置法律規(guī)范進(jìn)行確認(rèn),刑法不宜直接介入加以規(guī)定。在對(duì)人工智能進(jìn)行治理的共治領(lǐng)域中,基于法秩序統(tǒng)一的原理,在人工智能相關(guān)主體的義務(wù)認(rèn)定上刑法需要與前置法保持一致。對(duì)此,刑法可以通過(guò)空白罪狀對(duì)相關(guān)前置法律規(guī)范中的規(guī)定進(jìn)行引用,維護(hù)法律秩序的統(tǒng)一,避免在相關(guān)問(wèn)題的認(rèn)定上出現(xiàn)與前置法規(guī)定相矛盾的結(jié)論。

        算法安全這一法益搭建了刑法參與人工智能法律治理的橋梁,在共治關(guān)系中,前置法為人工智能相關(guān)主體設(shè)定的義務(wù),是刑法據(jù)以判斷刑事責(zé)任的依據(jù),為了避免刑法對(duì)人工智能技術(shù)的進(jìn)步產(chǎn)生阻礙和混淆刑法與前置法的不同功能,在對(duì)人工智能相關(guān)主體的規(guī)制中刑法需要保持合理的謙抑,堅(jiān)持刑法在法律體系中的后置保障法地位。

        刑事立法在圍繞算法安全這一新型法益設(shè)計(jì)罪名時(shí),需要保持罪名對(duì)相關(guān)行為類(lèi)型化的高度概括性,以充分發(fā)揮刑法對(duì)前置法的保障作用。對(duì)此,理論上已提出了在刑法分則第二章危害公共安全罪中新增“設(shè)計(jì)、制造、銷(xiāo)售、使用不符合算法安全標(biāo)準(zhǔn)的人工智能產(chǎn)品罪,非法設(shè)計(jì)、制造、持有、買(mǎi)賣(mài)、運(yùn)輸、使用人工智能武器罪,擅自改變?nèi)斯ぶ悄墚a(chǎn)品算法與用途罪,濫用人工智能罪,人工智能肇事罪”五種危害算法安全的犯罪。魏東:《人工智能算法安全犯罪觀及其規(guī)范刑法學(xué)展開(kāi)》,《政法論叢》,2020年第3期?!秱惱硪?guī)范》所定義的“管理、研發(fā)、供應(yīng)、使用”四類(lèi)主體中,除負(fù)有管理義務(wù)的國(guó)家工作人員的行為需要通過(guò)瀆職罪進(jìn)行規(guī)制外,以上五種危害公共安全的罪名設(shè)計(jì)可以很好覆蓋“研發(fā)、供應(yīng)、使用”的相關(guān)主體危害算法安全的行為。同時(shí),根據(jù)《倫理規(guī)范》第17條的規(guī)定,人工智能供應(yīng)主體具有“研究制定應(yīng)急機(jī)制和損失補(bǔ)償方案或措施,及時(shí)監(jiān)測(cè)人工智能系統(tǒng),及時(shí)響應(yīng)和處理用戶(hù)的反饋信息,及時(shí)防范系統(tǒng)性故障,隨時(shí)準(zhǔn)備協(xié)助相關(guān)主體依法依規(guī)對(duì)人工智能系統(tǒng)進(jìn)行干預(yù),減少損失,規(guī)避風(fēng)險(xiǎn)”的應(yīng)急保障義務(wù),對(duì)于違背該義務(wù)嚴(yán)重侵害算法安全的行為,也需要刑法制定新罪名予以規(guī)制。

        《倫理規(guī)范》中的相關(guān)規(guī)定,為今后人工智能法律規(guī)范的制定提供了宏觀指導(dǎo),但具體的規(guī)范細(xì)節(jié)還需各個(gè)部門(mén)法進(jìn)一步細(xì)化規(guī)定,所以以上罪名設(shè)計(jì)的構(gòu)想是否成立,或者是否還有必要繼續(xù)增加保護(hù)算法安全的新罪名,需要繼續(xù)觀察人工智能技術(shù)的發(fā)展情況和前置法律的立法情況,使刑法與前置法在人工智能治理領(lǐng)域中保持良好的互動(dòng)。

        四、結(jié)論

        通過(guò)結(jié)合《新一代人工智能倫理規(guī)范》的相關(guān)規(guī)定和人工智能技術(shù)發(fā)展的基本特征,可以看出具有工具屬性的人工智能技術(shù),其產(chǎn)生的社會(huì)風(fēng)險(xiǎn)仍是一種人為風(fēng)險(xiǎn),故并不會(huì)對(duì)刑法理論產(chǎn)生顛覆性的影響。刑事立法與刑法理論需要根據(jù)人工智能技術(shù)的特征,為人工智能的刑法治理提供有效的方案。以算法安全為紐帶對(duì)人工智能相關(guān)主體進(jìn)行刑事歸責(zé),是使刑法有效參與人工智能法律治理的理論嘗試,為刑法對(duì)人工智能相關(guān)主體的刑事責(zé)任認(rèn)定提供了可能的路徑。在具體方案的設(shè)計(jì)上,還需在厘清刑法與技術(shù)邏輯、刑法功能與前置法功能關(guān)系的基礎(chǔ)上,明確共治關(guān)系中刑法規(guī)制的范圍和應(yīng)具有的功能,從而與人工智能的其他治理手段形成有效配合,實(shí)現(xiàn)人工智能技術(shù)法律治理的效果最大化。

        猜你喜歡
        法律體系人工智能
        我校新增“人工智能”本科專(zhuān)業(yè)
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        我國(guó)外資法律體系之完善研究
        卷宗(2016年10期)2017-01-21 19:44:35
        美,在法哲學(xué)的沉思
        對(duì)我國(guó)現(xiàn)行突發(fā)事件應(yīng)對(duì)法律體系的分析及反思
        中國(guó)文化中的“君子”思想在法律體系中的適用
        人間(2016年27期)2016-11-11 16:04:10
        下一幕,人工智能!
        下一幕,人工智能!
        一级做a爰片久久毛片| 欧洲美女黑人粗性暴交视频| 丁香美女社区| 成人无码视频| 人人妻人人澡av| av影片手机在线观看免费网址| 乱码1乱码2美美哒| 伴郎粗大的内捧猛烈进出视频观看| 日本高清在线播放一区二区三区| 亚洲一区二区av天堂| 国产精品国产三级国产av品爱网 | 国产精品成人av大片| 奇米影视第四色首页| 亚洲欧洲高潮| 亚洲国产精品免费一区| 国产自产二区三区精品| √新版天堂资源在线资源| 欧美日韩在线观看免费| 国产蜜臀精品一区二区三区| 亚洲精品国产av成人精品| 狠狠色噜噜狠狠狠狠米奇777| 欧美久久久久中文字幕| 国产成人高清亚洲一区二区| 丰满少妇高潮惨叫久久久| 最新国产乱人伦偷精品免费网站| 色噜噜狠狠色综合欧洲| 精品私密av一区二区三区| 国产免费一区二区三区免费视频| 色综合自拍| 一本色道亚州综合久久精品| 女人无遮挡裸交性做爰| 无码精品国产va在线观看| 国内精品视频成人一区二区| 免费国产一区二区视频| 国产精品成人aaaaa网站| 国产精品自在拍在线播放| 国产一区二区一级黄色片| 久久婷婷色香五月综合缴缴情| 日本午夜免费福利视频| 亚洲精品午夜精品国产| 日本人妖熟女另类二区|