許鐘靈 吳情樹
內(nèi)容提要: 與時(shí)俱進(jìn)地因應(yīng)人工智能時(shí)代的過失刑事風(fēng)險(xiǎn), 抽釘拔楔之道需要明確人工智能體不具有刑事責(zé)任主體地位, 由人工智能體的研發(fā)者、 使用者承擔(dān)刑事責(zé)任。 “新過失論” 能夠?qū)徤鞔_定人工智能體研發(fā)者、 使用者注意義務(wù)和結(jié)果避免義務(wù)的邊界, 同時(shí)兼顧被容許的危險(xiǎn)、 危險(xiǎn)分配理論和信賴原則, 從根本上保證人工智能體向有益于人類的正確方向發(fā)展, 使刑法理論契合人工智能帶來的變革。 人工智能體研發(fā)者、 使用者均違反直接的結(jié)果預(yù)見義務(wù)和結(jié)果回避義務(wù)時(shí), 可能承擔(dān)共同過失犯罪的刑事責(zé)任。 人工智能體研發(fā)者的監(jiān)督過失行為通過人工智能體使用者的行為間接導(dǎo)致了危害后果時(shí), 可能承擔(dān)監(jiān)督過失犯罪的刑事責(zé)任。
順循文明的發(fā)展軌跡, 人類社會(huì)先后經(jīng)歷了以蒸汽技術(shù)為基礎(chǔ)的第一次技術(shù)革命、 以電力技術(shù)為本體的第二次技術(shù)革命以及以計(jì)算機(jī)及其信息技術(shù)為標(biāo)志的第三次技術(shù)革命, 當(dāng)前進(jìn)入了大數(shù)據(jù)、 云計(jì)算等并駕齊驅(qū)的第四次技術(shù)革命, 即人工智能時(shí)代。 這既是經(jīng)濟(jì)社會(huì)發(fā)展的強(qiáng)烈需求所致, 又是技術(shù)服務(wù)于時(shí)代使命之宗旨的必然結(jié)果。 在這場(chǎng)技術(shù)革命浪潮中, 世界各國(guó)逐漸把發(fā)展人工智能技術(shù)作為科技戰(zhàn)略的重點(diǎn), 力圖在新一輪國(guó)際科技競(jìng)爭(zhēng)中掌握主導(dǎo)權(quán)。 當(dāng)前, 我國(guó)在 《新一代人工智能發(fā)展規(guī)劃》 中大致勾勒了人工智能發(fā)展的政策框架, 在國(guó)家層面進(jìn)行積極戰(zhàn)略部署, 明確提出我國(guó)人工智能發(fā)展 “三步走” 的戰(zhàn)略目標(biāo)和 “三個(gè)全面” 的重要任務(wù)。①我國(guó)人工智能發(fā)展 “三步走戰(zhàn)略”: 第一步, 到2020 年人工智能總體技術(shù)和應(yīng)用與世界先進(jìn)水平同步, 人工智能產(chǎn)業(yè)成為新的重要經(jīng)濟(jì)增長(zhǎng)點(diǎn), 人工智能技術(shù)應(yīng)用成為改善民生的新途徑, 有力支撐進(jìn)入創(chuàng)新型國(guó)家行列和實(shí)現(xiàn)全面建成小康社會(huì)的奮斗目標(biāo)。 第二步, 到2025 年人工智能基礎(chǔ)理論實(shí)現(xiàn)重大突破, 部分技術(shù)與應(yīng)用達(dá)到世界領(lǐng)先水平, 人工智能成為帶動(dòng)我國(guó)產(chǎn)業(yè)升級(jí)和經(jīng)濟(jì)轉(zhuǎn)型的主要?jiǎng)恿Γ?智能社會(huì)建設(shè)取得積極進(jìn)展。 第三步, 到2030 年人工智能理論、 技術(shù)與應(yīng)用總體達(dá)到世界領(lǐng)先水平, 成為世界主要人工智能創(chuàng)新中心, 智能經(jīng)濟(jì)、 智能社會(huì)取得明顯成效, 為躋身創(chuàng)新型國(guó)家前列和經(jīng)濟(jì)強(qiáng)國(guó)奠定重要基礎(chǔ)。 參見國(guó)務(wù)院: 《新一代人工智能發(fā)展規(guī)劃》, 中國(guó)政府網(wǎng): http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm., 2019 年11 月24 日訪問。 我國(guó)人工智能發(fā)展的重心在于鼓勵(lì)技術(shù)研發(fā)方面, 對(duì)于人工智能應(yīng)用所帶來的法律風(fēng)險(xiǎn)、 技術(shù)風(fēng)險(xiǎn)等, 尚缺乏整體認(rèn)識(shí)和積極部署。
“這是最好的時(shí)代, 也是最壞的時(shí)代?!?人工智能在給我們帶來高效化、 便利化的 “最好時(shí)代”的同時(shí), 也給我們帶來了法律風(fēng)險(xiǎn)、 倫理風(fēng)險(xiǎn)、 技術(shù)風(fēng)險(xiǎn)并存的 “最壞時(shí)代”。 然而迄今為止, 各國(guó)關(guān)于人工智能體可能帶來刑事風(fēng)險(xiǎn)的應(yīng)對(duì)還未形成自臻的規(guī)則系統(tǒng), 面對(duì)人工智能體②“人工智能” 是一門研究、 開發(fā)用于模擬、 延伸和擴(kuò)展人的智能的理論、 方法、 技術(shù)及應(yīng)用的技術(shù)科學(xué), 只有相關(guān)的實(shí)體即“人工智能體” 才能成為探討刑事責(zé)任的基礎(chǔ)和前提。 既有研究所指的 “人工智能” “智能機(jī)器人” “人工智能產(chǎn)品” 等均為本文探討的 “人工智能體”, 為忠實(shí)原文措辭, 筆者在引用時(shí)仍保留原文的表述。的犯罪案件, 仍然依托于權(quán)責(zé)裁量。 本文擬立足于對(duì)人工智能體刑事責(zé)任主體地位之詰問, 以 “新過失論”為基礎(chǔ), 建構(gòu)由違反注意義務(wù)的研發(fā)者、 使用者為主體架構(gòu)的刑法教義學(xué)體系, 并結(jié)合被容許的危險(xiǎn)理論、 危險(xiǎn)分配理論和信賴原則等多維角度合理限定過失犯的處罰范圍, 探討人工智能體犯罪的歸責(zé)路徑, 尋找增進(jìn)人工智能的發(fā)展福利與防范潛存的刑事風(fēng)險(xiǎn)之間的平衡點(diǎn)。
刑事風(fēng)險(xiǎn)是指受刑法保護(hù)的法益可能受到犯罪行為嚴(yán)重侵犯的風(fēng)險(xiǎn)。 這種 “嚴(yán)重侵犯” 包括兩種情況: 一是對(duì)我國(guó)刑法保護(hù)的法益造成實(shí)際危害。 二是對(duì)我國(guó)刑法保護(hù)的法益沒有造成實(shí)害但具有造成實(shí)害的可能性。③參見夏勇: 《“風(fēng)險(xiǎn)社會(huì)” 中的 “風(fēng)險(xiǎn)” 辨析 刑法學(xué)研究中 “風(fēng)險(xiǎn)” 誤區(qū)之澄清》, 載 《中外法學(xué)》 2012 年第2 期。德國(guó)學(xué)者烏爾里?!へ惪嗽?《風(fēng)險(xiǎn)社會(huì)》 一書中提出: “風(fēng)險(xiǎn)的來源……是期望于對(duì)自然的控制能夠日趨完美……”④薛曉源、 劉國(guó)良: 《全球風(fēng)險(xiǎn)世界: 現(xiàn)在與未來——德國(guó)著名社會(huì)學(xué)家、 風(fēng)險(xiǎn)社會(huì)理論創(chuàng)始人烏爾里希·貝克教授訪談錄》,載 《馬克思主義與現(xiàn)實(shí)》 2005 年第1 期。人工智能時(shí)代的風(fēng)險(xiǎn), 正是貝克所描繪的風(fēng)險(xiǎn)社會(huì)的另一種表現(xiàn)形式, 這種風(fēng)險(xiǎn)的形式表現(xiàn)為人為的風(fēng)險(xiǎn)。 人類創(chuàng)造了使自己的生產(chǎn)生活更加便捷的人工智能體, 并且期望設(shè)計(jì)出完美的制度框架以控制可能危及人類自身的風(fēng)險(xiǎn)。 然而, 由于目前的人工智能技術(shù)存在著不可避免的缺陷, 各國(guó)先后涌現(xiàn)多起由人工智能技術(shù)引發(fā)的刑事案件, 一時(shí)間爆發(fā)了聚焦于人工智能技術(shù)的廣泛的社會(huì)聲討。⑤2016 年, 邯鄲一輛特斯拉自動(dòng)駕駛汽車未能按照程序設(shè)定躲避障礙物, 從而撞上前車并導(dǎo)致車主身亡。 2018 年3 月, 美國(guó)亞利桑那州坦佩市發(fā)生了一起Uber 無人車撞死行人的事故。 自2013 年起至2018 年6 月止, 駕乘特斯拉汽車于開啟自動(dòng)駕駛模式下發(fā)生了涵蓋美國(guó)、 中國(guó)等國(guó)家的9 起交通事故。
人工智能體時(shí)代的過失刑事風(fēng)險(xiǎn)可以分為人工智能體本身的過失刑事風(fēng)險(xiǎn)和人類利用人工智能體創(chuàng)造的過失刑事風(fēng)險(xiǎn)。⑥本文所討論的過失刑事風(fēng)險(xiǎn)僅指人工智能體自身引發(fā)的過失刑事風(fēng)險(xiǎn)和由于人工智能體的研發(fā)者、 使用者沒有履行各自的注意義務(wù), 繼而引發(fā)的過失刑事風(fēng)險(xiǎn)。人工智能體研發(fā)者或者人工智能體使用者故意利用人工智能體實(shí)施犯罪行為時(shí), 人工智能體本身就是研發(fā)者或者使用者的犯罪工具, 這種犯罪與通常的犯罪沒有什么區(qū)別,可以直接適用刑法的有關(guān)規(guī)定予以定罪處罰。 但是, 對(duì)于人工智能體本身的過失而導(dǎo)致的犯罪, 則由于過失犯歸責(zé)的判斷標(biāo)準(zhǔn)等傳統(tǒng)過失理論的歸責(zé)困境長(zhǎng)期存在, 且無論是科幻泰斗阿西莫夫提出的 “機(jī)器人三原則”,⑦“機(jī)器人三原則” 是指: 第一, 機(jī)器人不得傷害人類, 或看到人類受到傷害而袖手旁觀; 第二, 機(jī)器人必須服從人類的命令, 除非這條命令與第一條相矛盾; 第三, 機(jī)器人必須保護(hù)自己, 除非這種保護(hù)與以上兩條相矛盾。還是日本學(xué)者新保史生教授提出的 “機(jī)器人使用八原則”⑧“機(jī)器人使用八原則” 是指: 第一, 人類優(yōu)先原則; 第二, 服從命令原則; 第三, 保護(hù)秘密原則; 第四, 限制利用原則; 第五, 安全保護(hù)原則; 第六, 公開透明性原則; 第七, 個(gè)人參加原則; 第八, 責(zé)任原則。都無法保證人工智能體的研發(fā)者、 設(shè)計(jì)者制造出對(duì)人類法益完全沒有侵害的人工智能體。 因此, 人類在應(yīng)對(duì)人工智能體研發(fā)者或者人工智能體使用者過失導(dǎo)致人工智能體產(chǎn)生的刑事風(fēng)險(xiǎn)時(shí)顯得力有不逮, 這便使得人工智能時(shí)代的過失犯罪常常出現(xiàn)歸責(zé)間隙。
筆者認(rèn)為, 對(duì)人工智能時(shí)代的過失刑事風(fēng)險(xiǎn)進(jìn)行刑法規(guī)制的正當(dāng)根據(jù)就在于在法律制度缺位的情況下調(diào)和兩種人之間產(chǎn)生的差距。 一種是擁有與人工智能相關(guān)的數(shù)據(jù)、 技術(shù)資源優(yōu)勢(shì)的人, 他們利用人工智能體創(chuàng)造風(fēng)險(xiǎn)、 定義風(fēng)險(xiǎn)并從風(fēng)險(xiǎn)中獲益 (侵害者); 另一種是作為人工智能風(fēng)險(xiǎn)對(duì)象的人, 他們循途守轍安分守己, 卻無力參與決策進(jìn)程, 不得不成為被人工智能技術(shù)攻擊的 “目標(biāo)”(受害者)。 如何權(quán)衡與回應(yīng)人工智能技術(shù)的發(fā)展和由此引發(fā)的過失刑事風(fēng)險(xiǎn)的沖突, 乃是既有刑法學(xué)所關(guān)切的理論與現(xiàn)實(shí)命題。 解決以上問題的關(guān)鍵在于否定人工智能體本身具有單獨(dú)的刑事責(zé)任主體地位以及合理配置人工智能體研發(fā)者、 使用者的刑事責(zé)任。
以是否擁有推理能力和解決問題的能力為分類標(biāo)準(zhǔn), 可以將人工智能體分為弱人工智能體、 強(qiáng)人工智能體和超強(qiáng)人工智能體。 弱人工智能體, 指的是具備一定推理能力和解決特定問題能力的人工智能體。 這些人工智能體雖然可以在設(shè)計(jì)和編制的程序范圍內(nèi)像人類一樣思考甚至進(jìn)行深度學(xué)習(xí), 但其實(shí)現(xiàn)的只是創(chuàng)造者的意志。 強(qiáng)人工智能體意為達(dá)到人類水平的、 能夠獨(dú)立應(yīng)對(duì)外界環(huán)境挑戰(zhàn), 具有自主認(rèn)知、 思考能力的人工智能體。 如果某一人工智能體 “已經(jīng)跨越了 ‘奇點(diǎn)’, ……在所有領(lǐng)域都比最聰明的人類大腦更智能”⑨高銘暄、 王紅: 《互聯(lián)網(wǎng)+ 人工智能全新時(shí)代的刑事風(fēng)險(xiǎn)與犯罪類型化分析》, 載 《暨南學(xué)報(bào) (哲學(xué)社會(huì)科學(xué)版)》 2018 年第9 期。則是超強(qiáng)人工智能體。 此時(shí)的人工智能體開始脫離人類的控制。 學(xué)者們對(duì)弱人工智能體不具有刑事責(zé)任主體地位的認(rèn)識(shí)基本是一致的; 而對(duì)于強(qiáng)人工智能體是否具有刑事責(zé)任主體地位, 學(xué)者們莫衷一是; “人工智能奇點(diǎn)” 是否能夠到來仍是一個(gè)未知數(shù),超強(qiáng)人工智能的出現(xiàn)與否具有不可預(yù)測(cè)性, 對(duì)于超強(qiáng)人工智能可能帶來的刑事風(fēng)險(xiǎn), 并非現(xiàn)階段的刑法亟需回應(yīng)的問題。 因此, 本文探討的是強(qiáng)人工智能體是否具有刑事責(zé)任主體地位。
劉憲權(quán)教授等學(xué)者從應(yīng)然層面將人工智能體作為刑事責(zé)任主體, 并提倡針對(duì)其特點(diǎn)設(shè)立特殊的刑罰處罰方式。 理由之一, 強(qiáng)智能機(jī)器人與人一樣具有辨認(rèn)和控制能力。 強(qiáng)智能機(jī)器人通過 “電子眼” “電子耳” 認(rèn)識(shí)到事實(shí)層面的行為, 并通過程序和算法對(duì)行為的性質(zhì)、 后果、 意義進(jìn)行辨認(rèn)。其有可培養(yǎng)的控制能力和極其快速的處理能力、 反應(yīng)速度, 能夠憑借大數(shù)據(jù)與高速運(yùn)算能力, 在自主意識(shí)和意志的支配下對(duì)行為做出精準(zhǔn)的控制。 理由之二, 強(qiáng)智能機(jī)器人比單位更接近于自然人,更有理由成為刑事責(zé)任主體。 單位是一個(gè)集合體, 單位內(nèi)部成員的辨認(rèn)能力和控制能力是通過單位整體表達(dá), 在整體意志支配下實(shí)施嚴(yán)重危害社會(huì)的行為; 而強(qiáng)智能機(jī)器人能夠在獨(dú)立的自主意識(shí)和意志支配下實(shí)施嚴(yán)重危害社會(huì)的行為, 不需要通過其他主體作為辨認(rèn)能力和控制能力的表達(dá)媒介。理由之三, 強(qiáng)智能機(jī)器人能夠接受刑罰處罰。 因現(xiàn)行刑罰種類在強(qiáng)智能機(jī)器人身上完全無法奏效而否定其刑事責(zé)任主體地位的邏輯陷入了由果溯因的邏輯怪圈。 正確的邏輯鏈條是: 考慮強(qiáng)智能機(jī)器人是否具備刑事責(zé)任能力, 從而確定其能否成為刑事責(zé)任主體, 在其符合犯罪構(gòu)成要件時(shí)考慮應(yīng)否對(duì)其進(jìn)行刑罰處罰以及采用何種刑罰方式對(duì)其進(jìn)行處罰。 增設(shè) “刪除數(shù)據(jù)、 修改程序、 永久銷毀”的刑罰種類能夠達(dá)到犯罪預(yù)防的目的, 解決無法適用現(xiàn)行刑罰種類的人工智能犯罪的問題。⑩當(dāng)前以劉憲權(quán)、 張金鋼、 馬治國(guó)、 田小楚為代表的諸多刑法學(xué)者積極主張強(qiáng)人工智能體作為刑事責(zé)任主體認(rèn)定。
綜合上述 “肯定說” 學(xué)者的基本觀點(diǎn): 強(qiáng)人工智能體的辨認(rèn)能力和控制能力都可以通過相關(guān)人員的參與輸入, 具備與刑事責(zé)任主體同樣的辨認(rèn)能力和控制能力。 在探討強(qiáng)人工智能體是否能成為刑事責(zé)任主體時(shí), 應(yīng)把目光聚焦在何為自然人和單位作為刑事責(zé)任主體的共同點(diǎn)上, 如果強(qiáng)人工智能體具備這一必備要件, 其就有成為刑事責(zé)任主體的可能性。 應(yīng)當(dāng)先考慮強(qiáng)人工智能體是否能夠成為刑事責(zé)任主體, 再考慮能通過何種刑罰方式處罰。
筆者是強(qiáng)人工智能體刑事責(zé)任主體地位 “否定說” 的支持者, 并認(rèn)為, 雖然強(qiáng)人工智能體刑事責(zé)任主體地位 “肯定說” 的觀點(diǎn)言之鑿鑿, 但從其理由與結(jié)論的邏輯關(guān)系理性地分析, 有很多值得商榷之處。
其一, 人工智能體不具有真正的辨認(rèn)和控制能力。 人類的 “智能” 和人工智能體的 “智能” 來源不同: 人類的 “智能” 來源于無特定目的自然選擇, 人工智能體的 “智能” 來源于研發(fā)者帶有特定目的的預(yù)先程序設(shè)計(jì)和算法編制。 自然人的辨認(rèn)能力和控制能力與人工智能的辨認(rèn)能力和控制能力也不同: 人類的辨認(rèn)能力和控制能力是物種進(jìn)化的結(jié)果, 人工智能體的辨認(rèn)能力和控制能力的產(chǎn)生依賴于人類精密的制造和加工過程。 因此人工智能體缺乏感知對(duì)自己的行為在刑法上的意義、 性質(zhì)、 后果的辨認(rèn)能力和控制能力。 其二, 對(duì)人工智能體進(jìn)行刑罰處罰達(dá)不到刑罰的目的。 無論是刪除數(shù)據(jù), 還是修改程序, 抑或最嚴(yán)厲的永久銷毀的 “刑罰種類”, 都既不能阻止人工智能體再次實(shí)施犯罪, 達(dá)到特殊預(yù)防的目的, 也不能規(guī)誡其他人工智能體不要重蹈覆轍, 達(dá)到一般預(yù)防的目的?!笆狗缸锶耸軇儕Z性痛苦是刑罰的懲罰性質(zhì)與內(nèi)在屬性”,1①?gòu)埫骺?《刑法學(xué)》 (第五版), 法律出版社2016 年版, 第56 頁(yè)。而增設(shè)的刑罰種類在本質(zhì)上均忽略了依托于數(shù)據(jù)和算法的人工智能體缺乏對(duì)刑罰實(shí)質(zhì)意義的認(rèn)識(shí)。 其三, 人工智能體和單位不具有可類比性。 單位本身有獨(dú)立于其自然人組成人員的特殊利益, 因此, 將單位擬制為法律主體符合法律主體利己性②道德行為性通常表現(xiàn)出 “利他” 屬性, 而法律行為通常具有 “利己主義” 的典型特征, “利己” 是對(duì)法律主體最基本的人性假設(shè)。 自然人在法律意義上具有利己性, 單位符合法律主體利己性的前提假設(shè), 因此將單位擬制為法律主體。的前提假設(shè)。 人工智能體服務(wù)于人類社會(huì)的存在目的體現(xiàn)了其工具性的根本價(jià)值, 而工具性價(jià)值又決定了其具有天然的利他屬性。
人工智能體不具有刑事責(zé)任主體在生活過程中逐漸形成的感覺和情緒, 即缺乏內(nèi)心感知和情感因素。 根據(jù)費(fèi)爾巴哈的 “心理強(qiáng)制說”, 如果在法律上規(guī)定有犯罪必有刑罰, 刑事主體就會(huì)為了避免刑罰所產(chǎn)生的“痛苦”, 而選擇因抑制犯罪行為所導(dǎo)致的“小的不愉快”。③參見張明楷: 《刑法的基本立場(chǎng)》 (修訂版), 商務(wù)印書館2019 年版, 第17 頁(yè)。人工智能體只能基于預(yù)先設(shè)定的精密程序?qū)邮盏降母鞣N信息進(jìn)行識(shí)別、 分析和總結(jié), 無法基于內(nèi)心感知來權(quán)衡比較實(shí)施犯罪帶來的 “小的愉快” 與犯罪后所帶來的受刑罰處罰的 “痛苦”, 從而作出評(píng)判和行為選擇。 人工智能體缺乏內(nèi)心感知, 不知道自己可以克制自己的行為, 因此, 當(dāng)人工智能體實(shí)施了惡的行為時(shí), 不能對(duì)自己的行為負(fù)責(zé)。 人工智能體也無法感知違反法律規(guī)范的消極后果, 進(jìn)而選擇是否違反法律規(guī)范, 因此也無法用法律懲罰。 無獨(dú)有偶, 維特根斯特也否定強(qiáng)人工智能體的刑事責(zé)任主體地位。 他提出“即使機(jī)器能夠模擬人的腦電波, 也不足以產(chǎn)生人的思維?!雹軈⒁娒狭铢i: 《論維特根斯坦關(guān)于人工智能的基本觀點(diǎn)》, 載 《山東社會(huì)科學(xué)》 2012 年第5 期。休伯特則從人的思維不可能被數(shù)字計(jì)算機(jī)程序化、 形式化的角度來否定強(qiáng)人工智能。⑤[美] 休伯特·德雷福斯: 《計(jì)算機(jī)不能做什么——人工智能的極限》, 寧春巖譯, 三聯(lián)書店1986 年版, 第293 頁(yè)。 轉(zhuǎn)引自周銘川: 《強(qiáng)人工智能刑事責(zé)任之否定》, 載 《上海政法學(xué)院學(xué)報(bào)》 (法治論叢) 2019 年第2 期。趙秉志教授以“相對(duì)自由意志” 為判斷標(biāo)準(zhǔn), 認(rèn)為由于強(qiáng)人工智能體不具有相對(duì)的自由意志, 無論強(qiáng)人工智能體發(fā)展到何種高級(jí)程度, 其存在的意義仍然是一種工具價(jià)值, 不會(huì)因?yàn)樽非笞杂梢庵径x為人類服務(wù)的軌道。⑥參見趙秉志、 詹奇瑋: 《現(xiàn)實(shí)挑戰(zhàn)與未來展望: 關(guān)于人工智能的刑法學(xué)思考》, 載 《暨南學(xué)報(bào) (哲學(xué)社會(huì)科學(xué)版)》, 2019 年第1 期。
總之, 強(qiáng)人工智能體由于缺乏和自然人一樣的情感因素和內(nèi)心感知, 盡管可以利用大數(shù)據(jù)、 云計(jì)算等現(xiàn)代信息技術(shù), 對(duì)事物作出準(zhǔn)確的反應(yīng)和判斷, 但其對(duì)行為性質(zhì)和意義以及可能造成的后果上缺乏感知, 也無法對(duì)此作出決定實(shí)施與否的選擇, 而且本身也無法感受來自刑罰懲罰的痛苦, 對(duì)其所謂的譴責(zé)或者非難將失去意義, 使得其本身無法單獨(dú)成為刑事責(zé)任的歸責(zé)主體。
否定了人工智能體的刑事責(zé)任主體地位, 也就意味著不能對(duì)人工智能體單獨(dú)進(jìn)行刑事歸責(zé)和直接判處刑罰。 筆者基于 “以自然人為中心” 的立場(chǎng), 引入 “新過失論”, 對(duì)人工智能體的研發(fā)者、使用者的過失責(zé)任進(jìn)行刑法規(guī)制, 確保具體案件中刑事責(zé)任承擔(dān)的清晰性。 如果人工智能體的研發(fā)者在研發(fā)人工智能體時(shí), 人工智能體的使用者在使用人工智能體時(shí)違背各自的注意義務(wù), 且不適用信賴原則, 則有可能對(duì)人工智能體造成的危害結(jié)果承擔(dān)過失刑事責(zé)任。
以結(jié)果無價(jià)值論為本質(zhì)的 “舊過失論” 認(rèn)為, 只要行為人對(duì)危害結(jié)果的發(fā)生具有預(yù)見可能性,且行為與危害結(jié)果間成立刑事法律上的因果關(guān)系, 那么行為人就成立過失犯罪。 也就是說 “舊過失論” 單純考慮行為人的結(jié)果預(yù)見可能性, 只要在構(gòu)成要件該當(dāng)性和違法性階層上一致, 則責(zé)任階層是故意還是過失在所不問。 譬如, 高速交通工具的運(yùn)營(yíng)、 礦山開采等極大地推動(dòng)社會(huì)進(jìn)步的活動(dòng),其本身蘊(yùn)藏著越來越多的法益侵害危險(xiǎn)。 在這些活動(dòng)中, 行為人對(duì)其行為可能產(chǎn)生的危害社會(huì)的結(jié)果都有一定的預(yù)見可能性, 在不考慮行為人對(duì)危害結(jié)果能否有回避可能性的情況下, 按照 “舊過失論” 的觀點(diǎn), 行為人都應(yīng)構(gòu)成過失犯罪。 以 “舊過失論” 的標(biāo)準(zhǔn)來認(rèn)定過失犯罪的做法擴(kuò)大了過失犯的處罰范圍且與社會(huì)公平正義、 經(jīng)濟(jì)效率理念相悖。 在社會(huì)發(fā)展的新情況、 人們的新觀念下,“新過失論” 應(yīng)運(yùn)而生。 “新過失論” 主張, 不能追究能夠預(yù)見危害結(jié)果, 并且履行了結(jié)果回避義務(wù)的行為人的過失刑事責(zé)任。 “新過失論” 跳出了傳統(tǒng)過失理論僅在責(zé)任階層討論注意義務(wù)的窠臼,自此, 對(duì)過失犯罪的研究, 逐步及于違法性及該當(dāng)性的領(lǐng)域。 “新過失論” 要求人工智能體的研發(fā)者、 使用者在研發(fā)、 使用人工智能體時(shí)遵循各自相關(guān)的注意義務(wù), 在技術(shù)可行的情況下利用 “大數(shù)據(jù)在宏觀層面能夠預(yù)測(cè)未來社會(huì)的發(fā)展方向、 在微觀層面能夠?yàn)楦餍懈鳂I(yè)提供重要指引的優(yōu)勢(shì)”,⑦姚萬(wàn)勤: 《大數(shù)據(jù)時(shí)代人工智能的法律風(fēng)險(xiǎn)及其防范》, 載 《內(nèi)蒙古社會(huì)科學(xué)》 (漢文版) 2019 年第2 期。借助算法和程序收集、 分析和使用數(shù)據(jù), 加以深度學(xué)習(xí), 預(yù)測(cè)人工智能體可能帶來的社會(huì)所不容許的危害結(jié)果, 并且有效避免結(jié)果的發(fā)生。 這就確保了人類對(duì)風(fēng)險(xiǎn)的絕對(duì)控制力, “把風(fēng)險(xiǎn)意識(shí)轉(zhuǎn)向人類如何能有效防范風(fēng)險(xiǎn)的技術(shù)手段、 制度安排及機(jī)制實(shí)施等方面”。⑧劉巖: 《風(fēng)險(xiǎn)意識(shí)啟蒙與反思性現(xiàn)代化——貝克和吉登斯對(duì)風(fēng)險(xiǎn)社會(huì)出路的探尋及其啟示》, 載 《江海學(xué)刊》 2009 年第1 期。
根據(jù) “新過失論”, 探討人工智能體研發(fā)者、 使用者的注意義務(wù)和結(jié)果避免義務(wù)的判斷應(yīng)當(dāng)以其所處時(shí)代的人工智能技術(shù)發(fā)展水平為判斷標(biāo)準(zhǔn)。
1. 注意義務(wù)和結(jié)果避免義務(wù)的來源
根據(jù) “新過失” 理論, 過失必須同時(shí)具備行為的注意義務(wù)和結(jié)果的避免義務(wù), 這些義務(wù)的來源是設(shè)置過失犯罪義務(wù)內(nèi)容的前提。 人工智能技術(shù)自身的功能價(jià)值由技術(shù)規(guī)范所決定, 其所產(chǎn)生的社會(huì)價(jià)值則由社會(huì)規(guī)范所決定。 因此, 人工智能體研發(fā)者、 使用者注意義務(wù)和結(jié)果回避義務(wù)的來源包含技術(shù)規(guī)范和社會(huì)規(guī)范。 社會(huì)規(guī)范即相關(guān)領(lǐng)域的法律法規(guī)、 相關(guān)行業(yè)規(guī)范、 倫理道德規(guī)范以及研發(fā)者、 使用者的承諾。 首先, 相關(guān)領(lǐng)域的法律法規(guī)是注意義務(wù)的來源, 學(xué)界幾乎沒有爭(zhēng)議, 但對(duì)于相關(guān)行業(yè)規(guī)范是否為注意義務(wù)的來源, 學(xué)界眾口不一。 學(xué)者儲(chǔ)陳城反對(duì)將行業(yè)規(guī)范納入注意義務(wù)的來源, 他提出, 由于刑法所保護(hù)的利益和行業(yè)規(guī)范所保護(hù)的利益并不完全重合, 所以行業(yè)規(guī)范和刑法上的注意義務(wù)的標(biāo)準(zhǔn)并不一致。 行業(yè)標(biāo)準(zhǔn)是非國(guó)家組織所制定的, 所以其制定的標(biāo)準(zhǔn)缺乏民主主義的正當(dāng)性。⑨參見儲(chǔ)陳城: 《人工智能時(shí)代刑法歸責(zé)的走向——以過失的歸責(zé)間隙為中心的討論》, 載 《東方法學(xué)》 2018 年第3 期。學(xué)者劉憲權(quán)認(rèn)為, 盡管相關(guān)行業(yè)規(guī)范沒有體現(xiàn)由立法機(jī)關(guān)制定法律的民主性, 但是對(duì)研發(fā)者設(shè)計(jì)和編制程序的過程起到約束作用才是判定人工智能體的研發(fā)者有無預(yù)見可能性應(yīng)當(dāng)考慮的因素。⑩參見劉憲權(quán): 《涉人工智能犯罪中研發(fā)者主觀罪過的認(rèn)定》, 載 《比較法研究》 2019 年第4 期。如果人工智能體研發(fā)者或者使用者具備了上述的注意義務(wù)之后, 還同時(shí)要求其具備結(jié)果的回避義務(wù), 只有違背結(jié)果回避義務(wù), 發(fā)生了危害社會(huì)的結(jié)果, 才能構(gòu)成相應(yīng)的過失犯罪。
筆者主張相關(guān)行業(yè)規(guī)范是人工智能體研發(fā)者、 使用者注意義務(wù)和結(jié)果回避義務(wù)的來源之一。 因?yàn)橄嚓P(guān)行業(yè)規(guī)范作為一種具有行為約束力的內(nèi)部準(zhǔn)則, 能夠強(qiáng)化研發(fā)者、 使用者的風(fēng)險(xiǎn)意識(shí)和責(zé)任意識(shí), 并內(nèi)化為自我控制的行動(dòng), 從源頭上防范人工智能技術(shù)帶來的刑事風(fēng)險(xiǎn)。 其次, 倫理道德規(guī)范作為注意義務(wù)和結(jié)果回避義務(wù)的來源, 能夠確保人工智能體研發(fā)者、 使用者秉持科技倫理優(yōu)先的原則, 在正確的價(jià)值理念指引下保障人工智能體 “向善”, 促進(jìn)人類社會(huì)有序發(fā)展。 最后, 研發(fā)者、使用者的承諾也應(yīng)當(dāng)是研發(fā)者、 使用者注意義務(wù)和結(jié)果回避義務(wù)的來源。 從研發(fā)者的承諾可以推知研發(fā)者已經(jīng)預(yù)見人工智能體可能引發(fā)的風(fēng)險(xiǎn), 從使用者的承諾可以推知使用者已經(jīng)預(yù)見到了未按照人工智能體的操作說明來使用人工智能體可引發(fā)的危險(xiǎn)。 如果將研發(fā)者、 使用者的承諾排除在注意義務(wù)的范圍之外, 相當(dāng)于忽略了認(rèn)定研發(fā)者、 使用者構(gòu)成過于自信的過失的可能性。
2. 注意義務(wù)和結(jié)果避免義務(wù)的內(nèi)容
(1) 人工智能體注意義務(wù)的設(shè)置不能偏離人類命運(yùn)終極關(guān)懷的軌道。①霍金在2017 年接受英國(guó)雜志社采訪時(shí)曾經(jīng)說過: “一個(gè)超智能的人工智能在完成目標(biāo)方面與我們的目標(biāo)不一致, 我們就會(huì)陷入困境?!?如果人工智能技術(shù)的發(fā)展不能實(shí)現(xiàn)人類優(yōu)先原則, 其發(fā)展有可能會(huì)給人類未來的生存發(fā)展帶來毀滅性的打擊。人類給人工智能體設(shè)定的功能并非價(jià)值無涉的, 它們恰恰體現(xiàn)了一定的目標(biāo)。 “任何法學(xué)理論總是倚賴關(guān)于人的理論”,②Iredell Jenkins.Social Order and the Limits of Law: a Theoretical Essay, New Jersey: Princeton University Press, 1980, p.49.因此研發(fā)者和使用者所有注意義務(wù)和結(jié)果回避義務(wù)的內(nèi)容都應(yīng)當(dāng)建立在有益于人類的基礎(chǔ)上, 而不能是優(yōu)先考慮人工智能技術(shù)發(fā)展的利益。 當(dāng)人工智能體有可能實(shí)施的犯罪行為所侵害的法益涉及人的生命、 自由等人類相關(guān)的重大法益時(shí), 應(yīng)當(dāng)對(duì)研發(fā)者、 使用者賦予較高的注意義務(wù)和結(jié)果回避義務(wù);如果該犯罪只不過關(guān)乎與人類無關(guān)的相當(dāng)輕微的法益時(shí), 應(yīng)當(dāng)相應(yīng)地減少研發(fā)者、 使用者的注意義務(wù)和結(jié)果回避義務(wù)。 這也印證了烏爾里希·貝克對(duì)風(fēng)險(xiǎn)社會(huì)的探尋, “在自然和傳統(tǒng)失去它們的無限效力并依賴于人的決定的地方, 才談得上風(fēng)險(xiǎn)”。③[德] 烏爾里?!へ惪?、 約翰內(nèi)斯·威爾姆斯: 《自由與資本主義》, 路國(guó)林譯, 浙江人民出版社2001 年版, 第56 頁(yè)。
(2) 研發(fā)者的注意義務(wù)和結(jié)果回避義務(wù)包括源頭控制、 雙重監(jiān)督和明確提示。 源頭控制是指人工智能體研發(fā)者在研發(fā)過程中植入控制程序, 始終保持對(duì)人工智能體的控制能力, 對(duì)研發(fā)的人工智能體可能帶來的社會(huì)危害或不穩(wěn)定因素有足夠的認(rèn)識(shí)并且努力消除。 雙重監(jiān)督包括研發(fā)時(shí)的監(jiān)督和繼續(xù)監(jiān)督。 研發(fā)時(shí)的監(jiān)督是指研發(fā)者在研發(fā)時(shí)應(yīng)當(dāng)設(shè)置安全性測(cè)評(píng), 排除研發(fā)當(dāng)時(shí)所能預(yù)見的安全隱患, 確保研發(fā)的人工智能體向安全可控的方向發(fā)展。 繼續(xù)監(jiān)督是指若發(fā)現(xiàn)尚未投入使用的人工智能體存在可能致人損害的缺陷, 人工智能體研發(fā)者應(yīng)當(dāng)通過技術(shù)手段修補(bǔ)缺陷, 阻止人工智能體實(shí)施危害活動(dòng); 若發(fā)現(xiàn)已經(jīng)投入使用的人工智能體出現(xiàn)研發(fā)時(shí)難以預(yù)料的危害, 人工智能體研發(fā)者應(yīng)當(dāng)采取必要的召回措施以防止損害結(jié)果進(jìn)一步擴(kuò)大。 明確提示是指因人工智能體的類型不同而對(duì)人工智能體使用者的操作要求也有所不同, 人工智能體研發(fā)者必須明確提示人工智能體使用者在使用中應(yīng)保持何種類型、 何種程度的注意義務(wù), 并對(duì)使用過程中可能存在的安全隱患作出預(yù)警。
(3) 人工智能體使用者的注意義務(wù)和結(jié)果回避義務(wù)是謹(jǐn)慎詢問、 合理使用和及時(shí)報(bào)告。 謹(jǐn)慎詢問是指由于使用者作為非專業(yè)領(lǐng)域人士, 對(duì)于人工智能這項(xiàng)尚未成熟的技術(shù)還不具備足夠的相關(guān)技術(shù)知識(shí)和能力, 不能判斷自己的行為可能對(duì)法益所造成的風(fēng)險(xiǎn),④詳見Engisch, 1930, 306 ff.; Jescheck/Weigend, AT 5, § 55I3c. 轉(zhuǎn)引自[德] 克勞斯·羅克辛: 《德國(guó)刑法學(xué)總論》 (第1 卷), 王世洲譯, 法律出版社2005 年版, 第721 頁(yè)。為了確保安全、 規(guī)范地使用人工智能體, 應(yīng)當(dāng)謹(jǐn)慎地詢問人工智能體研發(fā)者, 盡快掌握相關(guān)知識(shí)和能力, 將人工智能體的使用風(fēng)險(xiǎn)控制在提前預(yù)測(cè)的范圍內(nèi)。⑤參見[德] 漢斯·海因里?!ひ惪?、 托馬斯·魏根特: 《德國(guó)刑法教科書》 (總論), 徐久生譯, 中國(guó)法制出版社2001 年版,第697 頁(yè)。合理使用是指人工智能體使用者遵照人工智能體設(shè)定的合法用途和使用規(guī)范來使用人工智能體, 以保證人工智能體在研發(fā)者設(shè)定的安全有序的程序下運(yùn)行。 及時(shí)報(bào)告是指在人工智能體使用者在使用過程中發(fā)現(xiàn)人工智能體潛存的技術(shù)瑕疵可能對(duì)人類造成損害或者可能被應(yīng)用于非正當(dāng)?shù)纳鐣?huì)目的時(shí)應(yīng)當(dāng)及時(shí)向有關(guān)人員報(bào)告。
“數(shù)字化世界密集性和復(fù)雜性的背后, 風(fēng)險(xiǎn)將如影隨形?!雹揆R長(zhǎng)山: 《人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制》, 載 《法律科學(xué)》 2018 年第6 期。人工智能技術(shù)的發(fā)展是時(shí)代的大勢(shì)所趨, 如果將與人工智能技術(shù)的發(fā)展相伴而生的風(fēng)險(xiǎn)都作為違法來對(duì)待, 社會(huì)將停滯不前, 所以為了促進(jìn)社會(huì)生產(chǎn)的發(fā)展, 就必須在一定程度上容許危險(xiǎn)的存在。 “新過失論” 為防止過苛追究人工智能體研發(fā)者、 使用者的過失刑事責(zé)任, 在認(rèn)定研發(fā)者、 使用者的過失刑事責(zé)任時(shí)基于被容許的危險(xiǎn)理論和危險(xiǎn)分配的理論并設(shè)定不同的結(jié)果預(yù)見義務(wù)和結(jié)果避免義務(wù), 把原來由研發(fā)者、 使用者所承擔(dān)的所有危險(xiǎn)在一定條件下分配給受害人。 適用被容許的危險(xiǎn)理論對(duì)研發(fā)者、 使用者以及危險(xiǎn)活動(dòng)的其他參與者進(jìn)行危險(xiǎn)分配以上述主體在危險(xiǎn)活動(dòng)中負(fù)擔(dān)各自的注意義務(wù)為前提條件。
廣義的理解認(rèn)為, 被容許的危險(xiǎn)之所以存在, 是為我們的日常生活所必需的。 狹義的理解將被容許的危險(xiǎn)理解為具有引起危害結(jié)果的實(shí)質(zhì)危險(xiǎn), 認(rèn)為該危險(xiǎn)為了救濟(jì)其他利益而不得不容許存在。⑦參見黎宏: 《過失犯研究》, 載劉明祥主編: 《過失犯研究: 以交通過失和醫(yī)療過失為中心》, 北京大學(xué)出版社2010 年版, 第14-15 頁(yè)。本文所討論的是狹義的被容許的危險(xiǎn)。 許多不可避免的危險(xiǎn)行為隨著社會(huì)生活的復(fù)雜化而日益增多, 實(shí)施了此類對(duì)社會(huì)發(fā)展具有必要性與有用性的危險(xiǎn)行為的行為人, 如果遵守了其行為所必需的規(guī)則, 就不能認(rèn)為其是過失犯罪。 根據(jù)被容許的危險(xiǎn)理論, 對(duì)社會(huì)有益的、 不可缺少的行為, 即便其自身是侵害法益的危險(xiǎn)行為, 但在合理的范圍之內(nèi), 也應(yīng)承認(rèn)這種危險(xiǎn)行為的合法性。 英國(guó)學(xué)者安東尼·吉登斯曾言: “風(fēng)險(xiǎn)總是要規(guī)避的, 但是積極的冒險(xiǎn)精神正是一個(gè)充滿活力的經(jīng)濟(jì)和充滿創(chuàng)新的社會(huì)中最積極的因素?!雹郲英] 安東尼·吉登斯: 《失控的世界: 風(fēng)險(xiǎn)社會(huì)的肇始》, 載周紅云編譯: 《全球化與風(fēng)險(xiǎn)社會(huì)》, 社會(huì)科學(xué)文獻(xiàn)出版社2005年版, 第56 頁(yè)。誠(chéng)哉斯言, 人類在擁抱人工智能技術(shù)帶來的高福利的同時(shí), 不可避免地要在一定程度上容許 “理性冒險(xiǎn)”。 被容許的危險(xiǎn)理論展示的是一種比較權(quán)衡, 應(yīng)當(dāng)注意的是,這種比較應(yīng)當(dāng)以行為實(shí)施時(shí), 行為本身具有的危險(xiǎn)性與可預(yù)見的被害法益的價(jià)值、 發(fā)生結(jié)果的危險(xiǎn)性、 侵害法益的蓋然性等相比,⑨參見[日] 前田雅英: 《刑法總論講義》 (第六版), 曾文科譯, 北京大學(xué)出版社2017 年版, 第258 頁(yè)??深A(yù)見的被害法益的價(jià)值越大, 被害法益的價(jià)值越高, 發(fā)生結(jié)果的危險(xiǎn)性越大, 則被容許的危險(xiǎn)理論的適用范圍越窄。
社會(huì)全體成員為了得到技術(shù)紅利就必然要付出代價(jià), 這一代價(jià)就是技術(shù)的發(fā)展所必然蘊(yùn)含的危險(xiǎn)。⑩參見前引⑩, 劉憲權(quán)文。為了更好地平衡與人工智能體實(shí)施的活動(dòng)相關(guān)的參與者之間復(fù)雜的利益, 處理好風(fēng)險(xiǎn)承擔(dān)的復(fù)雜法律關(guān)系, 如何分配已知和未知的風(fēng)險(xiǎn)成為亟待解決的一個(gè)問題。 所謂危險(xiǎn)分配理論, 指活動(dòng)參與者在從事危險(xiǎn)活動(dòng)時(shí)應(yīng)當(dāng)在互相信賴的基礎(chǔ)上, 予以合理地分配危險(xiǎn), 共同承擔(dān)危險(xiǎn)后果。 一方面, 應(yīng)當(dāng)根據(jù)活動(dòng)的危險(xiǎn)程度合理地確定各參與者應(yīng)該分配的危險(xiǎn)。 對(duì)于在涉人工智能體的活動(dòng)中, 為了保護(hù)人工智能體研發(fā)者的創(chuàng)造積極性, 所有的活動(dòng)參加者都應(yīng)當(dāng)擁有并且負(fù)有部分注意義務(wù), 共同承擔(dān)休戚與共的責(zé)任, 而非僅僅由人工智能體研發(fā)者承擔(dān)。 如果人工智能體實(shí)施的危害行為是由于被害人或者第三人的故意或重大過失所致, 在人工智能體研發(fā)者、 使用者已經(jīng)承擔(dān)注意義務(wù)的前提下, 應(yīng)當(dāng)將危險(xiǎn)歸屬于被害人或第三人。 另一方面, 應(yīng)當(dāng)根據(jù)參與者的能力合理地確定參與者應(yīng)該分擔(dān)的危險(xiǎn)。 一般而言, 能力越強(qiáng), 應(yīng)當(dāng)為其賦加的注意義務(wù)就越多, 其應(yīng)當(dāng)容忍的危險(xiǎn)也越多。 如果某一參與者在參與危險(xiǎn)活動(dòng)中對(duì)危險(xiǎn)的發(fā)生不具有預(yù)測(cè)以及避免的能力, 則不能依據(jù)危險(xiǎn)分配理論分配其所應(yīng)當(dāng)承擔(dān)的危險(xiǎn)。 以人工智能體的研發(fā)者為例, 與其他活動(dòng)參與者相比, 其屬于擁有人工智能技術(shù)的人員, 具備直接控制人工智能系統(tǒng)的專業(yè)能力的現(xiàn)實(shí)條件, 因此有必要為其制定更多的注意義務(wù), 在危險(xiǎn)的分配中也應(yīng)當(dāng)配置更多的危險(xiǎn)。
“新過失論” 為了進(jìn)一步限制過失犯罪的處罰范圍, 不得不將信賴原則引入。 信賴原則關(guān)切的是, 行為人合理地信賴他人能夠遵守規(guī)則并采取適當(dāng)?shù)男袆?dòng), 但是由于其他參與人辜負(fù)了行為人的信賴而與自己的行動(dòng)相結(jié)合發(fā)生構(gòu)成要件的結(jié)果, 就不應(yīng)認(rèn)為行為人應(yīng)當(dāng)承擔(dān)責(zé)任。 信賴原則最早適用于交通運(yùn)輸領(lǐng)域, 后來逐步被擴(kuò)張適用于企業(yè)責(zé)任事故、 醫(yī)療事故等對(duì)防止危險(xiǎn)具有分工合作關(guān)系的所有領(lǐng)域。
對(duì)人工智能領(lǐng)域的過失刑事風(fēng)險(xiǎn)進(jìn)行規(guī)制亦可適用信賴原則。 人工智能體研發(fā)者的信賴基于兩個(gè)方面: 一是基于對(duì)人工智能技術(shù)的信賴。 當(dāng)研發(fā)者研發(fā)出用于正當(dāng)社會(huì)目的并且不存在導(dǎo)致法益侵害危險(xiǎn)的人工智能體, 人工智能體卻在程序規(guī)則外活動(dòng), 并且引發(fā)了具有嚴(yán)重社會(huì)危害性的實(shí)害結(jié)果, 此時(shí)則不應(yīng)追究研發(fā)者的過失刑事責(zé)任。 二是基于對(duì)人工智能體使用者的信賴。 人工智能體研發(fā)者信賴人工智能體使用者履行了謹(jǐn)慎詢問、 合理使用和及時(shí)報(bào)告的注意義務(wù), 但是使用者并沒有盡到注意義務(wù), 進(jìn)而使得人工智能體實(shí)施了犯罪活動(dòng), 產(chǎn)生的危害結(jié)果就不可歸責(zé)于研發(fā)者的過失。 人工智能體使用者的信賴同樣基于兩個(gè)方面, 一是基于對(duì)人工智能技術(shù)的信賴。 當(dāng)人工智能體使用者履行了所有為其設(shè)定的注意義務(wù), 但是人工智能體超出程序規(guī)則實(shí)施了犯罪行為, 就不應(yīng)認(rèn)為使用者對(duì)人工智能體的犯罪存在過失的罪過形式。 二是基于對(duì)人工智能體研發(fā)者的信賴。 “非專業(yè)人士對(duì)專家系統(tǒng)這一抽象體系建立起普遍信賴是風(fēng)險(xiǎn)社會(huì)的基本特征之一。”①葉良芳、 馬璐瑤: 《風(fēng)險(xiǎn)社會(huì)視閾下人工智能犯罪的刑法應(yīng)對(duì)》, 載 《浙江學(xué)刊》 2018 年第6 期。而隨著社會(huì)分工越來越精細(xì)化, “人們對(duì) ‘社會(huì)體系的信任’, 表現(xiàn)為對(duì)各行各業(yè)的 ‘專家體系’ 的充分信任……專業(yè)知識(shí)成為人們安全感的重要基礎(chǔ)?!雹趨⒁娗耙?, 薛曉源、 劉國(guó)良文。因此, 人工智能體使用者對(duì)人工智能體研發(fā)者的信賴有利于普通大眾更好地把握科技發(fā)展的契機(jī), 系統(tǒng)地處理科技引致的危險(xiǎn)和不安全感。
信賴原則的適用需要存在社會(huì)相當(dāng)性: 第一, 有完善的社會(huì)分工制度。 在人工智能體研發(fā)者和人工智能體使用者之間存在合理的權(quán)責(zé)分工負(fù)責(zé)體制, 明確設(shè)定各自的注意義務(wù), 能夠建立分工合作的制度信賴。 第二, 存在實(shí)質(zhì)的相互信賴關(guān)系。 在人工智能體出現(xiàn)了不適當(dāng)行為的具體先兆時(shí),不能合理地期待人工智能體可以在其研發(fā)者和使用者的高度信賴之下從事適當(dāng)行為。 例如人工智能體以往從事相應(yīng)行為的時(shí)候過失頻率較高、 出現(xiàn)反常行動(dòng)的可能性大等情況。 第三, 具有實(shí)質(zhì)的控制權(quán)限。 如果人工智能體研發(fā)者或者使用者不具有實(shí)質(zhì)上保證某項(xiàng)危險(xiǎn)不發(fā)生或者對(duì)阻止危險(xiǎn)發(fā)生的現(xiàn)實(shí)支配權(quán)限, 就不能視為對(duì)危險(xiǎn)領(lǐng)域具有 “控制權(quán)限” 的行為人。 因此, 當(dāng)人工智能體研發(fā)者或使用者與危險(xiǎn)控制權(quán)限發(fā)生實(shí)際脫節(jié), 只擁有形式上的控制權(quán)限的過失領(lǐng)域不能適用信賴原則。
強(qiáng)人工智能體研發(fā)者和使用者的過失刑事責(zé)任具體又分為以下情形: 第一種情形, 強(qiáng)人工智能體研發(fā)者、 使用者違反直接的結(jié)果預(yù)見義務(wù)和結(jié)果回避義務(wù)時(shí), 可能承擔(dān)一般過失犯罪的刑事責(zé)任。 例如, 人工智能體研發(fā)者在研發(fā)強(qiáng)人工智能體時(shí)因?yàn)閼?yīng)當(dāng)預(yù)見該人工智能體存在可能發(fā)生致人損害的結(jié)果卻沒有預(yù)見, 或者已經(jīng)認(rèn)識(shí)到研發(fā)的人工智能體可能發(fā)生危害結(jié)果, 但過高估計(jì)自己避免結(jié)果的能力而怠于采取結(jié)果避免措施, 并且由此發(fā)生了刑法構(gòu)成要件性法益的侵害后果; 人工智能體使用者由于疏忽大意的過失或者過于自信的過失, 沒有按照人工智能體的規(guī)范操作流程使用人工智能體并且導(dǎo)致了刑法構(gòu)成要件性法益侵害的后果。 第二種情形, 人工智能體研發(fā)者違反間接的結(jié)果預(yù)見義務(wù)和結(jié)果回避義務(wù)時(shí), 可能接受監(jiān)督過失犯罪的譴責(zé)。3○人工智能體研發(fā)者的監(jiān)督包括事前組織相關(guān)危險(xiǎn)評(píng)估, 事中督促人工智能體使用者按照操作規(guī)程執(zhí)行, 事后及時(shí)完善相關(guān)程序。 監(jiān)督過失非難的起點(diǎn)來源于監(jiān)督者違反了預(yù)見自己的行為將引起被監(jiān)督者造成危害結(jié)果的義務(wù), 且沒有采取一定的措施避免被監(jiān)督者的過失行為引發(fā)的結(jié)果。
人工智能體研發(fā)者在研發(fā)人工智能體時(shí)因過失使得人工智能體存在缺陷, 且人工智能體使用者在使用該人工智能體的過程中違反了該人工智能體的規(guī)范操作流程, 人工智能體在此情形下造成的危害結(jié)果應(yīng)當(dāng)由具有共同過失的人工智能體研發(fā)者和使用者共同承擔(dān), 以過失共同犯罪來定罪處罰。
雖然我國(guó)刑法并未對(duì) “共同過失犯罪” 有明文肯定, 但是 “共同過失犯罪” 的相關(guān)法理適用可在一些具體條文和司法解釋中窺探一二。 根據(jù)我國(guó) 《刑法》 第二十五條的規(guī)定, 立法者不但沒有否認(rèn) “共同過失犯罪” 這一概念, 甚至進(jìn)一步明確 “共同過失犯罪” 的處罰方式不同于共同故意犯罪。 有學(xué)者提出, 立法之所以肯定 “共同過失犯罪” 這個(gè)客觀現(xiàn)象和概念, 但卻不認(rèn)為 “共同過失犯罪” 是共同犯罪, 是綜合考慮了在制定現(xiàn)行刑法的時(shí)代背景下, 我國(guó)刑法理論界對(duì)于 “共同過失犯罪” 基本呈現(xiàn)一邊倒的否定態(tài)度, 且我國(guó)司法審判實(shí)踐中極少出現(xiàn)由于否定 “共同過失犯罪” 而造成冤錯(cuò)案件的情況。④參見王博: 《過失共同犯罪研究》, 西南政法大學(xué)2011 年博士學(xué)位論文。另外, 2000 年《最高人民法院關(guān)于交通肇事刑事案件具體應(yīng)用法律若干問題的解釋》 第五條第二款⑤2000 年11 月15 日 《最高人民法院關(guān)于交通肇事刑事案件具體應(yīng)用法律若干問題的解釋》 第五條第二款: “交通肇事后, 單位主管人員、 機(jī)動(dòng)車輛所有人、 承包人或者乘車人指示肇事人逃逸, 致使被害人得不到救助而死亡的, 以交通肇事罪的共犯論處?!币部隙?“共同過失犯罪”。 理由如下: 第一, 共同故意犯罪要求意思聯(lián)絡(luò)形成于著手實(shí)行犯罪之前或者實(shí)行犯罪的過程中。 該款中單位主管人員、 機(jī)動(dòng)車輛所有人、 承包人或者乘車人與肇事人的意思聯(lián)絡(luò)存在于犯罪已經(jīng)實(shí)行完畢的既遂形態(tài)中, 所以該款不能解釋為共同故意犯罪。 第二, 承繼的共同犯罪要求共同犯罪只能存在于犯罪既遂之前, 但是繼續(xù)犯是例外。 繼續(xù)犯在繼續(xù)期間, 雖然犯罪已經(jīng)達(dá)到既遂, 只要行為仍然處于繼續(xù)狀態(tài)的, 加入共同犯罪的行為人也可以成立共同犯罪。 但交通肇事罪不是繼續(xù)犯, 所以該款不能解釋為承繼的共同犯罪。 由此可見, 我國(guó)并沒有否認(rèn) “過失共同犯罪”。
人工智能體研發(fā)者的監(jiān)督過失行為通過人工智能體使用者的行為間接導(dǎo)致了危害后果成為發(fā)動(dòng)監(jiān)督過失的直接依據(jù)。
在監(jiān)督過失中, 監(jiān)督者與被監(jiān)督者是共同過失犯罪還是過失競(jìng)合犯罪的爭(zhēng)議, 大多數(shù)觀點(diǎn)認(rèn)為是過失競(jìng)合, 少數(shù)觀點(diǎn)認(rèn)為是共同過失。 主張監(jiān)督過失是過失競(jìng)合的學(xué)者主要是從監(jiān)督者和被監(jiān)督者的地位、 是否是 “注意義務(wù)共同體” 以及危害結(jié)果的效力角度來論述。 從監(jiān)督者和被監(jiān)督者地位來看, 人工智能體研發(fā)者和人工智能體使用者處于不平等的地位。 處于被監(jiān)督者地位的人工智能體使用者應(yīng)當(dāng)接受處于監(jiān)督地位的人工智能體研發(fā)者為代表的 “專家系統(tǒng)” 的規(guī)劃指引和監(jiān)督管理。共同的注意義務(wù)是共同過失犯罪一個(gè)重要的主觀因素, 從監(jiān)督者和被監(jiān)督者注意義務(wù)可知, 由于人工智能體研發(fā)者與人工智能體使用者之間并沒有構(gòu)成一個(gè) “注意義務(wù)共同體”, 因此, 監(jiān)督過失不是共同過失犯罪, 而是過失競(jìng)合的表現(xiàn)形式。⑥參見袁登明、 吳情樹: 《論競(jìng)合過失與共同過失》, 載 《云南大學(xué)學(xué)報(bào)法學(xué)版》 2003 年第2 期; 李蘭英、 馬文: 《監(jiān)督過失的提倡及其司法認(rèn)定》, 載 《中國(guó)刑事法雜志》 2005 年第5 期。就危害結(jié)果對(duì)監(jiān)督者與被監(jiān)督者的不同的效力而言,人工智能體研發(fā)者的過失必須借助人工智能體使用者的行為才能造成危害結(jié)果, 而人工智能體使用者的過失可以獨(dú)立地產(chǎn)生危害結(jié)果。⑦參見譚淦: 《監(jiān)督過失的一般形態(tài)研究》, 載 《政法論壇》 2012 年第1 期。
依筆者之見, 監(jiān)督過失是數(shù)個(gè)行為人的過失并存的競(jìng)合。 在涉及人工智能體監(jiān)督過失情形中,人工智能體研發(fā)者和人工智能體使用者都是應(yīng)采取某種防止行動(dòng)卻沒有采取, 最終導(dǎo)致了結(jié)果發(fā)生, 但二者的注意對(duì)象內(nèi)容不同。 人工智能體使用者的注意對(duì)象是危害結(jié)果, 其應(yīng)當(dāng)預(yù)見自己的行為直接產(chǎn)生的結(jié)果, 并且不得由于過失行為導(dǎo)致這一結(jié)果的發(fā)生; 人工智能體研發(fā)者的注意對(duì)象是被監(jiān)督者的行為, 其應(yīng)當(dāng)預(yù)見自己的行為將引起被監(jiān)督者的過失行為, 并避免被監(jiān)督者實(shí)施過失行為。 根據(jù)西原春夫教授提出的并存的競(jìng)合和重疊的競(jìng)合的劃分方法, 如果過失競(jìng)合的各行為人的行為可以單獨(dú)成為結(jié)果發(fā)生的獨(dú)立原因的, 稱為并存的競(jìng)合; 如果只有一方的過失能獨(dú)立導(dǎo)致結(jié)果發(fā)生的, 并且可以防止他方對(duì)于結(jié)果發(fā)生的, 稱為重疊的競(jìng)合。 在人工智能體監(jiān)督過失犯罪中, 人工智能體使用者處于獨(dú)立地位, 人工智能體研發(fā)者如果采取適當(dāng)?shù)男袨椋?則可以防止人工智能體使用者的過失行為導(dǎo)致結(jié)果發(fā)生, 因此監(jiān)督過失屬于重疊的競(jìng)合。
雖然我國(guó)刑法理論中只有疏忽大意的過失和過于自信的過失這兩種過失形態(tài), 沒有明確監(jiān)督過失這一過失形態(tài), 但是隱含著監(jiān)督過失責(zé)任內(nèi)容的因子, 監(jiān)督過失分別符合疏忽大意的過失和過于自信的過失的基本特征概念。 監(jiān)督者能夠預(yù)見自己不履行監(jiān)督義務(wù)的行為可能引起被監(jiān)督者的過失行為從而發(fā)生危害社會(huì)的結(jié)果, 因?yàn)槭韬龃笠舛鴽]有預(yù)見, 這種情況契合疏忽大意的過失的心理特征。 監(jiān)督者已經(jīng)預(yù)見自己不履行監(jiān)督義務(wù)可能導(dǎo)致被監(jiān)督者的過失行為, 從而造成危害結(jié)果, 但輕信自己的技術(shù)、 經(jīng)驗(yàn)等能夠避免, 這種情況與過于自信的過失的心理特征沒有本質(zhì)差別。
“科學(xué)技術(shù)總是涉及風(fēng)險(xiǎn)觀念”,⑧Anthony Giddens, Runaway World: How Globalization Is Reshaping Our Lives. New York: Routledge Press, 2000, p.45.以人工智能、 大數(shù)據(jù)和云計(jì)算為代表的日新月異的科學(xué)技術(shù)在一步步地改善人類社會(huì)生活面貌, 同時(shí)也增加了大量的不確定性、 未來性的風(fēng)險(xiǎn)。 涉人工智能犯罪是人工智能時(shí)代產(chǎn)生的新樣態(tài)的犯罪, 新舊事物之間的關(guān)系從來都是 “藕斷絲連” 的, 因此, 對(duì)于涉人工智能犯罪的研究仍需要以現(xiàn)行刑法規(guī)定為切入點(diǎn), 以前瞻性的回應(yīng)與規(guī)范之維彌合科技發(fā)展和風(fēng)險(xiǎn)社會(huì)之間的鴻溝。 “預(yù)防犯罪比懲罰犯罪更高明”,⑨[意] 貝卡利亞: 《論犯罪與刑罰》, 黃風(fēng)譯, 中國(guó)大百科全書出版社2002 年版, 第104 頁(yè)。引入“新過失論” 有利于強(qiáng)化人工智能體研發(fā)者、 使用者的規(guī)范意識(shí), 更能有效控制與消解人工智能時(shí)代的過失刑事風(fēng)險(xiǎn), 為轉(zhuǎn)型時(shí)期以人工智能為代表的新興技術(shù)在技術(shù)價(jià)值和法律價(jià)值這兩個(gè)價(jià)值世界之間的碰撞中產(chǎn)生的 “轉(zhuǎn)型” 效應(yīng)提供有效的創(chuàng)新激勵(lì), 實(shí)現(xiàn)以人類的安全和福祉為目標(biāo)的人工智能刑事法治。