亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能產(chǎn)品算法設計者的犯罪過失判斷

        2024-01-01 00:00:00劉嘉錚
        重慶大學學報(社會科學版) 2024年3期
        關鍵詞:算法

        摘要:

        判斷人工智能產(chǎn)品算法設計者的過失時,修正的舊過失論對導致危害結果發(fā)生的因果歷程設置了具體預見可能性標準,這一標準與算法的黑箱屬性以相關性而不是因果關系為基礎的決策過程存在沖突。同時,此立場只重視結果忽視行為的邏輯會打擊算法設計者的積極性,阻礙算法進步。新過失論雖然以結果避免義務作為犯罪過失的核心,但是其對結果預見可能性的標準缺乏具體設計,在判斷預見可能性時往往束手無策。因此,兩種立場都不是判斷人工智能產(chǎn)品算法設計者犯罪過失的合理方案。相比之下,雖然危懼感說(超新過失論)認為結果預見可能性只需達到危懼感的觀點受到了主流觀點的批評,但這種批評值得商榷:其一,只看到了這種立場對結果預見可能性的低程度要求,卻沒有看到這種要求背后的核心觀點對于判斷犯罪過失的合理性;其二,將危懼感說提出者本人對個別案件的過失判斷等同于危懼感說的全部,略顯片面。與修正的舊過失論和新過失論相比,危懼感說的核心觀點是:結果預見可能性與結果避免義務存在相互關聯(lián)性,這是判斷人工智能產(chǎn)品算法設計者犯罪過失的合理方案。以危懼感說的核心觀點為思路,犯罪過失包括客觀的結果預見可能性、客觀的結果預見義務和客觀的結果避免義務。人工智能產(chǎn)品算法設計者客觀的結果預見可能性的標準是:一旦遭遇包含異常因素的特殊情況,算法有可能做出不利決策,進而引發(fā)消極后果。算法設計者客觀的結果預見義務的內(nèi)容是:其一,應當預見到其設計的算法不僅會被用于沒有異常因素出現(xiàn)的正常情況,而且可能被用于伴隨異常因素出現(xiàn)的特殊情況;其二,一旦其設計的算法面臨特殊情況,該系統(tǒng)可能會做出不利決策。算法設計者客觀的結果避免義務的內(nèi)容是:應當避免在設計算法時植入為社會公眾普遍反對或不贊同的價值理念;在設計時檢驗“投喂”給算法系統(tǒng)的數(shù)據(jù)質(zhì)量,最大程度防止缺陷數(shù)據(jù)進入算法機器學習訓練的“垃圾進”風險;及時告知產(chǎn)品生產(chǎn)者算法可能面對的異常情況。

        關鍵詞:算法;結果預見可能性;危懼感說;結果預見義務;結果避免義務

        中圖分類號:D914;TP18 "文獻標志碼:A "文章編號:1008-5831(2024)03-0228-14

        一、人工智能產(chǎn)品致害的歸責關鍵

        “人工智能時代的科技革命已經(jīng)從理論實驗轉(zhuǎn)向技術應用”[1]。人們不斷將人工智能產(chǎn)品應用于社會生活的多個領域,比如掃地機器人、醫(yī)院看護機器人、無人機以及自動駕駛汽車等[2]。人工智能產(chǎn)品在蓬勃發(fā)展的同時,也會帶來一定風險,比如裝載了自動駕駛系統(tǒng)的機動車在道路上行進時可能引發(fā)交通事故。這些風險進而會產(chǎn)生刑法中的歸責難題,包括誰應當對人工智能產(chǎn)品引發(fā)的危害結果承擔刑事責任,以及刑事責任主體在什么情況下才應當承擔刑事責任。判斷刑事責任主體的關鍵是誰的決策引發(fā)了危害結果,或者誰的決策為結果的發(fā)生提供了條件。算法的逐漸成熟使決策主體正在發(fā)生改變。

        (一)智能產(chǎn)品算法對人力決策的取代

        長期以來,人類選擇是社會、經(jīng)濟、政治制度必不可少的部分,是人們私人生活和公共生活不可或缺的基礎部分[3]。人力決策一直是決策權力的核心,但人工智能產(chǎn)品的推廣正在逐漸改變這種權力配置。當前的人工智能產(chǎn)品等于大數(shù)據(jù)加機器學習[4],是一種裝載了智能系統(tǒng)的、能夠憑借該系統(tǒng)進行自動化運轉(zhuǎn)的機器產(chǎn)品,其核心是算法,比如自駕車是指機動車搭配人工智慧系統(tǒng),使之得以自動操作車輛和運行[5]190。德國學者希爾根多夫教授指出:“自動化駕駛可以簡述為自主系統(tǒng)輔助下的駕駛。所謂自主系統(tǒng)是指無需人類持續(xù)輸入信號即可應對所面對之情境的系統(tǒng)。”[6]396在自動駕駛等領域中,算法發(fā)揮了舉足輕重的作用,它可以大幅提高決策效率,為消費者或用戶提供更精準的服務[7]。

        算法逐漸脫離了純粹的工具性角色[8],有了自主性和認知特征,甚至具備了自我學習能力[9],使其在服務于人類的同時從一種決策輔助工具進化成為一種新興智能技術[10]。作為機器學習新階段的深度學習算法已經(jīng)能夠進行自主性再編程,以至于算法開發(fā)者也無法理解算法決策背后的邏輯[11]。在裝載了算法系統(tǒng)的人工智能產(chǎn)品中,算法已經(jīng)漸漸取代了人力決策,在未來可能成為實際上的決策主體。在明確人工智能產(chǎn)品裝載的智能系統(tǒng)屬于算法的情況下,人工智能產(chǎn)品引發(fā)危害結果時,過失判斷的核心應當圍繞算法決策進行。

        (二)智能產(chǎn)品致害的歸責核心:算法決策的不確定性

        人的意志是判斷行為是否違反刑法規(guī)范的關鍵,我國臺灣地區(qū)前高等法院大法官許玉秀教授指出:“人和他的行為是分不開的,行為所表現(xiàn)的是人的特質(zhì),人的態(tài)度、人對世界的詮釋,而這才是作為這個世界的主體的我們所關心的、所在乎的,如果一個行為是一個夢游的人所做的,一個損害是被龍卷風刮起來的人所造成的,我們不會在意,也不能在意,因為沒有人能對抗自己的夢游、對抗龍卷風?!保?2]因此不在自由意志支配之下的人的舉止不屬于刑法中的行為,而“人的自由意志支配之下的舉止”這個行為定義可以被置換為另一種概念:人力決策舉止。如果一種舉止不是由人力決策而是由于夢游等外部原因?qū)е碌?,該舉止應屬于外部強制。實際上,目前我國加速進入的“風險社會”中的“風險”含義并不是技術風險、事故風險、金融風險等具體類型的風險,而是社會發(fā)展不斷復雜化背景下人力決策的有限性帶來的不確定性[13]。

        人工智能產(chǎn)品引發(fā)危害結果時,情況會發(fā)生根本性變化。人工智能產(chǎn)品依靠自身搭配的算法根據(jù)外部信息進行決策,進而對機器發(fā)出指令,這個過程并不包含自然人,因而人工智能產(chǎn)品致害的整個過程都沒有人力決策的參與,危害結果發(fā)生過程實現(xiàn)了從人力決策到算法決策的角色轉(zhuǎn)換。因此,在人工智能產(chǎn)品引發(fā)危害結果時,犯罪過失判斷的核心應當是人工智能裝載的算法決策的不確定性,而不再是人力決策的不確定性。

        在人工智能產(chǎn)品致害過程已經(jīng)完成從人力決策到算法決策的轉(zhuǎn)換的情況下,對人工智能致害的歸責判斷應當圍繞與算法決策有關的行為展開,誰的行為制造了支配算法決策引發(fā)危害結果的不被容許的風險,誰就應當對該危害結果承擔刑事責任?!斑^失犯刑事責任成立的關鍵時刻,應該是在危險形成的時候,而不是等到危害結果出現(xiàn)”[14]。犯罪事實的發(fā)生始終是先行為制造了不被容許的風險,然后現(xiàn)實化為危害結果,故過失犯罪危險形成的時刻應當是行為實施之時。智能產(chǎn)品算法的設計行為對于算法決策最終引發(fā)危害結果的整個過程起到了重要的作用,判斷智能產(chǎn)品算法設計者在設計時是否存在過失是對人工智能產(chǎn)品引發(fā)的危害結果進行歸責時必須解決的問題。

        二、我國犯罪過失的立場之爭

        過失的立場是研究一切過失犯罪的理論前提,在討論人工智能產(chǎn)品生產(chǎn)者的過失責任之前,刑法應當首先明確過失論的立場,進而進行過失犯罪構造的設計。目前為止,刑法理論關于過失的立場主要有修正的舊過失論和新過失論兩種,結果無價值論者普遍支持修正的舊過失論,行為無價值論者普遍支持新過失論。

        (一)修正的舊過失論的判斷立場

        修正的舊過失論以舊過失論為基礎,認為過失的核心是結果預見可能性。從這種立場出發(fā),違法是一種純粹客觀的事實,與故意、過失無關[15]160,過失只是一種罪責要素,在構成要件合致性和違法性層面沒有判斷過失的余地,結果預見可能性的有無與程度是過失的唯一條件,只要行為因果性引起了危害結果并且行為人對該結果存在預見可能性,行為人就構成過失犯罪[16]。為了防止以預見可能性作為判斷過失的唯一標準過于擴張?zhí)幜P范圍,修正的舊過失論和舊過失論一樣,都主張以判斷過失犯罪成立的結果預見可能性即使不能達到分毫不差的程度,也必須達到較為具體的程度:對危害結果及引起結果發(fā)生的因果歷程的基本部分存在預見可能[17]。

        (二)新過失論的判斷立場

        新過失論認為過失的核心不在于結果不法,而在于行為不法。在行為人實施的行為與法律要求的舉止相協(xié)調(diào),即履行了交往中必要的注意義務時,該行為就是合法的[18]。從新過失論的立場出發(fā),人的行為與主觀方面并非完全無關[19]。故意犯罪和過失犯罪在構成要件該當性層面和違法性層面存在明顯區(qū)別,故意行為的違法性明顯高于過失行為的違法性,因此故意、過失首先是主觀的違法要素,以及(作為違法類型的)主觀的構成要件要素?!爸灰怀姓J作為構成要件要素的過失觀念,就不可能論及過失犯的構成要件符合性。這樣,過失也與故意并立,首先應被視為構成要件的要素,可以稱其為構成要件性過失”[20]。

        因為過失首先被定位為不法構成要件要素,所以過失判斷的關鍵是行為人未盡一般社會交往中必要之注意[21],一般社會交往中必要之注意是“以社會上實際之觀點,追究在行為人所處之具體情況下,具有思慮且謹慎之人應該采取如何之行為”[22]。故,新過失論的過失構造是:違反客觀的注意義務的作為或不作為[23]。由于過失的這種雙重屬性,刑法必須分兩個階段對其進行審查。首先,刑法需要在構成要件層面審查過失,這涉及客觀的結果預見可能性與客觀的注意義務。其次,刑法需要在罪責階段審查過失,這涉及行為人本人能否履行客觀的注意義務并主觀地預見危害結果的發(fā)生[24]。由此可見,不同于修正的舊過失論,新過失論認為過失的本質(zhì)并不是預見可能性,而在于行為人違反客觀的注意義務中的結果避免義務,即偏離為刑法規(guī)范所期待的基準行為,“倘能遵守社會生活上為了回避結果所必要的一般注意即為適法”[25]。

        (三)我國犯罪過失的立場爭議

        我國刑法對于犯罪過失的主要立場存在修正的舊過失論和新過失論的爭論,支持修正的舊過失論的觀點認為不法要件是中立、無色的,在進行不法判斷時,只應考慮法益侵害或者法益侵害危險,因此故意、過失屬于責任要素[26]328,只要行為人的行為對危害結果的發(fā)生具有緊迫危險,就是過失實行行為[26]378-382。張明楷教授指出:“應當承認行為人對結果的預見可能性是責任要素?!保?6]382支持新過失論的觀點認為以結果避免義務作為客觀的行為基準來設定客觀的注意義務的做法,能夠限制過失犯的泛濫[15]163。陳興良教授指出:“只要采取了對一般人而言具有合理性的結果回避義務即基準行為,即便具有預見可能性,由此所出現(xiàn)的結果屬于被允許的危險,并不具有違法性,由此限制了過失的處罰范圍?!保?7]

        三、主要過失立場對算法設計者犯罪過失判斷的弊端

        (一)修正的舊過失論的缺陷

        1.具體的結果預見可能性要求與算法黑箱屬性的沖突

        修正的舊過失論對具體預見可能性的要求與算法的黑箱屬性不相容,在判斷人工智能機器算法設計者的刑事責任時,可能會導致處罰目的落空。

        算法進步迅速,其計算方式已經(jīng)由原本的監(jiān)督學習改為非監(jiān)督學習,無需人類知識和經(jīng)驗的指引[5]192。監(jiān)督學習和非監(jiān)督學習都屬于機器學習算法的一種,監(jiān)督學習屬于傳統(tǒng)機器學習,非監(jiān)督學習屬于作為全新機器學習種類的深度學習[28]119。人工智能產(chǎn)品依賴的機器學習算法能夠在沒有人類參與的情況下在后臺自動運行[29],其內(nèi)部結構屬于一種深度神經(jīng)網(wǎng)絡,深度神經(jīng)網(wǎng)絡從經(jīng)驗中學習,由成千上萬個人造神經(jīng)元組成,這些神經(jīng)元對信息的判斷不能簡化為固定的順序,單個或單獨一組的神經(jīng)元也不能單獨決定對于決策來說哪個信息重要或哪個信息不重要,而是奉行一種交互式聯(lián)系的理念,各個人造神經(jīng)元進行一種分散式的通力合作,共同對決策所依賴的外部信息進行決定,進而做出決策。因此,機器學習算法的決策過程與人類的直覺相似[30]。算法在此應用的,并不是單向的形式邏輯,而是大量運用或然率、臆測與自我糾正決策過程,使相關決策結果以相對高的或然率提供答案[31]218。

        由于在機器學習算法深度神經(jīng)網(wǎng)絡中,各個神經(jīng)元共同判斷信息并進行“直覺式”決策,如此決策所產(chǎn)生的結果,并沒有一種百分之百的必然性,何種信息在算法的神經(jīng)系統(tǒng)中受到何種評價,算法設計者無從得知[31]219。絕大部分機器學習算法的輸出結果,無論輸入和輸出的因果關系在表面上看起來多么直觀,這種因果關系都很可能根本無法被解釋,其動態(tài)的變化也難以預測。更重要的是,對于機器學習而言,輸入數(shù)據(jù)的變化和累加,使算法推算結果背后的深層原因變得難以把握,在這個意義上,它是一個無法實現(xiàn)透明的“黑箱”[32]。這導致算法的缺陷性決策并不是出于設計者能夠控制的“硬編碼”,而可能出自于機器學習過程中的各種突發(fā)屬性[33]。算法設計者無法控制機器學習,從而也就無法預見算法究竟會在外部環(huán)境的刺激下做出什么樣的決策。

        由此可見,機器學習算法的復雜性、不透明性會導致因果追溯與歸責更加復雜[34],機器算法決策過程的黑箱屬性使算法以相關性而不是因果關系為運轉(zhuǎn)的基礎,旨在發(fā)現(xiàn)不同對象之間的微妙關聯(lián)而非理解其原因,導致算法的決策“行為”缺乏可理解性與可預見性[35],進而使設計者不太可能對智能產(chǎn)品裝載的算法決策所引發(fā)的危害結果歷程存在具體預見可能性。因此,人工智能產(chǎn)品致害缺乏事前的預見可能性,是其最重要的特征[36]。

        然而,修正的舊過失論對具體預見可能性的要求是:行為人對危害結果的預見不需要達到嚴絲合縫的完美對應,而是對危害結果的基本部分存在預見?!拔:Y果的基本部分”不能孤立地考察結果本身,而應考察危害結果發(fā)生的整個因果關系歷程的基本部分。過失犯罪危害結果涉及一個漫長的因果鏈,行為人實施了侵害行為,才有辦法創(chuàng)造新的損害因果歷程,損害才可能出現(xiàn),通過主體→行為→損害之間串連,才有辦法引發(fā)結果[37],也就是說,預見可能性的對象并不是結果,而是不法構成要件的全部事實[38]。因此,危害結果的基本部分指的是整個危害結果發(fā)生的因果關系歷程的基本部分,具體是指去掉實際發(fā)生的因果歷程中在刑法上并無重要意義的具體個別細節(jié)(比如時間、地點、行為人和被害人的姓名等)以后,剩余能夠清楚說明行為人實施行為,進而引發(fā)結果的全過程核心部分。即:具體預見可能性要求行為人可能預見的不法構成要件事實必須能夠在構成要件要素層面上進行抽象把握,即使行為人對于實際發(fā)生的全部事實沒有預見,但只要對構成要件的基本事實存在預見可能就已足夠[39]250-251。

        具體到智能產(chǎn)品致害的因果歷程中,具體的預見可能性要求是:雖然不要求算法設計者具體預見到算法的哪一個決策會導致哪一個時間、哪一個地點的哪個(群)人受到什么程度的損害,但是要求設計者預見在特定情況下算法的某一個決策的內(nèi)容,以及這個決策會給人造成什么損害。但如前所述,算法決策的不透明性會導致法律判斷誰在控制算法系統(tǒng)的風險或者識別哪一種代碼、行為、輸入值或數(shù)據(jù)最終引發(fā)了危害結果的代價非常高昂,甚至無法做到,這種因素會導致行為與危害結果之間的因果關系歷程很難被判斷[40]。因此,“利用傳統(tǒng)的人類認知論中的因果關系概念對依賴大數(shù)據(jù)相關性運作的算法決策及其侵害進行歸責仿佛緣木求魚”[34]。

        2.對行為本身的忽視

        以預見可能性作為過失犯罪核心標準的觀點會落入無視行為只看結果的錯誤邏輯,導致算法設計者在研發(fā)時瞻前顧后,阻礙技術進步。

        修正的舊過失論以是否存在預見可能性為核心標準,這樣的主張將會導致刑法在判斷過失犯罪時只重視結果而忽視導致結果發(fā)生的行為,只要行為在客觀上引發(fā)了危害結果并且行為人主觀上存在預見可能性,行為人就會被定罪。算法設計行為一方面能夠?qū)⒆匀蝗藦膭趧又薪夥懦鰜恚龠M社會進步,另一方面也可能會帶來風險。如,人工智能機器可以調(diào)控室內(nèi)溫度,但可能把房間變成冰窖或火爐;可以自動開門,但可能把人們鎖閉在屋內(nèi);可以自動駕駛,但可能引發(fā)事故;可以治病救人,但可能誤診殺人[41]。當前社會發(fā)展日益復雜,風險日益增加,而風險的增加一般而言能夠預見,如果利用過失犯原理追究對于損害具有預見可能性的行為人,不僅會因為風險的增加而擴張過失刑事責任的范圍,更會導致人們?yōu)榱吮苊獬袚^失刑事責任而被迫放棄能給生活帶來便利,但同時帶來風險的新類型活動[42]。

        如果采取修正的舊過失論立場,認為只要算法設計者對于產(chǎn)品會給他人造成危害存在預見可能性,客觀上產(chǎn)品又確實引發(fā)了危害時即構成過失犯罪,不僅與“現(xiàn)代多元化的風險社會中,人類必須放膽行事,不能老是在事前依照既定的規(guī)范或固定的自然概念,來確知他的行為是否正確”[43]的正常行事邏輯相違背,也會導致刑法忽視設計者的行為本身,只根據(jù)危害結果進行定罪,落入結果責任的錯誤邏輯,打擊科研人員開發(fā)人工智能產(chǎn)品算法的積極性。

        (二)新過失論的合理性與不足

        新過失論以結果避免義務作為過失本質(zhì)的觀點能夠在很大程度上減輕人工智能機器算法系統(tǒng)的開發(fā)者和產(chǎn)品生產(chǎn)者的心理負擔,不采取結果避免措施才可能構成犯罪的觀點使算法設計者能夠大膽進行系統(tǒng)設計而無需在行為當時瞻前顧后。然而,新過失論在重視結果避免義務的同時,并沒有對結果預見可能性的標準進行具體設計,雖然新過失論認為結果預見內(nèi)容應更為抽象[44],但是與修正的舊過失論對具體預見可能性的設計相比,新過失論并沒有提出明確緩和理解預見可能性的標準。由于缺乏標準,新過失論在判斷預見可能性時往往束手無策,最終被迫借助舊過失論的預見可能性要求,認為“新過失論在理論中同樣強調(diào)行為人的具體預見可能性”[45],或者并不直接支持具體的預見可能性,而是從結果避免可能性入手,提出行為人對不法構成要件的實現(xiàn)欠缺預見可能性就等于欠缺避免不法事實實現(xiàn)的可能性,進而認為避免可能性只是預見可能性的同義詞[46],從而將舊過失論對預見可能性的具體要求悄無聲息地納入新過失論的體系之中。支持這種概念置換的新過失論者進一步認為,修正的舊過失論主張的具體的結果預見可能性與新過失論主張的結果避免可能性的內(nèi)容是一致的[47]。

        如果具體的結果預見可能性仍然在新過失論中被要求,那么新過失論同樣會落入前述具體的預見可能性與算法的黑箱屬性本質(zhì)上不相容的難題。由于設計者無法具有具體預見可能性,最終無需承擔結果避免義務而不成立犯罪,如此一來會產(chǎn)生非?;恼Q的結論:人工智能機器的錯誤決策致人傷亡或造成他人損失,但最終卻由受害人自己對自己的損害負責。因此,雖然新過失論比修正的舊過失論更加合理,但其仍然不是最佳方案。

        四、危懼感說(超新過失論)判斷算法設計者犯罪過失的合理性證成

        在修正的舊過失論和新過失論以外,還存在一種對預見可能性作更加抽象理解的過失立場,被稱為危懼感說(超新過失論)。與前述兩種主要立場不同,危懼感說在提出以后受到了主流觀點的猛烈批評,認為這種立場立足于行為無價值一元論,直接將結果不法逐出構成要件要素,不需要結果的預見可能性,只要沒有采取措施消除不知道會發(fā)生什么的危懼感就成立過失[39]242。我國刑法中的大多數(shù)觀點也不贊同危懼感說,認為其對預見可能性的要求過低[26]371。然而,主流觀點對危懼感說的批判可能值得商榷,在判斷人工智能產(chǎn)品算法設計者的犯罪過失時,危懼感說可能是合理的立場,這種合理性是由危懼感說的核心觀點決定的。

        (一)危懼感說的抽象預見可能性要求

        危懼感說是日本學者藤木英雄教授提出的立場,在繼承了新過失論觀點的基礎上,對預見可能性進行進一步緩和理解,與新過失論并未提出明確的緩和理解預見可能性的標準不同,危懼感說提出了明確的預見可能性標準,認為危害結果的發(fā)生無需具體預見可能性,行為人只要對結果存在危懼感和不安感就已足夠。

        藤木英雄教授就森永毒奶粉案日本高松高等裁判所認為:“把食品添加劑之外的、為供其他目的使用而制造的藥品……添加到食品中時,應該會對使用上述藥品感到一縷不安。正是這種不安感,表現(xiàn)出對本案中爭議的危險具有預見。”最終森永公司的制造課長、工廠廠長成立業(yè)務過失致死傷罪?!康呐袥Q指出:“在科學技術無限發(fā)展和擴大的同時,未知的危險對我們?nèi)祟惖耐{越來越大,就這一點來說,要想利用科學技術,就必須負有社會性的責任。如果這種見解是正當?shù)?,那么,作為結果來說,即使是不能具體地預想到會有什么樣的危險發(fā)生,但由于存在有不知道會對人的生命和健康發(fā)生何種破壞的有害結果的危懼感,在這種情況下,為能足以消除這種危懼感,防止結果發(fā)生起見,令其有合理的負擔,應該說是理所當然了?!保?8]危懼感說對預見可能性的這種危懼感、不安感的理解可以被概括為一種抽象的結果預見可能性標準[49]。

        (二)危懼感說預見可能性標準背后的核心觀點

        如前所述,主流觀點對危懼感說進行了批評,然而主流觀點對危懼感說“對預見可能性要求過低”的批判可能值得商榷。危懼感說確實在表面上對預見可能性只提出了危懼感、不安感的要求,但是這樣的要求并不是憑空創(chuàng)造出來的,而是源自危懼感說的核心觀點,危懼感說的核心觀點并不是“只要行為人對危害結果的發(fā)生存在危懼感就夠了”,而是“預見可能性的結果回避義務關聯(lián)性”[50]。在這種立場看來,預見可能性不能簡單地以“有”或“沒有”這種思路進行判斷,而應當在與行為人采取的結果避免措施的關系上相對地被決定,低程度的結果預見可能性對應比較容易采取的結果避免措施;高程度的結果預見可能性則對應立即停止其行為的負擔較大的結果避免措施[50]。

        從危懼感說的核心觀點出發(fā),結果預見可能性與結果避免義務之間存在相互關聯(lián)性。一方面,行為人是否對危害結果存在預見可能性應當以法律要求其采取的結果避免措施的強度進行判斷,當法律要求行為人承擔高強度的結果避免義務時,行為人對于危害結果的發(fā)生需要具備高度的預見可能性;當法律只要求行為人承擔低強度的結果避免義務時,行為人只需要對于危害結果的發(fā)生存在低度的預見可能性。即使危害結果發(fā)生的概率極低,如果法律只要求行為人承擔最為基本的結果避免義務,采取最基本的措施,則認為行為人對于發(fā)生率極低的危害結果存在預見可能性也是合理的。另一方面,當法律沒有明文規(guī)定行為人應當采取的結果避免措施時,行為人對于危害結果發(fā)生的預見可能性決定著行為人應當采取的結果避免措施的強度。當行為人對危害結果發(fā)生具備高度的預見可能性時,法律應當要求行為人采取負擔較重的結果避免措施;當行為人對危害結果發(fā)生只具備低度的預見可能性時,法律應當要求行為人采取負擔較輕的結果避免措施。行為人對危害結果的預見可能性取決于其注意能力,這種注意能力屬于主觀違法要素,因而支配著行為人應當采取的結果避免措施的強度,當行為人的注意能力高于別人,行為人應當承擔的結果避免義務的負擔也重于別人[51]。因此,從危懼感說的立場出發(fā),結果預見可能性的程度和結果避免義務的強度不是一成不變的,而應當根據(jù)二者之間的相互關聯(lián)性,在每個案件中進行具體、個別的判斷。

        (三)主流觀點對危懼感說的些許片面理解

        在森永毒奶粉案中,森永公司需要采取的結果避免措施非?;荆褐恍枰獧z查一下購買的第二磷酸蘇打是否摻雜了非食品物質(zhì),這種措施是每個食品生產(chǎn)者都必須采取的,即使奶粉中摻雜了砒霜導致嬰幼兒死亡的結果發(fā)生概率極低,甚至是萬分之一,但由于森永公司承擔的結果避免義務非常簡單,因此森永公司對上述結果存在預見可能性。藤木教授提出的危懼感說標準在該案中是合適的,但是在其他案件中卻未必合適,甚至是不合理的。所有過失案件中預見可能性和結果避免義務的判斷應當考慮二者的相互關聯(lián)性,而非將專屬于森永毒奶粉案的危懼感、不安感套用于全部過失案件,主流觀點對危懼感說的批評可能存在一些片面之處。

        由此可見,修正的舊過失論要求的具體預見可能性標準與算法決策的黑箱屬性不相容,新過失論沒有對預見可能性的標準進行設計。與二者相比,雖然危懼感說對預見可能性的理解較為抽象,但這種抽象的要求只是個別案件的體現(xiàn)。危懼感說的核心觀點不僅能夠比較容易地判斷預見可能性,而且能夠根據(jù)預見可能性程度的高低決定結果避免義務負擔的輕重,是判斷人工智能產(chǎn)品算法設計者是否存在過失的合適立場。

        五、危懼感說視野下人工智能算法設計者的犯罪過失構造

        根據(jù)危懼感說的立場,過失的構造是:客觀的結果預見可能性、客觀的結果預見義務、客觀的結果避免義務。在分析算法設計者是否存在犯罪過失時,應當依此構造進行判斷,同時,應當從結果預見可能性與結果避免義務的相互關聯(lián)性出發(fā),判斷結果避免措施的內(nèi)容。

        (一)客觀的結果預見可能性的判斷

        1.客觀的結果預見可能性程度:特殊情況下的“一旦式”標準

        如前所述,人工智能產(chǎn)品裝載的算法具有明顯的黑箱屬性,算法通過深度學習能夠進行自主性再編程,搭配了算法的人工智能往往能夠?qū)嵤┮恍┓艘乃嫉男袨椋?1],“作為外部觀察者,我們無法確知人工智能產(chǎn)品內(nèi)部的具體運算過程,而只能看到其最終的結果反饋”[52]。算法黑箱讓現(xiàn)實世界與算法之間產(chǎn)生了一道天然隔閡[53],具備足夠的知識、經(jīng)驗,能夠理性思考和慎重決策的算法設計者似乎無法預見其所設計的算法系統(tǒng)到底會做出怎樣的決策,進而會引發(fā)怎樣的后果。

        然而,如果因為算法設計者在大多數(shù)情況下無法預見算法的決策就否認客觀的結果預見可能性存在是不合理的結論,因為程序設計者雖只是制造抽象的算法,但該程序設計卻涉及未來的風險。故針對其程序設計可能所致的危害結果,有必要討論刑事責任問題[5]206-207。雖然算法設計者很多情況下無法預見算法決策所引發(fā)的危害結果,但仍然存在若干能夠承認算法設計者預見可能性的情況,在這些情況中,即使人工智能機器的算法設計者無法預見算法到底會做出什么決策,以及究竟哪一個決策會引發(fā)哪種危害結果,他們也能預見算法系統(tǒng)可能會在某些特殊情況下做出“不好的”決策。

        算法系統(tǒng)可能做出不利決策的場合,應當包含了異常因素的特殊情況。算法設計者只能信賴人工智能產(chǎn)品的算法在沒有任何異常因素出現(xiàn)的正常情況下會做出正常決策,只能在人工智能產(chǎn)品只應用于沒有異常因素出現(xiàn)的正常情況下主張自己對算法決策引發(fā)的損害不存在預見可能性。當算法不僅會被用于無異常因素的通常情況(比如自動駕駛系統(tǒng)只會被用于天氣晴朗,路況良好的城市道路),還會被用于某些特殊情況(比如手術機器人不僅會被用于操作簡單手術,還會被用于操作復雜手術)時,設計者就對算法可能做出不利于他人的決策進而引發(fā)危害結果存在預見可能性。此時的預見可能性,不要求理性一般的算法設計者必須對危害結果發(fā)生的因果關系歷程的基本部分存在預見,即不要求理性一般的算法設計者必須預見到其設計的算法系統(tǒng)究竟會在具體哪一種情況下做出哪一種決策,以及該決策會引發(fā)哪種具體的危害結果。只需要算法設計者預見到一旦遭遇包括了異常因素的特殊情況,算法有可能做出不利決策,進而在外界引發(fā)消極后果這種程度就已足夠,這種程度的預見可能性是一種低程度的預見可能性。

        2.特殊情況的標準

        上述包含異常因素發(fā)生的特殊情況應當采取一定的標準進行判斷,由于現(xiàn)階段的人工智能主要用于輔助人力決策,因此特殊情況的判斷標準應當是:現(xiàn)階段只有人類才能正確處理或者只有人類才最適合處理的異常情況,這些情況應當根據(jù)人工智能產(chǎn)品的類型分別判斷。如,現(xiàn)階段許多復雜手術在實施過程中會發(fā)生非常復雜的變化,面對這些復雜變化,只有人類醫(yī)生才能根據(jù)情況隨時變更手術步驟,才能在手術過程中根據(jù)不同情況選擇不同的措施。與人類醫(yī)生相比,目前的手術機器人還沒有具備人類醫(yī)生的經(jīng)驗和知識,無法應對特殊情況。又如,作為自動駕駛算法系統(tǒng)之一的車道維持系統(tǒng)目前只能根據(jù)車輛偏離主干道的情況將自動駕駛汽車拉回原位,但當駕駛員前方突然出現(xiàn)行人,或者疾病發(fā)作,必須將車輛急轉(zhuǎn)彎到路邊的土堆或者草叢中時,這套算法還是會判定車輛偏航進而將車拉回原位,阿沙芬堡案【該案發(fā)生于2012年,基本案情是:一輛裝載了車道維持自動駕駛系統(tǒng)的汽車行駛在道路上時,駕駛員突然中風,在失去意識之前,該駕駛員將車輛向右急轉(zhuǎn)彎,在正常情況下該車會停在路邊草地上,然而車道維持系統(tǒng)此時“完美運作”,將已經(jīng)右轉(zhuǎn)的車輛再次拉回道路上以確保其仍在道路上行駛,最終該車撞上一對母子致其當場死亡?!烤褪堑湫桶咐S纱丝梢?,承認人工智能產(chǎn)品算法設計者對危害結果存在預見可能性的特殊情況標準應當是現(xiàn)階段只有人類才能正確處理或者最適合處理的情況。

        (二)客觀的注意義務的內(nèi)容

        1.客觀的結果預見義務

        (1)理性一般的人工智能產(chǎn)品算法設計者應當預見其所設計的算法系統(tǒng)不僅會被用于沒有異常因素出現(xiàn)的正常情況,而且可能被用于伴隨異常因素出現(xiàn)的特殊情況。理性一般的算法設計者在編寫應用于現(xiàn)實需要的算法時,一般情況下都會考慮其所設計的算法可能會在將來某個時間遭遇異常情況,因此,算法設計者結果預見義務的第一個方面是設計者應當對這些特殊情況有所預料,這些包含異常因素的特殊情況應當根據(jù)人工智能機器的類型進行細化。比如,

        手術機器人不僅會被用于實施一些難度不大的手術(如闌尾炎手術),也可能會被用于輔助醫(yī)生實施一些難度較大的手術(如心臟搭橋);不僅會被用于給身體條件正常的患者實施手術,還可能會被用于給一些特殊體質(zhì)(如血友?。┑幕颊邔嵤┦中g。又如,自動駕駛系統(tǒng)不僅會被用于城市道路駕駛,而且可能被用于盤山路駕駛;不僅會被用于晴朗天氣駕駛,而且可能用于沙塵、暴雨等天氣駕駛。這些產(chǎn)品的診療算法設計者、自動駕駛算法設計者不僅應當預見該類算法可能被用于正常手術、駕駛的情況,而且應當預見該類算法可能被用于特殊手術、駕駛的情況。但必須指出:這些產(chǎn)品的算法設計者只需要預見算法可能被應用于特殊情況就已足夠,至于這些特殊情況的詳細內(nèi)容(如血友病患者、沙塵暴天氣)則不屬于預見義務的內(nèi)容。

        (2)理性一般的人工智能產(chǎn)品算法設計者應當預見一旦其所設計的算法系統(tǒng)面臨特殊情況,該系統(tǒng)可能會做出對他人不利的決策,而這種決策會引發(fā)消極后果。算法設計者結果預見義務的第二方面是對算法系統(tǒng)可能做出的不利決策的預料。由于算法系統(tǒng)能夠通過機器學習進行內(nèi)部程序碼的重寫,因此設計者能夠預見其設計的算法系統(tǒng)可能會做出偏離預期的決策,進而會對外界產(chǎn)生消極影響,而這種對他人不利的決策也應根據(jù)人工智能產(chǎn)品的類型進行細化。比如,突發(fā)行人沖上道路的異常情況,自動駕駛系統(tǒng)可能會在面臨沖向行人從而維持正常道路行駛還是沖向路邊草叢從而保護行人的特殊情況時做不利于行人的決策,自動駕駛算法的設計者應當預見該類算法面對特殊情況可能做出不利決定,但是與結果預見義務的第一方面相同,算法設計者只需要預見一旦算法面對特殊情況可能做出不利決策就已足夠,無論這種決策是對誰不利,至于特殊情況的詳細內(nèi)容,則非所問。

        2.客觀的結果避免義務

        根據(jù)危懼感說的核心觀點,過失犯罪的結果預見可能性與結果避免義務相互關聯(lián),上述“一旦式”的結果預見可能性屬于低程度的結果預見可能性,因此與這種程度的預見可能性相對應,算法設計者應當承擔的結果避免義務也應當是負擔較輕的義務。

        (1)理性一般的人工智能產(chǎn)品算法設計者應當避免在設計算法時添加含有偏見的價值理念?!八惴ǖ倪\行規(guī)則始終是由人設計并控制的”[54],值得信任的算法應體現(xiàn)出人類的道德原則。雖然算法設計者無法準確預知自己設計的算法到底會做出怎樣的決策,但是設計者至少可以決定用什么樣的理念來設計算法。因此在算法設計研發(fā)的過程中,設計者應仔細考慮放入何種價值觀,否則算法會成為一種自私自利、自我導向的怪物[55]。由此可見,算法設計者植入算法的價值理念對于算法決策將起到重要作用,如果不注重對算法“價值觀”的塑造,將一系列歪曲價值理念寫入算法,算法在被歪曲理念影響下所做的決策結果很可能也是歪曲的,即使算法的初衷與法律的精神或宗旨相符,但如果在算法設計中沒有完整地考慮法律價值及權利保障目標,也有可能引起此方面的風險[56]。

        因此,人工智能產(chǎn)品的算法設計者在設計裝載于智能機器上的算法時,應當避免將一些不正常的,乃至明顯歪曲的價值理念植入算法之中,這些不正常的價值理念應當滿足一定標準:不正常的價值觀是為我國社會公眾普遍反對或者不贊成的價值觀,而不能是只被一小部分甚至個別人反對的價值觀。比如,駕駛汽車遭遇他人“別車”時,也要反“別”回去這一“人若別我,我必別人”的價值理念是一種為社會公眾普遍反對的不正確駕駛理念,自動駕駛系統(tǒng)的設計者在設計時不能將這種價值理念寫入算法。

        (2)理性一般的人工智能產(chǎn)品算法設計者應當在設計時檢驗“投喂”給算法系統(tǒng)的數(shù)據(jù)質(zhì)量。機器學習算法本質(zhì)上是向算法“投喂”大量數(shù)據(jù),使算法系統(tǒng)能夠依托數(shù)據(jù)集合進行模型訓練,算法決策就是建立在海量數(shù)據(jù)的基礎之上。然而,機器學習算法的模型訓練存在一個很大的問題,也就是人工智能的悖論:“Garbage in, garbage out”(垃圾進,垃圾出),意思是不好或不對的數(shù)據(jù)會產(chǎn)生糟糕或是無用的結論[57]。當作為訓練樣本的數(shù)據(jù)存在缺陷,人工智能產(chǎn)品的算法在面對外部情況時很有可能基于缺陷數(shù)據(jù)引發(fā)的不完整訓練做出不利決策。為了防止算法系統(tǒng)做出不利決策,設計者應當在設計算法時對算法所依賴的數(shù)據(jù)集合進行事前檢測。

        目前,人工智能技術已經(jīng)完全可以為算法設計者提供數(shù)據(jù)集合及訓練過程檢測工具(例如數(shù)據(jù)集異常檢測工具、數(shù)據(jù)完整性檢測工具、訓練樣本評估工具等),主要用于檢測訓練算法的數(shù)據(jù)集合是否存在偏差或缺陷,還可以通過一定的算法檢測在數(shù)據(jù)選取、數(shù)據(jù)標注、數(shù)據(jù)清洗以及其他預處理工作(如正則化、歸一化等)過程中是否包含了偏離算法設計目標或足以導致結果發(fā)生顯著偏差的操作[56]。算法設計者應當通過這些檢測工具對算法所依賴的數(shù)據(jù)集合進行檢驗,最大程度防止缺陷數(shù)據(jù)進入機器學習訓練。根據(jù)危懼感說的核心觀點,算法設計者的低程度預見可能性決定的結果避免措施應當是負擔較輕的,這種事先對數(shù)據(jù)集合進行檢驗的應用場景應當是人工智能產(chǎn)品面對的不包含異常因素的正常情況,即使算法設計者無法對所有情況進行預見,其也應當采取最為基本的、負擔最輕的檢驗措施,即采取檢驗手段對會被應用于正常情況的算法的訓練樣本數(shù)據(jù)進行檢測。比如,在自動駕駛汽車中,算法設計者應當對會被應用于沒有異常因素的正常道路交通狀況下自動駕駛系統(tǒng)的決策所依靠的數(shù)據(jù)集合進行事前檢查,從而修正數(shù)據(jù)集合可能存在的缺陷,否則,算法設計者就違背了結果避免義務。典型案例是發(fā)生在邯鄲市的特斯拉自動駕駛汽車車禍案【該案的基本案情是:2016年1月,一名男子駕駛自己的特斯拉轎車在京港澳高速河北邯鄲段公路行駛,未能及時躲避前方的道路清掃車而發(fā)生追尾,事故導致該名車主身亡。據(jù)事故后行車記錄儀中的視頻分析,事故發(fā)生時,天氣晴好,特斯拉速度并不快,但已處于“定速”的狀態(tài),未能識別躲閃而撞上前車?!?。本案中,特斯拉的自動駕駛系統(tǒng)在正常駕駛情況下(天氣晴朗)未能識別出前方有車,進而做出繼續(xù)行駛不變道的錯誤決策,最終導致駕駛員死亡[58],而自動駕駛系統(tǒng)未能識別出前方有車的關鍵是作為該系統(tǒng)訓練樣本的數(shù)據(jù)存在缺陷,但設計者沒有注意到該缺陷。因此,特斯拉自動駕駛系統(tǒng)設計者沒有采取負擔較輕的結果避免措施(只需要憑借數(shù)據(jù)檢驗工具在事前檢查一下就已足夠),違反了客觀的結果避免義務。

        (3)理性一般的人工智能產(chǎn)品算法設計者應當及時告知人工智能產(chǎn)品生產(chǎn)者其設計的算法可能遭遇異常情況,從而使產(chǎn)品生產(chǎn)者能夠針對潛在的特殊情況采取一定程度的警示和提示措施。如果可以通過提供合理的指示或警告來減少或避免產(chǎn)品造成的可預見危害,則沒有進行警告就是有缺陷的。當風險可預見并且大量用戶不會意識到風險時,警告或指示就是合理的[2]37。智能產(chǎn)品裝載的算法完全有可能產(chǎn)生一些設計者能夠預見但很多人沒有意識到的風險,這些風險指前文所述的包含異常因素的特殊情況。這種情況下,算法設計者理應告知人工智能產(chǎn)品生產(chǎn)者其設計的算法可能會被應用于包括異常因素的特殊情況,進而生產(chǎn)者能夠?qū)@些特殊情況的具體內(nèi)容進行一定程度評估,從而制訂若干警示和指示,使智能產(chǎn)品的使用者能夠及時采取措施。以自動駕駛系統(tǒng)為例,自動駕駛系統(tǒng)的算法設計者在設計算法后應當及時告知該系統(tǒng)可能會遭遇的特殊情況,生產(chǎn)者進而可以將這些特殊情況具體化(比如沙塵暴、暴風雨等),從而制訂人類駕駛員必須在某種情況下接管機動車,同時關閉自動駕駛系統(tǒng)的警示。

        結語

        人工智能產(chǎn)品不斷被應用到人們的日常生活中,算法決策正在多個領域不斷取代人類決策,探討算法決策致害時的歸責問題,明確誰應當對損害承擔責任是一個不容忽視的問題。在判斷算法致害的歸責問題時,明確算法設計者是否存在過失及過失的構造和內(nèi)容至關重要。本文在此基礎上展開討論,未來將繼續(xù)深入研究這一問題,以期為算法決策致害的歸責問題提供更加合理的見解。

        參考文獻:

        [1] 付玉明.自動駕駛汽車事故的刑事歸責與教義展開[J].法學,2020(9):135-152.

        [2] 瑞恩·卡洛,邁克爾·弗魯姆金,伊恩·克爾.人工智能與法律的對話[M].陳吉棟,董惠敏,杭穎穎,譯.上海:上海人民出版社,2018:3.

        [3] GAL M S.Algorithmic challenges to autonomous choice[J].Michigan Technology Law Review, 2018,25(1):59-104.

        [4] 李開復,王詠剛.人工智慧來了[M].臺北:遠見天下文化出版股份有限公司,2017:58.

        [5] 張麗卿.人工智慧時代的刑法挑戰(zhàn)與對應:以自動駕駛車為例[M]//張麗卿.人工智慧與法律沖擊.臺北:元照出版有限公司,2020:190-212.

        [6] 埃里克·希爾根多夫.自動化駕駛的倫理及法律之挑戰(zhàn)[M]//張麗卿.人工智慧與法律挑戰(zhàn).臺北:元照出版有限公司,2020:396-417.

        [7] 丁曉東.論算法的法律規(guī)制[J].中國社會科學,2020(12):138-159,203.

        [8] 勞東燕.“人臉識別第一案”判決的法理分析[J].環(huán)球法律評論,2022(1):146-161.

        [9] 張凌寒.權力之治:人工智能時代的算法規(guī)制[M].上海:上海人民出版社,2021:28.

        [10] DIAKOPOULOS N.Algorithmic accountability:Journalistic investigation of computational power structures[J].Digital Journalism,2015,3(3):398-415.

        [11] YUR,ALGS.What’s inside the black box?AI challenges for lawyers and researchers[J].Legal Information Management,2019,19(1):2-13.

        [12] 許玉秀.主觀與客觀之間:主觀理論與客觀歸責[M].北京:法律出版社,2008:155.

        [13] 勞東燕.風險社會中的刑法:社會轉(zhuǎn)型與刑法理論的變遷[M].北京:北京大學出版社,2015:24-25.

        [14] 許迺曼.過失犯在現(xiàn)代工業(yè)社會的捉襟見肘[G]//許玉秀,陳志輝.不移不惑獻身法與正義:許迺曼教授刑事法論文選輯.臺北:新學林出版股份有限公司,2006:521.

        [15] 周光權.刑法總論[M].第4版.北京:中國人民大學出版社,2021:160-163.

        [16] 西田典之.刑法総論[M].第3版.橋爪隆,補訂.東京:弘文堂,2021:271-272.

        [17] 曹菲.管理監(jiān)督過失研究:多角度的審視與重構[M].北京:法律出版社,2013:42.

        [18] 漢斯·韋爾策爾.目的行為論導論:刑法理論的新圖景[M].增補第4版.陳璇,譯.北京:中國人民大學出版社,2015:11-13.

        [19] 周光權.行為無價值論與主觀違法要素[J].國家檢察官學院學報,2015(1):78-92,174.

        [20] 大塚仁.刑法概說(總論)[M].馮軍,譯.北京:中國人民大學出版社,2003:199.

        [21] WELZEL H.Das neue bild des strafrechtssystems:Eine einfuhrung in die finale handlungslehre[M].Verlag Otto Schwartz amp; Co.Gttingen,1961:30-32.

        [22] 陳子平.刑法總論[M].2008年增修版.北京:中國人民大學出版社,2009:149.

        [23] 大谷實.刑法講義總論[M].黎宏,姚培培,譯.北京:中國人民大學出版社,2023:185.

        [24] Wessel/Beulke/Satzger. Strafrecht Allgemeiner Teil: Die straftat und ihr aufbau[M]. C. F. Müller, 2023, § 18, 1107.

        [25] 井田良.關于日本過失犯論之現(xiàn)狀[J].黃士軒,譯.月旦法學雜志,2014(12):283-295.

        [26] 張明楷.刑法學[M].第6版.北京:法律出版社,2021:328-382.

        [27] 陳興良.教義刑法學[M].第3版.北京:中國人民大學出版社,2017:511.

        [28] 王紀軒.人工智慧于司法實務的應用[M]//張麗卿.人工智慧與法律沖擊.臺北:元照出版有限公司,2020:112-142.

        [29] INTRONA L D.Algorithms,governance,and governmentality:On governing academic writing[J].Science,Technology amp; Human Values,2016,41(1):17-49.

        [30] BATHAEE Y.The artificial intelligence black box and the failure of intent and causation[J].Harvard Journal of Law amp; Technology,2018,31(2): 889-938.

        [31] 葛祥林.數(shù)位化、大數(shù)據(jù)和人工智慧對刑事訴訟的沖擊[M]//張麗卿.人工智慧與法律沖擊.臺北:元照出版有限公司,2020:216-236.

        [32] 沈偉偉.算法透明原則的迷思:算法規(guī)制理論的批判[J].環(huán)球法律評論,2019(6):20-39.

        [33] BODO B,HELBERGER N,IRION K,et al.Tackling the algorithmic control crisis -the technical,legal,and ethical challenges of research into algorithmic agents[J].the Yale Journal of Law amp; Technology,2017,19:133-181.

        [34] 王瑩.算法侵害責任框架芻議[J].中國法學,2022(3):165-184.

        [35] SELBSTAD,BAROCAS S.The intuitive appeal of explainable machines[J].Fordham Law Review,2018,87(3):1085-1139.

        [36] 江溯.中國大陸自動駕駛汽車對法律的挑戰(zhàn)[M]//張麗卿.人工智慧與法律沖擊.臺北:元照出版有限公司,2020:83.

        [37] 許恒達.過失犯的預見可能性與回避可能性[J].臺灣中研院法學期刊,2020(27):55-139.

        [38] 蔡圣偉.刑法案例解析方法論[M].第3版.臺北:元照出版有限公司,2020:218.

        [39] 山口厚.刑法總論[M].第3版.付立慶,譯.北京:中國人民大學出版社,2018:242-251.

        [40] European Parliament.Civil liability regime for artificial intelligence,European Parliament resolution of 20 October 2020 with recommendations to the Commission on a civil liability regime for artificial intelligence(2020/2014(INL)).[EB/OL].(2020-10-20)[2022-05-25].https://www.europarl.europa.eu/doceo/document/TA-9-2020-0276_EN.html.

        [41] LEHR D,OHM P.Playing with the data:What legal scholars should learn about machine learning[J].Davis Law Review,2017,51(2):653-718.

        [42] SCHNEMANN B.Unzulnglichkeiten des fahrlssigkeitsdelikts in der modernen industriegesellschaft-eine bestandsaufnahme[M].Berlin,Boston:DE GRUYTER,2002:37-63.

        [43] 阿圖爾·考夫曼.法律哲學[M].第2版.劉幸義,譯.北京:法律出版社,2011:319.

        [44] 蔡仙.過失犯中的結果避免可能性研究[M].北京:法律出版社,2020:21.

        [45] 姚萬勤.新過失論與人工智能過失刑事風險的規(guī)制[J].法治研究,2019(4):98-107.

        [46] 黃榮堅.基礎刑法學(上)[M].臺北:元照出版有限公司,2012:391.

        [47] 劉艷紅.實質(zhì)犯罪論[M].北京:中國人民大學出版社,2014:195.

        [48] 藤木英雄.公害犯罪[M].叢選功,譯.北京:中國政法大學出版社,1992:62.

        [49] 高橋則夫.刑法總論[M].李世陽,譯.北京:中國政法大學出版社,2020:191.

        [50] 井田良.講義刑法學·総論[M].第2版.東京:有斐閣,2018:217.

        [51] 井田良.過失犯における「注意義務の標準」をめぐって[J].刑法雑誌,2003,42.

        [52] 黃陳辰.論人工智能缺陷產(chǎn)品生產(chǎn)者的刑事責任[J].山東大學學報(哲學社會科學版),2020(6):49-56.

        [53] 衣俊霖.數(shù)字孿生時代的法律與問責:通過技術標準透視算法黑箱[J].東方法學,2021(4):77-92.

        [54] 金夢.立法倫理與算法正義:算法主體行為的法律規(guī)制[J].政法論壇,2021(1):29-40.

        [55] 沈向洋,施博德.計算未來:人工智能及其社會角色[M].北京:北京大學出版社,2018.

        [56] 蘇宇.算法規(guī)制的譜系[J].中國法學,2020(3):165-184.

        [57] 王祿生.司法大數(shù)據(jù)與人工智能開發(fā)的技術障礙[J].中國法律評論,2018(2):46-53.

        [58] 觀察者網(wǎng).邯鄲特斯拉事故致死案:公司承認案發(fā)時處“自動駕駛”狀態(tài)[EB/OL].(2018-02-27)[2023-03-11].https://www.guancha.cn/society/2018_02_27_448303.shtml.

        The criminal negligence of the designer of artificial intelligence products:

        Taking a stand on the central perspective of the sense of fearing theory

        LIU Jiazheng

        (School of Law, Southeast University, Nanjing 211189, P. R. China)

        Abstract:

        When judging the negligence of the designer of artificial intelligence product algorithm, the opinion of modified theory of old negligence is in conflict withthe nature of black box of algorithm that depends on correlation rather than causationwhen making decisions; the logic of this standpoint that only valuing results while ignoringconductmay blow algorithm designers’ enthusiasm, impeding algorithm’s progressing; Although the new negligence theory takes the obligation of result avoidance as the core standard of criminal negligence, it lacks specific design of the standard of possibility of foreseeing and is often at a loss when judging the possibility of foreseeing. Therefore, both standpoints are not reasonable schemes to judge the criminal negligence of intelligent products algorithm designers. In contrast, although the perspective of the sense of fearing theory (hyper new negligence theory) holds that the possibility of results foreseeing only requires the conductor to have a sense of fearing about the harmful result is enough, which is criticized by the mainstream view, this criticism is worth of discussion. Firstly, it only sees the fear requirement on the surface of this stance, but it does not see the core view behinds of the perspective of the theory of fearing: The correlation between the possibility of foreseeing and the obligation of avoiding results. Secondly, the opinion that the author’s judgment on individual cases is equivalent to the theory of fearing itself is an overgeneralization. Compared with the modified old negligence theory and the new negligence theory, the core point of the theory of fearing that there is correlation between the possibility of the foreseeing of result and the obligation of result avoidance is a reasonable scheme to judge the criminal negligence of the algorithm designer of intelligent products. Based on the core view of the theory of fearing, criminal negligence includes objective possibility of the possibility of foreseeing results, objective obligation of foreseeing results and objective obligation of avoiding results. The criterion for the objective the possibility of foreseeing results of the algorithm designer of artificial intelligence products is that the algorithm system is likely to make an adverse decision once it encounters a special situation containing abnormal factors, which may lead to negative consequences. The objective result avoiding obligation of the algorithm designer is that the algorithm system should be foreseen not only for the normal situation without abnormal factors, but also for the special situation accompanied by abnormal factors. Once the designed algorithm system encounters special situations, the system may make adverse decisions. The content of objective result avoiding obligation of algorithm designer is as follows: it is necessary to avoid implanting values that are generally opposed or disapproved by the public when designing algorithms; The quality of the data fed to the algorithm system should be checked at designing time to prevent the risk of ”garbage in“ of defective data into the algorithm machine learning training to the greatest extent, Informing the product producer promptly that the algorithm may face abnormal conditions.

        Key words: "algorithm; possibility ofresults foreseeing; the sense of fearing theory; objective obligation of results foreseeing; objective obligation of results avoidance

        (責任編輯 胡志平)

        猜你喜歡
        算法
        基于MapReduce的改進Eclat算法
        Travellng thg World Full—time for Rree
        進位加法的兩種算法
        基于CC2530的改進TPSN算法
        基于BCH和HOG的Mean Shift跟蹤算法
        算法初步兩點追蹤
        基于增強隨機搜索的OECI-ELM算法
        一種改進的整周模糊度去相關算法
        一種抗CPS控制層欺騙攻擊的算法
        Wiener核的快速提取算法
        日日噜噜夜夜狠狠久久丁香五月 | 色拍自拍亚洲综合图区| 亚洲首页一区任你躁xxxxx| 日本中文字幕一区二区高清在线| 国产自拍视频一区在线| 久久精品成人一区二区三区 | 亚洲人成网站在线播放2019| 永久免费观看国产裸体美女| 亚洲无码a∨在线视频| 少妇人妻在线伊人春色| 日韩 亚洲 制服 欧美 综合| 中文字幕一区在线观看视频| 最新国产精品亚洲二区| 久久精品国产亚洲av沈先生| 又黄又爽又色视频| 免费a级毛片出奶水| 日本色偷偷| 精品国产乱子伦一区二区三| 性按摩xxxx在线观看| 久久99精品久久久久久| 老肥熟女老女人野外免费区| 国产自拍视频在线观看免费| 男人进去女人爽免费视频| 国产在线成人精品| 内射中出后入内射极品女神视频| 免费a级毛片又大又粗又黑| 无码国产午夜福利片在线观看| 欧美精品v欧洲高清| 久久99人妖视频国产| 亚洲av成人噜噜无码网站| 国产又爽又黄的激情精品视频| 久久中文字幕av第二页| 日出白浆视频在线播放| 97se亚洲精品一区| 国产又爽又黄又不遮挡视频| 久久综合国产精品一区二区| 无码人妻精品一区二区| 亚洲情a成黄在线观看动漫尤物| 亚洲狠狠久久五月婷婷| 亚洲欧美中文字幕5发布| 二区三区视频|