亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的刑法規(guī)制

        2019-11-11 11:27:01彭文華
        現代法學 2019年5期
        關鍵詞:人工智能

        摘要:關于人工智能可否構成犯罪,國外主要存在“心理要素說”“智能代理說”“法人類比說”“法定實體說"以及“當然主體說"等觀點。人工智能成為犯罪主體的哲理基礎是科學實證主義和道德二元論,現實條件是具備法律人格。智能代理可以成為道德代理。人工智能的道德生成進路有“實在論進路”“關系論進路”“認識論進路”等之別,“實在論進路”相對合理。處罰人工智能既能為處罰其他主體奠定基礎,也能達到剝奪其犯罪能力的目的,還能產生附加價值。我國的人工智能刑法研究尚處于初始階段,未來研究的重點在于:人工智能對刑法人類中心主義的挑戰(zhàn),人工智能犯罪主體的范疇、責任范圍與程度,刑法如何介入對人工智能的規(guī)制以及人工智能犯罪的刑罰適用。

        關鍵詞:人工智能;人工智能犯罪;智能代理;法律人格;可罰性

        中圖分類號:DF61

        文獻標志碼:A

        DOI:l0.3969/j.issn.1001-2397.2019.05.10

        開放科學(資源服務)標識碼(OSID):

        一、引言

        “人工智能”一詞是在1956年達特茅斯人工智能會議上首次提出的。數十年來,對于何謂人工智能可謂眾說紛紜,并無權威定義。大多數人傾向于用“創(chuàng)造智能行為的計算機過程",或者“創(chuàng)造一個能模仿人類行為的計算機過程”等,來定義人工智能”。通常,人工智能之“智能”主要包括運算智能、感知智能和認知智能”。根據智能發(fā)展水平不同,人工智能可分為弱人工智能、強人工智能和超人工智能”。目前,人工智能發(fā)展水平應當說處于由弱人工智能到強人工智能的過渡時期。

        人工智能會給人們工作、生活等帶來巨大的便利,同時也可能造成危害?!半m然機器人在很多方面對社會有益,但它們也會導致或牽涉到各種各樣的危害?!盵2]75以自動駕駛車輛為例,雖然其安全性更佳,但亦可能造成事故。例如,2016年5月7日,美國海軍退伍老兵約書亞·布朗在佛羅里達州駕駛一輛特拉斯自動駕駛汽車,不幸撞上一輛18輪的白色拖車而斃命[3]。司法實踐中,人工智能造成危害的典型事例是機器人殺人。1981年,日本發(fā)生人類第一例機器人殺人事件,受害人是名37歲的工人[4]。此后,類似事件屢見不鮮?!霸谶^去的30年里,僅在美國機器人就在工作場所殺死了至少26人?!盵5]至于人工智能武器傷人事件更是觸目驚心。“從2004年至2015年,美軍無人機空襲估計造成超過三千人死亡,其中預定目標任務僅幾十人。”[6]

        可以預見,隨著人工智能變得更先進和無處不在,其危害頻率和程度也必然會隨之攀升。在這樣的背景下,如何運用法律規(guī)制人工智能,自然引起人們的關注。當然,刑法規(guī)制只有針對強人工智能才具有意義,弱人工智能只是人類的工具而已,不可能成為刑法的規(guī)制對象。由于現階段尚未進入強人工智能時代,且與人工智能相關的法律規(guī)范基本處于空白狀態(tài),這也使得不少人對以刑法規(guī)制人工智能不以為然。他們認為,待進人到強人工智能時代再研究人工智能的罪與罰也不遲,現在研究缺乏現實基礎。這種說法看似有道理,實則不然。無論是法律滯后還是個案匱乏,似乎都不應該成為學術研究的障礙。畢竟,政府在政策監(jiān)管、法律規(guī)制等方面的反應,總是落后于工業(yè)進步、學術研究和不斷增長的公共關注的。

        二、國外有關人工智能構成犯罪的理論學說

        傳統(tǒng)刑法理論堅持刑法人類中心主義,認為“只有個人才能成為犯罪的可能的主體;而法人(moralischePerson,如公司、大學或者學院等)決不可能成為犯罪的主體?!盵7]根據刑法人類中心主義,人工智能和動物等一樣,不具備犯罪資質,不能成為犯罪主體。因為,人工智能不是生命體,不具備人類的意志與理性,其與動物等一樣是人類的工具,這便是機器工具主義。在機器工具主義看來,人工智能只是人類信息系統(tǒng)的延伸。“對待人與機器之間關系的更有效的方法是把機器看作是人類信息系統(tǒng)的延伸,而不是把計算機和人類視為兩種不同的智能系統(tǒng)來相互交流?!盵8]

        不過,刑法人類中心主義與機器工具主義還是受到了挑戰(zhàn),許多學者認為人工智能可以構成犯罪,并提出了不同的理論學說。代表性的觀點主要有:

        (一)心理要素說

        該學說認為機器人能夠獨立于人類指令犯罪,其形式可以和人類所犯之罪一樣眾多:從亂穿馬路到謀殺95。根據該理論,機器人具備心理要素,可以構成犯罪。因為,機器人能夠自我調節(jié)并解決深奧問題,具有“智能”,因而具備心理狀態(tài)?!盀榱伺袛嘁粋€機器人是否擁有心理狀態(tài),我們有必要嘗試在智能'和‘愚蠢之間劃一條線,換句話說,什么是“智能?《韋氏國際詞典》認為如果‘成功地解決問題,特別是新的或深奧的問題。'簡單的計算機能夠解決深奧問題,而具有自我調節(jié)能力的機器人也能夠解決新問題。因此,所謂的機器人是‘智能的?!盵9]

        (二)道德代理說

        根據該學說,行為人犯罪是因為他涉及道德過錯,即行為人知道其所作所為在道德上是錯誤的?!胺杉俣ǚ缸锶擞兴^的道德代理,道德代理需要具備兩個條件:行為人能夠理解他們行為的后果,并且他們有行動的選擇?!盵10]105機器可以明辨是非,做出道德決策。“編程一臺機器使之尊重道德理論并將其應用到一個事實模式,是完全可能的,因此機器可以分辨是非,做出道德決策?!盵10]10既然計算機程序可以做出道德決策,當然知道所實施的行為是非法的,因而智能代理可以成為道德代理。智能代理能成為道德代理,意味著人工智能可構成犯罪。

        (三)法人類比說

        該學說認為作為組織機構的法人和作為機械實體的人工智能沒有實質差別,在承擔刑事責任上并無實質性差異?!叭斯ぶ悄軐嶓w在人類活動中所占的份額越來越大,法人也一樣。犯罪已經由人工智能實體或通過它們犯下。人工智能實體沒有靈魂,有些人工智能實體既沒有身體也沒有靈魂。因此,法人與人工智能實體間的刑事責任理念沒有實質性的法律差異?!盵1]27既然法人可以構成犯罪,人工智能當然也能構成犯罪。事實上,讓法人承擔刑事責任的做法非常成功。“制定與刑事責任有關的法律解決方案,它們被視為能夠達到刑事責任的所有要求,包括外部因素和內部因素。這些解決方案體現在刑事責任模式和一般刑罰調整的考量模式上。它奏效了。事實上,它仍然在工作,而且非常成功?!盵1]27言外之意,讓人工智能承擔刑事責任也是可取的。

        (四)法定實體說

        該學說由烏克蘭學者拉杜尼提出,認為刑法雖然沒有明文規(guī)定人工智能可以構成犯罪,卻規(guī)定了其他實體可以構成犯罪,人工智能應當包含于刑法規(guī)定的其他實體之中。這是因為,賦予人工智能“電子實體”地位不應在法律關系領域遇到反對和拒絕,而且這種開創(chuàng)是以公認的理論和實踐為依據的,即基于對作為各種法律關系主體的法律實體的認可,以及適用于不同法定實體的各種法律措施(罰款沒收財產、清算)的可行性?!稙蹩颂m刑法》第109條、第110條、第113條、第146條第147條第160條、第209條、第260條、第262條、第306條等的規(guī)定,就蘊含賦予某種法律實體幾乎與犯罪人相同的責任地位[12]137-138。當然,人工智能不同于法人?!霸谖锢砩象w現在機器人單元中的人工智能應該被認為是法律關系的主體,它也許是介于法律實體和個人之間的,是其與眾不同的特征與相關情況相結合的產物?!盵12]138

        (五)當然主體說

        該學說認為在人工智能可以實施犯罪的情況下,當然成為犯罪主體并可以適用刑法?!氨M管人工智能與人類的智力和情感還沒有達到同樣的水平,但很可能有一天會達到一如同無數科幻小說都在試圖警告我們的那樣。如果這一天到來,情況可能會有很大不同,有關刑法及其應用可以直接針對人工智能代理人。在那一天,我們可以直接做好準備賦予人工智能當事人刑事責任,并認為它們同樣有能力做出道德上的明智選擇,并做出錯誤行為,我們甚至可以在立法和司法過程中邀請當事方分享對犯罪的看法?!盵13]690在當然主體說看來,法人構成犯罪是因為其背后存在作為代理人的人類可以歸責。“因為它們只不過是由人類代理人所組成的集體企業(yè)。在這種情況下,刑事責任訴求因法律無法揭開面紗而被擱置,并將責任歸咎于法人擬制背后的人……”[13]695不難看出,當然主體說并不認同法人類比說,因為人工智能不像法人那樣背后存在人類代理人,因而不存在可以歸責的人。因此,將人工智能類比法人沒有必要,只要其實施犯罪便可對之直接歸責。

        心理要素說及智能代理說的不同在于,前者只從形式上強調人工智能也具備心理狀態(tài),而后者則從心理要素的實質,即自由意志和道德理性等角度,揭示人工智能在實質上具備犯罪心理要素。兩者的問題在于,犯罪賴以成立的事實要件與心理要件,無疑是以傳統(tǒng)犯罪理論中作為生物有機體的人類為出發(fā)點和歸宿的,而人工智能作為機械實體,完全不同于人類,將適用于人類的概念適用于人工智能,似乎并非理所當然?!叭绻脼槿祟愒O計的法律工具來處理,我們必須確立要么人工智能是足夠人性化的,然而并非如此,要么現行法律工具也適合于非人類,然而就犯罪心理和譴責而言至少存在爭議,畢竟整個概念反映了我們對人的意義的集體體驗。

        法人類比說強調人工智能可以類比法人并構成犯罪,這在邏輯上似乎說得通。問題在于,諸如電子代理人等人工智能不同于經典的法人(如基金會、公司),因為它們不需要自然人在法律關系中作為代表,而法人總是需要一個代表它的自然人,能夠以其名義作出免責聲明[4。既然人工智能可以不依靠人類而獨立活動,而法人仍然需要依賴人類活動,這表明兩者在行為方式上存在差異。而且,法人屬于組織機構,人工智能屬于機械實體,兩者在物理屬性上也存在實質不同。如果簡單進行類比,可能有類推之嫌。

        法定實體說的問題在于,在承認人工智能不同于自然人和法人的前提下,認為法律規(guī)定的其他實體當然包含人工智能等在內,屬于無法律依據的一廂情愿,具有類推解釋之嫌。即使自然人以外的其他實體滿足犯罪成立條件,認定構成犯罪也需要于法有據,不能僅憑推導。否則,在解釋上肆意擴張既不合理亦不合法。

        當然主體說則過于概括。無論人工智能是否完全具備人的意識、道德與理性,哪怕是遠超人類智能的超人工智能,畢竟其屬于機械實體,要想構成犯罪在不同法系國家有不同路徑。例如,對于成文法系國家而言,受罪刑法定原則約束,只有刑法明確后人工智能才能成為犯罪主體。對于不成文法系國家來說,只要存在將刑事責任模式適用于人工智能的判例,則人工智能就能成為犯罪主體。“實用主義法律制度,如美國法律制度,可以將他們的刑事責任模式適用于機器人的行為,就像他們把非人類的、法人的行為納入他們的刑法體系一樣?!盵15]415這樣看來,當然主體說在英美法系國家可行,但大陸法系國家則不被允許,否則違背罪刑法定原則。

        不難發(fā)現,心理要素說、道德代理說是立足于人工智能是否具備歸責的心理或道德基礎,來認定人工智能可否構成犯罪的。至于法定實體說和當然主體說,已經不再囿于人工智能是否具備歸責的心理或道德基礎,而是探究如何確立人工智能的適格主體地位。如果說心理要素說智能代理說只是解決了人工智能是否具備犯罪資質問題,那么法定實體說、當然主體說則是在肯定人工智能具備犯罪資質的基礎上,探究其如何獲得犯罪資質。相對而言,前者是個理論問題,而后者則屬于法律問題。

        無論上述理論觀點本身如何,探討人工智能的犯罪資質無疑是與時俱進的。近年來,新一代互聯(lián)網在全球范圍的推廣應用,使以人與人鏈接為特征的互聯(lián)網,轉變?yōu)槿伺c人、人與物、物與物鏈接三位一體的物聯(lián)網,大數據呈現井噴式涌現態(tài)勢。量子計算機的橫空出世,使得人類擁有的計算能力正處在指數級增長的前夜。凡此種種,使得人工智能已經具備無監(jiān)督自主學習能力,又獲得云計算和大數據的強力支撐,而不斷取得的突破性進展,人工智能整體智能水平越來越接近人類??梢哉f,肯定人工智能具備犯罪資質是一種趨勢,這從以往否定人工智能犯罪的刑法學者之態(tài)度發(fā)生動搖可見一斑。如德國學者魏根特瑞士學者格雷斯在2014年發(fā)表的一篇論文[16]中反對人工智能成為刑罰主體,但在2016年發(fā)表的一篇論文章中卻承認未來智能代理可以變成道德代理,并認為彼時需要重新考慮人工智能的人格及犯罪主體地位。“可以肯定的是,這些陳述是指我們在2016中知道的智能代理。然而,回顧近幾十年來計算機科學所發(fā)生的迅速變化,未來的智能代理獲得更像人類的素質和能力并非不可能。如果它們獲得反省和類似于道德良知的能力,他們的人格問題就不得不重新考慮了。”[15]417他們還指出,洛克和康德等古典哲學家們以人的自我反思能力為基礎確立的人格方法,并沒有考慮當代人工智能[15]416。

        與此同時,基于對人工智能犯罪研究的重視,機器人刑法或者人工智能刑法呼之欲出。例如,德國學者希爾根多夫就是機器人刑法的倡導者,以色列小野學院法學院教授哈利維則對人工智能刑法進行了較為系統(tǒng)的研究。哈利維在《當機器人殺人時:刑法中的人工智能》一書中,對人工智能的刑事責任、刑事責任的類型、嚴格責任、量刑等諸多問題進行了全面分析和探討7。此外,人工智能的刑法立法問題也逐漸引起人們關注?!半S著自動駕駛技術的進步,聯(lián)邦和州的監(jiān)管機構應該修改刑法,以使自動駕駛車輛順利進人市場。”18可以預見,未來有關人工智能犯罪的理論與立法會逐漸成為新熱點。

        三、人工智能成為犯罪主體的哲理基礎與現實條件

        (一)人工智能成為犯罪主體的哲理基礎

        眾所周知,人之所以能夠成為犯罪主體,是以唯心主義哲學的自由意志論及理性主義等為哲理基礎的。那么,人工智能成為犯罪主體的哲理基礎是什么?對此,學界認為主要有二:科學實證主義與道德二元論。

        1.科學實證主義

        人工智能會給人類帶來巨大的技術紅利,也可能對社會造成嚴重危害。那么,應當由誰來對人工智能的違法犯罪負責呢?有學者認為,應當讓社會和公眾自行承擔人工智能犯罪的風險?!凹偃缥覀儾幌胍驗樽罱K無法控制的風險而全面禁止智能代理,那么就別無他途,只能讓社會來承擔那些不能通過編程和負責任的使用而可掌控的風險,亦即放棄追究過失的刑事責任,而將蒙受損失的人視為非人類行為的受害者……讓公眾接受它們帶來的風險,停止刑法的干預?!盵16]239風險自負論的問題在于,根據既往的立法經驗,讓完全無過錯的被害人對人工智能造成的風險承擔責任,是無法讓人接受的。同樣,對于制造商、程序員等而言,由于存在難以歸責的情形,讓他們無條件承擔刑事責任也不可取。于是,以現象歸納和實證分析為基礎的科學實證主義應運而生。

        科學實證主義將犯罪主體歸結為現象研究,以現象論觀點為出發(fā)點,拒絕通過唯心主義哲學的理性主義把握感覺材料。在科學實證主義看來,人工智能是否成為犯罪主體,不能僅根據理性等決定,通過對現象的歸納同樣可以得到科學定律。哈利維就指出,作為先進科技的“副產品”(by-product),人工智能造成的損害和危險是客觀存在的。“無論是工業(yè)上還是私人上使用這項技術,都將擴大人工智能機器人所承擔的任務范圍。任務越先進、越復雜,任務的失敗風險就越大……最常見的情況是機器人承擔的任務沒有成功完成。但是一些失敗的情況會對個人和社會造成損害和危險?!盵17]17-18他認為,利用刑法來應對人工智能是有效的?!靶谭ū徽J為是指導任何一個社會個體行為的最有效的社會手段。它遠非完美,但在現代環(huán)境下,這是最有效的措施。因為它對于人類個體來說是有效的,那么有必要檢查它是否對非人類實體,尤其是人工智能實體有效?!盵17]19

        立足于科學實證主義,利用刑法規(guī)制人工智能將會大大減少人們對人工智能犯罪的恐懼,其現實意義值得肯定。在這方面,法人成為犯罪主體就是很好的例證。在法人面世以后,人類也曾面對法人違法犯罪的危害而不知所措,因為法人不被法律特別是刑法所規(guī)制,而將法人作為犯罪主體又違背刑法人類中心主義。不過,在法人被確定為犯罪主體后,人們對法人犯罪的恐懼大為減少?!霸谶^去,人們同樣害怕法人和它們大規(guī)模實施犯罪的力量,但自從法人成為刑法以及公司法上的法律實體后,這種恐懼已經顯著減少。”經驗表明,如果人工智能實體不受法律特別是刑法規(guī)制,那么在許多數情況下將會不可避免地引起人們對人工智能實體的恐懼。要想消除人們對人工智能犯罪的恐懼,將人工智能納人刑法規(guī)制之列無疑是有效途徑之一。

        2.道德二元論

        傳統(tǒng)犯罪理論以唯心主義哲學為哲理基礎,認為人之所以能成為犯罪主體,是由其理性和自由意志決定的。康德曾指出:“就吾人全體狀態(tài)以考慮可欲求者為何(即關于考慮何者為善為有益)之等等考慮,則根據理性。”[19]理性驅使人類不會像動物那樣基于本能而為,而是必須權衡利弊得失。犯罪屬于非理性表現,故只有人才能實施犯罪。當然,理性是以自由意志為前提的,并藉此奠定歸責的基礎。自由意志和理性為處罰提供了道德支撐,使處罰合乎公平與正義。根據傳統(tǒng)刑法理論,作為機械實物的人工智能不可能具有道德理性,因而難以歸責。

        道德二元論則認為,道德有道義論道德和目的論道德之別,前者集中在意志和行為,后者集中在結果?!暗赖仑熑未_實是一個非常復雜的問題,不僅對機器,而且對人類也是如此。一般來說,道德沒有一個共同的定義是所有社會都可以接受的。道義論的道德(集中在意志和行為)和目的論的道德(集中在結果)是最可接受的類型,并在許多情況下它們會導出相反的行為?!盵17]18據此,人在自由意志的支配下實施了犯罪行為,并需要對此承擔刑事責任,是道義論道德的要求。但是,如果結果是有害的,那么根據目的論道德也可以要求其承擔刑事責任。對于人工智能而言,無論是立足于由道義論道德還是立足于目的論道德,要求其對自己實施的犯罪承擔刑事責任都是合乎理性的。

        根據道義論,高度智能的計算機程序,為人工智能的道德理性提供了科學基礎。神經生物學的研究表明,人類的道德理性是受大腦掌控的?!霸谑芤庵菊瓶夭⒈桓兄獮樽杂傻男袨樽龀鲋?,大腦已經提前運作了。這個結論在部分程度上可解釋如下,不是我們自己,而是我們的大腦(在我們尚未覺察的時候)就做出了決定?!保?0換句話說,“我們的自由意志”實質上是“我們大腦的自由意志”。人工智能同樣有自己的“大腦”一計算機程序,這是其擁有道德理性的源泉。計算機程序系統(tǒng)能夠使人工智能模仿人類思維進行決策。例如,2015年誕生于美國的世界上第一位人工智能律師羅斯(ROSS)就具有高效的搜索、推理、判斷以及解決問題的能力[21]。許多人工智能武器更是融感知、分析、推理、判斷及思維于一體的作戰(zhàn)平臺,能自主完成戰(zhàn)爭任務。

        那么,人工智能的道德是如何生成的呢?對此,學者們認識不一?!皩嵲谡撨M路”認為,遵循程序指令的計算機、火箭制導系統(tǒng)、遵循烹飪食譜的初級廚師以及遵守交通法規(guī)的司機,它們行為時都相當于一個道德主體,遵循著基于道德控制的規(guī)則導向體系[22]。“關系論進路”認為,人工智能的道德倫理是在人類如何與機器人互動中形成的?!皬木唧w經驗和實踐出發(fā),對個人和文化差異有足夠的敏感度,這種方法讓我們關注人類美德是如何出現在人與機器人的互動中,并想象與個性機器人一起生活的可能性,這些機器人有助于形成良好的人類生活?!盵23]“認識論進路”則認為,“作為一種哲學倫理,需要探索不同的調查對象以及它們之間的關系。為了顧及本體論或認識論的多元化、整體性、社會性和關系性,達到現象學一詮釋學的感受性的適當水平,必須延緩對機器人道德直接的規(guī)范性論證?!盵24]根據該觀點,機器人領域的特定道德有賴于更豐富的分析,此前對機器人的道德挑戰(zhàn)應暫且視而不見。從道德多元化與人工智能的獨立性與自主性來看,“實在論進路”更具說服力。當然,不管何種生成路徑,其結論都是一致的,即人工智能具備道德。

        盡管人工智能具有道德理性,但并非所有的智能代理都能成為道德代理。通常,人工智能的道德代理分為三種:一是操作性道德代理,即其能力(自主性和倫理敏感性)仍然完全在工具設計者和用戶的控制范圍之內的代理;二是功能性道德代理,即自身具有評估和應對道德挑戰(zhàn)的能力的代理;三是完全道德代理,即具備人類那樣的完整、全面的道德代理25138-39。由于功能性自治可以實現理性自治,因而具備功能性道德代理的智能代理可以成為道德代理。功能性道德代理中的理性自治并非完全由外部因素決定,而是可以由人工系統(tǒng)在沒有外部刺激的情況下通過改變內部狀態(tài)決定[25]39。

        通常,人工智能的理性自治源自兩個方面:一是基于學習算法而獲得理性自治。人工智能學習時,基于所提供訓練數據,并通過學習算法從中推理、論證并生成一組新的規(guī)則。人工智能所具備的無監(jiān)督自主學習能力,更是可以自行學習并生成新的規(guī)則。根據學習算法生成新的規(guī)則并做出的決斷,體現的是人工智能的理性自治,產生類似于人類那樣的自主意識和思維,程序員對此難以預料和控制,也無需承擔責任。“如果程序員不可能預見致命的自主機器人重寫它的程序,如果該事實發(fā)生了,這些程序員將被免除責任?!盵26]二是基于最佳決策法則而理性自治。人工智能的海量信息超強的運算速度和技能等,可以使之在極短的時間內做出最佳決斷,這是人類無法做到的。“當軟件與外界交互時,它會尋求哪一種行動會產生最有成效的結果。然后,它將最有成效的行動付諸于未來的行動中。”[27]最佳決策體現人工智能的理性自治,并使得人工智能系統(tǒng)可以在眾多領域(如醫(yī)療領域)發(fā)揮著人類無法企及的作用,人類對此難以預知。但是,其弊端也是明顯的,即人工智能基于最佳決策可能會實施違法犯罪,人類根本無法掌控。例如,當人類違規(guī)操作時,若智能機器人瞬間篩選的最佳方案是排除個人干擾,就有可能殺死違規(guī)操作的人,這也是許多機器人殺人的真正原因。

        立足于完全道德代理,即以正常成人的道德為標準,是認為智能代理不能成為道德代理的重要原因之一。這種觀點看似有道理,實質上經不起推敲。人類的道德理性具有復雜性、多樣性特征,缺乏統(tǒng)一的判斷標準,如成年人與未成年人、精神狀態(tài)正常的人與精神狀態(tài)不正常的人,道德理性就不一樣。即使是正常成年人的道德理性,也復雜多樣。一個閱歷豐富、聰明睿智的人與一個閱歷單一、封閉偏執(zhí)的人,雖然均具有完全的道德理性,卻是有所區(qū)別的。這表明完全道德代理是個抽象概念,并不容易操作。此外,刑事歸責從來就不需要責任主體必須具備正常成人的道德理性,否則就無法解釋限制刑事責任能力人因何可以成為刑法歸責的對象。因此,不應以人工智能不具備虛擬的、具有理想色彩的完全道德代理能力,否定智能代理可以成為道德代理。

        (二)人工智能成為犯罪主體的現實條件

        人工智能成為犯罪主體的基本條件是具備法律人格。理論上,對于人工智能是否具有法律人格,存在三種不同看法:肯定說、否定說和折中說。

        肯定說認為,賦予人工智能法律人格有其可取之處。一方面,“授予自治機器法律人格,以滿足受其傷害的第三者需要,同時還可避免連帶責任引發(fā)的一些問題”[28]343;另一方面,通過對代表其人類主人的機器人對其所參與的交易賦:予責任,使得賦予機器人法律人格也可以促進商業(yè)發(fā)展[29]。否定說認為,不應賦予人工智能法律人格。因為,它們不是人類,缺乏人格的一些關鍵成分,如靈魂、意識意向性、情感或自由意志等,作為人類的產物永遠不應該上升到和我們一樣的法律地位[30]1258-1279。折中說認為,如果人工智能具有與人相匹配的特征,就應當賦予其法律人格?!霸谀撤N程度上,一個實體如果與具備人的所有特征的實體的相關特征匹配一例如,勝任人的成人一該實體應該被賦予人格保護,因為別無選擇……[31]

        究竟哪種觀點更具有說服力呢?這里關系到法律人格及其判斷標準等問題。早先的法律人格判斷,采取的是以主體自然屬性或身份等為據的形式標準。隨著社會的發(fā)展,法律人格的判斷逐漸演變成以法律權利和義務之資格為依據的實質標準?!百x予法律人格是授予實體一系列權利和伴隨義務的決定。權利和義務的性質和代理人的能力促成這種決定,而不是實體的組成、內部構造或實體的其他不可表達的屬性?!盵32]相應地,法律上的“人”的含義也發(fā)生深刻變化。哈佛大學法學院格雷教授有段著名論述:“與其他書籍一樣,在法律書籍以及普通語言中,人通常被用來指人,但人的專業(yè)的法律含義是法律權利和義務的主體?!币苑蓹嗬土x務這一實質標準來判斷可否賦予法律人格,無疑便于操作和解決問題?!翱梢哉f,法律人格和法人是為簡化法律計算而設計的數學創(chuàng)造物?!盵34]

        根據實質標準,除人類外包括法人、人工智能等在內的其他實體因為能夠被賦予權利和義務,因而也可以具備法律人格。事實上,正因法律人格的實質標準有利于解決現實問題,即使持否定說的學者在該問題上也并非篤定的,在他們看來不賦予人工智能法律人格不應絕對化。“對人工智能是否應該賦予某種形式的法律人格的問題,直到我們的生活形式使得問題迫切需要解決才能解答。但是,當我們每天面對人工智能提出人格問題,它們可能會改變我們如何解答問題的態(tài)度。”[30]1287

        在現實生活中,不少國家或者國際組織業(yè)已通過立法或者其他形式,在實質上賦予人工智能法律人格。例如,在日本存在大量給予機器人特殊居留許可證的試驗性經驗[35],這等于在實質上承認了某些機器人的法律人格。美國密歇根州則通過立法明確賦予人工智能法律人格。2016年12月,密歇根州參議院通過了第995號議案,出臺了被譽為史上最寬松的交通法案?!暗?95號議案明確宣稱,無人駕駛驅動系統(tǒng)是司機或為作出與任何適用的交通或機動車輛法規(guī)相符的決定的操作者。這樣看來,計算機程序根本不是代理人的工具。計算機程序就是代理人?!盵36]2017年10月26日,沙特阿拉伯更是直接授予機器人索菲亞(Sophia)公民身份。2015年,聯(lián)合國教科文組織與世界科學知識與技術倫理委員會聯(lián)合發(fā)布的有關人工智能報告中,就提到除了讓所有參與到機器人的發(fā)明、授權和分配過程中的人來分擔責任外,“另一個解決辦法就是讓智能機器人承擔責任,因為智能機器人確實擁有前所未有的自主性,并且擁有能夠獨立做出決策的能力。”[37]2016年,歐洲議會向歐盟委員會提出報告,建議確保至少最復雜的自動化機器人可以被確認為享有電子人的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格[38]。

        四、人工智能的可罰性

        (一)人工智能之可罰性的理論爭議

        1.有關人工智能是否具有可罰性的理論學說

        (1)否定說

        否定說認為人工智能不可罰。主要理由在于:首先,處罰人工智能無現實意義。人工智能屬于機械實體,不同于血肉之軀的人類,兩者在物理特性上完全不同。“我們天生不同。一個人的身體老化,使得監(jiān)獄系統(tǒng)中失去的時間的前景令人畏懼;機器人的身體將不會,并且身體上的任何缺陷或銹跡都可以很容易被修復?!盵39]517人工智能的特點決定死刑等刑罰對其毫無意義?!皺C器人的記憶、數據和能力可以在被刪除之前被轉移到另一個身體上,它只是和我們希望的一樣獨特。機器人可以被克隆,它的代碼從一個處理器復制到另一個處理器,它的身體在精確的復制品流水線中復制。”[39]1517其次,刑罰難以對人工智能產生附加價值。對人類施加刑罰的重大目標之一是能產生附加價值。例如,判處監(jiān)禁不僅在形式上會剝奪犯罪人的人身自由,還會對犯罪人產生強烈的威懾、恐嚇等效果,使其不敢再犯。然而,對人工智能則并非如此,因為機器學習難以像人類的自然語言加工那樣,通過心理作用產生附加價值?!白匀徽Z言加工和機器學習的區(qū)別,在于人類行為、語言甚至偏見以及其他心理特征相互作用而產生的附加價值?!盵40]

        否定說所謂的處罰之附加價值,是以人類的道德理性為基礎的。這樣,只要智能代理不能替代道德代理,就不可能讓人工智能承擔刑事責任。因為智能代理既不具備人類那樣的感受刑罰的能力,也無法理解與懲罰相聯(lián)系的倫理指責,因此針對它們動用刑罰沒有意義[36]238。但是,如前所述智能代理在一定程度上是可以成為道德代理的,如此懲罰人工智能當然可產生附加價值。而且,人類受罰產生附加價值,在宏觀層面乃源自道德理性,在微觀層面上則源自人的意識。人的意識雖然較為現實化具體化,但在判斷上卻遠較意志決定或者道德判斷復雜?!耙庾R是心靈科學中最令人困惑的問題。沒有什么比意識體驗更親密的了,但也沒有什么比這更難解釋的了。近年來,各種各:樣的心理現象已被科學研究所證實,但意識卻一直頑固地抵制著。許多人試圖解釋這一點,但解釋似乎總是落空?!盵41]然而,否定說并未就人工智能的意識作出解釋,說服力有所不夠。

        (2)肯定說

        肯定說認為人工智能具有可罰性,處罰人工智能同樣能達到一定的目的和效果,代表性學者是哈利維。他指出,刑罰有報應、威懾、康復和剝奪四種功能,懲罰與威懾不能對人工智能發(fā)揮作用,但康復和剝奪卻是有效的[17]157-162。這是因為,基于報應去懲罰機器將毫無意義,而威懾是一種機器無法體驗的感覺[17]158-199。不過,對于人工智能實體來說,康復功能與人類完全一樣,能夠使它們在日常生活中做出更好的決定。同時,不管人工智能系統(tǒng)是否理解其行為意義,防止其犯罪是必須的,社會必須剝奪人工智能系統(tǒng)犯其他罪行的物理能力[17]160-161。

        至于處罰方式,哈利維認為對人工智能可以適用死刑?!皩θ斯ぶ悄芟到y(tǒng)判處死刑意味著它被永久關閉,這樣對系統(tǒng)而言不會再實施犯罪或其他任何活動……久喪失能力意味著根據法院命令絕對關閉,再無激活系統(tǒng)的選擇。”7166-167也可以實行監(jiān)禁,當人工智能系統(tǒng)被羈押、受限制和監(jiān)督時,它的攻擊能力是喪失的[17]168,對人工智能還可以適用緩刑或公益服務,“對人工智能系統(tǒng)判處緩刑是對重新考慮其行為過程的警告”,“人工智能系統(tǒng)的公益服務在本質上類似于人類的公益服務”[17]168-173,哈利維認為可以考慮調整處罰方式?!叭斯ぶ悄芟到y(tǒng)的確沒有財產,但它工作能力是很有價值的,可以賦予其貨幣價值……人工智能系統(tǒng)可以使用它擁有的唯一貨幣:工作時間。工作時間對社會有貢獻,就像公益服務的貢獻一樣?!盵17]174

        2.簡評

        不難看出,否定說與肯定說具有共同的出發(fā)點和歸宿,即以處罰人類的目的和效果作為評價人工智能是否具有可罰性的依據。由于人工智能在物理屬性上迥異于人類,因而以處罰人類的目的和效果來否定人工智能的可罰性,就順理成章了。這樣看來,肯定說較為勉強。因為,根據對人類的懲罰目的和效果來評價對人工智能的規(guī)制,無論如何都是讓人感到蹊蹺的?!氨M管我們可以設想對智能代理人的懲罰大致等同于那些針對人類代理人的懲罰,但仍有理由認為,這些等同制裁略微離題。”[13]688-689

        例如,肯定說認為對人工智能可以像處罰人類那樣的適用監(jiān)禁刑和緩刑,這是有問題的。眾所周知,對人類加以監(jiān)禁或處以緩刑,目的在于讓其接受教育改造、自我悔改,消除人身危險性而回歸社會。即使人工智能具備自我反省、悔改和接受教育改造的能力,判處監(jiān)禁刑和緩刑也不一定是最佳選項。因為,對計算機程序等酌情加以改寫、改良等,可能較之處以監(jiān)禁或緩刑更直接、更容易達到處罰目的。又如,肯定說認為可以對人工智能適用罰金,并通過調整處罰方式來執(zhí)行。這看似可行實質上沒有必要。因為,與其將罰金調整為公益服務,不如直接處以公益服務。

        對哈利維的上述觀點,加拿大多倫多大學法學博士蕾切爾·查尼進行了簡要評述。她認為,哈利維關于人工智能可以通過公共服務來懲罰是不可信的,通過機器人可能給社會帶來危害。公共服務適用于人工智能,是一個較之哈利維簡單陳述更為微妙和復雜的問題[42]71-72。對人工智能進行罰金也不可信[42]71,“在某些情況下,也許有可能找到一種替代方法,使人工智能系統(tǒng)造福于社會,但不同于那些在駕車超速后被判撿垃圾的人,一個能夠駕駛和超速的人工智能系統(tǒng)不可能有撿垃圾的能力?!盵42]72應當說,查尼的質疑不無道理。將機械實體和血肉之軀相提并論,這本身就不妥。盡管哈利維運用經典犯罪理論在一定程度上很好地解決了機器人的犯罪問題,但使用傳統(tǒng)刑罰懲治機器人會導致荒謬的結果。如果在機器人與人類之間保持公平懲罰不作出任何努力,那么現有的懲罰技巧將既不能阻止機器人犯罪,也不能使犯罪的機器人康復[39]516-517。

        (二)人工智能具有可罰性

        肯定說的誤區(qū)在于,對完全不同于人類的人工智能,依舊立足于刑法人類中心主義來尋找可罰性根據及措施。事實上,比照對人類適用的刑罰來處罰人工智能,還是有其現實意義的。

        一方面,處罰人工智能為處罰其他主體奠定基礎。根據責任與行為同時存在原則,如果不處罰人工智能,有時會導致無法處罰存在過錯的制造商、程序員等,因為他們并沒有實施行為。其結果,將導致“制造商、所有者或用戶越來越脫離法律的局面”[28]1343,這是不可取的。在司法實踐中,無論人工智能造成多么嚴重的危害結果,從未出現過追究相關責任主體的刑事責任的情況。這種現象,并非是因為不存在追究刑事責任的事由和主體,而是由于人工智能被排除在刑法制裁之外。只有處罰人工智能,才能合理追究有過錯的制造商、程序員、所有者或用戶等的刑事責任,維護法律的權.威和尊嚴、公平與正義。

        另一方面,處罰人工智能也可以達到剝奪犯罪能力、預防其再次犯罪的目的。同時,處罰人工智能還能對人工智能的制造商、程序員以及使用者等產生負面清單效應,使他們蒙受商業(yè)利益損失或者技術的先進性與可靠性的名譽損害,這樣既可以教育改造人工智能,對制造商、軟件供應商等也是一種鞭策。此外,處罰人工智能還能消除公眾對人工智能的恐懼,起到安撫公眾情緒和情感的作用。

        當初,在將法人納人刑法規(guī)制的對象時,也出現不少類似的質疑聲。例如,“有人認為法人刑事責任的唯一限制是刑罰。這意味著除非立法機關沒有打算將法人考慮在內,因為它不能被監(jiān)禁或,被處電刑,很難看出這是一個真正的障礙?!盵43]但是,法人最終還是成為處罰主體,并取得了良好的效果。這從另一方面表明,處罰人工智能完全可能達到預期效果。

        至于認為處罰人工智能不能產生附加價值,是基于人工智能缺乏人類那樣的意識使然。這里關系到如何認識“意識”問題。紐約大學心理學、神經科學教授布洛克等人提出意識三元論,即將人的意識分取得意識、現象意識和內省意識三種類型,并認為機器可能具有取得意識,但不具備現象意識和內省意識D。美國《未來學家》雜志計算和人工智能專欄長期特約編輯理查德.揚克在其所著《機器的心臟:人工情緒智能世界中我們的未來》一書中,對意識進行了深入研究。楊克不但肯定人工智能擁有取得意識,還認為人工智能也擁有現象意識。“如果一個人工智能的陳述或行動表明它正在這個意義上體驗世界,我們怎樣才能確定這是真實的事例?相反,即使一個足夠復雜的系統(tǒng)不報告符合現象意識的狀態(tài),我們能確定它不是根據這個定義體驗可感受到的特質嗎?”[424對于有些人認為“意識是神秘的、相對單一的狀態(tài),是相互作用的心理過程的生態(tài)系統(tǒng),機器不可能用這樣的意識”的觀點,楊克指出,具有這樣意識的機器有朝一日會真的存在,它們可能與人類不一樣,甚至也許不那么相似,但根據這些標準它們仍然可以是有意識的[42]247。

        布洛克等人的人工智能意識論立論較早,具有一定的時代局限性。比較而言,楊克的立論成之于新近,是在云計算、大數據、物聯(lián)網以及量子計算機等許多前沿科技橫空出世以及人工智能技術取得顛覆性進步的情況下提出的,因而更具有現實基礎。一方面,我們的意識是大腦對物質世界的充分反應?!拔覀兊拇竽X的存在,在全世界七十億人中產生了豐富的有意識生命(或我們相信),證明意識可以由物質實體產生——除非你相信二元論靈魂,或者類似的東西。”[45]87而現今人工智能的計算機程序及其對物質世界的認識和領會,在很多方面并不比人腦差,這為其意識的形成奠定了物質基礎。另一方面,人工智能的研究方法,除了傳統(tǒng)的強調人類智力的功能模擬、形成以心理學的符號處理為特征的符號主義外,更有強調人腦的結構模擬、采用基于生理學的腦結構模式的聯(lián)結主義,這為人工智能意識的形成提供了科學基礎?!叭绻覀兂晒Φ貟呙枇艘粋€活著的人的大腦,我們也需要一個合成的大腦,它具有正確的神經元密度和突觸來容納大腦。這兩種方法,即人工腦的開發(fā)和訓練,以及人工腦作為一種包含人類思維的媒介的創(chuàng)造,可以并肩前進,彼此受益?!盵46]因此,人工智能具有意識是應當肯定的,這為其可罰性奠定了堅實基礎。

        (三)人工智能的刑罰方式

        如果人工智能具有可罰性,接下來的問題是如何處罰呢?對此,否定說完全將針對人類的刑罰類型照搬于人工智能,有所不妥。懲罰人工智能,必須針對計算機程序和機械實體的特征加以針對性處罰,才能產生效果并達到處罰目的。否則,無異于張冠李戴。

        針對電子計算機創(chuàng)造的通訊、信息空間等,哈佛大學法學院教授萊西希提出了四種規(guī)制方式:法律、社會準則、市場和結構程序。他認為,通過立法影響網絡空間的底層代碼(結構程序),網絡空間難以管理的開放世界是可控的[47]。其中的法律規(guī)制和結構程序規(guī)制,得到了不少學者的贊同?!爱斏婕暗秸{節(jié)機器人時,這兩種模式(法律和結構程序)也應該是立法者選擇的監(jiān)管工具?!盵39]519特別是結構程序規(guī)制,對人工智能極具針對性,即使否定論者對此也深表認同?!叭绻S堅持將我們現有的懲罰模式運用到機器人身上,機器人就應該被編碼和被連接,藉此盡可能接近人類以便知道和感受首當其沖的懲罰。編碼機器人使之感到恐懼、體驗內疚或害怕它們的外殼緩慢衰,減?!盵39]517結構程序規(guī)制意味著任何調節(jié)機器人等人工智能的法律,都必須關注機器人的源代碼或基礎代碼,因為通過代碼可以限制機器人的自主性。因此,對機器人進行編碼是必要的,它們的密碼是我們調節(jié)它們的大門3959。對于人工智能,結構程序規(guī)制可謂是對癥下藥的特別處罰措施。

        當然,傳統(tǒng)刑罰也是具有一定的作用的,只是在具體執(zhí)行上不同而已。例如,對人工智能就適用“死刑”,較之對法人判處“死刑”(如注銷)更具可行性,因為“處死"人工智能不會像“處死”法人那樣會“株連”無辜的人(股東等)。事實上,“死刑”適用范圍很廣,它可以適用于個人和實體[48]。當然,對人工智能適用死刑,不可能采取槍決、注射毒劑等剝奪人類生命的方式,而是能夠消除人工智能原有生命的措施。例如,可以對其實體子予以徹底毀滅,也可以是對其計算機程序給予永久刪除等。

        五、我國人工智能犯罪研究的現狀及其展望

        (一)我國人工智能犯罪研究的現狀

        近兩年來,有關人工智能的法學研究在我國儼然成為顯學。在缺乏即有理論基礎與實踐支撐的情況下,不少學者依舊勇敢地正視問題?!白⒅乜萍紕?chuàng)新未來發(fā)展可能帶來諸多法律問題的預測與預判,與細節(jié)微觀處的探究,而不是全盤將這一前瞻性的理論研究作為‘偽命題一概排除。唯如此,法律才能彰顯生命力,否則是無視人工智能對社會帶來法律問題的表現,由此帶來的復雜社會難題也將越來越多。”[49]就人工智能犯罪而言,所涉及的問題主要有人工智能的法律人格及刑事歸責等。

        不少學者肯定人工智能具有法律人格。“從人工智能的特性分析,其具有獨立自主意識的智慧工具屬性,享有權利并承擔責任的獨特特點決定了其具有法律人格?!?50也有學者建議未來可賦予智能機器人法律地位?!暗侥菚r,如果賦予智能機器人電子人格,讓其可以享有特定的權利和義務,并可以對其行為承擔法律責任,包括對其造成的損害的賠償責任,人們現在擔心的很多責任問題都可以得到較好的解決?!盵51]因為,賦予人工智能法律人格有利于劃分不同主體及其責任界限[52]。

        對于是否應對人工智能加以刑事歸責,不少學者持否定意見。不過,贊同者也不在少數。有學者認為,智能機器人如果具有辨認能力與控制能力,可能產生自主的意識和意志,在設計和編制程序范圍外實施行為時,智能機器人需要承擔刑事責任[53]。相應地,“人工智能的普及完全可能使得智能機器人在人類社會生活中的地位從普通工具上升至法律主體的高度,因此未來人類社會的法律制度需要針對人工智能技術的發(fā)展做出相應的調整。

        如果人工智能可以歸責,那么應在何種范圍內歸責呢?對此,有學者認為,可以先針對某些人工智能規(guī)定其法律責任?!艾F階段只是在法律上賦予人工智能在某些具體的刑事犯罪主體資格,在特定的情況下,追究軍事智能武器的法律責任,類似我國刑法規(guī)定的單位犯罪,人工智能犯罪類型是具體和明確的,這也是現階段有效管控人工智能技術發(fā)展、解決法律沖突和法律規(guī)避的有效方式?!盵54]有學者則指出,人工智能不宜像人類那樣作為直接責任主體,可以借鑒主體否定制度?!皞€可行的思路是參考既有犯罪主體中的一些主體否定制度,比如間接正犯(否定他人的主體資格)、原因自由行為(延展行為人的主體資格)等問題的立法模式,使人工智能恰當地進人現有刑事主體立法框架,達到立法與處罰的協(xié)調?!盵56]針對人工智能的可罰性,有學者提出了開創(chuàng)性見解?!澳壳拔覈谭ㄋ_立的刑罰體系僅以自然人和單位為適用對象而設計,我國刑法規(guī)定的主刑(管制、拘役、有期徒刑、無期徒刑、死刑)和附加刑(罰金、剝奪政治權利、沒收財產),不能滿足人工智能時代對智能機器人的特殊處罰需求,因而有必要加以重構?!盵57]論者進一步指出,罰金、沒收財產、剝奪政治權利無法施加于智能機器人,管制、拘役、有期徒刑和無期徒刑同樣無法施加于智能機器人,智能機器人無生命權可言,剝奪自然人生命的死刑更不能施加于智能機器人[58]50。論者還提出,適用于智能機器人的刑罰可以有三種,分別為刪除數據、修改編程、永久銷毀[58]51。

        (二)未來我國人工智能犯罪研究的展望

        鑒于我國對包括刑法規(guī)制在內的人工智能法律問題研究尚處于初始階段,現行研究更多的是為后續(xù)研究打下堅實基礎,其理論價值與實踐意義不容忽視。未來,有關人工智能的罪與罰的研究重點,不外乎以下幾個方面:

        1.人工智能對刑法人類中心主義的挑戰(zhàn)

        與國外的相關研究相比,我國學者的研究是相對薄弱的??隙ㄈ斯ぶ悄芊缸铮@然不應局限于刑法理論本身,還應對問題進行溯源性探究,這涉及到生物學、心理學、腦科學等專業(yè)領域的知識。未來,需要進一步深人研究的問題是:法律人格的屬性和判斷標準是什么?人工智能具備法律人格的生物學與心理學基礎是什么?智能代理與道德代理有何異同?人工智能的道德意識是如何生成的?等等。這些問題直接關系到刑法人類中心主義的科學性與合理性,是決定人工智能是否具備法律人格和獲得犯罪主體地位的立論基礎。

        2.人工智能犯罪主體的范疇、責任范圍與程度

        目前,人工智能的發(fā)展水平處于弱人工智能向強人工智能過渡時期。顯然,并非所有人工智能都可以被賦予法律人格并成為犯罪主體。于是,如何確定可以成為犯罪主體的人工智能范疇,是需要解決的問題。由于確定法律人格后,人工智能將與相關各方如制造商、銷售者、用戶等的法律責任捆綁在一起,故而如何確定包括人工智能在內的不同主體的責任范圍和程度,也是需要應對的問題。事實上,人工智能犯罪中的主體責任劃分與自然人犯罪是存在差異的?!皺C器人設計者應該比人類的父母對機器人的危害承擔更多的責任,因為機器人設計的故意性比人類兒童要廣泛得多?!盵2]75換句話說,人類不能隨意指示操控自己的子女,但人工智能的設計者如制造商程序員等,就很容易通過設置特定程序指示、操控人工智能,這就決定了人工智能的制造商、程序員等應當承擔更多的責任。但是,如何分配責任顯然需要進一步研究。可見,如何確定人工智能犯罪主體的范疇、責任范圍與程度,是未來人工智能刑法研究需要關注的。

        3.刑法如何介人對人工智能的規(guī)制

        作為一種新型犯罪主體,如果刑法全面介入對人工智能犯罪的規(guī)制,是不合適的。一個典型的例子是法人也不是對所有犯罪都承擔刑事責任。盡管主體否定制度的有限介人有其可取之處,但是否科學、合理尚值得進一步探討。例如,在間接正犯中,將人工智能納人被利用的主體框架,會造成如下問題:為什么人工智能可以成為間接正犯之被利用者而不能直接成為犯罪主體?畢竟,為了區(qū)別被利用者和動物、刀棍等工具性對象,被利用者往往是不能被當作工具的責任主體,盡管其在犯罪中可能不承擔刑事責任。又如,將人工智能犯罪的主體限制為軍事智能武器是否恰當的問題。誠然,最先進的人工智能往往先行應用于軍事領域,但成為犯罪主體的人工智能未必就僅限于最先進的人工智能。更何況,最先進的人工智能也可能應用于民用領域??梢姡谭ㄈ绾谓槿藢θ斯ぶ悄艿囊?guī)制,將未來需要解決的問題。

        4.人工智能犯罪的刑罰適用

        現行刑罰體系是以作為生物有機體的人類為基礎構建的,顯然不可一股腦照搬適用于作為機械實體的人工智能,就像對法人不能適用死刑、有期徒刑等一樣。對人工智能適用的刑罰類型,必須具有針對性,即充分結合人工智能的物理屬性等因素。這樣看來,萊西希教授提出的結構程序規(guī)制,我國學者提出的刪除數據、修改編程、永久銷毀等處罰,均具有鮮明的針對性。問題在于,結構程序規(guī)制沒有提出相對完整、具體的處罰措施,而僅僅根據刪除數據、修改編程、永久銷毀來處罰人工智能也顯得有些單一,不能全面覆蓋因人工智能犯罪而導致的歸責,如其義務主體的范圍及責任分配如何確定就是問題。因此,對人工智能如何適用刑罰,確實值得深入研究。

        六、結語

        由于生物進化速度遠遠不及科技發(fā)展速度,因而人工智能的“大腦”發(fā)育肯定比人類大腦要快得多?!斑M化的系統(tǒng)或子系統(tǒng)將確保(人工)智能的大腦像我們的外星人一樣難以掌握。外星人大腦將在計算機上進化和自我完善,并非生物速度?!盵59]因此,人工智能的智識和能力比肩甚至超越人類是完全可期的。“如果一個緩慢而低效的過程僅憑隨意的有機化學物質就能創(chuàng)造大腦,那么更快、更有效的科學工序肯定能做到這一點?!盵45]63受益于不斷提高的學習能力,下一代機器人智能將會是圖靈測試智能(與人類水平的智能和意識相媲美),屬于具有自主決策能力、一流水平的第四代機器人的智能模式[60]。

        我國的人工智能研發(fā)起步較晚,但發(fā)展極為迅速,大有后來居上的態(tài)勢。在這樣的背景下,制定相關立法迫在眉睫?!霸跈C器人制造之前法律措施必須生效,否則災難發(fā)生后可能沒有法律制度適用。”[2]76相應地,加強對人工智能法律問題的研究,也就具有極為重要的現實意義。“應該為這些公民提供討論這些新技術影響的機會,并考慮現行法律能否充分維護他們在面對機器人革命時所堅持的原則。這樣的討論應該提前發(fā)生,而不是在無人駕駛交通工具融入日常生活后再作廣泛介紹?!盵6]

        遺憾的是,面對人工智能這種特殊的科技實體,包括刑法學在內的理論層面顯然沒有做好應對準備。原因可能有二:一是受傳統(tǒng)的刑法人類中心主義犯罪觀等局限;二是規(guī)制人工智能的法律匱乏,導致理論研究缺乏法律依據。相對而言,對人工智能革命的認識不足不成問題,成問題的是缺乏法律規(guī)制,這不是一朝一夕可以解決的。面對新生事物,我國刑法歷來勇于創(chuàng)新、積極應對,典型表現便是賦予單位犯罪主體資格。事實證明,刑法將單位規(guī)定為犯罪主體,在防治該類犯罪上發(fā)揮了積極作用。當然,對于人工智能而言,何時賦予其犯罪主體地位以及賦予人工智能何種具體犯罪的犯罪主體地位,是對立法時機和立法技巧的考驗。不管何時頒行立法,可以肯定的是,“這些立法決定必須迅速作出,這些決策做出的越早,對制造商生產出最符合法律的產品就越有利”[62]。

        本文主要就人工智能犯罪的一些基本問題進行了初步的分析和探討,并未涉獵個罪的定罪量刑等微觀問題。作為一種全新的犯罪類型,人工智能犯罪的許多問題尚需進一步研究和探討。查尼博士對哈利維的《當機器人殺人時:刑法中的人工智能》一書做出如下評價:“在這本書中,就我們現行的刑法框架內刑事責任能否適用于人工智能,哈利維的理論提供了一個很好的對話起點?!?2172不難看出,這段話并不在意書中的相關論點對錯與否,而是充分肯定哈利維對人工智能刑法的開拓性研究。誠如是,則本文之觀點及拙見如何已不重要,重要的是期待本文能成為深化我國人工智能刑法研究的引玉之磚。

        參考文獻:

        [1] Faye Mitchell. The Use of Artificial Intelligence in Digital Forensics: An Introduction[ J]. Digital Evidence & ElectronicSignature Law Review, 2010,7(1):35 -41.

        [2] Trevor N. White, Seth D. Baum. Liability for Present and Future Robotics Technology, in Patrick Lin, Ryan Jenkinsand Keith Abney, Robot Ethics 2. 0: From Autonomous Cars to Artificial Intelligence [ M ]. New York : Oxford UniversityPress, 2017

        [3] Jesse Krompier. Safety First: The Case for Mandatory Data Sharing as a Federal Safety Standard for Self-Driving Cars[J]. University of llinois Journal of Law, Technology & Policy , 2017(2) :439 - 468.

        [4] Yueh - HsuanWeng, Chien - Hsun Chen, Chuen - Tsai Sun. Toward the Human - Robot Co - Existence Society: OnSafety Intelligence for Next Generation Robots[ J]. International Jourmal of Social Robotics ,2009 ,1(4) :267 - 282.

        [5] S. M. Solaiman. Corporate Manslaughter by Industrial Robots at Work: Who Should Go on Trial under the Principle ofCommon Law in Australia[ J]. Journalof Law And Commerce, 2016, 35(1):21 - 54.

        [6]剛桂虎.軍用無人機成長三部曲[N].解放軍報,2017-03 -31(09).

        [7]安塞爾姆·里特爾·馮·費爾巴哈.德國刑法教科書[M].徐久生,譯.北京:中國方正出版社,2010:37.

        [8] J. C. Smith. Machine Intelligence and Legal Reasoning[ J]. Chicago - Kent Law Review, 1998, 73(1):277 - 349.

        [9] Raymond S. August. Turning the Computer into a Criminal[J]. Barrister, 1983, 10(4).

        [10]Jerry Kaplan. Artificial Intelligence[ M]. Oxford: Oxford University Press, 2016.

        [11]Gabriel Hallevy. Virtual Criminal Responsibility[J]. Original Law Review, 2010, 6(1).

        [12]0. E. Radutniy. Criminal Liability of the Artificial Intelligence[ J]. Problems of Legality, 2017.

        [ 13]Dafni Lima. Could AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law[J]. South Carolina Law Review, 2018, 69(3).

        [ 14] Daniel Eszteri. Liability for Operation and Damages Caused by Artificial Intelligence - With a Short Outlook to OnlineGames[ J]. Studia luridica Auctoritate Universitatis Pecs Publicata, 2015, 153 :57 -74.

        [ 15 ] Sabine Gless , Emily Silverman, Thomas Weigend. If Robots Cause Harm, Who Is to Blame: Self - Driving CarsandCriminal Liability[ J]. New Criminal Law Review, 2016, 19(3).

        [16]薩比娜.格雷斯,托馬斯.魏根特.智能代理與刑法[G]//陳澤憲.刑事法前沿:第10卷.趙陽,譯.北京:社會科學文獻出版社, 2017 :215.

        [ 17]Gabriel Hallevy. When Robots Kill: Artificial Inelligence under Criminal Law[ M]. Boston: Northeastern UniversityPress, 2013

        [ 18 ]Jeffrey K. Gurney. Driving into the Unknown: Examining the Crossroads of Criminal Law and Autonomous Vehicles[J]. Wake Forest Jourmal of Law & Policy, 2015, 5(2) :442.

        [19]康德.純粹理性批判[M].藍公武,譯.北京:商務印書館,2007:366.

        [20 ]希爾根多夫.德國刑法學:從傳統(tǒng)到現代[ M].江溯,等,譯.北京:北京大學出版社,2015:159.

        [21 ] Catherine Nunez. Artificial Intelligence and Legal Ethics : Whether AI Lawyers Can Make Ethical Decisions[ J]. TulaneJourmal of Technology and Intellctual Property, 2017, 20:204.

        [ 22 ] Andreas Matthias. Algorithmic Moral Control of War Robots: Philosophical Questions [J]. Law, Innovation andTechnology, 2011, 3(2) :297.

        [ 23 ]Mark Coeckelbergh. Personal Robots, Appearance, and Human Good: A Methodological Reflection on Roboethics[J].International Journal of Social Robotics, 2009, 1(3):217.

        [ 24 ] Mark Coeckelbergh. Is Ethics of Robotics about Robots Philosophy of Robotics beyond Realism and Individualism[ J].Law, Innovation and Technology, 2011, 3(2) :250.

        [25 ]Trevor N. White and Seth D. Baum. Autonomy and Responsibility in Hybrid Systems: The Example of AutonomousCar, in Patrick Lin, Ryan Jenkins and Keith Abney, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence[ M ]. NewYork: Oxford University Press, 2017.

        [43 ] Joseph F. Francis. Criminal Responsibility of the Corporation[J]. lnois Law Review, 1923 - 1924, 18(5):312.[44] Richard Yonck. Heart of the Machine : Our Future in A World of Artificial Emotional Intelligence[ M]. New York:Arcade Publishing ,2017.

        [ 45 ]Calum Chace. Surviving AI: The Promise and Peril of Artificial Intelligence[ M]. London: Three Cs, 2015.

        [46] Peter AJ Van der Made. How To Create A Functional Artificial Brain: Higher Intelligence [ M ]. Fremantle: VividPublishing, 2013: 147.

        [47] Lawrence Lessig. The Law of the Horse: What Cyber Law Might Teach[ J]. Harvard Law Review, 1999 ,113(2) :507- 508.

        [ 48 ] Mary Kreiner Ramirez. The Science Fiction of Corporate Criminal Liability: Containing the Machine throughtheCorporate Death Penalty[J]. Arizona Law Review, 2005, 47(4) :949.

        [49]馬治國,田小楚.論人工智能體刑法適用之可能性[J].華中科技大學學報,2018(2):108-115.

        [50]袁曾.人工智能有限法律人格審視[J].東方法學,2017(5):50-57.

        [51]司曉,曹建峰.論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點[J].法律科學,2017(5):166-173.

        [52]詹可.人工智能法律人格問題研究[J].信息安全研究,2018(3):224-232.

        [53]劉憲權,胡荷佳.論人工智能時代智能機器人的刑事責任能力[J].法學,2018(1):40-47.

        [54]劉憲權.人工智能時代的刑事風險與刑法應對[J].法商研究,2018(1):3-11.

        [55]夏天.基于人工智能的軍事智能武器犯罪問題初論[J].犯罪研究,2017(6):9-20.

        [56]王肅之.人工智能犯罪的理論與立法問題初探[J].大連理工大學學報(社會科學版),2018(4):53-63.[57]劉憲權.人工智能時代刑事責任與刑罰體系的重構[J].政治與法律,2018(3):97.

        [58]劉憲權,朱彥.人工智能時代對傳統(tǒng)刑法理論的挑戰(zhàn)[J]上海政法學院學報(法治論叢),2018(2).

        [ 59] James Barrat. Our Final Invention: Artificial Intelligence and the End of the Human Era[ M]. New York: St. Martins Press, 2013:231.

        [ 60]H. Ashrafian, O. Clancy, V. Grover, A. Darzi. The Evolution of Robotic Surgery: Surgical and Anaesthetic Aspects[J]. British Journal of Anaesthesia, 2017, 119(1):72- 84.

        [61] Brendan Gogarty, Meredith Hagger. The Laws of Man over Vehicles Unmanned: The Legal Response to RoboticRevolution on Sea, Land and Air[ J] . Journal of Law, Information and Science, 2008, 19:73 - 146.

        [62] Jeffrey R. Zohn. When Robots Attack: How Should the Law Handle Self - Driving Cars That Cause Damages[ J].University of llinois Journal of Law, Technology & Policy, 2015, 2015(2) :461 - 486.

        Regulation of Criminal Law for Artificial Intelligence

        PENG Wen-hua

        ( School of Criminal Justice, Shanghai University of Political Science and Law, Shanghai 201 701 , China)

        Abstract : Theories about whether artificial intelligence can constitute a crime , are mainly as follows:theory of psychological elements, intelligent agent theory, theory of comparison by legal human, legal entity theory and theory of the main body. The philosophical foundation of artificial intelligence as the subject of crime is scientific positivism and moral dualism,and its realistic condition is to have legal personality. Intelligent agents can become moral principles. The way of moral formation of AI is different from“realism approach”,“relationship theory approach ”and“epistemology approach” ,and“realism approach”is relatively reasonable. The punishment of AI can not only lay a foundation for punishments for other subjects, but also achieve the purpose of depriving them of criminal capacity, and can also generate additional value. The research on the criminal law of artificial intelligence in China is still in the initial stage. The focus of future research lies in the challenge of artificial intelligence to the anthropoid- centrism of criminal law, the scope and extent of the subject of artificial intelligence crime; the intervention of the regulation to artificial intelligence in criminal law, and the application of the penalty of artificial intelligence crime.

        Key Words: artificial intelligence; artificial intelligence crime; intelligent agent; legal personality ; punishability

        本文責任編輯:龍大軒

        收稿日期:2019-05-11

        作者簡介:彭文華(1972),男,江西新建人,上海政法學院刑事司法學院院長,教授,法學博士。

        ①運算智能,即快速計算和記憶存儲能力;感知智能,即視覺聽覺、觸覺等感知能力;認知智能,即理解、分析、思考、論證、推理以及解決問題的能力。人工智能的運算智能之強大遠超人類,-些感知能力如“計算機視覺"等也遠強于人類,某些認知能力也勝過人類。

        ②弱人工智能一般只能從事特定的模仿、模擬任務,例如語音識別、圖像識別和翻譯等;強人工智能屬于人類級別的人工智能,可以思考、分析、解決問題,具備抽象思維和理解復雜概念的能力;超人工智能則被認為遠超最聰明的人類大腦,無論是邏輯推理、科技創(chuàng)新還是情緒表達、社會交際等。

        ①盡管人工智能發(fā)展尚未達到強人工智能階段,但其近年的飛速發(fā)展表明,所謂的技術奇點的來臨會大大加快。例如,新近擁有波士頓動力的機器狗會開門,能夠在凹凸不平的戶外草地和荒地上奔跑、越過障礙,還能夠完成跳躍、旋轉以及后空翻等一連串的動作,每次完成動作后還能站穩(wěn),宛如一名體操運動員。那種認為人腦因其復雜性以及未知性,極大地限制人工智能的發(fā)展水平的觀點,現在看來似乎有些絕對。事實上,制造出類人機器人并不需要對人類大腦的功能完全掌握和了解,因為研制“類人”人工智能也并不需要等待腦科學認知原理的突破,只要獲得生物神經網絡的介觀圖譜和神經元及神經突觸功能特性,就能制造出生物大腦工作模式和性能相當的智能機器,甚至涌現出自我意識。要在技術上達到這一點,顯然較之對人類大腦功能的完全掌握和了解要容易得多。因此,制造像真正的人一樣的人工智能應當不會太遙遠。

        ①取得意識是指大腦中使有關我們內在思想感情狀態(tài)的記憶和信息隔離和聯(lián)絡的那方面,這是獲得關于我們內在生活和狀態(tài)、真實或想象的信息的能力;現象意識是指主觀、有意地體驗未加工的經驗,在哲學中習慣指“可感受到的特質”;內省意識包含自我意識,并延伸到元認知的內在的、不連續(xù)的、自我參照的觀察(“有關思考的思考”),是指在近乎實時的情況下觀察和反映我們自己個人內部狀態(tài)的一個子集的能力。(參見:NedJ.Block,OwenFlanagan.TheNatureofConsciousness:PhilosophicalDebates,Cambridge:MITPress,1997:375-415.)

        ①2018年3月兩會召開期間,時任科技部部長的萬鋼就加快建設創(chuàng)新型國家答記者問時,特別強調:“我們要加強政策法規(guī)研究,要積極應對人工智能發(fā)展可能對社會倫理、就業(yè)結構、個人隱私、國家安全等方面的一些挑戰(zhàn)?!?/p>

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        IT經理世界(2018年20期)2018-10-24 02:38:24
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        學與玩(2017年12期)2017-02-16 06:51:12
        久久精品国产av大片| 东北女人毛多水多牲交视频| 国产日产久久高清ww| 亚洲无线码一区二区三区| 人妻被黑人粗大的猛烈进出| 国产未成女年一区二区| 亚洲av色香蕉一区二区三区av | 国产亚洲精品综合在线网址| 日本免费精品免费视频| 一本到无码AV专区无码| 亚洲视频在线观看| 一本色道久久综合亚洲| 女同性恋一区二区三区四区| 厨房玩丰满人妻hd完整版视频| 夜夜躁日日躁狠狠久久av| 蜜臀av一区二区三区精品| 亚洲精品无码久久毛片| 亚洲精品久久久久久久蜜桃| 国产精品人成在线观看不卡| 99ri国产在线观看| 色一情一区二区三区四区| 久久综合精品国产丝袜长腿| 一本色道久久综合亚洲精品蜜臀| 国产av三级精品车模| 亚洲国产婷婷香蕉久久久久久| 成人白浆超碰人人人人| 男性一插就想射是因为啥| 国产精品亚洲在线播放 | 精品熟女少妇av免费观看| 巨臀精品无码AV在线播放| 日本高清在线播放一区二区| AV无码一区二区三区国产| 国产精品美女一区二区三区| 白白色白白色视频发布| 人妻少妇中文字幕av| 亚洲无码视频一区:| 把插八插露脸对白内射| 日本最大色倩网站www| 亚洲av福利无码无一区二区| 亚洲日韩一区精品射精| 国产顶级熟妇高潮xxxxx|