石經海 唐渠渠
內容提要:快速發(fā)展的人工智能引發(fā)人們恐懼,是否用刑法規(guī)制以消解此恐懼激起刑法學界熱議,分歧的焦點在 “強人工智能”是否具有 “獨立意志”而成為刑事責任主體。通過對人工智能的數學考察:新知識悖論、啟發(fā)式悖論等技術難題,對人腦神經掃描、建模等路徑障礙,人們對強人工智能社會危害的恐懼實際上是虛化的,所謂 “獨立意志”只不過是設計者對在復雜算法交互下形成的各種不確定情況的不完全掌握,人工智能不能成為刑事責任主體,不能成為刑事制裁對象。對于人工智能犯罪,應在社會治理體系下,轉換處罰人工智能而非人的觀念,為人工智能設定相關的監(jiān)管人員等多元方式應對人工智能時代的到來。
人類在享受人工智能帶來便利服務的同時,也恐懼過度聰明的人工智能是否會給人類帶來難以預見的危害。源于對恐懼的回應和消解,刑法學界圍繞人工智能法律規(guī)制的核心是強人工智能基于獨立意志而成為刑事責任主體,基于罪責自負而成為刑事制裁對象。理性的分析和適當的前瞻是刑法該有的情狀,而大多學者對此的解釋是從傳統(tǒng)的法理或哲學等側面進行,卻不知源于 “獨立意志”的恐懼其實是數學原理的一般運用。人工智能是科技的產物,數學是一切科學的邏輯起點,架空科技的實質去談論人工智能,不理解數學原理的主觀臆斷,極易促成失真情況的發(fā)生。在數學機理下對人工智能進行研究,有助于揭開人工智能基于 “獨立意志”實施危害社會行為的神秘面紗,為刑法規(guī)制人工智能提供正確的理論基礎。
1956年達特茅斯會議的召開,標志著以解放人的大腦為目的的人工智能的誕生。①谷建陽:《AI人工智能:發(fā)展簡史+技術案例+商業(yè)運用》,清華大學出版社2018年版,第47頁。從誕生之日起,到如今與人的思維具有相似性的人工智能時代,歷經曲折。②1956年到1970年,人工智能從開始到迅速發(fā)展,到1970年基于人工智能遭遇的批判,資金瘋狂銳減。1970年到1980年,人工智能全面沉寂,國家停止撥款。1980年到1987年,人工智能重新迎來一個發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機器人。1987年到1993年,人工智能的發(fā)展又一次陷入低谷,美國研究機構人工智能不再是研究的重要方向。從1993年到今天,人工智能進入了加速發(fā)展軌道。人工智能在解放人類大腦的同時,也帶來了風險。風險不同于實害,也區(qū)別于危險,其具有不確定性和隨機性,正是這些不確定性和隨機性,引發(fā)了人類的恐懼。③劉憲權:《人工智能:刑法的時代挑戰(zhàn)》,上海人民出版社2018年版,第1頁。
基于對人工智能所持的不同態(tài)度,刑法學界對其是否予以刑法規(guī)制形成涇渭分明的兩派:激進派和保守派。
激進派認為人工智能的無限制發(fā)展最終會對人類造成威脅,在風險語境下,為避免將來出現的災難性事件,主張法益保護早期化,賦予人工智能刑事主體地位,以應對將來可能出現的情況。主要理由如下:
第一,人工智能最終將擁有自主的意識,可以辨認自己的行為并知曉行為的意義和后果,并實施控制。所以,當其在設計和編制的程序范圍外實施行為時,完全可以成為刑事責任主體,承擔刑事責任。④黃云波:《論人工智能時代的刑法機能》,載 《人民法治》2018年第11期。鑒于人工智能與人不同,其不具有生命特征,由此適用于人類的死刑、自由刑、財產刑等都不再適合人工智能,賦予其刑事責任主體身份的同時,應針對其本身的性質構建一套合適的刑罰體系。⑤劉憲權:《人工智能時代的 ‘內憂’‘外患’與刑事責任》,載 《東方法學》2018年第1期。
第二,法人主體的刑法擬制為人工智能的刑法擬制提供了先例。將單位看成刑事責任主體,就說明單位的意志性,只不過其意志表現為單位內部所有人的共同意志。通過深度學習,人工智能完全可能產生設計或編制程序范圍外的自主意志,人工智能的意志和單位的意志相比,自由程度更強。如果法律能夠尊重單位的自由意志,就沒有理由否認人工智能的自由意志。而且,從法律屬性來講,人工智能比單位更接近法律意義上的人。⑥劉憲權、胡荷佳:《論人工智能時代智能機器人的刑事責任能力》,載 《法學》2018年第1期。
而保守派對此態(tài)度卻大相徑庭。其認為,面對人工智能,刑法學界應保持一個理性的態(tài)度,切不可急于出手,人工智能終究不過是人類的工具,不主張人工智能成為犯罪的適格主體。主要理由如下:
第一,人工智能運行機理與人的意志自由進行形式匹配過于機械,其不具有理解并遵從法律規(guī)范的能力,而且對人工智能的行為屬性無從判斷是技術故障還是基于其自主思維的認識和意志能力而實施。由此,人工智能不具有刑法意義上的行為認識與控制要素的自主性,欠缺作為刑事責任主體的本質特征。⑦時方:《人工智能刑事主體地位之否定》,載 《法律科學 (西北政法大學學報)》2018年第6期。
第二,認為人工智能可成為刑事責任主體的觀點過于膚淺,對自然人和人工智能之間的區(qū)別缺乏由表及里的審視。自然人作為有血有肉的社會活動主體,在社會中可具有多重身份,受到倫理道德規(guī)范的約束,而這些都是人工智能所不具備的。人工智能不具有社會性,賦予人工智能刑事主體資格,將導致道德上的不允許、倫理上的混亂、法律上的危機。
從激進派與保守派之爭可看到,拋開個人因素、情感,兩派爭議的實質是人工智能是否有獨立意志。激進派認為,人工智能終將發(fā)展到具有 “獨立意志”的時代,那時候,它能夠明白自己的行為,是有思想、有情感的。如果其做一些危害社會的行為,人類該怎么辦?只有將其作為與我們一樣的 “人”來看待,給予其人的屬性和法律定位,用最嚴厲的法來規(guī)制它。而保守派認為,意志是人類專有的東西,人工智能只是服務于人類的工具,不會產生獨立意志,而只要沒有 “意志”的人工智能,無論是類人的還是非類人的,“人工智能”的 “智能”或許都是一個美麗的擬人化比喻。⑧王驥:《新未來簡史:區(qū)塊鏈、人工智能、大數據陷阱與數字化生活》,電子工業(yè)出版社2018年版,第211頁。
以上可知,無論激進派還是保守派,對人工智能刑事主體資格的分析都是從法理或是哲學等其他側面進行,都沒有對人工智能的機理進行探討,人工智能是科技的產物,架空科技去談論人工智能,在不了解人工智能的運行機理之下去討論權利主體問題,終究是帶有主觀色彩的、不深刻的天馬行空。以下,筆者將從人工智能的數學原理說起,利用人工智能的原理和本質揭開人工智能危害社會行為性質的神秘面紗。
正如恐怖大師史蒂夫·金所說:“讓人的心備受恐懼折磨的從來都不是妖魔鬼怪,而是超出認知范圍的未知?!比斯ぶ悄艿陌l(fā)展速度太快,普通人卻對其操作方式、運作邏輯與程序一無所知,猶如身處黑暗,卻不知黑暗的邊界。因為這些未知黑暗的不確定狀況,人類產生了恐懼;因為恐懼就想趕快用最嚴厲的東西去規(guī)制它,甚至消滅它,而刑法作為最嚴厲的法便粉墨登場。
1.強弱之分?量變不一定引起質變
學界根據人工智能有無獨立意志、是否超出程序設計范圍,將人工智能分為弱人工智能和強人工智能。⑨圖靈測試,由人工智能之父艾倫·麥席森·圖靈提出,指出如果第三者無法辨別人工智能機器與人類反應的差別,就可以論斷該人造機器具備了人工智能。應當說,能夠通過 “圖靈測試”的機器所具備的人工智能相當于 “人類”級別的人工智能,即強人工智能。弱人工智能雖可在設計和編制的程序范圍內進行獨立判斷并作出決策,但不具有辨認能力和控制能力,其實現只是設計者和使用者的意志。強人工智能具有辨認能力和控制能力,除具弱人工智能的功能外,還可超出設計和編制的程序范圍,進行自主決策并實施相應的行為,實現其自身的 “意志”,如科幻電影中的HAL讀懂飛行員想要關閉它的唇語,故意讓電腦失靈。⑩劉憲權:《人工智能時代的刑事風險與刑法應對》,載 《法商研究》2018年第1期。
可是,人工智能真的存在強弱之分?其劃分依據是否本身就是一個偽命題?眾所周知,人工智能技術存在三大悖論。①李國杰:《人工智能的三大悖論》,載 《中國計算機學會通訊》2017年第11期。第一,莫拉維克悖論。莫拉維克悖論是人工智能和機器人學者發(fā)現的一個和常識相佐的現象。與傳統(tǒng)假設不同,人類所獨有的高階智慧能力只需非常少的計算能力,例如推理,但是無意識的技能和直覺卻需要極大的運算能力。如莫拉維克所寫:“要讓電腦如成人般地下棋是相對容易的,但要讓電腦如一歲小孩般的感知和行動卻是不可能的?!痹撱U摲从硤D靈機模型的局限性,而現有計算機的模型正是和馮諾依曼的計算機構造一脈相承。②鄭慧:《刑法對人工智能應秉持的理性態(tài)度》;參見前引③,劉憲權書,第181-182頁。如何突破圖靈機的局限性,是人工智能面臨的第一個問題。第二,新知識悖論。人們常說大數據和機器學習是從數據中發(fā)現新知識,但計算機專家認為:計算機是機械的、可重復的智能機,本質上沒有創(chuàng)造性。計算機的運行可歸結為對已有符號的形式變換,結論已經蘊含在前提中,本質上不產生新知識,不會增進人類對客觀世界的認識。③在CNCC的會士論壇中,林惠民院士就談到了這樣的觀點。新知識如何產生,是人工智能面臨的第二個問題。 第三,啟發(fā)式悖論。啟發(fā)式搜索不能保證找到解或保證解的精確度,而且采用啟發(fā)式算法會帶來一些風險。如何保證解的正確性及如何面對這些風險,是人工智能面臨的第三個問題。
人工智能存在悖論,并非萬能,先不說人工智能還處于人工智障階段過于偏激,至少在未來很長時間內,人工智能處在也將持續(xù)處在弱人工智能時代。④有學者認為,現在的人工智能還處在人工智障時代,用刑法規(guī)制人工智能只不過是法學領域的熱點追逐現象,法學研究的重心是解釋、回應以及致力于解決當下最廣大人民群眾最關切的、最迫切需要解決的社會問題,而不是缺乏實證調研、依賴于外文資料、豐富的想象力和嫻熟的文筆,寫出的一連串的學術論文。法學是應用法學,而非預測法學或法命理學。從 “三大悖論”可以得到,量的積累幾乎不可能發(fā)生質變,人工智能技術的發(fā)展在未來很長時間內都很難突破,要達到強人工智能時代,可謂是一個難以企及的神話。⑤參見前引⑧,王驥書,第5頁。
2.奇點到來?一個想象的烏托邦而已
從發(fā)展史來看,人工智能研究有三種技術路徑:其一是以專家系統(tǒng)為代表的符號學派,其從人腦推理功能出發(fā),認為只要模擬人腦的邏輯推理思維,把相關的信息抽象為符號,然后進行符號運算,便可實現推理功能。其二是以圖像識別為代表的聯接學派,其從人腦組織出發(fā),進行機器模擬。人腦有大量神經元,人之所以能夠進行思維就是因為這些神經元互相聯接,處理各種信息。如果用機器模擬神經元,并建立人工神經元聯接網絡,便能夠進行思維。⑥陳宗周:《AI傳奇——人工智能通俗史》,機械工業(yè)出版社2017年版,第156頁。其三是以智能控制為代表的行為學派,其從控制論出發(fā),把神經系統(tǒng)的工作原理與信息理論、控制理論、邏輯以及計算機聯系起來進行處理。
三大學派推動了人工智能的發(fā)展,但隨著科技發(fā)展,卻出現不同的情形。符號學派在二十世紀九十年代開始式微,現在已到奄奄一息的地步。聯接學派和行為學派基于大數據的發(fā)展出現了一種好的態(tài)勢。但仔細看,可以發(fā)現:聯接學派遵循的是一條仿生學的道路,其意圖對大腦進行仿真,但研究表明,人腦大約有1000億個神經元,復雜程度難以估量,對這樣一個復雜的系統(tǒng)進行掃描、建模幾乎是不可能完成的任務,因此聯接學派遇到最難突破的一個瓶頸。⑦尼克:《人工智能簡史》,人民郵電出版社2017年版,第115頁。而行為學派認為智能行為產生于主體與環(huán)境的交互過程中,將復雜行為分解成單一行為進行研究,但這種智能系統(tǒng)是自上而下的,設計過程中很難把握全局整體性,如何與自上而下的系統(tǒng)設計方法相結合,構建混合系統(tǒng)便成為行為學派無法逾越的鴻溝。⑧徐心和、么健石:《有關行為主體人工智能研究綜述》,載 《控制與決策》2004年第3期。
從三大學派的研究現狀來講,人工智能的發(fā)展停滯不前,無論是阿爾法狗戰(zhàn)勝圍棋世界冠軍還是無人駕駛汽車的推廣使用,不過是人工智能在以往研究水平上的優(yōu)化,要想突破 “奇點”,到達所謂的 “強人工智能時代”是一個想象的烏托邦。也許正如某些學者所說的那樣,奇點理論最壞的影響無疑是它逐漸成為既不研究歷史與哲學,也不學習科學,甚至連計算機科學都不曾涉獵的高科技怪人的宗教信仰。⑨[美]皮埃羅·斯加魯菲:《智能的本質:人工智能與機器人領域的64個大問題》,任莉、張建宇譯,人民郵電出版社2017年版,第4頁。極度夸大的奇點理論,是人類畏懼人工智能的重要原因。
量變何以引起質變,奇點技術何以實現。從人工智能的數學原理來講,從技術層面分析,有無數條難以逾越的鴻溝。過早的將人工智能用刑法規(guī)制是否存在問題,是否會阻礙科技的發(fā)展,人工智能犯罪其本身又何以承擔?這些都值得我們深思。
奇點理論不切實際,那現在所謂人工智能的 “獨立意志”又從何談起?突破設計者或編制者的意志是否是人工智能所謂的 “獨立意志”?接下來,筆者將從數學層面對該 “意志自由”進行分析,數學是多種學科的基礎語言,人工智能也必須借用數學工具。⑩周志敏、紀愛華:《人工智能:改變未來的顛覆性技術》,人民郵電出版社2017年版,第4頁。
1.電腦下棋:從 “暴力窮舉”到 “蒙特卡諾”
下棋一直是人工智能的挑戰(zhàn),自然成為人工智能的標志之一。①參見前引⑦,尼克書,第117-126頁。從二十世紀九十年代IBM公司生產的電腦 “深藍”擊敗國際象棋冠軍卡斯帕羅夫到2016年谷歌公司推出的 “AlphaGo”戰(zhàn)勝圍棋世界冠軍李世石,科學的創(chuàng)舉引發(fā)熱議的同時,也帶來憂慮。從應然層面講,人工智能確實實現的不是設計者或編制者的意志,因為設計者或編制者的下棋水平不可能超過世界冠軍,但這就能說明人工智能突破程序的設置范圍,實現了自己的意志,就是所謂的 “意志自由”嗎?筆者并不這樣認為。
“深藍”采用的是 “暴力搜索法”。這一算法是計算機編程的常用方法,在找不到解決問題的規(guī)律時,就按某種順序對所有可能是解的選項進行逐一枚舉和檢驗,從中找出那些符合要求的解。在卡斯帕羅夫每落下一個棋子后,“深藍”就將剩下棋盤上的所有走法及結果都算一遍,并對這些結果評出一個分數,從中選出分數最高也就是最好的那種走法,然后下上一枚棋子,其每下一步棋,都要經歷巨量的計算過程。國際象棋要計算可能的棋步大約是10的四十次方,計算機還能應付。對于圍棋,要計算可能的棋步大約是10的170次方,計算機根本無法完成。所以,適用于象棋的暴力搜索法不再適用于圍棋,這也就是為什么從 “深藍”到 “阿爾法狗”跨越了二十余年。這二十來年,為解決該問題,找到結合概率的 “蒙特卡洛方法”,該算法以某種事物出現的頻率來估計這一隨機事件的概率?;趯υ撍惴ǖ膬?yōu)化,提出了 “蒙特卡洛樹搜索”。②參見前引⑧,王驥書,第215-224頁?!懊商乜鍢渌阉鳌本褪菍?“走棋網絡”(給定當前局面,預測和采樣下一步的走棋)、“快速走子”(在適當犧牲走棋質量的條件下提高速度)、“價值網絡”(給定當前局面,估計雙方勝率)三個部分串聯成一個完整的系統(tǒng)。該算法并非窮盡一切走法,而是先完成數十步計算后,剩下的靠概率模擬算法來推算獲勝的可能,并據以選擇棋步。③黃孝平:《當代機器深度學習方法與應用研究》,電子科技大學出版社2017年版,第73頁。就算如此,“阿爾法狗”的身軀還是十分龐大。④《人工智能簡明知識讀本》編寫組:《人工智能簡明知識讀本》,新華出版社2017年版,第139頁。
從 “深藍”到 “阿爾法狗”,從 “暴力窮舉”到 “蒙特卡諾”,人工智能的發(fā)展是遲緩的,二十年的時間,雖說圍棋在考量智商方面有絕對的話語權,人工智能看似在智力方面超越了人類,但其本質仍是算法的優(yōu)化,所謂突破程序范圍的 “獨立意志”,也不過是數學在人工智能領域發(fā)揮的絕對作用。
2.播音主持:從 “神經網絡”到 “深度學習”
紀錄片 《創(chuàng)新中國》運用人工智能技術重現已逝配音大師李易的聲音;微軟人工智能機器人小冰,空降 《看東方》節(jié)目,擔起晨間天氣播報的工作;《西安新聞》節(jié)目引入機器人主播 “石榴娃”與主持人搭檔,圓滿完成當期節(jié)目……這些無不給觀眾帶來新奇感受。⑤周春光:《人工智能環(huán)境下主持人即興口語的發(fā)展態(tài)勢》,載 《新聞研究導刊》2018年第9期。或基于噱頭,或作為創(chuàng)新,人工智能主播事實上已經在廣播電視業(yè)界嶄露頭角。⑥李紅:《人工智能與主持人的替代性淺析》,載 《中國廣播電視學刊》2018年第6期。
而播音主持的關節(jié)點就是對光學和聲學信息的處理,這兩項技術的算法經歷了從 “神經網絡”到 “深度學習”。以圖像識別為例,人工智能主持人可以根據現場的情況區(qū)分不同的物種。在早期的時候,基于 “神經網絡”的圖像識別也是存在的,但準確率較低,它可能會把蹲在屋頂的貓和騎在人頭上的貓識別為不同的貓,又會把狗和狼歸類為同一種動物。這是 “神經網絡”算法自身的缺陷所致,多層神經網絡在面對大數據時,需要人為提取原始數據的特征作為輸入,必須忽略不相關的變量,同時保留有用的信息,這個要求對于人類實屬艱難。
科學家經過多年摸索,最終實現基于 “深度學習”的圖像識別,解決了 “神經網絡”人為提取特征的弊端,將準確率提高了數倍。深度學習自動選擇原始數據的特征,使所有特征完全在網絡中自動呈現,而并非出自人工設計。少了人為提取特征導致的誤差,無需對機器做事先訓練,人工智能自身可通過深度學習在海量數據中挖掘有用數據,去發(fā)現不同物種之間的差異、不同個體之間的特殊映射,然后去分析、總結、預測并得出結論。相對于 “神經網絡”,“深度學習”在精度、準確度、速度上都有質的提高。
在分析完播音主持的原理之后,我們還會驚嘆于人工智能的魔力,還會恐懼人工智能可能會取代人類的想法?否也。首先,我們肯定程序的設計者或編制者對情況不可能事先一一列舉,智能播音主持人所做的每一個動作或所講的每一句話,都是自我進化自我決策的結果,但這樣就能認為實現了人工智能的 “獨立意志”嗎?從以上分析我們可以得出答案,主持機器人的智能表現為對語音識別、大數據以及 “深度學習”算法等技術的綜合運用。⑦參見前引④,《人工智能簡明知識讀本》編寫組書,第142頁。所謂的 “獨立意志”只是在算法該有的范圍內,結論蘊含在前提之中,作出的應作出且不應錯誤的行為。
3.智能汽車:從 “經典數學”到 “模糊推理”
國外,無人駕駛汽車已行駛在大街小巷,國內也在緊鑼密鼓的研究中。未來智能汽車的推廣使用,是毫無懸念的事。那智能汽車自動行使的原理是什么?對于智能汽車根據車況環(huán)境的變化做出的行為是否可以看做是它 “獨立意志”的體現?筆者認為,非也。
經典數學是常接觸到的數學分支,它能解決生活中絕大部分事情。它將自己的表現力限制在那些有明確外延的概念和事物上,規(guī)定每一個集合必須由確定的元素構成,元素對集合的隸屬關系是明確的。其對應計算機系統(tǒng)的二值邏輯運算,0或1,早期運用于計算機上的數學一般都是經典數學,用于判斷是與非。
但現實世界并非那么明確清晰,有些概念具有模糊性,難以劃定界限,比如年老與年幼。⑧周潤景:《模式識別與人工智能:基于MATLAB》,清華大學出版社2018年版,第99頁?;谀:评淼漠a品在生活中隨處可見,比如智能洗衣機。⑨魯斌等:《人工智能及應用》,清華大學出版社2017年版,第46頁。也就是說,現實生活中的事物不是非黑即白,還存在灰色地帶。運用在人工智能中的模糊推理就是這個道理。⑩經典集合使用特征函數來描述,模糊集合使用隸屬度函數作定量描述,定義一個模糊集合就是定義域中各個元素對該模糊集合的隸屬度。至今為止,確定隸屬度函數的方法有模糊統(tǒng)計法、例觀法、專家經驗法以及二元對比排序法四種。
著名的 “禿頭悖論”可以說出經典數學和模糊推理的差異。在判斷一個人是否是禿子時,比如規(guī)定500根頭發(fā)不是禿子,經典推理會得出499根頭發(fā)是禿子而501根頭發(fā)不是禿子的結論,而模糊推理會引入一個隸屬度的概念,以程度的形式表現某人是禿頭的程度為0.3等等。很顯然,模糊推理比精確推理更具合理性。
所以,在 “模糊推理”視野下的 “獨立意志”并不是哲學上的 “獨立意志”。運用模糊推理算法的人工智能,在為一定行為時是不確定的,是可能根據環(huán)境的變化而變化的。關于自動駕駛汽車,人類不可能對駕駛的路徑和遇到的情況都事先規(guī)劃完全。自動駕駛汽車會安置大量高清攝像頭和傳感器,這些硬件設備會收集汽車附近的圖像并將其輸入汽車 “大腦”中進行處理、分析,從而判斷出汽車附近的實時路面情況,進而調整車速、車距和車位。①唐進民:《深度學習之PyTorch實戰(zhàn)計算機視覺》,電子工業(yè)出版社2018年版,第80-89頁。我們可以肯定這不是人類賦予它的能力,而是人類設計的算法而做出的處理。在很多情況下,可能其某一舉動連設計者都不太清楚,因為在模糊推理的視野下,程序里涵蓋的算法是復雜的、不確定的,這些不確定性以及模糊性使設計者無法完全掌握,所謂突破程序設定范圍、超越設計者設計意圖的行為,不過是模糊推理下該有的行為。
對于人工智能,人們因為不了解所以畏懼。人們畏懼什么呢?可能是突破程序設定范圍的人工智能,按照自己的 “意志”去實施危害社會的行為??伤娴哪軌蛲黄瞥绦虻脑O定范圍,擁有自己獨立的 “意志”嗎?從數學的不同角度對 “獨立意志”進行分析可知,所謂 “獨立意志”不是那么回事。人工智能最核心的東西不過是數學中的各種算法,而程序里涵蓋的這些算法是復雜的,更是不確定的,隨機性和模糊性使得程序設計者都無法完全掌握所有情況。也就是人工智能依舊是在程序設定的范圍內實施行為,如果出現 “突破”設計者預想的行為,那只能說明設計者對程序的掌握,或對算法的掌握是不完全的。
再者,并不是說我們不理解機器在做什么,事實上,我們編寫程序,輸入機器,從外部輸入人工智能運作的始發(fā)動力,接著就是算法引發(fā)一些自動動作,人類被排除在循環(huán)之外,被動接受結果。②[英]瑪格麗特·博登:《人工智能哲學》,劉西瑞、王漢琦譯,上海譯文出版社2001年版,第11頁。當成千上萬臺機器交互并且成千上萬種算法 (人類完全理解每一種算法)以驚人的速度運行時,人類不得不相信計算的力量,是速度成就了 “超人類”智能,而不是我們無法理解的智能,是遠遠遜色于我們、計算速度非常快的智能。危險在于沒有人能確保該算法設計正確,尤其是當它與眾多算法交互時。③參見前引⑨,皮埃羅·斯加魯菲書,第169頁。比如深度學習,基于大數據,設計者不能預料到該算法所要達到的程度,當它學習到一種程度,便會出現所謂的 “獨立意志”。
如今,人工智能雖取得突破性進展,但在意識領域,那仍是一條 “不可觸碰的星河”。無論人工智能怎么發(fā)展,缺乏意識的系統(tǒng)永遠都是機器,不論它在某些領域表現得多么出色,依然改變不了像鋤頭、火與原子彈一樣的角色。④參見前引⑧,王驥書,第296頁。所以,那些認為人工智能具有 “獨立意志”,將其危害社會的行為主張用刑法規(guī)制的學者大多是對人工智能有誤解。
由上可知,人工智能不具有獨立意志,關涉人工智能犯罪是否有必要規(guī)制以及如何規(guī)制呢?從類型化的角度來看,人工智能技術帶來的刑事風險主要表現兩體三面。一體是科技下傳統(tǒng)犯罪的轉型,另一體是人工智能技術引發(fā)的新犯罪。第二體可分為兩面:一面為對人工智能本身的犯罪,另一面是人工智能自身引發(fā)的犯罪。對于科技下傳統(tǒng)犯罪的轉型以及對人工智能本身的犯罪,用傳統(tǒng)的刑法處罰行為人即可。而人工智能自身引發(fā)的犯罪是否有必要規(guī)制及如何規(guī)制才是問題的癥結。“脫離”設計者意志的人工智能,因其隨機性、不確定性以及模糊性,人類對該行為實施情況事先難以預料,無論從廣度還是深度來講,人工智能犯罪只會比自然人犯罪帶來更大的社會危害性。因此,人工智能犯罪有必要規(guī)制,但人工智能不是刑事主體,不能強行將刑事責任施加于人工智能,那么人工智能 “突破”程序范圍,實現 “獨立意志”的行為刑法應如何規(guī)制?
1.刑事政策:立法前評估
博登海默曾言:“使用強制性制裁的需要愈少,法律就愈能更好地實現其鞏固社會和平與和諧的目的?!毙谭ú⒎欠揽仫L險的最佳手段,在一定程度上,刑法單方面的作用是微弱的。為防止刑法機能擴張,也為了避免民法、行政法等其他法律法規(guī)成為 “僵尸法”,刑法應保持謙抑性。⑤汪熱:《食品安全刑法規(guī)制的反思——以風險社會為視角》,載《法制與社會》2013年第5期。人工智能危害社會行為的出現,不能首先想到和用到的是刑法,應站在整個法律體系乃至社會治理體系中去研究、考察和定位,從而確定要不要啟動刑法規(guī)制和刑法如何予以規(guī)制??傊?,在立法前,應從社會治理的視角出發(fā),是否規(guī)制,如何規(guī)制,要事先予以考慮,目前解決風險社會中的各種問題,更多還是要靠良好的社會政策。
2.罪刑法定原則:界限的不可突破性
“罪刑法定原則”是刑法的基本原則,也是最核心的原則。在人工智能的發(fā)展帶來的不可避免的風險時,不能主張以犧牲罪刑法定原則和大力壓縮公民自由空間以求得社會的安全。在法律沒有明文規(guī)定時出現的危害行為,不能無限制地擴大解釋法律來應對,以犧牲罪刑法定原則為代價的做法對于法治國家是致命的。筆者認為,面對未來不可預料的風險,可以在刑事政策及社會治理的考察之后,在刑法規(guī)制必要時設置相應的抽象危險犯,但對于抽象危險犯,應該有一定的限制,比如說,只能針對危害社會和國家型犯罪、設置的法定刑不能過重等??傊镄谭ǘㄔ瓌t的不可突破性是我們應堅守的底線。
3.不得已原則:科技發(fā)展的不可阻礙性
人工智能引起的風險屬于一種科技風險,是不可避免的。我們應設定一定的風險允許范圍,在范圍內的危害行為不需要懲罰任何人。但超出該范圍,如何制裁?民法、行政法以及刑法上的規(guī)定要銜接適當,避免出現法律真空或法律漏洞,以損法律權威。因其不可避免性,對人工智能的設計者、使用者、監(jiān)管者不能有太高要求。對于他們不能預料到的行為,刑法不能太過苛責,只有在未盡到注意義務,而且造成了重大損失的前提下,才能給予處罰。其一是為了科技的持續(xù)發(fā)展,防止相關人員因害怕未知行為的可能性,在實驗上畏手畏腳;其二是基于罪刑相適應原則,其主觀惡性小,刑罰應保持其謙抑性。對于利用人工智能故意實施犯罪的必須嚴懲,但對于人工智能本身 “意志”實施的犯罪只能處罰那些有特定注意義務和監(jiān)管義務的人。
1.刑法規(guī)制的主體:人而非人工智能
科技攜帶的風險可能導致災難,用法律提前介入,具有一定的前瞻性和可行性。但對人工智能“獨立意志”危害社會的行為,懲罰人工智能本身的想法是錯誤的。從數學的角度分析得知,人工智能只是人類的高科技產品,其依附于人類的存在。正如設計 “中文房間”的約翰·瑟爾所說:“計算機處理信息的方式和人腦是不同的,能夠讓人相信他是有意識的,那也只是一種模擬而已,計算機永遠不會有意識。”⑥[英]卡魯姆·蔡斯:《人工智能革命:超級智能時代的人類命運》,張堯然譯,機械工業(yè)出版社2017年版,第59頁。那些想用刑法規(guī)制人工智能本身、修改刑罰體系的想法是不切實際的,不僅刑罰的功能得不到滿足,還會導致道德倫理上的混亂。所以,首先應轉變人工智能犯罪的觀念,人工智能不是刑法規(guī)制的對象,刑法要規(guī)制的只能是人工智能背后的人,如其設計者、管理者、使用者等。
2.為人工智能設定相關的監(jiān)管人員
基于人工智能犯罪的特殊性,應為人工智能設定相關的監(jiān)管人員,由精通人工智能技術的專業(yè)人員進行監(jiān)督管理。因其犯罪的不可預測性,設計者可以事先在人工智能的程序里植入相關自動毀棄程序,當人工智能 “突破”程序范圍,實施 “自由意志”的危害行為時,程序自動毀棄;如果是人工智能實體,那就在實體內植入自毀芯片,只要產生犯罪 “意識”時,相關毀滅系統(tǒng)自動介入,使其變?yōu)闆]有任何威脅的機器。只有人類重新為其輸入后,才能恢復相關功能。而這個毀滅系統(tǒng)就由監(jiān)管人員負責安裝與維護。如果監(jiān)管者沒有履行好監(jiān)管職責而導致人工智能 “犯罪”的話,監(jiān)管者應負相關責任。
建議在 《刑法》中增加規(guī)定,《刑法》第××條 [監(jiān)管失職罪]:對人工智能賦有監(jiān)管職責的人員,由于沒有履行或充分履行監(jiān)管義務,致使人工智能實施危害社會的行為,后果嚴重或造成重大損失的,處拘役并處罰金;后果特別嚴重或造成巨大損失的,處兩年以下有期徒刑、拘役并處罰金。因失職構成犯罪,在刑罰執(zhí)行完畢三年期內又犯該失職罪的,構成累犯,從重處罰,并禁止其再從事相關行業(yè)。
人工智能是人類創(chuàng)造、應用和管理的對象,不具有也不應具有人的 “智能”,對其 “突破”設定的程序范圍,實現 “獨立意志”的危害社會行為的數理分析可知,人工智能的 “意志”,不是哲學或刑法學上的 “意志”,賦予其刑事主體資格予以刑法評價沒有任何理論根據和現實可行性。人工智能危害社會,脫離人類 “控制”的發(fā)展軌道,應該規(guī)范相關人的行為,而不是人工智能本身。本文對人工智能危害社會行為的刑法規(guī)制問題只做了一些初步的分析和探討,并未涉獵如何具體規(guī)制的問題。作為一個全新的問題,人工智能的諸多方面都值得更深層次的探討。