部雪梅 巴南冰
摘 要:從分類上來看,人工智能可以分為弱人工智能和強人工智能。刑法學界對弱人工智能的工具屬性、無需承擔刑事責任能力已達成共識。但是對強人工智能能否承擔刑事責任能力,則存在較大的分歧。強人工智能具有自主學習的能力,具有辨認能力與控制能力。承認強人工智能需承擔刑事責任能力是有效管理強人工智能秩序以及解決強人工智能犯罪的有效途徑。(注:若無特別說明下文所稱的的人工智能均為強人工智能)。
關鍵詞:人工智能;刑事責任;受刑
一、問題的提出
人工智能技術(shù)的飛速發(fā)展,人工智能時代已來臨。隨著AlphaGo戰(zhàn)勝世界圍棋冠軍柯潔,智能機器人索菲亞獲得公民身份,可與人類進行交流等一系列人工智能的快速發(fā)展,人工智能具備自主學習的能力和自主行為的能力,人類開始擔憂人工智能在某些方面的能力會超過人類。正因為如此,人工智能可以在規(guī)定的程序內(nèi)實施積極正面的行為,也可能自主實施某種危害行為。如果人工智能自主實施某種危害行為,導致嚴重結(jié)果的發(fā)生,人工智能可以獨立承擔刑事責任嗎?此時,人工智能的行為是自主決定與執(zhí)行的,早已超過了預設程序的設定范圍。有的學者認為在此種情形下,人工智能不具備刑事責任的能力。[1]有的學者認為無論是在現(xiàn)在還是將來,人工智能都不是適格的刑事責任主體。[6]然而本文認為,隨著人工智能技術(shù)的快速發(fā)展,人工智能如何在人類社會中與人類有序共存成為了一個不可忽視的問題,其具有深度學習的能力,也可自主的實施行為,因此當人工智能實施某種危害行為后,自主的承擔刑事責任能力是可行的且是應該的,人類社會應當承認強人工智能的刑事責任能力。
二、確立人工智能刑事責任能力的必要性
反對人工智能承擔刑事責任能力的學者認為就目前人工智能技術(shù)的發(fā)展水平而言,智能機器人是在人類設計和編制程序內(nèi)實施一定行為的。第一,就技術(shù)層面而言,人工智能所擁有的知識總量達到甚至是超過人類智能是有可能的,但認為人工智能具有人類的心智進而反控人類的觀點,則無異于癡人說夢。人工智能絕對不可能超越人類,所謂的奇點來臨的論斷就是危言聳聽。人工智能的技術(shù)“奇點”的到來是遙不可及的。[6]第二,人工智能具有工具的屬性。工智能本質(zhì)上是一種工具,是為了追求更好的生活目標所創(chuàng)造出的科技產(chǎn)物。[3]人工智能的目的便是將人工智能應用于多個領域,代替人類自身的活動,從而在一定程度上解放人類的雙手和大腦。從這個意義上來看,人工智能若脫離人類,則不存在獨立的權(quán)利與價值,只具有利益上的附屬性質(zhì)。
從否定人工智能承擔刑事責任學者得觀點來看,否定的主要原因在于人工智能技術(shù)“奇點”的到來還在猴年馬月,同時,不管人工智能的“智能”如何發(fā)展,其不可避免的存在工具屬性的特征。但是本文認為,上述理由具有明顯的缺陷。首先,現(xiàn)階段的人工智能還是弱人工智能,弱人工智能機器人不具有自主意識和意志,不能夠獨立“思考”,其“思想”和行為無法超越人類設計和編制的程序范圍,無法成為刑事責任主體,且弱人工智能機器人的“智能”無論有多大提高,仍然擺脫不了工具屬性(其實已經(jīng)與一般工具存在很大差異)的特征,只會影響刑事責任轉(zhuǎn)移和分配。但是,在將要到來的強人工智能時代,強智能機器人將具有自主意識和意志,是能夠超出人類設計和編制的程序?qū)嵤┬袨椋詫崿F(xiàn)自身的意志的。具體理由如下:
人類信息社會到智能社會只用了短短幾十年的時間,強人工智能時代的到來并非遙不可及??萍际且话央p刃劍,人工智能的發(fā)展不僅給人類帶來了諸多便利,對人類造成的傷害也屢見不鮮。因法律調(diào)整社會關系具有滯后性的特點。若法律調(diào)整人工智能不及時,出現(xiàn)的負面效果也許是人類無法承受的。刑法作為調(diào)整社會關系的一種手段,應前瞻性地積極應對。
人工智能發(fā)展的初級目的是代替人類從事某一些領域內(nèi)的工作,解放人類的雙手和提高工作效率,其最終目的是最大程度的解放社會生產(chǎn)力。而要達到這一目的則需要提高人工智能中的“智能”部分。在弱人工智能的發(fā)展階段,人工智能具有工具屬性是毋庸置疑的,但是隨著人工智能的“智能”不斷發(fā)展和完善,到了強人工智能時代,擺脫其工具屬性是大有可能的,而在事實上,對“人工智能”四個字進行解析,我們也不難得出智能機器人與社會生活中的普通工具具有實質(zhì)意義不同的結(jié)論。理論上一般認為,“智能”只有自然人才具有,其他任何動物和物品均不具有“智能”,智能機器人與一般機器的區(qū)別就在于其具有自然人才具有的“智能”。那么,人工智能實際上就是自然人創(chuàng)造了只有自然才具有的“智能”。就此而言,我們或許可以得出這一個結(jié)論:人工智能時代其實就是將“機器”變成“人”甚至“超人”的時代。如果這一結(jié)論確實存在的話,我們還可能將現(xiàn)時存在或者將來必然出現(xiàn)的智能機器人簡單地理解為是社會生活中的普通工具嗎?答案當然是否定的??梢钥吹剑幢阍诋斍暗娜跞斯ぶ悄軙r代,智能機器人的行為有時會超出人類的想象和控制。全自動駕駛汽車造成的事故接二連三、微軟公司設計的聊天機器人Tay出人意料地發(fā)表種族歧視言論。在弱人工智能時代,犯罪的方式悄然發(fā)生了變化,等強人工智能時代來臨時,犯罪方式與手段可能更加難以預料。由此,人工智能時代已不同于農(nóng)業(yè)時代也不同于信息時代,弱人工智能就存在著人類無法預料和控制的對人類傷害的情形。在此種的社會背景之下,不能一味堅持人工智能只具有工具屬性,即使人類已經(jīng)無法控制的狀態(tài)下,也應該重新看待人工智能的本質(zhì)特征,審視人工智能是否是在其自我意志的支配下實施的行為。如果具備刑法刑事責任主體的特征,則應賦予其刑事責任主體地位,讓其承擔刑事責任能力。
三、人工智能具有辨認能力與控制能力
否定人工智能承擔刑事責任的學者認為人工智能不具有辨認能力與控制能力理由主要有以下幾點:一是從辨認能力分析來看,辨認能力是指行為人對自己的行為的社會性質(zhì)、意義及刑事違法性具有一定的理解與認識,而人工智能對于事物的認識及對法規(guī)的熟知,并不是人工智能能夠理解與體驗,而是基本數(shù)據(jù)與編程,因此人工智能并不具備真正的意識,其無法理解違法與合法背后真正的含義。二是從控制能力的角度來看,控制能力是指行為人具備決定自己是否以行為觸犯刑法的能力。乍眼一看,人工智能對自己的行為具有決定和控制的能力,但是深究可以發(fā)現(xiàn)此種控制能力,與人類控制行為的能力差異較大,人工智能的選擇是否實施自己行為的能力是非常機械、程序化的,并不是真正意義上的控制自己行為的能力,這種“控制”和“決定”只是形式上類人的行為,不具有社會及法律意義。
否定人工智能承擔刑事責任能力的主要理由在于人工智能不具有辨認能力與控制能力的主要理由在于人工智能認識事物的能力與決策自己行為的能力均是出于數(shù)據(jù)的堆積和程序的設定,人工智能本身并不能理解和選擇行為。但是筆者認為人工智能具有辨認和控制自己行為的能力。首先,在刑法中規(guī)定刑事責任年齡,表明人類并不是一出生便可具有辨認與控制自己行為的能力,而是隨著不斷的學習以及與外界進行交流,便具備了認識、理解與控制自己行為的能力。從人類具備辨認能力與控制能力的過程來看,“學習”是舉足輕重的,而對人工智能而言,其強大的學習能力毋庸置疑的,無論是AlphaGo還是索菲亞,均具有深度學習的能力。人工智能雖然無法隨著時間的推移,如同人類幼崽一樣慢慢的學習各種社會規(guī)則與倫理,但是其可以在設計者的幫助下,通過其深度的學習,掌握社會的各種規(guī)則與法律。其次,至于是否是真正的理解還是被動的接受則無關緊要,因為刑法中對主觀方面的要求是行為人對行為本身具有辨認能力即可,而不是必須要理解行為的意義。比如行為人將被害人殺害,只要行為人可以辨認其行為是殺人行為即可,至于殺人的目的不影響其行為構(gòu)成犯罪的判斷。而且在不同的年代和不同地區(qū)、國家,行為人背后行為的意義指向都是不同的,比如在大陸地區(qū)是沒有規(guī)定通奸罪,而在臺灣省的刑法中則有通奸罪的規(guī)定。筆者認為將人類社會的道德規(guī)范和行為準則通過編程的形式賦予人工智能使其深度學習并掌握與孩童在成長過程中通過學習和被灌輸各種道德規(guī)范和行為準則在刑法的適用這一層面上是沒有區(qū)別的,因為刑法規(guī)定的是人類道德規(guī)范中的“大是大非”,且是以“不能為”或“必須為”何種行為這樣的“是或否”的形式加以確定的,對于以二進制為運算模式的人工智能來說或許遵守起來比自然人更加容易。
四、人工智能具有受刑的能力
否定人工智能不能承擔刑事責任的又一重要理由即便是人工智能在自我意志驅(qū)使的情形下實施的有害行為,但是人工智能無法感受現(xiàn)有刑罰對其遭受的痛苦,從預防犯罪的角度來看,達不到一般預防與特殊預防的效果。從人工智能的特征來看,其沒有生命、財產(chǎn)等權(quán)利,因此不管是生命刑、自由刑、財產(chǎn)刑還是資格刑對人工智能均無法適用。在此種狀態(tài)下,對人工智能實施刑罰處罰將毫無意義,既無法教育、改造人工智能,也達不到警示、教育其他未犯罪的人工智能的效果,對人工智能實施刑罰無法達到刑罰的目的。
筆者認為上述學者的觀點存在誤區(qū),事物是不斷發(fā)展變化的,比如我國刑法從一開始并未規(guī)定單位是刑事責任的主體,隨著經(jīng)濟的不斷發(fā)展,單位亦可實施犯罪行為,刑法中便規(guī)定了刑事責任主體由原來的單一自然人主體變?yōu)楝F(xiàn)在的自然人和單位兩種主體。而刑罰的種類有古至今更是發(fā)生了翻天覆地的變化,經(jīng)歷了生命刑為主到肉刑為主,再發(fā)展到如今的自由刑為主。由此可見,當社會環(huán)境等條件發(fā)生變化時,法律制度也會隨之發(fā)生變化,不存在一成不變的制度,上述學者提出的“因缺乏合適刑罰種類而否定智能機器人刑事責任主體地位”的觀點忽視了社會科學發(fā)展的一般規(guī)律。筆者認為,當人工智能具備辨認能力及控制能力的條件下,便具有刑事責任能力,應該將其增加為刑事責任主體,至于刑罰問題,現(xiàn)有的刑罰體系對人工智能無法適用的問題,可以增加專門的針對人工智能的罪名,懲罰措施包括刪除數(shù)據(jù)、銷毀人工智能等。
結(jié)語
隨著科學技術(shù)的不斷發(fā)展,強人工智能通過深度學習,擁有辨認能力與控制能力并不是遙遙無期的事情,其可能通過自主的行為實施對人類有益的行為,也可能實施違法犯罪的行為,為此,承認其具有刑事責任能力,規(guī)范人工智能的行為對人工智能的健康、有益的發(fā)展具有至關重要的作用。刑法作為社會的最后一道防線,對人工智能的規(guī)制必不可少,為此,刑法相關規(guī)定也需作出相應改變,以促進人類社會持續(xù)健康發(fā)展。
參考文獻:
[1]彭景理.論人工智能時代智能機器人的刑事責任能力[J].大連理工大學學報(社會科學版),2020,41(02):71-79.
[2]葉良芳.人工智能是適格的刑事責任主體嗎?[J].環(huán)球法律評論, 2019(04):67-82.
[3]于沖.刑事合規(guī)視野下人工智能的刑法評價進路[J].環(huán)球法律評論, 2019(06):40-57.
[4]王耀彬.類人型人工智能實體的刑事責任主體資格審視[J].西安交通大學學報:社會科學版,2019, 39(01):144-150.
[5]劉憲權(quán).對強智能機器人刑事責任主體地位否定說的回應[J].法學評論,2019(05):113-121.