張 斌
1956 年的達(dá)特茅斯會(huì)議最早提出人工智能(Artificial Intelligence)的概念。作為開(kāi)啟人工智能發(fā)展新紀(jì)元的標(biāo)志,達(dá)特茅斯會(huì)議同時(shí)也指明了人工智能的未來(lái)方向:“精確描述人的學(xué)習(xí)能力和智慧并利用機(jī)器人進(jìn)行模擬?!盵1]所謂人工智能,是指通過(guò)深度學(xué)習(xí),模擬人類的思維和智慧,用以替代部分人類活動(dòng)的一種計(jì)算機(jī)程序。人工智能體,指為實(shí)現(xiàn)人類感知、推理、決策、情緒、語(yǔ)言、行為等活動(dòng),由以算法、人工神經(jīng)網(wǎng)絡(luò)和大數(shù)據(jù)等技術(shù)為基礎(chǔ)的計(jì)算機(jī)控制系統(tǒng)和用來(lái)執(zhí)行系統(tǒng)命令的載體所組成的客觀實(shí)體。方興未艾的人工智能技術(shù)現(xiàn)如今已廣泛而深刻地參與人類生產(chǎn)生活,并在無(wú)人駕駛、醫(yī)療、金融等領(lǐng)域發(fā)揮舉足輕重的作用。
然而,當(dāng)前的人工智能技術(shù)尚未發(fā)展完善,依然面臨諸多障礙,如在通用性,舉一反三的情景應(yīng)對(duì)能力,情感、倫理道德理解能力等方面明顯不如人類。隨著科學(xué)研究的不斷深入,人工智能必將突破現(xiàn)有技術(shù)藩籬,向強(qiáng)人工智時(shí)代能跨越。人工智能的自主程度愈高,對(duì)其行為的預(yù)測(cè)和控制就愈加困難,這引發(fā)了人類對(duì)人工智能脫離人類控制的擔(dān)憂。即使暫不考慮將來(lái)可能的危機(jī),眼下人工智能發(fā)展的負(fù)面效應(yīng)諸如特斯拉汽車致人死亡案、紹興人工智能詐騙案等人工智能犯罪已經(jīng)足以引人關(guān)注,刑法對(duì)人工智能引發(fā)社會(huì)風(fēng)險(xiǎn)的應(yīng)對(duì)尤為重要。刑法理論始終無(wú)法回避的問(wèn)題是人工智能刑事犯罪對(duì)刑法人類中心主義造成的沖擊:人工智能體是否具備刑事責(zé)任主體資格?賦予人工智能體刑事責(zé)任主體地位是否可以實(shí)現(xiàn)刑法的目的和功能?
人工智能所涉及的刑事犯罪,歸納起來(lái)可分為兩種情形,第一種情形是其在特定領(lǐng)域具備智能,只能在程序設(shè)定的范圍內(nèi)執(zhí)行命令,也被稱為弱人工智能;第二種情形是其在所有領(lǐng)域具有通用性,能夠在設(shè)定程序之外自主決策,獨(dú)立行為,這種人工智能被稱為強(qiáng)人工智能。弱人工智體能實(shí)現(xiàn)的是人的意志,只能視作人的工具,造成的法益侵害,應(yīng)當(dāng)由設(shè)計(jì)者、制造者和使用者承擔(dān);強(qiáng)人工智能體由于其行為的不可預(yù)測(cè)性,究竟由其自行承擔(dān)刑事責(zé)任還是由自然人承擔(dān)刑事責(zé)任還存在理論爭(zhēng)議,因此本文以強(qiáng)人工智能體為討論對(duì)象。如果將強(qiáng)人工智能體視作“人類的工具”“法律關(guān)系的客體”,那么在造成法益侵害時(shí)其本身并不承擔(dān)刑事責(zé)任,被害人可以依據(jù)《民法典》關(guān)于侵權(quán)責(zé)任的相關(guān)規(guī)定請(qǐng)求產(chǎn)品生產(chǎn)者、銷售者承擔(dān)民事賠償責(zé)任,甚至可以追究生產(chǎn)者、銷售者的刑事責(zé)任。如果將強(qiáng)人工智能體視作“主體”,勢(shì)必會(huì)顛覆當(dāng)前的刑法人類中心主義理論體系,并建立“自然人、法人、人工智能體”為中心的三元刑事制裁體系。一般來(lái)說(shuō),特定主體之所以能夠成為法律上的“人”,是因?yàn)槠浔毁x予法律人格并享有權(quán)利,承擔(dān)義務(wù)。法律人格是連接法與法律主體的介質(zhì),作為部門法的刑法也不例外。在刑事法律關(guān)系中,特定對(duì)象能否成為刑事責(zé)任主體,當(dāng)以法律人格為先決條件,而非先入為主地判斷刑事責(zé)任能力問(wèn)題。具有法律人格不一定具有刑事責(zé)任能力,但具有刑事責(zé)任能力一定具有法律人格。換言之,法律人格問(wèn)題是判斷刑事責(zé)任主體資格的邏輯前提。在此意義上,如果要考察強(qiáng)人工智能體的刑事責(zé)任主體資格,就必須先解決能否賦予強(qiáng)人工智能體法律人格的問(wèn)題,即強(qiáng)人工智能體應(yīng)具備刑事責(zé)任主體資格的條件和基礎(chǔ)。本文認(rèn)為,未來(lái)強(qiáng)人工智能體應(yīng)當(dāng)成為刑事主體,而非法律關(guān)系的客體。
行為自主性不斷增強(qiáng),逐步突破輔助工具屬性的強(qiáng)人工智能體是現(xiàn)有以自然人為中心的刑法體系無(wú)法消減的社會(huì)風(fēng)險(xiǎn),法律人格是決定未來(lái)強(qiáng)人工智能體法律關(guān)系地位的關(guān)鍵,也是厘清刑事責(zé)任、化解技術(shù)風(fēng)險(xiǎn)的途徑。法律人格作為實(shí)現(xiàn)特定目的的立法技術(shù),賦予強(qiáng)人工智能體完全具有理論及現(xiàn)實(shí)基礎(chǔ)。
法律人格,概言之,即“私法上的權(quán)利和義務(wù)所歸屬的主體”[2]。人格權(quán)的演進(jìn)經(jīng)歷了漫長(zhǎng)而復(fù)雜的過(guò)程,在早期社會(huì),建立在“身份”“等級(jí)”基礎(chǔ)之上的法律人格是不平等的,個(gè)體因身份、地位的差異所對(duì)應(yīng)的權(quán)利義務(wù)內(nèi)容迥然不同。如在古羅馬法中,奴隸不享有自由權(quán),不是法律保護(hù)的對(duì)象,只能成為法律關(guān)系的客體,自由民才會(huì)被賦予法律人格而享有權(quán)利承擔(dān)責(zé)任。在文藝復(fù)興、資產(chǎn)階級(jí)革命的影響和推動(dòng)下,古代法律中的身份制度難以為繼,法律人格的不平等性由“平等”“契約自由”等理念替代,并最終實(shí)現(xiàn)所有個(gè)體人格由形式到實(shí)質(zhì)的平等。這一時(shí)期的法律人格以自然法的倫理性為基礎(chǔ),認(rèn)為人格應(yīng)當(dāng)受到尊重,隨后《人權(quán)宣言》確立了人生而平等的基本原則,繼而《法國(guó)民法典》也規(guī)定“所有法國(guó)人均享有私權(quán)”,《瑞士民法典》更是開(kāi)創(chuàng)了實(shí)定法首次規(guī)定“人格權(quán)”的新局面。一旦法律人格被規(guī)定為實(shí)定法的原則,其倫理性基礎(chǔ)將逐漸為人們所忽略,以至于倫理性不再是法律人格的決定性要素,法人進(jìn)而也被普遍認(rèn)為具有法律人格[2]。《德國(guó)民法典》進(jìn)一步超越了法律人格的倫理性基礎(chǔ),將法律主體范圍由自然人擴(kuò)大到法人[3]。
由上可知,法律人格經(jīng)由古羅馬法發(fā)展到近現(xiàn)代民法,歷經(jīng)了以身份為基礎(chǔ)到與倫理相結(jié)合這一發(fā)展歷程,并最終形成基于特定社會(huì)需求而生成的立法技術(shù)。這種由身份決定的“人可非人”到功利主義影響下的“非人可人”的立場(chǎng)演變說(shuō)明,特定主體是否具有法律人格,并不以倫理性作為唯一判斷標(biāo)準(zhǔn),而是實(shí)定法基于社會(huì)利益的必然回應(yīng)[4],社會(huì)發(fā)展需要是法人法律人格作為立法技術(shù)的內(nèi)在動(dòng)因。賦予強(qiáng)人工智能體法律人格意味著其得以享有權(quán)利、承擔(dān)責(zé)任,當(dāng)前學(xué)者否認(rèn)強(qiáng)人工智能體具有法律人格的主要原因是其不具有自然人的心理、生理特征,亦不具有理性個(gè)體的倫理性基礎(chǔ)。但是,法律人格作為客觀實(shí)在,以法律主體享有權(quán)利、承擔(dān)義務(wù)為內(nèi)容,以一般大眾普遍接受為前提,并以實(shí)現(xiàn)特定社會(huì)目的為目標(biāo),具有鮮明的先驗(yàn)性、功利性特征。是否具備自然人特征諸如情感、直覺(jué)、心靈心性、舉一反三等不應(yīng)成為賦予人工智能體法律人格的人為阻礙。
縱觀人類立法歷程,法律主體范圍經(jīng)歷了由“人是客體”“人可非人”的特定自然人到以倫理性為基礎(chǔ)的全部自然人并最終擴(kuò)展到包括法人在內(nèi)的非理性主體的演變。各國(guó)立法實(shí)踐普遍將法律人格作為立法技術(shù)賦予法人等非理性主體,因?yàn)榉ㄈ瞬粌H廣泛參與各類社會(huì)經(jīng)濟(jì)活動(dòng),而且能夠作為刑事主體承擔(dān)刑事責(zé)任。然而,學(xué)界對(duì)法人的法律人格本質(zhì)并沒(méi)有形成共識(shí),主要存在如下幾種學(xué)說(shuō):其一是法人擬制說(shuō)。該學(xué)說(shuō)緣起于13 世紀(jì)西方教會(huì)統(tǒng)治時(shí)期,教會(huì)之下準(zhǔn)許個(gè)人成立社會(huì)團(tuán)體并賦予其人格,后為薩維尼所繼承和發(fā)揚(yáng)。其二是法人實(shí)在說(shuō)。該學(xué)說(shuō)認(rèn)為法人團(tuán)體因?yàn)榫哂袌F(tuán)體意志而先于法律存在,法律不是創(chuàng)造而是承認(rèn)了法人人格[5]。這些學(xué)說(shuō)均不能完全自圓其說(shuō),法人擬制說(shuō)讓法人的存在流于形式,“將法人人格基礎(chǔ)推給法律本身”[6];而法人實(shí)在說(shuō)能夠提供法人承擔(dān)刑事責(zé)任的正當(dāng)根據(jù),但不能說(shuō)明雙罰制下法人和自然人共同承擔(dān)刑事責(zé)任的緣由。
盡管如此,我國(guó)依然基于社會(huì)經(jīng)濟(jì)發(fā)展的需要,將法人設(shè)定為刑事責(zé)任主體。法律的生命與進(jìn)化源自社會(huì)發(fā)展的需要,法律人格的有無(wú)也不應(yīng)只以倫理性作為衡量標(biāo)準(zhǔn),而應(yīng)當(dāng)將其作為一種立法技術(shù)服務(wù)于人類自身發(fā)展。參照我國(guó)刑法單位犯罪的雙罰制,賦予強(qiáng)人工智能體刑事責(zé)任主體資格,形成以自然人、法人、人工智能體為核心的三元刑事制裁體系并不存在技術(shù)障礙。當(dāng)前世界范圍內(nèi)的單位犯罪,主要包括單罰制和雙罰制。所謂單罰制,不處罰單位,只處罰直接負(fù)責(zé)的主管人員或其他直接責(zé)任人;所謂雙罰制,既要對(duì)單位判處罰金,也要處罰直接負(fù)責(zé)的主管人員或其他直接責(zé)任人。雙罰制可適用于研發(fā)者、生產(chǎn)者、銷售者、使用者和強(qiáng)人工智能體之間,它不同于民事侵權(quán)責(zé)任,當(dāng)強(qiáng)人工智能體獨(dú)立決策、自主行動(dòng)而侵害國(guó)家法益、公共法益或者公民個(gè)人法益時(shí),由其自身承擔(dān)獨(dú)立的刑事責(zé)任。如果研發(fā)者、生產(chǎn)者、銷售者、使用者和強(qiáng)人工智能體對(duì)法益侵害結(jié)果均存在故意或過(guò)失時(shí),可視情況采用雙罰制分別處以刑罰。
1.賦予強(qiáng)人工智能體法律人格的現(xiàn)實(shí)性:從“工具”到“主體”的流變
第一,強(qiáng)人工智能體逐步突破工具屬性。在早期場(chǎng)景應(yīng)用中,通過(guò)預(yù)先設(shè)置算法和程序,人工智能只需重復(fù)執(zhí)行指令,特別是在無(wú)人駕駛汽車領(lǐng)域,人工智能仍然沒(méi)有擺脫人類控制,屬于輔助性工具。2018 年工業(yè)和信息化部、公安部、交通運(yùn)輸部聯(lián)合印發(fā)《智能網(wǎng)聯(lián)汽車道路測(cè)試管理規(guī)范(試行)》,其中第25 條規(guī)定:“自動(dòng)駕駛汽車在測(cè)試期間發(fā)生交通事故,應(yīng)當(dāng)按照道路交通安全法律法規(guī)認(rèn)定當(dāng)事人的責(zé)任?!睋?jù)此,無(wú)人駕駛汽車因執(zhí)行程序指令所產(chǎn)生的結(jié)果是可預(yù)測(cè)的,法律責(zé)任應(yīng)當(dāng)轉(zhuǎn)移到自然人身上。隨著5G 網(wǎng)絡(luò)的商用、算法及深度學(xué)習(xí)技術(shù)的提升,人工智能的獨(dú)立性顯著增強(qiáng),人類在決策過(guò)程中的參與度越來(lái)越低。2019 年9月,武漢市交通運(yùn)輸部門頒發(fā)了全球首張無(wú)人駕駛汽車牌照,開(kāi)啟了人工智能獨(dú)立參與商業(yè)運(yùn)營(yíng)的新局面。但無(wú)人駕駛汽車系統(tǒng)程序不可能窮盡所有路況場(chǎng)景,特別在面臨兩難選擇時(shí),這便需要無(wú)人駕駛系統(tǒng)自主創(chuàng)造性地決策。此時(shí)人類很難預(yù)測(cè)行為結(jié)果,當(dāng)發(fā)生交通事故時(shí),解決刑事責(zé)任問(wèn)題的最好途徑就是賦予強(qiáng)人工智能體法律人格,必要時(shí)由其承擔(dān)相應(yīng)的刑事責(zé)任。2016 年5 月,歐洲議會(huì)法律事務(wù)委員會(huì)發(fā)布《關(guān)于機(jī)器人民事法律規(guī)則立法建議致歐盟委員會(huì)的報(bào)告草案》,要求從法律責(zé)任承擔(dān)的角度考慮創(chuàng)設(shè)電子人格[7]。強(qiáng)人工智能體作為不具備人之肉體、心靈、情緒,但能夠獨(dú)立決策的特殊主體,被賦予其電子人格契合當(dāng)前實(shí)際。
第二,強(qiáng)人工智能體具備享有權(quán)利、承擔(dān)責(zé)任的條件。賦予強(qiáng)人工智能體法律人格就是賦予其法律權(quán)利并承擔(dān)法律義務(wù)。“‘智能性’是目前人類所能認(rèn)知的有關(guān)權(quán)利主體所必須具有的最本質(zhì)性的要素”[8]。也就是說(shuō),強(qiáng)人工智能體能夠成為權(quán)利主體的關(guān)鍵不在于其是否具備人之肉體和外形,而在于其是否和人一樣智能,這在科技的發(fā)展下并不難以實(shí)現(xiàn)。當(dāng)前包括我國(guó)在內(nèi)的世界多國(guó)和組織早已針對(duì)人工智能體的法律地位進(jìn)行研究和立法,歐盟法律事務(wù)委員會(huì)主張機(jī)器人的“工人”身份并賦予其特定的權(quán)利義務(wù),2017 年沙特阿拉伯成為首個(gè)授予機(jī)器人公民身份的國(guó)家,同年我國(guó)國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》明確提出建立健全相關(guān)制度,“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”。與自然人主體不同,人工智能所享有的權(quán)利只能具有利他屬性,這是由其法律人格的基礎(chǔ)所決定的。其法律人格既然基于特定利益需求而產(chǎn)生,那么在生產(chǎn)生活中為人類帶來(lái)價(jià)值也是其實(shí)現(xiàn)權(quán)利、承擔(dān)責(zé)任的最終歸宿。不過(guò),這種利他屬性并不會(huì)導(dǎo)致其在以利己性權(quán)利為主的法律體系中處于競(jìng)爭(zhēng)劣勢(shì)。相反,這種權(quán)利的利他屬性正是人工智能快速社會(huì)化應(yīng)用的原因,如陪伴型機(jī)器人能使人穩(wěn)定獲得情感利益,于是有更多人參與到與人工智能的合作關(guān)系當(dāng)中,進(jìn)而形成一種穩(wěn)定的法律關(guān)系。與此同時(shí),人工智能的權(quán)利內(nèi)容不是無(wú)約束的,需要以“負(fù)面清單”的形式為人工智能設(shè)定權(quán)利邊界。刑法的視角下,人工智能不能基于自己的人身權(quán)利而行使防衛(wèi)權(quán),但可以基于國(guó)家、集體、他人的人身和財(cái)產(chǎn)利益行使防衛(wèi)權(quán),因?yàn)槿说娜松頇?quán)利應(yīng)當(dāng)受到刑法的平等保護(hù),但人工智能的價(jià)值不能等同于人類的生命、健康權(quán)益。
2.賦予強(qiáng)人工智能體法律人格的可能性:契合刑法的本質(zhì)
人工智能體刑事責(zé)任主體地位否定論者的觀點(diǎn)是,賦予強(qiáng)人工智能體刑事責(zé)任主體地位與刑法不具有兼容性。一方面,處罰強(qiáng)人工智能體無(wú)法實(shí)現(xiàn)刑法之目的與機(jī)能。刑法通過(guò)禁止和懲罰法益侵害行為來(lái)保護(hù)公共法益和個(gè)人法益免受不法侵害,其懲罰手段以剝奪主體權(quán)利造成其痛苦為必要,“否定刑罰的痛苦特征,無(wú)異于否定刑罰概念本身”[9]。就自然人而言,刑罰通過(guò)剝奪或限制社會(huì)活動(dòng)資格造成情感上的痛苦,而刑罰并不能給強(qiáng)人工智能體帶來(lái)痛苦[10]。另一方面,我國(guó)的刑罰措施無(wú)法適用于強(qiáng)人工智能體。刑罰在本質(zhì)上就是剝奪主體的權(quán)利,強(qiáng)人工智能體沒(méi)有生命、自由、財(cái)產(chǎn)權(quán)利,無(wú)法適應(yīng)我國(guó)以生命刑(死刑)、自由刑(管制、拘役、有期徒刑、無(wú)期徒刑)、財(cái)產(chǎn)刑(罰金、沒(méi)收財(cái)產(chǎn))和資格刑(剝奪政治權(quán)利)為內(nèi)容的刑罰體系[11]。
否定論者一味削足適履無(wú)益于人工智能時(shí)代刑事治理困境問(wèn)題的解決,現(xiàn)有刑罰種類是否適合于人工智能不是其刑事主體資格的決定性因素,否則有因果倒置的邏輯錯(cuò)誤。首先,處罰強(qiáng)人工智能體是刑法內(nèi)生邏輯的必然要求。刑法是規(guī)定犯罪、刑事責(zé)任和刑罰的法律規(guī)范,因此刑事犯罪的司法判斷邏輯順序?yàn)椋禾囟ㄖ黧w在客觀上實(shí)施了符合構(gòu)成要件且違法的行為,主觀上具有故意、過(guò)失且具有刑事責(zé)任能力,特定主體具有刑事主體地位,應(yīng)當(dāng)承擔(dān)刑事責(zé)任、接受刑事處罰。切不可犯“沒(méi)有適當(dāng)?shù)男塘P措施——強(qiáng)人工智能體不具刑事責(zé)任主體資格”這樣本末倒置的邏輯錯(cuò)誤。其次,處罰強(qiáng)人工智能體有利于合理分配刑事責(zé)任。在強(qiáng)人工智能體的社會(huì)化應(yīng)用過(guò)程中,侵犯他人法益的事件時(shí)有發(fā)生,如2016 年特斯拉自動(dòng)駕駛汽車發(fā)生車禍致人死亡,沒(méi)有相關(guān)主體因?yàn)橹T如此類事故而承擔(dān)刑事責(zé)任,究其原因,不是因?yàn)榉缸锝Y(jié)果沒(méi)有發(fā)生,而是由于刑法沒(méi)有將強(qiáng)人工智能體規(guī)定為制裁對(duì)象。雖然強(qiáng)人工智能體與生產(chǎn)者、銷售者、使用者可能并不構(gòu)成共同犯罪,但由于生產(chǎn)者、銷售者、使用者沒(méi)有直接實(shí)施行為,根據(jù)行為與責(zé)任同時(shí)存在原則,即使他們具有故意或者過(guò)失的罪責(zé),也無(wú)法追究其刑事責(zé)任。只有將強(qiáng)人工智能體規(guī)定為刑事責(zé)任主體,才能合理地分配刑事責(zé)任。
強(qiáng)人工智能體能否成為刑事責(zé)任主體取決于我國(guó)刑法對(duì)刑事責(zé)任主體要素的規(guī)定,根據(jù)《刑法》第17 條、第18 條、第19 條的相關(guān)規(guī)定,犯罪主體需要滿足三個(gè)條件:一是基于自由意志實(shí)施了危害行為;二是具備刑事責(zé)任能力;三是符合承擔(dān)刑事責(zé)任的要求,通過(guò)刑事制裁能夠達(dá)到特殊預(yù)防和一般預(yù)防的效果。筆者認(rèn)為,以刑事責(zé)任而非本質(zhì)和內(nèi)容為視角,強(qiáng)人工智能體作為刑事責(zé)任主體能夠很好地契合刑法體系的內(nèi)在協(xié)調(diào)性。
自由意志是否存在,一直是學(xué)派之爭(zhēng)的焦點(diǎn)問(wèn)題,既無(wú)法證實(shí)也無(wú)法證偽。古典學(xué)派強(qiáng)調(diào)人的行為是發(fā)揮主觀能動(dòng)性的結(jié)果,而社會(huì)學(xué)派則認(rèn)為人的行為選擇受外界支配。但問(wèn)題在于,古典學(xué)派強(qiáng)調(diào)的理性的人是法律的一般抽象,而責(zé)任是對(duì)具體個(gè)人的司法判斷;社會(huì)學(xué)派強(qiáng)調(diào)責(zé)任是對(duì)危險(xiǎn)性格的社會(huì)防衛(wèi),但完全否認(rèn)自由意志可能導(dǎo)致人的主體地位喪失進(jìn)而完全淪為工具。一方面,責(zé)任即非難,其本質(zhì)在于行為人有他行為之可能性而實(shí)施了不法行為,沒(méi)有意志自由就沒(méi)有責(zé)任,因此,與他行為之可能性具有某種等價(jià)關(guān)系的自由意志理當(dāng)被承認(rèn),“意志自由問(wèn)題是責(zé)任論的基礎(chǔ)”[12]。另一方面,“根本不可能存在這樣的情況,即立法者將特定行為規(guī)定為犯罪,卻并未因而表現(xiàn)出預(yù)防此類(犯罪)行為的意愿與目的”[13]。據(jù)此,預(yù)防犯罪是刑罰的正當(dāng)性根據(jù),也是刑法存在的價(jià)值。根據(jù)費(fèi)爾巴哈的“心理強(qiáng)制說(shuō)”,只有承認(rèn)自由意志才能實(shí)現(xiàn)刑罰的預(yù)防目的,因?yàn)榫徒⒃谧杂梢庵净A(chǔ)之上的理性人而言,刑罰既是一種激勵(lì),促其棄惡從善,又是一種威懾,警醒世人不得重蹈覆轍,從而達(dá)到特殊預(yù)防和一般預(yù)防之目的。但同時(shí)我們也無(wú)法否認(rèn)環(huán)境對(duì)個(gè)人的影響,從以上兩個(gè)角度看,相對(duì)自由意志論更容易為學(xué)界所普遍接受,強(qiáng)人工智能體也因其工作機(jī)制而具有自由意志。
眾所周知,人工智能技術(shù)以人工神經(jīng)網(wǎng)絡(luò)技術(shù)、算法和深度學(xué)習(xí)技術(shù)為依托,其工作的一般原理是,強(qiáng)人工智能體借助人工神經(jīng)網(wǎng)絡(luò),模擬人腦信號(hào)傳輸,將數(shù)據(jù)進(jìn)行二進(jìn)制編碼并模式化為邏輯表達(dá)式[14],這些數(shù)據(jù)經(jīng)過(guò)算法模型的層層特征提取,自動(dòng)發(fā)現(xiàn)數(shù)據(jù)規(guī)律并自主解決問(wèn)題,整個(gè)過(guò)程并沒(méi)有任何人為設(shè)限。所謂自由意志,即“決斷免受感性沖動(dòng)之強(qiáng)制的獨(dú)立性”[15]。一方面,強(qiáng)人工智能體能夠自行分析數(shù)據(jù)、自行決策,體現(xiàn)了其自主選擇的能力;另一方面,在無(wú)人為因素的參與下,其采用何種策略進(jìn)行決策無(wú)人為干涉可能性,其行為更無(wú)預(yù)測(cè)可能性。強(qiáng)人工智能體的這種自主選擇和獨(dú)立決策能力早已得到證實(shí)??的螤柎髮W(xué)創(chuàng)意機(jī)器人實(shí)驗(yàn)室在實(shí)驗(yàn)中欲通過(guò)深層神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)技術(shù)來(lái)分類貓、狗、蜥蜴的圖像,但深層網(wǎng)絡(luò)卻自主決定追蹤研究人員的臉[16]。強(qiáng)人工智能體模擬人腦工作原理使其能夠像人一樣思考、決策,那么其擁有自由意志也是水到渠成的結(jié)果。
如前所述,意志自由是責(zé)任的基礎(chǔ),但意志自由以行為人具有對(duì)其行為的價(jià)值評(píng)價(jià)和是非辨別能力為前提,具備善惡認(rèn)知能力的人才會(huì)產(chǎn)生對(duì)自己行為的責(zé)任,才具有承擔(dān)法律責(zé)任的能力[17],動(dòng)物或其他物質(zhì)由于不具備法秩序所倡導(dǎo)的法價(jià)值、社會(huì)價(jià)值觀等是非判斷能力,所以很難承擔(dān)對(duì)自己舉動(dòng)的責(zé)任。特定個(gè)體是否承擔(dān)刑事責(zé)任與其刑事責(zé)任能力直接關(guān)聯(lián),如果不具有責(zé)任能力,即使實(shí)施了符合構(gòu)成要件且違法的行為,也很難對(duì)其進(jìn)行責(zé)難。責(zé)任能力以辨認(rèn)能力和控制能力為內(nèi)容。一般而言,判斷自然人主體是否具備辨認(rèn)能力和控制能力以刑事責(zé)任年齡和精神狀態(tài)作為參考,只要達(dá)到法定刑事責(zé)任年齡并且精神正常,即可認(rèn)定其具有辨認(rèn)能力和控制能力。
辨認(rèn)能力是行為主體對(duì)自己行為性質(zhì)、社會(huì)意義、將產(chǎn)生特定后果的認(rèn)知能力,它是行為主體具備控制能力的前提和基礎(chǔ)。與自然人不同,強(qiáng)人工智能體無(wú)法通過(guò)刑事責(zé)任年齡和精神狀態(tài)來(lái)衡量自身的辨認(rèn)能力和控制能力,其辨認(rèn)能力源自神經(jīng)網(wǎng)絡(luò)技術(shù)和深度學(xué)習(xí)技術(shù)下的自主思考能力。也正是因?yàn)閺?qiáng)人工智能體的算法在深度學(xué)習(xí)時(shí)如何決策不為外界所知,也就是通常所說(shuō)的“算法黑箱”,導(dǎo)致歧視、偏見(jiàn)等倫理危機(jī)時(shí)有發(fā)生。微軟推出的聊天機(jī)器人Tay 因涉嫌種族歧視言論引起巨大爭(zhēng)議而被迫下線,一些學(xué)者因而據(jù)此認(rèn)為“Tay 自己并不知道和它‘聊天’的人所說(shuō)的內(nèi)容和社會(huì)意義,也無(wú)法知道它自身反饋的‘聊天’內(nèi)容具有何種社會(huì)意義。[18]”這種邏輯存在明顯錯(cuò)誤。機(jī)器人Tay的種族歧視言論無(wú)疑不符合社會(huì)主流價(jià)值觀念,但不能表明其不知聊天內(nèi)容和社會(huì)意義,只是說(shuō)明其缺乏對(duì)聊天內(nèi)容的善惡分辨能力。如果事先為強(qiáng)人工智能體植入機(jī)器人倫理算法,在其運(yùn)用算法深度學(xué)習(xí)時(shí),具備規(guī)范的評(píng)價(jià)能力,能夠準(zhǔn)確判斷行為是否具有正向的社會(huì)意義,則其必將具備認(rèn)識(shí)能力。如通過(guò)算法植入“機(jī)器人三原則”①美國(guó)作家艾薩克·阿西莫夫提出機(jī)器人三原則內(nèi)容是:第一,機(jī)器人不得傷害人類,或坐視人類受到傷害而袖手旁觀;第二,除非違背第一法則,否則機(jī)器人必須服從人類的命令;第三,在不違背第一及第二法則的前提下,機(jī)器人必須盡可能地保護(hù)自己。,讓強(qiáng)人工智能體獲得辨別是非的能力,以該原則為標(biāo)準(zhǔn)判斷什么行為是善的,什么行為是惡的,進(jìn)而也就具備了對(duì)其行為負(fù)責(zé)的能力。當(dāng)然還可以通過(guò)算法植入人類道德、社會(huì)主流價(jià)值、法律規(guī)則等,讓其獲得更加全面、深刻的判斷力、領(lǐng)悟力。不過(guò)也應(yīng)當(dāng)看到,因?yàn)槔娣制?、人際沖突和文化差異,世界范圍內(nèi)不可能存在完全統(tǒng)一的道德。當(dāng)前世界各國(guó)也非常重視人工智能的倫理道德建設(shè)問(wèn)題,2017 年國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》指出,到2025 年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系;特斯拉CEO 伊隆·馬斯克曾斥資1000 萬(wàn)美元,用來(lái)研發(fā)一種人工智能倫理道德系統(tǒng),這些倫理道德的建設(shè)努力終將讓強(qiáng)人工智能體獲得如同自然人般的辨認(rèn)能力。為強(qiáng)人工智能體加載倫理道德系統(tǒng)并非使得人工智能系統(tǒng)與自然人一樣平等地享有權(quán)利、履行義務(wù),參與社會(huì)治理和資源分配,而是為了確保強(qiáng)人工智能體的正確發(fā)展方向,不至于脫離人類控制,危害人類。
強(qiáng)人工智能體的辨認(rèn)能力是由事實(shí)到規(guī)范,由具體到抽象的過(guò)程,它需要在初始階段接受聲音、事實(shí)、事件、圖像、視頻等基礎(chǔ)事實(shí)材料,通過(guò)對(duì)基礎(chǔ)事實(shí)材料的深度加工而產(chǎn)生規(guī)范意識(shí)。對(duì)于具體事實(shí)層面的認(rèn)識(shí),強(qiáng)人工智能體完全可以通過(guò)傳感器來(lái)獲取。至于規(guī)范層面的認(rèn)識(shí),特別是對(duì)行為性質(zhì)、意義、后果的認(rèn)識(shí),僅僅依靠傳感器難以實(shí)現(xiàn),需要賦予其機(jī)器人道德。機(jī)器人道德是其判斷善惡是非的標(biāo)準(zhǔn),具備了機(jī)器人道德的強(qiáng)人工智能體就具備了行為的善惡認(rèn)識(shí)能力,進(jìn)而具備了棄惡揚(yáng)善的自由意志。如果決意從惡,就應(yīng)當(dāng)承擔(dān)刑事責(zé)任??刂颇芰Φ膶?shí)現(xiàn)是強(qiáng)人工智能體實(shí)現(xiàn)其行為的必備條件,在算法、數(shù)據(jù)傳輸、傳感器等技術(shù)的支持下,強(qiáng)人工智能體擁有著比人類反應(yīng)速度更快、更精準(zhǔn)的控制能力。具備了辨認(rèn)能力、控制能力,強(qiáng)人工智能體也就具備了刑事責(zé)任能力,進(jìn)而具備了承擔(dān)刑事責(zé)任的可能性。
強(qiáng)人工智能體刑事責(zé)任主體資格否定論者將以人類為中心的刑罰制度和措施機(jī)械地適用于強(qiáng)人工智能體,沒(méi)有考慮自然人與強(qiáng)人工智能體的內(nèi)在差異性,有諸多不可取之處,只有針對(duì)強(qiáng)人工智能體自身特性設(shè)定刑罰措施,使其刑事主體地位因刑罰措施的執(zhí)行而得以貫徹和體現(xiàn),方可最終實(shí)現(xiàn)刑法的善治。具體而言,筆者認(rèn)為應(yīng)當(dāng)從如下幾個(gè)方面針對(duì)強(qiáng)人工智能體設(shè)定適當(dāng)?shù)男塘P措施:
第一,針對(duì)強(qiáng)人工智能體設(shè)定資格刑,禁止其進(jìn)入特定行業(yè)、從事特定行為、進(jìn)入特定場(chǎng)所。因?yàn)橘x予強(qiáng)人工智能體法律人格是基于功利主義的特定社會(huì)需求,因而進(jìn)入特定行業(yè)、從事特定行為以實(shí)現(xiàn)人類利益需求是其終極使命和最終價(jià)值,它只能通過(guò)從事特定行為、參與社會(huì)活動(dòng)而成為法律主體,這與法人的刑事責(zé)任主體資格取得并無(wú)二致。因此,剝奪其進(jìn)入特定行業(yè)、從事特定行為的資格會(huì)造成其存在價(jià)值暫時(shí)或永久地喪失,并帶來(lái)自身乃至背后自然人情感上的痛苦,如此也就實(shí)現(xiàn)了刑法的目的。如果給強(qiáng)人工智能體的資格刑設(shè)定期限,其效果相當(dāng)于針對(duì)自然人主體的生命刑和自由刑。
第二,針對(duì)強(qiáng)人工智能體設(shè)定財(cái)產(chǎn)刑。賦予強(qiáng)人工智能體法律人格就是賦予其法律規(guī)定的權(quán)利義務(wù),也即可以參照法人賦予其相對(duì)獨(dú)立的財(cái)產(chǎn)權(quán)。剝奪強(qiáng)人工智能體的財(cái)產(chǎn)權(quán),其所參與的社會(huì)經(jīng)濟(jì)活動(dòng)也難以為繼,同時(shí)也會(huì)造成與強(qiáng)人工智能體利益相關(guān)的自然人的痛苦,迫使其盡到謹(jǐn)慎義務(wù)并督促其防止強(qiáng)人工智能體再次犯罪。
第三,針對(duì)強(qiáng)人工智能體設(shè)置恰當(dāng)?shù)男塘P裁量和執(zhí)行措施。如前所述,強(qiáng)人工智能體因植入倫理道德算法而不具備善惡是非的辨認(rèn)能力,當(dāng)然也包括對(duì)社會(huì)秩序遵守和社會(huì)文化的認(rèn)同,從而實(shí)現(xiàn)了由“工具人”到“社會(huì)人”角色的轉(zhuǎn)變。在此過(guò)程中,強(qiáng)人工智能體可以基于自由意志在深度學(xué)習(xí)中體會(huì)其行為的利弊,在犯罪的快感和刑罰的痛苦中權(quán)衡,刑罰的教育和威懾功能也得以體現(xiàn)[19]。同樣,刑罰的預(yù)防功能也可以在刑罰的執(zhí)行過(guò)程中得以實(shí)現(xiàn),通過(guò)指定適合于強(qiáng)人工智能體的累犯、自首、坦白、立功、減刑、假釋等刑罰量刑和執(zhí)行措鼓勵(lì)其盡早消除人身危險(xiǎn)性并重返社會(huì)。
刑法理論因特定時(shí)代需求而產(chǎn)生,不同理論流派的演進(jìn)均在特定的歷史時(shí)空具有現(xiàn)實(shí)意義。當(dāng)前人工智能技術(shù)迅猛發(fā)展,其工具屬性逐漸減弱,獨(dú)立性逐步增強(qiáng),催生出一系列法律問(wèn)題。在刑法人類中心主義因此再次受到挑戰(zhàn)之際,有學(xué)者回應(yīng)道:“人工智能并未對(duì)法律基礎(chǔ)理論、法學(xué)基本教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識(shí)適用于新的場(chǎng)景?!盵20]我們應(yīng)當(dāng)看到,在強(qiáng)人工智能體部分替代人類的趨勢(shì)下,其行為難以被預(yù)測(cè),現(xiàn)行刑法體系無(wú)法解決無(wú)自然人行為情形下的歸責(zé)問(wèn)題,行之有效的措施是及時(shí)調(diào)整刑法人類中心主義觀念,賦予強(qiáng)人工智能體法律人格,承認(rèn)其刑法主體地位,發(fā)揮人工智能技術(shù)造福人類的正向價(jià)值。