文//惠寧寧
劉憲權(quán) 華東政法大學(xué)刑法學(xué)教授,博士生導(dǎo)師,現(xiàn)任華東政法大學(xué)刑事法學(xué)研究院院長,兼任中國刑法學(xué)研究會副會長等職。長期從事刑法學(xué)的研究和教學(xué)。重點(diǎn)研究經(jīng)濟(jì)犯罪、涉信息網(wǎng)絡(luò)犯罪、職務(wù)犯罪以及人工智能時代刑事責(zé)任與刑罰體系重構(gòu)等領(lǐng)域。獨(dú)著或參著《刑法學(xué)名師講演錄》《金融犯罪刑法學(xué)新論》《刑法學(xué)專論》等學(xué)術(shù)著作共50余部,主編《刑法學(xué)》《中國刑法學(xué)》等多本教材。發(fā)表論文800余篇。曾獲“全國杰出專業(yè)技術(shù)人才”“國家級教學(xué)名師”等榮譽(yù)稱號。
當(dāng)前,人工智能技術(shù)迅速發(fā)展,隨之出現(xiàn)的智能機(jī)器人等新生事物不斷給人類社會帶來沖擊和影響,促進(jìn)了社會發(fā)展,與此同時,一些法律、倫理等方面的風(fēng)險(xiǎn)逐漸顯現(xiàn)。其中,刑事方面的風(fēng)險(xiǎn)以及相關(guān)責(zé)任的認(rèn)定,是法學(xué)界亟待解決的問題。對人工智能進(jìn)行刑法的規(guī)制,引導(dǎo)人工智能向有益方面發(fā)展十分必要。為此,本刊專訪了華東政法大學(xué)刑法學(xué)教授、華東政法大學(xué)刑事法學(xué)研究院院長劉憲權(quán)。
《人民法治》:2017年,國務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中提出,“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。請您談?wù)剬θ斯ぶ悄苓M(jìn)行刑法規(guī)制的必要性。
劉憲權(quán):隨著人工智能時代的到來,這個本來屬于純粹技術(shù)問題的新生事物將會在法律、哲學(xué)、倫理等方面對人類社會帶來極大的影響和沖擊,并可能產(chǎn)生相應(yīng)的刑事犯罪。對智能機(jī)器人的合理應(yīng)用,將會帶來許多行業(yè)的重大變革,并在較大程度上通過解放勞動力,促進(jìn)社會的深度和快速發(fā)展。但是如果設(shè)計(jì)者或使用者對智能機(jī)器人進(jìn)行不當(dāng)利用,甚至將其作為實(shí)現(xiàn)犯罪意圖的工具,抑或是智能機(jī)器人本身在具有獨(dú)立意志之后產(chǎn)生了犯罪意圖,進(jìn)而實(shí)施嚴(yán)重危害社會的行為,將會給人類社會帶來極大的威脅,甚至可能會“導(dǎo)致人類社會的毀滅”。
當(dāng)然,可能會有人認(rèn)為我的這種說法是杞人憂天、危言聳聽。但是,關(guān)于人工智能技術(shù)對人類社會可能帶來的影響,我認(rèn)為目前我們應(yīng)該作出以下兩個判斷:
其一是“相信誰”的問題。時下,以霍金為代表的物理學(xué)家曾多次表示,“人工智能可能會毀滅人類”。霍金認(rèn)為,“人工智能有可能是人類文明史的終結(jié),除非我們學(xué)會如何避免危險(xiǎn)”?;艚鹗侵奈锢韺W(xué)家,不是科幻小說家,更不是巫師,對于一個科學(xué)技術(shù)的問題,我們不應(yīng)該也沒有理由不相信一個著名科學(xué)家的說法。當(dāng)然我們也應(yīng)該看到,現(xiàn)在一些商業(yè)經(jīng)營者認(rèn)為,智能機(jī)器人的智慧永遠(yuǎn)不可能超過人類,人工智能會威脅到人類的觀點(diǎn)純屬夸大其詞。我認(rèn)為,經(jīng)營者所站的立場與科學(xué)家是會有所區(qū)別。經(jīng)營者主要是站在追求經(jīng)濟(jì)利益的角度來看待這一問題,他們更希望人工智能技術(shù)能夠在不受任何限制或者法律規(guī)制的狀態(tài)下自由蓬勃發(fā)展,以謀求經(jīng)營利益的最大化??赡苡腥藭J(rèn)為,時下也有一些科學(xué)家的觀點(diǎn)與霍金等人的觀點(diǎn)不同,認(rèn)為強(qiáng)人工智能時代是不會出現(xiàn)的。這里就可能涉及到一個立場問題,即信其有還是信其無的問題。作為一個法學(xué)研究者,我更傾向“寧可信其有,不可信其無”的立場,因?yàn)樾牌洹坝小倍詈鬀]有出現(xiàn),不會對人類社會帶來任何危害;但是如果信其“無”而最后又出現(xiàn)了,則會給人類造成很被動的局面。
其二,是否需要未雨綢繆?時下有人提出,即使人工智能技術(shù)確實(shí)可能為人類社會帶來巨大的威脅,那也需要等這種威脅出現(xiàn)之后再去進(jìn)行刑法規(guī)制,刑法研究不能如此超前。我不同意這種說法。歷史已經(jīng)不止一次地證明,科技的發(fā)展乃至?xí)r代的更迭往往能夠超越人類的想象。面對著人工智能技術(shù)日新月異的發(fā)展?fàn)顩r,這種說法似乎站不住腳。人工智能技術(shù)呈爆炸式發(fā)展,而法律尤其是刑法的制定則需要漫長的時間。如果等智能機(jī)器人的智能全面超過人類,那就不是我們?nèi)祟愑眯淌铝⒎ㄈヒ?guī)制智能機(jī)器人的行為,而是相反。所以我們現(xiàn)在就必須考慮通過立法,在促進(jìn)人工智能技術(shù)高速發(fā)展的同時,嚴(yán)格規(guī)制智能機(jī)器人的行為。
“宜未雨而綢繆,毋臨渴而掘井?!蔽覀儜?yīng)提前預(yù)想到在人工智能時代可能面臨的刑事風(fēng)險(xiǎn),明確智能機(jī)器人的法律特征和法律地位,并就我國刑法應(yīng)當(dāng)如何合理應(yīng)對人工智能時代所帶來的刑事風(fēng)險(xiǎn)展開具體的分析與討論,提前明晰人工智能時代的刑事責(zé)任承擔(dān)路徑。我認(rèn)為,這并非杞人憂天,而是居安思危。我們只有做好一定的風(fēng)險(xiǎn)防控措施,防患于未然,才能讓人工智能技術(shù)真正造福于人類而不至于危害社會。
《人民法治》:人工智能作為一個新的領(lǐng)域,其研發(fā)和應(yīng)用的過程存在一定的倫理風(fēng)險(xiǎn)、道德風(fēng)險(xiǎn)和法律風(fēng)險(xiǎn),請您談?wù)劕F(xiàn)階段人工智能技術(shù)發(fā)展所蘊(yùn)含的刑事風(fēng)險(xiǎn)及其特點(diǎn)。
劉憲權(quán):我認(rèn)為,在現(xiàn)階段,也就是人類仍然可以通過設(shè)計(jì)和編制的程序達(dá)到對智能機(jī)器人完全控制的情況下,人工智能時代的刑事風(fēng)險(xiǎn)可以分為兩類——可能使得部分傳統(tǒng)犯罪的危害發(fā)生“量變”;可能會導(dǎo)致新的犯罪形式產(chǎn)生。
第一,我們談一下人工智能可能使得部分傳統(tǒng)犯罪的危害發(fā)生“量變”的情況??萍嫉陌l(fā)展帶給人類社會的改變總是具有一定的相似性,這種相似性表現(xiàn)在科技發(fā)展在改善人類社會生活的同時也增加了社會的風(fēng)險(xiǎn)。從工業(yè)時代到互聯(lián)網(wǎng)時代,每一次人類社會生活時代的更替都可能使得部分傳統(tǒng)犯罪插上科技的“翅膀”。我們完全有理由相信,人工智能時代在使得人類社會更加方便快捷高效的同時,也必將增添人類社會的風(fēng)險(xiǎn)系數(shù)。一方面,人工智能技術(shù)可能使得犯罪行為的危害覆蓋面積更“廣”。根據(jù)相關(guān)部門的規(guī)劃,未來我們國家將實(shí)現(xiàn)智能制造、智能農(nóng)業(yè)、智能金融、智能商務(wù)、智能家居等全方面智能化社會。這些規(guī)劃無疑讓人興奮、令人鼓舞,但同時也會使人們產(chǎn)生些許擔(dān)憂并應(yīng)引起我們的警惕。人工智能技術(shù)覆蓋面如此之廣,一旦出現(xiàn)問題,很有可能會造成“牽一發(fā)而動全身”的危險(xiǎn)局面,如果我們沒有準(zhǔn)備也不做預(yù)案,其后果將是不堪設(shè)想的。另一方面,從危害“深度”而言,人工智能技術(shù)可以使得產(chǎn)品全面智能化,也可以使得犯罪工具以及犯罪手段更加智能,由此犯罪行為所造成的社會危害可能更“深”。也即不法分子完全可以利用人工智能技術(shù)全面實(shí)現(xiàn)犯罪計(jì)劃,一旦危害結(jié)果發(fā)生,很難得到修復(fù)。
第二,我們談一下人工智能可能會導(dǎo)致新的犯罪形式產(chǎn)生的情況。第一種是與大數(shù)據(jù)濫用結(jié)合的新犯罪形式。人工智能的基本原理是利用人工構(gòu)造的神經(jīng)網(wǎng)絡(luò)系統(tǒng)以及一系列編碼程序,對大量數(shù)據(jù)進(jìn)行深度學(xué)習(xí),從而掌握識別甚至決策等技能。對人工智能的濫用很有可能就是對大數(shù)據(jù)的濫用。數(shù)據(jù)的集中本身就是一種風(fēng)險(xiǎn)的存在,因?yàn)閿?shù)據(jù)越多,包含的信息量就越多,不法分子攻擊一次數(shù)據(jù)庫就能獲利頗多,從而降低了犯罪成本。更令人膽顫的一點(diǎn)是,人工智能技術(shù)往往可以得到超出人類預(yù)期的結(jié)果,一些數(shù)據(jù)從表面看來可能不包含關(guān)鍵的敏感信息,但是通過人工智能技術(shù)分析海量數(shù)據(jù),以及對多個數(shù)據(jù)庫進(jìn)行綜合分析,最終完全可能通過推演得到關(guān)鍵的敏感信息,甚至包括威脅到國家安全的重要信息。與此同時,目前對于數(shù)據(jù)的安全防護(hù)手段無法跟上人工智能技術(shù)發(fā)展的速度,也就無法及時針對新的犯罪形式作出預(yù)警反應(yīng)。第二種是與“欺騙”人工智能系統(tǒng)結(jié)合的新犯罪形式。一方面,不法分子可以通過干擾人工智能系統(tǒng)得以逃脫監(jiān)控或制裁。人工智能具有識別和決策功能,一旦不法分子改變或控制人工智能中的算法,完全可以使得人工智能系統(tǒng)發(fā)生識別或決策錯誤。未來警方很大程度上會依賴人工智能技術(shù)來偵破案件,“人工”的參與度大大下降,那么不法分子只要能夠采取一定手段“欺騙”人工智能系統(tǒng),就能使得自己逃之夭夭,從而給社會安全帶來更大的隱患。另一方面,不法分子完全可以通過“欺騙”人工智能系統(tǒng)讓自己非法的行為“合法化”。我們完全可以想象,未來人類的社會生活是在人工智能系統(tǒng)的覆蓋下進(jìn)行的,人工智能依賴于計(jì)算機(jī)算法,而凡是計(jì)算機(jī)算法就一定會有算法漏洞或缺陷。在過去,黑客對系統(tǒng)進(jìn)行攻擊往往可以通過反復(fù)調(diào)整同一封郵件或圖片來“騙過”安全過濾系統(tǒng),那么在未來,不法分子也完全可以通過“騙過”人工智能系統(tǒng)來從事非法甚至犯罪活動,例如開展非法的政治活動等。
《人民法治》:人工智能的研究與開發(fā)現(xiàn)在正在快速推進(jìn),在產(chǎn)生經(jīng)濟(jì)效益、社會效益的同時,也存在一些問題與隱憂,在刑事司法實(shí)踐中,如何依據(jù)現(xiàn)有的刑法規(guī)定來認(rèn)定研發(fā)者或使用者的刑事責(zé)任?
劉憲權(quán):就目前我國刑法的立法狀況和人工智能技術(shù)的發(fā)展現(xiàn)狀而言,可以從故意犯罪和過失犯罪兩個角度考慮對人工智能研發(fā)者或使用者的行為加以規(guī)制。
我們先來看一下行為人故意利用智能機(jī)器人實(shí)施犯罪行為的情況??萍嫉陌l(fā)展在造福人類社會的同時也為不法分子帶來可乘之機(jī),因而不法分子很有可能利用人工智能技術(shù)開展犯罪活動,例如具有犯罪意圖的研發(fā)者完全可以在設(shè)計(jì)和編制程序的時候植入自己的犯罪計(jì)劃,使得智能機(jī)器人幫助自己實(shí)現(xiàn)犯罪目的。這種情形屬于行為人故意利用智能機(jī)器人實(shí)施犯罪行為的情形。我認(rèn)為,對于故意利用人工智能技術(shù)研發(fā)或使用相應(yīng)產(chǎn)品實(shí)施嚴(yán)重危害社會的犯罪行為,應(yīng)當(dāng)將智能機(jī)器人看作行為人實(shí)施犯罪行為的“智能工具”,所有刑事責(zé)任應(yīng)當(dāng)由智能機(jī)器人的研發(fā)者或使用者承擔(dān)。例如,不法分子為了實(shí)現(xiàn)自己的殺人意圖,設(shè)計(jì)出一個“智能殺手”,“智能殺手”可以通過深度學(xué)習(xí),從而自主判斷和決定殺人的方式。如果“智能殺手”最終實(shí)施了殺人的行為,我認(rèn)為,此時全部的刑事責(zé)任都應(yīng)當(dāng)由“智能殺手”的研發(fā)者來承擔(dān),理由是:此時“智能殺手”實(shí)現(xiàn)的是研發(fā)者的意志而非自己獨(dú)立的意志。因而刑事責(zé)任承擔(dān)的主體也應(yīng)為研發(fā)者,智能機(jī)器人本身不需要承擔(dān)任何刑事責(zé)任,此時對于智能機(jī)器人性質(zhì)上的理解應(yīng)當(dāng)是研發(fā)者實(shí)施犯罪行為的“智能工具”。
我們再來談一談智能機(jī)器人研發(fā)者和使用者可能要承擔(dān)過失責(zé)任的情況。智能機(jī)器人在將來可能產(chǎn)生自主意識和意志。因此,智能機(jī)器人完全可能做出人類不可控的行為,對此智能機(jī)器人的研發(fā)者和使用者是否構(gòu)成相關(guān)過失類犯罪呢?過失犯罪以違反一定義務(wù)為前提,如果違反了預(yù)見義務(wù),即“應(yīng)當(dāng)預(yù)見但沒有預(yù)見”或“已經(jīng)預(yù)見但輕信可以避免”,則成立過失犯罪。我國刑法是以懲罰故意犯罪為原則,以懲罰過失犯罪為例外,也即所有過失犯罪的認(rèn)定均以刑法規(guī)定為限。因此,在現(xiàn)行刑法體系下,對智能機(jī)器人的研發(fā)者和使用者過失實(shí)施犯罪行為的刑事責(zé)任追究,也必須以刑法有關(guān)過失犯罪的條文規(guī)定為依據(jù)。我認(rèn)為,在人工智能環(huán)境下,判斷智能機(jī)器人的研發(fā)者和使用者是否對危害結(jié)果負(fù)有預(yù)見義務(wù),主要需要考慮的是研發(fā)或使用當(dāng)時的人工智能技術(shù)發(fā)展水平。如果研發(fā)者和使用者完全可能利用當(dāng)時的人工智能技術(shù)預(yù)見危害結(jié)果的發(fā)生,則人工智能的研發(fā)者和使用者負(fù)有預(yù)見義務(wù)。最終導(dǎo)致危害結(jié)果的發(fā)生,應(yīng)當(dāng)認(rèn)為研發(fā)者或使用者沒有履行預(yù)見義務(wù),并且這種不作為與危害結(jié)果之間存在因果關(guān)系,研發(fā)者或使用者成立過失犯罪。智能機(jī)器人的行為與研發(fā)者對程序的設(shè)計(jì)編制和使用者的使用情況緊密相關(guān)。智能機(jī)器人的研發(fā)過程是復(fù)雜的,需要經(jīng)過種種測試與試驗(yàn),才能保證最終產(chǎn)品符合安全標(biāo)準(zhǔn)。如果檢測過程中,研發(fā)者“已經(jīng)預(yù)見”了智能機(jī)器人在未來使用過程中可能導(dǎo)致危害結(jié)果的發(fā)生,但可能因?yàn)樵囼?yàn)所顯示該情況的概率較低等原因,研發(fā)者輕信這種情況可以避免,那么研發(fā)者成立“過于自信的過失”。如果檢測過程中,研發(fā)者因?yàn)闆]有全面檢測等原因“沒有預(yù)見”危害結(jié)果的發(fā)生,但實(shí)際上如果全面檢測是可以發(fā)現(xiàn)智能機(jī)器人存在缺陷的,那么研發(fā)者成立“疏忽大意的過失”。同樣地,如果使用者在使用智能機(jī)器人的過程中沒有按照相關(guān)說明操作,最終導(dǎo)致了危害結(jié)果,則應(yīng)當(dāng)按照具體情況成立“過于自信的過失”或“疏忽大意的過失”。對于智能機(jī)器人的研發(fā)者和使用者構(gòu)成的犯罪罪名,應(yīng)根據(jù)我國目前的刑法規(guī)定,并結(jié)合智能機(jī)器人實(shí)施的行為和具體造成的危害結(jié)果具體定罪量刑。例如,如果因?yàn)橹悄軝C(jī)器人的行為造成了被害人死亡的結(jié)果,則研發(fā)者和使用者構(gòu)成過失致人死亡罪。與此同時,法律不強(qiáng)人所難。囿于一定地域內(nèi)社會歷史發(fā)展階段與水平的限制,人類所掌握的人工智能技術(shù)完全可能無法徹底消除人工智能的安全風(fēng)險(xiǎn),也即人工智能的安全系數(shù)與標(biāo)準(zhǔn)的提高還有賴于人工智能技術(shù)的進(jìn)一步成熟。在這種情況下,我們就不應(yīng)當(dāng)追究研發(fā)者和使用者的刑事責(zé)任。對于最終導(dǎo)致的危害結(jié)果,可以按刑法中的意外事件處理。
《人民法治》:智能機(jī)器人是否可以成為刑事責(zé)任的主體?
劉憲權(quán):我認(rèn)為,這個問題需要分情況討論。完全在人類設(shè)計(jì)和編制的程序范圍內(nèi)實(shí)施行為的智能機(jī)器人,具有工具屬性,是人類改造世界的工具,不具有在自主意志和意識支配下的辨認(rèn)能力和控制能力,不可能成為刑事責(zé)任的主體。隨著科技的發(fā)展,有可能出現(xiàn)不受人類設(shè)計(jì)和編制的程序控制,具有自主意志和意識,可以自主決策并自主實(shí)施行為的智能機(jī)器人。我認(rèn)為,這類機(jī)器人可以成為刑事責(zé)任的主體。理由如下:
第一,與單位相比,能夠在自主意志和意識的支配下實(shí)施行為的智能機(jī)器人的辨認(rèn)能力和控制能力更接近于“人”的辨認(rèn)能力和控制能力。單位的意志來源于個人意志,是個人意志的集合,其辨認(rèn)能力與控制能力需要通過個人的辨認(rèn)能力和控制能力來體現(xiàn),因而只能通過法律擬制為“人”,進(jìn)而成為刑事責(zé)任主體。但是,能夠在自主意志和意識的支配下實(shí)施行為的智能機(jī)器人與單位不同,其本身就具備了辨認(rèn)能力和控制能力,似乎比單位更具有成為刑事責(zé)任主體的“資格”。一直以來,單位能否成為刑事責(zé)任主體就存在著一定的爭論。我認(rèn)為,能否成為刑事責(zé)任主體,關(guān)鍵在于牢牢把握刑事責(zé)任主體的基本內(nèi)涵,也即具有刑事責(zé)任能力的主體可以成為刑事責(zé)任主體,而刑事責(zé)任能力的本質(zhì)內(nèi)容和具體表現(xiàn)是辨認(rèn)能力和控制能力。單位的辨認(rèn)能力和控制能力來源于單位內(nèi)部成員的辨認(rèn)能力和控制能力,而能夠在設(shè)計(jì)和編制的程序范圍外實(shí)施行為的智能機(jī)器人不需要通過其他主體作為表達(dá)媒介,由于其本身就擁有辨認(rèn)能力和控制能力,因而更接近于“人”,更有理由成為刑事責(zé)任主體。
第二,承認(rèn)在自主意志和意識的支配下實(shí)施行為的智能機(jī)器人可以成為刑事責(zé)任主體,有利于鞏固刑事責(zé)任主體基本內(nèi)涵的統(tǒng)一性。根據(jù)刑事責(zé)任主體的基本內(nèi)涵,我們可以看出,自然人可以成為刑事責(zé)任主體最根本的原因是其具有辨認(rèn)能力和控制能力,單位可以成為刑事責(zé)任主體最根本的原因是單位內(nèi)部成員個人的辨認(rèn)能力和控制能力可以“凝結(jié)”為單位自身的辨認(rèn)能力和控制能力。能夠在自主意志和意識的支配下實(shí)施行為的智能機(jī)器人的意志是自由的,應(yīng)當(dāng)認(rèn)為其具有辨認(rèn)能力和控制能力,當(dāng)然不能也不應(yīng)該將其排除在刑事責(zé)任主體的“大門之外”,否則就會出現(xiàn)在同一個刑法體系下,承認(rèn)了自然人和單位的刑事責(zé)任主體地位,卻不承認(rèn)同樣具有辨認(rèn)能力和控制能力的智能機(jī)器人的刑事責(zé)任主體地位的矛盾局面。因此,我認(rèn)為,有必要將能夠在自主意志和意識的支配下實(shí)施行為的智能機(jī)器人納入刑事責(zé)任主體的范圍之內(nèi),來鞏固刑事責(zé)任主體基本內(nèi)涵的統(tǒng)一性。
第三,承認(rèn)在自主意志和意識的支配下實(shí)施行為的智能機(jī)器人的刑事責(zé)任主體地位,符合罪責(zé)自負(fù)原則。有人可能會提出,智能機(jī)器人既然沒有生命,也無法像單位一樣擁有財(cái)產(chǎn),讓其成為刑事責(zé)任主體有何意義呢?我認(rèn)為,這種說法是不妥當(dāng)?shù)?。一方面,認(rèn)為智能機(jī)器人無受刑能力從而否定其可以成為刑事責(zé)任主體的觀點(diǎn)似乎違反了正確的邏輯思維順序。并不是因?yàn)橐粋€主體可以接受刑罰,才承認(rèn)其具有刑事責(zé)任能力,進(jìn)而可以成為刑事責(zé)任主體;而是因?yàn)橐粋€主體具有刑事責(zé)任能力,可能在自主意識和意志支配之下實(shí)施嚴(yán)重危害社會的行為,可以成為刑事責(zé)任主體,進(jìn)而在該主體需要承擔(dān)刑事責(zé)任之時,才討論其受刑能力的問題。另一方面,承認(rèn)自主實(shí)施犯罪行為的智能機(jī)器人可以成為刑事責(zé)任主體的同時,我們完全可以通過對現(xiàn)有刑罰體系的重構(gòu),以適應(yīng)人工智能時代的“智能機(jī)器人犯罪”問題。我建議,在人工智能時代,可以根據(jù)現(xiàn)代刑法所承認(rèn)的罪刑相適應(yīng)原則、以刑罰目的為導(dǎo)向原則、刑罰節(jié)儉性原則等設(shè)計(jì)智能機(jī)器人的刑罰體系。我初步構(gòu)想的可以適用于智能機(jī)器人的刑罰大體有三種,分別為:刪除數(shù)據(jù)、修改程序、永久銷毀。與此同時,可能有人會提出,即使智能機(jī)器人實(shí)施了嚴(yán)重危害社會的犯罪行為,也可以讓其研發(fā)者或使用者承擔(dān)責(zé)任。我認(rèn)為,一旦智能機(jī)器人實(shí)施嚴(yán)重危害社會的犯罪行為,在某些情況下,其研發(fā)者或使用者確實(shí)不能免責(zé)。但是,無論研發(fā)者或使用者是否應(yīng)該為智能機(jī)器人的犯罪行為“買單”,都不影響智能機(jī)器人可以成為刑事責(zé)任主體并承擔(dān)相應(yīng)的刑事責(zé)任,否則就與刑法中罪責(zé)自負(fù)的原則相背離了。