亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能犯罪的可歸責(zé)主體探究

        2019-09-24 02:08:54魏東
        理論探索 2019年5期
        關(guān)鍵詞:法人

        特邀主持人:魏 東(四川大學(xué)法學(xué)院教授、博士生導(dǎo)師)

        主持人語(yǔ):當(dāng)今時(shí)代正在走向互聯(lián)網(wǎng)+人工智能時(shí)代。如果說(shuō)互聯(lián)網(wǎng)+法學(xué)這一互聯(lián)網(wǎng)時(shí)代法學(xué)的新命題、新挑戰(zhàn)的核心是數(shù)據(jù)運(yùn)用與數(shù)據(jù)安全的研究,如果說(shuō)人工智能法學(xué)這一人工智能時(shí)代法學(xué)的新命題、新挑戰(zhàn)的核心是人工智能算法運(yùn)用與算法安全的研究,那么可以說(shuō),互聯(lián)網(wǎng)+人工智能法學(xué)這一新命題、新挑戰(zhàn)的核心就是數(shù)據(jù)運(yùn)用與數(shù)據(jù)安全、人工智能算法運(yùn)用與算法安全相互交織為一體的研究。

        為此,本刊特設(shè)“互聯(lián)網(wǎng)+人工智能法學(xué)”專題對(duì)相關(guān)理論問題進(jìn)行研討。本期刊發(fā)的三篇文章從刑法和行政法角度研討了互聯(lián)網(wǎng)+人工智能時(shí)代亟需應(yīng)對(duì)的前沿問題。其中,魏東的《人工智能犯罪的可歸責(zé)主體探究》主要從人工智能時(shí)代刑法觀視角論證了以下問題:人工智能犯罪在生成機(jī)理和內(nèi)在邏輯上只能是人工智能“算法安全犯罪”,人工智能犯罪僅能歸責(zé)于作為保證人的“自然人-法人”,(超)強(qiáng)人工智能機(jī)器人無(wú)法獲得與“自然人-法人”一樣的“人心人性”,從而無(wú)法獲得權(quán)利義務(wù)主體資格。黃明儒、孫珺濤的《論刑法介入互聯(lián)網(wǎng)金融的限度》一文從罪刑法定、刑法謙抑角度論證了刑法介入互聯(lián)網(wǎng)金融領(lǐng)域應(yīng)當(dāng)保持合理限度,主張行政違法性應(yīng)為確定刑事違法性的前提,應(yīng)當(dāng)準(zhǔn)確界分金融創(chuàng)新與金融犯罪,確保立法擴(kuò)張下的限縮適用。張亞楠的《政府?dāng)?shù)據(jù)共享:內(nèi)在要義、法治壁壘及其破解之道》深刻分析了政府?dāng)?shù)據(jù)共享存在的諸如權(quán)屬障礙、版權(quán)化難題、權(quán)利義務(wù)關(guān)系緊張、“兩秘密一隱私”數(shù)據(jù)的保護(hù)等法治壁壘,主張通過(guò)對(duì)數(shù)據(jù)權(quán)利進(jìn)行定性,將政府?dāng)?shù)據(jù)共享協(xié)議引入流程,秉承從權(quán)力本位到責(zé)任本位的理念轉(zhuǎn)變,實(shí)現(xiàn)政府?dāng)?shù)據(jù)共享的專業(yè)性立法。

        希望這三篇文章能夠起到拋磚引玉的作用,能夠有更多學(xué)者繼續(xù)深入研討互聯(lián)網(wǎng)+人工智能時(shí)代的刑法、行政法、民商法等部門法問題和法理學(xué)問題。

        〔摘要〕 人工智能犯罪在生成機(jī)理和內(nèi)在邏輯上只能是人工智能“算法安全犯罪”。基于人工智能犯罪中人工智能算法安全的相對(duì)自主性與絕對(duì)客體性的犯罪機(jī)理,人工智能犯罪僅能歸責(zé)于作為保證人的“自然人-法人”責(zé)任論。人工智能犯罪中“人心人性”的刑法常識(shí)觀,應(yīng)當(dāng)確認(rèn)人工智能犯罪的可歸責(zé)主體,只能是作為算法安全社會(huì)關(guān)系主體的“自然人-法人”二元主體。為妥當(dāng)解決人工智能犯罪的歸責(zé)原理和實(shí)踐問題,應(yīng)當(dāng)在堅(jiān)守人工智能犯罪“自然人-法人”二元主體模式的基礎(chǔ)上修改完善刑法立法。

        〔關(guān)鍵詞〕 人工智能犯罪,算法安全犯罪觀,“自然人-法人”二元主體模式

        〔中圖分類號(hào)〕D924 ?? 〔文獻(xiàn)標(biāo)識(shí)碼〕A〔文章編號(hào)〕1004-4175(2019)05-0005-09

        一、引言:?jiǎn)栴}真?zhèn)闻c基本立場(chǎng)

        人工智能①犯罪的可歸責(zé)主體問題,當(dāng)被作為一個(gè)“問題”來(lái)討論時(shí),該問題意識(shí)的內(nèi)在邏輯在于:認(rèn)清當(dāng)下,思考將來(lái)。所謂認(rèn)清當(dāng)下,是指認(rèn)清當(dāng)下弱人工智能犯罪“真相”,在那些通過(guò)弱人工智能(即弱人工智能機(jī)器人②,又稱專用人工智能機(jī)器人③)所實(shí)施的犯罪中,弱人工智能(機(jī)器人)被作為“犯罪工具”予以評(píng)價(jià)和處置,可謂“犯罪工具論”;在那些針對(duì)弱人工智能所實(shí)施的犯罪中,弱人工智能則被作為“犯罪對(duì)象”予以評(píng)價(jià)和對(duì)待,可謂“犯罪對(duì)象論”??梢哉f(shuō),對(duì)于當(dāng)下弱人工智能犯罪,刑法學(xué)界秉持弱人工智能“犯罪工具論”和“犯罪對(duì)象論”立場(chǎng),認(rèn)為人工智能犯罪的可歸責(zé)主體只能是“人”(包括自然人和法人④)而不能是弱人工智能(機(jī)器人)本身,這是沒有爭(zhēng)議的,或者說(shuō)這里不存在爭(zhēng)議問題、不是問題意識(shí)之所在。所謂思考將來(lái),是指思考將來(lái)可能出現(xiàn)的(超)強(qiáng)人工智能(即強(qiáng)人工智能機(jī)器人與超強(qiáng)人工智能機(jī)器人,又稱通用人工智能機(jī)器人與超級(jí)人工智能機(jī)器人)犯罪“真相”,可否超越弱人工智能“犯罪工具論”和“犯罪對(duì)象論”,從而使得(超)強(qiáng)人工智能機(jī)器人成為犯罪主體(犯罪主體論)和可歸責(zé)主體(可歸責(zé)主體論)?這是有爭(zhēng)議的,或者說(shuō)這里才存在爭(zhēng)議問題,也才是問題意識(shí)之所在。對(duì)此問題,理論界存在較大分歧:一是主張(超)強(qiáng)人工智能機(jī)器人“犯罪主體論”和“可歸責(zé)主體論”,可謂肯定論。如,有論者籠統(tǒng)地承認(rèn)(超)強(qiáng)人工智能機(jī)器人的犯罪主體性 〔1 〕;有的則具體指出,當(dāng)(超)強(qiáng)人工智能機(jī)器人在程序設(shè)計(jì)和編制范圍外實(shí)施嚴(yán)重危害社會(huì)的行為時(shí),(超)強(qiáng)人工智能機(jī)器人具有辨認(rèn)能力和控制能力,因而具有刑事責(zé)任能力,應(yīng)當(dāng)獨(dú)立承擔(dān)刑事責(zé)任 〔2 〕;還有的明確指出,“可以參考法人主體的擬制思路,逐步探索構(gòu)建人工智能刑事主體資格的法律擬制模式,基于人工智能的發(fā)展逐步構(gòu)建和完善人工智能主體的意思要素、行為要素,使之正式進(jìn)入刑法主體范圍” 〔3 〕。二是否定(超)強(qiáng)人工智能機(jī)器人“犯罪主體論”和“可歸責(zé)主體論”,可謂否定論。如,有的主張絕對(duì)地否定人工智能機(jī)器人的犯罪主體地位,認(rèn)為人工智能體只可能引起過(guò)失犯罪問題,并以修正的過(guò)失犯理論為依據(jù)將自主性人工智能引起后果的責(zé)任排除在“可容許的危險(xiǎn)”范圍之外,并以此在設(shè)計(jì)者、販賣者、利用者之間分配過(guò)失犯罪的責(zé)任 〔1 〕;有的則認(rèn)為技術(shù)水平、價(jià)值觀念、具體認(rèn)定等方面尚存在較大困難,不可貿(mào)然將(超)強(qiáng)人工智能機(jī)器人納入刑法規(guī)制的行為主體范圍 〔4 〕。綜上可見,人工智能犯罪的可歸責(zé)主體的問題意識(shí)應(yīng)當(dāng)進(jìn)一步限定并具體細(xì)化為:(超)強(qiáng)人工智能犯罪的犯罪主體與可歸責(zé)主體是否可以是(超)強(qiáng)人工智能?

        值得注意的是,法學(xué)界有一種聲音認(rèn)為:當(dāng)前討論(超)強(qiáng)人工智能犯罪——作為一種是否可能真實(shí)發(fā)生而尚未可知的“將來(lái)”犯罪——及其可歸責(zé)主體是否可以是(超)強(qiáng)智能機(jī)器人的問題,純屬無(wú)稽之談的“偽問題”(即“偽問題論”),實(shí)無(wú)討論之必要。前述部分否定論者持有這種見解。劉艷紅教授批評(píng)說(shuō):那種認(rèn)為“必然會(huì)出現(xiàn)具有自我意志的(超)強(qiáng)人工智能,人工智能可能會(huì)取代人類、機(jī)器算法會(huì)取代人類法律……因而主張法律甚至刑法積極應(yīng)對(duì)和規(guī)制人工智能的發(fā)展”的觀點(diǎn),其實(shí)“只是依靠無(wú)數(shù)假想拼湊起來(lái)的幻影”,法學(xué)界部分學(xué)者在不斷制造、跟風(fēng)、放大“假問題”。〔5 〕應(yīng)當(dāng)說(shuō),“偽問題論”通過(guò)質(zhì)疑將來(lái)而回避問題本身的論說(shuō)思路可能并不可取,看不到或者忽視“將來(lái)”的思考也無(wú)益于問題的有效解決,因而“偽問題論”自身的問題意識(shí)也存在合理性疑問。事實(shí)上,同刑法學(xué)界所討論的(超)強(qiáng)人工智能機(jī)器人犯罪“高頻率問題”,即(超)強(qiáng)人工智能機(jī)器人犯罪的歸責(zé)主體是否可以是(超)強(qiáng)人工智能機(jī)器人這一設(shè)問相呼應(yīng),民法學(xué)界乃至國(guó)際私法學(xué)界也較多地討論了智能機(jī)器人的民事主體地位(資格)問題,例如針對(duì)2017年2月16日歐洲議會(huì)通過(guò)的《關(guān)于機(jī)器人民事法律規(guī)則的決議》建議至少應(yīng)明確最精密的自主機(jī)器人擁有“電子人”地位,使之能夠承擔(dān)其引發(fā)的損害的責(zé)任,并可能把“電子人格”適用于那些機(jī)器人自主決定或其他獨(dú)立與第三方交互的案件;再如,針對(duì)同年7月8日我國(guó)國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,提出“建立(人工智能應(yīng)用)追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”,民法學(xué)者就提出應(yīng)賦予人工智能系統(tǒng)“電子人”法律主體地位,或者確認(rèn)其有限的法律人格,似乎認(rèn)為未來(lái)賦予(超)強(qiáng)人工智能系統(tǒng)民事法律主體地位已是大勢(shì)所趨 〔1 〕。憲法學(xué)、行政法學(xué)和法理學(xué)界也討論了智能機(jī)器人的法律主體地位和法哲學(xué)問題,甚至認(rèn)為“人工智能的諸多法理問題中,最為關(guān)鍵的是它的法律主體資格問題” 〔6 〕,有的法理學(xué)者較為絕對(duì)地強(qiáng)調(diào)“應(yīng)當(dāng)賦予人工智能獨(dú)立的法律主體地位并使其成為獨(dú)立的責(zé)任主體” 〔1 〕。如此眾多法學(xué)論題的提出業(yè)已表明,(超)強(qiáng)人工智能犯罪的可歸責(zé)主體問題很可能就是一個(gè)真問題,并且是一個(gè)具有重要學(xué)術(shù)價(jià)值、必須予以厘清的重大基礎(chǔ)理論問題,以致有學(xué)者認(rèn)為“人工智能的主體難題是其刑法命題的根本所在” 〔3 〕??梢姡M管表面上看偽問題論同否定論一樣,二者在基本立場(chǎng)上都是否定(超)強(qiáng)人工智能“犯罪主體論”和“可歸責(zé)主體論”,但是二者在論說(shuō)路徑上存在差異,否定論是在否定偽問題論(即承認(rèn)“真問題”論)基礎(chǔ)上進(jìn)一步反對(duì)肯定論的理論言說(shuō),因此應(yīng)當(dāng)承認(rèn),在肯定論、否定論的立場(chǎng)之外還有偽問題論。當(dāng)然還應(yīng)當(dāng)承認(rèn),針對(duì)真問題論的否定論,不能只是就事論事地簡(jiǎn)單作答,還必須進(jìn)一步深化問題意識(shí),深入研討智能機(jī)器人犯罪內(nèi)在機(jī)理和相關(guān)法理,科學(xué)合理地解決相關(guān)法律實(shí)踐問題。

        本文主張否定論,認(rèn)為人工智能犯罪包括弱人工智能犯罪、強(qiáng)人工智能犯罪乃至超強(qiáng)人工智能犯罪在內(nèi),在生成機(jī)理和內(nèi)在邏輯上只能是人工智能“算法安全犯罪”(即“算法安全犯罪觀”),其犯罪主體和可歸責(zé)主體只能是作為算法社會(huì)關(guān)系主體的“自然人-法人”二元主體(即“自然人-法人二元主體論”或者簡(jiǎn)稱“二元主體論”),在此基礎(chǔ)上秉持科學(xué)合理的刑法觀和方法論,才可能妥當(dāng)解決人工智能犯罪的歸責(zé)原理。

        二、犯罪機(jī)理:人工智能犯罪中人工智能算法安全的相對(duì)自主性與絕對(duì)客體性

        人工智能犯罪概念,理論上有較為寬泛的多樣化的界定。有學(xué)者認(rèn)為,人工智能犯罪(AI-Crime)指與人工智能系統(tǒng)研發(fā)、提供、應(yīng)用和管理相關(guān)的犯罪;人工智能犯罪與網(wǎng)絡(luò)犯罪具有相似性和緊密聯(lián)系,其特點(diǎn)主要有智能性、直接作用于網(wǎng)絡(luò)社會(huì)和物態(tài)社會(huì)“兩個(gè)社會(huì)”的雙重性;根據(jù)人工智能犯罪主要侵犯的法益及其行為特征,可以將其分為侵犯人工智能系統(tǒng)安全的犯罪、利用人工智能實(shí)施的傳統(tǒng)犯罪、利用人工智能侵犯?jìng)€(gè)人信息的犯罪和獨(dú)立的外圍人工智能犯罪、違反人工智能安全管理義務(wù)的犯罪 〔1 〕。有的學(xué)者沒有概念化地界定智能機(jī)器人犯罪,而是具體描述了智能機(jī)器人犯罪的類型。如王肅之指出:“人工智能犯罪可能涉及以下2種類型:第1種類型為人工智能本就應(yīng)用于社會(huì)之中,由于人工智能出現(xiàn)問題或者其他原因產(chǎn)生危害社會(huì)的后果……第2種類型為人工智能被直接用于犯罪?!?〔3 〕再如劉憲權(quán)指出,智能機(jī)器人實(shí)施嚴(yán)重危害社會(huì)的行為可分為兩種,即在程序設(shè)計(jì)和編制范圍內(nèi)實(shí)施的行為和在程序設(shè)計(jì)和編制范圍外實(shí)施的行為 〔2 〕。可見,對(duì)人工智能犯罪的概念界定,有犯罪學(xué)與規(guī)范刑法學(xué)的不同視角及回答。從規(guī)范刑法學(xué)視角看,目前理論界對(duì)于智能機(jī)器人犯罪的生成機(jī)理與內(nèi)在邏輯的揭示尚存不足,部分研究成果從犯罪學(xué)視角討論智能機(jī)器人犯罪的現(xiàn)象、規(guī)律與未來(lái)發(fā)展,并沒有為規(guī)范刑法學(xué)合理有效地規(guī)制智能機(jī)器人犯罪提供足夠的理論智識(shí)資源,急迫需要確立服從并服務(wù)于規(guī)范刑法學(xué)和刑事法治論的研究目標(biāo),轉(zhuǎn)換研究視角,深刻揭示智能機(jī)器人犯罪的根本特質(zhì)。

        應(yīng)當(dāng)說(shuō),目前理論界給出的人工智能犯罪概念,共性地存在的突出缺陷在于:或者未能精準(zhǔn)地揭示出人工智能犯罪的根本特質(zhì)是基于人工智能算法所實(shí)施的犯罪,或者沒能更進(jìn)一步看清人工智能算法的相對(duì)自主性與絕對(duì)客體性。這在一定意義上是一個(gè)犯罪觀問題。犯罪觀是關(guān)于犯罪本質(zhì)、價(jià)值、功能及其發(fā)展規(guī)律等犯罪基本問題的根本看法和基本立場(chǎng),可以說(shuō)是人生觀和世界觀在犯罪問題上的反映。馬克思主義經(jīng)典作家認(rèn)為,犯罪只能是人的行為而不能是人的思想⑤,是“孤立的個(gè)人反對(duì)統(tǒng)治關(guān)系的斗爭(zhēng)” 〔7 〕379,是“蔑視社會(huì)秩序的最明顯、最極端的表現(xiàn)” 〔7 〕416。那么,基于馬克思主義犯罪觀應(yīng)當(dāng)認(rèn)為,人工智能犯罪仍然是人的行為,是人基于人工智能算法所實(shí)施的危害社會(huì)的行為,“人”是犯罪主體,而人工智能(機(jī)器人)并不能成為犯罪主體。這一結(jié)論不僅符合馬克思主義犯罪觀,而且也是精準(zhǔn)揭示和闡釋人工智能犯罪內(nèi)在機(jī)理的結(jié)果。

        人工智能算法自主性是智能機(jī)器人的本質(zhì)屬性和關(guān)鍵功能,算法自主性越強(qiáng)大,則智能性越強(qiáng)大,以此為標(biāo)準(zhǔn)對(duì)智能機(jī)器人進(jìn)行分類,智能機(jī)器人方有弱智能機(jī)器人與(超)強(qiáng)智能機(jī)器人之分。對(duì)此,有論者夸大強(qiáng)調(diào)人工智能算法的法律意義問題,認(rèn)為“人工智能應(yīng)用會(huì)創(chuàng)造出新的客體和新的社會(huì)活動(dòng),如人工智能創(chuàng)造物的權(quán)利主體和權(quán)利歸屬問題,以及人工智能法律系統(tǒng)運(yùn)作的法律價(jià)值和合法性問題。以上新客體、新社會(huì)活動(dòng)都由人工智能算法的運(yùn)用產(chǎn)生,算法實(shí)際起著創(chuàng)造者的‘智能或者社會(huì)活動(dòng)的規(guī)則作用,有必要開啟人工智能的‘黑箱子——人工智能算法,分析人工智能應(yīng)用的‘大腦和‘控制手,研究人工智能算法的邏輯過(guò)程是否符合法律和倫理” 〔1 〕。還有學(xué)者指出,關(guān)于人工智能的算法自主性,倫理學(xué)意義上的擔(dān)憂在于:一是大數(shù)據(jù)和高級(jí)算法可能會(huì)使所有人喪失未來(lái)的自由選擇權(quán),“更為恐怖的是,當(dāng)基于算法的信用數(shù)據(jù)集可以預(yù)測(cè)某人未來(lái)犯罪的可能性時(shí),公安部門可能會(huì)以‘預(yù)防犯罪為名提前干預(yù)他的自由權(quán)利”;二是大數(shù)據(jù)和高級(jí)算法可能會(huì)帶來(lái)數(shù)據(jù)歧視問題,“當(dāng)司法大數(shù)據(jù)推測(cè)黑人的犯罪率較高或阿拉伯人成為恐怖分子的可能性較高,那么監(jiān)管部門可能會(huì)對(duì)他們重點(diǎn)監(jiān)管,甚至提前預(yù)防犯罪,而有些公司也可能會(huì)據(jù)此拒絕雇傭他們,這就是典型的種族歧視和職業(yè)歧視” 〔8 〕。這些論述較為深刻地揭示出人工智能算法的重要性和法律相關(guān)性,值得重視,更值得反思。人工智能算法到底是應(yīng)該絕對(duì)地歸屬于人工智能本身,還是應(yīng)歸屬于作為人工智能算法的設(shè)計(jì)者、創(chuàng)造者、使用者與管理者的“人”?對(duì)此設(shè)問,我們認(rèn)為正確的答案應(yīng)當(dāng)是:“人”才是人工智能算法的真正主人,人工智能算法自主性僅具有相對(duì)性并且在根本上是由“人”創(chuàng)設(shè)和控制的,因而人工智能算法相對(duì)于“人”而言具有相對(duì)自主性與絕對(duì)客體性。

        例如,有學(xué)者提出人工智能武器的概念,指出,能夠在沒有人類參與的情況下選擇和攻擊目標(biāo)的武器或者武器系統(tǒng)都可以稱為人工智能武器?!皬膰?guó)際人道法的角度來(lái)看,人工智能武器主要帶來(lái)了兩個(gè)方面的挑戰(zhàn):一是武器系統(tǒng)選擇和攻擊目標(biāo)能否尊重國(guó)際人道法規(guī)則?二是如果武器系統(tǒng)的使用明顯違反國(guó)際人道法,能否歸責(zé)于個(gè)人或國(guó)家,并追究他們的責(zé)任?” 〔9 〕依筆者的解讀,關(guān)于人工智能武器的法律問題至少包括以下兩方面:其一,人工智能武器可以歸屬于人工智能嗎?答案應(yīng)當(dāng)是可以肯定的,人工智能在其被用于軍事目的時(shí),它是人工智能“軍人”,又可以稱為人工智能“武器”,其本質(zhì)在于具有能夠在沒有人類參與情況下的人工智能算法自主性。以此類推,人工智能機(jī)器人還可以包括人工智能“工人”“農(nóng)民”“醫(yī)生”“駕駛員”“科學(xué)家”“清潔工”等等,阿爾法狗和索菲亞當(dāng)然也都是人工智能機(jī)器人。因此,人工智能機(jī)器人之“人”僅僅是一種“擬人化修辭意義上的人”,它可以是“人”、動(dòng)物乃至其他萬(wàn)物(如武器)的人工智能機(jī)器。其二,人工智能武器基于算法自主性所實(shí)施的軍事攻擊行為及其后果,是歸屬于人工智能本身還是歸屬于“人”(包括作為法人的單位乃至國(guó)家)?答案應(yīng)是只能歸屬于“人”。人工智能算法自主性是由“人”預(yù)設(shè)和主宰的結(jié)果,因而只具有相對(duì)的算法自主性與絕對(duì)的客體性,基于人工智能算法自主性所實(shí)施的全部行為后果——無(wú)論是有利于社會(huì)還是有害于社會(huì),均應(yīng)由作為其主宰者的“人”享有和承擔(dān)。如果人工智能武器基于算法自主性而攻擊錯(cuò)誤或者違反國(guó)際法,對(duì)此承擔(dān)后果的社會(huì)關(guān)系主體只能是“人”,而不可能是人工智能武器。

        綜上,算法犯罪觀認(rèn)為:相對(duì)于人的主體性而言,人工智能算法突出地具有客體性(算法的客體性),因而以人工智能算法自主性為內(nèi)核的人工智能當(dāng)然具有客體性,算法犯罪仍然以人的主體性為根本特征。如果說(shuō)“算法”是智能機(jī)器人的內(nèi)核,那么“算法”本身的弱智能性與強(qiáng)智能性乃至超強(qiáng)智能性,其決定因素在根本上仍然是“人”的弱智能到超強(qiáng)智能,而不是人工智能本身的弱智能到超強(qiáng)智能?!叭恕钡闹悄軓?qiáng)弱在根本上具有決定性,意味著這樣一種邏輯:“人”的智能設(shè)計(jì)越弱,則算法的智能自主性越弱;人的智能設(shè)計(jì)越強(qiáng)大,則算法的智能自主性越強(qiáng)大,超強(qiáng)人工智能在本質(zhì)上仍然是“人”的智能設(shè)計(jì)達(dá)到了超強(qiáng)智能性。因此可以說(shuō),人工智能發(fā)展僅具有單向維度,即:只能是由今天的弱智能自主性“算法”走向?qū)?lái)的強(qiáng)大乃至超強(qiáng)大智能自主性“算法”(可謂“將來(lái)算法”)。以超級(jí)計(jì)算機(jī)的誕生為例,它實(shí)際上就是從普通計(jì)算機(jī)(弱智能自主性)走向超級(jí)計(jì)算機(jī)(超強(qiáng)智能自主性),其內(nèi)核就是算法智能自主性及其發(fā)展方向?!八惴ㄖ悄茏灾餍浴钡男谭ㄟ壿嬍冀K是:人對(duì)“算法智能自主性”犯罪承擔(dān)刑法責(zé)任,人對(duì)“算法智能自主性”的定罪邏輯始終是“人力可控時(shí)可定罪,人力不可控時(shí)不定罪”,人工智能犯罪在當(dāng)下尚處于弱人工智能“算法”階段的定罪邏輯如此,在今后發(fā)展成為(超)強(qiáng)人工智能“算法”階段的定罪邏輯仍然如此,根本無(wú)法例外地對(duì)(超)強(qiáng)人工智能機(jī)器人本身定罪。

        需要指出的是,人工智能犯罪在網(wǎng)絡(luò)時(shí)代可能表現(xiàn)出更加巨大的破壞能量,因?yàn)槿斯ぶ悄芩惴ㄗ灾餍钥梢酝ㄟ^(guò)網(wǎng)絡(luò)工具和數(shù)據(jù)應(yīng)用獲得更大發(fā)揮空間,值得特別警惕。

        三、責(zé)任論:人工智能犯罪僅能歸責(zé)于作為保證人的“自然人-法人”

        傳統(tǒng)刑法理論上“保證人”理論(即“保證人說(shuō)”)具體包括“保證人地位”與“保證人義務(wù)”兩個(gè)概念,本來(lái)是用于闡釋不作為犯之作為義務(wù)的理論。德國(guó)學(xué)者那格拉在1938年首次提出了保證人說(shuō),認(rèn)為只有負(fù)有防止結(jié)果發(fā)生的法律上的作為義務(wù)的人,即處于保證人地位的人的不作為才符合構(gòu)成要件;后來(lái)又發(fā)展成“統(tǒng)一說(shuō)”(或者“統(tǒng)和說(shuō)”)與“區(qū)別說(shuō)”兩種不同見解,但是“兩說(shuō)在實(shí)際使用上并不會(huì)出現(xiàn)太大的差異” 〔10 〕196-197。而人工智能犯罪并不限于不作為犯,還包括作為犯。人工智能犯罪在不作為犯的情形下,當(dāng)然可以運(yùn)用保證人說(shuō)來(lái)進(jìn)行理論闡釋。那么,人工智能犯罪在作為犯的情形下,是否可以借助保證人說(shuō)來(lái)進(jìn)行理論闡釋呢?本文認(rèn)為,對(duì)于人工智能犯罪的作為犯,仍然可以借助保證人說(shuō)的“保證人地位”與“保證人義務(wù)”理論,賦予作為人工智能設(shè)計(jì)者、制造者、使用者和管理者的“自然人-法人”的安全保證責(zé)任,即作為保證人的“自然人-法人”必須對(duì)人工智能及其內(nèi)含的算法的安全性負(fù)責(zé),將人工智能基于算法安全性所為的行為及其結(jié)果歸屬于作為保證人的“自然人-法人”。亦即,人工智能在設(shè)計(jì)和編制的程序范圍內(nèi)外所為人工智能犯罪的責(zé)任歸于作為保證人的“自然人-法人”,這種保證人論歸責(zé)論不能局限于不作為犯構(gòu)成要件符合性與違法性論的理論界說(shuō),而必須作出符合傳統(tǒng)刑法教義學(xué)歸責(zé)論的理論改造。以“自然人-法人”的責(zé)任歸屬為核心的刑法教義學(xué)原理,無(wú)法將(超)強(qiáng)人工智能犯罪的責(zé)任歸屬于(超)強(qiáng)人工智能機(jī)器人,因?yàn)檫@樣將遮蔽作為設(shè)計(jì)者、生產(chǎn)者、銷售者、運(yùn)營(yíng)管理者的“自然人-法人”的責(zé)任歸屬這一本質(zhì)。有學(xué)者指出,應(yīng)當(dāng)借鑒刑事近代學(xué)派所主張的社會(huì)防衛(wèi)論,創(chuàng)立以人工智能等科技風(fēng)險(xiǎn)為對(duì)象的“科技社會(huì)防衛(wèi)論”與“技術(shù)責(zé)任論”,將人工智能作為獨(dú)立的刑事責(zé)任主體,對(duì)具有實(shí)施危害社會(huì)行為的人工智能施以技術(shù)危險(xiǎn)消除措施 〔11 〕。這種見解將“技術(shù)責(zé)任論”直接置換為“將技術(shù)作為責(zé)任主體論”,直接遮蔽了作為保證人的“自然人-法人”的責(zé)任歸屬這一本質(zhì),應(yīng)當(dāng)說(shuō)有所欠當(dāng)。

        責(zé)任論的多重考察可以發(fā)現(xiàn),在從道義責(zé)任論到社會(huì)責(zé)任論再到法的規(guī)范責(zé)任論的發(fā)展演變中,即便是作為最新見解的法的規(guī)范責(zé)任論也始終無(wú)法徹底擺脫道義責(zé)任論,即必須具有自我決定的自由以及具有實(shí)施其他行為的可能性時(shí)才產(chǎn)生責(zé)任的非難的宿命;從結(jié)果責(zé)任論到心理責(zé)任論到規(guī)范責(zé)任論再到功能責(zé)任論的發(fā)展歷程中,不但規(guī)范責(zé)任論仍然是以心理責(zé)任論為前提建立起來(lái)的理論,而且功能責(zé)任論也仍然是以行為人對(duì)法規(guī)范的“忠誠(chéng)”和“意思自由”為前提的⑥。可以說(shuō),意思自由性、倫理譴責(zé)性、規(guī)范責(zé)難性等要素仍然是現(xiàn)代各種責(zé)任論的實(shí)質(zhì)內(nèi)涵,而這些實(shí)質(zhì)內(nèi)涵只能是作為保證人的“自然人-法人”才可能具備,并不能將人工智能算法的相對(duì)自主性與絕對(duì)客體性直接等同于意思自由性、倫理譴責(zé)性和規(guī)范責(zé)難性。

        倫理譴責(zé)性和規(guī)范責(zé)難性是現(xiàn)代刑法責(zé)任論的重要內(nèi)容。倫理譴責(zé)性是犯罪的內(nèi)在倫理評(píng)價(jià)屬性。規(guī)范刑法學(xué)方面有論者主張否定犯罪的倫理譴責(zé)性,客觀上存在嚴(yán)重誤解。針對(duì)賣淫、通奸、吸毒以及其他“無(wú)被害人犯罪”行為,現(xiàn)代刑法基于刑事政策考量而部分地甚至較多地出現(xiàn)非犯罪化,其并非完全否定犯罪的倫理譴責(zé)性,而是強(qiáng)調(diào)不得單純基于倫理譴責(zé)性進(jìn)行犯罪化,還需要進(jìn)行社會(huì)危害性的綜合考量來(lái)決定具體行為的犯罪化與非犯罪化。針對(duì)行政犯(或者法定犯),現(xiàn)代刑法也難以完全否定犯罪的倫理譴責(zé)性,任何行政犯——例如危險(xiǎn)駕駛罪、非法經(jīng)營(yíng)罪、破壞計(jì)算機(jī)信息系統(tǒng)罪等,都難說(shuō)完全否定了其倫理譴責(zé)性,而是強(qiáng)調(diào)了不得單純基于倫理譴責(zé)性的犯罪化。只有“自然人-法人”才能感受倫理譴責(zé)性并遵行此種感受決定行為取舍,而人工智能僅具有“算法”邏輯并決定其行為邏輯,但是不具有感受倫理譴責(zé)性的能力并決定行為邏輯,人工智能“算法”自主性及其行為邏輯只有在融入了作為保證人的“自然人-法人”的保證意思之后才具有倫理譴責(zé)性,因而只能針對(duì)同人工智能“算法”自主性相關(guān)聯(lián)的保證人(即“自然人-法人”)進(jìn)行倫理譴責(zé)性評(píng)價(jià)和犯罪評(píng)價(jià),人工智能犯罪只能歸責(zé)于作為保證人的“自然人-法人”。規(guī)范責(zé)難性是犯罪的外在規(guī)范評(píng)價(jià)屬性。規(guī)范刑法學(xué)的教義化、科學(xué)化和現(xiàn)代化的重要發(fā)展,根本標(biāo)志就是規(guī)范責(zé)任論的確立,強(qiáng)調(diào)刑法的明確規(guī)定性、規(guī)范性和可操作性,由于此內(nèi)容并非本文論題的重點(diǎn),這里不作具體展開論述。

        (超)強(qiáng)人工智能機(jī)器人沒有脫離于“自然人-法人”之外的獨(dú)立存在空間,(超)強(qiáng)人工智能機(jī)器人一旦脫離作為保證人的“自然人-法人”之外就無(wú)法組成社會(huì)組織,其智慧算法和行為永遠(yuǎn)無(wú)法歸屬于其自身而只能歸屬于“自然人-法人”,即使其具有意識(shí)復(fù)制和學(xué)習(xí)進(jìn)步的特異功能,其仍然無(wú)法脫離作為保證人的“自然人-法人”的意識(shí)——保證人所預(yù)設(shè)的算法自主性的意識(shí)而獨(dú)立存在,其仍然無(wú)法成為具有“人心人性”的責(zé)任主體。只有將強(qiáng)智能機(jī)器人犯罪歸責(zé)于作為保證人的“自然人-法人”,才能真正實(shí)現(xiàn)有效歸責(zé)(即倫理譴責(zé)和規(guī)范責(zé)難)。

        民法學(xué)者對(duì)于人工智能基于算法所引致的法律上的權(quán)利和責(zé)任之討論,也有值得刑法責(zé)任論借鑒之處。如基于人工智能所引致的著作權(quán)的法律主體與權(quán)利歸屬問題,有學(xué)者提出了“法律作者”概念,指出,“小冰”人工智能機(jī)器人的出現(xiàn),挑戰(zhàn)了傳統(tǒng)著作權(quán)法的底線。面對(duì)高速發(fā)展的人工智能技術(shù),現(xiàn)在社會(huì)人工詩(shī)集大量出現(xiàn),更多的人工作品涌現(xiàn),我們積極采用“法律擬制”技術(shù),參照發(fā)達(dá)國(guó)家“視為作者”原則,在認(rèn)定人工智能詩(shī)集的作者和著作權(quán)歸屬上,大膽認(rèn)定人工智能詩(shī)集是著作權(quán)法的“作品”,人工智能的管理者是作品的“法律作者”,把機(jī)器人、設(shè)計(jì)者、管理者作為人工智能詩(shī)集的“事實(shí)作者”對(duì)待,最終法律保護(hù)人工智能詩(shī)集的“法律作者”,由“法律作者”享有人工智能詩(shī)集的著作權(quán),而不是由機(jī)器人享有人工智能詩(shī)集的著作權(quán) 〔12 〕。人工智能詩(shī)集作為人工智能機(jī)器人的具體行為所產(chǎn)生的結(jié)果,其權(quán)利與責(zé)任歸屬于作為保證人的管理者(即“自然人-法人”),而不能歸屬于人工智能機(jī)器人,這一原理值得刑法上犯罪的歸責(zé)論借鑒。當(dāng)然在刑法上,除了管理者之外,人工智能的設(shè)計(jì)者、制造者的歸責(zé)問題還需要進(jìn)一步厘清。例如,當(dāng)人工智能詩(shī)集的內(nèi)容存在嚴(yán)重違背國(guó)家法律規(guī)定并被公之于眾產(chǎn)生嚴(yán)重社會(huì)危害后果時(shí),如果構(gòu)成犯罪,那么應(yīng)該如何確定其歸責(zé)主體及其刑事責(zé)任?對(duì)此,應(yīng)當(dāng)首先確定作為人工智能的保證人的“自然人-法人”,包括設(shè)計(jì)者、制造者、使用者、管理者,然后再依據(jù)刑法上歸責(zé)原理具體確定保證人的刑事責(zé)任,而不應(yīng)當(dāng)通過(guò)對(duì)人工智能機(jī)器人歸責(zé)的方式來(lái)規(guī)避保證人的刑事責(zé)任。

        劉憲權(quán)提出,在設(shè)計(jì)和編制的程序范圍外人工智能犯罪的歸責(zé)主體問題,認(rèn)為:“當(dāng)智能機(jī)器人在程序設(shè)計(jì)和編制范圍外實(shí)施嚴(yán)重危害社會(huì)的行為時(shí),智能機(jī)器人具有辨認(rèn)能力和控制能力,因而具有刑事責(zé)任能力,應(yīng)當(dāng)獨(dú)立承擔(dān)刑事責(zé)任?!?〔2 〕這種見解的邏輯問題值得分析。其一,這個(gè)問題仍然應(yīng)當(dāng)在人工智能算法自主性的相對(duì)性與絕對(duì)客體性之內(nèi)來(lái)認(rèn)識(shí);其二,在設(shè)計(jì)和編制的程序范圍外人工智能犯罪的歸責(zé)事由,還可以根據(jù)原因自由行為論,將作為保證人的“自然人-法人”基于自由意思所為“在設(shè)計(jì)和編制的程序范圍外實(shí)施行為的智能機(jī)器人”這一行為闡釋為原因自由行為的歸責(zé)原理來(lái)闡釋,作為保證人的“自然人-法人”所實(shí)施的人工智能算法的設(shè)計(jì)、制造、使用和管理行為仍然可以作為原因自由行為進(jìn)行歸責(zé),而不是對(duì)人工智能算法本身歸責(zé)。

        因此,針對(duì)學(xué)者提出的人工智能編制程序外的算法犯罪,盡管這種人工智能犯罪類型可能涉及十分復(fù)雜的技術(shù)難題,但是仍然應(yīng)當(dāng)承認(rèn)其沒有超越保證人責(zé)任,只要其應(yīng)當(dāng)屬于算法安全風(fēng)險(xiǎn)可控性之內(nèi),就應(yīng)當(dāng)承認(rèn)其成立保證人責(zé)任,并實(shí)行舉證責(zé)任倒置原則(程序法原則)。如果其不屬于算法安全風(fēng)險(xiǎn)可控性之內(nèi),則應(yīng)當(dāng)承認(rèn)其為意外事件而不追究保證人責(zé)任,并且這種意外事件也難以“客觀歸責(zé)”于人工智能算法本身。

        四、刑罰觀:人工智能犯罪僅能通過(guò)“自然人-法人”完成報(bào)應(yīng)和預(yù)防功能

        刑罰論的基礎(chǔ)和核心是刑罰正義根據(jù)論,簡(jiǎn)稱刑罰根據(jù)論、刑罰論。刑罰根據(jù)論在概念邏輯上存在報(bào)應(yīng)論(報(bào)應(yīng)刑論)、功利論(預(yù)防刑論與目的刑論)、并合論(一體論)之分⑦,并且應(yīng)當(dāng)注意的是,在人類刑法實(shí)踐歷史上應(yīng)當(dāng)說(shuō)并不存在單純的報(bào)應(yīng)論或者單純的功利論,自古至今世界各國(guó)普遍遵行相當(dāng)意義上的并合論,“拋棄片面的報(bào)應(yīng)論與功利論而追求系統(tǒng)的一體論,應(yīng)該是關(guān)于刑罰根據(jù)論的一種必然而合理的選擇”⑧。刑罰的正當(dāng)化根據(jù)是報(bào)應(yīng)的正當(dāng)性與預(yù)防犯罪目的(功利主義)的合理性,基于報(bào)應(yīng)所裁量的刑罰是責(zé)任刑,基于預(yù)防犯罪目的(功利主義)所裁量的刑罰是預(yù)防刑⑨。應(yīng)當(dāng)說(shuō),刑罰根據(jù)論的并合論命題一經(jīng)發(fā)現(xiàn)和明確提出即獲得了廣泛共識(shí),并且表面上至今沒有人提出更具創(chuàng)新性的理論洞見 〔13 〕357。以此刑罰觀及其內(nèi)在法理審查(超)強(qiáng)人工智能犯罪的受罰主體,如果將(超)強(qiáng)人工智能機(jī)器人本身作為可歸責(zé)主體并對(duì)其進(jìn)行刑罰處罰,就無(wú)法獲得合理性和可行性。

        目前部分學(xué)者針對(duì)(超)強(qiáng)人工智能犯罪所提出的“刪除數(shù)據(jù)、修改程序、永久銷毀” 等刑罰種類 〔2 〕,應(yīng)當(dāng)說(shuō)難以匹配刑罰本質(zhì)并實(shí)現(xiàn)刑罰功能。因?yàn)檫@些特別“刑罰種類”只有作為保證人的“自然人-法人”才能感受到并起到以儆效尤的刑罰懲罰(報(bào)應(yīng))與預(yù)防功能,而(超)強(qiáng)人工智能機(jī)器人并不可能關(guān)心“懲罰與預(yù)防”而只在乎“算法”并且將始終不改地按照其既定“算法”行事(行動(dòng)),“算法”被修改而改變行為的原因不是因?yàn)閼土P影響“人心人性”所致,而是因?yàn)椤八惴ā彼鶠?,由此無(wú)法實(shí)現(xiàn)刑罰的一般預(yù)防和特殊預(yù)防功能。單罰制與雙罰制均無(wú)法適用于智能機(jī)器人。

        因此,刑法無(wú)法規(guī)制作為被“自然人-法人”塑造的智能機(jī)器人??梢宰專ǔ?qiáng)人工智能機(jī)器人(有智無(wú)心)超越人,但是(超)強(qiáng)人工智能機(jī)器人不可以成為社會(huì)關(guān)系人。(超)強(qiáng)人工智能機(jī)器人可以在智力領(lǐng)域超越人,正因?yàn)槿绱?,它不能成為真?shí)存在的社會(huì)關(guān)系人。當(dāng)(超)強(qiáng)人工智能機(jī)器人可以由“人”隨意塑造時(shí),應(yīng)受處罰的只能是作為塑造者的“人”,而不能是作為被塑造者的(超)強(qiáng)人工智能機(jī)器人;當(dāng)(超)強(qiáng)人工智能機(jī)器人已經(jīng)發(fā)展到唯我獨(dú)尊,而不再可以由“人”隨意塑造時(shí),人類的刑罰就在根本上喪失了要求其應(yīng)受處罰的合理性。

        五、刑法常識(shí)觀:人工智能犯罪中“人心人性”的人類社會(huì)學(xué)意義

        作為刑法學(xué)方法論的“三常論”,要求研究者必須針對(duì)研究對(duì)象、研究方法、研究結(jié)論等進(jìn)行“三常論”判斷(即進(jìn)行常識(shí)、常情、常理的判斷)⑩,排除有違“三常論”判斷的學(xué)術(shù)見解?!叭U摗迸袛嗫赡芫哂袝r(shí)空性,當(dāng)下的三常論判斷,必須立足于“當(dāng)下”的常識(shí)、常情、常理進(jìn)行學(xué)術(shù)判斷;將來(lái)的三常論判斷,則必須立足于“將來(lái)”的常識(shí)、常情、常理進(jìn)行學(xué)術(shù)判斷,也就是說(shuō)既要反對(duì)以當(dāng)下的三常論判斷代替將來(lái)的三常論判斷,也要反對(duì)以將來(lái)的三常論判斷代替當(dāng)下的三常論判斷。當(dāng)下,不少人認(rèn)為“將來(lái)已來(lái)”,那么,在“將來(lái)已來(lái)”的語(yǔ)境下,當(dāng)下刑法學(xué)應(yīng)當(dāng)如何預(yù)判“將來(lái)”的三常論內(nèi)核?通過(guò)“將來(lái)”的三常論判斷,刑法學(xué)還應(yīng)當(dāng)摒棄(超)強(qiáng)人工智能機(jī)器人“犯罪主體論”嗎?這是本文希望回答和論證的兩個(gè)關(guān)聯(lián)性問題。

        (超)強(qiáng)智能機(jī)器人可否成為社會(huì)關(guān)系的主體(身份)?當(dāng)下的和將來(lái)的“三常論”判斷需要考察以下要素:

        (一)心智齊備是人成為社會(huì)關(guān)系主體的核心要素?!叭!北緛?lái)就是對(duì)人的心智的高度概括,即對(duì)人心人性和人的智慧的高度概括,人是具有“三?!碧刭|(zhì)的靈長(zhǎng)類動(dòng)物。人類社會(huì)是由人(自然人)自我發(fā)展、自我構(gòu)建、自主建設(shè)而成的,而人之所以能夠自我發(fā)展、自我構(gòu)建、自主建設(shè)成立人類社會(huì),是因?yàn)槿耸怯行闹堑摹叭f(wàn)物之靈”,從而人可以成為社會(huì)關(guān)系主體。心智齊備是人成為社會(huì)關(guān)系主體的核心要素,這是當(dāng)下的“三常論”判斷。心智齊備強(qiáng)調(diào)的內(nèi)容,不僅是有“智”(智慧),而且是有“心”(人心人性),有心有智(或者有智有心)是人的特質(zhì),是社會(huì)關(guān)系主體的特質(zhì)。人具有實(shí)質(zhì)的“三?!碧刭|(zhì),法人(含國(guó)家)具有擬制的實(shí)質(zhì)的“三?!碧刭|(zhì),因此可以說(shuō)自然人和法人具有實(shí)質(zhì)的“三?!碧刭|(zhì)。為什么說(shuō)法人具有擬制的實(shí)質(zhì)的“三常”特質(zhì)?簡(jiǎn)單說(shuō),是因?yàn)榉ㄈ耸蔷哂凶匀蝗诵闹堑慕M合體,“資合”僅是法人的表象,“人合”才是法人的實(shí)質(zhì),所以有人感嘆應(yīng)當(dāng)像選擇結(jié)婚對(duì)象一樣選擇股東和合伙人;法人決策時(shí)即使在出現(xiàn)“人不合”和公司僵局的情形下,其決策仍然能夠適時(shí)體現(xiàn)出實(shí)質(zhì)的“三?!碧刭|(zhì)。

        那么,(超)強(qiáng)智能機(jī)器人是否具有心智,進(jìn)而成為社會(huì)關(guān)系主體?依“三常論”判斷,(超)強(qiáng)智能機(jī)器人難以符合“心智齊備”的特質(zhì),其可能具有“智”甚至是超強(qiáng)智慧,但是其難以獲得“心”(即人心人性),因而(超)強(qiáng)智能機(jī)器人僅僅是“有智無(wú)心”之物,并不具備社會(huì)關(guān)系主體特質(zhì),難以成為社會(huì)關(guān)系主體(身份)。

        可以說(shuō),心智是當(dāng)下“三常論”對(duì)社會(huì)關(guān)系主體特質(zhì)判斷的核心要素,將來(lái)“三常論”判斷也是如此,心智是社會(huì)關(guān)系主體所必須具備的基本特征。

        (二)(超)強(qiáng)智能機(jī)器人不具備人“心”,僅具有財(cái)產(chǎn)性和工具性,缺乏善惡道德價(jià)值觀、社會(huì)行為規(guī)范的根本作用點(diǎn)。人“心”是善惡道德價(jià)值觀、社會(huì)行為規(guī)范的根本作用點(diǎn)?!坝行摹保ㄓ腥诵挠腥诵裕┮馕吨猩茞旱赖聝r(jià)值觀、社會(huì)倫理價(jià)值觀、有社會(huì)行為規(guī)范可能性,有智無(wú)心(無(wú)人心無(wú)人性)不能成為社會(huì)關(guān)系主體。這是“三常論”判斷的理論基礎(chǔ)。有學(xué)者指出:人之所以為人,本質(zhì)上是智性、心性、靈性三者合成,心性是感情、情緒、感覺的發(fā)源地,不同于智性;機(jī)器人雖可仿及人的智性,但不能仿及人類心性(尚未聞人工智能有感情,未聞?dòng)袡C(jī)器人為情所累),人工智能不可能達(dá)到人類一般的“主體性” 〔6 〕。由于智能機(jī)器人“有智無(wú)心”的特點(diǎn),因此(超)強(qiáng)智能機(jī)器人也可以稱謂為“強(qiáng)智能機(jī)器狗”“阿爾法狗”。難道,索菲亞能夠超越“強(qiáng)智能機(jī)器狗”“阿爾法狗”而成為真正的人?

        財(cái)產(chǎn)性與工具性是(超)強(qiáng)智能機(jī)器人和法人的共性,但是法人因?yàn)榫哂袛M制的“人心人性”而可以獲得擬制的主體性,而機(jī)器人因不具有“人心人性”而無(wú)法獲得任何擬制的主體性。即機(jī)器人與法人的相互關(guān)系是單向性的,即法人可以像人一樣擁有其他法人和機(jī)器人,而機(jī)器人不能擁有法人和(其他)機(jī)器人。機(jī)器人的特質(zhì)僅僅是“技術(shù)”而不是人的心智(有智無(wú)心),法人可以融入人的某種心智(有智有心),從而法人可以成為社會(huì)關(guān)系主體。

        有智有心者方為同類,“人心人性”是人類的基本要素,動(dòng)物因?yàn)榫邆涑醪降幕蛘咻^強(qiáng)的“人心人性”而成為人類伙伴,有利用有珍惜,某些“通人性”的動(dòng)物還獲得了較大尊榮(如某些動(dòng)物被賦予“人”一樣的待遇);但是索菲亞和阿爾法狗卻無(wú)法獲得“人心人性”而只能成為更加純粹的財(cái)產(chǎn)性,難以獲得人的同類身份和待遇。

        (三)機(jī)器人無(wú)法融入“三常”的刑法感知能力。 “三?!笔切谭ǜ兄芰Φ幕疽?,法人可以融入“三?!?,法人具有感知刑罰的能力并且使得刑罰功能可以發(fā)揮報(bào)應(yīng)和預(yù)防功能,因而法人可以成為犯罪主體和受罰主體。而機(jī)器人無(wú)法融入“三?!保ㄓ兄菬o(wú)心),機(jī)器人無(wú)法感知刑罰并發(fā)揮報(bào)應(yīng)和預(yù)防功能;當(dāng)前智能機(jī)器人不能成為犯罪主體,這是“三常論”判斷,至于將來(lái),可能有待于“將來(lái)的三常論判斷”,但是當(dāng)前的乃至將來(lái)的三常論判斷是其未來(lái)仍然不可能成為犯罪主體。

        綜上可以說(shuō),以索菲亞(美女)和阿爾法(狗)的共性分析為例,可以預(yù)知將來(lái)(超)強(qiáng)人工智能機(jī)器人身份的三常論判斷結(jié)論是:其只能成為“人心人性”的客體,而不可能成為“人心人性”的主體。

        六、刑法進(jìn)化觀:人工智能犯罪中“自然人-法人”二元主體模式的堅(jiān)守與完善

        刑法進(jìn)化觀強(qiáng)調(diào)刑法有一個(gè)進(jìn)化發(fā)展的過(guò)程,而不能死守過(guò)去。例如,法人犯罪的立法化和司法實(shí)踐,盡管其在理論上尚存爭(zhēng)議,但是在相當(dāng)意義上仍然可以說(shuō)其是刑法進(jìn)化觀的一個(gè)例證。如前所述,法人(含國(guó)家)具有擬制的、實(shí)質(zhì)的“三?!碧刭|(zhì)而可以成為可歸責(zé)主體,有學(xué)者就以法人犯罪中“法人”犯罪主體論和可歸責(zé)主體論為例,來(lái)論證人工智能犯罪中(超)強(qiáng)人工智能機(jī)器人犯罪主體論和可歸責(zé)主體論的合理性。那么,這種論證邏輯及其結(jié)論的合理性值得反思。

        法人擬制犯罪的刑事政策原理不能適用于人工智能犯罪,在形式上和實(shí)質(zhì)上(超)強(qiáng)人工智能犯罪均毫無(wú)例外地屬于“自然人-法人”犯罪的范疇。僅在(超)強(qiáng)智能機(jī)器人(個(gè)體與群體)作為“法人”資格時(shí)其可以成為法人擬制犯罪,但是這時(shí)其是因?yàn)樽鳛椤胺ㄈ恕倍蔀榉缸镏黧w,而不是因?yàn)椤埃ǔ?qiáng)智能機(jī)器人”而成為犯罪主體。“自然人-法人”的行為社會(huì)意義可以獨(dú)立地成為自身的法律行為,但是(超)強(qiáng)智能機(jī)器人的行為社會(huì)意義無(wú)法獨(dú)立地成為“其自身”的法律行為,而只能成為作為居于保證人地位的“自然人-法人”的法律行為。(超)強(qiáng)智能機(jī)器人永遠(yuǎn)只能成為社會(huì)意義上的“無(wú)產(chǎn)階級(jí)”,但是“自然人-法人”從一開始就是社會(huì)意義上的“有產(chǎn)階級(jí)”(指自身的權(quán)利義務(wù)),這是(超)強(qiáng)智能機(jī)器人不同于“自然人-法人”的根本特質(zhì)。二元主體模式無(wú)法走向三元主體模式。

        (超)強(qiáng)人工智能機(jī)器人犯罪可能包括殺人、侵財(cái)、危害國(guó)家安全與公共安全、破壞經(jīng)濟(jì)秩序與社會(huì)秩序等,但是其自身難以獲得社會(huì)政治意義,這一點(diǎn)不同于“自然人-法人”犯罪,因?yàn)椤白匀蝗?法人”犯罪可以獲得社會(huì)政治意義。上帝不會(huì)成為刑罰對(duì)象,但法人可以,故“上帝-人”二元主體模式不可隱喻;但基于犯罪主體擬制論之下的心智可控論、獨(dú)立權(quán)利義務(wù)主體資格論和刑法治理策略論,可構(gòu)建“自然人-法人”二元主體模式,但是無(wú)法構(gòu)建“自然人-法人-人工智能機(jī)器人”三元主體模式。為解決法人和人工智能機(jī)器人難題,刑法上可以處罰法人,但是刑法策略上無(wú)法處罰機(jī)器人,因?yàn)獒槍?duì)(超)強(qiáng)人工智能機(jī)器人的刪、改、毀,僅可以成為針對(duì)作為(超)強(qiáng)人工智能機(jī)器人之保證人的“自然人-法人”的財(cái)產(chǎn)而施加的相應(yīng)的行政法措施(具體行政行為)、民法措施(民事法律行為)乃至保安處分措施。因此,關(guān)鍵法理在于(超)強(qiáng)人工智能機(jī)器人無(wú)法獲得與“自然人-法人”一樣的“人心人性”,從而無(wú)法獲得權(quán)利義務(wù)主體資格,今天無(wú)法獲得,將來(lái)也無(wú)法獲得,其根本法理正在于(超)強(qiáng)人工智能機(jī)器人永遠(yuǎn)無(wú)法獲得“人心人性”。

        刑法進(jìn)化觀盡管不能證成(超)強(qiáng)人工智能機(jī)器人的可歸責(zé)主體論,但是也不能以此放棄針對(duì)(超)強(qiáng)人工智能機(jī)器人犯罪提出的新問題進(jìn)行刑法完善的思考。人工智能機(jī)器人犯罪在本質(zhì)上可以抽象為“算法安全犯罪”,即人工智能機(jī)器人毫無(wú)例外地被限定為通過(guò)算法或者針對(duì)算法所實(shí)施的危害公共安全犯罪以及妨害作為算法安全管理的社會(huì)管理秩序犯罪,這些犯罪明顯地具有不同于網(wǎng)絡(luò)數(shù)據(jù)犯罪以及其他通過(guò)非智能算法和數(shù)據(jù)所實(shí)施的傳統(tǒng)犯罪的突出特點(diǎn)。據(jù)此,人工智能算法犯罪可以類型化為三種犯罪:

        一是設(shè)計(jì)、制造、銷售、使用不符合算法安全標(biāo)準(zhǔn)的人工智能產(chǎn)品罪,其侵害的法益是作為公共安全的人工智能算法安全,可以比照《刑法》第146條的立法規(guī)定設(shè)置罪狀和法定刑。提出這一立法建議方案的理由在于:盡管《刑法》第146條規(guī)定的生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪作為一般法條規(guī)定,在邏輯上可以囊括所有生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品——其中可以包括不符合算法安全標(biāo)準(zhǔn)的人工智能產(chǎn)品——的犯罪行為,表面上可以將生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的人工智能產(chǎn)品行為予以定罪處罰,但是,《刑法》第146條并沒有準(zhǔn)確反映出人工智能產(chǎn)品所涉“算法安全犯罪”的特殊性,即這種算法安全犯罪在本質(zhì)上是一種危害公共安全犯罪而非一般意義上的生產(chǎn)、銷售偽劣商品犯罪,因而應(yīng)當(dāng)將其單獨(dú)設(shè)罪并規(guī)定在危害公共安全罪一章之中;同時(shí),《刑法》第146條也沒有全面規(guī)定“設(shè)計(jì)、制造、銷售、使用”等行為多樣性,較為明顯地忽略了“設(shè)計(jì)”“使用”不符合算法安全標(biāo)準(zhǔn)的人工智能產(chǎn)品行為的特殊危害性,因而也有必要增加規(guī)定該新罪名。

        二是非法制造、持有、買賣、運(yùn)輸、使用人工智能武器罪,其侵害的法益是作為重大公共安全的人工智能算法安全,可以比照《刑法》第125條的立法規(guī)定設(shè)置罪狀和法定刑。之所以提出比照《刑法》第125條規(guī)定這個(gè)新罪名,重要原因是人工智能武器所涉國(guó)際關(guān)系和國(guó)內(nèi)政治上的重大公共安全性,極容易造成人道主義重大災(zāi)難,而在刑法規(guī)范意義上難以將人工智能武器周全涵攝于“槍支、彈藥、爆炸物”或者“危險(xiǎn)物質(zhì)”之中,因而增加規(guī)定該新罪名具有重大政治意義和法治價(jià)值。

        三是擅自改變?nèi)斯ぶ悄墚a(chǎn)品算法與用途罪,其侵害的法益是作為算法安全管理的社會(huì)管理秩序,可以比照《刑法》第286條的立法規(guī)定設(shè)置罪狀和法定刑。之所以提出增加規(guī)定這個(gè)新罪名,是基于人工智能產(chǎn)品算法與用途一旦被擅自改變,就可能造成人工智能產(chǎn)品的管理失序并引發(fā)新的危害算法安全犯罪和危害管理秩序犯罪;同時(shí),算法安全管理不同于數(shù)據(jù)安全管理,如果說(shuō)《刑法》第286條是針對(duì)數(shù)據(jù)安全管理的犯罪,那么,本新罪名就是針對(duì)算法安全管理的犯罪,因此,有必要在《刑法》第286條規(guī)定的破壞計(jì)算機(jī)信息系統(tǒng)罪之外再特別規(guī)定擅自改變?nèi)斯ぶ悄墚a(chǎn)品算法與用途罪。

        有關(guān)人工智能算法安全犯罪方面的立法完善論有待另文展開深入討論,這里不再贅述。

        注 釋:

        ①本文在使用“人工智能”這一語(yǔ)詞時(shí)可能具有多重含義,其可以作為名詞使用,含義等同于“人工智能機(jī)器人”;也可以作為修飾語(yǔ)使用,含義等同于“人工智能的”或者“人工智能機(jī)器人的”。

        ②人工智能根據(jù)智能水平的高低可以分為弱人工智能(Weak Artificial Intelligence)、強(qiáng)人工智能(Strong Artificial Intelligence)和超強(qiáng)人工智能(Super Artificial Intelligence)。參見高銘暄、王紅:《互聯(lián)網(wǎng)+人工智能全新時(shí)代的刑事風(fēng)險(xiǎn)與犯罪類型化分析》,載《暨南學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2018年第9期。

        ③人工智能還可以分為專用人工智能、通用人工智能、超級(jí)人工智能三類。參見趙秉志、詹奇瑋:《現(xiàn)實(shí)挑戰(zhàn)與未來(lái)展望:關(guān)于人工智能的刑法學(xué)思考》,載《暨南學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019年第1期。

        ④由于我國(guó)《刑法》規(guī)定了單位犯罪,因而這里的“法人”是指可以構(gòu)成單位犯罪的“法人”單位。

        ⑤這里馬克思指出的原文是:“凡是不以行為本身而以當(dāng)事人的思想方式作為主要標(biāo)準(zhǔn)的法律,無(wú)非是對(duì)非法行為的公開認(rèn)可。”參見《馬克思恩格斯全集》(第1卷),人民出版社1957年版,第16頁(yè)。

        ⑥參見陳家林:《外國(guó)刑法理論的思潮與流變》,中國(guó)人民公安大學(xué)出版社、群眾出版社2017年版,第371-377頁(yè)。

        ⑦參見張明楷:《新刑法與并合主義》,載《中國(guó)社會(huì)科學(xué)》2000年第1期;邱興?。骸蛾P(guān)于懲罰的哲學(xué):刑罰根據(jù)論》,法律出版社2000年版,第331-333頁(yè)。

        ⑧邱興隆教授認(rèn)為,“報(bào)應(yīng)論與功利論在人類歷史上曾各領(lǐng)風(fēng)騷,各顯輝煌,但終歸為一體論所取代”。參見邱興?。骸蛾P(guān)于懲罰的哲學(xué):刑罰根據(jù)論》,法律出版社2000年版,第332頁(yè)。

        ⑨參見張明楷:《論預(yù)防刑的裁量》,載《現(xiàn)代法學(xué)》2015年第1期。

        ⑩參見陳忠林:《刑法散得集(Ⅱ)》,重慶大學(xué)出版社2012年版,第17-27頁(yè)。

        參考文獻(xiàn):

        〔1〕皮 勇.人工智能刑事法治的基本問題〔J〕.比較法研究,2018(05):149-166.

        〔2〕劉憲權(quán).人工智能時(shí)代刑事責(zé)任與刑罰體系的重構(gòu)〔J〕.政治與法律,2018(03):89-99.

        〔3〕王肅之.人工智能犯罪的理論與立法問題初探〔J〕.大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(04):53-63.

        〔4〕趙秉志,詹奇瑋.現(xiàn)實(shí)挑戰(zhàn)與未來(lái)展望:關(guān)于人工智能的刑法學(xué)思考〔J〕.暨南學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019(01):98-110.

        〔5〕劉艷紅.人工智能法學(xué)研究中的反智化批判〔J〕.東方法學(xué),2019(09):1-83.

        〔6〕范忠信.人工智能法理困惑的保守主義思考〔J〕.探索與爭(zhēng)鳴,2018(09):76-83.

        〔7〕馬克思恩格斯全集:第3卷〔M〕.北京:人民出版社,1960.

        〔8〕何 淵.智能社會(huì)的治理與風(fēng)險(xiǎn)法學(xué)的建構(gòu)與證成〔J〕.東方法學(xué),2019(01):68-83.

        〔9〕張衛(wèi)華.人工智能武器對(duì)國(guó)際人道法的新挑戰(zhàn)〔J〕.政法論壇,2019(04):144-155.

        〔10〕陳家林.外國(guó)刑法理論的思潮與流變〔M〕.北京:中國(guó)人民公安大學(xué)出版社,群眾出版社,2017.

        〔11〕黃云波.論人工智能時(shí)代的刑事責(zé)任主體:誤區(qū)、立場(chǎng)與類型〔J〕.中國(guó)應(yīng)用法學(xué),2019(02):163-175.

        〔12〕李偉民.人工智能詩(shī)集的版權(quán)歸屬研究〔J〕.電子知識(shí)產(chǎn)權(quán),2019(01):22-27.

        〔13〕魏 東.死刑修改的刑罰論分析〔C〕//郎勝,朱孝清,梁根林.全國(guó)刑法學(xué)術(shù)年會(huì)文集(2017年度):時(shí)代變遷與刑法現(xiàn)代化(上卷).北京:中國(guó)人民公安大學(xué)出版社,群眾出版社,2017.

        責(zé)任編輯 楊在平

        猜你喜歡
        法人
        法人征訂(新)
        法人(2023年9期)2023-12-01 14:50:14
        法人形象廣告
        法人(2023年9期)2023-12-01 14:50:12
        截至2022年底中國(guó)法人和非法人組織突破6 000萬(wàn)個(gè)
        完善法人治理結(jié)構(gòu) 增強(qiáng)打造世界領(lǐng)先內(nèi)生動(dòng)力——中國(guó)石化完善法人治理結(jié)構(gòu)的實(shí)踐與思考
        非營(yíng)利法人破產(chǎn)特殊制度安排研究
        對(duì)《民法總則》法人的分類方式的思考
        陜西省法人及其他組織違法失信“黑名單”
        法人作品中創(chuàng)作者署名權(quán)保護(hù)的解釋進(jìn)路
        法律方法(2018年3期)2018-10-10 03:21:26
        試論英美法系法人犯罪的歸責(zé)路徑及其對(duì)我國(guó)的啟示
        刑法論叢(2018年1期)2018-02-16 08:07:34
        論法人侵權(quán)
        亚洲av网站在线免费观看| 欧美午夜精品一区二区三区电影 | 久久综合久中文字幕青草| 久久99免费精品国产| 午夜国产精品视频在线观看| 放荡的少妇2欧美版| 精品国产乱码久久久久久口爆网站| 伊人精品在线观看| 大白屁股流白浆一区二区三区| 国产午夜精品视频在线观看| 青青草骚视频在线观看| 国产日韩精品suv| 午夜男女爽爽爽在线视频| 日本a在线免费观看| 日本女同伦理片在线观看| 国内精品少妇久久精品| 午夜无码一区二区三区在线观看| 久久99热久久99精品| 一区二区精品| 国产福利一区二区三区在线观看| 亚洲成av人片乱码色午夜| 欧美激情内射喷水高潮| 国产成人香蕉久久久久| 国产美女高潮流白浆视频| 国产精品videossex国产高清| 欧美日韩成人在线| 中日韩欧美成人免费播放| 韩国日本在线观看一区二区| 九九精品国产亚洲av日韩| 免费a级毛片无码a∨中文字幕下载| 国产女精品视频网站免费 | 少妇av射精精品蜜桃专区| 欧美中文字幕在线| 精品人妻一区二区三区av| 日韩人妻无码精品一专区二区三区| 亚洲av无码一区二区三区天堂古代 | АⅤ天堂中文在线网| 日本视频在线观看一区二区 | 精品亚洲国产亚洲国产| 国产69久久精品成人看| 亚洲精品无码久久毛片|