亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        對(duì)人工智能體作為刑事責(zé)任主體的反思

        2019-03-18 07:36:05
        關(guān)鍵詞:主體人工智能人類

        胡 莎

        一、引 言

        人工智能刑事責(zé)任問(wèn)題,在現(xiàn)有刑法理論研究中,被過(guò)度簡(jiǎn)單化為人工智能能否成為刑事責(zé)任主體的問(wèn)題,主要觀點(diǎn)是:人工智能的屬性,不可能永遠(yuǎn)只是人類的工具、產(chǎn)品或財(cái)物,其有朝一日必將脫離人類控制,成為與人類平起平坐、等量齊觀的新型人工智能體(Artificial Intelligence Entity,一般簡(jiǎn)稱AI Entity),其與自然人、法人一樣,也具有刑事責(zé)任能力,因此,人工智能體也應(yīng)是刑事責(zé)任主體或犯罪主體,可直接給人工智能定罪,至于適用的刑罰方式,應(yīng)是刪除數(shù)據(jù)、修改程序或永久銷毀等。[1-5]但本文認(rèn)為,人工智能刑事責(zé)任之確認(rèn)議題,其研究重點(diǎn)不應(yīng)以未來(lái)主義的理論預(yù)言為主,不應(yīng)通過(guò)比較人工智能和人類的能力后主張前者應(yīng)為自己的安全運(yùn)行承擔(dān)刑事責(zé)任;在特別講求實(shí)用主義的刑法中,應(yīng)以現(xiàn)實(shí)主義為出發(fā)點(diǎn),按照如下思路,解決如下問(wèn)題:不同種類、能力水平的人工智能體,屬于危險(xiǎn)級(jí)別不同的犯罪危險(xiǎn)來(lái)源,在出現(xiàn)故障、事故、對(duì)個(gè)體造成危害或出現(xiàn)犯罪公共風(fēng)險(xiǎn)后,假如由人工智能體承擔(dān)刑事責(zé)任,將如何解決由此帶來(lái)的重大刑法道德困境和適用難題,應(yīng)如何全新詮釋刑法中的禁止規(guī)范和行為規(guī)范,如果人工智能體不作為刑事責(zé)任主體,對(duì)相關(guān)主體予以刑事歸責(zé),將面臨哪些難題。[6]687

        一般來(lái)說(shuō),人工智能是人類通過(guò)計(jì)算機(jī)語(yǔ)言編程,讓機(jī)器模擬、延伸、擴(kuò)展、學(xué)習(xí)人類行為及其頭腦空間中的所有認(rèn)知、思維、推理、決策等能力,以此代替人類完成原本由人類完成的任務(wù),而其中人工智能的載體,即有可能被追究刑事責(zé)任的主體,被稱為人工智能體(AI Entity/AI Agency)。[1-5]不同種類、能力水平的人工智能體,其刑事責(zé)任的確認(rèn)總體上應(yīng)相同,但在具體規(guī)則問(wèn)題上會(huì)有細(xì)微差別。眾所周知,大部分學(xué)者將人工智能分為弱人工智能(適用單一領(lǐng)域)、強(qiáng)人工智能(適用各個(gè)領(lǐng)域)和超人工智能(已經(jīng)超越人類)。這根據(jù)人工智能的適用范圍來(lái)區(qū)分,顯得有點(diǎn)簡(jiǎn)單而粗糙。筆者認(rèn)為應(yīng)根據(jù)機(jī)器人的智能分層,主張人工智能體可分行動(dòng)智能體(Action Intelligence Entity)、自主智能體(Autonomous Intelligence Entity)和仿人智能體(Human-Based Intelligence Entity),其中仿人智能體也稱為智能機(jī)器人(AI Robot)或“智機(jī)”(machina sapiens), 即與被稱為“智人”(homo sapiens)的人類相對(duì)。[7]274因?yàn)榇朔N分類直觀展示了人工智能體強(qiáng)弱所表征的具體內(nèi)容,并簡(jiǎn)潔明了地?cái)U(kuò)充了刑法學(xué)知識(shí),因此本文以此分類展開(kāi)論述。

        二、自主人工智能體不應(yīng)成為相關(guān)人員逃避刑事責(zé)任的“替罪羊”

        自主智能體,也稱為自控型的機(jī)器,是指智能體在云計(jì)算、大數(shù)據(jù)、深度學(xué)習(xí)算法、人腦芯片的催化下,模擬人類智慧,而具有圖形、符號(hào)、形狀、語(yǔ)音識(shí)別能力、罪犯面部識(shí)別技術(shù)、自我自動(dòng)調(diào)度能力、解決問(wèn)題的能力、推理能力及創(chuàng)造力,且可基于過(guò)去曾經(jīng)的經(jīng)驗(yàn)制定計(jì)劃,同時(shí)能隨著環(huán)境需要,改變其運(yùn)作機(jī)制,這種情況下,是機(jī)器引導(dǎo)人類完成人類任務(wù),工作速度、精度、強(qiáng)度等都明顯優(yōu)于人類,而自主性或自控性是其最顯著的特征,研發(fā)此種智能體,也是我們?nèi)祟惸壳罢谂タ说募夹g(shù)難題。而我國(guó)目前也正是擔(dān)憂自主智能技術(shù)失控、相應(yīng)刑事責(zé)任主體如何確定的問(wèn)題。[8]與此相較,行動(dòng)智能體,即行動(dòng)的人工智能體,是比自主智能體低級(jí)的弱人工智能,其出現(xiàn)在人工智能發(fā)展的初級(jí)階段,以人類的軟件系統(tǒng)或新型的網(wǎng)絡(luò)信息技術(shù)手段的形式呈現(xiàn),例如智能外語(yǔ)學(xué)習(xí)軟件、譜曲、創(chuàng)造詩(shī)歌等軟件系統(tǒng)、自動(dòng)掃地機(jī)、初級(jí)的自動(dòng)駕駛汽車等等。其主要特征是在特定單一領(lǐng)域內(nèi)擁有相對(duì)獨(dú)立的行動(dòng)能力,各個(gè)部位可以進(jìn)行單個(gè)活動(dòng)或整體移動(dòng),它是人類行動(dòng)能力的延伸物,其沒(méi)有任何內(nèi)源性的權(quán)利能力,其行動(dòng)完全符合人類設(shè)定的邏輯,具有可程式化,運(yùn)作機(jī)制固定不變,其程序性的“守法意識(shí)”和客觀的“守法能力”,也明顯比自主智能體和智能機(jī)器人都強(qiáng)。[7]274因此,人類完全可以事先有效地對(duì)其進(jìn)行風(fēng)險(xiǎn)評(píng)估,在該人工智能體被廣泛普遍地設(shè)計(jì)、建造之前,明確其具體的產(chǎn)品安全生產(chǎn)標(biāo)準(zhǔn)、設(shè)計(jì)標(biāo)準(zhǔn)和質(zhì)量標(biāo)準(zhǔn),當(dāng)其對(duì)人類個(gè)體或社會(huì)造成損害時(shí),可以適用產(chǎn)品責(zé)任或侵權(quán)責(zé)任予以解決,一般與刑事責(zé)任無(wú)涉。但是與行動(dòng)智能體同步發(fā)展的自主智能體,由于其具有自我學(xué)習(xí)能力,擁有“自主意識(shí)”和自主性,其運(yùn)作機(jī)制和邏輯并不固定,可能有自己獨(dú)立的法律意識(shí),因此,有學(xué)者贊同應(yīng)將其列為獨(dú)立的刑事責(zé)任主體,但此觀點(diǎn)值得商榷。

        (一)自主智能體的行為及后果客觀上歸屬于自然人

        雖然自主人工智能系統(tǒng)可以自主學(xué)習(xí),但是誠(chéng)如Ross機(jī)器人律師的創(chuàng)始人Andrew Arruda所認(rèn)為,自主人工智能系統(tǒng)的自主學(xué)習(xí),是指自主有意識(shí)地學(xué)習(xí)如何更高效、更準(zhǔn)確地完成人類的工作任務(wù)、實(shí)現(xiàn)人類設(shè)置的工作目標(biāo),從而大大減輕普通民眾的費(fèi)用,即民眾可以明顯低價(jià)享受以前同樣的專業(yè)服務(wù)。人工智能是專業(yè)人士的職業(yè)裝備,是一種創(chuàng)新、便捷、高效、事故率更低的解決問(wèn)題的新途徑,能更好地輔助專業(yè)人士完成專業(yè)工作,從而服務(wù)于普通大眾,并不是、也無(wú)法替代專業(yè)人士。因此,“工具論”是解釋和適用人工智能責(zé)任問(wèn)題的主要模式,即人工智能系統(tǒng)只能在該預(yù)先設(shè)定程序的技術(shù)結(jié)構(gòu)內(nèi)工作,所有行為及后果皆應(yīng)歸屬于自然人。[9]例如萊茵河案中,導(dǎo)航汽車錯(cuò)誤指示近路卻沖進(jìn)河里致使車內(nèi)人死亡的事件中,自主智能汽車,是為完成人類設(shè)定的到達(dá)指定目的地的任務(wù),其存在的目的和意義都是為輔助人類達(dá)成人類的目標(biāo),無(wú)法自我設(shè)定行為目的,其屬性是工具,因此,這種情況下要求自主智能汽車承擔(dān)過(guò)失犯罪的刑事責(zé)任明顯沒(méi)意義。

        (二)自然人的預(yù)見(jiàn)能力及預(yù)見(jiàn)義務(wù)

        正如人工智能“威脅論”人士所述,自動(dòng)人工智能之間會(huì)突然產(chǎn)生異于人類語(yǔ)言的獨(dú)有語(yǔ)言進(jìn)行交流,但人類可立即采取相應(yīng)措施予以控制。雖然機(jī)器自主學(xué)習(xí)使得人工智能不按照計(jì)算機(jī)電腦編程而運(yùn)行,而是在計(jì)算機(jī)編程范圍之外去實(shí)施行為,即在人類設(shè)計(jì)的程序之外去運(yùn)行,但是,人類對(duì)其在計(jì)算機(jī)編程之外運(yùn)行的事實(shí),早已預(yù)見(jiàn)并深知,人工智能仍是在為完成人類特定領(lǐng)域的特定任務(wù),其超越不了完成人類的特定任務(wù),人類對(duì)人工智能的總體全局完全可以預(yù)知,對(duì)其會(huì)實(shí)施犯罪行為也完全可預(yù)料。雖然自主人工智能系統(tǒng)有可能產(chǎn)生自主意識(shí),但其自主意識(shí)是有限的,只是具有有限的推理能力、規(guī)劃能力和抽象思維能力,所產(chǎn)生的語(yǔ)言文字只具有句法文字屬性而已,其所謂的自主意識(shí)與海豚、大猩猩的自我意識(shí)一樣,沒(méi)有真正獨(dú)立的存在意義和主觀意圖,也不是像人一樣真正地理解、并相信自己行為的意義,其終究無(wú)法與人類的自主意識(shí)畫(huà)上等號(hào)??傊灾魅斯ぶ悄苓@種“愚蠢科技”,是以人類事先預(yù)定的方式回應(yīng)特定情景而已,人類對(duì)其自然可能產(chǎn)生的危害情況,有預(yù)見(jiàn)能力及預(yù)見(jiàn)可能性,如果疏忽大意沒(méi)有預(yù)見(jiàn),則是主觀意志上的不作為,應(yīng)由人類承擔(dān)相應(yīng)的刑事責(zé)任[10]182,如果由人工智能接受制裁、遭受責(zé)難、承擔(dān)責(zé)任,這明顯是人類以此逃避責(zé)任。[11]647

        (三)自然人幕后實(shí)施人工智能騙局

        自主人工智能體,其實(shí)是一個(gè)自動(dòng)系統(tǒng)或應(yīng)用程序,其產(chǎn)生、運(yùn)行和進(jìn)行的具體行為皆嚴(yán)重依賴于無(wú)數(shù)人類科學(xué)家、編程者、程序員等在幕后默默地收集、分析和使用海量信息和數(shù)據(jù),建立知識(shí)庫(kù)、數(shù)據(jù)庫(kù)和系統(tǒng)模型,編制應(yīng)用軟件,發(fā)明算法公式,研制升級(jí)補(bǔ)漏程序,并為這些系統(tǒng)和軟件提供統(tǒng)一、明確、邏輯清晰、固定的程式化運(yùn)用標(biāo)準(zhǔn)等等[12]。誠(chéng)如百度董事長(zhǎng)李彥宏在“中國(guó)國(guó)際智能產(chǎn)業(yè)博覽會(huì)”上所言:人工智能一詞來(lái)自英語(yǔ)“Artificial Intelligence”, 其中的“Artificial” 一詞除了有“人工的”意思,還有“人造的、虛假的”意思,因此人工智能事實(shí)上是假的,并不是真的智能,它離真的人工智能還非常遠(yuǎn)。也由于人工智能事實(shí)上是人造的、虛假的智能,因此其產(chǎn)生、試驗(yàn)、運(yùn)行等皆需人類陪伴,自動(dòng)人工智能體和人類是共生的關(guān)系,而不是對(duì)立關(guān)系,只有這樣,人工智能才能被人類所信服和接受。[13]也正是基于此,一些虛假的人工智能技術(shù)詐騙丑聞,實(shí)際上是由幕后無(wú)數(shù)人類為騙取巨額資助而同步自編自導(dǎo)的。

        (四)不具有人身權(quán)益和財(cái)產(chǎn)權(quán)益

        誠(chéng)如李開(kāi)復(fù)在Ted演講中說(shuō)到:人工智能能幫助人類極大地減輕重復(fù)繁瑣、單調(diào)乏味的例行事務(wù)負(fù)擔(dān),使人類有更多精力和時(shí)間從事更核心、更高級(jí)別的情感、精神或腦力活動(dòng),創(chuàng)造更美好、更有愛(ài)的和諧生活,而“人工智能不具備情感、精神等欲望機(jī)制”[14],無(wú)法真正理解有愛(ài)的和諧生活,當(dāng)然也不擁有人身權(quán)益和財(cái)產(chǎn)權(quán)益。而且,目前只有人類有能力在矛盾沖突或模棱兩可情形下進(jìn)行利益選擇,因?yàn)槿祟愑凶约旱娜松砝婧拓?cái)產(chǎn)利益需求,而自主人工智能體沒(méi)有,其完全附屬于人類,其設(shè)計(jì)者、制造商及其組織應(yīng)為機(jī)器人安全性、可靠性負(fù)責(zé),而不能以人工智能擁有越來(lái)越強(qiáng)大的學(xué)習(xí)能力和自主程度而讓其承擔(dān)責(zé)任,而藉此使自己逃避責(zé)任。[14]

        (五)需“刺破人工智能面紗”

        有學(xué)者主張,智能機(jī)器的責(zé)任能力與自主性,確實(shí)無(wú)法與人類相比,其固然不能成為自我視角下的道德責(zé)任主體,但是智能機(jī)器承載著使用者、設(shè)計(jì)者對(duì)其的期望,且被內(nèi)置了感知世界并與世界互動(dòng)的能力,因此他者視角下,智能機(jī)器可以成為道德責(zé)任主體。[15]但筆者認(rèn)為,此種看法為對(duì)智能機(jī)器充滿期待的他者推卸自己的責(zé)任提供了理論口實(shí),因?yàn)槭褂谜?、設(shè)計(jì)者的期待也會(huì)包括犯罪主觀心理,在這種情況下,肯定不能歸責(zé)于人工智能,而是應(yīng)刺破罩在相關(guān)人類身上的人工智能面紗,以相應(yīng)的故意或過(guò)失責(zé)任使相關(guān)人類承擔(dān)其應(yīng)承擔(dān)的刑事責(zé)任。例如自然人教唆、指令A(yù)I偷一張欠條,但是AI卻一把火燒了被害人的房屋。該案中,自然人應(yīng)直接為所有的危害結(jié)果承擔(dān)刑事責(zé)任。雖然自然人并無(wú)放火的主觀故意罪過(guò),但是自然人作為自主人工智能系統(tǒng)的主人,應(yīng)能夠預(yù)見(jiàn)到自主人工智能會(huì)失控而造成不可挽回的重大危害,而其中的預(yù)見(jiàn)內(nèi)容,并不需要預(yù)見(jiàn)到具體的結(jié)果、因果經(jīng)過(guò)的基本部分,只需要抽象預(yù)見(jiàn)性即可,即預(yù)見(jiàn)到可能會(huì)發(fā)生嚴(yán)重危及社會(huì)的危害結(jié)果即可。

        (六)會(huì)導(dǎo)致刑法適用困難

        將自動(dòng)人工智能體解釋為犯罪主體,將在法律系統(tǒng)中產(chǎn)生一種開(kāi)放構(gòu)造的風(fēng)險(xiǎn)(open texture risk),即更多的法律詞語(yǔ)都將沒(méi)有固定的意思,因?yàn)閷?duì)其的解釋會(huì)隨著特定領(lǐng)域、觀察視角、時(shí)間階段等的不同而不同,這將導(dǎo)致法律解釋出現(xiàn)極大的不明確性和模糊性,從而使得法律適用變得混亂不堪、舉步維艱[7]276。例如應(yīng)如何判斷人工智能體已經(jīng)“出生”,又如何判斷其已經(jīng)“死亡”,死亡后應(yīng)該如何處理?能否也可以成立侮辱、盜竊、毀損尸體、尸骨、骨灰罪?再例如:如果刑法中的“人”,可以解釋為包括自然人、法人、仿真機(jī)器人,那么外星人是否也能解釋成犯罪主體?

        三、智能機(jī)器人在未來(lái)成為刑事責(zé)任主體將完全顛覆現(xiàn)存刑法

        在不確定的未來(lái),人類社會(huì)將出現(xiàn)最高級(jí)別的人工智能,即仿人智能體(Human-Based Intelligence Entity),或稱為“智機(jī)”、智能機(jī)器人、生物形態(tài)的機(jī)器人(humanoid)、準(zhǔn)人類(Qausi-human)、獨(dú)立的智慧存在體或超人工智能等等。根據(jù)人類現(xiàn)在的理論設(shè)想,此智能機(jī)器人 “在其人工生成過(guò)程中引入并隨之留駐了人類意識(shí)的機(jī)制或內(nèi)容”[16],同時(shí)跨過(guò)了不可逆轉(zhuǎn)的“奇點(diǎn)”,超越了人腦,并脫離了人類控制,將會(huì)成為虛擬智能世界和現(xiàn)實(shí)人類世界的橋梁,成為雙方的代言人。的確,智能機(jī)器人未來(lái)有可能成為刑事責(zé)任主體:一方面,智能機(jī)器人體現(xiàn)了人類的技術(shù)理性,等值于理性“人”,由于其完全排除了情感、欲望、偏見(jiàn)、經(jīng)驗(yàn)局限性等的影響,甚至比人類更理性,而刑法規(guī)制對(duì)象的預(yù)設(shè)前提正是理性人;另一方面,創(chuàng)造能力、推理能力等在刑法上對(duì)于歸責(zé)無(wú)關(guān)緊要,因?yàn)樾谭ㄉ系臍w責(zé)與否,取決于行為人是否能夠認(rèn)識(shí)或預(yù)見(jiàn)到自己的行為會(huì)發(fā)生危害社會(huì)的結(jié)果,是否希望或者放任危害結(jié)果的發(fā)生,即有認(rèn)識(shí)能力和控制能力即可,而未來(lái)出現(xiàn)的智能機(jī)器人可以擁有這兩種能力。即便如此,假設(shè)智能機(jī)器人在未來(lái)社會(huì)已成為刑事責(zé)任主體,將會(huì)出現(xiàn)大量全新的刑法難題。

        (一)要求機(jī)器人遵守機(jī)器人三原則將出現(xiàn)各種新的刑法道德困境

        眾所周知,現(xiàn)如今規(guī)制人工智能的鐵律,是阿西莫夫機(jī)器人三原則,即機(jī)器人和人不是平等的主體,機(jī)器人被人類控制和支配,但很明顯,該原則只適用于上述的行動(dòng)人工智能體和自主人工智能體,并不適合智能機(jī)器人。因?yàn)?,智能機(jī)器人時(shí)代,是人機(jī)交互共存的社會(huì),機(jī)器人和人類是平等的主體,機(jī)器人也會(huì)主動(dòng)要求、爭(zhēng)取并維護(hù)自己的權(quán)利,要求機(jī)器人遵守三原則將會(huì)使機(jī)器人陷入道德困境,這本身是不道德的。例如,未來(lái)機(jī)器人可以和人類一樣當(dāng)警察,當(dāng)機(jī)器人的人類警察上司,要求機(jī)器人逮捕人類犯罪嫌疑人,但人類嫌疑人拼死抵抗,那么機(jī)器人是應(yīng)該遵守人類警察上司的命令傷害反抗中的人類嫌疑人,還是不遵守人類上司的指令?[10]173如果遵守人類命令傷害人類,那是違反第一個(gè)原則:機(jī)器不得傷害人類;而如果機(jī)器人不遵守人類命令,則是玩忽職守的不作為。再例如:人類命令一個(gè)機(jī)器人為他人的合法正當(dāng)利益而傷害另一個(gè)人,如果機(jī)器人遵守人類命令,則違反第一個(gè)原則,但不遵守人類命令,則使得正當(dāng)防衛(wèi)制度無(wú)用武之地。[17]當(dāng)然,人類哲學(xué)家和機(jī)械設(shè)計(jì)師可“將人類社會(huì)中的法律以及道德等規(guī)范和價(jià)值,嵌入或編程進(jìn)相應(yīng)的高級(jí)人工智能系統(tǒng)中,讓其繼續(xù)“更好地為人類社會(huì)服務(wù)”[18],但是這與“教螞蟻唱歌一樣難”:首先,人類倫理學(xué)說(shuō)和刑法解釋觀點(diǎn)有很多種,到底應(yīng)植入或編程何種倫理道德或刑法解釋觀點(diǎn)呢?其次,即使有統(tǒng)一的倫理學(xué)說(shuō)和刑法解釋觀點(diǎn),但人類的倫理道德和刑法解釋觀點(diǎn),難以準(zhǔn)確定義,該定義本身在技術(shù)上也難以編程轉(zhuǎn)變?yōu)閿?shù)據(jù)代碼;最后,智能機(jī)器人有自己的自主學(xué)習(xí)能力,完全會(huì)產(chǎn)生不同于人類的法律規(guī)則和機(jī)器人道德,他們更傾向于維護(hù)自己種群的利益,為追求“機(jī)器人正義”[7]271而存在,從而未來(lái)將和人類一樣,有自己獨(dú)立的利益、價(jià)值觀、世界觀等,這將必然導(dǎo)致人機(jī)利益沖突四起,刑法的法益原理和利益衡量理論將面目全非。

        (二)刑法無(wú)力規(guī)制智能機(jī)器人

        機(jī)器人,特別是作為和人類一樣具有主觀能動(dòng)性的群體,將會(huì)是一種新型的人類犯罪危險(xiǎn)來(lái)源,由犯罪引發(fā)的失控場(chǎng)面只會(huì)一次次地凸顯人類如今的想象力太過(guò)于匱乏,例如發(fā)生智能機(jī)器人大面積地強(qiáng)奸人類、侵犯商業(yè)秘密而終結(jié)各人類巨頭企業(yè)運(yùn)營(yíng)、掌控國(guó)家秘密而瞬間顛覆國(guó)家政權(quán)、完全操縱人類證券市場(chǎng)等這種匪夷所思的危害事件。[1-5]而到時(shí)候作為回應(yīng)公共危險(xiǎn)源的最強(qiáng)措施——刑法,將不再是人類單獨(dú)制定或修改,而是人工智能將和人類一樣,成為獨(dú)立自主的立法者,會(huì)與人類一道,自然會(huì)將自己的同類列為刑事責(zé)任主體。例如美國(guó)人工智能刑事責(zé)任研究者Gabriel Hallevy假想的案例:暴風(fēng)雨中,人類飛行員決定停止前行而返航,但AI飛行員認(rèn)為人類飛行員正在妨礙自己執(zhí)行到達(dá)目的地的任務(wù),于是啟動(dòng)安全座椅將人類飛行員殺害。據(jù)此,人類現(xiàn)如今已深知智能機(jī)器人會(huì)脫離人類控制以主體身份去實(shí)施傷害人類社會(huì)的行為,危及人類生存,那么,與其等待其出現(xiàn)后人類拼命解決自身生存危機(jī)[19]1261,還不如在現(xiàn)如今機(jī)器人還未出現(xiàn)的時(shí)候,直接禁止生產(chǎn)、制造這種機(jī)器人,全面禁止對(duì)人工智能技術(shù)的濫用[20]。如果今后科技已經(jīng)生產(chǎn)、制造出程序、軟件或與此相當(dāng)?shù)目萍嘉锲罚矐?yīng)將其作為與槍支、彈藥、爆炸物、假幣、毒品、宣揚(yáng)恐怖主義極端主義的物品等類似的違禁物品,予以嚴(yán)厲禁止和堅(jiān)決查處。

        (三)刑法的固有特性將蕩然無(wú)存

        人工智能語(yǔ)境下探討是否可以將其規(guī)定為刑事責(zé)任主體,這是一個(gè)偽命題。因?yàn)槊鎸?duì)仿人工智能體,最尖銳棘手的刑法難題,不是可不可以成為刑事責(zé)任主體的問(wèn)題,而是應(yīng)不應(yīng)該的問(wèn)題。因?yàn)楦鶕?jù)法律抑制的立法技術(shù),既然刑法可以將單位擬制、虛構(gòu)為法律主體,那么,未來(lái)將智能機(jī)器人也擬制為刑法主體,在立法上是很容易的事情。而且,刑法中的責(zé)任,除了道德責(zé)任外,還有解釋為包括因果責(zé)任,即客觀意義上的責(zé)任,從因果責(zé)任角度,人工智能體也可以作為歸責(zé)主體,畢竟立法者的正當(dāng)權(quán)威地位,使得立法者有權(quán)力做如此解釋。但此種立法,只突顯了刑法的后現(xiàn)代性、前衛(wèi)性、擴(kuò)張性,與現(xiàn)行刑法所具有的傳統(tǒng)性、保守性、謙抑性背道而馳?;诖?,本文為在這個(gè)“先者淺探”的神秘領(lǐng)域堅(jiān)守現(xiàn)行刑法的特性而主張:如果人工智能體產(chǎn)生危害結(jié)果,應(yīng)無(wú)需經(jīng)過(guò)刑事訴訟程序,而應(yīng)像處置動(dòng)物或違禁品一樣,由主人、警察或相關(guān)有權(quán)者私下“刪除數(shù)據(jù)、修改程序或永久銷毀”[1-5],即用行政法予以規(guī)制,而無(wú)需由具有傳統(tǒng)性、穩(wěn)健性、保守性、謙抑性的刑法予以規(guī)制,更不應(yīng)將智能機(jī)器人列為刑事責(zé)任主體, 而是應(yīng)和克隆人一樣,也通過(guò)行政手段予以解決。而且,如果將來(lái)人類開(kāi)發(fā)出完全可以替代人類的機(jī)器人軟件,我國(guó)刑法應(yīng)禁止行動(dòng)人工智能體、自主人工智能體等低級(jí)人工智能體安裝該軟件。

        四、對(duì)當(dāng)前智能機(jī)器人作為刑事責(zé)任主體的觀點(diǎn)應(yīng)予以否定

        人工智能能否成為刑事責(zé)任主體、是否具有刑事責(zé)任能力的問(wèn)題,為人們開(kāi)始重新審視、回顧、反思刑法中的傳統(tǒng)責(zé)任、人格及其背后的罪責(zé)理念提供絕佳機(jī)會(huì)。而下文在假設(shè)我國(guó)當(dāng)前已經(jīng)將智能機(jī)器人列為刑事責(zé)任主體后,發(fā)現(xiàn)該假設(shè)論斷缺乏合理性,應(yīng)予以否定。

        (一)無(wú)論將智能機(jī)器人類比為現(xiàn)有何種類型的責(zé)任主體都存在疑問(wèn)

        假如我們將智能機(jī)器人類比為精神病人,其刑事責(zé)任能力的判斷標(biāo)準(zhǔn),應(yīng)包括工程學(xué)標(biāo)準(zhǔn)和法學(xué)標(biāo)準(zhǔn),其中工程學(xué)標(biāo)準(zhǔn)是實(shí)踐中的客觀能力,根據(jù)機(jī)器人客觀現(xiàn)實(shí)的行為來(lái)推斷;而法學(xué)標(biāo)準(zhǔn)是認(rèn)識(shí)能力和辨認(rèn)能力,以此判斷是否存在主觀犯罪心理狀態(tài),例如主張人工智能可以直接承擔(dān)刑事責(zé)任的學(xué)者認(rèn)為,人工智能(AI Agent)理所當(dāng)然滿足犯意要件,即完全可以在傳統(tǒng)的主觀能動(dòng)譜系中,增設(shè)一個(gè)對(duì)刑法有關(guān)感知能力的、新的主觀能動(dòng)者(agent),即人工智能能動(dòng)者(AI Agent)。[21]但這種理所當(dāng)然的推斷,并不具有說(shuō)服力,因?yàn)榉敢獗旧碇淮嬖谟凇澳茏饕蛑恕?Human Agent)的頭腦中,即使是獨(dú)立承擔(dān)刑事責(zé)任的法人,其前提條件、具體構(gòu)成以及實(shí)現(xiàn)方式,皆與“能作因之人”的頭腦緊密聯(lián)系,而人工智能是在模仿人腦的情況下,完全獨(dú)立于人腦而存在,與人腦無(wú)緊密聯(lián)系。假如我們將智能機(jī)器人類比為未成年人,那么其刑事責(zé)任能力的判斷標(biāo)準(zhǔn)應(yīng)該以智能機(jī)器人的發(fā)達(dá)成熟程度來(lái)判斷。這相當(dāng)于將人工智能研發(fā)設(shè)計(jì)者、編程者或使用者等當(dāng)作人工智能的父母。與人類子嗣一樣,作為子嗣的人工智能并不受父母的完全控制,更不是父母的財(cái)產(chǎn),但在其未足夠發(fā)達(dá)成熟時(shí),其研發(fā)設(shè)計(jì)者、編程者等相關(guān)人員也應(yīng)承擔(dān)刑事責(zé)任??墒桥袛嗥浒l(fā)達(dá)成熟程度或已成年的標(biāo)準(zhǔn)是什么?這至今是一個(gè)空白。假如將智能機(jī)器人類比為刑法上的“單位”,可是我國(guó)缺乏如公司法、事業(yè)單位機(jī)關(guān)團(tuán)體法等相應(yīng)的經(jīng)濟(jì)、民事、行政法規(guī)以確定智能機(jī)器人具體應(yīng)完成哪些行政審批手續(xù)才能獲得主體資格。而且,公司的意愿形成及表達(dá)仍是由自然人來(lái)決定,而如果智能機(jī)器人是和公司一樣是一種法律擬制,那么智能機(jī)器人的意愿形成及表達(dá)是否也仍是由自然人來(lái)決定的,這本身還有待研究。[22]最后,假如我們將智能機(jī)器人類比為動(dòng)物,那么其更無(wú)需承擔(dān)刑事責(zé)任。

        (二)犯罪主體的資格范圍有邊界

        當(dāng)機(jī)器人的犯罪能力與人類相當(dāng)時(shí),的確可以成為刑事責(zé)任主體。但是,如果機(jī)器人會(huì)不斷地自我學(xué)習(xí),通過(guò)獲得提升自我的公開(kāi)資源代碼自動(dòng)編程,使得其犯罪能力超越自然人,并遠(yuǎn)遠(yuǎn)高于自然人,那么機(jī)器人不應(yīng)具有犯罪主體資格,因?yàn)闄C(jī)器人不是簡(jiǎn)單地?fù)碛泻妥匀蝗艘粯拥姆缸锬芰?,而是具有毀滅人類的全球犯罪能力,?duì)于這種“超人類”種群,國(guó)別性、地域性極強(qiáng)的刑法,完全無(wú)力應(yīng)對(duì)與防范其反人類之全球罪行之風(fēng)險(xiǎn)。

        (三)目前刑事執(zhí)法難度特別大

        人工智能體的研究、發(fā)展,具有秘密性,日常生活中可見(jiàn)的物理基礎(chǔ)設(shè)施也太少,執(zhí)法機(jī)關(guān)難以拘留或逮捕到具體的實(shí)體。同時(shí),由于人工智能體的配件組成部分的具體生產(chǎn)過(guò)程也比較離散,如果追究各個(gè)主要配件的主要責(zé)任,也將顯得特別荒唐。即使將智能機(jī)器人本身列為刑事責(zé)任主體,其境遇也將會(huì)與單位犯罪一樣,理論正當(dāng)性一直飽受爭(zhēng)論,司法適用率也偏低。另外,現(xiàn)有刑法是為人類以及人類結(jié)合體(單位)量身打造,制定修改時(shí)從未考慮過(guò)增設(shè)晦澀難懂的、新的規(guī)制主體,因此,對(duì)其予以前瞻性的事前刑事規(guī)制,本身極其困難。[23]356

        (四)無(wú)法實(shí)現(xiàn)刑罰目的

        對(duì)人工智能追究刑事責(zé)任,僅具有理性的認(rèn)識(shí)能力和辨認(rèn)能力還不夠,還應(yīng)考慮對(duì)其懲罰是否具有威懾力,是否能夠預(yù)防犯罪,這要求人工智能可理解懲罰意義,自身可以產(chǎn)生罪責(zé),即如果要對(duì)智能機(jī)器人施加刑事制裁,那么刑事制裁應(yīng)有可能喚起智能機(jī)器人真誠(chéng)懺悔、道歉,并自我反省、自我清算,以求寬恕。但是智能機(jī)器人沒(méi)有情緒、情感、快樂(lè)痛苦等欲望機(jī)制,無(wú)法真誠(chéng)悔罪。另外,即使在定罪階段不需判斷這些欲望機(jī)制要素,但在后續(xù)的量刑階段、刑罰執(zhí)行裁量階段等必定需要考慮到這些因素。歸根到底,目前還只有道德人類才會(huì)理解懲罰的報(bào)應(yīng)、教育、表達(dá)、威懾和預(yù)防等功能,只有直接通過(guò)人類來(lái)實(shí)現(xiàn)刑罰目的。例如如今對(duì)單位施以罰金刑,但單位的財(cái)產(chǎn)事實(shí)上最終仍歸屬于股東或具體的個(gè)人,法人的懲罰后果也最終是由單位所有成員承擔(dān),還是要通過(guò)人類來(lái)實(shí)現(xiàn)刑罰目的。而主張直接問(wèn)責(zé)于機(jī)器人,要求其直接承擔(dān)刑事責(zé)任的學(xué)者,一般提倡機(jī)器人刑法,[10]174認(rèn)為應(yīng)將機(jī)器人擬制為具有法律人格,機(jī)器使人類從責(zé)任負(fù)擔(dān)中解放出來(lái)。但是事實(shí)上,在實(shí)際的運(yùn)轉(zhuǎn)中,智能機(jī)器人會(huì)產(chǎn)生一些獨(dú)特的需求,從而改變?nèi)祟悶槠渲贫ú⒁笃渥袷氐男谭ㄒ?guī)則和原則,因此,處罰機(jī)器人自身無(wú)法實(shí)現(xiàn)現(xiàn)有刑法目的,沒(méi)有任何意義。[24]

        (五)難以遭受刑法上的道德責(zé)難

        一般來(lái)說(shuō),判斷行為人是否應(yīng)該承擔(dān)刑事責(zé)任,會(huì)考慮其自主意識(shí)和道德能力。有學(xué)者主張道德罪責(zé)完全取決于個(gè)人的罪責(zé)意識(shí),取決于良知和自我意識(shí)[25];但有學(xué)者不把自由意識(shí)置為責(zé)任概念的基礎(chǔ),而認(rèn)為應(yīng)縝密考察該智能機(jī)器人是否具有理解該行為相關(guān)的理由、規(guī)范、關(guān)聯(lián)行為的能力,[26]268即是否具有反思自己的道德價(jià)值和道德信仰的道德能力,是否是“知其不可為而為之”[27],是否存在違法性認(rèn)識(shí)和期待可能性,即非難可能性。[28]但未來(lái)的智能機(jī)器人,并不會(huì)遵守人類的道德,也不會(huì)遵守作為最強(qiáng)大的社會(huì)控制力、以人類道德為基礎(chǔ)的刑法,因此難以服從人類法律。[19]1266例如,通過(guò)研究歐洲人權(quán)法院案件中人工智能如何判決的問(wèn)題,科學(xué)家發(fā)現(xiàn),在定罪的最終階段,人類經(jīng)常是根據(jù)道德方面的因素來(lái)定罪,而人工智能只能根據(jù)法律,而不是道德論斷定罪。[29]134據(jù)此,目前保守、可靠、安全的規(guī)制之策,還是只應(yīng)對(duì)人類予以一定程度的道德責(zé)難,例如行政法上要求智能機(jī)器人科技研究人員,承擔(dān)前瞻性責(zé)任,即對(duì)人工智能研究的目標(biāo)實(shí)現(xiàn)、方向與可能產(chǎn)生的社會(huì)影響有著清晰全面的認(rèn)識(shí),對(duì)人工智能的參數(shù)、行為模式、行為范圍、行為能力的提前設(shè)定控制,否則,將對(duì)科技研究人員予以道德責(zé)難,追究相應(yīng)行政責(zé)任。[30]

        (六)與集體觀念、歷史體驗(yàn)相違

        經(jīng)過(guò)漫長(zhǎng)的歷史實(shí)踐,行為人構(gòu)成犯罪所需的罪責(zé)要件之滿足,特別需要行為人具有獨(dú)特的道德判斷能力和對(duì)自己行為的操控,該罪責(zé)理念世世代代地傳承著人類獨(dú)特的道德判斷。因而,現(xiàn)代刑法將自然人以及14世紀(jì)出現(xiàn)的、作為“自然人集合體”的單位,列為罪責(zé)主體,飽含著人類受眾所承認(rèn)的傳統(tǒng)經(jīng)典集體觀念和歷史體驗(yàn),而僅是20世紀(jì)50年代出現(xiàn)的人工智能的設(shè)計(jì)者、創(chuàng)造者、使用者或相關(guān)研究者等人類對(duì)人工智能主體的承認(rèn),是遠(yuǎn)遠(yuǎn)不夠的。舉例來(lái)說(shuō),作為刑事責(zé)任內(nèi)容的故意、過(guò)失、目的、明知等等,皆與人類社會(huì)經(jīng)驗(yàn)有著千絲萬(wàn)縷之聯(lián)系而不可分割[6]696,而人工智能沒(méi)有、也無(wú)法具有人類集體觀念、無(wú)法體驗(yàn)世界人類歷史和感悟社會(huì)倫理道德,而其應(yīng)擁有的責(zé)任能力所要求具備的辨認(rèn)能力和控制能力,正以此為道德基礎(chǔ)和前提條件。至于有學(xué)者主張應(yīng)為人工智能專門設(shè)置新的刑罰方式:銷毀程序、程序化等,筆者認(rèn)為這些方式明顯與人類所熟知的現(xiàn)行刑罰體系和制度格格不入,直覺(jué)上這些方式應(yīng)屬于行政規(guī)制手段,放在刑罰中顯得特別突兀。

        (七)前置法是刑法介入的前提條件

        目前,完全游走于人類社會(huì)之外的智能機(jī)器人并未出現(xiàn),其出現(xiàn)還需要人類高級(jí)計(jì)算機(jī)人工智能算法、腦神經(jīng)科學(xué)、認(rèn)知心理學(xué)、網(wǎng)絡(luò)技術(shù)等有革命性的突破,而且人工智能必須經(jīng)過(guò)長(zhǎng)期、歷史性的演進(jìn),才能逐漸被人類接受其相當(dāng)于機(jī)器人?;诖朔N現(xiàn)實(shí),現(xiàn)今刑法學(xué)界,迫切需要法理學(xué)上率先重點(diǎn)解決行動(dòng)人工智能體、自主智能體的主體、人格、責(zé)任理論等法哲學(xué)問(wèn)題;需要憲法學(xué)在刑法之前能解決上述兩類人工智能體是否享有各種基本權(quán)利、履行各種義務(wù)的問(wèn)題,例如服兵役、納稅等等;需要作為刑法前置法的行政法針對(duì)人工智能研發(fā)者、制造者、使用者等多方主體制定《人工智能法》以解決具體行政管制問(wèn)題,確保人工智能擁有安全、可靠、易于為人類所操縱、與人類的利益保持一致等特性[23]394;還需要同樣作為刑法前置法的民法解決其是否能成為民事法律關(guān)系的主體、是否具有民事主體資格和民事主體地位、是否具有民事行為能力和民事責(zé)任能力等問(wèn)題。例如國(guó)外有學(xué)者指出:如果人工智能持續(xù)以現(xiàn)有速度進(jìn)步,英美國(guó)家只需集中研究普通法侵權(quán)系統(tǒng),為人工智能設(shè)計(jì)、制造、編程等內(nèi)化的成本提供機(jī)制,而不需要再去尋找其他的法律規(guī)范。[23]391

        猜你喜歡
        主體人工智能人類
        人類能否一覺(jué)到未來(lái)?
        論自然人破產(chǎn)法的適用主體
        人類第一殺手
        1100億個(gè)人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        關(guān)于遺產(chǎn)保護(hù)主體的思考
        人類正在消滅自然
        奧秘(2015年2期)2015-09-10 07:22:44
        美女黄网站永久免费观看网站| 亚洲av无码无线在线观看| 国产三级在线观看完整版| 内射无码专区久久亚洲| 日韩国产精品一区二区Hd| 超碰性爱| 91久久国产香蕉熟女线看| 无码国产精品久久一区免费| 7777精品伊人久久久大香线蕉| 91高清国产经典在线观看| 国产日产亚洲系列av| 国产三级精品三级在线专区2| 欧美性白人极品1819hd| 亚洲欧美aⅴ在线资源| 精品五月天| 日韩精品免费一区二区中文字幕 | 色爱情人网站| 亚洲国产精品久久久久婷婷老年 | 91精品久久久中文字幕| 精品久久久久久久无码人妻热| 国产sm调教视频在线观看| 小12箩利洗澡无码视频网站| 国产精品国产三级在线专区| 青青草大香蕉视频在线观看| 挺进朋友人妻雪白的身体韩国电影| 亚洲乱码日产精品bd在线观看| 亚洲色成人网一二三区| 一区二区三区视频偷拍| 综合偷自拍亚洲乱中文字幕 | av在线免费观看网站免费| 把女邻居弄到潮喷的性经历 | 日本一区二区高清视频| 亚洲国产a∨无码中文777| v一区无码内射国产| 全免费a级毛片免费看| 日本国产精品高清在线| 欧美村妇激情内射| 草草网站影院白丝内射| 日本最新一区二区三区视频| 一本色综合网久久| 天躁夜夜躁狼狠躁|