亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能體刑事主體資格之否定

        2020-12-20 12:43:50石曉琳
        關(guān)鍵詞:人工智能人類

        石曉琳

        (西南政法大學(xué) 法學(xué)院, 重慶 401120)

        在人工智能技術(shù)與應(yīng)用雙輪驅(qū)動的格局下,可能產(chǎn)生的倫理、安全問題已愈發(fā)讓人們對這一高速發(fā)展的技術(shù)心存芥蒂。人工智能醫(yī)生診斷錯誤怎樣處置?醫(yī)療外科手術(shù)機器人出現(xiàn)意外誰來承擔責任?無人駕駛汽車運行中發(fā)生重大交通事故誰是責任主體?智能無人機因功能失靈偏離預(yù)設(shè)路徑殺死平民如何歸責?毋庸諱言,落實人工智能開發(fā)和部署過程中的權(quán)責歸屬,解決人工智能法律治理面臨的難題已迫在眉睫。就刑事法領(lǐng)域而言,明晰人工智能體是否具有刑事主體資格,能否承擔刑事責任無疑乃當務(wù)之急。

        一、“主體資格支持說”之邏輯理路

        人工智能社會化發(fā)展的同時,不排除出現(xiàn)在設(shè)計和編制的程序范圍外嚴重危害社會的情形,此時與具有刑事責任能力的自然人或法人犯罪并無二致,理應(yīng)賦予強人工智能體刑事主體資格,以警惕偏離良性發(fā)展軌道的人工智能技術(shù)帶來的刑事風險。何謂強人工智能體,有學(xué)者認為,無須了解人工智能本質(zhì)要素,只要在法律上對人工智能體確定劃分標準就足以確保分析與討論人工智能體的正當性與合理性[1]。以人工智能體是否具有辨認控制能力將其作強、弱人工智能體的劃分。弱人工智能體不具有獨立意志,雖可在設(shè)計和編制程序范圍內(nèi)進行獨立判斷并作出決策,但實現(xiàn)的依然是研發(fā)者或操作者意志。當其實施犯罪行為時,相當于研發(fā)者或操作者實施犯罪行為的工具,學(xué)界對此基本達成共識。強人工智能體具有辨認控制能力,既可在設(shè)計和編制程序范圍內(nèi)實現(xiàn)研發(fā)者、生產(chǎn)者或操作者意志,也可能超出程序范圍,進行自主決策實現(xiàn)自身意志。當強人工智能體在設(shè)計和編制程序范圍外對刑法保護的社會關(guān)系造成嚴重侵害時,將其納入刑法規(guī)制范圍順理成章。筆者將此種觀點歸納為“主體資格支持說”,其論證邏輯理路基本如下。

        首先,表明強人工智能體具有自主實施危害社會行為的可能性。以具有強人工智能屬性的智能汽車為例,其在行駛過程中擁有比人類更加強大的數(shù)據(jù)采集和分析能力,能夠以較高精度識別路況與物體,信息處理能力、反應(yīng)敏捷度、對汽車操作與控制的精準程度都要遠遠高于人類技能所達到的程度,當智能汽車在數(shù)據(jù)采集或運算過程中因沒有(正確)履行注意義務(wù)發(fā)生重大事故時,應(yīng)當比照人類一般主體同等對待[2]。誠然,強人工智能體既可從過往“經(jīng)驗”中汲取教訓(xùn),又可運用算法系統(tǒng)整合成新的行為范式,但是強人工智能體的自主決策與意識,仍受制于研發(fā)者、操作者的介入與干預(yù)。即便認為強人工智能體可能脫離人類控制,從而主張由其獨自承擔刑事責任,可曾考慮強人工智能體是否具有“不法意圖”或衍生對統(tǒng)治秩序的“蔑視”?是否具有可譴責性?行為客觀上具有社會危害性就足以對其予以刑事歸責?那為何將不滿14周歲的未成年人、精神病人實施的行為,缺乏故意或過失的行為排除在犯罪行為之外?

        其次,將辨認控制能力作為刑事責任的根據(jù)。盡管因無生命體,無法根據(jù)精神狀況與刑事責任年齡認定強人工智能體的辨認控制能力,亦無法根據(jù)集體意志與法定存在形式進行認定,但由人類設(shè)計、編制的程序使強人工智能體具有獨立思考與學(xué)習(xí)的能力,能夠產(chǎn)生獨立意識,在此意識支配下,程序和硬件為強人工智能體的辨認控制能力提供了物理基礎(chǔ),因而可以成為刑事責任主體承擔刑事責任[3]。無法否認,刑事責任能力一般來講指向行為人的辨認控制能力,但是,動物也具有辨認控制能力。刑事責任主體既是犯罪行為發(fā)動者,也是刑事責任承擔者,緣何我國刑法中刑事責任主體首先必須是具有生命的自然人,而不能是動物、失去生命體征的尸體或其他人類以外之物?即便將犯罪主體排除動物等非人類創(chuàng)造物,也不能認為具有辨認控制能力就足以完整表述刑事責任。2003年12月,我國社會科學(xué)技術(shù)部和衛(wèi)生部聯(lián)合制定了《人胚胎干細胞研究倫理指導(dǎo)原則》明確規(guī)定“禁止進行生殖性克隆人的任何研究”。不難發(fā)現(xiàn),如果法律不允許某種新生體入主社會生活,縱然具備辨認控制能力,也無法納入刑法調(diào)控范圍。

        再次,由強人工智能體承擔刑事責任符合罪責自負原則。誰犯了罪,就應(yīng)當由誰來承擔責任。當強人工智能體發(fā)展成擁有辨認控制能力的“類人體”,并在程序編寫和定義的架構(gòu)外實施了具有嚴重社會危害性的行為,自然應(yīng)將刑事責任的承擔與刑罰的施行歸屬于強人工智能體本身。如果研發(fā)者或操作者在人工智能體研發(fā)或操作過程中不履行特定義務(wù),導(dǎo)致危害結(jié)果發(fā)生,研發(fā)者或操作者承擔相應(yīng)過失責任毋庸置疑,但這并不影響強人工智能體為自己犯罪行為“買單”——作為刑事責任主體并承擔刑事責任,否則有違罪責自負的刑法原則[4]。但是,特拉伊寧曾指出,犯罪主體只能是具有責任能力的自然人,沒有責任能力,就不存在探討刑事責任問題的空間,更加涉及不到犯罪構(gòu)成問題[5]。按照理論上通說,犯罪主體是犯罪構(gòu)成必要要件之一,沒有適格主體存在就不可能齊備犯罪構(gòu)成。司法實踐中認定一行為是否構(gòu)成犯罪,不也是首先考量行為人是否達到刑事責任年齡、是否具備刑事責任能力嗎?不具備犯罪主體資格,能夠進入犯罪構(gòu)成討論嗎?刑法對人工智能體主體資格、刑事責任能力并無規(guī)定的情況下,要求強人工智能體獨立承擔刑事責任,美其名曰“罪責自負”,實則不是違反邏輯思維順序、倒果為因嗎?

        又次,法人作為擬制主體為規(guī)制強人工智能體提供范例。在法人刑事責任問題上,我國刑法學(xué)界一直存在肯定論與否定論兩種觀點。此兩種對立觀點之爭主要在于法人本身能否實施犯罪行為,作為受刑主體能否實現(xiàn)刑罰目的。法人沒有生命體征,現(xiàn)行刑罰制度又是圍繞自然人設(shè)立,然而法人具有自身意志的實現(xiàn)方式,雖無法承受自由刑,但可適用財產(chǎn)刑。為遏制和預(yù)防與日俱增的法人犯罪,我國1997年《刑法》總則第二章第四節(jié)專門規(guī)定的單位犯罪以及《刑法》分則中規(guī)定的大量單位犯罪已證明將法人納入刑罰處罰范圍是合理的,所以,便不能以人工智能體不具有肉體(或生命)以及現(xiàn)行刑罰制度為由將其排除刑罰處罰范圍之外[6]。畢竟,強人工智能體相較于法人,意志自由程度看上去似乎更強,亦無需借助其他表達媒介,既然能夠尊重法人自由意志,何以否定強人工智能體刑事責任主體資格?需要指出,在法律上已人格化的法人,都有自己的決策機關(guān),由該決策機關(guān)指揮調(diào)動法人活動,決定法人活動形式與內(nèi)容,任何一個法人決策機關(guān)的意思表示就是法人意思表示。質(zhì)言之,法人犯罪是法人決策機關(guān)或主要負責人為法人利益實施的犯罪,其犯罪意志來源于自然人意志,自然人犯罪行為實現(xiàn)法人意志,此與強人工智能體具有可比性嗎?

        最后,唯有刑法規(guī)制方可有效防控人工智能風險。若個人或團體不受刑法約束,公眾信心會受到嚴重損害,同樣的邏輯適用于人工智能[7]。人工智能科研力度大力推進,加之模型、算法與認知科學(xué)研究,必然滋生新型犯罪形式,也可能導(dǎo)致傳統(tǒng)犯罪行為在數(shù)量上激增,遑論強人工智能體擁有人類無法企及的學(xué)習(xí)能力,甚至是堅不可摧的鋼鐵之軀。有學(xué)者提出,應(yīng)針對人工智能特點,“因材施刑”,重構(gòu)我國刑罰體系。根據(jù)人工智能體是否存在物理形體,將其作無形人工智能體與有形人工智能體之分,就無形人工智能體而言,對其可適用刪除數(shù)據(jù)、修改程序、刪除程序等刑罰處罰;就有形人工智能體而言,因其存在基礎(chǔ)在于軀體,參考現(xiàn)行刑法中針對自然人設(shè)立的刑罰處罰方式并無大礙[8]。似乎刑法以外的規(guī)范對強人工智能體無威懾力可言,只有將強人工智能體納入刑法規(guī)制,才能有效防控智能時代風險,減少濫用人工智能技術(shù)現(xiàn)象發(fā)生。增設(shè)或修改刑法規(guī)范以滿足控制犯罪之需本無可厚非,問題在于,是否只要以防控風險為目的修改刑法即為正當,控制犯罪是否刑法首要甚至唯一的價值追求。

        二、“主體資格支持說”理路之誤區(qū)

        從刑法視閾來講,界分人工智能體之意圖在于,擇定社會背景及明晰刑法定位——是否應(yīng)積極主張人工智能體刑事主體資格。法律是人類一定歷史時期的產(chǎn)物,必然受制于生產(chǎn)力發(fā)展水平。按照馬克思主義的觀點,科學(xué)技術(shù)也是生產(chǎn)力,而且是第一生產(chǎn)力。人工智能作為搶占未來競爭高地的革命性技術(shù),不僅決定現(xiàn)有產(chǎn)業(yè)變革,同時決定人工智能市場產(chǎn)業(yè)生態(tài)和應(yīng)用規(guī)模,決定國家層面的戰(zhàn)略計劃以及法律制度。在法律上固然難以根據(jù)算法/數(shù)據(jù)的復(fù)雜性和學(xué)習(xí)/運算能力給出精確標準區(qū)分強、弱人工智能,但這并不代表法律責任承擔路徑的改變可以摒棄科技原理。以國際象棋和圍棋的“人機大戰(zhàn)”為例,在業(yè)內(nèi)專業(yè)人士看來,Deep Blue和Alpha Go擊敗人類頂尖選手根本不足為奇,博弈過程中根據(jù)嚴格而明確的操作規(guī)則,只需要強大的策略儲存能力和快速推理能力即可輕易取勝。換句話說,Deep Blue和Alpha Go系統(tǒng)都只是模擬了人類的智慧能力[9]。離開圍棋這一固定訓(xùn)練場,Alpha Go甚至Alpha Zero 都將一無所長。然而普通民眾或非人工智能領(lǐng)域的專家,卻對這“歷史嬗變”由好奇轉(zhuǎn)生畏懼。陳忠林教授在2018年互聯(lián)網(wǎng)法律大會上所作題為“人工智能的事實定位與法律應(yīng)對”演講中也不禁發(fā)問,“在某些領(lǐng)域,計算機已經(jīng)顯示出遠超于人的智能,令人細思極恐的是:有報道說,計算機已經(jīng)開始發(fā)展出自己的感情、感覺。如果這一報道是真的,一旦計算機開始察覺到痛苦,無法忍受轉(zhuǎn)而憎恨人類,我們該怎么辦?”

        其實,人工智能總體發(fā)展仍處于初步階段,強人工智能研究與應(yīng)用依然任重道遠。深度學(xué)習(xí)系統(tǒng)自身架構(gòu)若非經(jīng)歷顛覆性改造,并不具備進階為強人工智能系統(tǒng)的潛力。在心智哲學(xué)和認知科學(xué)領(lǐng)域,有部分權(quán)威研究者只承認從量子力學(xué)原理才有些許可能解決自我意識問題,如美國量子物理學(xué)家斯塔普、英國物理學(xué)家彭羅斯都提出了量子假設(shè)。西湖大學(xué)校長施一公院士、中科大副校長潘建偉院士等也都大膽猜測,人類智能的底層機理就是量子效應(yīng);雖然從量子力學(xué)效應(yīng)解釋人類智能的頂層機理仍未取得突破性成果,以致相對明確的結(jié)論暫時付諸闕如。但無論如何,除非有確鑿證據(jù)證明制造或升級這些機器的過程中,在某一關(guān)節(jié)點把人類情感、人類意識整合進去,否則我們只能把“有情感的機器人”當作一種比喻[10]。更何況目前專心致力于強人工智能研究的學(xué)術(shù)隊伍,世界范疇內(nèi)不過數(shù)百人,與鉆研弱人工智能的浩大規(guī)模相比,可謂九牛一毫。特定技術(shù)流派發(fā)展速度往往與從事該領(lǐng)域研究的人數(shù)成正相關(guān),在強人工智能研究隊伍無法迅速立即擴充的情況下,很難有依據(jù)支撐:短期內(nèi)強人工智能可以取代弱人工智能,成為人工智能研究的主流[11]。一個通行看法是:縱然輔之以更高性能的計算平臺和更大規(guī)模的大數(shù)據(jù),也避免不了徘徊在量變階段,我們對自身智慧能力的分析尚且停留在初級進程,在得以領(lǐng)悟智能機理之前,不可能制造出強人工智能。理解人類大腦運作的智能機理是腦科學(xué)的終極性問題,絕大多數(shù)腦科學(xué)專家都將此視為一個數(shù)百年甚至千年都無從解決的問題[12],更遑論強人工智能研究。

        回顧人類刑罰史,罪責與刑罰并非由人類所壟斷。在過去數(shù)個世紀,刑法秩序亦非全然以人類為中心,甚至存在過許多非人類實體,法人作為犯罪主體也是人們思想觀念更新、商品經(jīng)濟發(fā)展到一定階段的產(chǎn)物,是刑法為適應(yīng)社會發(fā)展需要而采取的立法技術(shù)。但從人工智能發(fā)展軌跡來看,尚無賦予其獨立人格的現(xiàn)實必要性。如果賦予強人工智能體刑事責任主體資格,勢必先將其作為法律意義上獨立的個體,意味著強人工智能體有資格與人類平等交易、資源共享;更加注重人工智能體而非人類,不僅動搖人類中心視角,而且威脅到人工智能時代的核心法價值——安全。此外,出于趨利避害的本能,研發(fā)者、操作者可能推卸監(jiān)督管控的社會責任,與研發(fā)人工智能技術(shù)、提升人類福祉的初衷背道而馳。

        僅從歷史發(fā)展必然性尚不足以質(zhì)疑“主體資格說”,還必須從刑法理論上對其回應(yīng)。有學(xué)者認為,刑事責任能力是對自己行為性質(zhì)、意義和后果的認識,在此認識基礎(chǔ)上得以控制并對自己行為承擔責任的能力,其本質(zhì)內(nèi)容和具體表現(xiàn)就是辨認能力和控制能力[4],當人工智能體具有辨認控制能力即可承擔刑事責任。然而,根據(jù)我國《刑法》第18條對特殊人員刑事責任能力的規(guī)定來看,辨認能力和控制能力顯然是作為刑事責任主體精神層面的考量要素,但人工智能體界分關(guān)鍵在于對人類智慧探索、理解和模擬的程度,界分意義乃權(quán)衡是否滿足刑事責任承擔條件,精神層面的考量要素不能等同于刑事責任的內(nèi)在依據(jù)。只有通過客觀外在行為,將行為人犯罪前、犯罪中、犯罪后心理狀態(tài)表征出來的主觀惡性,才能作為刑事責任最本源性的內(nèi)容。

        回顧刑法學(xué)說史,主觀惡性理論經(jīng)歷了從無知到睿智的演變過程。刑事古典學(xué)派從客觀主義、自由意志論出發(fā),認為犯罪的大小輕重依所實施的犯罪行為大小輕重而定,刑罰亦應(yīng)根據(jù)犯罪行為客觀危害情況來決定。意大利刑法學(xué)家貝卡利亞首先提出不能以犯罪人意圖作為衡量犯罪的標尺,否則,“不僅要為每個公民制定一部特別法典,而且要為每個罪行頒布一項新的法律”[13]。這種無視行為人心理活動,完全以客觀標準來測定對社會的危害程度明顯忽視了行為人主觀方面,行為刑法制度“忘記了罪犯的人格,而僅把犯罪作為抽象的法律現(xiàn)象進行處理。這與舊醫(yī)學(xué)不顧病人的人格,僅把疾病作抽象的病理現(xiàn)象進行治療一樣”[14]。刑事實證學(xué)派從主觀主義、意思決定論出發(fā),提出“應(yīng)受處罰的不是行為而是行為人”,認為犯罪行為是犯罪人主觀惡性的征表,它以犯罪人性格、惡性、反社會性為標準個別地量定刑罰[15]。加羅法洛在關(guān)于犯罪構(gòu)成的論述中使用了“惡性”一詞,他認為,所有犯罪可以分為兩大類:一類是觸犯惻隱之心的犯罪,一類是觸犯正直之心的犯罪;犯罪是一種對社會有害并且至少侵害惻隱之心或正直之心其中一種情感的行為,而罪犯則是在這些情感方面薄弱的人,至少缺乏兩種情感的一種。刑事實證學(xué)派雖然一味強調(diào)犯罪人的人身危險性,忽視犯罪行為因而失之片面,但是重視不同犯罪人的主觀惡性無疑是歷史的進步。

        刑罰懲罰的對象與其說是行為人,毋寧是懲罰有意對抗法秩序的主觀罪過支配下現(xiàn)實化為破壞社會關(guān)系的主觀惡性。什么是主觀惡性,概括起來在刑法理論界有兩種代表性表述。一種觀點認為,“無論是大陸法系國家刑法理論中的有責性,還是社會主義刑法理論中的罪過,抑或是英美刑法理論中的犯意,就其本質(zhì)而言,都是一個主觀惡性的問題”[16]。另一種觀點認為,“主觀惡性是指存在于犯罪人身上的在犯罪前、犯罪中和犯罪后所表現(xiàn)出來的惡劣品性,主觀惡性雖然是一種屬于主觀范疇的心理現(xiàn)象,但它必須要經(jīng)過一系列如犯罪前的表現(xiàn)、犯罪中的手段方式、犯罪后的悔改表現(xiàn)等客觀事實表現(xiàn)出來”[17]。我們贊同第二種觀點,主觀惡性不僅包括行為人對自己所實施行為導(dǎo)致危害結(jié)果的故意或過失的心理態(tài)度,更偏重在這種心理態(tài)度驅(qū)使下,行為人對法秩序和社會關(guān)系的蔑視與破壞,因此,主觀惡性是主觀見之于客觀的惡劣品質(zhì)。行為人在何種心理狀態(tài)下實施的客觀上危害社會的行為才能夠構(gòu)成犯罪,從犯意表示、犯罪預(yù)備、著手實行到完成犯罪行為,甚至是犯罪既遂后行為人為逃避法律制裁而采取的一系列手段或是犯罪后的悔罪表現(xiàn),都是行為人主觀惡性的折射。主觀惡性貫穿于行為人犯罪始終。在直接故意犯罪中,一方面,行為人有意識地漠視法律規(guī)定進而生成和展開整個犯罪過程,并輔之以認識、意志與情感作用,實施符合犯罪目的之行為;另一方面,行為人主觀惡性影響和制約著犯罪手段和方式的選擇。在間接故意犯罪中,雖沒有明確的內(nèi)在動因蠱惑行為人積極追求發(fā)生危害結(jié)果,但危害結(jié)果的發(fā)生顯然是在行為人認識到結(jié)果發(fā)生可能性時,依然聽之任之、采取不排斥也不阻止的態(tài)度,這種支配和控制行為人的心理因素為刑法所不容。在過失犯罪中,行為人原本能夠正確選擇自己行為,避免危害結(jié)果發(fā)生,但由于行為人對法秩序和社會利益嚴重輕視,或過高估計自己能力和客觀有利條件,模糊化不利條件和現(xiàn)實困難,這種性格缺陷或意志缺陷應(yīng)予以法律制裁。因此,僅根據(jù)客觀行為及其危害裁量刑罰并不周延,只有將行為人的行為與行為人統(tǒng)一起來的主觀惡性,才是刑法真正規(guī)制的對象。申言之,懲罰犯罪就是懲罰和改造犯罪人主觀上的反社會意識,防止它們衍生為支配犯罪行為的主觀罪過,以此實現(xiàn)刑罰的特殊預(yù)防目的;同時震懾社會上其他具有反社會意識的人,以達到刑罰一般預(yù)防之目的。

        人工智能體欠缺人格缺陷,從倫理或法律上對其譴責都毫無意義。人工智能技術(shù)的核心在于算法,算法設(shè)計決定著人工智能體“行為”。對于普通大眾和非人工智能領(lǐng)域的專家而言,算法是一個“黑箱”,充其量能讓人們看到它造成的結(jié)果,卻無法使運作過程透明化,更不用說行為表現(xiàn)出的反社會趨向。刑罰懲罰的對象實則是齊備構(gòu)成要件的行為所表征出來的主觀惡性,循此邏輯,能否承擔刑事責任,不僅關(guān)涉辨認控制能力,更要斟酌主觀惡性狀況,人工智能體無法通過生活閱歷了解是非善惡,欠缺支配行為的反社會意志。而對算法設(shè)計者則需要制定相關(guān)規(guī)則加以約束,要求設(shè)計者在出現(xiàn)可疑后果時使用自然語言解釋算法設(shè)計原理,并追究其相應(yīng)責任,顯然是一種治本之策[18]。

        三、人工智能體為刑事責任主體的刑法沖突

        鑒于對人工智能的深度憂慮,有些人錯誤地認為30年內(nèi)強人工智能將統(tǒng)治世界,人類將成為人工智能的奴隸如此等等。事實上,當前人工智能處于從“不能用”到“可以用”的技術(shù)拐點,但是距離“很好用”還有數(shù)據(jù)、能耗、泛化、可解釋性、可靠性、安全性等諸多瓶頸[19]。然而不可否認,這是一個既不能證明真也不能證明偽的命題。既然無法確證賦予強人工智能體刑事責任主體資格是否公正,與其被動等待技術(shù)事實的支撐,因法律滯后性面臨科技無情的嘲笑,不如明確規(guī)定:強人工智能體不具有刑事主體資格。

        (一)與犯罪認定標準相抵牾

        強人工智能體欠缺犯罪主觀方面要件。我國刑法理論將行為齊備犯罪構(gòu)成作為認定犯罪的唯一標準,如果賦予強人工智能體刑事責任主體資格,假定充足犯罪客觀要件,成立犯罪也要求強人工智能體具有規(guī)范意義上的故意或過失,甚至是特定目的或動機。而人類以外之物不可能基于生活經(jīng)驗理解反映社會倫理的常識、常理、常情,無法產(chǎn)生影響或支配“行為人”實施犯罪行為的心理因素。筆者認為,人工智能體能否具有規(guī)范層面認識,取決于研發(fā)者、設(shè)計者是否將規(guī)范內(nèi)容及認同并尊重規(guī)范的決意植入人工智能系統(tǒng)。即便是推崇“主體資格支持說”的學(xué)者在論及道德問題時也表示,在強人工智能體設(shè)計研發(fā)之初,便應(yīng)將人類基本道德規(guī)范以算法形式植入其中,并在其深度學(xué)習(xí)過程中反復(fù)修正,避免出現(xiàn)強人工智能體自以為“道德”事實上卻已嚴重背離人類道德觀念的情形。如果強人工智能體“道德算法”出現(xiàn)問題,其研發(fā)者、生產(chǎn)者或操作者應(yīng)綜合主觀過錯與客觀危害結(jié)果承擔相應(yīng)責任。該論者又表示,人工智能體完全有能力在設(shè)計和編制的程序范圍外基于獨立意志自主實施危害社會的行為[3]。但是,如果人工智能體憑借自由意志在設(shè)計和編制的程序范圍外實施的行為并非刑法規(guī)定的犯罪行為,根據(jù)罪刑法定原則,刑罰權(quán)無用武之地;如果其行為確實符合法律規(guī)范嚴重危害社會,為何研發(fā)者和設(shè)計者未將此部分規(guī)范植入人工智能系統(tǒng);假設(shè)研發(fā)者、生產(chǎn)者或操作者無任何防范與監(jiān)督管理過失,僅僅是人工智能體自我進化后認識到其與人類利益存在根本性沖突繼而肆意妄為,此時,適用于人類的刑法規(guī)范何以有效制止危機。是以,只有那些會思維、能創(chuàng)造,依靠自身進化出規(guī)范意識并以人類核心利益為價值追求的強人工智能體,在犯罪故意或過失支配下實施的嚴重危害社會的行為才可能成立犯罪,而這種可能性是否存在使人疑信參半。

        (二)與刑事責任理論難自洽

        不具備人格者,無處罰之必要。成立犯罪需具備不法與責任,不法是對客觀行為的描述,不法行為人能否承擔責任,還要看行為人是否具有責任能力或是否具備人格。欠缺人格則意味著缺少非難可能性的前提,自然沒有刑罰處罰之必要。根據(jù)人格責任論,第一層次的責任是行為責任,重視行為人所實施的個別行為,必須從該行為人人格主體性的現(xiàn)實化角度去把握行為責任,換句話說,非難行為人是對行為背后存在的受環(huán)境與素質(zhì)制約的、由行為人努力形成的人格態(tài)度進行非難;第二層次考慮的是人格形成責任,分析行為人過去的人格形成問題,以便把握現(xiàn)實行為中行為人的人格態(tài)度,人格責任實際是行為責任與人格形成責任的統(tǒng)一體[20]。人格責任論似乎將人格作為行為人是否存在責任的評價對象,卻又認為,凡具有責任能力的主體基于故意或過失實施違法行為,都體現(xiàn)行為人的主體人格,這無異于將人格視作主觀罪過,混淆了人格與主觀罪過的區(qū)別[21]。在人格責任論下,刑法僅就行為人有責形成的部分進行非難,排除了由素質(zhì)、環(huán)境宿命形成的那部分,雖然就人工智能體而言,容易根據(jù)研發(fā)者設(shè)計編制的程序范圍區(qū)分宿命形成的人格與有責形成的人格。然而,一方面,人格是個體在社會化過程中形成的給人以特色的心身組織,具有整體性、積淀性和可測性特點[22]。關(guān)注人格因素,意在預(yù)測行為人再犯的可能性,對人工智能體而言基本不存在再犯可能性擔憂,只要研發(fā)者、算法設(shè)計者改變程序就可杜絕人工智能體再次實施相同或相近的危害行為。另一方面,關(guān)注人格形成原因的同時,人格責任論卻將人格與罪過混淆,對人格本身置之不顧,使人格在定罪中并未實質(zhì)性占得一席之地,依然要根據(jù)實施行為時故意或過失的主觀心理。顯然,人工智能體難以成為責任非難對象。

        (三)與刑罰目的存對立

        刑罰目的基于刑罰體系,猶如中樞神經(jīng)基于人體。我國刑法理論上關(guān)于刑罰目的眾說紛紜,有純粹主張報應(yīng)、預(yù)防或改造的一元論,兼采懲罰與教育改造/預(yù)防和消滅犯罪/懲罰和預(yù)防的二元論以及懲罰、預(yù)防和教育的三元論,絕對報應(yīng)論已基本退出歷史舞臺,較為主流的觀點是持特殊預(yù)防說與一般預(yù)防說[23]。在筆者看來,將預(yù)防犯罪理解為刑罰目的毋庸置疑,但作為一種借助強制和痛苦的“必要的害惡”,刑罰不可置否具有報應(yīng)目的。從存在論意義上講,刑罰目的必須圍繞犯罪來確立,即先有犯罪行為才可以發(fā)動刑罰,因此存在論意義上的刑罰目的,必須圍繞犯罪來確立,報應(yīng)刑是其題中之義;從價值論意義上,刑罰視閾必須觸及到犯罪背后更深層次的追求,懲罰犯罪是為了少罰、不罰,預(yù)防犯罪之目的不言而喻[24]。因此,就懲罰犯罪而論,刑罰通過剝奪或限制犯罪人一定權(quán)益以實現(xiàn)其報應(yīng)目的?!胺穸ㄐ塘P的痛苦特征,無異于否定刑罰概念本身?!盵25]目前人工智能技術(shù)研發(fā)與應(yīng)用主要聚焦于形式邏輯與數(shù)理邏輯等活動,直覺、靈感和非理性等認知思維卻都被排除在外,人工智能體對于人類感官的模擬仍處于機械化階段,無法產(chǎn)生完整的人類感覺和思維,難以具有感知痛苦的能力,更無法在犯罪之樂與刑罰之苦中作出“理性”抉擇[26],將其納入刑罰處罰范圍,無法實現(xiàn)刑罰報應(yīng)和特殊預(yù)防的目的。人工智能體雖具有無比強大的邏輯運算能力,但與人腦思維目的性、容錯性與能動性不同,其低劣的行動力不可能具備人類所具有的意志性與創(chuàng)造性,更無法從彼智能體犯罪受刑的痛感中受到震懾。再者,如若人工智能進化到所有領(lǐng)域都超出人腦維度限制,類似于《復(fù)仇者聯(lián)盟》中的奧創(chuàng),人類又憑什么斷定在我們創(chuàng)造的法則面前,他們甘愿俯首稱臣。將人工智能體納入刑罰處罰范圍,不僅刑罰目的徒勞無功,刑罰不可避免性亦將被破壞殆盡。

        (四)與法律體系不自融

        獨立法律人格是制裁或懲罰的前置性條件。法律人格是行使法律權(quán)利、履行法律義務(wù)、承擔法律責任的資格。2017年10月25日,在沙特阿拉伯舉行的未來投資計劃會議上,由Hanson Robotics公司研發(fā)的機器人“索菲婭”成為首個被授予沙特阿拉伯國籍的機器人[27]。我們不得不審視人工智能體的法律定位。人工智能技術(shù)日漸成熟,與人類之間互動日趨頻繁,有學(xué)者認為,否認人工智能體主體地位,難以遏制奴役、濫用、對硬件進行物理攻擊或其他殘酷虐待人工智能體的消極行為[28]。但是,尊嚴并非主體特權(quán),作為法律客體的人工智能體,也有資格要求人類尊重與保護?!叭绻少x予人工智能體法律主體地位,將顛覆法律世界的主客體二元結(jié)構(gòu),并深刻影響人工智能時代人類法律的基本理念與運行秩序?!盵29]其一,人工智能體雖然具備深度學(xué)習(xí)能力,但只能是基于人類設(shè)計的特定遺傳算法、模糊邏輯等各式算法理論完成特定任務(wù)。其二,如果賦予人工智能體獨立法律人格,那么是否同時賦予其人格權(quán)、財產(chǎn)權(quán)并喚醒其權(quán)利意識,對于智能相似“性格”趨同的人工智能體該如何個性化管理;人工智能體能否提起撤銷之訴,實體法與程序法又將如何妥善銜接。其三,與具有法律人格的自然人能夠表現(xiàn)出價值判斷與道德感不同,人工智能體的智慧僅僅是一種演繹智慧,只能對數(shù)據(jù)進行無理性、無情感的僵化處理[29]。同沒有善惡觀念的人工智能體顯然不能進行倫理上的溝通,因為它無法對非難予以回應(yīng)??v觀人工智能體特質(zhì),又鑒于強人工智能時代不是說來就來,瑪格麗特·博登也認為,人工智能沒有很多人假設(shè)的那么有前途,而且人工智能一直專注于智力理性,卻忽略情感智能,更別提心智了,強人工智能前景看起來暗淡無光[30],無需延展現(xiàn)有法律制度體系,賦予人工智能體法律主體資格。

        (五)與法律價值未契合

        效益價值的內(nèi)在規(guī)定,構(gòu)成對刑法修改的應(yīng)然要求。刑法效益之價值,并非是對刑法控制犯罪效果的簡單追求,更不是一味強調(diào)少用刑罰,而是以最少的刑法成本實現(xiàn)最大的控制犯罪的效果。刑法在追求打擊犯罪防衛(wèi)社會效果的同時定然會滋生消極效果,如若消極效果大于其積極效果,那么動用刑法不但無效益可言,甚至可謂失之東隅。盡管從理論上講,國家應(yīng)該不惜成本確保刑法運行,但是一旦刑法運行成本過于高昂,譬如,在不需要動用刑法遏制的情況下動用了刑法,抑或是某種行為雖然具有相當程度的危害性,但同時具有偶發(fā)性,甚至僅僅作為特例呈現(xiàn),依靠道德禁忌、民事、經(jīng)濟或行政制裁足以調(diào)整,不動用刑法也不至于有規(guī)律地頻繁發(fā)生以至于蔓延,凡此種種情形下,動輒動用刑法必然對權(quán)益保護效果大打折扣,超出社會承受力[31]。人工智能作為攸關(guān)國家戰(zhàn)略部署、經(jīng)濟民生導(dǎo)向的新興技術(shù),如果過早過多以刑法介入,勢必增加研發(fā)投入成本、縮小應(yīng)用示范空間,重創(chuàng)科技活力。因此,刑法對人工智能技術(shù)及產(chǎn)品的規(guī)制應(yīng)當采取審慎態(tài)度,保持理性與謙抑之姿態(tài),發(fā)掘刑法語言之彈性,涵攝時代視角解釋刑法條文,當民事、經(jīng)濟或行政懲罰不足以維護社會秩序時,才以刑法作為最后手段對其進行矯正。

        四、規(guī)制人工智能體治理措施思考

        人工智能雖正在挑戰(zhàn)人類主體性,卻也呈現(xiàn)出無法克服的局限性。無論是內(nèi)容抑或形式,人工智能對于思維能力的延伸總是無法超越人類意識的整體性。目前最先進的ANN(Artificial Neural Network,“人工神經(jīng)網(wǎng)絡(luò)”的簡稱)只能模擬大鼠的31 000個神經(jīng)元網(wǎng)絡(luò),而人腦的神經(jīng)元多達860億個,對于人腦的整體模擬只是攀登珠峰的第一步;另一方面,人工智能只會以固有的價值尺度去衡量事物,無法依據(jù)主客體與環(huán)境變化的需要不斷去選擇和實現(xiàn)新的價值[26]。效仿人類情感更是人工智能技術(shù)難以攻克的難題,人工智能體仍然無法產(chǎn)生人類的七情六欲、感覺和思維,“中文屋”的論證也表明人工智能甚至可能連人類的語言都無法理解,加之人工智能深度學(xué)習(xí)依賴的大數(shù)據(jù)的局限性,使得人工智能呈現(xiàn)繁花似錦暫且依然只是一種愿景。

        然而,人類朝夕不倦優(yōu)化自己生存條件的本能,驅(qū)使人工智能技術(shù)日日新,又日新。與生化技術(shù)、基因技術(shù)一樣,人工智能技術(shù)也可能給現(xiàn)代化帶來不可控的全球風險,這一風險既體現(xiàn)在人工智能技術(shù)生活化后被利用而引發(fā)的越軌或違法犯罪行為,如傳統(tǒng)違法犯罪的人工智能化;也體現(xiàn)在大型互聯(lián)網(wǎng)企業(yè)搭乘網(wǎng)絡(luò)、大數(shù)據(jù)、人工智能技術(shù)相互融合的快車,在向人工智能產(chǎn)品服務(wù)與提供企業(yè)轉(zhuǎn)型過程中憑借其技術(shù)、數(shù)據(jù)、資本和市場資源優(yōu)勢實施的諸如破壞競爭對手的人工智能系統(tǒng)等危害公眾、妨害社會管理秩序的行為;更加體現(xiàn)在人工智能技術(shù)應(yīng)用失控,偏離有益性發(fā)展軌道,人類社會無法對進化出自主意識和超級智能的人工智能體予以有效控制[32]。與其爭論當下人工智能體獨立承擔刑事責任是否妥當,不如思考如何合理規(guī)制人工智能研發(fā)者、生產(chǎn)者或操作者的行為,畢竟面對飛速發(fā)展的人工智能,我們并沒有反復(fù)試錯的機會。

        根據(jù)相關(guān)責任人主觀方面的不同,可作如下區(qū)分:(1)研發(fā)者如將自己的偏見嵌入算法系統(tǒng),將人工智能體作為犯罪工具,故意利用其實施犯罪,對此直接根據(jù)刑法規(guī)定對人工智能體研發(fā)者定罪量刑即可。(2)如果人工智能體研發(fā)者、生產(chǎn)者根據(jù)時下技術(shù)發(fā)展水平對人工智能體實施的行為會發(fā)生危害社會的結(jié)果具有預(yù)見可能性,卻疏忽大意沒有預(yù)見;或者輕率視之,未盡結(jié)果避免義務(wù),使得刑法保護的法益受到侵害,應(yīng)當追究研發(fā)者、生產(chǎn)者過失責任。如果人工智能體研發(fā)者已經(jīng)預(yù)見到人工智能體可能基于深度學(xué)習(xí)侵害法益,但輕信在現(xiàn)有人工智能技術(shù)環(huán)境下可以避免危害結(jié)果的發(fā)生,未采取任何避免措施致使危害結(jié)果發(fā)生或過高地估計了避免結(jié)果發(fā)生的主客觀條件,違反了客觀結(jié)果避免義務(wù),應(yīng)承擔過于自信的過失責任。(3)相較于現(xiàn)階段的人工智能體,刑法關(guān)注的是研發(fā)者、生產(chǎn)者與操作者之間的責任分配,在強人工智能體“飛入尋常百姓家”時,刑法更應(yīng)注重強人工智能系統(tǒng)的研發(fā)者、生產(chǎn)者的監(jiān)督過失責任。認為人工智能體是基于深度學(xué)習(xí)能力超出研發(fā)者或生產(chǎn)者預(yù)見范圍對法益造成了嚴重損害,而應(yīng)減輕或免除研發(fā)者或生產(chǎn)者的責任不具有說服力。正是因為人工智能體的不可預(yù)見性才產(chǎn)生了更為嚴格的監(jiān)督注意義務(wù)。人工智能技術(shù)一步走錯,其危害無法估量。另一方面,不能因為人工智能體“自己”實施行為,就讓被害人為這種隨機的錯誤獨自買單。因此,在將人工智能體投入市場之前,設(shè)計者、生產(chǎn)者必須充分測試保證其已達到現(xiàn)行科技標準和行業(yè)標準;生產(chǎn)者、銷售者必須明確告知操作者操作細則以及在操作過程中應(yīng)保持何種程度的注意義務(wù),并提示可能存在的隱患;研發(fā)者、生產(chǎn)者、銷售者務(wù)必跟進操作者的反饋,對人工智能體造成的投訴或事故及時處理,如事故風險呈擴大態(tài)勢,必須發(fā)布警告緊急召回涉事產(chǎn)品。當然,即便是各個環(huán)節(jié)皆盡審慎注意義務(wù),囿于一定地域內(nèi)人工智能技術(shù)發(fā)展水平的限制,人類也不可能徹底消除人工智能體的安全風險。如果通過刑法勉強介入來解決問題,不僅會使尖端前沿技術(shù)萎縮,將與此相連的不可避免的風險轉(zhuǎn)嫁給研發(fā)者或操作者,也是不公平的[33]。因而應(yīng)當適度承認科技社會發(fā)展過程中現(xiàn)實存在且能夠承受的“允許性風險”,在助益生產(chǎn)力進步的同時,保障國民對刑法體系的基本認同感,實現(xiàn)刑事立法的科學(xué)化探索[34]。

        概言之,人工智能時代的刑事法治,不能埋首于刑法框架內(nèi),關(guān)起門來閉門造車,違背人工智能技術(shù)探索規(guī)律過度干預(yù),抑或等閑視之,張弛無度,沖擊刑法的安定性與目的性。刑法不是唯一,甚至也不是主要的對付犯罪的工具,我們應(yīng)當對“預(yù)防”予以極大的注意,抵制誘發(fā)犯罪的因素[35]。例如,規(guī)定人工智能體的研發(fā)者、生產(chǎn)者或服務(wù)提供者承擔人工智能體的登記造冊,活動情況的記錄與保存,有害活動監(jiān)控、預(yù)警、報告和制止,系統(tǒng)升級和缺陷修補,協(xié)助有權(quán)機關(guān)管理、調(diào)查或處置等安全管理義務(wù)[32];同時,需要高度注意的是,應(yīng)建立最基本的人類社會自我運行管理的安全底線備份,一旦關(guān)閉所有人工智能體系,人類要有最基本的生存能力[36]??偠灾覀儜?yīng)該綜合酌量人工智能技術(shù)客觀特點,建立政府主導(dǎo)下的統(tǒng)攝人工智能領(lǐng)域、公共利益及個人權(quán)利保護的安全標準,協(xié)調(diào)憲法價值涵涉下的民法、行政法和刑法內(nèi)部構(gòu)造的系統(tǒng)性,推動構(gòu)建人文理性、戰(zhàn)略政策、法律規(guī)范同源共流的社會治理體系。

        猜你喜歡
        人工智能人類
        我校新增“人工智能”本科專業(yè)
        顫抖吧,人類
        哈哈畫報(2022年4期)2022-04-19 11:11:50
        人類能否一覺到未來?
        人類會成長起來嗎?
        英語文摘(2021年2期)2021-07-22 07:56:54
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        1100億個人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        又长又大又粗又硬3p免费视频| 国产亚洲欧美精品久久久| av在线播放亚洲天堂| 久久久久国产精品四虎| 国产天堂网站麻豆| 爽爽精品dvd蜜桃成熟时电影院| 国产精品亚洲专区无码不卡| 精品国产一区二区三区19| 亚洲国产一区二区三区| 曰本女人牲交全视频免费播放| 性猛交ⅹxxx富婆视频| 国产精品高清亚洲精品| 国产精品爽爽va在线观看网站| 成人美女黄网站色大免费的| 亚洲天堂av在线免费观看| av网址大全在线播放| 成人在线免费视频亚洲| 国产伦精品一区二区三区| 美腿丝袜在线一区二区| 亚洲精品视频免费在线| 98国产精品永久在线观看| 精品国产黑色丝袜高跟鞋| 波多野结衣中文字幕一区二区三区| 黄色国产精品福利刺激午夜片| 在线亚洲国产一区二区三区| 99精品成人片免费毛片无码| 精品国产av 无码一区二区三区| 天堂√在线中文官网在线| 国产av一级片在线观看| 亚洲女同性恋第二区av| 日本亚洲一级中文字幕| 麻豆av一区二区三区| 中文字幕丰满人妻av| 一区二区人妻乳中文字幕| 亚洲中字永久一区二区三区| 欧美洲精品亚洲精品中文字幕| 精品熟女日韩中文十区| 在线不卡av片免费观看| 三年片免费观看影视大全视频 | 亚洲精品在线免费视频| 婷婷久久亚洲中文字幕|