[摘要]21世紀(jì)人工智能的發(fā)展一方面推動(dòng)了人類社會(huì)的進(jìn)步,另一方面也為犯罪手段的升級提供了技術(shù)支持。由于人工智能的應(yīng)用場景、運(yùn)行機(jī)制以及使用人員技術(shù)水準(zhǔn)等因素,人工智能犯罪的治理具有一定的復(fù)雜性。因此有必要綜合考慮人工智能技術(shù)在刑事司法中應(yīng)用的影響、所涉及罪名與刑法相關(guān)罪名的關(guān)系等因素,在堅(jiān)持“以人為中心、以平等為本、以風(fēng)險(xiǎn)為基礎(chǔ)”原則的基礎(chǔ)上,完善人工智能刑事法律體系、加強(qiáng)人工智能的安全監(jiān)管體系建設(shè)、強(qiáng)化人工智能倫理道德的建設(shè)、拓展人工智能領(lǐng)域的國際合作以實(shí)現(xiàn)對人工智能犯罪行為的有效治理。
[關(guān)鍵詞]人工智能;犯罪治理;現(xiàn)實(shí)困境;改革路徑
[中圖分類號(hào)]D9200[文獻(xiàn)標(biāo)志碼]A[文章編號(hào)]2095-0292(2024)01-0056-06
[收稿日期]2023-11-10
[基金項(xiàng)目]公安部科技計(jì)劃理論軟科學(xué)“大數(shù)據(jù)背景下公安機(jī)關(guān)打擊虛擬貨幣涉毒洗錢犯罪對策研究”(2022LL43012);西安市社會(huì)科學(xué)基金“西安公安機(jī)關(guān)打擊養(yǎng)老詐騙犯罪對策研究”(23FZ12);陜西警官職業(yè)學(xué)院教學(xué)創(chuàng)新團(tuán)隊(duì)資助項(xiàng)目
[作者簡介]趙長明,西安交通大學(xué)博士研究生,陜西公安新型網(wǎng)絡(luò)金融犯罪研究中心主任,副教授,研究方向:犯罪治理。
一、問題的提出
黨的二十大報(bào)告中指出,“中國要積極參與全球治理體系改革和建設(shè),推動(dòng)全球治理朝著更加公正合理的方向發(fā)展。”[1]人工智能是當(dāng)今科技領(lǐng)域最具革命性意義的技術(shù)之一,被認(rèn)為是繼蒸汽機(jī)、電力、信息和互聯(lián)網(wǎng)之后最有可能改變世界的技術(shù)。當(dāng)前隨著人工智能技術(shù)的迅猛發(fā)展,其在社會(huì)生產(chǎn)和生活中的應(yīng)用也越來越廣泛,成為推動(dòng)人類文明進(jìn)步的重要力量。據(jù)《人工智能:科技與社會(huì)》一書中的預(yù)測,未來40年內(nèi),人工智能將超越人類智能水平,成為人類智力的主要貢獻(xiàn)者。與之相對應(yīng)的是,人工智能犯罪也日趨嚴(yán)重,為了有效治理人工智能犯罪,維護(hù)世界秩序的正常運(yùn)轉(zhuǎn),必須長期跟蹤人工智能技術(shù)發(fā)展的動(dòng)向。根據(jù)(CNNIC)在京發(fā)布第52次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計(jì)報(bào)告》,截至2023年6月,我國網(wǎng)民規(guī)模達(dá)1079億人,互聯(lián)網(wǎng)普及率達(dá)764%[2]。面對如此迅猛的發(fā)展勢頭,在此背景下,人工智能犯罪治理問題也逐漸成為學(xué)者們研究的焦點(diǎn)。本文擬在厘清人工智能犯罪內(nèi)涵和特征基礎(chǔ)上對我國人工智能犯罪治理路徑進(jìn)行探討,以期為我國人工智能犯罪的有效治理提供一定的參考。
二、人工智能犯罪治理的原則導(dǎo)向
(一)以人為中心:促進(jìn)人的發(fā)展
傳統(tǒng)犯罪治理主要是以國家為中心,是國家基于自身利益和社會(huì)發(fā)展需求,對犯罪實(shí)施的治理活動(dòng)。從犯罪治理的目標(biāo)來看,傳統(tǒng)犯罪治理主要是為了實(shí)現(xiàn)社會(huì)的穩(wěn)定發(fā)展,而人工智能犯罪治理則需要在維護(hù)社會(huì)穩(wěn)定的基礎(chǔ)上促進(jìn)人的發(fā)展。現(xiàn)代社會(huì)所面臨的諸多風(fēng)險(xiǎn)中,很多都是因?yàn)槿俗陨碓斐傻摹@?,人口老齡化問題、疾病醫(yī)療負(fù)擔(dān)、環(huán)境污染等問題都會(huì)導(dǎo)致社會(huì)秩序失衡。對這些問題進(jìn)行治理時(shí),需要考慮到人自身的利益,使其在社會(huì)運(yùn)行中發(fā)揮出應(yīng)有的作用。正如馬克思所言:“人們自己創(chuàng)造自己的歷史,但是他們并不是隨心所欲地創(chuàng)造,并不是在他們自己選定的條件下創(chuàng)造,而是在直接碰到的、既定的、從過去承繼下來的條件下創(chuàng)造?!保?](P141-143)所以說,人工智能犯罪治理需要從促進(jìn)人的發(fā)展這個(gè)角度來進(jìn)行,對“人”進(jìn)行尊重和關(guān)懷是基礎(chǔ)。
(二)以平等為本:實(shí)現(xiàn)權(quán)利平等
平等是人類社會(huì)的基本價(jià)值追求,也是人工智能犯罪治理的基本理念之一。隨著社會(huì)的發(fā)展,公民的權(quán)利意識(shí)不斷增強(qiáng),其對于平等的要求也越來越高。對此,學(xué)界已經(jīng)形成共識(shí)。例如,“自由”、“尊嚴(yán)”、“平等”等詞匯已經(jīng)成為國際社會(huì)公認(rèn)的核心價(jià)值[4](P103-113)。其中“自由”是最具代表性的概念。自由不僅是一種利益,更是一種價(jià)值,與人類追求幸福生活、提升生活品質(zhì)的基本需要相契合?!白饑?yán)”也是現(xiàn)代社會(huì)追求的一種價(jià)值目標(biāo),其指向自由與平等的結(jié)合?!捌降取笔乾F(xiàn)代社會(huì)基本價(jià)值觀念之一,在此基礎(chǔ)上產(chǎn)生了法律價(jià)值體系、社會(huì)價(jià)值觀和國際社會(huì)價(jià)值觀等多個(gè)概念。平等是法律所追求的重要價(jià)值目標(biāo)之一,人工智能犯罪治理也應(yīng)當(dāng)堅(jiān)持以平等為本,實(shí)現(xiàn)權(quán)利平等。
(三)以風(fēng)險(xiǎn)為基礎(chǔ):保障社會(huì)發(fā)展
以風(fēng)險(xiǎn)為基礎(chǔ)是指在傳統(tǒng)犯罪治理的基礎(chǔ)上,通過對人工智能風(fēng)險(xiǎn)進(jìn)行識(shí)別和評估,對人工智能犯罪的危害性進(jìn)行綜合考量,進(jìn)而科學(xué)合理地制定治理策略,實(shí)現(xiàn)對人工智能犯罪的有效治理。由于人工智能犯罪的危害性很大,因此應(yīng)當(dāng)通過風(fēng)險(xiǎn)評估確定其風(fēng)險(xiǎn)等級,并基于此采取相應(yīng)的治理措施。目前,由于缺乏統(tǒng)一的技術(shù)標(biāo)準(zhǔn)和行業(yè)規(guī)范,導(dǎo)致人工智能風(fēng)險(xiǎn)評估工作難以開展,其具體操作方法也存在較大爭議。有鑒于此,應(yīng)當(dāng)盡快出臺(tái)相關(guān)行業(yè)規(guī)范和國家標(biāo)準(zhǔn)。
風(fēng)險(xiǎn)評估是人工智能犯罪治理的前提和基礎(chǔ),也是各國共同關(guān)注的問題。但是,由于我國尚未出臺(tái)專門的技術(shù)標(biāo)準(zhǔn)和行業(yè)規(guī)范,對于人工智能風(fēng)險(xiǎn)評估的具體操作方法也缺乏統(tǒng)一規(guī)定。因此,在立法層面應(yīng)當(dāng)盡快制定統(tǒng)一的技術(shù)標(biāo)準(zhǔn)和行業(yè)規(guī)范。在司法層面應(yīng)當(dāng)加快制定相關(guān)司法解釋或司法政策。隨著相關(guān)技術(shù)標(biāo)準(zhǔn)和行業(yè)規(guī)范的制定出臺(tái),以及立法、司法解釋、行政規(guī)章等規(guī)范性文件的不斷完善和更新,未來我國人工智能犯罪治理將進(jìn)入全面發(fā)展階段。
三、人工智能犯罪治理的現(xiàn)實(shí)困境
(一)人工智能技術(shù)本身的復(fù)雜性影響犯罪的預(yù)防與打擊
1人工智能的復(fù)雜性使犯罪打擊難度加大
在人工智能技術(shù)高速發(fā)展的今天,我們面臨的是一個(gè)全新的時(shí)代。與傳統(tǒng)犯罪不同,人工智能技術(shù)發(fā)展已經(jīng)形成了較為成熟的產(chǎn)業(yè)鏈,包括算法、數(shù)據(jù)、芯片、傳感器等多個(gè)方面,這使得人工智能技術(shù)具有很強(qiáng)的專業(yè)性和復(fù)雜性[6](P34-43),人工智能技術(shù)在不斷發(fā)展過程中形成了大量的數(shù)據(jù)和知識(shí),這使得人工智能技術(shù)能夠?qū)Υ罅啃畔⑦M(jìn)行有效處理并提供服務(wù)。隨著信息技術(shù)在社會(huì)生活中廣泛應(yīng)用,越來越多的人掌握了一定的信息技術(shù)知識(shí)和技能。所以當(dāng)社會(huì)出現(xiàn)問題時(shí),犯罪行為就可能與人工智能技術(shù)產(chǎn)生關(guān)聯(lián)。例如在犯罪偵查過程中,犯罪嫌疑人可以借助人工智能技術(shù)進(jìn)行反偵查,從而逃避偵查和懲罰。而且當(dāng)人工智能技術(shù)與其他犯罪行為相結(jié)合時(shí),犯罪行為就有可能會(huì)變得更加復(fù)雜、隱蔽和難以防范,這就要求我們必須在加強(qiáng)理論研究的同時(shí),還必須加強(qiáng)實(shí)踐探索與研究。
2人工智能的危險(xiǎn)性增加了犯罪風(fēng)險(xiǎn)
當(dāng)前,人工智能技術(shù)已經(jīng)應(yīng)用于各種領(lǐng)域,如軍事、醫(yī)療、農(nóng)業(yè)等。對于人工智能機(jī)器人的應(yīng)用,有專家認(rèn)為“人工智能機(jī)器人的出現(xiàn)將對人類社會(huì)產(chǎn)生重大影響?!保?]( P54-66)然而,人工智能技術(shù)本身就具有一定的危險(xiǎn)性,如果這些技術(shù)被惡意使用甚至濫用就會(huì)產(chǎn)生一定的危害。當(dāng)前人工智能技術(shù)的不安全性主要表現(xiàn)在兩個(gè)方面:第一、算法和數(shù)據(jù)方面存在缺陷。目前人工智能技術(shù)所采用的算法和數(shù)據(jù)都是公開透明的,如果這些算法和數(shù)據(jù)被惡意利用,就會(huì)增加犯罪行為的危害。第二、安全認(rèn)證問題。在人工智能技術(shù)應(yīng)用領(lǐng)域中,認(rèn)證問題是非常重要的一環(huán)。在人工智能技術(shù)中存在著一些認(rèn)證機(jī)制,如身份認(rèn)證、生物識(shí)別、網(wǎng)絡(luò)安全等。如果這些機(jī)制被惡意利用或者濫用就會(huì)對人類社會(huì)安全造成威脅。具體而言,如果利用人工智能技術(shù)實(shí)施犯罪行為,就會(huì)對社會(huì)造成危害。當(dāng)前,我國正處于信息時(shí)代向智能時(shí)代轉(zhuǎn)型階段,人工智能技術(shù)在信息時(shí)代中的作用和地位越來越重要。然而,一旦出現(xiàn)安全問題就會(huì)對整個(gè)社會(huì)帶來威脅。
(二)人工智能犯罪主體責(zé)任承擔(dān)的不確定性
1傳統(tǒng)刑法理論無法解決人工智能犯罪主體認(rèn)定的問題
對于 “是否具有主體地位”問題,傳統(tǒng)刑法理論一直存在爭議。刑法學(xué)界有觀點(diǎn)認(rèn)為,不能將具有獨(dú)立人格的人完全等同于法律擬制的“自然人”;也有觀點(diǎn)認(rèn)為應(yīng)當(dāng)將刑法中“人”的定義擴(kuò)大到人工智能機(jī)器人身上[8](P78-91)。通過分析發(fā)現(xiàn)在傳統(tǒng)刑法理論中“人”的定義過于狹窄和僵化,無法對人工智能機(jī)器人這一新出現(xiàn)的事物進(jìn)行充分、合理、準(zhǔn)確的解釋。人工智能機(jī)器人作為一種被設(shè)計(jì)出來用于輔助人類社會(huì)生活、生產(chǎn)以及科學(xué)研究等多個(gè)領(lǐng)域中的產(chǎn)品,其與人類社會(huì)在本質(zhì)上存在著巨大區(qū)別。如果按照傳統(tǒng)刑法理論來認(rèn)定人工智能機(jī)器人是否屬于刑法意義上的人,顯然會(huì)導(dǎo)致人工智能機(jī)器人在犯罪主體認(rèn)定上與人類社會(huì)產(chǎn)生重大分歧。根據(jù)上述觀點(diǎn),因?yàn)槿斯ぶ悄軝C(jī)器人本質(zhì)上仍然是人所制造出來的產(chǎn)品,既然是人所制造出來的產(chǎn)品,那么就不可能完全脫離人類社會(huì)而獨(dú)立存在。因此,按照傳統(tǒng)刑法理論認(rèn)定人工智能犯罪主體存在諸多困難。
2人工智能是否備獨(dú)立的價(jià)值判斷能力存在爭議
從價(jià)值判斷的角度來看,人工智能機(jī)器人不具備獨(dú)立的價(jià)值判斷能力。這是因?yàn)槿斯ぶ悄軝C(jī)器人是為人類服務(wù)的工具,其存在價(jià)值是為了幫助人類完成一些工作,或者將人類從一些繁瑣的工作中解放出來。人工智能機(jī)器人是否具有獨(dú)立的價(jià)值判斷能力,對于其能否成為犯罪主體至關(guān)重要,當(dāng)前對于人工智能是否具備獨(dú)立價(jià)值判斷能力的認(rèn)定存在一定的難度。筆者認(rèn)為,應(yīng)該從以下幾個(gè)方面進(jìn)行考慮:第一、人工智能機(jī)器人是否具有自主意識(shí)。這是指人工智能機(jī)器人在進(jìn)行行為時(shí)是否具備自我意識(shí);第二、人工智能機(jī)器人是否能夠?qū)ψ陨淼男袨楹蠊M(jìn)行獨(dú)立判斷,這是指在確定人工智能機(jī)器人承擔(dān)刑事責(zé)任時(shí)應(yīng)考慮哪些因素。從目前來看,人工智能機(jī)器人還沒有在行為上表現(xiàn)出能夠獨(dú)立判斷行為后果的能力。對于人工智能犯罪的因果關(guān)系認(rèn)定,從傳統(tǒng)刑法理論來看,由于人工智能機(jī)器人缺乏主觀能動(dòng)性和意識(shí)能力,因此無法對結(jié)果的產(chǎn)生原因進(jìn)行自我控制和支配,因而其不應(yīng)承擔(dān)刑事責(zé)任。由此可見,在一般情況下人工智能不會(huì)對結(jié)果的產(chǎn)生原因進(jìn)行控制和支配。但是當(dāng)人工智能出現(xiàn)故障或遭遇干擾時(shí),其有可能導(dǎo)致危害結(jié)果的發(fā)生。例如在一起交通事故中,被害人駕駛著自己的車輛在高速公路上行駛時(shí)突然失控撞到了旁邊的護(hù)欄上,導(dǎo)致被害人當(dāng)場死亡,對此種情況下人工智能機(jī)器人是否需要承擔(dān)刑事責(zé)任?筆者認(rèn)為,在當(dāng)今社會(huì)人工智能技術(shù)還不能完全取代人類的情況下,人工智能機(jī)器人是否能夠成為法律意義上的“人”是一個(gè)值得深入探討的問題。
(三)人工智能引發(fā)的倫理道德問題
1個(gè)人生命安全受到潛在威脅
對于人工智能技術(shù)而言,其主要是通過對外部信息的收集、處理、分析,然后根據(jù)一定的規(guī)則來做出相應(yīng)的決策。而對于人工智能系統(tǒng)所作出的決策是否符合社會(huì)大眾的利益,這是需要進(jìn)一步探究的。例如:在無人駕駛技術(shù)領(lǐng)域中,如果人工智能系統(tǒng)對外部環(huán)境信息進(jìn)行了錯(cuò)誤判斷,而做出了錯(cuò)誤的決策,就有可能會(huì)導(dǎo)致交通事故。例如:當(dāng)前網(wǎng)絡(luò)信息技術(shù)發(fā)展過程中所具有的智能識(shí)別、定位等技術(shù)功能就能夠很好地幫助一些不法分子實(shí)施違法犯罪行為。對于人工智能系統(tǒng)而言,其本身就是通過對外部信息進(jìn)行收集、處理、分析之后作出相應(yīng)的決策,而外部環(huán)境信息本身就具有相當(dāng)大的盲目性,因此在這種情況下人工智能技術(shù)所作出的決策就會(huì)對人類的生命安全產(chǎn)生威脅。
2國家安全受到潛在威脅
隨著人工智能技術(shù)的不斷發(fā)展,其已經(jīng)在社會(huì)生活的各個(gè)方面發(fā)揮著越來越重要的作用。對于國家安全而言,人工智能技術(shù)的快速發(fā)展,既能夠有效地促進(jìn)社會(huì)經(jīng)濟(jì)的發(fā)展,又能夠給國家安全帶來巨大威脅。對于國家安全而言,首先,需要對其進(jìn)行保護(hù),而在此過程中人工智能技術(shù)就扮演著至關(guān)重要的角色。例如:在網(wǎng)絡(luò)空間中,網(wǎng)絡(luò)攻擊行為本身就是國家安全所面臨的重大威脅之一。其次,由于人工智能技術(shù)本身具有極大的自主性以及自我學(xué)習(xí)能力,所以在這種情況下人工智能系統(tǒng)自身就有可能會(huì)受到一定程度上的操縱,從而使其產(chǎn)生一定程度上的危害行為。例如:在智能安防領(lǐng)域中,對于一些存在著一定危險(xiǎn)性的物體或者人員就有可能會(huì)被人工智能系統(tǒng)所檢測到并做出相應(yīng)的處理。
四、人工智能犯罪治理的改革路徑
(一)完善人工智能相關(guān)刑事法律體系
1明確人工智能的法律主體地位
第一、承認(rèn)人工智能的主體地位。承認(rèn)人工智能的主體地位是將人工智能納入法律體系的基礎(chǔ),也是加強(qiáng)對人工智能管理的關(guān)鍵。對于人類而言,其與人工智能之間的關(guān)系也越來越緊密。在當(dāng)前社會(huì)中,人類和人工智能之間是一種相互依賴、相互融合、共同發(fā)展的關(guān)系,沒有任何一個(gè)人可以脫離社會(huì)而單獨(dú)存在。對于一個(gè)人來說,其成長過程中需要接受社會(huì)中各種事物的洗禮和影響,對于人工智能來說也是如此。
在法律體系中,將人工智能確定為法律主體具有必要性和可行性。從刑法理論上看,未來的人工智能機(jī)器人與自然人一樣具有行為能力、辨認(rèn)能力、控制能力,由于人工智能具有自我學(xué)習(xí)、自我判斷等特征,它能通過對數(shù)據(jù)的收集和分析而學(xué)習(xí)新知識(shí)并對未來作出預(yù)測,如果人工智能主體在對自身行為進(jìn)行決策時(shí)出現(xiàn)了偏差或者是錯(cuò)誤,就可能導(dǎo)致危害后果。因此,在未來應(yīng)當(dāng)盡快出臺(tái)相關(guān)法律法規(guī)對人工智能機(jī)器人進(jìn)行規(guī)范和約束。
第二、賦予人工智能主體法律地位可以避免濫用其權(quán)利。由于人工智能技術(shù)是人類所創(chuàng)造的產(chǎn)物,但是其具有不能被人類所控制、無法預(yù)測的風(fēng)險(xiǎn)。因此在對人工智能機(jī)器人進(jìn)行法律地位確認(rèn)時(shí)應(yīng)當(dāng)采取“擬制人”制度,即在認(rèn)定人工智能機(jī)器人是否為法律主體時(shí)應(yīng)當(dāng)將其視為“人”進(jìn)行評價(jià)和保護(hù),這既是對其權(quán)利的保護(hù)也是對其義務(wù)的規(guī)范和約束。
當(dāng)前,部分國家已經(jīng)開始嘗試對人工智能進(jìn)行立法。但由于這些立法并未明確對人工智能的法律主體地位做出規(guī)定,所以其并不能解決人工智能犯罪的刑事責(zé)任問題。從現(xiàn)有立法來看,關(guān)于人工智能法律主體地位的規(guī)定主要包括兩種類型:一是賦予人工智能以民事主體資格。2018年,歐盟委員會(huì)發(fā)布了《關(guān)于數(shù)字服務(wù)法的建議》,首次將人工智能技術(shù)納入數(shù)字服務(wù)法中,為其確立法律主體地位奠定了基礎(chǔ)[9](P110-125);二是將人工智能視為非自然人,并將其作為法人進(jìn)行管理。2019年3月,德國聯(lián)邦議會(huì)通過了《電子人工智能法案》,在其中明確規(guī)定了對電子人工智能的管理方式[10](P109-113)。而在我國,雖然我國《民法總則》已經(jīng)規(guī)定了自然人的范圍以及法人的范圍,但并未明確規(guī)定人工智能可以成為法律主體。因此,從現(xiàn)有立法來看,目前關(guān)于人工智能法律主體地位的規(guī)定存在著一定的爭議。
2合理設(shè)置人工智能犯罪刑罰
人工智能時(shí)代必須在罪刑法定原則、刑法的謙抑性原則指導(dǎo)下,對人工智能犯罪的刑罰進(jìn)行合理設(shè)置。
第一、在刑法中對人工智能犯罪予以明確規(guī)定并設(shè)立相應(yīng)罪名。目前我國刑法中僅有非法侵入計(jì)算機(jī)信息系統(tǒng)罪、破壞計(jì)算機(jī)信息系統(tǒng)罪等少數(shù)罪名涉及人工智能的犯罪。隨著人工智能機(jī)器人在各個(gè)領(lǐng)域的廣泛應(yīng)用和深度發(fā)展,相關(guān)法律規(guī)定與實(shí)踐需求之間存在著一定差距。因此有必要將其納入到現(xiàn)有刑事法律體系中進(jìn)行規(guī)定和規(guī)制。例如:機(jī)器人故意殺人罪。機(jī)器人故意殺人是指人工智能由于自身的原因?qū)е滤怂劳龅那樾?。在機(jī)器人故意殺人案件中,如果行為主體實(shí)施了殺人行為,應(yīng)當(dāng)參考故意殺人罪設(shè)置進(jìn)行定罪處罰,以體現(xiàn)對其行為的否定評價(jià)。
第二、確定刑罰的種類和幅度。從量刑幅度來看,對于人工智能犯罪的量刑幅度可以參照適用我國現(xiàn)行刑法分則中規(guī)定的一般量刑幅度。例如,在故意殺人罪中,雖然人工智能犯罪尚無自我意識(shí)與自由意志等主觀要素,但可以借鑒刑法第232條規(guī)定的故意殺人罪一般量刑幅度進(jìn)行處理。在故意傷害致人重傷或死亡罪中,可以參照刑法第234條規(guī)定的故意傷害罪一般量刑幅度進(jìn)行處理。例如在仍工智能故意傷害致人死亡中,行為人對于被害人死亡結(jié)果所持態(tài)度應(yīng)當(dāng)是積極追求或放任該結(jié)果發(fā)生。如果行為人對被害人死亡結(jié)果持積極追求或放任態(tài)度時(shí)應(yīng)當(dāng)判處死刑或者無期徒刑。在確定刑罰種類與幅度時(shí),還應(yīng)當(dāng)考慮以下因素:(1)人工智能犯罪的性質(zhì)與危害程度;(2)人工智能犯罪所侵害的法益;(3)人工智能犯罪社會(huì)危害性與人身危險(xiǎn)性大小;(4)刑法對人工智能犯罪所設(shè)置的刑罰種類與幅度是否合理;(5)對人工智能犯罪設(shè)置刑罰的必要性與可行性。此外,還應(yīng)當(dāng)注意考察人工智能犯罪發(fā)生的概率、造成危害結(jié)果發(fā)生的概率以及刑罰預(yù)防犯罪所需要付出的成本等因素,以確定是否需要設(shè)置較高程度的刑罰。
(二)強(qiáng)化人工智能的安全監(jiān)管體系建設(shè)
1加強(qiáng)頂層設(shè)計(jì),確定監(jiān)管主體和內(nèi)容
應(yīng)加快人工智能安全監(jiān)管機(jī)構(gòu)設(shè)置,成立專門負(fù)責(zé)人工智能安全監(jiān)管的機(jī)構(gòu)。在我國,人工智能安全監(jiān)管主要由國家互聯(lián)網(wǎng)信息辦公室負(fù)責(zé),未來可以在現(xiàn)有政府機(jī)構(gòu)設(shè)置的基礎(chǔ)上,進(jìn)一步推動(dòng)建立跨部門、跨行業(yè)、跨領(lǐng)域、跨區(qū)域的人工智能安全管理協(xié)調(diào)機(jī)制,明確各部門在人工智能發(fā)展中的職責(zé)權(quán)限和責(zé)任邊界,為人工智能發(fā)展提供強(qiáng)有力的保障。
我國人工智能的監(jiān)管主體包括國家、地方和企業(yè)三個(gè)層面。在國家層面,我國可以在全國人大常委會(huì)之下成立人工智能專門委員會(huì),負(fù)責(zé)對人工智能相關(guān)法律和政策進(jìn)行研究,并提出意見和建議。在地方層面,可以根據(jù)地方的實(shí)際情況,將有關(guān)人工智能發(fā)展的管理辦法進(jìn)行立法。在企業(yè)層面,可以由國務(wù)院相關(guān)部門根據(jù)部門職責(zé)和行業(yè)管理需要,研究制定關(guān)于人工智能領(lǐng)域的具體管理辦法。
對人工智能的監(jiān)管內(nèi)容應(yīng)該包含以下幾個(gè)方面:一是對涉及人身安全和人格尊嚴(yán)的人工智能產(chǎn)品和服務(wù)進(jìn)行監(jiān)管,確保其安全性、可靠性和有效性。二是對人工智能技術(shù)、數(shù)據(jù)信息進(jìn)行保護(hù),確保其不被非法獲取和濫用。三是對涉及公共安全、國家安全及社會(huì)公共利益的人工智能技術(shù)產(chǎn)品進(jìn)行監(jiān)管,防止出現(xiàn)安全漏洞。四是對人工智能技術(shù)研發(fā)活動(dòng)、應(yīng)用活動(dòng)以及產(chǎn)品生產(chǎn)等進(jìn)行管理和監(jiān)督,防止出現(xiàn)不正當(dāng)競爭行為和侵權(quán)行為。五是建立完善的監(jiān)管制度和應(yīng)急處理機(jī)制,對人工智能造成的危害進(jìn)行防范。
2要盡快出臺(tái)《人工智能法》,明確人工智能發(fā)展等基本原則和要求
當(dāng)前,我國的《民法總則》《網(wǎng)絡(luò)安全法》等法律法規(guī)都對數(shù)據(jù)安全、人工智能發(fā)展等進(jìn)行了規(guī)定,但這些法規(guī)均是原則性的,缺乏具體的責(zé)任界定,難以為相關(guān)產(chǎn)業(yè)發(fā)展提供有效的制度保障。因此,需要加快出臺(tái)《人工智能法》,明確人工智能發(fā)展中的數(shù)據(jù)安全、隱私保護(hù)、人工智能倫理等基本原則和要求?!度斯ぶ悄芊ā窇?yīng)當(dāng)明確國家對人工智能技術(shù)發(fā)展和應(yīng)用中的安全風(fēng)險(xiǎn)進(jìn)行有效管控,并對研發(fā)主體、行業(yè)企業(yè)、用戶等各方主體行為進(jìn)行約束。《人工智能法》應(yīng)當(dāng)建立健全國家層面的人工智能安全監(jiān)管機(jī)制,加強(qiáng)國家對涉及國計(jì)民生的重要領(lǐng)域和關(guān)鍵環(huán)節(jié)的數(shù)據(jù)安全監(jiān)管工作。同時(shí),建立健全企業(yè)及個(gè)人信息保護(hù)制度,加強(qiáng)個(gè)人隱私保護(hù)和網(wǎng)絡(luò)安全防護(hù)。在制度設(shè)計(jì)方面,要充分考慮到未來人工智能發(fā)展的需要,在數(shù)據(jù)采集、數(shù)據(jù)存儲(chǔ)、數(shù)據(jù)使用、數(shù)據(jù)共享和數(shù)據(jù)出境等方面制定明確規(guī)則。同時(shí),應(yīng)根據(jù)不同行業(yè)領(lǐng)域的特點(diǎn),制定有針對性的安全監(jiān)管措施和技術(shù)要求。同時(shí),在法律責(zé)任方面要進(jìn)一步明確相關(guān)企業(yè)、組織及個(gè)人的法律責(zé)任及追責(zé)措施。
(三)強(qiáng)化人工智能倫理道德的建設(shè)
在人工智能發(fā)展過程中,倫理道德問題不可避免,只有遵循倫理道德規(guī)范,才能使人工智能的發(fā)展更加健康有序。
1要強(qiáng)化黨對人工智能發(fā)展的引領(lǐng),構(gòu)建社會(huì)主義人工智能倫理道德體系
堅(jiān)持把保障人民根本利益作為人工智能倫理道德建設(shè)的出發(fā)點(diǎn)和落腳點(diǎn),使人工智能更好地造福人民。人工智能技術(shù)的應(yīng)用和發(fā)展是為了更好地保障人民根本利益,使人民過上更美好的生活,而不是為了追求所謂的“智能化”。因此,應(yīng)始終堅(jiān)持以人民為中心,把增進(jìn)人民福祉、促進(jìn)人的全面發(fā)展作為一切工作的出發(fā)點(diǎn)和落腳點(diǎn)。這就要求我們應(yīng)把保障和改善民生作為人工智能倫理道德建設(shè)的根本出發(fā)點(diǎn),把人的全面發(fā)展作為人工智能倫理道德建設(shè)的出發(fā)點(diǎn)和落腳點(diǎn),確保人工智能在服務(wù)于人民根本利益方面發(fā)揮出應(yīng)有作用。要以提高人民群眾生活質(zhì)量、增進(jìn)民生福祉為出發(fā)點(diǎn)和落腳點(diǎn),將人工智能技術(shù)更多地應(yīng)用到公共服務(wù)領(lǐng)域,不斷提升公共服務(wù)質(zhì)量和效率。
2強(qiáng)化人工智能領(lǐng)域倫理道德問題的研究, 為人工智能健康發(fā)展提供理論指導(dǎo)
隨著人工智能技術(shù)的快速發(fā)展,很多人工智能領(lǐng)域的倫理道德問題逐漸顯現(xiàn)。如在自動(dòng)駕駛領(lǐng)域,因缺乏統(tǒng)一的倫理道德標(biāo)準(zhǔn)和規(guī)范,導(dǎo)致自動(dòng)駕駛技術(shù)的發(fā)展可能會(huì)產(chǎn)生一些嚴(yán)重的后果,例如引發(fā)交通事故、導(dǎo)致汽車尾氣污染、影響人類生命安全等。同時(shí),自動(dòng)駕駛技術(shù)可能會(huì)對人類產(chǎn)生多方面的影響,比如人車矛盾、交通事故增多等。因此,需要加強(qiáng)對人工智能領(lǐng)域倫理道德問題的研究,構(gòu)建科學(xué)、合理、有效的倫理道德體系,為人工智能健康發(fā)展提供理論指導(dǎo)。此外,要加強(qiáng)對人工智能倫理道德問題的研究,也需要加強(qiáng)對相關(guān)行業(yè)、領(lǐng)域倫理道德問題的研究。通過對相關(guān)行業(yè)、領(lǐng)域的倫理道德問題進(jìn)行研究,一方面可以為相關(guān)行業(yè)和領(lǐng)域提供理論指導(dǎo);另一方面可以為人工智能健康發(fā)展提供技術(shù)保障。此外,還可以通過開展專題論壇、研討會(huì)等活動(dòng)來進(jìn)行交流討論。通過開展這些活動(dòng),共同探討人工智能領(lǐng)域倫理道德問題,從而推動(dòng)人工智能健康發(fā)展。
(四)拓展人工智能領(lǐng)域的國際合作
未來人工智能的發(fā)展和應(yīng)用將對人類社會(huì)帶來深遠(yuǎn)影響,各國應(yīng)從戰(zhàn)略和全局的高度出發(fā),加強(qiáng)人工智能治理領(lǐng)域的國際交流與合作,為實(shí)現(xiàn)全球治理和人類共同利益作出貢獻(xiàn)。
1強(qiáng)化全球治理合作,維護(hù)國際秩序
全球治理體系是各國共同參與的全球事務(wù)治理體系,是人類文明成果在國際社會(huì)共享和傳播的載體。人類命運(yùn)共同體理念為構(gòu)建人類命運(yùn)共同體提供了制度保障。人工智能技術(shù)和產(chǎn)業(yè)發(fā)展不僅影響著國家間的關(guān)系,也影響著國際社會(huì)間的關(guān)系。對于在人工智能發(fā)展中出現(xiàn)的問題,各國應(yīng)積極探索建立人工智能國際治理規(guī)則。因此,我們必須立足于全球視野,在現(xiàn)有國際規(guī)則和標(biāo)準(zhǔn)基礎(chǔ)上,結(jié)合當(dāng)前全球共同面臨的重大挑戰(zhàn),積極參與人工智能領(lǐng)域國際治理規(guī)則和標(biāo)準(zhǔn)的制定,提出具有前瞻性、穩(wěn)定性、可操作性和前瞻性的建議。同時(shí)加強(qiáng)各國之間的信息交流和政策對話,推動(dòng)全球治理體系朝著更加公正合理的方向發(fā)展,共同應(yīng)對重大挑戰(zhàn),促進(jìn)全球治理規(guī)則民主化和法治化。
2積極借鑒國外有益經(jīng)驗(yàn),促進(jìn)人類共同繁榮發(fā)展
當(dāng)前在人工智能安全治理方面,國際社會(huì)已有一些有益經(jīng)驗(yàn)。例如,國際機(jī)器人聯(lián)盟發(fā)布的《關(guān)于人工智能的報(bào)告》中提出了“機(jī)器人倫理指南”,提出要減少對人類工人的依賴,提高安全性,增加透明度,使其具有可解釋性。國際標(biāo)準(zhǔn)化組織(ISO)也在發(fā)布了《機(jī)器人倫理原則》。國際標(biāo)準(zhǔn)化組織的這些舉措都旨在強(qiáng)調(diào)機(jī)器人應(yīng)“以人為本”,保護(hù)人類生命和安全。此外,歐洲議會(huì)也提出了一項(xiàng)關(guān)于機(jī)器人倫理的提案。在這份提案中提出了“以人為本”的機(jī)器人倫理原則,具體包括以下三點(diǎn):第一,尊重人的權(quán)利和自由;第二,保證產(chǎn)品對用戶的安全和保護(hù);第三,確保產(chǎn)品在設(shè)計(jì)時(shí)考慮到消費(fèi)者對產(chǎn)品的期望。歐盟委員會(huì)在2016年發(fā)布了《機(jī)器人倫理原則》,旨在解決機(jī)器人在開發(fā)、設(shè)計(jì)和使用過程中產(chǎn)生的問題。這份提案指出,為了確保機(jī)器人和人工智能系統(tǒng)的安全、可靠和高效運(yùn)行,應(yīng)優(yōu)先考慮安全性、保密性、自主性、可靠性、互操作性和可訪問性。因此,加強(qiáng)國際交流與合作,推動(dòng)形成全球人工智能倫理規(guī)范顯得尤為重要。通過制定全球統(tǒng)一的人工智能倫理原則,有利于我們更好地利用全球資源、促進(jìn)技術(shù)交流和合作。同時(shí),這也有助于更好地借鑒國外有益經(jīng)驗(yàn),推動(dòng)我國人工智能技術(shù)的發(fā)展。
五、結(jié)論
人工智能技術(shù)的發(fā)展與應(yīng)用,對人類社會(huì)產(chǎn)生了巨大而深遠(yuǎn)的影響。但是,技術(shù)本身的復(fù)雜性也為人工智能犯罪治理帶來了挑戰(zhàn)。由于人工智能技術(shù)具有的自主性和非人格化特征,使得其實(shí)施的犯罪行為具有難以被發(fā)現(xiàn)、難以被預(yù)防的特點(diǎn),這使得我們不得不思考如何對其進(jìn)行法律規(guī)制。如何預(yù)防與打擊人工智能犯罪,維護(hù)人類社會(huì)安全,這是世界各國面臨的共同難題。對此,我們應(yīng)堅(jiān)持“以人為中心、以平等為本、以風(fēng)險(xiǎn)為基礎(chǔ)” 的治理原則,積極完善人工智能刑事法律體系、加強(qiáng)人工智能的安全監(jiān)管體系建設(shè)、強(qiáng)化人工智能倫理道德的建設(shè)以實(shí)現(xiàn)對人工智能犯罪行為的有效治理和預(yù)防,以適應(yīng)不斷變化的社會(huì)形勢。
[參考文獻(xiàn)]
[1]習(xí)近平:高舉中國特色社會(huì)主義偉大旗幟為全面建設(shè)社會(huì)主義現(xiàn)代化國家而團(tuán)結(jié)奮斗——在中國共產(chǎn)黨第二十次全國代表大會(huì)上的報(bào)告[EB/OL]. 中國政府網(wǎng).(2022-10-25)[2022-10-28].http://www.gov.cn/xinwen/2022-10/25/content_5721685.htm
[2]我國網(wǎng)民規(guī)模達(dá)10.79億 即時(shí)通信用戶規(guī)模穩(wěn)居第一[EB/OL]. 央廣網(wǎng). (2023-08-31)[2023-10-28].https://baijiahao.baidu.com/s?id=1775461048883919432&wfr=spider&for=pc
[3]陳敏.人工智能時(shí)代電信詐騙及其應(yīng)對策略——基于Chat GPT帶來的新思考[J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2023(10).
[4]儲(chǔ)陳城,魏培林.生成式人工智能犯罪中研發(fā)者刑事責(zé)任的認(rèn)定——以ChatGPT為例[J].重慶理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(9).
[6]何群,林錦濤.情境犯罪學(xué)視域下危險(xiǎn)駕駛罪之預(yù)防——從人工智能賦能的角度[J].大連海事大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(4).
[7]莫曉宇.人工智能的多元刑事治理:理論建構(gòu)與路徑選擇[J].廈門大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,73(4).
[8]李翔,曠銀.ChatGPT類人工智能及其生成物的刑法思考[J].貴州師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(4).
[9]劉憲權(quán).ChatGPT等生成式人工智能的刑事責(zé)任問題研究[J].現(xiàn)代法學(xué),2023,45(4).
[10]焦旋,張懿軒,鄒逸彬.人工智能時(shí)代刑事責(zé)任體系的重構(gòu)[J].東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023(S1).
哈爾濱師范大學(xué)·社會(huì)科學(xué)學(xué)報(bào)2024年1期