中圖分類號:TP18;D924.1 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-6916(2025)16-0009-04
A Logical Construction of Dual Liability for Artificial Intelligence from the Perspective of Criminal Law
Tang Yingfeng (Shanghai JintianchengLaw Firm,Shanghai 2O0120)
Abstract:Inodertoaddresscriminal-lawchlengesposedbyartifialintellgence(A),adualliabilitysysemcriinaland civil—shouldbeconstructedItillmoderizeciminaljurisprudenceamidsocialtransforationandfurnishalegalbasisforoplex fenses,threbysafeguardingsocialoderandsoundtechologicaldevelopment.Curentl,majordisputespersistregardingasotha criminalinstrumentandaquasi-subjectofcrime,aswellasovertheidentificationofliablepartiesandtheapplicableimputation principles.roundedinompresielegalinterstprotectiondatioaliskalcatioeaperpropssauallabilitypoac forAI:(1)defiingtheliableparties:manufacturer,user,andAIasquasisubject;(2)applyingcrimialfaultlabiltlongsidecivil fault-basddcbilitrn;eaialiildddigdstatiialdiil enforcement.
Keywords:artificial inteligence;dual liability;liable subject;imputationprinciple;enforcementmechanism
人工智能技術(shù)迅猛發(fā)展,廣泛應(yīng)用于智能語音助手、自動駕駛及金融風(fēng)險預(yù)測等多個領(lǐng)域。然而,人工智能行為引發(fā)的刑法責(zé)任問題也日益顯著,成為法學(xué)界亟待研究的課題。探討刑法視野下人工智能的雙重責(zé)任,不僅能推動刑法學(xué)與時俱進(jìn),適應(yīng)社會變革;還能為解決人工智能導(dǎo)致的復(fù)雜犯罪問題提供法律依據(jù)和責(zé)任認(rèn)定標(biāo)準(zhǔn),保障社會秩序穩(wěn)定。此舉有助于確保人工智能技術(shù)健康有序發(fā)展。因此,研究人工智能的刑法責(zé)任問題,對法學(xué)理論與實踐具有重要意義。
一、人工智能的刑法責(zé)任基礎(chǔ)
根據(jù)《可信人工智能白皮書》中的界定,人工智能是一種利用計算機和相關(guān)技術(shù)來模擬、延伸人的智能的計算機科學(xué)的分支,人工智能系統(tǒng)能夠自我管理、目標(biāo)導(dǎo)向和決策制定,具有極強的自主性、學(xué)習(xí)性,因而需在法律框架內(nèi)對其行為和決策過程進(jìn)行細(xì)致的規(guī)范和責(zé)任界定。
(一)人工智能引發(fā)刑法責(zé)任的情形
1.作為犯罪工具
當(dāng)下人工智能技術(shù)被廣泛應(yīng)用于網(wǎng)絡(luò)詐騙、侵犯公民個人信息等各種犯罪活動,這類犯罪行為與傳統(tǒng)犯罪工具的使用相比,自動化程度高、隱蔽性強且由數(shù)據(jù)驅(qū)動,在刑法責(zé)任認(rèn)定上也具有特殊性,如《刑法》第二百八十五條的非法侵入計算機信息系統(tǒng)罪、第二百八十六條的破壞計算機信息系統(tǒng)罪就包括行為人利用人工智能技術(shù)非法侵人計算機信息系統(tǒng),獲取、修改或刪除數(shù)據(jù),以及行為人利用人工智能技術(shù)破壞計算機信息系統(tǒng)功能,造成系統(tǒng)癱瘓或數(shù)據(jù)丟失等行為[1]
2.作為犯罪主體(擬制)
在某些高度自主的人工智能行為引發(fā)危害后果時,將其擬制為犯罪主體具有一定的必要性??梢越梃b法人犯罪的相關(guān)理論與實踐,如《刑法》第三十條、第三十一條關(guān)于單位犯罪的規(guī)定,分析其對人工智能犯罪主體認(rèn)定的啟示。因為高度自主的人工智能系統(tǒng)能夠在無需人類干預(yù)的情況下獨立完成復(fù)雜任務(wù),具備一定的決策能力,且這些系統(tǒng)通過學(xué)習(xí)和優(yōu)化,能夠獨立生成行為模式,具備一定的獨立行為能力。將高度自主的人工智能擬制為犯罪主體,可以明確責(zé)任歸屬,避免責(zé)任推諉;也可以對潛在的犯罪行為形成威懾,促使設(shè)計者和使用者更加謹(jǐn)慎地對待人工智能系統(tǒng)的開發(fā)和使用。
(二)人工智能刑法責(zé)任的理論爭議
1.責(zé)任主體確定爭議
因人工智能引發(fā)的刑法責(zé)任問題復(fù)雜多樣,學(xué)界關(guān)于人工智能犯罪責(zé)任主體的觀點也涉及多層面的理論和實踐爭議。如制造商設(shè)計和開發(fā)人工智能系統(tǒng),對其算法和數(shù)據(jù)來源有直接控制權(quán)[2]。若系統(tǒng)存在設(shè)計缺陷或數(shù)據(jù)問題,導(dǎo)致犯罪行為發(fā)生,制造商應(yīng)承擔(dān)責(zé)任。但制造商無法控制系統(tǒng)在使用過程中的所有行為,特別是系統(tǒng)通過學(xué)習(xí)生成的新行為模式,無法預(yù)見系統(tǒng)在特定環(huán)境下的所有決策;使用者直接操作和使用人工智能系統(tǒng),對其使用過程中的行為有直接控制權(quán)。如果使用者濫用系統(tǒng)或未盡合理監(jiān)管義務(wù),導(dǎo)致犯罪行為發(fā)生,使用者應(yīng)承擔(dān)責(zé)任。但使用者可能無法完全理解系統(tǒng)的復(fù)雜性和潛在風(fēng)險,難以對其所有行為進(jìn)行有效監(jiān)管,無法預(yù)見系統(tǒng)在特定情況下的自主決策。且目前的法律體系尚未完全認(rèn)可人工智能作為獨立的犯罪主體,其不具備法律人格,責(zé)任認(rèn)定存在法律障礙,無法承擔(dān)刑事責(zé)任。
2.歸責(zé)原則適用爭議
在人工智能犯罪中,適用不同的歸責(zé)原則存在顯著分歧。如過錯責(zé)任原則上要求行為人在主觀上有故意或過失。如果制造商或使用者在設(shè)計、開發(fā)或使用過程中存在故意或過失,導(dǎo)致犯罪行為發(fā)生,應(yīng)承擔(dān)相應(yīng)的法律責(zé)任。但證明制造商或使用者的主觀過錯存在較大困難,特別是系統(tǒng)通過學(xué)習(xí)生成的新行為模式的責(zé)任歸屬更為困難;無過錯責(zé)任原則不要求行為人主觀上有過錯,只要行為與損害結(jié)果之間存在因果關(guān)系,就應(yīng)承擔(dān)責(zé)任,但這可能導(dǎo)致責(zé)任過度擴大,對制造商和使用者不公平。
二、人工智能雙重責(zé)任的邏輯起點
(一)法益保護(hù)的全面性
在人工智能引發(fā)的法律問題中,僅依靠單一的刑法責(zé)任或民事責(zé)任難以全面保護(hù)因人工智能行為受損的法益。而且由于人工智能技術(shù)的復(fù)雜性和專業(yè)性,受害人往往難以舉證證明侵權(quán)人的過錯行為與損害結(jié)果之間的因果關(guān)系。刑事責(zé)任側(cè)重于對行為人的違法行為進(jìn)行制裁,如罰金、拘役、有期徒刑等。但對于一些輕微的侵權(quán)行為,如人工智能系統(tǒng)因技術(shù)缺陷導(dǎo)致的輕微財產(chǎn)損失,追究刑事責(zé)任可能過于嚴(yán)厲,不符合比例原則[3]。加上刑事責(zé)任的追究通常是在危害結(jié)果發(fā)生后進(jìn)行的,具有一定的滯后性。對于一些具有高度不確定性和潛在風(fēng)險的人工智能行為,如自動駕駛汽車在復(fù)雜路況下的決策失誤,單純的刑事責(zé)任難以有效預(yù)防危害后果的發(fā)生。在現(xiàn)有法律體系下,人工智能不具有法律主體資格,不能被認(rèn)定為犯罪主體。因此,刑事責(zé)任的追究只能針對控制或指揮人工智能的自然人或單位,而無法直接對人工智能系統(tǒng)本身進(jìn)行制裁,這可能導(dǎo)致一些情況下責(zé)任主體的遺漏,無法全面保護(hù)法益。
(二)風(fēng)險分配的合理性
從風(fēng)險分配的角度來看,人工智能的制造商、使用者以及社會公眾等各方在人工智能風(fēng)險中的地位和作用不同,通過確立雙重責(zé)任,能更合理地將風(fēng)險分配給有能力、有資源承擔(dān)的主體,促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展。制造商負(fù)責(zé)設(shè)計、開發(fā)和生產(chǎn)人工智能系統(tǒng),對其技術(shù)的可靠性和安全性負(fù)有無過錯責(zé)任,即無論其是否有過錯,只要系統(tǒng)存在缺陷導(dǎo)致?lián)p害,就應(yīng)承擔(dān)責(zé)任。這種機制可以促使制造商在設(shè)計和開發(fā)過程中更謹(jǐn)慎,投人更多資源進(jìn)行質(zhì)量控制和安全測試;使用者直接操作或使用人工智能系統(tǒng),對其使用過程中的行為和決策負(fù)有直接責(zé)任。使用者應(yīng)按說明書和操作規(guī)范使用系統(tǒng)以確保系統(tǒng)的正常運行,如果使用者在使用過程中存在故意或過失,導(dǎo)致系統(tǒng)故障或損害,應(yīng)承擔(dān)過錯責(zé)任;社會公眾在一般情況下不承擔(dān)法律責(zé)任,但在某些特殊情況下需承擔(dān)一定的責(zé)任。當(dāng)社會公眾明知人工智能系統(tǒng)存在缺陷或風(fēng)險,卻仍然使用或推廣該系統(tǒng),導(dǎo)致他人遭受損害時,需承擔(dān)相應(yīng)的法律責(zé)任。若社會公眾在使用人工智能系統(tǒng)過程中,因自身疏忽大意或故意行為,如泄露個人信息給未經(jīng)授權(quán)的第三方,進(jìn)而引發(fā)系統(tǒng)安全風(fēng)險或損害他人利益,也需要承擔(dān)相應(yīng)的法律責(zé)任。
目前,我國尚未完全建立集體訴訟制度,但可借鑒他國經(jīng)驗,積極完善法律框架,明確集體訴訟的法律依據(jù)和操作規(guī)則,如規(guī)定在何種條件下可以提起集體訴訟,如何證明受害群體的“共同性”,以及如何分配賠償款等。同時,賦權(quán)公益組織和消費者保護(hù)協(xié)會等專業(yè)機構(gòu),讓其成為“訴訟代表”,以專業(yè)化方式為社會公眾發(fā)聲,降低個人參與成本,提高訴訟效率和公信力?;虿捎谩皠僭V后支付”模式,激勵律師積極參與代理案件,吸引更多法律人才投身于人工智能侵權(quán)等領(lǐng)域的維權(quán)工作。
三、人工智能雙重責(zé)任的具體邏輯建構(gòu)
(一)責(zé)任主體的確定
1.制造商責(zé)任
制造商在人工智能產(chǎn)品研發(fā)、設(shè)計、生產(chǎn)過程中具有顯著的控制力和影響力。他們對產(chǎn)品可能引發(fā)的風(fēng)險具有較強的預(yù)見能力,特別是在人工智能芯片制造、算法開發(fā)等關(guān)鍵環(huán)節(jié),制造商的技術(shù)選擇、質(zhì)量把控等行為與后續(xù)可能出現(xiàn)的危害后果之間存在直接關(guān)聯(lián)。如特定的技術(shù)架構(gòu)和算法選擇直接影響系統(tǒng)的性能和安全性,在人工智能芯片的制造過程中任何微小的缺陷都可能導(dǎo)致系統(tǒng)故障。因此,必須對制造商在不同情形下應(yīng)承擔(dān)的責(zé)任范圍進(jìn)行詳細(xì)區(qū)分,若產(chǎn)品存在設(shè)計缺陷,制造商應(yīng)承擔(dān)無過錯責(zé)任,并賠償受害者的直接和間接損失;若產(chǎn)品存在制造缺陷,制造商同樣應(yīng)承擔(dān)無過錯責(zé)任,并賠償受害者的直接損失和間接損失;若產(chǎn)品存在指示缺陷,即制造商未提供充分的使用說明或警示,制造商應(yīng)承擔(dān)過錯責(zé)任,賠償受害者的直接損失和間接損失。
2.使用者責(zé)任
使用者在使用人工智能過程中對風(fēng)險的控制能力和過錯程度是確定其責(zé)任的基礎(chǔ)。使用者應(yīng)按照產(chǎn)品說明或合理使用方式操作人工智能,如果使用者未按說明操作或故意利用其進(jìn)行違法犯罪活動,應(yīng)承擔(dān)相應(yīng)的刑事責(zé)任和民事責(zé)任。如果使用者未按照產(chǎn)品說明操作,導(dǎo)致系統(tǒng)故障或損害,應(yīng)承擔(dān)過錯責(zé)任;如果使用者故意利用人工智能系統(tǒng)進(jìn)行違法犯罪活動,應(yīng)承擔(dān)相應(yīng)的刑事責(zé)任。在界定使用者責(zé)任范圍時,如果使用者與制造商共同過錯導(dǎo)致?lián)p害結(jié)果發(fā)生,應(yīng)根據(jù)各自的過錯程度劃分責(zé)任比例;使用者因使用人工智能獲得的非法利益應(yīng)返還或賠償。
3.人工智能自身責(zé)任(擬制)
在將人工智能擬制為責(zé)任主體的邏輯框架下,其責(zé)任基礎(chǔ)的構(gòu)建可以借鑒法人責(zé)任能力的理論。人工智能在具備一定自主性、能夠獨立進(jìn)行意思表示和行為實施的情況下,通過法律擬制的方式賦予其刑事責(zé)任能力和民事責(zé)任能力。具體來說,人工智能應(yīng)對其所有自主行為產(chǎn)生的后果承擔(dān)責(zé)任。例如,自動駕駛汽車因自主決策導(dǎo)致事故,應(yīng)由系統(tǒng)自身承擔(dān)責(zé)任。在特定情形下,人工智能可以承擔(dān)有限責(zé)任,如果系統(tǒng)在設(shè)計和制造過程中已盡到合理注意義務(wù),但仍發(fā)生事故,系統(tǒng)可以承擔(dān)有限責(zé)任。人工智能的責(zé)任財產(chǎn)可以來源于其自身創(chuàng)造的財產(chǎn)、監(jiān)管人出資的保證金、責(zé)任保險等。
(二)歸責(zé)原則的適用
1.刑事責(zé)任歸責(zé)原則
就歸責(zé)范圍來說,在大多數(shù)人工智能犯罪情形下,適用過錯責(zé)任原則具有合理性。過錯責(zé)任原則要求行為人對其故意或過失行為導(dǎo)致的危害結(jié)果承擔(dān)刑事責(zé)任。這一原則在《刑法》總則中有明確規(guī)定,具體體現(xiàn)在故意犯罪和過失犯罪的認(rèn)定上;若行為人明知其開發(fā)或使用的人工智能系統(tǒng)存在缺陷或可能被用于犯罪,仍然實施相關(guān)行為,導(dǎo)致危害結(jié)果發(fā)生的,應(yīng)認(rèn)定為故意犯罪[4];若行為人因疏忽大意或過于自信,未對人工智能系統(tǒng)的安全性和合法性進(jìn)行充分評估和測試,導(dǎo)致危害結(jié)果發(fā)生的,應(yīng)認(rèn)定為過失犯罪。比如,2022年發(fā)生的全國首例\"AI游戲外掛\"案,王某合通過制作出售“AI外掛”的方式牟利,先后聯(lián)系萬某至、張某等人編寫“AI外掛”程序。至案發(fā),王某合非法獲利共計629萬余元,該行為屬于“工具利用型”人工智能犯罪,其通過制作和出售“AI外掛”程序,非法獲利數(shù)額巨大,情節(jié)嚴(yán)重,符合提供侵入、非法控制計算機信息系統(tǒng)程序、工具罪的構(gòu)成要件。
2.民事責(zé)任歸責(zé)原則
在人工智能民事侵權(quán)責(zé)任中,一般適用過錯責(zé)任原則。在特定情形下,如高度危險人工智能活動致人損害、人工智能產(chǎn)品缺陷致人損害等,適用無過錯責(zé)任原則具有法律依據(jù)和實踐意義。無過錯責(zé)任原則不要求侵權(quán)人存在主觀過錯,只要侵權(quán)行為導(dǎo)致了損害結(jié)果,侵權(quán)人就應(yīng)承擔(dān)賠償責(zé)任。這一原則在《民法典》第一千二百三十六條和第一千二百零二條中有明確規(guī)定。
(三)人工智能雙重責(zé)任的實現(xiàn)機制
1.刑事責(zé)任與民事責(zé)任的銜接
在人工智能侵權(quán)行為同時構(gòu)成犯罪和民事侵權(quán)的情況下,受害人可以在刑事訴訟過程中提起附帶民事訴訟,將民事賠償問題一并解決。法院在審理刑事案件時,可以一并審理附帶民事訴訟部分,對刑事部分和民事部分進(jìn)行綜合考量,以提高司法效率,減輕當(dāng)事人的訴累;在刑事判決已經(jīng)對侵權(quán)人的財產(chǎn)進(jìn)行處置的情況下,要保障受害人的民事賠償請求得到實現(xiàn),一方面可以建立刑事賠償優(yōu)先機制,對侵權(quán)人的財產(chǎn)進(jìn)行處置時優(yōu)先考慮用于賠償受害人的損失[5],另一方面需對侵權(quán)人的財產(chǎn)進(jìn)行合理分配。如果侵權(quán)人的財產(chǎn)不足以同時滿足刑事處罰和民事賠償?shù)男枰?,?yīng)根據(jù)最高人民法院《關(guān)于刑事裁判涉財產(chǎn)部分執(zhí)行的若干規(guī)定》法釋[2014]13號第十三條的規(guī)定,優(yōu)先用于受害人搶救、治療而支出的費用,為其后續(xù)的治療和康復(fù)提供必要的經(jīng)濟支持。若因使用人工智能系統(tǒng)導(dǎo)致數(shù)據(jù)泄露并造成經(jīng)濟損失,應(yīng)退賠其因侵權(quán)行為所遭受的直接經(jīng)濟損失,并根據(jù)實際情況退賠類似于數(shù)據(jù)恢復(fù)費用、商業(yè)機會喪失的損失、名譽損害賠償?shù)?。在滿足上述兩項優(yōu)先順序后,再對侵權(quán)人的其他民事債務(wù)進(jìn)行清償。在確保受害人得到充分賠償后,還需從侵權(quán)人的剩余財產(chǎn)中執(zhí)行罰金,以體現(xiàn)對犯罪行為的懲罰和威懾作用。如果侵權(quán)人的行為構(gòu)成犯罪且情節(jié)嚴(yán)重,需要在完成對受害人的賠償和履行其他民事債務(wù)后,進(jìn)行財產(chǎn)的沒收程序,以實現(xiàn)對受害人合法權(quán)益的最大限度保護(hù)。
2.行政責(zé)任與刑事責(zé)任、民事責(zé)任的協(xié)調(diào)
在行政機關(guān)對人工智能相關(guān)主體進(jìn)行行政處罰后,要確保不影響其刑事責(zé)任和民事責(zé)任的追究。一要明確行政處罰與刑事責(zé)任、民事責(zé)任的獨立性。行政處罰是行政機關(guān)對違反行政管理秩序的行為人給予的制裁,而刑事責(zé)任和民事責(zé)任則是基于犯罪行為和民事侵權(quán)行為所產(chǎn)生的法律責(zé)任,三者在法律依據(jù)、責(zé)任主體、責(zé)任形式等方面各有不同。例如,對于人工智能企業(yè)因違反數(shù)據(jù)安全規(guī)定而受到行政處罰的,其并不影響該企業(yè)因同一行為構(gòu)成犯罪而被追究刑事責(zé)任,也不影響因該行為給他人造成損害而應(yīng)承擔(dān)的民事賠償責(zé)任;二要建立責(zé)任追究的先后順序和銜接機制。在一般情況下,刑事責(zé)任的追究應(yīng)優(yōu)先于行政處罰和民事責(zé)任的追究[6。在刑事案件立案偵查、審查起訴和審判過程中,司法機關(guān)應(yīng)全面審查案件事實和證據(jù),依法確定是否追究行為人的刑事責(zé)任。在刑事責(zé)任追究完畢后,再根據(jù)具體情況決定是否追究其行政責(zé)任和民事責(zé)任。在行政處罰方面,行政機關(guān)應(yīng)在充分考慮刑事責(zé)任追究情況的基礎(chǔ)上,依法作出行政處罰決定,避免對同一行為重復(fù)處罰或處罰過重。
四、結(jié)束語
隨著人工智能技術(shù)的廣泛應(yīng)用,其引發(fā)的法律問題日益復(fù)雜。通過確立合理的責(zé)任主體、適用的歸責(zé)原則、明確的責(zé)任形式及完善責(zé)任實現(xiàn)機制,能有效應(yīng)對人工智能引發(fā)的刑法責(zé)任和民事責(zé)任問題,保障社會秩序和公民權(quán)益,促進(jìn)人工智能產(chǎn)業(yè)的健康發(fā)展。在人工智能技術(shù)不斷發(fā)展的情況下,未來還需針對新技術(shù)融合下的責(zé)任認(rèn)定進(jìn)行動態(tài)調(diào)整與研究,及時更新責(zé)任認(rèn)定標(biāo)準(zhǔn),確保法律規(guī)制的有效性和適應(yīng)性。
參考文獻(xiàn):
[1]趙龍.基于實質(zhì)刑法觀的算法法益構(gòu)造及其刑法展開[J].法學(xué),2024(12):95-108.
[2]鄭志峰.人工智能使用者的立法定位及其三維規(guī)制[J].行政法學(xué)研究,2025(1):22-37.
[3]黃海,王帥.人工智能去風(fēng)險原則下的分級治理[J].人權(quán)法學(xué),2024(6) :74-89,159-160.
[4]孫陽.生成式人工智能的侵權(quán)標(biāo)準(zhǔn)、價值辨析與規(guī)范應(yīng)對[J].社會科學(xué)動態(tài),2024(10):42-49.
[5]戴昕.無過錯責(zé)任與人工智能發(fā)展:基于法律經(jīng)濟分析的一個觀點[J].華東政法大學(xué)學(xué)報,2024(5):38-55.
[6]孫那,鮑一鳴.比較法視閾下我國生成式人工智能立法模式研究[J].國際經(jīng)濟法學(xué)刊,2024(4):53-70.
作者簡介:湯英峰(1981—),男,漢族,上海人,單位為上海市錦天城律師事務(wù)所,研究方向為法學(xué)。
(責(zé)任編輯:張震)