摘 要:以ChatGPT為標志,智能生成特征更為顯著、互動性更強、通用性更好的生成式人工智能正快速介入人類生產(chǎn)生活,與此同時,其所帶來的不確定性和致?lián)p風(fēng)險也相伴而生。但是,生成式人工智能法律地位不明確、歸責(zé)方式不清晰,給損害發(fā)生時的民事、刑事責(zé)任承擔(dān)帶來極大阻礙,也影響了對生成式人工智能的有效監(jiān)管?;诖?,有必要從意志能力、行為能力、擬制主體適格性的角度重新認識ChatGPT類生成式人工智能的責(zé)任能力,在承認其責(zé)任有限的基礎(chǔ)上,結(jié)合不同情形和形態(tài),厘清由制造者、控制者、監(jiān)管者及生成式人工智能自身等多主體負責(zé)的責(zé)任分擔(dān)體系和歸責(zé)方式,促進人工智能持續(xù)、健康、負責(zé)任、可控制地發(fā)展。
關(guān)鍵詞:生成式人工智能;責(zé)任能力;有限責(zé)任;歸責(zé)方式
一、引言:生成式人工智能何以歸責(zé)
人工智能(Artificial Intelligence,AI)自20世紀50年代在達特茅斯會議上提出后,一直是學(xué)術(shù)研究和技術(shù)推進的重點,也取得了非凡的成就。到2022年11月,OpenAI公司推出以“ChatGPT”命名的生成式人工智能①,更是將人工智能的發(fā)展推上了一個新高度,短短兩個月便風(fēng)靡世界,月活躍用戶突破1億。一定程度上說,其重要性可能不亞于當年個人電腦的誕生,一樣具備劃時代的革命性進步。如比爾·蓋茨所言,ChatGPT與互聯(lián)網(wǎng)和個人電腦的誕生同等重要,是具有劃時代的革命性技術(shù)進步[1]。特別是2023年3月又發(fā)布了多模態(tài)大模型的GPT-4,能夠更好地支持多模態(tài),增強了對自然語言文字的多層面處理能力,更大程度地提升了安全性[2]。ChatGPT的面世及其在眾多場景的應(yīng)用,對各行各業(yè)都造成了不同程度的影響和沖擊,相比于以往的人工智能,其給人類社會帶來的潛在風(fēng)險更加緊迫真實[3]。即便是研究人工智能前沿領(lǐng)域的科學(xué)家和行業(yè)專家,依然擔(dān)心其對人類帶來的不可預(yù)估的風(fēng)險損害[4]。
變革已經(jīng)到來,ChatGPT類生成式人工智能廣泛應(yīng)用于思考型對話、多媒體內(nèi)容生成、辦公智能化等領(lǐng)域,以及翻譯、繪圖、剪輯、配音等日常生活,全面替代人類的趨向似乎在走向現(xiàn)實。但與此同時,其應(yīng)用過程中的各類風(fēng)險現(xiàn)實存在且不斷加劇,在數(shù)據(jù)準備階段有數(shù)據(jù)安全和合規(guī)風(fēng)險,在使用過程中有算法偏見和算法濫用風(fēng)險,在生成內(nèi)容上有知識產(chǎn)權(quán)和內(nèi)容濫用風(fēng)險[5]。鑒于此,一些國家側(cè)重于從風(fēng)險預(yù)防的角度出發(fā),將風(fēng)險控制在合理限度內(nèi),通過風(fēng)險分級、安全評估、行政許可、算法審查等措施,盡量將風(fēng)險控制在合理范圍內(nèi)。但是,必須認識到,這些前置性或者事中控制的措施,終究只能控制風(fēng)險,而無法完全消除風(fēng)險,因“算法黑箱”和不確定性因素的存在,即使生成式人工智能服務(wù)提供商采取措施滿足監(jiān)管需求,仍然會對第三方或相關(guān)主體造成難以防范或不可預(yù)測的損害[6]。在2023年6月5日,OpenAI公司就在美國佐治亞州因ChatGPT使用被提起名譽權(quán)糾紛訴訟②??梢灶A(yù)見的是,生成式人工智能造成的現(xiàn)實損害問題現(xiàn)實且緊迫,值得深入研究和關(guān)注。
面對這種風(fēng)險和損害,諸多國家立法和政策均提出發(fā)展“負責(zé)任的人工智能”,但是當智能生成特征更為顯著、互動性更強、通用性更好的生成式人工智能迅速介入人類生產(chǎn)生活時,一個更大的問題就擺在我們面前。ChatGPT類生成式人工智能是否能為自身的決策負責(zé),怎么歸責(zé),其責(zé)任能力如何,又如何負責(zé)?厘清這個問題,是完善生成式人工智能規(guī)制體系的基礎(chǔ)性一環(huán),也是保障可能受生成式人工智能侵害的相關(guān)主體切身權(quán)益的應(yīng)有之義。
二、新場景下生成式人工智能歸責(zé)的現(xiàn)實困境
需要關(guān)注的是,ChatGPT類生成式人工智能除了在社交文娛、交互辦公、電商營銷等與內(nèi)容生成聯(lián)系比較緊密的領(lǐng)域“大有作為”之外,還進一步拓展到生產(chǎn)生活的多個環(huán)節(jié),企業(yè)對其的應(yīng)用也已經(jīng)從初始的API接入發(fā)展到基于多元場景需求的二次開發(fā),從簡單的對話生成升級成與語音、圖像形成多模態(tài)多終端的復(fù)雜交互,形成了諸多線上線下商業(yè)化應(yīng)用新場景[7]。與此同時,這種規(guī)?;?、商業(yè)化的推廣應(yīng)用,也不可避免會產(chǎn)生諸多不確定性和公眾權(quán)利保護隱憂,其強大的技術(shù)能力形成了原社會形態(tài)下的新生風(fēng)險,沖擊著權(quán)利利益的保護秩序,也造成以權(quán)利義務(wù)能力為基礎(chǔ)的責(zé)任規(guī)制的適用困境。
一方面,生成式人工智能法律地位仍不明晰??梢哉f,生成式人工智能一定程度上已經(jīng)實現(xiàn)了對人類創(chuàng)造性勞動的替代,產(chǎn)出了真實的勞動成果,可以說顛覆性地提升了生產(chǎn)力。OpenAI公司曾針對美國1000多種職業(yè)進行調(diào)研,在職業(yè)工作中如果使用生成式人工智能工具,其完成同樣工作耗費的時間將少一半以上,以此推論,8成以上人的工作將受到影響,而作家、記者等職業(yè)尤為突出[8]。人工智能對社會勞動社會形態(tài)的部分替代,并造成部分人機會成本的損失,如果沒有合適的機制設(shè)計,就可能會損害人類的發(fā)展權(quán),沖擊現(xiàn)代國家的基礎(chǔ)秩序[9]。因此,當生成式人工智能在某種程度上能代替“人”的時候,也要面臨一個迫切的問題,如何判定其法律地位,并完善適合的規(guī)訓(xùn)機制,以對沖其對社會秩序和制度的沖擊。
現(xiàn)實中,法律地位不明所帶來的問題已經(jīng)顯現(xiàn)。生成式人工智能最大的特點就是高效、實用的內(nèi)容生成,相應(yīng)地也對知識產(chǎn)權(quán)領(lǐng)域秩序產(chǎn)生了極大的沖擊和挑戰(zhàn)?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》中多次提及尊重知識產(chǎn)權(quán)、防止侵害知識產(chǎn)權(quán)等內(nèi)容,凸顯出對可能發(fā)生的知識產(chǎn)權(quán)權(quán)益損害的重視,也體現(xiàn)了一定的前瞻性和務(wù)實性。ChatGPT相較于之前的分析式人工智能,具備更強的數(shù)據(jù)分析和處理能力,能自動化編纂內(nèi)容、加工潤色、多模態(tài)轉(zhuǎn)換和創(chuàng)造性生產(chǎn),對知識產(chǎn)權(quán)的供給模式和生產(chǎn)范式都有顛覆性的改變。在亞馬遜網(wǎng)站上,已有超過200本由ChatGPT署名的作品上架,甚至為ChatGPT開設(shè)專欄[10]。由此,即有一個現(xiàn)實問題擺在面前,ChatGPT生成內(nèi)容能否賦權(quán)、如何賦權(quán),是否為著作權(quán)意義上的“作品”[11]?生成式人工智能可否成為法律意義上的“作者”?“作品”歸屬生成式人工智能自身、操作者抑或多主體共有?如果可以成為法律意義上的“作者”,其是否具備責(zé)任能力,侵權(quán)時如何歸責(zé)或救濟。這些問題都需在生成式人工智能法律地位確定過程中一一厘清。
另一方面,刑事歸責(zé)問題亟待廓清。生成式人工智能除了對民事權(quán)利責(zé)任體系有影響外,也對刑事法律體系有一定沖擊。一定主體通過利用生成式人工智能實施犯罪,主體、生成式人工智能或者開發(fā)者如何歸責(zé),對傳統(tǒng)刑法理論中的犯罪主體及刑事責(zé)任體系均需要進一步分析研究。針對這一問題,有觀點認為, 生成式人工智能在犯罪實施中,本質(zhì)上僅能充當犯罪工具,查詢犯罪方法、進行網(wǎng)絡(luò)詐騙或敲詐勒索,不具備成為教唆犯或幫助犯的主體資格,其犯罪后果應(yīng)由利用者承擔(dān),仍可在刑法體系內(nèi)予以妥善應(yīng)對[12]。但在實際情況中,該觀點仍有待商榷。ChatGPT是以海量的數(shù)據(jù)挖掘作為答案生成的基礎(chǔ),如果樣本數(shù)量足夠多,通過設(shè)置一定的關(guān)鍵搜索詞,是可以實現(xiàn)對他人的隱私權(quán)侵犯乃至侮辱誹謗。甚至說,如果利用ChatGPT自身的思考邏輯、算法邏輯隱秘實施犯罪,現(xiàn)行體系下是否能夠證明是實施者的故意,還是機器自身的故意。比如,有人搜索自殺挑戰(zhàn)時,若生成式人工智能輸出了不恰當?shù)乃阉鲀?nèi)容最終對自殺后果產(chǎn)生了較大影響,責(zé)任又該如何承擔(dān)。再如,生成式人工智能能夠輔助編程或者搭建網(wǎng)站,若操作者利用這一便利進行編程并實施網(wǎng)絡(luò)犯罪,生成式人工智能是否需要自主決定拒絕犯罪預(yù)備的請求;若沒拒絕,犯罪后果產(chǎn)生后,責(zé)任是否需要承擔(dān)。上述情況中,生成式人工智能是否能夠分辨自身輸出內(nèi)容的能力與作用,如何成立刑事責(zé)任、如何歸責(zé),是在新的技術(shù)特點和情形下,需要考慮的現(xiàn)實問題。
三、生成式人工智能歸責(zé)基礎(chǔ):基于責(zé)任能力的分析
風(fēng)險與責(zé)任相伴而生,特別是當社會出現(xiàn)人造不確定性或者非外部不確定性影響時,對責(zé)任的探討就會越發(fā)迫切和深入。生成式人工智能引致風(fēng)險的不確定性和現(xiàn)實性,呼喚一種邏輯自洽又符合發(fā)展需求的歸責(zé)模式,來澄清生成式人工智能自身責(zé)任、在何種程度上承擔(dān)責(zé)任。而生成式人工智能歸責(zé)的基礎(chǔ)在于分析其責(zé)任能力,考察生成式人工智能是否具備承擔(dān)責(zé)任的資格。
責(zé)任能力一般指主體對其實施的不法行為承擔(dān)責(zé)任的資格或能力,包括民事和刑事責(zé)任能力[13]。責(zé)任能力往往與行為能力密切關(guān)聯(lián),在民事方面,無行為能力或者限制行為能力人具備經(jīng)濟能力,若造成他人財產(chǎn)損失,也應(yīng)當承擔(dān)損害賠償責(zé)任;在刑事方面,無責(zé)任能力人不承擔(dān)其行為的刑事責(zé)任。具體到生成式人工智能來說,結(jié)合其所具備的行為能力和意志表征,賦予其相應(yīng)的責(zé)任能力,有一定空間和可能。下面從三個方面加以分析。
第一,關(guān)于是否具備意志能力。一般來說,責(zé)任產(chǎn)生的前提是具備基本認知理解的能力和實施具體行為時的控制力及意志力。比如,從犯罪論意義上講,實施犯罪行為就是人意志的直接體現(xiàn),沒有意志能力不構(gòu)成犯罪,也就不能課以刑罰[14]。相應(yīng)可以說,只有具備了相應(yīng)意志能力的理性人工智能,且能夠把自身同其他主體區(qū)分開來,才有承擔(dān)責(zé)任的可能[15]。具體分析:首先,生成式人工智能有較強的認知能力。人類的認知過程從大腦接受外部信息開始,進而分析處理,再轉(zhuǎn)換為心理活動,最終支配人的行為。這一過程和人工智能收集信息、算法處理、形成決策的邏輯非常相似。傳統(tǒng)人工智能可以搜集用戶喜好,進行算法推薦和決策,具備了一定認知特征。而生成式人工智能這種特征更為明顯,其強大的內(nèi)容生成能力,具備典型的自然語言學(xué)習(xí)和處理能力,不論是相對獨立的文章寫作還是智能化辦公,這種實踐所能達到的智能樣態(tài),很難否認其具備相當程度的認知能力。其次,生成式人工智能有理性分析的能力。ChatGPT-4可以通過給出的文字或者圖片等信息,形成符合人類常識和邏輯的推理判斷,能夠認識規(guī)律性事物并具備邏輯推理能力。在實踐層面,美國有高校法學(xué)院嘗試利用ChatGPT來參加考試作答,考試完畢后發(fā)現(xiàn)其平均成績已經(jīng)達到學(xué)生的課程結(jié)業(yè)要求,特別是在案例分析論述方面,已經(jīng)能夠適用法學(xué)理論和法律規(guī)則及形成觀點和論證[16]。再次,生成式人工智能能夠做一定的價值判斷。當然,一般觀點認為,人工智能技術(shù)無法替代價值判斷,尤其是司法中的價值判斷?!八痉夹g(shù)永遠無法完全取代司法判斷,尤其是司法中的價值判斷?!盵17]但是情況不是一成不變的,隨著技術(shù)的進步、算法的進化,生成式人工智能已經(jīng)有被應(yīng)用在司法裁判中的案例。2023年1月,美國哥倫比亞一法官就利用ChatGPT實施輔助裁判,并表示實現(xiàn)了更為高效的預(yù)測和裁判[18]。在價值判斷的過程中,通過人工智能代替法官裁判并非不可能[19]。綜上,可以看出,生成式人工智能是可以、至少是有很大可能成為滿足意志能力的理性人工智能,顯現(xiàn)出類人類意志的突出特征。
第二,關(guān)于是否具備行為能力。 人工智能的行為能力一直是理論和實踐中關(guān)注的重點問題,也是無法繞開的問題。對于傳統(tǒng)人工智能來說,一般觀點仍以“代理說”為主,即人工智能的行為被人類所控制,其行為的后果由被代理的主體承擔(dān)。有學(xué)者認為,自動化系統(tǒng)難以識別和有效理解人類的自然語言,也就難以具備行為能力[20]。但是,生成式人工智能的發(fā)展卻使情況更為復(fù)雜化。ChatGPT提供者或者控制者固然能夠提供相應(yīng)的系統(tǒng)運行服務(wù)和支持,但其用戶數(shù)量多、使用者范圍廣,不同用戶也有不同用途,用以實施的行為也多種多樣,個性化服務(wù)也越來越多。當技術(shù)更為復(fù)雜、應(yīng)用更為廣泛時,完全繼續(xù)沿用“代理說”由提供者承擔(dān)責(zé)任,既不合理,也不一定經(jīng)濟。比如,當具備強大算力和大模型的生成式人工智能同無人駕駛結(jié)合,在無人駕駛汽車行駛過程中發(fā)生交通事故時,即使產(chǎn)品提供者履行算法“可解釋”義務(wù),但是其中的因果關(guān)系、舉證、責(zé)任承擔(dān)仍是一個復(fù)雜且值得深究的問題,并不是單純由提供者承擔(dān)責(zé)任所能解決和涵蓋的[21]。所以,在考慮責(zé)任承擔(dān)時,有必要脫離“代理說”的窠臼,而思考生成式人工智能是否在一定條件和一定程度上具備相應(yīng)的行為能力,進而實現(xiàn)更為公平和經(jīng)濟的歸責(zé)。
第三,關(guān)于能否作為擬制主體??v向來看,法律意義上的“人”的概念,在不同歷史時期、不同階段,其概念和范疇是不盡相同的,呈現(xiàn)出與當時經(jīng)濟社會發(fā)展相適應(yīng)的特征和表現(xiàn)。奴隸制和封建社會階段,自然人并非天然具有權(quán)利能力和行為能力,哪怕是在資本主義階段早期,不具備足夠財產(chǎn)的自然人相關(guān)權(quán)利也受到法律的限制。至于將公司等主體擬制為法律上的法人,則是大航海時代為了風(fēng)險分擔(dān)和鼓勵資本發(fā)展的產(chǎn)物??陀^上,這一法律制度的演變也為推動人類財富增長起到積極推動作用,促進了社會的進步與發(fā)展。實際上,從意志能力來看,法人這種擬制主體主要基于經(jīng)濟性的現(xiàn)實需要,使之以財產(chǎn)集合來作為法律后果的承擔(dān)主體,實質(zhì)上并不天然具備人類意志屬性,由此也產(chǎn)生了有限責(zé)任[22]。遵從這個維度,在人工智能時代,為順應(yīng)新的技術(shù)和社會發(fā)展趨勢,人工智能也應(yīng)當且必然會獲得相應(yīng)的法律資格和法律承認[23]。比如,俄羅斯的隔離神法案中就提出,允許人工智能類推使用國家統(tǒng)一法人登記簿制度[24]。某主體成為“法律上的人”,終歸是基于人類的需求,當人類需要它成為法律主體時,它便可以成為[25]。法人生成過程中,也是先產(chǎn)生實體,后被法律確認。以此推論,當生成式人工智能因不可歸責(zé)于其他主體的行為造成他人損害時,也是可以基于現(xiàn)實或?qū)嶋H的需要,賦予其自身承擔(dān)責(zé)任的資格。當然,其中又會產(chǎn)生一個關(guān)鍵問題,如何使生成式人工智能享有責(zé)任財產(chǎn),并奠定其作為特殊財產(chǎn)性法律主體的基礎(chǔ)。
四、生成式人工智能歸責(zé)的可能展開
馬克思指出,不是人為法律而存在,而是法律為人而存在[26]。法律需要順應(yīng)時代需求、滿足人類發(fā)展實際,在人工智能時代,法律是引導(dǎo)和保障人工智能科技向善、負責(zé)任發(fā)展的主要抓手和關(guān)鍵要素。習(xí)近平總書記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,加快發(fā)展新一代人工智能是事關(guān)我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機遇的戰(zhàn)略問題?!盵27]是否需要承認或者在何種程度上承認生成式人工智能的責(zé)任能力,將對人工智能的發(fā)展產(chǎn)生深遠乃至決定性的影響,并會反過來影響未來法律發(fā)展的走向。因此,當前需要繼續(xù)鞏固我國在人工治理方面的優(yōu)勢和有益經(jīng)驗,進一步探索對生成式人工智能的監(jiān)管邏輯和監(jiān)管技術(shù),實現(xiàn)可控制、能負責(zé)的生成式人工智能發(fā)展模式。
(一)基于平衡考量的有限責(zé)任
針對新興技術(shù)或科技的發(fā)展,一般來說法律需要在謙抑理念下鼓勵創(chuàng)新和安全理念下從嚴規(guī)制的兩個維度間尋找平衡。關(guān)鍵之一就是要明確主體為人工智能主體承擔(dān)相適應(yīng)的責(zé)任,涉及其中的主體可能是控制者、操作者、研發(fā)者、生產(chǎn)者,特別是針對生成式人工智能這類強人工智能,在一定條件和情況下,責(zé)任承擔(dān)主體也可能是生成式人工智能自身。上文已經(jīng)提到,ChatGPT-4在意志能力上已經(jīng)具備了相當?shù)倪壿嬐评砗捅磉_意思的能力,通過算法系統(tǒng)的精確設(shè)定和學(xué)習(xí)實現(xiàn)接近于操作者的思維期待。就行為能力來說,實踐中也在逐步對“代理說”進行一定的調(diào)整因應(yīng),以適應(yīng)更為迅捷、智能度更高的發(fā)展趨勢。就擬制人格來說,基于實踐考量和符合發(fā)展需求的期待,可以參考法人等擬制主體模式,賦予生成式人工智能特定的法律主體地位,對歸責(zé)原則和責(zé)任能力逐步明確,進而促進風(fēng)險的控制和技術(shù)的發(fā)展。
需要進一步明確的是,生成式人工智能能夠賦予法律人格,但是這種法律人格必然是有限的,所能承擔(dān)的責(zé)任也是有限的。本質(zhì)上,人工智能是被制造研發(fā)服務(wù)于人類的智慧工具,有一個基本準則就是人的權(quán)能必然優(yōu)位于機器的權(quán)能,也決定其被賦予的法律人格一定是有限的[28]。生成式人工智能盡管具備一定的意志能力,但客觀上仍是機器和算法系統(tǒng),從倫理上人類所具有的婚姻、生育、投票等權(quán)能不能也不應(yīng)賦權(quán),但結(jié)合其能生成有價值的內(nèi)容或者作品,可以考慮賦予其知識產(chǎn)權(quán)等利益性權(quán)能。比如,前文所述的ChatGPT形成的作品,當其他人使用或利用該作品時,就會產(chǎn)生一定的收益,這種收益不歸研發(fā)者或者控制者所有,這就可以由生成式人工智能所有;或者在全部收益中,固定抽取一部分收益作為生成式人工智能的強制責(zé)任基金。當生成式人工智能實施不可歸咎于控制者的行為,比如侵權(quán)、數(shù)據(jù)濫用或者歧視等行為,對其他主體造成侵害時,就可利用這部分積累收益實施賠償,形成承擔(dān)的有限責(zé)任的財產(chǎn)基礎(chǔ)。
還需要強調(diào)的一點,生成式人工智能的意志能力畢竟是源于大規(guī)模數(shù)據(jù)深度學(xué)習(xí)后形成的底層邏輯,與人類個體的意志無論是深度、廣度還是靈活性上都有較大的區(qū)別。這也是有限責(zé)任的根源,在有限責(zé)任之外,穿透技術(shù)背后,更加廣泛的責(zé)任仍然需要追溯到研發(fā)者、控制者或者操作者身上。生成式人工智能的有限責(zé)任主要用于解決無人駕駛、部分知識產(chǎn)權(quán)等現(xiàn)實問題,是制度體系對技術(shù)發(fā)展和現(xiàn)實作出的適當調(diào)整;而最終的、完全的、情感倫理上的責(zé)任仍然需要由人類負責(zé),這也是警惕人類被機器替代的必要防御。
(二)基于不同情形的歸責(zé)思路
在闡述生成式人工智能責(zé)任有限的基礎(chǔ)上,再進一步考量生成式人工智能的歸責(zé)原則和責(zé)任能力范圍。具體來說,生成式人工智能的責(zé)任能力范圍要結(jié)合在具體行為時機器所受控制程度不同等情況綜合考量,并深入分析機器在決策時的人機互動來重構(gòu)歸責(zé)中的因果關(guān)系。
結(jié)合生成式人工智能致?lián)p時的原因和具體情形,可以分類甄別:若致?lián)p行為完全由生成式人工智能79b57094ad1f05e179d354389105592c224b0e9a031a80607007d26a6b811302自身代碼混亂或程序邏輯錯誤導(dǎo)致的,可由生成式人工智能在相應(yīng)的責(zé)任財產(chǎn)范圍內(nèi)承擔(dān)有限責(zé)任,背后的研發(fā)者和控制者在證明其研發(fā)控制合規(guī)合理的基礎(chǔ)上,承擔(dān)補充責(zé)任;否則,研發(fā)者和控制者應(yīng)承擔(dān)嚴格責(zé)任。若致?lián)p行為主要由操作者操作不當或惡意操作造成的,主要追究操作者的侵權(quán)責(zé)任;如果無法追查到操作者身份,且控制者能夠證明生成式人工智能可控時,可由生成式人工智能自身承擔(dān)一定的限制責(zé)任。若致?lián)p原因不明或無法查清由何種原因引起的,可考慮由控制者、研發(fā)者和生成式人工智能自身聯(lián)合起來承擔(dān)公平責(zé)任,其中責(zé)任承擔(dān)比例、方式和賠償范圍,則需要更為精細化的配套歸責(zé)予以明確。另外,還有可能是由監(jiān)管者監(jiān)管不當或者疏忽產(chǎn)生致?lián)p行為,則主要由監(jiān)管者擔(dān)責(zé),生成式人工智能自身可課以補充責(zé)任。
所以,在承認生成式人工智能有限的責(zé)任能力的基礎(chǔ)上,在責(zé)任承擔(dān)上還需要適用“刺破機器面紗”的歸責(zé)原則,根據(jù)不同情形和因果關(guān)系,進一步挖掘機器背后的實際主體,構(gòu)建多主體負責(zé)的鏈式責(zé)任分配機制。畢竟,在技術(shù)發(fā)展越發(fā)復(fù)雜、風(fēng)險越發(fā)多元的現(xiàn)實中,讓單一主體承擔(dān)主要或全部責(zé)任,既不公平,也會因主體承擔(dān)過重責(zé)任而阻礙對人工智能的持續(xù)研發(fā)和投入,導(dǎo)致法律規(guī)制的負外部性。因此,研發(fā)者、控制者、監(jiān)管者及生成式人工智能自身等不同主體,均應(yīng)在“權(quán)責(zé)一致”的基礎(chǔ)上、公平責(zé)任的補強下,根據(jù)不同情形和具體風(fēng)險,搭建完整、配套的責(zé)任分擔(dān)體系和分擔(dān)鏈條,更為準確、系統(tǒng)、高效地確定厘定責(zé)任承擔(dān)的主體、方式和范圍等事項,進而有效促進人工智能持續(xù)、健康、負責(zé)任、可控制地發(fā)展。
注 釋:
① 本文所稱生成式人工智能,依據(jù)《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,是指“具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)”。
② 美國的一位電臺主持人Walters向佐治亞州的一家高等法院提起訴訟,狀告OpenAI公司侵犯其名譽權(quán),起因是美國的一位新聞記者Riehl在與ChatGPT的對話過程中,ChatGPT聲稱Walters曾被指控從一家非營利公司騙取和盜用資金,而Walters稱其從未受到過此類指控并認為該信息純屬ChatGPT捏造。See The Complaint of Mark Walters v. OpenAI L.L.C.,The Superior Court of Gwinnett County,State of Georgia,Civil Action No. 23-A-04860-2。
參考文獻:
[1] 比爾·蓋茨.ChatGPT是1980年以來最革命性的技術(shù)進步[EB/OL].[2023-9-3].https://tech.ifeng.com/c/8OLwGZFl2pI.
[2] 張學(xué)博,王涵睿.生成式人工智能的法律規(guī)制——以ChatGPT為例[J].上海法學(xué)研究,2023(6):253-261.
[3] 劉艷紅.生成式人工智能的三大安全風(fēng)險及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023(4):29-43.
[4] 《馬斯克等千名科技人士發(fā)公開信:暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng)》[EB/OL].[2023-9-3].https://www.thepaper.cn/newsDetail_forward_22490961.
[5] 畢文軒.生成式人工智能的風(fēng)險規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):55-172.
[6] 周學(xué)峰.生成式人工智能侵權(quán)責(zé)任探析[J].比較法研究,2023(4):117-131.
[7] ChatGPT殺進15個商業(yè)應(yīng)用,讓AI替你打工[EB/OL].[2023-9-5].https://www.thepaper.cn/newsDetail_forward_23023803.
[8] T. ELOUNDOU,S. MANNING,ET AL.GPTs are GPTs,An Early Look at the Labor Market Impact Potential of Large Language Models,arXiv [EB/OL].[ 2023-3-27].https://doi.org/10.48550/arXiv.2303.10130.
[9] 韓大元.當代科技發(fā)展的憲法界限[J].法治現(xiàn)代化研究,2018(5):1-12.
[10] 已經(jīng)有人靠ChatGPT出書賺稿酬了[EB/OL].[2023-9-13].https://www.thepaper.cn/newsDetail_forward_22043420.
[11] 方卿,丁靖佳.人工智能生成內(nèi)容(AIGC)的三個出版學(xué)議題[J].出版科學(xué),2023(2):5-10.
[12] 鄧建鵬,朱懌成.ChatGPT模型的法律風(fēng)險及應(yīng)對之策[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(5):91-101.
[13] 劉保玉,秦偉.論自然人的民事責(zé)任能力[J].法學(xué)研究,2001(2):77-88.
[14] 黑格爾:法哲學(xué)導(dǎo)論[M].范揚、張啟泰譯,北京:商務(wù)印書館,1996:103.
[15] 周靖.論意識條件和主體條件的區(qū)分——對人工智能體道德身份論題的一個澄清[J].上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(2):121-129.
[16] JONATHAN H. ChOI ET AL. ChatGPT Goes to Law School [EB/OL].[2023-3-13].http://dx.doi.org/10.2139/ssrn.4335905.
[17] 雷磊.司法人工智能能否實現(xiàn)司法公正?[J].政法論叢,2022(4):72-82.
[18] Judge Used ChatGPT to Make a Court Decision[EB/OL].[2023-5-16].https://metanews.com/judge-used-chatgpt-to-make-a-court-decision/.
[19] 申衛(wèi)星、劉云.法學(xué)研究新范式:計算法學(xué)的內(nèi)涵、范疇與方法[J].法學(xué)研究,2020(3):3-23.
[20] JOSHUA FAIRFIELD,NILOUFER SELVADURAI.Governing the Interface Between Natural and Formal Language in Smart Contracts[J].UCLA Journal of Law & Technology,2022(2):79.
[21] 袁曾.無人駕駛汽車侵權(quán)責(zé)任的鏈式分配機制——以算法應(yīng)用為切入點[J].東方法學(xué),2019(5):28-39.
[22] 尹志強.人工智能何以為“人”——人工智能時代之民法因應(yīng)[J].社會科學(xué)研究,2023(1):60-70.
[23] 尤瓦爾·赫拉利:《未來簡史——從智人到神人》[M].林俊宏譯.中信出版集團,2017:96.
[24] 張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學(xué)學(xué)報,2018(2):32-41.
[25] 漢斯·哈騰鮑爾.民法上的人[J].孫憲忠譯.環(huán)球法律評論,2001(4):23-33.
[26] 中共中央馬克思恩格斯列寧斯大林著作編譯局.《馬克思恩格斯全集》(第三卷)[M].北京:人民出版社,2002:40.
[27] 習(xí)近平.加強領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實基礎(chǔ)推動我國新一代人工智能健康發(fā)展[N].人民日報,2018-11-1(1).
[28] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):50-57.
基金項目:國家社科基金重大項目“適應(yīng)新時代市場監(jiān)管需要的權(quán)力配置研究”(20&ZD194)
作者簡介:芮然(1995— ),男,江蘇溧陽人,江蘇省溧陽市人民法院法官助理,碩士,研究方向為刑法學(xué)。