亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        ChatGPT 的風(fēng)險挑戰(zhàn)及刑事應(yīng)對

        2023-05-14 15:42:06馬春曉
        警學(xué)研究 2023年5期
        關(guān)鍵詞:提供者義務(wù)人工智能

        劉 維,馬春曉

        (南京大學(xué),江蘇 南京 210008)

        一、問題的提出

        當(dāng)前,由美國人工智能研究實驗室OpenAI于2022年11月30日發(fā)布的智能對話代理程序ChatGPT,已經(jīng)成為全球范圍內(nèi)備受關(guān)注現(xiàn)象級的科技事件。與以往分析已有數(shù)據(jù)的決策式人工智能所不同,ChatGPT作為一種生成式人工智能,可以綜合利用人類反饋強化學(xué)習(xí)(Rein-forcement Learning with Human Feedback,RLHF)、深度學(xué)習(xí)、數(shù)據(jù)挖掘等新型技術(shù)模擬人類聊天行為。它根據(jù)用戶輸入的提問,通過自然語言進(jìn)行回復(fù),從而創(chuàng)造新的信息與內(nèi)容,并能夠?qū)崿F(xiàn)自身的快速迭代。受ChatGPT事件的影響,一時之間,谷歌、阿里、百度、科大訊飛等互聯(lián)網(wǎng)科技公司紛紛推出自家的生成式人工智能產(chǎn)品。在可預(yù)見的一段時間內(nèi),以ChatGPT為代表的生成式人工智能產(chǎn)品將會獲得技術(shù)與資本的持續(xù)注入,在生活、工作的諸多場景中獲得應(yīng)用。

        經(jīng)過迭代升級后的ChatGPT功能愈加強大、應(yīng)用場域愈加廣泛,隨之而來的法律風(fēng)險與挑戰(zhàn)則需要進(jìn)行理性的思考。僅在發(fā)展初始階段,ChatGPT就面臨深度學(xué)習(xí)算法自身存在的算法黑箱、算法歧視及用戶使用中的數(shù)據(jù)安全和隱私泄露等問題。此外,還因為其自身生成性的特征,可能引發(fā)知識產(chǎn)權(quán)侵權(quán)、生成虛假信息等眾多問題。正是考慮到生成式人工智能帶來的種種挑戰(zhàn),各國政府近期不約而同地做出了相應(yīng)的監(jiān)管動作與立法舉措。2023年3月末,意大利政府?dāng)?shù)據(jù)保護(hù)局(Garante)要求OpenAI平臺停止ChatGPT在意大利的運營,并限制其對意大利用戶個人數(shù)據(jù)的處理,隨后又在4月向其提出了包括告知用戶數(shù)據(jù)邏輯、允許非用戶處理個人數(shù)據(jù)和推出年齡驗證系統(tǒng)在內(nèi)的一系列整改要求,最終于4月末允許ChatGPT重新上線。[1]與此同時,西班牙的數(shù)據(jù)保護(hù)機(jī)構(gòu)也要求歐盟隱私監(jiān)管機(jī)構(gòu)評估ChatGPT的隱私問題。[2]法國國家信息與自由委員會(CNIL)目前也在對用戶有關(guān)ChatGPT的投訴進(jìn)行調(diào)查。法國、愛爾蘭與德國有關(guān)當(dāng)局已與意大利方取得聯(lián)系,共商ChatGPT禁令細(xì)節(jié),意在就隱私安全相關(guān)問題達(dá)成一致立場。[3]美國政府討論了人工智能對社會和國家安全的風(fēng)險與機(jī)遇,表示其危險性有待觀察。[4]2023年4月,美國商務(wù)部下屬機(jī)構(gòu)也發(fā)布“人工智能問責(zé)政策”征求意見稿,就是否需要對ChatGPT等人工智能工具監(jiān)管廣泛征求意見。[5]而由馬斯克和圖靈獎得主約書亞·本吉奧(Yoshua Bengio)等人發(fā)起聯(lián)名信公開呼吁暫停研發(fā)高級人工智能,如今已有上萬人簽名。[6]正是在這樣的背景下,國家網(wǎng)信辦會同六部委共同發(fā)布2023年7月13日《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》),擬對生成式人工智能進(jìn)行規(guī)范管理。《辦法》對生成式人工智能產(chǎn)品或服務(wù)的提供提出了一系列要求,包括生成式人工智能服務(wù)提供者應(yīng)當(dāng)進(jìn)行安全評估,并對生成的內(nèi)容進(jìn)行標(biāo)識;應(yīng)采取技術(shù)措施,防止虛假信息生成,防止算法歧視,以及防止侵害他人合法權(quán)益。這些要求體現(xiàn)了網(wǎng)信部門對內(nèi)容安全責(zé)任分配的高度關(guān)注以及初步的監(jiān)管思路。在當(dāng)前各類生成式人工智能服務(wù)及相關(guān)應(yīng)用廣受關(guān)注并有噴薄而出趨勢之際,《辦法》的出臺提供了初步的規(guī)范指引。

        為了清晰全面地洞察ChatGPT在廣泛應(yīng)用后所可能產(chǎn)生的風(fēng)險,首先應(yīng)當(dāng)對與ChatGPT有關(guān)的主體進(jìn)行類型劃分,以便作出針對性的規(guī)制和責(zé)任的追究。本文將主體分為兩類:一種為生成式人工智能服務(wù)的提供者,諸如ChatGPT的開發(fā)者OpenAI;另一種為生成式人工智能服務(wù)的使用者,既包括普通的公眾用戶,又包括利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商。其次,通過透視ChatGPT自身的運行和適用的過程,深入發(fā)現(xiàn)不同階段分別存在的風(fēng)險挑戰(zhàn),具體包括算法設(shè)計階段、數(shù)據(jù)訓(xùn)練階段、模型生成階段、模型優(yōu)化階段、用戶使用階段①其中,用戶使用階段輸入的信息同時將作為人工智能數(shù)據(jù)庫的素材再次投入訓(xùn)練,此外,用戶在使用過程中向生成式人工智能服務(wù)提供者提供的反饋可以通過提供者對模型的優(yōu)化使得模型進(jìn)行持續(xù)迭代升級。、文本生成階段和產(chǎn)品應(yīng)用階段等。本文第二部分在主體和階段劃分的基礎(chǔ)上,剖析以ChatGPT為代表的生成式人工智可能的應(yīng)用場域及可能帶來的風(fēng)險;第三部分則將聚焦生成式人工智能服務(wù)提供者及使用者的刑事責(zé)任和具體的注意義務(wù)類型,妥善回答生成式人工智能刑事責(zé)任主體地位、涉生成式人工智能犯罪所適用的責(zé)任原則等相關(guān)問題。

        二、ChatGPT的應(yīng)用場域與潛在風(fēng)險

        (一)ChatGPT的應(yīng)用場域

        大型語言模型屬于代碼層的基石性模型(foundational model),可被應(yīng)用于從搜索引擎、內(nèi)容平臺到應(yīng)用軟件的一系列下游場景中。以ChatGPT為例,它首先通過海量數(shù)據(jù)的訓(xùn)練形成龐大的基礎(chǔ)模型,隨后根據(jù)不同專業(yè)的優(yōu)化訓(xùn)練適配不同行業(yè)和場景,最后再面向廣大用戶直接提供服務(wù)應(yīng)用。因此,生成式人工智能的功能遠(yuǎn)不止于提供信息內(nèi)容服務(wù),還可以作為醫(yī)學(xué)、教育、金融、傳媒、自動駕駛等諸多領(lǐng)域的“技術(shù)基座”,發(fā)揮巨大的產(chǎn)業(yè)潛力,成為現(xiàn)代社會的“技術(shù)基礎(chǔ)設(shè)施”。

        在醫(yī)學(xué)領(lǐng)域,ChatGPT大型語言模型在醫(yī)工研究方面有較多的應(yīng)用場景,也存在巨大的商用潛力,比如,醫(yī)學(xué)文獻(xiàn)篩選、文本挖掘、醫(yī)學(xué)問答、自動診斷、個性化支持等。在教育領(lǐng)域,國內(nèi)外已有多家企業(yè)宣布布局ChatGPT的相關(guān)業(yè)務(wù),在作業(yè)批改、口語練習(xí)、作文輔導(dǎo)等方面開發(fā)出各類應(yīng)用場景。[7]同時,ChatGPT在做題、寫文章、撰寫視頻腳本等方面也有著巨大的應(yīng)用潛力。在自動駕駛領(lǐng)域,紅旗、長城等大型車企相繼宣布接入“文心一言”(由百度公司開發(fā)的生成式人工智能系統(tǒng))[8],通過智能化技術(shù)賦能汽車行業(yè)發(fā)展,提升汽車應(yīng)用場景下的智能化與交互體驗。在金融領(lǐng)域,ChatGPT可以自動生產(chǎn)金融資訊、金融產(chǎn)品介紹、撰寫財報分析等內(nèi)容,還可以擔(dān)任虛擬理財顧問。在傳媒領(lǐng)域,ChatGPT可以進(jìn)行智能新聞寫作、虛擬客服營銷工作,等等。

        總體來說,隨著ChatGPT的應(yīng)用場景不斷豐富,各行業(yè)普遍看好生成式人工智能技術(shù)應(yīng)用場景與市場前景。伴隨大模型算法技術(shù)的不斷升級和突破,以及算力大規(guī)模部署帶來的成本下降,AIGC(Artificial Intelligence in Games and Computation,即人工智能生成內(nèi)容)應(yīng)用所受到技術(shù)制約將逐步減少。據(jù)估測,2025年中國AIGC市場規(guī)模有望達(dá)到1 600億。[9]

        (二)ChatGPT的潛在風(fēng)險

        目前,ChatGPT帶來的變革正處于初始階段,即將到來的深刻變革迫使我們要對其可能的風(fēng)險進(jìn)行評估,以有效控制生成式人工智能的風(fēng)險水平。

        1.生成式人工智能服務(wù)提供者可能面對和帶來的風(fēng)險。在生成式人工智能的運行和適用過程中,其服務(wù)提供者可能面對的風(fēng)險主要包括算法風(fēng)險、錯誤信息風(fēng)險、數(shù)據(jù)安全風(fēng)險、歧視風(fēng)險和知識產(chǎn)權(quán)風(fēng)險等。

        在算法設(shè)計階段,算法透明問題以及如何構(gòu)建一種可信任的算法解釋機(jī)制,是人工智能法律問題中的經(jīng)典問題。[10]因算法編寫的高度專業(yè)性,用戶無從得知帶有自身信息的有關(guān)數(shù)據(jù)被抓取、處理以及應(yīng)用的細(xì)節(jié),這種技術(shù)上無法避免的不透明性將對法律機(jī)制帶來較大的挑戰(zhàn),如果管理不當(dāng),顯然會對用戶的權(quán)益與社會秩序造成消極的影響。

        在數(shù)據(jù)訓(xùn)練階段,OpenAI將ChatGPT提供的信息符合真實性、無害性和有用性作為努力目標(biāo),但是ChatGPT的算法和訓(xùn)練數(shù)據(jù)仍然存在局限性。一則,ChatGPT的算法學(xué)習(xí)包括對數(shù)據(jù)資料的無監(jiān)督學(xué)習(xí)、人工指導(dǎo)的有監(jiān)督學(xué)習(xí)和與用戶人機(jī)對話過程中的學(xué)習(xí),用戶輸入的信息會被記錄并成為機(jī)器智能的組成部分,從而對用戶的個人信息、秘密信息、商業(yè)秘密和其他秘密信息、情報等形成安全風(fēng)險。二則,來自互聯(lián)網(wǎng)的數(shù)據(jù)無法保證真實性、準(zhǔn)確性和專業(yè)性,通過互聯(lián)網(wǎng)數(shù)據(jù)生成的信息難以做到排除虛假信息。OpenAI雖采取了一些技術(shù)措施對ChatGPT生成的信息進(jìn)行正確性檢測,也沒有完全消除前述因素的影響,而且,在較長一段時間內(nèi),都不可能完全解決ChatGPT提供虛假、錯誤甚至有害信息的問題。三則,ChatGPT是一種無感知的語言模型,對輸入數(shù)據(jù)的處理是基于其在訓(xùn)練數(shù)據(jù)中的出現(xiàn)頻率和語言模式。如果訓(xùn)練數(shù)據(jù)中存在諸如種族歧視、性別歧視在內(nèi)的偏見和歧視,ChatGPT在這部分?jǐn)?shù)據(jù)上訓(xùn)練后也會同步反映出這些問題。而且,由于訓(xùn)練數(shù)據(jù)體量巨大且豐富,不同文化和價值觀之間存在差異,因此,也會有種族、文化和價值觀沖突的風(fēng)險。

        ChatGPT對于知識產(chǎn)權(quán)的侵犯可能發(fā)生在兩個階段:訓(xùn)練階段和文本生成階段。其一,訓(xùn)練階段所涉及的知識產(chǎn)權(quán)問題主要是ChatGPT是否可以使用又如何使用受到著作權(quán)保護(hù)的內(nèi)容。其二,文本生成階段所涉及的問題主要是其生成的內(nèi)容是否能夠受到著作權(quán)的保護(hù),及是否構(gòu)成侵權(quán)。在訓(xùn)練階段,ChatGPT通常建立在海量數(shù)據(jù)訓(xùn)練的基礎(chǔ)上,因而涉及對已有作品的復(fù)制。但時至今日,著作權(quán)保護(hù)的邊界不僅關(guān)乎文學(xué)藝術(shù)創(chuàng)作,也關(guān)系人工智能科技的發(fā)展。如果用于訓(xùn)練的作品都需要獲得原作者的許可,一方面,成本巨大;另一方面,如果相當(dāng)數(shù)量的著作權(quán)人拒絕許可,將會導(dǎo)致被用于訓(xùn)練模型的數(shù)據(jù)十分局限,由此生成的人工智能模型可能存在缺失進(jìn)而產(chǎn)生“偏見”。在文本生成階段,盡管ChatGPT自身的產(chǎn)出機(jī)制不會存在整段復(fù)制他人作品的問題,但是也不能排除會生成侵犯他人著作權(quán)的內(nèi)容,如果通過網(wǎng)絡(luò)提供還可能構(gòu)成侵犯信息網(wǎng)絡(luò)傳播權(quán)。盡管我國還未對此作出專門性的規(guī)定,需要討論的問題是,是否需要為此類大模型的侵權(quán)責(zé)任設(shè)置一定的避風(fēng)港,以及采取哪些措施促使其減少侵權(quán)。至于生成內(nèi)容是否屬于受著作權(quán)法保護(hù)的作品,爭議較大。美國版權(quán)局(USCO)于2023年3月發(fā)布的美國法規(guī)第202部分就規(guī)定,人工智能自動生成的作品,不受版權(quán)法保護(hù)。①原版公告地址:chrome-extension://bocbaocobfecmglnmeaeppambideimao/pdf/viewer.htmlfile=https%3A%2F%2Fwww.govinfo.gov%2Fcontent%2Fpkg%2FFR-2023-03-16%2Fpdf%2F2023-05321.pdf。我國則早在2019年末,就曾作出一起判決,認(rèn)定人工智能生成內(nèi)容具有獨創(chuàng)性,應(yīng)當(dāng)獲得著作權(quán)法保護(hù)。②深圳市騰訊計算機(jī)系統(tǒng)有限公司與上海盈訊科技有限公司著作權(quán)權(quán)屬、侵權(quán)糾紛、商業(yè)賄賂不正當(dāng)競爭糾紛案,深圳市南山區(qū)人民法院〔2019〕粵0305民初14010號民事判決書。

        2.生成式人工智能服務(wù)使用者可能面對和帶來的風(fēng)險。生成式人工智能服務(wù)使用者可能面對和帶來的風(fēng)險主要包括濫用風(fēng)險、隱私泄露風(fēng)險、錯誤信息風(fēng)險和犯罪利用風(fēng)險。

        在用戶使用階段,很可能發(fā)生對ChatGPT生成結(jié)果不當(dāng)應(yīng)用的風(fēng)險。如學(xué)生在課堂測驗或考試過程中直接使用ChatGPT的結(jié)果作為答案進(jìn)行作弊;研究人員使用ChatGPT來進(jìn)行寫作的學(xué)術(shù)不規(guī)范行為;還有,不法分子利用ChatGPT來制造假新聞或謠言,引發(fā)社會動蕩。目前還沒有專門針對ChatGPT生成文本的正確性進(jìn)行鑒別的研究成果,已有的針對虛假新聞或虛假信息檢測的方法可以嘗試應(yīng)用到大規(guī)模語言模型生成文本的正確性檢測中,比如基于事實抽取和驗證的方法,但是否具有明顯的效果還有待驗證。自O(shè)penAI于2022年11月發(fā)布ChatGPT伊始,Check Point Research(CPR)的研究人員就已發(fā)現(xiàn)至少三起惡意利用ChatGPT的實例。如使用ChatGPT開發(fā)的Python信息盜取器代碼,在被感染的系統(tǒng)上搜索和復(fù)制Office文檔、PDF和圖片等12種常見文件類型并泄露出去;再比如用ChatGPT編寫Java代碼下載PuTTY SSH和telnet客戶端并通過PowerShell在系統(tǒng)上秘密運行。[11]類ChatGPT極易被犯罪分子利用,成為網(wǎng)絡(luò)犯罪工具或為網(wǎng)絡(luò)犯罪提供技術(shù)支持,如ChatGPT等GPT-3工具可幫助網(wǎng)絡(luò)犯罪分子逼真地模擬各種社會環(huán)境,并通過心理操縱誘騙受害者泄露敏感個人信息;如網(wǎng)絡(luò)犯罪分子利用類ChatGPT等工具生成極具說服力的釣魚電子郵件或信息實施網(wǎng)絡(luò)詐騙。若國內(nèi)運營的類ChatGPT應(yīng)用被犯罪分子惡意利用作為犯罪工具,其開發(fā)者、運營方是否需承擔(dān)法律責(zé)任,需要承擔(dān)何種法律責(zé)任,均成為司法需要妥善回答的問題。使用預(yù)訓(xùn)練語言模型能參與的犯罪行為種類繁多,因此很難把所有它們能錯誤使用的方法都?xì)w納總結(jié)起來,可以預(yù)料的是,隨著技術(shù)的迭代發(fā)展以及不法分子的不斷嘗試,ChatGPT被濫用的方式會更多樣且更加難以預(yù)測。

        錯誤信息風(fēng)險源于ChatGPT可能產(chǎn)生虛假、誤導(dǎo)、無意義或質(zhì)量差的信息。當(dāng)前,ChatGPT已經(jīng)在成為很多用戶的一種獲取信息的手段,但如果用戶沒有相應(yīng)的分辨能力,可能會誤信這些錯誤的信息,從而帶來一系列的風(fēng)險隱患。盡管預(yù)訓(xùn)練語言模型生成的信息有一定可信度,且可信度會在后續(xù)學(xué)習(xí)改進(jìn)中不斷上升,但這類模型在很多領(lǐng)域生成的信息仍然不夠可靠。同時,ChatGPT的流行會在更大程度上增加用戶對它的信任,從而導(dǎo)致用戶被更多錯誤的信息誤導(dǎo)。預(yù)訓(xùn)練語言模型生成的錯誤信息比例上升可能會加大人們對社會中各類信息的不信任,破壞社會的知識交流傳播。在一些相對敏感的領(lǐng)域,比如法律和醫(yī)學(xué)領(lǐng)域,ChatGPT的錯誤信息很容易導(dǎo)致直接的損害后果。錯誤的醫(yī)學(xué)法律知識會導(dǎo)致使用者違法犯罪或者自行處理傷口疾病時出現(xiàn)問題,從而造成對社會和自己身體健康的傷害。這類問題其實在ChatGPT之前就已經(jīng)有了相關(guān)的案例,比如,患者不相信正規(guī)醫(yī)生而搬出搜索引擎給出的結(jié)果直接反駁醫(yī)生。若用戶因為信賴類ChatGPT輸出的錯誤信息/誤導(dǎo)性內(nèi)容而遭受損失,類ChatGPT的運營者是否需承擔(dān)賠償責(zé)任便成為一個亟待解決的問題。有觀點認(rèn)為,應(yīng)從類ChatGPT的業(yè)務(wù)模式、盈利模式來具體分析,若類ChatGPT僅提供免費的服務(wù),并且進(jìn)行充分的風(fēng)險提示,則在一定程度上可以“免責(zé)”,若類ChatGPT提供收費服務(wù),則其運營方承擔(dān)賠償責(zé)任的可能性較大。[12]但是,僅以是否收費作為認(rèn)定責(zé)任的標(biāo)準(zhǔn),過于大而化之,還需要做更為精細(xì)的討論。

        隱私泄露風(fēng)險則是指在用戶不知情的情況下泄露出自己不想泄露的信息,或者隱私信息被ChatGPT通過其他信息推斷出來。用戶在使用ChatGPT過程中可能會泄露自己的個人隱私信息或者一些組織乃至國家的機(jī)密信息。其中,個人信息的泄露可能會對個人的心理健康、人身安全造成影響;而國家或者商業(yè)機(jī)密往往是只有小范圍人員能獲悉的高等級信息,它們的泄露傳播可能會危及國家安全和企業(yè)安全。相關(guān)私密信息存在被大數(shù)據(jù)推導(dǎo)出來的可能:用戶即便未直接泄露私密信息,ChatGPT可能在不斷地學(xué)習(xí)過程中形成強大的推斷能力,從而自行推斷出來。如何應(yīng)對生成式人工智能對個人隱私信息和組織、國家機(jī)密信息泄露問題,也值得進(jìn)一步的研究。

        三、生成式人工智能服務(wù)提供者及使用者的刑事責(zé)任

        現(xiàn)代刑法表現(xiàn)為法益概念的變遷與新型法益的產(chǎn)生、法益保護(hù)的提前、歸責(zé)要件的緩和等[13],這些新變化要求傳統(tǒng)刑法順應(yīng)風(fēng)險社會的變化進(jìn)行修正[14],更加凸顯刑法的預(yù)防機(jī)能(主要是積極的一般預(yù)防機(jī)能)。析言之,刑法作為事前的風(fēng)險控制法的功能越來越得到重視。面對劇烈的社會變遷,刑法要以更積極的姿態(tài)積極地參與到社會治理中,肩負(fù)起預(yù)防重大風(fēng)險、保障社會安全的責(zé)任。

        要預(yù)防生成式人工智能可能給社會帶來的刑事風(fēng)險,應(yīng)當(dāng)從犯罪現(xiàn)象的類型化出發(fā),通過現(xiàn)行規(guī)范考察不同主體的刑事責(zé)任,并在過程中反思現(xiàn)行規(guī)范的不足。涉生成式人工智能犯罪可以分為針對生成式人工智能的犯罪、利用生成式人工智能的犯罪[15]和對生成式人工智能產(chǎn)品未盡安全生產(chǎn)、管理義務(wù)的犯罪。[16]其中,“利用生成式人工智能的犯罪”還可以細(xì)分為利用生成式人工智能的“智能”犯罪和利用生成式人工智能的“不智能”犯罪。

        現(xiàn)行刑法框架基本能夠覆蓋上述涉生成式人工智能犯罪,但仍有一定的立法空白亟需填充。其一,根據(jù)《關(guān)于辦理危害計算機(jī)信息系統(tǒng)安全刑事案件應(yīng)用法律若干問題的解釋》第11條規(guī)定,刑法條文中的“計算機(jī)系統(tǒng)”和“計算機(jī)信息系統(tǒng)”意為“具有自動處理數(shù)據(jù)的系統(tǒng)”,可以適用于生成式人工智能系統(tǒng);對“信息網(wǎng)絡(luò)”的列舉也可涵蓋人工智能網(wǎng)絡(luò)。由此可見,針對生成式人工智能的犯罪可被刑法中既有的非法侵入計算機(jī)信息系統(tǒng)罪、非法獲取計算機(jī)信息系統(tǒng)數(shù)據(jù)罪、非法控制計算機(jī)信息系統(tǒng)罪、破壞計算機(jī)信息系統(tǒng)罪規(guī)制。其二,生成式人工智能提供者及使用者利用生成式人工智能產(chǎn)品實施犯罪活動的,應(yīng)當(dāng)根據(jù)提供者及使用者實施的具體犯罪行為認(rèn)定其罪名。其三,生成式人工智能提供者及使用者對人工智能產(chǎn)品未盡安全生產(chǎn)、管理義務(wù)的,造成他人或國家利益受損的,構(gòu)成相應(yīng)犯罪。具體而言,在生成式人工智能自身的設(shè)計階段或利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品生產(chǎn)階段,生成式人工智能提供者或其他產(chǎn)品服務(wù)提供商違反注意義務(wù)可能構(gòu)成產(chǎn)品質(zhì)量的相關(guān)犯罪;在具體的產(chǎn)品使用階段,生成式人工智能使用者違反注意義務(wù)則可能構(gòu)成侵犯人身權(quán)益的犯罪。不過,現(xiàn)行產(chǎn)品質(zhì)量犯罪的相關(guān)立法能否完全適用于人工智能產(chǎn)品還值得進(jìn)一步討論,相關(guān)主體注意義務(wù)的具體內(nèi)容也需要隨著實踐的發(fā)展通過相關(guān)法律法規(guī)進(jìn)行細(xì)化。此外,生成式人工智能提供者對人工智能產(chǎn)品未盡安全管理義務(wù)的,還可能構(gòu)成拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪,但這一罪名目前在實踐中司法適用率極低,其規(guī)范內(nèi)涵和效力尚需進(jìn)一步明確。

        (一)討論的前提:生成式人工智能刑事責(zé)任主體地位之否定

        要明確在前述三種涉生成式人工智能犯罪類型中不同參與者的刑事責(zé)任,首先需要回答的前提性問題是,生成式人工智能本身能否獨立承擔(dān)刑事責(zé)任,即生成式人工智能是否具有刑事責(zé)任主體地位,這將決定歸責(zé)判斷的基底。

        法律賦予自然人以外的主體以刑法上的人格,例如單位,是源于組織體中自然人意志的延伸。那么,刑法能否再次突破自然人的限制,賦予人工智能產(chǎn)品法律人格?這一問題的關(guān)鍵在于,人工智能存在自由意志的可能性及能否根據(jù)其意志實施刑法意義上的行為應(yīng)當(dāng)是考慮的核心因素。王鋼教授認(rèn)為,人的存在論特性決定了刑法是行為規(guī)范體系,故唯有能夠理解概念和語義、能夠領(lǐng)會刑法規(guī)范的內(nèi)容和要求的主體才可能作為適格的規(guī)范接受者被視為刑事責(zé)任主體,而目前的人工智能并不能解決語義鴻溝的問題。[17]相反,肯定論者則往往通過肯定人工智能自由意志進(jìn)而認(rèn)為其有能力依照其自由意志實施危害社會的行為。①劉憲權(quán):《人工智能時代刑事責(zé)任與刑罰體系的重構(gòu)》,載《政治與法律》2018年第3期;彭文華:《自由意志、道德代理與智能代理——兼論人工智能犯罪主體資格之生成》,載《法學(xué)》2019年第10期;王燕玲:《人工智能時代的刑法問題與應(yīng)對思路》,載《政治與法律》2019年第1期。江溯教授提出另一種證立人工智能刑事主體性的思路。他認(rèn)為,在罪責(zé)理論已經(jīng)明顯走向“去形而上學(xué)”的情形下,應(yīng)當(dāng)排除“自由意志”這一局限于“形而上”的假設(shè)并且客觀性和證明力都不確定的概念。他認(rèn)為人工智能基于算法建立起了決策機(jī)制,已經(jīng)擁有“意志”,自然也可以實施刑法意義上的行為,承擔(dān)刑事責(zé)任。[18]美國哲學(xué)家約翰塞爾提出了弱人工智能和強人工智能的重要區(qū)分。[19]強人工智能中被認(rèn)為其計算機(jī)程序本身就是一個心靈,而弱人工智能“至多只能夠成為人們研究心靈的一種工具,或是對心智活動的一種抽象模擬”。[20]可以說,由于弱人工智能的技術(shù)發(fā)展水平尚沒有達(dá)到模擬人腦意識思維的程度,所以其本質(zhì)上仍只是一種提高人類工作效率的智能“工具”,與生活中五花八門的“產(chǎn)品”并無區(qū)別。目前,ChatGPT雖然擁有強大的語言識別和理解能力,但不可否認(rèn)的是,其生成內(nèi)容存在大量的常識錯誤,更不用說擁有和人類同一水平的認(rèn)識和控制能力。因此,應(yīng)當(dāng)認(rèn)為,現(xiàn)時人工智能正處于從感知智能走向認(rèn)知智能的發(fā)展階段,也就是說,仍屬于弱人工智能的階段。

        弱人工智能,無論是從法哲學(xué)的角度,還是從法律技術(shù)的角度,亦或是社會預(yù)防的角度,都不需要也不應(yīng)當(dāng)被賦予刑事責(zé)任主體地位。首先,弱人工智能作為一套編寫的程序系統(tǒng)并不具有自主意志,更無法自主實施行為,最終使用人工智能做出各種活動的仍然是具有獨立意志的人類。無論輸入多少變量,算法仍只是其復(fù)制的人類行為模式集合。其次,人工智能體即使被擬制為自由意志者,也不擁有刑事責(zé)任能力。要能承擔(dān)刑事責(zé)任,必須先存在能夠被剝奪或者限制的權(quán)利。也就是說,責(zé)任主體的前提是成為權(quán)利主體。而人工智能缺乏自利意識,無法成為權(quán)利的負(fù)載者和法律主體。[21]再次,處罰弱人工智能,既無法實現(xiàn)報應(yīng)目的,也不具有特殊預(yù)防、一般預(yù)防的功能。有學(xué)者提出有必要在刑法中增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰措施。[22]但人工智能作為一套工具性程序系統(tǒng),最終服務(wù)的還是人類的需求。對人工智能采取上述刑罰措施,并不能對使用該套程序系統(tǒng)的其他服務(wù)提供者或者一般用戶起到任何處罰或者威懾作用。

        因此,應(yīng)當(dāng)認(rèn)為,包括ChatGPT在內(nèi)的生成式人工智能本身并不具有刑事責(zé)任能力。應(yīng)當(dāng)戳破生成式人工智能產(chǎn)品致他人或者國家利益受損行為作為工具層面的面紗,而將其視為“背后”責(zé)任主體行為的組成部分進(jìn)行分析,進(jìn)而對相關(guān)責(zé)任主體,即生成式人工智能服務(wù)提供者和使用者,追究故意犯罪、過失犯罪以及產(chǎn)品質(zhì)量缺陷問題引發(fā)的刑事責(zé)任。

        (二)生成式人工智能服務(wù)提供者的刑事責(zé)任及注意義務(wù)

        1.生成式人工智能服務(wù)提供者的刑事責(zé)任。生成式人工智能服務(wù)提供者可能會承擔(dān)故意和過失兩種罪過形態(tài)的刑事責(zé)任。一方面,提供者故意研發(fā)對他人或國家有危害的人工智能產(chǎn)品,具體包括兩種情況:一是提供者為了出于特定的犯罪目的而設(shè)計研發(fā)某種人工智能產(chǎn)品,二是提供者明知其設(shè)計研發(fā)的人工智能產(chǎn)品未達(dá)到安全標(biāo)準(zhǔn)而放任其投入應(yīng)用市場。在第一種情形下,如果提供者為了實現(xiàn)某個犯罪目的而研發(fā)“有害”的人工智能產(chǎn)品,就應(yīng)當(dāng)將該人工智能產(chǎn)品理解為行為人的犯罪工具,并根據(jù)行為人利用人工智能產(chǎn)品具體實施的犯罪行為,依照刑法的規(guī)定,對行為人進(jìn)行定罪量刑。在第二種情形下,如果提供者并不是為了實現(xiàn)某個具體的犯罪目的,而是在明知其設(shè)計研發(fā)的人工智能產(chǎn)品未達(dá)到產(chǎn)品安全標(biāo)準(zhǔn)的情況下,仍然放任其投入市場,使得該產(chǎn)品同其他領(lǐng)域相結(jié)合并進(jìn)一步生產(chǎn)出相關(guān)應(yīng)用,最終為一般用戶所使用。如果僅僅依靠生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪等罪名來規(guī)制此類犯罪行為,那么一旦發(fā)生人工智能產(chǎn)品致人嚴(yán)重死傷的案件,將會造成與故意殺人罪、故意傷害罪等罪名法定刑不均衡的局面。[23]此時為了妥善的評價相關(guān)罪刑,可以考慮通過新增罪名來對此類行為人進(jìn)行定罪處罰。

        另一方面,在過失犯罪的情形中,由于人工智能產(chǎn)品的技術(shù)性及應(yīng)用性,生成式人工智能服務(wù)提供者的刑事責(zé)任較一般產(chǎn)品生產(chǎn)者有所擴(kuò)張,具體來說,包括對產(chǎn)品自身安全保障的刑事責(zé)任和對下游使用者安全管理的刑事責(zé)任的擴(kuò)張。

        第一,產(chǎn)品刑事責(zé)任的擴(kuò)張。這里主要是指產(chǎn)品制造者的注意義務(wù)范圍的擴(kuò)張,除了一般性的產(chǎn)品安全義務(wù)外,其至少還應(yīng)當(dāng)包括人工智能產(chǎn)品適法性的義務(wù)、倫理性的義務(wù)等。[24]具體而言,適法性義務(wù)包括在算法設(shè)計和模型生成階段嚴(yán)格按照法律法規(guī)進(jìn)行編程、測試,在數(shù)據(jù)訓(xùn)練階段排除違法信息,獲得相應(yīng)的知識產(chǎn)權(quán)授權(quán),保證數(shù)據(jù)安全;倫理性義務(wù)則主要包括在數(shù)據(jù)訓(xùn)練階段排除有害信息,諸如各種帶有偏見的歧視信息。例如,生成式人工智能擁有提供人臉、人聲等生物識別信息編輯功能的,提供者應(yīng)當(dāng)提示使用者(用戶)并取得其單獨同意。在未履行對用戶的提示義務(wù)的情況下,發(fā)生數(shù)據(jù)侵權(quán)情形,其應(yīng)承擔(dān)一定的法律責(zé)任。

        第二,安全管理刑事責(zé)任的擴(kuò)張。正如前文所介紹的那樣,生成式人工智能作為一種基礎(chǔ)模型,未來將同不同產(chǎn)業(yè)結(jié)合開發(fā)出形形色色的人工智能產(chǎn)品。毫無疑問,類似ChatGPT的生成式人工智能扮演著各類應(yīng)用的底層技術(shù)和數(shù)據(jù)來源這樣舉足輕重的角色。相比普通的產(chǎn)品產(chǎn)業(yè)鏈,生成式人工智能提供者對下游應(yīng)用安全的影響更直接,作用也更大。因此,生成式人工智能提供者責(zé)任應(yīng)突破生產(chǎn)階段的產(chǎn)品安全責(zé)任,延伸到應(yīng)用階段的安全管理責(zé)任。具體而言,需要在產(chǎn)品應(yīng)用階段履行對使用者輸入數(shù)據(jù)和合成結(jié)果的審核義務(wù)和根據(jù)產(chǎn)品應(yīng)用階段得到的反饋及時優(yōu)化模型的義務(wù)。例如,如果生成式人工智能提供者不履行對于接入該人工智能的自動駕駛汽車的軟件升級義務(wù),或者對相關(guān)醫(yī)療咨詢系統(tǒng)的更新義務(wù)、對系統(tǒng)中錯誤的及時修正義務(wù),就有可能要承擔(dān)相應(yīng)的安全管理刑事責(zé)任。

        “沒有產(chǎn)品缺陷,就無所謂產(chǎn)品責(zé)任?!保?5]有學(xué)者總結(jié)了產(chǎn)品缺陷的四種類型,包括產(chǎn)品設(shè)計缺陷、產(chǎn)品制造缺陷、產(chǎn)品警示缺陷與產(chǎn)品營銷(產(chǎn)品召回與售后警示)缺陷。[26]不管是生成式人工智能本身,還是其下游利用生成式人工智能技術(shù)提供的其他產(chǎn)品服務(wù),都作為產(chǎn)品,可能面臨這四種類型的問題。對于產(chǎn)品缺陷的責(zé)任問題,首先應(yīng)當(dāng)在《產(chǎn)品質(zhì)量法》《侵權(quán)責(zé)任法》或單獨的《生成式人工智能管理辦法》等前置法層面上予以明確生成式人工智能提供者和下游利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商的生成式人工智能產(chǎn)品質(zhì)量檢測和下游應(yīng)用監(jiān)測跟蹤義務(wù)。不同于一般產(chǎn)品,生成式人工智能產(chǎn)品對人類語言有極強的模仿和推理能力,并且其在全世界的流行會在很大程度上增加一般用戶對它的信任度,因而極有可能存在安全風(fēng)險并導(dǎo)致用戶損害。因此,應(yīng)當(dāng)盡快對生成式人工智能提供者和利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商設(shè)置相應(yīng)的責(zé)任和義務(wù)。目前,我國前置法層面上并未對此明確規(guī)定,根據(jù)法秩序統(tǒng)一原理與刑法二次違法性的理論,需要在前置法法律規(guī)定完備的前提下,才可以進(jìn)一步完善生成式人工智能產(chǎn)品質(zhì)量問題引發(fā)的刑事責(zé)任問題。

        此外值得討論是,有學(xué)者認(rèn)為,“人工智能犯罪的刑法規(guī)制體系,必須在責(zé)任要素上普遍采納嚴(yán)格責(zé)任,對超過的客觀要素(結(jié)果)不強求故意或者過失。”[27]“除了對故意利用人工智能技術(shù)實施犯罪的行為需要加以刑法規(guī)制外,由于人工智能可能造成的社會危害性大,并且研發(fā)者和使用者在大多數(shù)情況下對人工智能產(chǎn)品具有一定的把控能力,因此可以考慮在刑法中確立人工智能產(chǎn)品研發(fā)者和使用者的嚴(yán)格責(zé)任。”[28]該觀點進(jìn)一步認(rèn)為,嚴(yán)格責(zé)任確認(rèn)的前提是前置法律法規(guī)已將這部分義務(wù)規(guī)定在條文之中,而刑法則可以規(guī)定不履行相應(yīng)法律法規(guī)中關(guān)于人工智能產(chǎn)品研發(fā)和使用過程中的規(guī)定,造成嚴(yán)重危害結(jié)果的,有關(guān)研發(fā)者和使用者需要承擔(dān)刑事責(zé)任。[29]本文認(rèn)為,關(guān)于生成式人工智能產(chǎn)品因缺陷致他人或國家利益受損的行為規(guī)制,仍應(yīng)當(dāng)堅持過錯責(zé)任原則,嚴(yán)格按照故意犯罪和過失犯罪的主客觀要求追究刑事責(zé)任。尤其在過失犯罪的情況下,應(yīng)對其提供者謹(jǐn)慎苛責(zé),不應(yīng)適用嚴(yán)格責(zé)任,而應(yīng)當(dāng)以新過失論作為理論工具,借助“緩和結(jié)果回避義務(wù)”對生成式人工智能提供者過失犯罪的成立范圍進(jìn)行限縮。

        根據(jù)嚴(yán)格責(zé)任原則,行為人由于“在不允許的事項中逗留”,即使他沒有過錯,也要對所有后果承擔(dān)責(zé)任。這種嚴(yán)苛的可罰性是以行為人創(chuàng)設(shè)了不容許,也就是說非社會所期望的風(fēng)險創(chuàng)設(shè)為前提。只有在這樣的背景下,才能將僅僅實施了某種風(fēng)險行為構(gòu)建為客觀處罰條件。因此,如果將危險的人工智能系統(tǒng)投入流通所出現(xiàn)的結(jié)果認(rèn)定為客觀處罰條件,必須首先證明投入流通行為的不被容許性。但實際上,不違反義務(wù)地制造、銷售或運營人工智能系統(tǒng)的行為則是一種容許的、并為社會所需要和期待的行為。[30]應(yīng)當(dāng)說,在刑法中引入嚴(yán)格責(zé)任,顯而易見會極大地破壞刑法原有的責(zé)任體系,違背了責(zé)任原則。尤其是對僅僅具有工具性的生成式人工智能產(chǎn)品來說,此一體系性的破壞完全沒有必要。其一,雖然生成式人工智能作為基底模型,為各行各業(yè)的應(yīng)用提供技術(shù)支持,影響廣泛,但只要其研發(fā)者和使用者盡到了相應(yīng)的注意義務(wù),很大程度上就能避免危害的產(chǎn)生。若只是因為憑空想象的所謂“人工智能產(chǎn)品社會危害性大”而置刑法的責(zé)任體系于不顧,得不償失。其二,由于生成式人工智能產(chǎn)品問題及提供者主觀過錯難以證明而主張嚴(yán)格責(zé)任并不合理。此觀點混淆了刑事領(lǐng)域中歸責(zé)和證明這兩個不同層次的問題。并且,隨著人工智能技術(shù)的不斷發(fā)展和普及,未來這一問題將得到極大解決。屆時,完全可以通過國家設(shè)立的專門針對人工智能產(chǎn)品的技術(shù)部門或鑒定機(jī)構(gòu)對提供者的過錯予以鑒定和甄別。其三,貿(mào)然引入嚴(yán)格責(zé)任,雖然可以在一定程度上將風(fēng)險最小化,但其對整個人工智能領(lǐng)域的發(fā)展和創(chuàng)新帶來的挫傷是更無法容忍的。

        在新過失論中,對過失犯的成立要進(jìn)行兩個階層的判斷:第一,在構(gòu)成要件階層,違反客觀注意義務(wù)之行為才能成立過失行為,其中客觀注意義務(wù)由以客觀的預(yù)見可能性和客觀的結(jié)果回避可能性為基礎(chǔ);第二,在責(zé)任階層,主要判斷行為人的主觀注意義務(wù),而這種主觀注意義務(wù)以行為人主觀上的預(yù)見可能性作為判斷的標(biāo)準(zhǔn)。通過這種雙重判斷,限制過失犯的成立范圍,以在人工智能發(fā)展的初級階段更有利地支持技術(shù)創(chuàng)新和行業(yè)生長。值得注意的是,生成式人工智能作為一種不斷更新學(xué)習(xí)的系統(tǒng),存在一種“可預(yù)見的不可預(yù)見性(vorhersehbare Unvorhersehbarkeit)”①參見Gless/Weigend,ZStW 126(2014),S.561,581f.。的問題。應(yīng)當(dāng)認(rèn)為,這種不可預(yù)見性是人工智能本身的技術(shù)特征所決定的,其設(shè)計開發(fā)者對這種情況缺乏客觀避免能力,因此并不能歸責(zé)于人工智能提供者。此外,如果存在信賴原則適用的空間,應(yīng)當(dāng)否定生成式人工智能提供者成立過失犯罪。

        2.生成式人工智能服務(wù)提供者的注意義務(wù)。如前文所述,當(dāng)務(wù)之急應(yīng)當(dāng)明確生成式人工智能提供者和下游利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商的生成式人工智能產(chǎn)品質(zhì)量檢測和下游應(yīng)用監(jiān)測跟蹤義務(wù)。其中,生成式人工智能提供者的義務(wù)可以分階段細(xì)化為算法設(shè)計、數(shù)據(jù)訓(xùn)練和模型生成階段安全編程、安全測試的義務(wù),用戶使用和模型優(yōu)化階段過濾審查違法有害信息并及時調(diào)整的義務(wù),與對下游服務(wù)使用者的提示義務(wù)。

        (1)算法設(shè)計、數(shù)據(jù)訓(xùn)練和模型生成階段安全編程、安全測試的義務(wù)。算法、算力和數(shù)據(jù)是人工智能三大核心要素。人工智能運行的技術(shù)邏輯就是算法。由于生成式人工智能具備深度學(xué)習(xí)功能,并且不斷根據(jù)用戶提供的內(nèi)容進(jìn)行更新迭代,因此其系統(tǒng)編程并不是為其設(shè)定固定操作,而是以設(shè)定重要參數(shù)的方式為系統(tǒng)運行提供算法。以ChatGPT為例,其在技術(shù)路線上采用自然語言處理+搜索引擎集成的架構(gòu),建構(gòu)了大型語言和強化學(xué)習(xí)微調(diào)訓(xùn)練模型,連接大量語料庫,通過預(yù)訓(xùn)練方法處理大模型序列數(shù)據(jù),使其擁有語言理解和文本生成的能力,能夠完成用戶指令的任務(wù)。因此,生成式人工智能服務(wù)提供者首先需要在算法設(shè)計、數(shù)據(jù)訓(xùn)練和模型生成階段,盡可能提高系統(tǒng)程序的適法性,排除程序缺陷。生成式人工智能提供者的安全編程義務(wù)主要體現(xiàn)為,為語言訓(xùn)練模型設(shè)置能夠保障數(shù)據(jù)安全、初步排除違法有害信息的參數(shù)并確保模型在參數(shù)范圍內(nèi)行動,并完成算法備案。

        《產(chǎn)品質(zhì)量法》第46條對“產(chǎn)品缺陷”做了界定,即“產(chǎn)品存在危及人身、他人財產(chǎn)安全的不合理的危險”或者產(chǎn)品不符合“保障人體健康和人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)”。當(dāng)前,人工智能產(chǎn)品還沒有相應(yīng)的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),因而,判斷人工智能產(chǎn)品是否存在“缺陷”的標(biāo)準(zhǔn)在于是否“存在危及人身、他人財產(chǎn)安全的不合理的危險”。算法黑箱使得生成式人工智能提供者難以預(yù)料該人工智能產(chǎn)品在和不同用戶交互的特定情境中會給出什么樣的生成內(nèi)容、這些生成內(nèi)容是否存在危及人身或他人財產(chǎn)安全的不合理危險。為了確保該人工智能產(chǎn)品每天輸出的海量內(nèi)容不存在這樣的不合理危險,生成式人工智能提供者有必要在將人工智能產(chǎn)品投放到市場公開使用前,充分開展各類場景運用測試,尤其是在法律和醫(yī)療這樣專業(yè)和切身影響公民人身、財產(chǎn)安全的重要領(lǐng)域。通過反復(fù)的試驗、反饋、完善確保該人工智能產(chǎn)品只在極端例外情況下才會引發(fā)生成違法有害信息,并合理設(shè)計以盡可能降低其損害程度。如果生成式人工智能提供者沒有充分開展安全測試,就不能以對該人工智能產(chǎn)品的具體生成內(nèi)容缺乏預(yù)見可能性為由,或者援引被容許的風(fēng)險原理,否定自身的刑事責(zé)任。

        值得強調(diào)的是,應(yīng)當(dāng)以編程時的科學(xué)技術(shù)水平和風(fēng)險認(rèn)知水平為基準(zhǔn)來判斷生成式人工智能提供者是否履行了安全編程和安全測試義務(wù)。如果在生成式人工智能服務(wù)被投入下級應(yīng)用市場或直接為一般用戶使用時的科技水平并不能發(fā)現(xiàn)相關(guān)風(fēng)險或者缺陷,就不應(yīng)當(dāng)將罕見的偶然性損害歸責(zé)給人工智能提供者。因此,在這種情況下,提供者并不承擔(dān)產(chǎn)品責(zé)任。

        (2)用戶使用和模型優(yōu)化階段過濾審查、及時調(diào)整的義務(wù)。進(jìn)入到用戶使用階段之后,生成式人工智能在用戶輸入指令后,將指令轉(zhuǎn)化為數(shù)字序列,再通過上述模型聯(lián)系對話的上下文,分析用戶指令的含義及特征,生成數(shù)字序列形式的內(nèi)容,最后將數(shù)字序列轉(zhuǎn)換為文本輸出。而訓(xùn)練這一模型的鑰匙主要是基于人工反饋的強化學(xué)習(xí)(RLHF),模型基于不斷的人工反饋進(jìn)行持續(xù)迭代式微調(diào)。①參見哈爾濱工業(yè)大學(xué)自然語言處理研究所:《ChatGPT調(diào)研報告》,第10頁,載道客巴巴2023年3月8日,https://www.doc88.com/p-25329748210272.html。因此,生成式人工智能提供者有義務(wù)對用戶輸入的內(nèi)容進(jìn)行過濾審查,建立鑒偽與辟謠機(jī)制,排除出違法信息、有害信息、錯誤信息,諸如可以為犯罪所利用的信息,或帶有偏見的歧視性信息,并對模型不斷進(jìn)行優(yōu)化調(diào)整。

        (3)對下游服務(wù)使用者的提示義務(wù)。此外,服務(wù)提供者還應(yīng)當(dāng)對使用者輸入數(shù)據(jù)進(jìn)行相關(guān)法律法規(guī)的提示,包括知識產(chǎn)權(quán)方面的風(fēng)險提示,例如,要求提供人臉、人聲等生物識別信息編輯功能的,應(yīng)當(dāng)提示使用者并取得其單獨同意。在生成式人工智能提供者未履行對用戶的提示義務(wù)以及對用戶輸入內(nèi)容的審核義務(wù)的情況下,發(fā)生數(shù)據(jù)侵權(quán)情形,其應(yīng)承擔(dān)一定的法律責(zé)任。此外,還包括對錯誤信息風(fēng)險的提示,尤其是在醫(yī)療和法律等專業(yè)領(lǐng)域,應(yīng)當(dāng)提醒用戶謹(jǐn)慎判斷ChatGPT生成的相關(guān)信息。

        值得注意的是,在OpenAI的使用條款(2023年3月14日版本)①OpenAI使用條款的訪問鏈接:https://openai.com/policies/terms-of-use。中,并無明確闡明知識產(chǎn)權(quán)的問題,而是顯示在適用法律允許的限度內(nèi),用戶擁有全部的 “輸入”(應(yīng)是指其向ChatGPT提供的指示和傳輸?shù)男畔?數(shù)據(jù)/文檔)。OpenAI亦聲明向用戶轉(zhuǎn)讓其在輸出中的、與輸出有關(guān)的所有權(quán)利、權(quán)證和利益,并規(guī)定用戶對包括輸入和輸出在內(nèi)的內(nèi)容負(fù)責(zé),確保相關(guān)內(nèi)容不違反任何適用法律或是諸項使用條款。因此可以推論的是,若ChatGPT所生成內(nèi)容被用戶公開,而其中被控含有受著作權(quán)保護(hù)、但未獲原著作權(quán)人同意之內(nèi)容,則相關(guān)責(zé)任應(yīng)由用戶承擔(dān)。這也實質(zhì)規(guī)避了OpenAI可能涉及的侵犯知識產(chǎn)權(quán)之風(fēng)險。[31]

        (三)生成式人工智能服務(wù)使用者的刑事責(zé)任

        1.利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商的刑事責(zé)任。對于利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商明知生成式人工智能產(chǎn)品存在質(zhì)量問題而予以利用的,構(gòu)成犯罪故意,應(yīng)當(dāng)承擔(dān)故意犯罪的刑事責(zé)任。具體而言又可繼續(xù)分為直接故意和間接故意兩種情形。如果該生成式人工智能產(chǎn)品的質(zhì)量問題嚴(yán)重至損害結(jié)果一定會發(fā)生,則該其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商者構(gòu)成直接故意;如果該生成式人工智能產(chǎn)品的質(zhì)量問題只是導(dǎo)致結(jié)果有可能會發(fā)生,則其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商構(gòu)成間接故意。而利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商在下游產(chǎn)品開發(fā)、經(jīng)營過程中沒有盡到產(chǎn)品質(zhì)量注意義務(wù),或者未盡到對一般用戶的安全管理義務(wù)的,則構(gòu)成犯罪過失,承擔(dān)過失犯罪的刑事責(zé)任。

        2.一般用戶的刑事責(zé)任。在使用ChatGPT時,用戶自身的輸入行為需要嚴(yán)格遵守該人工智能所提供的使用條款以及相關(guān)法律規(guī)范,例如,不得輸入他人隱私、敏感信息、商業(yè)秘密、國家機(jī)密等,更不能利用ChatGPT實施違法犯罪行為。一般用戶實施針對人工智能的故意犯罪,如破壞計算機(jī)信息系統(tǒng)罪的,由現(xiàn)行刑法直接規(guī)制。一般用戶故意利用生成式人工智能產(chǎn)品實施犯罪活動或未盡到對使用產(chǎn)品的安全管理義務(wù)過失致他人或國家利益損害的,應(yīng)當(dāng)根據(jù)其實施的具體犯罪行為認(rèn)定其罪名。2023年4月末,甘肅就發(fā)生一起利用ChatGPT將虛假信息“洗稿”賺取流量非法獲利的案件,犯罪嫌疑人洪某因涉嫌尋釁滋事罪被采取刑事強制措施,但其行為構(gòu)成尋釁滋事罪還是編造、故意傳播虛假信息罪仍存在較大爭議。[32]

        需要特別注意的是,一般用戶在使用ChatGPT時要面臨知識產(chǎn)權(quán)侵權(quán)風(fēng)險。正如前文所提到的,根據(jù)OpenAI的使用條款,在用戶輸入行為符合使用條款和相關(guān)法律規(guī)定的前提下,OpenAI將該文本內(nèi)容的所有權(quán)和相關(guān)利益都轉(zhuǎn)讓給了用戶。但實際上用戶難以甄別該文本內(nèi)容是原創(chuàng)作品還是對他人作品的剽竊。此種情況下,如果用戶擅自進(jìn)行復(fù)制、發(fā)表、改編或者傳播,可能會侵犯他人著作權(quán),嚴(yán)重的甚至?xí)?gòu)成侵犯知識產(chǎn)權(quán)犯罪。因而用戶在輸入行為合法合規(guī)的前提下仍需謹(jǐn)慎使用ChatGPT生成的文本內(nèi)容,否則將要承擔(dān)相應(yīng)的法律責(zé)任。

        四、結(jié)語

        當(dāng)前,ChatGPT具有明顯的工具性質(zhì),尚不具備刑事法律主體資格。在生成式人工智能的技術(shù)產(chǎn)出鏈條上,技術(shù)開發(fā)者也即生成式人工智能服務(wù)的提供者是關(guān)鍵的角色,應(yīng)當(dāng)承擔(dān)一定的合規(guī)責(zé)任。生成式人工智能提供者是我國生成式人工智能治理的樞紐,既要盡到自身的產(chǎn)品責(zé)任義務(wù),又要履行對下游服務(wù)使用者的安全管理責(zé)任。ChatGPT被用于實施犯罪時,使用者即為犯罪行為正犯,應(yīng)承擔(dān)刑事責(zé)任無疑。為了不遏制技術(shù)創(chuàng)新,現(xiàn)階段我們應(yīng)當(dāng)對針對人工智能提供者的嚴(yán)格責(zé)任持謹(jǐn)慎態(tài)度。但生成式人工智能服務(wù)提供者客觀上為使用者提供了技術(shù)幫助行為的,能否以技術(shù)中立為由出罪,仍應(yīng)當(dāng)注重考慮其是否有嚴(yán)格履行網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護(hù)法、《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等法律、行政法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全生產(chǎn)、管理義務(wù)。目前,人工智能產(chǎn)業(yè)仍在發(fā)展初期,尚未發(fā)展出成熟的行業(yè)標(biāo)準(zhǔn)及相關(guān)的法律、法規(guī)。未來,應(yīng)當(dāng)實現(xiàn)刑事合規(guī)的外部規(guī)制與行業(yè)內(nèi)部自我治理的有機(jī)結(jié)合,在行政法規(guī)和刑法規(guī)范結(jié)合具體情境進(jìn)一步完備細(xì)化的基礎(chǔ)上,實現(xiàn)刑法與人工智能行業(yè)規(guī)則的功能性協(xié)作,進(jìn)而促進(jìn)人工智能行業(yè)風(fēng)險最小化下的可持續(xù)發(fā)展。

        猜你喜歡
        提供者義務(wù)人工智能
        幸福的人,有一項獨特的義務(wù)
        海峽姐妹(2020年12期)2021-01-18 05:53:12
        網(wǎng)絡(luò)交易平臺提供者的法律地位與民事責(zé)任分析
        法制博覽(2020年2期)2020-04-29 06:45:18
        基于隱私度和穩(wěn)定度的D2D數(shù)據(jù)共享伙伴選擇機(jī)制
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        三十載義務(wù)普法情
        跟蹤導(dǎo)練(一)(4)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        網(wǎng)絡(luò)言論自由的行政法規(guī)制研究
        法制與社會(2017年9期)2017-04-18 01:20:31
        下一幕,人工智能!
        极品夫妻一区二区三区| 久久久久无码精品亚洲日韩| 国产91色在线|亚洲| 青青草视频在线视频播放| 国产免费成人自拍视频| 国产高清av在线播放| 国产无遮挡又黄又爽又色| 亚洲高清有码在线观看| 国产精品黑丝美女av| av天堂精品久久综合网| 麻豆久久久9性大片| 日本视频中文字幕一区在线| 久久国产亚洲av高清色| 色佬精品免费在线视频| 男女裸交无遮挡啪啪激情试看 | 国产午夜成人久久无码一区二区 | 资源在线观看视频一区二区| 国产精品大片一区二区三区四区| 国产成人无码精品久久久露脸 | 馬与人黃色毛片一部| 国产精品一区二区av白丝在线| 婚外情长久的相处之道| 无码va在线观看| 欧美亚洲国产另类在线观看| 一区二区三区在线免费av| 国产精品一区二区三区自拍| 久久亚洲精品11p| 欧美韩国精品另类综合| 视频一区精品中文字幕| 丰满少妇被粗大猛烈进人高清| 久久久久久成人毛片免费看| 在线无码免费看黄网站| 国产精品精品国产色婷婷| 熟女性饥渴一区二区三区| 欧美国产日本精品一区二区三区| 视频一区中文字幕日韩| av无码国产精品色午夜| 亚洲av无码一区二区二三区| 亚洲男人在线无码视频| 青青草视频在线观看网| 亚洲成av人片天堂网|