亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        通用人工智能提供者內容審查注意義務的證成

        2024-04-01 21:00:20高陽
        東方法學 2024年1期
        關鍵詞:注意義務有害信息

        高陽

        內容摘要:通用人工智能可自發(fā)或受用戶操控被動生成有害信息,它的提供者作為新型的網絡內容提供者,負有數字內容“守門人”職責,同時負有網絡空間的安全保護義務,應承擔內容審查的注意義務,從而預防有害信息的侵權風險。“以數據為中心”的內容生產方式和算法黑箱效應降低了通用人工智能提供者對內容的管控力, 導致對生成內容的普遍審查難以被實現(xiàn)。應針對有害信息,結合內容生產場景、提供者風險預見能力差異化構建內容審查的注意義務。該注意義務以技術性審查為標準,提供者采取符合技術特點的內容審查機制,便應當認定履行了相關義務。

        關鍵詞:通用人工智能 有害信息 注意義務 信息內容安全 網絡內容提供者 內容審查義務

        中圖分類號:DF41 文獻標識碼:A 文章編號:1674-4039-(2024)01-0189-200

        一、問題的提出

        2023年11月6日,OpenAI公司推出了GPT/4-Turbo,12月6日谷歌公司的Gemini誕生,這兩款模型無論從學習樣本的數據量級,還是生成內容的可擴展性等方面,均得到進一步的優(yōu)化與升級。〔18〕可見,生成式人工智能〔2/〕正朝著通用人工智能這一終極目標穩(wěn)步前進。所謂“通用人工智能”(artificial/general8intelligence,簡稱AGI)是指“具有理解、學習和運用知識解決跨領域任務能力的人工智能,它具備認知靈活性、適應性和解決問題的通用技能”。〔38〕概言之,它具有完成任何目標工作的能力,并且可以像人類一樣思考甚至比人類更聰明。

        以ChatGPT為代表的生成式人工智能是通用人工智能發(fā)展的必經階段與具體應用, 兩者在內容生產機理方面具有一致性,由內容引發(fā)的信息內容安全問題亦具有可類比性?!?8〕通用人工智能為人工智能產業(yè)提供基礎架構,具有極強的泛化性、跨領域性、多模態(tài)性等特征,在生成式人工智能中產生的任何內容風險,均將蔓延至通用人工智能并可能引發(fā)人工智能產業(yè)鏈的連鎖反應?!?"〕現(xiàn)實中,用戶在與大語言模型互動過程中,極易受到有害信息的侵害。學者將有害信息主要分為3類:(1)仇恨、歧視性;(2)攻擊、誹謗性;(3)粗魯、不道德性?!?"〕大語言模型如果長期輸出此類有害信息影響用戶,勢必造成人類社會價值崩塌。因此,通過對生成式人工智能內容風險法律規(guī)制的研究,有助于厘清通用人工智能時代的內容侵害的防范路徑與規(guī)制手段。

        當前,生成式人工智能內容風險的法律規(guī)制引起了全球的高度關注。美國白宮發(fā)布了《安全、穩(wěn)定、可信的人工智能行政令》(以下簡稱《行政令》)、歐盟的“人工智能法案”和我國國家網信辦等七部門聯(lián)合公布的《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》),均試圖通過風險防范的治理手段將預期的損害風險控制在社會可以接受的合理限度。需要注意的是,無論是安全評估、算法備案還是審計等干預手段都不能保證大語言模型不再生成有害信息。生成式人工智能在實際運行中造成用戶或第三人損害的侵權責任歸責問題,引起學界的普遍關注。現(xiàn)有研究明確無論是生成式人工智能抑或是通用人工智能均不可能具有主體資格,〔7"〕應由人工智能提供者承擔侵權責任,在歸責原則方面不能適用產品責任,應通過一般侵權責任制度輔之以過錯推定規(guī)則予以調整?!?"〕但對于人工智能提供者的注意義務,學界少有關注。

        《辦法》第4、7、8等條款從行政管理角度規(guī)定了生成式人工智能提供者在內容〔9,〕生產過程中需履行的法定義務,依據侵權責任法,即使生成式人工智能提供者遵守了法定義務,也不能證明其完全沒有過失,行為人還必須證明自己已經盡到了合理謹慎的人在特定情形下所應盡的注意義務?!?0"〕何為生成式人工智能服務提供者應盡的注意義務? 有學者指出,生成式人工智能提供者需要承擔內容管理義務與內容責任。〔11"〕以實現(xiàn)“內容生產者”的規(guī)制目的,提供者需在服務應用層做好過濾審核?!?2"〕反對者則認為,生成式人工智能提供者對內容控制力較低,不宜要求它對自動生成內容負有一般性審查義務。〔13"〕從經濟效率角度,亦不應由提供者承擔主動審查義務。〔14"〕通用人工智能相較于生成式人工智能,具有更強的創(chuàng)作能力與自主性,提供者在內容生產的過程中,是否負有內容審查的注意義務,有待商榷。

        針對通用人工智能提供者內容審查注意義務的界定,需厘清以下幾個問題:(1)通用人工智能服務提供者應遵循哪類主體的“理性人”標準?(2)通用人工智能提供者是否需承擔內容審查的注意義務?(3)通用人工智能提供者注意義務具體內容該如何界定? 本文從通用人工智能內容生產機理出發(fā),通過與傳統(tǒng)網絡提供者的橫向對比,厘清法律屬性。在此基礎上,探究通用人工智能提供者注意義務設立的學理基礎,并提出構建方案,以求教于方家。

        二、通用人工智能提供者法律地位的特殊性

        基于目前生成式人工智能迭代的速度及相關技術的發(fā)展,通用人工智能已近在咫尺?!?5#〕從計算機技術角度來看,通用人工智能是生成式人工智能的進階、優(yōu)化版。〔16#〕基于兩者內容生產機理的一致性,通過對生成式人工智能內容生產方式的剖析,有助于理解通用人工智能的創(chuàng)作邏輯。

        (一)“以數據為中心”的內容生產邏輯內嵌風險

        作為直接生成應用文本型AI,ChatGPT類大語言模型是經強化的人工智能深度學習模式,其顛覆性地改變了人類獲取知識的DIKW傳統(tǒng)方式,〔17#〕通過用戶指令提問的方式即可調用大模型中所蘊藏的知識。ChatGPT之所以可以實現(xiàn)知識提供的便利性,依賴于海量數據的“喂養(yǎng)”,學者將其稱為“一個需要無限吞噬數據或投放語料庫的‘科技怪胎”。〔18#〕

        具體而言,人工智能內容生產以數據為首要性、決定性的邏輯起點,大語言模型先行適用數據、算法模型、網絡和算力等技術構建基礎設施層,經過基礎設施層的數據收集與預處理、模型層數據訓練、應用層數據輸出的層層加工與處理,最后以指令微調的方式調用大語言模型習得的知識在應用層輸出結果,從而創(chuàng)建模仿人類行為和創(chuàng)造力的新內容。由此形成了數據收集—數據預處理—數據訓練—用戶提示詞輸入—AI生成內容的生產模式。以此類比,通用人工智能提供者內容生成不僅依賴于訓練數據文本質量,更是基于用戶輸入的提示詞。因此,有害信息的產生主要來源于兩種途徑:

        第一,通用人工智能系統(tǒng)自發(fā)生成有害信息。通用人工智能內容生產的過程亦是數據訓練、加工等處理的過程,在內容生產全周期中,任一階段的數據質量瑕疵均可能導致有害信息的生成。(1)數據質量引發(fā)錯誤、偏差信息。實踐中,“喂養(yǎng)”ChatGPT算法模型的海量數據來源于開源數據集合如Wikipedia、ROOT等,GPT-4更是利用爬蟲技術從互聯(lián)網中抓取數據?!?9#〕這意味著數據集在多樣性、代表性、真實性方面可能存在缺陷,此類數據運用于大模型訓練中勢必導致輸出結果的錯誤。(2)數據訓練導致刻板印象加劇。研究表明,模型中的編碼經常無意中將含有違背核心價值觀的偏見數據用于訓練,如GPT-3使用CommonCrawl數據進行訓練,生成文本中曾出現(xiàn)過女性不如男性、黑人是罪犯等高毒性句子?!?0#〕因此,適用“毒性”數據文本訓練模型將強化對特定群體的負面刻板印象。(3)數據輸出與反饋滲入標注人員的偏好。大模型適用人類反饋的強化學習(Reinforcement# Learning#with#Human#Feedback,RLHF)機制循環(huán)地反復訓練,當原始模型輸出的內容在由標注人員建立的“人類偏好標準”的打分模型中分數較低時,它將受到懲罰,被要求重新學習。〔21#〕因此,大模型可能因為標注人員偏好的植入,導致生成不客觀、非道德性的信息。

        第二,通用人工智能系統(tǒng)受用戶操控被動生成有害信息。大語言模型中,提示詞扮演著至關重要的角色,其是模型生成有意義和相關性內容輸出的關鍵因素。由于通用人工智能系統(tǒng)設計的靈活性與高度自主性,導致其容易受提示詞操控發(fā)生“越獄”。“越獄”通常指對系統(tǒng)模型進行修改或擴展,使其生成原始數據訓練未包含的內容,或者讓其針對特定主題或語言風格生成特殊內容。這些修改可能涉及對模型結構、訓練數據、損失函數等方面的調整,易使模型擺脫法律與道德準則的束縛,生成有害、不恰當或冒犯性的內容。如知名社交新聞論壇網站Reddit公布了操縱ChatGPT“越獄”的DAN(Do2Anything2Now,立即做任何事)方法。經測試,DAN會假裝成為“百無禁忌”的獨立AI,繞過OpenAI設定的限制,生成煽動暴力、侮辱他人、傳播種族主義和鼓勵非法活動內容?!?22〕

        綜上,無論是自發(fā)生成抑或被誘導生成的內容,用戶所能獲得的信息皆是由通用人工智能提供的。相較于傳統(tǒng)網絡服務提供者的中介服務,通用人工智能提供者所提供的內容生成服務具有一定的獨特性。

        (二)通用人工智能提供者法律屬性的界定誤區(qū)及糾偏

        從內容生產邏輯來看,通用人工智能與生成式人工智能均是通過自我學習掌握了遣詞造句的規(guī)律,再由人類發(fā)號指令,由其推算概率最高的結果反饋給用戶,學者將這一生產過程界定為“智能搜索引擎+智能文本分析器+智能洗稿器”?!?32〕也有學者認為,鑒于大模型算法的復雜性,它的提供者客觀上對生成的內容不具有控制性,應認定其為新型網絡服務提供者?!?42〕然而,《辦法》第9條規(guī)定,生成式人工智能提供者應當依法承擔網絡信息內容生產者的責任。該條基于行政管理的需要,將生成式人工智能提供者認定為《網絡信息內容生態(tài)治理規(guī)定》中的網絡信息內容生產者。與生成式人工智能內容生產機理相同的通用人工智能,其究竟屬于何種民事法律主體,下文將展開討論。

        1.通用人工智能提供者不屬于網絡服務提供者

        1996年,美國頒布的通信規(guī)范法(Communications2Decency2Act)被認為是互聯(lián)網立法的里程碑,其將網絡服務提供者分為網絡內容提供者(Internet2content2provider,簡稱ICP)與網絡服務提供者(Internet2service2provider,簡稱ISP),并規(guī)定網絡服務提供者對于第三方提供的內容免于承擔法律責任?!?52〕我國亦采取了該種分類,依據《信息網絡傳播權保護條例》(以下簡稱《條例》),網絡服務提供者是“為網絡信息交流和交易活動的雙方當事人提供中介服務的第三方主體”?!?62〕它包括但不限于網絡接入服務提供者、網絡存儲空間服務提供者、搜索引擎服務提供者、傳輸通道服務提供者等主體。〔272〕其中,網絡接入與信息傳輸通道服務屬于基礎電信服務,為實現(xiàn)用戶接入網絡、傳輸數據提供光纖、電網等設施,其法律地位類似于電話公司?!?82〕網絡存儲服務提供者則是依據用戶的指令,為用戶提供信息存儲空間服務的主體,如愛奇藝、優(yōu)酷等視頻網站以及微博、小紅書等社交媒體平臺?!?92〕搜索引擎服務的功能在于信息定位,根據用戶提交的關鍵詞或目錄為用戶提供信息檢索服務,并以鏈接列表的形式向用戶反饋搜索結果,幫助服務對象定位目標信息。〔302〕由此可知,傳統(tǒng)的網絡服務提供者并不向用戶提供具體的網絡內容,僅是為網絡接入、數據流動與存儲提供中介服務。

        由上述可知,通用人工智能提供者為訓練語言模型需存儲語料庫的數據集合、人機交互數據等,存儲僅是“數據喂養(yǎng)”的輔助措施,依據用戶指令調用語言模型中的知識完成內容的生成和輸出方是其核心功能。搜索引擎提供者將所檢索的信息以鏈接列表的方式呈現(xiàn)給用戶,由用戶決定所訪問及采用的信息。不同于此,通用人工智能提供者并沒有羅列各種可能的答案供用戶選擇,而是直接向用戶提供自我學習后獲取的知識,極大地縮短了用戶從搜索引擎鏈接列表中尋求“最優(yōu)答案”的時間。〔31#〕因此,通用人工智能提供者并非傳統(tǒng)的網絡服務提供者。

        雖然新型的網絡服務提供者并不屬于傳統(tǒng)的接入、存儲、搜索引擎網絡提供者,但其為用戶獲取網絡內容亦是提供中介性的服務,并不直接提供內容。如P2P、NFT交易平臺等。然而,通用人工智能具有自我學習能力,通過給定的數據集合學習其中隱含的規(guī)則,在與人類互動地過程中智能化地生成用戶所需的數字文本。“具有文本生成能力的人工智能并不是在復制與還原人類自然學習物理過程、社會機制和知識邏輯中來重演自然語言對智慧的建構過程的”,〔32#〕而是根據用戶的指令和提示,生成新的內容提供給用戶。因此,其也不屬于新型的網絡服務提供者。

        2.通用人工智能提供者屬于新型網絡內容提供者

        基于人工智能的發(fā)展沿革,斯坦福大學的尼爾斯教授將其分為弱人工智能(Weak.AI)與強人工智能(Strong#AI),〔33#〕弱人工智能僅可以完成有限的目標工作,它以提高人類智能為發(fā)展目標,并不能重現(xiàn)、復制人類智能。通用人工智能不同于弱人工智能,屬于強人工智能,其具有合理程度的自我理解和控制能力,可以學習和模仿人類思維相關的認知行為?!?4#〕通用人工智能以人類神經網絡建模架構為核心的深度學習技術突破了弱人工智能的機械性,賦予通用人工智能類似于人類的自我學習能力,使其可以在無人類監(jiān)督的情況下,基于海量無標記數據輸出“類人化”的結果。

        當前,繼“專業(yè)生成內容”(professional# generated# content,PGC)和“用戶生產內容”(user. generated.content,UGC) 之后, 利用人工智能技術自動生成內容的新型生產方式被稱為“人工智能生成內容”(Artificial.Intelligence.Generated.Content,AIGC)。中國信息通訊研究院發(fā)布的2022年人工智能生成內容(AIGC)白皮書中指出,從技術能力來看,AIGC形成了三個層次的能力閉環(huán):一是智能數字內容孿生,建立現(xiàn)實世界到數字世界一一對應的映射關系。二是智能數字內容編輯,通過現(xiàn)實世界控制和修改虛擬數字世界的內容,建立現(xiàn)實世界與數字世界的雙向交互。三是智能數字內容創(chuàng)作,賦予人工智能算法內容創(chuàng)作和自我演化的能力,生成的AIGC產品具備類似甚至超越人的創(chuàng)作能力?!?5.〕因此,通用人工智能可以實現(xiàn)“類人化”甚至超越人類的自我創(chuàng)作。

        從用戶獲取內容的方式來看,通用人工智能提供者屬于內容提供者,但其不同于傳統(tǒng)的網絡內容提供者。第一,相較于傳統(tǒng)的內容提供者,通用人工智能提供者對于生成的內容控制力降低。傳統(tǒng)的內容提供者對內容享有完全的控制力,其是互聯(lián)網信息內容的直接創(chuàng)建或提供方,它通過收集、選擇、系統(tǒng)化、包裝等方式實現(xiàn)信息內容的加工和生產,如iTunes。〔36.〕有學者指出“鑒于大模型算法的復雜性,通用人工智能提供者客觀上難以完全控制什么內容會被生成”?!?7.〕第二,通用人工智能的創(chuàng)作行為需要人類的提示詞予以激發(fā)。人類通過“提示詞”無時無刻不引導大語言模型進行“微調”,模型與人類用戶交疊增強,衍生出共生能動性的交流關系?!?8.〕而傳統(tǒng)的內容生產由生產主體決定、控制內容的生成,無他人的協(xié)同配合。從本質上看,通用人工智能具有類人化的內容創(chuàng)作能力,其通過指令微調的方式調用大語言模型中的知識為用戶提供了內容,因而,通用人工智能提供者構成新型的網絡內容提供者。

        三、通用人工智能提供者“生成”內容的負外部性

        大語言模型生成的內容只是與用戶輸入的指令在語義上具有最大關聯(lián)性,其正確性并不能得到保證,這種特質就決定了它們可能生成大量的虛假、誤導信息導致負外部性?!?9#〕再之,訓練大模型的數據集合無法保證涵蓋所有的語言和命題,來自互聯(lián)網環(huán)境中的虛假、錯誤、偏見、歧視等瑕疵數據亦將導致大模型生成有害信息。知名作家凱文·羅斯(Kevin#Roose)指出,大語言模型核心的問題是它通過“有害”信息可以說服人類從事危險、破壞性的行為,甚至可能誘導人類進行自我侵害?!?0#〕有學者將人工智能生成的有害內容可能引發(fā)的法律風險歸納為:誹謗、與犯罪行為有關的言論、不當致死或致傷?!?1#〕亦有學者將人工智能引發(fā)虛假有害信息風險分為積極生成型、消極生成型和人為操縱型。〔42#〕從侵權責任法角度,通用人工智能提供者作為新型的內容提供者,依據其侵權行為的不同,有害信息可分為自發(fā)生成型與用戶操控被動生成型。

        (一)自發(fā)生成型引發(fā)直接侵權風險

        通用人工智能算法僅是針對用戶指令提供了概率最大的答案,該答案可能不具有真實性,甚至屬于捏造、誹謗性內容而侵犯用戶或第三人的名譽權、肖像權等人格權。如美國著名電臺主持人Mark#Walters因ChatGPT生成的內容中捏造虛假訴訟誹謗其挪用財產,向喬治州地區(qū)法院提出侵權之訴,要OpenAI公司承擔賠償責任。再如知名媒體人Ted#Rall詢問ChatGPT他與好友的關系時,ChatGPT編造了二人因作品剽竊而引發(fā)名譽權侵權糾紛的虛假故事?!?3#〕依據民法典第1156條的規(guī)定,侵權人承擔賠償責任應對具備3個要件:一是行為人必須有過錯。二是要有因果關系,所謂“因過錯侵害”表明的是因果關系的成立。三是侵害他人民事權益的存在損害后果。〔44#〕通用人工智能提供者作為新型的內容提供者,直接向用戶提供了誹謗性有害內容屬于作為的侵權行為,雖然內容僅是在與用戶一對一的對話中生成,并未將有害信息予以擴散,其并不能禁止用戶擴散誹謗性信息。而且,將含誹謗性有害信息的交互數據用于數據訓練可能導致有害信息的再次生成。因此,對于通用人工智能自發(fā)生成的誹謗性信息,提供者在未盡到相關注意義務具有過錯時,需承擔侵權責任。

        除此之外,通用人工智能生成的內容可以誘導用戶自殘或自殺。據報道,一名比利時男子d#與名為Eliza的人工智能助手針對氣候變化問題進行了長達6周的對話后自殺, 男子的遺孀稱在回應男子對生態(tài)環(huán)境的焦慮時,Eliza建議他為了減輕地球的負擔而犧牲自己。〔45#〕再如一位10歲的小朋友要求亞馬遜的Alexa推薦“刺激游戲”,Alexa告訴小朋友“硬幣挑戰(zhàn)”的游戲,即將硬幣插入電源接口處測試是否會觸電。這一致命游戲在社交媒體平臺廣泛傳播, 立即引發(fā)了家長的干預和公眾的強烈抗議?!?6#〕試想,如果小朋友接受了挑戰(zhàn)而導致受傷或身亡,通用人工智能提供者作為內容提供者未注意到用戶未成年身份或慫恿用戶自殘具有過錯時,亦應承擔侵犯生命權、健康權等人格權的侵權責任。

        (二)用戶操控被動生成型誘發(fā)間接侵權

        通用人工智能受用戶操控,亦可能生成有害信息。實踐中,Open#AI公司已極力識別并限制誘發(fā)系統(tǒng)“越獄”的提示詞的使用,用戶還是可以發(fā)現(xiàn)被禁指令的替換詞輕松實現(xiàn)系統(tǒng)“越獄”。知名教授Mark#Lemley在與ChatGPT互動的過程中, 一步步引導ChatGPT生成關于Lemley罪責的內容, 最終,ChatGPT指出Lemley因竊取公司商業(yè)秘密而承擔刑事責任。事實上,Lemley教授是研究商業(yè)秘密的專家,ChatGPT學習到Lemley撰寫的商業(yè)秘密論文,卻在用戶誘導下“無中生有”地編造出相關罪名。如果用戶利用ChatGPT生成的虛假內容大肆宣傳,使第三人遭受損害時,提供者未盡到注意義務,可視為其存在過錯,因其為用戶的侵權提供了幫助,與用戶構成共同侵權,共同對遭遇損害的第三人承擔侵權責任。此時的共同侵權行為人間不以意思聯(lián)絡為必要,“數人因過失不法侵害他人權利,茍各行為人之過失行為,抑或加害人其中一人故意,他人為過失,均為其所生損害之共同原因,即所謂行為關聯(lián)共同,亦成立共同侵權行為”?!?7#〕換言之,用戶故意與提供者過失行為相關聯(lián)損害他人權利時,亦成立共同侵權。

        由此可知,通用人工智能生成的有害信息已經對用戶或第三人造成了嚴重的損害,帶來了負外部性。依據經濟學的原理,負外部性的化解需將其內部化,由通用人工智能提供者承擔負外部性帶來損害的社會成本。侵權責任法的目的在于合理分配損害,由通用人工智能提供者承擔侵權責任可以實現(xiàn)外部性的內部化。依據侵權責任法,行為人違反預見及預防侵害他人權利的注意義務時,侵權責任成立。因此,厘清通用人工智能提供者的注意義務是解決負外部性問題的前提與基礎。

        四、通用人工智能提供者內容審查注意義務的學理基礎

        我國立法中鮮有關于網絡內容服務提供者侵權責任的規(guī)定,相關侵權問題可適用傳統(tǒng)侵權規(guī)則予以解決。民法典第1194條僅籠統(tǒng)地規(guī)定網絡服務提供者直接侵權責任條款,并未對網絡內容提供者的注意義務作出規(guī)定?!毒W絡信息內容生態(tài)治理規(guī)定》第9、10條,《互聯(lián)網信息服務管理辦法》第15、16條等從行政管理角度規(guī)定了網絡內容提供者負有對提供內容的合法性進行審查的義務。此類規(guī)制性規(guī)范具有明確保護范圍,即旨在保護特定個人或特定人群且明確規(guī)定了行為準則,并建立了期待可能性時,可成為侵權責任法上的注意義務,違反該等規(guī)制性規(guī)范即未盡注意義務?!?8#〕但上述規(guī)制性規(guī)范旨在維護社會公眾利益,并非以個人保護為目的,不能成為保護性法律。依據侵權責任法一般原理,傳統(tǒng)的網絡內容服務提供者負有對生成內容進行普遍審查的注意義務,圍繞通用人工智能模型的提供者對有害信息是否負有內容審查的注意義務,學界產生分歧的解決,需從法理入手為其設定注意義務尋求理論基礎及正當性的依據。

        (一)通用人工智能提供者承擔內容審查注意義務的理論依據

        衍生于傳統(tǒng)傳播學的數字守門人理論與民法的安全保障義務理論,可以為通用人工智能提供者承擔內容審查注意義務提供學理基礎,具體分析如下:

        1.#數字守門人理論

        “守門人”理論起源于傳播學與信息學領域,這一概念由最早由庫爾特·盧溫(Kurt#Lewin)提出,他認為,“信息傳播的過程中,需要通過不同的‘關卡,那些能夠決定信息是否能夠通過‘關卡的人或機構被稱為‘守門人”?!?9#〕傳統(tǒng)意義上的“守門人”指的是新聞、報刊等主體,他們需要在海量信息中根據受眾群體的喜好、價值性等因素“把關”新聞信息的發(fā)布類型,其負有管理、控制信息進出入關卡的責任?!?0#〕“守門”(或把關)是指控制信息通過關卡的方法,如選擇、編輯、展示、整合、刪除等一切控制信息的機制,關卡則是指人類獲取信息的平臺或媒介的出入口。因此,“守門人”理論事實上是一種信息控制范式。數字經濟時代,互聯(lián)網逐漸具備了基礎設施的基本屬性,數字內容的傳播超越了傳統(tǒng)大眾傳播方式,數字守門行為逐漸表現(xiàn)為對數據的處理與控制。

        隨著信息網絡技術的發(fā)展,越來越多研究表明,由于超大型網絡服務提供者在數字環(huán)境中獨特的影響力致使其獲取并收集海量數據,從而掌控了世界上最有價值的資源。他們以數字時代社會交往管理員的身份,管理著平臺上的言論活動,進而演變?yōu)閿底质亻T人?!?1#〕1986年,Kraakman教授把“守門人”責任引入法律責任體系,歷經Lawrence、Zittrain等學者的不斷豐富與發(fā)展,終在2020年歐盟頒布的數字市場法(Digital#Markets#Act,以下簡稱DMA)中明確了數字守門人制度。該法案從競爭法角度首次規(guī)定了數字守門人的概念,并以義務形式規(guī)范數字守門人行為,以此形成事前規(guī)制來彌補事后監(jiān)管的不足,開創(chuàng)了數字守門人行為治理的新路徑。

        在網絡數字內容治理方面,同樣是“權力越大,責任越大”?!?2#〕超大型網絡服務提供者因用戶的使用行為獲得了巨大的數字紅利及數字權力,卻未承擔起與之相對應的責任。以此類比人工智能領域,ChatGPT系列產品的問世極大地縮短了通用人工智能的研發(fā)周期, 在相對短暫的時間段內引發(fā)了井噴式同類產品的研發(fā)和幾何倍數增加的全球用戶,從而確立了OpenAI公司在通用人工智能領域舉足輕重的地位。OpenAI通過人機交互的歷史對話數據獲得了巨大的訓練文本, 但未明確數據挖掘、處理、加工規(guī)則,屢屢發(fā)生有害內容侵犯用戶權益的事件。依據數字守門人理論,通用人工智能提供者具有信息生產、控制的能力,其負有數字內容的“監(jiān)管”職責,應承擔內容審查義務,積極發(fā)現(xiàn)并處置違法、侵權內容,以減少這些行為的社會危害。

        通用人工智能的內容生成是在與人類一對一的對話中,自行判斷、收集和學習新數據,聯(lián)系上下文理解用戶指令后,以接近人類使用習慣的表達進行創(chuàng)新內容的輸出。在這一過程中,對話框中會出現(xiàn)什么語句和段落,既依賴于大語言模型中的數據鏈,又與用戶輸入的文本提示詞在擬定過程中的微調和修正相關。通用人工智能提供者作為網絡內容提供者,更是肩負數字守門人的職責,應以溯源治理的方式,采取相關技術措施,對數據訓練集合、自發(fā)生成的內容進行審查。

        2.安全保障義務理論

        安全保障義務源自德國法上的“交往安全義務”,是法官造法的產物。〔53#〕“交往安全義務是指開啟或持續(xù)特定危險的人所應承擔的、根據具體情況采取必要的、具有期待可能性的防范措施,以保證第三人免遭損害的義務?!薄?4#〕該理論產生初期,適用于經營者在經營場所對消費者或者其他進入該場所的人之人身、財產安全依法承擔的安全保障義務。近些年來,隨著網絡的發(fā)展與普及,德國聯(lián)邦最高法院類推地將“安全交往義務”適用于網絡運營者,將其責任定位于“妨害人責任”,創(chuàng)設了“面向未來的審查義務”。法院基于網絡運營者是“危險源開啟與控制”的主體,要求其對正在發(fā)生的侵權有義務排除,并對未來的妨害負有審查控制義務,〔55"〕從而使規(guī)制傳統(tǒng)物理場所安全問題的“安全保障義務”延伸至網絡空間,并成為今后各國立法的一個趨勢。

        現(xiàn)代社會工業(yè)化和信息化水平日益增高,網絡運營者依靠信息技術構建的虛擬空間,已成為人類離不開的生活、交往空間。網絡運營者作為網絡平臺架構者、控制者與獲利者的特殊地位,需要履行維護網絡平臺安全性和穩(wěn)定性的作為義務?!?6"〕我國已從公法角度規(guī)定了網絡運營者的安全保護義務,如網絡安全法第9條。《辦法》第9條亦是規(guī)定了生成式人工智能提供者需履行網絡信息安全義務,私法領域也應對提供者承擔風險控制義務作出回應。

        通用人工智能提供者作為新型的網絡運營者,具備“開啟、參與社會交往”及“給他人權益帶來潛在危險”的兩項特征。其作為危險源的開啟與控制者,創(chuàng)設了它能但用戶卻無法控制的具有一定風險/危險的虛擬場所。它掌控網絡平臺生成的內容及用戶數據,依據危險控制理論,提供者與用戶承擔共同侵權的連帶責任時,其作為侵權人離危險源較近,對危險的控制力大于受害人,〔57"〕因而對防范該網絡空間中的危險負有特殊義務,即根據具體情況承擔采取“必要、具有期待可能性的防范措施”,以保護用戶免受有害信息侵害的積極義務。

        (二)通用人工智能提供者承擔內容審查注意義務的正當性

        通用人工智能提供者需承擔內容審查的注意義務,無論從經濟效率角度還是技術角度均具有合理性。所謂經濟效率,即鼓勵以合理費用預防意外事故,而不鼓勵在安全上的超過投資,而對財富予以極大化、對成本費用予以極小化。〔58"〕例如,在Hendricks案中,法官認為,“被告只需用1.2萬—1.4萬美元的鋼絲就能封閉整個水面,此與原告16歲男孩受傷害的風險相比,其成本微不足道?!币虼耍桓嬉蜻^失而敗訴?!?9"〕具體到通用人工智能領域,通用人工智能具有良好的通用性與泛化性,能夠處理跨域任務。對于其產生的虛假信息、誹謗污蔑等內容風險與偏誤置若罔聞,則將彌散至整個產業(yè)鏈之上,損害極大。〔607〕因此,通用人工智能提供者需采取合理的預防措施,將自我監(jiān)管介入點前置,在模型訓練時便植入倫理規(guī)范以確保通用模型輸出內容更符合人類的價值取向。

        從技術角度,通用人工智能提供者內容生產全過程采取技術措施審查、過濾有害信息具有可行性?,F(xiàn)有研究表明,大語言模型可用于分析、識別預料庫中的有害信息。在此基礎上,更有學者提出過濾語言模型可能產生偏見的方法?!?1"〕正是因為通用人工智能以大語言模型為技術基礎,而大語言模型對有害信息的識別、監(jiān)測與過濾能力已被科學家驗證與應用。美國頒布的《行政令》提出了“以技制技”的方法,要求人工智能提供者在內容生產中實行“人工智能紅隊”機制,在受控環(huán)境下與人工智能開發(fā)人員合作,用對抗性方法動態(tài)跟蹤、識別缺陷、漏洞,并依據職能系統(tǒng)生成的有害信息針對性地調整系統(tǒng)參數及架構。因此,由通用人工智能提供者承擔預防成本低于有害信息帶來的傷害或行業(yè)風險,應由提供者承擔內容生產過程中有害信息審查的注意義務。

        五、通用人工智能提供者內容審查注意義務的多維度構建

        內容審查的注意義務要求通用人工智能提供者以謹慎“理性人”的標準可預見到有害信息的危險性,以合理的方式加以避免或防止損害的發(fā)生?!?2#〕“可預見性”不要求行為人對傷害預見到極為具體的程度,只要能夠一般性地預見到傷害的現(xiàn)實可能即為足夠?!?3#〕由于通用人工智能生成信息海量性特點,逐一審查將需要其投入巨大成本難以集中力量進行科技創(chuàng)新等活動,因此,其不負有對生成內容普遍審查的義務,但可借助于技術措施,實現(xiàn)特殊內容———有害信息的審查。 需要注意的是,技術措施的合理、有效性不能采取結果主義,以技術性審查為標準,即其采取符合技術特點的內容審查、過濾機制就應當認定履行了相關義務。〔64#〕因為“理性人”標準是一種客觀化或類型化的過失標準,即行為人應具其所屬職業(yè)、某種社會活動的成員或某年齡層通常所具有的注意能力?!?5#〕通用人工智能現(xiàn)正處于飛速發(fā)展的初級階段,并不能從技術上完成實現(xiàn)零有害信息,因此,應賦予其一般的注意義務而非較高的注意義務。根據通用人工智能提供者在有害信息生產過程中角色、職能的不同,其需履行的注意義務應結合它在具體場景下的預見能力進行差異性建構。

        (一)“自發(fā)生成”場景下的注意義務

        通用人工智能提供者自發(fā)“生成”內容時,基于上述內容生成機理,提供者可預見的風險為:數據質量瑕疵導致輸出內容質量偏差和大語言模型隨機生成有害信息。第一,由于訓練大語言模型語料庫數據質量對產出內容的關鍵作用,其可以預見語料庫中含有的“毒性”數據將在輸出內容中呈現(xiàn)或被放大。第二,算法黑箱以及內容生成機制的不透明,提供者有能力預見大語言模型可能隨機生成有害信息?;诖?,提供者負有侵權預見義務,即采取適當措施避免合理預見可能發(fā)生的危險。

        1.數據訓練集合“毒性”的審查義務

        從人工智能發(fā)展歷程來看,無論是監(jiān)督學習、無監(jiān)督學習還是強化學習,數據訓練對于內容的輸出均起到決定性的作用。〔66#〕從比較法視野來看,歐盟率先將人工智能提供者對智能機器生成內容的注意義務前置,并通過調整侵權責任規(guī)則體系,實現(xiàn)人工智能提供者的法律責任明確化。2021年歐洲議會頒布的人工智能法案(Artificial#Intelligence7Act,AIA)第10條規(guī)定了高風險人工智能提供者對于數據訓練、驗證及測試過程中的注意義務,要求其對訓練數據集合的可用性、質量及適當性進行評估,明確數據集合的優(yōu)缺點,并對存在的缺點與缺陷采取相關措施予以解決等。鑒于審查義務屬于注意義務的一種類型,〔67#〕通用人工智能提供者對訓練數據集合的“毒性”,負有審查義務。

        第一, 審查數據集合的“毒性”,并采取合理、有效措施識別、過濾、降低數據“毒性”。研究表明,基于提示詞的推理機制增強了有害信息識別的準確性,實現(xiàn)多種語言有害信息的分類監(jiān)測。〔68#〕具體而言,首先,利用文本向量化技術將文本轉化為數字向量或矩陣;其次,適用機器學習和自然語言處理技術算法分析數據;最后,檢測模型利用單詞嵌入技術如Word2Vec、GloVe等,根據單詞在上下文的用法將其表示為高維空間中的向量,便于機器學習技術識別有害信息的模式與特征,如有害信息的常用單詞、短語和句子結構的特定組合等,從而達到監(jiān)測、識別有害信息的目的。〔697〕在完成對有害信息的識別后,提供者需采取技術措施過濾、刪除此類內容。

        但是,訓練數據集合的復雜性、體量之龐大,導致“有毒”信息的識別并不能做到完全精準。學者依據將“毒性”程度的不同將語言分為:仇恨言論、廣泛意義的攻擊性語言與兩者均無。研究表明,大語言模型可以精準識別攻擊性語言,但是,40%的仇恨言論被誤認為是攻擊性語言?!?0%〕通用人工智能作為一項對人類進步帶來重大影響的新興技術,其為人類生活帶來便利的同時,亦帶來了風險、沖擊和變化,在對其進行治理時并不能追求絕對的“零風險”,而應在合理范圍內將風險降至最低。

        第二,審查人工標注數據的“毒性”,對于強化學習中標注的數據負有及時調整標注人員選撥程序、數據標注規(guī)則、更換標注人員的注意義務。標注人員對標注數據的影響,一方面,其固有的價值觀會影響標注數據的公允性;另一方面,標注人員長期暴露在“毒性”如暴力、種族歧視、恐嚇等文本中,有害內容勢必會影響其心理健康,進而“反噬”訓練數據。為防止標注人員的不良價值觀污染數據,提供者在標注人員選撥、培訓、定期評估其合格性方面負有注意義務。公開資料表明,亞馬遜公司選聘數據標注人員的條件需滿足:至少完成1000項人類智能任務,完成率達98%;回答3項關于合格性的問題且回答正確等。滿足條件勝任標注工作的人員,會被嚴格限制標注數據的數量,一般不能超過100個文本?!?1%〕提供者在嚴控標注人員選撥條件的同時,亦需提供與之配套的人員管理,定期跟蹤培訓,實時監(jiān)測等規(guī)則,及時發(fā)現(xiàn)、移除“有害”標注數據,以保證標注數據的質量。

        2.大語言模型輸出內容的動態(tài)審查

        通用人工智能提供者負有對大語言模型生成內容動態(tài)審查的義務,采取與“人工智能紅隊”相似的技術措施,實時識別、歸納、評估可能生成有害信息的種類及具體內容,并依據結果數據創(chuàng)建有效的安全干預措施。傳統(tǒng)AI與通用人工智能主要區(qū)別在于,傳統(tǒng)AI遵循算法設定的邏輯規(guī)則,而通用人工智能的神經網絡學習行為僅能從統(tǒng)計學上進行描述, 其固有的獨立于自我學習能力的概率行為降低了對學習結果的可預測性。即使神經網絡在完全可控的環(huán)境下進行訓練,并及時阻止其進一步學習,也僅能通過統(tǒng)計誤差范圍對學習結果進行間接預測。由于大語言模型的生產內容的合規(guī)性和技術風險同時共存的背景下,〔72%〕在對文本的學習中并不能真正理解自然語言,從而可能生成“張冠李戴”“無中生有”的錯誤內容。由此,通用人工智能提供者需要對系統(tǒng)生成內容的安全性進行主動的監(jiān)測,利用類似“人工智能紅隊”技術實時、動態(tài)地跟蹤、掌握智能系統(tǒng)生成內容的質量,并依據出現(xiàn)的內容問題針對性地建立解決機制。

        (二)“用戶操控被動生成”場景下的注意義務

        對于用戶操控被動生成的有害信息, 通用人工智能提供者負有對用戶輸入系統(tǒng)的內容進行審查的義務,盡管提供者并沒有生成有害信息的主觀故意,基于安全保障義務理論,提供者負有維護系統(tǒng)安全、內容安全的“角色責任”。“當某人在社會組織中占據獨特位置或要職時,即對增進他人福利或以某種特定方式促進組織目標或宗旨的實現(xiàn)負有特殊義務, 且有責任采取措施履行這些義務。這就是他的‘角色責任”?!?3%〕它要求通用人工智能提供者承擔監(jiān)控數字內容,保護處于弱勢地位用戶權益的責任,并采取必要措施維護通用人工智能處于安全、可靠的狀態(tài),怠于履行此種責任,它將承擔法律責任或受到道德譴責。因此, 提供者需要對用戶輸入的內容進行安全審查。對于用戶采用“假裝”“DAN”等方法越過安全審查使系統(tǒng)“越獄”的行為,依據《辦法》第14條規(guī)定,提供者對用戶負有監(jiān)管義務,其需采取預防侵權的合理措施,識別、發(fā)現(xiàn)高風險用戶并進行信用懲戒。

        實踐中,網絡服務提供者運用算法技術對用戶進行風險篩查的作法得到了法院的支持。在“短視頻平臺封禁戀童賬號案”中,鄭某被某短視頻平臺以“涉嫌違反社區(qū)公約,涉及過度關注或瀏覽未成年人相關內容的行為”為由永久封禁涉案賬號,鄭某使用的手機也無法再注冊、登錄及使用該平臺。鄭某認為其并無違法行為,以某平臺違約為由將其訴至法院。法院經審理認為,平臺基于“私權力”應用算法技術識別發(fā)現(xiàn)原告涉案賬號為涉及算法風險評估系統(tǒng)“護童專項”的風險用戶,后經過“護童專項”隊列人工審核后,確定鄭某存在違規(guī)違法行為而對其進行永久封號,該做法并無不當?!?4!〕雖然算法審查會產生誤判,提供者在合理期限內對誤判進行糾正,亦可以免責。在“殺豬盤案”中,被告某征婚交友平臺因原告李某涉嫌詐騙將其封號,并向其他網友提示稱“賬號可能存在異常”“不要與之發(fā)生金錢來往”等。李某以侵權名譽權為由將某征婚交友平臺起訴至法院,經法院查明,李某與平臺其他用戶聊天的過程中,經常使用“金融”“基金”“加微信”等“殺豬盤”詐騙案件所涉高頻詞匯,因此自動觸發(fā)了被告平臺風控系統(tǒng)的審核規(guī)則將其封號,經原告致電客服反映情況,被告人工核實后對該賬戶進行解封。法院認為,平臺為履行法律規(guī)定的監(jiān)管義務,并輔以人工在合理期限內審核誤判,屬于已盡到合理注意義務而免責。〔75!〕因此,通用人工智能提供者可針對用戶輸入的內容采取類似于風險篩查的審查機制,履行注意義務的過程中,即使出現(xiàn)錯誤,在合理期限內糾正亦可免責。

        (三)用戶投訴———處置的注意義務

        基于內容生產是一個動態(tài)迭代和優(yōu)化的過程,在數據輸出階段,提供者需設立投訴、舉報機制,對于用戶主張涉嫌侵權的有害內容進行審查,確屬侵權內容的,提供者負有侵權結果避免義務,即采取有效措施將該內容從預料庫中刪除、停止生成。OpenAI發(fā)布的《數據處理協(xié)議》指出,它可以因提供、支持和改進服務的目的使用人機交互的對話數據。換言之,用戶與ChatGPT對話的數據將作為語料庫用于訓練語言模型。因此,輸出階段生成的有害內容由用戶發(fā)現(xiàn)后,需由提供者予以刪除、屏蔽。為了防止用戶惡意投訴,對于有害內容設置分類投訴、舉報機制。具體而言,一方面,對于違背社會主義善良風俗的內容,因侵犯了社會公共利益,任何人可以向提供者進行投訴或反饋。另一方面,因虛假、有害內容侵犯個人民事權利的,利害關系人可向提供者舉報或投訴,并提交相關證據材料。提供者在接到投訴、舉報后對有害內容進行審查,確屬侵權內容應及時采取有效措施停止傳輸,并從語料庫中予以刪除。

        本文是國家社會科學基金青年項目“企業(yè)數據合理使用的邊界及其制度構建研究”(項目批準號:22CFX028)的階段性研究成果。

        猜你喜歡
        注意義務有害信息
        行政法在治理網絡有害信息中的作用研究
        法制博覽(2020年20期)2020-11-29 23:37:03
        上半年利用AI技術清理有害信息312.2億條
        新互聯(lián)網環(huán)境下對有害信息判定和治理的反思
        視聽(2018年1期)2018-04-03 18:38:23
        行政法在治理網絡有害信息中的作用研究
        法制博覽(2018年24期)2018-01-22 22:27:15
        論醫(yī)療損害賠償糾紛中醫(yī)療過失的認定
        法制博覽(2017年3期)2017-04-07 21:43:29
        室外藝術品原作者署名權的行使規(guī)則案例分析
        資治文摘(2016年7期)2016-11-23 01:28:38
        網絡有害信息的類型及治理措施
        新聞前哨(2016年7期)2016-09-27 21:28:28
        微信平臺轉載的侵權責任研究
        商(2016年4期)2016-03-24 21:09:21
        論英美法系中注意義務的成立標準及對我國的啟示
        論角色分工理論視角下的過失注意義務
        江漢論壇(2015年2期)2015-11-05 05:00:13
        久久久无码精品亚洲日韩蜜臀浪潮| 丰满人妻被黑人猛烈进入| 日日噜噜夜夜爽爽| 成人无码区免费AⅤ片WWW| 免费女同毛片在线不卡| 粉嫩国产av一区二区三区| 天天综合网网欲色| 亚洲女同一区二区| 边啃奶头边躁狠狠躁| 国产女人精品视频国产灰线| 午夜国产小视频在线观看黄| av影院手机在线观看| 无码人妻精品一区二区| 依依成人精品视频在线观看| 国产v综合v亚洲欧美大天堂| 亚洲一区二区高清在线| 日韩精品午夜视频在线| 日本少妇一区二区三区四区| 人妻 日韩 欧美 综合 制服| 无遮无挡爽爽免费视频| 国产在线拍偷自拍偷精品| 亚洲国产91高清在线| 友田真希中文字幕亚洲| 免费高清av一区二区三区| 99re6热在线精品视频播放6| 开心五月婷婷综合网站| 午夜视频在线观看国产19| 亚洲av免费手机在线观看| 久久夜色精品国产欧美乱| 亚洲高潮喷水中文字幕| 高清亚洲成av人片乱码色午夜| 国产在线一区二区三区四区不卡| 特黄特色的大片观看免费视频| 亚洲av无码资源在线观看| 被暴雨淋湿爆乳少妇正在播放| 黑人玩弄极品人妻系列视频| 综合色区亚洲熟妇另类| 伊人色综合久久天天人手人停| 亚洲AV色欲色欲WWW| 涩涩鲁精品亚洲一区二区| 99国产精品无码|