陸華清
(中國政法大學公正司法研究中心 北京100088)
隨著信息技術的快速發(fā)展,“人工智能(AI)+X”逐漸影響著人們生產、生活的各個領域。在2020世界人工智能大會上,學術界、產業(yè)界人士從不同視域出發(fā),探討了人工智能發(fā)展的前沿問題。其中,由微軟人工智能小冰作曲,多個人工智能角色共同獻唱的《智聯(lián)家園》開幕式主題曲讓人印象深刻。事實上,早在2017年微軟小冰就發(fā)布了詩集《陽光失了玻璃窗》。整體上,這些人工智能作品幾乎與自然人作品不分伯仲。如果僅僅通過審查作品的文字陳述,人們往往很難區(qū)別出人工智能作品與自然人所創(chuàng)作的作品。由此可見,人工智能已經(jīng)具備了一定水準的創(chuàng)作能力。進一步而言,人工智能參與文字、藝術創(chuàng)作將是大勢所趨,這種大趨勢對新聞傳播領域的影響尤其重大。與通常所見聞的寫稿機器人不同,未來人工智能所參與創(chuàng)作的新聞不再僅僅是事實和客觀數(shù)據(jù)的簡單疊加,而是具有獨立認知分析視角的報道,其中甚至可能會裹挾著大量的價值判斷。正如有學者所指出的,寫稿機器人至多是新聞從業(yè)者的輔助工具,而未來人工智能可能生成富于思想性、創(chuàng)造性的報道[1]。由于人工智能所具有的諸多優(yōu)勢,例如創(chuàng)作高效、場景定位精準、分析視角廣闊等,“人工智能+傳媒”必將為新聞傳播行業(yè)帶來更為廣闊的前景。當然,機遇與挑戰(zhàn)并存。在這種大背景之下,人工智能新聞的法律規(guī)制便成為一個關鍵議題,唯有解決好這一議題,人工智能新聞產業(yè)才能夠健康發(fā)展。
大體來講,人工智能新聞法律規(guī)制的基本框架可以圍繞三個技術層面來搭建,即基礎數(shù)據(jù)、算法、新聞作品。在以往的研究中,研究者更多將目光集中在人工智能作品本身,而忽視了該作品背后的生成機制和結構要素。人工智能新聞是基于數(shù)據(jù)和算法所生成的作品,因此,其法律規(guī)制應當分別從這三個技術層面依次推進。在每一個技術層面,都會涉及一系列關鍵的法律要素,例如,法律主體、確權或侵權關系、法律歸責等具體問題??梢哉f,這三個技術層面是人工智能新聞法制建構的骨架。人工智能新聞作品的法律規(guī)制必須以其內在技術構造為基礎,否則我們就無法有效地解決人工智能新聞所引起的相關法律問題。
大數(shù)據(jù)之“大”不僅指數(shù)據(jù)庫體量大,更意味著我們擁有海量數(shù)據(jù)源,離開了基礎數(shù)據(jù),人工智能新聞將成為無源之水、無本之木。可以說,基礎數(shù)據(jù)決定了人工智能新聞的實質內容。人工智能新聞作品,實際上是基于終端設備所采集的相關數(shù)據(jù),通過對這些數(shù)據(jù)進行結構化分析,進而最終形成的作品。究其實質,人工智能新聞內容就是對數(shù)據(jù)內容的一種算法解讀,無論人工智能新聞最終以怎樣的形式展現(xiàn),其背后的數(shù)據(jù)才是根基。在基礎數(shù)據(jù)層面,對人工智能新聞的法律規(guī)制需要解決兩個重要問題:第一,人工智能新聞所利用的基礎數(shù)據(jù)是否具有在先權利人,即這些基礎數(shù)據(jù)的權屬應當事先得到確定;第二,人工智能新聞對相關基礎數(shù)據(jù)的利用是否會侵犯在先權利人的合法權益。盡管目前學術界對數(shù)據(jù)權的權利屬性尚存在不小爭議,但對數(shù)據(jù)主體的權利保護需求已經(jīng)達成基本共識。因此,在利用數(shù)據(jù)進行新聞創(chuàng)作時,首先應當關注數(shù)據(jù)權利保護問題。
大體上,人工智能收集新聞數(shù)據(jù)的方式主要有兩種:第一,直接收集,即通過一系列傳感器和行為追蹤器直接采集數(shù)據(jù),并將數(shù)據(jù)轉換為自然語言或可理解符號。例如,虛擬主持人進行現(xiàn)場播報時可實現(xiàn)數(shù)據(jù)的直接收集。第二,間接收集,即在既有網(wǎng)絡數(shù)據(jù)中進行自動篩選、甄別,提取有價值的信息。例如,Newlab和STAT News兩家公司聯(lián)合開發(fā)的新冠疫情追蹤者(Applied XL COVID-19 Tracker)就采用了計算新聞方法來收集各類結構化和非結構化數(shù)據(jù)[2]。無論是直接收集,還是間接收集,都可能涉及在先權利人。在先權利人的數(shù)據(jù)權利決定了相關數(shù)據(jù)收集行為是否合法,進而也決定了已收集數(shù)據(jù)是否能夠使用以及使用范圍、目的等。通常來講,數(shù)據(jù)采集的場景化決定了采集行為是否符合法律規(guī)范。有些數(shù)據(jù)由于涉及個人敏感信息,因而在進行數(shù)據(jù)采集時,應當盡量避免采集這類數(shù)據(jù)。即便采集到這些數(shù)據(jù)信息,也必須在進行脫敏之后才能夠使用。對人工智能基礎數(shù)據(jù)的審查,首要的步驟便是對這些收集行為或活動的審查。
所謂“在先權利人”,實際就是數(shù)據(jù)歸屬主體。在實踐中,數(shù)據(jù)歸屬主體呈現(xiàn)著多元化狀態(tài)。例如,有學者將數(shù)據(jù)歸屬主體劃分為個人信息主體、企業(yè)信息主體、公共信息主體等。個人、企業(yè)和政府組織均在一定范圍內享有相應的數(shù)據(jù)權,他們所享有的這些數(shù)據(jù)權,決定了人工智能在進行數(shù)據(jù)收集時,能否合法收集并使用相關數(shù)據(jù),《網(wǎng)絡安全法》《數(shù)據(jù)安全法(草案)》等相關法律法規(guī)文件均要求采取合法、正當方式收集數(shù)據(jù),特別當涉及個人信息數(shù)據(jù)時,收集者應當獲得個人信息主體的同意。無論是明示同意還是默認同意,個人信息主體之同意是人工智能采集數(shù)據(jù)的合法性前提。實踐中,有些人工智能設備或軟件在網(wǎng)絡上大量爬取個人信息(包括個人敏感信息),直接侵害了個人信息權。除此之外,企業(yè)數(shù)據(jù)權一般被認為是企業(yè)的財產性權利,人工智能所收集的數(shù)據(jù)必須以尊重企業(yè)數(shù)據(jù)權利為前提。通常情況下,僅當涉及公共數(shù)據(jù)時,相關收集行為不受特定限制[3]。人工智能新聞的前置數(shù)據(jù)收集過程應當嚴格遵守國家數(shù)據(jù)法律法規(guī),不得侵犯他人數(shù)據(jù)權利,否則,不僅收集行為本身存在違法可能,而且最終所生成的新聞可能進一步對在先權利人的數(shù)據(jù)權利造成侵害,擴大權利人的損失。正如前文所述,基礎數(shù)據(jù)在很大程度上決定了人工智能新聞的內容。就此而言,在基礎數(shù)據(jù)層面,法律規(guī)范應當對人工智能新聞設定數(shù)據(jù)審查環(huán)節(jié)。值得注意的是,數(shù)據(jù)侵權本身并不完全等同于人工智能新聞侵權,后者包含著更為廣泛的內容,例如相關評論性語句存在侵犯他人名譽的情況、其后臺運行算法存在對某特定群體的歧視屬性等。因此,“數(shù)據(jù)是否侵權”應成為人工智能新聞侵權審查的一個獨立環(huán)節(jié)。
需要特別說明的是,當采用間接收集方式收集數(shù)據(jù)時,尤其應當注意數(shù)據(jù)審查。一方面,如果相關數(shù)據(jù)并非公開數(shù)據(jù)(特別當出版機構注明不得收集、傳播時),則收集者應當事先取得發(fā)布者的同意或授權。另一方面,除數(shù)據(jù)發(fā)布者外,部分數(shù)據(jù)的收集還需要取得其他數(shù)據(jù)權人的同意。例如,當自然人A授權出版機構B發(fā)布其數(shù)據(jù)時,出版機構C要想從B處收集相關數(shù)據(jù),則不僅需要獲得B的同意,還需要獲得A的同意,否則有可能同時侵犯兩者的權利。綜上所述,數(shù)據(jù)審查是人工智能新聞侵權審查的重要環(huán)節(jié),在這個審查過程中,尤其要注意識別具體數(shù)據(jù)權人,并判斷相關數(shù)據(jù)收集行為是否已經(jīng)獲得所有數(shù)據(jù)權人的授權。
在上述前提之下,人工智能的實際控制者或使用者(通常為新聞出版機構)應當被設定為數(shù)據(jù)侵權的責任承擔主體。從侵權法的基本原理來分析,數(shù)據(jù)收集者便是侵權行為實施者。由于人工智能的主體地位尚未得到一般性認可,故人工智能背后的實際控制方才是真正的數(shù)據(jù)收集者,應當承擔相應的侵權行為責任。那么如何確定人工智能的實際控制者或使用者呢?本文認為,應當基于多種標準進行綜合判斷。例如,通過人工智能產品的許可使用或轉讓協(xié)議進行判斷;根據(jù)人工智能新聞所產生的經(jīng)濟收益歸屬來進行判斷;在一定情境下,還可以根據(jù)實際占有人工智能物理載體或掌握人工智能訪問密鑰等進行確認。
人工智能新聞之所以能夠不斷接近自然人所創(chuàng)作的新聞,本質上是由機器學習算法決定的。可以說,算法是人工智能新聞的靈魂。然而,算法規(guī)制往往未能受到應有的關注,這是因為算法通常隱藏在新聞生成過程的幕后,一般人無法感知或理解其意義。除專業(yè)人士之外,甚至除算法開發(fā)者之外,其他人難以窺探算法的設計原理和詳細代碼,這就是人們常說的“算法黑箱”,即在輸入值和輸出值之間,存在著人們無法洞悉的“隱層”[4]。當人工智能收集到充分的基礎數(shù)據(jù)后,會根據(jù)已經(jīng)設定好的算法生成新聞作品。這一生成過程對于普通用戶來講是“不透明的”,人們無法洞悉其內在機制和原理。簡而言之,當收集到相關數(shù)據(jù)之后,直至新聞作品完成,中間的創(chuàng)作過程、思路等通常無法為人們所知曉。不僅如此,隨著深度學習算法開發(fā)技術的發(fā)展,人工智能自身也可能在不停地更新、優(yōu)化其內在算法,在經(jīng)過一定時間的機器學習過程之后,原算法開發(fā)者也可能不再清楚此時此刻人工智能所運行算法的基本情況。從這個意義上講,對機器學習算法的審查顯得非常關鍵。當人們不清楚人工智能新聞生成背后的算法時,也就不清楚人工智能最終會生成何種形式或特征的新聞稿。
算法黑箱容易引起算法偏見。一般而言,偏見僅僅停留于人們的頭腦中,不會對外產生利益影響。然而,由于算法偏見直接影響著人工智能新聞的內容,而這些內容的公開發(fā)布可能侵犯他人正當權利。因此,人工智能新聞背后的算法黑箱和算法偏見問題需要引起重視。盡管算法偏見很難識別,但法律制度應當為針對算法偏見的異議及其處理提供合理的保障。例如,盡管普通人和律師無法對算法偏見進行甄別和說明,但法律應當允許當事人聘請相關領域的專家為其提供專家意見,并賦予該專家意見以法律效力,其他諸如此類的法律制度應當逐步建立起來。在司法實踐中,應當賦予相關科學機構對算法的鑒定以證據(jù)效力,類似于鑒定意見的證據(jù)效力。實際上,關于算法的審查,應當將技術審查和法律審查結合起來,不僅如此,技術審查應當成為法律審查的前置環(huán)節(jié)。唯有從技術層面厘清算法設計所存在的問題,法律審查才能夠做到準確的權責界定。
當人工智能新聞存在侵犯他人權利的情形時,對算法本身的審查應當成為重要環(huán)節(jié)。對算法的審查,不僅可以確定具體侵權人,而且可以避免因算法的隱藏缺陷所導致的潛在侵權糾紛。具體而言,以下三類主體可能成為算法侵權的責任主體:第一,算法背后的專利權人。根據(jù)最新發(fā)布的《專利審查指南》規(guī)定,抽象算法本身并不具有可專利性,但如果算法構成技術方案的一部分,那么該技術方案便具備可專利性。在這種情況下,該技術方案的專利權人可被列為人工智能新聞算法的侵權責任人。當然,隨著算法可專利性得到法律認可,相應算法的專利權人便應當被歸類為算法侵權責任人。因算法開發(fā)而獲得專利權之人,應當在事先考慮到相關法律法規(guī)的強制性要求,避免因算法問題導致人工智能新聞發(fā)生侵權事件。第二,算法開發(fā)方。當不存在相應專利權人時,被侵權人可將算法開發(fā)方列為侵權責任人。第三,人工智能的實際控制者,例如新聞出版機構。盡管相關專利權人、開發(fā)方和實際控制者之間可能存在人工智能產品轉讓、許可使用等協(xié)議,但侵權之債可以突破合同相對性進而追訴具體侵權行為人。因此,上述三類主體都有可能成為人工智能新聞算法侵權的責任人。
除了確定侵權責任主體之外,法律規(guī)范應當建立起算法審查機制。由于算法具有復雜性、專業(yè)性,因此司法實踐中可考慮將算法偏見問題提交至相關專業(yè)委員會審議,或由訴訟參與方聘請專家輔助人來協(xié)助司法審查??傮w來講,算法審查機制主要涉及技術問題,無論是行政性審查還是司法審查,都必須依賴于相關專家的專業(yè)知識,唯有在技術層面審查得出關鍵問題所在,相應的法律審查和評判才能獲得最大化準確性。
與基礎數(shù)據(jù)和算法不同,人工智能新聞作品是一個綜合性產物。關于人工智能新聞作品的法律規(guī)制主要圍繞以下兩個問題展開:第一,人工智能新聞作品能否獲得著作權法保護;第二,誰可以對人工智能新聞作品享有著作權。這兩個問題是解開其他一系列問題的關鍵。在當前的學術研究中,部分學者將注意力集中在人工智能的主體地位問題上。他們認為,只有解決了人工智能的法律主體地位問題,才能進一步解決人工智能新聞作品的權利歸屬問題。人工智能是否應當具有法律主體地位,實際上并非現(xiàn)階段所能解決的問題,就當前人工智能的發(fā)展水準來講,賦予其法律主體資格缺乏合理性。與此同時,拋開人工智能主體地位問題,我們仍然需要解決其他關于人工智能新聞作品的權利、責任歸屬問題。
針對第一個問題,在騰訊訴上海盈訊科技有限公司侵害著作權及不正當競爭糾紛一案中,深圳市南山區(qū)人民法院判決認定由騰訊機器人Dreamwriter所自動撰寫的文章構成著作權法所保護的文字作品。值得注意的是,在判決論證中Dreamwriter僅被視為一種創(chuàng)作輔助工具,而騰訊團隊的集體智力才是該文章被認定為文字作品的關鍵[5]。換言之,那些由人工智能獨立完成的新聞作品是否受著作權法保護,法院并未給出一般性意見,這才是問題關鍵。盡管該案將人工智能參與創(chuàng)作的作品納入著作權所保護的文字作品范圍,因而被媒體稱為“AI寫作第一案”,但其實質上繞開了最為關鍵的問題。如果將騰訊團隊的集體智力勞動視為核心,那么人工智能本身實際上就顯得無關緊要。可見,盡管該案被視為人工智能寫作第一案,但本質上來講,裁判者仍然規(guī)避了人工智能本身,而是透過人工智能進而討論其背后的自然人權利狀態(tài)。實踐中,有些人工智能新聞作品是由人工智能自身獨立完成的,當新聞作品由人工智能獨立完成且發(fā)生權利糾紛時,應當如何進行解決?簡而言之,當一個真正由人工智能獨立完成的新聞作品出現(xiàn)時,著作權法是否賦予其相應保護,則仍然需要進一步探究。
眾所周知,當前著作權制度僅認可自然人作品[6]??疾炱渚売?,有學者指出,乃是因為人類直覺與靈感無法模擬,無論人工智能發(fā)展到何種水平,其終究無法達到人腦的高級程度,由人工智能所創(chuàng)作的作品不應納入著作權保護范疇[7]。這種觀點從本質上否定了人工智能的法律主體資格。然而,對人工智能法律主體資格的否定,并不必然將人工智能新聞作品排除在著作權保護范圍之外,這是兩個相對獨立的問題。很顯然,通過適當?shù)闹贫劝才牛斯ぶ悄苄侣勛髌返闹鳈嘀黧w與人工智能本身可以相對分離。對人工智能新聞作品進行版權保護,并不必然意味著承認人工智能的法律主體資格。賦予其著作權保護,則能夠保護相關權利人的權益。除此之外,著作權保護對象本身也隨時代在發(fā)展,例如,計算機軟件等被納入保護對象是互聯(lián)網(wǎng)時代的要求。為了鼓勵人工智能在傳媒領域的發(fā)展,促進新聞傳媒行業(yè)的智能化,人工智能新聞作品應當獲得著作權法保護。
關于著作權主體的問題,陳萍博士提出了一種可行方案,即以人工智能作品背后的意志主體作為著作權歸屬判斷標準[8]。然而,“意志”本身是一個抽象概念,在司法實務中并不具有很強的可操作性。從操作的角度來講,在法律規(guī)范層面,建議以“協(xié)議約定→實際控制或使用→所有者”作為一種具有可操作性的綜合判斷標準。簡言之,若存在對人工智能新聞作品著作權歸屬明確約定的協(xié)議,則應當按照協(xié)議約定確定著作權歸屬主體。協(xié)議本身是意思自治的產物,直接體現(xiàn)了相關主體的意志。不僅如此,根據(jù)協(xié)議也能夠有效地判斷出意志主體;若不存在相應協(xié)議,則由對人工智能的實際控制或使用者享有著作權。按照日常經(jīng)驗,新聞作品往往最直接體現(xiàn)實際控制或使用者(例如新聞出版機構)的意志;若不存在相應協(xié)議,且人工智能實際控制或使用者與所有者分別主張各自享有著作權,則應當以所有者作為著作權人。這種情況可類比職務作品進行認定。
綜上所述,隨著人工智能技術的發(fā)展,在新聞傳播領域不可避免地要面臨人工智能新聞所引起的一系列問題。人工智能新聞在一定程度上繁榮了新聞傳播領域,使得新聞傳播更具及時性、高效性。本文更為關注的是人工智能新聞的規(guī)制問題。這種規(guī)制并非旨在限制人工智能新聞的發(fā)展,而是旨在以維護公民及其他主體之合法權利為前提,促進人工智能新聞合法化、正當化。本文認為,對人工智能新聞的法律規(guī)制應當從基礎數(shù)據(jù)、算法和新聞作品等三個技術層面切入。這三個技術層面構成了法律規(guī)制的基本框架。作為新技術的產物,對人工智能新聞的法律規(guī)制應當跳出以往的研究思路,即僅僅關注作品本身或泛化地討論人工智能主體問題。特別是人工智能主體地位問題,更多涉及一種價值選擇問題,難以進行有效討論。如果研究視野始終局限于這些問題,則人工智能新聞所引發(fā)的一系列社會問題便難以有效解決。在人工智能新聞作品的背后,相應的技術層面應當引起重視。當涉及侵權審查時,數(shù)據(jù)審查和算法審查都應當是重要且獨立的審查環(huán)節(jié)。這些審查應當實現(xiàn)法律審查與技術審查的雙重審查。針對人工智能新聞作品而言,賦予其著作權法保護,更能夠有效地保障相關主體的權利。總體來講,隨著“人工智能+傳媒”的深入發(fā)展,人工智能新聞必將為新聞傳播行業(yè)帶來更廣闊的發(fā)展空間,為了保障新聞智能化發(fā)展,一套良好的法律制度應當盡快建立起來。