【摘要】人工智能生成新聞基于大數(shù)據(jù)和算法,其新聞來源是提供系統(tǒng)支持和信息來源的數(shù)據(jù)集?;诖髷?shù)據(jù)的選取和分析,在人類已有知識產物上的重組。極容易侵犯知識產權與著作權。由于人工智能無法做到推理和思考,在自然語言理解方面也有局限,這就意味著在選取數(shù)據(jù)時,人工智能并不能有效的辨識一些可能侵權的敏感信息。本文對于人工智能生成新聞行為可能產生的侵權行為進行討論、進行責任劃分、提出建議和思考。
【關鍵詞】人工智能;新聞生產;著作權;隱私權
人工智能進入新聞生產領域后,為新聞界帶來了巨大的變革,如今,人工智能生成新聞已經(jīng)在財經(jīng)新聞、體育新聞等數(shù)據(jù)類新聞中嶄露頭角,以其迅速分析處理數(shù)據(jù)的優(yōu)勢大大縮短了受眾接收新聞的時間。與此同時,一些弊端也漸漸顯露出來。
人工智能生成新聞基于大數(shù)據(jù)和算法,其新聞來源是提供系統(tǒng)支持和信息來源的數(shù)據(jù)集?;诖髷?shù)據(jù)的選取和分析,在人類已有知識產物上的重組。極容易侵犯名譽權、隱私權與著作權,有時還會進行對名譽權的二次侵害。由于人工智能無法做到推理和思考,在自然語言理解方面有局限,這也就意味著在選取數(shù)據(jù)時,人工智能并不能有效的辨識一些可能侵權的敏感信息。
一、人工智能生成新聞的侵權類型
(一)隱私權
人工智能生成新聞的新聞來源是提供系統(tǒng)支持和信息來源的數(shù)據(jù)集,在這個沒有經(jīng)過嚴謹?shù)暮Y選的數(shù)據(jù)集中,存在大量的虛假信息、包含個人隱私的信息。記者寫新聞時,可以根據(jù)自己的思考、判斷去避免公布個人隱私,如對于圖片的馬賽克處理、對于真實姓名做化名處理等行為。但人工智能只能做到機械的選取數(shù)據(jù)、處理數(shù)據(jù)、形成新聞作品,無法做到相應的規(guī)避措施。此時就出現(xiàn)了侵犯他人隱私權的問題。
(二)著作權
對于人工智能生成的新聞的著作權問題方面,有兩個思考:其一,人工智能生成的新聞著作權屬于誰?屬于機器人、新聞單位,還是創(chuàng)造機器人的科學家?其二,人工智能在生產新聞時是基于算法對于記者的知識產物——新聞稿件,進行選取和重組,當可供選取的數(shù)量樣本少時,根據(jù)少量樣本選取重組后形成的稿件是否涉及到侵犯他人的著作權?
(三)對于名譽權的二次侵害
經(jīng)過嚴謹?shù)暮Y選的數(shù)據(jù)集中,存在大量的虛假信息、包含個人隱私的信息,也存在著記者侵犯他人名譽權的稿件,人工智能沒有甄別信息真假的能力,很有可能在選取信息時將已失實的稿件和存在侵犯他人名譽權行為的稿件進行選取,此時會對受害者的名譽權進行二次侵害。
二、人工智能生成新聞的侵權行為的責任劃分
人工智能生成新聞時,若發(fā)生了侵權行為該如何進行責任劃分呢?是追責新聞單位的責任還是追責算法工程師的責任?還是追責機器人生產者的責任?
根據(jù)《中華人民共和國侵權責任法》第三十四條:“用人單位的工作人員因執(zhí)行工作任務造成他人損害的,由用人單位承擔侵權責任。”人工智能生成新聞的行為本質是在執(zhí)行新聞單位的工作任務,因此,若發(fā)生上述侵權行為,被迫責主體應為新聞單位。
無論是數(shù)據(jù)集對于虛假信息的選取,還是算法錯誤導致問題的出現(xiàn),被追責主體都是新聞單位,但新聞單位可以繼續(xù)追責上一級的侵權責任。
三、如何避免人工智能生成新聞時的侵權行為
(一)國家應盡快出臺相應法律法規(guī)
雖然我國國務院于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,但是在我國現(xiàn)行的法律法規(guī)中,還沒有“新聞傳播法規(guī)”,也沒有關于人工智能的法律法規(guī)。根據(jù)我國對于職務行為侵權的追責,人工智能生成新聞侵權問題的處理方式與記者的新聞作品侵權問題的處理方式大致相同。因此,應盡快推出“新聞傳播法規(guī)”,明確責任劃分;同時,也要盡快推出規(guī)范人工智能行為的法規(guī)。在歐美國家,已有相關的法案出臺,如歐盟《一般數(shù)據(jù)保護條例》和美國《人工智能未來法案》等。也說明了隨著技術的發(fā)展,對于人工智能立法的需求會越來越大。
(二)根據(jù)現(xiàn)行法律進行風險規(guī)避
國內首個關于人工智能生成內容的侵權案件已有明確的判決,其中對于人工智能生成內容的著作權、署名權等進行了分析和判決,并歸屬受益主體即追責主體。人工智能生成新聞沒有著作權,其署名權、收益歸屬、追責主體均為使用人所有。因此在人工智能生成新聞時,引用不含獨創(chuàng)性的圖形不構成侵犯對方著作權,抓取其他由人工智能生成的新聞不構成侵害對方著作權,但基于保護利益的角度,以上行為會涉及侵犯對方信息網(wǎng)絡傳播權。相關單位可以基于此規(guī)避自身行為,以免出錯。
(三)新聞單位應加強把關
人工智能生成新聞發(fā)生侵權行為時,新聞單位是被迫責主體。因此,新聞單位應加強把關,審查人工智能生成的新聞稿件,對于新聞稿件中出現(xiàn)的人物進行核實、對于文章內容進行查重,必要時可設專門職務。
(四)加強對被“遺忘權”的保護
歐盟早在1995年就在相關數(shù)據(jù)保護法律中提出了“被遺忘權”概念,任何公民可就個人數(shù)據(jù)提出刪除請求。歐盟委員會從2012年開始建議制定關于“網(wǎng)上被遺忘權利”的法律,提議包括要求搜索引擎修改結果,以符合歐盟保護個人信息的方針。2017年12月24日,全國人大網(wǎng)公布全國人民代表大會常務委員會執(zhí)法檢查組關于檢查《中華人民共和國網(wǎng)絡安全法》《全國人民代表大會常務委員會關于加強網(wǎng)絡信息保護的決定》實施情況的報告,也充分顯示了當前用戶個人信息保護工作形勢嚴峻。
在大數(shù)據(jù)的環(huán)境下,類似傷害往往不可逆,為降低或者盡可能避免此等風險,強調對個人信息處理的合規(guī)問題勢在必行,包括認可信息主體對其本人信息的刪除、更正之正當權益。
四、思考
人與人工智能的分歧。據(jù)英國《衛(wèi)報》報道,谷歌圖像識別算法曾將黑色人種的圖片自動添加“大猩猩”的標簽。由于算法相同,F(xiàn)lickr也曾將黑人的照片標記為猿猴,這足以表明,在一些差距上,以現(xiàn)在的技術生產下的人工智能還是無法識別。若上述問題發(fā)生在人工智能生成的新聞中,將會再次激起種族歧視的社會問題。
再者,如果所有的新聞都由人工智能來寫,那么所有的新聞作品都是基于之前的新聞稿件轉化而來,也意味著除了一些新的數(shù)字,將不會再有新的新聞作品產生了,沒有新鮮作品流入,有效的稿件數(shù)據(jù)庫的總量將不會再有變化。
結語
人工智能生成新聞在財經(jīng)新聞領域、體育新聞領域、自然災害類新聞等數(shù)據(jù)新聞領域的時效性和準確性上為人們帶來了諸多便利,是新聞行業(yè)未來的發(fā)展趨勢。在面對人工智能生成新聞的法律問題時,新聞單位首當其沖。因此,新聞單位和新聞工作者還需做好風險規(guī)避的同時加強對人工智能生成新聞的審查力度。人工智能畢竟是冷冰冰的機器,在理解與思考方面存在很大的局限,因此,新聞生產的主角還應是各位記者,最好的工作狀態(tài)應是記者與人工智能相互合作,生產出更加準確、客觀、高質量的新聞作品。
參考文獻:
[1]朱夢云.人工智能生成物的著作權保護可行性研究[J].出版科學,2019年03期.
[2]周蒔文,蔡曉濱.人工智能創(chuàng)作物著作權保護的可行性研究[J].法制與經(jīng)濟,2018年11期.
【作者簡介】陳雪晴,成都體育學院新聞與傳播學院2018級新聞學研究生。