■ 邵國松
人工智能(Artificial Intelligence,簡稱AI)無疑是當下最熱門的科技話題,整個社會對其發(fā)展和應用都極為關注,并已滲透到新聞傳播活動的各個環(huán)節(jié),比如騰訊財經DreamWriter、新華社“快筆小新”等寫稿機器人通過對數據的自動化采集和加工,幾秒之內就能完成新聞的撰寫;今日頭條和一點資訊等借助算法精準分發(fā)資訊,大幅提高了用戶在海量信息中獲取所需信息的效率;《紐約時報》、財新網等媒體積極嘗試VR、AR視頻報道,用戶由此獲得了沉浸式新聞的嶄新體驗。質言之,媒體朝著“技術+內容”的方向大步前進,媒體智能化時代已全面開啟。
在我們看來,新聞傳播從來不是純粹的商業(yè)活動,而是具有明顯的公共產品屬性。幾乎所有民眾都依賴新舊媒體獲知信息,這使得后者能對社會產生深刻影響,包括但不限于設置公眾討論議程、影響公共輿論走勢、對政治和商業(yè)權力進行監(jiān)督、促進各社會主體之間的民主協(xié)商等。然而,倘若不能遵循一定的社會規(guī)范,以保證新聞的真實性和客觀性,或保障新聞傳播活動的合法性,那么新聞傳播業(yè)就有可能無法履行其“社會公器”的角色,甚至構成對個體和公共利益的侵犯。在自媒體大行其道、智能化媒體已經開啟的今天,新聞傳播業(yè)失范的風險從未有如此之高。集中探討媒體智能化發(fā)展所帶來的社會問題,無疑有著重要的公共價值和迫切的現實意義,這也是寫作本文的目的所在。
具體來說,我們首先討論人工智能和新聞業(yè)結合的三大領域,即機器化寫作(新聞寫作)、算法推薦(新聞分發(fā))和沉浸式新聞(新聞體驗)。它們各自的發(fā)展脈絡如何?帶來了怎樣的社會問題?之后我們將討論和人工智能運用密切相關的兩個議題,即假新聞泛濫和個人數據保護。假新聞可被視為新聞的異化,它普遍存在但對公共利益而言具有腐蝕作用。個人數據是驅動AI發(fā)展的核心資源,但若不予以合理保護,會構成對公民權益的嚴重侵犯。媒體智能化發(fā)展所帶來的倫理和法律問題有的日益顯現,有的尚未成形,本文結合國內外相關研究和實踐,對這些問題進行初步探討,以期拋磚引玉,引起學者和業(yè)界對此問題的足夠重視和深入探討。
機器化寫作是人工智能在新聞生產領域的運用,主要是指針對數據的自動化采集和寫作。機器化寫作起源于美國。早在2006年3月,美國數據提供商湯姆森公司就開始運用計算機程序加工財經數據,并生成、推出完整的財經報道。2009年,美國西北大學的計算機系和新聞學院共同研發(fā)了一款能自動生成體育類新聞報道的軟件Statsmonkey;次年,該團隊成員成立了專事機器化寫作的公司“敘事科學”(Narrative Science),吸引了大批投資者和客戶的注意。2014年3月,洛杉磯發(fā)生地震,三分鐘之后,一條有關本地震的新聞便出現在《洛杉磯時報》網站上。這條新聞是一款名為Quakebot的軟件自動寫作的,內容雖然簡短,但報道之迅速和準確都讓人大為驚嘆。此后,美國逐步出現了多款機器新聞寫作的軟件。比如,美聯社和Automated Insights公司共同研發(fā)了Wordsmith寫作軟件,用來分析企業(yè)財報等數據并生成財經新聞稿件;《華盛頓郵報》則推出了TruthTeller來實時監(jiān)測政客的演講是否符合事實,此外還使用名為Helioraf的程序來收集2016年里約奧運會的賽事信息,供記者進一步加工形成更具深度的新聞報道。
2015年9月,騰訊財經網首次使用機器程序Dreamwriter寫作的稿件,機器化寫作自此進入國內讀者的視線。之后,新華社推出了“快筆小新”、今日頭條開發(fā)了xiaomingbot,這些軟件的寫稿速度和發(fā)稿量都十分驚人,主要集中在財經新聞和體育新聞兩個領域。此外,新華社和阿里巴巴公司共同研發(fā)了國內第一個媒體人工智能平臺“媒體大腦”,在2018年全國“兩會”期間登臺亮相,其發(fā)布的首條視頻會議新聞,生產僅用時15秒,涉及輿情分析、信息可視化、視頻剪輯等諸多環(huán)節(jié),都是媒體大腦自動完成的,這表明我國機器化寫作程序的開發(fā)已經達到了一個新的高度。
在可預見的將來,機器化寫作將大幅提升新聞報導的數量,將記者從某些機械的、刻板的新聞寫作中解放出來。特別是與民眾生活密切相關的本地新聞,對于預算和人手被大幅削減的傳統(tǒng)媒體來說,已是難以完成的使命,但機器人記者卻能輕松在短時間內寫出不同的社區(qū)新聞,高效滿足讀者個性化的需求。①機器化寫作對新聞業(yè)更重要的影響是能與人協(xié)作,拓展人在特定報道領域的能力。在新聞選題的策劃與發(fā)現、未來趨勢的預測以及傳播效果的預判等方面,人機協(xié)作都有望帶來新的可能。特別是社交媒體的高度滲透,使得分布式新聞生產的“萬眾皆媒”成為可能;物聯網的應用,則造就“萬物皆媒”的景象,即萬物都有可能成為新聞信息的采集者和傳播者。②無論是“萬眾皆媒”,還是“萬物皆媒”,都將構成機器化新聞生產的堅實基礎乃至強勁推動力。
在此背景下,機器化寫作不僅關乎新聞生產的創(chuàng)新,也會帶來一些需認真對待的問題。比如,Matt Carlson認為機器化寫作的廣泛運用有可能增加記者失業(yè)的可能③,但在Noam LemelshtrichLatar看來,在大數據時代,社會活動都被以電子形式記錄,人工智能技術則能挖出這些數據進行新聞寫作,比專業(yè)的新聞記者還要高效。④在這樣的情形下,新聞從業(yè)人士需要開拓視野,將來可能會是數據分析經理和軟件程序員管理新聞編輯室,因此記者需要調整他們的技能,以適應媒體智能化發(fā)展的需求。但Andreas Graefe指出,新聞機器人的編程人員和使用該技術的新聞人士之間存在知識鴻溝,會導致不當的新聞實踐,新聞由此也難以發(fā)揮其社會服務的功能。⑤
機器化新聞寫作主要包括三個環(huán)節(jié),即信息抓取、信息處理與信息輸出。論者指出,這個寫作流程也充滿一系列風險,比如:網絡爬蟲所提取的數據是否是客觀準確、不帶偏見的?是否侵犯到用戶隱私,或涉及版權保護作品?誰該對機器新聞寫作的錯誤負責?還有研究者通過實證發(fā)現,讀者常常無法區(qū)別機器寫作和記者寫作的文章,覺得兩者寫作的文章在感知可信度和專業(yè)度上相似。⑥針對這些問題,除了倫理和法律制度的完善,我們可以做的是加大對專業(yè)新聞記者和編輯的培訓,使他們能夠規(guī)范機器寫作過程中可能存在的新聞失范問題,以提升機器新聞的公正性、透明性、可控度和可信度。
此外,機器寫作需要確定誰是寫作主體;在新聞發(fā)布以后,需要明確告知讀者這條新聞是記者寫的還是機器人寫的。如果是機器人寫的,那么該新聞的版權屬于機器、編程者還是所屬機構,都有待進一步討論。一般認為,機器所創(chuàng)作的作品同樣具有原創(chuàng)性,對機器作品進行版權保護是符合立法邏輯的。這就涉及一個基本問題,即機器人是否具有獨立法律人格?目前普遍認為機器人不具備獨立法律人格,因而也不享有相關權利。但論者指出,論及機器人及其創(chuàng)造物是否應當受法律保護,可參考歷史上組織法人獲得獨立法律人格的過程,由于一些組織永續(xù)存在,并且需要能夠在法律上持有、處理、清算財產,因而立法者賦予了這些組織法人地位。⑦事實上,歐盟議會已出現賦予人工智能“特殊法律身份”的提案,機器人獲得獨立法律人格身份并非遙不可及。但立法時需要解決的問題是無法對機器人的權利和義務進行窮盡式列舉,因此可能需要對其做出相應“法律保留”,比如不能賦予機器人法律層面的政治權利,也不允許機器人“自我復制”,以免危及人類。
美國同樣是算法推薦的誕生地。早在1992年,GroupLens通過對美國興趣論壇網站Usenet討論區(qū)里的消息進行排序,將用戶指向他們可能會感興趣但自己尚未發(fā)現的話題線索。2002年,搜索巨頭谷歌公司開發(fā)的Google News啟動,標志著算法推薦正式進入人類編輯領域。之后,社交媒體巨頭Facebook迅速崛起,很快推出基于算法推薦的產品News feed,大受用戶追捧。發(fā)展至今,67%的美國成年人通過Facebook、Twitter、Youtube等社交媒體獲取新聞,而這些社交媒體基本上都是通過算法推薦方式將新聞信息推送給用戶的。⑧在我國,算法推薦大有后來者居上的勢頭,且競爭日益白熱化。2012年3月,今日頭條創(chuàng)立,這是一款基于數據挖掘的推薦引擎產品,為用戶推薦信息,提供連接人與信息的服務的產品。其口號是“你關心的,才是頭條”,在創(chuàng)辦之后便大獲成功。先前橫掃傳統(tǒng)媒體的新聞聚合網站,比如新浪新聞、搜狐新聞、網易新聞、百度新聞等,也紛紛采用算法推送新聞技術,以應對今日頭條所帶來的巨大競爭壓力。
算法推薦的興起跟我們所處的網絡傳播時代密切相關。一方面信息知識大爆炸,另一方面?zhèn)€體卻難以在信息海洋中獲取自身所需信息,在信息過剩與信息匱乏中陷入困局。算法推薦應運而生,被認為是解決這一困局的有效手段。從技術角度來講,算法推薦包含以下幾個環(huán)節(jié):其一是選擇什么樣的規(guī)則處理信息;其二是把規(guī)則數字化,找到規(guī)則設計的各要素之間的函數關系,確定算法;其三是導入大數據用于機器的深度學習;其四是使用算法處理大數據。⑨算法推薦信息的方式主要有兩種:其一是所謂的熱點信息被置頂;其二是個性化、定制化的信息被單獨推送給用戶。這兩種方式的交叉使用,使傳統(tǒng)媒體在新聞分發(fā)的控制權受到極大削弱,用戶獲得新聞信息的渠道更為多樣且“可自控”。
然而,算法推薦新聞帶來了一系列不可忽視的社會問題。就熱點信息置頂而言,其選擇標準是其熱度,即用戶對一條信息的點擊量。據了解,今日頭條、百度新聞等新聞聚合平臺推薦系統(tǒng)的初始設定,大都是根據用戶的點擊量而定,那些點擊量高的信息會自動納入熱點推薦范疇。在大多數情況下,手機終端用戶由于處于相對私密狀態(tài),會對那些低俗內容較為敏感,結果導致大量的低俗內容成為點擊的熱點,且被作為熱點算法推薦給更廣大的用戶,造成所謂的“內容下降的螺旋”現象。⑩雖然低俗不良的信息自人類傳播活動之始便已有之,但算法的出現以及職業(yè)把關人的缺失,使得低俗不良信息開始泛濫,進而演化成一個公共問題,甚至觸犯法律底線。在監(jiān)管部門施壓下,包括今日頭條在內的網絡平臺已開始混合使用技術和人工方式對低俗不良信息進行過濾,但效果并不顯著。
就個性化特推薦而言,主要包括協(xié)同過濾算法和基于內容的推薦算法兩種方式。協(xié)同過濾算法指的是收集、分析不同用戶的歷史數據并計算出用戶之間的相似性,進而生成與目標用戶興趣最相近的top-N項信息并予以推薦?;趦热莸膮f(xié)同算法主要根據用戶的過往行為信息來預測用戶喜好并推薦與其喜好相近的信息。無論何種算法推薦,其目標均在于向用戶進行信息的精準推送與有效供給,使得用戶能以最少的耗費獲得最優(yōu)化的信息服務體驗。以Facebook的新聞產品News Feed為例,Michael DeVito發(fā)現其算法推薦遵循九個標準,其中“朋友關系”與“用戶興趣”超越其他因素,成為主導News Feed算法推薦的兩大標準。這意味著,新聞價值由算法來決定,算法模型又由用戶的興趣偏好來主導,由此顛覆了傳統(tǒng)的新聞價值判斷標準。長此以往,用戶會處于同質化信息的包圍之中,造成所謂的“信息繭房”和“回音室效應”,這不僅大幅減少了用戶對多元化觀點和信息的接觸和了解,也很大程度上損害了信息傳播業(yè)的公共屬性,使得民主社會得以運轉的社會共識愈發(fā)難以達成。
越來越多的人意識到,算法從來不是純客觀的,算法推薦是可以被操控的。因為算法的規(guī)則是由人設定的,改變規(guī)則便可改變推薦結果。2012年,幾位研究者聯合Facebook的工程師,對70萬余名不知情的用戶進行了一項為期一周有關“情緒感染”的測試,結果發(fā)現外部信息會對用戶的情緒產生傳染式影響,而用戶所接受的信息是研究團隊根據算法進行推薦的。用戶在此研究中被當作“小白鼠”予以對待,其可能存在的研究倫理問題引發(fā)了用戶的強烈不滿,同時也深刻揭示了網絡平臺通過算法操控用戶的強大能力。在國內,今日頭條由于低俗內容過多而被社會詬病,且遭到政府部門的約談乃至警告,在隨后的整改中它調整了算法,結果低俗內容和虛假新聞的信息推薦量和閱讀量減少了40%,也反向印證了算法推薦中信息被操控的可能。倘若信息可被強力操控(無論是機構還是個人),那么追求事實的真相便變得愈發(fā)困難。
事實上,算法也有可能施加超出用戶意愿的影響力,比如捕捉用戶的偏好和特征來塑造他們的目標,并在一定程度上推動其行為,從而削弱其自決能力。質言之,以算法為代表的AI系統(tǒng)有可能破壞我們對環(huán)境和社會的控制,最終影響我們的選擇、預測、身份和生活,人類賴以生存的自決能力由此受到嚴重侵蝕,而這一切經常發(fā)生在不透明的技術運行深處,我們稱之為“算法黑箱”。不少研究者因此呼吁算法透明,讓用戶明白算法的運行規(guī)則及其所產生的后果,但目前至少有兩個因素制約著算法推薦的透明度,即缺乏商業(yè)激勵和保護用戶隱私之考慮。有鑒于此,歐盟2016年出臺《數據保護通例》(GDPR),給予用戶申請某項基于算法得出結論的解釋權(right to explanation),但論者指出,該法案尚未從根本上解決算法的問責和透明度問題。
“新聞不再是用來讀的,而是用來體驗的?!彪S著人工智能的發(fā)展,側重新聞體驗的沉浸式傳播應然而生,它指的是以大數據和智能網絡為技術支撐的信息浸透模式,集中體現為虛擬現實(VR)、增強現實(AR)、混合現實(MR)、全息影像、全景視頻、網絡直播等技術帶給受眾的沉浸體驗,使受眾完全融入新聞發(fā)生的情境之中。在國外,《紐約時報》《衛(wèi)報》、BBC、ABC、美聯社、NHK電視臺等媒體機構都在進行VR新聞方面的嘗試;在國內,《人民日報》、新華社、財新網、網易也開始對沉浸式新聞進行積極探索。在事先預設的場景中,給用戶留出一定的參與空間,讓用戶去填補。用戶在深度參與過程中,加入自身情感元素,獲得身心上的刺激感或愉悅感,沉浸式傳播因而被認為是對原有傳播關系的全新構建。
然而,且不論沉浸式技術的市場運用前景,沉浸式傳播于學界和業(yè)界而言還存在相當多亟待解決的倫理問題。首先,虛擬現實新聞有可能對新聞的客觀性和真實性構成嚴峻挑戰(zhàn)。VR新聞不同于傳統(tǒng)的新聞視頻,由于制作者無法完全控制用戶觀看畫面時的思路,而是需要通過清晰的邏輯引導用戶了解新聞故事,否則蒙太奇般的視覺效果會極大削弱新聞的敘事性。但無論是VR技術,還是360度鏡頭呈現,新聞故事的主線都有可能發(fā)生偏離,如何在視覺上的引導和客觀真實之間求得平衡,是沉浸式新聞需要認真面對的問題。若制作者對故事情節(jié)進行預設和呈現,那么受眾所體驗的新聞天然帶有制作者的偏見。而且,由于VR新聞的在場感、沉浸感容易讓用戶形成諸如“看到的即是真實的”的錯覺,也容易放大偏見的影響。如何盡可能還原新聞事件特定的時空場景,使受眾的自主探索不影響新聞主體事實的呈現,是沉浸式新聞亟需解決的倫理問題。
此外,如果VR新聞中受眾的數字化身過于逼真,引起受眾高程度的代入感和參與感,在部分特殊題材的新聞場景中容易帶來“恐怖谷”效應。有研究表明,YouTube中沉浸式新聞的體驗者置身新聞場景時,時空的落差感、對將發(fā)生之事的不確定感、強烈的自我代入感,會使其處于高度緊張甚至恐慌的精神狀態(tài)中。目前,VR游戲、VR直播等中的暴力、血腥等高度刺激性場景已引起監(jiān)管者的注意,但VR新聞中的類似場景還未引起足夠的重視。實際上,部分題材的沉浸式新聞不適合特定人群進行體驗,如老人、兒童、心血管疾病患者等。已有研究發(fā)現,部分災難性事件的沉浸式體驗或許可能為少數受眾帶來創(chuàng)傷后應激障礙(PTSD)或者導致悲劇廉價化、消費悲情主義情緒的風險。譬如,南加大媒介互動實驗室推出的“敘利亞項目”(Project Syria)中,參與這一VR新聞體驗的試驗者就表示,體驗過于激烈,讓人有經受心靈創(chuàng)傷的感覺。
沉浸式傳播最令人不安的一面是其虛擬世界和物理世界的一體化趨勢。1995年尼葛洛龐蒂在其名著《數字化生存》中就預言,“虛擬現實能使人造事物像真實事物一樣逼真,甚至比真實事物還要逼真”。今年上映的好萊塢大片《頭號玩家》,就精準詮釋了虛擬和現實一體化的場景。在虛擬的網游世界,各個玩家以化身(avatar)面目出現,但其虛擬世界的所作所為確實影響到其物理世界的生存方式,而現實世界的肉身也常依據虛擬世界的邏輯行事。隨著沉浸技術和設備的迭代更新,尼葛洛龐帝和《頭號玩家》所描述的場景在沉浸式傳播中正逐漸變成現實。以沉浸式新聞的體驗為例,受眾沉浸程度越深,就越發(fā)混淆虛擬和現實的界限。網絡直播更是如此。僅Facebook Live用戶已經創(chuàng)作了67.5萬直播視頻,觀看人數超過85億次。這種泛眾生產方式,使得網絡直播成為全新的新聞報道形式。無時不在、無處不在的網絡直播,也將成為沉浸式傳播的常態(tài)。在直播中網民、內容、平臺之間高度互動,虛擬與現實互為交融,不僅改變了受眾消費新聞的方式,也對人類既有的生存方式提出了巨大挑戰(zhàn)。
新聞業(yè)的歷史有多長,假新聞的歷史就有多長。時至今日,假新聞泛濫貌似到達了一個新的高度,這跟社交媒體和人工智能的發(fā)展密切相關。以2016年美國總統(tǒng)大選為例,許多假新聞都是在Facebook上進行生產和擴散的。尤其是社交媒體中的機器人(模仿人類的自動賬戶),通過點贊,分享和搜索信息,將假新聞的傳播力進行數量級擴大。據報道,Twitter活躍賬戶中有9%到15%是機器人,其中親特朗普的機器人流量至少是親希拉里的4倍。而據Facebook估計,多達6000萬臺機器人可能侵襲其平臺,這些機器人主導了2016年美國競選期間發(fā)布的大部分政治內容。制作假新聞一般出于兩個動機,一是金錢方面的,假新聞為內容制作者提供了可轉換為廣告收入的點擊;二是意識形態(tài)方面的,通過制作、傳播假新聞來抹黑或推銷其所支持的人、原則或信仰。但假新聞到底有多普遍?如何進行滲透?對個人和社會有何影響?是否加深社會既有的不信任感,導致社會共識更難以達成?對于這些問題,目前尚無定論,需要我們通過高質量的實證研究來加以回答。
接下來,我們需要重點探討什么樣的干預措施才可有效阻止假新聞的傳播或削弱假新聞的影響。具體來說,可從兩個維度著手:一是針對個體的干預;二是針對網絡平臺的干預。針對個體的干預,就是采用多種手段幫助個體免受假新聞的影響。一種較為常見的做法是建立辟謠機制。要思考的問題是:辟什么謠,誰來辟謠,如何辟謠?一般認為,對于涉及重大公共利益的議題,必須辟謠;對于不特別重要的傳言,則可借助網絡的自我凈化機制來予以消除。辟謠主體必須有較高的公信力,否則效果會適得其反。如何辟謠也很重要,需要有事實根據,同時注意堅決排除信息來源和謠言當事人的利益交換。假新聞難以根絕的另一個原因是符合人們選擇性接受信息的心理機制。選擇性接受理論告訴我們,人們更愿意相信與其觀點一致的信息(即便是虛假的)。在這種情況下,我們需要進一步研究如何抵消這種效果,以確定進行辟謠干預的有效條件。除了建立辟謠機制,另一種更具長遠意義的舉措是提供媒介素養(yǎng)方面的教育,以提升個體辨別信息真?zhèn)蔚哪芰?。事實?美國的學校和圖書館已在為學生提供媒介素養(yǎng)培訓,歐盟也發(fā)動相關社會團體為市民提供類似培訓,但這種努力是否能改善有關信息可信度的評估,達到預計的阻止效果,還需深入研究才可確定。
針對網絡平臺的干預既包括政府對平臺的監(jiān)管,也包括平臺的自我監(jiān)管。一般來說,政府對平臺內容直接進行干預或審查常常會引發(fā)爭議,一種替代性方法便是侵權訴訟。比如那些因假新聞流傳而名譽受損的人可針對涉事平臺提起訴訟,這會迫使平臺自身加強審查(Lazer et al.2018)。平臺的自我監(jiān)管日益受到重視且充滿希望。比如,Facebook、Twitter等網絡平臺可通過技術手段限制由算法推薦所造成的假新聞的傳播,比如向訪問者提供消息源質量的標識,這些標識可被納入內容算法排名中。網絡平臺也可通過用戶舉報、人工審核等方式進行攔截,這也是目前微信常用的管制手段。如同政府執(zhí)行的內容審查,由網絡平臺自行發(fā)動的內容審查同樣存在爭議。且不論是否受到商業(yè)利益影響,網絡平臺為了避免政治性麻煩,對內容的審查往往更加嚴格,一些正常的批評性報道或觀點表達也有可能被當作假新聞屏蔽掉,用戶舉報和隨之而來的“404”頁面隨時可見便是明證。問題在于,如何識別真實新聞和虛假新聞至今仍是一個復雜的問題,因此網絡平臺有必要通過通俗易懂的方式向受眾展示其檢測假新聞的標準。我們認為,雖然假新聞和意識形態(tài)分化問題可能會被信息技術加劇,但也可以通過技術來加以緩解,或者選擇更明智的方法,即公共機構和私營機構合作推出更有效的政策,來最大程度降低假新聞和類似問題的負面影響。
個人數據已成為算法社會的核心資源,被譽為驅動人工智能時代的“新石油”。從機器化寫作到算法推薦到沉浸式傳播,乃至假新聞的有效擴散,無不涉及對個人數據的大規(guī)模收集和使用。問題在于,現有的規(guī)制體系對個人數據的保護相當不力,大規(guī)模數據泄露事件時有發(fā)生。最近的例子是2018年8月順豐快遞和華住集團旗下的連鎖酒店發(fā)生的客戶數據泄露,前者涉及數據總數達3億條,后者達5億條,難免讓人感到恐慌。毫無疑問,媒體智能化實踐不能以侵犯個人數據為代價,如何在促進智能化媒體發(fā)展的同時,加強對個人數據的法律保護,已成為學界和業(yè)界關注的焦點。
首先,需要厘清何謂“個人數據”。在許多國家和地區(qū)的立法中,“個人數據”和“個人信息”被視為同一概念。如歐盟《數據保護通例》第4條將個人數據界定為“任何已識別或可識別的自然人相關的信息”;德國《聯邦數據保護法》第3節(jié)規(guī)定,個人數據指“任何關于一個已識別的或者可識別的個人(數據主體)的私人或者具體狀態(tài)的信息”;我國《網絡安全法》第76條則將個人信息界定為“以電子或者其他方式記錄的能夠單獨或者與其他信息結合識別自然人個人身份的各種信息”??梢钥闯?“個人數據”可以和“個人信息”交叉使用,其核心特征是個人數據的“可識別性”,不僅包括線上的,也包括線下的個人數據。
其次,個人數據權益范疇在人工智能時代受到挑戰(zhàn)。個人數據保護長久以來被認為是一個關于人格權保護的問題,但如何從人格權保護中引申出個人數據保護?個人數據保護與其他具體人格權(比如隱私權)保護之間如何協(xié)調?個人數據作為一種社會資源具有財產屬性,可以產生巨大的社會價值并用于交換。那么,個人數據財產化之現象如何得到合理解釋、個人數據財產化所引發(fā)的法律問題如何解決?在大數據時代,個人數據經常會被公共機構或私營主體進行二次開發(fā)利用,使數據主體的部分權能受到損害。在此背景下,如何更為合理地界定數據主體的支配權能和訴訟權能,使得其人格權及財產權得到全面保障,同時增強私權力對公權力的限制?
其三,個人數據處理的依據和行為準則也面臨挑戰(zhàn)。很久以來,征得權利人同意是合法收集和處理個人信息最重要的依據,但時至今日,很多數據在收集的時候并無意用作其他用途,而最終卻產生了很多創(chuàng)新性的用途。所以,公司無法告知個人尚未想到的用途,而個人亦無法同意這種尚是未知的用途。結果,權利人同意這個黃金法則,要么太狹隘,限制了大數據潛在價值的挖掘,要么就太空泛而無法真正保護個人隱私。此外,在個人數據處理過程中,數據處理者還需遵守一些基本的行為準則,主要包括保證數據質量與安全、個人數據處理有限進行、保證數據主體的參與。但進入大數據時代,由于數據大規(guī)模的收集和二次開發(fā)使用,這三項行為準則均在一定程度上受到挑戰(zhàn)。
最后,需要考慮在個人數據保護和互聯網產業(yè)創(chuàng)新之間取得平衡。數據挖掘和數據分析技術,為個人信息的二次開發(fā)和利用提供了機會和條件,信息的潛在價值得到釋放,包括媒體智能化發(fā)展在內的互聯網產業(yè)創(chuàng)新也存在無限的可能。問題在于,大數據加大了用戶數據安全風險,由此也激化了互聯網業(yè)務創(chuàng)新和個人數據保護之間的矛盾。網絡服務提供者希望獲取大量用戶個人信息,而用戶則避免公開個人信息;業(yè)務創(chuàng)新需要信息共享,而用戶則希望降低信息流轉風險。但如果對個人信息進行過度保護,則會抑制網絡創(chuàng)新,降低互聯網為用戶帶來的整體福利。那么,該如何對個人信息保護進行立法,以實現媒體智能化發(fā)展和個人信息保護的平衡?這些問題都有待我們深入研究。
總而言之,人工智能在帶來新的新聞革命的同時,也給既有的倫理和法律法規(guī)帶來全新挑戰(zhàn)。倫理是個哲學問題,其難點在于如何將既有的倫理準則轉化成人工智能可以識別的語言。于媒體智能化實踐而言,我們迫切需要構建一套新的可以被廣泛接受的倫理框架,來指導人工智能系統(tǒng)進行推理和決策。新聞法律法規(guī)也同樣面臨重構問題。特別是基于深度學習的算法新聞,于使用者和監(jiān)管者而言都是不透明的,且充滿著不確定性。我們需要探索數據保護、算法透明化、平臺監(jiān)管、機器人立法等領域的新路徑,確保新聞傳播活動在人工智能時代依然在法律范疇內進行。再者,不少研究者強調,在研發(fā)人工智能系統(tǒng)時,要通過技術設計保障該系統(tǒng)的公平性、透明性和可責性,通過技術手段來克服算法黑箱所帶來的弊端。遵循同樣的技術邏輯,我們需要考慮將重要的新聞倫理和法律準則嵌套到人工智能系統(tǒng)中,我們稱之為社會規(guī)范的技術執(zhí)行。只有借助傳播學、法學、倫理學和計算機科學等多學科知識和方法,將法律規(guī)制、倫理規(guī)范和技術手段如此綜合應用起來,我們才有可能保障人工智能能為新聞業(yè)所善用,在符合倫理規(guī)范和法律準則的軌道上自動前行。
(本文系上海市教委重大項目“人工智能時代的新聞倫理與法規(guī)”的研究成果。)
注釋:
① Marr,B(July 18,2017).AnotherExampleofHowArtificialIntelligenceWillTransformNewsandJournalism.Forbes.URL:https://www.forbes.com/sites/bernardmarr/2017/07/18/how-a-uk-press-agency-will-use-artificial-intelligence-to-write-thousands-of-news-stories-every-week/#2d14a6b074db.
② 彭蘭:《智媒化未來媒體浪潮—新媒體發(fā)展趨勢報告(2016)》,《國際新聞界》,2016年第11期。
③ Carlson M (2015).TheRoboticReporter:AutomatedJournalismandtheRedefinitionofLabor,CompositionalForms,andJournalisticAuthority.Digital Journalism 3(3),pp.416-431.
④ Latar NL (2015).TheRobotJournalistintheAgeofSocialPhysics:TheEndofHumanJournalism?In Einav G (ed.)TheNewWorldofTransitionedMedia.Heidelberg:Springer,pp.65-80.
⑤ Graefe A.(January 7,2016).GuidetoAutomatedJournalism.TheTowCenterforDigitalJournalism.URL:https://www.cjr.org/tow_center_reports/guide_to_automated_journalism.php.
⑥ Clerwall C.(2014).EntertheRobotJournalist.Journalism Practice 8(5),pp.519-531.http://dx.doi.org/10.1080/17512786.2014.883116.
⑦ 梁志文:《論人工智能創(chuàng)造物的法律保護》,《法律科學(西北政法大學學報)》,2017年第5期。
⑧ 皮尤調查中心:《2017美國社交媒體平臺使用報告》,https://www.sohu.com/a/191538275_770332,2017年9月6日。