黨瓊 黎華龍
【摘 要】隨著人工智能的發(fā)展,算法在新聞領域的運用已經(jīng)實現(xiàn)了對新聞材料收集、數(shù)據(jù)整理、文本生成的生產(chǎn)全過程的普及,但隨之而來的還有技術帶來的一系列新聞倫理挑戰(zhàn)。本文重點討論算法新聞的發(fā)展,并根據(jù)學者康斯坦丁·尼古拉斯整理的算法新聞的倫理分析框架來識別和討論算法新聞在實踐過程中所發(fā)現(xiàn)的倫理問題,從而揭示了算法新聞在個人、組織、社會三個層面面臨的倫理挑戰(zhàn)。
【關鍵詞】算法新聞;倫理反思;隱私泄露;算法偏見;新聞失真
一、技術發(fā)展與新聞領域的算法擴張
幾個世紀以來,新聞及其生產(chǎn)程序和條件一直受到技術的塑造和影響[1]。隨著算法進入專業(yè)新聞生產(chǎn)、分發(fā)和消費的階段,新聞業(yè)態(tài)正在經(jīng)歷劇變[2]。事實上,從印刷術、造紙術的發(fā)明和改進,到廣播、電視的普及,再到如今飛速發(fā)展的無線通信技術,技術一直是新聞和媒體發(fā)展的關鍵因素,從某種意義上說,技術建構(gòu)了一些新聞的樣式[3]??焖侔l(fā)展的技術深刻地改變著新聞采集、生成、傳播的全過程。
早在20世紀中后期,計算機就進入了新聞生產(chǎn)領域。菲利普·邁耶在編寫第二版(1979年)《精確新聞》時已經(jīng)在指導記者如何使用電腦。然而,此時計算機的運用只停留在原始地處理文檔的階段,軟件還很初級,處理能力很弱,計算機無法大規(guī)模地運用在新聞采寫和編輯工作中。后來,盡管只有少數(shù)人在較高水平上使用計算機,美國的新聞編輯室卻已經(jīng)大規(guī)模采用計算機來進行工作了[4]。進入21世紀后,技術變革的速度可能比新聞史乃至世界發(fā)展史上任何一次都要快。同時,技術在世界上的傳播正在加速:當傳統(tǒng)媒體需要用長達半個世紀的時間才能達到5000萬名讀者時,數(shù)字游戲《憤怒的小鳥》在35天內(nèi)就獲得了同樣數(shù)量的用戶。像抖音這樣的互聯(lián)網(wǎng)社交媒體在成立短短5年時間內(nèi)就已成為人們?nèi)粘I钪须x不開的社交軟件。數(shù)據(jù)顯示,2022年抖音用戶數(shù)量在8.42億戶左右。算法正是在這樣的技術變革背景中出現(xiàn)和發(fā)展。目前,學界對算法沒有一個普遍接受的正式定義,但這個術語通常指的是要執(zhí)行的一組獨立的逐步操作,如計算、數(shù)據(jù)處理和自動推理,它精確地定義了一系列可以被計算機理解的精確指令[5]。
那么,算法是如何進入新聞領域的?經(jīng)過兩百年的積淀,新聞的標準化已經(jīng)成型[6],也就是說,新聞工作的具體形式已被分解成可以實現(xiàn)自動化的各個部分,而人工智能的發(fā)展和行業(yè)適應速度超出人類的想象力,很多新聞生產(chǎn)工作中原先由人工完成的部分已經(jīng)被媒體的人工智能所替代。例如,兩家美國公司“敘事科學”和“自動洞察”提供的自動化新聞服務的商業(yè)應用,正在為美國《福布斯》雜志和美聯(lián)社等媒體客戶制作數(shù)百萬篇基于金融市場和體育賽事結(jié)構(gòu)化數(shù)據(jù)的故事。這些算法生成的新聞報道與人類寫的文章基本區(qū)分不出差別[7]。如今的算法可能還未具備更加先進的自主學習的能力,但是值得注意的是,算法可以被訓練。如Facebook(臉書)曾被指控雇傭記者訓練其算法,為新聞提要選擇可能引起人們興趣的故事[8]。
算法生成新聞的快速發(fā)展與新聞業(yè)的定量和計算轉(zhuǎn)變不謀而合,記者們在新聞生產(chǎn)中使用統(tǒng)計方法挖掘和分析數(shù)據(jù)并根據(jù)這些材料來進行報道寫作成為行業(yè)里普遍的現(xiàn)象[9]。例如,機器學習技術已經(jīng)成為諸如《衛(wèi)報》《紐約時報》等大型媒體公司編輯工作不可或缺的一部分。傳統(tǒng)上,記者主要依靠定性方法進行事實選擇、材料收集,但高效率、廉價甚至是免費的處理大型數(shù)據(jù)集的軟件為記者提供了更多的創(chuàng)造力。在計算機的幫助下,記者的個人記憶能力和分析處理能力已經(jīng)得到加強。同時,數(shù)字革命還擴大了可用于計算新聞過程的數(shù)據(jù)的供應和可用性。大數(shù)據(jù)使得記者正在從一個他們接觸和反應基本上是非結(jié)構(gòu)化的信息世界轉(zhuǎn)移到一個結(jié)構(gòu)化的信息環(huán)境[10],在這個背景下,新聞的發(fā)生可以比以前更大程度地預測。
綜上所述,本文意在對算法新聞所面臨的新聞倫理進行歸納總結(jié)。目前所涉及的智能信息領域都在計算機范疇內(nèi),本研究將算法新聞定義為自然語言生成的自動化過程,它通過從私人或公共數(shù)據(jù)庫中選擇電子數(shù)據(jù),分配預先選擇或未選擇的數(shù)據(jù)特征的相關性,處理和結(jié)構(gòu)化相關數(shù)據(jù)集到語義結(jié)構(gòu),并在在線或離線平臺上發(fā)布最終的文本[10]。因此,以一個籠統(tǒng)的算法新聞的定義去討論其對傳統(tǒng)新聞倫理的結(jié)構(gòu),具有一定的概括性和價值性。
二、新聞倫理的三維分析框架
隨著算法進入專業(yè)新聞制作領域,倫理挑戰(zhàn)也隨之而來。為進一步討論算法新聞所產(chǎn)生的倫理問題,學者康斯坦丁·尼古拉斯做了一個新聞倫理發(fā)展歷史的溯源。新聞是最早也是最詳細闡述媒體倫理的領域[11]。在這個領域內(nèi),對新聞的社會和技術發(fā)展提出了倫理和道德的要求,通俗地說,即新聞能夠給社會發(fā)展帶來什么。在新聞倫理的整個演變過程中,各種價值觀都被寫入其中。一開始,新聞僅僅是一種報道,記者只需秉承真實性和客觀性原則,盡可能地還原事實。因為此時新聞的主要目標是提供信息,諸如客觀性、中立性、可確認性和中介作用等價值觀,因此被嵌套其中。隨之而來發(fā)生的社會變革(18世紀末19世紀初的資本主義革命),新聞業(yè)被賦予了更多的使命,比如,新聞應該照亮社會、發(fā)現(xiàn)真相、表明立場,并幫助建立輿論。在社會責任的傳統(tǒng)下,調(diào)查新聞破土而出,越發(fā)強調(diào)新聞真相的價值,更加反對濫用新聞以及保護消息來源。在20世紀上半葉,新聞實踐發(fā)展出了另一個分支——解釋性新聞[12],這類新聞體裁要求在報道和闡述之間取得平衡,并試圖彌補純客觀價值下缺乏的社會價值。20世紀下半葉,新聞業(yè)迎來了新的發(fā)展階段,開始了一個整合階段,新聞倫理和職業(yè)道德開始在組織層面上得到體現(xiàn)。例如,形成社會通行的新聞行業(yè)道德準則,如《國際新聞守則》或1954年通過的《國際新聞準則宣言》。
新聞倫理在微觀層面上受到了個體行為差異的影響,因此,以美德為基礎的強烈傳統(tǒng),要求個體的新聞工作者要有強烈的道德責任意識,在具體的新聞工作中應當具有勤奮、可靠、誠實的作風,這樣他所寫出的報道才會被信賴。這些美德通常是在新聞教育中被賦予或灌輸?shù)腫13]。但隨著媒介組織的壯大,普遍的研究讓人們認識到,由于媒體制度的明確分工,很難讓一個單獨的個體對報道的某一結(jié)果負責。此外,職業(yè)記者可能會受到外部如經(jīng)濟、政治、社會的約束,這些約束有時會妨礙道德行為[14]。這一認識尤其適用于算法新聞,因為在算法新聞的制作過程中有多個角色和不同層次參與的明確責任,例如,互聯(lián)網(wǎng)服務商承擔著提供數(shù)據(jù)的責任,而媒體承擔著制作和發(fā)布的責任。
我國在20世紀90年代就開始了有關新聞倫理的研究,綜合學界的研究,概括地說,新聞倫理是指新聞傳播業(yè)整體、新聞媒介實體(包括報社、電臺、電視臺、網(wǎng)站等新聞組織)和新聞工作者(如編輯、記者、播音、主持等)在新聞傳播活動中的價值取向、道德表現(xiàn)與日常行為品德規(guī)范等的總和[15]。新聞倫理反映的雖然只是新聞傳播領域內(nèi)的道德關系,但由于新聞傳播活動的影響遍及社會生活各個角落,從這個角度理解來說,媒體組織為社會履行特定功能是不可或缺的。因此,通過上面的綜述,本文確定了個人、組織和社會三個層面上算法新聞面臨的倫理挑戰(zhàn)的分析框架。
三、算法新聞面臨的新聞倫理問題反思
(一)個體層面:隱私泄露
個體層面面臨的倫理挑戰(zhàn)主要在于用戶的隱私問題和自主權(quán)問題。在新聞領域,消息來源保護是一項重要議題,它涉及公民的隱私權(quán)、名譽權(quán)等民事權(quán)利。在用戶的隱私權(quán)問題上一個重要的問題是算法服務商在收集數(shù)據(jù)時,個人或隱私權(quán)是否受到侵犯。由于算法編程的復雜性,算法自然語言生成通常外包給專業(yè)的算法公司去操作,與新聞組織受到新聞專業(yè)約束不同,算法公司通常沒有新聞倫理的意識,這就導致了數(shù)據(jù)的收集、整合等處理過程雖然并不一定違反商業(yè)規(guī)則,卻面臨著新聞倫理的批判。2021年5月,國家網(wǎng)信辦曾通報百度等105款APP侵犯用戶個人隱私的現(xiàn)象,這些APP均存在未經(jīng)用戶同意收集使用個人信息以及未按法律更正個人信息等問題,搜狗輸入法、訊飛輸入法、QQ輸入法等市場份額較高的輸入法也包含其中,可見算法對用戶隱私侵犯問題的普遍。
技術霸凌侵犯著用戶的自主權(quán)。這個方面主要表現(xiàn)在算法新聞的分發(fā)階段,如今,互聯(lián)網(wǎng)信息的分發(fā)更多地依靠算法精準識別用戶,從而實現(xiàn)傳播效率的提高。對于算法新聞,典型的侵犯用戶自主權(quán)行為體現(xiàn)在內(nèi)容的強制推薦,除了精準識別用戶,算法一定的滯后性會導致無差別投送的發(fā)生,也許用戶只是因為在某次推送中瀏覽了相同類型的內(nèi)容,之后算法便會源源不斷地將此類型內(nèi)容推送給用戶,而事實上這并不是用戶的偏好。從另一個角度說,用戶有權(quán)拒絕或接受某類內(nèi)容的推送,但在現(xiàn)實操作中,用戶對反感內(nèi)容的拒絕只存在“事后操作”,即用戶在接收到信息后才可以選擇“不喜歡此類內(nèi)容”來減少推送數(shù)量,極大地侵犯了用戶的自主性。
(二)組織層面:算法偏見
算法偏見是組織層面常見的倫理失范的表現(xiàn)。算法是由開發(fā)人員編程出來的,算法偏見可以理解為算法在信息生產(chǎn)和分發(fā)的過程中,因為開發(fā)者的局限性導致新聞的客觀中立性缺失。許多人認為技術中立特指技術本身是中立的,不存在偏見。但是,技術中立包括兩個概念,即技術本身的中立性和技術在實際生產(chǎn)和應用中的“中立性”[16]。這里討論的是后者,也就是算法偏見在算法越來越普及的今天對公眾信息認知的影響是不可估量的。資本壟斷也是產(chǎn)生算法偏見的主要原因。如今,作為算法的先決條件,技術掌握在大型互聯(lián)網(wǎng)企業(yè)手中,算法新聞在這個意義上可以說也是掌握在大型互聯(lián)網(wǎng)企業(yè)手中的。技術壁壘為大型資本隱蔽地躲過倫理的審判提供了機會。
其中最為典型的就是算法黑箱。由于有一定的門檻,算法不容易被公眾認知和理解,從而被稱作“黑箱”,即使稿件的挖掘、生成等過程都透明,但制定算法的規(guī)則公式掌握在資本手中卻不為人知,算法偏見就有機可乘。而新聞的透明性是信息自由最基本的訴求[17],也是新聞倫理的基本組成部分,但大部分普通民眾無從知曉算法背后的目的和意圖,在資本的壟斷下,甚至是如何對其監(jiān)管也成為一項難題。作為算法能夠應用于新聞領域的基礎,自然語言的生成需要海量數(shù)據(jù)的支撐,那么數(shù)據(jù)運用所帶來的問題也隨之出現(xiàn)。在新聞報道中,數(shù)據(jù)必須是可靠和準確的。但目前算法還不具備識別錯誤或不準確數(shù)據(jù)的強大功能,自然語言生成也未具備創(chuàng)造性和自學能力[18],這也為算法新聞存在人為干擾因素而提供了條件。
(三)社會層面的倫理挑戰(zhàn):新聞失真
不同于以往因為人的主觀因素導致失實的狀況,從信源角度來看,算法新聞失真的主要原因在于未經(jīng)過證實的材料的使用,目前的算法還未發(fā)展到能夠進行真?zhèn)伪鎰e的程度,其生成的文本大多是通過互聯(lián)網(wǎng)搜集到的資料進行一定邏輯的拼湊,而互聯(lián)網(wǎng)雖然是目前最大的信息集散中心,卻也是失真新聞的滋養(yǎng)土壤,算法無法對龐大的數(shù)據(jù)等內(nèi)容進行一一核實,這就導致了算法新聞的不可靠。算法新聞目前存在的缺陷導致失實新聞的傳播極易產(chǎn)生不良的社會后果,新聞是人們認知世界的主要渠道,在構(gòu)建媒介現(xiàn)實的同時也構(gòu)建著社會現(xiàn)實,失實新聞嚴重影響人們對社會的正確認知。算法的主要應用場域——互聯(lián)網(wǎng)已經(jīng)發(fā)展成為大眾認識世界的主要工具。然而充分依賴算法技術來運行的信息世界,因為商業(yè)逐利等各種原因,充斥著大量與現(xiàn)實不符的算法新聞。這些失實新聞的傳播對社會的誤導作用是明顯的。
一個典型的例子是,2016年的美國總統(tǒng)選舉因為算法未發(fā)現(xiàn)樣本數(shù)據(jù)存在問題,民調(diào)數(shù)據(jù)出現(xiàn)系統(tǒng)性樣本偏差而導致當時多家權(quán)威新聞機構(gòu)對于大選的估算都發(fā)生錯誤,因此不僅新聞界聲譽遭受重創(chuàng),甚至對美國的政治、經(jīng)濟和社會都產(chǎn)生了較大負面影響。大部分劣質(zhì)的算法新聞盡管在專業(yè)人員看來識別度很高,但在閱讀網(wǎng)絡化的今天,仍然造成了惡劣的影響。
四、結(jié)語
技術與倫理道德的關系很早就引起關注,中國傳統(tǒng)哲學就強調(diào)“技藝之德”,先秦時期,“以術入道,以道馭術”的技術倫理思想已經(jīng)萌芽,莊子的“由技至道”理念蘊含在“庖丁解牛”的故事中[19]。人是發(fā)明和運用的主體,掌握“技藝之德”往往能給社會帶來福祉。但是,缺乏技術運用的節(jié)制,技術運用的不規(guī)范和對技術的過于倚重,尤其是在完全依賴技術發(fā)展的今天,技術的消極作用會被無限放大。
算法新聞的出現(xiàn)和發(fā)展無疑提高了新聞生產(chǎn)的效率,促進了新聞業(yè)的快速發(fā)展,精準的算法機制甚至能構(gòu)筑行業(yè)對新聞真實性、客觀性的新要求。目前算法新聞實踐的結(jié)果顯示出了局限性,人工智能仍在發(fā)展中,本文期待正在發(fā)展中的算法的完善,但面對實踐中暴露出來的一系列倫理缺陷,人類不得不從技術監(jiān)管、技術公開層面正視并采取措施去解決這些倫理缺陷。潮
參考文獻
[1]王斌,吳倩.數(shù)字環(huán)境下新聞業(yè)的本體特征與研究路徑[J].新聞與寫作,2021,449(11):5-12.
[2]姜華,張濤甫.傳播結(jié)構(gòu)變動中的新聞業(yè)及其未來走向[J].中國社會科學,2021,308(08):185-203,208.
[3]劉海明.算法技術對傳統(tǒng)新聞理念的解構(gòu)與涵化[J].南京社會科學,2019(1):117-124.
[4]趙彥華.新技術的應用迅速改變著美國的新聞業(yè)[J].現(xiàn)代傳播·北京廣播學院學報,1994(6):76-77.
[5]陳昌鳳,師文.個性化新聞推薦算法的技術解讀與價值探討[J].中國編輯,2018,106(10):9-14.
[6]陳昌鳳,雅暢帕.顛覆與重構(gòu):數(shù)字時代的新聞倫理[J].新聞記者,2021(8):39-47.
[7]喻國明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態(tài):從ChatGPT到全面智能化時代的未來[J].新疆師范大學學報(哲學社會科學版),2023(2):1-10
[8]鄭越,楊帆.記者和算法誰更值得信任:“機器人新聞”可信度的影響因素探析[J].現(xiàn)代傳播(中國傳媒大學學報),2019,41(6):63-67.
[9]“國內(nèi)外新聞與傳播前沿問題跟蹤研究”課題組,殷樂.大數(shù)據(jù)時代的新聞:個案、概念、評判[J].新聞與傳播研究,2015,22(10):119-125.
[10]常江,朱思壘.數(shù)字新聞敘事的革新:視覺化、游戲化、劇場化[J].西北師大學報(社會科學版),2023,60(1):51-58.
[11]展江, 彭桂兵. 媒體道德與倫理案例教學[M]. 北京:中國傳媒大學出版社, 2014.
[12]汪蘇華.西方解釋性新聞的特點與寫作要求[J].當代傳播,2005(5):34-36.
[13]王亦高,房建碩.新聞職業(yè)精神再探究[J].現(xiàn)代傳播(中國傳媒大學學報),2015,37(8):156-157.
[14]張宏瑩.淺析西方媒介問責機制[J].新聞戰(zhàn)線,2012(12):80-82.
[15]劉斌.技術與倫理的沖突與融合:算法新聞時代新聞倫理重構(gòu)及對策[J].西南民族大學學報(人文社會科學版),2022,43(3):135-143.
[16]羅嘉豪,邢虹文.算法推薦技術應用背景下的平臺責任問題[J].編輯學刊,2023(2):62-67.
[17]於春.算法、權(quán)力與治理:智能時代美國新聞自由與民主政治的反思[J].當代世界與社會主義,2022(3):117-122.
[18]張帆.生產(chǎn)、演進與傳播:算法新聞學的知識圖景[J].暨南學報(哲學社會科學版),2022,44(2):11-21.
[19]喻國明,楊雅,陳雪嬌,等.類腦、具身與共情:如何研究人工智能對于傳播學與后人類的影響:基于國際三大刊Science、Nature和PNAS人工智能相關議題的分析[J].學術界,2021,279(8):108-117.
(責任編輯:黃康溫)