【摘 要】在大數(shù)據(jù)、云計算、物聯(lián)網(wǎng)等技術的推動下,智能算法進入新聞領域,在新聞生產(chǎn)和分發(fā)方面的作用日益凸顯。本文從智能傳播視角下把關角色、把關行為、把關內(nèi)容和把關功能的變化,探討智媒時代算法技術給把關機制帶來的沖擊,并提出提高算法透明性與公正性,加強人機協(xié)作和完善法律法規(guī)監(jiān)管機制,提高傳播效能,實現(xiàn)多元把關和信息共享相輔的算法協(xié)同治理。
【關鍵詞】人工智能;算法;把關人;新聞業(yè)
【基金項目】本文系2022年山西省高等學校教學改革創(chuàng)新項目《基于OBE理念的影視傳媒類實踐教學評價體系研究》(編號:J20220493)。
互聯(lián)網(wǎng)時代,人人都可以成為信息的發(fā)布者和傳播者。以人工智能技術為基礎的算法把關在創(chuàng)新新聞生產(chǎn)與傳播方式的同時,也“入侵”著傳統(tǒng)媒體的新聞把關領域,新聞把關的主體有從新聞從業(yè)者變?yōu)樗惴ò殃P人的趨勢。面對算法把關可能帶來的新聞真實性、算法偏見等問題,有必要對智媒時代的把關人進行研究和分析,確保算法把關能更好地服務新聞業(yè)。
一、 風險隱憂:算法技術對于把關機制的消解
技術革新推動新聞業(yè)的一次次變革,互聯(lián)網(wǎng)技術和人工智能技術的發(fā)展讓我們進入智媒時代。在新聞把關領域,傳統(tǒng)的把關機制遭遇前所未有的沖擊。算法技術以大數(shù)據(jù)為基礎,通過預先設定的程序和智能化的學習對數(shù)據(jù)進行分類和整合,為人們提供個性化推薦、智能生成等服務,為新聞生產(chǎn)和分發(fā)帶來了便利。但同時,算法黑箱的不透明性,算法推薦下的信息繭房效應,算法錯誤導致的新聞失范現(xiàn)象等,給傳統(tǒng)媒體的新聞把關帶來了巨大沖擊和挑戰(zhàn)。
(一)算法不透明性與公正性問題
算法技術有復雜的程序邏輯,將其運用到新聞領域,新聞的生產(chǎn)與傳播過程將成為“黑箱”。算法黑箱的形成多是源于算法技術本身的復雜性以及媒體機構、技術公司的排他性商業(yè)政策,本質(zhì)在于不透明、不公開、技術門檻高和難理解。[1]
算法設計者受利益驅(qū)動和“流量為王”的裹挾,在以數(shù)據(jù)為主導編寫算法程序的過程中難免會將自己的主觀偏見植入,很難做到完全公正。學者陳昌鳳指出,注意力導向的評價機制,不僅無法使嚴肅新聞戰(zhàn)勝聳動新聞,反而使利益驅(qū)動新聞編輯室,導致新聞生產(chǎn)的質(zhì)量滑坡。[2]
同時,算法根據(jù)用戶畫像和標簽等進行智能推薦,可能引發(fā)算法偏見與歧視。算法推薦需要以大數(shù)據(jù)為基礎,而數(shù)據(jù)采集的片面化和虛假性將會阻礙用戶對于不同類型信息的自由選擇,加劇虛假新聞、低質(zhì)新聞的出現(xiàn),也引發(fā)算法歧視。算法歧視是以算法為手段實施的歧視性行為。例如,算法技術通過采集用戶消費偏好、消費頻率、消費水平等個人數(shù)據(jù),預判用戶對于某商品的消費意愿,精準設定定價邊界,以達到區(qū)別定價和“大數(shù)據(jù)殺熟”的目的。
(二) 算法推薦與“過濾氣泡”
算法通過分析海量數(shù)據(jù)形成用戶畫像,并依據(jù)用戶畫像進行個性化推薦。個性化推薦在信息傳播中承擔過濾和把關作用。目前個性化推薦主要包括基于內(nèi)容的推薦、協(xié)同過濾推薦、基于標簽的推薦、社會化推薦、基于深度學習的推薦、基于知識的推薦、基于網(wǎng)絡結構的推薦、混合推薦等。[3]
大數(shù)據(jù)時代,各平臺利用算法的個性化推薦技術迎合用戶興趣愛好,邊緣化其他類型內(nèi)容的推薦,使得用戶在不知不覺中被自己的興趣偏好所束縛,生活在算法推薦造就的“過濾氣泡”之中。[4]
伊萊·帕里策認為“過濾氣泡”以大數(shù)據(jù)與算法推薦為底層架構,根據(jù)用戶的使用時間、地區(qū)以及瀏覽習慣生成用戶畫像,并通過算法技術為其呈現(xiàn)獨一無二的界面體驗。[5]算法推送通過篩選推送同類型內(nèi)容,造成受眾形成單一的信息體系,受眾長期接受算法個性化推送的內(nèi)容,就會被包裹在一個同質(zhì)化信息流構成的“過濾氣泡”之中。
由于當前算法技術的不成熟,加上媒體把關過程中難免會出現(xiàn)漏洞,同質(zhì)化、低質(zhì)內(nèi)容被反復推送給受眾,產(chǎn)生“過濾氣泡”,造成“信息繭房”。算法根據(jù)受眾關注度和點擊率等數(shù)據(jù)進行推薦,導致受眾看到的都是自己喜歡看的內(nèi)容。高重復度的內(nèi)容推送會導致信息窄化,受眾難以接觸不同角度的觀點,逐漸失去自己的思考和判斷能力。長此以往會阻礙個人與群體的發(fā)展,也加大了媒體把關的難度。
二、角色、行為、內(nèi)容:算法技術改變把關機制
在信息傳播領域,把關人、把關關系和傳播機制作為結構性要素共同影響著把關的效果。步入智媒時代,算法已經(jīng)滲透到社會的方方面面,它作為一種中介,構建了數(shù)據(jù)化界面,成為隱性的技術把關者。算法技術作為新的把關機制之一,對傳統(tǒng)媒體的把關機制帶來了沖擊與影響,其表現(xiàn)主要有以下幾個方面。
(一) 把關角色的改變:把關人的泛化和分散化
隨著技術的進步,以智能技術為主導的新型傳播形式正潛移默化地影響人們的生活。由此,新聞把關人的角色也發(fā)生了變化。在傳統(tǒng)的把關模式中,把關人一般由專業(yè)的新聞從業(yè)者和媒體機構擔任,他們掌握著信息獲取、選擇、加工、傳播的權利。
步入智媒時代,隨著具有全時性、交互性、數(shù)據(jù)化、個性化和智能化等特性的新媒體出現(xiàn),信息傳播與接受者身份的多重性,以及受眾對于信息的需求各異,導致媒體把關難度增加,把關人角色泛化和分散化。除了傳統(tǒng)媒體機構,新聞從業(yè)者、平臺運營人員和審核人員,把關人角色擴大至“個體把關人”和“算法把關人”。其中,算法把關在把關機制中發(fā)揮著重要作用。
算法本是建立在海量信息和海量用戶基礎上的匹配技術,通過大數(shù)據(jù)、云計算等實現(xiàn)人的數(shù)據(jù)化,對新聞生產(chǎn)和個性化推送等進行把關。算法技術作為信息采集和加工流程的介入者,算法把關人如同守望者,在“控制大門”(police gates)的同時,需要評估信息的可靠性。[6]例如抖音平臺在審核信息發(fā)布環(huán)節(jié)中,算法對于內(nèi)容(文案、場景)是否搬運,是否涉及違禁詞等進行檢測,對于違反抖音平臺審核規(guī)定的視頻內(nèi)容進行攔截,采取不予發(fā)布及低流量推薦等措施。
但是,隨著算法技術的介入,把關人的泛化和分散化,傳統(tǒng)把關權利的讓渡帶來了一定風險。由于大眾追求獵奇和娛樂心理,經(jīng)他們把關的內(nèi)容在真實性和可靠性上有待考量,一些低質(zhì)、重復、虛假信息泛濫。部分平臺為了追求流量,博取熱度和點擊率,甚至放棄把關,給智媒時代的信息傳播秩序帶來了嚴峻挑戰(zhàn)。
(二)把關行為的改變:把關行為的多向性和人性化
傳統(tǒng)媒體時代,新聞從業(yè)者需對信息進行取舍,將最有價值的信息呈現(xiàn)給受眾。新聞媒體把關的標準以是否具有真實性,是否具有新聞價值為主。傳統(tǒng)的把關行為體現(xiàn)的是“發(fā)出”與“接收”的單向關系,受眾對于信息的選擇相對比較被動,無法參與信息生產(chǎn)。隨著傳播方式的多元化,把關行為隨之改變,把關行為變?yōu)橄嗷ソ豢椀木W(wǎng)狀去中心化的交互方式,出現(xiàn)了人機協(xié)作形式的把關行為。
在采寫階段,算法把關能夠快速高效地采集和篩選海量信息,依托大數(shù)據(jù),通過預先編好的程序生成稿件。機器的高效生產(chǎn)、深度挖掘能力為新聞從業(yè)者的深度報道提供了便利。一方面,算法技術可以全天候24小時地采集各平臺、各渠道的數(shù)據(jù),擴大信息采集維度,為記者提供新聞線索和數(shù)據(jù)支撐,提升新聞生產(chǎn)的效率。另一方面,算法技術可以通過用戶分析和選題整合,為媒體提供豐富的資源,拓寬選題的廣度和深度,包括全新報道視角。隨著人工智能技術的發(fā)展,AI智能寫作將愈發(fā)人性化,為公眾提供更豐富、多樣化、個性化的新聞。
在分發(fā)階段,算法技術通過用戶畫像等數(shù)據(jù)進行個性化推送,更注重用戶個性化的體驗,增強用戶的黏性。在審核階段,算法把關對信息進行動態(tài)化、全流程的把關,成為信息核查的主要力量。算法把關通常根據(jù)傳播反饋的效果和引起的社會影響對已發(fā)布的信息進行監(jiān)測和修正,避免誤導受眾和造成不良影響。
算法技術使得把關行為從 “支配”到“迎合”,受眾的主體地位逐漸上升。但需要注意的是,當前的算法把關的人性化機制尚不成熟,存在過度關注受眾個性化需求而弱化新聞價值的現(xiàn)象,相關部門需要加大對算法風險的防范。
(三) 把關內(nèi)容的改變:把關內(nèi)容的碎片化和去語境化
傳統(tǒng)媒體時代,媒體的報道方式以及力度影響著受眾對事件的知曉和關注程度。而進入智媒時代,媒體議程設置功能被削弱,在海量信息中,大量碎片化的冗余信息分散受眾的注意力,算法技術對內(nèi)容的把關有著重要作用。算法技術對于內(nèi)容的把關體現(xiàn)在內(nèi)容分發(fā)和內(nèi)容審查兩個方面。
算法把關存在內(nèi)容分發(fā)機制。一方面,算法基于個性化推薦技術篩選用戶感興趣的信息和優(yōu)質(zhì)內(nèi)容進行推薦。算法通過用戶的性別、地域、年齡、常看的內(nèi)容等數(shù)據(jù)進行整理分類,并貼上不同的標簽,根據(jù)匹配度將信息推送給合適的人群,完成個性化推薦。另一方面,算法技術通過數(shù)據(jù)分析整合熱門內(nèi)容,進入新一輪的精品推薦,篩選出點贊量多、完播率高、評論互動性強的內(nèi)容進行推薦。例如,抖音平臺創(chuàng)作者中心將完播率、評論率、轉(zhuǎn)發(fā)率、點贊率作為用戶創(chuàng)作的視頻內(nèi)容是否能進入更高的流量池的參考標準。
算法把關存在內(nèi)容審查機制。大眾傳播時代受眾具有多、雜、散、匿的特點,由于媒介素養(yǎng)參差不齊,傳播目的不同等導致他們所創(chuàng)作的內(nèi)容質(zhì)量不一,部分包含低俗信息,存在為博取流量或為達到商業(yè)目的的營銷內(nèi)容。在碎片化閱讀時代,受眾在接收信息過程中對于新聞信息的來龍去脈缺乏判斷和深入的了解意識。網(wǎng)絡中充斥著各種“斷章取義”的信息,增加了把關的難度。
同時,算法基于用戶畫像、熱度排行榜等推薦機制,也將受眾困在算法所搭建的信息繭房中。智能平臺的內(nèi)容分發(fā)模式說明,信息的選擇和用戶的需求有關。無論是對商品信息還是新聞信息的獲取,都是由算法驅(qū)動下的機器完成,算法成為信息內(nèi)容過濾和發(fā)放的重要因素,決定著各類信息的去向。長此以往,受眾將自己桎梏于算法編織的“繭房”之中。
三、規(guī)制算法:智媒時代內(nèi)容生產(chǎn)把關機制的重構
算法并非“孤立的代碼”,而是傳播實踐場域中不可分割的一部分。[7]算法技術在運用過程中所帶來的風險,對把關機制帶來了一系列沖擊。面對算法透明性與公正性、算法個性化推薦產(chǎn)生的“過濾氣泡”及算法錯誤導致的法律與倫理失范等困境,算法設計者及相關部門應該有的放矢地進行防范。
(一)優(yōu)化算法設計,提高算法的透明性與公正性
20 世紀 90 年代以來“透明性”原則成為新聞倫理的首要原則。這一原則由信息披露透明、參與透明兩個部分組成。[8]一方面,對于人工智能平臺算法技術的運用范圍、參數(shù)報備與法律備案等要做到公開透明,在算法技術投入使用之前,要經(jīng)過相關監(jiān)管部門的審查,并出具相應的審查結果和意見證明。對于通過審查的算法產(chǎn)品,可到相關管理部門報備參數(shù)和基本信息錄入,便于后續(xù)投入使用階段的核查。做到分清責任主體,信息公開透明。
另一方面,算法設計者應當優(yōu)化和完善對于算法推薦機制的程序設計,避免引發(fā)受眾的厭倦情緒,減少同質(zhì)化內(nèi)容推薦。在設計算法程序過程中應保持公正,減少個人主觀情緒對于算法設計的干擾,以免造成算法程序的偏差。同時,在算法技術投入使用的過程中,要揭示人工智能平臺算法風險信息,以事先做出預判性的應對措施。
此外,要注意算法的人性化,能準確了解受眾的喜好和需求,打破信息繭房帶來的束縛。不斷優(yōu)化算法設計,增強信息真實性的識別。政府和企業(yè)也應該公開與算法相關的數(shù)據(jù),做到過程的公開透明,增強受眾對于算法的信任。
(二)加強人機協(xié)作,實現(xiàn)優(yōu)勢互補
目前,人機協(xié)同下信息采集和審核已實現(xiàn)智能化,機器成為信息核查的輔助力量,也可能帶來信息核查的新思路與新機制,包括來源分析、模式識別、技術鑒定、交叉驗證、演變跟蹤等。[9]人機協(xié)同成為新聞生產(chǎn)和傳播的新趨勢。
由于算法技術帶來的碎片化信息的重組,去語境化的內(nèi)容制作,容易引發(fā)受眾對新聞事件的理解和態(tài)度的誤解,所以,智媒時代更要注重發(fā)揮新聞編輯的價值,讓編輯的把關作用煥發(fā)新的內(nèi)涵。
人工智能快速發(fā)展,智能技術在寫作等領域的廣泛運用,新聞編輯要利用新聞倫理約束算法技術,警惕算法技術在智能生成和分發(fā)方面的潛在風險,發(fā)揮監(jiān)督與協(xié)作技術在新聞業(yè)的作用。
加強人機協(xié)作,必須明確即使未來算法技術不斷優(yōu)化升級,人依然作為決策主體。新聞從業(yè)者要充分發(fā)揮質(zhì)疑精神和批判思維的作用,創(chuàng)新算法在新聞生產(chǎn)和分發(fā)方面的應用,推動人工智能技術的發(fā)展和應用。
(三)推動多元信息傳播與價值認同,減少偏見與歧視
推動多元信息傳播與價值認同,對于減少算法偏見有重要意義。由于算法的個性化推薦機制,人們逐漸接收單一的信息,不利于從多個角度對信息加以判斷,形成價值認同。算法設計者在編寫程序時難免會帶有偏見,在一定程度上阻礙了信息的客觀傳遞。同時,個體無法了解和掌握其他用戶的信息數(shù)據(jù),使得用戶深陷算法歧視囹圄卻不自知。因此,要減少算法技術帶來的偏見和歧視,需要推動和倡導多元價值,建立健全信息傳播機制,打破信息壁壘;需要加強人機協(xié)作,建立多層次把關機制,并在算法決策過程中對數(shù)據(jù)進行校驗和修正,減少算法偏見問題的出現(xiàn),促進多元信息傳播與價值認同的形成。
(四)健全算法把關的監(jiān)管機制和相關法律法規(guī)
隨著科技的發(fā)展,人們被逐漸“數(shù)據(jù)化”,社會管理逐漸依賴大數(shù)據(jù)與各類智能程序的運用,算法技術是推動人工智能發(fā)展的核心要素。有效規(guī)制算法權利就要對其作出系統(tǒng)、準確的規(guī)定,讓法律法規(guī)覆蓋算法技術運用的各個方面。監(jiān)管部門要重視對算法技術數(shù)據(jù)采集程序和內(nèi)容的監(jiān)管,對網(wǎng)絡財產(chǎn)保護等作出相應的規(guī)定。
相關企業(yè)要完善數(shù)據(jù)安全保障機制,避免因數(shù)據(jù)缺失或不準確引發(fā)算法歧視和算法錯誤問題,定期進行數(shù)據(jù)安全風險評估。算法設計者要加強媒介素養(yǎng)和職業(yè)道德建設,學習相關法律法規(guī),減少自身偏見對算法程序設計的影響。
政府和相關部門要健全有關算法權利的法律條例,明確算法歧視和算法錯誤的責任主體,保護個人隱私。例如《通用數(shù)據(jù)保護條例》,加強對個人隱私數(shù)據(jù)的規(guī)范和保護;《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》,對“大數(shù)據(jù)殺熟”等問題作出相關規(guī)定。
四、 結語
人工智能的發(fā)展推動新聞傳播領域的技術革新,在算法技術主導的新聞生產(chǎn)和傳播過程中,海量的信息內(nèi)容帶來的碎片化傳播,個性化推薦技術引發(fā)的“過濾氣泡”和“信息繭房”,讓受眾疲于在復雜的新聞環(huán)境中尋找自己真正需要的內(nèi)容。同時,算法黑箱引發(fā)的透明性與公正性問題,生成式新聞面臨的倫理失范和責任推諉等問題影響著人們的日常生活。
未來,隨著算法技術的不斷發(fā)展和深入,我們應當把握和利用好算法技術,加強人機協(xié)作,生產(chǎn)真實、客觀、有價值的高質(zhì)量新聞。同時,建立更加完善的法律法規(guī),保障算法技術的應用和發(fā)展。
注釋:
[1]劉耀華.治理算法黑箱:建構算法科技與新聞倫理的道德智能體[J].大眾文藝,2023(18):59-61.
[2]陳昌鳳,師文.個性化新聞推薦算法的技術解讀與價值探討[J].中國編輯,2018(10):9-14.
[3]彭蘭.算法社會的“囚徒”風險[J].全球傳媒學刊,2021(01):3-18.
[4]劉維.移動短視頻內(nèi)容把關模式研究[D].西南大學,2019.
[5]El.Pariser. The Filter Bubble: What ther from You[M]. Penguin Press .Internet is Hiding,2011:3-12.
[6][7]袁映雪,陳虹.把關人視角下的算法技術認知與治理出路研究[J].新媒體與社會,2022(01):220-233.
[8]劉斌.技術與倫理的沖突與融合——算法新聞時代新聞倫理重構及對策[J].西南民族大學學報(人文社會科學版),2022,43(03):135-143.
[9]彭蘭.從ChatGPT透視智能傳播與人機關系的全景及前景[J].新聞大學,2023(04):1-16+119.
(作者單位:山西師范大學)
責編:姚少寶