沈斌 王瀟 譚言
智能推薦技術(shù)已在當前新聞產(chǎn)品算法中占據(jù)主流。今日頭條、抖音、快手等都依靠智能推薦技術(shù)向用戶提供針對性的內(nèi)容服務(wù)。隨著互聯(lián)網(wǎng)的迅速發(fā)展,智能推薦系統(tǒng)已逐漸成為各種網(wǎng)絡(luò)應(yīng)用中不可缺少的核心功能,它通過各種方式滲透到人們的日常生活中。
基于智能推薦技術(shù)的信息傳播特點有:
即時性。智能推薦算法的搜索引擎的快速崛起有效解決了用戶獲取信息效率低下的問題。互聯(lián)網(wǎng)提供的信息是即時的,無延遲的。用戶通過手機等終端登錄應(yīng)用軟件,通過軟件的推薦算法即可獲取媒體平臺推送的新聞信息。
個性化。隨著深度挖掘技術(shù)對用戶的網(wǎng)絡(luò)行為、個人喜好的不斷建模分析,單個用戶的個性化需求日益突出。智能推薦技術(shù)使得基于用戶個人知識圖譜的需求模型不斷被構(gòu)建和細化,以實現(xiàn)對用戶的精準推送。
實時反饋性?;谟脩艟W(wǎng)絡(luò)行為的個人需求模型根據(jù)用戶實時演變的行為軌跡而不斷更新,用戶實時的需求被發(fā)現(xiàn),智能推薦技術(shù)會及時調(diào)整推送策略,根據(jù)反饋數(shù)據(jù)實現(xiàn)推送。
主流意識形態(tài)是在某個特定的時期內(nèi)在社會中具有一定的主導性的一種意識的表現(xiàn),其對于專業(yè)知識、技術(shù)儲備有一定的門檻要求,主流意識形態(tài)最大范圍涵蓋不同社會群體的意識形態(tài),但當前去中心化的信息流動,對于機器這一工具理性取勝的推薦策略而言,有主流意識形態(tài)被稀釋的風險。
在國際社交媒體平臺中,“偏見”已然形成。此前推特以國家操縱為借口,一再清除大批就香港修例風波為中國發(fā)聲的賬號,影響海外社交平臺用戶對香港修例風波的判斷。對此,推特聲明稱,將繼續(xù)通過內(nèi)容審查政策“促進公共對話”。當只有一方的觀點被允許傳播時,哪有“對話”可言?推特將主觀偏見注入所謂“公平”的算法工具,形成反華的“回音室”,對中國的偏見和誤解在不斷的點贊、轉(zhuǎn)發(fā)和評論中增強固化。
智能推薦技術(shù)目前只滿足于特定場景的適配,尚未充分開辟全面的價值判斷格局。受整體環(huán)境的影響,容易導致以下局面:算法從個體和商業(yè)利益的角度考慮是合理、有效率的,但從社會全局視角來看則是不合理的,甚至是負效率的?,F(xiàn)階段,一篇短短百字的帖文激起千層巨浪的事件已經(jīng)屢見不鮮,公眾往往忽略了社交平臺本身在傳播中應(yīng)該擔負起的責任。在某些程度上,算法帶著公平公正的面具,實則暗度陳倉。
推薦過程中,推薦算法作為一種“規(guī)則”,其背后隱藏的是“權(quán)力”,其價值尺度的“正義性”經(jīng)常被擱置或規(guī)避。人類社會是一個繁雜的體系,其中包含了經(jīng)濟、政治、文化甚至道德倫理問題,而這些對于人類本身并不是趨同的狀態(tài),單方面靠市場來決定,商品經(jīng)濟特點使得運營方很自然地將商業(yè)利益視為最高“權(quán)重”。通常情況下,利用推薦算法實現(xiàn)智能推薦的平臺,會將平臺利潤作為最終訴求。因此,平臺會優(yōu)先選擇能夠?qū)⑸虡I(yè)利益最大化的指標作為價值尺度,而非優(yōu)先考慮其精神價值。
同樣的,在新聞獲取時,受眾對于信息的需求量及需求方向是有限的,信息的精準推送在提升傳播效果的同時,卻使受眾接觸的信息類型趨于單一化,嚴重影響人們知識面的擴展,使其視野變得狹窄,逐漸形成包裹住人們認知的“信息繭房”。
在經(jīng)濟力量的驅(qū)使之下,大量娛樂性內(nèi)容進入人們的視野,例如微博上出現(xiàn)的“營銷號”,買熱搜、買推廣等行為,都會讓大量的受眾并不感興趣的內(nèi)容出現(xiàn)在受眾的視野中;同樣的,一些低俗、惡趣味的信息也可能無法避免地推送給了受眾,在這樣的機制下,“信息繭房”可能變?yōu)槠脚_變相圈養(yǎng)用戶的娛樂場。
互聯(lián)網(wǎng)作為“思想文化信息的集散地和社會輿論的放大器”,在改善受眾獲取信息的體驗的同時,又使受眾陷入“信息異化困境”。
在信息技術(shù)不斷發(fā)展的大環(huán)境中,信息污染是信息異化的主要表現(xiàn)形式之一。在傳播信息門檻降低后,信息出現(xiàn)了失實、重復等現(xiàn)象,嚴重影響了信息的質(zhì)量。受眾在信息泛濫的時代,很容易受到垃圾信息的侵蝕,例如網(wǎng)絡(luò)上有一些營銷號為了獲得流量而謠傳消息等,都是信息污染的表現(xiàn)。
目前,在中西媒體的競爭中,西方媒體具有較強的話語權(quán),因此一旦引導方向出現(xiàn)偏差,例如某些媒體無意識地進行了非中國意識形態(tài)的滲透,必將造成難以估量的后果,其他媒體再引導補救也很艱難,這就是信息霸權(quán)。
信息異化嚴重制約了信息生態(tài)的平衡發(fā)展。因此,后期智能推薦算法的出現(xiàn)為解決信息異化問題提供了強有力的幫助,但仍舊無法完全破除信息異化帶來的枷鎖,甚至會帶來新的異化現(xiàn)象。
針對推薦算法為受眾帶來的信息異化等傷害,本文提出了基于“技術(shù)+人文”算法及人工審核相結(jié)合的應(yīng)對策略。
互聯(lián)網(wǎng)時代,信息呈海量式增長,以今日頭條為例,其每日發(fā)布量高達60萬條。傳統(tǒng)意義上的技術(shù)是圍繞人的指令來運行的,此時,機器扮演的角色便是“執(zhí)行任務(wù)”,現(xiàn)階段,機器學習的發(fā)展使得人不需要給機器具體指令,而是依靠機器自我學習。機器學習的出現(xiàn)對于信息的“反低俗”有了很大的突破,例如今日頭條的“靈犬”,便是機器學習反低俗的產(chǎn)物。
然而“靈犬”對部分內(nèi)容也可能給出“拿不準”的結(jié)論,所以仍然需要人工判斷。反低俗問題涉及多個領(lǐng)域,光憑借算法很難解決。例如非文字本身的含義隱藏在字里行間,機器就無法識別,只能將文字變成可讀的符號去加以理解。無法完全知曉其底層含義。因此,加入人工的審核,會對其做修正和精準判斷。
1.傳遞主流意識形態(tài),建立符合社會主義核心價值觀的傳播話語體系。在技術(shù)至上的時代,主流意識形態(tài)仍應(yīng)該在社會中起核心指導作用,“技術(shù)+人文”算法能最大程度地凝聚社會共識。
自媒體快速發(fā)展,意識形態(tài)的話語權(quán)逐漸向大眾分流,個體即中心,受眾會根據(jù)自身意識形態(tài)去傳播信息和創(chuàng)造信息。推薦技術(shù)在接收爆炸式的信息后,隨之根據(jù)受眾的喜好程度進行推薦,往往遮蔽了真正有價值有意義的信息。因而,技術(shù)必須有人工的加持,避免“娛樂化”消解了“崇高”“莊嚴”,從而更加有效率地建立符合社會主義核心價值觀的話語傳播體系。
2.建立技術(shù)-人工雙重內(nèi)容把關(guān)體系,滲入“人”的價值觀。媒體應(yīng)當提供多元化信息,幫助受眾克服“個人日報”式的信息獲取習慣。機器計算簡化了新聞審核制度,但人工審核仍舊不可或缺,在機器審核的基礎(chǔ)上添加人工審核,建立技術(shù)—人工雙重內(nèi)容把關(guān)體系,在算法審核的基礎(chǔ)上,平臺應(yīng)對發(fā)布內(nèi)容進行定期定量的人工關(guān)鍵詞檢索審核,同時建立隨機抽檢制度,以保證內(nèi)容的安全性。將人工推薦與算法推薦相結(jié)合,滲入“人”的價值觀,以防止“標題黨”“內(nèi)容營銷”等游離在價值尺度邊緣的有害內(nèi)容被推廣。
新媒體時代,精準的內(nèi)容推薦過濾了海量的信息,將受眾桎梏于“個人日報”中,推薦算法應(yīng)當幫助受眾打破固有的思維模式,在推薦用戶感興趣的內(nèi)容的同時,讓受眾接觸一些有益的、多元化的觀點和內(nèi)容。
算法的權(quán)力不能凌駕于社會、人文、法律之上,人類應(yīng)合理利用先進技術(shù)但不唯算法論。當前的首要任務(wù)是在政府、媒體以及受眾三個層面進行監(jiān)管,建立算法的“分級制”,使得推薦內(nèi)容更加優(yōu)化。同時,建立“技術(shù)-人工”雙重把關(guān)體系,優(yōu)化審核機制和推薦內(nèi)容,使得受眾最大程度地接受多元化的、有益于人格塑成的信息,以平和理性的態(tài)度認識和了解外面的世界,重塑理性人格。