王亞妮
摘? 要? 算法時(shí)代的來臨極大地提高了信息分發(fā)的效率,其中的推薦算法也一定程度上減輕了信息選擇的負(fù)擔(dān),但不同的算法都有其倫理風(fēng)險(xiǎn),將會(huì)帶來信息繭房、信息選擇權(quán)的讓渡以及主流價(jià)值導(dǎo)向的缺失等問題?;谕扑]算法機(jī)制的平臺(tái)自身應(yīng)該優(yōu)化算法模型,發(fā)揮傳統(tǒng)把關(guān)人的作用,對(duì)內(nèi)容進(jìn)行審核,用戶自身也應(yīng)提高素養(yǎng),避免陷入雷同信息的大海里,應(yīng)對(duì)算法推薦的倫理風(fēng)險(xiǎn)將會(huì)是未來時(shí)代的命題。
關(guān)鍵詞? 個(gè)性化;算法推薦;新聞;倫理風(fēng)險(xiǎn)
中圖分類號(hào)? G2? ? ? 文獻(xiàn)標(biāo)識(shí)碼? A? ? ? 文章編號(hào)? 2096-0360(2019)01-0029-02
1? 算法推薦新聞概述
隨著科學(xué)技術(shù)的發(fā)展,人工智能、大數(shù)據(jù)等信息技術(shù)也深入到了新聞?lì)I(lǐng)域,其中的算法技術(shù)對(duì)新聞行業(yè)的生產(chǎn)、分發(fā)等環(huán)節(jié)都產(chǎn)生了巨大影響。發(fā)達(dá)國(guó)家的互聯(lián)網(wǎng)公司應(yīng)用算法技術(shù)比較早,F(xiàn)acebook、亞馬遜、谷歌等公司在新聞的搜索、推薦方面的算法技術(shù)已經(jīng)十分成熟。國(guó)內(nèi)以今日頭條為代表的互聯(lián)網(wǎng)公司首先嘗試了個(gè)性化算法推薦技術(shù),用算法進(jìn)行新聞的生產(chǎn)與分發(fā),而傳統(tǒng)新聞媒體并未將算法技術(shù)應(yīng)用到相關(guān)制作中。
個(gè)性化服務(wù)源于出現(xiàn)在美國(guó)人工智能協(xié)會(huì)上的個(gè)性化導(dǎo)航系統(tǒng)we-watcher,它的出現(xiàn)使個(gè)性化概念在技術(shù)界傳播開來,亞馬遜和谷歌分別作為電子商務(wù)網(wǎng)站和搜索引擎的代表率先嘗試了個(gè)性化服務(wù)。國(guó)外以《紐約時(shí)報(bào)》為代表的新聞網(wǎng)站率先嘗試了算法推薦,根據(jù)用戶的行為習(xí)慣和閱讀歷史進(jìn)行推薦;而國(guó)內(nèi)2012年在今日頭條宣稱“不生產(chǎn)新聞、只做新聞的搬運(yùn)工”以后,搜狐、網(wǎng)易、新浪等新聞客戶端紛紛加入了個(gè)性化推薦功能。今日頭條憑借起步早的優(yōu)勢(shì)在2018年已經(jīng)累計(jì)有超過“1億個(gè)活躍用戶”①,其活躍度遠(yuǎn)勝同類產(chǎn)品。
2? 算法推薦新聞的技術(shù)與倫理
個(gè)性化算法推薦新聞,一方面能在海量繁雜的信息里,把合適的信息,推薦給需要的用戶,但另一方面由于算法推薦導(dǎo)致人們偏向只關(guān)注自己所關(guān)心的信息,對(duì)其他公共信息置之不理,長(zhǎng)此以往,用戶的眼界、視野也會(huì)變得狹窄。當(dāng)前個(gè)性化算法分為“基于內(nèi)容的推薦算法”“基于協(xié)同過濾的推薦算法”“基于熱度的推薦算法”三類,每種算法都有其局限性,本身也存在著侵犯公民隱私、偏見和歧視等倫理問題,下文將從三類算法的原理出發(fā)分析其倫理風(fēng)險(xiǎn)。
1)基于內(nèi)容的推薦算法:信息繭房?;趦?nèi)容的推薦算法的實(shí)質(zhì)是看平臺(tái)推送的內(nèi)容有與用戶是否有相匹配之處。每一次評(píng)論點(diǎn)贊的反饋行為都讓該算法不斷地在完善用戶畫像,不斷打上更細(xì)化的標(biāo)簽,一方面信息和人實(shí)現(xiàn)了高效匹配,節(jié)省了用戶的時(shí)間,但另一方面算法讓用戶在無形之中回避了自身不太感興趣的內(nèi)容,進(jìn)行了“選擇性接觸”②,久而久之也就失去了了解和認(rèn)識(shí)不同事物的能力,更不利于自身全面客觀地認(rèn)識(shí)世界?!靶畔⒗O房”讓用戶生活在自我的世界里,認(rèn)為眼前的信息即是真實(shí)的世界,長(zhǎng)此以往,正如赫伯特·馬爾庫塞所說,“當(dāng)每個(gè)人都只關(guān)心‘我時(shí),人們對(duì)待社會(huì)公共事務(wù)的熱情也會(huì)逐漸減弱,那么社會(huì)公共價(jià)值也就無從談起”。另外,基于內(nèi)容的推薦算法無法審核信息的質(zhì)量,很有可能給用戶構(gòu)建起一個(gè)充斥著低質(zhì)內(nèi)容的“信息繭房”,用戶每天生活在“過濾泡”精心打造的世界里,泛低質(zhì)的內(nèi)容極易讓用戶產(chǎn)生悲觀、消極心理,長(zhǎng)期的思維偏執(zhí)甚至可能讓人在現(xiàn)實(shí)生活中做出一些極端行為。
2)基于協(xié)同過濾的推薦算法:信息選擇權(quán)讓渡給社交和算法?;趨f(xié)同過濾的推薦算法通過觀察用戶以往的行為數(shù)據(jù),來監(jiān)測(cè)用戶的喜好,并根據(jù)用戶的喜好來對(duì)用戶進(jìn)行分組。協(xié)同過濾推薦算法兩類,一類基于用戶,一類基于物品,也就是通常所說的人以類聚,物以群分。用戶并不知道自己所看到的報(bào)道是已經(jīng)經(jīng)過算法干預(yù)的,這極大可能導(dǎo)致用戶錯(cuò)過一些本應(yīng)知情卻未知的信息,侵犯了用戶自身的信息選擇權(quán)和知情權(quán)。今日頭條CEO張一鳴在2016年的未來媒體峰會(huì)上表示,“以前,媒體可以決定用戶知道什么,但現(xiàn)在媒體已經(jīng)無法完成信息的過濾,目前要么將信息過濾的權(quán)利交給社交圈,朋友推薦內(nèi)容,要么讓算法推薦內(nèi)容。”③權(quán)力讓渡給社交關(guān)系和算法都是一種黑箱作業(yè)模式,其過程并不透明,用戶并不知曉它如何分析、分發(fā)信息,平臺(tái)也不能保證不通過算法來濫用用戶數(shù)據(jù)。
3)基于熱度的推薦算法:缺乏主流價(jià)值導(dǎo)向。基于熱度的推薦算法和微博熱搜榜相似,新聞的瀏覽量、分享量越高,越有可能被推薦給用戶。但受到用戶熱捧的文章,往往是有爭(zhēng)議的噱頭標(biāo)題,有極端的觀點(diǎn)或只是搜刮組合文字而成的熱文,因此僅依靠流量與點(diǎn)擊為標(biāo)準(zhǔn)進(jìn)行推送,大量的低俗、泛娛樂化內(nèi)容甚至是標(biāo)題黨泛濫。根據(jù)“沉默的螺旋”④理論,當(dāng)用戶收到大量相同價(jià)值取向的推送,將產(chǎn)生許多人持相同看法的心理傾向,負(fù)面觀點(diǎn)甚囂塵上,容易帶來不良影響,不利于用戶形成良好的價(jià)值觀。
3? 算法推薦新聞的未來發(fā)展
當(dāng)前各大新聞資訊類App為了克服三大算法的弊端,紛紛采用混合推薦算法,譬如今日頭條在頂部的導(dǎo)航欄設(shè)置了“關(guān)注”“推薦”和“熱點(diǎn)”三個(gè)板塊,為了防止相似內(nèi)容推薦過于密集的問題,在熱點(diǎn)新聞的右下角有小小的X符號(hào),用戶點(diǎn)擊以后有“不感興趣”“反饋垃圾內(nèi)容”“拉黑作者:海外網(wǎng)”“屏蔽”四個(gè)選項(xiàng)。盡管算法能一定程度上幫助我們過濾掉一些不必要的信息,但是算法推薦模式的倫理風(fēng)險(xiǎn)依然存在,為了使算法推薦能更好地幫助人類,需要技術(shù)和人工干預(yù)相結(jié)合。
1)建立安全可靠的推薦算法模型,尊重和保護(hù)隱私權(quán)。基于內(nèi)容和協(xié)同過濾的推薦算法發(fā)揮效用的前提是收集用戶的所有數(shù)據(jù),不僅包括性別、年齡、居住地等基本信息,也包括手機(jī)終端信息和網(wǎng)絡(luò)信息等,算法平臺(tái)掌握了大量的數(shù)據(jù),如果想要保證信息不被竊取和濫用,首先應(yīng)該保證的是算法的安全性,在讀取、收集用戶數(shù)據(jù)時(shí),應(yīng)遵守“合法正當(dāng),最少必要的原則”[1],要求員工遵守保密原則,不濫用和出售用戶信息,同時(shí)也應(yīng)及時(shí)更新算法技術(shù),維護(hù)系統(tǒng)安全,一旦算法的安全性被破壞,直接危害到了信息安全,侵犯了用戶的隱私,繼而可能傷害人的精神和身體。
2)優(yōu)化算法推薦模型,引入人工審核機(jī)制。信息的選擇權(quán)被讓渡給了算法,算法只關(guān)注閱讀量、日活躍量等數(shù)據(jù),只對(duì)內(nèi)容的受歡迎程度負(fù)責(zé),并不對(duì)質(zhì)量負(fù)責(zé),因此大量的虛假信息、慫人聽聞的言論和其他低俗內(nèi)容很有可能進(jìn)入到用戶眼里,這也會(huì)造成用戶心理失衡進(jìn)而影響其社會(huì)行為表現(xiàn)。所以,平臺(tái)不僅需要引進(jìn)高級(jí)算法工程師,發(fā)揮技術(shù)優(yōu)勢(shì),不斷優(yōu)化推薦模型;更需要引進(jìn)編輯人才進(jìn)行人工審核,“建立人機(jī)結(jié)合的內(nèi)容審查機(jī)制”[2],發(fā)揮傳統(tǒng)把關(guān)人的作用,對(duì)不良內(nèi)容進(jìn)行篩除,對(duì)優(yōu)質(zhì)內(nèi)容及時(shí)反饋給平臺(tái),合理進(jìn)行推廣。
3)用戶自身提高媒介素養(yǎng),主動(dòng)參與、反饋服務(wù)體驗(yàn)。算法推薦讓用戶能在極短時(shí)間內(nèi)找到自己喜愛的內(nèi)容,無疑給用戶帶來極大的信息選擇便利,但長(zhǎng)此以往,用戶生活在一個(gè)自我封閉的信息氛圍中,極大會(huì)形成“自我意見的回音室”,同時(shí)也對(duì)其他更有價(jià)值的信息視而不見。為了避免陷入“信息繭房”,用戶應(yīng)該提高自身的媒介素養(yǎng),用獨(dú)立批判的眼光審視信息,培養(yǎng)自己多元化、多維度、多角度的思維方式,有意識(shí)地了解不同領(lǐng)域的信息,培養(yǎng)自己的正面興趣,用開放的態(tài)度觀察社會(huì)生活。同時(shí),用戶也應(yīng)及時(shí)向平臺(tái)反饋產(chǎn)品體驗(yàn),表達(dá)自己的訴求,及時(shí)幫助改進(jìn)算法的不合理之處。
4? 結(jié)束語
尤瓦爾·赫拉利認(rèn)為,“未來的上帝不再是客戶,生態(tài)的頂端是算法,算法會(huì)幫我們做出許多決定。”[3]但算法不是萬能的,不同的算法代表著設(shè)計(jì)者背后不同的隱含價(jià)值觀,都會(huì)導(dǎo)致不同的風(fēng)險(xiǎn),即使是采用了混合推薦算法也無法從根本上解決倫理風(fēng)險(xiǎn),如何在算法和人類價(jià)值觀之間找到倫理平衡點(diǎn)是未來亟待解決的一個(gè)命題。
注釋
①今日頭條CEO張一鳴互聯(lián)網(wǎng)大會(huì)演講實(shí)錄,2016年11月7日。
②選擇性接觸:受眾在接觸大眾傳播活動(dòng)之際,并不是不加區(qū)別地對(duì)待任何媒介和內(nèi)容,而是更傾向于接觸與自己的既有立場(chǎng)、觀點(diǎn)、態(tài)度一致或接近的媒介或內(nèi)容加以接觸,而有意無意地回避那些與自己既有傾向相左的媒介或內(nèi)容。
③今日頭條CEO張一鳴2016年的未來媒體峰會(huì)講話。
④沉默的螺旋:人們?cè)诒磉_(dá)自己想法和觀點(diǎn)的時(shí)候,如果看到自己贊同的觀點(diǎn)且受到廣泛歡迎,就會(huì)積極參與進(jìn)來,這類觀點(diǎn)就會(huì)越發(fā)大膽地發(fā)表和擴(kuò)散:而發(fā)覺某一觀點(diǎn)無人或很少有人理會(huì)(有時(shí)會(huì)有群起而攻之的遭遇),即使自己贊同它,也會(huì)保持沉默意見一方的沉默造成另一方意見的增勢(shì),如此循環(huán)往復(fù),便形成一方的聲音越來越強(qiáng)大,另一方越來越沉默下去。
參考文獻(xiàn)
[1]方師師.算法如何重塑新聞業(yè):現(xiàn)狀、問題與規(guī)制[J].新聞與寫作,2018(9):11-19.
[2]趙雙閣,岳夢(mèng)怡.新聞的“量化轉(zhuǎn)型”:算法推薦對(duì)媒介倫理的挑戰(zhàn)與應(yīng)對(duì)[J].當(dāng)代傳播,2018(4):52-56.
[3]陳佳茹.今日頭條新聞客戶端的“信息繭房”傳播效應(yīng)影響[J].新媒體研究,2018,4(4):11-12.