摘 要:算法機制深嵌于各類網絡軟件之中,幫助用戶篩選內容、推送個性化新聞。在為人們提供便利的同時,算法也帶來了相應的媒介倫理問題,如“過濾氣泡”現(xiàn)象的產生。為了提高用戶體驗度,算法機制也需要不斷改善。本文旨在提供對算法技術利弊的分析思路與看法。
關鍵詞:算法機制; 過濾氣泡; 虛假新聞; 后真相
中圖分類號:G2? ? ? ? ?文獻標識碼:A? ? ? ? ? 文章編號:1006-3315(2021)11-131-002
1.算法機制產生“過濾氣泡”
“過濾氣泡”作為一個隨著新媒體應運而生的現(xiàn)象,這個概念的提出必然少不了討論和爭議。“過濾氣泡”是一個形象化的比喻,是指智能算法幫助用戶篩選、過濾掉用戶不感興趣的信息,讓用戶仿佛身處在一個“網絡泡沫”的環(huán)境里,被自己感興趣和想看到的信息和內容緊緊包裹著。國內外學界目前存在著各類關于“過濾氣泡”的看法和態(tài)度,可謂正負對半開?!禩he Filter Bubble》這本書曾探討過“我們是否真的需要人化的新聞”這樣的問題,在這本書中作者提到了媒體個人化后帶來的危害:算法越聰明,它越有可能知曉你對什么內容感興趣,你的閱讀就會變得越來越窄化。桑斯坦在2016年提出過“信息繭房”的觀點,就已指證過智能算法的發(fā)達會帶來信息同質化的可能性。而尼葛洛龐帝在2017年也曾提出過“我的日報”(The Daily Me)的觀點,同樣透露出如此憂思。國外學者Pariser揭露過智能算法能夠基于用戶的歷史瀏覽足跡,采集和推測用戶的興趣偏好,為搜索引擎、社交軟件和新聞門戶網站提供增強用戶黏性的手段和途徑。如果所有軟件都為了迎合用戶的興趣偏好,就會導致用戶能夠接觸到的內容的多樣性大大降低[1]。
“過濾氣泡”幫助用戶推送個性化新聞,也極易導致后真相(post-truth)情形的催生和加劇,這是其源頭的算法機制帶來的特殊影響。2016年11月22日,牛津字典宣布“后真相”成為年度詞,被用來描述那些“客觀事實在形成輿論方面影響較小、而訴諸情感和個人信仰會產生更大影響”的情形。人們在“過濾氣泡”的影響下極易相信和傳播虛假新聞,對遲到的真相和反轉不再重視。
2.“過濾氣泡”是一把雙刃劍
“過濾氣泡”是算法推送下的必然產物。算法給人們帶來了一定的便利性,提高了信息分發(fā)效率。但同時也會帶來一些負面影響,其過濾機制對受眾存在一定的蒙蔽性。因此,需要我們辯證地去看待。
2.1“過濾氣泡”的正向效果
“過濾氣泡”的正向效果主要面向使用者、內容生產者和平臺開發(fā)者,對傳受雙方都提供了便利和智能化的服務。
一方面,“過濾氣泡”可以實現(xiàn)精準推送,提高效率。對使用者來說,算法的精準推送很大程度上能夠節(jié)省自己搜索信息的時間成本和精力,優(yōu)化了用戶體驗和使用感。而對軟件平臺來說,算法的智能細化可以增強用戶黏性,使得發(fā)布者與接收者之間產生雙向互動。“過濾氣泡”的存在能夠進一步強化用戶的選擇性接觸機制,充分滿足其個性化需求。
另一方面,“過濾氣泡”可以幫助媒介平等賦權,實現(xiàn)雙贏。智媒時代沖擊了傳統(tǒng)媒體一家獨大的格局,傳統(tǒng)傳媒被迫將“把關者”的部分權力讓渡給算法。智能推薦的過濾機制極大地削弱了大眾傳媒議程設置的權力,打破了媒體壟斷,提高了受眾自主權,在個人議程設置方面平等賦權[2]。個性化的算法推薦還改變了傳統(tǒng)的信息傳受模式,對傳者進行了去中心化,讓平臺、使用者、內容生產者三者的關系達到了一種微妙的平衡。使用者可以根據自身需求,在不同媒介平臺上通過不同的表達形式來獲取信息。而內容生產者也得到了更多的推薦和曝光度,作者的收益和權益均得到了一定程度的保障。媒介的推薦機制讓用戶可以挖掘和發(fā)現(xiàn)自己潛在的興趣愛好,也讓許多優(yōu)質內容生產者在短時間內就能完成上萬粉絲的孵化。在這個信息過載的時代,算法機制無疑是一個十分聰明的發(fā)明,幫助傳受雙方實現(xiàn)雙贏。
2.2“過濾氣泡”的負面影響
“過濾氣泡”也可能會帶來許多負面影響,如過度接觸個性化信息導致信息繭房的發(fā)生,以及群體極化、隱私泄露、算法歧視等倫理問題。很多時候,算法機制還有可能被有心之人利用,導致真相被一同“過濾”,成為了制造和擴散虛假新聞的源頭和幫兇。
2.2.1助長虛假新聞傳播擴散
“過濾氣泡”是把“雙刃劍”。它個性化推薦的算法機制容易助長虛假新聞的產生和擴散,導致許多隱蔽但同樣具有價值的多元化信息,包括代表了后真相和反轉的新聞,因為沒有商業(yè)價值和看頭,就很有可能被“過濾氣泡”一同過濾掉了。
雖然主流媒體在設置議程、報道新聞的時候進行了初次篩選,但在智媒時代中應運而生的算法機制,分割和剝奪了這一部分話語權。智能推薦算法的本意是在“信息超載”時發(fā)揮作用,幫助用戶篩選信息、推薦內容,并且應該是在征得用戶同意的前提下幫助其決策。然而目前市面上大部分運作的算法機制,都不是在這種情況下才“出面”發(fā)揮作用,而是成了平臺和內容的決策之臣,幫助內容篩選用戶,為了吸引流量,反而是擴散了虛假新聞和社會焦點事件,導致社會風氣變得十分不安定。隨著使用微博、抖音的用戶群體越來越龐大,很多年輕用戶獲取新聞的渠道已經變成了查看微博“熱搜”,而不再是傳統(tǒng)的觀看新聞聯(lián)播的方式。殊不知微博等軟件本質上還是商業(yè)性質的,其背后的新聞發(fā)布之手是由開發(fā)商操控的。因此很多時候會在社會效益和商業(yè)利益之中選擇后者,成為虛假新聞的源頭制造者和擴散者。
以拉扎斯菲爾德為主要代表的“選擇性接觸假說”認為:“受眾在接觸大眾傳播的信息時并不是不加選擇的,而是更愿意選擇接觸那些與自己既有立場和態(tài)度一致或接近的內容,而對與此對立或沖突的內容有一種回避的傾向。[3]”“過濾氣泡”使得用戶對公共議題的關注被削弱了,本來是為篩濾用戶興趣偏好相關信息的保護膜,同時卻也成了隔絕其他有用信息的玻璃罩?!斑^濾氣泡”侵犯了用戶的自主選擇權,使得用戶不知道什么信息被算法自動過濾了,這才是“過濾氣泡”真正令人擔心之處,導致信息窄化、虛假新聞的出現(xiàn)。如果長期處于“過濾氣泡”擬態(tài)環(huán)境的包裹之中,會讓用戶的思維模式慢慢趨向單一化和片面化,付出巨大代價澄清的真相不再被人們所重視。用戶個體減少了接觸內容的多樣性,更會成為互聯(lián)網中的“井底之蛙”。而那些部分觀點相同或相近的群體由于長期過度接觸同樣的信息內容,也會演變出現(xiàn)“群體極化”的現(xiàn)象[4]。
2.2.2隱私泄露
信息技術的發(fā)達也增加了用戶信息泄漏的不安全性?;ヂ?lián)網大數(shù)據將用戶的數(shù)據信息收集起來,不僅提供給了“過濾氣泡”實現(xiàn)的前提條件,也滋生了隱私泄露的溫床。馬克·波斯特曾提出過一個叫做“超級全景監(jiān)獄”的概念,認為互聯(lián)網中的數(shù)據庫給每個人都構建了身份和人格,每個人都變成了不自知的囚犯,而數(shù)據庫則擔任了監(jiān)獄中看守人的身份。有國外學者認為,由于算法系統(tǒng)的復雜運作以及其自動化決策的不透明,用戶難以在數(shù)據收集層面享有知情權以及對數(shù)據共享的監(jiān)督權。平臺和用戶簽訂的用戶隱私條款有時就是一張廢紙,根本無法對用戶隱私起到保護作用。算法雖然沒能經過用戶的同意和允許直接窺探到用戶隱私,但算法依然能夠通過關聯(lián)、分類等數(shù)據處理技術來拼合出用戶畫像,在獲取群體特征之后就構成了侵犯整個群體的信息隱私。
2.2.3“圈層化”的過濾歧視
有學者認為“過濾氣泡”的背后隱含著潛在的算法歧視。算法幫用戶篩選內容,同時也在為信息篩選要推送的用戶,這就體現(xiàn)了一種圈層化的歧視,如用戶性別歧視[i]。在2015年,卡內基·梅隆大學和國際計算機科學研究所(ICSI)合作展開過一項模擬調研,對一款定制軟件AdFisher模擬了不同性別的用戶瀏覽行為,當用戶性別為男性時對招聘網站進行訪問,會更有幾率看到高薪的招聘崗位,但模擬女性身份時看到的幾率卻很小。這個調查結果可以佐證算法過濾會導致圈層化歧視的觀點。同樣存在著的還有針對消費者進行不同價格的產品推送的歧視。很多算法開發(fā)者在設定商品推薦算法程序時,會把用戶對價格的敏感性作為評判消費能力的標準。如果一個用戶經常購買同類商品中價格比較低廉的,算法就會自動判定該用戶消費力低下,久而久之,低價商品就會常常被推送給該用戶。把消費者根據過往消費行為和習慣劃分為了不同的階層,這就體現(xiàn)了算法機制暗藏著的歧視。
3.減輕算法負面影響的對策
有學者認為,算法的倫理問題的背后,折射出的是人們對超出常識理解范圍的信息技術的戒備心和憂慮。然而倫理關切是屬于“應然”的問題,與客觀存在的“實然”問題有著本質區(qū)別。對“過濾氣泡”的辯證批判性看待是屬于“應然”問題,而不是在“實然”世界中進行全盤否定。因此,那些一聽到快手、抖音等字眼就搖頭嘆氣的人,認為這些軟件的推送機制是傻瓜算法,是對使用者智商的“算計”和降智。這顯然是一種陳腔濫調和迂腐的偏見。不能因為其顯著鑲嵌的偏好推送,就將算法機制的發(fā)展態(tài)勢和可優(yōu)化性一棍子打死。只要設法減輕算法的負面影響,使之納入算法倫理的可控制范圍內,并加以有效監(jiān)管,就能實現(xiàn)算法的進步,并使其幫助人類社會實現(xiàn)便捷化和高效化。
減免“過濾氣泡”可能會帶來的負面影響,主要從兩方面入手:一方面是要從算法層面進行自身的系統(tǒng)優(yōu)化,另一方面則是從用戶層面提升自身媒介素養(yǎng)和法律道德素養(yǎng)。
3.1推送機制透明化
優(yōu)化算法機制,增強算法透明度,杜絕算法“黑箱”,使其更加人性化和溫和,讓用戶看得見什么類型的信息被過濾掉了。算法透明度是實現(xiàn)安全的必要前提,因此提高算法透明度是解決算法倫理問題的關鍵突破口。允許用戶獲取更多關于算法運行機制的信息,以便用戶能夠監(jiān)督算法對用戶信息的使用 (Mittelstadt et al.,2016)。要不斷提高“濾網”的過濾度,使其盡可能地在不妨害媒體倫理的前提下,最大限度為用戶提高篩選信息的效率。國家出臺的網絡政策也要完善相關的設計法規(guī),進行過濾和細化。
無論是從所肩負著的社會責任和使命出發(fā),還是為了自身長遠利益的考量,運營商和軟件開發(fā)者都應該加大預算投入,有效改進高質量的產品、技術和服務,盡一切努力提高競爭力。優(yōu)化和細化算法機制,提高算法的多功能性,引導抖音用戶走出舒適區(qū),不斷拓寬新的興趣愛好。算法應該幫助用戶打破“過濾氣泡”可能會構成的“信息壁壘”,如此才能固定原有用戶,吸引新用戶。還能在某種程度上緩解傳統(tǒng)文化傳播內容與形式融合的困難。
3.2提高用戶自身素養(yǎng)
算法機制導致的“過濾氣泡”現(xiàn)象不可避免地會帶來很多問題和隱患。隨著智能算法越來越深度嵌入信息網絡的情形,許多用戶擔心自身的隱私和權益正在被日益侵犯,對算法推送的機制產生了一定的抵觸心理和厭惡情緒,認為這是導致虛假新聞泛濫的重要原因之一。為了規(guī)避“過濾氣泡”可能會帶來的不良影響,用戶應自覺主動地拓寬自己所使用的新聞源和信息源,從多個不同渠道和途徑對信息進行篩選、檢索和比對。作為使用者,在享用智能算法帶來的便利的同時,還要能夠看到算法可能會帶來的信息窄化、圈層化歧視、隱私泄露等不良后果。除此之外,使用者要不斷拓寬自身知識面,提升自身素養(yǎng),遵守法律法規(guī),即使在虛擬網絡中也要時刻不忘道德的約束。用戶還應利用算法的精準推送、快速分法和渠道拓寬等功能,努力創(chuàng)造個人價值和社會價值,為社會作出自身貢獻和良性反饋。
總之,我們要正確看待“過濾氣泡”可能會帶來的實際影響,引導更多互聯(lián)網用戶能夠辯證地看待“過濾氣泡”現(xiàn)象及其利弊,不再單純因為害怕其危害性而拒絕接納算法機制,而是要努力學會充分利用其高效分發(fā)和精準推送的優(yōu)點,不斷拓寬自己獲取信息的視野和渠道,實現(xiàn)自身利益的最大化,同時也能為社會作貢獻。
參考文獻:
[1]蘇俊斌.“過濾氣泡”與算法時代的鄒忌——關于“過濾氣泡”的一種非決定論觀點[J]青年記者,2020(18):20-22
[2]董方旭,康許培,趙樂群.算法推薦機制下“過濾氣泡”的形成、影響與規(guī)避[J]新聞愛好者,2020(11):44-49
[3]郭慶光.傳播學概論[M]北京:中國人民大學出版社,2011:77
[4]尤可可,馬廣軍.“強連接”與“圈層化”:社交媒體人際連接的雙螺旋[J]視聽界,2020(01):46-51
作者簡介:劉素君,1998年5月生,女,漢族,江蘇蘇州人,碩士研究生,研究方向:新聞傳播學。