◎陶賢都 胡梓露
(湖南大學新聞傳播與影視藝術學院 湖南 長沙 410082;廈門大學新聞傳播學院 福建 廈門 361005)
人工智能技術,從20世紀50年代概念的提出到21世紀的大爆發(fā),已經(jīng)滲透到包括新聞傳播的諸多領域。依靠技術助力以及當前用戶本位的傳播理念,個性化新聞推薦愈來愈受到青睞,國內外以個性化新聞推薦為特色的新聞客戶端也紛紛涌現(xiàn)。為用戶“量體裁衣”,打造具有個性化體驗的新聞已成為潮流與趨勢。個性化推薦新聞被普遍使用的時候,隨之也衍生了法律與倫理問題。本文結合國內外具體案例,分析依托人工智能技術的個性化推薦在新聞領域的具體應用,剖析存在的風險,并提出規(guī)避風險的策略。
個性化推薦功能已然融入了新聞傳播領域,成為媒體信息分發(fā)的重要方式。傳統(tǒng)媒體占據(jù)優(yōu)勢地位的時期,個性化新聞生產(chǎn)成本較高,但是隨著“魔彈理論”逐漸向受眾中心論觀念轉變,受眾的需求得到新聞媒體的日益重視,一些個性化服務的舉措也逐漸被采納和運用,例如大部分報紙會采取版面分類的方式,電視會采取頻道分類的方式。但隨著人工智能、互聯(lián)網(wǎng)技術給新聞傳播領域帶來不斷的革新與改變,“長尾”內容被激活的成本大大降低,更為方便、快捷,更適合受眾碎片化閱讀的聚合類新聞APP出現(xiàn),成為個性化智能推薦嶄露頭角的舞臺。
除了新聞資訊類客戶端,還有一些通過提供人工智能新聞推薦技術來與媒體方進行合作的技術類平臺,也專注于個性化推薦服務。如智搜(Giiso)可提供無須人工編輯和運營的智能化資訊頻道定制服務,它可以通過人工智能語義技術自動生成內容資訊,憑借用戶畫像為用戶定制個人熱點資訊以及主題追蹤閱讀服務,還可以自我學習持續(xù)進化。目前智搜已投入到了多家媒體的實踐應用中,合作方有廣州日報、南方報業(yè)和深圳之窗等。
在國外,首先由社交類APP掀起個性化推薦熱浪,F(xiàn)acebook網(wǎng)頁版最早于2006年推出了News Feed頁面,開啟了用戶隨時共享好友、實時更新的新推薦方式,經(jīng)多次改進,該推薦功能成為風靡于社交平臺的主流信息呈現(xiàn)模式。隨后,各類新聞信息類APP也都開始采用此類方式,并不斷地加以完善,形成了個性化新聞推薦技術?,F(xiàn)今,日本的Smart News、美國的News Republic和印度的Dailyhunt等都是典型的個性化新聞推薦。此外,一些西方主流媒體也競相借鑒、引用與自主研發(fā),如《紐約時報》《衛(wèi)報》等都已采用個性化推薦技術,且技術的成熟度與先進度居于世界前列。
個性化新聞推薦技術將計算機科學和新聞學相結合,為新聞資訊生產(chǎn)者提供高效的生產(chǎn)模式。目前將人工智能技術運用到個性化推薦中最具有代表性的新聞媒體應屬聚合類新聞技術平臺,我們以其為主要分析對象,從技術、個體和社會三個層面,分析人工智能時代個性化新聞推薦的風險。
個性化新聞推薦在技術層面的問題,主要包括算法自身所存在結構性缺陷以及機器學習所使用的“黑箱式”操作等。
1.人工智能缺乏人類的情感態(tài)度和價值判斷
人工智能推薦與人工推薦最大的區(qū)別是,它沒有人類思維的度量與把控,其算法本身的結構性缺陷難以用技術來彌補,容易行走在法律和倫理的邊緣地帶。例如對新聞內容進行審核時,人工審核的編輯基于經(jīng)驗經(jīng)歷、專業(yè)素養(yǎng)對新聞進行把關,除了新聞事實層面的審核,在價值層面也會進行嚴格篩查;不僅考察新聞的真實性等客觀因素,而且對其所包含的人文情懷也會有所度量。
現(xiàn)階段,為用戶提供個性化新聞推薦的人工智能依賴于算法機制,由于機器運作與人類思維的差異,難以理解復雜邏輯關系;單純依靠機器來判斷信息本身的新聞雖然使得衡量標準變得可量化,但是在專業(yè)度、公信力和認可度等方面都難以達到人工審核的水準,因而存在著諸多風險。
2.“黑箱式”機器學習難以解釋個性化推薦原因
人工智能技術有利于發(fā)掘用戶的潛在興趣,拓寬用戶的視野,降低信息的封閉程度,但它的透明度與可解釋性成為一大問題。在用戶相似度評估此類問題上,過去機器進行算法的學習往往是憑借人工提取特征并進行監(jiān)督;但如今隨著數(shù)據(jù)量的增加以及對用戶特征識別的精細化程度的要求提高,傳統(tǒng)算法逐漸被淘汰,“黑箱式”機器深度學習開始廣泛應用于聚類問題。它將數(shù)據(jù)分到若干簇中,通過大量的計算提高同簇數(shù)據(jù)的相似性以及不同簇數(shù)據(jù)的相異性,并通過不斷地自我修正來實現(xiàn)數(shù)據(jù)的切割處理[1]。
在此過程中,人類無法設置機器分簇的類別,盡管其最終效果表現(xiàn)優(yōu)良,但其方法依據(jù)的意義人們往往不得而知。人們在閱讀新聞時只知道該新聞被推薦是因為和閱讀該內容的用戶有“相似品味”,但具體怎么解釋則難以說明。用戶無法知曉推薦理由,把閱讀內容的控制權交予了“黑箱式”操作的機器算法,從某種倫理角度來說,用戶成為技術操縱下的被支配方。
從個體層面來看,目前人工智能個性化新聞推薦服務最普遍也最成熟的是聚合類新聞平臺。以聚合類新聞平臺為例,探討人工智能個性化新聞推薦對新聞媒體和對新聞用戶的負面影響。
人工智能個性化新聞推薦對新聞媒體的負面影響不容忽視。聚合類新聞APP的新聞內容多來源于新聞媒體,通過對新聞資訊的“搬運”、聚合和呈現(xiàn)而提供服務。個性化新聞推薦過程中導致新聞的生產(chǎn)與分發(fā)環(huán)節(jié)產(chǎn)生分裂,原屬于新聞媒體的議程設置權利被讓渡,技術平臺成為內容分發(fā)的主體并承擔起把關責任,由于其較弱的社會屬性而往往容易產(chǎn)生一些問題。人工智能個性化新聞推薦憑借技術直接“搬運”新聞媒體的內容即可獲利,這種狀況不利于媒體在內容創(chuàng)作方面進行競爭,導致媒體創(chuàng)作市場的活力大幅度降低。在新聞推薦這一環(huán)節(jié),過去由媒體從業(yè)人士進行新聞的分發(fā),而個性化智能推薦則對這一關系格局產(chǎn)生了影響,“去中心化”的新聞推薦模式成為主流。與一般新聞媒體的人工把關不同,聚合類新聞APP往往依賴算法,通常會采用敏感關鍵詞過濾、用戶舉報等多種綜合方式來對新聞進行把關。由于目前基于內容的推薦算法大多是將新聞進行標簽化,每則新聞資訊被簡單的歸類為一些關鍵詞的交叉組合,新聞文本所包含的語言細節(jié)、價值取向往往被忽略,形成魚龍混雜、質量參差不齊的局面。
對于個性化新聞推薦服務的使用方新聞用戶而言,聚合類新聞技術平臺也存在推薦機制不完善,個性化程度不夠,推薦精準度有待提高,用戶個性化體驗欠佳等問題?,F(xiàn)階段的算法仍難以處理高復雜度語義的新聞文本,而市場上許多APP標榜的“精準智能的個性化服務”也往往吹捧過高,與現(xiàn)實不符;部分用戶在實際體驗中會對其推薦精準度和人性化程度產(chǎn)生落差感,從而造成“人工智能”噱頭的效應。另外,個性化新聞推薦存在著侵犯用戶隱私的風險。個性化新聞推薦易造成信息遮蔽,易導致用戶視野狹窄化。
從社會層面而言,人工智能個性化新聞推薦對社會網(wǎng)絡存在一定的影響,主要表現(xiàn)為放大社會網(wǎng)絡差異,影響社會網(wǎng)絡結構;此外,若對人工智能個性化新聞推薦技術所處地位的定位不合理,對其盲目崇拜與依賴極有可能造成機器異化問題。
人工智能個性化新聞推薦的應用存在放大社會網(wǎng)絡差異、影響社會網(wǎng)絡結構的風險。人工智能個性化新聞推薦存在的社會性問題,最明顯的是擴大信息鴻溝。當新聞資訊類APP推送給用戶信息時,由于用戶之間的年齡、受教育程度、社交水平等各不相同,他們在選擇各類新聞資訊時會出現(xiàn)分層的現(xiàn)象,例如年齡較長者會更傾向于嚴肅類的政治、財經(jīng)新聞,年齡較輕者會更傾向于輕松類的娛樂新聞。由于用戶與用戶之間存在的知識水平、使用習慣和選擇偏好這些差異,在信息流向不均的情況下,偏好信息含量較多的內容的“信息富有者”與偏好信息含量較少的內容的“信息貧窮者”之間的鴻溝將會越來越大,進一步放大社會網(wǎng)絡差異,從而影響社會網(wǎng)絡結構的穩(wěn)定。
作為一種廣受歡迎的技術力量,人工智能時代賦予了個性化新聞推薦同樣存在異化的可能性。根據(jù)Trustdata數(shù)據(jù)顯示,在社交應用中,新聞資訊類應用日均啟動次數(shù)排名位居第三,日均使用時長16分鐘,高于音視頻等應用[2]。如今,新聞資訊類移動客戶端已成為人們掌握資訊、汲取知識和休閑消遣的一大重要途徑。今日頭條創(chuàng)始人張一鳴稱,截至2019年4月底其已經(jīng)擁有總計66億的激活用戶,其中活躍用戶達1.4億,每天每個用戶的平均使用時長達76分鐘[3]。這樣一個巨大的流量平臺,背后匯聚著無數(shù)用戶的時間和注意力。打開聚合類新聞APP,享受一條又一條刺激耳目的新聞資訊劃過眼前的閱讀快感,有些用戶不知不覺便深陷其中,形成“沉浸式依賴”,這種現(xiàn)象不僅發(fā)生在新聞資訊領域,在其他領域如短視頻領域更是屢見不鮮。技術本應服務于人,當其擺脫工具性特征成為一種獨立于人的存在物,反過來壓制人和束縛人,就形成了異化的現(xiàn)象;若機器異化不能引起人們的重視,則可能進一步影響人的異化[4]。當用戶沉浸在機器推薦的個性化新聞中無法自拔時,時間和精力被大幅度消耗,造成“媒介沉迷”,將影響個人的正常生活狀態(tài),影響受眾的獨立思考能力。
技術對傳媒的推動作用是無法衡量的,但技術并非為媒介進步的“永動機”,技術的革新可能會給傳媒領域帶來巨大沖擊和風險。人工智能個性化新聞推薦作為一種近年來倍受歡迎的新聞分發(fā)模式,也難以避免存在技術風險、對個體的風險以及社會風險,針對這些風險,可以從以下方面來進行規(guī)避和治理。
傳媒領域技術革新,風險都如影隨形,面對人工智能個性化新聞推薦可能出現(xiàn)的風險,新聞媒體可采取多種措施對癥下藥。
針對技術層面的問題,新聞媒體需優(yōu)化個性化智能推薦技術,在提高推薦精準度的同時也要避免信息面“窄化”問題和報道失衡問題。當前人工智能水平處于“弱人工智能”的階段,距離擁有人類的抽象思維、理解復雜概念和從經(jīng)驗中學習的能力的“強人工智能”還甚遠,媒體應不斷加入技術研發(fā)的投入以改善算法機制,提高信息分發(fā)的精準度。例如,美國的一款名為“余震”的新聞APP,將地質信息和用戶的地理位置數(shù)據(jù)結合起來從而大大提高了相關信息分發(fā)的精準度?!坝嗾稹毙侣凙PP由俄勒岡公共廣播公司(OPB)開發(fā),在采集用戶所在區(qū)域的郵編和街道號信息的基礎上,能夠根據(jù)當?shù)氐牡刭|局提供的監(jiān)測數(shù)據(jù),為用戶實時提供差異化、個體化的地震預警報告。
在優(yōu)化技術精準度的同時,媒體應彌補個性化新聞推薦存在的倫理缺陷,避免信息“窄化”和報道價值失守問題。針對“信息繭房”類問題,一些新的個性化推薦技術對傳統(tǒng)的推薦技術進行了優(yōu)化,挖掘用戶的深層次需求,拓寬用戶的興趣面。另外,在進行新聞推薦時,媒體可考慮采用個性化推薦為主要模式,輔之以共性化推薦,以此凝聚社會共識,防止極群化現(xiàn)象的發(fā)生。針對人工智能把關在價值觀上失守的問題,新聞媒介應該加強內容審核把關與人機協(xié)作。人工智能審核與人工審核各有其優(yōu)勢所在,若只依靠前者則容易造成把關局面的失控,而倚重后者不僅效率頗低。所以,媒體應注重“人機協(xié)作”,通過人工智能來輔助人工審核對新聞的內容質量、真?zhèn)魏蛯I(yè)度的把控,同時媒介從業(yè)者應該充分尊重事實,在前者的基礎上對新聞推薦內容進行進一步的編輯與選擇。例如,今日頭條對其審核機制進行了優(yōu)化,針對網(wǎng)絡暴力評論的識別這一環(huán)節(jié),其將人工智能的審核分為了“非常有把握”和“比較有把握”兩類,前者放入折疊區(qū)以作警示,后者采取自見方式以避免騷擾,最后再通過用戶反饋和審核人員審核之后才予以放出。此外,2018年3月底今日頭條還上新了國內首款AI反低俗小程序——“靈犬系統(tǒng)”,它能檢測出所輸內容的質量指數(shù),并提供鑒定結果。該年5月份升級后,其準確率得到了很大的提升。
針對侵權問題,媒體應加強責任意識,及時了解法律界相關動態(tài),避開法律法規(guī)的盲區(qū)。近年來,與知識產(chǎn)權、隱私權等相關的法律條文也在不斷完善中,媒體稍有不慎便會觸及紅線,聚合類新聞客戶端被約談的例子很多,所以,新聞媒體應該積極開展相應的舉措來應對風險。媒體應提高版權意識,負責內容分發(fā)的新聞技術平臺可以通過與進行內容生產(chǎn)的媒體方進行更為密切的合作,制定更為細致而精確的條約與合同來解決版權糾紛問題。媒體應充分尊重用戶的個人信息和隱私,完善用戶協(xié)議和隱私政策。在用戶開始使用服務時以公開透明的方式告知用戶,面對大多數(shù)用戶并未查看協(xié)議內容而直接勾選同意這類問題,媒體可優(yōu)化隱私協(xié)議展示界面,采用圖文并茂等更為生動形象的方式來解釋協(xié)議內容,以引起用戶的重視,增進用戶對其的理解程度。在用戶隱私保護環(huán)節(jié),媒體應堅守原則,不輕易泄露用戶信息,同時更新技術以防止用戶信息被盜取,微軟和英特爾近年在合作一項被稱為“隱私計算”的項目,可在數(shù)據(jù)傳輸、儲存以及運算的過程中對其進行有效加密。
不單是新聞資訊領域,音樂電臺、電子商務、視頻網(wǎng)站和社交網(wǎng)絡等諸多領域近年來都開始普遍運用個性化智能推薦技術。面對這股熱潮,為防止可能過度而引發(fā)“風暴”,國家相關機構應該重視這方面的嚴格審查與規(guī)范。2018年我國實施的《信息安全技術個人信息安全規(guī)范》,對“個性化展示”等相關技術做出了詳細的規(guī)定,即是一個明顯的趨勢?!兑?guī)范》提到,平臺不得強迫用戶接受個人信息收集的請求。平臺要有顯著的文字樣式標明“個性化展示”,且用戶對其個性化展示程度可自定義調節(jié)。平臺不得干涉用戶做出退出個性化展示的選擇。此外,該規(guī)范還提到開展技術檢測的必要,平臺若有第三方介入收集用戶個人信息,宜對其行為進行審計,以防止其超出規(guī)定?!兑?guī)范》中的以上內容對個性化新聞推薦作出了比以往更為細致的規(guī)定,但面對層出不窮、相差迥異的個案,相關部門應予以高度重視,繼續(xù)完善規(guī)范。
不僅是隱私權,在知識產(chǎn)權等其他方面可能涉及的法律糾紛,相關部門都應該制定相應的法律法規(guī),跟進人工智能個性化新聞推薦現(xiàn)實發(fā)展進度,盡快將邊緣化、細節(jié)化的地方加以完善,提高精細化程度,以應對技術飛速發(fā)展下出現(xiàn)的法律糾葛與案件。
用戶應努力培養(yǎng)和提升媒介素養(yǎng),避免因個性化新聞推薦導致信息獲取的片面化與觀點的極端化。在瀏覽個性化新聞時,用戶應該提升自我的把控能力,理性判斷和獨立思考,不能受制于算法推薦這一單一固化渠道。用戶在閱讀新聞事件時,應保持觀點和思維的理性,以全面、客觀的態(tài)度來衡量一則新聞,不應陷于片面化視角導致思想藩籬。此外,用戶還應對已瀏覽和收藏內容定期進行管理和拓展,翻新知識,調整固化的思維模式,多接觸各類新聞資訊類平臺,拓寬資訊獲取的渠道。
用戶應合理安排個人時間,有規(guī)劃地利用媒介資源和平臺,防止過度依賴個性化推薦算法“閱讀成癮”而導致沉迷。快節(jié)奏生活中,為追求效益的最大化,用戶快速閱讀、碎片化閱讀成為流行趨勢,圖片、音頻和視頻逐漸取代文字這一傳統(tǒng)媒介符號,感官與直覺的沖擊帶來的快感易使用戶將文字蘊含的理性與冷靜拋之腦后,殊不知,有時候一百篇快餐式資訊卻遠不及一篇深度報道發(fā)人深省。在享受個性化新聞推薦功能時。用戶對時間和精力的消耗應把控有度,可以同時嘗試不同類型的媒介,體驗不同頻道的新聞報道,避免新聞接收的單一性。
用戶在使用新聞媒介提供的個性化推薦功能時,還應注意個人信息的保護,重視個人的隱私權。在使用相關APP前,應細致并全面地閱讀與個人信息獲取相關的協(xié)議,對平臺或者第三方的信息盜取和濫用行為保持警惕,加強自我保護意識;同時應了解相關法律,對自身隱私權被侵犯的現(xiàn)象,應及時采取維權措施。