艾嵐 任俊艷
摘 要: 大數(shù)據(jù)時代的到來和互聯(lián)網(wǎng)的迅速發(fā)展使得算法推薦的新聞推送成為連接受眾與受眾所需信息的重要形式。算法推薦新聞可以為受眾推送量身定制的內(nèi)容,以此滿足受眾的個性化需求,激發(fā)受眾的能動性。但是,算法推薦新聞的方式也存在著諸如信息繭房、數(shù)碼圓形監(jiān)獄、用戶價值迷失、網(wǎng)絡(luò)群體極化等消極影響。我們需要整合社會各種力量,從受眾自身、算法技術(shù)、法律、政府等方面來應(yīng)對其帶來的弊端,促進其良性可持續(xù)發(fā)展。
關(guān)鍵詞:算法推薦新聞;受眾;信息繭房;網(wǎng)絡(luò)群體極化
中圖分類號:G210? ?文獻標(biāo)志碼:A? ?文章編號:1674-7356(2020)-03-0043-05
在新媒體時代,傳統(tǒng)的信息生產(chǎn)方式發(fā)生了根本性變革,迅速發(fā)展的自媒體、 “低準入”門檻的媒體平臺等打破了傳統(tǒng)媒體對新聞的壟斷, “全民皆記者”的現(xiàn)象愈演愈烈。自媒體平臺賦予大眾充分的表達自由的同時,也在一定程度上造成了信息過載、信息冗余、信息污染等問題。在此背景下,根據(jù)受眾需求進行信息精準推送的個性化新聞推送形式應(yīng)運而生。算法推薦新聞,根植于互聯(lián)網(wǎng)思維的個性化推薦技術(shù),基于用戶觀察的個性化信息的智能匹配,通過人工智能分析和過濾機制,根據(jù)個性化需求聚合相關(guān)的信息和應(yīng)用,以實現(xiàn)用戶個性化、動態(tài)化需求。算法推薦新聞可以將信息精準推送給不同的受眾,減少了信息過量帶來的困擾。
一、研究綜述
算法推薦并不是一項新創(chuàng)造,早在20世紀60年代算法就曾應(yīng)用于社會管理領(lǐng)域,大數(shù)據(jù)和技術(shù)革新使得算法推薦的效果更為顯現(xiàn),它也溢出了計算機學(xué)科的邊界,成為社會科學(xué)關(guān)切的焦點,為社會科學(xué)研究引入了“算法轉(zhuǎn)向”。算法推薦對信息獲取的影響一直是研究者關(guān)注的焦點,在分析算法在新聞生產(chǎn)和分發(fā)中的應(yīng)用時,學(xué)者們從不同的視角對其進行研究。
(一)對算法推薦的內(nèi)涵及其技術(shù)特征的界定
仇筠茜、陳昌鳳(2018)[1]將“算法新聞”界定為“由機器學(xué)習(xí)或者神經(jīng)網(wǎng)絡(luò)為技術(shù)基礎(chǔ)而生產(chǎn)和分發(fā)的新聞”;喻國明、韓婷(2018)[2]將算法型信息分發(fā)的本質(zhì)歸納為用戶價值主導(dǎo)下的場景化適配;徐笛(2019)[3]認為算法被轉(zhuǎn)義為技術(shù)流程、工具、流量池和打分系統(tǒng),且算法是多義的、流動的,并不存在一個固定的模態(tài);劉存地、徐煒(2018)[4]研究了推薦算法的五種類型,即協(xié)同過濾推薦算法、基于內(nèi)容的推薦算法、基于關(guān)聯(lián)規(guī)則的推薦算法、基于效用的推薦算法和基于知識的推薦算法;劉文杰(2019)[5]算法是計算和評判方法,從法律角度將算法推薦看作是一種編輯控制下的內(nèi)容供給;匡文波,陳小龍(2018)[6]認為新聞的個性化推薦系統(tǒng)是一個極為復(fù)雜的系統(tǒng),需要運用自然語言處理、特征工程、機器學(xué)習(xí)、大數(shù)據(jù)計算等多個領(lǐng)域的知識。
(二)對算法推薦的價值觀及倫理批判
陳昌鳳、師文(2018)[7]分析了不同類別的新聞推薦算法結(jié)構(gòu)性缺陷導(dǎo)致的三種倫理風(fēng)險: “信息繭房”現(xiàn)象,受眾對閱讀內(nèi)容的失控及“黃色新聞潮”風(fēng)險;何燚寧(2019)[8]認為個性化新聞推薦系統(tǒng)的算法把關(guān)會帶來價值觀缺失、信息窄化、低俗內(nèi)容泛濫等問題,應(yīng)從完善算法技術(shù)、提高用戶媒介素養(yǎng)及完善互聯(lián)網(wǎng)治理法律等方面探尋解決之道;黃賢英等(2018)[9]認為依據(jù)用戶歷史訪問矩陣做出推薦,會導(dǎo)致算法推薦新聞存在數(shù)據(jù)稀疏以及不能及時反映用戶興趣變化等問題;劉海明(2019)[10]研究了媒體算法技術(shù)在新聞傳播領(lǐng)域運用中存在的價值糾纏、利益糾纏和品牌糾纏,認為算法過于強調(diào)技術(shù)的主導(dǎo)作用,弱化了公眾、公司機構(gòu)等的能動性;喻國明(2018)認為算法新聞分發(fā)現(xiàn)實發(fā)展中存在的問題主要集中在更隱蔽的歧視、 “信息繭房”效應(yīng)和低俗內(nèi)容與虛假新聞三個方面;陳洪兵、陳禹衡(2019)[11]將算法偏見對于刑法領(lǐng)域的挑戰(zhàn)歸納為算法偏見對刑法規(guī)制的挑戰(zhàn)和算法偏見對刑事審判的挑戰(zhàn),前者侵害了公民的隱私權(quán)、公民的人格平等權(quán)以及數(shù)據(jù)安全法益,后者包括算法黑箱、算法鴻溝及算法獨裁。
(三)對算法推薦的規(guī)范以及法律約束
劉文杰(2019)認為算法推薦的出路在于用新聞專業(yè)規(guī)范指導(dǎo)算法;王仕勇(2019)[12]認為對算法推薦新聞的規(guī)范應(yīng)從深入思考“數(shù)據(jù)的所有權(quán)和信息的選擇權(quán)” “對什么負責(zé)與對誰負責(zé)” “工具理性和價值理性”等三組關(guān)系來進行研究;莫雅嫻(2018)[13]提到了“信息自決權(quán)”,即人們對個人信息被使用的時間、范圍、途徑的自主決定權(quán),算法與個人信息保護的平衡應(yīng)圍繞“信息自決”這一基礎(chǔ)來進行;趙雙閣、岳夢怡(2018)[14]提出可通過健全法律監(jiān)管、強化“人”在新聞傳播中的主體性、建立多指標(biāo)推薦系統(tǒng)及提升算法透明度等方式重構(gòu)算法推薦中的媒介倫理。在對以上文獻綜合梳理的基礎(chǔ)上,筆者將對算法推薦新聞的現(xiàn)狀及優(yōu)化策略等方面進行深入闡述。
二、算法推薦新聞對受眾產(chǎn)生的積極意義
美國著名媒介理論家馬歇爾·麥克盧漢指出:“媒介即訊息”,他認為每個時代真正有價值的是媒介本身而不是其所傳播的具體信息。新媒介的出現(xiàn)將會改變傳播方式、人類的交往方式和閱讀環(huán)境,互聯(lián)網(wǎng)與大數(shù)據(jù)的發(fā)展使得受眾的需求能夠被精準計算,基于算法的個性化新聞推送成為可能。算法推薦新聞的本質(zhì)是將用戶與信息進行匹配,首先,智能化推送平臺通過收集用戶的數(shù)據(jù)生成用戶畫像。其次,平臺通過整合和分析信息內(nèi)容,利用算法將信息與用戶進行匹配并分析受眾的行為和社會關(guān)系,深入挖掘受眾對新聞信息的偏好和潛在需求,通過整合信息的方式自動為不同受眾生成不同的新聞信息,每一條被生產(chǎn)的新聞都能夠精準送達對其感興趣的受眾。算法推薦新聞最大的特點就是用算法充當(dāng)“把關(guān)人”角色對新聞內(nèi)容進行選擇與推送,依托內(nèi)容算法和協(xié)同過濾算法來進行信息的調(diào)取、過濾、聚合與分發(fā)。
(一)過濾冗余信息,提高信息獲取效率
互聯(lián)網(wǎng)技術(shù)的發(fā)展為受眾帶來了眾多獲取信息的來源,但隨之而來的供過于求的海量信息、虛假新聞、無效信息、低俗內(nèi)容等也無時無刻不在充斥著受眾的生活。如何在海量的信息中使受眾接收對自身有效的新聞成為媒體贏得受眾的關(guān)鍵因素。智能推薦算法應(yīng)用于新聞推送中,能夠過濾掉大量的無用信息和受眾不感興趣的內(nèi)容,極大地節(jié)約了受眾的時間與精力,提高了新聞信息內(nèi)容的分發(fā)效率和受眾獲取信息的效率。
(二)滿足個性化需求,實現(xiàn)“私人訂制”
在信息時代,受眾個性化的心理需求被不斷地激發(fā),受眾對于個性化新聞內(nèi)容的需求催生了個性化新聞的服務(wù)?;谥悄芡扑]算法的新聞推送,使受眾接收到的不僅是自己感興趣的、而且是異于他人的獨特信息。與傳統(tǒng)媒體分發(fā)的千篇一律的新聞內(nèi)容相比而言,算法推薦新聞極大地滿足了受眾的個性化需求,真正實現(xiàn)了受眾對于信息的“選擇性接觸”和新聞內(nèi)容的“私人訂制”。這樣一來,基于算法的個性化新聞信息推送將受眾的能動性發(fā)揮到極致,使受眾獲得了更好的用戶體驗。
(三)提升受眾互動意愿,拓展表達空間
在移動互聯(lián)網(wǎng)時代,新聞話語權(quán)下放,網(wǎng)絡(luò)的發(fā)展賦予了受眾更多的表達欲望和表達空間。新聞客戶端和社交平臺中媒體賬號的出現(xiàn)和發(fā)展,為受眾提供了針對個人的議程設(shè)置,而且新聞客戶端和媒體賬號都擁有點贊、評論、轉(zhuǎn)發(fā)的權(quán)限,為受眾提供了交流、討論、互動的空間。算法推薦新聞是以受眾喜好為基礎(chǔ)來進行推送的,其“議程設(shè)置”的主體是受眾本身,加之網(wǎng)絡(luò)在無形中拓展了受眾的表達空間。因此,算法推薦新聞使受眾更愿意加入到話題的交流和討論中去,大大提升了受眾的互動意愿。
三、算法推薦新聞對受眾產(chǎn)生的沖擊
事物都有兩面性,在享受算法推薦新聞帶來便利性的同時,我們更應(yīng)該就算法推薦新聞對受眾產(chǎn)生的沖擊進行深入思考。
(一)精準推送導(dǎo)致信息窄化,出現(xiàn)“信息繭房”效應(yīng)
在智媒時代,新聞的分發(fā)方式已被算法改變,人工智能技術(shù)為受眾過濾掉大量的無效信息,受眾可以只看到其想看到的信息,將其不感興趣、不熟悉、不認同的信息直接過濾掉,大大加強了信息推送的有效性。但是這也導(dǎo)致受眾長期沉浸于同質(zhì)化的信息內(nèi),信息窄化現(xiàn)象嚴重,墜入“信息繭房”。美國學(xué)者桑斯坦提出“信息繭房”這一概念,認為“我們只聽我們選擇的東西和愉悅我們的東西的通訊領(lǐng)域?!盵15]首先,大量的同質(zhì)信息反復(fù)被推送給受眾,受眾失去了了解不同信息和事物的機會和能力,沉迷在算法營造的片面狹隘的擬態(tài)世界,進而走向認知的偏頗。其次,信息繭房效應(yīng)容易形成“單向度人”?;谒惴ǖ木珳市侣勍扑陀萦?,受眾早已習(xí)慣于新聞的推送,很難接收到興趣之外的信息,進而失去了對外界的批判能力與反思能力,對于公共問題獨立思考的能力也會下降,公共討論將會變得越來越艱難,長此以往將不利于社會民主和精神文明的發(fā)展。這種私人訂制的個性化新聞推送,從本質(zhì)上來講是一種受眾的自我設(shè)限,使受眾越來越沉浸在由算法創(chuàng)造的“信息繭房”之中。
(二)圓形監(jiān)獄:用戶隱私和安全遭受威脅
精準的新聞推送是以受眾泄露某些個人信息:性別、年齡、地理位置、社交關(guān)系等隱私為基礎(chǔ)的。算法采集受眾信息的過程并不是用戶主動的選擇,而是在不知不覺中被人工智能技術(shù)提取的。受眾在互聯(lián)網(wǎng)上的一舉一動都在受算法的監(jiān)視,搜索記錄、社交媒體甚至是購物記錄都會暴露受眾的信息。可以說,受眾所享受的媒介服務(wù)是以個人信息來換取的,算法技術(shù)將受眾的網(wǎng)上“痕跡”進行整合,生成用戶畫像,受眾就像是生活在圓形監(jiān)獄之中的“囚犯”。圓形監(jiān)獄是由外圍環(huán)形建筑和中心瞭望塔兩部分組成,其特殊的建筑結(jié)構(gòu)能夠使犯人們在環(huán)形建筑中的一舉一動都處于中心瞭望塔的獄警的完全監(jiān)視中,所以監(jiān)獄中的犯人毫無隱私可言;而生活在算法監(jiān)視之下的受眾,其思想動向和價值判斷都會受到算法的影響,在不知不覺中陷于“圓形監(jiān)獄”。算法推薦系統(tǒng)掌握著全部受眾的個人信息,假如此系統(tǒng)遭遇外來入侵,那么所有受眾的隱私將完全被暴露。
(三)過度依賴,淪為算法的奴隸
在受眾—媒介—社會的系統(tǒng)中,媒介使受眾產(chǎn)生依賴的主要方式是控制其傳播內(nèi)容。1975年美國學(xué)者德弗勒(Melvin Lawrence DeFleur)等在《大眾傳播學(xué)諸論》一書中提出“媒介系統(tǒng)依賴論”,此理論主張受眾為了滿足自身需求必須依賴于媒介提供的信息,實現(xiàn)對自身和社會的理解以及確定行動方向和互動方向。首先,算法推薦新聞?chuàng)碛袑?nèi)容的控制權(quán),其只推送受眾感興趣的信息,容易吸引受眾的注意力。其次,算法可根據(jù)場景進行信息內(nèi)容的推送,不同的時間和空間會接收到不同的信息,碎片化的時間也會被利用起來,甚至于原本用來休息、學(xué)習(xí)、工作的時間也會被占用。再次,算法推送的信息內(nèi)容是無窮盡的,受眾能否擺脫其推送的內(nèi)容完全取決于受眾的自控力,取決于受眾能否從自己感興趣的內(nèi)容中脫離,由此導(dǎo)致受眾極易過度依賴算法推薦系統(tǒng),甚至日漸成癮,失去自主意識,沉溺于其中無法自拔,成為算法推送工具的“奴隸”。
(四)低俗內(nèi)容致使受眾的價值迷失
算法推薦新聞模式的把關(guān)人已由傳統(tǒng)的人工模式轉(zhuǎn)變?yōu)樗惴ㄍ扑]技術(shù),信息推送的標(biāo)準是受眾的興趣與需求,用戶的點擊量成為關(guān)鍵。在點擊量是唯一評判準則的標(biāo)準下,信息的質(zhì)量被用戶點擊量取而代之,進而導(dǎo)致部分低俗、惡俗、庸俗的信息被大量推送給受眾,如虛假新聞、黃色信息、標(biāo)題黨新聞等,影響著整個社會的風(fēng)氣。就本質(zhì)來講,算法推薦新聞主要是用戶與信息的匹配,運用算法對信息表面語義的理解來進行把關(guān),達不到對語言深層次理解的標(biāo)準,更無法將信息放在社會環(huán)境的背景下進行解讀。所以,算法推薦新聞可能導(dǎo)致受眾認知偏差、新聞價值缺失、負面信息泛濫等情況,使真正有價值的信息內(nèi)容讓位于受眾的“個人興趣”,出現(xiàn)“沉默的螺旋”,造成“很多人對低俗信息內(nèi)容感興趣”的假象,一旦這樣的價值取向得到認同,那么擁護正確價值信息的聲音就會陷入沉默,此過程不斷地惡性循環(huán),會令越來越多的受眾迷失正確的價值方向。
(五)群體極化與過度娛樂進一步“放大”
在互聯(lián)網(wǎng)的虛擬世界中,對相近新聞信息關(guān)注的受眾更容易建立群體聯(lián)系,形成相近的觀點和看法,群體的同質(zhì)化越來越趨于明顯,群體內(nèi)成員的持續(xù)自我肯定和激勵會進一步加劇網(wǎng)絡(luò)群體極化,受眾容易被群體情緒所帶動,失去理智,進而導(dǎo)致輿論暴力。此外,受眾大多關(guān)注娛樂八卦、明星、奇聞逸事等新聞, “娛樂至死”現(xiàn)象嚴重,從某種意義來看,算法推薦新聞系統(tǒng)將“娛樂至死”現(xiàn)象進一步放大和加強,受眾對新聞媒體傳遞信息的價值挖掘和合理使用必然受到阻礙。
(六)主動性的喪失與重要信息的錯失
算法推薦新聞表面上為受眾提升媒介素養(yǎng)提供了新的契機,但算法受限于用戶的喜好和興趣,受眾會在一定程度上喪失自主判別和選擇新聞的機會,這并不利于其媒介素養(yǎng)的培養(yǎng)。其次,算法推薦新聞是對受眾興趣與喜好的反映,但這不代表推送的新聞信息就是社會的重要話題。往往有些重要的政治、經(jīng)濟或社會新聞并不為受眾所關(guān)注,會導(dǎo)致受眾錯失信息。
四、解決算法推薦新聞負面影響的策略建議
依據(jù)社會發(fā)展的自然邏輯,人類社會的技術(shù)進步與有機體的進化類似,一旦發(fā)生便具有其發(fā)展的不可逆轉(zhuǎn)性。算法推送的本質(zhì)在于為人類提供更優(yōu)質(zhì)、更豐富、更貼心、更便捷的服務(wù),是人類社會不斷進步的體現(xiàn)。但算法推薦新聞從某種意義上說也給受眾帶來了不可避免的沖擊與消極影響,需要我們整合社會各種力量來應(yīng)對其弊端。
(一)重構(gòu)受眾媒介素養(yǎng)
面對不同媒體所提供的各種信息,受眾所展現(xiàn)出的信息選擇能力、質(zhì)疑能力、理解能力、評估能力、創(chuàng)造和生產(chǎn)能力以及思辨的反應(yīng)能力,就是通常我們所說的媒介素養(yǎng)。新媒體時代要求受眾提高對媒介的基本使用能力,增強其自控能力。面對吸引力強大的新媒體:首先,要培養(yǎng)公眾的自律意識。古典哲學(xué)家康德認為,人具有在道德實踐意義上不受肉體本能與自然束縛而按照自身標(biāo)準行事的自由意志。自律性可以使受眾自覺遠離智能算法的信息歧視與傳播偏向,規(guī)避隱含著潛在價值“輻射”的負面信息。媒介自律性的培育關(guān)鍵在于提升受眾的信息辨識能力,個體應(yīng)保持主體理性,具有對媒介信息批判性認知的能力。在家庭、學(xué)校、社會教育的有機結(jié)合中提升公眾對垃圾信息的“免疫性”。公眾可以通過加強時間的管理、發(fā)展另外的興趣愛好等方法增強自控能力,將控制權(quán)收回到自己手上,做到真正合理、節(jié)制地使用媒介。其次,要培育公眾的算法素養(yǎng)。個性化的算法推薦機制強化了當(dāng)代社會的個體化、碎片化與流動性,小集體的價值表達被無限擴大化與極端化,最終形成激烈的社會價值沖突。應(yīng)培養(yǎng)公眾以批判性態(tài)度審視算法在信息傳遞過程中的潛在影響,有意識地防范算法權(quán)力在思想領(lǐng)域的滲透,在良莠不齊的數(shù)據(jù)信息中保持審慎客觀的立場進行價值判斷。在信息消費素養(yǎng)方面堅持多元、開放、全面的原則,積極聆聽他者的聲音,將“自我為主體”與“他者為主體”理念有機結(jié)合起來,打破“信息繭房”,培養(yǎng)社會意識,有意識主動地接觸不同的新聞信息,參與關(guān)注公共事務(wù)、聚焦社會熱點話題,避免造成認知偏差和思想極化。
(二)優(yōu)化算法推薦機制,推送優(yōu)質(zhì)內(nèi)容
避免算法推薦機制的局限性,合理的方式是改進和優(yōu)化算法技術(shù),為受眾推送既使其感興趣又有價值的優(yōu)質(zhì)新聞信息。首先,應(yīng)該提高用戶的洞察技術(shù),全面智能地掌握受眾的信息需求,同時為受眾提供“異質(zhì)”信息,打破“信息繭房”,進而使受眾接觸到有價值的、實用性的新聞,增加其對各類重要新聞信息的了解,對真實的社會形成正確、全面的認知。其次,在內(nèi)容審核方面,應(yīng)該讓優(yōu)質(zhì)的新聞內(nèi)容占優(yōu)勢地位,可以選擇算法推薦與人工篩選相結(jié)合的方式來進行新聞內(nèi)容的分發(fā)。當(dāng)然,算法推薦技術(shù)只是受眾選擇信息的一種輔助工具,不能讓技術(shù)來控制受眾,更不能因此主導(dǎo)受眾的行為。所以算法技術(shù)應(yīng)該盡量透明化,讓受眾了解其本質(zhì),并形成良性的雙向互動,受眾也要努力提高自身的媒介素養(yǎng),注重閱讀優(yōu)質(zhì)、高品質(zhì)的新聞內(nèi)容,嚴格控制娛樂化傾向,全面客觀地了解信息內(nèi)容。
(三)政府監(jiān)管與法律體系“雙管齊下”
新媒體是一個信息市場,監(jiān)管的角色不可或缺,政府部門應(yīng)該對其進行適當(dāng)干預(yù)與監(jiān)管,避免形成低質(zhì)量的信息市場。此外,政府還應(yīng)該加強對信息市場的引導(dǎo),約束“三俗”信息的傳播,讓信息市場充分發(fā)揮其正能量,對于未能進行內(nèi)容監(jiān)管的媒體,應(yīng)當(dāng)予以批評和處罰,從而起到警示約束的作用。2020年3月1日由國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》是我國網(wǎng)絡(luò)生態(tài)治理方面的首部綜合性專門立法,能夠針對用戶信息泄露、低俗信息傳播等方面進行法律規(guī)制,從而更好地保護用戶隱私,優(yōu)化信息推薦機制。
五、結(jié)語
新聞媒介的數(shù)字化、智能化是時代的大方向,科學(xué)技術(shù)將會越來越多地介入到我們今后的生活。算法推薦新聞機制能夠方便受眾生活,為受眾選擇與接收新聞信息提供更為便捷的方式。事實證明,算法技術(shù)一方面使受眾得到了較好的體驗,解決了大眾傳媒的如內(nèi)容扁平化、均一化等問題;另一方面,助力人類進入強調(diào)個人需求和體驗的“后PC時代”。因此,未來新聞媒體平臺的發(fā)展方向必然是個性化信息推送服務(wù)為基礎(chǔ)的新聞訊息平臺。限于技術(shù)不成熟等原因,算法推薦新聞也給受眾造成了消極影響。針對這個問題,我們需要加強對受眾的思維引導(dǎo),培養(yǎng)受眾的媒介素養(yǎng)和民主意識,并且努力提升科學(xué)技術(shù)的積極作用,減弱其消極影響,促進其良性可持續(xù)發(fā)展。
[參考文獻]
[1]? 仇筠茜,陳昌鳳. 基于人工智能與算法新聞透明度的“黑箱”打開方式選擇[J]. 鄭州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018,51(5):84-88+159.
[2]? 喻國明,韓婷. 算法型信息分發(fā):技術(shù)原理、機制創(chuàng)新與未來發(fā)展[J]. 新聞愛好者,2018,33(4):8-13.
[3]? 徐笛. 算法實踐中的多義與轉(zhuǎn)義:以新聞推薦算法為例[J]. 新聞大學(xué),2019,39(12):39-49.
[4]? 劉存地,徐煒. 能否讓算法定義社會——傳媒社會學(xué)視角下的新聞算法推薦系統(tǒng)[J]. 學(xué)術(shù)論壇,2018,41(4):28-37.
[5]? 劉文杰. 算法推薦新聞的法律透視[J]. 新聞記者,2019,37(2):22-29.
[6]? 匡文波,陳小龍. 新聞推薦算法:問題及優(yōu)化策略[J]. 新聞與寫作,2018,35(4):66-70.
[7]? 陳昌鳳,師文. 個性化新聞推薦算法的技術(shù)解讀與價值探討[J]. 中國編輯,2018,16(10):9-14.
[8]? 何燚寧. 個性化新聞推薦系統(tǒng)中算法把關(guān)的思考——以“今日頭條”和“一點資訊”為例[J]. 新聞愛好者,2019,33(9):75-77.
[9]? 黃賢英,熊李媛,李沁東. 基于改進協(xié)同過濾算法的個性化新聞推薦技術(shù)[J]. 四川大學(xué)學(xué)報(自然科學(xué)版),2018,35(1):49-55.
[10]? 劉海明. 媒體算法的價值糾纏與倫理誤區(qū)[J]. 湖南師范大學(xué)社會科學(xué)學(xué)報,2019,64(1):32-41.
[11]? 陳洪兵,陳禹衡. 刑法領(lǐng)域的新挑戰(zhàn):人工智能的算法偏見[J]. 廣西大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2019,41(5):85-93.
[12]? 王仕勇. 算法推薦新聞的技術(shù)創(chuàng)新與倫理困境:一個綜述[J]. 重慶社會科學(xué),2019,16(9):123-132.
[13]? 莫雅嫻. 算法推薦新聞與個人信息保護的沖突和平衡[J]. 編輯學(xué)刊,2019,36(5):40-45.
[14]? 趙雙閣,岳夢怡. 新聞的“量化轉(zhuǎn)型”:算法推薦對媒介倫理的挑戰(zhàn)與應(yīng)對[J]. 當(dāng)代傳播,2018,34(4):52-56.
[15]? 陳力丹,曹文星. 2012年新媒體技術(shù)與應(yīng)用走勢分析[J]. 編輯之友,2013,33(2):30-33.
Impact and Reconstruction of Algorithm-recommended News on Audience in the New Media Era
AI Lan1, REN Junyan2
(1. Editorial Department of Journal, Hebei University of Economics and Business, Shijiazhuang, Hebei 050061, China; 2. School of Culture and Communication, Hebei University of Economics and Business, Shijiazhuang, Hebei 050061, China)
Abstract: The arrival of big data era and the rapid development of the Internet make the news push recommended by algorithm become an important form of connecting audience with the needed information. Algorithm-recommended news can push customized content for audience, so as to meet the personalized needs and stimulate the initiative of audience. However, the way of algorithm-recommended news also has negative effects, such as information cocoons, digital panopticon, loss of user value, network group polarization and so on. We need to integrate various social forces to deal with its disadvantages, from the audience themselves, algorithm technology, laws, government and other aspects.
Key words: algorithm-recommended news; audience; information cocoons; network group polarization