張 林
(電子科技大學 馬克思主義學院,四川 成都 611731)
近年來,隨著大數(shù)據(jù)技術(shù)和人工智能技術(shù)的躍遷式發(fā)展,以適配個性化需求為目的的智能算法推薦正在成為信息流通領(lǐng)域的新技術(shù)范式。以微博、微信、抖音、快手及今日頭條等為代表的網(wǎng)絡(luò)平臺紛紛致力于算法轉(zhuǎn)向和算法升級。正如克萊·舍基所說:“一項技術(shù)必須要變得普通,繼而普遍,最后一直到無處不在而被人們視若不見時,真正的變革才得以產(chǎn)生?!盵1]66從當前的傳播實踐來看,智能算法推薦帶來的傳播變革正在潛移默化地影響著社會生活的方方面面,自然潛藏著意識形態(tài)風險,成為維護國家安全與社會穩(wěn)定發(fā)展中一個值得高度重視的問題。
智能算法推薦改變著個體用戶的信息體驗和認知習慣,也改變著整個社會的信息結(jié)構(gòu)和傳播秩序。智能算法推薦在應對信息超載危機和調(diào)試信息供需匹配的同時也帶來了工具理性與價值理性在不同程度上的失衡。如何辯證把握智能算法推薦帶來的二重性影響,化解智能算法推薦的潛在性風險,引導智能算法推薦的有序健康發(fā)展成為學界研究的重要議題。
隨著智能算法推薦的日趨普及,學者們開始嘗試從技術(shù)特征、技術(shù)原理、技術(shù)類型及實踐機制等維度出發(fā)探討智能算法風險生成的技術(shù)邏輯。從計算機科學的技術(shù)路徑出發(fā),智能算法推薦可以分為三種算法實踐:“基于內(nèi)容的推薦容易導致信息繭房現(xiàn)象,基于協(xié)同過濾的推薦會引發(fā)受眾對閱讀內(nèi)容的失控,基于時序流行度的推薦有誘發(fā)電子媒介‘黃色新聞潮’的風險”[2]。從技術(shù)原理和技術(shù)機制的視角看主流推薦算法的類型、核心思路與優(yōu)缺點,可以發(fā)現(xiàn)算法推薦的本質(zhì)就是“用戶價值主導下的場景化適配”[3]。從技術(shù)現(xiàn)象學的角度分析算法傳播帶來的信息革命,發(fā)現(xiàn)其帶來的信息個人化轉(zhuǎn)變可能會導致“價值偏向、算法牢籠、消解隱私甚至破壞公共性等價值風險”[4]。以信息與受眾的視角分析算法推薦的可見性生產(chǎn)邏輯,探討算法對用戶注意力、想象力、自我身份、人際交流、輿論感知等方面的影響,可以發(fā)現(xiàn)算法媒體正在通過“知識生產(chǎn)、信息消費的模因和趨勢,微妙地支配著公眾意識”[5]。
基于不同研究領(lǐng)域和理論視角,學者們探討了智能算法推薦在政治、社會、傳播、倫理、意識形態(tài)等領(lǐng)域的風險表征。從政治權(quán)力演化的角度出發(fā),有學者認為智能算法作為一種新的權(quán)力形態(tài),已經(jīng)滲透到政治領(lǐng)域的各個層面,算法的內(nèi)在缺陷及其不當使用在“政治正義、責任主體模糊、正當性原則、政治判斷”[6]等方面存在諸多風險。從國家治理的角度看,算法權(quán)力在“營造公共輿論、控制政策議程、主導政策執(zhí)行和影響政策評估結(jié)果”[7]等方面對治理能力與治理體系構(gòu)建帶來了沖擊。從政治傳播的角度看,算法正在演化為一種程序化政治,逐漸成為一種新的政治形態(tài)。算法營造的政治擬態(tài)環(huán)境可能帶來“公共性流失和主體扭曲的風險”[8]。從技術(shù)倫理視域看,算法技術(shù)在新聞傳播中存在諸多兩難選擇,媒體算法存在“價值糾纏、利益糾纏和品牌糾纏”[9]的現(xiàn)象。也有學者從整體視角出發(fā)梳理了智能算法異化帶來的“政治態(tài)度分化、治理出現(xiàn)盲區(qū)、公共話語去價值化、算法公正缺失、算法技術(shù)壟斷、責任主體模糊”[10]等社會風險。
就如何應對智能算法風險,學者們從各自的研究領(lǐng)域出發(fā)進行了諸多治理策略探索與建議?;诠残詰蔑L險視角,應當從“技術(shù)規(guī)制和權(quán)力規(guī)制”[11]兩個維度出發(fā)防范算法在公共領(lǐng)域的系統(tǒng)性風險。要解構(gòu)算法神話對有機世界的遮蔽,就必須建構(gòu)公平、透明和負責任的算法系統(tǒng),在“立法實踐上規(guī)范算法技術(shù)、建立算法問責機制是對抗算法偏見、規(guī)避數(shù)字風險的有效治理路徑”[12]。同時,應該改變對算法監(jiān)管的傳統(tǒng)思路,將內(nèi)容審查與算法審查并舉,建立起平臺責任與技術(shù)責任雙軌并行的責任體系,并對“算法的生產(chǎn)性資源數(shù)據(jù)的收集和使用進行合理限制”[13]。以“人權(quán)、社會公正、人類福祉、美德”[14]為價值基礎(chǔ)構(gòu)建算法倫理,通過“優(yōu)化算法、反思算法、用好算法”[15]規(guī)制人工智能時代思想政治教育的算法風險。
綜上所述,可以看出學界對智能算法推薦系統(tǒng)性風險相關(guān)議題的研究呈現(xiàn)出蓬勃發(fā)展的態(tài)勢,正在從經(jīng)驗主義的全方位探索轉(zhuǎn)向理論思辨的批判性詮釋。學者們從不同的理論視角出發(fā)探討了智能算法推薦在政治、社會、傳播、倫理、法律、文化等領(lǐng)域的運行邏輯、實踐機制、權(quán)力結(jié)構(gòu)和風險表征,并從技術(shù)規(guī)制、政策完善、倫理規(guī)范、立法實踐、制度監(jiān)管等維度探討了智能算法推薦的風險善治策略。也必須看到,學界關(guān)于智能算法推薦意識形態(tài)風險相關(guān)議題的探討還比較薄弱,關(guān)于智能算法推薦意識形態(tài)風險及其治理的研究才剛剛起步,一些核心問題尚未得到完全凸顯。由此,本文從意識形態(tài)視角出發(fā)來審視智能算法推薦的技術(shù)邏輯和價值屬性,研判其蘊含的意識形態(tài)風險并探究風險治理的整體性方案,兼具理論和現(xiàn)實意義。
厘清智能算法推薦的技術(shù)邏輯和意識形態(tài)屬性是探討智能算法推薦意識形態(tài)風險及其治理的前提。作為一種信息資源配置范式,智能算法推薦的技術(shù)本質(zhì)及其內(nèi)嵌式規(guī)則決定了其不可避免地會呈現(xiàn)出鮮明的意識形態(tài)屬性。
在當前的傳播實踐中,盡管不同信息平臺采用的算法原理或模型可能不盡相同,算法推薦技術(shù)也正在快速迭代升級,但如果拋開一些細枝末節(jié)的算法細節(jié)和算法差異,還是能夠在各式各樣的智能算法推薦背后找到一個共通的技術(shù)邏輯和運作機理。
從技術(shù)發(fā)展的宏觀視野來看,智能算法推薦的一般技術(shù)邏輯其實就是通過數(shù)據(jù)、算法和算力的復雜組合而動態(tài)建構(gòu)起信息供給與用戶需求之間的個性化適配關(guān)系。具體而言,就是要在對信息內(nèi)容進行標簽化處理和對信息用戶進行大數(shù)據(jù)畫像的基礎(chǔ)上更好地實現(xiàn)信息與用戶之間的個性化供需對接。一般而言,一個完整的智能算法推薦系統(tǒng)主要包含信息數(shù)據(jù)系統(tǒng)、用戶分析系統(tǒng)和信息分發(fā)系統(tǒng)三個子集。信息數(shù)據(jù)系統(tǒng)主要用來收集和存儲互聯(lián)網(wǎng)世界中海量的數(shù)據(jù)信息。用戶分析系統(tǒng)主要著力于分析和計算多元用戶個性化的興趣和訴求。信息分發(fā)系統(tǒng)則是致力通過多功能算法篩選、過濾和推送信息模塊。在三個系統(tǒng)子集中,信息分發(fā)系統(tǒng)居于核心地位,對算法推薦的運行效果起著至關(guān)重要的作用。
從當前傳播實踐來看,常用的智能算法推薦主要包括基于內(nèi)容推薦、協(xié)同過濾推薦、熱點排行推薦和組合式推薦等四種類型。基于內(nèi)容的算法推薦其實就是利用算法為用戶畫像,通過對用戶的瀏覽歷史和搜索記錄等進行標簽化處理,測算出用戶的興趣和偏好,進而持續(xù)為用戶推薦同類型或高相似度內(nèi)容。例如,在今日頭條上搜索“美國疫情”這個關(guān)鍵詞,那么在未來一段時間算法系統(tǒng)就會將與美國疫情相關(guān)的信息持續(xù)不斷地向用戶進行推送。協(xié)同過濾推薦則是對用戶的社交圈層進行全景掃描,深度挖掘用戶的職業(yè)、位置、性別、年齡等相關(guān)信息,劃分興趣相似度矩陣和社群,鏈接相似用戶,然后向同類型用戶進行信息推薦。假如在今日頭條上長時間瀏覽美國疫情的相關(guān)新聞,那么算法系統(tǒng)就會假設(shè)用戶的好友也可能會對這個問題有興趣,進而向其推送相關(guān)信息。熱點排行推薦就是算法系統(tǒng)根據(jù)信息熱度和信息流行度等進行全場域推薦,瀏覽量、關(guān)注度、點擊率、轉(zhuǎn)發(fā)數(shù)等是其重要指標。平常所熟悉的微博熱搜就是這種熱點推薦的典型代表。組合式推薦即多種算法推薦模式的組合和并用。在現(xiàn)實的信息推薦中,單一的算法推薦模型往往很難滿足多元多樣的信息場景,于是組合式算法推薦應運而生。越來越多的信息平臺通過多種算法模型之間的交叉和配合來實現(xiàn)對不同用戶群體的個性化推送。
不可否認,作為一種信息資源的全新配置范式,智能算法推薦技術(shù)合理性的充分彰顯對于人們應對海量數(shù)據(jù)擴容和爆炸式信息增長帶來的信息困境具有積極的意義。一方面,智能算法推薦大幅度提高了信息的流通效率,降低了用戶挑選信息的選擇焦慮和時間成本;另一方面,智能算法推薦還大幅度優(yōu)化了信息的配置效率,個性化的信息配置正在成為現(xiàn)實。
看到智能算法推薦技術(shù)合理性的同時,也要對智能算法推薦的權(quán)力本質(zhì)和意識形態(tài)屬性進行宏觀把握。智能算法推薦不僅是一套特定的技術(shù)編碼和運算程序,還是包含“算法、團隊及其新聞價值觀在內(nèi)的一整套系統(tǒng)架構(gòu)”[16]。作為一種新興的資源配置范式,智能算法推薦在對信息資源進行個性化適配的同時其實也是在行使社會權(quán)力,或者說,在一個媒體和代碼無處不在的社會之中,“算法的社會本質(zhì)就是一種權(quán)力”[17]。這種權(quán)力與制度化、強制性的傳統(tǒng)權(quán)力類型有所不同,智能算法推薦權(quán)力更多地表現(xiàn)出“商業(yè)邏輯、偏好原則、技術(shù)理性和隱性運行的特征”[18]。
隱秘化、內(nèi)顯化和泛在化是智能算法推薦權(quán)力主要的運轉(zhuǎn)底色。智能算法推薦的權(quán)力來源和權(quán)力指向與公共領(lǐng)域和公共事務(wù)緊密相關(guān)。商業(yè)邏輯和利益追求是算法權(quán)力的原初動能,依托平臺資本的強勢注入,智能算法在追求資本的最大化增值和最高額回報的同時不可避免地會對社會公共利益產(chǎn)生重要影響,進而對傳統(tǒng)的社會權(quán)力結(jié)構(gòu)帶來沖擊和重塑。政府、社會、企業(yè)和個人或多或少地都會在不同程度上受到算法權(quán)力的干預和控制。在看似客觀的個性化信息推薦背后其實蘊含著復雜的權(quán)力運行關(guān)系。建立在用戶黏性基礎(chǔ)上的智能算法推薦可以在不知不覺中影響和改變?nèi)藗兊恼J知習慣和行為方式,形塑人們對外部世界的觀點和看法??梢哉f,智能算法推薦的價值中立在現(xiàn)實實踐中是不存在的,智能算法推薦無價值觀也是一個偽命題。相反,透過這種價值偽中立表象,我們可以更加明顯地感受到智能算法推薦鮮明的意識形態(tài)色彩。
一方面,技術(shù)的本質(zhì)及其內(nèi)嵌式規(guī)則決定了智能算法推薦從一開始就不可避免地會預設(shè)有某種意識形態(tài)立場??死锼雇懈フJ為技術(shù)其實內(nèi)嵌著某些特殊規(guī)制,亦如互聯(lián)網(wǎng)技術(shù)本身就在內(nèi)嵌自由、平等、民主等價值特性的同時也內(nèi)嵌著等級、紀律和社會控制。不管技術(shù)內(nèi)嵌著什么樣的價值內(nèi)容,一個客觀事實始終都不能否定,那就是“技術(shù)形式具有與生俱來的特性,而這些特性是人類無法干預的”[19]23。人類的實踐活動總是離不開特定價值的支撐,智能算法推薦也不例外。不管是有意嵌入,還是無意附加,智能算法推薦自誕生起就不可避免地帶有設(shè)計主體的某種價值立場或意識形態(tài)傾向。在弱人工智能階段,智能算法推薦的人工痕跡依然十分明顯。不管如何掩飾或回避,算法設(shè)計主體的價值立場和價值傾向都會不斷通過復雜的推薦程序而對用戶產(chǎn)生一定影響。在現(xiàn)實的傳播實踐當中,算法設(shè)計主體通常會由于希望達到某種預期結(jié)果而特意置頂某些價值訴求或凸顯某些價值導向。技術(shù)理性與價值理性的沖突,資本利益與公共利益的博弈始終貫穿于算法推薦的全過程。雖然某些信息平臺一再宣稱要重視技術(shù)的公共性質(zhì)和企業(yè)的社會責任,但現(xiàn)實信息系統(tǒng)中的算法偏見依然不可避免。人的價值觀是存在偏見的,而智能算法推薦只不過是把這種價值觀偏見通過特定的形式演繹了出來而已。特別值得注意的是,算法不僅會沿襲人的價值偏見,而且還有可能會隨著數(shù)據(jù)體量的擴容和算法的更新迭代而不斷強化和放大這種偏見。
另一方面,智能算法推薦對信息資源的社會性調(diào)配不可避免地會產(chǎn)生一定的意識形態(tài)后果。從實踐來看,智能算法推薦是由多種社會性要素共同建構(gòu)的后果,一旦運行就不可避免地會對個體用戶的價值觀念和整個社會的意識形態(tài)權(quán)力結(jié)構(gòu)造成特定影響。為此,我們對智能算法推薦的理解需要超越工具論的范疇并上升到權(quán)力論的高度。從客觀實踐后果來看,智能算法推薦已經(jīng)不只是一種信息配置技術(shù),而是變成一種可以影響和改變社會秩序的軟性權(quán)力。傳統(tǒng)的政治社會學認為權(quán)力就是一種由特定資源所派生出的力量。暴力、資本、軍事等物質(zhì)性資源可以派生權(quán)力,腦力、知識、意識形態(tài)等非物質(zhì)性資源也可以派生權(quán)力。只是從人類社會權(quán)力構(gòu)成的歷史演變來看,非物質(zhì)性資源在權(quán)力構(gòu)成中的作用越來越明顯,權(quán)力正在呈現(xiàn)出一種軟化趨勢。信息雖然在一定程度上也具有物質(zhì)的基本屬性,但通常情況下還是被人們視為是一種非物質(zhì)性資源。信息技術(shù)的發(fā)展提高了信息操縱外部事物和影響物質(zhì)世界的能力,信息的物化趨勢越來越明顯,“一個新的權(quán)力來源正在出現(xiàn),它不再是少數(shù)人手里的金錢,而是多數(shù)人手中的信息”[20]15。智能算法推薦通過對社會信息資源的個性化配置,不僅改變了傳統(tǒng)信息傳播的權(quán)力結(jié)構(gòu),而且也打破了傳統(tǒng)意識形態(tài)建設(shè)的一體化信息環(huán)境。智能算法推薦為主導意識形態(tài)建設(shè)帶來了雙重性后果,我們既要看到機遇,更要意識到風險。只有在充分研判風險的基礎(chǔ)才能讓智能算法推薦更好地為國家安全和經(jīng)濟社會穩(wěn)定發(fā)展所用。
作為一種重塑世界的全新技術(shù)力量,智能算法推薦在大幅度提高信息流通效率和配置績效的同時,也蘊含著特定的意識形態(tài)風險。
把關(guān)人理論認為,信息流通過程中的把關(guān)不只是一個選擇和過濾信息的過程,或一個簡單規(guī)制信息“進”或“出”的問題,而是承擔著媒介信息建構(gòu)社會現(xiàn)實的重要功能。智能算法推薦在實現(xiàn)信息與人精準對接的同時也改變了傳統(tǒng)把關(guān)人發(fā)揮作用的信息情景,改變了傳統(tǒng)主導意識形態(tài)凝聚力形塑的一體化權(quán)力結(jié)構(gòu)。
一方面,智能算法推薦帶來的把關(guān)轉(zhuǎn)移消解了主導意識形態(tài)議題設(shè)置實效。議程設(shè)置理論認為受眾對社會重要問題的關(guān)注與媒體的報道頻率和強調(diào)程度之間存在著一種對應關(guān)系,媒體可以通過設(shè)置議題來左右或影響人們到底關(guān)注哪些問題以及對這些問題發(fā)表意見的先后順序。誰掌握了議題設(shè)置的主導權(quán),誰就能在觀念塑造和輿論引導過程中占據(jù)優(yōu)勢地位。在傳統(tǒng)中心化、封閉化、層級化的信息權(quán)力結(jié)構(gòu)中,主流媒體不僅可以把關(guān)流通領(lǐng)域的信息數(shù)量、信息內(nèi)容和信息流向,還可以改變信息的排列組合、內(nèi)在結(jié)構(gòu)和呈現(xiàn)方式。主流媒體高效的議程設(shè)置實效使得主導意識形態(tài)在凝聚社會價值共識方面處于絕對的優(yōu)勢地位。而智能算法推薦技術(shù)賦權(quán)帶來的傳播資源泛社會化和傳播權(quán)力個人化會在一定程度上消解或降低主導意識形態(tài)的議程設(shè)置實效。智能算法推薦的廣泛運用讓信息生產(chǎn)和流通的把關(guān)權(quán)力從傳統(tǒng)媒體從業(yè)者轉(zhuǎn)移到了智能機器和多元的個體化用戶手中,傳播主體與傳播受眾之間的界限正在日趨模糊,原來大眾傳播時代封閉的信息分發(fā)模式開始過渡為一種開放的市場模式。在流量至上的利益鏈條之下,智能算法推薦會更加注重用戶的信息偏好,而不是信息本身的公共性價值。只要用戶關(guān)注,不管信息品質(zhì)如何,都是頭條;只要用戶不關(guān)注或無興趣,不管信息內(nèi)容再有品質(zhì),在智能算法眼中也將毫無價值,這種信息情景為主導意識形態(tài)議題設(shè)置帶來了嚴峻挑戰(zhàn)。
另一方面,智能算法推薦迎合式把關(guān)帶來的價值失序擠壓了主導意識形態(tài)話語空間。智能算法推薦的廣泛應用極大地擴展了信息生產(chǎn)場域的邊界,智能算法既可以是信息生產(chǎn)者也可以是信息分發(fā)者,把關(guān)主體與把關(guān)對象的關(guān)系正在從“訓示”轉(zhuǎn)向“迎合”[21]。為了增加用戶黏性,智能算法推薦的迎合式把關(guān)會始終根據(jù)用戶的個人需求而生產(chǎn)和傳播相對個性化的信息。正如盧克·多梅爾所言:“搜索算法無法提交不受意識形態(tài)影響的搜索結(jié)果,而且,這些搜索結(jié)果為了取悅我們的個人主義觀念,往往會進一步加強我們對某些問題的‘既有看法’?!盵22]38智能算法推薦強烈的用戶本位導向不可避免地會減低公共性信息的覆蓋范圍。為了迎合受眾,收獲流量,一些信息平臺不惜主動推送低俗、暴力、色情甚至是虛假的信息來博人眼球。例如,2020年高考結(jié)束以后,在某短視頻平臺火極一時的“女孩考上清華跪謝父親”作品后來就被證明是擺拍,是某些賬號為了吸引流量而打著傳播正能量的幌子人為創(chuàng)造的段子。這些純屬虛構(gòu)的作品因其強大的情感刺激功能往往能夠在算法信息流通中獲得更多用戶的點擊、瀏覽和關(guān)注,在一定程度上降低了嚴肅信息和品質(zhì)信息的覆蓋范圍。長此以往,在算法和代碼的助推之下,信息市場可能會陷入一種惡性循環(huán),使得“眼球新聞”越來越大行其道,嚴肅新聞卻變得門可羅雀。簡言之,把關(guān)權(quán)力的變化帶來了魚龍混雜的信息生產(chǎn)和分發(fā),并在一定程度上導致了社會思想文化領(lǐng)域的價值失序,良莠不齊的價值喧囂擠壓了主導意識形態(tài)的話語空間,主導意識形態(tài)凝聚力面臨弱化風險。
作為一種關(guān)系范疇,權(quán)威既不是權(quán)力,也不是類似于強權(quán)的一種強制性力量。權(quán)威是一種使對象因信服而自愿服從的能力和影響力。與權(quán)力導致的強制性服從不同,權(quán)威導致的是對象在信服基礎(chǔ)上而形成的認同性服從。主導意識形態(tài)權(quán)威是主導意識形態(tài)引領(lǐng)社會思潮和凝聚社會價值共識的重要保障。在傳統(tǒng)的信息權(quán)力格局中,主流媒體幾乎掌握了所有的傳播權(quán)力和信息資源,主導意識形態(tài)對社會輿論的引導猶如黑夜中的探照燈,燈往哪里照,輿論就往哪里走,主導意識形態(tài)話語在某種程度上幾乎成了權(quán)威的代名詞。而智能算法推薦的技術(shù)賦權(quán)正在改變這種一體化的信息格局,智能算法推薦形塑的信息成癮和泛娛樂化在某種程度上帶來了主導意識形態(tài)權(quán)威的消解和失落。
一方面,智能算法推薦帶來的信息成癮消融了主導意識形態(tài)傳播的價值理性。智能算法推薦的技術(shù)運作原理和用戶本位導向潛在地包含了一套致癮機制。智能算法在對用戶興趣圖譜進行標簽化處理的同時,可以最大限度地勾畫出各類用戶的信息偏好,進而可以根據(jù)用戶的興趣習慣和心理反饋持續(xù)不斷地推送讓用戶喜歡的信息。投其所好的推送機制前所未有地強化了用戶對信息平臺的媒介依賴。越來越多的信息用戶開始從現(xiàn)實世界轉(zhuǎn)向虛擬世界,人們樂此不疲地沉浸在由算法編織的數(shù)字世界之中,大把的時間被數(shù)字生產(chǎn)和數(shù)字消費所消耗。隨著時間的推移,智能算法推薦的這種致癮機制會不斷消解人的抵抗意識和自主意識,侵蝕人的主體認知和思維能力,碎微化、淺表化的思維習慣將大行其道。由此,人們可能會對現(xiàn)有的抽象性、理論性、規(guī)范性的符號系統(tǒng)和話語體系進行解構(gòu)和重組,會對以總體性和普遍性為特征的主導意識形態(tài)報以冷漠、懷疑甚至是抗拒的態(tài)度。在這種碎微化、淺表化盛行的算法文化生態(tài)之中,個人話語與權(quán)威話語、生活話語與政治話語、感性話語與理性話語、碎片話語與系統(tǒng)話語之間的沖突和碰撞將會逐漸消解主導意識形態(tài)傳播的價值理性和價值權(quán)威。
另一方面,智能算法推薦帶來的娛樂泛化稀釋了主導意識形態(tài)傳播的價值意義。智能算法推薦的信息成癮與娛樂泛化是一脈而生的,二者相互交織、互為因果。尼爾·波茲曼在電視時代提出“娛樂至死”以批判電視的娛樂化表達;尼古拉斯·卡爾在《淺薄:互聯(lián)網(wǎng)如何毒化了我們的大腦》一書中直接提出了“信息娛樂化”,以圖引起人們對互聯(lián)網(wǎng)泛娛樂化趨勢的警醒。就兩者而言,我們可以在智能算法推薦時代找到更直觀、更深切的現(xiàn)實體悟。在消費主義浪潮和智能算法推薦信息致癮機制的強勢推動下,娛樂泛化現(xiàn)象正在向公共領(lǐng)域蔓延。部分用戶沉浸在數(shù)字消費與數(shù)字娛樂中不可自拔,人們解構(gòu)主流、戲謔權(quán)威,渴求通過以娛樂的方式來感知自我和釋放自我。在這種喧囂的娛樂氛圍之中,資本邏輯正在侵蝕價值邏輯,理性世界正在讓位于世俗世界,革命先烈被抹黑,民族英雄被污蔑,歷史事實被歪曲,有意思的信息正在吞噬有意義的信息。娛樂化、淺顯化、庸俗化的信息氛圍稀釋著主導意識形態(tài)傳播的價值意義,使其面臨權(quán)威失落的風險。
主導意識形態(tài)引領(lǐng)力是主導意識形態(tài)按照預期方向引導社會輿論和受眾的能力。主導意識形態(tài)引領(lǐng)力的強弱是判斷主導意識形態(tài)安全與否的重要標準。在原來中心化和科層式的信息傳播結(jié)構(gòu)中,主導意識形態(tài)引領(lǐng)力的生成相對容易且高效。智能算法推薦的廣泛應用改變了傳統(tǒng)意識形態(tài)引領(lǐng)力生成的信息權(quán)力結(jié)構(gòu),智能算法推薦私人定制的裂變傳播和千人千面的信息推送進一步加劇了不同利益群體和不同社會階層之間的價值區(qū)隔與價值分化,主導意識形態(tài)面臨引領(lǐng)乏力風險。
一方面,智能算法推薦私人定制的裂變傳播削弱了主導意識形態(tài)的優(yōu)勢傳播地位。在傳統(tǒng)金字塔式的信息權(quán)力結(jié)構(gòu)中,自上而下的層級信息擴散是信息流通的主導模式。主流媒體不僅掌握了所有的核心信息資源,而且還控制了整個信息傳播的流通渠道。黨報、黨刊、黨臺在整個社會輿論中居于強勢的傳播地位。這種傳播地位為主導意識形態(tài)強有力的引領(lǐng)實效提供了重要保障。但智能算法推薦私人定制的裂變傳播正在改變這種自上而下的科層制信息流通模式,隨之崛起的是一種去中心化和扁平化的信息流通模式。差異化信息傳播是智能算法推薦的顯著特征,人找信息向信息找人的顛覆性轉(zhuǎn)變實現(xiàn)了對原來傳者中心分發(fā)模式的更新和升級,原來作為整體的受眾正在被一個個鮮活的個體用戶所取代。智能算法推薦這種私人定制的裂變信息分發(fā)在某種程度上就是一種建構(gòu)在數(shù)據(jù)畫像和精準算法基礎(chǔ)上的碎微化傳播。碎微化傳播是碎片化傳播在智能算法推薦時代的最新表現(xiàn)。如果說碎片化傳播是傳統(tǒng)互聯(lián)網(wǎng)時代信息流通的顯著特征。那么,隨著算法推薦時代的到來,信息與人的供需適配程度會變得越來越高,信息流通的碎片化特征會進一步加劇,進而呈現(xiàn)出一種碎微化狀態(tài)。也就是說,智能算法推薦的碎微化傳播在提升整個社會信息配置效率的同時也在一定程度上削弱了主導意識形態(tài)的優(yōu)勢傳播地位,降低著主導意識形態(tài)的引領(lǐng)實效。
另一方面,智能算法推薦千人千面的個體敘事消解了主導意識形態(tài)的宏大敘事效果。作為一種制度化的價值理論體系,抽象性、理論性和規(guī)范性是馬克思主義意識形態(tài)的基本特征,主題鮮明、結(jié)構(gòu)完整、邏輯清晰的宏大敘事是其基本的敘事手段。無論是革命型意識形態(tài)話語體系,還是改革型意識形態(tài)話語體系,階級、革命、國家富強、民族振興、共同富裕等宏大主題都是主導意識形態(tài)的主要敘事議題。在傳統(tǒng)的信息格局中,這種具有統(tǒng)一性和象征性的宏大敘事極具吸引力和動員力,是主導意識形態(tài)引領(lǐng)力生成的重要手段。隨著智能算法推薦的日趨普及,千人千面的個性化信息推送和個體化的微型敘事正在逐漸消解主導意識形態(tài)的宏大敘事效果。智能算法推薦精準“喂食”的個性化信息推送不斷提升著人們?yōu)g覽信息的速度,人們隨時隨地都在關(guān)注著信息頁面的更新,心里在意的卻不一定是此刻究竟看見了什么,而是迫不及待地想要知道下一秒到底會看見什么。在這種速度至上的信息情境中,信息內(nèi)容的意義開始演化為浮光掠影式的印象,人們越來越注重個人的主觀感覺而不是社會的公共價值。人們對符合自己價值偏好的敘事信息會來者不拒,而對不符合自己價值偏好的異質(zhì)性敘事信息又會一味拒絕。在智能算法推薦這種去語境化、去結(jié)構(gòu)化的敘事情景中,整個社會的價值圖譜會逐漸呈現(xiàn)出彌散化趨勢,各種非馬克思主義或反馬克思主義的社會思潮趁機登堂入室,而多元多樣的價值分化和價值博弈也帶來了主流意識形態(tài)引領(lǐng)乏力的風險。
帕里澤在《過濾氣泡:互聯(lián)網(wǎng)沒有告訴你的事》一書中對互聯(lián)網(wǎng)帶來的“過濾氣泡”現(xiàn)象進行了系統(tǒng)闡釋,他發(fā)現(xiàn)兩個人使用同一關(guān)鍵詞在同一個搜索引擎上檢索到的內(nèi)容居然可能完全不同。搜索引擎可以根據(jù)用戶的信息偏好為用戶進行個性化的信息匹配,從而自動過濾掉用戶可能不喜歡的異質(zhì)性信息,進而讓用戶分別沉浸在一個個缺乏多元觀點交流的網(wǎng)絡(luò)氣泡之中。相較于傳統(tǒng)互聯(lián)網(wǎng)技術(shù),智能算法推薦精準化的信息推送更在一定程度上助推了這種過濾氣泡的演化和蔓延。智能算法推薦帶來的價值氣泡及其催生的偏見繭房正在改變社會價值共識形成的信息場景,主流意識形態(tài)面臨認同窄化風險。
一方面,智能算法推薦形塑的價值氣泡為凝聚社會價值共識帶來了情景困境。價值共識是“指人們在相互交往中,通過深層次的思想溝通和交流,在價值觀念上形成某種協(xié)調(diào)、一致的意見”[23]。凝聚社會價值共識就是在社會交往中通過差異化價值整合和價值沖突協(xié)調(diào)而形塑多元價值主體對社會主流價值觀形成整體性認同的過程。簡言之,凝聚社會價值共識的過程就是主流意識形態(tài)尋求最大限度被認同的過程,就是用社會主義核心價值觀來凝心聚力的過程。從結(jié)構(gòu)主義的理論視域看,社會價值共識的生成通常是社會意義系統(tǒng)、制度系統(tǒng)、經(jīng)濟與福利系統(tǒng)和公共傳播系統(tǒng)之間相互支撐、相互作用的綜合結(jié)果。以適配個性化需求為目的算法推薦正在成為信息流通領(lǐng)域主流的技術(shù)范式,公共傳播系統(tǒng)在社會價值共識生成中的地位正在逐漸突顯。智能算法推薦基于協(xié)同過濾的算法分發(fā)模式容易讓興趣相投或觀點一致的群體迅速拉近距離。算法推薦強大的過濾功能在提升信息配置效率的同時,也在潛移默化中為不同群體之間的觀點交流和價值融通構(gòu)筑起了一道道無形的隔離墻。智能算法精準化和公式化的信息推送加劇了同質(zhì)化信息的鏈接與用戶固有價值觀的偏執(zhí),社會群體之間的價值分化和價值區(qū)隔日趨明顯,這為凝聚社會價值共識帶來了前所未有的挑戰(zhàn)。
另一方面,智能算法推薦催生的偏見繭房削弱了主流意識形態(tài)的認同效度。桑斯坦分析過信息窄化對社會民主帶來的負面性影響。他認為互聯(lián)網(wǎng)技術(shù)的發(fā)展容易使大部分民眾在信息選擇時更傾向于接受那些志同道合的同質(zhì)性觀點,而會對那些競爭性的異質(zhì)觀點則采取忽略或排斥的態(tài)度,長此以往,“人們在事實上得到的就是一種‘窄化’了的信息”[24]4。網(wǎng)絡(luò)群體成員之間原本的價值觀念或價值偏見會被不斷強化和放大,進而導致群體極化現(xiàn)象。之后,他還提出,互聯(lián)網(wǎng)技術(shù)的信息過濾會導致網(wǎng)絡(luò)成員之間的群體分化,不同網(wǎng)絡(luò)群體都會更傾向于內(nèi)部之間的觀點交流而忽視與外部世界的溝通,這種不斷演化的群內(nèi)同質(zhì)和群際異質(zhì)現(xiàn)象會帶來一種信息繭房,沉浸在這種信息繭房中的人們就好像是處在一個封閉的回音室里,每個人只能聽到自己的回聲。值得注意的是,智能算法推薦獨特的技術(shù)原理正在加劇這種信息繭房效應的擴散和蔓延。意見的自由市場正在受到一個個偏見繭房的侵蝕。長期生活在這種信息區(qū)隔之中,“容易使人將自己的偏見當作真理,拒絕接受其他合理性觀點和意見”[25]。長此以往,這將不可避免地帶來意識形態(tài)極化或意識形態(tài)漂浮現(xiàn)象,進而還會削弱主流意識形態(tài)的認同效度。尤其需要注意,一些西方國家憑借其強大的技術(shù)和資本優(yōu)勢,借助人工智能的算法黑箱,通過高效隱蔽和靈活多變的信息分發(fā)對我國進行意識形態(tài)滲透,企圖規(guī)訓受眾價值,使之對社會主義意識形態(tài)產(chǎn)生偏見和誤讀,進而在潛移默化過程中稀釋馬克思主義意識形態(tài)的領(lǐng)導權(quán)和話語權(quán)。可以說,智能算法推薦個性化的信息配置改變了主流意識形態(tài)社會認同的權(quán)力場域,意識形態(tài)之間的爭奪變得更加激烈,主流意識形態(tài)面臨認同窄化的風險。
面對智能算法推薦帶來的信息權(quán)力變局和意識形態(tài)風險,我們需要采取積極地風險應對舉措,從消極地被動防控轉(zhuǎn)向積極地主動治理。既要應勢而動,對智能算法推薦進行技術(shù)規(guī)制和價值引領(lǐng),形塑工具理性與價值理性的算法平衡,用主流價值觀馴化算法權(quán)力;又要順勢而為,以完善的法律法規(guī)化解算法風險,培育算法推薦平臺的倫理自律和用戶的算法素養(yǎng)。通過多維度多舉措的協(xié)同風險治理,力爭讓智能算法推薦真正做到揚長避短并最終實現(xiàn)推送效率與公共責任、商業(yè)價值與社會價值之間的良性互動。
作為一種信息資源的全新配置范式,智能算法推薦的廣泛應用在一定程度上是大數(shù)據(jù)邏輯和人工智能邏輯在信息傳播領(lǐng)域相結(jié)合的一種必然趨勢。雖然是一種必然趨勢,但智能算法推薦的雙刃劍效應依然明顯。主流意識形態(tài)建設(shè)如何在這種趨勢當中做到趨利避害無疑是一個重要命題。當然,面對新技術(shù)帶來的現(xiàn)實問題和意識形態(tài)風險我們大可不必過分緊張和焦慮。在某種程度上,技術(shù)帶來的很多問題其實都可以通過技術(shù)本身的進一步優(yōu)化和完善而得以解決。智能算法推薦的意識形態(tài)風險治理首先就是要從技術(shù)維度規(guī)制算法,形塑工具理性與價值理性的算法平衡。
第一,進一步提升算法透明度,構(gòu)建用戶與算法平臺之間的信息平衡。提升算法透明度就是要打開算法的黑盒子,讓算法平臺盡可能地向用戶公開算法程序和算法運用的全過程,使得過濾氣泡產(chǎn)生的過程透明化,進而減少用戶與算法平臺之間的權(quán)力不對等和信息不對稱。比如,算法推薦平臺應該及時向用戶公開其大數(shù)據(jù)信息收集的范圍和進行用戶畫像的要素,要使得用戶對自己的數(shù)據(jù)隱私和身份標簽有較為清晰的了解。其中,如何平衡算法推薦平臺商業(yè)隱私與社會公共利益之間的關(guān)系,如何平衡算法推薦技術(shù)專業(yè)性與普通用戶認知能力有限性之間的關(guān)系,是制定算法推薦透明度準則需要解決的核心難題。
第二,進一步擴大算法推薦的信息范圍,構(gòu)建個性化信息推送與多元化信息推送的動態(tài)平衡。要糾偏智能算法推薦帶來的認知窄化,就必須要從技術(shù)源頭上擴大算法模型的信息選擇范圍,擴容算法模型的信息挑選維度。在滿足個性化信息需求的同時增加信息推送內(nèi)容的多樣性,提高優(yōu)質(zhì)內(nèi)容的傳播比重。比如,可以繼續(xù)挖掘反向個性化推薦的實踐與應用,在精準畫像用戶興趣圖譜的基礎(chǔ)上嘗試為用戶推薦一些他們可能不喜歡、沒興趣、需要關(guān)注但沒有關(guān)注的內(nèi)容,進而實現(xiàn)算法推薦個性化信息與多元化信息的動態(tài)平衡。
第三,進一步完善人機協(xié)同的信息分發(fā)模式,構(gòu)建推送效率與公共責任的動態(tài)平衡。推薦效率是算法工具理性的重要展現(xiàn),但隨著算法推薦的廣泛應用,效率就不該再是算法研發(fā)和設(shè)計需要考慮的唯一指標。算法推薦的技術(shù)升級還需要更多考慮算法倫理和算法責任,要考慮算法推薦在社會整合和文化傳播方面帶來的系統(tǒng)性影響。如何以人的價值理性來規(guī)約機器的工具理性是下一步智能算法升級的重要命題。我們應該在算法設(shè)計和應用過程中更多注入人的主體性,特別是專業(yè)人士的專業(yè)價值和意見建議,不斷完善人機協(xié)同的分發(fā)模式,進而實現(xiàn)推送效率與公共責任的動態(tài)平衡。
作為形塑社會的一種軟性權(quán)力,離開了主流價值觀的引領(lǐng),智能算法推薦就會猶如脫韁野馬般,發(fā)展越快,對社會帶來的風險就越大。要想規(guī)制智能算法推薦帶來的意識形態(tài)負效應,紓解算法焦慮,就必須為智能算法推薦套上主流價值觀的韁繩,用主流價值觀馴化算法權(quán)力。
第一,要以主流價值為導向引領(lǐng)智能算法推薦技術(shù)創(chuàng)新。資本邏輯的原生動力決定了智能算法推薦的開發(fā)和設(shè)計不可避免地會具有追逐商業(yè)利潤的強烈色彩。我們需要用主流價值觀的強勢介入來規(guī)制智能算法推薦的這種技術(shù)市場導向,要將主流價值觀念融入智能算法推薦的整體技術(shù)研發(fā)之中,擴大主流價值觀權(quán)值在算法優(yōu)先級中的比重,讓算法推薦始終不偏離主流價值觀的正確指向。比如,平臺等要做到智能算法的數(shù)據(jù)收集和用戶畫像不得侵犯用戶隱私,智能算法的信息分發(fā)不得為了追求流量和熱度而損害社會公共文化價值生態(tài)等。
第二,以主流價值觀把關(guān)智能算法推薦的信息分發(fā)。再好的傳播渠道都不能沒有總編輯和把關(guān)人。在弱人工智能時代,算法推薦的智能化水平還較為有限,機器算法的信息分發(fā)一刻也不能離開主流價值觀的約束和糾偏。我們必須要超越先分發(fā)、后刪除的事后把關(guān)模式,加強對智能算法推薦的前置把關(guān)。要將人工審核和算法審核結(jié)合起來,既發(fā)揮機器智能的技術(shù)優(yōu)勢,又發(fā)揮人工編輯的價值糾偏,在實現(xiàn)人機協(xié)同和人機互補的基礎(chǔ)上更好地凈化算法推薦的內(nèi)容生態(tài)。
第三,主流媒體要充分利用智能算法推薦實現(xiàn)傳播升級。一方面,主流媒體要善于借助算法推薦平臺更好地傳播主流價值觀。要想適應人工智能時代的信息傳播大變局,傳統(tǒng)主流媒體就必須積極擁抱智能算法推薦技術(shù),要主動和互聯(lián)網(wǎng)頭部企業(yè)進行深度合作,爭取將主流媒體的優(yōu)質(zhì)內(nèi)容生產(chǎn)能力與互聯(lián)網(wǎng)平臺的算法推薦優(yōu)勢有機整合起來,提升主流價值觀傳播的精準性和實效性。另一方面,主流媒體在資源整合的基礎(chǔ)上也可以嘗試構(gòu)建屬于自己的黨媒算法平臺。人民日報客戶端推出新媒體聚合平臺“人民號”就是一個有益的積極嘗試。與騰訊的“企鵝號”和今日頭條的“頭條號”一樣,“人民號”著力于打造移動端內(nèi)容的生產(chǎn)和分發(fā)全流程服務(wù)。不過與其他商業(yè)平臺所不同的是,“人民號”的黨媒算法更加注重主流價值觀導向。以“人民號”為參照,未來我們可以嘗試打造更多的黨媒算法平臺,在加快媒體融合的基礎(chǔ)上,爭取以更優(yōu)質(zhì)的平臺和更豐富的內(nèi)容占領(lǐng)輿論交鋒的制高點。
從世界各國的發(fā)展實踐來看,用法治規(guī)范人工智能無疑是一種時代趨勢。與智能算法推薦日新月異的技術(shù)迭代相比,當前我國對智能算法推薦相關(guān)法律法規(guī)的建設(shè)則顯得相對滯后。傳統(tǒng)的法律法規(guī)在監(jiān)管智能算法推薦上也表現(xiàn)出適應性不足等。正如尼葛洛龐帝所說:“為原子世界制定的法律一旦進入數(shù)字世界,就像魚被扔在了甲板上一樣,只能是拼命喘氣、垂死掙扎。因為相對于原子世界,比特世界完全是個截然不同的地方?!盵26]14同樣,相對于傳統(tǒng)互聯(lián)網(wǎng)信息分發(fā)技術(shù),智能算法推薦的運行機制也呈現(xiàn)出明顯不同。
目前,雖然我國已經(jīng)出臺了《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《互聯(lián)網(wǎng)跟帖評論服務(wù)管理規(guī)定》《互聯(lián)網(wǎng)群組信息服務(wù)管理規(guī)定》《互聯(lián)網(wǎng)視聽節(jié)目服務(wù)管理規(guī)定》《即時通信工具公眾信息服務(wù)發(fā)展管理暫行規(guī)定》《互聯(lián)網(wǎng)用戶賬號名稱管理規(guī)定》《互聯(lián)網(wǎng)新聞信息服務(wù)單位約談工作規(guī)定》以及《中華人民共和國網(wǎng)絡(luò)安全法》等法律法規(guī),初步形成了針對互聯(lián)網(wǎng)信息安全和信息服務(wù)的法律規(guī)范體系。但是相較于現(xiàn)實技術(shù)的迅猛發(fā)展及其可能產(chǎn)生的風險和問題,算法推薦領(lǐng)域的法律法規(guī)建設(shè)依然任重道遠。2017年,國務(wù)院《新一代人工智能發(fā)展規(guī)劃》也明確強調(diào)人工智能發(fā)展的政策法規(guī)亟待完善。接下來,我們應該大力完善智能算法推薦領(lǐng)域的法律法規(guī),力圖“通過法律化解風險,通過法律吸納風險,將風險社會置于法治社會的背景之中,即對智能革命時代的法律制度乃至整個社會規(guī)范進行新的建構(gòu)”[27]。
一方面,進一步增強智能算法監(jiān)管的法治意識、樹立起法治思維。增強智能算法監(jiān)管的法治意識就是要增強在監(jiān)管過程中的法治自律意識和法治敬畏意識。而法治思維則是推進智能算法監(jiān)管法治化的思想基礎(chǔ),樹立起法治思維的重點就是要樹立起算法監(jiān)管的程序思維、規(guī)則思維以及權(quán)利和義務(wù)思維。
另一方面,進一步提高智能算法推薦領(lǐng)域的立法效率,增強立法的前瞻性和實效性。當前,我國人工智能領(lǐng)域的立法周期相對較長,一般都是問題出現(xiàn)以后才倒逼立法。為此,我們應該要進一步提高立法效率,調(diào)整應急式的事后立法機制,逐步強化以風險防范為主的前置立法,加強專門法與配套法的統(tǒng)一規(guī)劃和制定,注重國家法律、行政法規(guī)、部門規(guī)章以及司法解釋等不同法律形式的完善和協(xié)同,提高智能算法推薦領(lǐng)域法律法規(guī)的可操作性和實效性。
除技術(shù)規(guī)制、價值引領(lǐng)和法治規(guī)范以外,智能算法推薦的意識形態(tài)風險治理還離不開算法信息平臺的倫理自律和用戶算法素養(yǎng)的提升。
從倫理學的角度來看,算法信息平臺的倫理自律主要是指平臺在遵守算法倫理規(guī)范基礎(chǔ)上自覺自愿實施自我約束的行為。這就要求算法信息平臺必須要具備足夠的道德想象力,要能“超越自我和情境的限制,擁有更加寬廣的倫理視角和道德感受能力”[28]202。一般而言,自律的算法信息平臺能夠在整體上做到技術(shù)理性的擴張與企業(yè)社會責任之間的協(xié)調(diào)和平衡,能夠從宏觀上認識到智能算法推薦在商業(yè)利益、用戶利益與社會公共利益之間的根本一致性。相較于他律的外在規(guī)制,信息平臺的倫理自律更加強調(diào)地是自我的內(nèi)在約束,自我把關(guān)、自己管理自己、自己對自己負責是平臺倫理自律的顯著特征。智能算法推薦的意識形態(tài)風險治理既要注重技術(shù)、法律等外在規(guī)制,也要注重倫理、道德等內(nèi)在約束。最好是可以做到將外在的強制性約束潛移默化地轉(zhuǎn)化為內(nèi)在的自我性約束。當然,算法信息平臺倫理自律的養(yǎng)成是一個漫長的復雜過程,是一個由多種因素共同影響而形成的綜合結(jié)果。
一方面,可以培育和發(fā)展算法推薦平臺的行業(yè)自律組織。雖然自2011年5月中國互聯(lián)網(wǎng)協(xié)會成立以來,我們又相繼成立了中國互聯(lián)網(wǎng)金融協(xié)會、中國網(wǎng)絡(luò)空間安全協(xié)會等幾個具有全國影響力的互聯(lián)網(wǎng)行業(yè)自律組織,但從整體上看,我國的互聯(lián)網(wǎng)行業(yè)自律組織依然呈現(xiàn)出數(shù)量少、審批嚴、不活躍的特點。因此,可以通過鼓勵和支持以引導算法平臺運營商、算法技術(shù)供應商、算法內(nèi)容服務(wù)商等平臺企業(yè)建立各種類型的自律組織,推動算法推薦平臺自律組織多樣化。
另一方面,發(fā)揮互聯(lián)網(wǎng)自律公約的道德引領(lǐng)作用。互聯(lián)網(wǎng)自律公約是互聯(lián)網(wǎng)道德規(guī)范在實踐層面的具體化和操作化,對于倫理自律風氣的形成具有重要的引領(lǐng)作用。我們要在《中國互聯(lián)網(wǎng)行業(yè)自律公約》《抵制惡意軟件自律公約》《反網(wǎng)絡(luò)病毒自律公約》《互聯(lián)網(wǎng)搜索引擎服務(wù)自律公約》《互聯(lián)網(wǎng)終端安全服務(wù)自律公約》等自律規(guī)范的基礎(chǔ)上,繼續(xù)推動智能算法推薦領(lǐng)域自律公約的制定和推廣,爭取以豐富的自律規(guī)范體系帶動算法推薦領(lǐng)域自我凈化機制的形成。
必須指出的是,除了算法信息平臺的倫理自律,也需要加強用戶算法素養(yǎng)的培育,提升用戶群體的算法素養(yǎng)。一般而言,算法素養(yǎng)是指用戶在面對算法推薦信息時所表現(xiàn)出來的態(tài)度、知識、技巧以及能力的總和。對此,可以充分利用各種渠道和平臺大力推行算法素養(yǎng)教育,全面提升用戶群體在智能算法時代的信息生產(chǎn)素養(yǎng)、信息選擇素養(yǎng)、信息甄別素養(yǎng)以及信息整合素養(yǎng)。培養(yǎng)用戶對算法推薦的理性認知和批判意識,使其能夠知曉算法推薦的技術(shù)邏輯和運行機理,能夠合理地運用算法而又不被算法所操縱,進而爭取真正做到以人的價值理性駕馭算法推薦的工具理性,讓智能算法推薦真正成為服務(wù)于人全面發(fā)展的助推之器。