■ 尹凱民 梁 懿
康斯坦丁·多爾將算法新聞定義為,“從私人的或公共的數據庫中選擇電子數據,對預選或未選數據進行相關性分配,通過自然語言生成語義結構并在特定范圍的線上或線下平臺中發(fā)布的最終文本”①。總體而言,算法新聞是計算技術應用于新聞業(yè)中的產物,但由于其具有復雜性、智能性、集成性等特點,因此計算技術在應用于傳統(tǒng)新聞行業(yè)時所產生的倫理問題具有重要的研究價值。
倫理問題始終是新聞學研究的重要組成部分,傳統(tǒng)倫理研究主要關注新聞組織的日常運作與專業(yè)實踐,但由于新聞行業(yè)與技術發(fā)展連接緊密,因此技術不斷塑造著新聞研究的道德話語及倫理準則。
進入21世紀,科學技術的快速發(fā)展使整個社會對于新聞時效性的要求提升到了前所未有的高度,傳統(tǒng)的“確證式新聞”開始逐漸被非專業(yè)化的新聞形式取代②,“斷言式新聞”成為當今全球的主要新聞生產模式③。新聞記者不再專注于對事實的調查,而傾向于采用已有的背景信息對現實進行建構,以往確立的新聞應該報道事實的價值規(guī)范受到沖擊。與此同時,“肯定式新聞”的出現進一步與新聞客觀性發(fā)生沖突;“聚合式新聞”將算法引入新聞業(yè),難以證明的數據來源、算法本身的客觀與否以及價值觀念的固有偏見等因素將這一矛盾激化,沖擊了新聞業(yè)本身樹立的倫理規(guī)范④,新聞業(yè)本身的合法性變得岌岌可危。
算法的出現顛覆了傳統(tǒng)新聞業(yè)的生產模式與組織架構。搜集數據、生成文本、分發(fā)推送皆可交由計算機處理,這種方式極大地提高了新聞業(yè)的生產效率,改變新聞分發(fā)模式,進一步滿足了受眾“及時”“個性”的信息需求,但卻引發(fā)了一系列倫理探討。從算法推薦上看,倫理風險最主要體現在“信息繭房”與“主流價值觀的缺乏”兩方面。⑤推送機制從表面上看能提高新聞內容的分發(fā)效率,但其背后的價值邏輯卻是謀取用戶“注意力經濟”的偽個性化推送。⑥例如,基于協(xié)同過濾的算法推送,目的在于反映群體偏好,并不完全依賴于目標受眾的興趣⑦,閱讀的決定權反而轉移至算法及平臺當中。此外,有學者認為算法推送還會導致低俗化現象,為了迎合人的獵奇心理,大量的庸俗、低俗內容充斥網絡平臺⑧,經過算法推送其傳播得到加強,最終導致優(yōu)質的內容無人問津,“劣幣驅除良幣”現象頻現。從算法生產上看,算法本身存在的固有缺陷以及人類對數據的盲目信任容易引發(fā)更大的危機,例如新聞真實性、偏見性⑨以及數據隱私等問題。由于算法的不透明性,其本身被視為“黑箱”存在,這對傳統(tǒng)的倫理判斷造成了極大干擾。同時,當前的算法技術還未達到完全的成熟,人工智能只能執(zhí)行命令,無法實現自我糾錯也被視為挑戰(zhàn)了傳統(tǒng)編輯把關的倫理規(guī)范。⑩同時,當前我國算法新聞倫理研究存在兩項不足,一是研究體系零散,缺少對算法新聞倫理問題的詳細歸類;二是研究多局限于算法本身,偏重于考察影響,忽視算法新聞在不同環(huán)節(jié)可能產生的倫理風險。
根據多爾對于算法新聞的定義可以將自動化新聞生產劃分為三個階段:輸入——從數據庫提取數據;處理——用于預先設定的語言和統(tǒng)計規(guī)則處理數據;生成——最終用自然語言輸出文本。在所有環(huán)節(jié)中,自然語言生成是關鍵,也即從數據庫中抓取數據并根據事先定義好的規(guī)則將其處理為自然語言文本是算法新聞的核心過程,而自然語言的起點是數據庫,數據倫理問題由此成為對算法新聞倫理討論的開端。
1.數據來源:追溯難題與間接信源影響可信度
首先,“數據從何而來?”是倫理問題爭論的起點。由于數據由自然語言生成,是生產算法新聞的重要依據,因此數據的來源明確與否對于新聞業(yè)而言至關重要。傳統(tǒng)的新聞生產由專業(yè)記者進行調查采訪、搜集材料,雖然過程中不可避免地存在偏見或失實的問題,但能夠做到資料來源明確,主體清晰,新聞行業(yè)能夠對報道內容負責。相比之下,算法新聞使用的數據很難追溯其確切來源,海量的數據內容也使得對數據進行逐一確認難以實現。從我國的情況來看,商業(yè)數據庫中的數據是新聞業(yè)常用的數據來源,這類數據庫通常只集中在某一個方面,其所能描述的用戶特征也只是片面或單一的認知,數據來源的片面性也是導致“信息繭房”的重要因素之一。其次,大多數新聞機構都會選擇從第三方數據供應商中購買數據,經過多次交易的數據的來源更加撲朔迷離。如果算法新聞中的數據來源模糊不清,新聞內容的真實性、可靠性也難以實現,這違背了新聞行業(yè)最初設立的“提供信息”“報道事實”的行業(yè)目標,新聞業(yè)倫理問題隨之產生。
2.數據質量:影響新聞內容真實與否的關鍵
結構化數據是自然語言生成的前提。原始數據需要被“清洗”,以算法能夠理解的結構化形式輸入,因此數據本身的準確性和可靠度對最終報道的真實準確性具有決定性的影響。數據是否存在項目缺失或者信息不完整?如果不加驗證地使用數據很難保證新聞內容的真實性。當前的人工智能并不具備自我糾錯的能力,算法會不加區(qū)別地處理數據庫中顯示的數據信息,因而數據的缺失或不完整極易導致算法新聞產品的錯誤與偏見。美聯社全球業(yè)務編輯麗薩·吉布斯說:“算法不會造成拼寫錯誤或者算術計算錯誤,錯誤通常是由于數據有問題。如果數據不好,那么只會得到一個不好的故事?!币虼?數據不但關系著算法新聞內容質量的高低,更關系新聞本身是否客觀、真實,這是新聞組織不容忽視的倫理問題。
3.數據隱私與使用權利:提供新聞服務與保護用戶權利的困境
數據隱私同樣涉及到重要的倫理問題。算法新聞利用數據生產新聞,但在滿足公眾信息需求的同時也對公民個人的隱私造成極大風險。國內外互聯網巨頭企業(yè)都掌握著龐大的用戶數據信息,包括用戶的瀏覽內容、行為習慣、使用偏好等。2018年3月17日,媒體曝光了震驚世界的Facebook(全球用戶數量最多的社交平臺)數據泄露事件,超過5000萬的用戶數據在使用者不知情的情況下被政治數據公司“劍橋分析”獲取并利用。在國內,許多互聯網公司以算法推薦的名義將用戶圈養(yǎng)在“信息繭房”之中,實現流量的商業(yè)變現,這種服務模式在受到追捧的同時也引發(fā)很多網民的強烈反思,自己的數據究竟在何種程度上被算法新聞平臺獲?。坑脩粼诰W絡場域中如同身處于杰里米·邊沁所構想的“圓形監(jiān)獄”之中,使用者不知道自己的數據是否被監(jiān)視、如何被監(jiān)視,更無法有效察覺自己的數據是否流失或者被濫用。目前來看,全世界缺少平衡算法新聞服務與用戶隱私邊界的統(tǒng)一規(guī)定,這也成為了新聞組織與互聯網企業(yè)需要共同面對的倫理難題。
此外,傳統(tǒng)新聞生產中曾屬于個人責任層面的問題現在也被轉移至整個媒體組織或是第三方數據提供商,因此衍生出的另一個問題則是誰有權使用這些數據以及能夠在多大程度上披露這些數據?數據的權限問題以往很少出現在新聞業(yè),但如今也不得不納入新聞倫理問題的考慮范圍。
1.算法中的新聞價值:代碼能否承載新聞價值?
新聞價值是新聞學研究的重點領域,至今仍存在較大爭議。西方對于新聞價值的理解傾向于商品意義上的“交換價值”,約翰·菲斯克等人在《關鍵概念:傳播與文化研究辭典》中對于新聞價值的定義為“在公司化造就的主流報刊與廣播中,用來選擇、建構與表述新聞報道的專業(yè)化符碼”。因此,新聞價值在于滿足新聞業(yè)的生產要求,雖然遵循新聞應當真實、客觀的原則,但仍將滿足受眾需求放在首位。我國學者認為,“現代新聞價值理論應當回歸價值的本義”,即應以“新聞”為本位,而不是用“價值”限制新聞,并突出了新聞傳播活動和事業(yè)對于人類社會的有用性。
兩種新聞價值的探討同樣適用于算法新聞帶來的爭議,算法新聞究竟是應著眼于滿足受眾需求,還是凸顯媒體的社會責任?今日頭條創(chuàng)始人張一鳴曾表示“媒體是有價值觀的,但今日頭條不是媒體,我們更關注信息的吞吐量和信息的多元化。我們不能準確判斷這個是好是壞,是高雅還是庸俗。”這種說法遭到了業(yè)界的多方批評,今日頭條本身已具備媒體屬性,卻披著技術外衣,公然忽視新聞價值,違背了新聞傳播活動中的價值取向與品德規(guī)范。因此,算法新聞能否承擔諸如客觀性、透明性、責任感和真實性等新聞價值成為這一環(huán)節(jié)首先需要面對的倫理探討。
2.代碼中的價值觀預設:算法如何體現社會價值觀
美國數學家凱西·奧尼爾曾言:算法是嵌入代碼中的觀點。算法新聞即便由算法生產,也離不開人的設置,其本質體現的仍是設計者的觀念。由于算法新聞的生產過程幾乎沒有人為干預,所以代碼規(guī)則的預設顯得十分重要。但這引發(fā)了算法層面的又一倫理探討,即創(chuàng)作者如何通過代碼實現社會期待的價值與道德觀念。巴蒂亞·弗里德蘭曾提出“價值敏感性設計”技術哲學理論,這一方法將價值倫理、社會規(guī)則與技術設計結合,旨在將技術設計活動中的人類價值嵌入計算機信息系統(tǒng)之中。弗里德蘭認為可以從三個角度展現價值與技術的存在關系:內含性觀點、外因性觀點和互動性觀點。其中,內含性觀點可以為代碼設計提供一定的指導意義,該觀點認為,設計者將他們的意向和價值“刻入”到技術產品之中。因此,算法在設計之初就已包含設計者的價值傾向,算法負載的價值又將呈現在結果之中,一旦涉及價值傾向則有必要納入倫理問題的考量。
3.算法代碼本身的遮蔽性:技術不透明性遮蔽價值偏見
算法在被引入到新聞業(yè)之初時曾被視為推進新聞更加客觀、真實的重要動力,因為憑借算法進行數據抓取、新聞創(chuàng)作能夠避免人為干預,也不會受到記者個人價值觀念的影響。但目前,更多人將其稱為“黑箱”,因為算法的運算過程更加不透明。傳統(tǒng)的新聞作品能夠通過記者的署名確認其責任,但在算法新聞中,記者與算法的著作權歸屬本身就是尚待解決的重要法律問題,民眾更不了解數據的來源與計算機的計算邏輯,甚至無法區(qū)分一篇新聞報道究竟是由人類作者完成還是算法制作,這種技術本身所帶來的不透明性加劇了責任糾察難度。其次,一旦媒介組織將商業(yè)邏輯嵌入到算法模型之中,這種偏見將更加難以察覺。有學者質疑,算法的所屬機構是否會操縱算法權威,通過算法新聞的推送讓民眾看到其所屬機構想讓大家看到的新聞內容。目前國內還沒有任何一家數據公司或媒介組織愿意公開自己的算法,因為算法技術一旦公開就有遭受到外界篡改、攻擊的可能,也涉及到對于商業(yè)機密的保護。因此,算法本身不透明也難以透明的屬性與傳統(tǒng)新聞業(yè)的透明性、客觀性相沖突,成為新聞業(yè)難以平衡的倫理難題。
1.算法新聞生產者責任困境:多主體導致權責難以判定
在傳統(tǒng)的新聞行業(yè)中,記者個人被視為新聞業(yè)職業(yè)道德的代理人,應具備專業(yè)素養(yǎng)、可靠的道德品格與極強的洞察能力,此類規(guī)范在大學開設的新聞教育中也反復被提及,但這種價值觀念在當代卻逐漸變得局限且開始受到質疑。隨著媒介系統(tǒng)的不斷分化,新聞生產參與的主體越來越多元,幾乎不可能只讓記者對新聞負責。在算法新聞生產的過程中,參與者至少包括媒體組織、專業(yè)記者、服務提供商、數據提供商、程序員等。在專業(yè)的算法新聞生產過程中,社會文化、組織結構、新聞工作的專業(yè)要求以及記者個人的價值觀念被混雜在一起,共同嵌入代碼之中,因此需要新聞記者與程序編碼員共同合作,使新聞產品符合新聞業(yè)的倫理標準。Just與Latzer認為,這種新聞生產模式主要依靠授權,即給予算法一定程度的自治,也正因如此,記者與算法代理之間合作的復雜程度會引發(fā)道德倫理挑戰(zhàn),如低透明度、低可控性與責任不明晰。例如,如果判定新聞在生產過程中出現了問題,誰應對代碼/機器負責?由于大多數新聞機構的算法服務需要外包給相應的服務提供商或聘請計算機專業(yè)人員,那么代碼的編寫者和新聞記者誰的責任更大?多主體生產的情況無法改變,對于責任進行分類歸屬是必由之路,但難以厘清的多層責任正是算法新聞帶來的新倫理問題。但這并不意味著記者責任的減弱,因為記者需要將更多的工作轉移到對最終產品的把控之中,記者個人的職業(yè)素養(yǎng)與道德水平仍不容忽視。
2.新聞產品把關難題:算法勞工與模糊且缺乏可操作性的把關標準
生產主體面臨的另一個問題是對于新聞產品的監(jiān)控。目前,世界上所有的新聞機構均不會完全允許機器自我生產、自我發(fā)布,人為的監(jiān)控與把關是必要的,編輯需要核查上傳的內容、時間、地點和上傳者身份等信息來判斷內容源的真實性。Storyful作為世界可信度最高的信源調查和事實核查機構,雇傭的人工編輯團隊占到了團隊總人數的一半,創(chuàng)始人Mark Little表示:“一個已經驗證了的事情就是,在新聞領域,技術不可能完全取代編輯,純靠技術有時反而會產生讓人失望的結果?!痹谖覈?對于內容審核編輯的需求也大大增加。2018年4月,國家互聯網信息辦公室對今日頭條、天天快報、鳳凰新聞、網易新聞四款新聞聚合類app下架整頓后,國內算法新聞機構以及互聯網公司開始大規(guī)模招聘內容審核編輯,加強對于產品的內容審核。
但是新聞內容的審核要求無法一概而論,導致把關標準十分模糊,審核工作充滿盲目性與無序性。此外,隨著算法在新聞業(yè)的應用越來越廣泛,算法生產的海量新聞文本為媒介組織帶來了難以負擔的監(jiān)控成本,對每一個新聞產品進行監(jiān)控難以實現,不僅耗費大量的人力資源,審查效率還很緩慢,反而增加了媒介組織的工作負擔,但如果不及時對發(fā)布的內容把關又會衍生出一系列倫理問題。
此外,算法新聞的生產形式使得記者僅僅作為新聞產品的把關人而不需要在新聞生產過程中付出勞動,新聞從業(yè)者不得不被限制在算法技術主導的生產結構之中,從業(yè)者的主體性被削弱,日益淪為替算法打標簽的一種廉價勞動力即“算法勞工”,這也是技術應用于新聞業(yè)后對主體倫理地位的挑戰(zhàn)。
1.社會背景:過度依賴技術的工具理性
新聞業(yè)并非是人類社會唯一受到算法技術影響的行業(yè),算法作為一項計算技術早已滲透到社會各環(huán)節(jié)之中并承擔起愈發(fā)重要的角色,不同學科、不同行業(yè)內部均呈現出一派急于與人工智能技術適配的慌亂景象,這些現象折射出的是人與技術關系的失衡,也是“工具理性”與“價值理性”間的博弈。隨著人工智能技術在世界的興盛,整個社會沉醉于科學技術帶來的前所未有的新體驗之中,并將其帶入各行各業(yè),企圖實現全方位的革新與升級。算法技術也為新聞業(yè)帶來了多項益處,例如提升寫作效率、為調查事實提供了便利、使定制化得以實現。因此在享受到技術紅利的同時,整個社會開始向工具理性主義傾斜,效率使新聞業(yè)讓渡價值,技術使媒體人讓渡真實,數據使用戶讓渡隱私,人對技術的過度依賴使行為本身的后果被忽視,導致了一系列倫理問題。傳統(tǒng)的新聞倫理研究幾乎都是站在價值理性的視角對新聞業(yè)進行批判思考,這也是為什么在工具理性觀念占據優(yōu)勢地位的今天,這些觀念不斷受到批評和質疑的原因,傳統(tǒng)新聞倫理研究已無法完整覆蓋算法新聞倫理,需要與技術倫理學相結合。
2.傳播環(huán)境:受眾對信息體驗的盲目追逐
每一種新媒介形式的應用都將進一步滿足人的信息需求,例如紙張滿足了人類對于信息傳輸的需求,廣播滿足了人類對于聲音的需求,電視滿足了人類對于視覺的需求,互聯網綜合了以往媒介的特點全方位滿足人們的信息體驗,但人類信息體驗的標準也在盲目提高,甚至超過了對于信息本身的關注,這種盲目性主要體現在兩方面。一是信息的時效性。自然語言技術提升了新聞的撰寫效率,一則新聞只需數秒即可完成;大數據省去了記者調查和記錄的過程,足不出戶就可以生產新聞,這導致新聞的專業(yè)性不斷被削弱,專業(yè)新聞人員在行業(yè)內的重要性不斷降低,數據來源、數據質量、新聞價值、新聞真實難以得到保證。二是信息的觀感,受眾對于私人化、定制化的追捧促使智能推薦算法成為當前互聯網產品的主流應用技術,其代價是對用戶數據的攫取與利用??梢灶A見,隨著技術的進一步發(fā)展,在算法技術基礎上疊加的VR/AR新聞以及5G技術對“物”的媒介性塑造而帶動的傳感器新聞將使隱私泄漏風險達到前所未有的程度。
3.技術誘因:算法技術本身的不完善
雖然算法技術近年來發(fā)展的如火如荼,但從技術史的長河來看,算法仍是一項年輕的技術,其本身還存在很多缺陷與不完善之處,這也導致了一部分新聞倫理問題。上文論述的數據質量問題正是由于算法技術目前無法實現數據自動糾錯所導致的,如果算法能夠快速且準確地糾察海量數據,這一環(huán)節(jié)引發(fā)的倫理問題風險也會大大降低。新聞價值問題同樣也是當前技術局限的后果,目前的機器撰寫只能處理結構化數據,這也是財經和體育類新聞領域算法新聞技術發(fā)展較快的重要原因。但即便處理結構化數據,算法產出的新聞文本也與人類記者撰寫的新聞有一定差距,在深度報道領域更是存在天壤之別,因此需要大量的人工監(jiān)控,造成對從業(yè)者主體性的消磨。隨著算法技術的發(fā)展,機器生成與人工撰寫內容的差距將不斷縮小,新聞內容的專業(yè)性也會逐漸提高,專業(yè)的新聞工作者也將能夠從算法勞工的窘境中得到解放,重新占據新聞創(chuàng)作的主導話語。此外,減少能夠避免的技術失誤也有助于降低算法新聞的倫理風險,例如錯誤的假設和判斷、不恰當的建模技術、錯誤的編碼等,這可能需要建立對算法的審計機制,在有限的技術條件下盡可能將負面影響降到最低。
被譽為“第四次革命”的人工智能技術是人類社會進步的重要標志,也是未來社會的發(fā)展方向。所以盡管算法與新聞業(yè)的結合引發(fā)了諸多倫理風險問題,新聞業(yè)也不可能摒棄對算法技術的應用。新聞傳播學科需要建立一套合適的原則來正確審視算法技術的應用,因此本文嘗試從包容性、謹慎性與專業(yè)性角度提出對于算法新聞倫理的審視原則,為審視算法新聞的倫理問題提供一定參考。
1.包容原則:全面認識算法新聞的作用
包容不意味著不加批判地接受,而是全面認識算法新聞帶來的正負影響。在互聯網技術占據中心地位之前,其他媒介技術也都或多或少遭受過批判,例如電視曾被批判干擾受眾對信息的價值判斷,對正功能有阻斥、滯退等消極作用。電視的娛樂性也被認為與新聞的嚴肅性相悖,不利于受眾對于重要信息的理解。著名學者格伯納曾認為,“電視可以制造現實,控制受眾對事件的理解,并達到特定的目標”。如今看來,電視技術似乎并沒有造成如此強烈的負面效果,反而成為民眾獲取新聞的重要渠道,在互聯網成為批判的焦點后,人們的擔憂轉嫁到網絡技術之上。盡管對于媒介倫理的批判具有重要的學術價值,但也要看到許多研究存在過于放大倫理影響的一面。本文雖然重點研究算法新聞的倫理爭議,列舉了算法新聞的倫理問題,但同樣認為面對算法新聞這樣一種新生事物,應秉持包容的審視原則,全面看待其作用,給予技術一定的成長空間,不能過分強調負面?zhèn)惱硇鲆曀惴ㄐ侣劦闹匾嫣帯?/p>
2.謹慎原則:最大程度規(guī)避技術風險
在全面認識到算法新聞的價值后,對其正向作用應繼續(xù)保持并優(yōu)化,但對于倫理風險問題應謹慎對待,盡量將倫理風險降至最低。應當看到,算法新聞的倫理問題一部分是新技術應用增加的倫理風險,另一部分則是傳統(tǒng)新聞倫理問題在技術環(huán)境下的加劇。對于技術引發(fā)的倫理問題,應對算法技術的應用保持足夠謹慎的態(tài)度。如上文所述,數據質量、數據隱私等倫理問題根源于技術本身的缺憾,因為對于新聞質量、網民人身權利影響重大,新聞業(yè)必須謹慎對待。目前來看,算法技術對數據不加區(qū)分地利用容易產出有問題的新聞文本,這要求新聞組織必須謹慎對待組織采用的數據,減少錯誤新聞的產出。針對算法技術對網民數據的侵入也暫無行之有效的解決辦法,這也要求新聞機構在搜集用戶數據時應持有謹慎的態(tài)度,關鍵信息的獲取必須做到知情同意,不能乘技術之便而肆意侵犯用戶的數據隱私。
3.專業(yè)原則:回歸新聞價值本位
顯然,對新聞價值、新聞真實的討論并非首見于算法新聞,這些問題作為新聞倫理研究的重點內容早在傳統(tǒng)新聞時期就已屢見不鮮,但算法技術卻加劇了這些問題的倫理風險。面對算法邏輯下的傳統(tǒng)新聞倫理問題,新聞組織與新聞從業(yè)者應持有專業(yè)原則進行審視。具體而言,傳統(tǒng)新聞時期對新聞真實的探討主要集中在新聞報道與客觀真相之間的區(qū)隔無法彌合的倫理反思,因為彼時的大多數新聞能夠滿足提供基本事實信息的要求。但在錯誤的數據、代碼不完善下生產出的許多算法新聞已經完全不貼合事實,甚至引發(fā)誹謗情形,這種現象的出現概率遠高于人工新聞,新聞的專業(yè)性已難以得到保證。與此同時,新聞價值也在急劇喪失,算法生產的新聞常出現語句不通順、邏輯不連貫等問題,新聞應承擔的社會關懷更無從談起,這些都與傳統(tǒng)的新聞倫理要求相差甚遠。專業(yè)原則要求新聞從業(yè)者應重回專業(yè)意識,提升新聞質量,不能將新聞生產放任給技術,自身僅作簡單把關,新聞只滿足于能夠閱讀的低標準,對新聞本身應具備的真實性、客觀性、價值性仍應存有敬畏之心,用專業(yè)性來消解技術加劇的倫理風險與新聞業(yè)和新聞學科面臨的危機。
注釋:
① D?rr,Konstantin.MappingtheFieldofAlgorithmicJournalism.Digital Journalism,no.10,2015.p.701.
② Kovach,Bill,and Tom Rosenstiel.TheElementsofJournalism:WhatNewsPeopleShouldKnowandthePublicShouldExpect.New York:Three Rivers Press.2007.p.113.
③ Debatin Bernhard.DasEndederJournalistischenEthik(TheEndofEthicsinJournalism).Neuvermessung der Medienethik.2015.p.65.
④ 陳嬿如、謝欣:《斷言式新聞——媒介技術驅動下的新型新聞模式研究》,《國際新聞界》,2019年第5期,第90頁。
⑤ 張瀟瀟:《算法新聞個性化推薦的理念、意義及倫理風險》,《傳媒》,2017年第11期,第84頁。
⑥ 趙雙閣、岳夢怡:《新聞的“量化轉型”:算法推薦對媒介倫理的挑戰(zhàn)與應對》,《當代傳播》,2018年第4期,第52頁。
⑦ 陳昌鳳、師文:《個性化新聞推薦算法的技術解讀與價值探討》,《中國編輯》,2018年第10 期,第12頁。
⑧ 任莎莎、田嬌:《算法新聞的倫理困境及其解決思路——以“今日頭條”為例》,《傳媒》,2018年第6期,第90頁。
⑨ 張超:《新聞生產中的算法風險:成因、類型與對策》,《中國出版》,2018年第13期,第38頁。
⑩ 董天策、何旭:《算法新聞的倫理審視》,《新聞界》,2019年第1期,第31頁。