■ 劉海明 楊琦鉅
受眾與媒介的關(guān)系處于動態(tài)的相互構(gòu)造之中:受眾創(chuàng)造媒介,媒介也創(chuàng)造受眾。①以智能技術(shù)為基礎(chǔ)的新型傳播媒介正在向社會生活進行全面滲透,數(shù)字把關(guān)就是其中比較典型的例子。人們在享受數(shù)字把關(guān)便利的同時,也應(yīng)敏銳地意識到數(shù)字把關(guān)正在“創(chuàng)造我們”。這種“創(chuàng)造”既能指引人們向善,也能誘導(dǎo)我們向惡——例如偏見、信息繭房、信息安全等。美國哲學(xué)家唐·伊德(Don Ihde)提出人與技術(shù)的背景關(guān)系——技術(shù)作為一種不在場的存在,成為人經(jīng)驗領(lǐng)域的一部分,成為當(dāng)下環(huán)境的組成部分。②在新聞實踐中,數(shù)字把關(guān)與用戶的關(guān)系或許可以用背景關(guān)系來解釋,即用戶很難意識到數(shù)字把關(guān)正調(diào)節(jié)著信息環(huán)境。數(shù)字把關(guān)在把關(guān)實踐中仿佛“抽身而去”,只有當(dāng)它發(fā)生故障或者出現(xiàn)問題時,用戶才能感受到其存在③。數(shù)字把關(guān)的“隱身性”暴露出技術(shù)對新聞實踐的潛在威脅。面對數(shù)字把關(guān)可能帶來的倫理困境,有必要從倫理層面對數(shù)字把關(guān)進行探究,確保數(shù)字把關(guān)更好地服務(wù)新聞業(yè)。
技術(shù)進步始終是推動媒介形態(tài)更迭的動力:報紙誕生于印刷術(shù),電視誕生于電子技術(shù),社交媒體誕生于互聯(lián)網(wǎng)技術(shù)。人工智能技術(shù)是數(shù)字把關(guān)的技術(shù)保障。數(shù)字把關(guān)以智能機器為把關(guān)主體、以人機交往為具體形式進行信息的生產(chǎn)與傳播。人機交往是指以成熟的智能技術(shù)和仿真技術(shù)為支撐的“超仿真智能機器人”進行的“人—機”雙向交往行為。④人機交往這種新型把關(guān)優(yōu)勢明顯,將推動新聞業(yè)的“生態(tài)變革”,催生新的把關(guān)生態(tài)。但以智能機器為把關(guān)主體也存在某些倫理風(fēng)險。
“把關(guān)人”概念由庫爾特·盧因(Kurt Lewin)提出。在盧因看來,群體傳播中存在一些“把關(guān)人”掌控信息流通,只有符合群體規(guī)范或“把關(guān)人”價值標(biāo)準(zhǔn)的信息方可進入傳播渠道。這一概念被傳播學(xué)者懷特(D.M.White)引入新聞研究領(lǐng)域,并提出大眾傳媒的新聞篩選和把關(guān)理論。新聞傳播領(lǐng)域的“把關(guān)人”理論強調(diào)對信息的采集、加工與控制流通。所謂“把關(guān)人”,是指具有讓某一信息進來或出去之決定權(quán)的個人或團體。⑤把關(guān)人控制著信息傳播的“門”,決定何種信息可以進入傳播渠道,這種篩選新聞信息的過程體現(xiàn)著新聞把關(guān)的實質(zhì)。傳統(tǒng)媒體時代,最終的“把關(guān)人”是新聞機構(gòu)。機構(gòu)篩選新聞的標(biāo)準(zhǔn)主要體現(xiàn)在以下兩個方面:其一是新聞的客觀屬性,主要表現(xiàn)為新聞信息含有的價值因素;其二是傳統(tǒng)新聞機構(gòu)的主觀屬性,即立場、經(jīng)營目標(biāo)以及受眾需求等??梢?新聞的把關(guān)過程并非純粹的客觀中立,其中包含著復(fù)雜的價值因素?!鞍殃P(guān)人”控制信息流通的同時也構(gòu)建著社會的信息環(huán)境,它通過向人們提示新聞信息的重要程度來影響人們對世界的認(rèn)知與看法。因此,“把關(guān)人”對新聞業(yè)、對社會信息環(huán)境的建構(gòu)至關(guān)重要。
傳統(tǒng)媒體時代,新聞把關(guān)的主體是機構(gòu)和自然人,其把關(guān)標(biāo)準(zhǔn)堅持新聞價值第一性、市場價值第二性的原則。隨著媒介技術(shù)的不斷發(fā)展,出現(xiàn)以算法技術(shù)為核心的數(shù)字把關(guān)人。新聞把關(guān)的主體發(fā)生變化,新聞把關(guān)的標(biāo)準(zhǔn)也發(fā)生相應(yīng)的變化,這種變化主要表現(xiàn)為更加重視用戶的個性化需求。數(shù)字把關(guān)通過滿足用戶的個性化需求來增強媒體的用戶黏性,增加媒體效益?,F(xiàn)階段,算法技術(shù)憑借其優(yōu)勢被廣泛地應(yīng)用于新聞生產(chǎn)中,這種對新聞業(yè)的“滲透”主要表現(xiàn)為對新聞信息生產(chǎn)的全面“入侵”,包括新聞信息的采集、加工、傳播等,由此帶來新聞業(yè)的“技術(shù)轉(zhuǎn)向”。在這種環(huán)境下,原本屬于傳統(tǒng)媒體的“把關(guān)”權(quán)力逐漸讓渡給人工智能,新聞把關(guān)的主體從自然人(媒體從業(yè)者)逐漸變成“數(shù)字把關(guān)人”。數(shù)字把關(guān)的實質(zhì)就是以人工智能為把關(guān)主體、以算法為技術(shù)內(nèi)核、以人機互動為主要方式的新聞把關(guān)活動。算法作為數(shù)字把關(guān)的核心,改進媒體運作中的新聞價值判斷,部分地代償新聞從業(yè)者的把關(guān)人角色⑥。
數(shù)字把關(guān)的具體形式主要表現(xiàn)為新聞采寫層面的機器人寫稿以及新聞分發(fā)層面的智能算法推薦:一方面,數(shù)字把關(guān)人能夠快速地收集與處理互聯(lián)網(wǎng)的海量信息并形成新聞稿件,即所謂的“機器人寫稿”,它可以保證“信息類”新聞生產(chǎn)的髙效、準(zhǔn)確,為媒體從業(yè)者采寫原創(chuàng)性深度報道稿件創(chuàng)造條件。數(shù)字把關(guān)亦能增強新聞的真實性,即人工智能將需把關(guān)的信息與無數(shù)ID生產(chǎn)的海量信息庫聯(lián)系起來,讓虛假信息在全景式的審查中無處遁形。⑦另一方面,在新聞分發(fā)層面,數(shù)字把關(guān)對用戶進行“精準(zhǔn)畫像”,使新聞信息的發(fā)布更具針對性,極大地增強用戶黏性,數(shù)字把關(guān)因而受到用戶的青睞。
面對互聯(lián)網(wǎng)中海量、冗雜的信息,媒體從業(yè)者亟需一種工具代替他們進行繁瑣枯燥的信息篩選與發(fā)布工作,用戶也需要一種工具以便高效獲取消息,人工智能技術(shù)的發(fā)展恰好契合二者的需求,數(shù)字把關(guān)將這些需求從可能變成現(xiàn)實。這表明,技術(shù)進步是數(shù)字把關(guān)產(chǎn)生的外因,媒體從業(yè)者與用戶的需求則是數(shù)字把關(guān)產(chǎn)生的內(nèi)因。技術(shù)進步與需求之間互構(gòu)互鑄:一方面,科技發(fā)展重構(gòu)人與世界的關(guān)系與秩序,催生人的新需求⑧;另一方面,新的需求推動技術(shù)不斷進步。技術(shù)進步與需求的關(guān)系即一個不斷地滿足與擴張的循環(huán)過程。由此論之,數(shù)字把關(guān)是滿足人們新聞需求的產(chǎn)物,新的需求進一步推動數(shù)字把關(guān)的發(fā)展與完善。這種需求產(chǎn)生的原因可通過亞里士多德主義原則進行解釋——亞里士多德主義原則是一種動機原則,解釋為什么我們愿意做某些事而不是另一些事。它含有這樣的意義——隨著個人(由心理和生理上的成熟)能力與日俱增,在一定階段上將變得樂于選擇他能從事的、需要他運用新獲得能力的較復(fù)雜活動。⑨既然用戶不愿浪費時間進行簡單而繁瑣的信息搜索,新聞機構(gòu)也希望將有限的時間與人力投入更具深度的新聞生產(chǎn)之中,這就需要一種工具——數(shù)字把關(guān)來代替簡單的信息生產(chǎn)、傳播與信息搜索工作。
在現(xiàn)階段,數(shù)字把關(guān)介入新聞生產(chǎn)及新聞分發(fā),二者構(gòu)成新的“把關(guān)生態(tài)”。
媒介技術(shù)的進步引起把關(guān)生態(tài)的相應(yīng)變化。數(shù)字把關(guān)沖擊原有的把關(guān)生態(tài),這是因為技術(shù)進步帶來媒介權(quán)力分化,造成把關(guān)生態(tài)的變化。新聞傳播領(lǐng)域的“把關(guān)人”權(quán)力經(jīng)歷過三次分化:第一次是門戶網(wǎng)站時期,大型門戶網(wǎng)站從傳統(tǒng)新聞機構(gòu)手中得到部分把關(guān)權(quán)力,彼時傳統(tǒng)新聞機構(gòu)仍是把關(guān)主體;第二次是社交媒體時期,傳統(tǒng)新聞機構(gòu)將其把關(guān)權(quán)力部分讓渡給社交媒體及普通用戶,社交媒體在把關(guān)權(quán)力格局中開始占據(jù)主導(dǎo);第三次是人工智能時代,以算法技術(shù)為核心的人工智能成為“數(shù)字把關(guān)人”,與傳統(tǒng)新聞機構(gòu)、社交媒體共同形成新的把關(guān)格局。盡管當(dāng)前的把關(guān)生態(tài)呈現(xiàn)出“三足鼎立”的態(tài)勢,但隨著人工智能技術(shù)的不斷發(fā)展,數(shù)字把關(guān)在此格局中顯然具有更大的潛在優(yōu)勢。
人工智能時代的把關(guān)生態(tài)究竟“新”在何處?借用媒介生態(tài)概念可簡要地對“把關(guān)生態(tài)”進行界定。媒介生態(tài)是指圍繞信息活動展開,在個體、新聞機構(gòu)、社會以及其他利益相關(guān)者之間進行互動融合和價值交換的系統(tǒng)。⑩在大眾傳媒時期,把關(guān)生態(tài)主要表現(xiàn)為新聞機構(gòu)進行信息篩選、加工與傳播,新聞機構(gòu)占據(jù)著把關(guān)的主導(dǎo)地位,受眾整體上處于被動接受的狀態(tài)。在社交媒體時代,“受眾”一詞被“用戶”所取代,意味著用戶在把關(guān)生態(tài)中更具有主動性。相比于大眾傳媒時代,社交媒體時代的新聞機構(gòu)與用戶的互動性更強,二者能在更加平等的位置上進行信息交流與價值交換,這種“圈群傳播”促使把關(guān)生態(tài)趨于多樣。在人工智能時代,把關(guān)主體是智能機器而非自然人。新聞機構(gòu)在把關(guān)活動中處于統(tǒng)籌地位,主導(dǎo)把關(guān)機器的設(shè)計與控制,用戶在數(shù)字把關(guān)模式中的主動性更強。數(shù)字把關(guān)與用戶進行信息交流與價值交換,這種人機交往的把關(guān)模式豐富新聞把關(guān)的形式,構(gòu)成新的把關(guān)生態(tài)。新的把關(guān)生態(tài)意味著算法新聞判斷正逐漸替代人類新聞判斷。以媒體從業(yè)者為主體的人類新聞判斷具有專業(yè)性、知識性和新聞價值的限制,但現(xiàn)階段的算法新聞判斷似乎并沒有受到這些限制,甚至過度關(guān)注個人的個性化需求而導(dǎo)致其專業(yè)性、知識性和新聞價值的不足,這為新聞業(yè)的發(fā)展埋下隱患。
法國技術(shù)哲學(xué)家埃呂爾(Jacques Ellul)預(yù)言:所有的技術(shù)進步都有代價。數(shù)字把關(guān)的優(yōu)勢具有某種“機械性”,它無法像人那樣“彈性”把關(guān),即數(shù)字把關(guān)也會具有一定的風(fēng)險。這些風(fēng)險主要包括:(1)新聞的真實性與客觀性受到挑戰(zhàn);(2)新聞的人性化降低;(3)新聞價值降低;(4)算法偏見。
這些風(fēng)險源自把關(guān)主體的變化。從大眾傳媒時代到人工智能時代,把關(guān)主體由自然人變成智能機器,經(jīng)數(shù)字把關(guān)審核進入傳播渠道的新聞個性化有余而專業(yè)化、人性化不足。大眾傳媒時代,作為道德主體的媒體從業(yè)者在進行新聞把關(guān)活動時受制于職業(yè)倫理。大眾傳媒以價值導(dǎo)向為主、兼顧市場導(dǎo)向,實現(xiàn)新聞內(nèi)容的把關(guān)。從技術(shù)哲學(xué)角度看,現(xiàn)代技術(shù)是對于效率極其推崇的一種思維邏輯。數(shù)字把關(guān)受到新聞機構(gòu)的青睞是因為它能極大地提升新聞生產(chǎn)的效率,但過分關(guān)注商業(yè)效率而忽視公共利益,可能造成重效率而輕價值的傳播取向。
在新聞采寫層面,機器人寫稿的風(fēng)險主要表現(xiàn)為其新聞作品的質(zhì)量參差不齊。算法的選擇和對信息的處理基于預(yù)設(shè)定的代碼,輸入的信息必須能轉(zhuǎn)換為算法可讀的數(shù)據(jù),所有不可讀的信息無法被算法解釋、也不會被算法選擇,新聞規(guī)范性價值不是算法選擇標(biāo)準(zhǔn)的一部分,也不能被程序員預(yù)先設(shè)定。因此,機器人新聞是否符合新聞規(guī)范值得懷疑。新聞作品不僅僅只有數(shù)據(jù),更要有對是非的價值判斷,這樣才能發(fā)揮出新聞應(yīng)有的社會作用。從某種意義上講,機器人寫稿的信息來源不是第一性的客觀事實存在,而是第二性的產(chǎn)物,這個第二性的產(chǎn)物就是數(shù)據(jù)。數(shù)據(jù)可以被人為雕琢,所以在新聞采寫層面,機器人寫稿的真實性與客觀性面臨著倫理困境,這也是目前機器人寫稿多用于體育類、財經(jīng)類等簡單的描述性新聞報道的原因。在未來,機器人新聞講述更復(fù)雜、更具價值的新聞故事乃大勢所趨。國外已有學(xué)者提出“算法新聞2.0”,即:將自動化新聞的領(lǐng)域從簡單的描述擴展到更豐富、更復(fù)雜的故事驅(qū)動敘事。屆時,機器生產(chǎn)新聞的真實性與客觀性將會面臨更大的挑戰(zhàn)。因此,對機器生產(chǎn)新聞進行倫理建構(gòu)至關(guān)重要。
在新聞分發(fā)層面,由于智能算法推薦的普遍運用,用戶可能在數(shù)字把關(guān)的引導(dǎo)下陷入“繭房”的陷阱之中而不自知。這種“不自知”也可被稱為“技術(shù)無意識”,它比“繭房陷阱”更為可怕。在海德格爾(Martin Heidegger)看來,技術(shù)之本質(zhì)乃是集置,集置之本質(zhì)乃是危險。其中最大的危險在于,危險并不顯示自身為危險。技術(shù)的“隱身性”導(dǎo)致技術(shù)處于自我遮蔽狀態(tài),當(dāng)技術(shù)出現(xiàn)某些問題,它才會顯現(xiàn)出來。在數(shù)字把關(guān)占據(jù)主導(dǎo)的今天,智能算法推薦讓人們陷入由興趣構(gòu)建的信息“繭房”,若對其不自知,將可能使人們無法自拔。在傳統(tǒng)的新聞把關(guān)中,編輯通常在新聞專業(yè)主義的影響下關(guān)注公共利益,選擇更具價值的新聞。算法推薦為提供個性化服務(wù),愈發(fā)關(guān)注用戶的需求。由此論之,算法推薦新聞是否具有價值與用戶的選擇有關(guān),不同用戶的媒介素養(yǎng)參差不齊,可能導(dǎo)致算法推薦新聞的價值得不到保障。在如的泛娛樂今社會中,算法推薦新聞或許會更加趨向于娛樂化。
數(shù)字把關(guān)對人的社會認(rèn)知產(chǎn)生重要影響。算法的實質(zhì)是在行使一種社會權(quán)力,塑造人們新的認(rèn)知和行為模式,控制社會認(rèn)知對世界的看法。經(jīng)過篩選的數(shù)據(jù)難免包含著偏見,數(shù)字把關(guān)并不能進行這種價值識別。算法被形容為“偏見進,偏見出”,這種算法偏見或許會影響公眾的社會認(rèn)知。社交媒體讓媒介內(nèi)容發(fā)生變化,視覺刺激的節(jié)奏越來越快,情節(jié)越來越復(fù)雜。與之相關(guān),觀眾對形象的反應(yīng)時間越來越短,因此,過度注意力取代深度注意力。數(shù)字新聞、數(shù)字把關(guān)的出現(xiàn)能否說是一種深度注意力的回歸?在算法技術(shù)的幫助下,公眾往往會被推送符合自身價值取向與興趣的新聞,專注于自己的“興趣領(lǐng)域”。從這個意義上說,數(shù)字把關(guān)有助于注意力的回歸。與傳統(tǒng)媒體時代的深度注意力相比,數(shù)字把關(guān)時代用戶的注意力所關(guān)注的對象不同。在傳統(tǒng)媒體時代,用戶的注意力主要表現(xiàn)在對新聞以及新聞背后價值的深度思考;在數(shù)字把關(guān)階段,用戶的注意力主要是由于興趣導(dǎo)向,在碎片化的時間內(nèi)更傾向?qū)W⒂谝曈X盛宴。因此,這并不是深度注意力的回歸,而是一種“偽注意力”。部分人在數(shù)字把關(guān)的潛移默化之中變得浮躁,甚至造成“娛樂至死”的后果。
通過對“數(shù)字把關(guān)”的利害分析,我們亟需建立完善的機制以應(yīng)對數(shù)字把關(guān)的應(yīng)用可能帶來的倫理困境。以倫理學(xué)理論為基礎(chǔ)對數(shù)字把關(guān)進行倫理建構(gòu),既是數(shù)字把關(guān)自身發(fā)展完善的需要,更是用戶、社會的現(xiàn)實需要。
數(shù)字把關(guān)的倫理建構(gòu)需要以倫理學(xué)基本原理為基礎(chǔ),底線倫理與位階倫理或許能為此提供理論依據(jù)。底線倫理指社會的基本道德和基本的個人行為規(guī)范,其功能在于從社會和個人兩方面維系社會生存的基礎(chǔ)道德。把關(guān)底線的“變遷”是其適用對象的擴大,即將數(shù)字把關(guān)智能機器置于底線倫理的限制之下,新聞把關(guān)的底線仍是新聞機構(gòu)與媒體從業(yè)者要生產(chǎn)并傳播符合規(guī)范的新聞信息。位階倫理關(guān)注倫理沖突發(fā)生時各種倫理的優(yōu)先次序。當(dāng)新聞把關(guān)活動發(fā)生倫理沖突時,位階倫理能確定倫理的優(yōu)先級別進而提供解決路徑,二者共同構(gòu)建傳統(tǒng)新聞把關(guān)的倫理規(guī)范框架。在人工智能時代,可借鑒底線倫理與位階倫理的理論對數(shù)字把關(guān)進行倫理建構(gòu)。
底線倫理主張行為或行為準(zhǔn)則的正當(dāng)性,相對于人們追求至善、崇高的倫理現(xiàn)象而產(chǎn)生。底線倫理的內(nèi)涵要求人遵守基本行為準(zhǔn)則,這是一種普遍的義務(wù)論。底線倫理與圣賢倫理是指導(dǎo)個人行為準(zhǔn)則的兩個方面,它們處在同一序列中,但底線倫理具有絕對的優(yōu)先性:當(dāng)且僅當(dāng)不觸及底線倫理之時,個體方可考慮追求更好、更全面的發(fā)展。底線倫理是最后的、不可再退卻的臨界點,在道德要求的次序上具有優(yōu)先性,只有守住道德底線,才可能向更高層次的道德境界發(fā)展。底線倫理針對的主體是人,它所關(guān)注的是人的基本道德準(zhǔn)則以及應(yīng)該遵守的基本道德義務(wù),它是讓一個人之所以為“人”的規(guī)范性保障。
在人工智能時代,底線倫理仍然有值得借鑒之處,一方面,底線倫理是數(shù)字把關(guān)設(shè)計者不可逾越的倫理準(zhǔn)則,使數(shù)字把關(guān)生產(chǎn)與傳播的信息盡可能符合新聞規(guī)范與道德規(guī)范。另一方面,底線倫理作為理論依據(jù)可用以探討智能機器應(yīng)遵守的基本準(zhǔn)則,這也是底線倫理在人工智能時代的延伸。機器能否像人一樣遵守某些準(zhǔn)則?答案顯然是可能的。著名的阿西莫夫機器人學(xué)三定律即機器人的行為準(zhǔn)則。在人工智能時代,機器已經(jīng)擁有人的部分能力,即控物的能力、工具理性的能力,這也是人賴以戰(zhàn)勝其它動物的能力。就數(shù)字把關(guān)而言,“控物的能力”表現(xiàn)為對數(shù)據(jù)的獨立處理?!肮ぞ呃硇缘哪芰Α笔蛊淠苌疃葘W(xué)習(xí)以提高工作效率。此時的數(shù)字把關(guān)機器已變成擁有一定行為能力的能動體,因此有必要為其制定規(guī)范準(zhǔn)則。
數(shù)字把關(guān)包括設(shè)計者以及數(shù)字把關(guān)智能體兩個方面。程序的設(shè)計者是具有道德主體地位的人,理應(yīng)受到底線倫理的限制,設(shè)計者需要在設(shè)計之初有意識地評估數(shù)字把關(guān)運用可能帶來的風(fēng)險,數(shù)字把關(guān)的設(shè)計目的應(yīng)具有正當(dāng)性(例如不能窺探用戶隱私)。數(shù)字把關(guān)智能機器也應(yīng)遵守底線倫理以規(guī)范“行為”,因此,要為數(shù)字把關(guān)智能機器制定規(guī)范準(zhǔn)則,包括編入自上而下的道德原則以及其增強自身的深度學(xué)習(xí)。關(guān)于這個問題,后面將會進一步闡述。
當(dāng)技術(shù)活動產(chǎn)生某些倫理沖突時,需要確定一種適用的倫理加以解決,這就是技術(shù)倫理的位階。其中,優(yōu)先適用的倫理稱為上位技術(shù)倫理,次優(yōu)適用的稱為上位技術(shù)倫理。通常而言,當(dāng)技術(shù)主體是具有職業(yè)身份的專業(yè)技術(shù)人員時,一般將職業(yè)倫理判定為上位技術(shù)倫理;當(dāng)技術(shù)主體不具有職業(yè)身份時,則將社會公德判別為上位技術(shù)倫理。確立倫理的優(yōu)先適用等級有利于化解技術(shù)倫理的沖突。
就新聞事業(yè)而言,我國媒體從業(yè)者的職業(yè)倫理包括堅持新聞的真實性、堅持正確的輿論導(dǎo)向、全心全意為人民服務(wù)等??梢?媒體從業(yè)者的職業(yè)倫理以公共利益為基礎(chǔ),以人民利益、社會利益為中心,確保新聞事業(yè)作為人民與社會的發(fā)聲窗口。由此論之,當(dāng)新聞把關(guān)活動面臨職業(yè)倫理與社會公德的倫理沖突時,應(yīng)優(yōu)先考慮公共利益。
數(shù)字把關(guān)不同于人工把關(guān),當(dāng)數(shù)字把關(guān)活動與社會公德發(fā)生倫理沖突時,智能機器能否在優(yōu)先考慮公共利益的前提下加以解決呢?根據(jù)荷蘭哲學(xué)家 P.克努斯(Peter Kroes)提出的技術(shù)人工制品二重性理論:技術(shù)人工制品一方面是自然客體,與人的意向性無關(guān);但另一方面又與設(shè)計者設(shè)計過程的意向性密切相關(guān),在這方面它是人為的。站在設(shè)計者的角度上看,應(yīng)從源頭上盡量減少數(shù)字把關(guān)發(fā)生倫理沖突的可能性。在設(shè)計之初,設(shè)計者就必須考慮到其是否會有損社會公德的可能,形成倫理準(zhǔn)入原則。若損害社會公德,該程序就不能運用于具體的把關(guān)實踐中,否則數(shù)字把關(guān)的設(shè)計者必須要承擔(dān)相應(yīng)的責(zé)任。即便如此,仍存在著我們不可忽視的情況:(1)當(dāng)前的數(shù)字把關(guān)智能體并不具有獨立識別倫理沖突的道德敏感性;(2)數(shù)字把關(guān)獨立地進行把關(guān)活動。因此,在新聞實踐中可能發(fā)生數(shù)字把關(guān)設(shè)計者無法預(yù)料的倫理沖突,這是數(shù)字把關(guān)實踐的矛盾之處。因此,最理想的辦法是將公共利益優(yōu)先這一原則編為機器可讀的數(shù)據(jù)并植入其中,以賦予數(shù)字把關(guān)智能體倫理敏感能力,使其在面對倫理困境之時能夠應(yīng)對未知的倫理風(fēng)險。
底線倫理在人工智能時代的運用表現(xiàn)為為數(shù)字把關(guān)制定規(guī)范準(zhǔn)則提供依據(jù);位階倫理則要求當(dāng)數(shù)字把關(guān)面臨職業(yè)倫理與社會公德的沖突時,數(shù)字把關(guān)應(yīng)像人一樣優(yōu)先考慮公共利益,而非商業(yè)利益。二者共構(gòu)人工智能時代對數(shù)字把關(guān)的倫理建構(gòu)的理論基礎(chǔ),進而使數(shù)字把關(guān)具有一定的倫理敏感能力與判斷能力。
提及底線倫理主張行為或行為準(zhǔn)則應(yīng)具備正當(dāng)性,即可聯(lián)想到約翰·羅爾斯(John Bordley Rawls)提出的“正義的兩個原則”之一:每個人對與其他人所擁有的最廣泛的基本自由體系相容的類似自由體系都應(yīng)有一種平等的權(quán)利。簡單地說,這個原則表明了在權(quán)利分配與義務(wù)分派的過程中,用戶、社會組織在享有平等的基本權(quán)利時也需履行相應(yīng)的義務(wù)。用戶將信息傳播的權(quán)利讓渡給新聞機構(gòu),新聞機構(gòu)就應(yīng)履行義務(wù),為用戶提供豐富且有社會價值的信息,而非一味地迎合用戶的喜好。智能時代的數(shù)字把關(guān)人更應(yīng)如此。數(shù)字把關(guān)的產(chǎn)生解構(gòu)原有的把關(guān)生態(tài),成為新的把關(guān)主體。數(shù)字把關(guān)的權(quán)力不僅僅是新聞機構(gòu)賦予的,更是用戶賜予的。隨著新聞機構(gòu)與用戶對數(shù)字把關(guān)的認(rèn)知不斷加深,數(shù)字把關(guān)實踐不斷受到質(zhì)疑。數(shù)字把關(guān)要重新贏得信任,就需要保證其把關(guān)“行為”的正當(dāng)性,即在底線倫理的基礎(chǔ)之上進行新聞把關(guān)活動,且把關(guān)活動應(yīng)以公共利益優(yōu)先為準(zhǔn)則。
在人工智能時代,數(shù)字把關(guān)不可逾越的底線仍然是保證新聞信息的真實性與客觀性,在為用戶定制個性化新聞時仍以不違背社會公德為底線。在新聞傳播領(lǐng)域,這種社會公德應(yīng)包括杜絕低俗信息、假新聞、算法偏見以及信息傳播窄化引起的“信息繭房”等。因此,需要把數(shù)字把關(guān)置于倫理的限制之下,使數(shù)字把關(guān)受到公眾的監(jiān)督。據(jù)此,不僅是數(shù)字把關(guān)智能體的設(shè)計者,更包括數(shù)字把關(guān)智能體,都應(yīng)受到底線倫理與位階倫理的限制。
在數(shù)字把關(guān)活動中,智能體擁有自主決策的能力且不受人為的干擾。因此,不僅要在最初設(shè)計上對數(shù)字把關(guān)的設(shè)計者進行倫理限制,還需要在具體的技術(shù)實踐過程中將數(shù)字把關(guān)智能體置于倫理的建構(gòu)之下。瓦拉赫(W.Wallach)和科林·艾倫(C.Allen)提出“自上而下的道德(Top-Down Morality)”“自下而上的方法(Bottom-Up and Developmental Approaches)”以及“自上而下以及自下而上的合并(Merging Top-Down and Bottom-Up)”三種方法,對討論人工智能機器的道德建構(gòu)不無啟迪意義。
“自上而下”的嵌入方法指將傳統(tǒng)倫理學(xué)原理的標(biāo)準(zhǔn)、規(guī)范及原則化為代碼編入到人工智能機器的程序之中,包括德性論、義務(wù)論、功利主義等。數(shù)字把關(guān)機器的倫理建構(gòu)需從源頭上將底線倫理、位階倫理的原則規(guī)范嵌入到數(shù)字把關(guān)機器的設(shè)計之中,使數(shù)字把關(guān)成為具有一定道德敏感性的智能機器。目前有學(xué)者提出人工智能的自主智力開發(fā)(Autonomous Mental Development,簡稱AMD),目標(biāo)是通過有限的訓(xùn)練或探索,即泛化,來實現(xiàn)卓越的性能,(這種訓(xùn)練、探索)概括起來有三種類型:架構(gòu)設(shè)計驅(qū)動型、內(nèi)在價值驅(qū)動型和學(xué)習(xí)價值驅(qū)動型。其中“架構(gòu)設(shè)計驅(qū)動型”可理解為從源頭上對智能體進行編程,這當(dāng)然包括道德倫理的嵌入,將道德倫理編入智能機器之中成為其自主智力發(fā)展的前提或基礎(chǔ)?!皩W(xué)習(xí)價值驅(qū)動型”即稍后要討論的基于智能機器深度學(xué)習(xí)的“自下而上”的道德嵌入模式。
經(jīng)過道德倫理嵌入的數(shù)字把關(guān)智能體的核心不是單純的算法技術(shù),而是一種“道德算法”。以往數(shù)字把關(guān)所依賴的算法技術(shù)在工具理性的影響下以滿足用戶快速獲取信息以及個性化需求為主,因為用戶媒介素養(yǎng)的不同,這不但使信息的價值性有所下降且信息的真實性也遭受到巨大的挑戰(zhàn)。例如,“新聞反轉(zhuǎn)”是由于媒體片面地追求信息傳播的速度而忽視對新聞事件全方位的調(diào)查。過度追求傳播速度與個性化體現(xiàn)在算法技術(shù)中就是工具理性壓制價值理性。經(jīng)過道德倫理嵌入的道德算法會更加重視信息的價值,它以價值導(dǎo)向為主,在追求信息的知識性、價值性的同時滿足人們的不同需求,確保數(shù)字把關(guān)的善用。
在對數(shù)字把關(guān)“自上而下”的倫理嵌入中,技術(shù)公司扮演著開發(fā)者與完善者的角色。要勝任這樣的角色,需要技術(shù)公司對數(shù)字把關(guān)智能體的把關(guān)活動進行“跟蹤”,在跟蹤的過程中發(fā)現(xiàn)問題并完善技術(shù),最大程度地趨利避害。自上而下的倫理嵌入還可增強技術(shù)公司的責(zé)任意識,有助于建立完善的問責(zé)體系,推動數(shù)字把關(guān)的健康發(fā)展。
自下而上的發(fā)展方法是基于智能機器的深度學(xué)習(xí),使其在不斷的實踐中學(xué)習(xí)成長的倫理建構(gòu)模式。把關(guān)機器收集用戶的信息數(shù)據(jù)并加以分析,在這個過程中分辨用戶的道德取向并學(xué)習(xí),進而使數(shù)字把關(guān)生產(chǎn)傳播的信息符合倫理道德的規(guī)范?,F(xiàn)階段,自下而上的方法更具有可行性且能得到大多數(shù)用戶的認(rèn)同。然而,僅僅依靠智能機器的深度學(xué)習(xí)還遠遠不夠,因為智能機器本身不具備價值判斷的能力且用戶反饋數(shù)據(jù)良莠不齊。這預(yù)示著,除了依靠數(shù)字把關(guān)的學(xué)習(xí)算法,新聞機構(gòu)與用戶也扮演著十分重要的角色。
首先,需要用戶提升自己的媒介素養(yǎng)。數(shù)字把關(guān)根據(jù)用戶反饋的數(shù)據(jù)進行分析和行動,假設(shè)用戶總是無意識地關(guān)注自己感興趣的信息,這種反饋數(shù)據(jù)會引導(dǎo)“信息窄化”;假設(shè)用戶了解數(shù)字把關(guān)潛在的風(fēng)險,有意識地避免某些“缺乏營養(yǎng)”的信息,這種反饋數(shù)據(jù)就會反映出用戶的道德偏向,數(shù)字把關(guān)機器據(jù)此進行道德學(xué)習(xí)便使數(shù)字把關(guān)傳播的信息符合倫理道德的規(guī)范。
其次,數(shù)字把關(guān)的深度學(xué)習(xí)需要新聞機構(gòu)的監(jiān)督與引導(dǎo)。新聞機構(gòu)是數(shù)字把關(guān)實踐過程中的監(jiān)督者與引導(dǎo)者。智能發(fā)展的本質(zhì)是使機器人能夠自主地“生活”在這個世界上,并在人類的監(jiān)督下自主地變得聰明。在數(shù)字把關(guān)深度學(xué)習(xí)的過程中,新聞機構(gòu)有責(zé)任監(jiān)督并引導(dǎo)其“學(xué)好”。新聞機構(gòu)與媒體從業(yè)者該如何監(jiān)督?首要的是堅守新聞的底線,保證新聞生產(chǎn)的真實性與客觀性。數(shù)字把關(guān)深度學(xué)習(xí)的過程亦是實驗的過程,唯有堅守住底線才能追求其他。此外,用戶是數(shù)字把關(guān)的直接使用者,新聞機構(gòu)應(yīng)加強與用戶的聯(lián)系并鼓勵用戶對信息進行反饋,同時加強平臺管理,提高準(zhǔn)入門檻,讓不良自媒體無處遁形。
需要指出的是,僅有以上兩種方法并不足以應(yīng)對復(fù)雜的情況。需要將自上而下的道德嵌入與自下而上的學(xué)習(xí)發(fā)展結(jié)合起來。在源頭上進行基本倫理原則嵌入的同時,還需要讓智能機器在實踐中摸索學(xué)習(xí),雙管齊下對數(shù)字把關(guān)進行倫理建構(gòu)?!白陨隙隆钡牡赖虑度氡徽J(rèn)為是設(shè)計者預(yù)先設(shè)置好的道德規(guī)范,這種預(yù)設(shè)的道德規(guī)范具有機械性,無法靈活地應(yīng)對各種復(fù)雜的倫理沖突。為此,需要結(jié)合“自下而上”深度學(xué)習(xí)形成的實踐經(jīng)驗,這是智能機器在各種復(fù)雜的倫理沖突之中通過自我學(xué)習(xí)而形成的。這種實踐經(jīng)驗的獲得需要以預(yù)設(shè)的倫理道德為前提,即設(shè)計者預(yù)先設(shè)置的倫理規(guī)范是智能機器深度學(xué)習(xí)倫理道德的基礎(chǔ)。以此論之,面對復(fù)雜多變的社會環(huán)境,這種混合方法的確是更好的選擇。按照目前學(xué)界的普遍觀點,混合進路是人工智能道德訓(xùn)練的必然趨勢。無論是自上而下的方法還是自下而上的方法或是二者的混合,人類都需要扮演好“監(jiān)督者”的角色。
數(shù)字把關(guān)倫理建構(gòu)的混合進路要求技術(shù)公司、新聞機構(gòu)與用戶加強彼此之間的聯(lián)系,避免各自為戰(zhàn)。三個主體共同處于數(shù)字把關(guān)之中又具有相對的獨立性。如若不加強合作可能會造成某些沖突,進而降低數(shù)字把關(guān)的信息質(zhì)量。要完成數(shù)字把關(guān)的倫理建構(gòu),需要三方從合作走向融合,只有“融為一體”才能使資源得到最大化的利用。目前,新聞聚合平臺是三者融合的形式之一,但是新聞機構(gòu)與技術(shù)公司的合作還略顯不足,這也是如今數(shù)字把關(guān)引發(fā)倫理沖突的原因之一。在新聞機構(gòu)內(nèi)設(shè)立技術(shù)部門,重視并加大對技術(shù)部門的投入或許是人工智能時代推動新聞與技術(shù)融合的重要方法之一。
對數(shù)字把關(guān)的倫理建構(gòu)更需要政策上的支持,建立良好的人工智能社會所需要的制度保障。應(yīng)確保人工智能充分朝著促進公共利益的方向發(fā)展。管理部門、技術(shù)公司、新聞機構(gòu)、學(xué)界答應(yīng)與公眾應(yīng)該聯(lián)合起來,聯(lián)合組建一個獨立的、多利益相關(guān)者的人工智能倫理委員會。各方在平等的基礎(chǔ)上對人工智能在新聞業(yè)的應(yīng)用進行可行性探討并制定出相應(yīng)的倫理準(zhǔn)則,在頂層設(shè)計層面為人工智能的健康發(fā)展提供制度保障。
對數(shù)字把關(guān)機器進行道德訓(xùn)練是規(guī)范其行為的必經(jīng)之路。擁有一定道德敏感性與道德判斷能力的數(shù)字把關(guān)能否被稱為道德主體是需要探討的問題,對其道德主體性的探析能幫助我們更好地厘清人機之間的關(guān)系以及廓清責(zé)任主體。翁居陽(Juyang Weng)等人提出機器人的自主精神發(fā)展(AMD),即機器人的設(shè)計應(yīng)該跟人一樣擁有從“嬰兒期”到“成年期”的自主精神發(fā)展時期,發(fā)展中的機器人跟人類“生活”在一起,在人類的監(jiān)督下自主地變得更聰明。機器的自主發(fā)展是基于人類給定的任務(wù)或者說外部環(huán)境的復(fù)雜性而言的,因為傳統(tǒng)的機器需要人類程序員將特定的任務(wù)編寫到機器中,如果任務(wù)在混亂的外部環(huán)境中變得復(fù)雜,機器很快就會失控。這種自主精神發(fā)展應(yīng)包括對智能機器的道德訓(xùn)練以及智能機器的自主學(xué)習(xí)發(fā)展,賦予智能機器倫理敏感能力以及評估自身行為的道德意義的能力,使其成為合格的“道德行動者”。問題在于:經(jīng)過道德嵌入過后的數(shù)字把關(guān)是否具有道德主體的地位?
在對數(shù)字把關(guān)的道德主體探析之前,需要打破傳統(tǒng)的對技術(shù)的片面性理解,這種片面性的理解使人們陷入人與技術(shù)二元對立的束縛之中。該觀點從工具主義視角出發(fā),認(rèn)為技術(shù)本身并無價值取向,技術(shù)具有價值中立性,只有通過人的使用才能確定技術(shù)的價值,技術(shù)本身無善惡之分,善惡乃取決于人的使用。從人類學(xué)的角度理解,技術(shù)并非是中立性的,而恰恰相反,技術(shù)本身體現(xiàn)著某種價值性。人工智能機器本身就體現(xiàn)著某些價值取向:(1)在智能機器被設(shè)計之初就被植入了設(shè)計者的價值;(2)經(jīng)過道德學(xué)習(xí)、嵌入的智能機器擁有一定的價值判斷能力,其在倫理道德限制下的技術(shù)活動也體現(xiàn)著某些價值因素;(3)看似客觀的數(shù)據(jù)中也會夾帶著某些價值取向。因此,數(shù)字把關(guān)不是中立性的信息傳播工具,而是包含著復(fù)雜價值取向的“能動者”。
道德主體(Moral agent)法律術(shù)語譯為“道德代理人”,指具有主觀判斷且能夠承擔(dān)法律責(zé)任的自然人,他具有自我意識,能夠進行道德認(rèn)知、能夠進行推理并形成自我判斷、能夠進行道德選擇與實施道德行為且承擔(dān)道德責(zé)任??梢?智能機器要擁有完全的道德主體地位就必須要具有自我意識、能夠進行道德判斷并承擔(dān)相應(yīng)的道德責(zé)任。目前,人工智能體所呈現(xiàn)的“主體性”是功能性的模仿而非基于有意識的能動性、自我意識與自由意志,故應(yīng)稱之為擬主體性。數(shù)字把關(guān)基于設(shè)計者預(yù)設(shè)的價值與準(zhǔn)則自動進行把關(guān),不具備獨立的道德判斷能力,故數(shù)字把關(guān)也具有擬主體性。擬主體性還體現(xiàn)在處于倫理道德限制下的數(shù)字把關(guān)擁有一定的道德調(diào)節(jié)能力與道德敏感性,這種道德調(diào)節(jié)能力來自設(shè)計之初的基本倫理原則嵌入以及技術(shù)活動中智能機器的自我學(xué)習(xí)。
現(xiàn)階段的數(shù)字把關(guān)機器不能被稱為道德主體,但在把關(guān)活動中,它們將面臨道德選擇與判斷卻是不爭的事實。數(shù)字把關(guān)在新聞機構(gòu)的控制監(jiān)督之下行使著一定的道德調(diào)節(jié)權(quán)力,因此需要對數(shù)字把關(guān)機器進行道德訓(xùn)練,將其置于倫理的建構(gòu)之下。按照既定的道德行為準(zhǔn)則行使道德調(diào)節(jié)的權(quán)利,既是數(shù)字把關(guān)的義務(wù)也是其底線。
注釋:
① 胡泳:《理解麥克盧漢》,《國際新聞界》,2019年第1期,第87頁。
② [美]唐·伊德:《技術(shù)與生活世界》,選自《技術(shù)哲學(xué)經(jīng)典讀本》,吳國盛編,上海交通大學(xué)出版社2008年版,第405頁。
③ 戴宇辰:《“在媒介之世存有”:麥克盧漢與技術(shù)現(xiàn)象學(xué)》,《新聞與傳播研究》,2018年第10期,第89頁。
④ 林升梁、葉立:《人機·交往·重塑;作為“第六媒介”的智能機器人》,《新聞與傳播研究》,2019年第10期,第89頁。
⑤ 黃旦:《“把關(guān)人”研究及其演變》,《國際新聞界》,1996年第4期,第27頁。
⑥ 王斌、顧天成:《智媒時代新聞從業(yè)者的職業(yè)角色轉(zhuǎn)型》,《新聞與寫作》,2019年第4期,第29頁。
⑦ 張洪忠、石韋穎、劉力銘:《如何從技術(shù)邏輯認(rèn)識人工智能對傳媒業(yè)的影響》,《新聞界》,2018年第2期,第19頁。
⑨ [美]約翰·羅爾斯:《正義論》,何懷宏、何包鋼、廖申白譯,中國社會科學(xué)出版社2019年版,第429頁。
⑩ 嚴(yán)三九:《融合生態(tài)、價值共創(chuàng)與深度賦能——未來媒體發(fā)展的核心邏輯》,《新聞與傳播研究》,2019年第6期,第8頁。