劉耀華
(魯東大學(xué),山東煙臺 264000)
算法科技與大數(shù)據(jù)的結(jié)合使傳統(tǒng)新聞業(yè)的生產(chǎn)與傳播發(fā)生了質(zhì)的變化,帶來了全新的媒介形態(tài)和用戶收發(fā)生態(tài),創(chuàng)造性的改變了處于行動者網(wǎng)絡(luò)中的各個參與者間的互動關(guān)系,引發(fā)學(xué)界對新聞倫理進化的社會性思考。微觀上,算法科技對從事傳播行業(yè)的記者、編輯的職業(yè)理念、道德觀念、采編方式等與新聞倫理相關(guān)的態(tài)度總和產(chǎn)生影響。對于普通用戶來講,首先,人們的信息越來越容易被獲取、分析和應(yīng)用。如果這些信息被錯誤使用,就有可能導(dǎo)致個人隱私泄露、身份被盜用等問題。其次,大數(shù)據(jù)中包含了很多個人的信息和數(shù)據(jù),而某些算法可能會基于這些數(shù)據(jù)做出不公平或者歧視性的決策。再者,大數(shù)據(jù)在分析和處理數(shù)據(jù)時,往往會受到樣本偏差和數(shù)據(jù)質(zhì)量等問題的影響,從而可能會導(dǎo)致某些分析結(jié)果出現(xiàn)偏見和誤導(dǎo)。最后,隨著人們越來越依賴互聯(lián)網(wǎng)和智能設(shè)備,大數(shù)據(jù)所帶來的高效和方便也會讓人們過度沉迷其中,導(dǎo)致精神健康問題。宏觀上,根據(jù)中國互聯(lián)信息中心發(fā)布的數(shù)據(jù)來觀察,2023年上半年網(wǎng)民規(guī)??偭恳呀?jīng)達到了10.65億。再加上“雙千兆”等基礎(chǔ)網(wǎng)絡(luò)建設(shè)的不斷夯實與擴大,普通人隨時隨地接觸使用互聯(lián)網(wǎng)機會和可能性越來越多,官方和私人媒體出于對宣傳、利益、流量等的需求,數(shù)據(jù)在分秒之間便可大量產(chǎn)生與消費,由于存在著信息繭房、網(wǎng)絡(luò)放大效應(yīng)和群體極化等原因,各種社會矛盾會不斷滋生,導(dǎo)致群體性事件多發(fā)頻發(fā)。大數(shù)據(jù)技術(shù)的發(fā)展會對一些傳統(tǒng)產(chǎn)業(yè)和就業(yè)崗位帶來沖擊,這可能會導(dǎo)致經(jīng)濟結(jié)構(gòu)的變革和失業(yè)問題。進而影響政府公信力、民眾信服度。作為調(diào)節(jié)媒體與公眾間關(guān)系的智能體,要產(chǎn)生積極的社會影響。因此,本文試圖從拉圖爾行動者網(wǎng)絡(luò)入手,改善算法黑箱,探索處于網(wǎng)絡(luò)中的人為因素及非人因素能夠發(fā)揮地對算法科技的影響力,試圖使算法科技與新聞倫理能夠有機融合為一個道德智能體。
康斯坦丁·多爾將算法新聞定義為,“從私人的或公共的數(shù)據(jù)庫中選擇電子數(shù)據(jù),對預(yù)選或未選數(shù)據(jù)進行相關(guān)性分配,通過自然語言生成語義結(jié)構(gòu)并在特定范圍的線上或線下平臺中發(fā)布的最終文本”[1]??傮w而言,由于算法科技具有繁雜的程序邏輯,將其應(yīng)用于新聞領(lǐng)域便會生成難懂的傳播流程,即算法黑箱。算法黑箱的形成多是源于算法技術(shù)本身的復(fù)雜性以及媒體機構(gòu)、技術(shù)公司的排他性商業(yè)政策,本質(zhì)在于不透明、不公開、技術(shù)門檻高和難理解。拉圖爾則指出:所有科學(xué)知識形成的過程就是在黑箱中完成的[2]。作為傳播信息和認知的新聞行業(yè),在借助于互聯(lián)網(wǎng)技術(shù)生成并分發(fā)的過程中也存在人為因素和非人為因素共同作用,因此有必要對算法黑箱形成過程中的所有參與因素進行考究。
拉圖爾針對轉(zhuǎn)義過程中造成的差異現(xiàn)象提出了“轉(zhuǎn)義”概念,拉圖爾認為在行動者網(wǎng)絡(luò)理論中,轉(zhuǎn)義者與行動者的概念一樣,轉(zhuǎn)義者會改變(transformation)、轉(zhuǎn)譯(translation)、扭曲(distort)和修改(modify)他們本應(yīng)表達的意義或元素。[3]在此轉(zhuǎn)義者的鏈條之中,有可能僅僅是一種小到難以惹人注意的程序或者信息等原因也能夠為改變此鏈條上的一個拐點方向而助力,造成信息的傳播格局發(fā)生根本性的變化。如果將轉(zhuǎn)義者比作設(shè)定程序前輸入的既定算法,其中可以認識和了解到此算法中所包含的條件和信息等各種數(shù)據(jù),唯一無法確認和預(yù)測的便是轉(zhuǎn)義者的參與會輸出、引發(fā)何種差異。算法科技中包含的轉(zhuǎn)義者并非只有算法創(chuàng)立、設(shè)計和運用主體等人為因素,也包括算法技術(shù)接收終端和技術(shù)層級等非人為因素。
在算法設(shè)計之初,算法設(shè)計者們會提取用戶的各類網(wǎng)絡(luò)數(shù)據(jù)建立用戶數(shù)據(jù)檔案庫,并根據(jù)個人主觀偏見與公司商業(yè)利益等不斷地進行算法數(shù)據(jù)匹配實驗,以期設(shè)計出一套能夠完美符合個體用戶畫像的算法機制后與人工智能完美結(jié)合。在此設(shè)計過程中,算法設(shè)計者可能會將“流量至上”原則植入算法程序,也難免會將自我價值觀念和偏見植入,這種以數(shù)據(jù)主導(dǎo)、流量為王的移動閱讀環(huán)境,加劇了低俗、虛假新聞的產(chǎn)生;算法新聞的個性化推薦,又進一步強化了信息傳播的閉環(huán),消解了傳統(tǒng)媒體堅守的情懷、專業(yè)主義和對主流價值觀建構(gòu)[4]。
隨著互聯(lián)網(wǎng)進入人工智能時代,人類期望生產(chǎn)出一種能夠?qū)θ说囊庾R、思維、習(xí)慣進行模擬和了解個人行為方式的智能機器。這就必須要有數(shù)據(jù)、算法的介入使之變成可能,進而催生了機器學(xué)習(xí)寫作、算法推薦、數(shù)據(jù)抓取、語言識別翻譯等越來越多應(yīng)用于新聞領(lǐng)域生產(chǎn)的技術(shù)。
在新聞生產(chǎn)環(huán)節(jié),部分媒體和商業(yè)過分追求新聞的時效性而采用了暫時尚未成熟的機器寫作技術(shù),將其應(yīng)用于金融、民生等宏觀和小眾體育欄目、逸聞等長尾領(lǐng)域。由于部分涉及領(lǐng)域的數(shù)據(jù)總量大、變化快,即便先進的寫作機器人在實現(xiàn)數(shù)據(jù)準確抓取、處理速度等方面仍有不足,過分地使用造成了泛濫的以依賴數(shù)據(jù)為主導(dǎo)寫作的扁平化新聞,擠壓了新聞?wù)鎸嵭缘纳婵臻g;同時,在內(nèi)容豐富性、分析深度、文字理解上的能力都不及人類,輸出的文章味同嚼蠟,缺乏情感的鋪設(shè)。機器寫作雖然能夠滿足受眾對于熱點新聞監(jiān)測的及時性和時效性的需求;同時能夠使記者從快新聞中脫身,但總體而言,新聞內(nèi)容的質(zhì)量被削弱,使服務(wù)于社會的新聞價值呈現(xiàn)遞減狀態(tài)。
隨著算法技術(shù)的不斷發(fā)展,機器深度學(xué)習(xí)成為可能,越來越多的社交類APP引入了計算機視覺分析中的圖像識別算法技術(shù),與人類識別圖像內(nèi)容的原理大抵相同,通過對圖像中的像素分布、顏色、紋理等特征的統(tǒng)計和特征提取,將圖像內(nèi)容所屬的類別進行正確的劃分和準確識別圖像內(nèi)容真假。旨在避免過多的機器人注冊和提供更高的安全性、精度以及自動化,但目前的算法識別技術(shù)在保存識別圖像時,會因為數(shù)據(jù)庫建設(shè)不完備從而丟失一些關(guān)鍵信息,引發(fā)嚴重的道德和倫理歧視問題,如據(jù)美國有線電視新聞網(wǎng)在2021年10月7日報道,因打車軟件優(yōu)步(Uber)的人臉識別系統(tǒng)無法正確地辨別有色人種,被指控涉嫌“種族歧視”,三名當(dāng)事人已向英國勞動法庭提起訴訟,具體原因是官方指出此數(shù)據(jù)庫是針對白種人建立且缺少必要監(jiān)管,造成了杰米·薩斯坎德所說的“中立謬誤”問題[5]。
算法在進行面部身份識別時,科技公司會有意地利用這一技術(shù)與機器學(xué)習(xí)結(jié)合使用幫助識別用戶面部表情并理解與該表情相關(guān)的情緒,建立相關(guān)數(shù)據(jù)分析庫并應(yīng)用于廣告推銷行業(yè),以期獲得良好的產(chǎn)品反饋和廣告推送。如挪威的Peppes Pizza餐廳正在使用帶有隱藏攝像頭的面別識別技術(shù)來投放性別廣告。這引起了業(yè)界與學(xué)界關(guān)于自由隱私問題的討論,主要的擔(dān)憂在于像Facebook、Google、Apple等科技巨頭在使用相關(guān)技術(shù)收集用戶的活動簽到、喜好、面部特征后被黑客組織盜取,從而造成大規(guī)模的隱私泄露。在此之前,F(xiàn)indface通過頭像就可以在所有的2億個VKontakte(俄羅斯最大社交網(wǎng)絡(luò))個人資料中識別用戶,該軟件的最初目的是幫助用戶尋找新朋友,后來被許多非法團體利用識別和騷擾相關(guān)用戶。
互聯(lián)網(wǎng)上成千上萬的新聞造成了信息爆炸,為了提升抓取用戶的瀏覽、搜索和停留時間及可用的數(shù)據(jù),以數(shù)據(jù)化的方式畫出用戶的喜好、行為和習(xí)慣畫像,從而巧妙地利用搜索引擎與算法推薦技術(shù)相結(jié)合,精準的縮小信息的推薦和分發(fā)的范圍和提升效率。算法推薦技術(shù)可以看作是賦予算法進行信息篩選的權(quán)力,是一種“系統(tǒng)發(fā)起的個性化”。也就是說,算法的“過濾氣泡”在很大程度上代替受眾主動定制媒體內(nèi)容的權(quán)利,信息窄化在很大程度上以“系統(tǒng)主導(dǎo)”模式壓制“用戶主導(dǎo)”模式,總體呈現(xiàn)出工具理性大于價值理性的媒介偏好,造成了新聞內(nèi)容呈現(xiàn)的高度窄化,曼紐爾·卡斯特所言:“我們感受和思考的方式?jīng)Q定了我們行動的方式”,用戶生存在對內(nèi)容同質(zhì)化定制的“制繭”中,成為無理性、非自主性的寫照,由此引發(fā)倫理挑戰(zhàn)。
算法的設(shè)計程序涉及商業(yè)機密絕不可能為大多數(shù)學(xué)者唾手研究,因此很難參透其算法黑箱的設(shè)計漏洞與底層邏輯及黑客的攻擊不可預(yù)測性加劇了算法失控的風(fēng)險,以上原因成為阻止公眾進行倫理規(guī)制與識別的障礙。從拉圖爾的轉(zhuǎn)義理論來看,算法設(shè)計主體到運用主體及參與其中的各類轉(zhuǎn)譯者無法有效溝通、轉(zhuǎn)義自身的價值與理念,最終造成信息窄化與道德偏差
算法技術(shù)對新聞倫理造成的影響表現(xiàn)在技術(shù)與道德規(guī)范兩者間斷裂的問題。算法技術(shù)強調(diào)的是傳播效率和個人定制化的傳播理念,追求信息自動生產(chǎn)與匹配度的最大化。相比之下,傳統(tǒng)新聞業(yè)對于新聞倫理的推崇表現(xiàn)在注重事實、從向善的角度衡量新聞內(nèi)容。兩者之間存在理性上的割裂,形成了對新聞倫理現(xiàn)代化的爭論。因此,有必要探尋構(gòu)建算法技術(shù)與新聞倫理的道德智能體的可行性路徑,改善算法黑箱,實現(xiàn)兩者間的有機結(jié)合。
從算法創(chuàng)設(shè)主體到算法運用主體等各級參與到算法技術(shù)中的主體數(shù)量較多。不可避免的是在其運作的過程中,算法運用主體成了“新聞分發(fā)平臺的代筆工具”,而算法的創(chuàng)設(shè)主體卻倒置地成了能夠憑借強大資本力量和高等技術(shù)設(shè)定新聞規(guī)則的制定者。因此認識到不同主體在微觀層面的“轉(zhuǎn)義”作用是探索交流的基礎(chǔ)。
拉圖爾曾強調(diào)要通過實踐來對科學(xué)的過程而非結(jié)果進行理解和考察,逐漸在網(wǎng)格式的建構(gòu)過程中生存發(fā)展成為科學(xué),這是一種“正在形成的科學(xué)”,在這種網(wǎng)絡(luò)中則會囊括所有的社會資源和人類計謀。在行動的過程中的行為實施者不僅包含了人,同時也包括如工具、設(shè)備、機器等非人因素。
在新聞生產(chǎn)與分發(fā)過程中的交流者分別為新聞工作者與算法設(shè)計師,兩者應(yīng)就如何利用傳統(tǒng)的新聞倫理語境約束當(dāng)下的算法新聞技術(shù)、在“人——機”協(xié)同過程中體現(xiàn)新聞工作者的求實、質(zhì)疑精神、監(jiān)督機器寫作技術(shù)在新聞創(chuàng)作中的應(yīng)用。
在算法技術(shù)公司的內(nèi)部,其算法工程師多是以完成目標和績效為主,很少有努力思考在工作過程中所產(chǎn)生的系統(tǒng)性后果。多數(shù)情況下,數(shù)字技術(shù)是按掌權(quán)者和特權(quán)者的立場設(shè)計的。因此,研發(fā)人員應(yīng)作為算法工程師需要深入學(xué)習(xí)和了解傳統(tǒng)的新聞倫理知識,尤其是在現(xiàn)代化的道德語境之下,搭建一套能促進算法技術(shù)與新聞倫理有機結(jié)合的智識框架,以幫助清晰且批判性地思考數(shù)字創(chuàng)新的倫理后果,提升新聞的應(yīng)用價值。
算法技術(shù)應(yīng)用于新聞業(yè)的過程中出現(xiàn)了算法權(quán)力與用戶權(quán)利之間的不平衡,折射出算法設(shè)計過分關(guān)注技術(shù)理性、預(yù)測準確度和執(zhí)行效率,因此亟待從中觀層面發(fā)力全面規(guī)訓(xùn)算法新聞道德智能體向善發(fā)展。
第一,需要對目前已存在的監(jiān)控機制的完善,比如事先將融合了倫理和個人隱私保護的算法新聞道德智能體通過測驗“數(shù)據(jù)變換、隱藏、隨即擾動、平移、翻轉(zhuǎn)”[6]等環(huán)節(jié),保證用戶數(shù)據(jù)在算法技術(shù)的抓取與篩選等環(huán)節(jié)不會被濫用、誤用、泄露。第二,構(gòu)建人機把關(guān)下的算法規(guī)制。傳統(tǒng)新聞時代對于新聞倫理的規(guī)制通常表現(xiàn)為人工檢查,在進入人工智能時代則需嘗試構(gòu)建“人——機協(xié)同”的算法新聞倫理機制,從監(jiān)控、預(yù)警和獎懲三個向度對算法運行過程中的各參與者接收處理數(shù)據(jù)的過程與結(jié)果進行倫理干預(yù),確保此過程中被轉(zhuǎn)譯的各種需求與建議得到溝通和受理。第三,相關(guān)責(zé)任部門需要增強對算法科技公司的問責(zé)力度。鑒于目前的審核監(jiān)管多是采用“人工+智能”模式,這種審核模式的短板在于僅僅貼切政治相關(guān)的問責(zé)機制,對于新聞評論中的諧音辱罵、挑釁等問題不能有效解決。在這種情況下,應(yīng)進一步細化監(jiān)管條例,加深監(jiān)管的深度與寬度,全面提高對算法新聞道德智能體的綜合管理效率。
黑箱的外殼(已經(jīng)確定的歷史事實在這種清理和追蹤活動中逐漸變得透明。這種活動主要設(shè)計的是指政治、文化、社會層面的治理。技性科學(xué)觀是行動者網(wǎng)絡(luò)的核心概念。
為識別和防范算法在全球新聞業(yè)中帶來的安全風(fēng)險,我國政府于2022年3月1日起正式實行《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,強調(diào)了算法技術(shù)在發(fā)展過程中所必須堅守的原則問題,旨在拒絕算法“綁架”、扼制“大數(shù)據(jù)殺熟”,從而維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益。在此基礎(chǔ)上還應(yīng)從宏觀上規(guī)劃人工智能技術(shù)與新聞產(chǎn)業(yè)綜合整理,調(diào)動人工智能產(chǎn)業(yè)從為服務(wù)人民的角度出發(fā),持續(xù)推動為群眾解難題的目標,提升自身利用價值。此外,對于諸如“不得生成合成虛假新聞信息或者傳播非國家規(guī)定范圍內(nèi)的單位發(fā)布的新聞信息”“不得利用算法實施影響網(wǎng)絡(luò)輿論、規(guī)避監(jiān)督管理以及壟斷和不正當(dāng)競爭行為”等條例、要求與規(guī)范進行進一步的細化,由事后查處向事前事中監(jiān)督轉(zhuǎn)變,因此確立起算法技術(shù)在新聞生產(chǎn)、分發(fā)過程中的邊界是目前算法新聞倫理的宏觀問題。
以上基于算法技術(shù)下的新聞行業(yè)、新聞生產(chǎn)、身份識別、新聞推送四個層面帶來的算法倫理問題,透過拉圖爾行動者網(wǎng)絡(luò)理論和微、中、宏三個層面構(gòu)建新聞道德智能體來解決算法倫理中存在的潛在和突出問題。
總之,在技術(shù)發(fā)展與倫理規(guī)范相沖突時,要自覺將工具理性與價值理性有機結(jié)合,從而賦予人工智能對于解析和判斷道德和倫理困境的能力,在短期內(nèi)對成果進行研判后取舍,有效治理算法黑箱中存在的弊端。防范與化解其中的倫理和道德等問題,營造人機協(xié)同高效治理的傳播生態(tài)。