余雪
摘 要 算法為傳統(tǒng)新聞業(yè)帶來深刻變革,但技術(shù)的發(fā)展是兩面性的,近年來由算法引發(fā)的新聞倫理問題成為傳媒業(yè)無法回避的理論課題。探究人工智能時代人類無法回避的算法偏見、信息繭房、隱私侵害、新聞專業(yè)主義消解等倫理問題,并從技術(shù)、政府、媒體、平臺四個角度尋求重塑新聞倫理的路徑。要解決技術(shù)所帶來的問題,就必須以人機共生理念為根本,讓技術(shù)的發(fā)展符合倫理常情。
關(guān)鍵詞 人工智能;新聞倫理;算法;數(shù)據(jù)
中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2021)01-0016-03
新聞傳播學科作為我國產(chǎn)業(yè)發(fā)展的重要支撐力量,一直都深受技術(shù)影響。在傳媒業(yè)與人工智能的互動中,算法推動媒體形態(tài)、新聞生產(chǎn)和分發(fā)的流程向著智能化的趨勢發(fā)展,AR、VR、機器人寫作、傳感器等越來越多地被應(yīng)用到現(xiàn)實新聞活動中。技術(shù)的發(fā)展具有雙重屬性,人工智能在促使新聞業(yè)發(fā)生巨變的同時,也因算法缺陷造成了對新聞倫理的巨大沖擊。
1.1 人工智能時代新聞業(yè)的突出變革
人工智能簡單來說,是一種利用計算機模仿和發(fā)展人類智能行為的技術(shù),通過算法語言完成自主學習、判斷、決策等行為[1],幫助人們解決問題,提高效率。目前,通過算法而研制出的具體智能形態(tài)被越來越多地應(yīng)用到傳媒領(lǐng)域的各個方面,尤其突出地表現(xiàn)在對新聞生產(chǎn)、分發(fā)和場景的影響上。
1)自動化生產(chǎn)。傳統(tǒng)的新聞生產(chǎn)往往是靠記者親身在現(xiàn)場采集信息并整理加工,成品需經(jīng)編輯審核通過后才能發(fā)布。人工智能催生了一批新型智能媒體,從信息數(shù)據(jù)的采集到加工乃至寫作,都可以由機器完成,例如機器人寫作等,新聞工作的效率因此提升,傳統(tǒng)記者也得以擺脫套路化寫作的桎梏,向深度報道方向轉(zhuǎn)變。
2)個性化推薦。人工智能利用算法搜集用戶的行為數(shù)據(jù),分析其信息使用偏好,從而向用戶提供專屬的個性化新聞。個性化推薦打破了傳統(tǒng)媒體與受眾之間的溝通障礙,幫助用戶迅速獲得感興趣的信息,今日頭條便是算法推薦的典型。
3)虛擬化場景。VR新聞與AR新聞推動新聞報道的新形態(tài)。強大的數(shù)字技術(shù)能夠?qū)ΜF(xiàn)實語境進行逼真的模仿,對新聞事件進行多角度、全方位的敘述,受眾“沉浸”在虛擬和現(xiàn)實的交互場景中,通過自己的親身體驗去解碼信息,還原新聞?wù)鎸嵜婷病?/p>
1.2 人工智能時代研究新聞倫理的必要性
新聞倫理是在長期的新聞傳播實踐中形成的發(fā)揮特殊作用的規(guī)范性調(diào)節(jié)體系,主要用于調(diào)整采訪、編輯、經(jīng)營、管理等之間的相互關(guān)系[2],是新聞職業(yè)道德的一種重要表現(xiàn)。人工智能為新聞產(chǎn)業(yè)帶來多維度的顛覆性變革,但也帶來許多顯性和隱形的問題,其中對新聞倫理的沖擊逐漸受到業(yè)界的重視。產(chǎn)業(yè)紅利無法掩蓋背后的技術(shù)缺陷,技術(shù)一旦發(fā)展過快觸碰倫理道德的高壓線,就容易引發(fā)倫理問題。機器采集和生產(chǎn)新聞雖然提高了時效性,但工具語言的機械性卻會讓新聞過于僵化,失去情懷和溫度;個性化服務(wù)使受眾不斷加固“興趣牢籠”,難以察覺興趣以外的信息;虛擬場景讓受眾過度沉浸其中,新聞?wù)鎸嵭员坏?/p>
2017年是“人工智能元年”,在中國知網(wǎng)庫中檢索2017—2020年間,以“人工智能”為主題詞的中文論文為72945篇;而以“人工智能”與“新聞倫理”為主題的論文僅有44篇,其中12篇為2020年的最新研究成果。由此可見,2017年后學界已經(jīng)開始關(guān)注人工智能對新聞倫理的影響,但由于技術(shù)不成熟和思想的限制,相關(guān)學術(shù)研究尚在初期,且進展較為緩慢、成果較少。
人工智能作為一門學科,要解決的是“能不能”問題,而新聞倫理要解決的是“該不該”問題[3]。倫理使新聞的發(fā)展有了道德的邊界,使其更好地實現(xiàn)為社會服務(wù)的職責。而算法本身就帶有一套自成體系的語言傾向,影響到新聞的發(fā)展。倫理建設(shè)如果跟不上技術(shù)更迭的腳步,社會發(fā)展將會失控。因而,研究人工智能對新聞倫理的沖擊并為重塑新聞倫理提供切實的解決路徑,是所有倫理相關(guān)主體所必須重視的。
2.1 算法背后存在偏見與歧視
人工智能依靠算法支撐,算法作為一種程序語言,本應(yīng)該是理性客觀、不帶任何傾向性的數(shù)學表達,然而其背后隱藏的偏見與歧視往往被忽略。皮尤研究中心在2019年做了一項研究發(fā)現(xiàn),雖然現(xiàn)實生活中美國人口的男女比例大致均衡,但Facebook(“臉書”網(wǎng))的新聞圖片中,男性出現(xiàn)的頻率是女性的兩倍[4]。算法偏見和歧視主要來源于兩方面。一方面,算法由人設(shè)計,算法工程師的學歷背景、教育經(jīng)歷、性格愛好等各有不同,即使主觀上沒有宗教、性別、職業(yè)、年齡等歧視,他們在篩選數(shù)據(jù)及編碼過程中也會有意無意地帶入強烈的主觀感情色彩,這種難以觀察的傾向性會影響算法設(shè)計的過程。另一方面,如果被輸入的原始數(shù)據(jù)一開始就存在偏見,例如搜索醫(yī)生圖像大部分是男性,搜索幼師圖像大部分是女性,那么數(shù)據(jù)在被處理的過程中,會不斷被這種偏見扭曲,機器屬性并不會質(zhì)疑這種偏向的存在,而是按照既定模式操作,最終輸出的結(jié)果也將帶有濃厚的偏見色彩,反映到傳媒業(yè)則會產(chǎn)生帶有導向性的新聞。
2.2 個性推送導致“信息繭房”
“信息繭房”指公眾為獲得滿足感,往往憑借興趣或需求來接收信息,卻忽略了其他多元信息,長此以往便會將自身禁錮在像“蠶繭”一樣的“繭房”中[5]?;ヂ?lián)網(wǎng)的去中心化極大提高了受眾的地位,人人都能成為新聞生產(chǎn)者,傳播者為爭奪受眾有限的注意力,越來越注重受眾的需求。人工智能利用數(shù)據(jù)采集和算法過濾,根據(jù)用戶日常的瀏覽信息,篩選出符合用戶習慣、愛好與需求的新聞信息進行推送。然而,受眾在此過程中無意識地被迫接受日復一日越來越精準的同質(zhì)化內(nèi)容,排斥異己信息,沉浸在自我認同的話語場中,極易失去理性判斷能力。
2.3 數(shù)據(jù)的非法采集觸犯公眾隱私
人工智能需要采集充足數(shù)據(jù)進行深度挖掘和分析,為受眾推送精準的信息,而這些數(shù)據(jù)大部分來源于使用者的行為痕跡。從所有權(quán)角度來講,用戶的自身行為產(chǎn)生數(shù)據(jù)信息,便有權(quán)利知曉自己的權(quán)利為誰所用、如何使用、用往何處。然而事實并非如此,平臺出于商業(yè)利益,往往采取越來越隱蔽的手段非法獲取用戶的行為數(shù)據(jù),篩選出有價值的信息進行利用。未提前告知用戶便對其信息進行采集和使用,違反了傳播倫理規(guī)范。2019年Facebook被曝丑聞,其一項智力競賽應(yīng)用讓1.2億用戶的個人數(shù)據(jù)面臨泄露風險[6]。算法對用戶隱私的侵害具有隱蔽性和迷惑性,各種智媒產(chǎn)品不斷入侵私密場所,用戶的信息安全遭到極大威脅卻難以得到有效維護。
2.4 虛擬場景異化新聞?wù)鎸?/p>
人工智能時代,VR/AR與新聞生產(chǎn)的結(jié)合以全景角度敘事,打破了時空界限,全方面延伸了人的身體感官,使受眾產(chǎn)生親臨現(xiàn)場的“沉浸感”,也破壞了原有的新聞價值體系,使新聞?wù)鎸嵄坏?。從?shù)據(jù)角度來看,算法自身存在缺陷,不具備人類選擇新聞價值的能力,極易在處理數(shù)據(jù)過程中產(chǎn)生偏差,導致虛假新聞。從場景角度來看,與傳統(tǒng)的文字圖片報道不同,沉浸式新聞借助影像搭建起具備“在場感”的虛擬世界,受眾借助穿戴式設(shè)備在虛假與真實交融的場景中還原新聞,在巨大的感官沖擊下,真實與虛構(gòu)的邊界被模糊,受眾極易主觀扭曲事實真相,迷失在隱含的價值觀和傾向性中,正如此前受到關(guān)注的人臉交換技術(shù)為公眾帶來的困惑[7]。
2.5 缺少深度,違背新聞專業(yè)主義
傳統(tǒng)記者往往親臨現(xiàn)場,依據(jù)新聞價值采寫新聞,不僅最大限度反映客觀事實,也會對事件進行評論分析,特別是在深度報道中,能夠體現(xiàn)出人性的思考。人工智能則是依托海量數(shù)據(jù)庫,按照程序設(shè)定好的模板生產(chǎn)稿件,本質(zhì)上是數(shù)據(jù)堆砌出來的新聞,只停步于簡單的同質(zhì)化敘事,無法像人類一樣挖掘表象背后的實質(zhì),缺少深度分析和批判能力,難以引起情感共鳴。媒體不僅能夠傳遞信息,還維系著社會的眾多聯(lián)系。我們無法否認技術(shù)為新聞業(yè)帶來的變革,卻也不得不承認,機器并不能傳承人的社會責任感。過度地追求工具理性而忽略人文關(guān)懷,會導致新聞記者喪失深度采寫和創(chuàng)新的能力,讓新聞無生命、無溫度,新聞專業(yè)主義不斷被消解。
3.1 技術(shù)不成熟,媒介素養(yǎng)欠缺
回顧人工智能發(fā)展歷程,雖已有幾十年發(fā)展歷史,但直到近年來因為技術(shù)的推動才重新引起重視,如今人們?nèi)栽谂μ剿魉诟鱾€領(lǐng)域內(nèi)的實踐,在新聞領(lǐng)域內(nèi)的應(yīng)用更是處于初步發(fā)展階段。目前,人工智能程序由人類設(shè)計,其本身還存在諸多不成熟的地方有待完善,在帶來顯著成果的同時,也時常引發(fā)一系列問題,而當算法出錯帶來惡果時,人類尚且沒有完善的應(yīng)急方案。同時,由于技術(shù)與新聞之間存在鴻溝,算法設(shè)計者缺乏一定的媒介知識,而專業(yè)新聞工作者又難以迅速掌握算法語言,落后的媒介素養(yǎng)跟不上技術(shù)的變革腳步,媒介接觸者無法及時認識到媒介倫理所受到的沖擊。在5G技術(shù)的推動下,人工智能發(fā)展前途廣闊,但技術(shù)并非萬能,提高全民媒介素養(yǎng)迫在眉睫。
3.2 工具理性與價值理性的失衡
合理使用人工智能技術(shù)能夠促進傳媒業(yè)良好發(fā)展,而對技術(shù)的濫用則會引發(fā)相應(yīng)的倫理問題。德國學者馬克斯·韋伯曾提出“工具理性”和“價值理性”兩個概念,工具理性指向目的合理性行動,價值理性指向價值合理性行動,工具理性將推動人類社會的發(fā)展,但同時也會沖擊價值理性[8]。人工智能對新聞倫理的沖擊,正是工具理性和價值理性失衡的表現(xiàn),歸根結(jié)底就是人機關(guān)系不平衡。互聯(lián)網(wǎng)時代話語權(quán)下放,媒介監(jiān)管乏力,媒體為獲取關(guān)注度而過度追求點擊量,不顧社會責任,以泛娛樂化新聞取代嚴肅敘事,引導錯誤的價值觀。新聞為公眾提供公共服務(wù),當技術(shù)大規(guī)模介入報道,一旦被濫用,就會使倫理失范。道德在維系社會穩(wěn)定方面的意義不容小覷,只有工具理性與價值理性平衡發(fā)展,才能使新聞產(chǎn)業(yè)健康運作。
3.3 監(jiān)管措施與法律規(guī)范不到位
技術(shù)的進步離不開人的監(jiān)管與規(guī)范。一方面,人工智能步入新聞領(lǐng)域時間較短,其發(fā)展方興未艾,人們重視技術(shù)的突破,卻難以用傳統(tǒng)的監(jiān)管方式去糾正它所帶來的問題。目前,人工智能從程序的設(shè)計到產(chǎn)品的開發(fā),再到公眾的應(yīng)用,都沒有明確的相關(guān)規(guī)定。舊的管理體系已經(jīng)難以適應(yīng)新的變化,而新的監(jiān)管體制又尚未完整建立,管理的缺位導致技術(shù)倫理的失范,卻又難以有效歸責。另一方面,世界各國對于出臺相關(guān)法律法規(guī)進行規(guī)范的意識還不夠。目前,我國人工智能與新聞業(yè)結(jié)合后有關(guān)智能化新聞的法律法規(guī)還很不完善,這兩者都是沖擊新聞倫理的重要因素。
未來在5G的助力下,人工智能將進一步改造升級,在新聞領(lǐng)域的應(yīng)用也會不斷擴展。傳統(tǒng)的新聞倫理規(guī)范已經(jīng)難以跟上人工智能時代的發(fā)展,這背后反映了人們對于技術(shù)的過度追求以及對人機關(guān)系的忽視。針對算法所帶來的倫理問題,有必要對其開展相關(guān)課題研究。我們可以從技術(shù)改進、政府監(jiān)管、媒體引導和平臺自律四個維度來探討人工智能時代如何重塑新聞倫理。
4.1 技術(shù):改進算法,提高透明度
算法技術(shù)本身存在缺陷,首先就要從技術(shù)源頭改進。在人工智能時代,算法工程師扮演著重要角色,他們參與程序的設(shè)計、決策和管理,他們的行為會對他人、對社會帶來深遠的影響,因此他們理應(yīng)擔負更多的倫理責任[9]。算法工程師應(yīng)多學習新聞傳播知識,在編寫代碼、設(shè)計程序時將倫理觀念帶入其中,改進技術(shù),盡可能減少偏見與歧視。此外,由于知識鴻溝的存在,又涉及到開發(fā)者的商業(yè)機密,大眾難以掌握復雜的算法語言,即使意識到倫理失范,也難以理解算法規(guī)則并解決問題,因此現(xiàn)代社會必須提高算法透明度,針對不同的算法規(guī)則采取合適的透明度,適當?shù)叵蛴脩艄_數(shù)據(jù)信息。
4.2 政府:推動法律建設(shè),加強監(jiān)管
我國的新聞業(yè)起步較晚,新聞法律法規(guī)尚未建立完整體系,人工智能相關(guān)的規(guī)范也尚顯空白。對于技術(shù)的規(guī)范,離不開法律建設(shè)和監(jiān)管督查。政府需加快推進融合新聞與人工智能的法律法規(guī),讓法律來界定違法行為,將法治觀念融入技術(shù)的生產(chǎn)與使用中,而法律的建立不僅要靠立法者,還需要呼喚公眾的力量。同時,政府需要加強對平臺、媒體和技術(shù)本身的監(jiān)管督查力度,填補監(jiān)管空白,在智能應(yīng)用出現(xiàn)問題時及時約束,保護公民的合法權(quán)益。
4.3 媒體:正面引導,培養(yǎng)復合型人才
新聞媒體維系著社會的穩(wěn)定。首先,媒體必須發(fā)揮主體作用。機器人寫作雖然極大促進了新聞變革,但機械化、模板化的生產(chǎn)過程無法取代傳統(tǒng)記者的獨立思考和批判能力,因此媒體必須明確職責,在價值觀上發(fā)揮積極引導作用。其次,媒體應(yīng)加大對新聞傳播的監(jiān)管。算法生產(chǎn)新聞在現(xiàn)階段難免出錯,媒體工作者需加強把關(guān)能力,對機器所無法涉及的過程加強審核與監(jiān)查力度,采取有效應(yīng)急方案。再者,當務(wù)之急是建立一支新型新聞人才隊伍。新聞從業(yè)人員需帶頭學習人工智能知識,提高技術(shù)素養(yǎng),才能更好地將新聞價值觀融入到智媒應(yīng)用中。
4.4 平臺層面:自我約束,規(guī)范行為
人工智能時代,互聯(lián)網(wǎng)企業(yè)平臺作為向公眾傳遞信息的中介,對于平臺傳播中的倫理失范問題也必須承擔責任。今日頭條創(chuàng)始人張一鳴曾公開宣揚“算法沒有價值觀”,引發(fā)了大眾對利用算法的互聯(lián)網(wǎng)平臺的指責[10]?;ヂ?lián)網(wǎng)平臺從用戶那里獲得了商業(yè)利潤,相應(yīng)地就該對社會負責。平臺需制定自我約束機制,加強內(nèi)容審核,在倫理的框架中規(guī)范自身行為,自覺合法地獲取用戶信息,建立風險預警機制,糾正算法帶來的倫理問題。
技術(shù)的發(fā)展推動社會的變革。人工智能為社會各個領(lǐng)域帶來新變化,也不可避免地會產(chǎn)生一些新問題。但使用技術(shù)的主體始終是人類,人類對技術(shù)的把握和控制決定著它將走向何處。新聞倫理關(guān)系到社會進步的方方面面,當下急需構(gòu)建新的范式框架來界定倫理邊界。人工智能與新聞產(chǎn)業(yè)聯(lián)合發(fā)展,其關(guān)鍵就在于人機合作,只有把人機協(xié)作理念貫穿于建設(shè)法律法規(guī)、加強正面引導、提高媒介素養(yǎng)、強化平臺監(jiān)管等一系列具體措施中,才能促使新聞業(yè)在人工智能時代朝著健康良性的方向發(fā)展。
參考文獻
[1]楊正洪,郭良越,劉瑋.人工智能與大數(shù)據(jù)技術(shù)導論[M].北京:清華大學出版社,2019:1-2.
[2]郎勁松,初廣志.傳媒倫理學導論[M].杭州:浙江大學出版社,2007:93-94.
[3]邱仁宗,黃雯,翟曉梅.大數(shù)據(jù)技術(shù)的倫理問題[J].科學與社會,2014(1):36-48.
[4]全媒派.人臉識別背后的算法都有哪些偏見[EB/OL].(2019-11-08)[2020-09-30].https://www.tmtpost. com/4187081.html.
[5]凱斯·R·桑斯坦.信息烏托邦:眾人如何生產(chǎn)知識[M].畢競悅,譯.北京:法律出版社,2008:15-20.
[6]侯艷艷.Facebook再曝數(shù)據(jù)丑聞:1.2億用戶數(shù)據(jù)面臨泄露風險[EB/OL].(2018-06-29)[0020-09-30].驅(qū)動中國,https://news.qudong.com/article/499577. shtml.
[7]趙雙閣,高旭.VR技術(shù)應(yīng)用新聞實踐的倫理困境及其突破策略[J].出版發(fā)行研究,2018(8):65-69.
[8]吳飛,田野.新聞專業(yè)主義2.0:理念重構(gòu)[J].國際新聞界,2015(7):6-25.
[9]曹南燕.科學家和工程師的倫理責任[J].哲學研究,2000(1):45-51.
[10]韓維正.算法也有價值觀[EB/OL].(2018-04-13)[2020-09-30].http://paper.people.com.cn/ rmrbhwb/html/2018-04/13/content_1847929.htm.