摘" " 要:近年來,AI技術在新聞傳播領域得到了廣泛應用,AI技術在賦能新聞生產(chǎn)的同時,也隨之給新聞生產(chǎn)的主體界定、新聞本體價值評估等帶來困擾。究其原因,不但有媒體層面和技術層面的原因, 法規(guī)監(jiān)管的滯后性等政策層面的原因也不容忽視。因此,在利用AI技術賦能新聞生產(chǎn)時,需要新聞生產(chǎn)者發(fā)揮主體性,實現(xiàn)“人機共生”,要深化數(shù)據(jù)倫理建設,構建更公平的算法機制, 同時還需要加強監(jiān)管和提升用戶媒介素養(yǎng),以保證其助力新聞行業(yè)數(shù)智化轉型的深入推進。
關鍵詞:AI技術;新聞生產(chǎn);倫理失范
中圖分類號:G212" " " "文獻標志碼:A" " " " "文章編號:1009-5128(2024)10-0076-06
收稿日期:2024-05-11
基金項目:西安財經(jīng)大學新文科專項:新文科背景下財經(jīng)新聞專業(yè)結構優(yōu)化研究與實踐(21XWK018)
作者簡介:羅建周,男,甘肅天水人,西安財經(jīng)大學文學院副教授,碩士研究生導師,文學博士,主要從事新媒體實務研究;徐立,男,山東菏澤人,西安財經(jīng)大學文學院碩士研究生,主要從事新媒體實務研究。
AI技術的迭代發(fā)展,極大地提高了新聞生產(chǎn)的效率,但同時也帶來了新聞生產(chǎn)的倫理失范問題,主要包括新聞失實、隱私侵害、責任主體模糊等。正如楊保軍所言,AI技術給新聞傳播帶來準確和高效的同時,需要規(guī)避倫理風險,這不僅要求新聞專業(yè)人員能夠更好地掌握算法新聞軟件的使用技術,也需要算法開發(fā)人員能夠對新聞傳播活動及其影響有更深入的認識。[1]因此,必須謹慎權衡AI技術在新聞生產(chǎn)過程中所帶來的利與弊。本文將從政策、技術、公眾媒介素養(yǎng)等不同角度切入,在肯定AI技術賦能新聞生產(chǎn)的同時,探討其所帶來的倫理失范問題,并深入探究其形成原因,進而提出應對之策。
一、倫理失范問題的表現(xiàn)與影響
(一)新聞生產(chǎn)的主體性演變:AI與新聞生產(chǎn)者的碰撞
AI技術在新聞生產(chǎn)領域的推廣應用使新聞生產(chǎn)的流程發(fā)生了變革。機器人寫作等AI技術的不斷涌現(xiàn),不僅提升了新聞生產(chǎn)的效率和精準度,同時也重新定義了新聞生產(chǎn)的主體。因此,面對AI技術的沖擊,新聞生產(chǎn)者的主體性也受到了前所未有的挑戰(zhàn)。新聞生產(chǎn)者如何保持其主體性,發(fā)揮其作為主體不可替代的作用,是當前新聞生產(chǎn)面臨的重要問題。
1.新聞生產(chǎn)者與AI的主體性博弈
馬克思在討論人的主體性在技術的框架中發(fā)生什么樣的裂變問題時指出,技術統(tǒng)治導致了人與自然,人與社會關系的徹底裂變,人的主體性消失了。[2]197–203這一觀點在新聞傳播領域中同樣具有啟示作用。百度的“文心一言”、微軟的“小冰”、騰訊的“小微”等應用都能以極高的效率生產(chǎn)出大量的新聞作品,其生產(chǎn)效率遠超傳統(tǒng)新聞生產(chǎn),使得習慣與文字打交道的新聞生產(chǎn)者對其行業(yè)前景和職業(yè)前景產(chǎn)生了憂慮。自動化報告等技術可以讓機器通過數(shù)據(jù)分析和算法自動撰寫新聞,從而削弱了傳統(tǒng)新聞編輯的主體作用。與此同時,新聞推送技術更加注重個人用戶的習慣和偏好,導致傳統(tǒng)媒體報道范圍逐漸被邊緣化。AI技術以其迅猛的發(fā)展勢頭正在試圖從新聞傳播領域中奪走主導地位。[3]
隨著AI技術的不斷成熟和在新聞生產(chǎn)領域的廣泛應用,一種“記者將死”的說法甚囂塵上。[4]但一種事物要完全替代另一種事物,需要其具備被替代者的所有優(yōu)點,同時摒棄其缺點。AI技術雖然在一定程度上代替了記者的部分重復性工作,但它無法取代專業(yè)記者這一新聞生產(chǎn)的主力軍。因為新聞生產(chǎn)并不是文字的簡單排列組合,其中更包含著歷史語境和人文關懷等多種因素,這些因素則是AI所不具備的。新聞生產(chǎn)者應認清AI的優(yōu)勢和弊端,正確使用AI技術,真正做到以人為本、人機協(xié)同,發(fā)揮記者的主體價值,才能贏得這場與AI的主體性博弈。
2.責任主體的界定模糊
隨著AI技術在新聞生產(chǎn)中的介入,新聞生產(chǎn)和傳播的主體更加多元化,而多元主體勢必造成責權不明。在傳統(tǒng)的新聞生產(chǎn)過程中,新聞從業(yè)人員需確保在新聞采訪、事實核查、新聞編輯與發(fā)布等各個環(huán)節(jié)的準確無誤。作為記者的人一直以來都被視為新聞生產(chǎn)的主體,他們不僅負責報道事實,還需要依靠自身知識和價值判斷,對新聞信息進行深入分析加工。在這一過程中,一旦出現(xiàn)虛假新聞,責任承擔者相對明晰。然而,伴隨著AI的出現(xiàn)與應用,傳統(tǒng)的新聞生產(chǎn)模式被打破,AI技術在處理數(shù)據(jù)、信息采集以及新聞的初步編輯等方面都展現(xiàn)出了獨特的能力和效率。但任何新技術的發(fā)展運用總會遇到各種各樣的問題,當AI參與新聞生產(chǎn)過程中時往往會出現(xiàn)內(nèi)容缺乏事實驗證,存在誤導性信息等問題,使得新聞的真實性和質量難以得到保障。而這種內(nèi)容和質量都存在問題的新聞信息勢必會對用戶和社會產(chǎn)生不良影響,當要對這一問題新聞追究相關責任時,其責任的歸屬變得難以界定,是歸咎于AI的開發(fā)者、還是使用此技術的新聞從業(yè)人員,目前學術界和法律法規(guī)都尚未達成共識。例如,當AI技術生成一條錯誤的新聞信息時,由于其是基于大數(shù)據(jù)及學習算法自主生成,作為記者的人在進行審核時,也無法利用自己的專業(yè)知識判斷其內(nèi)容的真實性,當這一失實的新聞信息產(chǎn)生負面影響時,新聞生產(chǎn)者責任主體的界定則相對模糊。
(二)新聞本體價值的侵蝕:機器人寫作引發(fā)的倫理困境
為了理解機器人寫作在新聞生產(chǎn)過程中的倫理失范問題,廓清其對新聞本體的侵擾,十分有必要明晰新聞本體的概念內(nèi)涵。通常認為,新聞本體就是新聞事實所包含的事實信息,或者說新聞本體就是表征新聞事實的信息,新聞不是把客觀事實直接擺在人們面前,而是把能夠反映和表征新聞事實的信息傳遞給人們。[5]顯然,新聞本體就是客觀事實,也就是新聞事實。
1.新聞本體價值遭受破壞
新聞本體與新聞現(xiàn)象一樣,總是不斷變化、不斷更新的,在處理重要且復雜的新聞事件和事實時,不同的新聞生產(chǎn)者會做出側重點有所差別的報道,從而體現(xiàn)和反映不同媒體的報道風格,傳播者的眼光、見識、傾向和立場。然而,AI技術的不斷發(fā)展使機器寫作可以在極短的時間內(nèi)生產(chǎn)出大量的新聞作品,但與此同時,受機器學習算法的局限所致,信息編寫的程式化問題也日漸突出。[6]盡管可以通過算法來提高自動化新聞報道的速度和精準度,但AI技術仍然難以真正理解新聞背后的語意和文化背景。這意味著,在一些重大或復雜的深度報道中,相對于傳統(tǒng)的新聞生產(chǎn)者而言,AI只能生成千篇一律的程式化新聞作品,無法給出深刻獨到的見解,更無法體現(xiàn)新聞應有的人文關懷。如若新聞生產(chǎn)者無視新聞的本體規(guī)律,依賴機器人寫作生產(chǎn)出大量同一化的新聞報道,最終的懲罰并非加諸事實世界本身,而是反噬于受眾和新聞生產(chǎn)者自身,新聞本體的價值將遭受嚴重破壞。因此,在新聞報道中,新聞生產(chǎn)者應該正確合理地使用AI技術,既要追求快速、高效的傳遞信息,又要注重新聞本體的質量和價值。
2.機器人寫作使新聞報道遠離新聞本體
在新聞生產(chǎn)過程中,傳統(tǒng)的新聞生產(chǎn)者不能僅滿足于二手資料,而要以其為線索親自深入一線,通過現(xiàn)場的聲音、影像、現(xiàn)場目擊者的證詞獲得最全面、客觀、真實的信息,以確保自己新聞信息的可信度。同時,傳統(tǒng)的新聞生產(chǎn)通過多年的發(fā)展完善已經(jīng)擁有了相對完善的信息核查體系,這個體系在新聞生產(chǎn)的各個環(huán)節(jié)都得到了充分的應運,確保了新聞的真實性。以AI為基礎的機器人寫作并不涉及新聞采寫這一過程,云計算等技術的應用使新聞生產(chǎn)能更加便捷地從大量數(shù)據(jù)中發(fā)現(xiàn)和挖掘新聞線索,其觀點和材料都來源于依靠算法和大數(shù)據(jù)的二手資料,新聞生產(chǎn)者在新聞現(xiàn)場的離身性使其生產(chǎn)的新聞產(chǎn)品遠離了新聞本體。再者,AI技術仍在不斷地發(fā)展完善中,面對錯綜復雜、變化無常的現(xiàn)實世界,其很難建立完善的信息核實體系,這也使其容易產(chǎn)生虛假新聞信息,在一定程度上偏離了客觀事實,進而遠離了新聞本體。
二、AI技術下新聞生產(chǎn)倫理失范的致因
新技術的發(fā)明與應用往往會伴隨一定的負面效應,AI技術介入新聞生產(chǎn)同樣引發(fā)了諸多倫理失范問題。究其原因,有媒體認知層面的,有技術偏見層面的,也有政策法律層面的,為了避免和解決這些問題,需要對其進行深度的探究和分析。
(一)媒體層面:對AI技術的認知偏差
從1956年在達特茅斯學院進行的第一次夏季研討會上正式提出“人工智能”這一概念,至今已有68年。近年來,尤其是2018年ChatGPT的問世,使AI技術邁上了新的臺階。但其仍屬于一種新興行業(yè),業(yè)界對AI的認識存在一定的偏差,部分技術也并沒有完全成熟,這也導致了在運用過程中出現(xiàn)了一系列的倫理失范問題。[7]
引入AI技術的本意是為了輔助新聞生產(chǎn)者進行新聞生產(chǎn),減少其工作壓力,提高工作效率,使技術真正為人服務。然而,當下AI技術的使用場景相對混亂,在新聞傳播領域,新聞生產(chǎn)者還沒能充分地把握好這項技術的使用方式和范圍。新聞生產(chǎn)者對AI技術的過度依賴和使用已經(jīng)違背了技術輔助于人的初衷。新聞生產(chǎn)者把關的嚴重缺失,對AI技術認知的不足,導致了虛假新聞和新聞生產(chǎn)者主體性缺失等問題。例如,很多媒體單位為了追求效率,過度依賴AI采編新聞,也缺乏相應的審核機制,對其生產(chǎn)的新聞不加核實就直接報道。這使其新聞內(nèi)容和價值大打折扣,許多社會事件、民生話題都因缺少新聞記者的把關而變得冰冷、生硬,缺乏人文關懷,甚至產(chǎn)生了價值取向不良的報道,從而影響社會的穩(wěn)定和發(fā)展。
(二)技術層面:算法的黑箱及其潛在偏見
AI的技術黑箱是產(chǎn)生媒介倫理失范問題的原因之一。算法在新聞生產(chǎn)和推送過程中的運作是不透明的,這使得新聞媒體機構和用戶無法準確了解信息的選擇和呈現(xiàn)是如何進行的,從而導致信息過濾和篩選的不公正。[8]智能推送使得用戶更容易陷入信息繭房,只接觸到符合其偏好的信息內(nèi)容,而忽略豐富多樣的其他內(nèi)容,進而加劇社會的極化,削弱新聞傳播的公正性和客觀性。
技術黑箱的存在導致了虛假信息和誤導性內(nèi)容在新聞傳播平臺中的增加。由于用戶無法準確了解算法如何評估和過濾信息,不良信息有可能通過算法的漏洞或誤用而得以傳播,而透明度的缺失也使得用戶難以判斷信源的真實性,侵蝕公眾對新聞媒體的信任,從而對新聞機構的公信力構成威脅。同時,當是算法機制決定新聞優(yōu)先級別及呈現(xiàn)方式時,新聞編輯和記者可能會發(fā)現(xiàn)自己難以解釋或控制算法決策的具體細節(jié),從而無法對新聞的價值進行恰當評估。
在算法模型的構建過程中,需要依賴大量的訓練數(shù)據(jù)來形成算法的決策規(guī)則。然而,這個形成的過程極其復雜且充滿不確定性,有意或無意的算法偏見都有可能會影響到算法的決策,非專業(yè)人士很難完全掌握其運行的機制。[9]訓練算法模型的數(shù)據(jù)庫在形成過程中并沒有嚴格的把關機制,因此大量的歧視性數(shù)據(jù)會進入數(shù)據(jù)庫。如果算法所依存的數(shù)據(jù)庫本身都存在著一定的偏見,那算法在訓練和改進過程中的技術偏見是無法避免的,從而導致算法決策本身的技術偏見。例如,某公司在招聘過程中使用AI來篩選簡歷,就極有可能會因社會上的一些偏見和刻板印象而淘汰掉某些適合本公司且具有一定發(fā)展?jié)摿Φ娜瞬?,使招聘決策產(chǎn)生一定的歧視性。
(三)政策層面:法規(guī)監(jiān)管的滯后性
AI技術的迅猛發(fā)展和廣泛應用使其本身也要在不斷的變革中適應社會發(fā)展的需要和用戶的需求,而不斷的變革勢必造成相應法律和監(jiān)管的滯后。
一方面,缺乏及時有效的法規(guī)監(jiān)管會讓用戶隱私面臨潛在的濫用風險。由于AI技術通常依賴于對用戶數(shù)據(jù)的大量收集和分析,對用戶信息的保護就顯得尤為重要。然而,在缺乏明確法律規(guī)范的情況下,媒體和技術公司可能會無節(jié)制地濫用和倒賣用戶數(shù)據(jù),從而侵犯用戶的隱私。這種濫用用戶數(shù)據(jù)的行為不僅損害了用戶權益,也加劇了媒介倫理失范的問題。另一方面,法律監(jiān)管的滯后會使AI技術的發(fā)展方向面臨挑戰(zhàn)。正如前文所言,AI技術的形成與發(fā)展需要依賴大數(shù)據(jù),而這一底層數(shù)據(jù)庫的建立又很難受到相關法律的監(jiān)管。如果一些別有用心之人從數(shù)據(jù)庫的建構開始就造假,以假數(shù)據(jù)形成錯誤的算法,進而形成AI的深度偽造技術。深度偽造技術從數(shù)據(jù)和算法層面而言沒有問題,但由于其原始數(shù)據(jù)的偏差,其建構的算法所生產(chǎn)的新聞信息產(chǎn)品也必將存在問題。而這一問題的解決需要依靠早期法律法規(guī)的制約與規(guī)范。總之,法律政策層面的滯后性會使用戶的隱私受到侵害,也會由于深度偽造技術的產(chǎn)生為用戶提供虛假的新聞信息產(chǎn)品,從而出現(xiàn)相應的倫理失范問題。
三、倫理失范問題的應對策略
隨著AI技術的不斷發(fā)展及其在新聞生產(chǎn)領域的深度運用,新聞的真實性受到了極大的挑戰(zhàn),人的主體性受到?jīng)_擊,AI讓人容易產(chǎn)生依賴,喪失自我意識、創(chuàng)新意識,如不加以有效控制,必定會帶來更為嚴重的后果。因此,正確認識AI技術,探尋其在新聞生產(chǎn)中倫理失范問題的應對策略顯得重要且必要。
(一)新聞生產(chǎn)者發(fā)揮主體性,實現(xiàn)“人機共生”
AI技術在新聞生產(chǎn)過程中應當扮演適當?shù)慕巧?,在一些財?jīng)等數(shù)據(jù)新聞及較少人文情懷的新聞報道中,AI新聞生產(chǎn)可以部分替代新聞記者,在一定程度上有效緩解新聞從業(yè)人員的壓力,使他們從煩瑣的重復性工作中解脫出來,從而有更加充足的時間去進行深度報道的策劃,充分實現(xiàn)新聞生產(chǎn)效率的最大化,使AI真正成為人的好幫手。同時, 新聞生產(chǎn)者應當有效合理地使用AI技術,積極發(fā)揮其主體地位,通過“人機共生”的方式,使新聞生產(chǎn)者與AI系統(tǒng)有效合作,促使新聞內(nèi)容更加貼近真實,更能體現(xiàn)出深度和廣度,在不斷的技術創(chuàng)新和進步中,應對日新月異的媒介環(huán)境和社會需求。 例如,《華爾街日報》利用AI技術即時處理并撰寫復雜的財務報表,為讀者提供及時、精準的信息報道。與此同時,其新聞記者則將更多的時間和精力投入調查性報道、人文故事和深度分析中。這類報道不僅需要豐富的情感表達和洞察力,更需要專業(yè)的新聞技能和對社會問題的敏銳感知。因此,二者有機結合下的“人機共生”是未來新聞業(yè)的發(fā)展方向。
(二)深化數(shù)據(jù)倫理建設,構建更公平的算法機制
深化數(shù)據(jù)倫理是確保AI技術在新聞生產(chǎn)領域健康發(fā)展的重要策略,特別是它能幫助解決由算法偏見所帶來的歧視問題。這種偏見往往源于算法的訓練數(shù)據(jù)集,這些數(shù)據(jù)集可能因為不同原因包含錯誤或偏見,從而在算法的輸出中復制或加強這些偏見。[10]為了確保數(shù)據(jù)集的倫理性,必須在數(shù)據(jù)采集階段采取適當措施。例如,在人力資源管理領域中,LinkedIn利用復雜的算法來篩選和推薦候選人。為了降低算法偏見,LinkedIn積極監(jiān)測和審查其數(shù)據(jù)集,確保其包含來自不同背景、性別和地理位置的候選人數(shù)據(jù),使其算法機制更加公平高效。
在數(shù)據(jù)采集的過程中,維護用戶隱私和尊重用戶的自主權是非常重要的一環(huán)。這要求收集者在數(shù)據(jù)收集過程中明確告知參與者他們的數(shù)據(jù)將如何被使用,以及數(shù)據(jù)用途的范圍和期限,并保證只在獲得參與者明確同意和授權的情況下收集和使用數(shù)據(jù)。
在數(shù)據(jù)處理階段,確保數(shù)據(jù)的質量和完整性至關重要。數(shù)據(jù)的質量和完整性是保證數(shù)據(jù)庫質量的關鍵,這需要建立嚴格的數(shù)據(jù)審核機制,對錯誤、偏差或噪聲進行清洗,確保數(shù)據(jù)的標準化。數(shù)據(jù)標準化是一種保證數(shù)據(jù)通過一致方式加工和解釋的做法。因此,建立統(tǒng)一的數(shù)據(jù)處理和標注方法參數(shù)至關重要。這些方法必須減少標注人員主觀判斷的影響,盡量減小引入偏見的可能性。數(shù)據(jù)的質量和準確性直接影響訓練出的AI系統(tǒng)的公平性和穩(wěn)定性。LinkedIn應用嚴格的數(shù)據(jù)清洗和數(shù)據(jù)標準化方法,減少了錯誤數(shù)據(jù)和噪聲的影響,進而增加了模型的可信度和用戶的信任感,從而獲得良好的用戶口碑。
在AI模型的設計和訓練過程中,數(shù)據(jù)的來源、選擇與處理方法需被充分記錄,以便在模型出現(xiàn)問題時可以追溯數(shù)據(jù)的流向、增加模型決策的可解釋性。增加模型決策的可解釋性不僅有助于技術人員理解和糾正模型中的偏見,同時也使得用戶能夠更加信任和理解AI模型的決策,從而提升用戶黏性。
(三)健全監(jiān)管機制,加強問責力度
道德倫理是人類文明的朝陽,法規(guī)是人類文明的落日,是在規(guī)范社會行為時不得已而為之的他律。[11]AI技術下出現(xiàn)的新聞生產(chǎn)倫理失范問題復雜多樣,其中有不少是別有用心之人刻意而為之。因此,完善法規(guī)和監(jiān)管機制十分必要。2017年,國務院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,明確提出建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力,為我國人工智能立法指明了方向。[12]
隨著網(wǎng)絡社交媒體的出現(xiàn)和普及,信息傳播過程中的傳播者和接收者角色發(fā)生了變化。一般受眾、非專業(yè)從業(yè)者不再僅僅作為信息的接收者,同時也是信息的生產(chǎn)者和傳播者。然而,我國的監(jiān)管框架主要側重于專業(yè)的新聞從業(yè)人員,尚未構建成熟和全面的監(jiān)管規(guī)范來應對社交媒體、智能機器人和基于智能算法的新聞推送平臺。因此,制訂、頒布和推行針對非專業(yè)媒體及其從業(yè)者,尤其是針對一些涉及大數(shù)據(jù)、人工智能的科技平臺公司的法律法規(guī)刻不容緩。此外,在智能手機和無線網(wǎng)絡的加持下,個人社交平臺使人人都有麥克風,在此場景下,用戶在社交媒體上充滿情緒化和非理性的發(fā)言、討論往往會引發(fā)不良的群體效應,這不僅會扭曲公眾對信息的理解,也加劇了社會的分裂和誤解。與此同時,負責開發(fā)新聞推送算法的工程師大多出身理工科,缺乏新聞傳播領域的專業(yè)知識,這可能導致算法偏差和信息泡沫,進一步影響信息的公平性和多樣性。[12]這些原因也加大了新聞監(jiān)管的難度,因此,增強對智能媒體監(jiān)管力度,減少新聞生產(chǎn)中倫理失范問題的發(fā)生頻率,對于促進媒體生態(tài)的良性發(fā)展具有重要意義。
(四)提升用戶媒介素養(yǎng),防止成為技術之奴
媒介素養(yǎng)是指人們獲取、分析、評價和判斷各種媒介信息的能力。用戶媒介素養(yǎng)的提升,意味著公眾能夠更加精準地理解和判斷新聞媒體所發(fā)布的信息,避免陷入虛假信息的陷阱中,進而產(chǎn)生錯誤的思想甚至行動。與此同時,判斷和理解一篇優(yōu)秀的新聞作品,即可以幫助用戶增長見識,也有利于用戶在日后的學習生活中更好地提升自己。因此,提升用戶媒介素養(yǎng)是有效利用AI技術的重要保障,也是應對媒介倫理失范問題的有效舉措。AI技術下人們接觸媒介的方式發(fā)生了重大改變,萬物皆媒使人們每天都需要與各種媒介互動,從手機平板到電腦電視、從智能家居到智慧辦公,無處不在的連接使人們可以隨時隨地獲取信息、發(fā)布信息。AI技術的深度嵌入和高度智能化使一部分用戶被技術所捆綁,沉迷于AI所構建的虛擬世界當中,過于依賴AI,失去獨立思考能力,逐步淪為技術的附庸。[13]因此,如何正確理性地使用AI技術及智能媒介,避免被其過度影響成為人人面臨的媒介素養(yǎng)問題之一。
對媒介信息具有一定的批判性思維也是媒介素養(yǎng)提高的另一種表現(xiàn)形式。這需要當用戶在閱讀一篇新聞報道時,不應只是簡單地接受其內(nèi)容,而應對此新聞事件保有自己的見解和判斷,思考其背后的真實性和可靠性。正如2020年初,一則關于消毒劑可以殺死新冠病毒的誤導性消息在社交媒體上廣泛傳播,甚至引發(fā)了部分人嘗試飲用或注射消毒劑的危險行為。這些誤導性的信息主要通過社交媒體傳播,很多人因為缺乏媒介素養(yǎng),無法甄別其真?zhèn)?,造成了嚴重的后果。如果公眾具備良好的媒介素養(yǎng),他們就能識別這些虛假信息,從官方渠道獲取科學的建議,避免因虛假信息導致不必要的風險和恐慌。因此,無論對于個人還是社會而言,尤其在AI技術加持下的智能媒體時代,不斷提升用戶媒介素養(yǎng)可以有效防止成為技術之奴。
四、結語
在AI技術飛速發(fā)展的今天,其對新聞傳播行業(yè)既帶來了機遇,又提出了挑戰(zhàn)。隨著新聞傳播領域的數(shù)智化轉型,AI正發(fā)揮著越來越重要的作用,不但可以協(xié)助媒體機構高效準確地生產(chǎn)新聞信息,也能替代新聞工作者完成一定的簡單重復性工作,還能為用戶提供個性化、多樣化的信息服務。然而,AI技術所帶來的媒介倫理失范問題也逐漸成為不可忽視的現(xiàn)象。技術的創(chuàng)新不可避免地會引發(fā)與傳統(tǒng)規(guī)范相沖突的境況,新的技術也會帶來新的問題,但不能因為問題的出現(xiàn)而否定新技術。因此,我們需要以科學的態(tài)度去探究AI技術對新聞傳播行業(yè)所帶來的影響,并適時制定及實施相應的優(yōu)化策略,更好地利用AI技術為新聞傳播行業(yè)的發(fā)展創(chuàng)造更多的機遇和更廣闊的發(fā)展方向,助力新聞行業(yè)數(shù)智化轉型的深入推進。
參考文獻:
[1]" 楊保軍,杜輝.智能新聞:倫理風險·倫理主體·倫理" 原則[J].西北師大學報(社會科學版),2019(1):27-36.
[2]" 馬克思.1844年經(jīng)濟學—哲學手稿[M]. 劉丕坤,譯.北京:人民出版社,1979.
[3]" 陶雅雯.人工智能狂歡下媒介倫理失范問題的規(guī)制[J].聲屏世界,2022(14):24-26.
[4]" 陳起崢.人工智能全鏈條沖擊下媒體人的順應與堅守分析[J].新聞研究導刊,2023(20):6-8.
[5]" 楊保軍.論新聞的本體屬性[J].山西大學學報(哲學社會科學版),2008(5):104-112.
[6]" 張佳茵,李巖.人工智能時代的媒介倫理問責[J].今傳媒,2020(5):62-64.
[7]" 劉茂錦.人工智能在新聞業(yè)的倫理失范及對策研究[D].成都:四川省社會科學院,2019.
[8]" 馮嘉鑫.人工智能技術的倫理風險研究[D].蘭州:西北師范大學,2023.
[9]" 王大志,張挺.風險、困境與對策:生成式人工智能帶來的個人信息安全挑戰(zhàn)與法律規(guī)制[J].昆明理工大學學報(社會科學版),2023(5):8-17.
[10]" 靖鳴,婁翠.人工智能技術在新聞傳播中倫理失范的思考[J].出版廣角,2018(1):9-13.
[11]" 許向東.關于人工智能時代新聞倫理與法規(guī)的思考[J].人民論壇·學術前沿,2018(24):60-66.
[12]" 白燦明.人工智能背景下新聞倫理失范現(xiàn)象研究[J].記者搖籃,2020(5):129-130.
[13]" 申紅洲.智能時代的新聞倫理失范問題與應對設想[D].保定:河北大學,2023.
【責任編輯" " 馬" "俊】
The Ethical Anomie of News Production Enabled by
AI Technology and Its Countermeasures
LUO Jianzhou, XU Li
(College of Arts, Xi’an University of Finance and Economics, Xi’an 710061, China)
Abstract:In recent years, AI technology has been widely applied in the field of news communication. While AI technology empowers news production, it also brings harassment to the definition of the main body of news production and the evaluation of the value of news ontology. The reasons for this lie not only at the media and technical levels, but also at the policy level, such as the lag in regulatory supervision, which cannot be ignored. Therefore, in using AI technology to empower news production, to build a more fair algorithm mechanism news producers need to exert their subjectivity, achieve “human-machine symbiosis” and deepen the construction of data ethics, build a more fair algorithm mechanism; in addition, to ensure that media user contribute to the deepening of the digital transformation of the news industry, user media literacy should be improved with supervision strengthened.
Key words:AI technology; news production; ethical anomie