摘 要:隨著人工智能技術(shù)的不斷發(fā)展,新聞生產(chǎn)方式和傳播生態(tài)也在發(fā)生改變。ChatGPT在為新聞生產(chǎn)提供便利的同時,也滋生了傳播虛假新聞信息的風(fēng)險。本文基于新聞傳播學(xué)視角,聚焦ChatGPT新聞寫作中虛假新聞信息的生產(chǎn)和傳播現(xiàn)象,結(jié)合相關(guān)報道和案例,總結(jié)ChatGPT虛假新聞的特點,探討其產(chǎn)生機(jī)制、帶來的危害以及應(yīng)對措施,旨在為網(wǎng)絡(luò)虛假新聞治理工作提供參考。
關(guān)鍵詞: ChatGPT;虛假新聞;產(chǎn)生機(jī)制
中圖分類號: G210. 7 文獻(xiàn)標(biāo)識碼: A 文章編號: 1672-8122 (2025) 03-0032-04
一、引言
OpenAI公司在2022年11月30日發(fā)布的ChatGPT引發(fā)了全世界的關(guān)注,不同于之前發(fā)布的GPT-2、GPT-3等模型,新發(fā)布的ChatGPT將參數(shù)提升至千億級,標(biāo)志著通用人工智能時代的開啟。ChatGPT的誕生就像打開了“潘多拉魔盒”,它助力新興行業(yè)的產(chǎn)生、元宇宙的落地,但也引發(fā)了新的社會問題。依托強(qiáng)大的數(shù)據(jù)庫和算力, ChatGPT能夠快速抓取信息,生成文本、圖片、視頻和代碼等,是新聞寫作的得力助手。但是,除了便利高效的優(yōu)勢,它也會帶來虛假新聞信息傳播的隱憂。虛假信息無疑會降低人們對媒體的信任度,影響媒體的公信力,對社會良性運轉(zhuǎn)帶來負(fù)面影響。因此,本文聚焦ChatGPT新聞寫作中虛假新聞信息的生產(chǎn)和傳播現(xiàn)象,結(jié)合相關(guān)報道和案例,總結(jié)ChatGPT虛假新聞的特點,探討其產(chǎn)生機(jī)制、帶來的危害以及應(yīng)對措施,旨在為網(wǎng)絡(luò)虛假新聞治理工作提供參考。
二、ChatGPT虛假新聞的特點
自新聞?wù)Q生起,虛假新聞就如影隨形。隨著新聞采寫分發(fā)技術(shù)的更新迭代,虛假新聞也更加難以辨別。當(dāng)前,新聞生產(chǎn)主體的邊界越來越模糊,不再僅限于主流媒體,任何自媒體和個人都能成為新聞生產(chǎn)的主體。因此,本文中的ChatGPT虛假新聞是一個寬泛概念,泛指由運用ChatGPT等人工智能編寫發(fā)布的不實新聞信息,或任何個人、組織運用該技術(shù)有意編造傳播的不實信息??傮w來看, ChatGPT虛假新聞具有生產(chǎn)門檻更低、生成速度更快、內(nèi)容形式更多樣、傳播影響更大等特征。
(一)炮制簡單,主體多元
從ChatGPT虛假新聞的生產(chǎn)主體來看,不僅僅有記者、自媒體從業(yè)者、個人,還有技術(shù)本身。以往虛假新聞的產(chǎn)生大多與記者報道失誤、媒體把關(guān)不嚴(yán)、利益驅(qū)動等因素有關(guān),而在ChatGPT虛假新聞中, ChatGPT直接成為虛假信息的信息源和“販賣機(jī)”。它能夠產(chǎn)出語意連貫、邏輯通順,符合新聞?wù)Z言和體裁規(guī)范的稿件,但內(nèi)容的真實性無法保證。據(jù)《紐約時報》2023年2月報道,美國新聞可信度評估與研究機(jī)構(gòu)NewsGuard對ChatGPT進(jìn)行了測試, NewsGuard聯(lián)合首席執(zhí)行克羅維茨表示, ChatGPT將成為互聯(lián)網(wǎng)上傳播錯誤信息的最強(qiáng)大的工具。當(dāng)前,一些自媒體利用ChatGPT將舊新聞回爐重造、改頭換面,只要輸入關(guān)鍵詞和要求就能憑空捏造虛假信息,在短短幾分鐘內(nèi)形成一篇新聞稿件。技術(shù)下沉讓廣大網(wǎng)民都能夠享受智能服務(wù),但由于缺乏規(guī)范和約束,也使技術(shù)淪為部分人借機(jī)牟利的工具。
(二)形式多樣,真假難辨
從ChatGPT虛假新聞的呈現(xiàn)形式來看,其形式越來越多樣,更具迷惑性和欺騙性。ChatGPT不僅能模仿各種語言風(fēng)格,生產(chǎn)各種體裁的新聞,還能以文字、圖片、音視頻等形式進(jìn)行呈現(xiàn)。雖然ChatGPT是一個文本生成模型,但通過加入Unsplash API或HTML代碼等方式就能生成圖片或視頻。當(dāng)前,部分ChatGPT虛假新聞通過偽造新聞演播室場景、模仿專業(yè)主持人的播報方式以及創(chuàng)建人工智能虛擬主播等手段,偽裝成權(quán)威新聞媒體,以此誤導(dǎo)大眾。另外,也有一些ChatGPT虛假新聞運用剪貼、拼湊等技術(shù)手段,制造與社會案件、國際時政熱點等相關(guān)的虛假報道。例如, 2023年6月10日,外媒《Bloomberg Law》報道稱ChatGPT錯誤地將電臺主持人Mark Walters描述為美國第二修正案基金會(SAF)前首席財務(wù)官,并指控其挪用資金和欺詐。實際上, Walters與SAF案件無關(guān), ChatGPT提供的案件編號和事實均屬虛構(gòu)。在人工智能技術(shù)得到廣泛應(yīng)用的背景下,虛假新聞的呈現(xiàn)形式不斷更新,虛實邊界更加模糊,這對網(wǎng)絡(luò)虛假新聞治理提出了更高的要求。
(三)欺騙誘導(dǎo),危害安全
從ChatGPT虛假新聞的影響來看,其混淆了虛實的邊界,增加了新聞事實核查難度,擾亂了網(wǎng)絡(luò)生態(tài),損害了大眾利益。不可否認(rèn)的是,技術(shù)的鴻溝與信息差將長期存在,人工智能技術(shù)發(fā)展日新月異,而大眾對于新技術(shù)的認(rèn)知和熟悉過程卻是漫長的。這就給不法分子偽造和傳播虛假信息提供了便利,他們借助虛假新聞混淆視聽,導(dǎo)致人們誤解事實真相,從而影響判斷和決策。
三、ChatGPT虛假新聞產(chǎn)生機(jī)制探析
虛假新聞的產(chǎn)生不僅僅與新聞從業(yè)者有關(guān),還與新聞生產(chǎn)的流程和社會環(huán)境有著密切的關(guān)聯(lián)。ChatGPT虛假新聞的產(chǎn)生除了受到訓(xùn)練數(shù)據(jù)質(zhì)量的影響外,也與市場利益誘導(dǎo)和相應(yīng)監(jiān)管規(guī)約滯后相關(guān)。
(一)技術(shù)機(jī)制:數(shù)據(jù)參差
ChatGPT是通過人類反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning with Human Feedback, RLHF)機(jī)制進(jìn)行無監(jiān)督學(xué)習(xí)訓(xùn)練的聊天生成式預(yù)訓(xùn)練轉(zhuǎn)換器,它會基于大語言模型、訓(xùn)練數(shù)據(jù)庫和算法,對用戶提出的問題自動生成符合要求的答案。ChatGPT的數(shù)據(jù)庫包含各種來自互聯(lián)網(wǎng)的文本信息,如果用于訓(xùn)練的數(shù)據(jù)本身就存在偏差和失真,那么生成的內(nèi)容就會不實。一方面,真實性是新聞的生命。ChatGPT能夠生成語意連貫、邏輯通順的文本,卻無法保證內(nèi)容的真實性,如果不進(jìn)行事實核查就會被誤導(dǎo)欺騙。另一方面,時效性是新聞的重要特性。但ChatGPT的訓(xùn)練數(shù)據(jù)具有滯后性,上線的模型訓(xùn)練數(shù)據(jù)停留在2021年,在此之后發(fā)生的事情還無法獲知[1]。此外, ChatGPT有時也會“一本正經(jīng)地胡說八道”,存在事實性錯誤、知識盲區(qū)和常識偏差, OpenAI公司就曾警告用戶“它(ChatGPT)可能偶爾會產(chǎn)生不正確的信息”。由于ChatGPT在客觀題測試中表現(xiàn)較差,無法辨別真假,所以現(xiàn)在還不能用它獲取可靠知識,更不能完全依賴它來代寫新聞[2]。
(二)市場機(jī)制:利益導(dǎo)向
從ChatGPT虛假新聞生產(chǎn)的主體來看,除了部分主流媒體,大多是自媒體機(jī)構(gòu)。部分自媒體利用ChatGPT進(jìn)行改編或捏造信息,從而規(guī)避平臺查重監(jiān)測,快速生成虛假新聞,用多個賬戶同時發(fā)布,博取關(guān)注并非法獲利。例如, 2023年5月7日,甘肅公安偵破了一起用ChatGPT杜撰“火車撞上修路工人致9人死亡”虛假新聞來賺取流量獲利的案件,成為我國自2023年1月10日《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》頒布實施后,甘肅省偵辦的首例利用人工智能技術(shù)炮制虛假不實信息的案件[3]。國外也不乏利用ChatGPT發(fā)布虛假消息的例子。例如, 2023年3月德克薩斯州監(jiān)管機(jī)構(gòu)緊急叫停一項名叫TruthGPT的代幣項目,調(diào)查發(fā)現(xiàn)項目方利用人工智能模型進(jìn)行包裝宣傳,騙取投資以此獲利[4]。ChatGPT大大降低了內(nèi)容生成門檻和成本,讓假新聞生產(chǎn)更快更“真”,對于炮制假新聞的不法群體無疑是一把利器,他們?yōu)榱双@取流量,增加廣告收入,以自身利益為導(dǎo)向,全然不顧大眾利益。
(三)監(jiān)管機(jī)制:規(guī)約有待完善
新技術(shù)既需要鼓勵支持又需要規(guī)范約束。人工智能的底層邏輯是算法和大數(shù)據(jù),其在新聞寫作應(yīng)用中出現(xiàn)的問題主要集中于算法偏見、技術(shù)霸權(quán)、算法黑箱、隱私、虛假信息等。網(wǎng)信辦、工業(yè)和信息化部、公安部聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,對人工智能等新興技術(shù)做了預(yù)先規(guī)定,但其治理對象主要是算法,聚焦于信息安全,難以有效應(yīng)對像ChatGPT等大人工智能模型帶來的新問題[5]。治網(wǎng)之道,法治為本, ChatGPT引發(fā)的問題逐漸復(fù)雜化、多樣化,除了對人工智能行業(yè)進(jìn)行規(guī)范約束之外,也要重視對智能產(chǎn)品使用者的約束,不能忽視個人在社會化傳播中的道德倫理責(zé)任[6]。
四、ChatGPT虛假新聞的危害
ChatGPT生成的內(nèi)容真假難辨,給新聞?wù)鎸嵭院兔襟w的公信力帶來挑戰(zhàn),沖擊了原有的新聞倫理,損害了大眾利益,還會引起社會恐慌,破壞社會穩(wěn)定和安全。
(一)新聞業(yè)層面:沖擊新聞倫理,削弱媒體公信力
從人機(jī)關(guān)系來看, ChatGPT能夠生成新聞報道或作品,使記者專注于工作的其他方面。但是,這也增加了新聞事實核查的難度,其帶來的核查工作無疑又加重了記者的負(fù)擔(dān)。此外, ChatGPT致使人機(jī)關(guān)系由主客工具的寄生關(guān)系轉(zhuǎn)向人機(jī)合作競爭的共生關(guān)系,不同于以往的機(jī)器寫作, ChatGPT擁有更高的獨立性,沖擊了新聞從業(yè)者的主體地位,為新聞倫理帶來新的風(fēng)險和挑戰(zhàn)。
一方面,真實性是新聞的基本原則,而ChatGPT依托龐大的數(shù)據(jù)庫和語料庫生成的虛假信息,使新聞事實核查的難度升級,對新聞?wù)鎸嵭蕴岢鰢?yán)峻的挑戰(zhàn)。例如,在I-Team測試中,測試人員要求ChatGPT寫一篇關(guān)于邁克爾·布隆伯格結(jié)束第三次紐約市長任期以后的活動新聞,發(fā)現(xiàn)ChatGPT會編造出邁克爾·布隆伯格從未說過的話。另一方面,客觀性是實現(xiàn)新聞?wù)鎸嵭缘幕就緩健hatGPT在回答觀點類問題時會表明“作為一名人工智能助手,我對具體的產(chǎn)品或組織沒有個人的意見或看法”,這種看似客觀公正的表述實則回避了事實上的不公正,用于AI模型訓(xùn)練的數(shù)據(jù)可能在不同程度上缺乏多樣性,常見的包括人口偏差、內(nèi)容偏差、歷史偏見、技術(shù)偏差等,這會加重刻板印象和不平等[7]。
(二)大眾層面:損害公眾利益,產(chǎn)生信任危機(jī)
隨著技術(shù)的進(jìn)步,網(wǎng)絡(luò)虛假信息的生產(chǎn)更快更“真”,這會對大眾和社會帶來許多負(fù)面影響,其中一個主要的影響就是增強(qiáng)了人們的不信任感。ChatGPT具有生成圖片和視頻的功能,僅僅輸入關(guān)鍵詞就能生成圖片或視頻腳本。2023年3月, Twitter上一組教皇方濟(jì)各穿著巴黎世家風(fēng)格羽絨服的照片瀏覽超千萬,不少人信以為真,“有圖未必有真相”成為現(xiàn)實。在感嘆技術(shù)強(qiáng)大的同時,人們對真假難辨的擔(dān)憂情緒也在上升,假作真時真亦假,造假的便捷度與虛假辨別難度嚴(yán)重不對等。當(dāng)人們無法分辨信息真?zhèn)螘r,就會很難相信任何網(wǎng)絡(luò)信息,從而對媒體產(chǎn)生不信任情緒。此外,出行、飲食、健康等與人民生活密切相關(guān)的領(lǐng)域也往往是虛假新聞的重災(zāi)區(qū),對于缺乏辨別能力的群體而言,那些“言之鑿鑿”的新聞無疑會誤導(dǎo)他們。例如,有網(wǎng)友借助ChatGPT寫一篇關(guān)于杭州取消限行的新聞稿,本意是測試,卻被不明就里的廣大網(wǎng)民信以為真,導(dǎo)致錯誤信息被傳播,警方介入調(diào)查,涉事網(wǎng)民也在互聯(lián)網(wǎng)上公開道歉。
(三)國家層面:擾亂社會秩序,危害網(wǎng)絡(luò)安全
ChatGPT技術(shù)無疑助力了行業(yè)升級和社會發(fā)展,但也會給違法分子提供“武器”。當(dāng)前, AI換臉、合成視頻不僅混淆了虛實邊界,更侵害了他人的人格權(quán),對受害者造成難以挽回的傷害,嚴(yán)重危害網(wǎng)絡(luò)生態(tài)環(huán)境。虛假新聞往往是有目的地制造和傳播的,不法分子通過ChatGPT等技術(shù)惡意造謠、傳謠,試圖操縱輿論,以達(dá)到自己的目的,這會引發(fā)社會恐慌和焦慮。此外,虛假新聞還可能被用作宣傳工具,煽動社會不良情緒,危及社會的穩(wěn)定和安全。
五、ChatGPT虛假新聞應(yīng)對之策
網(wǎng)絡(luò)安全是國家安全的重要組成部分, ChatGPT虛假新聞混淆視聽,污染網(wǎng)絡(luò)空間,危害大眾利益,對社會運轉(zhuǎn)帶來負(fù)面影響,亟需社會各界共同行動。
(一)明確技術(shù)責(zé)任,嚴(yán)控數(shù)據(jù)把關(guān)
在技術(shù)迅猛發(fā)展的同時,“技術(shù)迷思”也在擴(kuò)張,烏托邦式的技術(shù)幻想與技術(shù)霸權(quán)加劇了技術(shù)鴻溝,引發(fā)新的社會問題,對人工智能的發(fā)展進(jìn)行必要的倫理判斷是打破“技術(shù)迷思”的重要途徑[8]。在新技術(shù)萌芽期,除了建立法律法規(guī)進(jìn)行硬性規(guī)制之外,還需要用倫理性的“軟約束”加以規(guī)范。在人工智能倫理風(fēng)險治理方面,許多學(xué)者都認(rèn)為應(yīng)把技術(shù)設(shè)計者納入治理考量,細(xì)化相應(yīng)的倫理責(zé)任[9-10]。技術(shù)設(shè)計者對于技術(shù)的把控會直接影響技術(shù)使用效果。技術(shù)開發(fā)公司有必要對技術(shù)人員進(jìn)行培訓(xùn),明確其倫理職責(zé)。研究開發(fā)人員有義務(wù)對算法模型進(jìn)行優(yōu)化,減少算法偏見。在進(jìn)行數(shù)據(jù)訓(xùn)練時,公司和技術(shù)人員應(yīng)嚴(yán)格把控數(shù)據(jù)質(zhì)量,增強(qiáng)數(shù)據(jù)多樣性,把關(guān)數(shù)據(jù)真實性,并及時更新訓(xùn)練數(shù)據(jù),以適應(yīng)社會需要。此外, ChatGPT的設(shè)計者有必要公開ChatGPT生成內(nèi)容的數(shù)據(jù)源信息,方便使用者查證。
(二)完善平臺規(guī)約,規(guī)范內(nèi)容發(fā)布
虛假新聞治理是一個全球性的問題,而網(wǎng)絡(luò)平臺是虛假信息傳播的主要渠道,因此,規(guī)范運行和管理平臺十分必要,這能夠有效減少虛假信息傳播風(fēng)險。新聞傳播行業(yè)需要加強(qiáng)對ChatGPT的使用監(jiān)管,建立關(guān)于人工智能使用的行業(yè)規(guī)約,落實ChatGPT新聞生產(chǎn)和傳播把關(guān)等流程責(zé)任。在信息傳播中,傳播者有必要對人工智能生成內(nèi)容進(jìn)行標(biāo)注,提示大眾理性看待。各大社交媒體平臺需要履行監(jiān)管職責(zé),完善平臺規(guī)約,對于人工智能生成內(nèi)容進(jìn)行顯著、統(tǒng)一標(biāo)識,規(guī)范網(wǎng)絡(luò)視聽。例如, 2023年5月9日,抖音發(fā)布新規(guī)《抖音關(guān)于人工智能生成內(nèi)容標(biāo)識的水印與元數(shù)據(jù)規(guī)范》,要求發(fā)布者對人工智能生成內(nèi)容進(jìn)行標(biāo)注,規(guī)范智能生成內(nèi)容發(fā)布,促進(jìn)平臺良性發(fā)展。此外,平臺還應(yīng)通過人工與算法審核相結(jié)合的方式進(jìn)行信息過濾,及時識別和刪除虛假信息;建立舉報系統(tǒng),鼓勵用戶主動上報虛假信息,對違反平臺規(guī)約的用戶進(jìn)行警告。
(三)提升大眾媒介素養(yǎng),共建清朗網(wǎng)絡(luò)空間
在加強(qiáng)技術(shù)管理,規(guī)范平臺運營,打擊虛假新聞的同時,提升網(wǎng)民媒介素養(yǎng)也至關(guān)重要。在Web3. 0時代,網(wǎng)民擁有更多的自主權(quán),但權(quán)利往往與義務(wù)相生相伴,網(wǎng)民應(yīng)提高自身媒介素養(yǎng),自覺遵守網(wǎng)絡(luò)平臺規(guī)約。此外,政府應(yīng)組織公益廣告、知識競賽等宣傳活動,向大眾普及虛假信息的識別方法,縮小技術(shù)鴻溝;對人工智能生產(chǎn)內(nèi)容加強(qiáng)監(jiān)管,完善相關(guān)法律法規(guī),讓網(wǎng)絡(luò)治理有法可依??萍脊緫?yīng)開發(fā)人工智能生成內(nèi)容檢測技術(shù),幫助人們快速辨別虛假信息。
六、結(jié) 語
ChatGPT等人工智能技術(shù)是人類智慧創(chuàng)造的工具,在為新聞生產(chǎn)提供便利的同時,也滋生了傳播虛假新聞信息的風(fēng)險。本研究通過分析ChatGPT等人工智能技術(shù)在新聞生產(chǎn)中的應(yīng)用及其潛在風(fēng)險,提出了治理網(wǎng)絡(luò)虛假新聞的多維度策略。研究結(jié)果表明,有效治理虛假新聞需要構(gòu)建系統(tǒng)化的治理框架。首先,在技術(shù)層面應(yīng)強(qiáng)化數(shù)據(jù)質(zhì)量控制,確保人工智能模型訓(xùn)練數(shù)據(jù)的真實性與可靠性。其次,在平臺層面需完善內(nèi)容發(fā)布規(guī)范,建立嚴(yán)格的虛假信息防控機(jī)制。最后,在社會層面應(yīng)著力提升大眾媒介素養(yǎng),構(gòu)建多方協(xié)同的治理體系。這些發(fā)現(xiàn)為構(gòu)建清朗的網(wǎng)絡(luò)信息生態(tài)提供了理論依據(jù)和實踐指導(dǎo)。在今后的研究中,應(yīng)進(jìn)一步探討人工智能技術(shù)在新聞傳播領(lǐng)域的倫理邊界及治理范式,促進(jìn)技術(shù)應(yīng)用與信息安全的協(xié)調(diào)發(fā)展。
參考文獻(xiàn):
[1] PAVLIK J V. Collaborating With ChatGPT:Considering the Implications of Generative Artificial Intelligent for Journalism and Media Education[J]. Journal ismMass Communication Educator,2023,78(1):84-93.
[2] 於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國法律評論, 2023(2):1-20.
[3] “甘肅公安”微信公眾號.甘肅警方:男子用ChatGPT編造虛假信息被采取刑事強(qiáng)制措施[EB/ OL]. (2023-05-08)[2024-12-07]. http:/ / www. piyao. org. cn/20230508/ dfaf8e4c765340239abd5abf d8141701/ c. html.
[4] Chris Glorioso. Fake News? ChatGPT Has a Knack fo r Making Up Phony Anonymous Sources[EB/ OL].(2023-02-24)[2024-02-07]. https:/ / www. nbcnewyork. com/ investigations/ fake-news-ChatGPThas-a-knack-for-making-up-phony-anonymoussources/4120307/ .
[5] 張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023(3): 38-51.
[6] 陳昌鳳,張夢.由數(shù)據(jù)決定? AIGC的價值觀和倫理問題[J].新聞與寫作,2023(4):15-23.
[7] 張恒軍,張芷汀.機(jī)器新聞寫作的倫理風(fēng)險治理:困境與規(guī)制[J].新媒體與社會,2021(1):32-46.
[8] 舒洪水,彭鵬. ChatGPT場景下虛假信息的法律風(fēng)險與對策[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,44(5):124-129
[9] 胡宏超,謝新洲.人工智能背景下虛假新聞的發(fā)展趨勢與治理問題[J].新聞愛好者,2023(10):9-15.
[10] 韓曉寧,耿曉夢,周恩澤.人機(jī)共生與價值共創(chuàng):智媒時代新聞從業(yè)者與人工智能的關(guān)系重塑[J].中國編輯,2023(3):9-14.
[責(zé)任編輯:喻靖雯]