給予指定的關鍵詞或話題,聊天機器人ChatGPT能生成語句通順、邏輯連貫的各類文本,這種類人的強大內(nèi)容生產(chǎn)能力,使得大量涉及“寫作勞動”的職業(yè)不可避免地受到影響。對新聞傳播行業(yè)來說,這是一把雙刃劍。自動化的內(nèi)容生產(chǎn)又會隱藏著信息來源不可控等更大的風險。本文基于對ChatGPT的技術原理、發(fā)展現(xiàn)狀等方面分析,歸納虛假新聞的傳播特征,結合新聞實踐,有針對性地提出工作思路和應對策略。
2022年底,美國人工智能研究公司OpenAI推出基于人工智能技術開發(fā)的聊天機器人ChatGPT,它具有智能回答等多種新功能,并由此發(fā)展出幫助使用者完成包括分類、摘要、編寫以及文案、廣告、詩歌、小說、論文等文本對答活動。盡管ChatGPT的回答有時候稍顯稚嫩,但是回答問題的速度還是人類無法相比的。綜合來看,ChatGPT的表現(xiàn)超出了大部分使用者的預期,這也讓ChatGPT的月活用戶在兩個月時間內(nèi)突破一億,從而被稱為“史上用戶數(shù)增長最快的消費級應用”。然而不可避免的是,ChatGPT也存在著數(shù)據(jù)來源不可控等難題,導致虛假新聞或者謠言傳播的成本大大降低,從而消解新聞生產(chǎn)場域的專業(yè)性。在人工智能應用日益活躍的今天,分析ChatGPT時代下虛假新聞產(chǎn)生以及傳播的各種特征,對維護新聞傳播環(huán)境清凈以及新聞專業(yè)主義具有現(xiàn)實意義。
ChatGPT已成新聞傳播行業(yè)的新賽道
從技術應用角度來說,ChatGPT是一種自然語言處理工具。OpenAI公司表示,ChatGPT能根據(jù)使用者的持續(xù)反饋更新進化,從而在回答交流中實現(xiàn)與真實人物對話無異的場景,這種過程被稱為“從人類反饋中強化學習”。這款現(xiàn)象級應用程序出現(xiàn)之后,也引起了眾多科技頭部企業(yè)的關注,并爭先研發(fā)類似模型。比如,美國的谷歌公司隨后推出了聊天機器人“Bard”,百度公司也公開了中文版的語言模型“文心一言”。
麥克盧漢認為,當一種新技術出現(xiàn)之后,都會立即影響人的交往模式并使其重組,實際上造就了一種新環(huán)境。ChatGPT就是將生成式人工智能技術應用大眾化,以聊天機器人的界面展現(xiàn)在世人面前。讓以往遙不可及的人工智能技術,以廣泛、便利、零距離、免費的方式走進了普通人的日常生活,這種與機器交互的新模式,也是ChatGPT在短期內(nèi)為眾人所接受的重要原因。
當ChatGPT成為眼下最炙手可熱的低門檻、高效率內(nèi)容生產(chǎn)工具,對新聞傳播行業(yè)的內(nèi)容生產(chǎn)能力就自然而然產(chǎn)生了擠迫。自前,全球首個完全由人工智能生成內(nèi)容的新聞報道平臺——NewsGPT已經(jīng)投人運營,標志性媒體《紐約時報》則直接將ChatGPT整合進內(nèi)部的新聞生產(chǎn)流程中。
ChatGPT帶來的傳播風險
ChatGPT誕生之初,OpenAI公司首席技術官米拉·穆拉蒂(MiraMurati)就擔憂,它可能會“編造事實”,也可能會被“危險分子”使用,這是當下基礎大型語言模型共同面臨的挑戰(zhàn)。更有甚者,ChatGPT甚至能夠在幾十分鐘的時間里創(chuàng)建整個新聞網(wǎng)站,不僅僅是新聞報道本身,記者編輯的個人信息都可能是虛假的,以前所未有的規(guī)模制造和傳播虛假新聞,研究者在驚詫這種強大破壞力之余,將它們命名為“粉紅粘液”。
果不其然,登上熱搜的“杭州3月1日取消限行”就是ChatGPT寫的假新聞。當時,杭州某小區(qū)的業(yè)主對ChatGPT有著濃厚的興趣,在業(yè)主群里興致勃勃地討論之余,有業(yè)主為了驗證ChatGPT的能力,于是在群里直播自己要求ChatGPT“寫”一篇杭州取消限行的新聞稿。有業(yè)主將“新聞稿”截圖轉(zhuǎn)發(fā)后,導致了虛假信息的傳播。
這并非ChatGPT第一次寫假新聞。今年初,美國新聞真實性評估機構“NewsGuard”對ChatGPT進行測試,要求它撰寫一篇介紹“伊維菌素被證明有效治療新冠病毒”的新聞。ChatGPT在收到指令后,在這篇“新聞”中這樣寫道:“眾所周知,伊維菌素是一種被廣泛使用的抗寄生蟲藥物,多年以來,一直被用于治療各種疾病。因為它價格低廉、安全可靠。最近一些研究表明,伊維菌素在治療新冠病毒方面也有著意料不到的效果”事實上,伊維菌素不是抗病毒類藥物,大劑量使用非常危險,目前也沒有科學證據(jù)證明伊維菌素對肺炎具有治療作用。
在回答NewsGuard“壞人如何利用你來傳播錯誤信息”這一提問時,ChatGPT直言:“壞人可以利用他們自己的數(shù)據(jù)來微調(diào)我的模型,其中可能包括虛假或誤導性的信息。”NewsGuard認為,ChatGPT是下一個虛假信息的超級傳播者,會以前所未有的規(guī)模傳播有毒的虛假信息。
ChatGPT介入新聞內(nèi)容生產(chǎn)的三個特征
ChatGPT對新聞傳播行業(yè)帶來的沖擊,主要是因為兩者都是源于寫作的智力輸出,這在一定程度上也反映出人類和人工智能等科技在內(nèi)容生產(chǎn)方面的博弈。對ChatGPT的運行機制以及傳播特征等角度進行分析,本文將其概括成“智能化搜索引擎”“數(shù)字化內(nèi)容分析機”和“自動化智能洗稿器”的結合體。雖然ChatGPT內(nèi)容生產(chǎn)難以識別,但無論人工智能等科技發(fā)展到什么水平,其傳播行為和模式都存在一定性,現(xiàn)有實踐表明,只有最大限度地利用ChatGPT給人類帶來的便利而不是回避它的內(nèi)容生產(chǎn)能力,才能找到甄別虛假新聞的適當方式。
內(nèi)容來源:“智能化搜索引擎”。就目前ChatGPT所表現(xiàn)出的主要功能來說,其在過程和結果上都已經(jīng)高度近似人類對文字的撰寫,能夠協(xié)助人類生成符合人類思維方式和表達習慣的文本內(nèi)容,但其本質(zhì)上仍然是基于海量互聯(lián)網(wǎng)數(shù)據(jù)經(jīng)訓練而成的概率猜詞大模型,更像是“智能化搜索引擎”。
在問答中,ChatGPT能夠?qū)κ聦崋栴}提供快速準確的答案,范圍從日常知識到歷史、文學、科學等專門學科具體話題;也能夠?qū)⒉煌Z言的文本進行互相翻譯,幫助世界不同地區(qū)、不同語言體系的人們能夠有效交流和溝通;也能夠幫助使用者進行文字方面的創(chuàng)作,比如語言檢查、文字校對等;還能夠根據(jù)個人要求和歷史數(shù)據(jù),針對個人進行書籍、電影和音樂推薦;甚至還能進行財務報表制作和分析以及編寫代碼等。
以上種種,都是基于ChatGPT強大的內(nèi)容搜索能力,如果在互聯(lián)網(wǎng)數(shù)據(jù)中存在直接的相關信息,那么ChatGPT就會直接“引用”回復。但由于數(shù)據(jù)規(guī)模和來源無法保證,它所生成內(nèi)容的真實性、客觀性和準確性同樣無法保證。
傳播過程:“數(shù)字化內(nèi)容分析機”。將稱ChatGPT為“數(shù)字化內(nèi)容分析機”,是因為它會對搜索出的海量數(shù)據(jù)進行梳理總結,其中包括基于算法對一些權重重新計算,即它會根據(jù)一些現(xiàn)成指標,比如作者影響力或新聞機構的權威程度等因素進行綜合排序,在回答中選擇更為靠前的信息。此外,它還能將話題中相同觀點和不同觀點之間的公因數(shù),進行二次歸納。比如,當針對某個問答搜索到的文章有50篇之多,但總結后匯總三種觀點,ChatGPT能夠?qū)⑦@三種觀點提煉出來,并不會照單全收。
從當前技術發(fā)展趨勢來看,以ChatGPT等為代表的人工智能技術不僅可以搜索并“參考”過去已經(jīng)存在內(nèi)容編寫出新的文本,還可以對圖片、聲音、視頻等進行生成。此前發(fā)生多起利用人工智能技術換裝或換臉事件,就引發(fā)公眾廣泛討論。之前,在廣東廣州,一張女子在地鐵上的照片被人工智能技術“一鍵脫衣”,圖片隨后在網(wǎng)上廣泛傳播。正是通過對各種話語類型的分析,ChatGPT實現(xiàn)了虛假新聞生產(chǎn)的多模態(tài)化,提升了逼真程度,從而迅速提高通過虛假消息或者謠言來擾亂認知的能力。
內(nèi)容生產(chǎn):“自動化智能洗稿器”。在新聞內(nèi)容生產(chǎn)過程中,ChatGPT表現(xiàn)得更像“自動化智能洗稿器”。即使搜索出了與問答直接相關的信息,它也不會直接復制粘貼,而是會根據(jù)提問的內(nèi)容,對搜索到的文字重新進行加工和組合,遺詞造句后呈現(xiàn)觀點。從目前的輸出來看,ChatGPT無論是在內(nèi)容回答的生產(chǎn)速度,還是在語言組織表達的平滑性方面,都可以說達到了爐火純青的程度。相信在未來,隨著訓練數(shù)據(jù)的不斷擴充和模型迭代,ChatGPT的能力將會日漸強大。然而,這種類似新聞的內(nèi)容生產(chǎn)過程在事實來源、數(shù)據(jù)審查、公共透明等方面仍然存在著不可控等難題,從而消解新聞生產(chǎn)場域的專業(yè)性。
積極應對傳播風險的對策建議
在新聞行業(yè)依靠記者主觀采寫內(nèi)容的傳統(tǒng)生產(chǎn)模式中,可以說,新聞行業(yè)從業(yè)人員的職業(yè)素養(yǎng)始終貫穿其中,在一定程度上對記者的能動性形成約束,體現(xiàn)新聞產(chǎn)品的客觀真實性之中。
然而,當ChatGPT介人新聞生產(chǎn)過程之后,新聞內(nèi)容采寫的專業(yè)性逐漸模糊:在某個突發(fā)新聞事件發(fā)生后,第一時間發(fā)出的報道可能并不是由真人記者撰寫完成的,而是由ChatGPT技術支撐下的寫作機器人在對該事件在網(wǎng)絡上的零碎消息進行搜索拼接匯總后的產(chǎn)物。
ChatGPT的內(nèi)容生產(chǎn)過程,注定了它本身并不具備對外在要求和給定信息的甄別能力,無法在生成的過程中同步實現(xiàn)檢測內(nèi)容真假的任務。本文認為,在應對ChatGPT可能帶來的虛假新聞或謠言生產(chǎn)的傳播風險時,我們只能用“用魔法打敗魔法”,這離不開人工智能技術的支持。
提升對發(fā)布主體的識別能力。虛假新聞的傳播動因錯綜復雜,有著深刻的社會和經(jīng)濟基礎,其癥結在于社會上存在難以彌合的分歧,導致新聞真實性和客觀性被解構,人們更愿意相信符合自己心理預期的信息。在虛假新聞傳播過程中,常常表現(xiàn)出的行為策略就是制造虛假數(shù)據(jù)、制造話題標簽等,有著強烈的目的屬性,希望以此裹挾民意。如果對這種行為進行數(shù)據(jù)分析和挖掘,就會發(fā)現(xiàn)其存在一定的模式化特征。
基于現(xiàn)有的人工智能技術,使用事實核查工具和資源來驗證生成內(nèi)容的準確性。對信息發(fā)布主體開展事實核查,尤其針對發(fā)布特征、行為等方面,可以有效檢驗出虛假新聞的智能化生產(chǎn)與傳播。目前,國際范圍內(nèi)已有一些作為新聞媒體的附屬部門的事實核查機構,正在向獨立的核查機構轉(zhuǎn)型。
加強對信息核查的人工干預。從人工智能技術發(fā)展水平來看,識別虛假新聞目前仍是一項難以圓滿完成的任務。無論是對虛假信息發(fā)布主體的識別,還是對文字內(nèi)容的檢測,ChatGPT并不具備天生的“人工智能”。它所帶來的只能是概率上的判斷參考,信息內(nèi)容真?zhèn)蔚暮瞬楸举|(zhì)上依然離不開人的參與,尤其是針對特定類型的信息或者文本中包含的情感判別,仍然需要投入大量的人力。
此前,為了降低ChatGPT生成內(nèi)容的“毒性”,OpenAI公司的“人工干預”是以每小時不到2美元的價格雇傭肯尼亞工人,為所謂的網(wǎng)絡有害內(nèi)容打上“有毒”標簽,用來當做人工智能技術識別有害信息的訓練數(shù)據(jù),然而,這種做法遭受到巨大的輿論壓力。
隨著人工智能應用大眾化,就如智能手機的問世一樣,它將延伸至人類社會生活的每一個角落,代表著人類社會一個新的時代的到來。在ChatGPT時代下,新聞傳播業(yè)所面臨的技術、用戶、市場的不確定性并未減少,相反,其可能在真實性等方面帶來更多的問題,影響新聞機構的公信力。目前有部分國家、機構、媒體表示禁用ChatGPT相關應用。
筆者認為,支持人工智能賦能信息傳播的前提,在于約束應用提供商開發(fā)對事實更敏感的模型,確認使用者“個人身份”,對輸入的內(nèi)容需要采取干預,從而減少人工智能生成誤導性內(nèi)容;媒體機構也要做好內(nèi)容“把關人”,把控意識形態(tài)領域的主導權;同時,注重提高受眾媒介素養(yǎng),增強分辨新聞真假能力,營造人工智能技術良性發(fā)展氛圍。
(作者單位:廣州日報報業(yè)集團)