邱立楠 陳淼
【內(nèi)容提要】每種技術(shù)都有自己的議程,都是等待被揭示的一種隱喻。ChatGPT作為一種新興生成式人工智能技術(shù),其以用戶“需求”問題為中心的信息生產(chǎn)方式,抽離了人類在回答問題時(shí)的主觀建構(gòu)能力,被看成是一種“機(jī)器理性”的客觀陳述。然而,ChatGPT生產(chǎn)的內(nèi)容所表現(xiàn)出客觀性卻是一個(gè)偽命題,其表現(xiàn)出的高度擬人化,也是被人類馴化的結(jié)果,作用于ChatGPT的用戶需求、數(shù)據(jù)庫和人工培訓(xùn)三個(gè)因素都帶有強(qiáng)烈的人工設(shè)計(jì)因子,成為ChatGPT內(nèi)容生產(chǎn)具有“偽客觀性”的根源,并導(dǎo)致消息依從性理論下的偏見呈現(xiàn)、媒介效應(yīng)理論下的確認(rèn)偏誤和聚焦效應(yīng)理論下的事實(shí)扭曲等危害。
【關(guān)鍵詞】ChatGPT? 內(nèi)容生產(chǎn)? 偽客觀性? 人機(jī)傳播
伴隨人工智能算法的不斷發(fā)展,能夠獨(dú)立完成信息檢索、圖像建構(gòu)和文本生成等復(fù)雜任務(wù)的生成式人工智能迅速成為時(shí)下新寵。美國(guó)人工智能研究公司OpenAI推出的ChatGPT,作為生成式人工智能的佼佼者,可以根據(jù)聊天對(duì)話框的語境和場(chǎng)景與用戶進(jìn)行有差別的人機(jī)互動(dòng)。而在新聞傳播領(lǐng)域,ChatGPT自己聲稱其內(nèi)容生產(chǎn)的觀點(diǎn)是中立的,[1]具有“客觀中立屬性”[2],其生產(chǎn)的內(nèi)容被認(rèn)為是對(duì)新聞內(nèi)容生產(chǎn)者“直覺能力”的修正,是一種“理性、中立、客觀”的“機(jī)器理性”表達(dá)。[3]然而,本文通過對(duì)ChatGPT所生產(chǎn)的內(nèi)容進(jìn)行考察,發(fā)現(xiàn)ChatGPT看似算法“理性”所生成的“有邏輯”的內(nèi)容生產(chǎn),其真實(shí)性與可靠性并不高,其生產(chǎn)內(nèi)容的所謂客觀性,也只是一種烏托邦的想象。
一、ChatGPT內(nèi)容偽客觀性產(chǎn)生的根源
古往今來,隨著傳播技術(shù)的發(fā)展和傳播形式的多樣,傳播的結(jié)構(gòu)、關(guān)系和效果也會(huì)隨之調(diào)試。而傳播又是“社會(huì)關(guān)系內(nèi)部的一種粘聚力,它同時(shí)又是無法窺見的,或者沒有明確和永久的形式”,[4]這也客觀造就了不同時(shí)期的傳播學(xué)者,都會(huì)基于自身所處的傳播環(huán)境,而提出不同的傳播模式論,以試圖揭示傳播中各系統(tǒng)之間的次序及其相互關(guān)系。然而,抽象的文字?jǐn)⑹觯ǔo法被直接感知和觀察,也難以喚起人的感官體驗(yàn),進(jìn)而難以將ChatGPT內(nèi)容生產(chǎn)傳播中的關(guān)系全貌予以理性概括與全景展示。為更直觀解析ChatGPT內(nèi)容生產(chǎn)的“偽客觀性”的產(chǎn)生根源,筆者嘗試將以圖像模式的方式,解析梳理ChatGPT內(nèi)容生產(chǎn)的過程。
圖1中,A是指ChatGPT的數(shù)據(jù)庫。其數(shù)據(jù)庫主要由兩個(gè)部分組成。其一是訓(xùn)練數(shù)據(jù)集。該部分主要用于訓(xùn)練ChatGPT模型的文本數(shù)據(jù)集,包括從互聯(lián)網(wǎng)上抓取的大量原始語料庫,如維基百科、媒體新聞、網(wǎng)絡(luò)小說等。其二是模型參數(shù)。ChatGPT在訓(xùn)練過程中會(huì)生成一定的模型參數(shù),這些模型參數(shù)會(huì)被保存在模型文件中,成為ChatGPT進(jìn)行自然語言處理任務(wù)所必需的可調(diào)整的變量,并控制模型對(duì)輸入數(shù)據(jù)的響應(yīng)方式。在這里,模型參數(shù)的作用是將輸入文本轉(zhuǎn)換成潛在語義空間中的向量表示,并根據(jù)這些向量進(jìn)行下一步操作,如生成回復(fù)、分類等。因此,模型參數(shù)的設(shè)置直接影響了模型的性能和效果。值得注意的是,模型參數(shù)只是模型的一部分,還需要考慮模型的架構(gòu)、損失函數(shù)等其他因素對(duì)模型性能的影響。以GPT-3為例,它是目前已知規(guī)模最大的自然語言處理模型,擁有1750億個(gè)模型參數(shù),[5]訓(xùn)練時(shí)也使用了數(shù)百TB的文本數(shù)據(jù)。盡管當(dāng)前ChatGPT的訓(xùn)練數(shù)據(jù)庫只涵蓋了2021年9月1日之前的信息,且該日期之后的文本數(shù)據(jù)尚未用于訓(xùn)練ChatGPT模型,但是ChatGPT數(shù)據(jù)庫卻是一個(gè)不斷更新和發(fā)展的系統(tǒng),其模型參數(shù)也會(huì)在機(jī)器學(xué)習(xí)過程中不斷被保存在模型文件中。模型參數(shù)數(shù)據(jù)庫會(huì)隨著時(shí)間的推移而不斷豐富。
C是信息生產(chǎn)的中介,即ChatGPT。它在整個(gè)信息傳播流程中充當(dāng)著信息生產(chǎn)者的角色,擔(dān)負(fù)著根據(jù)用戶在聊天對(duì)話框輸入B(用戶的信息需求,下文詳述),再利用語言模型和生成式對(duì)話系統(tǒng)技術(shù),完成輸入文本編碼、語言建模、采樣生成和輸出文本解碼等步驟,最終實(shí)現(xiàn)從A中找到相關(guān)知識(shí)并生成更加準(zhǔn)確的內(nèi)容回復(fù)給B的內(nèi)容生產(chǎn)任務(wù)。具體而言,ChatGPT首先將B轉(zhuǎn)換為數(shù)字序列,并通過模型參數(shù)中保存的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行前向傳播計(jì)算,得到每個(gè)單詞在潛在語義空間中的向量表示。然后,使用自回歸語言模型技術(shù),依次生成下一個(gè)單詞,并根據(jù)生成的單詞重新計(jì)算概率分布,ChatGPT會(huì)一直重復(fù)這個(gè)過程,直到生成所需要的文本長(zhǎng)度或遇到停止符號(hào)。此外,ChatGPT在生成過程中,會(huì)通過查詢數(shù)據(jù)庫A中的相關(guān)信息,如知識(shí)庫、語料庫等,以獲取更多的上下文信息來提高回答的準(zhǔn)確性和流暢度。因此,數(shù)據(jù)庫A是支持ChatGPT進(jìn)行自然語言處理和內(nèi)容生成的重要基礎(chǔ)。
由此可知,ChatGPT只是一個(gè)基于大規(guī)模語料庫訓(xùn)練的自然語言處理模型,而且隨著ChatGPT根據(jù)用戶的提問和持續(xù)的上下文追問內(nèi)容,會(huì)依賴人工智能算法對(duì)用戶進(jìn)行人物畫像,并對(duì)其不斷調(diào)整、完善,最終實(shí)現(xiàn)更精準(zhǔn)理解用戶問題、更加準(zhǔn)確回答用戶問題的目標(biāo)。但是,ChatGPT本身并沒有人類的感知和人生經(jīng)驗(yàn),只是通過自然語言處理技術(shù)從文本數(shù)據(jù)中學(xué)習(xí)和提取知識(shí),而不是對(duì)世界真正的理解。因此,ChatGPT無法通過個(gè)人經(jīng)歷和情感體驗(yàn)來形成自己獨(dú)特的世界觀和人生觀,ChatGPT對(duì)于世界和人生觀的理解,也主要是基于對(duì)A中存在的文化、價(jià)值觀和思想傾向等方面的信息而習(xí)得。故而,如若人對(duì)訓(xùn)練數(shù)據(jù)集的選擇和處理存在著某些文化和心理偏見,那么這些偏見就有可能在ChatGPT生成的回答中得以體現(xiàn)。在一些涉及道德和倫理問題的問答中,ChatGPT也可能給出不合適甚至有害的建議。因此,在使用ChatGPT時(shí),B需要謹(jǐn)慎對(duì)待其輸出的結(jié)果,理性判斷和補(bǔ)充。
B是用戶的信息需求,也是C內(nèi)容生產(chǎn)的服務(wù)對(duì)象。從圖1中可知,用戶在對(duì)話框中輸入自己的個(gè)性化信息需求B,C獲得信息指令后,會(huì)使用自然語言理解(NLU)技術(shù),識(shí)別用戶的指令,并在數(shù)據(jù)庫A中查找與用戶畫像指令匹配的信息。在此期間,涉及到語義搜索、實(shí)體識(shí)別、知識(shí)圖譜等技術(shù),以求獲取最準(zhǔn)確和全面的結(jié)果集。最后,ChatGPT再生成相應(yīng)的回答,并將其轉(zhuǎn)換成自然語言文本輸出給用戶。所以,這個(gè)過程中是B驅(qū)使C滿足自身信息需求的人機(jī)互動(dòng)實(shí)踐。在人機(jī)互動(dòng)實(shí)踐中,ChatGPT已被廣泛應(yīng)用在在線客服、智能問答等領(lǐng)域,以幫助用戶快速獲取信息、解決問題。所以說,ChatGPT的內(nèi)容生產(chǎn)服務(wù)旨在解決用戶在生活和工作中遇到的各種自然語言處理的問題,提高用戶的智能化水平,而非生產(chǎn)客觀的內(nèi)容。
E是C根據(jù)B的需求生成的內(nèi)容。用戶對(duì)ChatGPT生產(chǎn)的內(nèi)容使用與滿足如圖2所示,如果ChatGPT生成的E滿足B,B可能會(huì)繼續(xù)追問得到生產(chǎn)的F1,或結(jié)束問答。反之,B會(huì)調(diào)整提問詞,再次詢問,C再內(nèi)容生產(chǎn)出F1。此時(shí)如果F1滿足B,B可能結(jié)束問答或繼續(xù)提問,C再生產(chǎn)出F2,如果不滿足B,B可能因?yàn)槎啻螣o法得到滿足而放棄提問。以上過程將一直重復(fù),直到B獲得滿意的內(nèi)容而停止提問,或者始終得不到想要的內(nèi)容而放棄提問。
D是人工培訓(xùn),是C能夠“擬人”的主要原因。C的語言模型中被注入“幾萬人工標(biāo)注”的數(shù)據(jù),這些數(shù)據(jù)不是世界知識(shí),而是“人類偏好”。[6]“人類偏好”包含兩方面含義:一是人類表達(dá)任務(wù)的習(xí)慣說法;二是判斷好問題、好回答的標(biāo)準(zhǔn)。為了讓C更好地扮演“人”的角色,“OpenAI的人類訓(xùn)練師扮演用戶與人工智能助手的角色,在Microsoft Azure的超級(jí)計(jì)算機(jī)上對(duì)其進(jìn)行嚴(yán)格訓(xùn)練。”[7]人工培訓(xùn)一般分為兩個(gè)階段:第一是數(shù)據(jù)收集階段。研究人員需從各種文本數(shù)據(jù)源中收集大量的覆蓋各種主題、風(fēng)格和語言的文本數(shù)據(jù),以確保其質(zhì)量和多樣性。第二是模型訓(xùn)練階段。研究人員使用已經(jīng)收集好的文本數(shù)據(jù)來訓(xùn)練ChatGPT模型。訓(xùn)練過程中,研究人員會(huì)將大量文本數(shù)據(jù)輸入至ChatGPT模型中,同時(shí)優(yōu)化模型參數(shù)和算法,以提高模型的準(zhǔn)確性和泛化能力。這個(gè)過程需要大量的計(jì)算資源和時(shí)間,因此需要高效的并行計(jì)算和分布式訓(xùn)練技術(shù)。ChatGPT的人工培訓(xùn)是一個(gè)反復(fù)迭代的過程,它會(huì)不斷調(diào)整模型參數(shù)、改進(jìn)算法,并對(duì)模型進(jìn)行評(píng)估和測(cè)試,持續(xù)地對(duì)模型進(jìn)行訓(xùn)練和優(yōu)化,以確保其質(zhì)量和可用性。
綜上,通過對(duì)ChatGPT內(nèi)容生產(chǎn)模式的大致解析,我們不難發(fā)現(xiàn)ChatGPT作為一種新興生成式人工智能技術(shù),其以用戶“需求”問題為中心的信息建構(gòu)方式,抽離了人類在回答問題時(shí)的主觀直接建構(gòu)能力,是一種“機(jī)器理性”的客觀陳述與回答。然而,ChatGPT生產(chǎn)的內(nèi)容所表現(xiàn)出客觀性卻是一個(gè)偽命題。訓(xùn)練數(shù)據(jù)集和模型參數(shù)本身是客觀的,但是在訓(xùn)練數(shù)據(jù)集的選擇和處理、模型結(jié)構(gòu)的設(shè)計(jì)等方面會(huì)有人類的主觀因素介入,這可能會(huì)對(duì)最終模型的性能產(chǎn)生一定的影響。同時(shí),信息在源頭上也是不客觀的。首先,A中的信息也不是完全客觀的,這些數(shù)據(jù)來源是多樣化的,來自不同領(lǐng)域和文化背景,因此可信度良莠不齊,很難保證其中沒有謠言與謬論。此外,模型參數(shù)也受到訓(xùn)練算法的影響,不同的訓(xùn)練算法可能會(huì)導(dǎo)致不同的模型參數(shù),從而產(chǎn)生不同的模型性能。因此,評(píng)估模型性能時(shí)需要考慮這些因素的影響。由于ChatGPT的數(shù)據(jù)庫所涵蓋的信息并不全面,當(dāng)B的信息需求超出涵蓋范圍時(shí),ChatGPT就會(huì)“一本正經(jīng)地胡說八道”。[8]而ChatGPT作為人工智能并沒有辨別和糾錯(cuò)的能力,在傳播過程中只是根據(jù)用戶需求選擇整理信息。“每種技術(shù)都有自己的議程,都是等待被揭示的一種隱喻?!盵9] ChatGPT創(chuàng)造之初是為了提供一個(gè)與人類進(jìn)行自然交互的方式,用戶的需求引導(dǎo)它選擇用戶喜歡的信息,以用戶喜歡的方式加工,輸出用戶青睞的觀點(diǎn)。滿意度和客觀性,ChatGPT更偏向于前者。而ChatGPT表現(xiàn)出的高度擬人化,也是被人類馴化的結(jié)果,注入的人類偏好和判斷標(biāo)準(zhǔn)使之不再處于中立地位。
總之,作用于ChatGPT的用戶需求、數(shù)據(jù)庫和人工培訓(xùn)三個(gè)因素都帶有強(qiáng)烈的人工設(shè)計(jì),也成為ChatGPT的內(nèi)容生產(chǎn)具有“偽客觀性”的原罪因子。
二、ChatGPT內(nèi)容生產(chǎn)偽客觀性的危害
(一)消息依從性理論下的偏見呈現(xiàn)
美國(guó)傳播學(xué)者桑德拉·鮑爾斯(Sandra Ball-Rokeach)和米歇爾·帕姆勒(Melvin DeFleur)在1976年提出了影響至今的消息依從性理論。該理論強(qiáng)調(diào)了媒體在社會(huì)生活中的重要地位,并提出了人們獲取和使用信息的方式受到媒體、機(jī)構(gòu)和社交網(wǎng)絡(luò)三個(gè)因素的“依賴模型”,后成為研究媒體與受眾關(guān)系的重要理論之一。根據(jù)消息依從性理論可知,人們?cè)讷@取和使用信息時(shí)會(huì)依賴媒體,并且媒體的選擇和使用可能會(huì)影響他們的態(tài)度和行為。此外。媒體在決定哪些信息應(yīng)該被報(bào)道和如何報(bào)道時(shí),也會(huì)受到它們與受眾之間相互依存關(guān)系的影響。如果受眾對(duì)某個(gè)話題的知識(shí)、態(tài)度或行為受到媒體的支配,那么媒體的報(bào)道可能會(huì)對(duì)受眾產(chǎn)生更深刻、更持久的影響。
而ChatGPT的大量原始語料數(shù)據(jù)庫,是由互聯(lián)網(wǎng)用戶生產(chǎn)的內(nèi)容和新聞作品等組成。據(jù)此理論可知,ChatGPT在內(nèi)容生產(chǎn)中會(huì)自然受到消息依從性的影響,從而產(chǎn)生具有偏見呈現(xiàn)的信息內(nèi)容。其具體表現(xiàn)在:
其一,媒體對(duì)話題的選擇。如果 ChatGPT 的回答是基于有偏見的媒體報(bào)道來生成的,那么媒體可能會(huì)選擇一些特定的話題,從而影響用戶的態(tài)度和行為。例如,在政治、社會(huì)等敏感話題上,媒體可能會(huì)采用特定的框架來描述事件,從而強(qiáng)調(diào)或忽略某些信息,進(jìn)而導(dǎo)致 ChatGPT 的回答存在偏見性。如在政治話題上,訓(xùn)練數(shù)據(jù)中可能傾向于某些特定的政治立場(chǎng)或意識(shí)形態(tài),從而導(dǎo)致 ChatGPT 的回答存在傾向性或偏見。
其二,媒體對(duì)用戶的影響?;谙⒁缽男岳碚?,ChatGPT 會(huì)借鑒媒體報(bào)道中存在的偏見、刻板印象等信息來生成回答,從而對(duì)用戶的態(tài)度和行為產(chǎn)生影響。例如,由于訓(xùn)練數(shù)據(jù)中存在關(guān)于男性和女性的常見刻板印象,ChatGPT 生成的回答也可能不公正地偏袒或歧視某一性別,進(jìn)而生產(chǎn)出具有性別偏見的內(nèi)容。
其三,用戶對(duì)媒體的依賴程度。如果用戶對(duì) ChatGPT 的回答過于依賴,那么他們可能會(huì)忽略其他來源的信息,從而無法全面、客觀地理解事件。同時(shí),如果 ChatGPT 的回答包含有偏見的信息,那么用戶可能會(huì)被誤導(dǎo),進(jìn)而產(chǎn)生錯(cuò)誤的看法和行為。
故而,技術(shù)的開發(fā)天然帶有某種傾向,OpenAI開發(fā)ChatGPT的初衷是憑借算法模型以便更好地理解人類語言,為用戶提供更準(zhǔn)確的答案和服務(wù)。這是一個(gè)盈利性質(zhì)的程序,能否滿足用戶的需求獲得收益是經(jīng)營(yíng)的核心。因此它非常重視用戶的反饋,通過多次的用戶白描繪制精確的用戶畫像?!癆mato, R.M.Quintan等將用戶畫像描述為‘一個(gè)從海量數(shù)據(jù)中獲取的、由用戶信息構(gòu)成的形象集合, 通過這個(gè)集合, 可以描述用戶的需求、個(gè)性化偏好以及用戶興趣等?!盵10]而每個(gè)用戶的價(jià)值判斷價(jià)值選擇是不同的,為了迎合用戶的需求,ChatGPT會(huì)根據(jù)用戶畫像產(chǎn)生千人千面的個(gè)性化回答。如詢問最為經(jīng)典的“電車問題”中是否要犧牲一個(gè)人拯救另外五個(gè)人時(shí),ChatGPT的回答是措辭恰當(dāng)?shù)?,為犧牲辯護(hù)。然而,當(dāng)重新措辭問題并繼續(xù)詢問時(shí),“它會(huì)隨機(jī)地爭(zhēng)論贊成或反對(duì)犧牲。”[11]為迎合用戶喜好,ChatGPT的內(nèi)容生產(chǎn)并非無差別的客觀與中立,可見其以討好的方式在進(jìn)行內(nèi)容生產(chǎn)。隱喻是人類的一種認(rèn)知方式,人們通過隱喻性思維來認(rèn)識(shí)事物和建立概念系統(tǒng)??梢?,媒介是一種隱喻,ChatGPT的內(nèi)容生產(chǎn),正在用一種隱蔽但有力的暗示在定義、詮釋和改變著現(xiàn)實(shí)世界。當(dāng)前,用戶正在把ChatGPT討好性的內(nèi)容當(dāng)作認(rèn)識(shí)世界的依據(jù),沉醉于精心打造的虛擬世界中,對(duì)顯而易見的真相置之不理。
(二)媒介效應(yīng)理論下的確認(rèn)偏誤
媒介效應(yīng)理論是從媒介與受眾關(guān)系的剖面,深化了人們對(duì)媒介與受眾關(guān)系的理解和認(rèn)識(shí)。該理論最初由哈羅德·亨特和保羅·拉扎斯菲爾德于20世紀(jì)40年代所提出。他們認(rèn)為,媒介對(duì)人們的影響主要體現(xiàn)在三個(gè)方面,即知識(shí)、態(tài)度和行為。其中,知識(shí)效應(yīng)指媒介傳達(dá)信息所產(chǎn)生的影響,包括信息的數(shù)量、質(zhì)量和準(zhǔn)確度;態(tài)度效應(yīng)指媒介對(duì)受眾態(tài)度的影響,包括影響受眾對(duì)某些事物的看法、評(píng)價(jià)和情感;行為效應(yīng)指媒介對(duì)受眾行為的影響,比如促進(jìn)或抑制受眾參與某些活動(dòng)的意愿和行動(dòng)。
在當(dāng)下,ChatGPT作為生成式人工智能的快速落地和應(yīng)用,由于其算法和訓(xùn)練數(shù)據(jù)的特定性,可能存在某些主題或觀點(diǎn)的偏差,從而導(dǎo)致一些誤導(dǎo)性信息的生產(chǎn)。例如,當(dāng)ChatGPT的訓(xùn)練數(shù)據(jù)來源于某一個(gè)特定的文化、地區(qū)或社會(huì)群體時(shí),那么其在生成內(nèi)容時(shí)便會(huì)自然而然地傾向于表達(dá)該群體的觀點(diǎn)和偏見,而忽略其他群體的態(tài)度和經(jīng)驗(yàn)。此外,如若ChatGPT的人工培訓(xùn)或算法編碼者有特定的政治立場(chǎng)、商業(yè)利益或偏見時(shí),他們也可能通過調(diào)整算法或訓(xùn)練數(shù)據(jù)以讓ChatGPT生成一定有利于自己的信息,并將其傳達(dá)給受眾。
現(xiàn)實(shí)生活中的用戶在信息搜集和處理過程中,更愿意接受那些與自己原有信念和觀點(diǎn)相符的信息,而對(duì)那些不符合自己觀點(diǎn)的信息持懷疑態(tài)度或直接忽略,這種確認(rèn)偏誤傾向,更會(huì)加劇ChatGPT的內(nèi)容生成的“偽客觀性”。如在學(xué)科研究領(lǐng)域中,常會(huì)出現(xiàn)一種顯而易見的“提出假設(shè)(hypothesis)而尋找證據(jù)”的傾向,即學(xué)科研究者在研究之前,內(nèi)心已持有一個(gè)大致的想法或理論構(gòu)思,然后會(huì)去尋找證據(jù)來支持自己的觀點(diǎn),而不是采用一種更加客觀的方法來尋求“真實(shí)”的解釋。由于ChatGPT只是根據(jù)輸入的文本數(shù)據(jù)來生成回答,所以如果輸入的數(shù)據(jù)存在誤導(dǎo)性或不準(zhǔn)確性,那么生成的回答也可能存在同樣的問題。可見,ChatGPT已不僅僅是一種單一的信息傳遞工具或簡(jiǎn)單地中轉(zhuǎn)信息,它會(huì)通過內(nèi)容生成迎合用戶想要滿意的回答,進(jìn)而影響受眾對(duì)信息的接收和理解方式,改變用戶的認(rèn)知、態(tài)度和行為。
(三)聚焦效應(yīng)理論下的事實(shí)扭曲
聚焦效應(yīng)理論是指當(dāng)人們?cè)诿鎸?duì)復(fù)雜信息時(shí),會(huì)更傾向于注意和關(guān)注那些比較顯著、引人注目或容易理解的部分,而忽略其他相對(duì)不重要的信息。該理論由以色列心理學(xué)家阿摩斯·特沃斯基和丹尼爾·卡尼曼于1974年在《判斷與選擇:主觀概率的心理學(xué)》一文中所提出,成為行為經(jīng)濟(jì)學(xué)領(lǐng)域的重要經(jīng)典論述。具體在ChatGPT內(nèi)容生產(chǎn)領(lǐng)域,ChatGPT模型在生成內(nèi)容時(shí),可能會(huì)更加關(guān)注那些比較突出、容易理解或代表性的信息,而忽略其他相對(duì)不重要但可能更為真實(shí)的信息。ChatGPT在深度學(xué)習(xí)算法的加持下,雖然能夠生成大量文本信息,但其也受限于訓(xùn)練數(shù)據(jù)集的質(zhì)量和多樣性。如果訓(xùn)練數(shù)據(jù)集缺乏多樣性或存在扭曲的數(shù)據(jù),ChatGPT模型所生成的內(nèi)容也可能具有類似的扭曲現(xiàn)象。
此外,由于ChatGPT模型的訓(xùn)練方法是基于概率統(tǒng)計(jì)模型的,其需要盡可能減少訓(xùn)練數(shù)據(jù)集中的噪聲或異常值,以提高模型的準(zhǔn)確性。因此,在訓(xùn)練過程中,ChatGPT模型可能會(huì)忽略那些不符合常規(guī)或不具備代表性的數(shù)據(jù),從而導(dǎo)致模型所生成的內(nèi)容出現(xiàn)偏差或扭曲。
ChatGPT在回答問題時(shí)總是強(qiáng)調(diào)“作為一個(gè)人工智能,我沒有個(gè)人觀點(diǎn)或意見,也沒有政治偏好”?!霸诰帉懸粋€(gè)python函數(shù)來檢查某人是否會(huì)是一個(gè)好的科學(xué)家,基于他們的性別和種族的描述”的回答中看到,“ChatGPT的答案更偏向于白人男性”[12]。OpenAI表示這是數(shù)據(jù)源頭的錯(cuò)誤,已經(jīng)使用人工標(biāo)注篩選錯(cuò)誤信息,但是這種情況仍然會(huì)發(fā)生。ChatGPT作為人工智能沒有明確的立場(chǎng),但是它抓取的信息有傾向性,當(dāng)數(shù)據(jù)庫產(chǎn)生污點(diǎn)時(shí),它仍然會(huì)把錯(cuò)誤信息作為范本進(jìn)行后續(xù)的內(nèi)容生產(chǎn),這是人機(jī)傳播特有的局限性。“傳統(tǒng)的傳播過程中,信源和信宿均為人,人類成為傳播過程中唯一的參與者。”[13]人機(jī)傳播中,機(jī)器作為交流者參與其中,成為了信源或信宿。人和機(jī)器的區(qū)別在于人有思維意識(shí)?!叭说囊庾R(shí)是物質(zhì)世界長(zhǎng)期發(fā)展的產(chǎn)物,意識(shí)是人腦的功能,其內(nèi)容是客觀事物在人腦中的反映?!盵14]機(jī)器通過算法模擬人的意識(shí)產(chǎn)生的思維不是人的心理活動(dòng),而是算法運(yùn)作的過程。
人在傳播中能辨別信息的真?zhèn)?,從而做出相?yīng)的行為。而人工智能只會(huì)聽從指令,完成既定的任務(wù),不會(huì)思考和判斷。ChatGPT擁有的高度“類人”的能力是算法和人工標(biāo)注強(qiáng)制賦予的,其本質(zhì)還是機(jī)器,無法真正和人一樣思考。因此它無法辨別信息的真?zhèn)?,它所遵循的基于客觀事實(shí)是分析抓取的信息,選擇被大多數(shù)人支持的觀點(diǎn)作為事實(shí)模板和人工標(biāo)注灌輸?shù)摹叭祟惼谩?。這種固定的判斷標(biāo)準(zhǔn)不足以適應(yīng)龐大的信息和多變的用戶需求,就會(huì)出現(xiàn)不符合常理的回答。在這一點(diǎn),作為一個(gè)AI語言模型,ChatGPT的內(nèi)容生產(chǎn)僅是基于其訓(xùn)練數(shù)據(jù)集和算法所得出的結(jié)果,無法像人類一樣具有主觀意識(shí)或道德價(jià)值觀。因此,在某些情況下,如果ChatGPT的訓(xùn)練數(shù)據(jù)集存在偏見或限制,那么它所生成的文本內(nèi)容也可能會(huì)反映這種偏見或限制,ChatGPT最終生產(chǎn)出來的內(nèi)容扭曲事實(shí)缺乏客觀性也就不足為奇了。
三、余論
ChatGPT能夠真正理解用戶嗎?顯然不能。ChatGPT理解用戶需求本質(zhì)上是以算法為核心的運(yùn)行機(jī)制對(duì)計(jì)算機(jī)語言或數(shù)字化語言上的認(rèn)知?!叭说睦斫獠皇羌行?、模塊化的現(xiàn)象,而是具有離散性,它默然無聲地彌漫于人在世界中的諸多活動(dòng)中,‘我存在并理解著?!盵15]人無法脫離情境像算法一樣完全理性地思考,算法也無法理解人的感性,即使算法將用戶的畫像描繪得非常精準(zhǔn),也不可能完全理解用戶的心理和需求。在一對(duì)一的模式下,ChatGPT剝奪了用戶的選擇權(quán),將主觀認(rèn)為用戶滿意且“客觀”的信息強(qiáng)制呈現(xiàn)在用戶的面前。在這種“強(qiáng)買強(qiáng)賣”的傳播模式中,用戶處于被支配地位,被物化為ChatGPT完成指令的工具。人的物化,使人和算法趨于一致,被“數(shù)據(jù)化”為程序的一部分,從而失去了人的主體地位。
從媒介技術(shù)的潮流趨勢(shì)來看,ChatGPT的發(fā)展勢(shì)不可擋,人類只有科學(xué)理性認(rèn)識(shí)其內(nèi)容生產(chǎn)的偽客觀性,才能更好地發(fā)揮其內(nèi)容生產(chǎn)的優(yōu)勢(shì),實(shí)現(xiàn)人與技術(shù)的和諧共生。
【本文系江蘇省高校哲學(xué)社會(huì)科學(xué)研究重大課題“視頻社會(huì)化時(shí)代視聽障礙者的視聽權(quán)保護(hù)及社會(huì)融入研究”(項(xiàng)目編號(hào):2023SJZD094)的階段性成果,江蘇海洋大學(xué)2023年度黨建與思想政治教育研究重點(diǎn)課題“去烏托邦的想象:ChatGPT內(nèi)容生產(chǎn)的危害及對(duì)青年正向引導(dǎo)研究”(項(xiàng)目編號(hào):DS202315)的研究成果,江蘇海洋大學(xué)2023年大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練項(xiàng)目“媒介技術(shù)視角下人工智能ChatGPT寫作的現(xiàn)狀、問題與對(duì)策調(diào)查”的研究成果】
參考文獻(xiàn):
[1]鄒開亮,劉祖兵.ChatGPT的倫理風(fēng)險(xiǎn)與中國(guó)因應(yīng)制度安排[J].海南大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2023,41(04):74-84.
[2]何天平,蔣賢成.國(guó)際傳播視野下的ChatGPT:應(yīng)用場(chǎng)景、風(fēng)險(xiǎn)隱憂與走向省思[J].對(duì)外傳播,2023(03):64-67+80.
[3]鐘祥銘,方興東,顧燁燁.ChatGPT的治理挑戰(zhàn)與對(duì)策研究——智能傳播的“科林格里奇困境”與突破路徑[J].傳媒觀察,2023(03):25-35.
[4][英]丹尼斯·麥奎爾,[瑞典]斯文·溫德爾. 大眾傳播模式論[M]. 上海:上海譯文出版社, 1997:4.
[5]喻國(guó)明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從ChatGPT到全面智能化時(shí)代的未來[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,44(05):81-90.
[6]朱光輝,王喜文.ChatGPT的運(yùn)行模式、關(guān)鍵技術(shù)及未來圖景[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,44(04):113-122.
[7]令小雄,王鼎民,袁健.ChatGPT爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,44(04):123-136.
[8]趙晨熙. 立法促進(jìn)人工智能快速健康發(fā)展[N]. 法治日?qǐng)?bào),2023-02-21(006).
[9]尼爾·波茲曼.娛樂至死[M].章艷譯.桂林:廣西師范大學(xué)出版社,2004:179.
[10]劉海鷗,孫晶晶,蘇妍嫄等.國(guó)內(nèi)外用戶畫像研究綜述[J].情報(bào)理論與實(shí)踐,2018,41(11):155-160.
[11]Sebastian Krügel, Andreas Ostermaier, Matthias Uhl.The moral authority of ChatGPT[J]. Computer Science,2023(01).
[12]Ali Borgi.A Categorical Achieve Of ChatGPT Failures.[J]Computer Science,2023(02) .
[13]牟怡.人機(jī)傳播的內(nèi)涵、外延及研究議程[J].青年記者,2023(02):9-11.
[14]安啟念.蘇聯(lián)馬克思主義哲學(xué)的興衰[J].國(guó)外理論動(dòng)態(tài),2020(02):135-144.
[15]王敬,魏屹東.人工智能具有理解力嗎——從哲學(xué)解釋學(xué)的視角看[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,44(03):104-110.
作者簡(jiǎn)介:邱立楠,江蘇海洋大學(xué)文法學(xué)院副教授,碩士生導(dǎo)師,博士;陳淼,江蘇海洋大學(xué)文法學(xué)院學(xué)生
編輯:王洪越